所長の独り言... 
とあるジャズベーシストの独白・・・
脳内に木霊する音
生音(アコースティック)なバンドのサウンドには、楽器の配置による前後・左右、またそれぞれの楽器の持つ音色(周波数)によって生み出される上下(.高低差)などの立体感がある。
しかし我々日頃から生楽器で生演奏に親しむアナログ派の演奏者やリスナーは、「それ」だけじゃない事を良く心得ている。
自分とバンドとの位置関係によって。 また、自分とバンドのいる空間の広さやその構造や材質によって。音楽の場の空気感、熱量、雰囲気、人数、、、などによって、聴こえ方に色々な違いが生じてくる。 音が一方向に進む訳ではなく、様々な方向に放射され、反射され、混じり合ったり衝突したりする。 反響とか、残響とか、山彦(木霊)とか、、、なんにせよ。自分の位置によって、聴こえ方に変化が生じる。 よっぽど人工的に作り出した無響室とかでない限り。 こんな事は、誰でも知っている。自然に、感覚的に、分かっている事。 わざわざ言うまでもない事だ。
 
 ・・・だから、分からなかったんだな、と。
  レベルにせよ、PANにせよ、イコライザにせよ、リバーブにせよ。 アナログ派は、リアルな配置とか自身の演奏とか舞台セッティングとかで、どうにかしようとしてしまう。 むしろ、どんな現場でも均質化しようと、苦心努力してしまいがち。
 我々ベーシスト的には音量ツマミとか、イコライザとか、エフェクターとか。アンプにもついてたり、持ち歩いたりで。縁があると言えばあるが。
 僕の場合、音作りとか、個性化とか、演奏のし易さとか、、、ボロ隠しとかw そういう用途にしか使わないし、元々そういう目的のもの、一種の反則凶器、くらいに思ってきた。
 同じものでも、使い方によっては、薬にも毒にもなる。
 「あまり薬物/毒物に頼らず、なるたけ自力で頑張りたい!」という意識が働いてしまい、あまりイコライザとかエフェクトとかの、本来の存在意義とか使い方について、全く理解していなかった。
 
 違うんだな。
 平面的なものを、立体化させるために使うもの、なんだな。
 エレキギター、エレキベースのような生音の無いエレキ楽器は、それで音を作るしか無い。 そのために、プリアンプやパワーアンプで、イコライジングしたり、増幅したりする。 元々ウッベのような、生音のある楽器のためのものじゃない。ウッベ弾きの視点で、これらを眺めていたから、どうにもピンとこなかったんだな。

 アナログ派、ウッベ弾きで、ずっとやってきたせいか、どうしてもアンプやエフェクトというと、歪んだ見方をしてしまいがちだが。デジタルとか録音とかの視点から見れば、平面的なスピーカー・ヘッドホンから鳴らす前に、人工的に、立体感や反響や残響などの空気感・臨場感まで埋め込まなきゃならない。
 「状況に合わせて臨機応変に、かつ毎度おなじみの、相変わらずな演奏をお届けします☆」が合言葉のジャズ畑の生演奏家の心意気とは全く逆に考えなきゃならない。 「状況そのものを作る(再現する)」事をしなくちゃならない。狭いカフェで、或いは広いホールで、演奏してる事にしなきゃならない。
 仕上がり状態を決める、音をイメージする、というより、まずは、「どんな場所・状況でやっているか」を決めて、イメージして、シミュレーションしていかなくちゃならない。 「ま、なんとなく良い感じに聴こえれば、聴いて貰えりゃ、結果オーライ☆ 無問題♪」的な、ドンバ的なノリでは出来ない。

 このゲームのルールが見えてきた。
 
 ゲーム、再開。






 参考までに、色々と手持ち音源を(演奏とか作編曲を度外視して、主にミキシングに注目して)リスニング。
  ・・・色んなカタチ(作り方)があるなぁ。。。 
 ジャズものの、ベースだけに絞っても、真ん中だったり、やや右寄りだったり、、、時たま、なんと左から聞こえてるものや、真上から聞こえてくるものもある。
 これまで、そんなもの、あまり気にした事がなかった。
 鈍感さに加え、つい昨年まであまりリスニング環境が良くなかった(安物ヘッドホン使っていた)せいもある。

 実際の所、ジャズ系の作品のミキシングというのは、どういった層の、どんなリスニング環境を、メインターゲットにしているのだろう。
 どデカいスピーカーとハイエンドなオーディオシステムのあるリスニング・ルームでグラス酒を飲みながら聴く層なのか、通勤通学の途中に端末イヤホンで聴く層なのか。
 生ライブの現場を再現した臨場感たっぷりの感じを求める層なのか、ミュージシャン目線のステージ上の感じを求める層なのか、RVGが作り上げたファンタジーな(リアルにはあり得ない)レコード的な音楽空間を求める層なのか、最先端の色々と駆使した刺激的なヴァーチャル音楽を求める層なのか。
 正解はひとつじゃない。いくらでもある。

 ところで。 話は思いきり変わるが。 数年前、和声の原理や楽器ルーツを求め、西洋の音楽について西洋史(というか民族史)とか絡めて徹底的に勉強してみた事があった。 ルネサンス期、ブルゴーニュで生まれた和声がイタリアに伝わった後、ルネサンス音楽として全盛期を迎え、やがてバロック音楽を作り出す。その時代、フランドル楽派のスタイル、対位法が全盛の中で、ヴェネツィア随一の寺院 聖マルク聖堂では、教会の構造を駆使した、独特な手法が使われるようになった。あまりに巨大であったため、残響を利用した二重合唱が開発された。
 二つのバンド(聖歌隊やオルガン)を離れた位置に別々に配置し、交互に演奏させたりして、意図的に反響・残響でアンビエンスな特殊効果(エフェクト)を作り出した、と言われる。 現代では、いちいち中世風の巨大な教会を建築をしなくとも、そんな効果を挿入(インサート)する事が出来る。
 1960年代頃、ジャズ作品のいくつかは、独特なフィーリングを求めて、わざわざ古い教会とかやたら響きまくる所で録音されたりした。 それも、現代では、リバーブのプリセットの選択で、似たような効果を出せる。

 アナログ式では、マイクに録る際に、ほとんど決まってしまっていた。録音環境(ロケーション選択)が大事だった。 しかし、デジタルでは、録ったり作ったりした後で、後づけで選択出来るし、差し替える事が出来る。 というか、選択し、決定しなくちゃならない。
 それとは別に、いくつかのトラックを一つの音源と言う器に箱詰めしてく作業を行う際に、一括してそういう指定を行う事も出来る。 各チャンネルに直接エフェクトを接続するインサートと、複数のチャンネルから一台の機器に対して音を送り出し、戻ってきた音を原音にミックスするセンド(・リターン)。

 「響く(反響残響がある)なぁ。 よし、硬めな音で演奏しとこう」という現場のプレイヤー的な思考ではなく、「こういう音(演奏)がある。よし、こう響かせよう」というエンジニア的な思考に切り替えていかなくてはならない。

  頭硬いので、切り替えが大変w
スポンサーサイト
コメント
コメント
コメントの投稿
URL:
本文:
パスワード:
非公開コメント: 管理者にだけ表示を許可する
 

     

 



TRINITY ファーストアルバム

「Fanatical Stories」 発売中!