今年、2007年のサクソフォーンフェスティバルのプログラムに、「サクソフォンとライヴエレクトロニクスのコラボレーション」なるシリーズが用意されているのは周知の通り。プログラムはこんな感じ。おなじみの曲ばかりだ(唯一、酒井氏の作品だけはまったく聴いたことがないのだが)。
・Jacob ter Veldhuis「The Garden of Love(林田和之)」
・酒井健治「Beetween the wave and memories - side A(大石将紀)」
・Christian Lauba「Stan(栃尾克樹)」
・Pierre Jodlowski「Mixtion(井上麻子)」
・Jacob ter Veldhuis「Pitch Black(アルディSQ)」
私にとっては嗜好が強く働く分野であるから、今から聴くのが楽しみである(予定が入らないことを祈る)。ちなみに私たちも、一日目に、このコンセプトに沿った四重奏作品を一曲演奏させていただく予定。どうなることやら(さらうのが間に合わないーーーっ)。
さて、本日はこれらサクソフォンとライヴエレクトロニクスを組み合わせた作品の意義について、私の考えを述べたい。テーマは「(伝統という文脈に沿った上での)拡張」。ちなみに、ここで論じる"ライヴエレクトロニクス"という言葉はテープと合奏するもの、マイク→エフェクタを伴うもの、シンセサイザー音を使用するもの、発音のタイミングをコントロールしていくものなど、広義のものを指すこととする。
"楽器"はなぜ発明されたのか?それは、ヒト単体では出すことのできない音を獲得するためである。ヒト単体で出すことのできる音は、声、あとは手を打ち合わせることで発生される音程度のものか。脳の進化はそれだけには飽き足らず、さらに多彩な音を求めた。我々の祖先は、たとえば動物の骨を打ち合わせることによって打撃音を繰り出し(打楽器)、植物性や動物性の管に息を通すことによって空気の共鳴音を響かせ(管楽器)はじめたのである。
さらに、楽器同士を組み合わせて演奏することにより、さまざまな演奏形態が生まれた。伴奏を伴う独奏曲、室内楽、協奏曲、弦楽合奏、オーケストラ、吹奏楽といったものである。これら演奏形態は、新しい響きを求める過程で生まれたもの。必然性から、各要素(小編成)がシナジーを生み出していったとも言える。編成の拡張である。
このいわゆる"クラシック音楽"の本流とはやや外れた場所で、20世紀半ばに電子音楽が産声を上げることとなる(ここで言う"電子音楽"はフランスのミュージック・コンクレートと、ドイツの電子音楽奏法を意味する広義の語)。電子音楽は、生の楽器では出しえない、新たな響きを求めて出現したとされる。響きの拡張である、と言えよう。
当初は内にこもりながら醸成されていったが、いつしかアコースティック楽器との共演を行うようになった…手元に資料がないのだが、アコースティックの楽器とライヴエレクトロニクスが初めて共演を行ったのはどの作品であるということになるのだろうか。この中には、単純にテープと合奏していくだけのもの、楽器の音をマイクで拾いながらエフェクトをかけていくもの、それらを組み合わせたもの、などがある。IRCAMで開発されたMAX/MSPシステムは、作曲家個人レベルでのアコースティック楽器と電子音楽の共演を可能にし、広く受け入れられた。
ではここで、電子音楽がアコースティック楽器と共演することを、クラシック音楽の本流へと組み込んで捉えてみたい。つまり、古くから編成を肥大化させながら、新しい響きを求めるという方向へ進んできたクラシック音楽を奏でる編成の、現在における最終地点を、オーケストラではなく、ライヴエレクトロニクスと定義するのだ。
すると、なんとライヴエレクトロニクスは、以下のような点をはじめ、オーケストラを完全に凌駕するのである。
・響きの多彩さ(モーグを使えば、世の中に存在するあらゆる音を出すことができる)
・発音タイミングの正確さ(人間とは比べ物にならない)
・音程の正確さ(そりゃそうだ)
・リーズナブルさ(ライヴエレクトロニクスのほうが、多くの面で経済的)
以上、サクソフォンとライヴエレクトロニクスが共演する、ということはすなわち、サクソフォンが宇宙最強のオーケストラと共演することに他ならない、という結論へと至るのであった。これまでオーケストラと奏でられていた数々のサクソフォーン協奏曲は、全てがライヴ・エレクトロニクスへと取って代わられるべきだ、ということになる。
…と、そこまではさすがに言いすぎだが、とにかくサクソフォンとライヴエレクトロニクスの共演は、協奏曲という形式を拡張したものに他ならない、というのが私の中での今のところの結論。しかも、決して突拍子もないところから出現したのではなく、オーケストラでは足りない部分を改善するために、必然的に生まれたきたものである、というのも大事なポイント。
それでは、ジョドロフスキの「Mixtion」を例に挙げてオーケストラとの優位性を具体的に考察しながら、本記事を終えることとしよう。
・響きの多彩さに関して:聴いて解るとおりである。オーケストラとの協奏曲ではなしえない音の洪水。「Mixtion」のPatcherがMSPを通じて発する音を、可能な限り高音質で鳴らすことにより、聴覚可能範囲めいっぱいに拡張された音波とサクソフォンのミックスされたサウンドを聴衆は体感することができる。1ページのみを見てみても、最初のpppppからの重低音のクレシェンドしかり、ヘリコプターの音しかりである。
・発音タイミングに関して:従来であれば独奏者→指揮者→オーケストラという流れの中で、タイムラグが発生することは避けられなかったが、「Mixtion」では、独奏者が足元のペダルを操作することにより、次のステージ(練習番号)へ移行するという仕組みを採用した。これによって、生身の人間を数段挟むことによる一連のオーバヘッドを削減することとが可能となった。
・音程の正確さに関して:通常の協奏曲であれば、オーケストラという大きな編成上、完璧な音程追求は不可能であった。共演する音を、あらかじめコンピュータ上で作成しておくことは、バックのサウンドに関しては、微小なレベルでの音程調節を可能にする。純粋に、アコースティックな独奏楽器のみの音程が問われることは、理想的な状況であると言える。演奏前のチューニングも、バックに関しては必要なし。
・経済面:「Mixtion」に関して言えば、用意する機材はMAX/MSPソフトウェア、Mac or WindowsPC、ミキサー、スピーカーである。オーケストラとの共演に比べて、再利用性が高く、再演を繰り返すほどにコストの削減へと繋がることがわかる。
0 件のコメント:
コメントを投稿