|
|
|
|
|
|
|
1996年2月 [終了しました.]
NTT/ICC推進室
|
|
|
|
現実とCGが融合した世界 |
|
岩井:最後に,この間のピアノの作品の話をしましょうか.『映像装置としてのピアノ』っていう作品で,MIDIコントロールできるグランドピアノとCG映像を組み合わせた作品です.簡単に言うと映像で本物のピアノを演奏してみよう,という作品.
グランドピアノには2つのスクリーンが取り付けてあります.鍵盤から手前に水平にのびているスクリーンと天井に垂直にのびているスクリーンとがあって,それぞれに別の映像が投影される.水平なスクリーンの前にはトラックボールがあって,プレイヤーは椅子に座って,トラックボールを使って水平なスクリーン上に絵というか,たくさんのドットを描くことができる.
プレーヤーが描いた絵はゆっくりと鍵盤に向かってスクロールしていって,近づいた瞬間,絵の1ドット1ドットが光となって鍵盤を叩いて,音楽になる.同時に垂直にのびたスクリーンに,別な映像——シリコングラフィックス(SGI)の3次元的なハイレゾリューションの映像が,あたかも音が映像になったかのように鍵盤から飛び出すっていう感じです.つまり,映像で本物のピアノを演奏して,その音楽がまた映像となって立ち昇っていく.
下のインターフェイス部分の映像はAMIGAを使って,上のハイレゾリューションの絵はSGIのIndigo2 Extremeを使いました.AMIGAのほうはトラックボールからの情報を絵として映像に出し,同時に描かれた絵のドットの位置をMIDI信号にしてピアノに送る.さらに別なシリアル信号をSGIに送って,SGIのほうはそれに合わせて絵を出す,というようなことをやりました.
僕にとってこれが初めてSGIを使う作品ですね.
森脇:SGIを使って抵抗感とか,逆にSGIを使うぞみたいな意気込みはありましたか.
岩井:94年の4月から95年の6月まで,ドイツのZKMという一種のメディアアート研究所にいたんですよ.この分野では有名な作家のジェフリー・ショウさんがそのZKMでディレクターをしていて招待してくれたんです.このピアノの作品は,そのZKMでつくりました.ジェフリー・ショウという人は昔からシリコングラフィックスを使ってる人で,その研究所にもシリコングラフィックスが5,6台あるんです.せっかくそこに行って作品をつくるんだから,何か新しいことを覚えようと思ってました.じつは僕は,ずっとBASICコンパイラとかで作品をつくってたので,C言語はやったことないし,シリコングラフィックスもUNIXも初めて,あとシリコングラフィックスでグラフィクスを扱うためのGLっていうライブラリがあるんですけど,UNIXとCとGLを同時に覚えながらこの作品をつくりました.使ってみて思ったのは,シリコングラフィックスはすごいけれども,やっぱりそれを使ってつくった作品はなんかクセがある——というか,これはSGI使ってるなってすぐわかっちゃいますよね.機械ごとのそういうクセというかオリジナリティ,個性みたいなものが,僕らにとっては余計なことだと思うんですよ.ぱっと見た作品のコメントが「SGIだね」って言われるのって,なんかすごくいやだな.
森脇:でも,それを乗り越えられない.使うほうも能力を引き出せてない.だからどうしてもSGIらしさが残ってしまうということですか.
岩井:残ってしまうというか,みんながみんな,いまそういうものに興味を持っちゃってるっていうのもある.SGIがこういうマシンを出したからこういうこともできるようになったっていうのが,作品の個性よりもすごくなっている.いままでマッピングができなかったのが,マッピングができてリアルタイムで動くようになると,「これすごいね」ってみんなが言う.けれども,じつはそれはアーティストの感性でできているわけじゃない.マシンが進化したことによってできている.マシンに刺激を受けて,こういうものをつくってみたいと思ってつくるのも,その人にとってたしかに重要な進歩やアプローチだし,僕もそういうところが多分にあるけど,SGIに使われて,機械の宣伝をしているというのは情けないことだと思うんですよ.
ZKMで何かつくることになって,SGIを一度は使ってみたいなとは思っていました.最初は『MUSIC INSECTS』というサンフランシスコでつくった作品のSGI版というか,3D版をつくってみようかなと思っていたんです.けれども,それだと映像のなかだけの世界になってしまうので,いま流行りの3Dインタラクティブな作品にしかならない.ヴァーチュアル・リアリティみたいな世界をもっと現実世界に引き戻すような作品をつくってみたかった.
さっきの『アインシュタイン』もそうなんですけど,現実の世界とCGの世界が同居することによって新しい可能性が見えてくる気がしています.映像が本物のピアノを演奏するんだけど,MIDIピアノっていうのは,自動演奏ピアノみたいに,MIDI信号を受けると,ちゃんと鍵盤が動くんですよね.物理的にものが動くのを映像でコントロールできる.それまで僕が作品で音を使う場合,パソコン内蔵の音源や,MIDIでシンセサイザーをならすとか,サンプリング音をならすとかだったんだけど,MIDIピアノは本物のアコースティックな音を出すわけです.それをリアルタイムでコントロールして映像と組み合わせることにすごく興味があった.実際やってみるとほんとうにおもしろかった.
この作品は,じつは90年ぐらいから一応アイデアがあったんです.5年ぐらい自分のなかであたためていたけど,なかなか実現できなかったんです.AMIGAについては,僕なりの知識とか蓄積があるわけですね.それでピアノをコントロールしたりとか,トラックボールにつないで人がコントロールできるようにしたりっていうことをすんなりできる.でも,ピアノって,やっぱりすごく完成された一種のオブジェだから,それに見合うクォリティの映像をということでシリコングラフィクスを使いたかった.
森脇:それは,映像とピアノの質を合わせるということですか.
岩井:そうですね.それと,あらかじめ記録されたものをリアルタイムに再生するということであればAMIGAでもできたんです.だけど,1個1個の演奏された音楽によってリアルタイムに変化していく映像っていうのをやってみたかった.
森脇:出てくるオブジェクトみたいなものは毎回毎回変わるんですか.
岩井:全部変わるんです.1個1個の音が演奏されるとダイヤモンド型のオブジェクトが回転しながらピューンと飛び出して天井に消えていくっていう感じなんですね.1個1個の鍵盤は全部ちがう音程を持ってるんで,それをどう視覚化するかっていうことで考えたのが,1個1個のオブジェクトの色を変えること.音に周波数があるように光には色のスペクトルがあるから,それを変えて一番低い音は赤,段々と黄色とかに変わっていって,最後に紫になるという光のスペクトルをそのまま音に当てはめたんです.
でも,ただたんに飛び出すだけではおもしろくない.今度は音楽の構造を視覚的に表現するにはどうしたらいいかを考えて,和音が演奏されたときに変化が起こるようにした.音っていうのは1個1個はひとつの音として耳に聞こえる.和音が演奏されると,耳のいい人なら「これはドミソだね」って言えるかもしれないけど,一般の人はわからない.一つの和音としか聞こえない.
だから,映像の上でも和音が絵として変化をもたらすようにしようと思った.たとえばドとミとソが同時に演奏されるとそれぞれの音に対応した色の違うオブジェクト3つが同時に飛び出す.それが空中で合体してひとつの星型みたいになる.実際にはそういうことがいろいろなタイミングと組み合わせで同時多発的に起こるので,常に映像は変化している.それをリアルタイムに判断してハイレゾリューションな画面上で実現するにはSGIしかなかった.今回まあまあのものができたけども,それでもオブジェクトが何百個と出てくるとやっぱりスピードが落ちてくる.最後には,同時に音の出る数を,人間の指が10本だから10個までに制限したりとか,そういうことをしなければならなかった.
ガクッガクッガクッとしか動かない作品というのは,人間の生理的に許されないと思います.人間が手を動かすように滑らかに動いてほしい.途中でウエイトがかかるような映像は絶対つくりたくないですね.
|
|
|
|