特別研究期間ということで教授と面談して年次制作、修士制作についての意見を伺う。chaserで書いていたように、複数のモジュールを空間内に配置することで音と映像をつくることにしようと考えている。少し前には担当教官の前林さんとアートとエンターテイメントのどちらに落とし込むかについての議論をした。
本日は三輪さんと前田さん。二人ともスタジオ2でタイムベースドメディアの教授(ちなみに僕は最初スタジオ2に所属してました)で三輪さんが音で前田さんが映像。アカデミーの頃からお世話になっていたので話は通じやすい。前田さんとは12日のAOKI Takamasaさんのライブに連れていってもらったり。
3日のライブで使用したmaxパッチを動かしながら説明。僕のイメージとしては、仮想空間内でそれぞれモジュールが動いていて、音が鳴っていて、リスナーが空間内を動いてそれを聴いたり、録音したりすることで自動的に音楽ができあがる、というようなもの。さらにネット上で複数人が参加して空間を編集できるとか何とかも言っていて、全然整理できてなかったのだけど、三輪さんが現代音楽、電子音楽の文脈でプレゼンテーションを行う場合のモデルを提示してくれてとてもクリアになった。曰くモジュールから発生する音の動きの重ね合わせで音響を作り、「アンチコンポジション」的な態度でメディアに落とし込んだものを作品とする。と。非常に三輪さんらしい意見。アルゴリズムを作曲でなく音響、音色に利用すること、そしてそのアルゴリズムが映像付きで独自に設定されていることが可能性として面白がってもらえたようだ。音と映像の「動き」にフォーカスしてみるのはいい切り口かもしれない。前田さんも音と映像の対応関係、そして数あるジェネレータ系のものよりかなりバリエーションが作れるところに注目してくれた。ycamの時に実現したかった成長の要素を組み込んでもいいのかもしれない。
共通して質問されたのはやはり落とし所、これはアートなのかエンターテイメントなのか。インタラクションを楽しみたいのか、聴いたことない音を鳴らしたいのか。
で、やっぱり僕は聴いたことない音が鳴らしたい。
0 件のコメント:
コメントを投稿