シーグラ日記`04 -8.12-

SIGGRAPHも今日が最終日。昨年から期間が1日短くなっているため、スケジュールが慌しく、あっという間といった感じだ。

3D Character Extension for Stop Motion Puppets
ライブのパペットアニメーションに実写の目の演技を3DCGによって合成した事例。パペットアニメーションはブルースクリーンで3DCGを合成するためのトラッキングマーカーとアンテナが取り付けられた状態で収録されている。こうして衆力されたパペットアニメーションを再生しながら役者の目の部分の演技収録が行われる。収録された目の演技はテクスチャ素材として利用される。
トラッキングマーカーを基にパペットの頭の動きが3DCGで再現される。アニメーションされたサーフェースにテクスチャ素材をマッピングすると、パペットの動きと目の演技が合成された状態になるという仕組みだ。
全て3DCGで製作しても良いのではないかという質問が出ていたが、パペットアニメーションならではの動きやライブな質感を追求し、あくまでパペットアニメーションというアプローチに拘ったという点が面白い。
リアルタイムではないが、これも一種のモーションキャプチャ的なデータ取得と言える。パペットアニメーションに拘らなければ、こうしたアプローチは考え付かなかっただろう。

Intermedia Performance
昨年に引き続き、テクノロジーパフォーマンスをテーマとしたSketchが開催された。アート傾向の内容が多いがモーションキャプチャで役者の演技結果がどのようにキャラクターモデルで動かされるのか、という点で参考になる部分もある。アクターに動きの指示を出す機会もあるので、アクター側からのテクノロジーに対する視点に関する事も聞くことが出来るので、参考になる部分が結構ある。

Conceiving embodiment: the dance-architecture of Spawn
パフォーマンスとイメージの関連付けにマーカーやセンサーなどを必要とするモーションキャプチャ技術を使用しないで、ビデオカメラからのパフォーマーのシェイプ変化を基にイメージを変化させるというアプローチ。昨年に紹介されたパフォーマンスの例ではパフォーマーとイメージの連携は機械式や磁気式のモーションキャプチャーを使用する例だけだった。これらのシステムはモーションの再現性という点で問題が若干あるため、動きや演出、表現するイメージに限界があった。今回紹介されたこの事例ではパフォーマーにマーカーやハードウェアを取り付け必要が無いため動きの制限は発生しない。ビデオカメラで取得したパフォーマーのアウトラインイメージをパラメータ化して、人の形以外のイメージ表現がされているのも昨年と違って面白い。

NightDriving: Videodance in Performance
あらかじめ計画されたパフォーマンスをビデオで収録し、透過するスクリーンとパフォーマーとの前後関係、スケール関係によって様々な表現が試みられている。ビデオに収録されているパフォーマンスはライブのパフォーマー自身であり、パフォーマーと同じ等身大でイメージが投影されることにより、バーチャルな空間が演出され、幻想と確実性、自己認識といったテーマが表現されている。リアルタイムなイメージの生成は行われていないが、その分綿密な計画、選出によって作り出されたビデオイメージとライブパフォーマンスの共演はビデオイメージのパフォーマーが本当に存在するかと錯覚するほどの精度をもったバーチャル空間が表現されている。

Illusory Interactive Performance by Self Eye Movement
LEDによる残像現象を利用することで、観客に対してインタラクティブ性を提供するパフォーマンスの事例が紹介された。AVIX社(http://www.avix.co.jp/)で開発された1.8mのLED装置は視線が変化によって、観客に残像イメージを見せている。今までの事例ではパフォーマーとイメージの間にインタラクティブ性があり観客はそのパパフォーマンスを見ているという図式ばかりであったが、この事例では観客の視線の変化を利用して、舞台と観客の間にインタラクティブ性を持たせている部分が面白かった。

Live Cinema : an instrument for cinema editing as a live performance
インタラクティブに映画のシーンをつなぎ合わせるパフォーマンスシステムの紹介。前述の3つのセッションと異なり、どちらかというとVJパフォーマンスに近いもの。システムは簡略化されたムービー編集ソフトのようなものであるが、インターフェースは直感的、身体的なもので、背面よりプロジェクションされたイメージを両手に取り付けたポインタでインタラクティブに選択したり、レイアウトを変えたり、ビデオイメージ同士をつなぎ合わせたりすることが出来る。ポインタのほかにターンテーブルのデバイスがあり、これを回転させることでイメージのつなぎや切り出しを調整することが出来る。パフォーマンスという面ではVJともまた方向性が若干異なり、編集画面そのものの挙動もパフォーマンスとして捕らえられている。

Games Development: How Will You Feed the Next Generaton of Hardware?
次世代ゲーム機の開発環境に関するパネルディスカッション。次世代機でのゲーム開発で予想される問題点、そしてどう解決すべきか、ディスカッションが行われた。内容的にはゲーム開発に携わる者なら多少は考えることで新鮮味は無かった。
次世代でなくとも、現在のプラットフォームで大作趣向になると、昔ながらのゲーム製作のワークフローでは限界が見えてくる。映像製作的なプロダクションワークフローが必須になってくること、より計画的なプリプロダクションワーク、バージョン管理の徹底や各データの関連管理の徹底、そして次世代に対応したビジュアルワークを実現するためには、デザイナー側にはより技術的なスキルアップが必要であること。こうしたことが次世代機の開発では必須になってくる。そしてそれに順応できないスタジオは次世代機のゲーム開発をすることが出来なくなる、といった考えはパネラー全員が一致した意見だった。
少なくとも、自分の周りの開発現場ではこれらに関する意識はまだ弱い感じがする。特にデザイナーに関しては厳しいことだが、沢山の課題を解決していかなければならないと感じている。デザイナーの場合、「次のプロジェクトから」とか「仕事が落ち着いたら」といった考え方が多いらしく、新しい事に関する順応にとても苦労する。次世代機への開発環境の移行のポイントは、いかにすばやく順応できるるか、またそれに備えてワークフローを改善し、意識を変える準備が出来るいれかどうか、といったアナログな部分も大きく影響するのではないかと思った。

Sketch Day After Tomorrow
デイアフタートゥモローのメイキング。FXの内容が内容だけにHoudiniのユーザーミーティングのような内容であったが、それぞれのFXに関してどのようなアプローチが必要になったのか、またどのように解決したのか、ツールから離れた部分の話も聞けたのは良かった。とにかく1つの表現に対してそれを表現するために必要な要素はそのようなものがあるのか、細かく分析して、適切な方法で表現されているという事が基本であり、徹底されていると感じた。

Growing Up with Fluid Simulation on .The Day After Tomorrow
ニューヨークを襲う津波ショットのメイキング。津波の表現のために流体シミュレーションソフトが開発されて、まずはその概略のプレゼンテーションから。面白いのは単なるシミュレーションだけで終わっておらず、アーティスト的なアプローチでパラメータが調整できるようにサポートされている点だ。自分でも経験があるのだが、ダイナミックスやシミュレーション等のツールを使用した場合、最初の「なんとなくこんな感じ」といったものは非常にお手軽に出来るのだが、最終的には「ここでこう回転してほしい」とか、「ここからモーションがスタートしてほしい」といった細かなディティールを思ったようにコントロールしたくなる。シミュレーションの類はこういったコントロールがめっぽう苦手なのだが、今回プレゼンテーションされた内容では、シミュレーション的な要素がほしい部分、アーティストが意図的にコントロールしたい部分と津波の要素を分解して、シミュレーションとプロシージャルなアニメーションを上手くブレンドしている。

The Day After Tomorrow Twister Sequence Toolkit
LAの竜巻ショットのメイキング。デイアフタートゥモローの竜巻は今までにない細かな挙動がパラメータレベルで調整できるようになっている。また、竜巻が分離したり合体したりといった表現もされている。基本的な竜巻のアニメーションはHoudiniで構築されたつイスターツールキットで設定される。レンダリングにはボリューム情報やライティングのリファレンス情報、局部的な発生してからの経過時間、などの情報がツールキットから引き渡されて、リアルな竜巻のレンダリングが実現されている。このセッションではシミュレータ的なアプローチはされていないが、イメージする竜巻をレンダリングするために、アニメーション作業からレンダリングに必要な各種パラメータが取り出されて、レンダリングチームに引き渡されているという連携がキーになっているように感じた。他にもイメージを実現するためにアプローチは幾つか考えられるが、効率的な部分も含めて、各セクションが連携して検証されている点が面白い。

Procedural Building Destruction for .The Day After Tomorrow.
ビル崩壊ショットのメイキング。ビル崩壊は竜巻の接触部分から始まり、部分的に崩壊の挙動が異なるといった細かなコントロールが実現されている。ビルのモデルに対して崩壊する部分を設定、さらに2段階のノイズが適応される部分を設定している。設定された部分にに対して竜巻が接触した場合の挙動はモジュール的な造り方で、バリエーションが作成されてから再配置されている。建材のタイプや材質などでモジュール化して挙動をコントロールすることで、ビルに再配置するだけでリソースを活用するという考え方は計画的にイメージを作り上げていかなければ、考え付かないことだろう。こうした部分は面白いと思った。

Building Crowds Of Unique Characters
災害に逃げ戸惑う群衆ショットのメイキング。津波や竜巻など災害に逃げ戸惑うアクターは殆どがデジタルキャラクタで表現されている。完全にユニークに動き、法則性の見えない動きをするという点で、それまでの群集アニメーションとは違うチャレンジがあったそうだ。MAYAで開発されたツールはキャラクタ生成の部分までサポートされている。パラメータの変更だけで、顔の形や背丈、服装、といった違いを設定することが出来る。アニメーションに関してノンリニアアニメーションツールを利用してタイミングや挙動を簡単に設定留守ことが出来る。配置に関してはペイントライクに配置するだけで群集の初期設定が出来る。セットアップまでが簡単に出来る、そして細かなコントロールも可能という点が良く考えられている。
ここでも群集を実現するためにその各要素が分解され、どの製作段階でコントロールするのか、また各段階への引渡しに際してどのようなデータが必要なのか、明確に判断されてパイプラインが構築されている。

これで今年のSIGGRAPHも終了。視察参加メンバーと現地で合流したメンバー全員でSeaFoodのお店で打ち上げ。今回は初めてのSIGGRAPHというメンバーが多くて、話しを聞くと色々刺激を受けたようで、とても良い機会だったとか。確かに自分も年々色々と見るものが変わってはいるが、色々刺激を受けることが多く、それがずっと続いているような感じだ。このように日記をUPしているが、毎年来たくなる魅力を感じるのはやはり、実際に行ってみるというのが一番だと思った。