いよいよ最終日です。いつも思うのですが、カンファレンスは始まってしまうとあっという間です。ドイツでの楽しみのひとつに色々なビールを飲む事があります。駅のコンビニでも写真のようにズラ〜っと大量の種類のビールが並んでいます。そんな中でOさんが勧めてくれた変わり種がバイツェンビールにグレープフルーツをブレンドさいたもの。えぇ??そんなのアリか?と最初は思ったのですが、飲んでみて納得。ビールの苦みとグレープフルーツがとてもマッチしてます。
●Dobby and Kreacher: Crossing the Uncanny Valley
ハリーポッターのドビーのキャラクタアニメーションに関するセッションです。タイトルにCrossing the Uncanny Valleyと不気味の谷を超えると付いていますが、近年のVFXではバーチャル・キャラクタが実写の役者と一緒に本当に存在するかのように登場するショットが多くなりました。ドビーはエルフで実際には存在しない存在ですが、バーチャルキャラクタが感情表現をして、如何に本当に存在しているように感じさせる為に、技術的にどのようなアプローチが試みられたのか、その事例が紹介されています。
感情表現の要とも言えるフェイシャル・アニメーションですが、このカンファレンスの日報でレポートしている手法とほぼ同様のフローでした。役者とCGキャラクタの表情リファレンスを作成してフェイシャルRIGの設計方針を固めて行きます。「リファレンスを用意して、RIGをきちんと設計しましょう」と特に特別な技術がある訳ではありませんが、顔の筋肉に沿っていくつもの格子やマーカーを設置して、表情によってどのように伸縮するのか、細かいところまでリサーチされています。こうして導きだされた役者とCGキャラクタの表情の特性のズレをモーションキャプチャのデータを指標化することで細かな顔の挙動をCGキャラクタに反映しています。この作品で使用されたMOCAPシステムはMovaを使用しています。声の収録時に役者の表情変化をリファレンスとして収録して、キャプチャデータを入れたフェイシャルリグで調整を行っています。
ボディは別途Puppet RIGと呼ばれるボディ用のRIGが用意されています。フェイシャルとボディを別々に編集を行い、パイプライン上で統合しています。体のスキンはアニメーションデータによって動かされる骨メッシュ、その動きを受けて筋肉の挙動を再現する筋肉メッシュ、表皮の動きによるズレを表現する表皮メッシュの3つのメッシュで構成されています。こうした複雑な構造によって、エルフの生物感を感じられる表皮変形が表現されています。さらにこの上にクロスシミュレーションが入りますが、シミュレーションの効率を考慮して、シンプルなボリュームメッシュが別途用意されています。
上記のような表現を実現する為に、パイプラインの構成も柔軟にやり取りできるように構成されています。その中核にあるのがRIGなのですが、この事例を見ると、確かにキャラクタモデルやLOOKS、アニメーション等が集約しやすい位置にあると思いました。これまでは、どちらかというと、アニメーションワークの延長上にあるように考えていたのですが、より高度な表現を実現する為には、これまでに存在していたポジションでも、その役割が変遷して行くことも考えなければならないのかもしれません。
●A Tribute to Harry Potter
ハリーポッターシリーズを振り返り、それぞれの作品でVFXがどのように変遷したのか、振り返るトークセッションでした。細かな技術情報が殆どなかったのは個人的に残念だったかと。VFXの変遷に関しては、様々な表現が紹介されていましたが、大きなところでは、より複雑なバックグラウンド表現が可能となり、大きな物は殆どがエクステンションになっていること。CPUの性能向上による複雑なシミュレーションによる表現の可能性、キャラクタの表現では、動物的な扱いのクリーチャー表現が出来るようになり、さらにその発展として、役者と会話を交わすような意思のあるバーチャルキャラクタが登場、現在ではスタンダードになりつつあります。先日のスコットロス氏の講演でも、ムービー市場においてこの点が触れられていました。シリーズ1作目が2001公開なので10年間を振り返ると、技術変遷とそれに伴う表現の変化の関係性が少し見えてくるところもあり面白いセッションでした。
●Innovative use of large mocap databases
University of Bonn & GfaR mbHで研究されているモーションキャプチャ・データベースとその有効的な活用方法のテクニカル・トークです。技術紹介のセッションですが、アーティスト向けに非常に理解しやすく原理を解説されていました。こうしたセッション構成はアーティスト系向けのFMXならではだと思いました。 紹介されたモーションキャプチャデータベースは胴体、左右の手足、頭の6カ所の可動範囲にある他のフレームのポーズを参照する事で、モーションキャプチャのデータを有効活用する提案がされています。6カ所の可動範囲を検索する部分は現在はオフライン処理で行われています。こうしたモーションデータベース系の活用方法としては、モーション合成による再利用、モーション生成が主な提案でしたが、この手法では意図したキーポーズからのモーション合成に加えて、モーションキャプチャ収録時に発生する、マーカーの欠損部分を基からあるデーターから類似するものを検索して、ギャップ(欠損部分)を補間するという活用方法が紹介されており、従来に無い活用アイデアとして興味深い内容でした。
●CRYSIS 2: Practical Techniques to Create and Control Animation-Data
CRYSIS2のアニメーションワークフローのセッションです。自社で外部に提供するほいどの完成度の高いゲームエンジンを開発していることもあり、他のビデオゲームでのアニメーションワークロートは異なる部分が多く見られました。ゲームエンジンと密接に関係したアニメーションワークフローの1例として参考になる内容です。
CRYSIS2のアニメーションはモーションキャプチャデータを基にしています。一般的なモーションワーフローの場合、収録したMOCAPデータを専用ツールでポスト処理を行い、MotionBuilder等のDCCツールでリターゲット、編集と行った流れですが、CRYSIS2の場合、リアルタイムでCRYエンジンにモーションキャプチャデータを取り込むことが出来ます。丁度MotionBuilderでリアルタイムプレビューを行うような感じです。キャラクタは自動的にリターゲットされます。この機能を使用して、キャラクタモデルが動いているのを見ながらの収録やバーチャルカメラを組み合わせた環境が構築されています。興味深いところでは、頭だけマーカーを取り付けた役者を使って主観のカメラモーションの収録に使用しています。これらの使い方はMotionBuilderでも可能ですが、ゲームエンジンのリアルタイム性の点でこちらの方がパフォーマンスは高いように思えます。また、キャラクターへの自動リターゲットがエンジンに組み込まれているので、より最終的な仕上がりに近いイメージで確認できるのは利点と言えます。収録後にMOCAPデータをDCCツール上で編集するフローも完備されています。CRYSIS2の場合、前述した通りゲームエンジン内でリターゲットを行い、全てのアニメーションデータが全てのキャラクタで共有できるような構造になっていますが、複数のキャラクタがフィジカルに絡んだり、対物関係が発生するようなケースでは調整が必要な場合も予想されます。(確かにこのタイトルではパンチ、キック、などはありますが、人を抱え込んだりといった、複雑な演技は殆ど見かけませんね)3dsMAX、MotionBuilderにインポートされたMOCAPデータは編集後に再度CRYエンジンに送られて、更にリアルタイムでアニメーション再生するための設定が行われます。
アニメーションのコントロールには3つのタイプがあります。(この機能の総称をParametric Blendingと呼称していました。)Parametric Interpolationは例えば、ゆっくり歩く動作から全速力で走る動作にシームレスに変化するようなケースで使用されます。2つの動作は1動作のスピードが異なる訳ですが、遷移する動作の尺を指標化、動作の遷移に合わせてスピードを補間する事で、シームレスに動作変化します。Parametric Trasitionはいわゆる、アニメーションとアニメーションを時間軸上で繋げる機能で、動作間で多少のポーズの違いがあっても、動作をブレンドして自然に繋げるようにしています。Parametric Layerはアニメーションデータに対して、別の調整用レイヤーを用いて、動作のリアルタイムな調整を行う機能です。例えばNPCの視線をリアルタイムにコントロールしたり、銃のエイミングを照準している方向に調整するといったケースに使用されています。
Parametric Blendingは実際にはこれらの機能が複雑に絡むんで、多様なキャラクタ動作を再現しています。実際にはキャラクタのステータスを見ながら、その状態から遷移が考えられる遷移パターンが選ばれるような、多層のモーションツリーを用意してコントロールされています。こうしたゲームエンジン上でアニメーションデータを調整するフローの利点は、多くのバリエーションを必要とする場合に細かな動作の違い毎にモーションキャプチャを収録して、DCCツールで動作のつなぎ目を調整するといった工程が軽減される事が挙げられます。実際にこの事例ではモーションキャプチャのデータからゲームエンジンに直接送られて、ポーズやフットプリントの調整はゲームエンジンに全てやってもらうというのような流れになっています。もちろん、Parametric Blendingで気持ちよくキャラクタが動くための調整は必要ですが、ゲームエンジンと直結しているこのフローは、従来のゲームアニメーションのワークフローよりもより直感的ではないかと思います。海外ではNaturalMotionのmophemeのような、キャラクタ動作をコントロールするアニメーションエンジンの採用例が増えて来ているのを考えると、よりインタラクティブ性が求められるような表現では、今後こうしたフローがより一般的になっていくのではないでしょうか。
●Animating Tangled: Design and Execution of Disney Appeal
『塔の上のラプンツェル』は往年のディズニープリンセスムービーがディズニーらしいテイストで3DCGで表現されています。キャラクタの動き、表情はほぼキーフレームアニメーションによものというのがすごいです。このセッションでは、どのようにしてキャラクターアニメーションが表現されていったか、技術的な面ではなくアーティスティックな面が紹介されています。
この作品では、大量のドローイングによるリファレンスが作成されて、これを3DCGで出来る限り忠実に再現するようなフローが取り入れられています。キャラクタデザインにおいては多くの表情のドローイングを基にフェイシャルRIGが構築されています。極端なストレッチ&スクワッシュの挙動も忠実にシェイプが再現されています。講演中にいくつものプロトタイプの映像が紹介されましたが、特に口元を動かした場合の頬との連携した動きと眉毛のスライドによる変形に関してはかなりこだわりを持っていたのではないかと思わされます。ボディRIG関連でも多くのドローイングによるリファレンスポーズが提示されています。特に全身のストレッチングによるボディラインに留意されています。このようなドローイングによるプリプロダクションの積み重ねで頭身が最適化されているように思えます。
こうして作成されたキャラクタRIGを使用してアニメーターが演技を付けていくのですが、この工程にも興味深い方法が取り入れられています。作成されたアニメーションをスタッフが集まってブリーフィングを行います。この際にリードアニメーターがムビーを1コマづつプレビュー&ドローイングできるツールを使用してコマ単位での指示やアイデアをドローイングしていきます。言葉では説明しにくいですが、手描きの作画指示をムービーベースで行っているような感じです。この手法は直感的であり、キャラクタの演技でどこがポイントとなるのか、チームで共有できるという点で効果的な方法だと思います。こうした、トラディショナルな方法をデジタルの工程に組み込むことで、手描きのディズニーのスタイルが上手く3DCGに取り込まれたのではないかと思います。手法もさることながら、ディズニーのアーティストの層がとても厚い(ドローイングで指示を出されていた方は、かなりご高齢の方でした)からこそ実践出来たのではないかと思わされました。
これで、FMXのセッションが全て終了です。初めてのFMX、そして初めてのヨーロッパということで、なかなか勝手の分からないことばかりでしたが、カンファレンス全体の感想としては、学生向けと詠っていますが、プロのアーティストが参加しても十分に刺激のあるカンファレンスだと思います。特に若い(そう、もう自分は若くないんだな。。。)アーティスト系の方に参加して欲しいと思いました。専門化、複雑化が著しいCG制作において、自分の担当している役割がどのようなことを求められているのか、そして最終的に映像として表現されるまでに、どのような工程を経ているのか、より良いCG表現を実現するために何をすべきか、また何が出来るのか、色々な事のヒントを得る事が出来ると思います。また、 先述した通り、アーティスト系のカンファレンスなので、技術的要素部分が比較的分かりやすく構成されているので、アーティストがCG技術により目を向けるよい機会になるのではないかと思います。