GDCも今日で最終日。「金曜日にフルタイムで働かせんじゃないよ!」と言っているのかどうか分からないが、機器展は15:00で終了。終わった箇所からどんどん撤収作業が始まり、セッション終了後に各自が受けたセッションでどれが面白かったか、どれがハズレだったかなどと会場で情報交換するのはSIGGRAPHと同じ。初めて参加したGDCはとても勉強になったし、また事例を見て、「ここまでやっているのか」と意味危機感を感じたりする。PCベースのゲーム開発が盛んな海外の開発現場は次世代コンソールのタイトル開発にスムーズに移行していると感じた。日本はそういったベースがない分、難儀している。この差がアーティスト向けのセッションを受けるだけでもひしひしと感じることが出来た。また、アニメーターに依存しない、プログラマブルなアニメーション自動生成など、新しい事へのチャレンジは大きく差をつけられてしまったかな・・・という感がある。
日本の開発現場と比較して海外の開発者は、非常にオープンに自分の仕事を発表している。「ここまで教えてあげたから実装とか試行錯誤は自分でやってね」という感じだ。(まぁ企業の財産でもあるから最終的にはそうなるのだが・・・)日本の場合、こういったことに関して、企業的に結構ナーバスになっているところはあると思う。いち開発者レベルはこうした状況を何とかしたいと思っている人は少なくないので、CEDECなど国内のカンファレンスの今後の盛り上がりに期待したいと思う。
機器展の続き
PHASE SPACE モーションキャプチャーシステム
マーカーにLEDを使用したモーションキャプチャーシステム。24台のカメラをイーサネットで接続している。構成がコンパクト。会場ではモーションビルダーでパフォーマンスの収録をデモンストレーションしていた。
Natural Point OptiTrack
非常にコンパクトなカメラで構成されたモーションキャプチャーシステム。カメラはUSBで接続するタイプ。マーカーは意外と小さいものを使用していた。手軽にモーションキャプチャーを使えるというのが売りのようだ。SDKが配布されているほかに、各種収録ツールも開発中とのこと。カメラが1台$349。
SOFTIMAGE XSI
Ver6.0のデモンストレーション。MaxやMayaとの双方向のデータコンバートを行うCrossWalkとモーションリターゲットを簡単に行うことが出来るMOTORを中心にデモンストレーションが行われていた。
Autodesk MAYA
Ver8.5のデモンストレーション。このバージョンで日本語メニューに対応。新しいクロスツールnClothは揺れ物の他に千切れ具合などもパラメータで調整可能。今後はこちらがMAYA Clothにとって変わるのかもしれない。ちょっとマイナーな部分ではMacのユニバーサルバイナリをサポートしたり。(まだMac版やってたのか!!)3DCGツール全体の流れとして、Pythonへの対応がどのソフトウェアでも新機能としてサポートされている。これはちょっとしたブームなのだろうか・・・
Cross Application Asset Creation for LAIR: From Characters to Clouds
LAIR の作業環境で特にモデリングを中心に複数のソフトウェアを使用した製作フローが紹介された。まず、制作環境の考え方として、「沢山のソフトウェアの利点を活用することで、1つのソフトウェアでは解決できない問題を解決することは多くある。」ということが挙げられた。大作では共通のツール、共通のフローに制限することで予想できないトラブルを未然に防ぎ、開発環境を安定に保つという考え方がポピュラーなのではないかと思う。自分も色々なツールを試すことで、様々なアプローチを考え出すヒントになると考えており、スピーカーの主張に共感できた。実例の殆どは3Dソフトウェアは 3dsMAX、そして2DソフトウェアにZbrushとPhotoshopを使用して、相互にデータをやり取りしながらのフローであった。個人的にはアニメーションや3Dソフト間でのやり取りを期待していたのだが、そういった事例は今回紹介されなかった。
・小物関連
ヘルメットのモデリングとテクスチャ作成を例に3DソフトとZbrushでの基本的な相互利用のフローが紹介された。ゲームで使用されるモデルは比較的、低メッシュなのだが、Zbrushでディスプレースメントマップを作成することを考慮して、高メッシュに作成する。Zbrushにインポートした時点で、メッシュ密度が足りない場合はここでもメッシュの密度を調整する(Zbrushではメッシュ密度を可変することが出来るらしい)こうして作成したマップデータをMAXに持ち込み、モデルをリダクション調整するといった流れであった。Zbrushは2Dペイントのインタフェースで3Dデータのディティール(ディスプレースメントマップ)を扱うことが出来るので、2.5D的に色々活用できるとのこと。
・岩に意図的なデザインを加え、更にフラクタルなディティールを加える
大まかな形状はMAXでモデリングを行い、UVデータまで作成した段階でZbrushに移る。細かな凹凸、岩肌のディスプレースメントを追加して、UVによってハードエッジになったは、Zbrushのスムージングを使ってペイント感覚で継ぎ目部分を消去している。
・モンスターデザイン
モンスターのスケッチから低ポリゴンでパーツ分割したモデルを作成して、デザインバランスをチェックする。アートディレクション的にFIXした時点でMAX でディティールを追加するのだが、部分的にZbrushでディスプレースメントマップのディティールを加えている。この例では計画的にモデル作成とチェックを繰り返すことで、モデルの完成度を徐々に上げている。またどの部分をモデルまたはディスプレースメントでディティールを加えるのか、作成を開始する時点で決めているのがポイントのようだ。
・ビルボードの樹木
ビルボード表現で立体感のある樹木を作成するTipsが紹介された。葉や幹などパーツごとにモデルを作成して、Zbrushでディティールを追加する。このデータをディスプレースメントマップデータごとMAXに戻して、幹となる部分を各パーツを組み合わせて作成する。このモデルをレンダリングしてマップ素材にするのだが、同時にディスプレースメントマップをマッピングしたイメージも作成する。ビルボードにマッピングする際にRGBマップ、そしてディスプレースメントマップの状態でレンダリングしたイメージをディスプレースメントマップとして使用することで、動的光源が当ると、ビルボードでありながら立体的なクオリティを得ることが出来る。
・ボリュームライクな雲
3dsMAXで雲の形状をモデリングする。これを32枚の板にスライスして、このデータをZbrushに移して雲のディティールを追加、再度、3dsMAXで調整を行う。こうしたアプローチでボリュームレンダリング的な雲を表現している。
各テクニックはちょっとしたTips的な内容であるが、どの解説でも、まずどういう表現をしたいのか、そして自分の手持ちのツールの特性を理解し、どの行程をどのツールで作成するのか、計画がはっきりしている。複数のツールを使用するときの基本中の基本の考え方であるが、こうしたプレゼンテーションできちんと説明されると、如何に計画的にツールを使うことが最終的に効率化に繋がり、重要なことなのかということを考えさせられる。最後にまとめとして、複数のツールが使えるような恵まれた環境におかれているアーティストは失敗を恐れずに色々なツールにチャレンジして、新しい発見をして欲しいということ、不幸にも複数のツールを使えるような環境にないアーティストでも、トライアルバージョンを入手して新しい発見をし、もし必要な環境ならばテクニカルなスタッフにプレゼンテーションすることで、自分の開発環境を改善することが出来ると述べた。保守的にならず、新しい開発環境のヒントをアーティストが発見する良い方法なのではないかと思った。
Autodesk 3ds Max and Maya: Advanced Animation Techniques
MIDWAY社における3ds MaxとMayaのTips的なアニメーションテクニックが紹介された。初日のチュートリアル同様に、使用ソフトウェアに関係なく、どのように表現を実現しているか、そのアプローチ方法が参考になった。
・筋肉表現のヒント
筋肉の表現、自然な形状変形のために多くのセカンダリボーンがDrivenKeyによってコントロールされていた。ボーンの配置などは一般的によくあるパターンで、どちらかというとチュートリアル的なTipだった。
・COMMON BONE
COMMON BONEと呼ばれる共通のリファレンスボーンがあり、プロポーションの違いのみで基本的な骨構造は共通のものを使用していた。COMMON BONEはジョイント名と各ジョイントの親子関係、自然な形状変形のための最低限のセカンダリ骨が含まれているだけのシンプルな構造。アニメーションを付けるためのコントロール部分は各プロジェクト、シーンに合わせて、別に用意する必要がある。このような構造にすることで、あるシーンではBipetを使って通常のキャラクターアニメーションをつけたり、またあるシーンではExpresstionで擬似ダイナミックス的に全身を自動的にコントロールしたり、と共通の骨構造を使いながら、表現するアニメーションごとにコントロール方法を切り替えることが出来る。各キャラクタの体格の違いをどのように処理しているかは、確認できなかった。
・擬似ダイナミックス表現
上記のCOMMON BONEの活用例として、擬似ダイナミックス表現のテクニックが紹介された。考え方はとてもシンプルで、階層構造の親ジョイントの数フレーム前のアニメーション情報を参照して、揺れモノの表現を実現するというもの。キャラクタの衣装に付属した小物のアニメーションのほかに、車に乗せたキャラクタが車の動きに対応して揺れるアニメーションのセットアップがデモンストレーションされた。こうした2次的なアニメーションを自動的に動かす場合のポイントとして、1.素早く結果が分かるようにすること、2.編集はシンプルに出来ること、3.シミュレーションなど複雑で重い処理になるべく頼らないこと、が挙げられていた。揺れモノなどは現状、プログラムで自動的に動かすことが多いが、ローレベルなアプローチで対応しなければならない時、なるべく快適なアニメーション環境を構築する上で、こうしたテクニックは覚えておいて損はないと思った。
Leapin Across the Uncanny Valley with Univaersal Capture (UCap): From The Matrix Films to Real-time Interactive Applications
映画「マトリックス」シリーズで確立されたリアルなフェイシャルキャプチャーシステム、Universal Capture(Ucap)をゲームタイトルに活用した実例と、リアルタイムに実現するまでの技術の変遷が紹介された。UCapは複数台のハイレゾリューションカメラで顔の表情を撮影し、その画像情報からテクスチャ情報、サーフェース情報をフレームごとに生成することで、表題にある「不気味の谷」を飛び越えたリアルなフェイシャルアニメーションを実現している。この技術をゲームタイトルに応用するあたって、その膨大なフェイシャルデータをどのようにゲーム機で再生可能なサイズに収めるかという事が大きな課題だったそうだ。
・Tiger Woods E3 Demo
データは非圧縮、テクスチャは512×512。PC上でキャラクタ1体のみのシンプルなデモだが、リアルタイム再生は実現した。当時のデモンストレーションの様子がビデオで紹介されたが、この段階でリアルなフェイシャルアニメーションが、条件付とはいえ実現されている。
・PGA Tour 07
5名のプロゴルファーをUcap。このタイトルでは圧縮したデータをGPUで処理しているとのこと。圧縮方法に関して簡単な説明がされたが、幾つかのパーツ毎にテクスチャ、サーフェースの変化を差分で収録する・・・といったような内容だったが、十分聞き取れなかった。先に紹介されたE3 Demoより若干、リアルさに欠けるが、これはデータの精度が約半分になっているところから起因しているとのこと。
・NFS Carbon
デモ画面のキャラクタフェイシャル、レース中にウィンドウに表示されるキャラクタのリアクションに使用されている。このタイトルでは更にデータの精度を下げていることもあり、見た目はリアルとはいえないが、良く出来たフェイシャルアニメーション。データの精度を下げれば、ゲーム中でより多く、長いフェイシャルアニメーションを実現することが出来るが、「不気味の谷」に落ちる危険も考慮すると、このクオリティが限界かもしれない。
・今後の展望
更なる最適化のために新しい圧縮方法を実装するとのこと。3-5分のシネマティックでストーリーのあるインタラクティブフィルムやゲームトレーラー(多分宣伝用ムービーのようなもの?)規模の小さなリソースを多く必要としないミニゲームなどで使用することを想定して開発を進めるとの事。
各タイトルの収録のエピソードで、紹介した技術的なハードル以外に、有名な選手や役者をアサイン、マネージメントすることが、とても大変な作業であると述べられていた。リアルな結果を得られるという利点は逆に言うと、役者の選定がそれだけシビアになるという問題を抱えている。ハリウッドの映画制作のバックボーンがあるアメリカだからこそ、こういった問題を何とかクリアしているのではないか、と思わされた。
CG映像のテクニックが将来的にリアルタイムにシフトされてくるという構造は、加速的に早くなってきている。SIGGRAPHで発表された技術が1 年経過しないうちにリアルタイムに実現されるという事もある。今回のセッションを聞いていると、リアルタイムがあとから追いつくどころか、同時並行で技術革新が進んでいくのではないかとさえ思わされる。技術研究とタイトルへの応用が建設的にステップを踏んでいるように見られるのも、日々タイトルの開発に追われがちな日本の開発現場との違いを感じた。