今日はACM SIGGRAPH Video Game Symposium Sandboxを受講。ゲーム開発にフォーカスしたカンファレンスで、自分も受講するのは初めてだ。内容はゲームグラフィックスに限らず、教育やプロジェクトマネージメント関係も網羅されていた。個人的にはこれではGDCとあまり変わらないので、ゲームグラフィックやゲームアニメーションによりフォーカスしした内容構成にして欲しかった。
Interactive Dynamic Response for Games
モーションキャプチャとシミュレーションの良いとこ取りをしようという試み。転倒などのリアクションをシミュレーションで、それ以外をモーションキャプチャの動きをプレイバック、その間をきれいに繋げるというもの。endorphinに似たコンセプトだと思った。例えば、歩き(モーションキャプチャ)→転倒(シミュレーション)→起き上がり(モーションキャプチャ)の一連の動きの場合は、後半の転倒から起き上がりの一連の処理が難しい。シミュレーションで作成された最後のポーズこのカンファレンスで説明された解決方法はシミュレーション中に繋げるモーションキャプチャの最初とポーズとの差が少ないポーズを探し出して、モーションキャプチャの最初のポーズにつなげるといったものだった。いかに繋げるポーズに似たポーズを素早く検索するかが、この技術のキーとなるとのこと。ムービーの再生でのデモンストレーションということで、リアルタイムでの再現には色々と条件が厳しそうだった。技術的にはこれからのモーションキャプチャの活用の参考になるのではないかと思った。
A Dynamic Controller Toolkit
こちらは先述の「Interactive Dynamic Response for Games」とは対照にロボテクス的なアプローチで全てのHumanモーションを全てプログラム的にコントロールしてしまおうという試み。アニメーションに関するこれからの方向性として、
1.モーションキャプチャのパラメータ化やシミュレーションとのハイブリッド
2.ラグドールやロボリアクションのようなプロシージャルなアプローチ
の2つが予想される。ここで紹介されたToolKitではユーザーがポーズを定義することで、ポーズ間の動きは自動的に作成されるというもの。これに物理シミュレーションを組み合わせて、より複雑な動きを再現することが出来ると説明されていたが、やはりキャラクターのらしさなど感覚的な部分は、この手法で表現するには現段階では難しく、一連の動きが硬く感じられた、ただ、キャラクターらしさをあらわす動きの要素をパラメータコントロールすることが出来るなら、よりキャラクタらしさを表現することが出来るのではないかと感じさせれれた。感覚的な部分をどのようにパラメータ化するのかが今後の課題かもしれない。
Assembling an Expressive Facial Animation System
このセッション、Open Sourceにカテゴライズされていたのだが、使用しているツールがオープンソースなものを組み合わせて実現されている。この1点でセッションで取り上げている感があった。手法的には様々なフェイシャルアニメーションの手法をを組み合わせている感じで、現状の手法より優れている部分があるという感じではなかった。アプローチはテキスト入力のスピーチツールを使い、ボイスを生成、入力したテキストからリップシンクに使用すphonameデータベースを作成して、ブレンドシェイプを行っている。更に、表情のブレンディングも加えられていた。提示されたデモ映像では動きは少し硬い印象だった。表情の付け方ひとつで印象が変わってしまうのがフェイシャルアニメーションの難しいところだが、感覚的な部分はまだまだアニメーター次第といった状況が続きそうだ。ただ、声でもなく、マーカーでもない、テキストからのアニメーションの生成に関しては精度の向上次第では、データをサンプリングして動きを作るもうひとつの手法として実用的に使えるかもしれないと思った。現状ではボイスベースで補足的にテキストデータを使って、出力結果の制度を上げるといった使い方が出来ると思う。
前日ホテルに到着したのが夜中の1時だったことと、初日ということもあって、結構ハードな1日にだった。カンファレンス終了後は体力をつけるために、巨大肉をメンバーと一緒に喰らい、早めにホテルに帰って就寝。時差ボケにはならなかったようなので、それだけは一安心。