昨日はクラブパーティやら業界の方々とまったり呑み語りなど、少し羽目を外しすぎました。日記書いてません。PAPERを2つも受講しているので忘れない内に書いておきます。今日は昨日の分までUPできるように、コンベンションセンターの通り沿いにある、Original Cafe Pantryでスタミナつけてきました。(ってまたステーキなのですが。。。)ここはいかにもアメリカンといった雰囲気満点のダイナーで、なんとアルコールがおいてません。しかもダウンタウンにあるのに、24 時間営業だそうです。以前もステーキを食べたのですが、機会があれば、昼間にハンバーガーを食べにいってみたいお店です。
●Motion Planning and Autonomy for Virtual Humans
バーチャルヒューマンの動作コントロールに関して基礎部分から現状、これからの展望について、半日を使って解説を行うコースです。データベースや自動生成、パスファインディング、AIなど、内容はBiginnersですが、技術系でない自分にとっては少し上級の内容でした。ポイントを押さえつつ全体系を説明してくれるので、色々と参考になる事が多くあり勉強になりました。
・Overview
現在に至るまでのモーションプランニングに関する技術研究の紹介。AIやパスファインディングのいくつか紹介されました。源流までさかのぼり、現状までを半日コースの1セクションで説明するので、かなり早足、概念的な説明のみた。
・モーションプランニング基礎
Search-based AI
motion planning の現状
Con゙guration-Spaceの定義
・discreteとcontinuousの問題点
Cell-DecompositionsとRoadmaps
Potential FieldsとNavigation Functions
・Dimensionの問題と解決困難の原因
Degrees of Freedom
キネマティックとダイナミックの制約
・サンプリングベースのプランニング
Randomized /Probabilisticテクニック
Deterministicテクニック
Importanceサンプリング
・Case Study 1: Autonomous Navigation for a Virtual Human – Part 1
動作をコントロールする事をスタートとしたモーションプランイングの例として、Example-Based Synthesisによるモーションキャプチャデータのモーション統合について解説されました。
・Case Study 1: Autonomous Navigation for a Virtual Human – Part 2
前の事例とは異なり、こちらは環境に対して、いかにキャラクタを対応させるかという全く逆のアプローチで、キャラクタを制御する事例が紹介されました。大まかなバウンディング・コリジョンで環境とのインタラクションを評価して、対応する動きに各部のパスを調整するといった2段階のプランニング。
・Case Study 2: Autonomous Navigation for crowds of Virtual Humans Part1
Interactive design of virtual population using Navigation Graphs
群衆のコントロールを数段階のエリア、レベルによってコントロールする手法の解説です。単体の場合とは異なる、群衆ならではの問題解決方法もこのセクションで述べられました。
・Case Study 2: Autonomous Navigation for crowds of Virtual Humans Part 2
Motion Planning Techniques for Large-Scale Crowd Simulation
2つのボロノイ図を基に2つのエージェントによって、群衆をコントロールする手法。上記の手法とは異なる、パスプランニングによる群衆のコントロール。
・Case Study 3: Autonomous Object Manipulation for Virtual Humans
手を伸ばして、物を取り上げるといった動作を行うためのパスファインディングの手法が解説されました。手を伸ばす目的において、障害をさけて目標に達するまでの位置を定義する方法が紹介され、さらにキャラクタ動作のプランを最適化するための学習機能についても解説されました。
・Digression: Back to Real?
最後に、上記で述べられたいくつかの技術でロボットが動作するものか、という観点で講演が行われました。結論的にリアルワールドには、解析されていない部分が多くあり、上記で述べられたものだけでは、ロボットの制御を行う事は難しいとのこと。具体的な例として、実際のロボットには重量があり、重力が働き、モーターによる誤差や振動による狂いなど、多くの原因によって、計算によって導きだされたパスに補正をかける必要があるそうです。
●Computer Animation Fstival – Demo Scene
少し時間が空いたので、Conputer Animation Festivalを見てきました。今年から内容の充実化を図った、CAFですが、セッションはSIGGRAPHと同じ会場、シアターはコンベンションセンターに近接した場所にあるNokia シアターで行われています。このシアターがとてつもなく大きな劇場で、エレクトロニックシアターが余裕で開催できる大きさです。スクリーンもでかい。ここですべてのアニメーションシアターが上映されるというのは、いいですね。セッションが詰まっていて、なかなか見る時間がないのが非常に残念に思えてきました。
●Dancing With Computers & Technology
人の動きをコンピュータでとらえて、どのように使うかという点で、このセッションの内容は、モーションキャプチャで応用できることが色々ありそうです。紹介されている事例では、捕らえた人の動きをコンピュータによって何らかの加工がされているのに対して、モーションキャプチャの場合は、収録したデータを再現する事に注力されているという部分が大きな違いと言えます。
・Carlos Guedes
SlowArtに出品されている作品。人の動きを複数のモーションセンサーでとらえてパーティクルが操作されてます。この作品に至るまでの一連の作品が紹介されました。Perticle manという作品では、モーションキャプチャシステムを使用して、間接位置からパーティクルを発生させて、動きに合わせてパーティクルの挙動を変化させていました。パーティクルが大きく変化すると、人の動きとは認識できないものにあっという間に変化するのが面白い表現だと思います。
・Translating Dance Movement into Musical Rhythm In Realtime
ダンサーの動きに反応した音響効果システムをMAX/MSPで構築したパフォーマンスの事例です。講演者のパフォーマンス環境の紹介で、ISORADAによるリアルタイム・イメージ生成も行っていると述べられていましたが、紹介されたパフォーマンス事例では音響効果のみでした。
http://homepage.mac.com/carlosguedes/
・re(PER)curso: A Video Art Realization of an Interactive Plot
複合現実技術を取り入れたパフォーマンスの事例。キャラクタ・アニメーションは事前に収録されたものです。リアルタイムにアニメーションのタイミングやカメラアングルを自由に変更することが出来ます。前述の2つの事例がリアルタイムにダンサーの動きを捉え、イメージや音響を生成しているのに対して、予め用意した素材をダンスに合わせるような形で演出していく、VJに類似したようなシステムだと思いました。
・Choreographisms
ダンサーのマーカーの動きを基にカーブを生成して、アニメーション化する事で、ダンサーの動きから動きのあるエフェクトが生成ます。装着しているマーカーの任意の位置情報が使用されています。身体的構造を反映する目的は無いためか、装着しているマーカーは手足と数箇所のみ。モーションキャプチャシステムを応用した実例としては、今までに無い面白い表現だと思います。体全体を使って空間に線で絵を描くように見えます。位置情報をリアルタイムに加工する事ができるようになった現状では、通常のモーションキャプチャでも、キャプチャデータを基に、何かしらのセカンダリアニメーションを生成できる可能性はあるかもしれないと思いました。