今年のアニメーションシアターはスケジューリングが結構厳しくて、全部見ることが出来るかどうか心配だったが、何とか時間を作って、ずべて見ることが出来た。シアターは2つあるのだが、タイムスケジュールがほぼ平行で進行するために、見ていないものを虫食い的に見ることが難しかった。(笑)会場時間前になると結構長い列が出来るのも珍しい。
全体的に時間が長い作品が多い。適度な長さのもののほうが退屈しなくて良いのだが・・・個人に良かった作品はThe God、ni limits、Man’s First Friendといったところ。言葉がなくても共通の笑いのツボがあるのが良かった。なんとなく笑える気持ちは分かるのだが、Man’s First Friendのキャラクタのような、ちょっと狂っちゃっている目をしているキャラクタはこちらの方々ははまりやすいようだ。微妙な間で観客は笑っていた。
Sketch MOTION
モーションというセクションだが、プレゼンテーションされた内容はモーションキャプチャ関連のものが多かった。どこでも効率化を図りたい部分は同じなのか、比較的現状の開発現場で応用できるような内容が多かった。
Skeletal Parameter Estimation from Optical Motion Capture Data
モーションキャプチャデータをリファレンスデータにしてスケルトンデータを自動生成するといった内容。現在ではモーションキャプチャの精度も上がり、本来、動かす対象であるスケルトンをモーションデータから生成しようというアプローチは面白いかもしれない。最終的なモーションデータはキャラクタモデルに落とし込まれるのだが、その前の時点のモーションキャプチャデータを動かすためのテンポラリ的なスケルトンが自動生成できるメリットは大きい。
Interactive Motion Decomposition
ICA(構成要素分析)をモーションデータに応用して、モーションデータとリファレンスデータから違ったニュアンスのモーションを生成するといった内容。これはノンリニアアニメーションでの編集フィルタとして応用できるかもしれない。ノンリニアアニメーションの場合、時間を延ばしたり、モーションデータを補完したり、繋げたりといった編集は効率良く出来るが、細かな演出的な部分、ニュアンスをちょっと変えてみるといった編集は弱い傾向があるので、検討する価値はあるかもしれない。
Markerless Human Motion Transfer
イメージベースモデリングをモーションキャプチャに応用して、マーカーレスでモーションキャプチャを行い、異なるプロポーション間でモーションデータをコンバートするといった内容。ここでもイメージベースモデルをフレームごとに出力して、骨の生成を自動化している。アプローチは面白いがポイントの制度がかなり細かくなっているので、処理スピードが気になるところ。
Motion Emphasis Filter for Making Mental Motion of 3D Characters
モーションキャプチャデータを基にセルアニメーション的なタメ、キメのあるモーションにフィルタリングすると言った内容。モーションの加速度に着目してフィルタリングしている部分は的を得ていると思う。これにプラスして、通常の人間では取ることが出来ないアニメーション的なタメ、キメポーズへのフィルタリングが出来れば、よりアニメ的な動きになるのではないかと思った。感覚的な部分が加味されやすい部分なので、完璧にというのは難しいかもしれないが、ある程度、期待できるフィルターはより突っ込めば、出来るようになるかもしれない。
昼食前にPosterを見て回る。このセッションはPaperやSketchのような発表までには至らないが、先進的、挑戦的な試みを行っているものに対して、プレゼンテーションパネルの展示と決められた時間にブースでの説明を行うというセッションで、今年から設置された。
展示された場所が、まるで学園祭の研究発表コーナーのような感じで面白い。今回このセッションにTouchを利用したコンテンツの発表があるということで、SIGGRAPHに参加しているTouchユーザーがブースに集合していた。 ブースで発表されていた、Rodney BerryさんのAuthoring Augmented Reality: a code-free approachはヘッドマウントディスプレイに取り付けられたカメラからの映像をカードのイメージからトラッキングを行い、Touchで生成したイメージを合成するという、強化現実システムだった。オリジナルのイメージ認識によるトラッキングシステムはPIPELINE_CHOPでチャンネルデータとしてTouchに取り込まれている。カードの追従性はなかなかのもので、使い方によってはゲームにも応用できるかもしれない。
ブースにはDerivativeからGregとJarettも駆けつけて、カンファレンス会場で即席Touchユーザーミーティングが開かれた。017バージョンがベータ公開された直後にもかかわらず、さらにその先の新しいバージョンのプレゼンテーションが少しだけ行われた。将来的にリリースされるTouchにはTOPオペレータが追加される予定だ。これによってGUPを使ったハードウェアレンダリングのイメージもサポートされるようである。これはビデオ関連の機能強化にもつながり、2Dエフェクト的なフィルタもより高速になるそうだ。う~ん、ってことはそれだけ強力なグラフィックカードが必要になるのかも知れない・・・
ユーザーからも各自が作成したSynthファイルの即席プレゼンテーションが行われた。中には特殊なプロジェクタスクリーンを組み立てるものもあり、突発的な集まりではあったが、楽しいユーザーミーティングになった。
最初に参加したSIGGRAPHのセッションでジムヘンソンスタジオのデジタルパペットシステムが紹介された。CG業界に入ったばかりの頃なので、専用のハードでリアルタイムでアニメーションするというこの事例には驚かされた記憶がある。現在、パペットモーションがどのように応用されて進化しているのか、パペットアニメーションの歴史、パペットアニメーションのデジタル化の変遷といった紹介が行われ、最新の事例も紹介された。
パペットモーションの歴史の変遷として、ティペットスタジオとジムヘンソンスタジオから各社の変遷がプレゼンテーションされた。ジュラシックパークのDID、スピーシーズのデジタルパペットシステム、PDIの口パクデジタルパペットシステムなど懐かしい事例が紹介された。個人的熱烈に偏愛しているロボコップ2のトーキングヘッドの事例も取り上げられた。(笑)
最新の事例として、データグローブを使用した、ロボットタイプのパペットやデータグローブ、リップシンクシステムを利用した2Dアニメーションキャラクタのデジタルパペットシステムの事例紹介が行われた。
モーションキャプチャシステムが登場して、急速に進化する中、デジタルパペットアニメーションも独自の進化をしていると強く感じたセッションだった。デジタルパペットの場合、動きを再現するというよりは、変幻したい動きをよりダイレクトに、より感覚的に表現、記録することが出来るデバイスだと思っている。その点ではモーションキャプチャとは使いどころが異なるもので、どちらかというと、マウスやタブレット、MIDスライダに近いものなのではないかと思う。
安藤さんコメントありがとうございます。
1日期間が短くなったことで、あきらめなければならないカンファレンスとかあって、スケジューリング大変です。今回は会社の視察団での参加ということもあって、色々と打ち合わせなども入っていたので、機器展などは壊滅状態です。(>_<) ということで、来年度は個人参加でもう少し余裕のあるSIGGRAPHにしようかと思います。
エクサの安藤です。どうも。
今頃になってこの blog みつけました。
アニメーションシアター、僕はすっかりあきらめて
DVD で観ることにしています。
(入っていないものもありますが)
それにしても、SIGGRAPH って、全部一人で見るのは
とうてい不可能ですな。
早朝から深夜までヘロヘロになって、毎回すぐに体重が減ります。SIGGRAPHダイエットです。
25日には、SIGGRAPH TOKYO 主催の
報告会があります。
一人では見られなかった箇所も補足してくれる、
便利な報告会です。
お誘い合わせのうえぜひ!
http://www.sig-tokyo.gr.jp/events/seminar32.html
そんなこんなで、今後ともよろしく。