ジーディーシー日記 2012 2日目

R5096400

今日はOpenNI Motion Games Developer Dayを中心にパートタイムでつまみ食いをします。Open Niはアーティスト系ではなじみの無いトピックかもしれませんが、Kinectのセンサー部を開発したPrimeSence社が中心となって開発したオープンソースのライブラリです。いまさら、モーションコントロールか?というのもありますが、すみません、自分的にはこのジャンルのゲームタイトルの開発に携わった事が無いのと、動きの表現、動作入力という点で非常に興味のある分野なので。。。チュートリアルレベルがオーガナイズされるという事はそれなりに体系付けがされているのでチェックしても良いと思いました。


How we ported Fruit Ninja to Motion
Fruit Ninjyaはスマートフォンや FaceBook向けに開発されたカジュアルゲームです。これをXboxライブアーケード向けにリリースされたものがFruit Ninjya Kinectです。Fruit Ninjyaは1000000ダウンロードを記録して、カジュアル・ゲーム・オブ・イヤーでAアワードを受賞したほど成功したタイトルです。iPhone版では、映画「長靴を履いた猫」とのコラボレーション版も展開されています。既存のゲームに対して、どのようにkinectインタフェースを組み入れたかという内容でした。当初考えていたよりもモーションセンサーを扱ったタイトルの開発は難しかったようです。開発当初はKinect自体もハンドトラッキングはできるものの、体自体の位置がずれてしまうなど不安定な面があったようです。また、センサー自体が正しく動きをセンシングしていても、そのレスポンスがプレイヤーにとって、レスポンスが遅いと感じてしまうという問題があったそうです。バーチャルな画面に向かってそぶりをするという行為はリアルなリアクションが無いという点で、感覚的な身体の調整機能が鈍ってしまうように思えます。こうした感覚的な反応の遅れに対しては、非常にアナログな対応ですが、画面にプレイヤー自身の影を投影する事、カットする軌跡エフェクトを加えると行った方法で問題を解決しています。この影やエフェクトがあるだけでプレイに対するレスポンス感が違ったというのは興味深いです。
こうしたプレイヤーの感覚とセンサーの結果との差異がある事を発端として、フォーカステストでは様々なケースをゲームプレイの最適化のためのサンプルとして集められています。左右を交互に動かす、突きのような動き、ジャンプをする、年齢による違い、肌の色、身長、服装などあらゆるケースをテストしたそうです。例えば、子供はその場で回転できないとか、じっとしていられないのでゲームポーズすることが難しいとか、右利き左利きによって、メニュー等などのユーザーインタフェースの使いやすい、使いにくいが大きく分かれるデザインがある等、モーションコントロールゲームならではの課題が挙ったそうです。これに対して対応したアプローチはゲームデザイン、インタフェース面でなるべくセンサーが誤動作するような要因を取り入れないという方法です。手の動きの軌跡データに対してスムースを掛けるといったスタンダードなアプローチも取り入れられていますが、確実で効果的なのはセンサーにゲームデザイン、インタフェースを合わせるといった事のようです。

R5096397

チュートリアルの会場では講演されたタイトルのデモがASUSのモーションセンサーでプレイできました。Kinectよりもかなり小さいです。

OpenNI & Unity3D Demo – it’s quick and easy!
Unityに簡単にOpen Niを接続して、すぐにモーションコントロールゲームのプロトタイピングを始められるよ、という技術紹介です。 UnityでKinectを扱うのはツールキットをインストール、使用するアセットをドラッグ&ドロップするだけと簡単です。スケルトンへのマッピングもドアッグ&ドロップで指定することが出来ます。全身をマッピングする事も可能ですし、腕だけなどの限定的な追従設定も可能です。関連して、モーションセンサーでコントロールしているキャラクタへのインタラクションも通常のUnityでのセットアップと同じように行えるので、セッションのタイトル通り、簡単にモーションセンサーのゲームをプロトタイピングすることが出来ます。ただ、個人的に思ったのは、相変わらず腰位置の最適化とフットプリントのコントロールは素のままで、何かしらの最適化が必要なクオリティです。実はその部分がGUI込みでコントロールできると良いのにと思いました。なんだか、このあたりはアセットストアで出てきそうな。。。

●Unique Gameplays: Putting Life in your Games
現行のハードウェアで指先の開閉の認識を可能にしましたという発表です。指先といても5本をユニークに認識するという訳ではなく、ミトン手レベルでの認識ですが、これだけでも、かなり色々なことが出来るようになります。これまでのモーションセンシングでは四肢の部分でハンドトラッキングは出来ていましたが、何かをフォーカスする事はできるものの、「選択」というアクションを任意のタイミングで実行する事は出来ませんでした。例えば、メニューアクションで何かメニューを選択する場合、メニューに触れたら即選択になるか、触れてから一定の時間保持されると選択下という判断を下すというアプローチを取る事が殆どでしたが、指先の開閉を組み合わせる事で、選択〜決定までを片手でスマートに行えるようになります。
面白かったのは、現行、マウスカーソルベースで遊んでいるPCゲームをゴーストマウスというツールで、マウスカーソルのアクションを指先開閉認識付きのモーションセンサで遊ぶと、あっという間にモーションセンサゲームに早変わりというデモンストレーションが行われた事です。マウスカーソルベースのインタフェースがこれほど違和感無く、モーションセンサーインターフェースに置き換えられるというのは面白いです。ほんの少しの機能拡張ではありますが、ゲームデザイン、ユーザーインターフェース的にとても大きな機能拡張と言えます。
後半はユニークな入力とインタラクションのタイトとして、VisiKord の事例が紹介されました。ミュージックゲームのスタイルのゲームタイトルですが、どちらかというと、モーションセンサーを使用したブジュアライザーVJツールとも見ることが出来ます。流れて来る譜面に合わせて左右の手をフォーカスすることで、様々なエフェクトが発生します。このゲームではハンドトラッキングをセンシングしているだけで、体の部分は正確なセンシングまで行っていないようです。腰の位置がプレイ中に微妙に移動するような場合でも、画面上では腰の位置は固定で腕のリーチを保つようにビジュアル処理されているのですが、思いのほか自然な挙動に感じます。実際にプレイしてみましたが、感覚的には画面を見ている限りでは違和感は感じられませんでした。プレイしている状態で、こうした第3者的視点の感覚は感じられませんが、インタフェース的に整理すると、体軸の動きに対応して回りのバーチャルなインタフェースが追従するような感じでしょうか。こうしたインタフェースレベルでのゲームデザインはモーションセンサーを使ったタイトルでは重要だと感じました。
前述した通り、センサーを使用すると取り込んだデータを全て再現できるように使いたいという気持ちが強くなりがちなのを、ゲームデザイン的にどういった要素が必要なのか、整理、加工することで、センサーの結果をそのまま 使用するよりも、よりレスポンスが高く、直感的に感じるケースもあるという、分かりやすい事例です。

モーションセンサーにどっぷりな1日でしたが、受講する前はモーションセンサーの精度の低さをどうやって技術的にカバーしているんだろか、という事に興味があったのですが、現実では、モーションセンサーが混乱しないようなゲームルールやユーザー体験をデザインいて、ほんの少しだけデータを最適化するというアプローチがスタンダードでした。こうした意識をもったタイトルの事例では、実際にデモを遊んでみても、レスポンス良く、仕事目線で見ると上手くセンサーをコントロールしているなと思わされます。モーションセンサーのように技術が高くなったからこそ、感覚的な部分、ゲームデザインが重要になるという事を随所で考えさせられるチュートリアルでした。

●AI Summit  Animation Driven Locomotion for Smoother Navigation
途中、1コマだけAIサミットへ。タイトルはアニメーション関連で、ど真ん中の内容でした。 今後のAI+アニメーションのスタンダードが想像できる興味深い内容でした。Animation Drivenということで、それまではパス検索を行って、そのパスに沿ってキレールライドするような方法でキャラクターの動きが表現されていましたが、これに対して、随時AIの判断がアップデートされて、それに伴ってキャラクタのアニメーションも調整されることで、より自然な動きになるというものです。
アニメーションを生成する原理自体は、5年ほど前にSIGGRAPHでも活発に論文が発表されていた、モーショングラフやフットプリントとったものが応用されています。当時、自分の職場でこうした技術がビデーゲームにも取り入れられて、アニメーションコントロールされるだろうと レポートした事がありましたが、当時としてはコンソールではまだまだ荷が重すぎるといった見解でした。部分的な応用とはいえAIアプローチからこうした技術にニーズが生まれて来た事は興味深く、また「う〜ん、日本の開発シーンと比較すると、また先を行かれてしまったな。。。」と思わされました。

R5096402

ということで、2日目もあっという間に終了です。アフターGDCは Autodesk VIP Cocktailへ。サンフランシスコにあるオートデスクのギャラリーでパーティーです。以前参加した関係で直接招待状を頂いたので、レジストしておきました。美味しいワイン片手にあれこれ開発談義で早めに帰るつもりが「もう帰れ」サインが出るまで居座ってしまいした。オートデスクのギャラリーはすばらしいのですが、メディアエンターテイメント関連がちょっと少ないのです。まぁ、その他の産業での存在が大きい事を示している訳ですが、がんばってギャラリーで大きく取り上げられるものを作り出したいものです。。。
しまった!!今日は食べ物の写真が1枚も無いw