シーグラ日記2009 アジア編 12月18日

 

3日目です。ギャラリーやエマージングテクノロジーを見て回りました。規模は小さかったですが、ニューオリンズの展示とかぶっている出展が少なかったので、個人的には充実した内容でした。エマージングテクノロジーは夏のSIGGRAPHでは日本からの出展が非常に多いのですが、今回は海外からの出展も割合的には多く感じました

●Emerging Technologies Talks Meet the Robots!
エマージングテクノロジーに展示されている作品に関して制作者が簡単にトークを行うというセッションです。その中でも、Robot関連を集めたものを受講しました。

・SCHEMA: Multi-Party Interaction Oriented Humanoid Robot
従来のロボットのコミュニケーションが1対1だったのに対して、SCHEMAではグループでのコミュニケーションが想定されています。難読ゲームをベースにグループのコミュニケーションを音声と画像認識を基にグループのコミュニケーションに参加し、会話を喚起します。最近の言葉で言うところの空気を読んだ会話とでも言うのでしょうか。話題が難読ゲームをベースにされているとはいえ、とてもアナログな「空気を読む」という人の行動についてロジカルにロボットに表現されている点が面白かったです。

・Petimo: Safe Social Networking Robot for Children
子供達に安全にネットワークコミュニケーションに参加してもらうためのコミュニケーションツール。SNS的な機能を備えつつ、基本はPokenのような直接的なアクションが、現状のネットワークコミュニケーションに精神的成長途中の子供たちが参加する上で何が大切なのか、工夫が込められているように思いました。

・Himawari Plant Robot: Creature Expression Using Shape -Memory- Alloy Actuator Cluster
植物の動きを再現することをモチベーションとされているそうです。茎の部分はモーター、花びらの部分は形状記憶合金のアクチュエーターが使用されており、花の中心に仕込まれたカメラによって、動くものを追従するように動きます。自然物のロボット化は動物や魚類などは多くの事例がありますが、静的な植物の動きをロボットで表現するというのは自分は初めて見ました。メカニカルなパーツの組み合い方にもデザイン性を感じました。

・Shimon + ZOOZbeat : An Improvising Robot Musician You Can Jam With
Shimonは人のパフォーマンする即興的な旋律にリアルタイムに対応してセッションすることが出来る演奏ロボット。さきほどのSCHEMAも同様ですが、人のもつ感情的な行動を読み取るという事までロボットの世界では研究されているのに驚きました。特にShimonはライブという即興で行われる感情表現、創造に対して、どう答えるのか、解析しているという事が、現在、DCCツールでデジタルコンテンツを作成している自分の現場に、もしこうした技術が取り入れられると、どんな事が起きるのか、そしてその恩恵の結果デジタルコンテンツを作ることとして行われていること(例えば、アニメーションカーブの編集とか、ノイズのリダクション)の本質的な者が見えてくるのでは?と色々思いを巡らせる事がありました。すごく未来を感じます。

・An Operating Method for a Bipedal Walking Robot for Entertainment
iPodTouchやiPhoneを入力デバイスとして、指を足に見立てたアクションでロボットをコントロールするアイデア。指の持つ柔軟なフィジカルアクションをうまく取り入れていると思いました。そのほかにも指で表現可能なアクションは様々なので、これらのアクションとインターフェースとして取り入れると、色々よ面白いアイデアがありそうです。

●Motion Analysis & Synthesis
・Markerless Motion Capture Using a Single Depth Sensor
Zデプスカメラを使用したマーカレス・モーションキャプチャシステムの提案です。Zデプスカメラはその名の音通り、奥行きの違いを輝度の違いで画像に表します。これに人体のアウトラインを基に手、足、上半身、頭といった部位の検出を行う事で、カメラの前の人間がどのようなジェスチャを行っているのかを判定するといった仕組みです。空間上のどの位置に対象者がいるのか、といった厳密な位置情報のデータ化はできないので、モーションキャプチャといよりは、ジェスチャ・キャプチャといったイメージに思えました。手を背中にまわす、体を回転させるといった動きも、前後のフレームから判断して、動きを生成するような技術と組み合わせると、面白い事がいろいろできそうに思えます。

・Motion Beat Induction Based on Short-Term Principal Component Analysis
ダンスアニメーションを曲のビートを基に解析する手法に関する論文です。モーションキャプチャでダンスモーションを収録する場合、もちろん、バックグラウンドに曲を流しながらパフォーマンスを行い、これを収録する訳ですが、収録したデータと曲のタイミングはアニメータが曲を聴きながら合わせているのが現状です。こうした解析によってビートとモーションを一致させる事で、ビート毎、バート毎にセグメント化する事も簡単になり、ダンスモーションをデータベース化して、異なるビートに合わせたり、異なる振り付けを生成するといった活用方法も考えられます。

・Designing Motion Graphs for Video Synthesis by Tracking 2D Feature Points
ビデオ画像の人の動きをモーショングラフでコントロールすることで、従来のビデオ編集にない新しい手法、表現を提示しています。抽出した人の動きの画像を解析して、それぞれのフレームでどの部位がどう動いているのか、ポイントで関連付けています。デモンストレーションではビデオ画像の人がマウスオペレーションの動きに対応して動きが繋げられていました。
・Physically-based simulation of ballet dancer's hip
モーションキャプチャとMRIを使って、フィジカル、解剖学のハイブリットでダンサーの腰の動きを解析、シミュレーションしています。ロボットや医療方面での活用が想定されています。最初のくだりで、ダンサーなどの特殊技能を持った人の動きは解剖学や運動力学といった側面からみると、定石を逸した動きを行っている事もあるとか。個人的にはそうした部分によって表現が生ているのだと思いました。

本日のAfter SIGGRAPHはユーザーミーティングのハシゴでした。このBlogでもエントリしましたが、Houdiniのユーザーミーティングが急遽開催されるという事で、参加してみると懐かしい方が。。。SideEffectsからリチャードさんが久々に来日。リチャードさんは以前は毎年Houdiniのユーザーミーティングに合わせて来日されて、日本のユーザーコミュニティで飲み会などにも参加されていました。最近は寿司作りにはまっていらっしゃるようで、今回は時間の合間に合羽橋まで行って包丁など道具を買い込んだとか。「昔、渋谷で飲んだね」と昔話に盛り上がりました。