カテゴリー
ネットのサービス

Faceshift – 表情をリアルタイムでアバターに反映させる技術が実サービス開始

Faceshiftは、パソコンの横に置いたwebカム(Kinectなど)だけで、顔の表情を読み取り、その同じ表情を3Dで描いた別のキャラクターにリアルタイムにとらせることができる、というサービスです。

6月頃から技術ベータとして提供されていたようですが、11月15日に正式な有料サービスとしてリリースされたというアナウンスが出ています。

この技術のすごさを知るにはデモ動画を観るのが一番わかりやすいかなと。

カンファレンスで中の人が喋っていますが、その後ろで3Dのキャラクターがまったく同じ表情で動いています。

カメラで映した画像の距離と色から、その人の顔の3Dモデルを再現し、距離と色の情報にマッチする表情データを収集し、そこで表れている表情データを最終的なアバター側に送って反映させる、のだとか。

同じFaceshiftを使ったアート展示の様子はこちら。額縁の中の絵が、見に来た人と同じ表情を返します。

有料プランはプロのアニメーター等に使ってもらうことを想定しているそうで、二つのプランのうち高いほうのStudio(1500ドル(16万5000円)/年間・人)では、MayaやMotion Builderなどの3Dツールのリアルタイムプラグインや、ストリーミング機能が使えます。

アニメーションへの適用ということでは、絵を書き上げてから口の動きにあわせて演技するのではなく、カメラの前で演技したらキャラクターの表情も表現できてしまうわけで、製作プロセスがまったく変わってしまう可能性がありますね。声の演技が上手くても、同時に表情豊かに顔の演技もできないと評価されない、みたいな変化が起こるでしょう。2Dが主流の日本のアニメより、3Dが主流のアメリカの方がより適応が早そうな感じもします。

そして、この技術、その先にはプロ以外の一般の利用シーンが広がっていると思います。プロの利用なら、必要とあらば顔にキャプチャのためのマークをいっぱいつけるのはやるでしょうけど、Faceshiftの売りであるカメラで映すだけで表情が取れる、というのが生きるのは、普段の顔のままで使いたい一般ネットユーザーでしょう。

そうなるとこの技術、日本にこそ必要とされているような気がしますね。YouTubeやニコニコ動画での「歌ってみた」「踊ってみた」系の動画で、多くの日本人がお面を被ったり顔が出ない角度でパフォーマンスを披露しています。表現したいけれど顔出しは嫌だ、という表現者の割合が多いとすれば、このような「顔は隠れるけど動きは伝えられる」という技術の需要は非常に高いのではないでしょうか。

もちろん、ネットによくいるらしい若い女性のフリをするおじさん、いわゆるネカマが精巧な3D表現で動画チャット等にも大挙現れるというのも起こりそうですけど。

問い合わせれば試用もできるようなので、面白い使い道を思いついたら遊んでみてもいいのではないでしょうか。

via Watch this: Kinect-powered motion capture mimics your facial movements in real time | The Verge

カテゴリー
ネットのサービス

世界の経済活動を3DにしたFlash地球儀

[追記 2015-06] 元プロジェクトサイトはありますが、可視化地球儀のページは無くなっているようです。

economical-globe-flash.png

経済活動の量に応じて赤い棒が立っている地球儀のフラッシュ

視覚化(Visualization)の面白さだねえ。

基データはイェール大学のG-Econプロジェクトの成果物らしい。GDPを基に、緯度1度、経度1度の範囲をセル(cell)としたGCP(Gross Cell Product)というのを考えて、セルあたりのGDPを(どうやったのかわからないけど)求めている。

G-Econプロジェクトのサイトでは、世界各国のデータが公開されている。それぞれ国ごとにも可視化されていて、日本のデータを使ったものがこれ

Japan_3dmap.JPG

ベトナムとか

Vietnam_3dmap.jpg

旅行や出張で全然知らない国に行ったりするときに、どのへんが栄えてるのかわかっていいかもしれない。

via digg