« YouTubeのサムネイルをGoogle Mapsを使って表示する | メイン | この新しき世界 »
2007年06月07日
Photosynthのデモ。ユーザの写真を大量につないで空間を再構築する
以前にマイクロソフトのPhotosynthについて紹介したのは一年近く前になる。
アーキテクトのAguera y Arcas氏が3月にTED 2007カンファレンスで発表したPhotosynthの最新状況がYouTubeに上がっていた (via del.icio.us/popular)
前半は、シームレスにイメージを拡大縮小できる表示技術。本一冊の画像を全文から一文字まで拡大していくデモ、新聞を見たいところだけどこまでも大きくしても読める、世界地図から道路一本までの拡大など。
3:00頃からは、高解像度の画像処理機能に、画像と画像をつなぎあわせてそれらを自由に拡大縮小して見ていくデモがはじまる。
3:50からノートルダム大聖堂を使って実際に建物の詳細を拡大して見ていくというデモ。Flickrから集められた多数の写真が、共通点を見つけて重ね合わせられている。
5:20 ポスターの前に立つ男性、の写真から寺院にダイブしていく。同じ建造物という共通点を使って仮想空間のリンクが自動的に作られるようなイメージになる。
後半、Aguera y Arcas氏は、多数のユーザがカメラや携帯電話で撮った写真から作ることで、機械的にリアルな仮想空間が実現できると述べている。「メタバース」という単語も出てくるので、「手で頑張って作った仮想空間」(*1)に対する優位性も意識してるのではないだろうか。
WikiのWiki nameやはてなキーワードのように、文章中の単語に自動的にリンクを張って作るように、多数の写真にリンク関係が作られ、またそれを使って機械的に仮想空間(それも、セカンドライフなんかとは比べ物にならないほどリアルな)ができるというのはすごいと思った。
たぶんデータの処理速度とかに課題があるんじゃないかなと思うが、今後の研究の進展に期待したい。
(*1) セカンドライフの東京タワーとか、先日発表された東京を再現するmeet-meとか、ユニバーサルセンチュリーとか。
投稿者 秋元 : 2007年06月07日 13:28
トラックバック
このエントリーのトラックバックURL:
http://labs.cybozu.co.jp/cgi-bin/mt-admin/mt-tbp.cgi/1325