#アナタノミカタ 

物体の裏側も撮影する46台のカメラを使うグーグルの新技術「ライトフィールドビデオ」
AI.

Google(グーグル)は、従来の写真やビデオをより没入的にするとても感動的な方法を披露している。それは、見る人が遠近や視野角を変えることができ、フレームの中の物体の周りをぐるりと見ることもできる。ただし、46台のカメラを用意し、それらを同期させることができない人は、この「ライトフィールドビデオ」を今すぐ作ることはできない。

SIGGRAPHで発表される予定のこの新しいテクニック(Googleリリース)は、数十台のカメラが同時に撮った映像を利用して、巨大な複眼のようなものを作る。見る人が視点を移動するとリアルタイムで情景も変わるというものだ。

研究論文に載ってるこのイメージは、カメラがどのように視界を捉え、セグメント化しているかを示している

HD以上の高精細度と移動の自由があれば、このライトフィールドビデオは本物のような臨場感を見る人に与える。これまでのVR化ビデオは、以前からよくある立体眼鏡のような3Dを使用するため、視点の変化に追随しない。写真の中の奥行きを理解して遠近感を加えるFacebook(フェイスブック)の方法は巧妙だが、制限が大きく遠近感においてほんのわずかな変化しか作り出せない。

グーグルのビデオでは、見る人が頭を1フィート横へ動かすと角をぐるりと回ったり、物体の裏、向こう側を見れたりする。その像は本物そっくりかつ精細で動きもなめらかだが、3Dの映像なのでほんのちょっと視点を変えても、それが正確に反映される。

画像クレジット:Google

またかなり巨大なリグを利用するため、ある視点からは隠れてしまっていたシーンの一部が、別の視点からは見えるようになる。見る人が右端から左端へ動いてズームインすると、映画「ブレードランナー」の、悪名高い「拡張シーン」を彷彿とさせるようなまったく新しい機能を発見できるかもしれない。

VRで体験するのが一番いいと思われるが、プロジェクトのウェブサイトにはこのシステムの静的なバージョンのシステムを試すことがでいる。Chromeで実験的なウェブプラットフォームの機能を有効にしておくと、いくつかのライトフィールドビデオのデモを見ることができる。また、このウェブサイトに解説もある。

この実験は、2019年の終わりごろに見た人間の動きを3D的に捉えるLEDの卵に似ている。グーグルのAI部門は、明らかにメディアをよりリッチにすることに関心があるようだが、車のサイズほどに大きなカメラをたくさん並べて実現する技術を、Pixelスマートフォンでどうやって再現するか、それはまだ誰にもわからない。

関連記事:Google AIのチームが開発した卵型LEDルームが人間の3Dモデルを見事に捉える

カテゴリー:VR / AR / MR

タグ:Google

画像クレジット:Google

[原文へ] (翻訳:iwatani、a.k.a. hiwa

引用先はこちら:物体の裏側も撮影する46台のカメラを使うグーグルの新技術「ライトフィールドビデオ」

#アナタノミカタ