8月中旬に毎年恒例のSIGGRAPHに行ってきたのだが、昨年同様だいぶ時間がたってしまった。研究室からはCPD(Computational Perception Design: VR空間の中で大きな道具を振り回すような体験を、はるかに小さなデバイスを使って実現できる技術)のデモをEmerging Technology(E-tech) のカテゴリで行った。学生がこういうイベントに積極的で、興味を持つことは良いことだ。SIGGRAPHにはいろいろな研究発表のカテゴリがあるが、このE-techは日本の得意分野である。その独占傾向は今年さらに強まっており、一人勝ちの弊害が心配されるぐらいである。
今年のSIGGRAPHはカナダのバンクーバーでの開催で、いつものコンベンションセンターである。この規模の国際会議は、集客力や施設の点でだんだん開催場所が限られつつある。これもちょっと考えさせられる点ではある。
それはさておき、今年も注目すべき研究発表が盛りだくさんで、やはりこの会議は面白いと思った。本稿では、著者の目にとまったもの2つを紹介しよう。一つはGoogleのグループが推進するlight field VRである。これは高精細の3Dカメラであり、実写系のVRにとって強力な武器となる。これまでの実写系VRと言えば、せいぜい360度の視界を眺めまわせるぐらいのものであったのが、このシステムでは視点位置の上下左右の移動が可能になる。その原理は、我々が眺めている3次元世界の各位置において、その点を通過する光線の色や強さをすべて記録しておけば、その空間内の視覚世界をすべて記録することができるというものである。
もちろんそのためには、大量のデータを記録する必要がある。たとえば、1m立方の世界を1㎝ピッチで記録しようとすると、視点数は100万、その数だけの全天周映像が必要になるというわけである。写真の多数のカメラを動かしながら撮っていく。こういう大量の画像データを要領よく処理するための技術がlight field VRである。
この技術は昔から我が国でも研究されてきたが、ここにきて一気に基礎研究が実用的システムに進化したように見える。南カリフォルニア大学のP. Debevecのグループがこの技術の推進役であるが、つい最近Google が引き抜いたのだ。
しばらく前の「10号御料車」の記事で、VRの画像には魔性があると書いたが、まさにとんでもない技術である。GoogleのStreetViewはすでに有名なサービスであるが、なるほど次の展開はこれか、という感じである。AIに狂喜乱舞する我が国の情報業界であるが、こうした分野における防御態勢がほとんど存在しないのはどういうことか。いきなり新原理に基づく技術の底力が発表されるから、この分野は全く油断がならない。
もうひとつ面白かったのが、リダイレクション技術である。これも、数年前から注目されてきた技術で、実際の体の動きとVR世界の中の体の動きを微妙に変化させることによって、小さな空間の中で動きつつも、大きな空間を体験できるようにする技術である。こういう技術がなければ、たとえば六本木ヒルズをVR空間で体験しようとした時、同じ広さの実空間が必要になるわけで、何のためのVRかわからなくなる。
この技術のポイントは、いかに移動を錯覚させるか、ということである。著者の研究室でも「無限回廊」や「無限階段」など、ここしばらくはリダイレクション技術に注目している。今年の発表で面白かったのが、リダイレクションを、瞬きや視線移動の途中など、視覚の瞬断の時間内に行おうというアイディアである。この方式を使うには視線計測機能を持つHMDが必要になることである。このタイプのHMDは次世代のディスプレイとして研究されてきたが、ようやく出番が来た感じである。生体センシング付きのディスプレイなどは、基礎研究レベルとたかをくくっていると、いきなり新技術体系ということになりかねない。
SIGGRAPHの発表を聞いていて思うことであるが、問題の提起が非常に素直というか、単純な動機に基づいている一方、問題解決の方法が極めて独創的である。これは、難しい問題設定こそが重要と考える行き方とは正反対で、「これは新規性がないから、こっちをやる」のように、ほかの研究を気にするあまり発想をこねくり回してしまいがちな研究者は注意する必要がある。我が国に比べて、映像産業の規模がはるかに大きく、それだけに多くのニーズが発生するアメリカの底力を感じるのがSIGGRAPHである。我が国においても、勃興しつつあるスタートアップVR企業と従来からの映像産業、そして何より大学などのアカデミアとの一層の連携が望まれるところである。