ニュース RSS

稲見昌彦教授(東京大学) 特別講義に登壇

世界が注目する気鋭のVR研究者が語る「身体の未来」

「人類の進化は道具の進化と言っていいでしょう。人類は道具を使って体格差を克服してきました。道具がなければマンモスは倒せなかったわけです。それを突き詰めると、この世の中から「disabled people」という言葉が無くなります。ヒュー・ハー教授の言葉を借りれば、今世の中にあるのはdisabled technology。技術が発達すれば世の中の見方やシステムのあり方も変わってくるでしょう」

こう熱弁を振るうのは東京大学の稲見昌彦教授。背景が透けて見える「光学迷彩」や眼球運動の観測が可能なメガネ、JINS-MEMEなどの開発者として世界中から大注目を浴びている気鋭のVR研究者です。

先日、その稲見教授を、本学の杉山学長が主宰する「テクノロジーカルチャーラボ」に招き、「身体の未来」と題した特別講義が行われました。その講義内容をダイジェストでご紹介します。

 

inami_06.jpg

 

窓の奥の世界が飛び出してきた体感型ゲーム未経験からの挑戦

私の高校生、大学生時代に体感型ゲームが流行りまして、バイト代の多くをつぎ込んでいました。それまでの「窓の奥の世界を眺める」従来のゲームとは違って体感ゲームは自分がその世界と直接つながることができます。「コンピュータは体験を作ることができる」という事実を知り、深く感銘を受けたわけです。

そのころ第1次VRブームが起きます。1989年に登場したVPL社のRB2(Reality Build for Two)は世界初の商用化VRシステムと言われおり、VRという言葉が世間に広まったきっかけでもあります。「Build for Two」という名前からわかる通り、このシステムは二人で使うことを前提にしています。VRの最初のビジネスモデルが複数のユーザーを想定していたことは極めて重要なポイントです。従来のものづくりの技術は「誰が使っても同じように見えること」を前提とした三人称の客観的なテクノロジー。一方のVRは一人称を対象とした主観的なテクノロジーです。

ただ、ある世界に自分しかいなかったら、それは妄想かもしれません。そこに第三者の主観と共有できるもの、哲学でいう「間主観性」を付け加えることによって一層リアリティが増し、コミュニケーションが可能になり、さらに記録することもできる新しい世界が生まれます。それまで文学や哲学の分野でしか扱えなかった主観の感覚が、エンジニアリングの力でコンピュータでも扱えるようになったのです。

 

身体の動きを数理的に理解しシステム化する

大学に進んだ私は生物系の勉強をしながら、趣味としてVRをやりたいと思ってロボット技術研究会に入りました。興味があったのは人の行動の分析。身体の生理を理解し、それに基づいて新たなシステムを設計していました。現在の私の研究テーマそのものです。

1992年にはEyeRISという視力入力システムを作っています。藤子F不二雄の「21エモン」のエピソードで、銀河で一番文明が進んでいる星の話が出てくるのですが、その名前は「ボタンチラリ星」。ボタンをチラリとみるだけで動く世界です。「視線入力は銀河で一番洗練された形である」と信じていたので仲間たちと実際に作ってみることにしたのです。

具体的には眼球運動をカメラでとらえた画像を並列コンピュータを使って処理し、ボールの動きを追随してパックを動かせば確実に打ち返すことができるブロック崩しのゲームを作りました。私の仮説ではこのシステムを使えば世界一のゲーマーになれるはず……だったのですが、完成したのはとにかく眼が疲れるシステムでした。

あとでわかったのですが、眼の動きは必ずしもスムーズに動くわけでありません。眼球運動は跳躍的な動きをするサッケードと、なめらかな動きをするスムーズパスートの2種類あります(厳密には他にもあります)。基本的に早い動きを眼で追うときは前者のサッケード運動。眼がパンと動いてしまうので、ゲームでもギクシャクした動きになってしまうのです。

現在、FOVEなどの視線ベースのヘッドマウントディスプレイ(以下、HMD)が登場していますが、それを使って視線入力のシューティングゲームなどをよく調整しないで作ると恐らく方向性を間違えます。こればかりは実際に作ってみないとわからないし腑に落ちない。何事も体験に勝る情報はありません。

 

inami_01.jpg

 

内なる自分を観測できるJINS-MEME

三つ子の魂百までと言いましょうか、一昨年メガネメーカーのJINSさんからの依頼で日常生活のログを取ることができるメガネ、JINS-MEMEを共同開発しました。最大の特徴は眼球運動をトラッキングできることです。使っている技術は眼電位(EOG)。人の眼は網膜側がマイナスで角膜側がプラスの乾電池のようになっているので、メガネの鼻に電極3点式眼電位センサーをつけることで眼の動きを捉えることができるようにしました。

眼球運動は「どれだけ眼が動いているか」を計測することには向いています。キョロキョロしている度合いがわかれば、自分がどんな状況で集中しているかなどがわかります。将来的には授業中に生徒がどれだけ集中しているか先生がリアルタイムで確認することもできるでしょう。またこのシステムを用いた大阪府立大の黄瀬先生の研究では、眼球運動を計測しながら英語の文章を読んでもらうことでその生徒のTOEFLの点数が予測できるそうです。知らない単語や難しい言い回しが出てくると眼がそこで止まってしまいますよね。ですからサンプルをたくさん取れば高い精度で予測できるだろうと。

また、独自研究として眼の周辺の皮膚変形を光センサーによって計測し、その人の表情を推定するメガネも作っています。この技術がHMDに実装されれば、VRの世界でバーチャルキャラクターに自分の表情を投影させることも可能になります。このように、実は人の心の動きは身体に如実に現れます。阪大の前田太郎先生の研究では、じゃんけんをするときの「最初はグー」の腕の動きを解析すれば、85%の精度で何を出すのかわかるそうです。

また、HMDはスマホやスマートウォッチと違ってコストの高いハードです。値段の意味ではなく、装着するモチベーションが高くないといけないということ。よって相応のメリットがないと普及しません。その点、人の内側をトラッキングできるHMDが広まれば、メリット感は高まるかもしれません。

 

幽体離脱体験で脳内ハックされる

VR研究を本格的にはじめたきっかけは、修士のときに東大名誉教授の舘暲先生が開発したテレイグジスタンス、通称「幽体離脱マシン」を体験したことです。まるで頭をハックされたような衝撃で、それ以来VRに浸かっています。このマシン、HMDにはロボットのカメラの映像が映されていて、ロボットはオペレータの頭部と腕の動きを忠実に再現します。ここで質問です。オペレータの手を眼の前にもってきたら何が起きるでしょう?

そう、ロボットの手が見えます。変身した気になるんです。これが最初の驚き。さらに、このロボットを使って周囲を見渡すと、どこかで見たことがある人物の姿が視界に飛び込んできます。2秒くらい考えてから「あ、自分だ」と気づき、さらに驚くと。本を読んでも理解できなかった「自分はいまどこにいるのか?」という哲学的な命題に対して、「自分とは、自分の脳と同期して動く視覚システムと腕があるところの中心地にいる」ということが工学的に証明できるのです。

 

実は余興にすぎなかった「光学迷彩」

再帰性反射材とプロジェクターを用いた「光学迷彩」を作ったのは1998年のこと。実はこれある展示会で行列に並ぶ人に向けた余興として作ったものにすぎなかったのですが、結果的にこっちが行列になってしました。このアイデアを得たのはご存知、漫画の『攻殻機動隊』です。『21エモン』に感化されてEyeRISを作ったときと同じパターン。

多くの人は漫画や映画で描かれるSFなどのフィクションの世界は、現実世界とは切り離された独立したものと思いがちです。でも冷静に考えるとエンジニアはクリエーターに刺激され、クリエーターはエンジニアに刺激される相互作用があると思っています。秋葉原がポップカルチャーとハイテクの両方のメッカなのは、たまたまではないと思うのです。

テクノロジーは文化です。万人に平等に受け入れられるサイエンスとは異なります。料理と同じで個性があるから際立つ。そして食材がいくらよくても、いくら高価でも、調理が下手では意味がありません。学生たちには「いいシェフになりなさい」とよく言っています。

 

「自動」車ではなく「自在」車を作りたい

光学迷彩の技術から生まれたのが、車の外が透けて見えるシステムです。車の外に装着したカメラの映像を車内に投影することで透明な車に乗っている感覚になることができます。「自動」車と言うくらいですから、車の将来の方向性はどう考えても自動化でしょう。たしかにそれは便利ですが、果たしてそれが唯一の方向性なのかと。車にはそれを自在に運転する楽しさがあるはずです。そこから私は「自在化技術」という言葉を使うようになりました。

 

inami_04.jpg

 

自在化技術の目的は2つ。

ひとつは「やりたいことの拡張」です。自動化とは本来「やりたくないこと」の代理が目的であり、もしペッパーが自分の代わりに遊園地で遊んできたら誰でも怒るでしょう。「やりたいこと」と「やりたくないこと」は独立した関係です。体力の衰えや身体的な障害、またはコストの高さなどにより、人には「やりたいけどできないこと」がたくさんあります。それをテクノロジーで実現してあげることは大事なことだと思います。

ちなみに現在、私は「超人スポーツ」というテクノロジーを使った今までにないスポーツをみんなで考えようという活動を、スポーツハッカソンなどを通して行っています。この根底にあるのも個々の身体的な差を道具の力で埋めることで新たなスポーツのあり方が見えてくるのではというものです。

自在化技術のもうひとつの目的は人馬一体ならぬ「人機一体」です。馬はいわばナチュラルインテリジェンス。独立した知能を持っています。しかし馬具というテクノロジーを使うことでちゃんと制御しようと思えばできますよね。それと同じことをAIを相手にしたいと。人とAIを対立関係で捉えるのではなく、一体化できるものとみなすことが重要な視点です。

 

身体は現実を認知するインターフェースである

inami_05.jpg

 

このウィーナー界面を縦軸にして、シャノン界面(クロード・シャノンが情報理論で提唱した物理世界の「アトム」と情報世界の「ビット」の類似性、応用可能性)を横軸にしてみると、私がやろうとしている自在化技術(身体情報学)は物理世界における「制御できる界面」を拡張するテクノロジーにあたります。

身体情報学のポイントは3つ。ウェアラブルなどによって身体そのものが拡張していく「超身体」、VRやテレイグジスタンスなどの「脱身体・変身」、主観的身体位置の分割、融合を図る「分身体・融身体」です。身体をテクノロジーが変えられることは疑いようがありません。それを示唆する研究のひとつに、UCLが行ったうつ病治療におけるVRの活用があります。実験ではうつ病を患う被験者にHMDを装着。目の前で泣いている小さな子供が現れ、医師からその子供をなぐさめるように指示されます。それが終わるとHMDの画面が変わり、今度は被験者が子供に変身します。すると先ほど自分が発したなぐさめの声が自分自身にかけられるという仕組みです。この治療の方が他人からなぐさめられるよりはるかに改善が見られるそうです。

リアリティとは身体というインターフェースを通して得るものです。よって身体が変われば認知も変わる。認知が変われば世の中の見方も変わります。私たちはそのことを感覚的に知っています。排気量の大きな車に乗ると運転が乱暴になるのもそうです。よってそれをうまく使いこなすことができるのなら、活用しない手はありません。

ヒトのことをhomo faber(作る生き物)と表現することがありますが、チンパンジーもカラスも道具を使うことができます。しかし、自分自身の身体を変えることができるのはヒトだけです。よってヒトはhomo faber “corpus consilium“(身体再構成が可能な生き物)と呼ぶことができるかもしれません。だとしたら、それに備えた研究を始めることが大切だと思います。

 

(文・構成=郷和貴)

 



ページの先頭へ