N
U22
「研究室」に行ってみた。

2020/5/4

「研究室」に行ってみた。

事態が動いたのは、世紀の境目をこえた2002年のこと。

「2005年3月に愛知で万博があるんだけど、世界の度肝を抜くような技術で何か新しいことをできないかって、広告代理店の電通の人たちから相談を受けたんです。その時にこの技術のことを話したら、観客の顔をその場でスキャンして映画に反映させられないかというんですね。でも、当時は、まだ画像作成のための計算速度だって追いつかないし、顔の位置や向きをきちんと合わせ続けるのも難しいし。それでも、彼らはすごい魅力的なビデオをつくって、コンペを通しちゃったんですよ。それで、いつの間にか僕らもやらざるを得なくなって。でも、はたして間に合うんだろうかみたいな、そういう状況で始まったんですね」

具体的にどんなふうに解決したのか。愛・地球博やその後のハウステンボスで体験した人が、ぼくの身の回りにいたので、後で聞いてみたのだが、スピーディに顔の形状をスキャンして、あっというまに自分が映画の中にいたことに一様に感動を覚えていた。森島さんが、ひとつの夢と語った通り、なにかそこには特別なことが起きているという感覚が強くあったようだ。

「当時、実現したシステムでは、カメラを7つも設置した測定装置のくぼみに顔を突っ込んでもらって、ストライプの光線を当てて、だいたい2分かけて3次元計測するんです。それで、その場で顔のCGを作るわけですが、当然、コンピュータの計算速度が追いつかないですから、いろんな工夫があって、例えば顔以外のところは全部あらかじめつくっておいたものです。だから、体のサイズは変えられないので、赤ちゃんが来ても、体の細い女の人が来ても、みんな同じガタイで出てくるっていう。ちょっとそれはもう、どうしようもない妥協点でしたけどね」

また、この時点では、表情などはやはりそれぞれの個性が反映されず、共通したものだったそうだ。森島さんに言わせるとジェネリックな(類型的な)表情。

「本当は個々人の笑い方っていうのはそれぞれあるわけだから、表情なりしゃべり方には個性があるわけですけど、そこもやっぱり妥協せざるを得なくて、それこそステレオタイプというか。笑い方にしても、それっぽい笑い方を共通にさせるんですね。具体的にやっていることというと、計測した顔の画像からその人の特徴点というのを抽出して、このシーンではどういうふうに動かすかあらかじめシナリオとして決めてあるとおりに動かすんです。しゃべるのもそうやって口を動かしたところに声優さんの声をあてています。なので、個性は本当にないんですよ。でも、ふたを開けてみたら、もうバカ受けで、自分の顔が出てくるっていうこと自体だけで喜んでもらえたんです」

自分の顔を使いつつも、かなり類型的に落とし込まれたものを見た観客は、自分なのに自分ではないような、「自分版不気味の谷」に落ち込むこともなく単純に楽しんでくれたというのが森島さんたちの認識だ。

2005年の時点で、工夫を凝らして作り上げたシステムは、その後ほぼ12年間にもわたってハウステンボスの常設展示として運用され、好評を博した。2017年1月末に運用を終えた時点で、実に6万5000回以上も上映されたという。

ハウステンボスでの『グランオデッセイ』。12年間にわたり好評を博した(2017年1月に終了)。(提供:森島繁生)

こうやってフューチャーキャストの幕が下りたわけだが、開発時の2005年からもう13年たっており、技術的背景がいまではまったく変わってきた。つまり画像処理はあらゆる面で進歩した。ならば、「新しいフューチャーキャスト」が構想できるのではないだろうか。

そう聞くと、森島さんはニヤリというふうな笑顔を浮かべた。

「おっしゃるとおり、何とかやりたいなっていうのがあって、いろいろ画策しているところです。本当に顔モデリングの技術は劇的に向上したので。使っていた計測装置はカメラが7台も入っていて100万円ぐらいするものでした。今から考えると、正直、オーバースペックです。その後、わざわざ3次元計測しなくても、それこそスマホで撮ったような1枚画像から3次元の顔が復元できるようになりました。USC、南カリフォルニア大学のハオ・リーさんという研究者との共同研究です。1枚の写真があれば、大勢の人の顔から、この人に予測される質感なり形状なりを再構成できるんです。おまけにすごく高速で、1秒そこそこしかかかりません」

学生参加型コミュニティ 登録受付中
メールマガジン登録