先日のハッカソンで作った、EmotionalSpaceだけど。
時代は「追いプロジェクション」 #Hololens2 #holohack pic.twitter.com/zyobAv3WeA
— 蜜葉 (@mitsuba_yu) 2020年2月8日
よそのチームはHoloLensで「なにを見せるか」が大半で、EmotionalSpaceはどちらかというとHoloLensで「どう見せるか」が課題だった。
(結局はList〈float〉をどう表現するかに行き着く)
で、はっきり言ってどう見せるかコンテンツをHoloLensの録画機能を使っても、さっぱり伝わらないんよね。
HoloLensをかぶった人から見えるものは奥行き感のある現実世界で、録画は所詮2Dに落とし込まれた絵に過ぎない。
そこでSpectorViewを使って、2方向から撮影するか?って考えた結果、iPad版を作ることにした。
for iPad pic.twitter.com/w9b8FyzewZ
— 蜜葉 (@mitsuba_yu) 2020年2月8日
というのも、SpectorViewって、所詮HoloLensとiOSで同じアプリがそれぞれ動いてて、結局そのアプリ同士でモデルを同じ位置に表示してるに過ぎなかったんよね。
で、HoloLens同士でSpectorViewをやってれば、まだそれっぽさが出たかもだけど、今回はHololens/iOSでやってみた。
会場はこんなかんじ。
まず、赤丸の位置でHoloLensとiPadを起動する。
でもって、青星の位置に移動する。
すると、HoloLensは空間を認識できるから、しっかりステージの上でコンテンツが見える。
反面iPadの方は、赤丸の映るカメラと青星のときに映るカメラの絵が違いすぎて、それぞれの位置関係だったり同じ場所だったりを把握できない、で結局コンテンツが何も映らない。
って感じで、今回SpectorViewは全く使い物にならなさそうだった。
(ちなみに会場で@Futo_Horio せんせーがきちんとSpectorViewを実装してくれたけど、だいたい同じ感想。
4m x 4mぐらいの限られた開けた環境で、目の前のオブジェクトを共有したいっていうなら使えそうだけど、いつでもどんなときでも便利なものではないんだなぁ。
こういう話を観測範囲ではだれも言及してなかったのでいい勉強になった。