夜風のMixedReality

xRと出会って変わった人生と出会った技術を書き残すためのGeekなHoloRangerの居場所

BibcamVFXでiPhoneで撮影した映像のDepth情報に基づきエフェクトを加える

本日はUntiy枠です。

先日RenderStreamingの調査の中でBibcamについて触っていきました。

redhologerbera.hatenablog.com

BibcamはLiDAR搭載のiPhoneで撮影したDepthなどの情報が含まれた映像をもとにあれこれをすることができるというサンプルです。

iPhoneで撮影されるデータは以下の画像のようにRGBだけでなくDepth、人体などの情報が同じタイムフレームで一つの映像にまとめられています。

前回はiPhoneで動作確認をしました。

今回はVFXのサンプルを試していきます。

〇BibcamVFX

リポジトリからCloneします。

github.com

②Unityでプロジェクトを開きます。

今回はUnity2021.3.21f1で動作確認をしています。

③Git直下(Assetsと同じ階層)にText.mp4という名前でiPhoneで撮影したデータを配置します。

④サンプルシーンを開きます。サンプルはAssetsではなくPackages内のBibcamVFXSamples/Runtimeにあります。

⑤Unityのシーンを実行すると撮影したデータのVFX表現を確認できます。

今回は神社周辺で撮影しParticles1シーンで再生しました。

youtu.be

シーンを実行するとただカメラ映像にVFXがかかっているだけではなくカメラオブジェクト自体がiPhoneの録画時の挙動を3次元上でなぞっていることが確認できます。

筆者はDepth情報などの情報をもとにUnityEditor側ではただ平面で処理が行われていると思っていましたが、実際はARFoundationの機能を用いて3Dで処理されていました。

本日は以上です。