本日はApple枠です。
先日はVisionProとQuickLook Viewを組み合わせることで簡単に3Dモデルを表示することができました。
今回は別の側面でRealityComposer
について調べていきます。
〇Reality Composerとは? Reality Composer Proとの違い
RealityComposerはAppleが開発、提供するARコンテンツ作成ツールで、iPhone、iPad、Macで使用が可能です。
〇RealityComposer Proとのちがい
Reality Composer
と同じような概念でReality Composer Pro
というものも存在します。
どちらもAppleが提供するARコンテンツ作成ツールですが、それぞれ違ったものです。
RealityComposer Pro
はVisionProのVisionOS向けの機能としてXCodeに同梱される形で提供されています。
つまりRealityComposer
とRealityComposer Pro
は若干異なるものとなります。
しかしながらRealityComposer
事態はUSDZ出力を目的としているため出力したデータをAppleVisionProで見ることは可能です。
〇Reality Composerの使い方
今回はiPhoneで使用していきます。
RealityComposerはAppStoreで入手することが可能です。
プロジェクトの作成
アプリを起動すると次のような画面になります。
画面右上の+
アイコンを選択することで新規プロジェクトを立ち上げられます。
プロジェクトタイプの選択が表示されます。
現時点では床などにARコンテンツを配置する水平アンカー、壁などの鉛直方向に配置する、画像に対して配置する、FaceTrackingで顔に対して配置する、オブジェクトとしてボリューム表示するなどのアンカー設定ができます。
またAR表示の他に3Dキャプチャー
と呼ばれるスキャン機能が存在します。
今回はサンプルとして水平方向のアンカー
を使用していきます。
プロジェクトが作成されるとデフォルトのキューブが表示されます。
これをタップすることでキューブの編集やアクションを追加することができます。
タップするとギズモが表示され直感的にオブジェクトの移動、回転、配置が可能です。
また上部の歯車マークを押すことでUnityやBlender、UnrealEngineなどのように詳細タブが開き、数値で移動させることもできるほか、サイズ調整でスケールの変更も可能です。
上部のAR
アイコンを選択することでARビューでの挙動を確認しながらオブジェクトの配置が可能です。
〇書き出し
画面上部の…アイコンから書き出す
を選択するとエクスポートができます。
現在のシーンもしくはプロジェクト
を選択し書き出す
を選択すると
USDZのファイルとしてエクスポートできます。
以上がReality Cpmposerを使用した基本的なワークフローです。
さっと触ってみましたがスキャンを含め様々なことができそうなため今後も触っていきたいと思います。
何よりiPhoneでAR確認しながら体験を構築できる点が良いと感じます。
本日は以上です。