Microsoft HoloLensはMixedRealityを実現するSpatialComputerでありながらスタンドアローン(それ単体で稼働する)のWindows PCでもあります。
ゴーグル型であり頭の動きにデバイスが常に追随し、SpatialMapping(空間マップ)によって高く空間認識をもつ特性を利用し、視覚困難を持つ方にHoloLensをかけて駅を歩くという実証実験を行いました。
前回から実験までの流れと結果をまとめています。
〇アプリケーション
今回Microsoft HoloLensの[SpatialSounds(空間音響)]という特徴をフルに使いました。
●SpatialSoundsとは?
SpatialSoundsは一言で表すとユーザーに音源の位置を知覚させる機能またはその音源のことです。
HoloLensを着用しているユーザーがSpatialSoundsが効果的に使用されているアプリケーションを体験した場合まるで実際にその方向、その場所に音源があるかのように音だけで物体を認識することが可能になります。
今回この聴覚情報によって実際にロービジョンの協力者に『音を頼りに歩いてもらいました。』
2020年3月現在SpatialSoundsを実装する仕組みとして次の二つが提供されています。
・MS HRTF Spatializer・・・ HRTF(Head-Related Transfer Function:頭部伝達関数)と呼ばれるユーザーの頭部周辺物によって生じる音の変化を表現した伝導関数がベースのspatialization(空間化)
・Microsoft Spatializer・・・低コストのマルチタスクアーキテクチャを使用したものでHoloLens2ではハードウェアアクセラレータ(※)としてオフロード(システムの機能を部分的に外部システムに渡すことで負荷を下げる)されています。 Microsoft Sparializerは以下で公開されています。
※ハードウェアアクセラレータ・・・何らかのシステムの追加要素として提供しCPUとソフトウェアのみの処理では重くなる動作を高速化する仕組み
SpatialSoundsに関する詳しい情報は以下のMicrosoft Docsで解説されています。
●アプリケーション
アプリケーション自体はとても簡単なものでジェスチャーによって自由に空間上に配置できる5つの球体にそれぞれ別の音源を設定しました。
球体には必要に応じて音源を設定できるようにMRTKで提供されているボタン[ButtonHoloLens1]を配置し、ボタンをAirTapすることで音源のOn/Offが切り替えられるようにしています。
球体には球体のメッシュ[Mesh Filter]、当たり判定[SphereCollider]、音源[Audio Source]、に加え球体を動かす機能である[Manipultation Handler]がアタッチされています。
[Manipulation Handler]は[Manipulation Mode]で[One and Two Handed]を指定することで片手、両手それぞれ使用できるようにしています。(今回は球体をただ動かせればよいのであまり必要がなかったかもしれません。)
これでオブジェクトをAirTap&ドラッグすることで動かすことが可能になります。
赤、青、緑、黄色、白の5つの球体の大きさは現実サイズで10cmとしアプリ起動後に1mの距離に配置しました。
次回今回のアプリケーションで最重要になる音源をまとめます。