Microsoft HoloLensはMixedRealityを実現するSpatialComputerでありながらスタンドアローン(それ単体で稼働する)のWindows PCでもあります。
ゴーグル型であり頭の動きにデバイスが常に追随し、SpatialMapping(空間マップ)によって高く空間認識をもつ特性を利用し、視覚困難を持つ方にHoloLensをかけて駅を歩くという実証実験を行いました。
今回から実験までの流れと結果をまとめていきます。
〇ロービジョンとは? 全盲との違い
ロービジョンの定義は、メガネやコンタクトレンズでは矯正されない視力低下で生活に不便を感じる状態のことです。
視覚障害といっても全員が全員全盲というわけではなく、白杖をついていてもある程度周りを認識できる人、 色盲など人によってその程度は異なります。
WHOのページによると世界には6100万人以上がいると言われています。
ロービジョンと全盲は定義が少し違いますが、筆者は体験いただいた方や全盲の方の見え方に関して人それぞれ違うと感じるため、また障害の程度や日常生活での障害に関しては計り知れないため、今回の実験の結果も踏まえ本ブログでは『視覚的困難を持つ人=ロービジョンもしくはそのまま視覚的困難』として表記します。(※医療現場やWHOの定義ではロービジョンは全盲を含まないとなっているようです)
〇結論
●HoloLensを着用したロービジョンの人はそうではない一般的な人々と同じように日常生活を送り、すべてのHoloLensユーザーと同じくHoloLensの拡張情報によって一般的な人々以上のものを『見る』ことができる可能性がある。
●レンズ部のディスプレイ表示がかなり効果的に機能する
〇きっかけとHoloLens
今回の実験のきっかけは高校時代からの友人でした。
幼少期に病気で視力を失い、片目は全く見えず、もう片方の目も弱視と聞いています。
私がHoloLensのコミュニティの中で[QDlaser]の[Retissa]に関して知り、友人に「こんなのあるよ!」とひさびさに連絡をした時に初めてHoloLensを体験してもらいました。
HoloLensを含むHMD自体が初めての体験で最初は「何かがあるのはわかるけど何があるのかわからない」という感じでしたが、私の自作アプリケーションを体験してもらったときは反応は違いました。
「近づいたら見える!」
友人の場合片目は見えませんが、もう片目は弱視であるためスマートフォンやノートなどの場合、頭を付けるようにぎりぎりまで近づけば読めるそうで、HoloLens上でもホログラムに頭を突っ込むように近づくようでホログラムを見ることができました。
HoloLensアプリケーションではユーザーがホログラムに埋まり、視覚が塗りつぶされることのないように[NearClip]と呼ばれる「カメラからある距離までにあるオブジェクトを見えなくする」機能があります。
HoloLens 1stでは多くの場合[0.3]=30cmが設定されていました。
私のアプリケーションの場合この値を[0]=なしにしていたため、友人はホログラムにぎりぎりまで近づいてもホログラムが消えることなく表示され見ることやテキストを読むこともできました。
この時私の中で『頭に付けるタイプのコンピュータ』という考えから『MixedReality for Lowvision(ロービジョンの人へのMixedReality)』という考えへ変化しました。
それから一年、友人の通う大学の教授の協力もあり二人の視覚的困難を持つ方と可能性を見出すための実験を行いました。
〇実験
●場所:北千住駅 改札
●時間:2月の平日の朝10時
●人数:ロービジョンの体験者2名
●内容:事前に環境に合わせSpatialSounds(空間音響)を用いたオブジェクトを複数配置し、そのままロービジョンの実験協力者の方にかぶってもらい音を頼りに歩いてもらう。
次回以降使用したアプリケーションとその内容を細大残し可能性をシェアしたいと思います。
※本シリーズでは実際の実験の写真などは野外での映り込みも多く掲載できません。その分言葉で補います
第二回の記事へ