夜風のMixedReality

xRと出会って変わった人生と出会った技術を書き残すためのGeekなHoloRangerの居場所

SFチックのUIボードを作る 序章 ~xRのUIに関して~

 HoloLensの開発ツールであるMixedRealityToolkitではサンプルとして配置するだけで使用できるボタンやスライダーなど数多くのUIが同梱されています。

 開発者はプレファブとして提供されているこれらをシーンに配置し、Eventを指定するだけでUIとして機能します。

 ここではBlenderを用いてSF映画や近未来を描いたアニメ作品に登場するようなFUI(Fictional User Interface)を基にHoloLens用のオリジナルデザインのUIボードを作ります。

 今回は第一回目です。 5~10つほど作品が完成したタイミングでGitHubにて公開します。


HoloLens Fictional User Interface Test

〇UIとは?

 UI=User Interfaceはボタンやキーボード、コントローラーなど機械とユーザーとの間で情報をやり取りする際の方式です。

〇FUIとは?

 FUI=Fictional User Interfaceはフィクション(映画やアニメなど)作品のユーザーインターフェースのことのようです。

 モニターグラフィックス(アニメやSF映画などの近未来デザインのモニターのデザイン)などを調べているときに知った単語で、もしかしたら正式な言葉ではないかもしれませんが、その名の通りアニメや映画の中のモニターのデザインやUIを指す言葉としてぴったり来たので本記事では以後この言葉を使用します。

 

f:id:Holomoto-Sumire:20200131084219j:plain
機動戦士ガンダムUC』におけるFUIの一例 中央モニターに燃料切れの表示、左のモニターには武器選択用のタッチパネルが並ぶ

ヤコブ・ニールセンのユーザビリティの原則

 ヤコブ・ニールセン(Jakob Nielsen)はデンマーク出身のアメリカの工学博士でウェブサイトなどのユーザビリティ=使いやすさに関する研究の第一人者です。

 彼は[ディスカウント・ユーザビリティ]と呼ばれる効率よく早く実行できるユーザビリティ向上術として以下のようなものを持たせることを提唱しています。

 ・Visibility of system status・・・システムステータスの可視化

 ・Match between system and the real world・・・システムと現実の世界の一致

 ・User control and freedom・・・ユーザーのコントロールと自由度

 ・Consistency and standards・・・一貫性と標準化

 ・Error prevention・・・エラーの防止

 ・Recognition rather than recall・・・一目で認識できる

 ・Flexibility and efficiency of use・・・柔軟性と使用効率

 ・Aesthetic and minimalist design・・・美的でシンプルなデザイン

 ・Help users recognize, diagnose, and recover from errors・・・ユーザーがエラーを認識、診断、そして復帰することを助ける

 ・Help and documentation・・・ヘルプとドキュメント

〇HoloLens用のUIを考える。

f:id:Holomoto-Sumire:20200131090611j:plain

 ヤコブユーザビリティに関して頭に入れながらHoloLensでのUIを考えます。

 HoloLensを含むxRでは現実空間とデジタル空間との没入を与えます。

 現実空間ではコップを手にもって立ち上がり、ぱっと手を離したらコップは重力に従って地面に落ちてしまいますがHoloLensのMixedRealityの世界ではコップを作ったアプリ開発者が指定しない限り重力に従うことはなく、手を離したコップはその場に漂います。

 UIに関してみてみると、現実空間では部屋の壁や床、机の上、リモコンやスマートフォンなどの携帯端末に触れて、時には手にもってテレビをつけたりドアを開ける、メールを見るなどのイベントを行います。

 近年スマートスピーカーはじめ音声によって行うUIも一般化し始めていますが、大抵の場合何かの物理情報に触れることでイベントを引き起こしています。

 HoloLensのMixedRealityの世界ではそれらはたいてい空間に浮いていて、必ずしも物理情報として触れることは必要なく、遠くからカーソルを合わせてによるGesture、声によるSpeech、目線による視線入力などが現実世界より一般化されています。

 HoloLens 2ではハンドトラッキングによってユーザーの手を認識して、ホログラムのボタンに触れて、押して、といった動作も可能になりますがこの場合も現実世界のそれと違って触覚のフィードバックが発生しないので色や動き、音といったほかの感覚情報をアニメーションなどの形でユーザーにフィードバックを与える必要があります。

 手を裏返すことによって現れるボタン、宙に浮くパネルなど現実世界の物理情報をある程度無視したUIが使用されています。

 f:id:Holomoto-Sumire:20200131090542j:plain

 MixedRealityToolKitではシンプルかつ高性能なUIがプレファブとして用意されておりこれらは配置してイベントを指定するだけで機能しますが、その汎用性の高いシンプルなデザインゆえにアプリケーションによっては世界観になじまなく浮いてしまう場合があります。

 次回からHoloLensで使用するためのUIをアニメや映画などFUIを参考にオリジナルデザインのUIを作成します。

  redhologerbera.hatenablog.com