本日はAzureのチュートリアルです。
前回までで音声に関するAzureサービスを使ったアプリはできましたが、そのままではHoloLens感がありません。
今回以降のチュートリアルではより実践的なアプリケーション形式のチュートリアルになるようです。
前回の状態から続けて進めていきます。
〇前回の記事
〇シーンの準備
①[Hierarchy]ウィンドウで、[Lunarcom]オブジェクトの[Inspector]ウィンドウで、 [Add component]から[Lunarcom Intent Recognizer]コンポーネントを 追加します。
②[Project] ウィンドウで [Assets]/[MRTK.Tutorials.GettingStarted]/[Prefabs]>[RocketLauncher] フォルダーから[RocketLauncher_Complete]プレハブを [Hierarchy]ウィンドウにドラッグます。
③[RocketLauncher_Complete]の[Transform]を X = 0、Y =-0.4、Z = 1に設定します。
④[Rotation]を X = 0、Y = 90、Z = 0に設定します。
配置が完了すると次のようになります。
[Hierarchy]ウィンドウで、[Lunarcom]オブジェクトの子オブジェクト[RocketLauncher_Complete] 、[Button]のさらに子オブジェクトをそれぞれ対応する [Lunar Launcher Buttons]フィールドに割り当てます。
〇Azure Language Understanding リソースの作成
言語理解知能(LUIS)アプリ用のAzure予測リソースを作成します。
①Azureのポータルへログインし[リソースの作成]を選択します。
②[Language Understanding]と検索バーで検索をかけます。
③[リソースの作成]を選択します。
④リソースを作成します。
・[作成オプション]を[予測]タブに変えます。
・サブスクリプションを設定し[リソースグループ]に一意(オリジナル)の名前を設定します。 ・[予測の場所]を[米国西部2]にします。
・[予測価格レベル]を[Free F0(5 1秒当たりの呼び出し回数 10k 1か月あたりの呼び出し回数)]に設定します。
[確認および作成]タブで確認しこの設定でリソースを作成します。
リソースが作成されました。
次回このリソースを使用してLUISのアプリを作成します。 さらにUnityプロジェクトと接続することでアプリケーション内でより高度な音声認識を使用することができます。
今回は以上になります。