夜風のMixedReality

xRと出会って変わった人生と出会った技術を書き残すためのGeekなHoloRangerの居場所

Unity iOSアプリで音声認識を実装する その②

本日はUnity枠です。

先日Untiyで音声認識を実装しようと他記事を参考にしましたが、2017年の記事であったため最新の環境では動作することができませんでした。(筆者のスキルでは実行できませんでした。)

今回は別の方のブランチを使用していきます。

〇環境

Mac mini (M2)

・Unity6000.0.32f1

iPad Air(M2)

〇UnitySpeechToText

今回は以下のリポジトリプラグインを使用します。

https://github.com/yasirkula/UnitySpeechToText

 こちらは8か月前に更新されており、比較的新しくメンテナンスがされています。

①まずはこちらをCloneします。

git clone git@github.com:yasirkula/UnitySpeechToText.git

②クローンしたリポジトリ内にあるPluginsファイルをUnityのAssets内に配置するだけで導入は完了です。

GitHubリポジトリに記載のExampleCodeをコピペで作成しAssets内にSpeechToTextDemo.csを作成します。

④レガシー(TMPではない)のText、Button、Sliderを配置します。なおボタンは2つ作成します。

⑤作成したUIをシーン上のオブジェクトにアタッチしたSpeechToTextDemoの適切なフィールドに設定します。

なおSpeech Textが認識した文字を表示、StartSpeech To Text Buttonを押すと音声認識が開始され、Stop Speech To Text Buttonを押すと音声認識が止まります。

この時に音声レベルを見るのがVoice Level Sliderになります。

⑥実行をすると音声を認識して文字に起こしてくれます。

なおデフォルトでは英語が認識されますがAwake関数のen-ENをjp-JPに変更することで日本語を認識してくれます。

private void Awake()
    {
        SpeechToText.Initialize( "jp-JP" );

        StartSpeechToTextButton.onClick.AddListener( StartSpeechToText );
        StopSpeechToTextButton.onClick.AddListener( StopSpeechToText );
    }

本日は以上です。