ますます多くの音声制御デバイス、 Apple HomePod 、 Googleホーム 、Y アマゾンエコー 彼らは市場を襲っている。音声ユーザーインターフェイスは、あらゆる種類のさまざまなユーザーエクスペリエンスの向上に役立っており、 音声はすべての検索の50%を後押しします 2020年までに。
音声対応の人工知能は、ほとんどすべてを瞬時に処理できます。
マイクロソフト、グーグル、アマゾン、アップル、フェイスブックの5つの「ビッグファイブ」テクノロジー企業は、音声対応の人工知能アシスタントを開発しました(または現在開発中です)。 Apple iOSおよびHomePodデバイス用の人工知能アシスタントであるSiriは、 月間4000万人のユーザー 、Y ComScoreによると 、米国の10世帯に1世帯は、今日すでにスマートスピーカーを所有しています。
モバイルアプリ用またはスマートホームスピーカー用のVUI(Voice User Interfaces)について話しているかどうかにかかわらず、特に画面の疲労が懸念されるため、音声対話は今日のテクノロジーでより一般的になっています。
Alexaは、EchoスマートスピーカーやKindle Fireタブレットなどの音声対応Amazonデバイス向けの人工知能アシスタントです。Amazonは現在、音声テクノロジー(売上高)で先導しています。
Alexaストアでは、エンターテインメント、翻訳、ニュースに焦点を当てた最新のアプリケーション(「スキル」と呼ばれる)がいくつかありますが、ユーザーはUberスキルを介して乗車をリクエストしたり、Spotifyスキルから音楽を再生したりすることもできます。ドミノスキルでピザを注文します。
もう1つの興味深い例は、商業銀行のCapitalOneです。 Alexaスキルを導入しました 2016年に、そうする最初の銀行でした。 Alexaを介してCapitalOneスキルを追加することで、顧客は残高と期日を確認し、クレジットカードの請求書を決済することもできます。 PayPalは、ユーザーに許可することで、この概念をさらに一歩進めました。 Siriを介して支払いを行う iOSまたはAppleHomePodで、さらに PayPalのAlexaスキル あなたはこれを達成することができます。
しかし、VUIは何ですか 五月 行うことと、ユーザーが実際にそれらを使用する目的は、2つの異なるものです。
ComScoreによると、スマートスピーカーを所有しているユーザーの半数以上が、デバイスを使用して一般的な質問をしたり、天気をチェックしたり、音楽をストリーミングしたりしてから、アラーム、やることリスト、カレンダーを管理しています(これらのタスクはかなりの作業であることに注意してください)。基本的な性質)。
ご覧のとおり、これらのタスクの多くには質問をすることが含まれます(つまり、音声検索)。
ほとんどの人は運転中に音声検索を使用しますが、ユーザーが画面に触れることができない状況(たとえば、料理、運動、または職場でのマルチタスク)は、音声を操作する機会を提供します。これが HigherVisibilityの完全な内訳 。
ユーザーが一般的に自分の声をどのように使用するかを知ることは役に立ちますが、 UXデザイナー 使用しているVUIアプリケーションに固有の独自のユーザー調査を行います。設計。
ユーザー調査とは、観察とフィードバックを通じて、ユーザーのニーズ、行動、動機を理解することです。 A カスタマージャーニーマップ 何が含まれています チャネルとしての声 役立つだけでなく ユーザーエクスペリエンス研究者へ 参加のさまざまな段階でユーザーのニーズを特定しますが、音声が対話の方法となる方法と場所を確認するのにも役立ちます。
カスタマージャーニーマップがまだ作成されていない場合、設計者は音声対話がユーザーフローのどこに含まれるかを強調表示する必要があります(これは、機会、チャネル、またはタッチポイントとして強調表示できます)。ビジネスのカスタマージャーニーマップがすでに存在する場合は、 デザイナー 音声対話によってユーザーフローを改善できるかどうかを確認する必要があります。
たとえば、顧客がソーシャルメディアやライブサポートチャットを介して常に特定の質問をする場合、それは音声アプリに統合できる会話である可能性があります。
要するに、設計は問題を解決するはずです。カスタマージャーニー中にユーザーが遭遇する摩擦やフラストレーションは何ですか?
使って 競合他社の分析 、設計者は、競合他社が音声対話を実装しているかどうか、およびどのように実装しているかを調べる必要があります。尋ねるべき重要な質問は次のとおりです。
音声ユーザーインターフェイスアプリケーションを設計するには、最初にユーザー要件を定義する必要があります。カスタマージャーニーマップの作成と競合他社の分析の実施(上記のとおり)に加えて、インタビューや ユーザーテスト それも役に立ちます。
VUI設計の場合、これらの書面による要件は、開発者向けの設計仕様のほとんどをカバーするため、さらに重要です。最初のステップは、さまざまなシナリオをキャプチャしてから、それらをユーザーと音声アシスタントの間の会話型ダイアログフローに変換することです。
ニュースアプリのユーザーストーリーの例は次のとおりです。
「ユーザーとして、音声アシスタントに最新のニュースを読んでもらいたいので、画面を見なくても最新情報を入手できます。」
このユーザーストーリーを念頭に置いて、そのための対話フローを設計できます。
私のLLCがS法人かC法人かを知るにはどうすればよいですか?
ダイアログフローを作成する前に、設計者はまず音声コマンドの構造を理解する必要があります。 VUIを設計するとき、設計者は常に音声対話の目標について考える必要があります(つまり、 このシナリオでユーザーは何をしようとしていますか? )。
ユーザーの音声コマンドは、次の3つの重要な要素で構成されています。 意図 、 式 Y 溝 。
次のリクエストについて考えてみましょう:「Spotifyでリラックスできる音楽を再生してください」。
インテントは、ユーザーの音声コマンドのより広い目標を表しており、これは 低利益 または 非常に便利な相互作用 。
非常に便利なインタラクションは、リビングルームの照明をオフにするように要求したり、シャワーの温度を決定したりするなど、非常に特殊なタスクを実行することです。人工知能アシスタントに何が期待されているかが非常に明確であるため、これらのリクエストの設計は簡単です。
低いユーティリティリクエスト それらはより曖昧で解読が困難です。たとえば、ユーザーがアムステルダムについて詳しく知りたい場合は、まずこれがサービスの範囲内にあるかどうかを確認してから、リクエストをよりよく理解するためにユーザーにさらに質問をします。
与えられた例では、意図は明確です:ユーザーは音楽を聴きたいと思っています。
ステートメントは、ユーザーがどのように フレーズ あなたの要求。与えられた例では、ユーザーが「Play me ...」と言ってSpotifyで音楽を再生したいと思っていることがわかりますが、これがユーザーがこのリクエストを行う唯一の方法ではありません。たとえば、ユーザーは「音楽を聴きたい...」と言うこともできます。
設計者は、各ステートメントのバリエーションを考慮する必要があります。これは、AIエンジンがリクエストを認識し、それを正しいアクションまたはレスポンスにリンクするのに役立ちます。
場合によっては、試行だけでは不十分であり、要求を満たすためにユーザーからのより多くの情報が必要になります。 Alexaはこれを「スロット」と呼んでおり、スロットマシンは、アプリケーションを完了するために必要なものに応じて、オプションまたは必須にすることができるという点で、従来のフォームフィールドに似ています。
私たちの場合、スロットは「リラックス」していますが、それがなくてもリクエストを完了できるため、このスロットはオプションです。ただし、ユーザーがタクシーを予約したい場合は、スロットが目的地になるため、必要になります。オプションのエントリはデフォルト値を上書きします。たとえば、タクシーをリクエストしているユーザーは午後4時に到着します。デフォルト値の「asap」を上書きします。
プロトタイプデザイナー 彼らは脚本家のように考える必要があり、これらの要件ごとに対話の流れを設計します。ダイアログフローは、以下を説明する成果物です。
ダイアログフローは、ユーザーと音声アシスタントの間のやり取りを示すスクリプトです。ダイアログフローはプロトタイプのようなもので、イラストとしてレンダリングすることも(以下の例のように)、ダイアログフローを作成するために使用できるプロトタイピングアプリケーションがあります。
会話を描いたら、アプリケーションとの音声対話のプロトタイプを作成する準備が整います。いくつかのプロトタイピングツールはすでに市場に参入しています。例えば、 Sayspring 設計者が簡単にプロトタイプを作成できるようにします 仕事の 音声対応のAmazonおよびGoogleアプリ用。
アマゾンはまた、独自の Alexaスキルビルダー 、これにより、 デザイナー 新しいAlexaスキルを作成します。 GoogleはSDKを提供しています。ただし、これは 開発者 Googleアクションから。 Appleはまだ競争力のあるツールをリリースしていませんが、まもなくSiriKitをリリースする予定です。
フロントエンドプログラムをサポートするアプリケーションは、次のどれと呼ばれることもありますアマゾンのAlexaスキルビルダー。デザイナーはAlexa対応デバイスのVUIのプロトタイプを作成できます。
Alexaの「スキル」(またはGoogleの「アクション」)をデプロイすると、アプリがアナリティクスでどのように使用されているかを追跡できます。両社は統合分析ツールを提供しています。ただし、サードパーティのサービスを統合して、より詳細な分析を行うこともできます( voicelabs.co Amazon Alexaの場合、 dashbot.io )Googleアシスタントの場合)。覚えておくべき重要な指標のいくつかは次のとおりです。
モバイルアプリやウェブサイトを設計するとき、デザイナーはどの情報がプライマリで、どの情報がセカンダリであるかを考える必要があります(つまり、それほど重要ではありません)。ユーザーは過負荷を感じたくないのですが、同時に、タスクを完了するのに十分な情報が必要です。
音声の場合、言葉(そしておそらく比較的単純なGUI)がすべて通信するため、設計者はさらに注意を払う必要があります。これは、複雑な情報やデータを送信する場合に特に困難になります。これは、単語が少ないほど良いことを意味し、 デザイナー 彼らは、アプリケーションがユーザーの目標を満たし、厳密に会話を続けることを保証する必要があります。
eコマースのチェックアウトフローを設計する場合、主要な画面の1つが最終確認になります。これにより、取引が正しく転記されたことを顧客に知らせることができます。
同じ概念がVUI設計にも当てはまります。たとえば、ユーザーが居間にいて、音声アシスタントにバスルームの照明を消すように頼んだ場合、確認なしに、居間に歩いて確認し、「手」でオブジェクトを倒す必要があります。 「VUIアプリは完全に。
このシナリオでは、「バスルームが消灯」の応答が正常に機能します。
VUI設計者として、強力なエラー戦略を持つことが重要です。彼は常に、出席者が何も理解または聞いていないシナリオのために設計します。分析を使用して、間違った方向転換や誤解を特定することもできるため、エラー戦略を改善できます。
別のダイアログを探すときに尋ねる重要な質問のいくつか:
Googleアシスタント、Siri、Alexaが個々の声を認識できるようになりました。これにより、FaceIDやTouchIDと同様のセキュリティレイヤーが追加されます。音声認識ソフトウェアは絶えず改善されており、音声を模倣することはますます困難になっています。ただし、現時点では、 安全性が十分でない可能性があります 追加の認証が必要になる場合があります。機密データを扱う場合、設計者は指紋、パスワード、顔認識などの追加の認証手順を含める必要がある場合があります。これは特に個人的なメッセージや支払いに当てはまります。
VUIは今後も存続し、今後ますます多くの製品に統合される予定です。コンピューターとの対話に10年以内にキーボードを使用しないと予測する人もいます。
それでも、「ユーザーエクスペリエンス」について考えるとき、私たちは何を見たり触れたりできるかを考える傾向があります。結果として、相互作用の方法としての声はめったに考慮されません。ただし、ユーザーエクスペリエンスを設計する場合、音声と画像は相互に排他的ではありません。どちらも付加価値があります。
ユーザー調査では、音声によってUXが向上するかどうか、音声対応デバイスの市場シェアがどれだけ急速に増加しているかを検討する必要があります。この調査を行うことは、時間の価値があり、大幅に向上する可能性があります。アプリの価値と品質