JP2020118955A - 非表音文字体系を使用する言語のための音声支援型アプリケーションプロトタイプの試験中の音声コマンドマッチング - Google Patents

非表音文字体系を使用する言語のための音声支援型アプリケーションプロトタイプの試験中の音声コマンドマッチング Download PDF

Info

Publication number
JP2020118955A
JP2020118955A JP2019207637A JP2019207637A JP2020118955A JP 2020118955 A JP2020118955 A JP 2020118955A JP 2019207637 A JP2019207637 A JP 2019207637A JP 2019207637 A JP2019207637 A JP 2019207637A JP 2020118955 A JP2020118955 A JP 2020118955A
Authority
JP
Japan
Prior art keywords
phonetic
voice command
text string
voice
phonetic text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019207637A
Other languages
English (en)
Other versions
JP7111682B2 (ja
Inventor
マーク・シイ・ウェブスター
C Webster Mark
スコット・トーマス・ワーナー
Thomas Werner Scott
スッセ・シェンダービー・ジェンセン
Soenderby Jensen Susse
ダニエル・キャメロン・カンディフ
Cameron Cundiff Daniel
ブレイク・アレン・クレイトン・ソーヤー
Allen Clayton Sawyer Blake
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Adobe Inc
Original Assignee
Adobe Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Adobe Inc filed Critical Adobe Inc
Publication of JP2020118955A publication Critical patent/JP2020118955A/ja
Application granted granted Critical
Publication of JP7111682B2 publication Critical patent/JP7111682B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3664Environments for testing or debugging software
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3668Software testing
    • G06F11/3672Test management
    • G06F11/3688Test management for test execution, e.g. scheduling of test suites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/53Processing of non-Latin text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Machine Translation (AREA)

Abstract

【課題】非表音文字体系を使用する言語による音声コマンドのマッチングエラーを克服する。【解決手段】アプリケーションプロトタイプの試験中において、発話テキスト化サービスは、少なくとも1つのマイクロフォンによってキャプチャされた、非表音文字体系を使用する言語で発話された非表音音声コマンドを、音声コマンドの非表音文字体系の非表音テキスト文字列に変換する。表音言語翻訳機は、音声コマンドの非表音テキスト文字列を、音声コマンドの表音文字体系の表音テキスト文字列に翻訳する。比較モジュールは、音声コマンドの表音テキスト文字列を、アプリケーションプロトタイプに関連する保存済みの音声コマンドの、表音文字体系の表音テキスト文字列と比較して、マッチングする音声コマンドを識別する。実施モジュールは、マッチングする音声コマンドに関連するアクションを実施する。【選択図】図4

Description

ユーザは、ますます多くの異なる音声支援型タスクを達成するために、音声アシスタントデバイスと対話している。一般に、このような音声アシスタントデバイスは、ユーザから音声コマンドを受信するための1つ以上のマイクロフォンを用いて構成される。専用の音声アシスタントデバイスとしては、Amazon(登録商標)Echo及びGoogle(登録商標)Homeが挙げられ、これらはそれぞれ、音声アシスタントプラットフォームAmazon(登録商標)Alexa及びGoogle(登録商標)Assistantとの対話を可能とする。しかしながら、携帯電話、デスクトップコンピュータ、ラップトップコンピュータ、ゲーミングシステム等といった他のデバイスも、音声アシスタントプラットフォームの機能を活用できる音声アシスタントデバイスとして構成できる。例えば、Apple(登録商標)iPhone(登録商標)(携帯電話)は、ユーザが音声アシスタントプラットフォームSiri(登録商標)と対話できるようにする音声アシスタントデバイスとして機能できる。
このような音声アシスタントデバイスは、1つ以上のスピーカーによって可聴(音声)応答を出力すること;視覚コンテンツを表示すること;他の視覚効果(例えば発光ダイオード(LED)による指示)を提供すること;触覚フィードバックを提供すること等によって、ユーザの音声コマンドに対して、多様な異なる方法で応答するよう構成される。更に、音声アシスタントプラットフォームは、例えばサーモスタット、スピーカー、照明といった他のデバイスに、ユーザの音声コマンドに対して応答させることができる。家電製品に関する応答のいくつかの例としては:家屋の温度を調整するためにサーモスタットの温度を変更すること;音楽サービスからスピーカーでの音楽の再生を開始すること;家屋内の特定の照明をオン又はオフにすること等が挙げられる。
音声対話がより一般的になるに従って、設計者は、音声機能をアプリケーション又はウェブページのユーザインタフェースのビジュアルページに追加すること等によって、デジタルインタフェースに音声対話機能を追加し始めている。しかしながら、従来の設計アプリケーションは、アプリケーションプロトタイプのための音声機能の設計及び試験をサポートできない。従って、アプリケーションプロトタイプの設計及び音声支援型試験は困難である。更に、場合によっては、ユーザは、中国語又は日本語といった非表音文字体系を使用する言語を用いて、アプリケーションプロトタイプと対話することを望むが、これは高い割合のマッチングエラーにつながる。
これらの課題を克服するために、非表音文字体系を使用する言語のための音声支援型アプリケーションプロトタイプの試験中の音声コマンドマッチングについて記載する。音声支援型アプリケーションプロトタイプのための音声対話ツールは、デジタル媒体環境において活用されている。設計アプリケーションは、ユーザがあるアプリケーションのためのアプリケーションプロトタイプを設計できるようにする、設計インタフェースを提供する。一般に、上記アプリケーションプロトタイプは、一連のビジュアルページ、並びに上記ビジュアルページに関連付けられた様々なトリガー及び対応するアクションを含む。上記アプリケーションプロトタイプの設計を可能とするために、上記アプリケーションプロトタイプの少なくとも1つのビジュアルページを、上記設計インタフェースに表示する。上記設計インタフェースを制御することにより、上記アプリケーションプロトタイプの上記少なくとも1つのビジュアルページに関するトリガー及び関連するアクションを受信するための、対話インタフェースを提供する。上記トリガーは、音声コマンド、ユーザジェスチャー、又は時間遅延のうちの1つに対応してよく、上記アクションは、発話応答、上記アプリケーションプロトタイプの追加のビジュアルページへのページ遷移、又はメディアファイルのプレイバックのうちの1つに対応してよい。ユーザ入力を上記設計インタフェースによって受信することで、上記トリガー及び上記アクションを提供する。上記ユーザ入力に応答して、上記アプリケーションプロトタイプの上記トリガー、上記アクション、及び上記ビジュアルページを含むように、関連対話データが生成される。上記関連対話データを保存することにより、上記アプリケーションプロトタイプの試験段階中に、上記トリガー及び上記アクションを試験することが可能となる。
試験段階では、上記アプリケーションプロトタイプの少なくとも1つのビジュアルページが表示され、トリガーが検出される。上記トリガーは、一部を挙げると、ユーザから受信した音声コマンド、ユーザジェスチャー、又は時間遅延の満了に対応してよい。上記トリガーを、上記アプリケーションプロトタイプに関連する保存済みのトリガーと比較することにより、マッチングするトリガーを識別する。上記トリガーが音声コマンドに対応する場合、上記音声コマンドをリアルタイムでテキスト文字列に変換する音声テキスト化サービスに、上記音声コマンドを提供する。続いて上記音声コマンドの上記テキスト文字列を、上記アプリケーションプロトタイプに関連する音声コマンドの保存済みテキスト文字列と比較することにより、マッチングする音声コマンドを識別する。
上記マッチングするトリガーの識別に応答して、上記マッチングするトリガーに関連するアクションを、上記試験段階中に実施する。上記アクションは、発話応答、異なるビジュアルページへのページ遷移、又はメディアファイルのプレイバックに対応してよい。上記アクションが発話応答に対応する場合、上記発話応答をリアルタイムでオーディオファイルに変換するテキスト音声化サービスに、上記発話応答のテキスト文字列を提供してよい。
1つ以上の実装形態では、上記設計アプリケーションは、表音言語翻訳機を利用して、音声コマンドのテキスト文字列を、非表音文字体系を使用する言語から、上記テキスト文字列の表音バージョンに変換する。一例として、上記表音言語翻訳機は、北京官話、並びにカタカナ、ひらがな、及び漢字の組み合わせを、それぞれピンイン及びローマ字に翻訳してよい。上記試験段階では、非表音文字体系を使用する言語で発話された非表音音声コマンドを、少なくとも1つのマイクロフォンでキャプチャする。上記非表音音声コマンドは、上記非表音音声コマンドを、上記音声コマンドの上記非表音文字体系の言語の非表音テキスト文字列へと変換するための発話テキスト化サービスへと、リアルタイムで通信される。次に、上記音声コマンドの上記非表音テキスト文字列は、上記非表音テキスト文字列を上記音声コマンドの表音文字体系の表音テキスト文字列に翻訳するための表音言語翻訳機へと、リアルタイムで通信される。上記音声コマンドの上記表音テキスト文字列を、上記アプリケーションプロトタイプに関連する上記表音文字体系の保存済み音声コマンドの表音テキスト文字列と比較して、マッチングする音声コマンドを識別する。そして、上記マッチングする音声コマンドに関連するアクションを実施する。
この概要は、「発明を実施するための形態」において更に後述される複数の概念から選択されたものを、簡略化された形式で紹介している。従ってこの概要は、請求対象の主題の本質的な特徴を識別することを意図したものではなく、請求対象の主題の範囲の決定を補助するものとして使用されることも意図していない。
「発明を実施するための形態」は、添付の図面を参照して記述される。
図1は、本明細書に記載の音声支援型アプリケーションプロトタイプのための音声対話ツールを使用するために動作可能なある例示的実装形態の環境の図である。 図2は、図1の音声対話ツールが、対話データと、アプリケーションプロトタイプのビジュアルページとの間の関連を生成し、上記対話データ及び上記ビジュアルページを保持する、ある例示的実装形態を示す。 図3は、図1の設計アプリケーションの試験モジュールがアプリケーションプロトタイプの試験を容易にする、ある例示的実装形態を示す。 図4は、図1の設計アプリケーションの試験モジュールが、表音言語翻訳機を利用して、アプリケーションプロトタイプの試験中にキャプチャされた音声コマンドをマッチングさせる、ある例示的実装形態を示す。 図5Aは、音声支援型アプリケーションプロトタイプの設計に使用される設計アプリケーションの設計インタフェースの例を示す。 図5Bは、音声支援型アプリケーションプロトタイプの設計に使用される設計アプリケーションの設計インタフェースの例を示す。 図5Cは、音声支援型アプリケーションプロトタイプの設計に使用される設計アプリケーションの設計インタフェースの例を示す。 図6Aは、音声支援型アプリケーションプロトタイプの試験段階中の、設計アプリケーションの設計インタフェースの例を示す。 図6Bは、音声支援型アプリケーションプロトタイプの試験段階中の、設計アプリケーションの設計インタフェースの例を示す。 図7は、音声支援型アプリケーションプロトタイプを設計する例示的手順を示す。 図8は、音声支援型アプリケーションプロトタイプを試験する例示的手順を示す。 図9は、表音言語翻訳を利用して、アプリケーションプロトタイプの試験中にキャプチャされた音声コマンドをマッチングさせる、例示的手順を示す。 図10は、本明細書に記載の技法の実施形態を実装するために、図1〜9を参照して説明及び/又は利用されているいずれのタイプの計算デバイスとして実装可能な例示的デバイスの、様々な部品を含む例示的システムを示す。
概観
ユーザは、ますます多くの異なる音声支援型タスクを達成するために、音声アシスタントデバイスと対話している。音声支援型対話によってこれらのタスクを達成するために、これを実施するための機能を、ソフトウェアアプリケーション、ファームウェア、サービス、プラグイン、スクリプト等の設計、開発及び配備によって、実現しなければならない。しかしながら、アプリケーションプロトタイプを設計するための従来のツールは、アプリケーションプロトタイプのための音声支援型機能を設計及び試験するユーザの能力を制限するものである。
これらの課題を克服するために、音声支援型アプリケーションプロトタイプのための音声対話ツールを、デジタル媒体環境で活用する。Adobe(登録商標)XD等の設計アプリケーションは、ユーザ(例えば設計者)が、あるアプリケーションのためのアプリケーションプロトタイプを設計できるようにする、設計インタフェースを提供する。一般に、上記アプリケーションプロトタイプは、上記アプリケーションのビジュアルページ、並びに上記ビジュアルページに関連する様々なトリガー及び対応するアクションを含む。ビジュアルページの設計の一部として、上記設計アプリケーションは、上記アプリケーションプロトタイプのためのユーザインタフェースコントロール、グラフィック及びテキストの設計及びレイアウトを可能とするツール及び機能を提供する。例えば設計インタフェースは、上記アプリケーションプロトタイプの複数のビジュアルページのシーケンス(例えばホームスクリーンページ及び他の様々なビジュアルページ)を設計でき、上記アプリケーションプロトタイプとの対話中に、これらのビジュアルページへとナビゲートできる。
機能するアプリケーションプロトタイプの設計を可能とするために、上記設計アプリケーションの音声対話ツールは、音声コマンドと発話プレイバックとの両方を、上記アプリケーションプロトタイプの設計に直接統合することを可能とする。これを実現するために、音声対話ツールは、設計インタフェースを制御して、上記アプリケーションプロトタイプのあるビジュアルページに関するトリガー及び関連するアクションを提供するためのコントロールを含む、対話インタフェースを提供する。本明細書で記載されるように、用語「トリガー(trigger)」は、対応するアクションを誘発できるコマンドを指し、「アクション(action)」は、対応するトリガーの検出に応答して実施される動作である。トリガーの例としては例えば、音声コマンド、ユーザジェスチャー(例えばタップ、ドラッグ、スワイプ、キーストローク)、及び時間遅延が挙げられるが、これらに限定されない。アクションの例としては例えば、発話応答、アプリケーションプロトタイプの他のビジュアルページへのページ遷移、及びメディアファイル(例えばオーディオ又はビデオファイル)のプレイバックが挙げられるが、これらに限定されない。
対話インタフェースにより、ユーザは、定義されたトリガー及びアクションのリストから、トリガー及び関連するアクションを選択できる。選択後、ユーザは、選択したトリガー及びアクションを記述する入力を提供する。例えば、ある音声コマンドを上記アプリケーションプロトタイプのある特定のビジュアルページに関連付けるために、音声対話ツールによって、ユーザは、(例えばタッチ機能を用いて)上記特定のビジュアルページを選択し、対話インタフェースを介して(例えばコマンド又は応答をタイピングすること、コマンド又は応答をマイクロフォン又は通信可能に連結されたデバイスに対して発話すること等によって)、上記特定の要素に対応する異なる複数の音声コマンド又は発話応答を指定できる。音声コマンドは、音声支援型アプリケーションに対するユーザの発話を示すオーディオデータ又はテキストデータとして構成してよい。発話応答は、音声コマンドの受信に応答した、音声支援型アプリケーションの(例えば音声アシスタントによる)可聴出力を表す。
特に、対話インタフェースにより、ユーザは、様々な異なるタイプのトリガー及びアクションを、上記アプリケーションプロトタイプのビジュアルページに関連付けることができる。例えばユーザは、音声コマンドトリガーを対応する発話応答に関連付けることができる。しかしながら、設計アプリケーションにより、ユーザは、例えばあるユーザジェスチャートリガーをある発話応答に関連付けることにより、又はある音声コマンドを、上記アプリケーションプロトタイプのある異なるビジュアルページへの遷移に関連付けることにより、複数の音声対話をミックスして他のトリガー及びアクションとマッチングさせることができる。例えば、「天気はどうか(what’s the weather)」等の音声コマンドへの応答において、上記アプリケーションは、今後の天気の概要を提示するビジュアルページに遷移できる。
続いて設計アプリケーションは、トリガー及びアクションの対話データを、対応するビジュアルページに関連付ける。これにより、上記アプリケーションプロトタイプの試験段階中に、各ビジュアルページに関連する対話データを、トリガーの識別に基づいて取得できる。場合によっては、対話データ及び関連するビジュアルページは、クライアントデバイスにローカルに保存してよい。例えば音声対話ツールは、対話データ及び関連するビジュアルページを含む、上記アプリケーションプロトタイプのためのファイルを生成して、上記ファイルをクライアントデバイスのストレージに保存させてよい。このようにすると、上記ファイルを他の設計者に容易に転送でき、上記他の設計者が設計を継続できる。あるいは、又は更に、対話データ及び関連するビジュアルページを、リモートストレージに保持してもよい。
設計アプリケーションは更に、上記設計アプリケーションを用いて生成された上記音声支援型アプリケーションプロトタイプの試験を可能とする、試験モジュールと共に実装される。試験段階の開始時、試験モジュールは、上記アプリケーションプロトタイプの第1のビジュアルページ(例えばホームページ)を表示する。ユーザが、音声コマンドを発話すること又はビジュアルページをタップすること等によって上記アプリケーションプロトタイプと対話すると、試験モジュールはリアルタイムで、発話応答を出力すること、異なるビジュアルページに遷移すること、メディアコンテンツのプレイバックを開始すること、又はこれらの組み合わせ等によって、このトリガーに関連する、対応するアクションを実施させる。このようにして、本明細書に記載のシステムにより、ユーザは試験段階中に上記アプリケーションプロトタイプと対話して、上記アプリケーションプロトタイプが意図した通りに機能することを保証できる。これにより、設計者は、開発段階の前に、音声支援型対話の設計によるいずれの問題を識別して改善できる。上記アプリケーションプロトタイプの設計及び試験後、設計アプリケーションは、上記アプリケーションプロトタイプの設計に従って上記アプリケーションを開発するためにアプリケーション開発者が利用できる指示及びデータを含む、設計仕様を生成できる。あるいは、設計アプリケーションは、設計及び試験プロセスの完了時に実行可能なアプリケーションを生成するように実装してもよい。
よって、本明細書に記載の技法は、音声コマンド及び発話プレイバックの両方をアプリケーションプロトタイプの設計に直接、簡単に統合できるようにすることにより、音声支援型アプリケーションプロトタイプの設計を簡略化し、その一方で、試験段階は、ユーザが音声コマンドを提供できるようにし、また発話プレイバックを出力して、ユーザが上記アプリケーションプロトタイプとの対話をシミュレーションできるようにする。
特に、音声コマンドのマッチング時、設計アプリケーションの試験モジュールは、上記音声コマンドのテキスト文字列が、保存済み音声コマンドのテキスト文字列と共通して有する文字数に基づいて、マッチングする音声コマンドを選択してよい。これは、英語等の表音文字体系を使用する言語に関しては、共通の文字をマッチングさせることによって、単語の音がどの程度近いかを近似できるため、良好に機能する。例えば英語の単語「house」及び「mouse」はいずれも、5文字のうちの4文字が共通であるため、これらは音も類似している。従って、音声テキスト化サービスが音声コマンドを、意図した音声コマンドと「音が類似した」テキスト文字列(例えば「mouse」ではなく「house」、又は「ride share」ではなく「red chair」)に誤って変換するという一般的なシナリオにおいて、本明細書に記載のマッチング技法は依然として、表音文字体系において同一の音を有する単語間の文字の共通性により、マッチングする保存済み音声コマンドを高い蓋然性で識別できる。しかしながら、北京官話及び日本語の漢字等の「非表音(non‐phonetic)」文字体系を使用する言語に関しては、同一の音を有する単語が文字毎に容易に比較されないため、このマッチング技法は機能しない。
この問題を解決するために、設計アプリケーションは、非表音文字体系を使用する言語の音声コマンドのテキスト文字列を、上記テキスト文字列の表音バージョンに変換するために、表音言語翻訳機を利用する。一例として、表音言語翻訳機は、北京官話、並びにひらがな、カタカナ、及び漢字の混合を、それぞれピンイン及びローマ字に翻訳してよい。試験段階では、マイクロフォンが非表音言語の音声コマンドのオーディオをキャプチャし、この非表音言語の音声コマンドのオーディオを、発話テキスト化サービスに提供する。発話テキスト化サービスは、音声コマンドのオーディオを、非表音文字体系の音声コマンドのテキスト文字列に変換する。続いてこの非表音文字体系の音声コマンドのテキスト文字列を、表音言語翻訳機に提供し、上記表音言語翻訳機は、上記非表音文字体系の音声コマンドのテキスト文字列を、音声コマンドのテキスト文字列の表音バージョンに変換する。試験と同時に、又は試験前に、表音言語翻訳機は、上記アプリケーションプロトタイプに関連する保存済み音声コマンドの、非表音文字体系のテキスト文字列を、上記保存済み音声コマンドのテキスト文字列の音声バージョンに翻訳する。
次に、キャプチャされた音声コマンドのテキスト文字列の、翻訳された表音バージョンを、保存済み音声コマンドのテキスト文字列の翻訳された表音バージョンと比較する。キャプチャされた音声コマンドのテキスト文字列の表音バージョンと、保存済み音声コマンドのテキスト文字列の表音バージョンとの間の、共通する文字の数の決定に基づいて、マッチングする音声コマンドを識別する。非表音テキスト文字列を最初に音声バージョンに変換することにより、共通する文字の数に基づくこのような比較は、マッチングする音声コマンドを合理的な信頼性レベル内で識別するにあたって有効となる。よって、本明細書に記載の表音言語翻訳技法は、音声支援型アプリケーションプロトタイプの試験中の音声コマンドマッチングの精度を向上させる。
本明細書に記載されているように、用語「非表音テキスト文字列(non‐phonetic text string)」とは、北京官話又は漢字といった非表音文字体系で書かれたテキスト文字列を指し、非表音音声コマンドとは、ユーザが非表音文字体系を使用する言語で音声コマンドを発話したときにマイクロフォンがキャプチャしたオーディオデータを指す。対照的に、「表音テキスト文字列(phonetic text string)」「表音テキスト文字列」又は「翻訳された表音テキスト文字列(translated phonetic text string)」は、ピンイン又はローマ字といった表音的表現に翻訳された、非表音文字体系のテキスト文字列を指す。
以下の議論では、まず、本明細書に記載の技法を使用できる例示的環境について説明する。続いて、この例示的環境及び他の環境において実施できる、例示的な実装の詳細及び手順について説明する。従って、上記例示的手順の実施は、上記例示的環境に限定されず、また上記例示的環境は、上記例示的手順の実施に限定されない。
例示的環境
図1は、本明細書に記載の、非表音文字体系を使用する言語のための音声支援型アプリケーションプロトタイプの試験中に、音声コマンドマッチングを使用するために動作可能な、例示的実装形態における環境100の図である。図示されている環境100は、計算デバイス102、音声対話設計システム104、音声アシスタントプラットフォーム106、及びネットワーク110を介して互いに通信可能に連結される様々な音声アシスタントデバイス108を含む。
計算デバイス102、音声対話設計システム104、及び音声アシスタントプラットフォーム106の実装に使用できるデバイスは、多様な方法で構成できる。例えばこれらのデバイスは、デスクトップコンピュータ、ラップトップコンピュータ、(例えばタブレット又は携帯電話等のハンドヘルド構成を想定した)移動体デバイス等として構成してよい。よって、デバイスは、相当なメモリ及びプロセッサリソースを有するフルリソースデバイス(例えばパーソナルコンピュータ、ゲームコンソール)から、限定的なメモリ及び/又は処理リソースを有する低リソースデバイス(例えば移動体デバイス)にまで及んでよい。更に、「デバイス(a device)」は、図8に関連して更に説明されるように、「クラウドを介した(over the cloud)」動作を実施するためにビジネスで利用される複数のサーバー等の、複数の異なるデバイスを表す場合がある。
音声アシスタントデバイス108もまた、多様な方法で構成できる。一般に、音声アシスタントデバイス108は、音声コマンド112をユーザ114から受信するための1つ以上のマイクロフォンを用いて構成される。専用の音声アシスタントデバイス108の例としては、Amazon(登録商標)Echo及びGoogle(登録商標)Homeが挙げられ、これらはそれぞれ、音声アシスタントプラットフォームAmazon(登録商標)Alexa及びGoogle(登録商標)Assistantとの対話を可能とする。携帯電話、デスクトップコンピュータ、ラップトップコンピュータ、ゲーミングシステム等といった他のデバイスも、音声アシスタントプラットフォームの機能を活用できる音声アシスタントデバイス108として構成できる。例えば、Apple(登録商標)iPhone(携帯電話)は、ユーザ114が音声アシスタントプラットフォームSiri(登録商標)と対話できるようにする音声アシスタントデバイス108として機能できる。この目的のために、音声アシスタントデバイス108は、音声コマンド112の受信に加えて、インタフェース(例えばタッチ、カメラ等)を通してユーザ入力を受信するよう構成できる。
いずれの場合においても、これらの音声アシスタントデバイス108は、それぞれの音声アシスタントプラットフォーム106と対話して、音声コマンド112に応答する。音声アシスタントプラットフォーム106は、音声コマンド処理モジュール116を有するものとして図示されている。音声コマンド処理モジュール116は、音声コマンド112によって開始されるリクエストを受信し、上記リクエストにどのように応答するかを決定し、音声アシスタントデバイス108、又は接続されたホーム、(例えばeコマースプラットフォームによる商品の配送を容易にする)1つ以上のサービスそれぞれを提供するサービスプロバイダデバイス等といった、音声コマンド112が影響を及ぼすことができる他のいずれのデバイスに、応答を提供する機能を示す。従って、音声アシスタントデバイス108は、1つ以上のスピーカーを介して可聴発話応答115を出力すること、視覚コンテンツを表示すること、他の視覚効果(例えば発光ダイオード(LED)による指示)を提供すること、触覚フィードバックを提供すること等によって、無数の方法でユーザ114の音声コマンドに応答するよう構成してよい。更に、音声アシスタントプラットフォーム106は、例えばサーモスタット、スピーカー、照明といった他のデバイスに、ユーザ114の音声コマンド112に対して応答させることができる。家電製品に関する応答のいくつかの例としては:家屋の温度を調整するためにサーモスタットの温度を変更すること;音楽サーバーからスピーカーでの音楽の再生を開始すること;家屋内の特定の照明をオン又はオフにすること等が挙げられる。音声コマンド112は、音声アシスタントデバイス108を含むがこれに限定されない1つ以上のデバイスによる応答を開始するために、多様な設定(例えば住宅、職場等)で活用され得る。
図示されている環境100の文脈において、設計アプリケーション118は、計算デバイス102のユーザ(例えば設計者)がソフトウェアアプリケーション、ファームウェア、サービス、プラグイン、スクリプト等といったアプリケーションに関するアプリケーションプロトタイプ120を設計できるようにする機能を示す。場合によっては、アプリケーションプロトタイプ120は、統合型ディスプレイスクリーンを含むAmazon(登録商標)Show等の音声アシスタントプラットフォーム106のために設計される。しかしながら、アプリケーションプロトタイプ120は、音声支援型機能を含むいずれのタイプのアプリケーションのために設計してよい。設計アプリケーション118は、Adobe(登録商標)XD又はAdobe(登録商標)Sketchといった設計アプリケーションとして実装してよい。しかしながら、設計アプリケーション118は、多様な異なるサードパーティコンテンツ生成又は編集アプリケーション、音声アプリケーション開発アプリケーション、開発環境等として実装してよい。
設計アプリケーション118が、ユーザがアプリケーションプロトタイプ120のビジュアルページ122のシーケンスを設計できるようにする、様々なインタフェース及びコントロールを提供する。ビジュアルページ122の設計の一部として、設計アプリケーション118は、アプリケーションプロトタイプ120のための様々なユーザインタフェースコントロール(例えば選択可能なボタン及びドロップダウンリスト)、グラフィック、テキスト等を設計及びレイアウトするためのツールを提供する。例えばユーザは、アプリケーションのホームページ、及びエンドユーザをナビゲートできる他のビジュアルページ122を設計してよい。
本明細書に記載の技法によると、設計アプリケーション118は音声対話ツール126を更に含み、これは、音声コマンド及び発話応答の形式の対話データ124を、アプリケーションプロトタイプ120の異なる複数のビジュアルページ122と関連付けるのを容易にする。これを実現するために、音声対話ツール126は、設計アプリケーション118の設計インタフェースを制御して、アプリケーションプロトタイプ120のビジュアルページ122のためのトリガー及び関連するアクションを受信するための対話インタフェースを提供する。本明細書に記載されているように、トリガーは、対応するアクションを誘発できる様々なユーザコマンドを含む。トリガーの例のごく一部としては、音声コマンド、ユーザジェスチャー(例えばタップ、ドラッグ、スワイプ、キーストローク)、及び時間遅延が挙げられる。アクションの例のごく一部としては、発話応答、アプリケーションプロトタイプの他のビジュアルページへのページ遷移、及びメディアファイル(例えば音声ファイル)のプレイバックが挙げられる。
場合によっては、対話インタフェースにより、ユーザは、定義されたトリガー及びアクションのリストから、トリガー及び関連するアクションを選択できる。選択後、ユーザは、選択したトリガー及びアクションを記述する入力を提供する。例えば、ある音声コマンドを上記アプリケーションプロトタイプ120のある特定のビジュアルページ122に関連付けるために、音声対話ツール126によって、ユーザは、(例えばタッチ機能を用いて)上記特定のビジュアルページ122を選択し、対話インタフェースを介して(例えばコマンド又は応答をタイピングすること、コマンド又は応答をマイクロフォン又は通信可能に連結されたデバイスに対して発話すること等によって)、上記特定のビジュアルページに対応する異なる複数の音声コマンド又は発話応答を指定できる。本明細書で使用される場合、対話データ124は、音声コマンド及び発話応答、並びに他のタイプのトリガー(例えばユーザジェスチャー及び時間遅延)並びにアクション(例えばページ遷移及びメディアのプレイバック)を含む。
特に、設計アプリケーション118により、ユーザは、様々な異なるタイプのトリガー及びアクションを、アプリケーションプロトタイプ120のビジュアルページ122に関連付けることができる。例えばユーザは、音声コマンドトリガーを対応する発話応答に関連付けることができる。しかしながら、設計アプリケーション118により、ユーザは、例えばあるユーザジェスチャートリガーをある発話応答に関連付けることにより、又はある音声コマンドを、アプリケーションプロトタイプ120のある異なるビジュアルページ122への遷移に関連付けることにより、複数の音声対話をミックスして他のトリガー及びアクションとマッチングさせることができる。
アプリケーションプロトタイプ120のための音声支援型対話の設計を容易にすることの一部として、音声対話ツール126は、音声対話設計システム104の機能を活用してよい。図示されている環境100では、音声対話設計システム104が、発話テキスト化サービス128及びテキスト発話化サービス130と共に図示されている。一般に、発話テキスト化サービス128は、1つ以上のマイクロフォンがキャプチャした音声データ中の、発話された単語及びフレーズを識別し、上記発話された単語及びフレーズをテキスト文字列に変換する機能を表す。テキスト発話化サービス130は、テキストデータ(例えば設計アプリケーションのユーザインタフェースへのユーザ入力を介して受信したテキストデータ)を発話応答に加工する機能を表す。よって、発話テキスト化サービス128及びテキスト発話化サービス130により、ユーザは、アプリケーションプロトタイプ120の設計及び試験中に、設計アプリケーション118への可聴入力及びテキスト入力の両方を提供できる。音声対話設計システム104は、これらの特定の部品と共に図示されているものの、本発明の精神又は範囲から逸脱せずに本明細書に記載の機能を提供するために、より多数の、より少数の、及び異なる部品を含んでよく、又はこれらに対する(例えばクラウドコンピューティングサービスを介した)アクセスを有してよいことを理解されたい。更に場合によっては、発話テキスト化サービス128若しくはテキスト発話化サービス130を、計算デバイス102において実装してよく、又は別個のサードパーティ製サーバーにおいて実装してよい。発話テキスト化サービス128及びテキスト発話化サービス130をサードパーティ製サービスとして実装する場合、音声対話ツール126は、発話テキスト化サービス128及びテキスト発話化サービス130への安全な通信チャネルを確立するために、認証トークンを利用できる。
設計アプリケーション118は更に、設計アプリケーション118を用いて生成された音声支援型アプリケーションプロトタイプ120の試験を可能とする、試験モジュール132と共に実装される。これを実現するために、試験モジュール132は、試験段階において、アプリケーションプロトタイプ120の第1のビジュアルページ(例えばホームページ)を表示する。ユーザが、音声コマンドを発話すること又はビジュアルページ122をタップすること等によってアプリケーションプロトタイプ120と対話すると、試験モジュール132はリアルタイムで、発話応答を出力すること、異なるビジュアルページに遷移すること、メディアのプレイバックを開始すること、又はこれらの組み合わせ等によって、このトリガーに関連する、対応するアクションを実施させる。このようにして、本明細書に記載のシステムにより、ユーザは試験段階中にアプリケーションプロトタイプ120と対話して、上記アプリケーションプロトタイプが意図した通りに機能することを保証できる。これにより、ユーザは、開発段階の前に、音声支援型対話の設計によるいずれの問題を識別して改善できる。
音声対話設計システム104は更に、計算デバイス102において、又は計算デバイス102から離れて(例えばクラウドサービスとして)実装できる、表音言語翻訳機134と共に実装される。一般に、表音言語翻訳機134は、非表音文字体系のテキスト文字列を取得し、この非表音テキスト文字列を、異なる言語又は文字の表音テキスト文字列に変換するよう構成される。例えば表音言語翻訳機は、非表音文字体系のテキスト文字列をローマ文字又はラテン文字に変換するための、ローマ文字化技法を利用してよい。これを実施するために、表音言語翻訳機は、書かれたテキストを表すための翻字技法、及び発話された単語を表すための転写技法を利用してよい。転写方法は、発話中の音素又は意味の単位を記録する音素転写と、発話音声を正確に記録する、より厳密な音声転写とに細分化できる。
表音言語翻訳機134を利用して、多様な異なるタイプの非表音言語のテキスト文字列を、上記テキスト文字列の表音バージョンに変換してよい。一例として、表音言語翻訳機は、中国文字で書かれることが多い北京官話を、「ピンイン」として知られる中国語のローマ文字化バージョンに翻訳するよう構成できる。別の例では、表音言語翻訳機は、中国語から借用した表語文字(漢字)と、これもまた究極的には中国文字に由来するものである音節を表す文字(かな)との組み合わせで通常書かれる日本語を、ローマ字に翻訳するよう構成できる。日本語に関しては、(最も広く使用されている)ヘボン式ローマ字変換、訓令式ローマ字変換、及び日本式ローマ字変換を含む、複数の異なるタイプのローマ文字化体系が存在する。特に、音声対話設計システム104は、多様な異なるタイプのローマ文字化技法を利用して、多様な異なる言語から受け取ったテキストを、上記テキストの標準的な表音バージョンに変換してよい。
アプリケーションプロトタイプ120の設計及び試験後、設計アプリケーション118は、アプリケーションを開発するためにアプリケーション開発者に提供してよい、設計仕様を生成できる。あるいは、設計アプリケーション118は、設計及び試験プロセスの完了時に実行可能なアプリケーションを生成するように実装してもよい。アプリケーションプロトタイプ作成のための音声対話を可能とすることによって、本明細書に記載の技法は、設計者が、ビジュアルインタフェースを含む音声支援型アプリケーションを設計できるようにする。
ある例示的環境について考察してきたが、これより、1つ以上の実装形態による、デジタル媒体環境における音声支援型アプリケーションプロトタイプのための音声対話ツールに関する技法のいくつかの例示的詳細に関する議論を考察する。
図2は、図1の音声対話ツールが、対話データとアプリケーションプロトタイプのビジュアルページとの間の関連を生成し、上記対話データ及び上記ビジュアルページを保持する、例示的実装形態200を示す。図示されている例200は、図1からの設計アプリケーション118の音声対話ツール126を含む。
例200では、ユーザ入力202を取得している、音声対話ツール126が図示されている。ユーザ入力202は、図4、5に関連して説明したものと同様のユーザインタフェース等の、設計アプリケーション118のユーザインタフェースを介して、音声対話ツール126によって受信できる。場合によっては、ユーザ入力202は、1つ以上のマイクロフォンによってキャプチャされた音声入力に対応してよい。大まかに言えば、ユーザ入力は、アプリケーションプロトタイプ120のあるビジュアルページ122に関連するトリガー及び対応するアクションを識別する。本明細書全体にわたって記載されているように、トリガーは、対応するアクションを誘発できる様々なユーザコマンドを含む。
ユーザ入力202に基づき、音声対話ツール126は関連対話データ204を生成し、これは、対話データ124(例えばトリガー及びアクション)と各ビジュアルページ122との間の関連を記述する。この関連対話データ204を、設計アプリケーション118によって保持でき、これにより、各ビジュアルページ122に関連する対話データ124を、トリガーの検出に基づいてストレージ206から取得できる。
ストレージ206は、計算デバイス102にローカルに実装してよい。例えば音声対話ツールは、対話データ124及び関連するビジュアルページ122を含む、アプリケーションプロトタイプ120のためのファイルを生成してよく、上記ファイルを、計算デバイス102のストレージ206に保存させてよい。これにより、アプリケーションプロトタイプ120の試験段階中に、各ビジュアルページ122に関連する対話データ124を、トリガーの識別に基づいて上記ストレージから取得できる。あるいは、又は更に、対話データ124及び関連するビジュアルページ122は、音声対話設計システム104のリモートストレージに保持してよい。1つ以上の実装形態では、クライアントデバイスにローカルに保存されたファイルを、音声対話設計システムのストレージにリモートで保存された関連対話データと同期させてよい。
対話データ124は、トリガー208及び対応するアクション210を含む。この例では、トリガー208は、音声コマンド212、ユーザジェスチャー214(例えばタップ、ドラッグ、スワイプ又はキーストローク)、及び時間遅延216を含み、アクションは、発話応答218、ページ遷移220、及びメディア出力222を含む。場合によっては、設計アプリケーション118は対話インタフェースを提供し、これにより、ユーザは、定義されたトリガー及びアクションのリストから、トリガー及び関連するアクションを選択できる。選択後、ユーザは、選択したトリガー及びアクションを記述する入力を提供する。例えば、ある音声コマンドを上記アプリケーションプロトタイプ120のある特定のビジュアルページ122に関連付けるために、音声対話ツール126によって、ユーザは、(例えばタッチ機能を用いて)上記特定のビジュアルページ122を選択し、対話インタフェースを介して(例えばコマンド又は応答をタイピングすること、コマンド又は応答をマイクロフォン又は通信可能に連結されたデバイスに対して発話すること等によって)、上記特定の要素に対応する異なる複数の音声コマンド212又は発話応答218を指定できる。上記音声コマンドは、音声アシスタントデバイスに対するユーザの発話を示すオーディオデータ又はテキストデータとして構成してよい。発話応答は、音声コマンド、例えば可聴発話の受信に応答した可聴出力を表す。音声コマンド212を、マイクロフォンを介したユーザからの音声入力として受信した場合、発話テキスト化サービス128を利用して、キャプチャしたオーディオをテキスト文字列へと変換できる。1つ以上の実装形態では、音声対話ツール126は、音声コマンド212の複数のバリエーションを生成できる。例えば音声コマンド212を、「明日の天気はどうか(What is the weather tomorrow)」として受信した場合、音声対話ツール126は、「明日の天気はどうなるか(what is the weather going to be tomorrow)」、「明日は雨が降りそうか?(is it going to rain tomorrow?)」「明日は晴れそうか(is it going to be sunny tomorrow)」、「明日はどの程度暑いか(how hot will it be tomorrow)」等といった、上記音声コマンドの複数のバリエーションを生成できる。
1つ以上の実装形態では、音声対話ツール126は音声コマンド212を、北京官話又は漢字等の非表音文字体系でのテキスト入力として受信してよい。このシナリオでは、音声対話ツール126は、アプリケーションプロトタイプ試験段階まで、音声コマンド212を非表音テキスト文字列としてストレージ206内に保存してよい。あるいは場合によっては、音声コマンド206の非表音テキスト文字列は、上記テキスト文字列をストレージ206に保存する前に、表音言語翻訳機134によって、上記テキスト文字列の表音バージョンへと変換できる。このシナリオでは、テキスト文字列の表音バージョンをストレージ206に保存する。
本明細書に記載の技法により、ユーザは、試験段階中に、アプリケーションプロトタイプ120と対話できるようにもなる。この文脈において、図1の設計アプリケーションの試験モジュールがアプリケーションプロトタイプの試験を容易にする例示的実装形態300を示す、図3について考察する。図示されている例300は、図1からの試験モジュール132、発話テキスト化サービス128、及びテキスト発話化サービス130を含む。
試験段階において、試験モジュール132は、アプリケーションプロトタイプ120の第1のビジュアルページ122(例えばホームページ)の表示を開始する。第1のビジュアルページ122の表示中、ユーザは、音声コマンドを発話すること又はビジュアルページ122をタップすること等によってアプリケーションプロトタイプ120と対話し、試験モジュール132は、ユーザの対話に基づいて、トリガー302をリアルタイムで取得する。試験モジュール132は処理モジュール304を含むものとして図示されており、この処理モジュール304は、ユーザの対話を処理することによって、音声コマンド306、ユーザジェスチャー308又は時間遅延310といったトリガー302を識別するための機能を表す。
処理モジュール304は、識別されたトリガー302を関連対話データ204と比較することにより、マッチングするトリガーを識別する。例えば、リクエスト処理モジュール304は、音声コマンド306又はユーザジェスチャー308を、それぞれ、関連対話データ204の、保存済みの音声コマンド212及びユーザジェスチャー214と比較する。マッチングするトリガーを識別するために、処理モジュール304は、一意識別子、ハッシュ、テキストベース検索等の多様な技法を活用してよい。更に、処理モジュール304は、新しいビジュアルページが表示される際に、時間遅延トリガーを継続的に監視してよい。
トリガー302を音声コマンド306として受信した場合、処理モジュール304は、音声コマンド306のオーディオデータを発話テキスト化サービス128に提供する。発話テキスト化サービス128は上記オーディオデータをリアルタイムで処理して、音声コマンド306の上記オーディオデータをテキスト文字列に変換する。処理モジュール304は、音声コマンド306のテキスト文字列を発話テキスト化サービス128から取得し、この音声コマンド306のテキスト文字列を、音声コマンド212の保存済みのテキスト文字列と比較することによって、マッチングする音声コマンドを識別する。
処理モジュール304は、受信した音声コマンド306のテキスト文字列の文字を、保存済みの音声コマンド212のテキスト文字列の文字と比較することによって、マッチングする音声コマンドを識別してよい。一致する文字の数が多いほど、マッチングの蓋然性が高いことを示す。例えばコマンドが単語「mouse」を含む場合、処理モジュール304は、単語「house」を、「mouse」とマッチングするものとして認識し得る。というのは、これらの単語は4文字が一致しているためである。場合によっては、発話テキスト化サービス128は、テキスト文字列が正しいことの信頼性のレベルを示す信頼性スコアを、テキスト文字列と共に含む。この信頼性スコアは、処理モジュール304がマッチングする音声コマンドを識別するのを支援する。1つ以上の実装形態では、処理モジュール304は、ユーザがアプリケーションプロトタイプと更に簡単に対話できるようにするために、マッチングするテキスト文字列を、低い許容誤差を用いて選択するよう構成される。
トリガー302が、関連対話データ204の保存済みのトリガー208とマッチングすることが検出されたことに応答して、処理モジュール304は、関連対話データ204中の、上記トリガーに関連する、対応するアクション210を識別する。次に、発話応答314、ページ遷移316、又はメディア出力318に対応するアクション312を、実施モジュール320へと移動させる。実施モジュール320は、発話応答314を出力すること、異なるビジュアルページへのページ遷移316を実施すること、オーディオ若しくはビデオコンテンツを出力すること、又はこれらの組み合わせ等によって、識別されたトリガーに関連する、対応するアクション312を実施させる。
アクション312が発話応答314に対応する場合、実施モジュールは、発話応答314のテキスト文字列を、テキスト発話化サービス130にリアルタイムで提供できる。テキスト発話化サービス130は、発話応答314のテキスト文字列を、発話応答314に対応するオーディオデータに変換する。実施モジュール320は次に、発話応答314に対応する上記オーディオデータを出力させる。
このようにして、本明細書に記載のシステムにより、ユーザは試験段階中にアプリケーションプロトタイプ120と対話して、アプリケーションプロトタイプ120が意図した通りに機能することを保証できる。これにより、ユーザは、開発段階の前に、音声支援型アプリケーションプロトタイプ120の設計によるいずれの問題を識別して改善できる。
特に、音声コマンドのマッチング時、試験モジュール132は、上記音声コマンドのテキスト文字列が、保存済み音声コマンドのテキスト文字列と共通して有する文字数に基づいて、マッチングする音声コマンドを選択してよい。これは、英語等の表音文字体系を使用する言語に関しては、共通の文字をマッチングさせることによって、単語の音がどの程度近いかを近似できるため、良好に機能する。しかしながら、北京官話及び日本語の漢字等の「非表音」文字体系を使用する言語に関しては、同一の音を有する単語が文字毎に容易に比較されないため、このマッチング技法は機能しない。
この文脈において、図1の設計アプリケーションの試験モジュールが表音言語翻訳機を利用して、アプリケーションプロトタイプの試験中にキャプチャされた音声コマンドをマッチングさせる、例示的実装形態400を示す、図4について考察する。図示されている例400は、図1からの試験モジュール132、発話テキスト化サービス128、及び表音言語翻訳機134を含む。
試験段階において、試験モジュール132は、アプリケーションプロトタイプ120の第1のビジュアルページ122(例えばホームページ)の表示を開始する。第1のビジュアルページ122の表示中、ユーザは、非表音音声コマンド402を発話することによってアプリケーションプロトタイプ120と対話する。本明細書全体を通して記載されているように、非表音音声コマンド402は、北京官話又は日本語における漢字といった非表音文字体系を使用する言語で発話された音声コマンドに相当する。非表音音声コマンド402は、少なくとも1つのマイクロフォンによって、オーディオデータとしてキャプチャされる。
試験モジュール132は、キャプチャした非表音音声コマンド402のオーディオデータを発話テキスト化サービス128に通信する。発話テキスト化サービス128は、非表音音声コマンド402の上記オーディオデータをリアルタイムで処理して、非表音音声コマンド402の上記オーディオデータを、キャプチャした音声コマンドの、非表音文字体系の言語の非表音テキスト文字列404に変換する。
試験モジュール132は、非表音テキスト文字列404を表音言語翻訳機134に通信する。表音言語翻訳機134は、キャプチャした音声コマンドの非表音テキスト文字列404を、上記キャプチャした音声コマンドの、ピンイン又はローマ字といった表音文字体系で書かれた表音テキスト文字列406に翻訳する。更に、試験段階中、表音言語翻訳機134は、保存済みの音声コマンド408の、非表音文字体系での非表音テキスト文字列410を取得する。例えば、保存済みの音声コマンド408は、ストレージ206に保持された音声コマンド212に対応してよい。表音言語翻訳機134は、保存済みの音声コマンド408の非表音テキスト文字列410を、保存済みの音声コマンド408の、表音文字体系での表音テキスト文字列412に翻訳する。あるいは、表音言語翻訳機134は、試験段階の前に、保存済みの音声コマンド408の表音テキスト文字列410を、保存済みの音声コマンド408の表音テキスト文字列412に翻訳してよい。この場合、表音テキスト文字列412は、ストレージに保持されていてよい。
試験モジュール132の表音比較モジュール414は、キャプチャした音声コマンド402の表音テキスト文字列406と、保存済みの音声コマンド408の表音テキスト文字列412とを取得する。続いて表音比較モジュール414は、表音テキスト文字列406を表音テキスト文字列412と比較することにより、保存済みの音声コマンドに対応する表音テキスト文字列412の、マッチングする音声コマンド416を識別する。表音比較モジュール414は、マッチングする音声コマンド416を、表音テキスト文字列406の文字を保存済みの音声コマンド408の表音テキスト文字列412と比較することによって、識別してよい。表音テキスト文字列406、412は表音文字に翻訳されているため、表音比較モジュール414は、マッチングする音声コマンド416が、キャプチャした音声コマンドと共通して有する文字数に基づいて、マッチングする音声コマンド416を選択できる。いずれのテキスト文字列も表音文字で書かれているため、マッチングする文字数が多くなるほど、マッチングの蓋然性が高くなる。
マッチングする音声コマンド416が表音比較モジュール414によって識別されると、試験モジュールは、本明細書全体を通して記載されているように、関連するアクションの実施を開始する。
図5A〜5Cは、音声支援型アプリケーションプロトタイプの設計に使用される設計アプリケーションの設計ユーザインタフェースの例500を示す。
図5Aでは、設計アプリケーション118の設計インタフェース502は、表示デバイス504によって表示されている。設計インタフェース502は、第1のビジュアルページ506及び第2のビジュアルページ508を含むものとして図示されている。第1のビジュアルページ506及び第2のビジュアルページ508は、設計アプリケーション118を利用するユーザによって設計されていてもよく、又は異なる設計アプリケーションからインポートされていてもよい。特に、設計インタフェース502をユーザが利用して、いずれの個数の異なるビジュアルページを生成してよい。
図示されている例500はまた、カーソル510も含み、これは、設計アプリケーション118によって提供された設計インタフェース502の様々なコントロール及び機能と対話するための入力をユーザが提供できるようにするための機能を表す。カーソル510が図示されているものの、1つ以上の実装形態では、表示されたカーソルが存在しない場合がある。場合によっては、設計インタフェース502の様々なコントロール及び機能について、他の方法で、例えばタッチ入力(又は他のジェスチャー入力)、キーボード入力、スタイラス入力、音声入力等によって、選択又は対話を行ってよい。
ビジュアルページ506、508は、アプリケーションプロトタイプ120のビジュアルページ又はスクリーンを表し、これらは設計者によって「アートボード(art board)」と呼ばれることが多い。この例では、第1のビジュアルページ506は、アプリケーションプロトタイプ120の「ホームページ(home page)」に相当し、現在時刻、現在の温度、及び現在の天気を「晴れ(sunny)」として描画したグラフィックを含む。
この例では、第2のビジュアルページ508は、アプリケーションプロトタイプ120のカレンダーページに相当し、ユーザが3つの近日中のイベントを有すること、及びユーザが「明日午前10時にカフェ・プレッセでジュディとブランチ(Brunch with Judy at Cafe’ Presse, at 10 AM tomorrow)」に対応するアポイントメントを有することを示すテキストを含む。特に、第1のビジュアルページ506は、ユーザが音声コマンド「私の予定は(What’s on my calendar)」を発話できることを示すテキストを含む。このテキストは、ユーザが音声コマンドの発話によってカレンダーページに遷移できることの視覚的な手がかりをユーザに提供する。
この音声コマンドに基づくカレンダーページへの遷移を可能とするために、設計インタフェースにより、ユーザは、第1のビジュアルページ506を第2のビジュアルページ508にリンクさせることができる。この例ではユーザは、カーソル510を用いて第1のビジュアルページ506上でハンドル制御を選択し、カーソルを第2のビジュアルページ508へとドラッグすることによって、ビジュアルページ506、508をリンクさせる。これを実施することで、設計インタフェースに、第1のビジュアルページ506と第2のビジュアルページ508との間のビジュアルリンク要素512を生成させる。
第1のビジュアルページ506を第2のビジュアルページ508にリンクさせることに応答して、設計インタフェースは、ユーザが、図5Bに示されているこの遷移のためのトリガーを識別する入力を提供できるようにする。図5Bでは、設計アプリケーションは、アプリケーションプロトタイプのあるビジュアルページのためのトリガー及び関連するアクションを提供するためのコントロールを含む、対話インタフェース514を提示する。この例では、対話インタフェース514は、トリガーのタイプを定義する入力を受信するための、トリガーコントロール516を含む。場合によっては、対話インタフェース514のトリガーコントロール516によって、ユーザは、トリガーコントロール516付近の下向きの矢印を選択して、トリガーのリストを表示させること等によって、定義されたトリガーのリストから、トリガーのタイプを選択できる。本明細書全体を通して記載されているように、対話インタフェース514に表示された、事前に定義されたトリガーのリストは、一部の例として、音声コマンド、ユーザジェスチャー、又は時間遅延を含んでよい。この例では、ユーザは、トリガーとして音声コマンドを選択するための入力を提供した。
音声コマンドをトリガーとして選択した後、対話インタフェース514を修正して、トリガーコンテンツコントロール518を提供できる。例えば図5Bでは、対話インタフェース514は、音声コマンドの単語を定義する入力を受信するよう構成されたコマンドプロンプトとして、トリガーコンテンツコントロール518を表示する。あるいは、トリガーを、ユーザジェスチャー又は時間遅延として選択した場合、それぞれユーザジェスチャーのタイプ又は時間遅延の期間を記述する入力を受信するように、トリガーコンテンツコントロール518を修正してよい。
この例では、ユーザは、音声コマンドを定義する入力を「私の予定は」として提供している。このユーザ入力は、トリガーコンテンツコントロール518へのテキスト入力として受信できる。換言すれば、ユーザは、音声コマンドの単語を、対話インタフェース514のトリガーコンテンツコントロール518に直接タイピングできる。あるいは、ユーザは音声コマンドの単語を、マイクロフォン又は通信可能に連結されたデバイスに対して発話してよく、上記マイクロフォン又はデバイスは、本明細書全体を通して記載されているように、発話された単語をテキスト入力に変換する。ユーザが音声コマンドを発話する場合、対話インタフェース514は、変換されたテキストを対話インタフェース514に表示してよく、これによりユーザは、テキストが正しく認識されていることを確認でき、また必要に応じて変更できる。
対話インタフェース514は更に、アクションコントロール520及び関連するアクションコンテンツコントロール522を含むものとして図示されている。アクションコントロール520は、対応するトリガーの検出に応答して実施されることになるアクションのタイプを定義する入力を受信するよう構成される。場合によっては、対話インタフェース514のアクションコントロール520により、ユーザは、アクションコントロール520付近の下向きの矢印をクリックして、アクションのリストを提示させること等によって、定義されたアクションのリストから、アクションのタイプを選択できる。本明細書全体を通して記載されているように、アクションは、一部の例として、発話応答、ページ遷移、又はコンテンツの出力を含んでよい。この例では、ユーザは、対応する音声コマンドトリガーに関するアクションとして、ページ遷移を選択する入力を提供している。あるいは、第1のビジュアルページ506を第2のビジュアルページ508と関連付けるための入力に基づいて、ユーザに関してページ遷移アクションを自動的に選択してよい。
ページ遷移をアクションとして選択した後、対話インタフェース514を修正して、アクションコンテンツコントロール522を提供してよい。例えば図5Bでは、対話インタフェース514は、ページ遷移の遷移先を定義する入力を受信するよう構成されたコマンドプロンプトとして、アクションコンテンツコントロール522を表示する。あるいは、アクションを発話応答又はコンテンツの出力として選択した場合、それぞれ発話応答の単語を記述する入力、又は出力されることになるコンテンツを定義する入力(例えばビデオファイルのファイル名)を受信するように、アクションコンテンツコントロール522を修正してよい。
この例では、ユーザは、アプリケーションプロトタイプのカレンダーページに遷移するために、ページ遷移を定義する入力を提供している。ここでも場合によっては、第1のビジュアルページを第2のビジュアルページとリンクさせるための入力に基づいて、ページ遷移の場所をユーザに関して自動的に選択してよい。この例では、設計インタフェースにより、ユーザは、イージング、遷移エフェクト、又はページ遷移の期間といったページ遷移の特性を更に定義できる。
特に図5Bでは、対話インタフェース514への入力によって定義されたトリガー及び関連するアクションを、第1のビジュアルページ506及び第2のビジュアルページと関連付ける。設計インタフェースにより、ユーザは、トリガーに応答して、異なるビジュアルページに遷移することなくアクションが実施されるように、ある単一のビジュアルページに関連するトリガー及び対応するアクションを定義することもできる。
この文脈において、図5Cについて考察する。図5Cでは、設計アプリケーションは、アプリケーションプロトタイプのあるビジュアルページのためのトリガー及び関連するアクションを提供するためのコントロールを含む、対話インタフェース514を提示している。この例では、対話インタフェース514は、カレンダーページに相当する第2のビジュアルページ508へのユーザ入力に応答して、動的に提示される。この例では、ユーザは、音声コマンドを選択するのではなく、トリガーコントロール516を介して時間遅延トリガーを選択し、続いてトリガーコンテンツコントロール518を介して入力を提供することにより、時間遅延の期間を0秒となるように定義する。ユーザはまた、アクションコントロール520を介して、発話応答を選択するための入力も提供し、続いてアクションコンテンツコントロール522を介して、発話応答アクションの単語を定義する入力を提供する。発話応答を定義する上記入力は、アクションコンテンツコントロール522へのテキスト入力として受信できる。換言すれば、ユーザは、発話応答の単語を、対話インタフェース514のアクションコンテンツコントロール522に直接タイピングできる。あるいは、ユーザは発話応答の単語を、マイクロフォン又は通信可能に連結されたデバイスに対して発話してよく、上記マイクロフォン又はデバイスは、本明細書全体を通して記載されているように、発話された単語をテキスト入力に変換する。ユーザが発話応答を発話する場合、対話インタフェース514は、変換されたテキストを対話インタフェース514のアクションコンテンツコントロール522に表示してよく、これによりユーザは、テキストが正しく認識されていることを確認でき、また必要に応じて変更できる。
特に、対話インタフェース514によって、ユーザは、多様な異なるタイプのトリガー及びアクションを、アプリケーションプロトタイプのビジュアルページに関連付けることができる。例えば設計者は、音声コマンドトリガーを、対応する発話応答に関連付けることができる。しかしながら設計者は、例えばあるユーザジェスチャートリガーをある発話応答に関連付けることにより、又はある音声コマンドを、アプリケーションプロトタイプのある異なるビジュアルページへの遷移に関連付けることにより、複数の音声対話をミックスして他のトリガー及びアクションとマッチングさせることもできる。
図6A、6Bは、音声支援型アプリケーションプロトタイプの試験段階中の設計アプリケーションの設計ユーザインタフェースの例600を示す。ユーザが、図5A〜4Cに示すように、アプリケーションプロトタイプのビジュアルページ及びユーザ対話を設計すると、設計インタフェースの試験コントロールを選択することによって、試験段階を開始できる。例600では、設計アプリケーション118の試験モジュール132は、表示デバイス504上に、アプリケーションプロトタイプの第1のビジュアルページ602を表示する。特に、第1のビジュアルページ602は、図5A〜4Cに示されている第1のビジュアルページ506に相当する。試験段階において、試験モジュール132は、ビジュアルページ並びに関連するトリガー及びアクションのレイアウトを表示するのではなく、設計されたアプリケーションプロトタイプ120を、実行可能なアプリケーションのように機能するように制御する。
音声コマンドを発話すること又はビジュアルページをタップすること等によって、ユーザが試験段階のアプリケーションプロトタイプと対話すると、試験モジュール132は、可聴コンテンツを出力すること、視覚コンテンツを出力すること、異なるビジュアルページに遷移すること、又はこれらの組み合わせ等によって、上記トリガーに関連する、対応するアクションを、リアルタイムで実施させる。例えば図6Aでは、ユーザは、複数の単語「私の予定は?」を含む音声コマンド604を発話する。マイクロフォンは、発話された音声コマンドを検出し、発話テキスト化サービス128はこのオーディオデータを、複数の単語「私の予定は」を含むテキスト文字列に変換する。次にこのテキスト文字列を、アプリケーションプロトタイプの設計中にユーザによって提供された関連対話データと比較する。
この例では、試験モジュール132は、音声コマンド504のテキスト文字列を、図5Bの対話インタフェース514のトリガーコンテンツコントロール518に提供された音声コマンドとマッチングするものとして認識する。マッチングの検出に基づいて、試験モジュール132は、ユーザが過去に図5Bの対話インタフェース514のコントロール520、522に入力した対応するアクションを実施させる。この場合、上記対応するアクションは、カレンダーページ(例えば図5のビジュアルページ508)へのページ遷移として検出される。
図6Bは、試験モジュール132が、検出されたトリガーに関連するアクションに基づいて、第1のビジュアルページ602から第2のビジュアルページ606に遷移した後の、カレンダーページに相当する第2のビジュアルページ606の表示を示す。更に、カレンダーページは、対応する発話応答を伴う0秒の時間遅延トリガーを含むため、試験モジュール132アプリケーションは、スピーカー又は関連するデバイスに、この例では複数の単語「明日午前10時にカフェ・プレッセでジュディとブランチ(Brunch with Judy at Cafe’ Presse, at 10 AM tomorrow)」に対応する発話応答608を、可聴形式で出力させる。これを実現するために、発話応答の複数の単語を含むテキスト文字列を、テキスト発話化サービス130に移動させる。次に、テキスト発話化サービス130は、発話応答のテキスト文字列をオーディオファイルに変換し、そしてこのオーディオファイルは計算デバイスにおいてリアルタイムで出力される。このようにして、本明細書に記載のシステムにより、ユーザは、試験段階中にアプリケーションプロトタイプと対話して、上記アプリケーションプロトタイプが意図した通りに機能することを保証できる。
音声対話ツールに関する技法の例示的詳細について議論してきたが、これより、上記技法の更なる態様を説明するいくつかの例示的手順を考察する。
例示的手順
この節は、1つ以上の実装形態における、音声支援型アプリケーションプロトタイプの設計及び試験のための例示的手順を説明する。上記手順の態様は、ハードウェア、ファームウェア、若しくはソフトウェア、又はこれらの組み合わせで実装できる。上記手順は、1つ以上のデバイスによって実行される動作を明記した複数のブロックのセットとして図示され、上記動作の実行に関して各ブロックによって示されている順序に必ずしも限定されない。
図7は、音声支援型アプリケーションプロトタイプを設計する例示的手順700を示す。
設計インタフェースにおいて、アプリケーションプロトタイプの少なくとも1つのビジュアルページを、計算デバイスのディスプレイ上に表示する(ブロック702)。例えば設計アプリケーション118は、アプリケーションプロトタイプ120のビジュアルページ122を、計算デバイス102のディスプレイ上の設計インタフェース502に表示する。
設計インタフェースを制御して、アプリケーションプロトタイプの少なくとも1つのビジュアルページのためのトリガー及び関連するアクションを受信するための、対話インタフェースを提供する(ブロック704)。本明細書に記載の原理によると、トリガーは、音声コマンド、ユーザジェスチャー、又は時間遅延のうちの1つに対応し、アクションは、発話応答、アプリケーションプロトタイプの追加のビジュアルページへの遷移、又はメディアファイルのプレイバックに対応する。例えば音声対話ツール126は、設計インタフェース502を制御して、アプリケーションプロトタイプ120の少なくとも1つのビジュアルページ122のためのトリガー208及び関連するアクション210を受信するための、対話インタフェース514を提供する。
対話インタフェースによってユーザ入力を受信して、トリガー及びアクションを提供する(ブロック706)。例えば音声対話ツール126は、設計インタフェース502を介してユーザ入力202を受信して、トリガー208及びアクション210を提供する。
トリガー、アクション、及びアプリケーションプロトタイプのビジュアルページを含む、関連対話データを生成し、試験段階中にアプリケーションプロトタイプの試験を実施できるように、上記関連対話データを保存する(ブロック708)。例えば音声対話ツール126は、トリガー208及びアクション210を、ビジュアルページ122の指示と共に、関連対話データ204としてストレージ206に保存し、これにより、試験段階中のトリガーの検出によってアクションを実施させる。
図8は、音声支援型アプリケーションプロトタイプを試験する例示的手順800を示す。
アプリケーションプロトタイプに関して、試験段階を開始し(ブロック802)、上記アプリケーションプロトタイプの少なくとも1つのビジュアルページを試験段階において表示する(ブロック804)。例えば試験モジュール132は、アプリケーションプロトタイプ120のための試験段階を開始させ、試験段階中に、アプリケーションプロトタイプ120のための少なくとも1つのビジュアルページ122を表示する。
少なくとも1つのビジュアルページが表示されている間に受信したユーザ入力に基づいて、トリガーを検出する(ブロック806)。トリガーは、一部の例として、音声コマンド、ユーザジェスチャー、時間遅延に対応してよい。例えば、第1のビジュアルページ122の表示中、ユーザは、音声コマンドを発話すること、又はビジュアルページ122をタップすること等によって、アプリケーションプロトタイプ120とリアルタイムで対話し、試験モジュール132は、ユーザの対話に基づいてトリガー302を取得する。試験モジュール132の処理モジュール304は、ユーザ入力を処理して、音声コマンド306、ユーザジェスチャー308、又は時間遅延310等のトリガー302を識別する。
上記トリガーを、アプリケーションプロトタイプに関連する保存済みのトリガーと比較して、マッチングするトリガーを識別する(ブロック808)。例えば処理モジュール304は、識別されたトリガー302を関連対話データ204と比較することにより、マッチングするトリガーを識別する。例えば、リクエスト処理モジュール304は、音声コマンド306又はユーザジェスチャー308を、それぞれ、関連対話データ204の、保存済みの音声コマンド212及びユーザジェスチャー214と比較する。マッチングするトリガーを識別するために、処理モジュール304は、一意識別子、ハッシュ、テキストベース検索等の多様な技法を活用してよい。更に、処理モジュール304は、新しいビジュアルページが表示される際に、時間遅延トリガーを継続的に監視してよい。
トリガー302を音声コマンド306として受信した場合、処理モジュール304は、音声コマンド306のオーディオデータを発話テキスト化サービス128に提供する。発話テキスト化サービス128は上記オーディオデータをリアルタイムで処理して、音声コマンド306の上記オーディオデータをテキスト文字列に変換する。処理モジュール304は、音声コマンド306のテキスト文字列を発話テキスト化サービス128から取得し、この音声コマンド306のテキスト文字列を、音声コマンド212の保存済みのテキスト文字列と比較することによって、マッチングする音声コマンドを識別する。
処理モジュール304は、受信した音声コマンド306のテキスト文字列の文字を、保存済みの音声コマンド212のテキスト文字列の文字と比較することによって、マッチングする音声コマンドを識別してよい。一致する文字の数が多いほど、マッチングの蓋然性が高いことを示す。例えばコマンドが単語「mouse」を含む場合、処理モジュール304は、単語「house」を、「mouse」とマッチングするものとして認識し得る。というのは、これらの単語は4文字が一致しているためである。場合によっては、発話テキスト化サービス128は、テキスト文字列が正しいことの信頼性のレベルを示す信頼性スコアを、テキスト文字列と共に含む。この信頼性スコアは、処理モジュール304がマッチングする音声コマンドを識別するのを支援する。1つ以上の実装形態では、処理モジュール304は、ユーザがアプリケーションプロトタイプと更に簡単に対話できるようにするために、マッチングするテキスト文字列を、低い許容誤差を用いて選択するよう構成される。
試験段階中に、マッチングするトリガーに関連するアクションを実施する(ブロック810)。本明細書に記載の原理によると、アクションは、発話応答、異なるビジュアルページへのページ遷移、又はメディアファイルのプレイバックに対応してよい。例えばトリガー302が、関連対話データ204の保存済みのトリガー208とマッチングすることが検出されたことに応答して、処理モジュール304は、関連対話データ204中の、上記トリガーに関連する、対応するアクション210を識別する。次に、発話応答314、ページ遷移316、又はメディア出力318に対応するアクション312を、実施モジュール320へと移動させる。実施モジュール320は、発話応答314を出力すること、異なるビジュアルページへのページ遷移316を実施すること、オーディオ若しくはビデオコンテンツを出力すること、又はこれらの組み合わせ等によって、識別されたトリガーに関連する、対応するアクション312を実施させる。
アクション312が発話応答314に対応する場合、実施モジュールは、発話応答314のテキスト文字列を、テキスト発話化サービス130にリアルタイムで提供できる。テキスト発話化サービス130は、発話応答314のテキスト文字列を、発話応答314に対応するオーディオデータに変換する。実施モジュール320は次に、発話応答314に対応する上記オーディオデータを出力させる。
図9は、アプリケーションプロトタイプの試験中にキャプチャされた音声コマンドをマッチングさせるために表音言語翻訳機を利用する、例示的手順900を示す。
アプリケーションプロトタイプに関連する対話データをストレージに保持する(ブロック902)。本明細書に記載の原理によると、対話データは、保存済みの音声コマンド、保存済みの音声コマンドそれぞれの検出に応答して実施されることになるアクション、及び少なくとも1つのビジュアルページを含む。上記少なくとも1つのビジュアルページを、アプリケーションプロトタイプのための試験段階の表示デバイス上に表示し(ブロック904)、非表音文字体系を使用する言語で発話された非表音音声コマンドをキャプチャする(ブロック906)。例えば試験段階において、試験モジュール132は、アプリケーションプロトタイプ120の第1のビジュアルページ122(例えばホームページ)の表示を開始する。第1のビジュアルページ122の表示中、ユーザは、非表音音声コマンド402を発話することによってアプリケーションプロトタイプ120と対話する。非表音文字体系を使用する言語で発話された非表音音声コマンド402は、少なくとも1つのマイクロフォンによって、オーディオデータとしてキャプチャされる。
上記非表音音声コマンドを発話テキスト化サービスにリアルタイムで通信して、上記非表音音声コマンドを、上記音声コマンドの、非表音文字体系の言語の非表音テキスト文字列に変換する(ブロック908)。例えば試験モジュール132は、キャプチャした非表音音声コマンド402のオーディオデータを発話テキスト化サービス128に通信する。発話テキスト化サービス128は、非表音音声コマンド402の上記オーディオデータをリアルタイムで処理して、非表音音声コマンド402の上記オーディオデータを、キャプチャした音声コマンドの非表音テキスト文字列404に変換する。
上記音声コマンドの上記非表音テキスト文字列を表音言語翻訳機にリアルタイムで通信して、上記非表音テキスト文字列を、上記音声コマンドの、表音文字体系を使用する言語の表音テキスト文字列に翻訳する(ブロック910)。例えば試験モジュール132は、非表音テキスト文字列404を表音言語翻訳機134に通信する。表音言語翻訳機134は、キャプチャした音声コマンドの、非表音文字体系を使用する言語の非表音テキスト文字列404を、上記キャプチャした音声コマンドの、表音文字体系を使用する言語の表音テキスト文字列406に翻訳する。1つ以上の実装形態では、試験段階中、表音言語翻訳機134は、保存済みの音声コマンド408の非表音テキスト文字列410を取得する。例えば、保存済みの音声コマンド408は、ストレージ206に保持された音声コマンド412に対応してよい。表音言語翻訳機134は、保存済みの音声コマンド408の非表音テキスト文字列410を、保存済みの音声コマンド408の表音テキスト文字列412に翻訳する。あるいは、表音言語翻訳機134は、試験段階の前に、保存済みの音声コマンド408の表音テキスト文字列410を、保存済みの音声コマンド408の表音テキスト文字列412に翻訳してよい。この場合、表音テキスト文字列412は、ストレージに保持されていてよい。
上記音声コマンドの上記表音テキスト文字列を、アプリケーションプロトタイプに関連する保存済みの音声コマンドの表音テキスト文字列と比較して、マッチングする音声コマンドを識別する(ブロック912)。例えば試験モジュール132の表音比較モジュール414は、キャプチャした音声コマンド402の表音テキスト文字列406と、保存済みの音声コマンド408の表音テキスト文字列412とを取得する。続いて表音比較モジュール414は、表音テキスト文字列406を表音テキスト文字列412と比較することにより、保存済みの音声コマンドに対応する表音テキスト文字列412の、マッチングする音声コマンド416を識別する。表音比較モジュール414は、マッチングする音声コマンド416を、表音テキスト文字列406の文字を保存済みの音声コマンド408の表音テキスト文字列412と比較することによって、識別してよい。表音テキスト文字列406、412は表音文字に翻訳されているため、表音比較モジュール414は、マッチングする音声コマンド416が、キャプチャした音声コマンドと共通して有する文字数に基づいて、マッチングする音声コマンド416を選択できる。いずれのテキスト文字列も表音文字で書かれているため、マッチングする文字数が多くなるほど、マッチングの蓋然性が高くなる。
上記マッチングする音声コマンドに関連するアクションを実施する(ブロック914)。例えば、マッチングする音声コマンド416が表音言語比較モジュール414によって識別されると、試験モジュールは、本明細書全体を通して記載されているように、関連するアクションの実施を開始する。
1つ以上の実装形態による例示的手順を説明したが、これより、本明細書に記載の様々な技法を実装するために利用できる例示的なシステム及びデバイスを考察する。
例示的なシステム及びデバイス
図10は、本明細書に記載の様々な技法を実装できる1つ以上の計算システム及び/又はデバイスの代表である例示的な計算デバイス1002を含む、例示的なシステムを、全体として900で示す。これは、設計アプリケーション118及び音声対話設計システム104を含めることによって示されている。計算デバイス1002は例えば、サービスプロバイダのサーバー、クライアントに関連するデバイス(例えばクライアントデバイス)、オンチップシステム、及び/又は他のいずれの好適な計算デバイス若しくは計算システムであってよい。
図示されているような例示的な計算デバイス1002は、処理システム1004、1つ以上のコンピュータ可読媒体1006、及び互いに通信可能に連結された1つ以上のI/Oインタフェース1008を含む。図示されていないが、計算デバイス1002は更に、上記様々な部品を互いに連結する、システムバス又は他のデータ及びコマンド転送システムを含んでよい。システムバスは、メモリバス若しくはメモリコントローラ、周辺バス、ユニバーサル・シリアル・バス、及び/又は多様なバスアーキテクチャのうちのいずれを利用したプロセッサ若しくはローカルバスといった、異なるバス構造のうちのいずれの1つ又は組み合わせを含むことができる。コントロール及びデータラインといった他の様々な例も考えられる。
処理システム1004は、ハードウェアを用いて1つ以上の動作を実行する機能を表す。従って処理システム1004、プロセッサ、機能ブロック等として構成してよいハードウェア要素1010を含むものとして図示されている。これは、1つ以上の半導体を用いて形成された特定用途向け集積回路又は他の論理デバイスとしての、ハードウェアでの実装を含んでよい。ハードウェア要素1010は、これを形成する材料、又は採用される処理機構によって限定されない。例えばプロセッサは、1つ以上の半導体及び/又はトランジスタ(例えば電子集積回路(IC))からなってよい。この文脈において、プロセッサ実行可能命令は、電子的に実行可能な命令であってよい。
コンピュータ可読記憶媒体1006は、メモリ/ストレージ1012を含むものとして図示されている。メモリ/ストレージ1012は、1つ以上のコンピュータ可読媒体に関連するメモリ/ストレージ用量を表す。メモリ/ストレージ部品1012は、揮発性媒体(ランダムアクセスメモリ(RAM)等)及び/又は不揮発性媒体(読み出し専用メモリ(ROM)、フラッシュメモリ、光学ディスク、磁気ディスク等)を含んでよい。メモリ/ストレージ部品1012は、固定媒体(例えばRAM、ROM、固定ハードドライブ等)、及び着脱式媒体(例えばフラッシュメモリ、着脱式ハードドライブ、光学ディスク等)を含んでよい。コンピュータ可読媒体1006は、以下で更に説明されるような、他の多様な方法で構成してもよい。
1つ以上の入力/出力インタフェース1008は、様々な入力/出力デバイスを用いて、ユーザがコマンド及び情報を計算デバイス1002に入力できるようにし、またユーザ及び/又は他の部品若しくはデバイスに情報を提示できるようにする、機能を表す。入力デバイスの例としては、キーボード、カーソル制御デバイス(例えばマウス)、マイクロフォン、スキャナ、タッチ機能(例えば物理的な接触を検出するよう構成された容量性センサ又は他のセンサ)、(例えば接触を伴わないジェスチャーとして運動を認識するために、赤外線周波数等の可視又は不可視波長を採用してよい)カメラ等が挙げられる。出力デバイスの例としては、表示デバイス(例えばモニター又はプロジェクター)、スピーカー、プリンター、ネットワークカード、触覚応答デバイス等が挙げられる。よって計算デバイス1002は、ユーザの対話をサポートするために、以下で更に説明されるような多様な方法で構成してよい。
本明細書では、ソフトウェア、ハードウェア要素、又はプログラムモジュールの一般的な文脈で、様々な技法を説明できる。一般に、このようなモジュールとしては、特定のタスクを実行する又は特定の抽象データ型を実装する、ルーチン、プログラム、オブジェクト、要素、部品、データ構造等が挙げられる。本明細書中で使用される用語「モジュール(module)」、「機能(functionality)」、及び「部品(component)」は、一般に、ソフトウェア、ファームウェア、ハードウェア、又はこれらの組み合わせを表す。本明細書に記載の技法の特徴はプラットフォームに依存せず、即ち上記技法は、多様なプロセッサを有する多様な市販の計算プラットフォーム上で実装できる。
本明細書に記載のモジュール及び技法の実装は、何らかの形態のコンピュータ可読媒体上に保存でき、又は何らかの形態のコンピュータ可読媒体を介して伝送できる。コンピュータ可読媒体としては、計算デバイス1002がアクセスできる多様な媒体が挙げられる。例えば限定するものではないが、コンピュータ可読媒体としては、「コンピュータ可読記憶媒体(computer‐readable storage media)」及び「コンピュータ可読信号媒体(computer‐readable signal media)」が挙げられる。
「コンピュータ可読記憶媒体」は、単なる信号伝送、搬送波又は信号自体とは対照的に、情報の持続的及び/又は非一時的な保存が可能な、媒体及び/又はデバイスを指すことができる。よって、コンピュータ可読記憶媒体は、非信号担持媒体である。コンピュータ可読記憶媒体としては、コンピュータ可読命令、データ構造、プログラムモジュール、論理要素/回路又は他のデータといった情報の保存に好適な方法又は技術で実装される、揮発性及び不揮発性の、着脱式及び非着脱式の媒体及び/又はストレージデバイスといった、ハードウェアが挙げられる。コンピュータ可読記憶媒体の例としては、限定するものではないが:RAM、ROM、EEPROM、フラッシュメモリ又は他のメモリ技術;CD‐ROM、デジタル多用途ディスク(digital versatile disk:DVD)又は他の光学ストレージ;ハードディスク、磁気カセット、磁気テープ、磁気ディスクストレージ又は他の磁気ストレージデバイス;あるいは所望の情報の保存に好適であり、かつコンピュータがアクセス可能な、他のストレージデバイス、有形媒体、又は製造物が挙げられる。
「コンピュータ可読信号媒体」は、ネットワーク等を介して計算デバイス1002のハードウェアに命令を伝送するよう構成された、信号担持媒体を指すことができる。信号媒体は典型的には、コンピュータ可読命令、データ構造、プログラムモジュール、又は他のデータを、搬送波、データ信号又は他の輸送機構といった変調データ信号として具体化できる。信号媒体はまた、いずれの情報送達媒体を含んでよい。用語「変調データ信号(modulated data signal)」は、その特徴のうちの1つ以上が、信号中の情報をコード化するような様式で設定又は変更された、信号を意味する。例えば限定するものではないが、通信媒体としては、有線ネットワーク又は直接有線接続といった有線媒体、並びに音響、RF、赤外線及び他の無線媒体といった無線媒体が挙げられる。
上述したように、ハードウェア要素1010及びコンピュータ可読媒体1006は、いくつかの実施形態において本明細書に記載の技法のうちの少なくともいくつかの態様を実装するため(例えば1つ以上の命令を実行するため)に採用できるハードウェア形態で実装される、モジュール、プログラマブルデバイス論理、及び/又は固定デバイス論理を表す。ハードウェアとしては、集積回路又はオンチップシステムの部品、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、複合プログラマブル論理デバイス(CPLD)、及びシリコン又は他のハードウェアでの他の実装を含んでよい。この文脈において、ハードウェアは、命令によって定義されたプログラムタスク及び/又はハードウェアによって具体化された論理を実行する処理デバイスとして、並びに命令を実行のために保存するために利用されるハードウェア、例えば上述のコンピュータ可読媒体として、動作できる。
以上の組み合わせを採用して、本明細書に記載の様々な技法を実装することもできる。従って、ソフトウェア、ハードウェア、又は実行可能なモジュールを、何らかの形態のコンピュータ可読媒体上で及び/又は1つ以上のハードウェア要素1010によって具体化される、1つ以上の命令及び/又は論理として、実装してよい。計算デバイス1002は、ソフトウェア及び/又はハードウェアモジュールに対応する特定の命令及び/又は機能を実装するよう構成してよい。従って、計算デバイス1002によって実行可能なモジュールの、ソフトウェアとしての実装は、例えば処理システム1004のコンピュータ可読記憶媒体及び/又はハードウェア要素1010の使用によって、少なくとも一部をハードウェアで達成できる。命令及び/機能は、本明細書に記載の技法、モジュール及び実施例を実装するために、1つ以上の製造物(例えば1つ以上の計算デバイス1002及び/又は処理システム1004)によって実行可能/実施可能とすることができる。
本明細書に記載の技法は、多様な構成の計算デバイス1002でサポートされていてよく、また本明細書に記載の技法の具体例に限定されない。この機能はまた、その全体又は一部を、分散型システムの使用によって、例えば以下に記載されるようにプラットフォーム1016を介して「クラウド」1014上で、実装することもできる。
クラウド1014は、リソース1018のためのプラットフォーム1016を含み、及び/又は上記プラットフォーム1016を表す。プラットフォーム1016は、クラウド1014のハードウェア(例えばサーバー)及びソフトウェアリソースの基礎となる機能を抽象化する。リソース1018としては、コンピュータ処理が計算デバイス1002から離れたサーバー上で実行されている間に利用できる、アプリケーション及び/又はデータが挙げられる。またリソース1018としては、インターネットを介して、及び/又はセルラー若しくはWi‐Fiネットワークといった加入者ネットワークを通して提供される、サービスも挙げることができる。
プラットフォーム1016は、計算デバイス1002を他の計算デバイスと接続するためのリソース及び機能を抽象化してよい。プラットフォーム1016は、プラットフォーム1016によって実装されるリソース1018に関して発生する需要に対応するレベルのスケールを提供するために、リソースのスケーリングを抽象化する役割も果たすことができる。従って、相互接続されたデバイスの実施形態では、本明細書に記載の機能の実装は、システム1000全体にわたって分散されていてよい。例えば上記機能は、一部が計算デバイス1002上で実装され、またクラウド1014の機能を抽象化するプラットフォーム1016によって実装されてもよい。
結論
本発明を、構造的特徴及び/又は方法に関する行為に関して具体的に説明したが、添付の請求項において定義される本発明は、必ずしも上述の具体的な特徴又は行為に限定されないことを理解されたい。むしろ、上述の具体的な特徴又は行為は、請求対象である発明の例示的な実装の形態として開示されている。
102 計算デバイス
120 アプリケーションプロトタイプ
122 ビジュアルページ
124 対話データ
128 発話テキスト化サービス
134 表音言語翻訳機
206 ストレージ
210 アクション
402 非表音音声コマンド
404 音声コマンドの非表音テキスト文字列
406 音声コマンドの表音テキスト文字列
408 保存済みの音声コマンド
412 保存済みの音声コマンドの表音テキスト文字列
416 マッチングする音声コマンド
504 表示デバイス

Claims (20)

  1. 音声機能を有するアプリケーションプロトタイプの試験を可能とするデジタル媒体環境において、少なくとも1つの計算デバイスによって実装される方法であって、
    前記方法は:
    前記少なくとも1つの計算デバイスによって、前記アプリケーションプロトタイプに関連する対話データをストレージ内に保持するステップであって、前記対話データは、保存済みの音声コマンド、各前記保存済みの音声コマンドに応答して実施されることになるアクション、及び少なくとも1つのビジュアルページを含む、ステップ;
    前記アプリケーションプロトタイプのための試験段階中に、前記少なくとも1つの計算デバイスの表示デバイス上に、前記少なくとも1つのビジュアルページを表示するステップ;
    少なくとも1つのマイクロフォンによって、非表音文字体系を使用する言語で発話された非表音音声コマンドをキャプチャするステップ;
    前記非表音音声コマンドを発話テキスト化サービスへとリアルタイムで通信して、前記非表音音声コマンドを、前記音声コマンドの、前記非表音文字体系の非表音テキスト文字列へと変換するステップ;
    前記音声コマンドの前記非表音テキスト文字列を、表音言語翻訳機へとリアルタイムで通信して、前記非表音テキスト文字列を、前記音声コマンドの、表音文字体系の表音テキスト文字列に翻訳するステップ;
    前記音声コマンドの前記表音テキスト文字列を、前記アプリケーションプロトタイプに関連する前記保存済みの音声コマンドの、前記表音文字体系の表音テキスト文字列と比較して、マッチングする音声コマンドを識別するステップ;並びに
    前記ストレージ中で、前記マッチングする音声コマンドに関連するアクションを実施するステップ
    を含む、方法。
  2. 前記保存済みの音声コマンドは、前記試験段階の前に、前記非表音文字体系の非表音テキスト文字列として受信される、請求項1に記載の方法。
  3. 前記保存済みの音声コマンドは、前記ストレージ内に、前記保存済みの音声コマンドの前記非表音テキスト文字列として保持され、
    前記表音言語翻訳機は、前記試験段階中に、前記保存済みの音声コマンドの前記非表音テキスト文字列を、前記保存済みの音声コマンドの、前記表音文字体系の前記表音テキスト文字列に翻訳する、請求項2に記載の方法。
  4. 前記表音言語翻訳機は、前記試験段階の前に、前記保存済みの音声コマンドの前記非表音テキスト文字列を、前記保存済みの音声コマンドの、前記表音文字体系の前記表音テキスト文字列に翻訳し、
    前記保存済みの音声コマンドは、前記ストレージ内に、前記保存済みの音声コマンドの前記表音テキスト文字列として保持される、請求項2に記載の方法。
  5. 前記比較するステップは、前記音声コマンドの前記非表音テキスト文字列が、前記保存済みの音声コマンドの前記非表音テキスト文字列と共通して有する文字の数を比較するステップを含む、請求項1に記載の方法。
  6. 前記マッチングする音声コマンドは、キャプチャされた前記音声コマンドの前記表音テキスト文字列と一致する文字を最も多く有する、前記マッチングする音声コマンドの前記表音テキスト文字列に、少なくとも部分的に基づいて識別される、請求項5に記載の方法。
  7. 前記音声コマンドの前記非表音テキスト文字列は、北京官話で書かれており、
    前記音声コマンドの、翻訳された前記表音テキスト文字列は、ピンインで書かれている、請求項1に記載の方法。
  8. 前記音声コマンドの前記非表音テキスト文字列は、漢字で書かれており、
    前記音声コマンドの、翻訳された前記表音テキスト文字列は、ローマ字で書かれている、請求項1に記載の方法。
  9. 前記音声コマンドの前記表音テキスト文字列と、前記保存済みの音声コマンドの前記表音テキスト文字列とは、同一の表音文字体系で書かれている、請求項1に記載の方法。
  10. 前記表音言語翻訳機は、非表音文字体系を使用する言語の非表音テキスト文字列を、前記非表音テキスト文字列をラテン文字へとローマ文字化することによって、翻訳する、請求項1に記載の方法。
  11. アプリケーションプロトタイプの少なくとも1つのビジュアルページを、前記アプリケーションプロトタイプの試験段階中に、表示デバイスに表示するための、試験モジュール;
    前記アプリケーションプロトタイプの前記試験段階中に、少なくとも1つのマイクロフォンによってキャプチャされた、非表音文字体系を使用する言語で発話された非表音音声コマンドを、前記音声コマンドの、非表音文字体系の非表音テキスト文字列に変換するための、発話テキスト化サービス;
    前記音声コマンドの前記非表音テキスト文字列を、前記音声コマンドの、表音文字体系の表音テキスト文字列に翻訳するための、表音言語翻訳機;
    前記音声コマンドの前記表音テキスト文字列を、前記アプリケーションプロトタイプに関連する保存済みの音声コマンドの、前記表音文字体系の表音テキスト文字列と比較して、マッチングする音声コマンドを識別するための、比較モジュール;及び
    前記マッチングする音声コマンドに関連するアクションを実施するための、実施モジュール
    を備える、システム。
  12. 前記比較モジュールは、前記マッチングする音声コマンドを:
    前記音声コマンドの前記非表音テキスト文字列が、前記保存済みの音声コマンドの前記非表音テキスト文字列と共通して有する文字の数を比較し;
    キャプチャされた前記音声コマンドの前記表音テキスト文字列と一致する文字を最も多く有する、前記マッチングする音声コマンドの前記表音テキスト文字列に、少なくとも部分的に基づいて、前記マッチングする音声コマンドを識別する
    ことによって、識別するよう構成される、請求項11に記載のシステム。
  13. 前記音声コマンドの前記非表音テキスト文字列は、北京官話で書かれており、
    前記音声コマンドの、翻訳された前記表音テキスト文字列は、ピンインで書かれている、請求項11に記載のシステム。
  14. 前記音声コマンドの前記非表音テキスト文字列は、漢字で書かれており、
    前記音声コマンドの、翻訳された前記表音テキスト文字列は、ローマ字で書かれている、請求項11に記載のシステム。
  15. 前記実施モジュールは、前記アクションを:
    前記マッチングする音声コマンドに関連する発話応答を識別し;
    前記発話応答のテキスト文字列をテキスト発話化サービスに提供し;
    前記テキスト発話化サービスから、前記発話応答のオーディオファイルを受信し;
    前記オーディオファイルをプレイバックすることにより、前記発話応答を出力する
    ことによって、実施するよう構成される、請求項11に記載のシステム。
  16. 前記実施モジュールは、前記アクションを:
    前記マッチングする音声コマンドに関連するページ遷移を識別し、ここで前記ページ遷移は、前記アプリケーションプロトタイプの追加のビジュアルページを識別し;
    前記アプリケーションプロトタイプの前記異なるビジュアルページを表示する
    ことによって、実施するよう構成される、請求項11に記載のシステム。
  17. 前記保存済みの音声コマンドを、前記試験段階の前に、前記非表音文字体系の非表音テキスト文字列として受信する、請求項11に記載のシステム。
  18. 前記保存済みの音声コマンドは、ストレージ中に、前記保存済みの音声コマンドの前記非表音テキスト文字列として保持され、
    前記表音言語翻訳機は更に、前記試験段階中に、前記保存済みの音声コマンドの前記非表音テキスト文字列を、前記保存済みの音声コマンドの前記表音テキスト文字列に翻訳するよう構成される、請求項17に記載のシステム。
  19. 前記表音言語翻訳機は更に、前記試験段階の前に、前記保存済みの音声コマンドの前記非表音テキスト文字列を、前記保存済みの音声コマンドの、前記表音文字体系の前記表音テキスト文字列に翻訳するよう構成され、
    前記保存済みの音声コマンドは、ストレージ中に、前記保存済みの音声コマンドの前記表音テキスト文字列として保持される、請求項17に記載のシステム。
  20. 前記表音言語翻訳機は、非表音文字体系を使用する言語の非表音テキスト文字列を、前記非表音テキスト文字列をラテン文字へとローマ文字化することによって、翻訳するよう構成される、請求項11に記載のシステム。
JP2019207637A 2019-01-18 2019-11-18 非表音文字体系を使用する言語のための音声支援型アプリケーションプロトタイプの試験中の音声コマンドマッチング Active JP7111682B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201962794466P 2019-01-18 2019-01-18
US62/794,466 2019-01-18

Publications (2)

Publication Number Publication Date
JP2020118955A true JP2020118955A (ja) 2020-08-06
JP7111682B2 JP7111682B2 (ja) 2022-08-02

Family

ID=71609032

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019207637A Active JP7111682B2 (ja) 2019-01-18 2019-11-18 非表音文字体系を使用する言語のための音声支援型アプリケーションプロトタイプの試験中の音声コマンドマッチング

Country Status (4)

Country Link
US (2) US11017771B2 (ja)
JP (1) JP7111682B2 (ja)
CN (1) CN111462740B (ja)
AU (1) AU2019268092B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021099887A (ja) * 2020-09-25 2021-07-01 北京百度網訊科技有限公司 音声認識によるページ操作方法、装置、機器、媒体及びプログラム
KR102650634B1 (ko) * 2023-11-28 2024-03-22 디지털로그 테크놀로지스 주식회사 워드 클라우드를 이용한 해시태그 추천 방법 및 장치
KR102661438B1 (ko) * 2023-11-14 2024-04-29 (주)미래융합정보기술 인터넷 기사 크롤링, 글로벌 가치 사슬에 영향을 주는 이슈 기사의 요약 서비스를 제공하는 웹크롤러 시스템

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10908883B2 (en) 2018-11-13 2021-02-02 Adobe Inc. Voice interaction development tool
US10847156B2 (en) 2018-11-28 2020-11-24 Adobe Inc. Assembled voice interaction
US11017771B2 (en) 2019-01-18 2021-05-25 Adobe Inc. Voice command matching during testing of voice-assisted application prototypes for languages with non-phonetic alphabets
US10964322B2 (en) 2019-01-23 2021-03-30 Adobe Inc. Voice interaction tool for voice-assisted application prototypes
US11170774B2 (en) * 2019-05-21 2021-11-09 Qualcomm Incorproated Virtual assistant device
US11461221B2 (en) * 2019-06-05 2022-10-04 Google Llc Action validation for digital assistant-based applications
US20200388280A1 (en) 2019-06-05 2020-12-10 Google Llc Action validation for digital assistant-based applications
US11262979B2 (en) * 2019-09-18 2022-03-01 Bank Of America Corporation Machine learning webpage accessibility testing tool
CN112261214A (zh) * 2020-10-21 2021-01-22 广东商路信息科技有限公司 网络语音通信自动化测试方法及系统
KR20220119219A (ko) * 2021-02-19 2022-08-29 삼성전자주식회사 온디바이스 인공지능 서비스를 제공하는 전자 장치 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007510196A (ja) * 2003-10-10 2007-04-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 対話システムに関する対話制御
JP2008293109A (ja) * 2007-05-22 2008-12-04 Toshiba Corp テキスト処理装置及びプログラム
JP2011008784A (ja) * 2009-06-24 2011-01-13 Nhn Corp ローマ字変換を用いる日本語自動推薦システムおよび方法
JP2014081441A (ja) * 2012-10-15 2014-05-08 Sharp Corp コマンド判定装置およびその制御方法、コマンド判定プログラム

Family Cites Families (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998020429A1 (en) 1996-11-05 1998-05-14 Kanji Software, Inc. Method for converting non-phonetic characters into surrogate words for inputting into a computer
US6360237B1 (en) 1998-10-05 2002-03-19 Lernout & Hauspie Speech Products N.V. Method and system for performing text edits during audio recording playback
US6738964B1 (en) 1999-03-11 2004-05-18 Texas Instruments Incorporated Graphical development system and method
US20050091057A1 (en) 1999-04-12 2005-04-28 General Magic, Inc. Voice application development methodology
US20050261907A1 (en) 1999-04-12 2005-11-24 Ben Franklin Patent Holding Llc Voice integration platform
US7392185B2 (en) 1999-11-12 2008-06-24 Phoenix Solutions, Inc. Speech based learning/training system using semantic decoding
US7725307B2 (en) 1999-11-12 2010-05-25 Phoenix Solutions, Inc. Query engine for processing voice based queries including semantic decoding
US7085716B1 (en) * 2000-10-26 2006-08-01 Nuance Communications, Inc. Speech recognition using word-in-phrase command
US6966049B2 (en) 2001-04-24 2005-11-15 Heuristics Physics Laboratories, Inc. Software development tool employing workflows for developing user interactive programs
US20040061722A1 (en) 2002-09-27 2004-04-01 Keith Christopher Passdown database and flow chart
US20040027379A1 (en) 2002-08-08 2004-02-12 Hong Huey Anna Onon Integrated visual development system for creating computer-implemented dialog scripts
US9172738B1 (en) 2003-05-08 2015-10-27 Dynamic Mesh Networks, Inc. Collaborative logistics ecosystem: an extensible framework for collaborative logistics
US8260617B2 (en) 2005-04-18 2012-09-04 Nuance Communications, Inc. Automating input when testing voice-enabled applications
WO2006110982A1 (en) 2005-04-18 2006-10-26 Research In Motion Limited System and method for flexible visual representation of presentation components
US20060247912A1 (en) * 2005-04-27 2006-11-02 Microsoft Corporation Metric for evaluating systems that produce text
JP4197344B2 (ja) 2006-02-20 2008-12-17 インターナショナル・ビジネス・マシーンズ・コーポレーション 音声対話システム
US7689417B2 (en) * 2006-09-04 2010-03-30 Fortemedia, Inc. Method, system and apparatus for improved voice recognition
US20080154590A1 (en) 2006-12-22 2008-06-26 Sap Ag Automated speech recognition application testing
US20110060587A1 (en) * 2007-03-07 2011-03-10 Phillips Michael S Command and control utilizing ancillary information in a mobile voice-to-speech application
US20080276159A1 (en) 2007-05-01 2008-11-06 International Business Machines Corporation Creating Annotated Recordings and Transcripts of Presentations Using a Mobile Device
US8301757B2 (en) 2007-06-11 2012-10-30 Enghouse Interactive Inc. System and method for obtaining in-use statistics for voice applications in interactive voice response systems
US10262281B1 (en) 2007-06-11 2019-04-16 Domino's Ip Holder Llc Method and system for centralized order status tracking in a decentralized ordering system
US7890333B2 (en) 2007-06-20 2011-02-15 International Business Machines Corporation Using a WIKI editor to create speech-enabled applications
DE102008051756A1 (de) 2007-11-12 2009-05-14 Volkswagen Ag Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen
JP2011509442A (ja) * 2007-11-26 2011-03-24 ウォーレン・ダニエル・チャイルド 中国語、日本語、および韓国語の言語データを電子的形態で管理するためのモジュラーシステムと方法
US8639032B1 (en) 2008-08-29 2014-01-28 Freedom Scientific, Inc. Whiteboard archiving and presentation method
EP2211336B1 (en) * 2009-01-23 2014-10-08 Harman Becker Automotive Systems GmbH Improved speech input using navigation information
US8798999B2 (en) 2009-05-01 2014-08-05 Alpine Electronics, Inc. Dialog design tool and method
US8914401B2 (en) 2009-12-30 2014-12-16 At&T Intellectual Property I, L.P. System and method for an N-best list interface
US11232458B2 (en) 2010-02-17 2022-01-25 JBF Interlude 2009 LTD System and method for data mining within interactive multimedia
US20120221998A1 (en) 2011-02-24 2012-08-30 Active Endpoints, Inc. Screenflow designer with automatically changing view
WO2013078651A1 (en) * 2011-11-30 2013-06-06 Nokia Corporation Method and apparatus for providing address geo-coding
KR102022318B1 (ko) 2012-01-11 2019-09-18 삼성전자 주식회사 음성 인식을 사용하여 사용자 기능을 수행하는 방법 및 장치
US9406084B2 (en) 2012-05-23 2016-08-02 Specialty's Café & Bakery, Inc. Methods for submitting a food order remotely
KR20130133629A (ko) 2012-05-29 2013-12-09 삼성전자주식회사 전자장치에서 음성명령을 실행시키기 위한 장치 및 방법
CN103631802B (zh) * 2012-08-24 2015-05-20 腾讯科技(深圳)有限公司 歌曲信息检索方法、装置及相应的服务器
KR20140089861A (ko) 2013-01-07 2014-07-16 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법
US9172747B2 (en) 2013-02-25 2015-10-27 Artificial Solutions Iberia SL System and methods for virtual assistant networks
US10811004B2 (en) * 2013-03-28 2020-10-20 Nuance Communications, Inc. Auto-generation of parsing grammars from a concept ontology
CN103200329A (zh) 2013-04-10 2013-07-10 威盛电子股份有限公司 语音操控方法、移动终端装置及语音操控系统
US20140372892A1 (en) 2013-06-18 2014-12-18 Microsoft Corporation On-demand interface registration with a voice control system
CN104238991B (zh) * 2013-06-21 2018-05-25 腾讯科技(深圳)有限公司 语音输入匹配方法及装置
JP6178198B2 (ja) * 2013-09-30 2017-08-09 株式会社東芝 音声翻訳システム、方法およびプログラム
US20170308361A1 (en) 2014-02-28 2017-10-26 Shoretel, Inc. Call Management Method and Apparatus
US10484539B2 (en) 2014-05-27 2019-11-19 Genesys Telecommunications Laboratories, Inc. System and method for managing interaction flow for contact centers
US9842101B2 (en) * 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
TWI566107B (zh) 2014-05-30 2017-01-11 蘋果公司 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置
US20160026608A1 (en) 2014-07-22 2016-01-28 Nuance Communications, Inc. Method and Apparatus for Generating Multimodal Dialog Applications by Analyzing Annotated Examples of Human-System Conversations
US9911321B2 (en) 2015-03-18 2018-03-06 Logitech Europe S.A. Simplified adaptable controller
US10402920B2 (en) 2015-07-13 2019-09-03 David C. Fox Order management system and process for drive-through and pickup window restaurants
US20170060348A1 (en) 2015-08-26 2017-03-02 Sap Se Compact display of hierarchical structure on user interface
US10379808B1 (en) 2015-09-29 2019-08-13 Amazon Technologies, Inc. Audio associating of computing devices
US10592949B2 (en) 2015-11-13 2020-03-17 [24]7.ai, Inc. Method and apparatus for linking customer interactions with customer messaging platforms
US10460024B2 (en) * 2016-01-05 2019-10-29 Adobe Inc. Interactive electronic form workflow assistant that guides interactions with electronic forms in a conversational manner
CN105718448B (zh) * 2016-01-13 2019-03-19 北京新美互通科技有限公司 一种对输入字符进行自动翻译的方法和装置
US9858927B2 (en) 2016-02-12 2018-01-02 Amazon Technologies, Inc Processing spoken commands to control distributed audio outputs
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US9619202B1 (en) 2016-07-07 2017-04-11 Intelligently Interactive, Inc. Voice command-driven database
US10726836B2 (en) 2016-08-12 2020-07-28 Kt Corporation Providing audio and video feedback with character based on voice command
US10685656B2 (en) 2016-08-31 2020-06-16 Bose Corporation Accessing multiple virtual personal assistants (VPA) from a single device
US10423303B1 (en) 2016-09-29 2019-09-24 A9.Com, Inc. Progressive information panels in a graphical user interface
US10181323B2 (en) 2016-10-19 2019-01-15 Sonos, Inc. Arbitration-based voice recognition
US11164570B2 (en) 2017-01-17 2021-11-02 Ford Global Technologies, Llc Voice assistant tracking and activation
US10185556B2 (en) 2017-02-22 2019-01-22 Sap Se Interactive software development kit documentation tool
EP3635538A4 (en) 2017-06-05 2021-03-10 Umajin Inc. PROCEDURES AND SYSTEMS FOR AN APPLICATION SYSTEM
KR102007478B1 (ko) 2017-06-28 2019-08-05 크리스토퍼 재현 윤 특정 조건에서 음성인식을 이용한 어플리케이션 제어 장치 및 방법
US20190012625A1 (en) 2017-07-05 2019-01-10 Panasonic Intellectual Property Management Co., Lt d. Autonomous vehicle/drive-through synchronization system and synchronization method
US20190066669A1 (en) 2017-08-29 2019-02-28 Google Inc. Graphical data selection and presentation of digital content
US10438594B2 (en) 2017-09-08 2019-10-08 Amazon Technologies, Inc. Administration of privileges by speech for voice assistant system
US20190082043A1 (en) 2017-09-14 2019-03-14 Tal Lavian Systems and methods for visual presentation and selection of ivr menu
US10531157B1 (en) 2017-09-21 2020-01-07 Amazon Technologies, Inc. Presentation and management of audio and visual content across devices
US10666583B2 (en) 2017-11-27 2020-05-26 Baidu Usa Llc System and method for visually understanding and programming conversational agents of electronic devices
US10812654B2 (en) 2018-06-29 2020-10-20 At&T Intellectual Property I, L.P. Interactive voice response system design, development and testing tool
US10997222B2 (en) 2018-06-29 2021-05-04 International Business Machines Corporation Conversational agent dialog flow user interface
US11144596B2 (en) 2018-07-24 2021-10-12 Harman International Industries, Incorporated Retroactive information searching enabled by neural sensing
US10657025B2 (en) 2018-10-18 2020-05-19 Denso International America, Inc. Systems and methods for dynamically identifying data arguments and instrumenting source code
US10930300B2 (en) 2018-11-02 2021-02-23 Veritext, Llc Automated transcript generation from multi-channel audio
US10908883B2 (en) 2018-11-13 2021-02-02 Adobe Inc. Voice interaction development tool
US10847156B2 (en) 2018-11-28 2020-11-24 Adobe Inc. Assembled voice interaction
CN109658938B (zh) * 2018-12-07 2020-03-17 百度在线网络技术(北京)有限公司 语音与文本匹配的方法、装置、设备及计算机可读介质
US11017771B2 (en) 2019-01-18 2021-05-25 Adobe Inc. Voice command matching during testing of voice-assisted application prototypes for languages with non-phonetic alphabets
US10964322B2 (en) 2019-01-23 2021-03-30 Adobe Inc. Voice interaction tool for voice-assisted application prototypes
US11790906B2 (en) * 2021-01-25 2023-10-17 Google Llc Resolving unique personal identifiers during corresponding conversations between a voice bot and a human

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007510196A (ja) * 2003-10-10 2007-04-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 対話システムに関する対話制御
JP2008293109A (ja) * 2007-05-22 2008-12-04 Toshiba Corp テキスト処理装置及びプログラム
JP2011008784A (ja) * 2009-06-24 2011-01-13 Nhn Corp ローマ字変換を用いる日本語自動推薦システムおよび方法
JP2014081441A (ja) * 2012-10-15 2014-05-08 Sharp Corp コマンド判定装置およびその制御方法、コマンド判定プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021099887A (ja) * 2020-09-25 2021-07-01 北京百度網訊科技有限公司 音声認識によるページ操作方法、装置、機器、媒体及びプログラム
JP7242737B2 (ja) 2020-09-25 2023-03-20 阿波▲羅▼智▲聯▼(北京)科技有限公司 音声認識によるページ操作方法、装置、機器、媒体及びプログラム
KR102661438B1 (ko) * 2023-11-14 2024-04-29 (주)미래융합정보기술 인터넷 기사 크롤링, 글로벌 가치 사슬에 영향을 주는 이슈 기사의 요약 서비스를 제공하는 웹크롤러 시스템
KR102650634B1 (ko) * 2023-11-28 2024-03-22 디지털로그 테크놀로지스 주식회사 워드 클라우드를 이용한 해시태그 추천 방법 및 장치

Also Published As

Publication number Publication date
AU2019268092A1 (en) 2020-08-06
US11727929B2 (en) 2023-08-15
CN111462740A (zh) 2020-07-28
JP7111682B2 (ja) 2022-08-02
AU2019268092B2 (en) 2021-07-29
US20210256975A1 (en) 2021-08-19
US20200234699A1 (en) 2020-07-23
CN111462740B (zh) 2024-05-24
US11017771B2 (en) 2021-05-25

Similar Documents

Publication Publication Date Title
JP7111682B2 (ja) 非表音文字体系を使用する言語のための音声支援型アプリケーションプロトタイプの試験中の音声コマンドマッチング
US10964322B2 (en) Voice interaction tool for voice-assisted application prototypes
JP6751122B2 (ja) ページ制御方法および装置
JP5421239B2 (ja) 複数モードの入力メソッドエディタ
JP5634860B2 (ja) 第2言語モードを有する入力メソッドエディタ
JP5509066B2 (ja) 入力メソッドエディタの統合
US9805718B2 (en) Clarifying natural language input using targeted questions
US20160328205A1 (en) Method and Apparatus for Voice Operation of Mobile Applications Having Unnamed View Elements
US10872207B2 (en) Determining translation similarity of reverse translations for a plurality of languages
AU2014327147B2 (en) Quick tasks for on-screen keyboards
JP6150268B2 (ja) 単語登録装置及びそのためのコンピュータプログラム
US10908883B2 (en) Voice interaction development tool
US20190204998A1 (en) Audio book positioning
US11163377B2 (en) Remote generation of executable code for a client application based on natural language commands captured at a client device
JP2013050742A (ja) 音声認識装置および音声認識方法
TW201506685A (zh) 以語音辨識來選擇控制客體的裝置及方法
US20220375473A1 (en) Electronic device and control method therefor
WO2018053695A1 (zh) 基于压力来选择附加符号
GB2580755A (en) Voice command matching during testing of voice-assisted application prototypes for languages with non-phonetic alphabets
WO2023110280A1 (en) Method and apparatus for fixing a voice query
WO2022104297A1 (en) Multimodal input-based data selection and command execution
CN112567456A (zh) 学习辅助工具

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220721

R150 Certificate of patent or registration of utility model

Ref document number: 7111682

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150