JP7202075B2 - 複数の音声認識装置間の調整 - Google Patents

複数の音声認識装置間の調整 Download PDF

Info

Publication number
JP7202075B2
JP7202075B2 JP2018089922A JP2018089922A JP7202075B2 JP 7202075 B2 JP7202075 B2 JP 7202075B2 JP 2018089922 A JP2018089922 A JP 2018089922A JP 2018089922 A JP2018089922 A JP 2018089922A JP 7202075 B2 JP7202075 B2 JP 7202075B2
Authority
JP
Japan
Prior art keywords
speech
detected
features
vrd
vrds
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018089922A
Other languages
English (en)
Other versions
JP2018197855A (ja
Inventor
ディー. トムセン ブラント
Original Assignee
ハーマン インターナショナル インダストリーズ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ハーマン インターナショナル インダストリーズ インコーポレイテッド filed Critical ハーマン インターナショナル インダストリーズ インコーポレイテッド
Publication of JP2018197855A publication Critical patent/JP2018197855A/ja
Application granted granted Critical
Publication of JP7202075B2 publication Critical patent/JP7202075B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/32Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/60Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for measuring the quality of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/90Pitch determination of speech signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Telephonic Communication Services (AREA)
  • Machine Translation (AREA)
  • Navigation (AREA)

Description

本発明は概して音声認識装置に関し、より詳細には複数の音声認識装置間での調整に関する。
消費者空間における音声認識はますます一般的になってきている。音声認識の1つの使用事例は、キーワードまたはキーフレーズに耳を傾け、以後に受信されるあらゆる音声ベースコマンドを処理するスタンドアロン音声認識装置である。音声認識装置が広く認められるにつれ、家庭またはオフィス等の環境が所与の音声ベースコマンドの傾聴範囲の中に複数の音声認識装置を有することはより一般的になる。
実際には、音声認識装置は、所与の装置が、該装置が受信するあらゆる音声ベースコマンドを処理するように独立して動作する。この独立した動作は、多くの係る装置がある環境では望ましくない結果につながる。特に、各音声認識装置が、理想的には1つの装置だけによって実行されるべきである、受信された音声ベースコマンドに基づいたアクションを独立して実行する場合がある。例えば、温度計で温度を5度上昇させるための音声コマンドが複数の装置によって連続して且つ独立して実行され、温度を不快な範囲または安全ではない範囲まで上昇させる場合がある。
一部のシステムでは、マスタ装置が異なる音声認識装置の間で調整して、各音声ベースコマンドを処理するための装置の1つを選択する。係るシステムの1つの欠点は、マスタ装置が音声認識装置のすべての間での調整仲介者として動作するので、音声ベースのコマンドを処理する待ち時間が増加することである。係るシステムの別の欠点は、マスタ装置がつねに存在し、利用可能であるという必要条件である。したがって、マスタ装置がオフラインになる状況では、システム全体が、所望されるように動作することができない。
本発明の一実施形態は、発話ベースのコマンドを処理するための方法を説明する。方法は、ローカルに検出された発話イベントと関連付けられた特徴の集合を生成することと、外部装置によって検出される発話イベントと関連付けられた第2の特徴の集合を外部装置から受信することとを含む。また、方法は、特徴の集合と第2の特徴の集合との比較に基づいて、発話イベントに対応するアクションがローカルに実行されるべきであると判断することと、アクションをローカルに実行することとを含む。
開示された方法の1つの優位点は、発話イベントをローカルに検出する装置が、やはり発話イベントを検出した可能性のある他の装置に対して発話イベントに対応する音声コマンドを処理するために最適であるかどうかを独立して判断できる点である。このようにして、装置のネットワーク内の各装置が、発話イベントに対応する音声コマンドを処理するために最適である装置を独立して選択する。別の優位点は、同じ発話イベントに応えて、重複するアクションが異なる装置によって実行される状況が削減される点である。
本願明細書は、例えば、以下の項目も提供する。
(項目1)
発話ベースのコマンドを処理する方法であって、
ローカルに検出された発話イベントと関連付けられた特徴の集合を生成することと、
外部装置から、上記外部装置によって検出された上記発話イベントと関連付けられた第2の特徴の集合を受信することと、
上記特徴の集合と上記第2の特徴の集合との比較に基づいて、上記発話イベントに対応するアクションがローカルに実行されるべきであると判断することと、
上記アクションをローカルに実行することと、
を含む、上記方法。
(項目2)
上記特徴の集合が、上記発話イベントに対応するローカルに検出された音声信号の周波数を含み、上記発話イベントに対応する上記アクションがローカルに実行されるべきであると判断することが、上記周波数が人間の発話と関連付けられる周波数範囲内に入ると判断することを含む、上記項目に記載の方法。
(項目3)
上記特徴の集合が、上記発話イベントに対応するローカルに検出された音声信号のエネルギーの測定量を含み、上記第2の特徴の集合が、上記発話イベントに対応する外部で検出された音声信号のエネルギーの第2の測定量を含み、上記発話イベントに対応する上記アクションがローカルに実行されるべきであると判断することが、上記ローカルに検出された音声信号のエネルギーの上記測定量が、上記外部で検出された音声信号のエネルギーの上記第2の測定量よりも大きいと判断することを含む、上記項目のいずれかに記載の方法。
(項目4)
上記特徴の集合が、上記発話イベントに対応するローカルに検出された音声の質の測定量を含み、上記第2の特徴の集合が上記発話イベントに対応する外部で検出された音声の質の第2の測定量を含み、上記発話イベントに対応する上記アクションがローカルに実行されるべきであると判断することが、上記ローカルに検出された音声の質の上記測定量が上記外部で検出された音声の質の上記第2の測定量よりも高いと判断することを含む、上記項目のいずれかに記載の方法。
(項目5)
上記特徴の集合が、上記発話イベントがローカルに検出されたときに対応するタイムスタンプを含み、上記第2の特徴の集合が、上記発話イベントが上記外部装置によって検出されたときに対応するタイムスタンプを含み、上記発話イベントに対応する上記アクションがローカルに実行されるべきであると判断することが、上記タイムスタンプに基づいて、上記発話イベントが上記外部装置によって検出された以前に上記発話イベントがローカルに検出されたと判断することを含む、上記項目のいずれかに記載の方法。
(項目6)
上記特徴の集合が、ローカルに検出された上記発話イベントから認識された話された内容と関連付けられた信頼スコアを含み、上記第2の特徴の集合が、上記外部装置によって検出された上記発話イベントから認識された話された内容と関連付けられた第2の信頼スコアを含み、上記発話イベントに対応する上記アクションがローカルに実行されるべきであると判断することが、上記ローカルに検出された音声の上記信頼スコアが上記第2の信頼スコアよりも高いと判断することを含む、上記項目のいずれかに記載の方法。
(項目7)
上記特徴の集合が、上記発話イベントから認識された話された内容と関連付けられた信頼スコアを含み、上記発話イベントに対応する上記アクションがローカルに実行されるべきであると判断することが、上記信頼スコアが閾値よりも大きいと判断することを含む、上記項目のいずれかに記載の方法。
(項目8)
上記特徴の集合が、上記発話イベントから認識された話された内容を含み、上記第2の特徴の集合が、上記発話イベントから認識された第2の話された内容を含み、上記発話イベントに対応する上記アクションがローカルに実行されるべきであると判断することが、上記話された内容が上記第2の話された内容と実質的に一致すると判断することを含む、上記項目のいずれかに記載の方法。
(項目9)
ローカルに検出された第2の発話イベントと関連付けられた第3の特徴の集合を生成することと、
上記外部装置から、上記外部装置によって検出された上記第2の発話イベントと関連付けられた第4の特徴の集合を受信することと、
上記第3の特徴の集合と上記第4の特徴の集合との比較に基づいて、上記発話イベントに対応するアクションが上記外部装置によって実行されるべきであると判断することと、
上記第2の発話イベントのローカル処理を終了することと、
をさらに含む、上記項目のいずれかに記載の方法。
(項目10)
プロセッサによる実行時に、上記プロセッサに、
ローカルに検出された発話イベントと関連付けられた特徴の集合を生成するステップと、
外部装置から、上記外部装置によって検出された上記発話イベントと関連付けられた第2の特徴の集合を受信するステップと、
上記特徴の集合と上記第2の特徴の集合との比較に基づいて、上記発話イベントに対応するアクションがローカルに実行されるべきであると判断するステップと、
上記アクションをローカルに実行するステップと、
を実行することによって発話ベースのコマンドを処理させる命令を記憶するコンピュータ可読媒体。
(項目11)
上記特徴の集合が、上記発話イベントに対応するローカルに検出された音声信号の周波数を含み、上記発話イベントに対応する上記アクションがローカルに実行されるべきであると判断することが、上記周波数が人間の発話と関連付けられた周波数範囲内に入ると判断することを含む、上記項目のいずれかに記載のコンピュータ可読媒体。
(項目12)
上記特徴の集合が、上記発話イベントに対応するローカルに検出された音声信号のエネルギーの測定量を含み、上記第2の特徴の集合が、上記発話イベントに対応する外部で検出された音声信号のエネルギーの第2の測定量を含み、上記発話イベントに対応する上記アクションがローカルに実行されるべきであると判断することが、上記ローカルに検出された音声信号のエネルギーの上記測定量が、上記外部で検出された音声信号のエネルギーの上記第2の測定量よりも大きいと判断することを含む、上記項目のいずれかに記載のコンピュータ可読媒体。
(項目13)
上記特徴の集合が、上記発話イベントに対応するローカルに検出された音声の質の測定量を含み、上記第2の特徴の集合が上記発話イベントに対応する外部で検出された音声の質の第2の測定量を含み、上記発話イベントに対応する上記アクションがローカルに実行されるべきであると判断することが、上記ローカルに検出された音声の質の上記測定量が上記外部で検出された音声の質の上記第2の測定量よりも高いと判断することを含む、上記項目のいずれかに記載のコンピュータ可読媒体。
(項目14)
上記特徴の集合が、上記発話イベントがローカルに検出されたときに対応するタイムスタンプを含み、上記第2の特徴の集合が、上記発話イベントが上記外部装置によって検出されたときに対応するタイムスタンプを含み、上記発話イベントに対応する上記アクションがローカルに実行されるべきであると判断することが、上記タイムスタンプに基づいて、上記発話イベントが上記外部装置によって検出された以前に上記発話イベントがローカルに検出されたと判断することを含む、上記項目のいずれかに記載のコンピュータ可読媒体。
(項目15)
上記タイムスタンプが同期されたクロックに基づいて決定される、上記項目のいずれかに記載のコンピュータ可読媒体。
(項目16)
上記命令が、上記プロセッサに、上記外部装置によって検出された上記発話イベントが、ローカルに検出された上記発話イベントに一致すると判断するステップをさらに実行させる、上記項目のいずれかに記載のコンピュータ可読媒体。
(項目17)
上記外部装置によって検出された上記発話イベントが、ローカルに検出された上記発話イベントに一致すると判断することが、上記外部装置が上記発話イベントを検出したときに対応する外部タイムスタンプを、上記発話イベントがローカルに検出されたときに対応するローカルタイムスタンプと比較することを含む、上記項目のいずれかに記載のコンピュータ可読媒体。
(項目18)
上記外部装置によって検出された上記発話イベントが、ローカルに検出された上記発話イベントと一致すると判断することが、上記外部装置によって検出された上記発話イベントに基づいて認識された第1の内容を、ローカルに検出された上記発話イベントに基づいて認識された第2の内容と比較することを含む、上記項目のいずれかに記載のコンピュータ可読媒体。
(項目19)
音声認識システムであって、
マイクと、
コンピュータプロセッサであって、
上記マイクを介してローカルに検出された発話イベントと関連付けられた特徴の集合を生成するステップと、
外部で検出された上記発話イベントと関連付けられた第2の特徴の集合を受信するステップと、
上記特徴の集合と上記第2の特徴の集合との比較に基づいて、上記発話イベントに対応するアクションがローカルに実行されるべきであると判断するステップと、
上記アクションをローカルに実行するステップと、
を実行するために命令を実行する上記コンピュータプロセッサと、
を備える、上記音声認識システム。
(項目20)
上記命令が、
上記マイクを介してローカルに検出された第2の発話イベントと関連付けられた第3の特徴の集合を生成するステップと、
上記外部装置から、外部で検出された上記第2の発話イベントと関連付けられた第4の特徴の集合を受信するステップと、
上記第3の特徴の集合と上記第4の特徴の集合との比較に基づいて、上記発話イベントに対応するアクションが上記外部装置によって実行されるべきであると判断するステップと、
上記第2の発話イベントのローカル処理を終了するステップと、
を、上記プロセッサにさらに実行させる、上記項目のいずれかに記載の音声認識システム。
(摘要)
本発明の一実施形態は音声認識装置を選択するための機構を説明し、該音声認識装置は検出された発話イベントに対応する音声コマンドを処理するために係る装置のネットワークに含まれる。ネットワークの音声認識装置は、装置の内のどの装置が発話イベントに対応する音声コマンドを処理するために最適であるのかを個別に判断する。動作中、同じ発話イベントを検出した音声認識装置のそれぞれは、音声コマンドを処理するために同じ装置を独立して選択する。選択された装置を含む音声認識装置のそれぞれは、音声コマンドを処理するために同じ装置を選択するため、音声認識装置は選択された装置に関係する情報を互いと共有する必要がない。
本発明の1つ以上の態様を実施するように構成されたシステム環境を示す図である。 一実施形態に従って、VRDのブロック図を示す図である。 一実施形態に従って、発話ベースのコマンドを処理するための方法ステップの流れ図である。
以下の説明では、多数の具体的な詳細が本発明のより完全な理解を提供するために説明される。しかしながら、本発明がこれらの具体的な詳細の1つ以上なしで実践し得ることが当業者に明らかになる。他の例では、本発明を分かりにくくすることを回避するために周知の特色は説明されていない。
図1は、本発明の1つ以上の態様を実施するように構成されたシステム環境100を示す。示されるように、システム環境100は、音声認識装置(VRD)ネットワーク102、処理システム106、及び音声信号108を含む。
VRDネットワーク102は、(集合的に「諸VRD104」及び個別に「VRD104」とも呼ばれる)複数のVRD104(1)~(N)を含む。一実施形態では、VRDネットワーク102の諸VRD104は、ネットワーク接続、物理的近接、及び/または共有ユーザ識別に基づいて自動的にグループ化される。別の実施形態では、諸VRD104は、ユーザがVRDネットワーク102に含まれる個別の諸VRD104を選択するように手作業でグループ化される。
各VRD104は、VRD104が1つ以上のアクションを実行するための音声コマンドを完全にまたは部分的に、のどちらかで処理するように音声コマンドによって制御される。VRD104は、音声コマンド(例えば、人間によって話される音声コマンド)を取り込むための少なくとも1つのマイクを含む。また、VRD104は、少なくとも1つの音声出力機構(例えば、スピーカ)、及び/または外部音声出力機構に接続するための機構(例えば、外部スピーカに接続するための音声ジャックまたはBluetooth(登録商標))も含む。音声出力機構は、音声出力をVRD104のユーザに送達するために使用される。音声出力は、記録、テキストから発話の再生、音楽、ニュース等であってよい。
各VRD104は、VRDネットワーク102のあらゆる他のVRD104にネットワーク接続を介して接続される。以下により詳細に説明されるように、諸VRD104は、諸VRD104によって実行される1つ以上のアクションを調整するためにネットワーク接続を介して互いと通信する。さらに、各VRD104は、VRDネットワーク102から遠く離れている処理システム106へのネットワーク接続を介して接続される。一実施形態では、VRD104は、マイクを介して取り込まれた音声コマンドを処理するために処理システム106と連動して動作する。
VRD104は、話されたキーワードまたはキーフレーズを識別するためにマイクで起こりやすい音声信号108を処理することによって「傾聴」状態で動作する。いったんキーワードまたはキーフレーズが識別されると、VRD104は、音声コマンドを識別するためにマイクで起こりやすいあらゆる追加の音声信号108を処理することによって「アクション」状態に切り替わる。一実施形態では、アクション状態で、VRD104は、識別された音声コマンドと関連付けられた1つ以上のアクションを実行する。代替実施形態では、アクション状態で、音声信号108は記録され、処理システム106に送信される。処理システム106は、音声コマンドを識別するために受信された音声信号108に対して1つ以上の音声認識技術を実行し、任意選択で音声コマンドと関連付けられた1つ以上のアクションを実行する。VRD104は、ユーザに音声コマンド及びあらゆる関連付けられたアクションを処理した結果を通知する。通知は、視覚的(例えば、点滅するライト)及び/または音声ベース(例えば、事前に録音された音声、テキストを発話に変換する音声等)である場合がある。
所与のとき、発話イベントと関連付けられた音声信号108はいくつかのVRD104に含まれるマイクで起こりやすい。したがって、VRD104は、発話イベントに対応する音声コマンド(複数可)を処理するために諸VRD104の内のどれが最適であるのかを判断するために調整する。動作中、所与のVRD104がアクション状態に切り替わるとき、VRD104は、VRDネットワーク102の他の諸VRD104も、該VRD104をアクション状態に切り替えさせた同じ発話イベントに対応したかどうかを判断する。VRDネットワーク102の他の諸VRDも同じ発話イベントに対応した場合、次いでVRD104は、発話イベントに対応する音声コマンドを処理するために諸VRD104の内の1つを選択する。同じ発話イベントに対応した諸VRD104のそれぞれは、音声コマンドを処理するための同じVRD104を独立して選択する。選択されたVRD104を含む諸VRD104のそれぞれは、音声コマンドを処理するための同じVRD104を選択するため、諸VRD104は選択されたVRD104に関係する情報を互いと共有する必要はない。以下の説明は、この選択プロセスに関する詳細を提供する。
図2は、一実施形態に従って所与のVRD104のブロック図を示す。示されるように、VRD104はクロック同期エンジン、発話認識エンジン204、相互VRD通信エンジン206、VRD選択エンジン208、及びローカルコマンド処理エンジン210を含む。
クロック同期エンジン202は、VRDネットワーク102のすべてのVRD104全体で同期されるクロックを維持する。一実施形態では、同期されたクロックは専用クロックである。別の実施形態では、同期されたクロックは、各VRD104にローカルクロックと取り決められたマスタクロックとの間の時間差のオフセットの近似値を追跡させることによって計算されるクロック値である。クロックを同期させるためのいくつかの技術は、ネットワークタイムプロトコル(NTP)及び全地球測位衛星(GPS)を含む。
発話認識エンジン204は、(本明細書で「認識された発話」と呼ばれる)発話イベントに対応する発話の内容を認識するために音声信号を分析する。一実施形態では、音声信号の分析は、語彙からの単語、句、またはコマンドに対応する音響モデルに基づいている。当業者は、発話の内容を認識するための任意の他の技術が範囲内にあることを理解するだろう。
また、発話認識エンジン204は、認識された発話の多様な特徴と関連付けられたメタデータも生成する。特に、発話認識エンジン204は、受信された音声信号のエネルギーの測定量及び音声信号の背景雑音に基づいて認識された発話と関連付けられた入力品質測定基準を生成する。一実施形態では、音源からの音響強度は距離の2乗分減少するので、音声信号のエネルギーが低いほど、入力品質測定基準は低くなる。また、発話認識エンジン204は、認識された発話が話された単語に関連して正確である及び/または正しいという確実性に基づいて認識された発話と関連付けられた出力品質測定基準も生成する。さらに、発話認識エンジン204は、認識された発話と関連付けられたタイミング情報を生成する。一実施形態では、タイミング情報は、認識された発話と関連付けられた音声信号がVRD104によって受信されたときに対応する、クロック同期エンジン202から取り込まれたタイムスタンプを示す。
一実施形態では、発話認識エンジン204は、発話認識動作及び/またはメタデータ生成動作を実行するために処理システム106と連動して動作する。係る実施形態では、発話認識エンジン204は、処理システム106に受信された音声信号を送信し、それに応えて、認識された発話及び/または関連付けられたメタデータを受信する。
発話認識エンジン204は、認識された発話及びローカルに検出された発話イベントに対応する関連付けられたメタデータを相互VRD通信エンジン206及びVRD選択エンジン208に送信する。相互VRD通信エンジン206は、認識された発話及び関連付けられたメタデータをVRDネットワーク102の他の諸VRD104に送信する。一部の実施形態では、同じ発話イベントを検出したVRDネットワーク102の他の諸VRD104(本明細書では「外部諸VRD104」と呼ばれる)は、外部で検出された発話イベントに対応する認識された発話及びメタデータを相互VRD通信エンジン206に送信する。相互VRD通信エンジン206は、外部諸VRD104から受信された認識された発話及び関連付けられたメタデータだけではなく、発話認識エンジン204からの認識された発話及び関連付けられたメタデータもVRD選択エンジン208に送信する。
VRD選択エンジン208は、発話イベントと関連付けられたコマンドを処理するための所与の発話イベントを検出した諸VRD104の1つを選択する。動作中、VRD選択エンジン208は、発話認識エンジン204からローカルに検出された音声イベントに対応する認識された発話及び関連付けられたメタデータを受信する。また、VRD選択エンジン208は、相互VRD通信エンジン208から、外部で検出された発話イベントに対応する認識された発話及び関連付けられたメタデータを受信する。これらの外部で検出された発話イベントは、外部諸VRD104によって検出される。VRD選択エンジン208は、ローカルに検出された発話イベントが、もしあれば外部で検出された発話イベントと同じであるかどうかを判断し、同じである場合、発話イベントを検出した該VRD104のどれが認識された発話をさらに処理すべきかどうかを判断する。
ローカルに検出された発話イベントが外部で検出された発話イベントと同じであるかどうかを判断するために、VRD選択エンジン208は検出された発話イベントのそれぞれに対応するメタデータを評価する。特に、ローカルに検出された発話イベント及び外部で検出された発話イベントに対応するメタデータに含まれるタイミング情報が、イベントが互いの閾値時間内に発生したことを示す場合、次いでVRD選択エンジン208は、ローカルに検出された発話イベント及び外部で検出された発話イベントが同じであると判断する。さらに、ローカルに検出された発話イベント及び外部で検出された発話イベントに対応する認識された発話が一致する(または実質的に一致する)場合、次いでVRD選択エンジン208は、ローカルに検出された発話イベント及び外部で検出された発話イベントが同じであると判断する。一部の実施形態では、VRD選択エンジン208は(i)外部で検出された発話イベントに対応する認識された発話及びメタデータを受信しない、または(ii)外部で検出された発話イベントのいずれもローカルに検出された発話イベントと同じではない。係る実施形態では、VRD選択エンジン208は、認識された発話をさらに処理するためにローカルVRD104を選択する。
1つ以上の外部諸VRD104も発話イベントを検出すると、ローカルVRD104のVRD選択エンジン208は、認識された発話をさらに処理するために諸VRD104の1つを選択する。選択されたVRD104はローカルVRD104または外部VRD104のどちらかであってよい。動作中、異なる諸VRD104全体での各VRD選択エンジン208は、認識された発話をさらに処理するために同じVRD104を選択する。選択されたVRD104がローカルVRD104である場合、次いでローカルVRD104は(ローカルコマンド処理エンジン210を使用し)認識された発話を処理し続ける。しかしながら、選択されたVRD104が外部VRD104である場合、次いでローカルVRD104は認識された発話をこれ以上処理しない。
認識された発話をさらに処理するVRD104を選択するために、VRD選択エンジン208は、検出された発話イベントのそれぞれに対応する認識された発話のメタデータ及び/または内容を評価する。特に、VRD選択エンジン208は、認識された発話をさらに処理するVRD104を選択するために、認識された発話のタイミング情報、入力品質測定基準、出力品質測定基準、及び内容の1つ以上を評価する。以下の説明は、認識された発話のタイミング情報、測定基準、及び内容のそれぞれが、選択を行うためにVRD選択エンジン208によって個別にどのようにして使用できるのかを説明する。他の実施形態では、認識された発話のタイミング情報、測定基準、及び内容は、重み関数を使用し結合できる、または最終的な選択の前に特定の諸VRD104をフィルタにかけるために個別にまたは組み合わせて使用できる。
タイミング情報に関して、VRD選択エンジン208は、検出された発話イベントに対応するタイムスタンプを評価し、最も早期のタイムスタンプを有する検出された発話イベントを識別する。上述されたように、検出された発話イベントに対応するタイムスタンプは、音声信号が、発話イベントを検出したVRD104によって受信された時を示す。最も早期のタイムスタンプに対応する発話イベントを検出したVRD104は、認識された発話をさらに処理するために選択される。2つ以上の検出された発話イベントが時間的に同じであるまたは近いタイムスタンプを有する場合、VRD選択エンジン208は、決定的な動作を実行する。一実施形態では、決定的な動作は、最も低いMACアドレスを有するVRD104を選択する。
入力品質測定基準に関して、検出された発話イベントごとに、VRD選択エンジン208は対応する入力品質測定基準に基づいて入力品質スコアを計算する。入力品質スコアを計算するために、VRD選択エンジン208は、人間の発話にとって典型的な周波数範囲内(例えば、300Hz~3kHz)にある音声信号のエネルギーの量を決定する。所与の検出された発話イベントの場合、音声信号のエネルギーの閾値量未満がその範囲内にある場合、次いで検出された発話イベントは人間の発話である可能性が低い、または人間の発話と結合されたかなりの雑音を含む場合がある。また、VRD選択エンジン208は、音声信号のエネルギー量を、無事に処理された以前に検出された音声イベントに対応する音声信号のエネルギー量と比較する。所与の検出された音声イベントの場合、エネルギーの量が以前に検出された発話イベントの範囲内にある場合、次いで検出された発話イベントは人間の発話である可能性がより高く、音声信号が良質である可能性がある。また、VRD選択エンジン208は、受信された音声の全体的な質も決定する。音声の全体的な質は、音声が認識可能な雑音(例えば、ポンという音もしくはカチッという音)を含むかどうか及び/または音声のサンプルレートに基づく場合がある。
VRD選択エンジン208は、人間の発話にとって典型的な周波数範囲内のエネルギー量、以前に検出された発話イベントとのエネルギー量の比較、及び音声の全体的な質に基づいて所与の検出発話イベントの入力品質スコアを計算する。VRD選択エンジン208は、これらの特徴のそれぞれと数値を関連付け、次いで入力品質スコアを計算するためにそれらの数値を比較考量し、合計してよい。VRD選択エンジン208は、どのVRD104が最良の品質の信号を受信したのか、及びどのVRD104が発話イベントをさらに処理するために選択されるべきかを判断するために、検出された発話イベントのそれぞれに対応する入力品質スコアを比較する。一実施形態では、最高の入力品質スコアを有する音声イベントを検出したVRD104が、認識された発話をさらに処理するために選択される。他の実施形態では、VRD選択エンジン208は、選択を行うために入力品質スコアを、検出された発話イベントと関連付けられた他の測定基準と結合する。
出力品質測定基準に関して、VRD選択エンジン208は検出された発話イベントに対応する出力品質測定基準を評価し、最高の出力品質測定基準を有する検出された発話イベントを識別する。上述されたように、認識された発話と関連付けられた出力品質測定基準は、認識された発話が話された単語に関連して正確である及び/または正しいという確実性を示す。最高の出力品質測定基準に対応する発話イベントを検出したVRD104は、認識された発話をさらに処理するために選択される。2つ以上の検出された発話イベントが同等な品質及び/または確実性値を有する場合、VRD選択エンジン208は決定的な動作を実行する。一実施形態では、決着を付ける動作は、最も低いMACアドレスを有するVRD104を選択する。
認識された発話の内容に関して、VRD選択エンジン208は、検出された発話イベントに対応する内容を評価し、同じ内容を認識した諸VRD104の数を決定する。少なくとも閾値数または閾値パーセンテージの諸VRD104が同じ内容を認識したとき、VRD選択エンジン208は、認識された発話をさらに処理するためにその内容を認識した諸VRD104の1つを選択する。少なくとも閾値数または閾値パーセンテージの諸VRD104が同じ内容を認識しなかった場合、VRD選択エンジン208は、諸VRD104のどれも認識された発話をさらに処理するために選択されるべきではないと判断してよい。
上述されたように、VRD選択エンジン208は、認識された発話をさらに処理するVRD104を選択するために、重み関数を使用し、認識された発話のタイミング情報、測定基準、及び内容を結合できる。各VRD選択エンジン208は異なるVRD104全体で同じVRD104を選択して、認識された発話をさらに処理するために同じ基準を使用する。選択されたVRD104がローカルVRD104である場合、次いでローカルVRD104は認識された発話を処理し続ける。しかしながら、選択されたVRD104が外部VRD104である場合、次いでローカルVRD104は認識された発話をこれ以上処理しない。各VRD選択エンジン208は異なる諸VRD104全体で、認識された発話をさらに処理するための同じVRD104を選択するので、諸VRD104は選択を互いに伝達する必要がない。
ローカルコマンド処理エンジン210は、認識された発話に含まれる音声コマンドと関連付けられた1つ以上のアクションをローカルに実行する。代替実施形態では、ローカルコマンド処理エンジン210は、音声コマンドと関連付けられた1つ以上のアクションを実行するために処理システム106と調整する。ローカルコマンド処理エンジン210は、ユーザに音声コマンドと関連付けられたアクションを実行した結果を任意選択で通知する。通知は視覚的(例えば、点滅するライト)及び/または音声ベース(例えば、事前に記録された音声、テキストを発話に変換する音声等)である場合がある。
図3は、一実施形態に従って発話ベースのコマンドを処理するための方法ステップの流れ図である。方法ステップは図1~図2のシステムと併せて説明されるが、当業者は、方法ステップを任意の順序で実行するように構成された任意のシステムが本発明の範囲内にあることを理解するだろう。
方法300は、ローカルVRD104の発話認識エンジン204が発話イベントをローカルに検出するステップ302で始まる。発話認識エンジン204は発話イベントと関連付けられた音声信号を分析し、発話イベントに対応する発話の内容を認識する。一実施形態では、音声信号の分析は、語彙からの単語、句、またはコマンドに対応する音声モデルに基づいている。当業者は、発話の内容を認識するための任意の他の技術が範囲内にあることを理解する。
ステップ304で、発話認識エンジン204は、ローカルに検出された発話イベントと関連付けられた特徴の集合を生成する。特徴は、受信された音声信号のエネルギーの測定量及び音声信号の背景雑音に基づいて決定された入力品質測定基準を含む。また、特徴は、認識された発話が話された単語に関連して正確である及び/または正しいという確実性に基づいて決定された出力品質測定基準も含む。さらに、特徴は、認識された発話と関連付けられた音声信号がVRD104によって受信されたときに対応するタイムスタンプを示すタイミング情報を含む。発話認識エンジン204は、ローカルVRD104に含まれるVRD選択エンジン208に特徴の集合を送信する。
ステップ306で、ローカルVRD104に含まれるVRD選択エンジン208はタイマを起動する。タイマ期間は、ローカルVRD104に含まれる相互VRD通信エンジン206が、タイマが期限切れになる前にVRDネットワーク102の他のすべてのVRD104から認識された発話及び関連付けられたメタデータを受信する時間を有するほどである。
ステップ308で、ローカルVRD104に含まれるVRD選択エンジン208は、タイマが期限切れになるのを待機し、外部VRD104によって検出された同じ発話イベントと関連付けられた第2の特徴の集合を受信するのも待機する。いったんこれらのイベントのいずれかが発生すると、方法300がステップ310に進む。
ステップ310で、タイマがそれ以上の特徴が受信される前にステップ308で期限切れになった場合、次いで方法300はステップ316に進む。それ以外の場合、ステップ308で、ローカルVRD104に含まれるVRD選択エンジン208は、外部VRD104によって検出された同じ発話イベントと関連付けられた第2の特徴の集合を受信した。特徴は、入力品質測定基準、出力品質測定基準、及び外部で検出された発話イベントに対応するタイミング情報を含む。この場合、方法300は、受信された第2の特徴の集合を処理するためにステップ312に進む。
特徴が、方法300の開始以来、外部VRD104ごとにステップ314によって受信され、評価された場合、次いでステップ308及び310は、これ以上の特徴は期待されていないので、ステップ308にタイマが期限切れになるのを待機させ続けるよりむしろ、タイマを期限切れとなったとして扱ってよい。
312で、VRD選択エンジン208は、発話イベントに対応する任意の追加のアクションが、第1の特徴の集合及び第2の特徴の集合に基づいてローカルVRD104によって実行されるべきかどうかを判断する。VRD選択エンジン208は、動作中、ローカルVRD104がやはり同じ発話イベントを検出した外部諸VRD104に関連して発話イベントに対応する音声コマンドを処理するためにより適しているかどうかを判断するために、第1の特徴の集合を第2の特徴の集合と比較する。
ステップ314で、VRD選択エンジン208が、ローカルVRDが発話イベントに対応する追加のアクションを実行すべきであると判断する場合、次いで方法300は、他の外部諸VRD104から特徴を待機するためにステップ308に進む。しかしながら、ステップ314で、VRD選択エンジン208が、ローカルVRDが発話イベントに対応する追加のアクションを実行すべきではないと判断する場合、次いで方法300は終了する。
ステップ316で、ローカル処理エンジン210は発話イベントに対応する1つ以上のアクションをローカルに実行する。一実施形態では、ローカル処理エンジン210は、アクションを実行するために処理システム106と連動して動作する。
要するに、所与のときに、発話イベントと関連付けられた音声信号がいくつかのVRD104に含まれるマイクで起こりやすい。したがって、諸VRD104は、諸VRD104のどれが発話イベントに対応する音声コマンドを処理するために最も適しているのかを個別に判断する。動作中、ローカルに発話イベントを検出したVRD104は、VRDネットワーク102の他の諸VRD104が同じ発話イベントを検出したかどうかも判断する。検出した場合、次いでVRD104は、発話イベントに対応する音声コマンドを処理するために諸VRD104の1つを選択する。同じ発話イベントを検出した諸VRD104のそれぞれは、音声コマンドを処理するために同じVRD104を独立して選択する。選択されたVRD104を含む諸VRD104のそれぞれが音声コマンドを処理するために同じVRD104を選択するため、諸VRD104は、選択されたVRD104に関係する情報を互いと共有する必要はない。
上記は本発明の実施形態を対象とするが、本発明の他の実施形態及び追加の実施形態は、その基本的な範囲から逸脱することなく考案され得る。例えば、本発明の態様は、ハードウェアもしくはソフトウェアで、またはハードウェア及びソフトウェアの組み合わせで実施されてよい。本発明の一実施形態は、コンピュータシステムとの使用のためにプログラム製品として実施されてよい。プログラム製品のプログラム(複数可)は、(本明細書に説明される方法を含む)実施形態の機能を定義し、さまざまなコンピュータ可読記憶媒体に含むことができる。例示的なコンピュータ可読媒体は、(i)情報が恒久的に記憶される書き込み不可記憶媒体(例えば、CD-ROMドライブ、フラッシュメモリ、ROMチップ、または任意のタイプのソリッドステート不揮発性半導体メモリによって読取り可能なCD-ROMディスク等のコンピュータの中の読み出し専用メモリ装置)、及び(ii)改変可能な情報が記憶される書き込み可能記憶媒体(例えば、ディスケットドライブの中のフロッピー(登録商標)ディスク、またはハードディスクドライブ、または任意のタイプのソリッドステートランダムアクセス半導体メモリ)を含むが、これに限定されるものではない。係るコンピュータ可読記憶媒体は、本発明の機能を指示するコンピュータ可読命令を搬送するとき、本発明の実施形態である。
上記を考慮して、本発明の範囲は、続く特許請求の範囲によって決定される。

Claims (18)

  1. 複数の音声認識装置(VRD)を備えるVRDネットワークにおいて発話ベースのコマンドを処理する方法であって、前記方法が、前記複数のVRDの各々が、
    ローカルに検出された発話イベントと関連付けられた特徴の集合を生成することであって、前記特徴の集合が、前記発話イベントから認識された話された内容を含む、ことと、
    前記特徴の集合及び関連付けられたメタデータを前記ネットワークの他のVRDに送信することであって、前記メタデータが、前記話された内容の特徴と関連付けられている、ことと、
    前記ネットワークの前記他のVRDの各々から、前記ネットワークの前記他のVRDのうちの当該VRDによって検出された前記発話イベントと関連付けられた第2の特徴の集合を受信することであって、前記第2の特徴の集合が、前記ネットワークの前記他のVRDのうちの当該VRDによって前記発話イベントから認識された第2の話された内容を含む、ことと、
    前記特徴の集合と前記第2の特徴の集合との比較に基づいて、前記発話イベントに対応するアクションが前記ネットワークの前記VRDのうちの決定されたVRDによってローカルに実行されるべきであると判断することであって、前記判断することが、前記話された内容が前記第2の話された内容と実質的に一致すると判断することを含む、ことと、
    を行うことを含み、
    前記方法が、前記ネットワークの前記VRDのうちの前記決定されたVRDによって前記アクションをローカルに実行することをさらに含む方法。
  2. 前記特徴の集合が、前記発話イベントに対応するローカルに検出された音声信号の周波数を含み、前記発話イベントに対応する前記アクションがローカルに実行されるべきであると判断することが、前記周波数が人間の発話と関連付けられる周波数範囲内に入ると判断することを含む、請求項1に記載の方法。
  3. 前記特徴の集合が、前記発話イベントに対応するローカルに検出された音声信号のエネルギーの測定量を含み、前記第2の特徴の集合が、前記発話イベントに対応する外部で検出された音声信号のエネルギーの第2の測定量を含み、前記発話イベントに対応する前記アクションがローカルに実行されるべきであると判断することが、前記ローカルに検出された音声信号のエネルギーの前記測定量が、前記外部で検出された音声信号のエネルギーの前記第2の測定量よりも大きいと判断することを含む、請求項1に記載の方法。
  4. 前記特徴の集合が、前記発話イベントに対応するローカルに検出された音声の質の測定量を含み、前記第2の特徴の集合が前記発話イベントに対応する外部で検出された音声の質の第2の測定量を含み、前記発話イベントに対応する前記アクションがローカルに実行されるべきであると判断することが、前記ローカルに検出された音声の質の前記測定量が前記外部で検出された音声の質の前記第2の測定量よりも高いと判断することを含む、請求項1に記載の方法。
  5. 前記特徴の集合が、前記発話イベントがローカルに検出されたときに対応するタイムスタンプを含み、前記第2の特徴の集合が、前記発話イベントが前記ネットワークの前記他のVRDのうちの当該VRDによって検出されたときに対応するタイムスタンプを含み、前記発話イベントに対応する前記アクションがローカルに実行されるべきであると判断することが、前記タイムスタンプに基づいて、前記発話イベントが前記ネットワークの前記他のVRDのうちの当該VRDによって検出された以前に前記発話イベントがローカルに検出されたと判断することを含む、請求項1に記載の方法。
  6. 前記特徴の集合が、ローカルに検出された前記発話イベントから認識された話された内容と関連付けられた信頼スコアを含み、前記第2の特徴の集合が、前記ネットワークの前記他のVRDによって検出された前記発話イベントから認識された話された内容と関連付けられた第2の信頼スコアを含み、前記発話イベントに対応する前記アクションがローカルに実行されるべきであると判断することが、前記ローカルに検出された音声の前記信頼スコアが前記第2の信頼スコアよりも高いと判断することを含む、請求項1に記載の方法。
  7. 前記特徴の集合が、前記発話イベントから認識された話された内容と関連付けられた信頼スコアを含み、前記発話イベントに対応する前記アクションがローカルに実行されるべきであると判断することが、前記信頼スコアが閾値よりも大きいと判断することを含む、請求項1に記載の方法。
  8. 前記複数のVRDの各々が、
    ローカルに検出された第2の発話イベントと関連付けられた第3の特徴の集合を生成することと、
    前記ネットワークの前記他のVRDの各々から、前記ネットワークの前記他のVRDのうちの当該VRDによって検出された前記第2の発話イベントと関連付けられた第4の特徴の集合を受信することと、
    前記第3の特徴の集合と前記第4の特徴の集合との比較に基づいて、前記発話イベントに対応するアクションが前記ネットワークの前記他のVRDのうちの前記VRDによって実行されるべきであると判断することと、
    前記第2の発話イベントのローカル処理を終了することと、
    を行うことをさらに含む、請求項1に記載の方法。
  9. プロセッサによる実行時に、前記プロセッサに、ステップを実行することによって複数の音声認識装置(VRD)を備えるVRDネットワークにおいて発話ベースのコマンドを処理させるプログラムを記憶するコンピュータ可読媒体であって、前記ステップが、
    ローカルに検出された発話イベントと関連付けられた特徴の集合を生成するステップであって、前記特徴の集合が、前記発話イベントから認識された話された内容を含む、ステップと、
    前記特徴の集合及び関連付けられたメタデータを前記ネットワークの他のVRDに送信するステップであって、前記メタデータが、前記話された内容の特徴と関連付けられている、ステップと、
    前記ネットワークの前記他のVRDの各々から、前記ネットワークの前記他のVRDのうちの当該VRDによって検出された前記発話イベントと関連付けられた第2の特徴の集合を受信するステップであって、前記第2の特徴の集合が、前記ネットワークの前記他のVRDのうちの当該VRDによって前記発話イベントから認識された第2の話された内容を含む、ステップと、
    前記特徴の集合と前記第2の特徴の集合との比較に基づいて、前記発話イベントに対応するアクションが前記ネットワークの前記VRDのうちの決定されたVRDによってローカルに実行されるべきであると判断するステップであって、前記判断することが、前記話された内容が前記第2の話された内容と実質的に一致すると判断することを含む、ステップと、
    であり、
    前記ステップが、前記ネットワークの前記VRDのうちの前記決定されたVRDによって前記アクションをローカルに実行することをさらに含む、コンピュータ可読媒体。
  10. 前記特徴の集合が、前記発話イベントに対応するローカルに検出された音声信号の周波数を含み、前記発話イベントに対応する前記アクションがローカルに実行されるべきであると判断することが、前記周波数が人間の発話と関連付けられた周波数範囲内に入ると判断することを含む、請求項に記載のコンピュータ可読媒体。
  11. 前記特徴の集合が、前記発話イベントに対応するローカルに検出された音声信号のエネルギーの測定量を含み、前記第2の特徴の集合が、前記発話イベントに対応する外部で検出された音声信号のエネルギーの第2の測定量を含み、前記発話イベントに対応する前記アクションがローカルに実行されるべきであると判断することが、前記ローカルに検出された音声信号のエネルギーの前記測定量が、前記外部で検出された音声信号のエネルギーの前記第2の測定量よりも大きいと判断することを含む、請求項に記載のコンピュータ可読媒体。
  12. 前記特徴の集合が、前記発話イベントに対応するローカルに検出された音声の質の測定量を含み、前記第2の特徴の集合が前記発話イベントに対応する外部で検出された音声の質の第2の測定量を含み、前記発話イベントに対応する前記アクションがローカルに実行されるべきであると判断することが、前記ローカルに検出された音声の質の前記測定量が前記外部で検出された音声の質の前記第2の測定量よりも高いと判断することを含む、請求項に記載のコンピュータ可読媒体。
  13. 前記特徴の集合が、前記発話イベントがローカルに検出されたときに対応するタイムスタンプを含み、前記第2の特徴の集合が、前記発話イベントが前記ネットワークの前記他のVRDのうちの当該VRDによって検出されたときに対応するタイムスタンプを含み、前記発話イベントに対応する前記アクションがローカルに実行されるべきであると判断することが、前記タイムスタンプに基づいて、前記発話イベントが前記ネットワークの前記他のVRDのうちの当該VRDによって検出された以前に前記発話イベントがローカルに検出されたと判断することを含む、請求項に記載のコンピュータ可読媒体。
  14. 前記タイムスタンプが同期されたクロックに基づいて決定される、請求項13に記載のコンピュータ可読媒体。
  15. 前記話された内容が前記第2の話された内容と実質的に一致すると判断することが、前記ネットワークの前記他のVRDが前記発話イベントを検出したときに対応する外部タイムスタンプを、前記発話イベントがローカルに検出されたときに対応するローカルタイムスタンプと比較することを含む、請求項に記載のコンピュータ可読媒体。
  16. 前記話された内容が前記第2の話された内容と実質的に一致すると判断することが、前記ネットワークの前記他のVRDによって検出された前記発話イベントに基づいて認識された第1の内容を、ローカルに検出された前記発話イベントに基づいて認識された第2の内容と比較することを含む、請求項に記載のコンピュータ可読媒体。
  17. 複数の音声認識装置(VRD)を備えるVRDネットワークにおいて使用する音声認識装置(VRD)であって、前記VRDが、
    マイクと、
    プログラムを実行するコンピュータプロセッサであって、前記プログラムが、前記コンピュータプロセッサにステップを実行させ、前記ステップが、
    前記マイクを介してローカルに検出された発話イベントと関連付けられた特徴の集合を生成するステップであって、前記特徴の集合が、前記発話イベントから認識された話された内容を含む、ステップと、
    前記特徴の集合及び関連付けられたメタデータを前記ネットワークの他のVRDに送信するステップであって、前記メタデータが、前記話された内容の特徴と関連付けられている、ステップと、
    前記ネットワークの前記VRDの各々から、前記ネットワークの前記他のVRDのうちの当該VRDによって検出された前記発話イベントと関連付けられた第2の特徴の集合を受信するステップであって、前記第2の特徴の集合が、前記ネットワークの前記他のVRDのうちの当該VRDによって前記発話イベントから認識された第2の話された内容を含む、ステップと、
    前記特徴の集合と前記第2の特徴の集合との比較に基づいて、前記発話イベントに対応するアクションが前記ネットワークの前記VRDのうちの決定されたVRDによってローカルに実行されるべきであると判断するステップであって、前記判断することが、前記話された内容が前記第2の話された内容と実質的に一致すると判断することを含む、ステップと、
    であり、
    前記ステップが、前記ネットワークの前記VRDのうちの前記決定されたVRDによって前記アクションをローカルに実行することをさらに含む、コンピュータプロセッサと、
    を備える、VRD
  18. 前記プログラムが、
    前記マイクを介してローカルに検出された第2の発話イベントと関連付けられた第3の特徴の集合を生成するステップと、
    前記ネットワークの前記他のVRDの各々から、外部で検出された前記第2の発話イベントと関連付けられた第4の特徴の集合を受信するステップと、
    前記第3の特徴の集合と前記第4の特徴の集合との比較に基づいて、前記発話イベントに対応するアクションが前記ネットワークの前記他のVRDのうちのVRDによって実行されるべきであると判断するステップと、
    前記第2の発話イベントのローカル処理を終了するステップと、
    を、前記コンピュータプロセッサにさらに実行させる、請求項17に記載のVRD
JP2018089922A 2017-05-24 2018-05-08 複数の音声認識装置間の調整 Active JP7202075B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/604,536 US10665232B2 (en) 2017-05-24 2017-05-24 Coordination among multiple voice recognition devices
US15/604,536 2017-05-24

Publications (2)

Publication Number Publication Date
JP2018197855A JP2018197855A (ja) 2018-12-13
JP7202075B2 true JP7202075B2 (ja) 2023-01-11

Family

ID=62186258

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018089922A Active JP7202075B2 (ja) 2017-05-24 2018-05-08 複数の音声認識装置間の調整

Country Status (5)

Country Link
US (1) US10665232B2 (ja)
EP (1) EP3407348B1 (ja)
JP (1) JP7202075B2 (ja)
KR (1) KR20180128838A (ja)
CN (1) CN108962258B (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7062958B2 (ja) * 2018-01-10 2022-05-09 トヨタ自動車株式会社 通信システム、及び通信方法
KR20200074680A (ko) * 2018-12-17 2020-06-25 삼성전자주식회사 단말 장치 및 이의 제어 방법
WO2020175802A1 (en) * 2019-02-27 2020-09-03 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
WO2020196955A1 (ko) * 2019-03-27 2020-10-01 엘지전자 주식회사 인공 지능 기기 및 인공 지능 기기의 동작 방법
US20220301561A1 (en) * 2019-12-10 2022-09-22 Rovi Guides, Inc. Systems and methods for local automated speech-to-text processing
CN113489627A (zh) * 2020-03-16 2021-10-08 深圳市艾特智能科技有限公司 一种智能设备语音唤醒方法、系统、可读存储介质及电子设备
US11798530B2 (en) * 2020-10-30 2023-10-24 Google Llc Simultaneous acoustic event detection across multiple assistant devices
KR20220057989A (ko) * 2020-10-30 2022-05-09 삼성전자주식회사 전자장치 및 그 제어방법
US11749284B2 (en) 2020-11-13 2023-09-05 Google Llc Dynamically adapting on-device models, of grouped assistant devices, for cooperative processing of assistant requests

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170083285A1 (en) 2015-09-21 2017-03-23 Amazon Technologies, Inc. Device selection for providing a response
JP2017072857A (ja) 2014-10-09 2017-04-13 グーグル インコーポレイテッド 複数のデバイス上でのホットワード検出

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0720892A (ja) * 1993-06-30 1995-01-24 Fujitsu Ltd 音声認識装置におけるノイズキャンセリング装置
US9978365B2 (en) * 2008-10-31 2018-05-22 Nokia Technologies Oy Method and system for providing a voice interface
US8660847B2 (en) * 2011-09-02 2014-02-25 Microsoft Corporation Integrated local and cloud based speech recognition
US8340975B1 (en) * 2011-10-04 2012-12-25 Theodore Alfred Rosenberger Interactive speech recognition device and system for hands-free building control
US9514747B1 (en) * 2013-08-28 2016-12-06 Amazon Technologies, Inc. Reducing speech recognition latency
JP6118838B2 (ja) 2014-08-21 2017-04-19 本田技研工業株式会社 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム
US10789041B2 (en) * 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US9812128B2 (en) 2014-10-09 2017-11-07 Google Inc. Device leadership negotiation among voice interface devices
US9734845B1 (en) * 2015-06-26 2017-08-15 Amazon Technologies, Inc. Mitigating effects of electronic audio sources in expression detection
US10026399B2 (en) * 2015-09-11 2018-07-17 Amazon Technologies, Inc. Arbitration between voice-enabled devices
US20170311005A1 (en) * 2016-04-26 2017-10-26 Szu-Tung Lin Method of wireless audio transmission and playback

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017072857A (ja) 2014-10-09 2017-04-13 グーグル インコーポレイテッド 複数のデバイス上でのホットワード検出
US20170083285A1 (en) 2015-09-21 2017-03-23 Amazon Technologies, Inc. Device selection for providing a response

Also Published As

Publication number Publication date
CN108962258A (zh) 2018-12-07
US20180342244A1 (en) 2018-11-29
EP3407348B1 (en) 2022-07-27
CN108962258B (zh) 2023-08-15
KR20180128838A (ko) 2018-12-04
JP2018197855A (ja) 2018-12-13
EP3407348A1 (en) 2018-11-28
US10665232B2 (en) 2020-05-26

Similar Documents

Publication Publication Date Title
JP7202075B2 (ja) 複数の音声認識装置間の調整
US11922095B2 (en) Device selection for providing a response
US11138977B1 (en) Determining device groups
CN110214351B (zh) 记录的媒体热词触发抑制
US10149049B2 (en) Processing speech from distributed microphones
US10431217B2 (en) Audio playback device that dynamically switches between receiving audio data from a soft access point and receiving audio data from a local access point
KR101752119B1 (ko) 다수의 디바이스에서의 핫워드 검출
US20170330566A1 (en) Distributed Volume Control for Speech Recognition
JP6450139B2 (ja) 音声認識装置、音声認識方法、及び音声認識プログラム
JP7470839B2 (ja) クライアントが計算したコンテンツメタデータに基づく音声問合せサービス品質QoS
US9460714B2 (en) Speech processing apparatus and method
US20240257809A1 (en) Multi-device output management
EP4004907B1 (en) Multi-device wakeword detection
US11528571B1 (en) Microphone occlusion detection
JP2019139146A (ja) 音声認識システム、及び、音声認識方法
US20210174811A1 (en) Asynchronous ad-hoc distributed microphone array processing in smart home applications using voice biometrics
EP3539128A1 (en) Processing speech from distributed microphones
US12002444B1 (en) Coordinated multi-device noise cancellation
US12125483B1 (en) Determining device groups

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210409

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221223

R150 Certificate of patent or registration of utility model

Ref document number: 7202075

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150