JP6373985B2 - 音声動作式機能にキーワードモデルを割り当てるための方法および装置 - Google Patents
音声動作式機能にキーワードモデルを割り当てるための方法および装置 Download PDFInfo
- Publication number
- JP6373985B2 JP6373985B2 JP2016525380A JP2016525380A JP6373985B2 JP 6373985 B2 JP6373985 B2 JP 6373985B2 JP 2016525380 A JP2016525380 A JP 2016525380A JP 2016525380 A JP2016525380 A JP 2016525380A JP 6373985 B2 JP6373985 B2 JP 6373985B2
- Authority
- JP
- Japan
- Prior art keywords
- keyword
- model
- electronic device
- specific target
- sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
Landscapes
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Telephonic Communication Services (AREA)
- Telephone Function (AREA)
- Information Transfer Between Computers (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
[0001]本出願は、同一出願人が所有する、2013年7月8日に出願された米国仮特許出願第61/843,650号、および2014年12月10日に出願された米国非仮特許出願第14/101,869号の優先権を主張し、それらの各々の内容の全体が参照により本明細書に明確に組み込まれる。
以下に本願発明の当初の特許請求の範囲に記載された発明を付記する。
[C1]
電子デバイスにおいて、複数のターゲットキーワードからなるリストを受信することと、前記リストが通信ネットワークを介して受信される、
前記複数のターゲットキーワードからなる前記リストから特定のターゲットキーワードを選択することと、
前記通信ネットワークを介して、前記特定のターゲットキーワードに関するキーワードモデルを受信することと、
前記電子デバイスの機能に、前記電子デバイスにおいて受信された入力音において前記キーワードモデルに基づいて前記特定のターゲットキーワードを検出したことに応答して前記機能が実行されるように前記特定のターゲットキーワードを割り当てることと
を備える方法。
[C2]
応答音データを受信することをさらに備え、ここにおいて前記電子デバイスは、前記入力音において前記特定のターゲットキーワードを検出したことに応答して、前記応答音データに基づいて応答音を出力する、C1に記載の方法。
[C3]
前記キーワードモデルは、前記キーワードモデルと互換性情報とを含むキーワードデータファイルにおいて受信され、前記方法は、
前記互換性情報に基づいて、前記キーワードデータファイルが前記電子デバイスのキーワード検出ユニットに適合するかどうかを決定することと、
前記キーワードデータファイルが前記キーワード検出ユニットに適合する場合に、前記キーワードデータファイルから前記キーワードモデルを抽出し、前記抽出されたキーワードモデルを記憶することと
をさらに備える、C1に記載の方法。
[C4]
前記キーワードデータファイルが前記キーワード検出ユニットに適合しない場合に、前記キーワードモデルの第2のバージョンをダウンロードすることと、ここにおいて、前記キーワードモデルの前記第2のバージョンが前記キーワード検出ユニットに適合する、前記キーワードモデルの前記第2のバージョンを記憶することとをさらに備える、C3に記載の方法。
[C5]
前記キーワードデータファイルが前記キーワード検出ユニットに適合しない場合に、
前記通信ネットワークを介してサーバに、前記電子デバイス、前記キーワード検出ユニット、または両方を記述している情報を送ることと、ここにおいて、前記サーバが前記情報に基づいて前記キーワードモデルの第2のバージョンを選択し、ここにおいて、前記キーワードモデルの前記第2のバージョンが前記キーワード検出ユニットに適合する、
前記サーバから前記キーワードモデルの前記第2のバージョンを受信することと、
前記キーワードモデルの前記第2のバージョンを記憶することと
をさらに備える、C3に記載の方法。
[C6]
前記キーワードデータファイルが前記キーワード検出ユニットに適合しない場合に、前記キーワードモデルを第2のバージョンに変換することと、ここにおいて、前記キーワードモデルの前記第2のバージョンが前記キーワード検出ユニットに適合する、前記キーワードモデルの前記第2のバージョンを記憶することとをさらに備える、C3に記載の方法。
[C7]
前記機能に前記特定のターゲットキーワードを割り当てることは、合成キーワードモデルを形成するために、前記キーワードモデルを、第2の特定のターゲットキーワードに関連する少なくとも1つの他のキーワードモデルと合成することを備え、ここにおいて前記第2の特定のターゲットキーワードは、前記電子デバイスの少なくとも1つの他の機能に関連付けられる、C1に記載の方法。
[C8]
前記入力音を受信することと、
前記合成キーワードモデルに基づいて前記入力音において前記特定のターゲットキーワードを検出したことに応答して、前記機能を実行することと、
前記合成キーワードモデルに基づいて前記入力音において前記第2の特定のターゲットキーワードを検出したことに応答して、前記少なくとも1つの他の機能を実行することと
をさらに備える、C7に記載の方法。
[C9]
前記キーワードモデルはアプリケーションファイルにおいて受信され、前記方法は、前記アプリケーションファイルから前記キーワードモデルを抽出することをさらに備え、ここにおいて前記特定のターゲットキーワードが割り当てられる前記機能は、アプリケーションをアクティブ化することを含む、C1に記載の方法。
[C10]
前記特定のターゲットキーワードに関連する音声トーンモデルを受信することをさらに備え、ここにおいて前記音声トーンモデルは、前記電子デバイスによって出力された音声の音声トーンを修正するように適合される、C1に記載の方法。
[C11]
前記音声トーンモデルは、テキストから変換された音声の前記音声トーンを修正するように適合され、前記方法は、
前記入力音を受信することと、
前記キーワードモデルに基づいて前記入力音において前記特定のターゲットキーワードを検出することと、
前記入力音において前記特定のターゲットキーワードが検出された場合に、前記特定のターゲットキーワードに関連する前記音声トーンモデルに基づいて、前記テキストから変換された前記音声の前記音声トーンを修正することと
をさらに備える、C10に記載の方法。
[C12]
前記入力音を受信することと、
前記キーワードモデルに基づいて前記入力音において前記特定のターゲットキーワードを検出することと、
前記入力音において前記特定のターゲットキーワードが検出された場合に、前記機能を実行することと
をさらに備える、C1に記載の方法。
[C13]
前記機能は、音声アシスタントをアクティブ化すること、カメラをアクティブ化すること、音楽プレーヤをアクティブ化すること、ボイスレコーダをアクティブ化すること、写真を撮ること、および前記電子デバイスをロック解除することのうちの1つである、C1に記載の方法。
[C14]
前記キーワードモデルは、ユーザ固有ではなく、前記特定のターゲットキーワードの言語のすべての音素よりも少ない音素をモデル化するための情報を含む、C1に記載の方法。
[C15]
複数のターゲットキーワードからなるリストから特定のターゲットキーワードを選択する入力を受信するためのユーザインターフェースユニットと、
通信ネットワークを介して、前記特定のターゲットキーワードに関するキーワードモデルを受信するように構成されたダウンロード管理ユニットと、
前記電子デバイスの機能に、前記電子デバイスにおいて受信された入力音において前記キーワードモデルに基づいて前記特定のターゲットキーワードを検出したことに応答して前記機能が実行されるように前記特定のターゲットキーワードを割り当てるように構成されたキーワード設定ユニットと
を備える電子デバイス。
[C16]
前記ダウンロード管理ユニットは、前記入力音における前記特定のターゲットキーワードの検出を示す応答音を生成するために応答音データを受信するようにさらに構成される、C15に記載の電子デバイス。
[C17]
前記入力音を受信するように構成された音センサーと、
前記キーワードモデルに基づいて前記入力音において前記特定のターゲットキーワードを検出するように構成されたキーワード検出ユニットと、
前記入力音において前記特定のターゲットキーワードが検出されたときに、前記特定のターゲットキーワードに関連する前記応答音データに基づいて前記応答音を生成するように構成された機能管理ユニットと
をさらに備える、C16に記載の電子デバイス。
[C18]
前記ダウンロード管理ユニットは、テキストから変換された音声の音声トーンを修正するように適合された音声トーンモデルを受信するようにさらに構成される、C15に記載の電子デバイス。
[C19]
前記入力音を受信するように構成された音センサーと、
前記キーワードモデルに基づいて前記入力音において前記特定のターゲットキーワードを検出するように構成されたキーワード検出ユニットと、
前記入力音において前記特定のターゲットキーワードを検出したことに応答して、前記音声トーンモデルに基づいて、前記テキストから変換された前記音声の前記音声トーンを修正するように構成されたTTS(テキスト音声)変換ユニットと
をさらに備える、C18に記載の電子デバイス。
[C20]
前記キーワード設定ユニットは、合成キーワードモデルを形成するために、前記キーワードモデルを、第2の特定のターゲットキーワードに関連する少なくとも1つの他のキーワードモデルと合成するようにさらに構成され、ここにおいて前記第2の特定のターゲットキーワードは、前記電子デバイスの少なくとも1つの他の機能に関連付けられる、C15に記載の電子デバイス。
[C21]
前記入力音を受信するように構成された音センサーと、
前記合成キーワードモデルに基づいて前記入力音においてキーワードを検出するように構成されたキーワード検出ユニットと、
前記合成キーワードモデルに基づいて前記入力音において前記特定のターゲットキーワードが検出されたときに、前記機能を実行し、前記合成キーワードモデルに基づいて前記入力音において前記第2の特定のターゲットキーワードが検出されたときに、前記少なくとも1つの他の機能を実行するように構成された機能管理ユニットと
をさらに備える、C20に記載の電子デバイス。
[C22]
前記ダウンロード管理ユニットは、前記通信ネットワークを介して、アプリケーションファイルを受信するように構成され、ここにおいて前記アプリケーションファイルは、前記特定のターゲットキーワードに関する前記キーワードモデルを含み、前記電子デバイスは、前記アプリケーションファイルから前記キーワードモデルを抽出するように構成された抽出ユニットをさらに備え、ここにおいて前記キーワード設定ユニットは、前記アプリケーションに、前記キーワードモデルに基づいて前記入力音において前記特定のターゲットキーワードを検出したことに応答して前記アプリケーションをアクティブ化するために前記特定のターゲットキーワードを割り当てるように構成される、C15に記載の電子デバイス。
[C23]
前記入力音を受信するように構成された音センサーと、
前記キーワードモデルに基づいて前記入力音において前記特定のターゲットキーワードを検出するように構成されたキーワード検出ユニットと、
前記入力音において前記特定のターゲットキーワードを検出したことに応答して、前記アプリケーションをアクティブ化するように構成された機能管理ユニットと
をさらに備える、C22に記載の電子デバイス。
[C24]
前記入力音を受信するように構成された音センサーと、
前記キーワードモデルに基づいて前記入力音において前記特定のターゲットキーワードを検出するように構成されたキーワード検出ユニットと、
前記入力音において前記特定のターゲットキーワードを検出したことに応答して前記機能を実行するように構成された機能管理ユニットと
をさらに備える、C15に記載の電子デバイス。
[C25]
複数のターゲットキーワードからなるリストから特定のターゲットキーワードを選択する入力を受信するための手段と、
通信ネットワークを介して、前記特定のターゲットキーワードに関するキーワードモデルを受信するための手段と、
機能に、前記電子デバイスにおいて受信された入力音において前記キーワードモデルに基づいて前記特定のターゲットキーワードを検出したことに応答して前記機能が実行されるように前記特定のターゲットキーワードを割り当てるための手段と
を備える電子デバイス。
[C26]
前記キーワードモデルを受信するための前記手段は、応答音データを受信するように構成され、前記電子デバイスは、
前記入力音を受信するための手段と、
前記キーワードモデルに基づいて前記入力音において前記特定のターゲットキーワードを検出するための手段と、
前記入力音において前記特定のターゲットキーワードを検出したことに応答して、前記特定のターゲットキーワードに関連する前記応答音データに基づいて応答音を生成するための手段と
をさらに備える、C25に記載の電子デバイス。
[C27]
前記キーワードモデルは、前記キーワードモデルと互換性情報とを含むキーワードデータファイルにおいて受信され、前記電子デバイスは、
前記入力音においてキーワードを検出するための手段と、
前記互換性情報に基づいて、前記キーワードデータファイルが、前記入力音においてキーワードを検出するための前記手段に適合するかどうかを決定するための手段と、
前記キーワードデータファイルが、前記入力音においてキーワードを検出するための前記手段に適合する場合に、前記キーワードデータファイルから前記キーワードモデルを抽出するための手段と
をさらに備える、C25に記載の電子デバイス。
[C28]
前記キーワードモデルを受信するための前記手段は、前記キーワードデータファイルが、前記入力音においてキーワードを検出するための前記手段に適合しない場合に、前記キーワードモデルの第2のバージョンを受信するように構成される、C27に記載の電子デバイス。
[C29]
機能にターゲットキーワードを割り当てるための命令を記憶する非一時的コンピュータ可読記憶媒体であって、前記命令が、
電子デバイスにおいて、複数のターゲットキーワードからなるリストを受信することと、前記リストが通信ネットワークを介して受信される、
前記複数のターゲットキーワードからなる前記リストから特定のターゲットキーワードを選択することと、
前記通信ネットワークを介して、前記特定のターゲットキーワードに関するキーワードモデルを受信することと、
前記電子デバイスの機能に、前記電子デバイスにおいて受信された入力音において前記キーワードモデルに基づいて前記特定のターゲットキーワードを検出したことに応答して前記機能が実行されるように前記特定のターゲットキーワードを割り当てることと
を行う動作をプロセッサに実行させる、非一時的コンピュータ可読記憶媒体。
[C30]
前記キーワードモデルは、ユーザ固有ではなく、前記特定のターゲットキーワードの言語のすべての音素よりも少ない音素をモデル化するための情報を含む、C29に記載の非一時的コンピュータ可読記憶媒体。
Claims (30)
- 電子デバイスにおいて、複数のターゲットキーワードからなるリストを受信することと、前記リストが通信ネットワークを介して受信される、
前記電子デバイスにおいて、前記複数のターゲットキーワードからなる前記リストから特定のターゲットキーワードを選択するユーザ入力を受信することと、
前記ユーザ入力に応答して、
前記通信ネットワークを介して、前記電子デバイスにおいて、キーワードデータファイルを受信することと、前記キーワードデータファイルは、前記特定のターゲットキーワードに関するキーワードモデルを含み、互換性情報を含む、
前記互換性情報に基づいて、前記キーワードデータファイルが前記電子デバイスのキーワード検出ユニットに適合するかどうかを決定することと、
前記キーワードデータファイルが前記キーワード検出ユニットに適合しないという決定に基づいて前記キーワードモデルの第2のバージョンを受信することと、
前記電子デバイスにおいて受信された入力音が前記特定のターゲットキーワードを含むことを、前記キーワードモデルに基づいて検出したことに応答して前記電子デバイスの機能がアクティブ化されるように、前記電子デバイスにおいて、前記機能に前記特定のターゲットキーワードを割り当てることと
を備える方法。 - 前記電子デバイスにおいて、応答音データを受信することと、
前記特定のターゲットキーワードが前記入力音に含まれるかどうかを検出することと、
前記入力音に前記特定のターゲットキーワードが含まれることを検出したことに応答して、前記応答音データに基づいて、前記電子デバイスにおいて応答音を出力することと
をさらに備える、請求項1に記載の方法。 - 前記キーワードデータファイルが前記キーワード検出ユニットに適合するという決定に応答して、前記キーワードデータファイルから前記キーワードモデルを抽出し、前記キーワードモデルを記憶することをさらに備える、請求項1に記載の方法。
- 前記キーワードモデルの前記第2のバージョンが前記キーワード検出ユニットに適合し、前記キーワードモデルの前記第2のバージョンを記憶することをさらに備える、請求項1に記載の方法。
- 前記キーワードデータファイルが前記キーワード検出ユニットに適合しないという決定に応答して、
前記通信ネットワークを介してサーバに、前記電子デバイス、前記キーワード検出ユニット、または両方を記述している情報を送ることと、ここにおいて、前記サーバが前記情報に基づいて前記キーワードモデルの前記第2のバージョンを選択し、ここにおいて、前記キーワードモデルの前記第2のバージョンが前記キーワード検出ユニットに適合する、
前記サーバから前記キーワードモデルの前記第2のバージョンを受信することと、
前記電子デバイスにおいて、前記キーワードモデルの前記第2のバージョンを記憶することと
をさらに備える、請求項1に記載の方法。 - 前記キーワードデータファイルが前記キーワード検出ユニットに適合しないという決定に応答して、前記キーワードモデルを前記第2のバージョンに変換することと、ここにおいて、前記キーワードモデルの前記第2のバージョンが前記キーワード検出ユニットに適合し、前記キーワードモデルの前記第2のバージョンを記憶することとをさらに備える、請求項1に記載の方法。
- 前記機能に前記特定のターゲットキーワードを割り当てることは、合成キーワードモデルを形成するために、前記キーワードモデルを、前記複数のターゲットキーワードからの第2の特定のターゲットキーワードに関連する少なくとも1つの他のキーワードモデルと合成することを備え、前記第2の特定のターゲットキーワードは、前記電子デバイスの少なくとも1つの他の機能に関連付けられる、請求項1に記載の方法。
- 前記電子デバイスにおいて前記入力音を受信することと、
前記合成キーワードモデルに基づいて、前記特定のターゲットキーワード、前記第2の特定のターゲットキーワード、またはこれらの組合せが前記入力音に含まれるかどうかを、前記電子デバイスにおいて検出することと、
前記特定のターゲットキーワードが前記入力音に含まれることを検出したことに応答して、前記機能を実行することと、
前記第2の特定のターゲットキーワードが前記入力音に含まれることを検出したことに応答して、前記少なくとも1つの他の機能を実行することと
をさらに備える、請求項7に記載の方法。 - 前記キーワードデータファイルはアプリケーションファイルを含み、前記方法は、前記アプリケーションファイルから前記キーワードモデルを抽出することをさらに備え、ここにおいて前記特定のターゲットキーワードが割り当てられる前記機能は、前記アプリケーションファイルをアクティブ化することを含む、請求項1に記載の方法。
- 前記特定のターゲットキーワードに関連する音声トーンモデルを受信することをさらに備え、ここにおいて前記音声トーンモデルは、前記電子デバイスによって出力された音声の音声トーンを修正するように適合される、請求項1に記載の方法。
- 前記音声トーンモデルは、テキストから変換された音声の前記音声トーンを修正するように適合され、前記方法は、
前記電子デバイスにおいて前記入力音を受信することと、
前記キーワードモデルに基づいて前記入力音において前記特定のターゲットキーワードを検出することと、
前記入力音に前記特定のターゲットキーワードが含まれることを検出したことに応答して、前記特定のターゲットキーワードに関連する前記音声トーンモデルに基づいて、前記テキストから変換された前記音声の前記音声トーンを修正することと
をさらに備える、請求項10に記載の方法。 - 前記電子デバイスにおいて前記入力音を受信することと、
前記キーワードモデルに基づいて前記入力音において前記特定のターゲットキーワードを検出することと、
前記特定のターゲットキーワードが前記入力音に含まれることを検出したことに応答して、前記機能をアクティブ化することと、ここにおいて、前記機能をアクティブ化することは、前記電子デバイスに前記機能を実行させる命令を実行することを備える、
をさらに備える、請求項1に記載の方法。 - 前記機能は、音声アシスタントをアクティブ化すること、カメラをアクティブ化すること、音楽プレーヤをアクティブ化すること、ボイスレコーダをアクティブ化すること、写真を撮ること、前記電子デバイスをロック解除すること、またはこれらの組合せを備える、請求項1に記載の方法。
- 前記機能に前記特定のターゲットキーワードを割り当てるより前に、前記電子デバイスのユーザインターフェースを介して前記機能の選択を受信することをさらに備える、請求項1に記載の方法。
- 複数のターゲットキーワードからなるリストから特定のターゲットキーワードを選択する入力を受信するためのユーザインターフェースユニットと、
前記入力に応答して、通信ネットワークを介して、キーワードデータファイルを受信するように構成されたダウンロード管理ユニットと、前記キーワードデータファイルは、前記特定のターゲットキーワードのためのキーワードモデルを含み、互換性情報を含む、
前記互換性情報に基づいて、前記キーワードデータファイルがキーワード検出ユニットに適合するかどうかを決定するように構成された確認ユニットと、ここにおいて、前記ダウンロード管理ユニットは、前記キーワードデータファイルが前記キーワード検出ユニットに適合しないという決定に基づいて、前記キーワードモデルの第2のバージョンを受信するように構成される、
電子デバイスにおいて受信された入力音が前記特定のターゲットキーワードを含むことを、前記キーワードモデルに基づいて検出したことに応答して前記電子デバイスの機能がアクティブ化されるように、前記入力に応答して、前記機能に前記特定のターゲットキーワードを割り当てるように構成されたキーワード設定ユニットと
を備える電子デバイス。 - 前記ダウンロード管理ユニットは、応答音データを受信するようにさらに構成され、前記応答音データは、前記入力音に前記特定のターゲットキーワードが含まれるという検出を示す応答音を生成するために使用される、請求項15に記載の電子デバイス。
- 前記入力音を受信するように構成された音センサーと、ここにおいて、前記キーワード検出ユニットは、前記キーワードモデルに基づいて前記入力音に前記特定のターゲットキーワードが含まれるかどうかを検出するように構成される、
前記入力音に前記特定のターゲットキーワードが含まれることを検出したことに応答して、前記特定のターゲットキーワードに関連する前記応答音データに基づいて前記応答音を生成するように構成された機能管理ユニットと
をさらに備える、請求項16に記載の電子デバイス。 - 前記ダウンロード管理ユニットは、テキストから変換された音声の音声トーンを修正するように適合された音声トーンモデルを受信するようにさらに構成される、請求項15に記載の電子デバイス。
- 前記入力音を受信するように構成された音センサーと、
前記キーワードモデルに基づいて前記入力音に前記特定のターゲットキーワードが含まれることを検出するように構成されたキーワード検出ユニットと、
前記入力音における前記特定のターゲットキーワードの検出に応答して、前記音声トーンモデルに基づいて、前記テキストから変換された前記音声の前記音声トーンを修正するように構成されたテキスト音声(TTS)変換ユニットと
をさらに備える、請求項18に記載の電子デバイス。 - 前記キーワード設定ユニットは、合成キーワードモデルを形成するために、前記キーワードモデルを、第2の特定のターゲットキーワードに関連する少なくとも1つの他のキーワードモデルと合成するようにさらに構成され、ここにおいて前記第2の特定のターゲットキーワードは、前記電子デバイスの少なくとも1つの他の機能に関連付けられる、請求項15に記載の電子デバイス。
- 前記入力音を受信するように構成された音センサーと、
前記合成キーワードモデルに基づいて前記入力音にキーワードが含まれるかどうかを検出するように構成されたキーワード検出ユニットと、
前記合成キーワードモデルに基づいて前記入力音における前記特定のターゲットキーワードの検出に応答して、前記機能をアクティブ化することと、
前記合成キーワードモデルに基づいて前記入力音における前記第2の特定のターゲットキーワードの検出に応答して、前記少なくとも1つの他の機能をアクティブ化することと
を行うように構成された機能管理ユニットと
をさらに備える、請求項20に記載の電子デバイス。 - 前記ダウンロード管理ユニットは、前記通信ネットワークを介して、アプリケーションファイルを受信するように構成され、ここにおいて前記アプリケーションファイルは、前記キーワードデータファイルを含み、前記電子デバイスは、前記アプリケーションファイルから前記キーワードデータファイルを抽出するように構成された抽出ユニットをさらに備え、ここにおいて前記キーワード設定ユニットは、前記アプリケーションファイルに、前記キーワードモデルに基づいて前記入力音において前記特定のターゲットキーワードを検出したことに応答してアプリケーションをアクティブ化するために前記特定のターゲットキーワードを割り当てるように構成される、請求項15に記載の電子デバイス。
- 前記入力音を受信するように構成された音センサーと、
前記キーワードモデルに基づいて前記入力音に前記特定のターゲットキーワードが含まれるかどうかを検出するように構成されたキーワード検出ユニットと、
前記入力音に前記特定のターゲットキーワードが含まれることを検出したことに応答して、前記アプリケーションをアクティブ化するように構成された機能管理ユニットと
をさらに備える、請求項22に記載の電子デバイス。 - 前記入力音を受信するように構成された音センサーと、
前記キーワードモデルに基づいて前記入力音に前記特定のターゲットキーワードが含まれるかどうかを検出するように構成されたキーワード検出ユニットと、
前記入力音に前記特定のターゲットキーワードが含まれることを検出したことに応答して前記機能を実行するように構成された機能管理ユニットと
をさらに備える、請求項15に記載の電子デバイス。 - 複数のターゲットキーワードからなるリストから特定のターゲットキーワードを選択する入力を受信するための手段と、
前記特定のターゲットキーワードに応答して、通信ネットワークを介して、キーワードデータファイルを受信するための手段と、前記キーワードデータファイルは、前記特定のターゲットキーワードに関するキーワードモデルを含み、互換性情報を含む、
前記互換性情報に基づいて、前記キーワードデータファイルが入力音においてキーワードを検出するための手段に適合するかどうかを決定するための手段と、ここにおいて、前記キーワードデータファイルを受信するための前記手段は、前記キーワードデータファイルが前記入力音においてキーワードを検出するための前記手段に適合しないという決定に基づいて、前記キーワードモデルの第2のバージョンを受信するように構成される、
電子デバイスにおいて受信された前記入力音が前記特定のターゲットキーワードを含むことを、前記キーワードモデルに基づいて検出したことに応答して機能がアクティブ化されるように、前記入力に応答して前記機能に前記特定のターゲットキーワードを割り当てるための手段と
を備える電子デバイス。 - 前記キーワードモデルを受信するための前記手段は、応答音データを受信するように構成され、キーワードを検出するための前記手段は、前記入力音に前記特定のターゲットキーワードが含まれるかどうかを決定するように構成され、前記電子デバイスは、
前記入力音を受信するための手段と、
前記入力音に前記特定のターゲットキーワードが含まれることを検出したことに応答して、前記特定のターゲットキーワードに関連する前記応答音データに基づいて応答音を生成するための手段と
をさらに備える、請求項25に記載の電子デバイス。 - 前記キーワードデータファイルが、前記入力音においてキーワードを検出するための前記手段に適合するという決定に応答して、前記キーワードデータファイルから前記キーワードモデルを抽出するための手段
をさらに備える、請求項25に記載の電子デバイス。 - 前記キーワードモデルの前記第2のバージョンは、キーワードを検出するための前記手段に適合し、前記キーワードモデルの前記第2のバージョンを記憶することをさらに備える、請求項27に記載の電子デバイス。
- 命令を記憶する非一時的コンピュータ可読記憶媒体であって、前記命令が、
電子デバイスにおいて、複数のターゲットキーワードからなるリストを受信することと、前記リストが通信ネットワークを介して受信される、
前記複数のターゲットキーワードからなる前記リストから特定のターゲットキーワードを選択するユーザ入力を受信することと、
前記ユーザ入力に応答して、
前記通信ネットワークを介して、キーワードデータファイルを受信することと、前記キーワードデータファイルは、前記特定のターゲットキーワードに関するキーワードモデルを含み、互換性情報を含む、
前記互換性情報に基づいて、前記キーワードデータファイルが前記電子デバイスに適合するかどうかを決定することと、
前記キーワードデータファイルがキーワード検出ユニットに適合しないという決定に基づいて前記キーワードモデルの第2のバージョンを受信することと、
前記電子デバイスにおいて受信された入力音が前記特定のターゲットキーワードを含むことを、前記キーワードモデルに基づいて検出したことに応答して前記電子デバイスの機能がアクティブ化されるように、前記電子デバイスにおいて、前記機能に前記特定のターゲットキーワードを割り当てることと
をプロセッサに行わせる、非一時的コンピュータ可読記憶媒体。 - 前記キーワードモデルは、ユーザ固有ではなく、前記特定のターゲットキーワードの言語の音素のサブセットをモデル化するための情報を含む、請求項29に記載の非一時的コンピュータ可読記憶媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361843650P | 2013-07-08 | 2013-07-08 | |
US61/843,650 | 2013-07-08 | ||
US14/101,869 | 2013-12-10 | ||
US14/101,869 US9786296B2 (en) | 2013-07-08 | 2013-12-10 | Method and apparatus for assigning keyword model to voice operated function |
PCT/US2014/045193 WO2015006116A1 (en) | 2013-07-08 | 2014-07-02 | Method and apparatus for assigning keyword model to voice operated function |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016532146A JP2016532146A (ja) | 2016-10-13 |
JP2016532146A5 JP2016532146A5 (ja) | 2017-12-21 |
JP6373985B2 true JP6373985B2 (ja) | 2018-08-15 |
Family
ID=52133403
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016525380A Active JP6373985B2 (ja) | 2013-07-08 | 2014-07-02 | 音声動作式機能にキーワードモデルを割り当てるための方法および装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9786296B2 (ja) |
EP (1) | EP3020040B1 (ja) |
JP (1) | JP6373985B2 (ja) |
KR (1) | KR101922782B1 (ja) |
CN (1) | CN105340006B (ja) |
WO (1) | WO2015006116A1 (ja) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10770075B2 (en) * | 2014-04-21 | 2020-09-08 | Qualcomm Incorporated | Method and apparatus for activating application by speech input |
CN105404625A (zh) * | 2014-09-03 | 2016-03-16 | 富泰华工业(深圳)有限公司 | 应用程序的查找方法与系统 |
US9805714B2 (en) * | 2016-03-22 | 2017-10-31 | Asustek Computer Inc. | Directional keyword verification method applicable to electronic device and electronic device using the same |
CN105845125B (zh) * | 2016-05-18 | 2019-05-03 | 百度在线网络技术(北京)有限公司 | 语音合成方法和语音合成装置 |
US10276161B2 (en) * | 2016-12-27 | 2019-04-30 | Google Llc | Contextual hotwords |
CN106898352B (zh) * | 2017-02-27 | 2020-09-25 | 联想(北京)有限公司 | 语音控制方法及电子设备 |
CN110444199B (zh) * | 2017-05-27 | 2022-01-07 | 腾讯科技(深圳)有限公司 | 一种语音关键词识别方法、装置、终端及服务器 |
CN109151155B (zh) * | 2017-06-27 | 2021-03-23 | 北京搜狗科技发展有限公司 | 一种通信处理方法、装置及机器可读介质 |
CN107221332A (zh) * | 2017-06-28 | 2017-09-29 | 上海与德通讯技术有限公司 | 机器人的交互方法及系统 |
CN107564517A (zh) | 2017-07-05 | 2018-01-09 | 百度在线网络技术(北京)有限公司 | 语音唤醒方法、设备及系统、云端服务器与可读介质 |
JP6752870B2 (ja) * | 2017-12-18 | 2020-09-09 | ネイバー コーポレーションNAVER Corporation | 複数のウェイクワードを利用して人工知能機器を制御する方法およびシステム |
KR102079979B1 (ko) * | 2017-12-28 | 2020-02-21 | 네이버 주식회사 | 인공지능 기기에서의 복수의 호출 용어를 이용한 서비스 제공 방법 및 그 시스템 |
KR102361458B1 (ko) * | 2018-01-25 | 2022-02-10 | 삼성전자주식회사 | 사용자 발화 응답 방법 및 이를 지원하는 전자 장치 |
KR20190114321A (ko) | 2018-03-29 | 2019-10-10 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
CN108665900B (zh) | 2018-04-23 | 2020-03-03 | 百度在线网络技术(北京)有限公司 | 云端唤醒方法及系统、终端以及计算机可读存储介质 |
US11815936B2 (en) | 2018-08-22 | 2023-11-14 | Microstrategy Incorporated | Providing contextually-relevant database content based on calendar data |
US11714955B2 (en) | 2018-08-22 | 2023-08-01 | Microstrategy Incorporated | Dynamic document annotations |
US11682390B2 (en) * | 2019-02-06 | 2023-06-20 | Microstrategy Incorporated | Interactive interface for analytics |
KR20200099380A (ko) * | 2019-02-14 | 2020-08-24 | 삼성전자주식회사 | 음성 인식 서비스를 제공하는 방법 및 그 전자 장치 |
CN112534771B (zh) * | 2019-07-17 | 2024-04-19 | 谷歌有限责任公司 | 在基于声学的数字助理应用中验证触发关键字的系统和方法 |
KR102433964B1 (ko) * | 2019-09-30 | 2022-08-22 | 주식회사 오투오 | 관계 설정을 이용한 실감형 인공지능기반 음성 비서시스템 |
KR20210044606A (ko) | 2019-10-15 | 2021-04-23 | 삼성전자주식회사 | 웨이크업 모델 생성 방법 및 이를 위한 전자 장치 |
KR20210045241A (ko) | 2019-10-16 | 2021-04-26 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 음성 명령어 공유 방법 |
KR20210094251A (ko) * | 2020-01-21 | 2021-07-29 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어방법 |
CN115334030B (zh) * | 2022-08-08 | 2023-09-19 | 阿里健康科技(中国)有限公司 | 语音消息显示方法及装置 |
WO2024072036A1 (ko) * | 2022-09-30 | 2024-04-04 | 삼성전자 주식회사 | 음성인식 장치 및 음성인식 장치의 동작방법 |
US11790107B1 (en) | 2022-11-03 | 2023-10-17 | Vignet Incorporated | Data sharing platform for researchers conducting clinical trials |
Family Cites Families (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5054082A (en) | 1988-06-30 | 1991-10-01 | Motorola, Inc. | Method and apparatus for programming devices to recognize voice commands |
JPH1078952A (ja) | 1996-07-29 | 1998-03-24 | Internatl Business Mach Corp <Ibm> | 音声合成方法、音声合成装置、ハイパーテキストの制御方法及び制御装置 |
US6092192A (en) * | 1998-01-16 | 2000-07-18 | International Business Machines Corporation | Apparatus and methods for providing repetitive enrollment in a plurality of biometric recognition systems based on an initial enrollment |
US6128482A (en) * | 1998-12-22 | 2000-10-03 | General Motors Corporation | Providing mobile application services with download of speaker independent voice model |
US6442519B1 (en) | 1999-11-10 | 2002-08-27 | International Business Machines Corp. | Speaker model adaptation via network of similar users |
US7219058B1 (en) * | 2000-10-13 | 2007-05-15 | At&T Corp. | System and method for processing speech recognition results |
US6885735B2 (en) * | 2001-03-29 | 2005-04-26 | Intellisist, Llc | System and method for transmitting voice input from a remote location over a wireless data channel |
US20030005412A1 (en) * | 2001-04-06 | 2003-01-02 | Eanes James Thomas | System for ontology-based creation of software agents from reusable components |
US20030007609A1 (en) * | 2001-07-03 | 2003-01-09 | Yuen Michael S. | Method and apparatus for development, deployment, and maintenance of a voice software application for distribution to one or more consumers |
US6810378B2 (en) | 2001-08-22 | 2004-10-26 | Lucent Technologies Inc. | Method and apparatus for controlling a speech synthesis system to provide multiple styles of speech |
US7054817B2 (en) * | 2002-01-25 | 2006-05-30 | Canon Europa N.V. | User interface for speech model generation and testing |
WO2003073417A2 (en) | 2002-02-26 | 2003-09-04 | Sap Aktiengesellschaft | Intelligent personal assistants |
US7099825B1 (en) | 2002-03-15 | 2006-08-29 | Sprint Communications Company L.P. | User mobility in a voice recognition environment |
JP2004164466A (ja) * | 2002-11-15 | 2004-06-10 | Sony Corp | 情報更新システム、情報処理装置および情報更新方法 |
EP1564721A1 (en) | 2002-11-21 | 2005-08-17 | Matsushita Electric Industrial Co., Ltd. | Standard model creating device and standard model creating method |
US7437294B1 (en) * | 2003-11-21 | 2008-10-14 | Sprint Spectrum L.P. | Methods for selecting acoustic model for use in a voice command platform |
JP2008529101A (ja) | 2005-02-03 | 2008-07-31 | ボイス シグナル テクノロジーズ インコーポレイテッド | 移動通信装置の音声語彙を自動的に拡張するための方法及び装置 |
US7706510B2 (en) | 2005-03-16 | 2010-04-27 | Research In Motion | System and method for personalized text-to-voice synthesis |
JP4843987B2 (ja) * | 2005-04-05 | 2011-12-21 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US7949529B2 (en) * | 2005-08-29 | 2011-05-24 | Voicebox Technologies, Inc. | Mobile systems and methods of supporting natural language human-machine interactions |
US7941316B2 (en) * | 2005-10-28 | 2011-05-10 | Microsoft Corporation | Combined speech and alternate input modality to a mobile device |
JP5208104B2 (ja) * | 2006-05-12 | 2013-06-12 | ニュアンス コミュニケーションズ オーストリア ゲーエムベーハー | 第1の適応化データ処理バージョンから第2の適応化データ処理バージョンに切り替えるための方法 |
US8234120B2 (en) * | 2006-07-26 | 2012-07-31 | Nuance Communications, Inc. | Performing a safety analysis for user-defined voice commands to ensure that the voice commands do not cause speech recognition ambiguities |
US7689417B2 (en) * | 2006-09-04 | 2010-03-30 | Fortemedia, Inc. | Method, system and apparatus for improved voice recognition |
US7831431B2 (en) * | 2006-10-31 | 2010-11-09 | Honda Motor Co., Ltd. | Voice recognition updates via remote broadcast signal |
US8886537B2 (en) | 2007-03-20 | 2014-11-11 | Nuance Communications, Inc. | Method and system for text-to-speech synthesis with personalized voice |
US20090132920A1 (en) * | 2007-11-20 | 2009-05-21 | Microsoft Corporation | Community-based software application help system |
JP5266761B2 (ja) * | 2008-01-10 | 2013-08-21 | 日産自動車株式会社 | 情報案内システムおよびその認識辞書データベース更新方法 |
US8255224B2 (en) * | 2008-03-07 | 2012-08-28 | Google Inc. | Voice recognition grammar selection based on context |
US8626511B2 (en) * | 2010-01-22 | 2014-01-07 | Google Inc. | Multi-dimensional disambiguation of voice commands |
US8468012B2 (en) * | 2010-05-26 | 2013-06-18 | Google Inc. | Acoustic model adaptation using geographic information |
US9484018B2 (en) * | 2010-11-23 | 2016-11-01 | At&T Intellectual Property I, L.P. | System and method for building and evaluating automatic speech recognition via an application programmer interface |
JP5494468B2 (ja) * | 2010-12-27 | 2014-05-14 | 富士通株式会社 | 状態検出装置、状態検出方法および状態検出のためのプログラム |
DE112011105407T5 (de) * | 2011-07-05 | 2014-04-30 | Mitsubishi Electric Corporation | Spracherkennungsvorrichtung und Navigationsvorrichtung |
US20130085753A1 (en) * | 2011-09-30 | 2013-04-04 | Google Inc. | Hybrid Client/Server Speech Recognition In A Mobile Device |
US9329751B2 (en) * | 2011-10-07 | 2016-05-03 | Predictive Analystics Solutions Pvt. Ltd. | Method and a system to generate a user interface for analytical models |
JP2013254483A (ja) * | 2012-05-11 | 2013-12-19 | Ricoh Co Ltd | 情報処理装置、情報処理装置の制御プログラム、画像形成装置 |
US20150088523A1 (en) * | 2012-09-10 | 2015-03-26 | Google Inc. | Systems and Methods for Designing Voice Applications |
US8935167B2 (en) * | 2012-09-25 | 2015-01-13 | Apple Inc. | Exemplar-based latent perceptual modeling for automatic speech recognition |
US8719229B1 (en) * | 2012-10-12 | 2014-05-06 | Autodesk, Inc. | Cloud platform for managing design data |
EP2987312B1 (en) * | 2013-04-15 | 2020-08-19 | Cerence Operating Company | System and method for acoustic echo cancellation |
US9767799B2 (en) * | 2013-05-21 | 2017-09-19 | Mitsubishi Electric Corporation | Voice recognition system and recognition result display apparatus |
-
2013
- 2013-12-10 US US14/101,869 patent/US9786296B2/en active Active
-
2014
- 2014-07-02 EP EP14742119.2A patent/EP3020040B1/en active Active
- 2014-07-02 CN CN201480034623.9A patent/CN105340006B/zh active Active
- 2014-07-02 KR KR1020167002208A patent/KR101922782B1/ko active IP Right Grant
- 2014-07-02 WO PCT/US2014/045193 patent/WO2015006116A1/en active Application Filing
- 2014-07-02 JP JP2016525380A patent/JP6373985B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
CN105340006A (zh) | 2016-02-17 |
CN105340006B (zh) | 2019-05-03 |
KR101922782B1 (ko) | 2018-11-27 |
WO2015006116A9 (en) | 2015-05-21 |
JP2016532146A (ja) | 2016-10-13 |
US20150012279A1 (en) | 2015-01-08 |
EP3020040B1 (en) | 2018-12-19 |
EP3020040A1 (en) | 2016-05-18 |
WO2015006116A1 (en) | 2015-01-15 |
KR20160030199A (ko) | 2016-03-16 |
US9786296B2 (en) | 2017-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6373985B2 (ja) | 音声動作式機能にキーワードモデルを割り当てるための方法および装置 | |
CN106663430B (zh) | 使用用户指定关键词的说话者不相依关键词模型的关键词检测 | |
US20220394442A1 (en) | Routing queries based on carrier phrase registration | |
CN107210033B (zh) | 基于众包来更新用于数字个人助理的语言理解分类器模型 | |
KR101649771B1 (ko) | 발성 처리를 위한 인식기들의 마크업 언어 기반 선택 및 이용 | |
US8682640B2 (en) | Self-configuring language translation device | |
US20150193199A1 (en) | Tracking music in audio stream | |
CN112470217A (zh) | 用于确定要执行语音识别的电子装置的方法及电子装置 | |
CN111312233A (zh) | 一种语音数据的识别方法、装置及系统 | |
KR20190122457A (ko) | 음성 인식을 수행하는 전자 장치 및 전자 장치의 동작 방법 | |
US9224388B2 (en) | Sound recognition method and system | |
US11948564B2 (en) | Information processing device and information processing method | |
JP6944920B2 (ja) | スマートインタラクティブの処理方法、装置、設備及びコンピュータ記憶媒体 | |
CN112148754A (zh) | 一种歌曲识别方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170605 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170605 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171102 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20171102 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20171211 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180406 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180619 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180718 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6373985 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |