JP2016526178A - ターゲットキーワードを検出するための方法および装置 - Google Patents
ターゲットキーワードを検出するための方法および装置 Download PDFInfo
- Publication number
- JP2016526178A JP2016526178A JP2016512922A JP2016512922A JP2016526178A JP 2016526178 A JP2016526178 A JP 2016526178A JP 2016512922 A JP2016512922 A JP 2016512922A JP 2016512922 A JP2016512922 A JP 2016512922A JP 2016526178 A JP2016526178 A JP 2016526178A
- Authority
- JP
- Japan
- Prior art keywords
- state
- keyword
- score
- states
- target keyword
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 87
- 230000007704 transition Effects 0.000 claims description 95
- 230000004913 activation Effects 0.000 claims description 77
- 230000011218 segmentation Effects 0.000 claims description 9
- 239000000284 extract Substances 0.000 abstract description 11
- 238000010586 diagram Methods 0.000 description 29
- 230000006870 function Effects 0.000 description 25
- 238000001514 detection method Methods 0.000 description 20
- 238000012545 processing Methods 0.000 description 18
- 238000004891 communication Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 5
- 230000001413 cellular effect Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 101000574648 Homo sapiens Retinoid-inducible serine carboxypeptidase Proteins 0.000 description 3
- 102100025483 Retinoid-inducible serine carboxypeptidase Human genes 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000009849 deactivation Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000000945 filler Substances 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000010977 unit operation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
- G10L15/142—Hidden Markov Models [HMMs]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Telephone Function (AREA)
- Input From Keyboards Or The Like (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
[0001]本出願は、各々の内容全体が参照により本明細書に明確に組み込まれる、同一出願人が所有する、2013年5月7日に出願された米国仮特許出願第61/820,498号、2013年7月26日に出願された米国仮特許出願第61/859,058号、および2013年11月22日に出願された米国非仮特許出願第14/087,939号の優先権を主張する。
方法は、入力音声を受け取り、入力音声から複数の音声特徴を抽出する。さらに、方法は、ターゲットキーワードの複数の部分に関連付けられた状態情報を取得する。状態情報は、ターゲットキーワードの部分に関連付けられた複数の状態に対する複数の持続時間範囲を含む。抽出された音声特徴と状態情報とに基づいて、入力音声がターゲットキーワードとして検出される。本開示は、本方法に関係する装置、デバイス、システム、手段の組合せ、およびコンピュータ可読媒体についても説明する。
以下に、出願当初の特許請求の範囲に記載された発明を付記する。
[C1]ターゲットキーワードを検出するための方法であって、前記ターゲットキーワードが、冒頭の部分と複数の後続の部分とを含み、前記方法が、
電子デバイスにおいて、前記ターゲットキーワードの前記後続の部分のうちの1つから始まる入力音声を受け取ることと、
前記入力音声から音声特徴を抽出することと、
状態ネットワークを記述しているデータを取得することと、ここにおいて、前記状態ネットワークは、単一の開始状態と、複数のエントリ状態とを含み、前記単一の開始状態から前記複数のエントリ状態の各々に遷移する、
前記抽出された音声特徴と前記状態ネットワークとに基づいて、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することと
を備える、方法。
[C2]前記入力音声を受け取ることが、前記電子デバイスに関連付けられたデューティサイクルに基づいて入力音声ストリームを受け取ることを備える、C1に記載の方法。
[C3]前記エントリ状態に対応するデータが、
前記電子デバイスのフルデューティサイクルに基づいて、前記ターゲットキーワードの前記冒頭の部分と前記複数の後続の部分とに対応する基準入力音声を受け取ることと、
前記基準入力音声に対する複数の基準状態シーケンスを決定することと、
前記基準状態シーケンスにおける複数の状態に対する状態時間期間を決定することと、
前記状態時間期間と前記フルデューティサイクルの非アクティブ期間とに基づいて、前記エントリ状態を決定することと
によって前記電子デバイスに記憶される、C2に記載の方法。
[C4]前記基準状態シーケンスにおける前記複数の状態に対する前記状態時間期間が、前記基準状態シーケンスをバックトラックすることによって決定される、C3に記載の方法。
[C5]前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することが、複数のキーワードスコアを決定することを備え、各キーワードスコアが、前記単一の開始状態から前記複数のエントリ状態のうちの1つへの遷移を含むそれぞれの状態シーケンスに対応する、C1に記載の方法。
[C6]前記状態ネットワークが、複数の状態シーケンスを含み、複数の状態を含む各状態シーケンスが、前記単一の開始状態と、前記複数のエントリ状態のうちの1つと、1つまたは複数の後続の状態とを備える、C5に記載の方法。
[C7]前記複数の状態シーケンスの各状態シーケンスが、隠れマルコフモデルと、前記状態シーケンスの前記状態についての遷移情報とに関連付けられる、C6に記載の方法。
[C8]前記キーワードスコアを決定することが、
前記状態ネットワークに基づいて、前記抽出された音声特徴の各々についての前記状態の各々の観測スコアを決定することと、
前記状態ネットワークの遷移情報に基づいて、前記状態シーケンスの各々における前記状態の各々から次の状態への遷移スコアを取得することと
を備え、
前記キーワードスコアが、前記観測スコアと前記遷移スコアとに基づいて決定される、C6に記載の方法。
[C9]前記複数のキーワードスコアの中の最も大きいキーワードスコアが、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定するために使用される、C5に記載の方法。
[C10]前記最も大きいキーワードスコアがしきい値スコアよりも大きい場合、前記入力音声が前記ターゲットキーワードに対応すると決定される、C9に記載の方法。
[C11]前記状態ネットワークが非キーワード状態シーケンスを含み、前記複数のキーワードスコアを決定することが、前記非キーワード状態シーケンスについての非キーワードスコアを決定することを備える、C5に記載の方法。
[C12]前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することが、
前記複数のキーワードスコアの中から最も大きいキーワードスコアを選択することと、
前記最も大きいキーワードスコアと前記非キーワードスコアとの間の差に基づいて、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することと
をさらに備える、C11に記載の方法。
[C13]前記差に基づいて、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することが、
前記差に基づいて、信頼性値を決定することと、
前記信頼性値がしきい値信頼性値よりも大きい場合、前記入力音声が前記ターゲットキーワードに対応すると決定することと
を備える、C12に記載の方法。
[C14]ターゲットキーワードを検出するための方法であって、前記ターゲットキーワードが複数の部分を含み、前記方法が、
電子デバイスにおいて入力音声を受け取ることと、
前記入力音声から音声特徴を抽出することと、
前記ターゲットキーワードの前記複数の部分に関連付けられた状態情報を取得することと、前記状態情報は、前記ターゲットキーワードの前記部分に関連付けられた複数の状態の各状態に対する持続時間範囲を含む、
前記抽出された音声特徴と前記状態情報とに基づいて、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することと
を備える、方法。
[C15]前記音声特徴を抽出することが、
前記入力音声をフレームにセグメント化することと、各フレームは持続時間を有する、
前記フレームから前記音声特徴を抽出することと
を備える、C14に記載の方法。
[C16]前記複数の状態が半マルコフモデルに関連付けられる、C14に記載の方法。
[C17]前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することが、
前記音声特徴の各々について、前記状態情報に基づいて、前記複数の状態の各状態の観測スコアを決定することと、
前記音声特徴の各々について、前記状態情報に基づいて、前記複数の状態の各状態の持続時間スコアを取得することと、
遷移情報に基づいて、複数の状態シーケンスの各状態シーケンスにおける特定の状態から次の状態への遷移スコアを取得することと、
前記観測スコアと、前記持続時間スコアと、前記遷移スコアとに基づいて、前記複数の状態シーケンスの各状態シーケンスについてのキーワードスコアを決定することと
を備える、C16に記載の方法。
[C18]特定の状態シーケンスについての前記キーワードスコアを決定することが、前記状態シーケンスにおける状態の持続時間が前記状態に対する前記持続時間範囲内にあるかどうかを決定することを備える、C17に記載の方法。
[C19]各状態に対する前記持続時間範囲が、
前記ターゲットキーワードに対する基準入力音声を受け取ることと、
前記基準入力音声に対する基準状態シーケンスを決定することと、
前記基準状態シーケンスにおける状態に対する状態時間期間を決定することと、
前記状態時間期間に基づいて前記持続時間範囲を決定することと
によって前記電子デバイスに記憶される、C14に記載の方法。
[C20]冒頭の部分と複数の後続の部分とを含むターゲットキーワードを検出するための電子デバイスであって、
前記ターゲットキーワードの前記後続の部分のうちの1つから始まる入力音声を受け取るように構成された音声センサと、
前記入力音声から音声特徴を抽出し、状態ネットワークを記述しているデータを取得し、前記抽出された音声特徴と前記状態ネットワークとに基づいて、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定するように構成されたボイスアクティベーションユニットと
を備え、
前記状態ネットワークが、単一の開始状態と、複数のエントリ状態とを含み、前記単一の開始状態から前記複数のエントリ状態の各々に遷移する、
電子デバイス。
[C21]前記ボイスアクティベーションユニットが、複数のキーワードスコアを決定することによって、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定するように構成され、各キーワードスコアが、前記単一の開始状態から前記複数のエントリ状態のうちの1つへの遷移を含むそれぞれの状態シーケンスに対応する、C20に記載の電子デバイス。
[C22]前記状態ネットワークが、複数の状態シーケンスを含み、複数の状態を含む各状態シーケンスが、前記単一の開始状態と、前記複数のエントリ状態のうちの1つと、1つまたは複数の後続の状態とを備える、C21に記載の電子デバイス。
[C23]前記ボイスアクティベーションユニットが、
前記状態ネットワークに基づいて、前記抽出された音声特徴の各々についての前記状態の各々の観測スコアを決定することと、
前記状態ネットワークの遷移情報に基づいて、前記状態シーケンスの各々における前記状態の各々から次の状態への遷移スコアを取得することと
によって、前記キーワードスコアを決定するように構成され、
前記キーワードスコアが、前記観測スコアと前記遷移スコアとに基づいて決定される、C22に記載の電子デバイス。
[C24]前記複数のキーワードスコアの中の最も大きいキーワードスコアが、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定するために使用され、前記最も大きいキーワードスコアがしきい値スコアよりも大きい場合、前記入力音声が前記ターゲットキーワードに対応すると決定される、C21に記載の電子デバイス。
[C25]前記状態ネットワークが非キーワード状態シーケンスを含み、前記複数のキーワードスコアを決定することが、前記非キーワード状態シーケンスについての非キーワードスコアを決定することを備える、C21に記載の電子デバイス。
[C26]前記ボイスアクティベーションユニットが、
前記複数のキーワードスコアの中から最も大きいキーワードスコアを選択することと、
前記最も大きいキーワードスコアと前記非キーワードスコアとの間の差に基づいて、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することと
によって、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定するように構成される、C25に記載の電子デバイス。
[C27]複数の部分を含むターゲットキーワードを検出するための電子デバイスであって、
入力音声を受け取るように構成された音声センサと、
前記入力音声から音声特徴を抽出することと、前記ターゲットキーワードの前記複数の部分に関連付けられた状態情報を取得することと、前記状態情報は、前記ターゲットキーワードの前記部分に関連付けられた複数の状態の各状態に対する持続時間範囲を含む、前記音声特徴と前記状態情報とに基づいて、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することとを行うように構成されたボイスアクティベーションユニットと
を備える、電子デバイス。
[C28]前記ボイスアクティベーションユニットが、
前記入力音声をフレームにセグメント化するように構成されたセグメント化ユニットと、各フレームは持続時間を有する、
前記フレームから前記音声特徴を抽出するように構成された特徴抽出器と
を備える、C27に記載の電子デバイス。
[C29]前記ボイスアクティベーションユニットが、
前記音声特徴の各々について、前記状態情報に基づいて、前記複数の状態の各状態の観測スコアを決定することと、
前記音声特徴の各々について、前記状態情報に基づいて、前記複数の状態の各状態の持続時間スコアを取得することと、
遷移情報に基づいて、複数の状態シーケンスの各状態シーケンスにおける特定の状態から次の状態への遷移スコアを取得することと、
前記観測スコアと、前記持続時間スコアと、前記遷移スコアとに基づいて、前記複数の状態シーケンスの各状態シーケンスについてのキーワードスコアを決定することと
によって、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定するように構成される、C27に記載の電子デバイス。
[C30]前記ボイスアクティベーションユニットが、前記状態シーケンスにおける状態の持続時間が前記状態に対する前記持続時間範囲内にあるかどうかを決定することによって、特定の状態シーケンスについての前記キーワードスコアを決定するように構成される、C29に記載の電子デバイス。
Claims (30)
- ターゲットキーワードを検出するための方法であって、前記ターゲットキーワードが、冒頭の部分と複数の後続の部分とを含み、前記方法が、
電子デバイスにおいて、前記ターゲットキーワードの前記後続の部分のうちの1つから始まる入力音声を受け取ることと、
前記入力音声から音声特徴を抽出することと、
状態ネットワークを記述しているデータを取得することと、ここにおいて、前記状態ネットワークは、単一の開始状態と、複数のエントリ状態とを含み、前記単一の開始状態から前記複数のエントリ状態の各々に遷移する、
前記抽出された音声特徴と前記状態ネットワークとに基づいて、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することと
を備える、方法。 - 前記入力音声を受け取ることが、前記電子デバイスに関連付けられたデューティサイクルに基づいて入力音声ストリームを受け取ることを備える、請求項1に記載の方法。
- 前記エントリ状態に対応するデータが、
前記電子デバイスのフルデューティサイクルに基づいて、前記ターゲットキーワードの前記冒頭の部分と前記複数の後続の部分とに対応する基準入力音声を受け取ることと、
前記基準入力音声に対する複数の基準状態シーケンスを決定することと、
前記基準状態シーケンスにおける複数の状態に対する状態時間期間を決定することと、
前記状態時間期間と前記フルデューティサイクルの非アクティブ期間とに基づいて、前記エントリ状態を決定することと
によって前記電子デバイスに記憶される、請求項2に記載の方法。 - 前記基準状態シーケンスにおける前記複数の状態に対する前記状態時間期間が、前記基準状態シーケンスをバックトラックすることによって決定される、請求項3に記載の方法。
- 前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することが、複数のキーワードスコアを決定することを備え、各キーワードスコアが、前記単一の開始状態から前記複数のエントリ状態のうちの1つへの遷移を含むそれぞれの状態シーケンスに対応する、請求項1に記載の方法。
- 前記状態ネットワークが、複数の状態シーケンスを含み、複数の状態を含む各状態シーケンスが、前記単一の開始状態と、前記複数のエントリ状態のうちの1つと、1つまたは複数の後続の状態とを備える、請求項5に記載の方法。
- 前記複数の状態シーケンスの各状態シーケンスが、隠れマルコフモデルと、前記状態シーケンスの前記状態についての遷移情報とに関連付けられる、請求項6に記載の方法。
- 前記キーワードスコアを決定することが、
前記状態ネットワークに基づいて、前記抽出された音声特徴の各々についての前記状態の各々の観測スコアを決定することと、
前記状態ネットワークの遷移情報に基づいて、前記状態シーケンスの各々における前記状態の各々から次の状態への遷移スコアを取得することと
を備え、
前記キーワードスコアが、前記観測スコアと前記遷移スコアとに基づいて決定される、
請求項6に記載の方法。 - 前記複数のキーワードスコアの中の最も大きいキーワードスコアが、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定するために使用される、請求項5に記載の方法。
- 前記最も大きいキーワードスコアがしきい値スコアよりも大きい場合、前記入力音声が前記ターゲットキーワードに対応すると決定される、請求項9に記載の方法。
- 前記状態ネットワークが非キーワード状態シーケンスを含み、前記複数のキーワードスコアを決定することが、前記非キーワード状態シーケンスについての非キーワードスコアを決定することを備える、請求項5に記載の方法。
- 前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することが、
前記複数のキーワードスコアの中から最も大きいキーワードスコアを選択することと、
前記最も大きいキーワードスコアと前記非キーワードスコアとの間の差に基づいて、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することと
をさらに備える、請求項11に記載の方法。 - 前記差に基づいて、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することが、
前記差に基づいて、信頼性値を決定することと、
前記信頼性値がしきい値信頼性値よりも大きい場合、前記入力音声が前記ターゲットキーワードに対応すると決定することと
を備える、請求項12に記載の方法。 - ターゲットキーワードを検出するための方法であって、前記ターゲットキーワードが複数の部分を含み、前記方法が、
電子デバイスにおいて入力音声を受け取ることと、
前記入力音声から音声特徴を抽出することと、
前記ターゲットキーワードの前記複数の部分に関連付けられた状態情報を取得することと、前記状態情報は、前記ターゲットキーワードの前記部分に関連付けられた複数の状態の各状態に対する持続時間範囲を含む、
前記抽出された音声特徴と前記状態情報とに基づいて、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することと
を備える、方法。 - 前記音声特徴を抽出することが、
前記入力音声をフレームにセグメント化することと、各フレームは持続時間を有する、
前記フレームから前記音声特徴を抽出することと
を備える、請求項14に記載の方法。 - 前記複数の状態が半マルコフモデルに関連付けられる、請求項14に記載の方法。
- 前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することが、
前記音声特徴の各々について、前記状態情報に基づいて、前記複数の状態の各状態の観測スコアを決定することと、
前記音声特徴の各々について、前記状態情報に基づいて、前記複数の状態の各状態の持続時間スコアを取得することと、
遷移情報に基づいて、複数の状態シーケンスの各状態シーケンスにおける特定の状態から次の状態への遷移スコアを取得することと、
前記観測スコアと、前記持続時間スコアと、前記遷移スコアとに基づいて、前記複数の状態シーケンスの各状態シーケンスについてのキーワードスコアを決定することと
を備える、請求項16に記載の方法。 - 特定の状態シーケンスについての前記キーワードスコアを決定することが、前記状態シーケンスにおける状態の持続時間が前記状態に対する前記持続時間範囲内にあるかどうかを決定することを備える、請求項17に記載の方法。
- 各状態に対する前記持続時間範囲が、
前記ターゲットキーワードに対する基準入力音声を受け取ることと、
前記基準入力音声に対する基準状態シーケンスを決定することと、
前記基準状態シーケンスにおける状態に対する状態時間期間を決定することと、
前記状態時間期間に基づいて前記持続時間範囲を決定することと
によって前記電子デバイスに記憶される、請求項14に記載の方法。 - 冒頭の部分と複数の後続の部分とを含むターゲットキーワードを検出するための電子デバイスであって、
前記ターゲットキーワードの前記後続の部分のうちの1つから始まる入力音声を受け取るように構成された音声センサと、
前記入力音声から音声特徴を抽出し、状態ネットワークを記述しているデータを取得し、前記抽出された音声特徴と前記状態ネットワークとに基づいて、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定するように構成されたボイスアクティベーションユニットと
を備え、
前記状態ネットワークが、単一の開始状態と、複数のエントリ状態とを含み、前記単一の開始状態から前記複数のエントリ状態の各々に遷移する、
電子デバイス。 - 前記ボイスアクティベーションユニットが、複数のキーワードスコアを決定することによって、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定するように構成され、各キーワードスコアが、前記単一の開始状態から前記複数のエントリ状態のうちの1つへの遷移を含むそれぞれの状態シーケンスに対応する、請求項20に記載の電子デバイス。
- 前記状態ネットワークが、複数の状態シーケンスを含み、複数の状態を含む各状態シーケンスが、前記単一の開始状態と、前記複数のエントリ状態のうちの1つと、1つまたは複数の後続の状態とを備える、請求項21に記載の電子デバイス。
- 前記ボイスアクティベーションユニットが、
前記状態ネットワークに基づいて、前記抽出された音声特徴の各々についての前記状態の各々の観測スコアを決定することと、
前記状態ネットワークの遷移情報に基づいて、前記状態シーケンスの各々における前記状態の各々から次の状態への遷移スコアを取得することと
によって、前記キーワードスコアを決定するように構成され、
前記キーワードスコアが、前記観測スコアと前記遷移スコアとに基づいて決定される、請求項22に記載の電子デバイス。 - 前記複数のキーワードスコアの中の最も大きいキーワードスコアが、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定するために使用され、前記最も大きいキーワードスコアがしきい値スコアよりも大きい場合、前記入力音声が前記ターゲットキーワードに対応すると決定される、請求項21に記載の電子デバイス。
- 前記状態ネットワークが非キーワード状態シーケンスを含み、前記複数のキーワードスコアを決定することが、前記非キーワード状態シーケンスについての非キーワードスコアを決定することを備える、請求項21に記載の電子デバイス。
- 前記ボイスアクティベーションユニットが、
前記複数のキーワードスコアの中から最も大きいキーワードスコアを選択することと、
前記最も大きいキーワードスコアと前記非キーワードスコアとの間の差に基づいて、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することと
によって、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定するように構成される、請求項25に記載の電子デバイス。 - 複数の部分を含むターゲットキーワードを検出するための電子デバイスであって、
入力音声を受け取るように構成された音声センサと、
前記入力音声から音声特徴を抽出することと、前記ターゲットキーワードの前記複数の部分に関連付けられた状態情報を取得することと、前記状態情報は、前記ターゲットキーワードの前記部分に関連付けられた複数の状態の各状態に対する持続時間範囲を含む、前記音声特徴と前記状態情報とに基づいて、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することとを行うように構成されたボイスアクティベーションユニットと
を備える、電子デバイス。 - 前記ボイスアクティベーションユニットが、
前記入力音声をフレームにセグメント化するように構成されたセグメント化ユニットと、各フレームは持続時間を有する、
前記フレームから前記音声特徴を抽出するように構成された特徴抽出器と
を備える、請求項27に記載の電子デバイス。 - 前記ボイスアクティベーションユニットが、
前記音声特徴の各々について、前記状態情報に基づいて、前記複数の状態の各状態の観測スコアを決定することと、
前記音声特徴の各々について、前記状態情報に基づいて、前記複数の状態の各状態の持続時間スコアを取得することと、
遷移情報に基づいて、複数の状態シーケンスの各状態シーケンスにおける特定の状態から次の状態への遷移スコアを取得することと、
前記観測スコアと、前記持続時間スコアと、前記遷移スコアとに基づいて、前記複数の状態シーケンスの各状態シーケンスについてのキーワードスコアを決定することと
によって、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定するように構成される、請求項27に記載の電子デバイス。 - 前記ボイスアクティベーションユニットが、前記状態シーケンスにおける状態の持続時間が前記状態に対する前記持続時間範囲内にあるかどうかを決定することによって、特定の状態シーケンスについての前記キーワードスコアを決定するように構成される、請求項29に記載の電子デバイス。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361820498P | 2013-05-07 | 2013-05-07 | |
US61/820,498 | 2013-05-07 | ||
US201361859058P | 2013-07-26 | 2013-07-26 | |
US61/859,058 | 2013-07-26 | ||
US14/087,939 | 2013-11-22 | ||
US14/087,939 US20140337031A1 (en) | 2013-05-07 | 2013-11-22 | Method and apparatus for detecting a target keyword |
PCT/US2014/035247 WO2014182460A2 (en) | 2013-05-07 | 2014-04-24 | Method and apparatus for detecting a target keyword |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016526178A true JP2016526178A (ja) | 2016-09-01 |
JP2016526178A5 JP2016526178A5 (ja) | 2017-07-20 |
JP6309615B2 JP6309615B2 (ja) | 2018-04-11 |
Family
ID=51865436
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016512922A Expired - Fee Related JP6309615B2 (ja) | 2013-05-07 | 2014-04-24 | ターゲットキーワードを検出するための方法および装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20140337031A1 (ja) |
EP (1) | EP2994910B1 (ja) |
JP (1) | JP6309615B2 (ja) |
KR (1) | KR20160007527A (ja) |
CN (1) | CN105190746B (ja) |
WO (1) | WO2014182460A2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019533193A (ja) * | 2016-09-29 | 2019-11-14 | 合肥華凌股▲フン▼有限公司Hefei Hualing Co.,Ltd. | 音声制御システム及びそのウェイクアップ方法、ウェイクアップ装置、並びに家電製品、コプロセッサ |
US10803858B2 (en) | 2016-11-11 | 2020-10-13 | Kabushiki Kaisha Toshiba | Speech recognition apparatus, speech recognition method, and computer program product |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9704486B2 (en) * | 2012-12-11 | 2017-07-11 | Amazon Technologies, Inc. | Speech recognition power management |
US9892729B2 (en) * | 2013-05-07 | 2018-02-13 | Qualcomm Incorporated | Method and apparatus for controlling voice activation |
US10770075B2 (en) * | 2014-04-21 | 2020-09-08 | Qualcomm Incorporated | Method and apparatus for activating application by speech input |
CN106601238A (zh) * | 2015-10-14 | 2017-04-26 | 阿里巴巴集团控股有限公司 | 一种应用操作的处理方法和装置 |
US9792907B2 (en) | 2015-11-24 | 2017-10-17 | Intel IP Corporation | Low resource key phrase detection for wake on voice |
US9972313B2 (en) * | 2016-03-01 | 2018-05-15 | Intel Corporation | Intermediate scoring and rejection loopback for improved key phrase detection |
US10043521B2 (en) | 2016-07-01 | 2018-08-07 | Intel IP Corporation | User defined key phrase detection by user dependent sequence modeling |
WO2018097969A1 (en) * | 2016-11-22 | 2018-05-31 | Knowles Electronics, Llc | Methods and systems for locating the end of the keyword in voice sensing |
US10186265B1 (en) * | 2016-12-06 | 2019-01-22 | Amazon Technologies, Inc. | Multi-layer keyword detection to avoid detection of keywords in output audio |
US10083689B2 (en) * | 2016-12-23 | 2018-09-25 | Intel Corporation | Linear scoring for low power wake on voice |
US10276161B2 (en) * | 2016-12-27 | 2019-04-30 | Google Llc | Contextual hotwords |
JP6585112B2 (ja) * | 2017-03-17 | 2019-10-02 | 株式会社東芝 | 音声キーワード検出装置および音声キーワード検出方法 |
EP4083998A1 (en) * | 2017-06-06 | 2022-11-02 | Google LLC | End of query detection |
US10311874B2 (en) | 2017-09-01 | 2019-06-04 | 4Q Catalyst, LLC | Methods and systems for voice-based programming of a voice-controlled device |
TWI682385B (zh) * | 2018-03-16 | 2020-01-11 | 緯創資通股份有限公司 | 語音服務控制裝置及其方法 |
US10714122B2 (en) | 2018-06-06 | 2020-07-14 | Intel Corporation | Speech classification of audio for wake on voice |
US10650807B2 (en) | 2018-09-18 | 2020-05-12 | Intel Corporation | Method and system of neural network keyphrase detection |
US11100923B2 (en) * | 2018-09-28 | 2021-08-24 | Sonos, Inc. | Systems and methods for selective wake word detection using neural network models |
US11127394B2 (en) | 2019-03-29 | 2021-09-21 | Intel Corporation | Method and system of high accuracy keyphrase detection for low resource devices |
CN111091849B (zh) * | 2020-03-03 | 2020-12-22 | 龙马智芯(珠海横琴)科技有限公司 | 鼾声识别的方法及装置、存储介质止鼾设备和处理器 |
US11721338B2 (en) * | 2020-08-26 | 2023-08-08 | International Business Machines Corporation | Context-based dynamic tolerance of virtual assistant |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0511798A (ja) * | 1990-09-07 | 1993-01-22 | Toshiba Corp | 音声認識装置 |
JPH10312194A (ja) * | 1997-03-12 | 1998-11-24 | Seiko Epson Corp | 認識対象音声検出方法およびその装置 |
JP2000089792A (ja) * | 1998-09-09 | 2000-03-31 | Seiko Epson Corp | 音声認識装置 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5199077A (en) * | 1991-09-19 | 1993-03-30 | Xerox Corporation | Wordspotting for voice editing and indexing |
JP3422541B2 (ja) * | 1992-12-17 | 2003-06-30 | ゼロックス・コーポレーション | キーワードのモデル化方法及び非キーワードhmmの提供方法 |
US5621859A (en) * | 1994-01-19 | 1997-04-15 | Bbn Corporation | Single tree method for grammar directed, very large vocabulary speech recognizer |
US5878164A (en) * | 1994-01-21 | 1999-03-02 | Lucent Technologies Inc. | Interleaved segmental method for handwriting recognition |
DE10030369A1 (de) * | 2000-06-21 | 2002-01-03 | Volkswagen Ag | Spracherkennungssystem |
JP3975400B2 (ja) * | 2003-08-20 | 2007-09-12 | ソニー株式会社 | 監視システム、情報処理装置および方法、記録媒体、並びにプログラム |
US8214362B1 (en) * | 2007-09-07 | 2012-07-03 | Google Inc. | Intelligent identification of form field elements |
KR20090107364A (ko) * | 2008-04-08 | 2009-10-13 | 엘지전자 주식회사 | 이동 단말기 및 그 메뉴 제어방법 |
CN101894549A (zh) * | 2010-06-24 | 2010-11-24 | 中国科学院声学研究所 | 一种语音识别应用领域中的置信度快速计算方法 |
US8990259B2 (en) * | 2011-06-24 | 2015-03-24 | Cavium, Inc. | Anchored patterns |
CN102426836B (zh) * | 2011-08-25 | 2013-03-20 | 哈尔滨工业大学 | 基于分位数自适应裁剪的快速关键词检出方法 |
US9992745B2 (en) * | 2011-11-01 | 2018-06-05 | Qualcomm Incorporated | Extraction and analysis of buffered audio data using multiple codec rates each greater than a low-power processor rate |
US9015048B2 (en) * | 2012-11-30 | 2015-04-21 | At&T Intellectual Property I, L.P. | Incremental speech recognition for dialog systems |
US9240182B2 (en) * | 2013-09-17 | 2016-01-19 | Qualcomm Incorporated | Method and apparatus for adjusting detection threshold for activating voice assistant function |
-
2013
- 2013-11-22 US US14/087,939 patent/US20140337031A1/en not_active Abandoned
-
2014
- 2014-04-24 WO PCT/US2014/035247 patent/WO2014182460A2/en active Application Filing
- 2014-04-24 KR KR1020157032322A patent/KR20160007527A/ko not_active Application Discontinuation
- 2014-04-24 JP JP2016512922A patent/JP6309615B2/ja not_active Expired - Fee Related
- 2014-04-24 EP EP14726846.0A patent/EP2994910B1/en not_active Not-in-force
- 2014-04-24 CN CN201480025202.XA patent/CN105190746B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0511798A (ja) * | 1990-09-07 | 1993-01-22 | Toshiba Corp | 音声認識装置 |
JPH10312194A (ja) * | 1997-03-12 | 1998-11-24 | Seiko Epson Corp | 認識対象音声検出方法およびその装置 |
JP2000089792A (ja) * | 1998-09-09 | 2000-03-31 | Seiko Epson Corp | 音声認識装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019533193A (ja) * | 2016-09-29 | 2019-11-14 | 合肥華凌股▲フン▼有限公司Hefei Hualing Co.,Ltd. | 音声制御システム及びそのウェイクアップ方法、ウェイクアップ装置、並びに家電製品、コプロセッサ |
US10803858B2 (en) | 2016-11-11 | 2020-10-13 | Kabushiki Kaisha Toshiba | Speech recognition apparatus, speech recognition method, and computer program product |
Also Published As
Publication number | Publication date |
---|---|
EP2994910B1 (en) | 2017-06-14 |
CN105190746B (zh) | 2019-03-15 |
WO2014182460A3 (en) | 2014-12-31 |
EP2994910A2 (en) | 2016-03-16 |
WO2014182460A2 (en) | 2014-11-13 |
US20140337031A1 (en) | 2014-11-13 |
JP6309615B2 (ja) | 2018-04-11 |
CN105190746A (zh) | 2015-12-23 |
KR20160007527A (ko) | 2016-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6309615B2 (ja) | ターゲットキーワードを検出するための方法および装置 | |
EP2994911B1 (en) | Adaptive audio frame processing for keyword detection | |
US10770075B2 (en) | Method and apparatus for activating application by speech input | |
US9892729B2 (en) | Method and apparatus for controlling voice activation | |
KR101981878B1 (ko) | 스피치의 방향에 기초한 전자 디바이스의 제어 | |
US9837068B2 (en) | Sound sample verification for generating sound detection model | |
US20150193199A1 (en) | Tracking music in audio stream | |
WO2017154282A1 (ja) | 音声処理装置および音声処理方法 | |
US10997971B2 (en) | Wakeword detection using a secondary microphone | |
US20210312911A1 (en) | Wakeword detection using a secondary microphone | |
CN116153291A (zh) | 一种语音识别方法及设备 | |
US20200321022A1 (en) | Method and apparatus for detecting an end of an utterance | |
CN114143651A (zh) | 用于骨传导耳机的语音唤醒方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170329 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170608 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20170608 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20170905 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170912 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180314 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6309615 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |