JP6309615B2 - ターゲットキーワードを検出するための方法および装置 - Google Patents
ターゲットキーワードを検出するための方法および装置 Download PDFInfo
- Publication number
- JP6309615B2 JP6309615B2 JP2016512922A JP2016512922A JP6309615B2 JP 6309615 B2 JP6309615 B2 JP 6309615B2 JP 2016512922 A JP2016512922 A JP 2016512922A JP 2016512922 A JP2016512922 A JP 2016512922A JP 6309615 B2 JP6309615 B2 JP 6309615B2
- Authority
- JP
- Japan
- Prior art keywords
- state
- keyword
- score
- speech
- target keyword
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
- G10L15/142—Hidden Markov Models [HMMs]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Probability & Statistics with Applications (AREA)
- Telephone Function (AREA)
- Telephonic Communication Services (AREA)
- Input From Keyboards Or The Like (AREA)
Description
[0001]本出願は、各々の内容全体が参照により本明細書に明確に組み込まれる、同一出願人が所有する、2013年5月7日に出願された米国仮特許出願第61/820,498号、2013年7月26日に出願された米国仮特許出願第61/859,058号、および2013年11月22日に出願された米国非仮特許出願第14/087,939号の優先権を主張する。
方法は、入力音声を受け取り、入力音声から複数の音声特徴を抽出する。さらに、方法は、ターゲットキーワードの複数の部分に関連付けられた状態情報を取得する。状態情報は、ターゲットキーワードの部分に関連付けられた複数の状態に対する複数の持続時間範囲を含む。抽出された音声特徴と状態情報とに基づいて、入力音声がターゲットキーワードとして検出される。本開示は、本方法に関係する装置、デバイス、システム、手段の組合せ、およびコンピュータ可読媒体についても説明する。
以下に本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
ターゲットキーワードを検出するための方法であって、前記ターゲットキーワードが、冒頭の部分と複数の後続の部分とを含み、前記方法が、
電子デバイスにおいて、前記ターゲットキーワードの前記後続の部分のうちの1つから始まる入力音声を受け取ることと、
前記入力音声から音声特徴を抽出することと、
状態ネットワークを記述しているデータを取得することと、ここにおいて、前記状態ネットワークは、単一の開始状態と、複数のエントリ状態と、前記単一の開始状態から前記複数のエントリ状態の各々への遷移とを含む、
前記抽出された音声特徴と前記状態ネットワークとに基づいて、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することとを備える、方法。
[C2]
前記入力音声を受け取ることが、前記電子デバイスに関連付けられたデューティサイクルに基づいて入力音声ストリームを受け取ることを備える、C1に記載の方法。
[C3]
前記エントリ状態に対応するデータが、
前記電子デバイスのフルデューティサイクルに基づいて、前記ターゲットキーワードの前記冒頭の部分と前記複数の後続の部分とに対応する基準入力音声を受け取ることと、
前記基準入力音声に対する複数の基準状態シーケンスを決定することと、
前記基準状態シーケンスにおける複数の状態に対する状態時間期間を決定することと、
前記状態時間期間と前記フルデューティサイクルの非アクティブ期間とに基づいて、前記エントリ状態を決定することとによって前記電子デバイスに記憶される、C2に記載の方法。
[C4]
前記基準状態シーケンスにおける前記複数の状態に対する前記状態時間期間が、前記基準状態シーケンスをバックトラックすることによって決定される、C3に記載の方法。
[C5]
前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することが、複数のキーワードスコアを決定することを備え、各キーワードスコアが、前記単一の開始状態から前記複数のエントリ状態のうちの1つへの遷移を含むそれぞれの状態シーケンスに対応する、C1に記載の方法。
[C6]
前記状態ネットワークが、複数の状態シーケンスを含み、複数の状態を含む各状態シーケンスが、前記単一の開始状態と、前記複数のエントリ状態のうちの1つと、1つまたは複数の後続の状態とを備える、C5に記載の方法。
[C7]
前記複数の状態シーケンスの各状態シーケンスが、隠れマルコフモデルと、前記状態シーケンスの前記状態についての遷移情報とに関連付けられる、C6に記載の方法。
[C8]
前記キーワードスコアを決定することが、
前記状態ネットワークに基づいて、前記抽出された音声特徴の各々についての前記状態の各々の観測スコアを決定することと、
前記状態ネットワークの遷移情報に基づいて、前記状態シーケンスの各々における前記状態の各々から次の状態への遷移スコアを取得することとを備え、
前記キーワードスコアが、前記観測スコアと前記遷移スコアとに基づいて決定される、C6に記載の方法。
[C9]
前記複数のキーワードスコアの中の最も大きいキーワードスコアが、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定するために使用される、C5に記載の方法。
[C10]
前記最も大きいキーワードスコアがしきい値スコアよりも大きい場合、前記入力音声が前記ターゲットキーワードに対応すると決定される、C9に記載の方法。
[C11]
前記状態ネットワークが非キーワード状態シーケンスを含み、前記複数のキーワードスコアを決定することが、前記非キーワード状態シーケンスについての非キーワードスコアを決定することを備える、C5に記載の方法。
[C12]
前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することが、
前記複数のキーワードスコアの中から最も大きいキーワードスコアを選択することと、
前記最も大きいキーワードスコアと前記非キーワードスコアとの間の差に基づいて、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することとをさらに備える、C11に記載の方法。
[C13]
前記差に基づいて、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することが、
前記差に基づいて、信頼性値を決定することと、
前記信頼性値がしきい値信頼性値よりも大きい場合、前記入力音声が前記ターゲットキーワードに対応すると決定することとを備える、C12に記載の方法。
[C14]
ターゲットキーワードを検出するための方法であって、前記ターゲットキーワードが複数の部分を含み、前記方法が、
電子デバイスにおいて入力音声を受け取ることと、
前記入力音声から音声特徴を抽出することと、
前記ターゲットキーワードの前記複数の部分に関連付けられた状態情報を取得することと、前記状態情報は、前記ターゲットキーワードの前記部分に関連付けられた複数の状態の各状態に対する持続時間範囲を含む、
前記抽出された音声特徴と前記状態情報とに基づいて、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することとを備える、方法。
[C15]
前記音声特徴を抽出することが、
前記入力音声をフレームにセグメント化することと、各フレームは持続時間を有する、
前記フレームから前記音声特徴を抽出することとを備える、C14に記載の方法。
[C16]
前記複数の状態が半マルコフモデルに関連付けられる、C14に記載の方法。
[C17]
前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することが、
前記音声特徴の各々について、前記状態情報に基づいて、前記複数の状態の各状態の観測スコアを決定することと、
前記音声特徴の各々について、前記状態情報に基づいて、前記複数の状態の各状態の持続時間スコアを取得することと、
遷移情報に基づいて、複数の状態シーケンスの各状態シーケンスにおける特定の状態から次の状態への遷移スコアを取得することと、
前記観測スコアと、前記持続時間スコアと、前記遷移スコアとに基づいて、前記複数の状態シーケンスの各状態シーケンスについてのキーワードスコアを決定することとを備える、C16に記載の方法。
[C18]
特定の状態シーケンスについての前記キーワードスコアを決定することが、前記状態シーケンスにおける状態の持続時間が前記状態に対する前記持続時間範囲内にあるかどうかを決定することを備える、C17に記載の方法。
[C19]
各状態に対する前記持続時間範囲が、
前記ターゲットキーワードに対する基準入力音声を受け取ることと、
前記基準入力音声に対する基準状態シーケンスを決定することと、
前記基準状態シーケンスにおける状態に対する状態時間期間を決定することと、
前記状態時間期間に基づいて前記持続時間範囲を決定することとによって前記電子デバイスに記憶される、C14に記載の方法。
[C20]
冒頭の部分と複数の後続の部分とを含むターゲットキーワードを検出するための電子デバイスであって、
前記ターゲットキーワードの前記後続の部分のうちの1つから始まる入力音声を受け取るように構成された音声センサと、
前記入力音声から音声特徴を抽出し、状態ネットワークを記述しているデータを取得し、前記抽出された音声特徴と前記状態ネットワークとに基づいて、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定するように構成されたボイスアクティベーションユニットとを備え、
前記状態ネットワークが、単一の開始状態と、複数のエントリ状態と、前記単一の開始状態から前記複数のエントリ状態の各々への遷移とを含む、電子デバイス。
[C21]
前記ボイスアクティベーションユニットが、複数のキーワードスコアを決定することによって、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定するように構成され、各キーワードスコアが、前記単一の開始状態から前記複数のエントリ状態のうちの1つへの遷移を含むそれぞれの状態シーケンスに対応する、C20に記載の電子デバイス。
[C22]
前記状態ネットワークが、複数の状態シーケンスを含み、複数の状態を含む各状態シーケンスが、前記単一の開始状態と、前記複数のエントリ状態のうちの1つと、1つまたは複数の後続の状態とを備える、C21に記載の電子デバイス。
[C23]
前記ボイスアクティベーションユニットが、
前記状態ネットワークに基づいて、前記抽出された音声特徴の各々についての前記状態の各々の観測スコアを決定することと、
前記状態ネットワークの遷移情報に基づいて、前記状態シーケンスの各々における前記状態の各々から次の状態への遷移スコアを取得することとによって、前記キーワードスコアを決定するように構成され、
前記キーワードスコアが、前記観測スコアと前記遷移スコアとに基づいて決定される、C22に記載の電子デバイス。
[C24]
前記複数のキーワードスコアの中の最も大きいキーワードスコアが、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定するために使用され、前記最も大きいキーワードスコアがしきい値スコアよりも大きい場合、前記入力音声が前記ターゲットキーワードに対応すると決定される、C21に記載の電子デバイス。
[C25]
前記状態ネットワークが非キーワード状態シーケンスを含み、前記複数のキーワードスコアを決定することが、前記非キーワード状態シーケンスについての非キーワードスコアを決定することを備える、C21に記載の電子デバイス。
[C26]
前記ボイスアクティベーションユニットが、
前記複数のキーワードスコアの中から最も大きいキーワードスコアを選択することと、
前記最も大きいキーワードスコアと前記非キーワードスコアとの間の差に基づいて、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することとによって、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定するように構成される、C25に記載の電子デバイス。
[C27]
複数の部分を含むターゲットキーワードを検出するための電子デバイスであって、
入力音声を受け取るように構成された音声センサと、
前記入力音声から音声特徴を抽出することと、前記ターゲットキーワードの前記複数の部分に関連付けられた状態情報を取得することと、前記状態情報は、前記ターゲットキーワードの前記部分に関連付けられた複数の状態の各状態に対する持続時間範囲を含む、前記音声特徴と前記状態情報とに基づいて、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することとを行うように構成されたボイスアクティベーションユニットとを備える、電子デバイス。
[C28]
前記ボイスアクティベーションユニットが、
前記入力音声をフレームにセグメント化するように構成されたセグメント化ユニットと、各フレームは持続時間を有する、
前記フレームから前記音声特徴を抽出するように構成された特徴抽出器とを備える、C27に記載の電子デバイス。
[C29]
前記ボイスアクティベーションユニットが、
前記音声特徴の各々について、前記状態情報に基づいて、前記複数の状態の各状態の観測スコアを決定することと、
前記音声特徴の各々について、前記状態情報に基づいて、前記複数の状態の各状態の持続時間スコアを取得することと、
遷移情報に基づいて、複数の状態シーケンスの各状態シーケンスにおける特定の状態から次の状態への遷移スコアを取得することと、
前記観測スコアと、前記持続時間スコアと、前記遷移スコアとに基づいて、前記複数の状態シーケンスの各状態シーケンスについてのキーワードスコアを決定することとによって、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定するように構成される、C27に記載の電子デバイス。
[C30]
前記ボイスアクティベーションユニットが、前記状態シーケンスにおける状態の持続時間が前記状態に対する前記持続時間範囲内にあるかどうかを決定することによって、特定の状態シーケンスについての前記キーワードスコアを決定するように構成される、C29に記載の電子デバイス。
Claims (15)
- ターゲットキーワードを検出するための方法であって、前記ターゲットキーワードが、冒頭の部分と複数の後続の部分とを含み、前記方法が、
電子デバイスにおいて、前記ターゲットキーワードの前記複数の後続の部分のうちの1つから始まる入力音声に基づいて入力音声ストリームを生成することと、前記入力音声ストリームは、デューティサイクルに従って時間期間の間に生成される、
前記入力音声ストリームに基づいて前記入力音声に関連付けられた音声特徴を決定することと、
状態ネットワークを記述しているデータを取得することと、ここにおいて、前記状態ネットワークは、開始状態と、複数のエントリ状態と、前記開始状態から前記複数のエントリ状態の各々への遷移とを含む、
前記音声特徴に基づいておよび前記データにさらに基づいて、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することと
を備える、方法。 - 前記入力音声が前記ターゲットキーワードに対応すると決定することに応答して、
前記電子デバイスのボイスアシスタントを起動することと、
前記ボイスアシスタントを使用し、前記電子デバイスにおいてメッセージを生成することと、
前記電子デバイスの1つまたは複数の機能の起動を示すユーザ入力を受け取ることと
をさらに備える、請求項1に記載の方法。 - 前記複数のエントリ状態に対応するデータが、
前記ターゲットキーワードの前記冒頭の部分と前記複数の後続の部分とに対応する基準入力音声を受け取ることと、
前記基準入力音声に対する複数の基準状態シーケンスを決定することと、
前記複数の基準状態シーケンスにおける複数の状態に対する状態時間期間を決定することと、
前記複数のエントリ状態を決定することと
によって前記電子デバイスに記憶され、
前記複数の基準状態シーケンスにおける前記複数の状態に対する前記状態時間期間が、前記複数の基準状態シーケンスをバックトラックすることによって決定される、請求項1に記載の方法。 - 前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することが、複数のキーワードスコアを決定することを備え、各キーワードスコアが、前記開始状態から前記複数のエントリ状態のうちの1つへの遷移を含むそれぞれの状態シーケンスに対応する、請求項1に記載の方法。
- 前記状態ネットワークが、複数の状態シーケンスを含み、各状態シーケンスが、前記開始状態と、前記複数のエントリ状態のうちの1つと、1つまたは複数の後続の状態とを含む状態を備え、前記複数の状態シーケンスの各状態シーケンスが、隠れマルコフモデルと、前記状態シーケンスの前記複数の状態についての遷移情報とに関連付けられる、請求項4に記載の方法。
- 前記複数のキーワードスコアを決定することが、
前記状態ネットワークに基づいて、前記音声特徴の各々についての前記状態の各々の観測スコアを決定することと、
前記状態ネットワークの遷移情報に基づいて、前記複数の状態シーケンスの各々における前記状態の各々から次の状態への遷移スコアを取得することと
を備え、
前記複数のキーワードスコアが、前記観測スコアと前記遷移スコアとに基づいて決定される、請求項5に記載の方法。 - 前記複数のキーワードスコアの中の最も大きいキーワードスコアが、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定するために使用され、前記最も大きいキーワードスコアがしきい値スコアよりも大きい場合、前記入力音声が、前記ターゲットキーワードに対応すると決定される、請求項4に記載の方法。
- 前記状態ネットワークが非キーワード状態シーケンスを含み、前記複数のキーワードスコアを決定することが、前記非キーワード状態シーケンスについての非キーワードスコアを決定することを備え、
前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することが、前記複数のキーワードスコアの中から最も大きいキーワードスコアを選択することと、前記最も大きいキーワードスコアと前記非キーワードスコアとの間の差に基づいて、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することとをさらに備える、
前記差に基づいて、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定することが、
前記差に基づいて、信頼性値を決定することと、
前記信頼性値がしきい値信頼性値よりも大きい場合、前記入力音声が前記ターゲットキーワードに対応すると決定することと
を備える、請求項4に記載の方法。 - 冒頭の部分と複数の後続の部分とを含むターゲットキーワードを検出するための電子デバイスであって、
前記ターゲットキーワードの前記複数の後続の部分のうちの1つから始まる入力音声に基づいて入力音声ストリームを生成するように構成された音声センサと、前記音声センサは、デューティサイクルに従って時間期間中に前記入力音声ストリームを生成するようにさらに構成される、
前記入力音声ストリームに基づいて前記入力音声に関連付けられた音声特徴を決定し、状態ネットワークを記述しているデータを取得し、前記音声特徴と前記データとに基づいて、前記入力音声が前記ターゲットキーワードに対応するかどうかを決定するように構成されたボイスアクティベーションユニットと
を備え、
前記状態ネットワークは、開始状態と、複数のエントリ状態と、前記開始状態から前記複数のエントリ状態の各々への遷移とを含む、電子デバイス。 - 前記デューティサイクルに基づいて、前記電子デバイスの音声センサを起動するためにアクティベーション信号を与えることと、
前記デューティサイクルに基づいて、前記電子デバイスの前記音声センサを非起動するためにデアクティベーション信号を与えることと、
をさらに備える、請求項1に記載の方法。 - 前記入力音声が前記ターゲットキーワードに対応すると決定することに応答して、前記電子デバイスのボイスアシスタントを起動するためにアクティベーション信号を与えることをさらに備える、請求項10に記載の方法。
- 前記時間期間は、前記デューティサイクルに関連付けられたアクティベーション時間間隔に対応し、前記アクティベーション信号は、前記アクティベーション時間間隔の間に与えられ、前記デアクティベーション信号は、前記デューティサイクルに関連付けられたデアクティベーション時間間隔の間に与えられ、前記冒頭の部分は、前記デアクティベーション時間間隔の間に話され、前記複数の後続の部分のうちの前記1つは、前記アクティベーション時間間隔の間に話される、請求項10に記載の方法。
- 前記デューティサイクルは、前記電子デバイスのデューティサイクル機能に関連付けられ、前記方法は、前記冒頭の部分がスピーチを含まないと決定することに応答して、前記デューティサイクル機能を起動するためにアクティベーション信号を与えることをさらに備える、請求項1に記載の方法。
- 前記時間期間は、1つまたは複数のアクティブ時間間隔を備え、前記ターゲットキーワードの前記複数の後続の部分は、前記1つまたは複数のアクティブ時間間隔の間にユーザによって話される、請求項1に記載の方法。
- 前記音声センサは、前記時間期間中に前記入力音声ストリームを生成するために前記入力音声を記録するように構成されたマイクロフォンを含み、前記音声センサは、前記マイクロフォンに結合され、前記入力音声ストリームの一部が音声強度しきい値を満たすかどうかを決定するように構成された音声検出器をさらに含み、前記電子デバイスは、前記音声検出器と前記ボイスアクティベーションユニットとに結合されたスピーチ検出器をさらに備える、請求項9に記載の電子デバイス。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361820498P | 2013-05-07 | 2013-05-07 | |
US61/820,498 | 2013-05-07 | ||
US201361859058P | 2013-07-26 | 2013-07-26 | |
US61/859,058 | 2013-07-26 | ||
US14/087,939 | 2013-11-22 | ||
US14/087,939 US20140337031A1 (en) | 2013-05-07 | 2013-11-22 | Method and apparatus for detecting a target keyword |
PCT/US2014/035247 WO2014182460A2 (en) | 2013-05-07 | 2014-04-24 | Method and apparatus for detecting a target keyword |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016526178A JP2016526178A (ja) | 2016-09-01 |
JP2016526178A5 JP2016526178A5 (ja) | 2017-07-20 |
JP6309615B2 true JP6309615B2 (ja) | 2018-04-11 |
Family
ID=51865436
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016512922A Expired - Fee Related JP6309615B2 (ja) | 2013-05-07 | 2014-04-24 | ターゲットキーワードを検出するための方法および装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20140337031A1 (ja) |
EP (1) | EP2994910B1 (ja) |
JP (1) | JP6309615B2 (ja) |
KR (1) | KR20160007527A (ja) |
CN (1) | CN105190746B (ja) |
WO (1) | WO2014182460A2 (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9704486B2 (en) * | 2012-12-11 | 2017-07-11 | Amazon Technologies, Inc. | Speech recognition power management |
US9892729B2 (en) * | 2013-05-07 | 2018-02-13 | Qualcomm Incorporated | Method and apparatus for controlling voice activation |
US10770075B2 (en) * | 2014-04-21 | 2020-09-08 | Qualcomm Incorporated | Method and apparatus for activating application by speech input |
CN106601238A (zh) * | 2015-10-14 | 2017-04-26 | 阿里巴巴集团控股有限公司 | 一种应用操作的处理方法和装置 |
US9792907B2 (en) | 2015-11-24 | 2017-10-17 | Intel IP Corporation | Low resource key phrase detection for wake on voice |
US9972313B2 (en) * | 2016-03-01 | 2018-05-15 | Intel Corporation | Intermediate scoring and rejection loopback for improved key phrase detection |
US10043521B2 (en) | 2016-07-01 | 2018-08-07 | Intel IP Corporation | User defined key phrase detection by user dependent sequence modeling |
CN106157950A (zh) * | 2016-09-29 | 2016-11-23 | 合肥华凌股份有限公司 | 语音控制系统及其唤醒方法、唤醒装置和家电、协处理器 |
JP6585022B2 (ja) | 2016-11-11 | 2019-10-02 | 株式会社東芝 | 音声認識装置、音声認識方法およびプログラム |
US20180144740A1 (en) * | 2016-11-22 | 2018-05-24 | Knowles Electronics, Llc | Methods and systems for locating the end of the keyword in voice sensing |
US10186265B1 (en) * | 2016-12-06 | 2019-01-22 | Amazon Technologies, Inc. | Multi-layer keyword detection to avoid detection of keywords in output audio |
US10083689B2 (en) * | 2016-12-23 | 2018-09-25 | Intel Corporation | Linear scoring for low power wake on voice |
US10276161B2 (en) * | 2016-12-27 | 2019-04-30 | Google Llc | Contextual hotwords |
JP6585112B2 (ja) * | 2017-03-17 | 2019-10-02 | 株式会社東芝 | 音声キーワード検出装置および音声キーワード検出方法 |
US10593352B2 (en) * | 2017-06-06 | 2020-03-17 | Google Llc | End of query detection |
US10311874B2 (en) | 2017-09-01 | 2019-06-04 | 4Q Catalyst, LLC | Methods and systems for voice-based programming of a voice-controlled device |
TWI682385B (zh) | 2018-03-16 | 2020-01-11 | 緯創資通股份有限公司 | 語音服務控制裝置及其方法 |
US10714122B2 (en) | 2018-06-06 | 2020-07-14 | Intel Corporation | Speech classification of audio for wake on voice |
US10650807B2 (en) | 2018-09-18 | 2020-05-12 | Intel Corporation | Method and system of neural network keyphrase detection |
US11100923B2 (en) * | 2018-09-28 | 2021-08-24 | Sonos, Inc. | Systems and methods for selective wake word detection using neural network models |
US11127394B2 (en) | 2019-03-29 | 2021-09-21 | Intel Corporation | Method and system of high accuracy keyphrase detection for low resource devices |
CN111091849B (zh) * | 2020-03-03 | 2020-12-22 | 龙马智芯(珠海横琴)科技有限公司 | 鼾声识别的方法及装置、存储介质止鼾设备和处理器 |
US11721338B2 (en) * | 2020-08-26 | 2023-08-08 | International Business Machines Corporation | Context-based dynamic tolerance of virtual assistant |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0511798A (ja) * | 1990-09-07 | 1993-01-22 | Toshiba Corp | 音声認識装置 |
US5199077A (en) * | 1991-09-19 | 1993-03-30 | Xerox Corporation | Wordspotting for voice editing and indexing |
JP3422541B2 (ja) * | 1992-12-17 | 2003-06-30 | ゼロックス・コーポレーション | キーワードのモデル化方法及び非キーワードhmmの提供方法 |
US5621859A (en) * | 1994-01-19 | 1997-04-15 | Bbn Corporation | Single tree method for grammar directed, very large vocabulary speech recognizer |
US5878164A (en) * | 1994-01-21 | 1999-03-02 | Lucent Technologies Inc. | Interleaved segmental method for handwriting recognition |
JP3726448B2 (ja) * | 1997-03-12 | 2005-12-14 | セイコーエプソン株式会社 | 認識対象音声検出方法およびその装置 |
JP3911865B2 (ja) * | 1998-09-09 | 2007-05-09 | セイコーエプソン株式会社 | 音声認識装置 |
DE10030369A1 (de) * | 2000-06-21 | 2002-01-03 | Volkswagen Ag | Spracherkennungssystem |
JP3975400B2 (ja) * | 2003-08-20 | 2007-09-12 | ソニー株式会社 | 監視システム、情報処理装置および方法、記録媒体、並びにプログラム |
US8214362B1 (en) * | 2007-09-07 | 2012-07-03 | Google Inc. | Intelligent identification of form field elements |
KR20090107364A (ko) * | 2008-04-08 | 2009-10-13 | 엘지전자 주식회사 | 이동 단말기 및 그 메뉴 제어방법 |
CN101894549A (zh) * | 2010-06-24 | 2010-11-24 | 中国科学院声学研究所 | 一种语音识别应用领域中的置信度快速计算方法 |
US8990259B2 (en) * | 2011-06-24 | 2015-03-24 | Cavium, Inc. | Anchored patterns |
CN102426836B (zh) * | 2011-08-25 | 2013-03-20 | 哈尔滨工业大学 | 基于分位数自适应裁剪的快速关键词检出方法 |
US9992745B2 (en) * | 2011-11-01 | 2018-06-05 | Qualcomm Incorporated | Extraction and analysis of buffered audio data using multiple codec rates each greater than a low-power processor rate |
US9015048B2 (en) * | 2012-11-30 | 2015-04-21 | At&T Intellectual Property I, L.P. | Incremental speech recognition for dialog systems |
US9240182B2 (en) * | 2013-09-17 | 2016-01-19 | Qualcomm Incorporated | Method and apparatus for adjusting detection threshold for activating voice assistant function |
-
2013
- 2013-11-22 US US14/087,939 patent/US20140337031A1/en not_active Abandoned
-
2014
- 2014-04-24 CN CN201480025202.XA patent/CN105190746B/zh not_active Expired - Fee Related
- 2014-04-24 EP EP14726846.0A patent/EP2994910B1/en not_active Not-in-force
- 2014-04-24 JP JP2016512922A patent/JP6309615B2/ja not_active Expired - Fee Related
- 2014-04-24 KR KR1020157032322A patent/KR20160007527A/ko not_active Application Discontinuation
- 2014-04-24 WO PCT/US2014/035247 patent/WO2014182460A2/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JP2016526178A (ja) | 2016-09-01 |
EP2994910B1 (en) | 2017-06-14 |
EP2994910A2 (en) | 2016-03-16 |
CN105190746B (zh) | 2019-03-15 |
WO2014182460A2 (en) | 2014-11-13 |
CN105190746A (zh) | 2015-12-23 |
KR20160007527A (ko) | 2016-01-20 |
US20140337031A1 (en) | 2014-11-13 |
WO2014182460A3 (en) | 2014-12-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6309615B2 (ja) | ターゲットキーワードを検出するための方法および装置 | |
EP2994911B1 (en) | Adaptive audio frame processing for keyword detection | |
JP6301451B2 (ja) | 音声アクティブ化を制御するための方法および装置 | |
US10770075B2 (en) | Method and apparatus for activating application by speech input | |
KR101981878B1 (ko) | 스피치의 방향에 기초한 전자 디바이스의 제어 | |
US9837068B2 (en) | Sound sample verification for generating sound detection model | |
KR101986354B1 (ko) | 키워드 오인식을 방지하는 음성 제어 장치 및 이의 동작 방법 | |
US20150193199A1 (en) | Tracking music in audio stream | |
WO2017154282A1 (ja) | 音声処理装置および音声処理方法 | |
CN112542157A (zh) | 语音处理方法、装置、电子设备及计算机可读存储介质 | |
US11195545B2 (en) | Method and apparatus for detecting an end of an utterance | |
CN116153291A (zh) | 一种语音识别方法及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170329 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170608 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20170608 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20170905 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170912 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180314 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6309615 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |