JP2021515905A - 音声認識方法、並びにその装置、デバイス、記憶媒体及びプログラム - Google Patents
音声認識方法、並びにその装置、デバイス、記憶媒体及びプログラム Download PDFInfo
- Publication number
- JP2021515905A JP2021515905A JP2020542123A JP2020542123A JP2021515905A JP 2021515905 A JP2021515905 A JP 2021515905A JP 2020542123 A JP2020542123 A JP 2020542123A JP 2020542123 A JP2020542123 A JP 2020542123A JP 2021515905 A JP2021515905 A JP 2021515905A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- segment
- candidate
- information
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 74
- 238000010801 machine learning Methods 0.000 claims abstract description 26
- 238000013527 convolutional neural network Methods 0.000 claims description 36
- 238000013528 artificial neural network Methods 0.000 claims description 32
- 230000006870 function Effects 0.000 claims description 22
- 238000012545 processing Methods 0.000 claims description 21
- 238000011176 pooling Methods 0.000 claims description 18
- 230000006266 hibernation Effects 0.000 claims description 16
- 230000007704 transition Effects 0.000 claims description 9
- 238000009432 framing Methods 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 12
- 238000000605 extraction Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000001514 detection method Methods 0.000 description 5
- 238000013178 mathematical model Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 238000012795 verification Methods 0.000 description 4
- 230000010354 integration Effects 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 230000003213 activating effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
- G10L15/05—Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
- G10L15/142—Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/025—Phonemes, fenemes or fenones being the recognition units
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Probability & Statistics with Applications (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Optimization (AREA)
- Algebra (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Mathematics (AREA)
- Biophysics (AREA)
- Mathematical Analysis (AREA)
- Pure & Applied Mathematics (AREA)
- Signal Processing (AREA)
- Telephonic Communication Services (AREA)
- Machine Translation (AREA)
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本願は、2018年3月22日に中国特許庁に提出された、出願番号が201810240076.Xであり、発明の名称が「音声認識方法、装置、デバイス、及び記憶媒体」である中国特許出願の優先権を主張し、その全ての内容は参照することにより本願に組み込まれる。
本願は、音声認識の分野に関し、特に音声認識方法、装置、デバイス、及び記憶媒体に関する。
音声情報を取得するステップと、
重み付き有限状態トランスデューサネットワークによって、前記音声情報における候補音声セグメント並びに前記候補音声セグメントの開始位置及び終了位置を決定するステップと、
前記開始位置及び前記終了位置に基づいて、前記音声情報から前記候補音声セグメントを切り取るステップと、
前記候補音声セグメントを機械学習モデルに入力し、前記機械学習モデルによって、前記候補音声セグメントに前記所定のキーワードが含まれるか否かを検出するステップと、
前記候補音声セグメントに前記所定のキーワードが含まれる場合、前記音声情報に所定のキーワードが含まれると決定するステップと、を含む。
端末が、取得された音声情報をサーバに送信するステップと、
前記サーバが、前記音声情報に所定のキーワードが含まれるか否かを検出するステップと、
前記音声情報に前記所定のキーワードが含まれる場合、前記サーバが、前記音声情報から候補音声セグメントを切り取るステップであって、前記候補音声セグメントが、前記所定のキーワードに対応する音声情報セグメントである、ステップと、
前記サーバが、前記候補音声セグメントを検証し、前記候補音声セグメントに前記所定のキーワードが含まれるか否かを再度検出するステップと、
前記候補音声セグメントに前記所定のキーワードが含まれる場合、前記端末にウェイクアップ指示を送信するステップと、
前記端末が、前記ウェイクアップ指示に従って、前記本機の休止状態及び/又は画面ロック状態を解除するステップと、を含む。
音声情報を取得する取得モジュールと、
重み付き有限状態トランスデューサネットワークによって、前記音声情報における候補音声セグメントの開始位置及び終了位置を決定し、前記開始位置及び前記終了位置に基づいて、前記音声情報から前記候補音声セグメントを切り取り、前記候補音声セグメントを機械学習モデルに入力し、前記機械学習モデルによって、前記候補音声セグメントに所定のキーワードが含まれるか否かを検出し、前記候補音声セグメントに前記所定のキーワードが含まれる場合、前記音声情報に所定のキーワードが含まれると決定する処理モジュールと、を含む。
処理モジュール1120は、さらに、音声情報をフレーム化することにより、複数のフレームの音声セグメントを取得し、複数のフレームの音声セグメントを重み付き有限状態トランスデューサネットワークに入力することにより、複数のフレームの音声セグメントに対応する事後確率が最大となる言語情報を取得し、
取得モジュール1110は、さらに、言語情報に所定のキーワードが含まれる場合、所定のキーワードに対応する候補音声セグメントの音声情報における開始位置及び終了位置を決定し、候補音声セグメントには、少なくとも複数のフレームの音声セグメントのうち1フレームの音声セグメントが含まれる。
処理モジュール1120は、さらに、複数のフレームの音声セグメントをディープニューラルネットワークに入力することにより、複数のフレームの音声セグメントのうちの各フレームの音声セグメントに対応する隠れ状態の事後確率を取得し、各フレームの音声セグメントに対応する隠れ状態の事後確率に基づいて、隠れマルコフモデルによって、各フレームの音声セグメントに対応する隠れ状態を取得し、各フレームの音声セグメントに対応する隠れ状態に基づいて、複数のフレームの音声セグメントに対応する音素を取得し、複数のフレームの音声セグメントに対応する音素に基づいて、辞書及び言語モデルを参照することにより、複数のフレームの音声セグメントに対応する事後確率が最大となる言語情報を取得し、ここで、前記辞書には、前記音素と単語との対応関係が含まれ、前記言語モデルには、前記単語と文法及び/又は構文との対応関係が含まれる。
処理モジュール1120は、さらに、ベイズの公式によって、各フレームの音声セグメントに対応する隠れ状態の事後確率を変換することにより、各フレームの音声セグメントに対応する隠れ状態の出力確率を取得し、各フレームの音声セグメントに対応する隠れ状態の出力確率、隠れマルコフモデルにおける各隠れ状態の初期確率及び各隠れ状態間の遷移確率に基づいて、隠れマルコフモデルによって順方向復号を行うことにより、各フレームの音声セグメントに対応する隠れ状態を取得する。
処理モジュール1120は、さらに、候補音声セグメントを畳み込みニューラルネットワークに入力し、畳み込みニューラルネットワークによって、候補音声セグメントに対して畳み込み及びプーリングを行うことにより、候補音声セグメントの高レベルの意味的特徴を抽出し、畳み込みニューラルネットワークにおける全結合層及びソフトマックス関数によって、候補音声セグメントの高レベルの意味的特徴を分類し、候補音声セグメントに前記所定のキーワードが含まれるか否かを検出する。
120 サーバ
130 端末
400 移動窓
910 スマートロボット
920 スマートスピーカー
930 スマートフォン
1010 ユーザ
1020 電子デバイス
1110 取得モジュール
1120 処理モジュール
1210 プロセッサ
1220 メモリ
Claims (17)
- コンピューティングデバイスが実行する音声認識方法であって、
音声情報を取得するステップと、
重み付き有限状態トランスデューサネットワークによって、前記音声情報における候補音声セグメントの開始位置及び終了位置を決定するステップであって、前記候補音声セグメントが、所定のキーワードに対応する音声情報セグメントである、ステップと、
前記開始位置及び前記終了位置に基づいて、前記音声情報から前記候補音声セグメントを切り取るステップと、
前記候補音声セグメントを機械学習モデルに入力し、前記機械学習モデルによって、前記候補音声セグメントに前記所定のキーワードが含まれるか否かを検出するステップと、
前記候補音声セグメントに前記所定のキーワードが含まれる場合、前記音声情報に前記所定のキーワードが含まれると決定するステップと、
を含むことを特徴とする方法。 - 前記重み付き有限状態トランスデューサネットワークによって、前記音声情報における候補音声セグメントの開始位置及び終了位置を決定するステップは、
前記音声情報をフレーム化することにより、複数のフレームの音声セグメントを取得するステップと、
前記複数のフレームの音声セグメントを前記重み付き有限状態トランスデューサネットワークに入力することにより、前記複数のフレームの音声セグメントに対応する事後確率が最大となる言語情報を取得するステップと、
前記言語情報に所定のキーワードが含まれる場合、前記所定のキーワードに対応する候補音声セグメントの前記音声情報における開始位置及び終了位置を決定するステップであって、前記候補音声セグメントには、少なくとも前記複数のフレームの音声セグメントのうち1フレームの音声セグメントが含まれる、ステップと、
を含むことを特徴とする請求項1に記載の方法。 - 前記重み付き有限状態トランスデューサネットワークは、ディープニューラルネットワークと、隠れマルコフモデルと、辞書と、言語モデルとを含み、前記複数のフレームの音声セグメントを重み付き有限状態トランスデューサネットワークに入力することにより、前記複数のフレームの音声セグメントに対応する事後確率が最大となる言語情報を取得するステップは、
前記複数のフレームの音声セグメントを前記ディープニューラルネットワークに入力することにより、前記複数のフレームの音声セグメントのうちの各フレームの音声セグメントに対応する隠れ状態の事後確率を取得するステップと、
前記各フレームの音声セグメントに対応する隠れ状態の事後確率に基づいて、前記隠れマルコフモデルによって、前記各フレームの音声セグメントに対応する隠れ状態を取得するステップと、
前記各フレームの音声セグメントに対応する隠れ状態に基づいて、前記複数のフレームの音声セグメントに対応する音素を取得するステップと、
前記複数のフレームの音声セグメントに対応する音素に基づいて、前記辞書及び前記言語モデルを参照することにより、前記複数のフレームの音声セグメントに対応する事後確率が最大となる言語情報を取得するステップと、を含み、
前記辞書には、前記音素と単語との対応関係が含まれ、前記言語モデルには、前記単語と文法及び/又は構文との対応関係が含まれる、
ことを特徴とする請求項2に記載の方法。 - 前記各フレームの音声セグメントに対応する隠れ状態の事後確率に基づいて、前記隠れマルコフモデルによって、前記各フレームの音声セグメントに対応する隠れ状態を取得するステップは、
ベイズの公式によって、前記各フレームの音声セグメントに対応する隠れ状態の事後確率を変換することにより、前記各フレームの音声セグメントに対応する隠れ状態の出力確率を取得するステップと、
前記各フレームの音声セグメントに対応する隠れ状態の出力確率、前記隠れマルコフモデルにおける各隠れ状態の初期確率及び前記各隠れ状態間の遷移確率に基づいて、前記隠れマルコフモデルによって順方向復号を行うことにより、前記各フレームの音声セグメントに対応する隠れ状態を取得するステップと、
を含むことを特徴とする請求項3に記載の方法。 - 前記機械学習モデルは、畳み込みニューラルネットワークであり、前記候補音声セグメントを機械学習モデルに入力し、前記機械学習モデルによって、前記候補音声セグメントに所定のキーワードが含まれるか否かを検出するステップは、
前記候補音声セグメントを前記畳み込みニューラルネットワークに入力するステップと、
前記畳み込みニューラルネットワークによって、前記候補音声セグメントに対して畳み込み及びプーリングを行うことにより、前記候補音声セグメントの高レベルの意味的特徴を抽出するステップと、
前記畳み込みニューラルネットワークにおける全結合層及びソフトマックス関数によって、前記候補音声セグメントの高レベルの意味的特徴を分類し、前記候補音声セグメントに前記所定のキーワードが含まれるか否かを検出するステップと、を含む、
ことを特徴とする請求項1〜4のいずれか1項に記載の方法。 - 前記コンピューティングデバイスは、サーバであり、
前記音声情報を取得するステップは、前記サーバが端末から音声情報を受信するステップを含み、
前記音声情報に前記所定のキーワードが含まれると決定するステップの後に、前記方法は、前記サーバが前記端末にウェイクアップ指示を送信するステップであって、前記ウェイクアップ指示が、前記端末の休止状態及び/又は画面ロック状態を解除するためのものである、ステップをさらに含む、
ことを特徴とする請求項1〜5のいずれか1項に記載の方法。 - 前記コンピューティングデバイスは、端末であり、
前記音声情報に前記所定のキーワードが含まれると決定するステップの後に、前記方法は、前記端末が、本機の休止状態及び/又は画面ロック状態を解除するステップをさらに含む、
ことを特徴とする請求項1〜5のいずれか1項に記載の方法。 - 音声認識装置であって、
取得モジュールと、処理モジュールと、を含み、
前記取得モジュールは、音声情報を取得し、
前記処理モジュールは、重み付き有限状態トランスデューサネットワークによって、前記音声情報における候補音声セグメントの開始位置及び終了位置を決定し、前記候補音声セグメントが、所定のキーワードに対応する音声情報セグメントであり、前記開始位置及び前記終了位置に基づいて、前記音声情報から前記候補音声セグメントを切り取り、前記候補音声セグメントを機械学習モデルに入力し、前記機械学習モデルによって、前記候補音声セグメントに前記所定のキーワードが含まれるか否かを検出し、前記候補音声セグメントに前記所定のキーワードが含まれる場合、前記音声情報に所定のキーワードが含まれると決定する、
ことを特徴とする装置。 - 前記処理モジュールは、さらに、前記音声情報をフレーム化することにより、複数のフレームの音声セグメントを取得し、前記複数のフレームの音声セグメントを前記重み付き有限状態トランスデューサネットワークに入力することにより、前記複数のフレームの音声セグメントに対応する事後確率が最大となる言語情報を取得し、
前記取得モジュールは、さらに、前記言語情報に所定のキーワードが含まれる場合、前記所定のキーワードに対応する候補音声セグメントの前記音声情報における開始位置及び終了位置を決定し、前記候補音声セグメントには、少なくとも前記複数のフレームの音声セグメントのうち1フレームの音声セグメントが含まれる、
ことを特徴とする請求項8に記載の装置。 - 前記重み付き有限状態トランスデューサネットワークは、ディープニューラルネットワークと、隠れマルコフモデルと、辞書と、言語モデルとを含み、
前記処理モジュールは、さらに、前記複数のフレームの音声セグメントを前記ディープニューラルネットワークに入力することにより、前記複数のフレームの音声セグメントのうちの各フレームの音声セグメントに対応する隠れ状態の事後確率を取得し、前記各フレームの音声セグメントに対応する隠れ状態の事後確率に基づいて、前記隠れマルコフモデルによって、前記各フレームの音声セグメントに対応する隠れ状態を取得し、前記各フレームの音声セグメントに対応する隠れ状態に基づいて、前記複数のフレームの音声セグメントに対応する音素を取得し、前記複数のフレームの音声セグメントに対応する音素に基づいて、前記辞書及び前記言語モデルを参照することにより、前記複数のフレームの音声セグメントに対応する事後確率が最大となる言語情報を取得し、
前記辞書には、前記音素と単語との対応関係が含まれ、前記言語モデルには、前記単語と文法及び/又は構文との対応関係が含まれる、
ことを特徴とする請求項9に記載の装置。 - 前記処理モジュールは、さらに、ベイズの公式によって、前記各フレームの音声セグメントに対応する隠れ状態の事後確率を変換することにより、前記各フレームの音声セグメントに対応する隠れ状態の出力確率を取得し、前記各フレームの音声セグメントに対応する隠れ状態の出力確率、前記隠れマルコフモデルにおける各隠れ状態の初期確率及び前記各隠れ状態間の遷移確率に基づいて、前記隠れマルコフモデルによって順方向復号を行うことにより、前記各フレームの音声セグメントに対応する隠れ状態を取得する、
ことを特徴とする請求項10に記載の装置。 - 前記機械学習モデルは、畳み込みニューラルネットワークであり、
前記処理モジュールは、さらに、前記候補音声セグメントを前記畳み込みニューラルネットワークに入力し、前記畳み込みニューラルネットワークによって、前記候補音声セグメントに対して畳み込み及びプーリングを行うことにより、前記候補音声セグメントの高レベルの意味的特徴を抽出し、前記畳み込みニューラルネットワークにおける全結合層及びソフトマックス関数によって、前記候補音声セグメントの高レベルの意味的特徴を分類し、前記候補音声セグメントに前記所定のキーワードが含まれるか否かを検出する、
ことを特徴とする請求項8〜11のいずれか1項に記載の装置。 - 前記取得モジュールは、さらに、端末から音声情報を受信し、
前記処理モジュールは、さらに、前記音声情報に前記所定のキーワードが含まれると決定した後に、前記端末にウェイクアップ指示を送信し、前記ウェイクアップ指示が、前記端末の休止状態及び/又は画面ロック状態を解除するためのものである、
ことを特徴とする請求項8〜12のいずれか1項に記載の装置。 - 前記処理モジュールは、さらに、前記音声情報に前記所定のキーワードが含まれると決定した後に、本機の休止状態及び/又は画面ロック状態を解除する、
ことを特徴とする請求項8〜12のいずれか1項に記載の装置。 - 音声認識デバイスであって、プロセッサとメモリとを備え、前記メモリには、少なくとも1つの命令が記憶され、前記少なくとも1つの命令は、前記プロセッサによりロードされて実行されることで、請求項1〜7のいずれか1項に記載の音声認識方法を実現させる、ことを特徴とする音声認識デバイス。
- コンピュータ読み取り可能な記憶媒体であって、少なくとも1つの命令が記憶され、少なくとも1つの命令は、プロセッサによりロードされて実行されることで、請求項1〜7のいずれか1項に記載の音声認識方法を実現させる、ことを特徴とする記憶媒体。
- 請求項1〜7のいずれか1項に記載の音声認識方法をコンピューティングデバイスに実行させるコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810240076.XA CN108564941B (zh) | 2018-03-22 | 2018-03-22 | 语音识别方法、装置、设备及存储介质 |
CN201810240076.X | 2018-03-22 | ||
PCT/CN2019/076223 WO2019179285A1 (zh) | 2018-03-22 | 2019-02-27 | 语音识别方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021515905A true JP2021515905A (ja) | 2021-06-24 |
JP6980119B2 JP6980119B2 (ja) | 2021-12-15 |
Family
ID=63533050
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020542123A Active JP6980119B2 (ja) | 2018-03-22 | 2019-02-27 | 音声認識方法、並びにその装置、デバイス、記憶媒体及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11450312B2 (ja) |
EP (1) | EP3770905A4 (ja) |
JP (1) | JP6980119B2 (ja) |
CN (1) | CN108564941B (ja) |
WO (1) | WO2019179285A1 (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108564941B (zh) * | 2018-03-22 | 2020-06-02 | 腾讯科技(深圳)有限公司 | 语音识别方法、装置、设备及存储介质 |
CN108566634B (zh) * | 2018-03-30 | 2021-06-25 | 深圳市冠旭电子股份有限公司 | 降低蓝牙音箱连续唤醒延时的方法、装置及蓝牙音箱 |
CN109273007B (zh) * | 2018-10-11 | 2022-05-17 | 西安讯飞超脑信息科技有限公司 | 语音唤醒方法及装置 |
CN109378000B (zh) * | 2018-12-19 | 2022-06-07 | 科大讯飞股份有限公司 | 语音唤醒方法、装置、系统、设备、服务器及存储介质 |
CN109741752A (zh) * | 2018-12-27 | 2019-05-10 | 金现代信息产业股份有限公司 | 一种基于语音识别的人事考评方法与系统 |
US11158307B1 (en) * | 2019-03-25 | 2021-10-26 | Amazon Technologies, Inc. | Alternate utterance generation |
CN110211588A (zh) * | 2019-06-03 | 2019-09-06 | 北京达佳互联信息技术有限公司 | 语音识别方法、装置及电子设备 |
CN110335592B (zh) * | 2019-06-28 | 2022-06-03 | 腾讯科技(深圳)有限公司 | 语音音素识别方法和装置、存储介质及电子装置 |
CN110473536B (zh) * | 2019-08-20 | 2021-10-15 | 北京声智科技有限公司 | 一种唤醒方法、装置和智能设备 |
CN110995938B (zh) * | 2019-12-13 | 2022-04-26 | 度小满科技(北京)有限公司 | 数据处理方法和装置 |
CN111432305A (zh) * | 2020-03-27 | 2020-07-17 | 歌尔科技有限公司 | 一种耳机告警方法、装置及无线耳机 |
CN111522592A (zh) * | 2020-04-24 | 2020-08-11 | 腾讯科技(深圳)有限公司 | 一种基于人工智能的智能终端唤醒方法和装置 |
CN112113317B (zh) * | 2020-10-14 | 2024-05-24 | 清华大学 | 一种室内热环境控制系统及方法 |
CN112259077B (zh) * | 2020-10-20 | 2024-04-09 | 网易(杭州)网络有限公司 | 语音识别方法、装置、终端和存储介质 |
CN112002308B (zh) * | 2020-10-30 | 2024-01-09 | 腾讯科技(深圳)有限公司 | 一种语音识别方法及装置 |
CN112530408A (zh) * | 2020-11-20 | 2021-03-19 | 北京有竹居网络技术有限公司 | 用于识别语音的方法、装置、电子设备和介质 |
CN112634897B (zh) * | 2020-12-31 | 2022-10-28 | 青岛海尔科技有限公司 | 设备唤醒方法、装置和存储介质及电子装置 |
CN113782005B (zh) * | 2021-01-18 | 2024-03-01 | 北京沃东天骏信息技术有限公司 | 语音识别方法及装置、存储介质及电子设备 |
CN113761841B (zh) * | 2021-04-19 | 2023-07-25 | 腾讯科技(深圳)有限公司 | 将文本数据转换为声学特征的方法 |
CN113516997A (zh) * | 2021-04-26 | 2021-10-19 | 常州分音塔科技有限公司 | 一种语音事件识别装置和方法 |
CN113129874B (zh) * | 2021-04-27 | 2022-05-10 | 思必驰科技股份有限公司 | 语音唤醒方法及系统 |
CN113707135B (zh) * | 2021-10-27 | 2021-12-31 | 成都启英泰伦科技有限公司 | 一种高精度连续语音识别的声学模型训练方法 |
CN114038457B (zh) * | 2021-11-04 | 2022-09-13 | 贝壳找房(北京)科技有限公司 | 用于语音唤醒的方法、电子设备、存储介质和程序 |
US11770268B2 (en) * | 2022-02-14 | 2023-09-26 | Intel Corporation | Enhanced notifications for online collaboration applications |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015082138A (ja) * | 2013-10-21 | 2015-04-27 | 富士通株式会社 | 音声検索装置及び音声検索方法 |
US20160267906A1 (en) * | 2015-03-11 | 2016-09-15 | International Business Machines Corporation | Method and system for order-free spoken term detection |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1525577B1 (en) * | 2002-08-01 | 2006-06-21 | Telefonaktiebolaget LM Ericsson (publ) | Method for automatic speech recognition |
EP2003572B1 (en) * | 2007-05-22 | 2010-08-04 | Honda Motor Co., Ltd. | Language understanding device |
US9477753B2 (en) * | 2013-03-12 | 2016-10-25 | International Business Machines Corporation | Classifier-based system combination for spoken term detection |
US9390708B1 (en) * | 2013-05-28 | 2016-07-12 | Amazon Technologies, Inc. | Low latency and memory efficient keywork spotting |
JP2014232258A (ja) * | 2013-05-30 | 2014-12-11 | 株式会社東芝 | 連携業務支援装置、方法およびプログラム |
US9196243B2 (en) * | 2014-03-31 | 2015-11-24 | International Business Machines Corporation | Method and system for efficient spoken term detection using confusion networks |
EP3254453B1 (en) * | 2015-02-03 | 2019-05-08 | Dolby Laboratories Licensing Corporation | Conference segmentation based on conversational dynamics |
WO2016126770A2 (en) * | 2015-02-03 | 2016-08-11 | Dolby Laboratories Licensing Corporation | Selective conference digest |
CN107210045B (zh) * | 2015-02-03 | 2020-11-17 | 杜比实验室特许公司 | 会议搜索以及搜索结果的回放 |
CN107210036B (zh) * | 2015-02-03 | 2021-02-26 | 杜比实验室特许公司 | 会议词语云 |
WO2016126819A1 (en) * | 2015-02-03 | 2016-08-11 | Dolby Laboratories Licensing Corporation | Optimized virtual scene layout for spatial meeting playback |
EP3254435B1 (en) * | 2015-02-03 | 2020-08-26 | Dolby Laboratories Licensing Corporation | Post-conference playback system having higher perceived quality than originally heard in the conference |
US10334384B2 (en) * | 2015-02-03 | 2019-06-25 | Dolby Laboratories Licensing Corporation | Scheduling playback of audio in a virtual acoustic space |
WO2016205296A1 (en) * | 2015-06-16 | 2016-12-22 | Dolby Laboratories Licensing Corporation | Post-teleconference playback using non-destructive audio transport |
KR102371188B1 (ko) | 2015-06-30 | 2022-03-04 | 삼성전자주식회사 | 음성 인식 장치 및 방법과 전자 장치 |
CN105679316A (zh) * | 2015-12-29 | 2016-06-15 | 深圳微服机器人科技有限公司 | 一种基于深度神经网络的语音关键词识别方法及装置 |
CN107767863B (zh) * | 2016-08-22 | 2021-05-04 | 科大讯飞股份有限公司 | 语音唤醒方法、系统及智能终端 |
CN106157950A (zh) * | 2016-09-29 | 2016-11-23 | 合肥华凌股份有限公司 | 语音控制系统及其唤醒方法、唤醒装置和家电、协处理器 |
CN106448663B (zh) * | 2016-10-17 | 2020-10-23 | 海信集团有限公司 | 语音唤醒方法及语音交互装置 |
CN110444199B (zh) * | 2017-05-27 | 2022-01-07 | 腾讯科技(深圳)有限公司 | 一种语音关键词识别方法、装置、终端及服务器 |
CN107578776B (zh) * | 2017-09-25 | 2021-08-06 | 咪咕文化科技有限公司 | 一种语音交互的唤醒方法、装置及计算机可读存储介质 |
CN107622770B (zh) * | 2017-09-30 | 2021-03-16 | 百度在线网络技术(北京)有限公司 | 语音唤醒方法及装置 |
CN108564941B (zh) * | 2018-03-22 | 2020-06-02 | 腾讯科技(深圳)有限公司 | 语音识别方法、装置、设备及存储介质 |
US11295739B2 (en) * | 2018-08-23 | 2022-04-05 | Google Llc | Key phrase spotting |
US11308958B2 (en) * | 2020-02-07 | 2022-04-19 | Sonos, Inc. | Localized wakeword verification |
-
2018
- 2018-03-22 CN CN201810240076.XA patent/CN108564941B/zh active Active
-
2019
- 2019-02-27 EP EP19770634.4A patent/EP3770905A4/en active Pending
- 2019-02-27 JP JP2020542123A patent/JP6980119B2/ja active Active
- 2019-02-27 WO PCT/CN2019/076223 patent/WO2019179285A1/zh active Application Filing
-
2020
- 2020-06-12 US US16/900,824 patent/US11450312B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015082138A (ja) * | 2013-10-21 | 2015-04-27 | 富士通株式会社 | 音声検索装置及び音声検索方法 |
US20160267906A1 (en) * | 2015-03-11 | 2016-09-15 | International Business Machines Corporation | Method and system for order-free spoken term detection |
Non-Patent Citations (2)
Title |
---|
SAINATH ET AL.: "Convolutional Neural Networks for Small-footprint Keyword Spotting", INTERSPEECH 2015, JPN6021043511, 10 September 2015 (2015-09-10), ISSN: 0004632906 * |
WANG ET AL.: "Context Dependent Acoustic Keyword Spotting Using Deep Neural Network", 2013 ASIA-PACIFIC SIGNAL AND INFORMATION PROCESSING ASSOCIATION ANNUAL SUMMIT AND CONFERENCE, JPN6021043509, 1 November 2013 (2013-11-01), ISSN: 0004632905 * |
Also Published As
Publication number | Publication date |
---|---|
US11450312B2 (en) | 2022-09-20 |
JP6980119B2 (ja) | 2021-12-15 |
WO2019179285A1 (zh) | 2019-09-26 |
CN108564941A (zh) | 2018-09-21 |
US20200312309A1 (en) | 2020-10-01 |
EP3770905A1 (en) | 2021-01-27 |
CN108564941B (zh) | 2020-06-02 |
EP3770905A4 (en) | 2021-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6980119B2 (ja) | 音声認識方法、並びにその装置、デバイス、記憶媒体及びプログラム | |
CN110389996B (zh) | 实现用于自然语言处理的全句递归神经网络语言模型 | |
US20240038218A1 (en) | Speech model personalization via ambient context harvesting | |
US11158305B2 (en) | Online verification of custom wake word | |
US10460721B2 (en) | Dialogue act estimation method, dialogue act estimation apparatus, and storage medium | |
JP6538779B2 (ja) | 音声対話システム、音声対話方法、および音声対話システムを適合させる方法 | |
US11769492B2 (en) | Voice conversation analysis method and apparatus using artificial intelligence | |
Du et al. | Deepcruiser: Automated guided testing for stateful deep learning systems | |
KR20190002812A (ko) | 음성 인식 방법 및 그 장치 | |
CN111081230A (zh) | 语音识别方法和设备 | |
CN110335608B (zh) | 声纹验证方法、装置、设备及存储介质 | |
US11620992B2 (en) | Automated speech recognition confidence classifier | |
KR20210047709A (ko) | 음성 인식 방법 및 음성 인식 장치 | |
CN115457938A (zh) | 识别唤醒词的方法、装置、存储介质及电子装置 | |
CN118043885A (zh) | 用于半监督语音识别的对比孪生网络 | |
CN115132196A (zh) | 语音指令识别的方法、装置、电子设备及存储介质 | |
Mohanty et al. | CNN based keyword spotting: an application for context based voiced Odia words | |
CN114360514A (zh) | 语音识别方法、装置、设备、介质及产品 | |
Hwang et al. | End-to-end speech endpoint detection utilizing acoustic and language modeling knowledge for online low-latency speech recognition | |
CN115691475A (zh) | 用于训练语音识别模型的方法以及语音识别方法 | |
KR20230120790A (ko) | 가변적 언어모델을 이용한 음성인식 헬스케어 서비스 | |
JP7291099B2 (ja) | 音声認識方法及び装置 | |
CN115273862A (zh) | 语音处理的方法、装置、电子设备和介质 | |
CN114756662A (zh) | 基于多模态输入的任务特定文本生成 | |
CN112951270B (zh) | 语音流利度检测的方法、装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200908 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211022 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211102 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211116 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6980119 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |