JP2020518861A - 音声認識方法、装置、デバイス、及び記憶媒体 - Google Patents
音声認識方法、装置、デバイス、及び記憶媒体 Download PDFInfo
- Publication number
- JP2020518861A JP2020518861A JP2019560155A JP2019560155A JP2020518861A JP 2020518861 A JP2020518861 A JP 2020518861A JP 2019560155 A JP2019560155 A JP 2019560155A JP 2019560155 A JP2019560155 A JP 2019560155A JP 2020518861 A JP2020518861 A JP 2020518861A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- keyword
- candidate recognition
- result
- recognition result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 230000006870 function Effects 0.000 claims description 62
- 230000000875 corresponding effect Effects 0.000 claims description 45
- 230000005236 sound signal Effects 0.000 claims description 9
- 238000004458 analytical method Methods 0.000 claims description 3
- 238000001514 detection method Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 230000002596 correlated effect Effects 0.000 claims 3
- 238000010586 diagram Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 230000004044 response Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 241001424309 Arita Species 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 241000102542 Kara Species 0.000 description 1
- 241000580955 Sapindus mukorossi Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/19—Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
- G10L15/197—Probabilistic grammars, e.g. word n-grams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/081—Search algorithms, e.g. Baum-Welch or Viterbi
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/085—Methods for reducing search complexity, pruning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Abstract
Description
本願の実施例は、コンピュータ分野に関し、特に、音声認識方法、装置、デバイス、及び記憶媒体に関する。
本願の一態様によれば、音声認識方法が提供され、前記方法は、
音声信号を取得し、
音声認識アルゴリズムにより前記音声信号を認識して、前記音声信号に対応するテキスト情報であるn(nは1より大きい整数)個の候補認識結果を得、
m(mは1より大きい整数)種の選択規則のうち実行順序がj(jの初期値は1)である選択規則により、前記n個の候補認識結果のうち前記音声信号とのマッチング度が最も高い候補認識結果である目標結果を決定し、
前記実行順序がjである選択規則により前記目標結果が決定されなかった場合、実行順序がj+1である選択規則により、前記n個の候補認識結果のうちの前記目標結果を決定する、ことを含む。
音声信号を取得する信号取得モジュールと、
音声認識アルゴリズムにより、前記信号取得モジュールで取得された前記音声信号を認識して、前記音声信号に対応するテキスト情報であるn(nは1より大きい整数)個の候補認識結果を得る音声認識モジュールと、
m(mは1より大きい整数)種の選択規則のうち実行順序がj(jの初期値は1)である選択規則により、前記音声認識モジュールで認識された前記n個の候補認識結果のうち前記音声信号とのマッチング度が最も高い候補認識結果である目標結果を決定する決定モジュールと、を含み、
前記決定モジュールは、前記第1の決定モジュールによって、前記実行順序がjである選択規則により前記目標結果が決定されなかった場合、実行順序がj+1である選択規則により、前記n個の候補認識結果のうちの前記目標結果を決定する。
まず、本願の実施例に係る若干の用語を説明する。
選択的に、音声認識デバイスは、音声認識エンジンが実装されたサーバであってよく、この音声認識エンジンによって、音声信号をテキスト情報として認識する。
イスから送信された音声信号を受信することを例に説明する。
選択的に、音声信号は、音声受信デバイスから音声認識デバイスに送信されるものであり、又は音声認識デバイスで収集されるものであり、又は、モバイル記憶装置を介して音声認識デバイスに入力されるものである。
ここで、候補認識結果とは、音声信号に対応するテキスト情報を指す。nは、1より大きい整数である。
補足的に説明すべきものとして、音声認識デバイスは、1つの候補認識結果のみを認識してもよく、本実施例では限定されない。
目標結果とは、n個の候補認識結果のうち、音声信号とのマッチング度が最も高い候補認識結果を指す。mは1より大きい整数であり、jの初期値は1である。1≦j≦m−1である。
選択的に、m種の選択規則の実行順序はランダムに選択される。
ステップ201で、命令レキシコンの第1の対応関係にi番目の候補認識結果とマッチングする命令キーワードが含まれるかどうかを検出する。
選択的に、第1の対応関係は、正引きテーブルにより実現される。この正引きテーブルは、少なくとも1つのキー/値ペアを含み、各キー/値ペアのキーがハッシュ値(インデックス値)であり、各キー/値ペアの値が命令キーワードである。
本実施例では、第1の対応関係のキー/値ペアの数を限定しないが、例示的に、第1の対応関係のキー/値ペアの数は1000である。
ステップ202で、i番目の候補認識結果を目標結果として決定し、フローを終了する。
選択的に、第2の対応関係は、逆引きテーブルにより実現される。この逆引きテーブルは、少なくとも1つのキー/値ペアを含み、各キー/値ペアのキーが1文字キーワードのハッシュ値であり、各キー/値ペアの値がこの1文字キーワードに対応する第1の対応関係における少なくとも1つのインデックス値である。
選択的に、第2の対応関係における各キー/値ペアのキーは、1文字キーワードであってもよい。
ステップ205で、i番目の候補認識結果と命令キーワードとの編集距離を決定する。
ステップ206で、編集距離が所定値より小さい場合、i番目の候補認識結果を目標結果として決定する。
所定値は、通常小さい値を取るが、本実施例では、所定値を限定しない。例示的に、所定値は2である。
という命令キーワードを検索する。中国語の
選択的に、音声認識デバイスには、少なくとも1つの機能テンプレートを含む機能テンプレートライブラリが予め設けられている。
選択的に、機能選択規則により目標結果が選択されなかった場合、音声認識デバイスは、他の選択規則により目標結果を選択し続け、又は、1番目の候補認識結果を目標結果として決定し、又は、目標結果を選択せずに、フローを終了する。ここで、他の選択規則は、命令選択規則又は会話選択規則である。
言語モデルは、自然言語に内在する法則を記述するための数学モデルである。
選択的に、3−gram言語モデルは、以下の数式によって表される。
p(S)=p(w1)p(w2|w1)p(w3|w1,w2)...p(wn|w1,w2,...,wn−1)
=p(w1)p(w2|w1)p(w3|w1,w2)...p(wn|wn−1,wn−2)
p(S)=p(w1)p(w2|w1)p(w3|w1,w2)...p(wn|w1,w2,...,wn−1)
=p(w1)p(w2|w1)p(w3|w2)...p(wn|wn−1)
もちろん、少なくとも1つの分野は、他の分野を含んでもよいが、本実施例では限定されない。
音声信号を取得する信号取得モジュール610と、
音声認識アルゴリズムにより、前記信号取得モジュール610で取得された前記音声信号を認識して、前記音声信号に対応するテキスト情報であるn(nは1より大きい整数)個の候補認識結果を得る音声認識モジュール620と、
m(mは1より大きい整数)種の選択規則のうち実行順序がj(jの初期値は1)である選択規則により、前記音声認識モジュール620で認識された前記n個の候補認識結果のうち前記音声信号とのマッチング度が最も高い候補認識結果である目標結果を決定する決定モジュール630と、を含んでよく、
前記決定モジュール630は、前記実行順序がjである選択規則により前記目標結果が決定されなかった場合、実行順序がj+1である選択規則により、前記n個の候補認識結果のうちの前記目標結果を決定する。
機能選択規則は、音声レキシコンに音声キーワードとマッチングするレキシコンキーワードが含まれるかどうかに基づいて、i番目の候補認識結果が目標結果であるかどうかを検出するように音声認識デバイスに指示するためのものであり、音声キーワードは、i番目の候補認識結果における少なくとも1つのキーワードであり、
会話選択規則は、トレーニングされた言語モデルに従って、各候補認識結果と音声信号との類似度を決定することにより、目標結果を選択するように音声認識デバイスに指示するためのものである。
命令レキシコンの第1の対応関係にi(1≦i≦n)番目の候補認識結果とマッチングする命令キーワードが含まれるかどうかを検出する第1の検出手段と、
第1の対応関係にi番目の候補認識結果とマッチングする命令キーワードが含まれる場合、i番目の候補認識結果を目標結果として決定する第1の決定手段と、を含み、
第1の対応関係は、少なくとも命令キーワードを含む。
第1の対応関係にn個の候補認識結果のうちのいずれの候補認識結果とマッチングする命令キーワードも含まれない場合、命令レキシコンの第2の対応関係にi番目の候補認識結果におけるいずれか1文字とマッチングする1文字キーワードが含まれるかどうかを検出する第2の検出手段と、
第2の対応関係にi番目の候補認識結果における文字とマッチングする1文字キーワードが含まれる場合、第2の対応関係における1文字キーワードに対応するインデックス値に基づいて、第1の対応関係においてインデックス値に対応する命令キーワードを検索するキーワード検索手段と、
i番目の候補認識結果を命令キーワードに変換するために必要な操作回数を示すための、i番目の候補認識結果と命令キーワードとの編集距離を決定する第2の決定手段と、
編集距離が所定値より小さい場合、i番目の候補認識結果を目標結果として決定する第3の決定手段と、をさらに含み、
第1の対応関係は、インデックス値と命令キーワードとの対応関係を含み、第2の対応関係は、インデックス値と1文字キーワードとの対応関係を含む。
i(1≦i≦n)番目の候補認識結果の機能テンプレートを分析するテンプレート分析手段と、
音声レキシコンにi番目の候補認識結果における音声キーワードとマッチングするレキシコンキーワードが含まれるかどうかを検出する第3の検出手段と、
音声キーワードは、i番目の候補認識結果における少なくとも1つのキーワードであり、
i番目の候補認識結果は、機能テンプレートと音声キーワードとを含む。
言語モデルに従って、各候補認識結果のパープレキシティを計算するパープレキシティ計算手段と、
n個の候補認識結果のパープレキシティの最小値を決定し、最小値に対応するi番目の候補認識結果を目標結果として決定する第5の決定手段と、を含み、
パープレキシティは、候補認識結果と音声信号との類似度を示すためのものであり、パープレキシティと類似度とが負の相関関係にあり、言語モデルは、少なくとも1つの分野に対応する専用コーパスから生成されたN−gram言語モデルであり、N−gram言語モデルは、現在の単語の前のN−1個(Nは正整数)の単語の生起確率に基づいて、現在の単語の生起確率を決定するために使用される。
例示的に、目標結果に応じて命令の実行を行うことは、再生、一時停止、前の曲、次の曲の少なくとも1つの命令の実行を含む。
620:音声認識モジュール
630:決定モジュール
700:音声認識デバイス
701:中央処理装置
702:ランダムアクセスメモリ
703:読み出し専用メモリ
704:システムメモリ
705:システムバス
706:入出力システム
707:大容量記憶装置
708:ディスプレイ
709:入力デバイス
710:入出力コントローラ
711:ネットワークインターフェースユニット
712:ネットワーク
713:オペレーティングシステム
714:アプリケーション
715:他のプログラムモジュール
音声信号を取得する信号取得モジュールと、
音声認識アルゴリズムにより、前記信号取得モジュールで取得された前記音声信号を認識して、前記音声信号に対応するテキスト情報であるn(nは1より大きい整数)個の候補認識結果を得る音声認識モジュールと、
m(mは1より大きい整数)種の選択規則のうち実行順序がj(jの初期値は1)である選択規則により、前記音声認識モジュールで認識された前記n個の候補認識結果のうち前記音声信号とのマッチング度が最も高い候補認識結果である目標結果を決定する決定モジュールと、を含み、
前記決定モジュールは、前記第1の決定モジュールによって、前記実行順序がjである選択規則により前記目標結果が決定されなかった場合、実行順序がj+1である選択規則により、前記n個の候補認識結果のうちの前記目標結果を決定する。
Claims (20)
- 音声認識方法であって、
音声信号を取得し、
音声認識アルゴリズムにより前記音声信号を認識して、前記音声信号に対応するテキスト情報であるn(nは1より大きい整数)個の候補認識結果を得、
m(mは1より大きい整数)種の選択規則のうち実行順序がj(jの初期値は1)である選択規則により、前記n個の候補認識結果のうち前記音声信号とのマッチング度が最も高い候補認識結果である目標結果を決定し、
前記実行順序がjである選択規則により前記目標結果が決定されなかった場合、実行順序がj+1である選択規則により、前記n個の候補認識結果のうちの前記目標結果を決定する、
ことを含むことを特徴とする方法。 - 前記m種の選択規則の実行順序がそれぞれのアルゴリズムの複雑さに基づいて決定され、前記実行順序と前記アルゴリズムの複雑さとが正の相関関係にあることを特徴とする請求項1に記載の方法。
- 前記m種の選択規則は、命令選択規則と、機能選択規則と、会話選択規則との少なくとも2種を含み、前記命令選択規則のアルゴリズムの複雑さが前記機能選択規則のアルゴリズムの複雑さよりも低く、前記機能選択規則のアルゴリズムの複雑さが前記会話選択規則のアルゴリズムの複雑さよりも低く、
前記命令選択規則は、命令レキシコンにi(1≦i≦n)番目の候補認識結果とマッチングする命令キーワードが含まれるかどうかに基づいて、前記i番目の候補認識結果が前記目標結果であるかどうかを検出するように音声認識デバイスに指示するためのものであり、
前記機能選択規則は、音声レキシコンに音声キーワードとマッチングするレキシコンキーワードが含まれるかどうかに基づいて、前記i番目の候補認識結果が前記目標結果であるかどうかを検出するように前記音声認識デバイスに指示するためのものであり、前記音声キーワードは、前記i番目の候補認識結果における少なくとも1つのキーワードであり、
前記会話選択規則は、トレーニングされた言語モデルに従って、各候補認識結果と前記音声信号との類似度を決定することにより、前記目標結果を選択するように前記音声認識デバイスに指示するためのものである、
ことを特徴とする請求項1に記載の方法。 - 前記実行順序がjである選択規則は前記命令選択規則を含み、前記m種の選択規則のうち実行順序がjである選択規則により、前記n個の候補認識結果のうちの目標結果を決定することは、
前記命令レキシコンの第1の対応関係に前記i(1≦i≦n)番目の候補認識結果とマッチングする命令キーワードが含まれるかどうかを検出し、
前記第1の対応関係に前記i番目の候補認識結果とマッチングする命令キーワードが含まれる場合、前記i番目の候補認識結果を前記目標結果として決定する、ことを含み、
前記第1の対応関係は、少なくとも前記命令キーワードを含む、
ことを特徴とする請求項3に記載の方法。 - 前記命令レキシコンの第1の対応関係に前記i番目の候補認識結果とマッチングする命令キーワードが含まれるかどうかを検出した後、
前記第1の対応関係に前記n個の候補認識結果のうちのいずれの候補認識結果とマッチングする命令キーワードも含まれない場合、前記命令レキシコンの第2の対応関係に前記i番目の候補認識結果におけるいずれか1文字とマッチングする1文字キーワードが含まれるかどうかを検出し、
前記第2の対応関係に前記i番目の候補認識結果における文字とマッチングする1文字キーワードが含まれる場合、前記第2の対応関係における前記1文字キーワードに対応するインデックス値に基づいて、前記第1の対応関係において前記インデックス値に対応する命令キーワードを検索し、
前記i番目の候補認識結果を前記命令キーワードに変換するために必要な操作回数を示すための、前記i番目の候補認識結果と前記命令キーワードとの編集距離を決定し、
前記編集距離が所定値より小さい場合、前記i番目の候補認識結果を前記目標結果として決定する、ことを含み、
前記第1の対応関係は、前記インデックス値と前記命令キーワードとの対応関係を含み、前記第2の対応関係は、前記インデックス値と前記1文字キーワードとの対応関係を含む、
ことを特徴とする請求項4に記載の方法。 - 前記実行順序がjである選択規則は前記機能選択規則を含み、前記m種の選択規則のうち実行順序がjである選択規則により、前記n個の候補認識結果のうちの目標結果を決定することは、
i(1≦i≦n)番目の候補認識結果の機能テンプレートを分析し、
前記音声レキシコンに前記i番目の候補認識結果における前記音声キーワードとマッチングする前記レキシコンキーワードが含まれるかどうかを検出し、
前記音声レキシコンに前記i番目の候補認識結果における音声キーワードとマッチングする前記レキシコンキーワードが含まれる場合、前記i番目の候補認識結果を前記目標結果として決定する、を含み、
前記音声キーワードは、前記i番目の候補認識結果における少なくとも1つのキーワードであり、
前記i番目の候補認識結果は、前記機能テンプレートと前記音声キーワードとを含む、
ことを特徴とする請求項3に記載の方法。 - 前記実行順序がjである選択規則は前記会話選択規則を含み、前記m種の選択規則のうち実行順序がjである選択規則により、前記n個の候補認識結果のうちの目標結果を決定することは、
前記言語モデルに従って、各前記候補認識結果のパープレキシティを計算し、
前記n個の候補認識結果の前記パープレキシティの最小値を決定し、前記最小値に対応する前記i番目の候補認識結果を前記目標結果として決定する、ことを含み、
前記パープレキシティは、前記候補認識結果と前記音声信号との前記類似度を示すためのものであり、前記パープレキシティと前記類似度とが負の相関関係にあり、前記言語モデルは、少なくとも1つの分野に対応する専用コーパスから生成されたN−gram言語モデルであり、前記N−gram言語モデルは、現在の単語の前のN−1個(Nは正整数)の単語の生起確率に基づいて、前記現在の単語の生起確率を決定するために使用される、
ことを特徴とする請求項3に記載の方法。 - 音声認識装置であって、
音声信号を取得する信号取得モジュールと、
音声認識アルゴリズムにより、前記信号取得モジュールで取得された前記音声信号を認識して、前記音声信号に対応するテキスト情報であるn(nは1より大きい整数)個の候補認識結果を得る音声認識モジュールと、
m(mは1より大きい整数)種の選択規則のうち実行順序がj(jの初期値は1)である選択規則により、前記音声認識モジュールで認識された前記n個の候補認識結果のうち前記音声信号とのマッチング度が最も高い候補認識結果である目標結果を決定する決定モジュールと、を含み、
前記決定モジュールは、前記第1の決定モジュールによって、前記実行順序がjである選択規則により前記目標結果が決定されなかった場合、実行順序がj+1である選択規則により、前記n個の候補認識結果のうちの前記目標結果を決定する、
ことを特徴とする装置。 - 前記m種の選択規則の実行順序がそれぞれのアルゴリズムの複雑さに基づいて決定され、前記実行順序と前記アルゴリズムの複雑さとが正の相関関係にあることを特徴とする請求項8に記載の装置。
- 前記m種の選択規則は、命令選択規則と、機能選択規則と、会話選択規則との少なくとも2種を含み、前記命令選択規則のアルゴリズムの複雑さが前記機能選択規則のアルゴリズムの複雑さよりも低く、前記機能選択規則のアルゴリズムの複雑さが前記会話選択規則のアルゴリズムの複雑さよりも低く、
前記命令選択規則は、命令レキシコンにi(1≦i≦n)番目の候補認識結果とマッチングする命令キーワードが含まれるかどうかに基づいて、前記i番目の候補認識結果が前記目標結果であるかどうかを検出するように音声認識デバイスに指示するためのものであり、
前記機能選択規則は、音声レキシコンに音声キーワードとマッチングするレキシコンキーワードが含まれるかどうかに基づいて、前記i番目の候補認識結果が前記目標結果であるかどうかを検出するように前記音声認識デバイスに指示するためのものであり、前記音声キーワードは、前記i番目の候補認識結果における少なくとも1つのキーワードであり、
前記会話選択規則は、トレーニングされた言語モデルに従って、各候補認識結果と前記音声信号との類似度を決定することにより、前記目標結果を選択するように前記音声認識デバイスに指示するためのものである、
ことを特徴とする請求項8に記載の装置。 - 前記決定モジュールは、
前記命令レキシコンの第1の対応関係にi(1≦i≦n)番目の候補認識結果とマッチングする命令キーワードが含まれるかどうかを検出する第1の検出手段と、
前記第1の対応関係に前記i番目の候補認識結果とマッチングする命令キーワードが含まれる場合、前記i番目の候補認識結果を前記目標結果として決定する第1の決定手段と、を含み、
前記第1の対応関係は、少なくとも前記命令キーワードを含む、
ことを特徴とする請求項10に記載の装置。 - 前記決定モジュールは、
前記第1の対応関係に前記n個の候補認識結果のうちのいずれの候補認識結果とマッチングする命令キーワードも含まれない場合、前記命令レキシコンの第2の対応関係に前記i番目の候補認識結果におけるいずれか1文字とマッチングする1文字キーワードが含まれるかどうかを検出する第2の検出手段と、
前記第2の対応関係に前記i番目の候補認識結果における文字とマッチングする1文字キーワードが含まれる場合、前記第2の対応関係における前記1文字キーワードに対応するインデックス値に基づいて、前記第1の対応関係において前記インデックス値に対応する命令キーワードを検索するキーワード検索手段と、
前記i番目の候補認識結果を前記命令キーワードに変換するために必要な操作回数を示すための、前記i番目の候補認識結果と前記命令キーワードとの編集距離を決定する第2の決定手段と、
前記編集距離が所定値より小さい場合、前記i番目の候補認識結果を前記目標結果として決定する第3の決定手段と、をさらに含み、
前記第1の対応関係は、前記インデックス値と前記命令キーワードとの対応関係を含み、前記第2の対応関係は、前記インデックス値と前記1文字キーワードとの対応関係を含む、
ことを特徴とする請求項11に記載の装置。 - 前記決定モジュールは、
i(1≦i≦n)番目の候補認識結果の機能テンプレートを分析するテンプレート分析手段と、
音声レキシコンにi番目の候補認識結果における音声キーワードとマッチングするレキシコンキーワードが含まれるかどうかを検出する第3の検出手段と、
音声レキシコンにi番目の候補認識結果における音声キーワードとマッチングするレキシコンキーワードが含まれる場合、i番目の候補認識結果を目標結果として決定する第4の決定手段と、を含み、
音声キーワードは、i番目の候補認識結果における少なくとも1つのキーワードであり、
i番目の候補認識結果は、機能テンプレートと音声キーワードとを含む、
ことを特徴とする請求項10に記載の装置。 - 前記決定モジュールは、
前記言語モデルに従って、各前記候補認識結果のパープレキシティを計算するパープレキシティ計算手段と、
前記n個の候補認識結果の前記パープレキシティの最小値を決定し、前記最小値に対応する前記i番目の候補認識結果を前記目標結果として決定する第5の決定手段と、を含み、
前記パープレキシティは、前記候補認識結果と前記音声信号との前記類似度を示すためのものであり、前記パープレキシティと前記類似度とが負の相関関係にあり、前記言語モデルは、少なくとも1つの分野に対応する専用コーパスから生成されたN−gram言語モデルであり、前記N−gram言語モデルは、現在の単語の前のN−1個(Nは正整数)の単語の生起確率に基づいて、前記現在の単語の生起確率を決定するために使用される、
ことを特徴とする請求項10に記載の装置。 - 音声認識方法であって、
音声認識デバイスが音声信号を取得し、
前記音声認識デバイスが、音声認識アルゴリズムにより前記音声信号を認識して、前記音声信号に対応するテキスト情報であるn(nは1より大きい整数)個の候補認識結果を得、
前記音声認識デバイスが、m(mは1より大きい整数)種の選択規則のうち実行順序がj(jの初期値は1)である選択規則により、前記n個の候補認識結果のうち前記音声信号とのマッチング度が最も高い候補認識結果である目標結果を決定し、
前記実行順序がjである選択規則により前記目標結果が決定されなかった場合、前記音声認識デバイスが、実行順序がj+1である選択規則により、前記n個の候補認識結果のうちの前記目標結果を決定する、
ことを含むことを特徴とする方法。 - 前記m種の選択規則の実行順序がそれぞれのアルゴリズムの複雑さに基づいて決定され、前記実行順序と前記アルゴリズムの複雑さとが正の相関関係にあることを特徴とする請求項15に記載の方法。
- 前記m種の選択規則は、命令選択規則と、機能選択規則と、会話選択規則との少なくとも2種を含み、前記命令選択規則のアルゴリズムの複雑さが前記機能選択規則のアルゴリズムの複雑さよりも低く、前記機能選択規則のアルゴリズムの複雑さが前記会話選択規則のアルゴリズムの複雑さよりも低く、
前記命令選択規則は、命令レキシコンにi(1≦i≦n)番目の候補認識結果とマッチングする命令キーワードが含まれるかどうかに基づいて、前記i番目の候補認識結果が前記目標結果であるかどうかを検出するように音声認識デバイスに指示するためのものであり、
前記機能選択規則は、音声レキシコンに音声キーワードとマッチングするレキシコンキーワードが含まれるかどうかに基づいて、前記i番目の候補認識結果が前記目標結果であるかどうかを検出するように前記音声認識デバイスに指示するためのものであり、前記音声キーワードは、前記i番目の候補認識結果における少なくとも1つのキーワードであり、
前記会話選択規則は、トレーニングされた言語モデルに従って、各候補認識結果と前記音声信号との類似度を決定することにより、前記目標結果を選択するように前記音声認識デバイスに指示するためのものである、
ことを特徴とする請求項15に記載の方法。 - 音声認識デバイスであって、
少なくとも1つの命令、少なくとも1つのプログラム、コードセット、又は命令セットを記憶したメモリと、
前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセット、又は前記命令セットをロードして実行することにより、請求項1〜7のいずれか1項に記載の音声認識方法を実現するプロセッサと、
を含むことを特徴とするデバイス。 - コンピュータ可読記憶媒体であって、前記記憶媒体には、少なくとも1つの命令、少なくとも1つのプログラム、コードセット、又は命令セットが記憶され、前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセット、又は前記命令セットがプロセッサによりロードされて実行されることで、請求項1〜7のいずれか1項に記載の音声認識方法を実現させることを特徴とする記憶媒体。
- 音声認識システムであって、
音声信号を収集し、前記サーバに前記音声信号を送信するスマートスピーカーと、
音声信号を取得し、音声認識アルゴリズムにより前記音声信号を認識して、前記音声信号に対応するテキスト情報であるn(nは1より大きい整数)個の候補認識結果を得、m(mは1より大きい整数)種の選択規則のうち実行順序がj(jの初期値は1)である選択規則により、前記n個の候補認識結果のうち前記音声信号とのマッチング度が最も高い候補認識結果である目標結果を決定し、前記実行順序がjである選択規則により前記目標結果が決定されなかった場合、実行順序がj+1である選択規則により、前記n個の候補認識結果のうちの前記目標結果を決定し、前記スマートスピーカーに前記目標結果を送信するサーバと、を含み、
前記スマートスピーカーは、前記目標結果に応じて応答する、
ことを特徴とするシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710517737.4 | 2017-06-29 | ||
CN201710517737.4A CN108288468B (zh) | 2017-06-29 | 2017-06-29 | 语音识别方法及装置 |
PCT/CN2018/088646 WO2019001194A1 (zh) | 2017-06-29 | 2018-05-28 | 语音识别方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020518861A true JP2020518861A (ja) | 2020-06-25 |
JP6820058B2 JP6820058B2 (ja) | 2021-01-27 |
Family
ID=62831578
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019560155A Active JP6820058B2 (ja) | 2017-06-29 | 2018-05-28 | 音声認識方法、装置、デバイス、及び記憶媒体 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11164568B2 (ja) |
EP (1) | EP3648099B1 (ja) |
JP (1) | JP6820058B2 (ja) |
KR (1) | KR102315732B1 (ja) |
CN (1) | CN108288468B (ja) |
WO (1) | WO2019001194A1 (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108600911B (zh) * | 2018-03-30 | 2021-05-18 | 联想(北京)有限公司 | 一种输出方法及电子设备 |
CN108922531B (zh) * | 2018-07-26 | 2020-10-27 | 腾讯科技(北京)有限公司 | 槽位识别方法、装置、电子设备及存储介质 |
CN109034418B (zh) * | 2018-07-26 | 2021-05-28 | 国家电网公司 | 作业现场信息传输方法及系统 |
CN109256125B (zh) * | 2018-09-29 | 2022-10-14 | 阿波罗智联(北京)科技有限公司 | 语音的离线识别方法、装置与存储介质 |
CN109634692A (zh) * | 2018-10-23 | 2019-04-16 | 蔚来汽车有限公司 | 车载对话系统及用于其的处理方法和系统 |
CN111198936B (zh) * | 2018-11-20 | 2023-09-15 | 北京嘀嘀无限科技发展有限公司 | 一种语音搜索方法、装置、电子设备及存储介质 |
CN109256133A (zh) * | 2018-11-21 | 2019-01-22 | 上海玮舟微电子科技有限公司 | 一种语音交互方法、装置、设备及存储介质 |
CN109814831A (zh) * | 2019-01-16 | 2019-05-28 | 平安普惠企业管理有限公司 | 智能对话方法、电子装置及存储介质 |
CN109920415A (zh) * | 2019-01-17 | 2019-06-21 | 平安城市建设科技(深圳)有限公司 | 基于语音识别的人机问答方法、装置、设备和存储介质 |
CN109871441A (zh) * | 2019-03-13 | 2019-06-11 | 北京航空航天大学 | 一种基于神经网络的导学问答系统及方法 |
US11158307B1 (en) * | 2019-03-25 | 2021-10-26 | Amazon Technologies, Inc. | Alternate utterance generation |
CN110570839A (zh) * | 2019-09-10 | 2019-12-13 | 中国人民解放军陆军军医大学第一附属医院 | 基于人机交互的智能监护系统 |
CN110827802A (zh) * | 2019-10-31 | 2020-02-21 | 苏州思必驰信息科技有限公司 | 语音识别训练和解码方法及装置 |
CN111028828A (zh) * | 2019-12-20 | 2020-04-17 | 京东方科技集团股份有限公司 | 一种基于画屏的语音交互方法、画屏及存储介质 |
CN111554275B (zh) * | 2020-05-15 | 2023-11-03 | 深圳前海微众银行股份有限公司 | 语音识别方法、装置、设备及计算机可读存储介质 |
CN112151022A (zh) * | 2020-09-25 | 2020-12-29 | 北京百度网讯科技有限公司 | 语音识别的优化方法、装置、设备以及存储介质 |
CN112331207A (zh) * | 2020-09-30 | 2021-02-05 | 音数汇元(上海)智能科技有限公司 | 服务内容监控方法、装置、电子设备和存储介质 |
CN112614490B (zh) * | 2020-12-09 | 2024-04-16 | 北京罗克维尔斯科技有限公司 | 生成语音指令的方法、装置、介质、设备、系统及车辆 |
CN112669848B (zh) * | 2020-12-14 | 2023-12-01 | 深圳市优必选科技股份有限公司 | 一种离线语音识别方法、装置、电子设备及存储介质 |
CN113744736B (zh) * | 2021-09-08 | 2023-12-08 | 北京声智科技有限公司 | 命令词识别方法、装置、电子设备及存储介质 |
WO2023163254A1 (ko) * | 2022-02-28 | 2023-08-31 | 엘지전자 주식회사 | Tv와 리모컨을 포함하는 시스템 및 그 제어 방법 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS57109997A (en) * | 1980-12-26 | 1982-07-08 | Tokyo Shibaura Electric Co | Word information input device |
JP2000200275A (ja) * | 1999-01-07 | 2000-07-18 | Hitachi Ltd | 翻訳装置、記録媒体 |
JP2012208218A (ja) * | 2011-03-29 | 2012-10-25 | Yamaha Corp | 電子機器 |
JP2014170185A (ja) * | 2013-03-05 | 2014-09-18 | Nec Corp | 発話コマンド認識システム |
JP2014222402A (ja) * | 2013-05-13 | 2014-11-27 | 日本電信電話株式会社 | 発話候補生成装置、発話候補生成方法、及び発話候補生成プログラム |
JP2015527598A (ja) * | 2012-05-23 | 2015-09-17 | ソノズ インコーポレイテッド | オーディオコンテンツの試聴 |
JP2016024759A (ja) * | 2014-07-24 | 2016-02-08 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 言語モデル用の学習テキストを選択する方法及び当該学習テキストを使用して言語モデルを学習する方法、並びに、それらを実行するためのコンピュータ及びコンピュータ・プログラム |
JP2016110087A (ja) * | 2014-12-02 | 2016-06-20 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 音声認識方法及び音声認識装置 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2764277B2 (ja) * | 1988-09-07 | 1998-06-11 | 株式会社日立製作所 | 音声認識装置 |
DE10306022B3 (de) * | 2003-02-13 | 2004-02-19 | Siemens Ag | Dreistufige Einzelworterkennung |
CN101345051B (zh) * | 2008-08-19 | 2010-11-10 | 南京师范大学 | 带定量参数的地理信息系统语音控制方法 |
US8489398B1 (en) * | 2011-01-14 | 2013-07-16 | Google Inc. | Disambiguation of spoken proper names |
US20170109676A1 (en) * | 2011-05-08 | 2017-04-20 | Panaya Ltd. | Generation of Candidate Sequences Using Links Between Nonconsecutively Performed Steps of a Business Process |
KR101914548B1 (ko) * | 2012-01-05 | 2018-11-02 | 엘지전자 주식회사 | 음성 인식 기능을 구비한 이동 단말기 및 그 검색 결과 제공 방법 |
KR101971513B1 (ko) * | 2012-07-05 | 2019-04-23 | 삼성전자주식회사 | 전자 장치 및 이의 음성 인식 오류 수정 방법 |
CN103915095B (zh) * | 2013-01-06 | 2017-05-31 | 华为技术有限公司 | 语音识别的方法、交互设备、服务器和系统 |
KR102072826B1 (ko) * | 2013-01-31 | 2020-02-03 | 삼성전자주식회사 | 음성 인식 장치 및 응답 정보 제공 방법 |
US9208779B2 (en) * | 2013-09-06 | 2015-12-08 | Google Inc. | Mixture of n-gram language models |
CN103500579B (zh) * | 2013-10-10 | 2015-12-23 | 中国联合网络通信集团有限公司 | 语音识别方法、装置及系统 |
EP3195307B1 (en) * | 2014-09-14 | 2020-01-29 | Google LLC | Platform for creating customizable dialog system engines |
JP6461308B2 (ja) * | 2015-04-16 | 2019-01-30 | 三菱電機株式会社 | 音声認識装置およびリスコアリング装置 |
US10606846B2 (en) | 2015-10-16 | 2020-03-31 | Baidu Usa Llc | Systems and methods for human inspired simple question answering (HISQA) |
CN106126714A (zh) * | 2016-06-30 | 2016-11-16 | 联想(北京)有限公司 | 信息处理方法及信息处理装置 |
CN106531160A (zh) * | 2016-10-26 | 2017-03-22 | 安徽省云逸智能科技有限公司 | 一种基于词网语言模型的连续语音识别系统 |
-
2017
- 2017-06-29 CN CN201710517737.4A patent/CN108288468B/zh active Active
-
2018
- 2018-05-28 KR KR1020197028881A patent/KR102315732B1/ko active IP Right Grant
- 2018-05-28 WO PCT/CN2018/088646 patent/WO2019001194A1/zh unknown
- 2018-05-28 JP JP2019560155A patent/JP6820058B2/ja active Active
- 2018-05-28 EP EP18825077.3A patent/EP3648099B1/en active Active
-
2019
- 2019-08-21 US US16/547,097 patent/US11164568B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS57109997A (en) * | 1980-12-26 | 1982-07-08 | Tokyo Shibaura Electric Co | Word information input device |
JP2000200275A (ja) * | 1999-01-07 | 2000-07-18 | Hitachi Ltd | 翻訳装置、記録媒体 |
JP2012208218A (ja) * | 2011-03-29 | 2012-10-25 | Yamaha Corp | 電子機器 |
JP2015527598A (ja) * | 2012-05-23 | 2015-09-17 | ソノズ インコーポレイテッド | オーディオコンテンツの試聴 |
JP2014170185A (ja) * | 2013-03-05 | 2014-09-18 | Nec Corp | 発話コマンド認識システム |
JP2014222402A (ja) * | 2013-05-13 | 2014-11-27 | 日本電信電話株式会社 | 発話候補生成装置、発話候補生成方法、及び発話候補生成プログラム |
JP2016024759A (ja) * | 2014-07-24 | 2016-02-08 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 言語モデル用の学習テキストを選択する方法及び当該学習テキストを使用して言語モデルを学習する方法、並びに、それらを実行するためのコンピュータ及びコンピュータ・プログラム |
JP2016110087A (ja) * | 2014-12-02 | 2016-06-20 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 音声認識方法及び音声認識装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2019001194A1 (zh) | 2019-01-03 |
EP3648099B1 (en) | 2021-06-30 |
KR20190120353A (ko) | 2019-10-23 |
KR102315732B1 (ko) | 2021-10-21 |
EP3648099A1 (en) | 2020-05-06 |
CN108288468A (zh) | 2018-07-17 |
US11164568B2 (en) | 2021-11-02 |
US20190385599A1 (en) | 2019-12-19 |
CN108288468B (zh) | 2019-07-19 |
JP6820058B2 (ja) | 2021-01-27 |
EP3648099A4 (en) | 2020-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6820058B2 (ja) | 音声認識方法、装置、デバイス、及び記憶媒体 | |
Gu et al. | Insertion-based decoding with automatically inferred generation order | |
CN110473531B (zh) | 语音识别方法、装置、电子设备、系统及存储介质 | |
CN108694940B (zh) | 一种语音识别方法、装置及电子设备 | |
CN111090727B (zh) | 语言转换处理方法、装置及方言语音交互系统 | |
CN109165302A (zh) | 多媒体文件推荐方法及装置 | |
JP4930379B2 (ja) | 類似文検索方法、類似文検索システム及び類似文検索用プログラム | |
US20130346066A1 (en) | Joint Decoding of Words and Tags for Conversational Understanding | |
US10152298B1 (en) | Confidence estimation based on frequency | |
JP7300435B2 (ja) | 音声インタラクションするための方法、装置、電子機器、およびコンピュータ読み取り可能な記憶媒体 | |
CN108055617B (zh) | 一种麦克风的唤醒方法、装置、终端设备及存储介质 | |
US11881209B2 (en) | Electronic device and control method | |
US11532301B1 (en) | Natural language processing | |
CN113505198B (zh) | 关键词驱动的生成式对话回复方法、装置及电子设备 | |
CN112825249A (zh) | 语音处理方法和设备 | |
CN110164416B (zh) | 一种语音识别方法及其装置、设备和存储介质 | |
WO2024045475A1 (zh) | 语音识别方法、装置、设备和介质 | |
CN111898379A (zh) | 槽填充模型训练方法和自然语言理解模型 | |
CN111126084B (zh) | 数据处理方法、装置、电子设备和存储介质 | |
CN111508497B (zh) | 语音识别方法、装置、电子设备及存储介质 | |
US11626107B1 (en) | Natural language processing | |
CN108153875B (zh) | 语料处理方法、装置、智能音箱和存储介质 | |
CN108345679B (zh) | 一种音视频检索方法、装置、设备及可读存储介质 | |
JP7044856B2 (ja) | 増強された一貫性正規化を利用した音声認識モデル学習方法およびシステム | |
CN115858776B (zh) | 一种变体文本分类识别方法、系统、存储介质和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191101 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191101 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201113 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201223 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6820058 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |