JP5633042B2 - 音声認識装置、音声認識方法、及び音声認識ロボット - Google Patents
音声認識装置、音声認識方法、及び音声認識ロボット Download PDFInfo
- Publication number
- JP5633042B2 JP5633042B2 JP2011011198A JP2011011198A JP5633042B2 JP 5633042 B2 JP5633042 B2 JP 5633042B2 JP 2011011198 A JP2011011198 A JP 2011011198A JP 2011011198 A JP2011011198 A JP 2011011198A JP 5633042 B2 JP5633042 B2 JP 5633042B2
- Authority
- JP
- Japan
- Prior art keywords
- phoneme
- unit
- string
- sequence
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 78
- 238000012545 processing Methods 0.000 claims description 114
- 238000012937 correction Methods 0.000 claims description 103
- 230000004044 response Effects 0.000 claims description 87
- 238000012790 confirmation Methods 0.000 claims description 31
- 239000011159 matrix material Substances 0.000 description 28
- 238000010586 diagram Methods 0.000 description 11
- 239000000284 extract Substances 0.000 description 6
- 208000023368 generalized pustular psoriasis Diseases 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 238000003780 insertion Methods 0.000 description 4
- 230000037431 insertion Effects 0.000 description 4
- 230000001186 cumulative effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 238000001308 synthesis method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/12—Speech classification or search using dynamic programming techniques, e.g. dynamic time warping [DTW]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
Description
以下、図面を参照しながら本発明の実施形態について詳しく説明する。図1は、本実施形態に係る音声認識装置1の構成を示す概略図である。音声認識装置1は、音声入力部101、音韻認識部102、信頼度算出部103、マッチング部104、音韻訂正部105、対話処理部106、音声再生部107、音素音響モデル記憶部201、正解率記憶部202、混同行列記憶部203、対話応答パターン記憶部204及び単語記憶部205を含んで構成される。
(ステップS201)マッチング部104は、累積距離をゼロと初期設定する。
(ステップS202)マッチング部104は、第1の音韻列の最初の音韻と、第2の音韻列に含まれる音韻のうち一つを、後述する距離を算出する対象とする音韻のうち最初の音韻(以下、算出対象始点と呼ぶ)と初期設定する。
(ステップS203)マッチング部104は、第1の音韻列についての算出対象始点のうち第1の音韻列について最後の音韻に達するまでステップS204及びS205を繰り返す。
(ステップS204)マッチング部104は、DPマッチング法(始点及び終点が固定)を実行する。
(ステップS205)マッチング部104は、第1の音韻列についての算出対象始点をその次の音韻に進める。
(ステップS301)マッチング部104は、距離を算出する対象とする音韻(算出対象音韻)が、第1の音韻列の最後の音韻及び第2の音韻列の最後の音韻のうち何れか先に達するまでステップS302〜S304の処理を繰り返す。
(ステップS302)マッチング部104は、算出対象音韻間の距離を後述するように算出する。
(ステップS305)マッチング部104は、算出した距離を累積距離に加算する。
(ステップS306)マッチング部104は、算出対象音韻を、第1の音韻列、第2の音韻列各々について直後の音韻に変更する。
混同行列記憶部203には、例えば、発話目的音韻γが認識結果音韻αに認識される頻度を要素とする混同行列情報(confusion matrix)を予め記憶しておく。マッチング部104は、混同行列記憶部203に記憶された混同行列情報から、認識結果音韻αに認識される頻度と認識結果音韻βに認識される頻度を読み出し、P(α|γ)、P(β|γ)及びP(γ)を算出する。マッチング部104は、式(3)に基づきP(α,β)を算出し、式(2)に基づき、d(α,β)を算出する。
図7は、第1の音韻列と第2の音韻列とのマッチング結果のその他の例を示す図である。図7の例では、第1の音韻列は「boodo」、第2の音韻列は「kiibonono」である。ここで、第1の音韻列の「bo」の部分のうち第2の音韻列のうち「bo」の部分に対応している。また、第1の音韻列の「odo」の部分が、第2の音韻列のうち「ono」の部分に対応している。なお、第2の音韻列のうち6番目の音韻「n」に対応する第1の音韻列の音韻は存在しない。
従って、利用者が認識結果として第2の音韻列を訂正するために、第1の音韻列を示す音声で応答する場合に、第2の音韻列のうち認識誤りに対応する部分だけを応答してもよい。
また、図7に示す例のように、一方の音韻列の一部分と他の部分が離れる場合があるが、マッチング部104は、挿入誤りや脱落誤りを考慮することで、このような場合にも音韻列間のマッチング情報を決定することができる。
ここで、音韻訂正部105は、第1の音韻列に含まれる音韻に対応する第2の音韻列に含まれる音韻が異なる場合には、それらの音韻のうち各々に対応する正解率が高いほうの音韻を、訂正後の音韻列に含まれる音韻と決定する。
例えば、図8において第2の音韻列の1番目の音韻“j”は対応する第1の音韻列の音韻“d”と異なる。音韻“d”に対応する正解率は0.92と、音韻“j”に対応する正解率0.06よりも高いため、音韻訂正部105は、訂正後の音韻列の1番目の音韻を“d”と決定する。
第2の音韻列に含まれる音韻に対応する音韻が第1の音韻列に存在しない場合は、音韻訂正部105は、第2の音韻列に含まれる音韻を訂正後の音韻列に含まれる音韻と決定する。但し、その第2の音韻列に含まれる音韻に対応する正解率が予め設定された値(例えば、0.5)よりも小さい場合、音韻訂正部105は、その音韻を訂正後の音韻列に含めずに除外する。例えば、図9において、第2の音韻列の第6番目の音韻“n”に対応する正解率は0.27と、予め設定された値0.5よりも小さいため、この音韻nを訂正後の音韻列に含めずに除外する
但し、その第1の音韻列に含まれる音韻に対応する正解率が予め設定された値よりも小さい場合、音韻訂正部105は、その音韻を訂正後の音韻列に含めずに除外する。例えば、図10において、第1の音韻列の第5番目の音韻“o”に対応する正解率は0.34と、予め設定された値0.5よりも小さいため、この音韻oを訂正後の音韻列に含めずに除外する
音韻訂正部105は、第2の音韻列に対応する訂正後の音韻列を決定したら、決定した訂正後の音韻列とその音韻列に含まれる音韻ごとの正解率をマッチング部104に出力する。マッチング部104は、この訂正後の音韻列を新たな第2の音韻列とする。また、音韻訂正部105は、この訂正後の音韻列(第2の音韻列)を対話処理部106に出力する。
訂正応答パターンは、例えば、図11の「tadashikuwa ≪ … ≫ desu」である。≪ … ≫を除く部分は、訂正要求パターンから、「naninani」と、回答としての音韻列を含める部分と、「to nobetekudasai」と利用者への指示を示す部分を除いた部分に一致する。即ち、訂正要求パターンは、訂正応答として利用者に要求するパターンを示す部分が訂正応答パターンと共通する。
≪ … ≫の部分は、回答としての認識対象の音韻列を含む部分であることを示す。
対話処理部106は、決定した応答パターン情報が肯定パターンのうちの一つである場合、利用者の応答に基づき訂正された訂正後の音韻列を単語情報として単語記憶部205に記憶させる。即ち、対話処理部106は、音韻認識部102から入力された音韻列が訂正後の音韻列が認識結果として正しいことを示す音韻列と認識する。これにより、音声認識装置1は、新たに記憶した音韻列を、認識対象の語彙として用いることができることになる。
対話処理部106は、決定した応答パターン情報が否定パターンのうちの一つである場合、音韻認識部102から入力された音韻列が訂正後の音韻列が認識結果として誤っていることを示す音韻列と認識する。このとき、対話処理部106は、上述のように対話応答パターン記憶部204から、訂正要求パターンを読み出す。
音声再生部107は、訂正要求音韻列に基づき、例えば、「tadashikuwa naninani desu」と「正しくはナニナニです、と述べてください」というメッセージを示す音声を再生する。これにより、利用者に「tadashikuwa ≪ … ≫ desu」と、≪ … ≫の部分に正しい音韻列を音声で回答することを促すことができる。
図12は、本実施形態に係る音声認識装置1と利用者との間の対話の一例を示す図である。図12において、Sは、音声認識装置1が再生する音声の内容を示す。Uは、利用者が発する音声の内容を示す。C1〜C8は、音声の順序を示す。
C1は、音声認識装置1が「これはナニナニです、と述べてください。」と初期要求音韻列“korewa naninani desu to nobete kudasai”に基づく音声を再生することを示す。これにより、音声認識装置1は、利用者に対し、音声で音韻列を“korewa ≪…≫ desu”という初期応答パターンで回答することを要求している。
C2は、利用者が「これはディスプレイです」と音声で回答することを示す。これにより、利用者は、C1で要求された初期応答パターンで音韻列「ディスプレイ」が示す音韻列“disupurei”を回答している。
C4は、利用者が「いいえ」と音声で回答することを示す。これにより、利用者は、C3により認識結果が誤りであることを示す否定パターン“iie”を回答している。
C5は、音声認識装置1が「正しくはナニナニです、と述べてください。」と訂正要求音韻列“tadashikuwa naninani desu to nobete kudasai”に基づく音声を再生することを示す。これにより、音声認識装置1は、利用者に対し、音声で音韻列を“tadashikuwa ≪…≫ desu”という初訂正応答パターンで回答することを要求している。
C7は、音声認識装置1が「これはディスプレイでいいですか?」と確認要求音韻列“disupurei deiidesuka”に基づく音声を再生することを示す。これにより、音声認識装置1は、利用者に対し認識及び訂正された音韻列“disupurei”に対して、認識結果として正しいか否かを回答することを要求している。
C8は、利用者が「はい」と音声で回答することを示す。これにより、利用者は、C3により認識結果が正しいことを示す肯定パターン“hai”を回答している。
(ステップS101)音声認識装置1は、音声認識方法を実行するための変数について初期設定を行う。例えば、対話処理部106は、利用者に正しい音韻列を音声で応答することを要求する回数Mを6に設定し、その応答回数をカウントする変数iを1に設定する。その後、ステップS102に進む。
音声再生部107は、対話処理部106から入力された初期要求音韻列から、公知のテキスト・音声合成方法を用いて音声信号を生成する。音声再生部107は、生成した音声信号に基づき音声を再生する(例えば図12のC1)。これにより、音声認識装置1は、利用者に認識対象となる音韻列を音声で回答することを促すことができる。
(ステップS103)音声入力部101は、利用者が発した音声(例えば図12のC2)に基づく音声信号を入力され、入力された音声信号を音韻認識部102に出力する。その後、ステップS104に進む。
対話処理部106は、音韻認識部102から入力した音韻列と対話応答パターン記憶部204から読み出した応答パターン情報(図11参照)にマッチング処理を実行して、入力された音韻列に最も合致する応答パターンを決定する。マッチング処理において、対話処理部106は、例えば上述の始終端フリーDPマッチング法を用いてマッチング処理を実行する。
信頼度算出部103は、その音韻列に含まれる音韻ごとに算出したGPPに対応する正解率を正解率記憶部202から読み出す。信頼度算出部103は、音韻列とこの音韻列を構成する音韻ごとのGPPと正解率をマッチング部104に出力する。
マッチング部104は、信頼度算出部103から音韻列とこれを構成する音韻ごとのGPPと正解率を入力され、入力された音韻列とこの音韻列を構成する音韻ごとのGPPと正解率を記憶する。ここで、信頼度算出部103から入力された音韻列を第2の音韻列とする。その後、ステップS106に進む。
音韻認識部102は、算出した音声特徴量に基づき、公知の音韻認識方法により利用者の発音を示す音韻を認識し、認識された音韻から構成される音韻列を生成する。音韻認識部102は、生成した音韻列を対話処理部106に出力する。
対話処理部106は、音韻認識部102から入力された音韻列と対話応答パターン記憶部204から読み出した応答パターン情報に対してマッチング処理を実行して、入力された音韻列に最も合致する応答パターンを決定する。その後、ステップS108に進む。
対話処理部106が、応答パターン情報が肯定パターンでない(例えば図12のC4)と判断した場合(ステップS108 N)、即ち、マッチング部104に入力された第2の音韻列が認識結果として誤りの場合には、ステップS109に進む。
(ステップS110)対話処理部106は、対話応答パターン記憶部204から、訂正要求パターンを読み出す。対話処理部106は、この訂正要求パターンを訂正要求音韻列として音声再生部107に出力する。
音声再生部107は、対話処理部106から入力された訂正要求音韻列から、公知のテキスト・音声合成技術により音声信号を生成する。音声再生部107は、生成した音声信号に基づき音声(例えば図12のC5)を再生する。これにより、利用者に訂正されるべき音韻列を音声で応答することを促すことができる。その後、ステップS111に進む。
(ステップS112)音韻認識部102は、音声入力部101から入力された音声信号から音声特徴量を算出する。音韻認識部102は、算出した音声特徴量に基づき、既知の音韻認識方法を用いて音韻を認識し、認識された音韻から構成される音韻列を生成する。音韻認識部102は、生成した音韻列と算出した音声特徴量の時系列データからなる音声特徴量ベクトルを対話処理部106に出力する。
対話処理部106は、音韻認識部102から入力された音韻列と対話応答パターン記憶部204から読み出した応答パターン情報にマッチング処理を実行して、入力された音韻列に最も合致する応答パターンを決定する。応答パターンが訂正応答パターンと決定されたとき、対話処理部106は、訂正応答パターンの≪…≫に対応する、音韻認識部102から入力された音韻列の部分を抽出し、この部分を新たな第1の音韻列とする。対話処理部106は、新たな第1の音韻列に対応する新たな音声特徴量ベクトルを音韻認識部102から入力された音声特徴量ベクトルから抽出する。対話処理部106は、新たな第1の音韻列と音声特徴量ベクトルを信頼度算出部103に出力する。その後、ステップS113に進む。
信頼度算出部103は、対話処理部106から入力された音声特徴量ベクトルx1 Tに対する確率p(x1 T)を音素音響モデル記憶部201から読み出す。信頼度算出部103は、対話処理部106から入力された第1の音韻列に含まれる各音韻umのその音声特徴量の該当部分xsm tmに対する条件付確率p(xsm tm|um)を音素音響モデル記憶部201から読み出す。信頼度算出部103は、読み出した確率p(x1 T)及び条件付確率p(xsm tm|um)を用いて式(1)に従って信頼度の1つの指標としてGPPを算出する。信頼度算出部103は、その音韻列に含まれる音韻ごとに算出したGPPに対応する正解率を正解率記憶部202から読み出して信頼度のその他の指標として決定する。信頼度算出部103は、第1の音韻列とこれを構成する音韻ごとの正解率をマッチング部104に出力する。その後、ステップS114に進む。
音韻訂正部105は、第1の音韻列に含まれる音韻に対応する第2の音韻列に含まれる音韻が同一である場合には、その同一の音韻を訂正後の音韻列に含まれる音韻と決定する。また、第2の音韻列に含まれる音韻に対応する第1の音韻列に含まれる音韻が存在しない場合は、音韻訂正部105は、第2の音韻列に含まれる音韻を訂正後の音韻列に含まれる音韻と決定する。但し、その第2の音韻列に含まれる音韻に対応する正解率が予め設定された値よりも小さい場合、音韻訂正部105は、その音韻を訂正後の音韻列に含めずに除外する。
音声再生部107は、対話処理部106から入力された確認要求音韻列から、公知のテキスト・音声合成方法を用いて、音声信号を生成し、生成した音声信号に基づく音声(例えば図12のC7)を再生する。これにより、利用者に訂正後の音韻列が認識結果として正しいか否かを回答することを促すことができる。その後、ステップS117に進む。
音韻認識部102は、算出した音声特徴量に基づき、公知の音韻認識方法により利用者の発音を示す音韻を認識し、認識された音韻から構成される音韻列を生成する。音韻認識部102は、生成した音韻列と算出した音声特徴量の時系列データである音声特徴量ベクトルを対話処理部106に出力する。
対話処理部106は、音韻認識部102から入力された音韻列と対話応答パターン記憶部204から読み出した応答パターン情報にマッチング処理を実行して、入力された音韻列に最も合致する応答パターンを決定する。その後、ステップS118に進む。
(ステップS118)対話処理部106は、利用者による応答回数をカウントする変数iを1だけ増加させる。その後、ステップS108に進む。
具体的には、マッチング部104は、次の処理を実行してもよい。ステップS108において、対話処理部106が、決定した応答パターン情報が肯定パターンのうちの一つと判断した場合(ステップS108 Y)、マッチング部104に入力された第2の音韻列、即ち訂正後の音韻列が認識結果として正しいこととなる。従って、マッチング部104は、最近実行されたステップS115(音韻訂正処理)において、第2の音韻列(訂正の対象)に含まれる音韻のうち第1の音韻列(最後に入力された音声に基づく)と共通する音韻を各々発話目的音韻γ及び認識目的音韻αとする混同行列情報の行列要素が示す頻度に1ずつ加算する。マッチング部104は、加算された値を、その行列要素の頻度とする。
例えば、第1の音韻列が“φa”、第2の音韻列が”ba”であるとき、発話目的音韻γ及び認識目的音韻αがともにaである行列要素の値92229に1を加算して92230とする。
例えば、第1の音韻列が“φa”、第2の音韻列が”ba”であるとき、発話目的音韻γがb及び認識目的音韻αがφである行列要素の値169に1を加算して170とする。
これにより、発話目的音韻γが認識結果音韻αに認識される頻度を要素とする混同行列情報が、利用者の発話特性や残響などの使用環境に適応し、認識誤りが生じる頻度を低減することができる。さらに、利用者の音声入力による音韻訂正がより円滑に行われる。
また、音韻訂正部105は、音韻列に含まれる各音韻に対する信頼度に基づいて選択された音韻に訂正するため、信頼性に裏付けられた音韻に訂正することができる。また、音韻訂正部105は、音韻列に含まれる音韻に対する正解率が低い場合に、認識誤りと判断するため、正解率の低い音韻に訂正することを回避することができる。
但し、音韻認識部102は、母音の長さの修正を行わず、発話目的音韻γ及び認識結果音韻αにおいて長母音と短母音を同一視した。また、混同行列記憶部203に記憶される混同行列情報は、予め記憶された一定の値である。
また、対話処理部106は、訂正した音韻列に基づく音声を再生し、入力した音声が示す応答に応じて、訂正した音韻列からなる単語情報を記憶するか、発話を促す内容を示す音声を再生させる。そのため、利用者に訂正した音韻列に係る音声による応答を促し、応答により訂正した音韻列からなる単語情報が登録されるか、利用者に再度発話を促すため、利用者の音声のみによる音韻認識誤りの訂正を円滑に実現することができる。
次に、本発明の第2の実施形態について図を参照して説明する。図15は、本実施形態に係る音声認識ロボット3の構成を示す概略図である。図15において、音声認識ロボット3は、音声認識装置2の他に、コマンド辞書記憶部206、撮影部301、画像処理部302、動作制御部303、動作機構部304、及び駆動電力モデル記憶部401を含んで構成される。音声認識装置2は、対話処理部106に代え対話処理部306を有する点で音声認識装置1と異なり、その他の構成及び作用は他の構成部分と共通する。以下、第1の実施形態との差異点を主に説明する。
対話処理部306は、音韻認識部102から入力された音韻列とコマンド辞書記憶部206から読み出した単語情報についてマッチング処理を実行し、入力された音韻列と最も合致する単語情報を決定する。対話処理部306は、決定した単語情報に対応するロボットコマンド情報をコマンド辞書記憶部206から読み出し、動作制御部303に出力する。
動作制御部303は、対話処理部306からロボットコマンド情報が入力される。
動作制御部303から電力が供給された部品が動作することにより、その機構部を含んで構成される動作機構部304は、利用者が発話した音韻列で示される単語情報を含むロボットコマンドに応じた動作を実行する。
画像処理部302は、撮影部301から入力されたアナログ画像信号をアナログ・ディジタル(A/D)変換してディジタル画像信号を生成する。
画像処理部302は、生成したディジタル画像信号から画像特徴量を算出する。算出される画像特徴量は、例えば、被写体の輪郭(エッジ)である。輪郭を算出するためには、例えば、水平方向及び垂直方向各々に隣接する画素間の画素値の差分値を算出し、算出された差分値の絶対値について、予め設定された周波数以上の成分を除外するようにフィルタリング処理を行う。フィルタリング処理が行われた画像信号のうち、予め設定された所定の値を越える画素の部分を輪郭と決定する。
画像処理部302は、算出した画像特徴量を対話処理部306に出力する。
また、上述した実施形態における音声認識装置1並びに2、及び音声認識ロボット3の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現しても良い。音声認識装置1並びに2、及び音声認識ロボット3の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化しても良い。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いても良い。
101…音声入力部、102…音韻認識部、103…信頼度算出部、
104…マッチング部、105…音韻訂正部、106、306…対話処理部、
107…音声再生部、201…音素音響モデル記憶部、202…正解率記憶部、
203…混同行列記憶部、204…対話応答パターン記憶部、205…単語記憶部、
206…コマンド辞書記憶部、301…撮影部、302…画像処理部、
303…動作制御部、304…動作機構部、401…駆動電力モデル記憶部
Claims (6)
- 音声を入力する音声入力部と、
入力された音声の音韻を認識して音韻列を生成する音韻認識部と、
前記音韻列の一部である認識対象の第1の音韻列と元発話を示す第2の音韻列とをマッチングを行うマッチング部と、
前記マッチングを行った結果に基づき前記第2の音韻列の音韻を訂正する音韻訂正部と、
音声を再生する音声再生部と、
所定の音韻列を含む応答パターンを記憶する対話応答パターン記憶部と、
対話処理部と、
を備え、
前記応答パターンには、訂正後の第2の音韻列の正否について音声による回答を促すメッセージを示す確認要求パターンと、訂正後の第2の音韻列が誤っていることを示す否定パターンと、訂正後の第2の音韻列が正しいことを示す肯定パターンと、前記第1の音韻列を所定の部分に含むように音声による回答を促すメッセージを示す訂正要求パターンと、が含まれ、
前記対話処理部は、
前記音韻認識部がその後認識した音韻列が、前記肯定パターンに対応する場合、前記訂正後の第2の音韻列からなる単語情報を単語記憶部に記憶させ、
前記訂正後の第2の音韻列と前記確認要求パターンに基づく音声を前記音声再生部に再生させ、
前記音韻認識部がその後認識した音韻列が、前記否定パターンに対応する場合、前記訂正要求パターンが示す訂正要求音韻列に基づく音声を前記音声再生部に再生させ、
前記音韻認識部がさらにその後認識した音韻列から前記訂正要求パターンの所定の部分から前記第1の音韻列を抽出する
ことを特徴とする音声認識装置。 - 前記音韻訂正部は、
前記第1の音韻列に含まれる音韻に対する信頼度と、当該音韻に対応する第2の音韻列に含まれる音韻に対する信頼度とに基づいて選択された音韻に訂正すること、
を特徴とする請求項1に記載の音声認識装置。 - 前記音韻訂正部は、
前記信頼度に基づく正解率が予め設定された値よりも低い場合、認識誤りと判断すること、
を特徴とする請求項2に記載の音声認識装置。 - 前記マッチング部は、
入力音声に含まれる音韻の種別と認識される音韻の種別の組ごとの頻度に基づき
前記第1の音韻列の音韻と前記第2の音韻列の音韻との間の距離を算出し
前記距離に基づきマッチング結果を決定すること、
を特徴とする請求項1に記載の音声認識装置。 - 音声認識装置における音声認識方法において、
前記音声認識装置が、音声を入力する第1の過程と、
前記音声認識装置が、入力された音声の音韻を認識して音韻列を生成する第2の過程と、
前記音声認識装置が、前記音韻列の一部である認識対象の第1の音韻列と元発話を示す第2の音韻列とをマッチングを行う第3の過程と、
前記音声認識装置が、前記マッチングを行った結果に基づき前記第2の音韻列の音韻を訂正する第4の過程と、
音声を再生する第5の過程と、
第6の過程と、を有し、
対話応答パターン記憶部には所定の音韻列を含む応答パターンが記憶され、前記応答パターンには、訂正後の第2の音韻列の正否について音声による回答を促すメッセージを示す確認要求パターンと、訂正後の第2の音韻列が誤っていることを示す否定パターンと、訂正後の第2の音韻列が正しいことを示す肯定パターンと、前記第1の音韻列を所定の部分に含むように音声による回答を促すメッセージを示す訂正要求パターンと、が含まれ、
前記第6の過程は、
前記第2の過程をその後実行して認識された音韻列が、前記肯定パターンに対応する場合、前記訂正後の第2の音韻列からなる単語情報を単語記憶部に記憶し、
前記訂正後の第2の音韻列と前記確認要求パターンに基づく音声を再生し、
前記第2の過程をその後実行して認識された音韻列が、前記否定パターンに対応する場合、前記訂正要求パターンが示す訂正要求音韻列に基づく音声を再生し、
前記第2の過程をさらにその後実行して認識された音韻列から前記訂正要求パターンの所定の部分から前記第1の音韻列を抽出する
ことを特徴とする音声認識方法。 - 音声を入力する音声入力部と、
入力された音声の音韻を認識して音韻列を生成する音韻認識部と、
前記音韻列の一部である認識対象の第1の音韻列と元発話を示す第2の音韻列とをマッチングを行うマッチング部と、
前記マッチングを行った結果に基づき前記第2の音韻列の音韻を訂正する音韻訂正部と、
音声を再生する音声再生部と、
所定の音韻列を含む応答パターンを記憶する対話応答パターン記憶部と、
対話処理部と、
を備え、
前記応答パターンには、訂正後の第2の音韻列の正否について音声による回答を促すメッセージを示す確認要求パターンと、訂正後の第2の音韻列が誤っていることを示す否定パターンと、訂正後の第2の音韻列が正しいことを示す肯定パターンと、前記第1の音韻列を所定の部分に含むように音声による回答を促すメッセージを示す訂正要求パターンと、が含まれ、
前記対話処理部は、
前記音韻認識部がその後認識した音韻列が、前記肯定パターンに対応する場合、前記訂正後の第2の音韻列からなる単語情報を単語記憶部に記憶させ、
前記訂正後の第2の音韻列と前記確認要求パターンに基づく音声を前記音声再生部に再生させ、
前記音韻認識部がその後認識した音韻列が、前記否定パターンに対応する場合、前記訂正要求パターンが示す訂正要求音韻列に基づく音声を前記音声再生部に再生させ、
前記音韻認識部がさらにその後認識した音韻列から前記訂正要求パターンの所定の部分から前記第1の音韻列を抽出する
ことを特徴とする音声認識ロボット。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US29892810P | 2010-01-28 | 2010-01-28 | |
US61/298,928 | 2010-01-28 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011158902A JP2011158902A (ja) | 2011-08-18 |
JP5633042B2 true JP5633042B2 (ja) | 2014-12-03 |
Family
ID=44309627
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011011198A Active JP5633042B2 (ja) | 2010-01-28 | 2011-01-21 | 音声認識装置、音声認識方法、及び音声認識ロボット |
Country Status (2)
Country | Link |
---|---|
US (1) | US8886534B2 (ja) |
JP (1) | JP5633042B2 (ja) |
Families Citing this family (124)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US20120309363A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Triggering notifications associated with tasks items that represent tasks to perform |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US9542939B1 (en) * | 2012-08-31 | 2017-01-10 | Amazon Technologies, Inc. | Duration ratio modeling for improved speech recognition |
EP3809407A1 (en) | 2013-02-07 | 2021-04-21 | Apple Inc. | Voice trigger for a digital assistant |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
WO2014197334A2 (en) * | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
KR101922663B1 (ko) | 2013-06-09 | 2018-11-28 | 애플 인크. | 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스 |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9966065B2 (en) | 2014-05-30 | 2018-05-08 | Apple Inc. | Multi-command single utterance input method |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10446141B2 (en) * | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
JP6724511B2 (ja) * | 2016-04-12 | 2020-07-15 | 富士通株式会社 | 音声認識装置、音声認識方法および音声認識プログラム |
US11227589B2 (en) | 2016-06-06 | 2022-01-18 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770429A1 (en) | 2017-05-12 | 2018-12-14 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
DK179549B1 (en) | 2017-05-16 | 2019-02-12 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
US10303715B2 (en) | 2017-05-16 | 2019-05-28 | Apple Inc. | Intelligent automated assistant for media exploration |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
CN107622769B (zh) * | 2017-08-28 | 2021-04-06 | 科大讯飞股份有限公司 | 号码修改方法及装置、存储介质、电子设备 |
DE102017216571B4 (de) * | 2017-09-19 | 2022-10-06 | Volkswagen Aktiengesellschaft | Kraftfahrzeug |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
WO2019163242A1 (ja) | 2018-02-20 | 2019-08-29 | ソニー株式会社 | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US10496705B1 (en) | 2018-06-03 | 2019-12-03 | Apple Inc. | Accelerated task performance |
US11010561B2 (en) | 2018-09-27 | 2021-05-18 | Apple Inc. | Sentiment prediction from textual data |
US10839159B2 (en) | 2018-09-28 | 2020-11-17 | Apple Inc. | Named entity normalization in a spoken dialog system |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US11170166B2 (en) | 2018-09-28 | 2021-11-09 | Apple Inc. | Neural typographical error modeling via generative adversarial networks |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
US11638059B2 (en) | 2019-01-04 | 2023-04-25 | Apple Inc. | Content playback on multiple devices |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
DK201970511A1 (en) | 2019-05-31 | 2021-02-15 | Apple Inc | Voice identification in digital assistant systems |
US11468890B2 (en) | 2019-06-01 | 2022-10-11 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
WO2021056255A1 (en) | 2019-09-25 | 2021-04-01 | Apple Inc. | Text detection using global geometry estimators |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11038934B1 (en) | 2020-05-11 | 2021-06-15 | Apple Inc. | Digital assistant hardware abstraction |
US11755276B2 (en) | 2020-05-12 | 2023-09-12 | Apple Inc. | Reducing description length based on confidence |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
CN112634874B (zh) * | 2020-12-24 | 2022-09-23 | 江西台德智慧科技有限公司 | 一种基于人工智能的自动调音终端设备 |
CN114724544B (zh) * | 2022-04-13 | 2022-12-06 | 北京百度网讯科技有限公司 | 语音芯片、语音识别方法、装置、设备及智能汽车 |
CN117301074B (zh) * | 2023-11-17 | 2024-04-30 | 浙江孚宝智能科技有限公司 | 智能机器人的控制方法及芯片 |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01237597A (ja) * | 1988-03-17 | 1989-09-22 | Fujitsu Ltd | 音声認識訂正装置 |
JPH04254896A (ja) * | 1991-02-07 | 1992-09-10 | Seiko Epson Corp | 音声認識訂正装置 |
US6185530B1 (en) * | 1998-08-14 | 2001-02-06 | International Business Machines Corporation | Apparatus and methods for identifying potential acoustic confusibility among words in a speech recognition system |
DE69829187T2 (de) * | 1998-12-17 | 2005-12-29 | Sony International (Europe) Gmbh | Halbüberwachte Sprecheradaptation |
US6434521B1 (en) * | 1999-06-24 | 2002-08-13 | Speechworks International, Inc. | Automatically determining words for updating in a pronunciation dictionary in a speech recognition system |
US6370503B1 (en) * | 1999-06-30 | 2002-04-09 | International Business Machines Corp. | Method and apparatus for improving speech recognition accuracy |
AU2001259446A1 (en) * | 2000-05-02 | 2001-11-12 | Dragon Systems, Inc. | Error correction in speech recognition |
GB0027178D0 (en) * | 2000-11-07 | 2000-12-27 | Canon Kk | Speech processing system |
US7251595B2 (en) * | 2001-03-22 | 2007-07-31 | Nippon Telegraph And Telephone Corporation | Dialogue-type information providing apparatus, dialogue-type information providing processing method, and program and recording medium for the same |
EP1262954A1 (en) * | 2001-05-30 | 2002-12-04 | Telefonaktiebolaget L M Ericsson (Publ) | Method and apparatus for verbal entry of digits or commands |
US7103542B2 (en) * | 2001-12-14 | 2006-09-05 | Ben Franklin Patent Holding Llc | Automatically improving a voice recognition system |
US20040148169A1 (en) * | 2003-01-23 | 2004-07-29 | Aurilab, Llc | Speech recognition with shadow modeling |
KR100590553B1 (ko) * | 2004-05-21 | 2006-06-19 | 삼성전자주식회사 | 대화체 운율구조 생성방법 및 장치와 이를 적용한음성합성시스템 |
JP4604178B2 (ja) * | 2004-11-22 | 2010-12-22 | 独立行政法人産業技術総合研究所 | 音声認識装置及び方法ならびにプログラム |
GB0426347D0 (en) * | 2004-12-01 | 2005-01-05 | Ibm | Methods, apparatus and computer programs for automatic speech recognition |
US20060122837A1 (en) * | 2004-12-08 | 2006-06-08 | Electronics And Telecommunications Research Institute | Voice interface system and speech recognition method |
US7949533B2 (en) * | 2005-02-04 | 2011-05-24 | Vococollect, Inc. | Methods and systems for assessing and improving the performance of a speech recognition system |
WO2007027989A2 (en) * | 2005-08-31 | 2007-03-08 | Voicebox Technologies, Inc. | Dynamic speech sharpening |
TWI277947B (en) * | 2005-09-14 | 2007-04-01 | Delta Electronics Inc | Interactive speech correcting method |
JP4542974B2 (ja) * | 2005-09-27 | 2010-09-15 | 株式会社東芝 | 音声認識装置、音声認識方法および音声認識プログラム |
WO2007047487A1 (en) * | 2005-10-14 | 2007-04-26 | Nuance Communications, Inc. | One-step repair of misrecognized recognition strings |
US20070124147A1 (en) * | 2005-11-30 | 2007-05-31 | International Business Machines Corporation | Methods and apparatus for use in speech recognition systems for identifying unknown words and for adding previously unknown words to vocabularies and grammars of speech recognition systems |
JP4734155B2 (ja) * | 2006-03-24 | 2011-07-27 | 株式会社東芝 | 音声認識装置、音声認識方法および音声認識プログラム |
US8055502B2 (en) * | 2006-11-28 | 2011-11-08 | General Motors Llc | Voice dialing using a rejection reference |
KR100925479B1 (ko) * | 2007-09-19 | 2009-11-06 | 한국전자통신연구원 | 음성 인식 방법 및 장치 |
US8180641B2 (en) * | 2008-09-29 | 2012-05-15 | Microsoft Corporation | Sequential speech recognition with two unequal ASR systems |
US8990085B2 (en) * | 2009-09-30 | 2015-03-24 | At&T Intellectual Property I, L.P. | System and method for handling repeat queries due to wrong ASR output by modifying an acoustic, a language and a semantic model |
US8438028B2 (en) * | 2010-05-18 | 2013-05-07 | General Motors Llc | Nametag confusability determination |
KR101892733B1 (ko) * | 2011-11-24 | 2018-08-29 | 한국전자통신연구원 | 켑스트럼 특징벡터에 기반한 음성인식 장치 및 방법 |
-
2011
- 2011-01-21 JP JP2011011198A patent/JP5633042B2/ja active Active
- 2011-01-27 US US13/015,274 patent/US8886534B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2011158902A (ja) | 2011-08-18 |
US8886534B2 (en) | 2014-11-11 |
US20110184737A1 (en) | 2011-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5633042B2 (ja) | 音声認識装置、音声認識方法、及び音声認識ロボット | |
KR101183344B1 (ko) | 사용자 정정들을 이용한 자동 음성 인식 학습 | |
US10650802B2 (en) | Voice recognition method, recording medium, voice recognition device, and robot | |
US20070239455A1 (en) | Method and system for managing pronunciation dictionaries in a speech application | |
JP2001265211A (ja) | 外国語学習装置、外国語学習方法および媒体 | |
JP6654611B2 (ja) | 成長型対話装置 | |
JP2003022087A (ja) | 音声認識方法 | |
JP2005258443A (ja) | 発音グラフを使用して新しい単語の発音学習を改善すること | |
JP2008009153A (ja) | 音声対話システム | |
KR101836430B1 (ko) | 음성 인식과 번역 방법 및 그를 위한 단말 장치와 서버 | |
US7181395B1 (en) | Methods and apparatus for automatic generation of multiple pronunciations from acoustic data | |
JP2004310098A (ja) | スイッチング状態空間型モデルによる変分推論を用いた音声認識の方法 | |
EP4231283A1 (en) | Speech recognition method and apparatus, and device, storage medium and program product | |
US20170270923A1 (en) | Voice processing device and voice processing method | |
JP2001343992A (ja) | 音声パターンモデル学習装置、音声パターンモデル学習方法、および音声パターンモデル学習プログラムを記録したコンピュータ読み取り可能な記録媒体、ならびに音声認識装置、音声認識方法、および音声認識プログラムを記録したコンピュータ読み取り可能な記録媒体 | |
JP5257680B2 (ja) | 音声認識装置 | |
JP3876703B2 (ja) | 音声認識のための話者学習装置及び方法 | |
JP4293340B2 (ja) | 対話理解装置 | |
JP4296290B2 (ja) | 音声認識装置、音声認識方法及びプログラム | |
JP2009116075A (ja) | 音声認識装置 | |
JP5703747B2 (ja) | 音声認識装置,および音声認識プログラム | |
JP4972660B2 (ja) | 音声学習装置及びプログラム | |
JP2005283646A (ja) | 音声認識率推定装置 | |
JP5678912B2 (ja) | 発声特定装置、プログラム | |
WO2018043139A1 (ja) | 情報処理装置および情報処理方法、並びにプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130902 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20130902 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140520 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140708 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140902 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140919 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5633042 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |