JP2004309654A - 音声認識装置 - Google Patents
音声認識装置 Download PDFInfo
- Publication number
- JP2004309654A JP2004309654A JP2003100605A JP2003100605A JP2004309654A JP 2004309654 A JP2004309654 A JP 2004309654A JP 2003100605 A JP2003100605 A JP 2003100605A JP 2003100605 A JP2003100605 A JP 2003100605A JP 2004309654 A JP2004309654 A JP 2004309654A
- Authority
- JP
- Japan
- Prior art keywords
- recognition
- matching
- unit
- vocabulary
- recognized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
【解決手段】音声パターンモデル照合部5により特定された認識語彙の照合スコアS1(c1)が閾値Th1を上回っていれば、その認識語彙を含む照合結果を認識結果として出力し、閾値Th1を上回っていなければ、テキスト照合部10により特定された認識語彙を含む照合結果を認識結果として出力する。
【選択図】 図1
Description
【発明の属する技術分野】
この発明は、音声信号を解析して、その音声信号に対応する認識語彙を出力する音声認識装置に関するものである。
【0002】
【従来の技術】
音声認識は、一般に音声を音響分析して得られる音声の特徴ベクトルの時系列と、その特徴ベクトルの時系列パターンをモデル化した音声パターンモデルとのパターンマッチングを行うことにより実現される。通常、音声パターンモデルは、認識対象とする語彙毎に用意される。
例えば、ホテルや観光施設の名称を認識対象とする音声認識システムを構築する場合、利用者は正式な名称を知らない場合があるので、一つの施設に対して複数個の名称(言い替え語)を用意する必要がある。例えば「横浜○○ホテル」の場合、「横浜○○ホテル」という名称の他に、言い替え語として「横浜○○」や「○○ホテル」等の名称を認識語彙として用意することがある。
【0003】
しかし、音声認識は、上述したように、音声の特徴ベクトルの時系列と音声パターンモデルとのパターンマッチングを行うことにより実現されるので、言い替え語の全てに対して音声パターンモデルを用意すると、パターンマッチングの演算量が膨大になる。
これに対処する方式として、入力音声をテキスト音節列に変換することにより、認識対象語彙とのパターンマッチングを演算量の少ないテキスト上で行うという方法がある。
入力音声からテキスト音節列に変換する部分も、日本語に現れる音節の種類は百数十個と少なく、演算量・メモリ量が少なくて済むため、全体の演算量とメモリ量を小さくすることができる。
以下の特許文献1には、上記処理方式を採用する従来の音声認識装置が開示されている。
【0004】
【特許文献1】
特開昭62−219000号公報(第4頁から第6頁、図2)
【0005】
【発明が解決しようとする課題】
従来の音声認識装置は以上のように構成されているので、パターンマッチングの演算量を少なくすることができる。しかし、音声の特徴ベクトルの時系列と音声パターンモデルのパターンマッチングを行う方式と比べて認識性能が劣化する課題があった。特に、言い替え語の種類を増やすと、類似単語の個数が増加するため、正式名称を発声した場合でも認識精度が劣化する課題があった。
【0006】
この発明は上記のような課題を解決するためになされたもので、あまり一般的ではない言い替え語が発声されても一定以上の認識精度を確保することができる一方、正式名称や一般的な言い替え語が発声された場合には高い認識精度を得ることができる音声認識装置を得ることを目的とする。
【0007】
【課題を解決するための手段】
この発明に係る音声認識装置は、第1の照合手段により特定された認識語彙の照合尤度が所定の閾値を上回っていれば、その認識語彙を認識結果として出力し、所定の閾値を上回っていなければ、第2の照合手段により特定された認識語彙を認識結果として出力するようにしたものである。
【0008】
【発明の実施の形態】
以下、この発明の実施の一形態を説明する。
実施の形態1.
図1はこの発明の実施の形態1による音声認識装置を示す構成図であり、図において、音声入力端子1は利用者の発声を入力して音声信号を出力する。音響分析部2は音声入力端子1から音声信号が入力されると、その音声信号を音響分析して、その音声信号から特徴ベクトルの時系列を抽出する音響分析手段を構成している。
【0009】
認識語彙辞書3は認識語彙W1(i)の単語識別番号、かな漢字表記K1(i)、音節表記P1(i)を登録している(図2を参照)。ただし、i=1〜N1であり、N1は認識語彙辞書3に登録されている語彙数である。また、単語識別番号が同じ語彙は、何れかの語が言い替え語であり、同じ施設等を表している。
音響モデル格納部4は例えば連続分布型のHMM(Hidden Markov Model)が用いられている音響モデルを格納している。なお、音響モデルは、日本語に含まれる全ての音素に対して多数の話者の音声データを用いて作成されており、例えば、“a”,“i”,“u”などの母音の他、“k”,“m”,“s”などの子音が音響モデルとして作成される。
音声パターンモデル照合部5は予め認識語彙辞書3に格納されている認識語彙毎に、その認識語彙の音節表記にしたがって音響モデルを連結して音声パターンモデルを生成する一方、音響分析部2から特徴ベクトルの時系列を受けると、その特徴ベクトルの時系列と、予め生成した複数の認識語彙に係る音声パターンモデルとを照合して、最も照合尤度が高い認識語彙を特定する。なお、認識語彙辞書3、音響モデル格納部4及び音声パターンモデル照合部5から第1の照合手段が構成されている。
【0010】
基本単位接続規則格納部6は基本単位照合部7がパターンマッチングを実施する際の基本単位間の接続規則を格納している。例えば、基本単位として日本語に現れる音節を用いる場合、基本単位間の接続規則としては音節間で任意の接続を許すものとなる。
基本単位照合部7は音響分析部2により抽出された特徴ベクトルの時系列の先頭に位置する音節(音)から順番に各種の音響モデルとのパターンマッチングを実施して最も尤度が高い音響モデルを特定し、複数の解析結果(最も尤度が高い音響モデル)を順次接続して音節列(音列)を生成する。
【0011】
大規模語彙辞書8は認識語彙W2(i)の単語識別番号、かな漢字表記K2(i)、音節表記P2(i)を登録している(図3を参照)。ただし、i=1〜N2であり、N2は認識語彙辞書3に登録されている語彙数であるが、認識語彙辞書3よりも多くの言い替え語が登録されている。差分表格納部9は実際に発話された正しい音節と基本単位照合部7により生成された音節に対応する尤度が記述されている差分表を格納している(図4を参照)。なお、差分表は予め発話内容が既知の音声データを用いて作成されている。
テキスト照合部10は基本単位照合部7により生成された音節列と、大規模語彙辞書8に登録されている複数の認識語彙に係る音節列とをテキストレベルで照合し、最も照合尤度が高い認識語彙を特定する。なお、音響モデル格納部4、基本単位接続規則格納部6、基本単位照合部7、大規模語彙辞書8、差分表格納部9及びテキスト照合部10から第2の照合手段が構成されている。
【0012】
リジェクト判定部11は音声パターンモデル照合部5により特定された認識語彙の照合スコア(照合尤度)が閾値Th1を上回っていれば、その認識語彙を含む照合結果を出力するとともに、その照合結果の採用を意味する「1」の判定結果を出力する。一方、その照合スコアが閾値Th1を上回っていなければ、その照合結果のリジェクトを意味する「0」の判定結果を出力する。
認識結果出力部12はリジェクト判定部11から出力された判定結果が「1」であれば、リジェクト判定部11から出力された認識語彙を含む照合結果を認識結果として出力する。一方、その判定結果が「0」の場合、テキスト照合部10により特定された認識語彙の照合スコアが閾値Th2(第2の閾値)を上回っていれば、その認識語彙を含む照合結果を認識結果として出力し、その照合スコアが閾値Th2を上回っていなければ、認識失敗を意味する「φ」を認識結果として出力する。なお、リジェクト判定部11及び認識結果出力部12から認識結果出力手段が構成されている。
【0013】
なお、図1の音声認識装置の全構成要素をハードウエアで構成してもよいが、各構成要素の機能を実現するプログラムをメモリ等に記録し、それらのプログラムを実行するコンピュータを用意するようにしてもよい。
【0014】
次に動作について説明する。
まず、利用者が音声入力端子1に向けて発声すると、音声入力端子1から音声信号が音響分析部2に与えられる。
音響分析部2は、音声入力端子1から音声信号を受けると、例えば、LPC(Linear Predictive Coding)法を用いて、その音声信号を音響分析することにより、その音声信号から特徴ベクトルの時系列を抽出する。この場合、この特徴ベクトルはLPCケプストラムになる。
【0015】
音声パターンモデル照合部5は、予め、認識語彙辞書3に格納されている認識語彙毎に、その認識語彙W1(i)の音節表記P1(i)にしたがって、音響モデル格納部4に格納されている音響モデルを連結して音声パターンモデル(音響分析部2により抽出される特徴ベクトルの時系列パターンをモデル化した音声パターンモデル)を生成する。
その後、音響分析部2から特徴ベクトルの時系列を受けると、例えば、ビタビアルゴリズムを用いて、その特徴ベクトルの時系列と、予め生成した複数の認識語彙W1(i)に係る音声パターンモデルとを照合して、認識語彙W1(i)に対する照合スコアS1(i)を求める。
そして、認識語彙辞書3に格納されている全ての認識語彙に対して照合スコアS1(i)(i=1〜N1)を求めると、最も照合スコアS1が高い認識語彙を特定し、その認識語彙の単語番号c1と、かな漢字表記K1(c1)と、音節表記P1(c1)と、照合スコアS1(c1)とを照合結果として出力する。
【0016】
一方、基本単位照合部7は、音声入力端子1から音声信号を受けると、例えば、ワンパスDPアルゴリズムを実施することにより、その特徴ベクトルの時系列の先頭に位置する音節から順番に各種の音響モデルとのパターンマッチングを実施して最も尤度が高い音響モデルを特定する。
例えば、ユーザの入力音声が「横浜デパート・・・」である場合、先頭の音節である「yo」と、音響モデル格納部4に格納されている複数の音響モデルとのパターンマッチングを実施して、「yo」と最も尤度が高い音響モデルを特定する。
【0017】
次に、先頭から2番目の音節である「ko」と、音響モデル格納部4に格納されている複数の音響モデルとのパターンマッチングを実施して、「ko」と最も尤度が高い音響モデルを特定する。
以後、同様にして、特徴ベクトルの時系列に含まれている全ての音節について、上記のパターンマッチングを実施して、最も尤度が高い音響モデルをそれぞれ特定する。
基本単位照合部7は、全ての音節についてパターンマッチングを終えると、各パターンマッチングにおいて、最も尤度が高いと認定した音響モデルを順次接続して音節列を生成する。
【0018】
テキスト照合部10は、基本単位照合部7から音節列を受けると、例えば、阿部他「1段目の最適解と正解の差分傾向を考慮した2段階探索法」、音響学会講演論文集、1−R−15、1998.9に開示されている方法を用いて、基本単位照合部7により生成された音節列と、大規模語彙辞書8に登録されている複数の認識語彙W2(i)に係る音節列とをテキストレベルで照合して、認識語彙W2(i)に対する照合スコアS2(i)を求める。
【0019】
なお、テキストレベルでの照合では、基本単位照合部7により生成された音節列を構成する音節毎に、図4に示すような差分表から、その音節と認識語彙W2(i)に係る音節(実際に発話された正しい音節)に対応する尤度を取得し、基本単位照合部7により生成された音節列を構成する全音節の尤度を加算して、照合スコアS2(i)を求める。
テキスト照合部10は、大規模語彙辞書8に格納されている全ての認識語彙に対して照合スコアS2(i)(i=1〜N2)を求めると、最も照合スコアS2が高い認識語彙を特定し、その認識語彙の単語番号c2と、かな漢字表記K2(c2)と、音節表記P2(c2)と、照合スコアS2(c2)とを照合結果として出力する。
【0020】
リジェクト判定部11は、音声パターンモデル照合部5から照合結果を受けると、その照合結果に含まれている認識語彙の照合スコアS1(c1)と予め設定された閾値Th1を比較し、その照合スコアS1(c1)が閾値Th1を上回っていれば、その照合結果を認識結果出力部12に出力するとともに、その照合結果の採用を意味する「1」の判定結果を認識結果出力部12に出力する。
一方、その照合スコアS1(c1)が閾値Th1を上回っていなければ、その照合結果のリジェクトを意味する「0」の判定結果を認識結果出力部12に出力する。
【0021】
認識結果出力部12は、リジェクト判定部11から出力された判定結果が「1」であれば、リジェクト判定部11から出力された照合結果を認識結果として出力する。
一方、その判定結果が「0」の場合、テキスト照合部10から出力された照合結果に含まれている認識語彙の照合スコアS2(c2)と予め設定された閾値Th2を比較し、その照合スコアS2(c2)が閾値Th2を上回っていれば、その照合結果を出力する。
しかし、その照合スコアS2(c2)が閾値Th2を上回っていなければ、認識失敗を意味する「φ」を認識結果として出力する。
【0022】
この実施の形態1による音声認識装置の場合、上記のように構成されているので、例えば、利用者が「関内の横浜デパート」と発声した場合、この施設の正式名称は「横浜デパート関内南口駅前店」であり、認識語彙辞書3には「関内の横浜デパート」という言い替え語が登録されていない。
したがって、音声パターンモデル照合部5から出力された照合結果に含まれている認識語彙は、他の語彙となるため、その認識語彙の照合スコアS1(c1)は低くなり、リジェクト判定部11によって、当該照合結果はリジェクトされることになる。
しかし、この場合、大規模語彙辞書8には、利用者の発話である「関内の横浜デパート」と一致する言い替え語が登録されているので、正しい認識結果を得ることができる。
【0023】
一方、利用者が「横浜デパート関内店」と発声した場合、識語彙辞書3には「横浜デパート関内南口駅前店」の言い替え語として「横浜デパート関内店」が登録されているので、音声パターンモデル照合部5のパターンマッチングによって「横浜デパート関内店」が高い照合スコアS1(c1)で出力されることが期待できる。
したがって、リジェクト判定部11によって、当該照合結果がリジェクトされることはなく、認識結果出力部12は当該照合結果を認識結果として出力することになる。
この場合、テキスト照合部10の照合結果を全く使用しないので、大規模語彙辞書8に大量の言い替え語が登録されていても、認識語彙辞書3に登録してある認識語彙に対する認識精度が劣化することはない。
【0024】
以上で明らかなように、この実施の形態1によれば、音声パターンモデル照合部5により特定された認識語彙の照合スコアS1(c1)が閾値Th1を上回っていれば、その認識語彙を含む照合結果を認識結果として出力し、閾値Th1を上回っていなければ、テキスト照合部10により特定された認識語彙を含む照合結果等を認識結果として出力するように構成したので、あまり一般的ではない言い替え語が発声されても一定以上の認識精度を確保することができる一方、正式名称や一般的な言い替え語が発声された場合には高い認識精度を得ることができる効果を奏する。
【0025】
実施の形態2.
図5はこの発明の実施の形態2による音声認識装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
音響モデル格納部13は例えば先行と後続の音素の違いによってモデルを別モデルとするトライフォン音素パターンモデルを格納している。
例えば、「足(asi)」と「椅子(isu)」の第2音素は、ともに/s/であるが、先行と後続の音素が異なるので、トライフォン音素パターンモデルとしては別のモデルとなる。即ち、「足(asi)」では/s/の先行音素が/a/、後続音素が/i/であるのに対し、「椅子(isu)」では、/s/の先行音素が/i/、後続音素が/u/であるので、トライフォン音素パターンモデルとしては別のモデルとなる。
【0026】
上記実施の形態1では、音声パターンモデル照合部5と同様に、基本単位照合部7が音響モデル格納部4に格納されている音響モデルを用いるものについて示したが、基本単位照合部7では、音響モデル格納部13に格納されているトライフォン音素パターンモデルを用いるようにしてもよい。
この場合、基本単位照合部7が参照する音響モデルの種類が、音響モデル格納部4に格納されている音響モデル(音素パターンモデル)を参照する場合よりも多くなる。このため、パターンマッチングに要する演算量が多くなるが、認識精度が高くなるので、テキスト照合部10における照合結果の認識精度が向上するようになる。
なお、基本単位照合部7におけるパターンマッチング処理は、基本単位である音節間で任意の接続を許すワンパスDPであり、認識語彙数に依存せず元々演算量が小さいので、トライフォン音素パターンモデルを用いることによる演算量の増加は実質的に問題とならない。
【0027】
実施の形態3.
図6はこの発明の実施の形態3による音声認識装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
リジェクト判定部14は基本単位照合部7により生成された音節列と、音声パターンモデル照合部5により特定された認識語彙の音節表記P1(c1)とをテキストレベルで照合してテキスト照合スコアST(c1)を求める一方、そのテキスト照合スコアST(c1)と、音声パターンモデル照合部5により特定された認識語彙の照合スコアS1(c1)とから複合スコアS3(c1)を求め、その複合スコアS3(c1)が閾値Th3を上回っていれば、音声パターンモデル照合部5により特定された認識語彙を含む照合結果を出力するとともに、その照合結果の採用を意味する「1」の判定結果を出力する。一方、その複合スコアS3(c1)が閾値Th3を上回っていなければ、その照合結果のリジェクトを意味する「0」の判定結果を出力する。なお、リジェクト判定部14は認識結果出力手段を構成している。
【0028】
次に動作について説明する。
音声パターンモデル照合部5は、上記実施の形態1と同様にして最も照合尤度が高い認識語彙を特定し、その認識語彙を含む照合結果をリジェクト判定部14に出力する。
一方、基本単位照合部7も、上記実施の形態1と同様にして音節列を生成し、その音節列をテキスト照合部10及びリジェクト判定部14に出力する。
テキスト照合部10は、基本単位照合部7から音節列を受けると、上記実施の形態1と同様にして最も照合尤度が高い認識語彙を特定し、その認識語彙を含む照合結果を認識結果出力部12に出力する。
【0029】
リジェクト判定部14は、基本単位照合部7から音節列を受けると、差分表格納部9に格納されている差分表を用いて、基本単位照合部7により生成された音節列と、音声パターンモデル照合部5により特定された認識語彙の音節表記P1(c1)とをテキストレベルで照合してテキスト照合スコアST(c1)を求める。なお、テキストレベルのパターンマッチングは、テキスト照合部10におけるパターンマッチングと同様である。
【0030】
リジェクト判定部14は、上記のようにしてテキスト照合スコアST(c1)を求めると、そのテキスト照合スコアST(c1)と、音声パターンモデル照合部5により特定された認識語彙の照合スコアS1(c1)とを下記の式(1)に代入して複合スコアS3(c1)を求める。なお、式(1)におけるwは事前に設定される定数である。
S3(c1)=w×S1(c1)+(1−w)×ST(c1) (1)
【0031】
そして、リジェクト判定部14は、複合スコアS3(c1)と予め設定された閾値Th3を比較し、その複合スコアS3(c1)が閾値Th3を上回っていれば、音声パターンモデル照合部5から出力された照合結果を認識結果出力部12に出力するとともに、その照合結果の採用を意味する「1」の判定結果を認識結果出力部12に出力する。
一方、その複合スコアS3(c1)が閾値Th3を上回っていなければ、その照合結果のリジェクトを意味する「0」の判定結果を認識結果出力部12に出力する。
認識結果出力部12は、上記実施の形態1と同様にして認識結果を出力する。
【0032】
以上で明らかなように、この実施の形態3によれば、基本単位照合部7により生成された音節列を考慮して複合スコアS3(c1)を求め、その複合スコアS3(c1)に基づいて音声パターンモデル照合部5から出力された照合結果のリジェクトを判定するように構成したので、リジェクト判定がより正確になり、認識結果出力部12から出力される認識結果の認識精度を更に高めることができる効果を奏する。
【0033】
実施の形態4.
図7はこの発明の実施の形態4による音声認識装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
結果通知部15は正解ボタンと不正解ボタンが設けられているタッチパネルから構成され、認識結果を得た利用者が正解ボタン又は不正解ボタンを押すと、押されたボタンに対応する結果通知情報を通知する。出現頻度格納部16は結果通知部15から通知された結果通知情報が認識結果正解を示している場合、その認識結果に係る認識語彙の単語識別番号、かな漢字表記、音節表記及び出現頻度(正解と判断された回数)を格納する(図8を参照)。
語彙追加部17は出現頻度格納部16に格納されている出現頻度と予め設定された閾値ThCntを比較し、その出現頻度が閾値ThCntを上回ると、その認識結果に係る認識語彙の単語識別番号、かな漢字表記及び音節表記を認識語彙辞書3に登録する。なお、結果通知部15、出現頻度格納部16及び語彙追加部17から語彙登録手段が構成されている。
【0034】
次に動作について説明する。
この実施の形態4では、認識結果出力部12が上記実施の形態1と同様にして認識結果を出力すると、その認識結果が正解であれば、ユーザが結果通知部15の正解ボタンを押し、その認識結果が不正解であれば、ユーザが結果通知部15の不正解ボタンを押すものとする。
【0035】
結果通知部15は、利用者が正解ボタンを押すと、認識結果が正解である旨を意味する「1」を結果通知情報として語彙追加部17に出力する。一方、利用者が不正解ボタンを押すと、認識結果が不正解である旨を意味する「0」を結果通知情報として語彙追加部17に出力する。
語彙追加部17は、結果通知部15から「1」の結果通知情報を受け、かつ、その認識結果がテキスト照合部10の照合結果に係るものである場合、その照合結果に含まれている認識語彙の単語識別番号c2、かな漢字表記K2(c2)及び音節表記P2(c2)と出現頻度とを出現頻度格納部16に格納する。
ただし、語彙追加部17が出現頻度等を出現頻度格納部16に格納する際、当該認識語彙と同一の語彙が未だ出現頻度格納部16に格納されていない場合、”1”の出現頻度を格納し、当該認識語彙と同一の語彙が既に出現頻度格納部16に格納されている場合、その語彙の出現頻度を1だけインクリメントする。
【0036】
語彙追加部17は、出現頻度格納部16に格納されている出現頻度と予め設定された閾値ThCntを比較し、その出現頻度が閾値ThCntを上回ると、その認識結果に係る認識語彙の単語識別番号c2、かな漢字表記K2(c2)及び音節表記P2(c2)を認識語彙辞書3に登録する。
一方、その認識結果に係る認識語彙の単語識別番号c2、かな漢字表記K2(c2)及び音節表記P2(c2)を大規模語彙辞書8から削除するとともに、出現頻度格納部16から削除する。
【0037】
例えば、閾値ThCntが“4”である場合、図8の例では、「関内の横浜デパート」の出現頻度が閾値ThCntを上回っているので、「関内の横浜デパート」の単語識別番号である“1”と、かな漢字表記である「関内の横浜デパート」と、音節表記である/kaNnainoyokohamadepaato/とを追加語彙情報として認識語彙辞書3に出力し、認識語彙辞書3に認識語彙を追加する(図9を参照)。
また、その追加語彙情報と同じ内容の削除語彙情報を大規模語彙辞書8に出力し、大規模語彙辞書8から認識語彙を削除する(図10を参照)。さらに、その削除語彙情報を出現頻度格納部16に出力し、出現頻度格納部16から認識語彙と出現頻度を削除する(図11を参照)。
【0038】
この実施の形態4によれば、最初は大規模語彙辞書8に登録されていた認識語彙でも、利用者が発声する出現頻度が一定以上の認識語彙は、認識語彙辞書3に登録されるようになるので、出現頻度が一定以上の認識語彙に対する認識精度を高めることができる効果を奏する。
【0039】
【発明の効果】
以上のように、この発明によれば、第1の照合手段により特定された認識語彙の照合尤度が所定の閾値を上回っていれば、その認識語彙を認識結果として出力し、所定の閾値を上回っていなければ、第2の照合手段により特定された認識語彙を認識結果として出力するように構成したので、あまり一般的ではない言い替え語が発声されても一定以上の認識精度を確保することができる一方、正式名称や一般的な言い替え語が発声された場合には高い認識精度を得ることができる効果がある。
【図面の簡単な説明】
【図1】この発明の実施の形態1による音声認識装置を示す構成図である。
【図2】認識語彙辞書の登録内容を示す説明図である。
【図3】大規模語彙辞書の登録内容を示す説明図である。
【図4】差分表の格納内容を示す説明図である。
【図5】この発明の実施の形態2による音声認識装置を示す構成図である。
【図6】この発明の実施の形態3による音声認識装置を示す構成図である。
【図7】この発明の実施の形態4による音声認識装置を示す構成図である。
【図8】出現頻度格納部の格納内容を示す説明図である。
【図9】語彙追加後の認識語彙辞書の登録内容を示す説明図である。
【図10】語彙削除後の大規模語彙辞書の登録内容を示す説明図である。
【図11】語彙削除後の出現頻度格納部の格納内容を示す説明図である。
【符号の説明】
1 音声入力端子、2 音響分析部(音響分析手段)、3 認識語彙辞書(第1の照合手段)、4 音響モデル格納部(第1の照合手段、第2の照合手段)、5 音声パターンモデル照合部(第1の照合手段)、6 基本単位接続規則格納部(第2の照合手段)、7 基本単位照合部(第2の照合手段)、8 大規模語彙辞書(第2の照合手段)、9 差分表格納部(第2の照合手段)、10 テキスト照合部(第2の照合手段)、11 リジェクト判定部(認識結果出力手段)、12 認識結果出力部(認識結果出力手段)、13 音響モデル格納部(第2の照合手段)、14 リジェクト判定部(認識結果出力手段)、15 結果通知部(語彙登録手段)、16 出現頻度格納部(語彙登録手段)、17 語彙追加部(語彙登録手段)。
Claims (7)
- 音声信号を音響分析して、その音声信号から特徴ベクトルの時系列を抽出する音響分析手段と、上記音響分析手段により抽出された特徴ベクトルの時系列と複数の認識語彙に係る音声パターンモデルとを照合して、最も照合尤度が高い認識語彙を特定する第1の照合手段と、上記音響分析手段により抽出された特徴ベクトルの時系列を解析して、その特徴ベクトルの時系列に対応する音列を求め、その音列と複数の認識語彙に係る音列とを照合して、最も照合尤度が高い認識語彙を特定する第2の照合手段と、上記第1の照合手段により特定された認識語彙の照合尤度が所定の閾値を上回っていれば、その認識語彙を認識結果として出力し、所定の閾値を上回っていなければ、上記第2の照合手段により特定された認識語彙を認識結果として出力する認識結果出力手段とを備えた音声認識装置。
- 認識結果出力手段は、第1の照合手段により特定された認識語彙の照合尤度が所定の閾値を上回っていない場合でも、第2の照合手段により特定された認識語彙の照合尤度が第2の閾値を上回っていない場合、認識失敗を意味する認識結果を出力することを特徴とする請求項1記載の音声認識装置。
- 第1の照合手段は、予め、認識語彙辞書に格納されている認識語彙毎に、その認識語彙の音節表記にしたがって音響モデルを連結して音声パターンモデルを生成することを特徴とする請求項1記載の音声認識装置。
- 第2の照合手段は、音響分析手段により抽出された特徴ベクトルの時系列の先頭に位置する音から順番に解析し、複数の解析結果を順次接続して音列を生成することを特徴とする請求項1記載の音声認識装置。
- 第2の照合手段は、第1の照合手段が使用する音響モデルよりも精密な音響モデルを用いて、特徴ベクトルの時系列に含まれる音を解析することを特徴とする請求項4記載の音声認識装置。
- 音声信号を音響分析して、その音声信号から特徴ベクトルの時系列を抽出する音響分析手段と、上記音響分析手段により抽出された特徴ベクトルの時系列と複数の認識語彙に係る音声パターンモデルとを照合して、最も照合尤度が高い認識語彙を特定する第1の照合手段と、上記音響分析手段により抽出された特徴ベクトルの時系列を解析して、その特徴ベクトルの時系列に対応する音列を求め、その音列と複数の認識語彙に係る音列とを照合して、最も照合尤度が高い認識語彙を特定する第2の照合手段と、上記第1の照合手段により特定された認識語彙の照合尤度と第2の照合手段による解析結果から照合スコアを求め、その照合スコアが所定の閾値を上回っていれば、上記第1の照合手段により特定された認識語彙を認識結果として出力し、所定の閾値を上回っていなければ、上記第2の照合手段により特定された認識語彙を認識結果として出力する認識結果出力手段とを備えた音声認識装置。
- 認識結果出力手段から出力された認識結果が正解である旨の情報を受けると、その認識結果として出力した認識語彙を認識語彙辞書に登録する語彙登録手段を設けたことを特徴とする請求項3記載の音声認識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003100605A JP4236502B2 (ja) | 2003-04-03 | 2003-04-03 | 音声認識装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003100605A JP4236502B2 (ja) | 2003-04-03 | 2003-04-03 | 音声認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004309654A true JP2004309654A (ja) | 2004-11-04 |
JP4236502B2 JP4236502B2 (ja) | 2009-03-11 |
Family
ID=33464688
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003100605A Expired - Fee Related JP4236502B2 (ja) | 2003-04-03 | 2003-04-03 | 音声認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4236502B2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007213005A (ja) * | 2006-01-10 | 2007-08-23 | Nissan Motor Co Ltd | 認識辞書システムおよびその更新方法 |
JP2011065108A (ja) * | 2009-09-18 | 2011-03-31 | Konica Minolta Business Technologies Inc | 画像処理装置、音声認識処理装置、音声認識処理装置の制御方法、およびコンピュータプログラム |
JP2021520014A (ja) * | 2018-11-02 | 2021-08-12 | ワン・コネクト・スマート・テクノロジー・カンパニー・リミテッド・(シェンチェン) | ビデオ品質検査方法、装置、コンピュータデバイス及び記憶媒体 |
-
2003
- 2003-04-03 JP JP2003100605A patent/JP4236502B2/ja not_active Expired - Fee Related
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007213005A (ja) * | 2006-01-10 | 2007-08-23 | Nissan Motor Co Ltd | 認識辞書システムおよびその更新方法 |
US9020819B2 (en) | 2006-01-10 | 2015-04-28 | Nissan Motor Co., Ltd. | Recognition dictionary system and recognition dictionary system updating method |
JP2011065108A (ja) * | 2009-09-18 | 2011-03-31 | Konica Minolta Business Technologies Inc | 画像処理装置、音声認識処理装置、音声認識処理装置の制御方法、およびコンピュータプログラム |
US8630852B2 (en) | 2009-09-18 | 2014-01-14 | Konica Minolta Business Technologies, Inc. | Image processing apparatus, speech recognition processing apparatus, control method for speech recognition processing apparatus, and computer-readable storage medium for computer program |
JP2021520014A (ja) * | 2018-11-02 | 2021-08-12 | ワン・コネクト・スマート・テクノロジー・カンパニー・リミテッド・(シェンチェン) | ビデオ品質検査方法、装置、コンピュータデバイス及び記憶媒体 |
JP7111887B2 (ja) | 2018-11-02 | 2022-08-02 | ワン・コネクト・スマート・テクノロジー・カンパニー・リミテッド・(シェンチェン) | ビデオ品質検査方法、装置、コンピュータデバイス及び記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP4236502B2 (ja) | 2009-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10074363B2 (en) | Method and apparatus for keyword speech recognition | |
US8478591B2 (en) | Phonetic variation model building apparatus and method and phonetic recognition system and method thereof | |
US6910012B2 (en) | Method and system for speech recognition using phonetically similar word alternatives | |
TWI396184B (zh) | 一種語音辨認所有語言及用語音輸入單字的方法 | |
JPH06110493A (ja) | 音声モデルの構成方法及び音声認識装置 | |
JP2003308090A (ja) | 音声認識装置、音声認識方法および音声認識プログラム | |
US7653541B2 (en) | Speech processing device and method, and program for recognition of out-of-vocabulary words in continuous speech | |
US8219386B2 (en) | Arabic poetry meter identification system and method | |
JPH10274996A (ja) | 音声認識装置 | |
Hirschberg et al. | Generalizing prosodic prediction of speech recognition errors | |
JP3444108B2 (ja) | 音声認識装置 | |
WO2007114346A1 (ja) | 音声認識装置 | |
JP4283133B2 (ja) | 音声認識装置 | |
JP4236502B2 (ja) | 音声認識装置 | |
JP2001312293A (ja) | 音声認識方法およびその装置、並びにコンピュータ読み取り可能な記憶媒体 | |
JP3378547B2 (ja) | 音声認識方法及び装置 | |
Wallich | Putting speech recognizers to work: While advances in signal processing and algorithms would extend their usefulness, limited models are already meeting many inspection and inventory applications | |
JP2010145784A (ja) | 音声認識装置、音響モデル学習装置、音声認識方法、および、プログラム | |
Jalalvand et al. | A classifier combination approach for Farsi accents recognition | |
JPH08314490A (ja) | ワードスポッティング型音声認識方法と装置 | |
Kuah et al. | A neural network-based text independent voice recognition system | |
Manjunath et al. | Improvement of phone recognition accuracy using source and system features | |
JP3277522B2 (ja) | 音声認識方法 | |
JP3110025B2 (ja) | 発声変形検出装置 | |
JPH03116100A (ja) | 大語彙音声認識装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060123 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20071024 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20071024 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071024 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080801 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20080820 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080826 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081022 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081118 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081216 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111226 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111226 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121226 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |