JP4449380B2 - 話者正規化方法及びそれを用いた音声認識装置 - Google Patents

話者正規化方法及びそれを用いた音声認識装置 Download PDF

Info

Publication number
JP4449380B2
JP4449380B2 JP2003321374A JP2003321374A JP4449380B2 JP 4449380 B2 JP4449380 B2 JP 4449380B2 JP 2003321374 A JP2003321374 A JP 2003321374A JP 2003321374 A JP2003321374 A JP 2003321374A JP 4449380 B2 JP4449380 B2 JP 4449380B2
Authority
JP
Japan
Prior art keywords
frequency conversion
standard
frequency
phoneme
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003321374A
Other languages
English (en)
Other versions
JP2004139049A5 (ja
JP2004139049A (ja
Inventor
景子 森井
良久 中藤
裕康 桑野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2003321374A priority Critical patent/JP4449380B2/ja
Publication of JP2004139049A publication Critical patent/JP2004139049A/ja
Publication of JP2004139049A5 publication Critical patent/JP2004139049A5/ja
Application granted granted Critical
Publication of JP4449380B2 publication Critical patent/JP4449380B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は音響特徴量を用いた音声の個人差を補正する話者正規化方法及びそれを用いた音声認識装置に関する。
従来、話者正規化方法を用いた音声認識装置としては、特許文献1に記載されているものが知られている。図14は、特許文献1に記載された従来の音声認識方法を示す流れ図である。
まず、A/D変換を行ってディジタル化された音声を入力信号として、LPCケプストラム係数等の特徴量を抽出し(ステップS10)、次に、無声音/有声音の判定を行って無声音/有声音区間を検出し(S20)、次に、発声者の声道長の個人差に起因する影響を正規化するために、LPCケプストラム等の特徴量に周波数軸上の変換を施す(ステップS30)。
次に、周波数軸上の変換を施された入力音声の特徴量と予め複数話者から学習した音響モデル特徴量とのマッチングを行い(ステップS50)、少なくとも1つの認識結果候補を出力する。その後、ステップS50において算出された認識結果をもとに入力発声を教師信号として最適な変換係数を求める(ステップS60)。次に、話者や音韻によるばらつきを吸収するため変換係数平滑化を行い、新たな周波数変換係数として更新する(ステップS70)。ステップS70で更新された新たな周波数変換係数はステップS30で新たな周波数変換係数として使用される。
一方、入力話者の音声スペクトルの周波数を伸縮する手法を用いた音声認識装置としては、音声単位毎に音素境界情報を推定し、この音素境界情報に基づいて選択した音素区間に関して周波数伸縮関数を推定するものがある(たとえば、特許文献2参照)。
特開2001−255886号公報(第4−8頁、第2図) 特開2002−189492号公報(第4頁)
しかしながら、このような従来の方法では、無声音や有声音などの音素または音声区間の検出もしくは推定を行った後に、情報に同期して周波数変換を行う必要がある上に、認識対象語辞書が話者正規化を行う際にも必要であるという課題を有していた。
本発明は、このような従来の課題を解決するものであり、認識対象語辞書を使用せずに、情報や音声区間の検出もしくは推定をすることなく話者正規化を行い、入力音声の個人差を補正して音声認識性能を向上せしめることを目的とする。
上記課題を解決するために、本願の音声認識装置は、フレーム毎に入力音声の音響特徴量を抽出する特徴量抽出部と、前記音響特徴量を記憶する特徴量記憶部と、複数の周波数変換係数を用いて、それぞれの周波数変換係数毎に前記音響特徴量を周波数変換して複数の変換後特徴量を出力する周波数変換部と、前記フレーム毎に、前記複数の変換後特徴量と標準音韻の標準音韻モデルとの全ての組み合わせで前記変換後特徴量と前記標準音韻モデルとの類似度又は距離を算出する類似度乃至距離算出部と、前記算出された複数の類似度又は距離を用いて前記入力音声を正規化するための周波数変換条件を決定する周波数変換条件決定部と、単語モデルを用いて音声認識する音声認識処理部と、を備え、前記周波数変換条件決定部は、前記算出された複数の類似度又は距離から、標準音韻と当該標準音韻の中で最も類似度の高い周波数変換係数又は当該標準音韻の中で最も距離が小さい周波数変換係数とをフレーム毎に選定し、当該選定された結果を用いて最尤となる標準音韻および当該標準音韻に対応する周波数変換係数の組み合わせを前記フレーム毎に選定し、前記周波数変換係数の出現頻度を複数フレームに渡って周波数変換係数毎に累積し、前記出現頻度の最も多い周波数変換係数を全フレームに渡る周波数変換係数とし、前記周波数変換部は、前記周波数変換条件決定部によって決定された周波数変換条件を用いて前記特徴量記憶部に記憶された前記音響特徴量を周波数変換し、前記音声認識処理部は、前記周波数変換条件を用いて周波数変換された前記音響特徴量と前記単語モデルを用いて音声認識をする。
好ましい実施形態として、本願の音声認識装置は、フレーム毎に入力音声の音響特徴量を抽出する特徴量抽出部と、前記音響特徴量を記憶する特徴量記憶部と、複数の周波数変換係数を用いて、それぞれの周波数変換係数毎に前記音響特徴量を周波数変換して複数の変換後特徴量を出力する周波数変換部と、前記フレーム毎に、前記複数の変換後特徴量と標準音韻の標準音韻モデルとの全ての組み合わせで前記変換後特徴量と前記標準音韻モデルとの類似度又は距離を算出する類似度乃至距離算出部と、前記算出された複数の類似度又は距離を用いて前記入力音声を正規化するための周波数変換条件を決定する周波数変換条件決定部と、単語モデルを用いて音声認識する音声認識処理部と、を備え、前記周波数変換条件決定部は、前記算出された複数の類似度又は距離から、標準音韻と当該標準音韻の中で最も類似度の高い周波数変換係数又は当該標準音韻の中で最も距離が小さい周波数変換係数とをフレーム毎に選定し、前記周波数変換係数の出現頻度を複数フレームに渡って前記標準音韻毎に累積し、前記標準音韻別に前記出現頻度の最も多い周波数変換係数を選定し、当該選定した周波数変換係数を全フレームに渡る標準音韻に対応する周波数変換係数として決定し、前記算出された複数の類似度又は距離から、当該標準音韻の中で最も類似度の高い周波数変換係数又は当該標準音韻の中で最も距離が小さい音韻を、フレーム毎にフレームを代表する代表標準音韻として決定し、前記周波数変換部は、前記決定された代表標準音韻を用いて前記全フレームに渡る標準音韻に対応する周波数変換係数をフレーム毎に選択し、当該選択された周波数変換を用いて前記音響特徴量をフレーム毎に周波数変換する。
好ましい実施形態として、本願の音声認識装置は、フレーム毎に入力音声の音響特徴量を抽出する特徴量抽出部と、前記音響特徴量を記憶する特徴量記憶部と、複数の周波数変換係数を用いて、それぞれの周波数変換係数毎に前記音響特徴量を周波数変換して複数の変換後特徴量を出力する周波数変換部と、前記フレーム毎に、前記複数の変換後特徴量と標準音韻の標準音韻モデルとの全ての組み合わせで前記変換後特徴量と前記標準音韻モデルとの類似度又は距離を算出し、かつ、前記特徴量抽出部が抽出した音響特徴量と標準音韻の標準音韻モデルとの前記音響特徴量と前記標準音韻モデルとの類似度又は距離を算出する類似度乃至距離算出部と、前記算出された前記変換後特徴量と前記標準音韻モデルとの複数の類似度又は距離を用いて前記入力音声を正規化するための周波数変換条件を決定する周波数変換条件決定部と、単語モデルを用いて音声認識する音声認識処理部と、を備え、前記周波数変換条件決定部は、前記算出された前記変換後特徴量と前記標準音韻モデルとの複数の類似度又は距離から、標準音韻と当該標準音韻の中で最も類似度の高い周波数変換係数又は当該標準音韻の中で最も距離が小さい周波数変換係数とをフレーム毎に選定し、前記周波数変換係数の出現頻度を複数フレームに渡って前記標準音韻毎に累積し、前記標準音韻別に前記出現頻度の最も多い周波数変換係数を選定し、当該選定した周波数変換係数を全フレームに渡る標準音韻に対応する周波数変換係数として決定し、前記標準音韻毎に、前記算出された前記音響特徴量と前記標準音韻モデルとの類似度又は距離に対応する標準音韻毎の重みをフレーム毎に算出し、前記周波数変換部は、前記全フレームに渡る標準音韻に対応する周波数変換係数と前記算出したフレーム毎の標準音韻毎の重みを用いて、前記音響特徴量をフレーム毎に周波数変換する。
好ましい実施形態として、前記標準音韻は母音である。これによって、周波数変換を行う対象として、少なくとも最も信頼性の高い母音の情報を、必ず利用して全区間の周波数変換条件を決定することになるため、決定された周波数変換条件の信頼度も、より高いものにすることができる。
好ましい実施形態として、前記標準音韻は母音のみである。これによって、周波数変換を行う対象として、最も信頼性の高い母音の情報を利用して全区間の周波数変換条件を決定することになるため、決定された周波数変換条件の信頼度を、より高いものにすることができ、かつ標準音韻モデルのデータ量を少なく抑えることができる。
好ましい実施形態として、音声リモコン装置は、前記入力音声を取り込むマイクロフォンと、前記入力音声が入力される上記に記載のいずれかに一つの音声認識装置と、前記音声認識装置からの認識結果である操作対象装置に対して操作信号を発信する信号発生装置とを有する。
本発明の音声認識方法は、特徴量抽出部が、フレーム毎に入力音声の音響特徴量を抽出する特徴量抽出ステップと、前記音響特徴量を特徴量記憶部に記憶する特徴量記憶ステップと、周波数変換部が、複数の周波数変換係数を用いて、それぞれの周波数変換係数毎に前記音響特徴量を周波数変換して複数の変換後特徴量を出力する周波数変換ステップと、類似度乃至距離算出部が、前記フレーム毎に、前記複数の変換後特徴量と標準音韻の標準音韻モデルとの全ての組み合わせで前記変換後特徴量と前記標準音韻モデルとの類似度又は距離を算出する類似度乃至距離算出ステップと、周波数変換条件決定部が、前記算出された複数の類似度又は距離を用いて前記入力音声を正規化するための周波数変換条件を決定する周波数変換条件決定ステップと、音声認識処理部が、単語モデルを用いて音声認識する音声認識処理ステップと、を含み、前記周波数変換条件決定ステップは、前記算出された複数の類似度又は距離から標準音韻と当該標準音韻の中で最も類似度の高い周波数変換係数又は当該標準音韻の中で最も距離が小さい周波数変換係数とをフレーム毎に選定し、当該選定された結果を用いて最尤となる標準音韻および当該標準音韻に対応する周波数変換係数の組み合わせを前記フレーム毎に選定し、前記周波数変換係数の出現頻度を複数フレームに渡って周波数変換係数毎に累積し、前記出現頻度の最も多い周波数変換係数を全フレームに渡る周波数変換係数とし、前記周波数変換ステップは、前記周波数変換条件決定ステップによって決定された周波数変換条件を用いて前記特徴量記憶部に記憶された前記音響特徴量を周波数変換し、前記音声認識処理ステップは、前記周波数変換条件を用いて周波数変換された前記音響特徴量と前記単語モデルを用いて音声認識をする。
本発明により、入力音声を標準話者の少なくとも1つ以上の標準音韻モデルに合わせるように正規化条件を決定することによって認識対象語辞書を使用せずとも入力音声の話者による差を正規化することが可能になり、この話者正規化を行うことで、認識性能を向上させることができる。
以下、本発明の実施の形態について図面を用いて説明する。
(実施の形態1)
図1は本発明の第1の実施の形態である話者正規化を用いた音声認識システムのハードウェアを示すブロック図である。図1において、マイクロフォン101は音声を取り込み、A/D変換器102が音声のアナログ信号をディジタル信号に変換する。シリアルコンバータ(以下「SCO」という。)103は、A/D変換器102からのシリアル信号をバスライン112に送る。記憶装置104には、あらかじめ複数の話者の音声から学習した音韻毎の特徴量を統計処理した数値群である標準話者群音韻モデル(以下「標準音韻モデル」という。)、及び、あらかじめ複数の話者の音声から学習した音声片毎の特徴量を統計処理して得られた数値群である音声片モデルを連結して得られる単語モデルが記憶さ
れている。
パラレルIOポート(以下PIOという。)105は、この記憶装置104から標準音韻モデルあるいは単語モデルをバスクロックに同期してバスライン112に出力し、ディスプレイなどの出力装置110に音声認識結果を出力する。RAM107は、データ処理を実行するときに使用する一時記憶用のメモリであり、DMAコントローラ(以下「DMA」という。)106が、記憶装置104、出力装置110及びRAM107の間の高速なデータ転送を制御する。
ROM108は、処理プログラムや後述するあらかじめ設定した周波数変換のための変換係数などのデータが書き込まれている。そして、これらSCO103、PIO105、DMA106、RAM107及びROM108はバス接続され、CPU109でコントロールされている。このCPU109は、ディジタルシグナルプロセッサ(DSP)に置き換えることも可能である。
SCO103乃至CPU109により音声認識装置100を構成している。
次に、図2を用いて、図1に示したハードウェア構成の音声認識装置100の機能ブロックの構成について説明する。
特徴量抽出部201は、入力される音声データSIG1から音声を時分割して得られる音響特徴量を抽出する。入力される音声データSIG1はディジタルデータであり、サンプリング周波数としては様々な値が使われている。例えば、電話音声では8kHzが使われ、CDオーディオでは44.1kHzが使われている。ここでは、サンプリング周波数として10kHzを使用した。
また、音響特徴量を抽出する時分割単位として、窓長及びシフト幅は5ms程度から50ms程度の値が考えられるが、本実施の形態1においては窓長を30msとし、シフト幅を15msとした。
この時間幅の音声データより、スペクトルを表現する音響特徴量を抽出する。スペクトルを表現する特徴量としては、LPCケプストラム係数、LPCメルケプストラム係数、ケプストラム係数抽出前にメルスケールで変換を行うメル化LPCケプストラム係数、MFCC、これらケプストラム係数の差分を取ったデルタケプストラムなど、種々のパラメータが知られているが、ここでは、7次のLPCメルケプストラム係数を抽出する。
周波数変換部202は、特徴量抽出部201で得られた特徴量に対して周波数変換を施す。周波数変換方法は、線形に伸縮する方法やシフトする方法、非線形関数で伸縮やシフトする方法などが知られているが、本実施の形態1では、(式1)で表現される1次オールパスフィルタ関数を用いた非線形伸縮を行った。
Figure 0004449380
(式1)のαを周波数変換係数(以下「変換係数」という。)という。変換係数αは、
本来は可変の値であるが、本実施の形態1においては、処理の都合上、‘−0.15’、‘−0.1’、‘−0.05’、‘0’、‘+0.05’、‘+0.10’、‘+0.15’の7つの離散値α1乃至α7を用いた。これらを以下では変換係数群と呼ぶこととする。
周波数変換部202は、設定された変換係数を用いて(式1)により周波数変換処理を行う。変換係数設定部203は、周波数変換部202に対して複数の変換係数を設定する。類似度乃至距離算出部204は、標準音韻モデル205から標準音韻モデルデータを読み込み、周波数変換部202から得た複数の変換係数各々による複数の変換後の入力音響特徴量(以下「変換後特徴量」という。)との類似度又は距離を算出する。ここでの類似度又は距離については、後ほど詳しく説明する。また、この算出結果を結果蓄積部206に蓄積する。
標準音韻モデル205は、以下に示す24音韻についての特徴量を統計処理した数値群からなっている。
/a/、/o/、/u/、/i/、/e/、/j/、/w/、/m/、/n/、/ng/、/b/、/d/、/r/、/z/、/hv/、/hu/、/s/、/c/、/p/、/t/、/k/、/yv/、/yu/、/n/
この音韻の選択については、電子情報通信学会論文誌D−II NO.12 pp.2096−pp.2103において述べられている。
単語モデル210は、音声片モデルを連結して得られる認識対象語をあらわすものであり、認識対象標準音響モデルの1つの例に相当する。標準音韻モデル205と単語モデル210は、共に記憶装置104に記憶されており、どちらも同じ標準話者群の同じ発声群を入力として統計処理を用いて学習している。
変換条件決定部207は、結果蓄積部206に蓄積された結果から音声認識に使用する変換条件を決定する。
特徴量蓄積部208は、特徴量抽出部201で抽出された特徴量を、音声認識処理が完了するまで一時的に蓄積するメモリであり、RAM107の一部が相当する。
音声認識処理部209は、周波数変換された特徴量と単語モデル210との類似度又は距離を演算し単語を決定する。また、この認識結果を出力装置110に出力する。
このような機能構成の音声認識装置100の動作について、図3に示す流れ図を用いて説明する。
まず、特徴量抽出部201は、マイクロフォン101から入力され、A/D変換器102によってディジタル信号化された音声について、1フレーム毎に音響特徴量として7次のLPCメルケプストラム係数を抽出する(ステップS301)。そして、抽出した特徴量を、周波数変換部202へ出力すると同時に、特徴量蓄積部208に蓄積する。
次に、変換係数設定部203が所定の変換係数を周波数変換部202に設定する。周波数変換部202は、音響特徴量をこの変換係数で(式1)により周波数変換して変換後特徴量を求める。この変換を変換係数群すべての変換係数について行う。これにより、1フレーム毎に変換係数群に含まれる変換係数の数だけ変換後特徴量が算出される(ステップS302)。
類似度乃至距離算出部204は算出された変換後特徴量から一つを選び、標準音韻モデル205から読み出した全ての音韻の標準音韻モデルと比較する。この比較は、単一フレーム同士を照合する方法と前後の数フレームを加えて照合する方法とが考えられる。本実施の形態1では、入力フレームの前後の各3フレームを加えて幅7フレームの入力を、標準音韻モデル205に含まれる標準話者の標準音韻モデルとの類似度又は距離を算出する(ステップS303)。そして、この結果を結果蓄積部206に蓄積する。なお、類似度乃至距離算出部204は、算出した変換後特徴量全てに対して類似度又は距離の算出処理を行う。
この変換後特徴量と標準音韻モデルとの類似度又は距離の算出方法としては、標準話者群の発声モデルとして分布を持った統計処理を採用して音韻認識を行って求められる類似度を使用する方法と、標準話者群の発声モデルとして音韻別の代表値を採用して求められる物理的な距離を使用する方法が考えられるが、その他の類似度や距離尺度を用いても同様の効果が得られる。
ここで、話者正規化のために使用する音韻をモデル化した標準音韻モデル205について、2通りの例を説明する。
第1の例は、標準話者群の発声モデルとして分布を持った統計処理を採用して音韻認識を行って求められる類似度を使用する場合である。この場合においては、音韻認識のための類似度を求める尺度として、マハラノビス汎距離を使用しており、標準話者の発声から各音韻に相当する発声部分の連続7フレーム分の音響特徴量を集め、平均値及び共分散行列を求めた後で、マハラノビス汎距離を求めるための係数ベクトルに変換した数値群で構成されている。
第2の例は、標準話者群の発声モデルとして音韻別の代表値を採用して求められる物理的な距離を使用する場合であって、標準話者の発声から各音韻に相当する発声部分の連続7フレーム分の音響特徴量の平均ベクトル群から構成されている。
なお、マハラノビス汎距離については、例えば、特開昭60−67996号公報に説明されている。
これら音韻認識による類似度を使用する例と、音韻別代表値との距離を使用する例との2つの例についての結果については後述する。
結果蓄積部206に蓄積されるデータは、入力フレーム毎に24音韻の数の音韻認識によって求められる類似度や音韻別代表値との距離となる。
上記のステップS301乃至ステップS303を、音声区間の全フレームについて行う。
次に、変換条件決定部207は、各入力フレームの各音韻に対する最も高い類似度を示す変換係数を(式2)に沿って決定する(ステップS304)。
Figure 0004449380
(式2)において、Lは類似度をあらわし、Xαは(式1)に沿った周波数変換によるスペクトル、αは変換係数、θは標準音韻モデルをあらわす。そして、スペクトルXαと標準音韻モデルθの類似度を最大とする変換係数αを探索し、決定する。本実施の形態1では、処理の関係上7つの離散値α1乃至α7を用いているので、7つの離散値すべてを当てはめた場合の類似度から、最も高い類似度が得られる変換係数αを選択し、決定することになる。つまり、7つの離散値を当てはめた複数の類似度を相互に比較し、最も高い類似度が得られる変換係数αが選択される。
音韻特徴量比較の結果が距離である場合には、最も近い距離を示す変換係数を(式3)に沿って決定する。
Figure 0004449380
(式3)において、Dは距離をあらわし、Xαは(式1)に沿った周波数変換によるスペクトル、αは変換係数、θは標準音韻モデルをあらわす。そして、スペクトルXαと標準音韻モデルθの距離を最小とする変換係数αを探索し、決定する。本実施の形態では、7つの離散値すべてを当てはめた場合の距離から、最も小さい距離、即ち一番近い距離が得られる変換係数αを選択し、決定することになる。つまり、7つの離散値を当てはめた複数の距離を相互に比較し、最も小さい距離が得られる変換係数αが選択される。
次に、フレーム毎に入力との類似度が最も高い、もしくは距離が最も小さい音韻を選択し、その音韻の標準音韻モデルに近づくように変換係数を求める(ステップS305)。図8(A)はこの様子を示す全フレームについての音韻毎の変換係数を示した図である。図8(A)において、フレーム内の音韻毎に最尤の変換係数801が選択され、類似度又は距離の算出により最尤の音韻802が決定される。そして、その音韻に対応する変換係数803が求められる。例えば、ステップS305により1フレーム目の最尤の条件が、音韻が/a/であり、変換係数がα4であると選出された場合、その周波数変換に使用した変換係数α4が1フレーム目の変換係数となる。
次に、変換条件決定部207は、ステップS305で求めたフレーム毎に、選択された音韻に対応する周波数変換条件の音声全区間に渡る出現頻度を累積する。そして、累積された出現頻度を比較し、最も出現頻度が高かった変換係数を全区間の周波数変換条件として決定し、変換係数設定部203に通知する(ステップS306)。図8(B)は、この変換係数と累積数との関係を示す図である。図8(B)では、α4が最も回数が多いため、α4が周波数変換条件となる。
以上のステップS301乃至ステップS306により、音声認識処理で使用する周波数変換係数が求まる。
次に、変換係数設定部203は、周波数変換部202に通知された変換係数を設定する。周波数変換部202は、これを受けて、特徴量蓄積部208から蓄積されている特徴量を読み出し、1フレーム目から全音声区間に渡って周波数変換を行う(ステップS307)。この結果である変換後特徴量を音声認識処理部209へ出力する。
以上のステップS301乃至ステップS307が話者正規化処理である。
次に、音声認識処理部209は得られた変換後特徴量を用いて音声認識処理を行う。この処理方法としては、隠れマルコフモデルを用いた方法、ダイナミックタイムワーピングによる方法、ニューラルネットワークによる方法などが知られているが、本実施の形態1では、特開平4−369696号公報、特開平5−150797号公報及び特開平6−266393号公報に開示されている音声認識方法を用いた。音声認識処理部209は、入力と単語モデルとを用いて音声認識処理を行い、認識された単語を音声認識結果として出力装置110に出力する(ステップS308)。
以上のように、本実施の形態1では、音韻認識では十分とされる24音韻すべてについての類似度又は距離から周波数変換条件を決定しており、いかなる種類の発声であっても、この話者正規化を用いた音声認識装置の入力とすることができ、認識性能を向上せしめることができる。
また、本実施の形態1のステップS307において、選択された音韻全ての周波数変換条件の出現回数を累積したが、選択された音韻が母音であった場合のみ回数をカウントすることも可能である。これにより、周波数変換を行う対象として最も信頼性の高い母音のみの情報から全区間の周波数変換条件を決定することになるため、決定された周波数変換条件の信頼度もより高いものにすることができる。
図11(A)は、本実施の形態1により、話者正規化を行った場合と、行わない場合との音声認識の結果を示す。このテストは100単語入力について、100単語の登録辞書を用い、不特定話者3名で行った。話者正規化を行うことにより、認識率が7%乃至21%向上した。これにより、無声音と有声音との区間検出なしの継続長固定の音素認識もしくは入力と標準音韻モデルとの距離計算において、認識対象語辞書を使用せずに話者正規化を行っても、上記効果が得られることが確認できる。
なお、本実施の形態1では、全音声区間に適応する変換係数は、全音声区間の周波数変換処理を行った後に決定しているが、変換係数のいずれかが所定の回数周波数変換条件をして選択された時点で、全音声区間に適応する変換係数とすることも可能である。これにより、音声認識時間の短縮を図ることができる。
(実施の形態2)
図4は、本発明の第2の実施の形態である音声認識装置の機能構成を示す。第1の実施の形態とは、類似度乃至距離算出部204が、周波数変換部202からの出力の他に特徴量抽出部201の出力である音響特徴量と標準音韻モデル205とを比較する点が異なる。更に、変換条件決定部207が、類似度乃至距離算出部204の結果から得られ結果蓄積部206に蓄積されていた結果のうち、後述する代表音韻の結果を用いて変換条件の判定を行う点が異なる。
以下に、図4と図5を用いて、本実施の形態2の音声認識の動作を説明する。図5における前半のステップS301乃至ステップS304の処理は、図3で説明した実施の形態1の各ステップと同じであり、変換条件決定部207が、各フレームにおける音韻毎の周波数変換条件を決定する。
次に、変換条件決定部207は、各音韻別にステップS304で決定された周波数変換条件の出現頻度を累積する(ステップS501)。図9(A)は、この処理の結果作成される音韻と変換係数との出現回数の関係を示した図の一例である。また、変換条件決定部207は、各音韻別に最も頻度が高かった変換係数を選定し、当該音韻の全音声区間向け変換係数として決定する(ステップS502)。図9(A)においては、音韻/a/の変換係数としてα4が選択され、音韻/e/の変換係数としては、α3が選択されたことを示
す。
同時に、変換条件決定部207は、入力フレーム全区間に対し、フレーム毎に当該入力フレームを代表する音韻を決定する(ステップS503)。ここでは、類似度乃至距離算出部204が、特徴量抽出部201の出力と標準音韻モデル205の各音韻標準音韻モデルとを比較して算出して、結果蓄積部206に蓄積されていた類似度のうち、最も高いもの、あるいは音韻別代表値との距離が最も小さい音韻を代表音韻として選定する。
また、変換条件決定部207は、当該入力フレームの代表音韻に対応する変換係数をステップS502での決定に基づいて選択する。この処理を入力フレーム全区間について行い、変換係数設定部203へ通知する(ステップS504)。図9(B)は、全フレームの代表音韻とそれに対応する変換係数との関係を示す図の一例である。
次に、変換係数設定部203は、入力フレーム毎に、適応する通知された変換係数を周波数変換部202に設定する。周波数変換部202は、これを受けて、特徴量蓄積部208から蓄積されている特徴量を読み出し、音声認識処理部209へ渡すための周波数変換処理を行う(ステップS505)。そして、この処理を全音声区間について行う。
以上のステップS301乃至ステップS505が、本実施の形態2の話者正規化処理である。次に行う音声認識処理ステップS308は、実施の形態1で説明した図3における音声認識処理ステップS308と同一である。
以上のように、本実施の形態2では各入力フレームの周波数変換を行う変換係数は1つ選定されるが、入力フレーム毎に選定される変換係数は異なるため、1フレーム毎により細かく話者正規化を行うことが可能になり、いかなる音声であってもこの話者正規化を用いた音声認識装置の入力とすることができ、認識性能を向上させることができる。
図11(B)は、本実施の形態2により、話者正規化を行った場合と、行わない場合との音声認識の結果を示す。このテストは、100単語入力について、100単語の登録辞書を用いて不特定話者9名で行った。話者正規化を行うことにより、成人に比べ低かった子供の認識率が、8.2%向上した。これにより、無声音と有声音との区間検出なしで、継続長固定の音素認識もしくは入力と音韻標準音韻モデルとの距離計算の結果を用い、認識対象語辞書を用いた認識処理を行わずに話者正規化条件を決めても、上記効果が得られることが確認できる。
(実施の形態3)
図6は、本発明の第3の実施の形態である音声認識装置の機能構成を示す。第2の実施の形態とは、特徴量から音韻毎の重みを算出する音韻重み算出部601を備えている点が異なる。
以下に、図6と図7を用いて実施の形態3の音声認識の動作を説明する。前半のステップS301乃至ステップS502の処理は、第2の実施の形態で説明した図5と同じであり、変換条件決定部207が、音韻毎の周波数変換条件を決定する。
変換条件決定部207は、入力音声全区間に対し、フレーム毎に音韻重みを決定する(ステップS701)。この重みの決定のために、まず類似度乃至距離算出部204が、特徴量抽出部201の出力と標準音韻モデル205の各音韻標準音韻モデルとの類似度、あるいは音韻別代表値との距離を算出する。算出された距離は、結果蓄積部206に蓄積されたのちに、変換条件決定部207が、(式4)を用いて正規化された重みを求める。
(式4)において、wikは重み、Xは入力スペクトル、Vは音韻別代表値ベクトル、kは音韻の種類、pは内挿の平滑度を表すパラメータであり、d(X、V)は(式5)により求まる入力スペクトルと音韻別代表値との距離を示す。
Figure 0004449380
Figure 0004449380
変換条件決定部207は、全音声区間について上記処理を行い、各フレームの音韻毎の重みを算出する。この算出結果として、図10(A)に示すような、各フレームの音韻と、音韻毎の重みの関係が得られる。そして、この結果は、結果蓄積部206に記録される。
次に、音韻重み算出部601が、ステップS502で求めた全音声区間に渡っての各音韻と、それに対応する周波数変換条件との関係(図(A)参照)と、ステップS701で求めた各フレームの音韻と、音韻毎の重みの関係(図10(A)参照)とから各フレームの変換係数毎の重みを算出する(ステップS702)。図10(B)は、この関係を示している。そして、音韻重み算出部601はこの算出結果を結果蓄積部206に記憶する。
次に、変換条件決定部207は、この各フレームの変換係数毎の重みを結果蓄積部206から読み出し、重みが「0」以外の変換係数を変換係数設定部203にフレーム毎に通知する。変換係数設定部203は、通知を受けた変換係数を周波数変換部202に設定する。周波数変換部202は、当該変換係数で再度1フレーム目から周波数変換を行い、類似度乃至距離算出部204に変換後特徴量を出力する(ステップS703)。
次に、音声認識処理部209は、結果蓄積部206から各フレームの変換係数と重みの関係を読み出し、この変換係数に対応する重みを、ステップS70で得られた変換後特徴量に掛け算する。この処理を、順次、変換条件判定部207から通知される変換係数全てについて行い合算する(ステップS704)。この算出は、(式6)により行うことができる。
Figure 0004449380
以上のステップS301乃至ステップS704が話者正規化処理である。次に行う音声認識処理ステップS308は、実施の形態1で説明した図3における音声認識処理ステップS308と同一である。
以上のステップS703乃至ステップS308の処理を、全音声区間について行う。
以上のように、本実施の形態3では、各入力フレームのスペクトルを周波数変換する変換係数は複数選定され、重み付き合算処理が行われ、かつ入力フレーム毎に重みの組値が異なる。このため、1フレーム毎により精度良く話者正規化を行うことが可能になり、いかなる音声であっても、この話者正規化を用いた音声認識装置の入力とすることができ、認識性能を向上せしめることができる。
また、重みは、周波数変換前の特徴量を使用して求めるため、周波数変換の影響が、2重に周波数変換時に及ぶことを防ぐことが出来、周波数変換が悪い方向で作用する話者音声に対しても、影響を低く抑えることができる。
図11(C)は、本実施の形態3により、話者正規化を行った場合と、行わない場合との音声認識の結果を示す。このテストは100単語入力について、100単語の登録辞書を用い、不特定話者9名で行った。話者正規化を行うことにより認識率が成人に比べ低かった子供の認識率が9.2%向上した。
これにより、無声音と有声音との区間検出なしで継続長固定の音素認識、または、入力と標準音韻モデルとの距離計算の結果を用い、認識対象語辞書を用いた認識処理を行わずに話者正規化条件を決定しても、上記効果が得られることが確認できる。
また、本実施の形態においては、話者正規化による効果を単語認識の場合について説明したが、文章の認識や会話音声の認識についても、同様に実施可能である。
(実施の形態4)
図12は、本発明の第4の実施の形態である家庭内機器用統合音声リモコン装置の機能を示すブロック図を示す。
起動スイッチ121は、ユーザが家庭内機器用統合音声リモコン装置を起動するためにマイクロフォン101に音声取り込み開始を指示する。スイッチ122は、ユーザが音声認識装置100へ話者正規化を行うか否かの指示を入力する。表示装置123は、音声認識装置からユーザへ話者正規化を行っているか否かを表示する。リモコン信号発生装置124は、出力装置110より音声認識結果(SIG4)を受け取って赤外線によるリモコン信号(SIG5)を出力する。電子機器群125は、リモコン信号発生装置124より赤外線によるリモコン信号(SIG5)を受け取るものである。
なお、起動スイッチ121を含まない構成も可能である。その場合には、マイクロフォン101は、常時音声を取り込んでいて、A/D変換器102に常時音声データを送っている構成、あるいは、マイクロフォン101でパワーの変化を観察していて、一定時間における増分が閾値を超えた場合に、起動スイッチ121から指示があった場合と同様の扱いをするという構成とすればよい。マイクロフォン101、A/D変換器102、記憶装置104及び出力装置110の動作は図1と同様の動作であるためここでの説明は省略する。
以下の説明では、本実施の形態4における音声認識装置100は、実施の形態3で説明
した音声認識装置を使用する場合について説明するが、実施の形態1から実施の形態3で説明した全ての音声認識装置を使用することが可能である。
本実施の形態4における家庭内機器用統合音声リモコン装置においては、ユーザが話者正規化を実施するか否かをスイッチ122の入力によって選択することができる。スイッチ122はボタンを一つ有しており、押し込み操作を行うたびに、話者正規化を行うか行わないかが切換えられる。スイッチ122の押し込み操作による指示は音声認識装置100に通知され、話者正規化を行わないときには、音声認識装置100の中にある周波数変換部202にその旨が通知され、周波数変換処理を行わずに特徴量を出力するように処理が変更される。話者正規化を行っているのか、行っていないのかの状況については、表示装置123に表示される。よって、ユーザは常に状況を簡便に把握することが可能である。起動スイッチ121もボタンを一つ有しており、音声認識を開始するためにユーザが起動スイッチ121を押した後の一定の時間は、マイクロフォン101は常に音声を取り込んでいてA/D変換器102に渡し続け、A/D変換機102もまた音声認識装置100にディジタル化された音声データを常に渡し続けている。
ユーザが起動スイッチ121を押した後、入力音声のパワーがあらかじめ設定された閾値を1秒間以上越え続けた後に閾値より小さくなった場合には、ユーザが発声し終わったと見なして、マイクロフォン101は音声の取り込みを停止する。閾値を越えている時間の1秒間という値は一例であって、認識しようとしている語彙の長さに応じてマイクロフォン101の設定によって変更することが可能である。逆に、音声パワーの変動が少なくても3秒が過ぎた場合には、ユーザが音声入力を取り止めたものとみなして音声取り込みを停止する。音声取り込み停止までの時間は5秒であってもよいし、2秒であってもよく、機器を使用する状況に応じてマイクロフォン101の設定によって変更すればよい。マイクロフォン101が音声取り込み処理を停止すると、A/D変換器102以降の処理は行われなくなる。こうして取り込まれた音声データは音声認識装置100で音声認識処理の対象となり、得られる結果が出力装置110に出力される。
例えば、ユーザが、スイッチ122を押し込んだ状態の家庭内機器用統合音声リモコン装置によって照明を点けたい場合、起動スイッチ121を押した上で「しょうめい」と発声すると、マイクロフォン101より音声が取り込まれ、A/D変換器102にてディジタル信号に変換された後に、音声認識装置100に送られる。音声認識装置100では音声認識処理を実施する。
本実施の形態4の例では、操作対象である電子機器群125に対応して、「びでお」、「しょうめい」、「でんき」、「てれび」といった語が認識対象語として記憶装置104にあらかじめ登録されている。音声認識装置100の認識結果が「しょうめい」であれば、その結果がSIG3として出力装置110に送られる。出力装置110は、リモコン信号に対応する出力SIG4を出力し、音声認識装置100の認識結果と実際に制御する電子機器群125の関係の情報を保持している。例えば、SIG3からの出力が「しょうめい」であっても、又は、「でんき」であっても、どちらも電子機器群125の照明126への信号であると変換して、照明126の情報をSIG4としてリモコン信号発生装置124に送る。
リモコン信号発生装置124は、SIG4として受け取った制御すべき機器に、その内容情報を赤外線のリモコン信号に変換したうえで、SIG5として電子機器群125に出力する。 リモコン信号発生装置124は、広範囲に赤外線のリモコン信号を発するように構成されており、室内の赤外線のリモコン信号を受光できる装置すべてに対して同時に信号を発するようになっている。このSIG5によって、照明126に対して、オン/オフのトグル信号が送られるため、照明機器の点灯、消灯がユーザの発声に応じる形で実行
される。電源のオンオフを制御する電子機器群125がビデオ127の場合は使用者が発声した「びでお」という語、テレビ128である場合は「てれび」という語が認識され、同様に制御される。
本実施の形態4による家庭内機器用統合音声リモコン装置が家庭内に設置されており、100単語程度の認識が可能な状況に設定されている場合において、成人男女のみの世帯であったならば、ユーザがスイッチ122によって話者正規化を行わないという設定にしておいたとしても、「しょうめい」という発声に応じて「照明」がオン/オフされる確率は、図11(C)のように、話者が成人男性及び成人女性であれば話者正規化なしでも98%以上となりうるが、話者が子供の場合には、話者正規化なしでは84%程度しか認識しない。一般的に90%以上の認識性能が確保できれば、ユーザから見たときに、「発声どおりに動く装置」と見なされるとされているが、84%では「多少不具合があるが、発声どおりに動く装置」と見なされるであろう。一方、スイッチ122によって話者正規化を行うと、話者が子供であっても93%の認識率が得られ、子供から見ても「発声どおりに動く装置」となる。
話者正規化の状況は表示装置123に表示されるので、ユーザから一目瞭然である。話者正規化処理を明確に確認するためには、表示装置123に図13に示すように、話者正規化の実行を示す「声のてなおし やってるよ やってないよ」の文字表示1301を表示し、話者正規化が実行されている場合は、「やってるよ」を強調表示し、話者正規化が実行されていない場合は、「やってないよ」を強調表示する。図13では、話者正規化が実行されているため、「やっているよ」の部分の表示色を変化させて強調表示している。
また、音声認識装置100内で決定された周波数変換の7つの離散値α1乃至α7の各パラメータの重みを重み表示グラフ1302に表示するより明示的に表示することができる。
本実施の形態4においては、話者正規化を家庭内機器用統合音声リモコン装置に使用する場合を示したが、ユーザ側の負担として、話者正規化を行うか行わないかの選択と音声認識開始の指示を行うだけで実施可能な本実施の形態4は、音声操作が可能な街角案内端末や音声操作が可能な公衆電話などの、特に、ユーザが予告無しに入れ替わるような機器にあっても、同様に実施可能である。
なお、話者正規化を常に行う場合は、スイッチ122を外した構成としてもよい。この場合には、ユーザは、音声認識開始の指示のみを行うため、簡便に使用することができる。
本発明にかかる話者正規化方法及びそれを用いた音声認識装置は、家庭内機器用統合音声リモコン装置や、音声操作が可能な街角案内端末、音声操作が可能な公衆電話などのユーザが予告無しに入れ替わるような機器などの音声制御装置などに有用である。
本発明の実施の形態1による音声認識システムのハードウェアを示すブロック図 本発明の実施の形態1による音声認識装置の機能構成を示す機能ブロック図 本発明の実施の形態1による音声認識装置の処理を示す流れ図 本発明の実施の形態2による音声認識装置の機能構成を示す機能ブロック図 本発明の実施の形態2による音声認識装置の処理を示す流れ図 本発明の実施の形態3による音声認識装置の機能構成を示す機能ブロック図 本発明の実施の形態3による音声認識装置の処理を示す流れ図 (A)本発明の実施の形態1による各フレームの音韻と変換係数の関係図(B)本発明の実施の形態1による変換係数と頻度の関係図 (A)本発明の実施の形態2による音韻と変換係数との関係図(B)本発明の実施の形態2による各フレームの代表音韻と変換係数の関係図 (A)本発明の実施の形態3による各フレームの音韻と重みの関係図(B)本発明の実施の形態3による各フレームの変換係数と重みの関係図 (A)本発明の実施の形態1による音声認識の結果を示す図(B)本発明の実施の形態2による音声認識の結果を示す図(C)本発明の実施の形態3による音声認識の結果を示す図 本発明の実施の形態4による家庭内機器用統合音声リモコンの機能を示すブロック図 本発明の実施の形態4による表示装置の表示画面を示す図 従来の音声認識装置の処理を示す流れ図
符号の説明
100 音声認識装置
101 マイクロフォン
102 A/D変換器
103 SCO
104 記憶装置
105 PIO
106 DMA
107 RAM
108 ROM
109 CPU
110 出力装置
112 バスライン
121 起動スイッチ
122 スイッチ
123 表示装置
124 リモコン信号発生装置
125 電子機器群
201 特徴量抽出部
202 周波数変換部
203 変換係数設定部
204 類似度乃至距離算出部
205 標準音韻モデル
206 結果蓄積部
207 変換条件決定部
208 特徴量蓄積部
209 音声認識処理部
210 単語モデル
601 音韻重み算出部
1301 文字表示
1302 重み表示グラフ

Claims (9)

  1. フレーム毎に入力音声の音響特徴量を抽出する特徴量抽出部と、
    前記音響特徴量を記憶する特徴量記憶部と、
    複数の周波数変換係数を用いて、それぞれの周波数変換係数毎に前記音響特徴量を周波数変換して複数の変換後特徴量を出力する周波数変換部と、
    前記フレーム毎に、前記複数の変換後特徴量と標準音韻の標準音韻モデルとの全ての組み合わせで前記変換後特徴量と前記標準音韻モデルとの類似度又は距離を算出する類似度乃至距離算出部と、
    前記算出された複数の類似度又は距離を用いて前記入力音声を正規化するための周波数変換条件を決定する周波数変換条件決定部と、
    単語モデルを用いて音声認識する音声認識処理部と、を備え、
    前記周波数変換条件決定部は、前記算出された複数の類似度又は距離から、標準音韻と当該標準音韻の中で最も類似度の高い周波数変換係数又は当該標準音韻の中で最も距離が小さい周波数変換係数とをフレーム毎に選定し、当該選定された結果を用いて最尤となる標準音韻および当該標準音韻に対応する周波数変換係数の組み合わせを前記フレーム毎に選定し、前記周波数変換係数の出現頻度を複数フレームに渡って周波数変換係数毎に累積し、前記出現頻度の最も多い周波数変換係数を全フレームに渡る周波数変換係数とし、
    前記周波数変換部は、前記周波数変換条件決定部によって決定された周波数変換条件を用いて前記特徴量記憶部に記憶された前記音響特徴量を周波数変換し、
    前記音声認識処理部は、前記周波数変換条件を用いて周波数変換された前記音響特徴量と前記単語モデルを用いて音声認識をする、音声認識装置。
  2. フレーム毎に入力音声の音響特徴量を抽出する特徴量抽出部と、
    前記音響特徴量を記憶する特徴量記憶部と、
    複数の周波数変換係数を用いて、それぞれの周波数変換係数毎に前記音響特徴量を周波数変換して複数の変換後特徴量を出力する周波数変換部と、
    前記フレーム毎に、前記複数の変換後特徴量と標準音韻の標準音韻モデルとの全ての組み合わせで前記変換後特徴量と前記標準音韻モデルとの類似度又は距離を算出する類似度乃至距離算出部と、
    前記算出された複数の類似度又は距離を用いて前記入力音声を正規化するための周波数変換条件を決定する周波数変換条件決定部と、
    単語モデルを用いて音声認識する音声認識処理部と、を備え、
    前記周波数変換条件決定部は、
    前記算出された複数の類似度又は距離から、標準音韻と当該標準音韻の中で最も類似度の高い周波数変換係数又は当該標準音韻の中で最も距離が小さい周波数変換係数とをフレーム毎に選定し、
    前記周波数変換係数の出現頻度を複数フレームに渡って前記標準音韻毎に累積し、
    前記標準音韻別に前記出現頻度の最も多い周波数変換係数を選定し、当該選定した周波数変換係数を全フレームに渡る標準音韻に対応する周波数変換係数として決定し、
    前記算出された複数の類似度又は距離から、当該標準音韻の中で最も類似度の高い周波数変換係数又は当該標準音韻の中で最も距離が小さい音韻を、フレーム毎にフレームを代表する代表標準音韻として決定し、
    前記周波数変換部は、
    前記決定された代表標準音韻を用いて前記全フレームに渡る標準音韻に対応する周波数変換係数をフレーム毎に選択し、当該選択された周波数変換を用いて前記音響特徴量をフレーム毎に周波数変換する
    声認識装置。
  3. フレーム毎に入力音声の音響特徴量を抽出する特徴量抽出部と、
    前記音響特徴量を記憶する特徴量記憶部と、
    複数の周波数変換係数を用いて、それぞれの周波数変換係数毎に前記音響特徴量を周波数変換して複数の変換後特徴量を出力する周波数変換部と、
    前記フレーム毎に、前記複数の変換後特徴量と標準音韻の標準音韻モデルとの全ての組み合わせで前記変換後特徴量と前記標準音韻モデルとの類似度又は距離を算出し、かつ、前記特徴量抽出部が抽出した音響特徴量と標準音韻の標準音韻モデルとの前記音響特徴量と前記標準音韻モデルとの類似度又は距離を算出する類似度乃至距離算出部と、
    前記算出された前記変換後特徴量と前記標準音韻モデルとの複数の類似度又は距離を用いて前記入力音声を正規化するための周波数変換条件を決定する周波数変換条件決定部と、
    単語モデルを用いて音声認識する音声認識処理部と、を備え、
    前記周波数変換条件決定部は、
    前記算出された前記変換後特徴量と前記標準音韻モデルとの複数の類似度又は距離から、標準音韻と当該標準音韻の中で最も類似度の高い周波数変換係数又は当該標準音韻の中で最も距離が小さい周波数変換係数とをフレーム毎に選定し、
    前記周波数変換係数の出現頻度を複数フレームに渡って前記標準音韻毎に累積し、前記標準音韻別に前記出現頻度の最も多い周波数変換係数を選定し、当該選定した周波数変換係数を全フレームに渡る標準音韻に対応する周波数変換係数として決定し、
    前記標準音韻毎に、前記算出された前記音響特徴量と前記標準音韻モデルとの類似度又は距離に対応する標準音韻毎の重みをフレーム毎に算出し、
    前記周波数変換部は、
    前記全フレームに渡る標準音韻に対応する周波数変換係数と前記算出したフレーム毎の標準音韻毎の重みを用いて、前記音響特徴量をフレーム毎に周波数変換する
    声認識装置。
  4. 前記標準音韻は母音である請求項1から3までのいずれか一つに記載の音声認識装置。
  5. 前記標準音韻は母音のみである請求項1から3までのいずれか一つに記載の音声認識装置。
  6. 前記入力音声を取り込むマイクロフォンと、前記入力音声が入力される請求項1から5までのいずれかに一つに記載の音声認識装置と、前記音声認識装置からの認識結果である操作対象装置に対して操作信号を発信する信号発生装置とを有する、音声リモコン装置。
  7. 特徴量抽出部が、フレーム毎に入力音声の音響特徴量を抽出する特徴量抽出ステップと、
    前記音響特徴量を特徴量記憶部に記憶する特徴量記憶ステップと、
    周波数変換が、複数の周波数変換係数を用いて、それぞれの周波数変換係数毎に前記音響特徴量を周波数変換して複数の変換後特徴量を出力する周波数変換ステップと、
    類似度乃至距離算出部が、前記フレーム毎に、前記複数の変換後特徴量と標準音韻の標準音韻モデルとの全ての組み合わせで前記変換後特徴量と前記標準音韻モデルとの類似度又は距離を算出する類似度乃至距離算出ステップと、
    周波数変換条件決定部が、前記算出された複数の類似度又は距離を用いて前記入力音声を正規化するための周波数変換条件を決定する周波数変換条件決定ステップと、
    音声認識処理部が単語モデルを用いて音声認識する音声認識処理ステップと、を含み、
    前記周波数変換条件決定ステップは、前記算出された複数の類似度又は距離から標準音韻と当該標準音韻の中で最も類似度の高い周波数変換係数又は当該標準音韻の中で最も距離が小さい周波数変換係数とをフレーム毎に選定し、当該選定された結果を用いて最尤となる標準音韻および当該標準音韻に対応する周波数変換係数の組み合わせを前記フレーム毎に選定し、前記周波数変換係数の出現頻度を複数フレームに渡って周波数変換係数毎に累積し、前記出現頻度の最も多い周波数変換係数を全フレームに渡る周波数変換係数とし、
    前記周波数変換ステップは、前記周波数変換条件決定ステップによって決定された周波数変換条件を用いて前記特徴量記憶部に記憶された前記音響特徴量を周波数変換し、
    前記音声認識処理ステップは、前記周波数変換条件を用いて周波数変換された前記音響特徴量と前記単語モデルを用いて音声認識をする、音声認識方法。
  8. 特徴量抽出部が、フレーム毎に入力音声の音響特徴量を抽出する特徴量抽出ステップと、
    前記音響特徴量を特徴量記憶部に記憶する特徴量記憶ステップと、
    周波数変換部が、複数の周波数変換係数を用いて、それぞれの周波数変換係数毎に前記音響特徴量を周波数変換して複数の変換後特徴量を出力する周波数変換ステップと、
    類似度乃至距離算出部が、前記フレーム毎に、前記複数の変換後特徴量と標準音韻の標準音韻モデルとの全ての組み合わせで前記変換後特徴量と前記標準音韻モデルとの類似度又は距離を算出する類似度乃至距離算出ステップと、
    周波数変換条件決定部が、前記算出された複数の類似度又は距離を用いて前記入力音声を正規化するための周波数変換条件を決定する周波数変換条件決定ステップと、
    音声認識処理部が、単語モデルを用いて音声認識する音声認識処理ステップと、を含み、
    前記周波数変換条件決定ステップは、前記算出された複数の類似度又は距離から、標準音韻と当該標準音韻の中で最も類似度の高い周波数変換係数又は当該標準音韻の中で最も距離が小さい周波数変換係数とをフレーム毎に選定し、
    前記周波数変換係数の出現頻度を複数フレームに渡って前記標準音韻毎に累積し、前記標準音韻別に前記出現頻度の最も多い周波数変換係数を選定し、当該選定した周波数変換係数を全フレームに渡る標準音韻に対応する周波数変換係数として決定し、前記算出された複数の類似度又は距離から、当該標準音韻の中で最も類似度の高い周波数変換係数又は当該標準音韻の中で最も距離が小さい音韻を、フレーム毎にフレームを代表する代表標準音韻として決定し、
    前記周波数変換ステップは、
    前記決定された代表標準音韻を用いて前記全フレームに渡る標準音韻に対応する周波数変換係数をフレーム毎に選択し、当該選択された周波数変換を用いて前記音響特徴量をフレーム毎に周波数変換する、
    音声認識方法。
  9. 特徴量抽出部が、フレーム毎に入力音声の音響特徴量を抽出する特徴量抽出ステップと、
    前記音響特徴量を特徴量記憶部に記憶する特徴量記憶ステップと、
    周波数変換部が、複数の周波数変換係数を用いて、それぞれの周波数変換係数毎に前記音響特徴量を周波数変換して複数の変換後特徴量を出力する周波数変換ステップと、
    類似度乃至距離算出部が、前記フレーム毎に、前記複数の変換後特徴量と標準音韻の標準音韻モデルとの全ての組み合わせで前記変換後特徴量と前記標準音韻モデルとの類似度又は距離を算出し、かつ、前記特徴量抽出部が抽出した音響特徴量と標準音韻の標準音韻モデルとの前記音響特徴量と前記標準音韻モデルとの類似度又は距離を算出する類似度乃至距離算出ステップと、
    周波数変換条件決定部が、前記算出された複数の類似度又は距離を用いて前記入力音声を正規化するための周波数変換条件を決定する周波数変換条件決定ステップと、
    音声認識処理部が、単語モデルを用いて音声認識する音声認識処理ステップと、を含み、
    前記周波数変換条件決定ステップは、前記算出された前記変換後特徴量と前記標準音韻モデルとの複数の類似度又は距離から、標準音韻と当該標準音韻の中で最も類似度の高い周波数変換係数又は当該標準音韻の中で最も距離が小さい周波数変換係数とをフレーム毎に選定し、
    前記周波数変換係数の出現頻度を複数フレームに渡って前記標準音韻毎に累積し、前記標準音韻別に前記出現頻度の最も多い周波数変換係数を選定し、当該選定した周波数変換係数を全フレームに渡る標準音韻に対応する周波数変換係数として決定し、前記標準音韻毎に、前記算出された前記音響特徴量と前記標準音韻モデルとの類似度又は距離に対応する標準音韻毎の重みをフレーム毎に算出し、
    前記周波数変換ステップは、前記全フレームに渡る標準音韻に対応する周波数変換係数と前記算出したフレーム毎の標準音韻毎の重みを用いて、前記音響特徴量をフレーム毎に周波数変換する、
    音声認識方法。
JP2003321374A 2002-09-24 2003-09-12 話者正規化方法及びそれを用いた音声認識装置 Expired - Fee Related JP4449380B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003321374A JP4449380B2 (ja) 2002-09-24 2003-09-12 話者正規化方法及びそれを用いた音声認識装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002277022 2002-09-24
JP2003321374A JP4449380B2 (ja) 2002-09-24 2003-09-12 話者正規化方法及びそれを用いた音声認識装置

Publications (3)

Publication Number Publication Date
JP2004139049A JP2004139049A (ja) 2004-05-13
JP2004139049A5 JP2004139049A5 (ja) 2006-08-17
JP4449380B2 true JP4449380B2 (ja) 2010-04-14

Family

ID=32473041

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003321374A Expired - Fee Related JP4449380B2 (ja) 2002-09-24 2003-09-12 話者正規化方法及びそれを用いた音声認識装置

Country Status (1)

Country Link
JP (1) JP4449380B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5262713B2 (ja) 2006-06-02 2013-08-14 日本電気株式会社 ゲイン制御システム、ゲイン制御方法及びゲイン制御プログラム
JP2019040123A (ja) * 2017-08-28 2019-03-14 株式会社日立製作所 変換モデルの学習方法および変換モデルの学習装置
JP6958723B2 (ja) 2018-03-15 2021-11-02 日本電気株式会社 信号処理システム、信号処理装置、信号処理方法、およびプログラム

Also Published As

Publication number Publication date
JP2004139049A (ja) 2004-05-13

Similar Documents

Publication Publication Date Title
JP6705008B2 (ja) 話者照合方法及びシステム
EP1635327B1 (en) Information transmission device
JP3180655B2 (ja) パターンマッチングによる単語音声認識方法及びその方法を実施する装置
KR100826875B1 (ko) 온라인 방식에 의한 화자 인식 방법 및 이를 위한 장치
JP4867804B2 (ja) 音声認識装置及び会議システム
EP2048655A1 (en) Context sensitive multi-stage speech recognition
JP2007264126A (ja) 音声処理装置、音声処理方法および音声処理プログラム
JPH09500223A (ja) 多言語音声認識システム
CN112786052A (zh) 语音识别方法、电子设备和存储装置
JP2018013549A (ja) 発話内容認識装置
US20030220792A1 (en) Speech recognition apparatus, speech recognition method, and computer-readable recording medium in which speech recognition program is recorded
JP4353202B2 (ja) 韻律識別装置及び方法、並びに音声認識装置及び方法
CN1312656C (zh) 说话人标准化方法及用该方法的语音识别装置
JP5201053B2 (ja) 合成音声判別装置、方法及びプログラム
KR20040038419A (ko) 음성을 이용한 감정인식 시스템 및 감정인식 방법
JP4449380B2 (ja) 話者正規化方法及びそれを用いた音声認識装置
JP4666129B2 (ja) 発声速度正規化分析を用いた音声認識装置
Hasija et al. Recognition of children Punjabi speech using tonal non-tonal classifier
JP4461557B2 (ja) 音声認識方法および音声認識装置
JP5300000B2 (ja) 調音特徴抽出装置、調音特徴抽出方法、及び調音特徴抽出プログラム
JP3493849B2 (ja) 音声認識装置
US11043212B2 (en) Speech signal processing and evaluation
JP2007248529A (ja) 音声認識装置、音声認識プログラム、及び音声動作可能な装置
JP2506730B2 (ja) 音声認識方法
JP2008107408A (ja) 音声認識装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060630

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060630

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060712

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091106

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20091119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100105

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100118

R151 Written notification of patent or utility model registration

Ref document number: 4449380

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140205

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees