JP4950600B2 - 音響モデル作成装置、その装置を用いた音声認識装置、これらの方法、これらのプログラム、およびこれらの記録媒体 - Google Patents

音響モデル作成装置、その装置を用いた音声認識装置、これらの方法、これらのプログラム、およびこれらの記録媒体 Download PDF

Info

Publication number
JP4950600B2
JP4950600B2 JP2006240085A JP2006240085A JP4950600B2 JP 4950600 B2 JP4950600 B2 JP 4950600B2 JP 2006240085 A JP2006240085 A JP 2006240085A JP 2006240085 A JP2006240085 A JP 2006240085A JP 4950600 B2 JP4950600 B2 JP 4950600B2
Authority
JP
Japan
Prior art keywords
acoustic model
parameter
probability distribution
posterior probability
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006240085A
Other languages
English (en)
Other versions
JP2008064849A (ja
Inventor
晋治 渡部
篤 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2006240085A priority Critical patent/JP4950600B2/ja
Publication of JP2008064849A publication Critical patent/JP2008064849A/ja
Application granted granted Critical
Publication of JP4950600B2 publication Critical patent/JP4950600B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、音声認識時に使用する音響モデルを逐次的応法により作成する音響モデル作成装置、および、その装置で作成された音響モデルを用いて音声認識を行う音声認識装置、これらの方法、これらのプログラム、およびこれらの記録媒体に関する。
[音声認識装置]
従来の音声認識装置の機能構成例を図1に示し、従来の音声認識装置の処理の主な流れを図2のフローチャート図に示す。音声認識装置2は主に、特徴抽出部4と単語列探索部6と音響モデル記憶部8と言語モデル記憶部10とで構成されている。
まず、音響モデル記憶部8に例えば、音素モデルの読み込みを行う(ステップS2)。なお、場合によっては、音素モデルの他に、単語モデル、コンテクスト依存音素モデル等の読み込みを行う。また、言語モデル記憶部10の読み込みを行う(ステップS4)。入力された認識用音声データ1は音声認識装置2に読み込まれ(ステップS6)、認識用音声データ1は特徴抽出部4に入力され、認識用音声データ1はフレーム(一定時間区間)ごとに音響的特徴量系列(以下、単に、特徴量系列)に変換される(ステップS8)。変換された音響的特徴量系列は図に示していないが、一旦、特徴量記憶部に記憶される。記憶された特徴量系列は、読み出されて、単語列探索部6に入力される。
単語列探索部6では、音響モデル記憶部8の音響モデルを用いて認識用音声データの特徴量系列に対しスコアを算出し、これに言語モデル記憶部10の言語モデル等に対するスコアを参照して単語列探索を行う(ステップS10)。また、場合によっては、音素列探索や孤立単語探索を行う。最終的に認識結果を単語列として出力し(ステップS12)、場合によっては、音素列、孤立単語のみを出力する。
[音響モデル作成方法]
次に、音響モデルの作成方法について説明する。音響モデルは、音声の音響的特徴をモデル化したものであり、認識用音声データと音響モデルを参照することにより、音声データを音素や単語といったシンボルに変換する。そのため、音響モデルの作成は、音声認識装置の性能を大きく左右する。通常、音声認識用音響モデルでは、各音素をLeft to rightの隠れマルコフモデル(HMM)で、HMM状態の出力確率分布を混合ガウス分布モデル(GMM)で表現する。そのため、実際に音響モデルとして記憶部に記憶されているのは、音素などの各シンボルにおける、HMMの状態遷移確率a,GMMの混合重み因子w、及びガウス分布の平均ベクトルパラメータμ及び共分散行列パラメータΣとなる。これらを音響モデルパラメータと呼びその集合をθとする。つまり、θ={a,w,μ,Σ}とする。音響モデルパラメータθの値を正確に求めるのが音響モデルの作成過程となり、この過程を音響モデル作成方法と呼ぶ。
近年、音響モデルは確率統計的手法により大量の音声データとその教師ラベルの情報から、音響モデルパラメータθを学習することにより作成される。通常学習データに対しては、その何れの部分が何れの音素であるかを示す教師ラベル情報が与えられている。教師ラベル情報が与えられていない場合は、実際人が聞いて教師ラベル情報を付けたり、また音声認識装置を用いることにより教師ラベル情報を付与する。以降では学習用音声データには教師ラベル情報が上記のような方法で付与されているとして説明を進める。
従来の音響モデル作成装置の機能構成例を図3に示し、従来の音響モデル作成装置の処理の主な流れを図4に示す。図3及び図4において、教師ラベル情報の付与については省略する。
音響モデル作成装置11は、特徴抽出部4、音響モデルパラメータ学習部12、とで構成されている。学習用音声データ15が音響モデル作成装置11により読み込まれる(ステップS22)。読み込まれた学習用音声データ15は、特徴抽出部4で特徴量系列に変換される(ステップS24)。変換された特徴量系列は一旦、図示されていない特徴量記憶部に記憶される。記憶された特徴量系列は読み出されて、音響モデルパラメータ学習部12に入力される。
教師ラベルが存在していなければ(ステップS26)、音声認識装置、若しくは人手によって教師ラベル情報が与えられる(ステップS28)
次に、音響モデルパラメータ学習部12による音響モデルパラメータの学習について説明する。教師ラベル情報により得られる学習データ中の各音素に対応するデータから、音響モデルパラメータ(HMMの状態遷移確率a,GMMの混合重み因子w、及びガウス分布の平均ベクトルパラメータμ及び共分散行列パラメータΣ)を推定することを音響モデルパラメータの学習と呼ぶ。パラメータを学習する手法としては最尤学習法がある。また、音響モデルパラメータの学習には他にも、ベイズ学習、識別学習、ニューラルネットワーク等がある。
音響モデルパラメータ学習部12は、教師ラベル記憶部14に予め用意された音声データに対応する教師ラベル情報を用いて、音響モデルパラメータの学習を行う(ステップS30)。音響モデル作成装置11で作成された音響モデルが出力される(ステップS32)。また、ステップS26において、教師ラベルが存在していれば、直接ステップS30に進む。
音響モデルパラメータは数百万の自由度を持つため、これらを学習するためには数百時間に及ぶ大量の学習用音声データが必要となる。しかし、事前に話者、雑音、発話スタイルといった全ての音響的変動要因を含む音声データを数百万のパラメータを十分に学習するほど、大量に収集するのは不可能である。そこで、少量の学習用音声データから音響モデルパラメータを推定する手法として、適応学習が非常に重要な技術となる。
[音響モデルパラメータの変換にもとづく適応学習]
音響モデルパラメータに対しての適応学習は、パラメータあたりの学習データ量が少ない場合に初期モデルを先験知識として用い、少ないデータで学習を行う手法である。通常の学習方法との違いは学習データのみならず初期モデルを用いて音響モデルを構築する点である。このように初期モデルと学習データから新たに音響モデルを構築する学習方法を適応学習と呼ぶ。
適応学習は、初期音響モデルパラメータθと新たに作られる音響モデルパラメータθの変換に注目する。例えば、D次元特徴ベクトルで表現される特徴量系列O={o,o,…,o|o∈R}が与えられたとき、音響モデルパラメータの推定を考えるのではなく、その変換パラメータを考えるのが変換パラメータ推定法である。ただしNは特徴量の数を表す。つまり初期モデルのパラメータθと特徴量系列Oから適応後の音響モデルパラメータθをθ=f(θ,O)として求めるときの、f(・)を求め、それにより新たに音響モデルパラメータθを得る手法である。
f(・)がパラメトリックに表現されるとすれば、適応学習はそのパラメータである変換パラメータWの推定を初期モデルパラメータと適応用音声データから求めることになる。これを音響モデルパラメータの変換にもとづく適応学習と呼ぶ。
線形回帰法
適応学習の中では、音響モデル中のガウス分布の平均パラメータに対する線形回帰行列を推定する手法が非特許文献1または2に記載のように広く用いられている。線形回帰行列を用いた場合の音響モデル作成装置の機能構成例を図5に示し、この場合の音響モデル作成装置の主な処理の流れを図6に示す。
パラメータ適応部22は、変換パラメータ推定部24、変換パラメータ記憶部26、モデルパラメータ変換部28、とで構成されている。
まず、初期音響モデルパラメータθが初期音響モデルパラメータ記憶部30に読み込まれる(ステップS40)。適応用音声データ20が読み込まれ(ステップS42)、特徴抽出部4に入力され、特徴量系列に変換される(ステップS44)。変換された特徴量系列Oは一旦、特徴量記憶部5に記憶される。記憶された特徴量系列Oは変換パラメータ推定部24に入力される。以下に変換パラメータ推定部24、モデルパラメータ変換部28の処理を説明する。
初期音響モデルパラメータθ中のあるガウス分布の平均ベクトルパラメータμは以下の式(1)により線形変換される。
μ=Aμ+ν (1)
ここで、AはD×Dの行列であり、平均ベクトルパラメータμの回転、伸縮をさせる行列である。νはD次元ベクトルであり平均ベクトルパラメータμの平行移動を表す。このとき、変換パラメータWは(ν,A)である。
変換パラメータWは特徴量系列Oから期待値最大化(Expectation Maximization)アルゴリズム(以下EMアルゴリズムという)を用いて繰り返し計算により効率よく求められる(ステップS46)。推定すべき変換パラメータWのパラメータ数はD+D=D(D+1)とる。何故なら、Aの要素数はDであり、νの要素数はDであるからである。平均ベクトルのパラメータ数Dよりも多いが、複数のガウス分布で同一の変換パラメータを共有することにより、推定すべきパラメータ数を減らすことが可能である。推定された変換パラメータWは一旦変換パラメータ記憶部26に記憶される。
記憶された変換パラメータWはモデルパラメータ変換部28に入力される。モデルパラメータ変換部28で、得られた変換パラメータWと初期音響モデルパラメータθ中の初期平均ベクトルパラメータμをもとに上記式(1)から新たな平均ベクトルパラメータμを得る(ステップS48)。平均ベクトルパラメータμが音響モデルパラメータθとして出力される(Sステップ50)。
[音響モデルパラメータ変換にもとづく逐次適応]
以上までは、一まとまりの特徴量系列O={o,o,…,o,…,o
に対しての適応学習を考えた。しかし、音声は雑音などの外的要因や発声のなまり等の内的要因によって、時々刻々その音響的特徴を大きく変化させている。このような変化に追随していくためには、時系列的に与えられるまとまった量の音声データに対して逐次モデルを適応させる逐次適応学習が有効である。このとき、特徴量系列を1まとまりとして捉えず、複数のまとまりが時系列的に与えられる場合の適応を考える。つまり以下の式(2)(3)のように考える。
Figure 0004950600
このとき、あるまとまりt+1での音響モデルパラメータθt+1はその前のまとまりtにおいて得られた音響モデルパラメータθ及び特徴量系列のまとまりOt+1から求められる。つまり、以下の式(4)に示す漸化式で表現することにより、時々刻々音響モデルを求めることができる。これをパラメータ変換に基づく逐次適応法と呼ぶ。
θt+1=f(θ,Ot+1) (4)
図5を参照して、図7に逐次適応法を用いた場合の音響モデルパラメータが変換される手順を示す。まず、特徴量系列Oと音響モデルパラメータθを用いてモデルパラメータ変換部28で音響モデルパラメータθが求められる。そして、今度は、音響モデルパラメータθと次の特徴量系列Oと用いて、音響モデルパラメータθが求められる。このようにして、前回の音響モデルパラメータθと今回の特徴量系列Ot+1とを用いて、今回の音響モデルパラメータθtτ1が求められる。
線形回帰法
このとき、変換パラメータ推定法の逐次適応への適用を非特許文献3に示すように考察する。先ほどは、変換パラメータWは全ての特徴量系列から推定されたとしたが、逐次適応においては各まとまりごとにWを推定する。それをW={ν,A}とすれば、平均パラメータの更新は上記式(1)を基に、以下の式(5)のように漸化式で表現することができる。
μt+1=At+1μ+νt+1 (5)
これによって、逐次適応が実現される。
V.Digalakis,D.Ritischev,and L.Neumeyer. Speaker adaptation using constrained reestimation of Gaussian mixtures. IEEE Transactions on Speech and Audio Processing,Vol.3,pp.357-366,1995. C.J.Leggetter and P.C.Woodland,Maximum likelihood linear regression for speaker adaptation of continuous density hidden Markov models. Computer Speech and Language,Vol.9,pp.171-185,1995. C.J.Leggetter and P.C.Woodland. Flexible speaker adaptation using maximum likelihood linear regression. Proc.ARPA Spoken Language Technology Workshop pp.104-109,1195.
以上の逐次適応法は得られた音響モデルパラメータθ、...、θt+1にどの程度推定による誤差が含まれるかが考慮されていない。そのため、学習に悪影響を及ぼすようなデータが存在した場合、学習が失敗した場合等は、その影響がそのまま認識性能に出てしまい、頑健性が低いものとなってしまう。
この発明の音響モデル作成法は、今回の適応用音声データの部分時系列の特徴量系列を抽出し、前回までの累積された特徴量系列が加味された前回求めた音響モデルパラメータの事後確率分布p(θ│O)と、上記今回抽出した特徴量系列Ot+1とに基づき、今回の特徴量系列に適応化させた今回の音響モデルパラメータの事後確率分布p(θt+1│Ot+1)を求める。ここで、Ot+1およびOは今回および前回までに累積された特徴量系列であり、θt+1およびθは今回および前回の音響モデルパラメータである。更に、上記今回の音響モデルパラメータの事後確率分布p(θt+1│Ot+1)を新たな音響モデルとする。
また、この発明の音声認識方法は、上記発明の音響モデル作成方法により、作成された音響モデルを用いて、音声認識を行う。
上記の構成により、音響モデルは前回までの累積された特徴量系列Oの情報が加味され、かつ分布として作られるため、音響モデルパラメータθ、...、θt+1の一部に推定誤差があっても、これに影響されず、頑健な音響モデルの逐次作成が可能となる。また、この逐次作成された音響モデルを用いて、その時の音声を認識するため、認識性能が向上する。
以下に、発明を実施するための最良の形態を示す。
[分布変換にもとづく逐次適応法]
この発明では、音響モデルパラメータθそのものの推定を考えるのではなく、音響モデルパラメータの分布を考える。つまり、以下の式(6)のように音響モデルパラメータθを音響モデルパラメータの分布p(θ)として考える。なお以下の説明では、添え字のtは前回の音響モデルの作成に関係するものであることを表し、t+1は今回の音響モデルの作成に関するものであることを表す。
θ→p(θ) (6)
これにより、推定による誤差を例えばその分布の分散から考慮することができる。この発明では、さらに音響モデルパラメータの分布として累積された特徴量系列O={O,O,…,O}が与えられたときの事後確率分布を考える。つまり、以下の式(7)になる。
p(θ)→p(θ|O) (7)
ここで、p(A│B)は事象Bが起こったことを知って、それが原因Aから起こったと考えられる確率である事後確率である。
これにより、音響モデルパラメータに累積された特徴量系列Oの情報を加味することができるため、頑健性を確保することができる。従って、漸化式
p(θt+1|Ot+1)=F[p(θ|O)] (8)
を用いて時間発展、つまり、音声の音響的特徴の変化として対応した漸化式を記述することにより、音響モデルパラメータθではなく、音響モデルパラメータの事後確率分布p(θ|O)の逐次適応を実現することができる。ここで、F[・]はp(θ|O)を引数として持つ汎関数である。また、F[・]は今回まで累積された特徴量系列Ot+1のうち、少なくとも1つの特徴量系列に基づいて表現されるものである。以下の説明では、F[・]は、今回の特徴量系列Oに基づいて、表現されるものとする。従って、F[・]をパラメトリックに表現し、その音響モデルパラメータの事後確率分布p(θ|O)を特徴量系列Oから適切に推定することにより上記式(8)で表現される逐次適応を実現することができる。
上記式(4)と上記式(8)を見比べてわかることは、上記式(8)はパラメータを逐次変換させるのではなく、その事後確率分布を逐次変換させていることがわかる。このとき、実際に逐次更新されるのは、事後確率分布のパラメータωである。
従って、時々刻々、事後確率分布パラメータωを求めることができる。この発明を分布変換にもとづく逐次適応法と呼ぶ。
図8にこの実施例の機能構成例を示し、図9に事後確率分布のパラメータωを逐次適応させる順序を示し、図10この実施例の主な処理の流れを示す。また、図5と同一機能構成部分には、同一参照番号を付ける。このことは以下の説明においても同様である。
モデル適応化部50は逐次学習部52、事後確率分布記憶部54、モデル更新部56、とで構成されている。
まず、前回の事後確率分布のパラメータωがモデル適応化部50で読み込まれる(ステップS60)。次に、適応用音声データ20が読み込まれ(ステップS62)、適応用音声データ20が特徴抽出部4に入力され、特徴量系列Ot+1に変換される(ステップS64)。変換された特徴量系列Ot+1は一旦、図示していない特徴量記憶部に記憶され逐次学習部52に入力される。
逐次学習部52では、上記式(8)のように、前回までの累積された特徴量系列が加味された前回求めた音響モデルパラメータの事後確率分布p(θ│O)と、上記今回抽出した特徴量系列Ot+1とに基づき、今回の特徴量系列に適応化させた今回の音響モデルパラメータの事後確率分布p(θt+1│Ot+1)を求める(ステップS68)。ここで、Ot+1は今回の特徴量系列であり、Ot+1およびOは今回および前回までに累積された特徴量系列であり、θt+1およびθは今回および前回の音響モデルパラメータである。
以下に、逐次学習部52による更に具体的な事後確率分布p(θt+1|Ot+1)の求め方を説明する。
p(θ|O)からp(θt+1|Ot+1)への時間発展を記述する上記式(8)中の関数F[・]には任意の形を与えることが可能であり様々な変換を考えることができる。この実施形態では、具体的な関数系のひとつとして、確率の積の公式とベイズの定理から理論的に近似無く導出される漸化式を紹介する。はじめにp(θt+1|Ot+1)はベイズの定理から次のように表現される。
Figure 0004950600
ここでp(θt+1|O)はp(θ|O)を用いると次のように表現される。
p(θt+1|O)=∫p(θt+1|θ,O)p(θ|O)dθ (10)
従って式(10)を式(9)に代入することにより次式(11)のような漸化式を導出することができる。
Figure 0004950600
式(11)を音響モデルパラメータの事後確率分布の漸化式と呼ぶ。この漸化式を用いることにより、前回まで、累積された特徴量系列Oの情報が加味された音響モデルパラメータの事後確率分布p(θ|O)の逐次推定を逐次学習部52で行うことが出来る。また式(11)の積分計算はモンテカルロ法(Monte Carlo method)などの数値計算で解くことが出来る。
またここで時間発展を最初の一ステップに限る。つまりt→0,t+1→1とすれば以下の式(12)のようになる。
Figure 0004950600
式(12)は、逐次的でない適応を示している。つまり、本発明は逐次適応のみならず通常の適応においてもその効果を与えることができる。
上記式(11)による逐次適応を実現するためには、右辺は次の4つの確率分布であるp(Ot+1|O)、p(θ|O)、p(Ot+1|θt+1,O)、p(θt+1|θ,O)に具体系を与える必要がある。ここでp(Ot+1|O)は求めたい分布であるp(θt+1|Ot+1)の引数θt+1に依存しないため、規格化定数として扱うことができるため、具体形を与えなくても良い。残りの3つであるp(θ|O)、p(Ot+1|θt+1,O)、p(θt+1|θ,O)について考察を行う。
p(θ|O)は前述した音響モデルパラメータの事後確率分布であり、適切に初期分布を設定することにより逐次求めることが可能である。p(Ot+1|θt+1,O)はOt+1の出力分布であり、HMMやGMMといった音響モデルの設定によって与えられるものである。最後にp(θt+1|θ,O)は音響モデルパラメータθの確率的ダイナミクスである。従って、上記式(11)の漸化式は、出力分布及び確率的ダイナミクスによって構成されている。
説明を図8に戻すと。逐次学習部52により求められた今回の事後確率分布p(θt+1|Ot+1)は一旦、事後確率分布記憶部54に記憶される。そして今回の事後確率分布p(θt+1|Ot+1)はモデル更新部56に入力される。
モデル更新部56で、音響モデル記憶部58内の音響モデルとしての前回の事後確率分布p(θ|O)が、今回の音響モデルパラメータの事後確率分布p(θt+1|Ot+1)に新たな音響モデルとして更新する(ステップS70)。
また、図9に、逐次的に、音響モデルパラメータの事後確率分布を更新する手順を示す。求められた前回の事後確率分布p(θ|O)は一旦、音響モデル(分布モデル)記憶部58に一旦、記憶される。逐次学習部52で、前回の事後確率分布p(θ|O)と、今回の特徴量系列Ot+1とを用いて、上記式(11)から、今回の事後確率分布p(θt+1|Ot+1)を求める。このようにして、音響モデルパラメータの事後確率分布を逐次的に更新する。
実施例2は、上記式(11)の演算処理を簡単にする実施例である。
p(Ot+1|θt+1,O)及びp(θt+1|θ,O)は累積された特徴量系列に直接依存する。これらを全ての累積特徴量系列から推定しようとした場合、時が経つにつれ累積データは多くなるため、その推定は大変計算量が多くなり現実的でない。そのため、この実施例2ではこれらにマルコフ過程を仮定する。このとき、p(Ot+1|θt+1,O)とp(θt+1|θ,O)はそれぞれ式(13)のように近似される。
p(Ot+1|θt+1,O)≒p(Ot+1|θt+1),
p(θt+1|θ,O) ≒p(θt+1|θ) (13)
この近似により、逐次学習部52は前回の音響モデルパラメータの事後確率分布p(θ│O)と、今回の出力分布p(Ot+1│θt+1)と、今回の確率的ダイナミクスp(θt+1│θ)と、を用いて今回の音響モデルパラメータの事後確率分布p(θt+1│Ot+1)を求める。具体的には以下の式(14)のように近似される。
p(θt+1|Ot+1)∝p(Ot+1|θt+1)∫p(θt+1|θ)p(θ|O)dθ (14)
ここで、A∝BはAとBは比例しているということを表す。上記式(14)によって、シンプルな出力分布及び確率的ダイナミクスを設定することができる。図8中の逐次学習部52は、この式(14)を計算することになる。
実施例1、2では、HMMの状態遷移確率a,GMMの混合重み因子w、及びガウス分布の平均ベクトルパラメータμ及び共分散行列パラメータΣといった全ての音響モデルパラメータθの事後確率分布p(θ|O)についての処理を行った。一般に、音響モデルにおいて最も性能を左右するパラメータは平均ベクトルパラメータμであり、またそれ以外のパラメータの事後確率分布を推定対象とした場合、分布変換関数Fの推定すべきパラメータ数が多くなるため、少量データ適応において効果が十分でなくなる。そのため、実施例3以降は平均ベクトルパラメータμのみに焦点を当て、つまり、音響モデルパラメータθに代えて、平均ベクトルパラメータμを用いて、図8の逐次学習部52では演算する。演算された事後確率分布p(μ|O)の時間発展について考察する。つまり、上記式(14)において平均ベクトルパラメータμのみを考えるため時間発展は次のような式(15)を逐次学習部52で演算する。
p(μt+1|Ot+1)∝p(Ot+1|μt+1)∫p(μt+1|μ)p(μ|O)dμ
(15)
その他の処理は、実施例1、2と同様の処理を行う。
実施例4では、上記式(15)の解析解を導出し、これを用いて、逐次学習を行う。式(15)にはさまざまな解析解が存在するが、最も単純な解析解として確率的ダイナミクスが線形で表現される場合を考える。つまり、確率的ダイナミクスとして、以下の式(16)を仮定することが出来る。
μt+1=Aμ+ν+εt+1 (16)
ここでεt+1は平均0、共分散行列Uのガウシアンノイズである。式(16)は、上記式(5)における線形変換が確率的に揺らいでいるといえる。このとき、確率ダイナミクスの分布具体系は、以下の式(17)として与えられる。
p(μt+1|μ)=N(μt+1|Aμ+ν,U) (17)
ここでN(・|m,S)は平均パラメータm、共分散行列パラメータSのガウス分布である。
さらに通常のHMM,GMMで表現される音響モデルに対して一まとまりの特徴量系列O={oNt+1,…,oNt+Nt+1}が出力される出力分布p(O│μ)は以下の式(18)で表すことができる。
Figure 0004950600
ここで、状態遷移確率aおよび混合重み因子wはp(μ|O)の推定に関係ないため無視した。またHMMやGMMの潜在変数は無視したが、これらはEMアルゴリズム(期待値最大化アルゴリズム)を用いることによって対処可能である。
最後に平均ベクトルパラメータの事後確率分布がガウス分布で表現されると仮定し、その平均ベクトルパラメータがμ^、共分散行列パラメータがQ^で表現されるとすると関数形は以下の式(19)で表すことができる。
Figure 0004950600
従って、式(17)、(18)、及び(19)を式(15)に代入することにより以下の式(20)で示される解析解を導出することができる。
Figure 0004950600
ここで、
Q^t+1=((U+AQ^A’)−1+ζt+1Σ―1−1 (21)
K^t+1=Q^t+1ζt+1Σ―1 (22)
μ^t+1=Aμ^+υ+K^t+1(Mt+1/ζt+1−Aμ^−υ)
(23)
ただし、Q^t+1及びQ^は、それぞれ今回及び前回の事後確率分布の共分散行列パラメータであり、K^t+1はカルマンゲインであり、A、υ、及びUはそれぞれ音響モデルパラメータ中の平均の上記確率的ダイナミクスを線形表現した時の係数、定数及びガウシアンノイズの共分散行列であり、ζt+1は、今回の事後占有確率値の和、Σは初期音響モデルパラメータ中の共分散行列であり、μ^t+1及びμ^は今回および前回の事後確率分布の平均パラメータであり、Mt+1は今回の各時点におけるζと特徴量との積和であり、A’は行列Aの転置を表す。
このようにして、今回の事後確率分布p(μt+1|Ot+1)の分布パラメータωt+1はQ^t+1,μ^t+1となり、式(21)(22)(23)から求めることができる。また、ζ,Mは十分統計量であり以下の式(24)のように定義される。
Figure 0004950600
ζ,MはForward-backwardアルゴリズムもしくはViterbiアルゴリズムによって効率よく求めることができる。
つまり、音響モデルパラメータの事後確率分布p(μ|O)の漸化式はそのパラメータ(Q^,K^,μ^)の漸化式(21)(22)(23)によって求めることができる。これは線形動的システムにおけるカルマンフィルタの解と類似している。しかし、カルマンフィルタの解はo→on+1のように各音声分析フレームごとの更新となっている。一方、本発明ではO→Ot+1のように1まとまりのフレームごとの更新となっているのが違いとなっている。そのため、パラメータQ^,K^,μ^は、1フレームの特徴量oではなく、その統計量であらわされている。従って、これを巨視的な線形動的システムと呼ぶ。
実施例4の場合の逐次学習部52の具体的構成例を図11に示す。逐次学習部52は、Q^更新部520、K^更新部522、μ^更新部524、事後確率計算部526とで構成されている。
事後確率計算部526で、上記音響モデルパラメータの事後確率分布が、当該事後確率分布の平均パラメータμ^t+1と、当該事後確率分布の共分散行列パラメータQ^t+1と、で表現されるガウス分布で表されることに基づき、上記音響モデルパラメータの上記事後確率分布が計算される。つまり上記式(23)が計算される。
Q^更新部520では上記式(21)が計算され、K^更新部522では上記式(22)が計算され、μ^更新部524では上記式(23)が計算され、事後確率計算部526では上記式(20)が計算される。
従って、Q^,K^,μ^を求めるためには、線形変換パラメータW={ν,A}、システムノイズU、初期パラメータQ^、及びμ^の4つを設定する必要がある。ここで、Q^は初期音響モデルの共分散行列パラメータから与えられるものであり、μ^は初期音響モデルの平均ベクトルパラメータから与えられるものである。
このうち線形変換パラメータW={ν,A}は、今回まで累積された特徴量系列Oのうち少なくとも1つの特徴量系列を用いて、推定される。よく知られた手法の一例としては上述したEMアルゴリズムを用いて繰り返し計算により効率よく求められる。
システムノイズUも線形変換パラメータWと同様に学習によって求めることができる。または、行列成分すべてを特徴量系列やその他のデータから先験的に与えることもできる。最も単純な方法は、システムノイズUを(u−1Σとしておき、システムノイズの共分散行列が出力分布の共分散行列と比例関係にあるとするとして、uを予め与えられるパラメータとする。つまり、1つだけパラメータが導入される。これらシステムノイズUと線形変換パラメータWが、上記式(8)の分布変換関数Fにおける変換パラメータとなる。
このとき更新式は、以下の式(25)(26)(27)で表され、Q^更新部520では上記式(25)が計算され、K^更新部522では上記式(26)が計算され、μ^更新部524では上記式(27)が計算される。
Q^t+1=(((u−1Σ+AQ^A’)−1+ζt+1Σ―1−1
(25)
K^t+1=Q^t+1ζt+1Σ―1 (26)
μ^t+1=Aμ^+υ+K^t+1(Mt+1/ζt+1−Aμ^−υ)
(27)
以上によってパラメータuによって制御される分布変換にもとづく逐次適応法を実現できる。
平行移動適応
上記式(16)の平均ベクトルの平行移動にだけ注目することにより、推定すべきパラメータを少なくしてより少量データでの適応を実現できる。このとき、上記式(25)(26)(27)における行列Aを単位行列Iとする、つまり、A=Iとすると、Q^、K^、μ^は以下の式(28)(29)(30)で計算される。
Q^t+1=(((u−1Σ+AQ^A’)−1+ζt+1Σ―1−1
(28)
K^t+1=Q^t+1ζt+1Σ―1 (29)
μ^t+1=Aμ^+υ+K^t+1(Mt+1/ζt+1−Aμ^−υ)
(30)
この場合、Q^更新部520では上記式(28)が計算され、K^更新部522では上記式(29)が計算され、μ^更新部524では上記式(30)が計算される。これにより、平行移動の逐次適応をこの実施例によって本発明に適用することができる。
以上の方法により音響モデルパラメータの事後確率分布p(μ|O)つまり、音響モデルが求まった。この実施例5では、求められた音響モデルを用いて音声認識をする、つまり音響スコアの算出の処理を説明する。
図12に、この実施例の音声認識装置の機能構成例を示し、図13に、音声認識の主な処理の流れを示す。
認識用音声データ1の音響的特徴量と同様な音響的特徴を持つ適応用音声データが実施例1〜4で説明した音響モデル作成装置60に入力さる。そして、音響モデル記憶部8内の音響モデルが上述したように、更新される(ステップS80)。
認識用音声データがフレームに分割されて認識用音声データxとして、特徴抽出部4に入力され、特徴量系列Oに変換される。この特徴量系列Oは、単語列探索部6に入力される(ステップS82)。
単語列探索部6で特徴量系列Oに対して、音響モデル記憶部8の音響モデルを用いて音響スコアを算出する。この音響スコア算出には例えば、以下の式(31)の計算を行う。
∫p(xτ|μ)p(μ|O)dμ (31)
ここでp(xτ|μ)は上記式(18)で与えられる出力分布である。単語列探索部6による複数フレームの音響スコア算出に関しては上記式(31)をもとに動的計画法(DP:Dynamic Programming マッチング)を行えばよい。音響スコアを最大とする単語列を認識単語列として出力する(ステップS84)。なお、この場合はステップS80におけるモデル更新は、音響モデルとして事後確率分布p(μτ|O)の更新を行う(ステップS80a)。上記式(31)の積分は数値的に解くことも可能であるが、次のような2種類の解析解が存在する。
Plug-in法
Plug-in法では、積分をまともに扱うのではなく、p(μ|O)の事後確率最大化(MAP)値argmaxμp(μ|O)は、上記式(27)のμ^である。つまり、以下の式(32)になる。
Figure 0004950600
従って、音響モデル作成装置60による上記ステップS80におけるモデル更新として、上記式(27)で求まるμ^を出力分布p(xτ|μ)の平均ベクトルパラメータμにそのまま代入(Plug-in)して音響モデルパラメータを更新する(ステップS80b)。このようにすればスコア計算を、以下の式(33)で行うことが出来る。
Figure 0004950600
つまり、平均μ^、共分散行列Σのガウス分布で表現する。これをPlug-in法と呼ぶ。また、その他のパラメータ、つまり、状態遷移確率a、混合重み因子w、共分散行列Σ、はそのまま適用する。
周辺化法
周辺化法は、Plug-in法と違い積分を解析的に解く方法である。この積分をとく方法が、平均ベクトルパラメータμについての周辺化にあたる。周辺化法は、Plug-in法と比較して、平均ベクトルパラメータの事後確率分布p(μ|O)の分散を考慮することになる。このようにすれば、積分計算によるスコア計算は以下の式(34)で表せることになる。
Figure 0004950600
つまり、周辺化法を利用する場合はステップS80のモデル更新において、、平均ベクトルパラメータμをμ^と置き換えて(ステップS80b)共に、共分散行列パラメータΣを共分散行列(Σ+Q^)と置き換えて(ステップS80c)、音響モデルパラメータを更新する。また、その他のパラメータ、つまり、状態遷移確率a、混合重み因子w、はそのまま適用する。
[実験結果]
以下に、この発明の音響モデル作成装置を用いた実験結果を示す。ASJ(日本音響学会)読み上げ音声データベースの男性話者44人分を用いて総状態数2,000、状態あたりの混合数16の不特定話者音響モデルを構築し、CSJ(日本語話し言葉コーパス)講演音声データベースの男性話者20人に対し、教師ラベルありの逐次適応を行った。特徴量は12次元MFCC(メルフレクエンシイペプストラム係数)と、そのフレームのエネルギーと、MFCCのフレーム間差分Δと、その差分MFCCのフレーム間差分デルタΔΔとして、語彙サイズ3万語のトライグラムを用いて大語彙連続音声認識実験を行った(不特定話者音響モデルの単語誤り率は26.9%)。逐次適応の更新単位は16発話とし、8ステップ(128発話分)の逐次適応を行った。図14に具体的な実験結果を占めす。なお縦軸は単語誤り率を示し、横軸は、適応データ数(発話数)を示す。また、この実験はおいて、図8中の逐次学習部52が実施例4中の上記式(25)〜(27)の式を計算する場合であり、u=10とした。
図14において、○印を付した線がこの発明の音響モデル作成装置を適用したものであり、×印を付した線が、従来法であり、直前のステップで得られた音響モデルを初期モデルとして、逐次適応学習を行ったものである。
この発明の場合は単語誤り率が、約20.4%であり、従来法の場合は単語誤り率が約24.3%である。よって、この発明の方が単語誤り率がおよそ4%改善されていることが、このグラフから、理解できる。
以上の各実施形態の他、本発明である音響モデル作成装置は上述の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。また、音響モデル作成装置において説明した処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されるとしてもよい。
また、この発明の音響モデル作成装置における処理をコンピュータによって実現する場合、音響モデル作成装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、音響モデル作成装置における処理機能がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。具体的には、例えば、磁気記録装置として、ハードディスク装置、フレキシブルディスク、磁気テープ等を、光ディスクとして、DVD(DigitalVersatileDisc)、DVD−RAM(RandomAccessMemory)、CD−ROM(CompactDiscReadOnlyMemory)、CD−R(Recordable)/RW(ReWritable)等を、光磁気記録媒体として、MO(Magneto−Opticaldisc)等を、半導体メモリとしてEEP−ROM(ElectronicallyErasableandProgrammable−ReadOnlyMemory)等を用いることができる。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(ApplicationServiceProvider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、音響モデル作成装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
従来技術の音声認識装置2の機能構成例を示すブロック図。 従来技術の音声認識装置2の主な処理の流れを示すフローチャート図。 従来技術の音響モデル作成装置11の機能構成例を示すブロック図。 従来技術の音響モデル作成装置11の主な処理の流れを示すフローチャート図。 音響モデルパラメータθの変換に基づく適応をさせるパラメータ適応部22の機能構成例を示すブロック図。 音響モデルパラメータの変換に基づく適応のフローチャート図。 音響モデルパラメータを逐次適応させる手順を示す図。 この発明のモデル適応化部50の機能構成例を示すブロック図。 この発明の音響モデルの逐次適応の手順を示す図。 この発明の音響モデルの逐次適応の主な処理の流れを示すフローチャート図。 この発明の実施例4の逐次学習部52の具体的構成例を示すブロック図。 この発明の実施例5の音声認識装置を示すブロック図。 この発明の実施例5の音声認識装置の主な処理の流れを示すフローチャート図。 この発明の音響モデル作成装置と従来技術の音響モデル作成装置との単語誤り率を比較した図。

Claims (20)

  1. 今回の適応用音声データの部分時系列の特徴量系列を抽出する特徴抽出部と、
    前回までの累積された特徴量系列が加味された前回求めた音響モデルパラメータの事後確率分布p(θ │O )と、今回まで累積された特徴量系列のうち少なくとも1つの特徴量系列と、に基づき今回の音響モデルパラメータの事後確率分布p(θ t+1 │O t+1 )を求める逐次学習部と、ここで、O t+1 およびO は今回および前回までに累積された特徴量系列であり、θ t+1 およびθ は今回および前回の音響モデルパラメータであり、
    上記今回の音響モデルパラメータの事後確率分布p(θ t+1 │O t+1 )を新たな音響モデルとするモデル更新部と、を具備し、
    上記逐次学習部は、前回の音響モデルパラメータの事後確率分布p(θ│O)と、今回の出力分布p(Ot+1│θt+1、O)と、今回の確率的ダイナミクスp(θt+1│θ、O)と、を用いて今回の音響モデルパラメータの事後確率分布p(θt+1│Ot+1)を
    Figure 0004950600
    として求めるものであることを特徴とする音響モデル作成装置。
  2. 今回の適応用音声データの部分時系列の特徴量系列を抽出する特徴抽出部と、
    前回までの累積された特徴量系列が加味された前回求めた音響モデルパラメータの事後確率分布p(θ │O )と、今回まで累積された特徴量系列のうち少なくとも1つの特徴量系列と、に基づき今回の音響モデルパラメータの事後確率分布p(θ t+1 │O t+1 )を求める逐次学習部と、ここで、O t+1 およびO は今回および前回までに累積された特徴量系列であり、θ t+1 およびθ は今回および前回の音響モデルパラメータであり、
    上記今回の音響モデルパラメータの事後確率分布p(θ t+1 │O t+1 )を新たな音響モデルとするモデル更新部と、を具備し、
    上記逐次学習部は、前回の音響モデルパラメータの事後確率分布p(θ│O)と、今回の出力分布p(Ot+1│θt+1)と、今回の確率的ダイナミクスp(θt+1│θ)と、を用いて今回の音響モデルパラメータの事後確率分布p(θt+1│Ot+1)を
    p(θ t+1 |O t+1 )∝p(O t+1 |θ t+1 )∫p(θ t+1 |θ )p(θ |O )dθ
    (但しA∝BはAとBは比例しているということを表す)として求めるものであることを特徴とする音響モデル作成装置。
  3. 請求項記載の音響モデル作成装置において、
    上記逐次学習部は、音響モデルパラメータのうち、平均ベクトルパラメータに対して、演算するものであることを特徴とする音響モデル作成装置。
  4. 請求項記載の音響モデル作成装置において、
    上記逐次学習部は、上記音響モデルパラメータの事後確率分布が、当該事後確率分布の平均パラメータと、当該事後確率分布の共分散行列パラメータと、で表現されるガウス分布で表されることに基づき、上記今回の音響モデルパラメータの上記事後確率分布の平均パラメータと上記事後確率分布の共分散行列パラメータを計算するものであり、
    上記モデル更新部は、上記逐次学習部で計算された音響モデルパラメータを用いて、前回の音響モデルパラメータを更新するものであることを特徴とする音響モデル作成装置。
  5. 請求項記載の音響モデル作成装置において、
    上記逐次学習部は、次式を演算するものであり、
    Q^t+1=((U+AQ^A’)−1+ζt+1Σ―1−1
    K^t+1=Q^t+1ζt+1Σ―1
    μ^t+1=Aμ^+υ+K^t+1(Mt+1/ζt+1−Aμ^−υ)
    Q^t+1及びQ^は、それぞれ今回及び前回の事後確率分布の共分散行列パラメータであり、A、υ、及びUはそれぞれ音響モデルパラメータ中の平均の上記確率的ダイナミクスを線形表現した時の係数、定数及びガウシアンノイズの共分散行列であり、ζt+1は、今回の事後占有確率値の和、Σは初期音響モデルパラメータ中の共分散行列であり、μ^t+1及びμ^は今回および前回の事後確率分布の平均パラメータであり、Mt+1は今回の各時点におけるζと特徴量との積和であり、A’は行列Aの転置を表すことを特徴とする音響モデル作成装置。
  6. 請求項記載の音響モデル作成装置において、
    上記逐次学習部の演算は上記Uに代えて、(u−1Σとして演算するものであり、上記uは予め与えられる定数であることを特徴とする音響モデル作成装置。
  7. 請求項記載の音響モデル作成装置において、
    上記逐次学習部の演算は行列Aに代えて単位行列として、演算するものであることを特徴とする音響モデル作成装置。
  8. 認識用音声データの音響的特徴を持つ適応用音声データに適応化させた音響モデルを、請求項1〜のいずれかに記載した音響モデル作成装置により作成して、音響モデルパラメータを更新する認識用モデル更新部と、
    上記更新された音響モデルパラメータを用いて、上記音響的特徴を持った入力音声データに対する音声認識を行う認識部とを具備する音声認識装置。
  9. 特徴抽出手段が、今回の適応用音声データの部分時系列の特徴量系列を抽出する特徴抽出過程と、
    逐次学習手段が、前回までの累積された特徴量系列が加味された前回求めた音響モデルパラメータの事後確率分布p(θ │O )と、今回まで累積された特徴量系列のうち少なくとも1つと、に基づき今回の音響モデルパラメータの事後確率分布p(θ t+1 │O t+1 )を求める逐次学習過程と、ここで、O t+1 およびO は今回および前回までに累積された特徴量系列であり、θ t+1 およびθ は今回および前回の音響モデルパラメータであり、
    モデル更新手段が、上記今回の音響モデルパラメータの事後確率分布p(θ t+1 │O t+1 )を新たな音響モデルとするモデル更新過程と、を有し、
    上記逐次学習過程は、前回の音響モデルパラメータの事後確率分布p(θ│O)と、今回の出力分布p(Ot+1│θt+1、O)と、今回の確率的ダイナミクスp(θt+1│θ、O)と、を用いて今回の音響モデルパラメータの事後確率分布p(θt+1│Ot+1)を
    Figure 0004950600
    として求める過程であることを特徴とする音響モデル作成方法。
  10. 特徴抽出手段が、今回の適応用音声データの部分時系列の特徴量系列を抽出する特徴抽出過程と、
    逐次学習手段が、前回までの累積された特徴量系列が加味された前回求めた音響モデルパラメータの事後確率分布p(θ │O )と、今回まで累積された特徴量系列のうち少なくとも1つと、に基づき今回の音響モデルパラメータの事後確率分布p(θ t+1 │O t+1 )を求める逐次学習過程と、ここで、O t+1 およびO は今回および前回までに累積された特徴量系列であり、θ t+1 およびθ は今回および前回の音響モデルパラメータであり、
    モデル更新手段が、上記今回の音響モデルパラメータの事後確率分布p(θ t+1 │O t+1 )を新たな音響モデルとするモデル更新過程と、を有し、
    上記逐次学習過程は、前回の音響モデルパラメータの事後確率分布p(θ│O)と、今回の出力分布p(Ot+1│θt+1)と、今回の確率的ダイナミクスp(θt+1│θ)と、を用いて今回の音響モデルパラメータの事後確率分布p(θt+1│Ot+1)を
    p(θ t+1 |O t+1 )∝p(O t+1 |θ t+1 )∫p(θ t+1 |θ )p(θ |O )dθ
    (但しA∝BはAとBは比例しているということを表す)として求める過程であることを特徴とする音響モデル作成方法。
  11. 請求項1記載の音響モデル作成方法において、
    上記逐次学習過程は、音響モデルパラメータのうち、平均ベクトルパラメータに対して、演算する過程であることを特徴とする音響モデル作成方法。
  12. 請求項1記載の音響モデル作成方法において、
    上記逐次学習過程は、上記音響モデルパラメータの事後確率分布が、当該事後確率分布の平均パラメータと、当該事後確率分布の共分散行列パラメータと、で表現されるガウス分布で表されることに基づき、上記今回の音響モデルパラメータの上記事後確率分布の平均パラメータと共分散行列パラメータを計算する過程であり、
    上記モデル更新過程は、上記逐次学習過程で計算されたパラメータを用いて、前回の音響モデルパラメータを更新する過程であることを特徴とする音響モデル作成方法。
  13. 請求項1記載の音響モデル作成方法において、
    上記逐次学習過程は、次式を演算する過程であり、
    Q^t+1=((U+AQ^A’)−1+ζt+1Σ―1−1
    K^t+1=Q^t+1ζt+1Σ―1
    μ^t+1=Aμ^+υ+K^t+1(Mt+1/ζt+1−Aμ^−υ)
    ここで、Q^t+1及びQ^は、それぞれ今回及び前回の事後確率分布の共分散行列パラメータであり、A、υ、及びUはそれぞれ音響モデルパラメータ中の平均の上記確率的ダイナミクスを線形表現した時の係数、定数及びガウシアンノイズの共分散行列であり、ζt+1は、今回の事後占有確率値の和、Σは初期音響モデルパラメータ中の共分散行列であり、μ^t+1及びμ^は今回および前回の事後確率分布の平均パラメータであり、Mt+1は今回の各時点におけるζと特徴量との積和であり、A’は行列Aの転置を表すことを特徴とする音響モデル作成方法。
  14. 請求項1記載の音響モデル作成方法において、
    上記逐次学習過程の演算は上記Uに代えて、(u−1Σを用いて、演算する過程であり、ここで、上記uは予め与えられる定数であることを特徴とする音響モデル作成方法。
  15. 請求項1記載の音響モデル作成方法において、
    上記逐次学習過程の演算は行列Aに代えて単位行列を用いて、演算する過程であることを特徴とする音響モデル作成方法。
  16. 認識用モデル更新手段が、認識用音声データの音響的特徴を持つ適応用音声データに適応化させた音響モデルを請求項〜1のいずれかに記載した音響モデル作成方法により作成して、音響モデルパラメータを更新する認識用モデル更新過程と、
    認識手段が、上記更新された音響モデルパラメータを用いて、上記音響的特徴を持った入力音声データに対する音声認識を行う認識過程とを有する音声認識方法。
  17. 請求項〜1の何れかに記載の音響モデル作成方法の各過程をコンピュータに実行させるための音響モデル作成プログラム。
  18. 請求項1に記載の音声認識方法の各過程をコンピュータに実行させるための音声認識プログラム。
  19. 請求項1記載の音響モデル作成プログラムを記録したコンピュータ読み取り可能な記録媒体。
  20. 請求項18記載の音声認識プログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2006240085A 2006-09-05 2006-09-05 音響モデル作成装置、その装置を用いた音声認識装置、これらの方法、これらのプログラム、およびこれらの記録媒体 Expired - Fee Related JP4950600B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006240085A JP4950600B2 (ja) 2006-09-05 2006-09-05 音響モデル作成装置、その装置を用いた音声認識装置、これらの方法、これらのプログラム、およびこれらの記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006240085A JP4950600B2 (ja) 2006-09-05 2006-09-05 音響モデル作成装置、その装置を用いた音声認識装置、これらの方法、これらのプログラム、およびこれらの記録媒体

Publications (2)

Publication Number Publication Date
JP2008064849A JP2008064849A (ja) 2008-03-21
JP4950600B2 true JP4950600B2 (ja) 2012-06-13

Family

ID=39287643

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006240085A Expired - Fee Related JP4950600B2 (ja) 2006-09-05 2006-09-05 音響モデル作成装置、その装置を用いた音声認識装置、これらの方法、これらのプログラム、およびこれらの記録媒体

Country Status (1)

Country Link
JP (1) JP4950600B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4881357B2 (ja) * 2008-08-26 2012-02-22 日本電信電話株式会社 音響モデル作成装置、その装置を用いた音声認識装置、これらの方法、これらのプログラム、およびこれらの記録媒体
EP2458941A4 (en) * 2009-07-23 2013-05-29 Adeka Corp OPTICAL FILTER
US9251784B2 (en) 2013-10-23 2016-02-02 International Business Machines Corporation Regularized feature space discrimination adaptation
CN108701452B (zh) * 2016-02-02 2023-09-26 日本电信电话株式会社 音频模型学习方法、语音识别方法、音频模型学习装置、语音识别装置及记录介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3920749B2 (ja) * 2002-09-24 2007-05-30 日本電信電話株式会社 音声認識用音響モデル作成方法、その装置、そのプログラムおよびその記録媒体、上記音響モデルを用いる音声認識装置
JP4256314B2 (ja) * 2004-08-13 2009-04-22 日本電信電話株式会社 音声認識用音響モデル作成方法、音声認識用音響モデル作成装置、音声認識用音響モデル作成プログラム及びこのプログラムを記録した記録媒体

Also Published As

Publication number Publication date
JP2008064849A (ja) 2008-03-21

Similar Documents

Publication Publication Date Title
CN107615376B (zh) 声音识别装置及计算机程序记录介质
US9460711B1 (en) Multilingual, acoustic deep neural networks
JP5072206B2 (ja) 音声分類および音声認識のための隠れ条件付確率場モデル
US8515758B2 (en) Speech recognition including removal of irrelevant information
JP5982297B2 (ja) 音声認識装置、音響モデル学習装置、その方法及びプログラム
CN102411931A (zh) 用于大词汇量连续语音识别的深度信任网络
JP6884946B2 (ja) 音響モデルの学習装置及びそのためのコンピュータプログラム
JP5752060B2 (ja) 情報処理装置、大語彙連続音声認識方法及びプログラム
JP2010152751A (ja) 統計モデル学習装置、統計モデル学習方法、およびプログラム
JP5249967B2 (ja) 音声認識装置、重みベクトル学習装置、音声認識方法、重みベクトル学習方法、プログラム
JP2004226982A (ja) 隠れ軌跡隠れマルコフモデルを使用した音声認識の方法
JP2010078650A (ja) 音声認識装置及びその方法
US8078462B2 (en) Apparatus for creating speaker model, and computer program product
JP4950600B2 (ja) 音響モデル作成装置、その装置を用いた音声認識装置、これらの方法、これらのプログラム、およびこれらの記録媒体
JP4881357B2 (ja) 音響モデル作成装置、その装置を用いた音声認識装置、これらの方法、これらのプログラム、およびこれらの記録媒体
JP2015041081A (ja) 定量的f0パターン生成装置及び方法、f0パターン生成のためのモデル学習装置、並びにコンピュータプログラム
JP4705557B2 (ja) 音響モデル生成装置、方法、プログラム及びその記録媒体
JP3920749B2 (ja) 音声認識用音響モデル作成方法、その装置、そのプログラムおよびその記録媒体、上記音響モデルを用いる音声認識装置
JP6158105B2 (ja) 言語モデル作成装置、音声認識装置、その方法及びプログラム
JP4891806B2 (ja) 適応モデル学習方法とその装置、それを用いた音声認識用音響モデル作成方法とその装置、及び音響モデルを用いた音声認識方法とその装置、及びそれら装置のプログラムと、それらプログラムの記憶媒体
JP4729078B2 (ja) 音声認識装置とその方法と、プログラムとその記録媒体
JP2014102345A (ja) 音響モデル学習用テキスト作成装置とその方法とプログラム
JP5457999B2 (ja) 雑音抑圧装置とその方法とプログラム
JP5104732B2 (ja) 拡張認識辞書学習装置、これを用いた音声認識システム、その方法及びそのプログラム
JP6137708B2 (ja) 定量的f0パターン生成装置、f0パターン生成のためのモデル学習装置、並びにコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110509

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120306

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120309

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4950600

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees