JPH1138993A - Hmmパラメータ学習方法と装置 - Google Patents

Hmmパラメータ学習方法と装置

Info

Publication number
JPH1138993A
JPH1138993A JP9191116A JP19111697A JPH1138993A JP H1138993 A JPH1138993 A JP H1138993A JP 9191116 A JP9191116 A JP 9191116A JP 19111697 A JP19111697 A JP 19111697A JP H1138993 A JPH1138993 A JP H1138993A
Authority
JP
Japan
Prior art keywords
hmm parameter
hmm
parameter
data
estimating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP9191116A
Other languages
English (en)
Inventor
Takashi Miki
敬 三木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP9191116A priority Critical patent/JPH1138993A/ja
Publication of JPH1138993A publication Critical patent/JPH1138993A/ja
Withdrawn legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 学習データ以外のデータを考慮した安定なH
MMパラメータを、従来のBW法による学習と大差ない
演算量で学習すること。 【解決手段】 ステップS101では、カテゴリーk に属す
る複数の音声学習データを読み込み、これを分析して特
徴ベクトル(以下学習データという)Yaknを求める。
ステップS102では、この学習データYakn を用いて、H
MMパラメータΘa を推定する。ステップS103では、ス
テップS102で推定したHMMパラメータΘa により学習
データYakn を識別し、カテゴリーが間違って識別され
た誤識別データYbkn を見いだす。ステップS104では、
BW法により、ステップS103で見いだした誤識別データ
Ybkn を用いてHMMパラメータΘb を推定する。ステ
ップS105では、ステップS102で推定したHMMパラメー
タΘa とステップS103で推定したHMMパラメータΘb
とを併用して識別処理を実行する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、HMMパラメータ
学習方法とその方法を用いたHMMパラメータ学習装置
に関するものである。
【0002】
【従来の技術】隠れマルコフモデル(Hidden Markov Mod
el、以下HMMと呼ぶ) を用いて音声を認識するHMM
音声認識方法は、音声を確率的な遷移ネットワークとみ
なして認識処理を行うものである。このHMMは、図6
に示すようにいくつかの状態Si(図6ではS0、S1、S2、
S3)とそれら状態間の遷移を表わす弧で表現され、各弧
には、その弧を遷移する遷移確率Aklと、遷移の際にあ
る音声スペクトルx を出力する確率Bkl(x) とがパラメ
ータとして与えられている。そして、初期状態(図6で
はS0)から遷移を開始して最終状態(図6ではS3)に到
達するまでに弧を通って遷移を繰り返し、スペクトル系
列を出力する確率が得られる。
【0003】このようなHMM音声認識方法を用いた音
声認識装置の構成例を図7に示す。この装置は、学習デ
ータ記憶部701 に予め格納されている学習データを用い
て、HMMパラメータ学習部702 により音声の特徴を表
現したHMMパラメータを学習し、学習後のHMMパラ
メータ(辞書)をHMMパラメータ記憶部703 に格納す
る。そして、音声認識部704 により、音声認識の対象と
なる入力音声とHMMパラメータ記憶部703 に格納され
ているHMMパラメータとを照合してその入力音声を認
識し、その認識結果を出力するものである。
【0004】このHMMパラメータ学習部702 によるH
MMパラメータの学習には、Baum-Welchアルゴリズム
(以下BW法と呼ぶ)(例えば、中川、『確率モデルに
よる音声認識』、第29〜73頁、電子情報通信学会発行
(昭和63年7月)、以下文献1という)が一般に用いら
れている。また、識別誤り最小化基準に基づく学習法
(以下MCE(Minimum Classification Error)法と呼
ぶ)が提案されている(例えば、ヤング他、『Discrimi
native Learning for Minimum Error Classification』
IEEE Trans.Signal Processing、第40巻、第12号、第30
43〜3054頁(1992年10月、以下文献2という)。このM
CE法は、HMMパラメータΘと学習データYから算出
される識別誤り量L(Θ、Y)を最小化する学習方法で
ある。
【0005】
【発明が解決しようとする課題】しかしながら、上述の
BW法は、比較的少ない演算量で安定なHMMパラメー
タを得ることができるが、学習データに対するHMMパ
ラメータの最適値を求める際、学習データ以外のデータ
は全く考慮していなかった。このため、学習データ以外
のデータに対しては誤って識別する場合が生じ、識別性
能を一定以上に高くすることが困難となる可能性があっ
た。
【0006】一方、MCE法は、学習データ全体の誤り
を考慮しているが、HMMパラメータの数を固定した場
合の最適値を求める方法であるため、パラメータ数の増
減を伴う場合には適応できないという問題点があった。
また、BW法に比べ演算量が膨大になるという課題もあ
った。更には、学習データ数が少ない場合には、求めた
HMMパラメータが学習データに極端に依存する傾向が
あるので、学習データ数を多くとる必要があり、その結
果演算量がますます膨大になるという問題点があった。
【0007】本発明はこのような従来技術の問題点を解
消し、学習データ以外のデータを考慮した安定なHMM
パラメータを、従来のBW法による学習と大差ない演算
量で学習できるHMMパラメータ学習方法と装置を提供
することを目的とする。
【0008】
【課題を解決するための手段】本発明は上述の課題を解
決するために、学習データを用いてBW法により第1の
HMMパラメータを推定する第1の工程と、第1のHM
Mパラメータにより学習データを識別することにより識
別誤りを起こした誤識別データを見いだす第2の工程
と、誤識別データを用いてBW法により第2のHMMパ
ラメータを推定する第3の工程とを含み、前記第1のH
MMパラメータおよび第2のHMMパラメータはデータ
識別処理において併用されるものであることを特徴とす
る。
【0009】また、本発明は、学習データを用いてBW
法により第1のHMMパラメータを推定する第1の工程
と、第1のHMMパラメータにより学習データを識別す
ることにより識別誤りを起こした誤識別データを見いだ
す第2の工程と、誤識別データを用いてBW法により第
2のHMMパラメータを推定する第3の工程と、第1の
HMMパラメータと第2のHMMパラメータを混合して
第3のHMMパラメータを生成する第4の工程とを含
み、第3のHMMパラメータをモデルのHMMパラメー
タとすることを特徴とする。
【0010】また、本発明は、学習データを用いてBW
法により第1のHMMパラメータを推定する第1の工程
と、第1のHMMパラメータにより学習データを識別す
ることにより識別誤りを起こした誤識別データを見いだ
す第2の工程と、誤識別データを用いてBW法により第
2のHMMパラメータを推定する第3の工程と、第1の
HMMパラメータと第2のHMMパラメータを混合して
第3のHMMパラメータを生成する第4の工程と、第1
のHMMパラメータの内容を第3のHMMパラメータの
内容で置き換える第5の工程とを含み、第2の工程から
第5の工程までの処理を、第2の工程で見いだす誤識別
データの数が所定値以下になるまで順次繰り返し実行
し、実行後の第3のHMMパラメータをモデルのHMM
パラメータとすることを特徴とする。
【0011】また、本発明は、学習データを用いてBW
法により第1のHMMパラメータを推定する第1の工程
と、第1のHMMパラメータにより学習データを識別す
ることにより識別誤りを起こした誤識別データを見いだ
す第2の工程と、誤識別データを用いてBW法により第
2のHMMパラメータを推定する第3の工程と、第1の
HMMパラメータと第2のHMMパラメータを混合して
第3のHMMパラメータを生成する第4の工程と、第3
のHMMパラメータを初期値としてBW法により第4の
HMMパラメータを推定し、第1のHMMパラメータの
内容第4のHMMパラメータの内容で置き換える第5の
工程とを含み、第2の工程から第5の工程までの処理
を、第2の工程で見いだす誤識別データの数が所定値以
下になるまで順次繰り返し実行し、実行後の第4のHM
MパラメータをモデルのHMMパラメータとすることを
特徴とする。
【0012】また、本発明は、学習データを用いてBW
法によりHMMパラメータを推定し、推定したHMMパ
ラメータを初期値としてMCE法により第1のHMMパ
ラメータを推定する第1の工程と、第1のHMMパラメ
ータにより学習データを識別することにより識別誤りを
起こした誤識別データを見いだす第2の工程と、誤識別
データを用いてBW法により第2のHMMパラメータを
推定する第3の工程と、第1のHMMパラメータと第2
のHMMパラメータを混合して第3のHMMパラメータ
を生成する第4の工程と、第3のHMMパラメータを初
期値としてMCE法により第4のHMMパラメータを推
定し、第1のHMMパラメータの内容を第4のHMMパ
ラメータの内容で置き換える第5の工程とを含み、第2
の工程から第5の工程までの処理を、第2の工程で見い
だす誤識別データの数が所定値以下になるまで順次繰り
返し実行し、実行後の第4のHMMパラメータをモデル
のHMMパラメータとすることを特徴とする。
【0013】
【発明の実施の形態】次に添付図面を参照して本発明に
よるHMMパラメータ学習方法の実施例を詳細に説明す
る。
【0014】本実施例は、本発明を音声認識におけるH
MMパラメータ学習方法に適用した場合の例であって、
図7に示す音声認識装置のHMMパラメータ学習部702
により実行される。なお、HMMパラメータ学習部702
における処理は、例えば、プログラム制御によるコンピ
ュータにより実現することができる。
【0015】まず、本発明の第1の実施例のHMMパラ
メータ学習方法について図1のフローチャートを用いて
説明する。この第1の実施例は、学習データを用いてB
W法によりHMMパラメータΘa を推定し、この推定し
たHMMパラメータΘa により学習データを識別して誤
識別データを見いだす。そして、この誤識別データを用
いてBW法によりHMMパラメータΘb を推定し、推定
したHMMパラメータΘa とΘb を併用して識別処理を
行うものである。
【0016】図1において、最初のステップS101では、
図7の学習データ記憶部701 に格納してあるカテゴリー
k に属する複数の音声学習データを読み込み、これを分
析して音声の物理的な特徴を表わす特徴ベクトル(以下
学習データという)Yakn (n=1,2,...,N)を求める。な
お、音声学習データの分析には、例えば、文献1(第5
〜12頁)に記載されているLPCケプストラム法を用い
ることができる。ステップS102では、この学習データY
akn を用いて、HMMパラメータΘa を推定する。具体
的には、学習データYakn を出力する確率を最大にする
するようなHMMパラメータΘa を、例えば、文献1
(第51〜67頁)に記載されているBW法により推定す
る。
【0017】ステップS103では、ステップS102で推定し
たHMMパラメータΘa により学習データYakn を識別
し、カテゴリーが間違って識別された誤識別データYbk
n を見いだす。具体的には、カテゴリーk の学習データ
Yakn に対して、カテゴリーk のHMMパラメータΘa
による尤度P(Θa )と、カテゴリーk 以外の全てのH
MMパラメータΘx 中で最大の尤度P(Θx )とを算出
して比較する。そして、尤度P(Θx )が尤度P(Θa
)より大きい場合のデータを、カテゴリーk のデータ
がカテゴリーk 以外のデータであると間違って識別され
た誤識別データYbkn であるとする。ここで、尤度P
(Θ)は、HMMパラメータΘのHMMが学習データY
knを出力する確率であり、例えば、文献1(第40〜46
頁)に記載された前向きパスアルゴリズム、ビタビアル
ゴリズム等を用いて算出することができる。
【0018】ステップS104では、ステップS102の場合と
同様にBW法により、ステップS103で見いだした誤識別
データYbkn を用いてHMMパラメータΘb を推定す
る。ステップS105では、ステップS102で推定したHMM
パラメータΘa とステップS103で推定したHMMパラメ
ータΘb とを併用して識別処理を実行する。具体的に
は、MMパラメータΘa をサブカテゴリーakに対応する
MMパラメータΘakとし、HMMパラメータΘb をサブ
カテゴリーbkに対応するMMパラメータΘbkとして、カ
テゴリーk は、サブカテゴリーakと bk が合成されたも
のと定義する。
【0019】したがって、図7の音声認識部704 により
カテゴリーk の識別処理を実行する場合には、サブカテ
ゴリーakに対応するMMパラメータΘakによる尤度P
(Θak)と、サブカテゴリーbkに対応するMMパラメー
タΘbkによる尤度P(Θbk)とを算出し、両尤度のうち
値の大きい尤度を求める尤度P(Θk )として処理すれ
ばよいことになる。
【0020】以上説明したように第1の実施例によれ
ば、識別処理の際にHMMパラメータΘa と併用するH
MMパラメータΘb を極めて簡便かつ従来の処理と大差
ない演算量で推定できるので、高精度な音声認識装置を
短期間で作り上げることができる。
【0021】次に、本発明の第2の実施例のHMMパラ
メータ学習方法について図2のフローチャートを用いて
説明する。この第2の実施例は、学習データを用いてB
W法により推定したHMMパラメータΘa の出力密度関
数Baks と、誤識別データを用いてBW法により推定し
たHMMパラメータΘb の出力密度関数Bbks との類似
性を判定し、類似しない場合には、HMMパラメータΘ
a とHMMパラメータΘb の出力密度関数を混合してH
MMパラメータΘc を作成するものである。
【0022】図2において、ステップS201からS204まで
の処理は、図1に示す第1の実施例のステップS101から
S104までの処理と同じであり、ステップS201では、カテ
ゴリー kに属する複数の音声学習データを分析してその
特徴ベクトル(以下学習データという)Yakn を求め、
ステップS202では、この学習データYakn を用いてBW
法によりHMMパラメータΘa を推定し、ステップS203
では、このHMMパラメータΘa のHMMにより学習デ
ータYakn を識別して過識別データYbkn を見いだし、
ステップS204では、この誤識別データYbkn を用いてH
MMパラメータΘb を推定する。
【0023】ステップS204に続くステップS205では、ス
テップS202で推定したHMMパラメータΘa とステップ
S204で推定したHMMパラメータΘb を混合したHMM
パラメータΘc を生成する。その混合方法について以下
に詳細に説明する。なお、HMMにおける出力密度関数
は正規分布とし、説明を簡単にするために、HMMパラ
メータΘa とΘb における出力密度関数は共に単一正規
分布とする。また、HMMパラメータΘa 、Θb 、Θc
におけるカテゴリーk 、状態s の出力密度関数をそれぞ
れBaks 、Bbks 、Bcks とし、出力密度関数Baks 、
Bbks の平均ベクトルをそれぞれμaks(i)、μbks(i)と
する。ここで、i は、特徴ベクトルYknの次元を示すサ
フィックスである。
【0024】ところで、出力密度関数Baks とBbks の
類似性は、両者の距離によって表わすことができる。出
力密度関数Baks とBbks との距離D(Baks,Bbks )
を、最も簡単な距離定義である平均ベクトル間のユーク
リッド距離を用いて表わすと式(1) のようになる。
【0025】
【数1】 なお、距離D(Baks,Bbks )は、Kullback、Chernof
f、Bhattachayya距離(例えば、文献1の第80〜81頁)
を用いて定義してもよい。(1) 式の距離D(Baks,Bbk
s )が予め定められた閾値Eよりも小さいとき(D(B
aks,Bbks)〈E)、出力密度関数Baks とBbks とは互
いに類似する分布であるので、HMMパラメータΘc に
おける出力密度関数Bcks は、式(2) のようにHMMパ
ラメータΘa における出力密度関数Bask (またはHM
MパラメータΘb における出力密度関数Bbks )で表わ
すことができる。したがって、この場合には、出力密度
関数Baks とBbks とを混合して出力密度関数Bcks を
生成する必要はないので、それだけHMM辞書をコンパ
クトにすることができる。
【0026】Bcks =Baks ...(2) 逆に、距離D(Baks,Bbks)が予め定められた閾値Eよ
り大きいかまたは等しいとき(D(Baks,Bbks)≧
E)、出力密度関数Baks とBbks とは互いに非類似の
分布であるので、出力密度関数Bcks は、式(3) のよう
に出力密度関数Baks とBbks を混合した混合分布で表
わすことができる。
【0027】 Bcks =λa Baks +λb Bbks ...(3) ここでλa 、λb は、それぞれ出力密度関数Baks 、B
bks の分岐確率であり、学習データYakn の数をZakn
、誤識別データYbkn の数をZbkn とすると式(4) 、
式(5) で表わされる。
【0028】
【数2】 λa =Zakn /( Zakn +Zbkn ) ...(4) λb =Zbkn /( Zakn +Zbkn ) ...(5) このように、HMMパラメータΘa における出力密度関
数Baks とHMMパラメータΘb における出力密度関数
Bbks とが類似する場合には、その類似の度合いを考慮
して出力密度関数Baks とBbks を混合することにより
出力密度関数Bcks を作成し、誤識別データを考慮した
HMMパラメータΘc を得るものである。したがって、
図7の音声認識部704 においてカテゴリーk の識別処理
を実行する場合には、HMMパラメータΘa の尤度P
(Θa )の代わりに、HMMパラメータΘc の尤度P
(Θc )を用いればよいことになる。
【0029】以上説明したように第2の実施例によれ
ば、誤識別データYbkn を考慮した安定なHMMパラメ
ータΘc を、極めて簡便かつ従来の処理と大差ない演算
量で推定することができる。また、各カテゴリー別、状
態別に、誤識別データYbkn から学習した出力密度関数
Bbks の要不要を判定してHMMパラメータΘc を生成
しているので、コンパクトでかつ高精度なHMMパラメ
ータΘc を得ることができる。その結果、実験によれば
HMM辞書のメモリ量を従来の場合に比べて5%未満増
加するだけで、高精度な音声認識を行うことができた。
【0030】次に、本発明の第3の実施例のHMMパラ
メータ学習方法について図3のフローチャートを用いて
説明する。この第3の実施例は、HMMパラメータΘa
により見出される誤識別データ数が所定数以下になるま
で、誤識別データを用いてHMMパラメータΘb を推定
し、推定したHMMパラメータΘb と先のHMMパラメ
ータΘa とを混合してHMMパラメータΘc を生成し、
HMMパラメータΘaの内容をこのHMMパラメータΘc
の内容で置き換え、置き換え後のHMMパラメータΘa
により誤識別データを見出すという処理を順次繰り返
し実行することにより、誤識別データを十分に考慮した
HMMパラメータΘc を得るものである。
【0031】図3において、ステップS301、S303、S30
4、S307の各処理は、図2に示す第2の実施例のステッ
プS201、S202、S203、S204の各処理とそれぞれ同じであ
る。まず、図3のステップS301では、カテゴリー kに属
する複数の音声学習データを分析してその特徴ベクトル
(以下学習データという)Yakn を求め、ステップS302
では、繰り返し数(n) を n=1 に、誤り総数( Err) を
Err(0) =Zにそれぞれ設定する。ここで、Zは、学習
データYknの総数である。ステップS303では、ステップ
S301で求めた学習データYakn を用いてBW法によりH
MMパラメータΘa を推定する。
【0032】ステップS304では、ステップS303で推定し
たHMMパラメータΘa またはステップS309で得たHM
MパラメータΘa により学習データYakn を識別し、カ
テゴリーk 以外のデータであると間違って識別された誤
識別データYbkn を見いだす。ここで、繰り返し数がn
であるとき、過識別データYbkn の数である誤り総数
は、Err(n) で表わされる。ステップS305では、この誤
り総数Err(n) と前回の誤り総数Err(n−1)とを用い
て、式(6) により改善率R(n) を算出する。
【0033】 R(n) =(Err(n−1)−Err(n))/Z ...(6) ステップS306では、ステップS305で求めた改善率R(n)
と予め定められた値Fとを比較する。そして、改善率R
(n) が値Fより小さいときは、現段階のHMMパラメー
タΘa は誤識別データを既に十分考慮したものであるの
で、これを最終的に得られたモデルのHMMパラメータ
として処理を終了する。逆に、改善率R(n) が値Fより
大きいかまたは等しいときは、現段階のHMMパラメー
タΘa は誤識別データを十分に考慮したものではないの
で、HMMパラメータΘa を再推定するためステップS3
07へ進む。ステップS307では、繰り返し数をn = n+1
とし、BW法により、ステップS304で見いだした誤識別
データYbkn を用いてHMMパラメータΘb を推定す
る。
【0034】ステップS308では、ステップS303で推定し
たHMMパラメータΘa またはステップS309で得られた
HMMパラメータΘa と、ステップS307で推定されたH
MMパラメータΘb とを混合してHMMパラメータΘc
を作成する。この混合方法について以下に詳細に説明す
る。なお、HMMの出力密度関数は正規分布とし、HM
MパラメータΘa における出力密度関数はMaks 個の混
合分布とし、説明を簡単にするために、HMMパラメー
タΘa における各出力密度関数およびHMMパラメータ
Θb における出力密度関数はそれぞれ単一正規分布とす
る。また、HMMパラメータΘa におけるカテゴリーk
、状態s のm 番目の出力密度関数をBaksmとし、HM
MパラメータΘb 、Θc におけるカテゴリーk 、状態s
の出力密度関数をそれぞれBbks 、Bcks とし、出力密
度関数Baksm、Bbks の平均ベクトルをそれぞれμaksm
(i) 、μbks(i)とする。
【0035】ところで、出力密度関数BaksmとBbks の
類似性は、両者の距離によって表わすことができる。出
力密度関数BaksmとBbks との距離D(Baksm, Bbks
)を、最も簡単な距離定義である平均ベクトル間のユ
ークリッド距離を用いて表わすと式(7) のようになる。
【0036】
【数3】 なお、距離D(Baksm, Bbks )は、Kullback、Cherno
ff、Bhattachayya距離(例えば、文献1の第80〜81頁)
を用いて定義してもよい。ここで、Maks 個の出力密度
関数Baksm(m =1,...,Maks )のうちBbks との距離
D(Baksm, Bbks )が最小値となる距離をDD(Bak
s,Bbks )とすると、DD(Baks,Bbks )は、(8) 式
により表わされる。
【0037】
【数4】 この距離DD(Baks,Bbks )が予め定められた閾値E
よりも小さいとき(DD(Baks,Bbks)〈E)、出力密
度関数Baks とBbks とは互いに類似する分布であるの
で、HMMパラメータΘc における出力密度関数Bcks
は、式(9) のようにHMMパラメータΘa の出力密度関
数Bask (またはBbks )で表わすことができる。した
がって、この場合には、出力密度関数Baks とBbks と
を混合して出力密度関数Bcks を生成する必要はないの
で、それだけHMM辞書をコンパクトにすることができ
る。
【0038】Bcks =Baks ...(9) 逆に、距離DD(Baks,Bbks)が予め定められた閾値E
より大きいかまたは等しいとき(DD(Baks,Bbks)≧
E)、出力密度関数Baks とBbks とは互いに非類似の
分布となるので、出力密度関数Bcks は、式(10)のよう
に出力密度関数Baks とBbks を混合することにより生
成することができる。
【0039】
【数5】 ここでλa 、λb は、それぞれ出力密度関数Baks 、B
bks の分岐確率であり、学習データYakn の数をZakn
、誤識別データYbkn の数をZbkn とすると式(11)、
式(12)で表わされる。
【0040】
【数6】λa =Zakn /( Zakn +Zbkn ) ...(11) λb =Zbkn /( Zakn +Zbkn ) ...(12) ステップS309では、HMMパラメータΘa の内容をステ
ップS308で得られたHMMパラメータΘc の内容で置き
換えてステップS304に進む。そして、ステップS304から
S309までの処理を、ステップS306において改善率R(n)
が値Fより小さいと判定されるまで繰り返し実行する。
これにより、誤識別データを十分に考慮したHMMパラ
メータΘc を得ることができ、また、追加される出力密
度関数Bbks の数は、誤識別データ数Zbkn の大小に応
じて自動的に設定されることになる。
【0041】以上説明したように第3の実施例によれ
ば、誤識別データYbkn を考慮した安定なHMMパラメ
ータΘc を、極めて簡便かつ従来の処理と大差ない演算
量で推定することができる。また、追加される出力密度
関数Bbks の数は、各カテゴリ別、状態別に、誤識別デ
ータ数の大小に対応して自動的に設定されるので、どの
カテゴリにおいても適切なHMMパラメータ数を持つH
MM辞書を生成することができる。その結果、カテゴリ
内のデータ分布と誤り分布に応じたHMM辞書を生成す
ることが可能となり、カテゴリの設定基準が明確に決め
にくい場合や設定基準が多少不適切な場合においても、
高い識別精度をもつHMM辞書を得ることができる。
【0042】次に、本発明の第4の実施例のHMMパラ
メータ学習方法について図4のフローチャートを用いて
説明する。先に説明した第3の実施例では、出力密度関
数Baks とBbks を混合することにより生成したHMM
パラメータΘc の内容でHMMパラメータΘa の内容を
置き換え、置き換え後のHMMパラメータΘa に基づい
てHMMパラメータを再推定しているが、この第4の実
施例は、出力密度関数Baks とBbks を混合することに
より生成したHMMパラメータΘc を初期値としてBW
法によりHMMパラメータΘa を推定し、このHMMパ
ラメータΘa によりHMMパラメータを再推定するもの
である。
【0043】図4において、ステップS401からS408まで
の各処理は、図3に示す第3の実施例のステップS301か
らS308までの各処理とそれぞれ同じであるので、説明を
省略する。ステップS408に続くステップS409では、ステ
ップS408で得られたHMMパラメータΘc を初期値とし
て、BW法により、学習データYknを用いてHMMパラ
メータΘa を推定する。ステップS408で作成したHMM
パラメータΘc は、出力密度関数Baks とBbks を混合
しただけであり、このHMMパラメータΘc が学習デー
タ全体に対して適切であるかどうかは必ずしも保証され
ていない。そこで、ステップS409において、HMMパラ
メータΘc を初期値としてBW法により、HMMパラメ
ータを再学習することにより、より適切なHMMパラメ
ータΘaを得るものである。
【0044】ステップS409の処理を終了するとステップ
S404に進む。そして、ステップS404からS409までの処理
を、ステップS406において改善率R(n) が値Fより小さ
いと判定されるまで繰り返し順次実行する。これによ
り、誤識別データを十分に考慮したHMMパラメータΘ
a を得ることができ、また、追加される出力密度関数B
bks の数は、誤識別データ数Zbkn の大小に応じて自動
的に設定されることになる。
【0045】以上説明したように第4の実施例によれ
ば、誤識別データをYbkn を考慮した安定なHMMパラ
メータΘc を、極めて簡便かつ従来の処理と大差ない演
算量で推定することができる。また、各カテゴリ別、状
態別に、誤りデータの大小に対応したパラメータを追加
したHMM辞書を更に全体の学習データYknにより再学
習することにより、追加前のパラメータΘa と追加する
パラメータΘb との整合をとっているので、より少ない
パラメータ増加数でどのカテゴリにおいても適切なHM
Mパラメータ数を持つHMM辞書を生成することができ
る。その結果、カテゴリ内のデータ分布と誤り分布に応
じたHMM辞書を生成することが可能となり、カテゴリ
の設定基準が明確に決めにくい場合や設定基準が多少不
適切な場合においても、高い識別精度をもつHMM辞書
を得ることができる。
【0046】次に、本発明の第5の実施例のHMMパラ
メータ学習方法について図5のフローチャートを用いて
説明する。先に説明した第4の実施例は、HMMパラメ
ータΘa の推定をBW法により行い(ステップS403)、
また、HMMパラメータΘaの再推定をHMMパラメー
タΘc を初期値とするBW法により行っている(ステッ
プS409)のに対して、この第5の実施例は、HMMパラ
メータΘa の推定を、BW法により推定したHMMパラ
メータΘaaを初期値とするMCE法により行い(ステッ
プS504)、また、HMMパラメータΘa の再推定を、H
MMパラメータΘc を初期値とするMCE法により行う
(ステップS510)ものであり、より高性能のHMM辞書
を実現しようとするものである。
【0047】図5において、ステップS501からS503まで
の各処理は、図4に示す第4の実施例のステップS401か
らS403までの各処理と同じであり、ステップS501では、
カテゴリー kに属する複数の音声学習データを分析して
その特徴ベクトル(以下学習データという)Yakn を求
め、ステップS502では、繰り返し数 nおよび誤り総数を
Errを初期設定し、ステップS503では、ステップS501で
求めた学習データYakn を用いてBW法によりHMMパ
ラメータΘaaを推定する。
【0048】ステップS503に続くステップS504では、ス
テップS503で推定したHMMパラメータΘaaを初期値と
してMCE法(例えば、文献2)によりHMMパラメー
タΘa を推定する。BW法が自カテゴリーの尤度を大き
くする学習方法であるのに対して、MCE法は、自カテ
ゴリーの尤度と他カテゴリーの尤度との差を広げるよう
な学習方法であるので、パラメータ数が固定されている
場合、MCE法はBW法より高い性能を得ることができ
る。ステップS504における処理ではパラメータ数が固定
されているので、この高性能のMCE法を用いることに
よりHMMパラメータΘa を推定するものである。
【0049】ステップS505からS509までの各処理は、図
4に示す第4の実施例のステップS404からS408までの各
処理と同じであり、ステップS505では、ステップS504で
推定したHMMパラメータΘa により誤識別データYbk
n を見出し、ステップS506では、その誤識別データYbk
n により改善率R(n) を計算し、ステップS507では、こ
の改善率R(n) と予め定められた値Fとを比較し、ステ
ップS508では、改善率R(n) が値Fより大きい場合は誤
識別データYbkn を用いてHMMパラメータΘb を推定
し、そして、ステップS509では、HMMパラメータΘa
とΘb とを混合してHMMパラメータΘc を生成する。
【0050】ステップS509に続くステップS510では、ス
テップS509で得られたHMMパラメータΘc を初期値と
して、MCE法により、学習データYknを用いてHMM
パラメータΘa を推定する。ステップS510における処理
ではパラメータ数が固定されているので、ステップS504
の場合と同様に、BW法に比べて性能の高いMCE法を
用いて推定処理を行うものである。ステップS510での処
理が終了した後、ステップS505に進む。そして、ステッ
プS505からS510までの処理を、ステップS507において改
善率R(n) が値Fより小さいと判定されるまで繰り返し
順次実行する。これにより、誤識別データを十分に考慮
したHMMパラメータΘa を得ることができる。
【0051】以上説明したように第5の実施例によれ
ば、誤識別データをYbkn を考慮した安定なHMMパラ
メータΘc を推定することができる。また、各カテゴリ
別、状態別に、誤りデータの大小に対応したパラメータ
を追加した辞書を更に全体の学習データYknにより誤り
最小化基準(MCE法)で再学習しているので、どのカ
テゴリにおいても必要最小限のHMMパラメータ数で、
最大の識別性能を持つ辞書を生成することができる。し
たがって、コンパクトでかつ非常に高い識別精度をもつ
HMM辞書を得ることができる。
【0052】なお、本発明は、多次元正規出力確率HM
Mを用いた全ての音声認識装置やパタン認識装置にも適
用することができる。
【0053】
【発明の効果】このように本発明によれば、誤識別デー
タを考慮したHMMパラメータを極めて簡便かつ従来の
処理と大差ない演算量で推定することができる。また、
各カテゴリー別、状態別に、誤識別データから学習した
出力密度関数の要不要を判定してHMMパラメータを生
成しているので、コンパクトでかつ高精度なHMMパラ
メータを得ることができる。また、追加される出力密度
関数の数は、各カテゴリ別、状態別に、誤識別データ数
の大小に対応して自動的に設定されるので、どのカテゴ
リにおいても適切なHMMパラメータ数を持つHMM辞
書を生成することができる。
【0054】また、各カテゴリ別、状態別に、誤りデー
タの大小に対応したパラメータを追加した辞書を更に全
体の学習データにより再学習することにより、追加前の
パラメータと追加するパラメータとの整合をとっている
ので、より少ないパラメータ増加数でどのカテゴリにお
いても適切なHMMパラメータ数を持つHMM辞書を生
成することができる。また、各カテゴリ別、状態別に、
誤りデータの大小に対応したパラメータを追加したHM
M辞書を更に全体の学習データにより識別誤り最小化基
準(MCE法)で再学習するようにすれば、どのカテゴ
リにおいても必要最小限のHMMパラメータ数で、最大
の識別性能を持つHMM辞書を生成することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施例のHMMパラメータ学習
方法を示すフローチャートである。
【図2】本発明の第2の実施例のHMMパラメータ学習
方法を示すフローチャートである。
【図3】本発明の第3の実施例のHMMパラメータ学習
方法を示すフローチャートである。
【図4】本発明の第4の実施例のHMMパラメータ学習
方法を示すフローチャートである。
【図5】本発明の第5の実施例のHMMパラメータ学習
方法を示すフローチャートである。
【図6】HMMの説明図である。
【図7】HMMを用いた音声認識装置の構成図である。
【符号の説明】
701 学習データ記憶部 702 HMMパラメータ学習部 703 HMMパラメータ記憶部 704 音声認識部

Claims (12)

    【特許請求の範囲】
  1. 【請求項1】 学習データを用いてBW法により第1の
    HMMパラメータを推定する第1の工程と、 前記第1のHMMパラメータにより前記学習データを識
    別することにより識別誤りを起こした誤識別データを見
    いだす第2の工程と、 前記誤識別データを用いてBW法により第2のHMMパ
    ラメータを推定する第3の工程とを含み、前記第1のH
    MMパラメータおよび第2のHMMパラメータはデータ
    識別処理において併用されるものであることを特徴とす
    るHMMパラメータ学習方法。
  2. 【請求項2】 学習データを用いてBW法により第1の
    HMMパラメータを推定する第1の工程と、 前記第1のHMMパラメータにより前記学習データを識
    別することにより識別誤りを起こした誤識別データを見
    いだす第2の工程と、 前記誤識別データを用いてBW法により第2のHMMパ
    ラメータを推定する第3の工程と、 前記第1のHMMパラメータと第2のHMMパラメータ
    を混合して第3のHMMパラメータを生成する第4の工
    程とを含み、該第3のHMMパラメータをモデルのHM
    Mパラメータとすることを特徴とするHMMパラメータ
    学習方法。
  3. 【請求項3】 学習データを用いてBW法により第1の
    HMMパラメータを推定する第1の工程と、 前記第1のHMMパラメータにより前記学習データを識
    別することにより識別誤りを起こした誤識別データを見
    いだす第2の工程と、 前記誤識別データを用いてBW法により第2のHMMパ
    ラメータを推定する第3の工程と、 前記第1のHMMパラメータと第2のHMMパラメータ
    を混合して第3のHMMパラメータを生成する第4の工
    程と、 前記第1のHMMパラメータの内容を前記第3のHMM
    パラメータの内容で置き換える第5の工程とを含み、 前記第2の工程から第5の工程までの処理を、前記第2
    の工程で見いだす誤識別データの数が所定値以下になる
    まで順次繰り返し実行し、実行後の前記第3のHMMパ
    ラメータをモデルのHMMパラメータとすることを特徴
    とするHMMパラメータ学習方法。
  4. 【請求項4】 学習データを用いてBW法により第1の
    HMMパラメータを推定する第1の工程と、 前記第1のHMMパラメータにより前記学習データを識
    別することにより識別誤りを起こした誤識別データを見
    いだす第2の工程と、 前記誤識別データを用いてBW法により第2のHMMパ
    ラメータを推定する第3の工程と、 前記第1のHMMパラメータと第2のHMMパラメータ
    を混合して第3のHMMパラメータを生成する第4の工
    程と、 前記第3のHMMパラメータを初期値としてBW法によ
    り第4のHMMパラメータを推定し、前記第1のHMM
    パラメータの内容を該第4のHMMパラメータの内容で
    置き換える第5の工程とを含み、 前記第2の工程から第5の工程までの処理を、前記第2
    の工程で見いだす誤識別データの数が所定値以下になる
    まで順次繰り返し実行し、実行後の前記第4のHMMパ
    ラメータをモデルのHMMパラメータとすることを特徴
    とするHMMパラメータ学習方法。
  5. 【請求項5】 学習データを用いてBW法によりHMM
    パラメータを推定し、推定した該HMMパラメータを初
    期値としてMCE法により第1のHMMパラメータを推
    定する第1の工程と、 前記第1のHMMパラメータにより前記学習データを識
    別することにより識別誤りを起こした誤識別データを見
    いだす第2の工程と、 前記誤識別データを用いてBW法により第2のHMMパ
    ラメータを推定する第3の工程と、 前記第1のHMMパラメータと第2のHMMパラメータ
    を混合して第3のHMMパラメータを生成する第4の工
    程と、 前記第3のHMMパラメータを初期値としてMCE法に
    より第4のHMMパラメータを推定し、前記第1のHM
    Mパラメータの内容を該第4のHMMパラメータの内容
    で置き換える第5の工程とを含み、 前記第2の工程から第5の工程までの処理を、前記第2
    の工程で見いだす誤識別データの数が所定値以下になる
    まで順次繰り返し実行し、実行後の前記第4のHMMパ
    ラメータをモデルのHMMパラメータとすることを特徴
    とするHMMパラメータ学習方法。
  6. 【請求項6】 請求項2ないし5のいずれかに記載の方
    法において、前記第4の工程は、前記第1のHMMパラ
    メータと第2のHMMパラメータ間の類似性を判定し、
    類似性がないときは両パラメータを混合して前記第3の
    HMMパラメータを生成し、類似性があるときは両パラ
    メータのいずれか一方を前記第3のHMMパラメータと
    することを特徴とするHMMパラメータ学習方法。
  7. 【請求項7】 請求項6に記載の方法において、前記混
    合は、前記第1のHMMパラメータと第2のHMMパラ
    メータとの出力密度関数を、学習データ数と誤識別デー
    タ数の割合に応じて加算するものであることを特徴とす
    るHMMパラメータ学習方法。
  8. 【請求項8】 学習データを用いてBW法により第1の
    HMMパラメータを推定する第1のHMMパラメータ推
    定手段と、 前記第1のHMMパラメータにより前記学習データを識
    別することにより識別誤りを起こした誤識別データを見
    いだす誤識別データ検出手段と、 前記誤識別データを用いてBW法により第2のHMMパ
    ラメータを推定する第2のHMMパラメータ推定手段と
    を含み、前記第1のHMMパラメータおよび第2のHM
    Mパラメータはデータ識別処理において併用されるもの
    であることを特徴とするHMMパラメータ学習装置。
  9. 【請求項9】 学習データを用いてBW法により第1の
    HMMパラメータを推定する第1のHMMパラメータ推
    定手段と、 前記第1のHMMパラメータにより前記学習データを識
    別することにより識別誤りを起こした誤識別データを見
    いだす誤識別データ検出手段と、 前記誤識別データを用いてBW法により第2のHMMパ
    ラメータを推定する第2のHMMパラメータ推定手段
    と、 前記第1のHMMパラメータと第2のHMMパラメータ
    を混合して第3のHMMパラメータを生成する生成手段
    とを含み、該第3のHMMパラメータをモデルのHMM
    パラメータとすることを特徴とするHMMパラメータ学
    習装置。
  10. 【請求項10】 学習データを用いてBW法により第1
    のHMMパラメータを推定する第1のHMMパラメータ
    推定手段と、 前記第1のHMMパラメータにより前記学習データを識
    別することにより識別誤りを起こした誤識別データを見
    いだす誤識別データ検出手段と、 前記誤識別データを用いてBW法により第2のHMMパ
    ラメータを推定する第2のHMMパラメータ推定手段
    と、 前記第1のHMMパラメータと第2のHMMパラメータ
    を混合して第3のHMMパラメータを生成する生成手段
    と、 前記第1のHMMパラメータの内容を前記第3のHMM
    パラメータの内容で置き換える置き換え手段と、 前記誤識別データ検出手段、第2のHMMパラメータ推
    定手段、生成手段、および置き換え手段を制御する制御
    手段とを含み、 該制御手段は、前記誤識別データ検出手段により見いだ
    された誤識別データの数が所定値以下になるまで、前記
    誤識別データ検出手段から置き換え手段までを順次繰り
    返し動作させ、前記誤識別データの数が所定値以下にな
    ったときの前記第3のHMMパラメータをモデルのHM
    Mパラメータとすることを特徴とするHMMパラメータ
    学習装置。
  11. 【請求項11】 学習データを用いてBW法により第1
    のHMMパラメータを推定する第1のHMMパラメータ
    推定手段と、 前記第1のHMMパラメータにより前記学習データを識
    別することにより識別誤りを起こした誤識別データを見
    いだす誤識別データ検出手段と、 前記誤識別データを用いてBW法により第2のHMMパ
    ラメータを推定する第2のHMMパラメータ推定手段
    と、 前記第1のHMMパラメータと第2のHMMパラメータ
    を混合して第3のHMMパラメータを生成する生成手段
    と、 前記第3のHMMパラメータを初期値としてBW法によ
    り第4のHMMパラメータを推定し、前記第1のHMM
    パラメータの内容を該第4のHMMパラメータの内容で
    置き換える置き換え手段と、 前記誤識別データ検出手段、第2のHMMパラメータ推
    定手段、生成手段、および置き換え手段を制御する制御
    手段とを含み、 該制御手段は、前記誤識別データ検出手段により見いだ
    された誤識別データの数が所定値以下になるまで、前記
    誤識別データ検出手段から置き換え手段までを順次繰り
    返し動作させ、前記誤識別データの数が所定値以下にな
    ったときの前記第4のHMMパラメータをモデルのHM
    Mパラメータとすることを特徴とするHMMパラメータ
    学習装置。
  12. 【請求項12】 学習データを用いてBW法によりHM
    Mパラメータを推定し、推定した該HMMパラメータを
    初期値としてMCE法により第1のHMMパラメータを
    推定する第1のHMMパラメータ推定手段と、 前記第1のHMMパラメータにより前記学習データを識
    別することにより識別誤りを起こした誤識別データを見
    いだす誤識別データ検出手段と、 前記誤識別データを用いてBW法により第2のHMMパ
    ラメータを推定する第2のHMMパラメータ推定手段
    と、 前記第1のHMMパラメータと第2のHMMパラメータ
    を混合して第3のHMMパラメータを生成する生成手段
    と、 前記第3のHMMパラメータを初期値としてMCE法に
    より第4のHMMパラメータを推定し、前記第1のHM
    Mパラメータの内容を該第4のHMMパラメータの内容
    で置き換える置き換え手段と、 前記誤識別データ検出手段、第2のHMMパラメータ推
    定手段、生成手段、および置き換え手段を制御する制御
    手段とを含み、 該制御手段は、前記誤識別データ検出手段により見いだ
    された誤識別データの数が所定値以下になるまで、前記
    誤識別データ検出手段から置き換え手段までを順次繰り
    返し動作させ、前記誤識別データの数が所定値以下にな
    ったときの前記第4のHMMパラメータをモデルのHM
    Mパラメータとすることを特徴とするHMMパラメータ
    学習装置。
JP9191116A 1997-07-16 1997-07-16 Hmmパラメータ学習方法と装置 Withdrawn JPH1138993A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9191116A JPH1138993A (ja) 1997-07-16 1997-07-16 Hmmパラメータ学習方法と装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9191116A JPH1138993A (ja) 1997-07-16 1997-07-16 Hmmパラメータ学習方法と装置

Publications (1)

Publication Number Publication Date
JPH1138993A true JPH1138993A (ja) 1999-02-12

Family

ID=16269140

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9191116A Withdrawn JPH1138993A (ja) 1997-07-16 1997-07-16 Hmmパラメータ学習方法と装置

Country Status (1)

Country Link
JP (1) JPH1138993A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022137439A1 (ja) * 2020-12-24 2022-06-30 日本電気株式会社 情報処理システム、情報処理方法、及びコンピュータプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022137439A1 (ja) * 2020-12-24 2022-06-30 日本電気株式会社 情報処理システム、情報処理方法、及びコンピュータプログラム

Similar Documents

Publication Publication Date Title
JP6820058B2 (ja) 音声認識方法、装置、デバイス、及び記憶媒体
US5577164A (en) Incorrect voice command recognition prevention and recovery processing method and apparatus
JP4724377B2 (ja) 自然言語理解(NLU)システムにおける規則ベース文法に関するスロットおよび前終端記号(preterminal)に関する統計モデル
US6735588B2 (en) Information search method and apparatus using Inverse Hidden Markov Model
KR102133825B1 (ko) 단어자질을 강화한 음성 대화 방법 및 시스템
US20040024598A1 (en) Thematic segmentation of speech
US8019594B2 (en) Method and apparatus for progressively selecting features from a large feature space in statistical modeling
JP4930379B2 (ja) 類似文検索方法、類似文検索システム及び類似文検索用プログラム
JP2006243728A (ja) 音素をテキストに変換する方法、そのコンピュータシステム、及びコンピュータプログラム
GB2271210A (en) Boundary estimation in speech recognition
CN110930993A (zh) 特定领域语言模型生成方法及语音数据标注系统
US8019593B2 (en) Method and apparatus for generating features through logical and functional operations
CN112380841B (zh) 一种中文拼写纠错方法、装置、计算机设备及存储介质
JP2020024277A (ja) データ・セグメンテーション装置
CN111159350B (zh) 用户说法挖掘扩增方法、装置、终端及存储介质
JP2018156418A (ja) 修正装置、修正方法および修正プログラム
JPH1138993A (ja) Hmmパラメータ学習方法と装置
JP4533160B2 (ja) 識別的学習方法、装置、プログラム、識別的学習プログラムを記録した記録媒体
CN111626059B (zh) 一种信息处理方法及装置
Brejová et al. The most probable labeling problem in HMMs and its application to bioinformatics
CN104166850A (zh) 一种语音识别应用系统的解决敏感词未知性的方法
Rademacher et al. Efficient Bayesian sequential classification under the Markov assumption for various loss functions
JP2014081743A (ja) 情報処理装置及び方法、並びにパターン認識装置
US20230230584A1 (en) System and method for simultaneously identifying intent and slots in voice assistant commands
Liu et al. BER: Balanced Error Rate For Speaker Diarization

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20041005