JPH064092A - Hmm generating device, hmm storage device, likelihood calculating device, and recognizing device - Google Patents

Hmm generating device, hmm storage device, likelihood calculating device, and recognizing device

Info

Publication number
JPH064092A
JPH064092A JP4159834A JP15983492A JPH064092A JP H064092 A JPH064092 A JP H064092A JP 4159834 A JP4159834 A JP 4159834A JP 15983492 A JP15983492 A JP 15983492A JP H064092 A JPH064092 A JP H064092A
Authority
JP
Japan
Prior art keywords
hmm
label
state
vector
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4159834A
Other languages
Japanese (ja)
Inventor
Hidekazu Tsuboka
英一 坪香
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP4159834A priority Critical patent/JPH064092A/en
Publication of JPH064092A publication Critical patent/JPH064092A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To obtain the recognizing device using HMM(Hidden Markov Model) which has high recognition precision and is small in calculation quantity. CONSTITUTION:The device is equipped with continuous probability distribution HMM generating means 101, 102, and 104 which generate a continuous probability distribution HMM, a clustering means 106 which clusters learnt vectors, and a generation degree calculating means 108 which calculates the generation degrees of respective clusters in respective states of the HMM from probability density functions in the respective states of the continuous type HMM; and the generation degrees are used as generation degrees in the respective states of the respective cluster levels to generate a discrete probability distribution HMM.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】音声認識等のパターン認識に適用
可能なHMM(ヒト゛ン マルコフ モテ゛ル(Hidden Markov Mode
l))作成装置、HMM記憶装置、尤度計算装置及び、認
識装置に関するものである。
[Industrial application] HMM (Hidden Markov Mode) applicable to pattern recognition such as voice recognition
l)) A creation device, an HMM storage device, a likelihood calculation device, and a recognition device.

【0002】[0002]

【従来の技術】HMMは一般の時系列信号の処理に適用
可能なものであるが、説明の便宜のために、以下、音声
認識に適用した例を説明する。
2. Description of the Related Art An HMM is applicable to general time series signal processing, but for convenience of description, an example applied to speech recognition will be described below.

【0003】先ずHMMを用いた音声認識装置について
説明する。
First, a voice recognition device using an HMM will be described.

【0004】図3は、HMMを用いた音声認識装置のブ
ロック図である。音声分析部201は、入力音声信号を
フィルタバンク、フーリエ変換、LPC分析等の周知の
方法により、一定時間間隔(フレームと呼ぶ)例えば1
0msec毎に特徴ベクトルに変換する。従って、入力音声
信号は特徴ベクトルの系列Y=(y(1),y(2),・・・,y
(T))に変換される。Tはフレーム数である。コードブ
ック202は、ラベル付けされた代表ベクトルを保持し
ている。ベクトル量子化部203は、前記ベクトル系列
Yのそれぞれのベクトルをそれに最も近い前記コードブ
ック202に登録されている代表ベクトルに対応するラ
ベルに置き換えるものである。HMM作成部204は、
訓練データから認識語彙たる各単語に対応するHMMを
作成するものである。即ち、単語vに対応するHMMを
作るには、先ず、HMMの構造(状態数やそれら状態の
間に許される遷移規則)を適当に定め、然る後に前記の
如くして単語vを多数回発声して得られたラベル系列か
ら、それらラベル系列の発生確率が出来るだけ高くなる
ように、前記モデルにおける状態遷移確率や状態の遷移
に伴って発生するラベルの発生確率を求めるものであ
る。HMM記憶部205は、このようにして得られたH
MMを各単語毎に記憶するものである。尤度計算部20
6は、認識すべき未知入力音声のラベル系列に対し、前
記HMM記憶部205に記憶されているそれぞれのモデ
ルのそのラベル系列に対する尤度を計算するものであ
る。比較判定部207は尤度計算部206で得られた前
記それぞれのモデルの尤度の最大値を与えるモデルに対
応する単語を認識結果として判定するものである。
FIG. 3 is a block diagram of a voice recognition device using an HMM. The voice analysis unit 201 uses a well-known method such as a filter bank, Fourier transform, or LPC analysis for the input voice signal to set a fixed time interval (called a frame), for example, 1
Convert to a feature vector every 0 msec. Therefore, the input speech signal is a sequence of feature vectors Y = (y (1), y (2), ..., Y
(T)). T is the number of frames. The codebook 202 holds the labeled representative vector. The vector quantization unit 203 replaces each vector of the vector series Y with a label corresponding to the representative vector registered in the codebook 202 that is closest to the vector. The HMM creating unit 204
The HMM corresponding to each word which is a recognition vocabulary is created from the training data. That is, in order to create the HMM corresponding to the word v, first, the structure of the HMM (the number of states and the transition rules allowed between those states) is appropriately determined, and then the word v is repeated many times as described above. From the label sequences obtained by uttering, the state transition probabilities in the model and the label occurrence probabilities associated with the state transitions are calculated so that the occurrence probabilities of the label sequences are as high as possible. The HMM storage unit 205 stores the H thus obtained.
The MM is stored for each word. Likelihood calculator 20
6 calculates the likelihood of the label sequence of each model stored in the HMM storage unit 205 with respect to the label sequence of the unknown input speech to be recognized. The comparison determination unit 207 determines a word corresponding to the model that gives the maximum value of the likelihood of each model obtained by the likelihood calculation unit 206 as a recognition result.

【0005】このHMMによる認識は具体的には次のよ
うにして行われる。即ち、未知入力に対して得られたラ
ベル系列をO=(o(1),o(2),・・・,o(T))、単語vに
対応したモデルをλvとし、モデルλvにより発生される
長さTの任意の状態系列を1、X=(x(1),x(2),・・
・,x(T))とするとき、λvのラベル系列Oに対する尤度
は〔厳密解〕
The recognition by the HMM is specifically performed as follows. That is, the label sequence obtained for the unknown input is O = (o (1), o (2), ..., O (T)), the model corresponding to the word v is λ v , and the model λ v , An arbitrary state sequence of length T generated by X = (x (1), x (2), ...
, X (T)), the likelihood of λ v for the label sequence O is [exact solution]

【0006】[0006]

【数1】 [Equation 1]

【0007】〔近似解〕[Approximate Solution]

【0008】[0008]

【数2】 [Equation 2]

【0009】または、対数をとってOr, taking the logarithm

【0010】[0010]

【数3】 [Equation 3]

【0011】で定義される。ここで、P(x,y|λv)
は、モデルλvにおけるx,yの同時確率である。
Is defined by Where P (x, y | λ v )
Is the joint probability of x and y in the model λ v .

【0012】従って、例えば、(数1)を用いればTherefore, if, for example, (Equation 1) is used,

【0013】[0013]

【数4】 [Equation 4]

【0014】とするとき、v^が認識結果となる。(数
2),(数3)を用いるときも同様である。
Then, v ^ is the recognition result. The same applies when using (Equation 2) and (Equation 3).

【0015】P(O,X|λ) は次のようにして求められ
る。
P (O, X | λ) is obtained as follows.

【0016】いま、HMMλの状態qi(i=1〜I)に
対して、状態qi毎に、ラベルoの発生確率bi(o)と状
態qi(i=1〜I)から状態qj(j=1〜I+1)への遷
移確率aijが与えられているとき、状態系列X=(x
(1),x(2),・・・,x(T+1))とラベル系列O=(o
(1),o(2),・・・,o(T))のHMMλから発生する同時
確率は
Now, for the state q i (i = 1 to I) of the HMMλ, for each state q i , the occurrence probability b i (o) of the label o and the state q i (i = 1 to I) When the transition probability a ij to q j (j = 1 to I + 1) is given, the state sequence X = (x
(1), x (2), ..., x (T + 1)) and label series O = (o
(1), o (2), ..., o (T))

【0017】[0017]

【数5】 [Equation 5]

【0018】と定義出来る。ここでπx(1)は状態x(1)
の初期確率である。また、x(T+1)=I+1は最終状
態であって、如何なるラベルも発生しないとする。
It can be defined as Where π x (1) is the state x (1)
Is the initial probability of. It is also assumed that x (T + 1) = I + 1 is the final state and no label is generated.

【0019】この例では入力の特徴ベクトルyをラベル
に変換したが、各状態におけるラベルの発生確率の代り
に特徴ベクトルyをそのまま用い、各状態において特徴
ベクトルyの確率密度関数を与える方法もある。このと
きは(数5)における前記ラベルoの状態qiにおける
発生確率bi(o) の代わりに特徴ベクトルyの確率密度
i(y)を用いることになる(以後、zがラベルのとき
はbi(z)はzが状態iにおいて生じる確率、zがベク
トルのときはbi(z)はzの確率密度を意味するものと
する)。このときは、前記(数1)、(数2)、(数
3)は次のようになる。 〔厳密解〕
In this example, the input feature vector y is converted into a label, but there is also a method of using the feature vector y as it is in place of the label occurrence probability in each state and providing the probability density function of the feature vector y in each state. . At this time, the occurrence probability b i (o) in the state q i of the label o in (Equation 5) B i when instead would use a probability density b i (y) of the feature vector y in (hereinafter, the probability z is generated in b i (z) is z state i when the label, z is a vector of (z) means the probability density of z). At this time, the above (Formula 1), (Formula 2), and (Formula 3) are as follows. [Exact solution]

【0020】[0020]

【数6】 [Equation 6]

【0021】〔近似解〕[Approximate Solution]

【0022】[0022]

【数7】 [Equation 7]

【0023】または、対数をとれば次式が得られる。Alternatively, the following equation can be obtained by taking the logarithm.

【0024】[0024]

【数8】 [Equation 8]

【0025】以上、何れの方式を用いるにしても最終的
な認識結果は、それぞれの単語vに対してHMMλv
v=1〜V について準備しておけば、入力音声信号Y
に対して、
The above, final recognition results in the use of any method, if preparing a HMMramuda v for v = 1 to V for each word v, the input speech signal Y
Against

【0026】[0026]

【数9】 [Equation 9]

【0027】あるいはOr

【0028】[0028]

【数10】 [Equation 10]

【0029】がYの認識結果となる。勿論、ここでのY
は前記それぞれ方法に応じて、入力されたラベル系列、
特徴ベクトル系列等である。
Is the recognition result of Y. Of course, Y here
Is the input label sequence according to the above method,
A feature vector series or the like.

【0030】[0030]

【発明が解決しようとする課題】このような従来例にお
いて、入力特徴ベクトルをラベルに変換するものを離散
確率分布HMM、入力特徴ベクトルをそのまま用いるも
のを連続確率分布HMMと以下呼ぶことにする。このと
き、これら両者の特徴は次のようである。
In such a conventional example, the one that transforms the input feature vector into a label is called a discrete probability distribution HMM, and the one that uses the input feature vector as it is is called a continuous probability distribution HMM. At this time, the characteristics of both of them are as follows.

【0031】離散確率分布HMMは、入力ラベル系列に
対するモデルの尤度の計算において、各状態での各ラベ
ルの発生度合bi(Cm)はラベルに関連して予め記憶され
ている記憶装置から読み出すことで実行できるから計算
量が非常に少ないと言う利点がある反面、量子化に伴う
誤差のため、認識精度が悪くなると言う課題がある。こ
れを避けるためにラベル数(クラスタ数)を多くする必
要があるが、その増加に伴ってモデルを学習するために
必要な学習パターン数が膨大になる。ここで、学習パタ
ーン数が不十分な場合は、前記bi(Cm)が頻繁に0にな
ることがあり、正しい推定が出来なくなる。例えば、次
のようなことが生じる。
In the discrete probability distribution HMM, the occurrence degree b i (C m ) of each label in each state in the calculation of the likelihood of the model with respect to the input label sequence is stored from the storage device stored in advance in association with the label. Although there is an advantage that the amount of calculation is very small because it can be executed by reading out, there is a problem that recognition accuracy deteriorates due to an error associated with quantization. To avoid this, it is necessary to increase the number of labels (the number of clusters), but as the number of labels increases, the number of learning patterns necessary for learning the model becomes enormous. Here, when the number of learning patterns is insufficient, the b i (C m ) may frequently become 0, and correct estimation cannot be performed. For example, the following occurs.

【0032】コードブック作成は、認識すべき全ての単
語について多数の話者の発声音声を特徴ベクトル系列に
変換し、この特徴ベクトルの集合をクラスタリングし、
それぞれのクラスタにラベリングすることによって行わ
れる。それぞれのクラスタは、セントロイドと呼ばれる
そのクラスタの代表ベクトルを持ち、通常これは各々の
クラスタに分類されたベクトルの期待値である。コード
ブックは、これらセントロイドを前記ラベルで検索可能
な形で記憶したものである。
The codebook is created by converting the uttered voices of a large number of speakers into a feature vector sequence for all the words to be recognized, clustering this feature vector set,
This is done by labeling each cluster. Each cluster has a representative vector of that cluster, called the centroid, which is usually the expected value of the vector classified into each cluster. The codebook stores these centroids in a form searchable by the label.

【0033】いま、前記認識語彙の中に、例えば「大
阪」と言う単語があって、これに対応するモデルを作る
場合を考える。多数話者が発声した単語「大阪」に対応
する音声サンプルが特徴ベクトル列に変換され、各々の
特徴ベクトルが前記セントロイドと比較され、最近隣の
セントロイドに対応するラベルがその特徴ベクトルの量
子化されたものとなる。このようにして、前記「大阪」
に対する各々の音声サンプルは、ラベル系列に変換され
る。得られたラベル系列から、それらラベル系列に対す
る尤度が最大になるようにHMMのパラメータを推定す
ることにより、単語「大阪」に対応するモデルが出来上
がる。この推定には周知のホ゛ーム・ウェルチ(Baum-Welch)法等
が用いられ得る。
Now, consider a case where, for example, there is a word "Osaka" in the recognition vocabulary, and a model corresponding to this is made. A voice sample corresponding to the word "Osaka" uttered by a large number of speakers is converted into a feature vector sequence, each feature vector is compared with the centroid, and a label corresponding to the nearest centroid is a quantum of the feature vector. Will be In this way, the "Osaka"
Each voice sample for is converted into a label sequence. A model corresponding to the word "Osaka" is created by estimating the parameters of the HMM from the obtained label series so that the likelihood for the label series is maximized. The well-known Baum-Welch method or the like can be used for this estimation.

【0034】この場合、前記コードブックにあるラベル
の中で、単語「大阪」に対応する学習ラベル系列の中に
は含まれていないものが有り得る。この含まれていない
ラベルの発生確率は学習の過程で“0”と推定されてし
まう。従って、認識の時に発声される「大阪」と言う単
語が変換されたラベル系列の中に、前記「大阪」のモデ
ルの作成に用いたラベル系列には含まれていないラベル
が存在することは十分有り得る。この場合は、この認識
時に発声された「大阪」のラベル系列が前記「大阪」の
モデルから発生する確率は“0”になってしまう。しか
し、このような場合でも、ラベルとしては異なっていて
も、ラベルに変換される前の特徴ベクトルの段階ではモ
デルの学習に用いた音声サンプルとかなり近く、ベクト
ルの段階で見れば十分「大阪」と認識されても良い場合
がある。もともと同じ単語を発声しているのであるから
ベクトルのレベルでは似通っているにも関わらず、ラベ
ルのレベルでは僅かの差で全く異なったラベルに変換さ
れてしまうということは十分起こり得るのであって、こ
のようなことが認識精度に悪影響を及ぼすことは容易に
想像がつく。クラスタ数が増加する程、訓練データ数が
少ない程このような問題は頻繁に生じることになる。
In this case, among the labels in the codebook, some may not be included in the learning label series corresponding to the word "Osaka". The occurrence probability of the label not included is estimated to be "0" in the learning process. Therefore, it is sufficient that there is a label that is not included in the label sequence used to create the model of "Osaka" in the label sequence in which the word "Osaka" converted at the time of recognition is converted. It is possible. In this case, the probability that the “Osaka” label sequence uttered at the time of recognition will occur from the “Osaka” model will be “0”. However, even in such a case, even if the label is different, at the stage of the feature vector before being converted to the label, it is quite close to the speech sample used for learning the model, and if you look at the stage of the vector, it is sufficient to say “Osaka”. It may be recognized that It is quite possible that a label will be converted to a completely different label with a slight difference, even though they are similar at the vector level because they originally speak the same word. It can be easily imagined that such a situation adversely affects the recognition accuracy. Such problems occur more frequently as the number of clusters increases and the number of training data decreases.

【0035】この課題を除去するためには、訓練集合に
は現れてこない(含まれていない)ラベルに対して、平
滑化や補完を行う等の工夫が必要となる。「結び」と呼
ばれる概念を用いてパラメータ数を減少させる工夫をは
じめとして、0確率が推定される場合はそれを0にせず
に微小量に置き換えたり、ファジイベクトル量子化等の
ようにクラスタの境界をぼかしたりする方法等、平滑化
や補完を行う方法が種々提案されているが、何れも上記
課題を根本的に解決するものではない。また、場合に応
じて経験的に決めなければならない要素があって、それ
らの要素を決める理論的な指標はない。
In order to eliminate this problem, it is necessary to take measures such as smoothing and complementing labels that do not appear (are not included) in the training set. Starting from the idea of reducing the number of parameters using the concept called “conclusion”, when the 0 probability is estimated, it is replaced with a small amount instead of 0, or the boundary of the cluster such as fuzzy vector quantization. Although various methods for smoothing and complementing, such as a method for blurring, have been proposed, none of these methods fundamentally solve the above problems. Also, there are factors that must be determined empirically depending on the case, and there is no theoretical indicator that determines those factors.

【0036】他方、連続確率分布HMMは、分布形状は
正規分布等と予め関数の形で与えておき、学習データか
らこの関数を規定するパラメータを推定するものであ
る。従って、推定すべきパラメータ数は少なく、前記離
散型のものに比べて少ない学習パターンで精度良くパラ
メータの推定が出来、平滑化や補完を考える必要もなく
なり、一般に離散型よりも高い認識率の得られることが
報告されている。
On the other hand, in the continuous probability distribution HMM, the distribution shape is given in advance in the form of a function such as a normal distribution and the parameters defining this function are estimated from the learning data. Therefore, the number of parameters to be estimated is small, the parameters can be accurately estimated with less learning patterns than the discrete type, there is no need to consider smoothing and complementation, and generally a higher recognition rate than the discrete type can be obtained. It is reported that

【0037】因に、離散型と連続型とで、図4のような
4状態3ループのHMMにおけるパラメータ数を比較す
れば例えば次のようになる。離散型の場合は用いられる
ラベルの種類を256とすれば、ラベルの発生確率は2
56×3=768、遷移確率は6の計874が1モデル
当り必要である。連続型の場合は10次元の正規分布と
すれば、平均ベクトルは10×3=30、分散共分散行
列は55×3=165(∵対称行列)、遷移確率は6の
計201となり、推定すべきパラメータの値は、連続型
は離散型の1/4以下となる。
The number of parameters in the four-state, three-loop HMM as shown in FIG. 4 is compared between the discrete type and the continuous type, for example, as follows. In the case of the discrete type, if the type of label used is 256, the label occurrence probability is 2
56 × 3 = 768, the transition probability is 6, and a total of 874 are required per model. In the case of the continuous type, if the 10-dimensional normal distribution is used, the average vector is 10 × 3 = 30, the variance / covariance matrix is 55 × 3 = 165 (∵symmetric matrix), and the transition probability is 6, totaling 201. The value of the power parameter in the continuous type is 1/4 or less of that in the discrete type.

【0038】しかしながら、連続型は認識精度の点で優
れているが計算量は離散型に比べて非常に多くなるとい
う課題がある。即ち、入力特徴ベクトルy(t)が、状態
iで平均ベクトルμi、分散共分散行列Σiの正規分布を
するとするき、状態iにおけるy(t)の発生確率(密
度)の計算には(y(t)−μi)TΣi -1(y(t)−μi)なる
計算を必要とし、例えば、10次元の連続型のHMMで
は、この計算だけでも110回のかけ算が必要であり、
1つのモデルに対しては、これの(状態数×入力フレー
ム数)倍になる。従って、入力フレーム数が50フレー
ムの場合で前記モデルを想定すれば、1つのモデル当り
必要とされる(y(t)−μi)TΣi -1(y(t)−μi)の計算
における掛算の回数は、110×3×50=16500
となり、単語数が500であるとさらにこれが500倍
される。即ち、その場合はこの部分の掛け算のみで82
5万回が必要となる。
However, although the continuous type is excellent in recognition accuracy, there is a problem that the amount of calculation becomes much larger than that of the discrete type. That is, assuming that the input feature vector y (t) has a normal distribution of the mean vector μ i and the variance-covariance matrix Σ i in the state i, the calculation of the occurrence probability (density) of y (t) in the state i (y (t) −μ i ) T Σ i −1 (y (t) −μ i ), which is necessary. For example, in a 10-dimensional continuous HMM, this calculation alone requires 110 multiplications. And
This is (number of states x number of input frames) times this for one model. Therefore, if the above model is assumed when the number of input frames is 50, (y (t) −μ i ) T Σ i −1 (y (t) −μ i ) of one model is required. The number of multiplications in the calculation is 110 × 3 × 50 = 16500
When the number of words is 500, this is further multiplied by 500. That is, in that case, only the multiplication of this part is 82
It requires 50,000 times.

【0039】離散型の場合は、ベクトル量子化の計算を
完了すれば、前記のようにラベルに従って記憶装置から
そのラベルの発生確率を読み出すのみでよい。またy
(t)をベクトル量子化するのに必要な計算は、前記の例
では、256個の代表ベクトルとy(t)との距離あるい
は類似度の計算である。距離を(ユークリッド距離)2
する場合は、y(t)をラベル付けするのに必要な計算
は、10回の引算と10回の掛算と10回の足算の25
6倍である。従って50フレームでは、掛算のみで考え
れば、10×256×50=128000回と言うこと
になる。もし、バイナリサーチと呼ばれる方法でベクト
ル量子化する場合は、前記256は2log2256=16
でおきかえて、10×16×50=8000回と言うこ
とになる。
In the case of the discrete type, once the vector quantization calculation is completed, it is only necessary to read the occurrence probability of the label from the storage device according to the label as described above. See y
The calculation required for vector quantization of (t) is the calculation of the distance or the similarity between 256 representative vectors and y (t) in the above example. If the distance is (Euclidean distance) 2 , the calculation required to label y (t) is 25 times 10 subtractions, 10 multiplications, and 10 additions.
6 times. Therefore, in 50 frames, if only multiplication is considered, 10 × 256 × 50 = 1280 thousand times. If the vector quantization is performed by a method called binary search, the above 256 is 2log 2 256 = 16.
In other words, 10 × 16 × 50 = 8000 times.

【0040】以上のように離散型とすることにより計算
量が著しく減少し、連続型の場合は認識単語数が増える
と計算量もそれに比例して増大するが、離散型の場合
は、入力音声信号を一旦ベクトル量子化するときのみこ
の計算が必要なのであって、認識単語数が増えてもこの
計算量は不変である。
As described above, when the discrete type is used, the amount of calculation is remarkably reduced, and when the number of recognized words is increased in the continuous type, the amount of calculation is also increased in proportion thereto. This calculation is necessary only when the signal is vector-quantized once, and this calculation amount does not change even if the number of recognized words increases.

【0041】要するに、離散型の場合は計算量は少ない
が認識精度的に課題があり、連続型の場合は認識精度は
よいが計算量に課題がある。
In short, the discrete type has a small calculation amount but has a problem in recognition accuracy, and the continuous type has a good recognition accuracy but has a problem in the calculation amount.

【0042】本発明は、このような従来のHMMの課題
を考慮し、認識精度が高く、しかも計算量を少なくでき
るHMM作成装置、HMM記憶装置、尤度計算装置及
び、認識装置を提供することを目的とする。
In consideration of such problems of the conventional HMM, the present invention provides an HMM creating device, an HMM storage device, a likelihood calculating device, and a recognizing device which have high recognition accuracy and can reduce the amount of calculation. With the goal.

【0043】[0043]

【課題を解決するための手段】本発明は、連続確率密度
分布HMM作成手段と、訓練ベクトル集合をクラスタリ
ングし各々のクラスタにラベルを付与するクラスタリン
グ手段と、前記HMMの各状態における前記各クラスタ
従って前記ラベルの発生度合を、前記各クラスタに含ま
れる前記訓練ベクトルと、前記連続確率密度分布HMM
の各状態における確率密度関数から算出するラベル発生
度合算出手段とを備え、HMMの各状態におけるラベル
の発生度合を前記ラベル発生度合算出手段の出力として
得ることにより離散確率分布HMMを作成するHMM作
成装置である。
According to the present invention, there is provided a continuous probability density distribution HMM creating means, a clustering means for clustering a training vector set and labeling each cluster, and each cluster in each state of the HMM. The degree of occurrence of the label is calculated based on the training vector included in each cluster and the continuous probability density distribution HMM.
And a label occurrence degree calculating means for calculating from a probability density function in each state of HMM, and obtaining a label occurrence degree in each state of the HMM as an output of the label occurrence degree calculating means to create a discrete probability distribution HMM. It is a device.

【0044】[0044]

【作用】本発明では、連続確率分布HMM作成手段によ
り、該HMMの各状態における確率密度関数を得、クラ
スタリング手段により訓練ベクトル集合をクラスタリン
グし各々のクラスタにラベルを付与し、ラベル発生度合
算出手段により前記HMMの各状態における前記各クラ
スタ従って前記ラベルの発生度合を、前記各クラスタに
含まれる前記訓練ベクトルと、前記連続確率密度分布H
MMの各状態における確率密度関数から算出することに
より、離散確率分布HMMを作成する。
In the present invention, the probability density function in each state of the HMM is obtained by the continuous probability distribution HMM creating means, the training vector set is clustered by the clustering means, and a label is given to each cluster, and the label occurrence degree calculating means. Therefore, the degree of occurrence of each of the clusters in each state of the HMM, that is, the label, is determined by the training vector included in each cluster and the continuous probability density distribution H.
A discrete probability distribution HMM is created by calculating from the probability density function in each state of MM.

【0045】[0045]

【実施例】以下、本発明の実施例について図面を参照し
て説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0046】まず、以後用いる記号の定義をまとめて説
明する。その際、簡単のために、誤解を生じない限り、
状態qi,qj等は単にi,j等と表記することにする。
また、モデルの学習は単語vについて行う場合を述べる
こととし、区別する必要のある場合はパラメータの右肩
に添字vを付加し、通常はこれを省くものとする。以下
の通りである。
First, the definitions of the symbols used hereinafter will be summarized. At that time, for the sake of simplicity, unless misunderstanding occurs,
The states q i , q j, etc. will be simply referred to as i, j, etc.
In addition, the case where the model learning is performed for the word v will be described, and when it is necessary to distinguish them, the subscript v is added to the right shoulder of the parameter, and this is usually omitted. It is as follows.

【0047】i=1,2,・・・,I+1:第i番の状態 [aij]:遷移マトリクス aij:状態iから状態jへの遷移確率 r:単語vに対する訓練パターン番号(r=1,・・・,R) y(r)(t):訓練パターンrの第tフレームにおける観
測ベクトル o(r)(t):訓練パターンrの第tフレームにおける観
測ラベル bi(y(r)(t)):訓練パターンrのフレームtの観測ベ
クトルy(r)(t)の状態iにおける確率密度 bi(o(r)(t)):訓練パターンrのフレームtの観測ラ
ベルo(r)(t)の状態iにおける発生度合(確率、確率
密度、等) y(r)=(y(r)(1),y(r)(2),・・・,y(r)(T(r))):訓
練パターンrのベクトル系列(ただし、r=1,2,・・・,
R) O(r)=(o(r)(1),o(r)(2),・・・,o(r)(T(r))):単
語vに対する第r番のラベル系列(ただし、r=1,2,・
・・,R) X(r)=(x(r)(1),x(r)(2),・・・,x(r)(T(r)),x(r)
(T(r)+1)):X(r)またはO(r)に対応する状態系列 x(r)(t):単語vに対する第r番の訓練パターンの第
tフレームにおける状態 T(r):単語vに対する第r番の訓練パターンのフレー
ム数 μi:bi(y)の平均ベクトル Σi:bi(y)の分散共分散行列 ξi:状態iにおける観測ベクトルの確率分布を規定す
るパラメータの集合 (ξi={μii}) λi=[ξi,{aij}j=1,・・・,I+1 ]:状態iのパラメー
タの集合 λ={λi}:全パラメータの集合(λをパラメータとする
モデルをモデルλとも呼ぶ) P(Y|λ):観測ベクトル系列Yがモデルλから発生す
る確率密度 P(O|λ):観測ラベル系列Oがモデルλから発生する
確率 πi:状態iがt=1で生じる確率 先ず、単語vに対応する連続確率分布HMMを学習する
方法について述べる。
I = 1, 2, ..., I + 1: i-th state [a ij ]: transition matrix a ij : transition probability from state i to state j r: training pattern number for word v (r = 1, ..., R) y (r) (t): observation vector in the t-th frame of the training pattern r o (r) (t): observation label b i (y (r (r) in the t-th frame of the training pattern r ) (t)): probability density b i (o (r) (t)) of observation vector y (r) (t) of frame t of training pattern r in observation state o of frame t of training pattern r (r) (t) occurrence degree in state i (probability, probability density, etc.) y (r) = (y (r) (1), y (r) (2), ..., y (r) (T (r) )): vector sequence of training pattern r (where r = 1, 2, ...,
R) O (r) = (o (r) (1), o (r) (2), ..., O (r) (T (r) )): r-th label series for word v ( However, r = 1, 2, ...
.., R) X (r) = (x (r) (1), x (r) (2), ..., x (r) (T (r) ), x (r)
(T (r) +1)): State sequence corresponding to X (r) or O (r) x (r) (t): State at frame t of the r-th training pattern for word v T (r) : words v the r th training pattern frame number mu i of for: b i (y) mean vector sigma i of: b i (y) of the covariance matrix xi] i: defining a probability distribution of the observed vectors in state i Set of parameters (ξ i = {μ i , Σ i }) λ i = [ξ i , {a ij } j = 1, ..., I + 1 ]: Set of parameters of state i λ = {λ i }: Set of all parameters (a model having λ as a parameter is also referred to as model λ) P (Y | λ): Probability that observation vector series Y occurs from model λ Density P (O | λ): Probability that observation label sequence O is generated from model λ π i : Probability that state i occurs when t = 1 First, a method of learning a continuous probability distribution HMM corresponding to word v will be described.

【0048】問題は、単語vについて準備されたr=1
〜Rの訓練パターンに対して尤度関数P(Y(1),Y(2),
・・・,Y(R)|λ)を最大にするパラメータλを推定するこ
とである。
The problem is that r = 1 prepared for word v.
~ R training patterns P (Y (1) , Y (2) ,
···, Y (R) | is to estimate the parameters lambda to maximize lambda).

【0049】Y(r)が互いに独立であるとすればIf Y (r) are independent of each other,

【0050】[0050]

【数11】 [Equation 11]

【0051】で与えられる。ここで、次の補助関数Q
(λ,λ')を定義する。
Is given by Where the following auxiliary function Q
Define (λ, λ ').

【0052】[0052]

【数12】 [Equation 12]

【0053】このとき、次のことが言える。Q(λ,λ')
≧Q(λ,λ)なら、P(Y(1),…,Y(R)|λ')≧P(Y(1),
…,Y(R)|λ)であって、等号はλ'=λの時に成り立
つ。故に、
At this time, the following can be said. Q (λ, λ ')
If ≧ Q (λ, λ), P (Y (1) , ..., Y (R) | λ ') ≧ P (Y (1) ,
, Y (R) | λ), and the equal sign holds when λ ′ = λ. Therefore,

【0054】[0054]

【数13】 [Equation 13]

【0055】を求めることが出来れば、λ*→λとして
(数13)を繰り返し適用することによって、λはP
(Y(1),…,Y(R)|λ)の停留点、即ち、P(Y(1),…,Y
(R)|λ)の極大値または鞍点を与える点に収束すること
になり、P(Y(1),…,Y(R)|λ)の変化率が予め定めた
閾値以下になるまでこの操作を繰り返すことにより局所
最適解が得られる。
If it is possible to obtain, by repeatedly applying (Equation 13) with λ * → λ, λ becomes P
(Y (1) , ..., Y (R) | λ) stop point, that is, P (Y (1) , ..., Y
The maximum value of (R) | λ) or the point that gives the saddle point is converged, and the change rate of P (Y (1) , ..., Y (R) | λ) becomes equal to or less than a predetermined threshold value. A local optimum solution can be obtained by repeating the operation.

【0056】次にQ(λ,λ')を用いてパラメータを推定
する方法について説明する。
Next, a method of estimating parameters using Q (λ, λ ') will be described.

【0057】(数12)を変形すれば、次式が得られ
る。
By modifying (Equation 12), the following equation is obtained.

【0058】[0058]

【数14】 [Equation 14]

【0059】前述の説明から、Q(λ,λ')をλ'の関数
と見なしてQ(λ,λ')>Q(λ,λ)なるλ'を見出せば、
それはλの更新されたものとなり、P(Y(1),・・・,Y(R)
|λ)はλ'に関しては一定値となるから、これを取り除
いて
From the above description, if Q (λ, λ ') is regarded as a function of λ', and λ'where Q (λ, λ ')> Q (λ, λ) is found,
It becomes an updated version of λ, and P (Y (1) , ..., Y (R)
| λ) is a constant value for λ ', so remove this

【0060】[0060]

【数30】 [Equation 30]

【0061】とするとき、Q'(λ,λ')>Q'(λ,λ)な
るλ'を見出すことと同様である。ただし、ここで
Then, it is similar to finding λ ′ such that Q ′ (λ, λ ′)> Q ′ (λ, λ). However, here

【0062】[0062]

【数15】 [Equation 15]

【0063】とおいている。It is said that.

【0064】(数14)はさらに次のようになる。(Equation 14) becomes as follows.

【0065】[0065]

【数16】 [Equation 16]

【0066】右辺第1項からπi'について最大化すれば
πiの再推定値πi *
[0066] Re-estimate of when maximized for the first term π i i π i * is

【0067】[0067]

【数17】 [Equation 17]

【0068】右辺第2項からaij'について最大化すれ
ばaijの再推定値aij *
[0068] Re-estimate of when maximized for a ij 'from the second term on the right side a ij a ij * is

【0069】[0069]

【数18】 [Equation 18]

【0070】右辺第3項からμi',Σi'について最大化
すれば、μi,Σi各々の再推定値μi *,Σi *
[0070] From the third term on the right side μ i ', Σ i' be maximized for, mu i, re-estimated value of each Σ i μ i *, Σ i * is

【0071】[0071]

【数19】 [Formula 19]

【0072】[0072]

【数20】 [Equation 20]

【0073】ここで、ξ(r) ij(t)は次のように計算さ
れる。即ち、
Here, ξ (r) ij (t) is calculated as follows. That is,

【0074】[0074]

【数21】 [Equation 21]

【0075】とおけば、In summary,

【0076】[0076]

【数22】 [Equation 22]

【0077】である。It is

【0078】このときAt this time

【0079】[0079]

【数23】 [Equation 23]

【0080】[0080]

【数24】 [Equation 24]

【0081】なる漸化式が成り立つ。従って、α
(r) 1(1)=1としてパラメータλに適当な初期値を与
え、t=1〜T(r)+1,j=1〜I+1について(数
23)に従ってα(r) j(t)を、β(r) I+1(T(r)+1)=
1としてt=T(r)+1〜1、i=I〜1について(数
24)に従ってβ(r) i(t)をそれぞれ順次計算して行け
ば、(数15)が計算できる。
The following recurrence formula holds. Therefore, α
(r) 1 (1) = 1 and a proper initial value is given to the parameter λ, and α (r) j (t) is calculated according to ( Equation 23) for t = 1 to T (r) +1 and j = 1 to I + 1. , Β (r) I + 1 (T (r) +1) =
If t = T (r) +1 to 1 and i = I to 1 as 1, and β (r) i (t) is sequentially calculated according to (Equation 24), (Equation 15) can be calculated.

【0082】パラメータ推定の実際の計算手順は次のよ
うになる。
The actual calculation procedure for parameter estimation is as follows.

【0083】(1)L1=∞ (2)i,j=1〜Iについてλi={(aij)j=1,・・・,I+1
ii} に適当な初期値を与える。
(1) L 1 = ∞ (2) For i, j = 1 to I λ i = {(a ij ) j = 1, ..., I + 1 , μ
Give an appropriate initial value to i , Σ i }.

【0084】(3)r=1〜R, t=2〜T(r), i=
1〜I+1についてα(r) i(t)をλ={λi}として(数
23)に従って計算する。
(3) r = 1 to R, t = 2 to T (r) , i =
For 1 to I + 1, α (r) i (t) is calculated according to (Equation 23) with λ = {λ i }.

【0085】(4)r=1〜R, t=2〜T(r), i=
1〜I+1についてβ(r) i(t)とξ(r) ij(t)をλ={λ
i}としてそれぞれ(数24)、(数22)に従って計算
する。
(4) r = 1 to R, t = 2 to T (r) , i =
Let β (r) i (t) and ξ (r) ij (t) for 1 to I + 1 be λ = {λ
i } is calculated according to (Equation 24) and (Equation 22), respectively.

【0086】(5)r=1〜R,i,j=1〜I+1に
ついて、(数18)、(数19)、(数20)の 分子:aij,num(r), μi,num(r), Σi,num(r) と、 分母:Deni(r)=aij,denom(r)= μi,denom(r)=Σ
i,denom(r) を計算する。
(5) For r = 1 to R, i, j = 1 to I + 1, the numerator of (Equation 18), (Equation 19), (Equation 20): a ij, num (r), μ i, num (r), Σ i, num (r) and denominator: Den i (r) = a ij, denom (r) = μ i, denom (r) = Σ
Calculates i, denom (r).

【0087】(6)aijiiの再推定値aij *, μi
*, Σi *を次の(数)に従って計算する。
[0087] (6) a ij, μ i , re-estimated value of Σ i a ij *, μ i
* , Σ i * is calculated according to the following (number).

【0088】[0088]

【数25】 [Equation 25]

【0089】(7)i,j=1〜I+1についてaij
ij *, μi=μi *, Σi=Σi *なる代入を行うことによ
って、再推定されたパラメータ集合λ={λi}を得る。
(7) For i, j = 1 to I + 1, a ij =
The re-estimated parameter set λ = {λ i } is obtained by performing the substitution a ij * , μ i = μ i * , Σ i = Σ i * .

【0090】(8)r=1〜R,t=2〜T(r), i=
1〜I+1に対してstep(7)で得たパラメータ集合λ
に対して
(8) r = 1 to R, t = 2 to T (r) , i =
Parameter set λ obtained in step (7) for 1 to I + 1
Against

【0091】[0091]

【数26】 [Equation 26]

【0092】を計算する。Calculate

【0093】(9)|L1−L2|/L1>εならば、L2
1とおいてステップ(4)へ、そうでなければ終了。
(9) | L 1 −L 2 | / L 1 > ε, then L 2 =
Leave L 1 and go to step (4), otherwise end.

【0094】前記ステップ(9)におけるεは収束の幅
を決める適当に小さな正の数であって、その値は状況に
よって実用的な値が選ばれる。
Ε in the step (9) is an appropriately small positive number that determines the width of convergence, and its value is selected as a practical value depending on the situation.

【0095】以上のようにして、連続確率分布HMMが
得られるが、本発明はこれをもとにして離散確率分布H
MMを得るものであって、次の手順による。
As described above, the continuous probability distribution HMM is obtained. The present invention is based on this, but the discrete probability distribution HMM is obtained.
The MM is obtained by the following procedure.

【0096】(1)学習ベクトルのクラスタリング行
い、M個のクラスタを算出する。クラスタ名をC1,C2,
・・・,Cm,・・・,CMとする。クラスタCmに属する訓練ベク
トルをym(1),ym(2),・・・,ym(Km)とする。
(1) Clustering of learning vectors is performed to calculate M clusters. The cluster name is C 1 , C 2 ,
..., C m , ..., C M. Let the training vectors belonging to the cluster C m be y m (1), y m (2), ..., Y m (K m ).

【0097】(2)前記連続型HMMを用いて該HMM
の各状態におけるCm(m=1,・・・,M)の発生度合を求
める。
(2) The HMM using the continuous HMM
The degree of occurrence of C m (m = 1, ..., M) in each state is calculated.

【0098】ここで、各ラベルの発生度合を定義する方
法は種々考えられる。即ち、(a)状態iにおけるCm
セントロイドの発生確率密度、(b)Cmに属する学習ベ
クトルの確率密度の平均値または中央値、(a)、(b)に
おいてそれらのクラスタに関する総和が1になるように
正規化したもの、また、前記(b)において平均値の場合
は、その平均として、算術平均、幾何平均、調和平均等
が考えられる。ここでは本発明の一実施例として(b)の
方法で、算術平均を用い、前記正規化はしない場合を例
にとって説明する。次式で用いるbi(y)は前記連続型
HMMの推定パラメータから得られたものである。この
場合は、状態iにおけるクラスタCmの発生度合bim
次式で与えられる。
Here, various methods of defining the degree of occurrence of each label can be considered. That is, (a) the probability density of occurrence of a centroid of C m in state i, (b) the average or median of the probability densities of learning vectors belonging to C m , and (a) and (b) the sum of those clusters. Is normalized so that it becomes 1, and in the case of the average value in (b), the average thereof may be an arithmetic average, a geometric average, a harmonic average, or the like. Here, as an embodiment of the present invention, the method (b) will be described by using an arithmetic mean as an example and not normalizing. The b i (y) used in the following equation is obtained from the estimated parameters of the continuous HMM. In this case, the occurrence degree b im of the cluster C m in the state i is given by the following equation.

【0099】[0099]

【数27】 [Equation 27]

【0100】前記ステップ(1)におけるクラスタリン
グの方法は、例えば、LBG法と呼ばれる周知の方法が
用いられ得る(具体的方法の説明は省略する)。クラスタ
リングするデータとしては、前記HMMの学習に用いた
v=1〜Vの単語音声に対応するパターンを構成する特
徴ベクトルの全集合を用いることが出来る。
As the clustering method in the step (1), for example, a well-known method called LBG method can be used (the description of the specific method is omitted). As the data to be clustered, it is possible to use the entire set of feature vectors forming a pattern corresponding to the word speech of v = 1 to V used for learning of the HMM.

【0101】図1及び図2は、本発明のHMM作成装置
の一実施例である。以下図面に従ってその構成と作用を
同時に説明する。
1 and 2 show an embodiment of the HMM creating apparatus of the present invention. The structure and operation will be described below with reference to the drawings.

【0102】特徴抽出部101は、周知の方法によっ
て、単語v(=1,…,V)に対応するモデル作成のために
準備された訓練単語r=1〜Rvの音声信号を特徴ベク
トルの系列
The feature extraction unit 101 uses the well-known method to convert the speech signals of the training words r = 1 to R v prepared for model creation corresponding to the word v (= 1, ..., V) into feature vector vectors. series

【0103】[0103]

【数28】 [Equation 28]

【0104】に変換する。Convert to

【0105】単語パターン記憶部102は、RAM、R
OM、各種ディスク等の手段であって、モデルλvを作
成するための学習用単語を前記特徴ベクトル系列の形で
v個記憶する。
The word pattern storage unit 102 has RAM, R
A means such as an OM and various disks, which stores R v learning words for creating the model λ v in the form of the feature vector series.

【0106】バッファメモリ103は、単語パターン記
憶部102に記憶されているvに対する単語パターンを
v個取り出して一時的に記憶する。
The buffer memory 103 retrieves R v word patterns for v stored in the word pattern storage unit 102 and temporarily stores them.

【0107】パラメータ推定部104は、前記モデルλ
vを作成するステップ(1)〜(9)を実行し、単語v
に対応するモデルλvを推定する。
The parameter estimation unit 104 uses the model λ
v perform the step (1) to (9) to create a word v
Estimate the model λ v corresponding to.

【0108】第1のパラメータ記憶部105は、前記ス
テップ(6)で得られたパラメータの再推定値を一次的
に記憶する。パラメータ推定部104はこのパラメータ
記憶部105の値を用いて再推定を行う。
The first parameter storage unit 105 temporarily stores the re-estimated value of the parameter obtained in the step (6). The parameter estimation unit 104 re-estimates using the value of the parameter storage unit 105.

【0109】クラスタリング部106は、単語パターン
記憶部102に記憶されている
The clustering unit 106 is stored in the word pattern storage unit 102.

【0110】[0110]

【数29】 [Equation 29]

【0111】個の特徴ベクトル集合をM個のクラスタに
クラスタリングする。このとき、第mクラスタのラベル
をCm,セントロイドをy0mとする。
Cluster feature vector sets into M clusters. At this time, the label of the m-th cluster is C m and the centroid is y 0m .

【0112】クラスタベクトル記憶部107は、クラス
タリング部106で求められたM個のそれぞれのクラス
タのベクトルとセントロイドをmにて参照可能な形で記
憶する。
The cluster vector storage unit 107 stores the vector and centroid of each of the M clusters obtained by the clustering unit 106 in a form that can be referred to by m.

【0113】ラベル発生度合計算部108は、パラメー
タ記憶部105に記憶されているモデルλvの確率密度
関数から、クラスタベクトル記憶部107に記憶されて
いるクラスタCmのベクトルym(1),・・・,ym(Km)の確
率密度をv=1,・・・,V,i=1,・・・,I,m=1,・・・,
Mについて計算し、(数27)に従って、単語vのHM
Mの状態iにおけるCmの発生度合bv imを計算する。
The label generation degree calculation unit 108 calculates the vector y m (1) of the cluster C m stored in the cluster vector storage unit 107 from the probability density function of the model λ v stored in the parameter storage unit 105. The probability density of y m (K m ) is v = 1, ..., V, i = 1, ..., I, m = 1 ,.
Compute for M, and according to (Equation 27), the HM of the word v
Calculate the occurrence degree b v im of C m in the state i of M.

【0114】第2のパラメータ記憶部109は単語v=
1〜Vに対応するパラメータを記憶するものであって、
前記それぞれの単語v=1,・・・,Vに対応するパラメー
タが、パラメータ記憶部1,・・・,パラメータ記憶部Vに
それぞれ記憶される。即ち、それぞれの単語の各状態に
対応する遷移確率は、第1のパラメータ記憶部105か
ら読み出され、v,i,jで参照可能な形で記憶される。
また、それぞれの単語の各状態におけるラベルの発生度
合はラベル発生度合算出部108から読み出され、v,
i,mで参照可能な形で記憶される。
The second parameter storage unit 109 stores the word v =
For storing parameters corresponding to 1 to V,
The parameters corresponding to the respective words v = 1, ..., V are stored in the parameter storage units 1 ,. That is, the transition probability corresponding to each state of each word is read from the first parameter storage unit 105 and stored in a form that can be referred to by v, i, j.
Further, the degree of label occurrence in each state of each word is read from the label occurrence degree calculator 108, and v,
It is stored in a form that can be referred to by i and m.

【0115】以上のようにして、学習に用いたパターン
集合を形成するベクトルの集合をクラスタリングし、ク
ラスタmに含まれるベクトルの前記HMMの状態iにお
ける発生度合bimを連続確率分布型HMMとして求めら
れた確率密度を用いて求め、離散確率分布型HMMに変
換する。
As described above, the set of vectors forming the pattern set used for learning is clustered, and the occurrence degree b im of the vector included in the cluster m in the state i of the HMM is obtained as a continuous probability distribution type HMM. The obtained probability density is used for conversion into a discrete probability distribution type HMM.

【0116】次に、以上のようなモデルを用いて実際の
入力音声を認識する装置について、その構成及び作用を
同時に説明する。
Next, the structure and operation of an apparatus for recognizing an actual input voice using the above model will be described at the same time.

【0117】図5はその認識装置のブロック図である。FIG. 5 is a block diagram of the recognition device.

【0118】特徴抽出部401は、図1の特徴抽出部1
01と全く同様の構成、機能を有する。
The feature extraction unit 401 is the feature extraction unit 1 of FIG.
01 has exactly the same configuration and function.

【0119】コードブック403には、図1及び図2の
HMM作成装置のクラスタベクトル記憶部107に記憶
されている各クラスタのセントロイドが記憶されてい
る。
The codebook 403 stores the centroid of each cluster stored in the cluster vector storage unit 107 of the HMM creating apparatus of FIGS. 1 and 2.

【0120】ベクトル量子化部402は、特徴抽出部4
01の出力の特徴ベクトルy(t)とコードブック403
に記憶されている前記それぞれのクラスタの代表ベクト
ルy0m(m=1,…,M)との距離を計算し、y(t)をy
(t)に最も近い代表ベクトルに対応するクラスタのラベ
ルに置き換えて、特徴ベクトル系列をラベル系列に変換
する。
The vector quantizer 402 includes a feature extractor 4
01 output feature vector y (t) and codebook 403
The distance from the representative vector y 0m (m = 1, ..., M) of each of the clusters stored in
The feature vector series is converted into a label series by replacing it with the label of the cluster corresponding to the representative vector closest to (t).

【0121】パラメータ記憶部404は、図2のパラメ
ータ記憶部109と全く同様の構成、機能を有するもの
であって、パラメータ記憶部vには、単語v(=1,・・・,
V)に対応するモデルのパラメータが記憶されている。
The parameter storage unit 404 has exactly the same configuration and function as the parameter storage unit 109 of FIG. 2, and the parameter storage unit v stores the words v (= 1, ...,
The parameters of the model corresponding to V) are stored.

【0122】尤度計算部405は、ベクトル量子化部4
02の出力に得られるラベル系列に対する各モデルの尤
度をパラメータ記憶部404の内容を用いて計算するも
のである。即ち、尤度計算部vではパラメータ記憶部v
の内容が用いられる。尤度の計算方法は、(数1)、
(数2)、(数3)等の何れかが用いられ得る。
Likelihood calculation section 405 includes vector quantization section 4
The likelihood of each model with respect to the label sequence obtained as the output of 02 is calculated using the contents of the parameter storage unit 404. That is, in the likelihood calculation unit v, the parameter storage unit v
Content is used. The likelihood calculation method is (Equation 1),
Either (Equation 2), (Equation 3), or the like may be used.

【0123】比較判定部406は、尤度計算部405に
含まれる尤度計算部1,・・・,Vの何れの出力が最大であ
るかを比較判定し、それに対応する単語を認識結果とし
て出力するもので、(数4)に相当する計算を実行す
る。
The comparison determination unit 406 compares and determines which output of the likelihood calculation units 1, ..., V included in the likelihood calculation unit 405 is the maximum, and the word corresponding to that is determined as the recognition result. This is output, and the calculation corresponding to (Equation 4) is executed.

【0124】この比較判定部406から単語の認識結果
が出力される。
The result of word recognition is output from the comparison / determination unit 406.

【0125】なお、本実施例においては、単語を認識す
るとして述べたが、本発明では、単語を音韻や音節等に
置き換えても勿論よく、また、音声以外のパターンにも
適用出来るものである。
In the present embodiment, it is described that a word is recognized. However, in the present invention, the word may be replaced with a phoneme, a syllable, or the like, and may be applied to a pattern other than voice. .

【0126】さらに、本実施例では特徴ベクトルの分布
は、各状態において単一の正規分布に従うとして説明し
たが、本発明では、いわゆる混合分布を用いることによ
り、より精密なラベルの発生度合を得ることも勿論可能
である。
Further, in the present embodiment, the distribution of the feature vector is described as following a single normal distribution in each state, but in the present invention, a more precise label generation degree is obtained by using a so-called mixed distribution. Of course, it is possible.

【0127】また、本発明は、音声認識装置にかぎら
ず、他の時系列信号処理分野に適用可能である。
Further, the present invention is applicable not only to the voice recognition device but also to other time series signal processing fields.

【0128】なお、本発明の各手段は、コンピュータを
用いてソフトウェア的に実現し、あるいはそれら各機能
を有する専用のハード回路を用いて実現してもかまわな
い。
Each means of the present invention may be realized by software using a computer or by using a dedicated hardware circuit having each of these functions.

【0129】[0129]

【発明の効果】以上述べたところから明らかなように、
本発明は、連続確率密度分布HMMを作成するHMM作
成手段と、訓練ベクトル集合をクラスタリングし各々の
クラスタにラベルを付与するクラスタリング手段と、H
MMの各状態における各クラスタの従って各ラベルの発
生度合を、各クラスタに含まれる訓練ベクトルと、連続
確率密度分布HMMの各状態における確率密度関数から
算出するラベル発生度合算出手段とを備えているので、
離散型HMMにおける課題である訓練データの不足やそ
の偏りによる推定誤差を解消し、離散型HMMのもつ計
算量が少ないという利点を活かしたモデルを実現するこ
とが出来る。
As is apparent from the above description,
The present invention relates to an HMM creating means for creating a continuous probability density distribution HMM, a clustering means for clustering a training vector set and giving a label to each cluster, and H
The label generation degree calculating means for calculating the degree of occurrence of each label according to each cluster in each state of MM from the training vector included in each cluster and the probability density function in each state of the continuous probability density distribution HMM is provided. So
It is possible to solve the problem of the discrete HMM, that is, the estimation error due to the lack of training data and its bias, and to realize a model that takes advantage of the advantage that the discrete HMM has a small amount of calculation.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明によるHMMのパラメータ推定を行う装
置の一実施例を示すブロック図の一部である。
FIG. 1 is a part of a block diagram showing an embodiment of an apparatus for estimating parameters of an HMM according to the present invention.

【図2】本発明によるHMMのパラメータ推定を行う装
置の一実施例を示すブロック図の残部である。
FIG. 2 is the rest of the block diagram showing one embodiment of the apparatus for estimating the parameters of the HMM according to the present invention.

【図3】HMMを用いた音声認識装置の従来例を説明す
るブロック図である。
FIG. 3 is a block diagram illustrating a conventional example of a voice recognition device using an HMM.

【図4】連続確率分布型HMMの構成を示すHMMの構
成図である。
FIG. 4 is a configuration diagram of an HMM showing a configuration of a continuous probability distribution type HMM.

【図5】本発明により構成されたHMMを用いた音声認
識装置の一実施例を示すブロック図である。
FIG. 5 is a block diagram showing an embodiment of a voice recognition device using an HMM constructed according to the present invention.

【符号の説明】[Explanation of symbols]

101・・・・特徴抽出部、 102・・・・単語パターン記憶部、 103・・・・バッファメモリ、 104・・・・パラメータ推定部 105・・・・パラメータ記憶部 106・・・・クラスタリング部 107・・・・クラスタベクトル記憶部 108・・・・ラベル発生度合計算部 109・・・・パラメータ記憶部 101 ... Feature extraction unit, 102 ... Word pattern storage unit, 103 ... Buffer memory, 104 ... Parameter estimation unit 105 ... Parameter storage unit 106 ... Clustering unit 107 ... Cluster vector storage unit 108 ... Label generation degree calculation unit 109 ... Parameter storage unit

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 連続確率密度分布HMMを作成するHM
M作成手段と、訓練ベクトル集合をクラスタリングし各
々のクラスタにラベルを付与するクラスタリング手段
と、前記HMMの各状態における前記各クラスタの従っ
て前記各ラベルの発生度合を、前記各クラスタに含まれ
る前記訓練ベクトルと、前記連続確率密度分布HMMの
各状態における確率密度関数から算出するラベル発生度
合算出手段とを備えたことを特徴とするHMM作成装
置。
1. An HM for creating a continuous probability density distribution HMM.
M creating means, clustering means for clustering a training vector set and giving a label to each cluster, and the degree of occurrence of each label according to each cluster in each state of the HMM, the training included in each cluster An HMM creation device comprising a vector and a label generation degree calculation means for calculating from a probability density function in each state of the continuous probability density distribution HMM.
【請求項2】請求項1記載のHMM作成装置によって得
られた状態遷移確率を記憶する状態遷移確率記憶手段
と、各状態における各ラベルの発生度合を記憶するラベ
ル発生度合記憶手段とを備えたことを特徴とするHMM
記憶装置。
2. A state transition probability storing means for storing the state transition probability obtained by the HMM creating apparatus according to claim 1, and a label occurrence degree storing means for storing the occurrence degree of each label in each state. HMM characterized by
Storage device.
【請求項3】入力パターンを構成する特徴ベクトル系列
の各ベクトルが請求項1記載の何れのクラスタに属する
かを計算し、前記各ベクトルをその属すべきクラスタの
ラベルに置き換えることにより、前記ベクトル系列をラ
ベル系列に変換するベクトル量子化手段と、請求項2記
載のHMM記憶装置に記憶されている状態遷移確率、各
状態におけるラベルの発生度合から、前記HMM記憶装
置に記憶されているパラメータで記述されるHMMの、
前記入力パターンに対する尤度を計算する尤度計算手段
とを備えたことを特徴とする尤度計算装置。
3. The vector series by calculating which cluster of claim 1 each vector of the feature vector series constituting the input pattern belongs to and replacing each vector with the label of the cluster to which the vector belongs. Is described as a parameter stored in the HMM storage device based on the vector quantization means for converting the label into a label sequence, the state transition probability stored in the HMM storage device according to claim 2, and the degree of label occurrence in each state. Of the HMM,
A likelihood calculating device, comprising: a likelihood calculating unit that calculates a likelihood for the input pattern.
【請求項4】認識単位毎に請求項3記載の尤度計算装置
を備え、入力信号に対する前記各々の認識単位モデル毎
の尤度を計算し、該尤度の値から前記入力信号が前記認
識単位の何れであるかを判定することを特徴とする認識
装置。
4. The likelihood calculation device according to claim 3 is provided for each recognition unit, the likelihood of each recognition unit model for an input signal is calculated, and the input signal is recognized as the recognition signal from the value of the likelihood. A recognition device characterized by determining which of the units.
【請求項5】ラベル発生度合算出手段は、前記クラスタ
をCm(m=1,・・・,M)とするとき、前記連続確率密度
分布HMMの状態iの確率密度関数からCmに含まれる
訓練ベクトル各々の確率密度を求め、該確率密度の平均
値や中央値等の特性値を算出する特性値算出手段を含
み、該特性値を状態iにおけるCmの発生度合 bim
することを特徴とする請求項1記載のHMM作成装置。
5. The label generation degree calculation means includes, when the cluster is C m (m = 1, ..., M), from the probability density function of the state i of the continuous probability density distribution HMM to C m . The probability density of each of the training vectors to be obtained, and a characteristic value calculating means for calculating a characteristic value such as an average value or a median of the probability density is included, and the characteristic value is defined as the occurrence degree b im of C m in the state i. The HMM creating apparatus according to claim 1, wherein:
【請求項6】ラベル発生度合算出手段は、前記クラスタ
をCm(m=1,・・・,M)とするとき、前記連続確率密度
分布HMMの状態iの確率密度関数からCmを代表する
ベクトルの確率密度を求め、該確率密度を状態iにおけ
るCmの発生度合bimとすることを特徴とする請求項1
記載のHMM作成装置。
6. The label generation degree calculating means represents C m from the probability density function of the state i of the continuous probability density distribution HMM when the cluster is C m (m = 1, ..., M). 2. The probability density of the vector is calculated, and the probability density is used as the occurrence degree C im of C m in the state i.
The described HMM creation device.
【請求項7】ラベル発生度合算出手段は、前記bimから
更に、bim'=bim/(bi1+・・・+biM)を算出する発生
度合正規化手段を含み、該正規化発生度合bim'を状態
iにおけるCmの発生度合とすることを特徴とする請求
項5あるいは請求項6記載のHMM作成装置。
7. A label occurrence rate calculating means is further from the b im, b im '= b im / (b i1 + ··· + b iM) comprises generating the degree normalizing means for calculating, the normalized occurrence 7. The HMM creating apparatus according to claim 5, wherein the degree b im ′ is the degree of occurrence of C m in state i.
JP4159834A 1992-06-18 1992-06-18 Hmm generating device, hmm storage device, likelihood calculating device, and recognizing device Pending JPH064092A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4159834A JPH064092A (en) 1992-06-18 1992-06-18 Hmm generating device, hmm storage device, likelihood calculating device, and recognizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4159834A JPH064092A (en) 1992-06-18 1992-06-18 Hmm generating device, hmm storage device, likelihood calculating device, and recognizing device

Publications (1)

Publication Number Publication Date
JPH064092A true JPH064092A (en) 1994-01-14

Family

ID=15702267

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4159834A Pending JPH064092A (en) 1992-06-18 1992-06-18 Hmm generating device, hmm storage device, likelihood calculating device, and recognizing device

Country Status (1)

Country Link
JP (1) JPH064092A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007312824A (en) * 2006-05-23 2007-12-06 Asahi Kasei Corp Instrument for classifying blinking data, arousal evaluation instrument and arousal interpretation instrument

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007312824A (en) * 2006-05-23 2007-12-06 Asahi Kasei Corp Instrument for classifying blinking data, arousal evaluation instrument and arousal interpretation instrument

Similar Documents

Publication Publication Date Title
JPH064093A (en) Hmm generating device, hmm storage device, likelihood calculating device, and recognizing device
JP2795058B2 (en) Time series signal processing device
Meng et al. Internal language model estimation for domain-adaptive end-to-end speech recognition
Ostendorf et al. From HMM's to segment models: A unified view of stochastic modeling for speech recognition
Ganapathiraju et al. Applications of support vector machines to speech recognition
US6260013B1 (en) Speech recognition system employing discriminatively trained models
US5794192A (en) Self-learning speaker adaptation based on spectral bias source decomposition, using very short calibration speech
JPH02238496A (en) Voice recognizing device
JPH05257492A (en) Voice recognizing system
Li et al. Large margin HMMs for speech recognition
Diakoloukas et al. Maximum-likelihood stochastic-transformation adaptation of hidden Markov models
Bahl et al. Context dependent vector quantization for continuous speech recognition
CN117043857A (en) Method, apparatus and computer program product for English pronunciation assessment
Furui Vector-quantization-based speech recognition and speaker recognition techniques
JPH1185186A (en) Nonspecific speaker acoustic model forming apparatus and speech recognition apparatus
Renals et al. A comparative study of continuous speech recognition using neural networks and hidden Markov models
JP3628245B2 (en) Language model generation method, speech recognition method, and program recording medium thereof
JPH064092A (en) Hmm generating device, hmm storage device, likelihood calculating device, and recognizing device
Juang et al. Mixture autoregressive hidden Markov models for speaker independent isolated word recognition
JP3029803B2 (en) Word model generation device for speech recognition and speech recognition device
JPH064094A (en) Hmm generating device, hmm storage device, likelihood calculating device, and recognizing device
JPH0695691A (en) Time sequence signal processing device
JPH05241593A (en) Time-series signal processor
JP3144203B2 (en) Vector quantizer
KR100229438B1 (en) Speech recognition system