JPH0854893A - 帰属度算出装置およびhmm装置 - Google Patents

帰属度算出装置およびhmm装置

Info

Publication number
JPH0854893A
JPH0854893A JP6187472A JP18747294A JPH0854893A JP H0854893 A JPH0854893 A JP H0854893A JP 6187472 A JP6187472 A JP 6187472A JP 18747294 A JP18747294 A JP 18747294A JP H0854893 A JPH0854893 A JP H0854893A
Authority
JP
Japan
Prior art keywords
degree
cluster
occurrence
observation vector
hmm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6187472A
Other languages
English (en)
Other versions
JP3427500B2 (ja
Inventor
Hidekazu Tsuboka
英一 坪香
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP18747294A priority Critical patent/JP3427500B2/ja
Publication of JPH0854893A publication Critical patent/JPH0854893A/ja
Application granted granted Critical
Publication of JP3427500B2 publication Critical patent/JP3427500B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

(57)【要約】 【目的】 特徴ベクトルの各クラスタへの帰属度を現実
の世界に最も良く適合した形で算出する手段の実現。 【構成】 クラスタ数をM、観測ベクトルをyとすると
き、階層型ニューラルネットワークからなり、その入力
層のユニットのそれぞれをyの各要素に対応させ、出力
層の第m番のユニットの出力をyのクラスタm(=
1,...,M)への帰属度あるいはクラスタmのyに対す
る事後確率(以後、これも含めて帰属度と呼ぶ)とな
す。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は音声認識装置に関するも
のである。
【0002】
【従来の技術】HMM(Hidden Markov Model)が音声
認識の分野で盛んに用いられるようになってきた。その
中の1つにファジィベクトル量子化に基づくHMM(F
VQ/HMM)がある。電子情報通信学会技術報告SP
93−27(1993年6月)には相乗型と相加型のF
VQ/HMMが記載されており、特に相乗型FVQ/H
MMは優れた性能を示すものとして注目に値する。
【0003】(図1)(a)はFVQ/HMMの一般的
な原理を説明するブロック図である。
【0004】100は特徴抽出部であって、認識すべき
入力音声は、例えば、10msec毎に特徴ベクトルに変換
される。特徴量としては、例えばケプストラムおよびそ
の回帰係数等が最近では良く用いられる。
【0005】101はベクトル量子化部であって、前記
特徴ベクトルは帰属度ベクトルに変換される。102は
コードブックであって前記ベクトル量子化は、このコー
ドブックの情報に基づいて行われる。
【0006】コードブック102はコードブック作成用
の訓練ベクトル集合をMのクラスタにクラスタリング
し、各クラスタにラベル付けし、前記各クラスタの代表
ベクトルをそのラベルで検索可能な形で記憶したもので
ある。ここで、前記訓練ベクトル集合は、予めコードブ
ック作成のために発声された種々の音声を、前記特徴抽
出部100を用いて、もしくはそれと同様な動作をする
特徴抽出手段を用いて、別途特徴ベクトルに変換したも
のからなる。前記代表ベクトルは、通常は前記各クラス
タの平均ベクトルである。
【0007】前記帰属度ベクトルは、各時点における特
徴ベクトルの前記各クラスタに対する帰属度を要素とす
るベクトルであって、時点tにおける特徴ベクトルをy
t、前記クラスタをC1,...,CMとし、ytのCmに対する
帰属度をutmとすれば、ytが変換された帰属度ベクト
ルはut=(ut1,...,utM)Tとなる。以後本願において
はベクトルは縦ベクトルとし、Tは転置を表すこととす
る。ここに、utmの定義としては種々考えられるが、C
mの代表ベクトルをμm、ytとμmのユークリッド距離を
tm={(yt−μm)T(yt−μm)}1/2とするとき、例えば
【0008】
【数1】
【0009】と定義できる(J. G. Bezdek:“Pattern R
ecognition with Fuzzy ObjectiveFunction Algorith
m", Plenum Press, New York (1981).)。
【0010】計算量の削減のために、実際には、前記帰
属度は、全てのクラスタについて計算されるものではな
く、dtmが最小のクラスタからk番目に小さいクラスタ
について計算される。即ち、前記帰属度ベクトルut
形成する要素は、帰属度の大きいクラスタの上位k(k-
nearest neighbor)に関しては(数1)で計算された値
であり、他は0とされる。
【0011】103はHMM記憶部であって、認識すべ
き単語や音節等の各認識単位w=1,...,Wに対応した
HMMを記憶したものである。104は尤度計算部であ
って、前記ベクトル量子化部の出力に得られる帰属度ベ
クトル系列から、前記各HMMの入力音声に対する尤
度、即ち、前記特徴ベクトルの系列y1,...,yTが前記
各HMMから発生する度合を計算するものである。
【0012】105は判定部であって、
【0013】
【数2】
【0014】を計算し、w*を認識結果とするものであ
る。(図1)(b)はHMMの原理を説明する説明図で
ある。q1,...,qJ+1は状態、aijは状態iから状態j
への遷移確率、ωi(yt)は状態iにおけるytの発生度
合である。これらの記号を用いれば、特徴ベクトルの系
列y1,...,yTがこのHMMから発生する度合Lは(数
3)のようになる。ただし、X=(x1,x2,...,xT+1
J+1)は状態系列であって、最終状態J+1を仮定し、
時点T+1で状態J+1に到達するものとし、状態J+
1においてはベクトルは発生しないとする。また、πi
はt=1で状態iである確率、λは当該HMMのパラメ
ータ集合である。
【0015】
【数3】
【0016】尤度計算部104は、認識単位wに対応す
る尤度Lwをw=1,...,Wについて(数3)に従って計
算するものであるが、前記ωi(yt)の定義の仕方によっ
て種々のHMMが定義される。ここで問題としているF
VQ/HMMはωi(yt)を原理的には次のように定義し
たものである。 (1)相乗型FVQ/HMMの場合
【0017】
【数4】
【0018】相乗型という呼称は(数4)後者の表現か
ら来ている。 (2)相加型FVQ/HMM
【0019】
【数5】
【0020】相加型という呼称は(数5)の表現から来
ている。ここで、bimは状態iにおけるクラスタmの発
生確率、utmはytのクラスタmへの帰属度である。前
記のように実際には(数4)あるいは(数5)における
加算あるいは乗算は帰属度の上位Kクラスタのみで行わ
れるものであり、この場合は、(数4)(数5)は(数
6)(数7)のようになる。ただし、h(k)はy tがk
番目に帰属度の高いクラスタである。
【0021】
【数6】
【0022】
【数7】
【0023】実際の尤度計算は、(数3)をそのまま計
算するのではなく、Viterbi法がよく用いられ、対数化
して加算の形で用いられるのが普通である。即ち、
【0024】
【数8】
【0025】を計算し、L'を尤度とする。(数8)は
動的計画法によって効率的に計算することができる。即
ち、
【0026】
【数9】
【0027】をφi(1)=log πiとして、t=2,...,
T+1、i=1,...,J+1について漸化的に計算し、
【0028】
【数10】
【0029】として求められる。認識結果としては、L
を用いてもL'を用いても大差がないということから、
認識においてはViterbi法を用いるのが一般的である。
なお、(数9)の漸化式の計算においてはlog ωj(yt)
の計算が必要であるが、相乗型の場合は、bimの代わり
にlog bimを記憶しておけば、(数6)前半の式を用い
ることにより、log ωj(yt)の計算は積和のみで済むか
ら、計算量的にも相乗型を用いるのが最も有利である。
【0030】
【発明が解決しようとする課題】前記従来例において
は、帰属度utmは(数1)により計算している。これ
は、ファジィクラスタリングにおける目的関数
【0031】
【数11】
【0032】を
【0033】
【数12】
【0034】の条件のもとで最小化すると言う基準によ
り導かれたものである。然るに、(数11)は、天下り
的に与えられたものであって、理論的あるいは実験的に
導かれたものではなく、実際の世界におけるモデルとし
て必ずしも最適であるとは言えない。
【0035】
【課題を解決するための手段】クラスタ数をM、観測ベ
クトルをyとするとき、階層型ニューラルネットワーク
からなり、その入力層のユニットのそれぞれをyの各要
素に対応させ、出力層の第m番のユニットの出力をyの
クラスタm(=1,...,M)への帰属度あるいはクラス
タmのyに対する事後確率(以後、これも含めて帰属度
と呼ぶ)となしたことを特徴とする帰属度算出手段。
【0036】
【作用】クラスタ数をM、観測ベクトルをyとすると
き、階層型ニューラルネットワークの入力層のユニット
のそれぞれをyの各要素に対応させ、出力層の第m番の
ユニットの出力をyのクラスタm(=1,...,M)への
帰属度あるいはクラスタmのyに対する事後確率(以
後、これも含めて帰属度と呼ぶ)となす。
【0037】
【実施例】前記文献において、Cmをクラスタmとする
とき、utmは事後確率P(Cm|yt)であると解釈でき、
FVQ/HMMはクラスタの事後確率を帰属度で定義し
たものであると解釈できることが述べられている。然ら
ば、この考え方を敷衍して、ytに対するCmの事後確率
を別途何等かの方法で求めることが出来れば、これをF
VQ/HMMの帰属度として用いることが出来るはずで
ある。
【0038】一方、階層型ニューラルネットワークを、
入力層の各ユニットを識別すべき特徴ベクトルの要素の
それぞれに対応させ、出力層の第mユニットをクラスタ
mに対応させた構成とし、学習用ベクトル集合を用い
て、入力層に順次与えられるベクトルに対して、そのベ
クトルが帰属すべきクラスタに対応する出力層のユニッ
トの出力が1、他のユニットの出力が0になるように学
習しておけば、未知入力ytが入力されたときに第mユ
ニットの出力に得られる出力は、P(Cm|yt)に相当す
るという知見がある(栗田多喜夫:"情報量基準による
3層ニューラルネットの隠れ層のユニット数の決定
法",電子情報通信学会論分誌D-II,Vol.J73-D-II,No.
11,pp.1872-1878(1990年11月))。本願発明はこの事実
を利用するものである。
【0039】従って、モデル作成の手順は次のようにな
る。 (1)コードブックの作成 訓練ベクトル集合をクラスタリングしてM個のクラスタ
に分ける。各クラスタにはラベル1,...,Mが振られ、
そのラベルによって各クラスタのセントロイド、即ち、
各クラスタの代表ベクトルが検索可能な形で記憶され
る。具体的にはL.B.Gアルゴリズム等が用いられる。 (2)ニューラルネットワークの学習 ここで用いるべきニューラルネットワークは(図3)に
示す。本例は3層の場合である。それぞれ入力層、中間
層、出力層等と呼ばれる。○はユニットと呼ばれるもの
で、入出力特性は、入力層では1、中間層では1/{1
+exp(−θ)}、出力層では1または1/{1+exp(−
θ)}とする場合が多い。ここで、θは入力レベルであ
る。1/{1+exp(−θ)}はシグモイド関数と呼ばれ
る。第u層の第kユニットと第u+1層の第jユニット
の間は、重みwu k u+1 jで結合され、第u層の第kユニッ
トの出力をou kとすれば、第u+1層の第jユニットの
入力はi u+1 j=Σku ku k u+1 jである。
【0040】ニューラルネットワークの学習は、学習用
入力ベクトルに対して所望の出力を教師信号として与え
ることにより、これら重み係数を決定することである。
これは実際の出力と所望の出力との2乗誤差を最小化す
る値として、繰り返し計算により求められる。本発明に
おいては具体的には次のようにして行う。
【0041】出力層の第kユニットの出力をoU kとする
とき、上記クラスタリングにおいて、yn∈Cmの学習ベ
クトルに対して、oU k=1(k=m)、oU k=0(k≠
m)となるように学習する。ただし、n=1,...,Nは
訓練ベクトルに付された通し番号である。このとき最小
化すべき目的関数は(数13)のようになる。ただし、
δkmはクロネッカーのδであって、k=mのときはδkm
=1、k≠mのときはδkm=0である。
【0042】
【数13】
【0043】(数13)の最小化はバックプロパゲーシ
ョンと呼ばれる周知の方法によって計算される(省
略)。 (3)HMMの学習 HMMの学習は、初期確率πi、状態遷移確率aij、ク
ラスタの発生確率bimを学習データ(単語などの認識単
位に対応して得られた特徴ベクトル系列の集合)から推
定することであって、Baum-Welchと呼ばれる周知の方法
によって行われ得る(省略)。この場合、本願発明の従
来のモデルと異なるところは(数4)〜(数7)におけ
るutmの計算を入力ytに対する前記ニューラルネット
ワークの出力とする点である。
【0044】単語1,...,Wを認識する場合は、単語
1,...,Wに対応した発声音声から学習用特徴ベクトル
系列群を得る。
【0045】認識の手順は次のようになる。 (1)尤度の計算 入力された音声に対するHMMの尤度の計算法を説明す
る。(図2)は本発明による尤度計算装置の一実施例で
ある。尤度を計算すべきHMMは上記のごとくして既に
計算され、HMM記憶部204に記憶されている。20
0は音声入力端子であって、認識すべき音声が入力され
る。201は特徴抽出部であって、例えば、10msec毎
(フレームと呼ばれる)に特徴ベクトルytに変換され
る。tはフレーム番号である。特徴量としては、LPC
やケプストラム等周知のものが用いられ、ytはこれら
の特徴量を要素とする通常10数次元のベクトルであ
る。202は帰属度計算部であって、前述のごとく階層
型のニューラルネットワークで構成されており、yt
各クラスタへの帰属度(ytに対する各クラスタの事後
確率)utm=P(Cm|yt)が計算される。203は尤度
計算部であって、前記帰属度に基づいて(数9)が計算
される。205は計算された尤度の出力端子である。 (2)認識 (図4)は本発明による音声認識装置の一実施例であ
る。206はHMM記憶部であって、認識単位1,...,
Wに対応したモデル、即ち、HMM 1,HMM 2,...,
HMM Wが記憶されている。200〜203は(図
2)における同じ番号を付したブロックと同じ働きをす
るブロックである。ただし、203では帰属度計算部2
03の出力に対してるHMM 1,HMM 2,..., HM
M Wすべてのモデルの尤度が計算される。207は判
定部であって、認識単位wに対する尤度をLwとすると
き、(数2)を計算するものである。208は認識結果
*を出力する端子である。
【0046】
【発明の効果】以上のようにして、実際のデータからク
ラスタの事後確率を計算するニューラルネットワークを
直接学習するようにしたので、より現実に近い形でyt
に対する各クラスタの事後確率を得ることが出来、認識
率の向上が期待される。
【図面の簡単な説明】
【図1】従来のFVQ/HMMの一実施例を示すブロッ
ク図
【図2】本発明による尤度計算の一実施例を示すブロッ
ク図
【図3】本発明による音声認識装置の一実施例を示す図
【図4】本発明による音声認識装置の一実施例を示すブ
ロック図
【符号の説明】
100 特徴抽出部 101 ベクトル量子化部 102 コードブック 103 HMM記憶部 104 尤度算出部 105 判定部

Claims (15)

    【特許請求の範囲】
  1. 【請求項1】クラスタ数をM、観測ベクトルをyとする
    とき、階層型ニューラルネットワークからなり、その入
    力層のユニットのそれぞれをyの各要素に対応させ、出
    力層の第m番のユニットの出力をyのクラスタm(=
    1,...,M)への帰属度あるいはクラスタmのyに対す
    る事後確率(以後、これも含めて帰属度と呼ぶ)となし
    たことを特徴とする帰属度算出装置。
  2. 【請求項2】クラスタm(=1,...,M)の発生確率を
    m、観測ベクトルをy、yのクラスタmへの帰属度を
    mとするとき、yの発生度合(yの観測される度合)
    をbmとumの関数として算出するものであって、um
    請求項1記載の帰属度算出手段によって算出されること
    を特徴とする観測ベクトル発生度合算出装置。
  3. 【請求項3】発生度合の対数値が、bmの対数値の、um
    を重みとする重み付き算術平均として算出することを特
    徴とする請求項2記載の観測ベクトル発生度合算出装
    置。
  4. 【請求項4】発生度合が、umを重みとする、bmの重み
    付き幾何平均として算出することを特徴とする請求項2
    記載の観測ベクトル発生度合算出装置。
  5. 【請求項5】発生度合が、umを重みとする、bmの重み
    付き算術平均として算出することを特徴とする請求項2
    記載の観測ベクトル発生度合算出装置。
  6. 【請求項6】隠れマルコフモデル(HMM:Hidden Mar
    kov Model)からなり、状態iにおけるクラスタm(=
    1,...,M)の発生確率をbim、時点tにおける観測ベ
    クトルをyt、ytのクラスタmへの帰属度をutmとする
    とき、状態iにおけるytの発生度合(ytの観測される
    度合)をbimとutmの関数として算出する観測ベクトル
    発生度合算出手段と、観測ベクトル系列y1,y2,...,y
    Tが前記HMMから発生する度合を前記観測ベクトル発
    生度合算出手段の算出結果を用いて計算する観測ベクト
    ル系列発生度合算出手段とを備え、utmは、クラスタ数
    をM、観測ベクトルをyとするとき、階層型ニューラル
    ネットワークからなり、その入力層のユニットのそれぞ
    れをyの各要素に対応させ、出力層の第m番のユニット
    の出力をyのクラスタm(=1,...,M)への帰属度と
    なしたことを特徴とする帰属度算出装置(請求項1記載
    の帰属度算出装置)によって算出されることを特徴とす
    る尤度計算装置。
  7. 【請求項7】認識単位1,...,Wに対応したW個のHM
    Mと、隠れマルコフモデルwの状態iにおけるクラスタ
    m(=1,...,M)の発生確率をbw im、時点tにおける
    観測ベクトルをyt、ytのクラスタmへの帰属度をutm
    とするとき、HMM wの状態iにおけるytの発生度合
    (ytの観測される度合)をbw imとutmの関数として算
    出する観測ベクトル発生度合算出手段と、観測ベクトル
    系列y1,y2,...,yTがHMM wから発生する度合Lw
    を前記観測ベクトル発生度合算出手段の算出結果を用い
    てw=1,...,Wについて計算する観測ベクトル系列発
    生度合算出手段と、L1,...,LWのうちで最大となるw
    を算出しそのwを認識結果と判定する認識結果判定手段
    とを備え、utmは、クラスタ数をM、観測ベクトルをy
    とするとき、階層型ニューラルネットワークからなり、
    その入力層のユニットのそれぞれをyの各要素に対応さ
    せ、出力層の第m番のユニットの出力をyのクラスタm
    (=1,...,M)への帰属度となしたことを特徴とする
    帰属度算出装置(請求項1記載の帰属度算出装置)によ
    って算出されることを特徴とする認識装置。
  8. 【請求項8】発生度合の対数値が、bmの対数値の、um
    を重みとする重み付き算術平均として算出することを特
    徴とする請求項7記載の認識装置。
  9. 【請求項9】発生度合が、umを重みとする、bmの重み
    付き幾何平均として算出することを特徴とする請求項7
    記載の認識装置。
  10. 【請求項10】発生度合が、umを重みとする、bmの重
    み付き算術平均として算出することを特徴とする請求項
    7記載の認識装置。
  11. 【請求項11】認識単位wのHMMの状態iにおけるク
    ラスタm(=1,...,M)の発生確率をbw im、時点tに
    おける観測ベクトルをyt、ytのクラスタmへの帰属度
    をutmとするとき、状態iにおけるytの発生度合(yt
    の観測される度合)をbw imとutmの関数として算出す
    る観測ベクトル発生度合算出手段と、観測ベクトル系列
    1,y2,...,yTが前記HMMから発生する度合を前記
    観測ベクトル発生度合算出手段の算出結果を用いて計算
    する観測ベクトル系列発生度合算出手段と、認識単位w
    に対応するHMMを認識単位wに対して準備された複数
    の学習用観測ベクトル系列の、前記観測ベクトル系列発
    生度合算出手段によって算出された発生度合を最大とな
    すようにHMM wのパラメータを学習するパラメータ
    学習手段とを備え、utmは、クラスタ数をM、観測ベク
    トルをyとするとき、階層型ニューラルネットワークか
    らなり、その入力層のユニットのそれぞれをyの各要素
    に対応させ、出力層の第m番のユニットの出力をyのク
    ラスタm(=1,...,M)への帰属度となしたことを特
    徴とする帰属度算出装置(請求項1記載の帰属度算出装
    置)によって算出されることを特徴とするHMM作成装
    置。
  12. 【請求項12】発生度合の対数値が、bmの対数値の、
    mを重みとする重み付き算術平均として算出すること
    を特徴とする請求項11に記載のHMM作成装置。
  13. 【請求項13】発生度合が、umを重みとする、bmの重
    み付き幾何平均として算出することを特徴とする請求項
    11記載のHMM作成装置。
  14. 【請求項14】発生度合が、umを重みとする、bmの重
    み付き算術平均として算出することを特徴とする請求項
    11記載のHMM作成装置。
  15. 【請求項15】学習ベクトルの集合をクラスタリングす
    るクラスタリング手段と、第mのクラスタに属する学習
    ベクトルを入力とするとき、出力層の第mユニットの出
    力を1、他の出力層のユニットの出力を0として重み係
    数を学習することを特徴とする請求項1記載の帰属度算
    出装置。
JP18747294A 1994-08-09 1994-08-09 帰属度算出装置およびhmm装置 Expired - Fee Related JP3427500B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18747294A JP3427500B2 (ja) 1994-08-09 1994-08-09 帰属度算出装置およびhmm装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18747294A JP3427500B2 (ja) 1994-08-09 1994-08-09 帰属度算出装置およびhmm装置

Publications (2)

Publication Number Publication Date
JPH0854893A true JPH0854893A (ja) 1996-02-27
JP3427500B2 JP3427500B2 (ja) 2003-07-14

Family

ID=16206685

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18747294A Expired - Fee Related JP3427500B2 (ja) 1994-08-09 1994-08-09 帰属度算出装置およびhmm装置

Country Status (1)

Country Link
JP (1) JP3427500B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100359507C (zh) * 2002-06-28 2008-01-02 三星电子株式会社 用于执行观察概率计算的装置和方法
JP2016156870A (ja) * 2015-02-23 2016-09-01 日本電信電話株式会社 言語識別モデル学習装置、言語識別装置、言語識別モデル学習方法、言語識別方法、プログラム、および記録媒体
WO2017149722A1 (ja) * 2016-03-03 2017-09-08 三菱電機株式会社 演算装置および演算方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100359507C (zh) * 2002-06-28 2008-01-02 三星电子株式会社 用于执行观察概率计算的装置和方法
JP2016156870A (ja) * 2015-02-23 2016-09-01 日本電信電話株式会社 言語識別モデル学習装置、言語識別装置、言語識別モデル学習方法、言語識別方法、プログラム、および記録媒体
WO2017149722A1 (ja) * 2016-03-03 2017-09-08 三菱電機株式会社 演算装置および演算方法

Also Published As

Publication number Publication date
JP3427500B2 (ja) 2003-07-14

Similar Documents

Publication Publication Date Title
JP2795058B2 (ja) 時系列信号処理装置
US6434522B1 (en) Combined quantized and continuous feature vector HMM approach to speech recognition
US6490555B1 (en) Discriminatively trained mixture models in continuous speech recognition
JP3003276B2 (ja) 信号解析装置
JP2002500779A (ja) 識別訓練されたモデルを用いる音声認識システム
Franco et al. Context-dependent connectionist probability estimation in a hybrid hidden Markov model-neural net speech recognition system
US5794190A (en) Speech pattern recognition using pattern recognizers and classifiers
Chien Online hierarchical transformation of hidden Markov models for speech recognition
Mohamed et al. HMM/ANN hybrid model for continuous Malayalam speech recognition
Fritsch et al. Context-dependent hybrid HME/HMM speech recognition using polyphone clustering decision trees
Zavaliagkos et al. A hybrid continuous speech recognition system using segmental neural nets with hidden Markov models
Kumar et al. Comparative analysis of different feature extraction and classifier techniques for speaker identification systems: A review
Wolfertstetter et al. Structured Markov models for speech recognition
Rigoll et al. A new hybrid system based on MMI-neural networks for the RM speech recognition task
JPH0854893A (ja) 帰属度算出装置およびhmm装置
Hazen et al. Using aggregation to improve the performance of mixture Gaussian acoustic models
Neukirchen et al. A continuous density interpretation of discrete HMM systems and MMI-neural networks
EP0802523A2 (en) Standard pattern production system employing information criterion
Cook et al. Utterance clustering for large vocabulary continuous speech recognition.
Willett et al. Hybrid NN/HMM-based speech recognition with a discriminant neural feature extraction
Rojas et al. Statistics and neural networks
Rigoll et al. Large vocabulary speaker-independent continuous speech recognition with a new hybrid system based on MMI-neural networks.
Sharma et al. Speech recognition using sub-word neural tree network models and multiple classifier fusion
JP2961797B2 (ja) 音声認識装置
JP2836968B2 (ja) 信号解析装置

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees