JP2000099086A - 確率言語モデル学習方法、確率言語適応方法及び音声認識装置 - Google Patents

確率言語モデル学習方法、確率言語適応方法及び音声認識装置

Info

Publication number
JP2000099086A
JP2000099086A JP10267490A JP26749098A JP2000099086A JP 2000099086 A JP2000099086 A JP 2000099086A JP 10267490 A JP10267490 A JP 10267490A JP 26749098 A JP26749098 A JP 26749098A JP 2000099086 A JP2000099086 A JP 2000099086A
Authority
JP
Japan
Prior art keywords
gram
probability
model
corpus
language
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10267490A
Other languages
English (en)
Inventor
Koichi Shinoda
浩一 篠田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP10267490A priority Critical patent/JP2000099086A/ja
Publication of JP2000099086A publication Critical patent/JP2000099086A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 音声認識で用いられる言語モデル、特にN単
語連鎖(Nグラム)を用いた確率言語モデルにおける従
来のスムージング手法は、コーパス中に出現しているが
頻度が小さいnグラム確率の推定が不安定になる。 【解決手段】 頻度積算手段501においてコーパス中
のnグラム出現頻度を求めたのち、事後確率最大化条件
付確率計算手段において、n−1グラムの条件付確率も
用いて、nグラムの条件付確率を求める。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は確率言語モデルの学
習方法に関し、特に音声認識に用いられる、自然言語を
対象とした、単語連鎖確率を用いる確率言語モデルの学
習方法に関する。
【0002】
【従来の技術】現在、音声認識においては連続音声の音
声認識技術の開発が盛んである。連続音声とは単語ごと
の発声ではない、文、文節などの単語列の発声のことで
ある。単語ごとの発声の音声認識では、入力音声と、音
素、音節、単語などの単位ごとに用意された標準パター
ンとのパターンマッチングが主であった。このようなパ
ターンマッチングに用いられるもでるは、音響モデルと
呼ばれる。連続音声の認識の場合には、音響もでるのみ
では認識性能があがらない。例えば、「開発が盛んであ
る」と「開発が左官である」では、音響情報では区別が
つかないが、言語のつながりとして前者が明らかにもっ
ともらしい。この例以外にも、音響的に似通った認識結
果の候補に対し、言語情報を用いて順位づけをすること
の意義は容易に理解できるであろう。
【0003】このように、連続音声の認識においては続
きやすい単語列についての情報が必要である。音声認識
における言語モデルはそのような単語の連鎖に対する制
約を記述したものである。一般に、音響モデル、言語モ
デルとも確率モデルが用いられており、連続音声の音声
認識においては、音響モデルによる確率と言語モデルに
よる確率の和が入力音声の出現確率となる。図1は、連
続音声を認識する装置の概略ブロック図を示したもので
ある。
【0004】ここでは、単語ごとに区切った単語列を入
力とし、入力ごとに単語候補(W1、、、WK、、、WN)から一つを
選び認識結果とする場合について説明する。まず、音響
確率計算手段102では、入ってきた音声Xに対し、単
語ごとに予め記憶媒体に格納されている音響モデル10
1を用いてパターンマッチングが行われる。そして単語
ごとに、入力音声Xがある単語WKから発生した確率P
(X|WK) が、すべての単語について計算される。つぎ
に、言語確率計算手段104では、予め記憶媒体に格納
されている言語モデル103を用いて単語WKが発生す
る言語確率P{WK} がすべての単語WKについて計算され
る。このP(WK) は上述のように単語の連鎖に関する情報
を用いて決定される。そして、P(X|WK)P(WK)が計算され、
その値がもっとも大きい単語が認識結果として出力され
る。ここでは単語ごとに入力を区切った場合について説
明したが、単語ごとに区切らない場合についても基本的
には同様に説明できる。より詳しい説明は例えば、「音
声言語処理 コーパスに基づくアプローチ」北、中村、
永田、森北出版、1996(以下文献1とする)の第3
章にある。
【0005】さて上述したように、言語モデルは、一般
には単語の連鎖に対する制約を記述したものである。従
来、言語モデルとしてはNグラムモデルと呼ばれる、単
語N個の連鎖の出現する確率を記述するモデルが一般に
用いられてきている。Nとして大きな値をとると、組み
合わせの数が膨大となるので、通常、Nとしては2、3
などの値が用いられる。N=2の場合をバイグラム、N
=3の場合はトライグラムと呼ばれる。ここではトライ
グラムを例にとって説明する。直前の出現単語列がU、
Vだったとき、次の単語がWである確率 P(W|U、V) を3
グラムの条件付確率と呼ぶ。この条件付確率をすべての
出現可能な単語列(U、V、W) について保持したものがトラ
イグラム言語モデルである。この条件付確率は、通常、
ある大きなデータベースにおいて、実際に起きる事象を
カウントすることによって得られる。
【0006】言語モデル用のデータベースはコーパスと
呼ばれる。しばしば新聞などがその用途に用いられ、近
年は数百万文から構成される大規模コーパスがしばしば
利用されている。例えばトライグラムの場合、P(W|U、V)
は単語列(U、V、W) が出現するカウント数C(U、V、W)を単語
列(U、V) が出現するカウント数C(U、V)で割ることにより
得られる。しかし、このようなNグラムモデルの実用化
においては、組み合わせの数が膨大となり、一回もデー
タベースに出現しないトライグラムが現れたり、ほんの
数回しか現れないトライグラムが多数ある、という場合
に問題がある。前者では単語列の出現確率が0になる。
後者では非常に小さい確率になり、しかも推定精度は低
くなる。これらは認識性能の劣化をもたらす。
【0007】この問題を解決するために、すべての単語
連鎖の条件付確率が等しくなる方向へ、確率値を操作す
るスムージングと呼ばれる操作が従来しばしば行われて
きた。多くの場合、Nグラムの条件付確率のスムージン
グはN−1グラムの条件付確率を用いて行われることが
多い。例ば、トライグラムの条件付確率P(W|U、V)のスム
ージングはバイグラムの条件付確率P(W|V)を用いて行わ
れる。以下、Nグラム条件付確率のスムージング方法に
ついて説明する。
【0008】まず、図2にそってNグラム条件付確率の
スムージング手法の構成について説明する。言語コーパ
ス201は多くの文章から構成されるテキストデータベ
ースである。さらに、0グラム確率モデル(204−
0)、1グラム確率モデル(204−1)、N−1グラ
ム確率モデル(204−N−1)を格納する記憶媒体が
用意される。これらはNグラム推定手段におけるNグラ
ム推定の途中段階で推定されたnグラム(0≦n≦N−
1)を一時的に保存するために用いられる。
【0009】Nグラム推定手段202では、これらのコ
ーパス、モデルを用いてNグラム条件付確率のスムージ
ングを行い、Nグラム言語モデル203を出力する。
【0010】つぎに、図3にそってNグラム条件付確率
スムージング手法のアルゴリズムを説明する。
【0011】まず、ゼログラム確率設定手段301にお
いて、ゼログラム確率をセットする。これはサンプルを
観測する前に仮定される確率である。多くの場合、ゼロ
グラム確率はすべての単語について等しい。例えば、最
大単語種類数を仮定し、その逆数をおのおのの単語のゼ
ログラム確率と定義する。このゼログラム確率は0グラ
ム確率モデル(204−0)として格納される。
【0012】つぎに、Nグラムの条件付き確率のスムー
ジングを行うためにはn=1からNまで、nグラム推定
手段303によるnグラムのスムージングを順に行う。
nグラム推定には、204−n−1に格納された(n−
1)グラムが利用され、n<Nの間は、推定されたnグ
ラム条件付確率はnグラム確率モデル204−nに格納
される。n=Nとなったところで、このループを抜け
る。出力されたNグラム条件付確率は言語モデルとして
用いられる。
【0013】さて、図3のnグラム推定手段303にお
いては、従来、バックオフ手法と呼ばれる手法が一般に
用いられてきた。バックオフ手法については文献1の
2.4節の説明が詳しい。ここでは一例として、198
7年にIEEEから発行されたTransaction on Speech
and Signal Processing の第35巻No.3の第400
頁ないし第401頁に掲載されたEstimation of probab
ilities from sparse data for the language model co
mponent of speech recognizerと題するS.Katzによる論
文(以下文献2)に記載されている方法の概要について
説明する。
【0014】図4にその手法のアルゴリズムを示す。こ
の方法は、頻度積算手段401と、頻度減算手段402
と、未出現単語連鎖頻度算出手段403と、条件付確率
算出手段404とから構成されている。このような構成
を有する従来の確率言語モデルの学習方法はつぎのよう
に動作する。ここでは、バックオフ手法を3連鎖(トラ
イグラム)の条件付き確率を推定する場合を例にとって
図4にそって説明する。
【0015】言語コーパス中の単語の種類数がNのとき
W、U、Vのすべての組み合わせについて単語U、Vを
観測した後、続けて単語Wが出現する条件付き確率P(W|
U、V)を以下の手続きにより計算する。
【0016】まず、頻度積算手段401において、単語
U、V、Wがこの順番で言語コーパス中に観測される回
数(頻度)C(U、V、W)を求める。
【0017】次の頻度減算手段402では、すべての3
連鎖において、頻度が1以上のものについて以下の減算
を行う。
【0018】CD(U,V、W) = F(C(U,V,W))、 C(U、V、W) > 0 ここで、F(x)はxに関する単調増加関数で、F(x)≦
x である。F(x)としてさまざまな関数が用いられ
る。
【0019】文献2では特に、グット・チューリング推
定値という先験知識に基づいた関数が用いられている。
【0020】次の未出現連鎖頻度算出手段403におい
ては、まず、以下の式に従い、未出現の3連鎖全体を合
計した頻度が以下の式で計算される。 CN = CD(U、V) - ΣCD(U,V,W) ここで和はC(U、V、W)>0を満たすすべてのWについてと
る。CD(U,V)は単語列U、Vを観測した頻度であ
り、すでに図3におけるnグラム推定手段303で1ル
ープ前、すなわち、2−グラム(バイグラム)のスムー
ジングにより求められている。そしてこのCNを2連鎖
(バイグラム)の条件付き確率に比例するようにおのお
のの未出現3連鎖に分配する。 CD(U,V、W) = CN × P(W|V) / ΣP(W|V)、 C(U,V,W) =0 ここで分母の輪はC(U,V,W)=0となるすべてのWについて
とる。この CD(U、V、W)が未出現連鎖頻度である。
【0021】次の条件付確率算出手段404では、条件
付き確率が以下のように求められる。 P(W|U、V) = CD(U,V,W) / CD(U、V) 以上、文献2に記載のバックオフに基づくnグラム推定
手段303について説明した。
【0022】図3に示すようにこのnグラム推定手段3
03をn=1からNまで繰り返し行うことにより、Nグ
ラムの確率言語モデルを得ることができる。以上、バッ
クオフに基づくNグラム条件付確率のスムージングにつ
いて説明した。
【0023】さて、言語モデルは用いられる状況によっ
て別々なモデルを用いると認識性能が向上すると考えら
れる。例えば、チケット予約などの状況における音声を
認識しようとする場合、その状況に頻繁に現れる単語列
に対し高い確率を与えることで、その単語列を認識しや
すくさせるといった操作が可能である。
【0024】ここでの問題は、状況を限定した場合、そ
のような状況で用いることのできるコーパスのサイズ
が、かなり少なくなり、確率の推定が不安定になるとい
うことである。従来この問題に対しては、状況を限定し
ない大規模データベースと、状況を限定した用途限定コ
ーパスを用意し、前者を用いて推定された言語モデル
を、後者に対して適応させる、言語適応というアプロー
チが開発されてきた。
【0025】図6に基づいて従来の言語適応手法につい
て説明する。この手法は例えば日本音響学会平成10年
度春季研究発表会講演論文集第1巻、p43−44に
「N−gramタスク適応の認識実験による評価」伊
藤、好田(以下、文献3)にある。ここではトライグラ
ムの適応を例にとって説明する。
【0026】今、基準となる大語彙コーパスを基準コー
パスとよびAの添え字であらわす。また、適応の対象と
なるコーパスを適応コーパスとよびBの添え字であらわ
す。このとき、適応コーパスのNグラム確率PB‘(W|U、
V)はコーパスAのNグラム確率モデル601中に記憶さ
れている条件付確率PA(W|U、V)と、適応コーパスのみか
ら求められたNグラム確率PB(W|U、V)を用いて以下のよ
うに計算される。
【0027】 PB‘(W|U、V) = (1-γ)PB(U|V、W)+ γPA(W|U、V) ここでγは0から1の間の実数である。
【0028】
【発明が解決しようとする課題】第1の問題点は、従来
のスムージング方法は、頻度が0のNグラムの種類数
が、頻度が小さい(1回、2回)Nグラムの種類数に比
して充分大きいときには有効であるが、同じ数程度の場
合には、出現しているが頻度が小さいnグラム確率の推
定が不安定になるという点である。これは従来のスムー
ジング手法は、出現頻度が0のNグラムについてのみN
−1グラムの確率を利用して求める手法であり、出現頻
度が1回、2回など頻度が小さいNグラムの確率のスム
ージングにおいては単に頻度を減算しているのみでN−
1グラムの確率は利用していないためである。
【0029】第2の問題点は、従来の言語適応方法で
は、適応コーパス中のnグラムの出現頻度数が小さいと
き推定が不安定になる点である。これもやはり、適応コ
ーパスにおいて出現頻度の小さいNグラム確率の推定
に、適応コーパスにおけるN−1グラムを利用していな
いためである。
【0030】本発明の目的は、コーパス中の出現頻度が
小さいNグラムの推定を安定に行うことができる確率言
語モデル学習方法を提供することにある
【0031】
【課題を解決するための手段】本発明の確率言語モデル
学習方法は、言語コーパスを用いた確率言語モデルの学
習方法において、Nグラム出現頻度とN−1グラムの条
件付確率とを用いて出現頻度が0でないNグラムの条件
付確率を求め、当該条件付確率を用いて前記確率言語モ
デルを生成することを特徴とする。
【0032】本発明の音声認識装置は、入力音声と標準
パターンとのパターンマッチングに用いられる確率音響
モデルと、単語の連鎖に関する制約を記述した確率言語
モデルとを備え、単語列からなる音声を確率に基づき認
識する音声認識装置において、Nグラム出現頻度とN−
1グラムの条件付確率とを用いて出現頻度が0でないN
グラムの条件付確率を求め、当該条件付確率を用いて前
記確率言語モデルを生成することを特徴とする。
【0033】本発明の確率言語適応方法は、基準言語コ
ーパスから適応言語コーパスへの言語適応方法におい
て、基準コーパスNグラム確率モデルと適応コーパスN
−1グラム確率モデルとを用いて出現頻度が0でないN
グラム条件付確率の適応を行い、当該条件付確率を用い
て確率言語モデルを生成することを特徴とする。
【0034】本発明の音声認識装置は、入力音声と標準
パターンとのパターンマッチングに用いられる確率音響
モデルと、単語の連鎖に関する制約を記述した確率言語
モデルとを備え、単語列からなる音声を確率に基づき認
識する音声認識装置において、基準コーパスNグラム確
率モデルと適応コーパスN−1グラム確率モデルとを用
いて出現頻度が0でないNグラム条件付確率の適応を行
い、当該条件付確率を用いて確率言語モデルを生成する
ことを特徴とする。
【0035】
【発明の実施の形態】本発明におけるスムージング方法
について図5を参照して詳細に説明する。本発明におけ
るスムージング方法は、図1に示すような構成の連続音
声認識における言語確率推定手段において用いられ、言
語確率推定手段としては、図2、3に示すような構成お
よび動作を行うNグラム推定手段を用いる。本発明のス
ムージング方法は、図3におけるnグラム推定手段で用
いられる手法である。すなわち本発明のスムージング方
法は、図4に示された文献2のバックオフを用いたnグ
ラム推定手段に代わるものである。文献2の説明の場合
と同様、トライグラムについて、特に、単語列U、V、
Wに対する条件付確率P(W|U、V)を求める場合につい
て説明する。
【0036】図5を参照すると、本発明におけるスムー
ジング方法は、特に、頻度積算手段501と、事後確率
最大化条件付確率計算手段502とから構成されてい
る。これらの手段はそれぞれ次のように動作する。
【0037】頻度積算手段501は、頻度積算手段40
1と同様に、単語列U、V、Wの出現頻度C(U、V、W)
を求める。
【0038】事後確率最大化条件付確率計算手段502
は、条件付確率P(W|U、V) を次のように求める。本発
明ではnグラムの条件付き確率に対し、n−1グラムを
その事前分布として用いる。今、nグラムの条件付き確
率を多値分布、その事前分布はディレクレ分布であると
仮定する。そのとき、事後確率を最大にするnグラムの
条件付確率は、n−1グラムの条件付き確率を用いて以
下のように計算される。
【0039】 P(W|U、V) = (C(U,V、W) + β P(W|V))/(C(U、V)+β) これは任意のnをもつnグラムについて計算できる。β
は制御変数であり、事前に与えられる必要がある。この
手法は、文献2の手法に比べると、条件付き確率の事前
分布をある特定の分布(ここではディレクレ分布)に仮
定することにより、より現実の事象に近い条件付確率を
求める手法とみなすことが可能である。また、上の式か
ら容易にわかるように、文献2の手法のような、単語列
U、V、Wの出現頻度C(U、V、W)が0かどうかによって
推定方法を変える手法ではない。出現頻度が0の場合の
みならず、極めて小さい場合にも、n−1グラムの条件
付確率を出現頻度と重みつけて用いる手法となってお
り、出現確率が極めて小さいときの条件付確率の推定が
安定して行える。
【0040】図6は本発明の言語適応方法の動作および
構成を示した図である。今、基準となるコーパスをA、
適応の対象となるコーパスをBとする。このとき、コー
パスBの適応nグラム確率はPB(W|U、V)はコーパスAの
nグラム確率PA(W|U、V)、コーパスBのn−1グラム確
率PB(W|V)を用いて以下のように計算する。
【0041】PB(W|U、V) = (CB(U、V、W)+β PB(W|V) + γ
PA(W|U、V)) / (CB(U、V) + β + γ) ここで、β、γは制御変数である。
【0042】この式から容易にわかるように、本発明は
文献3の言語適応の手法と異なり、コーパスBのn−1
グラムの条件付確率も用いて、適応後のnグラム確率を
求めている。したがって、適応コーパス中の出現確率が
極めて小さいときでも適応条件付確率の推定が安定して
行える。任意のnに対して拡張可能である。
【0043】
【発明の効果】第1の効果は、確率言語モデルのスムー
ジングにおいて、言語コーパス中の出現頻度の小さいN
グラムに対する条件付確率の推定が安定になる。これ
は、出現頻度が0でないNグラム条件付確率の推定にお
いて、N−1グラムの条件付確率を利用しているためで
ある。
【0044】第2の効果は、確率言語モデルの言語適応
において、適応コーパス中の出現頻度の小さいNグラム
に対する条件付確率の推定が安定になる。これは、出現
頻度が0でないNグラム条件付確率の適応において、適
応コーパスにおけるN−1グラムの条件付確率を利用し
ているためである。
【図面の簡単な説明】
【図1】図1は連続音声認識装置の実施の形態を示すブ
ロック図である。
【図2】図2はNグラム確率言語モデル学習の実施の形
態を示すブロック図である。
【図3】図3はNグラム確率言語モデル学習の実施の形
態の動作を示す流れ図である。
【図4】図4は文献2のバックオフNグラム条件付確率
スムージング手法の実施の形態の動作を示す流れ図であ
る。
【図5】図5は本発明におけるNグラム条件付確率確率
スムージング手法の実施の形態の動作を示す流れ図であ
る。
【図6】図6は文献3のNグラム確率言語モデル適応の
実施の形態を示すブロック図である。
【図7】図7は本発明におけるNグラム確率言語モデル
適応の実施の形態を示すブロック図である。
【符号の説明】
101 音響モデル 102 音響確率計算手段 103 言語モデル 104 言語確率計算手段 201 言語コーパス 202 Nグラム推定手段 203 Nグラム言語モデル 204−n nグラム確率モデル 301 ゼログラム確率設定手段 303 nグラム推定手段 401 頻度積算手段 402 頻度減算手段 403 未出現連鎖頻度算出手段 404 条件付確率算出手段 501 頻度積算手段 502 事後確率最大化条件付確率計算手段 601 基準コーパスNグラム確率モデル 602 Nグラム確率適応手段 603 適応コーパスNグラム確率モデル 604 適応Nグラム確率モデル 701 基準コーパスNグラム確率モデル 702 Nグラム確率適応手段 703 適応Nグラム確率モデル 704−n 適応コーパスnグラム確率モデル

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】言語コーパスを用いた確率言語モデルの学
    習方法において、Nグラム出現頻度とN−1グラムの条
    件付確率とを用いて出現頻度が0でないNグラムの条件
    付確率を求め、当該条件付確率を用いて前記確率言語モ
    デルを生成することを特徴とする確率言語モデル学習方
    法。
  2. 【請求項2】入力音声と標準パターンとのパターンマッ
    チングに用いられる確率音響モデルと、単語の連鎖に関
    する制約を記述した確率言語モデルとを備え、単語列か
    らなる音声を確率に基づき認識する音声認識装置におい
    て、Nグラム出現頻度とN−1グラムの条件付確率とを
    用いて出現頻度が0でないNグラムの条件付確率を求
    め、当該条件付確率を用いて前記確率言語モデルを生成
    することを特徴とする音声認識装置。
  3. 【請求項3】基準言語コーパスから適応言語コーパスへ
    の言語適応方法において、基準コーパスNグラム確率モ
    デルと適応コーパスN−1グラム確率モデルとを用いて
    出現頻度が0でないNグラム条件付確率の適応を行い、
    当該条件付確率を用いて確率言語モデルを生成すること
    を特徴とする確率言語適応方法。
  4. 【請求項4】入力音声と標準パターンとのパターンマッ
    チングに用いられる確率音響モデルと、単語の連鎖に関
    する制約を記述した確率言語モデルとを備え、単語列か
    らなる音声を確率に基づき認識する音声認識装置におい
    て、基準コーパスNグラム確率モデルと適応コーパスN
    −1グラム確率モデルとを用いて出現頻度が0でないN
    グラム条件付確率の適応を行い、当該条件付確率を用い
    て確率言語モデルを生成することを特徴とする音声認識
    装置。
JP10267490A 1998-09-22 1998-09-22 確率言語モデル学習方法、確率言語適応方法及び音声認識装置 Pending JP2000099086A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10267490A JP2000099086A (ja) 1998-09-22 1998-09-22 確率言語モデル学習方法、確率言語適応方法及び音声認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10267490A JP2000099086A (ja) 1998-09-22 1998-09-22 確率言語モデル学習方法、確率言語適応方法及び音声認識装置

Publications (1)

Publication Number Publication Date
JP2000099086A true JP2000099086A (ja) 2000-04-07

Family

ID=17445582

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10267490A Pending JP2000099086A (ja) 1998-09-22 1998-09-22 確率言語モデル学習方法、確率言語適応方法及び音声認識装置

Country Status (1)

Country Link
JP (1) JP2000099086A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099086A (ja) * 2001-09-25 2003-04-04 Nippon Hoso Kyokai <Nhk> 言語・音響モデル作成方法および言語・音響モデル作成装置ならびに言語・音響モデル作成プログラム
CN102270450A (zh) * 2010-06-07 2011-12-07 株式会社曙飞电子 多模型自适应和语音识别装置及其方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099086A (ja) * 2001-09-25 2003-04-04 Nippon Hoso Kyokai <Nhk> 言語・音響モデル作成方法および言語・音響モデル作成装置ならびに言語・音響モデル作成プログラム
CN102270450A (zh) * 2010-06-07 2011-12-07 株式会社曙飞电子 多模型自适应和语音识别装置及其方法
CN102270450B (zh) * 2010-06-07 2014-04-16 株式会社曙飞电子 多模型自适应和语音识别装置及其方法

Similar Documents

Publication Publication Date Title
US6477488B1 (en) Method for dynamic context scope selection in hybrid n-gram+LSA language modeling
US8392188B1 (en) Method and system for building a phonotactic model for domain independent speech recognition
US20060293901A1 (en) Methods and apparatus for generating dialog state conditioned language models
US20030093263A1 (en) Method and apparatus for adapting a class entity dictionary used with language models
WO2007061674A1 (en) Word clustering for input data
JP2000099083A (ja) 音声語彙要素の発生の確率を推定する方法
Fukada et al. Automatic generation of multiple pronunciations based on neural networks
US6980954B1 (en) Search method based on single triphone tree for large vocabulary continuous speech recognizer
Cai et al. Compact and efficient WFST-based decoders for handwriting recognition
US20020156628A1 (en) Speech recognition system, training arrangement and method of calculating iteration values for free parameters of a maximum-entropy speech model
US20220310067A1 (en) Lookup-Table Recurrent Language Model
KR100480790B1 (ko) 양방향 n-그램 언어모델을 이용한 연속 음성인식방법 및장치
JP2886121B2 (ja) 統計的言語モデル生成装置及び音声認識装置
US20010003174A1 (en) Method of generating a maximum entropy speech model
JP2000099086A (ja) 確率言語モデル学習方法、確率言語適応方法及び音声認識装置
US8260614B1 (en) Method and system for expanding a word graph to a phone graph based on a cross-word acoustical model to improve continuous speech recognition
JP2938865B1 (ja) 音声認識装置
Häkkinen et al. Assessing text-to-phoneme mapping strategies in speaker independent isolated word recognition
JP4362054B2 (ja) 音声認識装置及び音声認識プログラム
JP2002082690A (ja) 言語モデル生成方法、音声認識方法及びそのプログラム記録媒体
KR100277690B1 (ko) 화행 정보를 이용한 음성 인식 방법
EP0903727A1 (en) A system and method for automatic speech recognition
JP2000356997A (ja) 統計的言語モデル生成装置及び音声認識装置
Smaïli et al. An hybrid language model for a continuous dictation prototype
JP2001109491A (ja) 連続音声認識装置および方法

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20020625