JPH10319989A - 統計的言語モデル及びその作成方法 - Google Patents

統計的言語モデル及びその作成方法

Info

Publication number
JPH10319989A
JPH10319989A JP9127061A JP12706197A JPH10319989A JP H10319989 A JPH10319989 A JP H10319989A JP 9127061 A JP9127061 A JP 9127061A JP 12706197 A JP12706197 A JP 12706197A JP H10319989 A JPH10319989 A JP H10319989A
Authority
JP
Japan
Prior art keywords
word
cluster
category
words
language model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9127061A
Other languages
English (en)
Inventor
Shoichi Matsunaga
昭一 松永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP9127061A priority Critical patent/JPH10319989A/ja
Publication of JPH10319989A publication Critical patent/JPH10319989A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)

Abstract

(57)【要約】 【課題】 単語間の局所的関係のみならず大局的関係も
捕えて音声認識を行うことができ、かつ記憶容量も小と
することができる。 【解決手段】 テキストデータを当間にもとづき、初期
クラスタに分け(A1)、出現済との高い順に所定数
(50)の単語(列)を選択し(A2)、その各1つに
ついてクラスタより分離してクラスタ候補を作り(A
4)、また接続可能な各単語(列)と接続してクラスタ
候補を作り(A5)かつ、これらクラスタ候補をP(w
i |Ci )P(wi |wi-1 ,Ri-1 )、つまりクラス
タCi でのwiの出現確率と、wi-1 とそのカテゴリ
(自立語か付属語)と異なるカテゴリで最も近いクラス
タRi-1 とに対するwi の出現確率との積を基準とし
て、各クラスタ候補の最良のものを求めて、これを新た
なクラスタとし(A6)、クラスタ数が所定数となるま
で、A2〜A6を繰返す。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、単語列よりなる
音声の認識に利用される統計的言語モデル及びその作成
方法に関する。
【0002】
【従来の技術】統計的言語モデルを用いた音声認識は図
5に示すようにして行われている。A/D変換器1でデ
ジタル信号に変換され、特徴抽出部2においてLPCケ
プストラム分析された後、1フレーム(例えば10ミリ
秒)ごとに特徴パラメータに変換される。この特徴パラ
メータは、例えばLPCケプストラム係数である。学習
用音声データベースより、上記特徴パラメータと同一形
式で、音素標準パターンを作り、音響モデルメモリ4に
記憶してある。この音素標準パターンは、例えば隠れマ
ルコフモデルによる音素モデルである。また、上記学習
用テキストデータベースより作成された統計的言語モデ
ルが統計的言語モデルメモリ5に記憶してある。
【0003】音声認識部3ではメモリ5内の、統計的言
語モデルを用いて選出した複数の単語候補について、そ
の単語候補の読みを表わす音素列パターンを標準パター
ンメモリ4から読みだし、入力音声の特徴パラメータの
時系列との類似尤度をそれぞれ求める。また、新たに選
出した単語を含む各仮説の単語系列を、統計的言語モデ
ルメモリ5から読み出し、その生起の尤度をそれぞれ求
める。この類似の尤度と生起の尤度の和を総合尤度と
し、この値の最も高い仮説の単語系列を、認識結果とし
て認識結果出力部6へ出力する。
【0004】前記統計的言語モデルとしては、文中にお
いて、過去の直前のn−1個の連続する単語列から、次
の単語の出現確率を推定する単語n−gramモデル
(バイグラム(n=2の場合)、トライグラム(n=3
の場合))は大語彙の連続音声認識においてその有効性
が広く示されている(例えば、Bahl, L. R., Jelinek,
F. & Mercer, R. L. : A maximum likelihood approach
to continuous speechrecognition. IEEE Transaction
on Pattern Analysis and Machine Intelligence PAMI
-5, pp. 179-190(1983)) 。しかしながら、このモデル
は主に局所的な連続する2,3語の制約を表すため、離
れた単語間の大局的な特徴を捕えにくくなる問題があっ
た。また、一般に、日本語の形態素解析を行うと、助詞
や活用などで単語が短く分割され、このモデル化は効率
的とは言えない。nを増加させることにより、この問題
を軽減することができるが、統計的言語モデルを格納す
るための容量が膨大になることや大規模なテキストが必
要となるという問題がある。
【0005】これらの問題に対処するために、大局的特
徴を考慮できるモデルとして、トリガモデルが提案され
ている(例えば、“ A stochastic language model for
speech recognition integrating local and global c
onstraints, ”Proc. ICASSP-94, pp. II-5-II8(199
4))。これらは、離れた単語間の格関係や呼応表現を扱
える要素を持つ。しかし、やはり統計的言語モデルを格
納するための容量が膨大になることや大規模なテキスト
が必要となるという問題がある。
【0006】一方、nを増加させても容量が膨大になら
ないようにするために、可変(単位)長n−gramや
品詞やクラスタリングによるクラスn−gram(例え
ば、政瀧浩和,他:“連続音声認識のための品詞単語可
変長N−gram,”音学講論(1996-3)pp. 195-196
(1996))が提案されている。この方法では、容量を低減
することはできるが、離れた単語間の大局的な特徴を捕
えにくくなる問題があり、このモデル化は効率的ではな
いという問題点があった。
【0007】
【発明が解決しようとする課題】この発明の目的は、以
上の問題点を解決し、局所的な関係のみならず大局的な
関係を捕えて音声認識することを可能とし、かつ記憶容
量が少なく実現できる単語クラスタを用い、かつクラス
タの数と種類を制御して逐次学習により効率的に言語モ
デルを作成する統計的言語モデル作成法と、これにより
作成された統計的言語モデルを提供することにある。
【0008】
【課題を解決するための手段】この発明による統計的言
語モデルは、単語列w1 ,w2 ,…,wi-1 が発声され
た後に、単語wi が発声される確率P(wi |w1 ,w
2 ,…,wi-1 )が、上記単語wi もしくはwi の属す
る単語クラスタCi と、その直前の単語wi-1もしくは
i-1 の属する単語クラスタCi-1 と、直前の単語w
i-1 もしくはそのwi-1 が属する単語クラスタのカテゴ
リと異なる上記単語列wi ,w2 ,…,w i-1 における
最後部の単語クラスタRとによって決定されるものであ
る。
【0009】さらに、この発明に係る請求項2記載の統
計的言語モデルでは、上記確率P(wi |w1 ,w2
…,wi-1 )が次式で近似されている。 P(wi |w1 ,w2 ,…,wi-1 P(wi |Ci ) ・P(Ci |Ci-1,i-1 ) …(1) ここでP(wi |Ci )は単語クラスタCi で単語wi
が出現する確率であり、Ri-1 はCi-1 の単語クラスタ
のカテゴリと異なるカテゴリでそれより前で最も近い単
語クラスタであり、P(Ci |Ci-1,i-1 )は
i-1 ,Ri-1 の後にCi が現われる確率である。
【0010】またさらに、この発明に係る請求項3記載
の統計的言語モデルは、上記単語もしくは単語クラスタ
のカテゴリは自立語、付属語、自立語と付属語の連結語
であることを特徴とし、単語クラスタとそれに属する単
語は同じカテゴリであることを特徴とする。またさら
に、この発明に係る請求項4記載の統計的言語モデルの
作成方法において、単語の属性を考慮して、すべての単
語を複数個のクラスタに分離し、式(1)の確率を初期
状態の統計的言語モデルとして生成する生成過程と、出
現頻度の高い単語群もしくは単語列群を予備的に選択す
る選択過程と、上記生成過程によって生成された初期状
態の統計的言語モデルに対し、上記高頻度の単語の中か
ら一つを選択して単語クラスタから分離して、新しい単
語クラスタ候補を生成すると共に式(1)に基づき指標
を求める分離過程と、上記生成過程によって生成された
統計的言語モデルに対し、上記高頻度の単語の中から一
つ選択した単語を単語結合させて新しい単語クラスタ候
補を生成すると共に式(1)に基づく指標を求める結合
過程と、上記分離過程と上記結合過程を上記高頻度の単
語の全てについて行った後、これら単語クラスタ候補中
のその最良のものを選択して新たな単語クラスタとする
クラスタ生成過程と、統計的言語モデルのクラスタ数が
所望の数になるまで、上記選択過程、上記分離過程、上
記結合過程、上記更新過程を繰り返す繰返し過程とを有
する。
【0011】
【発明の実施の形態】この発明による音声認識部が用い
る統計的言語モデルについて説明する。統計的言語モデ
ルはテキストデータより作成する。テキストデータの各
単語はあらかじめ自立語と付属語に区別する。文Sが単
語列w1 ,w2 ,…, N (w1 N と表す)からなると
し、その出現確率は P(S)=P(w1 ,w2 ,…, n )=Πi=1 N P(wi |w1 i-1 ) …(2) で表される。P(wi |wi i-1 )はw1 ,w2 ,…,
i-1 の系列の次にwiが現われる確率である。
【0012】ここで、単語wi の最も近隣の単語のみ
を、局所および大局的制約として考慮する。単語列w1
i-1 の最も後部の付属語のカテゴリを持つ単語を
i-1 、自立語のカテゴリを持つ単語をhi-1 とする。
また、双方のカテゴリに属する単語も存在するとする。
単語wi に対して、wi-1 及びfi-1 ,hi-1 を用いて
P(w i |wi i-1 )を以下のように近似する。
【0013】P(wi |w1 i-1 P(wi
i-1 ,hi-1 ,fi-1 ) f,hの定義によりwi-1 はhi-1 もしくはfi-1 のど
ちらかのカテゴリを必ず持つから、 P(wi |wi-1 ,hi-1 ,fi-1 )= P(wi |wi-1 ,fi-1 ),wi-1 が自立語のカテゴリの場合 P(wi |wi-1 ,hi-1 ),wi-1 が付属語のカテゴリの場合 P(wi |wi-1 ,wi-2 ),wi-1 が双方のカテゴリの場合 と記述できる。
【0014】つまり1つ前の単語wi-1 と、かつ、その
単語wi-1 のカテゴリと異なるカテゴリで、そのwi-1
に最も近い単語に対し、単語wi が出現する確率として
P(wi |w1 i-1 )を近似する。wi-1 に対しwi
出現する確率は従来のバイグラムであり、局所的制約を
しており、fi-1 又はhi-1 に対しwi が出現する確率
は大局的制約をしており、P(wi |wi-1 ,f
i-1 (又はhi-1 ))は局所的制約と大局的制約を同時
に行っている。
【0015】単語列w1 ,w2 ,…,w8 の各単語のカ
テゴリが図2Cに示す場合、w8 についてみるとその前
の単語w7 のカテゴリがhであるから、fi-1 はw5
なり、w7 についてみるとその前の単語w6 のカテゴリ
がhであるから、fi-1 はw 5 となり、単語w6 につい
てみるとその前w5 のカテゴリはfであるからhi-1
3 となる。このようにP(wi |wi-1 ,fi-1 (又
はhi-1 ))は注目の単語に対し、ある程度離れ、かつ
直前の単語のカテゴリと異なる単語による制約を受ける
ことになる。
【0016】次に、容量の削減のために単語クラスを用
いて、以下の様に近似を行う。 P(wi |w1 ,w2 ,…,wi-1 P(wi |Ci ) ・P(Ci |Ci-1,i-1 ) …(3) ここで、Ci はwi の属する単語クラスタであって、単
語クラスタに属する単語は、全て自立語もしくは全て付
属語であるように同一カテゴリとして複数のクラスタを
設定し、たとえば、品詞情報を用いることが、一つの方
法であり、Ri-1はhi-1 もしくはfi-1 の属する単語
クラスタであって、Ci-1 のカテゴリと異なるものであ
る。
【0017】次にこの発明による統計的言語モデルの作
成方法の実施例を図1を用いて説明する。ステップA1
では初期単語クラスタを例えば品詞情報により設定す
る。ステップA2では出現頻度の高い単語もしくは単語
列を、すべての単語(列)の中から選ぶ(例えば、出現
頻度の高い200個)。
【0018】次にステップA3では、ステップA2で選
択した単語(列)を1個づつ順に選択する。すべての単
語もしくは単語列を選択し終えた場合にはステップA6
に進む。ステップA4ではステップA3で選択した一つ
の単語(列)を選択して単語クラスタから分離し、例え
ば図2Aに示すように単語クラスタCm から単語(列)
n を分離し、wn よりなる新たな単語クラスタ(候
補)と、Cm からwn を除去した単語クラスタCm −w
n とする。このようにして新しくクラスタ候補を生成す
る場合のペナルティーを計算する。このときのペナルテ
ィーの計算は、例えば式(4)で計算する。
【0019】 −Σi.j P(Ci,j ) Σk P(wk |Ci )P(Ci |Ci-1,j ) log(P(wk |Ci )P(Ci |Ci-1,j )) …(4) ここで単語wk は単語クラスタCi を構成する単語であ
り、Ci-1 はwk の直前の単語のクラスタ、Rj はwk
と大局的関係を持つ単語のクラスタであり、前記例では
i-1 のカテゴリと異なるカテゴリでCi-1 より前でこ
れに最も接近しているものである。このペナルティーの
計算は統計的言語モデルの作成で用いられるエントロピ
ーを最小化する手法に準拠したものであり、(P(wk
|Ci )P(Ci |Ci-1 ,Rj )の期待値が最大にな
るような指標を与えるものであればよい。
【0020】このステップA3で計算したペナルティー
と対応した選択単語(列)とを記憶してステップA3へ
戻る。ステップA5ではステップ2において選択した単
語(列)の一つを選択して、テキストデータ中のこれと
接続するすべての単語に対して、連続する単語を結合し
て一つの単語(列)とした場合の、ペナルティーを式
(4)で計算する。そして、単語列のペナルティーが最
も小さくなる単語(列)対とその値を記憶しておき、ス
テップA3に戻る。このとき、自立語と自立語が結合し
た場合には、カテゴリを自立語とする。付属語と付属語
が結合した場合には、カテゴリーを付属語とする。自立
語と付属語が結合した場合には、カテゴリーは自立語と
付属語の双方とする。自立語と付属語の双方のカテゴリ
ーをもつ単語列と、単語もしくは単語列が結合した場合
には、カテゴリーは自立語と付属語の双方とする。この
単語(列)より、単語クラスタは例えば図2Bに示すよ
うに、選択された単語(列)wm と、単語(列)wn
を結合することにより、新たな単語列wm n =wmn
含む単語クラスタ(候補)が、単語(列)wm を含む単
語クラスタ、単語(列)wn を含む単語クラスタの他に
生成されることになる。
【0021】ステップA6では、ステップA2で選択し
たすべての単語(列)中で、ステップA4の計算および
ステップA5の計算の中で、最もペナルティーの低くな
る場合の記憶していた単語もしくは単語列について、単
語の単語クラスタからの分離、もしくは単語(列)の結
合を実行する。この操作により、実際に単語クラスタ数
が一つ増えることになる。
【0022】ステップA7では、単語クラスタ数が所望
の数にまで増加した場合には処理を終了する。そうでな
い場合には、ステップA2に戻り、新しく高頻度単語
(列)を選ぶ。図3はモデル作成の途中段階における単
語クラスタの分割(C3 ,C4 ,C5)と単語の結合
(w3 ,w4 )の例、及び単語w5 ,w6 での確率の値
を示している。
【0023】ステップB1は初期状態の文の単語列と、
各単語の属するクラスタとカテゴリーを示している。こ
のときの単語w5 の出現確率は、P(w5 |C5 )P
(C5|C4 ,C1 )となることを示している。ステッ
プB2では単語w3 がクラスタC3 から分割され、単語
3 の単語クラスタが1つ増加し、更に処理を進めた結
果、単語w4 がクラスタC4 から分割され、単語w4
単語クラスタが増加した状態を示している。
【0024】ステップB3は単語w3 とw4 が結合した
単語クラスタが増加した状態と、ステップB4は単語w
5 がクラスタC5 から分割されて単語w5 の単語クラス
タが生成した状態をそれぞれ示し、このときの単語w5
の出現確率は、P(wk |C i )=P(w3,4
3,4 )=1であるからP(w5 |w3,4 ,C1 )とな
る。本発明者は、以上説明したこの実施例の統計的言語
モデルを用いてパープレキシティーによる評価を行うた
めに、シミュレーションを行った。パープレキシティー
の小さい言語モデルが、より良い音声認識性能を得るこ
とができることが知られているため、パープレキシティ
ーの値を従来の統計的言語モデルと比較することでこの
発明の能力は、音声認識実験を行わなくとも明らかにな
る。
【0025】実験は自由発話データベースの旅行会話の
書き起しを用いて行った。使用したデータは、2.2×
104 文章、3.5×104 単語よりなり、異なり語彙
数は6.4×103 である。初期値の単語クラスタのク
ラス数は80である。モデルの評価は同じ旅行会話の別
のテキスト490文章、7.4×103 単語を用いて行
った。この発明のモデルの性能と従来のモデル(バイグ
ラム、トライグラム、大局的制約を用いない場合の統計
的言語モデル、及び単語クラスタを用いないで大局的制
約を用いた言語モデル)との比較を図4に示す。この発
明ではクラス数を増加させることでパープレキシティを
より低下させることができた。比較的、容量が少ない状
態で、パープレキシティはクラス数240でほぼバイグ
ラムと等価となり、460クラスでトライグラムを下回
る。また、大局的制約を用いない場合の統計的言語モデ
ル、及び単語クラスタを用いないで大局的制約を用いた
言語モデルよりも小さくなり、この発明による統計的言
語モデルがより優れていることを示している。
【0026】以上説明したように、この発明の統計的言
語モデルを用いると文中の、局所的な関係のみならず大
局的な関係を捕えて音声認識ができ、かつ記憶容量が少
なく実現できる単語クラスタを用い、そのクラスタの数
と種類を制御して逐次学習により言語モデルを効率的に
作成することができる。
【0027】
【発明の効果】以上、詳述したように、この発明によれ
ば、文中の、局所的な関係のみならず大局的な関係を捕
えることで、言語モデルによる次単語の予測能力を向上
させ、また、記憶容量が少なく実現できる単語クラスタ
を用いることで、記憶容量を押さえ、さらにクラスタの
数と種類を制御して逐次学習により効率的に言語モデル
を作成することができ、単語クラスタを適切に設定でき
るため、所望の大きさもしくは予測制度に応じた統計的
言語モデルを提供できる。
【図面の簡単な説明】
【図1】この発明による言語モデル生成処理の実施例を
示すフローチャート。
【図2】Aは分離による単語クラスタの生成を示す図、
Bは結合による単語クラスタの生成を示す図、Cは文中
の大局的制約の例を示す図である。
【図3】図1の統計的言語モデルの生成処理の過程にお
ける確率値の例を示した図。
【図4】この発明のモデルと従来のモデルとの評価実験
シミュレーションの結果を示す図。
【図5】統計的言語モデルを用いた音声認識装置の機能
構成を示す図。

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 単語列w1 ,w2 ,…,wi-1 の後に、
    単語wi が出現する確率P(wi |w1 ,w2 ,…,w
    i-1 )が、 上記単語wi もしくはwi の属する単語クラスタC
    i と、 上記単語wi の直前の単語wi-1 もしくはwi-1 の属す
    る単語クラスタCi-1と、 上記単語列wi ,w2 ,…,wi-1 における直前の単語
    もしくはその単語の属する単語クラスタのカテゴリと異
    なるそれより前のカテゴリの単語クラスタRと、 によって決定されることを特徴とする統計的言語モデ
    ル。
  2. 【請求項2】 上記確率P(wi |w1 ,w2 ,…,w
    i-1 )が次の式で近似されていることを特徴とする請求
    項1記載の統計的言語モデル。 P(wi |Ci )・P(Ci |Ci-1,i-1 ) P(wi |Ci )は単語クラスタCi に単語wi が出現
    する確率、Ri-1 は単語クラスタCi-1 のカテゴリと異
    なるカテゴリのそれより前の最初の単語クラスタ、P
    (Ci |Ci-1,i-1 )はCi-1 かつRi-1 に対し、C
    i の出現確率である。
  3. 【請求項3】 上記単語もしくは単語クラスタのカテゴ
    リは自立語、付属語、自立語と付属語の連結語であるこ
    とを特徴とし、単語クラスタとそれに属する単語は同じ
    カテゴリであることを特徴とする請求項1又は2記載の
    統計的言語モデル。
  4. 【請求項4】 テキストデータを、単語の属性を考慮し
    て、すべての単語を複数個の単語クラスタに分離する生
    成過程と、 出現頻度の高い単語群もしくは単語列群を予備的に選択
    する選択過程と、 上記高頻度の単語又は単語列の中から一つを選択して単
    語クラスタから分離し、新しい単語クラスタ候補を生成
    すると共にその指標を請求項2の式に基づき求める分離
    過程と、 上記高頻度の単語又は単語列の中から一つを選択して単
    語又は単語列と結合させて新しい単語クラスタ候補を生
    成すると共にその指標を請求項2の近似式にもとづいて
    求める結合過程と、 上記選択された単語又は単語列の全てについて上記分離
    過程および上記結合過程によりそれぞれ生成した単語ク
    ラスタ候補中の最も指標の大きいものと対応する単語ク
    ラスタ候補を単語クラスタとする単語クラスタ生成過程
    と、 上記選択過程、上記分離過程、上記結合過程、上記クラ
    スタ生成過程とのクラスタ数が所望の数までなるまで繰
    り返して、統計的言語モデルを生成する繰り返し過程と
    を有する統計的言語モデル作成方法。
JP9127061A 1997-05-16 1997-05-16 統計的言語モデル及びその作成方法 Pending JPH10319989A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9127061A JPH10319989A (ja) 1997-05-16 1997-05-16 統計的言語モデル及びその作成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9127061A JPH10319989A (ja) 1997-05-16 1997-05-16 統計的言語モデル及びその作成方法

Publications (1)

Publication Number Publication Date
JPH10319989A true JPH10319989A (ja) 1998-12-04

Family

ID=14950630

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9127061A Pending JPH10319989A (ja) 1997-05-16 1997-05-16 統計的言語モデル及びその作成方法

Country Status (1)

Country Link
JP (1) JPH10319989A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012165529A1 (ja) * 2011-06-03 2012-12-06 日本電気株式会社 言語モデル構築支援装置、方法及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07104784A (ja) * 1993-10-04 1995-04-21 Atr Onsei Honyaku Tsushin Kenkyusho:Kk 統計的言語モデルを用いた音声認識方法
JPH08248988A (ja) * 1995-03-13 1996-09-27 Nippon Telegr & Teleph Corp <Ntt> 音声認識方法
JPH09134192A (ja) * 1995-11-10 1997-05-20 Atr Onsei Honyaku Tsushin Kenkyusho:Kk 統計的言語モデル生成装置及び音声認識装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07104784A (ja) * 1993-10-04 1995-04-21 Atr Onsei Honyaku Tsushin Kenkyusho:Kk 統計的言語モデルを用いた音声認識方法
JPH08248988A (ja) * 1995-03-13 1996-09-27 Nippon Telegr & Teleph Corp <Ntt> 音声認識方法
JPH09134192A (ja) * 1995-11-10 1997-05-20 Atr Onsei Honyaku Tsushin Kenkyusho:Kk 統計的言語モデル生成装置及び音声認識装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012165529A1 (ja) * 2011-06-03 2012-12-06 日本電気株式会社 言語モデル構築支援装置、方法及びプログラム

Similar Documents

Publication Publication Date Title
JP6916264B2 (ja) 切断アテンションに基づくリアルタイム音声認識方法、装置、機器及びコンピュータ読み取り可能な記憶媒体
CN108305634B (zh) 解码方法、解码器及存储介质
US6754626B2 (en) Creating a hierarchical tree of language models for a dialog system based on prompt and dialog context
JP4267385B2 (ja) 統計的言語モデル生成装置、音声認識装置、統計的言語モデル生成方法、音声認識方法、およびプログラム
JP4215418B2 (ja) 単語予測方法、音声認識方法、その方法を用いた音声認識装置及びプログラム
JPH06318096A (ja) 言語モデリング・システム及び言語モデルを形成する方法
WO2004034378A1 (ja) 言語モデル生成蓄積装置、音声認識装置、言語モデル生成方法および音声認識方法
Yamamoto et al. Multi-class composite N-gram language model
JP3364631B2 (ja) 統計的言語モデル生成装置及び音声認識装置
JP2886121B2 (ja) 統計的言語モデル生成装置及び音声認識装置
JP4595415B2 (ja) 音声検索システムおよび方法ならびにプログラム
JP2001242885A (ja) 音声認識装置および音声認識方法、並びに記録媒体
JP2002091484A (ja) 言語モデル生成装置及びこれを用いた音声認識装置、言語モデル生成方法及びこれを用いた音声認識方法、並びに言語モデル生成プログラムを記録したコンピュータ読み取り可能な記録媒体及び音声認識プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2938865B1 (ja) 音声認識装置
KR100277690B1 (ko) 화행 정보를 이용한 음성 인식 방법
KR101095864B1 (ko) 연속 숫자의 음성 인식에 있어서 혼동행렬과 신뢰도치 기반의 다중 인식후보 생성 장치 및 방법
JPH10319989A (ja) 統計的言語モデル及びその作成方法
JP2000267693A (ja) 音声処理装置及び索引作成装置
JP2968792B1 (ja) 統計的言語モデル生成装置及び音声認識装置
Smaïli et al. An hybrid language model for a continuous dictation prototype.
JP3240691B2 (ja) 音声認識方法
WO2002029612A1 (en) Method and system for generating and searching an optimal maximum likelihood decision tree for hidden markov model (hmm) based speech recognition
JPH1185179A (ja) 統計的言語モデルの作成方法
JPH10254480A (ja) 音声認識方法
JP3430265B2 (ja) 日本語音声認識方法