JP2004069858A - 言語モデル生成方法、装置およびプログラム、テキスト分析装置およびプログラム - Google Patents

言語モデル生成方法、装置およびプログラム、テキスト分析装置およびプログラム Download PDF

Info

Publication number
JP2004069858A
JP2004069858A JP2002226575A JP2002226575A JP2004069858A JP 2004069858 A JP2004069858 A JP 2004069858A JP 2002226575 A JP2002226575 A JP 2002226575A JP 2002226575 A JP2002226575 A JP 2002226575A JP 2004069858 A JP2004069858 A JP 2004069858A
Authority
JP
Japan
Prior art keywords
symbol
class
classes
read
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002226575A
Other languages
English (en)
Other versions
JP4024614B2 (ja
Inventor
Takaaki Hori
堀 貴明
Katsutoshi Ofu
大附 克年
Shoichi Matsunaga
松永 昭一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2002226575A priority Critical patent/JP4024614B2/ja
Publication of JP2004069858A publication Critical patent/JP2004069858A/ja
Application granted granted Critical
Publication of JP4024614B2 publication Critical patent/JP4024614B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

【課題】一つの記号に対して可能性のあるすべてのクラスを割り当てて記号連鎖確率(言語モデル)を推定する。
【解決手段】テキストデータを記憶媒体に格納したテキストデータベース140より読み出された記号列の個々の記号について、記号およびこれに対応する単一或いは複数のクラスを記憶媒体に格納した記号・クラス対応表150を参照して対応する複数のクラスを求めてそのクラスリストを生成して記憶媒体に格納し、読み出した記号列の上で隣接するN個(Nは2以上の整数)の記号に対応するN個のクラスリストからクラスを一つづつ選択するすべての組合せに対してクラス連鎖の出現頻度を数え、数え上げた結果得られるクラス出現連鎖の頻度情報から言語モデルである記号連鎖確率を生成する言語モデル生成方法、装置およびプログラム、テキスト分析装置およびプログラム。
【選択図】 図4

Description

【0001】
【発明の属する技術分野】
この発明は、言語モデル生成方法、装置およびプログラム、テキスト分析装置およびプログラムに関し、特に、人間が発声した音声を入力信号とし、その音声を音声標準パターン(音響モデル)および記号連鎖確率(言語モデル)を使用して認識し、認識結果を記号列として出力する言語モデル生成方法、装置およびプログラム、テキスト分析装置およびプログラムに関する。
【0002】
【従来の技術】
音声入力を音声認識して記号列に変換する場合、多数の文章より成る大規模なテキストデータベースを使用して記号の出現連鎖に関する記号連鎖確率(言語モデル)を生成しておき、これを利用することにより音声認識の性能を向上させる手法が従来から知られている。
ここで、記号とは、文章を表現するテキストデータを任意の方法で区分することにより得られる文字または文字列とし、文字、単語、文節その他の文章を表わす。記号列とは複数の記号が一列に並んだものを表わす。
【0003】
記号連鎖確率は、N個の記号に対する連鎖確率を扱う場合はNグラムモデルと呼ばれており、特にNが2の場合をバイグラム、Nが3の場合をトライグラムと呼ぶ。Nグラムモデルについては、例えば、東京大学出版、北研二著「確率的言語モデル」P.57〜P.99に開示されている。また、Nグラムモデルを使用した音声認識の方法は、社団法人電子情報通信学会編、中川聖一著「確率モデルによる音声認識」P.109〜P.128に開示されている。
Nグラムモデルはテキストデータベースに含まれるN個の記号より成る記号連鎖の出現回数を数えることにより求めることができる。例えば、2個の記号A、Bが連鎖する確率であるバイグラムの場合、記号Aに続いて記号Bが出現する回数をF(A、B)、記号Aが出現する回数をF(A)とすると、F(A、B)をF(A)で割った
P(B|A)=F(A、B)/F(A)
を記号Aの次に記号Bが生じるバイグラム確率として求めることができる。
【0004】
また、3個の記号A、B、Cが連鎖する確率であるトライグラムの場合、記号列A、Bに続いて記号Cが出現する回数をF(A、B、C)、記号Aに続いて記号Bが出現する回数をF(A、B)とすると、F(A、B、C)をF(A、B)で割った
P(C|A、B)=F(A、B、C)/F(A、B)
を記号列A、Bの次に記号Cが生じるトライグラム確率として求めることができる。
【0005】
しかし、記号連鎖確率を生成するには、認識タスク(発声内容)と同じまたは類似した大規模なテキストデータベースを用意する必要がある。このテキストデータの分量が不充分な場合、一般的な記号連鎖が出現しないことがあり、その記号連鎖に対する連鎖確率が0になるという問題(ゼロ頻度問題)、記号連鎖の頻度が小さいために連鎖確率の推定精度が低下する問題が生ずる。
この問題を解決するに、テキストデータベースから読み出した記号列に含まれる個々の記号を、その記号の分類属性(クラス)を表す記号に変換することによりクラス連鎖確率を求め、求めた記号属性連鎖確率をもって記号連鎖確率とするクラスモデル法がある。このクラスモデル法は、例えば、東京大学出版、北研二著「確率的言語モデル」P.72〜P.74に開示されている。
【0006】
クラスモデル法は、2個の記号A、Bが連鎖する確率であるバイグラムの場合、記号Aに続いて記号Bが出現する回数F(A、B)の代わりに、記号Aのクラスc(A)に続いて記号Bのクラスc(B)が出現する回数であるF(c(A)、c(B))、記号Aの出現する回数F(A)の代わりに記号Aのクラスc(A)が出現する回数F(c(A))を使用して、クラス連鎖確率
P(c(B)|Ic(A))=F(c(A)、c(B))/F(c(A))
を求め、更に、記号Bがクラスc(B)に属する確率P(B|c(B))を掛けた
P(B|A)=P(B|c(B))×P(c(B)|c(A))
を記号Aの次に記号Bが生じるバイグラム確率として求めることができる。
【0007】
記号Bがクラスc(B)に属する確率P(B|c(B))は、例えばテキストデータベース中の記号Bの頻度F(B)をクラスc(B)の頻度F(c(B))で割って
P(B|c(B))=F(B)/F(c(B))
として求めることができる。
また、同じクラスに属する記号はすべて均等に出現するものと仮定して、クラスc(B)に属する記号の種類数R(c(B))を使用して
P(B|c(B))=1/R(c(B))
として求めることもできる。同一クラスに属する記号が均等に出現することを仮定すると、コーパスに一度も出現しない記号に対しても、その記号のクラスが判かれば0ではない確率を与えることができるというメリットがある。
【0008】
クラスモデル法は、記号の種類数と比較してクラスの種類数を少なく設定することにより、テキストデータベース中に殆ど出現せずに精度良く推定することができない記号連鎖確率であっても、対応するクラス連鎖であればより多く出現してクラス連鎖確率を精度良く推定することができる場合があるので、記号連鎖確率の代わりにクラス連鎖確率を使用すると先のゼロ頻度問題、推定精度低下の影響を緩和することができる。
クラスモデル法に基づいて記号連鎖確率を求める手順を図1を参照して説明する。クラス連鎖カウント部130に、テキストデータベース140から記号列を読み込み、読み込まれた個々の記号について、属するクラスを記号・クラス対応表150を参照して求め、読み込まれた記号連鎖に対応するクラス連鎖の出現回数を数える。ここで、記号・クラス対応表150におけるデータの対応関係について説明するに、記号・クラス対応表150はテキストデータベース140に出現する個々の記号が何れのクラスに属するかを定義した、記号およびこれに対応する単一或いは複数のクラスを記憶媒体に格納したデータベースである。記号・クラス対応表150には、テキストデータベース140に出現する記号が列挙され記録されており、その列挙された個々の記号に対してその個々の記号が対応する単一或いは複数のクラスを格納している。データの格納形式としては、例えば、各記号のテキストデータを使用して表A1に示される如く格納する。
(表A1)
東京:[都市名],[駅名]
西部新宿:[駅名]
ラーメン屋:[店舗],[レストラン]
・・・・・・・・
NTT:[会社],[組織]
【0009】
表A1の各行は、個々の記号(左端からコロン:の前迄の文字列が)カンマ,により区切られた複数のクラスに対応することを示している。また、事前に個々の記号、クラスにそれらを特定するコード番号を割り当てておいて、記号、クラスのテキストデータを、それらを指し示すコード番号に置き換えて記憶してもよい。記号とクラスの対応関係は、また、後で説明される図示説明においては、便宜上矢印→により表現している。この記号・クラス対応表は予めテキストデータベースに出現する記号を調べて列挙し、その個々の記号に対して、予め用意しておいたクラスの集合の中から一つ或いは複数のクラスを選び、その記号に割り当てることにより作成する。この記号・クラス対応表を使用することにより、テキストデータベース140から読み出した記号に対する単一或いは複数のクラスを求めることができ、後で説明される図5、図6の手順に従って、クラスの出現連鎖回数を数えあげることができる。
【0010】
記号連鎖確率生成部120においては、クラス連鎖カウント部130においてクラス出現連鎖を数えることにより得られたクラス出現連鎖頻度を使用してクラスモデル法に基づいて記号連鎖確率を求め、記号連鎖確率(言語モデル)データベース110に格納する。ここで、記号連鎖確率データベース110のデータの種別について説明するに、記号連鎖確率データベース110は、記号、クラスの単独或いは連鎖して出現する確率を格納するデータベースである。例えば、記号の2回出現連鎖までを考慮するバイグラムの場合、以下の表A2に示される如く個々の記号およびクラス、或いは、記号およびクラスの連鎖を表すテキストデータとその出現確率を対にして記録したものである。また、事前に個々の記号、クラスにそれらを特定するコード番号を割り当てておいて、記号、クラスのテキストデータを、それらを指し示すコード番号に置き換えて記憶してもよい。この記号連鎖確率データベース110に記録される記号連鎖確率は、後で説明される図5、図6の手順に従って、個々の出現連鎖回数を数えあげた後に、p27ないし12、28の計算式に基づいて計算することができ、表A2の如く記録する。
(表A2)
[都道府県]          0.3
[店舗]              0.3
の                    0.2
で                    0.1
です                  0.1
の,[都道府県]   0.67
で,[都道府県]      0.33
[店舗],の          1.0
[店舗],で          1.0
です,[店舗]        0.33
【0011】
図1のクラス連鎖カウント部130において読み込まれた記号列からクラス連鎖の出現回数を求める手順を図2と図3を参照して説明する。図2はバイグラムの場合を説明する図であり、図3はトライグラムの場合を説明する図である。図2、図3において、CLASS(w)という関数は、記号wに対して、記号wが属するクラスを図1の記号・クラス対応表を使用して求める関数とする。また、テキストデータベースから記号を読み込む際に、既にテキストデータベースからすべての記号を読み終えている場合は、その読み込まれる記号はEOFになるものとする。
【0012】
図2の手順は、S1から始まり、S2において最初の記号を読み込みxに代入し、S3において記号xのクラスCLASS(x)を求めてcに代入する。S4において記号を読み込みwに代入し、S5においてwがEOFになる迄S7、S8、S9、S4を繰り返す。S5においてwがEOFである(テキストデータを全て読み終えた)ならS6に移り終了する。S7において、記号wのクラスCLASS(w)を求め、cに代入し、S8においてクラスの連鎖c、cの出現回数F(c、c)を1増やす。ここで、cは現在読み込んだ記号のクラス、cは一つ前に読み込んだ記号のクラスを表わしている。S9においてはcをcに代入し、S4に戻る。
【0013】
図3の手順も同様に、S1から始まり、S2において最初の記号とその次の記号を読み込みそれぞれx、yに代入し、S3において記号xのクラスCLASS(x)と記号yのクラスCLASS(y)を求めてそれぞれc、cに代入する。S4においては、次の記号を読み込みwに代入し、S5においてwがEOFになる(テキストデータを全て読み終える)までS7、S8、S9、S4を繰り返す。S5においてwがEOFならS6に移り終了する。S7においては、記号wのクラスCLASS(w)を求めてcに代入し、S8においては、クラスの連鎖c、c、cの出現回数F(c、c、c)を1増やす。ここで、cは現在読み込んだ記号のクラス、cは一つ前に読み込んだ記号のクラス、cは二つ前に読み込んだ記号のクラスを表わしている。Sにおいては、cをcに、cをcに代入し、S4に戻る。
【0014】
【発明が解決しようとする課題】
一般に、利用場面、対話の文脈その他の違いにより一つの記号に対して複数のクラスが考えられるケースがある。例えば、記号「東京」のクラスとして「都市名」、「駅名」が考えられるケースがある。
従来、この様に一つの記号に複数のクラスが割り当てられる場合、複数の可能性があっても何れか一つのクラスに決める。例えば、「東京」という記号のクラスはすべて「都市名」とする。或いは、テキストデータベース中の個々の記号が何れのクラスに属するかを明示的に記す。例えば、「東京(駅名)/から/大阪/まで/の/新幹線/です」とするか、「東京(都市名)/の/大久保/あたり/です」の様に括弧()でクラス名を併記しておく、という方法がある。
【0015】
しかし、或る記号に対して複数の可能性があるクラスを何れか一つのクラスに決めると、この決められたクラス以外のクラスを含むクラス連鎖が充分に出現しないことがあり、クラス連鎖確率に関するゼロ頻度問題、推定精度低下の可能性が生じる。
一方、テキストデータベース中の個々の記号が何れのクラスに属するか明示的に示すには、何らかの知識、例えば、前後の記号、その記号列がどの様な内容を表わしているかという知識を利用して一つ一つの記号が何れのクラスに属するかを分析しなければならない。
【0016】
この発明は、一つの記号に対して何れか一つのクラスを割り当てるのではなくして、記号連鎖確率(言語モデル)を推定することにより、個々のクラス出現連鎖の確率を推定するに使用するクラス出現連鎖の数を増加して、クラス連鎖確率に関するゼロ頻度問題、推定精度低下の可能性を軽減することができ、何らかの知識を利用してテキストデータベース中の個々の記号が何れのクラスに属するかを判断する手間を省くことができるという上述の問題を解消した言語モデル生成方法、装置およびプログラム、テキスト分析装置およびプログラムを提供するものである。
【0017】
【課題を解決するための手段】
テキストデータを記憶媒体に格納したテキストデータベース140より読み出された記号列の個々の記号について、記号およびこれに対応する単一或いは複数のクラスを記憶媒体に格納した記号・クラス対応表150を参照して対応する複数のクラスを求めてそのクラスリストを生成して記憶媒体に格納し、読み出した記号列の上で隣接するN個(Nは2以上の整数)の記号に対応するN個のクラスリストからクラスを一つづつ選択するすべての組合せに対してクラス連鎖の出現頻度を数え、数え上げた結果得られるクラス出現連鎖の頻度情報から言語モデルである記号連鎖確率を生成する言語モデル生成方法を構成した。
【0018】
記号列を表すテキストデータを記憶媒体に格納したテキストデータベース140と、記号およびこれに対応する単一或いは複数のクラスを記憶媒体に格納した記号・クラス対応表150と、この記号・クラス対応表を参照して一つの記号に対応する複数のクラスを求めてそのリストを生成記憶するするクラスリスト生成部460と、テキストデータベースより記号列を読み出してその個々の記号をクラスリスト生成部に送り、その個々の記号に対応するクラスリストを得て、読み出した記号列の上で隣接するN個(Nは2以上の整数)の記号に対応するN個のクラスリストからクラスを一つづつ選択するすべての組合せに対してクラス連鎖の出現頻度を数えるクラス連鎖組合せカウント部430と、クラス連鎖組合せカウント部において数え上げた結果得られるクラス出現連鎖の頻度情報から言語モデルである記号連鎖確率を生成する記号連鎖確率生成部120とを有する言語モデル生成装置を構成した。
【0019】
記号列を表すテキストデータを記憶媒体に格納したテキストデータベースより読み出された記号列の個々の記号について、記号およびこれに対応する単一或いは複数のクラスを記憶媒体に格納した記号・クラス対応表を参照して対応する複数のクラスを求めてそのクラスリストを生成記憶し、読み出した記号列の上で隣接するN個(Nは2以上の整数)の記号に対応するN個のクラスリストからクラスを一つづつ選択するすべての組合せに対してクラス連鎖の出現頻度を数え、数え上げた結果得られるクラス出現連鎖の頻度情報から言語モデルである記号連鎖確率を生成し、記号連鎖確率データベースに格納し、次いで、記号連鎖確率データベースから読み出した記号連鎖確率を使用して、入力テキストデータに最も適合する記号列を選び出すテキスト分析方法を構成した。
【0020】
先のテキスト分析方法において、入力テキストデータを音声入力とし、音声標準パターンデータベースから読み出した音声標準パターンを使用して入力音声に最も適合する記号列を選び出すテキスト分析方法を構成した。
記号列を表すテキストデータを記憶媒体に格納したテキストデータベース140と、記号およびこれに対応する単一或いは複数のクラスを記憶媒体に格納した記号・クラス対応表150と、この記号・クラス対応表を参照して一つの記号に対応する複数のクラスを求めてそのリストを生成記憶するするクラスリスト生成部460と、テキストデータベースより記号列を読み出してその個々の記号をクラスリスト生成部に送り、その個々の記号に対応するクラスリストを得て、読み出した記号列の上で隣接するN個(Nは2以上の整数)の記号に対応するN個のクラスリストからクラスを一つづつ選択するすべての組合せに対してクラス連鎖の出現頻度を数えるクラス連鎖組合せカウント部430と、クラス連鎖組合せカウント部430において数え上げた結果得られるクラス出現連鎖の頻度情報から言語モデルである記号連鎖確率を生成する記号連鎖確率生成部120と、求められた言語モデルである記号連鎖確率を格納する記号連鎖確率データベース110と、音声標準パターンを格納している音声標準パターンデータベース56と、テキストデータ入力部51と、記号連鎖確率データベースから読み出した記号連鎖確率を使用して、入力音声に最も適合する記号列を選び出してこれをテキスト分析結果とするテキスト分析部とを有するテキスト分析装置を構成した。
【0021】
先のテキスト分析装置において、入力テキストデータを音声入力とし、音声標準パターンデータベースから読み出した音声標準パターンを使用して入力音声に最も適合する記号列を選び出すテキスト分析装置を構成した。
記号列を表すテキストデータを記憶媒体に格納したテキストデータベースより記号列を読み出し、記号およびこれに対応する単一或いは複数のクラスを記憶媒体に格納した記号・クラス対応表を参照して対応する複数のクラスを求めてそのクラスリストを生成し、読み出した記号列の上で隣接するN個(Nは2以上の整数)の記号に対応するN個のクラスリストからクラスを一つづつ選択するすべての組合せに対してクラス連鎖の出現頻度を数え、数え上げた結果得られるクラス出現連鎖の頻度情報から言語モデルである記号連鎖確率を生成する指令をコンピュータに対して実行する言語モデル生成プログラムを構成した。
【0022】
記号列を表すテキストデータを記憶媒体に格納したテキストデータベースより記号列を読み出し、読み出された記号列の個々の記号について記号・クラス対応表を参照して対応する複数のクラスを求めてそのクラスリストを生成し、読み出した記号列の上で隣接するN個(Nは2以上の整数)の記号に対応するN個のクラスリストからクラスを一つづつ選択するすべての組合せに対してクラス連鎖の出現頻度を数え、数え上げた結果得られるクラス出現連鎖の頻度情報から言語モデルである記号連鎖確率を生成して記号連鎖確率データベースに格納し、記号連鎖確率データベースから記号連鎖確率を読み出し、音声標準パターンデータベースから音声標準パターンを読み出し、記号連鎖確率および音声標準パターンを使用して入力音声に最も適合する記号列を選び出す指令をコンピュータに対して実行するテキスト分析プログラムを構成した。
【0023】
【発明の実施の形態】
この発明の実施の形態を図4の実施例を参照して説明する。図4は言語モデル生成方法の実施例を説明する図である。
テキストデータを格納したテキストデータベース140より読み出された個々の記号は、クラス連鎖組合せカウント部430を介して、一つの記号に対応する複数のクラスから成るリストを生成するクラスリスト生成部460に送り込まれる。このクラスリスト生成部460においては、記号およびこれに対応する単一或いは複数のクラスを記憶媒体に格納した記号・クラス対応表150を使用し、送り込まれた形態素解析を行った結果の記号に対応するクラスリストを生成して記憶媒体に格納し、クラス連鎖組合せカウント部430に返す。複数クラス連鎖組合せカウント部430は、クラスリスト生成部460から返されたクラスリストに含まれる各々のクラスが同じ文脈で1回づつ出現したものとした時に生ずるすべてのクラス連鎖の組み合わせについて、出現回数をカウントする。ここで、同じ文脈とは、当該記号よりも前に読み込まれた記号とそのクラスが同一であることを意味する。
【0024】
記号連鎖確率生成部120は、クラス連鎖組合せカウント部430において得られたクラス連鎖の出現回数を使用して記号連鎖確率(言語モデル)を推定し、その結果を記号連鎖確率(言語モデル)データベース110として記憶装置に格納しておく。この記号連鎖確率(言語モデル)は、後で具体的に説明されるが、記号とクラスより成る変換テキストから得られる記号の連鎖とこの連鎖に対応する確率の値の組として格納されている。
クラス連鎖組合せカウント部430におけるクラス連鎖の出現回数をカウントする手順を図5と図6を参照して説明する。図5はバイグラムの場合を説明する図であり、図6はトライグラムの場合を説明する図である。
【0025】
図5および図6において、CLIST(w)という関数は、記号wに対して、記号wが属するクラスのリストを記号・クラス対応表150を使用して求める関数とする。また、図2、図3の例と同様に、テキストデータベースから記号を読み込む際に、既にテキストデータベースからすべての記号を読み終えている場合は、その読み込まれる記号はEOFになるものとする。
図5の手順は、S1から始まり、S2において最初の記号を読み込みxに代入し、S3において記号xのクラスリストCLIST(x)を求めCに代入する。S4において記号を読み込みwに代入し、S5においてwがEOFになるまでS7からS4に戻るまでの手続きを繰り返す。S7においてはwのクラスリストCLIST(w)を求めてCに代入する。S8からS13の手続きは、クラスリストCとCに含まれるすべての2クラス連鎖の組合せをそれぞれ1回出現したものとしてカウントする手続きを表わしている。ここで、S10におけるC[i]とC[j]は、それぞれクラスリストCのi番目のクラス、クラスリストCのj番目のクラスを表わす。また、クラスリストCとCに含まれるクラスの数をそれぞれLとLとして、iとjを増加させながらすべての2クラス連鎖の組合せに対する出現回数のカウントを行っている。S5においてwがEOFである(テキストデータを全て読み終えた)ならS6に移り終了する。
【0026】
図6の手順も同様に、S1から始まり、S2において最初の記号とその次の記号を読み込みそれぞれx、yに代入し、S3において記号xのクラスリストCLIST(x)とクラスリストCLIST(y)を求めてそれぞれC、Cに代入する。S4において記号を読み込みwに代入し、S5においてwがEOFになるまでS7からS4に戻るまでの手続きを繰り返す。S7ではwのクラスリストCLIST(w)を求めてCに代入する。S8からS16の手続きは、クラスリストC、C、Cに含まれるすべての3クラス連鎖の組合せをそれぞれ1回出現したものとしてカウントする手続きを表わしている。ここで、S10におけるC[i]、C[j]、C[k]は、それぞれ、クラスリストCのi番目のクラス、クラスリストCのj番目のクラス、クラスリストCのk番目のクラスを表わす。また、クラスリストC、C、Cに含まれるクラスの数を、それぞれL、L、Lとして、i、j、kを増加させながらすべての3クラス連鎖の組合せに対する出現回数のカウントを行っている。S5においてwがEOFである(テキストデータを全て読み終えた)ならS6に移り終了する。
【0027】
次に、従来のクラス出現連鎖のカウント方法と、この発明の一実施のクラス出現連鎖のカウント方法の間の相違を、入力記号列の例を使用して説明する。
図7は、図3に示されるクラス出現連鎖のカウント手順の従来例において、入力記号列「東京/の/ラーメン屋/です」の記号が順に読み込まれた際にカウントされるクラス連鎖を表す図である。図7の710は記号・クラス対応表の一例を表わしており、従来の方法は表の左側の記号が表の右側の一つのクラスに対応することを「→」を使用して表わしている。例えば、第1行目は、記号「東京」のクラスが「都市名」であることを表わしている。
【0028】
図7の720は、図3の手順において、入力記号列「東京/の/ラーメン屋/です」を順に読み込んで、初めてS8に到達した際のクラスc、c、cのそれぞれの値を表わしている。このとき、図3のS8においてカウントされるのは、図7の730に示すF([都市名]、の、[店舗])のみである。更に、次の記号を読み込んでS8に到達した際のクラスc、c、cのそれぞれの値は図7の740となり、同様に、F(の、[店舗]、です)だけがカウントされる。一方、図8は、図6に示されるこの発明のクラス出現連鎖のカウント手順の実施例において、入力記号列「東京/の/ラーメン屋/です」の記号が順に読み込まれた際にカウントされるクラス連鎖を表わす図である。
【0029】
図8の810は記号・クラス対応表の一例を表わしており、表の左側の一つの記号が表右側の一つ或いは複数のクラスに対応することを「→」を使用して表わしている。例えば、第1行目は、記号「東京」のクラスが「都市名」と「駅名」であることを表わしている。
図6の手順において、入力記号列「東京/の/ラーメン屋/です」を順に読み込んで、初めてS8に到達した際のリストC、C、Cのそれぞれの内容を表すのが図8の820である。このとき、図6のS8からS16の繰り返しにおいてカウントされるのは、図8の830に示すF([都市名]、の、[店])、F([都市名]、の、[レストラン])、F([駅名]、の、[店舗])、F([駅名]、の、[レストラン])の4つである。更に、次の記号を読み込んでS8に到達した際のリストC、C、Cのそれぞれの内容は図8の840となり、同様にF(の、[店舗]、です)とF(の、[レストラン]、です)がカウントされる。
【0030】
図7の730ではF([都市名])、の、[店舗])と750のF(の、[店舗]、です)がそれぞれカウントされるのに対して、図8の830ではF([都市名]、の、[店舗])、F([都市名]、の、[レストラン])、F([駅名]、の、[店舗])、F([駅名]、の、[レストラン])と、850のF(の、[店舗]、です)、F(の、[レストラン]、です)を比べるものであることから分かるように、カウントされるクラス出現連鎖の種類は、この発明を使用した図8の方が多く、個々のクラス連鎖確率を推定するために、従来の方法よりも多くのクラス出現連鎖を利用することができる。
【0031】
また、読み込んだ記号の属するクラスが明確であれば、例えば、「東京/駅/の/西口」という入力記号列において記号「東京」のクラスは「駅名」であることが明確であれば、従来の方法により一つのクラスに限定する。記号のクラスが不明確であれば、例えば、「東京/の/北側/です」という入力記号列において記号「東京」のクラスが「駅名」であるのか或は「都市名」であるのかが不明確であれば、この発明による複数のクラス出現連鎖をカウントすることができる。ところで、以上の言語モデル生成方法を音声認識方法と組合せて使用することができる。これを図9を参照して説明する。
【0032】
先に図4を参照して図示説明したこの発明による言語モデル生成方法に従って言語モデルを生成し、記号連鎖確率(言語モデル)データベース110に格納する。次いで、音声認識部920において、入力音声910が入力されたときに、記号連鎖確率(言語モデル)データベース110から読み出した記号連鎖確率と、音声標準パターンデータベース940から読み出した音声標準パターンとを使用し、入力音声に最も適合する記号列930を選び出し、音声認識の結果とする。
【0033】
ここで、入力音声Oおよび音声モデルについて説明するに、入力音声Oは、実際は、入力音声を10m秒程度の一定時間毎に分析した音声特徴量である。この一定時間毎の音声特徴量は、入力変換された音声信号波形データに対してフィルタバンク分析、或いは線形予測分析を施すことにより得られる。音声モデルとしては、例えば、確率統計理論に基づいてモデル化された隠れマルコフモデル(HMM)が使用される。HMMについては、例えば、社団法人 電子通信学会編
中川 聖 著 「確率モデルによる音声認識」において詳細に説明されている。HMMは音素、単語の如き音声単位毎に用意しておいて、その対応する音素、単語の標準的な(平均的な)音声特徴量を記憶したモデルである。その標準的な或いは平均的な音声特徴量は、音声データを使用して予め推定しておく。そして、音声認識の処理過程においては、一定時間毎に分析された音声特徴量の系列、o、・・・・、oに対して、それが単語wらしいか否かを与える音響確率、P(o、・・・・、o|w)を単語wに対するHMMを使用して計算することができる。但し、oは入力音声を時間に従って分析した際のt番目の音声特徴量を表し、t<sとする。なお、この音響確率と言語確率を使用した音声認識においては、音響確率P(O|W)と言語確率P(W)の積P(O|W)P(W)を最大とする単語列と、その各単語の境界を求める計算を行う。
【0034】
音声認識部920は、例えば、入力音声910に対して、その内容が記号W=w、w、...、wである確率P(W|O)を計算する。ここでOは入力音声を表す。そして、P(W|O)が最大となるWを求めて音声認識の結果とする.このP(W|O)は、ベイズの定理を使用して
P(W|O)=P(O|W)P(W)P(O)
と書き直すことができ、P(O|W)は音響確率として音声標準パターン(音響モデル)を使用して計算し、P(W)は言語確率として記号連鎖確率(言語モデル)を使用して計算する。
【0035】
例えば、トライグラムの場合、言語確率は
P(W)=P(w)P(w|w)P(w|w)P(w|w)・・・・・P(W|WM−2M−1
として計算する。
P(O)はP(W|O)の大小に無関係であるため無視することができ、実際には、P(O|W)P(W)を最大とするWを求める。
また、この発明の方法をコンピュータによりプログラムを実行させて達成させることもできる。これを図10の実施例を参照して説明する。各部はバス60を介して相互接続され、言語モデル生成プログラムがCD・ROM、磁気ディスクその他の記憶媒体、或いは通信回線を介してメモリ57にインストールされており、CPU59がこの言語モデル生成プログラムを実行することにより、テキストデータベース54から読み出された記号列が、記号列変換規則61を使用して複数記号列に変換され、その複数記号列から記号連鎖確率(言語モデル)が生成され、記号連鎖確率(言語モデル)データベース55に格納する。
【0036】
その後、音声認識を行うが、メモリ58に音声認識プログラムを同様にインストールしておき、入力部51に音声が入力されると、CPU59が音声認識プログラムを実行して、記号連鎖確率データベース55、音声標準パターンデータベース56を参照して音声認識を行い、その結果の記号列を出力部52から出力する。記憶部53は言語モデル生成、音声認識時に一時的にデータを記憶するに使用される。
次に、情報検索を目的とする音声対話システムの音声認識部に使用される言語モデルを例としてこの発明の実施例を従来のクラスモデル法と比較しながら具体的に説明する。言語モデルとしてユニグラムとバイグラムを使用して説明する。
【0037】
都道府県と店舗の種類を音声で指定することにより店舗の情報を検索して提供する音声対話システムにおいて、音声認識部に使用される言語モデルを作成する。言語モデルの学習には、ユーザがシステムに対して都道府県と店舗の種類を指定する以下の(例文1−1)〜(例文3−1)の如きテキストデータベースを利用する。
(例文1−1)「東京のラーメン屋です」
(例文2−1)「千葉で家具屋」
(例文3−1)「埼玉の居酒屋」
一般に、言語モデルの学習には数百文以上のテキストデータを使用するが、この実施例においては、これらの3つの文を使用してこの発明の言語モデルを作この発明の言語モデル成する場合について説明する。
【0038】
この発明の言語モデルの作成の説明に先立って、これらのテキストデータから従来のクラスモデル法によりクラス言語モデルを作成する仕方を説明しておく。これには、次の(記号・クラス対応表1)の如き記号クラス対応表を使用してテキストを変換する。
(記号・クラス対応表1)
東京→都道府県   ラーメン屋→店舗
千葉→都道府県   家具屋→店舗
埼玉→都道府県   居酒屋→店舗
変換の結果得られるテキストは以下の通りとなる。
(例文1−2)「[都道府県]の[店舗]です」
(例文2−2)「[都道府県]で[店舗]」
(例文3−3)「[都道府県]の[店舗]」
【0039】
これらの変換テキストから得られる記号連鎖確率は以下の通りになる。なお、P([都道府県])とは、[都道府県]が単独で現れる確率Pであり、この例文においては、[都道府県]の頻度の合計は3、記号およびクラスの頻度の合計は10である。
P([都道府県])=3/10=0.3
P(の|[都道府県])=2/3=0.67
P(で|[都道府県])=1/3=0.33
P([店舗]|の)=2/2=1.0
P([店舗]|で)=1/1=1.0
P(です|[店舗])=1/3=0.33
一方、この発明の言語モデル作成法によれば、次の(記号・クラス対応表2)の如き記号・クラス対応表を使用してテキストを変換する。
(記号クラス対応表2)
東京→都道府県   ラーメン屋→店舗
東京→駅名     ラーメン屋→飲食店
千葉→都道府県   家具屋→店舗
千葉→駅名     居酒屋→店舗
埼玉→都道府県      居酒屋→飲食店
【0040】
変換の結果得られるテキストは以下の通りとなる。
(例文1−3−1)「[都道府県]の[店舗]です」
(例文1−3−2)「[都道府県]の[飲食店]です」
(例文1−3−3)「[駅名]の[店舗]です」
(例文1−3−4)「[駅名]の[飲食店]です」
(例文2−3−1)「[都道府県]で[店舗]」
(例文2−3−2)「[駅名]で[店舗]」
(例文3−3−1)「[都道府県]の[店舗]」
(例文3−3−2)「[都道府県]の[飲食店]」
これらの変換テキストから得られる記号連鎖確率は、以下の通りになる。
P([都道府県])=5/28=0.18
P([駅名])=3/28=0.11
P(の|[都道府県])=4/5=0.8
P(で|[都道府県])=1/5=0.2
P(の|[駅名])=2/3=0.67
P(で|[駅名])=1/3=0.33
P([店舗]|の)=3/6=0.5
P([飲食店]|の)=3/6=0.5
P([店舗]|で)=2/2=1.O
P(です|[店舗])=2/5=0.4
P(です|[飲食店])=2/3=0.67
【0041】
上述した、2つの言語モデルを都道府県の店舗案内タスクへ適用する。「神奈川の自転車屋」という発話が入力されたとする。音声認識時にはタスクが都道府県の店舗案内であることは既知であるので入力文に都道府県の店舗案内タスク用の記号・クラス対応表を適用する。その結果、入力文は「[都道府県]の[店舗]」という記号列に変換される。この記号列の評価値(記号列の出現確率)を従来のクラスモデル法による言語モデルによって求めると
Figure 2004069858
となる、一方、この発明による言語モデルによって求めると、
Figure 2004069858
となり、何れの言語モデルでも入力の記号列に対する評価値を求めることができる。以上の例においては、従来のクラスモデル法による言語モデルの方がこの発明による言語モデルよりも高い評価値を与えているが、音声認識処理は様々な記号列に対して同じ言語モデルを適用した場合の評価値に基づいて記号列を認識するので、以上の例の如く複数の言語モデルの同じ記号列に対する評価値の差は認識精度にはさほど影響することはない。
【0042】
更に、これらの言語モデルを未知のタスクである鉄道の駅近辺の飲食店案内タスクに適用する。「新宿のそば屋」という発話が入力されたとする。入力文に駅近辺の飲食店案内タスク用の記号・クラス対応表を適用すると「[駅名]の[飲食店]」という記号列に変換される。
これを従来のクラスモデル法による言語モデルで評価すると
Figure 2004069858
となり、学習データに表われなかった記号列として評価値が0或いは非常に小さい値(スムージングを行った場合)になる。一方、この発明による言語モデルで評価すると
Figure 2004069858
と入力の記号列に対する評価値を求めることができる。
【0043】
また、「東京のラーメン屋」という学習データに現れる文とまったく同じ文を入力とした場合でも、駅近辺の飲食店案内タスク用の記号クラス対応表によって変換すると「[駅名]の[飲食店]」という記号列になるので、従来のクラスモデル法による言語モデルは、評価値が0或いは非常に小さい値となり、入力文を音声認識することは難しい。従来のクラスモデル法で駅近辺の飲食店案内タスク用の言語モデルを作成するには、駅近辺の飲食店案内タスク用の記号クラス対応表を使用して新たに言語モデルを作成し直す必要がある。
【0044】
以上の実施例は、言語モデルのNグラムとしてN≦2、即ち、ユニグラムとバイグラムを使用しているが、N≧3であるトライグラム以上の言語モデルを使用してもよい。また、入力文を言語モデルにより評価する際に文頭、文末のシンボルを使用してもよい。
ところで、この発明により生成された言語モデルは、図9の音響モデル940を使用せずに、テキスト解析にに使用することができる。例えば、複数の記号列から、文として最も誤りの少ない妥当な記号列を選択することができる。これは与えられた複数の記号列の中から、言語確率が最大になる記号列を選択すればよい。例えば、二つの記号列(S1、S2)
S1:「東京/の/ラーメン屋/です」
S2:「ラーメン屋/の/です/東京」
に対して、言語確率を計算すると、
P(S1)=P(東京)×P(の|東京)×P(ラーメン屋|の)×P(です|ラーメン屋)
P(S2)=P(ラーメン屋)×P(の|ラーメン屋)×P(です|の)×P(東京|です)
となる。
「の/です」、「です/東京」という記号連鎖はテキストデータベースにおける頻度が相対的に少ないので、P(です|の)、P(東京|です)の確率が他の確率より小さくなる。結果として、P(S1)>P(S2)となり、文としてもっともらしい入力S1を選択することができる。
【0045】
【発明の効果】
以上の通りであって、この発明によれば、テキストコーパス中の個々の記号に複数のクラスが割り当てられる可能性があっても、何れか一つのクラスに限定することなく、可能性のあるすべてのクラスを割り当て、その記号に割り当てられる可能性のある複数のクラスの各々が同じ文脈で1回づつ出現したものとしてクラス連鎖の出現回数をカウントし、記号連鎖確率(言語モデル)を推定する構成を採用したことにより、次の3つの効果を奏する。
【0046】
(1) 事前に個々の記号にただ一つのクラスを割り当てなければならないという必要がなくなり、何らかの知識を利用してテキストデータベース中の個々の記号が何れのクラスに属するかを判断する手間を省くことができる。
(2) クラス連鎖確率に関するゼロ頻度問題、推定頻度低下を軽減することができ、より信頼性の高い言語モデルを生成することができる。
(3) この発明による言語モデルを音声認識に使用することにより、特に未知のタスクに対して従来の方法により生成した言語モデルを使用した場合よりも高い音声認識の精度を得ることができる。
【図面の簡単な説明】
【図1】
言語モデル生成方法の従来例を説明する図。
【図2】
言語モデル生成方法の従来例によるバイグラムの生成手順を説明する図。
【図3】
言語モデル生成方法の従来例によるトライグラムの生成手順を説明する図。
【図4】
言語モデル生成方法の実施例を説明する図。
【図5】実施例によるバイグラムの生成手順を説明する図。
【図6】実施例によるトライグラムの生成手順を説明する図。
【図7】従来例における記号列の読み込みからクラス出現連鎖をカウントする過程を説明する図。
【図8】実施例における記号列の読み込みからクラス出現連鎖をカウントする過程を説明する図。
【図9】この発明による言語モデル生成方法および音声認識方法を説明する図。
【図10】この発明による言語モデル生成方法および音声認識方法がコンピュータにより実行される場合の構成を説明する図。
【符号の説明】
110 記号連鎖確率(言語モデル)データベース
120 記号連鎖確率生成部
140 テキストデータベース
150 記号・クラス対応表
430 クラス連鎖組合せカウント部
460 クラスリスト生成部

Claims (8)

  1. テキストデータを記憶媒体に格納したテキストデータベースより読み出された記号列の個々の記号について、記号およびこれに対応する単一或いは複数のクラスを記憶媒体に格納した記号・クラス対応表を参照して対応する複数のクラスを求めてそのクラスリストを生成して記憶媒体に格納し、
    読み出した記号列の上で隣接するN個(Nは2以上の整数)の記号に対応するN個のクラスリストからクラスを一つづつ選択するすべての組合せに対してクラス連鎖の出現頻度を数え、
    数え上げた結果得られるクラス出現連鎖の頻度情報から言語モデルである記号連鎖確率を生成することを特徴とする言語モデル生成方法。
  2. 記号列を表すテキストデータを記憶媒体に格納したテキストデータベースと、
    記号およびこれに対応する単一或いは複数のクラスを記憶媒体に格納した記号・クラス対応表と、
    この記号・クラス対応表を参照して一つの記号に対応する複数のクラスを求めてそのリストを生成記憶するするクラスリスト生成部と、
    テキストデータベースより記号列を読み出してその個々の記号をクラスリスト生成部に送り、その個々の記号に対応するクラスリストを得て、読み出した記号列の上で隣接するN個(Nは2以上の整数)の記号に対応するN個のクラスリストからクラスを一つづつ選択するすべての組合せに対してクラス連鎖の出現頻度を数えるクラス連鎖組合せカウント部と、
    クラス連鎖組合せカウント部において数え上げた結果得られるクラス出現連鎖の頻度情報から言語モデルである記号連鎖確率を生成する記号連鎖確率生成部とを有することを特徴とする言語モデル生成装置。
  3. 記号列を表すテキストデータを記憶媒体に格納したテキストデータベースより読み出された記号列の個々の記号について、記号およびこれに対応する単一或いは複数のクラスを記憶媒体に格納した記号・クラス対応表を参照して対応する複数のクラスを求めてそのクラスリストを生成記憶し、読み出した記号列の上で隣接するN個(Nは2以上の整数)の記号に対応するN個のクラスリストからクラスを一つづつ選択するすべての組合せに対してクラス連鎖の出現頻度を数え、数え上げた結果得られるクラス出現連鎖の頻度情報から言語モデルである記号連鎖確率を生成し、記号連鎖確率データベースに格納し、
    次いで、記号連鎖確率データベースから読み出した記号連鎖確率を使用して、入力テキストデータに最も適合する記号列を選び出すことを特徴とするテキスト分析方法。
  4. 請求項3に記載されるテキスト分析方法において、
    入力テキストデータを音声入力とし、音声標準パターンデータベースから読み出した音声標準パターンを使用して入力音声に最も適合する記号列を選び出すことを特徴とするテキスト分析方法。
  5. 記号列を表すテキストデータを記憶媒体に格納したテキストデータベースと、
    記号およびこれに対応する単一或いは複数のクラスを記憶媒体に格納した記号・クラス対応表と、
    この記号・クラス対応表を参照して一つの記号に対応する複数のクラスを求めてそのリストを生成記憶するするクラスリスト生成部と、
    テキストデータベースより記号列を読み出してその個々の記号をクラスリスト生成部に送り、その個々の記号に対応するクラスリストを得て、読み出した記号列の上で隣接するN個(Nは2以上の整数)の記号に対応するN個のクラスリストからクラスを一つづつ選択するすべての組合せに対してクラス連鎖の出現頻度を数えるクラス連鎖組合せカウント部と、
    クラス連鎖組合せカウント部において数え上げた結果得られるクラス出現連鎖の頻度情報から言語モデルである記号連鎖確率を生成する記号連鎖確率生成部と、
    求められた言語モデルである記号連鎖確率を格納する記号連鎖確率データベースと、
    音声標準パターンを格納している音声標準パターンデータベースと、
    テキストデータ入力部と、
    記号連鎖確率データベースから読み出した記号連鎖確率を使用して、入力音声に最も適合する記号列を選び出してこれをテキスト分析結果とするテキスト分析部とを有することを特徴とするテキスト分析装置。
  6. 請求項5に記載されるテキスト分析装置において、
    入力テキストデータを音声入力とし、音声標準パターンデータベースから読み出した音声標準パターンを使用して入力音声に最も適合する記号列を選び出すことを特徴とするテキスト分析装置。
  7. 記号列を表すテキストデータを記憶媒体に格納したテキストデータベースより記号列を読み出し、
    記号およびこれに対応する単一或いは複数のクラスを記憶媒体に格納した記号・クラス対応表を参照して対応する複数のクラスを求めてそのクラスリストを生成し、
    読み出した記号列の上で隣接するN個(Nは2以上の整数)の記号に対応するN個のクラスリストからクラスを一つづつ選択するすべての組合せに対してクラス連鎖の出現頻度を数え、
    数え上げた結果得られるクラス出現連鎖の頻度情報から言語モデルである記号連鎖確率を生成する指令をコンピュータに対して実行する言語モデル生成プログラム。
  8. 記号列を表すテキストデータを記憶媒体に格納したテキストデータベースより記号列を読み出し、
    読み出された記号列の個々の記号について記号・クラス対応表を参照して対応する複数のクラスを求めてそのクラスリストを生成し、
    読み出した記号列の上で隣接するN個(Nは2以上の整数)の記号に対応するN個のクラスリストからクラスを一つづつ選択するすべての組合せに対してクラス連鎖の出現頻度を数え、
    数え上げた結果得られるクラス出現連鎖の頻度情報から言語モデルである記号連鎖確率を生成して記号連鎖確率データベースに格納し、
    記号連鎖確率データベースから記号連鎖確率を読み出し、
    音声標準パターンデータベースから音声標準パターンを読み出し、
    記号連鎖確率および音声標準パターンを使用して入力音声に最も適合する記号列を選び出す指令をコンピュータに対して実行するテキスト分析プログラム。
JP2002226575A 2002-08-02 2002-08-02 言語モデル生成方法、装置およびプログラム、テキスト分析装置およびプログラム Expired - Lifetime JP4024614B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002226575A JP4024614B2 (ja) 2002-08-02 2002-08-02 言語モデル生成方法、装置およびプログラム、テキスト分析装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002226575A JP4024614B2 (ja) 2002-08-02 2002-08-02 言語モデル生成方法、装置およびプログラム、テキスト分析装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2004069858A true JP2004069858A (ja) 2004-03-04
JP4024614B2 JP4024614B2 (ja) 2007-12-19

Family

ID=32013877

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002226575A Expired - Lifetime JP4024614B2 (ja) 2002-08-02 2002-08-02 言語モデル生成方法、装置およびプログラム、テキスト分析装置およびプログラム

Country Status (1)

Country Link
JP (1) JP4024614B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004246368A (ja) * 2003-02-13 2004-09-02 Microsoft Corp テキストから単語誤り率を予測するための方法および装置
WO2012165529A1 (ja) * 2011-06-03 2012-12-06 日本電気株式会社 言語モデル構築支援装置、方法及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004246368A (ja) * 2003-02-13 2004-09-02 Microsoft Corp テキストから単語誤り率を予測するための方法および装置
JP4528535B2 (ja) * 2003-02-13 2010-08-18 マイクロソフト コーポレーション テキストから単語誤り率を予測するための方法および装置
WO2012165529A1 (ja) * 2011-06-03 2012-12-06 日本電気株式会社 言語モデル構築支援装置、方法及びプログラム

Also Published As

Publication number Publication date
JP4024614B2 (ja) 2007-12-19

Similar Documents

Publication Publication Date Title
CN110364171B (zh) 一种语音识别方法、语音识别系统及存储介质
US6754626B2 (en) Creating a hierarchical tree of language models for a dialog system based on prompt and dialog context
Issar Estimation of language models for new spoken language applications
Gupta et al. The AT&T spoken language understanding system
CN102176310B (zh) 具有巨大词汇量的语音识别系统
US7421387B2 (en) Dynamic N-best algorithm to reduce recognition errors
JP3768205B2 (ja) 形態素解析装置、形態素解析方法及び形態素解析プログラム
JP5440177B2 (ja) 単語カテゴリ推定装置、単語カテゴリ推定方法、音声認識装置、音声認識方法、プログラム、および記録媒体
JP4887264B2 (ja) 音声データ検索システム
EP1538535A2 (en) Determination of meaning for text input in natural language understanding systems
WO1992014237A1 (en) Method for recognizing speech using linguistically-motivated hidden markov models
JPH08278794A (ja) 音声認識装置および音声認識方法並びに音声翻訳装置
JPH08328585A (ja) 自然言語処理装置および自然言語処理方法、並びに音声認識装置および音声認識方法
WO2004034378A1 (ja) 言語モデル生成蓄積装置、音声認識装置、言語モデル生成方法および音声認識方法
WO2002054385A1 (en) Computer-implemented dynamic language model generation method and system
US20100100379A1 (en) Voice recognition correlation rule learning system, voice recognition correlation rule learning program, and voice recognition correlation rule learning method
US20050187767A1 (en) Dynamic N-best algorithm to reduce speech recognition errors
JP4024614B2 (ja) 言語モデル生成方法、装置およびプログラム、テキスト分析装置およびプログラム
JP3628245B2 (ja) 言語モデル生成方法、音声認識方法及びそのプログラム記録媒体
Shafran et al. Efficient determinization of tagged word lattices using categorial and lexicographic semirings
JP3913626B2 (ja) 言語モデル生成方法、その装置及びそのプログラム
JP3950957B2 (ja) 言語処理装置および方法
Chalamandaris et al. Rule-based grapheme-to-phoneme method for the Greek
CN111429886A (zh) 一种语音识别方法及系统
JP2003263187A (ja) 言語モデル学習方法、その装置、そのプログラムおよびそのプログラムの記録媒体ならびに言語モデル学習を用いた音声認識方法、その装置、そのプログラムおよびそのプログラムの記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060405

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20060405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070320

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070925

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071003

R150 Certificate of patent or registration of utility model

Ref document number: 4024614

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101012

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101012

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111012

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111012

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121012

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121012

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131012

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term