JP2009163109A - 言語モデル生成装置及び音声認識装置 - Google Patents

言語モデル生成装置及び音声認識装置 Download PDF

Info

Publication number
JP2009163109A
JP2009163109A JP2008002194A JP2008002194A JP2009163109A JP 2009163109 A JP2009163109 A JP 2009163109A JP 2008002194 A JP2008002194 A JP 2008002194A JP 2008002194 A JP2008002194 A JP 2008002194A JP 2009163109 A JP2009163109 A JP 2009163109A
Authority
JP
Japan
Prior art keywords
corpus
morpheme
gram
word
string
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008002194A
Other languages
English (en)
Other versions
JP5137588B2 (ja
Inventor
Hirotaka Goi
啓恭 伍井
Toshiyuki Hanazawa
利行 花沢
Tomohiro Iwasaki
知弘 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2008002194A priority Critical patent/JP5137588B2/ja
Publication of JP2009163109A publication Critical patent/JP2009163109A/ja
Application granted granted Critical
Publication of JP5137588B2 publication Critical patent/JP5137588B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】学習データ量の少ない単語列の言語尤度精度の低さの解決に形態素列をクラス化する手法があるが、単語Nグラムと比較すると言語制約が弱い。また、クラスNグラムを上位階層とし、下位階層に単語Nグラムを適用する方法は、下位階層の単語Nグラムが上位階層ではクラスNグラムとして統合され、下位階層の単語と上位階層の単語の連鎖統計量が信頼度よく推定できない。
【解決手段】コーパスから形態素とクラスによるNグラム言語モデルを生成するNグラム言語モデル生成装置において、部分的に形態素とクラスにより系列化された第1のコーパスと、クラスに属する形態素集合の連鎖例を形態素列で記述した第2のコーパスと、第1のコーパスのクラス化列に、第2のコーパスの形態素列を埋め込み展開する単語系列展開手段とを備える。
【選択図】図2

Description

本発明は、言語モデル生成装置、音声認識装置等に関し、特に、統計的言語モデルを用いた言語モデル生成装置及びその言語モデルを用いた音声認識装置等に関するものである。
自然言語の統計量を用いた解析技術は多くの文書処理に応用されている。例えば、コールセンターにおけるオペレータ通話音声を音声認識によりテキスト化する手段として有用であり、より認識精度の向上が望まれる。以下用いる専門用語は、従来技術文献1:鹿野清宏、伊藤克亘、河原達也、武田一哉、山本幹雄著:「音声認識システム」株式会社オーム社,平成13年5月15日(以下教科書1)、または従来技術文献2:北研二、辻井潤一著:「確率的言語モデル」,東京大学出版会、1999年11月25日(以下教科書2)、または従来技術文献3:中川聖一著:「確率モデルによる音声認識」社団法人電子情報通信学会,昭和63年7月1日(以下教科書3)、または従来技術文献4:長尾真著,「自然言語処理」,岩波書店,1996年4月26日(以下教科書4)に著される用語を用いるものとする。
音声を精度よく認識するために、言語モデルとしてNグラムを用いる方式が注目されている。(教科書1〜4参照)しかし、信頼性のある統計量を得るためには大量のコーパスからNグラムの表を作成するため、表の増加を解決する方法として、Nグラムの圧縮方式が提案されている。逆に、Nグラムはコーパスから学習するため、十分な量のコーパスが得られないと信頼性のある統計量が得られないという課題がある。
言語モデルとしては、基本的な単語2グラム又は単語3グラムの単語Nグラムモデルが広く用いられている。ここで、単語Nグラムを用いた言語尤度の計算について説明する。まず、単語列W1,W2,・・・,WLの言語尤度logP(W1,W2,・・・,WL)は、条件付き確率を用いて下記に示される式(1)で表される。
Figure 2009163109
式(1)右辺の条件付き確率P{Wi|W1,W2,・・・,W(i−1)}は、先行単語列W1,W2,・・・,W(i−1)の後に当該単語Wiが生起する確率であり、この先行単語列をN−1個で近似するのが単語Nグラムモデルである。そして、先行単語列を1個で近似する単語2グラムでは、下記に示される式(2)の近似式で表される。
Figure 2009163109
同様に、先行単語列を2個で近似する単語3グラムでは、下記に示される式(3)の近似式で表される。
Figure 2009163109
音声認識の際には、認識途中の単語列候補に対して、単語音声の確率モデルであるHMM(HiddeN Markov Model)等の音響モデルを用いて音響尤度を求め、さらに上記のようにして言語尤度を求め、それらを重み付き加算した総合尤度で単語列候補に序列をつけて、音声認識を行う。
ところで、Nグラムモデルには多種のバリエーションがあるが、ここでは、特に本件と関連性のある2つの従来技術を以下に説明する。
Nグラムモデルの第1バリエーションとして、単語集団の中で、共通の性質を持つものをクラス化して確率を計算するものがある(例えば、特許文献1参照)。なお、この技術を、以下「第1の従来例」とも記す。この第1の従来例のクラスNグラムモデルでは、単語Nグラムがクラスを用いて式(4)のように近似される(N=2の場合)。ここで、Ciはクラス化した単語を示す。
Figure 2009163109
クラスを介して言語尤度を求めることで、学習データの少ない単語列に対して言語尤度の精度が悪いというデータ量が不十分の問題に対して効果がある。しかし、このクラスNグラムモデルでは、コーパスのデータ量不足に対する効果はあるものの、言語制約としては、単語Nグラムと比較すると弱くなってしまうという課題がある。
このような課題を解決するために、クラスNグラムを上位階層とし、下位階層に単語Nグラムを適用するものがある。この技術を、以下「第2の従来例」とも記す。(特許文献2参照)
この第2の従来例では、例えば、テレビ番組名である「太陽を撃て」が「明日の太陽を撃てを録画」という文に含まれている場合に式(5)のように近似する。こうすることにより、テレビ番組名(<title>とする)の前後の文脈が、P(<title>|の)と、P(を|<title>)とで表されるために、データ量が不十分による問題に対処できて、かつ、テレビ番組名が単語列で表されるために認識辞書も小さく、しかも、テレビ番組名を単語列で表すために、高い認識性能を確保できるとしている。
Figure 2009163109
特開2000−259175号公報 国際公開番号WO2004/034378号公報
学習データ量の少ない単語列に対して言語尤度の精度が悪いというデータ量が不十分の問題(単語連鎖のスパースネスの問題)を解決するために氏名、住所、製品名などの形態素列をクラス化する手法が用いられる。クラス化は、例えば「三菱太郎様のご住所は神奈川県鎌倉市大船の」という例文表現を、「<姓><名>様のご住所は<県><市><町>の」というように、人手で意味毎の<>で括られた特殊表現文字列に置き換え、<>で括られた特殊表現文字列を個々のクラスとして扱うことで実現できる。この部分をクラスとするNグラムモデルを構成すれば、可能性のある単語をカバーできるが、前述のとおり、単語Nグラムと比較すると言語制約が弱くなってしまうという課題がある。
これについて例をあげて説明する。図1に都道府県クラスと市区郡クラスのNグラムの連鎖の例を示す。都道府県クラスとして、「神奈川県」、「東京都」の都道府県名の形態素が含まれており、市区郡クラスとして「横浜市」や「新宿区」などの市区郡名の形態素が登録されている。しかし、このクラスNグラム連鎖を用いると、正しい住所名以外に、「神奈川県/新宿区」や「東京都/横浜市」などの正しくない形態素連鎖を許してしまうため、形態素Nグラムと比べてクラスNグラムは言語制約が弱くなってしまう。
また、クラスNグラムを上位階層とし、下位階層に単語Nグラムを適用する方法では、下位階層の単語Nグラムは上位階層ではクラスNグラムとして統合されてしまうため、下位階層の単語と上位階層の単語の連鎖統計量を信頼度よく推定することができないという課題がある。
これについて実例をあげて説明する。例えば、住所表現である「鎌倉市の大船」が「県内鎌倉市の大船です」という文に含まれている場合を考える。文脈から県内の県は神奈川県であることがわかるが、第2の従来では式(6)のように近似される。
Figure 2009163109
このため、<住所>で現される住所表現の前後の文脈が、P(<住所>|県内)と、P(です|<住所>)とで分離されるため、県内-鎌倉市以外の連接(例えば県内-新宿区)も同一の確率が与えられてしまうという課題がある。
本発明は、このような課題を解決するためになされたものである。
本発明に係る言語モデル生成装置は、
コーパスから形態素とクラスによるNグラム言語モデルを生成するNグラム言語モデル生成装置であって、
言語モデル生成目的の例文が部分的に形態素とクラスにより系列化された第1のコーパスと、
予め作成されたクラスに属する形態素集合の連鎖例を形態素列で記述した第2のコーパスと、
第1のコーパスのクラス化列に、第2のコーパスの形態素列を埋め込み展開する単語系列展開手段とを備える。
また、本発明に係る音声認識装置は、
言語モデル生成目的の例文が部分的に形態素とクラスにより系列化された第1のコーパスと、
予め作成されたクラスに属する形態素集合の連鎖例を形態素列で記述した第2のコーパスと、
第1のコーパスのクラス化列に、第2のコーパスの形態素列を埋め込み展開する単語系列展開手段と、
単語系列展開手段の処理結果を格納する統合コーパスと、
統合コーパスを入力し、前接続と後接続の形態素が特殊表現または非特殊表現の同じ表現の接続の場合と異なる表現の接続の場合の異なる2つのバックオフ係数を格納する単語Nグラムを出力するNグラム辞書生成部と、
音声入力部でとり込まれた音声の認識を行うとき、前接の形態素により単語Nグラムに格納されたバックオフ係数を選択して認識する音声認識部と、音声認識結果を出力するデータ出力部を備える。
本発明に係る言語モデル生成装置によれば、単語系列展開手段により、言語モデル生成目的の例文が部分的に形態素とクラスにより系列化された第1のコーパスのクラス化列に、予め作成されたクラスに属する形態素集合の連鎖例を形態素列で記述した第2のコーパスの形態素列を埋め込み展開することにより、学習データ量の少ない単語列の言語尤度の精度の低さを防ぐことができ、かつ、単語Nグラムと比較し言語制約が弱くなるという問題も防ぐことができる。
また、他の発明に係る音声認識装置によれば、言語モデル生成目的の例文が部分的に形態素とクラスにより系列化された第1のコーパスのクラス化列に、予め作成されたクラスに属する形態素集合の連鎖例を形態素列で記述した第2のコーパスの形態素列を埋め込み展開する単語系列展開手段の処理結果である統合コーパスから、前接続と後接続の形態素が特殊表現または非特殊表現の同じ表現の接続の場合と異なる表現の接続の場合の異なる2つのバックオフ係数を格納する単語Nグラムを生成し、
音声認識部で、音声入力部によりとり込まれた音声の認識を行うとき、前接の形態素により単語Nグラムに格納されたバックオフ係数を選択して認識するので、学習データ量の少ない単語列の言語尤度精度の低さを防ぐことができ、かつ、単語Nグラムと比較して言語制約が弱くなるということも防げ、さらに、特殊表現の形態素連鎖の中に一般の形態素が混合することを低減できる。
実施の形態1.
図2は、本発明の実施の形態1における言語モデル作成装置の構成図を示し、以下に説明する。第1コーパス101と第2コーパス102を特殊表現展開部103に入力する。特殊表現展開部103は、第1コーパス中にあるクラス化部分を別途入力した第2コーパス102の対応する部分に展開し、これを統合コーパス104に記録する。Nグラム辞書生成部105は統合コーパス104を入力し、単語Nグラム106を出力するものである。
上記のように構成された言語モデル生成装置の動作について説明する。
第1コーパス101は、通話書き起こし作業者が作成した例文が格納されている記憶装置である。例文の格納形態は、各文をあらかじめ単語に相当する単位(以下、形態素)に分割をしておくことが望ましいが、例文をそのままで格納しておくことも可能であり、第1コーパス101から出力する際は、形態素解析などのフィルタを使用し、形態素に分割すれば良い。図3に1例を示す。発声の区切りごとに形態素の連鎖を構成する単位として格納されている。形態素は、表記、読み、品詞の3つ組から構成されている。クラス化部分が形態素連鎖に存在する場合は、3つ組みともクラス化文字列が記憶されており、部分的に形態素とクラスにより系列化されている。
第2コーパス102は、システム開発者や利用者などによってあらかじめ例文が格納されている記憶装置である。例文の格納形態は、各文をあらかじめ単語に相当する単位(以下、形態素)に分割をしておくことが望ましいが、例文をそのままで格納しておくことも可能であり、第2コーパス102から出力する際は、形態素解析などのフィルタを使用し、形態素に分割すれば良い。図4に住所名コーパスの1例を示す。各住所名は、都道府県名、市区郡名、および町村名の3連鎖で構成され、それぞれの形態素は、第1コーパスと同様、表記、読み、品詞の3つ組から構成されており、クラスに属する形態素集合の連鎖例を形態素列で記述されている。
特殊表現展開部103は、第1コーパス101と第2コーパス102を読み込み、第1コーパス101に含まれる形態素のうちのクラス化の品詞が合致する一連の形態素を第2コーパス102の一連の形態素に置き換え、個々のすべてのパターンを出力する。ただし、このとき、「県内、けんない、名詞」や「県内、けんない、名詞、の、の、助詞」など特定の形態素連鎖がマッチする場合は、県名を神奈川県に限定して一連の形態素に置き換え、統合コーパス104に出力する。置き換えを行った個数分の数で除算した値を出現回数として同じく統合コーパス104に出力する。また、クラス化形態素間に連鎖するクラス化形態素外の形態素は、品詞を<>で括って特殊表現の形態素とする。図5にこの例を示す。図5の場合、「県内」を「神奈川県」に置き換えたので、出現回数は1/3となる。
この限定を行う規則は、特定の形態素連鎖「」内の表現を第1コーパスが含む場合に、展開すべき表現が第2コーパスの制限として制限「」内の表現を含まなければならないことを示すルールとして例えば以下の式(7)を用いる。()内は省略可能な形態素連鎖を表す。
Figure 2009163109
ここで、特殊表現展開部103の処理を詳細に説明する。図6にフローチャートを示す。特殊表現展開部103は、第1コーパス101から1列ずつ形態素列を読み出し、第1形態素列として記憶する。(ST1002)、一方、統合コーパス104への展開した形態素列の出力数をカウントするため、形態素列出力数を0クリアし記憶する(ST1003)。次に、第2コーパス102から1列ずつ形態素列を読み込み、第2形態素列として記憶する(ST1004)。次に、第1形態素列にクラス形態素連鎖(<>で括られた形態素の連鎖)があるかチェックする。YESの場合は処理をST1006にすすめ、NOの場合には、処理をST1014にすすめる(ST1005)。
次に、ST1014では、クラスの展開がなかったので、形態素出力数を1とし、第1形態素列を統合コーパスに出力し、処理をST1012にすすめる(ST1014)。次に、ST1006では、第1形態素列に規定連鎖があるかチェックする。ここで規定連鎖とは、特定の形態素連鎖のことで、この実施の形態の場合、形態素「県内,けんない,名詞」とする。チェックの結果、YESの場合は、処理をST1007にすすめ、NOの場合は処理をST1008にすすめる(ST1006)。次に、第2形態素列に該当連鎖があるかチェックする。ここで、該当連鎖とは、形態素「神奈川県,かながわけん,<県>」である。また、YESであればST1008にすすめ、また、NOであれば、処理をST1004にすすめる(ST1007)。
このように構成することで、第1形態素列に「県内,けんない,名詞」がある場合は、第2形態素列として形態素「神奈川県,かながわけん,<県>」を含む形態素列のみ対象とすることができる。
次に、第1形態素のクラス化形態素を第2形態素列内の同一クラス品詞の形態素に置き換えた展開形態素列を生成する。例えば、第1形態素列「<県>,<県>,<県> <市>, <市>, <市> の,の,助詞 <町>,<町>,<町> です,です,助動詞」に第2形態素列「神奈川県,かながわけん,<県> 愛甲郡,あいこうぐん,<市> 愛川町,あいかわまち,<町>」を適用した場合、展開形態素列は「神奈川県,かながわけん,<県> 愛甲郡,あいこうぐん,<市> の,の,助詞 愛川町,あいかわまち,<町>」となる。
次に、展開形態素列のクラス化形態素列間の一般形態素の品詞をクラス化し、統合コーパス104に出力する。前述の例では、「の,の,助詞」が一般形態素となる。この形態素が、「<市>」および「<町>」に連接しているので、間の「の,の,助詞」は「の,の,<助詞>」というようにクラス化し、統合コーパス104に出力する(ST1009)。次に、統合コーパス104に展開出力した形態素列数を計数するため、形態素列出力数に1を加えて記憶する(ST1010)。次に、すべての第2コーパス102の形態素列を処理したかチェックする。YESであれば、処理をST1012へすすめる。NOの場合は処理をST1004へ戻す(ST1011)。次に、展開した形態素列出力数を個々の展開形態素列に割り振るため、形態素列出力数の逆数を形態素列の出現回数として記憶する(ST1012)。次に、すべての第1コーパス101の形態素列について処理したかチェックする。YESであれば処理をST1015にすすめ終了する。NOであれば処理をST1002にもどす(ST1013)。
Nグラム辞書生成部105は、統合コーパス104を入力し、単語Nグラム106を出力する。このとき、Nグラムの出現カウントは出現回数をもとに行う。
実施の形態2.
図7は、本発明の実施の形態2における言語モデル作成装置の構成図を示し、以下に説明する。実施の形態1との違いは、第2コーパス102を構造判定部701に入力し、特定の形態素パターンのみ特殊表現展開部103に入力することにより、展開する形態素列を適切なパターンのみにするものである。
上記のように構成された言語モデル生成装置の動作について実施の形態1と異なる部分のみ説明する。
構造判定部701は、第2コーパス102に格納された形態素列をすべて探索し、連接する形態素の親子関係を調べる。(ここで形態素の親子関係とは、例えば、「神奈川県」の形態素に後接する市名形態素は「鎌倉市」と「藤沢市」の2つ以上が存在し、「鎌倉市」と「藤沢市」に前接する県名の形態素は「神奈川県」しかない場合に、この2つの連接する形態素は親子であるとする。)親子関係がないクラス化品詞をNG品詞ペアとしてピックアップし、NG品詞ペアカウントが全体の品詞ペアの一定割合を超える場合は、それらの品詞ペアを含む形態素列は除去する。このように構成することで、階層構造の強い形態素列のみを特殊表現展開部103に入力することができるため、不要な形態素列を展開しないためメモリ効率が良い。
次に、構造判定部701の親子判定アルゴリズムを図8のフローチャートに従って詳細を説明する。構造判定部701は第2コーパス102を読み込みすべての形態素列を記憶する(ST2002)。次に、記憶した形態素列の隣り合うすべての形態素ペアを記憶する(ST2003)。次に、形態素ペアのうち1つを取り出す(ST2004)。次に、取り出した形態素ペアの前接形態素をキーとして後接形態素以外の後接形態素を持つ形態素ペアがあるかすべて探索する(ST2005)。次に、ペアが存在した場合は親子関係が成り立つ可能性があるので、ST2007で親子フラグを1にセットする(ST2006,ST2007)。
次に、同様に後接形態素をキーとして前接形態素以外の前接形態素を持つ形態素ペアがあるかすべて探索する(ST2008)。次に、ペアが存在した場合は逆向きの親子関係(子親関係)が成り立つ可能性があるので、ST2010で子親フラグを1にセットする(ST2010,ST2011)。次に、親子フラグと子親フラグの双方が1かチェックする(ST2011)。次に、親子フラグと子親フラグの双方が1の場合は階層関係が成立しないから、形態素ペア前接、後接品詞をNG品詞ペアに記憶するとともにNG品詞ペアカウントをインクリメントする(ST2012)。次に、すべての形態素ペアを処理したかチェックする。YESの場合は処理を終える。NO場合は処理をST2004に戻す(ST2013)。このように構成することで、親子関係がないクラス化品詞をNG品詞ペアとしてピックアップすることができる。
実施の形態3.
図9は、本発明の実施の形態3における音声認識装置の構成図を示し、以下にその説明をする。言語モデル生成部分における実施の形態1との違いは、本発明の実施の形態3においては前接続と後接続の形態素が特殊表現または非特殊表現の同じ表現の接続の場合と異なる表現の接続の場合の2つのバックオフ係数を格納することである。音声認識時に、上記教科書では3グラムが存在しない場合は2グラムに、2グラムが存在しない場合は1グラムにバックオフする技術が紹介されている。一般的には上記教科書にあるようなバックオフスムージングのためのバックオフ係数を、より低位のNグラムの項目に格納しているが、Nグラム辞書生成部105において、これを、前接続と後接続の形態素が特殊表現または非特殊表現の同じ表現の接続の場合と異なる表現の接続の場合の2つのバックオフ係数を格納することが大きく異なる。これにより、前接形態素が同種である場合はバックオフ係数を大きく、異種である場合にはバックオフ係数を小さくすることで、混合誤りを低減できる。
単語Nグラム106をもとに、音声認識部108では、音声入力部107でとり込まれた音声の認識を行う。このとき、前接の形態素によりバックオフ係数を選択して認識する。音声認識結果はデータ出力部109に送ることで、データ出力部109で出力される。出力の方法は、ディスプレイを用いて利用者に提示しても良いし、出力部の先にアプリケーションをつなげることで、音声認識の結果を他のアプリケーションで利用することも可能である。
本実施の形態では、特殊表現連鎖と非特殊表現連鎖の2つの連鎖種別により言語モデルに2つのバックオフ係数を格納して選択したが、複数種類の連鎖種別において、同種、異種の連鎖の区別で2つのバックオフ係数を格納してもよい。また、連鎖種別の組み合わせに応じて複数のバックオフ係数を格納しても良い。さらに、言語モデルに2つのバックオフ係数を格納して選択したが、これを格納せず、音声認識処理の中で、前接と後接の形態素種別により前接形態素が同種である場合はバックオフ係数を大きく、異種である場合にはバックオフ係数を小さく一定の比率で増減するようにしてもよい。このようにすることで、前述の制御より荒い制御になるが、メモリ効率を向上することができる。こうすることにより、特殊表現の形態素連鎖の中に一般の形態素が混合することを低減できる。例えば、「東京都/西東京市/ひばりが丘」が「東京都/に/死闘/教師/ひばりが丘」のように誤ることを少なくできる。
本発明の言語モデル生成装置及びその言語モデル生成装置を用いた音声認識装置は、音声認識率の向上が図れ、例えば、通話録音装置向け音声認識システムに利用可能である。
都道府県クラスと市区郡クラスのNグラムの連鎖例の説明図である。 本発明の実施の形態1における言語モデル作成装置の構成図である。 第1コーパスから出力される例文の形態素解析例の説明図である。 第2コーパスから出力される例文の形態素解析例の説明図である。 特殊表現展開部から出力される展開形態素列例の説明図である。 特殊表現展開部の処理動作を示すフローチャートである。 本発明の実施の形態2における言語モデル作成装置の構成図である。 構造判定部の親子判定アルゴリズムを示すフローチャートである。 本発明の実施の形態3における音声認識装置の構成図である。
符号の説明
101;第1コーパス、102;第2コーパス、103;特殊表現展開部、104;統合コーパス、105;Nグラム辞書生成部、106;単語Nグラム、107;音声入力部、108;音声認識部、109;データ出力部、701;構造判定部。

Claims (4)

  1. コーパスから形態素とクラスによるNグラム言語モデルを生成するNグラム言語モデル生成装置であって、
    言語モデル生成目的の例文が部分的に形態素とクラスにより系列化された第1のコーパスと、
    予め作成されたクラスに属する形態素集合の連鎖例を形態素列で記述した第2のコーパスと、
    第1のコーパスのクラス化列に、第2のコーパスの形態素列を埋め込み展開する単語系列展開手段と、
    を備えることを特徴とする言語モデル生成装置。
  2. 第2のコーパスの形態素の階層構造を判定する構造判定手段を備え、
    単語系列展開手段が形態素列の展開を行う際に、第1のコーパスのクラス化列を、構造判定手段からの階層構造の含有比率に基づき、第2のコーパスの形態素列に展開することを特徴とする前記請求項1に記載の言語モデル生成装置。
  3. 単語系列展開手段の処理結果を格納する統合コーパスと、
    統合コーパスを入力し、単語Nグラムを出力するNグラム辞書生成部を備え、
    Nグラム辞書生成部は、単語系列展開手段が第1のコーパスのクラス化列に、第2のコーパスの形態素列を埋め込み展開した結果の単語Nグラムに前接続と後接続の形態素が特殊表現または非特殊表現の同じ表現の接続の場合と異なる表現の接続の場合の異なる2つのバックオフ係数を格納することを特徴とする請求項1または2に記載の言語モデル生成装置。
  4. 言語モデル生成目的の例文が部分的に形態素とクラスにより系列化された第1のコーパスと、
    予め作成されたクラスに属する形態素集合の連鎖例を形態素列で記述した第2のコーパスと、
    第1のコーパスのクラス化列に、第2のコーパスの形態素列を埋め込み展開する単語系列展開手段と、
    単語系列展開手段の処理結果を格納する統合コーパスと、
    統合コーパスを入力し、前接続と後接続の形態素が特殊表現または非特殊表現の同じ表現の接続の場合と異なる表現の接続の場合の異なる2つのバックオフ係数を格納する単語Nグラムを出力するNグラム辞書生成部と、
    音声入力部でとり込まれた音声の認識を行うとき、前接の形態素により単語Nグラムに格納されたバックオフ係数を選択して認識する音声認識部と、音声認識結果を出力するデータ出力部を備える音声認識装置。
JP2008002194A 2008-01-09 2008-01-09 言語モデル生成装置及び音声認識装置 Expired - Fee Related JP5137588B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008002194A JP5137588B2 (ja) 2008-01-09 2008-01-09 言語モデル生成装置及び音声認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008002194A JP5137588B2 (ja) 2008-01-09 2008-01-09 言語モデル生成装置及び音声認識装置

Publications (2)

Publication Number Publication Date
JP2009163109A true JP2009163109A (ja) 2009-07-23
JP5137588B2 JP5137588B2 (ja) 2013-02-06

Family

ID=40965772

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008002194A Expired - Fee Related JP5137588B2 (ja) 2008-01-09 2008-01-09 言語モデル生成装置及び音声認識装置

Country Status (1)

Country Link
JP (1) JP5137588B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103871404A (zh) * 2012-12-13 2014-06-18 北京百度网讯科技有限公司 一种语言模型的训练方法、查询方法和对应装置
WO2022254829A1 (ja) * 2021-06-04 2022-12-08 ソニーグループ株式会社 学習装置、学習方法及び学習プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06118984A (ja) * 1992-10-02 1994-04-28 Nippon Telegr & Teleph Corp <Ntt> 日本語テキスト自動拡張方法
JP2001236088A (ja) * 2000-02-22 2001-08-31 Mitsubishi Electric Corp 統計的言語モデル作成装置、統計的言語モデル作成方法及び統計的言語モデル作成プログラムが記述された記録媒体
JP2002287787A (ja) * 2001-01-31 2002-10-04 Microsoft Corp 明確化言語モデル
JP2004117647A (ja) * 2002-09-25 2004-04-15 Nippon Hoso Kyokai <Nhk> クラス言語モデル生成方法、クラス言語モデル生成装置及びクラス言語モデル生成プログラム
JP2006059105A (ja) * 2004-08-19 2006-03-02 Mitsubishi Electric Corp 言語モデル作成装置及び方法並びにプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06118984A (ja) * 1992-10-02 1994-04-28 Nippon Telegr & Teleph Corp <Ntt> 日本語テキスト自動拡張方法
JP2001236088A (ja) * 2000-02-22 2001-08-31 Mitsubishi Electric Corp 統計的言語モデル作成装置、統計的言語モデル作成方法及び統計的言語モデル作成プログラムが記述された記録媒体
JP2002287787A (ja) * 2001-01-31 2002-10-04 Microsoft Corp 明確化言語モデル
JP2004117647A (ja) * 2002-09-25 2004-04-15 Nippon Hoso Kyokai <Nhk> クラス言語モデル生成方法、クラス言語モデル生成装置及びクラス言語モデル生成プログラム
JP2006059105A (ja) * 2004-08-19 2006-03-02 Mitsubishi Electric Corp 言語モデル作成装置及び方法並びにプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNJ200710007130; 花沢利行 他: '"統計言語モデルを用いた連続音声認識における単語グループ間バイグラムの削減"' 電子情報通信学会2006年総合大会講演論文集 情報・システム1 , 20060308, p.130 *
JPN6011058792; 花沢利行 他: '"統計言語モデルを用いた連続音声認識における単語グループ間バイグラムの削減"' 電子情報通信学会2006年総合大会講演論文集 情報・システム1 , 20060308, p.130 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103871404A (zh) * 2012-12-13 2014-06-18 北京百度网讯科技有限公司 一种语言模型的训练方法、查询方法和对应装置
CN103871404B (zh) * 2012-12-13 2017-04-12 北京百度网讯科技有限公司 一种语言模型的训练方法、查询方法和对应装置
WO2022254829A1 (ja) * 2021-06-04 2022-12-08 ソニーグループ株式会社 学習装置、学習方法及び学習プログラム

Also Published As

Publication number Publication date
JP5137588B2 (ja) 2013-02-06

Similar Documents

Publication Publication Date Title
EP1575029B1 (en) Generating large units of graphonemes with mutual information criterion for letter to sound conversion
JP6493866B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US8185376B2 (en) Identifying language origin of words
US7966173B2 (en) System and method for diacritization of text
US8392191B2 (en) Chinese prosodic words forming method and apparatus
US20140324435A1 (en) Combined statistical and rule-based part-of-speech tagging for text-to-speech synthesis
US11270687B2 (en) Phoneme-based contextualization for cross-lingual speech recognition in end-to-end models
JP2000353161A (ja) 自然言語生成における文体制御方法及び装置
JP2001100781A (ja) 音声処理装置および音声処理方法、並びに記録媒体
US20070005345A1 (en) Generating Chinese language couplets
EP2950306A1 (en) A method and system for building a language model
WO2007097208A1 (ja) 言語処理装置、言語処理方法および言語処理用プログラム
JP2010139745A (ja) 統計的発音変異モデルを記憶する記録媒体、自動音声認識システム及びコンピュータプログラム
JP4820240B2 (ja) 単語分類装置及び音声認識装置及び単語分類プログラム
JP5623380B2 (ja) 誤り文修正装置、誤り文修正方法およびプログラム
JP5137588B2 (ja) 言語モデル生成装置及び音声認識装置
JP2011065384A (ja) 誤字脱字対応テキスト解析装置及び方法及びプログラム
JP2006031278A (ja) 音声検索システムおよび方法ならびにプログラム
JP4478042B2 (ja) 頻度情報付き単語集合生成方法、プログラムおよびプログラム記憶媒体、ならびに、頻度情報付き単語集合生成装置、テキスト索引語作成装置、全文検索装置およびテキスト分類装置
Xuan et al. A semi-supervised learning method for Vietnamese part-of-speech tagging
Vu et al. Vietnamese automatic speech recognition: The flavor approach
GB2568902A (en) System for speech evaluation
Sak Integrating morphology into automatic speech recognition: morpholexical and discriminative language models for Turkish
JP4631076B2 (ja) 音素単位セットを最適化する方法及びシステム
JP2003177786A (ja) 言語モデル作成装置及びそれを利用した音声認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121016

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121113

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151122

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees