JP2001092488A - 統計的言語モデル生成装置及び音声認識装置 - Google Patents

統計的言語モデル生成装置及び音声認識装置

Info

Publication number
JP2001092488A
JP2001092488A JP26363499A JP26363499A JP2001092488A JP 2001092488 A JP2001092488 A JP 2001092488A JP 26363499 A JP26363499 A JP 26363499A JP 26363499 A JP26363499 A JP 26363499A JP 2001092488 A JP2001092488 A JP 2001092488A
Authority
JP
Japan
Prior art keywords
class
word
speech
language model
statistical language
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP26363499A
Other languages
English (en)
Other versions
JP3364631B2 (ja
Inventor
Hideji Nakajima
秀治 中嶋
Hiroshi Yamamoto
博史 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Interpreting Telecommunications Research Laboratories
Original Assignee
ATR Interpreting Telecommunications Research Laboratories
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Interpreting Telecommunications Research Laboratories filed Critical ATR Interpreting Telecommunications Research Laboratories
Priority to JP26363499A priority Critical patent/JP3364631B2/ja
Publication of JP2001092488A publication Critical patent/JP2001092488A/ja
Application granted granted Critical
Publication of JP3364631B2 publication Critical patent/JP3364631B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 発話分割が考慮された遷移確率の予測精度及
び信頼性の高い統計的言語モデルを生成することができ
る。 【解決手段】 言語モデル生成部20は学習用テキスト
データに基づいてすべての単語を処理対象の単語の前に
接続される単語の品詞属性に基づくtoクラスの品詞ク
ラスに分類し、処理対象の単語の後に接続される単語の
品詞属性に基づくfromクラスの品詞クラスに分類す
る。複数の単語が連続したときに固有の読みが与えられ
る結合単語についてtoクラスについて結合単語内の最
先の単語の品詞クラスにクラス分類し、fromクラス
について結合単語内の最後の単語の品詞クラスにクラス
分類した後、処理対象の単語の前の接続と後ろの接続毎
に複数の品詞クラスを有する多重クラスN−gramの
出現確率を計算して統計的言語モデルを生成し、単語は
発声音声文における発話の切れ目を示す記号を含みto
クラス及びfromクラスの品詞クラスとして分類す
る。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、学習用テキストデ
ータに基づいて統計的言語モデルを生成する統計的言語
モデル生成装置、及び上記統計的言語モデルを用いて、
入力される発声音声文の音声信号を音声認識する音声認
識装置に関する。
【0002】
【従来の技術】近年、連続音声認識装置において、その
性能を高めるために言語モデルを用いる方法が研究され
ている。これは、言語モデルを用いて、次単語を予測し
探索空間を削減することにより、認識率の向上及び計算
時間の削減の効果を狙ったものである。最近盛んに用い
られている言語モデルとしてN−グラム(N−gra
m)がある。これは、大規模なテキストデータを学習
し、直前のN−1個の単語から次の単語への遷移確率を
統計的に与えるものである。複数L個の単語列w1 L=w
1,w2,…,wLの生成確率P(w1 L)は次式で表され
る。
【0003】
【数1】
【0004】ここで、wtは単語列w1 Lのうちt番目の
1つの単語を表し、wi jはi番目からj番目の単語列を
表わす。上記数1において、確率P(wt
t+1-N t-1)は、N個の単語からなる単語列wt+1-N t-1
が発声された後に単語wtが発声される確率であり、以
下同様に、確率P(A|B)は単語又は単語列Bが発声
された後に単語Aが発声される確率を意味する。また、
数1における「Π」はt=1からLまでの確率P(wt
|wt+1-N t-1)の積を意味し、以下同様である。
【0005】N−グラムは極めて単純なものでありなが
ら、構築の容易さ、統計的音響モデルとの相性の良さ、
認識率向上や計算時間の短縮の効果が大きい等の理由
で、連続音声認識には非常に有効である(例えば、従来
技術文献1「L.R.Bahlほか,“A Maxim
um Likelihood Approach to
Continuous Speech Recogni
tion”,IEEETransaction on
Pattern Analysis andMachi
ne Intelligence, pp.179−1
90,1983年」、従来技術文献2「P.C.Woo
dlandほか,“THE 1994 HTK Lar
ge Vocabulary Speech Reco
gnition System”,Proceedin
gs of ICASSP95’,Vol.1,pp.
73−76,1995年」、従来技術文献3「村上ほ
か,“単語のtrigramを利用した文音声認識と自
由発話認識への拡張”,電子情報通信学会技術研究報
告,SP93−127,pp71−78,平成6年」参
照。)。
【0006】一般に、N−グラムの言語モデルは、Nを
大きくすると長い単語連鎖を取り扱うことにより次単語
の精度は高くなるが、パラメータ数が多くなり、学習デ
ータ量が少ない場合は出現頻度の低い単語に信頼できる
遷移確率を与えることはできない。例えば語彙数が5,
000語のとき、トライグラム(trigram)(N
=3)の全ての単語の遷移組は(5,000)3=1,
250億であるから、信頼できる遷移確率を求めるため
には、数千億単語以上からなる膨大なテキストデータが
必要となる。これだけの膨大なテキストデータを集める
のは事実上不可能である。逆に、Nを小さくすると、遷
移確率の信頼性は高くなるが、短い単語連鎖しか取り扱
うことができず、次単語の予測精度は低くなる。
【0007】この問題を解決するため、次のような方法
が提案されている。 (1)補間による未学習遷移確率の推定方法 この方法は、例えば、Deleted Interpo
lation(削除補間法)(例えば、従来技術文献4
「F.Jelinekほか,“Interpolate
d estimation of Markov So
urce Parameters from Spar
se Data”,Proceedings of W
orkshop Pattern Recogniti
on in Practice,pp.381−37,
1980年」参照。)や、Back−off Smoo
thing法(従来技術文献5「S.M.Katz,
“Estimation of Probabilit
ies from Sparse Data for
the Language model Compon
ent of a Speech Recognize
r”,IEEE Transaction on Ac
oustics, Speech, andSigna
l Processing,Vol.ASSP−35,
No.3,pp.400−401,1987年3月」参
照。)等に代表される方法で、小さいNのN−グラム
(N−gram)の値で遷移確率を補間することによ
り、学習用テキストデータには存在しない単語遷移に対
しても、遷移確率を与えることができる。しかしなが
ら、出現頻度の低い単語に関しては信頼できる遷移確率
を与えられない恐れがある。
【0008】(2)クラスN−グラムによるパラメータ
数の削減方法 この方法は、相互情報量に基づくクラスタリング(例え
ば、従来技術文献6「P.F.Brownほか,“Cl
ass−Based n−gram models o
f natural language”,Compu
tational Linguistics,Vol.
18,No.4,pp467−479,1992年」参
照。)や、品詞(従来技術文献7「周ほか,“確率モデ
ルによる日本語の大語彙連続音声認識”,情報処理学
会,第51回全国大会講演論文集,pp119−12
0,平成7年」参照。)等によるクラス間のN−グラム
を考えたもので、L個の単語の文生成確率P(w1 L)は
一般に次式で表される。
【0009】
【数2】
【0010】ここで、ctは単語wtの属するクラスを表
し、ci jはi番目からj番目のクラス列を表わす。上記
数2で、P(ct|ct-N+1 t+1)は、直前の(N−1)
個の単語の属するクラスから次の単語の属するクラスへ
の遷移確率を表す。クラス数が50のとき、トライグラ
ムの全てのクラス間の遷移の組は503=125,00
0であるから、数十万単語程度と単語N−グラムに比べ
てかなり小規模なテキストデータで遷移確率が求められ
ると考えられる。しかしながら、単語間の特有な連接関
係を表現することができないので、次単語の予測精度は
悪くなると考えられる。
【0011】以上の問題点を解決し、従来例に比較して
遷移確率の予測精度及び信頼性を改善することができる
統計的言語モデルを生成する方法が、本特許出願人によ
り特許出願された特開平9−134192号公報におい
て開示されている。この従来例の方法では、品詞クラス
間のバイグラムを初期状態の統計的言語モデルとし、単
語の品詞クラスからの分離可能な第1の分離クラス候補
と、連接単語又は単語列の結合によって単語の品詞クラ
スから分離可能な第2の分離クラス候補とを検索し、次
単語の予測の難易度を表わすエントロピーを用いて、ク
ラスを分離することによるエントロピーの減少量を計算
する。次いで、計算されたエントロピーの減少量の中で
最大のクラス分離を選択してクラス分離を実行すること
により、品詞のバイグラムと可変長Nの単語のN−グラ
ムとを含む統計的言語モデルを生成し、所定のクラス数
になるまで上記処理を繰り返すことを特徴としている。
【0012】
【発明が解決しようとする課題】しかしながら、この方
法で生成された、品詞のバイグラムと可変長Nの単語の
N−グラムとを含む統計的言語モデルにおいても、次単
語予測の信頼性はいまだ比較的低いという問題点があっ
た。
【0013】また、従来技術文献8「政瀧ほか,“連続
音声認識のための可変長連鎖統計言語モデル”,電子情
報通信学会技術報告,SP95−73,pp.1−6,
平成7年」において、次単語予測の信頼性を向上させる
ために、可変長連鎖統計言語モデルが提案されている
が、品詞情報の精度に言語モデルの性能が左右され、ま
た、クラスの分離にともなってパラメータ数が大幅に増
大するという問題点があった。
【0014】さらに、現在の音声翻訳システムにおいて
は、発話毎に、すなわち音声の認識単位毎に翻訳を行な
う。処理対象である自然な会話においては、1回の発話
の中に複数の文が含まれる場合がある。翻訳では、文を
単位とした従来の翻訳に関する多くの知見を利用できる
ことから、処理単位を文にするほうが望ましい。そのた
め、翻訳の前段階において、発話をそれよりも小さな文
などの単位に分割することが必要となる。従来技術にお
いては、例えば従来技術文献9「竹澤ほか,”発話単位
の分割または接合による言語処理単位への変換手法”,
自然言語処理,Vol.6,No.2,pp.83−9
5,1999年」において、音声認識用の言語モデルと
は異なる情報を作成し、その情報を用いて所定のしきい
値を設定し、音声認識処理の後処理として発話の分割を
行っている。すなわち、そのような発話の分割処理は音
声認識結果の第1位候補のみへの後処理として実現され
ているために、豊富な情報が伝達されない。また、分割
のためのしきい値を予め決定する処理を必要とする。音
声認識用とは異なる発話分割専用の言語モデルの維持管
理の手間が増大するという問題点があった。
【0015】本発明の目的は以上の問題点を解決し、発
話分割が考慮された遷移確率の予測精度及び信頼性の高
い統計的言語モデルを生成することができる統計的言語
モデル生成装置、及び、当該統計的言語モデルを用いて
従来例に比較して高い音声認識率で音声認識することが
できる音声認識装置を提供することにある。
【0016】
【課題を解決するための手段】本発明に係る請求項1記
載の統計的言語モデル生成装置は、所定の話者の発声音
声文を書き下した学習用テキストデータに基づいて、す
べての単語をそれぞれ、処理対象の単語の前に接続され
る単語の品詞属性に基づくtoクラスの品詞クラスに分
類する第1の分類手段と、上記学習用テキストデータに
基づいて、すべての単語をそれぞれ、処理対象の単語の
後に接続される単語の品詞属性に基づくfromクラス
の品詞クラスに分類する第2の分類手段と、複数の単語
が連続したときに固有の読みが与えられる複数の単語の
列である所定の結合単語について、toクラスの品詞ク
ラスについて結合単語内の最先の単語の品詞クラスにク
ラス分類する一方、fromクラスの品詞クラスについ
て結合単語内の最後の単語の品詞クラスにクラス分類す
る第3の分類手段と、上記第1の分類手段と上記第2の
分類手段と上記第3の分類手段とによってクラス分類さ
れた単語データに基づいて、処理対象の単語の前の接続
と後ろの接続毎に複数の品詞クラスを有する多重クラス
N−gramの出現確率を計算することにより多重クラ
スN−gramの統計的言語モデルを生成する第1の生
成手段とを備え、上記単語は、発声音声文における発話
の切れ目を示す記号を含み、上記発話の切れ目を示す記
号をtoクラスの品詞クラス及びfromクラスの品詞
クラスとして分類することを特徴とする。
【0017】また、請求項2記載の統計的言語モデル生
成装置は、請求項1記載の統計的言語モデル生成装置に
おいて、上記発話の切れ目を示す記号は、(a)互いに
隣接する2つの文の間で発話の切れ目を示す句点と、
(b)互いに隣接する2つの節の間で発話の切れ目を示
す読点と、(c)互いに隣接し、意味的なまとまりを有
する2つの部分文の間で発話の切れ目を示す記号と、の
うちの少なくとも1つを含むことを特徴とする。
【0018】また、請求項3記載の統計的言語モデル生
成装置は、請求項1又は2記載の統計的言語モデル生成
装置において、上記第1の生成手段によって生成された
多重クラスN−gramの統計的言語モデルに基づい
て、所定数より出現回数が多い単語ペアを結合単語とし
て導入し、当該結合単語に対して、toクラスの品詞ク
ラスについては当該結合単語内の最先の単語の品詞クラ
スにクラス分類する一方、fromクラスの品詞クラス
については当該結合単語内の最後の単語の品詞クラスに
クラス分類する第3の分類手段と、上記第3の分類手段
によってクラス分類されて結合単語が導入された統計的
言語モデルにおいて結合単語を含む多重クラス複合N−
gramの出現確率を計算することにより多重クラス複
合N−gramの統計的言語モデルを生成する第2の生
成手段とをさらに備えたことを特徴とする。
【0019】さらに、請求項4記載の統計的言語モデル
生成装置は、請求項3記載の統計的言語モデル生成装置
において、上記第2の生成手段によって生成された多重
クラスN−gramの統計的言語モデルにおいて、所定
数より出現回数が多い単語ペアが存在するときに、上記
第2の生成手段によって生成された多重クラスN−gr
amの統計的言語モデルに基づいて、所定数より出現回
数が多い単語ペアを結合単語として導入し、上記第3の
分類手段の処理と、上記第2の生成手段の処理とを繰り
返して実行して、上記多重クラスN−gramの統計的
言語モデルを更新する制御手段をさらに備えたことを特
徴とする。
【0020】また、本発明に係る請求項5記載の音声認
識装置は、入力される発声音声文の音声信号に基づい
て、所定の統計的言語モデルを用いて音声認識する音声
認識手段を備えた音声認識装置において、上記音声認識
手段は、請求項1乃至4のうちの1つに記載の統計的言
語モデル生成装置によって生成された統計的言語モデル
を用いて音声認識することを特徴とする。
【0021】
【発明の実施の形態】以下、図面を参照して本発明に係
る実施形態について説明する。
【0022】図1は、本発明に係る一実施形態である連
続音声認識装置のブロック図である。この実施形態の連
続音声認識装置は、学習用テキストデータメモリ13内
の学習用テキストデータに基づいて多重クラスbigr
am(バイグラム)の統計的言語モデルを生成する言語
モデル生成部20と、上記生成された多重クラスbig
ramの統計的言語モデルに基づいて多重クラス複合b
igramの統計的言語モデルを生成する言語モデル生
成部30とを備え、上記生成された多重クラスbigr
amの統計的言語モデル又は多重クラス複合bigra
mの統計的言語モデルをスイッチSWを用いて選択的に
切り換えることにより参照して連続音声認識することを
特徴としている。
【0023】音声認識装置においては、言語モデルとし
て単語N−gramが広く用いられている。単語N−g
ramは作成の簡便さ等の優れた点が多い一方、大量の
学習データを必要とするという問題点がある。このため
大量のデータの収集が難しい分野ではしばしば単語N−
gramを縮退させたクラスN−gramが用いられて
いる。クラスN−gramにおいて、クラスをどのよう
に設定するかはモデルの性能に直結する重要な問題であ
り、本実施形態では、その効率的な設定手法の1つとし
て接続の方向性を考慮した多重クラスとそれを用いたN
−gramを用いる。
【0024】まず、品詞によるクラスについて説明す
る。クラスN−gramにおけるクラスの指標としては
品詞情報がよく用いられる。そこで、本発明者は、ま
ず、品詞情報に基づくクラス分類を行ったクラスbig
ramと単語bigramの性能比較を行った。学習セ
ットはのべ単語数459,383単語、異なり単語数
7,221単語であり、クラスは品詞情報に基づく15
8クラスを用いた。実験結果はのべ単語数6,826の
テストセットにおいて、クラスbigramがパープレ
キシティ31.53であったのに対して、単語bigr
amでは18.51であり、両者の間にはかなりの差が
あることがわかる。この原因はクラス分類に用いた品詞
情報は単語の性質全体を表わすものであるため、N−g
ramにおいて重要な単語の接続性を純粋にあらわして
いるとは言い難いためと考えられる。
【0025】この状況に鑑みて本発明者は、以下に示す
多重クラスN−gramを発明した。ここで、品詞情報
によるクラス分類を行う場合と、単語の接続性のみに着
目してクラス分類を行う場合の違いに関して考える。例
として全節で用いた品詞分類の1つである動詞活用語尾
のうち次の3つを対象としてみる。 (a)「き:語尾、五段カ行、連用形」 (b)「し:語尾、五段サ行、連用形」 (c)「く:語尾、五段カ行、終止形」 これらは異なった品詞を持つために(ここでは、3つの
品詞にクラス分類される)、品詞情報によるクラス分類
では各々別のクラスとされる。この場合どのような単語
が前にくるか後にくるか、各々3通りの接続を考えるこ
とになる。しかしながら、これらに対してどのような単
語が前にくるかだけを考えた場合、「き」と「く」は同
じと考えることができ、どのような単語が後にくるかだ
けを考えた場合、「き」と「し」は同じと考えることが
できる。従って、どのような単語が前にくるか、後にく
るかという性質を個別に考え、それぞれに対して別々に
クラスを割り当てれば各々2通りの接続を考えればよい
ことになり、通常のクラス分類よりも効率的なクラス分
類を行うことができる。
【0026】本実施形態では、前者である前にある単語
の接続性(fromの接続性)に関するクラスをtoク
ラスと呼び、後者である後続する単語の接続性(toの
接続性)をfromクラスと呼ぶことにし、個々の単語
はtoクラス、fromクラスの2つのクラス属性(品
詞属性)を持つと考えることにする。これによれば、上
記の3つの単語はtoクラスでは (a)「き、く:語尾、五段カ行」 (b)「し:語尾、五段サ行」 の2つのクラスで表現でき、fromクラスでは (a)「き、し:語尾、五段、連用形」 (b)「く:語尾、五段、終止形」 の2つのクラスで表現できる。この考え方はN≧3の場
合に対してもそのまま拡張可能で、この場合、個々の単
語はN個のクラス属性を持つことになる。このクラス属
性のことを多重クラスと呼び、これを用いたN−gra
mを多重クラスN−gramと呼ぶ。N=2としたとき
の多重クラスbigramの出現確率は、は次式で表わ
される。
【0027】
【数3】P(Wn|Wn−1)≒P(Ct(Wn)|C
f(Wn−1))×P(Wn|Ct(Wn))
【0028】ここで、Ctは、処理対象の単語が属する
toクラスを表わし、Cfはfromクラスを表わすも
のとする。このときのパラメータ数はクラスN−gra
mが、クラス数の自乗+単語数となるのに対して、to
クラス数×fromクラス数+単語数となる。
【0029】次いで、結合単語の導入について説明す
る。N−gramにとって都合の良い単語の単位は実際
に音声認識を行う場合に都合の良い単語の単位と一致す
るとは限らない。これは、例えば「二十日(はつか)」
のよう特定の単語が連続した場合に固有の読みが与えら
れる場合があるからである。本実施形態では、複数の単
語が連続したときに固有の読みが与えられる複数の単語
の列を結合単語という。この場合は結合単語を辞書に新
たなエントリーとして加える必要が生じるが、通常のN
−gramでは結合単語を新たに導入した場合は再学習
が必要であり、またこれにともなって新たなデータスパ
ースの問題を引き起こす可能性がある。すなわち、デー
タ数が減少した後に確率値を計算するために、統計的言
語モデルの信頼性が低下する可能性が生じる。これに対
して、多重クラスbigramを用いた場合は再学習な
しに結合単語の導入が可能でありデータスパースの問題
を引き起こすこともない。単語Xの後に結合単語A+
B,単語Cという列が引き続いて出現する確率は次式で
表される。
【0030】
【数4】P(C|X,A+B)=P(Ct(A+B)|
Cf(X))×P(A+B|Ct(A+B))×P(C
t(C)|Cf(A+B))×P(C|Ct(C))
【0031】ここで、結合単語A+Bの前にどのような
単語が来るかは単語Aのそれと同じで、結合単語A+B
の後にどのような単語が来るかは単語Bのそれと同じと
考えれば、次式のようにおくことができる。
【0032】
【数5】Ct(A+B)=Ct(A)
【数6】Cf(A+B)=Cf(B)
【0033】従って、数4は次式のようになる。
【0034】
【数7】P(C|X,A+B)≒P(Ct(A)|Cf
(X))×P(A+B|Ct(A))×P(Ct(C)
|Cf(B))×P(C|Ct(C)) ここで、
【数8】P(A+B|Ct(A))=P(A|Ct
(A))×P(B|A) である。
【0035】出現確率P(B|A)は多重クラスbig
ramでは、上記数3に従って次式を得る。
【0036】
【数9】P(B|A)=P(Ct(B)|Cf(A))
×P(B|Ct(B))
【0037】そして、上記数7はさらに次式のようにな
る。
【0038】
【数10】P(C|X,A+B)≒P(Ct(A)|C
f(X))×P(A|Ct(A))×P(Ct(B)|
Cf(A))×P(B|Ct(B))×P(Ct(C)
|Cf(B))×P(C|Ct(C))
【0039】従って、結合単語A+Bの導入後に必要な
パラメータは、上記数10に従って、すべて元の多重ク
ラスbigramから再学習なしに求めることができ
る。またこのときに増加したパラメータは結合単語A+
Bのtoクラス内のunigram(ユニグラム)ただ
1つとなる。
【0040】さらに、自動クラス分類を用いた多重クラ
スbigramの統計的言語モデルの生成手順について
説明する。品詞によるクラス分類はN−gramにとっ
て必ずしも適切なものではなく、接続性のみに着目した
クラス分類が望ましい。そこで接続性のみに着目したク
ラスをコーパスから自動的に規定することを考えた。ク
ラス分類の方法は次の手順で行う。
【0041】(SS1)各単語に対しその単語の接続性
を表わすベクトルを与える。このベクトルはクラスbi
gramのクラスに対しては前後の単語の接続を同時に
考慮する必要があるため、この単語からの前向き及び後
向きの単語bigramの確率値を並べたものとなる。
また、多重クラスbigramの各々のクラスにおいて
は片側の接続性のみを考慮するためtoクラスでは後向
きの単語bigram、fromクラスでは前向きの単
語bigramの確率値となる。 (SS2)1単語を1クラスとする。 (SS3)2つのクラスを統合した場合のunigra
m確率で重み付けされた分散の上昇が最小となるものを
選択して、クラス統合する。(SS4)与えられたクラ
ス数になるまで上記ステップSS3の手順をくりかえ
す。
【0042】従って、言語モデル生成部20は、複数の
発声音声文を書き下したコーパスを予め格納した学習用
テキストデータメモリ13内の学習用テキストデータに
基づいて、上記のクラス分類を行って、多重クラスbi
gramの統計的言語モデルを生成して統計的言語モデ
ルメモリ21に格納する。
【0043】図3は、図1の言語モデル生成部20によ
って実行される第1の言語モデル生成処理を示すフロー
チャートである。図3において、まず、ステップS1に
おいて、学習テキストデータを学習用テキストデータメ
モリ13から読み出す。次いで、ステップS2におい
て、すべての単語をtoの接続性に関してtoクラスで
クラス分類(クラスタリング)する。すなわち、toク
ラスについては、処理対象の単語の前に接続される単語
の品詞属性に基づいてクラス分類する。そして、ステッ
プS3において、すべての単語をfromの接続性に関
してfromクラスでクラス分類する。すなわち、fr
omクラスについては、処理対象の単語の後に接続され
る単語の品詞属性に基づいてクラス分類する。さらに、
ステップS4において、予め決められた結合単語に対し
て、toクラスについて結合単語内の最先の単語のクラ
スにクラス分類し、fromクラスについて結合単語内
の最後の単語のクラスにクラス分類する。そして、ステ
ップS5において、生成されたクラス分類された単語間
の結合(又は接続)に関するデータを用いて多重クラス
bigramの出現確率を計算することにより多重クラ
スbigramの統計的言語モデルを生成して統計的言
語モデルメモリ21に格納して当該第1の言語モデル生
成処理を終了する。ここで、結合単語の出現確率は、数
10を用いて計算でき、上述のように、結合単語の導入
によって統計的言語モデルについての再学習は必要はな
い。なお、ステップS2の処理と、ステップS3の処理
の順序は入れかわってもよい。
【0044】ところで、クラスbigramは少ないパ
ラメータ数で表現が可能であるが、精度的には単語N−
gramに比べると不満がのこる。一方、単語N−gr
amは精度的には高いものが得られるが学習データ数が
十分でない場合には信頼性の乏しいものとなってしま
う。学習データ数が十分でない場合にも精度と信頼性を
保つためにクラスbigram、単語N−gram双方
の短所を補うモデルとして上述の多重クラスN−gra
mを元にしたクラスと結合単語による多重クラス複合N
−gramについて以下説明する。
【0045】学習データの量が単語N−gramに対し
ては不十分なためクラスbigramを用いる場合で
も、すべての単語ペアについてデータが不十分であるわ
けではない。そこで単語ペアについて出現回数が十分で
あれば十分は信頼性があると考えられるため、単語bi
gramを用い、そうでない場合はクラスbigram
という方法がとれる。この方法では単語列A,Bの出現
回数が十分な場合、単語Xの後に単語列A,B,Cがこ
の順に続く出現確率は次式のようになる。
【0046】
【数11】P(C(A)|C(X))×P(A|C
(A))×P(B|A)×P(C(C)|C(B))×
P(C|C(C))
【0047】さらに、上述の多重クラスbigramを
用いた場合は、上記数11は次式のようになる。
【0048】
【数12】P(Ct(A)|Cf(X))×P(A|C
t(A))×P(B|A)×P(Ct(C)|Cf
(B))×P(C|Ct(C))
【0049】ここで、次式のようにおく。
【0050】
【数13】Ct(A)=Ct(A+B)
【数14】Cf(B)=Cf(A+B)
【0051】従って、上記数12は次式のようになる。
【0052】
【数15】P(Ct(A+B)|Cf(X))×P(A
+B|Ct(A+B))×P(Ct(C)|Cf(A+
B))×P(C|Ct(C))
【0053】上記数15は多重クラスbigramを用
いた場合は、結合単語を導入することで、多重クラスb
igramの形式を保ったまま部分的に単語bigra
mを表現でき、その際新規に必要なパラメータは結合単
語のunigramのみであることを示している。この
ことは単語trigram以上(すなわち、N−gra
m;N≧3)に関しても同様であり、その場合は3単語
からなる結合単語を導入することになる。具体的な統計
的言語モデルの作成方法としては次のような手順をと
る。
【0054】(SS11)初期状態として多重クラスb
igramを与える。 (SS12)単語ペアのうち出現回数が一定値以上のも
のを結合単語として辞書に加える。この結合単語のto
クラスは先行単語のtoクラスと同じ、fromクラス
は後続単語のfromクラスと同じとする。 (SS13)新たに加わった結合単語も含めてステップ
SS12の手順を繰り返す。出現回数が一定値以上のも
のが存在しない場合は終了する。このようにして得られ
たモデルを多重クラス複合N−gramと呼ぶことにす
る。
【0055】次いで、多重クラス複合N−gramを可
変長N−gramと比較する。クラスbigramと単
語N−gramの短所を補い合うモデルとしては、従来
技術の項で説明した可変長N−gramがある。可変長
N−gramはクラスbigramをベースとし、クラ
スの中から単語を分離し、独立したクラスにするという
操作と分離された単語から結合単語を生成し新たなクラ
スとするという操作をエントロピーの減少を基準にして
繰り返すものである。可変長N−gramは良い性能を
示すモデルであるが、次のような問題点があり、多重ク
ラス複合N−gramではこの問題は解決されている。
【0056】(I)クラスから分離された単語からでな
いと結合単語を生成することができないため、すでに適
切なクラス分類が行われている場合でもクラス分離を行
う必要がある。 (II)クラスから分離された単語は通常十分大きなユ
ニグラム出現数を持つが、バイグラムに対しては必ずし
もそうとは言えないため新たにデータスパースの問題を
引き起こすことがある。
【0057】そして、多重クラス複合N−gramと可
変長N−gramとの違いをまとめると表1のようにな
る。
【0058】
【表1】 可変長N−gramと多重クラス複合N−gramとの相違点 ―――――――――――――――――――――――――――――――――― 可変長N−gram 多重クラス複合N−gram ―――――――――――――――――――――――――――――――――― 分離の対象 クラスから単語 クラスbigramから 単語bigram ―――――――――――――――――――――――――――――――――― 分離の基準 エントロピーの減少 単語ペアの出現回数 ―――――――――――――――――――――――――――――――――― N−gram クラスbigram クラスbigram の表現単位 クラス-単語bigram 単語N−gram 単語-クラスbigram 単語N−gram ―――――――――――――――――――――――――――――――――― パラメータ数 分離単語数+ 結合単語数 の増分 結合単語数の自乗 ――――――――――――――――――――――――――――――――――
【0059】このうち、N−gramの表現単位に関し
ては可変長N−gramの方が自由度があるが、初期ク
ラスの設定が適切な場合はクラス−単語bigram、
単語−クラスbigramとクラスbigramの間の
差は小さいため問題にはならないと考えられる。また、
分離の基準に関しては可変長N−gramで出現回数を
基準とすることも、多重クラス複合N−gramでエン
トロピーを基準とすることも可能なため本質的な差では
ない。
【0060】図4は、図1の言語モデル生成部30によ
って実行される第2の言語モデル生成処理を示すフロー
チャートである。図4において、まず、ステップS11
において、多重クラスバイグラムの統計的言語モデルを
メモリ21から読み出す。次いで、ステップS12にお
いて所定数より出現回数が多い単語ペアを結合単語とし
て導入する。ここで、toクラスについて結合単語内の
最先の単語のクラスにクラス分類し、fromクラスに
ついて結合単語内の最後の単語のクラスにクラス分類す
る。さらに、ステップS13において結合単語を含む多
重クラス複合bigramの出現確率を計算することに
より多重クラス複合bigramの統計的言語モデルを
生成して統計的言語モデルメモリ31に格納して更新す
る。そして、ステップS14において所定数(例えば、
本実施形態では、20回である。)よりも出現回数が多
い単語ペアが存在するか否かが判断され、存在するとき
は、ステップS12に戻り、所定数よりも出現回数が多
い単語ペアを結合単語として導入して統計的言語モデル
を再学習する。ステップS14で、所定数よりも出現回
数が多い単語ペアが存在しないときは、多重クラス複合
bigramの統計的言語モデルを生成できたとして当
該第2の言語モデル生成処理を終了する。
【0061】さらに、本実施形態においては、各単語に
おいて、発声音声文における発話の切れ目を示す記号を
含み、上記発話の切れ目を示す記号をtoクラスの品詞
クラス及びfromクラスの品詞クラスとして分類し、
発話の分割を音声認識と同時に行い、発話の分割位置と
しての句点を含んだ単語グラフを出力することを特徴と
している。ここで、上記発話の切れ目を示す記号は、具
体的には、(a)互いに隣接する2つの文の間で発話の
切れ目を示す句点と、(b)互いに隣接する2つの節の
間で発話の切れ目を示す読点と、(c)互いに隣接し、
意味的なまとまりを有する2つの部分文の間で発話の切
れ目を示す記号であり、学習用テキストデータメモリ1
3内のテキストデータに単語とともに含まれる。ここ
で、意味的なまとまりとは、発話意図や談話意図などの
まとまりがあり、それを有する部分文は例えば発話意図
の場合、「要求」「希望」「質問」などを達成しようと
する機能を持つ。以下、発話分割を考慮した統計的言語
モデルの生成方法及び音声認識について詳述する。な
お、以下に説明する評価テストでは、句点のみを発話の
切れ目の記号とし、通常の他の単語と同様に句点を一語
として扱っているが、本発明はこれに限らず、上記読点
や、意味的なまとまりを有する2つの部分文の間で発話
の切れ目を示す記号を、単語と同様に一語として扱うこ
とも可能である。
【0062】自然な会話では、1回の発話の中に、複数
の文が含まれている場合があり、分割が必要となる(例
えば、従来技術文献9参照。)。ここではそのような発
話の例を示す。例えば、ホテルの予約やサービスの問い
合わせに関するホテルの従業員と客との会話を想定して
収集された、本特許出願人が所有する自然発話音声言語
データベースには、次のような発話がある。
【0063】
【表2】 例1:複数の文を含む発話 ――――――――――――――――――――――――――――――――――― 宿泊客:もしもし交通手段についてちょっと教えて頂きたいんですが ホテル:はいかしこまりましたどちらへお出かけでしょうか 宿泊客:延暦寺にはどう行ったらよろしいでしょうか ―――――――――――――――――――――――――――――――――――
【0064】この例では、ホテル側の発話が分割の必要
な発話である。このように発話は文という単位にはなっ
ていない。高い翻訳性能を得るためには、ホテル側の発
話の文への分割が望ましい。しかしながら、従来例の音
声認識装置では「かしこまりました」のあとに来るはず
の句点の認識は考慮されていなかった。上の例では、
「はいかしこまりました。どちらへお出かけでしょう
か」、もしくは、「はい。かしこまりました。どちらへ
お出かけでしょうか」のような発話中の句点の位置での
発話の分割が可能である。いま2通りの分割例を挙げた
ように、「はい」のうしろに句点を打つ場合もあれば、
そうでない場合もあり、話し言葉中の句点の打ち方につ
いての明確な規定はない。また、話し言葉における文の
定義も難しい。また、文間の無音区間の長さは様々であ
り、無音区間に関する物理量のみに基づいて文を定義
し、発話を分割することは難しい(例えば、従来技術文
献9参照。)そのため、本実施形態では会話の書き起し
テキストデータ(コーパス)である、本特許出願人が所
有する自然発話音声言語データベースにおいて、句点で
区切られている単位を文と定義する。従来は、この分割
処理が音声認識の後処理(例えば、従来技術文献9参
照。)又は翻訳の前処理として行なわれていた。本実施
形態では、句点を言語情報として扱うことによって、分
割を音声認識と同時に行なう。
【0065】従来の音声認識装置においては、統計的言
語モデルを用いて音声認識しているが、従来は句点の認
識は考慮されていなかったため、句点を取り除いて言語
モデルが作成されていた。本実施形態では、それらを学
習データの中に残し、発話中の句点への遷移確率、及
び、発話中の句点からの遷移確率も推定させる。本実施
形態では、統計的言語モデルとして、上述の多重クラス
N−gram又は多重クラス複合N−gramを用い、
単語の予測確率も上述の数3を用いる。ここで、数3に
おいて、Wn、Wn−1は単語又は、複合語としての結
合単語又は単語系列である。なお、発話中の句点は発話
末の句点とは別の単語として登録する。そして、発話中
の句点は、toクラスでは発話終了記号と同じクラスと
して登録し、fromクラスでは発話開始記号と同じク
ラスとして登録する。また、デコーディングにおいて
は、発話中の句点が、発話開始記号や発話終了記号とは
別の単語として登録されているので、従来の音声認識装
置をそのまま用いることができる。
【0066】次いで、図1に示す連続音声認識装置の構
成及び動作について説明する。図1において、単語照合
部4に接続された音素隠れマルコフモデル(以下、隠れ
マルコフモデルをHMMという。)メモリ11内の音素
HMMは、各状態を含んで表され、各状態はそれぞれ以
下の情報を有する。 (a)状態番号、(b)受理可能なコンテキストクラ
ス、(c)先行状態、及び後続状態のリスト、(d)出
力確率密度分布のパラメータ、及び(e)自己遷移確率
及び後続状態への遷移確率。なお、本実施形態において
用いる音素HMMは、各分布がどの話者に由来するかを
特定する必要があるため、所定の話者混合HMMを変換
して生成する。ここで、出力確率密度関数は例えば34
次元の対角共分散行列をもつ混合ガウス分布である。ま
た、単語照合部4に接続された単語辞書メモリ12内の
単語辞書は、音素HMMメモリ11内の音素HMMの各
単語毎にシンボルで表した読みを示すシンボル列を格納
する。
【0067】図1において、話者の発声音声はマイクロ
ホン1に入力されて音声信号に変換された後、特徴抽出
部2に入力される。特徴抽出部2は、入力された音声信
号をA/D変換した後、例えばLPC分析を実行し、対
数パワー、16次ケプストラム係数、Δ対数パワー及び
16次のΔケプストラム係数を含む34次元の特徴パラ
メータを抽出する。抽出された特徴パラメータの時系列
はバッファメモリ3を介して単語照合部4に入力され
る。
【0068】単語照合部4は、ワン−パス・ビタビ復号
化法を用いて、バッファメモリ3を介して入力される特
徴パラメータのデータに基づいて、音素HMM11と単
語辞書12とを用いて単語仮説を検出し尤度を計算して
出力する。ここで、単語照合部4は、各時刻の各HMM
の状態毎に、単語内の尤度と発声開始からの尤度を計算
する。尤度は、単語の識別番号、単語の開始時刻、先行
単語の違い毎に個別にもつ。また、計算処理量の削減の
ために、音素HMM11及び単語辞書12とに基づいて
計算される総尤度のうちの低い尤度のグリッド仮説を削
減する。単語照合部4は、その結果の単語仮説と尤度の
情報を発声開始時刻からの時間情報(具体的には、例え
ばフレーム番号)とともにバッファメモリ5を介して単
語仮説絞込部6に出力する。
【0069】ここで、スイッチSWをa側に切り換えた
とき、統計的言語モデルメモリ21が単語仮説絞込部6
に接続されて単語仮説絞込部6は統計的言語モデルメモ
リ21内の多重クラスbigramの統計的言語モデル
を参照して処理を行う一方、スイッチSWをb側に切り
換えたとき、統計的言語モデルメモリ31が単語仮説絞
込部6に接続されて単語仮説絞込部6は統計的言語モデ
ルメモリ31内の多重クラス複合bigramの統計的
言語モデルを参照して処理を行う。
【0070】単語仮説絞込部6は、単語照合部4からバ
ッファメモリ5を介して出力される単語仮説に基づい
て、統計的言語モデルメモリ21又は31内の統計的言
語モデルを参照して、終了時刻が等しく開始時刻が異な
る同一の単語の単語仮説に対して、当該単語の先頭音素
環境毎に、発声開始時刻から当該単語の終了時刻に至る
計算された総尤度のうちの最も高い尤度を有する1つの
単語仮説で代表させるように単語仮説の絞り込みを行っ
た後、絞り込み後のすべての単語仮説の単語列のうち、
最大の総尤度を有する仮説の単語列を認識結果として出
力する。なお、タスク適応化された統計的言語モデル
は、各タスク毎に1つの統計的言語モデルを備え、単語
仮説絞込部6は、音声認識しようとするタスクに対応す
る統計的言語モデルを選択的に参照する。本実施形態に
おいては、好ましくは、処理すべき当該単語の先頭音素
環境とは、当該単語より先行する単語仮説の最終音素
と、当該単語の単語仮説の最初の2つの音素とを含む3
つの音素並びをいう。
【0071】例えば、図2に示すように、(i−1)番
目の単語Wi-1の次に、音素列a1,a2,…,anからな
るi番目の単語Wiがくるときに、単語Wi-1の単語仮説
として6つの仮説Wa,Wb,Wc,Wd,We,Wf
が存在している。ここで、前者3つの単語仮説Wa,W
b,Wcの最終音素は/x/であるとし、後者3つの単
語仮説Wd,We,Wfの最終音素は/y/であるとす
る。終了時刻teと先頭音素環境が等しい仮説(図2で
は先頭音素環境が“x/a1/a2”である上から3つの
単語仮説)のうち総尤度が最も高い仮説(例えば、図2
において1番上の仮説)以外を削除する。なお、上から
4番めの仮説は先頭音素環境が違うため、すなわち、先
行する単語仮説の最終音素がxではなくyであるので、
上から4番めの仮説を削除しない。すなわち、先行する
単語仮説の最終音素毎に1つのみ仮説を残す。図2の例
では、最終音素/x/に対して1つの仮説を残し、最終
音素/y/に対して1つの仮説を残す。
【0072】以上の実施形態においては、当該単語の先
頭音素環境とは、当該単語より先行する単語仮説の最終
音素と、当該単語の単語仮説の最初の2つの音素とを含
む3つの音素並びとして定義されているが、本発明はこ
れに限らず、先行する単語仮説の最終音素と、最終音素
と連続する先行する単語仮説の少なくとも1つの音素と
を含む先行単語仮説の音素列と、当該単語の単語仮説の
最初の音素を含む音素列とを含む音素並びとしてもよ
い。
【0073】以上の実施形態において、特徴抽出部2
と、単語照合部4と、単語仮説絞込部6と、言語モデル
生成部20,30とは、例えば、デジタル電子計算機な
どのコンピュータで構成され、バッファメモリ3,5
と、音素HMMメモリ11と、単語辞書メモリ12と、
学習用テキストデータメモリ13と、統計的言語モデル
メモリ21,31とは、例えばハードディスクメモリな
どの記憶装置で構成される。
【0074】以上実施形態においては、単語照合部4と
単語仮説絞込部6とを用いて音声認識を行っているが、
本発明はこれに限らず、例えば、音素HMM11を参照
する音素照合部と、例えばOne Pass DPアル
ゴリズムを用いて統計的言語モデルを参照して単語の音
声認識を行う音声認識部とで構成してもよい。
【0075】
【実施例】図5は、図1の連続音声認識装置において生
成された単語グラフの一例を示す図である。この単語グ
ラフは、音声認識過程で発話分割を行った結果得られた
単語グラフである。その図の中で、単語の下の括弧
( )で囲まれた数字は、その単語の持つスコアであ
る。ここで、スコアは、音響尤度と言語尤度の重み付き
の和をいう。図5において、太い線でつながれた単語の
系列が音声認識結果の「第1位候補」であり、発話開始
から発話終了に向かう全てのパスの中で、各パスに沿っ
てスコアを足し合わせた値が最も大きい単語系列が第1
位候補となっている。図5の一例においては、
【数16】「おまたせいたしました。恐れ入りますがシ
ングルルームは満室となっております」が正解である
が、一方の第1位候補は、
【数17】「おまたせいたしました。恐れ入りますがシ
ングルルームお話となっております」であるので、下線
の部分が間違っている。図5の単語グラフでは、音声認
識過程で分割が正確に行われており、「は満室」が含ま
れているので、正解と完全に一致するパスが含まれてい
ることになる。従って、音声認識結果の第2位以下の候
補の情報も含む単語グラフを出力することができるの
で、豊富な情報を後段に伝達することができる。また、
分割のためのしきい値を予め決定する処理を必要しな
い。音声認識用とは異なる発話分割専用の統計的言語モ
デルの維持管理をする必要がない。
【0076】本発明者は、音声翻訳研究の目的で収集さ
れた、本特許出願人が所有する自然発話の音声言語のテ
キストデータベース(コーパス)を用いて評価実験を行
なった。上記のデータベースのうち、分割実験の評価用
データとして9会話(通常の2人による会話を、話者の
役割(ホテル側/客)毎に区別してそれぞれを「片側会
話」と呼ぶことにすると、18片側会話)を選択すると
ともに、音声認識の評価用データとして42片側会話を
選択した。本実施例では、前者の9会話のデータを「評
価1のデータ」と呼び、後者を「評価2のデータ」と呼
ぶ。評価1のデータは従来技術文献9で用いられたもの
と同一である。その他のデータと評価1のデータは言語
モデルの学習用のデータとした。ここで、評価2のデー
タの話者は音声認識の目的から音響モデルの学習には含
まれていない話者である。それぞれの片側会話数、のべ
単語数、及び発話中の句点の総数を表3に示す。
【0077】
【表3】 学習用と評価用のデータ ――――――――――――――――――――――――――――――――――― 片側会話数 総単語数 句点数 ――――――――――――――――――――――――――――――――――― 学習データ 7,202 1,385,130 32,096 ――――――――――――――――――――――――――――――――――― 評価1のデータ 18 2,437 73 ――――――――――――――――――――――――――――――――――― 評価2のデータ 42 4,990 89 ―――――――――――――――――――――――――――――――――――
【0078】以上のデータを用いて、発話中の句点を含
む多重クラス複合bigramである統計的言語モデル
(以下、SPLTモデルという。)とそれを含まない統
計的言語モデル(以下、BASEモデルという。)の2
種類のモデルを作成する。両モデルにおいて、語彙のサ
イズは約14,000、獲得された単語系列数(すなわ
ち、単語系列又は結合単語の数)はおよそ4,700で
あり、toクラスのクラス数とfromクラスのクラス
数はともに700とした。
【0079】次いで、分割の評価においては、SPLT
モデルと評価1のデータとを用いた音声認識実験を行な
った。この認識結果には句点が含まれる。分割について
は、認識結果の第1位候補での句点の再現率と適合率の
観点から評価する。結果は表4の通りであった。ここ
で、「評価1’のデータ」は発話末の句点(216個)
を評価に含めた場合の値である。
【0080】
【表4】 発話分割の再現率と適合率 ――――――――――――――――――――――――――――――――――― 再現率 適合率 句点の総数 ――――――――――――――――――――――――――――――――――― 評価1のデータ 78.08 90.47 73 評価1’のデータ 94.46 97.84 289 ―――――――――――――――――――――――――――――――――――
【0081】次いで、評価1のデータでの分割誤りの事
例の幾つかを挙げる。削除誤り(分割漏れ)には例2の
ような事例があった。「×」が分割位置であるにも関わ
らず正しく分割されなかった分割位置である。
【0082】
【表5】 例2 ――――――――――――――――――――――――――――――――――― 削除誤:申し訳ございません X シングルは… 削除誤:東京シティーホテル御滞在 X 零三の… 削除誤:調べます X しばらくお待ち下さい ―――――――――――――――――――――――――――――――――――
【0083】ここで、「申し訳ございません」のような
感動詞の後ろ、体言止めの後ろ、および、一部の終止形
の後ろでの分割ができていない(すなわち、句点を認識
できていない)。挿入誤り(過分割)には、例3のよう
な事例があった。「※」が誤って挿入された分割位置を
示す。
【0084】
【表6】 例3 ――――――――――――――――――――――――――――――――――― 挿入誤:そうですか ※ 料金はそれぞれおいくらなのですか。 挿入誤:そうですか ※ じゃバス付の方でお願いしたいのですが。 ―――――――――――――――――――――――――――――――――――
【0085】この挿入誤り(過分割)の理由は、データ
ベース内の上のような位置には、句点ではなく読点がお
かれていることが多いためである。
【0086】次いで、単語認識率の比較について説明す
る。音声認識結果の第1位候補での単語認識率(%アキ
ュラシー)を次の表に示す。ここで、%アキュラシー
は、認識結果照合用の文の中の全単語数をW、認識結果
とW語の正解とを照合した結果、存在した置換誤りの数
をS、挿入誤りの数をI、削減誤りの数をDとすると、
次式で定義される。
【数18】 %アキュラシー={W−(I+D+S)}/W
【0087】
【表7】 単語認識率(句点無しの評価) ――――――――――――――――――――――――――――――――――― 評価1のデータ 評価2のデータ ――――――――――――――――――――――――――――――――――― SPLT 92.90 85.57 BASE 93.07 85.27 ―――――――――――――――――――――――――――――――――――
【0088】表7の「SPLT」は、BASEモデルと
比べるために、認識結果の第1位候補と正解との間で、
句点以外の単語を対象としてDPマッチングを行なって
得た値である。表7のように、SPLTとBASEモデ
ルとを、句点を評価対象に含めずに比較した場合に、ほ
とんど性能劣化がない。
【0089】さらに、上述の評価結果について考察す
る。本実施例の表4の結果は、統計的な情報だけに基づ
いて得られた分割の再現率と適合率である。一方、従来
技術文献9では、数値的な分割処理の後に、ヒューリス
ティック(経験的)データを用いて評価1のデータに対
する分割結果の補正を行なって評価している。また、当
時と現在とでは、音声認識の条件も大きく異なる。その
ため、従来技術文献9と本実施形態との直接の比較は行
なえない。しかしながら、表4の「評価1’のデータ」
の結果にもあるように、本実施形態の分割結果は、従来
技術文献9でのテキスト入力(音声認識100%を想
定)に対する分割結果とほぼ同等である。また、削除誤
り(例2)や湧き出し誤り(例3)の事例は、従来技術
文献9の誤りとほぼ同じであった。従って、本実施形態
のためのヒューリスティック(経験的)データを作成す
れば同等の性能が得られると予想される。句点以外の単
語認識率の点では、表7のように、句点を含むモデルと
含まないモデルとの間での性能の差はほとんどない。音
声認識と言語処理とのインタフェースとしては情報を多
く含んだ単語グラフが用いられ始めている。そのため、
従来の認識結果の第1位候補のみに対して分割を行なう
方法よりも、分割結果を含んだ単語グラフの方が後段の
言語処理に多くの情報が伝わる。また、本手法では、モ
デルのパラメータ推定がN−gramの枠組みで統一さ
れるため、従来技術文献9におけるしきい値探索が不要
になり、統計的言語モデルの構築と維持管理が容易にな
る。
【0090】以上説明したように、本実施形態によれ
ば、音声発話を分割する記号を考慮した統計的言語モデ
ル生成装置において、分割点を表す記号を辞書項目とし
て登録し、その記号と他の単語との間での遷移確率を学
習した統計的言語モデルを生成し、従来と同様の音声認
識装置で音声の認識および分割を行い、分割の記号の含
まれた音声認識出力結果としての単語グラフが得られる
ので、その分割点で発話を分割できる。従って、以下の
特有の効果を奏する。 (a)音声認識と同時に分割を行うことにより処理の一
元化が計られ、分割位置の記号を含んだ単語グラフを得
られるので、後段の翻訳装置などの言語処理装置に豊富
な情報を与えることができる。 (b)音声認識のための統計的言語モデルの中に分割の
ための情報を含めたので、従来法のような分割のためだ
けのしきい値の決定処理の必要がない。 (c)音声認識のための統計的言語モデルの中に分割の
ための情報を含めたので、互いに異なる言語モデルを用
意する従来例に比較して、維持管理が容易である。
【0091】また、本実施形態においては、多重クラス
bigramをベースとしたクラスと結合単語の複合N
−gramの統計的言語モデルの生成方法を開示した。
このモデルは出現回数の十分でない単語ペアに関しては
多重クラスbigramを用い、出現回数が十分な単語
列に関しては単語N−gramを使うため精度と頑健さ
を兼ね備えたモデルとなっている。また、結合単語の導
入の際に新たなクラス生成を必要としないため非常に少
ないパラメータ数(単語bigramの千分の1以下)
しか要求されず、かつ表現形式は多重クラスbigra
mの形のままであるためデコーディングにとっても扱い
やすいモデルとなっている。モデルの性能は認識実験か
らも単語trigramに近いパープレキシティと可変
長N−gramと同等の単語認識率を得ることが示され
た。
【0092】上述の多重クラスN−gram又は多重ク
ラス複合N−gramの統計的言語モデルを用いて音声
認識する図1の連続音声認識装置においては、次の単語
の予測精度及び信頼性を大幅に向上させることができる
ので、音声認識率を大幅に向上させることができ、しか
もパラメータ数が増大しないので、使用メモリ容量を低
減させることができる。
【0093】以上の実施形態においては、多重クラスb
igram及び多重クラス複合bigramについて詳
述しているが、本発明はこれに限らず、それぞれ多重ク
ラスN−gram及び多重クラス複合N−gram(こ
こで、N≧2である。)に容易に拡張することができ
る。
【0094】
【発明の効果】以上詳述したように本発明に係る統計的
言語モデル生成装置によれば、音声発話を分割する記号
を考慮した統計的言語モデル生成装置において、分割点
を表す記号を辞書項目として登録し、その記号と他の単
語との間での遷移確率を学習した統計的言語モデルを生
成し、従来と同様の音声認識装置で音声の認識および分
割を行い、分割の記号の含まれた音声認識出力結果とし
ての単語グラフが得られるので、その分割点で発話を分
割できる。従って、以下の特有の効果を奏する。 (a)音声認識と同時に分割を行うことにより処理の一
元化が計られ、分割位置の記号を含んだ単語グラフを得
られるので、後段の翻訳装置などの言語処理装置に豊富
な情報を与えることができる。 (b)音声認識のための統計的言語モデルの中に分割の
ための情報を含めたので、従来法のような分割のためだ
けのしきい値の決定処理の必要がない。 (c)音声認識のための統計的言語モデルの中に分割の
ための情報を含めたので、互いに異なる言語モデルを用
意する従来例に比較して、維持管理が容易である。
【0095】また、本発明によれば、従来例に比較して
パラメータ数を増大させずに、遷移確率の予測精度及び
信頼性を改善することができる統計的言語モデルを生成
することができるので、音声認識率を大幅に向上させる
ことができ、しかもパラメータ数が増大しないので、使
用メモリ容量を低減させることができる。
【図面の簡単な説明】
【図1】 本発明に係る一実施形態である連続音声認識
装置のブロック図である。
【図2】 図1の連続音声認識装置における単語仮説絞
込部6の処理を示すタイミングチャートである。
【図3】 図1の言語モデル生成部20によって実行さ
れる第1の言語モデル生成処理を示すフローチャートで
ある。
【図4】 図1の言語モデル生成部30によって実行さ
れる第2の言語モデル生成処理を示すフローチャートで
ある。
【図5】 図1の連続音声認識装置において生成された
単語グラフの一例を示す図である。
【符号の説明】
1…マイクロホン、 2…特徴抽出部、 3,5…バッファメモリ、 4…単語照合部、 6…単語仮説絞込部、 11…音素HMMメモリ、 12…単語辞書メモリ、 13…学習用テキストデータメモリ、 20,30…言語モデル生成部、 21,31…統計的言語モデルメモリ、 SW…スイッチ。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 山本 博史 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール音声翻 訳通信研究所内 Fターム(参考) 5D015 AA01 BB01 HH03 HH11

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 所定の話者の発声音声文を書き下した学
    習用テキストデータに基づいて、すべての単語をそれぞ
    れ、処理対象の単語の前に接続される単語の品詞属性に
    基づくtoクラスの品詞クラスに分類する第1の分類手
    段と、 上記学習用テキストデータに基づいて、すべての単語を
    それぞれ、処理対象の単語の後に接続される単語の品詞
    属性に基づくfromクラスの品詞クラスに分類する第
    2の分類手段と、 複数の単語が連続したときに固有の読みが与えられる複
    数の単語の列である所定の結合単語について、toクラ
    スの品詞クラスについて結合単語内の最先の単語の品詞
    クラスにクラス分類する一方、fromクラスの品詞ク
    ラスについて結合単語内の最後の単語の品詞クラスにク
    ラス分類する第3の分類手段と、 上記第1の分類手段と上記第2の分類手段と上記第3の
    分類手段とによってクラス分類された単語データに基づ
    いて、処理対象の単語の前の接続と後ろの接続毎に複数
    の品詞クラスを有する多重クラスN−gramの出現確
    率を計算することにより多重クラスN−gramの統計
    的言語モデルを生成する第1の生成手段とを備え、 上記単語は、発声音声文における発話の切れ目を示す記
    号を含み、上記発話の切れ目を示す記号をtoクラスの
    品詞クラス及びfromクラスの品詞クラスとして分類
    することを特徴とする統計的言語モデル生成装置。
  2. 【請求項2】 請求項1記載の統計的言語モデル生成装
    置において、 上記発話の切れ目を示す記号は、(a)互いに隣接する
    2つの文の間で発話の切れ目を示す句点と、(b)互い
    に隣接する2つの節の間で発話の切れ目を示す読点と、
    (c)互いに隣接し、意味的なまとまりを有する2つの
    部分文の間で発話の切れ目を示す記号と、のうちの少な
    くとも1つを含むことを特徴とする統計的言語モデル生
    成装置。
  3. 【請求項3】 請求項1又は2記載の統計的言語モデル
    生成装置において、 上記第1の生成手段によって生成された多重クラスN−
    gramの統計的言語モデルに基づいて、所定数より出
    現回数が多い単語ペアを結合単語として導入し、当該結
    合単語に対して、toクラスの品詞クラスについては当
    該結合単語内の最先の単語の品詞クラスにクラス分類す
    る一方、fromクラスの品詞クラスについては当該結
    合単語内の最後の単語の品詞クラスにクラス分類する第
    3の分類手段と、 上記第3の分類手段によってクラス分類されて結合単語
    が導入された統計的言語モデルにおいて結合単語を含む
    多重クラス複合N−gramの出現確率を計算すること
    により多重クラス複合N−gramの統計的言語モデル
    を生成する第2の生成手段とをさらに備えたことを特徴
    とする統計的言語モデル生成装置。
  4. 【請求項4】 請求項3記載の統計的言語モデル生成装
    置において、 上記第2の生成手段によって生成された多重クラスN−
    gramの統計的言語モデルにおいて、所定数より出現
    回数が多い単語ペアが存在するときに、上記第2の生成
    手段によって生成された多重クラスN−gramの統計
    的言語モデルに基づいて、所定数より出現回数が多い単
    語ペアを結合単語として導入し、上記第3の分類手段の
    処理と、上記第2の生成手段の処理とを繰り返して実行
    して、上記多重クラスN−gramの統計的言語モデル
    を更新する制御手段をさらに備えたことを特徴とする統
    計的言語モデル生成装置。
  5. 【請求項5】 入力される発声音声文の音声信号に基づ
    いて、所定の統計的言語モデルを用いて音声認識する音
    声認識手段を備えた音声認識装置において、 上記音声認識手段は、請求項1乃至4のうちの1つに記
    載の統計的言語モデル生成装置によって生成された統計
    的言語モデルを用いて音声認識することを特徴とする音
    声認識装置。
JP26363499A 1999-09-17 1999-09-17 統計的言語モデル生成装置及び音声認識装置 Expired - Lifetime JP3364631B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26363499A JP3364631B2 (ja) 1999-09-17 1999-09-17 統計的言語モデル生成装置及び音声認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26363499A JP3364631B2 (ja) 1999-09-17 1999-09-17 統計的言語モデル生成装置及び音声認識装置

Publications (2)

Publication Number Publication Date
JP2001092488A true JP2001092488A (ja) 2001-04-06
JP3364631B2 JP3364631B2 (ja) 2003-01-08

Family

ID=17392233

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26363499A Expired - Lifetime JP3364631B2 (ja) 1999-09-17 1999-09-17 統計的言語モデル生成装置及び音声認識装置

Country Status (1)

Country Link
JP (1) JP3364631B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006171096A (ja) * 2004-12-13 2006-06-29 Ntt Docomo Inc 連続入力音声認識装置および連続入力音声認識方法
JP2007033671A (ja) * 2005-07-25 2007-02-08 Nec Corp 音声認識システム、音声認識方法、および音声認識プログラム
JP2007065029A (ja) * 2005-08-29 2007-03-15 Nippon Hoso Kyokai <Nhk> 構文・意味解析装置、音声認識装置、及び構文・意味解析プログラム
JP2010032919A (ja) * 2008-07-30 2010-02-12 Nippon Hoso Kyokai <Nhk> グラフ統合装置及びそのプログラム
KR101064617B1 (ko) 2009-02-27 2011-09-15 고려대학교 산학협력단 다변량 스트림 데이터 분류 방법 및 장치
CN103035244A (zh) * 2012-11-24 2013-04-10 安徽科大讯飞信息科技股份有限公司 一种可实时反馈用户朗读进度的语音跟踪方法
CN104464757A (zh) * 2014-10-28 2015-03-25 科大讯飞股份有限公司 语音评测方法和语音评测装置
JP2019095603A (ja) * 2017-11-22 2019-06-20 富士通株式会社 情報生成プログラム、単語抽出プログラム、情報処理装置、情報生成方法及び単語抽出方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08248988A (ja) * 1995-03-13 1996-09-27 Nippon Telegr & Teleph Corp <Ntt> 音声認識方法
JPH09509509A (ja) * 1995-03-20 1997-09-22 インターナシヨナル・ビジネス・マシーンズ・コーポレーシヨン 複合語を有する言語における音声認識の方法及びシステム
JP2000356997A (ja) * 1999-06-15 2000-12-26 Atr Interpreting Telecommunications Res Lab 統計的言語モデル生成装置及び音声認識装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08248988A (ja) * 1995-03-13 1996-09-27 Nippon Telegr & Teleph Corp <Ntt> 音声認識方法
JPH09509509A (ja) * 1995-03-20 1997-09-22 インターナシヨナル・ビジネス・マシーンズ・コーポレーシヨン 複合語を有する言語における音声認識の方法及びシステム
JP2000356997A (ja) * 1999-06-15 2000-12-26 Atr Interpreting Telecommunications Res Lab 統計的言語モデル生成装置及び音声認識装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006171096A (ja) * 2004-12-13 2006-06-29 Ntt Docomo Inc 連続入力音声認識装置および連続入力音声認識方法
JP2007033671A (ja) * 2005-07-25 2007-02-08 Nec Corp 音声認識システム、音声認識方法、および音声認識プログラム
JP2007065029A (ja) * 2005-08-29 2007-03-15 Nippon Hoso Kyokai <Nhk> 構文・意味解析装置、音声認識装置、及び構文・意味解析プログラム
JP4653598B2 (ja) * 2005-08-29 2011-03-16 日本放送協会 構文・意味解析装置、音声認識装置、及び構文・意味解析プログラム
JP2010032919A (ja) * 2008-07-30 2010-02-12 Nippon Hoso Kyokai <Nhk> グラフ統合装置及びそのプログラム
KR101064617B1 (ko) 2009-02-27 2011-09-15 고려대학교 산학협력단 다변량 스트림 데이터 분류 방법 및 장치
CN103035244A (zh) * 2012-11-24 2013-04-10 安徽科大讯飞信息科技股份有限公司 一种可实时反馈用户朗读进度的语音跟踪方法
CN104464757A (zh) * 2014-10-28 2015-03-25 科大讯飞股份有限公司 语音评测方法和语音评测装置
JP2019095603A (ja) * 2017-11-22 2019-06-20 富士通株式会社 情報生成プログラム、単語抽出プログラム、情報処理装置、情報生成方法及び単語抽出方法
JP7102710B2 (ja) 2017-11-22 2022-07-20 富士通株式会社 情報生成プログラム、単語抽出プログラム、情報処理装置、情報生成方法及び単語抽出方法

Also Published As

Publication number Publication date
JP3364631B2 (ja) 2003-01-08

Similar Documents

Publication Publication Date Title
JP3004254B2 (ja) 統計的シーケンスモデル生成装置、統計的言語モデル生成装置及び音声認識装置
CN109410914B (zh) 一种赣方言语音和方言点识别方法
US5878390A (en) Speech recognition apparatus equipped with means for removing erroneous candidate of speech recognition
CN111145729B (zh) 语音识别模型训练方法、系统、移动终端及存储介质
JPH11175090A (ja) 話者クラスタリング処理装置及び音声認識装置
JP3364631B2 (ja) 統計的言語モデル生成装置及び音声認識装置
JP2886121B2 (ja) 統計的言語モデル生成装置及び音声認識装置
JP3444108B2 (ja) 音声認識装置
JP3176210B2 (ja) 音声認識方法及び音声認識装置
JP4595415B2 (ja) 音声検索システムおよび方法ならびにプログラム
D'Orta et al. Phoneme classification for real time speech recognition of Italian
JP2886117B2 (ja) 音声認識装置
JP2968792B1 (ja) 統計的言語モデル生成装置及び音声認識装置
JP2871557B2 (ja) 音声認識装置
JP2905674B2 (ja) 不特定話者連続音声認識方法
JP2852210B2 (ja) 不特定話者モデル作成装置及び音声認識装置
JP2938865B1 (ja) 音声認識装置
JP2000356997A (ja) 統計的言語モデル生成装置及び音声認識装置
JP4689497B2 (ja) 音声認識装置
JP2002268677A (ja) 統計的言語モデル生成装置及び音声認識装置
JP3009654B1 (ja) 機械翻訳処理装置
JP2000250583A (ja) 統計的言語モデル生成装置及び音声認識装置
JPH10254480A (ja) 音声認識方法
JPH08123479A (ja) 連続音声認識装置
JP2975540B2 (ja) 自由発話音声認識装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
R150 Certificate of patent or registration of utility model

Ref document number: 3364631

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081101

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091101

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101101

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101101

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111101

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121101

Year of fee payment: 10

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131101

Year of fee payment: 11

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term