JP2001236089A - 統計的言語モデル生成装置、音声認識装置、情報検索処理装置及びかな漢字変換装置 - Google Patents

統計的言語モデル生成装置、音声認識装置、情報検索処理装置及びかな漢字変換装置

Info

Publication number
JP2001236089A
JP2001236089A JP2000378702A JP2000378702A JP2001236089A JP 2001236089 A JP2001236089 A JP 2001236089A JP 2000378702 A JP2000378702 A JP 2000378702A JP 2000378702 A JP2000378702 A JP 2000378702A JP 2001236089 A JP2001236089 A JP 2001236089A
Authority
JP
Japan
Prior art keywords
word
unit
class
language model
subword
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000378702A
Other languages
English (en)
Other versions
JP3415585B2 (ja
Inventor
Koichi Tanigaki
宏一 谷垣
Hiroshi Yamamoto
博史 山本
Yoshinori Kosaka
芳典 匂坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Interpreting Telecommunications Research Laboratories
Original Assignee
ATR Interpreting Telecommunications Research Laboratories
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Interpreting Telecommunications Research Laboratories filed Critical ATR Interpreting Telecommunications Research Laboratories
Priority to JP2000378702A priority Critical patent/JP3415585B2/ja
Publication of JP2001236089A publication Critical patent/JP2001236089A/ja
Application granted granted Critical
Publication of JP3415585B2 publication Critical patent/JP3415585B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Abstract

(57)【要約】 【課題】 単語辞書において未登録の未登録語に関する
音声認識の精度を高くし、未登録語の区間やクラスを同
定する統計的言語モデルを生成する。 【解決手段】 未登録語モデル生成部20は学習データ
におけるモーラ長に対する単語数の割合が実質的にガン
マ分布に従うと仮定したときのモーラ長のガンマ分布の
パラメータをクラスに依存して推定して計算し、モーラ
又はモーラ連鎖であるサブワード単位で、固有名詞又は
外来語の普通名詞の下位クラスであるクラスを有する第
1のN−gramの出現確率を計算して未登録語を含む
単語系列をモデル化したサブワード単位N−gramモ
デルを生成する。言語モデル生成部24は、単語クラス
N−gramモデルとサブワード単位N−gramモデ
ルとモーラ長のガンマ分布のパラメータとに基づいてサ
ブワード単位に基づいた未登録語を含む統計的言語モデ
ルを生成する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、学習データ及び学
習用テキストデータに基づいて統計的言語モデルを生成
する統計的言語モデル生成装置、上記統計的言語モデル
を用いて、入力される発声音声文の音声信号を音声認識
する音声認識装置、上記音声認識装置を用いた情報検索
処理装置及びかな漢字変換装置に関する。
【0002】
【従来の技術】近年、音声認識技術の進展に伴い、音声
認識の大語彙タスクへの適用が盛んに行われている。し
かしながら、大語彙音声認識のパラダイム(特定領域や
時代の支配的な科学的対象把握の方法をいう。)におい
ても、未登録語の問題が完全に解決するわけではない。
特に、人名などの固有名詞に関しては、すべてを網羅す
ることが困難であるといった本質的な問題もある。一方
で、固有名詞にはタスク達成上重要な情報であるものも
多く含まれ、音声認識の実タスク上での運用を考える
際、固有名詞の未登録語処理技術は重要な課題となる。
【0003】従来、連続音声認識装置における音素並び
(読み)を含めた未登録語の検出方式としては、以下の
方法が提案されている。 (1)音素タイプライタ等のサブワードデコーダを併用
する方法(以下、第1の従来例の方法という。)、及び
(2)サブワードを擬似的な単語として言語モデルに組
み込む方法(以下、第2の従来例の方法という。)。
【0004】
【発明が解決しようとする課題】しかしながら、第1の
従来例の方法は、別のデコーダを駆動する必要があるた
め、処理量の観点で望ましくない。また、推定未知語区
間の音響スコアには最尤音素系列のスコアが使われるた
め、語彙内単語系列仮説との統合には、ペナルティやし
きい値などのヒューリスティックス(発見的方法)が絡
む。
【0005】一方、第2の従来例の方法は、デコーダの
変更なしに実現できる利点がある。しかしながら、サブ
ワード系列として得られる未登録語に対し有効な言語処
理を行うためには、後処理として、認識語彙よりも大き
な語彙による形態素解析などを要する。また、単語とサ
ブワード、あるいは、サブワード間のN−gram確率
で、言語的特質を十分反映するモデル化ができるとは考
えにくく、認識制約としての有効性に疑問が残る。
【0006】また、電話機における音声認識及び自動ダ
イヤリング機能や、カーナビゲーションなどの小規模の
情報検索装置において、辞書登録の数が限定されるた
め、対象となる固有名詞の数が限定される。このような
場合において、対象の固有名詞が声認識装置とは別のシ
ステムで管理されるとき、音声認識装置への登録はでき
ず、音声認識率を向上させることができない。
【0007】本発明の目的は以上の問題点を解決し、単
語辞書において未登録の未登録語に関する音声認識の精
度を従来例に比較して高くすることができ、未登録語の
区間やクラスを同定する統計的言語モデルを生成するこ
とができる統計的言語モデル生成装置及び、統計的言語
モデル生成装置を用いた音声認識装置を提供することに
ある。
【0008】また、本発明の別の目的は、電話機におけ
る音声認識及び自動ダイヤリング機能や、カーナビゲー
ションなどの小規模の情報検索処理装置において、単語
辞書において未登録の未登録語に関する音声認識の精度
を従来例に比較して高くすることができる音声認識装置
を用いて情報検索を実行することができる情報検索処理
装置を提供することにある。
【0009】さらに、本発明のさらなる目的は、上記統
計的言語モデルを利用して、かな漢字変換率を従来技術
に比較して向上できるかな漢字変換装置を提供すること
にある。
【0010】
【課題を解決するための手段】本発明に係る請求項1記
載の統計的言語モデル生成装置は、クラス別に分類され
た単語リストを含む学習データメモリと、その学習デー
タに基づいて単語の読みに対応するサブワード系列の生
起確率をクラスに依存して抽出する手段と、その抽出さ
れた単語の読みに対応するサブワード系列の生起確率を
クラスに依存して評価する手段と、単語とクラスの並び
の生起確率を評価する手段と、上記クラスに依存して評
価されたサブワード系列の生起確率と上記評価された単
語とクラスの並びの生起確率とによって未登録語を含む
単語系列の生起確率をサブワードと単語の系列の生起確
率として評価する手段と、を備えたことを特徴とする。
【0011】また、請求項2記載の統計的言語モデル生
成装置は、請求項1記載の統計的言語モデル生成装置に
おいて、上記サブワード系列の生起確率は、長さに関す
る確率と並びに関する確率とを含むことを特徴とする。
【0012】さらに、請求項3記載の統計的言語モデル
生成装置は、請求項1又は2記載の統計的言語モデル生
成装置において、上記サブワードとしては、クラスに依
存して抽出する単位を用いることを特徴とする。
【0013】本発明に係る請求項4記載の音声認識装置
は、入力される発声音声文の音声信号に基づいて、所定
の統計的言語モデルを用いて音声認識する音声認識手段
を備えた音声認識装置において、上記音声認識手段は、
請求項1、2又は3記載の統計的言語モデル生成装置に
よって生成された統計的言語モデルを用いて音声認識す
ることを特徴とする。
【0014】本発明に係る請求項5記載の統計的言語モ
デル生成装置は、固有名詞又は外来語の普通名詞の単語
リストを含む学習データを格納する学習データ記憶手段
と、上記学習データ記憶手段に格納された学習データに
基づいて、上記学習データにおけるモーラ長に対する単
語数の割合が実質的にガンマ分布に従うと仮定したとき
のモーラ長のガンマ分布のパラメータをクラスに依存し
て推定して計算するとともに、モーラ又はモーラ連鎖で
あるサブワード単位で、上記固有名詞又は外来語の普通
名詞の下位クラスであるクラスを有する第1のN−gr
amの出現確率を計算することにより未登録語をモデル
化したサブワード単位N−gramモデルを生成する第
1の生成手段と、所定のテキストデータベースに基づい
て生成された単語クラスN−gramモデルと、上記第
1の生成手段によって生成されたサブワード単位N−g
ramモデルと、上記第1の生成手段によって計算され
たモーラ長のガンマ分布のパラメータとに基づいて、上
記単語クラスと、上記固有名詞又は外来語の普通名詞の
下位クラスであるクラスとに依存した第2のN−gra
mの出現確率を計算することによりサブワード単位に基
づいた未登録語を含む統計的言語モデルを生成する第2
の生成手段とを備えたことを特徴とする。
【0015】また、請求項6記載の統計的言語モデル生
成装置は、請求項5記載の統計的言語モデル生成装置に
おいて、上記第1の生成手段によって生成されたサブワ
ード単位N−gramモデルに基づいて、上記サブワー
ド単位を抽出し、抽出したラベルを上記サブワード単位
に付与することにより、サブワード単位当たり複数のラ
ベル付きサブワード単位のデータを生成する第3の生成
手段と、上記テキストデータベースから抽出された単語
と、上記第3の生成手段によって生成された複数のラベ
ル付きサブワード単位のデータとに対して音素並びを付
与することにより単語辞書を生成する第4の生成手段と
をさらに備えたことを特徴とする。
【0016】またさらに、本発明に係る請求項7記載の
音声認識装置は、入力される発声音声文の音声信号に基
づいて、所定の統計的言語モデルを用いて音声認識する
音声認識手段を備えた音声認識装置において、上記音声
認識手段は、請求項5又は6記載の統計的言語モデル生
成装置によって生成された統計的言語モデルと、請求項
6記載の第4の生成手段によって生成された単語辞書と
を用いて音声認識することを特徴とする。
【0017】また、本発明に係る請求項8記載の情報検
索処理装置は、上記単語リストに対応する普通名詞の単
語データとそれに対応する情報とを含むデータベースを
記憶するデータベース記憶手段と、請求項4又は7記載
の音声認識装置から出力される音声認識結果の文字列を
キーとして用いて、上記データベース記憶手段に記憶さ
れたデータベースから検索して、一致する単語データに
対応する情報を上記データベース記憶手段から読み出し
て出力する検索手段とを備えたことを特徴とする。
【0018】さらに、請求項9記載の情報検索処理装置
は、請求項8記載の情報検索処理装置において、さら
に、上記検索手段から出力される情報に基づいて、所定
の処理を実行する処理実行手段を備えたことを特徴とす
る。
【0019】またさらに、本発明に係る請求項10記載
のかな漢字変換装置は、かな文字列を入力する入力手段
と、漢字表記の複数の単語データを含む単語辞書を記憶
する辞書記憶手段と、上記辞書記憶手段に記憶された単
語辞書を参照して、上記入力手段によって入力されたか
な文字列と、上記単語辞書内の単語との間の単語照合を
行い、一致したときに漢字表記の単語に変換して単語仮
説の文字列として出力する一方、一致しないときにかな
文字のまま単語仮説の文字列として出力する単語照合手
段と、上記単語照合手段から出力される単語仮説の文字
列に対して、請求項1乃至3、5及び6のうちのいずれ
か1つに記載の統計的言語モデル生成装置によって生成
された統計的言語モデルを参照して尤度を演算して、演
算された尤度に基づいて上記単語仮説の文字列の絞り込
みを行った後、絞り込み後の単語仮説の文字列をかな漢
字変換後の文字列として出力する絞込手段とを備えたこ
とを特徴とする。
【0020】
【発明の実施の形態】以下、図面を参照して本発明に係
る実施形態について説明する。
【0021】<第1の実施形態>図1は、本発明に係る
第1の実施形態である連続音声認識システムのブロック
図である。本発明に係る第1の実施形態の連続音声認識
システムは、未登録語モデル生成部20と、サブワード
単位データ生成部21と、単語辞書生成部22と、単語
クラスN−gramモデル生成部23と、言語モデル生
成部24とを備えた統計的言語モデル生成装置を備えた
ことを特徴としている。
【0022】本実施形態では、未登録語を含む音声の高
精度な認識を可能とする、新しい統計的言語モデルを生
成する統計的言語モデル生成装置を開示する。本実施形
態の統計的言語モデルは、(1)学習データメモリ30
内の学習データに基づいて未登録語モデル生成部20に
よって生成された、未登録語認識用の複数の未登録語モ
デルである、サブワード単位N−gramモデル及びモ
ーラ長ガンマ分布データと、(2)テキストデータメモ
リ31内のテキストデータに基づいて単語クラスN−g
ramモデル生成部23によって生成された単語クラス
N−gramモデルと、に基づいて言語モデル生成部2
4によって統計的言語モデルが生成される。
【0023】これらの未登録語モデルは、各語彙クラス
に依存して構築される。ここで、サブワードとは、単語
よりも小さい単位をいい、具体的にはモーラ又はモーラ
連鎖をいう。モーラとは、韻律論において、強勢や抑揚
などの単位となる音の相対的な長さをいい、1モーラは
短母音を含む1音節の長さに相当する。日本語では、ほ
ぼ「かな」1字(拗音では2字)がこれに相当する。以
下では、固有名詞の下位クラスである、日本人姓及び名
の未登録語に対象を限定して説明する。
【0024】本発明者は、(1)表1に示すように約3
0万の日本人の姓のモーラ並び(読み)のデータを含む
日本人姓ファイル30aと、(2)表2に示すように約
30万の日本人の名のモーラ並び(読み)のデータを含
む日本人名ファイル30bとを含む学習データを学習デ
ータメモリ30に格納した。
【0025】
【表1】 ―――――――――――― ス,ズ,キ タ,カ,ハ,シ サ,イ,ト,オ タ,ナ,カ ヒ,ラ,ツ,ジ ア,サ,ギ,ノ …… ――――――――――――
【0026】
【表2】 ――――――――――――――――――――――――――――――――――― ヨ,オ,コ ト,モ,エ ト,モ,コ ケ,イ,コ …… ―――――――――――――――――――――――――――――――――――
【0027】上記学習データに基づく、本発明者による
日本人姓及び名データの分析及び分析結果について説明
する。日本人の姓や名をサブワードの系列として眺める
とき、次の特徴を有することが容易に予想される。 (1)長さに関する特徴:姓ではスズキ、サトウ、タカ
ハシなど、名ではヒロシ、アキラ、イチロウなど、3な
いし4モーラ長の名前が一般的である。 (2)音素並びに関する特徴:日本人の姓及び名は、基
本的に漢字で構成されており、姓ではヤマ、ムラ、ナカ
など、名ではロウ、イチ、ヒロなど、高頻度の単位が存
在する。
【0028】本発明者は、こうした観点から、日本人姓
及び名の読みに関する統計的特徴を分析した。人名デー
タとしては約30万人の著名人の名前を集録した公知の
人名リストを用いた。この学習データから、漢字と平仮
名のみで構成される姓及び名を日本人名として抽出し、
得られた姓303,552人分、名295,148人分
を対象に分析を行い、その結果を表3に示す。併せて比
較のため、日本人姓及び名以外の単語の特徴を分析す
る。比較する学習データとしては、本特許出願人が所有
する自然発話旅行会話データベースより、日本人姓及び
名を除いた、のべ1,155,183単語を用いた。
【0029】
【表3】 モデルの学習データ ――――――――――――――――――――――――――――――――――― 日本人名 姓 名 旅行会話 ――――――――――――――――――――――――――――――――――― 単語総数 303,552 295,148 1,161,576 異なり語彙 19,018 20,413 13,453 ――――――――――――――――――――――――――――――――――― (注)日本人名の異なり語彙は、音素並び又は読みの異なり単語で評価し、漢字 表記の違いは無視した
【0030】本発明者が分析した単語の長さに関する統
計を図6に示す。長さの単位としては、モーラ数を用い
た。この結果から、日本人姓及び名の長さが3、4モー
ラを中心に非常に偏った分布を持つことが確認できる。
3、4モーラを合わせると、姓及び名ともにほぼ9割の
人名が該当することになる。次に、モーラの並びに関す
る統計を表4に示す。モーラ並びの偏りの指標として、
頻度上位N種類のモーラ二連鎖による、モーラ並びの被
覆率を調べた。ここで、被覆率とは、すべてのモーラの
中での二連鎖の占める割合をいう。
【0031】
【表4】 モーラ並びの偏り ――――――――――――――――――――――――――――――――――― 二連鎖モーラの種類 モーラ並びの被覆率(%) (頻度上位N種類) 日本人名 姓 名 旅行会話 ――――――――――――――――――――――――――――――――――― 1 3.8 4.9 0.1 10 23.3 28.3 5.1 100 59.8 66.6 19.4 1000 84.3 82.4 35.6 ――――――――――――――――――――――――――――――――――― (注)頻度上位N種類の二連鎖モーラによる。モーラ並びの被覆率(%)。奇数 長の単語があるため、被覆率が100%になることはない。
【0032】例えば、日本人姓及び名では、それぞれの
高頻度1000種類のモーラ二連鎖だけで、姓及び名に
おけるモーラ並びの8割以上が被覆される。
【0033】次いで、日本人姓及び名の未登録語モデル
に基づく統計的言語モデルの生成方法について詳述す
る。上述で得られた知見に基づき、日本人姓及び名クラ
スの未登録語モデルに基づく統計的言語モデルを構築す
る。また、デコーディングの観点から、統計的言語モデ
ルは、近年広く用いられているN−gram形式で取り
扱えることが望ましく、本実施形態では、本未登録語モ
デルを単語N−gram形式で実装する。
【0034】まず、未登録語を含む単語系列のモデル化
について説明する。本実施形態に係る統計的言語モデル
のベースとなるのは、単語のクラスN−gramモデル
である。この単語クラスN−gramモデルは、単語ク
ラスN−gramモデル生成部23により、テキストデ
ータベースメモリ31に格納された多数の日本語の書き
下し文からなるコーパスと呼ばれるテキストデータに基
づいて、例えば公知の最尤推定法を用いて単語のクラス
タリングを行って単語クラスN−gramモデルを生成
し、このモデルを単語クラスN−gramモデルメモリ
43に格納する。
【0035】単語クラスN−gramモデルでは、単語
系列W=w1,w2,w3,w4,…,wTの言語的尤度p
h(W)が一般に次式で与えられる。ただし、wtは単
語系列Wのt番目の単語であり、cwtは単語wtの語彙
クラスを表わすものとする。
【0036】
【数1】
【0037】ところで、単語wt(以下、1つの単語を
wで表す。)には認識語彙にない未登録語が含まれてい
る。これら未登録語の生起確率を音素並び(又は読み)
の統計的特徴に基づいて推定するとき、上記数1中のク
ラス内単語1−gram確率p(w|cw)は次式によ
り与えられる。ただし、Mwは単語wのモーラ系列を表
す。
【0038】
【数2】(1)もしw∈単語辞書のとき p(w|cw)≡(1−p(OOV|cw))・p(w|
w,inVoc), (2)もし上記以外のとき p(w|cw)≡p(OOV|cw)・p(Mw|cw,O
OV)
【0039】ここで、単語辞書は、単語辞書メモリ12
に格納される語彙辞書であり、OOVは未登録語であ
り、inVocは単語辞書内の条件を表す。上記数2に
おいて、確率p(OOV|cw)は、クラスから未登録
語が生起する確率であり、例えば公知の方法(例えば、
従来技術文献「政瀧ほか,“品詞及び可変長形態素列の
複合N−gramを用いた形態素解析”,言語処理学会
会誌「自然言語処理」,Vol.6,No.2,pp.
41−57,1999年」など参照。)で推定できる。
この推定方法について説明すると、公知のチューリング
(Turing)推定法を用いたとき、データ上にr回
出現する形態素は、次式のr*回と推定される。
【0040】
【数3】r*={(r+1)nr+1}/nr
【0041】ここで、nrはデータ上にr回出現した形
態素の種類数を表す。従って、r回出現する形態素wの
品詞からの出現確率P(w|cξ)は、次式で表され
る。
【0042】
【数4】P(w|cξ)=r*/N(cξ
【0043】上記出現確率P(w|cξ)を、クラスc
ξに属する全ての形態素について計算し、次式に示すよ
うに、1から引いた残りが品詞cξから未知語出現する
確率P(ch ξ)である。
【0044】
【数5】
【0045】本実施形態では、限られた評価セット上で
未登録語モデルの有効な評価を行うことに主眼を置き、
次式を用いてモデル化を行う。すなわち、未登録語の生
起は予め規定したいくつかのクラス(ここで、クラスの
集合をCOOVという。)のみに許すこととし、これらク
ラスからの単語生起は全て未登録語モデルで説明するこ
ととし、登録語を作らない。
【0046】
【数6】
【数7】
【0047】次いで、日本人姓及び名の未登録語モデル
について説明する。上述したように、日本人姓及び名の
読みには、モーラ長、及びモーラ並び、それぞれに関し
て特徴的な傾向が見られた。従って、上記数7の未登録
語モデルp(Mw|cw)は、次式のように展開すること
により、高精度なモデル化が可能となる。ただし、le
n(Mw)は単語wのモーラ長を表す。
【0048】
【数8】p(Mw|cw)=p(len(Mw)|cw)・
p(Mw|cw,len(Mw))
【0049】上記数8の確率p(len(M)|c)
は、日本人姓又は名クラスにおいて、長さlen(M)
の単語が生起する確率である。本実施形態では、その確
率分布が次式で与えられるガンマ分布に実質的に従うこ
とを仮定する。すなわち、上記数8の右辺は、第1項の
モーラ長のガンマ分布の確率と、第2項のサブワード単
位バイグラムの確率との掛け算になっている。ただし、
α,λはクラスcに依存するパラメータであり、モーラ
長の平均と分散より定まる。
【0050】
【数9】 ここで、
【数10】
【0051】一方、上記数8の確率p(Mw|cw,le
n(Mw))は、クラスcwにおいて長さlen(Mw
のモーラ並びがMw=m1 w,m2 w,…となる確率であ
り、次式のサブワード単位N−gramによりモデル化
する。ただし、U=u1,u2,…は詳細後述する手法で
自動獲得したサブワード単位(モーラ又はモーラ連鎖)
の系列である。また、式中のサブワード単位N−gra
mには終端記号への遷移を含まない。
【0052】
【数11】
【0053】以上述べてきた本実施形態に係る統計的言
語モデルにおいて、「...あさぎ野 陽子 と
...」が出力される例を図7に示す。例では、日本
人姓及び名クラスの単語「あさぎ野」、「陽子」に対し
て、クラスラベル付きモーラ系列「アサギノ(日
姓)」、「ヨオコ(日名)」が出力される。本モデルで
は、日本人姓及び名の生起に対して、次の3レベルから
言語的制約をかける。
【0054】<3レベルの言語的制約> (1)単語間制約:単語のクラスN−gramを用い、
単語コンテキストにおいて日本人姓及び名(クラス)が
生起する尤度を評価する。サブワードによる姓及び名の
モデル化は下位の階層に隠蔽されるため、登録語系列の
モデル化には悪影響を及ぼさない。 (2)姓及び名区間の継続長制約:姓及び名それぞれの
モーラ長に関するガンマ分布を用い、区間の姓及び名ら
しさを評価する。この制約により、不当に短い、もしく
は長いモーラ系列の湧き出しを防ぐことができる。 (3)サブワードの並び制約:モーラとモーラ連鎖を単
位とする姓及び名のサブワード単位N−gramを用い
る。モーラ連鎖を単位とすることで、N−gramの高
精度化が期待できる。ここで、モデル化単位とするモー
ラ連鎖は、後述する繰り返し学習において自動的に獲得
する。
【0055】次いで、未登録語モデル生成部20によっ
て実行される未登録語モデルの学習生成処理について説
明する。未登録語モデル生成部20は、学習データメモ
リ30に格納された日本人姓ファイル30a及び日本人
名ファイル30bに基づいて、日本人の姓クラス(ラベ
ルでは、日姓と略記する。)及び日本人の名クラス(ラ
ベルでは、日名と略記する。)の未登録語モデルを構築
する。この学習生成処理では、具体的には、サブワード
単位N−gramモデルとモーラ長ガンマ分布のデータ
を生成する。以下の実施形態では、個人名はそれぞれ等
しい確率で出現するとし、各姓又は各名の観測頻度とし
て人名リスト中の同姓者又は同名者の人数を用いること
とする。サブワード単位N−gramには、初期単位セ
ットとして単一モーラのみを与え、後述の繰り返し学習
において、逐次的に新たなモーラ連鎖を単位セットに追
加していく。これら単位候補となるモーラ連鎖には頻度
による予備選択を施すことで、学習の効率化を図った。
【0056】図3は、図1の未登録語モデル生成部20
によって実行される未登録語モデル生成処理を示すフロ
ーチャートであり、図4は、図3のサブルーチンである
サブワード2−gramの単位決定処理(ステップS
4)を示すフローチャートである。
【0057】未登録語モデルの学習データとして、モー
ラ系列で表現された姓及び名のリストを用い、このリス
トデータはそれぞれ学習データメモリ30内の日本人姓
ファイル30a及び日本人名ファイル30bに格納され
ている。この学習データは先の表1及び表2の通りであ
って、各モーラをカンマ「,」で区切って表記してあ
る。この学習データに基づいて、未登録語モデル、すな
わち、モーラ長のガンマ分布とサブワード単位N−gr
amモデルを生成する。以下では、N−gramの次数
Nが2の場合について、未登録語モデルの生成手順を説
明する。
【0058】図3のステップS1において学習データメ
モリ30から学習データを読み出し、ステップS2にお
いて、読み出した学習データに基づいて、姓又は名の1
単語当たりのモーラ数の平均μと分散Vを計算した後、
次式を用いてモーラ長のガンマ分布のパラメータを推定
する。
【0059】
【数12】λ=V/μ
【数13】α=μ2/V
【0060】さらに、ステップS3において上記学習デ
ータに基づいて、サブワード単位2−gramの単位候
補となる、高頻度のモーラ連鎖を抽出し、抽出した単位
候補を「単位候補セット」と呼ぶ。ここでは、学習デー
タ上に出現する、例えば長さ2以上の全てのモーラ連鎖
に対して、その頻度を調べ、頻度が所定の値(=10
0)以上のモーラ連鎖を単位候補として抽出する。次い
で、ステップS4において、図4に示すサブルーチンで
あるサブワード2−gramの単位決定処理を実行し、
最後に、ステップS5において、学習終了後の暫定未登
録語モデルをサブワード単位N−gramモデルとして
サブワード単位モデルN−gramモデルメモリ40に
格納するとともに、モーラ長のガンマ分布のデータをモ
ーラ長ガンマ分布データメモリ41に格納する。
【0061】図4のサブワード2−gramの単位決定
処理においては、まず、ステップS11において確定単
位セットにすべての単一のモーラを挿入し、ステップS
12において単位候補セットの中から1つのモーラ連鎖
を選択する。次いで、ステップS13において選択した
モーラ連鎖は確定単位セットに含まれているか否かを判
断し、YESのときはステップS15に進む一方、NO
のときは、ステップS14に進む。ステップS14にお
いて選択したモーラ連鎖を確定単位セットに追加して、
公知の最尤推定法を用いて暫定サブワード2−gram
モデルを生成してステップS15に進む。ここで、2−
gramモデルは、学習データと追加セットとの間の1
−gramと、追加セットのみの0−gramを用い
て、公知の削除補間法(例えば、従来技術文献「中川聖
一,”確率モデルによる音声認識”,社団法人電子情報
通信学会編,pp.63−64,昭和63年7月1日発
行」など参照。)を用いて補間して生成する。この暫定
サブワード2−gramと、モーラ長のガンマ分布デー
タを合わせて「暫定未登録語モデル」と呼ぶ。ステプS
15においては、すべてのモーラ連鎖について上記ステ
ップS13及びS14の処理したか否かを判断し、NO
であるときはステップS12に戻り上記の処理を繰り返
すが、YESのときはステップS16に進む。ステップ
S16において各暫定未登録語モデルに対して数8を用
いて平均尤度を計算し、平均尤度を最大にする暫定未登
録語モデルの単位セットを新しい確定単位セットとす
る。そして、ステップS17において確定単位セットに
含まれるモーラ連鎖の数≧所定のしきい値Nth(例え
ば、150である。)であるか否かが判断され、NOの
ときはステップS12に戻り上記の処理を繰り返す一
方、YESのときは元のメインルーチンに戻る。
【0062】図9は、図1の未登録語モデル生成部20
によって実行される未登録語モデル生成処理における、
モーラ連鎖の単位化による平均尤度の向上を示すグラフ
であって、モーラ連鎖の種類の数に対する平均尤度を示
すグラフである。すなわち、図9は繰り返し学習におけ
る平均尤度(数8)の変化を示す。単位候補とするモー
ラ連鎖は、頻度が100以上のものとした。表1乃至表
3に示す学習データからは、姓モデルで1,829種
類、名モデルで1,660種類のモーラ連鎖が単位候補
となる。サブワード単位N−gramはN=2とし、1
−gram、0−gramを用いた公知の削除補間法で
補間した。図9に示すように、モーラ連鎖をサブワード
単位として追加していくことで、学習データに対する平
均尤度は単調に上昇する。モーラ連鎖を150個追加し
たモデルの平均尤度は、モーラ連鎖を用いないモデルに
比べ、姓モデルで3.9倍、名モデルで3.2倍となっ
た。未登録語モデルを単語1−gramとみなすと、単
語の学習セットパープレキシティは姓モデルで74%、
名モデルで69%改善されることになる。
【0063】次いで、未登録語モデルを単語N−gra
m形式による単語辞書に実装する方法について説明す
る。上述の未登録語モデルは、以下に述べる方法によ
り、近似なく、クラスN−gramの形式で扱うことが
できる。そのため、統計的言語モデルとしてクラスN−
gramを扱うことが可能なデコーダであれば、デコー
ダの変更無しに、本方法による未登録語の認識が可能と
なる。ただし、極端に長い未登録語(本実施形態では、
10モーラ以上の姓及び名)が認識対象とならないこと
が条件となる。サブワード単位N−gramで単位とし
て用いるモーラ及びモーラ連鎖は、擬似的な単語として
扱い、認識辞書、及びクラスN−gramに組み込む。
その際、各サブワード単位は以下のラベル付けによる展
開を行い、ラベル違いの同一サブワード単位を複数生成
する。
【0064】すなわち、ラベル付きサブワード単位デー
タ生成部20は、サブワード単位N−gramメモリ4
2に格納された、日本人姓及び名のサブワード単位N−
gramそれぞれに対して以下の処理を実行し、この結
果得られるラベル付きサブワード単位群のデータをラベ
ル付きサブワード単位データメモリ40に格納する。す
なわち、日本人姓(もしくは日本人名)サブワード単位
N−gramで単位として用いられるサブワード単位
(単一モーラ、モーラ連鎖)を全て抽出する。次いで、
抽出したそれぞれのサブワード単位に応じて、ラベルを
複数生成する。生成した各ラベルを当該サブワード単位
に付与することにより、サブワード単位あたり複数のラ
ベル付きサブワード単位が生成される。ここでラベルと
は、(a)クラス(本実施形態においては、「日姓」又
は「日名」)、(b)単語内の開始位置(1,2,…,
LenMax+1;サブワード単位のモーラ数:ここ
で、LenMaxは事前に設定された値であり、認識対
象とする最長の姓もしくは名のモーラ数を意味す
る。)、及び(c)単語の終端であるか否か(終端を示
す「終」又は「−」)の3項組みである。
【0065】上記(b)の開始モーラ位置による展開
は、学習データに出現する最長の姓及び名に合わせ、と
もに終端位置が9モーラまでとなるようにした。上記
(c)で単語終端ラベルを付与したサブワード単位に
は、音素並び(読み)の終端にポーズが入ることを許容
する。ここで、ラベル付きサブワードは、その遷移に次
の制約を受ける。(i)登録語のクラスからラベル付き
サブワードへの遷移は、ラベル付きサブワードの開始モ
ーラ位置が1の場合のみ許される。逆に、(ii)ラベル
付きサブワードから登録語のクラスへの遷移は、ラベル
付きサブワードに単語終端ラベルが付与されている場合
のみ許される。(iii)ラベル付きサブワード間の遷移
は、単語内でのモーラ位置が連接し、かつ同一のクラス
に属する場合のみ許される。
【0066】さらに、単語辞書生成部22は、ラベル付
きサブワード単位データメモリ42内のデータと、テキ
ストデータメモリ31内のテキストデータとに基づいて
以下のように単語辞書を生成して単語辞書メモリ12に
格納する。まず、単語辞書生成部22は、テキストデー
タベースメモリ31内のテキストデータ中に出現する全
ての単語を抽出し、単語辞書メモリ12に格納する。次
いで、ラベル付きサブワード単位データメモリ42中の
全てのラベル付きサブワード単位を単語辞書メモリ12
に格納する。単語辞書メモリ12に格納された全てのエ
ントリに対して、人手で、もしくは、読みと音素系列と
の対応テーブルを用いて音素付与を行う公知の音素付与
処理プログラムを用いて、その読み(音素系列)を付与
することにより単語辞書を生成する。これによって、単
語辞書メモリ12に単語辞書が生成格納される。
【0067】次いで、言語モデル生成部24の統計的言
語モデル生成処理について説明する。ラベル付きサブワ
ード単位udを単語として扱う際、クラスN−gram
(N=2)における確率は、以下のように与える(N>
2でも同様)。ただし、uはラベル付け前のサブワード
単位を表し、#は単語内のモーラ開始位置記号を表し、
cは語彙クラスを表し、len(u)はサブワード単位
uのモーラ長、psw(uj|ui,c)はクラスに依存し
たサブワード単位2−gramであり、pLM(c’|
c)はクラス2−gramのクラス間遷移確率を表す。
また、classof(ud),startof
(ud),isend(ud)はそれぞれ、ラベル付きサ
ブワード単位udのラベルである語彙クラス、単語内の
モーラ開始位置、単語終端か否か、を参照する関数であ
り、endof(ud)はstartof(ud)+le
n(u)により与えるものとする。Gc(*)はクラス
のモーラ長ガンマ分布gc(x)(数9)に基づく確率
関数であり、次の定積分により与えられる。
【0068】
【数14】
【数15】
【0069】まず、先頭サブワードの生起確率である姓
及び名クラスのクラス内1−gram確率p(ud
c)は、ラベル付きサブワード単位udの開始モーラ位
置ラベルが1である場合のみ許す。従って、次式で表す
ことができる。
【0070】
【数16】(1)もし(classof(ud)=c)
∧(startof(ud)=1) ∧(isend(ud)=偽)のとき p(ud|c)=psw(u|#、c)・Gc(x>len
(u)) (2)もし(classof(ud)=c)∧(sta
rtof(ud)=1) ∧(isend(ud)=真)のとき p(ud|c)=psw(u|#、c)・Gc(x=len
(u)) (3)もし上記以外のとき p(ud|c)=0
【0071】次いで、第1のクラス間2−gram確率
である、ラベル付きサブワード単位間の遷移は、両者の
クラスが同じで、かつ、両者の単語内でのモーラ位置が
連接する場合のみ許す。従って、第1のクラス間2−g
ram確率p(udj|udi)は次式で表すことができ
る。
【0072】
【数17】(1)もし(classof(udj)=cl
assof(udi)=c) ∧(startof(udj)=endof(udi)+
1) ∧(isend(udj)=偽)のとき p(udj|udi)=psw(uj|ui,c)・Gc(x>
(endof(udi)+len(udj)))/Gc(x
>endof(udi)) (2)もし(classof(udj)=classof
(udi)=c) ∧(startof(udj)=endof(udi)+
1) ∧(isend(udj)=真)のとき p(udj|udi)=psw(uj|ui,c)・Gc(x=
(endof(udi)+len(udj)))/Gc(x
>endof(udi)) (3)もし上記以外のとき p(udj|udi)=0
【0073】さらに、第2のクラス間2−gram確率
である、ラベル付きサブワード単位から、次単語のクラ
スへの遷移は、ラベル付きサブワード単位に単語終端ラ
ベルが付与されている場合のみに許す。従って、第2の
クラス間2−gram確率p(c|ud)は次式で表さ
れる。
【0074】
【数18】(1)もしisend(ud)=真のとき p(c|ud)=pLM(c|classof(ud)) (2)もし上記以外のとき p(c|ud)=0
【0075】図5は、図1の言語モデル生成部24によ
って実行される言語モデル生成処理を示すフローチャー
トである。図5において、まず、S21において各メモ
リ40、41、42からそれぞれ格納された各データを
読み出し、ステップS22においてモーラ長のガンマ分
布のデータに基づいて、数14及び数15を用いて確率
関数の値を計算する。次いで、ステップS23において
先頭サブワードの生起確率であるクラス内−gram確
率を数16を用いて計算し、ステップS24においてサ
ブワード間の遷移確率である第1のクラス間2−gra
m確率を数17を用いて計算し、ステップS25におい
て終端サブワードから次単語のクラスに遷移する確率で
ある第2のクラス間2−gram確率を数17を用いて
計算する。そして、ステップS26において上記計算さ
れた確率をまとめて、未登録語モデルに基づいて統計的
言語モデルとして統計的言語モデルメモリ44に格納す
る。
【0076】上記の言語モデル生成処理で生成された統
計的言語モデルの別の一例を図8に示す。図8の例にお
ける遷移確率は上述で定義されたものである。
【0077】次いで、図1に示す連続音声認識システム
の構成及び動作について説明する。図1において、単語
照合部4に接続された音素隠れマルコフモデル(以下、
隠れマルコフモデルをHMMという。)メモリ11内の
音素HMMは、各状態を含んで表され、各状態はそれぞ
れ以下の情報を有する。 (a)状態番号、(b)受理可能なコンテキストクラ
ス、(c)先行状態、及び後続状態のリスト、(d)出
力確率密度分布のパラメータ、及び(e)自己遷移確率
及び後続状態への遷移確率。なお、本実施形態において
用いる音素HMMは、各分布がどの話者に由来するかを
特定する必要があるため、所定の話者混合HMMを変換
して生成する。ここで、出力確率密度関数は34次元の
対角共分散行列をもつ混合ガウス分布である。また、単
語照合部4に接続された単語辞書メモリ12内の単語辞
書は、音素HMMメモリ11内の音素HMMの各単語毎
にシンボルで表した読みを示すシンボル列を格納する。
【0078】図1において、話者の発声音声はマイクロ
ホン1に入力されて音声信号に変換された後、特徴抽出
部2に入力される。特徴抽出部2は、入力された音声信
号をA/D変換した後、例えばLPC分析を実行し、対
数パワー、16次ケプストラム係数、Δ対数パワー及び
16次Δケプストラム係数を含む34次元の特徴パラメ
ータを抽出する。抽出された特徴パラメータの時系列は
バッファメモリ3を介して単語照合部4に入力される。
【0079】単語照合部4は、ワン−パス・ビタビ復号
化法を用いて、バッファメモリ3を介して入力される特
徴パラメータのデータに基づいて、音素HMMメモリ1
1内の音素HMMと、単語辞書メモリ12内の単語辞書
とを用いて単語仮説を検出し尤度を計算して出力する。
ここで、単語照合部4は、各時刻の各HMMの状態毎
に、単語内の尤度と発声開始からの尤度を計算する。尤
度は、単語の識別番号、単語の開始時刻、先行単語の違
い毎に個別にもつ。また、計算処理量の削減のために、
音素HMM及び単語辞書とに基づいて計算される総尤度
のうちの低い尤度のグリッド仮説を削減する。単語照合
部4は、その結果の単語仮説と尤度の情報を発声開始時
刻からの時間情報(具体的には、例えばフレーム番号)
とともにバッファメモリ5を介して単語仮説絞込部6に
出力する。
【0080】単語仮説絞込部6は、単語照合部4からバ
ッファメモリ5を介して出力される単語仮説に基づい
て、統計的言語モデルメモリ44内の統計的言語モデル
を参照して、終了時刻が等しく開始時刻が異なる同一の
単語の単語仮説に対して、当該単語の先頭音素環境毎
に、発声開始時刻から当該単語の終了時刻に至る計算さ
れた総尤度のうちの最も高い尤度を有する1つの単語仮
説で代表させるように単語仮説の絞り込みを行った後、
絞り込み後のすべての単語仮説の単語列のうち、最大の
総尤度を有する仮説の単語列を認識結果として出力す
る。なお、タスク適応化された統計的言語モデルは、各
タスク毎に1つの統計的言語モデルを備え、単語仮説絞
込部6は、音声認識しようとするタスクに対応する統計
的言語モデルを選択的に参照する。本実施形態において
は、好ましくは、処理すべき当該単語の先頭音素環境と
は、当該単語より先行する単語仮説の最終音素と、当該
単語の単語仮説の最初の2つの音素とを含む3つの音素
並びをいう。
【0081】例えば、図2に示すように、(i−1)番
目の単語Wi-1の次に、音素列a1、a2、…、anからな
るi番目の単語Wiがくるときに、単語Wi-1の単語仮説
として6つの仮説Wa、Wb、Wc、Wd、We、Wf
が存在している。ここで、前者3つの単語仮説Wa、W
b、Wcの最終音素は/x/であるとし、後者3つの単
語仮説Wd、We、Wfの最終音素は/y/であるとす
る。終了時刻teと先頭音素環境が等しい仮説(図2で
は先頭音素環境が“x/a1/a2”である上から3つの
単語仮説)のうち総尤度が最も高い仮説(例えば、図2
において1番上の仮説)以外を削除する。なお、上から
4番めの仮説は先頭音素環境が違うため、すなわち、先
行する単語仮説の最終音素がxではなくyであるので、
上から4番めの仮説を削除しない。すなわち、先行する
単語仮説の最終音素毎に1つのみ仮説を残す。図2の例
では、最終音素/x/に対して1つの仮説を残し、最終
音素/y/に対して1つの仮説を残す。
【0082】以上の実施形態においては、固有名詞の下
位クラスである日本人の姓及び名とを、未登録語の語彙
クラスとして用いているが、本発明はこれに限らず、以
下の固有名詞や外来語の普通名詞などに適用することが
できる。 (1)外国人の姓と名、(2)地名、(3)会社名、
(4)各種施設名、(5)各種製品名など。従って、本
発明では、未登録語の語彙クラスとして、固有名詞及び
外来語の普通名詞の各下位クラスを用いることができ
る。
【0083】また、本実施形態で用いるクラス依存未登
録語モデルは、クラス毎に異なったパラメータ構造を持
たせることが可能となっている。そのため、各クラスに
おける読みの統計的特徴を強く反映させたモデル化が可
能である。実施形態において、日本人姓及び名の未登録
語モデル構築には、そのパラメータ構造として、(1)
単語長のガンマ分布と、(2)終端記号への遷移を含ま
ないサブワード単位N−gramとを用いた。しかしな
がら、その他のクラス、例えば宿泊施設名(「京都第一
観光ホテル」、「赤坂プリンスホテル」、「いとう旅
館」、…)のように、複合語を多く含むクラスをモデル
化する際には、(1)長さに関する制約が有効とはなら
ない場合がある。その場合は、上記(1)の制約を省
き、代わりに上記(2)の制約に基づいたサブワード単
位N−gramにおいて、終端記号への遷移を含むよう
モデル化する(例えば、「ホテル」や「旅館」から終端
記号へ高い確率で遷移する)ことで、そうしたクラスに
対しても高精度な未登録語モデルを構築することが可能
である。
【0084】以上の実施形態においては、当該単語の先
頭音素環境とは、当該単語より先行する単語仮説の最終
音素と、当該単語の単語仮説の最初の2つの音素とを含
む3つの音素並びとして定義されているが、本発明はこ
れに限らず、先行する単語仮説の最終音素と、最終音素
と連続する先行する単語仮説の少なくとも1つの音素と
を含む先行単語仮説の音素列と、当該単語の単語仮説の
最初の音素を含む音素列とを含む音素並びとしてもよ
い。
【0085】以上の実施形態において、特徴抽出部2
と、単語照合部4と、単語仮説絞込部6と、未登録語モ
デル生成部20と、サブワード単位データ生成部21
と、単語辞書生成部22と、単語クラスN−gramモ
デル生成部23と、言語モデル生成部24とは、例え
ば、デジタル電子計算機などのコンピュータで構成さ
れ、バッファメモリ3、5と、音素HMMメモリ11
と、単語辞書メモリ12と、学習データメモリ30と、
テキストデータベースメモリ31と、サブワード単位N
−gramモデルメモリ40と、モーラ長ガンマ分布デ
ータメモリ41と、ラベル付きサブワード単位データメ
モリ42と、単語クラスN−gramモデルメモリ43
と、統計的言語モデルメモリ44とは、例えばハードデ
ィスクメモリなどの記憶装置で構成される。
【0086】以上実施形態においては、単語照合部4と
単語仮説絞込部6とを用いて音声認識を行っているが、
本発明はこれに限らず、例えば、音素HMMメモリ11
内の音素HMMを参照する音素照合部と、例えばOne
Pass DPアルゴリズムを用いて統計的言語モデ
ルを参照して単語の音声認識を行う音声認識部とで構成
してもよい。
【0087】
【実施例】本発明者は、本実施形態に係る統計的言語モ
デルの有効性を確認するため、音声認識実験を行った。
以下では、二種類の統計的言語モデルを用いて比較評価
を行う。両言語モデルは、共通のベースモデルとして、
表3の旅行会話データのみから生成したクラスN−gr
amを用いる。このベースモデルに対して、それぞれの
方法で日本人姓クラス、及び名クラスのクラス内単語1
−gramを置換する。
【0088】評価を行う統計的言語モデルは以下の通り
である。 (1)本実施形態に係る統計的言語モデル:日本人姓及
び名クラスの単語1−gramとして、姓及び名それぞ
れの未登録語モデルを用いる。サブワード単位N−gr
amで単位として用いるモーラ連鎖は、特に断らない限
り150個の場合を評価する。認識語彙は、日本人姓及
び名以外の単語12,755単語+サブワードで構成
し、登録語の日本人姓及び名は作らない。 (2)登録語方法(以下、比較例という。):日本人姓
及び名クラスの単語1−gramとして、表3の人名デ
ータによる単語1−gramを用いる。認識語彙は、日
本人姓及び名以外の単語12,755単語+日本人姓及
び名39,431単語となる。この方法は、評価セット
中のほぼ全人名をカバーする語彙を持つこと、また、本
実施形態の方法が未登録語モデルの最尤推定に用いる人
名データを単語1−gramとして直接用いることか
ら、概ね本実施形態の方法による認識精度の上限値を与
えるものと考えられる。
【0089】これら2つの方法の音声認識率を、以下の
基準により評価する。 (1)単語認識率:評価データに出現する全単語の認識
率を評価する。日本人姓及び名は、クラス(「日姓」又
は「日名」)、読み(モーラ並び)、位置(DPによる
対応付け)が全て正しい場合のみを正解とする。ただ
し、読みに関し、明らかに等価な長音(ヨウコとヨオ
コ)は手作業で修正して評価した。 (2)姓及び名単語の再現率及び適合率:単語認識率評
価時の動的計画法のマッチング(DPマッチング)を用
いて、日本人姓及び名のみの再現率と適合率を評価す
る。
【0090】ここで、評価セットには、旅行会話ドメイ
ンの42片側会話4、990単語を用いた。評価セット
に出現する日本人名は、姓及び名、合わせて70単語
(異なり単語数52)である。うち、表3の人名リスト
にも出現しない姓は3単語(アサギノ1単語、チンザイ
2単語)であった。
【0091】次いで、表3に本実施形態の方法、及び比
較例の方法の音声認識率を示す。
【0092】
【表5】 音声認識率 ――――――――――――――――――――――――――――――――――― 認識率(%) 本実施形態 比較例 ――――――――――――――――――――――――――――――――――― 単語認識率 87.51 87.30 姓及び名単語再現率 70 73 適合率 67 75 ――――――――――――――――――――――――――――――――――― (注)姓及び名は、読み、クラス、区間が全て正しい場合のみ正解として評価し た。比較例の方法の認識率は、概ね本実施形態の方法の上限値に相当すると考え られる。
【0093】本実施形態の方法では、未登録語である姓
及び名を、登録語として認識した場合とほぼ同等の精度
で認識できた。予想に反し、本実施形態の方法の単語認
識率が比較例の方法を上回った理由の一つとして、以下
が挙げられる。音響尤度の低い一部の姓及び名に対し、
本実施形態の方法では読み誤りはあるものの区間が正し
く検出され、結果、前後の単語にまで認識誤りを誘発す
ることが少なかったと考えられる。このことは、次の表
6に示す読み誤りを無視した姓及び名区間の再現率及び
適合率において、本実施形態の方法が優れていることか
らも裏付けられる。
【0094】
【表6】 姓及び名単語の区間検出率 ――――――――――――――――――――――――――――――――――― 認識率(%) 本実施形態 比較例 ――――――――――――――――――――――――――――――――――― 姓及び名区間再現率 87 80 適合率 84 82 ――――――――――――――――――――――――――――――――――― (注)姓及び名のクラスや区間が正しい場合を、正解として評価(音響尤度の影 響が強い読み誤りは無視する。)した。
【0095】図10は、本発明者による実験の実験結果
であって、日本人の姓及び名の再現率におけるモーラ連
鎖の単位化効果を示すグラフであり、モーラ連鎖の種類
の数に対する単語再現率を示すグラフである。図10か
ら明らかなように、単位化するモーラ連鎖を増やすこと
で、モデルによる姓及び名の尤度が上がり、再現率が改
善されるものと思われる。これは、上述の学習セットに
対する平均尤度の改善傾向と合致する。
【0096】次いで、希有な姓及び名に対する音声認識
率について説明する。本実施形態で提案する未登録語モ
デルの利点は、事前に予測できない希有な単語も正しく
認識できる可能性があることにある。ここでは、そうし
た希な姓及び名を模擬的に作り出すことで、本実施形態
の方法の評価を行う。評価セットには、52種類の日本
人姓及び名が出現する。そこで、これらの単語と同じ読
みを持つ全ての姓及び名を表1の学習データから削除し
た後、前節と同様に本実施形態の方法と比較例の方法に
よる音声認識率の比較実験を行った。表7にその結果を
示す。
【0097】
【表7】希有な姓及び名入力時の音声認識率 ―――――――――――――――――――――――― 認識率(%) 本実施形態 比較例 ―――――――――――――――――――――――― 単語認識率 86.66 86.08 姓及び名単語再現率 31 6 適合率 36 8 ―――――――――――――――――――――――― (注)学習に用いる姓及び名データから、評価セットに
出現する姓及び名と同じ読みを持つエントリを全て削除
して実験。姓及び名は、読み、クラス、区間が全て正し
い場合のみ正解として評価した。登録語方式の再現率・
適合率が0%にならないのは、形態素の不備により、一
部の姓が「普通名詞」になっていたためである。
【0098】表5から明らかなように、本実施形態の方
法では、学習データに存在しない姓及び名を与えても、
31%の再現率で、その読み、クラス、区間を正しく認
識できた。結果、単語認識率でも登録語方式を0.58
ポイント上回った。
【0099】以上説明したように、本発明に係る実施形
態によれば、未登録語モデルのクラス依存化により、次
の特有の効果を得ることができる。 (1)モデル化対象を限定することで、読みの統計的特
徴をより明確化することができ、クラス固有のパラメー
タ制約を導入できるため、未登録語モデルを高精度化す
ることができる。 (2)検出区間の言語処理が可能である。未登録語は、
読みに加えクラスも同時に同定される。読みとクラス
は、固有名詞の言語処理において必要十分な情報となる
ケースが多いものと考えられる。 (3)上記生成された統計的言語モデルを用いて音声認
識することにより、従来技術に比較して高い認識率で音
声認識することができる。
【0100】<第2の実施形態>図11は、本発明に係
る第2の実施形態である連続音声認識システムの構成を
示すブロック図であり、図12は、図11の連続音声認
識システムを用いた、自動ダイヤリング機能付き電話機
の構成を示すブロック図である。
【0101】図11の連続音声認識システムは、図1の
連続音声認識システムに比較して以下の点が異なる。 (1)学習データメモリ30は、日本人姓ファイル30
aと、日本人名ファイル30bとに加えて、地名ファイ
ル30cなどのファイルを含む。地名ファイルは、例え
ば日本や外国の地名の単語を含むファイルである。 (2)図1の単語クラスN−gramモデル生成部23
に代えて、有限状態オートマトンモデル生成部23aを
備える。 (3)図1の単語クラスN−gramモデルメモリ43
に代えて、有限状態オートマトンモデルメモリ43aを
備える。
【0102】ここで、有限状態オートマトンモデル生成
部23aは、テキストデータベースメモリ31に格納さ
れた多数の日本語の書き下し文からなるコーパスと呼ば
れるテキストデータに基づいて有限状態オートマトンモ
デルを生成し、このモデルを有限状態オートマトンメモ
リ43aに格納する。
【0103】図11の連続音声認識システムにおいて、
破線で囲んだ部分を音声認識装置100という。すなわ
ち、音声認識装置100は、マイクロホン1から単語仮
説絞込部6までの回路及び処理部と、単語照合部4に接
続された音素HMMメモリ11及び単語辞書メモリ1
2、並びに、単語仮説絞込部6に接続された統計的言語
モデルメモリ44とを備えて構成される。第2の実施形
態では、この音声認識装置100を用いて、図12の自
動ダイヤリング機能付き電話機が構成される。なお、単
語辞書メモリ12及び統計的言語モデルメモリ44内の
データは予め図11のシステムにより生成されて格納さ
れる。従って、音声認識装置100は、マイクロホン1
に入力される人名などの単語の話者音声に応答して、音
声認識処理を実行して、音声認識結果の文字列を出力す
る。
【0104】図12は本実施形態に係る自動ダイヤリン
グ機能付き電話機の構成を示しており、主制御部50
は、CPUで構成され、ROM51内に格納される所定
の動作プログラムを実行することによりこの電話機の全
体の動作を制御する。RAM52は、主制御部50で動
作プログラムを実行するときに必要なデータを格納する
とともに、主制御部50のための一時的なワーキングメ
モリとして用いられる。表示部53は、例えば液晶表示
装置(LCD)等の表示装置であり、当該電話機の動作
状態を表示したり、送信先の名称や電話番号を表示す
る。また、操作部54は、当該電話機を操作するために
必要な文字キー、ダイヤル用テンキー、短縮ダイヤルキ
ーや各種のファンクションキー等を備える。さらに、ネ
ットワークコントロールユニット(NCU)55は、ア
ナログの公衆電話回線Lの直流ループなどの閉結及び開
放の動作を行い、かつ自動ダイヤル機能を有するMTD
Fダイヤラーを含むハードウェア回路であり、必要に応
じて送受話器59に接続し、もしくは音声合成出力部5
6からの出力を公衆電話回線Lに接続する。またさら
に、音声合成出力部56は、例えば、パルス発生器と雑
音発生器と利得可変型増幅器とフィルタとを備え、公知
の音声合成方法を用いて、主制御部50からの制御によ
り、音声合成すべき文字列のテキストデータを所定のパ
ラメータ時系列に変換した後、そのピッチに基づいてパ
ルス発生器を制御し、有声/無声の切り換えに基づいて
パルス発生器と雑音発生器とを選択的に切り換えて使用
し、振幅値に基づいて利得可変型増幅器を制御し、フィ
ルタ係数値に基づいて上記フィルタを制御することによ
り、上記文字列の音声を音声合成してスピーカ57を介
して出力し、もしくは、当該音声合成の音声信号をNC
U55及び公衆電話回線Lを介して通信の相手方に対し
て送信する。以上の回路51乃至56及び電話番号検索
部60とは、バス58を介して主制御部50に接続され
る。
【0105】電話番号テーブルメモリ61は、人名とそ
れに対応する電話番号をテーブルの形式で予め記憶す
る。そして、電話番号検索部60は、音声認識装置10
0からの音声認識結果の「発信」という単語に続く文字
列の人名の単語に基づいて、当該人名に対応する電話番
号の情報を電話番号テーブルメモリ61から読み出し
て、当該電話番号の情報をバス58を介して主制御部5
0に出力する。これに応答して、主制御部50は、電話
番号の情報をNCU55内のMTDFダイヤラーに出力
し、このとき、NCU55は発信のためにオフフックし
た後、MTDFダイヤラーは入力される電話番号の情報
に対応するダイヤル信号を発生して公衆電話回線Lに対
して送出する。これにより、ユーザがマイクロホン1を
介して発声した人名に対応する電話番号の電話機に対し
て発信できる。
【0106】この第2の実施形態によれば、音声認識及
び自動ダイヤリング機能を備えた電話機において、単語
辞書において未登録の未登録語に関する音声認識の精度
を従来例に比較して高くすることができる音声認識装置
を用いて情報検索を実行することができ、これにより、
限られたメモリで多数の人名などの固有名詞が音声認識
可能となるため、データベースを備えた電話機におい
て、従来技術に比較して高い精度で情報検索が可能とな
る。また、高い音声認識率で自動ダイヤリングできる。
【0107】以上の実施形態においては、有限状態オー
トマトンモデル生成部23a及び有限状態オートマトン
メモリ43aを備えているが、本発明はこれに限らず、
それぞれ図1の単語クラスN−gramモデル生成部2
3、図1の単語クラスN−gramモデルメモリ43を
備えてもよい。
【0108】<第3の実施形態>図13は、本発明に係
る第3の実施形態である構内交換機(PBX)の構成を
示すブロック図である。この実施形態は、図11の音声
認識装置100及び図12の電話番号検索部60、電話
番号テーブルメモリ61を、構内交換機の内線転送又は
外線転送に適用したことを特徴としている。
【0109】図13において、主制御部150は、CP
Uで構成され、ROM151内に格納される所定の動作
プログラムを実行することによりこの構内交換機の全体
の動作を制御する。RAM152は、主制御部150で
動作プログラムを実行するときに必要なデータを格納す
るとともに、主制御部150のための一時的なワーキン
グメモリとして用いられる。表示部153は、例えば液
晶表示装置(LCD)等の表示装置であり、当該構内交
換機の動作状態を表示したり、送信先の名称や電話番号
を表示する。また、操作部154は、当該構内交換機を
操作するために必要な文字キー、ダイヤル用テンキーや
各種のファンクションキー等を備える。さらに、ネット
ワークコントロールユニット(NCU)155は、外線
である複数の公衆電話回線L1乃至LNと、内線電話機
T1乃至TMに接続された内線とを交互に接続する電話
交換スイッチ回路を備えるとともに、アナログの各公衆
電話回線L1乃至LNの直流ループなどの閉結及び開放
の動作を行い、かつ自動ダイヤル機能を有するMTDF
ダイヤラーを含むハードウェア回路であり、必要に応じ
て音声合成出力部156からの出力を公衆電話回線L1
乃至LNに接続する。またさらに、音声合成出力部15
6は、図12の音声合成出力部56と同様に構成され、
主制御部50からの制御により、音声合成すべき文字列
のテキストデータを音声合成して、上記文字列の音声を
音声合成してその音声信号をNCU155及び公衆電話
回線L1乃至LNを介して通信相手方に対して送信す
る。以上の回路151乃至156及び電話番号検索部6
0とは、バス158を介して主制御部150に接続され
る。
【0110】電話番号テーブルメモリ61bは、人名と
それに対応する内線電話番号及び外線電話番号をテーブ
ルの形式で予め記憶する。そして、主制御部150は、
NCU155において公衆電話回線L1乃至LNにうち
の1つからの着信に対して自動応答し、「こちらは、A
BC会社です。内線のどちらにお繋ぎしましょうか?」
という音声合成信号を音声合成出力部156で発生させ
て相手方に出力する。これに対して、相手方から発声さ
れる内線転送すべき人名の音声信号をNCU155から
音声認識装置100の特徴抽出器2に出力する。このと
き、音声認識装置100は音声認識処理を実行し、音声
認識結果の文字列を電話番号検索部60に出力する。こ
れに応答して、電話番号検索部60は、音声認識装置1
00からの音声認識結果の文字列の人名の単語に基づい
て、当該人名に対応する内線電話番号の情報を電話番号
テーブルメモリ61bから読み出して、当該内線電話番
号の情報をバス158を介して主制御部150に出力す
る。これに応答して、主制御部150は、内線番号の情
報に基づいてNCU155を制御して、当該着信してき
た公衆電話回線を対応する内線番号の内線電話機に接続
することにより、内線転送が完了する。
【0111】以上の実施形態においては、内線転送の例
について説明しているが、内線電話機T1乃至TMから
公衆電話回線への外線発信でも同様に、音声認識装置1
00、電話番号検索部60及び電話番号テーブルメモリ
61bを用いて、ユーザが外線発信したい「人名」を発
声するだけで外線発信を実行できるように構成できる。
【0112】この第3の実施形態によれば、音声認識及
び自動転送機能を備えた構内交換機において、単語辞書
において未登録の未登録語に関する音声認識の精度を従
来例に比較して高くすることができる音声認識装置を用
いて情報検索を実行することができ、これにより、限ら
れたメモリで多数の人名などの固有名詞が音声認識可能
となるため、データベースを備えた構内交換機におい
て、従来技術に比較して高い精度で情報検索が可能とな
る。また、高い音声認識率で自動転送できる。
【0113】<第4の実施形態>図14は、本発明に係
る第4の実施形態であるカーナビゲーションシステムの
構成を示すブロック図である。この実施形態は、図11
の音声認識装置100をカーナビゲーションシステムに
適用したことを特徴としている。
【0114】図14において、主制御部250は、CP
Uで構成され、ROM251内に格納される所定の基本
プログラム及びCD−ROMドライブ装置259内のC
D−ROMからフラッシュメモリ258にロードされた
アプリケーションプログラムを実行することによりこの
カーナビゲーションシステムの全体の動作を制御する。
RAM252は、主制御部250で基本プログラム又は
アプリケーションプログラムを実行するときに必要なデ
ータを格納するとともに、主制御部250のための一時
的なワーキングメモリとして用いられる。表示部253
は、例えば液晶表示装置(LCD)等の表示装置であ
り、当該カーナビゲーションの動作状態を表示したり、
指示された地名付近の地図やナビゲーション情報を表示
する。また、操作部254は、当該ナビゲーションシス
テムを操作するために必要な文字キー、ダイヤル用テン
キーや各種のファンクションキー等を備える。さらに、
音声合成出力部256は、図12の音声合成出力部56
と同様に構成され、主制御部250からの制御により、
音声合成すべき文字列のテキストデータを音声合成し
て、上記文字列の音声を音声合成してその音声信号をス
ピーカ257に出力する。CD−ROMドライブ装置2
59には、カーナビゲーションのためのアプリケーショ
ンプログラム及び地図情報などのカーナビゲーション情
報を格納したCD−ROMが挿入され、これらの情報は
当該CD−ROMからCD−ROMドライブ装置259
及びバス258を介してフラッシュメモリ258にロー
ドされて利用される。以上の回路251乃至256、2
59及び地名検索部60aとは、バス258を介して主
制御部250に接続される。
【0115】地名テーブルメモリ61aは、地名とそれ
に対応する位置情報(緯度や経度の情報)をテーブルの
形式で予め記憶する。そして、ユーザが音声認識装置1
00のマイクロホン1に対して地名を発声したとき、音
声認識装置100は音声認識処理を実行し、音声認識結
果の文字列を地名検索部60aに出力する。これに応答
して、地名検索部60aは、音声認識装置100からの
音声認識結果の文字列の地名の単語に基づいて、当該地
名に対応する位置情報を地名テーブルメモリ61aから
読み出して、当該位置情報をバス258を介して主制御
部250に出力する。これに応答して、主制御部250
は、当該位置情報に基づいて、フラッシュメモリ258
内の地図情報などのカーナビゲーション情報を検索し
て、検索された対応する情報を表示部253に表示する
とともに、検索された音声情報を音声合成出力部256
に出力することにより、スピーカ257から当該音声合
成された音声を出力させる。
【0116】この第4の実施形態によれば、音声認識及
びカーナビゲーション機能を有するカーナビゲーション
システムにおいて未登録の未登録語に関する音声認識の
精度を従来例に比較して高くすることができる音声認識
装置を用いて情報検索を実行することができ、これによ
り、限られたメモリで多数の地名なの固有名詞が音声認
識可能となるため、データベースを備えたカーナビゲー
ションシステムにおいて従来技術に比較して高い精度で
情報検索が可能となる。また、高い音声認識率で地名を
音声認識でき、適切にカーナビゲーションの処理を実行
できる。
【0117】以上の第2、第3及び第4の実施形態にお
いては、電話機、構内交換機、カーナビゲーションシス
テムの例について説明しているが、本発明はこれに限ら
ず、単語リストに対応する普通名詞の単語データとそれ
に対応する情報とを含むデータベースメモリを記憶し、
音声認識装置100から出力される音声認識結果の文字
列をキーとして用いて、上記データベースの記憶装置に
記憶されたデータベースから検索して、一致する単語デ
ータに対応する情報を上記データベースメモリから読み
出して出力し、さらには、当該検索された情報に基づい
て、所定の処理を実行することができる。
【0118】<第5の実施形態>図15は、本発明に係
る第5の実施形態であるかな漢字変換装置の構成を示す
ブロック図であり、図1と同様のものについては同一の
符号を付している。この実施形態に係るかな漢字変換装
置は、キーボード71と、キーボードインターフェース
72と、音素HMMメモリ11及び単語辞書メモリ12
が接続された単語照合部4aと、バッファメモリ5と、
統計的言語モデルメモリ44が接続された単語仮説絞込
部6とを備えて構成される。
【0119】ここで、単語辞書メモリ12は、図1の単
語辞書生成部22により生成された単語辞書を記憶し、
ここで、単語辞書は、学習用データメモリ30に記憶さ
れたファイル(図1や図11に図示の、日本人姓ファイ
ル30a、日本人名ファイル30b、地名ファイル30
cに限らず、上述のように、外国人の姓と名、会社名、
各種施設名、各種製品名などの単語を含んでもよい。)
及びテキストデータメモリ31内のテキストデータの単
語に対応する漢字表記の複数の単語データを含む。ま
た、統計的言語モデルメモリ44は、図1の言語モデル
生成部24により生成された統計的言語モデルを記憶
し、この統計的言語モデルは上記学習用データメモリ3
0に記憶されたファイル及びテキストデータメモリ31
内のテキストデータの単語に基づいて生成される。
【0120】図15において、キーボード71は、かな
文字列を入力するための入力手段であり、キーボードイ
ンターフェース72はキーボード71を用いて入力され
たかな文字列のデータを一旦格納した後、所定の信号変
換などの処理を実行した後、単語照合部4aに出力す
る。単語照合部4aは、ワン−パス・ビタビ復号化法を
用いて、キーボードインターフェース72を介して入力
されるかな文字列のデータに基づいて、音素HMMメモ
リ11内の音素HMMと、単語辞書メモリ12内の単語
辞書とを用いて単語仮説を検出し尤度を計算して出力す
る。ここで、具体的には、単語照合部4aは、単語辞書
を参照して、入力されたかな文字列と、上記単語辞書内
の単語との間の単語照合及び尤度計算を行い、一致した
ときに漢字表記の単語に変換して単語仮説の文字列とし
て尤度とともに出力する一方、一致しないときにかな文
字のまま単語仮説の文字列として尤度とともに出力す
る。単語照合部4aからの出力データはバッファメモリ
5を介して単語仮説絞込部6に入力される。単語仮説絞
込部6は、単語照合部4aからバッファメモリ5を介し
て出力される単語仮説に基づいて、統計的言語モデルメ
モリ44内の統計的言語モデルを参照して、終了時刻が
等しく開始時刻が異なる同一の単語の単語仮説に対し
て、当該単語の先頭音素環境毎に、発声開始時刻から当
該単語の終了時刻に至る計算された総尤度のうちの最も
高い尤度を有する1つの単語仮説で代表させるように単
語仮説の絞り込みを行った後、絞り込み後のすべての単
語仮説の単語列のうち、最大の総尤度を有し漢字表記を
含む仮説の単語列を認識結果として出力する。
【0121】この第5の実施形態によれば、かな漢字変
換装置によれば、上記統計的言語モデルを利用して、か
な漢字変換率を従来技術に比較して向上できるかな漢字
変換装置を提供するができる。従って、例えば未登録の
固有名詞も変換可能とすることができる。
【0122】
【発明の効果】以上詳述したように本発明によれば、ク
ラスに依存して構築された未登録語モデルを含む統計的
言語モデルを生成したので、次の特有の効果を得ること
ができる。 (1)モデル化対象を限定することで、読みの統計的特
徴をより明確化することができ、クラス固有のパラメー
タ制約を導入できるため、未登録語モデルを高精度化す
ることができる。 (2)検出区間の言語処理が可能である。未登録語は、
読みに加えクラスも同時に同定される。読みとクラス
は、固有名詞の言語処理において必要十分な情報となる
ケースが多いものと考えられる。 (3)上記生成された統計的言語モデルを用いて音声認
識することにより、従来技術に比較して高い認識率で音
声認識することができる。
【0123】また、本発明に係る情報検索処理装置によ
れば、電話機における音声認識及び自動ダイヤリング機
能や、カーナビゲーションなどの小規模の情報検索処理
装置において、単語辞書において未登録の未登録語に関
する音声認識の精度が従来例に比較して高い音声認識装
置を用いて情報検索を実行することができる。従って、
限られたメモリで多数の人名や地名などの固有名詞が音
声認識可能となるため、データベースを備えた小型携帯
装置などの情報検索処理装置において、従来技術に比較
して高い精度で情報検索が可能となる。
【0124】さらに、本発明に係るかな漢字変換装置に
よれば、上記統計的言語モデルを利用して、かな漢字変
換率を従来技術に比較して向上できるかな漢字変換装置
を提供するができる。従って、例えば未登録の固有名詞
も変換可能とすることができる。
【図面の簡単な説明】
【図1】 本発明に係る第1の実施形態である連続音声
認識システムのブロック図である。
【図2】 図1の連続音声認識システムにおける単語仮
説絞込部6の処理を示すタイミングチャートである。
【図3】 図1の未登録語モデル生成部20によって実
行される未登録語モデル生成処理を示すフローチャート
である。
【図4】 図3のサブルーチンであるサブワード2−g
ramの単位決定処理(ステップS4)を示すフローチ
ャートである。
【図5】 図1の言語モデル生成部24によって実行さ
れる言語モデル生成処理を示すフローチャートである。
【図6】 本発明者の分析による、日本人の姓及び名並
びに旅行会話における単語の長さの分布を示すグラフで
あって、モーラ長に対する単語数の割合を示すグラフで
ある。
【図7】 第1の実施形態に係るクラス依存未登録語モ
デルに基づく統計的言語モデルの一例を示す状態遷移図
である。
【図8】 第1の実施形態に係る統計的言語モデルの一
例を示す状態遷移図である。
【図9】 図1の未登録語モデル生成部20によって実
行される未登録語モデル生成処理における、モーラ連鎖
の単位化による平均尤度の向上を示すグラフであって、
モーラ連鎖の種類の数に対する平均尤度を示すグラフで
ある。
【図10】 本発明者による第1の実施形態の連続音声
認識システムに係る実験の実験結果であって、日本人の
姓及び名の再現率におけるモーラ連鎖の単位化効果を示
すグラフであり、モーラ連鎖の種類の数に対する単語再
現率を示すグラフである。
【図11】 本発明に係る第2の実施形態である連続音
声認識システムの構成を示すブロック図である。
【図12】 図11の連続音声認識システムを用いた、
自動ダイヤリング機能付き電話機の構成を示すブロック
図である。
【図13】 本発明に係る第3の実施形態である構内交
換機(PBX)の構成を示すブロック図である。
【図14】 本発明に係る第4の実施形態であるカーナ
ビゲーションシステムの構成を示すブロック図である。
【図15】 本発明に係る第5の実施形態であるかな漢
字変換装置の構成を示すブロック図である。
【符号の説明】
1…マイクロホン、 2…特徴抽出部、 3,5…バッファメモリ、 4,4a…単語照合部、 6…単語仮説絞込部、 11…音素HMMメモリ、 12…単語辞書メモリ、 20…未登録モデル生成部、 21…サブワード単位データ生成部、 22…単語辞書生成部、 23…単語クラスN−gramモデル生成部、 23a…有限状態オートマトンモデル生成部、 24…言語モデル生成部、 30…学習データメモリ、 30a…日本人姓ファイル、 30b…日本人名ファイル、 30c…地名ファイル、 31…テキストデータベースメモリ、 40…サブワード単位N−gramモデルメモリ、 41…モーラ長ガンマ分布データメモリ、 42…ラベル付きサブワード単位データメモリ、 43…単語クラスN−gramモデルメモリ、 43a…有限状態オートマトンモデルメモリ、 44…統計的言語モデルメモリ、 50…主制御部、 51…ROM、 52…RAM、 53…表示部、 54…操作部、 55…ネットワークコントロールユニット(NCU)、 56…音声合成出力部、 57…スピーカ、 58…バス、 59…送受話器、 60…電話番号検索部、 60a…地名検索部、 61,61b…電話番号テーブルメモリ、 61a…地名テーブルメモリ、 71…キーボード、 72…キーボードインターフェース、 100…音声認識装置、 150…主制御部、 151…ROM、 152…RAM、 153…表示部、 154…操作部、 155…ネットワークコントロールユニット(NC
U)、 156…音声合成出力部、 158…バス、 250…主制御部、 251…ROM、 252…RAM、 253…表示部、 254…操作部、 256…音声合成出力部、 257…スピーカ、 258…バス、 259…CD−ROMドライブ装置、 L,L1乃至LN…公衆電話回線、 T1乃至TM…内線電話機。
フロントページの続き (72)発明者 山本 博史 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール音声翻 訳通信研究所内 (72)発明者 匂坂 芳典 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール音声翻 訳通信研究所内

Claims (10)

    【特許請求の範囲】
  1. 【請求項1】 クラス別に分類された単語リストを含む
    学習データメモリと、 その学習データに基づいて単語の読みに対応するサブワ
    ード系列の生起確率をクラスに依存して抽出する手段
    と、 その抽出された単語の読みに対応するサブワード系列の
    生起確率をクラスに依存して評価する手段と、 単語とクラスの並びの生起確率を評価する手段と、 上記クラスに依存して評価されたサブワード系列の生起
    確率と上記評価された単語とクラスの並びの生起確率と
    によって未登録語を含む単語系列の生起確率をサブワー
    ドと単語の系列の生起確率として評価する手段と、 を備えたことを特徴とする統計的言語モデル生成装置。
  2. 【請求項2】 上記サブワード系列の生起確率は、長さ
    に関する確率と並びに関する確率とを含むことを特徴と
    する請求項1記載の統計的言語モデル生成装置。
  3. 【請求項3】 上記サブワードとしては、クラスに依存
    して抽出する単位を用いることを特徴とする請求項1又
    は2記載の統計的言語モデル生成装置。
  4. 【請求項4】 入力される発声音声文の音声信号に基づ
    いて、所定の統計的言語モデルを用いて音声認識する音
    声認識手段を備えた音声認識装置において、 上記音声認識手段は、請求項1、2又は3記載の統計的
    言語モデル生成装置によって生成された統計的言語モデ
    ルを用いて音声認識することを特徴とする音声認識装
    置。
  5. 【請求項5】 固有名詞又は外来語の普通名詞の単語リ
    ストを含む学習データを格納する学習データ記憶手段
    と、 上記学習データ記憶手段に格納された学習データに基づ
    いて、上記学習データにおけるモーラ長に対する単語数
    の割合が実質的にガンマ分布に従うと仮定したときのモ
    ーラ長のガンマ分布のパラメータをクラスに依存して推
    定して計算するとともに、モーラ又はモーラ連鎖である
    サブワード単位で、上記固有名詞又は外来語の普通名詞
    の下位クラスであるクラスを有する第1のN−gram
    の出現確率を計算することにより未登録語をモデル化し
    たサブワード単位N−gramモデルを生成する第1の
    生成手段と、 所定のテキストデータベースに基づいて生成された単語
    クラスN−gramモデルと、上記第1の生成手段によ
    って生成されたサブワード単位N−gramモデルと、
    上記第1の生成手段によって計算されたモーラ長のガン
    マ分布のパラメータとに基づいて、上記単語クラスと、
    上記固有名詞又は外来語の普通名詞の下位クラスである
    クラスとに依存した第2のN−gramの出現確率を計
    算することによりサブワード単位に基づいた未登録語を
    含む統計的言語モデルを生成する第2の生成手段とを備
    えたことを特徴とする統計的言語モデル生成装置。
  6. 【請求項6】 上記第1の生成手段によって生成された
    サブワード単位N−gramモデルに基づいて、上記サ
    ブワード単位を抽出し、抽出したラベルを上記サブワー
    ド単位に付与することにより、サブワード単位当たり複
    数のラベル付きサブワード単位のデータを生成する第3
    の生成手段と、 上記テキストデータベースから抽出された単語と、上記
    第3の生成手段によって生成された複数のラベル付きサ
    ブワード単位のデータとに対して音素並びを付与するこ
    とにより単語辞書を生成する第4の生成手段とをさらに
    備えたことを特徴とする請求項5記載の統計的言語モデ
    ル生成装置。
  7. 【請求項7】 入力される発声音声文の音声信号に基づ
    いて、所定の統計的言語モデルを用いて音声認識する音
    声認識手段を備えた音声認識装置において、上記音声認
    識手段は、請求項5又は6記載の統計的言語モデル生成
    装置によって生成された統計的言語モデルと、請求項6
    記載の第4の生成手段によって生成された単語辞書とを
    用いて音声認識することを特徴とする音声認識装置。
  8. 【請求項8】 上記単語リストに対応する普通名詞の単
    語データとそれに対応する情報とを含むデータベースを
    記憶するデータベース記憶手段と、 請求項4又は7記載の音声認識装置から出力される音声
    認識結果の文字列をキーとして用いて、上記データベー
    ス記憶手段に記憶されたデータベースから検索して、一
    致する単語データに対応する情報を上記データベース記
    憶手段から読み出して出力する検索手段とを備えたこと
    を特徴とする情報検索処理装置。
  9. 【請求項9】 上記情報検索処理装置はさらに、 上記検索手段から出力される情報に基づいて、所定の処
    理を実行する処理実行手段を備えたことを特徴とする請
    求項8記載の情報検索処理装置。
  10. 【請求項10】 かな文字列を入力する入力手段と、 漢字表記の複数の単語データを含む単語辞書を記憶する
    辞書記憶手段と、 上記辞書記憶手段に記憶された単語辞書を参照して、上
    記入力手段によって入力されたかな文字列と、上記単語
    辞書内の単語との間の単語照合を行い、一致したときに
    漢字表記の単語に変換して単語仮説の文字列として出力
    する一方、一致しないときにかな文字のまま単語仮説の
    文字列として出力する単語照合手段と、 上記単語照合手段から出力される単語仮説の文字列に対
    して、請求項1乃至3、5及び6のうちのいずれか1つ
    に記載の統計的言語モデル生成装置によって生成された
    統計的言語モデルを参照して尤度を演算して、演算され
    た尤度に基づいて上記単語仮説の文字列の絞り込みを行
    った後、絞り込み後の単語仮説の文字列をかな漢字変換
    後の文字列として出力する絞込手段とを備えたことを特
    徴とするかな漢字変換装置。
JP2000378702A 1999-12-17 2000-12-13 統計的言語モデル生成装置、音声認識装置及び情報検索処理装置 Expired - Lifetime JP3415585B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000378702A JP3415585B2 (ja) 1999-12-17 2000-12-13 統計的言語モデル生成装置、音声認識装置及び情報検索処理装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP35894799 1999-12-17
JP11-358947 1999-12-17
JP2000378702A JP3415585B2 (ja) 1999-12-17 2000-12-13 統計的言語モデル生成装置、音声認識装置及び情報検索処理装置

Publications (2)

Publication Number Publication Date
JP2001236089A true JP2001236089A (ja) 2001-08-31
JP3415585B2 JP3415585B2 (ja) 2003-06-09

Family

ID=26580871

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000378702A Expired - Lifetime JP3415585B2 (ja) 1999-12-17 2000-12-13 統計的言語モデル生成装置、音声認識装置及び情報検索処理装置

Country Status (1)

Country Link
JP (1) JP3415585B2 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100474359B1 (ko) * 2002-12-12 2005-03-10 한국전자통신연구원 키워드 기반 N-gram 언어모델 구축 방법
EP1551007A1 (en) * 2002-10-08 2005-07-06 Matsushita Electric Industrial Co., Ltd. Language model creation/accumulation device, speech recognition device, language model creation method, and speech recognition method
JP2005250071A (ja) * 2004-03-03 2005-09-15 Nippon Telegr & Teleph Corp <Ntt> 音声認識方法及び装置及び音声認識プログラム及び音声認識プログラムを格納した記憶媒体
WO2005122144A1 (ja) * 2004-06-10 2005-12-22 Matsushita Electric Industrial Co., Ltd. 音声認識装置、音声認識方法、及びプログラム
WO2007138875A1 (ja) * 2006-05-31 2007-12-06 Nec Corporation 音声認識用単語辞書・言語モデル作成システム、方法、プログラムおよび音声認識システム
JP2008129318A (ja) * 2006-11-21 2008-06-05 Nippon Hoso Kyokai <Nhk> 言語モデル作成装置及び言語モデル作成プログラム並びに音声認識装置及び音声認識プログラム
JP2008242059A (ja) * 2007-03-27 2008-10-09 Mitsubishi Electric Corp 音声認識辞書作成装置および音声認識装置
JP2009093671A (ja) * 2008-12-18 2009-04-30 Nippon Hoso Kyokai <Nhk> かな漢字変換装置およびかな漢字変換プログラム
JP2013171222A (ja) * 2012-02-22 2013-09-02 Nippon Telegr & Teleph Corp <Ntt> 単語追加装置、単語追加方法、およびプログラム
KR101388569B1 (ko) 2011-08-10 2014-04-23 한국전자통신연구원 연속어 음성인식 시스템에서 언어모델의 고유 명사 추가 장치 및 방법
US8756058B2 (en) 2006-02-23 2014-06-17 Nec Corporation Speech recognition system, speech recognition result output method, and speech recognition result output program
CN105632512A (zh) * 2016-01-14 2016-06-01 华南理工大学 一种基于统计模型的双传感器语音增强方法与装置
CN112711943A (zh) * 2020-12-17 2021-04-27 厦门市美亚柏科信息股份有限公司 一种维吾尔文语种识别方法、装置及存储介质

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1551007A4 (en) * 2002-10-08 2008-05-21 Matsushita Electric Ind Co Ltd LANGUAGE MODEL CREATION / CREATION DEVICE, VOICE RECOGNITION DEVICE, LANGUAGE MODEL CREATION METHOD, AND VOICE RECOGNITION METHOD
EP1551007A1 (en) * 2002-10-08 2005-07-06 Matsushita Electric Industrial Co., Ltd. Language model creation/accumulation device, speech recognition device, language model creation method, and speech recognition method
KR100474359B1 (ko) * 2002-12-12 2005-03-10 한국전자통신연구원 키워드 기반 N-gram 언어모델 구축 방법
JP2005250071A (ja) * 2004-03-03 2005-09-15 Nippon Telegr & Teleph Corp <Ntt> 音声認識方法及び装置及び音声認識プログラム及び音声認識プログラムを格納した記憶媒体
JP4528540B2 (ja) * 2004-03-03 2010-08-18 日本電信電話株式会社 音声認識方法及び装置及び音声認識プログラム及び音声認識プログラムを格納した記憶媒体
JP4705023B2 (ja) * 2004-06-10 2011-06-22 パナソニック株式会社 音声認識装置、音声認識方法、及びプログラム
JPWO2005122144A1 (ja) * 2004-06-10 2008-04-10 松下電器産業株式会社 音声認識装置、音声認識方法、及びプログラム
US7813928B2 (en) 2004-06-10 2010-10-12 Panasonic Corporation Speech recognition device, speech recognition method, and program
WO2005122144A1 (ja) * 2004-06-10 2005-12-22 Matsushita Electric Industrial Co., Ltd. 音声認識装置、音声認識方法、及びプログラム
US8756058B2 (en) 2006-02-23 2014-06-17 Nec Corporation Speech recognition system, speech recognition result output method, and speech recognition result output program
WO2007138875A1 (ja) * 2006-05-31 2007-12-06 Nec Corporation 音声認識用単語辞書・言語モデル作成システム、方法、プログラムおよび音声認識システム
JP2008129318A (ja) * 2006-11-21 2008-06-05 Nippon Hoso Kyokai <Nhk> 言語モデル作成装置及び言語モデル作成プログラム並びに音声認識装置及び音声認識プログラム
JP2008242059A (ja) * 2007-03-27 2008-10-09 Mitsubishi Electric Corp 音声認識辞書作成装置および音声認識装置
JP2009093671A (ja) * 2008-12-18 2009-04-30 Nippon Hoso Kyokai <Nhk> かな漢字変換装置およびかな漢字変換プログラム
KR101388569B1 (ko) 2011-08-10 2014-04-23 한국전자통신연구원 연속어 음성인식 시스템에서 언어모델의 고유 명사 추가 장치 및 방법
JP2013171222A (ja) * 2012-02-22 2013-09-02 Nippon Telegr & Teleph Corp <Ntt> 単語追加装置、単語追加方法、およびプログラム
CN105632512A (zh) * 2016-01-14 2016-06-01 华南理工大学 一种基于统计模型的双传感器语音增强方法与装置
CN110010149A (zh) * 2016-01-14 2019-07-12 深圳市韶音科技有限公司 基于统计模型的双传感器语音增强方法
CN110070883A (zh) * 2016-01-14 2019-07-30 深圳市韶音科技有限公司 语音增强方法
CN110070880A (zh) * 2016-01-14 2019-07-30 深圳市韶音科技有限公司 用于分类的联合统计模型的建立方法及应用方法
CN110085250A (zh) * 2016-01-14 2019-08-02 深圳市韶音科技有限公司 气导噪声统计模型的建立方法及应用方法
CN110010149B (zh) * 2016-01-14 2023-07-28 深圳市韶音科技有限公司 基于统计模型的双传感器语音增强方法
CN110070880B (zh) * 2016-01-14 2023-07-28 深圳市韶音科技有限公司 用于分类的联合统计模型的建立方法及应用方法
CN110085250B (zh) * 2016-01-14 2023-07-28 深圳市韶音科技有限公司 气导噪声统计模型的建立方法及应用方法
CN110070883B (zh) * 2016-01-14 2023-07-28 深圳市韶音科技有限公司 语音增强方法
CN112711943A (zh) * 2020-12-17 2021-04-27 厦门市美亚柏科信息股份有限公司 一种维吾尔文语种识别方法、装置及存储介质
CN112711943B (zh) * 2020-12-17 2023-11-24 厦门市美亚柏科信息股份有限公司 一种维吾尔文语种识别方法、装置及存储介质

Also Published As

Publication number Publication date
JP3415585B2 (ja) 2003-06-09

Similar Documents

Publication Publication Date Title
JP3716870B2 (ja) 音声認識装置および音声認識方法
US5949961A (en) Word syllabification in speech synthesis system
JP5480760B2 (ja) 端末装置、音声認識方法および音声認識プログラム
US7590533B2 (en) New-word pronunciation learning using a pronunciation graph
JP3782943B2 (ja) 音声認識装置、コンピュータ・システム、音声認識方法、プログラムおよび記録媒体
EP1291848B1 (en) Multilingual pronunciations for speech recognition
JP5957269B2 (ja) 音声認識サーバ統合装置および音声認識サーバ統合方法
US5983177A (en) Method and apparatus for obtaining transcriptions from multiple training utterances
KR100769029B1 (ko) 다언어의 이름들의 음성 인식을 위한 방법 및 시스템
EP1551007A1 (en) Language model creation/accumulation device, speech recognition device, language model creation method, and speech recognition method
Anumanchipalli et al. Development of Indian language speech databases for large vocabulary speech recognition systems
JP2004005600A (ja) データベースに格納された文書をインデックス付け及び検索する方法及びシステム
JP2004133880A (ja) インデックス付き文書のデータベースとで使用される音声認識器のための動的語彙を構成する方法
JP3415585B2 (ja) 統計的言語モデル生成装置、音声認識装置及び情報検索処理装置
JP4072718B2 (ja) 音声処理装置および方法、記録媒体並びにプログラム
JP2005227686A (ja) 音声認識装置、音声認識プログラムおよび記録媒体。
JP4758758B2 (ja) 辞書作成装置および辞書作成プログラム
JP2013125144A (ja) 音声認識装置およびそのプログラム
Lee et al. A study on task-independent subword selection and modeling for speech recognition
JP3961780B2 (ja) 言語モデル学習装置およびそれを用いた音声認識装置
US20040006469A1 (en) Apparatus and method for updating lexicon
JP2006012179A (ja) 自然言語処理装置および自然言語処理方法
JP2004133003A (ja) 音声認識辞書作成方法及びその装置と音声認識装置
KR100480790B1 (ko) 양방향 n-그램 언어모델을 이용한 연속 음성인식방법 및장치
JP4528540B2 (ja) 音声認識方法及び装置及び音声認識プログラム及び音声認識プログラムを格納した記憶媒体

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100404

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140404

Year of fee payment: 11

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250