JP3415585B2 - Statistical language model generation device, speech recognition device, and information retrieval processing device - Google Patents
Statistical language model generation device, speech recognition device, and information retrieval processing deviceInfo
- Publication number
- JP3415585B2 JP3415585B2 JP2000378702A JP2000378702A JP3415585B2 JP 3415585 B2 JP3415585 B2 JP 3415585B2 JP 2000378702 A JP2000378702 A JP 2000378702A JP 2000378702 A JP2000378702 A JP 2000378702A JP 3415585 B2 JP3415585 B2 JP 3415585B2
- Authority
- JP
- Japan
- Prior art keywords
- word
- unit
- class
- gram
- mora
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Landscapes
- Document Processing Apparatus (AREA)
- Machine Translation (AREA)
Description
【0001】[0001]
【発明の属する技術分野】本発明は、学習データ及び学
習用テキストデータに基づいて統計的言語モデルを生成
する統計的言語モデル生成装置、上記統計的言語モデル
を用いて、入力される発声音声文の音声信号を音声認識
する音声認識装置、及び上記音声認識装置を用いた情報
検索処理装置 に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a statistical language model generation device for generating a statistical language model based on learning data and learning text data, and an uttered voice sentence input using the statistical language model. Recognition device for recognizing a voice signal of a user, and an information retrieval processing device using the voice recognition device Regarding
【0002】[0002]
【従来の技術】近年、音声認識技術の進展に伴い、音声
認識の大語彙タスクへの適用が盛んに行われている。し
かしながら、大語彙音声認識のパラダイム(特定領域や
時代の支配的な科学的対象把握の方法をいう。)におい
ても、未登録語の問題が完全に解決するわけではない。
特に、人名などの固有名詞に関しては、すべてを網羅す
ることが困難であるといった本質的な問題もある。一方
で、固有名詞にはタスク達成上重要な情報であるものも
多く含まれ、音声認識の実タスク上での運用を考える
際、固有名詞の未登録語処理技術は重要な課題となる。2. Description of the Related Art In recent years, with the progress of voice recognition technology, the application of voice recognition to large vocabulary tasks has been actively performed. However, the paradigm of large vocabulary speech recognition (meaning the method of grasping the dominant scientific object in a specific area or era) does not completely solve the problem of unregistered words.
In particular, with regard to proper names such as personal names, there is an essential problem that it is difficult to cover all of them. On the other hand, many proper nouns are important information for accomplishing the task, and the unregistered word processing technology of proper nouns is an important issue when considering the operation of voice recognition on a real task.
【0003】従来、連続音声認識装置における音素並び
(読み)を含めた未登録語の検出方式としては、以下の
方法が提案されている。
(1)音素タイプライタ等のサブワードデコーダを併用
する方法(以下、第1の従来例の方法という。)、及び
(2)サブワードを擬似的な単語として言語モデルに組
み込む方法(以下、第2の従来例の方法という。)。Conventionally, the following method has been proposed as a method of detecting unregistered words including phoneme sequences (reading) in a continuous speech recognition apparatus. (1) A method of using a subword decoder such as a phoneme typewriter together (hereinafter, referred to as a method of a first conventional example), and (2) A method of incorporating a subword into a language model as a pseudo word (hereinafter, referred to as a second method). It is called the conventional method.).
【0004】[0004]
【発明が解決しようとする課題】しかしながら、第1の
従来例の方法は、別のデコーダを駆動する必要があるた
め、処理量の観点で望ましくない。また、推定未知語区
間の音響スコアには最尤音素系列のスコアが使われるた
め、語彙内単語系列仮説との統合には、ペナルティやし
きい値などのヒューリスティックス(発見的方法)が絡
む。However, the method of the first conventional example is not desirable from the viewpoint of processing amount because it is necessary to drive another decoder. In addition, since the maximum likelihood phoneme sequence score is used as the acoustic score of the estimated unknown word section, heuristics (heuristics) such as penalties and thresholds are involved in the integration with the in-vocabulary word sequence hypothesis.
【0005】一方、第2の従来例の方法は、デコーダの
変更なしに実現できる利点がある。しかしながら、サブ
ワード系列として得られる未登録語に対し有効な言語処
理を行うためには、後処理として、認識語彙よりも大き
な語彙による形態素解析などを要する。また、単語とサ
ブワード、あるいは、サブワード間のN−gram確率
で、言語的特質を十分反映するモデル化ができるとは考
えにくく、認識制約としての有効性に疑問が残る。On the other hand, the method of the second conventional example has an advantage that it can be realized without changing the decoder. However, in order to perform effective language processing on unregistered words obtained as a subword sequence, morphological analysis using a vocabulary larger than the recognized vocabulary is required as post-processing. Moreover, it is unlikely that a model that sufficiently reflects linguistic characteristics can be modeled by the word and the subword, or the N-gram probability between the subwords, and the effectiveness as a recognition constraint remains questionable.
【0006】また、電話機における音声認識及び自動ダ
イヤリング機能や、カーナビゲーションなどの小規模の
情報検索装置において、辞書登録の数が限定されるた
め、対象となる固有名詞の数が限定される。このような
場合において、対象の固有名詞が声認識装置とは別のシ
ステムで管理されるとき、音声認識装置への登録はでき
ず、音声認識率を向上させることができない。Further, in a small-scale information search device such as a voice recognition and automatic dialing function in a telephone or a car navigation, the number of dictionary registrations is limited, so that the number of proper proper nouns is limited. In such a case, when the proper noun of the object is managed by a system different from the voice recognition device, it cannot be registered in the voice recognition device and the voice recognition rate cannot be improved.
【0007】本発明の目的は以上の問題点を解決し、単
語辞書において未登録の未登録語に関する音声認識の精
度を従来例に比較して高くすることができ、未登録語の
区間やクラスを同定する統計的言語モデルを生成するこ
とができる統計的言語モデル生成装置及び、統計的言語
モデル生成装置を用いた音声認識装置を提供することに
ある。The object of the present invention is to solve the above problems and to improve the accuracy of voice recognition for unregistered unregistered words in a word dictionary as compared with the conventional example. (EN) Provided are a statistical language model generation device capable of generating a statistical language model for identifying and a speech recognition device using the statistical language model generation device.
【0008】また、本発明の別の目的は、電話機におけ
る音声認識及び自動ダイヤリング機能や、カーナビゲー
ションなどの小規模の情報検索処理装置において、単語
辞書において未登録の未登録語に関する音声認識の精度
を従来例に比較して高くすることができる音声認識装置
を用いて情報検索を実行することができる情報検索処理
装置を提供することにある。Another object of the present invention is to provide a voice recognition and automatic dialing function in a telephone and a small-scale information retrieval processing device such as a car navigation system for voice recognition of unregistered words in a word dictionary. An object of the present invention is to provide an information search processing device capable of executing information search by using a voice recognition device whose accuracy is higher than that of the conventional example.
【0009】[0009]
【0010】[0010]
【0011】[0011]
【0012】[0012]
【0013】[0013]
【0014】[0014]
【課題を解決するための手段】
本発明に係る請求項1記
載の統計的言語モデル生成装置は、固有名詞又は外来語
の普通名詞の単語リストを含む学習データを格納する学
習データ記憶手段と、上記学習データ記憶手段に格納さ
れた学習データに基づいて、上記学習データにおけるモ
ーラ長に対する単語数の割合が実質的にガンマ分布に従
うと仮定したときのモーラ長のガンマ分布のパラメータ
をクラスに依存して推定して計算するとともに、モーラ
又はモーラ連鎖であるサブワード単位で、上記固有名詞
又は外来語の普通名詞の下位クラスであるクラスを有す
る第1のN−gramの出現確率を計算することにより
未登録語をモデル化したサブワード単位N−gramモ
デルを生成する第1の生成手段と、所定のテキストデー
タベースに基づいて生成された単語クラスN−gram
モデルと、上記第1の生成手段によって生成されたサブ
ワード単位N−gramモデルと、上記第1の生成手段
によって計算されたモーラ長のガンマ分布のパラメータ
とに基づいて、上記単語クラスと、上記固有名詞又は外
来語の普通名詞の下位クラスであるクラスとに依存した
第2のN−gramの出現確率を計算することによりサ
ブワード単位に基づいた未登録語を含む統計的言語モデ
ルを生成する第2の生成手段とを備えたことを特徴とす
る。Statistical language model generating apparatus according to claim 1, wherein according to the present invention SUMMARY OF THE INVENTION comprises a learning data storage means for storing the learning data including a word list of common nouns proper nouns or foreign language, Based on the learning data stored in the learning data storage means, the parameter of the gamma distribution of the mora length when the ratio of the number of words to the mora length in the learning data substantially assumes the gamma distribution depends on the class. It is not possible to estimate and calculate the first N-gram that has a class that is a subclass of the proper noun or the common noun of the foreign word, in units of subwords that are mora or mora chain. Based on a first generation unit that generates a subword unit N-gram model that models a registered word, and a predetermined text database The generated word class N-gram
The word class and the uniqueness based on the model, the sub-word unit N-gram model generated by the first generating unit, and the gamma distribution parameter of the mora length calculated by the first generating unit. Second, a statistical language model including unregistered words based on subword units is generated by calculating the probability of occurrence of a second N-gram depending on a class that is a subclass of a noun or a common noun of a foreign word. And a means for generating
【0015】また、請求項2記載の統計的言語モデル生
成装置は、請求項1記載の統計的言語モデル生成装置に
おいて、上記第1の生成手段によって生成されたサブワ
ード単位N−gramモデルに基づいて、上記サブワー
ド単位を抽出し、抽出したラベルを上記サブワード単位
に付与することにより、サブワード単位当たり複数のラ
ベル付きサブワード単位のデータを生成する第3の生成
手段と、上記テキストデータベースから抽出された単語
と、上記第3の生成手段によって生成された複数のラベ
ル付きサブワード単位のデータとに対して音素並びを付
与することにより単語辞書を生成する第4の生成手段と
をさらに備えたことを特徴とする。Further, the statistical language model generating apparatus according to claim 2, in a statistical language model generating apparatus according to claim 1, based on the subword unit N-gram model generated by said first generating means A third extraction means for extracting the sub-word unit and assigning the extracted label to the sub-word unit to generate a plurality of labeled sub-word unit data per sub-word unit; and the word extracted from the text database. And fourth generating means for generating a word dictionary by adding a phoneme arrangement to the plurality of labeled subword unit data generated by the third generating means. To do.
【0016】またさらに、本発明に係る請求項3記載の
音声認識装置は、入力される発声音声文の音声信号に基
づいて、所定の統計的言語モデルを用いて音声認識する
音声認識手段を備えた音声認識装置において、上記音声
認識手段は、請求項1又は2記載の統計的言語モデル生
成装置によって生成された統計的言語モデルと、請求項
2記載の第4の生成手段によって生成された単語辞書と
を用いて音声認識することを特徴とする。Furthermore, a voice recognition device according to a third aspect of the present invention comprises a voice recognition means for recognizing a voice by using a predetermined statistical language model based on a voice signal of an input uttered voice sentence. In the voice recognition device described above, the voice recognition means is a statistical language model generated by the statistical language model generation device according to claim 1 or 2, and
It is characterized in that voice recognition is performed using the word dictionary generated by the fourth generating means described in 2 .
【0017】また、本発明に係る請求項4記載の情報検
索処理装置は、上記単語リストに対応する普通名詞の単
語データとそれに対応する情報とを含むデータベースを
記憶するデータベース記憶手段と、請求項3記載の音声
認識装置から出力される音声認識結果の文字列をキーと
して用いて、上記データベース記憶手段に記憶されたデ
ータベースから検索して、一致する単語データに対応す
る情報を上記データベース記憶手段から読み出して出力
する検索手段とを備えたことを特徴とする。According to a fourth aspect of the present invention, there is provided an information retrieval processing device, which comprises a database storage means for storing a database including word data of common nouns corresponding to the word list and information corresponding to the data. Using the character string of the voice recognition result output from the voice recognition device described in No. 3 as a key, the database stored in the database storage means is searched, and the information corresponding to the matching word data is retrieved from the database storage means. And a retrieval means for reading and outputting.
【0018】さらに、請求項5記載の情報検索処理装置
は、請求項4記載の情報検索処理装置において、さら
に、上記検索手段から出力される情報に基づいて、所定
の処理を実行する処理実行手段を備えたことを特徴とす
る。Further, the information search processing device according to a fifth aspect is the information search processing device according to the fourth aspect , further comprising processing execution means for executing a predetermined process based on the information output from the search means. It is characterized by having.
【0019】[0019]
【0020】[0020]
【発明の実施の形態】以下、図面を参照して本発明に係
る実施形態について説明する。DETAILED DESCRIPTION OF THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.
【0021】<第1の実施形態>図1は、本発明に係る
第1の実施形態である連続音声認識システムのブロック
図である。本発明に係る第1の実施形態の連続音声認識
システムは、未登録語モデル生成部20と、サブワード
単位データ生成部21と、単語辞書生成部22と、単語
クラスN−gramモデル生成部23と、言語モデル生
成部24とを備えた統計的言語モデル生成装置を備えた
ことを特徴としている。<First Embodiment> FIG. 1 is a block diagram of a continuous speech recognition system according to a first embodiment of the present invention. The continuous speech recognition system according to the first embodiment of the present invention includes an unregistered word model generation unit 20, a subword unit data generation unit 21, a word dictionary generation unit 22, and a word class N-gram model generation unit 23. And a statistical language model generation device including the language model generation unit 24.
【0022】本実施形態では、未登録語を含む音声の高
精度な認識を可能とする、新しい統計的言語モデルを生
成する統計的言語モデル生成装置を開示する。本実施形
態の統計的言語モデルは、(1)学習データメモリ30
内の学習データに基づいて未登録語モデル生成部20に
よって生成された、未登録語認識用の複数の未登録語モ
デルである、サブワード単位N−gramモデル及びモ
ーラ長ガンマ分布データと、(2)テキストデータメモ
リ31内のテキストデータに基づいて単語クラスN−g
ramモデル生成部23によって生成された単語クラス
N−gramモデルと、に基づいて言語モデル生成部2
4によって統計的言語モデルが生成される。The present embodiment discloses a statistical language model generation device for generating a new statistical language model, which enables highly accurate recognition of speech including unregistered words. The statistical language model of this embodiment is (1) learning data memory 30.
Subword unit N-gram model and mora length gamma distribution data, which are a plurality of unregistered word models for unregistered word recognition, which are generated by the unregistered word model generation unit 20 based on the learning data in ) The word class Ng based on the text data in the text data memory 31.
The language model generation unit 2 based on the word class N-gram model generated by the ram model generation unit 23.
4 produces a statistical language model.
【0023】これらの未登録語モデルは、各語彙クラス
に依存して構築される。ここで、サブワードとは、単語
よりも小さい単位をいい、具体的にはモーラ又はモーラ
連鎖をいう。モーラとは、韻律論において、強勢や抑揚
などの単位となる音の相対的な長さをいい、1モーラは
短母音を含む1音節の長さに相当する。日本語では、ほ
ぼ「かな」1字(拗音では2字)がこれに相当する。以
下では、固有名詞の下位クラスである、日本人姓及び名
の未登録語に対象を限定して説明する。These unregistered word models are constructed depending on each vocabulary class. Here, the subword means a unit smaller than a word, and specifically means a mora or a mora chain. A mora is a relative length of a sound that is a unit of stress or intonation in prosody theory, and one mora corresponds to one syllable including a short vowel. In Japanese, this corresponds to almost one "kana" character (two characters in Japanese syllabary). In the following, the description is limited to unregistered words of Japanese surnames and surnames, which are subclasses of proper nouns.
【0024】本発明者は、(1)表1に示すように約3
0万の日本人の姓のモーラ並び(読み)のデータを含む
日本人姓ファイル30aと、(2)表2に示すように約
30万の日本人の名のモーラ並び(読み)のデータを含
む日本人名ファイル30bとを含む学習データを学習デ
ータメモリ30に格納した。The present inventor has (1) about 3 as shown in Table 1.
The Japanese surname file 30a containing the data of the mora arrangement (reading) of the 0,000 Japanese surnames and (2) the data of the mora arrangement (reading) of the approximately 300,000 Japanese first names as shown in Table 2. The learning data including the Japanese name file 30b including the learning data is stored in the learning data memory 30.
【0025】[0025]
【表1】 ―――――――――――― ス,ズ,キ タ,カ,ハ,シ サ,イ,ト,オ タ,ナ,カ ヒ,ラ,ツ,ジ ア,サ,ギ,ノ …… ――――――――――――[Table 1] ―――――――――――― Suzuki Ta, Ka, Ha, Shi Sa, Lee, To, Oh Ta, na, mosquito Hi, La, Tsu, Ji A, sa, gi, no ...... ――――――――――――
【0026】[0026]
【表2】 ――――――――――――――――――――――――――――――――――― ヨ,オ,コ ト,モ,エ ト,モ,コ ケ,イ,コ …… ―――――――――――――――――――――――――――――――――――[Table 2] ――――――――――――――――――――――――――――――――――― Yo, Oh, Ko Tomo, D To, mo, ko Ke, Lee, Ko ...... ―――――――――――――――――――――――――――――――――――
【0027】上記学習データに基づく、本発明者による
日本人姓及び名データの分析及び分析結果について説明
する。日本人の姓や名をサブワードの系列として眺める
とき、次の特徴を有することが容易に予想される。
(1)長さに関する特徴:姓ではスズキ、サトウ、タカ
ハシなど、名ではヒロシ、アキラ、イチロウなど、3な
いし4モーラ長の名前が一般的である。
(2)音素並びに関する特徴:日本人の姓及び名は、基
本的に漢字で構成されており、姓ではヤマ、ムラ、ナカ
など、名ではロウ、イチ、ヒロなど、高頻度の単位が存
在する。The analysis and the analysis result of the Japanese surname and first name data by the present inventor based on the above learning data will be described. When viewing Japanese surnames and given names as a series of subwords, it is easily expected to have the following characteristics. (1) Features concerning length: Suzuki, Sato, Takahashi, etc. are the surnames, and Hiroshi, Akira, Ichiro, etc. are the names with 3 to 4 moras. (2) Features related to phoneme alignment: Japanese surnames and given names are basically composed of kanji, and there are high-frequency units such as Yama, Mura, and Naka for surnames, and Rou, Ichi, and Hiro for names. To do.
【0028】本発明者は、こうした観点から、日本人姓
及び名の読みに関する統計的特徴を分析した。人名デー
タとしては約30万人の著名人の名前を集録した公知の
人名リストを用いた。この学習データから、漢字と平仮
名のみで構成される姓及び名を日本人名として抽出し、
得られた姓303,552人分、名295,148人分
を対象に分析を行い、その結果を表3に示す。併せて比
較のため、日本人姓及び名以外の単語の特徴を分析す
る。比較する学習データとしては、本特許出願人が所有
する自然発話旅行会話データベースより、日本人姓及び
名を除いた、のべ1,155,183単語を用いた。From this viewpoint, the present inventor analyzed the statistical characteristics of reading Japanese surnames and given names. As the personal name data, a publicly known personal name list in which names of approximately 300,000 famous persons are collected was used. From this learning data, we extract the surname and given name consisting of only kanji and hiragana as Japanese names,
The obtained 303,552 first names and 295,148 first names were analyzed, and the results are shown in Table 3. For comparison, we also analyze the characteristics of words other than Japanese surnames and given names. As learning data for comparison, a total of 1,155,183 words excluding Japanese surnames and given names from the natural speech travel conversation database owned by the applicant of the present patent application were used.
【0029】[0029]
【表3】 モデルの学習データ ――――――――――――――――――――――――――――――――――― 日本人名 姓 名 旅行会話 ――――――――――――――――――――――――――――――――――― 単語総数 303,552 295,148 1,161,576 異なり語彙 19,018 20,413 13,453 ――――――――――――――――――――――――――――――――――― (注)日本人名の異なり語彙は、音素並び又は読みの異なり単語で評価し、漢字 表記の違いは無視した[Table 3] Model learning data ―――――――――――――――――――――――――――――――――――― Japanese First Name First Name Last Name Travel Conversation― ―――――――――――――――――――――――――――――――――― Total number of words 303,552 295,148 1,161,576 Different vocabulary 19 , 018 20,413 13,453 ――――――――――――――――――――――――――――――――――― (Note) Different Japanese names The vocabulary was evaluated by words with different phoneme sequences or different readings, and differences in kanji notation were ignored.
【0030】本発明者が分析した単語の長さに関する統
計を図6に示す。長さの単位としては、モーラ数を用い
た。この結果から、日本人姓及び名の長さが3、4モー
ラを中心に非常に偏った分布を持つことが確認できる。
3、4モーラを合わせると、姓及び名ともにほぼ9割の
人名が該当することになる。次に、モーラの並びに関す
る統計を表4に示す。モーラ並びの偏りの指標として、
頻度上位N種類のモーラ二連鎖による、モーラ並びの被
覆率を調べた。ここで、被覆率とは、すべてのモーラの
中での二連鎖の占める割合をいう。FIG. 6 shows statistics about the length of words analyzed by the present inventor. The Mora number was used as the unit of length. From this result, it can be confirmed that the Japanese surnames and given names have a distribution that is extremely biased around 3, 4 mora.
If 3 and 4 moras are combined, almost 90% of the names correspond to both surname and given name. Next, Table 4 shows statistics on the arrangement of mora. As an index of the bias of mora alignment,
The coverage of the mora array by the two most-frequent mora two chains was investigated. Here, the coverage means a ratio of two chains in all mora.
【0031】[0031]
【表4】 モーラ並びの偏り ――――――――――――――――――――――――――――――――――― 二連鎖モーラの種類 モーラ並びの被覆率(%) (頻度上位N種類) 日本人名 姓 名 旅行会話 ――――――――――――――――――――――――――――――――――― 1 3.8 4.9 0.1 10 23.3 28.3 5.1 100 59.8 66.6 19.4 1000 84.3 82.4 35.6 ――――――――――――――――――――――――――――――――――― (注)頻度上位N種類の二連鎖モーラによる。モーラ並びの被覆率(%)。奇数 長の単語があるため、被覆率が100%になることはない。[Table 4] Bias of mora arrangement ―――――――――――――――――――――――――――――――――――― Two-chain mora types Mora arrangement Coverage rate (%) (top N types by frequency) Japanese first name First name First name Travel conversation ―――――――――――――――――――――――――――――――― ――― 1 3.8 4.9 0.1 10 23.3 28.3 5.1 100 100 59.8 66.6 19.4 1000 84.3 82.4 35.6 ――――――― ―――――――――――――――――――――――――――― (Note) Based on the most frequent N types of two-chain mora. Coverage (%) of mora. Since there are words of odd length, the coverage will not be 100%.
【0032】例えば、日本人姓及び名では、それぞれの
高頻度1000種類のモーラ二連鎖だけで、姓及び名に
おけるモーラ並びの8割以上が被覆される。For example, for Japanese surnames and given names, 80% or more of the mora arrangements in the surnames and given names are covered only by the high-frequency 1000 kinds of mora two chains.
【0033】次いで、日本人姓及び名の未登録語モデル
に基づく統計的言語モデルの生成方法について詳述す
る。上述で得られた知見に基づき、日本人姓及び名クラ
スの未登録語モデルに基づく統計的言語モデルを構築す
る。また、デコーディングの観点から、統計的言語モデ
ルは、近年広く用いられているN−gram形式で取り
扱えることが望ましく、本実施形態では、本未登録語モ
デルを単語N−gram形式で実装する。Next, a method of generating a statistical language model based on unregistered word models of Japanese surnames and given names will be described in detail. Based on the knowledge obtained above, a statistical language model based on the unregistered word model of Japanese surname and first name class is constructed. Further, from the viewpoint of decoding, it is desirable that the statistical language model can be handled in the N-gram format which has been widely used in recent years, and in this embodiment, the unregistered word model is implemented in the word N-gram format.
【0034】まず、未登録語を含む単語系列のモデル化
について説明する。本実施形態に係る統計的言語モデル
のベースとなるのは、単語のクラスN−gramモデル
である。この単語クラスN−gramモデルは、単語ク
ラスN−gramモデル生成部23により、テキストデ
ータベースメモリ31に格納された多数の日本語の書き
下し文からなるコーパスと呼ばれるテキストデータに基
づいて、例えば公知の最尤推定法を用いて単語のクラス
タリングを行って単語クラスN−gramモデルを生成
し、このモデルを単語クラスN−gramモデルメモリ
43に格納する。First, modeling of a word series including unregistered words will be described. The basis of the statistical language model according to this embodiment is the class N-gram model of words. The word class N-gram model is generated by the word class N-gram model generation unit 23 based on text data called a corpus composed of a large number of Japanese written sentences stored in the text database memory 31, for example, a known maximum likelihood. Word clustering is performed using the estimation method to generate a word class N-gram model, and this model is stored in the word class N-gram model memory 43.
【0035】単語クラスN−gramモデルでは、単語
系列W=w1,w2,w3,w4,…,wTの言語的尤度p
h(W)が一般に次式で与えられる。ただし、wtは単
語系列Wのt番目の単語であり、cwtは単語wtの語彙
クラスを表わすものとする。In the word class N-gram model, the linguistic likelihood p of the word sequence W = w 1 , w 2 , w 3 , w 4 , ..., W T.
h (W) is generally given by the following equation. However, w t is the t-th word of the word sequence W, and c wt represents the vocabulary class of the word w t .
【0036】[0036]
【数1】 [Equation 1]
【0037】ところで、単語wt(以下、1つの単語を
wで表す。)には認識語彙にない未登録語が含まれてい
る。これら未登録語の生起確率を音素並び(又は読み)
の統計的特徴に基づいて推定するとき、上記数1中のク
ラス内単語1−gram確率p(w|cw)は次式によ
り与えられる。ただし、Mwは単語wのモーラ系列を表
す。By the way, the word w t (hereinafter, one word is represented by w) includes an unregistered word which is not in the recognition vocabulary. The occurrence probabilities of these unregistered words are arranged in phonemes (or read).
When estimated on the basis of the statistical characteristics of, the in-class word 1-gram probability p (w | c w ) in the above equation 1 is given by the following equation. However, M w represents the mora sequence of the word w.
【0038】[0038]
【数2】(1)もしw∈単語辞書のとき
p(w|cw)≡(1−p(OOV|cw))・p(w|
cw,inVoc),
(2)もし上記以外のとき
p(w|cw)≡p(OOV|cw)・p(Mw|cw,O
OV)(2) (1) If w ∈ word dictionary, p (w | c w ) ≡ (1-p (OOV | c w )) · p (w |
c w , inVoc), (2) If other than the above, p (w | c w ) ≡p (OOV | c w ) · p (M w | c w , O
OV)
【0039】ここで、単語辞書は、単語辞書メモリ12
に格納される語彙辞書であり、OOVは未登録語であ
り、inVocは単語辞書内の条件を表す。上記数2に
おいて、確率p(OOV|cw)は、クラスから未登録
語が生起する確率であり、例えば公知の方法(例えば、
従来技術文献「政瀧ほか,“品詞及び可変長形態素列の
複合N−gramを用いた形態素解析”,言語処理学会
会誌「自然言語処理」,Vol.6,No.2,pp.
41−57,1999年」など参照。)で推定できる。
この推定方法について説明すると、公知のチューリング
(Turing)推定法を用いたとき、データ上にr回
出現する形態素は、次式のr*回と推定される。Here, the word dictionary is the word dictionary memory 12
Is a vocabulary dictionary stored in, OOV is an unregistered word, and inVoc represents a condition in the word dictionary. In the above equation 2, the probability p (OOV | c w ) is the probability that an unregistered word will occur from the class, and for example, a known method (for example,
Prior art document "Masaki Taki et al.," Morphological analysis using complex N-gram of part-of-speech and variable length morpheme sequence ", Journal of the Language Processing Society" Natural Language Processing ", Vol. 6, No. 2, pp.
41-57, 1999 ". ) Can be estimated.
This estimation method will be described. When a known Turing estimation method is used, a morpheme that appears r times in the data is estimated to be r * times in the following equation.
【0040】[0040]
【数3】r*={(r+1)nr+1}/nr ## EQU3 ## r * = {(r + 1) n r + 1 } / n r
【0041】ここで、nrはデータ上にr回出現した形
態素の種類数を表す。従って、r回出現する形態素wの
品詞からの出現確率P(w|cξ)は、次式で表され
る。Here, n r represents the number of types of morphemes that appear r times in the data. Therefore, the appearance probability P (w | c ξ ) from the part of speech of the morpheme w that appears r times is represented by the following equation.
【0042】[0042]
【数4】P(w|cξ)=r*/N(cξ)## EQU4 ## P (w | c ξ ) = r * / N (c ξ )
【0043】上記出現確率P(w|cξ)を、クラスc
ξに属する全ての形態素について計算し、次式に示すよ
うに、1から引いた残りが品詞cξから未知語出現する
確率P(ch ξ)である。The appearance probability P (w | c ξ ) is given as a class c
All the morphemes belonging to ξ are calculated, and the remainder subtracted from 1 is the probability P (c h ξ ) of the unknown word appearing from the part of speech c ξ as shown in the following expression.
【0044】[0044]
【数5】 [Equation 5]
【0045】本実施形態では、限られた評価セット上で
未登録語モデルの有効な評価を行うことに主眼を置き、
次式を用いてモデル化を行う。すなわち、未登録語の生
起は予め規定したいくつかのクラス(ここで、クラスの
集合をCOOVという。)のみに許すこととし、これらク
ラスからの単語生起は全て未登録語モデルで説明するこ
ととし、登録語を作らない。In the present embodiment, focusing on effective evaluation of unregistered word models on a limited evaluation set,
Modeling is performed using the following formula. That is, the occurrence of unregistered words should be allowed only to some predefined classes (herein, a set of classes is called C OOV ), and all the word occurrences from these classes should be explained by the unregistered word model. And do not make a registered word.
【0046】[0046]
【数6】 [Equation 6]
【数7】 [Equation 7]
【0047】次いで、日本人姓及び名の未登録語モデル
について説明する。上述したように、日本人姓及び名の
読みには、モーラ長、及びモーラ並び、それぞれに関し
て特徴的な傾向が見られた。従って、上記数7の未登録
語モデルp(Mw|cw)は、次式のように展開すること
により、高精度なモデル化が可能となる。ただし、le
n(Mw)は単語wのモーラ長を表す。Next, the unregistered word model of Japanese surnames and given names will be described. As described above, the reading of Japanese surnames and surnames showed characteristic tendencies for the mora length and mora arrangement. Therefore, the unregistered word model p (M w | c w ) of the above equation 7 can be modeled with high accuracy by expanding as in the following equation. However, le
n (M w ) represents the mora length of the word w.
【0048】[0048]
【数8】p(Mw|cw)=p(len(Mw)|cw)・
p(Mw|cw,len(Mw))## EQU8 ## p (M w | c w ) = p (len (M w ) | c w ).
p (M w | c w , len (M w ))
【0049】上記数8の確率p(len(M)|c)
は、日本人姓又は名クラスにおいて、長さlen(M)
の単語が生起する確率である。本実施形態では、その確
率分布が次式で与えられるガンマ分布に実質的に従うこ
とを仮定する。すなわち、上記数8の右辺は、第1項の
モーラ長のガンマ分布の確率と、第2項のサブワード単
位バイグラムの確率との掛け算になっている。ただし、
α,λはクラスcに依存するパラメータであり、モーラ
長の平均と分散より定まる。The probability p (len (M) | c) of the above equation 8
Is the length len (M) in the Japanese surname or surname class
Is the probability that the word will occur. In this embodiment, it is assumed that the probability distribution substantially follows the gamma distribution given by the following equation. That is, the right side of the above equation 8 is a product of the probability of the gamma distribution of the mora length of the first term and the probability of the subword unit bigram of the second term. However,
α and λ are parameters depending on the class c, and are determined by the average and variance of the mora length.
【0050】[0050]
【数9】 ここで、[Equation 9] here,
【数10】 [Equation 10]
【0051】一方、上記数8の確率p(Mw|cw,le
n(Mw))は、クラスcwにおいて長さlen(Mw)
のモーラ並びがMw=m1 w,m2 w,…となる確率であ
り、次式のサブワード単位N−gramによりモデル化
する。ただし、U=u1,u2,…は詳細後述する手法で
自動獲得したサブワード単位(モーラ又はモーラ連鎖)
の系列である。また、式中のサブワード単位N−gra
mには終端記号への遷移を含まない。On the other hand, the probability p (M w | c w , le of the above equation 8 is
n (M w )) has length len (M w ) in class c w
Is a probability that the mora arrangement of M w = m 1 w , m 2 w , ... Is modeled by the subword unit N-gram of the following equation. However, U = u 1 , u 2 , ... Is a subword unit (mora or mora chain) automatically acquired by the method described later in detail.
It is a series of. In addition, subword unit N-gra in the formula
The transition to the terminal symbol is not included in m.
【0052】[0052]
【数11】 [Equation 11]
【0053】以上述べてきた本実施形態に係る統計的言
語モデルにおいて、「...あさぎ野 陽子 と
...」が出力される例を図7に示す。例では、日本
人姓及び名クラスの単語「あさぎ野」、「陽子」に対し
て、クラスラベル付きモーラ系列「アサギノ(日
姓)」、「ヨオコ(日名)」が出力される。本モデルで
は、日本人姓及び名の生起に対して、次の3レベルから
言語的制約をかける。In the statistical language model according to this embodiment described above, “... Asagino Yoko and
. . . 7 shows an example in which "" is output. In the example, the mora series “Asagino (day surname)” and “Yoko (day name)” with class labels are output for the words “Asagino” and “Yoko” in the Japanese surname and given name class. In this model, linguistic restrictions are imposed on the occurrence of Japanese surnames and given names from the following three levels.
【0054】<3レベルの言語的制約>
(1)単語間制約:単語のクラスN−gramを用い、
単語コンテキストにおいて日本人姓及び名(クラス)が
生起する尤度を評価する。サブワードによる姓及び名の
モデル化は下位の階層に隠蔽されるため、登録語系列の
モデル化には悪影響を及ぼさない。
(2)姓及び名区間の継続長制約:姓及び名それぞれの
モーラ長に関するガンマ分布を用い、区間の姓及び名ら
しさを評価する。この制約により、不当に短い、もしく
は長いモーラ系列の湧き出しを防ぐことができる。
(3)サブワードの並び制約:モーラとモーラ連鎖を単
位とする姓及び名のサブワード単位N−gramを用い
る。モーラ連鎖を単位とすることで、N−gramの高
精度化が期待できる。ここで、モデル化単位とするモー
ラ連鎖は、後述する繰り返し学習において自動的に獲得
する。<Three-Level Linguistic Constraints> (1) Interword Constraints: Using a class N-gram of words,
Evaluate the likelihood of Japanese surnames and given names (classes) occurring in a word context. The modeling of surnames and given names by subwords is hidden in the lower hierarchy, and therefore does not adversely affect the modeling of registered word sequences. (2) Continuation length constraint of family name and first name section: The family name and first name likeness of the section are evaluated using the gamma distribution regarding the mora length of each family name and first name. With this restriction, it is possible to prevent the emergence of an unduly short or long mora sequence. (3) Subword arrangement constraint: A subword unit N-gram of a family name and a given name in units of a mora and a mora chain is used. By using the mora chain as a unit, higher accuracy of N-gram can be expected. Here, the mora chain as a modeling unit is automatically acquired in the iterative learning described later.
【0055】次いで、未登録語モデル生成部20によっ
て実行される未登録語モデルの学習生成処理について説
明する。未登録語モデル生成部20は、学習データメモ
リ30に格納された日本人姓ファイル30a及び日本人
名ファイル30bに基づいて、日本人の姓クラス(ラベ
ルでは、日姓と略記する。)及び日本人の名クラス(ラ
ベルでは、日名と略記する。)の未登録語モデルを構築
する。この学習生成処理では、具体的には、サブワード
単位N−gramモデルとモーラ長ガンマ分布のデータ
を生成する。以下の実施形態では、個人名はそれぞれ等
しい確率で出現するとし、各姓又は各名の観測頻度とし
て人名リスト中の同姓者又は同名者の人数を用いること
とする。サブワード単位N−gramには、初期単位セ
ットとして単一モーラのみを与え、後述の繰り返し学習
において、逐次的に新たなモーラ連鎖を単位セットに追
加していく。これら単位候補となるモーラ連鎖には頻度
による予備選択を施すことで、学習の効率化を図った。Next, an unregistered word model learning generation process executed by the unregistered word model generation unit 20 will be described. The unregistered word model generation unit 20, based on the Japanese surname file 30a and the Japanese name file 30b stored in the learning data memory 30, the Japanese surname class (abbreviated as Japanese surname in the label) and Japanese. An unregistered word model of the first name class (abbreviated as day name in the label) is constructed. In this learning generation process, specifically, subword unit N-gram model and mora length gamma distribution data are generated. In the following embodiments, it is assumed that individual names appear with equal probability, and the same surname or the number of same names in the personal name list is used as the observation frequency of each surname or each name. Only a single mora is given to the sub-word unit N-gram as an initial unit set, and new mora chains are sequentially added to the unit set in iterative learning described later. The mora chain, which is a unit candidate, is pre-selected according to frequency to improve learning efficiency.
【0056】図3は、図1の未登録語モデル生成部20
によって実行される未登録語モデル生成処理を示すフロ
ーチャートであり、図4は、図3のサブルーチンである
サブワード2−gramの単位決定処理(ステップS
4)を示すフローチャートである。FIG. 3 shows the unregistered word model generator 20 of FIG.
FIG. 4 is a flowchart showing an unregistered word model generation process executed by FIG. 4, and FIG. 4 is a subword 2-gram unit determination process (step S in FIG. 3) which is a subroutine of FIG.
It is a flow chart which shows 4).
【0057】未登録語モデルの学習データとして、モー
ラ系列で表現された姓及び名のリストを用い、このリス
トデータはそれぞれ学習データメモリ30内の日本人姓
ファイル30a及び日本人名ファイル30bに格納され
ている。この学習データは先の表1及び表2の通りであ
って、各モーラをカンマ「,」で区切って表記してあ
る。この学習データに基づいて、未登録語モデル、すな
わち、モーラ長のガンマ分布とサブワード単位N−gr
amモデルを生成する。以下では、N−gramの次数
Nが2の場合について、未登録語モデルの生成手順を説
明する。As the learning data of the unregistered word model, a list of surnames and first names expressed in the Mora series is used, and the list data are stored in the Japanese surname file 30a and the Japanese name file 30b in the learning data memory 30, respectively. ing. This learning data is as shown in Tables 1 and 2 above, and each mora is described by being separated by a comma ",". Based on this learning data, an unregistered word model, that is, gamma distribution of mora length and subword unit N-gr
Generate an am model. In the following, a procedure for generating an unregistered word model will be described for the case where the degree N of N-gram is 2.
【0058】図3のステップS1において学習データメ
モリ30から学習データを読み出し、ステップS2にお
いて、読み出した学習データに基づいて、姓又は名の1
単語当たりのモーラ数の平均μと分散Vを計算した後、
次式を用いてモーラ長のガンマ分布のパラメータを推定
する。In step S1 of FIG. 3, the learning data is read from the learning data memory 30, and in step S2, the family name or first name is set to 1 based on the read learning data.
After calculating the average μ and the variance V of the number of mora per word,
The parameters of the gamma distribution of the mora length are estimated using the following formula.
【0059】[0059]
【数12】λ=V/μ(12) λ = V / μ
【数13】α=μ2/V[Formula 13] α = μ 2 / V
【0060】さらに、ステップS3において上記学習デ
ータに基づいて、サブワード単位2−gramの単位候
補となる、高頻度のモーラ連鎖を抽出し、抽出した単位
候補を「単位候補セット」と呼ぶ。ここでは、学習デー
タ上に出現する、例えば長さ2以上の全てのモーラ連鎖
に対して、その頻度を調べ、頻度が所定の値(=10
0)以上のモーラ連鎖を単位候補として抽出する。次い
で、ステップS4において、図4に示すサブルーチンで
あるサブワード2−gramの単位決定処理を実行し、
最後に、ステップS5において、学習終了後の暫定未登
録語モデルをサブワード単位N−gramモデルとして
サブワード単位モデルN−gramモデルメモリ40に
格納するとともに、モーラ長のガンマ分布のデータをモ
ーラ長ガンマ分布データメモリ41に格納する。Further, in step S3, a high-frequency mora chain, which is a unit candidate of the subword unit 2-gram, is extracted based on the learning data, and the extracted unit candidate is called a "unit candidate set". Here, the frequency of all mora chains appearing on the learning data, for example, all the mora chains having a length of 2 or more is examined, and the frequency is a predetermined value (= 10).
0) The above mora chains are extracted as unit candidates. Next, in step S4, the unit determination process of the sub word 2-gram, which is the subroutine shown in FIG. 4, is executed,
Finally, in step S5, the provisional unregistered word model after the learning is stored in the subword unit model N-gram model memory 40 as a subword unit N-gram model, and the mora length gamma distribution data is stored. The data is stored in the data memory 41.
【0061】図4のサブワード2−gramの単位決定
処理においては、まず、ステップS11において確定単
位セットにすべての単一のモーラを挿入し、ステップS
12において単位候補セットの中から1つのモーラ連鎖
を選択する。次いで、ステップS13において選択した
モーラ連鎖は確定単位セットに含まれているか否かを判
断し、YESのときはステップS15に進む一方、NO
のときは、ステップS14に進む。ステップS14にお
いて選択したモーラ連鎖を確定単位セットに追加して、
公知の最尤推定法を用いて暫定サブワード2−gram
モデルを生成してステップS15に進む。ここで、2−
gramモデルは、学習データと追加セットとの間の1
−gramと、追加セットのみの0−gramを用い
て、公知の削除補間法(例えば、従来技術文献「中川聖
一,”確率モデルによる音声認識”,社団法人電子情報
通信学会編,pp.63−64,昭和63年7月1日発
行」など参照。)を用いて補間して生成する。この暫定
サブワード2−gramと、モーラ長のガンマ分布デー
タを合わせて「暫定未登録語モデル」と呼ぶ。ステプS
15においては、すべてのモーラ連鎖について上記ステ
ップS13及びS14の処理したか否かを判断し、NO
であるときはステップS12に戻り上記の処理を繰り返
すが、YESのときはステップS16に進む。ステップ
S16において各暫定未登録語モデルに対して数8を用
いて平均尤度を計算し、平均尤度を最大にする暫定未登
録語モデルの単位セットを新しい確定単位セットとす
る。そして、ステップS17において確定単位セットに
含まれるモーラ連鎖の数≧所定のしきい値Nth(例え
ば、150である。)であるか否かが判断され、NOの
ときはステップS12に戻り上記の処理を繰り返す一
方、YESのときは元のメインルーチンに戻る。In the unit determination process for the subword 2-gram in FIG. 4, first, at step S11, all single moras are inserted into the fixed unit set, and then step S11.
At 12, one mora chain is selected from the unit candidate set. Next, it is determined whether or not the mora chain selected in step S13 is included in the fixed unit set. If YES, the process proceeds to step S15, while NO
If so, the process proceeds to step S14. Add the mora chain selected in step S14 to the fixed unit set,
The provisional subword 2-gram using the known maximum likelihood estimation method
A model is generated and the process proceeds to step S15. Where 2-
The gram model is one between the training data and the additional set.
-Gram and 0-gram of only the additional set are used to perform a known deletion interpolation method (for example, the prior art document "Seiichi Nakagawa," Speech recognition by stochastic model ", edited by the Institute of Electronics, Information and Communication Engineers, pp. 63). -64, issued July 1, 1988, etc.). This provisional subword 2-gram and gamma distribution data of mora length are collectively referred to as a "provisional unregistered word model". Step S
At 15, it is determined whether or not the steps S13 and S14 have been performed for all the mora chains, and NO.
If so, the process returns to step S12 to repeat the above process, but if YES, the process proceeds to step S16. In step S16, the average likelihood is calculated for each of the temporary unregistered word models using Equation 8, and the unit set of the temporary unregistered word model that maximizes the average likelihood is set as a new definite unit set. Then, in step S17, it is determined whether or not the number of mora chains included in the definite unit set ≧ a predetermined threshold value N th (for example, 150). If NO, the process returns to step S12 and the above-mentioned is executed. While repeating the processing, when YES is returned to the original main routine.
【0062】図9は、図1の未登録語モデル生成部20
によって実行される未登録語モデル生成処理における、
モーラ連鎖の単位化による平均尤度の向上を示すグラフ
であって、モーラ連鎖の種類の数に対する平均尤度を示
すグラフである。すなわち、図9は繰り返し学習におけ
る平均尤度(数8)の変化を示す。単位候補とするモー
ラ連鎖は、頻度が100以上のものとした。表1乃至表
3に示す学習データからは、姓モデルで1,829種
類、名モデルで1,660種類のモーラ連鎖が単位候補
となる。サブワード単位N−gramはN=2とし、1
−gram、0−gramを用いた公知の削除補間法で
補間した。図9に示すように、モーラ連鎖をサブワード
単位として追加していくことで、学習データに対する平
均尤度は単調に上昇する。モーラ連鎖を150個追加し
たモデルの平均尤度は、モーラ連鎖を用いないモデルに
比べ、姓モデルで3.9倍、名モデルで3.2倍となっ
た。未登録語モデルを単語1−gramとみなすと、単
語の学習セットパープレキシティは姓モデルで74%、
名モデルで69%改善されることになる。FIG. 9 shows the unregistered word model generator 20 of FIG.
In the unregistered word model generation process executed by
It is a graph which shows improvement of average likelihood by unitization of a mora chain, and is a graph which shows average likelihood with respect to the number of kinds of mora chain. That is, FIG. 9 shows changes in the average likelihood (Equation 8) in iterative learning. The mora chain as a unit candidate has a frequency of 100 or more. From the learning data shown in Tables 1 to 3, 1,829 kinds of surname models and 1,660 kinds of surname models are mora chains as unit candidates. The subword unit N-gram is N = 2, and 1
Interpolation was performed by a known deletion interpolation method using -gram and 0-gram. As shown in FIG. 9, by adding the mora chain in subword units, the average likelihood for the learning data monotonically increases. The average likelihood of the model in which 150 mora chains were added was 3.9 times in the surname model and 3.2 times in the surname model as compared to the model without the mora chain. If we consider the unregistered word model as the word 1-gram, the learning set perplexity of the word is 74% for the surname model,
It will be improved by 69% with the famous model.
【0063】次いで、未登録語モデルを単語N−gra
m形式による単語辞書に実装する方法について説明す
る。上述の未登録語モデルは、以下に述べる方法によ
り、近似なく、クラスN−gramの形式で扱うことが
できる。そのため、統計的言語モデルとしてクラスN−
gramを扱うことが可能なデコーダであれば、デコー
ダの変更無しに、本方法による未登録語の認識が可能と
なる。ただし、極端に長い未登録語(本実施形態では、
10モーラ以上の姓及び名)が認識対象とならないこと
が条件となる。サブワード単位N−gramで単位とし
て用いるモーラ及びモーラ連鎖は、擬似的な単語として
扱い、認識辞書、及びクラスN−gramに組み込む。
その際、各サブワード単位は以下のラベル付けによる展
開を行い、ラベル違いの同一サブワード単位を複数生成
する。Next, the unregistered word model is set to the word N-gra.
A method of implementing the m-type word dictionary will be described. The unregistered word model described above can be handled in the class N-gram format without approximation by the method described below. Therefore, as a statistical language model, class N-
Any decoder that can handle gram can recognize unregistered words by this method without changing the decoder. However, extremely long unregistered words (in this embodiment,
The condition is that family names and surnames of 10 mora or more) are not recognized. The mora and mora chain used as a unit in the sub-word unit N-gram are treated as a pseudo word and are incorporated in the recognition dictionary and the class N-gram.
At this time, each subword unit is expanded by the following labeling to generate a plurality of identical subword units having different labels.
【0064】すなわち、ラベル付きサブワード単位デー
タ生成部20は、サブワード単位N−gramメモリ4
2に格納された、日本人姓及び名のサブワード単位N−
gramそれぞれに対して以下の処理を実行し、この結
果得られるラベル付きサブワード単位群のデータをラベ
ル付きサブワード単位データメモリ40に格納する。す
なわち、日本人姓(もしくは日本人名)サブワード単位
N−gramで単位として用いられるサブワード単位
(単一モーラ、モーラ連鎖)を全て抽出する。次いで、
抽出したそれぞれのサブワード単位に応じて、ラベルを
複数生成する。生成した各ラベルを当該サブワード単位
に付与することにより、サブワード単位あたり複数のラ
ベル付きサブワード単位が生成される。ここでラベルと
は、(a)クラス(本実施形態においては、「日姓」又
は「日名」)、(b)単語内の開始位置(1,2,…,
LenMax+1;サブワード単位のモーラ数:ここ
で、LenMaxは事前に設定された値であり、認識対
象とする最長の姓もしくは名のモーラ数を意味す
る。)、及び(c)単語の終端であるか否か(終端を示
す「終」又は「−」)の3項組みである。That is, the labeled sub-word unit data generating section 20 uses the sub-word unit N-gram memory 4
Subword unit N- of Japanese surname and given name stored in 2
The following processing is executed for each gram, and the resulting data of the labeled subword unit group is stored in the labeled subword unit data memory 40. That is, all subword units (single mora, mora chain) used as units in the Japanese surname (or Japanese name) subword unit N-gram are extracted. Then
A plurality of labels are generated according to each extracted subword unit. By assigning each generated label to the corresponding subword unit, a plurality of labeled subword units are generated per subword unit. Here, the label means (a) class (in the present embodiment, “day family name” or “day name”), and (b) start position (1, 2, ...) In the word.
LenMax + 1; number of mora in subwords: Here, LenMax is a preset value, and means the number of mora of the longest family name or given name to be recognized. ), And (c) whether or not it is the end of a word (“end” or “−” indicating the end).
【0065】上記(b)の開始モーラ位置による展開
は、学習データに出現する最長の姓及び名に合わせ、と
もに終端位置が9モーラまでとなるようにした。上記
(c)で単語終端ラベルを付与したサブワード単位に
は、音素並び(読み)の終端にポーズが入ることを許容
する。ここで、ラベル付きサブワードは、その遷移に次
の制約を受ける。(i)登録語のクラスからラベル付き
サブワードへの遷移は、ラベル付きサブワードの開始モ
ーラ位置が1の場合のみ許される。逆に、(ii)ラベル
付きサブワードから登録語のクラスへの遷移は、ラベル
付きサブワードに単語終端ラベルが付与されている場合
のみ許される。(iii)ラベル付きサブワード間の遷移
は、単語内でのモーラ位置が連接し、かつ同一のクラス
に属する場合のみ許される。The expansion by the starting mora position in the above (b) is performed so that the ending position is up to 9 mora in accordance with the longest surname and given name appearing in the learning data. In the subword unit to which the word end label is added in (c) above, a pause is allowed at the end of the phoneme sequence (reading). Here, the labeled subword is subject to the following restrictions on its transition. (I) The transition from the registered word class to the labeled subword is allowed only when the starting mora position of the labeled subword is 1. On the contrary, (ii) the transition from the labeled subword to the class of the registered word is allowed only when the word end label is given to the labeled subword. (Iii) Transitions between labeled subwords are allowed only when the mora positions within a word are concatenated and belong to the same class.
【0066】さらに、単語辞書生成部22は、ラベル付
きサブワード単位データメモリ42内のデータと、テキ
ストデータメモリ31内のテキストデータとに基づいて
以下のように単語辞書を生成して単語辞書メモリ12に
格納する。まず、単語辞書生成部22は、テキストデー
タベースメモリ31内のテキストデータ中に出現する全
ての単語を抽出し、単語辞書メモリ12に格納する。次
いで、ラベル付きサブワード単位データメモリ42中の
全てのラベル付きサブワード単位を単語辞書メモリ12
に格納する。単語辞書メモリ12に格納された全てのエ
ントリに対して、人手で、もしくは、読みと音素系列と
の対応テーブルを用いて音素付与を行う公知の音素付与
処理プログラムを用いて、その読み(音素系列)を付与
することにより単語辞書を生成する。これによって、単
語辞書メモリ12に単語辞書が生成格納される。Further, the word dictionary generator 22 generates a word dictionary as follows based on the data in the labeled subword unit data memory 42 and the text data in the text data memory 31, and the word dictionary memory 12 To store. First, the word dictionary generation unit 22 extracts all the words that appear in the text data in the text database memory 31 and stores them in the word dictionary memory 12. Then, all the labeled subword units in the labeled subword unit data memory 42 are stored in the word dictionary memory 12
To store. For all the entries stored in the word dictionary memory 12, the reading (phoneme sequence) is performed manually or by using a known phoneme assignment processing program that assigns phonemes using a correspondence table between the reading and the phoneme sequence. ) Is added to generate a word dictionary. As a result, the word dictionary is generated and stored in the word dictionary memory 12.
【0067】次いで、言語モデル生成部24の統計的言
語モデル生成処理について説明する。ラベル付きサブワ
ード単位udを単語として扱う際、クラスN−gram
(N=2)における確率は、以下のように与える(N>
2でも同様)。ただし、uはラベル付け前のサブワード
単位を表し、#は単語内のモーラ開始位置記号を表し、
cは語彙クラスを表し、len(u)はサブワード単位
uのモーラ長、psw(uj|ui,c)はクラスに依存し
たサブワード単位2−gramであり、pLM(c’|
c)はクラス2−gramのクラス間遷移確率を表す。
また、classof(ud),startof
(ud),isend(ud)はそれぞれ、ラベル付きサ
ブワード単位udのラベルである語彙クラス、単語内の
モーラ開始位置、単語終端か否か、を参照する関数であ
り、endof(ud)はstartof(ud)+le
n(u)により与えるものとする。Gc(*)はクラス
のモーラ長ガンマ分布gc(x)(数9)に基づく確率
関数であり、次の定積分により与えられる。Next, the statistical language model generation process of the language model generation unit 24 will be described. When dealing with a label with the sub-word units u d as a word, class N-gram
The probability at (N = 2) is given as follows (N>
2 also applies). However, u represents the subword unit before labeling, # represents the mora start position symbol in the word,
c represents a vocabulary class, len (u) is the mora length of the subword unit u, p sw (u j | u i , c) is the subword unit 2-gram depending on the class, and p LM (c ′ |
c) represents the transition probability between classes of class 2-gram.
In addition, classof (u d), startof
(U d), isend (u d) , respectively, is a function to refer vocabulary class is the label of the labeled sub-word units u d, mora start position in the word, the word end whether the, endof (u d ) is startof (u d) + le
It is given by n (u). G c (*) is a probability function based on the class mora length gamma distribution g c (x) (Equation 9), and is given by the following definite integral.
【0068】[0068]
【数14】 [Equation 14]
【数15】 [Equation 15]
【0069】まず、先頭サブワードの生起確率である姓
及び名クラスのクラス内1−gram確率p(ud|
c)は、ラベル付きサブワード単位udの開始モーラ位
置ラベルが1である場合のみ許す。従って、次式で表す
ことができる。[0069] First of all, is the probability of occurrence of the first sub-word last name and the name of the class within a 1-gram probability p (u d |
c) it is permitted only if the start mora position label labeled subword unit u d is 1. Therefore, it can be expressed by the following equation.
【0070】[0070]
【数16】(1)もし(classof(ud)=c)
∧(startof(ud)=1)
∧(isend(ud)=偽)のとき
p(ud|c)=psw(u|#、c)・Gc(x>len
(u))
(2)もし(classof(ud)=c)∧(sta
rtof(ud)=1)
∧(isend(ud)=真)のとき
p(ud|c)=psw(u|#、c)・Gc(x=len
(u))
(3)もし上記以外のとき
p(ud|c)=0Equation 16] (1) If (classof (u d) = c)
∧ (startof (u d) = 1) ∧ (isend (u d) = false) p when (u d | c) = p sw (u | #, c) · G c (x> len
(U)) (2) if (classof (u d) = c ) ∧ (sta
rtof (u d) = 1) ∧ (isend (u d) = true) when p (u d | c) = p sw (u | #, c) · G c (x = len
(U)) (3) If other than the above, p (u d | c) = 0
【0071】次いで、第1のクラス間2−gram確率
である、ラベル付きサブワード単位間の遷移は、両者の
クラスが同じで、かつ、両者の単語内でのモーラ位置が
連接する場合のみ許す。従って、第1のクラス間2−g
ram確率p(udj|udi)は次式で表すことができ
る。Next, the transition between labeled subword units, which is the first 2-gram probability between classes, is allowed only when both classes are the same and the mora positions in both words are concatenated. Therefore, 2-g between the first class
The ram probability p (u dj | u di ) can be expressed by the following equation.
【0072】[0072]
【数17】(1)もし(classof(udj)=cl
assof(udi)=c)
∧(startof(udj)=endof(udi)+
1)
∧(isend(udj)=偽)のとき
p(udj|udi)=psw(uj|ui,c)・Gc(x>
(endof(udi)+len(udj)))/Gc(x
>endof(udi))
(2)もし(classof(udj)=classof
(udi)=c)
∧(startof(udj)=endof(udi)+
1)
∧(isend(udj)=真)のとき
p(udj|udi)=psw(uj|ui,c)・Gc(x=
(endof(udi)+len(udj)))/Gc(x
>endof(udi))
(3)もし上記以外のとき
p(udj|udi)=0(17) (1) If (classof (u dj ) = cl
assof (u di ) = c) ∧ (startof (u dj ) = endof (u di ) +
1) When ∧ (isend (u dj ) = false) p (u dj | u di ) = p sw (u j | u i , c) · G c (x>
(Endof (u di ) + len (u dj )) / G c (x
> Endof (u di )) (2) If (classof (u dj ) = classof
(U di ) = c) ∧ (startof (u dj ) = endof (u di ) +
1) When ∧ (isend (u dj ) = true) p (u dj | u di ) = p sw (u j | u i , c) · G c (x =
(Endof (u di ) + len (u dj )) / G c (x
> Endof (u di )) (3) If other than the above, p (u dj | u di ) = 0
【0073】さらに、第2のクラス間2−gram確率
である、ラベル付きサブワード単位から、次単語のクラ
スへの遷移は、ラベル付きサブワード単位に単語終端ラ
ベルが付与されている場合のみに許す。従って、第2の
クラス間2−gram確率p(c|ud)は次式で表さ
れる。Furthermore, the transition from the labeled subword unit to the class of the next word, which is the second inter-class 2-gram probability, is allowed only when the word end label is assigned to the labeled subword unit. Thus, the second class between 2-gram probability p (c | u d) is expressed by the following equation.
【0074】[0074]
【数18】(1)もしisend(ud)=真のとき p(c|ud)=pLM(c|classof(ud)) (2)もし上記以外のとき p(c|ud)=0Equation 18] (1) If iSEND (u d) = true when p (c | u d) = p LM (c | classof (u d)) (2) If the time other than the p (c | u d ) = 0
【0075】図5は、図1の言語モデル生成部24によ
って実行される言語モデル生成処理を示すフローチャー
トである。図5において、まず、S21において各メモ
リ40、41、42からそれぞれ格納された各データを
読み出し、ステップS22においてモーラ長のガンマ分
布のデータに基づいて、数14及び数15を用いて確率
関数の値を計算する。次いで、ステップS23において
先頭サブワードの生起確率であるクラス内−gram確
率を数16を用いて計算し、ステップS24においてサ
ブワード間の遷移確率である第1のクラス間2−gra
m確率を数17を用いて計算し、ステップS25におい
て終端サブワードから次単語のクラスに遷移する確率で
ある第2のクラス間2−gram確率を数17を用いて
計算する。そして、ステップS26において上記計算さ
れた確率をまとめて、未登録語モデルに基づいて統計的
言語モデルとして統計的言語モデルメモリ44に格納す
る。FIG. 5 is a flow chart showing the language model generation processing executed by the language model generation unit 24 of FIG. In FIG. 5, first, in S21, each stored data is read from each of the memories 40, 41, and 42, and in Step S22, the probability function of the probability function is calculated using Equations 14 and 15 based on the data of the gamma distribution of the mora length. Calculate the value. Next, in step S23, the in-class-gram probability that is the occurrence probability of the leading subword is calculated using Equation 16, and in step S24, the first inter-class 2-gram that is the transition probability between subwords.
The m probability is calculated using Expression 17, and the second inter-class 2-gram probability, which is the probability of transition from the terminal subword to the class of the next word, is calculated using Expression 17 in step S25. Then, in step S26, the probabilities calculated above are put together and stored in the statistical language model memory 44 as a statistical language model based on the unregistered word model.
【0076】上記の言語モデル生成処理で生成された統
計的言語モデルの別の一例を図8に示す。図8の例にお
ける遷移確率は上述で定義されたものである。FIG. 8 shows another example of the statistical language model generated by the above language model generation processing. The transition probabilities in the example of FIG. 8 are as defined above.
【0077】次いで、図1に示す連続音声認識システム
の構成及び動作について説明する。図1において、単語
照合部4に接続された音素隠れマルコフモデル(以下、
隠れマルコフモデルをHMMという。)メモリ11内の
音素HMMは、各状態を含んで表され、各状態はそれぞ
れ以下の情報を有する。
(a)状態番号、(b)受理可能なコンテキストクラ
ス、(c)先行状態、及び後続状態のリスト、(d)出
力確率密度分布のパラメータ、及び(e)自己遷移確率
及び後続状態への遷移確率。なお、本実施形態において
用いる音素HMMは、各分布がどの話者に由来するかを
特定する必要があるため、所定の話者混合HMMを変換
して生成する。ここで、出力確率密度関数は34次元の
対角共分散行列をもつ混合ガウス分布である。また、単
語照合部4に接続された単語辞書メモリ12内の単語辞
書は、音素HMMメモリ11内の音素HMMの各単語毎
にシンボルで表した読みを示すシンボル列を格納する。Next, the structure and operation of the continuous speech recognition system shown in FIG. 1 will be described. In FIG. 1, a phoneme hidden Markov model (hereinafter,
Hidden Markov model is called HMM. The phoneme HMM in the memory 11 is represented including each state, and each state has the following information. (A) state number, (b) acceptable context class, (c) list of preceding states and succeeding states, (d) parameters of output probability density distribution, and (e) self-transition probability and transition to succeeding states probability. The phoneme HMM used in the present embodiment is generated by converting a predetermined speaker mixed HMM because it is necessary to specify which speaker each distribution originates from. Here, the output probability density function is a Gaussian mixture mixture having a 34-dimensional diagonal covariance matrix. Further, the word dictionary in the word dictionary memory 12 connected to the word matching unit 4 stores a symbol string indicating the reading expressed in symbols for each word of the phoneme HMM in the phoneme HMM memory 11.
【0078】図1において、話者の発声音声はマイクロ
ホン1に入力されて音声信号に変換された後、特徴抽出
部2に入力される。特徴抽出部2は、入力された音声信
号をA/D変換した後、例えばLPC分析を実行し、対
数パワー、16次ケプストラム係数、Δ対数パワー及び
16次Δケプストラム係数を含む34次元の特徴パラメ
ータを抽出する。抽出された特徴パラメータの時系列は
バッファメモリ3を介して単語照合部4に入力される。In FIG. 1, the vocalized voice of the speaker is input to the microphone 1 and converted into a voice signal, and then input to the feature extraction unit 2. The feature extraction unit 2 performs, for example, LPC analysis after A / D conversion of the input voice signal, and a 34-dimensional feature parameter including logarithmic power, 16th-order cepstrum coefficient, Δ logarithmic power, and 16th-order Δ cepstrum coefficient. To extract. The time series of the extracted characteristic parameters is input to the word matching unit 4 via the buffer memory 3.
【0079】単語照合部4は、ワン−パス・ビタビ復号
化法を用いて、バッファメモリ3を介して入力される特
徴パラメータのデータに基づいて、音素HMMメモリ1
1内の音素HMMと、単語辞書メモリ12内の単語辞書
とを用いて単語仮説を検出し尤度を計算して出力する。
ここで、単語照合部4は、各時刻の各HMMの状態毎
に、単語内の尤度と発声開始からの尤度を計算する。尤
度は、単語の識別番号、単語の開始時刻、先行単語の違
い毎に個別にもつ。また、計算処理量の削減のために、
音素HMM及び単語辞書とに基づいて計算される総尤度
のうちの低い尤度のグリッド仮説を削減する。単語照合
部4は、その結果の単語仮説と尤度の情報を発声開始時
刻からの時間情報(具体的には、例えばフレーム番号)
とともにバッファメモリ5を介して単語仮説絞込部6に
出力する。The word collating unit 4 uses the one-pass Viterbi decoding method and based on the data of the characteristic parameter input via the buffer memory 3, the phoneme HMM memory 1
Using the phoneme HMM in 1 and the word dictionary in the word dictionary memory 12, the word hypothesis is detected, the likelihood is calculated, and the likelihood is output.
Here, the word matching unit 4 calculates the likelihood within a word and the likelihood from the start of utterance for each state of each HMM at each time. The likelihood is individually held for each word identification number, word start time, and preceding word difference. Also, in order to reduce the amount of calculation processing,
Reduce the grid hypothesis of low likelihood out of the total likelihood calculated based on the phoneme HMM and the word dictionary. The word matching unit 4 uses the resulting word hypothesis and likelihood information as time information from the utterance start time (specifically, for example, a frame number).
Together with this, it outputs to the word hypothesis narrowing unit 6 via the buffer memory 5.
【0080】単語仮説絞込部6は、単語照合部4からバ
ッファメモリ5を介して出力される単語仮説に基づい
て、統計的言語モデルメモリ44内の統計的言語モデル
を参照して、終了時刻が等しく開始時刻が異なる同一の
単語の単語仮説に対して、当該単語の先頭音素環境毎
に、発声開始時刻から当該単語の終了時刻に至る計算さ
れた総尤度のうちの最も高い尤度を有する1つの単語仮
説で代表させるように単語仮説の絞り込みを行った後、
絞り込み後のすべての単語仮説の単語列のうち、最大の
総尤度を有する仮説の単語列を認識結果として出力す
る。なお、タスク適応化された統計的言語モデルは、各
タスク毎に1つの統計的言語モデルを備え、単語仮説絞
込部6は、音声認識しようとするタスクに対応する統計
的言語モデルを選択的に参照する。本実施形態において
は、好ましくは、処理すべき当該単語の先頭音素環境と
は、当該単語より先行する単語仮説の最終音素と、当該
単語の単語仮説の最初の2つの音素とを含む3つの音素
並びをいう。The word hypothesis narrowing unit 6 refers to the statistical language model in the statistical language model memory 44 on the basis of the word hypothesis output from the word matching unit 4 via the buffer memory 5, and determines the end time. For the same word with the same start time but different start times, the highest likelihood of the calculated total likelihood from the utterance start time to the end time of the word is calculated for each head phoneme environment of the word. After narrowing down the word hypotheses so that they are represented by one word hypothesis that they have,
Among the word strings of all the word hypotheses after narrowing down, the word string of the hypothesis having the maximum total likelihood is output as the recognition result. The task-adapted statistical language model has one statistical language model for each task, and the word hypothesis narrowing unit 6 selectively selects the statistical language model corresponding to the task to be speech-recognized. Refer to. In the present embodiment, preferably, the first phoneme environment of the word to be processed is the three phonemes including the final phoneme of the word hypothesis preceding the word and the first two phonemes of the word hypothesis of the word. Say a line.
【0081】例えば、図2に示すように、(i−1)番
目の単語Wi-1の次に、音素列a1、a2、…、anからな
るi番目の単語Wiがくるときに、単語Wi-1の単語仮説
として6つの仮説Wa、Wb、Wc、Wd、We、Wf
が存在している。ここで、前者3つの単語仮説Wa、W
b、Wcの最終音素は/x/であるとし、後者3つの単
語仮説Wd、We、Wfの最終音素は/y/であるとす
る。終了時刻teと先頭音素環境が等しい仮説(図2で
は先頭音素環境が“x/a1/a2”である上から3つの
単語仮説)のうち総尤度が最も高い仮説(例えば、図2
において1番上の仮説)以外を削除する。なお、上から
4番めの仮説は先頭音素環境が違うため、すなわち、先
行する単語仮説の最終音素がxではなくyであるので、
上から4番めの仮説を削除しない。すなわち、先行する
単語仮説の最終音素毎に1つのみ仮説を残す。図2の例
では、最終音素/x/に対して1つの仮説を残し、最終
音素/y/に対して1つの仮説を残す。[0081] For example, as shown in FIG. 2, the (i-1) th word W i-1 of the following phoneme string a 1, a 2, ..., come i th word W i consisting a n Sometimes, six hypotheses Wa, Wb, Wc, Wd, We, Wf are used as word hypotheses for the word W i-1.
Exists. Here, the former three word hypotheses Wa, W
The final phoneme of b and Wc is / x /, and the final phoneme of the latter three word hypotheses Wd, We, and Wf is / y /. Of the hypotheses in which the end time t e is equal to the head phoneme environment (in FIG. 2, the top phoneme environment is “x / a 1 / a 2 ”, the three word hypotheses from the top), the hypothesis with the highest total likelihood (for example, FIG. Two
Delete all but the first hypothesis). Since the fourth phoneme from the top has a different first phoneme environment, that is, the last phoneme of the preceding word hypothesis is y instead of x,
Do not delete the fourth hypothesis from the top. That is, only one hypothesis remains for each final phoneme of the preceding word hypothesis. In the example of FIG. 2, one hypothesis is left for the final phoneme / x / and one hypothesis is left for the final phoneme / y /.
【0082】以上の実施形態においては、固有名詞の下
位クラスである日本人の姓及び名とを、未登録語の語彙
クラスとして用いているが、本発明はこれに限らず、以
下の固有名詞や外来語の普通名詞などに適用することが
できる。
(1)外国人の姓と名、(2)地名、(3)会社名、
(4)各種施設名、(5)各種製品名など。従って、本
発明では、未登録語の語彙クラスとして、固有名詞及び
外来語の普通名詞の各下位クラスを用いることができ
る。In the above embodiments, Japanese surnames and given names, which are subclasses of proper nouns, are used as vocabulary classes of unregistered words, but the present invention is not limited to this, and the following proper nouns are used. It can be applied to common nouns of foreign words. (1) First and last name of foreigner, (2) Place name, (3) Company name,
(4) Various facility names, (5) Various product names, etc. Therefore, in the present invention, each subclass of proper nouns and common nouns of foreign words can be used as the vocabulary class of unregistered words.
【0083】また、本実施形態で用いるクラス依存未登
録語モデルは、クラス毎に異なったパラメータ構造を持
たせることが可能となっている。そのため、各クラスに
おける読みの統計的特徴を強く反映させたモデル化が可
能である。実施形態において、日本人姓及び名の未登録
語モデル構築には、そのパラメータ構造として、(1)
単語長のガンマ分布と、(2)終端記号への遷移を含ま
ないサブワード単位N−gramとを用いた。しかしな
がら、その他のクラス、例えば宿泊施設名(「京都第一
観光ホテル」、「赤坂プリンスホテル」、「いとう旅
館」、…)のように、複合語を多く含むクラスをモデル
化する際には、(1)長さに関する制約が有効とはなら
ない場合がある。その場合は、上記(1)の制約を省
き、代わりに上記(2)の制約に基づいたサブワード単
位N−gramにおいて、終端記号への遷移を含むよう
モデル化する(例えば、「ホテル」や「旅館」から終端
記号へ高い確率で遷移する)ことで、そうしたクラスに
対しても高精度な未登録語モデルを構築することが可能
である。The class-dependent unregistered word model used in this embodiment can have a different parameter structure for each class. Therefore, modeling that strongly reflects the statistical characteristics of reading in each class is possible. In the embodiment, the unregistered word model construction of the Japanese surname and given name includes (1)
The gamma distribution of word length and (2) subword unit N-gram which does not include transition to terminal symbol were used. However, when modeling other classes, such as accommodation names (“Kyoto Daiichi Kanko Hotel”, “Akasaka Prince Hotel”, “Ito Ryokan”, ...) (1) There are cases where the restriction on the length is not valid. In that case, the constraint of the above (1) is omitted, and instead, the subword unit N-gram based on the constraint of the above (2) is modeled so as to include a transition to the terminal symbol (for example, “hotel” or “hotel”). It is possible to build a highly accurate unregistered word model for such a class by making a transition with a high probability from "inn" to a terminal symbol.
【0084】以上の実施形態においては、当該単語の先
頭音素環境とは、当該単語より先行する単語仮説の最終
音素と、当該単語の単語仮説の最初の2つの音素とを含
む3つの音素並びとして定義されているが、本発明はこ
れに限らず、先行する単語仮説の最終音素と、最終音素
と連続する先行する単語仮説の少なくとも1つの音素と
を含む先行単語仮説の音素列と、当該単語の単語仮説の
最初の音素を含む音素列とを含む音素並びとしてもよ
い。In the above embodiment, the leading phoneme environment of the word is a three phoneme sequence including the final phoneme of the word hypothesis preceding the word and the first two phonemes of the word hypothesis of the word. Although defined, the present invention is not limited to this, and the phoneme string of the preceding word hypothesis including the final phoneme of the preceding word hypothesis and at least one phoneme of the preceding word hypothesis continuous with the final phoneme, and the word May be a phoneme sequence including a phoneme sequence including the first phoneme of the word hypothesis.
【0085】以上の実施形態において、特徴抽出部2
と、単語照合部4と、単語仮説絞込部6と、未登録語モ
デル生成部20と、サブワード単位データ生成部21
と、単語辞書生成部22と、単語クラスN−gramモ
デル生成部23と、言語モデル生成部24とは、例え
ば、デジタル電子計算機などのコンピュータで構成さ
れ、バッファメモリ3、5と、音素HMMメモリ11
と、単語辞書メモリ12と、学習データメモリ30と、
テキストデータベースメモリ31と、サブワード単位N
−gramモデルメモリ40と、モーラ長ガンマ分布デ
ータメモリ41と、ラベル付きサブワード単位データメ
モリ42と、単語クラスN−gramモデルメモリ43
と、統計的言語モデルメモリ44とは、例えばハードデ
ィスクメモリなどの記憶装置で構成される。In the above embodiment, the feature extraction unit 2
, Word collation unit 4, word hypothesis narrowing unit 6, unregistered word model generation unit 20, and subword unit data generation unit 21.
The word dictionary generation unit 22, the word class N-gram model generation unit 23, and the language model generation unit 24 are configured by, for example, a computer such as a digital electronic computer, and include buffer memories 3 and 5 and a phoneme HMM memory. 11
A word dictionary memory 12, a learning data memory 30,
Text database memory 31 and subword unit N
-Gram model memory 40, mora length gamma distribution data memory 41, labeled subword unit data memory 42, word class N-gram model memory 43
The statistical language model memory 44 is composed of a storage device such as a hard disk memory.
【0086】以上実施形態においては、単語照合部4と
単語仮説絞込部6とを用いて音声認識を行っているが、
本発明はこれに限らず、例えば、音素HMMメモリ11
内の音素HMMを参照する音素照合部と、例えばOne
Pass DPアルゴリズムを用いて統計的言語モデ
ルを参照して単語の音声認識を行う音声認識部とで構成
してもよい。In the above embodiment, the speech recognition is performed using the word collating unit 4 and the word hypothesis narrowing unit 6.
The present invention is not limited to this, and for example, the phoneme HMM memory 11
Phoneme collating unit that refers to a phoneme HMM in the
It may be configured with a voice recognition unit that performs voice recognition of a word by referring to a statistical language model using the Pass DP algorithm.
【0087】[0087]
【実施例】本発明者は、本実施形態に係る統計的言語モ
デルの有効性を確認するため、音声認識実験を行った。
以下では、二種類の統計的言語モデルを用いて比較評価
を行う。両言語モデルは、共通のベースモデルとして、
表3の旅行会話データのみから生成したクラスN−gr
amを用いる。このベースモデルに対して、それぞれの
方法で日本人姓クラス、及び名クラスのクラス内単語1
−gramを置換する。EXAMPLE The present inventor conducted a speech recognition experiment in order to confirm the effectiveness of the statistical language model according to this embodiment.
Below, a comparative evaluation is performed using two types of statistical language models. Both language models, as a common base model,
Class N-gr generated only from travel conversation data in Table 3
am is used. For this base model, in each method, Japanese surname class and first class word 1
-Replace gram.
【0088】評価を行う統計的言語モデルは以下の通り
である。
(1)本実施形態に係る統計的言語モデル:日本人姓及
び名クラスの単語1−gramとして、姓及び名それぞ
れの未登録語モデルを用いる。サブワード単位N−gr
amで単位として用いるモーラ連鎖は、特に断らない限
り150個の場合を評価する。認識語彙は、日本人姓及
び名以外の単語12,755単語+サブワードで構成
し、登録語の日本人姓及び名は作らない。
(2)登録語方法(以下、比較例という。):日本人姓
及び名クラスの単語1−gramとして、表3の人名デ
ータによる単語1−gramを用いる。認識語彙は、日
本人姓及び名以外の単語12,755単語+日本人姓及
び名39,431単語となる。この方法は、評価セット
中のほぼ全人名をカバーする語彙を持つこと、また、本
実施形態の方法が未登録語モデルの最尤推定に用いる人
名データを単語1−gramとして直接用いることか
ら、概ね本実施形態の方法による認識精度の上限値を与
えるものと考えられる。The statistical language model used for evaluation is as follows. (1) Statistical language model according to the present embodiment: The unregistered word model of each family name and given name is used as the word 1-gram of the Japanese family name and given name class. Subword unit N-gr
As for the mora chain used as a unit in am, 150 cases are evaluated unless otherwise specified. The recognition vocabulary consists of 12,755 words plus subwords other than Japanese surnames and given names, and Japanese registered surnames and given names are not created. (2) Registered word method (hereinafter, referred to as a comparative example): The word 1-gram based on the personal name data in Table 3 is used as the word 1-gram of Japanese surname and given name class. The recognition vocabulary is 12,755 words other than Japanese surnames and given names + 39,431 Japanese surnames and given names. This method has a vocabulary that covers almost all the names in the evaluation set, and because the method of the present embodiment directly uses the person name data used for the maximum likelihood estimation of the unregistered word model as the word 1-gram, It is considered that the upper limit of the recognition accuracy according to the method of the present embodiment is approximately given.
【0089】これら2つの方法の音声認識率を、以下の
基準により評価する。
(1)単語認識率:評価データに出現する全単語の認識
率を評価する。日本人姓及び名は、クラス(「日姓」又
は「日名」)、読み(モーラ並び)、位置(DPによる
対応付け)が全て正しい場合のみを正解とする。ただ
し、読みに関し、明らかに等価な長音(ヨウコとヨオ
コ)は手作業で修正して評価した。
(2)姓及び名単語の再現率及び適合率:単語認識率評
価時の動的計画法のマッチング(DPマッチング)を用
いて、日本人姓及び名のみの再現率と適合率を評価す
る。The speech recognition rates of these two methods are evaluated according to the following criteria. (1) Word recognition rate: The recognition rate of all words appearing in the evaluation data is evaluated. For Japanese surnames and given names, the correct answer is only when the class (“day surname” or “day name”), reading (arranged by mora), and position (correspondence by DP) are all correct. However, with regard to reading, apparently equivalent long sounds (Yoko and Yoko) were manually corrected and evaluated. (2) Recall and precision of surnames and given words: The recall and precision of only Japanese surnames and given names are evaluated using dynamic programming matching (DP matching) when evaluating word recognition rates.
【0090】ここで、評価セットには、旅行会話ドメイ
ンの42片側会話4、990単語を用いた。評価セット
に出現する日本人名は、姓及び名、合わせて70単語
(異なり単語数52)である。うち、表3の人名リスト
にも出現しない姓は3単語(アサギノ1単語、チンザイ
2単語)であった。Here, 42 unilateral conversations 4,990 words in the travel conversation domain were used in the evaluation set. The Japanese name appearing in the evaluation set is 70 words in total including the family name and given name (different word number is 52). Of these, the surnames that did not appear in the personal name list in Table 3 were 3 words (1 word for Asagino, 2 words for Chinzai).
【0091】次いで、表3に本実施形態の方法、及び比
較例の方法の音声認識率を示す。Next, Table 3 shows the voice recognition rates of the method of this embodiment and the method of the comparative example.
【0092】[0092]
【表5】 音声認識率 ――――――――――――――――――――――――――――――――――― 認識率(%) 本実施形態 比較例 ――――――――――――――――――――――――――――――――――― 単語認識率 87.51 87.30 姓及び名単語再現率 70 73 適合率 67 75 ――――――――――――――――――――――――――――――――――― (注)姓及び名は、読み、クラス、区間が全て正しい場合のみ正解として評価し た。比較例の方法の認識率は、概ね本実施形態の方法の上限値に相当すると考え られる。[Table 5] Speech recognition rate ――――――――――――――――――――――――――――――――――― Recognition rate (%) This embodiment Comparative example ――――――――――――――――――――――――――――――――――― Word recognition rate 87.51 87.30 Surname and surname word recall 70 73 Compliance rate 67 75 ――――――――――――――――――――――――――――――――――― (Note) The surname and given name will be evaluated as correct only if the reading, class and section are all correct. It was It is considered that the recognition rate of the method of the comparative example roughly corresponds to the upper limit of the method of the present embodiment. To be
【0093】本実施形態の方法では、未登録語である姓
及び名を、登録語として認識した場合とほぼ同等の精度
で認識できた。予想に反し、本実施形態の方法の単語認
識率が比較例の方法を上回った理由の一つとして、以下
が挙げられる。音響尤度の低い一部の姓及び名に対し、
本実施形態の方法では読み誤りはあるものの区間が正し
く検出され、結果、前後の単語にまで認識誤りを誘発す
ることが少なかったと考えられる。このことは、次の表
6に示す読み誤りを無視した姓及び名区間の再現率及び
適合率において、本実施形態の方法が優れていることか
らも裏付けられる。According to the method of this embodiment, the unregistered words, namely the family name and the first name, can be recognized with substantially the same accuracy as when they are recognized as the registered words. Contrary to expectations, one of the reasons why the word recognition rate of the method of the present embodiment exceeds the method of the comparative example is as follows. For some surnames and given names with low acoustic likelihood,
It is considered that the method of the present embodiment correctly detects a section although there is a reading error, and as a result, it rarely induces a recognition error in the preceding and following words. This is supported by the fact that the method of the present embodiment is excellent in the recall and precision of the family name and first name sections in which the reading error shown in Table 6 below is ignored.
【0094】[0094]
【表6】 姓及び名単語の区間検出率 ――――――――――――――――――――――――――――――――――― 認識率(%) 本実施形態 比較例 ――――――――――――――――――――――――――――――――――― 姓及び名区間再現率 87 80 適合率 84 82 ――――――――――――――――――――――――――――――――――― (注)姓及び名のクラスや区間が正しい場合を、正解として評価(音響尤度の影 響が強い読み誤りは無視する。)した。[Table 6] Section detection rate for surnames and given words ――――――――――――――――――――――――――――――――――― Recognition rate (%) This embodiment Comparative example ――――――――――――――――――――――――――――――――――― Surname and surname recall rate 87 80 Compliance rate 84 82 ――――――――――――――――――――――――――――――――――― (Note) If the class and section of family name and given name are correct, it is evaluated as the correct answer (acoustic likelihood shadow). Ignore misleading reading errors. )did.
【0095】図10は、本発明者による実験の実験結果
であって、日本人の姓及び名の再現率におけるモーラ連
鎖の単位化効果を示すグラフであり、モーラ連鎖の種類
の数に対する単語再現率を示すグラフである。図10か
ら明らかなように、単位化するモーラ連鎖を増やすこと
で、モデルによる姓及び名の尤度が上がり、再現率が改
善されるものと思われる。これは、上述の学習セットに
対する平均尤度の改善傾向と合致する。FIG. 10 is a graph showing the experimental results of the experiment by the present inventor showing the unitization effect of the mora chain on the recall rate of Japanese surnames and given names, and word reproduction with respect to the number of types of the mora chain. It is a graph which shows a rate. As is clear from FIG. 10, it is considered that the likelihood of surname and given name by the model is increased and the recall is improved by increasing the mora chain to be unitized. This is consistent with the trend of improving the average likelihood for the learning set described above.
【0096】次いで、希有な姓及び名に対する音声認識
率について説明する。本実施形態で提案する未登録語モ
デルの利点は、事前に予測できない希有な単語も正しく
認識できる可能性があることにある。ここでは、そうし
た希な姓及び名を模擬的に作り出すことで、本実施形態
の方法の評価を行う。評価セットには、52種類の日本
人姓及び名が出現する。そこで、これらの単語と同じ読
みを持つ全ての姓及び名を表1の学習データから削除し
た後、前節と同様に本実施形態の方法と比較例の方法に
よる音声認識率の比較実験を行った。表7にその結果を
示す。Next, the voice recognition rate for rare family names and first names will be described. The advantage of the unregistered word model proposed in the present embodiment is that rare words that cannot be predicted in advance can be correctly recognized. Here, the method of the present embodiment is evaluated by simulating such rare family names and first names. 52 types of Japanese family names and surnames appear in the evaluation set. Therefore, after deleting all surnames and given names having the same readings as these words from the learning data in Table 1, a comparison experiment of speech recognition rates by the method of the present embodiment and the method of the comparative example was performed as in the previous section. . Table 7 shows the results.
【0097】[0097]
【表7】希有な姓及び名入力時の音声認識率
――――――――――――――――――――――――
認識率(%) 本実施形態 比較例
――――――――――――――――――――――――
単語認識率 86.66 86.08
姓及び名単語再現率 31 6
適合率 36 8
――――――――――――――――――――――――
(注)学習に用いる姓及び名データから、評価セットに
出現する姓及び名と同じ読みを持つエントリを全て削除
して実験。姓及び名は、読み、クラス、区間が全て正し
い場合のみ正解として評価した。登録語方式の再現率・
適合率が0%にならないのは、形態素の不備により、一
部の姓が「普通名詞」になっていたためである。[Table 7] Rare surname and first name voice recognition rate ―――――――――――――――――――――――― Recognition rate (%) Comparison of this embodiment ――――――――――――――――――――――― Word recognition rate 86.66 86.08 Surname and first name word recall rate 31 6 Relevance rate 36 8 ―――――― ―――――――――――――――――― (Note) From the surname and given name data used for learning, delete all entries that have the same reading as the surname and given name that appear in the evaluation set. . The surname and given name were evaluated as correct only when the reading, class and section were all correct. Registered word recall rate
The precision does not reach 0% because some surnames became "common nouns" due to morpheme imperfections.
【0098】表5から明らかなように、本実施形態の方
法では、学習データに存在しない姓及び名を与えても、
31%の再現率で、その読み、クラス、区間を正しく認
識できた。結果、単語認識率でも登録語方式を0.58
ポイント上回った。As is clear from Table 5, in the method of this embodiment, even if a surname and given name that do not exist in the learning data are given,
With a recall of 31%, the reading, class, and section were correctly recognized. As a result, even with the word recognition rate, the registered word method is 0.58.
I exceeded the points.
【0099】以上説明したように、本発明に係る実施形
態によれば、未登録語モデルのクラス依存化により、次
の特有の効果を得ることができる。
(1)モデル化対象を限定することで、読みの統計的特
徴をより明確化することができ、クラス固有のパラメー
タ制約を導入できるため、未登録語モデルを高精度化す
ることができる。
(2)検出区間の言語処理が可能である。未登録語は、
読みに加えクラスも同時に同定される。読みとクラス
は、固有名詞の言語処理において必要十分な情報となる
ケースが多いものと考えられる。
(3)上記生成された統計的言語モデルを用いて音声認
識することにより、従来技術に比較して高い認識率で音
声認識することができる。As described above, according to the embodiment of the present invention, the following unique effects can be obtained by making the unregistered word model class-dependent. (1) By limiting the modeling target, it is possible to clarify the statistical characteristics of reading and to introduce the parameter constraint peculiar to the class. Therefore, the accuracy of the unregistered word model can be improved. (2) Language processing of the detection section is possible. Unregistered words are
In addition to reading, the class is also identified at the same time. Yomi and class are considered to be necessary and sufficient information in the language processing of proper nouns in many cases. (3) By using the generated statistical language model for voice recognition, it is possible to perform voice recognition with a higher recognition rate as compared with the related art.
【0100】<第2の実施形態>図11は、本発明に係
る第2の実施形態である連続音声認識システムの構成を
示すブロック図であり、図12は、図11の連続音声認
識システムを用いた、自動ダイヤリング機能付き電話機
の構成を示すブロック図である。<Second Embodiment> FIG. 11 is a block diagram showing the configuration of a continuous speech recognition system according to a second embodiment of the present invention. FIG. 12 shows the continuous speech recognition system of FIG. It is a block diagram which shows the structure of the telephone with an automatic dialing function used.
【0101】図11の連続音声認識システムは、図1の
連続音声認識システムに比較して以下の点が異なる。
(1)学習データメモリ30は、日本人姓ファイル30
aと、日本人名ファイル30bとに加えて、地名ファイ
ル30cなどのファイルを含む。地名ファイルは、例え
ば日本や外国の地名の単語を含むファイルである。
(2)図1の単語クラスN−gramモデル生成部23
に代えて、有限状態オートマトンモデル生成部23aを
備える。
(3)図1の単語クラスN−gramモデルメモリ43
に代えて、有限状態オートマトンモデルメモリ43aを
備える。The continuous speech recognition system of FIG. 11 differs from the continuous speech recognition system of FIG. 1 in the following points. (1) The learning data memory 30 is a Japanese surname file 30.
In addition to "a" and the Japanese name file 30b, files such as the place name file 30c are included. The place name file is, for example, a file containing words of place names in Japan and foreign countries. (2) Word class N-gram model generation unit 23 in FIG.
Instead, the finite state automaton model generation unit 23a is provided. (3) Word class N-gram model memory 43 of FIG.
Instead, it has a finite state automaton model memory 43a.
【0102】ここで、有限状態オートマトンモデル生成
部23aは、テキストデータベースメモリ31に格納さ
れた多数の日本語の書き下し文からなるコーパスと呼ば
れるテキストデータに基づいて有限状態オートマトンモ
デルを生成し、このモデルを有限状態オートマトンメモ
リ43aに格納する。Here, the finite state automaton model generator 23a generates a finite state automaton model based on text data called a corpus composed of a large number of Japanese written sentences stored in the text database memory 31, and this model is generated. It is stored in the finite state automaton memory 43a.
【0103】図11の連続音声認識システムにおいて、
破線で囲んだ部分を音声認識装置100という。すなわ
ち、音声認識装置100は、マイクロホン1から単語仮
説絞込部6までの回路及び処理部と、単語照合部4に接
続された音素HMMメモリ11及び単語辞書メモリ1
2、並びに、単語仮説絞込部6に接続された統計的言語
モデルメモリ44とを備えて構成される。第2の実施形
態では、この音声認識装置100を用いて、図12の自
動ダイヤリング機能付き電話機が構成される。なお、単
語辞書メモリ12及び統計的言語モデルメモリ44内の
データは予め図11のシステムにより生成されて格納さ
れる。従って、音声認識装置100は、マイクロホン1
に入力される人名などの単語の話者音声に応答して、音
声認識処理を実行して、音声認識結果の文字列を出力す
る。In the continuous speech recognition system of FIG. 11,
The part surrounded by the broken line is called the voice recognition device 100. That is, the speech recognition device 100 includes a circuit and a processing unit from the microphone 1 to the word hypothesis narrowing unit 6, a phoneme HMM memory 11 and a word dictionary memory 1 connected to the word matching unit 4.
2, and a statistical language model memory 44 connected to the word hypothesis narrowing unit 6. In the second embodiment, the voice recognition device 100 is used to configure the telephone with the automatic dialing function of FIG. The data in the word dictionary memory 12 and the statistical language model memory 44 are generated and stored in advance by the system shown in FIG. Therefore, the voice recognition device 100 is the microphone 1
In response to a speaker's voice of a word such as a person's name, the voice recognition processing is executed and the character string of the voice recognition result is output.
【0104】図12は本実施形態に係る自動ダイヤリン
グ機能付き電話機の構成を示しており、主制御部50
は、CPUで構成され、ROM51内に格納される所定
の動作プログラムを実行することによりこの電話機の全
体の動作を制御する。RAM52は、主制御部50で動
作プログラムを実行するときに必要なデータを格納する
とともに、主制御部50のための一時的なワーキングメ
モリとして用いられる。表示部53は、例えば液晶表示
装置(LCD)等の表示装置であり、当該電話機の動作
状態を表示したり、送信先の名称や電話番号を表示す
る。また、操作部54は、当該電話機を操作するために
必要な文字キー、ダイヤル用テンキー、短縮ダイヤルキ
ーや各種のファンクションキー等を備える。さらに、ネ
ットワークコントロールユニット(NCU)55は、ア
ナログの公衆電話回線Lの直流ループなどの閉結及び開
放の動作を行い、かつ自動ダイヤル機能を有するMTD
Fダイヤラーを含むハードウェア回路であり、必要に応
じて送受話器59に接続し、もしくは音声合成出力部5
6からの出力を公衆電話回線Lに接続する。またさら
に、音声合成出力部56は、例えば、パルス発生器と雑
音発生器と利得可変型増幅器とフィルタとを備え、公知
の音声合成方法を用いて、主制御部50からの制御によ
り、音声合成すべき文字列のテキストデータを所定のパ
ラメータ時系列に変換した後、そのピッチに基づいてパ
ルス発生器を制御し、有声/無声の切り換えに基づいて
パルス発生器と雑音発生器とを選択的に切り換えて使用
し、振幅値に基づいて利得可変型増幅器を制御し、フィ
ルタ係数値に基づいて上記フィルタを制御することによ
り、上記文字列の音声を音声合成してスピーカ57を介
して出力し、もしくは、当該音声合成の音声信号をNC
U55及び公衆電話回線Lを介して通信の相手方に対し
て送信する。以上の回路51乃至56及び電話番号検索
部60とは、バス58を介して主制御部50に接続され
る。FIG. 12 shows the configuration of a telephone with an automatic dialing function according to the present embodiment, and the main control unit 50
Is composed of a CPU and controls the overall operation of this telephone by executing a predetermined operation program stored in the ROM 51. The RAM 52 stores data required when the operation program is executed by the main control unit 50, and is used as a temporary working memory for the main control unit 50. The display unit 53 is, for example, a display device such as a liquid crystal display device (LCD), and displays the operating state of the telephone, the name of the transmission destination, and the telephone number. The operation unit 54 also includes character keys, a numeric keypad for dialing, speed dial keys, various function keys, and the like necessary for operating the telephone. Further, the network control unit (NCU) 55 is an MTD that performs an operation of closing and opening a DC loop of an analog public telephone line L and has an automatic dial function.
A hardware circuit including an F dialer, which is connected to the handset 59 as necessary, or the voice synthesis output unit 5
The output from 6 is connected to the public telephone line L. Furthermore, the voice synthesis output unit 56 includes, for example, a pulse generator, a noise generator, a variable gain amplifier, and a filter, and is controlled by the main control unit 50 using a well-known voice synthesis method. After converting the text data of the character string to a predetermined parameter time series, the pulse generator is controlled based on the pitch, and the pulse generator and the noise generator are selectively selected based on voiced / unvoiced switching. By switching and using, the variable gain amplifier is controlled based on the amplitude value, and the filter is controlled based on the filter coefficient value, the voice of the character string is voice-synthesized and output through the speaker 57, Alternatively, the voice signal of the voice synthesis is NC.
It is transmitted to the other party of communication via the U55 and the public telephone line L. The above circuits 51 to 56 and the telephone number search unit 60 are connected to the main control unit 50 via the bus 58.
【0105】電話番号テーブルメモリ61は、人名とそ
れに対応する電話番号をテーブルの形式で予め記憶す
る。そして、電話番号検索部60は、音声認識装置10
0からの音声認識結果の「発信」という単語に続く文字
列の人名の単語に基づいて、当該人名に対応する電話番
号の情報を電話番号テーブルメモリ61から読み出し
て、当該電話番号の情報をバス58を介して主制御部5
0に出力する。これに応答して、主制御部50は、電話
番号の情報をNCU55内のMTDFダイヤラーに出力
し、このとき、NCU55は発信のためにオフフックし
た後、MTDFダイヤラーは入力される電話番号の情報
に対応するダイヤル信号を発生して公衆電話回線Lに対
して送出する。これにより、ユーザがマイクロホン1を
介して発声した人名に対応する電話番号の電話機に対し
て発信できる。The telephone number table memory 61 stores in advance a person's name and a telephone number corresponding thereto in the form of a table. Then, the telephone number search unit 60 uses the voice recognition device 10
Based on the word of the person's name in the character string following the word "call" in the voice recognition result from 0, the information of the telephone number corresponding to the person's name is read from the telephone number table memory 61, and the information of the telephone number is stored in the bus. Main control unit 5 via 58
Output to 0. In response to this, the main control unit 50 outputs the telephone number information to the MTDF dialer in the NCU 55. At this time, after the NCU 55 goes off-hook to make a call, the MTDF dialer changes the input telephone number information. A corresponding dial signal is generated and sent to the public telephone line L. This allows the user to make a call to the telephone having the telephone number corresponding to the person's name uttered by the microphone 1.
【0106】この第2の実施形態によれば、音声認識及
び自動ダイヤリング機能を備えた電話機において、単語
辞書において未登録の未登録語に関する音声認識の精度
を従来例に比較して高くすることができる音声認識装置
を用いて情報検索を実行することができ、これにより、
限られたメモリで多数の人名などの固有名詞が音声認識
可能となるため、データベースを備えた電話機におい
て、従来技術に比較して高い精度で情報検索が可能とな
る。また、高い音声認識率で自動ダイヤリングできる。According to the second embodiment, in a telephone having a voice recognition and automatic dialing function, the accuracy of voice recognition regarding an unregistered word that is not registered in the word dictionary is higher than that of the conventional example. It is possible to perform information retrieval using a voice recognition device capable of
Since a large number of proper names such as personal names can be recognized by voice in a limited memory, it is possible to retrieve information with higher accuracy in a telephone equipped with a database as compared with the prior art. Also, automatic dialing can be performed with a high voice recognition rate.
【0107】以上の実施形態においては、有限状態オー
トマトンモデル生成部23a及び有限状態オートマトン
メモリ43aを備えているが、本発明はこれに限らず、
それぞれ図1の単語クラスN−gramモデル生成部2
3、図1の単語クラスN−gramモデルメモリ43を
備えてもよい。Although the finite state automaton model generation unit 23a and the finite state automaton memory 43a are provided in the above embodiment, the present invention is not limited to this.
The word class N-gram model generation unit 2 in FIG.
3, the word class N-gram model memory 43 of FIG. 1 may be provided.
【0108】<第3の実施形態>図13は、本発明に係
る第3の実施形態である構内交換機(PBX)の構成を
示すブロック図である。この実施形態は、図11の音声
認識装置100及び図12の電話番号検索部60、電話
番号テーブルメモリ61を、構内交換機の内線転送又は
外線転送に適用したことを特徴としている。<Third Embodiment> FIG. 13 is a block diagram showing the configuration of a private branch exchange (PBX) according to a third embodiment of the present invention. This embodiment is characterized in that the voice recognition device 100 of FIG. 11 and the telephone number search unit 60 and the telephone number table memory 61 of FIG. 12 are applied to extension transfer or outside line transfer of a private branch exchange.
【0109】図13において、主制御部150は、CP
Uで構成され、ROM151内に格納される所定の動作
プログラムを実行することによりこの構内交換機の全体
の動作を制御する。RAM152は、主制御部150で
動作プログラムを実行するときに必要なデータを格納す
るとともに、主制御部150のための一時的なワーキン
グメモリとして用いられる。表示部153は、例えば液
晶表示装置(LCD)等の表示装置であり、当該構内交
換機の動作状態を表示したり、送信先の名称や電話番号
を表示する。また、操作部154は、当該構内交換機を
操作するために必要な文字キー、ダイヤル用テンキーや
各種のファンクションキー等を備える。さらに、ネット
ワークコントロールユニット(NCU)155は、外線
である複数の公衆電話回線L1乃至LNと、内線電話機
T1乃至TMに接続された内線とを交互に接続する電話
交換スイッチ回路を備えるとともに、アナログの各公衆
電話回線L1乃至LNの直流ループなどの閉結及び開放
の動作を行い、かつ自動ダイヤル機能を有するMTDF
ダイヤラーを含むハードウェア回路であり、必要に応じ
て音声合成出力部156からの出力を公衆電話回線L1
乃至LNに接続する。またさらに、音声合成出力部15
6は、図12の音声合成出力部56と同様に構成され、
主制御部50からの制御により、音声合成すべき文字列
のテキストデータを音声合成して、上記文字列の音声を
音声合成してその音声信号をNCU155及び公衆電話
回線L1乃至LNを介して通信相手方に対して送信す
る。以上の回路151乃至156及び電話番号検索部6
0とは、バス158を介して主制御部150に接続され
る。In FIG. 13, the main control unit 150 displays the CP
The entire operation of this private branch exchange is controlled by executing a predetermined operation program which is composed of U and is stored in the ROM 151. The RAM 152 stores data required when the operation program is executed by the main control unit 150, and is used as a temporary working memory for the main control unit 150. The display unit 153 is, for example, a display device such as a liquid crystal display device (LCD), and displays an operating state of the private branch exchange, a destination name, and a telephone number. In addition, the operation unit 154 includes character keys necessary for operating the private branch exchange, numeric keys for dialing, various function keys, and the like. Further, the network control unit (NCU) 155 includes a telephone exchange switch circuit that alternately connects a plurality of public telephone lines L1 to LN that are external lines and extension lines that are connected to the extension telephones T1 to TM, and also has an analog switching circuit. MTDF for closing and opening DC loops of each public telephone line L1 to LN and having an automatic dialing function
A hardware circuit including a dialer, which outputs the output from the voice synthesis output unit 156 to the public telephone line L1 as necessary.
To LN. Furthermore, the voice synthesis output unit 15
6 is configured similarly to the voice synthesis output unit 56 of FIG. 12,
Under the control of the main control unit 50, the text data of the character string to be voice-synthesized is voice-synthesized, the voice of the character string is voice-synthesized, and the voice signal is communicated via the NCU 155 and the public telephone lines L1 to LN. Send to the other party. The above circuits 151 to 156 and the telephone number search unit 6
0 is connected to the main control unit 150 via the bus 158.
【0110】電話番号テーブルメモリ61bは、人名と
それに対応する内線電話番号及び外線電話番号をテーブ
ルの形式で予め記憶する。そして、主制御部150は、
NCU155において公衆電話回線L1乃至LNにうち
の1つからの着信に対して自動応答し、「こちらは、A
BC会社です。内線のどちらにお繋ぎしましょうか?」
という音声合成信号を音声合成出力部156で発生させ
て相手方に出力する。これに対して、相手方から発声さ
れる内線転送すべき人名の音声信号をNCU155から
音声認識装置100の特徴抽出器2に出力する。このと
き、音声認識装置100は音声認識処理を実行し、音声
認識結果の文字列を電話番号検索部60に出力する。こ
れに応答して、電話番号検索部60は、音声認識装置1
00からの音声認識結果の文字列の人名の単語に基づい
て、当該人名に対応する内線電話番号の情報を電話番号
テーブルメモリ61bから読み出して、当該内線電話番
号の情報をバス158を介して主制御部150に出力す
る。これに応答して、主制御部150は、内線番号の情
報に基づいてNCU155を制御して、当該着信してき
た公衆電話回線を対応する内線番号の内線電話機に接続
することにより、内線転送が完了する。The telephone number table memory 61b stores in advance a person's name and corresponding extension telephone numbers and outside telephone numbers in the form of a table. Then, the main controller 150
The NCU 155 automatically responds to an incoming call from one of the public telephone lines L1 to LN.
It is a BC company. Which extension should I connect to? "
The voice synthesis signal is generated by the voice synthesis output unit 156 and output to the other party. On the other hand, the voice signal of the person's name to be transferred by extension, which is uttered by the other party, is output from the NCU 155 to the feature extractor 2 of the voice recognition device 100. At this time, the voice recognition device 100 executes the voice recognition process and outputs the character string of the voice recognition result to the telephone number search unit 60. In response to this, the telephone number search unit 60 causes the voice recognition device 1 to
The information of the extension telephone number corresponding to the person's name is read from the telephone number table memory 61b based on the word of the person's name of the character string of the voice recognition result from 00, and the information of the extension telephone number is mainly transmitted via the bus 158. Output to the control unit 150. In response to this, the main control unit 150 controls the NCU 155 based on the information of the extension number to connect the incoming public telephone line to the extension telephone of the corresponding extension number, thereby completing the extension transfer. To do.
【0111】以上の実施形態においては、内線転送の例
について説明しているが、内線電話機T1乃至TMから
公衆電話回線への外線発信でも同様に、音声認識装置1
00、電話番号検索部60及び電話番号テーブルメモリ
61bを用いて、ユーザが外線発信したい「人名」を発
声するだけで外線発信を実行できるように構成できる。In the above embodiment, an example of extension transfer has been described, but the same applies to the voice recognition device 1 when an extension call is made from the extension telephones T1 to TM to the public telephone line.
00, the telephone number search unit 60, and the telephone number table memory 61b can be configured so that the user can make an outside line by simply saying the "personal name" that the user wants to make an outside line.
【0112】この第3の実施形態によれば、音声認識及
び自動転送機能を備えた構内交換機において、単語辞書
において未登録の未登録語に関する音声認識の精度を従
来例に比較して高くすることができる音声認識装置を用
いて情報検索を実行することができ、これにより、限ら
れたメモリで多数の人名などの固有名詞が音声認識可能
となるため、データベースを備えた構内交換機におい
て、従来技術に比較して高い精度で情報検索が可能とな
る。また、高い音声認識率で自動転送できる。According to the third embodiment, in the private branch exchange equipped with the voice recognition and automatic transfer functions, the accuracy of voice recognition regarding unregistered words that are not registered in the word dictionary is higher than that of the conventional example. It is possible to perform information retrieval by using a voice recognition device capable of performing voice recognition, which enables voice recognition of a large number of proper names such as personal names in a limited memory. Information can be searched with higher accuracy than Also, automatic transfer is possible with a high voice recognition rate.
【0113】<第4の実施形態>図14は、本発明に係
る第4の実施形態であるカーナビゲーションシステムの
構成を示すブロック図である。この実施形態は、図11
の音声認識装置100をカーナビゲーションシステムに
適用したことを特徴としている。<Fourth Embodiment> FIG. 14 is a block diagram showing the configuration of a car navigation system according to a fourth embodiment of the present invention. This embodiment is shown in FIG.
The voice recognition device 100 is applied to a car navigation system.
【0114】図14において、主制御部250は、CP
Uで構成され、ROM251内に格納される所定の基本
プログラム及びCD−ROMドライブ装置259内のC
D−ROMからフラッシュメモリ258にロードされた
アプリケーションプログラムを実行することによりこの
カーナビゲーションシステムの全体の動作を制御する。
RAM252は、主制御部250で基本プログラム又は
アプリケーションプログラムを実行するときに必要なデ
ータを格納するとともに、主制御部250のための一時
的なワーキングメモリとして用いられる。表示部253
は、例えば液晶表示装置(LCD)等の表示装置であ
り、当該カーナビゲーションの動作状態を表示したり、
指示された地名付近の地図やナビゲーション情報を表示
する。また、操作部254は、当該ナビゲーションシス
テムを操作するために必要な文字キー、ダイヤル用テン
キーや各種のファンクションキー等を備える。さらに、
音声合成出力部256は、図12の音声合成出力部56
と同様に構成され、主制御部250からの制御により、
音声合成すべき文字列のテキストデータを音声合成し
て、上記文字列の音声を音声合成してその音声信号をス
ピーカ257に出力する。CD−ROMドライブ装置2
59には、カーナビゲーションのためのアプリケーショ
ンプログラム及び地図情報などのカーナビゲーション情
報を格納したCD−ROMが挿入され、これらの情報は
当該CD−ROMからCD−ROMドライブ装置259
及びバス258を介してフラッシュメモリ258にロー
ドされて利用される。以上の回路251乃至256、2
59及び地名検索部60aとは、バス258を介して主
制御部250に接続される。In FIG. 14, the main controller 250 uses the CP
A predetermined basic program which is composed of U and is stored in the ROM 251 and C in the CD-ROM drive device 259.
The entire operation of this car navigation system is controlled by executing the application program loaded from the D-ROM to the flash memory 258.
The RAM 252 stores data necessary when the main control unit 250 executes the basic program or the application program, and is used as a temporary working memory for the main control unit 250. Display unit 253
Is a display device such as a liquid crystal display device (LCD), and displays the operation state of the car navigation,
Display the map and navigation information around the designated place name. In addition, the operation unit 254 includes character keys necessary for operating the navigation system, numeric keys for dialing, various function keys, and the like. further,
The voice synthesis output unit 256 is the voice synthesis output unit 56 of FIG.
Is configured in the same manner as described above, and by the control from the main control unit 250,
The text data of the character string to be voice-synthesized is voice-synthesized, the voice of the character string is voice-synthesized, and the voice signal is output to the speaker 257. CD-ROM drive device 2
A CD-ROM storing car navigation information such as an application program for car navigation and map information is inserted in 59, and these pieces of information are transferred from the CD-ROM to a CD-ROM drive device 259.
And is loaded into the flash memory 258 via the bus 258 and used. The above circuits 251-256, 2
59 and the place name search unit 60a are connected to the main control unit 250 via a bus 258.
【0115】地名テーブルメモリ61aは、地名とそれ
に対応する位置情報(緯度や経度の情報)をテーブルの
形式で予め記憶する。そして、ユーザが音声認識装置1
00のマイクロホン1に対して地名を発声したとき、音
声認識装置100は音声認識処理を実行し、音声認識結
果の文字列を地名検索部60aに出力する。これに応答
して、地名検索部60aは、音声認識装置100からの
音声認識結果の文字列の地名の単語に基づいて、当該地
名に対応する位置情報を地名テーブルメモリ61aから
読み出して、当該位置情報をバス258を介して主制御
部250に出力する。これに応答して、主制御部250
は、当該位置情報に基づいて、フラッシュメモリ258
内の地図情報などのカーナビゲーション情報を検索し
て、検索された対応する情報を表示部253に表示する
とともに、検索された音声情報を音声合成出力部256
に出力することにより、スピーカ257から当該音声合
成された音声を出力させる。The place name table memory 61a stores place names and position information (latitude and longitude information) corresponding thereto in advance in the form of a table. Then, the user recognizes the voice recognition device 1
When the place name is uttered to the microphone 1 of 00, the voice recognition device 100 executes the voice recognition process and outputs the character string of the voice recognition result to the place name search unit 60a. In response to this, the place name search unit 60a reads the position information corresponding to the place name from the place name table memory 61a, based on the word of the place name in the character string of the voice recognition result from the voice recognition device 100, and the position concerned. The information is output to the main control unit 250 via the bus 258. In response to this, the main control unit 250
On the basis of the position information.
The car navigation information such as map information in the inside is searched, the corresponding searched information is displayed on the display unit 253, and the searched voice information is output to the voice synthesis output unit 256.
To output the synthesized voice from the speaker 257.
【0116】この第4の実施形態によれば、音声認識及
びカーナビゲーション機能を有するカーナビゲーション
システムにおいて未登録の未登録語に関する音声認識の
精度を従来例に比較して高くすることができる音声認識
装置を用いて情報検索を実行することができ、これによ
り、限られたメモリで多数の地名なの固有名詞が音声認
識可能となるため、データベースを備えたカーナビゲー
ションシステムにおいて従来技術に比較して高い精度で
情報検索が可能となる。また、高い音声認識率で地名を
音声認識でき、適切にカーナビゲーションの処理を実行
できる。According to the fourth embodiment, in the car navigation system having the voice recognition and car navigation functions, the accuracy of voice recognition regarding unregistered unregistered words can be increased as compared with the conventional example. It is possible to perform information retrieval using the device, which makes it possible to recognize a large number of proper names of place names with voice in a limited memory, which is higher in a car navigation system with a database than in the prior art. Information can be retrieved with accuracy. Further, the place name can be recognized by voice with a high voice recognition rate, and the car navigation process can be appropriately executed.
【0117】以上の第2、第3及び第4の実施形態にお
いては、電話機、構内交換機、カーナビゲーションシス
テムの例について説明しているが、本発明はこれに限ら
ず、単語リストに対応する普通名詞の単語データとそれ
に対応する情報とを含むデータベースメモリを記憶し、
音声認識装置100から出力される音声認識結果の文字
列をキーとして用いて、上記データベースの記憶装置に
記憶されたデータベースから検索して、一致する単語デ
ータに対応する情報を上記データベースメモリから読み
出して出力し、さらには、当該検索された情報に基づい
て、所定の処理を実行することができる。In the above second, third and fourth embodiments, examples of a telephone set, a private branch exchange, and a car navigation system are explained, but the present invention is not limited to this, and an ordinary word list corresponding to Stores a database memory containing word data of nouns and corresponding information,
Using the character string of the voice recognition result output from the voice recognition device 100 as a key, the database stored in the storage device of the database is searched, and the information corresponding to the matching word data is read from the database memory. It is possible to output and further execute a predetermined process based on the retrieved information.
【0118】<第5の実施形態>図15は、本発明に係
る第5の実施形態であるかな漢字変換装置の構成を示す
ブロック図であり、図1と同様のものについては同一の
符号を付している。この実施形態に係るかな漢字変換装
置は、キーボード71と、キーボードインターフェース
72と、音素HMMメモリ11及び単語辞書メモリ12
が接続された単語照合部4aと、バッファメモリ5と、
統計的言語モデルメモリ44が接続された単語仮説絞込
部6とを備えて構成される。<Fifth Embodiment> FIG. 15 is a block diagram showing the arrangement of a Kana-Kanji conversion apparatus according to the fifth embodiment of the present invention. The same components as those in FIG. 1 are designated by the same reference numerals. is doing. The kana-kanji conversion device according to this embodiment includes a keyboard 71, a keyboard interface 72, a phoneme HMM memory 11 and a word dictionary memory 12.
A word matching unit 4a connected to, a buffer memory 5,
And a word hypothesis narrowing unit 6 to which a statistical language model memory 44 is connected.
【0119】ここで、単語辞書メモリ12は、図1の単
語辞書生成部22により生成された単語辞書を記憶し、
ここで、単語辞書は、学習用データメモリ30に記憶さ
れたファイル(図1や図11に図示の、日本人姓ファイ
ル30a、日本人名ファイル30b、地名ファイル30
cに限らず、上述のように、外国人の姓と名、会社名、
各種施設名、各種製品名などの単語を含んでもよい。)
及びテキストデータメモリ31内のテキストデータの単
語に対応する漢字表記の複数の単語データを含む。ま
た、統計的言語モデルメモリ44は、図1の言語モデル
生成部24により生成された統計的言語モデルを記憶
し、この統計的言語モデルは上記学習用データメモリ3
0に記憶されたファイル及びテキストデータメモリ31
内のテキストデータの単語に基づいて生成される。Here, the word dictionary memory 12 stores the word dictionary generated by the word dictionary generator 22 of FIG.
Here, the word dictionary is a file stored in the learning data memory 30 (Japanese surname file 30a, Japanese name file 30b, place name file 30 shown in FIGS. 1 and 11).
Not limited to c, as described above, the foreigner's surname and first name, company name,
Words such as various facility names and various product names may be included. )
And a plurality of word data in Kanji notation corresponding to the words of the text data in the text data memory 31. Further, the statistical language model memory 44 stores the statistical language model generated by the language model generation unit 24 of FIG. 1, and this statistical language model is the learning data memory 3 described above.
File and text data memory 31 stored in 0
Generated based on the words in the text data in.
【0120】図15において、キーボード71は、かな
文字列を入力するための入力手段であり、キーボードイ
ンターフェース72はキーボード71を用いて入力され
たかな文字列のデータを一旦格納した後、所定の信号変
換などの処理を実行した後、単語照合部4aに出力す
る。単語照合部4aは、ワン−パス・ビタビ復号化法を
用いて、キーボードインターフェース72を介して入力
されるかな文字列のデータに基づいて、音素HMMメモ
リ11内の音素HMMと、単語辞書メモリ12内の単語
辞書とを用いて単語仮説を検出し尤度を計算して出力す
る。ここで、具体的には、単語照合部4aは、単語辞書
を参照して、入力されたかな文字列と、上記単語辞書内
の単語との間の単語照合及び尤度計算を行い、一致した
ときに漢字表記の単語に変換して単語仮説の文字列とし
て尤度とともに出力する一方、一致しないときにかな文
字のまま単語仮説の文字列として尤度とともに出力す
る。単語照合部4aからの出力データはバッファメモリ
5を介して単語仮説絞込部6に入力される。単語仮説絞
込部6は、単語照合部4aからバッファメモリ5を介し
て出力される単語仮説に基づいて、統計的言語モデルメ
モリ44内の統計的言語モデルを参照して、終了時刻が
等しく開始時刻が異なる同一の単語の単語仮説に対し
て、当該単語の先頭音素環境毎に、発声開始時刻から当
該単語の終了時刻に至る計算された総尤度のうちの最も
高い尤度を有する1つの単語仮説で代表させるように単
語仮説の絞り込みを行った後、絞り込み後のすべての単
語仮説の単語列のうち、最大の総尤度を有し漢字表記を
含む仮説の単語列を認識結果として出力する。In FIG. 15, a keyboard 71 is an input means for inputting a kana character string, and a keyboard interface 72 temporarily stores the data of the kana character string input using the keyboard 71 and then a predetermined signal. After performing processing such as conversion, it outputs to the word collating unit 4a. The word matching unit 4a uses the one-pass Viterbi decoding method, based on the data of the kana character string input via the keyboard interface 72, and the phoneme HMM in the phoneme HMM memory 11 and the word dictionary memory 12. The word hypothesis is used to detect the word hypothesis, and the likelihood is calculated and output. Here, specifically, the word matching unit 4a refers to the word dictionary, performs word matching and likelihood calculation between the input kana character string and the word in the word dictionary, and matches. At times, it is converted into a word in Kanji notation and output as a character string of a word hypothesis with likelihood, while when it does not match, it is output as a kana character string as a character string of word hypothesis with likelihood. The output data from the word matching unit 4a is input to the word hypothesis narrowing unit 6 via the buffer memory 5. The word hypothesis narrowing unit 6 refers to the statistical language model in the statistical language model memory 44 on the basis of the word hypothesis output from the word matching unit 4a via the buffer memory 5 and starts the end times at the same time. For the word hypothesis of the same word at different times, one of the highest likelihoods of the calculated total likelihoods from the utterance start time to the end time of the word is calculated for each head phoneme environment of the word. After narrowing down the word hypotheses so that they are represented by the word hypotheses, out of the word strings of all the word hypotheses after narrowing down, the word string of the hypothesis that has the maximum total likelihood and contains the Kanji notation is output as the recognition result. To do.
【0121】この第5の実施形態によれば、かな漢字変
換装置によれば、上記統計的言語モデルを利用して、か
な漢字変換率を従来技術に比較して向上できるかな漢字
変換装置を提供するができる。従って、例えば未登録の
固有名詞も変換可能とすることができる。According to the fifth embodiment, the kana-kanji conversion device can provide the kana-kanji conversion device which can improve the kana-kanji conversion rate as compared with the prior art by using the statistical language model. . Therefore, for example, unregistered proper nouns can be converted.
【0122】[0122]
【発明の効果】以上詳述したように本発明によれば、ク
ラスに依存して構築された未登録語モデルを含む統計的
言語モデルを生成したので、次の特有の効果を得ること
ができる。
(1)モデル化対象を限定することで、読みの統計的特
徴をより明確化することができ、クラス固有のパラメー
タ制約を導入できるため、未登録語モデルを高精度化す
ることができる。
(2)検出区間の言語処理が可能である。未登録語は、
読みに加えクラスも同時に同定される。読みとクラス
は、固有名詞の言語処理において必要十分な情報となる
ケースが多いものと考えられる。
(3)上記生成された統計的言語モデルを用いて音声認
識することにより、従来技術に比較して高い認識率で音
声認識することができる。As described above in detail, according to the present invention, since the statistical language model including the unregistered word model constructed depending on the class is generated, the following unique effect can be obtained. . (1) By limiting the modeling target, it is possible to clarify the statistical characteristics of reading and to introduce the parameter constraint peculiar to the class. Therefore, the accuracy of the unregistered word model can be improved. (2) Language processing of the detection section is possible. Unregistered words are
In addition to reading, the class is also identified at the same time. Yomi and class are considered to be necessary and sufficient information in the language processing of proper nouns in many cases. (3) By using the generated statistical language model for voice recognition, it is possible to perform voice recognition with a higher recognition rate as compared with the related art.
【0123】また、本発明に係る情報検索処理装置によ
れば、電話機における音声認識及び自動ダイヤリング機
能や、カーナビゲーションなどの小規模の情報検索処理
装置において、単語辞書において未登録の未登録語に関
する音声認識の精度が従来例に比較して高い音声認識装
置を用いて情報検索を実行することができる。従って、
限られたメモリで多数の人名や地名などの固有名詞が音
声認識可能となるため、データベースを備えた小型携帯
装置などの情報検索処理装置において、従来技術に比較
して高い精度で情報検索が可能となる。Further, according to the information retrieval processing device of the present invention, in a small-scale information retrieval processing device such as voice recognition and automatic dialing function in a telephone or car navigation, unregistered words not registered in the word dictionary. It is possible to perform information retrieval using a voice recognition device in which the accuracy of voice recognition is higher than that in the conventional example. Therefore,
Since a large number of personal names and place names such as place names can be recognized by voice in a limited memory, information retrieval processing devices such as small portable devices equipped with a database can retrieve information with higher accuracy than conventional technologies. Becomes
【0124】[0124]
【図1】 本発明に係る第1の実施形態である連続音声
認識システムのブロック図である。FIG. 1 is a block diagram of a continuous speech recognition system according to a first embodiment of the present invention.
【図2】 図1の連続音声認識システムにおける単語仮
説絞込部6の処理を示すタイミングチャートである。2 is a timing chart showing a process of a word hypothesis narrowing unit 6 in the continuous speech recognition system of FIG.
【図3】 図1の未登録語モデル生成部20によって実
行される未登録語モデル生成処理を示すフローチャート
である。FIG. 3 is a flowchart showing an unregistered word model generation process executed by an unregistered word model generation unit 20 in FIG.
【図4】 図3のサブルーチンであるサブワード2−g
ramの単位決定処理(ステップS4)を示すフローチ
ャートである。FIG. 4 is a sub word 2-g which is a subroutine of FIG.
It is a flowchart which shows the unit determination process (step S4) of ram.
【図5】 図1の言語モデル生成部24によって実行さ
れる言語モデル生成処理を示すフローチャートである。5 is a flowchart showing a language model generation process executed by the language model generation unit 24 of FIG.
【図6】 本発明者の分析による、日本人の姓及び名並
びに旅行会話における単語の長さの分布を示すグラフで
あって、モーラ長に対する単語数の割合を示すグラフで
ある。FIG. 6 is a graph showing the distribution of word names in Japanese family names and first names and travel conversations, which is analyzed by the present inventors, and is a graph showing the ratio of the number of words to the mora length.
【図7】 第1の実施形態に係るクラス依存未登録語モ
デルに基づく統計的言語モデルの一例を示す状態遷移図
である。FIG. 7 is a state transition diagram showing an example of a statistical language model based on the class-dependent unregistered word model according to the first embodiment.
【図8】 第1の実施形態に係る統計的言語モデルの一
例を示す状態遷移図である。FIG. 8 is a state transition diagram showing an example of the statistical language model according to the first embodiment.
【図9】 図1の未登録語モデル生成部20によって実
行される未登録語モデル生成処理における、モーラ連鎖
の単位化による平均尤度の向上を示すグラフであって、
モーラ連鎖の種類の数に対する平均尤度を示すグラフで
ある。9 is a graph showing the improvement of the average likelihood due to the unitization of the mora chain in the unregistered word model generation processing executed by the unregistered word model generation unit 20 of FIG.
It is a graph which shows the average likelihood with respect to the number of types of mora chain.
【図10】 本発明者による第1の実施形態の連続音声
認識システムに係る実験の実験結果であって、日本人の
姓及び名の再現率におけるモーラ連鎖の単位化効果を示
すグラフであり、モーラ連鎖の種類の数に対する単語再
現率を示すグラフである。FIG. 10 is an experimental result of an experiment relating to the continuous speech recognition system of the first embodiment by the present inventor, and is a graph showing the unitization effect of the mora chain in the recall rate of Japanese surnames and given names; It is a graph which shows the word recall with respect to the number of types of mora chain.
【図11】 本発明に係る第2の実施形態である連続音
声認識システムの構成を示すブロック図である。FIG. 11 is a block diagram showing a configuration of a continuous speech recognition system according to a second embodiment of the present invention.
【図12】 図11の連続音声認識システムを用いた、
自動ダイヤリング機能付き電話機の構成を示すブロック
図である。FIG. 12 is a diagram showing a case of using the continuous speech recognition system of FIG.
It is a block diagram showing a configuration of a telephone with an automatic dialing function.
【図13】 本発明に係る第3の実施形態である構内交
換機(PBX)の構成を示すブロック図である。FIG. 13 is a block diagram showing a configuration of a private branch exchange (PBX) according to a third embodiment of the present invention.
【図14】 本発明に係る第4の実施形態であるカーナ
ビゲーションシステムの構成を示すブロック図である。FIG. 14 is a block diagram showing a configuration of a car navigation system that is a fourth embodiment according to the present invention.
【図15】 本発明に係る第5の実施形態であるかな漢
字変換装置の構成を示すブロック図である。FIG. 15 is a block diagram showing a configuration of a kana-kanji conversion device according to a fifth embodiment of the present invention.
1…マイクロホン、
2…特徴抽出部、
3,5…バッファメモリ、
4,4a…単語照合部、
6…単語仮説絞込部、
11…音素HMMメモリ、
12…単語辞書メモリ、
20…未登録モデル生成部、
21…サブワード単位データ生成部、
22…単語辞書生成部、
23…単語クラスN−gramモデル生成部、
23a…有限状態オートマトンモデル生成部、
24…言語モデル生成部、
30…学習データメモリ、
30a…日本人姓ファイル、
30b…日本人名ファイル、
30c…地名ファイル、
31…テキストデータベースメモリ、
40…サブワード単位N−gramモデルメモリ、
41…モーラ長ガンマ分布データメモリ、
42…ラベル付きサブワード単位データメモリ、
43…単語クラスN−gramモデルメモリ、
43a…有限状態オートマトンモデルメモリ、
44…統計的言語モデルメモリ、
50…主制御部、
51…ROM、
52…RAM、
53…表示部、
54…操作部、
55…ネットワークコントロールユニット(NCU)、
56…音声合成出力部、
57…スピーカ、
58…バス、
59…送受話器、
60…電話番号検索部、
60a…地名検索部、
61,61b…電話番号テーブルメモリ、
61a…地名テーブルメモリ、
71…キーボード、
72…キーボードインターフェース、
100…音声認識装置、
150…主制御部、
151…ROM、
152…RAM、
153…表示部、
154…操作部、
155…ネットワークコントロールユニット(NC
U)、
156…音声合成出力部、
158…バス、
250…主制御部、
251…ROM、
252…RAM、
253…表示部、
254…操作部、
256…音声合成出力部、
257…スピーカ、
258…バス、
259…CD−ROMドライブ装置、
L,L1乃至LN…公衆電話回線、
T1乃至TM…内線電話機。1 ... Microphone, 2 ... Feature extraction section, 3, 5 ... Buffer memory, 4, 4a ... Word matching section, 6 ... Word hypothesis narrowing section, 11 ... Phoneme HMM memory, 12 ... Word dictionary memory, 20 ... Unregistered model Generation unit, 21 ... Subword unit data generation unit, 22 ... Word dictionary generation unit, 23 ... Word class N-gram model generation unit, 23a ... Finite state automaton model generation unit, 24 ... Language model generation unit, 30 ... Learning data memory , 30a ... Japanese surname file, 30b ... Japanese name file, 30c ... Place name file, 31 ... Text database memory, 40 ... Subword unit N-gram model memory, 41 ... Mora length gamma distribution data memory, 42 ... Labeled subword unit Data memory, 43 ... Word class N-gram model memory, 43a ... Finite state State automaton model memory, 44 ... Statistical language model memory, 50 ... Main control unit, 51 ... ROM, 52 ... RAM, 53 ... Display unit, 54 ... Operation unit, 55 ... Network control unit (NCU), 56 ... Speech synthesis Output unit, 57 ... Speaker, 58 ... Bus, 59 ... Handset, 60 ... Telephone number search unit, 60a ... Place name search unit, 61, 61b ... Telephone number table memory, 61a ... Place name table memory, 71 ... Keyboard, 72 ... Keyboard interface, 100 ... Voice recognition device, 150 ... Main control unit, 151 ... ROM, 152 ... RAM, 153 ... Display unit, 154 ... Operation unit, 155 ... Network control unit (NC)
U), 156 ... Voice synthesis output section, 158 ... Bus, 250 ... Main control section, 251 ... ROM, 252 ... RAM, 253 ... Display section, 254 ... Operation section, 256 ... Voice synthesis output section, 257 ... Speaker, 258 ... bus, 259 ... CD-ROM drive device, L, L1 to LN ... public telephone line, T1 to TM ... extension telephone.
───────────────────────────────────────────────────── フロントページの続き (72)発明者 匂坂 芳典 京都府相楽郡精華町大字乾谷小字三平谷 5番地 株式会社エイ・ティ・アール音 声翻訳通信研究所内 (56)参考文献 特開2001−51996(JP,A) 特開 平6−308994(JP,A) 特開2000−99082(JP,A) Masaaki NAGATA,A Part of Speech Est imation Method for Japanese Unknown Words using a Stat istical Model of M orpholog,37th Annua l Meeting of the A ssociation for Com putational Linguis tics Proceedings o f the Conference,米 国,Association for Computational Ling uistics,1999年 6月20日, 277−284 (58)調査した分野(Int.Cl.7,DB名) G10L 15/18 JICSTファイル(JOIS)─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Yoshinori Kosaka 5 Seiji-cho, Seika-cho, Soraku-gun, Kyoto Prefecture Mihiratani No. 5, A-T-R, Inc. Voice Translation Research Institute (56) References (JP, A) JP-A-6-308994 (JP, A) JP-A-2000-99082 (JP, A) Masaaki NAGATA, A Part of Speech Estimation Method for Golf Japan, Waisting in the United States of America. Annual Meeting of the Association for Computational Linguistics Pro eedings o f the Conference, the United States, Association for Computational Ling uistics, 6 May 20, 1999, 277-284 (58) investigated the field (Int.Cl. 7, DB name) G10L 15/18 JICST file (JOIS)
Claims (5)
ストを含む学習データを格納する学習データ記憶手段
と、 上記学習データ記憶手段に格納された学習データに基づ
いて、上記学習データにおけるモーラ長に対する単語数
の割合が実質的にガンマ分布に従うと仮定したときのモ
ーラ長のガンマ分布のパラメータをクラスに依存して推
定して計算するとともに、モーラ又はモーラ連鎖である
サブワード単位で、上記固有名詞又は外来語の普通名詞
の下位クラスであるクラスを有する第1のN−gram
の出現確率を計算することにより未登録語をモデル化し
たサブワード単位N−gramモデルを生成する第1の
生成手段と、 所定のテキストデータベースに基づいて生成された単語
クラスN−gramモデルと、上記第1の生成手段によ
って生成されたサブワード単位N−gramモデルと、
上記第1の生成手段によって計算されたモーラ長のガン
マ分布のパラメータとに基づいて、上記単語クラスと、
上記固有名詞又は外来語の普通名詞の下位クラスである
クラスとに依存した第2のN−gramの出現確率を計
算することによりサブワード単位に基づいた未登録語を
含む統計的言語モデルを生成する第2の生成手段とを備
えたことを特徴とする統計的言語モデル生成装置。1. A learning data storage means for storing learning data including a word list of proper nouns or common nouns of foreign words, and a mora length in the learning data based on the learning data stored in the learning data storage means. The parameter of the gamma distribution of the mora length is assumed to be calculated depending on the class, assuming that the ratio of the number of words to is substantially following the gamma distribution. Or a first N-gram having a class that is a subclass of a common noun of a foreign word
First generation means for generating a subword unit N-gram model in which an unregistered word is modeled by calculating an appearance probability of, a word class N-gram model generated based on a predetermined text database, A sub-word unit N-gram model generated by the first generation means,
The word class based on the parameters of the gamma distribution of the mora length calculated by the first generating means;
A statistical language model including unregistered words based on subword units is generated by calculating the probability of occurrence of the second N-gram depending on a class that is a subclass of the proper noun or the common noun of a foreign word. A statistical language model generation apparatus comprising: a second generation unit.
サブワード単位N−gramモデルに基づいて、上記サ
ブワード単位を抽出し、抽出したラベルを上記サブワー
ド単位に付与することにより、サブワード単位当たり複
数のラベル付きサブワード単位のデータを生成する第3
の生成手段と、 上記テキストデータベースから抽出された単語と、上記
第3の生成手段によって生成された複数のラベル付きサ
ブワード単位のデータとに対して音素並びを付与するこ
とにより単語辞書を生成する第4の生成手段とをさらに
備えたことを特徴とする請求項1記載の統計的言語モデ
ル生成装置。2. A plurality of subword units are extracted for each subword unit by extracting the subword unit based on the subword unit N-gram model generated by the first generating unit and applying the extracted label to the subword unit. Third to generate data in units of labeled subwords
Generating a word dictionary by adding a phoneme arrangement to the word extracted from the text database and the data in units of a plurality of labeled subwords generated by the third generating means. statistical language model generating apparatus according to claim 1, wherein, further comprising fourth and generating means.
いて、所定の統計的言語モデルを用いて音声認識する音
声認識手段を備えた音声認識装置において、 上記音声認識手段は、請求項1又は2記載の統計的言語
モデル生成装置によって生成された統計的言語モデル
と、請求項2記載の第4の生成手段によって生成された
単語辞書とを用いて音声認識することを特徴とする音声
認識装置。3. Based on the audio signal of the utterance sentence input, the speech recognition apparatus having speech recognizing speech recognition means by using a predetermined statistical language model, the speech recognition means, according to claim 1 or speech recognition, characterized in that the speech recognition using a statistical language model generated by 2 statistical language model generating apparatus according, a word dictionary generated by the fourth generating means according to claim 2, wherein apparatus.
語データとそれに対応する情報とを含むデータベースを
記憶するデータベース記憶手段と、 請求項3記載の音声認識装置から出力される音声認識結
果の文字列をキーとして用いて、上記データベース記憶
手段に記憶されたデータベースから検索して、一致する
単語データに対応する情報を上記データベース記憶手段
から読み出して出力する検索手段とを備えたことを特徴
とする情報検索処理装置。4. A database storage means for storing a database containing word data of common nouns corresponding to the word list and information corresponding thereto, and a character of a voice recognition result output from the voice recognition device according to claim 3. Search means for searching the database stored in the database storage means, using the column as a key, and reading and outputting information corresponding to the matching word data from the database storage means. Information retrieval processing device.
理を実行する処理実行手段を備えたことを特徴とする請
求項4記載の情報検索処理装置。5. The information search processing device according to claim 4, further comprising a processing execution means for executing a predetermined processing based on the information output from the search means. apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000378702A JP3415585B2 (en) | 1999-12-17 | 2000-12-13 | Statistical language model generation device, speech recognition device, and information retrieval processing device |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11-358947 | 1999-12-17 | ||
JP35894799 | 1999-12-17 | ||
JP2000378702A JP3415585B2 (en) | 1999-12-17 | 2000-12-13 | Statistical language model generation device, speech recognition device, and information retrieval processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001236089A JP2001236089A (en) | 2001-08-31 |
JP3415585B2 true JP3415585B2 (en) | 2003-06-09 |
Family
ID=26580871
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000378702A Expired - Lifetime JP3415585B2 (en) | 1999-12-17 | 2000-12-13 | Statistical language model generation device, speech recognition device, and information retrieval processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3415585B2 (en) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2003271083A1 (en) * | 2002-10-08 | 2004-05-04 | Matsushita Electric Industrial Co., Ltd. | Language model creation/accumulation device, speech recognition device, language model creation method, and speech recognition method |
KR100474359B1 (en) * | 2002-12-12 | 2005-03-10 | 한국전자통신연구원 | A Method for the N-gram Language Modeling Based on Keyword |
JP4528540B2 (en) * | 2004-03-03 | 2010-08-18 | 日本電信電話株式会社 | Voice recognition method and apparatus, voice recognition program, and storage medium storing voice recognition program |
JP4705023B2 (en) * | 2004-06-10 | 2011-06-22 | パナソニック株式会社 | Speech recognition apparatus, speech recognition method, and program |
WO2007097390A1 (en) | 2006-02-23 | 2007-08-30 | Nec Corporation | Speech recognition system, speech recognition result output method, and speech recognition result output program |
CN101454826A (en) * | 2006-05-31 | 2009-06-10 | 日本电气株式会社 | Speech recognition word dictionary/language model making system, method, and program, and speech recognition system |
JP4741452B2 (en) * | 2006-11-21 | 2011-08-03 | 日本放送協会 | Language model creation device, language model creation program, speech recognition device, and speech recognition program |
JP4987530B2 (en) * | 2007-03-27 | 2012-07-25 | 三菱電機株式会社 | Speech recognition dictionary creation device and speech recognition device |
JP4769286B2 (en) * | 2008-12-18 | 2011-09-07 | 日本放送協会 | Kana-kanji conversion device and kana-kanji conversion program |
KR101388569B1 (en) | 2011-08-10 | 2014-04-23 | 한국전자통신연구원 | Apparatus and method for adding new proper nouns to language model in a continuous speech recognition system |
JP5546565B2 (en) * | 2012-02-22 | 2014-07-09 | 日本電信電話株式会社 | Word addition device, word addition method, and program |
CN105632512B (en) * | 2016-01-14 | 2019-04-09 | 华南理工大学 | A kind of dual sensor sound enhancement method and device based on statistical model |
CN112711943B (en) * | 2020-12-17 | 2023-11-24 | 厦门市美亚柏科信息股份有限公司 | Uygur language identification method, device and storage medium |
-
2000
- 2000-12-13 JP JP2000378702A patent/JP3415585B2/en not_active Expired - Lifetime
Non-Patent Citations (1)
Title |
---|
Masaaki NAGATA,A Part of Speech Estimation Method for Japanese Unknown Words using a Statistical Model of Morpholog,37th Annual Meeting of the Association for Computational Linguistics Proceedings of the Conference,米国,Association for Computational Linguistics,1999年 6月20日,277−284 |
Also Published As
Publication number | Publication date |
---|---|
JP2001236089A (en) | 2001-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5949961A (en) | Word syllabification in speech synthesis system | |
JP3716870B2 (en) | Speech recognition apparatus and speech recognition method | |
US5878390A (en) | Speech recognition apparatus equipped with means for removing erroneous candidate of speech recognition | |
US7590533B2 (en) | New-word pronunciation learning using a pronunciation graph | |
KR100769029B1 (en) | Method and system for voice recognition of names in multiple languages | |
US6243680B1 (en) | Method and apparatus for obtaining a transcription of phrases through text and spoken utterances | |
Wang et al. | Complete recognition of continuous Mandarin speech for Chinese language with very large vocabulary using limited training data | |
Kumar et al. | Development of Indian language speech databases for large vocabulary speech recognition systems | |
CN107705787A (en) | A kind of audio recognition method and device | |
JP2002258890A (en) | Speech recognizer, computer system, speech recognition method, program and recording medium | |
JP6245846B2 (en) | System, method and program for improving reading accuracy in speech recognition | |
JPH08278794A (en) | Speech recognition device and its method and phonetic translation device | |
JPH10501078A (en) | Method and apparatus for adapting the size of a language model of a speech recognition system | |
JP3415585B2 (en) | Statistical language model generation device, speech recognition device, and information retrieval processing device | |
JP2004133880A (en) | Method for constructing dynamic vocabulary for speech recognizer used in database for indexed document | |
JP2004170765A (en) | Apparatus and method for speech processing, recording medium, and program | |
JP4758758B2 (en) | Dictionary creation device and dictionary creation program | |
JP2013125144A (en) | Speech recognition device and program thereof | |
KR20020060978A (en) | Speech recognition with a complementary language model for typical mistakes in spoken dialogue | |
Kayte et al. | Implementation of Marathi Language Speech Databases for Large Dictionary | |
JP4269625B2 (en) | Voice recognition dictionary creation method and apparatus and voice recognition apparatus | |
JP2006012179A (en) | Natural language processor and natural language processing method | |
JP4528540B2 (en) | Voice recognition method and apparatus, voice recognition program, and storage medium storing voice recognition program | |
KR20050101695A (en) | A system for statistical speech recognition using recognition results, and method thereof | |
KR20050101694A (en) | A system for statistical speech recognition with grammatical constraints, and method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100404 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110404 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110404 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130404 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130404 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140404 Year of fee payment: 11 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |