JP2002229588A - Statistical language model forming system, speech recognizer and statistical language model forming method as well as recording medium - Google Patents

Statistical language model forming system, speech recognizer and statistical language model forming method as well as recording medium

Info

Publication number
JP2002229588A
JP2002229588A JP2001020583A JP2001020583A JP2002229588A JP 2002229588 A JP2002229588 A JP 2002229588A JP 2001020583 A JP2001020583 A JP 2001020583A JP 2001020583 A JP2001020583 A JP 2001020583A JP 2002229588 A JP2002229588 A JP 2002229588A
Authority
JP
Japan
Prior art keywords
word
language
chain
frequency
corpus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001020583A
Other languages
Japanese (ja)
Inventor
Yuzo Maruta
裕三 丸田
Yoshiharu Abe
芳春 阿部
Hirotaka Goi
啓恭 伍井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2001020583A priority Critical patent/JP2002229588A/en
Publication of JP2002229588A publication Critical patent/JP2002229588A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To solve the problems that, if a statistical language model is formed from a language corpus 201 having an extremely high sparse characteristic, there is a tendency to inclusion of words having a high unigram frequency as the recognition result of speech using the same and a recognition error is liable to occur. SOLUTION: This system is provided with word connection probability calculating means of inputting a backoff probability to a monotonously increasing function and determining the result of the computation by this function as a fresh conditional probability of a word chain in making calculation by subjecting the conditional probability of the word chain having a low appearance frequency to backoff smoothing.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は音声認識に用いら
れる統計的言語モデルを作成する統計的言語モデル作成
装置に係り、特にバックオフした場合の頻度差のダイナ
ミックレンジを緩和して低次元の単語(連鎖)頻度が大
きい単語を含む単語列が不当に高い言語確率をもつこと
を防ぐことができる統計的言語モデル生成装置、これを
用いた音声認識装置、及び統計的言語モデル作成方法並
びに記録媒体に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a statistical language model creating apparatus for creating a statistical language model used for speech recognition, and more particularly to a low-dimensional word by reducing a dynamic range of a frequency difference when backing off. (Chain) Statistical language model generation device capable of preventing a word string including a word having a high frequency from having an unduly high language probability, a speech recognition device using the same, a statistical language model creation method, and a recording medium It is about.

【0002】[0002]

【従来の技術】統計的言語モデルとは、一般的に単語の
連鎖に対する制約を記述したものであり、連続音声の認
識において続きやすい単語列についての情報を与えるも
のとして使用される。
2. Description of the Related Art A statistical language model generally describes a restriction on a chain of words, and is used as information that gives information about a word string that is likely to be continued in continuous speech recognition.

【0003】図13は特開2000−99086号公報
に開示される従来の連続音声を認識する音声認識装置の
構成を示すブロック図である。図において、101は入
力音声に対して音素、音節あるいは単語ごとの単位でパ
ターンマッチングを行うための音響モデルで、パターン
マッチングによって音響的に似通った認識候補が得られ
る。図示の例では、単語ごとに格納された音響モデル1
01を使用してパターンマッチングが行われる。102
は音響モデル101を用いて入力音声のパターンマッチ
ングを行う音響確率計算手段であって、図示の例では単
語ごとの音響モデル101を用いて入力音声がある単語
から発生した確率を全ての単語について計算する。10
3はある単語の連鎖に対する制約を記述した(統計的)
言語モデルであり、104は言語確率計算手段であっ
て、言語モデル103を用いて音響確率計算手段102
で確率計算を行った単語が発生する確率を計算し、得ら
れた確率と音響確率計算手段102で計算した確率との
合成した確率が最も大きい単語を認識結果として出力す
る。
FIG. 13 is a block diagram showing the configuration of a conventional speech recognition apparatus for recognizing continuous speech disclosed in Japanese Patent Application Laid-Open No. 2000-99086. In the figure, reference numeral 101 denotes an acoustic model for performing pattern matching on an input speech in units of phonemes, syllables, or words. A recognition candidate that is acoustically similar is obtained by pattern matching. In the illustrated example, the acoustic model 1 stored for each word
01 is used for pattern matching. 102
Is an acoustic probability calculation unit that performs pattern matching of the input voice using the acoustic model 101. In the illustrated example, the probability that the input voice occurs from a certain word is calculated for all the words using the acoustic model 101 for each word. I do. 10
3 describes constraints on a chain of words (statistical)
A language model 104 is a language probability calculation means.
The probability of occurrence of the word whose probability has been calculated is calculated, and the word having the largest combined probability of the obtained probability and the probability calculated by the acoustic probability calculation means 102 is output as a recognition result.

【0004】次に動作について説明する。先ず、音響確
率計算手段102は、入力音声に対して単語(列)ごと
に予め記憶媒体に格納されている音響モデル101を用
いてパターンマッチングを行う。このとき、入力音声を
X、ある単語(列)をwとして、入力音声Xがある単
語(列)wから発生する確率P(X|w)が、音響
確率計算手段102によって全ての単語(列)について
計算される。
Next, the operation will be described. First, the acoustic probability calculation unit 102 performs pattern matching on the input speech for each word (string) using the acoustic model 101 stored in the storage medium in advance. At this time, assuming that the input speech is X and a certain word (string) is w k , the probability P (X | w k ) of the input speech X occurring from a certain word (string) w k is calculated by the acoustic probability calculation means 102. Calculated for words (columns).

【0005】このあと、言語確率計算手段104は、不
図示の記憶媒体に予め格納されている言語モデル103
を用いて単語(列)wの発生する言語確率P(w
を全ての単語(列)wについて計算する。そして、こ
の言語確率と音響確率計算手段102によって計算され
た確率とからP(X|w)P(w)を計算し、この
値が最も大きい単語(列)を認識結果として出力する。
[0005] Thereafter, the language probability calculating means 104 stores the language model 103 stored in a storage medium (not shown) in advance.
, The language probability P (w k ) of the occurrence of a word (column) w k
Is calculated for all words (columns) w k . Then, P (X | w k ) P (w k ) is calculated from the language probability and the probability calculated by the acoustic probability calculation means 102, and the word (string) having the largest value is output as a recognition result.

【0006】図14は図13の音声認識装置に使用され
る統計的言語モデルの生成を説明する説明図である。図
において、201は言語モデルを構築するのに使用され
る言語コーパスであって、例えば新聞などの多くの文章
から構成される言語データベースを意味する。202は
Nグラム推定手段で、言語モデルコーパス201や00
〜(N−1)グラム確率モデルを用いて、Nグラム条件
付き確率において全ての単語連鎖の条件付き確率が等し
くなる方向に確率値を操作するスムージングを行ってN
グラム言語モデル203を出力する。203は言語モデ
ル103として一般的に使用されるNグラム言語モデル
で、単語N個の連鎖の出現する確率を記述するモデルで
ある。このNグラム言語モデル203は、直前の出現単
語列が(N−1)個の任意の単語であるときに、次にあ
る単語がくる確率に相当するNグラムの条件付き確率を
求め、この条件付き確率を全ての出現可能なN個の単語
による単語列について保持したものである。204−0
〜204−(N−1)は記憶手段であり、Nグラム推定
手段202によるNグラム推定の途中で使用される0〜
(N−1)グラムの確率モデルを格納する。ここで、0
グラム(0連鎖)確率を、例えば最大単語種類数の逆数
を各単語の0グラム確率と仮定し、全ての単語で等しい
値をとるものとする。
FIG. 14 is an explanatory diagram for explaining generation of a statistical language model used in the speech recognition apparatus of FIG. In the figure, reference numeral 201 denotes a language corpus used for constructing a language model, which means a language database composed of many sentences such as newspapers. 202 is an N-gram estimating means, which is a language model corpus 201 or 00
((N-1) Gram probability model is used to perform smoothing by manipulating probability values in a direction in which the conditional probabilities of all word chains are equal in the N-gram conditional probabilities.
It outputs a Gram language model 203. An N-gram language model 203 generally used as the language model 103 is a model that describes the probability of occurrence of a chain of N words. This N-gram language model 203 obtains the conditional probability of an N-gram corresponding to the probability that the next word will come when the immediately preceding word string is (N-1) arbitrary words. The attached probabilities are held for word strings of all N words that can appear. 204-0
-204- (N-1) are storage means, which are used during the N-gram estimation by the N-gram estimation means 202;
(N-1) The probability model of the gram is stored. Where 0
Assuming that the gram (zero chain) probability is, for example, the reciprocal of the maximum number of word types is the zero gram probability of each word, all words have the same value.

【0007】先ず、言語モデルの生成の概要について説
明する。Nグラム言語モデル203のNとして大きな値
をとると、組み合わせの数が膨大となるので、通常、N
としては2、3などの値が用いられる。N=2の場合を
バイグラム(2連鎖)、N=3の場合はトライグラム
(3連鎖)と呼ぶ。以降では、トライグラムを例として
説明する。このトライグラムにおける条件付き確率は、
例えば直前の出現単語列(先行2つの単語(列))がw
,wだったとき、このあとにくる単語がwである
条件付き確率P(w|w,w)で表される。この
条件付き確率を全ての出現可能な単語列(w,w
)について保持したもの(又は計算可能にしたも
の)がトライグラム言語モデルである。
First, an outline of generation of a language model will be described. If a large value is taken as N of the N-gram language model 203, the number of combinations becomes enormous.
Are used as values such as 2 and 3. A case where N = 2 is called a bigram (two chains), and a case where N = 3 is a trigram (three chains). Hereinafter, a trigram will be described as an example. The conditional probability in this trigram is
For example, if the immediately preceding word string (the two preceding words (strings)) is w
1, when he was w 2, the words that come to this after the conditional probability P is w 3 | represented by (w 3 w 1, w 2 ). This conditional probability is calculated for all possible word strings (w 1 , w 2 ,
What is held (or made computable) for w 3 ) is the trigram language model.

【0008】また、この条件付き確率は、一般にある大
きなデータベースにおいて実際に起きる事象をカウント
することによって得られる。例えばトライグラムにおい
て、条件付き確率P(w|w,w)は、単語列
(w,w,w)が出現するカウント数N(w
,w)を単語列(w,w)が出現するカウン
ト数N(w,w)で割ることにより得られる。しか
しながら、このようなNグラムモデルでは、実用化に際
して組み合わせの数が膨大となり、1回もデータベース
に出現しないNグラムが現れたり、ほんの数回しか現れ
ないNグラムが多数あるという不具合がおこる。この不
具合をスパース性と呼んでいる。このとき、1回もデー
タベースに出現しないNグラムに相当する単語列の出現
確率は0値となり、ほんの数回しか現れないNグラムで
は非常に小さい確率になって推定精度が低くなって認識
性能の劣化をもたらす要因となる。
[0008] The conditional probability is generally obtained by counting the events actually occurring in a certain large database. For example, in a trigram, the conditional probability P (w 3 | w 1 , w 2 ) is equal to the count number N (w 1 , w 1 , w 1 , w 3 ) of the word string (w 1 , w 2 , w 3 ).
w 2 , w 3 ) by the count N (w 1 , w 2 ) in which the word string (w 1 , w 2 ) appears. However, in such an N-gram model, the number of combinations is enormous in practical use, and there is a problem that N-grams that do not appear in the database even once appear or that there are many N-grams that appear only a few times. This defect is called sparsity. At this time, the appearance probability of a word string corresponding to an N-gram that does not appear in the database at least once has a value of 0, and the N-gram that appears only a few times has a very small probability, the estimation accuracy is low, and the recognition performance is low. It causes deterioration.

【0009】そこで、上記不具合を解決するために、N
グラム推定手段202によってNグラムの条件付き確率
の値を操作するスムージングが行われる。このNグラム
の条件付き確率のスムージングは、(N−1)グラムの
条件付き確率を用いて行われることが多い。例えば、単
語連鎖w−wの次に単語wが出現する条件付き確
率、即ち、トライグラムの条件付き確率P(w
,w)のスムージングでは、バイグラムの条件付
き確率P(w|w)を用いて行われる。
Therefore, in order to solve the above problem, N
The gram estimating means 202 performs smoothing for manipulating the value of the conditional probability of the N-gram. The smoothing of the conditional probability of the N-gram is often performed using the conditional probability of the (N-1) -gram. For example, the conditional probability that the next word w 3 of the word chain w 1 -w 2 appears, that is, conditional probability of the tri-gram P (w 3 |
The smoothing of w 1 , w 2 ) is performed using the bigram conditional probability P (w 3 | w 2 ).

【0010】次に言語モデルの生成動作について説明す
る。先ず、Nグラム推定手段202に0グラム確率を設
定し、これを0グラム確率モデルとして記憶手段204
−0に格納する。次に、n=1〜NまでNグラム推定手
段202によるn(0≦n≦N)グラムのスムージング
が順に行われる。nグラム推定には、記憶手段204−
(n−1)に格納された(n−1)グラム((n−1)
連鎖の単語列)が利用され、n<Nの間では推定された
nグラム条件付き確率がnグラム確率モデルとして記憶
手段204−nに格納される。このあと、n=Nとなっ
たところで、記憶手段204−0〜204−(N−1)
に順次格納されたNグラム条件付き確率がNグラム言語
モデル203として出力される。
Next, the operation of generating a language model will be described. First, 0-gram probability is set in the N-gram estimating means 202, and this is stored as a 0-gram probability model in the storage means 204.
Store to −0. Next, smoothing of n (0 ≦ n ≦ N) grams by the N-gram estimating means 202 is sequentially performed from n = 1 to N. The storage means 204-
(N-1) gram stored in (n-1) ((n-1)
The word sequence of the chain is used, and during n <N, the estimated n-gram conditional probability is stored in the storage means 204-n as an n-gram probability model. Thereafter, when n = N, the storage means 204-0 to 204- (N-1)
Are sequentially output as the N-gram language model 203.

【0011】上述したようなNグラム推定手段202に
よるスムージング動作には、バックオフと呼ばれる手法
が一般に用いられる。このバックオフとは、「音声情報
処理」(北研二、中村哲、永田昌明共著、森北出版株式
会社、1996年)のp.34に記載されているよう
に、言語コーパス201に存在する単語連鎖の確率推定
値の和を1より小さく見積もり、残りを言語コーパス2
01にない単語連鎖の連鎖確率に割り当てる近似方法で
ある(観測回数の少ないNグラムの回数をさらに少なく
見積もり、余った確率値の総和を観測されなかったNグ
ラムに、(N−1)グラムの値に基づいて分配する)。
A technique called back-off is generally used for the smoothing operation by the N-gram estimating means 202 as described above. This back-off is described in “Speech Information Processing” (Kenji Kita, Satoshi Nakamura, Masaaki Nagata, Morikita Publishing Co., Ltd., 1996), p. 34, the sum of the probability estimates of the word chains existing in the language corpus 201 is estimated to be smaller than 1, and the rest is estimated to be the language corpus 2
This is an approximation method that assigns to the chain probabilities of word chains that are not 01 (the number of N-grams with a small number of observations is further reduced, and the sum of the surplus probability values is added to the N-grams for which no observations were made. Distribute based on value).

【0012】単語連鎖w−w−wが言語コーパス
201に存在しない場合(言語コーパス201において
単語連鎖の頻度N(w,w,w)=0)、w
−wの単語連鎖の推定確率P(w|w
)は下記式(1)で表される。 P(w|w,w)∝P(w|w) ・・・(1) さらに、単語連鎖w−wの単語連鎖も言語コーパス
201にない場合(言語コーパス201において単語連
鎖の頻度N(w,w)=0)、w−wの単語連
鎖の推定確率P(w|w)は下記式(2)で表され
る。 P(w|w)∝P(w) ・・・(2)
When the word chain w 1 -w 2 -w 3 does not exist in the language corpus 201 (the frequency N (w 1 , w 2 , w 3 ) of the word chain in the language corpus 201) = 0, w 1-
The estimated probability P (w 3 | w 1 , w 2 −w 3) of the word chain
w 2 ) is represented by the following equation (1). P (w 3 | w 1 , w 2 ) ∝P (w 3 | w 2 ) (1) Furthermore, when the word chain of the word chain w 2 −w 3 is not in the language corpus 201 (in the language corpus 201). The word chain frequency N (w 2 , w 3 ) = 0) and the estimated probability P (w 3 | w 2 ) of the word chain w 2 −w 3 are expressed by the following equation (2). P (w 3 | w 2 ) ∝P (w 3 ) (2)

【0013】上記式(1)、(2)をより具体的に示し
たものとして、代表的なバックオフの方法を記述する、
例えばP.Clarkson etal.”Stati
stical Language Modeling
Using The CMU−CAMBRIDGE T
OOLKIT,”EuroSpeech’97,Vo
l.5,pp.2707−2710(1998)に引用
されているWitten−Bell法がよく知られてい
る。このWitten−Bell法は、確率推定値P
(w|w,w)、P(w|w)を下記式
(3)、(4)で表す。
As a more specific expression of the above equations (1) and (2), a typical back-off method will be described.
For example, Clarkson et al. "Stati
physical Language Modeling
Using The CMU-CAMBRIDGE T
OOOLKIT, "EuroSpeech '97, Vo
l. 5, pp. The Witten-Bell method cited in 2707-2710 (1998) is well known. The Witten-Bell method uses a probability estimate P
(W 3 | w 1 , w 2 ) and P (w 2 | w 1 ) are represented by the following equations (3) and (4).

【数1】 ここで、α(w)、β(w,w)は確率の正規化
定数、R(w,w)は言語コーパス201内でw
の次に出現する単語の種類数で、R(w)は言語
コーパス201内でwの次に出現する単語の種類数で
ある。また、N(w,w,w)は言語コーパス2
01内でのwの単語連鎖が出現する回数、N
(w,w)は言語コーパス201内での単語連鎖w
が出現する回数で、N(w)は言語コーパス2
01内での単語wが出現する回数を示している。P
(w)は、一般にP(w)=N(w)/N(*)
で表されるものであり、これを単語wのユニグラム確
率という。なお、*は言語コーパス201内の全ての単
語を表わしている。
(Equation 1) Here, α (w 1 ) and β (w 1 , w 2 ) are probability normalization constants, and R (w 1 , w 2 ) is w 1 in the language corpus 201.
the type number of words that appear in the next w 2, R (w 1) is the number of types of words that appear in the following w 1 in corpus within 201. N (w 1 , w 2 , w 3 ) is the language corpus 2
The number of occurrences of the word chain w 1 w 2 w 3 in 01, N
(W 1 , w 2 ) is a word chain w in the language corpus 201
N (w 1 ) is the number of occurrences of 1 w 2 and N (w 1 ) is the language corpus 2
Word w 1 is shows the number of times that appear in the 01. P
(W 1 ) is generally P (w 1 ) = N (w 1 ) / N (*)
In are those represented, this is referred unigram probability of the word w 1. In addition, * represents all the words in the language corpus 201.

【0014】また、上述したスパース性を解消しようと
する別のアプローチとして、「音声情報処理」(北研
二、中村哲、永田昌明共著、森北出版株式会社、199
6年)のp.35に記載されているクラス言語モデルと
いうものがある。これは、単語をクラスに分類して、そ
のクラス間の連鎖確率推定値を、単語連鎖の連鎖確率推
定値に用いようというものである。ここで、単語を
,w,・・・とし、それぞれがw∈Cという
クラスに所属するものと仮定すると、単語列w
,・・・,wi−1が出現した後に単語wが出現
する条件付き確率は下記式(5)〜(7)のように近似
される。 P(w|w,w,w,・・・,wi−1) 〜P(w|C)・P(C|C,C,・・・,Ci−1) ・・・(5) 特にバイグラムモデルの場合には、下記式(6)のよう
になる。 P(w|w,w,w,・・・,wi−1) 〜P(w|C)・P(C|Ci−1)・・・(6) さらに、トライグラムモデルの場合には、下記式(7)
のようになる。 P(w|w,w,w,・・・,wi−1) 〜P(w|C)・P(C|Ci−2,Ci−1)・・・(7)
[0014] Further, in order to eliminate the sparseness described above,
Another approach to this is "speech information processing" (Kitaken
2, Satoshi Nakamura, Masaaki Nagata, Morikita Publishing Co., Ltd., 199
6 years) p. The class language model described in 35
There is something called. It categorizes words into classes and
Is used to estimate the chain probability between word classes.
It is intended to be used for fixed values. Where the word
w1, W2, ..., each of which is wi∈CiThat
Assuming that it belongs to the class, the word string w1,
w 2, ..., wi-1After the appearance of the word wiAppears
Is approximated as in the following equations (5) to (7)
Is done. P (wi| W1, W2, W3, ..., wi-1) To P (wi| Ci) ・ P (Ci| C1, C2, ..., Ci-1) (5) Especially in the case of the bigram model, the following equation (6) is used.
become. P (wi| W1, W2, W3, ..., wi-1) To P (wi| Ci) ・ P (Ci| Ci-1(6) Further, in the case of the trigram model, the following equation (7) is used.
become that way. P (wi| W1, W2, W3, ..., wi-1) To P (wi| Ci) ・ P (Ci| Ci-2, Ci-1) ・ ・ ・ (7)

【0015】それぞれの条件付き確率は、一般的には言
語コーパス201における単語連鎖の頻度より下記式
(8)のように決定される。 P(w|C)=N(w)/N(∀w∈C) P(C|Ci−2,Ci−1) =N(Ci−2,Ci−1,C)/N(Ci−2,Ci−1,*) ・・・(8) ここで、N(w)は単語wが言語コーパス201内
に出現する頻度で、N(w,x)は単語連鎖w,xが言
語コーパス201内に出現する頻度であって、N(C,
D)はクラスCに属する単語とクラスDに属する単語が
連鎖する頻度を示している。
Each conditional probability is generally determined from the frequency of word chains in the language corpus 201 as shown in the following equation (8). P (w i | C i) = N (w i) / N (∀w∈C i) P (C i | C i-2, C i-1) = N (C i-2, C i-1 , C i) / N (C i-2, C i-1, *) ··· (8) here, N (w i) the frequency with which the word w i appears in the language corpus 201, N ( w, x) is the frequency at which the word chains w, x appear in the language corpus 201, and N (C,
D) indicates the frequency at which words belonging to class C and words belonging to class D are linked.

【0016】[0016]

【発明が解決しようとする課題】従来の統計的言語モデ
ル生成装置は以上のように構成されているので、スパー
ス性の非常に高い(即ち、バックオフする場合が非常に
多い)言語コーパス201から統計的言語モデルを生成
すると、これを用いた音声の認識結果としてユニグラム
頻度の高い単語を含みやすく、認識誤りが発生しやすい
という課題があった。
Since the conventional statistical language model generating apparatus is configured as described above, the statistical linguistic corpus 201 having a very high sparseness (that is, very often back-off) is used. When a statistical language model is generated, there is a problem that a word having a high unigram frequency is likely to be included as a result of speech recognition using the model, and a recognition error is likely to occur.

【0017】上記課題を具体的に説明する。バックオフ
スムージングを用いる方法の場合、例えば語彙に「日
本」、「の(格助詞)」、「へ(格助詞)」、「絵」が
あって、「にほんのえ」と発声した場合の言語確率を計
算するとき、これらの単語連鎖が全て言語コーパス20
1にない場合には、バックオフすると下記式(9)のよ
うになる。 P(”絵”|”日本”,”の”)∝P(”絵”) P(”へ”|”日本”,”の”)∝P(”へ”) ・・・(9) ここで、格助詞「へ」は一般的には頻度が「絵」より非
常に大きいので、下記式(10)のようになる。 P(”絵”|”日本”,”の”)≪P(”へ”|”日本”,”の”) ・・・(10) 式(10)からわかるように、言語確率P(”絵”|”
日本”,”の”)とP(”へ”|”日本”,”の”)と
の間に大きな差がついてしまう。従って、スパース性の
非常に高い(即ち、バックオフする場合が非常に多い)
言語コーパス201から作成した言語モデルでは、認識
結果として、ユニグラム頻度の高い単語を含みやすく、
認識誤りが発生しやすいという問題があった。
The above problem will be specifically described. In the case of the method using back-off smoothing, for example, when the vocabulary includes “Japan”, “no (case particle)”, “he (case particle)”, and “picture”, and the utterance is “Nihononoe” When calculating probabilities, all of these word chains are
If it is not 1, the back-off results in the following equation (9). P ("picture" | "Japan", "") ∝P ("picture") P ("he" | "Japan", "") ∝P ("he") ... (9) where Since the case particle "he" generally has a much higher frequency than "picture", the following expression (10) is obtained. P ("picture" | "Japan", "") ≪P ("he" | "Japan", "of") ... (10) As can be seen from equation (10), the language probability P ("picture" ”|”
There is a large difference between "" of "Japan" and "" of "" and ") of"", so that the sparseness is very high (that is, the case of back-off is very low). Many)
In a language model created from the language corpus 201, words having a high unigram frequency are likely to be included as recognition results.
There is a problem that recognition errors easily occur.

【0018】また、上記の他に、クラス言語モデルを用
いた場合にも、統計的言語モデルの単語連鎖確率の精度
が落ちるという課題があった。
In addition to the above, when a class language model is used, there is a problem that the accuracy of the word chain probability of the statistical language model is reduced.

【0019】上記課題を具体的に説明する。クラス言語
モデルにおいて、一般的に単語連鎖w−w−w
連鎖確率推定値P(w|w,w)は下記式(1
1)で与えられる。 P(w|w,w)=P(C|C,C)・P(w|C) ・・・(11) ここで、C,C,Cはw,w,wがそれぞ
れ所属するクラスを表している。このとき、w’∈C
という単語が与えられた場合、単語w,wの次に
単語w’が連鎖する条件付き確率は、下記式(12)
で与えられる。 P(w’|w,w)=P(C|C,C)・P(w’|C) ・・・(12) ここで、P(w|w,w)とP(w’|w
)との大小は、P(w|C)とP(w’|C
)の大小に帰着する。P(w|C)は、上述した
ように一般に、下記式(13)で与えられる。 P(w|C)=N(w)/N(C) ・・・(13) 式(13)より、P(w|w,w)とP(w
|w,w)との大小は、結局のところ、クラス内の
出現頻度(ユニグラム)の大小に依存する。
The above problem will be specifically described. In the class language model, generally, the chain probability estimation value P (w 3 | w 1 , w 2 ) of the word chain w 1 −w 2 −w 3 is expressed by the following equation (1).
Given in 1). P (w 3 | w 1 , w 2 ) = P (C 3 | C 1 , C 2 ) · P (w 3 | C 3 ) (11) where C 1 , C 2 , and C 3 are The classes to which w 1 , w 2 , and w 3 belong respectively are shown. At this time, w 3 ∈C
If the word “ 3 ” is given, the conditional probability that the word w 3 ′ is chained next to the words w 1 and w 2 is expressed by the following equation (12).
Given by P (w 3 ′ | w 1 , w 2 ) = P (C 3 │C 1 , C 2 ) · P (w 3 ′ | C 3 ) (12) where P (w 3 │w 1 , W 2 ) and P (w 3 ′ | w 1 ,
w 2 ) are P (w 3 | C 3 ) and P (w 3 ′ | C
3 ) Big and small. P (w 3 | C 3 ) is generally given by the following equation (13) as described above. P (w 3 | C 3 ) = N (w 3 ) / N (C 3 ) (13) From equation (13), P (w 3 | w 1 , w 2 ) and P (w 3 ′)
The magnitude of | w 1 , w 2 ) ultimately depends on the magnitude of the appearance frequency (unigram) in the class.

【0020】このような場合、単語連鎖頻度N(w
)≫N(w’)であってもクラス内出
現頻度がN(w)/N(C)<N(w’)/N
(C)であれば、下記式(14)のような関係になっ
てしまう。 P(w|w,w)<P(w’|w,w) ・・・(14) このため、確率の大小関係が正しく表現されず、単語連
鎖確率の精度が劣化してしまう。
In such a case, the word chain frequency N (w 1 w
Even if 2 w 3 ) ≫N (w 1 w 2 w 3 ′), the occurrence frequency in the class is N (w 3 ) / N (C 3 ) <N (w 3 ′) / N
In the case of (C 3 ), the relationship becomes as shown in the following expression (14). P (w 3 | w 1 , w 2 ) <P (w 3 ′ | w 1 , w 2 ) (14) Therefore, the magnitude relation of the probabilities is not correctly expressed, and the accuracy of the word chain probability deteriorates. Resulting in.

【0021】この発明は上記のような課題を解決するた
めになされたもので、バックオフした場合の頻度差のダ
イナミックレンジを緩和して、ユニグラム頻度などの低
い次元の単語(連鎖)頻度が大きい単語を含む単語列が
不当に高い言語確率をもつことを防ぐことができる統計
的言語モデル生成装置及び方法を得ることを目的とす
る。
The present invention has been made in order to solve the above-mentioned problem, and alleviates the dynamic range of the frequency difference in the case of back-off so that the word (chain) frequency of a low dimension such as the unigram frequency is large. An object of the present invention is to provide a statistical language model generation device and method capable of preventing a word string including a word from having an unduly high language probability.

【0022】また、この発明はクラス言語モデルを用い
ることによる単語連鎖確率の精度の劣化を防ぎ、高い精
度の言語モデルを提供する統計的言語モデル生成装置及
び方法を得ることを目的とする。
It is another object of the present invention to provide a statistical language model generating apparatus and method for preventing a decrease in word chain probability accuracy due to the use of a class language model and providing a high accuracy language model.

【0023】さらに、この発明は上記統計的言語モデル
生成装置が生成した統計的言語モデルを使用して、音声
の認識精度を向上させた音声認識装置を得ることを目的
とする。
A further object of the present invention is to obtain a speech recognition device with improved speech recognition accuracy using the statistical language model generated by the statistical language model generation device.

【0024】さらに、この発明は上記統計的言語モデル
生成方法をコンピュータに実現させるためのプログラム
を記録したコンピュータ読み取り可能な記録媒体を得る
ことを目的とする。
Still another object of the present invention is to provide a computer-readable recording medium on which a program for causing a computer to implement the above-described statistical language model generation method is recorded.

【0025】[0025]

【課題を解決するための手段】この発明に係る統計的言
語モデル生成装置は、言語コーパスを記憶するコーパス
記憶手段と、言語コーパス内に存在する単語連鎖の出現
頻度及び単語種類数を含んでなる単語連鎖に係る頻度を
計数する単語連鎖頻度計数手段と、この単語連鎖頻度計
数手段が計数した単語連鎖に係る頻度に基づいて単語連
鎖の条件付き確率を計算する単語接続確率計算手段と、
出現頻度が小さい単語連鎖の条件付き確率を単語接続確
率計算手段がバックオフ平滑化を行って計算するにあた
り、バックオフ確率を単調増加する関数に入力し、この
関数による演算結果を単語連鎖の新たな条件付き確率と
する単語接続確率再計算手段とを備えるものである。
A statistical language model generating apparatus according to the present invention includes a corpus storing means for storing a language corpus, and the appearance frequency and the number of word types of word chains existing in the language corpus. Word chain frequency counting means for counting the frequency of word chains, word connection probability calculating means for calculating the conditional probability of word chains based on the frequency of the word chains counted by the word chain frequency counting means,
When the word connection probability calculation means calculates the conditional probability of a word chain having a low frequency of occurrence by performing back-off smoothing, the function is input to a function that monotonically increases the back-off probability. And a word connection probability recalculating means for obtaining a conditional probability.

【0026】この発明に係る統計的言語モデル生成装置
は、単調増加する関数をべき乗関数とするものである。
In the statistical language model generating apparatus according to the present invention, a monotonically increasing function is a power function.

【0027】この発明に係る統計的言語モデル生成装置
は、単調増加する関数をシグモイド関数とするものであ
る。
In the statistical language model generating apparatus according to the present invention, a function that monotonically increases is a sigmoid function.

【0028】この発明に係る統計的言語モデル生成装置
は、単調増加する関数が演算結果に上下限値を有するも
のである。
In the statistical language model generating apparatus according to the present invention, the function that monotonically increases has upper and lower limits in the operation result.

【0029】この発明に係る統計的言語モデル生成装置
は、言語コーパスを複数に分割するコーパス分割手段
と、分割された複数の言語コーパスを、単語連鎖頻度計
数手段による単語連鎖に係る頻度計数用の言語コーパス
と言語性能評価用の言語コーパスとに分類するととも
に、単語接続確率再計算手段が用いる単調増加する関数
のパラメータを設定するパラメータ設定手段と、頻度計
数用の言語コーパス内で計数された単語連鎖に係る頻度
に基づいて言語性能評価用の言語コーパスにおける単語
連鎖の条件付き確率を算出し、この条件付き確率を用い
て言語性能を評価する言語性能評価手段と、パラメータ
設定手段によって分割された言語コーパスの分類の入れ
替え及び単調増加する関数のパラメータの変更が行われ
るごとに最高の言語性能を与えるパラメータを検出し、
これらパラメータの平均値を最適なパラメータとして決
定する最適パラメータ決定手段とを備えるものである。
A statistical language model generating apparatus according to the present invention includes a corpus dividing means for dividing a language corpus into a plurality of words, and a plurality of divided language corpuses for counting the frequency of word chains by the word chain frequency counting means. Parameter setting means for classifying into a language corpus and a language corpus for language performance evaluation, and setting a parameter of a monotonically increasing function used by the word connection probability recalculation means, and words counted in the language corpus for frequency counting The conditional probability of the word chain in the language corpus for language performance evaluation is calculated based on the frequency of the chain, and the language performance is evaluated by using the conditional probability. Best linguistics every time the language corpus is reclassified and parameters of monotonically increasing functions are changed Detecting a parameter that gives the,
Optimum parameter determining means for determining an average value of these parameters as an optimum parameter.

【0030】この発明に係る統計的言語モデル生成装置
は、パラメータ設定手段が分割された複数の言語コーパ
スを単語連鎖に係る頻度計数用の言語コーパスと言語性
能評価用の言語コーパスとに分類して、これらを複数種
類の組み合わせにするとともに、それぞれの組み合わせ
に異なるパラメータを設定し、最適パラメータ決定手段
が各組み合わせで最高の言語性能を与えるパラメータを
検出し、これらパラメータの平均値を最適パラメータと
して決定するものである。
In the statistical language model generating apparatus according to the present invention, the plurality of language corpuses divided by the parameter setting means are classified into a language corpus for counting frequencies related to word chains and a language corpus for evaluating language performance. In addition, these are made into a plurality of kinds of combinations, different parameters are set for each combination, and the optimum parameter determining means detects a parameter that gives the highest linguistic performance in each combination, and determines an average value of these parameters as an optimum parameter. Is what you do.

【0031】この発明に係る統計的言語モデル生成装置
は、言語コーパスを記憶するコーパス記憶手段と、言語
コーパス内に存在する単語連鎖の出現頻度及び単語種類
数を含んでなる単語連鎖に係る頻度を計数する単語連鎖
頻度計数手段と、この単語連鎖頻度計数手段が計数した
単語連鎖に係る頻度に基づいて単語連鎖の条件付き確率
を計算する単語接続確率計算手段と、言語コーパス内に
存在する単語連鎖に類似する単語連鎖を新たに言語コー
パスに追加する類似単語連鎖追加手段とを備えるもので
ある。
A statistical language model generating apparatus according to the present invention includes a corpus storing means for storing a language corpus, and a frequency associated with a word chain including the frequency of occurrence of word chains and the number of types of words existing in the language corpus. Word chain frequency counting means for counting, word connection probability calculating means for calculating conditional probability of word chains based on the frequency of word chains counted by the word chain frequency counting means, and word chains existing in the language corpus And a similar word chain adding means for newly adding a word chain similar to to the language corpus.

【0032】この発明に係る統計的言語モデル生成装置
は、言語コーパスに存在する単語を類似する意味の単語
クラスごとにクラス分けしたクラス情報を記憶する単語
クラス記憶手段を備え、類似単語連鎖追加手段が、クラ
ス情報に基づいて所定の単語クラスに所属する単語が言
語コーパス内の単語連鎖に含まれるか否かを判断し、所
定の単語クラスに所属する単語を、この単語クラスに所
属する他の単語に置き換えた単語連鎖を類似する単語連
鎖として、言語コーパスに新たに追加するものである。
A statistical language model generating apparatus according to the present invention includes word class storage means for storing class information obtained by classifying words existing in a language corpus into word classes having similar meanings, and a similar word chain adding means. Determines whether a word belonging to a predetermined word class is included in a word chain in a language corpus based on the class information, and replaces a word belonging to the predetermined word class with another word belonging to this word class. The word chain replaced with the word is newly added to the language corpus as a similar word chain.

【0033】この発明に係る統計的言語モデル生成装置
は、言語コーパスを記憶するコーパス記憶手段と、言語
コーパス内に存在する単語連鎖の出現頻度及び単語種類
数を含んでなる単語連鎖に係る頻度を計数する単語連鎖
頻度計数手段と、言語コーパスに存在する単語を類似す
る意味の単語クラスごとにクラス分けしたクラス情報を
記憶する単語クラス記憶手段と、クラス情報に基づいて
言語コーパス内に存在する単語連鎖の出現頻度を、この
単語連鎖に含まれる単語が属する単語クラス別に計数す
る単語クラス間頻度計数手段と、単語連鎖に係る頻度に
基づいて単語連鎖の条件付確率を算出するとともに、単
語クラス間頻度計数手段が算出した単語連鎖の出現頻度
に基づいて単語連鎖に含まれる単語が属する単語クラス
に係る条件付き確率を算出して、これらを線形結合して
なる確率を単語連鎖の新たな条件付き確率とする単語接
続確率計算手段とを備えるものである。
The statistical language model generating apparatus according to the present invention includes a corpus storing means for storing a language corpus, and a frequency associated with a word chain including the frequency of occurrence of a word chain and the number of word types existing in the language corpus. Word chain frequency counting means for counting, word class storage means for storing class information obtained by classifying words existing in the language corpus into word classes having similar meanings, words existing in the language corpus based on the class information A word-class frequency counting means for counting the frequency of occurrence of the chain for each word class to which the words included in the word chain belong; and calculating a conditional probability of the word chain based on the frequency related to the word chain, Based on the appearance frequency of the word chain calculated by the frequency counting means, the conditional probability of the word class to which the word included in the word chain belongs To calculate the one in which these and a word connection probability calculation means for a new conditional probability of a word chain probabilities obtained by linear combination.

【0034】この発明に係る音声認識装置は、上記統計
的言語モデル生成装置によって得られた統計的言語モデ
ルを用いて入力音声を認識するものである。
A speech recognition apparatus according to the present invention recognizes input speech using a statistical language model obtained by the above-described statistical language model generation apparatus.

【0035】この発明に係る統計的言語モデル生成方法
は、言語コーパス内に存在する単語連鎖の出現頻度及び
単語種類数を含んでなる単語連鎖に係る頻度を計数する
単語連鎖頻度計数ステップと、この単語連鎖頻度計数ス
テップにて計数された単語連鎖に係る頻度に基づいて単
語連鎖の条件付き確率を計算する単語接続確率計算ステ
ップと、出現頻度が小さい単語連鎖の条件付き確率を単
語接続確率計算ステップにてバックオフ平滑化を行って
計算するにあたり、バックオフ確率を単調増加する関数
に入力し、この関数による演算結果を単語連鎖の新たな
条件付き確率とする単語接続確率再計算ステップと、単
語接続確率計算ステップ及び単語接続確率再計算ステッ
プにて求められた単語連鎖の条件付き確率を用いて統計
的言語モデルを生成する統計的言語モデル生成ステップ
とを備えるものである。
The statistical language model generating method according to the present invention includes a word chain frequency counting step of counting the frequency of a word chain including the number of appearances of word chains and the number of word types existing in a language corpus; A word connection probability calculating step of calculating a conditional probability of a word chain based on the frequency relating to the word chain counted in the word chain frequency counting step, and a word connection probability calculating step of calculating a conditional probability of a word chain having a low appearance frequency In performing the back-off smoothing in the calculation, the back-off probability is input to a function that monotonically increases, and the result of the operation by this function is used as a new conditional probability of a word chain. A statistical language model is generated using the conditional probabilities of word chains obtained in the connection probability calculation step and the word connection probability recalculation step. It is intended and a statistical language model generating step of.

【0036】この発明に係る統計的言語モデル生成方法
は、単調増加する関数をべき乗関数とするものである。
In the statistical language model generating method according to the present invention, a monotonically increasing function is a power function.

【0037】この発明に係る統計的言語モデル生成方法
は、単調増加する関数をシグモイド関数とするものであ
る。
In the statistical language model generation method according to the present invention, a monotonically increasing function is used as a sigmoid function.

【0038】この発明に係る統計的言語モデル生成方法
は、単調増加する関数が演算結果に上下限値を有するも
のである。
In the statistical language model generation method according to the present invention, the function that monotonically increases has upper and lower limits in the operation result.

【0039】この発明に係る統計的言語モデル生成方法
は、言語コーパスを複数に分割して、単語連鎖に係る頻
度計数用の言語コーパスと言語性能評価用の言語コーパ
スとに分類するとともに、単語接続確率再計算ステップ
にて用いる単調増加する関数のパラメータを設定するパ
ラメータ設定ステップと、頻度計数用の言語コーパス内
で計数された単語連鎖に係る頻度に基づいて言語性能評
価用の言語コーパスにおける単語連鎖の条件付き確率を
算出し、この条件付き確率を用いて言語性能を評価する
言語性能評価ステップと、パラメータ設定ステップと言
語性能評価ステップとを繰り返すたびに最高の言語性能
を与えるパラメータを取得し、これらパラメータの平均
値を最適なパラメータとして決定する最適パラメータ決
定ステップとを備えるものである。
In the statistical language model generation method according to the present invention, a language corpus is divided into a plurality of languages, and the language corpus is classified into a language corpus for counting frequencies and a language corpus for evaluating language performance, and word connection is performed. A parameter setting step of setting a parameter of a monotonically increasing function used in the probability recalculation step, and a word chain in a language corpus for language performance evaluation based on the frequency of the word chain counted in the language corpus for frequency counting Calculate the conditional probability of, the language performance evaluation step to evaluate the language performance using this conditional probability, and obtain a parameter that gives the best language performance every time the parameter setting step and the language performance evaluation step are repeated, An optimal parameter determining step of determining an average value of these parameters as an optimal parameter. Is shall.

【0040】この発明に係る統計的言語モデル生成方法
は、パラメータ設定ステップにて、分割した複数の言語
コーパスを、単語連鎖に係る頻度計数用の言語コーパス
と言語性能評価用の言語コーパスとに分類して、これら
を複数種類の組み合わせにするとともに、それぞれの組
み合わせに異なるパラメータを設定し、最適パラメータ
決定ステップにて、各組み合わせで最高の言語性能を与
えるパラメータを検出し、これらパラメータの平均値を
最終的な最適パラメータとして決定するものである。
In the statistical language model generation method according to the present invention, in the parameter setting step, the plurality of divided language corpuses are classified into a language corpus for counting the frequency of word chains and a language corpus for evaluating language performance. Then, these are made into a plurality of kinds of combinations, different parameters are set for each combination, and in the optimum parameter determination step, the parameter that gives the best language performance in each combination is detected, and the average value of these parameters is calculated. This is determined as the final optimum parameter.

【0041】この発明に係る統計的言語モデル生成方法
は、言語コーパス内に存在する単語連鎖に類似する単語
連鎖を新たに言語コーパスに追加する類似単語連鎖追加
ステップと、言語コーパス内に存在する単語連鎖の出現
頻度及び単語種類数を含んでなる単語連鎖に係る頻度を
計数する単語連鎖頻度計数ステップと、単語連鎖頻度計
数ステップにて計数された単語連鎖に係る頻度に基づい
て単語連鎖の条件付き確率を計算する単語接続確率計算
ステップと、この単語接続確率計算ステップにて求めら
れた単語連鎖の条件付き確率を用いて統計的言語モデル
を生成する統計的言語モデル生成ステップとを備えるも
のである。
The statistical language model generation method according to the present invention includes a similar word chain adding step of newly adding a word chain similar to a word chain existing in a language corpus to a language corpus, and a word existing in the language corpus. A word chain frequency counting step of counting the frequency of the word chain including the frequency of occurrence of the chain and the number of word types; and a condition of the word chain based on the frequency of the word chain counted in the word chain frequency counting step. A word connection probability calculation step of calculating a probability; and a statistical language model generation step of generating a statistical language model using the conditional probability of the word chain obtained in the word connection probability calculation step. .

【0042】この発明に係る統計的言語モデル生成方法
は、類似単語連鎖追加ステップにて、言語コーパスに存
在する単語を分類したクラス情報に基づいて所定の単語
クラスに所属する単語が言語コーパス内の単語連鎖に含
まれるか否かを判断し、所定の単語クラスに所属する単
語をこの単語クラスに所属する他の単語に置き換えた単
語連鎖を類似する単語連鎖として言語コーパスに新たに
追加するものである。
In the statistical language model generating method according to the present invention, in the similar word chain adding step, words belonging to a predetermined word class are classified into words in the language corpus based on class information obtained by classifying words existing in the language corpus. It is determined whether or not a word chain is included in a word chain, and a word chain obtained by replacing a word belonging to a predetermined word class with another word belonging to this word class is newly added to the language corpus as a similar word chain. is there.

【0043】この発明に係る統計的言語モデル生成方法
は、言語コーパス内に存在する単語連鎖の出現頻度及び
単語種類数を含んでなる単語連鎖に係る頻度を計数する
単語連鎖頻度計数ステップと、言語コーパスに存在する
単語を類似する意味の単語クラスごとにクラス分けした
クラス情報に基づいて、言語コーパス内に存在する単語
連鎖の出現頻度を、この単語連鎖に含まれる単語が属す
る単語クラス別に計数する単語クラス間頻度計数ステッ
プと、単語連鎖に係る頻度に基づいて単語連鎖の条件付
確率を算出するとともに、単語クラス間頻度計数ステッ
プにて計数した単語連鎖の出現頻度に基づいて単語連鎖
に含まれる単語が属する単語クラスに係る条件付き確率
を算出して、これらを線形結合してなる確率を単語連鎖
の新たな条件付き確率とする単語接続確率計算ステップ
と、この単語接続確率計算ステップにて求められた単語
連鎖の条件付き確率を用いて統計的言語モデルを生成す
る統計的言語モデル生成ステップとを備えるものであ
る。
The statistical language model generation method according to the present invention includes a word chain frequency counting step of counting the frequency of a word chain including the number of occurrences of word chains and the number of word types existing in a language corpus; Based on class information obtained by classifying words existing in the corpus into word classes having similar meanings, the frequency of occurrence of word chains existing in the language corpus is counted for each word class to which the words included in this word chain belong. Calculating the conditional probability of the word chain based on the word class frequency counting step and the word chain frequency, and including the word chain occurrence frequency counted in the word class frequency counting step in the word chain. Calculate the conditional probabilities of the word class to which the word belongs, and calculate the probability obtained by linearly combining them with a new conditional And word connection probability calculation step of the rate, in which and a statistical language model generating step of generating a statistical language model using the conditional probability of a word chain obtained by this word connection probability calculation step.

【0044】この発明に係る記録媒体は、上記統計的言
語モデル生成方法をコンピュータに実行させるためのプ
ログラムを記録するものである。
A recording medium according to the present invention stores a program for causing a computer to execute the above-described statistical language model generation method.

【0045】[0045]

【発明の実施の形態】以下、この発明の実施の一形態を
説明する。 実施の形態1.図1はこの発明の実施の形態1による統
計的言語モデル生成装置の構成を示す図である。図にお
いて、1は言語モデルを構築するのに使用される言語コ
ーパスを記憶するコーパス記憶手段で、コンピュータシ
ステムのハードディスクや大容量の記憶媒体によって実
現される。また、言語コーパスとしては、従来の技術で
説明したものと同様に、例えば新聞などの多くの文章か
ら構成される言語データベースがある。2はコーパス入
力手段で、コーパス記憶手段1から所望の言語コーパス
を読み出して単語連鎖頻度計数手段3が利用可能に保持
する。3は単語連鎖頻度計数手段で、コーパス入力手段
2に保持される言語コーパスに存在する単語連鎖に係る
頻度を計数する。単語連鎖頻度計数手段3が計数する単
語連鎖に係る頻度としては、言語コーパス内に存在する
単語連鎖の出現頻度やこの単語連鎖に後続する単語種類
の頻度などがある。4は単語連鎖頻度計数手段3が計数
した単語連鎖に係る頻度に基づいて単語が連鎖する条件
付き確率を計算する単語接続確率計算手段で、図示の例
では、従来の技術で説明したWitten−Bell法
による平滑化を行って条件付き確率を計算する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below. Embodiment 1 FIG. FIG. 1 is a diagram showing a configuration of a statistical language model generation device according to Embodiment 1 of the present invention. In FIG. 1, reference numeral 1 denotes a corpus storage unit for storing a language corpus used for constructing a language model, which is realized by a hard disk or a large-capacity storage medium of a computer system. As a language corpus, there is a language database composed of many sentences such as newspapers, for example, as described in the related art. Numeral 2 denotes a corpus input unit which reads out a desired language corpus from the corpus storage unit 1 and holds it so that the word chain frequency counting unit 3 can use it. Reference numeral 3 denotes a word chain frequency counting unit that counts the frequency related to a word chain existing in the language corpus held in the corpus input unit 2. The frequency relating to the word chain counted by the word chain frequency counting means 3 includes the frequency of appearance of the word chain existing in the language corpus, the frequency of the word type following the word chain, and the like. Reference numeral 4 denotes a word connection probability calculating unit that calculates a conditional probability that words are linked based on the word chain frequency counted by the word chain frequency counting unit 3. In the illustrated example, the Witten-Bell described in the related art is used. The conditional probability is calculated by performing smoothing by the method.

【0046】5は単語接続確率再計算手段であって、出
現頻度が0か0に限りなく近い値で計数された単語連鎖
に係る条件付き確率をバックオフ平滑化を行って計算す
るにあたり、バックオフ確率を単調増加する関数に入力
し、この関数による演算結果を新たな条件付き確率とし
て再計算する。6は単語接続確率計算手段4及び単語接
続確率再計算手段5が算出する各単語連鎖の条件付き確
率を保持して統計的言語モデルを生成する言語モデル生
成手段である。
Reference numeral 5 denotes a word connection probability recalculating means, which performs back-off smoothing to calculate conditional probabilities relating to word chains whose appearance frequency is counted as 0 or as close to 0 as possible. The off-probability is input to a monotonically increasing function, and the result of operation by this function is recalculated as a new conditional probability. Reference numeral 6 denotes a language model generation unit that holds a conditional probability of each word chain calculated by the word connection probability calculation unit 4 and the word connection probability recalculation unit 5 and generates a statistical language model.

【0047】次に動作ついて説明する。図2は図1の統
計的言語モデル生成装置による統計的言語モデル生成動
作を示すフロー図であり、このフロー図に沿ってトライ
グラム言語モデルを作成する場合を例として説明する。
先ず、コーパス入力手段2がコーパス記憶手段1から言
語コーパスを読み出し、単語連鎖頻度計数手段3が利用
可能に保持する(ステップST1)。
Next, the operation will be described. FIG. 2 is a flow chart showing a statistical language model generation operation by the statistical language model generation device of FIG. 1. An example in which a trigram language model is created along this flowchart will be described.
First, the corpus input means 2 reads the language corpus from the corpus storage means 1, and holds the word chain frequency counting means 3 in a usable state (step ST1).

【0048】次に、単語連鎖頻度計数手段3がコーパス
入力手段2に読み込まれた言語コーパスから、単語連鎖
に係る頻度を計数する(ステップST2、単語連鎖頻度
計数ステップ)。具体的には、言語コーパス内に「明
日」、「の」、「天気」、「電車」、「状況」という語
彙が登録されていると仮定する。このとき、言語コーパ
ス内に”・・・明日の天気・・・”という部分が5
回、”・・・明日の電車・・・”という部分が3回、”
・・・明日の状況・・・”という部分が4回あるとし、
単語w,w,wからなる単語連鎖の出現頻度をN
(w,w,w)で表現すると、単語連鎖頻度計数
手段3は、上述した単語からなる単語連鎖の出現頻度を
下記式(15)のように計数する。 N(”明日”,”の”,”天気”)=5 N(”明日”,”の”,”電車”)=3 N(”明日”,”の”,”状況”)=4 ・・・(15) このとき、N(”明日”,”の”)=(5+3+4)=
12となる。同様にして、単語連鎖頻度計数手段3は、
,wの2つ組の単語連鎖の出現頻度N(w,w
)や単語wの単語出現頻度N(w)を計数する。
Next, the word chain frequency counting means 3 counts the frequency of word chains from the language corpus read into the corpus input means 2 (step ST2, word chain frequency counting step). Specifically, it is assumed that vocabulary words “tomorrow”, “no”, “weather”, “train”, and “situation” are registered in the language corpus. At this time, in the language corpus, "... tomorrow's weather ..."
Times, "... tomorrow's train ..." three times, "
... the situation of tomorrow ... "
The appearance frequency of the word chain consisting of the words w 1 , w 2 , w 3 is N
Expressed as (w 1 , w 2 , w 3 ), the word chain frequency counting means 3 counts the appearance frequency of the word chain composed of the above words as in the following equation (15). N ("Tomorrow", "no", "weather") = 5 N ("tomorrow", "no", "train") = 3 N ("tomorrow", "no", "situation") = 4・ (15) At this time, N (“tomorrow”, “no”) = (5 + 3 + 4) =
It becomes 12. Similarly, the word chain frequency counting means 3
w 1, the frequency of occurrence of the two sets of words chain of w 2 N (w 1, w
2) and words w 1 of the word appearance frequency N (w 1) for counting.

【0049】さらに、単語連鎖頻度計数手段3は、所定
の単語連鎖wに後続する単語種類R(w
)を計数する。上述の場合、「明日」−「の」に後
続する単語の種類は「天気」、「電車」、「状況」の3
つであり、R(”明日”,”の”)=3となる。また、
同様にして、R(w)を計数する。上記の場合、「明
日」に後続する単語は、3つの「の」でありR(”明
日”)=1、R(”の”)=3となる。
Further, the word chain frequency counting means 3 calculates the word type R (w 1 , w 1 , w 1 , w 2) following the predetermined word chain w 1 w 2 .
w 2 ) is counted. In the case described above, the types of words following “tomorrow”-“no” are “weather”, “train”, and “situation”.
R (“tomorrow”, “of”) = 3. Also,
Similarly, R (w 1 ) is counted. In the above case, the words following "tomorrow" are three "no", and R ("tomorrow") = 1 and R ("of") = 3.

【0050】次に、単語接続確率計算手段4がある3つ
組の単語連鎖wを考え、その単語連鎖確率P
(w|w,w)を推定する。具体的には、与えら
れた単語連鎖wが言語コーパスに存在すると
き、即ち、N(w,w,w)>0の場合には、単
語接続確率計算手段4が下記式(16)の第1式に従っ
て確率を推定する。これは従来の技術で説明したWit
ten−Bell法のスムージングと同じである(ステ
ップST3、単語接続確率計算ステップ)。
Next, a word connection probability calculating means 4 considers a set of three word chains w 1 w 2 w 3 and the word chain probability P
Estimate (w 3 | w 1 , w 2 ). Specifically, when the given word chain w 1 w 2 w 3 exists in the language corpus, that is, when N (w 1 , w 2 , w 3 )> 0, the word connection probability calculation means 4 Estimates the probability according to the first equation of the following equation (16). This is Wit described in the background art.
This is the same as the smoothing of the ten-Bell method (step ST3, word connection probability calculation step).

【0051】また、N(w,w,w)=0で、N
(w,w)>0の場合、単語接続確率再計算手段5
は、バックオフ確率P(w|w)を用いて下記式
(17)で表わされる条件付き確率P’(w|w
を計算し、さらに、下記式(16)の第2式に従って上
記出現頻度が0の単語連鎖の条件付き確率を推定する
(ステップST4、単語接続確率計算ステップ、単語接
続確率再計算ステップ)。
If N (w 1 , w 2 , w 3 ) = 0 and N
If (w 1 , w 2 )> 0, the word connection probability recalculating means 5
Backoff probability P (w 3 | w 2) conditional probability P represented by the following formula (17) using a '(w 3 | w 2)
Is calculated, and the conditional probability of the word chain whose appearance frequency is 0 is estimated according to the second expression of the following expression (16) (step ST4, word connection probability calculation step, word connection probability recalculation step).

【0052】さらに、N(w,w,w)=0で、
N(w,w)=0の場合、単語接続確率再計算手段
5は、バックオフ確率P(w|w)を用いて下記式
(17)で表わされる条件付き確率P’(w|w
を計算し、さらに、下記式(16)の第3式に従って上
記出現頻度が0の単語連鎖の条件付き確率を推定する
(ステップST5、単語接続確率計算ステップ、単語接
続確率再計算ステップ)。このとき、単語接続確率再計
算手段5は、バックオフ確率P(w)、下記式(1
8)及び式(19)を用いて下記式(17)で条件付き
確率P’(w|w )を計算する。
Further, N (w1, W2, W3) = 0,
N (w1, W2) = 0, word connection probability recalculation means
5 is the back-off probability P (w3| W2) Using the following formula
(17) The conditional probability P '(w3| W2)
, And further, according to the third equation of the following equation (16),
Estimate the conditional probability of a word chain with zero occurrence frequency
(Step ST5, word connection probability calculation step, word connection probability
Continuation probability recalculation step). At this time, the word connection probability
The calculating means 5 calculates the back-off probability P (w2), The following equation (1
8) and conditional expression (17) using equation (19)
Probability P '(w3| W 2) Is calculated.

【数2】 ここで、式(16)〜式(19)において、α
(w)、β(w,w)は正規化定数、δとλとは
べき乗のパラメータであり、δ≦1,λ≦1である。ま
た、P’(w|w)とP’(w)との分母は正規
化定数である。式(17)の右辺の分母は、言語コーパ
ス内でN(w,w)>0となる全てのwについて
とる。さらに、式(19)右辺の分母は、言語コーパス
内でN(w)>0となる全ての単語wについてと
る。
(Equation 2) Here, in Expressions (16) to (19), α
(W 1 ) and β (w 1 , w 2 ) are normalization constants, δ and λ are power parameters, and δ ≦ 1, λ ≦ 1. The denominator between P ′ (w 3 | w 2 ) and P ′ (w 2 ) is a normalization constant. The denominator of the right side of equation (17), N (w 2, w 3 ) in the corpus> 0. The take for all w 3. Further, the denominator of equation (19) the right-hand side takes for all words w 2 as the N (w 2)> 0 in the corpus.

【0053】言語モデル生成手段6によって制御された
単語接続確率計算手段4及び単語接続確率再計算手段5
が、以上の処理を全ての出現可能な単語連鎖(w,w
,w)について計算する。これによって、言語モデ
ル生成手段6に各単語連鎖の条件付き確率が保持されて
トライグラム言語モデルが作成される(ステップST
5、統計的言語モデル生成ステップ)。
Word connection probability calculating means 4 and word connection probability recalculating means 5 controlled by language model generating means 6
There, all of that can appear word chain the above processing (w 1, w
2 , w 3 ). As a result, the trigram language model is created with the conditional probability of each word chain held in the language model generation means 6 (step ST).
5. Statistical language model generation step).

【0054】このように、単語連鎖の条件付き確率の計
算においてバックオフするとき、低次の単語連鎖の条件
付き確率をべき乗することによって、頻度差のダイナミ
ックレンジを緩和することができる。例えば、ある単語
とwとのユニグラム確率の比が2倍だった場合、
P(w)=2P(w)であるが、それを0.5でべ
き乗した場合、P’(w)=P(w0.5=(2
P(w))0.5=20.5・P(w0.5
1.4・P’(w)で比が1.4倍になってダイナミ
ックレンジが小さくなる。従って、ユニグラム頻度が大
きい単語を含む単語列が不当に高い言語確率をもつこと
を防ぐことができる。
As described above, when backing off in the calculation of the conditional probability of a word chain, the dynamic range of the frequency difference can be reduced by raising the conditional probability of a low-order word chain to the power. For example, if the ratio of the unigram probability of a certain word w 1 and w 2 was two-fold,
P (w 2 ) = 2P (w 1 ), and when it is raised to the power of 0.5, P ′ (w 2 ) = P (w 2 ) 0.5 = (2
P (w 1 )) 0.5 = 2 0.5 · P (w 1 ) 0.5 =
The ratio becomes 1.4 times at 1.4 · P ′ (w 1 ), and the dynamic range becomes smaller. Therefore, it is possible to prevent a word string including a word having a high unigram frequency from having an unduly high language probability.

【0055】ここで、バックオフする際に低次の単語連
鎖の条件付き確率をべき乗するのではなく、ダイナミッ
クレンジを緩和するような単調増加関数であれば、同様
の効果を奏することは明らかである。図3は実施の形態
1による統計的言語モデル生成装置が使用する単調増加
関数を示す図であり、(a)は単調増加関数をべき乗関
数とした場合、(b)は単調増加関数をシグモイド関数
とした場合、(c)及び(d)は単調増加関数の出力結
果が上下限値を有する場合を示している。上述した説明
では、図3(a)に示すような、1より小さい正の値の
べき乗パラメータを有する単調増加関数(べき乗関数)
に、バックオフスムージングの際に計算される低次の単
語連鎖の条件付き確率を代入した結果を上記単語連鎖の
新たな条件付き確率とした(例えば、f(P)=a
、bはべき乗パラメータ)。
Here, it is apparent that a similar effect can be obtained if a monotonically increasing function that relaxes the dynamic range is used instead of raising the conditional probability of a low-order word chain when backing off. is there. 3A and 3B are diagrams illustrating a monotonically increasing function used by the statistical language model generation device according to the first embodiment. FIG. 3A illustrates a case where the monotonically increasing function is a power function, and FIG. 3B illustrates a case where the monotonically increasing function is a sigmoid function. , (C) and (d) show the case where the output result of the monotone increasing function has upper and lower limits. In the above description, a monotonically increasing function (power function) having a power parameter of a positive value smaller than 1 as shown in FIG.
The result obtained by substituting the conditional probability of a lower-order word chain calculated at the time of back-off smoothing into a new conditional probability of the word chain (for example, f (P) = a
P b , b is a power parameter).

【0056】一方、本願発明の装置では、単調増加関数
をfとすると例えば、図3(b)に示すようなシグモイ
ド関数や、図3(c)、(d)に示すような上下限を限
定された関数を使用してもよい。図3(b)に示したシ
グモイド関数(f(P)=1/(1+
−α(P+β))、α>0)は非線形関数の1つであ
り、パラメータαの値を適宜変更することで非線形性の
程度を変えることができる(αを大きくすると線形性が
強くなり、小さくすると非線形性が大きくなる)。これ
により、パラメータαを適宜変更することで条件付き確
率の取り得る範囲も広範囲に設定することができ、対象
とする単語連鎖間の頻度差によるダイナミックレンジが
適切な値となるように柔軟に処理することができる。ま
た、図3(c)、(d)に示す取り得る値が上下限定さ
れた関数であれば、格助詞などの出現頻度の大きい単語
のみ確率の圧縮効果がある。即ち、格助詞などの出現頻
度の大きい単語は、それだけ条件付き確率の推定値も大
きくなるが、上記関数の出力値に対応させることで、強
制的に上限値がその推定値となる。このような上下限を
限定された関数としては、図3(b)に示したシグモイ
ド関数に出力値を限定するパラメータを設けることで実
現することができる。図3(c)の例では、シグモイド
関数に上記出力値を限定するパラメータを設けて、パラ
メータαの値を大きくしたもので実現でき、図3(d)
の例では、シグモイド関数に上記出力値を限定するパラ
メータを設けて、パラメータαの値を小さくしたもので
実現できる。
On the other hand, in the apparatus of the present invention, if the monotone increasing function is f, for example, the sigmoid function as shown in FIG. 3B and the upper and lower limits as shown in FIGS. 3C and 3D are limited. You may use the function provided. The sigmoid function (f (P) = 1 / (1+
e− α (P + β) ), α> 0) is one of the non-linear functions, and the degree of non-linearity can be changed by appropriately changing the value of the parameter α. , The smaller the size, the greater the nonlinearity). Thereby, the range in which the conditional probability can be taken can be set in a wide range by appropriately changing the parameter α, and the processing is flexibly performed so that the dynamic range due to the frequency difference between the target word chains becomes an appropriate value. can do. Further, if the possible values shown in FIGS. 3C and 3D are functions whose upper and lower limits are limited, only words having a high appearance frequency such as case particles have the effect of compressing the probability. In other words, words having a high appearance frequency, such as case particles, also have an increased estimated value of the conditional probability. However, by associating the estimated value with the output value of the function, the upper limit value is forcibly set as the estimated value. Such a function whose upper and lower limits are limited can be realized by providing a parameter for limiting the output value to the sigmoid function shown in FIG. In the example of FIG. 3C, a parameter that limits the output value is provided in the sigmoid function, and the parameter α can be realized by increasing the value of the parameter α.
In the example, the parameter can be realized by providing a parameter for limiting the output value to the sigmoid function and reducing the value of the parameter α.

【0057】ここで、上述したような単調増加関数fを
用いたときの単語連鎖の条件付き確率の具体例を下記式
(20)、(21)に示す。
Here, specific examples of conditional probabilities of word chains when the above monotone increasing function f is used are shown in the following equations (20) and (21).

【数3】 但し、f、gは確率の代わりなので、下記式(22)、
(23)に示す正規化条件を満たさなければならない。
(Equation 3) However, since f and g are instead of probabilities, the following equation (22),
The normalization condition shown in (23) must be satisfied.

【数4】 以上のような単調増加関数f、gを用いれば、上記実施
の形態におけるべき乗関数に確率を代入する場合と同様
の効果を奏することができる。
(Equation 4) By using the monotonically increasing functions f and g as described above, the same effect as in the case of substituting the probability into the power function in the above embodiment can be obtained.

【0058】なお、上記実施の形態1ではWitten
−Bell法によるスムージングを例にして説明した
が、従来の他のスムージング法でも同様の効果を奏する
ことはいうまでもない。
In the first embodiment, Witten
-The smoothing by the Bell method has been described as an example, but it goes without saying that the same effect can be obtained by another conventional smoothing method.

【0059】以上のように、この実施の形態1によれ
ば、出現頻度が小さい(0か限りなく0に近い値)単語
連鎖の条件付き確率をバックオフ平滑化を行って計算す
るにあたり、バックオフ確率を単調増加する関数に入力
し、この関数による演算結果を単語連鎖の新たな条件付
き確率とするので、出現頻度が大きい単語を含む単語連
鎖が不当に高い言語確率をもつことを防ぐことができ
る。
As described above, according to the first embodiment, when performing the back-off smoothing to calculate the conditional probability of a word chain having a small frequency of appearance (a value as close to 0 as possible, 0), Since the off-probability is input to a function that monotonically increases, and the result of this function is used as the new conditional probability of word chains, it is possible to prevent word chains that include words with high frequency of occurrence from having an unduly high language probability. Can be.

【0060】また、この実施の形態1によれば、単調増
加する関数にべき乗関数、シグモイド関数、演算結果に
上下限値を有するものを使用するので、それぞれのパラ
メータを適宜変更することで対象とする単語連鎖間の頻
度差によるダイナミックレンジが適切な値となるように
処理することができる。
Further, according to the first embodiment, a power function, a sigmoid function, and a calculation result having upper and lower limits are used for a function that increases monotonically. The processing can be performed so that the dynamic range based on the frequency difference between the word chains to be executed becomes an appropriate value.

【0061】実施の形態2.この実施の形態2は、上記
実施の形態1におけるべき乗(又は、それに代わる単調
増加関数)のパラメータを決定する構成を示すものであ
る。
Embodiment 2 The second embodiment shows a configuration for determining the power (or monotonically increasing function) parameter in the first embodiment.

【0062】図4はこの発明の実施の形態2による統計
的言語モデル生成装置の構成を示す図である。図におい
て、7は言語コーパスを複数に分割するコーパス分割手
段で、例えばコーパス記憶手段1に記憶された言語コー
パス内のテキストを時系列にならべて各系列に対応させ
て分割するか、テキストをランダムに選択して分割す
る。8はパラメータ設定手段であって、分割された複数
の言語コーパスを単語連鎖頻度計数手段3による単語連
鎖に係る頻度計数用の言語コーパスと言語性能評価用の
言語コーパスとに分類するとともに、単語接続確率再計
算手段5が用いる単調増加関数の例えばべき乗パラメー
タなどを設定する。9はパープレキシティ計算手段(言
語性能評価手段)で、言語性能を評価する指標としてパ
ープレキシティ(perplexity 複雑度)を言
語性能評価用の言語コーパスにおいて計算した単語連鎖
の条件付き確率を用いて算出する。10は最高のパープ
レキシティを与える単調増加関数の最適パラメータを決
定する最適パラメータ決定手段で、パラメータ設定手段
8によって言語コーパスの分類の入れ替え及び単調増加
関数のパラメータの変更が行われるごとに、パープレキ
シティ計算手段9が求めるパープレキシティ値を検出
し、パープレキシティが最低値となるときの単調増加関
数のパラメータを最適パラメータとして決定する。ま
た、図示の例では言語モデル生成手段6が省略されてい
るが、実際には言語モデル生成手段6を具備しているも
のとし、上記実施の形態1と同様に単語接続確率計算手
段4及び単語接続確率再計算手段5によって算出された
単語連鎖の条件付き確率を用いて統計的言語モデルを生
成する。なお、図1と同一構成要素には同一符号を付し
て重複する説明を省略する。
FIG. 4 is a diagram showing a configuration of a statistical language model generation device according to the second embodiment of the present invention. In the figure, reference numeral 7 denotes a corpus dividing means for dividing the language corpus into a plurality of pieces. For example, texts in the language corpus stored in the corpus storage means 1 are arranged in time series so as to be divided in correspondence with each series, or the text is divided at random. Select to divide. Numeral 8 denotes a parameter setting means for classifying a plurality of divided language corpuses into a language corpus for frequency counting and a language corpus for evaluating language performance by the word chain frequency counting means 3 and a word connection. For example, a power parameter of the monotone increasing function used by the probability recalculation means 5 is set. Reference numeral 9 denotes a perplexity calculating means (language performance evaluation means) which uses a conditional probability of a word chain calculated in a language corpus for evaluating perplexity (perplexity) as an index for evaluating language performance. calculate. Numeral 10 is an optimal parameter determining means for determining an optimal parameter of a monotonically increasing function that gives the highest perplexity. Each time the parameter setting means 8 changes the language corpus classification and changes the parameters of the monotonically increasing function, parsing is performed. The perplexity value calculated by the plexity calculating means 9 is detected, and the parameter of the monotonically increasing function when the perplexity becomes the minimum value is determined as the optimum parameter. Although the language model generating means 6 is omitted in the illustrated example, it is assumed that the language model generating means 6 is actually provided, and the word connection probability calculating means 4 and the word A statistical language model is generated using the conditional probability of the word chain calculated by the connection probability recalculating means 5. The same components as those in FIG. 1 are denoted by the same reference numerals, and duplicate description will be omitted.

【0063】次に動作について説明する。図5は図4の
統計的言語モデル生成装置による統計的言語モデル生成
動作を示すフロー図であり、このフロー図に沿ってトラ
イグラム言語モデルを作成する場合を例として説明す
る。先ず、上記実施の形態1と同様に、コーパス入力手
段2がコーパス記憶手段1から言語コーパスを読み出
し、コーパス分割手段7が利用可能に保持する(ステッ
プST1a)。
Next, the operation will be described. FIG. 5 is a flowchart showing a statistical language model generation operation by the statistical language model generation device of FIG. 4. An example in which a trigram language model is created along this flowchart will be described. First, as in the first embodiment, the corpus input unit 2 reads the language corpus from the corpus storage unit 1, and the corpus dividing unit 7 holds the corpus available (step ST1a).

【0064】次に、コーパス分割手段7がコーパス入力
手段2に読み込まれた言語コーパスを2つに分割し、そ
れぞれ言語コーパスC,Cとする(ステップST2
a、パラメータ設定ステップ)。分割の方法としては、
上述したように言語コーパス内のテキストを時系列にな
らべて各系列に対応させて分割する方法や、ランダムに
選択して分割する方法などがある。
Next, the corpus dividing means 7 divides the language corpus read into the corpus input means 2 into two corpora, which are referred to as language corpuses C 1 and C 2 (step ST2).
a, parameter setting step). As a method of division,
As described above, there are a method in which texts in a language corpus are arranged in time series and divided according to each series, and a method in which text is randomly selected and divided.

【0065】コーパス分割手段7が言語コーパスを分割
すると、パラメータ設定手段8が分割された言語コーパ
スのうちの1つ(ここでは、仮にCとする)を単語連
鎖に係る頻度計数用とし、他の言語コーパス(言語コー
パスC)を言語性能評価用に分類する。このあと、単
語連鎖頻度計数手段3が頻度計数用として分類された言
語コーパスC内における単語の3連鎖の出現頻度N
(w,w,w)、単語の2連鎖の出現頻度N(w
,w)、単語の出現頻度N(w)、及びある単語
連鎖に後続する単語(列)の種類頻度R(w
)、R(w)を計数する(ステップST3a、単
語連鎖頻度計数ステップ)。
[0065] When the corpus dividing means 7 divides the corpus, one of the language corpus parameter setting unit 8 is divided (here, assumed as C 1) and a frequency counter according to the word chain, other Is classified for language performance evaluation (language corpus C 2 ). Thereafter, word frequency of triads in the word chain frequency counting unit 3 is in the corpus C 1 classified as a counting frequency N
(W 1 , w 2 , w 3 ), the appearance frequency N (w
1 , w 2 ), word appearance frequency N (w 1 ), and type frequency R (w 1 ,
w 2), counts the R (w 1) (step ST3a, word concatenation frequency counting step).

【0066】このとき、パラメータ設定手段8は、上記
実施の形態1で説明した単調増加関数に対して適当な値
のパラメータを設定する(ステップST4a、パラメー
タ設定ステップ)。このパラメータの設定は、不図示の
メモリなどに予め格納しておいた所定の複数のパラメー
タ値を自動的に読み出して設定する、若しくは、不図示
の入力手段を使ってユーザが所望の値を設定するなどの
方法が考えられる。
At this time, the parameter setting means 8 sets an appropriate value parameter for the monotone increasing function described in the first embodiment (step ST4a, parameter setting step). This parameter setting is performed by automatically reading and setting a plurality of predetermined parameter values stored in advance in a memory (not shown), or setting a desired value by a user using input means (not shown). There is a method such as doing.

【0067】次に、パープレキシティ計算手段9が言語
コーパスCについてパープレキシティPPを計算す
る。ここで、パープレキシティPPについて説明する。
パープレキシティPPは、統計的言語モデルの性能を測
る尺度の1つであり、文S=w・・・w
出現確率P(w・・・)とは、下記式(2
4)のような関係にある。具体的には、ある言語に後続
する単語を決定するのに必要な試行錯誤の回数に相当す
る平均分岐数がパープレキシティPPであり、この値が
小さいほど言語モデルの性能が良いとされる。 PP=P(w・・・w−(1/n) ・・・(24) また、トライグラムモデルの場合では、下記式(25)
で近似される。 P(w・・・w) =P(w)・P(w|w)・P(w|w)・P(w|w )・・・ ・・・(25) このP(w|w)、P(w|w)、・
・・の計算は、単語接続確率計算手段4及び単語接続確
率再計算手段5が上記実施の形態1で示した式(16)
〜(19)(又は式(20)〜(23))を用いて計算
する(ステップST5a、言語性能評価ステップ)。ス
テップST5aで得られたパープレキシティPPは、最
適パラメータ決定手段10に出力される。
Next, the perplexity calculating means 9 converts the language
Corpus C2Calculate perplexity PP for
You. Here, the perplexity PP will be described.
Perplexity PP measures the performance of statistical language models
Sentence S = w1w2w3... wnof
Appearance probability P (w1w2w3...) is the following formula (2)
The relationship is as shown in 4). Specifically, a language that follows
The number of trials and errors required to determine the word
The average number of branches is perplexity PP, and this value is
It is said that the smaller the language model, the better the performance of the language model. PP = P (w1w2w3... wn)− (1 / n) ... (24) In the case of the trigram model, the following equation (25)
Is approximated by P (w1w2w3... wn) = P (w1) ・ P (w2| W1) ・ P (w3| W1w2) ・ P (w4| W2w 3 ) (25) This P (w3| W1w2), P (w4| W2w3),
Is calculated by the word connection probability calculation means 4 and the word connection probability.
Equation (16) shown in the first embodiment by the rate recalculating means 5
To (19) (or equations (20) to (23))
(Step ST5a, language performance evaluation step). S
The perplexity PP obtained in Step ST5a is
It is output to the appropriate parameter determining means 10.

【0068】次に、パラメータ設定手段8は、単調増加
関数のパラメータを他の値に設定し、パープレキシティ
計算手段9はパープレキシティPPを計算する。ここま
での動作をいくつかのパラメータ値について繰り返し行
なう(ステップST6a、言語性能評価ステップ)。こ
れにより、各パラメータに対応するパープレキシティP
Pが最適パラメータ決定手段10に保持される。
Next, the parameter setting means 8 sets the parameter of the monotone increasing function to another value, and the perplexity calculating means 9 calculates the perplexity PP. The operation up to this point is repeated for some parameter values (step ST6a, language performance evaluation step). Thereby, the perplexity P corresponding to each parameter is obtained.
P is stored in the optimum parameter determination means 10.

【0069】最適パラメータ決定手段10は、いくつか
のパラメータ値について計算したパープレキシティPP
の全てを保持すると、これらのうち最も小さい(性能が
よい)パープレキシティPPを与えるパラメータ値をパ
ラメータ1として決定する(ステップST7a、最適パ
ラメータ決定ステップ)。
The optimal parameter determining means 10 calculates the perplexity PP calculated for some parameter values.
Are held, the parameter value that gives the smallest (high performance) perplexity PP is determined as the parameter 1 (step ST7a, optimum parameter determination step).

【0070】さらに、ステップST3aでパラメータ設
定手段8が分類した頻度計数用と言語性能評価用とに分
類した言語コーパスのそれぞれの分類を変更して、言語
コーパスCを頻度計数用とし、言語コーパスCを言
語性能評価用とする。分類が変更されると、同様な処理
を言語コーパスCで単語連鎖頻度を計数し、言語コー
パスCを用いてパープレキシティPPを計算して、最
も小さいパープレキシティPPを与えるパラメータ値を
パラメータ2として決定する(ステップST8a〜ステ
ップST12a、パラメータ設定ステップ、言語性能評
価ステップ、最適パラメータ決定ステップ)。
[0070] Further, by changing the respective classification of corpus classified into a parameter setting means 8 for and the language performance evaluation frequency counting classified in step ST3a, the corpus C 2 and a frequency counter, corpus the C 1 and language performance for evaluation. When classification is changed, counts the word concatenation frequency the same process in corpus C 2, to calculate the perplexity PP with corpus C 1, the parameter value which gives the smallest perplexity PP Determined as parameter 2 (step ST8a to step ST12a, parameter setting step, language performance evaluation step, optimal parameter determination step).

【0071】上記動作が完了し、各パターンで最も小さ
いパープレキシティPPを与えるパラメータ1,2を取
得すると、最適パラメータ決定手段10がパラメータ
1,2の平均値を算出して最終的な最適パラメータとす
る(ST13a)。
When the above operation is completed and the parameters 1 and 2 that give the smallest perplexity PP in each pattern are obtained, the optimum parameter determining means 10 calculates the average value of the parameters 1 and 2 to obtain the final optimum parameter. (ST13a).

【0072】以上のように、この実施の形態2によれ
ば、言語コーパスを複数に分割して、単語連鎖に係る頻
度計数用の言語コーパスと言語性能評価用の言語コーパ
スとに分類するとともに単調増加関数のパラメータを設
定し、頻度計数用の言語コーパス内で計数された単語連
鎖に係る頻度に基づいて言語性能評価用の言語コーパス
における単語連鎖の条件付き確率を算出し、この条件付
き確率を用いて言語性能の指標となるパープレキシティ
PPの値を求め、これらの動作を繰り返して最も小さい
パープレキシティPPを与えるパラメータを取得し、こ
れらパラメータの平均値を最適なパラメータとして決定
するので、上記実施の形態1の単語接続確率再計算手段
5が使用する言語性能が最高の統計的言語モデルを生成
するように単調増加関数のパラメータを設定することが
できる。
As described above, according to the second embodiment, the language corpus is divided into a plurality of parts, and the language corpus is classified into a language corpus for frequency counting and a language corpus for language performance evaluation. The parameter of the increasing function is set, and the conditional probability of the word chain in the language corpus for language performance evaluation is calculated based on the frequency of the word chain counted in the language corpus for frequency counting. The value of the perplexity PP which is an index of the language performance is obtained using the above-mentioned parameters, and these operations are repeated to obtain a parameter that gives the smallest perplexity PP, and the average value of these parameters is determined as an optimal parameter. The linguistic performance used by the word connection probability recalculation means 5 of the first embodiment monotonically increases so as to generate the statistical language model having the best language performance. It is possible to set the number of parameters.

【0073】なお、上記実施の形態2で示したものの他
に、コーパス分割手段7が言語コーパスを3つ以上に分
割して、単語連鎖に係る頻度を計数するための言語コー
パスと言語性能評価用のパープレキシティPPを計算す
るための言語コーパスとに分類し、それぞれの組み合わ
せに異なるパラメータを設定して、各組み合わせで最高
の言語性能(最も小さい)のパープレキシティPPを与
えるパラメータを検出し、これらパラメータの平均値を
最終的な最適パラメータとすることもできる。これによ
っても、上記実施の形態2と同様の効果が得られる。
Note that, in addition to those described in the second embodiment, the corpus dividing means 7 divides the language corpus into three or more parts, and includes a language corpus for counting the frequency of word chains and a language performance evaluation part. Is classified into a language corpus for calculating the perplexity PP of each of the combinations, different parameters are set for each combination, and a parameter that gives the highest language performance (smallest) perplexity PP for each combination is detected. The average value of these parameters can be used as the final optimum parameter. Also according to this, the same effect as in the second embodiment can be obtained.

【0074】実施の形態3.この実施の形態3は、特に
クラス言語モデルを用いることによる単語連鎖確率(単
語連鎖の条件付き確率)の精度の劣化を防ぎ、高い精度
の言語モデルを提供するものである。
Embodiment 3 The third embodiment is intended to prevent a deterioration in the accuracy of the word chain probability (conditional probability of the word chain) due to the use of the class language model, and to provide a high-accuracy language model.

【0075】図6はこの発明の実施の形態3による統計
的言語モデル生成装置の構成を示す図である。図におい
て、11はクラス情報記憶手段(単語クラス記憶手段)
であって、言語コーパスに存在する単語のクラス情報を
記憶する。このクラス情報は言語コーパス内の単語にお
いて意味が近いものをクラス分けして、このクラスと該
当する単語とを対応付ける情報である。12はクラス情
報入力手段であって、クラス情報記憶手段11からクラ
ス情報を読み出して類似単語連鎖追加手段13が利用可
能に保持する。13は言語コーパス内に存在する単語連
鎖に類似する単語連鎖を新たに言語コーパスに追加する
類似単語連鎖追加手段で、14は追加コーパスであっ
て、類似単語連鎖追加手段13によって新たに類似する
単語連鎖が追加された言語コーパスに相当する。また、
図示の例では単語接続確率計算手段4、言語モデル生成
手段6、あるいは単語接続確率再計算手段5が省略され
ているが、実際には単語接続確率計算手段4、言語モデ
ル生成手段6、あるいは単語接続確率再計算手段5を具
備しているものとし、言語モデル生成手段6が単語接続
確率計算手段4によって算出された単語連鎖の条件付き
確率を用いて統計的言語モデルを生成する。なお、図1
と同一構成要素には同一符号を付して重複する説明を省
略する。
FIG. 6 is a diagram showing a configuration of a statistical language model generation device according to the third embodiment of the present invention. In the figure, reference numeral 11 denotes class information storage means (word class storage means).
And stores the class information of the words existing in the language corpus. The class information is information that classifies words having similar meanings in the language corpus into classes and associates the classes with the corresponding words. Reference numeral 12 denotes a class information input unit, which reads out class information from the class information storage unit 11 and stores the class information so that the similar word chain adding unit 13 can use it. Reference numeral 13 denotes a similar word chain adding unit that newly adds a word chain similar to a word chain existing in the language corpus to the language corpus. Reference numeral 14 denotes an additional corpus, and a word that is newly similar by the similar word chain adding unit 13. The chain is equivalent to the added language corpus. Also,
Although the word connection probability calculation means 4, the language model generation means 6, or the word connection probability recalculation means 5 is omitted in the illustrated example, the word connection probability calculation means 4, the language model generation means 6, or the word connection probability It is assumed that the language model generating unit 6 includes a connection probability recalculating unit 5, and a language model generating unit 6 generates a statistical language model using the conditional probability of the word chain calculated by the word connecting probability calculating unit 4. FIG.
The same components as those described above are denoted by the same reference numerals, and redundant description will be omitted.

【0076】次に動作について説明する。図7、図8、
及び図9は図6の統計的言語モデル生成装置による統計
的言語モデル生成動作を示すフロー図であり、このフロ
ー図に沿ってトライグラム言語モデルを作成する場合を
例として説明する。先ず、上記実施の形態1と同様に、
コーパス入力手段2がコーパス記憶手段1から言語コー
パスを読み出し、単語連鎖頻度計数手段3及び類似単語
連鎖追加手段13が利用可能に保持する(ステップST
1b)。
Next, the operation will be described. 7, 8,
9 is a flow chart showing a statistical language model generation operation by the statistical language model generation device of FIG. 6, and a case where a trigram language model is created along this flow chart will be described as an example. First, as in the first embodiment,
The corpus input means 2 reads the language corpus from the corpus storage means 1, and holds the word chain frequency counting means 3 and the similar word chain adding means 13 in a usable state (step ST).
1b).

【0077】次に、単語連鎖頻度計数手段3がコーパス
入力手段2に読み込まれた言語コーパスから、単語連鎖
に係る頻度を計数する(ステップST2b、単語連鎖頻
度計数ステップ)。具体的には、単語連鎖頻度計数手段
3が言語コーパス内の単語の3連鎖の出現頻度N
(w,w,w)、単語の2連鎖の出現頻度N(w
,w)、単語の出現頻度N(w)をそれぞれ計算
する。
Next, the word chain frequency counting means 3 counts the frequency related to word chains from the language corpus read into the corpus input means 2 (step ST2b, word chain frequency counting step). Specifically, the word chain frequency counting means 3 calculates the appearance frequency N of the three chains of words in the language corpus.
(W 1 , w 2 , w 3 ), the appearance frequency N (w
1 , w 2 ) and word appearance frequency N (w 1 ) are calculated.

【0078】このあと、クラス情報入力手段12がクラ
ス情報記憶手段11からクラス情報を読み出して類似単
語連鎖追加手段13が利用可能に保持する(ステップS
T3b)。このクラス分けには、人手による直感的なク
ラス分けでもよいし、ある基準に基づく機械的なクラス
分けでもよい。また、必ずしも全ての単語がどこかのク
ラスに所属する必要はない。さらに、ある単語が所属す
るクラスは必ずしも1つではなく、複数のクラスに所属
してもよい。図10は実施の形態3による統計的言語モ
デル生成装置で用いるクラス情報の一例を示す図であ
る。図示の例では、医薬の種類や効能によってクラス分
けされており、言語コーパス内の単語が各クラス1,
2,3,・・・に対応付けられて管理される。また、こ
のクラス情報は医療に関連する分野に対して人手による
直感的なクラス分けをした例であり、具体的には塗布
薬、飲み薬、腹部疾病などのクラスに分類し、それらの
各クラス1,2,3,・・・に関連する単語が割り当て
られている。
Thereafter, the class information input means 12 reads the class information from the class information storage means 11 and holds the similar word chain adding means 13 usable (step S).
T3b). The classification may be an intuitive manual classification or a mechanical classification based on a certain standard. Also, not all words need to belong to any class. Furthermore, the class to which a certain word belongs is not necessarily one, but may belong to a plurality of classes. FIG. 10 is a diagram showing an example of class information used in the statistical language model generation device according to the third embodiment. In the illustrated example, the medicines are classified according to their types and effects, and words in the language corpus are classified into classes 1 and 2, respectively.
Are managed in association with 2, 3,.... In addition, this class information is an example of intuitive classification by hand in the field related to medical treatment. Specifically, the class information is classified into classes such as topical medicines, oral medicines, and abdominal diseases. Words related to 1, 2, 3,... Are assigned.

【0079】次に、類似単語連鎖追加手段13が言語コ
ーパスに存在する任意の単語連鎖w −wを1つ選択
する。この2単語連鎖w−wに後続する単語w
は、通常複数種類ある。このあと、類似単語連鎖追加
手段13があるクラスCを選択し、このクラスCに所属
する単語がw−wに後続することがあるかを調べる
(ステップST4b)。このクラスCに所属するある単
語xがw−wに後続していた場合(即ち、N
(w,w,x)>0)、クラスCに所属する他の単
語yがN(w,w,y)=0であっても、それに接
続し得る可能性があると考えて、N(w,w,y)
に所定の出現頻度kを与える(ステップST5b、類似
単語連鎖追加ステップ)。
Next, the similar word chain adding means 13 outputs
-Any word chain w present in the path 1-W2Select one
I do. This two-word chain w1-W2The word w following
3Are usually of multiple types. After this, add similar word chains
Means 13 selects a certain class C and belongs to this class C
The word to be w1-W2Find out if there is anything following
(Step ST4b). Someone belonging to this class C
The word x is w1-W2(That is, N
(W1, W2, X)> 0), other units belonging to class C
If the word y is N (w1, W2, Y) = 0
N (w1, W2, Y)
Is given a predetermined appearance frequency k (step ST5b, similar
Word chain addition step).

【0080】上述した動作は、言語コーパスを非常に大
きく(大量のテキストを保持する)すれば出現するであ
ろう単語連鎖が言語コーパスが小さいために整数で表現
される出現頻度が0になってしまうことによる不具合を
防止するためのものである。これより、出現頻度kの値
としては0<k≦1が適当である。例えば、クラス1
「塗布薬」について、w=「毎日」、w=「夕
方」、x=「パウダー」という単語連鎖が言語コーパス
にあった場合、図10に示した「パウダー」と同一のク
ラス1である単語「ワセリン」による「毎日」−「夕
方」−「ワセリン」という単語連鎖がなくても、その出
現頻度をkとして与える。このようにして、類似単語連
鎖追加手段13が類似する単語連鎖に出現頻度を与えて
新たに言語コーパスに追加し、追加コーパス14として
保持する。
In the above-described operation, the word chain that would appear if the language corpus was made very large (a large amount of text was held) was reduced to an integer frequency 0 because the language corpus was small. This is for preventing a problem caused by the above. Accordingly, 0 <k ≦ 1 is appropriate as the value of the appearance frequency k. For example, class 1
If the word chain of “applied medicine” in the language corpus includes w 1 = “every day”, w 2 = “evening”, and x = “powder”, it is in the same class 1 as “powder” shown in FIG. Even if there is no word chain "everyday"-"evening"-"vaseline" by a certain word "vaseline", its appearance frequency is given as k. In this way, the similar word chain adding unit 13 gives a frequency of appearance to the similar word chain and newly adds it to the language corpus, and holds it as the additional corpus 14.

【0081】このあと、類似単語連鎖追加手段13が全
てのクラスC及び全ての2単語連鎖w−wについて
上記処理を行う(ステップST6b、ステップST7
b、類似単語連鎖追加ステップ)。
Thereafter, the similar word chain adding means 13 performs the above processing for all classes C and all two-word chains w 1 -w 2 (step ST6b, step ST7).
b, similar word chain addition step).

【0082】次に、類似単語連鎖追加手段13が言語コ
ーパス内に存在するある単語連鎖w −*−wを選択
する。ここで、*は3単語連鎖の間に存在する任意の単
語であり、通常複数種類の単語がある。このあと、類似
単語連鎖追加手段13があるクラスCを選択し、このク
ラスCに所属する単語がw−*−wの*に存在して
いるかを調べる(ステップST8b)。このクラスCに
所属するある単語xがw−*−wの*に存在してい
た場合(即ち、N(w,x,w)>0)、クラスC
に所属するある他の単語yがN(w,y,w)=0
であっても、それに接続し得る可能性があると考え、N
(w,y,w)に所定の出現頻度kを与える(ステ
ップST9b、類似単語連鎖追加ステップ)。このよう
にして、類似単語連鎖追加手段13が類似する単語連鎖
に出現頻度を与えて新たに言語コーパスに追加し、追加
コーパス14として保持する。
Next, the similar word chain adding means 13 outputs
-A word chain w in the path 1-*-W3choose
I do. Here, * indicates any unit existing between three word chains.
Word, usually there are multiple types of words. After this, similar
The word chain adding means 13 selects a class C, and this class
The word belonging to Lass C is w1-*-W3In *
Is checked (step ST8b). In this class C
A certain word x belongs to w2-*-W3Exists in *
(Ie, N (w2, X, w3)> 0), class C
Is another word y belonging to N (w1, Y, w3) = 0
Considers that it may be possible to connect to it,
(W1, Y, w3) Is given a predetermined appearance frequency k (step
Step ST9b, similar word chain addition step). like this
The similar word chain adding means 13 sets the similar word chain
To the language corpus with the frequency of appearance
Stored as corpus 14.

【0083】このあと、類似単語連鎖追加手段13が全
てのクラスC及び全てのw,wの組み合わせについ
て上記処理を行う(ステップST10b、ステップST
11b、類似単語連鎖追加ステップ)。
Thereafter, the similar word chain adding means 13 performs the above-described processing for all classes C and all combinations of w 1 and w 3 (step ST10b, step ST10).
11b, similar word chain adding step).

【0084】次に、類似単語連鎖追加手段13が言語コ
ーパス内に存在するある単語連鎖*−w−wを選択
する。ここで、*は3単語連鎖が存在する任意の単語で
あり、通常複数種類の単語がある。このあと、類似単語
連鎖追加手段13があるクラスCを選択し、このクラス
Cに所属する単語が*−w−wの*に存在している
かを調べる(ステップST12b)。このクラスCに所
属するある単語xが*−w−wの*に存在していた
場合(即ち、N(x,w,w)>0)、クラスCに
所属する他の単語yがN(y,w,w)=0であっ
ても、それに接続しうる可能性があると考え、N(y,
,w)に所定の出現頻度kを与える(ステップS
T13b、類似単語連鎖追加ステップ)。このようにし
て、類似単語連鎖追加手段13が類似する単語連鎖に出
現頻度を与えて新たに言語コーパスに追加し、追加コー
パス14として保持する。
[0084] Next, similar word concatenation additional means 13 selects a certain word concatenation * -w 2 -w 3 present in the corpus. Here, * is an arbitrary word having a three-word chain, and usually includes a plurality of types of words. Thereafter, select the class C which have similar word concatenation additional means 13, investigate whether words belonging to this class C is present in the * -w 2 -w 3 * (step ST12b). If there is word x that belong to the class C was present in the * -w 2 -w 3 * (ie, N (x, w 2, w 3)> 0), other word of belonging to the class C Even if y is N (y, w 2 , w 3 ) = 0, it is considered that there is a possibility that it can be connected to N (y, w 2 , w 3 ).
w 2 , w 3 ) is given a predetermined appearance frequency k (step S
T13b, similar word chain addition step). In this way, the similar word chain adding unit 13 gives a frequency of appearance to the similar word chain and newly adds it to the language corpus, and holds it as the additional corpus 14.

【0085】このあと、類似単語連鎖追加手段13が全
てのクラスC及び全てのw−wの組み合わせについ
て上記処理を行う(ステップST14b、ステップST
15b、類似単語連鎖追加ステップ)。
Thereafter, the similar word chain adding means 13 performs the above-described processing for all combinations of classes C and all combinations of w 2 -w 3 (step ST14b, step ST14).
15b, similar word chain addition step).

【0086】以上のように、この実施の形態3によれ
ば、言語コーパス内に存在する単語連鎖に類似する単語
連鎖を新たに言語コーパスに追加する、具体的には言語
コーパスに存在する単語を分類したクラス情報に基づい
て所定の単語クラスに所属する単語が言語コーパス内の
単語連鎖に含まれるか否かを判断し、所定の単語クラス
に所属する単語をこの単語クラスに所属する他の単語に
置き換えた単語連鎖を類似する単語連鎖として言語コー
パスに新たに追加するので、連鎖する可能性がある単語
は出現頻度が0であっても所定の出現頻度を与え、スパ
ース性を減少させることができることから、言語確率の
計算の際にバックオフする場合が減少し、統計的言語モ
デルの性能を向上させることができる。また、この実施
の形態3では、類似する単語連鎖を作成するときのみク
ラス情報を用い、単語連鎖確率(単語連鎖の条件付き確
率)を計算する際には用いないので、クラス言語モデル
に伴う性能劣化を防止することができる。
As described above, according to the third embodiment, a word chain similar to the word chain existing in the language corpus is newly added to the language corpus. Specifically, the words existing in the language corpus are added. Based on the classified class information, it is determined whether a word belonging to a predetermined word class is included in a word chain in a language corpus, and a word belonging to the predetermined word class is replaced with another word belonging to this word class. Is added to the language corpus as a similar word chain to the language corpus. Even if the frequency of occurrence is 0, a given frequency of appearance is given to reduce the sparseness. Because it is possible, the case of backing off when calculating the language probability is reduced, and the performance of the statistical language model can be improved. In the third embodiment, the class information is used only when a similar word chain is created, and is not used when calculating a word chain probability (conditional probability of a word chain). Deterioration can be prevented.

【0087】なお、上記実施の形態3で示した処理のう
ち、例えば部分的な処理であるステップST8b〜ステ
ップST15bを省略しても類似の効果を奏する。
A similar effect is obtained even if, for example, steps ST8b to ST15b, which are partial processes, are omitted from the processes described in the third embodiment.

【0088】実施の形態4.この実施の形態4はクラス
言語モデルを用いることによる単語連鎖確率(単語連鎖
の条件付き確率)の精度の劣化を防ぎ、高い精度の言語
モデルを提供する上記実施の形態3と異なる構成を示す
ものである。
Embodiment 4 The fourth embodiment is different from the third embodiment in that the use of a class language model prevents the word chain probability (conditional probability of word chain) from deteriorating in accuracy and provides a language model with high accuracy. It is.

【0089】図11はこの発明の実施の形態4による統
計的言語モデル生成装置の構成を示す図である。図にお
いて、15は単語−クラス連鎖計数手段(単語クラス間
頻度計数手段)であって、コーパス入力手段2がコーパ
ス記憶手段1から読み込んだ言語コーパス内に存在する
単語連鎖の出現頻度を、この単語連鎖の最後に位置する
単語が属する単語クラス別に計数し、この単語クラスに
おける単語種類数による出現頻度の平均値を算出する。
16は単語接続確率計算手段であって、単語連鎖頻度計
数手段3が計数した単語連鎖に係る頻度に基づいて単語
連鎖の条件付確率を算出するとともに、単語−クラス連
鎖計数手段15が計数した単語連鎖の出現頻度の平均値
に基づいて単語連鎖の最後に位置する単語が属する単語
クラスに係る条件付き確率を算出して、これらを線形結
合してなる確率を単語連鎖の新たな条件付き確率とす
る。17は単語接続確率計算手段16が線形結合される
条件付き確率にそれぞれ加える重み係数を格納する係数
記憶手段である。なお、図1及び図6と同一構成要素に
は同一符号を付して重複する説明を省略する。
FIG. 11 is a diagram showing a configuration of a statistical language model generation device according to the fourth embodiment of the present invention. In the figure, reference numeral 15 denotes word-class chain counting means (inter-class frequency counting means), which indicates the frequency of occurrence of word chains present in the language corpus read from the corpus storage means 1 by the corpus input means 2. Counting is performed for each word class to which the word located at the end of the chain belongs, and the average value of the appearance frequency based on the number of word types in this word class is calculated.
Reference numeral 16 denotes a word connection probability calculating unit that calculates the conditional probability of a word chain based on the frequency of the word chain counted by the word chain frequency counting unit 3 and the word counted by the word-class chain counting unit 15. Calculate the conditional probabilities of the word class to which the word located at the end of the word chain belongs based on the average value of the frequency of occurrence of the chain, and calculate the probability obtained by linearly combining these with the new conditional probability of the word chain. I do. Reference numeral 17 denotes coefficient storage means for storing a weight coefficient added to the conditional probability that the word connection probability calculation means 16 is linearly combined. The same components as those in FIGS. 1 and 6 are denoted by the same reference numerals, and redundant description will be omitted.

【0090】次に動作について説明する。図12は図1
1の統計的言語モデル生成装置による統計的言語モデル
生成動作を示すフロー図であり、このフロー図に沿って
トライグラム言語モデルを作成する場合を例として説明
する。先ず、上記実施の形態1と同様に、コーパス入力
手段2がコーパス記憶手段1から言語コーパスを読み出
し、単語連鎖頻度計数手段3及び単語−クラス連鎖計数
手段15が利用可能に保持する(ステップST1c)。
Next, the operation will be described. FIG. 12 shows FIG.
FIG. 4 is a flowchart showing a statistical language model generation operation by one statistical language model generation device, and a case where a trigram language model is created along this flowchart will be described as an example. First, as in the first embodiment, the corpus input means 2 reads the language corpus from the corpus storage means 1, and holds the word chain frequency counting means 3 and the word-class chain counting means 15 in a usable state (step ST1c). .

【0091】次に、単語連鎖頻度計数手段3がコーパス
入力手段2に読み込まれた言語コーパスから、単語連鎖
に係る頻度を計数する(ステップST2c、単語連鎖頻
度計数ステップ)。具体的には、単語連鎖頻度計数手段
3が言語コーパス内の単語の3連鎖の出現頻度N
(w,w,w)、単語の2連鎖の出現頻度N(w
,w)、単語の出現頻度N(w)をそれぞれ計算
する。
Next, the word chain frequency counting means 3 counts the word chain frequency from the language corpus read by the corpus input means 2 (step ST2c, word chain frequency counting step). Specifically, the word chain frequency counting means 3 calculates the appearance frequency N of the three chains of words in the language corpus.
(W 1 , w 2 , w 3 ), the appearance frequency N (w
1 , w 2 ) and word appearance frequency N (w 1 ) are calculated.

【0092】このあと、クラス情報入力手段12がクラ
ス情報記憶手段11からクラス情報を読み出して単語−
クラス連鎖計数手段15及び単語接続確率計算手段16
が利用可能に保持する(ステップST3c)。このクラ
ス分けには、人手による直感的なクラス分けでもよい
し、ある基準に基づく機械的なクラス分けでもよい。ま
た、必ずしも全ての単語がどこかのクラスに所属する必
要はない。さらに、ある単語が所属するクラスは必ずし
も1つではなく、複数のクラスに所属してもよい。
Thereafter, the class information input means 12 reads the class information from the class information storage means 11 and reads the class information.
Class chain counting means 15 and word connection probability calculating means 16
Are kept available (step ST3c). The classification may be an intuitive manual classification or a mechanical classification based on a certain standard. Also, not all words need to belong to any class. Furthermore, the class to which a certain word belongs is not necessarily one, but may belong to a plurality of classes.

【0093】次に、単語−クラス連鎖計数手段15は単
語とそれに後続する単語の連鎖数をクラスC別に計数
し、下記式(26)で与えられるN(w,w
C)、N(w,C)、N(C)を求める(ステップS
T4c)。
Next, the word-class chain counting means 15 counts the number of chains of the word and the succeeding word for each class C, and obtains N (w 1 , w 2 ,
C), N (w 2 , C) and N (C) are obtained (step S)
T4c).

【数5】 例えば、w=”今日”、w=”は”、クラスC
図10におけるクラス1(塗布薬)とし、言語コーパス
内に、”・・・今日はパウダー・・・”が2回、”・・
・今日はワセリン・・・”が4回、”・・・今日はリン
デロン・・・”が4回、”・・・夜はバンテリン・・
・”が3回、”・・・処方にバンテリン・・・”が1回
という単語連鎖があった場合、N(”今日”,”は”,
)=2+4+4=10、N(”は”,C)=2+
4+4+3=13、N(C)=2+4+4+3+1=
14となる。
(Equation 5) For example, w 1 = “today”, w 2 = “is”, class C 1 is class 1 (applied medicine) in FIG. 10, and “... today is a powder ...” twice in the language corpus. , "...
・ Vaseline ... 4 times today, “… Linderon ... 4 times today,” ... Vantelin at night ...
・ If there is a word chain of “3 times” and “... Vanterin ...” once, N (“Today”, “ha”, “
C 1 ) = 2 + 4 + 4 = 10, N (“is”, C 1 ) = 2 +
4 + 4 + 3 = 13, N (C 1 ) = 2 + 4 + 4 + 3 + 1 =
It becomes 14.

【0094】さらに、単語−クラス連鎖計数手段15
は、上述のようにして求めた出現頻度のクラスC内の単
語種類数による平均値NAV(w,w,C)、N
AV(w ,C)、NAV(C)を下記式(27)に従
って計算する(ステップST5c)。
Further, the word-class chain counting means 15
Is a simple expression in the class C of the appearance frequency obtained as described above.
Average value N based on number of wordAV(W1, W2, C), N
AV(W 2, C), NAV(C) according to the following equation (27)
(Step ST5c).

【数6】 上記の例の場合では、クラスCに所属する単語は図1
0で5種類あるとすると、NAV(”今日”,”は”,
)=10/5=2、NAV(”は”,C)=13
/5=2.6、NAV(C)=14/5=2.8とな
る。以上のステップST4c及びステップST5cが単
語クラス間頻度計数ステップに相当する。
(Equation 6) In the above example, word 1 belonging to the class C 1
0, and there are five types, N AV (“today”, “ha”,
C 1 ) = 10/5 = 2, N AV (“ ha ”, C 1 ) = 13
/5=2.6 and N AV (C 1 ) = 14/5 = 2.8. The above steps ST4c and ST5c correspond to a word class frequency counting step.

【0095】次に、単語接続確率計算手段16は係数記
憶手段17から係数λ〜λを読み込む(ステップS
T6c)。これら係数λ〜λは、確率の総和=1と
いう制限よりλ+λ+・・・+λ=1である。ま
た、係数λ〜λは良く知られているEMアルゴリズ
ムで決定することができる。このEMアルゴリズムと
は、初期値から出発して、漸化式によって適切なパラメ
ータの収束値を求める方法である。ここで、漸化式にお
ける第k回目の係数λをλ とすると、第k+1回
目の係数λk+1 は下記式(28)で与えられる。
Next, the word connection probability calculation means 16 reads the coefficients λ 1 to λ 6 from the coefficient storage means 17 (step S).
T6c). The coefficients λ 1 to λ 6 are λ 1 + λ 2 +... + Λ 6 = 1 due to the restriction that the sum of probabilities = 1. The coefficients λ 1 to λ 6 can be determined by a well-known EM algorithm. The EM algorithm is a method of obtaining an appropriate convergence value of a parameter by a recurrence formula starting from an initial value. Here, assuming that the k-th coefficient λ j in the recurrence equation is λ k j , the (k + 1) -th coefficient λ k + 1 j is given by the following equation (28).

【数7】 係数λの初期値としてλ から始まって上記式(2
8)による計算を係数λが収束するまで続ける。この式
(28)において最初のΣは言語コーパスに出現する全
ての単語連鎖についてとる。Nは言語コーパスに出現す
る全ての単語連鎖の延べ頻度数である。
(Equation 7) Starting from λ 11 1 as the initial value of the coefficient λ, the above equation (2)
The calculation according to 8) is continued until the coefficient λ converges. In this equation (28), the first Σ is taken for all word chains appearing in the language corpus. N is the total frequency of all word chains appearing in the language corpus.

【0096】次に、単語接続確率計算手段16は、任意
の3つの単語からなる単語連鎖wを抽出し、
その単語連鎖確率P(w|w,w)を以下のよう
に計算する。先ず、クラス情報入力手段12がクラス情
報記憶手段11から読み出したクラス情報に基づいて、
単語接続確率計算手段16は単語連鎖wの最
後に位置する単語wが所属するクラスを求め、これを
クラスCとする(ステップST7c)。
Next, the word connection probability calculation means 16 extracts a word chain w 1 w 2 w 3 composed of any three words,
The word chain probability P (w 3 | w 1 , w 2 ) is calculated as follows. First, based on the class information read by the class information input unit 12 from the class information storage unit 11,
Word connection probability calculation unit 16 obtains the class to which the word w 3 located at the end of the word concatenation w 1 w 2 w 3 belongs, which is referred to as Class C 3 (step ST7c).

【0097】このあと、単語接続確率計算手段16は、
下記式(29)に従って単語連鎖確率P(w|w
)を求める(ステップST8c、単語接続確率計算
ステップ)。
Thereafter, the word connection probability calculating means 16 calculates
The word chain probability P (w 3 | w 1 ,
w 2 ) (step ST8c, word connection probability calculation step).

【数8】 ここで、*は全ての単語を意味している。上記式(2
9)の係数λ〜λは、上述したように確率の総和=
1という制限より、λ+λ+・・・+λ=1とな
る。
(Equation 8) Here, * means all words. The above equation (2
The coefficients λ 1 to λ 6 of 9) are, as described above, the sum of the probabilities =
Due to the restriction of 1, λ 1 + λ 2 +... + Λ 6 = 1.

【0098】言語モデル生成手段6によって制御された
単語−クラス連鎖計数手段15及び単語接続確率計算手
段16が、以上の処理を全ての出現可能な単語連鎖(w
,w,w)について計算する。これによって、言
語モデル生成手段6に各単語連鎖の条件付き確率が保持
されてトライグラム言語モデルが作成される(ステップ
ST9c、統計的言語モデル生成ステップ)。
The word-class chain counting means 15 and the word connection probability calculating means 16 controlled by the language model generating means 6 perform the above processing on all possible word chains (w
1 , w 2 , w 3 ). As a result, the trigram language model is created while the conditional probability of each word chain is held in the language model creating means 6 (step ST9c, statistical language model creating step).

【0099】ここで、上記式(29)について説明す
る。上記式(29)の右辺の第1項〜第3項の部分は、
従来からよく知られている線形補間法という手法に対応
するものであるが、この実施の形態4では、右辺の第4
項から第6項までを追加することによって、従来の線形
補間法の精度を向上を図っている。例えば、言語コーパ
スに格納されるコーパスの量が少ないとき、右辺第1項
の分子が0であっても、同じ単語群が所属するクラスC
まで考慮した右辺第4項の分子では0とならない場合
が多い。このとき、単語連鎖確率は右辺第4項の分だけ
大きくなる。このように、コーパス量の少ない言語コー
パスにおいて出現頻度が0となったり、0に限りなく近
い値となる単語連鎖があっても、線形補間法に対応する
右辺の第4項から第6項までがその補間を行い、適切な
単語連鎖確率を推定することができることから、結果と
して音声認識装置の精度が向上する。また、この実施の
形態4ではクラス情報を類似単語連鎖の作成時にしか用
いず、単語連鎖確率を計算する際には用いないので、ク
ラス言語モデルに伴う性能劣化は存在しない。
Here, the above equation (29) will be described. The part of the first to third terms on the right side of the above equation (29) is
Although this corresponds to a conventionally well-known method called linear interpolation, the fourth embodiment on the right side
By adding the terms 6 to 6, the accuracy of the conventional linear interpolation method is improved. For example, when the amount of the corpus stored in the language corpus is small, even if the numerator of the first term on the right side is 0, the class C to which the same word group belongs
In many cases, the numerator of the fourth term on the right side taking into account 3 does not become 0. At this time, the word chain probability increases by the amount of the fourth term on the right side. As described above, even when the frequency of appearance is 0 in a language corpus with a small corpus amount, or there is a word chain having a value as close as possible to 0, the fourth to sixth terms on the right side corresponding to the linear interpolation method Can perform the interpolation to estimate an appropriate word chain probability, and as a result, the accuracy of the speech recognition apparatus is improved. Further, in the fourth embodiment, the class information is used only when a similar word chain is created, and is not used when calculating a word chain probability, so that there is no performance degradation associated with the class language model.

【0100】以上のように、この実施の形態4によれ
ば、言語コーパス内に存在する単語連鎖の出現頻度及び
単語種類数を含んでなる単語連鎖に係る頻度を計数する
とともに、言語コーパスに存在する単語を類似する意味
の単語クラスごとにクラス分けしたクラス情報及び単語
連鎖に係る頻度に基づいて、言語コーパス内に存在する
単語連鎖の出現頻度を、この単語連鎖の最後に位置する
単語が属する単語クラス別に計数してこの単語クラスに
おける単語種類数による出現頻度の平均値を算出し、単
語連鎖に係る頻度に基づいて算出した単語連鎖の条件付
確率と、上記出現頻度の平均値に基づいて算出した上記
単語連鎖の最後に位置する単語が属する単語クラスに係
る条件付き確率とを線形結合してなる確率を単語連鎖の
新たな条件付き確率とするので、単語をクラスに分類し
た情報を用いて単語連鎖確率を計算するのでコーパス量
が少ない場合でも精度良く単語連鎖確率を推定すること
ができる。
As described above, according to the fourth embodiment, the appearance frequency of the word chain existing in the language corpus and the frequency of the word chain including the number of word types are counted, and the number of words existing in the language corpus is counted. Based on the class information obtained by classifying words to be classified into word classes having similar meanings and the frequency of word chains, the frequency of occurrence of word chains existing in the language corpus is changed to the word to which the last word of this word chain belongs. Counting by word class, calculating the average value of the appearance frequency according to the number of word types in this word class, based on the conditional probability of the word chain calculated based on the frequency related to the word chain, and the average value of the occurrence frequency The probability that is obtained by linearly combining the calculated probability with respect to the word class to which the word located at the end of the word chain belongs belongs to the new conditional probability of the word chain. Since it is possible to precisely estimate the word chain probabilities even corpora amount is small because it calculates a word chain probabilities using information classified words into classes.

【0101】なお、上記実施の形態4では1種類のクラ
ス情報のみを用いる例を示したが、複数のクラス情報を
用いてもよい。その場合、単語wは第1のクラス情報
ではCに属し、第2のクラス情報ではDに属し、・
・・のようにすると、単語連鎖確率P(w|w,w
)は下記式(30)で与えられる。
In the fourth embodiment, an example is shown in which only one type of class information is used, but a plurality of class information may be used. In that case, the word w 3 belongs to C a in the first class information, belong to the D b in the second class information, -
..., the word chain probability P (w 3 | w 1 , w
2 ) is given by the following equation (30).

【数9】 ここで、λ+λ+λ+・・・=1である。このよ
うに複数の基準のクラス情報を用いることで、出現頻度
が0となる不具合やスパース性の問題に対する頑健性を
向上させることができるという利点がある。
(Equation 9) Here, λ 1 + λ 2 + λ 3 +... = 1. By using the class information of a plurality of references in this way, there is an advantage that the robustness against the problem that the appearance frequency becomes 0 and the problem of sparsity can be improved.

【0102】また、上記実施の形態1から4で示した統
計的言語モデル生成装置によれば言語性能の高い統計的
言語モデルを生成することができるので、これらが生成
した統計的言語モデルを用いて入力音声を認識する音声
認識装置を構成することで、音声認識の精度を向上させ
ることができる。
Further, according to the statistical language model generating apparatus shown in the first to fourth embodiments, a statistical language model having high linguistic performance can be generated. Thus, the accuracy of voice recognition can be improved by configuring a voice recognition device that recognizes input voice.

【0103】さらに、以上述べた実施の形態1から実施
の形態4までにおいて示した各手段は、ハードウェア・
ソフトウェアのいずれでも構成できる。また、ソフトウ
ェアによって構成する場合には、本願発明の統計的言語
モデル生成方法をコンピュータに実行させるソフトウェ
アプログラムを記録したコンピュータ読み取り可能な記
録媒体とすることで、出現頻度が大きい単語を含む単語
連鎖が不当に高い言語確率をもつことを防ぐことがで
き、又は、クラス言語モデルに伴う性能劣化を防止する
ことができる統計的言語モデル生成装置として機能する
コンピュータシステムを容易に実現することができる。
Further, each means described in the above-described first to fourth embodiments is a hardware /
Can be configured with any software. In the case of using software, a computer-readable recording medium that records a software program that causes a computer to execute the statistical language model generation method of the present invention enables word chains including words with a high appearance frequency to be formed. It is possible to easily realize a computer system functioning as a statistical language model generation device that can prevent having an unduly high language probability or prevent performance degradation accompanying a class language model.

【0104】[0104]

【発明の効果】以上のように、この発明によれば、言語
コーパス内に存在する単語連鎖の出現頻度及び単語種類
数を含んでなる単語連鎖に係る頻度を計数し、この単語
連鎖に係る頻度に基づいて単語連鎖の条件付き確率を計
算し、出現頻度が小さい単語連鎖の条件付き確率をバッ
クオフ平滑化にて計算するにあたり、バックオフ確率を
単調増加する関数に入力し、この関数による演算結果を
単語連鎖の新たな条件付き確率とするので、出現頻度が
大きい単語を含む単語連鎖との間の頻度差によるダイナ
ミックレンジを緩和することができることから、出現頻
度が大きい単語を含む単語連鎖が不当に高い言語確率を
もつことを防ぐことができるという効果がある。
As described above, according to the present invention, the frequency of occurrence of word chains existing in the language corpus and the frequency of word chains including the number of word types are counted, and the frequency of this word chain is counted. Calculates the conditional probability of a word chain based on, and calculates the conditional probability of a word chain with a low frequency of occurrence by back-off smoothing. Since the result is a new conditional probability of the word chain, the dynamic range due to the frequency difference between the word chain including the word having a high appearance frequency can be relaxed. There is an effect that it is possible to prevent having an unduly high language probability.

【0105】この発明によれば、単調増加する関数をべ
き乗関数とするので、出現頻度が大きい単語を含む単語
連鎖との間の頻度差によるダイナミックレンジを緩和す
ることができるという効果がある。
According to the present invention, since the monotonically increasing function is a power function, there is an effect that the dynamic range due to a frequency difference between a word chain including a word having a high appearance frequency can be reduced.

【0106】この発明によれば、単調増加する関数をシ
グモイド関数とするので、パラメータを適宜変更するこ
とで条件付き確率の取り得る範囲も広範囲に設定するこ
とができ、対象とする単語連鎖間の頻度差によるダイナ
ミックレンジが適切な値となるように柔軟に処理するこ
とができるという効果がある。
According to the present invention, since the monotonically increasing function is a sigmoid function, the range in which the conditional probability can be taken can be set in a wide range by appropriately changing the parameters. There is an effect that the processing can be flexibly performed so that the dynamic range based on the frequency difference becomes an appropriate value.

【0107】この発明によれば、単調増加する関数が演
算結果に上下限値を有するので、出現頻度が大きい単語
を含む単語連鎖との間の頻度差によるダイナミックレン
ジを緩和することができるとともに、出現頻度の大きい
単語のみ確率を圧縮することができるという効果があ
る。
According to the present invention, since the monotonically increasing function has upper and lower limits in the operation result, it is possible to reduce the dynamic range due to the frequency difference between a word chain including a word having a high appearance frequency, and There is an effect that the probability can be reduced only for words having a high appearance frequency.

【0108】この発明によれば、言語コーパスを複数に
分割し、分割した複数の言語コーパスを、単語連鎖に係
る頻度計数用の言語コーパスと言語性能評価用の言語コ
ーパスとに分類するとともに、単調増加する関数のパラ
メータを所望の値に設定し、頻度計数用の言語コーパス
内で計数された単語連鎖に係る頻度に基づいて言語性能
評価用の言語コーパスにおける単語連鎖の条件付き確率
を算出し、この条件付き確率を用いて言語性能を評価す
るとともに、分割した言語コーパスの分類の入れ替え及
び単調増加する関数のパラメータの変更を行うごとに最
高の言語性能を与えるパラメータを検出して、これらパ
ラメータの平均値を最適なパラメータとして決定するの
で、言語性能が最高の統計的言語モデルを生成するよう
に単調増加関数のパラメータを設定することができると
いう効果がある。
According to the present invention, the language corpus is divided into a plurality of languages, and the plurality of divided language corpuses are classified into a language corpus for counting frequencies and a language corpus for evaluating language performance. Set the parameter of the increasing function to a desired value, calculate the conditional probability of the word chain in the language corpus for language performance evaluation based on the frequency related to the word chain counted in the language corpus for frequency counting, The language performance is evaluated using this conditional probability, and the parameter that gives the best language performance is detected each time the classification of the divided language corpus is replaced and the parameter of the function that monotonically increases is detected. Since the average value is determined as the optimal parameter, the monotonically increasing function is used to generate the statistical language model with the best language performance. There is an effect that it is possible to set the parameters.

【0109】この発明によれば、分割した複数の言語コ
ーパスを、単語連鎖に係る頻度計数用の言語コーパスと
言語性能評価用の言語コーパスとに分類して、これらを
複数種類の組み合わせにするとともに、それぞれの組み
合わせに異なるパラメータを設定し、各組み合わせで最
高の言語性能を与えるパラメータを検出して、これらパ
ラメータの平均値を最終的な最適パラメータとして決定
するので、上記段落0108と同様の効果を奏すること
ができる。
According to the present invention, a plurality of divided language corpora are classified into a frequency corpus language corpus and a language performance evaluation language corpus relating to word concatenation. Since different parameters are set for each combination, the parameter that gives the best linguistic performance for each combination is detected, and the average value of these parameters is determined as the final optimal parameter. Can play.

【0110】この発明によれば、言語コーパス内に存在
する単語連鎖に類似する単語連鎖を新たに言語コーパス
に追加するとともに、言語コーパス内に存在する単語連
鎖に係る頻度を計数し、この単語連鎖に係る頻度に基づ
いて単語が連鎖する条件付き確率を計算するので、連鎖
する可能性がある単語は出現頻度が0であっても所定の
出現頻度を与え、スパース性を減少させることができる
ことから、言語確率の計算の際にバックオフする場合が
減少し、統計的言語モデルの性能を向上させることがで
きるという効果がある。
According to the present invention, a word chain similar to the word chain existing in the language corpus is newly added to the language corpus, and the frequency of the word chain existing in the language corpus is counted. Since the conditional probability that words are chained is calculated based on the frequency according to the above, a word having a possibility of chaining is given a predetermined frequency even if the frequency of occurrence is 0, so that sparsity can be reduced. This has the effect of reducing the possibility of back-off during the calculation of the language probability and improving the performance of the statistical language model.

【0111】この発明によれば、言語コーパスに存在す
る単語を分類したクラス情報に基づいて所定の単語クラ
スに所属する単語が言語コーパス内の単語連鎖に含まれ
るか否かを判断し、所定の単語クラスに所属する単語
を、この単語クラスに所属する他の単語に置き換えた単
語連鎖を類似する単語連鎖として、言語コーパスに新た
に追加するので、上記段落0110と同様の効果を奏す
ることができるとともに、類似する単語連鎖を作成する
ときのみクラス情報を用い、単語連鎖の条件付き確率を
計算する際には用いないことから、クラス言語モデルに
伴う性能劣化を防止することができるという効果があ
る。
According to the present invention, it is determined whether or not a word belonging to a predetermined word class is included in a word chain in the language corpus based on class information obtained by classifying words existing in the language corpus. Since a word chain obtained by replacing a word belonging to the word class with another word belonging to this word class is newly added to the language corpus as a similar word chain, the same effect as in paragraph 0110 can be obtained. In addition, since class information is used only when creating similar word chains and is not used when calculating conditional probability of word chains, there is an effect that performance degradation associated with a class language model can be prevented. .

【0112】この発明によれば、言語コーパス内に存在
する単語連鎖の出現頻度及び単語種類数を含んでなる単
語連鎖に係る頻度を計数するとともに、言語コーパスに
存在する単語を類似する意味の単語クラスごとにクラス
分けしたクラス情報及び単語連鎖に係る頻度に基づい
て、言語コーパス内に存在する単語連鎖の出現頻度を、
この単語連鎖に含まれる単語が属する単語クラス別に計
数して、単語連鎖に係る頻度に基づいて算出した単語連
鎖の条件付確率と、この単語連鎖に含まれる単語が属す
る単語クラスに係る条件付き確率とを線形結合してなる
確率を単語連鎖の新たな条件付き確率とするので、単語
をクラスに分類した情報を用いて単語連鎖確率を計算す
るのでコーパス量が少ない場合でも精度良く単語連鎖確
率を推定することができるという効果がある。
According to the present invention, the frequency of occurrence of word chains existing in the language corpus and the frequency of word chains including the number of word types are counted, and words existing in the language corpus are converted into words having similar meanings. Based on the class information classified by class and the frequency related to the word chain, the appearance frequency of the word chain existing in the language corpus is
The conditional probability of the word chain calculated based on the frequency of the word chain, counted by the word class to which the words included in the word chain belong, and the conditional probability of the word class to which the word included in the word chain belongs Is used as the new conditional probability of the word chain.The word chain probability is calculated using the information obtained by classifying the words into classes, so that even when the corpus amount is small, the word chain probability can be accurately calculated. The effect is that it can be estimated.

【0113】この発明によれば、上記統計的言語モデル
生成装置によって得られた統計的言語モデルを用いて入
力音声を認識する音声認識装置を提供するので、音声認
識の精度を向上させた音声認識装置を提供することがで
きるという効果がある。
According to the present invention, a speech recognition apparatus for recognizing an input speech using a statistical language model obtained by the above-described statistical language model generation apparatus is provided, so that speech recognition with improved speech recognition accuracy is provided. There is an effect that the device can be provided.

【0114】この発明によれば、上記統計的言語モデル
生成方法をコンピュータに実行させるためのプログラム
を記録する記録媒体としたので、上記効果を奏する統計
的言語モデル生成装置として機能するコンピュータシス
テムを容易に実現することができるという効果がある。
According to the present invention, a recording medium for recording a program for causing a computer to execute the above-described statistical language model generating method is provided. Therefore, a computer system functioning as a statistical language model generating apparatus having the above-described effects can be easily realized. There is an effect that can be realized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明の実施の形態1による統計的言語モ
デル生成装置の構成を示す図である。
FIG. 1 is a diagram showing a configuration of a statistical language model generation device according to a first embodiment of the present invention.

【図2】 図1の統計的言語モデル生成装置による統計
的言語モデル生成動作を示すフロー図である。
FIG. 2 is a flowchart showing a statistical language model generation operation by the statistical language model generation device of FIG. 1;

【図3】 実施の形態1による統計的言語モデル生成装
置が使用する単調増加関数を示す図である。
FIG. 3 is a diagram showing a monotonically increasing function used by the statistical language model generation device according to the first embodiment.

【図4】 この発明の実施の形態2による統計的言語モ
デル生成装置の構成を示す図である。
FIG. 4 is a diagram showing a configuration of a statistical language model generation device according to a second embodiment of the present invention.

【図5】 図4の統計的言語モデル生成装置による統計
的言語モデル生成動作を示すフロー図である。
FIG. 5 is a flowchart showing a statistical language model generation operation by the statistical language model generation device of FIG. 4;

【図6】 この発明の実施の形態3による統計的言語モ
デル生成装置の構成を示す図である。
FIG. 6 is a diagram showing a configuration of a statistical language model generation device according to a third embodiment of the present invention.

【図7】 図6の統計的言語モデル生成装置による統計
的言語モデル生成動作を示すフロー図である。
FIG. 7 is a flowchart showing a statistical language model generation operation by the statistical language model generation device of FIG. 6;

【図8】 図7の統計的言語モデル生成動作の続きを示
すフロー図である。
FIG. 8 is a flowchart showing a continuation of the statistical language model generation operation of FIG. 7;

【図9】 図8の統計的言語モデル生成動作の続きを示
すフロー図である。
FIG. 9 is a flowchart showing a continuation of the statistical language model generation operation of FIG. 8;

【図10】 実施の形態3による統計的言語モデル生成
装置で用いるクラス情報の一例を示す図である。
FIG. 10 is a diagram showing an example of class information used in the statistical language model generation device according to the third embodiment.

【図11】 この発明の実施の形態4による統計的言語
モデル生成装置の構成を示す図である。
FIG. 11 is a diagram showing a configuration of a statistical language model generation device according to a fourth embodiment of the present invention.

【図12】 図11の統計的言語モデル生成装置による
統計的言語モデル生成動作を示すフロー図である。
FIG. 12 is a flowchart showing a statistical language model generation operation by the statistical language model generation device of FIG. 11;

【図13】 従来の連続音声を認識する音声認識装置の
構成を示すブロック図である。
FIG. 13 is a block diagram illustrating a configuration of a conventional speech recognition device that recognizes continuous speech.

【図14】 図13の音声認識装置に使用される統計的
言語モデルの生成を説明する説明図である。
14 is an explanatory diagram illustrating generation of a statistical language model used in the speech recognition device in FIG.

【符号の説明】[Explanation of symbols]

1 コーパス記憶手段、2 コーパス入力手段、3 単
語連鎖頻度計数手段、4,16 単語接続確率計算手
段、5 単語接続確率再計算手段、6 言語モデル生成
手段、7 コーパス分割手段、8 パラメータ設定手
段、9 パープレキシティ計算手段(言語性能評価手
段)、10 最適パラメータ決定手段、11クラス情報
記憶手段(単語クラス記憶手段)、12 クラス情報入
力手段、13類似単語連鎖追加手段、14 追加コーパ
ス、15 単語−クラス連鎖計数手段(単語クラス間頻
度計数手段)、17 係数記憶手段。
1 corpus storage means, 2 corpus input means, 3 word chain frequency counting means, 4, 16 word connection probability calculation means, 5 word connection probability recalculation means, 6 language model generation means, 7 corpus division means, 8 parameter setting means, 9 perplexity calculation means (language performance evaluation means), 10 optimum parameter determination means, 11 class information storage means (word class storage means), 12 class information input means, 13 similar word chain addition means, 14 additional corpus, 15 words Class linkage counting means (word class frequency counting means), 17 coefficient storage means.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 伍井 啓恭 東京都千代田区丸の内二丁目2番3号 三 菱電機株式会社内 Fターム(参考) 5D015 HH23  ──────────────────────────────────────────────────続 き Continued from the front page (72) Inventor Hiroyasu Goi 2-3-2 Marunouchi, Chiyoda-ku, Tokyo F-term (reference) 5D015 HH23

Claims (20)

【特許請求の範囲】[Claims] 【請求項1】 言語コーパスを記憶するコーパス記憶手
段と、 上記言語コーパス内に存在する単語連鎖の出現頻度及び
単語種類数を含んでなる単語連鎖に係る頻度を計数する
単語連鎖頻度計数手段と、 この単語連鎖頻度計数手段が計数した単語連鎖に係る頻
度に基づいて単語連鎖の条件付き確率を計算する単語接
続確率計算手段と、 出現頻度が小さい単語連鎖の条件付き確率を上記単語接
続確率計算手段がバックオフ平滑化を行って計算するに
あたり、バックオフ確率を単調増加する関数に入力し、
この関数による演算結果を上記単語連鎖の新たな条件付
き確率とする単語接続確率再計算手段とを備えた統計的
言語モデル生成装置。
1. A corpus storing means for storing a language corpus; a word chain frequency counting means for counting a frequency of a word chain including the frequency of appearance of word chains and the number of word types existing in the language corpus; A word connection probability calculating means for calculating a conditional probability of a word chain based on the frequency of the word chain counted by the word chain frequency counting means; When performing back-off smoothing and calculating, input the back-off probability to a function that monotonically increases,
A statistical language model generating apparatus comprising: a word connection probability recalculating means for setting a calculation result by this function as a new conditional probability of the word chain.
【請求項2】 単調増加する関数は、べき乗関数である
ことを特徴とする請求項1記載の統計的言語モデル生成
装置。
2. The statistical language model generating apparatus according to claim 1, wherein the monotonically increasing function is a power function.
【請求項3】 単調増加する関数は、シグモイド関数で
あることを特徴とする請求項1記載の統計的言語モデル
生成装置。
3. The statistical language model generator according to claim 1, wherein the monotonically increasing function is a sigmoid function.
【請求項4】 単調増加する関数は、演算結果に上下限
値を有することを特徴とする請求項1記載の統計的言語
モデル生成装置。
4. The statistical language model generation apparatus according to claim 1, wherein the monotonically increasing function has upper and lower limits in the operation result.
【請求項5】 言語コーパスを複数に分割するコーパス
分割手段と、 分割された複数の言語コーパスを、単語連鎖頻度計数手
段による単語連鎖に係る頻度計数用の言語コーパスと言
語性能評価用の言語コーパスとに分類するとともに、単
語接続確率再計算手段が用いる単調増加する関数のパラ
メータを設定するパラメータ設定手段と、 上記頻度計数用の言語コーパスで計数された単語連鎖に
係る頻度に基づいて上記言語性能評価用の言語コーパス
における単語連鎖の条件付き確率を算出し、この条件付
き確率を用いて言語性能を評価する言語性能評価手段
と、 上記パラメータ設定手段によって上記分割された言語コ
ーパスの分類の入れ替え及び上記単調増加する関数のパ
ラメータの変更が行われるごとに最高の言語性能を与え
るパラメータを検出し、これらパラメータの平均値を最
適なパラメータとして決定する最適パラメータ決定手段
とを備えたことを特徴とする請求項1記載の統計的言語
モデル生成装置。
5. A corpus dividing means for dividing a language corpus into a plurality of languages, a language corpus for counting frequencies related to word chains by a word chain frequency counting means, and a language corpus for evaluating language performance. Parameter setting means for setting parameters of a monotonically increasing function used by the word connection probability recalculating means; and the language performance based on the frequency of the word chain counted in the language corpus for frequency counting. A language performance evaluation unit that calculates a conditional probability of a word chain in the language corpus for evaluation, and evaluates the language performance using the conditional probability; Each time the parameter of the monotonically increasing function is changed, the parameter that gives the best language performance 2. The statistical language model generating apparatus according to claim 1, further comprising: an optimum parameter determining means for detecting and determining an average value of these parameters as an optimum parameter.
【請求項6】 パラメータ設定手段は、分割された複数
の言語コーパスを、頻度計数用の言語コーパスと言語性
能評価用の言語コーパスとに分類して、これらを複数種
類の組み合わせにするとともに、それぞれの組み合わせ
に異なるパラメータを設定し、 最適パラメータ決定手段は、各組み合わせで最高の言語
性能を与えるパラメータを検出し、これらパラメータの
平均値を最適パラメータとして決定することを特徴とす
る請求項5記載の統計的言語モデル生成装置。
6. The parameter setting means classifies the plurality of divided language corpus into a language corpus for frequency counting and a language corpus for language performance evaluation, and combines these into a plurality of types of combinations. 6. The method according to claim 5, wherein different parameters are set for the combination of the parameters, and the optimal parameter determining means detects a parameter that gives the best linguistic performance in each combination and determines an average value of these parameters as the optimal parameter. Statistical language model generator.
【請求項7】 言語コーパスを記憶するコーパス記憶手
段と、 上記言語コーパス内に存在する単語連鎖の出現頻度及び
単語種類数を含んでなる単語連鎖に係る頻度を計数する
単語連鎖頻度計数手段と、 この単語連鎖頻度計数手段が計数した単語連鎖に係る頻
度に基づいて単語連鎖の条件付き確率を計算する単語接
続確率計算手段と、 上記言語コーパス内に存在する単語連鎖に類似する単語
連鎖を新たに上記言語コーパスに追加する類似単語連鎖
追加手段とを備えた統計的言語モデル生成装置。
7. A corpus storage means for storing a language corpus; a word chain frequency counting means for counting a frequency of a word chain including an appearance frequency of a word chain existing in the language corpus and a number of word types; A word connection probability calculating means for calculating a conditional probability of a word chain based on the frequency of the word chain counted by the word chain frequency counting means; and a word chain similar to the word chain existing in the language corpus. A statistical language model generating apparatus comprising: a similar word chain adding means for adding to the language corpus.
【請求項8】 言語コーパスに存在する単語を類似する
意味の単語クラスごとにクラス分けしたクラス情報を記
憶する単語クラス記憶手段を備え、 類似単語連鎖追加手段は、上記クラス情報に基づいて所
定の単語クラスに所属する単語が上記言語コーパス内の
単語連鎖に含まれるか否かを判断し、上記所定の単語ク
ラスに所属する単語をこの単語クラスに所属する他の単
語に置き換えた単語連鎖を類似する単語連鎖として上記
言語コーパスに新たに追加することを特徴とする請求項
7記載の統計的言語モデル生成装置。
8. A word class storage means for storing class information obtained by classifying words existing in a language corpus into word classes having similar meanings, wherein the similar word chain adding means includes a predetermined word based on the class information. It is determined whether the word belonging to the word class is included in the word chain in the language corpus, and the word chain obtained by replacing the word belonging to the predetermined word class with another word belonging to the word class is similar. 8. The statistical language model generation apparatus according to claim 7, wherein a new word chain is newly added to the language corpus.
【請求項9】 言語コーパスを記憶するコーパス記憶手
段と、 上記言語コーパス内に存在する単語連鎖の出現頻度及び
単語種類数を含んでなる単語連鎖に係る頻度を計数する
単語連鎖頻度計数手段と、 上記言語コーパスに存在する単語を類似する意味の単語
クラスごとにクラス分けしたクラス情報を記憶する単語
クラス記憶手段と、 上記クラス情報に基づいて上記言語コーパス内に存在す
る単語連鎖の出現頻度を、この単語連鎖に含まれる単語
が属する単語クラス別に計数する単語クラス間頻度計数
手段と、 上記単語連鎖に係る頻度に基づいて単語連鎖の条件付確
率を算出するとともに、上記単語クラス間頻度計数手段
が算出した上記単語連鎖の出現頻度に基づいて上記単語
連鎖に含まれる単語が属する単語クラスに係る条件付き
確率を算出して、これらを線形結合してなる確率を上記
単語連鎖の新たな条件付き確率とする単語接続確率計算
手段とを備えた統計的言語モデル生成装置。
9. A corpus storage means for storing a language corpus; a word chain frequency counting means for counting a frequency of a word chain including the number of appearances of word chains and the number of word types existing in the language corpus; Word class storage means for storing class information obtained by classifying words existing in the language corpus into word classes having similar meanings; and, based on the class information, an appearance frequency of a word chain existing in the language corpus. The inter-word class frequency counting means for counting for each word class to which the words included in the word chain belong, and the conditional probability of the word chain based on the frequency relating to the word chain, and the inter-word class frequency counting means Based on the calculated appearance frequency of the word chain, the conditional probability of the word class to which the word included in the word chain belongs is calculated. To, statistical language model generator with a word connection probability calculation means for the probability formed by these linear combination with the new conditional probability of the word chain.
【請求項10】 請求項1から請求項9のうちのいずれ
か1項記載の統計的言語モデル生成装置によって得られ
た統計的言語モデルを用いて入力音声を認識する音声認
識装置。
10. A speech recognition device for recognizing an input speech using a statistical language model obtained by the statistical language model generation device according to any one of claims 1 to 9.
【請求項11】 言語コーパス内に存在する単語連鎖の
出現頻度及び単語種類数を含んでなる単語連鎖に係る頻
度を計数する単語連鎖頻度計数ステップと、 この単語連鎖頻度計数ステップにて計数された単語連鎖
に係る頻度に基づいて単語連鎖の条件付き確率を計算す
る単語接続確率計算ステップと、 出現頻度が小さい単語連鎖の条件付き確率を上記単語接
続確率計算ステップにてバックオフ平滑化を行って計算
するにあたり、バックオフ確率を単調増加する関数に入
力し、この関数による演算結果を上記単語連鎖の新たな
条件付き確率とする単語接続確率再計算ステップと、 上記単語接続確率計算ステップ及び上記単語接続確率再
計算ステップにて求められた単語連鎖の条件付き確率を
用いて統計的言語モデルを生成する統計的言語モデル生
成ステップとを備えた統計的言語モデル生成方法。
11. A word chain frequency counting step for counting the frequency of a word chain including the number of appearances of word chains and the number of word types existing in a language corpus; and a word chain frequency counting step. A word connection probability calculation step of calculating a conditional probability of a word chain based on a frequency related to the word chain; and a conditional probability of a word chain having a low frequency of occurrence is subjected to back-off smoothing in the word connection probability calculation step. In the calculation, the back-off probability is input to a function that monotonically increases, and a calculation result by this function is used as a new conditional probability of the word chain. A statistical language model that generates a statistical language model using the conditional probabilities of word chains found in the connection probability recalculation step A statistical language model generation method comprising a generation step.
【請求項12】 単調増加する関数は、べき乗関数であ
ることを特徴とする請求項11記載の統計的言語モデル
生成方法。
12. The statistical language model generation method according to claim 11, wherein the monotonically increasing function is a power function.
【請求項13】 単調増加する関数は、シグモイド関数
であることを特徴とする請求項11記載の統計的言語モ
デル生成方法。
13. The statistical language model generation method according to claim 11, wherein the monotonically increasing function is a sigmoid function.
【請求項14】 単調増加する関数は、演算結果に上下
限値を有することを特徴とする請求項11記載の統計的
言語モデル生成方法。
14. The statistical language model generation method according to claim 11, wherein the monotonically increasing function has upper and lower limits in the operation result.
【請求項15】 言語コーパスを複数に分割して、単語
連鎖に係る頻度計数用の言語コーパスと言語性能評価用
の言語コーパスとに分類するとともに、単語接続確率再
計算ステップにて用いる単調増加する関数のパラメータ
を設定するパラメータ設定ステップと、 上記出現頻度計数用の言語コーパス内で計数された単語
連鎖に係る頻度に基づいて上記言語性能評価用の言語コ
ーパスにおける単語連鎖の条件付き確率を算出し、この
条件付き確率を用いて言語性能を評価する言語性能評価
ステップと、 上記パラメータ設定ステップと上記言語性能評価ステッ
プとを繰り返すたびに最高の言語性能を与える上記パラ
メータを取得し、これらパラメータの平均値を最適なパ
ラメータとして決定する最適パラメータ決定ステップと
を備えたことを特徴とする請求項11記載の統計的言語
モデル生成方法。
15. A language corpus is divided into a plurality of words, and classified into a language corpus for counting frequencies related to a word chain and a language corpus for evaluating language performance, and monotonically increases in a word connection probability recalculation step. A parameter setting step of setting a parameter of the function; and calculating a conditional probability of a word chain in the language corpus for language performance evaluation based on the frequency related to the word chain counted in the language corpus for counting the frequency of appearance. A language performance evaluation step of evaluating language performance using the conditional probability; and obtaining the parameter that gives the highest language performance each time the parameter setting step and the language performance evaluation step are repeated, and averaging these parameters. An optimal parameter determining step of determining a value as an optimal parameter. Statistical language model generating method according to claim 11.
【請求項16】 パラメータ設定ステップにて、分割し
た複数の言語コーパスを、単語連鎖に係る頻度計数用の
言語コーパスと言語性能評価用の言語コーパスとに分類
して、これらを複数種類の組み合わせにするとともに、
それぞれの組み合わせに異なるパラメータを設定し、 最適パラメータ決定ステップにて、各組み合わせで最高
の言語性能を与える上記パラメータを検出し、これらパ
ラメータの平均値を最終的な最適パラメータとして決定
することを特徴とする請求項15記載の統計的言語モデ
ル生成方法。
16. In the parameter setting step, the plurality of divided language corpuses are classified into a language corpus for counting frequencies and a language corpus for evaluating language performance related to a word chain, and these are classified into a plurality of types of combinations. Along with
Different parameters are set for each combination, and in the optimal parameter determination step, the parameters that give the best linguistic performance for each combination are detected, and the average value of these parameters is determined as the final optimal parameter. The method for generating a statistical language model according to claim 15, wherein
【請求項17】 言語コーパス内に存在する単語連鎖に
類似する単語連鎖を新たに上記言語コーパスに追加する
類似単語連鎖追加ステップと、 上記言語コーパス内に存在する単語連鎖の出現頻度及び
単語種類数を含んでなる単語連鎖に係る頻度を計数する
単語連鎖頻度計数ステップと、 上記単語連鎖頻度計数ステップにて計数された単語連鎖
に係る頻度に基づいて単語連鎖の条件付き確率を計算す
る単語接続確率計算ステップと、 この単語接続確率計算ステップにて求められた単語連鎖
の条件付き確率を用いて統計的言語モデルを生成する統
計的言語モデル生成ステップとを備えた統計的言語モデ
ル生成方法。
17. A similar word chain adding step of newly adding a word chain similar to a word chain existing in the language corpus to the language corpus, an appearance frequency and a number of word types of the word chain existing in the language corpus. A word chain frequency counting step of counting the frequency of the word chain including: a word connection probability of calculating a conditional probability of the word chain based on the frequency of the word chain counted in the word chain frequency counting step. A statistical language model generation method, comprising: a calculation step; and a statistical language model generation step of generating a statistical language model using the conditional probability of word chains obtained in the word connection probability calculation step.
【請求項18】 類似単語連鎖追加ステップにて、言語
コーパスに存在する単語を類似する意味の単語クラスご
とにクラス分けしたクラス情報に基づいて、所定の単語
クラスに所属する単語が上記言語コーパス内の単語連鎖
に含まれるか否かを判断し、上記所定の単語クラスに所
属する単語をこの単語クラスに所属する他の単語に置き
換えた単語連鎖を類似する単語連鎖として上記言語コー
パスに新たに追加することを特徴とする請求項17記載
の統計的言語モデル生成方法。
18. A word belonging to a predetermined word class is added to the language corpus based on class information obtained by classifying words existing in the language corpus into word classes having similar meanings in the similar word chain adding step. Judge whether it is included in the word chain, and add a word chain obtained by replacing a word belonging to the predetermined word class with another word belonging to this word class as a similar word chain to the language corpus. 18. The statistical language model generation method according to claim 17, wherein:
【請求項19】 言語コーパス内に存在する単語連鎖の
出現頻度及び単語種類数を含んでなる単語連鎖に係る頻
度を計数する単語連鎖頻度計数ステップと、 上記言語コーパスに存在する単語を類似する意味の単語
クラスごとにクラス分けしたクラス情報に基づいて、上
記言語コーパス内に存在する単語連鎖の出現頻度を、こ
の単語連鎖に含まれる単語が属する単語クラス別に計数
する単語クラス間頻度計数ステップと、 上記単語連鎖に係る頻度に基づいて単語連鎖の条件付確
率を算出するとともに、上記単語クラス間頻度計数ステ
ップにて計数した上記単語連鎖の出現頻度に基づいて上
記単語連鎖に含まれる単語が属する単語クラスに係る条
件付き確率を算出して、これらを線形結合してなる確率
を上記単語連鎖の新たな条件付き確率とする単語接続確
率計算ステップと、 この単語接続確率計算ステップにて求められた上記単語
連鎖の条件付き確率を用いて統計的言語モデルを生成す
る統計的言語モデル生成ステップとを備えた統計的言語
モデル生成方法。
19. A word chain frequency counting step for counting the frequency of a word chain including the number of occurrences of word chains and the number of types of words existing in the language corpus, and a similar meaning for words existing in the language corpus. A word class frequency counting step of counting the appearance frequency of word chains present in the language corpus for each word class to which the words included in the word chain belong, based on the class information classified for each word class. The conditional probability of the word chain is calculated based on the frequency related to the word chain, and the word to which the word included in the word chain belongs based on the frequency of appearance of the word chain counted in the inter-word class frequency counting step. Calculate the conditional probabilities related to the classes, and use the probability obtained by linearly combining them as the new conditional probability of the word chain. A statistical language model generation step comprising: a word connection probability calculation step; and a statistical language model generation step of generating a statistical language model using the conditional probability of the word chain obtained in the word connection probability calculation step Method.
【請求項20】 請求項11から請求項19のうちのい
ずれか1項記載の統計的言語モデル生成方法をコンピュ
ータに実行させるためのプログラムを記録したコンピュ
ータ読み取り可能な記録媒体。
20. A computer-readable recording medium having recorded thereon a program for causing a computer to execute the statistical language model generation method according to any one of claims 11 to 19.
JP2001020583A 2001-01-29 2001-01-29 Statistical language model forming system, speech recognizer and statistical language model forming method as well as recording medium Pending JP2002229588A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001020583A JP2002229588A (en) 2001-01-29 2001-01-29 Statistical language model forming system, speech recognizer and statistical language model forming method as well as recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001020583A JP2002229588A (en) 2001-01-29 2001-01-29 Statistical language model forming system, speech recognizer and statistical language model forming method as well as recording medium

Publications (1)

Publication Number Publication Date
JP2002229588A true JP2002229588A (en) 2002-08-16

Family

ID=18886269

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001020583A Pending JP2002229588A (en) 2001-01-29 2001-01-29 Statistical language model forming system, speech recognizer and statistical language model forming method as well as recording medium

Country Status (1)

Country Link
JP (1) JP2002229588A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005106853A (en) * 2003-09-26 2005-04-21 Nec Corp Language model learning system, speech recognition system, language model learning method, and program
JP2010191046A (en) * 2009-02-17 2010-09-02 Nec Corp Detection device, speech recognition device, detection method and program
US8831945B2 (en) 2010-10-12 2014-09-09 Nec Informatec Systems, Ltd. Language model generating device, method thereof, and recording medium storing program thereof
CN115938351A (en) * 2021-09-13 2023-04-07 北京数美时代科技有限公司 ASR language model construction method, system, storage medium and electronic device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005106853A (en) * 2003-09-26 2005-04-21 Nec Corp Language model learning system, speech recognition system, language model learning method, and program
JP2010191046A (en) * 2009-02-17 2010-09-02 Nec Corp Detection device, speech recognition device, detection method and program
US8831945B2 (en) 2010-10-12 2014-09-09 Nec Informatec Systems, Ltd. Language model generating device, method thereof, and recording medium storing program thereof
US9128907B2 (en) 2010-10-12 2015-09-08 Nec Informatec Systems, Ltd. Language model generating device, method thereof, and recording medium storing program thereof
CN115938351A (en) * 2021-09-13 2023-04-07 北京数美时代科技有限公司 ASR language model construction method, system, storage medium and electronic device
CN115938351B (en) * 2021-09-13 2023-08-15 北京数美时代科技有限公司 ASR language model construction method, system, storage medium and electronic equipment

Similar Documents

Publication Publication Date Title
JP3933750B2 (en) Speech recognition method and apparatus using continuous density Hidden Markov model
Arısoy et al. Converting neural network language models into back-off language models for efficient decoding in automatic speech recognition
Park et al. Improved neural network based language modelling and adaptation.
US7813926B2 (en) Training system for a speech recognition application
US7043422B2 (en) Method and apparatus for distribution-based language model adaptation
US7680659B2 (en) Discriminative training for language modeling
EP1580667B1 (en) Representation of a deleted interpolation N-gram language model in ARPA standard format
US20140025379A1 (en) Method and System for Real-Time Keyword Spotting for Speech Analytics
WO2007142102A1 (en) Language model learning system, language model learning method, and language model learning program
Uebel et al. Improvements in linear transform based speaker adaptation
Federico et al. Language modelling for efficient beam-search
Woodland et al. The HTK large vocabulary recognition system for the 1995 ARPA H3 task
Yamamoto et al. Multi-class composite N-gram language model
JP2002528752A (en) How to determine the parameters of a statistical language model
AU2018271242A1 (en) Method and system for real-time keyword spotting for speech analytics
JP5183120B2 (en) Speech recognition in statistical languages using square root counting.
JP2002342323A (en) Language model learning device, voice recognizing device using the same, language model learning method, voice recognizing method using the same, and storage medium with the methods stored therein
Wang et al. Direct posterior confidence for out-of-vocabulary spoken term detection
JP2002229588A (en) Statistical language model forming system, speech recognizer and statistical language model forming method as well as recording medium
JP3102195B2 (en) Voice recognition device
Ming et al. A Bayesian approach for building triphone models for continuous speech recognition
JPH09134192A (en) Statistical language model forming device and speech recognition device
JP6078435B2 (en) Symbol string conversion method, speech recognition method, apparatus and program thereof
JP2002082690A (en) Language model generating method, voice recognition method and its program recording medium
JP4362054B2 (en) Speech recognition apparatus and speech recognition program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20071112

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071112

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071112