JP2002221985A - Voice recognition device, morpheme analyzer, kana (japanese syllabary)/kanji (chinese character) converter, its method and recording medium which records its program - Google Patents

Voice recognition device, morpheme analyzer, kana (japanese syllabary)/kanji (chinese character) converter, its method and recording medium which records its program

Info

Publication number
JP2002221985A
JP2002221985A JP2001017478A JP2001017478A JP2002221985A JP 2002221985 A JP2002221985 A JP 2002221985A JP 2001017478 A JP2001017478 A JP 2001017478A JP 2001017478 A JP2001017478 A JP 2001017478A JP 2002221985 A JP2002221985 A JP 2002221985A
Authority
JP
Japan
Prior art keywords
word
kana
gram
phoneme
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2001017478A
Other languages
Japanese (ja)
Inventor
Hirotaka Goi
啓恭 伍井
Yoshiharu Abe
芳春 阿部
Yuzo Maruta
裕三 丸田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2001017478A priority Critical patent/JP2002221985A/en
Publication of JP2002221985A publication Critical patent/JP2002221985A/en
Abandoned legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a voice recognition device or the like which precisely distinguishes a specialty field input from a general field input. SOLUTION: The device is provided with an inputting means 101 which is used to input voice, a phoneme probability computing means 102 which converts voice signals outputted by the means 101 into phonemes, computes a phoneme occurring probability corresponding to each phoneme and outputs phoneme string candidates, a word probability computing means 103 which refers to a phoneme string of an object language, an word mentioned string corresponding to the phoneme string and a phoneme n-gram which stores the occurring probability and computes the word occurring probability of each word candidate corresponding to the phoneme string candidates outputted by the means 102 and a word outputting means 104 which computes a word string candidate that is similar to the voice inputted by the means 101 employing the phoneme occurring probability computed by the means 102 and the word occurring probability computed by the means 103. The phoneme n-gram has specialty and general field phoneme n-gram 106 and 107, respectively.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、自然言語の統計量
を用い、対象言語の文字、または単語の連接生起確率で
あるn-gramに基づいて音声認識、または形態素解析、ま
たは仮名漢字変換をする装置、方法および記憶媒体に関
するものである。ここでn-gramは、「確率的言語モデ
ル」、北 研二著、東京大学出版会、1999年11月
12日発行、(先行技術文献1)に著されるようなNグラ
ムモデルである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to speech recognition, morphological analysis, or kana-kanji conversion based on n-gram, which is the probability of occurrence of a character or word in a target language, using statistics of a natural language. The present invention relates to an apparatus, a method, and a storage medium for performing the method. Here, the n-gram is an N-gram model as described in "Probabilistic Language Model", Kenji Kita, published by The University of Tokyo Press on November 12, 1999, (Prior Art Document 1).

【0002】[0002]

【従来の技術】自然言語の統計量を用いた解析技術は多
くの文書処理に応用されている。例えば、音声認識によ
る日本語の入力は文書入力の手段として有用であり、よ
り認識精度の向上が望まれる。音声を精度よく認識する
ために、言語モデルとしてn-gramを用いる方式が注目さ
れている。しかし、n-gramでの制約は次数Nに影響され
るためNが小さくなると制約が弱くなってしまう。逆に
n-gramの次数Nを増加させると頻度を計数する表が巨大
になってしまうという深刻な問題があるとともに、信頼
性のある統計量を確保するためには非常に膨大な例文集
が必要になるといった課題があった。
2. Description of the Related Art Analysis techniques using statistics of natural languages are applied to many document processes. For example, Japanese input by voice recognition is useful as a means for inputting a document, and further improvement in recognition accuracy is desired. In order to accurately recognize speech, a method using n-gram as a language model has attracted attention. However, since the constraint in the n-gram is affected by the order N, the constraint becomes weaker as N becomes smaller. vice versa
Increasing the degree N of the n-gram has a serious problem that the frequency counting table becomes huge, and a very large collection of example sentences is required to secure reliable statistics. There was a problem of becoming.

【0003】n-gramの表の増加を解決するために、特表
平10−501078号公報に示すような圧縮方式が提
案されている。
[0003] In order to solve the increase in the number of n-gram tables, a compression method as disclosed in Japanese Patent Application Publication No. 10-501078 has been proposed.

【0004】以下、本発明の従来例について説明する。
図26は従来のこの種の装置の一例を示すブロック図で
ある。101はマイク、102は音韻確率算出装置、1
04は出力装置、105は情報を記憶するRAM、40
1は単語予測装置、402は3-gram表である。
Hereinafter, a conventional example of the present invention will be described.
FIG. 26 is a block diagram showing an example of this type of conventional device. 101 is a microphone, 102 is a phoneme probability calculation device, 1
04 is an output device, 105 is a RAM for storing information, 40
1 is a word prediction device, and 402 is a 3-gram table.

【0005】単語列候補の生成は、単語列の確率P(W|Y)
を最大にするWを算出することで得られる。単語列の確
率は次式から得られる。
[0005] The generation of word string candidates is based on the probability P (W | Y) of the word string.
Is obtained by calculating W that maximizes The probability of the word string is obtained from the following equation.

【0006】[0006]

【数1】 (Equation 1)

【0007】このとき、Wは発話された単語列であり、Y
は音韻列である。このうちP(W|Y)を最大にするWを求め
ればよいから、右辺のうち単語列に共通なP(Y)は省略で
き、P(Y|W)P(W)を最大にするWを求めればよい。P(Y|W)
は単語列Wが与えられたときの音韻列の出現確率であ
り、P(W)は単語列の出現確率である。時刻t=1,2,...,
Lにおいて単語列Wに対応する音韻列が次式で決定される
とき、
At this time, W is an uttered word string, and Y
Is a phoneme sequence. Since it is sufficient to find W that maximizes P (W | Y), P (Y) common to word strings on the right side can be omitted, and W that maximizes P (Y | W) P (W) Should be obtained. P (Y | W)
Is the probability of appearance of the phoneme sequence when the word sequence W is given, and P (W) is the probability of appearance of the word sequence. Time t = 1,2, ...,
When the phoneme sequence corresponding to the word sequence W in L is determined by the following equation,

【0008】[0008]

【数2】 (Equation 2)

【0009】P(Y|W)は音韻確率から次式によって算出で
きる。
P (Y | W) can be calculated from the phoneme probability by the following equation.

【0010】[0010]

【数3】 (Equation 3)

【0011】また、単語列の出現確率P(W)は、m語の単
語列Wが次式で決定されるとき、
The appearance probability P (W) of a word string is expressed as follows when the word string W of m words is determined by the following equation.

【0012】[0012]

【数4】 (Equation 4)

【0013】音韻確率とは独立に次式(単語3-gramの確
率)から近似する。
Approximately from the following equation (probability of word 3-gram) independently of the phoneme probability.

【0014】[0014]

【数5】 (Equation 5)

【0015】上述した計算により音韻列候補のうち3-gr
amインデックスに単語の列が存在するものについて、単
語列確率P(W|Y)を最大にするWを算出する。それぞれの
単語の出現確率は単語の3-gram表に予め記憶してある頻
度値をもとに算出する。
According to the above calculation, 3-gr
For words having a word string in the am index, W that maximizes the word string probability P (W | Y) is calculated. The appearance probability of each word is calculated based on the frequency values stored in advance in the 3-gram table of the word.

【0016】図27に3-gram表の例を示す。3単語の音
素表記列をインデックスとして3単語の表記、音素表
記、仮名表記、及び品詞がポイントされる構造とする。
インデックスのそれぞれの単語には頻度値が記憶されて
いる(n-gram表402参照)。
FIG. 27 shows an example of a 3-gram table. A structure in which three-word notation, phoneme notation, kana notation, and part of speech are pointed to using a three-word phoneme notation sequence as an index.
A frequency value is stored for each word in the index (see n-gram table 402).

【0017】算出した単語列Wを認識結果として出力装
置104より出力する。
The calculated word string W is output from the output device 104 as a recognition result.

【0018】次に、従来の装置を使用して音声認識する
過程を動作概略フローチャートと具体例をもとに説明す
る。図28は従来の音声認識装置の動作概略フローチャ
ートである。
Next, the process of recognizing speech using a conventional apparatus will be described with reference to a schematic flowchart of an operation and a specific example. FIG. 28 is a schematic flowchart of the operation of the conventional speech recognition apparatus.

【0019】マイク101に発声し処理を開始する(ST3
001)。マイクは入力された音声を電気信号に変換する(S
T3002,ST3003)。
Speak to the microphone 101 to start processing (ST3)
001). The microphone converts the input voice to an electrical signal (S
T3002, ST3003).

【0020】音韻確率算出装置102は電気信号をA/D
変換し、量子化した後、スペクトル分析し、音節単位に
分離した認識結果を連接して音韻列候補としてRAM1
05に記憶する(ST3004)。
The phoneme probability calculating device 102 converts the electric signal into an A / D signal.
After conversion, quantization, and spectrum analysis, the recognition results separated into syllable units are concatenated and stored in the RAM 1 as phoneme string candidates.
05 (ST3004).

【0021】単語予測装置401はRAM105から音
韻列候補を1つ取り出し、先頭単語列の初期化をする(S
T3005)。
The word prediction device 401 takes out one phoneme string candidate from the RAM 105 and initializes the first word string (S
T3005).

【0022】検索キーとして対応する3-gram情報を3-
gram表402より検索する(ST3006)。
The 3-gram information corresponding to the search key is
A search is made from the gram table 402 (ST3006).

【0023】検索された3-gram情報をもとに単語3連
鎖の確率値を計算する(ST3007)。
Based on the retrieved 3-gram information, a probability value of three chains of words is calculated (ST3007).

【0024】確率値に基づいて対応する音韻列候補に対
して最も確率の高い単語列をRAM105に記憶する(S
T3008)。
Based on the probability value, the word string having the highest probability for the corresponding phoneme string candidate is stored in the RAM 105 (S
T3008).

【0025】すべての音韻列候補に対して上述の計算を
行い、最も確率の高い単語列と音韻列候補を選択する(S
T3009)。
The above calculation is performed for all phoneme string candidates, and the most probable word string and phoneme string candidates are selected (S
T3009).

【0026】このようにして、発声に対して類似する確
率の高い単語列が求められる。
In this way, a word string having a high probability of being similar to the utterance is obtained.

【0027】[0027]

【発明が解決しようとする課題】従来のこの種の装置は
以上のように構成されていた。ところで、専門分野にお
ける実用的な処理を考慮した場合、入力がすべて専門分
野であるとは限らない。例えば、医療における診療録の
例でも、「光過敏性の癲癇の疑いあり脳波、CTとる。家
でテレビゲームをしている時に意識がなくなったらし
い。」というように、前文が専門的であるのに対して、
後文は一般的な分野の表現である。このような例に対応
するには、従来、専門のn-gramと一般のn-gramを混合す
る必要があった。
A conventional device of this kind has been constructed as described above. By the way, in consideration of practical processing in a specialized field, not all inputs are in a specialized field. For example, even in the case of medical records in medical practice, the preamble is specialized, such as "I suspected photosensitivity epilepsy and take EEG and CT. It seems that I became conscious while playing a video game at home." Against
The latter sentence is a general field expression. To cope with such an example, conventionally, it was necessary to mix a specialized n-gram and a general n-gram.

【0028】しかし、前述の従来の技術において、n-gr
amは唯一作成されていたため、専門分野と一般分野にお
ける入力を精度良く弁別することができなかった。
However, in the conventional technique described above, n-gr
am was the only one created, so it was not possible to accurately discriminate between inputs in specialized fields and general fields.

【0029】次の具体例を用いて説明する。音声認識に
おいて、医療分野における入力「光過敏性の癲癇」と、
一般分野における入力「産業構造の転換」という句を入
力し分ける場合を考える。n-gramはコーパスから抽出
し、統計的信頼性を得るためNの次数は2としたとす
る。簡単のため、音節の認識結果、及び形態素の区切り
は「ひかりかびんせい・の・てんかん」とする。「光過
敏性」は正しく解析されると仮定する。「の」の次の
「てんかん」はn-gramを用いて「癲癇」のほうが選択さ
れたとすると、「産業構造の転換」といった入力の「の
転換」の部分は同様に「の・てんかん」となるため、唯
一のn-gramでは「の癲癇」と誤りを起こしてしまう。
This will be described with reference to the following specific example. In speech recognition, medical input "photosensitive epilepsy"
Consider a case in which the phrase “transformation of industrial structure” is input separately in a general field. The n-gram is extracted from the corpus, and the order of N is assumed to be 2 in order to obtain statistical reliability. For simplicity, the syllable recognition result and the morpheme delimiter are "Hikarikabinsei-no-epilepsy". It is assumed that "photosensitivity" is correctly analyzed. Assuming that "epilepsy" is selected using "n-gram" for "epilepsy" next to "no", the "transformation" part of the input such as "transformation of industrial structure" is similarly "no epilepsy" As a result, the only n-gram makes a mistake as "epilepsy".

【0030】このように、従来技術においてn-gramは唯
一作成されていたため、専門分野と一般分野における入
力を精度良く弁別することができないという課題があっ
た。
As described above, since only the n-gram is created in the prior art, there is a problem that it is not possible to accurately discriminate an input between a specialized field and a general field.

【0031】本発明は上記のような課題を解消するため
になされたもので、専門分野と一般分野における入力を
精度良く弁別することができる音声認識装置、形態素解
析装置、仮名漢字変換装置等を提供することを目的とす
る。
The present invention has been made in order to solve the above-mentioned problems, and has been developed to provide a speech recognition device, a morphological analysis device, a kana-kanji conversion device, and the like which can accurately discriminate an input between a specialized field and a general field. The purpose is to provide.

【0032】[0032]

【課題を解決するための手段】上記の目的に鑑み、この
発明は、音声を入力する入力手段と、上記入力手段が出
力する音声信号を音韻に変換し、各音韻に対応する音韻
生起確率を計算して、音韻列候補を出力する音韻確率算
出手段と、対象言語の音韻列と音韻列に対応する単語表
記列と生起確率を記憶する音韻n-gramと上記音韻n-gram
を参照して、上記音韻確率算出手段が出力する音韻列候
補に対応する各単語候補の単語生起確率を算出する単語
確率算出手段と、上記音韻確率算出手段により算出され
た音韻生起確率と、上記単語確率算出手段により算出さ
れた単語生起確率を用いて、上記入力手段より入力され
た音声に類似する単語列候補を算出する単語出力手段
と、を備えた音声認識装置であって、上記音韻n-gramに
おいて、専門分野と一般分野の双方の音韻n-gramを持つ
ことを特徴とする音声認識装置にある。
SUMMARY OF THE INVENTION In view of the above-mentioned object, the present invention provides an input means for inputting voice, and converts a voice signal output from the input means into phonemes, and calculates a phoneme occurrence probability corresponding to each phoneme. A phoneme probability calculating means for calculating and outputting a phoneme sequence candidate; a phoneme n-gram storing a phoneme sequence of a target language, a word notation sequence corresponding to the phoneme sequence, and an occurrence probability; and the phoneme n-gram.
With reference to the word probability calculation means for calculating the word occurrence probability of each word candidate corresponding to the phoneme sequence candidate output by the phoneme probability calculation means, the phoneme occurrence probability calculated by the phoneme probability calculation means, A word output means for calculating a word string candidate similar to the voice input from the input means, using the word occurrence probability calculated by the word probability calculation means, wherein the phoneme n A speech recognition device characterized in that it has a phoneme n-gram in both a specialized field and a general field.

【0033】また、前記単語確率算出手段において、専
門分野と一般分野の確率の重みを調整可能に構成したこ
とを特徴とする請求項1に記載の音声認識装置にある。
The speech recognition apparatus according to claim 1, wherein the word probability calculation means is configured to be able to adjust the weight of the probability between the specialized field and the general field.

【0034】また、前記単語列候補の算出時に、一連の
音声に対応する音韻n-gram中の分野がすべて一致するよ
うに単語出力手段を構成したことを特徴とする請求項1
または2に記載の音声認識装置にある。
Further, the word output means is configured such that, when calculating the word string candidates, all fields in the phoneme n-gram corresponding to a series of voices match.
Or the speech recognition device according to 2.

【0035】また、仮名漢字混じり文字列を入力する入
力手段と、対象言語の仮名漢字混じり文字列と仮名漢字
混じり文字列に対応する単語表記列と生起確率を記憶す
る漢字n-gramと上記漢字n-gramを参照して、上記入力手
段が出力する漢字混じり文字列に対応する各単語候補の
単語生起確率を算出する単語確率算出手段と、上記単語
確率算出手段により算出された単語生起確率を用いて、
上記入力手段より入力された文字列に適合する単語列候
補を算出する単語出力手段と、を備えた形態素解析装置
であって、上記漢字n-gramにおいて、専門分野と一般分
野の双方の漢字n-gramを持つことを特徴とする形態素解
析装置にある。
An input means for inputting a kana-kanji mixed character string, a kana-kanji mixed character string of a target language, a word notation string corresponding to the kana-kanji mixed character string, and a kanji n-gram for storing the occurrence probability and the kanji character With reference to the n-gram, a word probability calculating means for calculating a word occurrence probability of each word candidate corresponding to the kanji-mixed character string output by the input means, and a word occurrence probability calculated by the word probability calculating means. make use of,
A word output means for calculating a word string candidate that matches the character string input from the input means, wherein in the kanji n-gram, the kanji n in both the specialized field and the general field A morphological analyzer characterized by having a -gram.

【0036】また、前記単語確率算出手段において、専
門分野と一般分野の確率の重みを調整可能に構成したこ
とを特徴とする請求項4に記載の形態素解析装置にあ
る。
A morphological analyzer according to claim 4, wherein said word probability calculating means is configured to be able to adjust the weight of the probability between the specialized field and the general field.

【0037】また、前記単語列候補の算出時に、一連の
仮名漢字混じり文字列に対応する漢字n-gram中の分野が
すべて一致するように単語出力手段を構成したことを特
徴とする請求項4または5に記載の形態素解析装置にあ
る。
The word output means is configured such that, when calculating the word string candidate, all fields in the kanji n-gram corresponding to a series of kana-kanji mixed character strings match. Or the morphological analyzer according to 5.

【0038】また、仮名文字列を入力する入力手段と、
対象言語の仮名文字列と仮名文字列に対応する単語表記
列と生起確率を記憶する仮名n-gramと上記仮名n-gramを
参照して、上記入力手段が出力する仮名文字列に対応す
る各単語候補の単語生起確率を算出する単語確率算出手
段と、上記単語確率算出手段により算出された単語生起
確率を用いて、上記入力手段より入力された仮名文字列
に適合する単語列候補を算出する単語出力手段と、を備
えた仮名漢字変換装置において、上記仮名n-gram中にお
いて、専門分野と一般分野の双方の仮名n-gramを持つこ
とを特徴とする仮名漢字変換装置にある。
Input means for inputting a kana character string;
The kana character string of the target language, the word notation string corresponding to the kana character string, and the kana n-gram storing the occurrence probability and the kana n-gram are referred to, and each of the kana character strings output by the input means is referred to. Using a word probability calculating means for calculating a word occurrence probability of a word candidate, and a word occurrence probability calculated by the word probability calculating means, calculating a word string candidate that matches the kana character string input from the input means A kana-kanji conversion device comprising: a kana-kanji conversion device comprising: a kana-kanji conversion device having word output means.

【0039】また、前記単語確率算出手段において、専
門分野と一般分野の確率の重みを調整可能に構成したこ
とを特徴とする請求項7に記載の仮名漢字変換装置にあ
る。
The kana-kanji conversion device according to claim 7, wherein the word probability calculation means is configured to be able to adjust the weight of the probability between the specialty field and the general field.

【0040】また、前記単語列候補の算出時に、一連の
仮名文字列に対応する仮名n-gram中の分野がすべて一致
するように単語出力手段を構成したことを特徴とする請
求項7または8に記載の仮名漢字変換装置にある。
Further, when calculating the word string candidate, the word output means is configured so that all fields in the kana n-gram corresponding to a series of kana character strings match. In the kana-kanji conversion device described in (1).

【0041】また、音声を入力すると、その音声信号を
音韻に変換し、各音韻に対応する音韻生起確率を計算し
て、音韻列候補を出力する工程と、対象言語の音韻列と
音韻列に対応する単語表記列と生起確率を記憶し、音韻
n-gramと上記音韻n-gramを参照して、音韻列候補に対応
する各単語候補の単語生起確率を算出する工程と、前記
音韻生起確率と単語生起確率を用いて、入力された音声
に類似する単語列候補を算出する工程と、からなる音声
認識方法であって、音韻n-gramが専門分野と一般分野の
双方の音韻n-gramを持つことを特徴とする音声認識方法
にある。
When a voice is input, the voice signal is converted into a phoneme, a phoneme occurrence probability corresponding to each phoneme is calculated, and a phoneme sequence candidate is output. Memorize the corresponding word expression string and occurrence probability, and
With reference to the n-gram and the phoneme n-gram, a step of calculating the word occurrence probability of each word candidate corresponding to the phoneme sequence candidate, and using the phoneme occurrence probability and the word occurrence probability, Calculating a similar word string candidate, which is characterized in that the phoneme n-gram has phonemes n-grams in both a specialized field and a general field.

【0042】また、前記単語候補の算出時に分野ごとに
確率の重みを調整可能にしたことを特徴とする請求項1
0に記載の音声認識方法にある。
Further, the weight of the probability can be adjusted for each field when calculating the word candidate.
0.

【0043】また、前記単語列候補の算出時に、一連の
音声に対応する音韻n-gram中の分野がすべて一致するよ
うにしたことを特徴とする請求項10または11に記載
の音声認識方法にある。
12. The speech recognition method according to claim 10, wherein, when the word string candidates are calculated, all fields in a phoneme n-gram corresponding to a series of speeches match. is there.

【0044】また、仮名漢字混じり文字列を入力する
と、対象言語の仮名漢字混じり文字列と仮名漢字混じり
文字列に対応する単語表記列と生起確率を記憶し、漢字
n-gramと上記漢字n-gramを参照して、漢字混じり文字列
に対応する各単語候補の単語生起確率を算出する工程
と、算出された単語生起確率を用いて、入力された文字
列に適合する単語列候補を算出する工程と、からなる形
態素解析方法であって、上記漢字n-gramが専門分野と一
般分野の双方の漢字n-gramを持つことを特徴とする形態
素解析方法にある。
When a kana-kanji mixed character string is input, a kana-kanji mixed character string of the target language, a word notation string corresponding to the kana-kanji mixed character string, and the occurrence probability are stored.
With reference to the n-gram and the kanji n-gram, a step of calculating the word occurrence probability of each word candidate corresponding to the kanji mixed character string, and using the calculated word occurrence probability, Calculating a matching word string candidate, wherein the kanji n-gram has kanji n-grams in both a specialized field and a general field. .

【0045】また、前記単語候補の算出時に分野ごとに
確率の重みを調整可能にしたことを特徴とする請求項1
3に記載の形態素解析方法にある。
Further, the weight of the probability can be adjusted for each field when calculating the word candidate.
3. The morphological analysis method according to 3.

【0046】また、前記単語列候補の算出時に、一連の
仮名漢字混じり文字列に対応する漢字n-gram中の分野が
すべて一致するようにしたことを特徴とする請求項13
または14に記載の形態素解析方法にある。
Further, at the time of calculating said word string candidate, all fields in the kanji n-gram corresponding to a series of kana-kanji mixed character strings are made to match.
Or a morphological analysis method according to item 14.

【0047】また、仮名文字列を入力すると、対象言語
の仮名文字列と仮名文字列に対応する単語表記列と生起
確率を記憶する仮名n-gramと仮名n-gramを参照して、仮
名文字列に対応する各単語候補の単語生起確率を算出す
る工程と、算出された単語生起確率を用いて、入力され
た仮名文字列に適合する単語列候補を算出する工程と、
からなる仮名漢字変換方法であって、上記仮名n-gramが
専門分野と一般分野の双方の仮名n-gramを持つことを特
徴とする仮名漢字変換方法にある。
When the kana character string is input, the kana character string is referred to by referring to the kana n-gram and the kana n-gram storing the kana character string of the target language, the word notation string corresponding to the kana character string, and the occurrence probability. Calculating a word occurrence probability of each word candidate corresponding to the sequence, and calculating a word string candidate that matches the input kana character string using the calculated word occurrence probability,
, Wherein the kana n-gram has a kana n-gram in both a specialized field and a general field.

【0048】また、前記単語候補の算出時に分野ごとに
確率の重みを調整可能にしたことを特徴とする請求項1
6に記載の仮名漢字変換方法にある。
Further, when calculating the word candidates, the weight of the probability can be adjusted for each field.
6 in the kana-kanji conversion method.

【0049】また、前記単語列候補の算出時に、一連の
仮名文字列に対応する仮名n-gram中の分野がすべて一致
するようにしたことを特徴とする請求項16または17
に記載の仮名漢字変換方法にある。
18. The method according to claim 16, wherein, when calculating the word string candidates, all fields in a kana n-gram corresponding to a series of kana character strings match.
In the Kana-Kanji conversion method described in (1).

【0050】また、音声を入力する入力機能と、上記入
力機能が出力する音声信号を音韻に変換し、各音韻に対
応する音韻生起確率を計算して、音韻列候補を出力する
音韻確率算出機能と、対象言語の音韻列と音韻列に対応
する単語表記列と生起確率を記憶する音韻n-gramと上記
音韻n-gramを参照して、上記音韻確率算出機能が出力す
る音韻列候補に対応する各単語候補の単語生起確率を算
出する単語確率算出機能と、上記音韻確率算出機能によ
り算出された音韻生起確率と、上記単語確率算出機能に
より算出された単語生起確率を用いて、上記入力機能よ
り入力された音声に類似する単語列候補を算出する単語
出力機能と、を実現させ、上記音韻n-gramが専門分野と
一般分野の双方の音韻n-gramを持つことを特徴とする、
音声認識プログラムを記録したコンピュータ読み取り可
能な記録媒体にある。
An input function for inputting a voice, and a phoneme probability calculating function for converting a voice signal output from the input function into a phoneme, calculating a phoneme occurrence probability corresponding to each phoneme, and outputting a phoneme string candidate With reference to the phoneme sequence of the target language, the word notation sequence corresponding to the phoneme sequence, and the phoneme n-gram storing the occurrence probability and the phoneme n-gram, the phoneme sequence candidate output by the phoneme probability calculation function is supported. Using the word probability calculation function to calculate the word occurrence probability of each word candidate to be calculated, the phoneme occurrence probability calculated by the phoneme probability calculation function, and the word occurrence probability calculated by the word probability calculation function, And a word output function of calculating a word string candidate similar to the input speech, and wherein the phoneme n-gram has a phoneme n-gram of both a specialized field and a general field.
It is on a computer-readable recording medium on which a speech recognition program is recorded.

【0051】また、前記単語確率算出機能において、分
類ごとに確率の重みを調整可能にしたことを特徴とする
請求項19に記載の記録媒体にある。
20. The recording medium according to claim 19, wherein in the word probability calculating function, the weight of the probability can be adjusted for each classification.

【0052】また、前記単語列候補の算出時に、一連の
音声に対応する音韻n-gram中の分野がすべて一致するよ
うに単語出力機能を構成したことを特徴とする請求項1
9または20に記載の記録媒体にある。
A word output function is configured so that all fields in a phoneme n-gram corresponding to a series of voices coincide with each other when the word string candidates are calculated.
The recording medium according to 9 or 20.

【0053】また、仮名漢字混じり文字列を入力する入
力機能と、対象言語の仮名漢字混じり文字列と仮名漢字
混じり文字列に対応する単語表記列と生起確率を記憶す
る漢字n-gramと上記漢字n-gramを参照して、上記入力機
能が出力する漢字混じり文字列に対応する各単語候補の
単語生起確率を算出する単語確率算出機能と、上記単語
確率算出機能により算出された単語生起確率を用いて、
上記入力機能より入力された文字列に適合する単語列候
補を算出する単語出力機能と、を実現させ、上記音韻n-
gramが専門分野と一般分野の双方の漢字n-gramを持つこ
とを特徴とする、形態素解析プログラムを記録したコン
ピュータ読み取り可能な記録媒体にある。
An input function for inputting a kana-kanji mixed character string, a kana-kanji mixed character string of a target language, a word notation string corresponding to the kana-kanji mixed character string, and a kanji n-gram for storing the occurrence probability and the kanji character With reference to the n-gram, a word probability calculation function for calculating the word occurrence probability of each word candidate corresponding to the kanji mixed character string output by the input function, and a word occurrence probability calculated by the word probability calculation function make use of,
A word output function of calculating a word string candidate that matches the character string input from the input function.
A gram has kanji n-grams in both a specialty field and a general field, and is on a computer-readable recording medium recording a morphological analysis program.

【0054】また、前記単語確率算出機能において、分
野ごとに確率の重みを調整可能に構成したことを特徴と
する請求項22に記載の記録媒体にある。
23. The recording medium according to claim 22, wherein the word probability calculation function is configured so that the weight of the probability can be adjusted for each field.

【0055】また、前記単語列候補の算出時に、一連の
仮名漢字混じり文字列に対応する漢字n-gram中の分野が
すべて一致するように単語出力機能を構成したことを特
徴とする請求項22または23に記載の記録媒体にあ
る。
23. A word output function according to claim 22, wherein said word output function is configured such that when calculating said word string candidates, all fields in the kanji n-gram corresponding to a series of kana-kanji mixed character strings match. Or the recording medium according to 23.

【0056】また、仮名文字列を入力する入力機能と、
対象言語の仮名文字列と仮名文字列に対応する単語表記
列と生起確率を記憶する仮名n-gramと上記仮名n-gramを
参照して、上記入力機能が出力する仮名文字列に対応す
る各単語候補の単語生起確率を算出する単語確率算出機
能と、上記単語確率算出機能により算出された単語生起
確率を用いて、上記入力機能より入力された仮名文字列
に適合する単語列候補を算出する単語出力機能と、を実
現させ、上記仮名n-gramが専門分野と一般分野の双方の
仮名n-gramを持つことを特徴とする、仮名漢字変換プロ
グラムを記録したコンピュータ読み取り可能な記録媒体
にある。
An input function for inputting a kana character string;
The kana character string of the target language, the word notation string corresponding to the kana character string and the kana n-gram storing the occurrence probability and the kana n-gram are referred to, and each of the kana character strings output by the input function is referred to. Using a word probability calculation function for calculating a word occurrence probability of a word candidate and a word occurrence probability calculated by the word probability calculation function, a word string candidate that matches the kana character string input from the input function is calculated. And a word output function, wherein the kana n-gram has a kana n-gram in both a specialized field and a general field, and is in a computer-readable recording medium that records a kana-kanji conversion program. .

【0057】また、前記単語確率算出機能において、分
野ごとに確率の重みを調整可能にしたことを特徴とする
請求項25に記載の記録媒体にある。
26. The recording medium according to claim 25, wherein in the word probability calculating function, the weight of the probability can be adjusted for each field.

【0058】また、前記単語列候補の算出時に、一連の
仮名文字列に対応する仮名n-gram中の分野がすべて一致
するように単語出力機能を構成したことを特徴とする請
求項25または26に記載の記録媒体にある。
27. The word output function according to claim 25, wherein the word output function is configured such that all fields in the kana n-gram corresponding to a series of kana character strings match when the word string candidates are calculated. Above.

【0059】[0059]

【発明の実施の形態】以下、本発明を各実施の形態に従
って説明する。 実施の形態1.図1はこの発明の実施の形態1による音
声認識装置を示すブロック図である。図において、10
1はマイク、102は音韻確率算出装置、103は単語
確率算出装置、104は出力装置、105は情報を記憶
するRAM、106は専門分野として野球分野の音韻n-
gram、107は一般分野の音韻n-gramである。なお、こ
の装置は例えばコンピュータで構成することが可能で、
105〜107はメモリやデータベース、102〜10
4はプロクラムで構成できる。また図17は本実施の形
態の音声認識装置の動作概略フローチャートである。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below according to each embodiment. Embodiment 1 FIG. FIG. 1 is a block diagram showing a speech recognition apparatus according to Embodiment 1 of the present invention. In the figure, 10
1 is a microphone, 102 is a phoneme probability calculation device, 103 is a word probability calculation device, 104 is an output device, 105 is a RAM for storing information, and 106 is a phoneme n-
A gram 107 is a phoneme n-gram in a general field. This device can be configured by a computer, for example.
Reference numerals 105 to 107 denote memories and databases;
4 can be composed of a program. FIG. 17 is a schematic flowchart of the operation of the voice recognition device of the present embodiment.

【0060】単語列候補の生成は、単語列の確率P(W|Y)
を最大にするWを算出することで得られる。単語列の確
率は下記の式から得られる。
The generation of word string candidates is based on the word string probability P (W | Y)
Is obtained by calculating W that maximizes The probability of a word string is obtained from the following equation.

【0061】[0061]

【数6】 (Equation 6)

【0062】このとき、Wは発話された単語列であり、Y
は音韻列である。このうちP(W|Y)を最大にするWを求め
ればよいから、右辺のうち単語列に共通なP(Y)は省略で
き、P(Y|W)P(W)を最大にするWを求めればよい。P(Y|W)
は単語列Wが与えられたときの音韻列の出現確率であ
り、P(W)は単語列の出現確率である。時刻t=1,2,...,
Lにおいて単語列Wに対応する音韻列が次式で決定される
とき、
At this time, W is an uttered word string, and Y
Is a phoneme sequence. Since it is sufficient to find W that maximizes P (W | Y), P (Y) common to word strings on the right side can be omitted, and W that maximizes P (Y | W) P (W) Should be obtained. P (Y | W)
Is the probability of appearance of the phoneme sequence when the word sequence W is given, and P (W) is the probability of appearance of the word sequence. Time t = 1,2, ...,
When the phoneme sequence corresponding to the word sequence W in L is determined by the following equation,

【0063】[0063]

【数7】 (Equation 7)

【0064】P(Y|W)は音韻確率から次式によって算出で
きる。
P (Y | W) can be calculated from the phoneme probability by the following equation.

【0065】[0065]

【数8】 (Equation 8)

【0066】また、単語列の出現確率P(W)は、m語の単
語列Wが次式で決定されるとき、
Further, the appearance probability P (W) of the word string is obtained when the word string W of m words is determined by the following equation.

【0067】[0067]

【数9】 (Equation 9)

【0068】音韻確率とは独立に次式(音韻n-gramの確
率)から求める。
Independently of the phoneme probability, it is obtained from the following equation (probability of phoneme n-gram).

【0069】[0069]

【数10】 (Equation 10)

【0070】上述した計算により音韻列候補のうち音韻
n-gramに単語の列が存在するものについて、単語列確率
P(W|Y)を最大にするWを算出する。組み合わせの計算に
ついては、例えば、「確率モデルによる音声認識」、中
川 聖一著、(先行技術文献2)に示されているViterbi
やスタックデコーディングの方法を用いて高速に行って
もよい。また、確率を対数確率として計算式を総和で計
算可能としてもよい)それぞれの単語の出現確率は音韻n
-gramに予め記憶してある値を使用する。
According to the above calculation, the phoneme of the phoneme sequence candidates
Word string probability for words with word strings in n-gram
Calculate W that maximizes P (W | Y). The calculation of the combination is described in, for example, "Speech Recognition by Probabilistic Model", Viterbi shown by Seichi Nakagawa, (prior art document 2).
Alternatively, it may be performed at a high speed using a method of stack decoding. Also, the calculation formula may be calculated as a sum using the probability as a logarithmic probability.)
-Use the value stored in the gram in advance.

【0071】ここで、図2の例文108の解析に使用す
る音韻n-gram109の例を図3に示す。
Here, FIG. 3 shows an example of the phoneme n-gram 109 used for analyzing the example sentence 108 in FIG.

【0072】音韻n-gramには図3に示すように専門分野
として野球の分野のn-gramと一般の分野のn-gramが記録
されている。n-gramには2-gramと1-gramがあり、先頭の
音韻列が検索のためのキーとなっている。2-gramでは、
このキーに対して前接形態素、後接形態素、および確率
が記録されている。ここで記録されている確率は、前接
形態素の次に後接形態素の接続する確率であり、その2-
gramの生起確率に該当する。1-gramでは直接次に連接す
る形態素の情報を記録している。1-gramの確率はその形
態素自身の生起確率である。なお、形態素は表記、音素
表記、見出し読み、および品詞の組であらわされる。
As shown in FIG. 3, the phoneme n-gram records an n-gram in the field of baseball and an n-gram in the general field as specialized fields. There are 2-gram and 1-gram n-grams, and the first phoneme sequence is a key for search. In 2-gram,
The leading morpheme, the trailing morpheme, and the probability are recorded for this key. The probability recorded here is the probability that the next morpheme connects after the preceding morpheme, and
It corresponds to the occurrence probability of gram. In the 1-gram, the information of the morpheme connected directly next is recorded. The 1-gram probability is the occurrence probability of the morpheme itself. Note that a morpheme is represented by a set of notation, phoneme notation, headline reading, and part of speech.

【0073】算出した単語列Wを認識結果として出力装
置104より出力する。
The output device 104 outputs the calculated word string W as a recognition result.

【0074】次に、本装置を使用して認識単語列を抽出
する過程を図17の動作概略フローチャートと具体例を
もとに説明する。
Next, a process of extracting a recognized word string using the present apparatus will be described with reference to a schematic flowchart of FIG. 17 and a specific example.

【0075】まず、マイク101より音声を電気信号に
変換しアナログデータとして取り込む(ST3001, ST300
2, ST3003)。
First, the sound is converted from the microphone 101 into an electric signal and taken in as analog data (ST3001, ST300
2, ST3003).

【0076】音韻確率算出装置102は、マイクの取り
込んだアナログデータをA/D変換し、量子化した後、ス
ペクトル分析(詳細については例えば従来技術文献2に
示される種々の手法による)で音韻単位に分離した認識
候補を音韻列候補として出力する。音韻列候補は、マイ
クより取り込んだアナログデータに対応する各音韻の確
からしさを確率値で表現し、連鎖した音韻連鎖とその連
鎖の音響尤度の対で出力し、RAM105にこれを記憶
する(ST3004)。
The phoneme probability calculating device 102 performs A / D conversion on the analog data captured by the microphone, quantizes the analog data, and then performs spectrum analysis (for details, for example, by various methods described in the prior art document 2) to obtain a phoneme unit. Are output as phoneme string candidates. The phoneme string candidates represent the likelihood of each phoneme corresponding to the analog data taken in from the microphone by a probability value, output as a pair of a chained phoneme chain and the acoustic likelihood of the chain, and store this in the RAM 105 ( ST3004).

【0077】本実施の形態では、音韻連鎖と、音響尤度
は以下が出力されたと仮定する。
In this embodiment, it is assumed that the following are output as the phoneme chain and the acoustic likelihood.

【0078】#saNgooaacinoseNsee# 0.9 #saNgooacinoseNsee# 0.1 (音響尤度については、確率以外に対数確率等を用いて
もよい。音韻連鎖についてはラティス等の効率的な記憶
方式を用いてもよい。)
# SaNgooaacinoseNsee # 0.9 # saNgooacinoseNsee # 0.1 (Log likelihood may be used instead of probability for acoustic likelihood. For phoneme chains, an efficient storage method such as lattice may be used.)

【0079】単語確率算出装置103が、音韻確率算出
装置102の出力した音韻列候補と音響尤度をRAM1
05より1つ取り出すとともに、初期化処理をする。初
期化処理として、ヌル単語「{# # # 文頭}」と
その確率値「1」を先行単語列候補の初期言語尤度値と
してRAM105に記憶する(ST3005)。ここでは、ま
ず、音韻列候補として、「#saNgooaacinoseNsee#」が取
り出される。
The word probability calculation device 103 stores the phoneme sequence candidates and the acoustic likelihood output from the phoneme probability calculation device 102 in the RAM 1.
05, and an initialization process is performed. As initialization processing, the null word “{#### sentence start}” and its probability value “1” are stored in the RAM 105 as the initial language likelihood value of the preceding word string candidate (ST3005). Here, “# saNgooaacinoseNsee #” is first extracted as a phoneme sequence candidate.

【0080】単語確率算出装置103は、すべての先行
単語列候補が音韻列候補の末端の音韻と対応したかチェ
ックし、すべて対応していればST4007へ、対応していな
ければ以下の処理を行なう(ST4001)。
The word probability calculating device 103 checks whether all preceding word string candidates correspond to the terminal phonemes of the phoneme string candidates, and if all correspond, goes to ST4007, and if not, performs the following processing. (ST4001).

【0081】RAM105から先行単語列候補を1つ取
り出す(ST4002)。本実施の形態では、最初に「{# #
# 文頭}」が先行単語列候補として取り出される。
One preceding word string candidate is extracted from the RAM 105 (ST4002). In the present embodiment, first, “@ ##
# Sentence # ”is extracted as a preceding word string candidate.

【0082】n-gram音韻インデックス106を先行単語
列候補の音韻列情報により検索する。本実施の形態の場
合、まず、初期の先行単語列である「{# # # 文
頭}」を検索する。検索した先行単語以降の音韻列候補
の部分列に、前方一致する後方単語があるかチェックす
る。前方一致した後方単語が無い場合は、ST4001に処理
を移し、前方一致した後方単語がある場合は、以下の処
理を行なう(ST4003)。
The n-gram phoneme index 106 is searched based on phoneme string information of the preceding word string candidate. In the case of the present embodiment, first, an initial preceding word string “{#### sentence start}” is searched. It is checked whether there is a backward word that matches forward in the substring of the phoneme string candidate after the searched preceding word. If there is no backward matching word, the process proceeds to ST4001, and if there is a backward matching word, the following process is performed (ST4003).

【0083】本実施の形態では、先行単語列「{# #
# 文頭}」の後方単語として音韻n-gramを検索し、
「#」に後続する「saNgooaa...」の先頭からの音素列が
部分一致する単語を検索し後方単語とする。2-gramでは
「#saNgoo」が音韻列「#saNgooaa...」と前方一致する
ので、この2-gramの後接形態素「専門:3号 saNgooさ
んごう 名詞」を後方単語の候補の1つとする。また、1
-gramの「{専門:3号 saNgoo さんごう 名詞}」は後
方の音素列に前方一致するので候補とする。さらに
「{一般:3号 saNgoo さんごう 名詞}」も候補とす
る。
In the present embodiment, the preceding word string “$ ##
# Sentence n-gram as the backward word of "
A word in which the phoneme sequence from the beginning of “saNgooaa ...” following “#” partially matches is searched for and is set as a backward word. In 2-gram, "#saNgoo" matches the phoneme sequence "#saNgooaa ..." in front, so this 2-gram suffix morpheme "specialty: No. 3 saNgoo sangu noun" is one of the backward word candidates. I do. Also, 1
-Gram's “{specialty: No. 3 saNgoo sango noun}” is a candidate because it matches forward with the back phoneme sequence. In addition, “{General: No.3 saNgoo Sango Noun}” is also a candidate.

【0084】なお、本実施の形態では簡単のため部分一
致を用いたが、曖昧な音韻連鎖との類似検索にDPマッチ
ング処理や、「1段目の最適解と正解の差分傾向を考慮
した2段階探索法」、阿部他著、音講論,1-R-15,1998.9
発行(従来技術文献3)に示されるような手法を用いても
よい。
Although partial matching is used for simplicity in the present embodiment, DP matching processing or "2nd considering the difference tendency between the optimal solution and the correct solution in the first stage" is used for similarity search with an ambiguous phoneme chain. Abe et al., Ongaku Lecture, 1-R-15, 1998.9
A technique as shown in the publication (prior art document 3) may be used.

【0085】後方単語それぞれについて、同様に尤度を
計算しRAMに記憶するとともに、先行単語列に後方単
語を接続していく。この際に、2-gramの場合は分野が先
行の形態素と同じになるようにし、1-gramの場合は連接
がないため分野の切り替わりがあっても良いようにす
る。新たに先行単語列としてRAMに記憶する(ST400
4)。
The likelihood is similarly calculated for each backward word and stored in the RAM, and the backward word is connected to the preceding word string. At this time, in the case of 2-gram, the field is made to be the same as the preceding morpheme, and in the case of 1-gram, since there is no connection, the field may be switched. A new preceding word string is stored in RAM (ST400
Four).

【0086】そして音韻列全体が先行単語列に対応すれ
ば、最大尤度および解の先行単語列をRAMに記憶して
ST4001に戻る(ST4005 ST4006)。
If the entire phoneme sequence corresponds to the preceding word sequence, the maximum likelihood and the preceding word sequence of the solution are stored in the RAM.
Return to ST4001 (ST4005 ST4006).

【0087】本実施の形態では、先行単語列「{# #
# 文頭}」を「{専門:# ## 文頭} {専
門:3号 saNgoo さんごう 名詞}」に置き換える。言
語尤度は、先行単語列「{# # # 文頭}」の確率
1と、専門分野の「専門:## # 文頭} {専門:
3号 saNgoo さんごう 名詞}」の2-gramの確率0.01か
ら次式で計算される。
In the present embodiment, the preceding word string “$ ##
Replace “# sentence}” with “{special: # ## sentence} {specialty: No. 3 saNgoo sango noun}”. The linguistic likelihood is the probability 1 of the preceding word string “{#### sentence 文” and the specialty field “specialty: #### sentence} {
It is calculated by the following formula from the probability 0.01 of 2-gram of "No. 3 saNgoo sango noun}".

【数11】 [Equation 11]

【0088】すべての音韻列候補に対して一致する単語
が得られていなければ、ST3005に処理を移し同様の処理
を繰り返し、得られていれば以下の処理を行う(ST400
7)。
If no matching word has been obtained for all phoneme string candidates, the process proceeds to ST3005 and the same processing is repeated. If obtained, the following processing is performed (ST400).
7).

【0089】本実施の形態では、以上により、音韻列候
補に対応して、「{# # # 文頭} {専門:3号
saNgoo さんごう 名詞} {専門:アーチ aaci あー
ち名詞} {専門:の no の 助詞} ・・・」の順に先
行単語列候補が得られる。
In this embodiment, as described above, “{###### sentence start} {specialization: No. 3 corresponding to phoneme sequence candidates
saNgoo sangu noun} {specialty: arch aaci aachi noun} {specialty: no no particle}… ”

【0090】次にRAMに記憶してある最大尤度を持つ
解の単語列を読み出す。最大尤度は、言語尤度と音響尤
度の積の最大値である(ST4008)。
Next, the word string of the solution having the maximum likelihood stored in the RAM is read. The maximum likelihood is the maximum value of the product of the linguistic likelihood and the acoustic likelihood (ST4008).

【0091】本実施の形態では、計算の結果、音韻列候
補「#saNgooachinoseNsei#」は該当する音韻n-gramが存
在しないため捨てられる。音韻列候補「#saNgooaachino
seNsei#」に対しては、「{# # # 文頭} {専門:
3号 saNgoo さんごう 名詞}{専門:アーチ aaci あ
ーち 普通名詞} {専門:の no の 接続助詞} {専
門:先制 seNsee せんせい サ変名詞}」が、最大尤度
が上記(10)式により 5.4×10の-9乗(音響尤度 0.9
言語尤度 6×10の-9乗)で得られる。
In the present embodiment, as a result of the calculation, the phoneme string candidate “# saNgooachinoseNsei #” is discarded because the corresponding phoneme n-gram does not exist. Phoneme string candidate `` #saNgooaachino
For “seNsei #”, “{# # # sentence head} {
No. 3 saNgoo sango noun {specialist: arch aaci Aichi ordinary noun} {specialty: no no connecting particle} {specialty: pre-emptive seNsee sensei sa variant noun}, the maximum likelihood is 5.4 × according to the above equation (10). 10 to the -9th power (acoustic likelihood 0.9
Language likelihood 6 × 10 to the power of -9).

【0092】解の単語列から表記のみを取り出し、出力
装置から出力し、処理を終了する(ST4009, ST3014)。
本実施の形態では、「3号アーチの先制」が得られる。
Only the notation is extracted from the word string of the solution, output from the output device, and the process ends (ST4009, ST3014).
In the present embodiment, “the pre-emption of No. 3 arch” is obtained.

【0093】このようにして、部分的には「の 先制」
よりも「の 先生」の2-gram確率が高いにもかかわら
ず、分野を分離して統計量をとることによりn-gramの次
数を大きくすることなく言語制約の強いn-gramを構成で
き、高精度な音声認識を構成できる。
In this way, the "no preemptive"
Despite having a higher 2-gram probability of "no-sensei" than that, it is possible to construct an n-gram with strong language constraints without increasing the order of the n-gram by separating the fields and collecting statistics. High-accuracy speech recognition can be configured.

【0094】実施の形態2.次に本発明の別の実施の形
態について説明する。この実施の形態は、漢字n-gramを
構成することにより形態素解析装置を構成した例であ
る。図4はこの実施の形態による形態素解析装置を示す
ブロック図である。上記実施の形態と同一もしくは相当
部分は同一符号で示す(以下同様)。104は出力装置、
201はファイル入力装置、202は形態素確率算出装
置、203は専門の分野の漢字n-gram、204は一般の
分野の漢字n-gramである。なお、この装置も例えばコン
ピュータで構成することが可能で、105、203、2
04はメモリやデータベース、201,202,104
はプロクラムで構成できる。また図18は本実施の形態
の形態素解析装置の動作概略フローチャートである。
Embodiment 2 Next, another embodiment of the present invention will be described. This embodiment is an example in which a morphological analysis device is configured by configuring a kanji n-gram. FIG. 4 is a block diagram showing a morphological analyzer according to this embodiment. The same or corresponding parts as those in the above embodiment are denoted by the same reference numerals (the same applies hereinafter). 104 is an output device,
201 is a file input device, 202 is a morpheme probability calculation device, 203 is a kanji n-gram in a specialized field, and 204 is a kanji n-gram in a general field. Note that this device can also be constituted by, for example, a computer.
04 is a memory or database, 201, 202, 104
Can be composed of programs. FIG. 18 is a schematic flowchart of the operation of the morphological analyzer according to the present embodiment.

【0095】単語列候補の生成は、単語列の確率P(W)を
最大にするWを算出することで得られる。
The generation of the word string candidate is obtained by calculating W that maximizes the probability P (W) of the word string.

【0096】このとき、Wは入力された単語列であり、P
(W)は単語列の出現確率である。また、単語列の出現確
率P(W)は、m語の単語列Wが次式で決定されるとき、
At this time, W is an input word string, and P
(W) is the appearance probability of the word string. Also, the appearance probability P (W) of the word string, when the word string W of m words is determined by the following equation,

【0097】[0097]

【数12】 (Equation 12)

【0098】次式(漢字n-gramの確率を使用する)から求
める。
It is obtained from the following equation (using the probability of the kanji n-gram).

【0099】[0099]

【数13】 (Equation 13)

【0100】上述した計算により漢字n-gramに単語の列
が存在するものについて、単語列確率P(W)を最大にする
Wを算出する。組み合わせの計算については、例えば、
「自然言語処理」、長尾 真著、岩波書店(従来技術文
献4)に示されるViterbi方法を用いて高速に行ってもよ
い。また、確率を対数確率として計算式を総和で計算可
能としてもよい。それぞれの単語の出現確率は単語の漢
字n-gramに予め記憶してある確率値をもとに算出する。
The word sequence probability P (W) is maximized for a word sequence existing in the kanji n-gram by the above calculation.
Calculate W. For the calculation of the combination, for example,
The processing may be performed at high speed using the Viterbi method described in "Natural Language Processing", written by Makoto Nagao, Iwanami Shoten (Prior Art Document 4). Further, the calculation formula may be calculated as a sum with the probability being a logarithmic probability. The appearance probability of each word is calculated based on the probability value stored in advance in the kanji n-gram of the word.

【0101】ここで、図2の例文108をもとに作成し
た漢字n-gramとコーパス205の例を図5に示す。
FIG. 5 shows an example of the kanji n-gram and the corpus 205 created based on the example sentence 108 of FIG.

【0102】漢字n-gramには図5に示すように専門の分
野のn-gramと一般の分野のn-gramが記録されている。n-
gramには2-gramと1-gramがあり、先頭の漢字列が検索の
ためのキーとなっている。2-gramでは、このキーに対し
て前接形態素、後接形態素、および確率が記録されてい
る。ここで記録されている確率は、前接形態素の次に後
接形態素の接続する確率であり、その2-gramの生起確率
に該当する。1-gramでは直接次に連接する形態素の情報
を記録している。1-gramの確率はその形態素自身の生起
確率である。なお、形態素は表記、音素表記、見出し読
み、および品詞の組であらわされる。
As shown in FIG. 5, an n-gram in a specialized field and an n-gram in a general field are recorded in the kanji n-gram. n-
There are 2-gram and 1-gram grams, and the first kanji string is the key for search. In the 2-gram, the leading morpheme, the trailing morpheme, and the probability are recorded for this key. The probability recorded here is the probability of the connection of the next morpheme after the previous morpheme, and corresponds to the occurrence probability of the 2-gram. In the 1-gram, information on the morpheme connected directly next is recorded. The 1-gram probability is the occurrence probability of the morpheme itself. Note that a morpheme is represented by a set of notation, phoneme notation, headline reading, and part of speech.

【0103】算出した単語列Wを認識結果として出力装
置104より出力する。
The output device 104 outputs the calculated word string W as a recognition result.

【0104】次に、本装置を使用して認識単語列を抽出
する過程を図18の動作概略フローチャートと具体例を
もとに説明する。
Next, the process of extracting a recognized word string using the present apparatus will be described with reference to the flowchart of FIG. 18 and a specific example.

【0105】まず、ファイル入力装置201より漢字文
字列を入力する(ST3001, ST5001)。
First, a kanji character string is input from the file input device 201 (ST3001, ST5001).

【0106】形態素確率算出装置202は、ファイル入
力装置201の取り込んだ漢字文字列を入力とし、RA
M105にこれを記憶する(ST5002)。本実施の形態で
は、漢字文字列として以下が入力されたと仮定する。
The morpheme probability calculation device 202 receives the kanji character string captured by the file input device 201 as an input,
This is stored in M105 (ST5002). In the present embodiment, it is assumed that the following has been input as a kanji character string.

【0107】3号アーチのせんせいTeacher of No. 3 arch

【0108】形態素確率算出装置202がこれの出力し
た漢字列候補をRAMより取り出すとともに、初期化処
理をする。初期化処理として、ヌル単語「{# # #
文頭}」とその確率値「1」を先行単語列候補の初期
値としてRAMに記憶する(ST5003)。ここでは、まず、
漢字列候補として、「#3号アーチのせんせい #」が取
り出される。
The morpheme probability calculation device 202 retrieves the output kanji string candidates from the RAM and performs an initialization process. As the initialization process, the null word “{####
The sentence head} ”and its probability value“ 1 ”are stored in the RAM as initial values of preceding word string candidates (ST5003). Here, first,
“# 3 arch teacher #” is extracted as a kanji string candidate.

【0109】形態素確率算出装置202はすべての先行
単語列候補が漢字列候補の末端の漢字と対応したかチェ
ックし、すべて対応していればST4008へ、対応していな
ければ以下の処理を行なう(ST5004)。
The morpheme probability calculating device 202 checks whether all preceding word string candidates correspond to the terminal kanji of the kanji string candidate, and if all correspond, goes to ST4008, and if not, performs the following processing ( ST5004).

【0110】RAMから先行単語列候補を1つ取り出す
(ST5005)。本実施の形態では、最初に「{# # #
文頭}」が先行単語列候補として取り出される。
Take out one preceding word string candidate from RAM
(ST5005). In the present embodiment, “{####” first
Sentence} ”is extracted as a preceding word string candidate.

【0111】n-gram漢字インデックス203を先行単語
列候補の漢字列情報により検索する。本実施の形態の場
合、まず、初期の先行単語列である「{# # # 文
頭}」を検索する。検索した先行単語以降の漢字列候補
の部分列に、前方一致する後方単語があるかチェックす
る。前方一致した後方単語が無い場合は、ST5004に処理
を移し、前方一致した後方単語がある場合は、以下の処
理を行なう(ST5006)。
The n-gram kanji index 203 is searched by the kanji string information of the preceding word string candidate. In the case of the present embodiment, first, an initial preceding word string “{#### sentence start}” is searched. It is checked whether there is a backward word that matches forward in the partial string of the kanji string candidate after the searched preceding word. If there is no backward word that matches the beginning, the process proceeds to ST5004, and if there is a backward word that matches the beginning, the following process is performed (ST5006).

【0112】本実施の形態では、先行単語列「{# #
# 文頭}」の後方単語としてn-gramインデックスを
検索し、「#」に後続する「3号ア・・・」の先頭からの漢
字列が部分一致する単語を検索し後方単語とする。2-gr
amでは「#3号」が「#3号ア・・・」漢字列と前方一致す
るので、この2-gramの後接形態素「専門:3号 saNgoo
さんごう 名詞」を後方単語の候補の1つとする。ま
た、1-gramの「{専門:3号 saNgoo さんごう 名
詞}」は後方の漢字列に前方一致するので候補とする。
さらに「{一般:3号 saNgoo さんごう 名詞}」も候
補となる。
In the present embodiment, the preceding word string “$ ##
An n-gram index is searched for as the backward word of "# sentence #", and a word in which the kanji string from the beginning of "3 no...." 2-gr
In am, "# 3 No." matches the kanji string of "# 3 No ....", so the morpheme of this 2-gram "specialty: No. 3 saNgoo
"Sango noun" is one of the candidates for the backward word. Also, the 1-gram “{specialty: No. 3 saNgoo sango noun 前方” is a candidate because it matches the front of the back kanji string.
In addition, “{General: No.3 saNgoo Sango Noun}” is also a candidate.

【0113】後方単語それぞれについて同様に尤度を計
算しRAMに記憶するとともに、先行単語列に後方単語
を接続していく。この際に、2-gramの場合は分野が先行
の形態素と同じになるようにし、1-gramの場合は連接が
ないため分野の切り替わりを許すようにする。そして新
たに先行単語列としてRAMに記憶する(ST5007)。
Similarly, the likelihood is calculated for each backward word and stored in the RAM, and the backward word is connected to the preceding word string. At this time, in the case of 2-gram, the field is set to be the same as the preceding morpheme, and in the case of 1-gram, switching of the field is allowed because there is no connection. Then, it is newly stored in the RAM as a preceding word string (ST5007).

【0114】そして漢字列全体が先行単語列に対応すれ
ば、最大尤度および解の先行単語列をRAMに記憶して
ST5004に戻る(ST5008 ST5009)。
If the entire kanji string corresponds to the preceding word string, the maximum likelihood and the preceding word string of the solution are stored in the RAM.
Return to ST5004 (ST5008 ST5009).

【0115】本実施の形態では、先行単語列「{# #
# 文頭}」を「{専門:# ## 文頭} {専
門:3号 saNgoo さんごう 名詞}」に置き換える。言
語尤度は、先行単語列「{# # # 文頭}」の確率
1と、専門分野の「{#},{3号}」の2-gramの確率
0.01から次式で計算される。
In the present embodiment, the preceding word string "@ # #
Replace “# sentence}” with “{special: # ## sentence} {specialty: No. 3 saNgoo sango noun}”. The linguistic likelihood is the probability of 1 for the preceding word string “{#### sentence}” and the probability of 2-gram for the specialty field “{#}, {3}”
It is calculated by the following formula from 0.01.

【0116】[0116]

【数14】 [Equation 14]

【0117】すべての先行列候補に対して一致する単語
が得られていなければST5005に処理を移し同様の処理を
繰り返す。得られていれば以下の処理を行う(ST5004)。
If no matching word has been obtained for all the preceding matrix candidates, the process moves to ST5005 and the same process is repeated. If it has been obtained, the following processing is performed (ST5004).

【0118】本実施の形態では、以上により、音韻列候
補に対応して、「{# # # 文頭} {専門:3号
saNgoo さんごう 名詞} {専門:アーチ aaci あー
ち名詞} {専門:の no の 助詞} ・・・」の順に先
行単語列候補が得られる。
In the present embodiment, as described above, "{#### sentence head} {specialization: No. 3 corresponding to phoneme sequence candidates]
saNgoo sangu noun} {specialty: arch aaci aachi noun} {specialty: no no particle}… ”

【0119】次にRAMに記憶してある最大尤度を持つ
解の単語列を読み出す(ST4008)。本実施の形態では、漢
字列候補「#3号アーチの先制#」に対して、「{# #
# 文頭} {3号 saNgoo さんごう 名詞} {アーチ a
aci あーち 名詞} {の noの 接続助詞} {先制 seNs
ee せんせい サ変名詞}」の形態素解析結果が、最大尤
度を上記(10)式により 5.4×10の-10乗(音響尤度 0.
9 言語尤度 6×10の-9乗)と得られる。
Next, the word string of the solution having the maximum likelihood stored in the RAM is read (ST4008). In the present embodiment, the kanji character string candidate “# 3
# Sentence head} {No. 3 saNgoo sango noun} {Arch a
aci aichi noun} no no no connecting particle} {preemptive seNs
The result of the morphological analysis of `` ee Sensei noun} '' shows that the maximum likelihood is 5.4 × 10 to the -10th power (the acoustic likelihood 0.
9 Language likelihood 6 × 10 to the power of -9).

【0120】解の形態素列を取り出し、出力装置から出
力し、処理を終了する(ST4009, ST3014)。
The morpheme sequence of the solution is taken out, output from the output device, and the process is terminated (ST4009, ST3014).

【0121】このようにして、部分的には「の せんせ
い」という曖昧な表記でも「先制」の意味で品詞がサ変
であることが算出できる。上記のように分野を分離して
統計量をとることによりn-gramの次数を大きくすること
なく言語制約の強いn-gramを構成でき、高精度な形態素
解析を構成できる。
In this way, it is possible to calculate that the part-of-speech is in the meaning of "preemptive" even with the ambiguous notation "partially". By separating the fields and obtaining statistics as described above, an n-gram with a strong language constraint can be constructed without increasing the order of the n-gram, and a highly accurate morphological analysis can be constructed.

【0122】実施の形態3.次に本発明の別の実施の形
態について説明する。この実施の形態は、仮名n-gramを
構成することにより仮名漢字変換装置を構成した例であ
る。図6はこの実施の形態による仮名漢字変換装置を示
すブロック図である。301は入力装置である例えばキ
ーボード(実際にはコンピュータ側のI/O部分も含
む)、302は漢字確率算出装置、303は専門分野と
して野球分野の仮名n-gram、304は一般の仮名n-gram
である。なお、この装置も例えばコンピュータで構成す
ることが可能で、105、303、304はメモリやデ
ータベース、302、104はプロクラムで構成でき
る。また図19は本実施の形態の仮名漢字変換装置の動
作概略フローチャートである。
Embodiment 3 FIG. Next, another embodiment of the present invention will be described. This embodiment is an example in which a kana-kanji conversion device is configured by configuring a kana n-gram. FIG. 6 is a block diagram showing a kana-kanji conversion device according to this embodiment. Reference numeral 301 denotes an input device, for example, a keyboard (actually including an I / O portion on the computer side); 302, a kanji probability calculation device; 303, a kana n-gram in the field of baseball as a specialty; gram
It is. This device can also be constituted by a computer, for example, and 105, 303, 304 can be constituted by a memory or a database, and 302, 104 can be constituted by a program. FIG. 19 is a schematic flowchart of the operation of the kana-kanji conversion device of the present embodiment.

【0123】単語列候補の生成は、単語列の確率P(W)を
最大にするWを算出することで得られる。
Generation of a word string candidate is obtained by calculating W that maximizes the probability P (W) of the word string.

【0124】このとき、Wは入力された単語列であり、P
(W)は単語列の出現確率である。また、単語列の出現確
率P(W)は、m語の単語列Wが次式で決定されるとき、
At this time, W is an input word string, and P
(W) is the appearance probability of the word string. Also, the appearance probability P (W) of the word string, when the word string W of m words is determined by the following equation,

【0125】[0125]

【数15】 (Equation 15)

【0126】次式(仮名n-gramの確率を使用する)から求
める。
It is obtained from the following equation (using the probability of the pseudonym n-gram).

【0127】[0127]

【数16】 (Equation 16)

【0128】上述した計算により仮名n-gramに単語の列
が存在するものについて、単語列確率P(W)を最大にする
Wを算出する。組み合わせの計算については、例えば、
上述の従来技術文献4に示されるViterbi方法を用いて
高速に行ってもよい。また、確率を対数確率として計算
式を総和で計算可能としてもよい。それぞれの単語の出
現確率は単語の仮名n-gramに予め記憶してある確率値を
もとに算出する。
The word string probability P (W) is maximized for a word string existing in the kana n-gram by the above calculation.
Calculate W. For the calculation of the combination, for example,
It may be performed at high speed using the Viterbi method disclosed in the above-mentioned prior art document 4. Further, the calculation formula may be calculated as a sum with the probability being a logarithmic probability. The appearance probability of each word is calculated based on a probability value stored in advance in the kana n-gram of the word.

【0129】ここで、図2の例文108をもとに作成し
た仮名n-gramの例を図7に示す。
Here, FIG. 7 shows an example of a pseudonym n-gram created based on the example sentence 108 of FIG.

【0130】仮名n-gramには図7に示すように専門の分
野のn-gramと一般の分野のn-gramが記録されている。n-
gramには2-gramと1-gramがあり、先頭の漢字列が検索の
ためのキーとなっている。2-gramでは、このキーに対し
て前接形態素、後接形態素、および確率が記録されてい
る。ここで記録されている確率は、前接形態素の次に後
接形態素の接続する確率であり、その2-gramの生起確率
に該当する。1-gramでは直接次に連接する形態素の情報
を記録している。1-gramの確率はその形態素自身の生起
確率である。なお、形態素は表記、音素表記、見出し読
み、および品詞の組であらわされる。
As shown in FIG. 7, an n-gram in a specialized field and an n-gram in a general field are recorded in the pseudonym n-gram. n-
There are 2-gram and 1-gram grams, and the first kanji string is the key for search. In the 2-gram, the leading morpheme, the trailing morpheme, and the probability are recorded for this key. The probability recorded here is the probability of the connection of the next morpheme after the previous morpheme, and corresponds to the occurrence probability of the 2-gram. In the 1-gram, information on the morpheme connected directly next is recorded. The 1-gram probability is the occurrence probability of the morpheme itself. Note that a morpheme is represented by a set of notation, phoneme notation, headline reading, and part of speech.

【0131】算出した単語列Wを認識結果として(漢字)
出力装置104より出力する。
Using the calculated word string W as a recognition result (Kanji)
Output from the output device 104.

【0132】次に、本装置を使用して変換単語列を抽出
する過程を図19の動作概略フローチャートと具体例を
もとに解説する。
Next, the process of extracting a converted word string using the present apparatus will be described with reference to the schematic flowchart of the operation shown in FIG. 19 and a specific example.

【0133】まず、例えばキーボード301より仮名文
字列を入力する(ST3001, ST6001)。
First, for example, a kana character string is input from the keyboard 301 (ST3001, ST6001).

【0134】漢字確率算出装置202は、キーボード3
01より取り込んだ仮名文字列を入力とし、RAMにこ
れを記憶する(ST6002)。本実施の形態では、仮名連鎖は
以下が入力されたと仮定する。
The kanji probability calculation device 202 uses the keyboard 3
The kana character string fetched from 01 is input and stored in the RAM (ST6002). In the present embodiment, it is assumed that the following are input to the kana chain.

【0135】さんごうあーちのせんせい[0135] Teacher of Sango Art

【0136】漢字確率算出装置302が、ファイル入力
装置すなわちキーボード301の出力した仮名文字列を
RAMより取り出すとともに、初期化処理をする。初期
化処理として、ヌル単語「{# # # 文頭}」とそ
の確率値「1」を先行単語列候補の初期値としてRAM
に記憶する(ST6003)。ここでは、まず、仮名文字列とし
て、「# さんごうあーちのせんせい#」が取り出され
る。
The kanji probability calculation device 302 extracts the kana character string output from the file input device, that is, the keyboard 301, from the RAM and performs an initialization process. In the initialization process, the null word “{#### sentence}} and its probability value“ 1 ”are set as the initial value of the preceding word string candidate in the RAM.
(ST6003). Here, first, “# Sango Uchi no Sensei #” is extracted as a kana character string.

【0137】漢字確率算出装置302は、すべての先行
単語列候補が仮名文字列の末端の仮名と対応したかチェ
ックし、すべて対応していればST4008へ、対応していな
ければ以下の処理を行なう(ST6004)。
The kanji probability calculating device 302 checks whether all preceding word string candidates correspond to the terminal kana of the kana character string, and if all correspond, goes to ST4008, and if not, performs the following processing. (ST6004).

【0138】RAMから先行単語列候補を1つ取り出す
(ST6005)。本実施の形態では、最初に「{# # #
文頭}」が先行単語列候補として取り出される。
Retrieve one preceding word string candidate from RAM
(ST6005). In the present embodiment, “{####” first
Sentence} ”is extracted as a preceding word string candidate.

【0139】n-gram仮名インデックス303を先行単語
列候補の仮名列情報により検索する。本実施の形態の場
合、まず、初期の先行単語列である「{# # # 文
頭}」を検索する。検索した先行単語以降の仮名列候補
の部分列に、前方一致する後方単語があるかチェックす
る。前方一致した後方単語が無い場合は、ST6004に処理
を移し、前方一致した後方単語がある場合は、以下の処
理を行なう(ST6006)。
The n-gram kana index 303 is searched by the kana string information of the preceding word string candidate. In the case of the present embodiment, first, an initial preceding word string “{#### sentence start}” is searched. It is checked whether there is a backward word that matches forward in the partial string of the kana string candidate after the searched preceding word. If there is no backward word that matches the beginning, the process proceeds to ST6004, and if there is a backward word that matches the beginning, the following process is performed (ST6006).

【0140】本実施の形態では、先行単語列「{# #
# 文頭}」の後方単語としてn-gramを検索し、
「#」に後続する「#さんごうあー・・・」の先頭からの仮
名列が部分一致する単語を検索し後方単語とする。2-gr
amでは、「#さんごう」が「#さんごうあー・・・」の仮名
列と前方一致するので、この2-gramの後接形態素「{専
門:3号 saNgoo さんごう 名詞}」を後方単語の候補
の1つとする。また、1-gramの「{専門:3号 saNgoo
さんごう 名詞}」は後方の漢字列に前方一致するので
これも候補とする。さらに「{一般:3号 saNgoo さん
ごう 名詞}」も候補となる。
In the present embodiment, the preceding word string "@ # #
# Sentence head} ”is searched for n-gram as the backward word,
A word in which the kana string from the beginning of "#sangoua -..." following "#" partially matches is searched for and is set as a backward word. 2-gr
In am, "#Sangou" matches the kana sequence of "#Sangouaa ...", so the 2-gram suffix morpheme "{Specialization: No. 3 saNgoo Sangou Noun}" is the backward word. Is one of the candidates. Also, 1-gram “の Specialty: No. 3 saNgoo
Sangu Noun} ”matches the beginning of the back kanji string, so this is also a candidate. In addition, “{General: No.3 saNgoo Sango Noun}” is also a candidate.

【0141】後方単語それぞれについて尤度を計算しR
AMに記憶するとともに、先行単語列に後方単語を接続
し、新たに先行単語列としてRAMに記憶する(ST600
7)。
For each backward word, the likelihood is calculated and R
In addition to storing in the AM, a backward word is connected to the preceding word string, and the new word is stored in the RAM as a preceding word string (ST600).
7).

【0142】本実施の形態では、先行単語列「{# #
# 文頭}」を「{専門:# ## 文頭} {専
門:3号 saNgoo さんごう 名詞}」に置き換える。言
語尤度は、先行単語列「{# # # 文頭}」の確率
1と、専門分野の「{専門:# # # 文頭} {専
門:3号 saNgoo さんごう 名詞}」の2-gramの確率0.0
1から次式で計算される。
In this embodiment, the preceding word string “$ ##
Replace “# sentence}” with “{special: # ## sentence} {specialty: No. 3 saNgoo sango noun}”. The linguistic likelihood is the 2-gram probability of the preceding word string "{#### sentence}" and the specialty field "{specialty: #### sentencehead} specialty: No. 3 saNgoo sango noun}". 0.0
It is calculated from 1 by the following formula.

【0143】[0143]

【数17】 [Equation 17]

【0144】すべての音韻列候補に対して一致する単語
が得られていなければST6004に処理を移し同様の処理を
繰り返す。得られていれば最大尤度および解の先行単語
列をRAMに記憶するして以下の処理を行う(ST6008 ST60
09)。
If no matching word is obtained for all phoneme string candidates, the process moves to ST6004 and the same process is repeated. If obtained, the maximum likelihood and the preceding word string of the solution are stored in the RAM and the following processing is performed (ST6008 ST608
09).

【0145】本実施の形態では、以上により、音韻列候
補に対応して、「{# # # 文頭} {3号 saNgo
o さんごう 名詞} {アーチ aaci あーち 名詞}
{のno の 助詞} ・・・」の順に先行単語列候補が得ら
れる。
In the present embodiment, as described above, “@ #### sentence head} {# 3 saNgo
o cormorant noun}} arch aaci noun}
A preceding word string candidate is obtained in the order of {no no particle {...} ".

【0146】RAMに記憶してある最大尤度を持つ解の
単語列を読み出す。最大尤度は、言語尤度と音響尤度の
積の最大値である(ST4008)。
The word string of the solution having the maximum likelihood stored in the RAM is read. The maximum likelihood is the maximum value of the product of the linguistic likelihood and the acoustic likelihood (ST4008).

【0147】本実施の形態では、仮名列候補「#さんご
うあーちのせんせい#」に対して、「{# # # 文頭}
{3号 saNgoo さんごう 名詞} {アーチ aaci あー
ち 普通名詞} {の no の 接続助詞} {先制 seNsee
せんせい サ変名詞}」が、最大尤度が上記(10)式に
より 5.4×10の-9乗(音響尤度 0.9 言語尤度 6×10の
-9乗)で得られる。
In the present embodiment, the kana string candidate “# sangoaichi-no-sensei #” is replaced by “{# # # sentence head}
{No.3 saNgoo sango noun} {arch aaci Aichi ordinary noun} no no no connecting particle} {precedent seNsee
The maximum likelihood is 5.4 × 10 to the -9th power (Acoustic likelihood 0.9 Language likelihood 6 × 10
-9).

【0148】解の形態素列から、漢字表記を取り出し、
出力装置から出力し、処理を終了する(ST4009, ST301
4)。
The kanji notation is extracted from the morpheme sequence of the solution.
Output from the output device and end the process (ST4009, ST301
Four).

【0149】このようにして、分野を分離して統計量を
とることによりn-gramの次数を大きくすることなく言語
制約の強いn-gramを構成でき、高精度な仮名漢字変換を
構成できる。
In this way, by separating the fields and taking the statistics, an n-gram with a strong language constraint can be constructed without increasing the degree of the n-gram, and a highly accurate kana-kanji conversion can be constructed.

【0150】実施の形態4.次に本発明の実施の形態4
について説明する。本実施の形態の構成を図8に示す。
この実施の形態は、図1の実施の形態1の音声認識装置
において、単語確率算出装置(2)401a、音韻n-gram
(分野:野球)402、および音韻n-gram(分野:一般)4
03が異なり、他については同様の構成である。また、
音韻n-gramの例を図9に示す。さらに動作概略フローチ
ャートを図20に示す。
Embodiment 4 Next, Embodiment 4 of the present invention
Will be described. FIG. 8 shows the configuration of the present embodiment.
This embodiment is different from the speech recognition device according to the first embodiment in FIG. 1 in that the word probability calculation device (2) 401a and the phoneme n-gram
(Field: baseball) 402, and phonological n-gram (field: general) 4
03 is different, and the other parts have the same configuration. Also,
FIG. 9 shows an example of a phoneme n-gram. FIG. 20 shows a schematic flowchart of the operation.

【0151】実施の形態1では、音韻n-gramは、2-gram
と1-gramの双方を用いていたが、本実施の形態では図9
に示すように2-gramのみを用いる。そして図20のST70
01に示すように2-gramのみの一致を検査する。これによ
り、一つの発声に対する一連の形態素は同じ分野の形態
素となるので発声中に他の分野が交ざることをなくすこ
とができる。
In the first embodiment, the phoneme n-gram is a 2-gram
And 1-gram, both are used in the present embodiment.
As shown in Fig. 2, only 2-gram is used. And ST70 of FIG.
Check for a match of only 2-grams as shown in 01. As a result, a series of morphemes for one utterance are morphemes in the same field, so that it is possible to prevent another field from intersecting during utterance.

【0152】実施の形態5.次に本発明の実施の形態5
について説明する。本実施の形態の構成を図10に示
す。この実施の形態は、図4の実施の形態2の形態素解
析装置において、形態素確率算出装置(2)501、漢字
n-gram(分野:野球)502、および漢字n-gram(分野:
一般)503が異なり、他については同様の構成であ
る。また、漢字n-gramの例を図11に示す。さらに動作
概略フローチャートを図21に示す。
Embodiment 5 FIG. Next, Embodiment 5 of the present invention
Will be described. FIG. 10 shows the configuration of the present embodiment. This embodiment is different from the morphological analyzer of the second embodiment shown in FIG.
n-gram (field: baseball) 502 and kanji n-gram (field:
General) 503 is different, and the other configuration is the same. FIG. 11 shows an example of a kanji n-gram. FIG. 21 shows a schematic flowchart of the operation.

【0153】実施の形態2では、漢字n-gramは、2-gram
と1-gramの双方を用いていたが、本実施の形態では図1
1に示すように2-gramのみを用いる。そして図21のST
8001に示すように2-gramのみの一致を検査する。これに
より、一つの発声に対する一連の形態素は同じ分野の形
態素となるので他の分野が交ざることをなくすことがで
きる。
In the second embodiment, the kanji n-gram is a 2-gram
And 1-gram were used, but in this embodiment, FIG.
As shown in FIG. 1, only 2-gram is used. And ST in FIG.
Check for a match of only 2-grams as shown in 8001. As a result, a series of morphemes for one utterance are morphemes in the same field, so that it is possible to eliminate crossing of other fields.

【0154】実施の形態6.次に本発明の実施の形態6
について説明する。本実施の形態の構成を図12に示
す。この実施の形態は、図6の実施の形態3の仮名漢字
変換装置において、漢字確率算出装置(2)601、仮名
n-gram(分野:野球)602、および仮名n-gram(分野:
一般)603が異なり、他については同様の構成であ
る。また、仮名n-gramの例を図13に示す。さらに動作
概略フローチャートを図22に示す。
Embodiment 6 FIG. Next, Embodiment 6 of the present invention
Will be described. FIG. 12 shows the configuration of this embodiment. This embodiment is different from the kana-kanji conversion device of the third embodiment shown in FIG.
n-gram (field: baseball) 602 and kana n-gram (field:
General) 603 is different, and the other configuration is the same. FIG. 13 shows an example of the pseudonym n-gram. FIG. 22 shows a schematic flowchart of the operation.

【0155】実施の形態3では、仮名n-gramは、2-gram
と1-gramの双方を用いていたが、本実施の形態では図1
3に示すように2-gramのみを用いる。そして図22のST
9001に示すように2-gramのみの一致を検査する。これに
より、一つの発声に対する一連の形態素は同じ分野の形
態素となるので他の分野が交ざることをなくすことがで
きる。
In the third embodiment, the pseudonym n-gram is a 2-gram
And 1-gram were used, but in this embodiment, FIG.
As shown in FIG. 3, only 2-gram is used. And ST in FIG.
Check for a 2-gram only match as shown in 9001. As a result, a series of morphemes for one utterance are morphemes in the same field, so that it is possible to eliminate crossing of other fields.

【0156】実施の形態7.次に本発明の実施の形態7
について説明する。本実施の形態の構成を図14に示
す。この実施の形態は、図8の実施の形態4の音声認識
装置において、単語確率算出装置(3)701のみが異な
り、他については同様の構成である。また、動作概略フ
ローチャートを図23に示す。
Embodiment 7 FIG. Next, Embodiment 7 of the present invention
Will be described. FIG. 14 shows the configuration of the present embodiment. This embodiment differs from the speech recognition apparatus according to the fourth embodiment in FIG. 8 only in the word probability calculating device (3) 701, and has the same configuration as the other components. FIG. 23 shows a schematic flowchart of the operation.

【0157】実施の形態4では、音韻n-gramの確率をそ
のまま用いていたが、本実施の形態では図23のST1000
1に示すように2-gramの確率の重みを分野別にかけるこ
とにより、分野別に出現確率を調節することができる。
In the fourth embodiment, the probability of the phoneme n-gram is used as it is, but in the present embodiment, ST1000 in FIG.
By applying the 2-gram probability weight to each field as shown in FIG. 1, the appearance probability can be adjusted for each field.

【0158】実施の形態8.次に本発明の実施の形態8
について説明する。本実施の形態の構成を図15に示
す。この実施の形態は、図10の実施の形態5の形態素
解析装置において、形態素確率算出装置(3)801のみ
が異なり、他については同様の構成である。また、動作
概略フローチャートを図24に示す。
Embodiment 8 FIG. Next, Embodiment 8 of the present invention
Will be described. FIG. 15 shows the configuration of the present embodiment. This embodiment differs from the morphological analyzer of the fifth embodiment in FIG. 10 only in the morphological probability calculating device (3) 801 and has the same configuration as the other. FIG. 24 shows a schematic flowchart of the operation.

【0159】実施の形態5では、漢字n-gramの確率をそ
のまま用いていたが、本実施の形態では図24のST1100
1に示すように2-gramの確率の重みを分野別にかけるこ
とにより、分野別に出現確率を調節することができる。
In the fifth embodiment, the probabilities of the kanji n-gram are used as they are, but in this embodiment, the ST1100 of FIG.
By applying the 2-gram probability weight to each field as shown in FIG. 1, the appearance probability can be adjusted for each field.

【0160】実施の形態9.次に本発明の実施の形態9
について説明する。本実施の形態の構成を図16に示
す。この実施の形態は、図12の実施の形態6の仮名漢
字変換装置において、漢字確率算出装置(3)901のみ
が異なり、他については同様の構成である。また、動作
概略フローチャートを図25に示す。
Embodiment 9 FIG. Next, Embodiment 9 of the present invention
Will be described. FIG. 16 shows the configuration of the present embodiment. This embodiment differs from the kana-kanji conversion device of Embodiment 6 in FIG. 12 only in the kanji probability calculation device (3) 901 and has the same configuration as the rest. FIG. 25 shows a schematic flowchart of the operation.

【0161】実施の形態6では、仮名n-gramの確率をそ
のまま用いていたが、本実施の形態では図25のST1200
1に示すように2-gramの確率の重みを分野別にかけるこ
とにより、分野別に出現確率を調節することができる。
In the sixth embodiment, the probability of the pseudonym n-gram is used as it is, but in the present embodiment, ST1200 of FIG.
By applying the 2-gram probability weight to each field as shown in FIG. 1, the appearance probability can be adjusted for each field.

【0162】[0162]

【発明の効果】以上のように、この発明の請求項1、1
0,19の音声認識の装置、方法、記憶媒体では、音韻
n-gramにおいて、専門分野と一般分野の双方の音韻n-gr
amを持つようにしたので、専門分野と一般分野における
入力を精度良く弁別でき、高精度の音声認識が可能とな
る。
As described above, the first and second aspects of the present invention are described.
0,19 speech recognition devices, methods and storage media
In n-gram, phonological n-gr of both specialized and general fields
With am, it is possible to accurately discriminate between inputs in specialized fields and general fields, and to achieve high-accuracy speech recognition.

【0163】また、この発明の請求項4、13,22の
形態素解析の装置、方法、記憶媒体では、漢字n-gramに
おいて、専門分野と一般分野の双方の漢字n-gramを持つ
ようにしたので、専門分野と一般分野における入力を精
度良く弁別でき、高精度の形態素解析が可能となる。
Further, in the morphological analysis apparatus, method and storage medium according to claims 4, 13 and 22 of the present invention, the kanji n-gram has kanji n-grams in both the specialized field and the general field. Therefore, inputs in a specialized field and a general field can be discriminated with high accuracy, and highly accurate morphological analysis can be performed.

【0164】また、この発明の請求項7、16,25の
仮名漢字変換の装置、方法、記憶媒体では、仮名n-gram
において、専門分野と一般分野の双方の仮名n-gramを持
つようにしたので、専門分野と一般分野における入力を
精度良く弁別でき、高精度の仮名漢字変換が可能とな
る。
In the apparatus, method and storage medium for kana-kanji conversion according to claims 7, 16 and 25 of the present invention, the kana-n-gram
In the above, the kana n-gram of both the specialized field and the general field is provided, so that the input in the specialized field and the general field can be discriminated with high accuracy, and the kana-kanji conversion with high precision can be performed.

【0165】また、この発明の請求項2,5,8,1
1,14,17,20,23,26のの装置、方法、記
憶媒体では、専門分野と一般分野、あるいは分野毎に確
率の重みを調整可能に構成したので、分野別に出現確率
を調節することができる。
[0165] Further, the present invention is characterized in that:
The devices, methods, and storage media of 1, 14, 17, 20, 23, and 26 are configured so that the weight of the probability can be adjusted for each specialized field and general field, or for each field, so that the appearance probability can be adjusted for each field. Can be.

【0166】また、この発明の請求項3,6,9,1
2,15,18,21,24,27の装置、方法、記憶
媒体では、単語列候補の算出時に、一連の音声あるいは
文字列に対応する音韻、漢字あるいは仮名のn-gram中の
分野がすべて一致するように単語出力手段を構成したの
で、他の分野が交ざることをなくすことができる。
[0166] Further, claims 3, 6, 9, 1 of the present invention.
In the devices, methods, and storage media of 2,15,18,21,24,27, when calculating a word string candidate, all fields in the n-gram of phonemes, kanji or kana corresponding to a series of voices or character strings are used. Since the word output means is configured so as to match, it is possible to prevent the other fields from intersecting.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明の実施の形態1による音声認識装置
を示すブロック図である。
FIG. 1 is a block diagram showing a speech recognition device according to a first embodiment of the present invention.

【図2】 解析される例文の一例を示す図である。FIG. 2 is a diagram showing an example of an example sentence to be analyzed.

【図3】 この発明の実施の形態1における音韻n-gram
の一例を示す図である。
FIG. 3 shows a phoneme n-gram according to the first embodiment of the present invention.
It is a figure showing an example of.

【図4】 この発明の実施の形態2による形態素解析装
置を示すブロック図である。
FIG. 4 is a block diagram showing a morphological analyzer according to Embodiment 2 of the present invention;

【図5】 この発明の実施の形態2における漢字n-gram
の一例を示す図である。
FIG. 5 Kanji n-gram in Embodiment 2 of the present invention.
It is a figure showing an example of.

【図6】 この発明の実施の形態3による仮名漢字変換
装置を示すブロック図である。
FIG. 6 is a block diagram showing a kana-kanji conversion device according to Embodiment 3 of the present invention.

【図7】 この発明の実施の形態3における仮名n-gram
の一例を示す図である。
FIG. 7 is a pseudonym n-gram according to Embodiment 3 of the present invention.
It is a figure showing an example of.

【図8】 この発明の実施の形態4による音声認識装置
を示すブロック図である。
FIG. 8 is a block diagram showing a voice recognition device according to a fourth embodiment of the present invention.

【図9】 この発明の実施の形態4における音韻n-gram
の一例を示す図である。
FIG. 9 shows a phoneme n-gram according to Embodiment 4 of the present invention.
It is a figure showing an example of.

【図10】 この発明の実施の形態5による形態素解析
装置を示すブロック図である。
FIG. 10 is a block diagram showing a morphological analyzer according to Embodiment 5 of the present invention.

【図11】 この発明の実施の形態5における漢字n-gr
amの一例を示す図である。
FIG. 11 shows a kanji n-gr according to the fifth embodiment of the present invention.
It is a figure showing an example of am.

【図12】 この発明の実施の形態6による仮名漢字変
換装置を示すブロック図である。
FIG. 12 is a block diagram showing a kana-kanji conversion device according to Embodiment 6 of the present invention.

【図13】 この発明の実施の形態6における仮名n-gr
amの一例を示す図である。
FIG. 13 shows a pseudonym n-gr according to the sixth embodiment of the present invention.
It is a figure showing an example of am.

【図14】 この発明の実施の形態7による音声認識装
置を示すブロック図である。
FIG. 14 is a block diagram showing a speech recognition apparatus according to Embodiment 7 of the present invention.

【図15】 この発明の実施の形態8による形態素解析
装置を示すブロック図である。
FIG. 15 is a block diagram showing a morphological analyzer according to an eighth embodiment of the present invention.

【図16】 この発明の実施の形態9による仮名漢字変
換装置を示すブロック図である。
FIG. 16 is a block diagram showing a kana-kanji conversion device according to Embodiment 9 of the present invention.

【図17】 この発明の実施の形態1による音声認識装
置の動作概略フローチャートである。
FIG. 17 is an operation schematic flowchart of the voice recognition device according to the first embodiment of the present invention;

【図18】 この発明の実施の形態2による形態素解析
装置の動作概略フローチャートである。
FIG. 18 is a schematic flowchart of the operation of the morphological analyzer according to the second embodiment of the present invention.

【図19】 この発明の実施の形態3による仮名漢字変
換装置の動作概略フローチャートである。
FIG. 19 is a schematic flowchart of the operation of the kana-kanji conversion device according to the third embodiment of the present invention.

【図20】 この発明の実施の形態4による音声認識装
置の動作概略フローチャートである。
FIG. 20 is a schematic flowchart of the operation of the voice recognition device according to the fourth embodiment of the present invention.

【図21】 この発明の実施の形態5による形態素解析
装置の動作概略フローチャートである。
FIG. 21 is a schematic flowchart of the operation of the morphological analyzer according to the fifth embodiment of the present invention;

【図22】 この発明の実施の形態6による仮名漢字変
換装置の動作概略フローチャートである。
FIG. 22 is a schematic flowchart of the operation of the kana-kanji conversion device according to the sixth embodiment of the present invention.

【図23】 この発明の実施の形態7による音声認識装
置の動作概略フローチャートである。
FIG. 23 is a schematic flowchart of the operation of the voice recognition device according to the seventh embodiment of the present invention.

【図24】 この発明の実施の形態8による形態素解析
装置の動作概略フローチャートである。
FIG. 24 is a schematic flowchart of the operation of the morphological analysis device according to the eighth embodiment of the present invention.

【図25】 この発明の実施の形態9による仮名漢字変
換装置の動作概略フローチャートである。
FIG. 25 is an operation schematic flowchart of a kana-kanji conversion device according to Embodiment 9 of the present invention;

【図26】 従来のこの種の装置の一例を示すブロック
図である。
FIG. 26 is a block diagram showing an example of this type of conventional device.

【図27】 3-gram表の一例を示す図である。FIG. 27 is a diagram illustrating an example of a 3-gram table.

【図28】 従来の音声認識装置の動作概略フローチャ
ートである。
FIG. 28 is a schematic flowchart of the operation of the conventional voice recognition device.

【符号の説明】 101 マイク、102 音韻確率算出装置、103
単語確率算出装置、104 出力装置、105 RAM、
106,107 音韻n-gram、201 ファイル入力装
置、202 形態素確率算出装置、203,204 漢
字n-gram、301 キーボード、302 漢字確率算出
装置、303,304 仮名n-gram。
[Description of Signs] 101 microphone, 102 phoneme probability calculation device, 103
Word probability calculation device, 104 output device, 105 RAM,
106, 107 phoneme n-gram, 201 file input device, 202 morpheme probability calculation device, 203, 204 kanji n-gram, 301 keyboard, 302 kanji probability calculation device, 303, 304 kana n-gram.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06F 17/30 310 G06F 17/30 330C 330 350C 350 G10L 3/00 537D 537J (72)発明者 丸田 裕三 東京都千代田区丸の内二丁目2番3号 三 菱電機株式会社内 Fターム(参考) 5B009 KB00 KC00 MA00 ME12 QA01 5B075 ND03 NK34 NR12 PP07 PQ02 PR04 PR06 QM08 5D015 HH23 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06F 17/30 310 G06F 17/30 330C 330 350C 350 G10L 3/00 537D 537J (72) Inventor Yuzo Maruta Tokyo 2-3-2 Marunouchi 2-chome, Chiyoda-ku, Tokyo F-term (reference) 5B009 KB00 KC00 MA00 ME12 QA01 5B075 ND03 NK34 NR12 PP07 PQ02 PR04 PR06 QM08 5D015 HH23

Claims (27)

【特許請求の範囲】[Claims] 【請求項1】 音声を入力する入力手段と、 上記入力手段が出力する音声信号を音韻に変換し、各音
韻に対応する音韻生起確率を計算して、音韻列候補を出
力する音韻確率算出手段と、 対象言語の音韻列と音韻列に対応する単語表記列と生起
確率を記憶する音韻n-gramと上記音韻n-gramを参照し
て、上記音韻確率算出手段が出力する音韻列候補に対応
する各単語候補の単語生起確率を算出する単語確率算出
手段と、 上記音韻確率算出手段により算出された音韻生起確率
と、上記単語確率算出手段により算出された単語生起確
率を用いて、上記入力手段より入力された音声に類似す
る単語列候補を算出する単語出力手段と、 を備えた音声認識装置であって、上記音韻n-gramにおい
て、専門分野と一般分野の双方の音韻n-gramを持つこと
を特徴とする音声認識装置。
An input means for inputting a voice, and a phoneme probability calculating means for converting a voice signal output from the input means into a phoneme, calculating a phoneme occurrence probability corresponding to each phoneme, and outputting a phoneme sequence candidate. With reference to the phoneme sequence of the target language, the word notation sequence corresponding to the phoneme sequence, and the phoneme n-gram storing the occurrence probability and the phoneme n-gram, the phoneme sequence candidate output by the phoneme probability calculation means is corresponded. Using the word probability calculating means for calculating the word occurrence probability of each word candidate to be input, the phoneme occurrence probability calculated by the phoneme probability calculating means, and the word occurrence probability calculated by the word probability calculating means, And a word output means for calculating a word string candidate similar to the input speech, wherein the phoneme n-gram has a phoneme n-gram of both a specialized field and a general field. Sound characterized by Recognition device.
【請求項2】 前記単語確率算出手段において、専門分
野と一般分野の確率の重みを調整可能に構成したことを
特徴とする請求項1に記載の音声認識装置。
2. The speech recognition apparatus according to claim 1, wherein said word probability calculation means is configured to be able to adjust the weight of the probability in the specialty field and the general field.
【請求項3】 前記単語列候補の算出時に、一連の音声
に対応する音韻n-gram中の分野がすべて一致するように
単語出力手段を構成したことを特徴とする請求項1また
は2に記載の音声認識装置。
3. The word output means according to claim 1, wherein said word output means is configured such that all fields in a phoneme n-gram corresponding to a series of voices coincide when said word string candidates are calculated. Voice recognition device.
【請求項4】 仮名漢字混じり文字列を入力する入力手
段と、 対象言語の仮名漢字混じり文字列と仮名漢字混じり文字
列に対応する単語表記列と生起確率を記憶する漢字n-gr
amと上記漢字n-gramを参照して、上記入力手段が出力す
る漢字混じり文字列に対応する各単語候補の単語生起確
率を算出する単語確率算出手段と、 上記単語確率算出手段により算出された単語生起確率を
用いて、上記入力手段より入力された文字列に適合する
単語列候補を算出する単語出力手段と、 を備えた形態素解析装置であって、上記漢字n-gramにお
いて、専門分野と一般分野の双方の漢字n-gramを持つこ
とを特徴とする形態素解析装置。
4. An input means for inputting a kana-kanji mixed character string, a kana-kanji mixed character string of a target language, a word notation string corresponding to the kana-kanji mixed character string, and a kanji n-gr for storing an occurrence probability.
am and the kanji n-gram, the word probability calculation means for calculating the word occurrence probability of each word candidate corresponding to the kanji-mixed character string output by the input means, and the word probability calculation means A word output unit that calculates a word string candidate that matches the character string input from the input unit using the word occurrence probability, and a morphological analysis device comprising: A morphological analyzer characterized by having both kanji n-grams in the general field.
【請求項5】 前記単語確率算出手段において、専門分
野と一般分野の確率の重みを調整可能に構成したことを
特徴とする請求項4に記載の形態素解析装置。
5. The morphological analyzer according to claim 4, wherein said word probability calculating means is configured to be able to adjust the weights of the probabilities of the specialized field and the general field.
【請求項6】 前記単語列候補の算出時に、一連の仮名
漢字混じり文字列に対応する漢字n-gram中の分野がすべ
て一致するように単語出力手段を構成したことを特徴と
する請求項4または5に記載の形態素解析装置。
6. The word output means is configured so that all fields in a kanji n-gram corresponding to a series of kana-kanji mixed character strings match at the time of calculating the word string candidates. Or the morphological analyzer according to 5.
【請求項7】 仮名文字列を入力する入力手段と、 対象言語の仮名文字列と仮名文字列に対応する単語表記
列と生起確率を記憶する仮名n-gramと上記仮名n-gramを
参照して、上記入力手段が出力する仮名文字列に対応す
る各単語候補の単語生起確率を算出する単語確率算出手
段と、 上記単語確率算出手段により算出された単語生起確率を
用いて、上記入力手段より入力された仮名文字列に適合
する単語列候補を算出する単語出力手段と、 を備えた仮名漢字変換装置において、上記仮名n-gram中
において、専門分野と一般分野の双方の仮名n-gramを持
つことを特徴とする仮名漢字変換装置。
7. An input means for inputting a kana character string, a kana n-gram for storing a kana character string in a target language, a word notation string corresponding to the kana character string, and an occurrence probability, and referring to the kana n-gram. A word probability calculating means for calculating a word occurrence probability of each word candidate corresponding to a kana character string output by the input means; anda word occurrence probability calculated by the word probability calculating means, Word output means for calculating a word string candidate that matches the input kana character string.In the kana-kanji conversion device, the kana n-gram includes, in the kana n-gram, the kana n-gram of both the specialized field and the general field. A kana-kanji conversion device characterized by having.
【請求項8】 前記単語確率算出手段において、専門分
野と一般分野の確率の重みを調整可能に構成したことを
特徴とする請求項7に記載の仮名漢字変換装置。
8. The kana-kanji conversion device according to claim 7, wherein the word probability calculating means is configured to be able to adjust the weight of the probability in the specialty field and the general field.
【請求項9】 前記単語列候補の算出時に、一連の仮名
文字列に対応する仮名n-gram中の分野がすべて一致する
ように単語出力手段を構成したことを特徴とする請求項
7または8に記載の仮名漢字変換装置。
9. The word output means is configured so that, when calculating the word string candidates, all fields in a kana n-gram corresponding to a series of kana character strings match. The kana-kanji conversion device according to 1.
【請求項10】 音声を入力すると、その音声信号を音
韻に変換し、各音韻に対応する音韻生起確率を計算し
て、音韻列候補を出力する工程と、 対象言語の音韻列と音韻列に対応する単語表記列と生起
確率を記憶し、音韻n-gramと上記音韻n-gramを参照し
て、音韻列候補に対応する各単語候補の単語生起確率を
算出する工程と、 前記音韻生起確率と単語生起確率を用いて、入力された
音声に類似する単語列候補を算出する工程と、 からなる音声認識方法であって、音韻n-gramが専門分野
と一般分野の双方の音韻n-gramを持つことを特徴とする
音声認識方法。
10. When a voice is input, the voice signal is converted into a phoneme, a phoneme occurrence probability corresponding to each phoneme is calculated, and a phoneme sequence candidate is output. Storing the corresponding word notation sequence and the occurrence probability, referring to the phoneme n-gram and the phoneme n-gram, and calculating the word occurrence probability of each word candidate corresponding to the phoneme sequence candidate; And calculating a word sequence candidate similar to the input speech using the word occurrence probability and a word occurrence probability, wherein the phoneme n-gram is a phoneme n-gram in both the specialized field and the general field. A speech recognition method characterized by having:
【請求項11】 前記単語候補の算出時に分野ごとに確
率の重みを調整可能にしたことを特徴とする請求項10
に記載の音声認識方法。
11. The method according to claim 10, wherein the weight of the probability can be adjusted for each field when calculating the word candidates.
Voice recognition method described in.
【請求項12】 前記単語列候補の算出時に、一連の音
声に対応する音韻n-gram中の分野がすべて一致するよう
にしたことを特徴とする請求項10または11に記載の
音声認識方法。
12. The speech recognition method according to claim 10, wherein, when calculating the word string candidates, all fields in a phoneme n-gram corresponding to a series of speeches match.
【請求項13】 仮名漢字混じり文字列を入力すると、
対象言語の仮名漢字混じり文字列と仮名漢字混じり文字
列に対応する単語表記列と生起確率を記憶し、漢字n-gr
amと上記漢字n-gramを参照して、漢字混じり文字列に対
応する各単語候補の単語生起確率を算出する工程と、 算出された単語生起確率を用いて、入力された文字列に
適合する単語列候補を算出する工程と、 からなる形態素解析方法であって、上記漢字n-gramが専
門分野と一般分野の双方の漢字n-gramを持つことを特徴
とする形態素解析方法。
13. When a character string containing kana and kanji is input,
The kana-kanji mixed character string of the target language and the word notation string corresponding to the kana-kanji mixed character string and the occurrence probability are stored, and the kanji n-gr
a step of calculating a word occurrence probability of each word candidate corresponding to a character string mixed with kanji by referring to am and the above-mentioned kanji n-gram, and using the calculated word occurrence probability to match the input character string A morphological analysis method comprising: calculating a word string candidate; and wherein the kanji n-gram has kanji n-grams in both a specialized field and a general field.
【請求項14】 前記単語候補の算出時に分野ごとに確
率の重みを調整可能にしたことを特徴とする請求項13
に記載の形態素解析方法。
14. The method according to claim 13, wherein the weight of the probability can be adjusted for each field when calculating the word candidates.
A morphological analysis method according to item 1.
【請求項15】 前記単語列候補の算出時に、一連の仮
名漢字混じり文字列に対応する漢字n-gram中の分野がす
べて一致するようにしたことを特徴とする請求項13ま
たは14に記載の形態素解析方法。
15. The method according to claim 13, wherein, when calculating the word string candidates, all fields in a kanji n-gram corresponding to a series of kana-kanji mixed character strings match each other. Morphological analysis method.
【請求項16】 仮名文字列を入力すると、対象言語の
仮名文字列と仮名文字列に対応する単語表記列と生起確
率を記憶する仮名n-gramと仮名n-gramを参照して、仮名
文字列に対応する各単語候補の単語生起確率を算出する
工程と、 算出された単語生起確率を用いて、入力された仮名文字
列に適合する単語列候補を算出する工程と、 からなる仮名漢字変換方法であって、上記仮名n-gramが
専門分野と一般分野の双方の仮名n-gramを持つことを特
徴とする仮名漢字変換方法。
16. When a kana character string is input, a kana character string is referred to by referring to a kana n-gram and a kana n-gram storing a kana character string of the target language, a word notation string corresponding to the kana character string, and an occurrence probability. Calculating a word occurrence probability of each word candidate corresponding to the sequence; and calculating a word string candidate that matches the input kana character string using the calculated word occurrence probability. A kana-kanji conversion method, wherein the kana n-gram has both a specialty field and a general field kana n-gram.
【請求項17】 前記単語候補の算出時に分野ごとに確
率の重みを調整可能にしたことを特徴とする請求項16
に記載の仮名漢字変換方法。
17. The method according to claim 16, wherein the weight of the probability can be adjusted for each field when calculating the word candidates.
The kana-kanji conversion method described in.
【請求項18】 前記単語列候補の算出時に、一連の仮
名文字列に対応する仮名n-gram中の分野がすべて一致す
るようにしたことを特徴とする請求項16または17に
記載の仮名漢字変換方法。
18. The kana-kanji character according to claim 16, wherein all the fields in the kana n-gram corresponding to the series of kana character strings match when the word string candidates are calculated. Conversion method.
【請求項19】 音声を入力する入力機能と、 上記入力機能が出力する音声信号を音韻に変換し、各音
韻に対応する音韻生起確率を計算して、音韻列候補を出
力する音韻確率算出機能と、 対象言語の音韻列と音韻列に対応する単語表記列と生起
確率を記憶する音韻n-gramと上記音韻n-gramを参照し
て、上記音韻確率算出機能が出力する音韻列候補に対応
する各単語候補の単語生起確率を算出する単語確率算出
機能と、 上記音韻確率算出機能により算出された音韻生起確率
と、上記単語確率算出機能により算出された単語生起確
率を用いて、上記入力機能より入力された音声に類似す
る単語列候補を算出する単語出力機能と、 を実現させ、上記音韻n-gramが専門分野と一般分野の双
方の音韻n-gramを持つことを特徴とする、 音声認識プログラムを記録したコンピュータ読み取り可
能な記録媒体。
19. An input function for inputting voice, and a phoneme probability calculating function for converting a voice signal output by the input function into phonemes, calculating phoneme occurrence probabilities corresponding to each phoneme, and outputting phoneme sequence candidates. With reference to the phoneme sequence of the target language, the word notation sequence corresponding to the phoneme sequence, and the phoneme n-gram storing the occurrence probability and the phoneme n-gram, the phoneme sequence candidate output by the phoneme probability calculation function is supported. Using the word probability calculation function to calculate the word occurrence probability of each word candidate to be executed, the phoneme occurrence probability calculated by the phoneme probability calculation function, and the word occurrence probability calculated by the word probability calculation function, And a word output function for calculating a word string candidate similar to the input speech from the input device, wherein the phoneme n-gram has phonemes n-grams in both a specialized field and a general field. Record recognition program Computer readable recording medium.
【請求項20】 前記単語確率算出機能において、分類
ごとに確率の重みを調整可能にしたことを特徴とする請
求項19に記載の記録媒体。
20. The recording medium according to claim 19, wherein in the word probability calculation function, the weight of the probability can be adjusted for each classification.
【請求項21】 前記単語列候補の算出時に、一連の音
声に対応する音韻n-gram中の分野がすべて一致するよう
に単語出力機能を構成したことを特徴とする請求項19
または20に記載の記録媒体。
21. The word output function according to claim 19, wherein at the time of calculating the word string candidate, a word output function is configured such that all fields in a phoneme n-gram corresponding to a series of voices match.
Or the recording medium of 20.
【請求項22】 仮名漢字混じり文字列を入力する入力
機能と、 対象言語の仮名漢字混じり文字列と仮名漢字混じり文字
列に対応する単語表記列と生起確率を記憶する漢字n-gr
amと上記漢字n-gramを参照して、上記入力機能が出力す
る漢字混じり文字列に対応する各単語候補の単語生起確
率を算出する単語確率算出機能と、 上記単語確率算出機能により算出された単語生起確率を
用いて、上記入力機能より入力された文字列に適合する
単語列候補を算出する単語出力機能と、 を実現させ、上記音韻n-gramが専門分野と一般分野の双
方の漢字n-gramを持つことを特徴とする、 形態素解析プログラムを記録したコンピュータ読み取り
可能な記録媒体。
22. An input function for inputting a kana-kanji mixed character string, a kana-kanji n-gr storing a kana-kanji mixed character string of a target language, a word notation string corresponding to the kana-kanji mixed character string, and an occurrence probability.
With reference to am and the kanji n-gram, a word probability calculation function for calculating the word occurrence probability of each word candidate corresponding to the kanji mixed character string output by the input function, and a word probability calculation function calculated by the word probability calculation function A word output function of calculating a word string candidate that matches the character string input from the input function using the word occurrence probability, and realizing that the phonological n-gram is a kanji character n in both the specialized field and the general field. A computer-readable recording medium storing a morphological analysis program, characterized by having a -gram.
【請求項23】 前記単語確率算出機能において、分野
ごとに確率の重みを調整可能に構成したことを特徴とす
る請求項22に記載の記録媒体。
23. The recording medium according to claim 22, wherein in the word probability calculation function, the weight of the probability is adjustable for each field.
【請求項24】 前記単語列候補の算出時に、一連の仮
名漢字混じり文字列に対応する漢字n-gram中の分野がす
べて一致するように単語出力機能を構成したことを特徴
とする請求項22または23に記載の記録媒体。
24. The word output function according to claim 22, wherein at the time of calculating the word string candidate, a word output function is configured such that all fields in a kanji n-gram corresponding to a series of kana kanji mixed character strings match. Or the recording medium according to 23.
【請求項25】 仮名文字列を入力する入力機能と、 対象言語の仮名文字列と仮名文字列に対応する単語表記
列と生起確率を記憶する仮名n-gramと上記仮名n-gramを
参照して、上記入力機能が出力する仮名文字列に対応す
る各単語候補の単語生起確率を算出する単語確率算出機
能と、 上記単語確率算出機能により算出された単語生起確率を
用いて、上記入力機能より入力された仮名文字列に適合
する単語列候補を算出する単語出力機能と、 を実現させ、上記仮名n-gramが専門分野と一般分野の双
方の仮名n-gramを持つことを特徴とする、 仮名漢字変換プログラムを記録したコンピュータ読み取
り可能な記録媒体。
25. An input function for inputting a kana character string, a kana n-gram storing a kana character string in a target language, a word notation string corresponding to the kana character string, and an occurrence probability, and referring to the kana n-gram. A word probability calculation function for calculating a word occurrence probability of each word candidate corresponding to the kana character string output by the input function; and a word occurrence probability calculated by the word probability calculation function. A word output function of calculating a word string candidate that matches the input kana character string, and realizing that the kana n-gram has both a specialty field and a general field kana n-gram. A computer-readable recording medium that records a kana-kanji conversion program.
【請求項26】 前記単語確率算出機能において、分野
ごとに確率の重みを調整可能にしたことを特徴とする請
求項25に記載の記録媒体。
26. The recording medium according to claim 25, wherein the weight of the probability can be adjusted for each field in the word probability calculation function.
【請求項27】 前記単語列候補の算出時に、一連の仮
名文字列に対応する仮名n-gram中の分野がすべて一致す
るように単語出力機能を構成したことを特徴とする請求
項25または26に記載の記録媒体。
27. The word output function according to claim 25 or 26, wherein at the time of calculating the word string candidate, a word output function is configured such that all fields in a kana n-gram corresponding to a series of kana character strings match. A recording medium according to claim 1.
JP2001017478A 2001-01-25 2001-01-25 Voice recognition device, morpheme analyzer, kana (japanese syllabary)/kanji (chinese character) converter, its method and recording medium which records its program Abandoned JP2002221985A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001017478A JP2002221985A (en) 2001-01-25 2001-01-25 Voice recognition device, morpheme analyzer, kana (japanese syllabary)/kanji (chinese character) converter, its method and recording medium which records its program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001017478A JP2002221985A (en) 2001-01-25 2001-01-25 Voice recognition device, morpheme analyzer, kana (japanese syllabary)/kanji (chinese character) converter, its method and recording medium which records its program

Publications (1)

Publication Number Publication Date
JP2002221985A true JP2002221985A (en) 2002-08-09

Family

ID=18883682

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001017478A Abandoned JP2002221985A (en) 2001-01-25 2001-01-25 Voice recognition device, morpheme analyzer, kana (japanese syllabary)/kanji (chinese character) converter, its method and recording medium which records its program

Country Status (1)

Country Link
JP (1) JP2002221985A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007025279A (en) * 2005-07-15 2007-02-01 Mitsubishi Electric Corp Device and program for speech recognition

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007025279A (en) * 2005-07-15 2007-02-01 Mitsubishi Electric Corp Device and program for speech recognition
JP4727330B2 (en) * 2005-07-15 2011-07-20 三菱電機株式会社 Speech recognition apparatus and speech recognition program

Similar Documents

Publication Publication Date Title
JP4791984B2 (en) Apparatus, method and program for processing input voice
TW546631B (en) Disambiguation language model
US7177795B1 (en) Methods and apparatus for semantic unit based automatic indexing and searching in data archive systems
JP2848458B2 (en) Language translation system
JP3720068B2 (en) Question posting method and apparatus
Arisoy et al. Turkish broadcast news transcription and retrieval
US7092870B1 (en) System and method for managing a textual archive using semantic units
JP4393494B2 (en) Machine translation apparatus, machine translation method, and machine translation program
EP2248051B1 (en) Computer implemented method for indexing and retrieving documents in database and information retrieval system
US8566076B2 (en) System and method for applying bridging models for robust and efficient speech to speech translation
US20030187643A1 (en) Vocabulary independent speech decoder system and method using subword units
WO2003010754A1 (en) Speech input search system
WO1999063456A1 (en) Language conversion rule preparing device, language conversion device and program recording medium
JPH03224055A (en) Method and device for input of translation text
JP5897718B2 (en) Voice search device, computer-readable storage medium, and voice search method
JP4089861B2 (en) Voice recognition text input device
JP5590549B2 (en) Voice search apparatus and voice search method
CN116052655A (en) Audio processing method, device, electronic equipment and readable storage medium
JP2002221985A (en) Voice recognition device, morpheme analyzer, kana (japanese syllabary)/kanji (chinese character) converter, its method and recording medium which records its program
Chen et al. Using Taigi dramas with Mandarin Chinese subtitles to improve Taigi speech recognition
JP3935655B2 (en) Speech recognition device, morphological analysis device, kana-kanji conversion device, method thereof, and recording medium recording the program
Chen et al. Speech retrieval of Mandarin broadcast news via mobile devices.
JP6003127B2 (en) Language model creation program and language model creation device
JPH11250063A (en) Retrieval device and method therefor
Rosenvinge Automated Identification of Severe Errors in Speech to Text Transcripts

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040917

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070220

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20070404