JP3425165B2 - Continuous sentence speech recognition device - Google Patents

Continuous sentence speech recognition device

Info

Publication number
JP3425165B2
JP3425165B2 JP25276792A JP25276792A JP3425165B2 JP 3425165 B2 JP3425165 B2 JP 3425165B2 JP 25276792 A JP25276792 A JP 25276792A JP 25276792 A JP25276792 A JP 25276792A JP 3425165 B2 JP3425165 B2 JP 3425165B2
Authority
JP
Japan
Prior art keywords
phrase
relevance score
calculated
clause
continuous
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP25276792A
Other languages
Japanese (ja)
Other versions
JPH06102897A (en
Inventor
英樹 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP25276792A priority Critical patent/JP3425165B2/en
Publication of JPH06102897A publication Critical patent/JPH06102897A/en
Application granted granted Critical
Publication of JP3425165B2 publication Critical patent/JP3425165B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は連続発声された文音声を
認識する連続文音声認識装置に関し、特に本発明は文節
間の係り受け関係、意味関係、関連度を用いて、より速
く、より正確に文の認識を行うことができる連続文音声
認識装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a continuous sentence voice recognition apparatus for recognizing continuously spoken sentence voices, and more particularly, the present invention uses a dependency relation, a semantic relation, and a degree of relation between clauses for faster and more efficient use. The present invention relates to a continuous sentence voice recognition device that can accurately recognize a sentence.

【0002】[0002]

【従来の技術】従来、連続発声された文音声を認識する
文音声認識方式としては、文脈自由文法の文を、CYK
やEarleyといったパーザー(文を成分に分けて処
理する方式)とDP(ダイナミック・プログラミング、
以下DPという)照合を組み合わせて認識する方式が用
いられていた。
2. Description of the Related Art Conventionally, as a sentence-speech recognition method for recognizing continuously-sentence-sentences, a sentence of context-free grammar is CYK.
Parser (method that divides sentence into components) and DP (Dynamic programming, etc.)
A method of recognizing a combination of collations has been used.

【0003】[0003]

【発明が解決しようとする課題】ところで、上記した従
来の方式は扱える文法が文脈自由文法に限られ、日本語
の係り受け関係や意味関係、文節間の関連度を表現する
には不適当であるという問題があった。すなわち、上記
した方式は、例えば英文のように文節の順序に意味を持
つ文音声を認識するには適しているが、日本語のよう
に、係り受け関係(助詞による文節の結合関係)、意味
関係、関連度等に多く依存する文音声を認識するには適
当でなかった。
By the way, the conventional methods described above are limited to context-free grammars that can be handled, and are unsuitable for expressing dependency relations and semantic relations in Japanese, and the degree of association between phrases. There was a problem. That is, the above-described method is suitable for recognizing sentence voices that have a meaning in the order of bunsetsu, such as English sentences, but as in Japanese, dependency relations (joint relations of clauses by particles), meaning It was not suitable for recognizing sentence-speech, which is highly dependent on the relation and the degree of association.

【0004】本発明は上記した従来技術の問題点に鑑み
なされたものであって、係り受け関係や意味関係、文節
間の関連度を考慮しながら効率良く連続文音声を認識す
ることができる連続文音声認識装置を提供することを目
的とする。
The present invention has been made in view of the above-mentioned problems of the prior art, and it is possible to efficiently recognize continuous sentence speech while considering the dependency relation, the semantic relation, and the degree of association between phrases. It is an object to provide a sentence voice recognition device .

【0005】[0005]

【課題を解決するための手段】図1は本発明の原理ブロ
ック図である。同図において、1は入力音声と文節テン
プレートを照合し、認識スコアを出力する照合部、2は
文節群フラグを参照して照合部1において次に照合すべ
き文節を選択する文節選択部、3は格支配文法テーブ
ル、4は次に選択する文節を指示する文節群フラグを格
納した文節群フラグ・テーブル、5は照合部1において
入力音声と照合する文節テンプレートを格納した文節テ
ンプレート格納部、6はビーム・サーチを行うためのビ
ーム・サーチ枝刈り部、7は関連度スコア算出部であ
る。
FIG . 1 is a block diagram showing the principle of the present invention.
FIG. In the figure, 1 is the input voice and phrase ten
The collating unit 2 that collates the plates and outputs the recognition score,
Refer to the clause group flag to make the next collation in collation unit 1.
The phrase selection section for selecting a phrase, 3 is a case governing grammar table
4 and 4 indicate the phrase group flag indicating the phrase to be selected next.
In the collation unit 1, the stored phrase group flag table and 5 are
The phrase table that contains the phrase template that matches the input speech.
Plate storage unit, 6 is a beam search unit for beam search.
Home search pruning unit, and 7 is a relevance score calculation unit.
It

【0006】上記課題を解決するため、本発明の請求項
1の発明は、あらかじめ、文節をその格と意味により文
節群に分類して格支配文法テーブル3に格納しておき、
上記分類結果を参照して、文節の係り受け関係と意味関
係から文節群フラグ・テーブル4の入力音声の文節中に
現れる可能性のある文節群にフラグを立てる。
In order to solve the above-mentioned problems, the invention according to claim 1 of the present invention proposes that a clause is defined in advance according to its case and meaning.
Classify them into clause groups and store them in the case governing grammar table 3,
Referring to the classification result above, the dependency relation and semantic relation of the bunsetsu
In the phrase of the input voice of phrase group flag table 4
Flag any clauses that may appear.

【0007】そして、フラグが立てられた文節群と入力
音声の文節とを照合部1において照合し、フラグが立て
られた文節群に含まれる文節が実際に入力音声の文節中
に現れるかを調べ、その結果に基づき文節を選択し、上
記照合手段が出力する認識スコアに基づき連続文音声を
認識する
[0007] Then, the phrase group and the input
The matching section 1 matches the phrase of the voice, and a flag is set.
Included in the specified phrase group is actually in the phrase of the input speech
, Select a phrase based on the result, and
Based on the recognition score output by the collation means
To recognize .

【0008】本発明の請求項の発明は、請求項1の発
明において、フラグが立てられた文節と入力音声の文節
を上記照合手段により照合した結果、フラグが立てられ
た文節群に含まれる文節が実際に入力音声中の照合でき
た場合、照合した文節に該当する文節群フラグテーブル
のフラグをリセットするようにしたものである。本発明
の請求項の発明は、請求項1または請求項2の発明に
おいて、入力音声の文節と照合する文節候補をビーム・
サーチ枝刈り部6においてビーム・サーチ法により一定
数内に絞るようにしたものである。本発明の請求項
発明は、請求項1,2または請求項3の発明において、
関連度スコア算出部7において、文節間の関連度から関
連度スコアを算出し、算出された関連度スコアを入力音
声の照合結果に付加するようにしたものである
According to a second aspect of the present invention, in the first aspect of the invention, the flagged phrase and the input voice phrase are included.
As a result of collating with the above collating means, a flag is set.
The phrase included in the phrase group can be matched in the input voice.
If it is, the clause group flag table corresponding to the matched clause
The flag of is reset . According to a third aspect of the present invention, in the first or second aspect of the invention, a bunsetsu candidate to be collated with a bunsetsu of the input voice is beamed.
Fixed by the beam search method in the search pruning unit 6
I tried to narrow it down to a number. The invention of claim 4 of the present invention is the same as the invention of claim 1, 2 or 3 ,
In the relevance score calculation unit 7, the relation is calculated from the relation between the phrases.
Calculate the degree of relevance score and input the calculated relevance score.
It is added to the result of voice verification .

【0009】本発明の請求項5の発明は、請求項4の発
明において、文節間の関連度データとして、文節間の共
起関係データを用いるようにしたものである。本発明の
請求項6の発明は、請求項4の発明において、文節間の
関連度データとして、文節間の隣接関係データを用いる
ようにしたものである。本発明の請求項7の発明は、請
求項4の発明において、関連度データとして、2つの文
節間関連度データを用い、入力音声の文節と照合する
毎に、その前に照合した文節との関連度スコアを計算し
て記憶しておき、その回の関連度スコアは前回計算した
関連度スコアと、今回計算した関連度スコアとから算出
するようにしたものである。
According to a fifth aspect of the present invention, in the fourth aspect of the invention, co-occurrence relation data between clauses is used as the degree-of-relationship degree data. According to the invention of claim 6 of the present invention, in the invention of claim 4, the adjacency relation data between clauses is used as the degree-of-association degree data. In the invention of claim 7 of the present invention, in the invention of claim 4, as the degree- of- association data, the degree- of- association data between two clauses is used, and each time the term is matched with the clause of the input voice, The relevance score of is calculated and stored, and the relevance score at that time is calculated from the relevance score calculated last time and the relevance score calculated this time.

【0010】本発明の請求項の発明は、請求項の発
明において、前回計算した関連度スコアと今回計算した
関連度スコアの和からその回の関連度スコアを算出する
ようにしたものである。本発明の請求項の発明は、請
求項の発明において、前回計算した関連度スコアと今
回計算した関連度スコアの積からその回の関連度スコア
を算出するようにしたものである。
The invention of claim 8 of the present invention is such that, in the invention of claim 7 , the relevance score of the time is calculated from the sum of the relevance score calculated last time and the relevance score calculated this time. is there. According to the invention of claim 9 of the present invention, in the invention of claim 7 , the relevance score at that time is calculated from the product of the relevance score calculated last time and the relevance score calculated this time.

【0011】本発明の請求項10の発明は、請求項
発明において、前回計算した関連度スコアと今回計算し
た関連度スコアの内、大きい方をその回の関連度スコア
とするようにしたものである。本発明の請求項11の発
明は、請求項の発明において、前回計算した関連度ス
コアと今回計算した関連度スコアの内、小さい方をその
回の関連度スコアとするようにしたものである。
According to the invention of claim 10 of the present invention, in the invention of claim 7 , the larger one of the previously calculated relevance score and the relevance score calculated this time is set as the relevance score for the time. It is a thing. According to the invention of claim 11 of the present invention, in the invention of claim 7 , the smaller one of the relevance score calculated last time and the relevance score calculated this time is set as the relevance score of the time. .

【0012】本発明の請求項12の発明は、請求項
発明において、前回計算した関連度スコアと今回計算し
た関連度スコアの平均値からその回の関連度スコア求め
るようにしたものである。
According to a twelfth aspect of the present invention, in the seventh aspect of the invention, the relevance score for the current time is obtained from the average value of the relevance score calculated last time and the relevance score calculated this time. .

【0013】[0013]

【作用】本発明の請求項1,2の発明においては、文節
をその格と意味により文節群に分類して格支配文法テー
ブル3に格納しておき、上記分類結果を参照して、文節
の係り受け関係と意味関係から入力音声の文節中に現れ
る可能性のある文節群にフラグを立て、フラグが立てら
れた文節群と入力音声の文節を照合し、その結果に基づ
き、文節を選択し、上記照合手段が出力する認識スコア
に基づき連続文音声を認識し、また、フラグが立てられ
た文節と入力音声の文節を上記照合手段により照合した
結果、フラグが立てられた文節群に含まれる文節が実際
に入力音声中の照合できた場合、照合した文節に該当す
る文節群フラグテーブルのフラグをリセットするように
したので、係り受け関係や意味関係を考慮して効率よく
連続文音声入力を認識することができ、連続文音声認識
の性能を向上させることができる。
According to the first and second aspects of the present invention , the clause
Are classified into bunsetsu groups according to their case and meaning, and the case governing grammar table
Bullet 3 and refer to the classification result above
It appears in the phrase of the input voice from the dependency relation and the semantic relation of
Flags a group of clauses that may
The phrase group of the input speech is matched with the phrase group that was input, and based on the result.
Recognition score output by the matching means
Recognize continuous sentence speech based on
The matching phrase and the phrase of the input voice were matched by the matching means.
As a result, the clauses included in the flagged clause group are actually
If the input voice can be matched, the matching phrase is found.
To reset the flags in the clause group flag table
Therefore , the continuous sentence voice input can be efficiently recognized in consideration of the dependency relation and the semantic relation, and the performance of the continuous sentence voice recognition can be improved.

【0014】本発明の請求項の発明においては、入力
音声の文節と照合する文節候補をビーム・サーチによ
り一定数内に絞るようにしたので、照合のための計算量
を減少させることができる。本発明の請求項ないし請
求項12の発明においては、文節間の関連度から関連度
スコアを算出し、算出された関連度スコアを入力音声の
照合結果に付加するようにしたので、より正確に連続文
音声入力を認識することができる。
In the invention of claim 3 of the present invention, since the bunsetsu candidates to be matched with the bunsetsu of the input voice are narrowed down to a fixed number by the beam search method , calculation for matching is performed. The amount can be reduced. In the inventions of claims 4 to 12 of the present invention, the relevance score is calculated from the relevance between clauses, and the calculated relevance score is added to the matching result of the input voice. It can recognize continuous sentence voice input.

【0015】[0015]

【実施例】図2は本発明の第1の実施例を示す図であ
り、同図において、11は入力音声と文節テンプレート
をダイナミック・プログラミングにより照合し、認識ス
コアを出力するDP照合部、12は文節群フラグを参照
してDP照合部11において次に照合すべき文節を選択
する文節選択部、13は格支配文法を格納した格支配文
法テーブル、14は次に選択する文節を指示する文節群
フラグを格納した文節群フラグ・テーブル、15はDP
照合部11において入力音声と照合する文節テンプレー
トを格納した文節テンプレート格納部である。
FIG. 2 is a diagram showing a first embodiment of the present invention. In FIG. 2, 11 is a DP collating unit for collating an input voice with a phrase template by dynamic programming and outputting a recognition score, 12 Is a phrase selection unit that selects the phrase to be matched next in the DP matching unit 11 by referring to the phrase group flag, 13 is a case governing grammar table that stores the case governing grammar, and 14 is a phrase that indicates the phrase to be selected next. Clause group flag table storing group flags, 15 is DP
It is a phrase template storage unit that stores a phrase template to be matched with the input voice in the matching unit 11.

【0016】図3は格支配文法テーブル13の構成の一
例を示す図であり、同図に示すように格支配文法テーブ
ル13には、動詞、名詞句等の係り受け関係、すなわ
ち、動詞、名詞句等の文節と、その文節がきた場合には
次のどの文節がくるかという対応関係が格納されてい
る。例えば、「行く」という動詞に係る可能性のある文
節として「私が」、「太郎が」等の「(人)が」という
文節と、「学校へ」、「病院へ」といった「(場所)
へ」のような文節がありうることが記述されている。ま
た、例えば、名詞句の前に形容詞がくるといったことも
同様に記述されている。
FIG. 3 is a diagram showing an example of the structure of the case governing grammar table 13. As shown in FIG. 3, the case governing grammar table 13 has a dependency relation of verbs, noun phrases, etc., that is, verbs and nouns. The correspondence relation between a phrase such as a phrase and, when the phrase comes, which next phrase comes is stored. For example, the phrase "(person) ga" such as "I am" or "Taro ga" and the phrase "(place) such as" to school "or" to hospital "may be associated with the verb" go ".
It is described that there can be a clause like "he". Further, for example, it is also described that an adjective comes before a noun phrase.

【0017】なお、文の順序では「行く」という動詞は
一般に文の最後にくるが、日本語の場合には、前から後
ろへの係り受け関係により次に続く文節が決まってくる
ため、認識は後ろからやっていった方が文法の制限をよ
り明確に反映させることができる。したがって、認識時
には、文末の「行く」から認識していき、「行く」の次
に「場所へ」あるいは「人が」等がくることとなる。
In the sentence order, the verb "go" generally comes to the end of the sentence, but in the case of Japanese, the sentence that follows is determined by the dependency relation from the front to the rear. Can reflect the restrictions of grammar more clearly if you go from behind. Therefore, at the time of recognition, recognition starts from "go" at the end of the sentence, and "go to" is followed by "to a place" or "a person".

【0018】図4(a)は文節群フラグ・テーブル14
の構成を示す図であり、文節群フラグ・テーブル14に
は同図に示すように、動詞、名詞句、形容詞等とそれら
の文節群フラグが格納され、これら文節群フラグは、格
支配文法テーブル13を参照した結果、照合された文節
の次にくると予測される文節に○が付与され、それ以外
の文節および照合済の文節には×が付与される。
FIG. 4A shows a clause group flag table 14.
As shown in the figure, the bunsetsu group flag table 14 stores verbs, noun phrases, adjectives, and their bunsetsu group flags. These bunsetsu group flags are stored in the case dominance grammar table. As a result of referring to 13, the circles are given to the clauses predicted to come after the matched clauses, and the crosses are given to the other clauses and the matched clauses.

【0019】図4(b)は文節群フラグ・テーブル14
の文節群フラグの変化の様子を示す図であり、同図は
「私が 学校へ 行く」という文音声を認識する場合の
文節群フラグの状態を示している。同図により、一例と
して上記のように「私が 学校へ 行く」という文音声
を認識する場合の文節群フラグの付与について説明す
る。 前述したように連続文を認識する場合には文音声の
末尾から認識が行われ、日本語文においては通常動詞が
文末にくるので文節群フラグ・テーブル14には最初、
動詞の全てに○が付与されている。ついで、動詞として
「行く」が認識されると文節群フラグ・テーブル14に
格納された動詞の文節群フラグに×が付与される。 格支配文法テーブル13を参照して動詞「行く」の
次にくる文節が予測され、その結果、「行く」の場合に
は「(場所)へ」、「(人)が」が関係ある文節として
見いだされるので、図4(イ)に示すように、「(場
所)へ」、「(人)が」に○が付与され、「(場所)
で」には×が付与される。 「行く」の次にくる文節を照合した結果、例えば、
「学校へ」という文節が認識された場合には、「(場
所)へ」という文節に×が付与される。これは、単文に
おいは、同種の格支配が2以上表れることはほとんどな
いというルールを利用している。
FIG. 4B shows the clause group flag table 14.
Is a diagram showing how the bunsetsu group flag changes, and shows the state of the bunsetsu group flag when recognizing the sentence voice "I go to school". As an example, the addition of the phrase group flag when recognizing the sentence voice "I go to school" as described above will be described with reference to FIG. As described above, when recognizing a continuous sentence, recognition is performed from the end of the sentence voice, and in a Japanese sentence, the verb usually comes to the end of the sentence, so that the phrase group flag table 14 is
○ is given to all of the verbs. Then, when “go” is recognized as the verb, “x” is added to the clause group flag of the verb stored in the clause group flag table 14. By referring to the case dominance grammar table 13, the phrase that comes after the verb "go" is predicted, and as a result, in the case of "go", "(place) to" and "(person) ga" are relevant phrases. Since it is found, as shown in Fig. 4 (a), "to (place)" and "(person)" are marked with "(place)".
X is added to "de". As a result of matching the phrase that comes after "go", for example,
When the phrase “to school” is recognized, a cross is attached to the phrase “to (place)”. This uses the rule that a simple sentence rarely shows more than one case of the same type.

【0020】その結果、文節群フラグ・テーブル14の
文節群フラグの状態は図4(ロ)に示すように、
「(人)が」に○が付与されている状態となる。 「学校へ」の次の文節を照合した結果、次の文節が
「私が」であることが認識されると、文節群フラグ・テ
ーブル14の「(人)が」の文節のフラグに×が付与さ
れ、文節群フラグの状態は図4(ハ)に示す状態とな
る。
As a result, the state of the clause group flag in the clause group flag table 14 is as shown in FIG.
A circle is given to "(person) ga". As a result of collating the next phrase of "to school", if the next phrase is recognized as "I", an X is added to the flag of the phrase "(person) ga" in the phrase group flag table 14. The state of the added phrase group flag becomes the state shown in FIG.

【0021】結果として、全ての文節群フラグに×がつ
くことになるので、この文の認識は終了したということ
となる。なお、上記例においては、全ての文節群フラグ
が×になり、認識を終了することができたが、文法の書
き方によってはいつまでたっても文の終わりが検出でき
ないこともあり得る。そのため、例えば、認識できる文
節の数を制限するなどにより、上記問題を回避すること
が可能である。
As a result, x is added to all clause group flags, which means that the recognition of this sentence is completed. In the above example, all the bunsetsu group flags became x, and the recognition could be ended. However, depending on how the grammar is written, the end of the sentence may not be detected forever. Therefore, the above problem can be avoided by limiting the number of recognizable phrases.

【0022】図5は文節選択部12における処理を示す
フローチャートであり、同図、図3および図4を用いて
図2に示す第1の実施例について説明する。文節選択部
12はまず、文節群フラグとDPの初期状態(照合結果
が入力されていない状態)をキューに入れる(図5のス
テップS1)。初期状態においては、文節群フラグは前
述したように動詞の文節に○が付与されている。
FIG. 5 is a flow chart showing the processing in the phrase selecting unit 12, and the first embodiment shown in FIG. 2 will be described with reference to FIG. 3, FIG. 3 and FIG. The phrase selection unit 12 first puts the phrase group flag and the initial state of the DP (a state in which the collation result is not input) into the queue (step S1 in FIG. 5). In the initial state, the bunsetsu group flag has a circle attached to the verb bunsetsu as described above.

【0023】なお、DPの照合結果は文節の各部分まで
の照合結果からなる数字列であり、初期状態において
は、上記数字列に無限大の記号が記されている。つい
で、ステップS2において、キューが空か否が判別さ
れ、キューが空の場合には終了する。キューが空でない
場合(初期状態においては、キューにはステップS1に
おいて入力された文節群フラグとDPの初期状態が入力
されている)、ステップS3に行き、キューから文節群
フラグとDPの結果を取り出す。また、Iを初期状態で
あるI=1とする。
The DP matching result is a number string consisting of matching results up to each part of the phrase, and in the initial state, an infinite symbol is written in the number string. Then, in step S2, it is determined whether or not the queue is empty, and if the queue is empty, the process ends. If the queue is not empty (in the initial state, the queue has the phrase group flag input in step S1 and the initial state of DP), go to step S3, and obtain the result of the clause group flag and DP from the queue. Take it out. Further, I is set to I = 1 which is the initial state.

【0024】ステップS4において、Iの値が図2の文
節テンプレート格納部15に格納された文節テンプレー
ト登録文節数より大きいか否かが判別され、Iの値が文
節テンプレート登録文節数より大くなった場合には、そ
の文節について文節テンプレートとの照合が終了したも
のとしてステップS2に戻り、キューが空であるか否か
を判別し、空でない場合には、ステップS3に行く。
In step S4, it is determined whether or not the value of I is greater than the number of clause template registration clauses stored in the clause template storage unit 15 of FIG. 2, and the value of I becomes greater than the number of clause template registration clauses. If so, the process returns to step S2 on the assumption that the matching with the phrase template for the phrase is completed, and it is determined whether or not the queue is empty. If not, the process proceeds to step S3.

【0025】また、Iの値が文節テンプレート登録文節
数より小さい場合には、ステップS5に行き、Bに文節
テンプレートより取り出した第I番目の文節を入れる。
ついで、ステップS6に行き、文節テンプレートより取
り出した第I番目の文節について、文節群フラグ・テー
ブル14を参照してその文節に文節群フラグが立ってい
る(○が付されている)か否かを判別する。そして、文
節群フラグが立っていない場合にはステップS8に行
き、Iに1を加えてステップS4に戻る。
If the value of I is smaller than the number of registered phrase templates, the process goes to step S5, and the I-th phrase extracted from the phrase template is put in B.
Next, in step S6, with respect to the I-th bunsetsu extracted from the bunsetsu template, the bunsetsu group flag table 14 is referred to and whether or not the bunsetsu group flag is set (marked with a circle) is checked. To determine. If the phrase group flag is not set, the process goes to step S8, 1 is added to I, and the process returns to step S4.

【0026】また、文節群フラグが立っている場合に
は、ステップS7に行き、図2のDP照合部11に、入
力された音声データと文節テンプレートより取り出した
I番目の文節Bとの照合を行わせるとともに、文節群フ
ラグ・テーブル14に格納された文節群フラグを更新す
る。すなわち、前記したように照合済の文節について、
文節群フラグを○から×にする。
If the phrase group flag is set, the process proceeds to step S7, where the DP collation unit 11 in FIG. 2 compares the input voice data with the I-th phrase B extracted from the phrase template. At the same time, the phrase group flag stored in the phrase group flag table 14 is updated. That is, as described above, for the matched clauses,
Change the clause group flag from ○ to ×.

【0027】上記処理が終わると、DP照合部11にお
ける照合結果と、更新された文節群フラグ・テーブルを
キューに入れる。ついで、ステップS8に行き、Iに1
を加算してステップS4に戻り、文節テンプレート格納
部15に格納された次の文節テンプレートについて、上
記と同様にDP照合と、文節群フラグ更新処理を行う。
When the above processing is completed, the collation result in the DP collation unit 11 and the updated clause group flag table are put in a queue. Then go to step S8 and set 1 for I
Is added and the process returns to step S4, and for the next phrase template stored in the phrase template storage unit 15, the DP collation and the phrase group flag updating process are performed in the same manner as above.

【0028】以上のようにして、文節テンプレート格納
部15に格納された全ての文節テンプレートと入力音声
の照合が終わると、ステップS4からステップS2に戻
り、キューが空か否かを判断して、空でない場合には、
ステップS3に行く。ステップS3においては、キュー
から文節群フラグとDPの結果を取り出し、I=1とし
て、入力音声の次の文節について、キューから取り出し
た文節群フラグとDPの結果を基に上記と同様、DP照
合と文節群フラグの更新処理を行う。
As described above, when all the phrase templates stored in the phrase template storage unit 15 have been collated with the input voice, the process returns from step S4 to step S2 to judge whether or not the queue is empty. If not empty,
Go to step S3. In step S3, the bunsetsu group flag and the result of the DP are taken out from the queue, I = 1 is set, and for the next bunsetsu of the input voice, based on the bunsetsu group flag taken from the queue and the result of the DP, the DP collation is performed in the same manner as above. And update the clause group flag.

【0029】以上のように、図5の処理においは、文節
テンプレート格納部15に格納された各テンプレートの
内、文節群フラグが付された文節のテンプレートと入力
音声の最初の文節(文末の文節)とをDP照合部11に
おいて、順次、照合するともに文節群フラグを更新し、
照合結果と更新された文節群フラグをキューに格納す
る。
As described above, in the processing of FIG. 5, among the templates stored in the clause template storage unit 15, the template of the clause to which the clause group flag is added and the first clause of the input speech (the clause at the end of the clause) ) And the DP collating unit 11 sequentially collates and updates the clause group flag,
The collation result and the updated clause group flag are stored in the queue.

【0030】ついで、次の入力音声の文節と、文節テン
プレート格納部15に格納された各テンプレートの内、
文節群フラグが付された文節のテンプレートとを上記と
同様に照合し、DP照合結果を、キューに格納された最
初の文節のDP照合結果を基にしてつなげていく。そし
て、DP照合結果と更新された文節群フラグを前記した
ように、キューに格納する。
Next, among the phrases of the next input speech and each template stored in the phrase template storage unit 15,
Similar to the above, the clause templates to which the clause group flag is added are collated, and the DP collation result is connected based on the DP collation result of the first clause stored in the queue. Then, the DP collation result and the updated clause group flag are stored in the queue as described above.

【0031】以下同様に、入力音声の各文節と文節テン
プレートを順次照合していき、前記したように、文節群
フラグがすべて×状態になると、照合を終了する。そし
て、DP照合部11は連続文音声の各文節のDP照合結
果をつなげて得られた連続文音声に対する複数のDP照
合結果より認識スコア求めて出力し、この認識スコアの
最も高いものを入力音声の認識結果とする。
Similarly, each phrase of the input voice is sequentially collated with the phrase template. As described above, the collation ends when all the phrase group flags are in the x state. Then, the DP matching unit 11 obtains and outputs a recognition score from a plurality of DP matching results for continuous sentence speech obtained by connecting the DP matching results of each clause of the continuous sentence speech, and outputs the recognition score having the highest recognition score. And the recognition result.

【0032】図6は本発明の第2の実施例を示す図であ
り、同図において、図2に示した第1の実施例と同一の
ものには同一の符号が付されており、本実施例において
は、第1の実施例のものに、ビームサーチ枝刈り部21
と関連度スコア処理部22と関連度データ格納部23付
加したものであり、その他の構成は第1の実施例と同一
である。
FIG. 6 is a diagram showing a second embodiment of the present invention. In FIG. 6, the same parts as those of the first embodiment shown in FIG. In the embodiment, the beam search pruning unit 21 is the same as that of the first embodiment.
And the degree-of-association score processing unit 22 and the degree-of-association data storage unit 23 are added, and other configurations are the same as those in the first embodiment.

【0033】図7はビーム・サーチの概念を示す図であ
り、同図を参照して、本実施例におけるビーム・サーチ
について説明する。連続文音声認識は基本的には、前記
したように、入力音声の各文節のDP照合結果(これを
以下、DPプレーンという)をつなぐことにより実現す
ることができ、図7は、前記した「私が 学校へ 行
く」という文を例にして上記DPプレーンを図示したも
のである。
FIG. 7 is a diagram showing the concept of the beam search, and the beam search in this embodiment will be described with reference to the figure. Basically, the continuous sentence voice recognition can be realized by connecting the DP matching results (hereinafter, referred to as DP plane) of each clause of the input voice as described above, and FIG. The DP plane is illustrated using the sentence "I go to school" as an example.

【0034】図7に示すように、連続文の認識を行う場
合には、最初に現れる文節(文末の文節)のDPプレー
ンを作成したのち(同図では、最初の現れる文節として
「行く」、「聞く」、「見る」のDPプレーンが例示さ
れている)、各文節について、その後に続き得る文節の
DPプレーンをつなげる(同図では、上記文末の文節に
続いて「学校へ」、「私が」のDPプレーンがつなげら
れている)ことにより、連続認識を行うことができる。
なお、前記したように認識は後ろからやっていった方が
文法の制限をより明確に反映させることができ、図7の
例においては、文末の「行く」等の動詞から照合してい
る。
As shown in FIG. 7, when recognizing a continuous sentence, a DP plane of the first appearing phrase (end of sentence) is created (in the figure, "go" as the first appearing phrase, The DP planes of “listen” and “see” are shown as examples), and the DP planes of the clauses that can follow after each clause are connected (in the figure, after the clause at the end of the clause, “to school”, “I By connecting the DP plane of "ga"), continuous recognition can be performed.
It should be noted that, as described above, it is possible to more clearly reflect the restriction of grammar when recognition is performed from the back, and in the example of FIG. 7, the verb such as “go” at the end of the sentence is used for matching.

【0035】ところで、図2に示した第1の実施例にお
いては、入力された音声の各文節と文節テンプレートと
の照合結果の全てについてDPプレーンを作成し、その
DPプレーンをつなげていくため、全ての可能性につい
てDPマッチングを行うこととなり、計算量が膨大なも
のとなる。そこで、各文節を照合した段階で、その照合
結果による枝刈りによりDPプレーンを伸ばす個数を一
定数に制限すれば、上記計算量を抑えることができる。
By the way, in the first embodiment shown in FIG. 2, since the DP planes are created for all the matching results of each phrase of the inputted voice and the phrase template, and the DP planes are connected, DP matching is performed for all possibilities, and the amount of calculation becomes enormous. Therefore, at the stage of matching each clause, if the number of extending DP planes by pruning based on the matching result is limited to a fixed number, the above calculation amount can be suppressed.

【0036】このような手法がビーム・サーチであり、
図7の例においては、DPプレーンを伸ばす個数を1に
制限した例を示している。すなわち、図2に示した第1
の実施例の場合には、「行く」、「聞く」、「見る」の
全てのDPプレーンに続けて、入力音声の次の文節のD
Pプレーンをつなげていくこととなるため、DPプレー
ンの分岐数が増え計算量が膨大なものとなるが、図7の
ように、「行く」、「聞く」、「見る」の内、最も認識
スコアの高い「行く」のみからDPプレーンを伸ばすこ
とにより、計算量を抑えることができる。
Such a method is beam search,
In the example of FIG. 7, the number of extending DP planes is limited to one. That is, the first shown in FIG.
In the case of the above embodiment, all the DP planes of “go”, “listen”, and “see” are followed by D of the next clause of the input voice.
Since the P planes are connected, the number of branches in the DP plane increases and the amount of calculation becomes enormous, but as shown in FIG. 7, it is the most recognized among “go”, “listen”, and “see”. The amount of calculation can be suppressed by extending the DP plane only from “go” having a high score.

【0037】具体的には、図5のフローチャートにおい
て、キューにDP照合結果と文節群フラグを入れるとき
に、DP照合結果を図6のビーム・サーチ枝刈り部21
に送り、ビーム・サーチ枝刈り部21で文節候補の数を
ビーム幅内に絞り、文節選択部12のキューに送る。す
なわち、DP照合結果の内、ビーム・サーチ枝刈り部2
1において選定される認識スコアの高い1ないし複数の
文節を文節候補として(図7の例においては「行く」が
文節候補として選択されている)、文節選択部12のキ
ューに送る。
Specifically, in the flow chart of FIG. 5, when the DP collation result and the clause group flag are put in the queue, the DP collation result is shown in the beam search pruning unit 21 of FIG.
The beam search pruning unit 21 narrows the number of bunsetsu candidates within the beam width and sends the bunsetsu candidates to the queue of the bunsetsu selecting unit 12. That is, of the DP matching results, the beam search pruning unit 2
One or a plurality of phrases having a high recognition score selected in 1 are sent to the queue of the phrase selecting unit 12 as a phrase candidate (“go” is selected as a phrase candidate in the example of FIG. 7).

【0038】図8は関連度データ格納部23に格納され
た関連度データの一例を示す図であり、同図には、関連
度データとして、一つの文に二つの文節が同時に現れる
可能性を示す値(共起関係データという)が示されてい
る。同図の例においては、例えば「行く」という文節の
前に「今日」という文節が現れる確率は0.3であり、
また、「今日」という文節が2回現れる確率は0である
ことが示されている。
FIG. 8 is a diagram showing an example of the degree-of-association data stored in the degree-of-association data storage 23. In FIG. 8, there is a possibility that two clauses may appear in one sentence at the same time as the degree-of-association data. The indicated value (referred to as co-occurrence relation data) is shown. In the example of the figure, the probability that the phrase "today" appears before the phrase "go" is 0.3,
It is also shown that the probability that the phrase "today" appears twice is 0.

【0039】なお、関連度データとしては、上記例のほ
か、例えば、ある文節が他のある文節と隣合う可能性を
示したデータ等(隣接関係データという)を用いること
もできる。図6の関連スコア処理部は22は上記した関
連度データ格納部23に格納された関連度データを参照
して、関連度スコアを算出する手段であり、文節選択部
12により文節が選択された場合に、その文中の既に選
択された文節との関連度を算出し、DP照合部11にお
ける照合結果に関連度を加算するか、あるいは照合結果
と関連度との積を求めて認識スコアとして出力する。
As the degree-of-association data, in addition to the above example, for example, data indicating the possibility that a certain phrase is adjacent to another certain phrase (referred to as adjacency relation data) can be used. 6 is a means for calculating a relevance score by referring to the relevance score data stored in the relevance score data storage unit 23, and the phrase selecting unit 12 selects a phrase. In this case, the degree of relevance to the already selected phrase in the sentence is calculated, and the degree of relevance is added to the collation result in the DP collation unit 11, or the product of the collation result and the degree of relevance is obtained and output as a recognition score. To do.

【0040】関連度の算出方法としては、例えば、文節
選択部11が「行く」の前の文節として「学校へ」を選
択した場合、図8に示した関連度データから関連度は
0.8と求められる。次に、「学校へ」の前の文節とし
て「私は」が選ばれたときには、図8の関連度データか
ら「学校へ」と「私は」の関連度が0.4であり、この
値と上記した「行く」と「学校へ」の関連度0.8を加
えて、関連度1.2となる。
As a method of calculating the degree of association, for example, when the clause selecting unit 11 selects "to school" as the clause before "go", the degree of association is 0.8 from the degree-of-association data shown in FIG. Is required. Next, when “I am” is selected as the clause before “To school”, the degree of association between “To school” and “I” is 0.4 from the association degree data of FIG. Then, the relevance of 0.8 is added to the above-mentioned “go” and “to school” to obtain a relevance of 1.2.

【0041】さらに、「私は」の次の文節として、「今
日」が選択された場合には、関連度は図8より0.2と
なるから、上記した関連度1.2にこの0.2を加えて
関連度は1.4となる。すなわち、図8に示した関連度
データの値を累積していくことにより、関連度が求めら
れる。上記例においては、関連度の和を算出して複数の
文節の関連度を求める例を示したが、関連度の算出方法
としては、その他種々の方法を採用することができ、例
えば、和のかわりに積を用いることもできる。この場合
には、上記例のように、「行く」と「学校へ」と「私
は」が選択された場合の関連度は0.8×0.4=0.
32となり、さらに、「今日」が選択された場合の関連
度は0.32×0.2=0.064となる。
Further, when "today" is selected as the next clause of "I am", the degree of association is 0.2 according to FIG. By adding 2, the degree of association becomes 1.4. That is, the degree of association is obtained by accumulating the values of the degree-of-association data shown in FIG. In the above example, an example of calculating the sum of the degree of association to obtain the degree of association of a plurality of clauses has been shown, but various other methods can be adopted as the method of calculating the degree of association. Products can be used instead. In this case, as in the above example, the degree of association when “go”, “to school”, and “I am” is selected is 0.8 × 0.4 = 0.
32, and the degree of association when “today” is selected is 0.32 × 0.2 = 0.064.

【0042】また、関連度を求める手法としては、その
他、図8の関連度データから求めた関連度の最大値ma
xを求めたり(この場合、上記のように「行く」と「学
校へ」と「私は」が選択された場合の関連度は0.
8)、あるいは、最小値minを求めたり、さらに、各
関連度値の平均を求める等により、関連度を算出するこ
ともできる。
Further, as a method of obtaining the degree of association, other than this, the maximum value ma of the degree of association obtained from the degree-of-association data of FIG.
x is calculated (in this case, the degree of relevance when “go”, “to school” and “I am” is selected as described above is 0.
8) Alternatively, the degree of association can be calculated by obtaining the minimum value min, and further obtaining the average of the degree of association values.

【0043】次に、図7、図8を参照して図6の第2の
実施例について説明する。図2の示した実施例と同様、
文節テンプレート格納部15に格納された各テンプレー
トの内、文節群フラグが付された文節のテンプレートと
入力音声の最初の文節(文末の文節)とをDP照合部1
1において照合するともに文節群フラグを更新する。こ
の照合結果はDP照合部11よりビームサーチ枝刈り部
21に送られ、ビームサーチ枝刈り部21はDP照合に
より得られた文節候補の数を、認識スコアにより、ビー
ム幅内の一定の数に絞る。
Next, the second embodiment of FIG. 6 will be described with reference to FIGS. 7 and 8. Similar to the embodiment shown in FIG.
Among the templates stored in the phrase template storage unit 15, the template of the phrase to which the phrase group flag is added and the first phrase (the last sentence of the sentence) of the input voice are compared with the DP matching unit 1.
In step 1, the phrase group flag is updated. This matching result is sent from the DP matching unit 11 to the beam search pruning unit 21, and the beam search pruning unit 21 sets the number of phrase candidates obtained by the DP matching to a fixed number within the beam width by the recognition score. squeeze.

【0044】ビームサーチ枝刈り部21により絞られた
文節候補は文選択部12に送られ、キューに入れられ
る。ついで、次の入力音声の文節と、文節テンプレート
格納部15に格納された各テンプレートの内、文節群フ
ラグが付された文節のテンプレートとを上記と同様に照
合する。そして、そのDP照合結果をキューに入力され
ている前の文節の文節候補のDPプレーンにつなげてい
く。
The phrase candidates narrowed down by the beam search pruning unit 21 are sent to the sentence selection unit 12 and put in a queue. Then, the phrase of the next input voice and the template of the phrase to which the phrase group flag is added among the templates stored in the phrase template storage unit 15 are collated in the same manner as above. Then, the DP matching result is connected to the DP plane of the phrase candidate of the previous phrase input to the queue.

【0045】以下同様に、入力音声の各文節と文節テン
プレートを順次照合していき、前記したように、文節群
フラグがすべて×状態になると、照合を終了する。ま
た、関連度スコア処理部22は文選択部12において文
節が選択されたとき、関連度データ格納部23に格納さ
れた関連度データを参照して、前記した手法により関連
度を算出し、DP照合部11の照合結果に関連度を加え
て(例えば、和を求めたり、積を求める)、認識スコア
として出力する。
Similarly, each phrase of the input voice is sequentially collated with the phrase template, and as described above, the collation ends when all the phrase group flags are in the x state. Further, when the phrase is selected by the sentence selection unit 12, the relevance score processing unit 22 refers to the relevance data stored in the relevance data storage unit 23 to calculate the relevance by the above-described method, The degree of relevance is added to the matching result of the matching unit 11 (for example, the sum or the product is calculated), and the result is output as a recognition score.

【0046】図9は本発明の第3の実施例を示す図であ
り、同図において、図6に示した第2の実施例と同一の
ものには同一の符号が付されており、本実施例において
は、第2の実施例の関連度スコア処理部22を関連度ス
コア付加部24と関連度スコア計算部25から構成した
ものであり、その他の構成は図6の実施例と同一であ
る。
FIG. 9 is a diagram showing a third embodiment of the present invention. In FIG. 9, the same parts as those of the second embodiment shown in FIG. In the embodiment, the relevance score processing unit 22 of the second embodiment is composed of a relevance score addition unit 24 and a relevance score calculation unit 25, and other configurations are the same as those of the embodiment of FIG. is there.

【0047】図9の実施例において、関連度スコア計算
部25は関連度データ格納部23に格納された関連度デ
ータを参照して、前記したように関連度データの和、積
等から関連度スコアを計算し、関連度スコア付加部24
に出力する。関連度スコア付加部24は関連度スコア計
算部25により求められた関連度スコアをDP照合部1
1が出力する認識スコアに付加して(例えば、前記した
ように、認識スコアに関連度スコアを加算、もしくは掛
けて)、認識スコアを出力する。
In the embodiment shown in FIG. 9, the relevance score calculator 25 refers to the relevance data stored in the relevance data storage 23 and determines the relevance from the sum, product, etc. of the relevance data as described above. The score is calculated and the relevance score adding unit 24
Output to. The relevance score adding unit 24 uses the relevance score obtained by the relevance score calculation unit 25 as the DP matching unit 1.
1 is added to the recognition score output (for example, as described above, the recognition score is added to or multiplied by the relevance score) to output the recognition score.

【0048】[0048]

【発明の効果】以上説明したことから明らかなように、
本発明においては、文節をその格と意味により文節群に
分類しておき、上記分類結果を参照して、文節の係り受
け関係と意味関係から入力音声の文節中に現れる可能性
のある文節群にフラグを立て、フラグが立てられた文節
群と入力音声の文節を照合し、フラグが立てられた文節
群に含まれる文節が実際に入力音声の文節中に現れるか
を調べ、その結果に基づき文節を選択し、上記照合手段
が出力する認識スコアに基づき連続文音声を認識する
うにしたので、係り受け関係や意味関係を考慮して効率
よく連続文音声入力を認識することができ、連続文音声
認識の性能を向上させることができる。
As is apparent from the above description,
In the present invention, bunsetsus are classified into bunsetsu groups according to their case and meaning, and with reference to the above classification result, bunsetsu groups that may appear in the bunsetsu of the input speech from the dependency relation and semantic relation of the bunsetsu. Flag, match the flagged phrase group with the phrase of the input voice, and flagged phrase
Does the phrase contained in the group actually appear in the phrase of the input speech?
And select a phrase based on the result,
Since the continuous sentence speech is recognized based on the recognition score output by, the continuous sentence speech input can be efficiently recognized in consideration of the dependency relation and the semantic relation. The performance can be improved.

【0049】また、入力音声の文節と照合する文節候補
をビーム・サーチにより一定数内に絞るようにすること
により、照合のための計算量を減少させることができ
る。さらに、文節間の関連度から関連度スコアを算出
し、算出された関連度スコアを入力音声の照合結果に付
加することにより、より正確に連続文音声入力を認識す
ることができる。
Further, by limiting the number of phrase candidates to be matched with the phrase of the input voice to a certain number by beam search, the amount of calculation for matching can be reduced. Furthermore, by calculating the relevance score from the relevance between phrases and adding the calculated relevance score to the matching result of the input voice, it is possible to recognize the continuous sentence voice input more accurately.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の原理ブロック図である。FIG. 1 is a principle block diagram of the present invention.

【図2】本発明の第1の実施例を示す図である。FIG. 2 is a diagram showing a first embodiment of the present invention.

【図3】格支配文法テーブルの一例を示す図である。FIG. 3 is a diagram showing an example of a case dominance grammar table.

【図4】文節群フラグ・テーブルの一例を示す図であ
る。
FIG. 4 is a diagram showing an example of a clause group flag table.

【図5】文節選択部における処理を示すフローチャート
である。
FIG. 5 is a flowchart showing processing in a phrase selecting unit.

【図6】本発明の第2の実施例を示す図である。FIG. 6 is a diagram showing a second embodiment of the present invention.

【図7】ビーム・サーチの概念を示す図である。FIG. 7 is a diagram showing the concept of beam search.

【図8】関連度データの一例を示す図である。FIG. 8 is a diagram showing an example of association degree data.

【図9】本発明の第3の実施例を示す図である。FIG. 9 is a diagram showing a third embodiment of the present invention.

【符号の説明】[Explanation of symbols]

11 DP照合部 12 文節選択部 13 格支配文法テーブル 14 文節群フラグ・テーブル 15 文節テンプレート格納部 21 ビームサーチ枝刈り部 22 関連度スコア処理部 23 関連度データ 24 関連度スコア付加部 25 関連度スコア計算部 11 DP collator 12 clause selection section 13 Case rule grammar table 14 clause group flag table 15 clause template storage 21 Beam search pruning unit 22 Relevance score processing unit 23 Relevance data 24 Relevance score adder 25 Relevance score calculator

フロントページの続き (56)参考文献 特開 昭63−128467(JP,A) 特開 昭63−311398(JP,A) 特開 平3−180899(JP,A) 小島英樹 他,深層格を用いた係り受 け解析による日本語文音声の認識,日本 音響学会平成4年度秋季研究発表会講演 論文集,日本,1992年10月 5日,2− Q−9,p.189−190 小島英樹 他,連続音声認識技術,F UJITSU,日本,1998年 1月12 日,Vol.49 No.1,p.71−75 鈴木良弥,格構造を利用した日本語音 声認識,日本音響学会平成4年度春季講 演論文集,日本,1992年 3月,3−1 −7,p.83−84 (58)調査した分野(Int.Cl.7,DB名) G10L 15/12 G10L 15/18 G10L 15/28 JICSTファイル(JOIS)Continuation of the front page (56) References JP 63-128467 (JP, A) JP 63-311398 (JP, A) JP 3-180899 (JP, A) Hideki Kojima et al. Recognizing Japanese Sentences by Dependency Analysis, Proceedings of the 1992 Autumn Meeting of the Acoustical Society of Japan, Japan, October 5, 1992, 2-Q-9, p. 189-190 Hideki Kojima et al., Continuous speech recognition technology, FUJITSU, Japan, January 12, 1998, Vol. 49 No. 1, p. 71-75 Yoshiya Suzuki, Japanese voice recognition using case structure, The Acoustical Society of Japan 1992 Spring Lecture Proceedings, Japan, March 1992, 3-1-7, p. 83-84 (58) Fields surveyed (Int.Cl. 7 , DB name) G10L 15/12 G10L 15/18 G10L 15/28 JISST file (JOIS)

Claims (12)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 文節照合により連続文音声を認識する連
続文音声認識装置であって、 文節をその格と意味により文節群に分類して格納した格
支配文法テーブルと、 次に選択する文節を指示する文節群フラグを格納した文
節群フラグ・テーブルと、 入力音声を照合し、認識スコアを出力する照合手段と、 上記文節フラグを参照して、上記照合手段において次に
照合すべき文節を選択する文節選択手段とを備え、 上記文節選択手段は、上記格支配文法テーブルを参照し
て、上記文節群フラグ・テーブルの入力音声の文節中に
現れる文節群にフラグを立て、 フラグが立てられた文節と入力音声の文節を上記照合手
段により照合し、フラグが立てられた文節群に含まれる
文節が実際に入力音声の文節中に現れるかを調べ、その
結果に基づき文節を選択し、 上記照合手段が出力する認識スコアに基づき連続文音声
を認識することを特徴とする連続文音声認識装置。
1. A continuous-sentence speech recognition apparatus for recognizing continuous-sentence speech by phrase matching, wherein a case-dominant grammar table in which clauses are classified and stored according to their case and meaning, and a clause to be selected next A clause group flag table that stores the clause group flag to be instructed, a collating means that collates the input voice and outputs a recognition score, and refers to the clause flag to select the clause to be collated next in the collating means. The phrase selecting means refers to the case governing grammar table, flags the phrase group appearing in the phrase of the input speech of the phrase group flag table, and sets the flag. The bunsetsu and the bunsetsu of the input speech are collated by the collating means, and it is checked whether or not the bunsetsu included in the bunsetsu group flagged actually appears in the bunsetsu of the input speech, and the bunsetsu is selected based on the result. The continuous sentence voice recognition device is characterized in that the continuous sentence voice is recognized based on the recognition score output by the matching means.
【請求項2】 フラグが立てられた文節と入力音声の文
節を上記照合手段により照合した結果、フラグが立てら
れた文節群に含まれる文節が実際に入力音声中の照合で
きた場合、照合した文節に該当する文節群フラグテーブ
ルのフラグをリセットすることを特徴とする請求項1の
連続文音声認識装置。
2. As a result of matching the flagged phrase and the phrase of the input voice by the matching means, if the phrase included in the flagged phrase group can actually be matched in the input voice, it is matched. 2. The continuous sentence speech recognition apparatus according to claim 1, wherein a flag of the phrase group flag table corresponding to the phrase is reset.
【請求項3】 前記照合手段はビームサーチ法により入
力音声の文節と照合する文節候補を一定数内に絞ること
を特徴とする請求項1または請求項2の連続文音声認識
装置。
3. The continuous sentence speech recognition device according to claim 1, wherein the collating means narrows down the number of phrase candidates to be collated with the phrase of the input voice to a predetermined number by the beam search method.
【請求項4】 文節間の関連度から関連度スコアを算出
し、算出された関連度スコアを入力音声の照合結果に付
加する関連度スコア算出手段を備えたことを特徴とする
請求項1,2または請求項3の連続文音声認識装置。
4. A relevance score calculation means for calculating a relevance score from the relevance between phrases and adding the calculated relevance score to a matching result of input speech. The continuous sentence voice recognition device according to claim 2 or claim 3.
【請求項5】 文節間の関連度データとして、文節間の
共起関係データを用いて関連度スコアを算出することを
特徴とする請求項4の連続文音声認識装置
5. The continuous sentence speech recognition apparatus according to claim 4, wherein the relevance score between the phrases is calculated using the co-occurrence relation data between the phrases.
【請求項6】 文節間の関連度データとして、文節間の
隣接関係データを用いて関連度スコアを算出することを
特徴とする請求項4の連続文音声認識装置
6. The continuous sentence speech recognition device according to claim 4, wherein the relevance score between the phrases is calculated by using the adjacency relation data between the phrases.
【請求項7】 関連度データとして、2つの文節間
連度データを用い、入力音声の文節と照合する毎に、そ
の前に照合した文節との関連度スコアを計算して記憶し
ておき、 その回の関連度スコアは前回計算した関連度スコアと、
今回計算した関連度スコアとから算出することを特徴と
する請求項4の連続文音声認識装置。
As 7. relevance data, using the relationship <br/> communication of data between two clauses, each matching a phrase in the input speech, and calculates the relevance score of clause collated before that Remember, the relevance score of that time is the relevance score calculated last time,
The continuous sentence voice recognition device according to claim 4, wherein the continuous sentence voice recognition device is calculated from the relevance score calculated this time.
【請求項8】 前回計算した関連度スコアと今回計算し
た関連度スコアの和からその回の関連度スコアを算出す
ることを特徴とする請求項7の連続文音声認識装置
8. The continuous sentence speech recognition device according to claim 7, wherein the relevance score for the current time is calculated from the sum of the relevance score calculated last time and the relevance score calculated this time.
【請求項9】 前回計算した関連度スコアと今回計算し
た関連度スコアの積からその回の関連度スコアを算出す
ることを特徴とする請求項7の連続文音声認識装置
9. The continuous sentence speech recognition apparatus according to claim 7, wherein the relevance score for the current time is calculated from the product of the relevance score calculated last time and the relevance score calculated this time.
【請求項10】 前回計算した関連度スコアと今回計算
した関連度スコアの内、大きい方をその回の関連度スコ
アとすることを特徴とする請求項7の連続文音声認識装
置。
10. The continuous sentence speech recognition apparatus according to claim 7, wherein the larger of the previously calculated relevance score and the relevance score calculated this time is used as the relevance score for the current time.
【請求項11】 前回計算した関連度スコアと今回計算
した関連度スコアの内、小さい方をその回の関連度スコ
アとすることを特徴とする請求項7の連続文音声認識装
置。
11. The continuous sentence speech recognition apparatus according to claim 7, wherein the smaller one of the previously calculated relevance score and the relevance score calculated this time is used as the relevance score for the current time.
【請求項12】 前回計算した関連度スコアと今回計算
した関連度スコアの平均値からその回の関連度スコア求
めることを特徴とする請求項7の連続文音声認識装置。
12. The continuous sentence speech recognition apparatus according to claim 7, wherein the relevance score for the current time is calculated from the average value of the relevance score calculated last time and the relevance score calculated this time.
JP25276792A 1992-09-22 1992-09-22 Continuous sentence speech recognition device Expired - Fee Related JP3425165B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25276792A JP3425165B2 (en) 1992-09-22 1992-09-22 Continuous sentence speech recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25276792A JP3425165B2 (en) 1992-09-22 1992-09-22 Continuous sentence speech recognition device

Publications (2)

Publication Number Publication Date
JPH06102897A JPH06102897A (en) 1994-04-15
JP3425165B2 true JP3425165B2 (en) 2003-07-07

Family

ID=17242016

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25276792A Expired - Fee Related JP3425165B2 (en) 1992-09-22 1992-09-22 Continuous sentence speech recognition device

Country Status (1)

Country Link
JP (1) JP3425165B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2553998B2 (en) * 1992-08-21 1996-11-13 大東植産株式会社 DS greening method
JP3252815B2 (en) 1998-12-04 2002-02-04 日本電気株式会社 Continuous speech recognition apparatus and method
JP4773003B2 (en) * 2001-08-20 2011-09-14 株式会社リコー Document search apparatus, document search method, program, and computer-readable storage medium
JP5243325B2 (en) * 2009-03-30 2013-07-24 Kddi株式会社 Terminal, method and program using kana-kanji conversion system for speech recognition
JP7178890B2 (en) * 2018-12-11 2022-11-28 菱洋エレクトロ株式会社 Speech recognition system and speech recognition device

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
小島英樹 他,深層格を用いた係り受け解析による日本語文音声の認識,日本音響学会平成4年度秋季研究発表会講演論文集,日本,1992年10月 5日,2−Q−9,p.189−190
小島英樹 他,連続音声認識技術,FUJITSU,日本,1998年 1月12日,Vol.49 No.1,p.71−75
鈴木良弥,格構造を利用した日本語音声認識,日本音響学会平成4年度春季講演論文集,日本,1992年 3月,3−1−7,p.83−84

Also Published As

Publication number Publication date
JPH06102897A (en) 1994-04-15

Similar Documents

Publication Publication Date Title
US6501833B2 (en) Method and apparatus for dynamic adaptation of a large vocabulary speech recognition system and for use of constraints from a database in a large vocabulary speech recognition system
Ortmanns et al. Language-model look-ahead for large vocabulary speech recognition
US5634084A (en) Abbreviation and acronym/initialism expansion procedures for a text to speech reader
Bellegarda Latent semantic mapping: Principles and applications
US6385579B1 (en) Methods and apparatus for forming compound words for use in a continuous speech recognition system
EP0527650B1 (en) Speech recognition apparatus
Hori et al. A new approach to automatic speech summarization
US7401019B2 (en) Phonetic fragment search in speech data
Hori et al. A statistical approach to automatic speech summarization
Ostrogonac et al. Morphology-based vs unsupervised word clustering for training language models for Serbian
JP3425165B2 (en) Continuous sentence speech recognition device
US20060136195A1 (en) Text grouping for disambiguation in a speech application
JP2999768B1 (en) Speech recognition error correction device
JP2000259645A (en) Speech processor and speech data retrieval device
JP3794597B2 (en) Topic extraction method and topic extraction program recording medium
JP2965529B2 (en) Voice recognition device
CN111782779A (en) Voice question-answering method, system, mobile terminal and storage medium
JP2905686B2 (en) Voice recognition device
Campbell et al. Discriminative Keyword Selection Using Support Vector Machines.
Hori et al. Automatic summarization of english broadcast news speech
Staš et al. Language model adaptation for Slovak LVCSR
KR100817432B1 (en) A high-speed searching method and system for speech documents using document expansion
JP2817406B2 (en) Continuous speech recognition method
JPH06342298A (en) Speech recognition system
Wutiwiwatchai et al. Hybrid statistical and structural semantic modeling for Thai multi-stage spoken language understanding

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030415

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080502

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090502

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090502

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100502

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees