JPH04253099A - Continuous voice recognition system - Google Patents

Continuous voice recognition system

Info

Publication number
JPH04253099A
JPH04253099A JP3010234A JP1023491A JPH04253099A JP H04253099 A JPH04253099 A JP H04253099A JP 3010234 A JP3010234 A JP 3010234A JP 1023491 A JP1023491 A JP 1023491A JP H04253099 A JPH04253099 A JP H04253099A
Authority
JP
Japan
Prior art keywords
network
speech recognition
word
continuous speech
words
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3010234A
Other languages
Japanese (ja)
Other versions
JP2817406B2 (en
Inventor
Atsushi Noguchi
淳 野口
Akitoshi Okumura
明俊 奥村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP3010234A priority Critical patent/JP2817406B2/en
Publication of JPH04253099A publication Critical patent/JPH04253099A/en
Application granted granted Critical
Publication of JP2817406B2 publication Critical patent/JP2817406B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To provide the continuous voice recognition system which can recog nize diverse natural sentences at the time of voice recognition and output mean ing expressions. CONSTITUTION:A voice input part 101 analyzes an input voice and outputs the result to a continuous voice recognition part 104. A network storage part 102 is stored with sentences or word strings to be recognized. The continuous voice recognition part 104 selects a word string by matching the pattern of the analytic result of the input voice received from the voice input part 101. An intermediate expression generation part 106 generates an intermediate expression from the ID train of an arc inputted as the recognition result from the continuous voice recognition part 104 and the storage contents of a meaning relation storage part 105 and outputs the generated intermediate expression.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は自動通訳システム,音声
質問応答(QA)システム等において連続的に発声した
音声を認識する連続音声認識方式に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a continuous speech recognition system for recognizing continuously uttered speech in automatic interpretation systems, voice question answering (QA) systems, and the like.

【0002】0002

【従来の技術】音声を用いたマンマシンインターフェー
スは、キーボードのような訓練が必要ないため使いやす
くまた自然であるので実用化が強く望まれている。また
音声も単語単位で発話されたものだけでなく、会話文の
ような連続音声を取り扱える方がより使いやすく自然な
ので望まれている。
2. Description of the Related Art A man-machine interface using voice is easy to use and natural since it does not require training unlike a keyboard, so its practical use is strongly desired. In addition, it is desirable to be able to handle continuous speech, such as conversational sentences, rather than just single-word speech, as this would be easier to use and more natural.

【0003】このような、音声を用いたインターフェー
スを自動通訳システム,音声QAシステム等に使用する
場合は入力音声の一言一句を明らかにするのが主な目的
ではなく、入力音声の意味を取り出すこと、すなわち入
力音声の意味の理解が必要である。
[0003] When such an interface using audio is used for an automatic interpretation system, audio QA system, etc., the main purpose is not to clarify each word of the input audio, but to extract the meaning of the input audio. In other words, it is necessary to understand the meaning of the input speech.

【0004】なぜならば、質問応答システムではユーザ
ーの質問に対して適切に返答するために質問の意味を知
る必要があるし、自動通訳システムでは音声入力に用い
られた言語を英語等の他の言語に適切に変換するために
入力文の意味を明確にする必要があるからである。
[0004] This is because a question answering system needs to know the meaning of a user's question in order to respond appropriately, and an automatic interpretation system requires the user to know the meaning of the question in order to respond appropriately. This is because it is necessary to clarify the meaning of the input sentence in order to convert it appropriately.

【0005】入力音声の認識結果に対して改めて構文解
析,意味解析を行なうことなく、入力音声の自然言語と
しての意味を抽出する音声認識方式としては特願平2−
72889号記載の「連続音声認識方式」(以下文献1
と称す)がある。文献1では音声認識用のオートマトン
で受理される単語列中の単語と単語の意味的な関係を、
その単語列がオートマトンに受理されたときにそれぞれ
の単語が対応する状態遷移列どうしの意味関係としてあ
らかじめ記憶しておくことにより入力音声の音声認識結
果に対して構文解析,意味解析を改めて行なうことなく
入力音声の自然言語としての意味を抽出する音声認識方
式を提案している。
[0005] As a speech recognition method that extracts the meaning of input speech as a natural language without performing syntactic analysis or semantic analysis on the recognition result of input speech, Japanese Patent Application No.
"Continuous speech recognition method" described in No. 72889 (hereinafter referred to as Document 1)
). In Reference 1, the semantic relationships between words in a word string accepted by an automaton for speech recognition are
When the word string is accepted by the automaton, syntactic analysis and semantic analysis are performed on the speech recognition results of the input speech by storing in advance the semantic relationships between the state transition strings to which each word corresponds. We have proposed a speech recognition method that extracts the meaning of input speech as a natural language.

【0006】[0006]

【発明が解決しようとする課題】しかしながら文献1の
音声認識方式では、例えば、その認識された文の時制や
丁寧文,疑問文等の文の種類を中間表現中に表すことに
ついては考察されていなかった。
[Problem to be Solved by the Invention] However, in the speech recognition method of Document 1, there is no consideration given to representing the tense of the recognized sentence, the type of sentence such as polite sentence, interrogative sentence, etc. in the intermediate representation. There wasn't.

【0007】また、有限オートマトンを用いた方法と同
等の処理量で文脈自由文法を扱うことができる音声認識
方式として、1989年電子情報通信学会春季全国大会
「拡張遷移網を用いた連続音声認識の一方式」(以下文
献2と称す)(吉田和永、渡辺隆夫)がある。拡張遷移
網(以下ATNと記す)を用いた音声認識は、(1)サ
ブネットワークの呼び出しにより文脈自由文法が扱える
。 (2)レジスタとそのレジスタをテストする機構より履
歴を考慮した処理を行ない、語順自由,共起関係,係受
けを扱うことができる。 等の自然言語を記述するための高い能力を有している。
[0007] Furthermore, as a speech recognition method that can handle context-free grammars with the same amount of processing as a method using finite automata, the 1989 Institute of Electronics, Information and Communication Engineers Spring National Conference ``Continuous Speech Recognition Using Extended Transition Networks'' There is a "one-way method" (hereinafter referred to as Document 2) (Kazunaga Yoshida, Takao Watanabe). Speech recognition using an Augmented Transition Network (hereinafter referred to as ATN) can handle (1) context-free grammars by calling subnetworks; (2) Processing that takes history into account is performed using a register and a mechanism that tests the register, and word order freedom, co-occurrence relationships, and dependency can be handled. He has a high ability to describe natural languages such as

【0008】しかしながら、文献1の音声認識方法では
、文献2のように認識用ネットワークがサブネットを持
つ場合についての考察がなされていなかった。
[0008] However, the speech recognition method of Document 1 does not consider the case where the recognition network has a subnet as in Document 2.

【0009】また、例えば日本語による音声対話におい
て“(あなたは)学校にいくの?”“(わたしは)バー
シアのコンサートのチケットが欲しい。”のように良く
主語が省略されるので中間表現を作成する際に省略され
た要素を補わなくてはならないが、文献1の音声認識方
法ではその考察がなされていない。
[0009] Also, in spoken dialogue in Japanese, for example, the subject is often omitted, as in "Are you going to school?" and "I want tickets to Basia's concert." It is necessary to supplement the omitted elements when creating the speech recognition method, but this consideration is not made in the speech recognition method of Document 1.

【0010】本発明の目的は、このような欠点を克服し
て、音声認識の際により自然で多様な文を認識し、かつ
その意味表現を出力することができる連続音声認識方式
を提供することにある。
An object of the present invention is to overcome these drawbacks and provide a continuous speech recognition method that can recognize more natural and diverse sentences during speech recognition and output their meaning expressions. It is in.

【0011】[0011]

【課題を解決するための手段】本発明による連続音声認
識方式は、連続音声認識対象の文法を表現する単語に関
するネットワークを記憶する第1の記憶手段と、単語の
標準パターンを前記ネットワークにしたがって結合して
連続音声を認識する連続音声認識手段と、前記ネットワ
ークにおけるある単語と他の単語の間の意味的な関係及
び各単語に対する素性情報を記憶する第2の記憶手段と
、前記連続音声認識手段から生じる認識結果及び前記第
2の記憶手段からその中間表現を出力する出力手段とを
備えることを特徴とする。
[Means for Solving the Problems] The continuous speech recognition method according to the present invention includes a first storage means for storing a network related to words expressing the grammar of a continuous speech recognition target, and a standard pattern of words that is combined according to the network. continuous speech recognition means for recognizing continuous speech; second storage means for storing semantic relationships between one word and another word in the network and feature information for each word; and the continuous speech recognition means. and an output means for outputting a recognition result generated from the recognition result and an intermediate representation thereof from the second storage means.

【0012】そして、前記連続音声認識手段はあらかじ
め定められた認識単位の標準パターンを前記ネットワー
ク及び各ネットワークから呼ばれるサブネットワークに
したがって結合して連続音声を認識し、前記第1の記憶
手段は連続音声認識対象の文法を表現するネットワーク
及び各ネットワークから呼ばれるサブネットワークを記
憶し、前記出力手段は前記連続音声認識手段から生じる
認識結果及び前記第2の記憶手段のある単語と他の単語
の間の意味的な関係及び前記ネットワーク及びサブネッ
トワーク内の各単語に対する素性情報からその中間表現
を出力することを特徴とする。
[0012] The continuous speech recognition means recognizes continuous speech by combining standard patterns of predetermined recognition units according to the network and sub-networks called from each network, and the first storage means recognizes continuous speech. A network representing a grammar to be recognized and a sub-network called from each network are stored, and the output means stores the recognition result generated from the continuous speech recognition means and the meaning between a certain word and another word of the second storage means. The present invention is characterized in that an intermediate representation thereof is output from the relationship and feature information for each word in the network and sub-network.

【0013】また、ある単語が認識された時に、他の単
語に付与する素性情報を記憶する前記第2の記憶手段と
、前記情報を前記中間表現に付与する付与手段とを備え
ることを特徴とする。
[0013] Also, the present invention is characterized by comprising the second storage means for storing feature information to be added to another word when a certain word is recognized, and the addition means for adding the information to the intermediate expression. do.

【0014】さらに、ある単語が認識された時に、その
単語に付与する素性情報を単語辞書記憶部から取り出し
、前記付与手段は前記情報を前記中間表現に付与するこ
とを特徴とする。
Furthermore, when a certain word is recognized, feature information to be added to the word is retrieved from the word dictionary storage section, and the adding means adds the information to the intermediate expression.

【0015】そして、前記単語辞書記憶部は連続音声認
識対象の文法を表現するネットワーク内に存在しないが
中間表現を作成するために必ず必要な単語を記憶し、前
記出力手段は前記情報をもとに中間表現を作成して出力
することを特徴とする。
[0015] The word dictionary storage unit stores words that do not exist in the network expressing the grammar of the continuous speech recognition target but are absolutely necessary to create an intermediate representation, and the output means stores words that are necessary for creating an intermediate representation. It is characterized by creating and outputting an intermediate representation.

【0016】また、前記単語辞書記憶部は連続音声認識
対象の文法を表現するネットワーク内のある特定の単語
が認識された際に補う単語を記憶し、前記出力手段は前
記情報をもとに中間表現を作成して出力することを特徴
とする。
Further, the word dictionary storage unit stores words to be supplemented when a certain specific word in the network expressing the grammar of the continuous speech recognition target is recognized, and the output means stores intermediate words based on the information. It is characterized by creating and outputting expressions.

【0017】さらに、前記単語辞書記憶部は連続音声認
識対象の文法を表現するネットワーク内のある特定の単
語が認識された際に削除すべき連続音声認識対象の文法
を表現するネットワーク中の特定の単語を記憶し、前記
出力手段は前記情報をもとに中間表現を作成して出力す
ることを特徴とする。
Furthermore, the word dictionary storage section stores a specific word in the network expressing the grammar of the continuous speech recognition target that should be deleted when a specific word in the network expressing the grammar of the continuous speech recognition target is recognized. It is characterized in that words are stored, and the output means creates and outputs an intermediate expression based on the information.

【0018】[0018]

【作用】次に、本発明の作用について説明する。[Operation] Next, the operation of the present invention will be explained.

【0019】図3は本発明の一実施例における意味関係
記憶部の一例を示す図、図4は音声認識用ネットワーク
の第1の例を示す図、図5は図4におけるメインネット
ワーク用の意味関係記憶部の内容の一例を示す図、図6
は図4におけるサブネットワーク用の意味関係記憶部の
内容の一例を示す図、図7は音声認識用ネットワークの
第2の例を示す図、図8は図7におけるネットワークの
中間表現の例を示す図、図9は図7におけるネットワー
ク用の意味関係記憶部の内容の一例を示す図、図10は
音声認識用ネットワークの第3の例を示す図、図11は
図10におけるネットワーク用の意味関係記憶部の内容
の一例を示す図、図12は音声認識用ネットワークの第
4の例を示す図、図13は図12におけるネットワーク
の中間表現の例を示す図、図15は音声認識用ネットワ
ークの第5の例を示す図、図16は音声認識用ネットワ
ークの第6の例を示す図、図17は図16におけるネッ
トワークの中間表現の例を示す図である。
FIG. 3 is a diagram showing an example of a semantic relationship storage unit in an embodiment of the present invention, FIG. 4 is a diagram showing a first example of a speech recognition network, and FIG. FIG. 6 is a diagram showing an example of the contents of the relational storage section.
is a diagram showing an example of the contents of the semantic relation storage unit for the sub-network in FIG. 4, FIG. 7 is a diagram showing a second example of the speech recognition network, and FIG. 8 is a diagram showing an example of an intermediate representation of the network in FIG. 7. 9 is a diagram showing an example of the contents of the semantic relation storage unit for the network in FIG. 7, FIG. 10 is a diagram showing a third example of the speech recognition network, and FIG. 11 is a diagram showing the semantic relation for the network in FIG. 10. A diagram showing an example of the contents of the storage unit, FIG. 12 is a diagram showing a fourth example of the speech recognition network, FIG. 13 is a diagram showing an example of an intermediate representation of the network in FIG. 12, and FIG. 15 is a diagram showing the fourth example of the speech recognition network. FIG. 16 is a diagram showing a sixth example of a speech recognition network, and FIG. 17 is a diagram showing an example of an intermediate representation of the network in FIG. 16.

【0020】例えば今、図16のような音声認識用ネッ
トワークにおいて“私はあさってのバーシアのコンサー
トのチケットが欲しい”という音声が認識されたものと
する。ここで図16において“私は”,“切符”のよう
な各ノードに付してある番号をID番号と呼ぶ。この“
私はあさってのバーシアのコンサートのチケットが欲し
い”という文の中間表現は図17のようになる。図17
の“欲しい”,“あさって”のような各音声認識用ネッ
トワーク中の単語に対応する中間表現内の表記をCPと
呼ぶ。また“受益”、“対象”のように各単語間の関係
を表している表記をCASEと呼ぶ。図17で#文体,
#名詞意味素性のように各CPの横に付与されている情
報を素性情報と呼ぶ。#文体は文型を、#時制は時間を
、#動詞意味分類は動詞の意味分類を、#名詞意味素性
は名詞の意味素性を、#数量は単数・複数を、#ていね
いさは文が丁寧文であることを表す。またそれぞれの{
}内の文字・数字は各素性情報の値を示す。本発明では
、例えば図3において、ネットワークにおけるある単語
と他の単語の間の意味的な関係と、ネットワークにおけ
る各単語に対する素性情報を記憶することにより音声認
識の結果から図17のような中間表現を作成するように
している。この結果、認識された文の時制や丁寧文,疑
問文等の文の種類を中間表現中に表すこができるように
なる。
For example, assume that the voice recognition network shown in FIG. 16 recognizes the phrase "I want tickets to Basia's concert tomorrow." Here, in FIG. 16, the numbers attached to each node such as "I am" and "Ticket" are called ID numbers. this"
The intermediate expression of the sentence "I want tickets for Basia's concert tomorrow" is shown in Figure 17.Figure 17
The notation in the intermediate representation corresponding to the words in each speech recognition network, such as "I want" and "Asatte", is called CP. Also, the notation that expresses the relationship between each word, such as "beneficiary" and "object", is called CASE. In Figure 17, #style,
#The information given next to each CP, such as the noun semantic feature, is called feature information. #Style is the sentence type, #Tense is the time, #Verb semantic classification is the semantic classification of the verb, #Noun semantic feature is the semantic feature of the noun, #Quantity is the singular and plural, #Positiveness is the politeness of the sentence. represents that Also, each {
The letters and numbers in } indicate the value of each feature information. In the present invention, for example, in FIG. 3, by storing the semantic relationship between a certain word and another word in the network and the feature information for each word in the network, an intermediate expression as shown in FIG. I'm trying to create one. As a result, the tense of the recognized sentence and the type of sentence, such as polite sentences and interrogative sentences, can be expressed in the intermediate representation.

【0021】また、文献2のようにATNのような音声
認識用ネットワークを用いる場合について考える。今、
図4のようなメインネットワーク及びサブネットワーク
を用いて認識するとする。図4(a)のメインネットに
おいて例えば“sub日時”というところで図4(b)
で示したサブネットワークに跳んでいる。このとき請求
項2の発明では、例えば図4(a)のネットワークに対
して図5に示すテーブルを、図4(b),(c),(d
)のネットワークに対してそれぞれ図6(a),(b)
,(c)に示すテーブルを用意する。図5のテーブル中
のCPの欄でサブネットを指定することによりサブネッ
ト用のテーブルを参照する。この結果、例えばATNの
ようにメインネットワーク及びそこから呼ばれるサブネ
ットワークがあるようなネットワークを用いた音声認識
結果からも図17のような中間表現を作成することがで
きる。
[0021] Also, consider the case where a voice recognition network such as ATN is used as in Document 2. now,
It is assumed that recognition is performed using a main network and subnetworks as shown in FIG. For example, in the main network of Figure 4 (a), at the "sub date and time", Figure 4 (b)
It jumps to the subnetwork shown in . In this case, in the invention of claim 2, for example, the table shown in FIG. 5 for the network of FIG. 4(a) is
) for the networks shown in Figures 6(a) and (b), respectively.
, (c) are prepared. The subnet table is referenced by specifying the subnet in the CP column in the table of FIG. As a result, it is possible to create an intermediate representation as shown in FIG. 17 even from the speech recognition results using a network such as ATN, which has a main network and sub-networks called from the main network.

【0022】また、図7のような音声認識ネットワーク
において例えば入力音声が“私はチケットを1枚欲しい
”であるときこの中間表現は図8(a)のようになり、
チケットは1枚なのでCP“チケット”の素性情報のう
ち#数量の値は単数をあらわすSINとなる。しかし、
もし入力音声が“私はチケットを2枚欲しい”であると
きこの中間表現は図8(b)のようになり、チケットは
2枚なのでCP“チケット”の素性情報のうち#数量の
値は複数をあらわすPLとなる。
Furthermore, in the speech recognition network shown in FIG. 7, for example, when the input voice is "I want one ticket," the intermediate expression is as shown in FIG. 8(a),
Since there is only one ticket, the value of the # quantity in the background information of the CP "ticket" is SIN representing the singular number. but,
If the input voice is "I want two tickets", this intermediate representation will be as shown in Figure 8(b), and since there are two tickets, the value of # quantity in the background information of CP "ticket" is multiple. PL represents.

【0023】このとき請求項3の発明では、“1枚”や
“2枚”のようなCPの情報がその親のCP“チケット
”の素性情報を決定するので、図9の“親付与情報”の
欄のようにその親のCPの素性情報に付与する情報を記
憶する。この結果、ある単語が認識されたときに他の単
語に素性情報を付与するような場合でも図7のようなネ
ットワークの中間表現を作成することができるようにな
る。
In this case, in the invention of claim 3, since the information of the CP such as "1 ticket" or "2 tickets" determines the background information of the parent CP "ticket", the "parent grant information" shown in FIG. ” column, information to be added to the background information of the parent CP is stored. As a result, even in the case where feature information is added to another word when a certain word is recognized, it becomes possible to create an intermediate representation of the network as shown in FIG. 7.

【0024】ところで、例えば図3の素性情報の欄の記
述のうち#名詞意味素性や#動詞意味分類の値は“私”
や“チケット”のような単語に固有な情報である。した
がって、請求項4の発明では、辞書中にそれぞれの素性
情報を記述しておきこの辞書を参照して#名詞意味素性
や#動詞意味分類のような情報を補う。この結果テーブ
ルの記述が簡素化し、テーブルの記憶容量も削減できる
ようになる。
By the way, for example, among the descriptions in the feature information column of FIG. 3, the values of #noun semantic feature and #verb semantic classification are "I"
This information is unique to words such as "ticket" and "ticket." Therefore, in the invention of claim 4, each feature information is described in a dictionary and this dictionary is referenced to supplement information such as #noun semantic feature and #verb semantic classification. As a result, the table description can be simplified and the storage capacity of the table can be reduced.

【0025】また、例えば日本語の場合、文の主語が省
かれることが多い。図10のネットワークの認識結果の
一つである“あさってのバーシアのコンサートのチケッ
トが欲しい”という音声が入力されたものとする。この
中間表現は図17と同じにならなければならないがCP
“私”に相当する単語が認識結果に存在しない。このと
き請求項5の発明では、音声中では省略されているが中
間表現中に必要なCPを補わなければならないので、例
えば図11のようにID番号の欄がDであるものをディ
フォルトで補うものとする。この結果、音声認識結果に
は存在しないが中間表現作成に必ず必要な単語を補い、
図17のような中間表現が作成できるようになる。
Furthermore, in the case of Japanese, for example, the subject of a sentence is often omitted. Assume that a voice saying "I want tickets to Basia's concert tomorrow", which is one of the recognition results of the network in FIG. 10, is input. This intermediate representation must be the same as in Figure 17, but with CP
The word equivalent to “I” does not exist in the recognition results. In this case, in the invention of claim 5, it is necessary to supplement the CP that is omitted in the voice but is necessary in the intermediate expression, so for example, as shown in FIG. 11, the CP in the ID number column is D by default. shall be taken as a thing. As a result, words that are not present in the speech recognition results but are necessary for creating intermediate expressions are supplemented,
An intermediate representation as shown in FIG. 17 can now be created.

【0026】また、例えば図12のような音声認識用ネ
ットワークがあるとする。今、入力文が例えば“私はバ
ーシアのチケットが欲しい”の場合について考える。こ
の場合意味的には“私はバーシアのコサートのチケット
が欲しい”といっており。“コンサート”という単語が
省略されている。このとき中間表現は図13(a)のよ
うになる。
Further, suppose that there is a voice recognition network as shown in FIG. 12, for example. Now, let's consider the case where the input sentence is, for example, "I want tickets for Basia." In this case, the meaning is "I want tickets to Basia's Cosart." The word “concert” is omitted. At this time, the intermediate representation becomes as shown in FIG. 13(a).

【0027】また、入力文が例えば“私は夢の遊眠社の
チケットが欲しい”であるとする。この場合意味的には
“私は夢の遊眠社の演劇のチケットが欲しい”といって
おり、“演劇”という単語が省略されている。このとき
中間表現は図13(b)のようになる。このとき請求項
6の発明では、ある特定の単語が認識されたときにその
単語ごとに異なった意味を補うものとする。この結果、
ある特定の単語が認識された際に適切な単語を補い正し
い中間表現を作成することができるようになる。
Further, assume that the input sentence is, for example, "I want Yume no Yuminsha tickets." In this case, the meaning is ``I want tickets to Yume no Yuminsha's play,'' and the word ``geki'' is omitted. At this time, the intermediate representation becomes as shown in FIG. 13(b). In this case, in the invention of claim 6, when a certain specific word is recognized, a different meaning is added for each word. As a result,
When a specific word is recognized, it becomes possible to create a correct intermediate expression by adding appropriate words.

【0028】また、図15のような音声認識用ネットワ
ークがある場合について考える。このネットワークは例
えば“私はバーシアのコンサートのチケットが欲しい”
という入力文も、“バーシアのコンサートのチケットが
欲しい”という“私は”という単語が省略された入力文
も受けつける。この中間表現はいずれも図13(a)の
ようになる。
Also, consider the case where there is a voice recognition network as shown in FIG. For example, this network might say, ``I want tickets to Basia's concert.''
It also accepts input sentences such as ``I want tickets to Basia's concert'' where the word ``I am'' is omitted. All of these intermediate representations are as shown in FIG. 13(a).

【0029】このとき請求項5の発明を用いて“私”と
いうCPをディフォルトで補うと音声認識結果中に“私
は”が省略された場合は問題ないが、音声認識結果中に
“私は”が存在する場合に、“欲しい”と’私”の関係
が受益であることを示す木を2本持った誤った中間表現
を作成してしまう。
In this case, if the invention of claim 5 is used to supplement the CP "I" by default, there will be no problem if "I am" is omitted in the speech recognition result, but if "I am" is omitted in the speech recognition result, there will be no problem. ” exists, an incorrect intermediate representation with two trees indicating that the relationship between “I want” and “I” is a beneficiary is created.

【0030】したがって請求項7の発明では、ある特定
の単語が認識された場合に中間表現の一部を削除して意
味表現作成するものとする。この結果、音声認識結果中
である単語が現われる場合と省略される場合の両方があ
る場合も正しい中間表現を作成することができるように
なる。
Therefore, in the seventh aspect of the invention, when a certain specific word is recognized, a part of the intermediate expression is deleted to create a meaning expression. As a result, a correct intermediate expression can be created even when a word appears and is omitted in the speech recognition result.

【0031】[0031]

【実施例】次に、本発明による連続音声認識方式の実施
例について図面を参照して説明する。
[Embodiment] Next, an embodiment of the continuous speech recognition system according to the present invention will be described with reference to the drawings.

【0032】まず、請求項1の発明の一実施例について
説明する。図1は本発明の一実施例を示す構成図である
。図1において、音声入力部101は入力音声をデジタ
ル信号にして分析を行ない、特徴ベクトルの時系列を求
めて連続音声認識部104にその結果を出力する。ネッ
トワーク記憶部102は音声認識の際に認識対象となる
文または単語列を記憶する。ネットワーク中に付された
番号はネットワーク中の各単語を表すアークのID番号
である。図16は図1におけるネットワーク記憶部10
2に記憶される認識用ネットワークの一例を示すもので
ある。このようなネットワークを始端から終端までたど
ることができた時、入力音声はこのネットワークにて受
理されたとする。例えば図16の場合は“私はあすのバ
ーシアのライブの切符が欲しい”、“私はしあさっての
バンヘーレンのコンサートの切符がいい”などの入力音
声を受理することができる。単語標準パターン記憶部は
認識対象の単語の音声の標準パターンをあらかじめ記憶
しており、単語標準パターン記憶部103には、ネット
ワーク中の単語の標準パターンを記憶している。この標
準パターンは例えば音節のようなより小さな単位を連結
したものでも良い。
First, an embodiment of the invention according to claim 1 will be described. FIG. 1 is a block diagram showing one embodiment of the present invention. In FIG. 1, a voice input unit 101 analyzes input voice as a digital signal, obtains a time series of feature vectors, and outputs the results to a continuous voice recognition unit 104. The network storage unit 102 stores sentences or word strings to be recognized during speech recognition. The numbers assigned to the network are the ID numbers of the arcs representing each word in the network. FIG. 16 shows the network storage unit 10 in FIG.
2 shows an example of a recognition network stored in FIG. When such a network can be traced from the beginning to the end, it is assumed that the input voice is accepted by this network. For example, in the case of FIG. 16, input voices such as "I want tickets to Basia's concert tomorrow" and "I want tickets to Van Heeren's concert tomorrow" can be accepted. The word standard pattern storage section stores in advance the standard patterns of sounds of words to be recognized, and the word standard pattern storage section 103 stores standard patterns of words in the network. This standard pattern may be a concatenation of smaller units, such as syllables.

【0033】連続音声認識部104は上記のネットワー
クをたどることにより生成される単語列に従い単語標準
パターン記憶部103に記憶されている標準パターンを
連結し、音声入力部101から受けとった入力音声の特
徴ベクトルの時系列とのパターンマッチングを行なうこ
とにより入力音声と最も音響的類似性の高い単語列を選
択する。連続音声認識部104はこの単語列を表す各単
語のアークのIDの列を認識結果として中間表現生成部
106に出力する。中間表現生成部106に入力された
アークのID列と意味関係記憶部105の記憶内容より
中間表現を作成して出力する。
The continuous speech recognition section 104 connects the standard patterns stored in the word standard pattern storage section 103 according to the word string generated by tracing the above network, and calculates the characteristics of the input speech received from the speech input section 101. By performing pattern matching with the time series of vectors, a word string with the highest acoustic similarity to the input speech is selected. The continuous speech recognition unit 104 outputs a string of IDs of arcs of each word representing this word string to the intermediate expression generation unit 106 as a recognition result. An intermediate representation is created and output from the ID string of the arc input to the intermediate representation generation unit 106 and the contents stored in the semantic relationship storage unit 105.

【0034】次に、中間表現生成部106の処理につい
て説明する。今、入力音声が“私はあさってのバーシア
のコンサートのチケットが欲しい”であるとする。この
とき図16に示したアークのID番号より音声認識結果
として“1,3,5,6,10,11,13,15,1
6,17”というアークIDの列が中間表現生成部10
6に渡される。中間表現生成部106では図3の情報と
アークのID列より中間表現を作成する。まずアークI
D番号の列の先頭の1に対して図3のテーブルを検索す
ると、ID番号1の欄の親ID番号が17,18,19
である。この中でアークのID列中にあるのは17番な
ので、中間表現の親は“欲しい”で、またCASEの欄
から“受益”の関係であることが分かる。また、素性情
報の欄から“#名詞意味素性,111”という素性がこ
の文の中間表現中の“私”のところに付与される。以上
のような処理を繰り返すことにより図17のような中間
表現が得られる。
Next, the processing of the intermediate representation generation section 106 will be explained. Suppose that the input voice is "I want tickets to Basia's concert tomorrow." At this time, the voice recognition result is "1, 3, 5, 6, 10, 11, 13, 15, 1 from the ID number of the arc shown in FIG.
The sequence of arc IDs “6, 17” is the intermediate representation generation unit 10.
Passed to 6. The intermediate representation generation unit 106 creates an intermediate representation from the information shown in FIG. 3 and the ID string of the arc. First, Arc I
When searching the table in Figure 3 for the first 1 in the D number column, the parent ID numbers in the ID number 1 column are 17, 18, 19.
It is. Among these, number 17 is in the ID column of the arc, so the parent of the intermediate expression is "want", and the CASE column shows that the relationship is "benefit". Also, from the feature information column, a feature "#noun semantic feature, 111" is added to "I" in the intermediate expression of this sentence. By repeating the above processing, an intermediate representation as shown in FIG. 17 is obtained.

【0035】次に請求項2の発明の一実施例について説
明する。請求項2の発明の一実施例は図1における意味
関係記憶部105中に音声認識用のネットワーク及び各
ネットワークから呼ばれるサブネットワーク中の単語の
意味情報,素性情報を記憶して中間表現を作成する。図
4(a)は音声認識に用いるメインネットワークで、図
4(b),図4(c),図4(d)がメインネットワー
クから呼ばれるサブネットワークである。例えば図4(
b)はサブネット“日時”でメインネット中のアークI
D番号2のところで呼ばれる。
Next, an embodiment of the invention according to claim 2 will be described. An embodiment of the invention of claim 2 creates an intermediate representation by storing semantic information and feature information of words in a speech recognition network and sub-networks called from each network in the semantic relation storage unit 105 in FIG. . FIG. 4(a) is a main network used for speech recognition, and FIG. 4(b), FIG. 4(c), and FIG. 4(d) are subnetworks called from the main network. For example, Figure 4 (
b) is the subnet “date and time” and arc I in the mainnet.
Called at D number 2.

【0036】今、入力文が“私はあさってのバーシアの
コンサートのチケットが欲しい”であるとする。すると
音声認識結果のアーク番号の列は図4(a)〜(d)に
よって“1,2(2),3,4(1),5,6,8,1
0,11,12(1)”となる。ここで例えば“4(1
)”とあるのは、メインネットの4番のアークからサブ
ネットの1番のアークが呼ばれるという意味である。こ
の場合図5のID番号4の行のサブの欄からアーチスト
名のサブネットが呼ばれていることが分かり、図6(b
)の内容からCPが“バーシア”で素性情報が#名詞意
味素性,111であることが分かる。また、図5のID
番号4の行で親ID番号に11,12とあり、認識結果
のID列中に“12(1)”があるので、図6(c)か
らCP“欲しい”を指し、CASEの欄から“バーシア
”と“欲しい”は所有の関係であることが分かる。以上
のような処理を繰り返すことにより図17のような中間
表現が得られる。この他の処理は請求項1の発明の一実
施例と全く同じである。この結果、ネットワーク及びネ
ットワークから呼ばれるサブネットワークを用いた音声
認識の結果から中間表現を作成することができる。
Now, suppose that the input sentence is "I want tickets for Basia's concert tomorrow." Then, the sequence of arc numbers in the voice recognition result is “1, 2 (2), 3, 4 (1), 5, 6, 8, 1” according to FIGS. 4(a) to (d).
0, 11, 12 (1)". Here, for example, "4 (1
)" means that the arc No. 1 of the subnet is called from the arc No. 4 of the main net. In this case, the subnet with the artist name is called from the sub column of the row with ID number 4 in Figure 5. Figure 6(b)
), it can be seen that the CP is "Basia" and the feature information is #Noun Semantic Feature, 111. Also, the ID in Figure 5
In the row with number 4, the parent ID numbers are 11 and 12, and the ID column of the recognition result is "12 (1)," so from Figure 6(c), point to CP "I want", and from the CASE column, select "12 (1)". It can be seen that ``versia'' and ``want'' have a relationship of ownership. By repeating the above processing, an intermediate representation as shown in FIG. 17 is obtained. The other processing is exactly the same as the embodiment of the invention according to claim 1. As a result, an intermediate representation can be created from the result of speech recognition using the network and the subnetworks called from the network.

【0037】次に請求項3の発明の一実施例について説
明する。請求項3の発明の一実施例は図1における意味
関係記憶部105中に他の単語に付与する素性情報も記
憶しこの情報も用いて中間表現を作成する。
Next, an embodiment of the invention according to claim 3 will be described. An embodiment of the invention according to claim 3 also stores feature information to be added to other words in the semantic relationship storage unit 105 in FIG. 1, and creates an intermediate expression using this information as well.

【0038】例えば、入力音声が“私はチケットを1枚
欲しい”であったとする。すると音声認識結果のアーク
のID列は図7において“1,2,4,5,8”となる
。このとき、アーク番号5のものは図9のID番号5の
行からCPが“1枚”であり、その親はアークID列中
に“2”があるため“チケット”であることが分かる。 また、親付与情報の欄から親CPとなる“チケット”に
素性情報“#NUMBER,{SIN}”を付与するこ
とが分かる。このような処理の結果、図8(a)のよう
な中間表現を作成することができる。この他の処理は請
求項1の発明の一実施例と全く同じである。
For example, assume that the input voice is "I want one ticket." Then, the ID string of the arc as a result of voice recognition becomes "1, 2, 4, 5, 8" in FIG. At this time, it can be seen that the arc number 5 has a CP of "1" from the row of ID number 5 in FIG. 9, and its parent is a "ticket" because there is "2" in the arc ID column. Further, it can be seen from the parent assignment information column that the identity information "#NUMBER, {SIN}" is assigned to the "ticket" serving as the parent CP. As a result of such processing, an intermediate representation as shown in FIG. 8(a) can be created. The other processing is exactly the same as the embodiment of the invention according to claim 1.

【0039】次に請求項4の発明の一実施例について説
明する。図2は本発明の他の実施例を示す構成図である
。本実施例では、素性情報を意味関係記憶部205から
だけでなく、単語辞書記憶部207の内容も用いて各単
語に付与することにより中間表現を作成する。例えば、
#名詞意味素性,#動詞意味分類等の素性情報は単語ご
とに常に同じであるので、意味関係記憶部205中に記
述しなくても単語辞書記憶部207の情報を用いること
で単語の素性情報として付与する。この他の処理は請求
項1の発明の一実施例と全く同じである。
Next, an embodiment of the invention according to claim 4 will be described. FIG. 2 is a block diagram showing another embodiment of the present invention. In this embodiment, an intermediate expression is created by adding feature information to each word not only from the semantic relationship storage section 205 but also using the contents of the word dictionary storage section 207. for example,
Since feature information such as #noun semantic features and #verb semantic classification is always the same for each word, word feature information can be stored by using information in the word dictionary storage unit 207 without having to write it in the semantic relationship storage unit 205. Granted as. The other processing is exactly the same as the embodiment of the invention according to claim 1.

【0040】次に請求項5の発明の一実施例について説
明する。
Next, an embodiment of the invention according to claim 5 will be described.

【0041】例えば図10のようなネットワークにおい
て入力文が“あさってのバーシアのコンサートのチケッ
トが欲しい”であるとする。するとアークID番号の列
は“2,4,5,9,10,12,14,15,16”
となる。また、意味関係記憶部の内容が図11に示した
ものであるとする。ここでID番号の値がDとなってい
る行は音声認識の結果に関わらず無条件で中間表現作成
に用いるとする。今“私”というCPがある行のID番
号の欄が“D”なので、この行の内容も中間表現作成に
使用する。その結果図17に示したような正しい中間表
現を作成することができる。この他の処理は請求項1の
発明の一実施例と全く同じである。
For example, suppose that in the network shown in FIG. 10, the input sentence is "I want tickets for Basia's concert tomorrow." Then the sequence of arc ID numbers is “2, 4, 5, 9, 10, 12, 14, 15, 16”
becomes. It is also assumed that the contents of the semantic relationship storage section are as shown in FIG. Here, it is assumed that the row whose ID number is D is unconditionally used for intermediate expression creation regardless of the result of speech recognition. Since the ID number column of the line containing the CP "I" is "D", the contents of this line are also used to create the intermediate representation. As a result, a correct intermediate representation as shown in FIG. 17 can be created. The other processing is exactly the same as the embodiment of the invention according to claim 1.

【0042】次に請求項6の発明の一実施例について説
明する。
Next, an embodiment of the invention according to claim 6 will be described.

【0043】例えば図12のようなネットワークにおい
て入力文が“私はバーシアのチケットが欲しい”である
とする。するとアークID番号の列は“1,2,4,5
,7,8”となる。また意味関係記憶部の内容が図14
に示したものであるとする。ここでオンノードという欄
は、この欄の中に記述した番号のアークが音声認識結果
にあるとき、この行の内容を中間表現作成に用いるとす
る。このときアークID番号列中に“2”があるので、
ID番号が“onl”である行の内容も中間表現作成に
使用し、その結果、図13(a)に示したような正しい
中間表現を作成することができる。この他の処理は請求
項1の発明の一実施例と全く同じである。
For example, suppose that in the network shown in FIG. 12, the input sentence is "I want a Basia ticket." Then the sequence of arc ID numbers is “1, 2, 4, 5”
, 7, 8''. Also, the contents of the semantic relationship storage section are shown in Figure 14.
Assume that it is as shown in . Here, in the on-node column, when the arc with the number described in this column exists in the speech recognition result, the contents of this line are used to create an intermediate expression. At this time, there is "2" in the arc ID number string, so
The contents of the line with the ID number "onl" are also used to create the intermediate representation, and as a result, a correct intermediate representation as shown in FIG. 13(a) can be created. The other processing is exactly the same as the embodiment of the invention according to claim 1.

【0044】次に請求項7の発明の一実施例について説
明する。図18は図15におけるネットワーク用の意味
関係記憶部の内容の一例を示す図、図19は図15にお
けるネットワークの中間表現の例を示す図である。
Next, an embodiment of the invention according to claim 7 will be described. FIG. 18 is a diagram showing an example of the contents of the network semantic relationship storage section in FIG. 15, and FIG. 19 is a diagram showing an example of the intermediate representation of the network in FIG. 15.

【0045】例えば図15のようなネットワークにおい
て入力文が“私はバーシアのコンサートのチケットが欲
しい”であるとする。するとアークID番号の列は“1
,2,4,5,7,8,10,11”となる。また意味
関係記憶部が図18に示したものであるとする。ここで
オフノードという欄は、この欄の中に記述した番号のア
ークが音声認識結果にあるとき、たとえ同じ行内のID
番号が“D”となっていてもこの行の内容を中間表現作
成に用いないものとする。今、図18の1番上の行はI
D番号が“D”となっているがオフノードの欄に“1”
とあり、音声認識結果のアークID番号列中に“1”が
あるのでこの行の情報は使用しない。その結果、図19
のような中間表現が得られる。
For example, suppose that in the network shown in FIG. 15, the input sentence is "I want tickets to Basia's concert." Then the arc ID number column is “1”
, 2, 4, 5, 7, 8, 10, 11''. Also assume that the semantic relationship storage unit is as shown in Figure 18.Here, the off node column is the number written in this column. When the arc of is in the speech recognition result, even if the ID in the same line
Even if the number is "D", the contents of this line are not used to create an intermediate representation. Now, the top row of Figure 18 is I
The D number is “D” but there is “1” in the off node column.
Since there is "1" in the arc ID number column of the voice recognition result, the information in this row is not used. As a result, Figure 19
An intermediate representation such as is obtained.

【0046】また入力文が“バーシアのコンサートのチ
ケットが欲しい”であるとする。するとアークID番号
の列は図15において“2,4,5,7,8,10,1
1”となる。今、図18の1番上の行はID番号が“D
”となっているためこの行の内容も使用し、その結果、
図19のような中間表現が得られる。このように本実施
例では、ネットワーク内にて省略したりしなかったりす
る要素がある場合も正しく中間表現を作成することがで
きる。この他の処理は請求項1の発明の一実施例と全く
同じである。
Also assume that the input sentence is "I want tickets to Basia's concert." Then, the sequence of arc ID numbers becomes “2, 4, 5, 7, 8, 10, 1” in FIG.
1". Now, in the top row of FIG. 18, the ID number is "D".
”, so the contents of this line are also used, and as a result,
An intermediate representation as shown in FIG. 19 is obtained. In this way, in this embodiment, even if there are elements that are omitted or omitted in the network, it is possible to correctly create an intermediate representation. The other processing is exactly the same as the embodiment of the invention according to claim 1.

【0047】[0047]

【発明の効果】以上述べたように本発明の連続音声認識
方式によれば、音声認識の際により自然で多様な文を認
識し、かつその意味表現を出力することができるという
効果が得られる。
[Effects of the Invention] As described above, according to the continuous speech recognition method of the present invention, it is possible to recognize more natural and diverse sentences during speech recognition, and to output their meaning expressions. .

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】本発明の一実施例を示す構成図である。FIG. 1 is a configuration diagram showing an embodiment of the present invention.

【図2】本発明の他の実施例を示す構成図である。FIG. 2 is a configuration diagram showing another embodiment of the present invention.

【図3】図1における意味関係記憶部の内容の一例を示
す図である。
FIG. 3 is a diagram showing an example of the contents of a semantic relationship storage section in FIG. 1;

【図4】音声認識用ネットワークの第1の例を示す図で
ある。
FIG. 4 is a diagram showing a first example of a speech recognition network.

【図5】図4におけるメインネットワーク用の意味関係
記憶部の内容の一例を示す図である。
FIG. 5 is a diagram illustrating an example of the contents of a semantic relationship storage unit for the main network in FIG. 4;

【図6】図4におけるサブネットワーク用の意味関係記
憶部の内容の一例を示す図である。
FIG. 6 is a diagram illustrating an example of the contents of a semantic relationship storage unit for subnetworks in FIG. 4;

【図7】音声認識用ネットワークの第2の例を示す図で
ある。
FIG. 7 is a diagram showing a second example of a speech recognition network.

【図8】図7におけるネットワークの中間表現の例を示
す図である。
FIG. 8 is a diagram showing an example of an intermediate representation of the network in FIG. 7;

【図9】図7におけるネットワーク用の意味関係記憶部
の内容の一例を示す図である。
FIG. 9 is a diagram illustrating an example of the contents of a network semantic relationship storage unit in FIG. 7;

【図10】音声認識用ネットワークの第3の例を示す図
である。
FIG. 10 is a diagram showing a third example of a voice recognition network.

【図11】図10におけるネットワーク用の意味関係記
憶部の内容の一例を示す図である。
FIG. 11 is a diagram illustrating an example of the contents of a network semantic relationship storage unit in FIG. 10;

【図12】音声認識用ネットワークの第4の例示す図で
ある。
FIG. 12 is a diagram illustrating a fourth example of a network for speech recognition.

【図13】図12におけるネットワークの中間表現の例
を示す図である。
FIG. 13 is a diagram illustrating an example of an intermediate representation of the network in FIG. 12;

【図14】図12におけるネットワーク用の意味関係記
憶部の内容の一例を示す図である。
FIG. 14 is a diagram illustrating an example of the contents of a network semantic relationship storage unit in FIG. 12;

【図15】音声認識用ネットワークの第5の例を示す図
である。
FIG. 15 is a diagram showing a fifth example of a voice recognition network.

【図16】音声認識用ネットワークの第6の例を示す図
である。
FIG. 16 is a diagram showing a sixth example of a speech recognition network.

【図17】図16におけるネットワークの中間表現の例
を示す図である。
FIG. 17 is a diagram illustrating an example of an intermediate representation of the network in FIG. 16;

【図18】図15におけるネットワーク用の意味関係記
憶部の内容の一例を示す図である。
FIG. 18 is a diagram illustrating an example of the contents of a network semantic relationship storage unit in FIG. 15;

【図19】図15におけるネットワークの中間表現の例
を示す図である。
FIG. 19 is a diagram illustrating an example of an intermediate representation of the network in FIG. 15;

【符号の説明】[Explanation of symbols]

101,201    音声入力部 102,202    ネットワーク記憶部103,2
03    単語標準パターン記憶部104,204 
   連続音声認識部105,205    意味関係
記憶部106,206    中間表現生成部207 
   単語辞書記憶部
101, 201 Audio input section 102, 202 Network storage section 103, 2
03 Word standard pattern storage unit 104, 204
Continuous speech recognition unit 105, 205 Semantic relationship storage unit 106, 206 Intermediate expression generation unit 207
Word dictionary storage section

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】  連続音声認識対象の文法を表現する単
語に関するネットワークを記憶する第1の記憶手段と、
単語の標準パターンを前記ネットワークにしたがって結
合して連続音声を認識する連続音声認識手段と、前記ネ
ットワークにおけるある単語と他の単語の間の意味的な
関係及び各単語に対する素性情報を記憶する第2の記憶
手段と、前記連続音声認識手段から生じる認識結果及び
前記第2の記憶手段からその中間表現を出力する出力手
段とを備えることを特徴とする連続音声認識方式。
1. A first storage means for storing a network related to words expressing a grammar of a continuous speech recognition target;
continuous speech recognition means for recognizing continuous speech by combining standard patterns of words according to the network; and a second device for storing semantic relationships between one word and another word in the network and feature information for each word. 1. A continuous speech recognition method, comprising: a storage means; and an output means for outputting a recognition result generated from the continuous speech recognition means and an intermediate representation thereof from the second storage means.
【請求項2】  前記連続音声認識手段はあらかじめ定
められた認識単位の標準パターンを前記ネットワーク及
び各ネットワークから呼ばれるサブネットワークにした
がって結合して連続音声を認識し、前記第1の記憶手段
は連続音声認識対象の文法を表現するネットワーク及び
各ネットワークから呼ばれるサブネットワークを記憶し
、前記出力手段は前記連続音声認識手段から生じる認識
結果及び前記第2の記憶手段のある単語と他の単語の間
の意味的な関係及び前記ネットワーク及びサブネットワ
ーク内の各単語に対する素性情報からその中間表現を出
力することを特徴とする請求項1記載の連続音声認識方
式。
2. The continuous speech recognition means combines standard patterns of predetermined recognition units according to the network and sub-networks called from each network to recognize continuous speech, and the first storage means recognizes continuous speech. A network representing a grammar to be recognized and a sub-network called from each network are stored, and the output means stores the recognition result generated from the continuous speech recognition means and the meaning between a certain word and another word of the second storage means. 2. The continuous speech recognition method according to claim 1, wherein an intermediate representation thereof is output based on a relationship between the two words and feature information for each word in the network and sub-networks.
【請求項3】  ある単語が認識された時に、他の単語
に付与する素性情報を記憶する前記第2の記憶手段と、
前記情報を前記中間表現に付与する付与手段とを備える
ことを特徴とする請求項1または2記載の連続音声認識
方式。
3. The second storage means for storing feature information to be added to another word when a certain word is recognized;
3. The continuous speech recognition method according to claim 1, further comprising: adding means for adding the information to the intermediate representation.
【請求項4】  ある単語が認識された時に、その単語
に付与する素性情報を単語辞書記憶部から取り出し、前
記付与手段は前記情報を前記中間表現に付与することを
特徴とする請求項1または2もしくは3記載の連続音声
認識方式。
4. When a certain word is recognized, feature information to be added to the word is retrieved from a word dictionary storage section, and the adding means adds the information to the intermediate expression. Continuous speech recognition method described in 2 or 3.
【請求項5】  前記単語辞書記憶部は連続音声認識対
象の文法を表現するネットワーク内に存在しないが中間
表現を作成するために必ず必要な単語を記憶し、前記出
力手段は前記情報をもとに中間表現を作成して出力する
ことを特徴とする請求項1乃至4のいずれかに記載の連
続音声認識方式。
5. The word dictionary storage unit stores words that do not exist in the network expressing the grammar of the continuous speech recognition target but are absolutely necessary for creating an intermediate expression, and the output unit stores words that are not present in the network expressing the grammar of the continuous speech recognition target, and the output unit stores words that are necessary to create an intermediate expression. 5. The continuous speech recognition method according to claim 1, wherein an intermediate representation is created and outputted.
【請求項6】  前記単語辞書記憶部は連続音声認識対
象の文法を表現するネットワーク内のある特定の単語が
認識された際に補う単語を記憶し、前記出力手段は前記
情報をもとに中間表現を作成して出力することを特徴と
する請求項1乃至5のいずれかに記載の連続音声認識方
式。
6. The word dictionary storage unit stores words to be supplemented when a certain specific word in the network expressing the grammar of the continuous speech recognition target is recognized, and the output unit stores intermediate words based on the information. 6. The continuous speech recognition method according to claim 1, wherein an expression is created and output.
【請求項7】  前記単語辞書記憶部は連続音声認識対
象の文法を表現するネットワーク内のある特定の単語が
認識された際に削除すべき連続音声認識対象の文法を表
現するネットワーク中の特定の単語を記憶し、前記出力
手段は前記情報をもとに中間表現を作成して出力するこ
とを特徴とする請求項1乃至6のいずれかに記載の連続
音声認識方式。
7. The word dictionary storage unit stores a specific word in the network expressing the grammar of the continuous speech recognition target that is to be deleted when a specific word in the network expressing the grammar of the continuous speech recognition target is recognized. 7. The continuous speech recognition system according to claim 1, wherein words are stored, and the output means creates and outputs an intermediate expression based on the information.
JP3010234A 1991-01-30 1991-01-30 Continuous speech recognition method Expired - Fee Related JP2817406B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3010234A JP2817406B2 (en) 1991-01-30 1991-01-30 Continuous speech recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3010234A JP2817406B2 (en) 1991-01-30 1991-01-30 Continuous speech recognition method

Publications (2)

Publication Number Publication Date
JPH04253099A true JPH04253099A (en) 1992-09-08
JP2817406B2 JP2817406B2 (en) 1998-10-30

Family

ID=11744610

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3010234A Expired - Fee Related JP2817406B2 (en) 1991-01-30 1991-01-30 Continuous speech recognition method

Country Status (1)

Country Link
JP (1) JP2817406B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005351980A (en) * 2004-06-08 2005-12-22 Canon Inc Device and method for speech recognition grammar generation, program, and storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005351980A (en) * 2004-06-08 2005-12-22 Canon Inc Device and method for speech recognition grammar generation, program, and storage medium
JP4579585B2 (en) * 2004-06-08 2010-11-10 キヤノン株式会社 Speech recognition grammar creation device, speech recognition grammar creation method, program, and storage medium

Also Published As

Publication number Publication date
JP2817406B2 (en) 1998-10-30

Similar Documents

Publication Publication Date Title
US6067514A (en) Method for automatically punctuating a speech utterance in a continuous speech recognition system
US5832428A (en) Search engine for phrase recognition based on prefix/body/suffix architecture
US6910012B2 (en) Method and system for speech recognition using phonetically similar word alternatives
US7072837B2 (en) Method for processing initially recognized speech in a speech recognition session
KR100996817B1 (en) Generating large units of graphonemes with mutual information criterion for letter to sound conversion
US6801897B2 (en) Method of providing concise forms of natural commands
US6067520A (en) System and method of recognizing continuous mandarin speech utilizing chinese hidden markou models
US7529657B2 (en) Configurable parameters for grammar authoring for speech recognition and natural language understanding
Souvignier et al. The thoughtful elephant: Strategies for spoken dialog systems
JP3481497B2 (en) Method and apparatus using a decision tree to generate and evaluate multiple pronunciations for spelled words
US5995931A (en) Method for modeling and recognizing speech including word liaisons
KR100726875B1 (en) Speech recognition with a complementary language model for typical mistakes in spoken dialogue
US7302381B2 (en) Specifying arbitrary words in rule-based grammars
KR100930714B1 (en) Voice recognition device and method
US6772116B2 (en) Method of decoding telegraphic speech
JPH10247194A (en) Automatic interpretation device
KR102299269B1 (en) Method and apparatus for building voice database by aligning voice and script
JP2003162524A (en) Language processor
JP3059413B2 (en) Natural language understanding device and natural language understanding system
JPH04253099A (en) Continuous voice recognition system
JP2001013992A (en) Voice understanding device
JPH08263499A (en) Automatic translation device and automatic interpretation device
López-Cózar et al. Testing dialogue systems by means of automatic generation of conversations
KR20030010979A (en) Continuous speech recognization method utilizing meaning-word-based model and the apparatus
JP2000330588A (en) Method and system for processing speech dialogue and storage medium where program is stored

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19980721

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070821

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080821

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080821

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090821

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees