JP2005004716A - Method and system for processing among different interactive languages, and program and recording medium thereof - Google Patents
Method and system for processing among different interactive languages, and program and recording medium thereof Download PDFInfo
- Publication number
- JP2005004716A JP2005004716A JP2003375204A JP2003375204A JP2005004716A JP 2005004716 A JP2005004716 A JP 2005004716A JP 2003375204 A JP2003375204 A JP 2003375204A JP 2003375204 A JP2003375204 A JP 2003375204A JP 2005004716 A JP2005004716 A JP 2005004716A
- Authority
- JP
- Japan
- Prior art keywords
- dialogue
- terminal unit
- language
- response content
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Machine Translation (AREA)
Abstract
Description
本発明は、複数の端末部それぞれで異なる言語を使用する対話者の間の意思疎通を可能にする異言語間対話処理方法およびその装置、ならびにそのプログラムと記録媒体に関する。 The present invention relates to an interlingual dialog processing method and apparatus, and a program and a recording medium thereof, which enable communication between interrogators who use different languages in a plurality of terminal units.
従来の異言語間対話処理方法に関する技術では、一方の話者がある言語で入力した全ての発話内容を音声認識装置で認識し、それを機械翻訳装置で別の言語に翻訳して、音声合成装置などにより別の言語で別の話者に伝達する方法を用いていた(オーム社発行 『ATR先端テクノロジーシリーズ 自動翻訳電話』1994年(非特許文献1参照))。
すなわち、機械による同時通訳を考えるとき、(1)音声認識レベル、(2)言語間の変換(翻訳)のレベル、(3)音声合成のレベル、の3つに分けて考えられる。第1のレベルは、入力された音声を単語の系列に変換(翻訳)するか(単語単位の音声認識の場合)、またはVCあるいは単音節のようなより基本的な音響音声単位の系列として認識され、辞書と簡単な文法により単語の系列に変換する(NTT R&D 2000年3月号(メディア処理技術)(非特許文献2参照))。
In the technology related to the interlingual dialogue processing method in the past, one utterance recognizes all utterances input in one language with a speech recognition device, translates it into another language with a machine translation device, and synthesizes speech. A method of transmitting to another speaker in another language by using a device or the like was used (Ohm's "ATR Advanced Technology Series Automatic Translation Telephone" 1994 (see Non-Patent Document 1)).
That is, when considering simultaneous interpretation by a machine, it can be divided into three parts: (1) speech recognition level, (2) level of translation (translation) between languages, and (3) level of speech synthesis. The first level converts (translates) the input speech into a sequence of words (in the case of speech recognition in units of words) or recognizes as a sequence of more basic acoustic speech units such as VC or single syllables. Then, it is converted into a series of words using a dictionary and simple grammar (NTT R & D March 2000 issue (media processing technology) (see Non-Patent Document 2)).
第2のレベルは、理解された内容が、言語Aから言語Bに変換される。文法的構造のよく似た同一言語系に属する言語間では、変換は比較的簡単であるが、その全く異なる言語間の変換は容易ではない(アジア太平洋機械翻訳協会発行『−機械翻訳−21世紀のビジョン』2000年(非特許文献3参照))。
第3のレベルは、単語またはその系列からなる句、文のようなものが、それから音声を発生するに必要な情報に変換され、音声が発生される(音声の合成と認識(総合電子出版社発行)(非特許文献4参照)。
In the second level, the understood content is converted from language A to language B. Conversion between languages belonging to the same language system with a similar grammatical structure is relatively easy, but conversion between completely different languages is not easy. Vision of 2000 (see Non-Patent Document 3)).
In the third level, a phrase or sentence consisting of a word or a series thereof is converted into information necessary for generating a voice, and a voice is generated (speech synthesis and recognition (general electronic publisher). Issued) (see Non-Patent Document 4).
しかしながら、従来の異言語間対話処理方法に関する技術においては、音声認識の性能が十分でないため、入力した発話内容と異なる音声認識結果が得られることが多い。また、機械翻訳の性能も十分でないために、発話内容と異なる別の言語への翻訳結果となることも多い。このような状況のため、一方の対話者が発話した内容を他方の話者に正しく伝えることができない場合が多く、従来の技術によって異なる言語による対話者間の意思疎通を実用レベルで実現することは極めて困難であった。 However, in the technology related to the conventional interlingual dialogue processing method, since the performance of speech recognition is not sufficient, a speech recognition result different from the input utterance content is often obtained. Moreover, since the performance of machine translation is not sufficient, it often results in translation into another language different from the utterance content. Because of this situation, it is often impossible to correctly communicate the content of one talker to the other talker, and communication between the talkers in different languages can be achieved at a practical level by conventional technology. Was extremely difficult.
そこで、本発明の目的は、必ずしも常に正しい結果を出力するとは限らない現状の技術レベルの音声認識や機械翻訳などの技術を用いて、異なる言語による意思疎通を実現することが可能な異言語間対話処理方法およびその装置、ならびにそのプログラムと記録媒体を提供することである。 Accordingly, an object of the present invention is to provide communication between different languages capable of realizing communication in different languages using technologies such as speech recognition and machine translation at the current technical level that do not always output correct results. An interactive processing method and apparatus, and a program and a recording medium thereof are provided.
本発明の原理は、対話者の発話の理解結果を確認しながら対話の制御を行うことである。すなわち、従来の技術のように、一方の対話者の発話に対する発話理解結果をそのまま他方の対話者に伝えるのではなく、予め記憶した対話シナリオを参照することにより、対話制御部から発話した話者に発話理解結果の確認を行うか、他方の対話者に対する応答をするか、の判断を行う。従って、対話制御部は、発話した対話者とは異なる他方の対話者に、他方の対話者が使用する言語で正しく応答可能と判断できる場合を対話シナリオで指定し、その場合に相当すれば、発話した対話者とは異なる他方の対話者に、他方の対話者が使用する言語で指定された応答内容を伝達することにより、必ずしも常に正しい結果を出力するとは限らない現状の技術レベルの音声認識や機械翻訳などの技術を使って、異なる言語による対話者間の意思疎通を実現する。 The principle of the present invention is to control the dialog while confirming the understanding result of the conversation person's utterance. That is, the speaker who spoke from the dialogue control unit by referring to the dialogue scenario stored in advance, instead of directly transmitting the utterance understanding result for the utterance of one dialoguer to the other dialoguer as in the prior art. Whether to confirm the utterance understanding result or to respond to the other interlocutor. Therefore, the dialogue control unit designates, in the dialogue scenario, a case where it can be determined that the other dialoguer different from the spoken dialogue person can respond correctly in the language used by the other dialogue person, Present technology-level speech recognition that does not always output the correct result by communicating the response content specified in the language used by the other speaker to the other speaker who is different from the speaker who spoke Using technology such as language translation and machine translation, communication between dialogues in different languages is realized.
また、予め記憶した対話シナリオで想定していない発話を対話者が行った場合でも、対話を続行することができるように、予め対話シナリオと対応づけて記憶したキーフレーズが音声認識結果に含まれるときのみ、該対話シナリオに基づいて、上記対話の制御を行うように構成することや、一方の対話者の発話に対する音声認識結果の翻訳結果、あるいは、発話理解結果をそのまま他方の対話者に伝え、他方の対話者がその内容を理解できれば、対話シナリオとは無関係に応答を入力することができるように構成することもできる。 In addition, the key phrase stored in association with the dialogue scenario is included in the speech recognition result so that the dialogue can be continued even if the dialogue person performs an utterance that is not assumed in the dialogue scenario stored in advance. Only when it is configured to control the above dialogue based on the dialogue scenario, the translation result of the speech recognition result for one utterer's utterance, or the utterance understanding result is directly transmitted to the other dialoguer. If the other interlocutor can understand the content, it can be configured such that a response can be input regardless of the dialogue scenario.
具体的に、本発明の異言語間対話処理方法は、それぞれ異なる言語を使用する利用者により対話を行うための複数の端末部を対話制御部を介して接続し、該対話制御部により端末部相互間の意思疎通を図る異言語間対話処理方法であって、該対話制御部は、第1の対話者が第1の言語で第1の端末部を介して発話した文を音声認識部により認識し、発話された文の内容を理解し、予め記憶した対話シナリオを参照し、前記発話を理解した結果により、(1)第1の対話者が利用する第1の端末部に対する応答内容を決定し、該応答内容を第1の言語で該端末部に伝達するか、あるいは、(2)第2の対話者が利用する第2の端末部に対する応答内容を決定し、該応答内容を第2の言語で該端末部に伝達するか、あるいは、(3)対話を終了するか、のいずれかを選択実行する第1のステップと、前記(1)の場合には、第1の対話者が利用する第1の端末部に、応答内容に対する発話を求め、前記第1のステップを繰り返し実行し、前記(2)の場合には、第2の対話者が利用する第2の端末部に応答内容に対する発話を求める第2のステップと、第2の対話者が第2の言語で第2の端末部を介して発話し、発話した発話内容を音声認識部により認識し、該発話の内容を発話理解部により理解し、対話制御部において予め記憶した対話シナリオを参照し、該発話を理解した結果により、(1’)第2の対話者が利用する第2の端末部に対する応答内容を決定し、該応答内容を第2の言語で該端末部に伝達するか、あるいは、(2’)第1の対話者が利用する第1の端末部に対する応答内容を決定し、該応答内容を第1の言語で該端末部に伝達するか、あるいは、(3’)対話を終了するか、のいずれかを選択実行する第3のステップと、
前記(1’)の場合には、第2の対話者が利用する第2の端末部に、応答内容に対する発話を求め、前記第3のステップを繰り返し実行し、前記(2’)の場合には、第1の対話者が利用する第1の端末部に、応答内容に対する発話を求め、前記第1のステップを繰り返し実行する第4のステップとを有することを特徴としている。
Specifically, the inter-lingual dialogue processing method of the present invention connects a plurality of terminal units for performing dialogues by users who use different languages through the dialogue control unit, and the dialogue control unit uses the terminal unit to communicate with each other. An interlingual dialogue processing method for communicating between each other, wherein the dialogue control unit uses a voice recognition unit to transmit a sentence spoken by a first dialogue person in a first language through a first terminal unit. Recognize and understand the content of the spoken sentence, refer to the dialogue scenario stored in advance, and based on the result of understanding the utterance, (1) the response content for the first terminal unit used by the first dialogue person Determine and transmit the response content in the first language to the terminal unit, or (2) determine the response content for the second terminal unit used by the second dialoguer, and Communicate to the terminal in 2 languages, or (3) terminate the dialogue In the case of (1), the utterance for the response content is sought in the first terminal unit used by the first dialogue person, and the first step Step (2) is repeated, and in the case of (2) above, the second step of requesting the utterance for the response content to the second terminal unit used by the second dialog person, and the second dialog person Speak in the language through the second terminal unit, recognize the spoken utterance content by the voice recognition unit, understand the utterance content by the utterance understanding unit, and refer to the dialogue scenario stored in advance in the dialogue control unit, Depending on the result of understanding the utterance, (1 ′) determining a response content for the second terminal unit used by the second dialog person and transmitting the response content in the second language to the terminal unit, or , (2 ′) In response to the first terminal unit used by the first interlocutor A third step of selecting and executing whether to determine the content and transmitting the response content to the terminal unit in a first language or (3 ′) ending the dialogue;
In the case of (1 ′), the second terminal unit used by the second interrogator asks the utterance for the response content, repeats the third step, and in the case of (2 ′) Is characterized in that it has a fourth step in which the first terminal unit used by the first interrogator asks the utterance for the response content and repeats the first step.
また、前記対話制御部から前記対話者が利用する端末部に応答内容を伝達する場合、対話シナリオに記載された応答内容ごとに定型対話文を用意しておき、照合した応答内容が指定する定型対話文を使用して応答内容を伝達することを特徴としている。 Further, when the response content is transmitted from the dialog control unit to the terminal unit used by the interlocutor, a standard dialog sentence is prepared for each response content described in the dialog scenario and specified by the collated response content It is characterized by transmitting the response contents using a dialogue sentence.
さらに、前記対話制御部から前記対話者が利用する端末部に応答内容を伝達する場合で、特に、最も直前に発話を行った対話者とは異なる対話者が利用する端末部に、上記応答内容を伝達する場合には、該定型対話文、あるいは、該定型対話文の一部に対して機械翻訳部による変換結果を組み合わせて、応答内容を伝達することも特徴としている。 Further, in the case where the response content is transmitted from the dialog control unit to the terminal unit used by the interlocutor, in particular, the response content is transmitted to the terminal unit used by the interlocutor different from the interlocutor who made the most recent speech. Is transmitted, the response content is transmitted by combining the standard dialogue sentence or a part of the standard dialogue sentence with the conversion result by the machine translation unit.
さらに、前記対話制御部は、
第1の対話者が第1の言語で第1の端末部を介して発話した文を前記音声認識部により認識し、該認識結果を第2の言語に翻訳した翻訳結果を第2の端末部に伝達し、第2の対話者が第2の言語で第2の端末部を介して発話した文を前記音声認識部により認識し、該認識結果を第1の言語に翻訳した翻訳結果を第1の端末部に伝達する第5のステップをさらに有し、
(a)自由発話状態と、(b)対話理解状態のいずれかの状態を有し、
(a)自由発話状態の場合は、前記第5のステップを繰り返し実行するとともに、予め対話シナリオと関連付けて前記対話制御部に記憶したキーフレーズを前記認識結果が含むならば、状態を前記(b)対話状態に変更するか、
(b)対話理解状態の場合は、前記第1から第4のステップを実行し、
前記第1のステップにおいて、前記(1)から(3)に加えて、(4)状態を(b)対話理解状態に変更するか、のいずれかを選択実行することも特徴としている。
Further, the dialogue control unit
The speech recognition unit recognizes a sentence uttered by the first conversation person in the first language through the first terminal unit, and the translation result obtained by translating the recognition result into the second language is the second terminal unit. The speech recognition unit recognizes a sentence uttered by the second dialogue person in the second language via the second terminal unit, and translates the recognition result into the first language. A fifth step of communicating to one terminal unit,
(A) a free utterance state and (b) a dialogue understanding state,
(A) In the case of a free speech state, the fifth step is repeatedly executed, and if the recognition result includes a key phrase previously associated with a dialogue scenario and stored in the dialogue control unit, the state is set to (b ) Change to interactive state or
(B) If the dialogue understanding state, the first to fourth steps are executed,
In the first step, in addition to (1) to (3), any one of (4) changing the state to (b) conversation understanding state is selectively executed.
また、前記第1のステップは、さらに、
第1の対話者が第1の言語で第1の端末部を介して発話した文を前記音声認識部により認識し、該認識結果を第2の言語に翻訳した翻訳結果を第2の端末部に伝達し、
第2の対話者からの第2の言語による入力を受け付け、入力があった場合には、
前記(1)の場合に、前記決定した応答内容を第1の端末部に伝達せず、該入力を第1の言語に翻訳して該端末部に伝達し、
前記第3のステップは、さらに、
第2の対話者が第2の言語で第2の端末部を介して発話した文を前記音声認識部により認識し、該認識結果を第1の言語に翻訳した翻訳した翻訳結果を第1の端末部に伝達し、
第1の対話者からの第1の言語による入力を受け付け、入力があった場合には、
前記(1’)の場合に、前記決定した応答内容を第2の端末部に伝達せずに、該入力を第2の言語に翻訳して第2の端末部に伝達することも特徴としている。
The first step further includes:
The speech recognition unit recognizes a sentence uttered by the first conversation person in the first language through the first terminal unit, and the translation result obtained by translating the recognition result into the second language is the second terminal unit. Communicate to
Accepts input in a second language from a second interlocutor and if there is an input,
In the case of (1), the determined response content is not transmitted to the first terminal unit, the input is translated into the first language and transmitted to the terminal unit,
The third step further comprises:
A sentence spoken by the second dialogue person in the second language via the second terminal unit is recognized by the voice recognition unit, and the translation result obtained by translating the recognition result into the first language is converted into the first translation result. To the terminal,
Accepts input in the first language from the first interlocutor and if there is input,
In the case of (1 ′), the input content is translated into the second language and transmitted to the second terminal unit without transmitting the determined response content to the second terminal unit. .
以上説明したように、本発明によれば、対話者の発話の理解結果を確認しながら、対話の制御を行うので、必ずしも常に正しい結果を出力するとは限らない現状の技術レベルの音声認識や機械翻訳などの技術を用いて、異なる言語による対話者間の意思疎通を実現することが可能になる。
また、予め記憶した対話シナリオで想定していない発話を対話者が行った場合でも、システムが対話シナリオに沿って不自然に応答することなく、対話者間の対話を続行して意思疎通を実現することができる。
As described above, according to the present invention, since the dialogue is controlled while confirming the understanding result of the conversation person's utterance, the current technology level voice recognition and machine that do not always output the correct result. Using technology such as translation, it becomes possible to realize communication between the interlocutors in different languages.
In addition, even if a conversation person makes an unexpected utterance in a pre-stored conversation scenario, the system will continue to communicate between the conversation persons without responding unnaturally along the conversation scenario. can do.
以下、本発明の実施形態を、図面により詳細に説明する。
(装置の構成)
図1は、本発明の実施形態に係る異言語間対話処理装置のブロック構成図である。
本実施形態の異言語間対話処理装置(対話システム)は、図1に示すように、音声認識部11および発話理解部12と結合した端末部10と、音声認識部21および発話理解部22と結合した端末部20と、対話シナリオ記憶部40および定型対話文データ記憶部50が参照可能で、かつ機械翻訳部31と結合した対話制御部30とから構成されている。
端末部10には対話者Aが、端末部20には対話者Bが、それぞれ音声で入力するとともに、出力した音声を聞く役目を行う。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(Device configuration)
FIG. 1 is a block diagram of a cross-language dialogue processing apparatus according to an embodiment of the present invention.
As shown in FIG. 1, the interlingual dialogue processing apparatus (dialogue system) of the present embodiment includes a
A conversation person A is input to the
以下、本実施形態の対話システムにより、対話者Aは端末部10を介して日本語で、対話者Bは端末部20を介して英語で、対話を行うものとする。
まず、対話システムは、対話制御部30が対話シナリオ記憶部40を参照し、対話端末部10を介して対話者Aに、または端末部20を介して対話者Bに発話を求める。発話を求められた対話者A,Bは、端末部10,20を介して発話を入力し、その発話を端末部10,20と結合した音声認識部11,21を使用して音声認識結果を得る。
In the following description, it is assumed that the conversation person A communicates in Japanese via the
First, in the dialogue system, the
その音声認識結果を発話理解部12,22が発話理解し、その発話理解結果に対応する次の処理を、対話制御部30が対話シナリオ記憶部40を参照することにより決定し、これを実行する。
次の処理の選択肢としては、入力した対話者AまたはB側の端末部10または20で扱う言語で、音声合成や画面表示により、発話理解結果に応じた応答内容を、定型対話文データ記憶部50に記載された定型対話文を使って伝達し、入力した対話者A,Bに次の発話を求めるか、あるいは、入力した対話者がAなら別の端末部20を介して端末部20で扱う言語で、入力した対話者がBなら別の端末部10を介して端末部10で扱う言語で、音声合成や画面表示により、発話理解結果に応じた応答内容を、定型対話文データ記憶部50に記載された定型対話文と、機械翻訳部31の翻訳結果と、を使って伝達し、入力した対話者がAなら別の対話者Bに、入力した対話者がBなら別の対話者Aに、次の発話を求めるか、あるいは、対話を終了するか、のいずれか一つを選択する。
The utterance understanding
As an option for the next processing, in the language handled by the
対話制御部30において、次の処理が対話の終了と決定されるまで、発話を求められた対話者A,Bが、その対話者A,B側の端末部10,20を介して発話を入力し、対話を続行する。
端末部10,20での発話入力においては、音声認識だけでなく、対話者A,Bが文字認識装置で入力し、システムが文字認識する方法や、対話者がキーボード入力した文字列をシステムがそのまま受理する方法を併用して、本実施形態を実施することも可能である。
端末部10,20での、定型対話文を使った発話内容の伝達においては、音声合成装置で音声出力する方法、あるいは画面表示による方法、あるいは音声合成装置での音声出力と画面表示を併用する方法、により本実施形態を実施することが可能である。
In the
In utterance input at the
In the transmission of the utterance content using the standard dialogue sentence in the
(対話シナリオ)
図2は、本発明の実施形態に係る対話シナリオの例を示す説明図である。
図1の対話シナリオ記憶部40には、図2に示すようなフォーマットで内容が記憶されている。すなわち、対話シナリオ記憶部40は、対話状態、発話理解結果、応答先、応答内容、次の対話状態の各項目を持つ表形式で構成され、初期状態の対話状態から始まり終了状態の対話状態となるまで対話が継続する間の対話状態の推移を、それぞれの対話状態で得られたシステムの発話理解結果それぞれに対して、システムがどの対話者を応答先として、どのような応答内容で応答を行い、その結果、どの次対話状態になるかを規定している。
(Dialogue scenario)
FIG. 2 is an explanatory diagram showing an example of a dialogue scenario according to the embodiment of the present invention.
The dialogue
図2では、対話者の一方が日時と人数で予約の可否を問い合わせ、もう一方の対話者が予約の受け付けを行う対話シナリオの例を示している。図2において、発話理解結果の日にち=X、時刻=Yのような表記は、日にちをX、時刻をYと発話理解したことを表す。XやYは変項部分であり、対話中になされる具体的な発話の発話理解結果により、Xには19日などの具体的な日にち、Yには7時などの具体的な時刻が代入される。XやYなどの変項に代入された値は、新たな値が代入され、更新されるまでは、保持されるものとする。 FIG. 2 shows an example of a dialogue scenario in which one of the interrogators inquires whether or not a reservation can be made based on the date and the number of people, and the other interrogator accepts the reservation. In FIG. 2, the notation such as date = X, time = Y in the utterance understanding result indicates that the utterance is understood as the date X and the time Y. X and Y are variable parts. Based on the utterance understanding result of a specific utterance made during the dialogue, X is a specific date such as 19th, and Y is assigned a specific time such as 7:00. The The values assigned to variables such as X and Y are retained until a new value is assigned and updated.
また、これらの対話シナリオを、図9に示すように、キーフレーズと対応づけて対話シナリオ記憶部40に記憶するように構成することもできる。
キーフレーズが含まれている発話があったときのみに、対応づけられている対話シナリオを実行することで、対話シナリオで想定していない発話があっても、対話シナリオに沿った不自然な応答を対話者に伝達することを避けることができる。
図9では、キーフレーズ『予約』,『席を取る』に対応づけて、図2に示す予約シナリオを記憶し、キーフレーズ『注文』に対応づけて、注文シナリオを記憶している。注文シナリオは、予約シナリオと同様に、対話者から注文の品名や数量を聞き出す対話シナリオである。キーフレーズは、複数の単語であったり、それらの単語の発音記号であってもよい。
図9のように、複数の対話シナリオを用意しておけば、対話者の所望する対話の状況に応じてそれらの対話シナリオを使い分けることが可能となる。
Further, as shown in FIG. 9, these dialogue scenarios can be configured to be associated with the key phrase and stored in the dialogue
By executing the associated dialogue scenario only when there is an utterance that includes a key phrase, even if there is an utterance that is not expected in the dialogue scenario, an unnatural response in accordance with the dialogue scenario Can be avoided.
In FIG. 9, the reservation scenario shown in FIG. 2 is stored in association with the key phrases “reservation” and “take a seat”, and the order scenario is stored in association with the key phrase “order”. Similar to the reservation scenario, the order scenario is a dialog scenario in which the product name and quantity of the order are obtained from the dialog person. The key phrase may be a plurality of words or phonetic symbols of those words.
If a plurality of dialogue scenarios are prepared as shown in FIG. 9, these dialogue scenarios can be properly used according to the dialogue situation desired by the dialogue person.
(定型対話文データ)
図3は、本発明の実施形態に係る定型対話文データの例を示す説明図である。
図3では、応答内容ごとに、対応する定型対話文を用意した定型対話文データが示されている。応答内容から日本語や英語などの対話文を生成する具体的方法として、図2のような対話シナリオに指定された応答内容に対応する定型対話文を図3に示すような定型文対話データから求め、求めた定型対話文を使って対話文を生成する。なお、ここで、定型対話文データを参照する方法の代わりに、自然言語文生成の従来技術を利用して、応答内容から日本語や英語などの対話文を生成する方法により、本発明を実施することも可能である。
(Canonical dialogue data)
FIG. 3 is an explanatory diagram showing an example of the fixed dialog text data according to the embodiment of the present invention.
In FIG. 3, the standard dialog text data in which a corresponding standard dialog text is prepared for each response content is shown. As a specific method for generating a dialogue sentence such as Japanese or English from the response content, the standard dialogue sentence corresponding to the response content specified in the dialogue scenario as shown in FIG. 2 is obtained from the standard sentence dialogue data as shown in FIG. A dialogue sentence is generated using the found fixed dialogue sentence. Here, the present invention is implemented by a method of generating a dialogue sentence such as Japanese or English from a response content using the conventional technology of natural language sentence generation instead of the method of referring to the fixed form dialogue sentence data. It is also possible to do.
図3では、例えば、日時を聞くためには、定型対話文として、『予約の日時をおっしゃって下さい』が登録されている。同じように、日にち=X、時刻=Yを確認し、人数を聞くためには、『XのYから何名様でしようか。』が登録されている。また、日にち=Xを確認した後に、時刻を聞くときには、『Xの何時でしようか。』が登録されている。また、逆に時刻=Yを確認した後に、日にちを聞くときには、『何日のYでしようか。』が登録されている。また、日にち=Xと時刻=Yと人数=Zを確認するためには、『XのYからZ様の御予約でよろしいでしようか。』が登録される。日時を再度聞くときには、『予約の日時をもう一度お願いします。』が登録されている。予約可を伝え、かつ名前を聞くときには、『予約はおとりできます。お客様のお名前と電話番号を教えてください。』が登録されている。対話終了を伝達するときには、『ありがとうございました。』が登録されている。 In FIG. 3, for example, in order to hear the date and time, “Please tell me the date and time of reservation” is registered as a standard dialogue sentence. Similarly, in order to confirm the date = X, time = Y, and ask the number of people, “How many people from Y of X? Is registered. Also, when confirming the date after confirming the date = X, “What time is X? Is registered. On the other hand, when confirming the time after confirming the time = Y, when the date is asked, “How many days will Y be? Is registered. Also, in order to confirm the date = X, time = Y, and number of people = Z, “Are you sure you want to make a reservation from X to Y? Is registered. When you ask the date and time again, “Please make the reservation date and time again. Is registered. When you tell us that you can make a reservation and ask for your name, “You can make a reservation. What is your name and phone number? Is registered. When communicating the end of the dialogue, “Thank you. Is registered.
(対話の例)
図4は、本発明の実施形態に係る対話の例を示す説明図である。
図4では、図2の対話シナリオと、図3の定型対話文データに従って、レストランやホテル等の予約を受け付ける異言語間対話の例を示している。
以下、図2に示す対話シナリオと図3に示す応答内容ごとの定型対話文データに従って、図4の対話が行われるプロセスを説明する。
対話は初期状態の対話状態から開始され、システムは応答先に指定された端末部10に対して図2で指定された応答内容として予約の日時を聞く。
(Example of dialogue)
FIG. 4 is an explanatory diagram showing an example of dialogue according to the embodiment of the present invention.
FIG. 4 shows an example of a cross-language dialogue that accepts reservations for restaurants, hotels, etc. according to the dialogue scenario of FIG. 2 and the standard dialogue text data of FIG.
Hereinafter, the process in which the dialogue of FIG. 4 is performed according to the dialogue scenario shown in FIG. 2 and the fixed dialogue data for each response content shown in FIG. 3 will be described.
The dialogue starts from the initial dialogue state, and the system asks the
予約の日時を聞くという発話内容から、図3に示す定型対話文データを参照して『予約の日時をおっしゃってください』という日本語文で端末部10に応答し、図2の次対話状態の指定により初期状態からA10へ対話状態が遷移する。
図4の対話例では、『予約の日時をおっしゃってください』という応答に対して、対話者Aが『19日7時でお願いしたいんですけれど。』と発話しており、システムはその発話に対して〔日にち=X,時刻=Y〕を具体化した日にち=29日、時刻=7時、のように日にちの方を音声認識部11で誤認識し、発話理解部21で誤った発話理解をしている。
From the content of the utterance to hear the reservation date and time, refer to the standard dialogue text data shown in Fig. 3 and respond to the
In the dialog example in Fig. 4, in response to a response saying "Please tell me the date and time of the reservation", Dialogue A wants to ask you at 7 o'clock on the 19th. The system recognizes the date in the
A10で〔日にち=X,時刻=Y〕という発話理解を行ったので、応答内容〔日にち=Xと時刻=Yを確認し、人数を聞く〕の定型対話文を図3から参照して、Xに29日を、Yに7時を代入して、『29日の7時から何名様でしようか。』と端末部10を通じて対話者Aに応答する。このとき、図2に従って対話状態A10から次対話状態A20に遷移する。対話者Aはシステムが誤認識していることを判断して『日にちが違います、19日の7時です。』と答えると、再び音声認識部11で音声認識を行い、発話理解部12で、日にち=19日とXの値を更新する〔日にち=X(訂正)〕の発話理解結果を得、図2で指定された応答内容と図3の定型対話文に従って『19日の7時から何名様でしようか。』と対話者Aに応答している。
Since the utterance understanding of [date = X, time = Y] was performed in A10, referring to the standard dialogue sentence of the response content [confirm date = X and time = Y and ask the number of people] from FIG. Substitute 29 days for Y, and 7 o'clock for Y. ”To the conversation person A through the
次対話状態はA20のままである。次に、対話者Aはシステムが日にちを正しく認識および理解していると判断して『10人で予約お願いします。』と発話しており、その発話を音声認識部11による認識結果から、システムが〔人数=Z〕でZの値が10人と発話理解部12で発話理解し、応答内容〔日にち=Xと時刻=Yと人数=Zを確認〕の定型対話文『XのYからZ様の御予約でよろしいでしようか。』を使って、『19日の7時から10名様の御予約でよろしいでしようか。』と対話者Aに応答し、次対話状態A30に遷移する。
The next dialog state remains A20. Next, Talker A determines that the system correctly recognizes and understands the date. From the recognition result of the
対話者Aは『はい、お願いします。』と発話し、この発話に対する音声認識部11による認識結果から〔肯定〕とシステムは発話理解部12で発話理解し、〔日にち=Xと時刻=Yと人数=Zを伝達〕という応答内容に対応する“I have a request for a reservation on the X,at Y,for Z.Is this possible?”に対して19日、7時、10人を英語に機械翻訳して、それぞれX,Y,Zに代入し、“I have a request for a reservation on the nineteenth,at seven o’clock,for ten people.Is this possible?”という定型対話文を対話者Bが利用する端末部20に伝達し、次対話状態B10に遷移する。
Interviewer A says “Yes, please. ”And the system recognizes the utterance at the
ここで、機械翻訳部31により機械翻訳を使用することができれば、11thと21st、one o’clockとone thirty、one personとtwo peopleのように、日にちの数字や時刻の言い回し、人数の単複による訳し分けなどを簡単に行うことができる。ここで適用する機械翻訳には、従来の機械翻訳技術を使用することができる。
対話者Bは“Yes,it’s possible”と英語で発話を行い、音声認識部21による認識結果からシステムが〔予約可〕と発話理解部22で発話理解して、応答内容〔予約可を確認〕に対する定型対話文“Shall I go ahead and tell the customer their request is possible?”を端末部20を通じて対話者Bに応答する。対話状態はB10から次対話状態B11に遷移し、B11で対話者Bの発話“Yes”を音声認識部21で認識し、〔肯定〕と発話理解部22で発話理解する。
Here, if machine translation can be used by the
Talker B utters “Yes, it's possible” in English, and the system recognizes the utterance from the recognition result by the
次に、発話内容〔予約可能を伝え名前を聞く〕に対する『予約はおとりできます。お客様のお名前と電話番号をお教えてください。』という日本語の定型対話文を対話者Aに端末部10を介して伝える。そして、対話状態B11から次対話状態A50に遷移する。
このような対話処理によりシステムを介した対話者Aと対話者Bの対話を続けていき、対話状態A90に遷移したものとする。遷移した対話状態A90で対話者Aの発話を音声認識部11で認識し、〔確認〕という理解結果が発話理解部12で得られ、応答内容〔対話終了を確認〕に対する定型対話文『終了しますか。』を対話者Aに端末部10を介して伝え、次対話状態A91に遷移する。ここで、対話者Aが『はい、終わります。』と発話し、音声認識部11による認識結果からシステムがこれを〔肯定〕と発話理解部12で発話理解し、端末部10を介して〔対話終了を伝達〕に対する定型対話文『ありがとうございました。』を対話者Aに伝える。ここで、次対話状態が終了状態となるので、対話は終了となる。
Next, “Reservation can be taken. What is your name and phone number? ”Is communicated to the conversation person A via the
It is assumed that the conversation between the conversation person A and the conversation person B via the system is continued through such a conversation process, and the state transitions to the conversation state A90. The
(第1の実施例)
図5は、本発明の第1の実施例に係る異言語間対話処理方法の処理フローチャートである。
第1の実施例では、音声認識部11,21では音声認識の従来技術、発話理解部12,22では発話理解の従来技術を利用する。応答内容を伝達し、応答を求める文を生成する方法として、定型対話文データ記憶部50のデータおよび従来の機械翻訳技術を利用するか、自然言語文生成および機械翻訳の従来技術を利用する。
図1の対話制御部30は、対話者Aが第1の言語により第1の端末部10を介して発話した文を音声認識部11により認識し(ステップ201)、発話された文の内容を発話理解部12により理解し、予め対話シナリオ記憶部40に記憶した対話シナリオを参照し(ステップ202)、発話を理解した結果により、次の処理を選択する(ステップ203)。
すなわち、(1)対話者Aが利用する端末部10に対する応答内容を決定し、該応答内容を第1の言語で対話者Aが利用する該端末部10に伝達するか(ステップ204)、あるいは、(2)対話者Bが利用する端末部20に対する応答内容を決定し、該応答内容を第2の言語で対話者Bが利用する端末部20に伝達するか(ステップ205)、あるいは、(3)対話を終了するか(ステップ206)、のいずれかを選択実行する。
(First embodiment)
FIG. 5 is a process flowchart of the interlingual dialogue processing method according to the first embodiment of the present invention.
In the first embodiment, the
The
That is, (1) Determine the response contents for the
前記(1)の場合には、対話者Aが利用する端末部10に、応答内容に対する発話を求め(ステップ207)、前記ステップ201を繰り返し実行し、前記(2)の場合には、対話者Bが利用する端末部20に応答内容に対する発話を求める(ステップ208)。
第2の言語による対話者Bの発話を端末部20を介して受信し、受信した発話内容を音声認識部21により認識し(ステップ209)、該発話の内容を発話理解部22により理解し、予め対話シナリオ記憶部40に記憶した対話シナリオを参照し(ステップ210)、発話を理解した結果により、次の処理を選択する(ステップ211)。すなわち、(1’)対話者Bが利用する端末部20に対する応答内容を決定し、該応答内容を第2の言語で対話者Bが利用する該端末部20に伝達するか(ステップ212)、あるいは、(2’)対話者Aが利用する端末部10に対する応答内容を決定し、該応答内容を第1の言語で対話者Aが利用する端末部10に伝達するか(ステップ213)、あるいは、(3’)対話を終了するか(ステップ214)、のいずれかを選択実行する。
In the case of (1), the
The utterance of the conversation person B in the second language is received via the
前記(1’)の場合には、対話者Bが利用する端末部20に、応答内容に対する発話を求め(ステップ215)、前記ステップ209を繰り返し、前記(2’)の場合には、対話者Aが利用する端末部10に、応答内容に対する発話を求め、前記ステップ201を繰り返し実行する(ステップ216)。
In the case of (1 ′), the
(第2の実施例)
図6は、本発明の第2の実施例に係る異言語間対話処理方法の処理フローチャートである。
第2の実施例においては、対話者の端末部10,20に応答内容を伝達する場合、対話シナリオ記憶部40に記載された応答内容ごとに、定型対話文データ記憶部50内に定型対話文を用意しておき、照合した応答内容が指定する定型対話文を使用して応答内容を伝達する。
すなわち、対話シナリオを参照し(ステップ301)、対話シナリオの応答内容ごとに定型対話文データ記憶部50に登録された定型対話文を参照する(ステップ302)。参照した定型対話文に、XかYなどの変項部分があるかどうかを調べ(ステップ303)、なければ、照合した応答内容が指定する定型対話文をそのまま用いて応答内容を端末部10,20に伝達する(ステップ304)。
(Second embodiment)
FIG. 6 is a process flowchart of the interlingual dialogue processing method according to the second embodiment of the present invention.
In the second embodiment, when the response content is transmitted to the
That is, the dialogue scenario is referred to (step 301), and the standard dialogue text registered in the standard dialogue text
変項部分があれば(ステップ305)、最も直前に発話を行った対話者とは異なる対話者の端末部に、上記応答内容を伝達するかどうかを調べ(ステップ305)、最も直前に発話を行った対話者とは異なる対話者に伝達する場合には、該定型対話文、あるいは、該定型対話文の一部に対して機械翻訳部31により変換して、変項部分を具体化する語句を決定する(ステップ306)。最も直前に発話を行った対話者に伝達する場合には、発話理解結果から、変項部分を具体化する語句を決定する(ステップ307)。ステップ306あるいはステップ307の後、定型対話文の変項部分を具体化して応答内容を端末部10,20に伝達する(ステップ308)。
If there is a variable part (step 305), it is checked whether or not the response content is transmitted to the terminal unit of the conversation person different from the conversation person who spoke most recently (step 305). When the message is transmitted to a different dialogue person, the
次に、本発明の第3の実施例について説明する。
図7および図8は、本発明の第3の実施例に係る異言語間対話処理方法のフローチャートである。
第3の実施例においては、対話制御部30が(a)自由発話状態か、(b)対話理解状態のいずれかの状態を持つ。また、対話シナリオ記憶部40には、図9に示すような複数の対話シナリオをキーフレーズと対応づけて記憶している。
まず、対話制御部30の状態を(a)自由発話状態に設定する(ステップ401)。
対話制御部30の状態が、(a)自由発話状態の場合(ステップ402)は、対話者Aが第1の言語により第1の端末部10を介して発話した文を音声認識部11により認識し(ステップ403)、対話シナリオ記憶部40に記憶しているキーフレーズを音声認識結果に含むかを判定する(ステップ404)。キーフレーズを含む場合には、状態を(b)対話理解状態に変更し、当該キーフレーズに対応づけて記憶されている対話シナリオを次ステップより参照するために一次記憶メモリに読み込む(ステップ410)。
Next, a third embodiment of the present invention will be described.
7 and 8 are flowcharts of the interlingual dialogue processing method according to the third embodiment of the present invention.
In the third embodiment, the
First, the state of the
When the state of the
キーフレーズを含まない場合には、認識結果を機械翻訳部31によって第2の言語に翻訳した結果を第2の端末部20に伝達する(ステップ405)。対話者Bの発話についても同様に処理する(ステップ406〜408)。どちらかの対話者によって、対話の終了が指示されれば、対話は終了する(ステップ409)。対話の終了の指示は、音声入力によって、あるいは、キーボードやマウスなどの入力装置によって指示される。
対話制御部30の状態が(b)対話理解状態の場合、図8のフローチャートを実行する(ステップ402)。対話制御部30は、対話者Aが第1の言語により第1の端末部10を介して発話した文を音声認識部11により認識し(ステップ501)、発話された文の内容を発話理解部12により理解し、ステップ410で一次記憶メモリに読み込んだ対話シナリオを参照し(ステップ502)、第1の実施例と同様に(1)〜(3)のいずれかの処理を選択し、実行する(ステップ503)。
If the key phrase is not included, the result of translating the recognition result into the second language by the
When the state of the
ただし、前記(1)の処理が選択された場合には、音声認識結果を機械翻訳部31によって第2の言語に翻訳して対話者Bに伝達し、対話者Bからの入力を一定の時間(例えば、1秒)受け付ける(ステップ504)。入力は、対話者Bが端末部20を介して発話した文を音声認識部21により認識した音声認識結果や、キーボード入力などでもよい。
対話者Bからの入力がない場合は、第1の実施例と同様に、対話者Aが利用する端末部10に対する応答内容を決定し、該応答内容を第1の言語で端末部10に伝達する。対話者Bからの入力があった場合は、前記決定した応答内容を端末部10に伝達せずに、該入力を機械翻訳部31によって第1の言語に翻訳した翻訳結果を端末部10に伝達する(ステップ5041)。その後、直前に対話者Aに伝達した応答内容を用いて再び対話者Aに応答を求める(ステップ507)。
同様にして、端末者Bによる発話も処理する(ステップ509〜516)。
ステップ503、あるいはステップ511において、(3)対話が終了するが選択された場合、図7のフローチャートに戻る。すなわち、対話制御部30の状態を(a)自由発話状態に変更し(ステップ401)、音声認識結果にキーフレーズが含まれない限り、図7のフローチャートに示す対話が実行される。
However, when the process (1) is selected, the speech recognition result is translated into the second language by the
When there is no input from the conversation person B, as in the first embodiment, the response content for the
Similarly, the utterance by the terminal person B is also processed (
In
図10は、本発明の第3の実施例による対話例を示す説明図である。
図10の*1の部分は、対話制御部30の状態が(a)自由発話状態である対話を示し、*2の部分は、(b)対話理解状態である対話を示す。それぞれの発話における括弧内の文は、音声認識結果が機械翻訳部31によって翻訳され、そのまま相手の対話者に伝達された文を示す。
*1の部分に示す対話では、対話シナリオでは想定していない挨拶などの対話を、そのまま他方の対話者に伝えることで、意思の疎通を実現している。
対話者Bの発話にキーフレーズ『予約』が含まれているため、この後の対話では予約シナリオが実行される。ここで、対話者Bの発話に他のキーフレーズが含まれていれば、他のシナリオ(例えば、前記注文シナリオ)を実行することができ、対話者の所望する対話を選択して実現することができる。
FIG. 10 is an explanatory diagram showing an example of interaction according to the third embodiment of the present invention.
The part * 1 in FIG. 10 indicates a dialog in which the state of the
* In the dialogue shown in
Since the key phrase “reservation” is included in the utterance of the conversation person B, the reservation scenario is executed in the subsequent conversation. Here, if another key phrase is included in the utterance of the conversation person B, another scenario (for example, the order scenario) can be executed, and the conversation desired by the conversation person is selected and realized. Can do.
*2の部分に示す対話では、対話者Aの発話した文を翻訳した括弧内の文が対話者Bに伝達される。対話者Aが『何人まで大丈夫ですか?』と対話シナリオで想定していない文を発話したとき、図2に示す予約シナリオでは発話理解失敗に該当するため、第1の実施例では、再び『19日の7時から何名様でしょうか』と対話シナリオに沿った不自然な応答を対話者Aに伝達してしまう。一方、第3の実施例では、対話者Aの発話を翻訳して結果である『How many seats do you have?』を対話者Bに伝達し、対話者Bからの入力を受け付けるため、対話者Bが『Thirty seats.』と対話シナリオで想定していない対話に対しても応答を入力することができる。システムは、『Thirty seats.』を翻訳した結果である『30席です。』を対話者Aに伝達した後、直前に対話者Aに伝達した応答内容である『19日の7時から何名様でしようか』を再び利用して対話者Aに応答を求める。 In the dialogue shown in the part of * 2, a sentence in parentheses obtained by translating a sentence spoken by the conversation person A is transmitted to the conversation person B. Interviewer A asked, “How many people are all right? When the sentence that is not assumed in the dialogue scenario is uttered, the reservation scenario shown in FIG. 2 corresponds to the utterance comprehension failure. ”And an unnatural response along the dialogue scenario is transmitted to the dialogue person A. On the other hand, in the third embodiment, the utterance of the conversation person A is translated, and the result “How many seats do you have? ”Is transmitted to the dialogue person B, and the dialogue person B receives“ Thirty seats. It is possible to input a response to a dialogue that is not assumed in the dialogue scenario. The system is “Thirty seats. "Thirty seats." ”Is transmitted to the interlocutor A, and the response content transmitted to the interlocutor A immediately before is used again to ask the interrogator A for a response by using“ how many people are there from 7 o'clock on the 19th ”.
このように、第3の実施例では、対話シナリオで想定していない文を対話者が発話した場合でも、自然な対話を実行することができる。
そして、対話シナリオの実行が終了すれば、(a)自由発話状態となり、再びキーフレーズが含まれた発話がなされるまで、対話者の発話を音声認識し、音声認識結果を翻訳して他方の対話者に伝える。図10の対話では、予約が完了した後に、『Thank you very much.』と『What more can I help?』という発話が対話者Bによってなされている。図2に示す予約シナリオでは、予約を完了した後の対話については想定されていないが、第3の実施例によれば、これらの発話が音声認識され、機械翻訳により翻訳され、他方の対話者に伝えられる。
ここで、対話者Aが『注文できますか?』とキーフレーズを含む発話を行なえば、キーフレーズに対応づけて記憶されている注文シナリオを実行して、対話を進めることも可能である。
As described above, in the third embodiment, a natural dialogue can be executed even when a dialogue person utters a sentence that is not assumed in the dialogue scenario.
Then, when the execution of the dialogue scenario is finished, (a) it becomes a free utterance state, until the utterance including the key phrase is made again, the utterance of the conversation person is recognized by speech, the speech recognition result is translated, Tell the interlocutor. In the dialog shown in FIG. 10, after the reservation is completed, “Thank you very much. And “What more can I help?” Is spoken by the conversation person B. In the reservation scenario shown in FIG. 2, the dialog after completing the reservation is not assumed, but according to the third embodiment, these utterances are recognized by speech and translated by machine translation. To be told.
Here, Talker A asks, “Can I place an order? If the utterance including the key phrase is performed, the order scenario stored in association with the key phrase can be executed to proceed with the dialogue.
(プログラムと記録媒体)
このような実施形態の方法および装置を使用することにより、一方の対話者が他方の対話者と異なる言語を使用して発話を行う対話で、対話者の発話した内容を誤って認識した場合であっても、最終的には、予約の可否を問い合わせ予約を受け付けるなどの対話の目的を達成させることができる。
なお、図5に示す処理フローをコード化してプログラムとし、これをCD−ROMなどの記録媒体に格納しておけば、プログラムの販売や貸付けなどの場合には便利であり、また、対話システムのコンピュータに記録媒体を装着して、プログラムをインストールして実行させることにより、本発明を容易に実現させることが可能である。
(Program and recording medium)
By using the method and apparatus of such an embodiment, in a dialogue in which one talker speaks using a language different from the other talker, the content spoken by the talker is erroneously recognized. Even in such a case, it is possible to finally achieve the purpose of the dialog, such as accepting an inquiry reservation as to whether reservation is possible.
If the processing flow shown in FIG. 5 is coded into a program and stored in a recording medium such as a CD-ROM, it is convenient for selling or lending the program, and an interactive system. It is possible to easily implement the present invention by installing a recording medium in the computer, installing the program, and executing the program.
10…端末部、20…端末部、30…対話制御部、11…音声認識部、
12…発話理解部、21…音声認識部、22…発話理解部、
31…機械翻訳部、40…対話シナリオ記憶部、
50…定型対話文データ記憶部。
DESCRIPTION OF
12 ... Speech understanding unit, 21 ... Speech recognition unit, 22 ... Speech understanding unit,
31 ... Machine translation unit, 40 ... Dialog scenario storage unit,
50: A fixed dialog sentence data storage unit.
Claims (16)
第1の対話者が第1の言語で第1の端末部を介して発話した文を音声認識部により認識し、発話された文の内容を発話理解部により理解し、
該対話制御部において、予め記憶した対話シナリオを参照し、前記発話を理解した結果により、(1)第1の対話者が利用する第1の端末部に対する応答内容を決定し、該応答内容を第1の言語で該端末部に伝達するか、あるいは、(2)第2の対話者が利用する第2の端末部に対する応答内容を決定し、該応答内容を第2の言語で該端末部に伝達するか、あるいは、(3)対話を終了するか、のいずれかを選択実行する第1のステップと、
前記(1)の場合には、第1の対話者の第1の端末部に、応答内容に対する発話を求め、前記第1のステップを繰り返し実行し、前記(2)の場合には、第2の対話者が利用する第2の端末部に応答内容に対する発話を求める第2のステップと、
第2の対話者が第2の言語で第2の端末部を介して発話した場合、発話した発話内容を音声認識部により認識し、該発話の内容を発話理解部により理解し、
該対話制御部において、予め記憶した対話シナリオを参照し、該発話を理解した結果により、(1’)第2の対話者が利用する第2の端末部に対する応答内容を決定し、該応答内容を第2の言語で該端末部に伝達するか、あるいは、(2’)第1の対話者が利用する第1の端末部に対する応答内容を決定し、該応答内容を第1の言語で該端末部に伝達するか、あるいは、(3’)対話を終了するか、のいずれかを選択実行する第3のステップと、
前記(1’)の場合には、第2の対話者が利用する第2の端末部に、応答内容に対する発話を求め、前記第3のステップを繰り返し実行し、前記(2’)の場合には、第1の対話者が利用する第1の端末部に、応答内容に対する発話を求め、前記第1のステップを繰り返し実行する第4のステップと
を有することを特徴とする異言語間対話処理方法。 Inter-lingual dialogue processing method for connecting a plurality of terminal units for performing dialogue by users using different languages via the dialogue control unit, and for communicating between the users of the terminal unit by the dialogue control unit Because
A speech recognizer recognizes a sentence spoken by the first dialogue person in the first language via the first terminal part, and understands the content of the spoken sentence by the speech understanding part;
In the dialogue control unit, referring to a dialogue scenario stored in advance, and based on the result of understanding the utterance, (1) the response content for the first terminal unit used by the first dialogue person is determined, and the response content is determined. (2) Determine the response content for the second terminal unit used by the second dialogue person and transmit the response content in the second language to the terminal unit in the first language Or (3) a first step of selectively executing whether to terminate the dialogue;
In the case of the above (1), the first terminal unit of the first conversation person is asked for an utterance for the response content, and the first step is repeatedly executed. In the case of the above (2), the second terminal A second step of requesting an utterance for the response content from the second terminal unit used by
When the second conversation person speaks in the second language through the second terminal unit, the speech recognition unit recognizes the uttered utterance content, and the utterance understanding unit understands the utterance content.
In the dialogue control unit, referring to a dialogue scenario stored in advance, and based on the result of understanding the utterance, (1 ′) the response content for the second terminal unit used by the second dialogue person is determined, and the response content To the terminal unit in the second language, or (2 ′) determining the response content for the first terminal unit used by the first interrogator and transmitting the response content in the first language A third step of selecting and executing either the transmission to the terminal unit or (3 ′) termination of the dialogue;
In the case of (1 ′), the second terminal unit used by the second interrogator asks the utterance for the response content, repeats the third step, and in the case of (2 ′) Has a fourth step of requesting an utterance for the response content to the first terminal unit used by the first interlocutor and repeatedly executing the first step. Method.
第1の対話者が第1の言語で第1の端末部を介して発話した文を前記音声認識部により認識し、該認識結果を第2の言語に翻訳した翻訳結果を第2の端末部に伝達し、第2の対話者が第2の言語で前記第2の端末部を介して発話した文を前記音声認識部により認識し、該認識結果を第1の言語に翻訳した翻訳結果を第1の端末部に伝達する第5のステップをさらに有し、(a)自由発話状態と(b)対話理解状態のいずれかの状態を有し、
(a)自由発話状態の場合には、前記第5のステップを繰り返し実行するとともに、予め対話シナリオと関連付けて前記対話制御部に記憶したキーフレーズを前記認識結果が含むならば、状態を前記(b)対話状態に変更するか、
(b)対話理解状態の場合には、前記第1から第4のステップを実行し、
前記第1のステップにおいて、前記(1)から(3)に加えて、(4)状態を(b)対話理解状態に変更するか、のいずれかを選択実行し、
前記第3のステップにおいて、前記(1’)から(3’)に加えて、(4’)状態を(b)対話理解状態に変更するか、のいずれかを選択実行する
ことを特徴とする請求項1から3までのいずれか一項に記載の異言語間対話方法。 In the dialog control unit,
The speech recognition unit recognizes a sentence uttered by the first conversation person in the first language through the first terminal unit, and the translation result obtained by translating the recognition result into the second language is the second terminal unit. And the speech recognition unit recognizes a sentence uttered by the second interlocutor in the second language through the second terminal unit, and translates the recognition result into the first language. A fifth step of transmitting to the first terminal unit, and having either (a) a free speech state or (b) a dialog understanding state,
(A) In the case of a free speech state, the fifth step is repeatedly executed, and if the recognition result includes a key phrase previously associated with a dialogue scenario and stored in the dialogue control unit, the state is represented by ( b) change to conversational state,
(B) In the case of the dialog understanding state, the first to fourth steps are executed,
In the first step, in addition to (1) to (3) above, (4) the state is selected and executed (b) the dialog understanding state is selected and executed,
In the third step, in addition to (1 ′) to (3 ′), any one of (4 ′) changing the state to (b) the dialogue understanding state is selectively executed. The interlingual dialogue method according to any one of claims 1 to 3.
第1の対話者が第1の言語で第1の端末部を介して発話した文を前記音声認識部により認識し、該認識結果を第2の言語に翻訳した翻訳結果を第2の端末部に伝達し、
第2の対話者からの第2の言語による入力を受け付け、入力があった場合には、
前記(1)の場合に、前記決定した応答内容を第1の端末部に伝達せずに、該入力を第1の言語に翻訳して該端末部に伝達し、
前記第3のステップは、さらに、
第2の対話者が第2の言語で第2の端末部を介して発話した文を前記音声認識部により認識し、該認識結果を第1の言語に翻訳した翻訳結果を第1の端末部に伝達し、
第1の対話者からの第1の言語による入力を受け付け、入力があった場合には、
前記(1’)の場合に、前記決定した応答内容を第2の端末部に伝達せずに、該入力を第2の言語に翻訳して第2の端末部に伝達する
ことを特徴とする請求項1から4までのいずれか一項に記載の異言語間対話方法。 The first step further comprises:
The speech recognition unit recognizes a sentence uttered by the first conversation person in the first language through the first terminal unit, and the translation result obtained by translating the recognition result into the second language is the second terminal unit. Communicate to
Accepts input in a second language from a second interlocutor and if there is an input,
In the case of (1), without transmitting the determined response content to the first terminal unit, the input is translated into the first language and transmitted to the terminal unit,
The third step further comprises:
The speech recognition unit recognizes a sentence uttered by the second dialogue person in the second language via the second terminal unit, and the translation result obtained by translating the recognition result into the first language is the first terminal unit. Communicate to
Accepts input in the first language from the first interlocutor and if there is input,
In the case of (1 ′), the input content is translated into the second language and transmitted to the second terminal unit without transmitting the determined response content to the second terminal unit. The method for interactive dialogue between different languages according to any one of claims 1 to 4.
第1の対話者が第1の言語で第1の端末部を介して発話した文を音声認識する音声認識部と、
該音声認識の結果から発話された文の内容を理解する発話理解部と、
予め記憶した対話シナリオを参照し、前記発話を理解した結果により、(1)第1の対話者が利用する第1の端末部に対する応答内容を決定し、該応答内容を第1の言語で該端末部に伝達するか、あるいは、(2)第2の対話者が利用する第2の端末部に対する応答内容を決定し、該応答内容を第2の言語で該端末部に伝達するか、あるいは、(3)対話を終了するか、のいずれかを選択実行する第1の手段、
前記(1)の場合には、第1の対話者が利用する端末部に、応答内容に対する発話を求め、前記第1の手段を繰り返し実行し、前記(2)の場合には、第2の対話者が利用する第2の端末部に応答内容に対する発話を求める第2の手段、
第2の対話者が第2の言語で第2の端末部を介して発話し、発話した発話内容を音声認識部により認識し、該発話の内容を発話理解部により理解し、対話制御部において、予め記憶した対話シナリオを参照し、該発話を理解した結果により、(1’)第2の対話者が利用する第2の端末部に対する応答内容を決定し、該応答内容を第2の言語により該端末部に伝達するか、あるいは、(2’)第1の対話者が利用する第1の端末部に対する応答内容を決定し、該応答内容を第1の言語で該端末部に伝達するか、あるいは、(3’)対話を終了するか、のいずれかを選択実行する第3の手段、
前記(1’)の場合には、第2の対話者が利用する第2の端末部に、応答内容に対する発話を求め、前記(2’)の場合には、第1の対話者が利用する第1の端末部に、応答内容に対する発話を求め、前記第3の手段を繰り返し実行し、前記第1の手段を繰り返し実行する第4の手段
を備えた対話制御部とを有することを特徴とする異言語間対話処理装置。 Inter-lingual dialogue processing apparatus for connecting a plurality of terminal units for performing dialogue by users using different languages through the dialogue control unit, and for communicating between the users of the terminal unit by the dialogue control unit Because
A voice recognition unit that recognizes a sentence uttered by the first interlocutor in the first language through the first terminal unit;
An utterance understanding unit that understands the content of a sentence uttered from the result of the speech recognition;
Based on the result of understanding the utterance with reference to a pre-stored dialogue scenario, (1) the response content for the first terminal unit used by the first interlocutor is determined, and the response content in the first language Or (2) determining a response content for the second terminal unit used by the second interrogator and transmitting the response content in the second language to the terminal unit, or , (3) a first means for selectively executing either one of the dialogs to be terminated;
In the case of (1), the terminal unit used by the first interlocutor is asked to utter the response content, and the first means is repeatedly executed. In the case of (2), the second part A second means for requesting an utterance for the response content to the second terminal unit used by the interlocutor;
The second dialogue person speaks in the second language through the second terminal unit, the spoken speech content is recognized by the voice recognition unit, the speech content is understood by the speech understanding unit, and the dialogue control unit , Referring to a dialogue scenario stored in advance, and based on the result of understanding the utterance, (1 ′) determining a response content for the second terminal unit used by the second dialog person, and storing the response content in the second language To the terminal unit or (2 ′) determine the response content for the first terminal unit used by the first interlocutor and transmit the response content to the terminal unit in the first language Or (3 ′) a third means for selectively executing whether to terminate the dialog,
In the case of (1 ′), the second terminal unit used by the second interlocutor is asked to speak the response content, and in the case of (2 ′), the first interlocutor uses it. A dialogue control unit having a fourth means for obtaining an utterance for the response content in the first terminal unit, repeatedly executing the third means, and repeatedly executing the first means; Interlingual dialogue processing device.
前記対話制御部は、該定型対話文と照合した応答内容が指定する定型対話文を使用して該応答内容を端末部に伝達することを特徴とする請求項6記載の異言語間対話処理装置。 The dialog control unit further includes a standard dialog data storage unit that stores a standard dialog for each response content described in the dialog scenario when the response content is transmitted to the terminal unit of the dialog person,
7. The interlingual dialog processing apparatus according to claim 6, wherein the dialog control unit transmits the response content to the terminal unit using a standard dialog text specified by the response content collated with the standard dialog text. .
該定型対話文、あるいは、該定型対話文の一部に対して機械翻訳部による変換結果を組み合わせて、応答内容を伝達することを特徴とする請求項7記載の異言語間対話処理装置。 The said dialog control part is a case where the said response content is transmitted to the terminal part which the dialog person different from the dialog person who spoke last time uses, ie, (2) or (2 ') of Claim 4 In Case of,
8. The interlingual dialogue processing apparatus according to claim 7, wherein a response content is transmitted by combining a conversion result by a machine translation unit with respect to the fixed dialog sentence or a part of the fixed dialog sentence.
(a)自由発話状態と(b)対話理解状態のいずれかの状態を有し、(a)自由発話状態の場合には、第5の手段を繰り返し実行するとともに、予め対話シナリオと関連付けて前記対話制御部に記憶したキーフレーズを前記認識結果が含むならば、状態を前記(b)対話状態に変更するか、
(b)対話理解状態の場合には、前記第1から第4の手段を実行し、
前記第1の手段において、前記(1)から(3)に加えて、(4)状態を(b)対話理解状態に変更するか、のいずれかを選択実行し、
前記第3の手段において、前記(1’)から(3’)に加えて、(4’)状態を(b)対話理解状態に変更するか、のいずれかを選択実行する
ことを特徴とする請求項6から8までのいずれか一項に記載の異言語間対話処理装置。 The dialogue control unit recognizes, by the voice recognition unit, a sentence uttered by a first talker in a first language via a first terminal unit, and translates the recognition result into a second language. To the second terminal unit, the second speech unit recognizes a sentence uttered in the second language through the second terminal unit by the voice recognition unit, and the recognition result is recognized in the first language. And a fifth means for transmitting the translation result translated into the first terminal unit,
In the case of (a) free utterance state and (b) dialogue understanding state, and (a) free utterance state, the fifth means is repeatedly executed and associated with the dialogue scenario in advance. If the recognition result includes the key phrase stored in the dialogue control unit, the state is changed to the (b) dialogue state,
(B) In the case of the dialog understanding state, the first to fourth means are executed,
In the first means, in addition to (1) to (3), (4) the state is selected and executed (b) the state is changed to the dialog understanding state.
In the third means, in addition to (1 ′) to (3 ′), any one of (4 ′) changing the state to (b) conversation understanding state is selectively executed. The cross-language dialogue processing apparatus according to any one of claims 6 to 8.
第2の対話者からの第2の言語による入力を受け付け、入力があった場合には、
前記(1)の場合に、前記決定した応答内容を第1の端末部に伝達せずに、該入力を第1の言語に翻訳して該端末部に伝達し、
前記第3の手段は、さらに、
第2の対話者が第2の言語で第2の端末部を介して発話した文を前記音声認識部により認識し、該認識結果を第1の言語に翻訳した翻訳結果を第1の端末部に伝達し、
第1の対話者からの第1の言語による入力を受け付け、入力があった場合には、
前記(1’)の場合に、前記決定した応答内容を第2の端末部に伝達せずに、該入力を第2の言語に翻訳して第2の端末部に伝達する
ことを特徴とする請求項6から9までのいずれか一項に記載の異言語間対話処理装置。 The fifth means further recognizes, by the voice recognition unit, a sentence spoken by the first dialogue person in the first language through the first terminal unit, and translates the recognition result into the second language. The translated result to the second terminal,
Accepts input in a second language from a second interlocutor and if there is an input,
In the case of (1), without transmitting the determined response content to the first terminal unit, the input is translated into the first language and transmitted to the terminal unit,
The third means further includes
The speech recognition unit recognizes a sentence uttered by the second dialogue person in the second language via the second terminal unit, and the translation result obtained by translating the recognition result into the first language is the first terminal unit. Communicate to
Accepts input in the first language from the first interlocutor and if there is input,
In the case of (1 ′), the input content is translated into the second language and transmitted to the second terminal unit without transmitting the determined response content to the second terminal unit. The cross-language dialogue processing apparatus according to any one of claims 6 to 9.
該対話制御部のコンピュータに、第1の対話者が第1の言語で第1の端末部を介して発話した文を音声認識部により認識する手順、発話された文の内容を発話理解部により理解する手順、予め記憶した対話シナリオを参照し、前記発話を理解した結果により、(1)第1の対話者が利用する端末部に対する応答内容を決定し、該応答内容を第1の言語で該端末部に伝達するか、あるいは、(2)第2の対話者が利用する第2の端末部に対する応答内容を決定し、該応答内容を第2の言語で該端末部に伝達するか、あるいは、(3)対話を終了するか、のいずれかを選択実行する対話制御部における第1の手順、
前記(1)の場合には、第1の対話者が利用する第1の端末部に、応答内容に対する発話を求め、前記第1の手順を繰り返し実行し、前記(2)の場合には、第2の対話者の端末部に伝達内容に対する発話を求める対話制御部における第2の手順、
第2の対話者が第2の言語で第2の端末部を介して発話し、発話した発話内容を音声認識部により認識し、該発話の内容を発話理解部により理解する手順、予め記憶した対話シナリオを参照し、対話制御部において、該発話を理解した結果により、(1’)第2の対話者が利用する第2の端末部に対する応答内容を決定し、該応答内容を第2の言語により該端末部に伝達するか、あるいは、(2’)第1の対話者が利用する第1の端末部に対する応答内容を決定し、該応答内容を第1の言語で該端末部に伝達するか、あるいは、(3’)対話を終了するか、のいずれかを選択実行する対話制御部における第3の手順、
前記(1’)の場合には、第2の対話者が利用する第2の端末部に、応答内容に対する発話を求め、前記第3の手順を繰り返し実行し、前記(2’)の場合には、第1の対話者の端末部に、応答内容に対する応答を求め、前記第1の手順を繰り返し実行する対話制御部における第4の手順を、それぞれ実行させるための異言語間対話処理用プログラム。 For dialogue processing between different languages that connects multiple terminal units for dialogue by users who use different languages via the dialogue control unit, and communicates between the users of the terminal unit by the dialogue control unit A program,
A procedure for recognizing a sentence uttered by a first dialogue person in the first language through the first terminal unit by the voice recognition unit on the computer of the dialogue control unit, and the contents of the spoken sentence by the utterance understanding unit Based on the understanding procedure, the dialogue scenario stored in advance, and the result of understanding the utterance, (1) the response content for the terminal unit used by the first dialogue person is determined, and the response content in the first language Or (2) determining a response content for the second terminal unit used by the second interrogator and transmitting the response content in the second language to the terminal unit, Alternatively, (3) a first procedure in the dialog control unit for selectively executing either of the dialog is terminated,
In the case of (1), the first terminal unit used by the first interrogator asks the utterance for the response content, repeats the first procedure, and in the case of (2), A second procedure in the dialogue control unit that asks the terminal unit of the second dialoguer to utter the transmitted content;
A procedure in which a second conversation person speaks in the second language through the second terminal unit, recognizes the uttered utterance content by the voice recognition unit, and understands the utterance content by the utterance understanding unit, previously stored Based on the result of understanding the utterance in the dialogue control unit with reference to the dialogue scenario, (1 ′) the response content for the second terminal unit used by the second dialogue person is determined, and the response content is set to the second It is transmitted to the terminal unit by language, or (2 ′) the response content for the first terminal unit used by the first interrogator is determined, and the response content is transmitted to the terminal unit in the first language. Or (3 ′) a third procedure in the dialogue control unit for selectively executing the dialogue termination,
In the case of (1 ′), the second terminal unit used by the second dialog person is asked for an utterance for the response content, the third procedure is repeatedly executed, and in the case of (2 ′) Is a program for different language interaction processing for causing the terminal unit of the first dialogue person to obtain a response to the response content and causing the fourth procedure in the dialogue control unit to repeatedly execute the first procedure. .
前記対話制御部のコンピュータに、対話者が利用する端末部に応答内容を伝達する場合、対話シナリオごとに用意された定型対話文を参照する手順、照合した応答内容が指定する定型対話文を使用して応答内容を伝達する手順を、それぞれ実行させるための異言語間対話処理用プログラム。 The program for interactive processing between different languages according to claim 11,
When the response content is transmitted to the computer of the dialog control unit to the terminal unit used by the interlocutor, a procedure for referring to the standard dialog prepared for each dialog scenario and the standard dialog specified by the collated response content are used. Program for different language interaction processing to execute the procedure of transmitting the response contents in response.
前記対話制御部のコンピュータに、最も直前に発話を行った対話者とは異なる対話者が利用する端末部に、上記応答内容を伝達する場合には、該定型対話文、あるいは、該定型対話文の一部に対して機械翻訳部による変換結果を組み合わせて、応答内容を伝達する手順を、実行させるための異言語間対話処理用プログラム。 The program for interactive processing between different languages according to claim 12,
When the response content is transmitted to the computer of the dialog control unit to a terminal unit used by a dialog person different from the dialog person who spoke most recently, the standard dialog text or the standard dialog text is used. A program for interlingual interaction processing for executing a procedure for transmitting a response content by combining a conversion result by a machine translation unit for a part of the program.
前記対話制御部のコンピュータに、第1の対話者が第1の言語で第1の端末部を介して発話した文を前記音声認識部により認識し、該認識結果を第2の言語に翻訳した翻訳結果を第2の端末部に伝達し、第2の対話者が第2の言語で前記第2の端末部を介して発話した文を前記音声認識部により認識し、該認識結果を第1の言語に翻訳した翻訳結果を第1の端末部に伝達する第5の手順をさらに実行させ、
(a)自由発話状態と(b)対話理解状態のいずれかの状態を有し、(a)自由発話状態の場合には、前記第5の手順を繰り返し実行するとともに、予め対話シナリオと関連付けて前記対話制御部に記憶したキーフレーズを前記認識結果が含むならば、状態を前記(b)対話状態に変更し、(b)対話理解状態の場合には、前記第1から第4の手順を実行させ、
前記第1の手順において、前記(1)から(3)に加えて、(4)状態を(b)対話理解状態に変更するか、のいずれかを選択実行する手順、
前記第3の手段において、前記(1’)から(3’)に加えて、(4’)状態を(b)対話理解状態に変更するか、のいずれかを選択実行する手順を実行させるための異言語間対話処理用プログラム。 The program for interlingual dialogue processing according to any one of claims 11 to 13,
The computer of the dialogue control unit recognizes a sentence spoken by the first dialogue person in the first language through the first terminal unit by the voice recognition unit, and translates the recognition result into the second language. The translation result is transmitted to the second terminal unit, and the speech recognition unit recognizes a sentence uttered by the second dialog person in the second language through the second terminal unit, and the recognition result is first Further executing a fifth procedure for transmitting the translation result translated into the first language to the first terminal unit,
(A) It has any state of a free utterance state and (b) a dialogue understanding state. In the case of (a) a free utterance state, the fifth procedure is repeatedly executed and associated with a dialogue scenario in advance. If the recognition result includes the key phrase stored in the dialogue control unit, the state is changed to the (b) dialogue state, and (b) the dialogue understanding state, the first to fourth steps are performed. Let it run
In the first procedure, in addition to the steps (1) to (3), a procedure for selecting and executing (4) changing the state to (b) the dialogue understanding state,
In the third means, in addition to (1 ′) to (3 ′), in order to execute a procedure for selecting and executing either (4 ′) the state or (b) changing the dialogue understanding state A program for interactive processing of different languages.
第2の対話者からの第2の言語による入力を受け付け、入力があった場合には、
前記(1)の場合に、前記決定した応答内容を第1の端末部に伝達せずに、該入力を第1の言語に翻訳して該端末部に伝達する手順であり、
前記第3の手順は、さらに、第2の対話者が第2の言語で第2の端末部を介して発話した文を前記音声認識部により認識し、該認識結果を第1の言語に翻訳した翻訳結果を第1の端末部に伝達する手順、
第1の対話者からの第1の言語による入力を受け付け、入力があった場合には、
前記(1’)の場合に、前記決定した応答内容を第2の端末部に伝達せずに、該入力を第2の言語に翻訳して第2の端末部に伝達する手順であることを特徴とする請求項11から14までのいずれか一項に記載の異言語間対話処理用プログラム。 The fifth procedure to be executed by the computer of the dialog control unit is further configured to recognize a sentence spoken by the first dialog person in the first language via the first terminal unit by the voice recognition unit, A procedure for transmitting a translation result obtained by translating the recognition result into the second language to the second terminal unit;
Accepts input in a second language from a second interlocutor and if there is an input,
In the case of (1), without transmitting the determined response content to the first terminal unit, the input is translated into the first language and transmitted to the terminal unit,
In the third procedure, the speech recognizer recognizes a sentence spoken by the second dialogue person in the second language through the second terminal unit, and translates the recognition result into the first language. To transmit the translated result to the first terminal unit,
Accepts input in the first language from the first interlocutor and if there is input,
In the case of (1 ′), it is a procedure of translating the input into the second language and transmitting it to the second terminal unit without transmitting the determined response content to the second terminal unit. 15. The program for cross-lingual dialogue processing according to any one of claims 11 to 14.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003375204A JP4103085B2 (en) | 2003-05-20 | 2003-11-05 | Interlingual dialogue processing method and apparatus, program, and recording medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003141802 | 2003-05-20 | ||
JP2003375204A JP4103085B2 (en) | 2003-05-20 | 2003-11-05 | Interlingual dialogue processing method and apparatus, program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005004716A true JP2005004716A (en) | 2005-01-06 |
JP4103085B2 JP4103085B2 (en) | 2008-06-18 |
Family
ID=34106420
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003375204A Expired - Fee Related JP4103085B2 (en) | 2003-05-20 | 2003-11-05 | Interlingual dialogue processing method and apparatus, program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4103085B2 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007114621A (en) * | 2005-10-21 | 2007-05-10 | Aruze Corp | Conversation controller |
JP2007115144A (en) * | 2005-10-21 | 2007-05-10 | Aruze Corp | Conversation controller |
JP2007115145A (en) * | 2005-10-21 | 2007-05-10 | Aruze Corp | Conversation controller |
JP2007115142A (en) * | 2005-10-21 | 2007-05-10 | Aruze Corp | Conversation controller |
JP2007115143A (en) * | 2005-10-21 | 2007-05-10 | Aruze Corp | Conversation controller |
JP2009193532A (en) * | 2008-02-18 | 2009-08-27 | Oki Electric Ind Co Ltd | Dialogue management device, method, and program, and consciousness extraction system |
JP2011076627A (en) * | 2010-12-16 | 2011-04-14 | Oki Electric Industry Co Ltd | Interaction management device, method, program, and consciousness extraction system |
US10311147B2 (en) | 2016-03-14 | 2019-06-04 | Kabushiki Kaisha Toshiba | Machine translation apparatus and machine translation method |
-
2003
- 2003-11-05 JP JP2003375204A patent/JP4103085B2/en not_active Expired - Fee Related
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007114621A (en) * | 2005-10-21 | 2007-05-10 | Aruze Corp | Conversation controller |
JP2007115144A (en) * | 2005-10-21 | 2007-05-10 | Aruze Corp | Conversation controller |
JP2007115145A (en) * | 2005-10-21 | 2007-05-10 | Aruze Corp | Conversation controller |
JP2007115142A (en) * | 2005-10-21 | 2007-05-10 | Aruze Corp | Conversation controller |
JP2007115143A (en) * | 2005-10-21 | 2007-05-10 | Aruze Corp | Conversation controller |
JP2009193532A (en) * | 2008-02-18 | 2009-08-27 | Oki Electric Ind Co Ltd | Dialogue management device, method, and program, and consciousness extraction system |
JP2011076627A (en) * | 2010-12-16 | 2011-04-14 | Oki Electric Industry Co Ltd | Interaction management device, method, program, and consciousness extraction system |
US10311147B2 (en) | 2016-03-14 | 2019-06-04 | Kabushiki Kaisha Toshiba | Machine translation apparatus and machine translation method |
Also Published As
Publication number | Publication date |
---|---|
JP4103085B2 (en) | 2008-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101042119B1 (en) | Semantic object synchronous understanding implemented with speech application language tags | |
KR101066741B1 (en) | Semantic object synchronous understanding for highly interactive interface | |
EP2282308B1 (en) | Multi-slot dialog system and method | |
US6801897B2 (en) | Method of providing concise forms of natural commands | |
KR101211796B1 (en) | Apparatus for foreign language learning and method for providing foreign language learning service | |
JP5967569B2 (en) | Speech processing system | |
EP1089193A2 (en) | Translating apparatus and method, and recording medium used therewith | |
JP6150268B2 (en) | Word registration apparatus and computer program therefor | |
JP2002540479A (en) | Client-server speech recognition | |
JP2011504624A (en) | Automatic simultaneous interpretation system | |
WO2018043138A1 (en) | Information processing device, information processing method, and program | |
JP2006251545A (en) | Speech interaction system and computer program | |
JP4103085B2 (en) | Interlingual dialogue processing method and apparatus, program, and recording medium | |
US8355484B2 (en) | Methods and apparatus for masking latency in text-to-speech systems | |
EP1899955B1 (en) | Speech dialog method and system | |
JPH07129594A (en) | Automatic interpretation system | |
CN113421549A (en) | Speech synthesis method, speech synthesis device, computer equipment and storage medium | |
KR20150014235A (en) | Apparatus and method for automatic interpretation | |
JP5818753B2 (en) | Spoken dialogue system and spoken dialogue method | |
JP7132206B2 (en) | GUIDANCE SYSTEM, GUIDANCE SYSTEM CONTROL METHOD, AND PROGRAM | |
JP3526549B2 (en) | Speech recognition device, method and recording medium | |
JP3136038B2 (en) | Interpreting device | |
JP2004021028A (en) | Speech interaction system and speech interaction program | |
JP2000242295A (en) | Voice recognition device and voice interactive device | |
JP2004355226A (en) | Inter-different language dialog equipment and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060405 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080229 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080313 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110404 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120404 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130404 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140404 Year of fee payment: 6 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |