JP2005004716A - Method and system for processing among different interactive languages, and program and recording medium thereof - Google Patents

Method and system for processing among different interactive languages, and program and recording medium thereof Download PDF

Info

Publication number
JP2005004716A
JP2005004716A JP2003375204A JP2003375204A JP2005004716A JP 2005004716 A JP2005004716 A JP 2005004716A JP 2003375204 A JP2003375204 A JP 2003375204A JP 2003375204 A JP2003375204 A JP 2003375204A JP 2005004716 A JP2005004716 A JP 2005004716A
Authority
JP
Japan
Prior art keywords
dialogue
terminal unit
language
response content
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003375204A
Other languages
Japanese (ja)
Other versions
JP4103085B2 (en
Inventor
Akira Kataoka
明 片岡
Kura Furuse
蔵 古瀬
Yamato Takahashi
大和 高橋
Naoki Asanoma
直樹 麻野間
Yoshihiko Hayashi
林  良彦
Hisashi Obara
永 小原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2003375204A priority Critical patent/JP4103085B2/en
Publication of JP2005004716A publication Critical patent/JP2005004716A/en
Application granted granted Critical
Publication of JP4103085B2 publication Critical patent/JP4103085B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method and a system for enabling communications among different interactive languages by using a current-level voice recognition technology and a current-level machine translation technology which may not always output correct results. <P>SOLUTION: The system comprises an interactive controller 30 for controlling an interactive while confirming the result of an understanding speech between a user A and a user B, and a storage unit 40 for storing an interactive scenario used for referring to confirm the result of the understanding speech between the user A and the user B, and to determine whether either the user A or the user B responds to the other. Consequently, the system transfers to the other interactive user a responding content specified by the language used by the other interactive user if the system determines with a help of the interactive scenario that the other interactive user can respond to the user by using the language used by the other interactive user. Furthermore, the system registers predetermined interactive sentence data for each interactive scenario in a storage unit 50. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、複数の端末部それぞれで異なる言語を使用する対話者の間の意思疎通を可能にする異言語間対話処理方法およびその装置、ならびにそのプログラムと記録媒体に関する。   The present invention relates to an interlingual dialog processing method and apparatus, and a program and a recording medium thereof, which enable communication between interrogators who use different languages in a plurality of terminal units.

従来の異言語間対話処理方法に関する技術では、一方の話者がある言語で入力した全ての発話内容を音声認識装置で認識し、それを機械翻訳装置で別の言語に翻訳して、音声合成装置などにより別の言語で別の話者に伝達する方法を用いていた(オーム社発行 『ATR先端テクノロジーシリーズ 自動翻訳電話』1994年(非特許文献1参照))。
すなわち、機械による同時通訳を考えるとき、(1)音声認識レベル、(2)言語間の変換(翻訳)のレベル、(3)音声合成のレベル、の3つに分けて考えられる。第1のレベルは、入力された音声を単語の系列に変換(翻訳)するか(単語単位の音声認識の場合)、またはVCあるいは単音節のようなより基本的な音響音声単位の系列として認識され、辞書と簡単な文法により単語の系列に変換する(NTT R&D 2000年3月号(メディア処理技術)(非特許文献2参照))。
In the technology related to the interlingual dialogue processing method in the past, one utterance recognizes all utterances input in one language with a speech recognition device, translates it into another language with a machine translation device, and synthesizes speech. A method of transmitting to another speaker in another language by using a device or the like was used (Ohm's "ATR Advanced Technology Series Automatic Translation Telephone" 1994 (see Non-Patent Document 1)).
That is, when considering simultaneous interpretation by a machine, it can be divided into three parts: (1) speech recognition level, (2) level of translation (translation) between languages, and (3) level of speech synthesis. The first level converts (translates) the input speech into a sequence of words (in the case of speech recognition in units of words) or recognizes as a sequence of more basic acoustic speech units such as VC or single syllables. Then, it is converted into a series of words using a dictionary and simple grammar (NTT R & D March 2000 issue (media processing technology) (see Non-Patent Document 2)).

第2のレベルは、理解された内容が、言語Aから言語Bに変換される。文法的構造のよく似た同一言語系に属する言語間では、変換は比較的簡単であるが、その全く異なる言語間の変換は容易ではない(アジア太平洋機械翻訳協会発行『−機械翻訳−21世紀のビジョン』2000年(非特許文献3参照))。
第3のレベルは、単語またはその系列からなる句、文のようなものが、それから音声を発生するに必要な情報に変換され、音声が発生される(音声の合成と認識(総合電子出版社発行)(非特許文献4参照)。
In the second level, the understood content is converted from language A to language B. Conversion between languages belonging to the same language system with a similar grammatical structure is relatively easy, but conversion between completely different languages is not easy. Vision of 2000 (see Non-Patent Document 3)).
In the third level, a phrase or sentence consisting of a word or a series thereof is converted into information necessary for generating a voice, and a voice is generated (speech synthesis and recognition (general electronic publisher). Issued) (see Non-Patent Document 4).

オーム社発行 『ATR先端テクノロジーシリーズ 自動翻訳電話』1994年Published by Ohm "ATR Advanced Technology Series Automatic Translation Telephone" 1994 NTT R&D 2000年3月号(メディア処理技術)NTT R & D March 2000 issue (media processing technology) アジア太平洋機械翻訳協会発行『−機械翻訳−21世紀のビジョン』2000年Published by Asia-Pacific Machine Translation Association, “Machine Translation-Vision of the 21st Century” 2000 総合電子出版社発行、中田和男著『音声の合成と認識』1980年Published by General Electronic Publishing Company, Kazuo Nakata, “Synthesis and Recognition of Speech” 1980

しかしながら、従来の異言語間対話処理方法に関する技術においては、音声認識の性能が十分でないため、入力した発話内容と異なる音声認識結果が得られることが多い。また、機械翻訳の性能も十分でないために、発話内容と異なる別の言語への翻訳結果となることも多い。このような状況のため、一方の対話者が発話した内容を他方の話者に正しく伝えることができない場合が多く、従来の技術によって異なる言語による対話者間の意思疎通を実用レベルで実現することは極めて困難であった。   However, in the technology related to the conventional interlingual dialogue processing method, since the performance of speech recognition is not sufficient, a speech recognition result different from the input utterance content is often obtained. Moreover, since the performance of machine translation is not sufficient, it often results in translation into another language different from the utterance content. Because of this situation, it is often impossible to correctly communicate the content of one talker to the other talker, and communication between the talkers in different languages can be achieved at a practical level by conventional technology. Was extremely difficult.

そこで、本発明の目的は、必ずしも常に正しい結果を出力するとは限らない現状の技術レベルの音声認識や機械翻訳などの技術を用いて、異なる言語による意思疎通を実現することが可能な異言語間対話処理方法およびその装置、ならびにそのプログラムと記録媒体を提供することである。   Accordingly, an object of the present invention is to provide communication between different languages capable of realizing communication in different languages using technologies such as speech recognition and machine translation at the current technical level that do not always output correct results. An interactive processing method and apparatus, and a program and a recording medium thereof are provided.

本発明の原理は、対話者の発話の理解結果を確認しながら対話の制御を行うことである。すなわち、従来の技術のように、一方の対話者の発話に対する発話理解結果をそのまま他方の対話者に伝えるのではなく、予め記憶した対話シナリオを参照することにより、対話制御部から発話した話者に発話理解結果の確認を行うか、他方の対話者に対する応答をするか、の判断を行う。従って、対話制御部は、発話した対話者とは異なる他方の対話者に、他方の対話者が使用する言語で正しく応答可能と判断できる場合を対話シナリオで指定し、その場合に相当すれば、発話した対話者とは異なる他方の対話者に、他方の対話者が使用する言語で指定された応答内容を伝達することにより、必ずしも常に正しい結果を出力するとは限らない現状の技術レベルの音声認識や機械翻訳などの技術を使って、異なる言語による対話者間の意思疎通を実現する。   The principle of the present invention is to control the dialog while confirming the understanding result of the conversation person's utterance. That is, the speaker who spoke from the dialogue control unit by referring to the dialogue scenario stored in advance, instead of directly transmitting the utterance understanding result for the utterance of one dialoguer to the other dialoguer as in the prior art. Whether to confirm the utterance understanding result or to respond to the other interlocutor. Therefore, the dialogue control unit designates, in the dialogue scenario, a case where it can be determined that the other dialoguer different from the spoken dialogue person can respond correctly in the language used by the other dialogue person, Present technology-level speech recognition that does not always output the correct result by communicating the response content specified in the language used by the other speaker to the other speaker who is different from the speaker who spoke Using technology such as language translation and machine translation, communication between dialogues in different languages is realized.

また、予め記憶した対話シナリオで想定していない発話を対話者が行った場合でも、対話を続行することができるように、予め対話シナリオと対応づけて記憶したキーフレーズが音声認識結果に含まれるときのみ、該対話シナリオに基づいて、上記対話の制御を行うように構成することや、一方の対話者の発話に対する音声認識結果の翻訳結果、あるいは、発話理解結果をそのまま他方の対話者に伝え、他方の対話者がその内容を理解できれば、対話シナリオとは無関係に応答を入力することができるように構成することもできる。   In addition, the key phrase stored in association with the dialogue scenario is included in the speech recognition result so that the dialogue can be continued even if the dialogue person performs an utterance that is not assumed in the dialogue scenario stored in advance. Only when it is configured to control the above dialogue based on the dialogue scenario, the translation result of the speech recognition result for one utterer's utterance, or the utterance understanding result is directly transmitted to the other dialoguer. If the other interlocutor can understand the content, it can be configured such that a response can be input regardless of the dialogue scenario.

具体的に、本発明の異言語間対話処理方法は、それぞれ異なる言語を使用する利用者により対話を行うための複数の端末部を対話制御部を介して接続し、該対話制御部により端末部相互間の意思疎通を図る異言語間対話処理方法であって、該対話制御部は、第1の対話者が第1の言語で第1の端末部を介して発話した文を音声認識部により認識し、発話された文の内容を理解し、予め記憶した対話シナリオを参照し、前記発話を理解した結果により、(1)第1の対話者が利用する第1の端末部に対する応答内容を決定し、該応答内容を第1の言語で該端末部に伝達するか、あるいは、(2)第2の対話者が利用する第2の端末部に対する応答内容を決定し、該応答内容を第2の言語で該端末部に伝達するか、あるいは、(3)対話を終了するか、のいずれかを選択実行する第1のステップと、前記(1)の場合には、第1の対話者が利用する第1の端末部に、応答内容に対する発話を求め、前記第1のステップを繰り返し実行し、前記(2)の場合には、第2の対話者が利用する第2の端末部に応答内容に対する発話を求める第2のステップと、第2の対話者が第2の言語で第2の端末部を介して発話し、発話した発話内容を音声認識部により認識し、該発話の内容を発話理解部により理解し、対話制御部において予め記憶した対話シナリオを参照し、該発話を理解した結果により、(1’)第2の対話者が利用する第2の端末部に対する応答内容を決定し、該応答内容を第2の言語で該端末部に伝達するか、あるいは、(2’)第1の対話者が利用する第1の端末部に対する応答内容を決定し、該応答内容を第1の言語で該端末部に伝達するか、あるいは、(3’)対話を終了するか、のいずれかを選択実行する第3のステップと、
前記(1’)の場合には、第2の対話者が利用する第2の端末部に、応答内容に対する発話を求め、前記第3のステップを繰り返し実行し、前記(2’)の場合には、第1の対話者が利用する第1の端末部に、応答内容に対する発話を求め、前記第1のステップを繰り返し実行する第4のステップとを有することを特徴としている。
Specifically, the inter-lingual dialogue processing method of the present invention connects a plurality of terminal units for performing dialogues by users who use different languages through the dialogue control unit, and the dialogue control unit uses the terminal unit to communicate with each other. An interlingual dialogue processing method for communicating between each other, wherein the dialogue control unit uses a voice recognition unit to transmit a sentence spoken by a first dialogue person in a first language through a first terminal unit. Recognize and understand the content of the spoken sentence, refer to the dialogue scenario stored in advance, and based on the result of understanding the utterance, (1) the response content for the first terminal unit used by the first dialogue person Determine and transmit the response content in the first language to the terminal unit, or (2) determine the response content for the second terminal unit used by the second dialoguer, and Communicate to the terminal in 2 languages, or (3) terminate the dialogue In the case of (1), the utterance for the response content is sought in the first terminal unit used by the first dialogue person, and the first step Step (2) is repeated, and in the case of (2) above, the second step of requesting the utterance for the response content to the second terminal unit used by the second dialog person, and the second dialog person Speak in the language through the second terminal unit, recognize the spoken utterance content by the voice recognition unit, understand the utterance content by the utterance understanding unit, and refer to the dialogue scenario stored in advance in the dialogue control unit, Depending on the result of understanding the utterance, (1 ′) determining a response content for the second terminal unit used by the second dialog person and transmitting the response content in the second language to the terminal unit, or , (2 ′) In response to the first terminal unit used by the first interlocutor A third step of selecting and executing whether to determine the content and transmitting the response content to the terminal unit in a first language or (3 ′) ending the dialogue;
In the case of (1 ′), the second terminal unit used by the second interrogator asks the utterance for the response content, repeats the third step, and in the case of (2 ′) Is characterized in that it has a fourth step in which the first terminal unit used by the first interrogator asks the utterance for the response content and repeats the first step.

また、前記対話制御部から前記対話者が利用する端末部に応答内容を伝達する場合、対話シナリオに記載された応答内容ごとに定型対話文を用意しておき、照合した応答内容が指定する定型対話文を使用して応答内容を伝達することを特徴としている。   Further, when the response content is transmitted from the dialog control unit to the terminal unit used by the interlocutor, a standard dialog sentence is prepared for each response content described in the dialog scenario and specified by the collated response content It is characterized by transmitting the response contents using a dialogue sentence.

さらに、前記対話制御部から前記対話者が利用する端末部に応答内容を伝達する場合で、特に、最も直前に発話を行った対話者とは異なる対話者が利用する端末部に、上記応答内容を伝達する場合には、該定型対話文、あるいは、該定型対話文の一部に対して機械翻訳部による変換結果を組み合わせて、応答内容を伝達することも特徴としている。   Further, in the case where the response content is transmitted from the dialog control unit to the terminal unit used by the interlocutor, in particular, the response content is transmitted to the terminal unit used by the interlocutor different from the interlocutor who made the most recent speech. Is transmitted, the response content is transmitted by combining the standard dialogue sentence or a part of the standard dialogue sentence with the conversion result by the machine translation unit.

さらに、前記対話制御部は、
第1の対話者が第1の言語で第1の端末部を介して発話した文を前記音声認識部により認識し、該認識結果を第2の言語に翻訳した翻訳結果を第2の端末部に伝達し、第2の対話者が第2の言語で第2の端末部を介して発話した文を前記音声認識部により認識し、該認識結果を第1の言語に翻訳した翻訳結果を第1の端末部に伝達する第5のステップをさらに有し、
(a)自由発話状態と、(b)対話理解状態のいずれかの状態を有し、
(a)自由発話状態の場合は、前記第5のステップを繰り返し実行するとともに、予め対話シナリオと関連付けて前記対話制御部に記憶したキーフレーズを前記認識結果が含むならば、状態を前記(b)対話状態に変更するか、
(b)対話理解状態の場合は、前記第1から第4のステップを実行し、
前記第1のステップにおいて、前記(1)から(3)に加えて、(4)状態を(b)対話理解状態に変更するか、のいずれかを選択実行することも特徴としている。
Further, the dialogue control unit
The speech recognition unit recognizes a sentence uttered by the first conversation person in the first language through the first terminal unit, and the translation result obtained by translating the recognition result into the second language is the second terminal unit. The speech recognition unit recognizes a sentence uttered by the second dialogue person in the second language via the second terminal unit, and translates the recognition result into the first language. A fifth step of communicating to one terminal unit,
(A) a free utterance state and (b) a dialogue understanding state,
(A) In the case of a free speech state, the fifth step is repeatedly executed, and if the recognition result includes a key phrase previously associated with a dialogue scenario and stored in the dialogue control unit, the state is set to (b ) Change to interactive state or
(B) If the dialogue understanding state, the first to fourth steps are executed,
In the first step, in addition to (1) to (3), any one of (4) changing the state to (b) conversation understanding state is selectively executed.

また、前記第1のステップは、さらに、
第1の対話者が第1の言語で第1の端末部を介して発話した文を前記音声認識部により認識し、該認識結果を第2の言語に翻訳した翻訳結果を第2の端末部に伝達し、
第2の対話者からの第2の言語による入力を受け付け、入力があった場合には、
前記(1)の場合に、前記決定した応答内容を第1の端末部に伝達せず、該入力を第1の言語に翻訳して該端末部に伝達し、
前記第3のステップは、さらに、
第2の対話者が第2の言語で第2の端末部を介して発話した文を前記音声認識部により認識し、該認識結果を第1の言語に翻訳した翻訳した翻訳結果を第1の端末部に伝達し、
第1の対話者からの第1の言語による入力を受け付け、入力があった場合には、
前記(1’)の場合に、前記決定した応答内容を第2の端末部に伝達せずに、該入力を第2の言語に翻訳して第2の端末部に伝達することも特徴としている。
The first step further includes:
The speech recognition unit recognizes a sentence uttered by the first conversation person in the first language through the first terminal unit, and the translation result obtained by translating the recognition result into the second language is the second terminal unit. Communicate to
Accepts input in a second language from a second interlocutor and if there is an input,
In the case of (1), the determined response content is not transmitted to the first terminal unit, the input is translated into the first language and transmitted to the terminal unit,
The third step further comprises:
A sentence spoken by the second dialogue person in the second language via the second terminal unit is recognized by the voice recognition unit, and the translation result obtained by translating the recognition result into the first language is converted into the first translation result. To the terminal,
Accepts input in the first language from the first interlocutor and if there is input,
In the case of (1 ′), the input content is translated into the second language and transmitted to the second terminal unit without transmitting the determined response content to the second terminal unit. .

以上説明したように、本発明によれば、対話者の発話の理解結果を確認しながら、対話の制御を行うので、必ずしも常に正しい結果を出力するとは限らない現状の技術レベルの音声認識や機械翻訳などの技術を用いて、異なる言語による対話者間の意思疎通を実現することが可能になる。
また、予め記憶した対話シナリオで想定していない発話を対話者が行った場合でも、システムが対話シナリオに沿って不自然に応答することなく、対話者間の対話を続行して意思疎通を実現することができる。
As described above, according to the present invention, since the dialogue is controlled while confirming the understanding result of the conversation person's utterance, the current technology level voice recognition and machine that do not always output the correct result. Using technology such as translation, it becomes possible to realize communication between the interlocutors in different languages.
In addition, even if a conversation person makes an unexpected utterance in a pre-stored conversation scenario, the system will continue to communicate between the conversation persons without responding unnaturally along the conversation scenario. can do.

以下、本発明の実施形態を、図面により詳細に説明する。
(装置の構成)
図1は、本発明の実施形態に係る異言語間対話処理装置のブロック構成図である。
本実施形態の異言語間対話処理装置(対話システム)は、図1に示すように、音声認識部11および発話理解部12と結合した端末部10と、音声認識部21および発話理解部22と結合した端末部20と、対話シナリオ記憶部40および定型対話文データ記憶部50が参照可能で、かつ機械翻訳部31と結合した対話制御部30とから構成されている。
端末部10には対話者Aが、端末部20には対話者Bが、それぞれ音声で入力するとともに、出力した音声を聞く役目を行う。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(Device configuration)
FIG. 1 is a block diagram of a cross-language dialogue processing apparatus according to an embodiment of the present invention.
As shown in FIG. 1, the interlingual dialogue processing apparatus (dialogue system) of the present embodiment includes a terminal unit 10 combined with a voice recognition unit 11 and an utterance understanding unit 12, a voice recognition unit 21, and an utterance understanding unit 22. The combined terminal unit 20, the dialog scenario storage unit 40, and the standard dialog sentence data storage unit 50 can be referred to, and the dialog control unit 30 is combined with the machine translation unit 31.
A conversation person A is input to the terminal unit 10 and a conversation person B is input to the terminal part 20 by voice, and plays a role of listening to the output voice.

以下、本実施形態の対話システムにより、対話者Aは端末部10を介して日本語で、対話者Bは端末部20を介して英語で、対話を行うものとする。
まず、対話システムは、対話制御部30が対話シナリオ記憶部40を参照し、対話端末部10を介して対話者Aに、または端末部20を介して対話者Bに発話を求める。発話を求められた対話者A,Bは、端末部10,20を介して発話を入力し、その発話を端末部10,20と結合した音声認識部11,21を使用して音声認識結果を得る。
In the following description, it is assumed that the conversation person A communicates in Japanese via the terminal unit 10 and the conversation person B communicates in English via the terminal part 20 by the dialogue system of the present embodiment.
First, in the dialogue system, the dialogue control unit 30 refers to the dialogue scenario storage unit 40, and asks the conversation person A through the conversation terminal unit 10 or asks the conversation person B through the terminal unit 20 to speak. The interrogators A and B who are requested to speak input the utterances via the terminal units 10 and 20, and use the voice recognition units 11 and 21 combined with the utterances to connect the utterances to the speech recognition units 11 and 21, respectively. obtain.

その音声認識結果を発話理解部12,22が発話理解し、その発話理解結果に対応する次の処理を、対話制御部30が対話シナリオ記憶部40を参照することにより決定し、これを実行する。
次の処理の選択肢としては、入力した対話者AまたはB側の端末部10または20で扱う言語で、音声合成や画面表示により、発話理解結果に応じた応答内容を、定型対話文データ記憶部50に記載された定型対話文を使って伝達し、入力した対話者A,Bに次の発話を求めるか、あるいは、入力した対話者がAなら別の端末部20を介して端末部20で扱う言語で、入力した対話者がBなら別の端末部10を介して端末部10で扱う言語で、音声合成や画面表示により、発話理解結果に応じた応答内容を、定型対話文データ記憶部50に記載された定型対話文と、機械翻訳部31の翻訳結果と、を使って伝達し、入力した対話者がAなら別の対話者Bに、入力した対話者がBなら別の対話者Aに、次の発話を求めるか、あるいは、対話を終了するか、のいずれか一つを選択する。
The utterance understanding units 12 and 22 understand the speech recognition result, and the dialogue control unit 30 determines the next processing corresponding to the utterance understanding result by referring to the dialogue scenario storage unit 40 and executes it. .
As an option for the next processing, in the language handled by the terminal unit 10 or 20 on the input side of the talker A or B, the response content corresponding to the utterance understanding result is obtained by speech synthesis or screen display, and the fixed dialogue text data storage unit 50 is transmitted using the standard dialogue sentence described in 50, and the next utterance is requested from the inputted dialogue persons A and B, or if the inputted dialogue person is A, the terminal section 20 through another terminal section 20 If the input conversation person is B in the language to be handled, the response content corresponding to the utterance understanding result is obtained by speech synthesis or screen display in the language handled by the terminal unit 10 via another terminal unit 10, and the fixed dialogue text data storage unit 50 and the translation result of the machine translation unit 31 are used for transmission. If the input dialog is A, the other dialog B is sent. If the input dialog is B, the other dialog is sent. Ask A for the next utterance or end the conversation Either, to select one of the.

対話制御部30において、次の処理が対話の終了と決定されるまで、発話を求められた対話者A,Bが、その対話者A,B側の端末部10,20を介して発話を入力し、対話を続行する。
端末部10,20での発話入力においては、音声認識だけでなく、対話者A,Bが文字認識装置で入力し、システムが文字認識する方法や、対話者がキーボード入力した文字列をシステムがそのまま受理する方法を併用して、本実施形態を実施することも可能である。
端末部10,20での、定型対話文を使った発話内容の伝達においては、音声合成装置で音声出力する方法、あるいは画面表示による方法、あるいは音声合成装置での音声出力と画面表示を併用する方法、により本実施形態を実施することが可能である。
In the dialog control unit 30, the interrogators A and B who are requested to speak input the utterances via the terminal units 10 and 20 on the side of the dialog A and B until the next processing is determined to be the end of the dialog. And continue the dialogue.
In utterance input at the terminal units 10 and 20, the system recognizes not only speech recognition but also a method in which the interrogators A and B input characters with the character recognition device and the system recognizes characters, or a character string input by the interrogator through the keyboard. It is also possible to implement this embodiment using a method of accepting it as it is.
In the transmission of the utterance content using the standard dialogue sentence in the terminal units 10 and 20, a method of outputting speech by a speech synthesizer, a method of screen display, or a voice output and screen display of the speech synthesizer are used together. This embodiment can be implemented by a method.

(対話シナリオ)
図2は、本発明の実施形態に係る対話シナリオの例を示す説明図である。
図1の対話シナリオ記憶部40には、図2に示すようなフォーマットで内容が記憶されている。すなわち、対話シナリオ記憶部40は、対話状態、発話理解結果、応答先、応答内容、次の対話状態の各項目を持つ表形式で構成され、初期状態の対話状態から始まり終了状態の対話状態となるまで対話が継続する間の対話状態の推移を、それぞれの対話状態で得られたシステムの発話理解結果それぞれに対して、システムがどの対話者を応答先として、どのような応答内容で応答を行い、その結果、どの次対話状態になるかを規定している。
(Dialogue scenario)
FIG. 2 is an explanatory diagram showing an example of a dialogue scenario according to the embodiment of the present invention.
The dialogue scenario storage unit 40 in FIG. 1 stores contents in a format as shown in FIG. That is, the dialogue scenario storage unit 40 is configured in a tabular form having items of dialogue state, utterance understanding result, response destination, response content, and next dialogue state, and starts from the dialogue state in the initial state and ends in the conversation state. The transition of the conversation state during the continuous conversation until the conversation is completed, and for each utterance understanding result obtained in each conversation state, the system responds with which conversation person as the response destination and with what response content And specifies the next dialog state that will result.

図2では、対話者の一方が日時と人数で予約の可否を問い合わせ、もう一方の対話者が予約の受け付けを行う対話シナリオの例を示している。図2において、発話理解結果の日にち=X、時刻=Yのような表記は、日にちをX、時刻をYと発話理解したことを表す。XやYは変項部分であり、対話中になされる具体的な発話の発話理解結果により、Xには19日などの具体的な日にち、Yには7時などの具体的な時刻が代入される。XやYなどの変項に代入された値は、新たな値が代入され、更新されるまでは、保持されるものとする。   FIG. 2 shows an example of a dialogue scenario in which one of the interrogators inquires whether or not a reservation can be made based on the date and the number of people, and the other interrogator accepts the reservation. In FIG. 2, the notation such as date = X, time = Y in the utterance understanding result indicates that the utterance is understood as the date X and the time Y. X and Y are variable parts. Based on the utterance understanding result of a specific utterance made during the dialogue, X is a specific date such as 19th, and Y is assigned a specific time such as 7:00. The The values assigned to variables such as X and Y are retained until a new value is assigned and updated.

また、これらの対話シナリオを、図9に示すように、キーフレーズと対応づけて対話シナリオ記憶部40に記憶するように構成することもできる。
キーフレーズが含まれている発話があったときのみに、対応づけられている対話シナリオを実行することで、対話シナリオで想定していない発話があっても、対話シナリオに沿った不自然な応答を対話者に伝達することを避けることができる。
図9では、キーフレーズ『予約』,『席を取る』に対応づけて、図2に示す予約シナリオを記憶し、キーフレーズ『注文』に対応づけて、注文シナリオを記憶している。注文シナリオは、予約シナリオと同様に、対話者から注文の品名や数量を聞き出す対話シナリオである。キーフレーズは、複数の単語であったり、それらの単語の発音記号であってもよい。
図9のように、複数の対話シナリオを用意しておけば、対話者の所望する対話の状況に応じてそれらの対話シナリオを使い分けることが可能となる。
Further, as shown in FIG. 9, these dialogue scenarios can be configured to be associated with the key phrase and stored in the dialogue scenario storage unit 40.
By executing the associated dialogue scenario only when there is an utterance that includes a key phrase, even if there is an utterance that is not expected in the dialogue scenario, an unnatural response in accordance with the dialogue scenario Can be avoided.
In FIG. 9, the reservation scenario shown in FIG. 2 is stored in association with the key phrases “reservation” and “take a seat”, and the order scenario is stored in association with the key phrase “order”. Similar to the reservation scenario, the order scenario is a dialog scenario in which the product name and quantity of the order are obtained from the dialog person. The key phrase may be a plurality of words or phonetic symbols of those words.
If a plurality of dialogue scenarios are prepared as shown in FIG. 9, these dialogue scenarios can be properly used according to the dialogue situation desired by the dialogue person.

(定型対話文データ)
図3は、本発明の実施形態に係る定型対話文データの例を示す説明図である。
図3では、応答内容ごとに、対応する定型対話文を用意した定型対話文データが示されている。応答内容から日本語や英語などの対話文を生成する具体的方法として、図2のような対話シナリオに指定された応答内容に対応する定型対話文を図3に示すような定型文対話データから求め、求めた定型対話文を使って対話文を生成する。なお、ここで、定型対話文データを参照する方法の代わりに、自然言語文生成の従来技術を利用して、応答内容から日本語や英語などの対話文を生成する方法により、本発明を実施することも可能である。
(Canonical dialogue data)
FIG. 3 is an explanatory diagram showing an example of the fixed dialog text data according to the embodiment of the present invention.
In FIG. 3, the standard dialog text data in which a corresponding standard dialog text is prepared for each response content is shown. As a specific method for generating a dialogue sentence such as Japanese or English from the response content, the standard dialogue sentence corresponding to the response content specified in the dialogue scenario as shown in FIG. 2 is obtained from the standard sentence dialogue data as shown in FIG. A dialogue sentence is generated using the found fixed dialogue sentence. Here, the present invention is implemented by a method of generating a dialogue sentence such as Japanese or English from a response content using the conventional technology of natural language sentence generation instead of the method of referring to the fixed form dialogue sentence data. It is also possible to do.

図3では、例えば、日時を聞くためには、定型対話文として、『予約の日時をおっしゃって下さい』が登録されている。同じように、日にち=X、時刻=Yを確認し、人数を聞くためには、『XのYから何名様でしようか。』が登録されている。また、日にち=Xを確認した後に、時刻を聞くときには、『Xの何時でしようか。』が登録されている。また、逆に時刻=Yを確認した後に、日にちを聞くときには、『何日のYでしようか。』が登録されている。また、日にち=Xと時刻=Yと人数=Zを確認するためには、『XのYからZ様の御予約でよろしいでしようか。』が登録される。日時を再度聞くときには、『予約の日時をもう一度お願いします。』が登録されている。予約可を伝え、かつ名前を聞くときには、『予約はおとりできます。お客様のお名前と電話番号を教えてください。』が登録されている。対話終了を伝達するときには、『ありがとうございました。』が登録されている。   In FIG. 3, for example, in order to hear the date and time, “Please tell me the date and time of reservation” is registered as a standard dialogue sentence. Similarly, in order to confirm the date = X, time = Y, and ask the number of people, “How many people from Y of X? Is registered. Also, when confirming the date after confirming the date = X, “What time is X? Is registered. On the other hand, when confirming the time after confirming the time = Y, when the date is asked, “How many days will Y be? Is registered. Also, in order to confirm the date = X, time = Y, and number of people = Z, “Are you sure you want to make a reservation from X to Y? Is registered. When you ask the date and time again, “Please make the reservation date and time again. Is registered. When you tell us that you can make a reservation and ask for your name, “You can make a reservation. What is your name and phone number? Is registered. When communicating the end of the dialogue, “Thank you. Is registered.

(対話の例)
図4は、本発明の実施形態に係る対話の例を示す説明図である。
図4では、図2の対話シナリオと、図3の定型対話文データに従って、レストランやホテル等の予約を受け付ける異言語間対話の例を示している。
以下、図2に示す対話シナリオと図3に示す応答内容ごとの定型対話文データに従って、図4の対話が行われるプロセスを説明する。
対話は初期状態の対話状態から開始され、システムは応答先に指定された端末部10に対して図2で指定された応答内容として予約の日時を聞く。
(Example of dialogue)
FIG. 4 is an explanatory diagram showing an example of dialogue according to the embodiment of the present invention.
FIG. 4 shows an example of a cross-language dialogue that accepts reservations for restaurants, hotels, etc. according to the dialogue scenario of FIG. 2 and the standard dialogue text data of FIG.
Hereinafter, the process in which the dialogue of FIG. 4 is performed according to the dialogue scenario shown in FIG. 2 and the fixed dialogue data for each response content shown in FIG. 3 will be described.
The dialogue starts from the initial dialogue state, and the system asks the terminal unit 10 designated as the response destination for the reservation date and time as the response contents designated in FIG.

予約の日時を聞くという発話内容から、図3に示す定型対話文データを参照して『予約の日時をおっしゃってください』という日本語文で端末部10に応答し、図2の次対話状態の指定により初期状態からA10へ対話状態が遷移する。
図4の対話例では、『予約の日時をおっしゃってください』という応答に対して、対話者Aが『19日7時でお願いしたいんですけれど。』と発話しており、システムはその発話に対して〔日にち=X,時刻=Y〕を具体化した日にち=29日、時刻=7時、のように日にちの方を音声認識部11で誤認識し、発話理解部21で誤った発話理解をしている。
From the content of the utterance to hear the reservation date and time, refer to the standard dialogue text data shown in Fig. 3 and respond to the terminal unit 10 with a Japanese sentence "Please tell me the date and time of the reservation". The dialog state transitions from the initial state to A10.
In the dialog example in Fig. 4, in response to a response saying "Please tell me the date and time of the reservation", Dialogue A wants to ask you at 7 o'clock on the 19th. The system recognizes the date in the voice recognition unit 11 such that the date that actualizes [date = X, time = Y] for the utterance = 29 days, time = 7: 00. The utterance understanding unit 21 recognizes the wrong utterance.

A10で〔日にち=X,時刻=Y〕という発話理解を行ったので、応答内容〔日にち=Xと時刻=Yを確認し、人数を聞く〕の定型対話文を図3から参照して、Xに29日を、Yに7時を代入して、『29日の7時から何名様でしようか。』と端末部10を通じて対話者Aに応答する。このとき、図2に従って対話状態A10から次対話状態A20に遷移する。対話者Aはシステムが誤認識していることを判断して『日にちが違います、19日の7時です。』と答えると、再び音声認識部11で音声認識を行い、発話理解部12で、日にち=19日とXの値を更新する〔日にち=X(訂正)〕の発話理解結果を得、図2で指定された応答内容と図3の定型対話文に従って『19日の7時から何名様でしようか。』と対話者Aに応答している。   Since the utterance understanding of [date = X, time = Y] was performed in A10, referring to the standard dialogue sentence of the response content [confirm date = X and time = Y and ask the number of people] from FIG. Substitute 29 days for Y, and 7 o'clock for Y. ”To the conversation person A through the terminal unit 10. At this time, a transition is made from the dialog state A10 to the next dialog state A20 according to FIG. Interviewer A judges that the system is misrecognizing, “The date is different, 7 o'clock on the 19th. The speech recognition unit 11 performs speech recognition again, and the speech understanding unit 12 updates the value of the date = 19 days and X [date = X (correction)] and obtains the speech understanding result of FIG. According to the response contents specified in the above and the standard dialogue sentence in FIG. ”Responds to the conversation person A.

次対話状態はA20のままである。次に、対話者Aはシステムが日にちを正しく認識および理解していると判断して『10人で予約お願いします。』と発話しており、その発話を音声認識部11による認識結果から、システムが〔人数=Z〕でZの値が10人と発話理解部12で発話理解し、応答内容〔日にち=Xと時刻=Yと人数=Zを確認〕の定型対話文『XのYからZ様の御予約でよろしいでしようか。』を使って、『19日の7時から10名様の御予約でよろしいでしようか。』と対話者Aに応答し、次対話状態A30に遷移する。   The next dialog state remains A20. Next, Talker A determines that the system correctly recognizes and understands the date. From the recognition result of the speech recognition unit 11, the system understands the utterance by the utterance understanding unit 12 when the system has [number of people = Z] and the value of Z is 10, and the response content [date = X [Check the time = Y and the number of people = Z]] "Can I make a reservation from X to Y? ], "Is it OK to make a reservation for 10 people from 7 o'clock on the 19th?" ] And respond to the conversation person A, and transition to the next conversation state A30.

対話者Aは『はい、お願いします。』と発話し、この発話に対する音声認識部11による認識結果から〔肯定〕とシステムは発話理解部12で発話理解し、〔日にち=Xと時刻=Yと人数=Zを伝達〕という応答内容に対応する“I have a request for a reservation on the X,at Y,for Z.Is this possible?”に対して19日、7時、10人を英語に機械翻訳して、それぞれX,Y,Zに代入し、“I have a request for a reservation on the nineteenth,at seven o’clock,for ten people.Is this possible?”という定型対話文を対話者Bが利用する端末部20に伝達し、次対話状態B10に遷移する。   Interviewer A says “Yes, please. ”And the system recognizes the utterance at the utterance understanding unit 12 based on the recognition result of the speech recognition unit 11 for this utterance, and responds to the response content [transmit date = X, time = Y, number of people = Z]. 19th, 7am, 10 people were machine translated into English for the corresponding "I have a request for a reservation on the X, at Y, for Z. Is this possible?", X, Y, Z To the terminal unit 20 in which the standard dialogue sentence “I have a request for a reservation on the nineteenth, at seven o'clock, for ten people. Is this possible?” Transition to dialog state B10 That.

ここで、機械翻訳部31により機械翻訳を使用することができれば、11thと21st、one o’clockとone thirty、one personとtwo peopleのように、日にちの数字や時刻の言い回し、人数の単複による訳し分けなどを簡単に行うことができる。ここで適用する機械翻訳には、従来の機械翻訳技術を使用することができる。
対話者Bは“Yes,it’s possible”と英語で発話を行い、音声認識部21による認識結果からシステムが〔予約可〕と発話理解部22で発話理解して、応答内容〔予約可を確認〕に対する定型対話文“Shall I go ahead and tell the customer their request is possible?”を端末部20を通じて対話者Bに応答する。対話状態はB10から次対話状態B11に遷移し、B11で対話者Bの発話“Yes”を音声認識部21で認識し、〔肯定〕と発話理解部22で発話理解する。
Here, if machine translation can be used by the machine translation unit 31, it is possible to use date numbers and time phrases, such as 11th and 21st, one o'clock and one thirty, one person and two people, and the number of people. Translation can be done easily. The machine translation applied here can use a conventional machine translation technique.
Talker B utters “Yes, it's possible” in English, and the system recognizes the utterance from the recognition result by the speech recognition unit 21 and the utterance understanding unit 22, and the response content [ A typical dialogue sentence “Should I go ahead and tell the customer the request is possible?” Is sent to the dialogue B through the terminal unit 20. The dialogue state transitions from B10 to the next dialogue state B11. In B11, the speech recognition unit 21 recognizes the utterance “Yes” of the conversation person B, and the utterance understanding unit 22 understands the utterance.

次に、発話内容〔予約可能を伝え名前を聞く〕に対する『予約はおとりできます。お客様のお名前と電話番号をお教えてください。』という日本語の定型対話文を対話者Aに端末部10を介して伝える。そして、対話状態B11から次対話状態A50に遷移する。
このような対話処理によりシステムを介した対話者Aと対話者Bの対話を続けていき、対話状態A90に遷移したものとする。遷移した対話状態A90で対話者Aの発話を音声認識部11で認識し、〔確認〕という理解結果が発話理解部12で得られ、応答内容〔対話終了を確認〕に対する定型対話文『終了しますか。』を対話者Aに端末部10を介して伝え、次対話状態A91に遷移する。ここで、対話者Aが『はい、終わります。』と発話し、音声認識部11による認識結果からシステムがこれを〔肯定〕と発話理解部12で発話理解し、端末部10を介して〔対話終了を伝達〕に対する定型対話文『ありがとうございました。』を対話者Aに伝える。ここで、次対話状態が終了状態となるので、対話は終了となる。
Next, “Reservation can be taken. What is your name and phone number? ”Is communicated to the conversation person A via the terminal unit 10. Then, the transition is made from the dialog state B11 to the next dialog state A50.
It is assumed that the conversation between the conversation person A and the conversation person B via the system is continued through such a conversation process, and the state transitions to the conversation state A90. The speech recognition unit 11 recognizes the utterance of the conversation person A in the transitioned conversation state A90, and an understanding result of [confirmation] is obtained by the utterance understanding unit 12, and a fixed dialogue sentence “End” is displayed for the response content (confirmation of conversation completion). Do you think? ”Is communicated to the conversation person A via the terminal unit 10, and the state transitions to the next conversation state A 91. Here, Talker A says “Yes, it ends. ”And the system understands this from the recognition result by the speech recognition unit 11, and the utterance understanding unit 12 understands the utterance. . Is communicated to Dialogue A. Here, since the next dialog state is an end state, the dialog is ended.

(第1の実施例)
図5は、本発明の第1の実施例に係る異言語間対話処理方法の処理フローチャートである。
第1の実施例では、音声認識部11,21では音声認識の従来技術、発話理解部12,22では発話理解の従来技術を利用する。応答内容を伝達し、応答を求める文を生成する方法として、定型対話文データ記憶部50のデータおよび従来の機械翻訳技術を利用するか、自然言語文生成および機械翻訳の従来技術を利用する。
図1の対話制御部30は、対話者Aが第1の言語により第1の端末部10を介して発話した文を音声認識部11により認識し(ステップ201)、発話された文の内容を発話理解部12により理解し、予め対話シナリオ記憶部40に記憶した対話シナリオを参照し(ステップ202)、発話を理解した結果により、次の処理を選択する(ステップ203)。
すなわち、(1)対話者Aが利用する端末部10に対する応答内容を決定し、該応答内容を第1の言語で対話者Aが利用する該端末部10に伝達するか(ステップ204)、あるいは、(2)対話者Bが利用する端末部20に対する応答内容を決定し、該応答内容を第2の言語で対話者Bが利用する端末部20に伝達するか(ステップ205)、あるいは、(3)対話を終了するか(ステップ206)、のいずれかを選択実行する。
(First embodiment)
FIG. 5 is a process flowchart of the interlingual dialogue processing method according to the first embodiment of the present invention.
In the first embodiment, the speech recognition units 11 and 21 use the conventional technology of speech recognition, and the speech understanding units 12 and 22 use the conventional technology of speech understanding. As a method of transmitting the response content and generating a sentence for requesting a response, the data in the standard dialog sentence data storage unit 50 and the conventional machine translation technique are used, or the conventional techniques of natural language sentence generation and machine translation are used.
The dialogue control unit 30 in FIG. 1 recognizes a sentence uttered by the conversation person A in the first language via the first terminal unit 10 by the voice recognition unit 11 (step 201), and determines the content of the spoken sentence. The dialogue scenario understood by the utterance understanding unit 12 and previously stored in the dialogue scenario storage unit 40 is referred to (step 202), and the next process is selected based on the result of understanding the utterance (step 203).
That is, (1) Determine the response contents for the terminal unit 10 used by the conversation person A and transmit the response contents to the terminal section 10 used by the conversation person A in the first language (step 204). (2) Determine the response contents for the terminal unit 20 used by the conversation person B and transmit the response contents to the terminal section 20 used by the conversation person B in the second language (step 205) or ( 3) Select whether to end the dialogue (step 206).

前記(1)の場合には、対話者Aが利用する端末部10に、応答内容に対する発話を求め(ステップ207)、前記ステップ201を繰り返し実行し、前記(2)の場合には、対話者Bが利用する端末部20に応答内容に対する発話を求める(ステップ208)。
第2の言語による対話者Bの発話を端末部20を介して受信し、受信した発話内容を音声認識部21により認識し(ステップ209)、該発話の内容を発話理解部22により理解し、予め対話シナリオ記憶部40に記憶した対話シナリオを参照し(ステップ210)、発話を理解した結果により、次の処理を選択する(ステップ211)。すなわち、(1’)対話者Bが利用する端末部20に対する応答内容を決定し、該応答内容を第2の言語で対話者Bが利用する該端末部20に伝達するか(ステップ212)、あるいは、(2’)対話者Aが利用する端末部10に対する応答内容を決定し、該応答内容を第1の言語で対話者Aが利用する端末部10に伝達するか(ステップ213)、あるいは、(3’)対話を終了するか(ステップ214)、のいずれかを選択実行する。
In the case of (1), the terminal unit 10 used by the conversation person A is requested to speak the response content (step 207), and the step 201 is repeatedly executed. In the case of (2), the conversation person The terminal unit 20 used by B obtains an utterance for the response content (step 208).
The utterance of the conversation person B in the second language is received via the terminal unit 20, the received utterance content is recognized by the speech recognition unit 21 (step 209), and the utterance content is understood by the utterance understanding unit 22. The dialogue scenario stored in advance in the dialogue scenario storage unit 40 is referred to (step 210), and the next process is selected based on the result of understanding the utterance (step 211). That is, (1 ′) whether to determine the response content for the terminal unit 20 used by the conversation person B, and to transmit the response content to the terminal unit 20 used by the conversation person B in the second language (step 212) Alternatively, (2 ′) determining the response content for the terminal unit 10 used by the conversation person A and transmitting the response content to the terminal unit 10 used by the conversation person A in the first language (step 213), or , (3 ′) Either the dialog is terminated (step 214).

前記(1’)の場合には、対話者Bが利用する端末部20に、応答内容に対する発話を求め(ステップ215)、前記ステップ209を繰り返し、前記(2’)の場合には、対話者Aが利用する端末部10に、応答内容に対する発話を求め、前記ステップ201を繰り返し実行する(ステップ216)。   In the case of (1 ′), the terminal unit 20 used by the conversation person B is requested to speak the response content (step 215), and the step 209 is repeated, and in the case of (2 ′), the conversation person. The terminal unit 10 used by A requests the utterance for the response content, and the step 201 is repeatedly executed (step 216).

(第2の実施例)
図6は、本発明の第2の実施例に係る異言語間対話処理方法の処理フローチャートである。
第2の実施例においては、対話者の端末部10,20に応答内容を伝達する場合、対話シナリオ記憶部40に記載された応答内容ごとに、定型対話文データ記憶部50内に定型対話文を用意しておき、照合した応答内容が指定する定型対話文を使用して応答内容を伝達する。
すなわち、対話シナリオを参照し(ステップ301)、対話シナリオの応答内容ごとに定型対話文データ記憶部50に登録された定型対話文を参照する(ステップ302)。参照した定型対話文に、XかYなどの変項部分があるかどうかを調べ(ステップ303)、なければ、照合した応答内容が指定する定型対話文をそのまま用いて応答内容を端末部10,20に伝達する(ステップ304)。
(Second embodiment)
FIG. 6 is a process flowchart of the interlingual dialogue processing method according to the second embodiment of the present invention.
In the second embodiment, when the response content is transmitted to the terminal units 10 and 20 of the dialog person, the standard dialog text is stored in the standard dialog text data storage unit 50 for each response content described in the dialog scenario storage unit 40. Is prepared, and the response contents are transmitted using a fixed dialogue sentence specified by the matched response contents.
That is, the dialogue scenario is referred to (step 301), and the standard dialogue text registered in the standard dialogue text data storage unit 50 is referred to for each response content of the dialogue scenario (step 302). It is checked whether or not there is a variable part such as X or Y in the standard dialog text referred to (step 303). If there is no variable part, the response content is used as it is by using the standard dialog text specified by the collated response content as it is. (Step 304).

変項部分があれば(ステップ305)、最も直前に発話を行った対話者とは異なる対話者の端末部に、上記応答内容を伝達するかどうかを調べ(ステップ305)、最も直前に発話を行った対話者とは異なる対話者に伝達する場合には、該定型対話文、あるいは、該定型対話文の一部に対して機械翻訳部31により変換して、変項部分を具体化する語句を決定する(ステップ306)。最も直前に発話を行った対話者に伝達する場合には、発話理解結果から、変項部分を具体化する語句を決定する(ステップ307)。ステップ306あるいはステップ307の後、定型対話文の変項部分を具体化して応答内容を端末部10,20に伝達する(ステップ308)。   If there is a variable part (step 305), it is checked whether or not the response content is transmitted to the terminal unit of the conversation person different from the conversation person who spoke most recently (step 305). When the message is transmitted to a different dialogue person, the machine dialogue unit 31 converts the fixed form dialogue sentence or a part of the fixed form dialogue sentence to determine a phrase that embodies the variable part. (Step 306). In the case of transmitting to the talker who spoke most recently, a phrase that embodies the variable part is determined from the utterance understanding result (step 307). After step 306 or step 307, the variable part of the standard dialogue sentence is embodied and the response content is transmitted to the terminal units 10 and 20 (step 308).

次に、本発明の第3の実施例について説明する。
図7および図8は、本発明の第3の実施例に係る異言語間対話処理方法のフローチャートである。
第3の実施例においては、対話制御部30が(a)自由発話状態か、(b)対話理解状態のいずれかの状態を持つ。また、対話シナリオ記憶部40には、図9に示すような複数の対話シナリオをキーフレーズと対応づけて記憶している。
まず、対話制御部30の状態を(a)自由発話状態に設定する(ステップ401)。
対話制御部30の状態が、(a)自由発話状態の場合(ステップ402)は、対話者Aが第1の言語により第1の端末部10を介して発話した文を音声認識部11により認識し(ステップ403)、対話シナリオ記憶部40に記憶しているキーフレーズを音声認識結果に含むかを判定する(ステップ404)。キーフレーズを含む場合には、状態を(b)対話理解状態に変更し、当該キーフレーズに対応づけて記憶されている対話シナリオを次ステップより参照するために一次記憶メモリに読み込む(ステップ410)。
Next, a third embodiment of the present invention will be described.
7 and 8 are flowcharts of the interlingual dialogue processing method according to the third embodiment of the present invention.
In the third embodiment, the dialogue control unit 30 has either (a) a free utterance state or (b) a dialogue understanding state. Further, the dialogue scenario storage unit 40 stores a plurality of dialogue scenarios as shown in FIG. 9 in association with key phrases.
First, the state of the dialogue control unit 30 is set to (a) free speech state (step 401).
When the state of the dialogue control unit 30 is (a) a free utterance state (step 402), the speech recognition unit 11 recognizes a sentence uttered by the dialogue person A through the first terminal unit 10 in the first language. (Step 403), it is determined whether or not the key phrase stored in the dialogue scenario storage unit 40 is included in the speech recognition result (Step 404). If a key phrase is included, the state is changed to (b) dialogue understanding state, and the dialogue scenario stored in association with the key phrase is read into the primary storage memory for reference from the next step (step 410). .

キーフレーズを含まない場合には、認識結果を機械翻訳部31によって第2の言語に翻訳した結果を第2の端末部20に伝達する(ステップ405)。対話者Bの発話についても同様に処理する(ステップ406〜408)。どちらかの対話者によって、対話の終了が指示されれば、対話は終了する(ステップ409)。対話の終了の指示は、音声入力によって、あるいは、キーボードやマウスなどの入力装置によって指示される。
対話制御部30の状態が(b)対話理解状態の場合、図8のフローチャートを実行する(ステップ402)。対話制御部30は、対話者Aが第1の言語により第1の端末部10を介して発話した文を音声認識部11により認識し(ステップ501)、発話された文の内容を発話理解部12により理解し、ステップ410で一次記憶メモリに読み込んだ対話シナリオを参照し(ステップ502)、第1の実施例と同様に(1)〜(3)のいずれかの処理を選択し、実行する(ステップ503)。
If the key phrase is not included, the result of translating the recognition result into the second language by the machine translation unit 31 is transmitted to the second terminal unit 20 (step 405). The utterance of the conversation person B is similarly processed (steps 406 to 408). If the end of the dialogue is instructed by either of the interlocutors, the dialogue is terminated (step 409). The instruction to end the dialogue is given by voice input or by an input device such as a keyboard or a mouse.
When the state of the dialogue control unit 30 is (b) dialogue understanding state, the flowchart of FIG. 8 is executed (step 402). The dialogue control unit 30 recognizes a sentence uttered by the conversation person A in the first language via the first terminal unit 10 by the voice recognition unit 11 (step 501), and the content of the uttered sentence is recognized by the utterance understanding unit. 12, refer to the dialogue scenario read into the primary storage memory in step 410 (step 502), and select and execute one of the processes (1) to (3) as in the first embodiment. (Step 503).

ただし、前記(1)の処理が選択された場合には、音声認識結果を機械翻訳部31によって第2の言語に翻訳して対話者Bに伝達し、対話者Bからの入力を一定の時間(例えば、1秒)受け付ける(ステップ504)。入力は、対話者Bが端末部20を介して発話した文を音声認識部21により認識した音声認識結果や、キーボード入力などでもよい。
対話者Bからの入力がない場合は、第1の実施例と同様に、対話者Aが利用する端末部10に対する応答内容を決定し、該応答内容を第1の言語で端末部10に伝達する。対話者Bからの入力があった場合は、前記決定した応答内容を端末部10に伝達せずに、該入力を機械翻訳部31によって第1の言語に翻訳した翻訳結果を端末部10に伝達する(ステップ5041)。その後、直前に対話者Aに伝達した応答内容を用いて再び対話者Aに応答を求める(ステップ507)。
同様にして、端末者Bによる発話も処理する(ステップ509〜516)。
ステップ503、あるいはステップ511において、(3)対話が終了するが選択された場合、図7のフローチャートに戻る。すなわち、対話制御部30の状態を(a)自由発話状態に変更し(ステップ401)、音声認識結果にキーフレーズが含まれない限り、図7のフローチャートに示す対話が実行される。
However, when the process (1) is selected, the speech recognition result is translated into the second language by the machine translation unit 31 and transmitted to the conversation person B, and the input from the conversation person B is performed for a certain period of time. (For example, 1 second) is accepted (step 504). The input may be a voice recognition result obtained by recognizing a sentence uttered by the conversation person B via the terminal unit 20 by the voice recognition unit 21 or a keyboard input.
When there is no input from the conversation person B, as in the first embodiment, the response content for the terminal unit 10 used by the conversation person A is determined and the response content is transmitted to the terminal part 10 in the first language. To do. When there is an input from the conversation person B, the translation result obtained by translating the input into the first language by the machine translation unit 31 is transmitted to the terminal unit 10 without transmitting the determined response content to the terminal unit 10. (Step 5041). Thereafter, a response is requested from the conversation person A again using the response content transmitted to the conversation person A immediately before (step 507).
Similarly, the utterance by the terminal person B is also processed (steps 509 to 516).
In step 503 or step 511, when (3) End of dialogue is selected, the process returns to the flowchart of FIG. That is, the state of the dialogue control unit 30 is changed to (a) free speech state (step 401), and the dialogue shown in the flowchart of FIG. 7 is executed unless a key phrase is included in the speech recognition result.

図10は、本発明の第3の実施例による対話例を示す説明図である。
図10の*1の部分は、対話制御部30の状態が(a)自由発話状態である対話を示し、*2の部分は、(b)対話理解状態である対話を示す。それぞれの発話における括弧内の文は、音声認識結果が機械翻訳部31によって翻訳され、そのまま相手の対話者に伝達された文を示す。
*1の部分に示す対話では、対話シナリオでは想定していない挨拶などの対話を、そのまま他方の対話者に伝えることで、意思の疎通を実現している。
対話者Bの発話にキーフレーズ『予約』が含まれているため、この後の対話では予約シナリオが実行される。ここで、対話者Bの発話に他のキーフレーズが含まれていれば、他のシナリオ(例えば、前記注文シナリオ)を実行することができ、対話者の所望する対話を選択して実現することができる。
FIG. 10 is an explanatory diagram showing an example of interaction according to the third embodiment of the present invention.
The part * 1 in FIG. 10 indicates a dialog in which the state of the dialog control unit 30 is (a) a free utterance state, and the part * 2 indicates (b) a dialog in a dialog understanding state. A sentence in parentheses in each utterance indicates a sentence in which the speech recognition result is translated by the machine translation unit 31 and transmitted to the partner dialoger as it is.
* In the dialogue shown in part 1, communication such as greetings that are not assumed in the dialogue scenario is communicated to the other dialogue person as it is, thereby realizing communication.
Since the key phrase “reservation” is included in the utterance of the conversation person B, the reservation scenario is executed in the subsequent conversation. Here, if another key phrase is included in the utterance of the conversation person B, another scenario (for example, the order scenario) can be executed, and the conversation desired by the conversation person is selected and realized. Can do.

*2の部分に示す対話では、対話者Aの発話した文を翻訳した括弧内の文が対話者Bに伝達される。対話者Aが『何人まで大丈夫ですか?』と対話シナリオで想定していない文を発話したとき、図2に示す予約シナリオでは発話理解失敗に該当するため、第1の実施例では、再び『19日の7時から何名様でしょうか』と対話シナリオに沿った不自然な応答を対話者Aに伝達してしまう。一方、第3の実施例では、対話者Aの発話を翻訳して結果である『How many seats do you have?』を対話者Bに伝達し、対話者Bからの入力を受け付けるため、対話者Bが『Thirty seats.』と対話シナリオで想定していない対話に対しても応答を入力することができる。システムは、『Thirty seats.』を翻訳した結果である『30席です。』を対話者Aに伝達した後、直前に対話者Aに伝達した応答内容である『19日の7時から何名様でしようか』を再び利用して対話者Aに応答を求める。   In the dialogue shown in the part of * 2, a sentence in parentheses obtained by translating a sentence spoken by the conversation person A is transmitted to the conversation person B. Interviewer A asked, “How many people are all right? When the sentence that is not assumed in the dialogue scenario is uttered, the reservation scenario shown in FIG. 2 corresponds to the utterance comprehension failure. ”And an unnatural response along the dialogue scenario is transmitted to the dialogue person A. On the other hand, in the third embodiment, the utterance of the conversation person A is translated, and the result “How many seats do you have? ”Is transmitted to the dialogue person B, and the dialogue person B receives“ Thirty seats. It is possible to input a response to a dialogue that is not assumed in the dialogue scenario. The system is “Thirty seats. "Thirty seats." ”Is transmitted to the interlocutor A, and the response content transmitted to the interlocutor A immediately before is used again to ask the interrogator A for a response by using“ how many people are there from 7 o'clock on the 19th ”.

このように、第3の実施例では、対話シナリオで想定していない文を対話者が発話した場合でも、自然な対話を実行することができる。
そして、対話シナリオの実行が終了すれば、(a)自由発話状態となり、再びキーフレーズが含まれた発話がなされるまで、対話者の発話を音声認識し、音声認識結果を翻訳して他方の対話者に伝える。図10の対話では、予約が完了した後に、『Thank you very much.』と『What more can I help?』という発話が対話者Bによってなされている。図2に示す予約シナリオでは、予約を完了した後の対話については想定されていないが、第3の実施例によれば、これらの発話が音声認識され、機械翻訳により翻訳され、他方の対話者に伝えられる。
ここで、対話者Aが『注文できますか?』とキーフレーズを含む発話を行なえば、キーフレーズに対応づけて記憶されている注文シナリオを実行して、対話を進めることも可能である。
As described above, in the third embodiment, a natural dialogue can be executed even when a dialogue person utters a sentence that is not assumed in the dialogue scenario.
Then, when the execution of the dialogue scenario is finished, (a) it becomes a free utterance state, until the utterance including the key phrase is made again, the utterance of the conversation person is recognized by speech, the speech recognition result is translated, Tell the interlocutor. In the dialog shown in FIG. 10, after the reservation is completed, “Thank you very much. And “What more can I help?” Is spoken by the conversation person B. In the reservation scenario shown in FIG. 2, the dialog after completing the reservation is not assumed, but according to the third embodiment, these utterances are recognized by speech and translated by machine translation. To be told.
Here, Talker A asks, “Can I place an order? If the utterance including the key phrase is performed, the order scenario stored in association with the key phrase can be executed to proceed with the dialogue.

(プログラムと記録媒体)
このような実施形態の方法および装置を使用することにより、一方の対話者が他方の対話者と異なる言語を使用して発話を行う対話で、対話者の発話した内容を誤って認識した場合であっても、最終的には、予約の可否を問い合わせ予約を受け付けるなどの対話の目的を達成させることができる。
なお、図5に示す処理フローをコード化してプログラムとし、これをCD−ROMなどの記録媒体に格納しておけば、プログラムの販売や貸付けなどの場合には便利であり、また、対話システムのコンピュータに記録媒体を装着して、プログラムをインストールして実行させることにより、本発明を容易に実現させることが可能である。
(Program and recording medium)
By using the method and apparatus of such an embodiment, in a dialogue in which one talker speaks using a language different from the other talker, the content spoken by the talker is erroneously recognized. Even in such a case, it is possible to finally achieve the purpose of the dialog, such as accepting an inquiry reservation as to whether reservation is possible.
If the processing flow shown in FIG. 5 is coded into a program and stored in a recording medium such as a CD-ROM, it is convenient for selling or lending the program, and an interactive system. It is possible to easily implement the present invention by installing a recording medium in the computer, installing the program, and executing the program.

本発明の実施形態に係る異言語間対話処理装置のブロック構成図である。It is a block block diagram of the interlingual dialogue processing apparatus which concerns on embodiment of this invention. 図1における対話シナリオ記憶部に格納された内容例を示す説明図である。It is explanatory drawing which shows the example of the content stored in the dialogue scenario memory | storage part in FIG. 図1における定型対話文データ記憶部に格納された内容例を示す説明図である。It is explanatory drawing which shows the example of the content stored in the fixed form dialog text data storage part in FIG. 本発明の実施形態に係る対話の例を示す説明図である。It is explanatory drawing which shows the example of the dialogue which concerns on embodiment of this invention. 本発明の第1の実施例に係る異言語間対話処理方法の処理フローチャートである。It is a processing flowchart of the interlingual dialogue processing method concerning a 1st example of the present invention. 本発明の第2の実施例に係る異言語間対話処理方法の処理フローチャートである。It is a process flowchart of the different language dialogue processing method which concerns on 2nd Example of this invention. 本発明の第3の実施例に係る異言語間対話処理方法の処理フローチャートである。It is a process flowchart of the different language dialogue processing method which concerns on 3rd Example of this invention. 本発明の第3の実施例に係る異言語間対話処理方法の処理フローチャートである。It is a process flowchart of the different language dialogue processing method which concerns on 3rd Example of this invention. 本発明の第3の実施例に係る、図1における対話シナリオ記憶部に格納された内容例を示す説明図である。It is explanatory drawing which shows the example of the content stored in the dialogue scenario memory | storage part in FIG. 1 based on 3rd Example of this invention. 本発明の第3の実施例に係る対話の例を示す説明図である。It is explanatory drawing which shows the example of the dialogue which concerns on 3rd Example of this invention.

符号の説明Explanation of symbols

10…端末部、20…端末部、30…対話制御部、11…音声認識部、
12…発話理解部、21…音声認識部、22…発話理解部、
31…機械翻訳部、40…対話シナリオ記憶部、
50…定型対話文データ記憶部。
DESCRIPTION OF SYMBOLS 10 ... Terminal part, 20 ... Terminal part, 30 ... Dialog control part, 11 ... Voice recognition part,
12 ... Speech understanding unit, 21 ... Speech recognition unit, 22 ... Speech understanding unit,
31 ... Machine translation unit, 40 ... Dialog scenario storage unit,
50: A fixed dialog sentence data storage unit.

Claims (16)

それぞれ異なる言語を使用する利用者により対話を行うための複数の端末部を対話制御部を介して接続し、該対話制御部により端末部の利用者間の意思疎通を図る異言語間対話処理方法であって、
第1の対話者が第1の言語で第1の端末部を介して発話した文を音声認識部により認識し、発話された文の内容を発話理解部により理解し、
該対話制御部において、予め記憶した対話シナリオを参照し、前記発話を理解した結果により、(1)第1の対話者が利用する第1の端末部に対する応答内容を決定し、該応答内容を第1の言語で該端末部に伝達するか、あるいは、(2)第2の対話者が利用する第2の端末部に対する応答内容を決定し、該応答内容を第2の言語で該端末部に伝達するか、あるいは、(3)対話を終了するか、のいずれかを選択実行する第1のステップと、
前記(1)の場合には、第1の対話者の第1の端末部に、応答内容に対する発話を求め、前記第1のステップを繰り返し実行し、前記(2)の場合には、第2の対話者が利用する第2の端末部に応答内容に対する発話を求める第2のステップと、
第2の対話者が第2の言語で第2の端末部を介して発話した場合、発話した発話内容を音声認識部により認識し、該発話の内容を発話理解部により理解し、
該対話制御部において、予め記憶した対話シナリオを参照し、該発話を理解した結果により、(1’)第2の対話者が利用する第2の端末部に対する応答内容を決定し、該応答内容を第2の言語で該端末部に伝達するか、あるいは、(2’)第1の対話者が利用する第1の端末部に対する応答内容を決定し、該応答内容を第1の言語で該端末部に伝達するか、あるいは、(3’)対話を終了するか、のいずれかを選択実行する第3のステップと、
前記(1’)の場合には、第2の対話者が利用する第2の端末部に、応答内容に対する発話を求め、前記第3のステップを繰り返し実行し、前記(2’)の場合には、第1の対話者が利用する第1の端末部に、応答内容に対する発話を求め、前記第1のステップを繰り返し実行する第4のステップと
を有することを特徴とする異言語間対話処理方法。
Inter-lingual dialogue processing method for connecting a plurality of terminal units for performing dialogue by users using different languages via the dialogue control unit, and for communicating between the users of the terminal unit by the dialogue control unit Because
A speech recognizer recognizes a sentence spoken by the first dialogue person in the first language via the first terminal part, and understands the content of the spoken sentence by the speech understanding part;
In the dialogue control unit, referring to a dialogue scenario stored in advance, and based on the result of understanding the utterance, (1) the response content for the first terminal unit used by the first dialogue person is determined, and the response content is determined. (2) Determine the response content for the second terminal unit used by the second dialogue person and transmit the response content in the second language to the terminal unit in the first language Or (3) a first step of selectively executing whether to terminate the dialogue;
In the case of the above (1), the first terminal unit of the first conversation person is asked for an utterance for the response content, and the first step is repeatedly executed. In the case of the above (2), the second terminal A second step of requesting an utterance for the response content from the second terminal unit used by
When the second conversation person speaks in the second language through the second terminal unit, the speech recognition unit recognizes the uttered utterance content, and the utterance understanding unit understands the utterance content.
In the dialogue control unit, referring to a dialogue scenario stored in advance, and based on the result of understanding the utterance, (1 ′) the response content for the second terminal unit used by the second dialogue person is determined, and the response content To the terminal unit in the second language, or (2 ′) determining the response content for the first terminal unit used by the first interrogator and transmitting the response content in the first language A third step of selecting and executing either the transmission to the terminal unit or (3 ′) termination of the dialogue;
In the case of (1 ′), the second terminal unit used by the second interrogator asks the utterance for the response content, repeats the third step, and in the case of (2 ′) Has a fourth step of requesting an utterance for the response content to the first terminal unit used by the first interlocutor and repeatedly executing the first step. Method.
前記対話制御部は、前記対話者が利用する端末部に応答内容を伝達する場合、対話シナリオに記載された応答内容ごとに定型対話文を用意しておき、照合した応答内容が指定する定型対話文を使用して応答内容を伝達する請求項1記載の異言語間対話処理方法。   The dialogue control unit prepares a regular dialogue sentence for each response content described in the dialogue scenario when the response content is transmitted to the terminal unit used by the conversation person, and the regular dialogue specified by the matched response content The interlingual dialogue processing method according to claim 1, wherein a response content is transmitted using a sentence. 前記対話制御部は、前記対話者が利用する端末部に応答内容を伝達する場合、特に、最も直前に発話を行った対話者とは異なる対話者の端末部に上記応答内容を伝達する場合、すなわち、請求項1記載の(2)あるいは(2’)の場合には、該定型対話文、あるいは、該定型対話文の一部に対して機械翻訳部による変換結果を組み合わせて、応答内容を伝達することを特徴とする請求項2記載の異言語間対話処理方法。   The dialog control unit, when transmitting the response content to the terminal unit used by the dialog person, particularly when transmitting the response content to the terminal unit of the dialog person different from the dialog person who spoke most recently, That is, in the case of (2) or (2 ′) according to claim 1, the response content is obtained by combining the standard dialogue sentence or a part of the standard dialogue sentence with a conversion result by the machine translation unit. The interlingual dialogue processing method according to claim 2, wherein transmission is performed. 前記対話制御部において、
第1の対話者が第1の言語で第1の端末部を介して発話した文を前記音声認識部により認識し、該認識結果を第2の言語に翻訳した翻訳結果を第2の端末部に伝達し、第2の対話者が第2の言語で前記第2の端末部を介して発話した文を前記音声認識部により認識し、該認識結果を第1の言語に翻訳した翻訳結果を第1の端末部に伝達する第5のステップをさらに有し、(a)自由発話状態と(b)対話理解状態のいずれかの状態を有し、
(a)自由発話状態の場合には、前記第5のステップを繰り返し実行するとともに、予め対話シナリオと関連付けて前記対話制御部に記憶したキーフレーズを前記認識結果が含むならば、状態を前記(b)対話状態に変更するか、
(b)対話理解状態の場合には、前記第1から第4のステップを実行し、
前記第1のステップにおいて、前記(1)から(3)に加えて、(4)状態を(b)対話理解状態に変更するか、のいずれかを選択実行し、
前記第3のステップにおいて、前記(1’)から(3’)に加えて、(4’)状態を(b)対話理解状態に変更するか、のいずれかを選択実行する
ことを特徴とする請求項1から3までのいずれか一項に記載の異言語間対話方法。
In the dialog control unit,
The speech recognition unit recognizes a sentence uttered by the first conversation person in the first language through the first terminal unit, and the translation result obtained by translating the recognition result into the second language is the second terminal unit. And the speech recognition unit recognizes a sentence uttered by the second interlocutor in the second language through the second terminal unit, and translates the recognition result into the first language. A fifth step of transmitting to the first terminal unit, and having either (a) a free speech state or (b) a dialog understanding state,
(A) In the case of a free speech state, the fifth step is repeatedly executed, and if the recognition result includes a key phrase previously associated with a dialogue scenario and stored in the dialogue control unit, the state is represented by ( b) change to conversational state,
(B) In the case of the dialog understanding state, the first to fourth steps are executed,
In the first step, in addition to (1) to (3) above, (4) the state is selected and executed (b) the dialog understanding state is selected and executed,
In the third step, in addition to (1 ′) to (3 ′), any one of (4 ′) changing the state to (b) the dialogue understanding state is selectively executed. The interlingual dialogue method according to any one of claims 1 to 3.
前記第1のステップは、さらに、
第1の対話者が第1の言語で第1の端末部を介して発話した文を前記音声認識部により認識し、該認識結果を第2の言語に翻訳した翻訳結果を第2の端末部に伝達し、
第2の対話者からの第2の言語による入力を受け付け、入力があった場合には、
前記(1)の場合に、前記決定した応答内容を第1の端末部に伝達せずに、該入力を第1の言語に翻訳して該端末部に伝達し、
前記第3のステップは、さらに、
第2の対話者が第2の言語で第2の端末部を介して発話した文を前記音声認識部により認識し、該認識結果を第1の言語に翻訳した翻訳結果を第1の端末部に伝達し、
第1の対話者からの第1の言語による入力を受け付け、入力があった場合には、
前記(1’)の場合に、前記決定した応答内容を第2の端末部に伝達せずに、該入力を第2の言語に翻訳して第2の端末部に伝達する
ことを特徴とする請求項1から4までのいずれか一項に記載の異言語間対話方法。
The first step further comprises:
The speech recognition unit recognizes a sentence uttered by the first conversation person in the first language through the first terminal unit, and the translation result obtained by translating the recognition result into the second language is the second terminal unit. Communicate to
Accepts input in a second language from a second interlocutor and if there is an input,
In the case of (1), without transmitting the determined response content to the first terminal unit, the input is translated into the first language and transmitted to the terminal unit,
The third step further comprises:
The speech recognition unit recognizes a sentence uttered by the second dialogue person in the second language via the second terminal unit, and the translation result obtained by translating the recognition result into the first language is the first terminal unit. Communicate to
Accepts input in the first language from the first interlocutor and if there is input,
In the case of (1 ′), the input content is translated into the second language and transmitted to the second terminal unit without transmitting the determined response content to the second terminal unit. The method for interactive dialogue between different languages according to any one of claims 1 to 4.
それぞれ異なる言語を使用する利用者により対話を行うための複数の端末部を対話制御部を介して接続し、該対話制御部により端末部の利用者間の意思疎通を図る異言語間対話処理装置であって、
第1の対話者が第1の言語で第1の端末部を介して発話した文を音声認識する音声認識部と、
該音声認識の結果から発話された文の内容を理解する発話理解部と、
予め記憶した対話シナリオを参照し、前記発話を理解した結果により、(1)第1の対話者が利用する第1の端末部に対する応答内容を決定し、該応答内容を第1の言語で該端末部に伝達するか、あるいは、(2)第2の対話者が利用する第2の端末部に対する応答内容を決定し、該応答内容を第2の言語で該端末部に伝達するか、あるいは、(3)対話を終了するか、のいずれかを選択実行する第1の手段、
前記(1)の場合には、第1の対話者が利用する端末部に、応答内容に対する発話を求め、前記第1の手段を繰り返し実行し、前記(2)の場合には、第2の対話者が利用する第2の端末部に応答内容に対する発話を求める第2の手段、
第2の対話者が第2の言語で第2の端末部を介して発話し、発話した発話内容を音声認識部により認識し、該発話の内容を発話理解部により理解し、対話制御部において、予め記憶した対話シナリオを参照し、該発話を理解した結果により、(1’)第2の対話者が利用する第2の端末部に対する応答内容を決定し、該応答内容を第2の言語により該端末部に伝達するか、あるいは、(2’)第1の対話者が利用する第1の端末部に対する応答内容を決定し、該応答内容を第1の言語で該端末部に伝達するか、あるいは、(3’)対話を終了するか、のいずれかを選択実行する第3の手段、
前記(1’)の場合には、第2の対話者が利用する第2の端末部に、応答内容に対する発話を求め、前記(2’)の場合には、第1の対話者が利用する第1の端末部に、応答内容に対する発話を求め、前記第3の手段を繰り返し実行し、前記第1の手段を繰り返し実行する第4の手段
を備えた対話制御部とを有することを特徴とする異言語間対話処理装置。
Inter-lingual dialogue processing apparatus for connecting a plurality of terminal units for performing dialogue by users using different languages through the dialogue control unit, and for communicating between the users of the terminal unit by the dialogue control unit Because
A voice recognition unit that recognizes a sentence uttered by the first interlocutor in the first language through the first terminal unit;
An utterance understanding unit that understands the content of a sentence uttered from the result of the speech recognition;
Based on the result of understanding the utterance with reference to a pre-stored dialogue scenario, (1) the response content for the first terminal unit used by the first interlocutor is determined, and the response content in the first language Or (2) determining a response content for the second terminal unit used by the second interrogator and transmitting the response content in the second language to the terminal unit, or , (3) a first means for selectively executing either one of the dialogs to be terminated;
In the case of (1), the terminal unit used by the first interlocutor is asked to utter the response content, and the first means is repeatedly executed. In the case of (2), the second part A second means for requesting an utterance for the response content to the second terminal unit used by the interlocutor;
The second dialogue person speaks in the second language through the second terminal unit, the spoken speech content is recognized by the voice recognition unit, the speech content is understood by the speech understanding unit, and the dialogue control unit , Referring to a dialogue scenario stored in advance, and based on the result of understanding the utterance, (1 ′) determining a response content for the second terminal unit used by the second dialog person, and storing the response content in the second language To the terminal unit or (2 ′) determine the response content for the first terminal unit used by the first interlocutor and transmit the response content to the terminal unit in the first language Or (3 ′) a third means for selectively executing whether to terminate the dialog,
In the case of (1 ′), the second terminal unit used by the second interlocutor is asked to speak the response content, and in the case of (2 ′), the first interlocutor uses it. A dialogue control unit having a fourth means for obtaining an utterance for the response content in the first terminal unit, repeatedly executing the third means, and repeatedly executing the first means; Interlingual dialogue processing device.
前記対話制御部は、前記対話者の端末部に応答内容を伝達する場合に、対話シナリオに記載された応答内容ごとに定型対話文を記憶する定型対話文データ記憶部をさらに備え、
前記対話制御部は、該定型対話文と照合した応答内容が指定する定型対話文を使用して該応答内容を端末部に伝達することを特徴とする請求項6記載の異言語間対話処理装置。
The dialog control unit further includes a standard dialog data storage unit that stores a standard dialog for each response content described in the dialog scenario when the response content is transmitted to the terminal unit of the dialog person,
7. The interlingual dialog processing apparatus according to claim 6, wherein the dialog control unit transmits the response content to the terminal unit using a standard dialog text specified by the response content collated with the standard dialog text. .
前記対話制御部は、最も直前に発話を行った対話者とは異なる対話者が利用する端末部に、該応答内容を伝達する場合、すなわち、請求項4記載の(2)あるいは(2’)の場合には、
該定型対話文、あるいは、該定型対話文の一部に対して機械翻訳部による変換結果を組み合わせて、応答内容を伝達することを特徴とする請求項7記載の異言語間対話処理装置。
The said dialog control part is a case where the said response content is transmitted to the terminal part which the dialog person different from the dialog person who spoke last time uses, ie, (2) or (2 ') of Claim 4 In Case of,
8. The interlingual dialogue processing apparatus according to claim 7, wherein a response content is transmitted by combining a conversion result by a machine translation unit with respect to the fixed dialog sentence or a part of the fixed dialog sentence.
前記対話制御部は、第1の対話者が第1の言語で第1の端末部を介して発話した文を前記音声認識部により認識し、該認識結果を第2の言語に翻訳した翻訳結果を第2の端末部に伝達し、第2の対話者が第2の言語で前記第2の端末部を介して発話した文を前記音声認識部により認識し、該認識結果を第1の言語に翻訳した翻訳結果を第1の端末部に伝達する第5の手段をさらに有し、
(a)自由発話状態と(b)対話理解状態のいずれかの状態を有し、(a)自由発話状態の場合には、第5の手段を繰り返し実行するとともに、予め対話シナリオと関連付けて前記対話制御部に記憶したキーフレーズを前記認識結果が含むならば、状態を前記(b)対話状態に変更するか、
(b)対話理解状態の場合には、前記第1から第4の手段を実行し、
前記第1の手段において、前記(1)から(3)に加えて、(4)状態を(b)対話理解状態に変更するか、のいずれかを選択実行し、
前記第3の手段において、前記(1’)から(3’)に加えて、(4’)状態を(b)対話理解状態に変更するか、のいずれかを選択実行する
ことを特徴とする請求項6から8までのいずれか一項に記載の異言語間対話処理装置。
The dialogue control unit recognizes, by the voice recognition unit, a sentence uttered by a first talker in a first language via a first terminal unit, and translates the recognition result into a second language. To the second terminal unit, the second speech unit recognizes a sentence uttered in the second language through the second terminal unit by the voice recognition unit, and the recognition result is recognized in the first language. And a fifth means for transmitting the translation result translated into the first terminal unit,
In the case of (a) free utterance state and (b) dialogue understanding state, and (a) free utterance state, the fifth means is repeatedly executed and associated with the dialogue scenario in advance. If the recognition result includes the key phrase stored in the dialogue control unit, the state is changed to the (b) dialogue state,
(B) In the case of the dialog understanding state, the first to fourth means are executed,
In the first means, in addition to (1) to (3), (4) the state is selected and executed (b) the state is changed to the dialog understanding state.
In the third means, in addition to (1 ′) to (3 ′), any one of (4 ′) changing the state to (b) conversation understanding state is selectively executed. The cross-language dialogue processing apparatus according to any one of claims 6 to 8.
前記第5の手段は、さらに、第1の対話者が第1の言語で第1の端末部を介して発話した文を前記音声認識部により認識し、該認識結果を第2の言語に翻訳した翻訳結果を第2の端末部に伝達し、
第2の対話者からの第2の言語による入力を受け付け、入力があった場合には、
前記(1)の場合に、前記決定した応答内容を第1の端末部に伝達せずに、該入力を第1の言語に翻訳して該端末部に伝達し、
前記第3の手段は、さらに、
第2の対話者が第2の言語で第2の端末部を介して発話した文を前記音声認識部により認識し、該認識結果を第1の言語に翻訳した翻訳結果を第1の端末部に伝達し、
第1の対話者からの第1の言語による入力を受け付け、入力があった場合には、
前記(1’)の場合に、前記決定した応答内容を第2の端末部に伝達せずに、該入力を第2の言語に翻訳して第2の端末部に伝達する
ことを特徴とする請求項6から9までのいずれか一項に記載の異言語間対話処理装置。
The fifth means further recognizes, by the voice recognition unit, a sentence spoken by the first dialogue person in the first language through the first terminal unit, and translates the recognition result into the second language. The translated result to the second terminal,
Accepts input in a second language from a second interlocutor and if there is an input,
In the case of (1), without transmitting the determined response content to the first terminal unit, the input is translated into the first language and transmitted to the terminal unit,
The third means further includes
The speech recognition unit recognizes a sentence uttered by the second dialogue person in the second language via the second terminal unit, and the translation result obtained by translating the recognition result into the first language is the first terminal unit. Communicate to
Accepts input in the first language from the first interlocutor and if there is input,
In the case of (1 ′), the input content is translated into the second language and transmitted to the second terminal unit without transmitting the determined response content to the second terminal unit. The cross-language dialogue processing apparatus according to any one of claims 6 to 9.
それぞれ異なる言語を使用する利用者により対話を行うための複数の端末部を対話制御部を介して接続し、該対話制御部により端末部の利用者間の意思疎通を図る異言語間対話処理用プログラムであって、
該対話制御部のコンピュータに、第1の対話者が第1の言語で第1の端末部を介して発話した文を音声認識部により認識する手順、発話された文の内容を発話理解部により理解する手順、予め記憶した対話シナリオを参照し、前記発話を理解した結果により、(1)第1の対話者が利用する端末部に対する応答内容を決定し、該応答内容を第1の言語で該端末部に伝達するか、あるいは、(2)第2の対話者が利用する第2の端末部に対する応答内容を決定し、該応答内容を第2の言語で該端末部に伝達するか、あるいは、(3)対話を終了するか、のいずれかを選択実行する対話制御部における第1の手順、
前記(1)の場合には、第1の対話者が利用する第1の端末部に、応答内容に対する発話を求め、前記第1の手順を繰り返し実行し、前記(2)の場合には、第2の対話者の端末部に伝達内容に対する発話を求める対話制御部における第2の手順、
第2の対話者が第2の言語で第2の端末部を介して発話し、発話した発話内容を音声認識部により認識し、該発話の内容を発話理解部により理解する手順、予め記憶した対話シナリオを参照し、対話制御部において、該発話を理解した結果により、(1’)第2の対話者が利用する第2の端末部に対する応答内容を決定し、該応答内容を第2の言語により該端末部に伝達するか、あるいは、(2’)第1の対話者が利用する第1の端末部に対する応答内容を決定し、該応答内容を第1の言語で該端末部に伝達するか、あるいは、(3’)対話を終了するか、のいずれかを選択実行する対話制御部における第3の手順、
前記(1’)の場合には、第2の対話者が利用する第2の端末部に、応答内容に対する発話を求め、前記第3の手順を繰り返し実行し、前記(2’)の場合には、第1の対話者の端末部に、応答内容に対する応答を求め、前記第1の手順を繰り返し実行する対話制御部における第4の手順を、それぞれ実行させるための異言語間対話処理用プログラム。
For dialogue processing between different languages that connects multiple terminal units for dialogue by users who use different languages via the dialogue control unit, and communicates between the users of the terminal unit by the dialogue control unit A program,
A procedure for recognizing a sentence uttered by a first dialogue person in the first language through the first terminal unit by the voice recognition unit on the computer of the dialogue control unit, and the contents of the spoken sentence by the utterance understanding unit Based on the understanding procedure, the dialogue scenario stored in advance, and the result of understanding the utterance, (1) the response content for the terminal unit used by the first dialogue person is determined, and the response content in the first language Or (2) determining a response content for the second terminal unit used by the second interrogator and transmitting the response content in the second language to the terminal unit, Alternatively, (3) a first procedure in the dialog control unit for selectively executing either of the dialog is terminated,
In the case of (1), the first terminal unit used by the first interrogator asks the utterance for the response content, repeats the first procedure, and in the case of (2), A second procedure in the dialogue control unit that asks the terminal unit of the second dialoguer to utter the transmitted content;
A procedure in which a second conversation person speaks in the second language through the second terminal unit, recognizes the uttered utterance content by the voice recognition unit, and understands the utterance content by the utterance understanding unit, previously stored Based on the result of understanding the utterance in the dialogue control unit with reference to the dialogue scenario, (1 ′) the response content for the second terminal unit used by the second dialogue person is determined, and the response content is set to the second It is transmitted to the terminal unit by language, or (2 ′) the response content for the first terminal unit used by the first interrogator is determined, and the response content is transmitted to the terminal unit in the first language. Or (3 ′) a third procedure in the dialogue control unit for selectively executing the dialogue termination,
In the case of (1 ′), the second terminal unit used by the second dialog person is asked for an utterance for the response content, the third procedure is repeatedly executed, and in the case of (2 ′) Is a program for different language interaction processing for causing the terminal unit of the first dialogue person to obtain a response to the response content and causing the fourth procedure in the dialogue control unit to repeatedly execute the first procedure. .
請求項11に記載の異言語間対話処理用プログラムにおいて、
前記対話制御部のコンピュータに、対話者が利用する端末部に応答内容を伝達する場合、対話シナリオごとに用意された定型対話文を参照する手順、照合した応答内容が指定する定型対話文を使用して応答内容を伝達する手順を、それぞれ実行させるための異言語間対話処理用プログラム。
The program for interactive processing between different languages according to claim 11,
When the response content is transmitted to the computer of the dialog control unit to the terminal unit used by the interlocutor, a procedure for referring to the standard dialog prepared for each dialog scenario and the standard dialog specified by the collated response content are used. Program for different language interaction processing to execute the procedure of transmitting the response contents in response.
請求項12に記載の異言語間対話処理用プログラムにおいて、
前記対話制御部のコンピュータに、最も直前に発話を行った対話者とは異なる対話者が利用する端末部に、上記応答内容を伝達する場合には、該定型対話文、あるいは、該定型対話文の一部に対して機械翻訳部による変換結果を組み合わせて、応答内容を伝達する手順を、実行させるための異言語間対話処理用プログラム。
The program for interactive processing between different languages according to claim 12,
When the response content is transmitted to the computer of the dialog control unit to a terminal unit used by a dialog person different from the dialog person who spoke most recently, the standard dialog text or the standard dialog text is used. A program for interlingual interaction processing for executing a procedure for transmitting a response content by combining a conversion result by a machine translation unit for a part of the program.
請求項11から13までのいずれかに記載の異言語間対話処理用プログラムにおいて、
前記対話制御部のコンピュータに、第1の対話者が第1の言語で第1の端末部を介して発話した文を前記音声認識部により認識し、該認識結果を第2の言語に翻訳した翻訳結果を第2の端末部に伝達し、第2の対話者が第2の言語で前記第2の端末部を介して発話した文を前記音声認識部により認識し、該認識結果を第1の言語に翻訳した翻訳結果を第1の端末部に伝達する第5の手順をさらに実行させ、
(a)自由発話状態と(b)対話理解状態のいずれかの状態を有し、(a)自由発話状態の場合には、前記第5の手順を繰り返し実行するとともに、予め対話シナリオと関連付けて前記対話制御部に記憶したキーフレーズを前記認識結果が含むならば、状態を前記(b)対話状態に変更し、(b)対話理解状態の場合には、前記第1から第4の手順を実行させ、
前記第1の手順において、前記(1)から(3)に加えて、(4)状態を(b)対話理解状態に変更するか、のいずれかを選択実行する手順、
前記第3の手段において、前記(1’)から(3’)に加えて、(4’)状態を(b)対話理解状態に変更するか、のいずれかを選択実行する手順を実行させるための異言語間対話処理用プログラム。
The program for interlingual dialogue processing according to any one of claims 11 to 13,
The computer of the dialogue control unit recognizes a sentence spoken by the first dialogue person in the first language through the first terminal unit by the voice recognition unit, and translates the recognition result into the second language. The translation result is transmitted to the second terminal unit, and the speech recognition unit recognizes a sentence uttered by the second dialog person in the second language through the second terminal unit, and the recognition result is first Further executing a fifth procedure for transmitting the translation result translated into the first language to the first terminal unit,
(A) It has any state of a free utterance state and (b) a dialogue understanding state. In the case of (a) a free utterance state, the fifth procedure is repeatedly executed and associated with a dialogue scenario in advance. If the recognition result includes the key phrase stored in the dialogue control unit, the state is changed to the (b) dialogue state, and (b) the dialogue understanding state, the first to fourth steps are performed. Let it run
In the first procedure, in addition to the steps (1) to (3), a procedure for selecting and executing (4) changing the state to (b) the dialogue understanding state,
In the third means, in addition to (1 ′) to (3 ′), in order to execute a procedure for selecting and executing either (4 ′) the state or (b) changing the dialogue understanding state A program for interactive processing of different languages.
前記対話制御部のコンピュータに実行させる前記第5の手順は、さらに、第1の対話者が第1の言語で第1の端末部を介して発話した文を前記音声認識部により認識し、該認識結果を第2の言語に翻訳した翻訳結果を第2の端末部に伝達する手順、
第2の対話者からの第2の言語による入力を受け付け、入力があった場合には、
前記(1)の場合に、前記決定した応答内容を第1の端末部に伝達せずに、該入力を第1の言語に翻訳して該端末部に伝達する手順であり、
前記第3の手順は、さらに、第2の対話者が第2の言語で第2の端末部を介して発話した文を前記音声認識部により認識し、該認識結果を第1の言語に翻訳した翻訳結果を第1の端末部に伝達する手順、
第1の対話者からの第1の言語による入力を受け付け、入力があった場合には、
前記(1’)の場合に、前記決定した応答内容を第2の端末部に伝達せずに、該入力を第2の言語に翻訳して第2の端末部に伝達する手順であることを特徴とする請求項11から14までのいずれか一項に記載の異言語間対話処理用プログラム。
The fifth procedure to be executed by the computer of the dialog control unit is further configured to recognize a sentence spoken by the first dialog person in the first language via the first terminal unit by the voice recognition unit, A procedure for transmitting a translation result obtained by translating the recognition result into the second language to the second terminal unit;
Accepts input in a second language from a second interlocutor and if there is an input,
In the case of (1), without transmitting the determined response content to the first terminal unit, the input is translated into the first language and transmitted to the terminal unit,
In the third procedure, the speech recognizer recognizes a sentence spoken by the second dialogue person in the second language through the second terminal unit, and translates the recognition result into the first language. To transmit the translated result to the first terminal unit,
Accepts input in the first language from the first interlocutor and if there is input,
In the case of (1 ′), it is a procedure of translating the input into the second language and transmitting it to the second terminal unit without transmitting the determined response content to the second terminal unit. 15. The program for cross-lingual dialogue processing according to any one of claims 11 to 14.
請求項11から請求項15までのいずれかに記載の異言語間対話処理用プログラムを記録したことを特徴とするコンピュータで読み取り可能な記録媒体。   A computer-readable recording medium on which the interlingual dialogue processing program according to any one of claims 11 to 15 is recorded.
JP2003375204A 2003-05-20 2003-11-05 Interlingual dialogue processing method and apparatus, program, and recording medium Expired - Fee Related JP4103085B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003375204A JP4103085B2 (en) 2003-05-20 2003-11-05 Interlingual dialogue processing method and apparatus, program, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003141802 2003-05-20
JP2003375204A JP4103085B2 (en) 2003-05-20 2003-11-05 Interlingual dialogue processing method and apparatus, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2005004716A true JP2005004716A (en) 2005-01-06
JP4103085B2 JP4103085B2 (en) 2008-06-18

Family

ID=34106420

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003375204A Expired - Fee Related JP4103085B2 (en) 2003-05-20 2003-11-05 Interlingual dialogue processing method and apparatus, program, and recording medium

Country Status (1)

Country Link
JP (1) JP4103085B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007114621A (en) * 2005-10-21 2007-05-10 Aruze Corp Conversation controller
JP2007115144A (en) * 2005-10-21 2007-05-10 Aruze Corp Conversation controller
JP2007115145A (en) * 2005-10-21 2007-05-10 Aruze Corp Conversation controller
JP2007115142A (en) * 2005-10-21 2007-05-10 Aruze Corp Conversation controller
JP2007115143A (en) * 2005-10-21 2007-05-10 Aruze Corp Conversation controller
JP2009193532A (en) * 2008-02-18 2009-08-27 Oki Electric Ind Co Ltd Dialogue management device, method, and program, and consciousness extraction system
JP2011076627A (en) * 2010-12-16 2011-04-14 Oki Electric Industry Co Ltd Interaction management device, method, program, and consciousness extraction system
US10311147B2 (en) 2016-03-14 2019-06-04 Kabushiki Kaisha Toshiba Machine translation apparatus and machine translation method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007114621A (en) * 2005-10-21 2007-05-10 Aruze Corp Conversation controller
JP2007115144A (en) * 2005-10-21 2007-05-10 Aruze Corp Conversation controller
JP2007115145A (en) * 2005-10-21 2007-05-10 Aruze Corp Conversation controller
JP2007115142A (en) * 2005-10-21 2007-05-10 Aruze Corp Conversation controller
JP2007115143A (en) * 2005-10-21 2007-05-10 Aruze Corp Conversation controller
JP2009193532A (en) * 2008-02-18 2009-08-27 Oki Electric Ind Co Ltd Dialogue management device, method, and program, and consciousness extraction system
JP2011076627A (en) * 2010-12-16 2011-04-14 Oki Electric Industry Co Ltd Interaction management device, method, program, and consciousness extraction system
US10311147B2 (en) 2016-03-14 2019-06-04 Kabushiki Kaisha Toshiba Machine translation apparatus and machine translation method

Also Published As

Publication number Publication date
JP4103085B2 (en) 2008-06-18

Similar Documents

Publication Publication Date Title
KR101042119B1 (en) Semantic object synchronous understanding implemented with speech application language tags
KR101066741B1 (en) Semantic object synchronous understanding for highly interactive interface
EP2282308B1 (en) Multi-slot dialog system and method
US6801897B2 (en) Method of providing concise forms of natural commands
KR101211796B1 (en) Apparatus for foreign language learning and method for providing foreign language learning service
JP5967569B2 (en) Speech processing system
EP1089193A2 (en) Translating apparatus and method, and recording medium used therewith
JP6150268B2 (en) Word registration apparatus and computer program therefor
JP2002540479A (en) Client-server speech recognition
JP2011504624A (en) Automatic simultaneous interpretation system
WO2018043138A1 (en) Information processing device, information processing method, and program
JP2006251545A (en) Speech interaction system and computer program
JP4103085B2 (en) Interlingual dialogue processing method and apparatus, program, and recording medium
US8355484B2 (en) Methods and apparatus for masking latency in text-to-speech systems
EP1899955B1 (en) Speech dialog method and system
JPH07129594A (en) Automatic interpretation system
CN113421549A (en) Speech synthesis method, speech synthesis device, computer equipment and storage medium
KR20150014235A (en) Apparatus and method for automatic interpretation
JP5818753B2 (en) Spoken dialogue system and spoken dialogue method
JP7132206B2 (en) GUIDANCE SYSTEM, GUIDANCE SYSTEM CONTROL METHOD, AND PROGRAM
JP3526549B2 (en) Speech recognition device, method and recording medium
JP3136038B2 (en) Interpreting device
JP2004021028A (en) Speech interaction system and speech interaction program
JP2000242295A (en) Voice recognition device and voice interactive device
JP2004355226A (en) Inter-different language dialog equipment and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080229

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080313

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120404

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140404

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees