JP4589843B2 - Dialogue method, dialogue apparatus, dialogue program, and recording medium - Google Patents

Dialogue method, dialogue apparatus, dialogue program, and recording medium Download PDF

Info

Publication number
JP4589843B2
JP4589843B2 JP2005232215A JP2005232215A JP4589843B2 JP 4589843 B2 JP4589843 B2 JP 4589843B2 JP 2005232215 A JP2005232215 A JP 2005232215A JP 2005232215 A JP2005232215 A JP 2005232215A JP 4589843 B2 JP4589843 B2 JP 4589843B2
Authority
JP
Japan
Prior art keywords
dialogue
scenario
input
focal
history
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005232215A
Other languages
Japanese (ja)
Other versions
JP2007047488A (en
Inventor
昇 宮崎
哲郎 甘粕
輝雄 萩野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2005232215A priority Critical patent/JP4589843B2/en
Publication of JP2007047488A publication Critical patent/JP2007047488A/en
Application granted granted Critical
Publication of JP4589843B2 publication Critical patent/JP4589843B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、入力の解釈結果と対話シナリオに記述された対話手順に基づいて適切な応答を出力するような対話システムを構築する技術にかかわるものであって、特に、異なる話題を扱う複数の対話システムを自動的に切り替えながら用いることにより、広い範囲の話に対応する対話を実現する技術の分野に関わる。   The present invention relates to a technology for constructing a dialogue system that outputs an appropriate response based on an interpretation result of an input and a dialogue procedure described in a dialogue scenario, and more particularly, a plurality of dialogues dealing with different topics. It is related to the field of technology that realizes dialogue corresponding to a wide range of stories by using the system while switching automatically.

音声やテキストなどによる入力を受け付け適切な応答を出力する対話システムは、一般に、入力を理解する装置を用いて入力を機械処理の容易な形へ変形し、あらかじめ与えられた対話シナリオに基づきこの変形された入力理解結果に対応する応答が出力される。このように対話シナリオをあらかじめ与える形式をとる対話システムは、特定の話題に限定した対話を扱うことはできるが、幅広い話題に関連した入力に対して適切な応答を出力することは困難である。これは、話題が広がれば入力に対する応答を決定する対話シナリオの記述が複雑になるからである。一方、狭い範囲の話題しか扱えない対話システムではユーザの要求に不十分な応答しか出来なかったり、ユーザがあらかじめシステムの能力についてよく理解していなくては使えなかったり、といった問題がある。そこで、比較的容易に構築できる狭い範囲の話題を扱う対話システムを複数構築しておき、それらを適切に切替えながら対話を行うことにより擬似的に広い範囲の話題を扱う対話システムを構築することが試みられてきた。   A dialogue system that accepts input by voice or text and outputs an appropriate response generally transforms the input into an easy form for machine processing using a device that understands the input, and this transformation is based on a given dialogue scenario. A response corresponding to the input understanding result is output. Thus, a dialogue system that takes the form of giving a dialogue scenario in advance can handle a dialogue limited to a specific topic, but it is difficult to output an appropriate response to an input related to a wide range of topics. This is because the description of the dialogue scenario for determining the response to the input becomes complicated as the topic spreads. On the other hand, there is a problem that an interactive system that can handle only a narrow range of topics can only respond insufficiently to user requests or cannot be used unless the user fully understands the capabilities of the system in advance. Therefore, it is possible to construct a dialogue system that handles a wide range of topics in a pseudo manner by constructing a plurality of dialogue systems that handle a narrow range of topics that can be constructed relatively easily, and performing dialogue while appropriately switching between them. Has been tried.

このような試みにおいて、特許文献1のように1入力毎にその入力がどの対話システムに強く関連するかを判定し、該当する対話システムからの応答を出力する技術があった。
特開2004−240150号公報
In such an attempt, there has been a technique of determining which interactive system the input is strongly associated with for each input as in Patent Document 1 and outputting a response from the corresponding interactive system.
JP 2004-240150 A

入力に応じて複数の対話システムを切り替えながら対話を行う手法においては、入力がどの対話システムに関連しているかを精度よく判定する点に技術的な困難が存在する。
特許文献1の手法で、例えばスケジュール管理機能を持つ対話システムと天気予報情報案内機能を持つ対話システムと航空券予約機能を持つ対話システムを切替えながら使用する場合を考える。また、直前に応答を出力した対話システムを焦点対話システムと呼ぶことにする。
ある時点で焦点対話システムがスケジュール管理機能を持つ対話システムであり、その応答が例えば「12月4日の予定を読み上げますがよろしいですか?」である場合を考える。このような場合、次入力に対しても当該スケジュール管理機能を持つ対話システムが応答を返答することが自然である。しかし、このような場合にユーザが「はい」「いいえ」のような、全ての対話システムが入力として受け付けるようなものを入力した場合、この一入力だけで精度よく関連する対話システムを判定することは困難である。
In the method of performing dialogue while switching between a plurality of dialogue systems according to input, there is a technical difficulty in accurately determining which dialogue system the input is related to.
Consider a case in which, for example, a dialogue system having a schedule management function, a dialogue system having a weather forecast information guidance function, and a dialogue system having an airline ticket reservation function are used while being switched by the method of Patent Document 1. The dialog system that outputs a response immediately before is called a focal dialog system.
Consider a case where the focal dialogue system is a dialogue system having a schedule management function at a certain point in time, and the response is, for example, “Are you sure you want to read the schedule for December 4?”. In such a case, it is natural that the interactive system having the schedule management function returns a response to the next input. However, in this case, if the user inputs something that all dialog systems accept as input, such as “Yes” or “No”, the related dialog system can be accurately determined by only this one input. It is difficult.

このように、従来の手法では入力がどの対話システムに関連しているかを判定する際に該当する入力のみを手がかりとして判定していたため、特に切替える対象の対話システムの数が多くなればなるほど、精度が不十分となる点に課題があった。
また、特許文献1の手法では、判定が誤る可能性があるにも関わらず判定結果の是非を確認する手続きを経ずに対話システムを切替える。このため、ユーザ側から見れば意図しない対話システムからの応答が出力されることがある。このようなことがおきれば、ユーザは意図する対話システムを指定するためにどの様な入力を与えればよいかわからず、不必要な混乱を与えてしまう点にも課題があった。
As described above, in the conventional method, when determining which dialogue system the input is related to, only the corresponding input is determined as a clue. Therefore, the accuracy increases as the number of dialogue systems to be switched increases. However, there was a problem in that it became insufficient.
Further, in the method of Patent Document 1, the dialogue system is switched without going through a procedure for confirming the right or wrong of the determination result even though there is a possibility that the determination is erroneous. For this reason, a response from an interactive system that is not intended from the user's side may be output. If this happens, there is a problem in that the user does not know what input should be given in order to specify the intended dialogue system, and causes unnecessary confusion.

上記の課題を解決するため、本発明では切替えながら使われる複数の対話ステムに加えて、それぞれの対話システムが切り替わる際に発生する対話を扱う遷移対話シナリオ、および入力が焦点対話システムに対応する焦点対話シナリオに関連するか、遷移対話シナリオに関連するかを判定する機能を持つ入力判定装置を導入する。
本発明においては、入力を理解する装置において、焦点対話シナリオに対応する入力理解モデル(以下、第1入力理解モデルと称す)を用いた入力理解と、遷移対話シナリオに対応する入力理解モデル(以下、第2入力理解モデルと称す)を用いた入力理解とを両方行い、二つの理解結果(以下、それぞれ第1入力理解結果及び第2入力理解結果とする)を得る。また、入力判定装置において前発話判定履歴を保持し、二つの第1及び第2入力理解結果と前発話判定履歴を同時に勘案して判定を行う。
In order to solve the above-described problem, in the present invention, in addition to a plurality of dialog systems used while switching, a transition dialog scenario for handling a dialog generated when each dialog system is switched, and a focus whose input corresponds to the focus dialog system. An input determination device having a function of determining whether it is related to a dialogue scenario or a transition dialogue scenario is introduced.
In the present invention, in an apparatus for understanding input, input understanding using an input understanding model (hereinafter referred to as a first input understanding model) corresponding to a focused dialogue scenario, and an input understanding model (hereinafter referred to as a transition dialogue scenario) , Which is referred to as a second input understanding model) to obtain two understanding results (hereinafter referred to as a first input understanding result and a second input understanding result, respectively). In addition, the input determination device holds a previous utterance determination history, and performs determination by simultaneously considering the two first and second input understanding results and the previous utterance determination history.

また、遷移対話シナリオを用いて、次に切替える対話システムが本当にユーザの要求しているシステムであるかどうかを確認する対話手順を経る。   In addition, a dialog procedure for confirming whether or not the dialog system to be switched next is the system requested by the user is performed using the transition dialog scenario.

本発明によれば、入力判定装置において二つの入力結果と前発話判定履歴を同時に勘案して判定を行うため、対話の流れを考慮した判定を行うことが可能となる。例えば入力理解装置が第1入力理解モデルによる理解プロセスに失敗し第1入力理解結果が得られず、また第2入力理解モデルによる理解プロセスにも失敗して第2入力理解結果も得られなかった場合、前発話判定履歴が焦点対話シナリオであった場合には今発話も焦点対話シナリオヘ、前発話判定履歴が遷移対話シナリオであった場合には今発話も遷移対話シナリオヘ関連するものと判定することが可能となる。また、入力が「はい」である場合のように第1入力理解結果および第2入力理解結果共に得られる場合、前発話判定履歴が遷移対話シナリオであった場合には今発話も遷移対話シナリオヘ関連するものと判定することが可能となる。   According to the present invention, since the determination is performed by simultaneously considering the two input results and the previous utterance determination history in the input determination device, it is possible to perform the determination in consideration of the flow of dialogue. For example, the input understanding device failed in the understanding process based on the first input understanding model and could not obtain the first input understanding result, and also failed in the understanding process based on the second input understanding model and obtained the second input understanding result. If the previous utterance determination history is a focused conversation scenario, the current utterance is also related to the focused conversation scenario. If the previous utterance determination history is a transition conversation scenario, it is determined that the current utterance is also related to the transition dialog scenario. Is possible. In addition, when both the first input understanding result and the second input understanding result are obtained as in the case where the input is “Yes”, if the previous utterance determination history is a transition dialogue scenario, the current utterance is also related to the transition dialogue scenario. It is possible to determine that it is to be performed.

また本発明においては、焦点対話シナリオと遷移対話シナリオのいずれか、すなわち二つのうちの一つを常に判定するため、複数存在する対話システムのいずれかに判定する場合に比べると判定精度は高くなることが期待される。
これら二点の理由により、入力判定精度が低い問題を回避することが出来る。
また、遷移対話シナリオを用いれば、例えば次に切替える対話システムが本当にユーザの要求しているシステムであるかどうかを確認する対話手順を経ることなどが可能になるため、ユーザが意図しない対話システムヘ突然切り替わることが無くなるため、不必要な混乱をユーザに与えることが無くなる。
Also, in the present invention, since either one of the focused dialogue scenario or the transition dialogue scenario, that is, one of the two is always judged, the judgment accuracy is higher than when judging to any one of a plurality of dialogue systems. It is expected.
For these two reasons, the problem of low input determination accuracy can be avoided.
In addition, if the transition dialog scenario is used, for example, it is possible to go through an interactive procedure for confirming whether the dialog system to be switched next is a system requested by the user. Since there is no sudden switch, no unnecessary confusion is given to the user.

本発明による対話装置はハードウェアによって構成することも可能であるが、それよりもむしろ、コンピュータに本発明で提案する対話プログラムをインストールし、コンピュータにこのプログラムを実行させることによりコンピュータを対話装置として機能させる実施形態が最良の実施形態である。
コンピュータが対話装置として機能する場合、コンピュータは少なくとも入力理解装置と入力判定装置とシナリオ実行装置とを備え、これら各装置の機能により対話動作を実行する。
The interactive apparatus according to the present invention can be configured by hardware, but rather, the interactive program proposed in the present invention is installed in the computer, and the computer is executed as the interactive apparatus by causing the computer to execute the program. The embodiment that makes it function is the best embodiment.
When the computer functions as an interactive device, the computer includes at least an input understanding device, an input determination device, and a scenario execution device, and executes an interactive operation using the functions of these devices.

図1及び図2に本発明の請求項4記載の対話装置の実施例を示す。請求項4記載の対話装置は入力理解装置101と、入力判定装置102と、シナリオ実行装置103と、焦点対話切替指令に応じて選択的にシナリオ実行装置103と入力理解装置101にコピーされて入力理解モデル或いは焦点対話シナリオとして利用される第1対話システム1041、第2対話システム1042……第n対話システム104nとから成る対話システム群104とを備える。
入力理解装置101は例えば音声を単語列に変換する音声認識装置1013と、単語列を属性と値とから成るペアへ変換する言語理解装置1014との組合わせによって構成することができる。音声認識装置1013は第1音声認識モデル1015と第2音声認識モデル1016とを備え、言語理解装置1014は第1言語理解モデル1011と第2言語理解モデル1012とを備える。
1 and 2 show an embodiment of an interactive apparatus according to claim 4 of the present invention. The dialogue device according to claim 4 is copied and inputted to the scenario understanding device 103 and the input understanding device 101 selectively in accordance with the input understanding device 101, the input determination device 102, the scenario execution device 103, and the focus dialogue switching command. A dialogue system group 104 including a first dialogue system 1041, a second dialogue system 1042,..., An n-th dialogue system 104n used as an understanding model or a focal dialogue scenario.
The input understanding device 101 can be configured by, for example, a combination of a speech recognition device 1013 that converts speech into a word string and a language understanding device 1014 that converts a word string into a pair of attributes and values. The speech recognition device 1013 includes a first speech recognition model 1015 and a second speech recognition model 1016, and the language understanding device 1014 includes a first language understanding model 1011 and a second language understanding model 1012.

入力判定装置102は前発話判定履歴1021を備え、更に、シナリオ実行装置103は焦点対話シナリオ10311と、遷移対話シナリオ10321とこれら焦点対話シナリオ10311と遷移対話シナリオ10321のそれぞれの履歴を保持した焦点対話履歴10312と遷移対話履歴10322とを備えて構成される。
更に、対話システム群104を構成する第1対話システム1041、第2対話システム1042……第n対話システム104nは対話シナリオ10411、10421……104n1と、言語理解モデル10412、10422、…104n2と、音声認識モデル10413,10423…104n3と、対話履歴10414、10424……104n4とを備えて構成される。
The input determination device 102 includes a previous utterance determination history 1021, and the scenario execution device 103 further includes a focus dialog scenario 10311, a transition dialog scenario 10321, and a focus dialog that holds the history of the focus dialog scenario 10311 and the transition dialog scenario 10321. A history 10312 and a transition dialogue history 10322 are provided.
Further, the first dialog system 1041, the second dialog system 1042,... The nth dialog system 104n constituting the dialog system group 104 include dialog scenarios 10411, 10421... 104n1, language understanding models 10412, 10422,. Recognizing models 10413, 10423... 104n3, and dialogue histories 10414, 10424.

入力1090としては例えば利用者が発声した音声や、テキスト入力、マウス入力、タッチパネル入力、ボタン操作、ジェスチヤ入力、もしくはそれらのいくつかを組み合わせたものなどが考えられる。また、応答内容1095にはスピーカから音声を出力する指令や、コンピュータ画面にテキスト、画像、エージェントキャラクタのジェスチャなどのアニメーション、もしくはそれらのいくつかを組み合わせたものを出力する指令などが考えられる。
本実施例では、入力は音声を、第1及び第2入力理解結果1091、1092は図3及び図4に示す属性と値とからなるペア及びスコアを出力し、応答内容1095にはテキストおよびエージェントキャラクタ動作コマンドを想定して説明する。このような場合、入力理解装置101には、音声を単語列に変換する音声認識装置1013と、単語列を属性とペアからなる値とペアへ変換する言語理解装置1014を組み合わせたものなどを用いることができる。また、言語理解装置1014に備えた第1及び第2音声認識モデル1015,1016には音声認識用の言語モデルや音響モデルが用いられ、第1及び第2言語理解モデル1011、1012には、単語列パタンと属性と値とから成るペアとを対応付ける言語理解規則などを用いることができる。応答内容1095は市販の音声合成装置やキャラクタ画像描画ソフトウェアなどを用いて音声や画像へ変換することによって、ユーザへ提示することができる。
As the input 1090, for example, voice uttered by the user, text input, mouse input, touch panel input, button operation, gesture input, or a combination of some of them can be considered. The response content 1095 may be a command to output sound from a speaker, a command to output text, an image, an animation such as an agent character gesture, or a combination of some of them on a computer screen.
In this embodiment, the input is speech, the first and second input understanding results 1091 and 1092 are output as pairs and scores consisting of the attributes and values shown in FIGS. 3 and 4, and the response content 1095 is text and agent. Description will be made assuming a character motion command. In such a case, the input understanding device 101 uses a combination of a speech recognition device 1013 that converts speech into a word string and a language understanding device 1014 that converts a word string into a value and a pair consisting of an attribute and a pair. be able to. Further, language models and acoustic models for speech recognition are used for the first and second speech recognition models 1015 and 1016 provided in the language understanding device 1014, and words are used for the first and second language understanding models 1011 and 1012. A language understanding rule that associates a column pattern with a pair of an attribute and a value can be used. The response content 1095 can be presented to the user by converting the response content 1095 into speech or an image using a commercially available speech synthesizer or character image drawing software.

また、本実施例では第1対話システム1041は東京観光案内システムであって、第n対話システム104nは東京行政サービス案内システムであるとする。
本発明による対話装置とユーザとの対話において、ある時点でユーザが東京観光案内についてシステムと対話しているとする。このとき、焦点対話シナリオ10311には東京観光案内だけを処理する対話シナリオ10411がコピーされており、入力理解装置101の第1音声認識モデル1015と第1言語理解モデル1011には東京観光案内に関連する入力だけを想定した音声認識モデル10413と言語理解モデル10412がコピーされている。また、遷移対話シナリオ10321は、ある対話システムから他の対話システムヘ話題が遷移する途中で発生する対話を処理するシナリオが記述されており、第2音声認識モデル1016及び第2言語理解モデル1012には、ある対話システムから他の対話システムヘ話題が遷移する途中で発生する対話に関連した入力を想定した入力理解モデルが記述されている。
In this embodiment, the first dialogue system 1041 is a Tokyo sightseeing guidance system, and the nth dialogue system 104n is a Tokyo administrative service guidance system.
In the dialogue between the dialogue apparatus and the user according to the present invention, it is assumed that the user is talking with the system about the Tokyo sightseeing guide at a certain time. At this time, the dialogue scenario 10411 for processing only the Tokyo sightseeing guide is copied to the focus dialogue scenario 10311, and the first speech recognition model 1015 and the first language understanding model 1011 of the input understanding device 101 are related to the Tokyo sightseeing guide. A speech recognition model 10413 and a language understanding model 10412 that are assumed to be input only are copied. The transition dialog scenario 10321 describes a scenario for processing a dialog that occurs during the course of a topic transition from one dialog system to another dialog system. The second speech recognition model 1016 and the second language understanding model 1012 describe the transition dialog scenario 10321. Describes an input understanding model that assumes input related to a dialog that occurs during the transition of a topic from one dialog system to another.

請求項4に記載の対話装置において、入力理解装置101は、入力1090が入力されると、第1音声認識モデル1015は入力1090を単語列に変換し、第1言語理解モデル1011はその単語列を解釈し第1入力理解結果1091へと変換する。また、第2音声認識モデル1016も入力1090を単語列に変換し、第2言語理解モデル1012もその単語列を解釈し、第2入力理解結果1092へと変換する。すなわち、一つの入力に対して二つの入力理解結果が生成される。
例えば入力音声が「住民票の写しを受け取りたい」というものであった場合の二つの入力理解結果の例を、図3および図4に示す。この例では、第1音声認識モデル1015及び第1言語理解モデル1011は東京観光案内の話題で頻出する単語が入力されると想定しているのに対し、第2音声認識モデル1016及び第2言語理解モデル1012では東京観光案内や行政サービスやその他全ての話題に関連する単語を想定している。音声認識モデルや言語理解モデルによって想定する入力が異なるため、想定された入力と整合する入力である場合にはスコアが高く、想定外の入力である場合にはスコアが低くなることがある。また本実施例では、入力が音声認識モデルや言語理解モデルにより想定されたものと著しく異なり、スコアが極端に低くなった場合には、入力理解に失敗したとみなして入力理解結果を出力しないような動作を行う。
5. When the input 1090 is input to the input understanding device 101, the first speech recognition model 1015 converts the input 1090 into a word string, and the first language understanding model 1011 receives the word string. Is converted into a first input understanding result 1091. The second speech recognition model 1016 also converts the input 1090 into a word string, and the second language understanding model 1012 also interprets the word string and converts it into a second input understanding result 1092. That is, two input understanding results are generated for one input.
For example, FIG. 3 and FIG. 4 show examples of two input understanding results when the input voice is “I want to receive a copy of a resident's card”. In this example, the first speech recognition model 1015 and the first language understanding model 1011 assume that words frequently appearing in the topic of Tokyo sightseeing guidance are input, whereas the second speech recognition model 1016 and the second language The understanding model 1012 assumes words related to Tokyo sightseeing guides, administrative services, and all other topics. Since the assumed input differs depending on the speech recognition model and the language understanding model, the score may be high when the input matches the assumed input, and the score may be low when the input is not expected. Also, in this embodiment, if the input is significantly different from that assumed by the speech recognition model or language understanding model, and the score becomes extremely low, it is assumed that the input understanding has failed and the input understanding result is not output. Perform the correct operation.

入力判定装置102では前発話判定履歴1021に保持される前発話判定履歴と第1入力理解結果1091と第2入力理解結果1092とを勘案して、入力判定結果1093とこの入力判定結果1093に対応する入力理解結果1094とを出力する。
図5及び図6に入力判定装置102の動作フローの例を示す。図5及び図6において、先ず第1及び第2入力理解結果1091,1092が共に存在するか否かを判定する(ステップS5−1)。
第1入力理解結果のみが存在する場合は現入力は「焦点対話シナリオ10311に関連する入力」とする判定結果1093を出力する(ステップS5−6)。
The input determination device 102 corresponds to the input determination result 1093 and the input determination result 1093 in consideration of the previous utterance determination history held in the previous utterance determination history 1021, the first input understanding result 1091, and the second input understanding result 1092. The input understanding result 1094 is output.
5 and 6 show an example of an operation flow of the input determination device 102. FIG. 5 and 6, it is first determined whether or not both the first and second input understanding results 1091 and 1092 exist (step S5-1).
When only the first input understanding result exists, the current input outputs the determination result 1093 that is “input related to the focal dialogue scenario 10311” (step S5-6).

第2入力理解のみ存在し、前発話判定結果が「焦点対話シナリオ」でなければ現入力は「遷移対話シナリオに関連する入力」とする入力判定結果1093を出力する(ステップS5−7、S5−8)。
第2入力理解のみが存在し、前発話判定結果が「焦点対話シナリオ」であった場合はステップS5−7を経てステップS6−3(図6)に分岐し、更に第2入力理解結果に現在の焦点対話シナリオに関連する内容が含まれていればステップS6−3を経てステップS6−5で現入力は「焦点対話シナリオに関連する入力」とする判定結果1093を出力する。
If only the second input comprehension exists and the previous utterance determination result is not “focus dialogue scenario”, an input determination result 1093 that “input related to transition dialogue scenario” is output as the current input (steps S5-7, S5-). 8).
If only the second input understanding exists and the previous utterance determination result is “focus dialogue scenario”, the process branches to step S6-3 (FIG. 6) through step S5-7, and the second input understanding result is If the content related to the focused dialogue scenario is included, a determination result 1093 is output that the current input is “an input related to the focused dialogue scenario” in step S6-3 through step S6-3.

第1入力理解結果及び第2入力理解結果が共に存在せず、更に前発話判定結果が焦点対話シナリオであった場合は、ステップS5−4を経てステップS5−9に分岐し、このステップS5−9で現入力は「焦点対話シナリオに関する入力」とする入力結果1093を出力する。
第1入力理解結果及び第2入力理解結果が共に存在せず、更に前発話判定結果が焦点対話シナリオでなかった場合にはステップS5−5で現入力は「遷移対話シナリオに関連する入力」とする入力結果1093を出力する。
If neither the first input understanding result nor the second input understanding result exists and the previous utterance determination result is a focal conversation scenario, the process branches to step S5-9 via step S5-4, and this step S5- 9, the current input is “input relating to the focal dialogue scenario”, and an input result 1093 is output.
If neither the first input understanding result nor the second input understanding result exists and the previous utterance determination result is not the focal dialogue scenario, the current input is “input related to the transition dialogue scenario” in step S5-5. The input result 1093 is output.

ステップS5−1で第1入力理解結果と第2入力理解結果が共に存在し、前発話判定結果が焦点対話シナリオでなければ、ステップS5−10からステップS5−11に分岐し、第1入力理解結果スコアと第2入力理解結果スコアとの大小関係を比較し、第1入力理解結果スコアがβを加算した第2入力理解結果スコアより大きい場合(ステップS5−11)は現入力は「焦点対話シナリオに関連する入力」とする入力判定結果1093を出力する(ステップS5−13)。
ステップS5−11の判定がNOである場合には現入力は「遷移対話シナリオに関連する入力」とする入力判定結果を出力する(ステップS5−12)。
If both the first input comprehension result and the second input comprehension result exist in step S5-1 and the previous utterance determination result is not the focal conversation scenario, the process branches from step S5-10 to step S5-11, and the first input comprehension is performed. The magnitude relationship between the result score and the second input understanding result score is compared. When the first input understanding result score is larger than the second input understanding result score obtained by adding β (step S5-11), the current input is “focus dialogue”. An input determination result 1093, “input relating to scenario” is output (step S5-13).
If the determination in step S5-11 is NO, an input determination result that the current input is “an input related to the transition dialogue scenario” is output (step S5-12).

ステップS5−1において、第1及び第2入力理解結果が共に存在し、ステップS5−10において、前発話判定結果が「焦点対話シナリオ」であったと判定された場合はステップS6−1で第1入力理解結果にαを加算したスコアと第2入力理解結果スコアとの大小関係を比較し、第2入力理解結果スコアが小さい場合には現入力は「焦点対話シナリオに関連する入力」とする入力判定結果1093を出力する(ステップS6−2)。
第2入力理解結果スコアがαを加算した第1入力理解結果スコアより大きい場合はステップS6−3に進み、ステップS6−3で第2入力理解結果に現在の焦点対話シナリオに関連する内容が含まれていると判定された場合にはステップS6−5で現入力は「焦点対話シナリオに関連する入力」とする入力判定結果1093を出力する。
In step S5-1, both the first and second input understanding results exist. In step S5-10, if it is determined that the previous utterance determination result is the “focus conversation scenario”, the first in step S6-1. Compare the magnitude of the score obtained by adding α to the input comprehension result and the second input comprehension result score. If the second input comprehension result score is small, the current input is “input related to the focal dialogue scenario”. The determination result 1093 is output (step S6-2).
If the second input understanding result score is larger than the first input understanding result score obtained by adding α, the process proceeds to step S6-3. In step S6-3, the second input understanding result includes contents related to the current focused dialogue scenario. If it is determined that the current input is determined, the input determination result 1093 is output in step S6-5, in which the current input is “input related to the focal dialogue scenario”.

ステップS6−3の判定がNOの場合は、現入力は「遷移対話シナリオに関連する入力」とする判定結果1093を出力する(ステップS6−4)。
ステップS5−11とS6−1で用いたαとβは例えばα=0.3、β=0.5等と設定することができるが、これらα及びβの値は入力理解装置101の実装に応じて調整する必要がある。
シナリオ実行装置103では、上述した入力判定結果1093に応じて焦点対話シナリオ10311もしくは遷移対話シナリオ10321を選択し、対応する対話履歴である焦点対話履歴10312もしくは遷移対話履歴10322に記録されているシナリオ実行箇所からシナリオを実行し、応答内容1095を出力する。
When the determination in step S6-3 is NO, a determination result 1093 that the current input is “an input related to the transition dialogue scenario” is output (step S6-4).
Α and β used in steps S5-11 and S6-1 can be set to α = 0.3, β = 0.5, etc., for example. It is necessary to adjust accordingly.
The scenario execution apparatus 103 selects the focused dialogue scenario 10311 or the transition dialogue scenario 10321 according to the input determination result 1093 described above, and executes the scenario recorded in the focused dialogue history 10312 or the transition dialogue history 10322 that is the corresponding dialogue history. The scenario is executed from the location, and the response content 1095 is output.

また、シナリオ実行装置103が遷移対話シナリオ10321を実行する際に、遷移対話シナリオ10321の内部に記述された焦点対話切替え指令を検出することがある。例えば“行政サービス”ドメインヘ焦点対話を切替えるような焦点対話切替え指令を検出した場合、シナリオ実行装置103は対話シナリオ104n1を焦点対話シナリオ10311へコピーし、音声認識モデル104n3を第1音声認識モデル1015へコピーし、更に言語モデル104n2を第1言語理解モデル1011へコピーする。また、新たに焦点対話シナリオとなった対話シナリオ104n1の初期応答内容が応答内容1095として出力される。図8に応答内容1095の一例を示す。   Further, when the scenario execution device 103 executes the transition dialog scenario 10321, a focus dialog switching command described in the transition dialog scenario 10321 may be detected. For example, when a focus dialog switching command for switching the focus dialog to the “administrative service” domain is detected, the scenario execution device 103 copies the dialog scenario 104n1 to the focus dialog scenario 10311, and the speech recognition model 104n3 to the first speech recognition model 1015. The language model 104n2 is further copied to the first language understanding model 1011. In addition, the initial response content of the dialog scenario 104n1 that has newly become the focus dialog scenario is output as the response content 1095. FIG. 8 shows an example of the response content 1095.

図7にこの発明の請求項5記載の対話装置の実施例を示す。請求項5に記載の対話装置では、シナリオ実行装置103にいわゆるヘルプ機能として作用するナビゲータ対話シナリオ10331、ナビゲータ対話履歴10332、ナビゲータ音声認識モデル10334とナビゲータ言語理解モデル10333を保持した実施例を示す。この実施例では遷移対話シナリオ10321に記述されている焦点対話切替え指令にはナビゲータを指定する指令が含まれる。また、ナビゲータ対話シナリオ10331にはナビゲータ対話シナリオ10331以外の何れかの対話システムを指定する焦点対話切替指令を含む。シナリオ実行装置103はナビゲータを指定する焦点対話切替え指令を検出した際に、第1音声認識モデル1015にはナビゲータ音声認識モデル10334をコピーし、第1言語理解モデル1011にはナビゲータ言語理解モデル10333をコピーし、入力判定装置102に入力判定モード変更指令1081を送る。入力判定装置102は入力判定モード変更指令1081を受け取ると、再度入力判定モード変更指令1081を受け取るまでの間、第1入力理解結果1091に対応した理解結果を常に出力するように動作する。シナリオ実行装置103はナビゲータ以外のシナリオを指定する焦点対話切替え指令を検出した場合、請求項1に記載される対話装置と同様に焦点対話シナリオおよび音声認識モデルと言語理解モデルに対応する対話システムからコピーし、入力判定装置102に入力判定モード変更指令1081を送る。これにより再び入力判定装置102は図5及び図6に示す手順に沿って入力判定を開始する。これによって、例えば遷移対話シナリオ10321において連続した複数回入力の理解に失敗するなどの現象がおきたり、或いはユーザが例えば「総合案内を呼んで」といった入力をした場合に、自動的にナビゲータシナリオに切替えたりすることが可能となる。   FIG. 7 shows an embodiment of an interactive apparatus according to claim 5 of the present invention. The dialogue apparatus according to claim 5 shows an embodiment in which a navigator dialogue scenario 10331 acting as a so-called help function, a navigator dialogue history 10332, a navigator speech recognition model 10334, and a navigator language understanding model 10333 are held in the scenario execution device 103. In this embodiment, the focus dialogue switching command described in the transition dialogue scenario 10321 includes a command for designating a navigator. The navigator dialogue scenario 10331 includes a focal dialogue switching command for designating any dialogue system other than the navigator dialogue scenario 10331. When the scenario execution device 103 detects a focus dialogue switching command for designating a navigator, the navigator speech recognition model 10334 is copied to the first speech recognition model 1015 and the navigator language understanding model 10333 is copied to the first language understanding model 1011. Copy and send an input determination mode change command 1081 to the input determination device 102. When the input determination device 102 receives the input determination mode change command 1081, the input determination device 102 operates so as to always output an understanding result corresponding to the first input understanding result 1091 until the input determination mode change command 1081 is received again. When the scenario execution device 103 detects a focus dialogue switching command for designating a scenario other than the navigator, the scenario execution device 103 uses the dialogue system corresponding to the focal dialogue scenario, the speech recognition model, and the language understanding model as in the dialogue device described in claim 1. Copy and send an input determination mode change command 1081 to the input determination device 102. Thereby, the input determination apparatus 102 starts input determination again according to the procedure shown in FIGS. As a result, for example, when a phenomenon such as failure to understand continuous input multiple times occurs in the transition dialogue scenario 10321 or when the user inputs, for example, “call general guidance”, the navigator scenario is automatically set. It is possible to switch.

請求項6に記載の対話装置では、シナリオ実行装置103は焦点対話切替え指令を検出した際に、現在の焦点対話シナリオに相当する対話システムの対話履歴に現在の焦点対話履歴をコピーしてから、焦点対話切替え指令で指定された対話システムの対話履歴を現在の焦点対話履歴へコピーする。例えば現在の焦点対話シナリオが対話シナリオ104n1であって焦点対話切替え指令が第1対話システム1041を指定している場合、焦点対話履歴10312を第n対話システム104nの対話履歴104n4(図1参照)へコピーした後に、第1対話システム1041の対話履歴10414(図1参照)を焦点対話履歴10312へとコピーする。これにより、例えば以前に第1対話システム1041の対話シナリオが焦点対話シナリオであったときの対話内容を、別の対話システムへ何度か切替えてから、再度継続して開始することができる。例えば、東京観光案内システムにおいて東京都庁の見所を紹介している場面で行政サービスの案内システムヘ切替えた後、再度観光案内システムヘ切替えれば、東京都庁の紹介場面から対話を継続して行うことが出来る。これによって、ユーザは冗長な入力を再度行うことなくスムーズに対話を進行することができる。   In the dialog device according to claim 6, when the scenario execution device 103 detects the focus dialog switching command, the scenario execution device 103 copies the current focus dialog history to the dialog history of the dialog system corresponding to the current focus dialog scenario, The dialogue history of the dialogue system specified by the focal dialogue switching command is copied to the current focal dialogue history. For example, when the current focal dialogue scenario is the dialogue scenario 104n1 and the focal dialogue switching command specifies the first dialogue system 1041, the focal dialogue history 10312 is transferred to the dialogue history 104n4 (see FIG. 1) of the nth dialogue system 104n. After copying, the dialogue history 10414 (see FIG. 1) of the first dialogue system 1041 is copied to the focal dialogue history 10312. As a result, for example, the conversation content when the conversation scenario of the first interaction system 1041 was the focal conversation scenario before can be switched to another interaction system several times and then can be started again. For example, if you switch to the administrative service guidance system after introducing the Tokyo Metropolitan Government's attractions in the Tokyo Tourist Information System, you can continue the dialogue from the Tokyo Metropolitan Government's introduction scene if you switch back to the Tourist Information System I can do it. As a result, the user can proceed with the conversation smoothly without performing redundant input again.

以上説明した本発明による対話装置は図1及び図2に示した構成要素を実現するための対話プログラムをコンピュータにインストールし、コンピュータに請求項4乃至請求項6記載の対話装置として機能させる実施形態が最良の実施形態である。本発明による対話プログラムはコンピュータが解読可能なプログラム言語によって記述され、コンピュータが読み取り可能な例えば磁気ディスク或いはCD−ROMのような記録媒体に記録される。コンピュータにはこれらの記録媒体から或いは通信回線を通じてインストールされる。インストールされた本発明による対話プログラムはコンピュータに備えられたCPUに解読され、コンピュータを対話装置として機能させる。   The dialogue apparatus according to the present invention described above is an embodiment in which a dialogue program for realizing the components shown in FIGS. 1 and 2 is installed in a computer, and the computer is caused to function as the dialogue apparatus according to claims 4 to 6. Is the best embodiment. The interactive program according to the present invention is written in a computer-readable program language, and is recorded on a recording medium such as a magnetic disk or CD-ROM that can be read by the computer. The computer is installed from these recording media or through a communication line. The installed interactive program according to the present invention is decoded by a CPU provided in the computer, and causes the computer to function as an interactive device.

本発明による対話方法、対話装置および対話プログラムは、複数の対話システムを組み合わせてより広い範囲の話題を扱う対話システムを構築する際に活用される。   The dialogue method, dialogue apparatus, and dialogue program according to the present invention are utilized when a dialogue system that handles a wider range of topics is constructed by combining a plurality of dialogue systems.

本発明による対話装置に用いられる対話システム群の構成例を説明するためのブロック図。The block diagram for demonstrating the structural example of the dialogue system group used for the dialogue apparatus by this invention. 本発明による対話装置に用いられる入力装置と入力判定装置、シナリオ実行装置の構成例を説明するためのブロック図。The block diagram for demonstrating the example of a structure of the input device used for the dialogue apparatus by this invention, an input determination apparatus, and a scenario execution apparatus. 焦点対話シナリオに対応する入力理解結果の例を示す図。The figure which shows the example of the input understanding result corresponding to a focus dialog scenario. 遷移対話シナリオに対応する入力理解結果の例を示す図。The figure which shows the example of the input understanding result corresponding to a transition dialog scenario. 本発明による入力判定装置の動作を説明するためのフローチャート。The flowchart for demonstrating operation | movement of the input determination apparatus by this invention. 図5の続きを説明するためのフローチャート。6 is a flowchart for explaining the continuation of FIG. 5. 本発明の変形実施例を説明するためのブロック図。The block diagram for demonstrating the deformation | transformation Example of this invention. 本発明による対話装置の応答内容の一例を説明するための図。The figure for demonstrating an example of the response content of the dialogue apparatus by this invention.

符号の説明Explanation of symbols

101 入力装置 104n 第n対話システム
1011 第1言語理解モデル 104n1 対話シナリオ
1012 第2言語理解モデル 104n2 入力理解モデル
1015 第1音声認識モデル 104n4 対話履歴
1016 第2言語認識モデル 1081 入力判定モード変更指令
102 入力判定装置 1090 入力
1021 前発話判定履歴 1091 第1入力理解結果
103 シナリオ実行装置 1092 第2入力理解結果
10311 焦点対話シナリオ 1093 入力判定結果
10312 焦点対話履歴 1094 入力理解結果
10321 遷移対話シナリオ 1095 応答内容
10322 遷移対話履歴
10331 ナビゲータ対話シナリオ
10332 ナビゲータ対話履歴
10333 ナビゲータ言語理解モデル
10334 ナビゲータ音声認識モデル
104 対話システム群
1041 第1対話システム
10411 対話シナリオ
10412 入力理解モデル
10414 対話履歴
DESCRIPTION OF SYMBOLS 101 Input device 104n nth dialogue system 1011 1st language understanding model 104n1 dialogue scenario 1012 2nd language understanding model 104n2 input understanding model 1015 1st speech recognition model 104n4 dialogue history
1016 Second language recognition model 1081 Input determination mode change command
102 Input Determination Device 1090 Input 1021 Previous Speech Determination History 1091 First Input Understanding Result 103 Scenario Execution Device 1092 Second Input Understanding Result 10311 Focus Dialog Scenario 1093 Input Determination Result 10312 Focus Dialog History 1094 Input Understanding Result 10321 Transition Dialog Scenario 1095 Response Content 10322 Transition dialogue history
10331 Navigator dialogue scenario
10332 Navigator dialog history
10333 Navigator language understanding model
10334 Navigator speech recognition model
104 Dialogue system group
1041 First dialog system 10411 Dialog scenario 10412 Input understanding model 10414 Dialog history

Claims (8)

入力理解方法と入力判定方法とシナリオ実行方法と複数の対話システムからなる対話方法であって、
シナリオ実行方法は焦点対話シナリオと遷移対話シナリオとそれぞれに対応する焦点対話履歴と遷移対話履歴とを保持し、
入力理解方法は上記焦点対話シナリオと上記遷移対話シナリオにそれぞれ対応する二つの入力理解モデルを保持し、
入力判定方法は前判定履歴を保持し、複数の対話システムのそれぞれは少なくとも対話シナリオと入力理解モデルとを保持し、
入力理解方法は入力に対して二つの入力理解モデルをそれぞれ用いて二つの理解結果を求め入力判定方法へ出力し、
入力判定方法は、前判定履歴と二つの理解結果とから、入力が焦点対話シナリオと遷移対話シナリオのいずれに対応するかを判定し、判定結果と判定されたシナリオに対応する理解結果を合わせてシナリオ実行方法へ出力し同時に前判定履歴を更新し、
シナリオ実行方法は入力判定方法からの出力に含まれる判定結果に対応する対話シナリオを、対応する対話履歴に保持されるシナリオ実行箇所から、入力判定方法からの出力に含まれる理解結果を入力としてシナリオを実行しシナリオに記述される応答内容を出力し、
同時に対応する対話履歴に新たなシナリオ実行箇所を保持し、
対話シナリオには焦点対話切替え指令が記述されており、シナリオ実行方法は対話シナリオを実行する際に焦点対話切替え指令を検出した場合は、焦点対話切替え指令により指定される対話システムの対話シナリオを焦点対話シナリオとし、この指定される対話システムの入力理解モデルを入力理解方法の保持する焦点対話シナリオに対応する入力理解モデルとすることを特徴とする対話方法。
An interactive method comprising an input understanding method, an input determination method, a scenario execution method, and a plurality of interactive systems,
The scenario execution method maintains a focal dialogue scenario and a transition dialogue history corresponding to a focal dialogue scenario and a transition dialogue scenario,
The input understanding method has two input understanding models respectively corresponding to the focus dialogue scenario and the transition dialogue scenario,
Input determination process holds a pre-format constant history, each of the plurality of interactive systems to retain the at least dialogue scenario input understanding model,
The input comprehension method uses two input comprehension models for the input, obtains two comprehension results, and outputs them to the input determination method.
Input determination method, and a pre-size constant history and two understanding result, the input is determined whether the corresponding one of the transition conversation scenarios and focus dialogue scenario, the determination result and combined understanding result corresponding to the determined scenario updated at the same time before-size constant history and output to the scenario execution method Te,
The scenario execution method is a scenario in which the dialogue scenario corresponding to the judgment result included in the output from the input judgment method is input from the scenario execution location held in the corresponding dialog history and the understanding result included in the output from the input judgment method is input. To output the response contents described in the scenario,
At the same time, the new scenario execution location is retained in the corresponding conversation history,
In the dialogue scenario, a focal dialogue switching command is described. When the scenario execution method detects the focal dialogue switching command when executing the dialogue scenario, the dialogue scenario of the dialogue system specified by the focal dialogue switching command is focused. A dialog method characterized in that an input understanding model of the specified dialog system is an input understanding model corresponding to a focal dialog scenario held by the input understanding method.
請求項1記載の対話方法において、シナリオ実行方法はナビゲータシナリオおよびナビ
ゲ一タ対話履歴およびナビゲータ入力理解モデルを保持し、対話シナリオを実行する際にナビゲータを指定する焦点対話切替え指令を検出した場合は、ナビゲータ入力理解モデルを入力理解方法の保持する焦点対話シナリオに対応する入力理解モデルとし、入力判定方法は新たにナビゲータ以外を指定する焦点切替え指令が検出されるまでは無条件に焦点対話側を判定緒果とし、シナリオ実行方法はナビゲータ対話履歴に保持されるシナリオ実行箇所から、理解結果を入力としてナビゲータシナリオを実行しナビゲータシナリオに記述される応答内容を出力し、同時にナビゲータ対話履歴に新たなシナリオ実行箇所を保持することを特徴とする対話方法。
The dialogue execution method according to claim 1, wherein the scenario execution method retains a navigator scenario, a navigator dialogue history, and a navigator input understanding model, and detects a focus dialogue switching command for designating a navigator when executing the dialogue scenario. The navigator input comprehension model is the input comprehension model corresponding to the focus dialogue scenario held by the input comprehension method, and the input judgment method unconditionally changes the focus dialogue side until a focus switching command for designating something other than the navigator is detected. As a result of the decision, the scenario execution method is based on the scenario execution location held in the navigator dialogue history, the understanding result is input, the navigator scenario is executed and the response contents described in the navigator scenario are output, and at the same time, a new content is added to the navigator dialogue history An interactive method characterized by holding a scenario execution location.
請求項1又は2の何れかに記載の対話方法において、シナリオ実行方法が焦点対話切替え指令を検出した際に、焦点対話履歴を現在の焦点対話シナリオに対応した対話システムの対話履歴にコピーし、焦点対話切替え指令で指定される対話システムの対話履歴を焦点対話履歴ヘコピーすることを特徴とする対話方法。   3. The dialogue method according to claim 1, wherein when the scenario execution method detects a focal dialogue switching command, the focal dialogue history is copied to the dialogue history of the dialogue system corresponding to the current focal dialogue scenario. A dialogue method characterized by copying a dialogue history of a dialogue system designated by a focal dialogue switching command to a focal dialogue history. 入力理解装置と入力判定装置とシナリオ実行装置と複数の対話システムからなる対話装置であって、
シナリオ実行装置は焦点対話シナリオと遷移対話シナリオとそれぞれに対応する焦点対話履歴と遷移対話履歴とを保持し、入力理解装置は上記焦点対話シナリオと上記遷移対話シナリオにそれぞれ対応する二つの入力理解モデルを保持し、入力判定装置は前判定履歴を保持し、複数の対話システムのそれぞれは少なくとも対話シナリオと入力理解モデルとを保持し、
入力理解装置は入力に対して二つの入力理解モデルをそれぞれ用いて二つの理解結果を求め入力判定装置へ出力し、
入力判定装置は、前判定履歴と二つの理解結果とから、入力が焦点対話シナリオと遷移対話シナリオのいずれに対応するかを判定し、判定結果と判定されたシナリオに対応する理解結果を合わせてシナリオ実行装置へ出力し同時に前判定履歴を更新し、
シナリオ実行装置は入力判定装置からの出力に含まれる判定結果に対応する対話シナリオを、対応する対話履歴に保持されるシナリオ実行箇所から、入力判定方法からの出力に含まれる理解結果を入力としてシナリオを実行しシナリオに記述される応答内容を出力し、同時に対応する対話履歴に新たなシナリオ実行箇所を保持し、
対話シナリオには焦点対話切替指令が記述されており、シナリオ実行装置は対話シナリオを実行する際に焦点切替え指令を検出した場合は、焦点対話切替え指令により指定される対話システムの対話シナリオを焦点対話シナリオとし、この指定される対話システムの入力理解モデルを入力理解装置が保持する焦点対話シナリオに対応する入力理解モデルとすることを特徴とする対話装置。
An interactive device comprising an input understanding device, an input determination device, a scenario execution device, and a plurality of interactive systems,
The scenario execution device holds a focal dialogue scenario and a transition dialogue scenario corresponding to the focal dialogue scenario and the transition dialogue scenario, and the input understanding device has two input understanding models respectively corresponding to the focal dialogue scenario and the transition dialogue scenario. It holds, the input determination unit holds a pre-format constant history, each of the plurality of interactive systems retain at least dialogue scenario an input understanding model,
The input comprehension device uses the two input comprehension models for the input to obtain two understanding results and outputs them to the input determination device.
Input determination device, and a pre-size constant history and two understanding result, the input is determined whether the corresponding one of the transition conversation scenarios and focus dialogue scenario, the determination result and combined understanding result corresponding to the determined scenario updated at the same time before-size constant history and output to the scenario execution unit Te,
The scenario execution device is a scenario in which an interaction scenario corresponding to the determination result included in the output from the input determination device is input from the scenario execution location held in the corresponding dialog history and the understanding result included in the output from the input determination method is input. , Output the response contents described in the scenario, and simultaneously store the new scenario execution location in the corresponding dialogue history,
In the dialogue scenario, a focal dialogue switching command is described. When the scenario execution device detects a focal switching command when executing the dialogue scenario, the dialogue scenario of the dialogue system specified by the focal dialogue switching command is selected as the focal dialogue. A dialog device characterized in that the input understanding model of the specified dialog system is set as a scenario and is an input understanding model corresponding to a focal dialog scenario held by the input understanding device.
請求項4記載の対話装置において、シナリオ実行装置はナビゲータシナリオおよびナビゲータ対話履歴およびナビゲータ入力理解モデルを保持し、対話シナリオを実行する際にナビゲータを指定する焦点対話切替え指令を検出した場合は、ナビゲータ入力理解モデルを入力理解方法の保持する焦点対話シナリオに対応する入力理解モデルとし、入力判定装置は新たにナビゲータ以外を指定する焦点切替え指令が検出されるまでは無条件に焦点対話側を判定結果とし、シナリオ実行装置はナビゲータ対話履歴に保持されるシナリオ実行箇所から、理解結果を入力としてナビゲータシナリオを実行しナビゲータシナリオに記述される応答内容を出力し、同時にナビゲータ対話履歴に新たなシナリオ実行箇所を保持することを特徴とする対話装置。   5. The dialogue apparatus according to claim 4, wherein the scenario execution device holds a navigator scenario, a navigator dialogue history, and a navigator input understanding model, and detects a focal dialogue switching command for designating a navigator when executing the dialogue scenario. The input comprehension model is the input comprehension model corresponding to the focus dialogue scenario held by the input comprehension method, and the input judgment device unconditionally judges the focus dialogue side until a focus switching command that designates something other than the navigator is detected. The scenario execution device executes the navigator scenario from the scenario execution location held in the navigator dialogue history as an input, outputs the response contents described in the navigator scenario, and simultaneously creates a new scenario execution location in the navigator dialogue history. An interactive apparatus characterized by holding 請求項4又は5の何れかに記載の対話装置において、シナリオ実行装置が焦点対話切替え指令を検出した際に、焦点対話履歴を現在の焦点対話シナリオに対応した対話システムの対話履歴にコピーし、焦点対話切替え指令で指定される対話システムの対話履歴を焦点対話履歴ヘコピーすることを特徴とする対話装置。   6. The dialogue apparatus according to claim 4, wherein when the scenario execution device detects a focal dialogue switching command, the focal dialogue history is copied to the dialogue history of the dialogue system corresponding to the current focal dialogue scenario. A dialogue apparatus for copying a dialogue history of a dialogue system designated by a focal dialogue switching command to a focal dialogue history. コンピユータが解読可能なプログラム言語によって記述され、コンピユータに少なくとも請求項4、請求項5、請求項6のいずれかに記載の対話装置として機能させる対話プログラム。   An interactive program that is written in a program language that can be read by a computer and that causes the computer to function as the interactive device according to any one of claims 4, 5, and 6. コンピュータが読み取り可能な記録媒体によって構成され、この記録媒体に請求項7記載の対話プログラムを記録した記録媒体。   A recording medium comprising a computer-readable recording medium, wherein the interactive program according to claim 7 is recorded on the recording medium.
JP2005232215A 2005-08-10 2005-08-10 Dialogue method, dialogue apparatus, dialogue program, and recording medium Expired - Fee Related JP4589843B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005232215A JP4589843B2 (en) 2005-08-10 2005-08-10 Dialogue method, dialogue apparatus, dialogue program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005232215A JP4589843B2 (en) 2005-08-10 2005-08-10 Dialogue method, dialogue apparatus, dialogue program, and recording medium

Publications (2)

Publication Number Publication Date
JP2007047488A JP2007047488A (en) 2007-02-22
JP4589843B2 true JP4589843B2 (en) 2010-12-01

Family

ID=37850357

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005232215A Expired - Fee Related JP4589843B2 (en) 2005-08-10 2005-08-10 Dialogue method, dialogue apparatus, dialogue program, and recording medium

Country Status (1)

Country Link
JP (1) JP4589843B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5530729B2 (en) 2009-01-23 2014-06-25 本田技研工業株式会社 Speech understanding device
US9190642B2 (en) * 2012-06-04 2015-11-17 Eaglepicher Technologies, Llc Contoured battery case based on cell shapes
JP6873805B2 (en) * 2017-04-24 2021-05-19 株式会社日立製作所 Dialogue support system, dialogue support method, and dialogue support program
JP7244910B2 (en) * 2019-04-16 2023-03-23 学校法人早稲田大学 Information transmission system and program
JP7221902B2 (en) * 2020-03-13 2023-02-14 Kddi株式会社 Dialogue device, program and method for switching dialogue content according to user's interest level

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6219899A (en) * 1985-07-18 1987-01-28 松下電器産業株式会社 Sentence voice recognition equipment
JPH04332084A (en) * 1991-05-07 1992-11-19 Nippon Telegr & Teleph Corp <Ntt> Automatic information offering method
JPH1031497A (en) * 1996-07-18 1998-02-03 Hitachi Ltd Voice conversation control method and voice conversation system
JPH1069482A (en) * 1996-08-29 1998-03-10 Atr Chinou Eizo Tsushin Kenkyusho:Kk Topic processor
JP2001296943A (en) * 2000-04-14 2001-10-26 Denso Corp Interactive user interface device
JP2002032370A (en) * 2000-07-18 2002-01-31 Fujitsu Ltd Information processor
JP2004233676A (en) * 2003-01-30 2004-08-19 Honda Motor Co Ltd Interaction controller
JP2004264464A (en) * 2003-02-28 2004-09-24 Techno Network Shikoku Co Ltd Voice recognition error correction system using specific field dictionary
JP2005190191A (en) * 2003-12-25 2005-07-14 Equos Research Co Ltd In-vehicle device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6219899A (en) * 1985-07-18 1987-01-28 松下電器産業株式会社 Sentence voice recognition equipment
JPH04332084A (en) * 1991-05-07 1992-11-19 Nippon Telegr & Teleph Corp <Ntt> Automatic information offering method
JPH1031497A (en) * 1996-07-18 1998-02-03 Hitachi Ltd Voice conversation control method and voice conversation system
JPH1069482A (en) * 1996-08-29 1998-03-10 Atr Chinou Eizo Tsushin Kenkyusho:Kk Topic processor
JP2001296943A (en) * 2000-04-14 2001-10-26 Denso Corp Interactive user interface device
JP2002032370A (en) * 2000-07-18 2002-01-31 Fujitsu Ltd Information processor
JP2004233676A (en) * 2003-01-30 2004-08-19 Honda Motor Co Ltd Interaction controller
JP2004264464A (en) * 2003-02-28 2004-09-24 Techno Network Shikoku Co Ltd Voice recognition error correction system using specific field dictionary
JP2005190191A (en) * 2003-12-25 2005-07-14 Equos Research Co Ltd In-vehicle device

Also Published As

Publication number Publication date
JP2007047488A (en) 2007-02-22

Similar Documents

Publication Publication Date Title
US11823661B2 (en) Expediting interaction with a digital assistant by predicting user responses
JP6073498B2 (en) Dialog control apparatus and dialog control method
US11797772B2 (en) Word lattice augmentation for automatic speech recognition
JP4416643B2 (en) Multimodal input method
JP4878471B2 (en) Information processing apparatus and control method thereof
US8798999B2 (en) Dialog design tool and method
US7818671B2 (en) Virtual navigation of menus
JP4589843B2 (en) Dialogue method, dialogue apparatus, dialogue program, and recording medium
JP2010520531A (en) Integrated pinyin and image input
JP2004288018A (en) Interaction control system and method
KR102527107B1 (en) Method for executing function based on voice and electronic device for supporting the same
EP3966744A1 (en) Multi-stream recurrent neural network transducer(s)
JP2022041741A (en) Information processor, printing system, control method, and program
JP5818753B2 (en) Spoken dialogue system and spoken dialogue method
JP4377718B2 (en) Dialog control system and method
WO2019142419A1 (en) Information processing device and information processing method
JP2022190943A (en) Information processing device and program
JP2004151562A (en) Method for controlling voice interaction and voice interaction control device
JP4537755B2 (en) Spoken dialogue system
JP4095577B2 (en) Dialogue device, voice dialogue device, dialogue program, voice dialogue program, and recording medium
JP2000330588A (en) Method and system for processing speech dialogue and storage medium where program is stored
Hess et al. “Could you please repeat that?” Speech design best practices for minimizing errors
JP2006235040A (en) Image forming apparatus, program, and recording medium
JP2004021028A (en) Speech interaction system and speech interaction program
JP4223841B2 (en) Spoken dialogue system and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100831

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100910

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130917

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees