JP2017079004A - Agent dialogue system - Google Patents

Agent dialogue system Download PDF

Info

Publication number
JP2017079004A
JP2017079004A JP2015207441A JP2015207441A JP2017079004A JP 2017079004 A JP2017079004 A JP 2017079004A JP 2015207441 A JP2015207441 A JP 2015207441A JP 2015207441 A JP2015207441 A JP 2015207441A JP 2017079004 A JP2017079004 A JP 2017079004A
Authority
JP
Japan
Prior art keywords
person
robot
intention
dialogue
utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015207441A
Other languages
Japanese (ja)
Other versions
JP6992957B2 (en
Inventor
尊優 飯尾
Takamasa Iio
尊優 飯尾
雄一郎 吉川
Yuichiro Yoshikawa
雄一郎 吉川
石黒 浩
Hiroshi Ishiguro
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osaka University NUC
Original Assignee
Osaka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka University NUC filed Critical Osaka University NUC
Priority to JP2015207441A priority Critical patent/JP6992957B2/en
Publication of JP2017079004A publication Critical patent/JP2017079004A/en
Application granted granted Critical
Publication of JP6992957B2 publication Critical patent/JP6992957B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide an agent dialogue system that gives a person a feeling as if speech is produced with a stretched interpretation thereof.SOLUTION: A robot dialogue system 10 makes robots R1 and R2 do a dialogue therebetween, all based on a script. When a sensor manager 18 recognizes the intention of a person H, a group manager 20, with a person intention processing module 23, makes the robots R1 and R2 do such a dialogue that stretches an interpretation of the recognized human intention to approve it.SELECTED DRAWING: Figure 1

Description

この発明は、エージェント対話システムに関し、特にたとえば、複数のエージェントと少なくとも1人の人が参加する、新規なエージェント対話システムに関する。   The present invention relates to an agent interaction system, and more particularly to a novel agent interaction system in which a plurality of agents and at least one person participate, for example.

ロボット分野の広がりとともに、ロボット研究は,日常的な場面で働くロボットの研究に焦点を移しつつあり、人間が生活する環境の中で、人と対話することができるロボットの開発が注目されている。   Along with the spread of the robot field, robot research is shifting to research on robots that work in everyday situations, and the development of robots that can interact with people in the environment where people live is attracting attention. .

近年の音声認識の技術の発展により、これまでにも人間と音声言語でやりとりをする機能を持つロボットが開発されてきているが、音声認識技術をいくら優れたものにしても、ロボットと人との対話において、人が人との対話に参加しているときに抱く「対話感(対話に参加しているという感覚)」と同等の感覚を、ロボットと対話する人に与え続けることは容易ではなかった。   With the recent development of speech recognition technology, robots that have the ability to interact with humans in spoken language have been developed, but no matter how good the speech recognition technology is, It is not easy to continue to give people who interact with robots the same feeling as “the feeling of dialogue (sense of participating in dialogue)” that people have when participating in dialogue with people. There wasn't.

背景技術の一例である特許文献1には、ロボットと人との対話において、ロボットが人の感情を推測して応答文の発話とその発話に伴う動作を決定することが開示されている。   Patent Document 1 which is an example of background art discloses that in a dialogue between a robot and a person, the robot estimates a person's emotion and determines an utterance of a response sentence and an action associated with the utterance.

特許文献2には、人とロボットとの対話システムにおいて、両者の同調を図ることで、持続的で自然なインタラクションを実現しようとするものである。   In Patent Document 2, in a dialogue system between a human and a robot, a continuous and natural interaction is attempted by synchronizing the two.

特開2004-90109号公報[B25J 13/00…]JP 2004-90109 A [B25J 13/00 ...] 特開2012-181697号公報[G06F 3/16…]JP 2012-181697 A [G06F 3/16 ...]

特許文献1の技術においても、特許文献2の技術においても、音声認識に基づく処理に限界があり、上述の「対話感」を人が持続することは容易ではない。   In both the technology of Patent Literature 1 and the technology of Patent Literature 2, there is a limit to processing based on voice recognition, and it is not easy for a person to maintain the above-mentioned “interactive feeling”.

それゆえに、この発明の主たる目的は、新規な、エージェント対話システムを提供することである。   Therefore, the main object of the present invention is to provide a novel agent interaction system.

この発明の他の目的は、人に対話に参加している感覚を持続させることができる、エージェント対話システムを提供することである。   Another object of the present invention is to provide an agent dialogue system capable of sustaining a sense of participation in dialogue with a person.

この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate the corresponding relationship with the embodiments described in order to help understanding of the present invention, and do not limit the present invention.

第1の発明は、それぞれが発話機能を有する複数のエージェントが対話場所においてスクリプトに従って対話し、対話場所に人が陪席するエージェント対話システムであって、人の意思を認定する意思認定手段、および意思認定手段が認定した人の意思を承認する発話および非言語動作の少なくとも一方を少なくとも1つのエージェントに実行させる実行手段を備える、エージェント対話システムである。   A first invention is an agent dialogue system in which a plurality of agents each having an utterance function interact in accordance with a script at a dialogue place, and a person sits at the dialogue place, an intention recognition means for certifying a person's intention, and an intention An agent interaction system comprising execution means for causing at least one agent to execute at least one of an utterance and a non-verbal action for approving an intention of a person authorized by an authorization means.

第1の発明では、エージェント対話システム(10:実施例において相当する部分を例示する参照符号。以下、同様。)は、対話場所(12)に、それぞれが発話機能(46)を有する複数のエージェント(R1,R2)を配置し、その対話場所(12)に人(H)が陪席する。エージェントどうしはスクリプトに従って対話する。たとえばセンサマネージャのような意思認定手段(18)が、必ずしも人Hの実際の意思の如何にはよらず、人Hの意思を認定する。実行手段(20a、23、S77、S83)は、少なくとも1つのエージェントに対して、当該人の意思を承認する発話および/または非言語動作を実行させる。たとえば、人Hの意思を認定したとき、実行手段の一例である図15のステップS83において、エージェント(R1、R2)の対話によってその意思を承認するだけでなく、少なくとも1体のエージェント(R1およびR2の少なくとも一方)の発話で人Hの意思を承認するようにしてもよい。さらに、認定した人Hの意思を承認するためには、図15のステップS77における非言語動作を実行させるようにしてもよい。この場合、ステップS77も実行手段を構成することになる。   In the first invention, the agent dialogue system (10: reference numerals exemplifying corresponding parts in the embodiment; the same applies hereinafter) includes a plurality of agents each having a speech function (46) at the dialogue place (12). (R1, R2) are arranged, and a person (H) sits at the dialogue place (12). Agents interact according to a script. For example, an intention recognition means (18) such as a sensor manager recognizes the intention of the person H regardless of the actual intention of the person H. The execution means (20a, 23, S77, S83) causes at least one agent to execute an utterance and / or a non-language operation for approving the intention of the person. For example, when the intention of the person H is recognized, in step S83 of FIG. 15 which is an example of the execution means, not only the intention of the agent (R1, R2) is approved but also at least one agent (R1 and R1). The intention of the person H may be approved by the utterance of at least one of R2. Furthermore, in order to approve the intention of the authorized person H, the non-language operation in step S77 in FIG. 15 may be executed. In this case, step S77 also constitutes execution means.

第1の発明によれば、認定した人の意思を承認する発話を少なくとも1つのエージェントが実行するので、人にエージェントどうしの対話に参加している感覚(「対話感」)を生じさせるだけでなく、人にあたかもその承認の前提となる発話をしたような感覚を付与することができる。   According to the first invention, since at least one agent executes an utterance that approves the intention of the authorized person, it is only necessary to cause a person to feel that he / she participates in a dialogue between agents (“sense of dialogue”). In addition, it is possible to give a person a feeling as if he / she uttered the premise of the approval.

第2の発明は、第1の発明に従属し、実行手段は、複数のエージェントに人の意思を拡大解釈した対話を実行させる対話実行手段を含む、エージェント対話システムである。   A second invention is an agent dialogue system according to the first invention, wherein the execution means includes a dialogue execution means for causing a plurality of agents to execute a dialogue in which a human intention is expanded and interpreted.

第2の発明によれば、人にあたかもその承認の前提となる拡大解釈を伴う発話をしたような感覚を付与することができる。   According to the second aspect of the invention, it is possible to give a person a feeling as if he / she spoke an utterance with an expanded interpretation that is a precondition for approval.

第3の発明は、第2の発明に従属し、対話実行手段は、1つのエージェントに人の意思を拡大解釈した発話を実行させ、他の少なくとも1つのエージェントに拡大解釈した発話を承認する発話を実行させる、エージェント対話システムである。   A third invention is dependent on the second invention, and the dialog execution means causes one agent to execute an utterance in which a person's intention is extended and executes an utterance in which at least one other agent approves the extended interpretation. It is an agent dialogue system that executes

第3の発明によれば、1つのエージェントに人の意思を拡大解釈した発話を実行させ、他の少なくとも1つのエージェントに拡大解釈した発話を承認する発話を実行させるので、あたかもその承認の前提となる拡大解釈を伴う発話をしたような感覚を人に一層強く付与することができる。   According to the third invention, one agent is caused to execute an utterance in which a person's intention is expanded and another at least one agent is allowed to execute an utterance that approves the expanded interpretation. It is possible to give a person a sense of utterance with an expanded interpretation.

第4の発明は、それぞれが発話機能(46)を有する複数のエージェント(R1, R2)が対話場所(12)においてスクリプトに従って対話し、対話場所に人(H)が陪席するエージェント対話システム(10)のコンピュータによって実行されるプログラムであって、前記プログラムは、前記コンピュータを人の意思を認定する意思認定手段(18)、および前記意思認定手段が認定した人の意思を承認する発話および非言語動作の少なくとも一方を少なくとも1つのエージェントに実行させる実行手段(20a、23、S77、S83)として機能させる、エージェント対話システムのプログラムである。   The fourth invention is an agent dialogue system (10) in which a plurality of agents (R1, R2) each having a speech function (46) interact according to a script at a dialogue place (12), and a person (H) sits in the dialogue place. The program is executed by a computer, and the program includes an intention recognition means (18) for certifying a person's intention to the computer, and an utterance and a non-language for certifying a person's intention authorized by the intention qualification means. It is a program of an agent dialogue system that functions as execution means (20a, 23, S77, S83) for causing at least one agent to execute at least one of operations.

第5の発明は、第4の発明に従属し、実行手段は、複数のエージェントに人の意思を拡大解釈した対話を実行させる対話実行手段を含む、エージェント対話システムのプログラムである。   A fifth invention is dependent on the fourth invention, and the execution means is a program for an agent dialogue system including dialogue execution means for causing a plurality of agents to execute a dialogue in which human intentions are expanded and interpreted.

第5の発明では、第2の発明と同様に、人にあたかもその承認の前提となる拡大解釈を伴う発話をしたような感覚を付与することができる。   In the fifth invention, as in the second invention, it is possible to give a person a feeling as if he / she has made an utterance with an expanded interpretation that is the premise for its approval.

第6の発明は、第5の発明に従属し、対話実行手段は、1つのエージェントに人の意思を拡大解釈した発話を実行させ、他の少なくとも1つのエージェントに拡大解釈した発話を承認する発話を実行させる、エージェント対話システムのプログラムである。   The sixth invention is dependent on the fifth invention, and the dialog execution means causes one agent to execute an utterance in which a person's intention is expanded and an utterance in which at least one other agent approves the expanded interpretation. This is an agent dialogue system program that executes

第6の発明では、第3の発明と同様に、あたかもその承認の前提となる拡大解釈を伴う発話をしたような感覚を、人に一層強く付与することができる。   In the sixth invention, as in the third invention, it is possible to give a person a stronger feeling as if he had made an utterance with an expanded interpretation that is the premise for approval.

この発明によれば、エージェントどうしの対話においても、対話中の人の行為を人の実際の意思の如何にはよらず、人の意思表示として承認することによって、人に対話に参加している感覚(「対話感」)を生じさせ、さらにその承認を伴う発話をしたかのような感覚を人に付与する事ができる。   According to the present invention, even in the dialogue between agents, the person's action during the dialogue is accepted as a person's intention display regardless of the person's actual intention, thereby participating in the conversation to the person. A sense (“dialogue”) is generated, and a sense as if the utterance was accompanied by the approval can be given to the person.

この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1はこの発明の一実施例のロボット対話システムの概要を示す概略図である。FIG. 1 is a schematic diagram showing an outline of a robot dialogue system according to an embodiment of the present invention. 図2は図1実施例におけるセンサマネージャの構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of the configuration of the sensor manager in the embodiment of FIG. 図3は図1実施例におけるグループマネージャの構成の一例を示すブロック図である。FIG. 3 is a block diagram showing an example of the configuration of the group manager in FIG. 1 embodiment. 図4は図1実施例におけるロボットの一例を示す概略図である。FIG. 4 is a schematic diagram showing an example of the robot in the embodiment of FIG. 図5は図4のロボットを制御するロボットコントローラの構成の一例を示すブロック図である。FIG. 5 is a block diagram showing an example of the configuration of a robot controller that controls the robot of FIG. 図6は図1に示すダイアログデータベースからグループマネージャに読み出されるスクリプトの一例を示す概略図である。FIG. 6 is a schematic diagram showing an example of a script read from the dialog database shown in FIG. 1 to the group manager. 図7は図1に示すグループマネージャの動作の一例を示すフロー図である。FIG. 7 is a flowchart showing an example of the operation of the group manager shown in FIG. 図8は図1に示すロボットコントローラの動作の一例を示すフロー図である。FIG. 8 is a flowchart showing an example of the operation of the robot controller shown in FIG. 図9は図1実施例における対話シーケンスの一例を示す概略図である。FIG. 9 is a schematic diagram showing an example of a dialogue sequence in the embodiment of FIG. 図10は図1実施例における具体的な対話場面の一例を示す概略図である。FIG. 10 is a schematic diagram showing an example of a specific dialogue scene in the embodiment of FIG. 図11は図1実施例における具体的な対話場面の他の例を示す概略図である。FIG. 11 is a schematic diagram showing another example of a specific dialogue scene in the embodiment of FIG. 図12は図1実施例における具体的な対話場面の他の例を示す概略図である。FIG. 12 is a schematic diagram showing another example of a specific dialogue scene in the embodiment of FIG. 図13は図1実施例における具体的な対話場面の他の例を示す概略図である。FIG. 13 is a schematic diagram showing another example of a specific dialogue scene in the embodiment of FIG. 図14は図1実施例における具体的な対話場面の他の例を示す概略図である。FIG. 14 is a schematic diagram showing another example of a specific dialog scene in the embodiment of FIG. 図15は図1に示す人意思処理モジュールの動作の一例を示すフロー図である。FIG. 15 is a flowchart showing an example of the operation of the human intention processing module shown in FIG. 図16は図1実施例において人の意思表示を処理する具体的な対話場面の一例を示す概略図である。FIG. 16 is a schematic diagram showing an example of a specific dialog scene for processing a person's intention display in the FIG. 1 embodiment. 図17は図1実施例において人の意思表示を処理する具体的な対話場面の他の例を示す概略図である。FIG. 17 is a schematic diagram showing another example of a specific dialog scene for processing a person's intention display in the embodiment of FIG. 図18は図1実施例において人の意思表示を処理する具体的な対話場面の他の例を示す概略図である。FIG. 18 is a schematic diagram showing another example of a specific dialog scene for processing a person's intention display in the embodiment of FIG. 図19は図1実施例において人の意思表示を処理する具体的な対話場面の他の例を示す概略図である。FIG. 19 is a schematic view showing another example of a specific dialog scene for processing a person's intention display in the FIG. 1 embodiment. 図20は図1実施例において人の意思表示を処理する具体的な対話場面の他の例を示す概略図である。FIG. 20 is a schematic diagram showing another example of a specific dialog scene for processing a person's intention display in the FIG. 1 embodiment. 図21は図1実施例において人の意思表示を処理する具体的な対話場面の他の例を示す概略図である。FIG. 21 is a schematic view showing another example of a specific dialog scene for processing a person's intention display in the FIG. 1 embodiment. 図22は図1実施例において人の意思表示を処理する具体的な対話場面の他の例を示す概略図である。FIG. 22 is a schematic diagram showing another example of a specific dialog scene for processing a person's intention display in the FIG. 1 embodiment. 図23は図1実施例において人の意思表示を処理する具体的な対話場面の他の例を示す概略図である。FIG. 23 is a schematic diagram showing another example of a specific dialog scene for processing a person's intention display in the FIG. 1 embodiment. 図24は図1実施例において人の意思表示を処理する具体的な対話場面の他の例を示す概略図である。FIG. 24 is a schematic diagram showing another example of a specific dialog scene for processing a person's intention display in the FIG. 1 embodiment. 図25は図1実施例において人の意思表示を処理する具体的な対話場面の他の例を示す概略図である。FIG. 25 is a schematic view showing another example of a specific dialog scene for processing a person's intention display in the FIG. 1 embodiment.

図1を参照して、この実施例のロボット対話システム10の対話場所12には、第1ロボットR1および第2ロボットR2と1人の人Hが存在する。ただし、ロボットの数は3以上でもよく、人の数は2以上でもよい。なお、以下において、第1ロボットR1および第2ロボットR2を特に区別する必要がないとき、単にロボットRと呼ぶことがある。   Referring to FIG. 1, a first robot R1 and a second robot R2 and one person H exist in a dialogue place 12 of the robot dialogue system 10 of this embodiment. However, the number of robots may be 3 or more, and the number of people may be 2 or more. Hereinafter, the first robot R1 and the second robot R2 may be simply referred to as the robot R when it is not necessary to distinguish between them.

人が発話するとき、その発話に応じる形で相手の発話が生成されなければ、対話を続けていくこと自体が困難になりやすいため、音声認識および自然言語処理の能力が完璧でないロボットは、人間の発話に対して適切な発話をし続けることは容易ではなく、対話は破綻しやすい。   When a person speaks, if the other person's utterance is not generated in response to the utterance, it is difficult to continue the conversation itself, so a robot whose speech recognition and natural language processing capabilities are not perfect is human. It is not easy to continue to speak appropriately for the utterances, and the dialogue is likely to break down.

一方、人間は、他者どうしの対話を傍らで観察する際、その内容が完全に理解あるいは同意できるものでなくても、部分的に理解あるいは同意しながら、対話を聞き続けることができる。またそれにより、理解あるいは同意できなかった部分についても、後から理解あるいは同意できることがある。しかし、対話に参加している感覚(対話感)がなければ、その対話に集中し続けることは容易ではない。   On the other hand, humans can continue to listen to a dialogue while partially understanding or agreeing with it, even if the content is not completely understood or agreed when observing the dialogue between others. In addition, parts that could not be understood or agreed may be understood or agreed later. However, it is not easy to keep concentrating on the dialogue if there is no sense of participation (dialogue).

そこで、この実施例では、ロボットが発話する際に、必ずしも人間に返答させる形にするのではなく、その対話の場に別のロボットを陪席させ、ロボットの発話に対して適切な返答を、この陪席ロボットに発話させる、つまりロボットどうしに対話を行わせることで破綻を回避し、他方、そのロボットどうしの対話を人に聞かせ、時には人間の行為を意思表示、たとえば「同意」、「不同意」(「肯定」、「否定」)などを受けとみなし、その人の意思をロボットどうしの対話の継続あるいは複数のロボットによる非言語的な注意の表示等によって、承認して確定するなどして、人間に対話感を感じさせる。   Therefore, in this embodiment, when a robot speaks, it is not necessarily a form to make a human reply, but another robot is placed in the place of the dialogue, and an appropriate response to the robot's utterance is sent. Let the saddle robot speak, that is, let the robots communicate with each other to avoid failure, while letting people talk about the dialogue between the robots, and sometimes indicate the actions of humans, for example, "Agree", "Disagree" (“Yes”, “No”), etc., and accepting and confirming the intention of the person by continuing dialogue between robots or displaying non-verbal attention by multiple robots, Make humans feel a sense of dialogue.

この実施例のようなロボット対話システムは、たとえば、独居生活者に対するコミュニケーションサービスロボット、情報提供サービスロボット、広告ロボットなどとして利用可能である。   The robot interaction system as in this embodiment can be used as, for example, a communication service robot, an information providing service robot, an advertisement robot, etc. for a single person living alone.

ロボット対話システム10の対話場所12の状況をセンシングするために、この実施例では、聴覚センサとしてのマイク14および視覚センサとしてのカメラ16が設けられる。マイク14は、ロボットRや人Hの発話による音声を含む環境音を取得するためのもので、必要なら2台以上設置されてもよい。カメラ16は、同じく対話場所12の状況、特に人Hの表情や動作を撮影するカメラであり、動画または静止画を撮影する。カメラ16も必要なら2台以上設置してもよい。   In this embodiment, a microphone 14 as an auditory sensor and a camera 16 as a visual sensor are provided in order to sense the situation of the dialogue place 12 of the robot interaction system 10. The microphones 14 are used to acquire environmental sounds including voices generated by the utterances of the robot R and the person H. If necessary, two or more microphones 14 may be installed. The camera 16 is also a camera that captures the situation of the dialogue place 12, particularly the facial expression and motion of the person H, and captures a moving image or a still image. If necessary, two or more cameras 16 may be installed.

さらに、上述のマイク14やカメラ16の他に、センサとして、図示はしないが、装着型の姿勢センサ、加速度センサ、心拍の状態、呼吸の状態、体動(体の動き)の状態などの生体信号を検知する生体センサ、モーションキャプチャシステムなどを設けてもよい。   Further, in addition to the microphone 14 and the camera 16 described above, although not shown as a sensor, a living body such as a wearable posture sensor, an acceleration sensor, a heartbeat state, a respiratory state, a body motion (body movement) state, etc. A biological sensor that detects a signal, a motion capture system, or the like may be provided.

さらに、この実施例の対話システム10には、人Hの意思の表明のための手段として、意思表示デバイス17を設ける。この意思表示デバイス17は、一例として、肯定(Affirmation)または同意(Agree)を入力するための肯定ボタン17aと、否定(Negation)または不同意(Disagree)を入力するための否定ボタン17nを有する。ただし、肯定ボタン17aおよび否定ボタン17nは、たとえば押しボタンスイッチのようなハードウエアスイッチで構成されてもよいし、あるいはタッチスクリーン上のソフトウエアスイッチ(仮想ボタン)で構成されてもよい。また、肯定ボタン17aおよび否定ボタン17nがそれぞれ個別のスイッチないしボタンとして形成されてもよい。   Furthermore, in the dialogue system 10 of this embodiment, an intention display device 17 is provided as a means for expressing the intention of the person H. For example, the intention display device 17 includes an affirmation button 17a for inputting affirmation (Affirmation) or agreement (Agree) and a denial button 17n for inputting a negation (Negation) or disagreement (Disagree). However, the positive button 17a and the negative button 17n may be configured by hardware switches such as push button switches, or may be configured by software switches (virtual buttons) on the touch screen. The positive button 17a and the negative button 17n may be formed as individual switches or buttons.

マイク14が取得した音声信号、カメラ16が撮影した画像信号および意思表示デバイス17が検出した入力信号(肯定、否定)さらには上述した生体信号を検出する生体センサ、モーションキャプチャシステムによって検知された人の行為や状態変化などのセンサ信号は、センサマネージャ18に入力される。センサマネージャ18は、これらのセンサ信号を取得して、対話場所12の状況を判定して、判定結果をセンシングデータとして、後述のグループマネージャ20および人意思処理モジュール23に出力する。   A voice signal acquired by the microphone 14, an image signal captured by the camera 16, an input signal detected by the intention display device 17 (affirmation, negative), a biological sensor that detects the above-described biological signal, and a person detected by the motion capture system The sensor signal such as the act or state change is input to the sensor manager 18. The sensor manager 18 acquires these sensor signals, determines the status of the dialogue place 12, and outputs the determination result as sensing data to the group manager 20 and the human intention processing module 23 described later.

図2を参照して、センサマネージャ18は、CPU(中央演算処理装置)18aを含み、CPU18aには、内部バス18bを介して通信装置18cが接続される。通信装置18cは、たとえばネットワークインタフェース(NIC)などを含み、CPU18aはこの通信装置18cを介してグループマネージャ20などと通信でき、それらの間でデータの授受を行うことができる。   Referring to FIG. 2, the sensor manager 18 includes a CPU (Central Processing Unit) 18a, and a communication device 18c is connected to the CPU 18a via an internal bus 18b. The communication device 18c includes a network interface (NIC), for example, and the CPU 18a can communicate with the group manager 20 and the like via the communication device 18c, and can exchange data between them.

CPU18aにはさらに、内部バス18bを介して、メモリ18dが接続される。メモリ18dはROMやRAMを含む。たとえばDSP(Digital Signal Processor)で構成されるセンサI/F(インタフェース)18eを通して、マイク14(図1)からの音声信号やカメラ16(図1)からの画像信号を含むセンサ信号が入力される。そして、メモリ18dは、センサ信号を一時的に記憶する。   A memory 18d is further connected to the CPU 18a via an internal bus 18b. The memory 18d includes a ROM and a RAM. For example, a sensor signal including an audio signal from the microphone 14 (FIG. 1) and an image signal from the camera 16 (FIG. 1) is input through a sensor I / F (interface) 18e configured by a DSP (Digital Signal Processor). . The memory 18d temporarily stores the sensor signal.

センサマネージャ18は一種の判定器であり、CPU18aは、メモリ18dに記憶したセンサデータに基づいて、対話場所12の状態や人Hの意思を判定する。たとえば、マイク14が取得した音声信号、カメラ16が撮影した画像信号および意思表示デバイス17が検出した入力信号(肯定、否定)さらには上述した生体信号を検出する生体センサ、モーションキャプチャシステムによって検知された人の行為や状態変化などのセンサ信号を人Hの実際の意思の如何にはよらず、人Hが表明した意思が入力されたものとして認定し、処理してすることができる。そして、センサマネージャ18は、判定した状態を示すデータをグループマネージャ20および人意思処理モジュール23に送る。   The sensor manager 18 is a kind of determination device, and the CPU 18a determines the state of the dialogue place 12 and the intention of the person H based on the sensor data stored in the memory 18d. For example, an audio signal acquired by the microphone 14, an image signal captured by the camera 16, an input signal detected by the intention display device 17 (positive or negative), and a biological sensor or a motion capture system that detects the above-described biological signal are detected. It is possible to recognize and process sensor signals such as a person's actions and state changes as input of the intention expressed by the person H, regardless of the actual intention of the person H. Then, the sensor manager 18 sends data indicating the determined state to the group manager 20 and the human intention processing module 23.

また、センサマネージャ18に必要なプログラム(OSやセンサ信号取得プログラムなど)は、メモリ18dに記憶される。センサマネージャ18はメモリ18dに記憶されたプログラムに従って動作する。   Further, programs (such as OS and sensor signal acquisition program) necessary for the sensor manager 18 are stored in the memory 18d. The sensor manager 18 operates according to a program stored in the memory 18d.

なお、CPU18aにはさらに、(図示せず)キーボードやディスプレイが付属されてもよい。   In addition, a keyboard and a display (not shown) may be attached to the CPU 18a.

図3に示すグループマネージャ20は、たとえば後述の図7のフロー図に従って、2台のロボットRのそれぞれの発話動作(言語動作:Verbal operation)および振舞い(非言語動作:Nonverbal operation)を制御する。   The group manager 20 shown in FIG. 3 controls the speech operation (language operation: verbal operation) and behavior (non-verbal operation: nonverbal operation) of each of the two robots R, for example, according to the flowchart shown in FIG.

グループマネージャ20は、CPU20aを含み、CPU20aには、内部バス20bを介して通信装置20cが接続される。通信装置20cは、たとえばネットワークインタフェース(NIC)などを含み、CPU20aはこの通信装置20cを介してセンサマネージャ18やロボットRなどと通信でき、それらの間でデータの授受を行うことができる。   The group manager 20 includes a CPU 20a, and a communication device 20c is connected to the CPU 20a via an internal bus 20b. The communication device 20c includes, for example, a network interface (NIC), and the CPU 20a can communicate with the sensor manager 18, the robot R, and the like via the communication device 20c, and can exchange data between them.

CPU20aにはさらに、内部バス20bを介して、メモリ20dおよび入力装置20eが接続される。メモリ20dはROMやRAMを含む。メモリI/F20fを通してダイアログデータベース22から、スクリプト(ダイアログ)を読み込み、それをメモリ20dに一時的に記憶する。ただし、「ダイアログ」は、対話中に行うべき発話や非言語動作の指令の系列を意味し、ダイアログデータベース22は、ダイアログの集合(たとえば、バナナの何が好きという対話やロボット介護の何が大切かという対話など、各トピックの対話のための指令の系列が含まれる)である。そして、「スクリプト」は、その指令の系列を表す文字列のことであり、スクリプトデータは、その指令を表す文字列である。したがって、スクリプトデータの系列がスクリプトになる。このようなスクリプトは、グループマネージャ20によって、ダイアログキュー23cからロボットR1およびR2に送信される。ただし、スクリプトデータは、言語データだけでなく、非言語データも含む。言語データは、ロボットR1およびR2の発話を指示するスクリプトデータであり、非言語データは、たとえばロボットR1およびR2の動作、人Hを見る、頷く、首を横に振る、首をかしげるなどの、非言語動作を指示するスクリプトデータである。このようなスクリプトデータには、さらに、人Hの意思(明示的または非明示的)を確認するフェーズ(意思確認フェーズ)であることを示す記述が必要に応じて追加されている。   Further, a memory 20d and an input device 20e are connected to the CPU 20a via an internal bus 20b. The memory 20d includes a ROM and a RAM. A script (dialog) is read from the dialog database 22 through the memory I / F 20f, and is temporarily stored in the memory 20d. However, “dialog” means a sequence of utterances and non-verbal movement commands to be performed during a dialogue, and the dialogue database 22 is a collection of dialogues (for example, what is important about dialogues like robots and robot care. Including a series of commands for dialogue on each topic, such as dialogue. “Script” is a character string representing a series of commands, and script data is a character string representing the commands. Therefore, the script data series is a script. Such a script is transmitted from the dialog queue 23c to the robots R1 and R2 by the group manager 20. However, the script data includes not only language data but also non-language data. The language data is script data for instructing the utterances of the robots R1 and R2, and the non-language data is, for example, the operation of the robots R1 and R2, seeing the person H, whispering, swaying the head, squeezing the neck, Script data for instructing non-language operations. In such script data, a description indicating that it is a phase (intention confirmation phase) for confirming the intention (explicit or implicit) of the person H is further added as necessary.

また、グループマネージャ20に必要なプログラム(OSやセンサ信号取得プログラムなど)は、メモリ20dに記憶される。グループマネージャ20はメモリ20dに記憶されたプログラムに従って動作する。   Further, programs (such as OS and sensor signal acquisition program) necessary for the group manager 20 are stored in the memory 20d. The group manager 20 operates according to a program stored in the memory 20d.

なお、このグループマネージャ20のCPU20aは、上述のように、各ロボットの動作つまり振舞いを制御するが、その振舞いの履歴は、上述のメモリ20dに蓄積され、必要に応じて、センサマネージャ18に提供する。   As described above, the CPU 20a of the group manager 20 controls the operation or behavior of each robot. The history of the behavior is stored in the memory 20d and provided to the sensor manager 18 as necessary. To do.

さらに、図1に示すロボット対話システム10では、人意思処理モジュール23が設けられる。この人意思処理モジュール23は、独立したコンピュータであってもよいが、この実施例では、上述のグループマネージャ20の1つのプログラムとして構成されている。したがって、この人意思処理モジュール23は、CPU20aによって制御される。   Further, in the robot interaction system 10 shown in FIG. 1, a human intention processing module 23 is provided. The human intention processing module 23 may be an independent computer, but is configured as one program of the group manager 20 described above in this embodiment. Therefore, the human intention processing module 23 is controlled by the CPU 20a.

人意思処理モジュール23は、後に図15を参照して詳しく説明するように、センサマネージャ18が、必ずしも人Hの実際の意思の如何にはよらず、認定した人Hの意思、たとえば肯定または否定に応じて、その認定された人Hの意思に対処するためにロボットR1およびR2が発話するためのスクリプトデータ(ダイアログ)をダイアログデータベース22から読み出し、それぞれがメモリ20dの領域であるプール23aに記憶させる(ロードする)。   As will be described in detail later with reference to FIG. 15, the human intention processing module 23 does not necessarily depend on the actual intention of the person H, but the intention of the person H who is recognized by the sensor manager 18, for example, positive or negative. Accordingly, script data (dialog) for the robots R1 and R2 to speak in order to deal with the intention of the authorized person H is read from the dialog database 22 and stored in the pool 23a, which is an area of the memory 20d. Let (load).

文脈外応答ダイアログプール23bは、文脈すなわち次ダイアログ候補プール23aにロードした将来の一群のダイアログやダイアログキュー23cにロードされ、進行中であるダイアログでは予定していなかった例外的な、すなわち文脈外の人Hの意思表示があったときに対処するために発話しまたは非言語動作を実行すべき一群のスクリプトを記憶しておくための記憶領域である。文脈外の意思表示とは、たとえば、前述の意思表示デバイス17の肯定ボタン17aおよび/または否定ボタン17nを連打する、ロボットが人の意思表示を待つ発話をしたにも拘わらず無視していつまでも意思表示をしない、などが考えられる。   The out-of-context response dialog pool 23b is loaded into a future group of dialogs or dialog queues 23c loaded into the context or next dialog candidate pool 23a and is exceptional, ie out-of-context, that was not scheduled for a dialog in progress. This is a storage area for storing a group of scripts that should execute a speech or non-verbal operation in order to cope with the intention of the person H. The intention display outside the context is, for example, the intention button 171a and / or the negative button 17n of the above-mentioned intention display device 17 repeatedly, regardless of the utterance waiting for the person's intention display and ignoring the intention forever. It is conceivable that no display is made.

ダイアログキュー23cもたとえばメモリ20dの中の一領域であるが、このダイアログキュー23cには、次ダイアログ候補プール23aにロードされているスクリプトデータや、文脈外応答ダイアログプール23bにロードされているスクリプトデータを、次にロボットR1および/またはR2が即座に実行できるように,待ち行列の形でロードすることができる。   The dialog queue 23c is also an area in the memory 20d, for example. In this dialog queue 23c, script data loaded in the next dialog candidate pool 23a and script data loaded in the out-of-context response dialog pool 23b. Can then be loaded in a queue so that robots R1 and / or R2 can immediately execute.

スクリプトには、たとえばヘッダとして、それに含まれるスクリプトデータの実行時間(tnext)が書き込まれていて、ダイアログキュー23cでは、その実行時間(tnext)によって常にスクリプトデータがソーティングされ、グループマネージャ20は、実行時間が同じスクリプトデータが同時に実行されるように、各ロボットコントローラ24にスクリプトデータを送る。したがって、たとえば、ロボットR1およびR2が同時に同じ動作、たとえば人Hを見るなどの動作ができるし、同じロボットR1またはR2が、たとえば、発話と同時に他方のロボットまたは人Hを見ることもできる。   In the script, for example, the execution time (tnext) of the script data included therein is written as a header. In the dialog queue 23c, the script data is always sorted according to the execution time (tnext). The script data is sent to each robot controller 24 so that the script data having the same time is simultaneously executed. Therefore, for example, the robots R1 and R2 can simultaneously perform the same operation, for example, seeing the person H, and the same robot R1 or R2 can see the other robot or the person H at the same time as speaking, for example.

図4を参照して、この図4は実施例のロボットRの外観を示し、ロボットRは台30上に、台30に対して、前後左右に回転できるように、設けられる。つまり、胴体32には2自由度が設定されている。   Referring to FIG. 4, FIG. 4 shows the appearance of the robot R according to the embodiment, and the robot R is provided on the table 30 so as to be able to rotate forward, backward, left and right with respect to the table 30. In other words, the body 32 has two degrees of freedom.

胴体32の人の肩に相当する左右位置からは、それぞれに、肩関節(図示せず)によって、右腕34Rおよび左腕34Lが、前後左右に回転可能に設けられる。つまり、右腕34Rおよび左腕34Lには、それぞれ、2自由度が設定されている。   From the left and right positions corresponding to the shoulders of the body 32 of the human body, the right arm 34R and the left arm 34L are provided so as to be rotatable forward and backward and left and right by shoulder joints (not shown). That is, two degrees of freedom are set for each of the right arm 34R and the left arm 34L.

胴体32の上端中央部には首36が設けられ、さらにその上には頭部38が設けられる。首36すなわち頭部38は、胴体32に対して、前後左右に回転できるように、取り付けられている。つまり、首36すなわち頭部38には、ロール角(左右の傾げ)、ピッチ角(前後の傾げ)、ヨー角(左右の回転)の3自由度が設定されている。   A neck 36 is provided at the center of the upper end of the body 32, and a head 38 is provided thereon. The neck 36, that is, the head 38 is attached to the body 32 so as to be able to rotate back and forth and right and left. In other words, the neck 36, that is, the head 38 is set with three degrees of freedom: a roll angle (left-right tilt), a pitch angle (front-back tilt), and a yaw angle (left-right rotation).

頭部38の前面すなわち人間の顔に相当する面には、右目40Rおよび左目40Lが設けられ、右目40Rおよび左目40Lには眼球42Rおよび42Lが設けられる。右目40Rおよび左目40Lは、まぶたを閉じたり開いたりでき、眼球42Rおよび42Lはそれぞれ上下左右に回転可能である。つまり、右目40Rおよび左目40Lすなわちまぶたには1自由度が、眼球42Rおよび42Lには2自由度が設定されている。   A right eye 40R and a left eye 40L are provided on the front surface of the head 38, that is, a surface corresponding to a human face, and eyeballs 42R and 42L are provided on the right eye 40R and the left eye 40L. The right eye 40R and the left eye 40L can close and open the eyelids, and the eyeballs 42R and 42L can rotate up, down, left and right, respectively. That is, one degree of freedom is set for the right eye 40R and the left eye 40L, that is, the eyelid, and two degrees of freedom are set for the eyeballs 42R and 42L.

顔にはさらに、口44が設けられていて、口44は、閉じたり開いたりできる。つまり、口44には1自由度が設定されている。   The face is further provided with a mouth 44, which can be closed or opened. That is, one degree of freedom is set for the mouth 44.

胴体32の、人間の胸の位置には、対話システム10において人Hに聞かせるための発話を行うスピーカ46および環境特に人Hの発話音声を聞き取るマイク48が設けられる。   At the position of the chest of the human body 32, a speaker 46 that makes a speech for the person H to hear in the dialogue system 10 and a microphone 48 that listens to the environment, particularly the voice of the person H, are provided.

なお、頭部38の顔の額に相当する部分には動画または静止画を撮影できるカメラ50が内蔵される。このカメラ50は、対面する人Hを撮影でき、このカメラ50からのカメラ信号(映像信号)は、環境カメラ16(図1)と同様に、センサマネージャ18のセンサI/Fを介してCPU18aに、入力されてもよい。   A camera 50 capable of shooting a moving image or a still image is built in a portion corresponding to the forehead of the head 38. The camera 50 can photograph the person H who is facing, and the camera signal (video signal) from the camera 50 is sent to the CPU 18a via the sensor I / F of the sensor manager 18 in the same manner as the environmental camera 16 (FIG. 1). , May be entered.

図5はロボットRに内蔵されてロボットRの動作(発話やジェスチャなど)を制御するロボットコントローラ24を示すブロック図である。この図5を参照して、ロボットコントローラ24は、CPU24aを含み、CPU24aには、内部バス24bを介して通信装置24cが接続される。通信装置24cは、たとえばネットワークインタフェース(NIC)などを含み、CPU24aはこの通信装置24cを介してセンサマネージャ18、グループマネージャ20、さらには外部のコンピュータや他のロボット(ともに図示せず)などと通信でき、それらの間でデータの授受を行うことができる。   FIG. 5 is a block diagram showing a robot controller 24 which is built in the robot R and controls the operation of the robot R (such as speech and gesture). Referring to FIG. 5, the robot controller 24 includes a CPU 24a, and a communication device 24c is connected to the CPU 24a via an internal bus 24b. The communication device 24c includes, for example, a network interface (NIC), and the CPU 24a communicates with the sensor manager 18, the group manager 20, and an external computer or other robot (both not shown) via the communication device 24c. And data can be exchanged between them.

CPU24aにはさらに、内部バス24bを介して、メモリ24dが接続される。メモリ24dはROMやRAMを含む。グループマネージャ20から送られる制御データやスクリプトデータがメモリ24dに一時的に記憶される。   Further, a memory 24d is connected to the CPU 24a via an internal bus 24b. The memory 24d includes a ROM and a RAM. Control data and script data sent from the group manager 20 are temporarily stored in the memory 24d.

また、ロボット制御に必要なプログラム(OSやセンサ信号取得プログラムなど)は、メモリ24dに記憶される。ロボットコントローラ24はメモリ24dに記憶されたプログラムに従ってロボットRの動作を制御する。   Further, programs (such as OS and sensor signal acquisition program) necessary for robot control are stored in the memory 24d. The robot controller 24 controls the operation of the robot R according to the program stored in the memory 24d.

つまり、ロボットコントローラ24のCPU24aにはさらに、たとえばDSPで構成されたアクチュエータ制御ボード24eが接続され、このアクチュエータ制御ボード24eは、以下に説明するように、ロボットRの上述の各部に設けられたアクチュエータの動作を制御する。   That is, the CPU 24a of the robot controller 24 is further connected to an actuator control board 24e configured by, for example, a DSP. The actuator control board 24e is an actuator provided in each of the above-described parts of the robot R as described below. To control the operation.

胴体32の2自由度の動き、すなわち前後左右の回転は、アクチュエータ制御ボード24eを通してCPU24aが胴体アクチュエータ52を制御するとこによって制御される。   Two-degree-of-freedom movement of the body 32, that is, forward / backward / left / right rotation, is controlled by the CPU 24a controlling the body actuator 52 through the actuator control board 24e.

右腕34Rおよび左腕34Lの2自由度の動き、すなわち前後左右の回転は、アクチュエータ制御ボード24eを通してCPU24aが腕アクチュエータ54を制御することによって制御される。   The two-degree-of-freedom movement of the right arm 34R and the left arm 34L, that is, the front / rear / left / right rotation, is controlled by the CPU 24a controlling the arm actuator 54 through the actuator control board 24e.

首36すなわち頭部38の3自由度の動き、すなわち前後左右の回転は、アクチュエータ制御ボード24eを通してCPU24aが頭部アクチュエータ56によって制御される。   The movement of the neck 36, that is, the head 38, with three degrees of freedom, that is, the rotation in the front, rear, left, and right directions is controlled by the CPU 24a by the head actuator 56 through the actuator control board 24e.

右目40Rおよび左目40Lすなわちまぶたの開閉動作は、アクチュエータ制御ボード24eを通してCPU24aがまぶたアクチュエータ58を制御することによって制御される。眼球42Rおよび眼球42Lの2自由度の動きすなわち前後左右の回転は、アクチュエータ制御ボード24eを通してCPU24aが眼球アクチュエータ60を制御することによって制御される。口44の開閉動作は、アクチュエータ制御ボード24eを通してCPU24aが口アクチュエータ62を制御することによって制御される。   The opening / closing operation of the right eye 40R and the left eye 40L, that is, the eyelid is controlled by the CPU 24a controlling the eyelid actuator 58 through the actuator control board 24e. The two-degree-of-freedom movement of the eyeball 42R and the eyeball 42L, that is, the front / rear / left / right rotation, is controlled by the CPU 24a controlling the eyeball actuator 60 through the actuator control board 24e. The opening / closing operation of the mouth 44 is controlled by the CPU 24a controlling the mouth actuator 62 through the actuator control board 24e.

なお、図4に示すロボットRのスピーカ46がロボットコントローラ24のCPU24aに接続される。CPU24aは、グループマネージャ20から与えられ、必要に応じてメモリ24dに記憶されたスクリプトデータに従って、スピーカ46から発声(発話)させる。   A speaker 46 of the robot R shown in FIG. 4 is connected to the CPU 24a of the robot controller 24. The CPU 24a utters (speaks) from the speaker 46 according to the script data given from the group manager 20 and stored in the memory 24d as necessary.

このようなロボットコントローラ24によって、ロボットRの頭や腕は、対話システム10において必要なとき、たとえばスクリプトで非言語動作が要求されているとき、必要な動きをするが、以下の説明では、各アクチュエータなどの具体的な制御は、上述の説明から容易に推測できるので、必ずしも説明しない。   The robot controller 24 moves the head and arms of the robot R when necessary in the dialogue system 10, for example, when a non-language operation is requested by a script. In the following description, Specific control of the actuator and the like is not necessarily described because it can be easily estimated from the above description.

図1に示すように、それぞれのロボットR1およびR2には、ロボットコントローラ24と同様に内蔵したロボットセンサ26が設けられる。ロボットセンサ26は、ロボットR1およびR2のそれぞれの可動コンポーネントの状態を検知するための姿勢センサや加速度センサなどを含み、それらのセンサからのセンサ信号は、センサマネージャ18に入力される。したがって、センサマネージャ18は、ロボットセンサ26からのセンサ信号に基づいて、ロボットR1およびR2の状態をセンシングすることができる。   As shown in FIG. 1, each robot R <b> 1 and R <b> 2 is provided with a built-in robot sensor 26 similarly to the robot controller 24. The robot sensor 26 includes an attitude sensor, an acceleration sensor, and the like for detecting the states of the movable components of the robots R1 and R2. Sensor signals from these sensors are input to the sensor manager 18. Therefore, the sensor manager 18 can sense the states of the robots R1 and R2 based on the sensor signal from the robot sensor 26.

なお、図4に示すロボットRのマイク48やカメラ50がロボットセンサ26を介してセンサマネージャ18に入力される。センサマネージャ18は、マイク48から取り込んだ音声データをメモリ18d(図2)に記憶し、必要に応じて、音声認識処理を実行する。センサマネージャ18はまた、カメラ50からのカメラ信号を処理して、対話場所12の状況をセンシングする。   Note that the microphone 48 and the camera 50 of the robot R shown in FIG. 4 are input to the sensor manager 18 via the robot sensor 26. The sensor manager 18 stores the voice data captured from the microphone 48 in the memory 18d (FIG. 2), and executes voice recognition processing as necessary. The sensor manager 18 also processes the camera signal from the camera 50 to sense the status of the interaction location 12.

なお、センサマネージャ18は、図1の実施例では1つだけが図示されているが、2つ以上の任意数のセンサマネージャが設けられてもよく、その場合には、各センサマネージャはセンシング項目を分担することができる。   Although only one sensor manager 18 is shown in the embodiment of FIG. 1, two or more arbitrary sensor managers may be provided. In this case, each sensor manager is a sensing item. Can be shared.

同様に、必要なら、2以上のグループマネージャ20を用いるようにしてもよいし、逆にセンサマネージャ18およびグループマネージャ20を1台のコンピュータで実現するようにしてもよい。   Similarly, if necessary, two or more group managers 20 may be used. Conversely, the sensor manager 18 and the group manager 20 may be realized by a single computer.

また、図1実施例の対話システム10に用いられるロボットRは図4を参照して上で説明したロボットに限定されるものではなく、少なくともスクリプトに従って発話できる機能があればよい。   The robot R used in the dialogue system 10 of FIG. 1 embodiment is not limited to the robot described above with reference to FIG. 4 and may have at least a function capable of speaking according to a script.

図6は、ロボットRがそれに従って対話するスクリプトの一例を示す概略図である。このスクリプトでは、まず、ロボットRどうしが対話する部分(時間帯)と、ロボットRが人Hに対して問いかけ(質問や同意の要求)をする部分(時間帯)を明確に区別する。そのためのフラグが、実施例では、「質問フラグFah(FLAG_ASK_HUMAN)」である。   FIG. 6 is a schematic diagram showing an example of a script with which the robot R interacts accordingly. In this script, first, a portion (time zone) where the robots R interact with each other and a portion (time zone) where the robot R asks the person H (question or request for consent) are clearly distinguished. In the embodiment, the flag for that is “question flag Fah (FLAG_ASK_HUMAN)”.

質問フラグFahがリセットされているとき、つまり、「Fah=1」でないときは、ロボットRどうしが、スクリプトデータによって予め決められた発話文をスピーカ46(図4、図5)から出力して、参加者である、人Hにその対話内容を聞かせる。質問フラグFahがセットされているとき、つまり、「Fah=1」のときは、ロボットRが、スクリプトデータによって予め決められた発話文をスピーカ46(図4、図5)から出力して、参加者である、人Hに対して発話する。   When the question flag Fah is reset, that is, when “Fah = 1” is not satisfied, the robots R output utterances predetermined by the script data from the speaker 46 (FIGS. 4 and 5), Tell the participant H, the participant, about the content of the dialogue. When the question flag Fah is set, that is, when “Fah = 1”, the robot R outputs an utterance sentence predetermined by the script data from the speaker 46 (FIGS. 4 and 5) and participates. Speak to person H who is a person.

図6の例では、上段のパート(A) と下段のパート(C) がそのロボットどうしの対話を行うためのスクリプトデータであり、中段のパート(B) がロボットRから人Hに問いかけを行うためのスクリプトデータである。   In the example of FIG. 6, the upper part (A) and the lower part (C) are script data for dialogue between the robots, and the middle part (B) asks the person H from the robot R. Script data for

パート(A)のスクリプトの第1行(a1)、第2行(a2)、第3行(a3)では、「tnext=XX」が定義されていて、ここでは「XX1」、「XX2」、「XX3」は、それぞれのスクリプトデータを実行すべき時間または時刻を規定する。「RR」は、ロボットからロボットへ発話することを記述していて、それに後続する「SPEAKER=R1(R2)」「LISTNERR=R2(R1)」は、そのときの発話者が第1ロボットR1(または第2ロボットR2)であり、聴取者が第2ロボットR2(または第1ロボットR1)であると定義している。   In the first line (a1), second line (a2), and third line (a3) of the script of part (A), “tnext = XX” is defined. Here, “XX1”, “XX2”, “XX3” defines the time or time at which each script data is to be executed. “RR” describes that the robot speaks to the robot, and “SPEAKER = R1 (R2)” and “LISTNERR = R2 (R1)” that follow it indicate that the speaker at that time is the first robot R1 ( Or the second robot R2) and the listener is defined as the second robot R2 (or the first robot R1).

スクリプトデータ中の「TEXT」に後続する記述が、そのときロボットが発話すべき発話文である。そして、「NONVERBAL」に後続する記述は、第1ロボットR1および/または第2ロボットR2が行うべき非言語動作たとえば相手のロボットを見るとか、人Hを見るとかなどを規定する。   The description following “TEXT” in the script data is an utterance sentence that the robot should utter at that time. Then, the description following “NONVERBAL” defines non-linguistic operations to be performed by the first robot R1 and / or the second robot R2, for example, seeing the opponent robot or seeing the person H.

パート(B)では、質問フラグFahがセットされている、つまり、「Fah=1」なので、2台のロボットR1およびR2のいずれか一方、この例では第1ロボットR1から、人Hに対して、問いかけの発話文が出力される。したがって、第1行(b1)では、時間を規定する記述「tnext=XX4」に続いて、第1ロボットR1が人に対して発話することを示す「RH: SPEAKER=R1, LISTNER=H」が記述される。「TEXT」、「NONVERBAL」については上述のとおりである。   In part (B), since the question flag Fah is set, that is, “Fah = 1”, one of the two robots R1 and R2, in this example, from the first robot R1 to the person H , The utterance of the question is output. Therefore, in the first line (b1), “RH: SPEAKER = R1, LISTNER = H” indicating that the first robot R1 speaks to a person follows the description “tnext = XX4” that defines time. Described. “TEXT” and “NONVERBAL” are as described above.

パート(B)の第1行(b1)の下に、条件1、条件2、条件3のスクリプトデータがあるが、これらは、第1行(b1)でしたロボットRからの問いかけに対して人Hが発話したとき、次にロボットが発話する内容(返答)が条件に応じて変化することを規定している。   Below the first line (b1) of part (B), there are script data of condition 1, condition 2, and condition 3, but these are the people who answered the question from robot R in the first line (b1). It is defined that when H speaks, the content (response) that the robot speaks next changes according to the condition.

条件1は、人Hからの発話についてロボットどうしがたとえば「面白いね」などと会話するスクリプトデータであり、そのために、時間を規定する記述「tnext=XX5」に続いて、第2ロボットR2が第1ロボットR1に対して発話することを示す「RR: SPEAKER=R2, LISTNER=R1」が記述される。   The condition 1 is script data in which the robots talk to, for example, “interesting” about the utterance from the person H. Therefore, following the description “tnext = XX5” defining the time, the second robot R2 is the second one. “RR: SPEAKER = R2, LISTNER = R1” indicating that one robot R1 speaks is described.

条件2および条件3は、いずれも、人Hの発話に対してロボットが反応するという設定で、いずれも、時間を規定する記述「T=XX5」に続いて、第2ロボットR2または第1ロボットR1が人に対して発話することを示す「RH: SPEAKER=R2, LISTNER=H」または「RH: SPEAKER=R1, LISTNER=H」が記述されている。   Conditions 2 and 3 are both set so that the robot reacts to the utterance of the person H, and both follow the description “T = XX5” that defines the time, and then the second robot R2 or the first robot. “RH: SPEAKER = R2, LISTNER = H” or “RH: SPEAKER = R1, LISTNER = H” indicating that R1 speaks to a person is described.

これら条件2または条件3の発話文は、センサマネージャ18がマイク14からの音声を音声認識し、その音声認識の結果に応じて、グループマネージャ20によって決められるが、発話文の内容については、スクリプトデータとして予め定義されている。たとえば、第1行(b1)での「あなたは何が好きですか?」というロボットからの問いかけ文に対して、人Hが「僕は○○が好きです。」と発話したとき、ロボットからは「○○はいいですね」とか「僕は○○より△△がすきだよ。」とか返答する。いずれも、人Hの発話に含まれていた「○○」をセンサマネージャ18が認識した結果の発話である。そのため、条件2および条件3のいずれでも、「○○」を除いた発話文を予め規定しておく。   The utterance sentence of the condition 2 or the condition 3 is determined by the group manager 20 according to the result of the voice recognition by the sensor manager 18 recognizing the voice from the microphone 14. It is predefined as data. For example, in response to the question from the robot, “What do you like?” In the first line (b1), when a person H utters “I like XX”, the robot Replied, “I like XX” or “I like △△ more than XX”. Both are utterances as a result of the sensor manager 18 recognizing “OO” included in the utterance of the person H. For this reason, in both the condition 2 and the condition 3, an utterance sentence excluding “OO” is defined in advance.

パート(C)は、パート(A)と同様に、質問フラグFahがリセットされている、つまり、「Fah=1」ではないので、ロボットどうしが会話するパートであるが、基本的にパート(B)での人Hからの発話とは無関係に進行する。スクリプトデータの内容は、パート(A)において説明した通りであるので、ここでは重複する説明はしない。   Part (C) is similar to Part (A), because the question flag Fah is reset, that is, it is not `` Fah = 1 ''. ) Progresses regardless of the utterance from person H. Since the contents of the script data are as described in Part (A), redundant description will not be given here.

なお、図6の実施例における発話タイミングを決める時間ないし時刻tnextは、たとえば人Hからの発話割り込み(インタラプト)があった場合など、センサマネージャ18の指示に基づいてグループマネージャ20が更新する(ずらす)必要があるかもしれない。たとえば、センサマネージャ18が発話タイミングの更新の要否を示すフラグ(図示せず)を管理していて、グループマネージャ20はそのフラグがセットされたとき(「1」のとき)、Tを書き換えるようにすればよい。   The time or time tnext for determining the utterance timing in the embodiment of FIG. 6 is updated (shifted) by the group manager 20 based on an instruction from the sensor manager 18, for example, when there is an utterance interruption (interrupt) from the person H. ) May be necessary. For example, when the sensor manager 18 manages a flag (not shown) indicating whether or not the speech timing needs to be updated, and the group manager 20 is set (when “1”), T is rewritten. You can do it.

図1のロボット対話システム10では、対話場所12の2台のロボットR1およびR2は、図6において例示したようなスクリプトに従って対話を進行するが、これらのロボットR1およびR2の発話を統括的に制御するのが、グループマネージャ20である。   In the robot dialogue system 10 of FIG. 1, the two robots R1 and R2 at the dialogue place 12 proceed with the dialogue according to the script illustrated in FIG. 6, but comprehensively control the utterances of these robots R1 and R2. It is the group manager 20 that does this.

図7に示すフロー図は、そのグループマネージャ20のCPU20a(図3)の動作を示す。この図7の動作は、たとえばフレームレート程度の速度で繰り返し実行される。   The flowchart shown in FIG. 7 shows the operation of the CPU 20a (FIG. 3) of the group manager 20. The operation of FIG. 7 is repeatedly executed at a speed of about the frame rate, for example.

最初のステップS1でCPU20aは、ダイアログデータベース22(図1)からたとえば図6に例示したようなスクリプトデータを読み込むなど、初期化を実行する。   In the first step S1, the CPU 20a executes initialization such as reading script data as exemplified in FIG. 6 from the dialog database 22 (FIG. 1).

続くステップS2においてCPU20aは、センサマネージャ18(図1、図3)から送られるセンサデータを更新する。   In subsequent step S2, the CPU 20a updates the sensor data sent from the sensor manager 18 (FIGS. 1 and 3).

センサマネージャ18では、図1に示すマイク14やカメラ16などのセンサからのセンサ信号に基づいて、非言語パラメータ「NONVERBAL_PARAMETERS」、たとえば人の「目が落ち着かない」、「あくびをした」などの状態を、センシングする。さらに、前述のように、センサマネージャ18は、人の意思を示す信号も意思表示デバイス17から受け取って、人がそのどのような意思を表明したか認定できる。   In the sensor manager 18, based on the sensor signal from the sensor such as the microphone 14 or the camera 16 shown in FIG. 1, the non-linguistic parameter “NONVERBAL_PARAMETERS”, for example, “the eye does not calm down”, “yawned”, etc. Sensing. Further, as described above, the sensor manager 18 can also receive a signal indicating the intention of the person from the intention display device 17 and determine what kind of intention the person has expressed.

さらに、センサマネージャ18では、同じくセンサ信号に基づいて、「人の声があるか」、「(誰かが)話し中か」、「言語によってインタラプトされているか」あるいは「ロボットが非言語的に応答すべき振舞を人が生成しているか」などをセンシングする。   Further, the sensor manager 18 is also based on the sensor signal, “whether there is a human voice”, “whether someone is speaking”, “interrupted by language” or “the robot responds non-verbally” Sensing whether or not a person is generating a behavior to be performed.

また、ロボットの振舞い、の、詳細なパラメータを決定するために必要な情報(たとえば、人Hを見る場合だと、人の位置、人に対して頷く場合だと人の発話の抑揚や終了点)をセンシングする必要がある。   In addition, information necessary to determine detailed parameters of robot behavior (for example, when looking at person H, the position of the person, when talking to the person, the inflection or end point of the person's utterance) ) Must be sensed.

さらに、個々のロボットがどのように振舞ったか、たとえば「話す、「待つ」、「聞く」、「陪席する」などのいずれを実行したかをセンシングする必要があるが、これらのロボットの振舞いは、ロボットの振舞いの履歴を管理するソフトウェアからの入力(たとえば、グループマネージャ20から)によってセンシングすることができる。   In addition, it is necessary to sense how individual robots behaved, such as “speaking,” “waiting,” “listening,” “sitting,” and so on. Sensing can be performed by input (for example, from the group manager 20) from software that manages the history of robot behavior.

ステップS2ではこのようなセンサマネージャ18からのセンシングの結果データ(センシングデータ)を更新する。   In step S2, sensing result data (sensing data) from the sensor manager 18 is updated.

次のステップS3で、CPU20aは、ダイアログキュー23cが更新されたかどうか判断する。ステップS3で“NO”の場合、ステップS5に進む。“YES”の場合、ステップS4で現在時間(t)を「0」にセットするとともに、実行時間(tnext)を「−1」にセットする。   In the next step S3, the CPU 20a determines whether or not the dialog queue 23c has been updated. If “NO” in the step S3, the process proceeds to a step S5. If “YES”, the current time (t) is set to “0” and the execution time (tnext) is set to “−1” in step S4.

ステップS3で“NO”を判断したとき、次のステップS5では、ステップS2で更新したセンシングデータに基づいて、グループマネージャ20のCPU20aは、人Hの発話による割り込みがあったかどうか、判断する。   When “NO” is determined in step S3, in the next step S5, based on the sensing data updated in step S2, the CPU 20a of the group manager 20 determines whether or not there is an interruption due to the utterance of the person H.

このステップS5で“YES”を判断したとき、CPU20aは、次のステップS7において、発話回復フラグIS_RECOVER= Frcがセットされているかどうか、つまりFrc=1かどうか判断する。ここで“YES”ということは、ステップS5で検出した人の発話による発話衝突から復帰したことを意味し、ロボットRが何か発話を挿入する必要があるということである。したがって、ステップS9において、ステップS1で読み出した人Hの発話による割り込みによるダイアログ中断状態から復帰するための復帰フェーズ用のスクリプトデータをロードし、ステップS11で、ロボットRすなわちロボットコントローラ24にブロードキャストする。したがって、その後ロボットRがその復帰フェーズ用のスクリプトデータに従って発話することになる。   When “YES” is determined in the step S5, the CPU 20a determines whether or not the speech recovery flag IS_RECOVER = Frc is set in the next step S7, that is, whether Frc = 1. Here, “YES” means that the robot R has returned from the utterance collision caused by the utterance of the person detected in step S5, and the robot R needs to insert some utterance. Therefore, in step S9, the script data for the return phase for returning from the dialog interruption state due to the interruption due to the utterance of the person H read in step S1 is loaded, and broadcast to the robot R, that is, the robot controller 24 in step S11. Therefore, after that, the robot R speaks according to the script data for the return phase.

ただし、このステップS9(後述のステップS17およびS19でも同様)でロードするスクリプトデータは、図6で説明したように、発話者はだれか「ID_SPEAKER」、聴取者はだれか「ID_LISTNER」、陪席者(参加者)はだれか「ID_BYSTANDER」、発話時間「ONSET_TIME_SPEECH」、非言語動作「NONVERBAL_PARAMETERS」などの情報を含む。   However, the script data to be loaded in step S9 (the same applies to steps S17 and S19 described later), as described in FIG. 6, is “ID_SPEAKER” who is the speaker, “ID_LISTNER” who is the listener, ) Includes information such as “ID_BYSTANDER”, utterance time “ONSET_TIME_SPEECH”, and non-language action “NONVERBAL_PARAMETERS”.

たとえば、人の発話割り込みに対して、第1ロボットR1から人に対して「そっか」を発話したり、第2ロボットR2から第1のロボットに「それで?」と発話したり、第1ロボットR1から第2ロボットR2に「そうそう、(スクリプトで決まっている次の発話)」と発話したりする。つまり、人の発話割り込みに対して、軽く返事をする程度の発話を挿入する。人の発話は無視されているわけではないが、その発話に対してロボットはその発話内容に対して正確に応答する返事をするのではなく、スクリプトで決められた返事を返すだけである。   For example, in response to a human speech interrupt, the first robot R1 utters “soka” to the person, the second robot R2 utters “first?” To the first robot, the first robot R1 speaks to the second robot R2 “Yes, (next utterance determined by script)”. In other words, an utterance that is light enough to respond to a human utterance interruption is inserted. Human utterances are not ignored, but the robot does not respond accurately to the utterances, but only returns the responses determined by the script.

そして、ステップS11の後、ステップS2に戻る。   Then, after step S11, the process returns to step S2.

ステップS13で“YES”なら、つまり、スクリプトで予め決めた次の発話時間になったと判断したとき、CPU20aは、ステップS15で、前述の質問フラグFahがセットされているかどうか、つまり、人Hに対して問いかけ文を発話するかどうか判断する。   If “YES” in the step S13, that is, if it is determined that the next utterance time predetermined by the script has been reached, the CPU 20a determines whether or not the above-described question flag Fah is set in a step S15, that is, to the person H. It is judged whether or not the question sentence is uttered.

ステップS15で“YES”なら、ステップS17において、ダイアログキュー23cにストアされている、問いかけフェーズ用スクリプトデータを先頭からロードし、ステップS11でそれをブロードキャストする。
つまり、人の返答は無視されているわけではない。
If “YES” in the step S15, the script data for the inquiry phase stored in the dialog queue 23c is loaded from the head in the step S17, and is broadcast in the step S11.
In other words, human responses are not ignored.

そして、ステップS15において“NO”が判断されると、つまり、人に対する問いかけを発話するときではないと判断したとき、CPU20aは、次のステップS19で問いかけ用ではないスクリプトデータ(非問いかけ用スクリプトデータ)をロードする。   If “NO” is determined in step S15, that is, if it is determined not to speak a question to a person, the CPU 20a determines script data that is not for questioning (non-questioning script data in the next step S19). ).

ステップS21で、CPU20aは、スクリプトがまだ残っているかどうか判断する。つまり、対話フラグIS_CONVERSATIONがリセットされているかどうか判断する。“YES”のときは、ステップS11に進むが、“NO”の場合には、ステップS23でその旨ブロードキャストし、ステップS25で終了処理をして、このルーチンが終わる。   In step S21, the CPU 20a determines whether a script still remains. That is, it is determined whether the dialogue flag IS_CONVERSATION is reset. If "YES", the process proceeds to step S11. If "NO", the fact is broadcast in step S23, and the end process is performed in step S25, and this routine ends.

ロボットR1およびR2は、いずれも、図8のフロー図に従って、ロボットコントローラ24によって制御される。この図8のルーチンも、図7のルーチンと同様に、たとえばフレームレートで繰り返し実行される。   Both the robots R1 and R2 are controlled by the robot controller 24 in accordance with the flowchart of FIG. The routine of FIG. 8 is also repeatedly executed at the frame rate, for example, similarly to the routine of FIG.

ステップS31では、ロボットコントローラ24のCPU24aは、初期化を実行し、次のステップS33において、センサマネージャ18から受け取ってグループマネージャ20から図7に示すようにブロードキャストされたフラグまたはデータ「IS_CONVERSATION(まだ対話する)」、「IS_ONSPEECH(誰が発話している)」、「CAN_BE_RECOVERED(発話衝突から回したか)」、「IS_INTERRUPTED_VERBAL(言語によるインタラプトがあるか)」、「IS_INTERRUPTED_NONVERBAL(非言語によるインタラプトがあるか)」、「ID_SPEAKER(誰が発話する)」、「ID_LISTNER(誰が聞く)」、「ID_BYSTANDER(誰が陪席者か)」、「SPEECH_TEXT(発話文)」、「ONSET_TIME_SPEECH(発話時間)」、「NONVERBAL_PARAMETERS(非言語パラメータ:いつ誰に視線を向けるか、頷くか、などの非言語動作を規定するパラメータ)」を受ける。   In step S31, the CPU 24a of the robot controller 24 executes initialization. In the next step S33, the flag or data “IS_CONVERSATION (not yet interactive) received from the sensor manager 18 and broadcast from the group manager 20 as shown in FIG. ”,“ IS_ONSPEECH (who speaks) ”,“ CAN_BE_RECOVERED ” ”,“ ID_SPEAKER (who speaks) ”,“ ID_LISTNER (who listens) ”,“ ID_BYSTANDER (who is seated) ”,“ SPEECH_TEXT ”,“ ONSET_TIME_SPEECH ”,“ NONVERBAL_PARAMETERS ” Parameters: Specify non-verbal actions such as when to look at or whisper. That parameter) "the subject.

そして、ステップS34において、CPU24aは、データ「IS_CONVERSATION」を参照して、対話がまだ継続するのかどうか判断する。“YES”なら、次のステップS35において、ロボットコントローラ24のCPU24aは、ステップS33で受信したグループマネージャ20からブロードキャストされたデータに非言語動作のスクリプトデータがあるかどうか判断する。そして、ステップS35で“YES”と判断したら、CPU24aは、次のステップS36において、その非言語動作の指令を実行するように、該当のロボットR1および/またはR2のアクチュエータ制御ボード24eに動作命令を与える。したがって、ロボットR1および/またはR2がブロードキャストされた非言語動作を実行する。   In step S <b> 34, the CPU 24 a refers to the data “IS_CONVERSATION” and determines whether the dialogue still continues. If “YES”, in the next step S35, the CPU 24a of the robot controller 24 determines whether or not the data broadcast from the group manager 20 received in step S33 includes non-language operation script data. If “YES” is determined in the step S35, the CPU 24a issues an operation command to the actuator control board 24e of the corresponding robot R1 and / or R2 so as to execute the non-language operation command in the next step S36. give. Therefore, the robot R1 and / or R2 performs the broadcasted non-language operation.

そして、先のステップS35で“NO”なら、次のステップS37で、データ「IS_ONSPEECH」を参照して、誰かが発話しているかどうか判断する。“YES”なら、ステップS39で、そのときの話し手は、自分(が制御するロボット)かどうか判断する。つまり、データ「ID_SPEAKER」を参照して、自分が発話中かどうか判断する。   If “NO” in the previous step S35, it is determined in a next step S37 whether or not someone is speaking by referring to the data “IS_ONSPEECH”. If “YES”, it is determined in step S39 whether or not the speaker at that time is himself (the robot to be controlled). That is, it is determined whether or not the user is speaking by referring to the data “ID_SPEAKER”.

自分(が制御するロボット)が発話中であれば、ステップS39で“YES”となり、ステップS41に進む。ステップS41では、CPU24aは、言語によるインタラプト(発話遮断)があるかどうか、データ「IS_INTERRUPTED_VERBAL」を参照して判断する。ステップS41で“YES”なら、言語によるインタラプトがあるということなので、次のステップS43で、CPU24aは、データ「CAN_BE_RECOVERED」を参照して、発話を再開してもよいかどうか判断する。   If the user (the robot controlled by) is speaking, “YES” is determined in the step S39, and the process proceeds to the step S41. In step S41, the CPU 24a refers to the data “IS_INTERRUPTED_VERBAL” to determine whether or not there is a language interrupt (utterance blocking). If “YES” in the step S41, it means that there is an interrupt in a language. In the next step S43, the CPU 24a refers to the data “CAN_BE_RECOVERED” and determines whether or not the speech can be resumed.

ステップS43で“YES”なら、ステップS46でロボットに発話を再開させるが、“NO”なら、ステップS46で、ロボットに発話させないで、待たせる。   If “YES” in the step S43, the robot resumes the utterance in a step S46, but if “NO”, the robot is made to wait without causing the robot to speak in a step S46.

ステップS41で“NO”が判断されると、すなわち、言語によるインタラプトがないとき、CPU24aは、ステップS47において、非言語動作でインタラプトされたかどうか判断する。たとえば、人が不規則な非言語動作、たとえば人Hが大きく動いたりしていないかどうか判断する。   If “NO” is determined in the step S41, that is, if there is no language-based interrupt, the CPU 24a determines whether or not the non-language operation is interrupted in a step S47. For example, it is determined whether or not the person has irregular non-language behavior, for example, the person H is moving greatly.

「人Hが不規則な非言語動作をしている、あるいはロボットの話に対して頷きなどの傾聴動作を示しているなど、ロボットが非言語的応答を生成しながら発話すべきと判断したときは、ステップS47で“YES”となるので、続くステップS48で、CPU24aは、それが制御しているロボットR1またはR2に対して、データ「NONVERBAL_PARAMETERS」に基づく非言語動作によって応答させる。ステップS47で“NO”のとき、CPU24aによる処理は、ステップS33に戻る。   “When the robot determines that the robot should speak while generating a non-verbal response, such as when the person H is performing irregular non-verbal movements or is listening to the robot's talk Is “YES” in step S47, and in step S48, the CPU 24a causes the robot R1 or R2 controlled by the CPU 24a to respond by a non-language operation based on the data “NONVERBAL_PARAMETERS”. If “NO” in the step S47, the process by the CPU 24a returns to the step S33.

ステップS39で“NO”のとき、つまり、自分(が制御するロボット)が発話指示されていないときには、データ「ID_LISTNER」を参照して、自分が聞き手として指定されているかどうか判断する。   If “NO” in the step S39, that is, if the user (the robot controlled by) is not instructed to speak, the data “ID_LISTNER” is referred to and it is determined whether or not he is designated as a listener.

ステップS49で“YES”なら、ステップS51で、CPU24aは、それが制御しているロボットRが聞き手になるように制御する。   If “YES” in the step S49, the CPU 24a controls the robot R controlled by the CPU 24a to be a listener in a step S51.

ステップS49で“NO”なら、データ「ID_BYSTANDER」がロボットR1またはR2が陪席者となることを指示しているので、ロボットコントローラ24すなわちCPU24aは、ロボットR1またはR2に対して、陪席者としての動作を行わせる。   If “NO” in the step S49, the data “ID_BYSTANDER” indicates that the robot R1 or R2 is a seated person, so that the robot controller 24, that is, the CPU 24a operates as a seated person on the robot R1 or R2. To do.

ステップS37で“NO”を判断したとき、つまり、誰も発話中ではないとき、ステップS55で、CPU24aは、データ「ID_SPEAKER」を参照して自分が話し手か判断する。“YES”なら、自分が制御しているロボットR1またはR2が、ステップS57において、発話文TEXTの内容に従って発話するように、制御する。   When “NO” is determined in step S37, that is, when no one is speaking, in step S55, the CPU 24a refers to the data “ID_SPEAKER” and determines whether or not he is a speaker. If “YES”, control is performed so that the robot R1 or R2 controlled by the robot speaks in accordance with the content of the utterance sentence TEXT in step S57.

ステップS55で“NO”なら、当該ロボットは発話者でもなく、聴取者でもないのであるから、CPU24aは、自分のロボットがステップS59で陪席者として動作するように、制御する。   If “NO” in the step S55, since the robot is neither a speaker nor a listener, the CPU 24a controls the robot to operate as a seated person in a step S59.

ステップS34で“NO”なら、ステップS61で終了処理を実行した後このルーチンを終了する。   If “NO” in the step S34, an end process is executed in a step S61, and then this routine is ended.

このように、ロボットRはいずれも、グループマネージャ18からブロードキャストされたスクリプトにおいて決められているタイミングで、スクリプトにおいて決められた内容を発話するだけで、自発的な発話はしない。   As described above, the robot R only utters the content determined in the script at the timing determined in the script broadcast from the group manager 18 and does not utter spontaneously.

他方、人Hからの発話をロボットRは解釈しない。人Hから発話があっても、ロボットRは相槌を打つだけで、その人からの発話には応答しない。その相槌も、スクリプトに決めた通りに発話する。   On the other hand, the robot R does not interpret the speech from the person H. Even if an utterance comes from a person H, the robot R only hits the hand and does not respond to the utterance from that person. The talk also speaks as decided in the script.

このような、ロボットコントローラ24によるスクリプト通りのロボットR1およびR2の対話システムを用いれば、図9に示すように対話シーケンスが成立する。   If such a dialogue system of the robots R1 and R2 as scripted by the robot controller 24 is used, a dialogue sequence is established as shown in FIG.

たとえば、ロボットが人に向かって話していることとロボットがロボットに向かって話していることがはっきりと区別でき、また同時に、対話の中で陪席者となる人間やロボットを無視してしまっているように見えないように、対話の履歴と参加者の意図推定に基づき、ロボットどうしの対話と人に対する問いかけのための、発話と視線配布や相槌などのしぐさを生成する。つまり、ロボットRは人Hの発話を聞き流すことができるので、人Hに対して質問して人Hに発話させることができる。これにより、人がロボットどうしの対話に、自分も参加しているような感覚を覚えさせることができる。また結果として、ロボットどうしの対話に含まれる内容を人に対して印象付けることができる。   For example, you can clearly distinguish between a robot talking to a person and a robot talking to a robot, and at the same time neglecting humans and robots who are occupants in the conversation Based on the history of conversation and the intention estimation of the participants, gestures such as utterances, gaze distribution, and interaction are generated for dialogue between robots and inquiries to people. That is, since the robot R can hear the utterance of the person H, it can ask the person H to ask the person H to speak. This makes it possible to make people feel like they are also participating in dialogues between robots. As a result, the contents included in the dialogue between the robots can be impressed on the person.

具体的には、図10‐図14で示す場面をスクリプトによって意図的に出現させることができる。ただし、図10‐図14の具体例は、人Hの意思表示とは直接には関係しない。   Specifically, the scenes shown in FIGS. 10 to 14 can be intentionally made to appear by a script. However, the specific examples of FIGS. 10 to 14 are not directly related to the intention display of the person H.

図10の例では、第1ロボットR1および第2ロボットR2が、発話を繰り返しながら、話題(トピック(Topic)またはテーマ)Aについて、対話を進行しているとき、話題Aから話題Bに切り換えるとき、スクリプト上で、ロボットR1および/またはR2が人Hに対して質問するように制御する。このときの質問の内容は、たとえば、既に終わった話題Aに関するものでもよく、これから始まる話題Bに関するものでもよい。その両方に関するものでもよい。そして、人Hから回答があると、ロボットR1および/またはR2がスクリプトに従ってたとえば「そっか」というような相槌を発話する。   In the example of FIG. 10, when the first robot R1 and the second robot R2 are talking about the topic (Topic or theme) A while repeating the utterance, when switching from the topic A to the topic B. The robot R1 and / or R2 controls the person H to ask a question on the script. The content of the question at this time may be, for example, related to the topic A that has already ended, or may be related to the topic B that starts from now. It may be about both. Then, when there is an answer from the person H, the robot R1 and / or R2 utters a conflict such as “Sod” according to the script.

つまり、ロボットどうしの対話中には人Hに対して問いかけはせず、話題切り換えのタイミングで人Hに向けてロボットが発話する。そうすると、人Hは、ロボットどうしの対話に参加しているような意識を持って、その状態を持続することができる。   That is, the robot does not ask the person H during the dialogue between the robots, and the robot speaks to the person H at the timing of topic switching. If it does so, the person H can maintain the state with the consciousness which is participating in the dialogue between robots.

ただし、人Hからの回答に対して、ロボットが割り込みするようにしてもよい。たとえば、ロボットR2「○○は××だから、△△です。」、ロボットR1「え、でも○○って□□じゃないですか?」、ロボットR2「そっか、でも(話題Bに入る)」のような割り込みも可能である。   However, the robot may interrupt the response from the person H. For example, robot R2 “XX is XX, so it is △△”, robot R1 “Yes, but XX is □□?”, Robot R2 “So, but (But into topic B) Can also be interrupted.

図11の例では、ロボットR1およびR2が質問や回答を繰り返しながら何らかの話題について対話を進行しているとき、ロボットがロボットにしたのと同じ質問を人Hに対して発話する。たとえば、ロボットR1および/またはR2によって、人Hに「あなたはどう(おもいますか)?」のような質問をさせる。そうすると、人Hから回答がある。ロボットR1およびR2は、それに対して、図10の場合と同様の相槌を発話する。   In the example of FIG. 11, when the robots R1 and R2 are engaged in a conversation on a certain topic while repeating questions and answers, the robot asks the person H the same question that the robot has made. For example, the robot R1 and / or R2 causes the person H to ask a question such as "How are you?" Then, there is an answer from person H. In response to this, the robots R1 and R2 speak the same conflict as in FIG.

図12の例では、図11の場合と逆に、ロボットどうしの対話をしているときに、ロボットR1またはR2が人Hにしたと同じ質問を他方のロボットR2またはR1にする。この場合には、人Hはロボットどうしの対話の中に自分に対する質問と同じ質問が含まれることで、「対話感」を持つことができるであろう。   In the example of FIG. 12, contrary to the case of FIG. 11, the same question that the robot R1 or R2 has made the person H is the other robot R2 or R1 when the robots are interacting with each other. In this case, the person H can have a “dialogue feeling” by including the same question as the question to himself / herself in the dialogue between the robots.

図13の例では、ロボットR1およびR2が質問や回答を繰り返しながら何らかの話題について対話を進行しているとき、たとえば第2ロボットR2が第1ロボットR1に何かについて説明し、第1ロボットR1から感想を述べる発話を行う。その感想に対して人Hが同意するように、ロボットR1またはR2から人Hに対して、たとえば「ね」と、同意を求める。この場合も、ある程度納得できる話であれば、同意の発話をしたり、心の中での同意を促したりすることができるので、人Hにはロボットどうしの対話に参加しているという意識を持続することができる。   In the example of FIG. 13, when the robots R1 and R2 are engaged in a conversation on a certain topic while repeating questions and answers, for example, the second robot R2 explains something to the first robot R1, and from the first robot R1 Make an utterance that describes your thoughts. The robot R1 or R2 asks the person H for an agreement, for example, “Ne” so that the person H agrees to the impression. In this case as well, if it is a story that can be convinced to some extent, it is possible to utter consent or encourage consent in the mind, so that person H is aware that he is participating in a dialogue between robots. Can last.

図14の例は、たとえば第2ロボットR2から第1ロボットR1
にたいして質問または説明し、それに対して第1ロボットR1がわざと間違った、勘違いした返答、あるいは理解していないことを尋ねる質問をして、人に「そうじゃなくてこうだよ」などと、人から訂正や補足の発話を行なうように、促す。ただし、人からの発話がなければ、第2ロボットR2が、代わりに訂正や補足をして、はじめのロボットの発話を流す。人は、積極的に自分も対話に参加する形になるので、対話感がより高まる。
In the example of FIG. 14, for example, the second robot R2 to the first robot R1
The person asked, “I ’m not right” or “I ’m not right” by asking a question or explanation for the first robot R1. Encourage them to make corrections and supplementary utterances. However, if there is no utterance from a person, the second robot R2 corrects or supplements the utterance of the first robot instead. Since people actively participate in the dialogue, the feeling of dialogue is further enhanced.

なお、意思表示デバイス17で検出した、陪席者である人Hによる意思表示があったときには、人意思処理モジュール23が図15に示すフロー図に従って、ダイアログデータベース22から次ダイアログ候補プール23aまたは文脈外応答にダイアログ(スクリプトデータ)をロードし、さらには次ダイアログ候補プール23aからダイアログキュー23cにダイアログ(スクリプトデータ)をロードする。   When the intention display by the person H who is a seated person detected by the intention display device 17 is performed, the human intention processing module 23 follows the flowchart shown in FIG. 15 from the dialog database 22 to the next dialog candidate pool 23a or out of context. A dialog (script data) is loaded as a response, and further a dialog (script data) is loaded from the next dialog candidate pool 23a into the dialog queue 23c.

具体的に、図15の最初のステップS71では、人意思処理モジュール23を制御するCPU20aは、初期化を実行するとともに、ダイアログデータベース22から、ダイアログ(スクリプトデータ)を次ダイアログ候補プール23aに読み込む。つまり、どのトピックないしテーマのダイアログを読み出すかを決めて、そのトピックないしテーマの一群のダイアログを次ダイアログ候補プール23aに読み込む。このとき、ダイアログの依存関係、たとえばどのダイアログの前にこのダイアログを実行してはならないとか、このダイアログは特定のダイアログと同時に実行されるべきである、などの拘束条件を併せて読み込む。それとともに、ステップS71では、次ダイアログ候補プール23aから、必要なダイアログをダイアログキュー23cにロードする。   Specifically, in the first step S71 in FIG. 15, the CPU 20a that controls the human intention processing module 23 executes initialization and reads a dialog (script data) from the dialog database 22 into the next dialog candidate pool 23a. That is, a topic or theme dialog to be read is determined, and a group of dialogs of the topic or theme is read into the next dialog candidate pool 23a. At this time, it also loads constraints such as dialog dependencies, for example, which dialog should not be executed before, or that this dialog should be executed at the same time as a specific dialog. At the same time, in step S71, necessary dialogs are loaded from the next dialog candidate pool 23a into the dialog queue 23c.

このときのダイアログは、たとえば、一方のロボットR1をトピックに対して一貫して賛成の立場で発話または動作させ、他方のロボットR2を一貫して反対の立場で発話または動作させるように、設定されていて、各ロボットは終始その立場を変えないものとする。   The dialog at this time is set so that, for example, one robot R1 is uttered or operated consistently in favor of the topic, and the other robot R2 is uttered or operated consistently in the opposite position. Each robot will not change its position from beginning to end.

次のステップS73では、CPU20aは、センサマネージャ18からのセンサデータを更新する。   In the next step S73, the CPU 20a updates the sensor data from the sensor manager 18.

そして、次のステップS75で、CPU20aは、更新したセンサデータに、承認すべき人の意思が検出されているかどうか判断する。   In the next step S75, the CPU 20a determines whether or not the intention of the person to be approved is detected in the updated sensor data.

ステップS75で“YES”を判断したとき、つまり、ロボットR1および/またはR2が承認しなければならない人の意思があったとき、ステップS77では、CPU20aは、人の意思表明に対する承認ダイアログ(主として非言語動作)をダイアログキュー23cへロードする。   When “YES” is determined in step S75, that is, when there is a person's intention that the robot R1 and / or R2 must approve, in step S77, the CPU 20a displays an approval dialog (mainly non-display) for the person's intention expression. Language action) is loaded into the dialog queue 23c.

ただし、承認ダイアログが各ロボットの予定されているダイアログ(非言語動作を含む)と干渉するものであるとき、その承認ダイアログはロードしない。たとえば、いずれかのロボットに次に人Hを見ることが予定されているとき、承認ダイアログが「当該ロボットが人Hを見る」であるとすれば、その承認ダイアログはダイアログキュー23cへは入れない。さらに、いずれかのロボットに他のロボットを見るというダイアログが予定されているとき、承認ダイアログが「当該ロボットが人Hを見る」であるとすれば、ロボットが他のロボットを見てすぐに人Hを見なければならず、ロボットが不自然な動作(干渉)をしてしまう。したがって、このときもその承認ダイアログはダイアログキュー23aへはロードしない。   However, if the approval dialog interferes with each robot's scheduled dialog (including non-verbal actions), the approval dialog is not loaded. For example, if it is scheduled to see the person H next to any robot, if the approval dialog is “the robot sees the person H”, the approval dialog is not placed in the dialog queue 23c. . Further, when a dialog for viewing another robot is scheduled for one of the robots, if the approval dialog is “the robot sees the person H”, the robot immediately sees the other robot and the person immediately The robot must see H, and the robot performs an unnatural operation (interference). Accordingly, at this time, the approval dialog is not loaded into the dialog queue 23a.

つまり、ステップS77では、他のダイアログと干渉しないダイアログだけが、人の意思を承認する承認ダイアログとしてダイアログキュー23cにロードされる。したがって、このダイアログキュー23cにロートされた承認ダイアログに従って、たとえば「ロボットR1およびR2がともに人Hを見る」というような非言語動作によって、ステップS75で検出した人Hの意思を承認する。   That is, in step S77, only dialogs that do not interfere with other dialogs are loaded into the dialog queue 23c as approval dialogs that approve human intentions. Therefore, according to the approval dialog loaded in the dialog queue 23c, the intention of the person H detected in step S75 is approved by, for example, a non-language operation such as “the robots R1 and R2 both see the person H”.

なお、ステップS75で“NO”を判断したとき、すなわち、ロボットが承認すべき人の意思表示が検出されていないときには、そのままステップS79へ進む。   If “NO” is determined in step S75, that is, if the intention of the person to be approved by the robot is not detected, the process proceeds to step S79 as it is.

ステップS79では、人の意思を確認するフェーズかどうか判断する。たとえば、先の発話が人Hに対する質問文あるいは否定文の形式である場合、その質問文あるいは否定文のスクリプトに人の意思を確認すべきことと、確認すべきタイミングを設定しておき(たとえば図6の質問フラグFah)、ステップS79では、そのタイミングかどうか判断する。   In step S79, it is determined whether it is a phase for confirming a person's intention. For example, if the previous utterance is in the form of a question sentence or a negative sentence for the person H, the intention of the person should be confirmed in the question sentence or the negative sentence script, and the timing to be confirmed is set (for example, In step S79, the question flag Fah in FIG. 6 is checked.

そして、ステップS81では、人Hの意思を認定できたかどうか判断する。たとえば、人Hが意思表示デバイス17の肯定ボタン19aまたは否定ボタン19nを操作して意思を入力したことが明白であれば、CPU20aは、人の意思を認定することができる。これに対して、人Hが意思表示デバイス17を操作せず、質問文を無視した場合、CPU20aは、人の意思を確定的に認定できない。   In step S81, it is determined whether or not the intention of the person H has been recognized. For example, if it is clear that the person H has input the intention by operating the affirmative button 19a or the negative button 19n of the intention display device 17, the CPU 20a can recognize the intention of the person. On the other hand, when the person H does not operate the intention display device 17 and ignores the question sentence, the CPU 20a cannot definitely recognize the person's intention.

このような場合、図15では図示していないが、人意思処理モジュール23は、人Hの意思を確定させるために必要なダイアログを、ダイアログキュー23cにロードして、いずれかのロボットRが発話によって、非言語動作によって、あるいは両方で、人Hの意思の確定を促すようにしてもよい。たとえば、ロボットR1および/またはR2が人Hを見るというような非言語動作で、および/またはロボットR1および/またはR2のたとえば「どう思いますか」のような発話で、人Hの意思を確認することができる。そして、このような意思確定ダイアログを実行した後、先のステップS73に戻し、再び意思が認定できるかどうか判定するようにすればよい。   In such a case, although not shown in FIG. 15, the human intention processing module 23 loads a dialog necessary for confirming the intention of the person H to the dialog queue 23 c, and one of the robots R speaks. The determination of the intention of the person H may be promoted by non-linguistic action or both. For example, the intention of the person H is confirmed by a non-linguistic action in which the robot R1 and / or R2 sees the person H and / or by an utterance such as “What do you think” of the robot R1 and / or R2? can do. Then, after executing such a decision confirmation dialog, it is only necessary to return to the previous step S73 and determine whether or not the intention can be recognized again.

ただし、所定時間たとえば5秒間、人Hからの意思表明がなかったときには、人Hの意思は「肯定」または「否定」のどちらかであると、看做すこともできる。   However, when there is no intention expression from the person H for a predetermined time, for example, 5 seconds, it can be considered that the intention of the person H is either “affirmation” or “denial”.

このようにして人Hの意思が確定的に認定できると、ステップS81から、次のステップS83に進む。そして、ステップS83では、CPU20aは、人意思処理モジュール23を制御して、認定した人Hの意思に基づいて、その意思を承認するためのダイアログ(スクリプトデータ)を次ダイアログ候補プール23aから選択して、ダイアログキュー23cにロードする。したがって、このとき、ロボットR1およびR2は、このダイアログキュー23cにロートされた承認ダイアログに従って、人Hの意思を承認するための対話を実行する。このときのダイアログは、先に説明したように、人Hが肯定の意思表示をしたのか、否定の意思表示をしたのかで異なるダイアログがダイアログキュー23cにロードされる。   If the intention of the person H can be definitely determined in this way, the process proceeds from step S81 to the next step S83. In step S83, the CPU 20a controls the human intention processing module 23 to select a dialog (script data) for approving the intention from the next dialog candidate pool 23a based on the intention of the authorized person H. To the dialog queue 23c. Accordingly, at this time, the robots R1 and R2 execute a dialog for approving the intention of the person H in accordance with the approval dialog loaded in the dialog queue 23c. As described above, the dialog at this time is loaded into the dialog queue 23c depending on whether the person H made a positive intention or a negative intention.

ステップS85では、CPU20aは、ステップS83でダイアログをダイアログキュー23cにロードしたので、次のダイアログ候補をダイアログデータベース22から読み出して、次ダイアログ候補プール23aにロードする。   In step S85, since the CPU 20a has loaded the dialog into the dialog queue 23c in step S83, the CPU 20a reads the next dialog candidate from the dialog database 22 and loads it into the next dialog candidate pool 23a.

先のステップS79で、人意思認定フェーズではない場合、“NO”が判断され、次のステップS87でCPU20aは、無視できない人Hの文脈外の意思がセンサマネージャ18によって検出されていないかどうか判断する。そのような人Hの文脈外の意思表示がなければ、このステップS87で“NO”となり、次のステップS89に進む。   In the previous step S79, if it is not the person intention recognition phase, “NO” is determined, and in the next step S87, the CPU 20a determines whether or not the sensor manager 18 has detected no intention outside the context of the person H that cannot be ignored. To do. If there is no intention display outside the context of the person H, “NO” is determined in the step S87, and the process proceeds to the next step S89.

ステップS89では、対話を続けるかどうか判断する。たとえば、ダイアログデータベース22に、採用可能なダイアログが無くなった、時間がなくなった、などのとき、ステップS89では“NO”と判断され、この図15の人意思処理モジュール23の動作は終了する。   In step S89, it is determined whether to continue the dialogue. For example, when there are no dialogs that can be employed in the dialog database 22 or when there is no time left, “NO” is determined in the step S89, and the operation of the human intention processing module 23 in FIG.

ステップS89で“YES”と判断したとき、すなわち対話を継続すべきときには、ステップS91では、実行すべきダイアログがダイアログキュー23cに残っているかどうか、つまりダイアログが終了しているかどうか判断する。   When “YES” is determined in the step S89, that is, when the dialogue is to be continued, in a step S91, it is determined whether or not the dialog to be executed remains in the dialog queue 23c, that is, whether or not the dialog has ended.

ステップS91で“YES”なら、ステップS71と同様に、ステップS93において、別のトピックの一群のダイアログ(スクリプトデータ)を、ダイアログデータベース22から選択して読出し、次ダイアログ候補プール23aにロードする。それとともに、ロボットR1およびR2の次の対話のために、次ダイアログ候補プール23aにロードしたダイアログをダイアログキュー23cにロードする。その後先のステップS85に進み、ダイアログデータベース22からさらにダイアログを次ダイアログ候補プール23aにロードする。   If “YES” in the step S91, similarly to the step S71, in a step S93, a group of dialogs (script data) of another topic is selected and read from the dialog database 22, and loaded into the next dialog candidate pool 23a. At the same time, the dialog loaded in the next dialog candidate pool 23a is loaded into the dialog queue 23c for the next dialogue between the robots R1 and R2. Thereafter, the process proceeds to the previous step S85, and further dialogs are loaded from the dialog database 22 into the next dialog candidate pool 23a.

なお、ステップS91で“NO”なら、ダイアログが終了していないなら、先のステップS73に戻る。   If “NO” in the step S91, if the dialog is not ended, the process returns to the previous step S73.

さらに、ステップS87で“YES”と判断したとき、すなわち、人Hの文脈外の意思表示があったとき。ステップS95において、CPU20aは、そのときの文脈外の人Hの意思に基づいて、図1に示す文脈外応答ダイアログプール23bにロードされているダイアログのうち適当なダイアログを選択し、その選択したダイアログをダイアログキュー23cにロードする。したがって、先に述べた文脈外の人Hの意思表示に対して応答する発話および/または非言語動作をロボットR1および/またはR2が実行する。   Furthermore, when it is determined “YES” in step S87, that is, when there is an intention display outside the context of the person H. In step S95, the CPU 20a selects an appropriate dialog among the dialogs loaded in the out-context response dialog pool 23b shown in FIG. 1 based on the intention of the person H outside the context at that time, and the selected dialog is displayed. Is loaded into the dialog queue 23c. Therefore, the robot R1 and / or R2 executes the utterance and / or the non-verbal action in response to the intention expression of the person H outside the context described above.

そして、次のステップS97では、CPU20aは、人の意思に基づいて、現在のダイアログキュー23cおよび次ダイアログ候補プール23bの内容を削除し、または保留する。つまり、そのときの人Hの意思に基づけば実行不要と思われるダイアログをダイアログキュー23cおよび次ダイアログ候補プール23bから削除するか、あるいはその実行不要と思われるダイアログの実行を保留する。   In the next step S97, the CPU 20a deletes or holds the contents of the current dialog queue 23c and the next dialog candidate pool 23b based on the intention of the person. That is, based on the intention of the person H at that time, a dialog that is deemed unnecessary is deleted from the dialog queue 23c and the next dialog candidate pool 23b, or the execution of the dialog that is considered unnecessary is suspended.

このように、人意思処理モジュール23では、たとえば意思表示デバイス17を用いて表明した、陪席者たる人Hの意思に対して、ロボットR1およびR2が、その意思を承認するための発話や非言語動作を実行することによって、人HがロボットR1およびR2を含む対話システム10の中で、人Hは何も発話しなくても、明らかに対話に参加している感覚(対話感)を持つに至る。   As described above, in the human intention processing module 23, for example, the robot R 1 and R 2 utterances or non-languages for approving the intention of the person H who is a seated person expressed using the intention display device 17. By executing the operation, in the dialogue system 10 including the robots R1 and R2, the person H clearly has a sense (interaction feeling) participating in the dialogue even if nothing is spoken. It reaches.

以下、図16‐図24を参照して、人Hの意思表示に対する承認ダイアログの様々な例について説明する。ただし、以下のことを前提として、すべての対話がダイアログデータベース22に予め設定されているダイアログ(スクリプトデータ)に従って実行される、ということに留意されたい。   Hereinafter, various examples of the approval dialog for the intention display of the person H will be described with reference to FIGS. However, it should be noted that all dialogs are executed according to a dialog (script data) preset in the dialog database 22 on the assumption of the following.

長円で囲んだ「Topic」とは、図10‐図14で説明した「話題」のことであり、Topic-1、Topic-2、…はそれぞれ異なる話題であることを意味する。Topicは賛成の立場での発話を示し、網掛けの長円で囲んだ「Anti-Topic」とは、Topicに対して反対の立場での発話を示す。また、「Follow-Topic」はTopicに追従する立場での発話を示す。さらに、人Hにおいて、白丸で示した「肯定」とは、たとえば意思表示デバイス17の肯定ボタン17aを操作したときのように、センサマネージャ18が人Hの肯定の意思表示を検出したことを意味する。反対に、網掛けの丸で示した「否定」は、センサマネージャ18が人Hの否定の意思表示を検出したことを意味する。なお、以下の具体例の説明において、「人の意思表示」は、人Hが主体的に明示的にまたは非明示的に表示した意思だけでなく、必ずしも人Hの実際の意思の如何にはよらず、前述のように、センサマネージャ18で認定する意思を指すものであると理解されたい。   “Topic” surrounded by an ellipse is the “topic” described in FIGS. 10 to 14, and Topic-1, Topic-2,... Are different topics. Topic indicates utterances in favor, and “Anti-Topic” surrounded by a shaded oval indicates utterances in the opposite position to Topic. “Follow-Topic” indicates an utterance in a position to follow Topic. Furthermore, in the person H, “affirmation” indicated by a white circle means that the sensor manager 18 has detected an affirmative intention of the person H, for example, when the affirmation button 17a of the intention display device 17 is operated. To do. On the other hand, “denial” indicated by a shaded circle means that the sensor manager 18 has detected an intention to deny the person H. In the description of the specific examples below, “person's intention display” is not limited to the intention that person H has explicitly or implicitly displayed, but is not necessarily the actual intention of person H. Regardless, it should be understood that this refers to the intention to be certified by the sensor manager 18 as described above.

図16の例では、対話の主導権をもって、ロボットR1はTopic-1について賛成の立場で発話し、ロボットR2はロボットR1に対して反対の立場で発話する。   In the example of FIG. 16, with the initiative of dialogue, the robot R1 speaks in favor of Topic-1, and the robot R2 speaks in the opposite position to the robot R1.

Topic-1(Anti-Topic-1)に含まれる質問文を発話した後のダイアログに従って、グループマネージャ20のCPU20aは、ともに人Hを見るという非言語動作をロボットR1およびR2に実行させるようなダイアログキュー23cに保持されているスクリプトデータ(当該非言語動作の指示)をブロードキャストする。したがって、人Hは、自分の意思表示が求められていることを理解する。   In accordance with the dialog after the utterance of the question sentence included in Topic-1 (Anti-Topic-1), the CPU 20a of the group manager 20 causes the robots R1 and R2 to execute a non-language operation of watching the person H together. The script data (instruction for the non-language operation) held in the queue 23c is broadcast. Accordingly, the person H understands that his / her intention is required.

このようなロボットR1およびR2の非言語動作に応じて人Hが肯定の意思表示をした後、たとえば図15のステップS83において、ロボットR1およびR2が、図16で横長の矩形枠で示すような承認ダイアログを実行する。この例では、人Hが肯定の意思表示をしたのであるから、ロボットR1は意思表示に対する承認のためにたとえば「そうだよね」と発話する。これに対して、ロボットR2は、自分は反対の立場であるのに人Hが肯定の意思表示をしたのであるから、意思表示に対する承認のためにたとえば「そうかな」と、人Hの肯定の意思表示をとがめるような発話をする。   After the person H makes an affirmative intention in response to such non-linguistic operations of the robots R1 and R2, for example, in step S83 of FIG. 15, the robots R1 and R2 are shown by a horizontally long rectangular frame in FIG. Execute the approval dialog. In this example, since the person H has made a positive intention expression, the robot R1 speaks, for example, “That's right” for approval of the intention expression. On the other hand, since the robot R2 is in the opposite position and the person H has made an affirmative intention, for example, “Sokana” is an affirmative intention of the person H to approve the intention. Speaks that condemn the display.

つまり、ここで、ロボットR1およびR2がそれぞれの立場で、人Hの肯定の意思表示を承認するような発話を実行する。   That is, here, the robots R1 and R2 execute utterances that approve the positive intention display of the person H in their respective positions.

なお、この承認ダイアログでの発話は、ロボットR1およびR2のどちらの発話が先でもよく、ロボットR1およびR2の発話が同時に実行されてもよい。さらに、この承認ダイアログでは、ロボットR1およびR2の対話を実施例のように1回だけでなく、複数回実行するようにしてもよい。これらのことは、次の図17‐図20の例にも当てはまることを予め指摘しておく。   Note that the utterance in this approval dialog may be either the utterance of robots R1 and R2, and the utterances of robots R1 and R2 may be executed simultaneously. Further, in this approval dialog, the dialogue between the robots R1 and R2 may be executed not only once but a plurality of times as in the embodiment. It should be pointed out in advance that these facts also apply to the following examples in FIGS.

その後、主導権を持っているロボットR1が、同じTopic-1または別のTopic-2における対話に復帰するためのつなぎの発話、たとえば「うん、だからね」のような発話する。その後ロボットR1およびR2が、Topic-1(or 2)(Anti-Topic-1(or 2))を継続する。   After that, the robot R1 having the initiative speaks a connection utterance for returning to the conversation in the same Topic-1 or another Topic-2, for example, “Yes, that's it”. Thereafter, the robots R1 and R2 continue Topic-1 (or 2) (Anti-Topic-1 (or 2)).

図16の例では、人Hの肯定の意思表示に同調する発話を行うことによってロボットR1が人Hの肯定の意思表示を承認し、ロボットR2が人Hの肯定の意思表示に同調しない発話を行うことによって人Hの肯定の意思表示を承認する。   In the example of FIG. 16, the robot R1 approves the positive intention expression of the person H by performing the utterance synchronized with the positive intention expression of the person H, and the utterance that the robot R2 does not synchronize with the positive intention expression of the person H. Approves the positive intention expression of person H by doing.

図17の例では、対話の主導権をもって、ロボットR1はTopic-1について賛成の立場で発話し、ロボットR2はロボットR1に追従する立場で発話する。Topic-1(Follow-Topic-1)の発話の後、図16の場合と同様に、ロボットR1およびR2がともに人Hを見るという非言語動作を実行することによって、人Hの意思表示を促す。   In the example of FIG. 17, with the initiative of dialogue, the robot R1 speaks in a position in favor of Topic-1, and the robot R2 speaks in a position following the robot R1. After the utterance of Topic-1 (Follow-Topic-1), the robot R1 and R2 perform a non-linguistic action in which both the robots R1 and R2 see the person H, thereby prompting the person H to express his intention. .

そして、人Hが肯定の意思表示をしたとき、たとえば図15のステップS83において、ロボットR1およびR2が、図17で横長の矩形枠で示すような承認ダイアログを実行する。この例では、ロボットR1は人Hが肯定の意思表示をしたのであるから、意思表示に対する承認のためにたとえば「そうだよね」と発話する。これに対して、ロボットR2は、ロボットR1に追従する立場であるので、人Hの肯定の意思表示に対する承認のためにたとえば「そうだよね」と発話する。   Then, when the person H gives an affirmative intention, for example, in step S83 of FIG. 15, the robots R1 and R2 execute an approval dialog as shown by a horizontally long rectangular frame in FIG. In this example, the robot R1 speaks, for example, “That's right” for the approval of the intention display because the person H has made a positive intention display. On the other hand, since the robot R2 is in a position to follow the robot R1, the robot R2 speaks, for example, “Yes, right” for the approval of the positive intention display of the person H.

つまり、ここで、ロボットR1およびR2がそれぞれの立場で、人Hの肯定の意思表示を承認するような発話を実行する。   That is, here, the robots R1 and R2 execute utterances that approve the positive intention display of the person H in their respective positions.

その後、主導権を持っているロボットR1が、同じTopic-1または別のTopic-2における対話に復帰するためのつなぎの発話、たとえば「うん、だからね」のような同調する発話をする。その後ロボットR1およびR2が、Topic-1(or 2)およびFollow-Topic-1(or 2)を継続する。   Thereafter, the robot R1 having the initiative takes a synchronized utterance such as “Yes, that's right” to return to the conversation in the same Topic-1 or another Topic-2. Thereafter, the robots R1 and R2 continue Topic-1 (or 2) and Follow-Topic-1 (or 2).

図17の例では、人Hの肯定の意思表示に同調する発話を行うことによってロボットR1が人Hの肯定の意思表示を承認し、ロボットR1に追従する立場のロボットR2も人Hの肯定の意思表示に同調する発話を行うことによって人Hの肯定の意思表示を承認する。   In the example of FIG. 17, the robot R1 approves the positive intention display of the person H by performing an utterance synchronized with the positive intention display of the person H, and the robot R2 in the position following the robot R1 also confirms the positive of the person H. The positive intention expression of the person H is approved by performing an utterance synchronized with the intention expression.

図18の例では、対話の主導権をもって、ロボットR1はTopic-1について賛成の立場で発話し、ロボットR2はロボットR1に対して反対の立場で発話する。Topic-1(Anti-Topic-1)の発話の後、図16の場合と同様に、ロボットR1およびR2がともに人Hを見るという非言語動作を実行することによって、人Hの意思表示を促す。   In the example of FIG. 18, with the initiative of dialogue, the robot R1 speaks in favor of Topic-1, and the robot R2 speaks in the opposite position to the robot R1. After the utterance of Topic-1 (Anti-Topic-1), as in the case of FIG. 16, the robots R1 and R2 perform a non-language operation in which the person H sees the person H, thereby prompting the person H to express his intention. .

人Hが否定の意思表示をした後、たとえば図15のステップS83において、ロボットR1およびR2が、図18で横長の矩形枠で示すような承認ダイアログを実行する。この例では、人Hが否定の意思表示をしたのであるから、その意思表示に対する承認のために、ロボットR1は人Hの否定の意思表示をとがめる、たとえば「え、違う」と発話する。これに対して、ロボットR2は、自分は反対の立場であるのに人Hが否定の意思表示をしたのであるから、その否定の意思表示に同調するたとえば「だよね」と発話するひとによって、人Hの否定の意思表示を承認する。   After the person H makes a negative intention, for example, in step S83 of FIG. 15, the robots R1 and R2 execute an approval dialog as shown by a horizontally long rectangular frame in FIG. In this example, since the person H has made a negative intention, the robot R1 utters the intention to deny the intention of the person H, for example, “Yes, different” in order to approve the intention. On the other hand, since the robot R2 is in the opposite position and the person H has expressed a negative intention, the person who speaks, for example, “Da Nene” is synchronized with the negative intention. Approve the intention to deny person H.

つまり、ここで、ロボットR1およびR2がそれぞれの立場で、人Hの否定の意思表示を承認するような発話を実行する。   That is, here, the robots R1 and R2 execute utterances that approve the intention to deny the person H from their respective positions.

その後、主導権を持っているロボットR1が、同じTopic-1または別のTopic-2における対話に復帰するためのつなぎの発話、たとえば「いや、でもね」のような切り返しの発話をする。その後ロボットR1およびR2が、Topic-1(or 2)(Anti-Topic-1(or 2))を継続する。   After that, the robot R1 having the initiative has a connection utterance for returning to the conversation in the same Topic-1 or another Topic-2, for example, a reversal utterance such as “No, but it is”. Thereafter, the robots R1 and R2 continue Topic-1 (or 2) (Anti-Topic-1 (or 2)).

図18の例では、ロボットR1が人Hの意思表示に同調しない発話を行うことによって賛成の立場で人Hの否定の意思表示を承認し、ロボットR2が人Hの意思表示に同調しない発話を行うことによって反対の立場で人Hの否定の意思表示を承認する。   In the example of FIG. 18, the robot R1 approves the intention of denying the person H in a position of approval by performing an utterance that does not synchronize with the intention expression of the person H, and the robot R2 performs an utterance that does not synchronize with the intention expression of the person H. Approves the intention to deny person H from the opposite standpoint.

図19の例では、対話の主導権をもって、ロボットR1はTopic-1について賛成の立場で発話し、ロボットR2はロボットR1に対して反対の立場で発話する。Topic-1(Anti-Topic-1)の発話の後、図16の場合と同様に、ロボットR1およびR2がともに人Hを見るという非言語動作を実行することによって、人Hの意思表示を促す。   In the example of FIG. 19, with the initiative of dialogue, the robot R1 speaks in favor of Topic-1, and the robot R2 speaks in the opposite position to the robot R1. After the utterance of Topic-1 (Anti-Topic-1), as in the case of FIG. 16, the robots R1 and R2 perform a non-language operation in which the person H sees the person H, thereby prompting the person H to express his intention. .

人Hが肯定の意思表示をした後、たとえば図15のステップS83において、ロボットR1およびR2が、図19で横長の矩形枠で示すような承認ダイアログを実行する。この例では、ロボットR1は人Hが肯定の意思表示をしたのであるから、意思表示に対する承認のためにたとえば「そうだよね」と発話する。これに対して、ロボットR2は、自分は反対の立場であるのに人Hが肯定の意思表示をしたのであるから、意思表示に対する承認のためにたとえば「そうかな」と、人Hの肯定の意思表示をとがめるような発話をする。   After the person H gives an affirmative intention, for example, in step S83 of FIG. 15, the robots R1 and R2 execute an approval dialog as shown by a horizontally long rectangular frame in FIG. In this example, the robot R1 speaks, for example, “That's right” for the approval of the intention display because the person H has made a positive intention display. On the other hand, since the robot R2 is in the opposite position and the person H has made an affirmative intention, for example, “Sokana” is an affirmative intention of the person H to approve the intention. Speaks that condemn the display.

つまり、ここで、ロボットR1およびR2がそれぞれの立場で、人Hの肯定の意思表示を承認するような発話を実行する。   That is, here, the robots R1 and R2 execute utterances that approve the positive intention display of the person H in their respective positions.

その後、対話の主導権がロボットR2に移され、ロボットR2が、Topic-1(or 2)における対話に復帰するためのつなぎの発話、たとえば「いや、だからね」のような発話する。その後ロボットR2およびR1が、Topic-1(or 2) (Anti-Topic-1(or 2))を継続する。   Thereafter, the initiative of the dialogue is transferred to the robot R2, and the robot R2 utters a connection utterance for returning to the dialogue in Topic-1 (or 2), for example, “No, that's it”. Thereafter, the robots R2 and R1 continue Topic-1 (or 2) (Anti-Topic-1 (or 2)).

図19の例では、ロボットR2が人Hの肯定の意思表示に同調する発話を行うことによって賛成の立場で人Hの肯定の意思表示を承認し、ロボットR2が人Hの肯定の意思表示に同調しない発話を行うことによって反対の立場で人Hの肯定の意思表示を承認する。   In the example of FIG. 19, the robot R2 approves the positive intention expression of the person H in a position of approval by performing an utterance synchronized with the positive intention expression of the person H, and the robot R2 displays the positive intention expression of the person H. Approves the positive intention of person H from the opposite standpoint by uttering out of sync.

図20の例では、対話の主導権をもって、ロボットR1はTopic-1について賛成の立場で発話し、ロボットR2はロボットR1に対して反対の立場で発話する。Topic-1(Anti-Topic-1)の発話の後、図16の場合と同様に、ロボットR1およびR2がともに人Hを見るという非言語動作を実行することによって、人Hの意思表示を促す。   In the example of FIG. 20, with the initiative of dialogue, the robot R1 speaks in favor of Topic-1, and the robot R2 speaks in the opposite position to the robot R1. After the utterance of Topic-1 (Anti-Topic-1), as in the case of FIG. 16, the robots R1 and R2 perform a non-language operation in which the person H sees the person H, thereby prompting the person H to express his intention. .

人Hが否定の意思表示をした後、たとえば図15のステップS83において、ロボットR1およびR2が、図20で横長の矩形枠で示すような承認ダイアログを実行する。この例では、ロボットR1は人Hが否定の意思表示をしたのであるから、意思表示に対する承認のためにたとえば「え、違う」と発話する。これに対して、ロボットR2は、自分は反対の立場であるのに人Hが否定の意思表示をしたのであるから、意思表示に対する承認のためにたとえば「だよね」と、人Hの否定の意思表示に同調するような発話をする。   After the person H makes a negative intention, for example, in step S83 of FIG. 15, the robots R1 and R2 execute an approval dialog as shown by a horizontally long rectangular frame in FIG. In this example, since the robot R1 has made a negative intention expression, the person R speaks, for example, “No, different” in order to approve the intention expression. On the other hand, since the robot R2 is in the opposite position and the person H has expressed his intention to deny it, for example, "Don't?" Speaks in sync with the intention.

つまり、ここで、ロボットR1およびR2がそれぞれの立場で、人Hの否定の意思表示を承認するような発話を実行する。   That is, here, the robots R1 and R2 execute utterances that approve the intention to deny the person H from their respective positions.

その後、対話の主導権がロボットR2に移され、ロボットR2が、同じTopic-1(or 2)における対話に復帰するためのつなぎの発話、たとえば「いや、でもね」のような発話する。その後ロボットR2およびR1が、Topic-1(or 2)(Anti-Topic-1(or 2))を継続する。   Thereafter, the initiative of the dialogue is transferred to the robot R2, and the robot R2 utters a connection utterance for returning to the dialogue in the same Topic-1 (or 2), for example, “No, but it”. Thereafter, the robots R2 and R1 continue Topic-1 (or 2) (Anti-Topic-1 (or 2)).

図20の例では、ロボットR2が人Hの否定の意思表示に同調しない発話を行うことによって賛成の立場で人Hの否定の意思表示を承認し、ロボットR2が人Hの否定の意思表示に同調する発話を行うことによって反対の立場で人Hの否定の意思表示を承認する。   In the example of FIG. 20, the robot R2 approves an intention to deny the person H from a position of approval by performing an utterance that does not synchronize with the intention to deny the person H, and the robot R2 displays an intention to deny the person H. Approves the intention to deny person H from the opposite position by performing a synchronized utterance.

図21の例では、対話の主導権をもって、ロボットR1はTopic-1について賛成の立場で発話し、ロボットR2はロボットR1に対して反対の立場で発話する。Topic-1(Anti-Topic-1)の発話の後、図16の場合と同様に、ロボットR1およびR2がともに人Hを見るという非言語動作を実行することによって、人Hの意思表示を促す。   In the example of FIG. 21, with the initiative of dialogue, the robot R1 speaks in favor of Topic-1, and the robot R2 speaks in the opposite position to the robot R1. After the utterance of Topic-1 (Anti-Topic-1), as in the case of FIG. 16, the robots R1 and R2 perform a non-language operation in which the person H sees the person H, thereby prompting the person H to express his intention. .

人Hが肯定の意思表示をした後、ロボットR1は、たとえば図15のステップS83において、人Hの肯定の意思表示を拡大解釈して承認するダイアログを実行する。まず、人Hが肯定の意思表示をしかつ自分は賛成の立場であるので、人Hに同調するようにたとえば「そうだよね」と発話する。そして、人Hの肯定の意思表示を拡大解釈する発話をロボットR2に対して実行する。   After the person H gives an affirmative intention, the robot R1 executes, for example, a dialog for enlarging and approving the person H's affirmative intention in step S83 of FIG. First, since the person H makes an affirmative intention and is in a position of approval, he speaks, for example, “That's right” so as to be in line with the person H. And the utterance which expands and interprets the positive intention display of the person H is performed with respect to the robot R2.

たとえば、Topic-1が嗜好品をテーマにした話題だとして、ロボットR1がTopic-1のなかで「バナナはおいしいですよね」と発話したとき、人Hが肯定の意思表示をしたとき、ロボットR1は、まず「そうだよね」と人Hに向かって発話する。その後、ロボットR2に向かって、人Hの肯定の意思表示を拡大解釈してたとえば「果物が好きなんだって」と発話する。それに対してロボットR2がロボットR1に対して、たとえば「え、果物なんか好きなの?」のような、ロボットR1の拡大解釈を補強、承認するような発話をする。   For example, if Topic-1 is a topic about luxury goods, when Robot R1 speaks “Banana is delicious” in Topic-1, when Robot H1 makes a positive intention, Robot R1 First speaks to person H, "That's right." After that, toward the robot R <b> 2, the positive intention expression of the person H is interpreted and expanded, for example, “I like fruit”. On the other hand, the robot R2 speaks to the robot R1 to reinforce and approve the enlarged interpretation of the robot R1, for example, “Do you like fruit?”.

つまり、ロボットR1およびR2どうしのTopicでの対話に対して人Hが肯定の意思表示をしたとき、対話の主導権を持つロボットR1が、人Hの肯定の意思表示を拡大解釈して承認するダイアログを実行し、続けてロボットR2がその拡大解釈を承認するダイアログを実行することによって、人Hが、その拡大解釈を実際に発話したと感じる。上の例では、人Hは、自分が「果物が好きだ」と実際に発話したという感覚を持つことになる。   That is, when the person H makes an affirmative intention with respect to the conversation between the robots R1 and R2 in the Topic, the robot R1 who has the initiative of the dialogue expands and approves the affirmative intention expression of the person H. By executing the dialog and subsequently executing the dialog in which the robot R2 approves the expanded interpretation, the person H feels that the expanded interpretation has actually been spoken. In the above example, the person H has a feeling that he / she actually uttered “I like fruits”.

その後、ロボットR1およびR2が、図21で横長の矩形枠で示すような承認ダイアログを実行する。この例では、ロボットR2が人Hの肯定の意思表示に対するロボットR1の拡大解釈を承認しているので、その拡大解釈の承認に応答するように、ロボットR1がたとえば「きっとそういうタイプなんだよ」とロボットR2に向かって発話し、ロボットR2は、人Hが肯定の意思表示をしたのであるから、反対の立場として、人Hの肯定の意思表示をとがめるようなたとえば「ひどいね」と発話する。   Thereafter, the robots R1 and R2 execute an approval dialog as shown by a horizontally long rectangular frame in FIG. In this example, since the robot R2 has approved the expanded interpretation of the robot R1 with respect to the positive intention of the person H, the robot R1 responds to the approval of the expanded interpretation. The robot R2 speaks to the robot R2 because, for example, the person H gives an affirmative intention, and as an opposite position, speaks, for example, "Terrible" that condemns the affirmative intention of the person H. .

つまり、ここで、ロボットR1およびR2がそれぞれの立場で、拡大解釈を前提にして、人Hの肯定の意思表示を承認するような発話を実行する。   That is, here, the robots R1 and R2 execute utterances that approve the positive intention display of the person H on the premise of the expanded interpretation in their respective positions.

なお、この承認ダイアログでの発話は、ロボットR1およびR2のどちらの発話が先でもよく、ロボットR1およびR2の発話が同時に実行されてもよい。さらに、この承認ダイアログでは、ロボットR1およびR2の対話を実施例のように1回だけでなく、複数回実行するようにしてもよく、あるいは省略されてもよい。これらのことは、次の図22‐図25の例にも当てはまることを予め指摘しておく。   Note that the utterance in this approval dialog may be either the utterance of robots R1 and R2, and the utterances of robots R1 and R2 may be executed simultaneously. Further, in this approval dialog, the dialogue between the robots R1 and R2 may be executed not only once as in the embodiment but also a plurality of times, or may be omitted. It should be pointed out in advance that these facts also apply to the following examples in FIGS.

その後、主導権を持っているロボットR1が、同じTopic-1または別のTopic-2における主張を開始するためのつなぎの発話、たとえば「うん、それでね」のような発話する。その後ロボットR1およびR2が、Topic-1(or 2)(Anti-Topic-1(or 2))を継続する。   Thereafter, the robot R1 having the initiative speaks a connection utterance for starting an assertion in the same Topic-1 or another Topic-2, for example, “Yes, that's it”. Thereafter, the robots R1 and R2 continue Topic-1 (or 2) (Anti-Topic-1 (or 2)).

図21の例では、ロボットR1およびR2が人Hの肯定の意思表示を拡大解釈した承認したうえで、ロボットR1が人Hに同調する発話を行うことによって賛成の立場で人Hの肯定の意思表示を承認し、ロボットR2が人Hの肯定の意思表示に同調しない発話を行うことによって反対の立場で人Hの肯定の意思表示を承認する。   In the example of FIG. 21, the robot R1 and R2 approves the human H's affirmative intention expression in an expanded manner, and then the robot R1 makes an utterance that synchronizes with the human H, so that the human H's positive affirmation The display is approved, and the robot R2 approves the positive intention expression of the person H in the opposite position by performing an utterance that is not synchronized with the positive intention expression of the person H.

図22の例では、対話の主導権をもって、ロボットR1はTopic-1について賛成の立場で発話し、ロボットR2はロボットR1に追従する立場で発話する。Topic-1(Follow-Topic-1)の発話の後、図16の場合と同様に、ロボットR1およびR2がともに人Hを見るという非言語動作を実行することによって、人Hの意思表示を促す。   In the example of FIG. 22, with the initiative of dialogue, the robot R1 speaks in favor of Topic-1, and the robot R2 speaks in a position following the robot R1. After the utterance of Topic-1 (Follow-Topic-1), the robot R1 and R2 perform a non-linguistic action in which both the robots R1 and R2 see the person H, thereby prompting the person H to express his intention. .

人Hが肯定の意思表示をした後、ロボットR1は、たとえば図15のステップS83において、人Hの肯定の意思表示を拡大解釈して承認するダイアログを実行する。まず、人Hが肯定の意思表示しかつ自分は追従する立場であるので、人Hに同調するようにたとえば「そうだよね」と発話する。そして、人Hの肯定の意思表示を拡大する発話をロボットR2に対して実行する。   After the person H gives an affirmative intention, the robot R1 executes, for example, a dialog for enlarging and approving the person H's affirmative intention in step S83 of FIG. First, since the person H expresses a positive intention and is in a position to follow, the person H speaks, for example, “That's right” so as to synchronize with the person H. And the utterance which expands the positive intention display of the person H is performed with respect to the robot R2.

たとえば、Topic-1が嗜好品をテーマにした話題だとして、ロボットR1がTopic-1のなかで「バナナっておいしいですよね」と発話したとき、人Hが肯定の意思表示をしたとき、ロボットR1は、まず「そうだよね」と人Hに向かって発話する。その後、ロボットR2に向かって、人Hの肯定の意思表示を拡大解釈してたとえば「果物が好きなんだって」と発話する。それに対してロボットR2がロボットR1に対して、たとえば「話がわかるね」のような、ロボットR1の拡大解釈を補強、承認するような発話をする。   For example, when Topic-1 is the topic of luxury goods, when Robot R1 speaks “Banana is delicious” in Topic-1, and when person H makes a positive intention, R1 first speaks to person H, "That's right." After that, toward the robot R <b> 2, the positive intention expression of the person H is interpreted and expanded, for example, “I like fruit”. On the other hand, the robot R2 speaks to the robot R1 to reinforce and approve the expanded interpretation of the robot R1, for example, “I understand the story”.

つまり、ロボットR1およびR2どうしのTopic(Follow-Topic)での対話に対して人Hが肯定の意思表示をしたとき、対話の主導権を持つロボットR1が、人Hの肯定の意思表示を拡大解釈して承認するダイアログを実行し、続けてロボットR2がその拡大解釈を承認するダイアログを実行することによって、人Hが、その拡大解釈を実際に発話したと感じる。上の例では、人Hは、自分が実際に「果物が好きだ」と発話したという感覚を持つ。   In other words, when the person H makes an affirmative intention for the dialogue between the robots R1 and R2 in the Topic (Follow-Topic), the robot R1 having the initiative in the dialogue expands the affirmative intention of the person H. By executing a dialog for interpreting and approving, and subsequently executing a dialog for robot R2 to approve the expanded interpretation, person H feels that the expanded interpretation has actually been spoken. In the above example, the person H has a feeling that he / she actually uttered “I like fruits”.

その後、ロボットR1およびR2が、図22で横長の矩形枠で示すような承認ダイアログを実行する。この例では、ロボットR2が人Hの肯定の意思表示に対するロボットR1の拡大解釈を承認しているので、その拡大解釈の承認に応答するように、ロボットR1がたとえば「きっとそういうタイプな気がしてたんだ」とロボットR2に向かって発話し、ロボットR2は、人Hが肯定の意思表示をしたのであるから、ロボットR1に追従する立場として、人Hの肯定の意思表示に同調するようなたとえば「そうだよね」と発話する。   Thereafter, the robots R1 and R2 execute an approval dialog as shown by a horizontally long rectangular frame in FIG. In this example, since the robot R2 approves the expanded interpretation of the robot R1 for the positive intention expression of the person H, the robot R1 responds to the approval of the expanded interpretation. The robot R2 is in sync with the positive intention display of the person H as a position to follow the robot R1, because the robot R2 has expressed the positive intention. For example, say "Yes".

つまり、ここで、ロボットR1およびR2がそれぞれの立場で、拡大解釈を前提にして、人Hの肯定の意思表示を承認するような発話を実行する。   That is, here, the robots R1 and R2 execute utterances that approve the positive intention display of the person H on the premise of the expanded interpretation in their respective positions.

その後、主導権を持っているロボットR1が、同じTopic-1または別のTopic-2における対話に復帰するためのつなぎの発話、たとえば「うん、それでね」のような発話する。その後ロボットR1およびR2が、Topic-1(or 2)(Anti-Topic-1(or 2))を継続する。   Thereafter, the robot R1 having the initiative speaks a connection utterance for returning to the conversation in the same Topic-1 or another Topic-2, for example, “Yes, that's it”. Thereafter, the robots R1 and R2 continue Topic-1 (or 2) (Anti-Topic-1 (or 2)).

図22の例では、ロボットR1およびR2が人Hの肯定の意思表示を拡大解釈した承認したうえで、ロボットR1が人Hに同調する発話を行うことによって賛成の立場で人Hの肯定の意思表示を拡大解釈して承認し、ロボットR2も人Hの肯定の意思表示に同調する発話を行うことによってロボットR1に追従する立場で人Hの肯定の意思表示を承認する。   In the example of FIG. 22, the robot R1 and R2 approve the human H's positive intention expression in an expanded manner, and then the robot R1 makes an utterance that synchronizes with the human H, so that the human H's positive intention The display is enlarged and interpreted and approved, and the robot R2 also approves the positive intention display of the person H from the standpoint of following the robot R1 by uttering in synchronization with the positive intention display of the person H.

図23の例では、対話の主導権をもって、ロボットR1はTopic-1について賛成の立場で発話し、ロボットR2はロボットR1に反対する立場で発話する。Topic-1(Anti-Topic-1)の発話の後、図16の場合と同様に、ロボットR1およびR2がともに人Hを見るという非言語動作を実行することによって、人Hの意思表示を促す。   In the example of FIG. 23, with the initiative of dialogue, the robot R1 speaks in favor of Topic-1, and the robot R2 speaks in a position opposite to the robot R1. After the utterance of Topic-1 (Anti-Topic-1), as in the case of FIG. 16, the robots R1 and R2 perform a non-language operation in which the person H sees the person H, thereby prompting the person H to express his intention. .

人Hが否定の意思表示をした後、ロボットR2は、たとえば図15のステップS83において、人Hの否定の意思表示を拡大解釈して承認するダイアログを実行する。まず、人Hが否定の意思表示しかつ自分は反対の立場であるので、人Hに同調するようにたとえば「そうだよね」と発話する。そして、人Hの否定の意思表示を拡大する発話をロボットR2に対して実行する。   After the person H makes a negative intention, the robot R2 executes a dialog for enlarging and approving the negative intention of the person H, for example, in step S83 of FIG. First, since the person H expresses a negative intention and he is in the opposite position, he speaks, for example, “That's right” so as to be in line with the person H. And the utterance which expands the intention display of the negative of the person H is performed with respect to the robot R2.

たとえば、Topic-1が嗜好品をテーマにした話題だとして、ロボットR1がTopic-1のなかで「バナナっておいしいですよね」と発話したとき、人Hが否定の意思表示をしたとき、ロボットR2は、まず「そうだよね」と人Hに向かって発話する。その後、ロボットR1に向かって、人Hの否定の意思表示を拡大解釈してたとえば「果物が嫌いなんだって」と発話する。それに対してロボットR1がロボットR2に対して、たとえば「え、果物が嫌いなの?」のような、ロボットR2の拡大解釈を補強、承認するような発話をする。   For example, when Topic-1 is a topic about luxury goods, when Robot R1 speaks "Banana is delicious" in Topic-1, and when person H makes a negative intention, the robot R2 first speaks to person H, "That's right." Then, toward the robot R1, the intention expression of the negative of the person H is expanded and interpreted, for example, “I hate fruit”. On the other hand, the robot R1 speaks to the robot R2 to reinforce and approve the expanded interpretation of the robot R2, for example, “I hate fruit?”.

つまり、ロボットR1およびR2どうしのTopic(Anti-Topic)での対話に対して人Hが否定の意思表示をしたとき、ロボットR1に反対するロボットR2が、人Hの否定の意思表示を拡大解釈して承認するダイアログを実行し、続けてロボットR1がその拡大解釈を承認するダイアログを実行することによって、人Hが、実際にその拡大解釈を発話したと感じる。上の例では、人Hは、自分が「果物が嫌いだ」と実際に発話したという感覚を持つことになる。   In other words, when the person H makes a negative intention to the dialogue between the robots R1 and R2 in the topic (Anti-Topic), the robot R2 opposed to the robot R1 expands the interpretation of the negative intention of the person H. Then, by executing the dialog to approve and subsequently executing the dialog in which the robot R1 approves the enlarged interpretation, it feels that the person H has actually spoken the enlarged interpretation. In the above example, the person H has a feeling that he / she actually uttered “I hate fruit”.

その後、ロボットR2およびR1が、図23で横長の矩形枠で示すような承認ダイアログを実行する。この例では、ロボットR1が人Hの否定の意思表示に対するロボットR2の拡大解釈を承認しているので、その拡大解釈の承認に応答するように、ロボットR2がたとえば「きっとそういうタイプなんだよ」とロボットR1に向かって発話し、人Hが否定の意思表示をしたのであるから、ロボットR2に反対されている立場なので、ロボットR1は、人Hの否定の意思表示に同調しないようなたとえば「ひどいね」と発話する。   Thereafter, the robots R2 and R1 execute an approval dialog as shown by a horizontally long rectangular frame in FIG. In this example, since the robot R1 approves the expanded interpretation of the robot R2 for the negative intention expression of the person H, the robot R2 responds to the approval of the expanded interpretation. The robot R1 is in a position opposed to the robot R2 because the person H has expressed a negative intention, and the robot R1 does not synchronize with the negative intention of the person H. It ’s terrible. ”

つまり、ここで、ロボットR1およびR2がそれぞれの立場で、拡大解釈を前提にして、人Hの否定の意思表示を承認するような発話を実行する。   That is, here, the robots R1 and R2 execute utterances that approve the intention to deny the person H on the premise of the expanded interpretation in their respective positions.

その後、主導権を持っているロボットR1が、同じTopic-1または別のTopic-2における対話に復帰するためのつなぎの発話、たとえば「いや、でもね」のような発話する。その後ロボットR1およびR2が、Topic-1(or 2)(Anti-Topic-1(or 2))を継続する。   Thereafter, the robot R1 having the initiative utters a connection utterance for returning to the conversation in the same Topic-1 or another Topic-2, for example, “No, but it”. Thereafter, the robots R1 and R2 continue Topic-1 (or 2) (Anti-Topic-1 (or 2)).

図23の例では、ロボットR1およびR2が人Hの否定の意思表示を拡大解釈した承認したうえで、ロボットR2が人Hに同調する発話を行うことによって反対の立場で人Hの否定の意思表示を拡大解釈して承認し、ロボットR1は人Hの否定の意思表示に同調しない発話を行うことによって人Hの否定の意思表示を承認する。   In the example of FIG. 23, the robots R1 and R2 approve the interpretation of the intention of denying the person H, and then the robot R2 makes an utterance in sync with the person H, thereby deciding the intention of the person H in the opposite position. The display is expanded and interpreted, and the robot R1 approves the intention to deny the person H by performing an utterance that is not synchronized with the intention to deny the person H.

図24の例では、対話の主導権をもって、ロボットR1はTopic-1について賛成の立場で発話し、ロボットR2はロボットR1に対して反対の立場で発話する。Topic-1(Anti-Topic-1)の発話の後、図16の場合と同様に、ロボットR1およびR2がともに人Hを見るという非言語動作を実行することによって、人Hの意思表示を促す。   In the example of FIG. 24, with the initiative of dialogue, the robot R1 speaks in favor of Topic-1, and the robot R2 speaks in the opposite position to the robot R1. After the utterance of Topic-1 (Anti-Topic-1), as in the case of FIG. 16, the robots R1 and R2 perform a non-language operation in which the person H sees the person H, thereby prompting the person H to express his intention. .

人Hが肯定の意思表示をした後、ロボットR1は、たとえば図15のステップS83において、人Hの肯定の意思表示を拡大解釈して承認するダイアログを実行する。まず、人Hが肯定の意思表示しかつ自分は賛成の立場であるので、人Hに同調するようにたとえば「そうだよね」と発話する。そして、人Hの肯定の意思表示を拡大する発話をロボットR2に対して実行する。   After the person H gives an affirmative intention, the robot R1 executes, for example, a dialog for enlarging and approving the person H's affirmative intention in step S83 of FIG. First, since the person H expresses an affirmative intention and is in a position of approval, he speaks, for example, “That's right” so as to be in line with the person H. And the utterance which expands the positive intention display of the person H is performed with respect to the robot R2.

たとえば、Topic-1が嗜好品をテーマにした話題だとして、ロボットR1がTopic-1のなかで「バナナっておいしいですよね」と発話したとき、人Hが肯定の意思表示をしたとき、ロボットR1は、まず「そうだよね」と人Hに向かって発話する。その後、ロボットR2に向かって、人Hの肯定の意思表示を拡大解釈してたとえば「果物が好きなんだって」と発話する。それに対してロボットR2がロボットR1に対して、たとえば「え、果物なんか好きなの?」のような、ロボットR1の拡大解釈を補強、承認するような発話をする。   For example, when Topic-1 is the topic of luxury goods, when Robot R1 speaks “Banana is delicious” in Topic-1, and when person H makes a positive intention, R1 first speaks to person H, "That's right." After that, toward the robot R <b> 2, the positive intention expression of the person H is interpreted and expanded, for example, “I like fruit”. On the other hand, the robot R2 speaks to the robot R1 to reinforce and approve the enlarged interpretation of the robot R1, for example, “Do you like fruit?”.

つまり、ロボットR1およびR2どうしのTopicでの対話に対して人Hが肯定の意思表示をしたとき、対話の主導権を持つロボットR1が、人Hの肯定の意思表示を拡大解釈して承認するダイアログを実行し、続けてロボットR2がその拡大解釈を承認するダイアログを実行することによって、人Hが、その拡大解釈を発話したと感じる。上の例では、人Hは、自分が実際に果物が好きだ」と発話したという感覚を持つことになる。   That is, when the person H makes an affirmative intention with respect to the conversation between the robots R1 and R2 in the Topic, the robot R1 who has the initiative of the dialogue expands and approves the affirmative intention expression of the person H. By executing the dialog and subsequently executing the dialog in which the robot R2 approves the expanded interpretation, the person H feels that the expanded interpretation has been spoken. In the above example, the person H has a feeling that he / she actually said that he likes fruits.

その後、ロボットR1およびR2が、図21で横長の矩形枠で示すような承認ダイアログを実行する。この例では、ロボットR2が人Hの肯定の意思表示に対するロボットR1の拡大解釈を承認しているので、その拡大解釈の承認に応答するように、ロボットR1がたとえば「きっとそういうタイプなんだよ」とロボットR2に向かって発話し、ロボットR2は、人Hが肯定の意思表示をしたのであるから、反対の立場として、人Hの肯定の意思表示をとがめるようなたとえば「ひどいね」と発話する。   Thereafter, the robots R1 and R2 execute an approval dialog as shown by a horizontally long rectangular frame in FIG. In this example, since the robot R2 has approved the expanded interpretation of the robot R1 with respect to the positive intention of the person H, the robot R1 responds to the approval of the expanded interpretation. The robot R2 speaks to the robot R2 because, for example, the person H gives an affirmative intention, and as an opposite position, speaks, for example, "Terrible" that condemns the affirmative intention of the person H. .

つまり、ここで、ロボットR1およびR2がそれぞれの立場で、拡大解釈を前提にして、人Hの肯定の意思表示を承認するような発話を実行する。   That is, here, the robots R1 and R2 execute utterances that approve the positive intention display of the person H on the premise of the expanded interpretation in their respective positions.

その後、主導権がロボットR2に移り、ロボットR2が、Topic-1(or 2)での主張を開始するためのつなぎの発話、たとえば「いや、でもね」のような発話する。その後ロボットR2およびR1が、Topic-1(or 2)(Anti-Topic-1(or 2))を継続する。   Thereafter, the initiative shifts to the robot R2, and the robot R2 utters a connection utterance for starting a claim in Topic-1 (or 2), for example, “No, but it is”. Thereafter, the robots R2 and R1 continue Topic-1 (or 2) (Anti-Topic-1 (or 2)).

図24の例では、ロボットR1およびR2が人Hの肯定の意思表示を拡大解釈した承認したうえで、ロボットR2が人Hに同調する発話を行うことによって反対の立場で人Hの肯定の意思表示を拡大解釈して承認し、ロボットR1は人Hの肯定の意思表示に同調しない発話を行うことによって人Hの肯定の意思表示を承認する。   In the example of FIG. 24, the robot R1 and R2 approves the human H's positive intention expression in an expanded manner, and then the robot R2 makes an utterance synchronized with the human H, and the human H's positive intention in the opposite position. The display is expanded and interpreted, and the robot R1 approves the positive intention expression of the person H by performing an utterance that is not synchronized with the positive intention expression of the person H.

上述の実施例では、人Hの意思表示はたとえば意思表示デバイス17の人の操作に応じて入力するようにした。しかしながら、たとえばカメラ16からの画像信号を処理し、たとえば人Hが頷いたら「肯定」の意思表示があったとし、首を振ったら「否定」の意思表示があったとするようにしてもよい。   In the above-described embodiment, the intention display of the person H is input in accordance with, for example, the operation of the intention display device 17. However, for example, the image signal from the camera 16 may be processed, and for example, if the person H hits, an “affirmation” intention display may be provided, and if the head is shaken, a “no” intention display may be provided.

図25の例では、対話の主導権をもって、ロボットR1はTopic-1について賛成の立場で発話し、ロボットR2はロボットR1に反対する立場で発話する。Topic-1(Anti-Topic-1)の発話の後、図16の場合と同様に、ロボットR1およびR2がともに人Hを見るという非言語動作を実行することによって、人Hの意思表示を促す。   In the example of FIG. 25, with the initiative of dialogue, the robot R1 speaks in favor of Topic-1, and the robot R2 speaks in a position opposite to the robot R1. After the utterance of Topic-1 (Anti-Topic-1), as in the case of FIG. 16, the robots R1 and R2 perform a non-language operation in which the person H sees the person H, thereby prompting the person H to express his intention. .

人Hが否定の意思表示をした後、ロボットR2は、たとえば図15のステップS83において、人Hの否定の意思表示を拡大解釈して承認するダイアログを実行する。まず、人Hが否定の意思表示しかつ自分は反対の立場であるので、人Hに同調するようにたとえば「そうだよね」と発話する。そして、人Hの否定の意思表示を拡大する発話をロボットR2に対して実行する。   After the person H makes a negative intention, the robot R2 executes a dialog for enlarging and approving the negative intention of the person H, for example, in step S83 of FIG. First, since the person H expresses a negative intention and he is in the opposite position, he speaks, for example, “That's right” so as to be in line with the person H. And the utterance which expands the intention display of the negative of the person H is performed with respect to the robot R2.

たとえば、Topic-1が嗜好品をテーマにした話題だとして、ロボットR1がTopic-1のなかで「バナナっておいしいですよね」と発話したとき、人Hが否定の意思表示をしたとき、ロボットR2は、まず「そうだよね」と人Hに向かって発話する。その後、ロボットR1に向かって、人Hの否定の意思表示を拡大解釈してたとえば「果物が嫌いなんだって」と発話する。それに対してロボットR1がロボットR2に対して、たとえば「え、果物が嫌いなの?」のような、ロボットR2の拡大解釈を補強、承認するような発話をする。   For example, when Topic-1 is a topic about luxury goods, when Robot R1 speaks "Banana is delicious" in Topic-1, and when person H makes a negative intention, the robot R2 first speaks to person H, "That's right." Then, toward the robot R1, the intention expression of the negative of the person H is expanded and interpreted, for example, “I hate fruit”. On the other hand, the robot R1 speaks to the robot R2 to reinforce and approve the expanded interpretation of the robot R2, for example, “I hate fruit?”.

つまり、ロボットR1およびR2どうしのTopic(Anti-Topic)での対話に対して人Hが否定の意思表示をしたとき、ロボットR1に反対するロボットR2が、人Hの否定の意思表示を拡大解釈して承認するダイアログを実行し、続けてロボットR1がその拡大解釈を承認するダイアログを実行することによって、人Hが、実際にその拡大解釈を発話したと感じる。上の例では、人Hは、自分が「果物が嫌いだ」と実際に発話したという感覚を持つことになる。   In other words, when the person H makes a negative intention to the dialogue between the robots R1 and R2 in the topic (Anti-Topic), the robot R2 opposed to the robot R1 expands the interpretation of the negative intention of the person H. Then, by executing the dialog to approve and subsequently executing the dialog in which the robot R1 approves the enlarged interpretation, it feels that the person H has actually spoken the enlarged interpretation. In the above example, the person H has a feeling that he / she actually uttered “I hate fruit”.

その後、ロボットR2およびR1が、図23で横長の矩形枠で示すような承認ダイアログを実行する。この例では、ロボットR1が人Hの否定の意思表示に対するロボットR2の拡大解釈を承認しているので、その拡大解釈の承認に応答するように、ロボットR2がたとえば「きっとそういうタイプなんだよ」とロボットR1に向かって発話し、人Hが否定の意思表示をしたのであるから、ロボットR2に反対されている立場なので、ロボットR1は、人Hの否定の意思表示に同調しないようなたとえば「ひどいね」と発話する。   Thereafter, the robots R2 and R1 execute an approval dialog as shown by a horizontally long rectangular frame in FIG. In this example, since the robot R1 approves the expanded interpretation of the robot R2 for the negative intention expression of the person H, the robot R2 responds to the approval of the expanded interpretation. The robot R1 is in a position opposed to the robot R2 because the person H has expressed a negative intention, and the robot R1 does not synchronize with the negative intention of the person H. It ’s terrible. ”

つまり、ここで、ロボットR1およびR2がそれぞれの立場で、拡大解釈を前提にして、人Hの否定の意思表示を承認するような発話を実行する。   That is, here, the robots R1 and R2 execute utterances that approve the intention to deny the person H on the premise of the expanded interpretation in their respective positions.

その後、主導権がロボットR2に移り、ロボットR2がTopic-1(or 2)での主張開始のつなぎの発話、たとえば「いや、でもね」のような発話する。その後ロボットR2およびR1が、Anti-Topic-1(or 2)(Topic-1(or 2))を継続する。   After that, the initiative shifts to the robot R2, and the robot R2 speaks the continuation of the assertion start in Topic-1 (or 2), for example, “No, but it is”. Thereafter, the robots R2 and R1 continue Anti-Topic-1 (or 2) (Topic-1 (or 2)).

図25の例では、ロボットR1およびR2が人Hの否定の意思表示を拡大解釈した承認したうえで、ロボットR2が人Hに同調する発話を行うことによって反対の立場で人Hの否定の意思表示を拡大解釈して承認し、ロボットR1は人Hの否定の意思表示に同調しない発話を行うことによって人Hの否定の意思表示を承認する。   In the example of FIG. 25, after the robots R1 and R2 approve the interpretation of the intention of denying the person H, the intention of the person H to deny it in the opposite position by the robot R2 performing an utterance synchronized with the person H. The display is expanded and interpreted, and the robot R1 approves the intention to deny the person H by performing an utterance that is not synchronized with the intention to deny the person H.

なお、図16‐図25に示す具体例において、人Hの意思を認定したとき、ロボットR1およびR2の対話によってその意思を承認するようにしたが、実行手段の一例である図15のステップS83で示す承認ダイアログでは、少なくとも1体のエージェント(実施例では、ロボットR1およびR2の少なくとも一方)の発話で人Hの意思を承認するようにしてもよい。   In the specific examples shown in FIGS. 16 to 25, when the intention of the person H is recognized, the intention is approved by the dialogue between the robots R1 and R2. However, step S83 in FIG. In the approval dialog shown by (1), the intention of the person H may be approved by the utterance of at least one agent (in the embodiment, at least one of the robots R1 and R2).

さらに、認定した人Hの意思を承認するためには、図15のステップS77における非言語動作を実行させるようにしてもよい。この場合、ステップS77も実行手段を構成することになる。   Furthermore, in order to approve the intention of the authorized person H, the non-language operation in step S77 in FIG. 15 may be executed. In this case, step S77 also constitutes execution means.

なお、上述の実施例では、各ロボットR1およびダイアログデータベース22に予め蓄積しておくようにした。しかしながら、このデータベース22に代えて、たとえばネットから必要なスクリプトデータを逐次グループマネージャ20に供給するようにしてもよい。   In the embodiment described above, each robot R1 and the dialog database 22 are stored in advance. However, instead of the database 22, for example, necessary script data may be sequentially supplied to the group manager 20 from the net.

さらに、上述の実施例は、物理的なエージェントであるロボットを用いたロボット対話システムであるが、この発明は、そのような物理的なエージェントだけでなく、たとえばディスプレイの画面上に表示されるアバタないしキャラクタのようなエージェントどうしの対話システムも適用されてもよい。この場合、図1のロボットコントローラ24やロボットセンサ26は、そのようなアバタやキャラクタを表示するためのディスプレイコントローラ(図示せず)に代えられる。つまり、この発明は、エージェント対話システムである。   Furthermore, although the above-described embodiment is a robot interaction system using a robot that is a physical agent, the present invention is not limited to such a physical agent, but may be an avatar displayed on a display screen, for example. Alternatively, a dialogue system between agents such as characters may be applied. In this case, the robot controller 24 and the robot sensor 26 in FIG. 1 are replaced with a display controller (not shown) for displaying such avatars and characters. That is, the present invention is an agent dialogue system.

10 …ロボット対話システム
12 …対話場所
R1、R2 …ロボット
17 …意思表示デバイス
18 …センサマネージャ
20 …グループマネージャ
22 …ダイアログデータベース
23 …人意思処理モジュール
24 …ロボットコントローラ
DESCRIPTION OF SYMBOLS 10 ... Robot dialogue system 12 ... Dialog place R1, R2 ... Robot 17 ... Intention display device 18 ... Sensor manager 20 ... Group manager 22 ... Dialog database 23 ... Human intention processing module 24 ... Robot controller

Claims (6)

それぞれが発話機能を有する複数のエージェントが対話場所においてスクリプトに従って対話し、対話場所に人が陪席するエージェント対話システムであって、
人の意思を認定する意思認定手段(18)、および
前記意思認定手段が認定した人の意思を承認する発話および非言語動作の少なくとも一方を少なくとも1つのエージェントに実行させる実行手段を備える、エージェント対話システム。
An agent dialogue system in which a plurality of agents each having an utterance function interact according to a script in a dialogue place, and a person sits in the dialogue place,
Agent dialogue comprising: an authorization means (18) for authorizing a person's intention; and an execution means for causing at least one agent to execute at least one of an utterance and a non-verbal action for approving the intention of the person authorized by the intention authorization means. system.
前記実行手段は、複数のエージェントに前記人の意思を拡大解釈した対話を実行させる対話実行手段を含む、請求項1記載のエージェント対話システム。   The agent execution system according to claim 1, wherein the execution means includes a dialog execution means for causing a plurality of agents to execute a dialog in which the intention of the person is expanded and interpreted. 前記対話実行手段は、1つのエージェントに前記人の意思を拡大解釈した発話を実行させ、他の少なくとも1つのエージェントに前記拡大解釈した発話を承認する発話を実行させる、請求項2記載のエージェント対話システム。   The agent dialogue according to claim 2, wherein the dialogue execution unit causes one agent to execute an utterance in which the intention of the person is expanded and executed, and causes at least one other agent to execute an utterance that approves the extended interpretation. system. それぞれが発話機能を有する複数のエージェントが対話場所においてスクリプトに従って対話し、対話場所に人が陪席するエージェント対話システムのコンピュータによって実行されるプログラムであって、前記プログラムは、前記コンピュータを
人の意思を認定する意思認定手段、および
前記意思認定手段が認定した人の意思を承認する発話および非言語動作の少なくとも一方を少なくとも1つのエージェントに実行させる実行手段として機能させる、エージェント対話システムのプログラム。
A program executed by a computer of an agent interaction system in which a plurality of agents each having an utterance function interact according to a script at a conversation place, and a person sits at the conversation place, A program for an agent dialogue system that functions as an execution means for causing at least one agent to execute at least one of an utterance and a non-linguistic action for approving an intention of a person authorized by the intention recognition means.
前記実行手段は、複数のエージェントに前記人の意思を拡大解釈した対話を実行させる対話実行手段を含む、請求項4記載のエージェント対話システムのプログラム。   5. The agent dialogue system program according to claim 4, wherein the execution means includes dialogue execution means for causing a plurality of agents to execute a dialogue in which the intention of the person is expanded and interpreted. 前記対話実行手段は、1つのエージェントに前記人の意思を拡大解釈した発話を実行させ、他の少なくとも1つのエージェントに前記拡大解釈した発話を承認する発話を実行させる、請求項5記載のエージェント対話システムのプログラム。   6. The agent dialogue according to claim 5, wherein the dialogue execution unit causes one agent to execute an utterance obtained by expanding the interpretation of the person's intention, and causes another at least one agent to execute an utterance that approves the extended interpretation utterance. System program.
JP2015207441A 2015-10-21 2015-10-21 Agent dialogue system Active JP6992957B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015207441A JP6992957B2 (en) 2015-10-21 2015-10-21 Agent dialogue system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015207441A JP6992957B2 (en) 2015-10-21 2015-10-21 Agent dialogue system

Publications (2)

Publication Number Publication Date
JP2017079004A true JP2017079004A (en) 2017-04-27
JP6992957B2 JP6992957B2 (en) 2022-01-13

Family

ID=58666911

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015207441A Active JP6992957B2 (en) 2015-10-21 2015-10-21 Agent dialogue system

Country Status (1)

Country Link
JP (1) JP6992957B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108594672A (en) * 2018-03-16 2018-09-28 中国地质大学(武汉) A kind of drinking-water service robot active service method understood based on intention
JPWO2017200077A1 (en) * 2016-05-20 2018-12-13 日本電信電話株式会社 Dialogue method, dialogue system, dialogue apparatus, and program
CN110362661A (en) * 2018-04-08 2019-10-22 微软技术许可有限责任公司 The chat robots technology for seeing position with three
JP2020020846A (en) * 2018-07-30 2020-02-06 国立大学法人大阪大学 Dialog system and program
CN117301074A (en) * 2023-11-17 2023-12-29 浙江孚宝智能科技有限公司 Control method and chip of intelligent robot
CN117301074B (en) * 2023-11-17 2024-04-30 浙江孚宝智能科技有限公司 Control method and chip of intelligent robot

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6490503B1 (en) * 1999-05-10 2002-12-03 Sony Corporation Control device and method therefor, information processing device and method therefor, and medium
JP2004024867A (en) * 2003-06-09 2004-01-29 Matsushita Electric Ind Co Ltd Voice interaction toy
JP2009061547A (en) * 2007-09-06 2009-03-26 Olympus Corp Robot control system, robot, program, and information storage medium
JP2009131928A (en) * 2007-11-30 2009-06-18 Olympus Corp Robot control system, robot, program and information recording medium
JP2010072811A (en) * 2008-09-17 2010-04-02 Olympus Corp Information processing system, program and information storage medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2989209B1 (en) 2012-04-04 2015-01-23 Aldebaran Robotics ROBOT FOR INTEGRATING NATURAL DIALOGUES WITH A USER IN HIS BEHAVIOR, METHODS OF PROGRAMMING AND USING THE SAME

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6490503B1 (en) * 1999-05-10 2002-12-03 Sony Corporation Control device and method therefor, information processing device and method therefor, and medium
JP2004024867A (en) * 2003-06-09 2004-01-29 Matsushita Electric Ind Co Ltd Voice interaction toy
JP2009061547A (en) * 2007-09-06 2009-03-26 Olympus Corp Robot control system, robot, program, and information storage medium
JP2009131928A (en) * 2007-11-30 2009-06-18 Olympus Corp Robot control system, robot, program and information recording medium
JP2010072811A (en) * 2008-09-17 2010-04-02 Olympus Corp Information processing system, program and information storage medium

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
飯尾 尊優 他: "対話内容に関心を持たせるための複数ロボット対話システム", 電子情報通信学会技術研究報告 CNR2015−6−CNR2015−15 クラウドネットワークロボット, vol. 第115巻,第283号, JPN6019023572, 23 October 2010 (2010-10-23), JP, pages 29 - 32, ISSN: 0004061015 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017200077A1 (en) * 2016-05-20 2018-12-13 日本電信電話株式会社 Dialogue method, dialogue system, dialogue apparatus, and program
CN108594672A (en) * 2018-03-16 2018-09-28 中国地质大学(武汉) A kind of drinking-water service robot active service method understood based on intention
CN110362661A (en) * 2018-04-08 2019-10-22 微软技术许可有限责任公司 The chat robots technology for seeing position with three
JP2020020846A (en) * 2018-07-30 2020-02-06 国立大学法人大阪大学 Dialog system and program
JP2023001299A (en) * 2018-07-30 2023-01-04 国立大学法人大阪大学 Interaction system and program
JP7432960B2 (en) 2018-07-30 2024-02-19 国立大学法人大阪大学 Dialogue systems and programs
CN117301074A (en) * 2023-11-17 2023-12-29 浙江孚宝智能科技有限公司 Control method and chip of intelligent robot
CN117301074B (en) * 2023-11-17 2024-04-30 浙江孚宝智能科技有限公司 Control method and chip of intelligent robot

Also Published As

Publication number Publication date
JP6992957B2 (en) 2022-01-13

Similar Documents

Publication Publication Date Title
JP6583765B2 (en) Agent dialogue system and program
US20220254343A1 (en) System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs
CN107340865B (en) Multi-modal virtual robot interaction method and system
JP6818280B2 (en) Dialogue system, dialogue method, dialogue device, and program
Bohus et al. Models for multiparty engagement in open-world dialog
JP5982840B2 (en) Dialogue device, dialogue program, and dialogue method
JP4395687B2 (en) Information processing device
JP6992957B2 (en) Agent dialogue system
JP6970413B2 (en) Dialogue methods, dialogue systems, dialogue devices, and programs
US20210205987A1 (en) System and method for dynamic robot configuration for enhanced digital experiences
WO2017200074A1 (en) Dialog method, dialog system, dialog device, and program
Matsusaka et al. Conversation robot participating in group conversation
US11331807B2 (en) System and method for dynamic program configuration
WO2018163646A1 (en) Dialogue method, dialogue system, dialogue device, and program
Liu et al. Generation of nodding, head tilting and gazing for human–robot speech interaction
WO2019160612A1 (en) System and method for dynamic robot profile configurations based on user interactions
JP5223605B2 (en) Robot system, communication activation method and program
CN114995636A (en) Multi-modal interaction method and device
JP2016087402A (en) User-interaction toy and interaction method of the toy
JP7120060B2 (en) VOICE DIALOGUE DEVICE, CONTROL DEVICE AND CONTROL PROGRAM FOR VOICE DIALOGUE DEVICE
Ehret et al. Who's next? Integrating Non-Verbal Turn-Taking Cues for Embodied Conversational Agents
US20040095389A1 (en) System and method for managing engagements between human users and interactive embodied agents
JP2017162268A (en) Dialog system and control program
JP2017208003A (en) Dialogue method, dialogue system, dialogue device, and program
JP7225642B2 (en) Communication robot, control method and control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181016

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190625

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190819

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191021

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200706

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200714

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200807

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200818

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20200821

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20200825

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210330

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210518

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20210629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210927

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20211005

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20211109

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20211109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211202

R150 Certificate of patent or registration of utility model

Ref document number: 6992957

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150