JP6992957B2 - Agent dialogue system - Google Patents

Agent dialogue system Download PDF

Info

Publication number
JP6992957B2
JP6992957B2 JP2015207441A JP2015207441A JP6992957B2 JP 6992957 B2 JP6992957 B2 JP 6992957B2 JP 2015207441 A JP2015207441 A JP 2015207441A JP 2015207441 A JP2015207441 A JP 2015207441A JP 6992957 B2 JP6992957 B2 JP 6992957B2
Authority
JP
Japan
Prior art keywords
person
intention
robot
dialog
dialogue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015207441A
Other languages
Japanese (ja)
Other versions
JP2017079004A (en
Inventor
尊優 飯尾
雄一郎 吉川
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osaka University NUC
Original Assignee
Osaka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka University NUC filed Critical Osaka University NUC
Priority to JP2015207441A priority Critical patent/JP6992957B2/en
Publication of JP2017079004A publication Critical patent/JP2017079004A/en
Application granted granted Critical
Publication of JP6992957B2 publication Critical patent/JP6992957B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)

Description

この発明は、エージェント対話システムに関し、特にたとえば、複数のエージェントと少なくとも1人の人が参加する、新規なエージェント対話システムに関する。 The present invention relates to an agent dialogue system, particularly, for example, a novel agent dialogue system in which a plurality of agents and at least one person participate.

ロボット分野の広がりとともに、ロボット研究は,日常的な場面で働くロボットの研究に焦点を移しつつあり、人間が生活する環境の中で、人と対話することができるロボットの開発が注目されている。 With the expansion of the robot field, robot research is shifting its focus to research on robots that work in everyday situations, and the development of robots that can interact with humans in the environment in which humans live is drawing attention. ..

近年の音声認識の技術の発展により、これまでにも人間と音声言語でやりとりをする機能を持つロボットが開発されてきているが、音声認識技術をいくら優れたものにしても、ロボットと人との対話において、人が人との対話に参加しているときに抱く「対話感(対話に参加しているという感覚)」と同等の感覚を、ロボットと対話する人に与え続けることは容易ではなかった。 With the development of voice recognition technology in recent years, robots that have the function of interacting with humans in voice language have been developed, but no matter how good the voice recognition technology is, robots and people In the dialogue, it is not easy to continue to give the person who interacts with the robot the same feeling as the "sense of dialogue (feeling of participating in the dialogue)" that a person has when participating in the dialogue with a person. I didn't.

背景技術の一例である特許文献1には、ロボットと人との対話において、ロボットが人の感情を推測して応答文の発話とその発話に伴う動作を決定することが開示されている。 Patent Document 1, which is an example of the background technique, discloses that in a dialogue between a robot and a human, the robot infers the emotion of the human and determines the utterance of a response sentence and the action accompanying the utterance.

特許文献2には、人とロボットとの対話システムにおいて、両者の同調を図ることで、持続的で自然なインタラクションを実現しようとするものである。 Patent Document 2 attempts to realize a sustainable and natural interaction in a dialogue system between a human and a robot by synchronizing the two.

特開2004-90109号公報[B25J 13/00…]Japanese Unexamined Patent Publication No. 2004-90109 [B25J 13/00…] 特開2012-181697号公報[G06F 3/16…]Japanese Unexamined Patent Publication No. 2012-181697 [G06F 3/16 ...]

特許文献1の技術においても、特許文献2の技術においても、音声認識に基づく処理に限界があり、上述の「対話感」を人が持続することは容易ではない。 In both the technique of Patent Document 1 and the technique of Patent Document 2, there is a limit to the processing based on voice recognition, and it is not easy for a person to maintain the above-mentioned "dialogue feeling".

それゆえに、この発明の主たる目的は、新規な、エージェント対話システムを提供することである。 Therefore, the main object of the present invention is to provide a novel, agent dialogue system.

この発明の他の目的は、人に対話に参加している感覚を持続させることができる、エージェント対話システムを提供することである。 Another object of the present invention is to provide an agent dialogue system capable of sustaining a person's sense of participation in dialogue.

この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。 The present invention has adopted the following configuration in order to solve the above problems. The reference numerals and supplementary explanations in parentheses indicate the correspondence with the embodiments described in order to help the understanding of the present invention, and do not limit the present invention in any way.

第1の発明は、それぞれが発話機能を有する2体のエージェントが対話場所においてスクリプトに従って対話し、対話場所に人が陪席するエージェント対話システムであって、
対話場所における人の行為や状態変化などのセンサ信号を、人の実際の意思の如何によらず、人が表明した意思として認定するセンサマネージャ、センサマネージャが認定した、承認すべき意思があるかどうか判断する第1判断手段、第1判断手段が承認すべき意思があると判断したとき、スクリプトからダイアログキューにロードされた第1承認ダイアログに従って2体のエージェントに人の意思を承認する非言語動作を実行させる第1承認ダイアログ実行手段、スクリプトに従って人の意思を確認するフェーズかどうか判断する第2判断手段、第2判断手段で人の意思を確認するフェーズであると判断したとき、人の意思を確認できたかどうか判断する第3判断手段、および第3判断手段が人の意思を確認できたと判断したとき、スクリプトからダイアログキューにロードされた第2承認ダイアログに従って2体のエージェントに人の意思を承認する対話を実行させる第2承認ダイアログ実行手段を備え、第2承認ダイアログ実行手段は、2体のエージェントの1つに、人の意思に対して同調する発話または同調しない発話をさせ、2体のエージェントの他の1つに、前記人の意思に対して同調しない発話をさせる、エージェント対話システムである。
The first invention is an agent dialogue system in which two agents, each having a speech function, interact with each other according to a script at the dialogue place, and a person sits at the dialogue place.
Whether there is a sensor manager who certifies sensor signals such as human actions and state changes at the dialogue place as the intention expressed by the person, regardless of the actual intention of the person, and whether there is an intention to be approved by the sensor manager. A non-language that approves a person's intention to two agents according to the first approval dialog loaded from the script into the dialog queue when the first judgment means and the first judgment means decide that they have the intention to approve. When it is determined that the first approval dialog execution means for executing the operation, the second judgment means for determining whether or not the phase is for confirming the human intention according to the script, and the second judgment means for confirming the human intention, the person's intention is confirmed. When it is determined that the third judgment means for determining whether or not the intention can be confirmed and the third judgment means can confirm the intention of the person, the two agents are assigned to the two agents according to the second approval dialog loaded from the script into the dialog queue. The second approval dialog execution means is provided with a second approval dialog execution means for executing a dialogue for approving the intention, and the second approval dialog execution means causes one of the two agents to make utterances that are in sync with or out of sync with the intention of a person. It is an agent dialogue system that causes the other one of the two agents to make an utterance that is out of sync with the intention of the person .

第1の発明では、エージェント対話システム(10:実施例において相当する部分を例示する参照符号。以下、同様。)は、対話場所(12)に、それぞれが発話機能(46)を有する2体のエージェント(R1,R2)を配置し、その対話場所(12)に人(H)が陪席する。エージェントどうしはスクリプトに従って対話する。センサマネージャ(18)が、たとえば、マイク(14)が取得した音声信号、カメラ(16)が撮影した画像信号および意思表示デバイス(17)が検出した入力信号(肯定、否定)、さらには生体信号を検出する生体センサ、モーションキャプチャシステムによって検知された人の行為や状態変化などのセンサ信号を、人の実際の意思の如何によらず、人が表明した意思として認定する。第1判断手段(20、S75)は、センサマネージャ(18)が認定した、承認すべき意思があるかどうか判断する。この第1判断手段が承認すべき意思があると判断したとき、第1承認ダイアログ実行手段(20、S77)が、スクリプトからダイアログキューにロードされた第1承認ダイアログに従って2体のエージェントに人の意思を承認する非言語動作を実行させる。第1承認ダイアログ実行手段による非言語動作の後、第2判断手段(20、S79)が、スクリプトに従って人の意思を確認するフェーズかどうか判断する。第2判断手段で人の意思を確認するフェーズであると判断したとき、第3判断手段(20、S81)が、人の意思を確認できたかどうか判断する。そして、第2承認ダイアログ実行手段(20、S83)は、第3判断手段が人の意思を確認できたと判断したとき、スクリプトからダイアログキューにロードされた第2承認ダイアログに従って2体のエージェントに人の意思を承認する対話を実行させる。具体的には、第2承認ダイアログ実行手段は、2体のエージェントの1つに人の意思に同調する発話または同調しない発話をさせ、2体のエージェントの他の1つに人の意思に同調しない発話または同調する発話をさせることによって、承認対話を実行させる。たとえば、第2承認ダイアログ実行手段によって、たとえば2体のエージェントにそれぞれの承認発話をさせる。一例として、図16、図18‐図20に示すように、1体のエージェント(R1およびR2の一方)には人(H)の意思に対して同調する発話(たとえば、「そうだよね」、「だよね」など)を行わせ、他の1体のエージェント(R1およびR2の他方)には人の意思表示に同調しない発話(たとえば、「そうかな」、「え、違う」など)を行わせる。それによって、人が表示した意思が「肯定または同意もしくは否定または不同意」のいずれであったかを認定することができる。 In the first invention, the agent dialogue system (10: a reference reference numeral exemplifying the corresponding portion in the embodiment; the same applies hereinafter) has two bodies , each having a speech function (46) at the dialogue place (12). Agents (R1 and R2) are placed, and a person (H) sits at the dialogue place (12). Agents interact with each other according to a script. The sensor manager (18) has, for example, an audio signal acquired by the microphone (14), an image signal captured by the camera (16), an input signal (affirmative, negative) detected by the intention display device (17), and a biological signal. The biological sensor that detects the above, and the sensor signal such as the action or state change of the person detected by the motion capture system are recognized as the intention expressed by the person regardless of the actual intention of the person. The first determination means (20, S75) determines whether or not the sensor manager (18) has certified and has the intention to approve. When it is determined that the first approval means has an intention to approve, the first approval dialog execution means (20, S77) attaches a person to the two agents according to the first approval dialog loaded from the script into the dialog queue. Perform a non-verbal action that approves the intention. After the non-verbal operation by the first approval dialog execution means, it is determined whether the second determination means (20, S79) is in the phase of confirming the intention of the person according to the script. When it is determined that the second determination means is in the phase of confirming the intention of the person, the third determination means (20, S81) determines whether or not the intention of the person can be confirmed. Then, when the second approval dialog execution means (20, S83) determines that the third judgment means has confirmed the intention of the person, the second approval dialog loaded from the script into the dialog queue is followed by the person to the two agents. Have a dialogue to approve the intention of . Specifically, the second approval dialog execution means causes one of the two agents to make an utterance that is in sync with or out of sync with the person's intention, and the other one of the two agents is made to speak the person's intention . Perform an approval dialogue by having an untuned or tuned utterance. For example, by the second approval dialog execution means, for example, two agents are made to make their respective approval utterances. As an example, as shown in FIGS. 16 and 18-20, one agent (one of R1 and R2) has an utterance that synchronizes with the intention of the person (H) (for example, "That's right", " Have the other agent (the other of R1 and R2) make utterances that do not match the person's intention (for example, "Yes,""Eh,different," etc.). Thereby, it is possible to determine whether the intention expressed by the person is "affirmation or consent or denial or disagreement".

第1の発明によれば、第1承認ダイアログ実行手段によって承認のための非言語動作を実行させ、第2承認ダイアログ実行手段によって承認対話を実行させるので、人にエージェントどうしの対話に参加している感覚(「対話感」)を生じさせるだけでなく、人にあたかもその承認対話の前提となる発話をしたような感覚を付与することができる。 According to the first invention, since the first approval dialog execution means executes the non-verbal operation for approval and the second approval dialog execution means executes the approval dialogue, the person participates in the dialogue between the agents. Not only can it create a feeling of being (“dialogue”), but it can also give a person the feeling of speaking, which is the premise of the approval dialogue.

第2の発明は、第1または第2の発明に従属し、第2承認ダイアログ実行手段は、人の意思を拡大解釈したうえで、2体のエージェントに承認発話を実行させる、エージェント対話システムである。 The second invention is subordinate to the first or second invention, and the second approval dialog execution means is an agent dialogue system in which two agents are made to execute an approval utterance after expanding and interpreting a person's intention. be.

第2の発明によれば、第2承認ダイアログ実行手段によって、人の意思を拡大解釈したうえで、2体のエージェントに人の意思に対する承認対話を実行させるので、あたかもその承認の前提となる拡大解釈を伴う発話をしたような感覚を人に強く付与することができる。 According to the second invention, the second approval dialog execution means expands and interprets the intention of the person, and then causes the two agents to execute the approval dialogue for the intention of the person. It is possible to strongly give a person the feeling of speaking with an interpretation.

第3の発明は、それぞれが発話機能を有する2体のエージェントが対話場所においてスクリプトに従って対話し、対話場所に人が陪席するエージェント対話システムのコンピュータによって実行されるプログラムであって、プログラムはコンピュータを、対話場所における人の行為や状態変化などのセンサ信号を、人の実際の意思の如何によらず、人が表明した意思として認定するセンサマネージャ、センサマネージャが認定した、承認すべき意思があるかどうか判断する第1判断手段、第1判断手段が承認すべき意思があると判断したとき、スクリプトからダイアログキューにロードされた第1承認ダイアログに従って2体のエージェントに人の意思を承認する非言語動作を実行させる第1承認ダイアログ実行手段、スクリプトに従って人の意思を確認するフェーズかどうか判断する第2判断手段、第2判断手段で人の意思を確認するフェーズであると判断したとき、人の意思を確認できたかどうか判断する第3判断手段、および第3判断手段が人の意思を確認できたと判断したとき、スクリプトからダイアログキューにロードされた第2承認ダイアログに従って2体のエージェントに人の意思を承認する対話を実行させる第2承認ダイアログ実行手段として機能させる、エージェント対話システムのプログラムである。 The third invention is a program executed by a computer of an agent dialogue system in which two agents, each having a speaking function, interact according to a script at the dialogue place, and a person sits at the dialogue place. , A sensor manager who certifies sensor signals such as a person's actions and state changes in a dialogue place as an intention expressed by a person regardless of the actual intention of the person , and a sensor manager has certified and has an intention to approve. When it is determined that the first judgment means and the first judgment means have the intention to approve, the two agents approve the intention of the person according to the first approval dialog loaded from the script into the dialog queue. When it is determined that the first approval dialog execution means for executing the language action, the second judgment means for judging whether or not the phase is for confirming the person's intention according to the program, and the second judgment means for confirming the person's intention, the person When it is determined that the third judgment means for determining whether or not the intention of the person can be confirmed and the third judgment means can confirm the intention of the person, the person is assigned to the two agents according to the second approval dialog loaded from the program into the dialog queue. It is a program of the agent dialogue system that functions as a second approval dialog execution means for executing a dialogue that approves the intention of .

この発明によれば、エージェントどうしの対話においても、対話中の人の行為を人の実際の意思の如何にはよらず、人の意思表示として承認することによって、人に対話に参加している感覚(「対話感」)を生じさせ、さらにその承認を伴う発話をしたかのような感覚を人に付与する事ができる。 According to the present invention, even in a dialogue between agents, the person participates in the dialogue by approving the action of the person during the dialogue as a manifestation of the intention of the person, regardless of the actual intention of the person. It is possible to give a feeling (“dialogue feeling”) to a person and to give a person a feeling as if he / she spoke with the approval.

この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above-mentioned object, other object, feature and advantage of the present invention will be further clarified from the detailed description of the following examples made with reference to the drawings.

図1はこの発明の一実施例のロボット対話システムの概要を示す概略図である。FIG. 1 is a schematic diagram showing an outline of a robot dialogue system according to an embodiment of the present invention. 図2は図1実施例におけるセンサマネージャの構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of the configuration of the sensor manager in the embodiment of FIG. 図3は図1実施例におけるグループマネージャの構成の一例を示すブロック図である。FIG. 3 is a block diagram showing an example of the configuration of the group manager in the embodiment of FIG. 図4は図1実施例におけるロボットの一例を示す概略図である。FIG. 4 is a schematic view showing an example of the robot in the embodiment of FIG. 図5は図4のロボットを制御するロボットコントローラの構成の一例を示すブロック図である。FIG. 5 is a block diagram showing an example of a configuration of a robot controller that controls the robot of FIG. 図6は図1に示すダイアログデータベースからグループマネージャに読み出されるスクリプトの一例を示す概略図である。FIG. 6 is a schematic diagram showing an example of a script read from the dialog database shown in FIG. 1 to the group manager. 図7は図1に示すグループマネージャの動作の一例を示すフロー図である。FIG. 7 is a flow chart showing an example of the operation of the group manager shown in FIG. 図8は図1に示すロボットコントローラの動作の一例を示すフロー図である。FIG. 8 is a flow chart showing an example of the operation of the robot controller shown in FIG. 図9は図1実施例における対話シーケンスの一例を示す概略図である。FIG. 9 is a schematic diagram showing an example of a dialogue sequence in the embodiment of FIG. 図10は図1実施例における具体的な対話場面の一例を示す概略図である。FIG. 10 is a schematic diagram showing an example of a specific dialogue scene in the embodiment of FIG. 図11は図1実施例における具体的な対話場面の他の例を示す概略図である。FIG. 11 is a schematic diagram showing another example of the specific dialogue scene in the embodiment of FIG. 図12は図1実施例における具体的な対話場面の他の例を示す概略図である。FIG. 12 is a schematic diagram showing another example of the specific dialogue scene in the embodiment of FIG. 図13は図1実施例における具体的な対話場面の他の例を示す概略図である。FIG. 13 is a schematic diagram showing another example of the specific dialogue scene in the embodiment of FIG. 図14は図1実施例における具体的な対話場面の他の例を示す概略図である。FIG. 14 is a schematic diagram showing another example of the specific dialogue scene in the embodiment of FIG. 図15は図1に示す人意思処理モジュールの動作の一例を示すフロー図である。FIG. 15 is a flow chart showing an example of the operation of the human intention processing module shown in FIG. 図16は図1実施例において人の意思表示を処理する具体的な対話場面の一例を示す概略図である。FIG. 16 is a schematic diagram showing an example of a specific dialogue scene for processing a person's intention display in the embodiment of FIG. 図17は図1実施例において人の意思表示を処理する具体的な対話場面の他の例を示す概略図である。FIG. 17 is a schematic diagram showing another example of a specific dialogue scene for processing a person's intention expression in the embodiment of FIG. 図18は図1実施例において人の意思表示を処理する具体的な対話場面の他の例を示す概略図である。FIG. 18 is a schematic diagram showing another example of a specific dialogue scene for processing a person's intention expression in the embodiment of FIG. 図19は図1実施例において人の意思表示を処理する具体的な対話場面の他の例を示す概略図である。FIG. 19 is a schematic diagram showing another example of a specific dialogue scene for processing a person's intention expression in the embodiment of FIG. 図20は図1実施例において人の意思表示を処理する具体的な対話場面の他の例を示す概略図である。FIG. 20 is a schematic diagram showing another example of a specific dialogue scene for processing a person's intention expression in the embodiment of FIG. 図21は図1実施例において人の意思表示を処理する具体的な対話場面の他の例を示す概略図である。FIG. 21 is a schematic diagram showing another example of a specific dialogue scene for processing a person's intention expression in the embodiment of FIG. 図22は図1実施例において人の意思表示を処理する具体的な対話場面の他の例を示す概略図である。FIG. 22 is a schematic diagram showing another example of a specific dialogue scene for processing a person's intention expression in the embodiment of FIG. 図23は図1実施例において人の意思表示を処理する具体的な対話場面の他の例を示す概略図である。FIG. 23 is a schematic diagram showing another example of a specific dialogue scene for processing a person's intention expression in the embodiment of FIG. 図24は図1実施例において人の意思表示を処理する具体的な対話場面の他の例を示す概略図である。FIG. 24 is a schematic diagram showing another example of a specific dialogue scene for processing a person's intention expression in the embodiment of FIG. 図25は図1実施例において人の意思表示を処理する具体的な対話場面の他の例を示す概略図である。FIG. 25 is a schematic diagram showing another example of a specific dialogue scene for processing a person's intention expression in the embodiment of FIG.

図1を参照して、この実施例のロボット対話システム10の対話場所12には、第1ロボットR1および第2ロボットR2と1人の人Hが存在する。ただし、ロボットの数は3以上でもよく、人の数は2以上でもよい。なお、以下において、第1ロボットR1および第2ロボットR2を特に区別する必要がないとき、単にロボットRと呼ぶことがある。 With reference to FIG. 1, the first robot R1 and the second robot R2 and one person H are present at the dialogue place 12 of the robot dialogue system 10 of this embodiment. However, the number of robots may be 3 or more, and the number of people may be 2 or more. In the following, when it is not necessary to distinguish between the first robot R1 and the second robot R2, it may be simply referred to as a robot R.

人が発話するとき、その発話に応じる形で相手の発話が生成されなければ、対話を続けていくこと自体が困難になりやすいため、音声認識および自然言語処理の能力が完璧でないロボットは、人間の発話に対して適切な発話をし続けることは容易ではなく、対話は破綻しやすい。 When a person speaks, if the other person's utterance is not generated in response to the utterance, it tends to be difficult to continue the dialogue itself, so robots with imperfect voice recognition and natural language processing capabilities are humans. It is not easy to continue to speak appropriately for the utterance of, and the dialogue is liable to break down.

一方、人間は、他者どうしの対話を傍らで観察する際、その内容が完全に理解あるいは同意できるものでなくても、部分的に理解あるいは同意しながら、対話を聞き続けることができる。またそれにより、理解あるいは同意できなかった部分についても、後から理解あるいは同意できることがある。しかし、対話に参加している感覚(対話感)がなければ、その対話に集中し続けることは容易ではない。 On the other hand, when observing a dialogue between others by the side, human beings can continue to listen to the dialogue while partially understanding or agreeing, even if the content is not completely understood or agreed. In addition, by doing so, it may be possible to later understand or agree with the part that was not understood or agreed. However, it is not easy to continue to concentrate on the dialogue without the feeling of participating in the dialogue (sense of dialogue).

そこで、この実施例では、ロボットが発話する際に、必ずしも人間に返答させる形にするのではなく、その対話の場に別のロボットを陪席させ、ロボットの発話に対して適切な返答を、この陪席ロボットに発話させる、つまりロボットどうしに対話を行わせることで破綻を回避し、他方、そのロボットどうしの対話を人に聞かせ、時には人間の行為を意思表示、たとえば「同意」、「不同意」(「肯定」、「否定」)などを受けとみなし、その人の意思をロボットどうしの対話の継続あるいは複数のロボットによる非言語的な注意の表示等によって、承認して確定するなどして、人間に対話感を感じさせる。 Therefore, in this embodiment, when the robot speaks, it is not always made to respond to a human, but another robot is made to sit in the place of the dialogue, and an appropriate response to the robot's utterance is given. Avoid collapse by letting the robots speak, that is, letting the robots interact with each other, while letting people hear the dialogue between the robots and sometimes expressing the intention of human actions, such as "agreement" and "disagreement". ("Affirmation", "Negation"), etc. are regarded as received, and the intention of the person is approved and confirmed by continuing dialogue between robots or displaying non-verbal cautions by multiple robots. Makes humans feel a sense of dialogue.

この実施例のようなロボット対話システムは、たとえば、独居生活者に対するコミュニケーションサービスロボット、情報提供サービスロボット、広告ロボットなどとして利用可能である。 The robot dialogue system as in this embodiment can be used, for example, as a communication service robot, an information providing service robot, an advertising robot, or the like for a single living person.

ロボット対話システム10の対話場所12の状況をセンシングするために、この実施例では、聴覚センサとしてのマイク14および視覚センサとしてのカメラ16が設けられる。マイク14は、ロボットRや人Hの発話による音声を含む環境音を取得するためのもので、必要なら2台以上設置されてもよい。カメラ16は、同じく対話場所12の状況、特に人Hの表情や動作を撮影するカメラであり、動画または静止画を撮影する。カメラ16も必要なら2台以上設置してもよい。 In this embodiment, a microphone 14 as an auditory sensor and a camera 16 as a visual sensor are provided in order to sense the situation of the dialogue place 12 of the robot dialogue system 10. The microphone 14 is for acquiring environmental sounds including voices spoken by the robot R and the human H, and two or more microphones 14 may be installed if necessary. The camera 16 is also a camera that captures the situation of the dialogue place 12, particularly the facial expression and movement of the person H, and captures a moving image or a still image. Two or more cameras 16 may be installed if necessary.

さらに、上述のマイク14やカメラ16の他に、センサとして、図示はしないが、装着型の姿勢センサ、加速度センサ、心拍の状態、呼吸の状態、体動(体の動き)の状態などの生体信号を検知する生体センサ、モーションキャプチャシステムなどを設けてもよい。 Further, in addition to the microphone 14 and the camera 16 described above, as sensors, although not shown, a living body such as a wearable posture sensor, an acceleration sensor, a heartbeat state, a breathing state, and a body movement (body movement) state. A biosensor for detecting a signal, a motion capture system, or the like may be provided.

さらに、この実施例の対話システム10には、人Hの意思の表明のための手段として、意思表示デバイス17を設ける。この意思表示デバイス17は、一例として、肯定(Affirmation)または同意(Agree)を入力するための肯定ボタン17aと、否定(Negation)または不同意(Disagree)を入力するための否定ボタン17nを有する。ただし、肯定ボタン17aおよび否定ボタン17nは、たとえば押しボタンスイッチのようなハードウエアスイッチで構成されてもよいし、あるいはタッチスクリーン上のソフトウエアスイッチ(仮想ボタン)で構成されてもよい。また、肯定ボタン17aおよび否定ボタン17nがそれぞれ個別のスイッチないしボタンとして形成されてもよい。 Further, the dialogue system 10 of this embodiment is provided with an intention display device 17 as a means for expressing the intention of the person H. As an example, the intention display device 17 has an affirmative button 17a for inputting an affirmation or an agreement, and a negative button 17n for inputting a negative or disagree. However, the affirmative button 17a and the negative button 17n may be configured by a hardware switch such as a push button switch, or may be configured by a software switch (virtual button) on the touch screen. Further, the affirmative button 17a and the negative button 17n may be formed as individual switches or buttons.

マイク14が取得した音声信号、カメラ16が撮影した画像信号および意思表示デバイス17が検出した入力信号(肯定、否定)さらには上述した生体信号を検出する生体センサ、モーションキャプチャシステムによって検知された人の行為や状態変化などのセンサ信号は、センサマネージャ18に入力される。センサマネージャ18は、これらのセンサ信号を取得して、対話場所12の状況を判定して、判定結果をセンシングデータとして、後述のグループマネージャ20および人意思処理モジュール23に出力する。 A person detected by an audio signal acquired by the microphone 14, an image signal captured by the camera 16, an input signal (affirmative, negative) detected by the intention display device 17, a biosensor that detects the biometric signal described above, and a motion capture system. Sensor signals such as actions and state changes are input to the sensor manager 18. The sensor manager 18 acquires these sensor signals, determines the status of the dialogue location 12, and outputs the determination result as sensing data to the group manager 20 and the human intention processing module 23, which will be described later.

図2を参照して、センサマネージャ18は、CPU(中央演算処理装置)18aを含み、CPU18aには、内部バス18bを介して通信装置18cが接続される。通信装置18cは、たとえばネットワークインタフェース(NIC)などを含み、CPU18aはこの通信装置18cを介してグループマネージャ20などと通信でき、それらの間でデータの授受を行うことができる。 With reference to FIG. 2, the sensor manager 18 includes a CPU (central processing unit) 18a, and a communication device 18c is connected to the CPU 18a via an internal bus 18b. The communication device 18c includes, for example, a network interface (NIC), and the CPU 18a can communicate with the group manager 20 and the like via the communication device 18c, and data can be exchanged between them.

CPU18aにはさらに、内部バス18bを介して、メモリ18dが接続される。メモリ18dはROMやRAMを含む。たとえばDSP(Digital Signal Processor)で構成されるセンサI/F(インタフェース)18eを通して、マイク14(図1)からの音声信号やカメラ16(図1)からの画像信号を含むセンサ信号が入力される。そして、メモリ18dは、センサ信号を一時的に記憶する。 Further, the memory 18d is connected to the CPU 18a via the internal bus 18b. The memory 18d includes a ROM and a RAM. For example, a sensor signal including an audio signal from the microphone 14 (FIG. 1) and an image signal from the camera 16 (FIG. 1) is input through a sensor I / F (interface) 18e composed of a DSP (Digital Signal Processor). .. Then, the memory 18d temporarily stores the sensor signal.

センサマネージャ18は一種の判定器であり、CPU18aは、メモリ18dに記憶したセンサデータに基づいて、対話場所12の状態や人Hの意思を判定する。たとえば、マイク14が取得した音声信号、カメラ16が撮影した画像信号および意思表示デバイス17が検出した入力信号(肯定、否定)さらには上述した生体信号を検出する生体センサ、モーションキャプチャシステムによって検知された人の行為や状態変化などのセンサ信号を人Hの実際の意思の如何にはよらず、人Hが表明した意思が入力されたものとして認定し、処理してすることができる。そして、センサマネージャ18は、判定した状態を示すデータをグループマネージャ20および人意思処理モジュール23に送る。 The sensor manager 18 is a kind of determination device, and the CPU 18a determines the state of the dialogue place 12 and the intention of the person H based on the sensor data stored in the memory 18d. For example, it is detected by a voice signal acquired by the microphone 14, an image signal taken by the camera 16, an input signal (affirmative, negative) detected by the intention display device 17, a biosensor that detects the biometric signal described above, and a motion capture system. Sensor signals such as a person's actions and state changes can be recognized and processed as input of the intention expressed by the person H, regardless of the actual intention of the person H. Then, the sensor manager 18 sends data indicating the determined state to the group manager 20 and the human intention processing module 23.

また、センサマネージャ18に必要なプログラム(OSやセンサ信号取得プログラムなど)は、メモリ18dに記憶される。センサマネージャ18はメモリ18dに記憶されたプログラムに従って動作する。 Further, a program (OS, sensor signal acquisition program, etc.) required for the sensor manager 18 is stored in the memory 18d. The sensor manager 18 operates according to the program stored in the memory 18d.

なお、CPU18aにはさらに、(図示せず)キーボードやディスプレイが付属されてもよい。 A keyboard and a display (not shown) may be further attached to the CPU 18a.

図3に示すグループマネージャ20は、たとえば後述の図7のフロー図に従って、2台のロボットRのそれぞれの発話動作(言語動作:Verbal operation)および振舞い(非言語動作:Nonverbal operation)を制御する。 The group manager 20 shown in FIG. 3 controls the speech operation (verbal operation) and behavior (nonverbal operation) of each of the two robots R, for example, according to the flow diagram of FIG. 7 described later.

グループマネージャ20は、CPU20aを含み、CPU20aには、内部バス20bを介して通信装置20cが接続される。通信装置20cは、たとえばネットワークインタフェース(NIC)などを含み、CPU20aはこの通信装置20cを介してセンサマネージャ18やロボットRなどと通信でき、それらの間でデータの授受を行うことができる。 The group manager 20 includes the CPU 20a, and the communication device 20c is connected to the CPU 20a via the internal bus 20b. The communication device 20c includes, for example, a network interface (NIC), and the CPU 20a can communicate with the sensor manager 18, the robot R, and the like via the communication device 20c, and data can be exchanged between them.

CPU20aにはさらに、内部バス20bを介して、メモリ20dおよび入力装置20eが接続される。メモリ20dはROMやRAMを含む。メモリI/F20fを通してダイアログデータベース22から、スクリプト(ダイアログ)を読み込み、それをメモリ20dに一時的に記憶する。ただし、「ダイアログ」は、対話中に行うべき発話や非言語動作の指令の系列を意味し、ダイアログデータベース22は、ダイアログの集合(たとえば、バナナの何が好きという対話やロボット介護の何が大切かという対話など、各トピックの対話のための指令の系列が含まれる)である。そして、「スクリプト」は、その指令の系列を表す文字列のことであり、スクリプトデータは、その指令を表す文字列である。したがって、スクリプトデータの系列がスクリプトになる。このようなスクリプトは、グループマネージャ20によって、ダイアログキュー23cからロボットR1およびR2に送信される。ただし、スクリプトデータは、言語データだけでなく、非言語データも含む。言語データは、ロボットR1およびR2の発話を指示するスクリプトデータであり、非言語データは、たとえばロボットR1およびR2の動作、人Hを見る、頷く、首を横に振る、首をかしげるなどの、非言語動作を指示するスクリプトデータである。このようなスクリプトデータには、さらに、人Hの意思(明示的または非明示的)を確認するフェーズ(意思確認フェーズ)であることを示す記述が必要に応じて追加されている。 Further, the memory 20d and the input device 20e are connected to the CPU 20a via the internal bus 20b. The memory 20d includes a ROM and a RAM. A script (dialog) is read from the dialog database 22 through the memory I / F 20f, and the script (dialog) is temporarily stored in the memory 20d. However, "dialog" means a series of utterances and non-verbal movement commands that should be made during the dialogue, and the dialog database 22 is a set of dialogs (for example, what is important in dialogue about what you like about bananas and what is important in robot care). Includes a series of instructions for dialogue on each topic, such as dialogue. The "script" is a character string representing the sequence of the command, and the script data is a character string representing the command. Therefore, a series of script data becomes a script. Such a script is transmitted from the dialog queue 23c to the robots R1 and R2 by the group manager 20. However, the script data includes not only linguistic data but also non-linguistic data. The linguistic data is script data instructing the utterances of the robots R1 and R2, and the non-linguistic data is, for example, the movement of the robots R1 and R2, looking at the person H, nodding, shaking the head, bending the head, and the like. Script data that indicates non-linguistic operation. Further, a description indicating that it is a phase (intention confirmation phase) for confirming the intention (explicit or implicit) of the person H is added to such script data as necessary.

また、グループマネージャ20に必要なプログラム(OSやセンサ信号取得プログラムなど)は、メモリ20dに記憶される。グループマネージャ20はメモリ20dに記憶されたプログラムに従って動作する。 Further, a program (OS, sensor signal acquisition program, etc.) required for the group manager 20 is stored in the memory 20d. The group manager 20 operates according to the program stored in the memory 20d.

なお、このグループマネージャ20のCPU20aは、上述のように、各ロボットの動作つまり振舞いを制御するが、その振舞いの履歴は、上述のメモリ20dに蓄積され、必要に応じて、センサマネージャ18に提供する。 As described above, the CPU 20a of the group manager 20 controls the operation, that is, the behavior of each robot, and the history of the behavior is stored in the memory 20d described above and provided to the sensor manager 18 as needed. do.

さらに、図1に示すロボット対話システム10では、人意思処理モジュール23が設けられる。この人意思処理モジュール23は、独立したコンピュータであってもよいが、この実施例では、上述のグループマネージャ20の1つのプログラムとして構成されている。したがって、この人意思処理モジュール23は、CPU20aによって制御される。 Further, in the robot dialogue system 10 shown in FIG. 1, a human intention processing module 23 is provided. The human intention processing module 23 may be an independent computer, but in this embodiment, it is configured as one program of the above-mentioned group manager 20. Therefore, the human intention processing module 23 is controlled by the CPU 20a.

人意思処理モジュール23は、後に図15を参照して詳しく説明するように、センサマネージャ18が、必ずしも人Hの実際の意思の如何にはよらず、認定した人Hの意思、たとえば肯定または否定に応じて、その認定された人Hの意思に対処するためにロボットR1およびR2が発話するためのスクリプトデータ(ダイアログ)をダイアログデータベース22から読み出し、それぞれがメモリ20dの領域であるプール23aに記憶させる(ロードする)。 As will be described in detail later with reference to FIG. 15, the human intention processing module 23 does not necessarily depend on the actual intention of the person H, but the intention of the person H recognized by the sensor manager 18, for example, affirmation or denial. The script data (dialog) for the robots R1 and R2 to speak in order to deal with the intention of the certified person H is read from the dialog database 22 and stored in the pool 23a, which is an area of the memory 20d, respectively. Let (load).

文脈外応答ダイアログプール23bは、文脈すなわち次ダイアログ候補プール23aにロードした将来の一群のダイアログやダイアログキュー23cにロードされ、進行中であるダイアログでは予定していなかった例外的な、すなわち文脈外の人Hの意思表示があったときに対処するために発話しまたは非言語動作を実行すべき一群のスクリプトを記憶しておくための記憶領域である。文脈外の意思表示とは、たとえば、前述の意思表示デバイス17の肯定ボタン17aおよび/または否定ボタン17nを連打する、ロボットが人の意思表示を待つ発話をしたにも拘わらず無視していつまでも意思表示をしない、などが考えられる。 The out-of-context response dialog pool 23b is loaded into the context or future set of dialogs or dialog queues 23c loaded into the next dialog candidate pool 23a, and is an exceptional or out-of-context that was not planned for the ongoing dialog. It is a storage area for storing a group of scripts that should perform an utterance or a non-verbal action in order to deal with the intention of the person H. The out-of-context intention display means, for example, the above-mentioned intention display device 17 that repeatedly hits the affirmative button 17a and / or the negative button 17n, and ignores the intention forever even though the robot makes an utterance waiting for a person's intention display. It is conceivable that it will not be displayed.

ダイアログキュー23cもたとえばメモリ20dの中の一領域であるが、このダイアログキュー23cには、次ダイアログ候補プール23aにロードされているスクリプトデータや、文脈外応答ダイアログプール23bにロードされているスクリプトデータを、次にロボットR1および/またはR2が即座に実行できるように,待ち行列の形でロードすることができる。 The dialog queue 23c is also, for example, an area in the memory 20d, and the dialog data 23c contains script data loaded in the next dialog candidate pool 23a and script data loaded in the out-of-context response dialog pool 23b. Can then be loaded in the form of a queue for immediate execution by robots R1 and / or R2.

スクリプトには、たとえばヘッダとして、それに含まれるスクリプトデータの実行時間(tnext)が書き込まれていて、ダイアログキュー23cでは、その実行時間(tnext)によって常にスクリプトデータがソーティングされ、グループマネージャ20は、実行時間が同じスクリプトデータが同時に実行されるように、各ロボットコントローラ24にスクリプトデータを送る。したがって、たとえば、ロボットR1およびR2が同時に同じ動作、たとえば人Hを見るなどの動作ができるし、同じロボットR1またはR2が、たとえば、発話と同時に他方のロボットまたは人Hを見ることもできる。 For example, the execution time (tnext) of the script data included in the script is written in the script as a header, and in the dialog queue 23c, the script data is always sorted by the execution time (tnext), and the group manager 20 executes the script. The script data is sent to each robot controller 24 so that the script data having the same time can be executed at the same time. Therefore, for example, the robots R1 and R2 can perform the same operation at the same time, for example, looking at the person H, and the same robot R1 or R2 can see the other robot or the person H at the same time as speaking, for example.

図4を参照して、この図4は実施例のロボットRの外観を示し、ロボットRは台30上に、台30に対して、前後左右に回転できるように、設けられる。つまり、胴体32には2自由度が設定されている。 With reference to FIG. 4, FIG. 4 shows the appearance of the robot R of the embodiment, and the robot R is provided on the table 30 so as to be able to rotate back and forth and left and right with respect to the table 30. That is, two degrees of freedom are set for the body 32.

胴体32の人の肩に相当する左右位置からは、それぞれに、肩関節(図示せず)によって、右腕34Rおよび左腕34Lが、前後左右に回転可能に設けられる。つまり、右腕34Rおよび左腕34Lには、それぞれ、2自由度が設定されている。 From the left and right positions corresponding to the shoulders of the person on the torso 32, the right arm 34R and the left arm 34L are rotatably provided back and forth and left and right by shoulder joints (not shown), respectively. That is, two degrees of freedom are set for each of the right arm 34R and the left arm 34L.

胴体32の上端中央部には首36が設けられ、さらにその上には頭部38が設けられる。首36すなわち頭部38は、胴体32に対して、前後左右に回転できるように、取り付けられている。つまり、首36すなわち頭部38には、ロール角(左右の傾げ)、ピッチ角(前後の傾げ)、ヨー角(左右の回転)の3自由度が設定されている。 A neck 36 is provided at the center of the upper end of the body 32, and a head 38 is provided above the neck 36. The neck 36, that is, the head 38 is attached to the body 32 so as to be able to rotate back and forth and left and right. That is, the neck 36, that is, the head 38 is set with three degrees of freedom: a roll angle (tilt left and right), a pitch angle (tilt back and forth), and a yaw angle (rotation left and right).

頭部38の前面すなわち人間の顔に相当する面には、右目40Rおよび左目40Lが設けられ、右目40Rおよび左目40Lには眼球42Rおよび42Lが設けられる。右目40Rおよび左目40Lは、まぶたを閉じたり開いたりでき、眼球42Rおよび42Lはそれぞれ上下左右に回転可能である。つまり、右目40Rおよび左目40Lすなわちまぶたには1自由度が、眼球42Rおよび42Lには2自由度が設定されている。 The right eye 40R and the left eye 40L are provided on the front surface of the head 38, that is, the surface corresponding to the human face, and the eyeballs 42R and 42L are provided on the right eye 40R and the left eye 40L. The right eye 40R and the left eye 40L can close and open the eyelids, and the eyeballs 42R and 42L can rotate up, down, left and right, respectively. That is, one degree of freedom is set for the right eye 40R and the left eye 40L, that is, the eyelid, and two degrees of freedom are set for the eyeballs 42R and 42L.

顔にはさらに、口44が設けられていて、口44は、閉じたり開いたりできる。つまり、口44には1自由度が設定されている。 The face is further provided with a mouth 44, which can be closed and opened. That is, one degree of freedom is set in the mouth 44.

胴体32の、人間の胸の位置には、対話システム10において人Hに聞かせるための発話を行うスピーカ46および環境特に人Hの発話音声を聞き取るマイク48が設けられる。 At the position of the human chest on the body 32, a speaker 46 for making an utterance to be heard by the person H in the dialogue system 10 and a microphone 48 for listening to the utterance voice of the environment, particularly the person H, are provided.

なお、頭部38の顔の額に相当する部分には動画または静止画を撮影できるカメラ50が内蔵される。このカメラ50は、対面する人Hを撮影でき、このカメラ50からのカメラ信号(映像信号)は、環境カメラ16(図1)と同様に、センサマネージャ18のセンサI/Fを介してCPU18aに、入力されてもよい。 A camera 50 capable of shooting a moving image or a still image is built in a portion of the head 38 corresponding to the forehead of the face. The camera 50 can shoot a person H facing the other, and the camera signal (video signal) from the camera 50 is sent to the CPU 18a via the sensor I / F of the sensor manager 18 as in the environment camera 16 (FIG. 1). , May be entered.

図5はロボットRに内蔵されてロボットRの動作(発話やジェスチャなど)を制御するロボットコントローラ24を示すブロック図である。この図5を参照して、ロボットコントローラ24は、CPU24aを含み、CPU24aには、内部バス24bを介して通信装置24cが接続される。通信装置24cは、たとえばネットワークインタフェース(NIC)などを含み、CPU24aはこの通信装置24cを介してセンサマネージャ18、グループマネージャ20、さらには外部のコンピュータや他のロボット(ともに図示せず)などと通信でき、それらの間でデータの授受を行うことができる。 FIG. 5 is a block diagram showing a robot controller 24 that is built in the robot R and controls the operation (utterance, gesture, etc.) of the robot R. With reference to FIG. 5, the robot controller 24 includes a CPU 24a, and a communication device 24c is connected to the CPU 24a via an internal bus 24b. The communication device 24c includes, for example, a network interface (NIC), and the CPU 24a communicates with the sensor manager 18, the group manager 20, an external computer, another robot (both not shown), and the like via the communication device 24c. You can exchange data between them.

CPU24aにはさらに、内部バス24bを介して、メモリ24dが接続される。メモリ24dはROMやRAMを含む。グループマネージャ20から送られる制御データやスクリプトデータがメモリ24dに一時的に記憶される。 Further, the memory 24d is connected to the CPU 24a via the internal bus 24b. The memory 24d includes a ROM and a RAM. The control data and script data sent from the group manager 20 are temporarily stored in the memory 24d.

また、ロボット制御に必要なプログラム(OSやセンサ信号取得プログラムなど)は、メモリ24dに記憶される。ロボットコントローラ24はメモリ24dに記憶されたプログラムに従ってロボットRの動作を制御する。 Further, a program (OS, sensor signal acquisition program, etc.) required for robot control is stored in the memory 24d. The robot controller 24 controls the operation of the robot R according to the program stored in the memory 24d.

つまり、ロボットコントローラ24のCPU24aにはさらに、たとえばDSPで構成されたアクチュエータ制御ボード24eが接続され、このアクチュエータ制御ボード24eは、以下に説明するように、ロボットRの上述の各部に設けられたアクチュエータの動作を制御する。 That is, an actuator control board 24e configured by, for example, a DSP is further connected to the CPU 24a of the robot controller 24, and the actuator control board 24e is provided in each of the above-mentioned parts of the robot R as described below. Controls the operation of.

胴体32の2自由度の動き、すなわち前後左右の回転は、アクチュエータ制御ボード24eを通してCPU24aが胴体アクチュエータ52を制御するとこによって制御される。 The movement of the fuselage 32 with two degrees of freedom, that is, the rotation in the front-back and left-right directions is controlled by the CPU 24a controlling the fuselage actuator 52 through the actuator control board 24e.

右腕34Rおよび左腕34Lの2自由度の動き、すなわち前後左右の回転は、アクチュエータ制御ボード24eを通してCPU24aが腕アクチュエータ54を制御することによって制御される。 The movement of the right arm 34R and the left arm 34L in two degrees of freedom, that is, the rotation in the front-back and left-right directions is controlled by the CPU 24a controlling the arm actuator 54 through the actuator control board 24e.

首36すなわち頭部38の3自由度の動き、すなわち前後左右の回転は、アクチュエータ制御ボード24eを通してCPU24aが頭部アクチュエータ56によって制御される。 The movement of the neck 36, that is, the head 38 with three degrees of freedom, that is, the rotation of the front, back, left, and right is controlled by the head actuator 56 through the actuator control board 24e.

右目40Rおよび左目40Lすなわちまぶたの開閉動作は、アクチュエータ制御ボード24eを通してCPU24aがまぶたアクチュエータ58を制御することによって制御される。眼球42Rおよび眼球42Lの2自由度の動きすなわち前後左右の回転は、アクチュエータ制御ボード24eを通してCPU24aが眼球アクチュエータ60を制御することによって制御される。口44の開閉動作は、アクチュエータ制御ボード24eを通してCPU24aが口アクチュエータ62を制御することによって制御される。 The right eye 40R and the left eye 40L, that is, the eyelid opening / closing operation, are controlled by the CPU 24a controlling the eyelid actuator 58 through the actuator control board 24e. The movement of the eyeball 42R and the eyeball 42L in two degrees of freedom, that is, the rotation in the front-back and left-right directions is controlled by the CPU 24a controlling the eyeball actuator 60 through the actuator control board 24e. The opening / closing operation of the mouth 44 is controlled by the CPU 24a controlling the mouth actuator 62 through the actuator control board 24e.

なお、図4に示すロボットRのスピーカ46がロボットコントローラ24のCPU24aに接続される。CPU24aは、グループマネージャ20から与えられ、必要に応じてメモリ24dに記憶されたスクリプトデータに従って、スピーカ46から発声(発話)させる。 The speaker 46 of the robot R shown in FIG. 4 is connected to the CPU 24a of the robot controller 24. The CPU 24a is given by the group manager 20 and, if necessary, utters (utters) from the speaker 46 according to the script data stored in the memory 24d.

このようなロボットコントローラ24によって、ロボットRの頭や腕は、対話システム10において必要なとき、たとえばスクリプトで非言語動作が要求されているとき、必要な動きをするが、以下の説明では、各アクチュエータなどの具体的な制御は、上述の説明から容易に推測できるので、必ずしも説明しない。 With such a robot controller 24, the head and arms of the robot R make necessary movements when necessary in the dialogue system 10, for example, when a non-verbal movement is required by a script. Specific control of the actuator and the like can be easily inferred from the above description, and is not necessarily described.

図1に示すように、それぞれのロボットR1およびR2には、ロボットコントローラ24と同様に内蔵したロボットセンサ26が設けられる。ロボットセンサ26は、ロボットR1およびR2のそれぞれの可動コンポーネントの状態を検知するための姿勢センサや加速度センサなどを含み、それらのセンサからのセンサ信号は、センサマネージャ18に入力される。したがって、センサマネージャ18は、ロボットセンサ26からのセンサ信号に基づいて、ロボットR1およびR2の状態をセンシングすることができる。 As shown in FIG. 1, each robot R1 and R2 is provided with a built-in robot sensor 26 similar to the robot controller 24. The robot sensor 26 includes an attitude sensor, an acceleration sensor, and the like for detecting the state of each movable component of the robots R1 and R2, and sensor signals from those sensors are input to the sensor manager 18. Therefore, the sensor manager 18 can sense the states of the robots R1 and R2 based on the sensor signal from the robot sensor 26.

なお、図4に示すロボットRのマイク48やカメラ50がロボットセンサ26を介してセンサマネージャ18に入力される。センサマネージャ18は、マイク48から取り込んだ音声データをメモリ18d(図2)に記憶し、必要に応じて、音声認識処理を実行する。センサマネージャ18はまた、カメラ50からのカメラ信号を処理して、対話場所12の状況をセンシングする。 The microphone 48 and the camera 50 of the robot R shown in FIG. 4 are input to the sensor manager 18 via the robot sensor 26. The sensor manager 18 stores the voice data captured from the microphone 48 in the memory 18d (FIG. 2), and executes the voice recognition process as needed. The sensor manager 18 also processes the camera signal from the camera 50 to sense the situation at the dialogue location 12.

なお、センサマネージャ18は、図1の実施例では1つだけが図示されているが、2つ以上の任意数のセンサマネージャが設けられてもよく、その場合には、各センサマネージャはセンシング項目を分担することができる。 Although only one sensor manager 18 is shown in the embodiment of FIG. 1, two or more sensor managers may be provided, and in that case, each sensor manager is a sensing item. Can be shared.

同様に、必要なら、2以上のグループマネージャ20を用いるようにしてもよいし、逆にセンサマネージャ18およびグループマネージャ20を1台のコンピュータで実現するようにしてもよい。 Similarly, if necessary, two or more group managers 20 may be used, and conversely, the sensor manager 18 and the group manager 20 may be realized by one computer.

また、図1実施例の対話システム10に用いられるロボットRは図4を参照して上で説明したロボットに限定されるものではなく、少なくともスクリプトに従って発話できる機能があればよい。 Further, the robot R used in the dialogue system 10 of the embodiment of FIG. 1 is not limited to the robot described above with reference to FIG. 4, and may have at least a function of speaking according to a script.

図6は、ロボットRがそれに従って対話するスクリプトの一例を示す概略図である。このスクリプトでは、まず、ロボットRどうしが対話する部分(時間帯)と、ロボットRが人Hに対して問いかけ(質問や同意の要求)をする部分(時間帯)を明確に区別する。そのためのフラグが、実施例では、「質問フラグFah(FLAG_ASK_HUMAN)」である。 FIG. 6 is a schematic diagram showing an example of a script in which the robot R interacts accordingly. In this script, first, the part where the robots R interact with each other (time zone) and the part where the robot R asks the person H (question or request for consent) (time zone) are clearly distinguished. In the embodiment, the flag for that purpose is "question flag Fah (FLAG_ASK_HUMAN)".

質問フラグFahがリセットされているとき、つまり、「Fah=1」でないときは、ロボットRどうしが、スクリプトデータによって予め決められた発話文をスピーカ46(図4、図5)から出力して、参加者である、人Hにその対話内容を聞かせる。質問フラグFahがセットされているとき、つまり、「Fah=1」のときは、ロボットRが、スクリプトデータによって予め決められた発話文をスピーカ46(図4、図5)から出力して、参加者である、人Hに対して発話する。 When the question flag Fah is reset, that is, when "Fah = 1" is not set, the robots R output the utterance sentence predetermined by the script data from the speaker 46 (FIGS. 4 and 5). Let person H, who is a participant, hear the content of the dialogue. When the question flag Fah is set, that is, when "Fah = 1", the robot R outputs an utterance sentence predetermined by the script data from the speaker 46 (FIGS. 4 and 5) and participates. Speak to person H, who is a person.

図6の例では、上段のパート(A) と下段のパート(C) がそのロボットどうしの対話を行うためのスクリプトデータであり、中段のパート(B) がロボットRから人Hに問いかけを行うためのスクリプトデータである。 In the example of FIG. 6, the upper part (A) and the lower part (C) are script data for dialogue between the robots, and the middle part (B) asks the person H from the robot R. Script data for.

パート(A)のスクリプトの第1行(a1)、第2行(a2)、第3行(a3)では、「tnext=XX」が定義されていて、ここでは「XX1」、「XX2」、「XX3」は、それぞれのスクリプトデータを実行すべき時間または時刻を規定する。「RR」は、ロボットからロボットへ発話することを記述していて、それに後続する「SPEAKER=R1(R2)」「LISTNERR=R2(R1)」は、そのときの発話者が第1ロボットR1(または第2ロボットR2)であり、聴取者が第2ロボットR2(または第1ロボットR1)であると定義している。 In the first line (a1), second line (a2), and third line (a3) of the script of the part (A), "tnext = XX" is defined, and here "XX1", "XX2", "XX3" specifies the time or time when each script data should be executed. "RR" describes speaking from robot to robot, and subsequent "SPEAKER = R1 (R2)" and "LISTNERR = R2 (R1)" are the speakers of the first robot R1 ( Alternatively, it is the second robot R2), and the listener is defined as the second robot R2 (or the first robot R1).

スクリプトデータ中の「TEXT」に後続する記述が、そのときロボットが発話すべき発話文である。そして、「NONVERBAL」に後続する記述は、第1ロボットR1および/または第2ロボットR2が行うべき非言語動作たとえば相手のロボットを見るとか、人Hを見るとかなどを規定する。 The description following "TEXT" in the script data is the utterance sentence that the robot should speak at that time. The description following "NONVERBAL" defines a non-verbal operation to be performed by the first robot R1 and / or the second robot R2, such as looking at the other robot or looking at the person H.

パート(B)では、質問フラグFahがセットされている、つまり、「Fah=1」なので、2台のロボットR1およびR2のいずれか一方、この例では第1ロボットR1から、人Hに対して、問いかけの発話文が出力される。したがって、第1行(b1)では、時間を規定する記述「tnext=XX4」に続いて、第1ロボットR1が人に対して発話することを示す「RH: SPEAKER=R1, LISTNER=H」が記述される。「TEXT」、「NONVERBAL」については上述のとおりである。 In part (B), the question flag Fah is set, that is, "Fah = 1", so either one of the two robots R1 and R2, in this example, from the first robot R1 to the person H. , The utterance of the question is output. Therefore, in the first line (b1), following the description "tnext = XX4" that defines the time, "RH: SPEAKER = R1, LISTNER = H" indicating that the first robot R1 speaks to a person is added. Will be described. "TEXT" and "NONVERBAL" are as described above.

パート(B)の第1行(b1)の下に、条件1、条件2、条件3のスクリプトデータがあるが、これらは、第1行(b1)でしたロボットRからの問いかけに対して人Hが発話したとき、次にロボットが発話する内容(返答)が条件に応じて変化することを規定している。 Under the first line (b1) of the part (B), there are script data of condition 1, condition 2, and condition 3, but these are humans in response to the question from the robot R in the first line (b1). It stipulates that when H speaks, the content (reply) spoken by the robot next changes according to the conditions.

条件1は、人Hからの発話についてロボットどうしがたとえば「面白いね」などと会話するスクリプトデータであり、そのために、時間を規定する記述「tnext=XX5」に続いて、第2ロボットR2が第1ロボットR1に対して発話することを示す「RR: SPEAKER=R2, LISTNER=R1」が記述される。 Condition 1 is script data in which robots talk to each other about an utterance from a person H, for example, "it is interesting". Therefore, following the description "tnext = XX5" that defines the time, the second robot R2 is the second. 1 “RR: SPEAKER = R2, LISTNER = R1” indicating that the robot speaks to R1 is described.

条件2および条件3は、いずれも、人Hの発話に対してロボットが反応するという設定で、いずれも、時間を規定する記述「T=XX5」に続いて、第2ロボットR2または第1ロボットR1が人に対して発話することを示す「RH: SPEAKER=R2, LISTNER=H」または「RH: SPEAKER=R1, LISTNER=H」が記述されている。 Condition 2 and condition 3 are both settings in which the robot reacts to the utterance of the person H, and both of them follow the description "T = XX5" that defines the time, and then the second robot R2 or the first robot. "RH: SPEAKER = R2, LISTNER = H" or "RH: SPEAKER = R1, LISTNER = H" indicating that R1 speaks to a person is described.

これら条件2または条件3の発話文は、センサマネージャ18がマイク14からの音声を音声認識し、その音声認識の結果に応じて、グループマネージャ20によって決められるが、発話文の内容については、スクリプトデータとして予め定義されている。たとえば、第1行(b1)での「あなたは何が好きですか?」というロボットからの問いかけ文に対して、人Hが「僕は○○が好きです。」と発話したとき、ロボットからは「○○はいいですね」とか「僕は○○より△△がすきだよ。」とか返答する。いずれも、人Hの発話に含まれていた「○○」をセンサマネージャ18が認識した結果の発話である。そのため、条件2および条件3のいずれでも、「○○」を除いた発話文を予め規定しておく。 The utterance sentence of the condition 2 or the condition 3 is determined by the group manager 20 according to the voice recognition of the voice from the microphone 14 by the sensor manager 18 and the result of the voice recognition. The content of the utterance sentence is a script. Predefined as data. For example, when person H utters "I like XX" in response to the question from the robot "What do you like?" In the first line (b1), the robot says. Replies, "I like XX," or "I like △△ more than XX." In each case, the utterance is the result of the sensor manager 18 recognizing "○○" included in the utterance of the person H. Therefore, in both condition 2 and condition 3, the utterance sentence excluding "○○" is specified in advance.

パート(C)は、パート(A)と同様に、質問フラグFahがリセットされている、つまり、「Fah=1」ではないので、ロボットどうしが会話するパートであるが、基本的にパート(B)での人Hからの発話とは無関係に進行する。スクリプトデータの内容は、パート(A)において説明した通りであるので、ここでは重複する説明はしない。 Like part (A), part (C) is a part where robots talk to each other because the question flag Fah is reset, that is, it is not "Fah = 1", but basically part (B). ) Progresses independently of the speech from person H. Since the content of the script data is as explained in Part (A), no duplicate explanation is given here.

なお、図6の実施例における発話タイミングを決める時間ないし時刻tnextは、たとえば人Hからの発話割り込み(インタラプト)があった場合など、センサマネージャ18の指示に基づいてグループマネージャ20が更新する(ずらす)必要があるかもしれない。たとえば、センサマネージャ18が発話タイミングの更新の要否を示すフラグ(図示せず)を管理していて、グループマネージャ20はそのフラグがセットされたとき(「1」のとき)、Tを書き換えるようにすればよい。 The time or time tnext that determines the utterance timing in the embodiment of FIG. 6 is updated (shifted) by the group manager 20 based on the instruction of the sensor manager 18, for example, when there is an utterance interruption (interrupt) from the person H. ) May be necessary. For example, the sensor manager 18 manages a flag (not shown) indicating the necessity of updating the utterance timing, and the group manager 20 rewrites T when the flag is set (when the flag is "1"). It should be.

図1のロボット対話システム10では、対話場所12の2台のロボットR1およびR2は、図6において例示したようなスクリプトに従って対話を進行するが、これらのロボットR1およびR2の発話を統括的に制御するのが、グループマネージャ20である。 In the robot dialogue system 10 of FIG. 1, the two robots R1 and R2 of the dialogue place 12 proceed with the dialogue according to the script as illustrated in FIG. 6, and control the utterances of these robots R1 and R2 in an integrated manner. It is the group manager 20 that does.

図7に示すフロー図は、そのグループマネージャ20のCPU20a(図3)の動作を示す。この図7の動作は、たとえばフレームレート程度の速度で繰り返し実行される。 The flow chart shown in FIG. 7 shows the operation of the CPU 20a (FIG. 3) of the group manager 20. The operation of FIG. 7 is repeatedly executed at a speed of, for example, a frame rate.

最初のステップS1でCPU20aは、ダイアログデータベース22(図1)からたとえば図6に例示したようなスクリプトデータを読み込むなど、初期化を実行する。 In the first step S1, the CPU 20a executes initialization, for example, reading script data as illustrated in FIG. 6 from the dialog database 22 (FIG. 1).

続くステップS2においてCPU20aは、センサマネージャ18(図1、図3)から送られるセンサデータを更新する。 In the following step S2, the CPU 20a updates the sensor data sent from the sensor manager 18 (FIGS. 1 and 3).

センサマネージャ18では、図1に示すマイク14やカメラ16などのセンサからのセンサ信号に基づいて、非言語パラメータ「NONVERBAL_PARAMETERS」、たとえば人の「目が落ち着かない」、「あくびをした」などの状態を、センシングする。さらに、前述のように、センサマネージャ18は、人の意思を示す信号も意思表示デバイス17から受け取って、人がそのどのような意思を表明したか認定できる。 In the sensor manager 18, based on the sensor signals from the sensors such as the microphone 14 and the camera 16 shown in FIG. 1, the non-verbal parameter "NONVERBAL_PARAMETERS", for example, a person's "eyes are restless" or "yawned". , Sensing. Further, as described above, the sensor manager 18 can also receive a signal indicating a person's intention from the intention display device 17 and certify what kind of intention the person has expressed.

さらに、センサマネージャ18では、同じくセンサ信号に基づいて、「人の声があるか」、「(誰かが)話し中か」、「言語によってインタラプトされているか」あるいは「ロボットが非言語的に応答すべき振舞を人が生成しているか」などをセンシングする。 Further, in the sensor manager 18, based on the sensor signal as well, "is there a human voice", "is (someone) busy", "is it interrupted by language", or "is the robot responding non-verbally?" Is the person generating the behavior that should be done? "

また、ロボットの振舞い、の、詳細なパラメータを決定するために必要な情報(たとえば、人Hを見る場合だと、人の位置、人に対して頷く場合だと人の発話の抑揚や終了点)をセンシングする必要がある。 In addition, the information necessary to determine the detailed parameters of the behavior of the robot (for example, when looking at the person H, the position of the person, and when nodding to the person, the intonation or the end point of the person's utterance. ) Needs to be sensed.

さらに、個々のロボットがどのように振舞ったか、たとえば「話す、「待つ」、「聞く」、「陪席する」などのいずれを実行したかをセンシングする必要があるが、これらのロボットの振舞いは、ロボットの振舞いの履歴を管理するソフトウェアからの入力(たとえば、グループマネージャ20から)によってセンシングすることができる。 In addition, it is necessary to sense how individual robots behaved, such as "speaking," waiting "," listening "," sitting ", etc., but the behavior of these robots is It can be sensed by input from software that manages the history of robot behavior (for example, from group manager 20).

ステップS2ではこのようなセンサマネージャ18からのセンシングの結果データ(センシングデータ)を更新する。 In step S2, the sensing result data (sensing data) from the sensor manager 18 is updated.

次のステップS3で、CPU20aは、ダイアログキュー23cが更新されたかどうか判断する。ステップS3で“NO”の場合、ステップS5に進む。“YES”の場合、ステップS4で現在時間(t)を「0」にセットするとともに、実行時間(tnext)を「-1」にセットする。 In the next step S3, the CPU 20a determines whether the dialog queue 23c has been updated. If "NO" in step S3, the process proceeds to step S5. If “YES”, the current time (t) is set to “0” and the execution time (tnext) is set to “-1” in step S4.

ステップS3で“NO”を判断したとき、次のステップS5では、ステップS2で更新したセンシングデータに基づいて、グループマネージャ20のCPU20aは、人Hの発話による割り込みがあったかどうか、判断する。 When "NO" is determined in step S3, in the next step S5, the CPU 20a of the group manager 20 determines whether or not there has been an interrupt due to the speech of the person H, based on the sensing data updated in step S2.

このステップS5で“YES”を判断したとき、CPU20aは、次のステップS7において、発話回復フラグIS_RECOVER= Frcがセットされているかどうか、つまりFrc=1かどうか判断する。ここで“YES”ということは、ステップS5で検出した人の発話による発話衝突から復帰したことを意味し、ロボットRが何か発話を挿入する必要があるということである。したがって、ステップS9において、ステップS1で読み出した人Hの発話による割り込みによるダイアログ中断状態から復帰するための復帰フェーズ用のスクリプトデータをロードし、ステップS11で、ロボットRすなわちロボットコントローラ24にブロードキャストする。したがって、その後ロボットRがその復帰フェーズ用のスクリプトデータに従って発話することになる。 When "YES" is determined in this step S5, the CPU 20a determines whether or not the utterance recovery flag IS_RECOVER = Frc is set in the next step S7, that is, whether or not Frc = 1. Here, "YES" means that the robot R has recovered from the utterance collision caused by the utterance of the person detected in step S5, and the robot R needs to insert some utterance. Therefore, in step S9, the script data for the return phase for returning from the dialog interruption state due to the interruption due to the utterance of the person H read in step S1 is loaded, and in step S11, the script data is broadcast to the robot R, that is, the robot controller 24. Therefore, after that, the robot R speaks according to the script data for the return phase.

ただし、このステップS9(後述のステップS17およびS19でも同様)でロードするスクリプトデータは、図6で説明したように、発話者はだれか「ID_SPEAKER」、聴取者はだれか「ID_LISTNER」、陪席者(参加者)はだれか「ID_BYSTANDER」、発話時間「ONSET_TIME_SPEECH」、非言語動作「NONVERBAL_PARAMETERS」などの情報を含む。 However, as described in FIG. 6, the script data to be loaded in this step S9 (the same applies to steps S17 and S19 described later) is "ID_SPEAKER" for the speaker, "ID_LISTNER" for the listener, and the attendant (participation). Person) includes information such as "ID_BYSTANDER", speech time "ONSET_TIME_SPEECH", and non-verbal operation "NONVERBAL_PARAMETERS".

たとえば、人の発話割り込みに対して、第1ロボットR1から人に対して「そっか」を発話したり、第2ロボットR2から第1のロボットに「それで?」と発話したり、第1ロボットR1から第2ロボットR2に「そうそう、(スクリプトで決まっている次の発話)」と発話したりする。つまり、人の発話割り込みに対して、軽く返事をする程度の発話を挿入する。人の発話は無視されているわけではないが、その発話に対してロボットはその発話内容に対して正確に応答する返事をするのではなく、スクリプトで決められた返事を返すだけである。 For example, in response to a human speech interruption, the first robot R1 speaks "Sorry" to a person, the second robot R2 speaks "So?" To the first robot, or the first robot. From R1 to the second robot R2, "Oh yeah (the next utterance determined by the script)" is spoken. In other words, an utterance that responds lightly to a person's utterance interruption is inserted. Human utterances are not ignored, but the robot does not respond exactly to the utterance, but only the response determined by the script.

そして、ステップS11の後、ステップS2に戻る。 Then, after step S11, the process returns to step S2.

ステップS13で“YES”なら、つまり、スクリプトで予め決めた次の発話時間になったと判断したとき、CPU20aは、ステップS15で、前述の質問フラグFahがセットされているかどうか、つまり、人Hに対して問いかけ文を発話するかどうか判断する。 If "YES" in step S13, that is, when it is determined that the next utterance time predetermined by the script has come, the CPU 20a determines in step S15 whether or not the above-mentioned question flag Fah is set, that is, to the person H. Judge whether to speak a question to the question.

ステップS15で“YES”なら、ステップS17において、ダイアログキュー23cにストアされている、問いかけフェーズ用スクリプトデータを先頭からロードし、ステップS11でそれをブロードキャストする。
つまり、人の返答は無視されているわけではない。
If "YES" in step S15, the question phase script data stored in the dialog queue 23c is loaded from the beginning in step S17, and it is broadcast in step S11.
In other words, human responses are not ignored.

そして、ステップS15において“NO”が判断されると、つまり、人に対する問いかけを発話するときではないと判断したとき、CPU20aは、次のステップS19で問いかけ用ではないスクリプトデータ(非問いかけ用スクリプトデータ)をロードする。 Then, when "NO" is determined in step S15, that is, when it is determined that it is not the time to utter a question to a person, the CPU 20a determines script data (non-questioning script data) that is not for questioning in the next step S19. ) Is loaded.

ステップS21で、CPU20aは、スクリプトがまだ残っているかどうか判断する。つまり、対話フラグIS_CONVERSATIONがリセットされているかどうか判断する。“YES”のときは、ステップS11に進むが、“NO”の場合には、ステップS23でその旨ブロードキャストし、ステップS25で終了処理をして、このルーチンが終わる。 In step S21, the CPU 20a determines whether the script still remains. That is, it determines whether the dialogue flag IS_CONVERSATION has been reset. If "YES", the process proceeds to step S11, but if "NO", a broadcast to that effect is performed in step S23, termination processing is performed in step S25, and this routine ends.

ロボットR1およびR2は、いずれも、図8のフロー図に従って、ロボットコントローラ24によって制御される。この図8のルーチンも、図7のルーチンと同様に、たとえばフレームレートで繰り返し実行される。 Both the robots R1 and R2 are controlled by the robot controller 24 according to the flow chart of FIG. The routine of FIG. 8 is also repeatedly executed, for example, at a frame rate, like the routine of FIG.

ステップS31では、ロボットコントローラ24のCPU24aは、初期化を実行し、次のステップS33において、センサマネージャ18から受け取ってグループマネージャ20から図7に示すようにブロードキャストされたフラグまたはデータ「IS_CONVERSATION(まだ対話する)」、「IS_ONSPEECH(誰が発話している)」、「CAN_BE_RECOVERED(発話衝突から回したか)」、「IS_INTERRUPTED_VERBAL(言語によるインタラプトがあるか)」、「IS_INTERRUPTED_NONVERBAL(非言語によるインタラプトがあるか)」、「ID_SPEAKER(誰が発話する)」、「ID_LISTNER(誰が聞く)」、「ID_BYSTANDER(誰が陪席者か)」、「SPEECH_TEXT(発話文)」、「ONSET_TIME_SPEECH(発話時間)」、「NONVERBAL_PARAMETERS(非言語パラメータ:いつ誰に視線を向けるか、頷くか、などの非言語動作を規定するパラメータ)」を受ける。 In step S31, the CPU 24a of the robot controller 24 performs initialization, and in the next step S33, the flag or data “IS_CONVERSATION” received from the sensor manager 18 and broadcast from the group manager 20 as shown in FIG. ”,“ IS_ONSPEECH (who is speaking) ”,“ CAN_BE_RECOVERED (whether it was turned from an utterance collision) ”,“ IS_INTERRUPTED_VERBAL (is there an interrupt by language) ”,“ IS_INTERRUPTED_NONVERBAL (is there an interrupt by non-language)) , "ID_SPEAKER", "ID_LISTNER", "ID_BYSTANDER", "SPEECH_TEXT", "ONSET_TIME_SPEECH", "NONVERBAL_PARAMETERS" Parameters: Parameters that specify non-verbal movements such as when and who to look at, nod, etc.) ”.

そして、ステップS34において、CPU24aは、データ「IS_CONVERSATION」を参照して、対話がまだ継続するのかどうか判断する。“YES”なら、次のステップS35において、ロボットコントローラ24のCPU24aは、ステップS33で受信したグループマネージャ20からブロードキャストされたデータに非言語動作のスクリプトデータがあるかどうか判断する。そして、ステップS35で“YES”と判断したら、CPU24aは、次のステップS36において、その非言語動作の指令を実行するように、該当のロボットR1および/またはR2のアクチュエータ制御ボード24eに動作命令を与える。したがって、ロボットR1および/またはR2がブロードキャストされた非言語動作を実行する。 Then, in step S34, the CPU 24a refers to the data "IS_CONVERSATION" and determines whether or not the dialogue is still continued. If "YES", in the next step S35, the CPU 24a of the robot controller 24 determines whether or not the data broadcast from the group manager 20 received in step S33 includes script data for non-language operation. Then, if "YES" is determined in step S35, the CPU 24a issues an operation command to the actuator control board 24e of the corresponding robot R1 and / or R2 so as to execute the non-verbal operation command in the next step S36. give. Therefore, robots R1 and / or R2 perform broadcast non-verbal movements.

そして、先のステップS35で“NO”なら、次のステップS37で、データ「IS_ONSPEECH」を参照して、誰かが発話しているかどうか判断する。“YES”なら、ステップS39で、そのときの話し手は、自分(が制御するロボット)かどうか判断する。つまり、データ「ID_SPEAKER」を参照して、自分が発話中かどうか判断する。 Then, if "NO" in the previous step S35, in the next step S37, the data "IS_ONSPEECH" is referred to to determine whether or not someone is speaking. If "YES", in step S39, the speaker at that time determines whether or not he / she is (the robot controlled by). In other words, refer to the data "ID_SPEAKER" to determine if you are speaking.

自分(が制御するロボット)が発話中であれば、ステップS39で“YES”となり、ステップS41に進む。ステップS41では、CPU24aは、言語によるインタラプト(発話遮断)があるかどうか、データ「IS_INTERRUPTED_VERBAL」を参照して判断する。ステップS41で“YES”なら、言語によるインタラプトがあるということなので、次のステップS43で、CPU24aは、データ「CAN_BE_RECOVERED」を参照して、発話を再開してもよいかどうか判断する。 If you (the robot controlled by) are speaking, the result is "YES" in step S39, and the process proceeds to step S41. In step S41, the CPU 24a determines whether or not there is an interrupt (utterance cutoff) by the language with reference to the data “IS_INTERRUPTED_VERBAL”. If "YES" in step S41, it means that there is an interaction by language. Therefore, in the next step S43, the CPU 24a refers to the data "CAN_BE_RECOVERED" and determines whether or not the utterance may be resumed.

ステップS43で“YES”なら、ステップS46でロボットに発話を再開させるが、“NO”なら、ステップS46で、ロボットに発話させないで、待たせる。 If "YES" in step S43, the robot is made to resume utterance in step S46, but if "NO", the robot is made to wait without making utterance in step S46.

ステップS41で“NO”が判断されると、すなわち、言語によるインタラプトがないとき、CPU24aは、ステップS47において、非言語動作でインタラプトされたかどうか判断する。たとえば、人が不規則な非言語動作、たとえば人Hが大きく動いたりしていないかどうか判断する。 When "NO" is determined in step S41, that is, when there is no language interaction, the CPU 24a determines in step S47 whether or not it was interrupted by non-language operation. For example, it is determined whether or not the person has irregular non-verbal movements, for example, the person H does not move significantly.

「人Hが不規則な非言語動作をしている、あるいはロボットの話に対して頷きなどの傾聴動作を示しているなど、ロボットが非言語的応答を生成しながら発話すべきと判断したときは、ステップS47で“YES”となるので、続くステップS48で、CPU24aは、それが制御しているロボットR1またはR2に対して、データ「NONVERBAL_PARAMETERS」に基づく非言語動作によって応答させる。ステップS47で“NO”のとき、CPU24aによる処理は、ステップS33に戻る。 "When the robot decides that it should speak while generating a nonverbal response, such as when the person H is performing irregular nonverbal movements or is showing a listening movement such as nodding to the robot's talk. Is "YES" in step S47, and in the following step S48, the CPU 24a causes the robot R1 or R2 controlled by the CPU 24a to respond by a non-verbal operation based on the data "NONVERBAL_PARAMETERS". When "NO" in step S47, the process by the CPU 24a returns to step S33.

ステップS39で“NO”のとき、つまり、自分(が制御するロボット)が発話指示されていないときには、データ「ID_LISTNER」を参照して、自分が聞き手として指定されているかどうか判断する。 When "NO" in step S39, that is, when oneself (the robot controlled by the robot) is not instructed to speak, the data "ID_LISTNER" is referred to to determine whether or not oneself is designated as a listener.

ステップS49で“YES”なら、ステップS51で、CPU24aは、それが制御しているロボットRが聞き手になるように制御する。 If "YES" in step S49, the CPU 24a controls the robot R controlled by the CPU 24a so that it becomes a listener in step S51.

ステップS49で“NO”なら、データ「ID_BYSTANDER」がロボットR1またはR2が陪席者となることを指示しているので、ロボットコントローラ24すなわちCPU24aは、ロボットR1またはR2に対して、陪席者としての動作を行わせる。 If "NO" in step S49, the data "ID_BYSTANDER" indicates that the robot R1 or R2 is a seated person, so that the robot controller 24, that is, the CPU 24a operates as a seated person with respect to the robot R1 or R2. To do.

ステップS37で“NO”を判断したとき、つまり、誰も発話中ではないとき、ステップS55で、CPU24aは、データ「ID_SPEAKER」を参照して自分が話し手か判断する。“YES”なら、自分が制御しているロボットR1またはR2が、ステップS57において、発話文TEXTの内容に従って発話するように、制御する。 When "NO" is determined in step S37, that is, when no one is speaking, in step S55, the CPU 24a determines whether or not the speaker is the speaker by referring to the data "ID_SPEAKER". If "YES", the robot R1 or R2 controlled by the robot is controlled to speak according to the content of the utterance sentence TEXT in step S57.

ステップS55で“NO”なら、当該ロボットは発話者でもなく、聴取者でもないのであるから、CPU24aは、自分のロボットがステップS59で陪席者として動作するように、制御する。 If "NO" in step S55, the robot is neither a speaker nor a listener. Therefore, the CPU 24a controls the robot to operate as a seater in step S59.

ステップS34で“NO”なら、ステップS61で終了処理を実行した後このルーチンを終了する。 If "NO" in step S34, this routine is terminated after the termination process is executed in step S61.

このように、ロボットRはいずれも、グループマネージャ18からブロードキャストされたスクリプトにおいて決められているタイミングで、スクリプトにおいて決められた内容を発話するだけで、自発的な発話はしない。 As described above, all of the robots R only utter the contents determined in the script at the timing determined in the script broadcasted from the group manager 18, and do not utter spontaneously.

他方、人Hからの発話をロボットRは解釈しない。人Hから発話があっても、ロボットRは相槌を打つだけで、その人からの発話には応答しない。その相槌も、スクリプトに決めた通りに発話する。 On the other hand, the robot R does not interpret the utterance from the person H. Even if there is an utterance from the person H, the robot R only strikes an aizuchi and does not respond to the utterance from that person. The utterance also speaks as decided in the script.

このような、ロボットコントローラ24によるスクリプト通りのロボットR1およびR2の対話システムを用いれば、図9に示すように対話シーケンスが成立する。 By using such a dialogue system of the robots R1 and R2 according to the script by the robot controller 24, a dialogue sequence is established as shown in FIG.

たとえば、ロボットが人に向かって話していることとロボットがロボットに向かって話していることがはっきりと区別でき、また同時に、対話の中で陪席者となる人間やロボットを無視してしまっているように見えないように、対話の履歴と参加者の意図推定に基づき、ロボットどうしの対話と人に対する問いかけのための、発話と視線配布や相槌などのしぐさを生成する。つまり、ロボットRは人Hの発話を聞き流すことができるので、人Hに対して質問して人Hに発話させることができる。これにより、人がロボットどうしの対話に、自分も参加しているような感覚を覚えさせることができる。また結果として、ロボットどうしの対話に含まれる内容を人に対して印象付けることができる。 For example, you can clearly distinguish between a robot talking to a person and a robot talking to a robot, and at the same time, ignoring the human being or the robot who will be the seat in the dialogue. Based on the history of the dialogue and the estimation of the intentions of the participants, the robots generate utterances, gaze distribution, and gestures for asking questions to humans so that they do not look like they are. That is, since the robot R can listen to the utterance of the person H, it is possible to ask the person H a question and have the person H speak. This makes it possible for a person to feel as if he / she is also participating in the dialogue between the robots. As a result, it is possible to impress humans with the contents included in the dialogue between robots.

具体的には、図10‐図14で示す場面をスクリプトによって意図的に出現させることができる。ただし、図10‐図14の具体例は、人Hの意思表示とは直接には関係しない。 Specifically, the scenes shown in FIGS. 10-14 can be intentionally made to appear by a script. However, the specific example of FIGS. 10-14 is not directly related to the intention display of person H.

図10の例では、第1ロボットR1および第2ロボットR2が、発話を繰り返しながら、話題(トピック(Topic)またはテーマ)Aについて、対話を進行しているとき、話題Aから話題Bに切り換えるとき、スクリプト上で、ロボットR1および/またはR2が人Hに対して質問するように制御する。このときの質問の内容は、たとえば、既に終わった話題Aに関するものでもよく、これから始まる話題Bに関するものでもよい。その両方に関するものでもよい。そして、人Hから回答があると、ロボットR1および/またはR2がスクリプトに従ってたとえば「そっか」というような相槌を発話する。 In the example of FIG. 10, when the first robot R1 and the second robot R2 switch from the topic A to the topic B when the dialogue is progressing on the topic (Topic or theme) A while repeating the utterance. , On the script, control the robots R1 and / or R2 to ask the person H a question. The content of the question at this time may be, for example, a topic A that has already been completed, or a topic B that is about to begin. It may be related to both. Then, when there is an answer from the person H, the robots R1 and / or R2 utter an aizuchi such as "I'm sorry" according to the script.

つまり、ロボットどうしの対話中には人Hに対して問いかけはせず、話題切り換えのタイミングで人Hに向けてロボットが発話する。そうすると、人Hは、ロボットどうしの対話に参加しているような意識を持って、その状態を持続することができる。 That is, the robot does not ask the person H during the dialogue between the robots, and the robot speaks to the person H at the timing of switching the topic. Then, the person H can maintain the state with the consciousness of participating in the dialogue between the robots.

ただし、人Hからの回答に対して、ロボットが割り込みするようにしてもよい。たとえば、ロボットR2「○○は××だから、△△です。」、ロボットR1「え、でも○○って□□じゃないですか?」、ロボットR2「そっか、でも(話題Bに入る)」のような割り込みも可能である。 However, the robot may interrupt the response from the person H. For example, robot R2 "○○ is XX, so it is △△.", Robot R1 "Eh, but isn't ○○ □□?", Robot R2 "Oh, but (enter topic B). It is also possible to interrupt such as.

図11の例では、ロボットR1およびR2が質問や回答を繰り返しながら何らかの話題について対話を進行しているとき、ロボットがロボットにしたのと同じ質問を人Hに対して発話する。たとえば、ロボットR1および/またはR2によって、人Hに「あなたはどう(おもいますか)?」のような質問をさせる。そうすると、人Hから回答がある。ロボットR1およびR2は、それに対して、図10の場合と同様の相槌を発話する。 In the example of FIG. 11, when the robots R1 and R2 are repeating a question or an answer and proceeding with a dialogue on some topic, the same question that the robot asks the robot is uttered to the person H. For example, the robots R1 and / or R2 make the person H ask a question such as "What do you think?". Then, there is an answer from person H. The robots R1 and R2 utter the same aizuchi as in FIG. 10 to the robots R1 and R2.

図12の例では、図11の場合と逆に、ロボットどうしの対話をしているときに、ロボットR1またはR2が人Hにしたと同じ質問を他方のロボットR2またはR1にする。この場合には、人Hはロボットどうしの対話の中に自分に対する質問と同じ質問が含まれることで、「対話感」を持つことができるであろう。 In the example of FIG. 12, contrary to the case of FIG. 11, when the robots are interacting with each other, the same question that the robot R1 or R2 asks the person H is asked to the other robot R2 or R1. In this case, the person H will be able to have a "sense of dialogue" by including the same question as the question to himself in the dialogue between the robots.

図13の例では、ロボットR1およびR2が質問や回答を繰り返しながら何らかの話題について対話を進行しているとき、たとえば第2ロボットR2が第1ロボットR1に何かについて説明し、第1ロボットR1から感想を述べる発話を行う。その感想に対して人Hが同意するように、ロボットR1またはR2から人Hに対して、たとえば「ね」と、同意を求める。この場合も、ある程度納得できる話であれば、同意の発話をしたり、心の中での同意を促したりすることができるので、人Hにはロボットどうしの対話に参加しているという意識を持続することができる。 In the example of FIG. 13, when robots R1 and R2 are proceeding with a dialogue on some topic while repeating questions and answers, for example, the second robot R2 explains something to the first robot R1 and starts from the first robot R1. Make an utterance to express your impressions. Just as the person H agrees with the impression, the robot R1 or R2 asks the person H for the consent, for example, "ne". In this case as well, if the story is convincing to some extent, it is possible to utter consent and encourage consent in the heart, so human H should be aware that he / she is participating in the dialogue between robots. Can be sustained.

図14の例は、たとえば第2ロボットR2から第1ロボットR1
にたいして質問または説明し、それに対して第1ロボットR1がわざと間違った、勘違いした返答、あるいは理解していないことを尋ねる質問をして、人に「そうじゃなくてこうだよ」などと、人から訂正や補足の発話を行なうように、促す。ただし、人からの発話がなければ、第2ロボットR2が、代わりに訂正や補足をして、はじめのロボットの発話を流す。人は、積極的に自分も対話に参加する形になるので、対話感がより高まる。
In the example of FIG. 14, for example, the second robot R2 to the first robot R1
Ask or explain to the person, and ask the person that the first robot R1 intentionally made a mistake, misunderstood, or did not understand, and asked the person, "This is not the case." Encourage them to make corrections and supplementary utterances. However, if there is no utterance from a person, the second robot R2 makes corrections or supplements instead and sends the utterance of the first robot. People actively participate in the dialogue, which enhances the sense of dialogue.

なお、意思表示デバイス17で検出した、陪席者である人Hによる意思表示があったときには、人意思処理モジュール23が図15に示すフロー図に従って、ダイアログデータベース22から次ダイアログ候補プール23aまたは文脈外応答にダイアログ(スクリプトデータ)をロードし、さらには次ダイアログ候補プール23aからダイアログキュー23cにダイアログ(スクリプトデータ)をロードする。 When there is an intention display by the person H who is a seated person detected by the intention display device 17, the person intention processing module 23 follows the flow diagram shown in FIG. 15 from the dialog database 22 to the next dialog candidate pool 23a or out of context. A dialog (script data) is loaded in the response, and a dialog (script data) is loaded from the next dialog candidate pool 23a into the dialog queue 23c.

具体的に、図15の最初のステップS71では、人意思処理モジュール23を制御するCPU20aは、初期化を実行するとともに、ダイアログデータベース22から、ダイアログ(スクリプトデータ)を次ダイアログ候補プール23aに読み込む。つまり、どのトピックないしテーマのダイアログを読み出すかを決めて、そのトピックないしテーマの一群のダイアログを次ダイアログ候補プール23aに読み込む。このとき、ダイアログの依存関係、たとえばどのダイアログの前にこのダイアログを実行してはならないとか、このダイアログは特定のダイアログと同時に実行されるべきである、などの拘束条件を併せて読み込む。それとともに、ステップS71では、次ダイアログ候補プール23aから、必要なダイアログをダイアログキュー23cにロードする。 Specifically, in the first step S71 of FIG. 15, the CPU 20a that controls the human intention processing module 23 executes initialization and reads a dialog (script data) from the dialog database 22 into the next dialog candidate pool 23a. That is, it is decided which topic or theme dialog is to be read, and the dialog of the topic or theme group is read into the next dialog candidate pool 23a. At this time, the constraint conditions such as the dependency of the dialog, for example, which dialog should not be executed before this dialog, and this dialog should be executed at the same time as a specific dialog are also read. At the same time, in step S71, the necessary dialog is loaded into the dialog queue 23c from the next dialog candidate pool 23a.

このときのダイアログは、たとえば、一方のロボットR1をトピックに対して一貫して賛成の立場で発話または動作させ、他方のロボットR2を一貫して反対の立場で発話または動作させるように、設定されていて、各ロボットは終始その立場を変えないものとする。 The dialog at this time is set, for example, so that one robot R1 consistently speaks or operates in favor of the topic and the other robot R2 consistently speaks or operates in the opposite position. Therefore, each robot shall not change its position from beginning to end.

次のステップS73では、CPU20aは、センサマネージャ18からのセンサデータを更新する。 In the next step S73, the CPU 20a updates the sensor data from the sensor manager 18.

そして、次のステップS75で、CPU20aは、更新したセンサデータに、承認すべき人の意思が検出されているかどうか判断する。 Then, in the next step S75, the CPU 20a determines whether or not the intention of the person to be approved is detected in the updated sensor data.

ステップS75で“YES”を判断したとき、つまり、ロボットR1および/またはR2が承認しなければならない人の意思があったとき、ステップS77では、CPU20aは、人の意思表明に対する承認ダイアログ(主として非言語動作)をダイアログキュー23cへロードする。 When "YES" is determined in step S75, that is, when the robots R1 and / or R2 have a person's intention to approve, in step S77, the CPU 20a is an approval dialog (mainly non-) for the person's expression of intention. Language operation) is loaded into the dialog queue 23c.

ただし、承認ダイアログが各ロボットの予定されているダイアログ(非言語動作を含む)と干渉するものであるとき、その承認ダイアログはロードしない。たとえば、いずれかのロボットに次に人Hを見ることが予定されているとき、承認ダイアログが「当該ロボットが人Hを見る」であるとすれば、その承認ダイアログはダイアログキュー23cへは入れない。さらに、いずれかのロボットに他のロボットを見るというダイアログが予定されているとき、承認ダイアログが「当該ロボットが人Hを見る」であるとすれば、ロボットが他のロボットを見てすぐに人Hを見なければならず、ロボットが不自然な動作(干渉)をしてしまう。したがって、このときもその承認ダイアログはダイアログキュー23aへはロードしない。 However, if the approval dialog interferes with each robot's scheduled dialog (including non-verbal movements), the approval dialog will not be loaded. For example, when one of the robots is scheduled to see the person H next time, if the approval dialog is "the robot sees the person H", the approval dialog cannot be put in the dialog queue 23c. .. Furthermore, if one of the robots is scheduled to see another robot and the approval dialog is "the robot sees person H", then the robot sees the other robot and immediately sees the person. You have to look at H, and the robot behaves unnaturally (interference). Therefore, even at this time, the approval dialog is not loaded into the dialog queue 23a.

つまり、ステップS77では、他のダイアログと干渉しないダイアログだけが、人の意思を承認する承認ダイアログとしてダイアログキュー23cにロードされる。したがって、このダイアログキュー23cにロートされた承認ダイアログに従って、たとえば「ロボットR1およびR2がともに人Hを見る」というような非言語動作によって、ステップS75で検出した人Hの意思を承認する。 That is, in step S77, only the dialog that does not interfere with other dialogs is loaded into the dialog queue 23c as an approval dialog that approves the intention of the person. Therefore, according to the approval dialog funneled to the dialog queue 23c, the intention of the person H detected in step S75 is approved by a non-verbal operation such as "both robots R1 and R2 see the person H".

なお、ステップS75で“NO”を判断したとき、すなわち、ロボットが承認すべき人の意思表示が検出されていないときには、そのままステップS79へ進む。 When "NO" is determined in step S75, that is, when the robot does not detect the intention display of the person to be approved, the process proceeds to step S79 as it is.

ステップS79では、人の意思を確認するフェーズかどうか判断する。たとえば、先の発話が人Hに対する質問文あるいは否定文の形式である場合、その質問文あるいは否定文のスクリプトに人の意思を確認すべきことと、確認すべきタイミングを設定しておき(たとえば図6の質問フラグFah)、ステップS79では、そのタイミングかどうか判断する。 In step S79, it is determined whether or not the phase is to confirm the intention of the person. For example, if the previous utterance is in the form of a question or negative sentence to person H, set the script of the question or negative sentence to confirm the person's intention and the timing to confirm (for example). In the question flag Fah) of FIG. 6 and step S79, it is determined whether or not the timing is reached.

そして、ステップS81では、人Hの意思を認定できたかどうか判断する。たとえば、人Hが意思表示デバイス17の肯定ボタン19aまたは否定ボタン19nを操作して意思を入力したことが明白であれば、CPU20aは、人の意思を認定することができる。これに対して、人Hが意思表示デバイス17を操作せず、質問文を無視した場合、CPU20aは、人の意思を確定的に認定できない。 Then, in step S81, it is determined whether or not the intention of the person H can be recognized. For example, if it is clear that the person H operates the affirmative button 19a or the negative button 19n of the intention display device 17 to input the intention, the CPU 20a can recognize the intention of the person. On the other hand, when the person H does not operate the intention display device 17 and ignores the question sentence, the CPU 20a cannot definitively recognize the intention of the person.

このような場合、図15では図示していないが、人意思処理モジュール23は、人Hの意思を確定させるために必要なダイアログを、ダイアログキュー23cにロードして、いずれかのロボットRが発話によって、非言語動作によって、あるいは両方で、人Hの意思の確定を促すようにしてもよい。たとえば、ロボットR1および/またはR2が人Hを見るというような非言語動作で、および/またはロボットR1および/またはR2のたとえば「どう思いますか」のような発話で、人Hの意思を確認することができる。そして、このような意思確定ダイアログを実行した後、先のステップS73に戻し、再び意思が認定できるかどうか判定するようにすればよい。 In such a case, although not shown in FIG. 15, the human intention processing module 23 loads the dialog necessary for confirming the intention of the human H into the dialog queue 23c, and one of the robots R speaks. Depending on the non-verbal movement, or both, the person H may be encouraged to confirm his / her intention. For example, confirm the intention of human H by non-verbal movements such as robots R1 and / or R2 looking at human H, and / or by utterances such as "what do you think" of robots R1 and / or R2. can do. Then, after executing such a decision determination dialog, the process may be returned to the previous step S73 to determine whether or not the intention can be recognized again.

ただし、所定時間たとえば5秒間、人Hからの意思表明がなかったときには、人Hの意思は「肯定」または「否定」のどちらかであると、看做すこともできる。 However, when there is no expression of intention from the person H for a predetermined time, for example, 5 seconds, the intention of the person H can be regarded as either "affirmation" or "denial".

このようにして人Hの意思が確定的に認定できると、ステップS81から、次のステップS83に進む。そして、ステップS83では、CPU20aは、人意思処理モジュール23を制御して、認定した人Hの意思に基づいて、その意思を承認するためのダイアログ(スクリプトデータ)を次ダイアログ候補プール23aから選択して、ダイアログキュー23cにロードする。したがって、このとき、ロボットR1およびR2は、このダイアログキュー23cにロートされた承認ダイアログに従って、人Hの意思を承認するための対話を実行する。このときのダイアログは、先に説明したように、人Hが肯定の意思表示をしたのか、否定の意思表示をしたのかで異なるダイアログがダイアログキュー23cにロードされる。 When the intention of the person H can be definitively recognized in this way, the process proceeds from step S81 to the next step S83. Then, in step S83, the CPU 20a controls the human intention processing module 23 and selects a dialog (script data) for approving the intention from the next dialog candidate pool 23a based on the intention of the authorized person H. And load it into the dialog queue 23c. Therefore, at this time, the robots R1 and R2 execute a dialogue for approving the intention of the person H according to the approval dialog funneled in the dialog queue 23c. As for the dialog at this time, as described above, different dialogs are loaded in the dialog queue 23c depending on whether the person H has made a positive intention display or a negative intention display.

ステップS85では、CPU20aは、ステップS83でダイアログをダイアログキュー23cにロードしたので、次のダイアログ候補をダイアログデータベース22から読み出して、次ダイアログ候補プール23aにロードする。 In step S85, since the CPU 20a loaded the dialog into the dialog queue 23c in step S83, the next dialog candidate is read from the dialog database 22 and loaded into the next dialog candidate pool 23a.

先のステップS79で、人意思認定フェーズではない場合、“NO”が判断され、次のステップS87でCPU20aは、無視できない人Hの文脈外の意思がセンサマネージャ18によって検出されていないかどうか判断する。そのような人Hの文脈外の意思表示がなければ、このステップS87で“NO”となり、次のステップS89に進む。 In the previous step S79, if it is not in the human intention recognition phase, "NO" is determined, and in the next step S87, the CPU 20a determines whether or not the sensor manager 18 has detected an uncontextual intention of the person H that cannot be ignored. do. If there is no indication of intention outside the context of such person H, the result is “NO” in this step S87, and the process proceeds to the next step S89.

ステップS89では、対話を続けるかどうか判断する。たとえば、ダイアログデータベース22に、採用可能なダイアログが無くなった、時間がなくなった、などのとき、ステップS89では“NO”と判断され、この図15の人意思処理モジュール23の動作は終了する。 In step S89, it is determined whether to continue the dialogue. For example, when there are no more available dialogs in the dialog database 22, or there is no more time, it is determined as "NO" in step S89, and the operation of the human intention processing module 23 of FIG. 15 ends.

ステップS89で“YES”と判断したとき、すなわち対話を継続すべきときには、ステップS91では、実行すべきダイアログがダイアログキュー23cに残っているかどうか、つまりダイアログが終了しているかどうか判断する。 When it is determined as "YES" in step S89, that is, when the dialogue should be continued, in step S91, it is determined whether or not the dialog to be executed remains in the dialog queue 23c, that is, whether or not the dialog is terminated.

ステップS91で“YES”なら、ステップS71と同様に、ステップS93において、別のトピックの一群のダイアログ(スクリプトデータ)を、ダイアログデータベース22から選択して読出し、次ダイアログ候補プール23aにロードする。それとともに、ロボットR1およびR2の次の対話のために、次ダイアログ候補プール23aにロードしたダイアログをダイアログキュー23cにロードする。その後先のステップS85に進み、ダイアログデータベース22からさらにダイアログを次ダイアログ候補プール23aにロードする。 If "YES" in step S91, as in step S71, in step S93, a group of dialogs (script data) of another topic is selected from the dialog database 22 and read, and loaded into the next dialog candidate pool 23a. At the same time, the dialog loaded in the next dialog candidate pool 23a is loaded in the dialog queue 23c for the next dialogue between the robots R1 and R2. After that, the process proceeds to step S85, and the dialog is further loaded from the dialog database 22 into the next dialog candidate pool 23a.

なお、ステップS91で“NO”なら、ダイアログが終了していないなら、先のステップS73に戻る。 If "NO" is set in step S91, the process returns to the previous step S73 if the dialog is not completed.

さらに、ステップS87で“YES”と判断したとき、すなわち、人Hの文脈外の意思表示があったとき。ステップS95において、CPU20aは、そのときの文脈外の人Hの意思に基づいて、図1に示す文脈外応答ダイアログプール23bにロードされているダイアログのうち適当なダイアログを選択し、その選択したダイアログをダイアログキュー23cにロードする。したがって、先に述べた文脈外の人Hの意思表示に対して応答する発話および/または非言語動作をロボットR1および/またはR2が実行する。 Further, when it is determined as "YES" in step S87, that is, when there is an intention indication outside the context of person H. In step S95, the CPU 20a selects an appropriate dialog among the dialogs loaded in the out-of-context response dialog pool 23b shown in FIG. 1 based on the intention of the person H outside the context at that time, and the selected dialog is selected. Is loaded into the dialog queue 23c. Therefore, the robots R1 and / or R2 perform utterances and / or non-verbal movements in response to the above-mentioned intentional expression of the person H outside the context.

そして、次のステップS97では、CPU20aは、人の意思に基づいて、現在のダイアログキュー23cおよび次ダイアログ候補プール23bの内容を削除し、または保留する。つまり、そのときの人Hの意思に基づけば実行不要と思われるダイアログをダイアログキュー23cおよび次ダイアログ候補プール23bから削除するか、あるいはその実行不要と思われるダイアログの実行を保留する。 Then, in the next step S97, the CPU 20a deletes or suspends the contents of the current dialog queue 23c and the next dialog candidate pool 23b based on the will of the person. That is, the dialog that is considered unnecessary to be executed based on the intention of the person H at that time is deleted from the dialog queue 23c and the next dialog candidate pool 23b, or the execution of the dialog that is considered unnecessary to be executed is suspended.

このように、人意思処理モジュール23では、たとえば意思表示デバイス17を用いて表明した、陪席者たる人Hの意思に対して、ロボットR1およびR2が、その意思を承認するための発話や非言語動作を実行することによって、人HがロボットR1およびR2を含む対話システム10の中で、人Hは何も発話しなくても、明らかに対話に参加している感覚(対話感)を持つに至る。 As described above, in the human intention processing module 23, the robots R1 and R2 utterances and non-languages for approving the intention of the person H who is a seated person, for example, expressed by using the intention display device 17. By executing the movement, the human H clearly participates in the dialogue (dialogue feeling) in the dialogue system 10 including the robots R1 and R2, even if the human H does not speak anything. To reach.

以下、図16‐図24を参照して、人Hの意思表示に対する承認ダイアログの様々な例について説明する。ただし、以下のことを前提として、すべての対話がダイアログデータベース22に予め設定されているダイアログ(スクリプトデータ)に従って実行される、ということに留意されたい。 Hereinafter, various examples of the approval dialog for the intention display of the person H will be described with reference to FIGS. 16 to 24. However, it should be noted that all dialogues are executed according to the dialogs (script data) preset in the dialog database 22 on the premise of the following.

長円で囲んだ「Topic」とは、図10‐図14で説明した「話題」のことであり、Topic-1、Topic-2、…はそれぞれ異なる話題であることを意味する。Topicは賛成の立場での発話を示し、網掛けの長円で囲んだ「Anti-Topic」とは、Topicに対して反対の立場での発話を示す。また、「Follow-Topic」はTopicに追従する立場での発話を示す。さらに、人Hにおいて、白丸で示した「肯定」とは、たとえば意思表示デバイス17の肯定ボタン17aを操作したときのように、センサマネージャ18が人Hの肯定の意思表示を検出したことを意味する。反対に、網掛けの丸で示した「否定」は、センサマネージャ18が人Hの否定の意思表示を検出したことを意味する。なお、以下の具体例の説明において、「人の意思表示」は、人Hが主体的に明示的にまたは非明示的に表示した意思だけでなく、必ずしも人Hの実際の意思の如何にはよらず、前述のように、センサマネージャ18で認定する意思を指すものであると理解されたい。 The "Topic" circled in an oval is the "topic" described in FIGS. 10-14, and means that Topic-1, Topic-2, ... Are different topics. Topic indicates the utterance in the position of support, and "Anti-Topic" surrounded by a shaded oval indicates the utterance in the position opposite to Topic. In addition, "Follow-Topic" indicates an utterance in a position that follows Topic. Further, in the person H, the “affirmation” indicated by the white circle means that the sensor manager 18 has detected the affirmative intention display of the person H, for example, when the affirmative button 17a of the intention display device 17 is operated. do. On the contrary, the “denial” indicated by the shaded circle means that the sensor manager 18 has detected the negative intention of the person H. In the explanation of the following specific example, the "indication of a person's intention" is not only the intention that the person H independently or implicitly expresses, but also the actual intention of the person H. However, as mentioned above, it should be understood that it refers to the intention to be certified by the sensor manager 18.

図16の例では、対話の主導権をもって、ロボットR1はTopic-1について賛成の立場で発話し、ロボットR2はロボットR1に対して反対の立場で発話する。 In the example of FIG. 16, the robot R1 speaks in favor of Topic-1 and the robot R2 speaks in the opposite position to the robot R1 with the initiative of the dialogue.

Topic-1(Anti-Topic-1)に含まれる質問文を発話した後のダイアログに従って、グループマネージャ20のCPU20aは、ともに人Hを見るという非言語動作をロボットR1およびR2に実行させるようなダイアログキュー23cに保持されているスクリプトデータ(当該非言語動作の指示)をブロードキャストする。したがって、人Hは、自分の意思表示が求められていることを理解する。 According to the dialog after uttering the question sentence included in Topic-1 (Anti-Topic-1), the CPU 20a of the group manager 20 causes the robots R1 and R2 to perform a non-verbal operation of seeing the person H together. The script data (instruction of the non-language operation) held in the queue 23c is broadcast. Therefore, the person H understands that his / her intention is required.

このようなロボットR1およびR2の非言語動作に応じて人Hが肯定の意思表示をした後、たとえば図15のステップS83において、ロボットR1およびR2が、図16で横長の矩形枠で示すような承認ダイアログを実行する。この例では、人Hが肯定の意思表示をしたのであるから、ロボットR1は意思表示に対する承認のためにたとえば「そうだよね」と発話する。これに対して、ロボットR2は、自分は反対の立場であるのに人Hが肯定の意思表示をしたのであるから、意思表示に対する承認のためにたとえば「そうかな」と、人Hの肯定の意思表示をとがめるような発話をする。 After the person H makes an affirmative indication in response to such non-verbal movements of the robots R1 and R2, for example, in step S83 of FIG. 15, the robots R1 and R2 are shown by a horizontally long rectangular frame in FIG. Run the approval dialog. In this example, since the person H has made an affirmative intention, the robot R1 utters, for example, "That's right" for approval of the intention. On the other hand, in the robot R2, since the person H has made an affirmative intention even though he / she is in the opposite position, for example, in order to approve the intention display, the person H has an affirmative intention. Make an utterance that blames the display.

つまり、ここで、ロボットR1およびR2がそれぞれの立場で、人Hの肯定の意思表示を承認するような発話を実行する。 That is, here, the robots R1 and R2 execute utterances in which the robots R1 and R2 approve the affirmative intention of the person H in their respective positions.

なお、この承認ダイアログでの発話は、ロボットR1およびR2のどちらの発話が先でもよく、ロボットR1およびR2の発話が同時に実行されてもよい。さらに、この承認ダイアログでは、ロボットR1およびR2の対話を実施例のように1回だけでなく、複数回実行するようにしてもよい。これらのことは、次の図17‐図20の例にも当てはまることを予め指摘しておく。 The utterance in this approval dialog may be the utterance of either the robots R1 or R2 first, and the utterances of the robots R1 and R2 may be executed at the same time. Further, in this approval dialog, the dialogue between the robots R1 and R2 may be executed not only once as in the embodiment but also a plurality of times. It should be pointed out in advance that these things also apply to the following examples of FIGS. 17-20.

その後、主導権を持っているロボットR1が、同じTopic-1または別のTopic-2における対話に復帰するためのつなぎの発話、たとえば「うん、だからね」のような発話する。その後ロボットR1およびR2が、Topic-1(or 2)(Anti-Topic-1(or 2))を継続する。 After that, the robot R1 having the initiative speaks a connecting utterance to return to the dialogue in the same Topic-1 or another Topic-2, for example, "Yeah, that's why". After that, the robots R1 and R2 continue Topic-1 (or 2) (Anti-Topic-1 (or 2)).

図16の例では、人Hの肯定の意思表示に同調する発話を行うことによってロボットR1が人Hの肯定の意思表示を承認し、ロボットR2が人Hの肯定の意思表示に同調しない発話を行うことによって人Hの肯定の意思表示を承認する。 In the example of FIG. 16, the robot R1 approves the affirmative intention of the person H by making an utterance that synchronizes with the affirmative intention of the person H, and the robot R2 makes an utterance that does not synchronize with the affirmative intention of the person H. By doing so, the person H's affirmative intention is approved.

図17の例では、対話の主導権をもって、ロボットR1はTopic-1について賛成の立場で発話し、ロボットR2はロボットR1に追従する立場で発話する。Topic-1(Follow-Topic-1)の発話の後、図16の場合と同様に、ロボットR1およびR2がともに人Hを見るという非言語動作を実行することによって、人Hの意思表示を促す。 In the example of FIG. 17, the robot R1 speaks in favor of Topic-1 and the robot R2 speaks in a position of following the robot R1 with the initiative of the dialogue. After the utterance of Topic-1 (Follow-Topic-1), as in the case of FIG. 16, the robots R1 and R2 both perform a non-verbal operation of looking at the human H, thereby prompting the intention display of the human H. ..

そして、人Hが肯定の意思表示をしたとき、たとえば図15のステップS83において、ロボットR1およびR2が、図17で横長の矩形枠で示すような承認ダイアログを実行する。この例では、ロボットR1は人Hが肯定の意思表示をしたのであるから、意思表示に対する承認のためにたとえば「そうだよね」と発話する。これに対して、ロボットR2は、ロボットR1に追従する立場であるので、人Hの肯定の意思表示に対する承認のためにたとえば「そうだよね」と発話する。 Then, when the person H indicates an affirmative intention, for example, in step S83 of FIG. 15, the robots R1 and R2 execute an approval dialog as shown by a horizontally long rectangular frame in FIG. In this example, since the person H has made a positive intention statement, the robot R1 utters, for example, "That's right" to approve the intention statement. On the other hand, since the robot R2 is in a position to follow the robot R1, he utters, for example, "That's right" in order to approve the affirmative intention of the person H.

つまり、ここで、ロボットR1およびR2がそれぞれの立場で、人Hの肯定の意思表示を承認するような発話を実行する。 That is, here, the robots R1 and R2 execute utterances in which the robots R1 and R2 approve the affirmative intention of the person H in their respective positions.

その後、主導権を持っているロボットR1が、同じTopic-1または別のTopic-2における対話に復帰するためのつなぎの発話、たとえば「うん、だからね」のような同調する発話をする。その後ロボットR1およびR2が、Topic-1(or 2)およびFollow-Topic-1(or 2)を継続する。 After that, the robot R1 having the initiative makes a tie utterance to return to the dialogue in the same Topic-1 or another Topic-2, for example, a synchronized utterance such as "Yeah, that's why". After that, the robots R1 and R2 continue Topic-1 (or 2) and Follow-Topic-1 (or 2).

図17の例では、人Hの肯定の意思表示に同調する発話を行うことによってロボットR1が人Hの肯定の意思表示を承認し、ロボットR1に追従する立場のロボットR2も人Hの肯定の意思表示に同調する発話を行うことによって人Hの肯定の意思表示を承認する。 In the example of FIG. 17, the robot R1 approves the affirmative intention of the person H by making an utterance in synchronization with the affirmative intention of the person H, and the robot R2 in the position of following the robot R1 is also the affirmative of the person H. Approve the affirmative intention of person H by making an utterance in sync with the intention.

図18の例では、対話の主導権をもって、ロボットR1はTopic-1について賛成の立場で発話し、ロボットR2はロボットR1に対して反対の立場で発話する。Topic-1(Anti-Topic-1)の発話の後、図16の場合と同様に、ロボットR1およびR2がともに人Hを見るという非言語動作を実行することによって、人Hの意思表示を促す。 In the example of FIG. 18, the robot R1 speaks in favor of Topic-1 and the robot R2 speaks in the opposite position to the robot R1 with the initiative of the dialogue. After the utterance of Topic-1 (Anti-Topic-1), as in the case of FIG. 16, the robots R1 and R2 both perform a non-verbal operation of looking at the human H, thereby prompting the intention display of the human H. ..

人Hが否定の意思表示をした後、たとえば図15のステップS83において、ロボットR1およびR2が、図18で横長の矩形枠で示すような承認ダイアログを実行する。この例では、人Hが否定の意思表示をしたのであるから、その意思表示に対する承認のために、ロボットR1は人Hの否定の意思表示をとがめる、たとえば「え、違う」と発話する。これに対して、ロボットR2は、自分は反対の立場であるのに人Hが否定の意思表示をしたのであるから、その否定の意思表示に同調するたとえば「だよね」と発話するひとによって、人Hの否定の意思表示を承認する。 After the person H indicates a negative intention, for example, in step S83 of FIG. 15, the robots R1 and R2 execute an approval dialog as shown by a horizontally long rectangular frame in FIG. In this example, since the person H has made a negative intention, the robot R1 rebukes the negative intention of the person H in order to approve the intention, for example, "Oh, no". On the other hand, in the robot R2, since the person H has expressed a negative intention even though he is in the opposite position, the person who utters, for example, "Isn't it?" Approve the negative intention of person H.

つまり、ここで、ロボットR1およびR2がそれぞれの立場で、人Hの否定の意思表示を承認するような発話を実行する。 That is, here, the robots R1 and R2 execute utterances in which the robots R1 and R2 approve the negative intention display of the person H in their respective positions.

その後、主導権を持っているロボットR1が、同じTopic-1または別のTopic-2における対話に復帰するためのつなぎの発話、たとえば「いや、でもね」のような切り返しの発話をする。その後ロボットR1およびR2が、Topic-1(or 2)(Anti-Topic-1(or 2))を継続する。 After that, the robot R1 having the initiative makes a connecting utterance to return to the dialogue in the same Topic-1 or another Topic-2, for example, a turning utterance such as "No, but". After that, the robots R1 and R2 continue Topic-1 (or 2) (Anti-Topic-1 (or 2)).

図18の例では、ロボットR1が人Hの意思表示に同調しない発話を行うことによって賛成の立場で人Hの否定の意思表示を承認し、ロボットR2が人Hの意思表示に同調しない発話を行うことによって反対の立場で人Hの否定の意思表示を承認する。 In the example of FIG. 18, the robot R1 approves the negative intention of the person H from the standpoint of approval by making an utterance that does not synchronize with the intention of the person H, and the robot R2 makes an utterance that does not synchronize with the intention of the person H. By doing so, he approves the negative intention of person H from the opposite standpoint.

図19の例では、対話の主導権をもって、ロボットR1はTopic-1について賛成の立場で発話し、ロボットR2はロボットR1に対して反対の立場で発話する。Topic-1(Anti-Topic-1)の発話の後、図16の場合と同様に、ロボットR1およびR2がともに人Hを見るという非言語動作を実行することによって、人Hの意思表示を促す。 In the example of FIG. 19, the robot R1 speaks in favor of Topic-1 and the robot R2 speaks in the opposite position to the robot R1 with the initiative of the dialogue. After the utterance of Topic-1 (Anti-Topic-1), as in the case of FIG. 16, the robots R1 and R2 both perform a non-verbal operation of looking at the human H, thereby prompting the intention display of the human H. ..

人Hが肯定の意思表示をした後、たとえば図15のステップS83において、ロボットR1およびR2が、図19で横長の矩形枠で示すような承認ダイアログを実行する。この例では、ロボットR1は人Hが肯定の意思表示をしたのであるから、意思表示に対する承認のためにたとえば「そうだよね」と発話する。これに対して、ロボットR2は、自分は反対の立場であるのに人Hが肯定の意思表示をしたのであるから、意思表示に対する承認のためにたとえば「そうかな」と、人Hの肯定の意思表示をとがめるような発話をする。 After the person H has expressed affirmative intention, for example, in step S83 of FIG. 15, the robots R1 and R2 execute an approval dialog as shown by a horizontally long rectangular frame in FIG. In this example, since the person H has made a positive intention statement, the robot R1 utters, for example, "That's right" to approve the intention statement. On the other hand, in the robot R2, since the person H has made an affirmative intention even though he / she is in the opposite position, for example, in order to approve the intention display, the person H has an affirmative intention. Make an utterance that blames the display.

つまり、ここで、ロボットR1およびR2がそれぞれの立場で、人Hの肯定の意思表示を承認するような発話を実行する。 That is, here, the robots R1 and R2 execute utterances in which the robots R1 and R2 approve the affirmative intention of the person H in their respective positions.

その後、対話の主導権がロボットR2に移され、ロボットR2が、Topic-1(or 2)における対話に復帰するためのつなぎの発話、たとえば「いや、だからね」のような発話する。その後ロボットR2およびR1が、Topic-1(or 2) (Anti-Topic-1(or 2))を継続する。 After that, the initiative of the dialogue is transferred to the robot R2, and the robot R2 utters a connecting utterance for returning to the dialogue in Topic-1 (or 2), for example, "No, that's why". After that, the robots R2 and R1 continue Topic-1 (or 2) (Anti-Topic-1 (or 2)).

図19の例では、ロボットR2が人Hの肯定の意思表示に同調する発話を行うことによって賛成の立場で人Hの肯定の意思表示を承認し、ロボットR2が人Hの肯定の意思表示に同調しない発話を行うことによって反対の立場で人Hの肯定の意思表示を承認する。 In the example of FIG. 19, the robot R2 approves the affirmative intention of the person H from the standpoint of approval by making an utterance in synchronization with the affirmative intention of the person H, and the robot R2 becomes the affirmative intention of the person H. Approve the affirmative intention of person H from the opposite standpoint by making disagreeable utterances.

図20の例では、対話の主導権をもって、ロボットR1はTopic-1について賛成の立場で発話し、ロボットR2はロボットR1に対して反対の立場で発話する。Topic-1(Anti-Topic-1)の発話の後、図16の場合と同様に、ロボットR1およびR2がともに人Hを見るという非言語動作を実行することによって、人Hの意思表示を促す。 In the example of FIG. 20, the robot R1 speaks in favor of Topic-1 and the robot R2 speaks in the opposite position to the robot R1 with the initiative of the dialogue. After the utterance of Topic-1 (Anti-Topic-1), as in the case of FIG. 16, the robots R1 and R2 both perform a non-verbal operation of looking at the human H, thereby prompting the intention display of the human H. ..

人Hが否定の意思表示をした後、たとえば図15のステップS83において、ロボットR1およびR2が、図20で横長の矩形枠で示すような承認ダイアログを実行する。この例では、ロボットR1は人Hが否定の意思表示をしたのであるから、意思表示に対する承認のためにたとえば「え、違う」と発話する。これに対して、ロボットR2は、自分は反対の立場であるのに人Hが否定の意思表示をしたのであるから、意思表示に対する承認のためにたとえば「だよね」と、人Hの否定の意思表示に同調するような発話をする。 After the person H indicates a negative intention, for example, in step S83 of FIG. 15, the robots R1 and R2 execute an approval dialog as shown by a horizontally long rectangular frame in FIG. In this example, since the person H has made a negative intention statement, the robot R1 utters, for example, "Oh, no" to approve the intention statement. On the other hand, in the robot R2, although the person H is in the opposite position, the person H has made a negative intention, so for the approval of the intention, for example, "It's right", the person H's denial. Make an utterance that is in sync with the expression of intention.

つまり、ここで、ロボットR1およびR2がそれぞれの立場で、人Hの否定の意思表示を承認するような発話を実行する。 That is, here, the robots R1 and R2 execute utterances in which the robots R1 and R2 approve the negative intention display of the person H in their respective positions.

その後、対話の主導権がロボットR2に移され、ロボットR2が、同じTopic-1(or 2)における対話に復帰するためのつなぎの発話、たとえば「いや、でもね」のような発話する。その後ロボットR2およびR1が、Topic-1(or 2)(Anti-Topic-1(or 2))を継続する。 After that, the initiative of the dialogue is transferred to the robot R2, and the robot R2 utters a connecting utterance for returning to the dialogue in the same Topic-1 (or 2), for example, "No, but ne". After that, the robots R2 and R1 continue Topic-1 (or 2) (Anti-Topic-1 (or 2)).

図20の例では、ロボットR2が人Hの否定の意思表示に同調しない発話を行うことによって賛成の立場で人Hの否定の意思表示を承認し、ロボットR2が人Hの否定の意思表示に同調する発話を行うことによって反対の立場で人Hの否定の意思表示を承認する。 In the example of FIG. 20, the robot R2 approves the negative intention of the person H from the standpoint of approval by making an utterance that does not synchronize with the negative intention of the person H, and the robot R2 becomes the negative intention of the person H. Approve the negative intention of person H from the opposite standpoint by making a synchronized utterance.

図21の例では、対話の主導権をもって、ロボットR1はTopic-1について賛成の立場で発話し、ロボットR2はロボットR1に対して反対の立場で発話する。Topic-1(Anti-Topic-1)の発話の後、図16の場合と同様に、ロボットR1およびR2がともに人Hを見るという非言語動作を実行することによって、人Hの意思表示を促す。 In the example of FIG. 21, the robot R1 speaks in favor of Topic-1 and the robot R2 speaks in the opposite position to the robot R1 with the initiative of the dialogue. After the utterance of Topic-1 (Anti-Topic-1), as in the case of FIG. 16, the robots R1 and R2 both perform a non-verbal operation of looking at the human H, thereby prompting the intention display of the human H. ..

人Hが肯定の意思表示をした後、ロボットR1は、たとえば図15のステップS83において、人Hの肯定の意思表示を拡大解釈して承認するダイアログを実行する。まず、人Hが肯定の意思表示をしかつ自分は賛成の立場であるので、人Hに同調するようにたとえば「そうだよね」と発話する。そして、人Hの肯定の意思表示を拡大解釈する発話をロボットR2に対して実行する。 After the person H makes an affirmative intention, the robot R1 executes a dialog for expanding and interpreting and approving the affirmative intention of the person H, for example, in step S83 of FIG. First, since person H expresses affirmative intention and he is in a position of support, he utters, for example, "That's right" so as to be in tune with person H. Then, an utterance that expands and interprets the affirmative intention display of the person H is executed for the robot R2.

たとえば、Topic-1が嗜好品をテーマにした話題だとして、ロボットR1がTopic-1のなかで「バナナはおいしいですよね」と発話したとき、人Hが肯定の意思表示をしたとき、ロボットR1は、まず「そうだよね」と人Hに向かって発話する。その後、ロボットR2に向かって、人Hの肯定の意思表示を拡大解釈してたとえば「果物が好きなんだって」と発話する。それに対してロボットR2がロボットR1に対して、たとえば「え、果物なんか好きなの?」のような、ロボットR1の拡大解釈を補強、承認するような発話をする。 For example, if Topic-1 is a topic on the theme of luxury items, when Robot R1 utters "Banana is delicious, isn't it?" In Topic-1, when Human H makes a positive intention, Robot R1 First speaks to person H, "That's right." After that, he expands and interprets the affirmative intention of person H to the robot R2 and utters, for example, "I like fruits". On the other hand, the robot R2 speaks to the robot R1 to reinforce and approve the expanded interpretation of the robot R1, such as "Well, do you like fruits?".

つまり、ロボットR1およびR2どうしのTopicでの対話に対して人Hが肯定の意思表示をしたとき、対話の主導権を持つロボットR1が、人Hの肯定の意思表示を拡大解釈して承認するダイアログを実行し、続けてロボットR2がその拡大解釈を承認するダイアログを実行することによって、人Hが、その拡大解釈を実際に発話したと感じる。上の例では、人Hは、自分が「果物が好きだ」と実際に発話したという感覚を持つことになる。 That is, when the person H makes an affirmative intention for the dialogue between the robots R1 and R2 in the Topic, the robot R1 having the initiative of the dialogue expands and interprets the affirmative intention of the person H and approves it. By executing the dialog and subsequently executing the dialog in which the robot R2 approves the expanded interpretation, it is felt that the person H has actually spoken the expanded interpretation. In the above example, person H has the feeling that he actually said "I like fruits".

その後、ロボットR1およびR2が、図21で横長の矩形枠で示すような承認ダイアログを実行する。この例では、ロボットR2が人Hの肯定の意思表示に対するロボットR1の拡大解釈を承認しているので、その拡大解釈の承認に応答するように、ロボットR1がたとえば「きっとそういうタイプなんだよ」とロボットR2に向かって発話し、ロボットR2は、人Hが肯定の意思表示をしたのであるから、反対の立場として、人Hの肯定の意思表示をとがめるようなたとえば「ひどいね」と発話する。 After that, the robots R1 and R2 execute an approval dialog as shown by a horizontally long rectangular frame in FIG. 21. In this example, the robot R2 approves the expanded interpretation of the robot R1 for the affirmative intention of the person H, so that the robot R1 responds to the approval of the expanded interpretation, for example, "I'm sure it's that type." The robot R2 utters to the robot R2, and since the person H has made an affirmative intention, he utters, for example, "terrible" that rebukes the affirmative intention of the person H from the opposite position. ..

つまり、ここで、ロボットR1およびR2がそれぞれの立場で、拡大解釈を前提にして、人Hの肯定の意思表示を承認するような発話を実行する。 That is, here, the robots R1 and R2 execute utterances that approve the affirmative intention display of the person H on the premise of the expanded interpretation from their respective positions.

なお、この承認ダイアログでの発話は、ロボットR1およびR2のどちらの発話が先でもよく、ロボットR1およびR2の発話が同時に実行されてもよい。さらに、この承認ダイアログでは、ロボットR1およびR2の対話を実施例のように1回だけでなく、複数回実行するようにしてもよく、あるいは省略されてもよい。これらのことは、次の図22‐図25の例にも当てはまることを予め指摘しておく。 The utterance in this approval dialog may be the utterance of either the robots R1 or R2 first, and the utterances of the robots R1 and R2 may be executed at the same time. Further, in this approval dialog, the dialogue between the robots R1 and R2 may be executed not only once as in the embodiment but also a plurality of times, or may be omitted. It should be pointed out in advance that these things also apply to the following examples of FIGS. 22-25.

その後、主導権を持っているロボットR1が、同じTopic-1または別のTopic-2における主張を開始するためのつなぎの発話、たとえば「うん、それでね」のような発話する。その後ロボットR1およびR2が、Topic-1(or 2)(Anti-Topic-1(or 2))を継続する。 The robot R1 with the initiative then speaks a tether to initiate a claim in the same Topic-1 or another Topic-2, such as "Yeah, that's it." After that, the robots R1 and R2 continue Topic-1 (or 2) (Anti-Topic-1 (or 2)).

図21の例では、ロボットR1およびR2が人Hの肯定の意思表示を拡大解釈した承認したうえで、ロボットR1が人Hに同調する発話を行うことによって賛成の立場で人Hの肯定の意思表示を承認し、ロボットR2が人Hの肯定の意思表示に同調しない発話を行うことによって反対の立場で人Hの肯定の意思表示を承認する。 In the example of FIG. 21, after the robots R1 and R2 approve the expanded interpretation of the affirmative intention of the person H, the robot R1 makes an utterance synchronized with the person H, and the affirmative intention of the person H is in favor of the robot R1. The display is approved, and the robot R2 approves the affirmative intention of the person H from the opposite position by making an utterance that does not synchronize with the affirmative intention of the person H.

図22の例では、対話の主導権をもって、ロボットR1はTopic-1について賛成の立場で発話し、ロボットR2はロボットR1に追従する立場で発話する。Topic-1(Follow-Topic-1)の発話の後、図16の場合と同様に、ロボットR1およびR2がともに人Hを見るという非言語動作を実行することによって、人Hの意思表示を促す。 In the example of FIG. 22, the robot R1 speaks in favor of Topic-1 and the robot R2 speaks in a position of following the robot R1 with the initiative of the dialogue. After the utterance of Topic-1 (Follow-Topic-1), as in the case of FIG. 16, the robots R1 and R2 both perform a non-verbal operation of looking at the human H, thereby prompting the intention display of the human H. ..

人Hが肯定の意思表示をした後、ロボットR1は、たとえば図15のステップS83において、人Hの肯定の意思表示を拡大解釈して承認するダイアログを実行する。まず、人Hが肯定の意思表示しかつ自分は追従する立場であるので、人Hに同調するようにたとえば「そうだよね」と発話する。そして、人Hの肯定の意思表示を拡大する発話をロボットR2に対して実行する。 After the person H makes an affirmative intention, the robot R1 executes a dialog for expanding and interpreting and approving the affirmative intention of the person H, for example, in step S83 of FIG. First, since the person H expresses a positive intention and is in a position to follow him, he utters, for example, "That's right" so as to synchronize with the person H. Then, an utterance that expands the affirmative intention display of the person H is executed for the robot R2.

たとえば、Topic-1が嗜好品をテーマにした話題だとして、ロボットR1がTopic-1のなかで「バナナっておいしいですよね」と発話したとき、人Hが肯定の意思表示をしたとき、ロボットR1は、まず「そうだよね」と人Hに向かって発話する。その後、ロボットR2に向かって、人Hの肯定の意思表示を拡大解釈してたとえば「果物が好きなんだって」と発話する。それに対してロボットR2がロボットR1に対して、たとえば「話がわかるね」のような、ロボットR1の拡大解釈を補強、承認するような発話をする。 For example, if Topic-1 is a topic on the theme of luxury items, when robot R1 utters "Banana is delicious, isn't it?" In Topic-1, when person H makes a positive intention, the robot R1 first speaks to person H, "That's right." After that, he expands and interprets the affirmative intention of person H to the robot R2 and utters, for example, "I like fruits". On the other hand, the robot R2 makes an utterance to the robot R1 to reinforce and approve the expanded interpretation of the robot R1, such as "I understand the story".

つまり、ロボットR1およびR2どうしのTopic(Follow-Topic)での対話に対して人Hが肯定の意思表示をしたとき、対話の主導権を持つロボットR1が、人Hの肯定の意思表示を拡大解釈して承認するダイアログを実行し、続けてロボットR2がその拡大解釈を承認するダイアログを実行することによって、人Hが、その拡大解釈を実際に発話したと感じる。上の例では、人Hは、自分が実際に「果物が好きだ」と発話したという感覚を持つ。 That is, when the person H makes an affirmative expression for the dialogue between the robots R1 and R2 in the Topic (Follow-Topic), the robot R1 having the initiative of the dialogue expands the affirmative intention of the person H. By executing the dialog for interpreting and approving, and subsequently executing the dialog for the robot R2 to approve the expanded interpretation, it is felt that the person H has actually spoken the expanded interpretation. In the above example, person H has the feeling that he actually said, "I like fruits."

その後、ロボットR1およびR2が、図22で横長の矩形枠で示すような承認ダイアログを実行する。この例では、ロボットR2が人Hの肯定の意思表示に対するロボットR1の拡大解釈を承認しているので、その拡大解釈の承認に応答するように、ロボットR1がたとえば「きっとそういうタイプな気がしてたんだ」とロボットR2に向かって発話し、ロボットR2は、人Hが肯定の意思表示をしたのであるから、ロボットR1に追従する立場として、人Hの肯定の意思表示に同調するようなたとえば「そうだよね」と発話する。 After that, the robots R1 and R2 execute an approval dialog as shown by a horizontally long rectangular frame in FIG. 22. In this example, since the robot R2 approves the expanded interpretation of the robot R1 for the affirmative intention of the person H, the robot R1 responds to the approval of the expanded interpretation, for example, "I feel like that type. "It was terrible," he said to the robot R2, and since the robot R2 had a positive intention expression by the person H, he was in a position to follow the robot R1 and synchronized with the affirmative intention expression of the person H. For example, say "That's right."

つまり、ここで、ロボットR1およびR2がそれぞれの立場で、拡大解釈を前提にして、人Hの肯定の意思表示を承認するような発話を実行する。 That is, here, the robots R1 and R2 execute utterances that approve the affirmative intention display of the person H on the premise of the expanded interpretation from their respective positions.

その後、主導権を持っているロボットR1が、同じTopic-1または別のTopic-2における対話に復帰するためのつなぎの発話、たとえば「うん、それでね」のような発話する。その後ロボットR1およびR2が、Topic-1(or 2)(Anti-Topic-1(or 2))を継続する。 After that, the robot R1 having the initiative makes a tethered utterance to return to the dialogue in the same Topic-1 or another Topic-2, for example, "Yeah, that's it". After that, the robots R1 and R2 continue Topic-1 (or 2) (Anti-Topic-1 (or 2)).

図22の例では、ロボットR1およびR2が人Hの肯定の意思表示を拡大解釈した承認したうえで、ロボットR1が人Hに同調する発話を行うことによって賛成の立場で人Hの肯定の意思表示を拡大解釈して承認し、ロボットR2も人Hの肯定の意思表示に同調する発話を行うことによってロボットR1に追従する立場で人Hの肯定の意思表示を承認する。 In the example of FIG. 22, after the robots R1 and R2 approve the expanded interpretation of the affirmative intention of the person H, the robot R1 makes an utterance synchronized with the person H, and the affirmative intention of the person H is in favor of the robot R1. The display is enlarged and interpreted, and the robot R2 also approves the affirmative intention of the person H from the standpoint of following the robot R1 by making an utterance in synchronization with the affirmative intention of the person H.

図23の例では、対話の主導権をもって、ロボットR1はTopic-1について賛成の立場で発話し、ロボットR2はロボットR1に反対する立場で発話する。Topic-1(Anti-Topic-1)の発話の後、図16の場合と同様に、ロボットR1およびR2がともに人Hを見るという非言語動作を実行することによって、人Hの意思表示を促す。 In the example of FIG. 23, the robot R1 speaks in favor of Topic-1 and the robot R2 speaks in opposition to the robot R1 with the initiative of the dialogue. After the utterance of Topic-1 (Anti-Topic-1), as in the case of FIG. 16, the robots R1 and R2 both perform a non-verbal operation of looking at the human H, thereby prompting the intention display of the human H. ..

人Hが否定の意思表示をした後、ロボットR2は、たとえば図15のステップS83において、人Hの否定の意思表示を拡大解釈して承認するダイアログを実行する。まず、人Hが否定の意思表示しかつ自分は反対の立場であるので、人Hに同調するようにたとえば「そうだよね」と発話する。そして、人Hの否定の意思表示を拡大する発話をロボットR2に対して実行する。 After the person H makes a negative intention display, the robot R2 executes a dialog for expanding and interpreting and approving the negative intention display of the person H, for example, in step S83 of FIG. First, since the person H expresses a negative intention and he is in the opposite position, he utters, for example, "That's right" so as to be in tune with the person H. Then, an utterance that expands the negative intention display of the person H is executed for the robot R2.

たとえば、Topic-1が嗜好品をテーマにした話題だとして、ロボットR1がTopic-1のなかで「バナナっておいしいですよね」と発話したとき、人Hが否定の意思表示をしたとき、ロボットR2は、まず「そうだよね」と人Hに向かって発話する。その後、ロボットR1に向かって、人Hの否定の意思表示を拡大解釈してたとえば「果物が嫌いなんだって」と発話する。それに対してロボットR1がロボットR2に対して、たとえば「え、果物が嫌いなの?」のような、ロボットR2の拡大解釈を補強、承認するような発話をする。 For example, if Topic-1 is a topic on the theme of luxury items, when robot R1 utters "Banana is delicious, isn't it?" In Topic-1, when person H expresses a negative intention, the robot R2 first speaks to person H, "That's right." After that, he expands and interprets the negative intention of person H to the robot R1 and utters, for example, "I hate fruits." On the other hand, the robot R1 speaks to the robot R2 to reinforce and approve the expanded interpretation of the robot R2, for example, "Do you hate fruits?"

つまり、ロボットR1およびR2どうしのTopic(Anti-Topic)での対話に対して人Hが否定の意思表示をしたとき、ロボットR1に反対するロボットR2が、人Hの否定の意思表示を拡大解釈して承認するダイアログを実行し、続けてロボットR1がその拡大解釈を承認するダイアログを実行することによって、人Hが、実際にその拡大解釈を発話したと感じる。上の例では、人Hは、自分が「果物が嫌いだ」と実際に発話したという感覚を持つことになる。 That is, when the human H expresses a negative intention to the dialogue between the robots R1 and R2 in the Topic (Anti-Topic), the robot R2 opposed to the robot R1 expands and interprets the negative intention display of the human H. By executing the dialog for approving the robot R1 and subsequently executing the dialog for the robot R1 approving the expanded interpretation, it is felt that the person H has actually spoken the expanded interpretation. In the above example, person H has the feeling that he actually said "I don't like fruits".

その後、ロボットR2およびR1が、図23で横長の矩形枠で示すような承認ダイアログを実行する。この例では、ロボットR1が人Hの否定の意思表示に対するロボットR2の拡大解釈を承認しているので、その拡大解釈の承認に応答するように、ロボットR2がたとえば「きっとそういうタイプなんだよ」とロボットR1に向かって発話し、人Hが否定の意思表示をしたのであるから、ロボットR2に反対されている立場なので、ロボットR1は、人Hの否定の意思表示に同調しないようなたとえば「ひどいね」と発話する。 After that, the robots R2 and R1 execute an approval dialog as shown by a horizontally long rectangular frame in FIG. 23. In this example, the robot R1 approves the expanded interpretation of the robot R2 for the negative intention of the person H, so the robot R2 responds to the approval of the expanded interpretation, for example, "I'm sure it's that type." And the robot R1 made a negative intention, so the robot R1 does not agree with the negative intention of the human H because he is in a position of being opposed to the robot R2. It's terrible. "

つまり、ここで、ロボットR1およびR2がそれぞれの立場で、拡大解釈を前提にして、人Hの否定の意思表示を承認するような発話を実行する。 That is, here, the robots R1 and R2 execute an utterance that approves the negative intention display of the person H on the premise of the expanded interpretation from their respective positions.

その後、主導権を持っているロボットR1が、同じTopic-1または別のTopic-2における対話に復帰するためのつなぎの発話、たとえば「いや、でもね」のような発話する。その後ロボットR1およびR2が、Topic-1(or 2)(Anti-Topic-1(or 2))を継続する。 After that, the robot R1 having the initiative speaks a tie to return to the dialogue in the same Topic-1 or another Topic-2, for example, "No, but". After that, the robots R1 and R2 continue Topic-1 (or 2) (Anti-Topic-1 (or 2)).

図23の例では、ロボットR1およびR2が人Hの否定の意思表示を拡大解釈した承認したうえで、ロボットR2が人Hに同調する発話を行うことによって反対の立場で人Hの否定の意思表示を拡大解釈して承認し、ロボットR1は人Hの否定の意思表示に同調しない発話を行うことによって人Hの否定の意思表示を承認する。 In the example of FIG. 23, after the robots R1 and R2 approve the expanded interpretation of the negative intention of the human H, the robot R2 makes an utterance synchronized with the human H, and the negative intention of the human H is in the opposite position. The display is enlarged and approved, and the robot R1 approves the negative intention of the person H by making an utterance that does not synchronize with the negative intention of the person H.

図24の例では、対話の主導権をもって、ロボットR1はTopic-1について賛成の立場で発話し、ロボットR2はロボットR1に対して反対の立場で発話する。Topic-1(Anti-Topic-1)の発話の後、図16の場合と同様に、ロボットR1およびR2がともに人Hを見るという非言語動作を実行することによって、人Hの意思表示を促す。 In the example of FIG. 24, the robot R1 speaks in favor of Topic-1 and the robot R2 speaks in the opposite position to the robot R1 with the initiative of the dialogue. After the utterance of Topic-1 (Anti-Topic-1), as in the case of FIG. 16, the robots R1 and R2 both perform a non-verbal operation of looking at the human H, thereby prompting the intention display of the human H. ..

人Hが肯定の意思表示をした後、ロボットR1は、たとえば図15のステップS83において、人Hの肯定の意思表示を拡大解釈して承認するダイアログを実行する。まず、人Hが肯定の意思表示しかつ自分は賛成の立場であるので、人Hに同調するようにたとえば「そうだよね」と発話する。そして、人Hの肯定の意思表示を拡大する発話をロボットR2に対して実行する。 After the person H makes an affirmative intention, the robot R1 executes a dialog for expanding and interpreting and approving the affirmative intention of the person H, for example, in step S83 of FIG. First, since person H expresses affirmative intention and he is in a position of support, he utters, for example, "That's right" so as to be in tune with person H. Then, an utterance that expands the affirmative intention display of the person H is executed for the robot R2.

たとえば、Topic-1が嗜好品をテーマにした話題だとして、ロボットR1がTopic-1のなかで「バナナっておいしいですよね」と発話したとき、人Hが肯定の意思表示をしたとき、ロボットR1は、まず「そうだよね」と人Hに向かって発話する。その後、ロボットR2に向かって、人Hの肯定の意思表示を拡大解釈してたとえば「果物が好きなんだって」と発話する。それに対してロボットR2がロボットR1に対して、たとえば「え、果物なんか好きなの?」のような、ロボットR1の拡大解釈を補強、承認するような発話をする。 For example, if Topic-1 is a topic on the theme of luxury items, when robot R1 utters "Banana is delicious, isn't it?" In Topic-1, when person H makes a positive intention, the robot R1 first speaks to person H, "That's right." After that, he expands and interprets the affirmative intention of person H to the robot R2 and utters, for example, "I like fruits". On the other hand, the robot R2 speaks to the robot R1 to reinforce and approve the expanded interpretation of the robot R1, such as "Well, do you like fruits?".

つまり、ロボットR1およびR2どうしのTopicでの対話に対して人Hが肯定の意思表示をしたとき、対話の主導権を持つロボットR1が、人Hの肯定の意思表示を拡大解釈して承認するダイアログを実行し、続けてロボットR2がその拡大解釈を承認するダイアログを実行することによって、人Hが、その拡大解釈を発話したと感じる。上の例では、人Hは、自分が実際に果物が好きだ」と発話したという感覚を持つことになる。 That is, when the person H makes an affirmative intention for the dialogue between the robots R1 and R2 in the Topic, the robot R1 having the initiative of the dialogue expands and interprets the affirmative intention of the person H and approves it. By executing the dialog and subsequently executing the dialog in which the robot R2 approves the expanded interpretation, it is felt that the person H has spoken the expanded interpretation. In the above example, person H has the feeling that he really likes fruits. "

その後、ロボットR1およびR2が、図21で横長の矩形枠で示すような承認ダイアログを実行する。この例では、ロボットR2が人Hの肯定の意思表示に対するロボットR1の拡大解釈を承認しているので、その拡大解釈の承認に応答するように、ロボットR1がたとえば「きっとそういうタイプなんだよ」とロボットR2に向かって発話し、ロボットR2は、人Hが肯定の意思表示をしたのであるから、反対の立場として、人Hの肯定の意思表示をとがめるようなたとえば「ひどいね」と発話する。 After that, the robots R1 and R2 execute an approval dialog as shown by a horizontally long rectangular frame in FIG. 21. In this example, the robot R2 approves the expanded interpretation of the robot R1 for the affirmative intention of the person H, so that the robot R1 responds to the approval of the expanded interpretation, for example, "I'm sure it's that type." The robot R2 utters to the robot R2, and since the person H has made an affirmative intention, he utters, for example, "terrible" that rebukes the affirmative intention of the person H from the opposite position. ..

つまり、ここで、ロボットR1およびR2がそれぞれの立場で、拡大解釈を前提にして、人Hの肯定の意思表示を承認するような発話を実行する。 That is, here, the robots R1 and R2 execute utterances that approve the affirmative intention display of the person H on the premise of the expanded interpretation from their respective positions.

その後、主導権がロボットR2に移り、ロボットR2が、Topic-1(or 2)での主張を開始するためのつなぎの発話、たとえば「いや、でもね」のような発話する。その後ロボットR2およびR1が、Topic-1(or 2)(Anti-Topic-1(or 2))を継続する。 After that, the initiative is transferred to the robot R2, and the robot R2 utters a tie to start the claim in Topic-1 (or 2), for example, "No, but". After that, the robots R2 and R1 continue Topic-1 (or 2) (Anti-Topic-1 (or 2)).

図24の例では、ロボットR1およびR2が人Hの肯定の意思表示を拡大解釈した承認したうえで、ロボットR2が人Hに同調する発話を行うことによって反対の立場で人Hの肯定の意思表示を拡大解釈して承認し、ロボットR1は人Hの肯定の意思表示に同調しない発話を行うことによって人Hの肯定の意思表示を承認する。 In the example of FIG. 24, after the robots R1 and R2 approve the expanded interpretation of the affirmative intention of the person H, the robot R2 makes an utterance synchronized with the person H, so that the affirmative intention of the person H is in the opposite position. The display is enlarged and approved, and the robot R1 approves the affirmative intention of the person H by making an utterance that does not synchronize with the affirmative intention of the person H.

上述の実施例では、人Hの意思表示はたとえば意思表示デバイス17の人の操作に応じて入力するようにした。しかしながら、たとえばカメラ16からの画像信号を処理し、たとえば人Hが頷いたら「肯定」の意思表示があったとし、首を振ったら「否定」の意思表示があったとするようにしてもよい。 In the above-described embodiment, the intention display of the person H is input according to, for example, the operation of the person of the intention display device 17. However, for example, the image signal from the camera 16 may be processed so that, for example, when the person H nods, there is an indication of "affirmation", and when he shakes his head, there is an indication of "denial".

図25の例では、対話の主導権をもって、ロボットR1はTopic-1について賛成の立場で発話し、ロボットR2はロボットR1に反対する立場で発話する。Topic-1(Anti-Topic-1)の発話の後、図16の場合と同様に、ロボットR1およびR2がともに人Hを見るという非言語動作を実行することによって、人Hの意思表示を促す。 In the example of FIG. 25, the robot R1 speaks in favor of Topic-1 and the robot R2 speaks in opposition to the robot R1 with the initiative of the dialogue. After the utterance of Topic-1 (Anti-Topic-1), as in the case of FIG. 16, the robots R1 and R2 both perform a non-verbal operation of looking at the human H, thereby prompting the intention display of the human H. ..

人Hが否定の意思表示をした後、ロボットR2は、たとえば図15のステップS83において、人Hの否定の意思表示を拡大解釈して承認するダイアログを実行する。まず、人Hが否定の意思表示しかつ自分は反対の立場であるので、人Hに同調するようにたとえば「そうだよね」と発話する。そして、人Hの否定の意思表示を拡大する発話をロボットR2に対して実行する。 After the person H makes a negative intention display, the robot R2 executes a dialog for expanding and interpreting and approving the negative intention display of the person H, for example, in step S83 of FIG. First, since the person H expresses a negative intention and he is in the opposite position, he utters, for example, "That's right" so as to be in tune with the person H. Then, an utterance that expands the negative intention display of the person H is executed for the robot R2.

たとえば、Topic-1が嗜好品をテーマにした話題だとして、ロボットR1がTopic-1のなかで「バナナっておいしいですよね」と発話したとき、人Hが否定の意思表示をしたとき、ロボットR2は、まず「そうだよね」と人Hに向かって発話する。その後、ロボットR1に向かって、人Hの否定の意思表示を拡大解釈してたとえば「果物が嫌いなんだって」と発話する。それに対してロボットR1がロボットR2に対して、たとえば「え、果物が嫌いなの?」のような、ロボットR2の拡大解釈を補強、承認するような発話をする。 For example, if Topic-1 is a topic on the theme of luxury items, when robot R1 utters "Banana is delicious, isn't it?" In Topic-1, when person H expresses a negative intention, the robot R2 first speaks to person H, "That's right." After that, he expands and interprets the negative intention of person H to the robot R1 and utters, for example, "I hate fruits." On the other hand, the robot R1 speaks to the robot R2 to reinforce and approve the expanded interpretation of the robot R2, for example, "Do you hate fruits?"

つまり、ロボットR1およびR2どうしのTopic(Anti-Topic)での対話に対して人Hが否定の意思表示をしたとき、ロボットR1に反対するロボットR2が、人Hの否定の意思表示を拡大解釈して承認するダイアログを実行し、続けてロボットR1がその拡大解釈を承認するダイアログを実行することによって、人Hが、実際にその拡大解釈を発話したと感じる。上の例では、人Hは、自分が「果物が嫌いだ」と実際に発話したという感覚を持つことになる。 That is, when the human H expresses a negative intention to the dialogue between the robots R1 and R2 in the Topic (Anti-Topic), the robot R2 opposed to the robot R1 expands and interprets the negative intention display of the human H. By executing the dialog for approving the robot R1 and subsequently executing the dialog for the robot R1 approving the expanded interpretation, it is felt that the person H has actually spoken the expanded interpretation. In the above example, person H has the feeling that he actually said "I don't like fruits".

その後、ロボットR2およびR1が、図23で横長の矩形枠で示すような承認ダイアログを実行する。この例では、ロボットR1が人Hの否定の意思表示に対するロボットR2の拡大解釈を承認しているので、その拡大解釈の承認に応答するように、ロボットR2がたとえば「きっとそういうタイプなんだよ」とロボットR1に向かって発話し、人Hが否定の意思表示をしたのであるから、ロボットR2に反対されている立場なので、ロボットR1は、人Hの否定の意思表示に同調しないようなたとえば「ひどいね」と発話する。 After that, the robots R2 and R1 execute an approval dialog as shown by a horizontally long rectangular frame in FIG. 23. In this example, the robot R1 approves the expanded interpretation of the robot R2 for the negative intention of the person H, so the robot R2 responds to the approval of the expanded interpretation, for example, "I'm sure it's that type." And the robot R1 made a negative intention, so the robot R1 does not agree with the negative intention of the human H because he is in a position of being opposed to the robot R2. It's terrible. "

つまり、ここで、ロボットR1およびR2がそれぞれの立場で、拡大解釈を前提にして、人Hの否定の意思表示を承認するような発話を実行する。 That is, here, the robots R1 and R2 execute an utterance that approves the negative intention display of the person H on the premise of the expanded interpretation from their respective positions.

その後、主導権がロボットR2に移り、ロボットR2がTopic-1(or 2)での主張開始のつなぎの発話、たとえば「いや、でもね」のような発話する。その後ロボットR2およびR1が、Anti-Topic-1(or 2)(Topic-1(or 2))を継続する。 After that, the initiative is transferred to the robot R2, and the robot R2 utters the utterance of the connection of the start of the claim in Topic-1 (or 2), for example, "No, but". After that, the robots R2 and R1 continue Anti-Topic-1 (or 2) (Topic-1 (or 2)).

図25の例では、ロボットR1およびR2が人Hの否定の意思表示を拡大解釈した承認したうえで、ロボットR2が人Hに同調する発話を行うことによって反対の立場で人Hの否定の意思表示を拡大解釈して承認し、ロボットR1は人Hの否定の意思表示に同調しない発話を行うことによって人Hの否定の意思表示を承認する。 In the example of FIG. 25, after the robots R1 and R2 approve the expanded interpretation of the negative intention of the human H, the robot R2 makes an utterance synchronized with the human H, so that the negative intention of the human H is in the opposite position. The display is enlarged and approved, and the robot R1 approves the negative intention of the person H by making an utterance that does not synchronize with the negative intention of the person H.

なお、図16‐図25に示す具体例において、人Hの意思を認定したとき、ロボットR1およびR2の対話によってその意思を承認するようにしたが、実行手段の一例である図15のステップS83で示す承認ダイアログでは、少なくとも1体のエージェント(実施例では、ロボットR1およびR2の少なくとも一方)の発話で人Hの意思を承認するようにしてもよい。 In the specific example shown in FIGS. 16 to 25, when the intention of the person H is recognized, the intention is approved by the dialogue between the robots R1 and R2, but step S83 in FIG. 15 is an example of the execution means. In the approval dialog shown by, the intention of the person H may be approved by the utterance of at least one agent (at least one of the robots R1 and R2 in the embodiment).

さらに、認定した人Hの意思を承認するためには、図15のステップS77における非言語動作を実行させるようにしてもよい。この場合、ステップS77も実行手段を構成することになる。 Further, in order to approve the intention of the certified person H, the non-verbal operation in step S77 of FIG. 15 may be executed. In this case, step S77 also constitutes the execution means.

なお、上述の実施例では、各ロボットR1およびダイアログデータベース22に予め蓄積しておくようにした。しかしながら、このデータベース22に代えて、たとえばネットから必要なスクリプトデータを逐次グループマネージャ20に供給するようにしてもよい。 In the above embodiment, the robots R1 and the dialog database 22 are stored in advance. However, instead of this database 22, necessary script data may be sequentially supplied to the group manager 20 from the net, for example.

さらに、上述の実施例は、物理的なエージェントであるロボットを用いたロボット対話システムであるが、この発明は、そのような物理的なエージェントだけでなく、たとえばディスプレイの画面上に表示されるアバタないしキャラクタのようなエージェントどうしの対話システムも適用されてもよい。この場合、図1のロボットコントローラ24やロボットセンサ26は、そのようなアバタやキャラクタを表示するためのディスプレイコントローラ(図示せず)に代えられる。つまり、この発明は、エージェント対話システムである。 Further, the above-mentioned embodiment is a robot dialogue system using a robot which is a physical agent, but the present invention is not limited to such a physical agent, but also an avatar displayed on the screen of a display, for example. Alternatively, an agent-to-agent dialogue system such as a character may be applied. In this case, the robot controller 24 and the robot sensor 26 in FIG. 1 are replaced with a display controller (not shown) for displaying such avatars and characters. That is, the present invention is an agent dialogue system.

10 …ロボット対話システム
12 …対話場所
R1、R2 …ロボット
17 …意思表示デバイス
18 …センサマネージャ
20 …グループマネージャ
22 …ダイアログデータベース
23 …人意思処理モジュール
24 …ロボットコントローラ
10… Robot dialogue system 12… Dialogue place R1, R2… Robot 17… Intention display device 18… Sensor manager 20… Group manager 22… Dialog database 23… Human intention processing module 24… Robot controller

Claims (3)

それぞれが発話機能を有する2体のエージェントが対話場所においてスクリプトに従って対話し、対話場所に人が陪席するエージェント対話システムであって、
前記対話場所における前記人の行為や状態変化などのセンサ信号を、前記人の実際の意思の如何によらず、前記人が表明した意思として認定するセンサマネージャ
前記センサマネージャが認定した、承認すべき意思があるかどうか判断する第1判断手段、
前記第1判断手段が前記承認すべき意思があると判断したとき、前記スクリプトからダイアログキューにロードされた第1承認ダイアログに従って前記2体のエージェントに前記人の意思を承認する非言語動作を実行させる第1承認ダイアログ実行手段、
前記スクリプトに従って前記人の意思を確認するフェーズかどうか判断する第2判断手段、
前記第2判断手段で前記人の意思を確認するフェーズであると判断したとき、前記人の意思を確認できたかどうか判断する第3判断手段、および
前記第3判断手段が前記人の意思を確認できたと判断したとき、前記スクリプトから前記ダイアログキューにロードされた第2承認ダイアログに従って前記2体のエージェントに人の意思を承認する対話を実行させる第2承認ダイアログ実行手段を備え
前記第2承認ダイアログ実行手段は、前記2体のエージェントの1つに、前記人の意思に対して同調する発話または同調しない発話をさせ、前記2体のエージェントの他の1つに、前記人の意思に対して同調しない発話をさせる、エージェント対話システム。
It is an agent dialogue system in which two agents, each having a speech function, interact according to a script at the dialogue place, and a person sits at the dialogue place.
A sensor manager that recognizes sensor signals such as the person's actions and state changes at the dialogue place as the intention expressed by the person regardless of the person's actual intention.
The first judgment means, which is certified by the sensor manager and determines whether or not there is an intention to approve,
When the first determination means determines that there is an intention to approve, a non-verbal operation is executed to approve the intention of the person to the two agents according to the first approval dialog loaded from the script into the dialog queue. First approval dialog execution means,
A second judgment means for determining whether or not the phase is to confirm the intention of the person according to the script.
When the second judgment means determines that the phase is to confirm the intention of the person, the third judgment means for determining whether or not the intention of the person has been confirmed, and
When it is determined that the third determination means can confirm the intention of the person, the second agent causes the two agents to execute a dialogue to approve the intention of the person according to the second approval dialog loaded from the script into the dialog queue. 2 Equipped with approval dialog execution means
The second approval dialog execution means causes one of the two agents to make utterances that are synchronized or out of sync with the intention of the person, and the other one of the two agents is made to speak the person. An agent dialogue system that makes utterances that are out of sync with the intentions of .
前記第2承認ダイアログ実行手段は、前記人の意思を拡大解釈したうえで、前記2体のエージェントに前記承認発話を実行させる、請求項1記載のエージェント対話システム。 The agent dialogue system according to claim 1 , wherein the second approval dialog execution means causes the two agents to execute the approval utterance after expanding and interpreting the intention of the person . それぞれが発話機能を有する2体のエージェントが対話場所においてスクリプトに従って対話し、対話場所に人が陪席するエージェント対話システムのコンピュータによって実行されるプログラムであって、前記プログラムは前記コンピュータを、
前記対話場所における前記人の行為や状態変化などのセンサ信号を、前記人の実際の意思の如何によらず、前記人が表明した意思として認定するセンサマネージャ
前記センサマネージャが認定した、承認すべき意思があるかどうか判断する第1判断手段、
前記第1判断手段が前記承認すべき意思があると判断したとき、前記スクリプトからダイアログキューにロードされた第1承認ダイアログに従って前記2体のエージェントに前記人の意思を承認する非言語動作を実行させる第1承認ダイアログ実行手段、
前記スクリプトに従って前記人の意思を確認するフェーズかどうか判断する第2判断手段、
前記第2判断手段で前記人の意思を確認するフェーズであると判断したとき、前記人の意思を確認できたかどうか判断する第3判断手段、および
前記第3判断手段が前記人の意思を確認できたと判断したとき、前記スクリプトから前記ダイアログキューにロードされた第2承認ダイアログに従って前記2体のエージェントに人の意思を承認する対話を実行させる第2承認ダイアログ実行手段として機能させ、
前記第2承認ダイアログ実行手段は、前記2体のエージェントの1つに、前記人の意思に対して同調する発話または同調しない発話をさせ、前記2体のエージェントの他の1つに、前記人の意思に対して同調しない発話をさせる、エージェント対話システムのプログラム。
A program executed by a computer of an agent dialogue system in which two agents, each having a speaking function, interact according to a script at a dialogue place, and a person sits at the dialogue place.
A sensor manager that recognizes sensor signals such as the person's actions and state changes at the dialogue place as the intention expressed by the person regardless of the person's actual intention.
The first judgment means, which is certified by the sensor manager and determines whether or not there is an intention to approve,
When the first determination means determines that there is an intention to approve, a non-verbal operation is executed to approve the intention of the person to the two agents according to the first approval dialog loaded from the script into the dialog queue. First approval dialog execution means,
A second judgment means for determining whether or not the phase is to confirm the intention of the person according to the script.
When the second judgment means determines that the phase is to confirm the intention of the person, the third judgment means for determining whether or not the intention of the person has been confirmed, and
When it is determined that the third determination means can confirm the intention of the person, the second agent causes the two agents to execute a dialogue to approve the intention of the person according to the second approval dialog loaded from the script into the dialog queue. 2 Make it function as an approval dialog execution means
The second approval dialog execution means causes one of the two agents to make utterances that are synchronized or out of sync with the intention of the person, and the other one of the two agents is made to speak the person. A program of an agent dialogue system that makes utterances that are out of sync with the intentions of .
JP2015207441A 2015-10-21 2015-10-21 Agent dialogue system Active JP6992957B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015207441A JP6992957B2 (en) 2015-10-21 2015-10-21 Agent dialogue system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015207441A JP6992957B2 (en) 2015-10-21 2015-10-21 Agent dialogue system

Publications (2)

Publication Number Publication Date
JP2017079004A JP2017079004A (en) 2017-04-27
JP6992957B2 true JP6992957B2 (en) 2022-01-13

Family

ID=58666911

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015207441A Active JP6992957B2 (en) 2015-10-21 2015-10-21 Agent dialogue system

Country Status (1)

Country Link
JP (1) JP6992957B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6647636B2 (en) * 2016-05-20 2020-02-14 日本電信電話株式会社 Dialogue method, dialogue system, dialogue device, and program
CN108594672B (en) * 2018-03-16 2020-04-10 中国地质大学(武汉) Drinking service robot active service method based on intention understanding
CN110362661A (en) * 2018-04-08 2019-10-22 微软技术许可有限责任公司 The chat robots technology for seeing position with three
JP2020020846A (en) * 2018-07-30 2020-02-06 国立大学法人大阪大学 Dialog system and program
WO2024127956A1 (en) * 2022-12-12 2024-06-20 国立大学法人大阪大学 Interaction system, control program and control method
CN117301074B (en) * 2023-11-17 2024-04-30 浙江孚宝智能科技有限公司 Control method and chip of intelligent robot

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009061547A (en) 2007-09-06 2009-03-26 Olympus Corp Robot control system, robot, program, and information storage medium
JP2015524934A (en) 2012-04-04 2015-08-27 アルデバラン ロボティクス Robot capable of incorporating natural dialogue with a user into the behavior of the robot, and method for programming and using the robot

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010071805A (en) * 1999-05-10 2001-07-31 이데이 노부유끼 Control device and method therefor, information processing device and method therefor, and medium
JP2004024867A (en) * 2003-06-09 2004-01-29 Matsushita Electric Ind Co Ltd Voice interaction toy
JP2009131928A (en) * 2007-11-30 2009-06-18 Olympus Corp Robot control system, robot, program and information recording medium
JP5215098B2 (en) * 2008-09-17 2013-06-19 オリンパス株式会社 Information processing system, program, and information storage medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009061547A (en) 2007-09-06 2009-03-26 Olympus Corp Robot control system, robot, program, and information storage medium
JP2015524934A (en) 2012-04-04 2015-08-27 アルデバラン ロボティクス Robot capable of incorporating natural dialogue with a user into the behavior of the robot, and method for programming and using the robot

Also Published As

Publication number Publication date
JP2017079004A (en) 2017-04-27

Similar Documents

Publication Publication Date Title
JP6992957B2 (en) Agent dialogue system
US20220254343A1 (en) System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs
JP6583765B2 (en) Agent dialogue system and program
JP6818280B2 (en) Dialogue system, dialogue method, dialogue device, and program
JP5982840B2 (en) Dialogue device, dialogue program, and dialogue method
US20190206407A1 (en) System and method for personalizing dialogue based on user's appearances
US20190202063A1 (en) System and method for selective animatronic peripheral response for human machine dialogue
US20210205987A1 (en) System and method for dynamic robot configuration for enhanced digital experiences
JP7517390B2 (en) COMMUNICATION SUPPORT PROGRAM, COMMUNICATION SUPPORT METHOD, COMMUNICATION SUPPORT SYSTEM, TERMINAL DEVICE, AND NON-VERBAL EXPRESSION PROGRAM
WO2017200074A1 (en) Dialog method, dialog system, dialog device, and program
JP6970413B2 (en) Dialogue methods, dialogue systems, dialogue devices, and programs
CN110774285A (en) Humanoid robot and method for executing dialogue between humanoid robot and user
Matsusaka et al. Conversation robot participating in group conversation
WO2019160612A1 (en) System and method for dynamic robot profile configurations based on user interactions
US20190248012A1 (en) System and method for dynamic program configuration
US20200034434A1 (en) Dialogue method, dialogue system, dialogue apparatus and program
Liu et al. Generation of nodding, head tilting and gazing for human–robot speech interaction
JP5223605B2 (en) Robot system, communication activation method and program
JP2019045928A (en) Sensory stimulation presentation system, program, and method
JP7120060B2 (en) VOICE DIALOGUE DEVICE, CONTROL DEVICE AND CONTROL PROGRAM FOR VOICE DIALOGUE DEVICE
Ehret et al. Who's next? Integrating Non-Verbal Turn-Taking Cues for Embodied Conversational Agents
US20040095389A1 (en) System and method for managing engagements between human users and interactive embodied agents
JP2017162268A (en) Dialog system and control program
JP7225642B2 (en) Communication robot, control method and control program
JP6647636B2 (en) Dialogue method, dialogue system, dialogue device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181016

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190625

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190819

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191021

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200407

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200706

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200706

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200714

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200807

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200818

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20200821

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20200825

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210330

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210518

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20210629

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210927

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20211005

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20211109

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20211109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211202

R150 Certificate of patent or registration of utility model

Ref document number: 6992957

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150