JP6992957B2 - Agent dialogue system - Google Patents
Agent dialogue system Download PDFInfo
- Publication number
- JP6992957B2 JP6992957B2 JP2015207441A JP2015207441A JP6992957B2 JP 6992957 B2 JP6992957 B2 JP 6992957B2 JP 2015207441 A JP2015207441 A JP 2015207441A JP 2015207441 A JP2015207441 A JP 2015207441A JP 6992957 B2 JP6992957 B2 JP 6992957B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- intention
- robot
- dialog
- dialogue
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Manipulator (AREA)
- User Interface Of Digital Computer (AREA)
Description
この発明は、エージェント対話システムに関し、特にたとえば、複数のエージェントと少なくとも1人の人が参加する、新規なエージェント対話システムに関する。 The present invention relates to an agent dialogue system, particularly, for example, a novel agent dialogue system in which a plurality of agents and at least one person participate.
ロボット分野の広がりとともに、ロボット研究は,日常的な場面で働くロボットの研究に焦点を移しつつあり、人間が生活する環境の中で、人と対話することができるロボットの開発が注目されている。 With the expansion of the robot field, robot research is shifting its focus to research on robots that work in everyday situations, and the development of robots that can interact with humans in the environment in which humans live is drawing attention. ..
近年の音声認識の技術の発展により、これまでにも人間と音声言語でやりとりをする機能を持つロボットが開発されてきているが、音声認識技術をいくら優れたものにしても、ロボットと人との対話において、人が人との対話に参加しているときに抱く「対話感(対話に参加しているという感覚)」と同等の感覚を、ロボットと対話する人に与え続けることは容易ではなかった。 With the development of voice recognition technology in recent years, robots that have the function of interacting with humans in voice language have been developed, but no matter how good the voice recognition technology is, robots and people In the dialogue, it is not easy to continue to give the person who interacts with the robot the same feeling as the "sense of dialogue (feeling of participating in the dialogue)" that a person has when participating in the dialogue with a person. I didn't.
背景技術の一例である特許文献1には、ロボットと人との対話において、ロボットが人の感情を推測して応答文の発話とその発話に伴う動作を決定することが開示されている。
特許文献2には、人とロボットとの対話システムにおいて、両者の同調を図ることで、持続的で自然なインタラクションを実現しようとするものである。
特許文献1の技術においても、特許文献2の技術においても、音声認識に基づく処理に限界があり、上述の「対話感」を人が持続することは容易ではない。
In both the technique of
それゆえに、この発明の主たる目的は、新規な、エージェント対話システムを提供することである。 Therefore, the main object of the present invention is to provide a novel, agent dialogue system.
この発明の他の目的は、人に対話に参加している感覚を持続させることができる、エージェント対話システムを提供することである。 Another object of the present invention is to provide an agent dialogue system capable of sustaining a person's sense of participation in dialogue.
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。 The present invention has adopted the following configuration in order to solve the above problems. The reference numerals and supplementary explanations in parentheses indicate the correspondence with the embodiments described in order to help the understanding of the present invention, and do not limit the present invention in any way.
第1の発明は、それぞれが発話機能を有する2体のエージェントが対話場所においてスクリプトに従って対話し、対話場所に人が陪席するエージェント対話システムであって、
対話場所における人の行為や状態変化などのセンサ信号を、人の実際の意思の如何によらず、人が表明した意思として認定するセンサマネージャ、センサマネージャが認定した、承認すべき意思があるかどうか判断する第1判断手段、第1判断手段が承認すべき意思があると判断したとき、スクリプトからダイアログキューにロードされた第1承認ダイアログに従って2体のエージェントに人の意思を承認する非言語動作を実行させる第1承認ダイアログ実行手段、スクリプトに従って人の意思を確認するフェーズかどうか判断する第2判断手段、第2判断手段で人の意思を確認するフェーズであると判断したとき、人の意思を確認できたかどうか判断する第3判断手段、および第3判断手段が人の意思を確認できたと判断したとき、スクリプトからダイアログキューにロードされた第2承認ダイアログに従って2体のエージェントに人の意思を承認する対話を実行させる第2承認ダイアログ実行手段を備え、第2承認ダイアログ実行手段は、2体のエージェントの1つに、人の意思に対して同調する発話または同調しない発話をさせ、2体のエージェントの他の1つに、前記人の意思に対して同調しない発話をさせる、エージェント対話システムである。
The first invention is an agent dialogue system in which two agents, each having a speech function, interact with each other according to a script at the dialogue place, and a person sits at the dialogue place.
Whether there is a sensor manager who certifies sensor signals such as human actions and state changes at the dialogue place as the intention expressed by the person, regardless of the actual intention of the person, and whether there is an intention to be approved by the sensor manager. A non-language that approves a person's intention to two agents according to the first approval dialog loaded from the script into the dialog queue when the first judgment means and the first judgment means decide that they have the intention to approve. When it is determined that the first approval dialog execution means for executing the operation, the second judgment means for determining whether or not the phase is for confirming the human intention according to the script, and the second judgment means for confirming the human intention, the person's intention is confirmed. When it is determined that the third judgment means for determining whether or not the intention can be confirmed and the third judgment means can confirm the intention of the person, the two agents are assigned to the two agents according to the second approval dialog loaded from the script into the dialog queue. The second approval dialog execution means is provided with a second approval dialog execution means for executing a dialogue for approving the intention, and the second approval dialog execution means causes one of the two agents to make utterances that are in sync with or out of sync with the intention of a person. It is an agent dialogue system that causes the other one of the two agents to make an utterance that is out of sync with the intention of the person .
第1の発明では、エージェント対話システム(10:実施例において相当する部分を例示する参照符号。以下、同様。)は、対話場所(12)に、それぞれが発話機能(46)を有する2体のエージェント(R1,R2)を配置し、その対話場所(12)に人(H)が陪席する。エージェントどうしはスクリプトに従って対話する。センサマネージャ(18)が、たとえば、マイク(14)が取得した音声信号、カメラ(16)が撮影した画像信号および意思表示デバイス(17)が検出した入力信号(肯定、否定)、さらには生体信号を検出する生体センサ、モーションキャプチャシステムによって検知された人の行為や状態変化などのセンサ信号を、人の実際の意思の如何によらず、人が表明した意思として認定する。第1判断手段(20、S75)は、センサマネージャ(18)が認定した、承認すべき意思があるかどうか判断する。この第1判断手段が承認すべき意思があると判断したとき、第1承認ダイアログ実行手段(20、S77)が、スクリプトからダイアログキューにロードされた第1承認ダイアログに従って2体のエージェントに人の意思を承認する非言語動作を実行させる。第1承認ダイアログ実行手段による非言語動作の後、第2判断手段(20、S79)が、スクリプトに従って人の意思を確認するフェーズかどうか判断する。第2判断手段で人の意思を確認するフェーズであると判断したとき、第3判断手段(20、S81)が、人の意思を確認できたかどうか判断する。そして、第2承認ダイアログ実行手段(20、S83)は、第3判断手段が人の意思を確認できたと判断したとき、スクリプトからダイアログキューにロードされた第2承認ダイアログに従って2体のエージェントに人の意思を承認する対話を実行させる。具体的には、第2承認ダイアログ実行手段は、2体のエージェントの1つに人の意思に同調する発話または同調しない発話をさせ、2体のエージェントの他の1つに人の意思に同調しない発話または同調する発話をさせることによって、承認対話を実行させる。たとえば、第2承認ダイアログ実行手段によって、たとえば2体のエージェントにそれぞれの承認発話をさせる。一例として、図16、図18‐図20に示すように、1体のエージェント(R1およびR2の一方)には人(H)の意思に対して同調する発話(たとえば、「そうだよね」、「だよね」など)を行わせ、他の1体のエージェント(R1およびR2の他方)には人の意思表示に同調しない発話(たとえば、「そうかな」、「え、違う」など)を行わせる。それによって、人が表示した意思が「肯定または同意もしくは否定または不同意」のいずれであったかを認定することができる。 In the first invention, the agent dialogue system (10: a reference reference numeral exemplifying the corresponding portion in the embodiment; the same applies hereinafter) has two bodies , each having a speech function (46) at the dialogue place (12). Agents (R1 and R2) are placed, and a person (H) sits at the dialogue place (12). Agents interact with each other according to a script. The sensor manager (18) has, for example, an audio signal acquired by the microphone (14), an image signal captured by the camera (16), an input signal (affirmative, negative) detected by the intention display device (17), and a biological signal. The biological sensor that detects the above, and the sensor signal such as the action or state change of the person detected by the motion capture system are recognized as the intention expressed by the person regardless of the actual intention of the person. The first determination means (20, S75) determines whether or not the sensor manager (18) has certified and has the intention to approve. When it is determined that the first approval means has an intention to approve, the first approval dialog execution means (20, S77) attaches a person to the two agents according to the first approval dialog loaded from the script into the dialog queue. Perform a non-verbal action that approves the intention. After the non-verbal operation by the first approval dialog execution means, it is determined whether the second determination means (20, S79) is in the phase of confirming the intention of the person according to the script. When it is determined that the second determination means is in the phase of confirming the intention of the person, the third determination means (20, S81) determines whether or not the intention of the person can be confirmed. Then, when the second approval dialog execution means (20, S83) determines that the third judgment means has confirmed the intention of the person, the second approval dialog loaded from the script into the dialog queue is followed by the person to the two agents. Have a dialogue to approve the intention of . Specifically, the second approval dialog execution means causes one of the two agents to make an utterance that is in sync with or out of sync with the person's intention, and the other one of the two agents is made to speak the person's intention . Perform an approval dialogue by having an untuned or tuned utterance. For example, by the second approval dialog execution means, for example, two agents are made to make their respective approval utterances. As an example, as shown in FIGS. 16 and 18-20, one agent (one of R1 and R2) has an utterance that synchronizes with the intention of the person (H) (for example, "That's right", " Have the other agent (the other of R1 and R2) make utterances that do not match the person's intention (for example, "Yes,""Eh,different," etc.). Thereby, it is possible to determine whether the intention expressed by the person is "affirmation or consent or denial or disagreement".
第1の発明によれば、第1承認ダイアログ実行手段によって承認のための非言語動作を実行させ、第2承認ダイアログ実行手段によって承認対話を実行させるので、人にエージェントどうしの対話に参加している感覚(「対話感」)を生じさせるだけでなく、人にあたかもその承認対話の前提となる発話をしたような感覚を付与することができる。 According to the first invention, since the first approval dialog execution means executes the non-verbal operation for approval and the second approval dialog execution means executes the approval dialogue, the person participates in the dialogue between the agents. Not only can it create a feeling of being (“dialogue”), but it can also give a person the feeling of speaking, which is the premise of the approval dialogue.
第2の発明は、第1または第2の発明に従属し、第2承認ダイアログ実行手段は、人の意思を拡大解釈したうえで、2体のエージェントに承認発話を実行させる、エージェント対話システムである。 The second invention is subordinate to the first or second invention, and the second approval dialog execution means is an agent dialogue system in which two agents are made to execute an approval utterance after expanding and interpreting a person's intention. be.
第2の発明によれば、第2承認ダイアログ実行手段によって、人の意思を拡大解釈したうえで、2体のエージェントに人の意思に対する承認対話を実行させるので、あたかもその承認の前提となる拡大解釈を伴う発話をしたような感覚を人に強く付与することができる。 According to the second invention, the second approval dialog execution means expands and interprets the intention of the person, and then causes the two agents to execute the approval dialogue for the intention of the person. It is possible to strongly give a person the feeling of speaking with an interpretation.
第3の発明は、それぞれが発話機能を有する2体のエージェントが対話場所においてスクリプトに従って対話し、対話場所に人が陪席するエージェント対話システムのコンピュータによって実行されるプログラムであって、プログラムはコンピュータを、対話場所における人の行為や状態変化などのセンサ信号を、人の実際の意思の如何によらず、人が表明した意思として認定するセンサマネージャ、センサマネージャが認定した、承認すべき意思があるかどうか判断する第1判断手段、第1判断手段が承認すべき意思があると判断したとき、スクリプトからダイアログキューにロードされた第1承認ダイアログに従って2体のエージェントに人の意思を承認する非言語動作を実行させる第1承認ダイアログ実行手段、スクリプトに従って人の意思を確認するフェーズかどうか判断する第2判断手段、第2判断手段で人の意思を確認するフェーズであると判断したとき、人の意思を確認できたかどうか判断する第3判断手段、および第3判断手段が人の意思を確認できたと判断したとき、スクリプトからダイアログキューにロードされた第2承認ダイアログに従って2体のエージェントに人の意思を承認する対話を実行させる第2承認ダイアログ実行手段として機能させる、エージェント対話システムのプログラムである。 The third invention is a program executed by a computer of an agent dialogue system in which two agents, each having a speaking function, interact according to a script at the dialogue place, and a person sits at the dialogue place. , A sensor manager who certifies sensor signals such as a person's actions and state changes in a dialogue place as an intention expressed by a person regardless of the actual intention of the person , and a sensor manager has certified and has an intention to approve. When it is determined that the first judgment means and the first judgment means have the intention to approve, the two agents approve the intention of the person according to the first approval dialog loaded from the script into the dialog queue. When it is determined that the first approval dialog execution means for executing the language action, the second judgment means for judging whether or not the phase is for confirming the person's intention according to the program, and the second judgment means for confirming the person's intention, the person When it is determined that the third judgment means for determining whether or not the intention of the person can be confirmed and the third judgment means can confirm the intention of the person, the person is assigned to the two agents according to the second approval dialog loaded from the program into the dialog queue. It is a program of the agent dialogue system that functions as a second approval dialog execution means for executing a dialogue that approves the intention of .
この発明によれば、エージェントどうしの対話においても、対話中の人の行為を人の実際の意思の如何にはよらず、人の意思表示として承認することによって、人に対話に参加している感覚(「対話感」)を生じさせ、さらにその承認を伴う発話をしたかのような感覚を人に付与する事ができる。 According to the present invention, even in a dialogue between agents, the person participates in the dialogue by approving the action of the person during the dialogue as a manifestation of the intention of the person, regardless of the actual intention of the person. It is possible to give a feeling (“dialogue feeling”) to a person and to give a person a feeling as if he / she spoke with the approval.
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above-mentioned object, other object, feature and advantage of the present invention will be further clarified from the detailed description of the following examples made with reference to the drawings.
図1を参照して、この実施例のロボット対話システム10の対話場所12には、第1ロボットR1および第2ロボットR2と1人の人Hが存在する。ただし、ロボットの数は3以上でもよく、人の数は2以上でもよい。なお、以下において、第1ロボットR1および第2ロボットR2を特に区別する必要がないとき、単にロボットRと呼ぶことがある。
With reference to FIG. 1, the first robot R1 and the second robot R2 and one person H are present at the
人が発話するとき、その発話に応じる形で相手の発話が生成されなければ、対話を続けていくこと自体が困難になりやすいため、音声認識および自然言語処理の能力が完璧でないロボットは、人間の発話に対して適切な発話をし続けることは容易ではなく、対話は破綻しやすい。 When a person speaks, if the other person's utterance is not generated in response to the utterance, it tends to be difficult to continue the dialogue itself, so robots with imperfect voice recognition and natural language processing capabilities are humans. It is not easy to continue to speak appropriately for the utterance of, and the dialogue is liable to break down.
一方、人間は、他者どうしの対話を傍らで観察する際、その内容が完全に理解あるいは同意できるものでなくても、部分的に理解あるいは同意しながら、対話を聞き続けることができる。またそれにより、理解あるいは同意できなかった部分についても、後から理解あるいは同意できることがある。しかし、対話に参加している感覚(対話感)がなければ、その対話に集中し続けることは容易ではない。 On the other hand, when observing a dialogue between others by the side, human beings can continue to listen to the dialogue while partially understanding or agreeing, even if the content is not completely understood or agreed. In addition, by doing so, it may be possible to later understand or agree with the part that was not understood or agreed. However, it is not easy to continue to concentrate on the dialogue without the feeling of participating in the dialogue (sense of dialogue).
そこで、この実施例では、ロボットが発話する際に、必ずしも人間に返答させる形にするのではなく、その対話の場に別のロボットを陪席させ、ロボットの発話に対して適切な返答を、この陪席ロボットに発話させる、つまりロボットどうしに対話を行わせることで破綻を回避し、他方、そのロボットどうしの対話を人に聞かせ、時には人間の行為を意思表示、たとえば「同意」、「不同意」(「肯定」、「否定」)などを受けとみなし、その人の意思をロボットどうしの対話の継続あるいは複数のロボットによる非言語的な注意の表示等によって、承認して確定するなどして、人間に対話感を感じさせる。 Therefore, in this embodiment, when the robot speaks, it is not always made to respond to a human, but another robot is made to sit in the place of the dialogue, and an appropriate response to the robot's utterance is given. Avoid collapse by letting the robots speak, that is, letting the robots interact with each other, while letting people hear the dialogue between the robots and sometimes expressing the intention of human actions, such as "agreement" and "disagreement". ("Affirmation", "Negation"), etc. are regarded as received, and the intention of the person is approved and confirmed by continuing dialogue between robots or displaying non-verbal cautions by multiple robots. Makes humans feel a sense of dialogue.
この実施例のようなロボット対話システムは、たとえば、独居生活者に対するコミュニケーションサービスロボット、情報提供サービスロボット、広告ロボットなどとして利用可能である。 The robot dialogue system as in this embodiment can be used, for example, as a communication service robot, an information providing service robot, an advertising robot, or the like for a single living person.
ロボット対話システム10の対話場所12の状況をセンシングするために、この実施例では、聴覚センサとしてのマイク14および視覚センサとしてのカメラ16が設けられる。マイク14は、ロボットRや人Hの発話による音声を含む環境音を取得するためのもので、必要なら2台以上設置されてもよい。カメラ16は、同じく対話場所12の状況、特に人Hの表情や動作を撮影するカメラであり、動画または静止画を撮影する。カメラ16も必要なら2台以上設置してもよい。
In this embodiment, a
さらに、上述のマイク14やカメラ16の他に、センサとして、図示はしないが、装着型の姿勢センサ、加速度センサ、心拍の状態、呼吸の状態、体動(体の動き)の状態などの生体信号を検知する生体センサ、モーションキャプチャシステムなどを設けてもよい。
Further, in addition to the
さらに、この実施例の対話システム10には、人Hの意思の表明のための手段として、意思表示デバイス17を設ける。この意思表示デバイス17は、一例として、肯定(Affirmation)または同意(Agree)を入力するための肯定ボタン17aと、否定(Negation)または不同意(Disagree)を入力するための否定ボタン17nを有する。ただし、肯定ボタン17aおよび否定ボタン17nは、たとえば押しボタンスイッチのようなハードウエアスイッチで構成されてもよいし、あるいはタッチスクリーン上のソフトウエアスイッチ(仮想ボタン)で構成されてもよい。また、肯定ボタン17aおよび否定ボタン17nがそれぞれ個別のスイッチないしボタンとして形成されてもよい。
Further, the
マイク14が取得した音声信号、カメラ16が撮影した画像信号および意思表示デバイス17が検出した入力信号(肯定、否定)さらには上述した生体信号を検出する生体センサ、モーションキャプチャシステムによって検知された人の行為や状態変化などのセンサ信号は、センサマネージャ18に入力される。センサマネージャ18は、これらのセンサ信号を取得して、対話場所12の状況を判定して、判定結果をセンシングデータとして、後述のグループマネージャ20および人意思処理モジュール23に出力する。
A person detected by an audio signal acquired by the
図2を参照して、センサマネージャ18は、CPU(中央演算処理装置)18aを含み、CPU18aには、内部バス18bを介して通信装置18cが接続される。通信装置18cは、たとえばネットワークインタフェース(NIC)などを含み、CPU18aはこの通信装置18cを介してグループマネージャ20などと通信でき、それらの間でデータの授受を行うことができる。
With reference to FIG. 2, the
CPU18aにはさらに、内部バス18bを介して、メモリ18dが接続される。メモリ18dはROMやRAMを含む。たとえばDSP(Digital Signal Processor)で構成されるセンサI/F(インタフェース)18eを通して、マイク14(図1)からの音声信号やカメラ16(図1)からの画像信号を含むセンサ信号が入力される。そして、メモリ18dは、センサ信号を一時的に記憶する。
Further, the
センサマネージャ18は一種の判定器であり、CPU18aは、メモリ18dに記憶したセンサデータに基づいて、対話場所12の状態や人Hの意思を判定する。たとえば、マイク14が取得した音声信号、カメラ16が撮影した画像信号および意思表示デバイス17が検出した入力信号(肯定、否定)さらには上述した生体信号を検出する生体センサ、モーションキャプチャシステムによって検知された人の行為や状態変化などのセンサ信号を人Hの実際の意思の如何にはよらず、人Hが表明した意思が入力されたものとして認定し、処理してすることができる。そして、センサマネージャ18は、判定した状態を示すデータをグループマネージャ20および人意思処理モジュール23に送る。
The
また、センサマネージャ18に必要なプログラム(OSやセンサ信号取得プログラムなど)は、メモリ18dに記憶される。センサマネージャ18はメモリ18dに記憶されたプログラムに従って動作する。
Further, a program (OS, sensor signal acquisition program, etc.) required for the
なお、CPU18aにはさらに、(図示せず)キーボードやディスプレイが付属されてもよい。
A keyboard and a display (not shown) may be further attached to the
図3に示すグループマネージャ20は、たとえば後述の図7のフロー図に従って、2台のロボットRのそれぞれの発話動作(言語動作:Verbal operation)および振舞い(非言語動作:Nonverbal operation)を制御する。
The
グループマネージャ20は、CPU20aを含み、CPU20aには、内部バス20bを介して通信装置20cが接続される。通信装置20cは、たとえばネットワークインタフェース(NIC)などを含み、CPU20aはこの通信装置20cを介してセンサマネージャ18やロボットRなどと通信でき、それらの間でデータの授受を行うことができる。
The
CPU20aにはさらに、内部バス20bを介して、メモリ20dおよび入力装置20eが接続される。メモリ20dはROMやRAMを含む。メモリI/F20fを通してダイアログデータベース22から、スクリプト(ダイアログ)を読み込み、それをメモリ20dに一時的に記憶する。ただし、「ダイアログ」は、対話中に行うべき発話や非言語動作の指令の系列を意味し、ダイアログデータベース22は、ダイアログの集合(たとえば、バナナの何が好きという対話やロボット介護の何が大切かという対話など、各トピックの対話のための指令の系列が含まれる)である。そして、「スクリプト」は、その指令の系列を表す文字列のことであり、スクリプトデータは、その指令を表す文字列である。したがって、スクリプトデータの系列がスクリプトになる。このようなスクリプトは、グループマネージャ20によって、ダイアログキュー23cからロボットR1およびR2に送信される。ただし、スクリプトデータは、言語データだけでなく、非言語データも含む。言語データは、ロボットR1およびR2の発話を指示するスクリプトデータであり、非言語データは、たとえばロボットR1およびR2の動作、人Hを見る、頷く、首を横に振る、首をかしげるなどの、非言語動作を指示するスクリプトデータである。このようなスクリプトデータには、さらに、人Hの意思(明示的または非明示的)を確認するフェーズ(意思確認フェーズ)であることを示す記述が必要に応じて追加されている。
Further, the
また、グループマネージャ20に必要なプログラム(OSやセンサ信号取得プログラムなど)は、メモリ20dに記憶される。グループマネージャ20はメモリ20dに記憶されたプログラムに従って動作する。
Further, a program (OS, sensor signal acquisition program, etc.) required for the
なお、このグループマネージャ20のCPU20aは、上述のように、各ロボットの動作つまり振舞いを制御するが、その振舞いの履歴は、上述のメモリ20dに蓄積され、必要に応じて、センサマネージャ18に提供する。
As described above, the
さらに、図1に示すロボット対話システム10では、人意思処理モジュール23が設けられる。この人意思処理モジュール23は、独立したコンピュータであってもよいが、この実施例では、上述のグループマネージャ20の1つのプログラムとして構成されている。したがって、この人意思処理モジュール23は、CPU20aによって制御される。
Further, in the
人意思処理モジュール23は、後に図15を参照して詳しく説明するように、センサマネージャ18が、必ずしも人Hの実際の意思の如何にはよらず、認定した人Hの意思、たとえば肯定または否定に応じて、その認定された人Hの意思に対処するためにロボットR1およびR2が発話するためのスクリプトデータ(ダイアログ)をダイアログデータベース22から読み出し、それぞれがメモリ20dの領域であるプール23aに記憶させる(ロードする)。
As will be described in detail later with reference to FIG. 15, the human
文脈外応答ダイアログプール23bは、文脈すなわち次ダイアログ候補プール23aにロードした将来の一群のダイアログやダイアログキュー23cにロードされ、進行中であるダイアログでは予定していなかった例外的な、すなわち文脈外の人Hの意思表示があったときに対処するために発話しまたは非言語動作を実行すべき一群のスクリプトを記憶しておくための記憶領域である。文脈外の意思表示とは、たとえば、前述の意思表示デバイス17の肯定ボタン17aおよび/または否定ボタン17nを連打する、ロボットが人の意思表示を待つ発話をしたにも拘わらず無視していつまでも意思表示をしない、などが考えられる。
The out-of-context
ダイアログキュー23cもたとえばメモリ20dの中の一領域であるが、このダイアログキュー23cには、次ダイアログ候補プール23aにロードされているスクリプトデータや、文脈外応答ダイアログプール23bにロードされているスクリプトデータを、次にロボットR1および/またはR2が即座に実行できるように,待ち行列の形でロードすることができる。
The
スクリプトには、たとえばヘッダとして、それに含まれるスクリプトデータの実行時間(tnext)が書き込まれていて、ダイアログキュー23cでは、その実行時間(tnext)によって常にスクリプトデータがソーティングされ、グループマネージャ20は、実行時間が同じスクリプトデータが同時に実行されるように、各ロボットコントローラ24にスクリプトデータを送る。したがって、たとえば、ロボットR1およびR2が同時に同じ動作、たとえば人Hを見るなどの動作ができるし、同じロボットR1またはR2が、たとえば、発話と同時に他方のロボットまたは人Hを見ることもできる。
For example, the execution time (tnext) of the script data included in the script is written in the script as a header, and in the
図4を参照して、この図4は実施例のロボットRの外観を示し、ロボットRは台30上に、台30に対して、前後左右に回転できるように、設けられる。つまり、胴体32には2自由度が設定されている。
With reference to FIG. 4, FIG. 4 shows the appearance of the robot R of the embodiment, and the robot R is provided on the table 30 so as to be able to rotate back and forth and left and right with respect to the table 30. That is, two degrees of freedom are set for the
胴体32の人の肩に相当する左右位置からは、それぞれに、肩関節(図示せず)によって、右腕34Rおよび左腕34Lが、前後左右に回転可能に設けられる。つまり、右腕34Rおよび左腕34Lには、それぞれ、2自由度が設定されている。
From the left and right positions corresponding to the shoulders of the person on the
胴体32の上端中央部には首36が設けられ、さらにその上には頭部38が設けられる。首36すなわち頭部38は、胴体32に対して、前後左右に回転できるように、取り付けられている。つまり、首36すなわち頭部38には、ロール角(左右の傾げ)、ピッチ角(前後の傾げ)、ヨー角(左右の回転)の3自由度が設定されている。
A
頭部38の前面すなわち人間の顔に相当する面には、右目40Rおよび左目40Lが設けられ、右目40Rおよび左目40Lには眼球42Rおよび42Lが設けられる。右目40Rおよび左目40Lは、まぶたを閉じたり開いたりでき、眼球42Rおよび42Lはそれぞれ上下左右に回転可能である。つまり、右目40Rおよび左目40Lすなわちまぶたには1自由度が、眼球42Rおよび42Lには2自由度が設定されている。
The
顔にはさらに、口44が設けられていて、口44は、閉じたり開いたりできる。つまり、口44には1自由度が設定されている。
The face is further provided with a
胴体32の、人間の胸の位置には、対話システム10において人Hに聞かせるための発話を行うスピーカ46および環境特に人Hの発話音声を聞き取るマイク48が設けられる。
At the position of the human chest on the
なお、頭部38の顔の額に相当する部分には動画または静止画を撮影できるカメラ50が内蔵される。このカメラ50は、対面する人Hを撮影でき、このカメラ50からのカメラ信号(映像信号)は、環境カメラ16(図1)と同様に、センサマネージャ18のセンサI/Fを介してCPU18aに、入力されてもよい。
A
図5はロボットRに内蔵されてロボットRの動作(発話やジェスチャなど)を制御するロボットコントローラ24を示すブロック図である。この図5を参照して、ロボットコントローラ24は、CPU24aを含み、CPU24aには、内部バス24bを介して通信装置24cが接続される。通信装置24cは、たとえばネットワークインタフェース(NIC)などを含み、CPU24aはこの通信装置24cを介してセンサマネージャ18、グループマネージャ20、さらには外部のコンピュータや他のロボット(ともに図示せず)などと通信でき、それらの間でデータの授受を行うことができる。
FIG. 5 is a block diagram showing a
CPU24aにはさらに、内部バス24bを介して、メモリ24dが接続される。メモリ24dはROMやRAMを含む。グループマネージャ20から送られる制御データやスクリプトデータがメモリ24dに一時的に記憶される。
Further, the
また、ロボット制御に必要なプログラム(OSやセンサ信号取得プログラムなど)は、メモリ24dに記憶される。ロボットコントローラ24はメモリ24dに記憶されたプログラムに従ってロボットRの動作を制御する。
Further, a program (OS, sensor signal acquisition program, etc.) required for robot control is stored in the
つまり、ロボットコントローラ24のCPU24aにはさらに、たとえばDSPで構成されたアクチュエータ制御ボード24eが接続され、このアクチュエータ制御ボード24eは、以下に説明するように、ロボットRの上述の各部に設けられたアクチュエータの動作を制御する。
That is, an
胴体32の2自由度の動き、すなわち前後左右の回転は、アクチュエータ制御ボード24eを通してCPU24aが胴体アクチュエータ52を制御するとこによって制御される。
The movement of the
右腕34Rおよび左腕34Lの2自由度の動き、すなわち前後左右の回転は、アクチュエータ制御ボード24eを通してCPU24aが腕アクチュエータ54を制御することによって制御される。
The movement of the
首36すなわち頭部38の3自由度の動き、すなわち前後左右の回転は、アクチュエータ制御ボード24eを通してCPU24aが頭部アクチュエータ56によって制御される。
The movement of the
右目40Rおよび左目40Lすなわちまぶたの開閉動作は、アクチュエータ制御ボード24eを通してCPU24aがまぶたアクチュエータ58を制御することによって制御される。眼球42Rおよび眼球42Lの2自由度の動きすなわち前後左右の回転は、アクチュエータ制御ボード24eを通してCPU24aが眼球アクチュエータ60を制御することによって制御される。口44の開閉動作は、アクチュエータ制御ボード24eを通してCPU24aが口アクチュエータ62を制御することによって制御される。
The
なお、図4に示すロボットRのスピーカ46がロボットコントローラ24のCPU24aに接続される。CPU24aは、グループマネージャ20から与えられ、必要に応じてメモリ24dに記憶されたスクリプトデータに従って、スピーカ46から発声(発話)させる。
The
このようなロボットコントローラ24によって、ロボットRの頭や腕は、対話システム10において必要なとき、たとえばスクリプトで非言語動作が要求されているとき、必要な動きをするが、以下の説明では、各アクチュエータなどの具体的な制御は、上述の説明から容易に推測できるので、必ずしも説明しない。
With such a
図1に示すように、それぞれのロボットR1およびR2には、ロボットコントローラ24と同様に内蔵したロボットセンサ26が設けられる。ロボットセンサ26は、ロボットR1およびR2のそれぞれの可動コンポーネントの状態を検知するための姿勢センサや加速度センサなどを含み、それらのセンサからのセンサ信号は、センサマネージャ18に入力される。したがって、センサマネージャ18は、ロボットセンサ26からのセンサ信号に基づいて、ロボットR1およびR2の状態をセンシングすることができる。
As shown in FIG. 1, each robot R1 and R2 is provided with a built-in
なお、図4に示すロボットRのマイク48やカメラ50がロボットセンサ26を介してセンサマネージャ18に入力される。センサマネージャ18は、マイク48から取り込んだ音声データをメモリ18d(図2)に記憶し、必要に応じて、音声認識処理を実行する。センサマネージャ18はまた、カメラ50からのカメラ信号を処理して、対話場所12の状況をセンシングする。
The
なお、センサマネージャ18は、図1の実施例では1つだけが図示されているが、2つ以上の任意数のセンサマネージャが設けられてもよく、その場合には、各センサマネージャはセンシング項目を分担することができる。
Although only one
同様に、必要なら、2以上のグループマネージャ20を用いるようにしてもよいし、逆にセンサマネージャ18およびグループマネージャ20を1台のコンピュータで実現するようにしてもよい。
Similarly, if necessary, two or
また、図1実施例の対話システム10に用いられるロボットRは図4を参照して上で説明したロボットに限定されるものではなく、少なくともスクリプトに従って発話できる機能があればよい。
Further, the robot R used in the
図6は、ロボットRがそれに従って対話するスクリプトの一例を示す概略図である。このスクリプトでは、まず、ロボットRどうしが対話する部分(時間帯)と、ロボットRが人Hに対して問いかけ(質問や同意の要求)をする部分(時間帯)を明確に区別する。そのためのフラグが、実施例では、「質問フラグFah(FLAG_ASK_HUMAN)」である。 FIG. 6 is a schematic diagram showing an example of a script in which the robot R interacts accordingly. In this script, first, the part where the robots R interact with each other (time zone) and the part where the robot R asks the person H (question or request for consent) (time zone) are clearly distinguished. In the embodiment, the flag for that purpose is "question flag Fah (FLAG_ASK_HUMAN)".
質問フラグFahがリセットされているとき、つまり、「Fah=1」でないときは、ロボットRどうしが、スクリプトデータによって予め決められた発話文をスピーカ46(図4、図5)から出力して、参加者である、人Hにその対話内容を聞かせる。質問フラグFahがセットされているとき、つまり、「Fah=1」のときは、ロボットRが、スクリプトデータによって予め決められた発話文をスピーカ46(図4、図5)から出力して、参加者である、人Hに対して発話する。 When the question flag Fah is reset, that is, when "Fah = 1" is not set, the robots R output the utterance sentence predetermined by the script data from the speaker 46 (FIGS. 4 and 5). Let person H, who is a participant, hear the content of the dialogue. When the question flag Fah is set, that is, when "Fah = 1", the robot R outputs an utterance sentence predetermined by the script data from the speaker 46 (FIGS. 4 and 5) and participates. Speak to person H, who is a person.
図6の例では、上段のパート(A) と下段のパート(C) がそのロボットどうしの対話を行うためのスクリプトデータであり、中段のパート(B) がロボットRから人Hに問いかけを行うためのスクリプトデータである。 In the example of FIG. 6, the upper part (A) and the lower part (C) are script data for dialogue between the robots, and the middle part (B) asks the person H from the robot R. Script data for.
パート(A)のスクリプトの第1行(a1)、第2行(a2)、第3行(a3)では、「tnext=XX」が定義されていて、ここでは「XX1」、「XX2」、「XX3」は、それぞれのスクリプトデータを実行すべき時間または時刻を規定する。「RR」は、ロボットからロボットへ発話することを記述していて、それに後続する「SPEAKER=R1(R2)」「LISTNERR=R2(R1)」は、そのときの発話者が第1ロボットR1(または第2ロボットR2)であり、聴取者が第2ロボットR2(または第1ロボットR1)であると定義している。 In the first line (a1), second line (a2), and third line (a3) of the script of the part (A), "tnext = XX" is defined, and here "XX1", "XX2", "XX3" specifies the time or time when each script data should be executed. "RR" describes speaking from robot to robot, and subsequent "SPEAKER = R1 (R2)" and "LISTNERR = R2 (R1)" are the speakers of the first robot R1 ( Alternatively, it is the second robot R2), and the listener is defined as the second robot R2 (or the first robot R1).
スクリプトデータ中の「TEXT」に後続する記述が、そのときロボットが発話すべき発話文である。そして、「NONVERBAL」に後続する記述は、第1ロボットR1および/または第2ロボットR2が行うべき非言語動作たとえば相手のロボットを見るとか、人Hを見るとかなどを規定する。 The description following "TEXT" in the script data is the utterance sentence that the robot should speak at that time. The description following "NONVERBAL" defines a non-verbal operation to be performed by the first robot R1 and / or the second robot R2, such as looking at the other robot or looking at the person H.
パート(B)では、質問フラグFahがセットされている、つまり、「Fah=1」なので、2台のロボットR1およびR2のいずれか一方、この例では第1ロボットR1から、人Hに対して、問いかけの発話文が出力される。したがって、第1行(b1)では、時間を規定する記述「tnext=XX4」に続いて、第1ロボットR1が人に対して発話することを示す「RH: SPEAKER=R1, LISTNER=H」が記述される。「TEXT」、「NONVERBAL」については上述のとおりである。 In part (B), the question flag Fah is set, that is, "Fah = 1", so either one of the two robots R1 and R2, in this example, from the first robot R1 to the person H. , The utterance of the question is output. Therefore, in the first line (b1), following the description "tnext = XX4" that defines the time, "RH: SPEAKER = R1, LISTNER = H" indicating that the first robot R1 speaks to a person is added. Will be described. "TEXT" and "NONVERBAL" are as described above.
パート(B)の第1行(b1)の下に、条件1、条件2、条件3のスクリプトデータがあるが、これらは、第1行(b1)でしたロボットRからの問いかけに対して人Hが発話したとき、次にロボットが発話する内容(返答)が条件に応じて変化することを規定している。
Under the first line (b1) of the part (B), there are script data of
条件1は、人Hからの発話についてロボットどうしがたとえば「面白いね」などと会話するスクリプトデータであり、そのために、時間を規定する記述「tnext=XX5」に続いて、第2ロボットR2が第1ロボットR1に対して発話することを示す「RR: SPEAKER=R2, LISTNER=R1」が記述される。
条件2および条件3は、いずれも、人Hの発話に対してロボットが反応するという設定で、いずれも、時間を規定する記述「T=XX5」に続いて、第2ロボットR2または第1ロボットR1が人に対して発話することを示す「RH: SPEAKER=R2, LISTNER=H」または「RH: SPEAKER=R1, LISTNER=H」が記述されている。
これら条件2または条件3の発話文は、センサマネージャ18がマイク14からの音声を音声認識し、その音声認識の結果に応じて、グループマネージャ20によって決められるが、発話文の内容については、スクリプトデータとして予め定義されている。たとえば、第1行(b1)での「あなたは何が好きですか?」というロボットからの問いかけ文に対して、人Hが「僕は○○が好きです。」と発話したとき、ロボットからは「○○はいいですね」とか「僕は○○より△△がすきだよ。」とか返答する。いずれも、人Hの発話に含まれていた「○○」をセンサマネージャ18が認識した結果の発話である。そのため、条件2および条件3のいずれでも、「○○」を除いた発話文を予め規定しておく。
The utterance sentence of the
パート(C)は、パート(A)と同様に、質問フラグFahがリセットされている、つまり、「Fah=1」ではないので、ロボットどうしが会話するパートであるが、基本的にパート(B)での人Hからの発話とは無関係に進行する。スクリプトデータの内容は、パート(A)において説明した通りであるので、ここでは重複する説明はしない。 Like part (A), part (C) is a part where robots talk to each other because the question flag Fah is reset, that is, it is not "Fah = 1", but basically part (B). ) Progresses independently of the speech from person H. Since the content of the script data is as explained in Part (A), no duplicate explanation is given here.
なお、図6の実施例における発話タイミングを決める時間ないし時刻tnextは、たとえば人Hからの発話割り込み(インタラプト)があった場合など、センサマネージャ18の指示に基づいてグループマネージャ20が更新する(ずらす)必要があるかもしれない。たとえば、センサマネージャ18が発話タイミングの更新の要否を示すフラグ(図示せず)を管理していて、グループマネージャ20はそのフラグがセットされたとき(「1」のとき)、Tを書き換えるようにすればよい。
The time or time tnext that determines the utterance timing in the embodiment of FIG. 6 is updated (shifted) by the
図1のロボット対話システム10では、対話場所12の2台のロボットR1およびR2は、図6において例示したようなスクリプトに従って対話を進行するが、これらのロボットR1およびR2の発話を統括的に制御するのが、グループマネージャ20である。
In the
図7に示すフロー図は、そのグループマネージャ20のCPU20a(図3)の動作を示す。この図7の動作は、たとえばフレームレート程度の速度で繰り返し実行される。
The flow chart shown in FIG. 7 shows the operation of the
最初のステップS1でCPU20aは、ダイアログデータベース22(図1)からたとえば図6に例示したようなスクリプトデータを読み込むなど、初期化を実行する。
In the first step S1, the
続くステップS2においてCPU20aは、センサマネージャ18(図1、図3)から送られるセンサデータを更新する。
In the following step S2, the
センサマネージャ18では、図1に示すマイク14やカメラ16などのセンサからのセンサ信号に基づいて、非言語パラメータ「NONVERBAL_PARAMETERS」、たとえば人の「目が落ち着かない」、「あくびをした」などの状態を、センシングする。さらに、前述のように、センサマネージャ18は、人の意思を示す信号も意思表示デバイス17から受け取って、人がそのどのような意思を表明したか認定できる。
In the
さらに、センサマネージャ18では、同じくセンサ信号に基づいて、「人の声があるか」、「(誰かが)話し中か」、「言語によってインタラプトされているか」あるいは「ロボットが非言語的に応答すべき振舞を人が生成しているか」などをセンシングする。
Further, in the
また、ロボットの振舞い、の、詳細なパラメータを決定するために必要な情報(たとえば、人Hを見る場合だと、人の位置、人に対して頷く場合だと人の発話の抑揚や終了点)をセンシングする必要がある。 In addition, the information necessary to determine the detailed parameters of the behavior of the robot (for example, when looking at the person H, the position of the person, and when nodding to the person, the intonation or the end point of the person's utterance. ) Needs to be sensed.
さらに、個々のロボットがどのように振舞ったか、たとえば「話す、「待つ」、「聞く」、「陪席する」などのいずれを実行したかをセンシングする必要があるが、これらのロボットの振舞いは、ロボットの振舞いの履歴を管理するソフトウェアからの入力(たとえば、グループマネージャ20から)によってセンシングすることができる。 In addition, it is necessary to sense how individual robots behaved, such as "speaking," waiting "," listening "," sitting ", etc., but the behavior of these robots is It can be sensed by input from software that manages the history of robot behavior (for example, from group manager 20).
ステップS2ではこのようなセンサマネージャ18からのセンシングの結果データ(センシングデータ)を更新する。
In step S2, the sensing result data (sensing data) from the
次のステップS3で、CPU20aは、ダイアログキュー23cが更新されたかどうか判断する。ステップS3で“NO”の場合、ステップS5に進む。“YES”の場合、ステップS4で現在時間(t)を「0」にセットするとともに、実行時間(tnext)を「-1」にセットする。
In the next step S3, the
ステップS3で“NO”を判断したとき、次のステップS5では、ステップS2で更新したセンシングデータに基づいて、グループマネージャ20のCPU20aは、人Hの発話による割り込みがあったかどうか、判断する。
When "NO" is determined in step S3, in the next step S5, the
このステップS5で“YES”を判断したとき、CPU20aは、次のステップS7において、発話回復フラグIS_RECOVER= Frcがセットされているかどうか、つまりFrc=1かどうか判断する。ここで“YES”ということは、ステップS5で検出した人の発話による発話衝突から復帰したことを意味し、ロボットRが何か発話を挿入する必要があるということである。したがって、ステップS9において、ステップS1で読み出した人Hの発話による割り込みによるダイアログ中断状態から復帰するための復帰フェーズ用のスクリプトデータをロードし、ステップS11で、ロボットRすなわちロボットコントローラ24にブロードキャストする。したがって、その後ロボットRがその復帰フェーズ用のスクリプトデータに従って発話することになる。
When "YES" is determined in this step S5, the
ただし、このステップS9(後述のステップS17およびS19でも同様)でロードするスクリプトデータは、図6で説明したように、発話者はだれか「ID_SPEAKER」、聴取者はだれか「ID_LISTNER」、陪席者(参加者)はだれか「ID_BYSTANDER」、発話時間「ONSET_TIME_SPEECH」、非言語動作「NONVERBAL_PARAMETERS」などの情報を含む。 However, as described in FIG. 6, the script data to be loaded in this step S9 (the same applies to steps S17 and S19 described later) is "ID_SPEAKER" for the speaker, "ID_LISTNER" for the listener, and the attendant (participation). Person) includes information such as "ID_BYSTANDER", speech time "ONSET_TIME_SPEECH", and non-verbal operation "NONVERBAL_PARAMETERS".
たとえば、人の発話割り込みに対して、第1ロボットR1から人に対して「そっか」を発話したり、第2ロボットR2から第1のロボットに「それで?」と発話したり、第1ロボットR1から第2ロボットR2に「そうそう、(スクリプトで決まっている次の発話)」と発話したりする。つまり、人の発話割り込みに対して、軽く返事をする程度の発話を挿入する。人の発話は無視されているわけではないが、その発話に対してロボットはその発話内容に対して正確に応答する返事をするのではなく、スクリプトで決められた返事を返すだけである。 For example, in response to a human speech interruption, the first robot R1 speaks "Sorry" to a person, the second robot R2 speaks "So?" To the first robot, or the first robot. From R1 to the second robot R2, "Oh yeah (the next utterance determined by the script)" is spoken. In other words, an utterance that responds lightly to a person's utterance interruption is inserted. Human utterances are not ignored, but the robot does not respond exactly to the utterance, but only the response determined by the script.
そして、ステップS11の後、ステップS2に戻る。 Then, after step S11, the process returns to step S2.
ステップS13で“YES”なら、つまり、スクリプトで予め決めた次の発話時間になったと判断したとき、CPU20aは、ステップS15で、前述の質問フラグFahがセットされているかどうか、つまり、人Hに対して問いかけ文を発話するかどうか判断する。
If "YES" in step S13, that is, when it is determined that the next utterance time predetermined by the script has come, the
ステップS15で“YES”なら、ステップS17において、ダイアログキュー23cにストアされている、問いかけフェーズ用スクリプトデータを先頭からロードし、ステップS11でそれをブロードキャストする。
つまり、人の返答は無視されているわけではない。
If "YES" in step S15, the question phase script data stored in the
In other words, human responses are not ignored.
そして、ステップS15において“NO”が判断されると、つまり、人に対する問いかけを発話するときではないと判断したとき、CPU20aは、次のステップS19で問いかけ用ではないスクリプトデータ(非問いかけ用スクリプトデータ)をロードする。
Then, when "NO" is determined in step S15, that is, when it is determined that it is not the time to utter a question to a person, the
ステップS21で、CPU20aは、スクリプトがまだ残っているかどうか判断する。つまり、対話フラグIS_CONVERSATIONがリセットされているかどうか判断する。“YES”のときは、ステップS11に進むが、“NO”の場合には、ステップS23でその旨ブロードキャストし、ステップS25で終了処理をして、このルーチンが終わる。
In step S21, the
ロボットR1およびR2は、いずれも、図8のフロー図に従って、ロボットコントローラ24によって制御される。この図8のルーチンも、図7のルーチンと同様に、たとえばフレームレートで繰り返し実行される。
Both the robots R1 and R2 are controlled by the
ステップS31では、ロボットコントローラ24のCPU24aは、初期化を実行し、次のステップS33において、センサマネージャ18から受け取ってグループマネージャ20から図7に示すようにブロードキャストされたフラグまたはデータ「IS_CONVERSATION(まだ対話する)」、「IS_ONSPEECH(誰が発話している)」、「CAN_BE_RECOVERED(発話衝突から回したか)」、「IS_INTERRUPTED_VERBAL(言語によるインタラプトがあるか)」、「IS_INTERRUPTED_NONVERBAL(非言語によるインタラプトがあるか)」、「ID_SPEAKER(誰が発話する)」、「ID_LISTNER(誰が聞く)」、「ID_BYSTANDER(誰が陪席者か)」、「SPEECH_TEXT(発話文)」、「ONSET_TIME_SPEECH(発話時間)」、「NONVERBAL_PARAMETERS(非言語パラメータ:いつ誰に視線を向けるか、頷くか、などの非言語動作を規定するパラメータ)」を受ける。
In step S31, the
そして、ステップS34において、CPU24aは、データ「IS_CONVERSATION」を参照して、対話がまだ継続するのかどうか判断する。“YES”なら、次のステップS35において、ロボットコントローラ24のCPU24aは、ステップS33で受信したグループマネージャ20からブロードキャストされたデータに非言語動作のスクリプトデータがあるかどうか判断する。そして、ステップS35で“YES”と判断したら、CPU24aは、次のステップS36において、その非言語動作の指令を実行するように、該当のロボットR1および/またはR2のアクチュエータ制御ボード24eに動作命令を与える。したがって、ロボットR1および/またはR2がブロードキャストされた非言語動作を実行する。
Then, in step S34, the
そして、先のステップS35で“NO”なら、次のステップS37で、データ「IS_ONSPEECH」を参照して、誰かが発話しているかどうか判断する。“YES”なら、ステップS39で、そのときの話し手は、自分(が制御するロボット)かどうか判断する。つまり、データ「ID_SPEAKER」を参照して、自分が発話中かどうか判断する。 Then, if "NO" in the previous step S35, in the next step S37, the data "IS_ONSPEECH" is referred to to determine whether or not someone is speaking. If "YES", in step S39, the speaker at that time determines whether or not he / she is (the robot controlled by). In other words, refer to the data "ID_SPEAKER" to determine if you are speaking.
自分(が制御するロボット)が発話中であれば、ステップS39で“YES”となり、ステップS41に進む。ステップS41では、CPU24aは、言語によるインタラプト(発話遮断)があるかどうか、データ「IS_INTERRUPTED_VERBAL」を参照して判断する。ステップS41で“YES”なら、言語によるインタラプトがあるということなので、次のステップS43で、CPU24aは、データ「CAN_BE_RECOVERED」を参照して、発話を再開してもよいかどうか判断する。
If you (the robot controlled by) are speaking, the result is "YES" in step S39, and the process proceeds to step S41. In step S41, the
ステップS43で“YES”なら、ステップS46でロボットに発話を再開させるが、“NO”なら、ステップS46で、ロボットに発話させないで、待たせる。 If "YES" in step S43, the robot is made to resume utterance in step S46, but if "NO", the robot is made to wait without making utterance in step S46.
ステップS41で“NO”が判断されると、すなわち、言語によるインタラプトがないとき、CPU24aは、ステップS47において、非言語動作でインタラプトされたかどうか判断する。たとえば、人が不規則な非言語動作、たとえば人Hが大きく動いたりしていないかどうか判断する。
When "NO" is determined in step S41, that is, when there is no language interaction, the
「人Hが不規則な非言語動作をしている、あるいはロボットの話に対して頷きなどの傾聴動作を示しているなど、ロボットが非言語的応答を生成しながら発話すべきと判断したときは、ステップS47で“YES”となるので、続くステップS48で、CPU24aは、それが制御しているロボットR1またはR2に対して、データ「NONVERBAL_PARAMETERS」に基づく非言語動作によって応答させる。ステップS47で“NO”のとき、CPU24aによる処理は、ステップS33に戻る。
"When the robot decides that it should speak while generating a nonverbal response, such as when the person H is performing irregular nonverbal movements or is showing a listening movement such as nodding to the robot's talk. Is "YES" in step S47, and in the following step S48, the
ステップS39で“NO”のとき、つまり、自分(が制御するロボット)が発話指示されていないときには、データ「ID_LISTNER」を参照して、自分が聞き手として指定されているかどうか判断する。 When "NO" in step S39, that is, when oneself (the robot controlled by the robot) is not instructed to speak, the data "ID_LISTNER" is referred to to determine whether or not oneself is designated as a listener.
ステップS49で“YES”なら、ステップS51で、CPU24aは、それが制御しているロボットRが聞き手になるように制御する。
If "YES" in step S49, the
ステップS49で“NO”なら、データ「ID_BYSTANDER」がロボットR1またはR2が陪席者となることを指示しているので、ロボットコントローラ24すなわちCPU24aは、ロボットR1またはR2に対して、陪席者としての動作を行わせる。
If "NO" in step S49, the data "ID_BYSTANDER" indicates that the robot R1 or R2 is a seated person, so that the
ステップS37で“NO”を判断したとき、つまり、誰も発話中ではないとき、ステップS55で、CPU24aは、データ「ID_SPEAKER」を参照して自分が話し手か判断する。“YES”なら、自分が制御しているロボットR1またはR2が、ステップS57において、発話文TEXTの内容に従って発話するように、制御する。
When "NO" is determined in step S37, that is, when no one is speaking, in step S55, the
ステップS55で“NO”なら、当該ロボットは発話者でもなく、聴取者でもないのであるから、CPU24aは、自分のロボットがステップS59で陪席者として動作するように、制御する。
If "NO" in step S55, the robot is neither a speaker nor a listener. Therefore, the
ステップS34で“NO”なら、ステップS61で終了処理を実行した後このルーチンを終了する。 If "NO" in step S34, this routine is terminated after the termination process is executed in step S61.
このように、ロボットRはいずれも、グループマネージャ18からブロードキャストされたスクリプトにおいて決められているタイミングで、スクリプトにおいて決められた内容を発話するだけで、自発的な発話はしない。
As described above, all of the robots R only utter the contents determined in the script at the timing determined in the script broadcasted from the
他方、人Hからの発話をロボットRは解釈しない。人Hから発話があっても、ロボットRは相槌を打つだけで、その人からの発話には応答しない。その相槌も、スクリプトに決めた通りに発話する。 On the other hand, the robot R does not interpret the utterance from the person H. Even if there is an utterance from the person H, the robot R only strikes an aizuchi and does not respond to the utterance from that person. The utterance also speaks as decided in the script.
このような、ロボットコントローラ24によるスクリプト通りのロボットR1およびR2の対話システムを用いれば、図9に示すように対話シーケンスが成立する。
By using such a dialogue system of the robots R1 and R2 according to the script by the
たとえば、ロボットが人に向かって話していることとロボットがロボットに向かって話していることがはっきりと区別でき、また同時に、対話の中で陪席者となる人間やロボットを無視してしまっているように見えないように、対話の履歴と参加者の意図推定に基づき、ロボットどうしの対話と人に対する問いかけのための、発話と視線配布や相槌などのしぐさを生成する。つまり、ロボットRは人Hの発話を聞き流すことができるので、人Hに対して質問して人Hに発話させることができる。これにより、人がロボットどうしの対話に、自分も参加しているような感覚を覚えさせることができる。また結果として、ロボットどうしの対話に含まれる内容を人に対して印象付けることができる。 For example, you can clearly distinguish between a robot talking to a person and a robot talking to a robot, and at the same time, ignoring the human being or the robot who will be the seat in the dialogue. Based on the history of the dialogue and the estimation of the intentions of the participants, the robots generate utterances, gaze distribution, and gestures for asking questions to humans so that they do not look like they are. That is, since the robot R can listen to the utterance of the person H, it is possible to ask the person H a question and have the person H speak. This makes it possible for a person to feel as if he / she is also participating in the dialogue between the robots. As a result, it is possible to impress humans with the contents included in the dialogue between robots.
具体的には、図10‐図14で示す場面をスクリプトによって意図的に出現させることができる。ただし、図10‐図14の具体例は、人Hの意思表示とは直接には関係しない。 Specifically, the scenes shown in FIGS. 10-14 can be intentionally made to appear by a script. However, the specific example of FIGS. 10-14 is not directly related to the intention display of person H.
図10の例では、第1ロボットR1および第2ロボットR2が、発話を繰り返しながら、話題(トピック(Topic)またはテーマ)Aについて、対話を進行しているとき、話題Aから話題Bに切り換えるとき、スクリプト上で、ロボットR1および/またはR2が人Hに対して質問するように制御する。このときの質問の内容は、たとえば、既に終わった話題Aに関するものでもよく、これから始まる話題Bに関するものでもよい。その両方に関するものでもよい。そして、人Hから回答があると、ロボットR1および/またはR2がスクリプトに従ってたとえば「そっか」というような相槌を発話する。 In the example of FIG. 10, when the first robot R1 and the second robot R2 switch from the topic A to the topic B when the dialogue is progressing on the topic (Topic or theme) A while repeating the utterance. , On the script, control the robots R1 and / or R2 to ask the person H a question. The content of the question at this time may be, for example, a topic A that has already been completed, or a topic B that is about to begin. It may be related to both. Then, when there is an answer from the person H, the robots R1 and / or R2 utter an aizuchi such as "I'm sorry" according to the script.
つまり、ロボットどうしの対話中には人Hに対して問いかけはせず、話題切り換えのタイミングで人Hに向けてロボットが発話する。そうすると、人Hは、ロボットどうしの対話に参加しているような意識を持って、その状態を持続することができる。 That is, the robot does not ask the person H during the dialogue between the robots, and the robot speaks to the person H at the timing of switching the topic. Then, the person H can maintain the state with the consciousness of participating in the dialogue between the robots.
ただし、人Hからの回答に対して、ロボットが割り込みするようにしてもよい。たとえば、ロボットR2「○○は××だから、△△です。」、ロボットR1「え、でも○○って□□じゃないですか?」、ロボットR2「そっか、でも(話題Bに入る)」のような割り込みも可能である。 However, the robot may interrupt the response from the person H. For example, robot R2 "○○ is XX, so it is △△.", Robot R1 "Eh, but isn't ○○ □□?", Robot R2 "Oh, but (enter topic B). It is also possible to interrupt such as.
図11の例では、ロボットR1およびR2が質問や回答を繰り返しながら何らかの話題について対話を進行しているとき、ロボットがロボットにしたのと同じ質問を人Hに対して発話する。たとえば、ロボットR1および/またはR2によって、人Hに「あなたはどう(おもいますか)?」のような質問をさせる。そうすると、人Hから回答がある。ロボットR1およびR2は、それに対して、図10の場合と同様の相槌を発話する。 In the example of FIG. 11, when the robots R1 and R2 are repeating a question or an answer and proceeding with a dialogue on some topic, the same question that the robot asks the robot is uttered to the person H. For example, the robots R1 and / or R2 make the person H ask a question such as "What do you think?". Then, there is an answer from person H. The robots R1 and R2 utter the same aizuchi as in FIG. 10 to the robots R1 and R2.
図12の例では、図11の場合と逆に、ロボットどうしの対話をしているときに、ロボットR1またはR2が人Hにしたと同じ質問を他方のロボットR2またはR1にする。この場合には、人Hはロボットどうしの対話の中に自分に対する質問と同じ質問が含まれることで、「対話感」を持つことができるであろう。 In the example of FIG. 12, contrary to the case of FIG. 11, when the robots are interacting with each other, the same question that the robot R1 or R2 asks the person H is asked to the other robot R2 or R1. In this case, the person H will be able to have a "sense of dialogue" by including the same question as the question to himself in the dialogue between the robots.
図13の例では、ロボットR1およびR2が質問や回答を繰り返しながら何らかの話題について対話を進行しているとき、たとえば第2ロボットR2が第1ロボットR1に何かについて説明し、第1ロボットR1から感想を述べる発話を行う。その感想に対して人Hが同意するように、ロボットR1またはR2から人Hに対して、たとえば「ね」と、同意を求める。この場合も、ある程度納得できる話であれば、同意の発話をしたり、心の中での同意を促したりすることができるので、人Hにはロボットどうしの対話に参加しているという意識を持続することができる。 In the example of FIG. 13, when robots R1 and R2 are proceeding with a dialogue on some topic while repeating questions and answers, for example, the second robot R2 explains something to the first robot R1 and starts from the first robot R1. Make an utterance to express your impressions. Just as the person H agrees with the impression, the robot R1 or R2 asks the person H for the consent, for example, "ne". In this case as well, if the story is convincing to some extent, it is possible to utter consent and encourage consent in the heart, so human H should be aware that he / she is participating in the dialogue between robots. Can be sustained.
図14の例は、たとえば第2ロボットR2から第1ロボットR1
にたいして質問または説明し、それに対して第1ロボットR1がわざと間違った、勘違いした返答、あるいは理解していないことを尋ねる質問をして、人に「そうじゃなくてこうだよ」などと、人から訂正や補足の発話を行なうように、促す。ただし、人からの発話がなければ、第2ロボットR2が、代わりに訂正や補足をして、はじめのロボットの発話を流す。人は、積極的に自分も対話に参加する形になるので、対話感がより高まる。
In the example of FIG. 14, for example, the second robot R2 to the first robot R1
Ask or explain to the person, and ask the person that the first robot R1 intentionally made a mistake, misunderstood, or did not understand, and asked the person, "This is not the case." Encourage them to make corrections and supplementary utterances. However, if there is no utterance from a person, the second robot R2 makes corrections or supplements instead and sends the utterance of the first robot. People actively participate in the dialogue, which enhances the sense of dialogue.
なお、意思表示デバイス17で検出した、陪席者である人Hによる意思表示があったときには、人意思処理モジュール23が図15に示すフロー図に従って、ダイアログデータベース22から次ダイアログ候補プール23aまたは文脈外応答にダイアログ(スクリプトデータ)をロードし、さらには次ダイアログ候補プール23aからダイアログキュー23cにダイアログ(スクリプトデータ)をロードする。
When there is an intention display by the person H who is a seated person detected by the
具体的に、図15の最初のステップS71では、人意思処理モジュール23を制御するCPU20aは、初期化を実行するとともに、ダイアログデータベース22から、ダイアログ(スクリプトデータ)を次ダイアログ候補プール23aに読み込む。つまり、どのトピックないしテーマのダイアログを読み出すかを決めて、そのトピックないしテーマの一群のダイアログを次ダイアログ候補プール23aに読み込む。このとき、ダイアログの依存関係、たとえばどのダイアログの前にこのダイアログを実行してはならないとか、このダイアログは特定のダイアログと同時に実行されるべきである、などの拘束条件を併せて読み込む。それとともに、ステップS71では、次ダイアログ候補プール23aから、必要なダイアログをダイアログキュー23cにロードする。
Specifically, in the first step S71 of FIG. 15, the
このときのダイアログは、たとえば、一方のロボットR1をトピックに対して一貫して賛成の立場で発話または動作させ、他方のロボットR2を一貫して反対の立場で発話または動作させるように、設定されていて、各ロボットは終始その立場を変えないものとする。 The dialog at this time is set, for example, so that one robot R1 consistently speaks or operates in favor of the topic and the other robot R2 consistently speaks or operates in the opposite position. Therefore, each robot shall not change its position from beginning to end.
次のステップS73では、CPU20aは、センサマネージャ18からのセンサデータを更新する。
In the next step S73, the
そして、次のステップS75で、CPU20aは、更新したセンサデータに、承認すべき人の意思が検出されているかどうか判断する。
Then, in the next step S75, the
ステップS75で“YES”を判断したとき、つまり、ロボットR1および/またはR2が承認しなければならない人の意思があったとき、ステップS77では、CPU20aは、人の意思表明に対する承認ダイアログ(主として非言語動作)をダイアログキュー23cへロードする。
When "YES" is determined in step S75, that is, when the robots R1 and / or R2 have a person's intention to approve, in step S77, the
ただし、承認ダイアログが各ロボットの予定されているダイアログ(非言語動作を含む)と干渉するものであるとき、その承認ダイアログはロードしない。たとえば、いずれかのロボットに次に人Hを見ることが予定されているとき、承認ダイアログが「当該ロボットが人Hを見る」であるとすれば、その承認ダイアログはダイアログキュー23cへは入れない。さらに、いずれかのロボットに他のロボットを見るというダイアログが予定されているとき、承認ダイアログが「当該ロボットが人Hを見る」であるとすれば、ロボットが他のロボットを見てすぐに人Hを見なければならず、ロボットが不自然な動作(干渉)をしてしまう。したがって、このときもその承認ダイアログはダイアログキュー23aへはロードしない。
However, if the approval dialog interferes with each robot's scheduled dialog (including non-verbal movements), the approval dialog will not be loaded. For example, when one of the robots is scheduled to see the person H next time, if the approval dialog is "the robot sees the person H", the approval dialog cannot be put in the
つまり、ステップS77では、他のダイアログと干渉しないダイアログだけが、人の意思を承認する承認ダイアログとしてダイアログキュー23cにロードされる。したがって、このダイアログキュー23cにロートされた承認ダイアログに従って、たとえば「ロボットR1およびR2がともに人Hを見る」というような非言語動作によって、ステップS75で検出した人Hの意思を承認する。
That is, in step S77, only the dialog that does not interfere with other dialogs is loaded into the
なお、ステップS75で“NO”を判断したとき、すなわち、ロボットが承認すべき人の意思表示が検出されていないときには、そのままステップS79へ進む。 When "NO" is determined in step S75, that is, when the robot does not detect the intention display of the person to be approved, the process proceeds to step S79 as it is.
ステップS79では、人の意思を確認するフェーズかどうか判断する。たとえば、先の発話が人Hに対する質問文あるいは否定文の形式である場合、その質問文あるいは否定文のスクリプトに人の意思を確認すべきことと、確認すべきタイミングを設定しておき(たとえば図6の質問フラグFah)、ステップS79では、そのタイミングかどうか判断する。 In step S79, it is determined whether or not the phase is to confirm the intention of the person. For example, if the previous utterance is in the form of a question or negative sentence to person H, set the script of the question or negative sentence to confirm the person's intention and the timing to confirm (for example). In the question flag Fah) of FIG. 6 and step S79, it is determined whether or not the timing is reached.
そして、ステップS81では、人Hの意思を認定できたかどうか判断する。たとえば、人Hが意思表示デバイス17の肯定ボタン19aまたは否定ボタン19nを操作して意思を入力したことが明白であれば、CPU20aは、人の意思を認定することができる。これに対して、人Hが意思表示デバイス17を操作せず、質問文を無視した場合、CPU20aは、人の意思を確定的に認定できない。
Then, in step S81, it is determined whether or not the intention of the person H can be recognized. For example, if it is clear that the person H operates the affirmative button 19a or the negative button 19n of the
このような場合、図15では図示していないが、人意思処理モジュール23は、人Hの意思を確定させるために必要なダイアログを、ダイアログキュー23cにロードして、いずれかのロボットRが発話によって、非言語動作によって、あるいは両方で、人Hの意思の確定を促すようにしてもよい。たとえば、ロボットR1および/またはR2が人Hを見るというような非言語動作で、および/またはロボットR1および/またはR2のたとえば「どう思いますか」のような発話で、人Hの意思を確認することができる。そして、このような意思確定ダイアログを実行した後、先のステップS73に戻し、再び意思が認定できるかどうか判定するようにすればよい。
In such a case, although not shown in FIG. 15, the human
ただし、所定時間たとえば5秒間、人Hからの意思表明がなかったときには、人Hの意思は「肯定」または「否定」のどちらかであると、看做すこともできる。 However, when there is no expression of intention from the person H for a predetermined time, for example, 5 seconds, the intention of the person H can be regarded as either "affirmation" or "denial".
このようにして人Hの意思が確定的に認定できると、ステップS81から、次のステップS83に進む。そして、ステップS83では、CPU20aは、人意思処理モジュール23を制御して、認定した人Hの意思に基づいて、その意思を承認するためのダイアログ(スクリプトデータ)を次ダイアログ候補プール23aから選択して、ダイアログキュー23cにロードする。したがって、このとき、ロボットR1およびR2は、このダイアログキュー23cにロートされた承認ダイアログに従って、人Hの意思を承認するための対話を実行する。このときのダイアログは、先に説明したように、人Hが肯定の意思表示をしたのか、否定の意思表示をしたのかで異なるダイアログがダイアログキュー23cにロードされる。
When the intention of the person H can be definitively recognized in this way, the process proceeds from step S81 to the next step S83. Then, in step S83, the
ステップS85では、CPU20aは、ステップS83でダイアログをダイアログキュー23cにロードしたので、次のダイアログ候補をダイアログデータベース22から読み出して、次ダイアログ候補プール23aにロードする。
In step S85, since the
先のステップS79で、人意思認定フェーズではない場合、“NO”が判断され、次のステップS87でCPU20aは、無視できない人Hの文脈外の意思がセンサマネージャ18によって検出されていないかどうか判断する。そのような人Hの文脈外の意思表示がなければ、このステップS87で“NO”となり、次のステップS89に進む。
In the previous step S79, if it is not in the human intention recognition phase, "NO" is determined, and in the next step S87, the
ステップS89では、対話を続けるかどうか判断する。たとえば、ダイアログデータベース22に、採用可能なダイアログが無くなった、時間がなくなった、などのとき、ステップS89では“NO”と判断され、この図15の人意思処理モジュール23の動作は終了する。
In step S89, it is determined whether to continue the dialogue. For example, when there are no more available dialogs in the
ステップS89で“YES”と判断したとき、すなわち対話を継続すべきときには、ステップS91では、実行すべきダイアログがダイアログキュー23cに残っているかどうか、つまりダイアログが終了しているかどうか判断する。
When it is determined as "YES" in step S89, that is, when the dialogue should be continued, in step S91, it is determined whether or not the dialog to be executed remains in the
ステップS91で“YES”なら、ステップS71と同様に、ステップS93において、別のトピックの一群のダイアログ(スクリプトデータ)を、ダイアログデータベース22から選択して読出し、次ダイアログ候補プール23aにロードする。それとともに、ロボットR1およびR2の次の対話のために、次ダイアログ候補プール23aにロードしたダイアログをダイアログキュー23cにロードする。その後先のステップS85に進み、ダイアログデータベース22からさらにダイアログを次ダイアログ候補プール23aにロードする。
If "YES" in step S91, as in step S71, in step S93, a group of dialogs (script data) of another topic is selected from the
なお、ステップS91で“NO”なら、ダイアログが終了していないなら、先のステップS73に戻る。 If "NO" is set in step S91, the process returns to the previous step S73 if the dialog is not completed.
さらに、ステップS87で“YES”と判断したとき、すなわち、人Hの文脈外の意思表示があったとき。ステップS95において、CPU20aは、そのときの文脈外の人Hの意思に基づいて、図1に示す文脈外応答ダイアログプール23bにロードされているダイアログのうち適当なダイアログを選択し、その選択したダイアログをダイアログキュー23cにロードする。したがって、先に述べた文脈外の人Hの意思表示に対して応答する発話および/または非言語動作をロボットR1および/またはR2が実行する。
Further, when it is determined as "YES" in step S87, that is, when there is an intention indication outside the context of person H. In step S95, the
そして、次のステップS97では、CPU20aは、人の意思に基づいて、現在のダイアログキュー23cおよび次ダイアログ候補プール23bの内容を削除し、または保留する。つまり、そのときの人Hの意思に基づけば実行不要と思われるダイアログをダイアログキュー23cおよび次ダイアログ候補プール23bから削除するか、あるいはその実行不要と思われるダイアログの実行を保留する。
Then, in the next step S97, the
このように、人意思処理モジュール23では、たとえば意思表示デバイス17を用いて表明した、陪席者たる人Hの意思に対して、ロボットR1およびR2が、その意思を承認するための発話や非言語動作を実行することによって、人HがロボットR1およびR2を含む対話システム10の中で、人Hは何も発話しなくても、明らかに対話に参加している感覚(対話感)を持つに至る。
As described above, in the human
以下、図16‐図24を参照して、人Hの意思表示に対する承認ダイアログの様々な例について説明する。ただし、以下のことを前提として、すべての対話がダイアログデータベース22に予め設定されているダイアログ(スクリプトデータ)に従って実行される、ということに留意されたい。
Hereinafter, various examples of the approval dialog for the intention display of the person H will be described with reference to FIGS. 16 to 24. However, it should be noted that all dialogues are executed according to the dialogs (script data) preset in the
長円で囲んだ「Topic」とは、図10‐図14で説明した「話題」のことであり、Topic-1、Topic-2、…はそれぞれ異なる話題であることを意味する。Topicは賛成の立場での発話を示し、網掛けの長円で囲んだ「Anti-Topic」とは、Topicに対して反対の立場での発話を示す。また、「Follow-Topic」はTopicに追従する立場での発話を示す。さらに、人Hにおいて、白丸で示した「肯定」とは、たとえば意思表示デバイス17の肯定ボタン17aを操作したときのように、センサマネージャ18が人Hの肯定の意思表示を検出したことを意味する。反対に、網掛けの丸で示した「否定」は、センサマネージャ18が人Hの否定の意思表示を検出したことを意味する。なお、以下の具体例の説明において、「人の意思表示」は、人Hが主体的に明示的にまたは非明示的に表示した意思だけでなく、必ずしも人Hの実際の意思の如何にはよらず、前述のように、センサマネージャ18で認定する意思を指すものであると理解されたい。
The "Topic" circled in an oval is the "topic" described in FIGS. 10-14, and means that Topic-1, Topic-2, ... Are different topics. Topic indicates the utterance in the position of support, and "Anti-Topic" surrounded by a shaded oval indicates the utterance in the position opposite to Topic. In addition, "Follow-Topic" indicates an utterance in a position that follows Topic. Further, in the person H, the “affirmation” indicated by the white circle means that the
図16の例では、対話の主導権をもって、ロボットR1はTopic-1について賛成の立場で発話し、ロボットR2はロボットR1に対して反対の立場で発話する。 In the example of FIG. 16, the robot R1 speaks in favor of Topic-1 and the robot R2 speaks in the opposite position to the robot R1 with the initiative of the dialogue.
Topic-1(Anti-Topic-1)に含まれる質問文を発話した後のダイアログに従って、グループマネージャ20のCPU20aは、ともに人Hを見るという非言語動作をロボットR1およびR2に実行させるようなダイアログキュー23cに保持されているスクリプトデータ(当該非言語動作の指示)をブロードキャストする。したがって、人Hは、自分の意思表示が求められていることを理解する。
According to the dialog after uttering the question sentence included in Topic-1 (Anti-Topic-1), the
このようなロボットR1およびR2の非言語動作に応じて人Hが肯定の意思表示をした後、たとえば図15のステップS83において、ロボットR1およびR2が、図16で横長の矩形枠で示すような承認ダイアログを実行する。この例では、人Hが肯定の意思表示をしたのであるから、ロボットR1は意思表示に対する承認のためにたとえば「そうだよね」と発話する。これに対して、ロボットR2は、自分は反対の立場であるのに人Hが肯定の意思表示をしたのであるから、意思表示に対する承認のためにたとえば「そうかな」と、人Hの肯定の意思表示をとがめるような発話をする。 After the person H makes an affirmative indication in response to such non-verbal movements of the robots R1 and R2, for example, in step S83 of FIG. 15, the robots R1 and R2 are shown by a horizontally long rectangular frame in FIG. Run the approval dialog. In this example, since the person H has made an affirmative intention, the robot R1 utters, for example, "That's right" for approval of the intention. On the other hand, in the robot R2, since the person H has made an affirmative intention even though he / she is in the opposite position, for example, in order to approve the intention display, the person H has an affirmative intention. Make an utterance that blames the display.
つまり、ここで、ロボットR1およびR2がそれぞれの立場で、人Hの肯定の意思表示を承認するような発話を実行する。 That is, here, the robots R1 and R2 execute utterances in which the robots R1 and R2 approve the affirmative intention of the person H in their respective positions.
なお、この承認ダイアログでの発話は、ロボットR1およびR2のどちらの発話が先でもよく、ロボットR1およびR2の発話が同時に実行されてもよい。さらに、この承認ダイアログでは、ロボットR1およびR2の対話を実施例のように1回だけでなく、複数回実行するようにしてもよい。これらのことは、次の図17‐図20の例にも当てはまることを予め指摘しておく。 The utterance in this approval dialog may be the utterance of either the robots R1 or R2 first, and the utterances of the robots R1 and R2 may be executed at the same time. Further, in this approval dialog, the dialogue between the robots R1 and R2 may be executed not only once as in the embodiment but also a plurality of times. It should be pointed out in advance that these things also apply to the following examples of FIGS. 17-20.
その後、主導権を持っているロボットR1が、同じTopic-1または別のTopic-2における対話に復帰するためのつなぎの発話、たとえば「うん、だからね」のような発話する。その後ロボットR1およびR2が、Topic-1(or 2)(Anti-Topic-1(or 2))を継続する。 After that, the robot R1 having the initiative speaks a connecting utterance to return to the dialogue in the same Topic-1 or another Topic-2, for example, "Yeah, that's why". After that, the robots R1 and R2 continue Topic-1 (or 2) (Anti-Topic-1 (or 2)).
図16の例では、人Hの肯定の意思表示に同調する発話を行うことによってロボットR1が人Hの肯定の意思表示を承認し、ロボットR2が人Hの肯定の意思表示に同調しない発話を行うことによって人Hの肯定の意思表示を承認する。 In the example of FIG. 16, the robot R1 approves the affirmative intention of the person H by making an utterance that synchronizes with the affirmative intention of the person H, and the robot R2 makes an utterance that does not synchronize with the affirmative intention of the person H. By doing so, the person H's affirmative intention is approved.
図17の例では、対話の主導権をもって、ロボットR1はTopic-1について賛成の立場で発話し、ロボットR2はロボットR1に追従する立場で発話する。Topic-1(Follow-Topic-1)の発話の後、図16の場合と同様に、ロボットR1およびR2がともに人Hを見るという非言語動作を実行することによって、人Hの意思表示を促す。 In the example of FIG. 17, the robot R1 speaks in favor of Topic-1 and the robot R2 speaks in a position of following the robot R1 with the initiative of the dialogue. After the utterance of Topic-1 (Follow-Topic-1), as in the case of FIG. 16, the robots R1 and R2 both perform a non-verbal operation of looking at the human H, thereby prompting the intention display of the human H. ..
そして、人Hが肯定の意思表示をしたとき、たとえば図15のステップS83において、ロボットR1およびR2が、図17で横長の矩形枠で示すような承認ダイアログを実行する。この例では、ロボットR1は人Hが肯定の意思表示をしたのであるから、意思表示に対する承認のためにたとえば「そうだよね」と発話する。これに対して、ロボットR2は、ロボットR1に追従する立場であるので、人Hの肯定の意思表示に対する承認のためにたとえば「そうだよね」と発話する。 Then, when the person H indicates an affirmative intention, for example, in step S83 of FIG. 15, the robots R1 and R2 execute an approval dialog as shown by a horizontally long rectangular frame in FIG. In this example, since the person H has made a positive intention statement, the robot R1 utters, for example, "That's right" to approve the intention statement. On the other hand, since the robot R2 is in a position to follow the robot R1, he utters, for example, "That's right" in order to approve the affirmative intention of the person H.
つまり、ここで、ロボットR1およびR2がそれぞれの立場で、人Hの肯定の意思表示を承認するような発話を実行する。 That is, here, the robots R1 and R2 execute utterances in which the robots R1 and R2 approve the affirmative intention of the person H in their respective positions.
その後、主導権を持っているロボットR1が、同じTopic-1または別のTopic-2における対話に復帰するためのつなぎの発話、たとえば「うん、だからね」のような同調する発話をする。その後ロボットR1およびR2が、Topic-1(or 2)およびFollow-Topic-1(or 2)を継続する。 After that, the robot R1 having the initiative makes a tie utterance to return to the dialogue in the same Topic-1 or another Topic-2, for example, a synchronized utterance such as "Yeah, that's why". After that, the robots R1 and R2 continue Topic-1 (or 2) and Follow-Topic-1 (or 2).
図17の例では、人Hの肯定の意思表示に同調する発話を行うことによってロボットR1が人Hの肯定の意思表示を承認し、ロボットR1に追従する立場のロボットR2も人Hの肯定の意思表示に同調する発話を行うことによって人Hの肯定の意思表示を承認する。 In the example of FIG. 17, the robot R1 approves the affirmative intention of the person H by making an utterance in synchronization with the affirmative intention of the person H, and the robot R2 in the position of following the robot R1 is also the affirmative of the person H. Approve the affirmative intention of person H by making an utterance in sync with the intention.
図18の例では、対話の主導権をもって、ロボットR1はTopic-1について賛成の立場で発話し、ロボットR2はロボットR1に対して反対の立場で発話する。Topic-1(Anti-Topic-1)の発話の後、図16の場合と同様に、ロボットR1およびR2がともに人Hを見るという非言語動作を実行することによって、人Hの意思表示を促す。 In the example of FIG. 18, the robot R1 speaks in favor of Topic-1 and the robot R2 speaks in the opposite position to the robot R1 with the initiative of the dialogue. After the utterance of Topic-1 (Anti-Topic-1), as in the case of FIG. 16, the robots R1 and R2 both perform a non-verbal operation of looking at the human H, thereby prompting the intention display of the human H. ..
人Hが否定の意思表示をした後、たとえば図15のステップS83において、ロボットR1およびR2が、図18で横長の矩形枠で示すような承認ダイアログを実行する。この例では、人Hが否定の意思表示をしたのであるから、その意思表示に対する承認のために、ロボットR1は人Hの否定の意思表示をとがめる、たとえば「え、違う」と発話する。これに対して、ロボットR2は、自分は反対の立場であるのに人Hが否定の意思表示をしたのであるから、その否定の意思表示に同調するたとえば「だよね」と発話するひとによって、人Hの否定の意思表示を承認する。 After the person H indicates a negative intention, for example, in step S83 of FIG. 15, the robots R1 and R2 execute an approval dialog as shown by a horizontally long rectangular frame in FIG. In this example, since the person H has made a negative intention, the robot R1 rebukes the negative intention of the person H in order to approve the intention, for example, "Oh, no". On the other hand, in the robot R2, since the person H has expressed a negative intention even though he is in the opposite position, the person who utters, for example, "Isn't it?" Approve the negative intention of person H.
つまり、ここで、ロボットR1およびR2がそれぞれの立場で、人Hの否定の意思表示を承認するような発話を実行する。 That is, here, the robots R1 and R2 execute utterances in which the robots R1 and R2 approve the negative intention display of the person H in their respective positions.
その後、主導権を持っているロボットR1が、同じTopic-1または別のTopic-2における対話に復帰するためのつなぎの発話、たとえば「いや、でもね」のような切り返しの発話をする。その後ロボットR1およびR2が、Topic-1(or 2)(Anti-Topic-1(or 2))を継続する。 After that, the robot R1 having the initiative makes a connecting utterance to return to the dialogue in the same Topic-1 or another Topic-2, for example, a turning utterance such as "No, but". After that, the robots R1 and R2 continue Topic-1 (or 2) (Anti-Topic-1 (or 2)).
図18の例では、ロボットR1が人Hの意思表示に同調しない発話を行うことによって賛成の立場で人Hの否定の意思表示を承認し、ロボットR2が人Hの意思表示に同調しない発話を行うことによって反対の立場で人Hの否定の意思表示を承認する。 In the example of FIG. 18, the robot R1 approves the negative intention of the person H from the standpoint of approval by making an utterance that does not synchronize with the intention of the person H, and the robot R2 makes an utterance that does not synchronize with the intention of the person H. By doing so, he approves the negative intention of person H from the opposite standpoint.
図19の例では、対話の主導権をもって、ロボットR1はTopic-1について賛成の立場で発話し、ロボットR2はロボットR1に対して反対の立場で発話する。Topic-1(Anti-Topic-1)の発話の後、図16の場合と同様に、ロボットR1およびR2がともに人Hを見るという非言語動作を実行することによって、人Hの意思表示を促す。 In the example of FIG. 19, the robot R1 speaks in favor of Topic-1 and the robot R2 speaks in the opposite position to the robot R1 with the initiative of the dialogue. After the utterance of Topic-1 (Anti-Topic-1), as in the case of FIG. 16, the robots R1 and R2 both perform a non-verbal operation of looking at the human H, thereby prompting the intention display of the human H. ..
人Hが肯定の意思表示をした後、たとえば図15のステップS83において、ロボットR1およびR2が、図19で横長の矩形枠で示すような承認ダイアログを実行する。この例では、ロボットR1は人Hが肯定の意思表示をしたのであるから、意思表示に対する承認のためにたとえば「そうだよね」と発話する。これに対して、ロボットR2は、自分は反対の立場であるのに人Hが肯定の意思表示をしたのであるから、意思表示に対する承認のためにたとえば「そうかな」と、人Hの肯定の意思表示をとがめるような発話をする。 After the person H has expressed affirmative intention, for example, in step S83 of FIG. 15, the robots R1 and R2 execute an approval dialog as shown by a horizontally long rectangular frame in FIG. In this example, since the person H has made a positive intention statement, the robot R1 utters, for example, "That's right" to approve the intention statement. On the other hand, in the robot R2, since the person H has made an affirmative intention even though he / she is in the opposite position, for example, in order to approve the intention display, the person H has an affirmative intention. Make an utterance that blames the display.
つまり、ここで、ロボットR1およびR2がそれぞれの立場で、人Hの肯定の意思表示を承認するような発話を実行する。 That is, here, the robots R1 and R2 execute utterances in which the robots R1 and R2 approve the affirmative intention of the person H in their respective positions.
その後、対話の主導権がロボットR2に移され、ロボットR2が、Topic-1(or 2)における対話に復帰するためのつなぎの発話、たとえば「いや、だからね」のような発話する。その後ロボットR2およびR1が、Topic-1(or 2) (Anti-Topic-1(or 2))を継続する。 After that, the initiative of the dialogue is transferred to the robot R2, and the robot R2 utters a connecting utterance for returning to the dialogue in Topic-1 (or 2), for example, "No, that's why". After that, the robots R2 and R1 continue Topic-1 (or 2) (Anti-Topic-1 (or 2)).
図19の例では、ロボットR2が人Hの肯定の意思表示に同調する発話を行うことによって賛成の立場で人Hの肯定の意思表示を承認し、ロボットR2が人Hの肯定の意思表示に同調しない発話を行うことによって反対の立場で人Hの肯定の意思表示を承認する。 In the example of FIG. 19, the robot R2 approves the affirmative intention of the person H from the standpoint of approval by making an utterance in synchronization with the affirmative intention of the person H, and the robot R2 becomes the affirmative intention of the person H. Approve the affirmative intention of person H from the opposite standpoint by making disagreeable utterances.
図20の例では、対話の主導権をもって、ロボットR1はTopic-1について賛成の立場で発話し、ロボットR2はロボットR1に対して反対の立場で発話する。Topic-1(Anti-Topic-1)の発話の後、図16の場合と同様に、ロボットR1およびR2がともに人Hを見るという非言語動作を実行することによって、人Hの意思表示を促す。 In the example of FIG. 20, the robot R1 speaks in favor of Topic-1 and the robot R2 speaks in the opposite position to the robot R1 with the initiative of the dialogue. After the utterance of Topic-1 (Anti-Topic-1), as in the case of FIG. 16, the robots R1 and R2 both perform a non-verbal operation of looking at the human H, thereby prompting the intention display of the human H. ..
人Hが否定の意思表示をした後、たとえば図15のステップS83において、ロボットR1およびR2が、図20で横長の矩形枠で示すような承認ダイアログを実行する。この例では、ロボットR1は人Hが否定の意思表示をしたのであるから、意思表示に対する承認のためにたとえば「え、違う」と発話する。これに対して、ロボットR2は、自分は反対の立場であるのに人Hが否定の意思表示をしたのであるから、意思表示に対する承認のためにたとえば「だよね」と、人Hの否定の意思表示に同調するような発話をする。 After the person H indicates a negative intention, for example, in step S83 of FIG. 15, the robots R1 and R2 execute an approval dialog as shown by a horizontally long rectangular frame in FIG. In this example, since the person H has made a negative intention statement, the robot R1 utters, for example, "Oh, no" to approve the intention statement. On the other hand, in the robot R2, although the person H is in the opposite position, the person H has made a negative intention, so for the approval of the intention, for example, "It's right", the person H's denial. Make an utterance that is in sync with the expression of intention.
つまり、ここで、ロボットR1およびR2がそれぞれの立場で、人Hの否定の意思表示を承認するような発話を実行する。 That is, here, the robots R1 and R2 execute utterances in which the robots R1 and R2 approve the negative intention display of the person H in their respective positions.
その後、対話の主導権がロボットR2に移され、ロボットR2が、同じTopic-1(or 2)における対話に復帰するためのつなぎの発話、たとえば「いや、でもね」のような発話する。その後ロボットR2およびR1が、Topic-1(or 2)(Anti-Topic-1(or 2))を継続する。 After that, the initiative of the dialogue is transferred to the robot R2, and the robot R2 utters a connecting utterance for returning to the dialogue in the same Topic-1 (or 2), for example, "No, but ne". After that, the robots R2 and R1 continue Topic-1 (or 2) (Anti-Topic-1 (or 2)).
図20の例では、ロボットR2が人Hの否定の意思表示に同調しない発話を行うことによって賛成の立場で人Hの否定の意思表示を承認し、ロボットR2が人Hの否定の意思表示に同調する発話を行うことによって反対の立場で人Hの否定の意思表示を承認する。 In the example of FIG. 20, the robot R2 approves the negative intention of the person H from the standpoint of approval by making an utterance that does not synchronize with the negative intention of the person H, and the robot R2 becomes the negative intention of the person H. Approve the negative intention of person H from the opposite standpoint by making a synchronized utterance.
図21の例では、対話の主導権をもって、ロボットR1はTopic-1について賛成の立場で発話し、ロボットR2はロボットR1に対して反対の立場で発話する。Topic-1(Anti-Topic-1)の発話の後、図16の場合と同様に、ロボットR1およびR2がともに人Hを見るという非言語動作を実行することによって、人Hの意思表示を促す。 In the example of FIG. 21, the robot R1 speaks in favor of Topic-1 and the robot R2 speaks in the opposite position to the robot R1 with the initiative of the dialogue. After the utterance of Topic-1 (Anti-Topic-1), as in the case of FIG. 16, the robots R1 and R2 both perform a non-verbal operation of looking at the human H, thereby prompting the intention display of the human H. ..
人Hが肯定の意思表示をした後、ロボットR1は、たとえば図15のステップS83において、人Hの肯定の意思表示を拡大解釈して承認するダイアログを実行する。まず、人Hが肯定の意思表示をしかつ自分は賛成の立場であるので、人Hに同調するようにたとえば「そうだよね」と発話する。そして、人Hの肯定の意思表示を拡大解釈する発話をロボットR2に対して実行する。 After the person H makes an affirmative intention, the robot R1 executes a dialog for expanding and interpreting and approving the affirmative intention of the person H, for example, in step S83 of FIG. First, since person H expresses affirmative intention and he is in a position of support, he utters, for example, "That's right" so as to be in tune with person H. Then, an utterance that expands and interprets the affirmative intention display of the person H is executed for the robot R2.
たとえば、Topic-1が嗜好品をテーマにした話題だとして、ロボットR1がTopic-1のなかで「バナナはおいしいですよね」と発話したとき、人Hが肯定の意思表示をしたとき、ロボットR1は、まず「そうだよね」と人Hに向かって発話する。その後、ロボットR2に向かって、人Hの肯定の意思表示を拡大解釈してたとえば「果物が好きなんだって」と発話する。それに対してロボットR2がロボットR1に対して、たとえば「え、果物なんか好きなの?」のような、ロボットR1の拡大解釈を補強、承認するような発話をする。 For example, if Topic-1 is a topic on the theme of luxury items, when Robot R1 utters "Banana is delicious, isn't it?" In Topic-1, when Human H makes a positive intention, Robot R1 First speaks to person H, "That's right." After that, he expands and interprets the affirmative intention of person H to the robot R2 and utters, for example, "I like fruits". On the other hand, the robot R2 speaks to the robot R1 to reinforce and approve the expanded interpretation of the robot R1, such as "Well, do you like fruits?".
つまり、ロボットR1およびR2どうしのTopicでの対話に対して人Hが肯定の意思表示をしたとき、対話の主導権を持つロボットR1が、人Hの肯定の意思表示を拡大解釈して承認するダイアログを実行し、続けてロボットR2がその拡大解釈を承認するダイアログを実行することによって、人Hが、その拡大解釈を実際に発話したと感じる。上の例では、人Hは、自分が「果物が好きだ」と実際に発話したという感覚を持つことになる。 That is, when the person H makes an affirmative intention for the dialogue between the robots R1 and R2 in the Topic, the robot R1 having the initiative of the dialogue expands and interprets the affirmative intention of the person H and approves it. By executing the dialog and subsequently executing the dialog in which the robot R2 approves the expanded interpretation, it is felt that the person H has actually spoken the expanded interpretation. In the above example, person H has the feeling that he actually said "I like fruits".
その後、ロボットR1およびR2が、図21で横長の矩形枠で示すような承認ダイアログを実行する。この例では、ロボットR2が人Hの肯定の意思表示に対するロボットR1の拡大解釈を承認しているので、その拡大解釈の承認に応答するように、ロボットR1がたとえば「きっとそういうタイプなんだよ」とロボットR2に向かって発話し、ロボットR2は、人Hが肯定の意思表示をしたのであるから、反対の立場として、人Hの肯定の意思表示をとがめるようなたとえば「ひどいね」と発話する。 After that, the robots R1 and R2 execute an approval dialog as shown by a horizontally long rectangular frame in FIG. 21. In this example, the robot R2 approves the expanded interpretation of the robot R1 for the affirmative intention of the person H, so that the robot R1 responds to the approval of the expanded interpretation, for example, "I'm sure it's that type." The robot R2 utters to the robot R2, and since the person H has made an affirmative intention, he utters, for example, "terrible" that rebukes the affirmative intention of the person H from the opposite position. ..
つまり、ここで、ロボットR1およびR2がそれぞれの立場で、拡大解釈を前提にして、人Hの肯定の意思表示を承認するような発話を実行する。 That is, here, the robots R1 and R2 execute utterances that approve the affirmative intention display of the person H on the premise of the expanded interpretation from their respective positions.
なお、この承認ダイアログでの発話は、ロボットR1およびR2のどちらの発話が先でもよく、ロボットR1およびR2の発話が同時に実行されてもよい。さらに、この承認ダイアログでは、ロボットR1およびR2の対話を実施例のように1回だけでなく、複数回実行するようにしてもよく、あるいは省略されてもよい。これらのことは、次の図22‐図25の例にも当てはまることを予め指摘しておく。 The utterance in this approval dialog may be the utterance of either the robots R1 or R2 first, and the utterances of the robots R1 and R2 may be executed at the same time. Further, in this approval dialog, the dialogue between the robots R1 and R2 may be executed not only once as in the embodiment but also a plurality of times, or may be omitted. It should be pointed out in advance that these things also apply to the following examples of FIGS. 22-25.
その後、主導権を持っているロボットR1が、同じTopic-1または別のTopic-2における主張を開始するためのつなぎの発話、たとえば「うん、それでね」のような発話する。その後ロボットR1およびR2が、Topic-1(or 2)(Anti-Topic-1(or 2))を継続する。 The robot R1 with the initiative then speaks a tether to initiate a claim in the same Topic-1 or another Topic-2, such as "Yeah, that's it." After that, the robots R1 and R2 continue Topic-1 (or 2) (Anti-Topic-1 (or 2)).
図21の例では、ロボットR1およびR2が人Hの肯定の意思表示を拡大解釈した承認したうえで、ロボットR1が人Hに同調する発話を行うことによって賛成の立場で人Hの肯定の意思表示を承認し、ロボットR2が人Hの肯定の意思表示に同調しない発話を行うことによって反対の立場で人Hの肯定の意思表示を承認する。 In the example of FIG. 21, after the robots R1 and R2 approve the expanded interpretation of the affirmative intention of the person H, the robot R1 makes an utterance synchronized with the person H, and the affirmative intention of the person H is in favor of the robot R1. The display is approved, and the robot R2 approves the affirmative intention of the person H from the opposite position by making an utterance that does not synchronize with the affirmative intention of the person H.
図22の例では、対話の主導権をもって、ロボットR1はTopic-1について賛成の立場で発話し、ロボットR2はロボットR1に追従する立場で発話する。Topic-1(Follow-Topic-1)の発話の後、図16の場合と同様に、ロボットR1およびR2がともに人Hを見るという非言語動作を実行することによって、人Hの意思表示を促す。 In the example of FIG. 22, the robot R1 speaks in favor of Topic-1 and the robot R2 speaks in a position of following the robot R1 with the initiative of the dialogue. After the utterance of Topic-1 (Follow-Topic-1), as in the case of FIG. 16, the robots R1 and R2 both perform a non-verbal operation of looking at the human H, thereby prompting the intention display of the human H. ..
人Hが肯定の意思表示をした後、ロボットR1は、たとえば図15のステップS83において、人Hの肯定の意思表示を拡大解釈して承認するダイアログを実行する。まず、人Hが肯定の意思表示しかつ自分は追従する立場であるので、人Hに同調するようにたとえば「そうだよね」と発話する。そして、人Hの肯定の意思表示を拡大する発話をロボットR2に対して実行する。 After the person H makes an affirmative intention, the robot R1 executes a dialog for expanding and interpreting and approving the affirmative intention of the person H, for example, in step S83 of FIG. First, since the person H expresses a positive intention and is in a position to follow him, he utters, for example, "That's right" so as to synchronize with the person H. Then, an utterance that expands the affirmative intention display of the person H is executed for the robot R2.
たとえば、Topic-1が嗜好品をテーマにした話題だとして、ロボットR1がTopic-1のなかで「バナナっておいしいですよね」と発話したとき、人Hが肯定の意思表示をしたとき、ロボットR1は、まず「そうだよね」と人Hに向かって発話する。その後、ロボットR2に向かって、人Hの肯定の意思表示を拡大解釈してたとえば「果物が好きなんだって」と発話する。それに対してロボットR2がロボットR1に対して、たとえば「話がわかるね」のような、ロボットR1の拡大解釈を補強、承認するような発話をする。 For example, if Topic-1 is a topic on the theme of luxury items, when robot R1 utters "Banana is delicious, isn't it?" In Topic-1, when person H makes a positive intention, the robot R1 first speaks to person H, "That's right." After that, he expands and interprets the affirmative intention of person H to the robot R2 and utters, for example, "I like fruits". On the other hand, the robot R2 makes an utterance to the robot R1 to reinforce and approve the expanded interpretation of the robot R1, such as "I understand the story".
つまり、ロボットR1およびR2どうしのTopic(Follow-Topic)での対話に対して人Hが肯定の意思表示をしたとき、対話の主導権を持つロボットR1が、人Hの肯定の意思表示を拡大解釈して承認するダイアログを実行し、続けてロボットR2がその拡大解釈を承認するダイアログを実行することによって、人Hが、その拡大解釈を実際に発話したと感じる。上の例では、人Hは、自分が実際に「果物が好きだ」と発話したという感覚を持つ。 That is, when the person H makes an affirmative expression for the dialogue between the robots R1 and R2 in the Topic (Follow-Topic), the robot R1 having the initiative of the dialogue expands the affirmative intention of the person H. By executing the dialog for interpreting and approving, and subsequently executing the dialog for the robot R2 to approve the expanded interpretation, it is felt that the person H has actually spoken the expanded interpretation. In the above example, person H has the feeling that he actually said, "I like fruits."
その後、ロボットR1およびR2が、図22で横長の矩形枠で示すような承認ダイアログを実行する。この例では、ロボットR2が人Hの肯定の意思表示に対するロボットR1の拡大解釈を承認しているので、その拡大解釈の承認に応答するように、ロボットR1がたとえば「きっとそういうタイプな気がしてたんだ」とロボットR2に向かって発話し、ロボットR2は、人Hが肯定の意思表示をしたのであるから、ロボットR1に追従する立場として、人Hの肯定の意思表示に同調するようなたとえば「そうだよね」と発話する。 After that, the robots R1 and R2 execute an approval dialog as shown by a horizontally long rectangular frame in FIG. 22. In this example, since the robot R2 approves the expanded interpretation of the robot R1 for the affirmative intention of the person H, the robot R1 responds to the approval of the expanded interpretation, for example, "I feel like that type. "It was terrible," he said to the robot R2, and since the robot R2 had a positive intention expression by the person H, he was in a position to follow the robot R1 and synchronized with the affirmative intention expression of the person H. For example, say "That's right."
つまり、ここで、ロボットR1およびR2がそれぞれの立場で、拡大解釈を前提にして、人Hの肯定の意思表示を承認するような発話を実行する。 That is, here, the robots R1 and R2 execute utterances that approve the affirmative intention display of the person H on the premise of the expanded interpretation from their respective positions.
その後、主導権を持っているロボットR1が、同じTopic-1または別のTopic-2における対話に復帰するためのつなぎの発話、たとえば「うん、それでね」のような発話する。その後ロボットR1およびR2が、Topic-1(or 2)(Anti-Topic-1(or 2))を継続する。 After that, the robot R1 having the initiative makes a tethered utterance to return to the dialogue in the same Topic-1 or another Topic-2, for example, "Yeah, that's it". After that, the robots R1 and R2 continue Topic-1 (or 2) (Anti-Topic-1 (or 2)).
図22の例では、ロボットR1およびR2が人Hの肯定の意思表示を拡大解釈した承認したうえで、ロボットR1が人Hに同調する発話を行うことによって賛成の立場で人Hの肯定の意思表示を拡大解釈して承認し、ロボットR2も人Hの肯定の意思表示に同調する発話を行うことによってロボットR1に追従する立場で人Hの肯定の意思表示を承認する。 In the example of FIG. 22, after the robots R1 and R2 approve the expanded interpretation of the affirmative intention of the person H, the robot R1 makes an utterance synchronized with the person H, and the affirmative intention of the person H is in favor of the robot R1. The display is enlarged and interpreted, and the robot R2 also approves the affirmative intention of the person H from the standpoint of following the robot R1 by making an utterance in synchronization with the affirmative intention of the person H.
図23の例では、対話の主導権をもって、ロボットR1はTopic-1について賛成の立場で発話し、ロボットR2はロボットR1に反対する立場で発話する。Topic-1(Anti-Topic-1)の発話の後、図16の場合と同様に、ロボットR1およびR2がともに人Hを見るという非言語動作を実行することによって、人Hの意思表示を促す。 In the example of FIG. 23, the robot R1 speaks in favor of Topic-1 and the robot R2 speaks in opposition to the robot R1 with the initiative of the dialogue. After the utterance of Topic-1 (Anti-Topic-1), as in the case of FIG. 16, the robots R1 and R2 both perform a non-verbal operation of looking at the human H, thereby prompting the intention display of the human H. ..
人Hが否定の意思表示をした後、ロボットR2は、たとえば図15のステップS83において、人Hの否定の意思表示を拡大解釈して承認するダイアログを実行する。まず、人Hが否定の意思表示しかつ自分は反対の立場であるので、人Hに同調するようにたとえば「そうだよね」と発話する。そして、人Hの否定の意思表示を拡大する発話をロボットR2に対して実行する。 After the person H makes a negative intention display, the robot R2 executes a dialog for expanding and interpreting and approving the negative intention display of the person H, for example, in step S83 of FIG. First, since the person H expresses a negative intention and he is in the opposite position, he utters, for example, "That's right" so as to be in tune with the person H. Then, an utterance that expands the negative intention display of the person H is executed for the robot R2.
たとえば、Topic-1が嗜好品をテーマにした話題だとして、ロボットR1がTopic-1のなかで「バナナっておいしいですよね」と発話したとき、人Hが否定の意思表示をしたとき、ロボットR2は、まず「そうだよね」と人Hに向かって発話する。その後、ロボットR1に向かって、人Hの否定の意思表示を拡大解釈してたとえば「果物が嫌いなんだって」と発話する。それに対してロボットR1がロボットR2に対して、たとえば「え、果物が嫌いなの?」のような、ロボットR2の拡大解釈を補強、承認するような発話をする。 For example, if Topic-1 is a topic on the theme of luxury items, when robot R1 utters "Banana is delicious, isn't it?" In Topic-1, when person H expresses a negative intention, the robot R2 first speaks to person H, "That's right." After that, he expands and interprets the negative intention of person H to the robot R1 and utters, for example, "I hate fruits." On the other hand, the robot R1 speaks to the robot R2 to reinforce and approve the expanded interpretation of the robot R2, for example, "Do you hate fruits?"
つまり、ロボットR1およびR2どうしのTopic(Anti-Topic)での対話に対して人Hが否定の意思表示をしたとき、ロボットR1に反対するロボットR2が、人Hの否定の意思表示を拡大解釈して承認するダイアログを実行し、続けてロボットR1がその拡大解釈を承認するダイアログを実行することによって、人Hが、実際にその拡大解釈を発話したと感じる。上の例では、人Hは、自分が「果物が嫌いだ」と実際に発話したという感覚を持つことになる。 That is, when the human H expresses a negative intention to the dialogue between the robots R1 and R2 in the Topic (Anti-Topic), the robot R2 opposed to the robot R1 expands and interprets the negative intention display of the human H. By executing the dialog for approving the robot R1 and subsequently executing the dialog for the robot R1 approving the expanded interpretation, it is felt that the person H has actually spoken the expanded interpretation. In the above example, person H has the feeling that he actually said "I don't like fruits".
その後、ロボットR2およびR1が、図23で横長の矩形枠で示すような承認ダイアログを実行する。この例では、ロボットR1が人Hの否定の意思表示に対するロボットR2の拡大解釈を承認しているので、その拡大解釈の承認に応答するように、ロボットR2がたとえば「きっとそういうタイプなんだよ」とロボットR1に向かって発話し、人Hが否定の意思表示をしたのであるから、ロボットR2に反対されている立場なので、ロボットR1は、人Hの否定の意思表示に同調しないようなたとえば「ひどいね」と発話する。 After that, the robots R2 and R1 execute an approval dialog as shown by a horizontally long rectangular frame in FIG. 23. In this example, the robot R1 approves the expanded interpretation of the robot R2 for the negative intention of the person H, so the robot R2 responds to the approval of the expanded interpretation, for example, "I'm sure it's that type." And the robot R1 made a negative intention, so the robot R1 does not agree with the negative intention of the human H because he is in a position of being opposed to the robot R2. It's terrible. "
つまり、ここで、ロボットR1およびR2がそれぞれの立場で、拡大解釈を前提にして、人Hの否定の意思表示を承認するような発話を実行する。 That is, here, the robots R1 and R2 execute an utterance that approves the negative intention display of the person H on the premise of the expanded interpretation from their respective positions.
その後、主導権を持っているロボットR1が、同じTopic-1または別のTopic-2における対話に復帰するためのつなぎの発話、たとえば「いや、でもね」のような発話する。その後ロボットR1およびR2が、Topic-1(or 2)(Anti-Topic-1(or 2))を継続する。 After that, the robot R1 having the initiative speaks a tie to return to the dialogue in the same Topic-1 or another Topic-2, for example, "No, but". After that, the robots R1 and R2 continue Topic-1 (or 2) (Anti-Topic-1 (or 2)).
図23の例では、ロボットR1およびR2が人Hの否定の意思表示を拡大解釈した承認したうえで、ロボットR2が人Hに同調する発話を行うことによって反対の立場で人Hの否定の意思表示を拡大解釈して承認し、ロボットR1は人Hの否定の意思表示に同調しない発話を行うことによって人Hの否定の意思表示を承認する。 In the example of FIG. 23, after the robots R1 and R2 approve the expanded interpretation of the negative intention of the human H, the robot R2 makes an utterance synchronized with the human H, and the negative intention of the human H is in the opposite position. The display is enlarged and approved, and the robot R1 approves the negative intention of the person H by making an utterance that does not synchronize with the negative intention of the person H.
図24の例では、対話の主導権をもって、ロボットR1はTopic-1について賛成の立場で発話し、ロボットR2はロボットR1に対して反対の立場で発話する。Topic-1(Anti-Topic-1)の発話の後、図16の場合と同様に、ロボットR1およびR2がともに人Hを見るという非言語動作を実行することによって、人Hの意思表示を促す。 In the example of FIG. 24, the robot R1 speaks in favor of Topic-1 and the robot R2 speaks in the opposite position to the robot R1 with the initiative of the dialogue. After the utterance of Topic-1 (Anti-Topic-1), as in the case of FIG. 16, the robots R1 and R2 both perform a non-verbal operation of looking at the human H, thereby prompting the intention display of the human H. ..
人Hが肯定の意思表示をした後、ロボットR1は、たとえば図15のステップS83において、人Hの肯定の意思表示を拡大解釈して承認するダイアログを実行する。まず、人Hが肯定の意思表示しかつ自分は賛成の立場であるので、人Hに同調するようにたとえば「そうだよね」と発話する。そして、人Hの肯定の意思表示を拡大する発話をロボットR2に対して実行する。 After the person H makes an affirmative intention, the robot R1 executes a dialog for expanding and interpreting and approving the affirmative intention of the person H, for example, in step S83 of FIG. First, since person H expresses affirmative intention and he is in a position of support, he utters, for example, "That's right" so as to be in tune with person H. Then, an utterance that expands the affirmative intention display of the person H is executed for the robot R2.
たとえば、Topic-1が嗜好品をテーマにした話題だとして、ロボットR1がTopic-1のなかで「バナナっておいしいですよね」と発話したとき、人Hが肯定の意思表示をしたとき、ロボットR1は、まず「そうだよね」と人Hに向かって発話する。その後、ロボットR2に向かって、人Hの肯定の意思表示を拡大解釈してたとえば「果物が好きなんだって」と発話する。それに対してロボットR2がロボットR1に対して、たとえば「え、果物なんか好きなの?」のような、ロボットR1の拡大解釈を補強、承認するような発話をする。 For example, if Topic-1 is a topic on the theme of luxury items, when robot R1 utters "Banana is delicious, isn't it?" In Topic-1, when person H makes a positive intention, the robot R1 first speaks to person H, "That's right." After that, he expands and interprets the affirmative intention of person H to the robot R2 and utters, for example, "I like fruits". On the other hand, the robot R2 speaks to the robot R1 to reinforce and approve the expanded interpretation of the robot R1, such as "Well, do you like fruits?".
つまり、ロボットR1およびR2どうしのTopicでの対話に対して人Hが肯定の意思表示をしたとき、対話の主導権を持つロボットR1が、人Hの肯定の意思表示を拡大解釈して承認するダイアログを実行し、続けてロボットR2がその拡大解釈を承認するダイアログを実行することによって、人Hが、その拡大解釈を発話したと感じる。上の例では、人Hは、自分が実際に果物が好きだ」と発話したという感覚を持つことになる。 That is, when the person H makes an affirmative intention for the dialogue between the robots R1 and R2 in the Topic, the robot R1 having the initiative of the dialogue expands and interprets the affirmative intention of the person H and approves it. By executing the dialog and subsequently executing the dialog in which the robot R2 approves the expanded interpretation, it is felt that the person H has spoken the expanded interpretation. In the above example, person H has the feeling that he really likes fruits. "
その後、ロボットR1およびR2が、図21で横長の矩形枠で示すような承認ダイアログを実行する。この例では、ロボットR2が人Hの肯定の意思表示に対するロボットR1の拡大解釈を承認しているので、その拡大解釈の承認に応答するように、ロボットR1がたとえば「きっとそういうタイプなんだよ」とロボットR2に向かって発話し、ロボットR2は、人Hが肯定の意思表示をしたのであるから、反対の立場として、人Hの肯定の意思表示をとがめるようなたとえば「ひどいね」と発話する。 After that, the robots R1 and R2 execute an approval dialog as shown by a horizontally long rectangular frame in FIG. 21. In this example, the robot R2 approves the expanded interpretation of the robot R1 for the affirmative intention of the person H, so that the robot R1 responds to the approval of the expanded interpretation, for example, "I'm sure it's that type." The robot R2 utters to the robot R2, and since the person H has made an affirmative intention, he utters, for example, "terrible" that rebukes the affirmative intention of the person H from the opposite position. ..
つまり、ここで、ロボットR1およびR2がそれぞれの立場で、拡大解釈を前提にして、人Hの肯定の意思表示を承認するような発話を実行する。 That is, here, the robots R1 and R2 execute utterances that approve the affirmative intention display of the person H on the premise of the expanded interpretation from their respective positions.
その後、主導権がロボットR2に移り、ロボットR2が、Topic-1(or 2)での主張を開始するためのつなぎの発話、たとえば「いや、でもね」のような発話する。その後ロボットR2およびR1が、Topic-1(or 2)(Anti-Topic-1(or 2))を継続する。 After that, the initiative is transferred to the robot R2, and the robot R2 utters a tie to start the claim in Topic-1 (or 2), for example, "No, but". After that, the robots R2 and R1 continue Topic-1 (or 2) (Anti-Topic-1 (or 2)).
図24の例では、ロボットR1およびR2が人Hの肯定の意思表示を拡大解釈した承認したうえで、ロボットR2が人Hに同調する発話を行うことによって反対の立場で人Hの肯定の意思表示を拡大解釈して承認し、ロボットR1は人Hの肯定の意思表示に同調しない発話を行うことによって人Hの肯定の意思表示を承認する。 In the example of FIG. 24, after the robots R1 and R2 approve the expanded interpretation of the affirmative intention of the person H, the robot R2 makes an utterance synchronized with the person H, so that the affirmative intention of the person H is in the opposite position. The display is enlarged and approved, and the robot R1 approves the affirmative intention of the person H by making an utterance that does not synchronize with the affirmative intention of the person H.
上述の実施例では、人Hの意思表示はたとえば意思表示デバイス17の人の操作に応じて入力するようにした。しかしながら、たとえばカメラ16からの画像信号を処理し、たとえば人Hが頷いたら「肯定」の意思表示があったとし、首を振ったら「否定」の意思表示があったとするようにしてもよい。
In the above-described embodiment, the intention display of the person H is input according to, for example, the operation of the person of the
図25の例では、対話の主導権をもって、ロボットR1はTopic-1について賛成の立場で発話し、ロボットR2はロボットR1に反対する立場で発話する。Topic-1(Anti-Topic-1)の発話の後、図16の場合と同様に、ロボットR1およびR2がともに人Hを見るという非言語動作を実行することによって、人Hの意思表示を促す。 In the example of FIG. 25, the robot R1 speaks in favor of Topic-1 and the robot R2 speaks in opposition to the robot R1 with the initiative of the dialogue. After the utterance of Topic-1 (Anti-Topic-1), as in the case of FIG. 16, the robots R1 and R2 both perform a non-verbal operation of looking at the human H, thereby prompting the intention display of the human H. ..
人Hが否定の意思表示をした後、ロボットR2は、たとえば図15のステップS83において、人Hの否定の意思表示を拡大解釈して承認するダイアログを実行する。まず、人Hが否定の意思表示しかつ自分は反対の立場であるので、人Hに同調するようにたとえば「そうだよね」と発話する。そして、人Hの否定の意思表示を拡大する発話をロボットR2に対して実行する。 After the person H makes a negative intention display, the robot R2 executes a dialog for expanding and interpreting and approving the negative intention display of the person H, for example, in step S83 of FIG. First, since the person H expresses a negative intention and he is in the opposite position, he utters, for example, "That's right" so as to be in tune with the person H. Then, an utterance that expands the negative intention display of the person H is executed for the robot R2.
たとえば、Topic-1が嗜好品をテーマにした話題だとして、ロボットR1がTopic-1のなかで「バナナっておいしいですよね」と発話したとき、人Hが否定の意思表示をしたとき、ロボットR2は、まず「そうだよね」と人Hに向かって発話する。その後、ロボットR1に向かって、人Hの否定の意思表示を拡大解釈してたとえば「果物が嫌いなんだって」と発話する。それに対してロボットR1がロボットR2に対して、たとえば「え、果物が嫌いなの?」のような、ロボットR2の拡大解釈を補強、承認するような発話をする。 For example, if Topic-1 is a topic on the theme of luxury items, when robot R1 utters "Banana is delicious, isn't it?" In Topic-1, when person H expresses a negative intention, the robot R2 first speaks to person H, "That's right." After that, he expands and interprets the negative intention of person H to the robot R1 and utters, for example, "I hate fruits." On the other hand, the robot R1 speaks to the robot R2 to reinforce and approve the expanded interpretation of the robot R2, for example, "Do you hate fruits?"
つまり、ロボットR1およびR2どうしのTopic(Anti-Topic)での対話に対して人Hが否定の意思表示をしたとき、ロボットR1に反対するロボットR2が、人Hの否定の意思表示を拡大解釈して承認するダイアログを実行し、続けてロボットR1がその拡大解釈を承認するダイアログを実行することによって、人Hが、実際にその拡大解釈を発話したと感じる。上の例では、人Hは、自分が「果物が嫌いだ」と実際に発話したという感覚を持つことになる。 That is, when the human H expresses a negative intention to the dialogue between the robots R1 and R2 in the Topic (Anti-Topic), the robot R2 opposed to the robot R1 expands and interprets the negative intention display of the human H. By executing the dialog for approving the robot R1 and subsequently executing the dialog for the robot R1 approving the expanded interpretation, it is felt that the person H has actually spoken the expanded interpretation. In the above example, person H has the feeling that he actually said "I don't like fruits".
その後、ロボットR2およびR1が、図23で横長の矩形枠で示すような承認ダイアログを実行する。この例では、ロボットR1が人Hの否定の意思表示に対するロボットR2の拡大解釈を承認しているので、その拡大解釈の承認に応答するように、ロボットR2がたとえば「きっとそういうタイプなんだよ」とロボットR1に向かって発話し、人Hが否定の意思表示をしたのであるから、ロボットR2に反対されている立場なので、ロボットR1は、人Hの否定の意思表示に同調しないようなたとえば「ひどいね」と発話する。 After that, the robots R2 and R1 execute an approval dialog as shown by a horizontally long rectangular frame in FIG. 23. In this example, the robot R1 approves the expanded interpretation of the robot R2 for the negative intention of the person H, so the robot R2 responds to the approval of the expanded interpretation, for example, "I'm sure it's that type." And the robot R1 made a negative intention, so the robot R1 does not agree with the negative intention of the human H because he is in a position of being opposed to the robot R2. It's terrible. "
つまり、ここで、ロボットR1およびR2がそれぞれの立場で、拡大解釈を前提にして、人Hの否定の意思表示を承認するような発話を実行する。 That is, here, the robots R1 and R2 execute an utterance that approves the negative intention display of the person H on the premise of the expanded interpretation from their respective positions.
その後、主導権がロボットR2に移り、ロボットR2がTopic-1(or 2)での主張開始のつなぎの発話、たとえば「いや、でもね」のような発話する。その後ロボットR2およびR1が、Anti-Topic-1(or 2)(Topic-1(or 2))を継続する。 After that, the initiative is transferred to the robot R2, and the robot R2 utters the utterance of the connection of the start of the claim in Topic-1 (or 2), for example, "No, but". After that, the robots R2 and R1 continue Anti-Topic-1 (or 2) (Topic-1 (or 2)).
図25の例では、ロボットR1およびR2が人Hの否定の意思表示を拡大解釈した承認したうえで、ロボットR2が人Hに同調する発話を行うことによって反対の立場で人Hの否定の意思表示を拡大解釈して承認し、ロボットR1は人Hの否定の意思表示に同調しない発話を行うことによって人Hの否定の意思表示を承認する。 In the example of FIG. 25, after the robots R1 and R2 approve the expanded interpretation of the negative intention of the human H, the robot R2 makes an utterance synchronized with the human H, so that the negative intention of the human H is in the opposite position. The display is enlarged and approved, and the robot R1 approves the negative intention of the person H by making an utterance that does not synchronize with the negative intention of the person H.
なお、図16‐図25に示す具体例において、人Hの意思を認定したとき、ロボットR1およびR2の対話によってその意思を承認するようにしたが、実行手段の一例である図15のステップS83で示す承認ダイアログでは、少なくとも1体のエージェント(実施例では、ロボットR1およびR2の少なくとも一方)の発話で人Hの意思を承認するようにしてもよい。 In the specific example shown in FIGS. 16 to 25, when the intention of the person H is recognized, the intention is approved by the dialogue between the robots R1 and R2, but step S83 in FIG. 15 is an example of the execution means. In the approval dialog shown by, the intention of the person H may be approved by the utterance of at least one agent (at least one of the robots R1 and R2 in the embodiment).
さらに、認定した人Hの意思を承認するためには、図15のステップS77における非言語動作を実行させるようにしてもよい。この場合、ステップS77も実行手段を構成することになる。 Further, in order to approve the intention of the certified person H, the non-verbal operation in step S77 of FIG. 15 may be executed. In this case, step S77 also constitutes the execution means.
なお、上述の実施例では、各ロボットR1およびダイアログデータベース22に予め蓄積しておくようにした。しかしながら、このデータベース22に代えて、たとえばネットから必要なスクリプトデータを逐次グループマネージャ20に供給するようにしてもよい。
In the above embodiment, the robots R1 and the
さらに、上述の実施例は、物理的なエージェントであるロボットを用いたロボット対話システムであるが、この発明は、そのような物理的なエージェントだけでなく、たとえばディスプレイの画面上に表示されるアバタないしキャラクタのようなエージェントどうしの対話システムも適用されてもよい。この場合、図1のロボットコントローラ24やロボットセンサ26は、そのようなアバタやキャラクタを表示するためのディスプレイコントローラ(図示せず)に代えられる。つまり、この発明は、エージェント対話システムである。
Further, the above-mentioned embodiment is a robot dialogue system using a robot which is a physical agent, but the present invention is not limited to such a physical agent, but also an avatar displayed on the screen of a display, for example. Alternatively, an agent-to-agent dialogue system such as a character may be applied. In this case, the
10 …ロボット対話システム
12 …対話場所
R1、R2 …ロボット
17 …意思表示デバイス
18 …センサマネージャ
20 …グループマネージャ
22 …ダイアログデータベース
23 …人意思処理モジュール
24 …ロボットコントローラ
10…
Claims (3)
前記対話場所における前記人の行為や状態変化などのセンサ信号を、前記人の実際の意思の如何によらず、前記人が表明した意思として認定するセンサマネージャ、
前記センサマネージャが認定した、承認すべき意思があるかどうか判断する第1判断手段、
前記第1判断手段が前記承認すべき意思があると判断したとき、前記スクリプトからダイアログキューにロードされた第1承認ダイアログに従って前記2体のエージェントに前記人の意思を承認する非言語動作を実行させる第1承認ダイアログ実行手段、
前記スクリプトに従って前記人の意思を確認するフェーズかどうか判断する第2判断手段、
前記第2判断手段で前記人の意思を確認するフェーズであると判断したとき、前記人の意思を確認できたかどうか判断する第3判断手段、および
前記第3判断手段が前記人の意思を確認できたと判断したとき、前記スクリプトから前記ダイアログキューにロードされた第2承認ダイアログに従って前記2体のエージェントに人の意思を承認する対話を実行させる第2承認ダイアログ実行手段を備え、
前記第2承認ダイアログ実行手段は、前記2体のエージェントの1つに、前記人の意思に対して同調する発話または同調しない発話をさせ、前記2体のエージェントの他の1つに、前記人の意思に対して同調しない発話をさせる、エージェント対話システム。 It is an agent dialogue system in which two agents, each having a speech function, interact according to a script at the dialogue place, and a person sits at the dialogue place.
A sensor manager that recognizes sensor signals such as the person's actions and state changes at the dialogue place as the intention expressed by the person regardless of the person's actual intention.
The first judgment means, which is certified by the sensor manager and determines whether or not there is an intention to approve,
When the first determination means determines that there is an intention to approve, a non-verbal operation is executed to approve the intention of the person to the two agents according to the first approval dialog loaded from the script into the dialog queue. First approval dialog execution means,
A second judgment means for determining whether or not the phase is to confirm the intention of the person according to the script.
When the second judgment means determines that the phase is to confirm the intention of the person, the third judgment means for determining whether or not the intention of the person has been confirmed, and
When it is determined that the third determination means can confirm the intention of the person, the second agent causes the two agents to execute a dialogue to approve the intention of the person according to the second approval dialog loaded from the script into the dialog queue. 2 Equipped with approval dialog execution means
The second approval dialog execution means causes one of the two agents to make utterances that are synchronized or out of sync with the intention of the person, and the other one of the two agents is made to speak the person. An agent dialogue system that makes utterances that are out of sync with the intentions of .
前記対話場所における前記人の行為や状態変化などのセンサ信号を、前記人の実際の意思の如何によらず、前記人が表明した意思として認定するセンサマネージャ、
前記センサマネージャが認定した、承認すべき意思があるかどうか判断する第1判断手段、
前記第1判断手段が前記承認すべき意思があると判断したとき、前記スクリプトからダイアログキューにロードされた第1承認ダイアログに従って前記2体のエージェントに前記人の意思を承認する非言語動作を実行させる第1承認ダイアログ実行手段、
前記スクリプトに従って前記人の意思を確認するフェーズかどうか判断する第2判断手段、
前記第2判断手段で前記人の意思を確認するフェーズであると判断したとき、前記人の意思を確認できたかどうか判断する第3判断手段、および
前記第3判断手段が前記人の意思を確認できたと判断したとき、前記スクリプトから前記ダイアログキューにロードされた第2承認ダイアログに従って前記2体のエージェントに人の意思を承認する対話を実行させる第2承認ダイアログ実行手段として機能させ、
前記第2承認ダイアログ実行手段は、前記2体のエージェントの1つに、前記人の意思に対して同調する発話または同調しない発話をさせ、前記2体のエージェントの他の1つに、前記人の意思に対して同調しない発話をさせる、エージェント対話システムのプログラム。 A program executed by a computer of an agent dialogue system in which two agents, each having a speaking function, interact according to a script at a dialogue place, and a person sits at the dialogue place.
A sensor manager that recognizes sensor signals such as the person's actions and state changes at the dialogue place as the intention expressed by the person regardless of the person's actual intention.
The first judgment means, which is certified by the sensor manager and determines whether or not there is an intention to approve,
When the first determination means determines that there is an intention to approve, a non-verbal operation is executed to approve the intention of the person to the two agents according to the first approval dialog loaded from the script into the dialog queue. First approval dialog execution means,
A second judgment means for determining whether or not the phase is to confirm the intention of the person according to the script.
When the second judgment means determines that the phase is to confirm the intention of the person, the third judgment means for determining whether or not the intention of the person has been confirmed, and
When it is determined that the third determination means can confirm the intention of the person, the second agent causes the two agents to execute a dialogue to approve the intention of the person according to the second approval dialog loaded from the script into the dialog queue. 2 Make it function as an approval dialog execution means
The second approval dialog execution means causes one of the two agents to make utterances that are synchronized or out of sync with the intention of the person, and the other one of the two agents is made to speak the person. A program of an agent dialogue system that makes utterances that are out of sync with the intentions of .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015207441A JP6992957B2 (en) | 2015-10-21 | 2015-10-21 | Agent dialogue system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015207441A JP6992957B2 (en) | 2015-10-21 | 2015-10-21 | Agent dialogue system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017079004A JP2017079004A (en) | 2017-04-27 |
JP6992957B2 true JP6992957B2 (en) | 2022-01-13 |
Family
ID=58666911
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015207441A Active JP6992957B2 (en) | 2015-10-21 | 2015-10-21 | Agent dialogue system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6992957B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6647636B2 (en) * | 2016-05-20 | 2020-02-14 | 日本電信電話株式会社 | Dialogue method, dialogue system, dialogue device, and program |
CN108594672B (en) * | 2018-03-16 | 2020-04-10 | 中国地质大学(武汉) | Drinking service robot active service method based on intention understanding |
CN110362661A (en) * | 2018-04-08 | 2019-10-22 | 微软技术许可有限责任公司 | The chat robots technology for seeing position with three |
JP2020020846A (en) * | 2018-07-30 | 2020-02-06 | 国立大学法人大阪大学 | Dialog system and program |
WO2024127956A1 (en) * | 2022-12-12 | 2024-06-20 | 国立大学法人大阪大学 | Interaction system, control program and control method |
CN117301074B (en) * | 2023-11-17 | 2024-04-30 | 浙江孚宝智能科技有限公司 | Control method and chip of intelligent robot |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009061547A (en) | 2007-09-06 | 2009-03-26 | Olympus Corp | Robot control system, robot, program, and information storage medium |
JP2015524934A (en) | 2012-04-04 | 2015-08-27 | アルデバラン ロボティクス | Robot capable of incorporating natural dialogue with a user into the behavior of the robot, and method for programming and using the robot |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20010071805A (en) * | 1999-05-10 | 2001-07-31 | 이데이 노부유끼 | Control device and method therefor, information processing device and method therefor, and medium |
JP2004024867A (en) * | 2003-06-09 | 2004-01-29 | Matsushita Electric Ind Co Ltd | Voice interaction toy |
JP2009131928A (en) * | 2007-11-30 | 2009-06-18 | Olympus Corp | Robot control system, robot, program and information recording medium |
JP5215098B2 (en) * | 2008-09-17 | 2013-06-19 | オリンパス株式会社 | Information processing system, program, and information storage medium |
-
2015
- 2015-10-21 JP JP2015207441A patent/JP6992957B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009061547A (en) | 2007-09-06 | 2009-03-26 | Olympus Corp | Robot control system, robot, program, and information storage medium |
JP2015524934A (en) | 2012-04-04 | 2015-08-27 | アルデバラン ロボティクス | Robot capable of incorporating natural dialogue with a user into the behavior of the robot, and method for programming and using the robot |
Also Published As
Publication number | Publication date |
---|---|
JP2017079004A (en) | 2017-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6992957B2 (en) | Agent dialogue system | |
US20220254343A1 (en) | System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs | |
JP6583765B2 (en) | Agent dialogue system and program | |
JP6818280B2 (en) | Dialogue system, dialogue method, dialogue device, and program | |
JP5982840B2 (en) | Dialogue device, dialogue program, and dialogue method | |
US20190206407A1 (en) | System and method for personalizing dialogue based on user's appearances | |
US20190202063A1 (en) | System and method for selective animatronic peripheral response for human machine dialogue | |
US20210205987A1 (en) | System and method for dynamic robot configuration for enhanced digital experiences | |
JP7517390B2 (en) | COMMUNICATION SUPPORT PROGRAM, COMMUNICATION SUPPORT METHOD, COMMUNICATION SUPPORT SYSTEM, TERMINAL DEVICE, AND NON-VERBAL EXPRESSION PROGRAM | |
WO2017200074A1 (en) | Dialog method, dialog system, dialog device, and program | |
JP6970413B2 (en) | Dialogue methods, dialogue systems, dialogue devices, and programs | |
CN110774285A (en) | Humanoid robot and method for executing dialogue between humanoid robot and user | |
Matsusaka et al. | Conversation robot participating in group conversation | |
WO2019160612A1 (en) | System and method for dynamic robot profile configurations based on user interactions | |
US20190248012A1 (en) | System and method for dynamic program configuration | |
US20200034434A1 (en) | Dialogue method, dialogue system, dialogue apparatus and program | |
Liu et al. | Generation of nodding, head tilting and gazing for human–robot speech interaction | |
JP5223605B2 (en) | Robot system, communication activation method and program | |
JP2019045928A (en) | Sensory stimulation presentation system, program, and method | |
JP7120060B2 (en) | VOICE DIALOGUE DEVICE, CONTROL DEVICE AND CONTROL PROGRAM FOR VOICE DIALOGUE DEVICE | |
Ehret et al. | Who's next? Integrating Non-Verbal Turn-Taking Cues for Embodied Conversational Agents | |
US20040095389A1 (en) | System and method for managing engagements between human users and interactive embodied agents | |
JP2017162268A (en) | Dialog system and control program | |
JP7225642B2 (en) | Communication robot, control method and control program | |
JP6647636B2 (en) | Dialogue method, dialogue system, dialogue device, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181016 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190625 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190819 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191021 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200407 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200706 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20200706 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200714 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20200807 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20200818 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20200821 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20200825 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20210330 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20210518 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20210629 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210927 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20211005 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20211109 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20211109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6992957 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |