JP6583765B2 - エージェント対話システムおよびプログラム - Google Patents

エージェント対話システムおよびプログラム Download PDF

Info

Publication number
JP6583765B2
JP6583765B2 JP2015006970A JP2015006970A JP6583765B2 JP 6583765 B2 JP6583765 B2 JP 6583765B2 JP 2015006970 A JP2015006970 A JP 2015006970A JP 2015006970 A JP2015006970 A JP 2015006970A JP 6583765 B2 JP6583765 B2 JP 6583765B2
Authority
JP
Japan
Prior art keywords
utterance
agent
information
script
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015006970A
Other languages
English (en)
Other versions
JP2016133557A (ja
Inventor
雄一郎 吉川
雄一郎 吉川
石黒 浩
浩 石黒
庸浩 有本
庸浩 有本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osaka University NUC
Original Assignee
Osaka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka University NUC filed Critical Osaka University NUC
Priority to JP2015006970A priority Critical patent/JP6583765B2/ja
Publication of JP2016133557A publication Critical patent/JP2016133557A/ja
Application granted granted Critical
Publication of JP6583765B2 publication Critical patent/JP6583765B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

この発明は、エージェント対話システムおよびプログラムに関し、特にたとえば、複数のエージェントと少なくとも1人の人が参加する、新規なエージェント対話システムおよびプログラムに関する。
ロボット分野の広がりとともに、ロボット研究は,日常的な場面で働くロボットの研究に焦点を移しつつあり、人間が生活する環境の中で、人と対話することができるロボットの開発が注目されている。
近年の音声認識の技術の発展により、これまでにも人間と音声言語でやりとりをする機能を持つロボットが開発されてきているが、音声認識技術をいくら優れたものにしても、ロボットと人との対話において、人が人との対話に参加しているときに抱く「対話感(対話に参加しているという感覚)」と同等の感覚を、ロボットと対話する人に与え続けることは容易ではなかった。
背景技術の一例である特許文献1には、ロボットと人との対話において、ロボットが人の感情を推測して応答文の発話とその発話に伴う動作を決定することが開示されている。
特許文献2には、人とロボットとの対話システムにおいて、両者の同調を図ることで、持続的で自然なインタラクションを実現しようとするものである。
特開2004-90109号公報[B25J 13/00…] 特開2012-181697号公報[G06F 3/16…]
特許文献1の技術においても、特許文献2の技術においても、音声認識に基づく処理に限界があり、上述の「対話感」を人が持続することは容易ではない。
それゆえに、この発明の主たる目的は、新規な、エージェント対話システムおよびプログラムを提供することである。
この発明の他の目的は、人に対話に参加している感覚を持続させることができる、エージェント対話システムおよびプログラムを提供することである。
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。
第1の発明は、それぞれが発話機能を有する複数のエージェントが対話場所においてスクリプトに従って対話し、対話場所に人が陪席するエージェント対話システムであって、スクリプトは、エージェントどうしの対話を実現する第1の時間帯と第1の時間帯とは区別され、エージェントが人に対する発話を実現する第2の時間帯とを含み、第1の時間帯では、スクリプトは、実行時間を規定する時間情報と、スクリプトを発話すべきエージェントを規定する発話者情報と、その発話を聴取すべきエージェントを規定する聴取者情報と、発話文を規定する発話文情報とを含み、第2の時間帯では、スクリプトは、実行時間を規定する時間情報と、スクリプトを発話すべきエージェントを規定する発話者情報と、その発話を聴取すべき人を規定する聴取者情報と、発話文を規定する発話文情報とを含み、スクリプトの聴取者情報がエージェントを示しているとき第1の判断をし、スクリプトの聴取者情報が人を示しているとき第2の判断をする第1判断手段、第1判断手段が第1の判断をしたとき、発話者情報が示すエージェントが聴取者情報が示すエージェントに対して発話文情報が示す発話文を発話させる第1発話手段、および第1判断手段が第2の判断をしたとき、発話者情報が示すエージェントが人に対して発話文情報が示す発話文を発話させる第2発話手段を備える、エージェント対話システムである。
第1の発明では、エージェント対話システム(10:実施例において相当する部分を例示する参照符号。以下、同様。)は、対話場所(12)に、それぞれが発話機能(46)を有する複数のエージェント(R1,R2)を配置し、その対話場所(12)に人(H)が陪席する。エージェント同士はスクリプトに従って対話する。人に対して発話すべきことをスクリプトが示さないとき、たとえば該当のフラグがセットされていないとき、第1発話手段(20a,S15,S19)は、スクリプトが示す発話文に従ってエージェント同士に発話させる。他方、人に対して発話すべきことをスクリプトが示すとき、たとえば該当のフラグがセットされているとき、第2発話手段(20a,S15,S17)は、少なくともいずれかのエージェントに、スクリプトが示す発話文に従って人に対して発話させる。
第1の発明によれば、エージェント同士の対話において、適宜のタイミングで人に対して発話し、人からの発話を促すようにスクリプトで設定できるので、人にエージェント同士の対話に参加している感覚(「対話感」)を生じさせ、それを持続させることができる。
第2の発明は、第1の発明に従属し、スクリプトは、エージェントどうしの対話を実現する第1の時間帯とエージェントが人に対する発話を実現する第2の時間帯を区別するフラグをさらに含み、第1判断手段はフラグが第2の時間帯であることを示すとき第2の判断を実行する、エージェント対話システムである。
第3の発明は、第1または第2の発明に従属し、エージェントが発話中において、言語によるインタラプトがあるかどうか判断するインタラプト判断手段、言語によるインタラプトがあるとき、発話中の発話を再開可能かどうか判断する再開判断手段、および再開可能が判断されたとき、スクリプトで決まっている挿入文に従っていずれかのエージェントに発話させる挿入文発話手段をさらに備える、エージェント対話システムである。
第4の発明は、第3の発明に従属し、再開可能が判断されなかったとき、エージェントによる発話を待たせる待機手段をさらに備える、エージェント対話システムである。
の発明は、それぞれが発話機能を有する複数のエージェントが対話場所においてスクリプトに従って対話し、対話場所に人が陪席するエージェント対話システムであって、スクリプトは、エージェントどうしの対話を実現する第1の時間帯と第1の時間帯とは区別され、エージェントが人に対する発話を実現する第2の時間帯とを含み、第1の時間帯では、スクリプトは、実行時間を規定する時間情報と、スクリプトを発話すべきエージェントを規定する発話者情報と、その発話を聴取すべきエージェントを規定する聴取者情報と、発話文を規定する発話文情報とを含み、第2の時間帯では、スクリプトは、実行時間を規定する時間情報と、スクリプトを発話すべきエージェントを規定する発話者情報と、その発話を聴取すべき人を規定する聴取者情報と、発話文を規定する発話文情報とを含み、エージェント対話システムのプログラムは、エージェント対話システムのコンピュータを、スクリプトの聴取者情報がエージェントを示しているとき第1の判断をし、スクリプトの聴取者情報が人を示しているとき第2の判断をする第1判断手段、第1判断手段が第1の判断をしたとき、発話者情報が示すエージェントが聴取者情報が示すエージェントに対して発話文情報が示す発話文を発話させる第1発話手段、および第1判断手段が第2の判断をしたとき、発話者情報が示すエージェントが聴取者情報が示す人に対して発話文情報が示す発話文を発話させる第2発話手段として機能させる、エージェント対話システムのプログラムである。
の発明によっても、第1の発明と同様の効果が期待できる。
この発明によれば、エージェント同士の対話においても人に対話に参加している感覚(「対話感」)を生じさせ、それを持続させることができる。
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1はこの発明の一実施例のロボット対話システムの概要を示す概略図である。 図2は図1実施例におけるセンサマネージャの構成の一例を示すブロック図である。 図3は図1実施例におけるグループマネージャの構成の一例を示すブロック図である。 図4は図1実施例におけるロボットの一例を示す概略図である。 図5は図4のロボットを制御するロボットコントローラの構成の一例を示すブロック図である。 図6は図1に示すダイアログデータベースからグループマネージャに読み出されるスクリプトの一例を示す概略図である。 図7は図1に示すグループマネージャの動作の一例を示すフロー図である。 図8は図1に示すロボットコントローラの動作の一例を示すフロー図である。 図9は図1実施例における対話シーケンスの一例を示す概略図である。 図10は図1実施例における具体的な対話場面の一例を示す概略図である。 図11は図1実施例における具体的な対話場面の他の例を示す概略図である。 図12は図1実施例における具体的な対話場面のさらに他の例を示す概略図である。 図13は図1実施例における具体的な対話場面のなおも他の例を示す概略図である。 図14は図1実施例における具体的な対話場面のその他の例を示す概略図である。
図1を参照して、この実施例のロボット対話システム10の対話場所12には、第1ロボットR1および第2ロボットR2と1人の人Hが存在する。ただし、ロボットの数は3以上でもよく、人の数は2以上でもよい。なお、以下において、第1ロボットR1および第2ロボットR2を特に区別する必要がないとき、単にロボットRと呼ぶことがある。
この実施例のロボット対話システム10は、図1の矢印Aで示すように、複数のロボット同士が予め準備したスクリプト(台本)に従って対話しながら、時折、矢印Bで示すように参加者(人)に対話に関して問いかける(質問や同意の要求をする)ことで、人にロボットとの強い対話感を覚えさせながら、ロボット同士の対話を聞かせる、新規なロボット対話システムである。
人が発話するとき、その発話に応じる形で相手の発話が生成されなければ、対話を続けていくこと自体が困難になりやすいため、音声認識および自然言語処理の能力が完璧でないロボットは、人間の発話に対して適切な発話をし続けることは容易ではなく、対話は破綻しやすい。
一方、人間は、他者どうしの対話を傍らで観察する際、その内容が完全に理解あるいは同意できるものでなくても、部分的に理解あるいは同意しながら、対話を聞き続けることができる。またそれにより、理解あるいは同意できなかった部分についても、後から理解あるいは同意できることがある。しかし、対話に参加している感覚(対話感)がなければ、その対話に集中し続けることは容易ではない。 そこで、この発明の実施例では、ロボットが発話する際に、必ずしも人間に返答させる形にするのではなく、その対話の場に別のロボットを陪席させ、ロボットの発話に対して適切な返答を、この陪席ロボットに発話させる、つまりロボット同士に対話を行わせることで破綻を回避し、そのロボット同士の対話を人に聞かせることにより、人間に対話感を感じさせる。
この実施例のようなロボット対話システムは、たとえば、独居生活者に対するコミュニケーションサービスロボット、情報提供サービスロボット、広告ロボットなどとして利用可能である。
ロボット対話システム10の対話場所12の状況をセンシングするために、この実施例では、聴覚センサとしてのマイク14および視覚センサとしてのカメラ16が設けられる。マイク14は、ロボットRや人Hの発話による音声を含む環境音を取得するためのもので、必要なら2台以上設置されてもよい。カメラ16は、同じく対話場所12の状況、特に人Hの表情や動作を撮影するカメラであり、動画または静止画を撮影する。カメラ16も必要なら2台以上設置してもよい。
さらに、上述のマイク14やカメラ16の他に、センサとして、図示はしないが、装着型の姿勢センサ、加速度センサ、心拍の状態、呼吸の状態、体動(体の動き)の状態などの生体信号を検知する生体センサ、モーションキャプチャシステムなどを設けてもよい。
マイク14が取得した音声信号およびカメラ16が撮影した画像信号などのセンサ信号は、センサマネージャ18に入力される。センサマネージャ18は、これらのセンサ信号を取得して、対話場所12の状況を判定して、判定結果をセンシングデータとして、グループマネージャ20に出力する。
図2を参照して、センサマネージャ18は、CPU(中央演算処理装置)18aを含み、CPU18aには、内部バス18bを介して通信装置18cが接続される。通信装置18cは、たとえばネットワークインターフェースコントローラ(NIC)などを含み、CPU18aはこの通信装置18cを介してグループマネージャ20などと通信でき、それらの間でデータの授受を行うことができる。
CPU18aにはさらに、内部バス18bを介して、メモリ18dが接続される。メモリ18dはROMやRAMを含む。たとえばDSP(Digital Signal Processor)で構成されるセンサI/F(インタフェース)18eを通して、マイク14(図1)からの音声信号やカメラ16(図1)からの画像信号を含むセンサ信号が入力される。そして、メモリ18dは、センサ信号を一時的に記憶する。
センサマネージャ18は一種の判定器であり、CPU18aは、メモリ18dに記憶したセンサデータに基づいて、対話場所12の状態を判定する。ただし、この判定器としての動作は後述する。そして、センサマネージャ18は、判定した状態を示すデータをグループマネージャ20に送る。
また、センサマネージャ18に必要なプログラム(OSやセンサ信号取得プログラムなど)は、メモリ18dに記憶される。センサマネージャ18はメモリ18dに記憶されたプログラムに従って動作する。
なお、CPU18aにはさらに、(図示せず)キーボードやディスプレイが付属されてもよい。
グループマネージャ20は、たとえば後述の図7のフロー図に従って、2台のロボットRのそれぞれの発話動作(言語動作:Verbal operation)および振舞い(非言語動作:Nonverbal operation)を制御する。
グループマネージャ20は、CPU20aを含み、CPU20aには、内部バス20bを介して通信装置20cが接続される。通信装置20cは、たとえばネットワークインターフェースコントローラ(NIC)などを含み、CPU20aはこの通信装置20cを介してセンサマネージャ18やロボットRなどと通信でき、それらの間でデータの授受を行うことができる。
CPU20aにはさらに、内部バス20bを介して、メモリ20dが接続される。メモリ20dはROMやRAMを含む。メモリI/F20eを通してダイアログ(Dialog:対話)データベース22から、スクリプトデータを読み込み、それをメモリ20dに一時的に記憶する。
また、グループマネージャ20に必要なプログラム(OSやセンサ信号取得プログラムなど)は、メモリ20dに記憶される。グループマネージャ20はメモリ20dに記憶されたプログラムに従って動作する。
なお、このグループマネージャ20のCPU20aは、上述のように、各ロボットの動作つまり振舞いを制御するが、その振舞いの履歴は、上述のメモリ20dに蓄積され、必要に応じて、センサマネージャ18に提供する。
図4を参照して、この図4は実施例のロボットRの外観を示し、ロボットRは台30上に、台30に対して、前後左右に回転できるように、設けられる。つまり、胴体32には2自由度が設定されている。
胴体32の人の肩に相当する左右位置からは、それぞれに、肩関節(図示せず)によって、右腕34Rおよび左腕34Lが、前後左右に回転可能に設けられる。つまり、右腕34Rおよび左腕34Lには、それぞれ、2自由度が設定されている。
胴体32の上端中央部には首36が設けられ、さらにその上には頭部38が設けられる。首36すなわち頭部38は、胴体32に対して、前後左右に回転できるように、取り付けられている。つまり、首36すなわち頭部38には、ロール角(左右の傾げ)、ピッチ角(前後の傾げ)、ヨー(左右の回転)3自由度が設定されている。
頭部38の前面すなわち人間の顔に相当する面には、右目40Rおよび左目40Lが設けられ、右目40Rおよび左目40Lには眼球42Rおよび42Lが設けられる。右目40Rおよび左目40Lは、まぶたを閉じたり開いたりでき、眼球42Rおよび42Lはそれぞれ上下左右に回転可能である。つまり、右目40Rおよび左目40Lすなわちまぶたには1自由度が、眼球42Rおよび42Lには2自由度が設定されている。
顔にはさらに、口44が設けられていて、口44は、閉じたり開いたりできる。つまり、口44には1自由度が設定されている。
胴体32の、人間の胸の位置には、ロボット対話システム10において人Hに聞かせるための発話を行うスピーカ46および環境特に人Hの発話音声を聞き取るマイク48が設けられる。
なお、頭部38の顔の額に相当する部分には動画または静止画を撮影できるカメラ50が内蔵される。このカメラ50は、対面する人Hを撮影でき、このカメラ50からのカメラ信号(映像信号)は、環境カメラ16(図1)と同様に、センサマネージャ18のセンサI/Fを介してCPU22aに、入力されてもよい。
図5はロボットRに内蔵されてロボットRの動作(発話やジェスチャなど)を制御するロボットコントローラ24を示すブロック図である。この図5を参照して、ロボットコントローラ24は、CPU20aを含み、CPU20aには、内部バス24bを介して通信装置24cが接続される。通信装置24cは、たとえばネットワークインターフェースコントローラ(NIC)などを含み、CPU20aはこの通信装置24cを介してセンサマネージャ18、グループマネージャ20、さらには外部のコンピュータや他のロボット(ともに図示せず)などと通信でき、それらの間でデータの授受を行うことができる。
CPU20aにはさらに、内部バス24bを介して、メモリ24dが接続される。メモリ24dはROMやRAMを含む。グループマネージャ20から送られる制御データやスクリプトデータがメモリ24dに一時的に記憶される。
また、ロボット制御に必要なプログラム(OSやセンサ信号取得プログラムなど)は、メモリ24dに記憶される。ロボットコントローラ24はメモリ24dに記憶されたプログラムに従ってロボットRの動作を制御する。
つまり、ロボットコントローラ24のCPU20aにはさらに、たとえばDSPで構成されたアクチュエータ制御ボード24eが接続され、このアクチュエータ制御ボード24eは、以下に説明するように、ロボットRの上述の各部に設けられたアクチュエータの動作を制御する。
胴体32の2自由度の動き、すなわち前後左右の回転は、アクチュエータ制御ボード24eを通してCPU20aが胴体アクチュエータ52を制御するとこによって制御される。
右腕34Rおよび左腕34Lの2自由度の動き、すなわち前後左右の回転は、アクチュエータ制御ボード24eを通してCPU20aが腕アクチュエータ54を制御することによって制御される。
首36すなわち頭部38の3自由度の動き、すなわち前後左右の回転は、アクチュエータ制御ボード24eを通してCPU20aが頭部アクチュエータ56によって制御される。
右目40Rおよび左目40Lすなわちまぶたの開閉動作は、アクチュエータ制御ボード24eを通してCPU20aがまぶたアクチュエータ58を制御することによって制御される。眼球42Rおよび眼球42Lの2自由度の動きすなわち前後左右の回転は、アクチュエータ制御ボード24eを通してCPU20aが眼球アクチュエータ60を制御することによって制御される。口44の開閉動作は、アクチュエータ制御ボード24eを通してCPU20aが口アクチュエータ62を制御することによって制御される。
なお、図4に示すロボットRのスピーカ46がロボットコントローラ24のCPU24aに接続される。CPU24aは、グループマネージャ20から与えられ、必要に応じてメモリ24dに記憶されたスクリプトデータに従って、スピーカ46から発声(発話)させる。
このようなロボットコントローラ24によって、ロボットRの頭や腕は、ロボット対話システム10において必要なとき、たとえばスクリプトで非言語動作が要求されているとき、必要な動きをするが、以下の説明では、各アクチュエータなどの具体的な制御は、上述の説明から容易に推測できるので、必ずしも説明しない。
図1に示すように、それぞれのロボットR1およびR2には、ロボットコントローラ24と同様に内蔵したロボットセンサ26が設けられる。ロボットセンサ26は、ロボットR1およびR2のそれぞれの可動コンポーネントの状態を検知するための姿勢センサや加速度センサなどを含み、それらのセンサからのセンサ信号は、センサマネージャ18に入力される。したがって、センサマネージャ18は、ロボットセンサ26からのセンサ信号に基づいて、ロボットR1およびR2の状態をセンシングすることができる。
なお、図4に示すロボットRのマイク48やカメラ50がロボットセンサ26を介してセンサマネージャ18に入力される。センサマネージャ18は、マイク48から取り込んだ音声データをメモリ18d(図2)に記憶し、必要に応じて、音声認識処理を実行する。センサマネージャ18はまた、カメラ50からのカメラ信号を処理して、対話場所12の状況をセンシングする。
なお、センサマネージャ18は、図1の実施例では1つだけが図示されているが、2つ以上の任意数のセンサマネージャが設けられてもよく、その場合には、各センサマネージャはセンシング項目を分担することができる。
同様に、必要なら、2以上のグループマネージャ20を用いるようにしてもよいし、逆にセンサマネージャ18およびグループマネージャ20を1台のコンピュータで実現するようにしてもよい。
また、図1実施例のロボット対話システム10に用いられるロボットRは図4を参照して上で説明したロボットに限定されるものではなく、少なくともスクリプトに従って発話できる機能があればよい。
図6は、ロボットRがそれに従って対話するスクリプトの一例を示す概略図である。このスクリプトでは、まず、ロボットR同士が対話する部分(時間帯)と、ロボットRが人Hに対して問いかけ(質問や同意の要求)をする部分(時間帯)を明確に区別する。そのためのフラグが、実施例では、「質問フラグFah(FLAG_ASK_HUMAN)」である。
質問フラグFahがリセットされているとき、つまり、「Fah=1」でないときは、ロボットR同士が、スクリプトによって予め決められた発話文をスピーカ46(図4、図5)から出力して、参加者である、人Hにその対話内容を聞かせる。質問フラグFahがセットされているとき、つまり、「Fah=1」のときは、ロボットRが、スクリプトによって予め決められた発話文をスピーカ46(図4、図5)から出力して、参加者である、人Hに対して発話する。
図6の例では、上段のパート(A) と下段のパート(C) がそのロボット同士の対話を行うためのスクリプトであり、中段のパート(B) がロボットRから人Hに問いかけを行うためのスクリプトである。
パート(A)のスクリプトの第1行(a1)、第2行(a2)、第3行(a3)では、「T=XX」が定義されていて、ここでは「XX1」、「XX2」、「XX3」は、それぞれのスクリプトを実行すべき時間または時刻を規定する。「RR」は、ロボットからロボットへ発話することを記述していて、それに後続する「SPEAKER=R1(R2)」「LISTNERR=R2(R1)」は、そのときの発話者が第1ロボットR1(または第2ロボットR2)であり、聴取者が第2ロボットR2(または第1ロボットR1)であると定義している。
スクリプト中の「TEXT」に後続する記述が、そのときロボットが発話すべき発話文である。そして、「NONVERBAL」に後続する記述は、第1ロボットR1および/または第2ロボットR2が行うべき非言語動作たとえば相手のロボットを見るとか、人Hを見るとかなどを規定する。
パート(B)では、質問フラグFahがセットされている、つまり、「Fah=1」なので、2台のロボットR1およびR2のいずれか一方、この例では第1ロボットR1から、人Hに対して、問いかけの発話文が出力される。したがって、第1行(b1)では、時間を規定する記述「T=XX4」に続いて、第1ロボットR1が人に対して発話することを示す「RH: SPEAKER=R1, LISTNER=H」が記述される。「TEXT」、「NONVERBAL」については上述のとおりである。
パート(B)の第1行(b1)の下に、条件1、条件2、条件3のスクリプトがあるが、これらは、第1行(b1)でしたロボットRからの問いかけに対して人Hが発話したとき、次にロボットが発話する内容(返答)が条件に応じて変化することを規定している。
条件1は、人Hからの発話についてロボット同士がたとえば「面白いね」などと会話するスクリプトであり、そのために、時間を規定する記述「T=XX5」に続いて、第2ロボットR2が第1ロボットR1に対して発話することを示す「RR: SPEAKER=R2, LISTNER=R1」が記述される。
条件2および条件3は、いずれも、人Hの発話に対してロボットが反応するという設定で、いずれも、時間を規定する記述「T=XX5」に続いて、第2ロボットR2または第1ロボットR1が人に対して発話することを示す「RH: SPEAKER=R2, LISTNER=H」または「RH: SPEAKER=R1, LISTNER=H」が記述されている。
これら条件2または条件3の発話文は、センサマネージャ18がマイク14からの音声を音声認識し、その音声認識の結果に応じて、グループマネージャ20によって決められるが、発話文の内容については、スクリプトとして予め定義されている。たとえば、第1行(b1)でのたとえば「あなたは何が好きですか?」というロボットからの問いかけ文に対して、人Hが「僕は○○が好きです。」と発話したとき、ロボットからは「○○はいいですね」とか「僕は○○より△△がすきだよ。」とか返答する。いずれも、人Hの発話に含まれていた「○○」をセンサマネージャ18が認識した結果の発話である。そのため、条件2および条件3のいずれでも、「○○」を除いた発話文を予め規定しておく。
このように、この実施例のスクリプトによれば、センサマネージャ18などによる音声認識がないか、あるいはうまく機能しなかったときには、条件1のように人Hの発話の具体的な内容に立ち入らないで人Hの発話に対して反応できるし、もし、音声認識がうまく機能した場合には、条件2または3のように、人Hの発話の具体的な内容を少なくとも一部に使いながら人Hの発話に対して反応することができる。
つまり、この実施例のロボット対話システム10は、音声認識機能を排除するものではなく、音声認識機能を補完する事ができるものである。もちろん、音声認識機能がない場合にも、適用可能である。
パート(C)は、パート(A)と同様に、質問フラグFahがリセットされている、つまり、「Fah=1」ではないので、ロボット同士が会話するパートであるが、基本的にパート(B)での人Hからの発話とは無関係に進行する。スクリプトの内容は、パート(A)において説明した通りであるので、ここでは重複する説明はしない。
なお、図6の実施例における発話タイミングを決める時間ないし時刻Tは、たとえば人Hからの発話割り込み(インタラプト)があった場合など、センサマネージャ18の指示に基づいてグループマネージャ20が更新する(ずらせる)必要があるかもしれない。たとえば、センサマネージャ18が発話タイミングの更新の要否を示すフラグ(図示せず)を管理していて、グループマネージャ20はそのフラグがセットされたとき(「1」のとき)、Tを書き換えるようにすればよい。
図1のロボット対話システム10では、対話場所12の2台のロボットR1およびR2は、図6において例示したようなスクリプトに従って対話を進行するが、これらのロボットR1およびR2の発話を統括的に制御するのが、グループマネージャ20である。
図7に示すフロー図は、そのグループマネージャ20のCPU20a(図3)の動作を示す。この図7の動作は、たとえばフレームレート程度の速度で繰り返し実行される。
最初のステップS1でCPU20aは、ダイアログデータベース22(図1)からたとえば図6に例示したようなスクリプトデータを読み込むなど、初期化を実行する。
続くステップS3においてCPU20aは、センサマネージャ18(図1、図3)から送られるセンサデータを更新する。
センサマネージャ18では、図1に示すマイク14やカメラ16などのセンサからのセンサ信号に基づいて、非言語パラメータ「NONVERBAL_PARAMETERS」、たとえば人の「目が落ち着かない」、「あくびをした」などの状態を、センシングする。
さらに、センサマネージャ18では、同じくセンサ信号に基づいて、「人の声があるか」、「(誰かが)話し中か」、「言語によってインタラプトされているか」あるいは「ロボットが非言語的に応答すべき振舞を人が生成しているか」などをセンシングする。
また、ロボットの振舞いの、詳細なパラメータを決定するために必要な情報(たとえば、人Hを見る場合だと、人の位置、人に対して頷く場合だと人の発話の抑揚や終了点)をセンシングする必要がある。
さらに、個々のロボットがどのように振舞ったか、たとえば「話す、「待つ」、「聞く」、「陪席する」などのいずれを実行したかをセンシングする必要があるが、これらのロボットの振舞いは、ロボットの振舞いの履歴を管理するソフトウェアからの入力(たとえば、グループマネージャ20から)によってセンシングすることができる。
ステップS3ではこのようなセンサマネージャ18からのセンシングの結果データ(センシングデータ)を更新する。
次のステップS5では、ステップS3で更新したセンシングデータに基づいて、グループマネージャ20のCPU20aは、人Hの発話による割り込みがあったかどうか、判断する。
このステップS5で“YES”を判断したとき、CPU20aは、次のステップS7において、発話回復フラグIS_RECOVER= Frcがセットされているかどうか、つまりFrc=1かどうか判断する。ここで“YES”ということは、ステップS5で検出した人の発話による発話衝突から復帰したことを意味し、ロボットRが何か発話を挿入する必要があるということである。したがって、ステップS9において、ステップS1で読み出したスクリプトにおける挿入文をロードし、ステップS11で、ロボットRすなわちロボットコントローラ24にブロードキャストする。したがって、その後ロボットRがその挿入文を発話することになる。
たとえば、人の発話割り込みに対して、第1ロボットR1から人に対して「そっか」を発話したり、第2ロボットR2から第1のロボットに「それで?」と発話したり、第1ロボットR1から第2ロボットR2に「そうそう、(スクリプトで決まっている次の発話)」と発話したりする。つまり、人の発話割り込みに対して、軽く返事をする程度の発話を挿入する。人の発話は無視されているわけではないが、その発話に対してロボットはその発話内容に対して正確に応答する返事をするのではなく、スクリプトで決められた返事を返すだけである。
そして、ステップS11の後、ステップS3に戻る。
先のステップS5で“NO”のとき、つまり、人による発話割り込みがない場合、次のステップS13で、CPU20aは、スクリプトで設定した時間Tとなったかどうか判断する。“NO”ならステップS3に戻る。
ステップS13で“YES”なら、つまり、スクリプトで予め決めた次の発話時間になったと判断したとき、CPU20aは、ステップS15で、前述の質問フラグFahがセットされているかどうか、つまり、人Hに対して問いかけ文を発話するかどうか判断する。
ステップS15で“YES”なら、先の図6のパート(B)のように、人に問いかける質問文をスクリプトからロードし、ステップS11でそれをブロードキャストする(ステップS17)
たとえば、第1ロボットR1が人に対して、「あなたはどう思いますか?」と質問し、人がその問いかけに対して返答した後、たとえば第2ロボットR2が「そっか、難しい質問だね」とか、第1のロボットが「だからやっぱり、(スクリプトで決まっている次の発話)」を発話する。ここでは、ロボットからの問いかけに対する人の返答を受け、ロボットは、その人の返答に直接言及せず、いわばあたりさわりのない、軽い発話を行う。つまり、人の返答は無視されているわけではないが、ロボットはその発話内容に対して正確に応答する返事をするのではなく、スクリプトで決められた返事を返すだけである。
その発話に対して真剣に返答を返しているわけではない。
そして、ステップS15において“NO”が判断されると、つまり、人に対する問いかけを発話するときではないと判断したとき、CPU20aは、次のステップS19で次のスクリプトをロードする。
ステップS19でロードするスクリプトは、図6で説明したように、発話者はだれか「ID_SPEAKER」、聴取者はだれか「ID_LISTNER」、陪席者(参加者)はだれか「ID_BYSTANDER」、発話時間「ONSET_TIME_SPEECH」、非言語動作「NONVERBAL_PARAMETERS」などの情報を含む。
ステップS21で、CPU20aは、スクリプトがまだ残っているかどうか判断する。つまり、対話フラグIS_CONVERSATIONがリセットされているかどうか判断する。“YES”のときは、ステップS11に進むが、“NO”の場合には、ステップS23でその旨ブロードキャストし、ステップS25で終了処理をして、このルーチンが終わる。
ロボットR1およびR2は、いずれも、図8のフロー図に従って、ロボットコントローラ24によって制御される。この図8のルーチンも、図7のルーチンと同様に、たとえばフレームレートで繰り返し実行される。
ステップS31では、ロボットコントローラ24のCPU24aは、初期化を実行し、次のステップS33において、図7に示すようにグループマネージャ20からブロードキャストされたフラグまたはデータ「IS_CONVERSATION(まだ対話する)」、「IS_ONSPEECH(誰が発話している)」、「CAN_BE_RECOVERED(発話衝突から回したか)」、「IS_INTERRUPTED_VERBAL(言語によるインタラプトがあるか)」、「IS_INTERRUPTED_NONVERBAL(非言語によるインタラプトがあるか)」、「ID_SPEAKER(誰が発話する)」、「ID_LISTNER(誰が聞く)」、「ID_BYSTANDER(誰が陪席者か)」、「SPEECH_TEXT(発話文)」、「ONSET_TIME_SPEECH(発話時間)」、「NONVERBAL_PARAMETERS(非言語パラメータ:いつ誰に視線を向けるか、頷くか、などの非言語動作を規定するパラメータ)」を受ける。
そして、ステップS35において、CPU24aは、データ「IS_CONVERSATION」を参照して、対話がまだ継続するのかどうか判断する。“YES”なら、次のステップS37で、データ「IS_ONSPEECH」を参照して、誰かが発話しているかどうか判断する。“YES”なら、ステップS39で、そのときの話し手は、自分(が制御するロボット)かどうか判断する。つまり、データ「ID_SPEAKER」を参照して、自分が発話中かどうか判断する。
自分(が制御するロボット)が発話中であれば、ステップS39で“YES”となり、ステップS41に進む。ステップS41では、CPU24aは、言語によるインタラプト(発話遮断)があるかどうか、データ「IS_INTERRUPTED_VERBAL」を参照して判断する。ステップS41で“YES”なら、言語によるインタラプトがあるということなので、次のステップS43で、CPU24aは、データ「CAN_BE_RECOVERED」を参照して、発話を再開してもよいかどうか判断する。
ステップS43で“YES”なら、ステップS46でロボットに発話を再開させるが、“NO”なら、ステップS46で、ロボットに発話させないで、待たせる。
ステップS41で“NO”が判断されると、すなわち、言語によるインタラプトがないとき、CPU24aは、ステップS47において、非言語動作でインタラプトされたかどうか判断する。たとえば、人が不規則な非言語動作、たとえば人Hが大きく動いたりしていないかどうか判断する。
ステップS39で“NO”のとき、つまり、自分(が制御するロボット)が発話指示されていないときには、データ「ID_LISTNER」を参照して、自分が聞き手として指定されているかどうか判断する。
ステップS49で“YES”なら、ステップS51で、CPU24aは、それが制御しているロボットRが聞き手になるように制御する。
ステップS49で“NO”なら、データ「ID_BYSTANDER」がロボットR1またはR2が陪席者となることを指示しているので、ロボットコントローラ24すなわちCPU24aは、ロボットR1またはR2に対して、陪席者としての動作を行わせる。
ステップS37で“NO”を判断したとき、つまり、誰も発話中ではないとき、ステップS55で、CPU24aは、データ「ID_SPEAKER」を参照して自分が話し手か判断する。“YES”なら、自分が制御しているロボットR1またはR2が、ステップS57において、発話文TEXTの内容に従って発話するように、制御する。
ステップS55で“NO”なら、当該ロボットは発話者でもなく、聴取者でもないのであるから、CPU24aは、自分のロボットがステップS59で陪席者として動作するように、制御する。
ステップS35で“NO”なら、ステップS61で終了処理を実行した後このルーチンを終了する。
このように、ロボットRはいずれも、グループマネージャ20からブロードキャストされたスクリプトにおいて決められているタイミングで、スクリプトにおいて決められた内容を発話するだけで、自発的な発話はしない。
他方、人Hからの発話をロボットRは解釈しない。人Hから発話があっても、ロボットRは相槌を打つだけで、その人からの発話には応答しない。その相槌も、スクリプトに決めた通りに発話する。
このような、ロボットコントローラ24によるスクリプト通りのロボットR1およびR2の対話システムを用いれば、図9に示すように対話シーケンスが成立する。
たとえば、ロボットが人に向かって話していることとロボットがロボットに向かって話していることがはっきりと区別でき、また同時に、対話の中で陪席者となる人間やロボットを無視してしまっているように見えないように、対話の履歴と参加者の意図推定に基づき、ロボット同士の対話と人に対する問いかけのための、発話と視線配布や相槌などのしぐさを生成する。つまり、ロボットRは人Hの発話を聞き流すことができるので、人Hに対して質問して人Hに発話させることができる。これにより、人がロボット同士の対話に、自分も参加しているような感覚を覚えさせることができる。また結果として、ロボット同士の対話に含まれる内容を人に対して印象付けることができる。
具体的には、図10‐図14で示す場面をスクリプトによって意図的に出現させることができる。
図10の例では、第1ロボットR1および第2ロボットR2が、発話を繰り返しながら、話題(トピックまたはテーマ)Aについて、対話を進行しているとき、話題Aから話題Bに切り換えるとき、スクリプト上で、ロボットR1および/またはR2が人Hに対して質問するように制御する。このときの質問の内容は、たとえば、既に終わった話題Aに関するものでもよく、これから始まる話題Bに関するものでもよい。その両方に関するものでもよい。そして、人Hから回答があると、ロボットR1および/またはR2がスクリプトに従ってたとえば「そっか」というような相槌を発話する。
つまり、ロボット同士の対話中には人Hに対して問いかけはせず、話題切り換えのタイミングで人Hに向けてロボットが発話する。そうすると、人Hは、ロボット同士の対話に参加しているような意識を持って、その状態を持続することができる。
ただし、人Hからの回答に対して、ロボットが割り込みするようにしてもよい。たとえば、ロボットR2「○○は××だから、△△です。」、ロボットR1「え、でも○○って□□じゃないですか?」、ロボットR2「そっか、でも(話題Bに入る)」のような割り込みも可能である。
図11の例では、ロボットR1およびR2が質問や回答を繰り返しながら何らかの話題について対話を進行しているとき、ロボットがロボットにしたのと同じ質問を人Hに対して発話する。たとえば、ロボットR1および/またはR2によって、人Hに「あなたはどう(おもいますか)?」のような質問をさせる。そうすると、人Hから回答がある。ロボットR1およびR2は、それに対して、図10の場合と同様の相槌を発話する。
図12の例では、図11の場合と逆に、ロボット同士の対話をしているときに、ロボットR1またはR2が人Hにしたと同じ質問を他方のロボットR2またはR1にする。この場合には、人Hはロボット同士の対話の中に自分に対する質問と同じ質問が含まれることで、「対話感」を持つことができるであろう。
図13の例では、ロボットR1およびR2が質問や回答を繰り返しながら何らかの話題について対話を進行しているとき、たとえば第2ロボットR2が第1ロボットR1に何かについて説明し、第1ロボットR1から感想を述べる発話を行う。その感想に対して人Hが同意するように、ロボットR1またはR2から人Hに対して、たとえば「ね」と、同意を求める。この場合も、ある程度納得できる話であれば、同意の発話をしたり、心の中での同意を促したりすることができるので、人Hにはロボット同士の対話に参加しているという意識を持続することができる。
図14の例は、たとえば第2ロボットR2から第1ロボットR1
にたいして質問または説明し、それに対して第1ロボットR1がわざと間違った、勘違いした返答、あるいは理解していないことを尋ねる質問をして、人に「そうじゃなくてこうだよ」などと、人から訂正や補足の発話を行なうように、促す。ただし、人からの発話がなければ、第2ロボットR2が、代わりに訂正や補足をして、はじめのロボットの発話を流す。ユーザは、積極的に自分も対話に参加する形になるので、対話感がより高まる。
なお、上述の実施例では、各ロボットR1およびダイアログデータベース22に予め蓄積しておくようにした。しかしながら、このデータベース22に代えて、たとえばネットから必要なスクリプトデータを逐次グループマネージャ20に供給するようにしてもよい。
さらに、上述の実施例は、物理的なエージェントであるロボットを用いたロボット対話システムであるが、この発明は、そのような物理的なエージェントだけでなく、たとえばディスプレイの画面上に表示されるアバタないしキャラクタのようなエージェント同士の対話システムも適用されてもよい。この場合、図1のロボットコントローラ24やロボットセンサ26は、そのようなアバタやキャラクタを表示するためのディスプレイコントローラ(図示せず)に代えられる。つまり、この発明は、エージェント対話システムである。
10 …ロボット対話システム
12 …対話場所
R1、R2 …ロボット
18 …センサマネージャ
20 …グループマネージャ
22 …ダイアログデータベース
24 …ロボットコントローラ

Claims (5)

  1. それぞれが発話機能を有する複数のエージェントが対話場所においてスクリプトに従って対話し、対話場所に人が陪席するエージェント対話システムであって、
    前記スクリプトは、エージェントどうしの対話を実現する第1の時間帯と前記第1の時間帯とは区別され、エージェントが人に対する発話を実現する第2の時間帯とを含み、
    前記第1の時間帯では、スクリプトは、実行時間を規定する時間情報と、スクリプトを発話すべきエージェントを規定する発話者情報と、その発話を聴取すべきエージェントを規定する聴取者情報と、発話文を規定する発話文情報とを含み、
    前記第2の時間帯では、スクリプトは、実行時間を規定する時間情報と、スクリプトを発話すべきエージェントを規定する発話者情報と、その発話を聴取すべき人を規定する聴取者情報と、発話文を規定する発話文情報とを含み、
    前記スクリプトの前記聴取者情報がエージェントを示しているとき第1の判断をし、前記スクリプトの前記聴取者情報が人を示しているとき第2の判断をする第1判断手段、
    前記第1判断手段が前記第1の判断をしたとき、前記発話者情報が示すエージェントが前記聴取者情報が示すエージェントに対して前記発話文情報が示す発話文を発話させる第1発話手段、および
    前記第1判断手段が前記第2の判断をしたとき、前記発話者情報が示すエージェントが前記人に対して前記発話文情報が示す発話文を発話させる第2発話手段を備える、エージェント対話システム。
  2. 前記スクリプトは、エージェントどうしの対話を実現する第1の時間帯とエージェントが人に対する発話を実現する第2の時間帯を区別するフラグをさらに含み、
    前記第1判断手段は前記フラグが前記第2の時間帯であることを示すとき前記第2の判断を実行する、請求項1記載のエージェント対話システム。
  3. 前記エージェントが発話中において、言語によるインタラプトがあるかどうか判断するインタラプト判断手段、
    前記言語によるインタラプトがあるとき、前記発話中の発話を再開可能かどうか判断する再開判断手段、および
    前記再開可能が判断されたとき、前記スクリプトから挿入文に従っていずれかのエージェントに発話させる挿入文発話手段をさらに備える、請求項1または2記載のエージェント対話システム。
  4. 前記再開可能が判断されなかったとき、前記エージェントによる発話を待たせる待機手段をさらに備える、請求項3記載のエージェント対話システム。
  5. それぞれが発話機能を有する複数のエージェントが対話場所においてスクリプトに従って対話し、対話場所に人が陪席するエージェント対話システムであって、
    前記スクリプトは、エージェントどうしの対話を実現する第1の時間帯と前記第1の時間帯とは区別され、エージェントが人に対する発話を実現する第2の時間帯とを含み、
    前記第1の時間帯では、スクリプトは、実行時間を規定する時間情報と、スクリプトを発話すべきエージェントを規定する発話者情報と、その発話を聴取すべきエージェントを規定する聴取者情報と、発話文を規定する発話文情報とを含み、
    前記第2の時間帯では、スクリプトは、実行時間を規定する時間情報と、スクリプトを発話すべきエージェントを規定する発話者情報と、その発話を聴取すべき人を規定する聴取者情報と、発話文を規定する発話文情報とを含み、
    前記エージェント対話システムのプログラムは、前記エージェント対話システムのコンピュータを、
    前記スクリプトの前記聴取者情報がエージェントを示しているとき第1の判断をし、前記スクリプトの前記聴取者情報が人を示しているとき第2の判断をする第1判断手段、
    前記第1判断手段が前記第1の判断をしたとき、前記発話者情報が示すエージェントが前記聴取者情報が示すエージェントに対して前記発話文情報が示す発話文を発話させる第1発話手段、および
    前記第1判断手段が前記第2の判断をしたとき、前記発話者情報が示すエージェントが前記聴取者情報が示す人に対して前記発話文情報が示す発話文を発話させる第2発話手段
    として機能させる、エージェント対話システムのプログラム。
JP2015006970A 2015-01-16 2015-01-16 エージェント対話システムおよびプログラム Active JP6583765B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015006970A JP6583765B2 (ja) 2015-01-16 2015-01-16 エージェント対話システムおよびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015006970A JP6583765B2 (ja) 2015-01-16 2015-01-16 エージェント対話システムおよびプログラム

Publications (2)

Publication Number Publication Date
JP2016133557A JP2016133557A (ja) 2016-07-25
JP6583765B2 true JP6583765B2 (ja) 2019-10-02

Family

ID=56437850

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015006970A Active JP6583765B2 (ja) 2015-01-16 2015-01-16 エージェント対話システムおよびプログラム

Country Status (1)

Country Link
JP (1) JP6583765B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109074397A (zh) * 2016-05-06 2018-12-21 索尼公司 信息处理系统和信息处理方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6886689B2 (ja) * 2016-09-06 2021-06-16 国立大学法人千葉大学 対話装置及びこれを用いた対話システム
JP2018126810A (ja) * 2017-02-06 2018-08-16 川崎重工業株式会社 ロボットシステム及びロボット対話方法
WO2018163647A1 (ja) * 2017-03-10 2018-09-13 日本電信電話株式会社 対話方法、対話システム、対話装置、およびプログラム
JP6970413B2 (ja) * 2017-03-10 2021-11-24 日本電信電話株式会社 対話方法、対話システム、対話装置、およびプログラム
JP6822244B2 (ja) * 2017-03-17 2021-01-27 ヤマハ株式会社 制御方法及び制御装置
JP6633250B2 (ja) * 2017-06-15 2020-01-22 株式会社Caiメディア 対話ロボットおよび対話システム、並びに対話プログラム
KR102223736B1 (ko) 2019-07-22 2021-03-05 엘지전자 주식회사 인공지능 장치를 이용한 음성 처리 방법

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273473A (ja) * 2000-03-24 2001-10-05 Atr Media Integration & Communications Res Lab 会話用エージェントおよびそれを用いる会話システム
JP2002307354A (ja) * 2000-11-07 2002-10-23 Sega Toys:Kk 電子玩具
JP2004090109A (ja) * 2002-08-29 2004-03-25 Sony Corp ロボット装置およびロボット装置の対話方法
JP2004024867A (ja) * 2003-06-09 2004-01-29 Matsushita Electric Ind Co Ltd 音声対話玩具
JP2009131928A (ja) * 2007-11-30 2009-06-18 Olympus Corp ロボット制御システム、ロボット、プログラム及び情報記憶媒体
JP5332602B2 (ja) * 2008-12-26 2013-11-06 ヤマハ株式会社 サービス提供装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109074397A (zh) * 2016-05-06 2018-12-21 索尼公司 信息处理系统和信息处理方法
US11074916B2 (en) * 2016-05-06 2021-07-27 Sony Corporation Information processing system, and information processing method
JP2021108142A (ja) * 2016-05-06 2021-07-29 ソニーグループ株式会社 情報処理システム、情報処理方法、および情報処理プログラム
US11646026B2 (en) 2016-05-06 2023-05-09 Sony Group Corporation Information processing system, and information processing method

Also Published As

Publication number Publication date
JP2016133557A (ja) 2016-07-25

Similar Documents

Publication Publication Date Title
JP6583765B2 (ja) エージェント対話システムおよびプログラム
US20220254343A1 (en) System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs
JP6992957B2 (ja) エージェント対話システム
JP6818280B2 (ja) 対話システム、対話方法、対話装置、およびプログラム
JP5982840B2 (ja) 対話装置、対話プログラムおよび対話方法
JP6970413B2 (ja) 対話方法、対話システム、対話装置、およびプログラム
WO2017200074A1 (ja) 対話方法、対話システム、対話装置、及びプログラム
EP3432225A1 (en) Apparatus, method, non-transistory computer-readable recording medium storing program, and robot
Matsusaka et al. Conversation robot participating in group conversation
WO2018163646A1 (ja) 対話方法、対話システム、対話装置、およびプログラム
JP7120060B2 (ja) 音声対話装置、音声対話装置の制御装置及び制御プログラム
Ehret et al. Who's next? Integrating Non-Verbal Turn-Taking Cues for Embodied Conversational Agents
JP2004234631A (ja) ユーザと対話型実体エージェントとの間の対話を管理するシステムおよび対話型実体エージェントによるユーザとの対話を管理する方法
JP2017162268A (ja) 対話システムおよび制御プログラム
JP2007030050A (ja) ロボット制御装置、ロボット制御システム、ロボット装置、およびロボット制御方法
Strauß et al. Wizard-of-Oz Data Collection for Perception and Interaction in Multi-User Environments.
WO2020027073A1 (ja) 情報処理装置および情報処理方法
Iio et al. Starting a conversation by multi-robot cooperative behavior
JP2003108502A (ja) 身体性メディア通信システム
JP6647636B2 (ja) 対話方法、対話システム、対話装置、及びプログラム
JP2020049596A (ja) コミュニケーションロボット、制御方法及び制御プログラム
JP7075168B2 (ja) 装置、方法、プログラム、及びロボット
JP7286303B2 (ja) 会議支援システム及び会議用ロボット
JP7432960B2 (ja) 対話システムおよびプログラム
JP3891020B2 (ja) ロボット装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181218

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190823

R150 Certificate of patent or registration of utility model

Ref document number: 6583765

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250