JP5223605B2 - Robot system, communication activation method and program - Google Patents
Robot system, communication activation method and program Download PDFInfo
- Publication number
- JP5223605B2 JP5223605B2 JP2008285993A JP2008285993A JP5223605B2 JP 5223605 B2 JP5223605 B2 JP 5223605B2 JP 2008285993 A JP2008285993 A JP 2008285993A JP 2008285993 A JP2008285993 A JP 2008285993A JP 5223605 B2 JP5223605 B2 JP 5223605B2
- Authority
- JP
- Japan
- Prior art keywords
- communication
- user
- rule
- users
- degree
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Manipulator (AREA)
Description
本発明は、人間とコミュニケーションを図るロボットシステム、そのロボットシステムを用いたコミュニケーション活性化方法、及びそのロボットシステムを制御するコンピュータに実行させるプログラムに関する。 The present invention relates to a robot system that communicates with humans, a communication activation method using the robot system, and a program that is executed by a computer that controls the robot system.
一般に、会話によるコミュニケーションを自然なものとするためには、音声情報(バーバル情報)に加え、相手の視線、ジェスチャ、頷き動作をはじめとする音声以外の情報(ノンバーバル情報)が必要となる。発話に関するリズム、タイミング、配分、強弱などのバーバル情報と、相手の視線、呼吸、心拍、ジェスチャ、動作、頷き、相槌、瞬きなどのノンバーバル情報とを、両者が五感で感じとり、それに反応して自らの動作のリズム、タイミング、配分、強弱を調整することにより、お互いの身体リズム(コミュニケーションリズム)を共有してはじめて、コミュニケーションを自然なものとすることができる。 In general, in order to make communication through conversation natural, information other than voice (non-verbal information) including the gaze, gesture, and whisper of the other party is required in addition to voice information (verbal information). Both sense the rhythm, timing, distribution, strength, etc. related to speech and nonverbal information such as the other party's gaze, breathing, heartbeat, gestures, movement, whispering, competing, blinking, etc. By adjusting the rhythm, timing, distribution, and strength of the movement, it is only possible to share the physical rhythm (communication rhythm) with each other to make communication natural.
このような相手のバーバル情報及びノンバーバル情報を五感で感じとり、それらの反応に応答する行動をとることをインタラクション行動という。このインタラクション行動により、コミュニケーションリズムを共有することを、コミュニケーション同調という。また、コミュニケーション同調により会話に引き込まれていく現象を、引込現象という。 It is called interaction behavior to sense such opponent's verbal information and non-verbal information with the five senses and take action in response to those reactions. Sharing communication rhythm through this interaction behavior is called communication tuning. In addition, the phenomenon of being drawn into a conversation by communication synchronization is called a pull-in phenomenon.
近年、人間との間で、会話などのコミュニケーションを図ることができるロボットシステムが登場している。人間とロボットシステムとの間のコミュニケーションにおいても、この引込現象を発現させることが、そのコミュニケーションを活性化させるための重要なポイントとなる。このような背景から、ロボットとユーザとのコミュニケーションや、ロボットを介在させたユーザ間のコミュニケーションにおいて、引込現象の発現につながる種々の技術が、開示されている(例えば、特許文献1〜6参照)。
In recent years, robot systems that can communicate with humans such as conversations have appeared. In communication between a human and a robot system, expressing this pull-in phenomenon is an important point for activating the communication. From such a background, various technologies that lead to the appearance of a pull-in phenomenon have been disclosed in communication between a robot and a user and communication between users through a robot (see, for example,
特許文献1に記載の身体性メディア通信システムは、時間的または空間的に隔てられた通信相手との親密なコミュニケーションを実現するために、それぞれの通信端末の画面上に両者の疑似人格ロボットを表示させる。疑似人格ロボットは、両者の音声情報や特定動作情報に基づいて動作する。これにより、空間を共有する感覚を両者に与えることができるようになる。
The physical media communication system described in
特許文献2に記載の身体的引き込み方法及びシステムは、話し手と聞き手の間において、話し手または聞き手に視線の切り替えを要求することなく、それぞれの触覚を介してノンバーバル情報を同時に与える。これにより、お互いのコミュニケーションリズムを共有することができるようになる。また、特許文献3では、上記特許文献2に開示された身体的引き込み方法及びシステムを、プレゼンテーションなどの聞き手が不特定多数である場合に適用したものが開示されている。
The physical pull-in method and system described in
特許文献4に記載の自動応答玩具は、ユーザの音声の大きさや、ユーザの顔の動きの大きさ、ユーザの頷きのタイミング等の外部からの刺激に基づいて玩具の感情を決定する。例えば、この玩具は、ユーザの頷きのタイミングが検出された回数が多ければ、話が弾んでいると解釈し、そのときの感情を「幸福」とする。この玩具は、決定された感情に応じた応答動作(インタラクション行動)を行う。
The automatic response toy described in
特許文献5に記載の意思伝達装置は、音声送受信部と、共用ロボットと、聞き手制御部及び話し手制御部とから構成されている。音声送受信部は、会話等の音声信号を送受信し、共用ロボットは、この音声信号に応答して頭の頷き動作、口の開閉動作、目の瞬き動作、又は身体の身振り動作の挙動をする。聞き手制御部は、送信部を通じて送信される音声信号から聞き手としての共用ロボットの挙動を決定してこの共用ロボットを作動させる。そして、話し手制御部は、受信部で受信した音声信号から話し手としての共用ロボットの挙動を決定してこの共用ロボットを作動させる。
The intention transmission device described in
特許文献6に記載のリズム制御対話装置は、データ入力手段からの音声信号・身振りの時刻情報を含む複数の入力データを認識する複数チャネルの認識手段と、時刻情報を出力する時刻付与手段と、認識手段から出力される認識結果を処理してユーザの対話のリズムを検出するリズム検出手段と、リズムの覆歴を格納する覆歴格納手段と、リズム検出手段により認識されたリズムに基づいて対話を進める対話管理手段と、出力データを出力する出力手段から構成されている。応答内容は、出力手段によりユーザに伝えられる。
The rhythm control dialogue apparatus described in
上記6つの技術はいずれも、コミュニケーションをする相手のバーバル情報及びノンバーバル情報を検出し(例えば、ユーザもロボットも音声を発しない無音区間などを検出し)、検出された情報に基づいてロボットにインタラクション行動(インタラクション動作)を行わせることにより、ユーザとロボットとの間でコミュニケーションリズムを共有させて、引込現象を発現させることを期待するものである。 All of the above six technologies detect the verbal information and non-verbal information of the communicating party (for example, detecting a silent section where neither the user nor the robot emits voice) and interacting with the robot based on the detected information By performing an action (interaction operation), it is expected that the user and the robot share a communication rhythm and develop a pull-in phenomenon.
コミュニケーションの取り方は、個人個人によって様々であるが、どのような人でも、相手との同調度合に応じてコミュニケーションの取り方を微妙に変えていくのが一般的である。したがって、引込現象の発現確率を高めるには、コミュニケーションの発展段階に応じて、インタラクション動作を変更する動的な誘発戦略が必要となる。しかしながら、上記6つの技術では、そのような動的な誘発戦略の下でコミュニケーションを行うのは困難である。 There are various methods of communication depending on the individual, but it is common for any person to slightly change the communication method according to the degree of synchronization with the other party. Therefore, in order to increase the probability of the pull-in phenomenon, a dynamic triggering strategy that changes the interaction behavior according to the development stage of communication is required. However, with the above six technologies, it is difficult to communicate under such a dynamic triggering strategy.
本発明は、上記事情に鑑みてなされたもので、引込現象の発現確率を高め、コミュニケーションをさらに活性化させることができるロボットシステム、コミュニケーション活性化方法及びプログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a robot system, a communication activation method, and a program that can increase the probability of occurrence of a pull-in phenomenon and further activate communication.
上記目的を達成するために、本発明の第1の観点に係るロボットシステムは、
複数人のユーザに対するインタラクション動作を行う出力部と、
前記複数人のユーザ各々のバーバル情報及びノンバーバル情報に基づいて、そのユーザのコミュニケーションリズムを認識する認識部と、
前記コミュニケーションリズムに基づいて、前記ユーザ間の同調度合を算出する同調度合算出部と、
前記コミュニケーションリズム及び前記同調度合に応じて前記出力部が前記ユーザに対して行うべきインタラクション動作に関して、コミュニケーションの発展段階に応じた引込現象の動的な誘発戦略の下で構築されたルールを記憶するルールデータベースと、
前記ルールデータベースを参照して、そのルールに従って前記コミュニケーションリズムと前記同調度合を用いて前記ユーザに対して行うべき動作命令を探索し、探索された動作命令に基づいて前記出力部を制御するインタラクション制御部と、を備える。
In order to achieve the above object, a robot system according to a first aspect of the present invention includes:
An output unit for performing an interaction operation for a plurality of users;
A recognition unit for recognizing the communication rhythm of the user based on the verbal information and non-verbal information of each of the plurality of users;
Based on the communication rhythm, a synchronization level calculation unit that calculates a synchronization level between the users,
In accordance with the communication rhythm and the degree of synchronization, the output unit stores a rule constructed under a dynamic induction strategy of a pull-in phenomenon according to a communication development stage regarding an interaction operation to be performed on the user. A rule database;
An interaction control that refers to the rule database, searches for an operation command to be performed for the user using the communication rhythm and the degree of synchronization according to the rule, and controls the output unit based on the searched operation command A section.
本発明の第2の観点に係るコミュニケーション活性化方法は、
複数人のユーザに対するインタラクション動作を行う出力部を備えるロボットシステムを用いたコミュニケーション活性化方法であって、
前記複数人のユーザ各々のバーバル情報及びノンバーバル情報に基づいて、そのユーザのコミュニケーションリズムを認識する第1の工程と、
前記コミュニケーションリズムに基づいて前記ユーザ間の同調度合を算出する第2の工程と、
前記コミュニケーションリズム及び前記同調度合に応じて前記出力部が前記ユーザに対して行うべきインタラクション動作に関して、コミュニケーションの発展段階に応じた引込現象の動的な誘発戦略の下で構築されたルールを記憶するルールデータベースを参照して、そのルールに従って前記コミュニケーションリズムと前記同調度合を用いて前記ユーザに対して行うべき動作命令を探索し、探索された動作命令に基づいて前記出力部を制御する第3の工程と、を含む。
The communication activation method according to the second aspect of the present invention includes:
A communication activation method using a robot system including an output unit that performs an interaction operation for a plurality of users,
A first step of recognizing the communication rhythm of the plurality of users based on the verbal information and non-verbal information of each of the users;
A second step of calculating a degree of synchronization between the users based on the communication rhythm;
In accordance with the communication rhythm and the degree of synchronization, the output unit stores a rule constructed under a dynamic induction strategy of a pull-in phenomenon according to a communication development stage regarding an interaction operation to be performed on the user. A third database for searching for an operation command to be performed on the user using the communication rhythm and the degree of synchronization according to the rule with reference to the rule database, and controlling the output unit based on the searched operation command And a process.
本発明の第3の観点に係るプログラムは、
複数人のユーザに対するインタラクション動作を行う出力部を備えるロボットシステムを制御するコンピュータに、
前記複数人のユーザ各々のバーバル情報及びノンバーバル情報に基づいて、そのユーザのコミュニケーションリズムを認識する第1の手順と、
前記コミュニケーションリズムに基づいて前記ユーザ間の同調度合を算出する第2の手順と、
前記コミュニケーションリズム及び前記同調度合に応じて前記出力部が前記ユーザに対して行うべきインタラクション動作に関して、コミュニケーションの発展段階に応じた引込現象の動的な誘発戦略の下で構築されたルールを記憶するルールデータベースを参照して、そのルールに従って前記コミュニケーションリズムと前記同調度合を用いて前記ユーザに対して行うべき動作命令を探索し、探索された動作命令に基づいて前記出力部を制御する第3の手順と、を実行させる。
The program according to the third aspect of the present invention is:
In a computer that controls a robot system including an output unit that performs an interaction operation for a plurality of users,
A first procedure for recognizing the communication rhythm of the plurality of users based on the verbal information and non-verbal information of each of the users;
A second procedure for calculating the degree of synchronization between the users based on the communication rhythm;
In accordance with the communication rhythm and the degree of synchronization, the output unit stores a rule constructed under a dynamic induction strategy of a pull-in phenomenon according to a communication development stage regarding an interaction operation to be performed on the user. A third database for searching for an operation command to be performed on the user using the communication rhythm and the degree of synchronization according to the rule with reference to the rule database, and controlling the output unit based on the searched operation command And execute the procedure.
本発明によれば、引込現象の発現確率を高め、コミュニケーションをさらに活性化させることができる。 According to the present invention, it is possible to increase the probability of the pull-in phenomenon and further activate communication.
本発明を実施するための最良の形態について図面を参照して詳細に説明する。以下に示す本発明の各実施形態に係るロボットシステムは、複数人のユーザのコミュニケーションリズムを認識し、複数人のユーザに対するインタラクション動作を行うことにより、ロボットとユーザとのコミュニケーション同調を実現し、引込現象を誘発させるものである。 The best mode for carrying out the present invention will be described in detail with reference to the drawings. The robot system according to each embodiment of the present invention described below realizes communication synchronization between a robot and a user by recognizing a communication rhythm of a plurality of users and performing an interaction operation with respect to the plurality of users. It induces a phenomenon.
(第1の実施形態)
まず、本発明の第1の実施形態について説明する。図1には、本実施形態に係るロボットシステム100の概略的な構成が示されている。図1に示されるように、ロボットシステム100は、コミュニケーション場認識部1と、コミュニケーション同調度合算出部2と、インタラクション制御部3と、ソーシャルインタラクションルールデータベース(以下、「SIRDB」と略述する)4と、出力部5と、を備えている。
(First embodiment)
First, a first embodiment of the present invention will be described. FIG. 1 shows a schematic configuration of a
コミュニケーション場認識部1は、不図示のマイク、カメラ、生体センサなどの各種センサを有している。マイクは、ロボットシステム100のコミュニケーション相手となるユーザの音声を入力する。カメラは、そのユーザを撮像する。生体センサは、そのユーザの脈拍などの生体情報を検出する。
The communication
コミュニケーション場認識部1は、これらのセンサから得られた音声情報、画像情報、生体情報、すなわちバーバル情報及びノンバーバル情報に基づいて、ユーザの発話パワーやその周期などの発話データ、ユーザのジェスチャ・動作・頷き・相槌といった身体動作データや、ユーザの視線・呼吸・心拍・瞬きといった生体センシングデータなどを認識する。これら発話データ、身体動作データ、生体センシングデータなどを、コミュニケーションリズム(モーダル情報)という。認識されたコミュニケーションリズムは、コミュニケーション同調度合算出部2に出力される。
Based on the voice information, image information, biological information, that is, verbal information and non-verbal information obtained from these sensors, the communication
コミュニケーション同調度合算出部2は、コミュニケーション場認識部1から出力されたコミュニケーションリズム(複数のモーダル情報)に基づいて、コミュニケーション同調度合を算出する。コミュニケーション同調度合は、ユーザとのコミュニケーションリズムの共有状態の高さを示す指標値であり、この値が大きければ大きいほど、ユーザに引込現象が発現しやすくなる。コミュニケーション同調度合は、例えば、ユーザの発話パワーの平均値と、ユーザの視線のやりとりの回数、頷き回数等の線形加重和、すなわち各種コミュニケーションリズムの線形加重和とすることができる。算出されたコミュニケーション同調度合は、インタラクション制御部3に出力される。
The communication synchronization
インタラクション制御部3には、コミュニケーション同調度合算出部2から算出されたコミュニケーションリズムの他に、コミュニケーション場認識部1から出力されたコミュニケーションリズムも入力されている。インタラクション制御部3は、入力されたコミュニケーションリズムとコミュニケーション同調度合とに基づいて、SIRDB4を参照する。
In addition to the communication rhythm calculated from the communication tuning
SIRDB4には、コミュニケーションリズムとコミュニケーション同調度合とに応じて、後述する出力部5がユーザに対して行うべきインタラクション行動に関するルール(インタラクションルール)が蓄積されている。インタラクションルールは、通常、人間同士のコミュニケーションにおいて、人間が感じ取るバーバル情報及びノンバーバル情報に対して人間がとる行動と同じ行動を、可能な限りとるように構築されている。より具体的には、このインタラクションルールは、コミュニケーションの発展段階に応じた引込現象の動的な誘発戦略の下に構築されている。このインタラクションルールによれば、コミュニケーション同調度合が低い状態と高い状態とでは、コミュニケーションリズムが同じであっても、インタラクション動作が異なるようになる。
The
インタラクション制御部3は、このインタラクションルールにしたがって、入力されたコミュニケーションリズムとコミュニケーション同調度合とに基づいて、ユーザに対して行うべき動作に対応する動作指令であるロボットアクションコマンドを決定する。決定されたロボットアクションコマンドは、出力部5に出力される。
The
出力部5は、ディスプレイ又は人型のロボット本体である。ディスプレイである場合には、その画像にCG(コンピュータグラフィックス)により作成された人物像(エージェント)が表示されたものを採用することができる。エージェント又は人型のロボットは、実際の人間を模して、顔、手、胴体などを有しており、それらを動かせるようになっている。また、その顔では、目、鼻、口などを動かせるようになっている。出力部5は、顔、手、胴体、さらには、目、鼻、口などを動かすことにより、ロボットアクション(インタラクション動作)を実現する。このようなインタラクション動作には、例えば、視線の変更・呼吸・心拍・瞬き・ジェスチャ・動作・頷き・相槌がある。
The
また、出力部5は、ロボットの音声を出力するためのスピーカ(不図示)も有しており、表示された口を動かしつつ、スピーカから音声を出力することにより、発話が可能となっている。このように、出力部5は、人間の動作に近い各種動作を行うことができるようになっているのが望ましい。
The
出力部5は、インタラクション制御部3の制御の下、入力されたロボットアクションコマンドに従ってインタラクション動作を実際に行う。
The
ロボットシステム100は、図2のコミュニケーション処理に示されるように、コミュニケーション場認識部1によるコミュニケーションリズムの認識処理(ステップS10)→コミュニケーション同調度合算出部2によるコミュニケーション同調度合の算出(ステップS12)→インタラクション制御部3によるロボットアクションコマンドの決定(ステップS14)→出力部5によるインタラクション動作(ステップS16)を、この順に行う。
As shown in the communication process of FIG. 2, the
ユーザは、このロボットアクションを見ながら、さらに、ロボットシステム100に対して発話やジェスチャなどのコミュニケーションを継続する。これに対し、ロボットシステム100は、コミュニケーション場認識部1におけるコミュニケーションリズムの認識(ステップS10)、コミュニケーション同調度合算出部2におけるコミュニケーション同調度合の算出(ステップS12)、インタラクション制御部3におけるロボットアクションコマンドの決定(ステップS14)、出力部5におけるインタラクション動作(ステップS16)を繰り返す。ユーザは、このインタラクション動作を見ながら、さらに、ロボットシステム100に対して発話やジェスチャなどのコミュニケーションを継続する。
While watching the robot action, the user further continues communication such as speech and gesture to the
ユーザと、ロボットシステム100とは、このような動作を繰り返しつつ、会話などのコミュニケーションを継続する。
The user and the
コミュニケーションの継続の結果、ユーザとロボットシステム100との間で、コミュニケーションリズムが共有されるようになり、コミュニケーション同調度合が高まる。この結果、ユーザに引込現象が誘発される。
As a result of the continuation of communication, the communication rhythm is shared between the user and the
このように、本実施形態に係るロボットシステム100は、バーバル情報及びノンバーバル情報(複数のモーダル情報)に基づいて、コミュニケーションリズムを認識し、そのコミュニケーションリズムに基づいてコミュニケーション同調度合を直接的に求めている。また、このロボットシステム100では、コミュニケーションの発展段階に応じた引込現象の動的な誘発戦略に基づいて構築されたインタラクションルールに従って、コミュニケーション同調度合に基づいてインタラクション動作を行う。このように、ロボットシステム100は、コミュニケーションの発展段階に応じた引込現象の動的な誘発戦略の下でユーザとコミュニケーションを図ることができるので、引込現象の発現確率を高め、コミュニケーションをさらに活性化させることができる。
As described above, the
(第2の実施形態)
本発明の第2の実施形態について説明する。図3には、本実施形態に係るロボットシステム101の概略的な構成が示されている。図3に示されるように、本実施形態に係るロボットシステム101は、コミュニケーションモード決定部6をさらに備えている点と、SIRDB4の代わりに、複数のSIRDB41、42、43、…を備えている点と、インタラクション制御部3の動作とが、上記第1の実施形態に係るロボットシステム100と異なっており、その他の点は同じである。そこで、本実施形態では、上記第1の実施形態と重複する構成要素については、図1と同一の符号を付し、詳細な説明を省略する。
(Second Embodiment)
A second embodiment of the present invention will be described. FIG. 3 shows a schematic configuration of the
コミュニケーションモード決定部6は、コミュニケーション同調度合に基づいて、コミュニケーションモードを決定する。コミュニケーションモードとは、コミュニケーション場の状態を示すものである。コミュニケーションモードは、例えば、初対面状態、話題提供状態、話題盛り上げ状態など、コミュニケーション同調度合が異なる種々のモードを設定することができる。このようなコミュニケーションモードを設定することによって、ロボットシステム101は、コミュニケーション同調度合を効率よく高め、引込現象を誘発しやすくするために、インタラクションルールをコミュニケーションモードに応じて変更し、コミュニケーションモードに応じて出力部5の制御状態を計画的に変更するタスクを構築することができる。これにより、引込現象に対する動的な誘発戦略を立てやすくなる。
The communication
SIRDB41、42、43…は、コミュニケーションモードの数だけ用意されており、それぞれが、いずれかのコミュニケーションモードに対応している。
As
コミュニケーションモード決定部6は、コミュニケーション同調度合算出部2から出力されたコミュニケーション同調度合に基づいて、現在のコミュニケーションモードを決定し、インタラクション制御部3に出力する。インタラクション制御部3は、複数のSIRDB41、42、43…の中から、決定されたコミュニケーションモードに対応するSIRDBを選択する。そして、インタラクション制御部3は、選択されたSIRDBを参照して、そのSIRDBに記憶されたインタラクションルールに従って、コミュニケーション場認識部1から出力されるコミュニケーションリズムと、コミュニケーション同調度合算出部2から出力されるコミュニケーション同調度合とに基づいて、ロボットアクションコマンドを決定する。出力部5は、そのロボットアクションコマンドに従って、そのときのコミュニケーションモードに応じたインタラクション動作を行う。
The communication
このように、本実施形態によれば、コミュニケーション場の状態に応じて引込現象の誘発戦略を動的に変更することができるので、引込現象の発現確率を高め、コミュニケーションをさらに活性化させることができる。 As described above, according to the present embodiment, the induction phenomenon induction strategy can be dynamically changed according to the state of the communication field, so that the probability of the induction phenomenon can be increased and communication can be further activated. it can.
(第3の実施形態)
本発明の第3の実施形態について説明する。図4には、本実施形態に係るロボットシステム102の概略的な構成が示されている。ロボットシステム102は、ユーザ内部状態推定部7をさらに備える点と、SIRDB4の代わりに複数のSIRDB41、42、43…を備えている点と、インタラクション制御部3の動作とが、上記第1の実施形態に係るロボットシステム100と異なっており、その他の点は同じである。したがって、本実施形態では、上記第1の実施形態と重複する構成要素については、図1と同一の符号を付し、詳細な説明を省略する。
(Third embodiment)
A third embodiment of the present invention will be described. FIG. 4 shows a schematic configuration of the
図4に示されるように、ユーザ内部状態推定部7は、コミュニケーション場認識部1から出力されたコミュニケーションリズムを入力する。ユーザ内部状態推定部7は、コミュニケーションリズムに基づいて、ユーザの内部状態を推定する。ユーザ内部状態とは、ユーザの緊張状態や快状態といった、ユーザの精神状態のことである。ユーザの内部状態は、例えば、(緊張、快)、(緊張、不快)、(リラックス、快)、(リラックス、不快)などの状態に分けることができる。
As shown in FIG. 4, the user internal
SIRDB41、42、43…は、ユーザの内部状態の数だけ用意されており、それぞれが、いずれかのユーザの内部状態に対応している。例えば、(緊張、快)、(緊張、不快)、(リラックス、快)などのそれぞれの状態についてSIBDBを1つずつ用意することができる。
As
ユーザ内部状態推定部7は、ユーザ内部状態の推定結果をインタラクション制御部3へ出力する。インタラクション制御部3は、複数のSIRDB41、42、43…の中から、ユーザの内部状態に応じたSIRDBを選択する。そして、インタラクション制御部3は、選択されたSIRDBを参照し、そのインタラクションルールに従って、コミュニケーション場認識部1から出力されるコミュニケーションリズムと、コミュニケーション同調度合算出部2から出力されるコミュニケーション同調度合とに基づいて、ロボットアクションコマンドを決定する。出力部5は、そのロボットアクションコマンドに従って、そのときのユーザの内部状態に応じたインタラクション動作を行う。
The user internal
このように、本実施形態によれば、ユーザの内部状態に応じて引込現象の誘発戦略を動的に変更することができるので、引込現象の発現確率を高め、コミュニケーションをさらに活性化させることができる。 As described above, according to the present embodiment, the induction phenomenon induction strategy can be dynamically changed according to the internal state of the user, so that the probability of the induction phenomenon can be increased and communication can be further activated. it can.
(第4の実施形態)
本発明の第4の実施形態について説明する。図5には、本実施形態に係るロボットシステム103の概略的な構成が示されている。ロボットシステム103は、発話マインド推定部8をさらに備える点と、インタラクション制御部3の動作とが、上記第3の実施形態に係るロボットシステム102と異なっており、その他の点は同じである。したがって、本実施形態では、上記第3の実施形態と重複する構成要素については、図4と同一の符号を付し、詳細な説明を省略する。
(Fourth embodiment)
A fourth embodiment of the present invention will be described. FIG. 5 shows a schematic configuration of the
図5に示されるように、発話マインド推定部8は、ユーザ内部状態推定部7から出力されるユーザの内部状態を入力する。発話マインド推定部8は、このユーザの内部状態に基づいて、ユーザが発話しようとする意思があるかないかを示す指標値(以下、「発話マインド」と呼ぶ)を、推定する。
As shown in FIG. 5, the utterance
SIRDB41、42、43…は、発話マインドが示す値の数だけ用意されており、それぞれが、いずれかの発話マインドの値に対応している。
As
発話マインド推定部8は、ユーザ内部状態推定部7から出力されたユーザの内部状態に基づいて、発話マインドを推定する。発話マインドは、一般的に、ユーザがロボットシステム103(出力部5)に視線を向けて集中しているときや、緊張状態が高いときに、その値が高くなるように設定されている。例えば、発話しようとしていないとみられるときにはその値を0とし、発話しようとしているとみられるときには、その値を1とすることができる。
The utterance
発話マインドの推定結果は、インタラクション制御部3に出力される。インタラクション制御部3は、複数のSIRDB41、42、43…の中から、ユーザの発話マインドに応じたSIRDBを選択する。そして、インタラクション制御部3は、選択されたSIRDBを参照し、そのインタラクションルールに従って、コミュニケーション場認識部1から出力されるコミュニケーションリズムと、コミュニケーション同調度合算出部2から出力されるコミュニケーション同調度合とに基づいて、ロボットアクションコマンドを決定する。出力部5は、そのロボットアクションコマンドに従って、そのときの発話マインドに応じたインタラクション動作を行う。
The estimation result of the utterance mind is output to the
このように、本実施形態によれば、ユーザの発話マインドに応じて引込現象の誘発戦略を動的に変更することができるので、引込現象の発現確率を高め、コミュニケーションをさらに活性化させることができる。 As described above, according to the present embodiment, the induction phenomenon induction strategy can be dynamically changed according to the user's utterance mind, so that the probability of the induction phenomenon can be increased and communication can be further activated. it can.
(第5の実施形態)
本発明の第5の実施形態について説明する。このシステムは、複数のユーザを対象とし、ユーザ間のコミュニケーションの仲立ちをするために特に用いられる。図6には、本実施形態に係るロボットシステム104の概略的な構成が示されている。ロボットシステム104は、ユーザ間情報推定部9をさらに備える点と、インタラクション制御部3の動作とが、上記第3の実施形態に係るロボットシステム102と異なっており、その他の点は同じである。したがって、本実施形態では、上記第3の実施形態と重複する構成要素については、図3と同一の符号を付し、詳細な説明を省略する。
(Fifth embodiment)
A fifth embodiment of the present invention will be described. This system is particularly used for mediating communication between users for a plurality of users. FIG. 6 shows a schematic configuration of the
図6に示されるように、ユーザ間情報推定部9は、ユーザ内部状態推定部7から出力されるユーザの内部状態を入力する。ユーザ間情報推定部9は、ユーザの内部状態に基づいて、ユーザ間の社会的関係性を示すユーザ間情報を推定する。このようなユーザ間情報としては、例えば、ユーザ同士が親しい間柄であるか否かを示す指標値がある。例えば、ユーザが非常にリラックスしている場合には、相手が親しい間柄であると判断することができる。
As illustrated in FIG. 6, the inter-user information estimation unit 9 inputs the user internal state output from the user internal
SIRDB41、42、43…は、ユーザ間情報に応じた数だけ用意されており、それぞれが、いずれかのユーザ間情報の状態に対応している。
As
ユーザ間情報の推定結果は、インタラクション制御部3に出力される。インタラクション制御部3は、複数のSIRDB41、42、43…の中から、ユーザ間情報に応じたSIRDBを選択する。そして、インタラクション制御部3は、選択されたSIRDBを参照し、そのインタラクションルールに従って、コミュニケーション場認識部1から出力されるコミュニケーションリズムと、コミュニケーション同調度合算出部2から出力されるコミュニケーション同調度合とに基づいて、インタラクション動作を決定する。出力部5は、そのロボットアクションコマンドに従って、そのときの発話マインドに応じたインタラクション動作を行う。
The estimation result of the information between users is output to the
このように、本実施形態によれば、ユーザ同士の関係に応じて引込現象の誘発戦略を動的に変更することができるので、引込現象の発現確率を高め、コミュニケーションをさらに活性化させることができる。 As described above, according to the present embodiment, the induction phenomenon induction strategy can be dynamically changed according to the relationship between users, so that the occurrence probability of the induction phenomenon can be increased and communication can be further activated. it can.
(第6の実施形態)
本発明の第6の実施形態について説明する。図7には、本実施形態に係るロボットシステム105の概略的な構成が示されている。ロボットシステム105は、エピソード蓄積部10と、エピソード記憶データベース(以下、「ESDB」と略述する)11と、エピソード学習部12と、をさらに備える点と、インタラクション制御部3の動作とが、上記第1の実施形態に係るロボットシステム100と異なっており、その他の点は同じである。したがって、本実施形態では、上記第1の実施形態と重複する構成要素については、図1と同一の符号を付し、詳細な説明を省略する。
(Sixth embodiment)
A sixth embodiment of the present invention will be described. FIG. 7 shows a schematic configuration of the
図7に示されるように、エピソード蓄積部10は、コミュニケーション場認識部1から出力されるコミュニケーションリズムと、コミュニケーション同調度合算出部2から出力されるコミュニケーション同調度合と、インタラクション制御部3から出力されるロボットアクションコマンドとを入力する。エピソード蓄積部10は、コミュニケーションリズムと、コミュニケーション同調度合と、ロボットアクションコマンドとを、ESDB11に蓄積する。
As shown in FIG. 7, the
ESDB11は、コミュニケーションリズム及びコミュニケーション同調度合と、ロボットアクションコマンドとの関係を記憶するデータベースである。より具体的には、ESDB11は、コミュニケーションリズム及びコミュニケーション同調度合と、それらに基づいて探索されたロボットアクションコマンドと、を関連付けて記憶する。さらに、ESDB11は、その動作命令に基づくインタラクション制御部3の下で行われた出力部5のインタラクション動作に対するユーザの反応としてのコミュニケーションリズム及びコミュニケーション同調度合と、を関連付けて記憶する。
The
例えば、ある時刻t(tは、任意の正の実数)におけるインタラクション動作について考える。前提として、ロボットシステム105では、時刻tにおけるインタラクション動作は、時刻t−b(bは、正の実数)におけるコミュニケーションリズム及びコミュニケーション同調度合に基づいて決定されたロボットアクションコマンドによるものであるとする。また、時刻tにおけるインタラクション動作に対するユーザの反応は、時刻t+a(aは、正の実数)におけるコミュニケーション場にて認識されるものであるとする。この場合、ESDB11には、時刻tにおけるロボットアクションコマンドと、時刻t+aにおけるコミュニケーションリズム及びコミュニケーション同調度合と、時刻t−bにおけるコミュニケーションリズム及びコミュニケーション同調度合とが、関連づけて記憶される。
For example, consider an interaction operation at a certain time t (t is an arbitrary positive real number). As a premise, in the
エピソード学習部12は、ESDB11を参照し、SIRDB4に記憶されたインタラクションルールを調整する。例えば、エピソード学習部12は、時刻tのロボットアクションコマンドに関連づけられた時刻t−bにおけるコミュニケーション同調度合に対して、時刻t+aにおけるコミュニケーション同調度合が低下している場合には、他のインタラクション動作が決定されるように、SIRDB4のインタラクションルールを変更する。
The
エピソード学習部12は、このように、SIRDB4のインタラクションルールを繰り返し変更する。この繰り返しの結果、コミュニケーションリズム及びコミュニケーション同調度合と、インタラクション動作との関係が学習され、コミュニケーション同調度合が効率良く高くなるように、SIRDB4におけるインタラクションルールが最適化される。
In this way, the
なお、ユーザの緊張状態が推定可能であれば、エピソード学習部12による学習が、ユーザの緊張状態が低下しているか否かを基準として行われるようにしてもよい。
If the user's tension state can be estimated, learning by the
このように、本実施形態によれば、実際のコミュニケーションの実績に基づいてインタラクションルールが最適化され、最適化されたインタラクションルールの下でコミュニケーションが行われる。これにより、引込現象の発現確率を高め、コミュニケーションをさらに活性化させることができる。 As described above, according to the present embodiment, the interaction rule is optimized based on the actual performance of communication, and communication is performed under the optimized interaction rule. Thereby, the onset phenomenon occurrence probability can be increased and communication can be further activated.
(第7の実施形態)
本発明の第7の実施形態について説明する。図8には、本実施形態に係るロボットシステム106の概略的な構成が示されている。ロボットシステム106は、ユーザパーソナリティ情報データベース(以下、「UPIDB」と略述する)13をさらに備える点と、インタラクション制御部3の動作とが、上記第1の実施形態に係るロボットシステム100と異なっており、その他の点は同じである。したがって、本実施形態では、上記第1の実施形態と重複する構成要素については、図1と同一の符号を付し、詳細な説明を省略する。
(Seventh embodiment)
A seventh embodiment of the present invention will be described. FIG. 8 shows a schematic configuration of the
UPIDB13には、ユーザの個人情報が蓄えられている。このような情報には、ユーザ個人の氏名、出身地、職歴、趣味といった個人情報や、ユーザの社会的スキルや心理分析結果といったユーザの能力や性格に関する情報などが含まれる。UPIDB13に蓄えられた情報は、インタラクション制御部3によって参照され、インタラクション制御部3がインタラクション動作を決定するために用いられる。
The
SIRDB4におけるインタラクションルールは、ユーザの個人情報に応じてインタラクション動作が異なるようなルールとなっており、コミュニケーションリズム及びコミュニケーション同調度合が同じであっても、ユーザが異なっていれば、その結果行われるインタラクション動作は異なったものとなる可能性がある。 The interaction rule in SIRDB4 is a rule in which the interaction operation differs depending on the personal information of the user. Even if the communication rhythm and the communication synchronization degree are the same, if the user is different, the resulting interaction is performed. The behavior can be different.
このように、本実施形態によれば、ユーザの個人情報に応じて引込現象の誘発戦略を動的に変更することができるので、引込現象の発現確率を高め、コミュニケーションをさらに活性化させることができる。 As described above, according to the present embodiment, the induction phenomenon induction strategy can be dynamically changed according to the personal information of the user, so that the probability of the induction phenomenon can be increased and communication can be further activated. it can.
次に、本発明のさらなる詳細な実施例について図面を参照して説明する。
(第1の実施例)
まず、本発明の第1の実施例について説明する。本実施例は、上記第2の実施形態に係るロボットシステム101(図3参照)に対応するものである。
Next, further detailed embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
First, a first embodiment of the present invention will be described. This example corresponds to the robot system 101 (see FIG. 3) according to the second embodiment.
前提として、本実施例に係るロボットシステム101が適用されるコミュニケーション場について説明する。図9(A)に示されるように、このコミュニケーション場では、2人のユーザH1、H2が、テーブル30を挟んで向かい合っており、会話できる状態となっている。本実施例に係るロボットシステム101は、このユーザH1、H2のコミュニケーションを円滑に進めるための支援を行う。
As a premise, a communication field to which the
このユーザH1、H2は初対面である。したがって、本実施例で、ロボットシステム101により実行されるのは、初対面紹介タスクともいうべきものである。
These users H1 and H2 are the first meeting. Therefore, in this embodiment, what is executed by the
ロボットシステム101の出力部5は、ディスプレイである。この出力部5の画面上には、図9(B)に示されるような、人物像であるエージェントRが表示されている。このエージェントRは、CG(コンピュータグラフィックス)によって、様々なインタラクション動作を行うことができるようになっている。ユーザH1、H2は、出力部5の画面上に表示されたエージェントRのインタラクション動作を見ることができる。
The
図9(A)に示されるように、ユーザH1、H2の胸元には、それぞれマイク31が付けられ、その頭頂部には、加速度センサ32が取り付けられている。また、テーブル上には、ユーザH1、H2を撮像するためのカメラ33、34がそれぞれ2台ずつ設置されている。マイク31、加速度センサ32、カメラ33、34によって、コミュニケーション場認識部1の一部が構成されている。
As shown in FIG. 9A, a
本実施例では、コミュニケーション場認識部1は、マイク31の出力に基づいて、ユーザH1、H2の音声データを検出し、加速度センサ32の出力に基づいて、ユーザH1、H2の頷きを検出し、カメラ33、34の出力画像に基づいて、ユーザH1、H2の顔や視線の向きなど、ユーザH1、H2の身体動作を検出する。コミュニケーション場認識部1は、これらのセンシング結果に基づいて、コミュニケーションリズムを認識する。
In the present embodiment, the communication
なお、本実施例では、2人のユーザH1、H2の頷き、視線、顔の向き、指示といった基本動作及び発話動作を、以下の関数に基づいて定義する。これらの関数の値は、その関数の右側に記載された動作(上記センシング結果より検出された動作)が行われれば1となり、動作が行われなければ0となる。本実施例では、これらの関数に基づいてコミュニケーションリズムが認識される。 In the present embodiment, basic actions such as whispering, gaze, face orientation, and instructions of two users H1 and H2 are defined based on the following functions. The values of these functions are 1 if the operation described on the right side of the function (the operation detected from the sensing result) is performed, and 0 if no operation is performed. In this embodiment, the communication rhythm is recognized based on these functions.
・Nod(H1,t):H1が時刻tに頷く。
・Utterance(H1,t):H1が時刻tに発話する。
・Utterance(H1→H2,t):H1がH2に対して時刻tに発話する。
・TerminateUtterance(H1, t):H1が時刻tに発話を終了する。
・Gaze(H1→H2,t):H1がH2に時刻tに視線を向けている。
・Face(H1→H2,t):H1がH2に時刻tに顔を向けている。
・Gaze(H1⇔H2,t):H1とH2が時刻tに同時に視線を向けている(視線一致状態)。
・Face(H1⇔H2,t):H1とH2が時刻tに同時に顔を向けている(対面状態)。
・TurnGaze(R,H1→H2,t):RがH1をH2の方に時刻tに視線を向かせる。
・TurnUtterance(R,H1→H2,t):RがH1をH2の方に時刻tに発話させる。
・Direct(H1→H2,t):H1がH2の方向を時刻tに指示する。
・SilentTime(H1,t):H1の時刻tにおける無音区間
・UtterancePower(H1,t):H1の時刻tにおける発生音の音量。
・ Nod (H1, t): H1 goes at time t.
Utterance (H1, t): H1 speaks at time t.
Utterance (H1 → H2, t): H1 speaks to H2 at time t.
TerminateUtterance (H1, t): H1 ends utterance at time t.
Gaze (H1 → H2, t): H1 is looking at H2 at time t.
Face (H1 → H2, t): H1 turns his face to H2 at time t.
Gaze (H1⇔H2, t): H1 and H2 are simultaneously looking at time t (gaze matching state).
Face (H1⇔H2, t): H1 and H2 are facing their faces simultaneously at time t (face-to-face state).
・ TurnGaze (R, H1 → H2, t): R turns the line of sight from H1 to H2 at time t.
TurnUtterance (R, H1 → H2, t): R causes H1 to speak to H2 at time t.
Direct (H1 → H2, t): H1 indicates the direction of H2 at time t.
SilentTime (H1, t): Silent period at time t of H1 UtterancePower (H1, t): Volume of generated sound at time t of H1
上記各関数の引数は、その動作の主体とその動作が行われた時刻を示す。なお、エージェントRのインタラクション動作についてもこの関数で表現することができる。 The argument of each function indicates the subject of the operation and the time when the operation was performed. Note that the interaction operation of the agent R can also be expressed by this function.
コミュニケーション場認識部1は、センシング結果に基づいて、上記各関数の値を求め、これらの関数に基づいて、コミュニケーションリズムを認識する。認識されたコミュニケーションリズムは、コミュニケーション同調度合算出部2及びインタラクション制御部3に出力される。
The communication
コミュニケーション同調度合算出部2は、これらコミュニケーションリズムに基づいて、時刻tにおけるコミュニケーション同調度合としての評価関数Eval(t)を、算出する。コミュニケーション同調度合Eval(t)は、ユーザH1、H2の発話パワーの平均値、視線のやりとりの回数、頷き回数など、コミュニケーションリズムの線形加重和により表されるが、本実施例では、後述する4つのコミュニケーションモードに対応する4つの評価関数Eval(t)[1]〜Eval(t)[4]を算出する。
The communication tuning
なお、後述するように、コミュニケーションモードが話題提供状態(話題を提供する会話の初期段階)となっているときには、ユーザH1、H2のお互いの反応を、詳細にチェックする必要があるため、コミュニケーション同調度合算出部2は、コミュニケーション同調度合Eval(t)[2]のほか、次式で示されるエージェントRがユーザH2の話題情報をユーザH1に知らせたときの反応度React(H2→H1,t)と、ユーザH1の話題情報をユーザH2に知らせたときのユーザH2の反応度React(H1→H2,t)とを、同じくコミュニケーション同調度合として算出する。
As will be described later, when the communication mode is in the topic provision state (the initial stage of conversation providing the topic), it is necessary to check the reaction of the users H1 and H2 in detail. In addition to the communication synchronization degree Eval (t) [2], the
React(H2→H1,t)、React(H1→H2,t)は、エージェントRによる話題提供が、ユーザH1、H2のコミュニケーションのきっかけとして成り得たか否かを評価するための評価関数である。
React (H2 → H1, t) and React (H1 → H2, t) are evaluation functions for evaluating whether or not the topic provision by the agent R can be triggered by the communication between the users H1 and H2.
算出されたコミュニケーション同調度合Eval(t)は、コミュニケーションモード決定部6に出力される。
The calculated communication synchronization degree Eval (t) is output to the communication
本実施例では、5つのコミュニケーションモードが用意されている。図10には、5つのコミュニケーションモードの遷移図が示されている。この遷移図によって初対面紹介タスクが表現される。図10に示されるように、本実施例では、初期状態に加え、挨拶/初対面状態、話題提供状態、話題掘り下げ状態、話題盛り上げ状態の4つのコミュニケーションモードが用意されている。 In this embodiment, five communication modes are prepared. FIG. 10 shows transition diagrams of five communication modes. This transition diagram represents the first meeting introduction task. As shown in FIG. 10, in this embodiment, in addition to the initial state, four communication modes are prepared: a greeting / first meeting state, a topic providing state, a topic digging state, and a topic excitement state.
初期状態は、エージェントRと、初対面である2人のユーザH1、H2が、同じコミュニケーション場に集まる前のコミュニケーションモードである。 The initial state is a communication mode before the agent R and the two users H1 and H2 who meet for the first time gather in the same communication area.
挨拶/初対面状態は、初対面である2人のユーザH1、H2が互いに挨拶をかわし、会話を開始する際のコミュニケーションモードである。この状態では、コミュニケーション同調度合は低く、ほぼ0に近い状態である。 The greeting / first meeting state is a communication mode when two users H1 and H2 who are first meeting dodge each other and start a conversation. In this state, the degree of communication synchronization is low and is nearly zero.
話題提供状態は、2人のユーザH1、H2が向き合って対話させることを目的として話題を提供し、会話の端緒を作り出すときの状態である。この状態では、挨拶/初対面状態よりも、コミュニケーション同調度合が少し高まっている。 The topic providing state is a state in which a topic is provided for the purpose of allowing the two users H1 and H2 to face each other and have a conversation, thereby creating the beginning of the conversation. In this state, the degree of communication synchronization is slightly higher than that in the greeting / first meeting state.
話題掘り下げ状態は、エージェントRと2人のユーザH1、H2のスムーズな会話の発生を目指すために、提供された話題を掘り下げていくときの状態である。この状態では、話題提供状態よりも、コミュニケーション同調度合が高まっている。 The topic digging state is a state when the provided topic is digged down in order to aim for a smooth conversation between the agent R and the two users H1 and H2. In this state, the degree of communication synchronization is higher than the topic provision state.
話題盛り上げ状態は、掘り下げられた話題を掘り下げていった結果、コミュニケーション同調度合が極めて高くなり、コミュニケーションリズムが共有化された状態である。 The topic excitement state is a state in which the communication rhythm is shared and the communication rhythm is shared as a result of delving into the in-depth topic.
図10に示されるように、コミュニケーションモードは、コミュニケーション同調度合が高まるにつれて、初期状態から挨拶/初対面状態に遷移し、さらに話題提供状態へと遷移する。その後、コミュニケーションモードは、コミュニケーション同調度合に応じて、話題提供状態と、話題掘り下げ状態と、話題盛り上げ状態との間を、遷移する。 As shown in FIG. 10, the communication mode changes from the initial state to the greeting / first meeting state and further to the topic providing state as the communication synchronization level increases. Thereafter, the communication mode transitions between a topic providing state, a topic digging state, and a topic excitement state according to the degree of communication synchronization.
初対面紹介タスクにおいて、最も望ましい流れは、コミュニケーションモードが、挨拶/初対面状態→話題提供状態→話題掘り下げ状態→話題盛り上げ状態と遷移する流れである。話題盛り上げ状態となり、その状態でタスク終了条件が満たされると、ロボットシステム101は、その役割が完了したものとして、初対面紹介タスクを終了させる。
In the initial meeting introduction task, the most desirable flow is a flow in which the communication mode transitions from greeting / first meeting state → topic providing state → topic digging state → topic excitement state. When the topic is in a lively state and the task end condition is satisfied in this state, the
コミュニケーションモード決定部6の動作について説明する。2人のユーザH1、H2が集まり、カメラ33、34により、両者の存在が検出されると、コミュニケーションモード決定部6は、コミュニケーションモードを、挨拶/初対面状態へと遷移させる。
The operation of the communication
その後、コミュニケーションモード決定部6は、コミュニケーション同調度合Eval(t)[1]〜Eval(t)[4]を、所定の閾値Th_Eval[1]、Th_Eval[2]、Th_Eval[3]、Th_Eval[4]と比較して、その比較結果に基づいて、コミュニケーションモードを決定する。これにより、コミュニケーションモードが図10に示されるように遷移する。なお、それぞれの閾値の関係は、Th_Eval[4]>Th_Eval[3]>Th_Eval[2]>Th_Eval[1]となっている。
Thereafter, the communication
挨拶/初対面状態から、話題提供状態への遷移条件は、以下の式で示される。
Eval(t)[1]=1(=Th_Eval[1]) …(7)
この遷移条件が満たされたということは、上記式(1)に示されるように、エージェントRとユーザH1との間、エージェントRとユーザH2との間で、それぞれの引込現象が発現したことを示している。
The transition condition from the greeting / first meeting state to the topic providing state is expressed by the following expression.
Eval (t) [1] = 1 (= Th_Eval [1]) (7)
The fact that this transition condition is satisfied means that, as shown in the above formula (1), the respective pull-in phenomenon has occurred between the agent R and the user H1, and between the agent R and the user H2. Show.
コミュニケーションモード決定部6は、React(H2→H1)及びReact(H1→H2)を、一定閾値Th_Reactと比較する。話題提供状態から話題掘り下げ状態への遷移条件は、以下の式のようになる。
React(H2→H1)∧React(H1→H2)≧Th_ReactかつEval(t)[2]≧Th_Eval[2] …(8)
The communication
React (H2 → H1) ∧React (H1 → H2) ≧ Th_React and Eval (t) [2] ≧ Th_Eval [2] (8)
この遷移条件が満たされたということは、上記式(2)、式(5)、式(6)に示されるように、エージェントRによる話題提供が成功し、2人のユーザH1、H2が向き合って対話を始めたことを示している。 The fact that the transition condition is satisfied means that the topic provision by the agent R succeeds and the two users H1 and H2 face each other as shown in the above formulas (2), (5), and (6). Indicates that the conversation has begun.
話題掘り下げ状態から話題盛り上げ状態への遷移条件は、以下の式のようになる。
Eval(t)[3]≧Th_Eval[3] …(9)
The transition condition from the topic digging state to the topic excitement state is as follows.
Eval (t) [3] ≧ Th_Eval [3] (9)
この遷移条件が満たされたということは、上記式(3)に示されるように、エージェントRと2人のユーザH1、H2のスムーズな会話が確立されたことを示している。 The fact that the transition condition is satisfied indicates that a smooth conversation between the agent R and the two users H1 and H2 has been established as shown in the above equation (3).
初対面紹介タスク終了条件は、以下の式のようになる。
Eval(t)[4]≧Th_Eval[4] …(10)
コミュニケーションモード決定部6は、このように、遷移条件が満たされたか否かを判定することにより、コミュニケーションモードを遷移させる。
The initial meeting introduction task end condition is as follows.
Eval (t) [4] ≧ Th_Eval [4] (10)
Thus, the communication
続いて、インタラクション制御部3の動作について説明する。インタラクション制御部3は、決定されたコミュニケーションモードに対応するSIRDBを選択する。そして、インタラクション制御部3は、選択されたSIRDBのインタラクションルールに従って、出力部5のインタラクション動作を制御する。
Next, the operation of the
挨拶/初対面状態に対応するSIRDBでは、エージェントRとユーザH1、エージェントRとユーザH2のスムーズな会話の発生を目指してエージェントRが各種インタラクション動作を行うようなインタラクションルールが定められている。より具体的には、このインタラクションルールは、エージェントRが、自発的にユーザH1、H2に話しかけるなどの発話誘導などを行い、会話リズムを生成させるように定められている。エージェントRがこのような行動をとることより、エージェントRとユーザH1、エージェントRとユーザH2における1対1の引込現象が発現しやすくなり、コミュニケーションモードを話題提供状態に遷移させやすくなる。 In the SIRDB corresponding to the greeting / first meeting state, interaction rules are defined such that the agent R performs various interaction operations with the aim of smooth conversation between the agent R and the user H1, and between the agent R and the user H2. More specifically, the interaction rule is defined so that the agent R generates a conversation rhythm by performing utterance induction such as speaking to the users H1 and H2 voluntarily. Since the agent R takes such an action, a one-to-one pull-in phenomenon between the agent R and the user H1 and between the agent R and the user H2 is likely to occur, and the communication mode is easily shifted to the topic providing state.
話題提供状態に対応するSIRDBでは、エージェントRが、ユーザH1の情報をユーザH2に与えるとともに、ユーザH2の情報をユーザH1に伝えるように、インタラクションルールが定められている。さらに、このSIRDBでは、同じ話題について両者に意見を述べさせたり、エージェントRに視線誘導を行わせたりして、向かい合って対話させるように誘導するようなインタラクションルールが定められている。この誘導により、初対面のユーザ間で起こる「会話のきっかけが無くコミュニケーションが滞る問題」を解決することができるようになり、コミュニケーションモードを話題掘り下げ状態に遷移させやすくなる。 In the SIRDB corresponding to the topic providing state, an interaction rule is defined so that the agent R gives the information of the user H1 to the user H2 and transmits the information of the user H2 to the user H1. Furthermore, in this SIRDB, an interaction rule is defined in which both parties give their opinions on the same topic, or the agent R guides the line of sight to guide them to confront each other. By this guidance, it becomes possible to solve the “problem in which communication does not occur because of a conversation” that occurs between first-time users, and the communication mode can be easily shifted to the topic digging state.
話題掘り下げ状態に対応するSIRDBでは、エージェントRが質問を投げかけてユーザH1、H2が対話している話題内容に参入するようなインタラクションルールが定められている。エージェントRがこのような行動をとることより、コミュニケーションモードを、話題盛り上げ状態に遷移させやすくなる。 In the SIRDB corresponding to the topic digging state, an interaction rule is defined such that the agent R asks a question and enters the topic content with which the users H1 and H2 are interacting. Since the agent R takes such an action, the communication mode is easily changed to the topic excitement state.
話題盛り上げ状態では、エージェントRが、適当に頷いたり、相槌を打ったりするように、聞き役としてその場に同調するようなインタラクションルールが定められている。これにより、すでに話題が盛り上がっている状態の両者に対し、エージェントRが過度に干渉しないような配慮がなされている。 In the topic excitement state, an interaction rule is set so that the agent R tunes in on the spot as a listener so that he or she can speak appropriately or make a match. Thereby, consideration is given to prevent agent R from excessively interfering with both of the already popular topics.
図11には、インタラクションルールの基本例が示されている。図11に示されるインタラクションルールは、以下の3つのルールで構成されている。
・[Rule1]頷き同調ルール:相手が頷けば即応的に頷く。
・[Rule2]発話タイミングルール:無音区間が一定時間(0.45秒)以上続き、最後の音声データが、文末として判断されるならば発話する。
・[Rule3]相手の発話に応じた頷き・発話タイミングルール:
「無音区間が一定時間(0.45秒)以上続き,文末ではない場合に20%の確率で頷く」または「無音区間が一定時間(0.45秒)以上続き,文末ではない場合でも80%の確率で発話する」。
ここで、文末であるか否かの判断は、最後の音声データに対して形態素解析を実行し、助詞、終助詞など、文末によく現れる品詞であるか否かを検出することより行うことが可能である。
FIG. 11 shows a basic example of an interaction rule. The interaction rule shown in FIG. 11 includes the following three rules.
-[Rule 1] whispering synchronization rule: If the opponent speaks, it will whisper immediately.
[Rule 2] Utterance timing rule: An utterance is made if a silent section lasts for a certain time (0.45 seconds) or longer and the last voice data is determined as the end of a sentence.
[Rule 3] Whisper / utterance timing rule according to the other party's utterance:
“If there is a silent period lasting for a certain time (0.45 seconds) and it is not the end of the sentence, it will be heard with a probability of 20%.” Speak with the probability of ".
Here, the determination of whether or not the sentence end is performed by performing morphological analysis on the last speech data and detecting whether or not the part of speech often appears at the end of the sentence, such as a particle or a final particle. Is possible.
出力部5のエージェントRは、ロボットアクションコマンドが入力されなかった場合には、図12(A)に示されるニュートラルポジションとなっている。インタラクション制御部3からロボットアクションコマンドが出力されると、エージェントRは、図12(B)〜図12(D)に示されるような発話、頷き、ジェスチャのいずれかのインタラクション動作を行う。
The agent R in the
図13(A)〜図13(E)には、頷きの有無と、発話量と、視線一致度と、コミュニケーション同調度合と、コミュニケーションモードの時間変化の様子が示されている。図13(E)の(1)〜(4)は、それぞれ、挨拶/初対面状態、話題提供状態、話題掘り下げ状態、話題盛り上げ状態を示している。図13(A)〜図13(E)に総合的に示されるように、時間が経過するにつれて、頷きの回数が増えていき、発話パワーが大きくなり、視線が一致する頻度が増えている。また、それらが増加するにつれてコミュニケーション同調度合が次第に大きくなっている。これにより、コミュニケーションモードが、挨拶/初対面状態→話題提供状態→話題掘り下げ状態→話題盛り上げ状態と遷移している。 13A to 13E show the presence / absence of utterance, the amount of speech, the degree of line-of-sight coincidence, the degree of communication synchronization, and how the communication mode changes over time. (1) to (4) in FIG. 13E show a greeting / initial meeting state, a topic providing state, a topic digging state, and a topic excitement state, respectively. As comprehensively shown in FIGS. 13A to 13E, as the time elapses, the number of whispers increases, the speech power increases, and the line-of-sight frequency increases. In addition, the degree of communication synchronization gradually increases as they increase. As a result, the communication mode transitions from greeting / initial meeting state → topic providing state → topic digging state → topic excitement state.
以上述べたように、本実施例に係るロボットシステム101では、コミュニケーションリズムに基づいてコミュニケーション同調度合が算出され、コミュニケーション同調度合に応じてコミュニケーションモードを遷移させるので、初対面である2人のユーザH1、H2のコミュニケーションをより活性化することができる。
As described above, in the
(第2の実施例)
次に、本発明の第2の実施例について説明する。本実施例は、上記第3の実施形態に係るロボットシステム102に対応するものである。
(Second embodiment)
Next, a second embodiment of the present invention will be described. This example corresponds to the
本実施例でも、上記第1の実施例と同様に、図9(A)、図9(B)について示されるコミュニケーション場に適用される。 This embodiment is also applied to the communication place shown in FIGS. 9A and 9B, as in the first embodiment.
上記第3の実施形態で説明したように、ロボットシステム102を構成するユーザ内部状態推定部7は、コミュニケーションリズムに基づいて、ユーザH1、H2の内部状態を推定する。本実施例では、ユーザ内部状態推定部7は、ユーザH1、H2の内部状態として、すなわち緊張状態(緊張しているか、リラックスしているかの状態)や快状態(快であるか不快であるかの状態)を推定する。コミュニケーションリズム、すなわちユーザH1、H2の視線、瞬き、表情に関するセンシングデータには、センシングエラーが確率的に含まれるのが一般的である。このことから、ユーザH1、H2の内部状態の推定には、図14(A)に示されるようなダイナミックベイジアンネットワークによるユーザの内面状態の確率的状態遷移モデルが用いられる。
As described in the third embodiment, the user internal
まず、緊張状態の推定方法について説明する。一般的に、視線一致の頻度が少なく、かつ、瞬きの頻度が増えれば、ユーザH1、H2の緊張状態は、時間の経過とともに上昇していくものと推定される。そこで、本実施例では、ユーザ内部状態推定部7は、視線一致が検出される検出確率p1(視線一致ありの検出確率p1、視線一致なしの検出確率1−p1)と、瞬きの回数がある閾値以上であるか否かの検出確率p2(瞬きありの検出確率p2、瞬きなしの検出確率1−p2)とに基づいて、ユーザの緊張状態(緊張度q1、リラックス度q2)の時間変化を、所定の時間間隔(…、t−1、t、…)で算出する。
First, the tension state estimation method will be described. Generally, if the line-of-sight matching frequency is low and the blinking frequency is increased, the tension state of the users H1 and H2 is estimated to increase with the passage of time. Therefore, in this embodiment, the user internal
次に、快状態の推定方法について説明する。ユーザ内部状態推定部7は、快状態を、瞬きの回数がある閾値以上であるか否かの検出確率p2(瞬きありの検出確率p2、瞬きなしの検出確率1−p2)と、表情変化を示す特徴量とに基づいて推定する。ここで、表情変化を示す特徴量としては、図14(B)に示されるようなFACS(顔表情符号化システム)モデルに基づく眉、目、口の位置関係から算出される特徴量F1〜F6が用いられる。本実施例では、カメラ33、34の撮像結果から距離F1〜F6が得られている。例えば、人間が笑う場合には、目・口間の距離F1が短くなると考えられる。ここでは、例えば、この目・口間の距離F1が閾値Th以下である検出確率p3と、距離F1が閾値Thより大きくなる検出確率1−p3とが求められるものとする。
Next, a method for estimating a pleasant state will be described. The user internal
ユーザ内部状態推定部7は、瞬きありであるとする検出確率(p2、1−p2)と、表情の特徴量の検出確率(p3、1−p3)との結合確率に基づいて、情動認識の学習を行い、快状態(快状態度q3、不快状態度q4)の時間変化を、所定の時間間隔(…、t−1、t、…)で算出する。
The user internal
なお、視線一致の検出確率p1は、次の第4の実施例における発話マインドの推定において、ユーザの内部状態を示す指標として用いられる。 The line-of-sight coincidence detection probability p1 is used as an index indicating the internal state of the user in the estimation of the utterance mind in the fourth embodiment.
また、本実施例では、インタラクション制御部3によって参照されるルールとして、図11に示されるようなインタラクションルールに加え、エージェントRが2人のユーザH1、H2のいずれかに発話する際に、ユーザ内部状態推定部7から出力される快度合の低いユーザに対して発話するというルールが加えられる。なお、このルールでは、ユーザH1、H2の快度合が同値であった場合は、インタラクション制御部3は、エージェントRが緊張度合の低いユーザに対して発話するように、出力部5を制御する。ユーザH1、H2の快度合が同値であり、かつ、ユーザH1、H2の緊張度合も同値であれば、エージェントRがどちらのユーザに発話するかは、ランダムに決定されるようにすればよい。
In addition, in this embodiment, as a rule referred to by the
このように、本実施例では、緊張状態および快状態といったユーザH1、H2の内面状態を考慮してインタラクション動作が行われるので、その動作は、ユーザH1、H2の内部状態に応じて動的に調整されるようになる。初対面であるユーザH1、H2のコミュニケーションをより活性化させることができる。 As described above, in this embodiment, the interaction operation is performed in consideration of the internal state of the users H1 and H2 such as the tension state and the pleasant state. Therefore, the operation is dynamically performed according to the internal state of the users H1 and H2. Will be adjusted. Communication of the users H1 and H2 who are first meeting can be further activated.
(第3の実施例)
次に、本発明の第3の実施例について説明する。本実施例は、上記第4の実施形態に係るロボットシステム103に対応するものである。
(Third embodiment)
Next, a third embodiment of the present invention will be described. This example corresponds to the
本実施例でも、上記第1の実施例と同様に、図9(A)、図9(B)について示されるコミュニケーション場に適用される。 This embodiment is also applied to the communication place shown in FIGS. 9A and 9B, as in the first embodiment.
発話マインド推定部8は、ユーザ内部状態推定部7によって推定されたユーザH1、H2の緊張状態及び快状態(図14(A)に示されるモデルで推定された内部状態)に基づいて、発話マインドを推定する。
The utterance
例えば、ユーザH1、H2がエージェントRに対して視線を向けている場合には、p1の確率で発話マインドありとする。また、ユーザの緊張度合がある閾値以上の場合には、q1の確率で発話マインドありとする。さらに、ユーザの快度合がある閾値以上の場合に、はq3の確率で発話マインドありとする。最終的な発話マインドは、これらの確率の結合確率となる。発話マインド推定部8は、インタラクション制御部3に推定された発話マインドを出力する。
For example, when the users H1 and H2 are looking toward the agent R, it is assumed that there is an utterance mind with a probability of p1. When the user's degree of tension is equal to or greater than a certain threshold, it is determined that there is an utterance mind with a probability of q1. Further, when the user's degree of pleasure is equal to or greater than a certain threshold value, it is assumed that there is an utterance mind with a probability of q3. The final utterance mind is the combined probability of these probabilities. The utterance
また、本実施例では、インタラクション制御部3によって参照されるルールとして、図11に示されるようなインタラクションルールに加え、エージェントRが2人のユーザH1、H2のどちらかに発話する際、発話マインド推定部8から出力される発話マインドのあるユーザに対して発話するというルールが加えられる。なお、このルールでは、ユーザH1、H2とも発話マインドがあるか、両者とも発話マインドがない場合であれば、エージェントRがどちらのユーザH1、H2に発話するかはランダムに決定するようにすればよい。
Further, in this embodiment, as a rule referenced by the
このように、本実施例では、ユーザが発話しようとする意思を考慮してエージェントRがユーザH1、H2に発話を行う。このため、ユーザH1、H2の感じる負荷をより少なくし、初対面であるユーザH1、H2のコミュニケーションをより活性化させることができる。 Thus, in this embodiment, the agent R speaks to the users H1 and H2 in consideration of the user's intention to speak. For this reason, it is possible to reduce the load felt by the users H1 and H2, and to activate the communication of the users H1 and H2 who are first meeting.
(第4の実施例)
次に、本発明の第4の実施例について説明する。本実施例に係るロボットシステムは、上記第5の実施形態に係るロボットシステム104に対応するものである。
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described. The robot system according to the present example corresponds to the
本実施例でも、上記第1の実施例と同様に、図9(A)、図9(B)について示されるコミュニケーション場に適用される。 This embodiment is also applied to the communication place shown in FIGS. 9A and 9B, as in the first embodiment.
ユーザ間情報推定部9は、推定されたユーザH1、H2の緊張度合および快度合に基づいてユーザ間情報を推定する。本実施例では、ユーザH1、H2の緊張度合がともにある閾値以下であり、かつ、ユーザH1、H2の快度合がともにある閾値以上である場合、ユーザの関係は親和的関係であるとし、この場合以外では非親和的関係であるとする。ユーザ間情報推定部9は、このユーザ間情報を、インタラクション制御部3に出力する。この他、ユーザ間情報推定部9は、複数のユーザ間の総コミュニケーション時間などを用いて、ユーザ間情報を定義するようにしてもよい。
The inter-user information estimation unit 9 estimates inter-user information based on the estimated tension levels and pleasure levels of the users H1 and H2. In this embodiment, when the tension levels of the users H1 and H2 are both equal to or less than a certain threshold value, and the pleasure levels of the users H1 and H2 are both equal to or greater than a certain threshold value, the user relationship is assumed to be an affinity relationship. In other cases, it is assumed that the relationship is non-affinity. The inter-user information estimation unit 9 outputs this inter-user information to the
インタラクション制御部3は、このユーザ情報を考慮して、出力部5を制御する。例えば、本実施例に係るロボットシステムが、上記第2の実施形態に係るロボットシステム101と同様に、コミュニケーションモードを有している場合において、コミュニケーションモードが話題提供状態から話題掘り下げ状態に遷移する際に、ユーザ間情報推定部9から出力されたユーザ間情報が親和的関係であれば、コミュニケーションモード決定部6に、話題掘り下げ状態ではなく話題盛り上げ状態へある一定の確率で遷移させ、話題盛り上げ状態に遷移した場合には、話題盛り上げ状態に対応するインタラクションルールに従って、出力部5を制御するようにしてもよい。
The
このように、本実施例では、ユーザ間の関係が”親和的”であれば、エージェントRがユーザH1、H2のコミュニケーションに水を差すような介入をするのを避けることができるため、より効率的にコミュニケーションを活性化させることができる。 In this way, in this embodiment, if the relationship between users is “affinity”, the agent R can avoid intervening in such a way as to flood the communication between the users H1 and H2, and thus more efficient. Can revitalize communication.
(第5の実施例)
次に、本発明の第5の実施例について説明する。本実施例は、上記第6の実施形態に係るロボットシステム105を基本とし、それらの構成に加え、上記第5の実施形態に係るロボットシステム104の構成要素であるユーザ内部状態推定部7とユーザ間情報推定部9とをさらに備えている。すなわち、本実施例のロボットシステムは、ロボットシステム104、105を組み合わせた構成となっている。
(Fifth embodiment)
Next, a fifth embodiment of the present invention will be described. This example is based on the
本実施例でも、上記第1の実施例と同様に、図9(A)、図9(B)について示されるコミュニケーション場に適用される。 This embodiment is also applied to the communication place shown in FIGS. 9A and 9B, as in the first embodiment.
ESDB11には、エピソード蓄積部10により、例えば、図15に示されるような情報が時系列(0、1、2、…)で蓄えられている。「ユーザ状態」は、時刻t−bにおけるユーザ内部状態(緊張度合(高、中、低))を示している。「ユーザ間情報」は、時刻t−bにおけるユーザ間の関係性(非親和的関係、親和的関係)を示している。「Rのアクション」は、時刻tにおけるエージェントRのアクションの種別(H1に視線を向ける、H1に氏名を質問する、H1、H2に相槌を打つ、etc)である。「評価」は、時刻t−bのユーザH1、H2の緊張度合に対する、時刻t+aにおけるユーザH1、H2の緊張度合の減少値(緊張度合減少値)のユーザH1、H2の合計値である。
In the
エピソード学習部12は、ESDB11を参照して、SIRDB4に記憶されたインタラクションルール、すなわち、コミュニケーションリズム及びコミュニケーション同調度合と、それらに基づく制御の下で出力部5によって行われたインタラクション動作との関係を、ユーザH1、H2の緊張度合が減少するように繰り返し変更する。このようにして、エピソード学習部12は、コミュニケーションリズム及びコミュニケーション同調度合と、インタラクション動作との最適な関係を学習する。これにより、ESDB11に記憶されたインタラクションルールが、コミュニケーション同調度合を効率良く高める方向に調整される。
The
なお、この学習の際、エピソード学習部12は、コミュニケーション同調度合算出部2から出力されたコミュニケーション同調度合に基づいて学習ルールを変更するようにしてもよい。例えば、コミュニケーション同調度合が一定期間以上ある閾値よりも低ければ、最適化の収束の高速化(学習の高速化)を目指し、学習の際に用いられるユーザの緊張度合およびユーザ間情報といったパラメータを一定個数減らすようにすることができる。
In this learning, the
(第6の実施例)
次に、本発明の第6の実施例について説明する。本実施例は、上記第7の実施形態に係るロボットシステム106に対応するものである。
(Sixth embodiment)
Next, a sixth embodiment of the present invention will be described. This example corresponds to the
本実施例でも、上記第1の実施例と同様に、図9(A)、図9(B)について示されるコミュニケーション場に適用される。 This embodiment is also applied to the communication place shown in FIGS. 9A and 9B, as in the first embodiment.
UPIDB13には、ユーザの氏名、出身地、職歴、趣味といった個人情報およびユーザの社会的スキルや心理分析結果といったユーザの能力や性格に関する情報が予め蓄えられている。UPIDB13に蓄えられた情報は、インタラクション制御部3によって参照され、インタラクション制御部3がインタラクション動作を決定するために利用される。
In the
例えば、ユーザH1、H2の趣味に関してエージェントRが質問するといった場合に、ユーザH1、H2のユーザパーソナリティ情報に彼らの趣味の情報が含まれていれば、それらの内容が、発話に反映される。 For example, when the agent R asks about the hobbies of the users H1 and H2, if the user personality information of the users H1 and H2 includes information on their hobbies, the contents are reflected in the utterance.
また、ユーザの個人情報は、エージェントRのユーザH1、H2への言葉遣いを決定する際にも参酌される。言葉遣いの社会的スキルの評価指標の1つにJICSがある。例えばJICSの中で、関係調整(上下関係管理)に関するユーザの社会的スキルを用いることでロボットの言葉遣いを調整することができる。 The personal information of the user is also taken into account when determining the wording of the agent R to the users H1 and H2. One of the evaluation indexes of language skills is JICS. For example, in JICS, the wording of a robot can be adjusted by using the user's social skills regarding relationship adjustment (upper and lower relationship management).
例えば、アンケート調査などの結果により、コミュニケーションに参加するユーザの関係調整の度合が既知であるものとし、その度合が、予め、UPIDB13へ蓄えられているものとする。関係調整の度合がある閾値よりも高いユーザは、人間の上下関係に関して意識していると推定することができる。このため、このようなユーザに対しては、インタラクション制御部3は、エージェントRに、発話する場合に敬語を使用させる。一方、関係調整の度合がある閾値よりも低いユーザは、人間の上下関係に関してあまり意識していないと推定することができるため、このようなユーザに対しては、インタラクション制御部3は、エージェントRに、発話する場合に敬語を使用しないようにさせる。
For example, it is assumed that the degree of relationship adjustment of users participating in communication is known from the result of questionnaire survey or the like, and that degree is stored in the
このようにすれば、エージェントRとユーザH1、H2との親和性をより高めることができる。 In this way, the affinity between the agent R and the users H1 and H2 can be further increased.
また、このような社会的スキルの評価指標の他にも、交流分析における人格に関する理論などを用いて推定されたユーザの性格に関する情報をUPIDB13に格納して、エージェントRのユーザH1、H2に対する発話内容の調整に用いることができる。
In addition to the social skill evaluation index, information related to the personality of the user estimated using the personality theory in the exchange analysis is stored in the
このような理論では、例えば、人間の性格(人格)が、批判的な親心と、養育的親心と、合理的な大人の心と、無邪気な子供の心と、順応した子供の心との5つに大別されている。この理論では、人格に関するアンケート調査を行えば、5つの人格の中で、どれがその人の中で優位であるかというような傾向を解析することができ、この解析結果に基づいて、その人の人格をある程度推定することができる。 In such a theory, for example, the human personality (personality) is a critical kinship, a nurturing kinship, a rational adult soul, an innocent child soul, and an adapted child soul. It is roughly divided into two. In this theory, if a questionnaire survey on personality is conducted, it is possible to analyze the tendency of which of the five personalities is dominant among the personality. The personality of can be estimated to some extent.
例えば、あるユーザに対するアンケート調査の結果、批判的な親心と、順応した子供の心が、他の3つの心の構造に比べ優位であれば、そのユーザの性格は、理屈好きなタイプであると推定される。この場合、このタイプに属するユーザに対する発話内容は、理屈を重視すべきであると考えられる。したがって、このタイプに属するユーザに対しては、エージェントRは、理由をつけてユーザに動作を促すような対話戦略をとるようにする。このようにすれば会話がスムーズに進むようになる。 For example, as a result of a questionnaire survey on a certain user, if the critical kinship and the adapted child's mind are superior to the other three mind structures, the user's personality is of a logical type. Presumed. In this case, it is considered that the utterance content for the user belonging to this type should emphasize the reason. Therefore, for a user belonging to this type, the agent R takes an interactive strategy that prompts the user for an action with a reason. In this way, the conversation will proceed smoothly.
なお、上記第5の実施例にもあるように、ロボットシステムとして、上記各実施形態に係るロボットシステムを組み合わせたものを採用することができる。例えば、コミュニケーションモード、ユーザの内部状態、発話マインド、ユーザ間情報のうちの少なくとも一部の組み合わせについてSIRDBを用意し、その組み合わせ毎にインタラクションルールを用意するようにしてもよい。また、それらの組み合わせに応じてSIRDBを複数備えるシステムにおいて、エピソード学習を行うようにしてもよいし、ユーザの個人情報に基づいて、インタラクション動作を変更するようにしてもよい。 As in the fifth example, a combination of the robot systems according to the above embodiments can be employed as the robot system. For example, the SIRDB may be prepared for at least some combinations of the communication mode, the user internal state, the utterance mind, and the inter-user information, and an interaction rule may be prepared for each combination. Further, in a system including a plurality of SIRDBs according to the combination thereof, episode learning may be performed, or the interaction operation may be changed based on the personal information of the user.
また、上記各実施例では、CGモデルのエージェントRにインタラクション動作を行わせたが、出力部5として、各種アクチュエータを備え、ロボットの表情、腕、手、足、体を動かすことができる人型のロボットを用いるようにしてもよい。この場合でも、出力部5では、ロボットの表情を変化させたり、腕、手、足、体が動かしたりして、ロボットの喜怒哀楽といった感情や注意対象をユーザに対して効果的に伝達することができる。
Further, in each of the above embodiments, the CG model agent R performs an interaction operation. However, the
この場合、出力部5は、目が点滅する、瞬きする、腕を振る、首を振る、ボディを伸縮する、ボディを振動する、鼓動音を出すといったインタラクション動作を行うようにしてもよい。また、出力部5は、涙を流す、ユーザの足元に擦り寄る、ユーザに近づく、ジャンプするといったインタラクション動作を実行するようにしてもよい。さらに、注意対象の伝達方法として、出力部5は、注意対象を注視する、注意対象を指差しする、注意対象に近づくといったインタラクション動作を行うようにしてもよい。
In this case, the
このように、ロボットシステムは、物理的に実体を持っていても良いし、上記各実施例のように、プロジェクタの投影画面やディスプレイに表示される、実体を持たないエージェント型であってもよいし、画面に文字を表示したり、音声を発したりするだけのものであってもよい。要は、ロボットシステムは、発話、身体動作、文字表示の少なくとも一つを含む動作を行えるものであればよい。 As described above, the robot system may physically have an entity, or may be an agent type that does not have an entity and is displayed on the projection screen or display of the projector as in each of the above embodiments. However, it may be one that only displays characters on the screen or emits sound. In short, the robot system only needs to be capable of performing an operation including at least one of utterance, body movement, and character display.
また、コミュニケーション場認識部1、コミュニケーション同調度合2、インタラクション制御部3など、各ロボットシステムの構成要素を、ハードウエアのみ実現するようにしてもよいが、これらは、ソフトウエアプログラムとハードウエアとの協調動作で実現されるのが一般的である。ソフトウエアプログラムとハードウエアとの協調動作の場合には、ロボットシステム内に設けられたCPUが、同システム内のROM等の記憶装置に格納されたソフトウエアプログラムを実行することにより、各部の機能を実現する。
In addition, the components of each robot system such as the communication
この場合、ロボットシステムとしては、汎用のコンピュータを用いることが可能である。この場合、コンピュータの記憶装置に格納されるソフトウエアプログラムは、CD−ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)、MO(Magneto Optical disc)、フレキシブルディスクなどのコンピュータ読み取り可能な記録媒体に格納して配布され、ロボットシステムにインストールされるようになっていてもよい。また、インターネット等の通信ネットワーク上のサーバ装置に格納された当該プログラムを、当該コンピュータにダウンロードして、ロボットシステムにインストールされるようになっていてもよい。 In this case, a general-purpose computer can be used as the robot system. In this case, the software program stored in the storage device of the computer is a computer-readable recording such as a CD-ROM (Compact Disc Read Only Memory), a DVD (Digital Versatile Disc), an MO (Magneto Optical Disc), or a flexible disk. It may be stored in a medium and distributed, and installed in a robot system. Further, the program stored in a server device on a communication network such as the Internet may be downloaded to the computer and installed in the robot system.
1 コミュニケーション場認識部
2 コミュニケーション同調度合算出部
3 インタラクション制御部
4、41、42、43 ソーシャルインタラクションルールデータベース(SIRDB)
5 出力部
6 コミュニケーションモード決定部
7 ユーザ内部状態推定部
8 発話マインド推定部
9 ユーザ間情報推定部
10 エピソード蓄積部
11 エピソード記憶データベース(ESDB)
12 エピソード学習部
13 ユーザパーソナリティ情報データベース(UPIDB)
30 テーブル
31 マイク
32 加速度センサ
33、34 カメラ
100、101、102、103、104、105、106 ロボットシステム
H1、H2 ユーザ
R エージェント
DESCRIPTION OF
DESCRIPTION OF
12
30 Table 31
Claims (9)
前記複数人のユーザ各々のバーバル情報及びノンバーバル情報に基づいて、そのユーザのコミュニケーションリズムを認識する認識部と、
前記コミュニケーションリズムに基づいて、前記ユーザ間の同調度合を算出する同調度合算出部と、
前記コミュニケーションリズム及び前記同調度合に応じて前記出力部が前記ユーザに対して行うべきインタラクション動作に関して、コミュニケーションの発展段階に応じた引込現象の動的な誘発戦略の下で構築されたルールを記憶するルールデータベースと、
前記ルールデータベースを参照して、そのルールに従って前記コミュニケーションリズムと前記同調度合を用いて前記ユーザに対して行うべき動作命令を探索し、探索された動作命令に基づいて前記出力部を制御するインタラクション制御部と、を備えるロボットシステム。 An output unit for performing an interaction operation for a plurality of users;
A recognition unit for recognizing the communication rhythm of the user based on the verbal information and non-verbal information of each of the plurality of users;
Based on the communication rhythm, a synchronization level calculation unit that calculates a synchronization level between the users,
In accordance with the communication rhythm and the degree of synchronization, the output unit stores a rule constructed under a dynamic induction strategy of a pull-in phenomenon according to a communication development stage regarding an interaction operation to be performed on the user. A rule database;
An interaction control that refers to the rule database, searches for an operation command to be performed for the user using the communication rhythm and the degree of synchronization according to the rule, and controls the output unit based on the searched operation command A robot system.
前記ルールデータベースを、前記コミュニケーションモードに応じて複数備え、
前記インタラクション制御部は、
複数の前記ルールデータベースの中から、前記コミュニケーションモード決定部により決定されたコミュニケーションモードに対応するルールデータベースを選択し、
選択されたルールデータベースを参照して、そのルールに従って前記コミュニケーションリズムと前記同調度合とを用いて前記ユーザに対して行うべき動作命令を探索し、探索された動作命令に基づいて前記出力部を制御することを特徴とする請求項1に記載のロボットシステム。 A mode determining unit for determining a communication mode which is a state of a communication field based on the degree of synchronization;
A plurality of the rule databases according to the communication mode,
The interaction control unit
From among the plurality of rule databases, select a rule database corresponding to the communication mode determined by the communication mode determination unit,
Referring to the selected rule database, search for an operation command to be performed on the user using the communication rhythm and the degree of synchronization according to the rule, and control the output unit based on the searched operation command The robot system according to claim 1, wherein:
前記ルールデータベースを、前記内部状態に応じて複数備え、
前記インタラクション制御部は、
複数の前記ルールデータベースの中から、前記ユーザ内部状態推定部により推定された内部状態に対応するルールデータベースを選択し、
選択されたルールデータベースを参照して、そのルールに従って前記コミュニケーションリズムと前記同調度合を用いて前記ユーザに対して行うべき動作命令を探索し、探索された動作命令に基づいて前記出力部を制御することを特徴とする請求項1又は2に記載のロボットシステム。 Based on the communication rhythm of each of the plurality of users, further comprising a user internal state estimation unit that estimates the internal state of the user,
A plurality of the rule databases are provided according to the internal state,
The interaction control unit
From among the plurality of rule databases, select a rule database corresponding to the internal state estimated by the user internal state estimation unit,
Referring to the selected rule database, search for an operation command to be performed for the user using the communication rhythm and the degree of synchronization according to the rule, and control the output unit based on the searched operation command The robot system according to claim 1 or 2, characterized in that
前記ルールデータベースを、前記指標値に応じて複数備え、
前記インタラクション制御部は、
複数の前記ルールデータベースの中から、前記発話マインド推定部により推定された指標値に対応するルールデータベースを選択し、
選択されたルールデータベースを参照して、そのルールに従って前記コミュニケーションリズムと前記同調度合を用いて前記ユーザに対して行うべき動作命令を探索し、探索された動作命令に基づいて前記出力部を制御することを特徴とする請求項3に記載のロボットシステム。 An utterance mind estimating unit that estimates an index value indicating whether or not the user has an intention to speak based on an internal state of each of the plurality of users;
A plurality of the rule databases according to the index value,
The interaction control unit
From among the plurality of rule databases, select a rule database corresponding to the index value estimated by the utterance mind estimation unit,
Referring to the selected rule database, search for an operation command to be performed for the user using the communication rhythm and the degree of synchronization according to the rule, and control the output unit based on the searched operation command The robot system according to claim 3.
前記ルールデータベースを、前記ユーザ間情報に応じて複数備え、
前記インタラクション制御部は、
複数の前記ルールデータベースの中から、前記ユーザ間情報推定部により推定されたユーザ間情報に対応するルールデータベースを選択し、
選択されたルールデータベースを参照して、そのルールに従って前記コミュニケーションリズムと前記同調度合を用いて前記ユーザに対して行うべき動作命令を探索し、探索された動作命令に基づいて前記出力部を制御することを特徴とする請求項3に記載のロボットシステム。 Based on the internal state of each of the plurality of users, further comprising an inter-user information estimation unit that estimates inter-user information indicating a social relationship between the users,
A plurality of the rule databases are provided according to the information between users,
The interaction control unit
From among the plurality of rule databases, select a rule database corresponding to the inter-user information estimated by the inter-user information estimation unit,
Referring to the selected rule database, search for an operation command to be performed for the user using the communication rhythm and the degree of synchronization according to the rule, and control the output unit based on the searched operation command The robot system according to claim 3.
前記動作命令と、その動作命令に基づく前記インタラクション制御部の下で行われた前記出力部のインタラクション動作に対する前記ユーザ各々の反応としての前記コミュニケーションリズム及び前記同調度合と、を関連付けて記憶するエピソード記憶データベースと、
前記コミュニケーションリズムと、前記同調度合と、前記動作命令とを、前記エピソード記憶データベースに蓄積するエピソード蓄積部と、
前記エピソード記憶データベースを参照して、前記コミュニケーションリズム及び前記同調度合と、前記インタラクション動作との最適な関係を学習することにより、前記ルールデータベースに記憶されたルールを調整するエピソード学習部と、をさらに備えることを特徴とする請求項1乃至5のいずれか一項に記載のロボットシステム。 Storing the communication rhythm and the degree of synchronization and the operation command searched based on them in association with each other;
Episodic memory for storing the operation command in association with the communication rhythm and the degree of tuning as a response of each of the users to the interaction operation of the output unit performed under the interaction control unit based on the operation command A database,
An episode storage unit for storing the communication rhythm, the degree of synchronization, and the operation command in the episode storage database;
An episode learning unit that adjusts a rule stored in the rule database by learning an optimal relationship between the communication rhythm and the degree of synchronization and the interaction action with reference to the episode storage database; The robot system according to any one of claims 1 to 5, further comprising:
前記インタラクション制御部は、
前記ユーザパーソナリティ情報データベースに蓄えられた情報に基づいて、前記出力部を制御することを特徴とする請求項1乃至6のいずれか一項に記載のロボットシステム。 A user personality information database in which personal information of the user is stored;
The interaction control unit
The robot system according to claim 1, wherein the output unit is controlled based on information stored in the user personality information database.
前記複数人のユーザ各々のバーバル情報及びノンバーバル情報に基づいて、そのユーザのコミュニケーションリズムを認識する第1の工程と、
前記コミュニケーションリズムに基づいて前記ユーザ間の同調度合を算出する第2の工程と、
前記コミュニケーションリズム及び前記同調度合に応じて前記出力部が前記ユーザに対して行うべきインタラクション動作に関して、コミュニケーションの発展段階に応じた引込現象の動的な誘発戦略の下で構築されたルールを記憶するルールデータベースを参照して、そのルールに従って前記コミュニケーションリズムと前記同調度合を用いて前記ユーザに対して行うべき動作命令を探索し、探索された動作命令に基づいて前記出力部を制御する第3の工程と、を含むコミュニケーション活性化方法。 A communication activation method using a robot system including an output unit that performs an interaction operation for a plurality of users,
A first step of recognizing the communication rhythm of the plurality of users based on the verbal information and non-verbal information of each of the users;
A second step of calculating a degree of synchronization between the users based on the communication rhythm;
In accordance with the communication rhythm and the degree of synchronization, the output unit stores a rule constructed under a dynamic induction strategy of a pull-in phenomenon according to a communication development stage regarding an interaction operation to be performed on the user. A third database for searching for an operation command to be performed on the user using the communication rhythm and the degree of synchronization according to the rule with reference to the rule database, and controlling the output unit based on the searched operation command And a communication activation method including a process.
前記複数人のユーザ各々のバーバル情報及びノンバーバル情報に基づいて、そのユーザのコミュニケーションリズムを認識する第1の手順と、
前記コミュニケーションリズムに基づいて前記ユーザ間の同調度合を算出する第2の手順と、
前記コミュニケーションリズム及び前記同調度合に応じて前記出力部が前記ユーザに対して行うべきインタラクション動作に関して、コミュニケーションの発展段階に応じた引込現象の動的な誘発戦略の下で構築されたルールを記憶するルールデータベースを参照して、そのルールに従って前記コミュニケーションリズムと前記同調度合を用いて前記ユーザに対して行うべき動作命令を探索し、探索された動作命令に基づいて前記出力部を制御する第3の手順と、を実行させるプログラム。 In a computer that controls a robot system including an output unit that performs an interaction operation for a plurality of users,
A first procedure for recognizing the communication rhythm of the plurality of users based on the verbal information and non-verbal information of each of the users;
A second procedure for calculating the degree of synchronization between the users based on the communication rhythm;
In accordance with the communication rhythm and the degree of synchronization, the output unit stores a rule constructed under a dynamic induction strategy of a pull-in phenomenon according to a communication development stage regarding an interaction operation to be performed on the user. A third database for searching for an operation command to be performed on the user using the communication rhythm and the degree of synchronization according to the rule with reference to the rule database, and controlling the output unit based on the searched operation command A program that executes a procedure.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008285993A JP5223605B2 (en) | 2008-11-06 | 2008-11-06 | Robot system, communication activation method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008285993A JP5223605B2 (en) | 2008-11-06 | 2008-11-06 | Robot system, communication activation method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010110864A JP2010110864A (en) | 2010-05-20 |
JP5223605B2 true JP5223605B2 (en) | 2013-06-26 |
Family
ID=42299848
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008285993A Expired - Fee Related JP5223605B2 (en) | 2008-11-06 | 2008-11-06 | Robot system, communication activation method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5223605B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012185632A (en) * | 2011-03-04 | 2012-09-27 | Nikon Corp | Electronic apparatus, processing system, and processing program |
CN103430125B (en) * | 2011-03-04 | 2016-10-05 | 株式会社尼康 | Electronic equipment and processing system |
JP5923858B2 (en) * | 2011-03-04 | 2016-05-25 | 株式会社ニコン | Electronic device, processing system and processing program |
JP5788371B2 (en) | 2012-10-16 | 2015-09-30 | シャープ株式会社 | Statement processing device, statement processing method, control program, and recording medium |
US20180009118A1 (en) * | 2015-02-17 | 2018-01-11 | Nec Corporation | Robot control device, robot, robot control method, and program recording medium |
JP2016053990A (en) * | 2015-12-08 | 2016-04-14 | 株式会社ニコン | Electronic apparatus |
KR102558873B1 (en) * | 2016-03-23 | 2023-07-25 | 한국전자통신연구원 | Inter-action device and inter-action method thereof |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001282805A (en) * | 2000-03-28 | 2001-10-12 | Fuji Xerox Co Ltd | User information displaying terminal |
JP2005131713A (en) * | 2003-10-28 | 2005-05-26 | Advanced Telecommunication Research Institute International | Communication robot |
JP3974098B2 (en) * | 2003-10-31 | 2007-09-12 | 株式会社国際電気通信基礎技術研究所 | Relationship detection system |
JP2006123136A (en) * | 2004-11-01 | 2006-05-18 | Advanced Telecommunication Research Institute International | Communication robot |
JP5120745B2 (en) * | 2005-03-10 | 2013-01-16 | 株式会社国際電気通信基礎技術研究所 | Communication robot |
JP2006088328A (en) * | 2005-09-30 | 2006-04-06 | Advanced Telecommunication Research Institute International | Communication robot and its development supporting device |
JP4599522B2 (en) * | 2006-02-21 | 2010-12-15 | 株式会社国際電気通信基礎技術研究所 | Communication robot |
-
2008
- 2008-11-06 JP JP2008285993A patent/JP5223605B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010110864A (en) | 2010-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220254343A1 (en) | System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs | |
US20220020360A1 (en) | System and method for dialogue management | |
JP5223605B2 (en) | Robot system, communication activation method and program | |
Ritschel et al. | Adapting a robot's linguistic style based on socially-aware reinforcement learning | |
JP6818280B2 (en) | Dialogue system, dialogue method, dialogue device, and program | |
US11468894B2 (en) | System and method for personalizing dialogue based on user's appearances | |
KR20200091839A (en) | Communication device, communication robot and computer readable storage medium | |
US20190206402A1 (en) | System and Method for Artificial Intelligence Driven Automated Companion | |
US11003860B2 (en) | System and method for learning preferences in dialogue personalization | |
KR20020067592A (en) | User interface/entertainment device that simulates personal interaction and responds to user's mental state and/or personality | |
KR20020067590A (en) | Environment-responsive user interface/entertainment device that simulates personal interaction | |
KR20020071917A (en) | User interface/entertainment device that simulates personal interaction and charges external database with relevant data | |
KR20020067591A (en) | Self-updating user interface/entertainment device that simulates personal interaction | |
JPWO2018163647A1 (en) | Dialogue method, dialogue system, dialogue device, and program | |
JP6551793B2 (en) | Dialogue method, dialogue system, dialogue apparatus, and program | |
Wargnier et al. | Towards attention monitoring of older adults with cognitive impairment during interaction with an embodied conversational agent | |
CN116188642A (en) | Interaction method, device, robot and storage medium | |
KR20200059112A (en) | System for Providing User-Robot Interaction and Computer Program Therefore | |
CN114995636A (en) | Multi-modal interaction method and device | |
CN114125529A (en) | Method, equipment and storage medium for generating and demonstrating video | |
JP2017079004A (en) | Agent dialogue system | |
Thovuttikul et al. | Simulated crowd: Towards a synthetic culture for engaging a learner in culture-dependent nonverbal interaction | |
Tozadore et al. | Towards adaptation and personalization in task based on human-robot interaction | |
JP6647636B2 (en) | Dialogue method, dialogue system, dialogue device, and program | |
KR102576788B1 (en) | Apparatus and method for generating robot interaction behavior |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111031 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20111101 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130225 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160322 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |