JP5982840B2 - Dialogue device, dialogue program, and dialogue method - Google Patents
Dialogue device, dialogue program, and dialogue method Download PDFInfo
- Publication number
- JP5982840B2 JP5982840B2 JP2012019130A JP2012019130A JP5982840B2 JP 5982840 B2 JP5982840 B2 JP 5982840B2 JP 2012019130 A JP2012019130 A JP 2012019130A JP 2012019130 A JP2012019130 A JP 2012019130A JP 5982840 B2 JP5982840 B2 JP 5982840B2
- Authority
- JP
- Japan
- Prior art keywords
- frequency
- unit
- utterance
- dialogue
- sight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 55
- 238000011156 evaluation Methods 0.000 claims description 50
- 230000008569 process Effects 0.000 claims description 36
- 230000014509 gene expression Effects 0.000 claims description 31
- 238000004364 calculation method Methods 0.000 claims description 26
- 230000002452 interceptive effect Effects 0.000 claims description 19
- 230000008859 change Effects 0.000 claims description 11
- 238000001514 detection method Methods 0.000 claims description 7
- 230000033001 locomotion Effects 0.000 description 51
- 230000004044 response Effects 0.000 description 42
- 210000003128 head Anatomy 0.000 description 41
- 238000012545 processing Methods 0.000 description 30
- 230000009471 action Effects 0.000 description 27
- 210000002414 leg Anatomy 0.000 description 20
- 238000010586 diagram Methods 0.000 description 16
- 210000001508 eye Anatomy 0.000 description 16
- 238000010195 expression analysis Methods 0.000 description 12
- 230000008921 facial expression Effects 0.000 description 11
- 238000004458 analytical method Methods 0.000 description 9
- 210000000744 eyelid Anatomy 0.000 description 9
- 206010048909 Boredom Diseases 0.000 description 8
- 230000004397 blinking Effects 0.000 description 8
- 230000001755 vocal effect Effects 0.000 description 8
- 238000005259 measurement Methods 0.000 description 7
- 230000006399 behavior Effects 0.000 description 5
- 230000007423 decrease Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 238000009795 derivation Methods 0.000 description 4
- 206010041349 Somnolence Diseases 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000007664 blowing Methods 0.000 description 3
- 210000005252 bulbus oculi Anatomy 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 235000019788 craving Nutrition 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 206010017577 Gait disturbance Diseases 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 210000004394 hip joint Anatomy 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 210000000323 shoulder joint Anatomy 0.000 description 1
- 238000002791 soaking Methods 0.000 description 1
- 238000009331 sowing Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000002560 therapeutic procedure Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Toys (AREA)
- Manipulator (AREA)
Description
本発明は、対話装置、対話プログラムおよび対話方法に関する。 The present invention relates to a dialogue apparatus, a dialogue program, and a dialogue method.
会話や仕草などにより、人との間で親和的な対話(インタラクション)を行う対話装置が開発されている。この対話装置の一態様としては、セラピーロボットやエンターテイメントロボットなどが挙げられる。 An interactive device has been developed that performs an interactive interaction with a person through conversation or gestures. As an aspect of this interactive apparatus, a therapy robot, an entertainment robot, or the like can be given.
ところで、対話装置は、人から入力された発話の内容を理解できない場合がある。このように、人から入力された発話の内容を理解できない場合でも対話を継続する技術が各種提案されている。例えば、人から入力された発話を認識できなかった場合に、現在の会話における話題を判別し、話題に応じた返答を出力する技術が提案されている。また、例えば、ユーザの命令などを理解できない場合、ロボットに首を傾げさせたり、耳に手を当てるなどの所定の行動を行わせ、ユーザに対して、音声認識の信頼性が低いことや音声認識の失敗を知らせる技術が提案されている。 By the way, the dialogue apparatus may not understand the content of the utterance input by the person. As described above, various techniques have been proposed for continuing the conversation even when the content of the utterance input by the person cannot be understood. For example, there has been proposed a technique for discriminating a topic in a current conversation and outputting a response according to the topic when an utterance input by a person cannot be recognized. In addition, for example, when the user's command or the like cannot be understood, the robot is allowed to perform a predetermined action such as tilting the head or placing a hand on the ear, and the voice recognition reliability is low for the user. Techniques have been proposed to notify recognition failure.
しかし、従来技術は、人との対話が継続されても、対話装置の発話が不自然な内容となり、人との対話が不自然になってしまう場合がある。 However, according to the conventional technology, even if the dialogue with the person is continued, the utterance of the dialogue apparatus may become unnatural and the dialogue with the person may become unnatural.
開示の技術は、人との対話が不自然になることを抑制できる対話装置、対話プログラムおよび対話方法を提供することを目的とする。 It is an object of the disclosed technology to provide an interactive apparatus, an interactive program, and an interactive method capable of suppressing an unnatural conversation with a person.
本願の開示する対話装置は、一つの態様において、検出部と、算出部と、表出部と、変更部とを有する。検出部は、対話対象者の発話および動作の少なくとも一方を検出する。算出部は、前記検出部により検出された発話および動作の少なくとも一方に基づいて、前記対話対象者との対話に関する評価を算出する。表出部は、前記対話対象者に対して仕草により定常的に態度を表出する。変更部は、前記算出部により算出された評価が高い状態が続いた場合、前記表出部により表出される態度を前記対話に対して理解の高い状態へと変更する。また、変更部は、前記評価が低い状態が続いた場合、前記表出部により表出される態度を前記対話に対して理解の低い状態へと変更する。 In one aspect, the dialog device disclosed in the present application includes a detection unit, a calculation unit, a presentation unit, and a change unit. The detection unit detects at least one of an utterance and an action of the conversation target person. The calculation unit calculates an evaluation related to the dialogue with the dialogue target person based on at least one of the utterance and the action detected by the detection unit. The exposing unit constantly expresses the attitude to the conversation target person by gesture. When the state where the evaluation calculated by the calculation unit is high continues, the change unit changes the attitude expressed by the display unit to a state of high understanding with respect to the dialogue. Moreover, a change part changes the attitude | position expressed by the said display part to the state with a low understanding with respect to the said dialog, when the state with the said low evaluation continues.
本願の開示する対話装置の一つの態様によれば、人との対話が不自然になることを抑制できる。 According to one aspect of the dialogue device disclosed in the present application, it is possible to suppress an unnatural dialogue with a person.
以下に、本願の開示する対話装置、対話プログラムおよび対話方法の実施例を図面に基づいて詳細に説明する。なお、この実施例は開示の技術を限定するものではない。そして、各実施例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。以下の実施例では、対話装置の一態様としてロボットに適用した場合について説明する。 Embodiments of a dialogue apparatus, a dialogue program, and a dialogue method disclosed in the present application will be described below in detail with reference to the drawings. Note that this embodiment does not limit the disclosed technology. Each embodiment can be appropriately combined within a range in which processing contents are not contradictory. In the following embodiments, a case where the present invention is applied to a robot will be described as an aspect of an interactive device.
[ロボットの全体構成]
まず、本実施例に係るロボットの全体構成について説明する。図1は、実施例1に係るロボットの構成を示す斜視図である。図1に示すように、ロボット1は、軟らかい毛で覆われた表皮や幼児に近い体型を持つ子ぐまのぬいぐるみの外観を採用している。ロボット1は、このような子ぐまのぬいぐるみの外観を採用することにより、スキンシップを促し、かつ動物と人間(幼児)の中間的な存在感を演出でき、人の日常生活に溶け込んで親和的な対話を行える。
[Entire robot configuration]
First, the overall configuration of the robot according to the present embodiment will be described. FIG. 1 is a perspective view illustrating the configuration of the robot according to the first embodiment. As shown in FIG. 1, the robot 1 adopts the appearance of a stuffed doll having a skin shape covered with soft hair and a body shape close to that of an infant. By adopting the appearance of the stuffed toy of such a cub, the robot 1 can promote skinship and produce an intermediate presence between animals and humans (infants). Can have a dialogue.
ロボット1は、頭2と、胴体3、右腕4Rと、左腕4Lと、右脚5Rと、左脚5Lとを有する。頭2は、頭2を垂直方向にしてロボット1を配置した際に、左右を軸(X軸)として前後方向に回転するピッチ方向と、上下を軸(Z軸)として左右方向に回転するヨー方向と、前後を軸(Y軸)として左右方向に回転するロール方向の動作が可能とされている。すなわち、ロボット1は、頭2をピッチ方向、ヨー方向、ロール方向の3軸方向に回転させることが可能とされている。ロボット1は、頭2を3軸方向に回転させることにより、様々な動作を行うことができる。例えば、ロボット1は、頭2をピッチ方向に回転させて頷く動作や、頭2をヨー方向に回転させて顔を横に向ける動作、頭2をロール方向に回転させて頭2を傾ける動作を行うことができる。
The robot 1 has a
また、右腕4R、左腕4Lは、頭2を上方向としてロボット1を配置した際に、胴体3と接続部分を軸として、前後方向に回転する動作が可能とされている。すなわち、ロボット1は、右腕4R、左腕4Lをピッチ方向の1軸方向に回転させることが可能とされている。ロボット1は、右腕4R、左腕4Lをピッチ方向に動作させて、右腕4R、左腕4Lを前後させる動作を行うことができる。
Further, the
また、右脚5Rと、左脚5Lは、頭2を上方向としてロボット1を配置した際に、胴体3と接続部分を軸として、前後方向に回転する動作が可能とされている。ロボット1は、右脚5Rと、左脚5Lをピッチ方向に動作させて、右脚5Rと、左脚5Lを前後させる動作を行うことができる。
Further, the
頭2には、右耳6Rと、左耳6Lと、2つの目7と、鼻8と、口9が設けられている。右耳6Rおよび左耳6Lは、頭2と接続部分を軸として、前後方向に回転する動作が可能とされている。目7は、眼球を左右方向に回転させる動作が可能とされており、視線を左右へ移動させることが可能とされている。また、目7には、まぶた7Aが設けられている。まぶた7Aは、上下方向の動作が可能とされており、瞬きが可能とされている。口9は、開閉する動作が可能とされている。また、鼻8には、後述するカメラ41が内蔵されている。カメラ41は、光軸をロボット1の視線方向に概ね一致させて配置されている。さらに、頭2には、後述するマイク42およびスピーカ43が内蔵されている。
The
本実施例に係るロボット1は、人との間で発話および仕草により対話を行う。本実施例に係るロボット1は、人の発話および動作の少なくとも一方を検出すると、検出された発話および動作の少なくとも一方に基づいて、対話対象者との対話に関する評価を算出する。本実施例に係るロボット1は、対話対象者との対話に関する評価に応じて発話や仕草により応答動作を行う。また、本実施例に係るロボット1は、人からの発話が無い状態でも対話対象者に対して仕草により定常的に態度を表出する。そして、本実施例に係るロボット1は、対話対象者の発話において、評価が高い状態が続いた場合、表出する態度を対話に対して理解の高い状態へと変更し、評価が低い状態が続いた場合、表出する態度を対話に対して理解の低い状態へと変更する。例えば、本実施例に係るロボット1は、対話内容が理解できており、興味が高いことを示す傾聴感、対話内容をやや理解できていないことを示す不明感、および対話内容を理解できておらず、退屈であることを示す退屈感の何れかの態度を仕草などにより表出する。そして、本実施例に係るロボット1は、評価が高い状態が続いた場合、表出する態度を傾聴感に変更し、評価が低い状態が続いた場合、不明感、退屈感へと変更する。このように、本実施例に係るロボット1は、対話対象者の発話に対して理解状態に応じて、表出する態度を変更する。このため、本実施例に係るロボット1によれば、ロボット1が表出する態度からロボット1が対話に対して理解が高い状態か理解が低い状態か対話対象者が判別できる。これにより、本実施例に係るロボット1によれば、ロボット1が対話に対して理解の低い状態となり発話が不自然な内容となっても、対話対象者が予めロボット1の対話に対する理解が低い状態であると判別できるため、人との対話が不自然になることを抑制できる。 The robot 1 according to the present embodiment performs a dialogue with a person by utterance and gesture. When the robot 1 according to the present embodiment detects at least one of a person's utterance and action, the robot 1 calculates an evaluation related to the conversation with the person to be talked based on at least one of the detected utterance and action. The robot 1 according to the present embodiment performs a response operation by utterance or gesture according to the evaluation regarding the dialogue with the dialogue target person. Further, the robot 1 according to the present embodiment constantly expresses an attitude to the conversation target person by gesture even when there is no utterance from a person. Then, the robot 1 according to the present embodiment changes the attitude to be expressed to a state of high understanding with respect to the conversation when the state of high evaluation continues in the utterance of the conversation target person, and the state of low evaluation is If it continues, the attitude to be expressed is changed to a state of low understanding for dialogue. For example, the robot 1 according to the present embodiment understands the content of the dialogue, and has a sense of listening that indicates that the user is highly interested, an unknown feeling that indicates that the content of the dialogue is not understood, and a content of the dialogue. First, any attitude of boredom indicating boring is expressed by gestures. And the robot 1 which concerns on a present Example will change the attitude to express to a feeling of listening when a state with high evaluation continues, and will change to a feeling of unknown and bored when a state with low evaluation continues. As described above, the robot 1 according to the present embodiment changes the attitude to be expressed in accordance with the understanding state with respect to the utterance of the conversation target person. For this reason, according to the robot 1 according to the present embodiment, it is possible to determine whether the robot 1 is in a state of high understanding or low understanding of the dialogue from the attitude of the robot 1 to express. Thereby, according to the robot 1 according to the present embodiment, even if the robot 1 is in a state of low understanding with respect to the dialogue and the utterance becomes unnatural, the conversation target person has a low understanding of the dialogue of the robot 1 in advance. Since it can be determined that the state is a state, it is possible to suppress an unnatural conversation with a person.
次に、本実施例に係るロボット1の内部構成について説明する。図2は、実施例1に係るロボットの内部的な構成を示すブロック図である。 Next, the internal configuration of the robot 1 according to the present embodiment will be described. FIG. 2 is a block diagram illustrating an internal configuration of the robot according to the first embodiment.
図2に示すように、ロボット1の胴体3には、頭2、右腕4R、左腕4L、右脚5Rおよび左脚5Lがモータ33P、33R、33Y、34R、34L、35R及び35Lを介して接続される。また、ロボット1の頭2には、小型のモータ36R、36L、37、38、39が設けられている。
As shown in FIG. 2, the
モータ33P、33R及び33Yは、ロボット1の頭2と胴体3とを接続する首関節に設けられる。モータ33Pは、ロボット1の頭2をピッチ方向に回転させ、モータ33Rは、ロボット1の頭2をロール方向に回転させ、また、モータ33Yは、ロボット1の頭2をヨー方向に回転させる。
The
また、モータ34R及び34Lは、ロボット1の右腕4R及び左腕4Lと胴体3とを接続する肩関節に設けられる。モータ34Rは、ロボット1の右腕4Rをロボット1の前後方向に回転させる。モータ34Lは、ロボット1の左腕4Lをロボット1の前後方向に回転させる。
The
また、モータ35R及び35Lは、ロボット1の右脚5R及び左脚5Lと胴体3とを接続する股関節に設けられる。モータ35Rは、ロボット1の右脚5Rをロボット1の前後方向に回転させる。モータ35Lは、ロボット1の左脚5Lをロボット1の前後方向に回転させる。
The
また、モータ36Rおよび36Lは、ロボット1の頭2の右耳6R、左耳6Lの接続箇所に設けられる。モータ36Rは、右耳6Rを前後方向に回転させる。モータ36Lは、左耳6Lを前後方向に回転させる。
Further, the
モータ37は、ロボット1の頭2の目7の部分に設けられる。モータ37は、図示しない伝達機構を用いて2つの目7の眼球を左右方向に回転させる。すなわち、モータ37は、目7の眼球を左右方向に回転させることにより、ロボット1の視線方向を変更する。
The
モータ38は、ロボット1の頭2の目7の部分に設けられる。モータ38は、図示しない伝達機構を用いて2つの目7のまぶた7Aを上下方向に動作させる。すなわち、モータ38は、まぶた7Aを上下方向に動作させることにより、瞬きを行わせる。
The
モータ39は、ロボット1の頭2の口9部分に設けられる。モータ39は、図示しない伝達機構を用いて口9を開閉動作させる。
The
ここで、以下では、モータ33P、33R、33Y、34R、34L、35R、35L、モータ36R、36L、37、38および39を区別なく総称する場合には「モータ30」と総称する場合がある。また、モータ30は、モータを制御するモータ制御部40と接続される。モータ制御部40は、頭2、右腕4R、左腕4L、右脚5Rおよび左脚5Lを駆動させるモータ30の動力制御やモータ30に流れる電流値のモニタリングなどの各種の統括制御を行う。また、右耳6R、左耳6L、目7、および口9を駆動させるモータ30の動力制御やモータ30に流れる電流値のモニタリングなどの各種の統括制御を行う。
Here, hereinafter, the
各モータ30は、モータ制御部40からの指示にしたがって動力を伝達することにより、頭2、右腕4R、左腕4L、右脚5R、左脚5L、右耳6R、左耳6L、目7の眼球、まぶた7A、および口9をそれぞれ駆動する。
Each motor 30 transmits power according to an instruction from the motor control unit 40, so that the
また、ロボット1の頭2には、カメラ41と、マイク42と、スピーカ43が設けられている。カメラ41は、頭2の鼻8の部分に配置されており、頭2の正面方向を所定の周期で撮影する。マイク42は、任意の位置に取り付けることができるが、対話を行う人の発話を集音するため、頭2の正面側に設置されることが好ましい。スピーカ43も、任意の位置に取り付けることができるが、対話を行う人に対して音声を出力するため、頭2の正面側に設置されることが好ましい。
The
また、ロボット1の胴体3には、ロボット1の全体制御を司る制御部10が設けられている。モータ制御部40、カメラ41、マイク42およびスピーカ43は、制御部10と接続される。モータ制御部40は、制御部10からの指示に応じて各モータ30を動作させる制御を行う。カメラ41は、撮影された画像データを制御部10へ出力する。マイク42は、集音された音声データを制御部10へ出力する。スピーカ43は、制御部10からの制御に基づき、音声を出力する。
The body 3 of the robot 1 is provided with a
続いて、本実施例に係るロボットが有する制御部の機能的構成について説明する。図3は、実施例1に係るロボットが有する制御部の機能的構成を示すブロック図である。図3に示すように、制御部10は、ロボット1の全体制御を司る処理部である。制御部10には、記憶部11が接続されている。
Next, the functional configuration of the control unit included in the robot according to the present embodiment will be described. FIG. 3 is a block diagram illustrating a functional configuration of a control unit included in the robot according to the first embodiment. As shown in FIG. 3, the
記憶部11は、制御部10で実行されるOS(Operating System)やロボット1の制御に用いる各種プログラムを記憶する。さらに、記憶部11は、制御部10で実行されるプログラムの実行に必要な各種データを記憶する。かかるデータの一例として、記憶部11は、会話データ11aと、非言語動作データ11bと、頷き動作データ11cと、定常動作頻度データ11dとを記憶する。
The
会話データ11aは、会話を行う際の発話内容を示す情報である。一例として、会話データ11aは、ロボット1の作成元で予め登録される。また、他の一例として、会話データ11aは、発話を行うために、後述する応答決定部10fによって参照される。
The
図4は、実施例1に係る会話データの構成の一例を示す図である。図4に示すように、会話データ11aは、「話題」、「質問」、「態度」、「次の質問」の各項目を有する。話題の項目は、対話を行う話題を示す情報を格納する領域である。質問の項目は、人に対して質問した内容を示す情報を格納する領域である。態度の項目は、表出する態度を示す情報を格納する領域である。次の質問の項目は、次に質問する質問内容を示す情報を格納する領域である。会話データ11aには、話題、質問内容、態度毎に次に質問する質問内容が格納される。また、質問および態度の項目に共に「−」が格納されたレコードには、話題を変更した際に最初に質問する質問内容が格納される。
FIG. 4 is a diagram illustrating an example of a configuration of conversation data according to the first embodiment. As shown in FIG. 4, the
図4の例では、話題「A」において最初に「質問a1」の質問を行うことを示す。また、図4の例では、話題「A」の「質問a1」の質問を行い、回答を得た結果、表出する態度が「傾聴感」である場合、次に「質問a2」の質問を行うことを示す。また、図4の例では、話題「A」の「質問a1」の質問を行い、回答を得た結果、表出する態度が「不明感」である場合、次に「質問a3」の質問を行うことを示す。また、図4の例では、話題「A」の「質問a1」の質問を行い、回答を得た結果、表出する態度が「退屈感」である場合、次に「話題B」の質問を行うことを示す。そして、図4の例では、話題「B」において最初に「質問b1」の質問を行うことを示す。 In the example of FIG. 4, it is shown that the question “Question a1” is first performed on the topic “A”. Further, in the example of FIG. 4, when the question “Question a1” of the topic “A” is asked and the answer is obtained, if the attitude to be expressed is “listening”, then the question “Question a2” is asked next. Indicates what to do. In the example of FIG. 4, when the question “Question a1” of the topic “A” is asked and the answer is obtained, when the attitude to be expressed is “Unknown”, the question “Question a3” is then asked. Indicates what to do. Further, in the example of FIG. 4, when the question “Question a1” of the topic “A” is asked and the answer is obtained, when the attitude to be expressed is “feeling bored”, the question of “Topic B” is asked next. Indicates what to do. In the example of FIG. 4, the question “question b1” is first performed on the topic “B”.
非言語動作データ11bは、表出する態度毎の動作内容を示す情報である。一例として、非言語動作データ11bは、ロボット1の作成元で予め登録される。また、他の一例として、非言語動作データ11bは、非言語表現の動作を指示するために、後述する非言語応答決定部10hおよび定常非言語動作決定部10iによって参照される。
The
図5は、実施例1に係る非言語動作データの構成の一例を示す図である。図5に示すように、非言語動作データ11bは、「設定要素」、「傾聴感」、「不明感」、「退屈感」の各項目を有する。設定要素の項目は、態度を表出するために設定を行う要素を示す情報を格納する領域である。傾聴感の項目は、傾聴感を表出する際にそれぞれの要素での設定内容を示す情報を格納する領域である。不明感の項目は、不明感を表出する際にそれぞれの要素での設定内容を示す情報を格納する領域である。退屈感の項目は、退屈感を表出する際にそれぞれの要素での設定内容を示す情報を格納する領域である。
FIG. 5 is a diagram illustrating an example of a configuration of non-language operation data according to the first embodiment. As illustrated in FIG. 5, the
設定要素の項目には、人が傾聴感、不明感、退屈感をそれぞれ表出する際に、動作に違いが現れる要素が格納される。そして、傾聴感、不明感、退屈感の各項目には、それぞれで顕著となる動作内容を示す情報が格納される。一態様として、本実施例では、設定要素として「音量」、「音高」、「発話の速さ」、「視線」、「瞬き」、「動作、表情」について設定を行う。音量の設定要素は、スピーカ43から発話などの音声を出力する際の音量の設定を示す。本実施例では、音量の「小」は、発話の標準的な音量よりも小さくすることを示す。音量の「中」は、発話の標準的な音量とすることを示す。音量の「大」は、発話の標準的な音量よりも大きくすることを示す。発話の標準的な音量は、例えば、予め多数の人の音を解析して決定してもよく、所定の音量を標準的な音量と定めてもよい。
The setting element item stores an element that shows a difference in operation when a person expresses a sense of listening, an unknown feeling, or a bored feeling. In each of the items of listening feeling, unknown feeling, and feeling bored, information indicating the action contents that become prominent is stored. As an aspect, in this embodiment, settings are made for “volume”, “pitch”, “speech speed”, “line of sight”, “blink”, and “motion, facial expression” as setting elements. The volume setting element indicates the volume setting when outputting sound such as speech from the
音高の設定要素は、スピーカ43から発話を出力する際の声の高さの設定を示す。本実施例では、声高の「低」は、発話の声の高さを、発話の標準的な声の高さよりも低くすることを示す。声高の「中」は、発話の声の高さを、発話の標準的な声の高さとすることを示す。声高の「高」は、発話の声の高さを、発話の標準的な声の高さよりも高くすることを示す。発話の標準的な声の高さは、例えば、予め多数の人の音を解析して決定してもよく、所定の声の高さを標準的な高さと定めてもよい。
The pitch setting element indicates the setting of the voice pitch when the utterance is output from the
発話の速さの設定要素は、スピーカ43から発話を出力する際の発話の速さの設定を示す。本実施例では、発話の速さの「ゆっくり」は、発話の速度を、発話の標準的な速度よりも遅くすることを示す。発話の速さの「ふつう」は、発話の速度を、発話の標準的な速度とすることを示す。発話の標準的な速度は、例えば、予め多数の人の音を解析して決定してもよく、所定の発話の速度を標準的な発話の速度と定めてもよい。
The utterance speed setting element indicates the setting of the utterance speed when the utterance is output from the
視線の設定要素は、目7の視線方向の設定を示す。本実施例では、視線の「ユーザ注視」は、ユーザの方向に視線を向けたままの状態とすることを示す。視線の「時々そらす」は、ユーザの方向に視線を向けるが、周期的にユーザと異なる方向へ視線を移動させることを示す。視線の「あまりユーザを見ない」は、ユーザと異なる方向へ視線を向け、周期的にユーザの方向に視線を移動させることを示す。視線を移動させる周期は、例えば、一定期間としてもよく、所定の範囲内でランダムな期間としてもよい。 The line-of-sight setting element indicates the setting of the line-of-sight direction of the eye 7. In the present embodiment, “user gaze” of the line of sight indicates that the line of sight remains in the direction of the user. “Slightly divert” the line of sight indicates that the line of sight is directed toward the user, but the line of sight is periodically moved in a direction different from the user. The line of sight “not seeing the user so much” indicates that the line of sight is directed in a direction different from the user and the line of sight is periodically moved in the direction of the user. The period for moving the line of sight may be, for example, a fixed period or a random period within a predetermined range.
瞬きの設定要素は、まぶた7Aを上下動作させる瞬きの設定を示す。本実施例では、瞬きの「ふつう」は、標準的な頻度で瞬きを行うことを示す。瞬きの「頻度多い」は、標準的な頻度よりも多い頻度で瞬きを行うことを示す。瞬きの標準的な頻度は、例えば、予め多数の人の瞬きの頻度を解析して決定してもよく、所定の頻度を標準的な瞬きの頻度と定めてもよい。
The blink setting element indicates a blink setting for moving the
動作、表情の設定要素は、ロボット1が表出する動作や表情に関する設定を示す。本実施例では、動作、表情の「笑顔」は、ロボット1の各部を動作させて笑顔であると感じられる状態にすることを示す。例えば、右耳6R、左耳6Lを最も直立した状態とし、頭2および目7をユーザの方向に向け、まぶた7A、口9を全開の状態とし、右腕4R、左腕4Lを上部へ移動させる。動作、表情の「首を傾げる」は、ロボット1の各部を動作させて首を傾げたと感じられる状態にすることを示す。例えば、口9を閉じた状態とし、右腕4R、左腕4Lを下部へ移動させ、頭2をヨー方向やピッチ方向に回転させて首を傾げた状態にする。動作、表情の「眠そう」は、ロボット1の各部を動作させて眠そうと感じられる状態にすることを示す。例えば、まぶた7Aを半分開いた状態とし、右腕4R、左腕4Lを下部へ移動させ、頭2をピッチに回転させて頭2を下方向に向けた状態にする。
The action / expression setting elements indicate settings related to the action and expression expressed by the robot 1. In the present embodiment, “smile” in action and expression indicates that each part of the robot 1 is operated to make it feel like a smile. For example, the
図5の例では、傾聴感を表出する場合、音量を「大」とし、音高を「中」とし、発話の速さを「ふつう」とし、視線を「ユーザ注視」とし、瞬きを「ふつう」とし、動作、表情を「笑顔」とすることを示す。また、図5の例では、不明感を表出する場合、音量を「小」とし、音高量を「高」とし、発話の速さを「ふつう」とし、視線を「時々そらす」とし、瞬きを「頻度多い」とし、動作、表情を「首を傾げる」とすることを示す。また、図5の例では、退屈感を表出する場合、音量を「中」とし、音高量を「低」とし、発話の速さを「ゆっくり」とし、視線を「あまりユーザを見ない」とし、瞬きを「ふつう」とし、動作、表情を「眠そう」とすることを示す。 In the example of FIG. 5, when expressing a sense of listening, the volume is set to “high”, the pitch is set to “medium”, the speaking speed is set to “normal”, the line of sight is set to “user gaze”, and the blink is set to “ “Normal” and “Smile” as the action and facial expression. In the example of FIG. 5, when an unclear feeling is expressed, the volume is set to “low”, the pitch is set to “high”, the speed of the utterance is set to “normal”, and the line of sight is changed from time to time. It indicates that blinking is “frequently” and movement and facial expression are “tilt neck”. Further, in the example of FIG. 5, when boring is expressed, the volume is set to “medium”, the pitch is set to “low”, the speaking rate is set to “slow”, and the line of sight is set to “not seeing the user very much”. ”,“ Normal ”for blinking, and“ sleepy ”for action and facial expression.
頷き動作データ11cは、応答を行う際の頷きに関する設定を示す情報である。一例として、頷き動作データ11cは、ロボット1の作成元で予め登録される。また、他の一例として、頷き動作データ11cは、頷き動作を指示するために、後述する非言語応答決定部10hによって参照される。
The whispering
図6は、実施例1に係る頷き動作データの構成の一例を示す図である。図6に示すように、頷き動作データ11cは、「設定要素」、「傾聴感」、「不明感」、「退屈感」の各項目を有する。設定要素の項目は、頷き動作に関して設定を行う要素を示す情報を格納する領域である。傾聴感の項目は、傾聴感を表出する際にそれぞれの要素での設定内容を示す情報を格納する領域である。不明感の項目は、不明感を表出する際にそれぞれの要素での設定内容を示す情報を格納する領域である。退屈感の項目は、退屈感を表出する際にそれぞれの要素での設定内容を示す情報を格納する領域である。
FIG. 6 is a diagram illustrating an example of a configuration of whispering operation data according to the first embodiment. As illustrated in FIG. 6, the whispering
設定要素の項目には、頷き動作に関する設定要素が格納される。そして、傾聴感、不明感、退屈感の各項目には、それぞれでの頷き動作内容を示す情報が格納される。一態様として、本実施例では、設定要素として「頷き深さ」、「頷き速さ」、「頷き遅れ」について設定を行う。頷き深さの設定要素は、頷く際の上下動作の振幅の大きさの設定を示す。頷き速さの設定要素は、頷く速度の設定を示す。頷き遅れの設定要素は、ユーザの発話を検出してから頷くまでの期間の設定を示す。 In the setting element field, a setting element related to the whirling operation is stored. In each item of the sense of listening, the feeling of ambiguity, and the feeling of boredom, information indicating the content of the whispering operation is stored. As an aspect, in the present embodiment, settings are made for “blowing depth”, “blowing speed”, and “blowing delay” as setting elements. The setting element for the pitching depth indicates the setting of the magnitude of the amplitude of the up and down motion when rolling. The setting element for the sowing speed indicates the setting of the soaking speed. The whispering delay setting element indicates the setting of a period from when the user's utterance is detected until he / she speaks.
ここで、人は、対話に対する状態に応じて頷き動作が変化する。例えば、人は、相手の話を傾聴している場合、相手の発話に応じて頷く。また、人は、相手の話が十分に理解できない場合、相手の発話に応じて頷くが、頷き動作の振幅が小さく、頷く速さが速くなり、頷く頻度も多くなる。また、人は、相手の話を理解できず、退屈な場合、相手の発話に応じて頷くが遅延が大きく、頷き動作の振幅がより小さくなる。そこで、本実施例では、傾聴感、不明感、退屈感毎に、後述する理解度、興味度から頷き深さ、頷き速さ、頷き遅れを導出する条件を設定している。 Here, a person's movement changes according to the state with respect to the dialogue. For example, when a person listens to the other person's story, he or she responds according to the other person's utterance. In addition, when a person cannot fully understand the other person's speech, the person speaks according to the other person's speech, but the amplitude of the whispering action is small, the speed of whispering is increased, and the frequency of whispering is increased. In addition, when a person cannot understand the other person's story and is bored, the person speaks according to the other person's utterance, but the delay is large, and the amplitude of the whispering action becomes smaller. Therefore, in this embodiment, conditions for deriving the depth, speed, and delay from the understanding level and interest level described later are set for each of the sense of listening, unknownness, and boredom.
図6の例では、表出する態度が「傾聴感」である場合、係数g×max(理解度、興味度)から頷く深さを導出し、係数i×興味度から頷く速さを導出し、頷き遅れを0.0とすることを示す。なお、max(理解度、興味度)は、()内に代入された理解度、興味度から最も大きい値を返す関数である。また、図6の例では、表出する態度が「不明感」である場合、係数h×理解度から頷く深さを導出し、頷く速さを1.0とし、係数j×(1.0−理解度)から頷き遅れを導出することを示す。また、図6の例では、表出する態度が「退屈感」である場合、頷く深さ0.1とし、頷く速さを0.5とし、係数k×(1.0−興味度)から頷き遅れを導出することを示す。なお、本実施例では、頷き深さ、頷き速さ、頷き遅れを0.0〜1.0の範囲で定めるものとしており、0.0より小さい場合、0.0とし、1.0より大きい場合、1.0とする。また、不明感よりも傾聴感での頷く深さを大きくするため、係数gは、係数hよりも大きい値とされている。不明感よりも退屈感での頷きの遅れを大きくするため、係数kは、係数jよりも大きい値とされている。 In the example of FIG. 6, when the attitude to be expressed is “listening”, the depth of craving is derived from the coefficient g × max (understanding degree, interest degree), and the speed of craving is derived from the coefficient i × interest degree. This indicates that the whirling delay is 0.0. Note that max (degree of understanding, degree of interest) is a function that returns the largest value from the degree of understanding and degree of interest assigned in (). Further, in the example of FIG. 6, when the attitude to be expressed is “Unknown”, the depth to be whispered is derived from the coefficient h × understanding degree, the whirling speed is set to 1.0, and the coefficient j × (1.0 -Demonstrate that the lag is derived from the degree of understanding. In the example of FIG. 6, when the attitude to be expressed is “feeling bored”, the crawl depth is 0.1, the crawl speed is 0.5, and the coefficient k × (1.0−interest degree) It shows that the whirling delay is derived. In this embodiment, the depth, speed, and delay are determined in the range of 0.0 to 1.0, and when smaller than 0.0, 0.0 is greater than 1.0. In this case, 1.0 is set. In addition, the coefficient g is set to a value larger than the coefficient h in order to increase the depth of the listening feeling rather than the unknown feeling. The coefficient k is set to a value larger than the coefficient j in order to increase the delay in boring with a feeling of boredom than with an unclear feeling.
定常動作頻度データ11dは、人からの発話が無い状態で定常的に態度を表出する頻度に関する設定を示す情報である。一例として、定常動作頻度データ11dは、ロボット1の作成元で予め登録される。また、他の一例として、定常動作頻度データ11dは、定常的な非言語表現の動作の動作タイミングを指示するために、後述する定常非言語動作決定部10iによって参照される。
The steady
図7は、実施例1に係る定常動作頻度データの構成の一例を示す図である。図7に示すように、頷き動作データ11cは、「設定要素」、「傾聴感」、「不明感」、「退屈感」の各項目を有する。設定要素の項目は、定常的に態度を表出する動作を示す情報を格納する領域である。傾聴感の項目は、傾聴感を表出する際にそれぞれの要素での設定内容を示す情報を格納する領域である。不明感の項目は、不明感を表出する際にそれぞれの要素での設定内容を示す情報を格納する領域である。退屈感の項目は、退屈感を表出する際にそれぞれの要素での設定内容を示す情報を格納する領域である。
FIG. 7 is a diagram illustrating an example of a configuration of steady operation frequency data according to the first embodiment. As shown in FIG. 7, the whispering
設定要素の項目には、人が傾聴感、不明感、退屈感をそれぞれ表出する際に、違いが現れる動作が格納される。そして、傾聴感、不明感、退屈感の各項目には、後述する理解度、興味度から頻度を導出する条件が設定されている。一態様として、本実施例では、設定要素として「頷き頻度」、「視線頻度」について設定を行う。頷き頻度の設定要素は、頷きを行う周期の設定を示す。視線頻度の設定要素は、ユーザに視線を合わせる周期の設定を示す。 In the setting element item, there is stored an operation in which a difference appears when a person expresses a sense of listening, unknown, or bored. Conditions for deriving the frequency from the degree of understanding and the degree of interest, which will be described later, are set for each item of the sense of listening, the feeling of ambiguity, and the feeling of boredom. As an aspect, in this embodiment, settings are made for “blink frequency” and “gaze frequency” as setting elements. The setting element of the whispering frequency indicates setting of a cycle for whispering. The line-of-sight frequency setting element indicates the setting of a cycle for aligning the line of sight with the user.
図7の例では、表出する態度が「傾聴感」である場合、理解度×係数aから頷きを行う頻度を導出し、理解度×係数dからユーザに視線を合わせる頻度を導出することを示す。また、図7の例では、表出する態度が「不明感」である場合、理解度×係数bから頷きを行う頻度を導出し、興味度×係数eからユーザに視線を合わせる頻度を導出することを示す。また、図7の例では、表出する態度が「退屈感」である場合、興味度×係数cから頷きを行う頻度を導出し、興味度×係数fからユーザに視線を合わせる頻度を導出することを示す。ここで、後述するように、本実施例では、理解度が高いと興味度が高くなり、理解度が低下すると興味度が低下するように理解度から興味度を算出しており、理解度および興味度から対話の状態が傾聴感、不明感、退屈感の何れかであるか判別している。対話状態が興味度の高い傾聴感である場合は、理解度から頷き頻度および視線頻度を導出する。また、対話状態が興味度が高く、理解度の低い不明感である場合は、理解度から頷き頻度を導出し、興味度から視線頻度を導出する。また、対話状態が興味度の低い退屈感である場合は、興味度から頷き頻度および視線頻度を導出する。なお、頷き頻度を、退屈感よりも不明感で多く、不明感よりも傾聴感でより多くするため、係数a、係数b、係数cは、係数a>係数b>係数cとなるように値を設定する。また、視線頻度を、退屈感よりも不明感で多く、不明感よりも傾聴感でより多くするため、係数d、係数e、係数fは、係数d>係数e>係数fとなるように値を設定する。 In the example of FIG. 7, when the attitude to be expressed is “listening”, the frequency of whispering is derived from the degree of understanding × the coefficient a, and the frequency of matching the line of sight with the user is derived from the degree of understanding × the coefficient d. Show. In the example of FIG. 7, when the attitude to be expressed is “Unknown”, the frequency of whispering is derived from the degree of understanding × the coefficient b, and the frequency of matching the user's line of sight is derived from the degree of interest × the coefficient e. It shows that. Further, in the example of FIG. 7, when the expressed attitude is “feeling bored”, the frequency of whispering is derived from the degree of interest × coefficient c, and the frequency of matching the line of sight with the user is derived from the degree of interest × coefficient f. It shows that. Here, as will be described later, in this embodiment, the degree of interest increases when the degree of understanding is high, and the degree of interest is calculated from the degree of understanding so that the degree of interest decreases when the degree of understanding decreases. It is determined from the degree of interest whether the state of dialogue is a sense of listening, an unknown feeling, or a bored feeling. When the conversation state is a sense of listening with a high degree of interest, the whispering frequency and the gaze frequency are derived from the degree of understanding. Also, when the conversation state has a high degree of interest and a low level of understanding, the whispering frequency is derived from the understanding level, and the line-of-sight frequency is derived from the interest level. When the conversation state is boring with a low degree of interest, the whispering frequency and the line-of-sight frequency are derived from the degree of interest. Note that the coefficient a, the coefficient b, and the coefficient c are set so that coefficient a> coefficient b> coefficient c in order to increase the whispering frequency with an unclear feeling more than a bored feeling and with a sense of listening rather than an unclear feeling. Set. Further, in order to increase the line-of-sight frequency with an unknown feeling more than bored feeling and with a sense of listening more than an unknown feeling, the coefficient d, the coefficient e, and the coefficient f are values such that the coefficient d> the coefficient e> the coefficient f. Set.
図3に戻り、制御部10は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、これらによって種々の処理を実行する。制御部10は、図3に示すように、発話解析部10aと、発話理解部10bと、非言語表現解析部10cと、評価算出部10dと、状態決定部10eとを有する。また、制御部10は、応答決定部10fと、発話応答決定部10gと、非言語応答決定部10hと、定常非言語動作決定部10iと、発話生成部10jと、非言語動作指示部10kとをさらに有する。
Returning to FIG. 3, the
なお、制御部10には、各種の集積回路や電子回路を採用できる。例えば、集積回路としては、ASIC(Application Specific Integrated Circuit)が挙げられる。また、電子回路としては、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などが挙げられる。
Note that various types of integrated circuits and electronic circuits can be employed for the
発話解析部10aは、マイク42により取得される音声データに対して音声認識を行う。音声認識の手法は、統計的手法、動的時間伸縮法、隠れマルコフモデルを用いた手法など何れの手法でもよい。発話解析部10aは、音声データに対して音声認識を行い、認識した音声をテキストデータへ変換する。
The
発話理解部10bは、発話内容に関して理解できた単語の割合の算出を行う。一態様としては、発話理解部10bは、発話解析部10aにより音声データから音声認識が行えた単語の割合を算出する。また、他の一態様としては、例えば、対話を行う話題毎、それぞれの話題の対話を行った際に会話に含まれる単語を話題別単語データとして予め記憶する。そして、発話理解部10bは、発話解析部10aにより変換されたテキストデータに、話題別単語データに記憶された現在の話題に関する単語が含まれる割合を算出する。
The
非言語表現解析部10cは、非言語表現から対話に対する関心状態について解析を行い、関心状態を示す計測値を生成する。例えば、人は、楽しそうに話をしている場合、話題に対して関心が高い。そこで、一態様としては、非言語表現解析部10cは、カメラ41から得られる画像データに対して、顔認識処理を含む画像処理を行って口角や目尻の検出を行う。そして、非言語表現解析部10cは、検出した口角や目尻の位置の変化や、口の拡がり度合いなどから人物の表情が笑顔である可能性の高さを示す笑顔度を計測値として算出する。また、人は、熱心に話しをしている場合、ジャスチャが大きくなったり、ジャスチャが速くなる。そこで、非言語表現解析部10cは、画像データに含まれる人物の手の動きを追跡することにより、人の手の動きによって示されるジェスチャの大きさや、その動きの速さなどを示す計測値を算出してもよい。人は、熱心に話しをしている場合、声が大きく、抑揚も大きくなり、発話の頻度に多くなる。そこで、他の一態様としては、非言語表現解析部10cは、マイク42で得られた音声データに対して音声解析処理を適用することにより、例えば、人の声の抑揚や声の大きさ、発話の頻度などを、非視覚的な非言語反応の強さを示す計測値として生成してもよい。なお、ロボット1には、ユーザの非言語表現を検出するセンサとして、カメラ41およびマイク42に加えて、接触を検出する接触センサを設けてもよい。そして、非言語表現解析部10cは、接触センサで検出されるユーザの接触期間や接触頻度から関心状態を示す計測値を生成してもよい。例えば、非言語表現解析部10cは、ユーザの接触期間が長く、接触頻度が多いほど計測値を高く算出する。
The non-linguistic
評価算出部10dは、発話理解部10bにより算出された理解できた単語の割合、および非言語表現解析部10cによる解析によって得られた計測値に基づき、対話対象者との対話に関する評価を算出する。一態様としては、評価算出部10dは、対話に関する評価として、発話に対する理解度を算出する。そして、評価算出部10dは、算出された理解度から対話に対する興味の度合い表す興味度を算出する。例えば、発話理解部10bにより、時刻tに入力された音声についての理解できた単語の割合をpとした場合、評価算出部10dは、時刻t−1時点の理解度U(t−1)から以下の(1)式から時刻t時点の理解度U(t)を算出する。
The
U(t)=U(t−1)×(1−α)+p×α (1)
ここで、αは、更新の為の係数である。
U (t) = U (t−1) × (1−α) + p × α (1)
Here, α is a coefficient for updating.
また、例えば、発話理解部10bにより、時刻tに検出された非言語表現iに対する計測値をqiとした場合、評価算出部10dは、時刻t−1時点の理解度U(t−1)から以下の(2)式により時刻t時点の理解度U(t)を算出する。
For example, when the measured value for the non-linguistic expression i detected at time t is set to qi by the
U(t)=U(t−1)×(1−β)+qi×β (2)
ここで、βは、更新の為の係数である。
U (t) = U (t−1) × (1−β) + qi × β (2)
Here, β is a coefficient for updating.
そして、評価算出部10dは、算出された理解度が高い状態が続いた場合に上昇し、当該理解度が低い状態が続いた場合に低下するように興味度を算出する。例えば、時刻tに算出された理解度U(t)とした場合、評価算出部10dは、時刻t−1時点の興味度I(t−1)から以下の(3)式から時刻t時点の興味度I(t)を算出する。
Then, the
I(t)=I(t−1)−(1.0−U(t))×γ+A (3)
ここで、γは、更新の為の係数であり、γ>Aとする。また、Aは、(0<A<1.0)の定数とする。
I (t) = I (t−1) − (1.0−U (t)) × γ + A (3)
Here, γ is a coefficient for updating, and γ> A. A is a constant (0 <A <1.0).
なお、本実施例では、理解度および興味度を0.0〜1.0の範囲で定めるものとしている。評価算出部10dは、算出されたU(t)やI(t)が0.0より小さい場合、0.0とし、1.0より大きい場合、1.0とする。また、対話を開始した最初状態において、理解度および興味度には、初期値として1.0を設定する。
In this embodiment, the degree of understanding and the degree of interest are set in the range of 0.0 to 1.0. The
状態決定部10eは、評価算出部10dにより算出される評価に基づいて、表出する態度を決定する。また、状態決定部10eは、評価が高い状態が続いた場合、表出する態度を対話に対して理解の高い状態へと変更する。また、状態決定部10eは、評価が低い状態が続いた場合、表出する態度を前記対話に対して理解の低い状態へと変更する。一態様としては、状態決定部10eは、興味度が所定の閾値T1よりも大きいか否かを判定する。そして、状態決定部10eは、興味度が閾値T1以下の場合、表出する態度を退屈感と決定する。また、興味度が閾値T1よりも大きい場合、状態決定部10eは、理解度が所定の閾値T2よりも大きいか否かを判定する。そして、状態決定部10eは、理解度が閾値T2よりも大きい場合、表出する態度を傾聴感と決定する。一方、状態決定部10eは、理解度が閾値T2以下の場合、表出する態度を不明感と決定する。なお、閾値T1および閾値T2は、算出される理解度および興味度が表出する態度と対応するように適切に定める。例えば、閾値T1は、0.3〜0.5の範囲内の値とする。また、閾値T2は、0.3〜0.7の範囲の値とする。なお、閾値T1、T2は、外部から調整可能としてもよい。これにより、状態決定部10eは、理解度が高い状態が続き、興味度も高い状態へと変化した場合、表出する態度を退屈感、不明感、傾聴感へ順次変更する。また、状態決定部10eは、理解度が低い状態が続き、興味度も低い状態へと変化した場合、表出する態度を傾聴感、不明感、退屈感へ順次変更する。
The
応答決定部10fは、人との対話を行う際の発話内容を決定する。一態様としては、応答決定部10fは、対話を開始した最初の発話内容について、会話データ11aに記憶された何れかの話題を選択し、選択した話題の最初に質問する質問内容を読み出し、読み出した質問内容を最初の発話内容と決定する。また、応答決定部10fは、ユーザに対して何れの話題で質問を行っており、発話理解部10bによりユーザの発話に対する解析が行われた場合、次のような処理を行う。すなわち、応答決定部10fは、会話データ11aから、現在の話題の直前の質問についての、状態決定部10eにより決定された態度に対応する次の質問内容を読み出し、読み出した質問内容を次の発話内容と決定する。
The
発話応答決定部10gは、発話の音質を決定する。一態様としては、発話応答決定部10gは、非言語動作データ11bから態度に対応する音量、声高、発話の速さの設定を読み出し、読み出した設定を発話に関する音質の設定と決定する。
The utterance response determination unit 10g determines the sound quality of the utterance. As one aspect, the utterance response determination unit 10g reads the volume, voice pitch, and utterance speed settings corresponding to the attitude from the
非言語応答決定部10hは、表出する動作内容を決定する。一態様としては、非言語応答決定部10hは、頷き動作データ11cから態度に対応する頷き深さ、頷き速さ、頷き遅れの導出条件を読み出す。そして、非言語応答決定部10hは、評価算出部10dにより算出された理解度および興味度を用いて、読み出した導出条件から頷き深さ、頷き速さ、頷き遅れを算出する。例えば、非言語応答決定部10hは、決定された態度が傾聴感である場合、係数g×max(理解度、興味度)から頷く深さを導出し、係数i×興味度から頷く速さを導出し、頷き遅れを0.0とする。また、非言語応答決定部10hは、決定された態度が不明感である場合、係数h×理解度から頷く深さを導出し、頷く速さを1.0とし、係数j×(1.0−理解度)から頷き遅れを導出する。非言語応答決定部10hは、決定された態度が退屈感である場合、頷く深さ0.1とし、頷く速さを0.5とし、係数k×(1.0−興味度)から頷き遅れを導出する。なお、非言語応答決定部10hは、算出された頷き深さ、頷き速さ、頷き遅れが0.0より小さい場合、0.0とし、1.0より大きい場合、1.0とする。
The non-language response determination unit 10h determines the operation content to be expressed. As one aspect, the non-linguistic response determination unit 10h reads out the conditions for deriving the whirling depth, whirling speed, and whispering delay corresponding to the attitude from the whispering
また、非言語応答決定部10hは、非言語動作データ11bから、決定された態度に対応する視線、瞬き、動作表情の設定を読み出し、読み出した設定を動作に関する設定と決定する。
Further, the non-language response determination unit 10h reads the setting of the line of sight, blink, and action expression corresponding to the determined attitude from the
定常非言語動作決定部10iは、人からの発話が無い状態でも対話対象者に対して頷きや仕草により定常的に表出する態度を決定する。一態様としては、定常非言語動作決定部10iは、定常動作頻度データ11dから、決定された態度に対応する頷き頻度、視線頻度の導出条件を読み出す。そして、非言語応答決定部10hは、評価算出部10dにより算出された理解度および興味度を用いて、読み出した導出条件から頷き頻度、視線頻度を算出する。例えば、非言語応答決定部10hは、決定された態度が傾聴感である場合、理解度×係数aから頷きを行う頻度を導出し、理解度×係数dからユーザに視線を合わせる頻度を導出する。また、非言語応答決定部10hは、決定された態度が不明感である場合、理解度×係数bから頷きを行う頻度を導出し、興味度×係数eからユーザに視線を合わせる頻度を導出する。また、非言語応答決定部10hは、決定された態度が退屈感である場合、興味度×係数cから頷きを行う頻度を導出し、興味度×係数fからユーザに視線を合わせる頻度を導出する。そして、定常非言語動作決定部10iは、頷きを行う頻度が高いほど短いものとして頷きを行う周期を導出する。また、定常非言語動作決定部10iは、視線を合わせる頻度が高いほど短いものとしてユーザに視線を合わせる周期を導出する。周期は、頻度から演算によって導出してもよい。例えば、周期は、値x/頻度から導出する。この値xは定数であってもよく、対話状態によって変化させてもよい。また、頻度毎に周期を定めた周期情報を記憶部11に記憶させておき、定常非言語動作決定部10iは、周期情報から頻度に応じた周期を導出してもよい。
The stationary non-verbal
また、定常非言語動作決定部10iは、頷き動作データ11cから、決定された態度に対応する頷き深さ、頷き速さ、頷き遅れの導出条件を読み出し、理解度および興味度を用いて、読み出した導出条件から頷き深さ、頷き速さ、頷き遅れを算出する。また、定常非言語動作決定部10iは、非言語動作データ11bから、決定された態度に対応する視線、瞬き、動作表情の設定を読み出し、読み出した設定を動作に関する設定と決定する。
Further, the steady non-linguistic
発話生成部10jは、発話内容に応じた音声信号を生成してスピーカ43へ出力する。一態様としては、発話生成部10jは、発話内容および発話に関する音量、声高、発話の速さが決定した場合、決定した発話内容の音声を、決定した音量、声高、発話の速さで発生させる音声信号を生成してスピーカ43へ出力する。これにより、スピーカ43は、音声信号に応じた音声を出力して発話を行う。
The
非言語動作指示部10kは、仕草など非言語動作を行わせる動作指示を生成してモータ制御部40へ出力する。一態様としては、非言語動作指示部10kは、発話内容および発話に関する音量、声高、発話の速さが決定し、発話を行う場合、非言語応答決定部10hにより算出された頷き深さ、頷き速さ、頷き遅れで頷き動作を行わせる動作指示をモータ制御部40へ出力する。また、非言語動作指示部10kは、非言語応答決定部10hにより決定された視線、瞬き、動作表情で動作を行わせる動作指示をモータ制御部40へ出力する。例えば、非言語動作指示部10kは、非言語表現解析部10cにより顔が認識された方向へ目7あるいは頭2を移動させ、決定された視線、瞬き、動作表情で動作させる動作指示をモータ制御部40へ出力する。モータ制御部40は、動作指示に従ってモータ30を制御して、ロボット1に動作指示に応じた動作を行わせる。これにより、ロボット1は、ユーザからの発話に対して非言語動作による応答を行う。
The non-language
また、非言語動作指示部10kは、前回の頷き動作、ユーザに視線を合わせた動作から定常非言語動作決定部10iで算出された頷きを行う周期、視線を合わせる周期が経過した場合、次の定常的な動作を行わせる動作指示をモータ制御部40へ出力する。例えば、非言語動作指示部10kは、定常非言語動作決定部10iにより決定された頷き深さ、頷き速さ、頷き遅れで頷き動作を行わせる動作指示をモータ制御部40へ出力する。また、非言語動作指示部10kは、定常非言語動作決定部10iにより決定された視線、瞬き、動作表情で動作を行わせる動作指示をモータ制御部40へ出力する。モータ制御部40は、動作指示に従ってモータ30を制御して、ロボット1に動作指示に応じた動作を行わせる。これにより、ロボット1は、ユーザ対して定常的に非言語動作により現在の状態を態度で表出する。
In addition, the non-language
次に、ロボット1による対話の流れを説明する。図8は、対話の流れの一例を示す図である。図8に示すように、ユーザから発話C1が行われた場合、ロボット1は、発話C1に対して、発話および非言語動作による応答C2を行う。例えば、ロボット1は、決定された状態が傾聴感である場合、頷きながら応答C2を行い、また、ユーザを注視するなどして傾聴感を表出する。 Next, the flow of dialogue by the robot 1 will be described. FIG. 8 is a diagram showing an example of the flow of dialogue. As illustrated in FIG. 8, when the utterance C1 is made by the user, the robot 1 performs a response C2 based on the utterance and the non-language operation on the utterance C1. For example, when the determined state is a sense of listening, the robot 1 makes a response C2 while whispering, and expresses the sense of listening by gazing at the user.
また、ロボット1は、定常的に非言語動作により態度C3を表出する。また、ロボット1は、ユーザの発話やユーザの態度を検出した結果、決定された状態が退屈感である場合、ユーザから視線を時々そらしたりして非言語動作で退屈感を表出する。また、ユーザから発話C4が行われ、発話C4の内容を十分に理解できない場合、ロボット1は、発話C4に対して、発話と共に首を傾げるなどして不明感を表出する応答C5を行う。 Further, the robot 1 constantly expresses the attitude C3 by non-verbal operation. Further, when the determined state is bored as a result of detecting the user's speech or the user's attitude, the robot 1 sometimes turns the line of sight away from the user and expresses boredom in a non-verbal operation. When the user utters C4 and cannot fully understand the contents of the utterance C4, the robot 1 responds to the utterance C4 by expressing a sense of ambiguity by tilting the head along with the utterance.
また、ロボット1は、ユーザの発話やユーザの態度を検出した結果、決定された状態が退屈感である場合、定常的な非言語動作で眠そうな表情などの態度C6を表出して退屈感を表出する。 In addition, when the robot 1 detects the user's utterance or the user's attitude and the determined state is boring, the robot 1 expresses an attitude C6 such as a sleepy expression with a steady non-verbal motion and feels bored. Is expressed.
このように、本実施例に係るロボット1は、対話対象者の発話に対して理解状態に応じて、定常的に非言語動作で表出する態度を変更する。このため、本実施例に係るロボット1によれば、ロボット1が表出する態度からロボット1が対話に対して理解が高い状態か理解が低い状態か対話対象者が判別できる。 As described above, the robot 1 according to the present embodiment changes the attitude that is constantly expressed in the non-language operation according to the understanding state with respect to the utterance of the conversation target person. For this reason, according to the robot 1 according to the present embodiment, it is possible to determine whether the robot 1 is in a state of high understanding or low understanding of the dialogue from the attitude of the robot 1 to express.
次に、本実施例に係るロボット1により対話を行う処理の流れについて説明する。図9は、実施例1に係る対話処理の手順を示すフローチャートである。この対話処理は、ロボット1に対して対話開始を指示する所定の操作が行われた場合に処理を起動する。例えば、対話処理は、ロボット1の電源がオンされ、所定の初期処理が終了したタイミングで処理を起動する。 Next, the flow of processing for performing a dialogue with the robot 1 according to the present embodiment will be described. FIG. 9 is a flowchart illustrating the procedure of the dialogue processing according to the first embodiment. This dialogue processing is started when a predetermined operation for instructing the robot 1 to start dialogue is performed. For example, the interactive process is started when the power of the robot 1 is turned on and a predetermined initial process is completed.
図9に示すように、評価算出部10dは、理解度および興味度を初期値として1.0が設定する(ステップS10)。評価算出部10dは、ユーザからの対話の入力が検出されたか否かを判定する(ステップS11)。例えば、評価算出部10dは、発話解析部10aによる音声認識の結果、ユーザの発話が検出された場合、音声により対話が入力されたと判定する。また、評価算出部10dは、非言語表現解析部10cによりユーザの表情や動作などが検出された場合、非言語表現により対話が入力されたと判定する。ユーザからの対話の入力が検出されていない場合(ステップS11否定)、ステップS11へ移行してユーザからの対話の入力待ちを行う。ユーザからの対話の入力が検出された場合(ステップS11肯定)、評価算出部10dは、音声認識したユーザの発話内容に含まれる理解できた単語の割合、およびユーザの非言語表現を解析して得られた計測値に基づき、理解度を更新する(ステップS12)。そして、評価算出部10dは、理解度に基づき、興味度を更新する(ステップS13)。状態決定部10eは、対話を継続するか判定する(ステップS14)。例えば、状態決定部10eは、興味度が0である場合、対話を継続できないと判定する。対話を継続できない場合(ステップS14否定)、処理を終了する。対話を継続できる場合(ステップS14肯定)、状態決定部10eは、表出する態度を決定する表出態度決定処理を行う(ステップS15)。応答決定部10fは、会話データ11aから応答する発話内容を決定する(ステップS16)。そして、発話による応答を行う応答処理を行い(ステップS17)、再度ステップS11へ移行する。
As illustrated in FIG. 9, the
次に、本実施例に係る表出態度決定処理の流れについて説明する。図10は、実施例1に係る表出態度決定処理の手順を示すフローチャートである。この表出態度決定処理は、対話処理のステップS15から呼び出されて起動する。 Next, the flow of the expression attitude determination process according to the present embodiment will be described. FIG. 10 is a flowchart illustrating the procedure of the expression attitude determination process according to the first embodiment. This expression attitude determination process is invoked and started from step S15 of the dialogue process.
図10に示すように、状態決定部10eは、興味度が所定の閾値T1よりも大きいか否かを判定する(ステップS30)。興味度が閾値T1以下の場合(ステップS30否定)、状態決定部10eは、表出する態度を退屈感と決定する(ステップS31)。一方、興味度が閾値T1よりも大きい場合(ステップS30肯定)、状態決定部10eは、理解度が所定の閾値T2よりも大きいか否かを判定する(ステップS32)。状態決定部10eは、理解度が閾値T2以下の場合(ステップS32否定)、状態決定部10eは、表出する態度を不明感と決定する(ステップS33)。一方、理解度が閾値T2よりも大きい場合(ステップS32肯定)、状態決定部10eは、表出する態度を傾聴感と決定する(ステップS34)。
As illustrated in FIG. 10, the
次に、本実施例に係る応答処理の流れについて説明する。図11は、実施例1に係る応答処理の手順を示すフローチャートである。この応答処理は、対話処理のステップS17から呼び出されて起動する。 Next, the flow of response processing according to the present embodiment will be described. FIG. 11 is a flowchart of the response process according to the first embodiment. This response process is invoked and started from step S17 of the interactive process.
図11に示すように、発話応答決定部10gおよび非言語応答決定部10hは、応答を行う際に動作パラメータを決定する(ステップS40)。例えば、発話応答決定部10gは、非言語動作データ11bから態度に対応する音量、声高、発話を決定する。また、非言語応答決定部10hは、頷き動作データ11cから頷き深さ、頷き速さ、頷き遅れを決定する。発話生成部10jは、決定した発話内容の音声を、決定した音量、声高、発話の速さで発生させる音声信号を生成してスピーカ43へ出力する(ステップS41)。非言語動作指示部10kは、決定した頷き深さ、頷き速さ、頷き遅れで頷き動作を行わせる動作指示をモータ制御部40へ出力する(ステップS42)。
As shown in FIG. 11, the speech response determination unit 10g and the non-language response determination unit 10h determine an operation parameter when performing a response (step S40). For example, the utterance response determination unit 10g determines the volume, voice pitch, and utterance corresponding to the attitude from the
次に、本実施例に係るロボット1が定常的に態度を表出する定常態度表出処理の流れについて説明する。図12は、実施例1に係る定常態度表出処理の手順を示すフローチャートである。この定常態度表出処理は、ロボット1に対して対話開始を指示する所定の操作が行われた場合に処理を起動する。例えば、定常態度表出処理は、ロボット1の電源がオンされ、所定の初期処理が終了したタイミングで処理を起動する。 Next, a flow of steady attitude expression processing in which the robot 1 according to the present embodiment constantly expresses attitude will be described. FIG. 12 is a flowchart illustrating a procedure of steady attitude expression processing according to the first embodiment. This steady-state attitude expression process is started when a predetermined operation for instructing the robot 1 to start a dialogue is performed. For example, in the steady attitude expression process, the process is started when the power of the robot 1 is turned on and a predetermined initial process is completed.
図12に示すように、定常非言語動作決定部10iは、処理終了を指示する所定操作が行われた否かを判定する(ステップS50)。処理終了を指示する所定操作が行われた場合(ステップS50肯定)、処理を終了する。一方、処理終了を指示する所定操作が行われていない場合(ステップS50否定)、定常非言語動作決定部10iは、一定期間待機を行う(ステップS51)。この一定期間は、仕草により定常的な態度を表出するために適切な期間に定められており、例えば、数百ミリ秒から数秒程度とされている。
As illustrated in FIG. 12, the steady non-language
定常非言語動作決定部10iは、定常動作頻度データ11dから態度に対応する頷きを行う周期および、視線を合わせる周期を導出する(ステップS52)。非言語動作指示部10kは、頷き動作を行うタイミングであるか否かを判定する(ステップS53)。例えば、非言語動作指示部10kは、前回の頷き動作から頷きを行う周期を経過している場合、頷き動作を行うタイミングであると判定する。頷き動作を行うタイミングでない場合(ステップS53否定)、後述するステップS56へ移行する。一方、頷き動作を行うタイミングである場合(ステップS53肯定)、定常非言語動作決定部10iは、頷き動作の動作パラメータを決定する(ステップS54)。例えば、定常非言語動作決定部10iは、頷き動作データ11cから態度に対応する頷き深さ、頷き速さを決定する。非言語動作指示部10kは、決定された頷き深さ、頷き速さで頷き動作を行わせる動作指示をモータ制御部40へ出力する(ステップS55)。
The steady non-language
次に、非言語動作指示部10kは、ユーザに視線を合わせる動作を行うタイミングであるか否かを判定する(ステップS56)。例えば、非言語動作指示部10kは、前回の視線を合わせる動作から視線を合わせる周期を経過している場合、視線を合わせる動作を行うタイミングであると判定する。視線を合わせる動作を行うタイミングでない場合(ステップS56否定)、後述するステップS58へ移行する。一方、視線を合わせる動作を行うタイミングである場合(ステップS56肯定)、非言語動作指示部10kは、ユーザの方向へ目7あるいは頭2を移動させる動作指示をモータ制御部40へ出力する(ステップS57)。
Next, the non-language
次に、非言語動作指示部10kは、仕草などの振舞いを行うタイミングであるか否かを判定する(ステップS58)。例えば、非言語動作指示部10kは、状態決定部10eにより決定される態度が変わったタイミングを振舞いを行うタイミングであると判定する。また、非言語動作指示部10kは、前回仕草を表出してから、所定の期間を経過している場合、振舞いを行うタイミングであると判定する。この所定の期間は、一定の期間としてもよく、所定の範囲内でランダムな期間としてもよい。振舞いを行うタイミングでない場合(ステップS58否定)、ステップS50へ移行する。一方、振舞いを行うタイミングである場合(ステップS58肯定)、非言語動作指示部10kは、仕草などに関する動作パラメータを決定する(ステップS59)。例えば、定常非言語動作決定部10iは、仕草として表情などの表出を行う場合、頷き動作データ11cから動作、表情を決定する。非言語動作指示部10kは、決定された動作、表情の動作を行わせる動作指示をモータ制御部40へ出力し(ステップS60)、ステップS50へ移行する。
Next, the non-language
上述してきたように、本実施例に係るロボット1は、対話対象者の発話および動作の少なくとも一方を検出し、検出された発話および動作の少なくとも一方に基づいて、対話対象者との対話に関する評価を算出する。また、本実施例に係るロボット1は、対話対象者に対して仕草により定常的に態度を表出する。そして、本実施例に係るロボット1は、算出された評価が高い状態が続いた場合、表出される態度を対話に対して理解の高い状態へと変更する。また、本実施例に係るロボット1は、算出された評価が低い状態が続いた場合、表出される態度を前記対話に対して理解の低い状態へと変更する。これにより、本実施例に係るロボット1によれば、ロボット1が表出する態度からロボット1が対話に対して理解が高い状態か理解が低い状態か対話対象者が判別できる。これにより、本実施例に係るロボット1によれば、ロボット1が対話に対して理解の低い状態となり発話が不自然な内容となっても、対話対象者が予めロボット1の対話に対する理解が低い状態であると判別できるため、人との対話が不自然になることを抑制できる。 As described above, the robot 1 according to the present embodiment detects at least one of the utterance and action of the conversation target person, and evaluates the conversation with the conversation target person based on at least one of the detected utterance and action. Is calculated. Further, the robot 1 according to the present embodiment constantly expresses an attitude to the conversation target person by gesture. And the robot 1 which concerns on a present Example will change the attitude | position expressed to a state with high understanding with respect to a dialog, when the state where the calculated evaluation is high continues. In addition, when the calculated evaluation continues to be in a low state, the robot 1 according to the present embodiment changes the expressed attitude to a state with a low understanding with respect to the dialogue. Thereby, according to the robot 1 according to the present embodiment, it is possible to determine the conversation target person from the attitude that the robot 1 expresses, whether the robot 1 is in a high understanding state or low understanding state. Thereby, according to the robot 1 according to the present embodiment, even if the robot 1 is in a state of low understanding with respect to the dialogue and the utterance becomes unnatural, the conversation target person has a low understanding of the dialogue of the robot 1 in advance. Since it can be determined that the state is a state, it is possible to suppress an unnatural conversation with a person.
また、本実施例に係るロボット1は、評価として、発話に対する理解度、および当該理解度が高い状態が続いた場合に上昇し、当該理解度が低い状態が続いた場合に低下する興味度を算出する。そして、本実施例に係るロボット1は、理解度および前記興味度に基づいて表出される態度を変更する。これにより、本実施例に係るロボット1によれば、単純にユーザからの一つの発話に対する理解度のみでなく、興味度も用いて態度を変更するため、ユーザとの対話毎に態度が頻繁に変わることを抑制できる。 In addition, the robot 1 according to the present embodiment, as an evaluation, increases the degree of understanding of the utterance and the degree of interest that decreases when the state of high understanding continues and decreases when the state of low understanding continues. calculate. And the robot 1 which concerns on a present Example changes the attitude | position expressed based on an understanding degree and the said interest degree. Thereby, according to the robot 1 according to the present embodiment, the attitude is changed using not only the degree of understanding of one utterance from the user but also the degree of interest, so the attitude frequently occurs for each dialogue with the user. The change can be suppressed.
また、本実施例に係るロボット1は、対話に対する傾聴感、不明感、退屈感を仕草により表出可能とし、評価が低い状態が続いた場合、表出される態度が傾聴感、不明感、退屈感がある態度へ順次変更する。これにより、本実施例に係るロボット1によれば、理解が低い状態が続いた場合に、対話が理解できないことがより表出される態度に段階的に移行するため、対話の違和感を抑制できる。 In addition, the robot 1 according to the present embodiment can express a sense of listening, unknown, and bored with respect to dialogue by gestures, and when the evaluation continues to be low, the attitude expressed is a sense of listening, unknown, bored Sequentially change the attitude. Thereby, according to the robot 1 which concerns on a present Example, when the state where an understanding is low continues, since it shifts in steps to the attitude | position which expresses more that a dialogue cannot be understood, the uncomfortable feeling of a dialogue can be suppressed.
また、本実施例に係るロボット1は、頷きの深さ、頷きの早さ、頷きのタイミング、頷きの頻度、前記対話対象者に対して視線を合わせるタイミング、視線を合わせる時間、視線を合わせる頻度、表情の何れかにより定常的に態度を表出する。これにより、本実施例に係るロボット1によれば、ユーザがロボット1の状態を判別しやすい。 In addition, the robot 1 according to the present embodiment has a depth of whispering, a speed of whispering, a timing of whispering, a frequency of whispering, a timing for aligning the line of sight with respect to the conversation target, a time for aligning the line of sight, and a frequency of aligning the line of sight The attitude is constantly expressed by any of the facial expressions. Thereby, according to the robot 1 according to the present embodiment, the user can easily determine the state of the robot 1.
さて、これまで開示の装置に関する実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では、本発明に含まれる他の実施例を説明する。 Although the embodiments related to the disclosed apparatus have been described above, the present invention may be implemented in various different forms other than the above-described embodiments. Therefore, another embodiment included in the present invention will be described below.
例えば、上記の実施例では、表出する態度を傾聴感、不明感、退屈感の3段階とした場合について説明したが、開示の装置はこれに限定されない。例えば、表出する態度を2段階あるいは4段階以上としてもよい。また、表出する態度に段階を設けず、除々に変化させるようにしてもよい。 For example, in the above-described embodiments, the case where the attitude to be expressed is the three stages of the sense of listening, the unknown, and the bored feeling has been described, but the disclosed apparatus is not limited to this. For example, the attitude to be expressed may be two or four or more. In addition, the attitude of the expression may be gradually changed without providing a stage.
また、上記の実施例では、対話に関する評価として、理解度および興味度を算出する場合について説明したが、開示の装置はこれに限定されない。対話に関する評価を示す値であれば、何れの値を用いてもよい。例えば、理解できた単語の割合や、非言語表現解析部10cによる解析によって得られた計測値を評価として用いてもよい。
In the above-described embodiments, the case where the degree of understanding and the degree of interest are calculated as the evaluation regarding the dialogue has been described. However, the disclosed apparatus is not limited thereto. Any value may be used as long as it is a value indicating the evaluation regarding the dialogue. For example, the ratio of words that can be understood or the measurement value obtained by the analysis by the non-linguistic
また、上記の実施例では、ロボット1により対話装置を実現した場合について説明したが、これに限定されない。例えば、パーソナルコンピュータ(PC:Personal Computer)を始めとする固定端末や、携帯電話機、PHS(Personal Handyphone System)やPDA(Personal Digital Assistant)などの移動体端末により対話装置を実現してもよい。例えば、固定端末や移動体端末により対話装置を実現する場合、ディスプレイなどの表示に顔の画像を表示し、顔の画像を変化させて態度を表出すればよい。 In the above-described embodiment, the case where the interactive device is realized by the robot 1 has been described. However, the present invention is not limited to this. For example, the interactive device may be realized by a fixed terminal such as a personal computer (PC), a mobile terminal such as a mobile phone, a PHS (Personal Handyphone System), or a PDA (Personal Digital Assistant). For example, when an interactive device is realized by a fixed terminal or a mobile terminal, a face image may be displayed on a display or the like, and the attitude may be expressed by changing the face image.
[分散および統合]
また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、制御部10の各処理部が適宜統合されてもよい。また、各処理部の処理が適宜複数の処理部の処理に分離されてもよい。さらに、各処理部にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[Distribution and integration]
In addition, each component of each illustrated apparatus does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. For example, the processing units of the
[対話プログラム]
また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図13を用いて、上記の実施例と同様の機能を有する対話プログラムを実行し、ディスプレイに顔画像を表示してユーザと対話を行うコンピュータの一例について説明する。
[Dialogue program]
The various processes described in the above embodiments can be realized by executing a prepared program on a computer such as a personal computer or a workstation. Therefore, in the following, an example of a computer that executes a dialogue program having the same function as in the above-described embodiment, displays a face image on the display, and interacts with the user will be described with reference to FIG.
図13は、対話処理プログラムを実行するコンピュータの一例について説明するための図である。図13に示すように、コンピュータ100は、操作部110aと、スピーカ110bと、カメラ110cと、マイク110d、ディスプレイ120と、通信部130とを有する。さらに、このコンピュータ100は、CPU150と、ROM160と、HDD170と、RAM180と有する。これら110〜180の各部はバス140を介して接続される。
FIG. 13 is a diagram for describing an example of a computer that executes a dialogue processing program. As illustrated in FIG. 13, the
HDD170には、制御部10の各処理部と同様の機能を発揮する対話プログラム170aが予め記憶される。この対話プログラム170aについては、実施例1で示した各構成要素と同様、適宜統合又は分離しても良い。すなわち、HDD170に格納される各データは、常に全てのデータがHDD170に格納される必要はなく、処理に必要なデータのみがHDD170に格納されれば良い。
The
そして、CPU150が、対話プログラム170aをHDD170から読み出してRAM180に展開する。これによって、図13に示すように、対話プログラム170aは、対話プロセス180aとして機能する。この対話プロセス180aは、HDD170から読み出した各種データを適宜RAM180上の自身に割り当てられた領域に展開し、この展開した各種データに基づいて各種処理を実行する。なお、対話プロセス180aは、制御部10の各処理部にて実行される処理、例えば図9〜12に示す処理を含む。また、CPU150上で仮想的に実現される各処理部は、常に全ての処理部がCPU150上で動作する必要はなく、処理に必要な処理部のみが仮想的に実現されれば良い。
Then, the
なお、上記の対話プログラム170aについては、必ずしも最初からHDD170やROM160に記憶させておく必要はない。例えば、コンピュータ100に挿入されるフレキシブルディスク、いわゆるFD、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させる。そして、コンピュータ100がこれらの可搬用の物理媒体から各プログラムを取得して実行するようにしてもよい。また、公衆回線、インターネット、LAN、WANなどを介してコンピュータ100に接続される他のコンピュータまたはサーバ装置などに各プログラムを記憶させておき、コンピュータ100がこれらから各プログラムを取得して実行するようにしてもよい。
Note that the
1 ロボット
2 頭
4R 右腕
4L 左腕
5R 右脚
5L 左脚
6R 右耳
6L 左耳
7 目
7A まぶた
9 口
10 制御部
10d 評価算出部
10e 状態決定部
41 カメラ
42 マイク
43 スピーカ
DESCRIPTION OF SYMBOLS 1
Claims (5)
前記検出部により検出された発話に基づいて、前記対話対象者との対話に関する評価を算出する算出部と、
頷き頻度、対話対象者に対して視線を合わせる頻度の一方または両方により定常的に態度を表出する表出部と、
前記算出部により算出された評価が低い状態が続いた場合、頷き頻度、対話対象者に対して視線を合わせる頻度の一方または両方を少なく変更し、評価が高い状態が続いた場合、頷き頻度、対話対象者に対して視線を合わせる頻度の一方または両方を多く変更する変更部と、
を有する対話装置。 A detection unit for detecting the utterances of the conversation target person,
Based on the utterance detected by the detection unit, a calculation unit that calculates an evaluation regarding the dialogue with the dialogue target person;
An expression unit that constantly expresses an attitude according to one or both of the frequency of whispering and the frequency of aligning the line of sight with the subject of dialogue;
If the evaluation calculated by the calculation unit continues to be in a low state, change one or both of the contact frequency and the frequency of matching the line of sight with the person to be talked, and if the evaluation continues to be high, the contact frequency, A change unit that changes one or both of the frequency of matching the line of sight with respect to the conversation target person,
An interactive device having
前記変更部は、前記興味度に基づいて前記表出部により表出される態度を変更する
ことを特徴とする請求項1に記載の対話装置。 The calculation unit calculates the degree of understanding for the utterance, as the evaluation, rises when the comprehension that has continued high, calculating the interest degree to be reduced when the comprehension that has continued low state ,
The interactive device according to claim 1, wherein the changing unit changes an attitude expressed by the expressing unit based on the degree of interest.
ことを特徴とする請求項2に記載の対話装置。 Prior Symbol changing unit, when the degree of interest is equal to or less than a predetermined first threshold value, modify nod frequency, the first state less one or both of the frequency of eye contact to the conversation subject, the degree of interest Is greater than the first threshold and the comprehension level is less than or equal to a predetermined second threshold, one or both of the whispering frequency and the frequency of aligning the line of sight with respect to the person to be dialogued are greater than in the first state. If the degree of interest is greater than the first threshold and the degree of understanding is greater than the second threshold, the frequency of whispering and the frequency of aligning the line of sight with the conversation target person The interactive apparatus according to claim 2, wherein one or both of the two are changed to a third state that is greater than the second state.
対話対象者の発話を検出する検出部により検出された発話に基づいて、前記対話対象者との対話に関する評価を算出し、
算出された評価が低い状態が続いた場合、頷き頻度、対話対象者に対して視線を合わせる頻度の一方または両方により定常的に態度を表出する表出部により表出される頷き頻度、対話対象者に対して視線を合わせる頻度の一方または両方を少なく変更し、評価が高い状態が続いた場合、前記表出部により表出される頷き頻度、対話対象者に対して視線を合わせる頻度の一方または両方を多く変更する
処理を実行させることを特徴とする対話プログラム。 On the computer,
Based on the utterance detected by the detection unit for detecting the utterance of the conversation target person, an evaluation regarding the dialog with the conversation target person is calculated,
If the calculated evaluation continues to be low, the frequency of whispering expressed by the expression unit that constantly expresses the attitude according to one or both of the whispering frequency and the frequency of aligning the line of sight with the subject of conversation, subject of dialogue If one or both of the frequency of matching the line of sight to the person is changed to a low level and the evaluation continues to be high, the frequency of whispering expressed by the display unit, the frequency of matching the line of sight to the conversation target person or An interactive program characterized by executing a process that changes both.
対話対象者の発話を検出する検出部により検出された発話に基づいて、前記対話対象者との対話に関する評価を算出し、
算出された評価が低い状態が続いた場合、頷き頻度、対話対象者に対して視線を合わせる頻度の一方または両方により定常的に態度を表出する表出部により表出される頷き頻度、対話対象者に対して視線を合わせる頻度の一方または両方を少なく変更し、評価が高い状態が続いた場合、前記表出部により表出される頷き頻度、対話対象者に対して視線を合わせる頻度の一方または両方を多く変更する
処理を実行することを特徴とする対話方法。 Computer
Based on the utterance detected by the detection unit for detecting the utterance of the conversation target person, an evaluation regarding the dialog with the conversation target person is calculated,
If the calculated evaluation continues to be low, the frequency of whispering expressed by the expression unit that constantly expresses the attitude according to one or both of the whispering frequency and the frequency of aligning the line of sight with the subject of conversation, subject of dialogue If one or both of the frequency of matching the line of sight to the person is changed to a low level and the evaluation continues to be high, the frequency of whispering expressed by the display unit, the frequency of matching the line of sight to the conversation target person or An interactive method characterized by executing a process that changes both.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012019130A JP5982840B2 (en) | 2012-01-31 | 2012-01-31 | Dialogue device, dialogue program, and dialogue method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012019130A JP5982840B2 (en) | 2012-01-31 | 2012-01-31 | Dialogue device, dialogue program, and dialogue method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013154458A JP2013154458A (en) | 2013-08-15 |
JP5982840B2 true JP5982840B2 (en) | 2016-08-31 |
Family
ID=49050157
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012019130A Expired - Fee Related JP5982840B2 (en) | 2012-01-31 | 2012-01-31 | Dialogue device, dialogue program, and dialogue method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5982840B2 (en) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015150620A (en) * | 2014-02-10 | 2015-08-24 | 日本電信電話株式会社 | robot control system and robot control program |
EP2933067B1 (en) * | 2014-04-17 | 2019-09-18 | Softbank Robotics Europe | Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method |
JP6519199B2 (en) * | 2015-01-27 | 2019-05-29 | カシオ計算機株式会社 | Robot and robot system |
JPWO2017145929A1 (en) * | 2016-02-25 | 2018-10-25 | シャープ株式会社 | Attitude control device, robot, and attitude control method |
JP6544333B2 (en) | 2016-10-13 | 2019-07-17 | トヨタ自動車株式会社 | Communication device |
CN106737764A (en) * | 2017-03-24 | 2017-05-31 | 浙江格瑶电子科技有限公司 | A kind of lion dance robot chimera |
JP6891601B2 (en) * | 2017-03-31 | 2021-06-18 | 富士通株式会社 | Robot control programs, robot devices, and robot control methods |
JP6768597B2 (en) | 2017-06-08 | 2020-10-14 | 株式会社日立製作所 | Dialogue system, control method of dialogue system, and device |
JP6974073B2 (en) | 2017-08-29 | 2021-12-01 | 京セラ株式会社 | Electronics, charging stands, communication systems, methods, and programs |
JP2019072787A (en) * | 2017-10-13 | 2019-05-16 | シャープ株式会社 | Control device, robot, control method and control program |
JP2019101492A (en) * | 2017-11-28 | 2019-06-24 | トヨタ自動車株式会社 | Communication apparatus |
KR102128812B1 (en) * | 2017-12-11 | 2020-07-02 | 한국전자통신연구원 | Method for evaluating social intelligence of robot and apparatus for the same |
JP7331349B2 (en) * | 2018-02-13 | 2023-08-23 | カシオ計算機株式会社 | Conversation output system, server, conversation output method and program |
CN111886565B (en) | 2018-03-22 | 2024-06-14 | 国立研究开发法人科学技术振兴机构 | Processing device, processing method, data processing device, data processing system, data processing method, and program |
JP7317403B2 (en) * | 2018-03-22 | 2023-07-31 | 国立研究開発法人科学技術振興機構 | Processing device, processing method, and program |
JP6712303B2 (en) * | 2018-10-15 | 2020-06-17 | 日本電信電話株式会社 | Conversation support system, conversation support device, and conversation support program |
JP7120060B2 (en) * | 2019-02-06 | 2022-08-17 | トヨタ自動車株式会社 | VOICE DIALOGUE DEVICE, CONTROL DEVICE AND CONTROL PROGRAM FOR VOICE DIALOGUE DEVICE |
JP6717477B1 (en) * | 2019-09-13 | 2020-07-01 | 株式会社スワローインキュベート | Image processing method, image processing apparatus, and image processing program |
JP6757949B1 (en) * | 2020-05-28 | 2020-09-23 | 株式会社スワローインキュベート | Image processing method, image processing device, and image processing program |
CN112559715B (en) * | 2020-12-24 | 2023-09-22 | 北京百度网讯科技有限公司 | Attitude identification method, device, equipment and storage medium |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002137182A (en) * | 2000-10-31 | 2002-05-14 | Yamaha Motor Co Ltd | Operation content deciding device |
JP4247149B2 (en) * | 2004-03-30 | 2009-04-02 | 株式会社国際電気通信基礎技術研究所 | robot |
JP5429462B2 (en) * | 2009-06-19 | 2014-02-26 | 株式会社国際電気通信基礎技術研究所 | Communication robot |
JP5411789B2 (en) * | 2010-04-19 | 2014-02-12 | 本田技研工業株式会社 | Communication robot |
FR2963132A1 (en) * | 2010-07-23 | 2012-01-27 | Aldebaran Robotics | HUMANOID ROBOT HAVING A NATURAL DIALOGUE INTERFACE, METHOD OF USING AND PROGRAMMING THE SAME |
-
2012
- 2012-01-31 JP JP2012019130A patent/JP5982840B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013154458A (en) | 2013-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5982840B2 (en) | Dialogue device, dialogue program, and dialogue method | |
US11151997B2 (en) | Dialog system, dialog method, dialog apparatus and program | |
US11222632B2 (en) | System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs | |
CN108886532B (en) | Apparatus and method for operating personal agent | |
US10702991B2 (en) | Apparatus, robot, method and recording medium having program recorded thereon | |
US11504856B2 (en) | System and method for selective animatronic peripheral response for human machine dialogue | |
US20190206407A1 (en) | System and method for personalizing dialogue based on user's appearances | |
US20210205987A1 (en) | System and method for dynamic robot configuration for enhanced digital experiences | |
JP7517390B2 (en) | COMMUNICATION SUPPORT PROGRAM, COMMUNICATION SUPPORT METHOD, COMMUNICATION SUPPORT SYSTEM, TERMINAL DEVICE, AND NON-VERBAL EXPRESSION PROGRAM | |
CN110774285A (en) | Humanoid robot and method for executing dialogue between humanoid robot and user | |
US20190202061A1 (en) | System and method for detecting physical proximity between devices | |
US11331807B2 (en) | System and method for dynamic program configuration | |
JP6992957B2 (en) | Agent dialogue system | |
WO2019160612A1 (en) | System and method for dynamic robot profile configurations based on user interactions | |
JP2018062042A (en) | Communication device | |
JP2017047494A (en) | Android robot control system, device, program and method | |
US20240220016A1 (en) | System and method for using gestures and expressions for controlling speech applications | |
WO2024054714A1 (en) | Avatar representation and audio generation | |
JP7435641B2 (en) | Control device, robot, control method and program | |
JP2020049596A (en) | Communication robot, control method, and control program | |
JP2021114004A (en) | Information processing device and information processing method | |
JP7432960B2 (en) | Dialogue systems and programs | |
US20240078732A1 (en) | Avatar facial expressions based on semantical context |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141007 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150820 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150901 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151102 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160520 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160718 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5982840 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |