JP7399740B2 - Communication robot, control program and control method - Google Patents
Communication robot, control program and control method Download PDFInfo
- Publication number
- JP7399740B2 JP7399740B2 JP2020027041A JP2020027041A JP7399740B2 JP 7399740 B2 JP7399740 B2 JP 7399740B2 JP 2020027041 A JP2020027041 A JP 2020027041A JP 2020027041 A JP2020027041 A JP 2020027041A JP 7399740 B2 JP7399740 B2 JP 7399740B2
- Authority
- JP
- Japan
- Prior art keywords
- expression
- robot
- event
- motion
- hand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004891 communication Methods 0.000 title claims description 42
- 238000000034 method Methods 0.000 title claims description 17
- 230000033001 locomotion Effects 0.000 claims description 147
- 230000008451 emotion Effects 0.000 claims description 107
- 238000004364 calculation method Methods 0.000 claims description 59
- 230000014509 gene expression Effects 0.000 claims description 56
- 230000009471 action Effects 0.000 claims description 37
- 238000001514 detection method Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 16
- 210000003128 head Anatomy 0.000 description 14
- 210000001364 upper extremity Anatomy 0.000 description 10
- 238000002474 experimental method Methods 0.000 description 9
- 210000001508 eye Anatomy 0.000 description 8
- 210000000707 wrist Anatomy 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 210000002832 shoulder Anatomy 0.000 description 7
- 230000000638 stimulation Effects 0.000 description 7
- 238000013500 data storage Methods 0.000 description 6
- 230000006399 behavior Effects 0.000 description 5
- 241000282412 Homo Species 0.000 description 4
- 210000000744 eyelid Anatomy 0.000 description 4
- 210000004247 hand Anatomy 0.000 description 4
- 208000003443 Unconsciousness Diseases 0.000 description 3
- 238000005452 bending Methods 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 210000003141 lower extremity Anatomy 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 210000001061 forehead Anatomy 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 210000000617 arm Anatomy 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000009982 effect on human Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 230000002650 habitual effect Effects 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 210000001624 hip Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000015541 sensory perception of touch Effects 0.000 description 1
- 229920002050 silicone resin Polymers 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Landscapes
- Toys (AREA)
- Manipulator (AREA)
Description
特許法第30条第2項適用 2019年10月11日掲載 https://ieeexplore.ieee.org/document/8865356 〔刊行物等〕 Humanoids2019 2019年10月15日~17日開催 〔刊行物等〕 第37回日本ロボット学会学術講演会(RSJ2019) 2019年9月3日~7日開催Application of
この発明はコミュニケーションロボット、制御プログラムおよび制御方法に関し、特にたとえば、人に触れる接触動作を含むコミュニケーション行動を取る、コミュニケーションロボット、制御プログラムおよび制御方法に関する。 The present invention relates to a communication robot, a control program, and a control method, and particularly relates to a communication robot, a control program, and a control method that take communication actions including contact motions that touch people.
本件発明者等は、非特許文献1に記載されるように、ロボットの抱擁中の音声刺激と視覚刺激が、人の知覚印象とストレス緩衝効果をどのように変化させるかについての実験を行い、この実験結果によって、人とロボットとの抱擁の相互作用によりストレス軽減効効果を人にもたらすことが分かった。
As described in Non-Patent
背景技術では、ロボットが人に触れることによる触覚刺激でロボット自身の印象を変化させること、および、触覚刺激によってストレス軽減効効果を人にもたらすことが期待できることがわかったが、触覚刺激を通じてロボットがどのように感情を自然に表出するかについては考慮されていなかった。 In the background technology, it was found that the impression of the robot itself can be changed by tactile stimulation when the robot touches a person, and that tactile stimulation can be expected to have a stress-reducing effect on people. No consideration was given to how to express emotions naturally.
それゆえに、この発明の主たる目的は、新規な、コミュニケーションロボット、制御プログラムおよび制御方法を提供することである。 Therefore, the main object of the present invention is to provide a novel communication robot, control program, and control method.
この発明の他の目的は、コミュニケーション対象者に対して、接触動作を通じてロボットが感情を自然に表出することができる、コミュニケーションロボット、制御プログラムおよび制御方法を提供することである。 Another object of the present invention is to provide a communication robot, a control program, and a control method that allow the robot to naturally express emotions to a person to be communicated with through contact movements.
第1の発明は、少なくとも頭部、胴体部、腕部および手部を含み、近くに存在する人に手部によって触れる接触動作を行う人型のコミュニケーションロボットであって、コミュニケーションロボットが表出可能な複数の感情に含まれる所定の感情を表出するイベントが発生する発生タイミングを取得する第1取得手段、イベントにおいて表出する表出用の感情を取得する第2取得手段、複数の感情のそれぞれに対応して予め設定される、接触動作の開始タイミングを算出するための複数の算出条件の中から、第2取得手段で取得された表出用の感情に対応する表出用の算出条件を設定する第1設定手段、第1取得手段で取得された発生タイミングを基準として、第1設定手段で設定された表出用の算出条件に応じて、開始タイミングを算出する算出手段、および算出手段で算出された開始タイミングに到達したときに、手部を変位させて、接触動作を行う動作制御手段を備える。 A first invention is a humanoid communication robot that includes at least a head, a torso, an arm, and a hand, and that performs a contact action of touching a nearby person with the hand, the communication robot being able to express itself. a first acquisition means for acquiring an occurrence timing at which an event expressing a predetermined emotion included in a plurality of emotions occurs; a second acquisition means for acquiring an emotion for expression expressed in the event; A calculation condition for expression corresponding to the emotion for expression acquired by the second acquisition means from among a plurality of calculation conditions for calculating the start timing of the contact motion, which are set in advance corresponding to each of them. a first setting means for setting a start timing, a calculation means for calculating a start timing according to a calculation condition for expression set by the first setting means, based on the occurrence timing acquired by the first acquisition means; A motion control means is provided for displacing the hand and performing a contact operation when the start timing calculated by the means is reached.
第1の発明では、ロボット(12)は、少なくとも頭部(24)、胴体部(20)、腕部(30)および手部(38)を含み、近くに存在する人に手部によって触れる接触動作を行う。第1取得手段(50、302d、S3)は、コミュニケーションロボットが表出可能な複数の感情に含まれる所定の感情を表出するイベントが発生する発生タイミングを取得する。第2取得手段(50、302d、S3)は、イベントにおいて表出する表出用の感情を取得する。第1設定手段(50、302e、S7)は、複数の感情のそれぞれに対応して、人が感情を表出する際の動きを測定する実験結果に基づいて予め設定される、接触動作の開始タイミングを算出するための複数の算出条件の中から、第2取得手段で取得された表出用の感情に対応する表出用の算出条件を設定する。算出手段(50、302f、S9)は、第1取得手段で取得された発生タイミングを基準として、第1設定手段で設定された表出用の算出条件を用いて、開始タイミングを算出する。動作制御手段(50、302c、S13)は、算出手段で算出された開始タイミングに到達したときに、手部を変位させて、接触動作を行う。 In the first invention, the robot (12) includes at least a head (24), a body part (20), an arm part (30), and a hand part (38), and the robot (12) makes contact with a nearby person by the hand part. perform an action. The first acquisition means (50, 302d, S3) acquires the timing of occurrence of an event in which the communication robot expresses a predetermined emotion included in a plurality of emotions that can be expressed. The second acquisition means (50, 302d, S3) acquires emotions to be expressed at the event. The first setting means (50, 302e, S7) starts a contact motion, which is preset based on experimental results of measuring movements when a person expresses an emotion, corresponding to each of a plurality of emotions. A calculation condition for expression corresponding to the emotion for expression acquired by the second acquisition means is set from among the plurality of calculation conditions for calculating the timing. The calculation means (50, 302f, S9) calculates the start timing using the expression calculation conditions set by the first setting means, using the occurrence timing acquired by the first acquisition means as a reference. The motion control means (50, 302c, S13) displaces the hand and performs the contact motion when the start timing calculated by the calculation means is reached.
第1の発明では、複数の感情のそれぞれに対応して、人が感情を表出する際の動きを測定する実験結果に基づいて予め設定される複数の算出条件を用意しておき、所定の感情を表出するイベントが発生する際に、表出用の感情に対応する表出用の算出条件を用いて、接触動作の開始タイミングを算出し、算出された開始タイミングに到達したときに、接触動作を行う。このため、接触動作を通じてロボットが感情を自然に表出することができる。 In the first invention, a plurality of calculation conditions are prepared in advance based on experimental results of measuring movements when a person expresses an emotion, corresponding to each of a plurality of emotions, and a predetermined When an event that expresses an emotion occurs, the start timing of the contact action is calculated using the expression calculation conditions corresponding to the expression emotion, and when the calculated start timing is reached, Perform a contact action. Therefore, the robot can naturally express emotions through contact movements.
第2の発明は、第1の発明に従属し、複数の算出条件のそれぞれは、複数の感情のそれぞれに応じて、人が感情を表出する際の動きを測定する実験結果に基づいて予め設定される平均および分散を含み、算出手段は、表出用の算出条件に含まれる平均および分散をパラメータとする確率密度関数に従う乱数に応じて開始タイミングを算出する、コミュニケーションロボットである。 A second invention is dependent on the first invention, and each of the plurality of calculation conditions is determined in advance based on the results of an experiment in which movements when a person expresses an emotion are measured according to each of a plurality of emotions. The calculation means is a communication robot that calculates the start timing according to a random number according to a probability density function including the average and variance included in the expression calculation conditions as parameters.
第2の発明によれば、人が感情を表出する際の動きを測定する実験結果に基づいて予め設定される平均および分散をパラメータとする確率密度関数に従う乱数に応じて開始タイミングが算出されるので、接触動作を通じてロボットが感情をより自然に表出することができる。 According to the second invention, the start timing is calculated according to a random number according to a probability density function with parameters of an average and variance that are preset based on experimental results of measuring movements when a person expresses emotions. This allows the robot to express emotions more naturally through touch movements.
第3の発明は、第1または第2の発明に従属し、コミュニケーションロボットは、視覚的および/または聴覚的に認識可能なコンテンツを近くに存在する人と並んで視聴する際に接触動作を行い、イベントは、コンテンツのクライマックスを含む、コミュニケーションロボットである。 A third invention is dependent on the first or second invention, in which a communication robot performs a contact action when viewing visually and/or audibly recognizable content alongside a nearby person. , an event is a communication robot that includes the climax of the content.
第3の発明によれば、接触動作を通じてロボットが感情を自然に表出することができる。 According to the third invention, the robot can naturally express emotions through contact motion.
第4の発明は、第1から第3までのいずれかの発明に従属し、接触動作は、複数の感情のそれぞれに対応して、人が感情を表出する際の動きを測定する実験結果に基づいた複数の動作パターンを含み、複数の動作パターンの中から、第2取得手段で取得された表出用の感情に対応する表出用の動作パターンを設定する第2設定手段をさらに備え、動作制御手段は、開始タイミングに到達したときに、表出用の動作パターンに従って接触動作を行う、コミュニケーションロボットである。 A fourth invention is dependent on any one of the first to third inventions, and the contact movement is an experimental result of measuring movements when a person expresses an emotion in response to each of a plurality of emotions. further comprising a second setting means for setting a motion pattern for expression corresponding to the emotion for expression acquired by the second acquisition means from among the plurality of motion patterns based on the second acquisition means. , the motion control means is a communication robot that performs a contact motion according to a motion pattern for expression when the start timing is reached.
第4の発明によれば、人が感情を表出する際の動きを測定する実験結果に基づいた複数の動作パターンを用意しておき、表出用の感情に対応する表出用の動作パターンに従って接触動作を行うので、接触動作を通じてロボットが感情をより自然に表出することができる。 According to the fourth invention, a plurality of motion patterns are prepared based on the results of an experiment to measure movements when a person expresses an emotion, and a motion pattern for expression corresponding to the emotion to be expressed is prepared. Since the robot performs contact actions according to the following, it is possible for the robot to express emotions more naturally through contact actions.
第5の発明は、少なくとも頭部、胴体部、腕部および手部を含み、近くに存在する人に手部によって触れる接触動作を行う人型のコミュニケーションロボットのコンピュータによって実行される制御プログラムであって、コンピュータを、コミュニケーションロボットが表出可能な複数の感情に含まれる所定の感情を表出するイベントが発生する発生タイミングを取得する第1取得手段、イベントにおいて表出する表出用の感情を取得する第2取得手段、複数の感情のそれぞれに対応して予め設定される、接触動作の開始タイミングを算出するための複数の算出条件の中から、第2取得手段で取得された表出用の感情に対応する表出用の算出条件を設定する第1設定手段、第1取得手段で取得された発生タイミングを基準として、第1設定手段で設定された表出用の算出条件を用いて、開始タイミングを算出する算出手段、および算出手段で算出された開始タイミングに到達したときに、手部を変位させて、接触動作を行う動作制御手段として機能させる制御プログラムである。 A fifth invention is a control program executed by a computer of a humanoid communication robot that includes at least a head, a torso, an arm, and a hand, and performs a contact action of touching a nearby person with the hand. a first acquisition means for acquiring an occurrence timing at which an event to express a predetermined emotion included in a plurality of emotions that can be expressed by the communication robot occurs; The second acquisition means to acquire the expression information acquired by the second acquisition means from among the plurality of calculation conditions for calculating the start timing of the contact motion, which are preset corresponding to each of the plurality of emotions. a first setting means for setting a calculation condition for expression corresponding to the emotion; and a first setting means for setting a calculation condition for expression corresponding to the emotion; , a calculation means for calculating a start timing, and a control program that displaces a hand when the start timing calculated by the calculation means is reached, and functions as an operation control means for performing a contact operation.
第6の発明は、少なくとも頭部、胴体部、腕部および手部を含み、近くに存在する人に手部によって触れる接触動作を行う人型のコミュニケーションロボットの制御方法であって、コミュニケーションロボットが表出可能な複数の感情に含まれる所定の感情を表出するイベントが発生する発生タイミングを取得する第1取得ステップ、イベントにおいて表出する表出用の感情を取得する第2取得ステップ、複数の感情のそれぞれに対応して予め設定される、接触動作の開始タイミングを算出するための複数の算出条件の中から、第2取得ステップで取得された表出用の感情に対応する表出用の算出条件を設定する第1設定ステップ、第1取得ステップで取得された発生タイミングを基準として、第1設定ステップで設定された表出用の算出条件を用いて、開始タイミングを算出する算出ステップ、および算出ステップで算出された開始タイミングに到達したときに、手部を変位させて、接触動作を行う動作制御ステップを含む制御方法である。 A sixth invention is a method for controlling a humanoid communication robot that includes at least a head, a torso, an arm, and a hand, and performs a contact action of touching a nearby person with the hand, wherein the communication robot a first acquisition step of acquiring an occurrence timing at which an event to express a predetermined emotion included in a plurality of emotions that can be expressed; a second acquisition step of acquiring an emotion for expression to be expressed in the event; Out of a plurality of calculation conditions for calculating the start timing of the contact motion, which are preset corresponding to each of the emotions of a first setting step for setting calculation conditions; a calculation step for calculating a start timing using the expression calculation conditions set in the first setting step, based on the occurrence timing obtained in the first acquisition step; , and a motion control step of displacing the hand and performing a contact motion when the start timing calculated in the calculation step is reached.
第5および第6の発明によれば、第1の発明と同様の効果が期待できる。 According to the fifth and sixth inventions, the same effects as the first invention can be expected.
この発明によれば、コミュニケーション対象者に対して、接触動作を通じてロボットが感情を自然に表出することができる。 According to this invention, the robot can naturally express emotions to the person to be communicated with through contact motion.
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above objects, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1を参照して、この発明の一実施例のアンドロイドロボット制御システム(以下、単に「システム」ということがある。)10は、アンドロイドロボット(以下、単に「ロボット」という)12を含む。ロボット12は、人間に酷似した姿形(外観など)を有する人型ロボットであり(図2~図4参照)、人間に酷似した人間らしい動作(振り、振る舞い、発話)を行う。また、詳細は後述するが、本実施例のロボット12は、ロボット12と対話(コミュニケーション)するコミュニケーション対象となる人(対象者)に触れる接触動作を含むコミュニケーション行動(または動作)を行う。
Referring to FIG. 1, an android robot control system (hereinafter sometimes simply referred to as "system") 10 according to an embodiment of the present invention includes an android robot (hereinafter simply referred to as "robot") 12. The
ロボット12は、LAN(Local Area Network)、インターネットおよび電話通信回線のようなネットワーク14を介してコンテンツ提示装置16および位置検出装置18に接続される。ロボット12は、ネットワーク14を介さずに、有線または無線(たとえば赤外線方式、WiFi(登録商標)方式またはブルートゥース(Bluetooth;登録商標)方式)で、コンテンツ提示装置16、位置検出装置18および他のコンピュータ等と直接通信することもできる。
The
コンテンツ提示装置16は、人が視覚的および/または聴覚的に認識可能なコンテンツを再生する。この実施例では、コンテンツは、映像または音(音声)或いはその両方(以下、簡単に「映像・音」ということがある。)を含む。
The
コンテンツ提示装置16は、再生装置、ディスプレイおよびスピーカを含む。ディスプレイおよびスピーカの各々は、再生装置に接続される。再生装置は、コンテンツを再生して映像データまたは音データ或いはその両方のデータ(映像・音データ)を出力する装置である。
再生装置としては、記憶媒体または自装置内の記憶部に記憶されたコンテンツを再生する装置を用いることができる。この種の装置としては、光ディスクプレイヤ、ビデオデッキ、カセットデッキ、携帯型音楽プレイヤ、スマートフォン、フィーチャーフォン、デスクトップPC、ノート(ラップトップ)PCおよびタブレットPC等がある。また、再生装置としては、ネットワーク14等を介して外部から転送されるコンテンツを再生(ストリーミング再生)する装置(たとえばスマートフォンまたはPC等)、テレビジョン信号またはラジオ信号を受信してコンテンツを再生する装置(たとえばテレビジョン受信機またはラジオ受信機)等を用いることもできる。
As the playback device, a device that plays back content stored in a storage medium or a storage section within the device itself can be used. Devices of this type include optical disc players, video decks, cassette decks, portable music players, smart phones, feature phones, desktop PCs, notebook PCs, tablet PCs, and the like. In addition, the playback device includes a device (for example, a smartphone or a PC) that plays back (streaming playback) content transferred from the outside via the
ディスプレイとしては、たとえばLCD(Liquid Crystal Display)またはEL(Electro-Luminescence)ディスプレイなどの汎用のディスプレイを用いることができ、スピーカとしては、汎用のスピーカを用いることができる。また、ディスプレイとスピーカとは、別々に設けられていてもよく、スピーカを内蔵したスピーカ内蔵型ディスプレイのように一体的に構成されていてもよい。さらに、再生装置、ディスプレイおよびスピーカが一体的に構成されていてもよい。 As the display, a general-purpose display such as an LCD (Liquid Crystal Display) or an EL (Electro-Luminescence) display can be used, and as the speaker, a general-purpose speaker can be used. Further, the display and the speaker may be provided separately, or may be configured integrally, such as a display with a built-in speaker. Furthermore, the playback device, display, and speaker may be integrally configured.
再生装置でコンテンツが再生されると、再生装置からディスプレイに映像データが入力され、ディスプレイは、入力された映像データに対応する映像を出力(表示)し、再生装置からスピーカに音データが入力され、スピーカは、入力された音データに対応する音を出力する。なお、映像のみのコンテンツの場合には、再生装置からは映像データのみが出力され、音のみのコンテンツの場合には、再生装置からは音データのみが出力される。 When content is played back on a playback device, video data is input from the playback device to the display, the display outputs (displays) video corresponding to the input video data, and sound data is input from the playback device to the speaker. , the speaker outputs sound corresponding to the input sound data. Note that in the case of video-only content, only video data is output from the playback device, and in the case of sound-only content, only sound data is output from the playback device.
以上のように、コンテンツ提示装置16によって、映像・音のコンテンツが視聴者に提示される。また、コンテンツ提示装置16は、コンテンツに関するデータ(以下、「イベントデータ」という)をロボット12に送信する。なお、映像・音のコンテンツの内容に連動して、たとえば緊張や興奮が高まる場面(クライマックス)に到達したときに、ディスプレイの明るさ(明度)が変動するようにしても良い。この場合、ディスプレイの明るさが変動することもコンテンツの一部となる。また、コンテンツ提示装置16に加えて、またはこれに代えて、人間(コンテンツ提示者)が視覚的および/または聴覚的に認識可能なコンテンツ(紙芝居、読み聞かせまたは朗読劇等)を視聴者に提示してもよい。
As described above, the
位置検出装置18は、対象者の体の位置、特に対象者の手の位置を検出する。この実施例では、位置検出装置18は、コンピュータ(位置検出用コンピュータ)および複数の距離画像センサを含む。距離画像センサは、赤外光またはレーザなどの光を照射し、対象物から反射した光(反射光)をCCD(Charge Coupled Device)センサなどの光学センサによって捉える。距離画像センサは、光が戻るまでの時間を画素毎に計測することで、対象物までの実際の距離を測定する。また、距離画像センサは、対象物の形状(たとえば、頭部および手などの人間の所定部位)を測定することが可能である。したがって、距離画像センサの出力に基づいて、人間の位置および人間の所定部位(頭部および手)の位置を検出することができる。
The
距離画像センサとしては、ASUS(登録商標)製のXtion(登録商標)と言われる製品が採用されている。なお、他の例では、距離画像センサは、Microsoft(登録商標)製のKinect(登録商標)センサ、パナソニック(登録商標)製の3次元距離画像センサD-IMager(登録商標)などを使用することも可能である。この種のセンサは、3次元距離計測センサ、3Dスキャナなどと言われる場合もある。なお、距離画像センサとしては、たとえばLiDAR(たとえば、Velodine社製のイメージングユニットLiDAR(HDL-32e)(商品名))のような全方位レーザ距離計や、ステレオカメラなども利用可能である。 As the distance image sensor, a product called Xtion (registered trademark) manufactured by ASUS (registered trademark) is used. In other examples, the distance image sensor may be a Kinect (registered trademark) sensor manufactured by Microsoft (registered trademark), a three-dimensional distance image sensor D-IMager (registered trademark) manufactured by Panasonic (registered trademark), etc. is also possible. This type of sensor is sometimes referred to as a three-dimensional distance measurement sensor, a 3D scanner, or the like. Note that as the distance image sensor, an omnidirectional laser distance meter such as LiDAR (for example, imaging unit LiDAR (HDL-32e) (trade name) manufactured by Velodine), a stereo camera, etc. can also be used.
距離画像センサの各々からの距離画像信号は、位置検出用コンピュータに入力され、位置検出用コンピュータでは、その距離画像信号をディジタルデータとして、メモリ(たとえばHDDまたはRAMなど)に記憶する。位置検出用コンピュータは、このメモリに記憶した距離画像データを処理して得られた、1または複数の人間の所定部位の位置(この第1実施例では、対象者の手の3次元位置)についてのデータ(以下、「人位置データ」という)をロボット12に送信する。
A distance image signal from each of the distance image sensors is input to a position detection computer, and the position detection computer stores the distance image signal as digital data in a memory (for example, HDD or RAM). The position detection computer processes the distance image data stored in the memory to determine the position of one or more predetermined parts of a person (in this first embodiment, the three-dimensional position of the subject's hand). data (hereinafter referred to as "person position data") is transmitted to the
なお、図1に示すシステム10の構成は一例であり、ロボット12と、コンテンツ提示装置16および位置検出装置18との間に、サーバ等の他のコンピュータが介在してもよい。
Note that the configuration of the
また、図1では省略するが、ロボット12と通信可能な外部制御端末が設けられてもよい。外部制御端末は、ロボット12を遠隔操作するためのコンピュータである。たとえば、ロボット12が人間とコミュニケーションを行う場合において、ロボット12で対応できない事象が発生したときに、管理者等が外部制御端末を用いてロボット12を制御し、ロボット12が対応できない事象について対応する。管理者等は、ロボット12を通して人間と会話したり、ロボット12にコマンドを送信してコミュニケーション行動を実行させたりする。
Although not shown in FIG. 1, an external control terminal capable of communicating with the
図2~図4は図1のロボット12の外観および構成の一例を示す。なお、図2~図4に示すロボット12は一例であり、他の外観、構成を持つ任意のアンドロイドロボットが利用可能である。また、ロボット12は、アンドロイドロボットに限定される必要は無く、人間に似た外観を有し、接触動作が可能なロボットであれば他のロボットを使用することもできる。一例として、身体動作または/および音声で、コミュニケーション対象である人間または他のロボットとコミュニケーションを取ることができるコミュニケーションロボットを使用することができる。以下、図2~図4を用いて、本実施例のロボット12の外観および構成について簡単に説明する。
2 to 4 show an example of the appearance and configuration of the
図2および図4に示すように、ロボット12は、胴体部20およびその胴体部20の上に、首部22を介して設けられた頭部24を含む。
As shown in FIGS. 2 and 4, the
胴体部20の上端(頭部の下方)が肩部26であり、胴体部20の中ほどが腰部28である。左右の肩部26のそれぞれから上肢部(腕部)30が設けられ、胴体部20の下端からは下肢部32が設けられる。
The upper end of the body part 20 (below the head) is the
また、図4に示すように、上肢部30の中ほどが肘部34であり、上肢部30の先端には、上肢部30の基端(肩部26に近い側)から順に手首部36および手部38が設けられ、手部38は、先端に設けられる5本の指部40を含む。
Further, as shown in FIG. 4, the middle part of the
このようなロボット12は、たとえば金属のような構造材で全体を組み立て、その構造材の上にたとえばシリコーン樹脂のようなソフトな樹脂で皮膚を形成し、必要な部分でその皮膚を衣服から露出させている。
Such a
この実施例のシステム10では、ロボット12は、椅子42に座った状態でセットされていて、人間らしい動作を実現するように、空気圧アクチュエータで各部分を動かす。ロボット12の上述の各部分(対象部位)を動かすための以下に説明するアクチュエータは、この第1実施例では、いずれもパルス電力によって駆動されるステッピングモータであり、ステッピングモータの回転量はパルス数で決まる。パルス数が指令値として与えられる。なお、各対象部位は、平常状態において、アクチュエータに初期値が与えられ、変位させる場合に、その方向と大きさに応じたパルス数の指令値が該当するアクチュエータに与えられる。この第1実施例では、各アクチュエータは、「0-255」の指令値で動作され、「0-255」のいずれかの値が初期値として与えられる。以下、図面を参照してロボット12の各部分を動かすための構成を説明する。
In the
図3(A)を参照して、アクチュエータA1は、上瞼44aの上下動を制御するためのアクチュエータである。アクチュエータA2、A3およびA4は眼球を左右上下に動かすためのアクチュエータである。アクチュエータA5は、下瞼44bの上下動を制御するアクチュエータである。したがって、アクチュエータA1およびA5によって、目(瞼)が開閉される。
Referring to FIG. 3(A), actuator A1 is an actuator for controlling the vertical movement of
図3(B)を参照して、アクチュエータA6は額を動かすためのアクチュエータであり、アクチュエータA7は眉間を動かすためのアクチュエータである。また、アクチュエータA8は、口角46を上げるためのアクチュエータである。アクチュエータA9は舌を上下方に動かすためのアクチュエータである。
Referring to FIG. 3(B), actuator A6 is an actuator for moving the forehead, and actuator A7 is an actuator for moving the glabella. Further, the actuator A8 is an actuator for raising the corner of the
図3(C)を参照して、アクチュエータA10は口唇を左右に広げるアクチュエータであり、アクチュエータA11は口唇を前に突き出すためのアクチュエータである。アクチュエータA13は顎を突き出したり引いたりするためのアクチュエータである。このアクチュエータ13によって、口が開閉される。 Referring to FIG. 3(C), actuator A10 is an actuator that spreads the lips left and right, and actuator A11 is an actuator that pushes the lips forward. The actuator A13 is an actuator for protruding or pulling the jaw. This actuator 13 opens and closes the mouth.
図4を参照して、アクチュエータA14は頭部24を左右に傾動させるためのアクチュエータであり、アクチュエータA15は頭部24を俯仰させるためのアクチュエータであり、そして、アクチュエータA16は頭部を左右に回動させるためのアクチュエータである。アクチュエータA17は腰部28を前屈させまたは後傾させるためのアクチュエータであり、アクチュエータA18は腰部28を左右に回動(ひねる)させるためのアクチュエータである。
Referring to FIG. 4, actuator A14 is an actuator for tilting
また、アクチュエータA19は肩部26を上下動させる(胴体部20に対する上肢部30の角度を制御する)ためのアクチュエータである。アクチュエータA20は肘部34を中心に上肢部30を屈伸(肘部34を中心に手首部36および手部38を回動)させるためのアクチュエータである。アクチュエータA21は手首部36を中心に手部38を回動させるためのアクチュエータである。アクチュエータA22は指部40を屈伸または回動させるためのアクチュエータである。図示は省略するが、アクチュエータA22は5本の指部40のそれぞれに対応して設けられる。アクチュエータA19~A22の各々が駆動されることによって、ロボット12は、上肢部30(肘部34、手首部36、手部38および指部40等)を用いて、人の腕、手および指の動きに酷似した動作を行うことができる。たとえば、近くに存在する人に手部38または指部40で触れる接触動作(タッチ動作)を行うことができる。
Further, the actuator A19 is an actuator for vertically moving the shoulder section 26 (controlling the angle of the
なお、図示は省略するが、下肢部32には、下肢部32の各部分を動かすためのアクチュエータが適宜設けられる。
Although not shown in the drawings, the
ロボット12は、図5に示すように、ロボット12の全体制御を司るプロセッサ(この第1実施例では、CPU)50を備える。CPU50は、バス52を通して、RAM54、通信モジュール56、アクチュエータ制御回路58、センサI/F(インタフェース)60および入出力I/F62等に接続される。
As shown in FIG. 5, the
CPU50は通信モジュール56を介して、ネットワーク14すなわちコンテンツ提示装置16および位置検出装置18等の外部コンピュータと、有線または無線で、通信可能に接続される。
The
RAM54は、CPU50のバッファ領域およびワーク領域として用いられる。ただし、RAM54に代えて、HDDを用いることもできる。CPU50は、バス52を通してRAM54にアクセスし、RAM54に記憶されているプログラムやデータ(図10参照)に従って、バス52を通してアクチュエータ制御回路58に指令値を与え、各アクチュエータA1-Anの動作を制御する。
The
アクチュエータ制御回路58は、CPU50から与えられる指令値に応じた数のパルス電力を生成し、それを該当するステッピングモータに与えることによって、各アクチュエータA1-Anを駆動する。ただし、アクチュエータとしてはステッピングモータを用いるものの他、サーボモータを用いるアクチュエータ、流体アクチュエータなど任意のアクチュエータが利用可能である。
The
センサI/F60は、触覚センサ64および眼カメラ66からのそれぞれの出力を受ける。
Sensor I/
触覚センサ64ないし皮膚センサは、たとえばタッチセンサであり、ロボット12の触覚の一部を構成する。つまり、触覚センサ64は、人間や他の物体等がロボット12に触れたか否かを検出するために用いられる。触覚センサ64からの出力(検出データ)は、センサI/F60を介してCPU50に与えられる。したがって、CPU50は、人間や他の物体等がロボット12に触れたこと(およびその強弱)を検出することができる。
The
眼カメラ66は、イメージセンサであり、ロボット12の視覚の一部を構成する。つまり、眼カメラ66は、ロボット12の眼から見た映像ないし画像を検出するために用いられる。この第1実施例では、眼カメラ66の撮影映像(動画ないし静止画)に対応するデータ(画像データ)は、センサI/F60を介してCPU50に与えられる。CPU50は、その画像データを、RAM54に記憶したり、通信モジュール56およびネットワーク14(図1)を介して外部のコンピュータ(たとえば、外部制御端末)に送信したりする。
The
また、スピーカ68およびマイク70は、入出力I/F62に接続される。スピーカ68は、ロボット12が発話を行う際に音声を出力する。マイク70は、音センサであり、ロボット12の聴覚の一部を構成する。このマイク70は、指向性を有し、主として、ロボット12と対話(コミュニケーション)する人間の音声を検出するために用いられる。
Moreover, the
このような構成のシステム10は、ロボット12の接触動作を通じて、ユーザに対して物理的または身体的な刺激(触覚刺激)を提示するためのシステムであり、ロボット12は、接触動作を通じて対象者に触覚刺激を与えることによって色々な感情を表出するコミュニケーション行動を行う。ただし、本実施例のロボット12が表出可能な感情には、感動、楽しみ、悲しみ、怒り、恐怖などがある。
The
図6に示すように、本実施例のロボット12は、対象者と同じ方向を向いて横に並んで座った状態で、コンテンツ提示装置16によって再生される視覚的および/または聴覚的に認識可能な映像・音を含むコンテンツ(たとえば映画等)を対象者と共に視聴しながら、コミュニケーション行動を行う。本実施例では、ロボット12は、手部38を動作させて、手部38(左の手部(左手部)38または左の指部40)で対象者の手(右手)の甲に触れる接触動作を行うことによって感情を表出する。
As shown in FIG. 6, the
図7(A)に示すように、接触動作を行わない場合には、ロボット12は、手部38が対象者の手に触れないように、手部38を対象者の手から少し離れた位置に位置させ(対象者から手部38を離間させ)、図7(B)および図7(C)に示すように、接触動作を行う場合には、ロボット12は、手部38を対象者の手に重ねるように、すなわち手部38が対象者の手に触れるように、手部38を位置させる。なお、図7(B)に示すように手部38の全体で対象者の手に触れるようにしてもよいし、図7(C)に示すように指部40のみで対象者の手に触れるようにしてもよい。
As shown in FIG. 7A, when not performing a contact operation, the
ただし、ロボット12の接触動作は、感情を表出すべきイベントが発生した場合に行われる。本実施例では、感情を表出すべきイベントは、視聴中のコンテンツにおいて、重要な場面、内容が大きく変化する場面または緊張や興奮が高まる場面等、すなわちクライマックスのことである。コンテンツ提示装置16によって再生されるコンテンツには、少なくとも1つのイベントが含まれ、ロボット12の接触動作は、視聴中のコンテンツのイベントに応じて行われる。
However, the contact motion of the
コンテンツ提示装置16は、イベントに関するデータ(以下、「イベントデータ」という)をロボット12に送信する。イベントデータは、イベント(クライマックス)が発生するタイミング(以下、「発生タイミング」という)のデータと、イベントにおいて表出すべき感情(以下、「表出用の感情」という)のデータとを含む。本実施例では、イベントは、視聴中のコンテンツのクライマックスであるので、ロボット12は、視聴中のコンテンツのクライマックスについてのデータをイベントデータとしてコンテンツ提示装置16から取得する。
The
なお、コンテンツにおけるどの部分(場面)をクライマックスとして設定するかについては、コンテンツを解析して重要な場面をクライマックスとして自動的に抽出するようにしてもよいし、人間がコンテンツを視聴した上で、人間が典型的に考える場面をクライマックスとして設定してもよい。なお、コンテンツから重要な場面を抽出する技術は、特開2004-342272号公報などに詳細に開示されるので参照されたい。 Regarding which part (scene) of the content to set as the climax, it is possible to analyze the content and automatically extract the important scene as the climax, or after viewing the content by a human. A scene that humans typically consider may be set as the climax. Note that the technique for extracting important scenes from content is disclosed in detail in Japanese Patent Laid-Open No. 2004-342272, etc., so please refer to it.
図8は、イベントデータの内容の一例を示す図である。図8に示すように、イベントデータには、コンテンツに含まれる各イベントを識別(特定)するための識別情報であるイベントIDが含まれ、各イベントIDに対応して、当該イベントの発生タイミングと、当該イベントの表出用の感情の種類(カテゴリ)とが含まれる。なお、ロボット12が発生タイミングと表出用の感情の種類との対応関係が認識できるのであれば、イベントIDは省略されてもよい。
FIG. 8 is a diagram showing an example of the contents of event data. As shown in FIG. 8, the event data includes an event ID, which is identification information for identifying (specifying) each event included in the content, and corresponding to each event ID, the occurrence timing and timing of the event are determined. , and the type (category) of emotion for expressing the event. Note that the event ID may be omitted if the
図8に示す例では、発生タイミングは、コンテンツの開始時点(0分0秒)からの経過時間として表現されている。たとえば、コンテンツの開始時点から6分54秒後に“感動”を表出するイベント(イベントID“1”のイベント)が発生し、コンテンツの開始時点から8分48秒後に“悲しみ”を表出するイベント(イベントID“2”のイベント)が発生し、コンテンツの開始時点から15分18秒後に“怒り”を表出するイベント(イベントID“3”のイベント)が発生し、コンテンツの開始時点から24分18秒後に“恐怖”を表出するイベント(イベントID“4”のイベント)が発生し、コンテンツの開始時点から27分12秒後に“楽しみ”を表出するイベント(イベントID“5”のイベント)が発生する。 In the example shown in FIG. 8, the occurrence timing is expressed as the elapsed time from the start time of the content (0 minutes 0 seconds). For example, an event that expresses "impression" (event with event ID "1") occurs 6 minutes and 54 seconds after the start of the content, and an event that expresses "sadness" occurs 8 minutes and 48 seconds after the start of the content. An event (event with event ID "2") occurs, and 15 minutes and 18 seconds after the start of the content, an event to express "anger" (event with event ID "3") occurs, and from the start of the content An event that expresses “fear” (event with event ID “4”) occurs 24 minutes and 18 seconds later, and an event that expresses “fun” (event ID “5”) occurs 27 minutes and 12 seconds after the start of the content. event) occurs.
また、システム10では、イベントの発生タイミングに基づいて接触動作を開始するタイミング(以下、「開始タイミング」という)を算出するための算出条件が感情の種類毎に予め設定されている。たとえば、平均および分散をパラメータ(母数)とする確率密度関数に従う乱数に応じて開始タイミングが算出される。確率密度関数としては、正規分布、二項分布および逆ガウス分布等の確率密度関数を用いることができる。
Further, in the
図9は、感情の種類毎の算出条件のパラメータとしての平均および分散と、感情の種類毎の動作パターンとを示す図である。ただし、平均の値(平均値)は、感情の種類毎に予め設定される平均的なタイミング(平均タイミング)とイベントの発生タイミングとの時間差(秒)を示す値であり、正の数で表される平均値は、平均タイミングが発生タイミングに対し遅れる(繰り下げる)期間(時間)を示し、負の数で表される平均値は、平均タイミングが発生タイミングに対し早まる(繰り上げる)期間を示す。また、分散の値(分散値)は、乱数のとる値のばらつきを示す値であり、分散値が小さいほど乱数の取りうる値が平均値の近くに集まるようになり、分散値が大きいほど乱数の取りうる値がばらつくようになる。 FIG. 9 is a diagram showing the average and variance as parameters of calculation conditions for each type of emotion, and the movement pattern for each type of emotion. However, the average value (average value) is a value that indicates the time difference (seconds) between the average timing (average timing) set in advance for each type of emotion and the event occurrence timing, and is expressed as a positive number. The average value represented by a negative number indicates a period (time) during which the average timing is delayed (moved down) relative to the occurrence timing, and the average value represented by a negative number represents a period during which the average timing is advanced (moved up) relative to the occurrence timing. In addition, the variance value (dispersion value) is a value that indicates the dispersion of the values taken by random numbers. The possible values of will begin to vary.
また、ロボット12の接触動作は、感情の種類毎に複数の動作パターン(動作種類)を含む。ロボット12は、イベントに割り当てられる感情に対応する動作パターン(表出用の動作パターン)に従って接触動作を行う。動作パターンは、ロボット12が表出可能な感情のそれぞれに対応して複数用意されており、複数の動作パターンのそれぞれは、互いに異なる動きの特徴を含む。たとえば、動きの特徴は、接触動作の強さ(圧力)、接触動作の連続性、接触動作の長さ等である。
Further, the contact motion of the
なお、発明者等は、感情を表出すべきイベントが含まれるコンテンツを複数の被験者に視聴させ、人が感情を表出する際(イベントが発生する際)に、近くに存在する他人に接触する接触動作の開始タイミングを測定する実験を行った。また、アンドロイドロボットが特定の感情を表現するときに、複数種類の動作パターンに従って被験者に対し接触動作を行い、感情の種類に応じて被験者が好ましいと認識する動作パターンを測定する実験を行った。これらの実験は、“感動”、“楽しみ”、“悲しみ”、“怒り”および“恐怖”のそれぞれについて行われ、図9に示す感情の種類毎に設定される平均値、分散値および動作パターンは、この実験結果に基づいて決定されている。 In addition, the inventors had multiple subjects view content that includes an event that requires the expression of emotions, and when a person expresses an emotion (when an event occurs), they come into contact with another person nearby. We conducted an experiment to measure the start timing of contact movements. In addition, when an android robot expresses a specific emotion, it makes contact with the subject according to multiple types of movement patterns, and an experiment was conducted to measure the movement pattern that the subject recognized as preferable depending on the type of emotion. These experiments were conducted for each of "emotion," "enthusiasm," "sadness," "anger," and "fear," and the average values, variance values, and movement patterns set for each type of emotion are shown in Figure 9. has been determined based on the results of this experiment.
図9に示す感情の種類毎の平均値からわかるように、“感動”、“楽しみ”、“悲しみ”および“怒り”を表出する場合の人の接触動作の平均タイミングは、発生タイミングよりも後に設定され、“恐怖”を表出する場合の人の接触動作の平均タイミングは、発生タイミングよりも前に設定される。すなわち、“感動”、“楽しみ”、“悲しみ”および“怒り”を表出する場合の人の接触動作は、イベントの発生タイミングよりも少し後に行われることが多く、“恐怖”を表出する場合の人の接触動作は、イベントの発生タイミングよりも少し前に行われることが多い傾向にある。 As can be seen from the average values for each type of emotion shown in Figure 9, the average timing of human touch movements when expressing “impression,” “enthusiasm,” “sadness,” and “anger” is faster than the timing of occurrence. The average timing of a person's contact motion when expressing “fear” is set later and is set before the occurrence timing. In other words, people's contact movements to express "impression," "enthusiasm," "sadness," and "anger" are often performed a little later than the timing of the event, and are often used to express "fear." In this case, a person's contact action tends to be performed slightly before the event occurs.
また、“楽しみ”、“怒り”および“恐怖”を表出する場合の人の接触動作の平均タイミングは、発生タイミングに対する時間差が小さい傾向にあり、“感動”および“悲しみ”を表出する場合の人の接触動作の平均タイミングは、発生タイミングに対する時間差が大きい傾向にある。 Furthermore, the average timing of people's contact movements when expressing "enthusiasm," "anger," and "fear" tends to have a small time difference with respect to the timing of occurrence, while when expressing "impression" and "sadness." The average timing of a person's contact movements tends to have a large time difference with respect to the timing of occurrence.
さらに、図9に示す感情の種類毎の分散値からわかるように、“悲しみ”を表出する場合の人の接触動作の開始タイミングは、個人差が大きい傾向にあり、“怒り”および“恐怖”を表出する場合の個人差が小さい傾向にある。 Furthermore, as can be seen from the variance values for each type of emotion shown in Figure 9, there tends to be large individual differences in the timing of the start of contact movements when people express “sadness”; There is a tendency for individual differences in the expression of ``to be small.''
図9からわかるように、動作パターンの一要素としての接触動作の強さ(圧力)の観点で言えば、“感動”、“楽しみ”および“悲しみ”を表出する場合の動作パターンでは、接触動作の強さが所定の強さ(普通の強さ)に設定され、“怒り”および“恐怖”を表出する場合の動作パターンでは、“感動”、“楽しみ”および“悲しみ”を表出する場合よりも強い強さに設定される。 As can be seen from Figure 9, from the perspective of the strength (pressure) of the contact motion as an element of the motion pattern, in the motion patterns expressing "impression," "enthusiasm," and "sadness," the contact motion The strength of the motion is set to a predetermined strength (normal strength), and the motion pattern that expresses "anger" and "fear" expresses "impression", "enthusiasm", and "sadness". The strength is set to be stronger than when
また、接触動作の連続性の観点で言えば、“感動”、“楽しみ”および“怒り”を表出する場合の動作パターンは、手部38で対象者の手を「とんとん」と数回叩くような断続的な動きに設定される。一方、“悲しみ”および“恐怖”を表出する場合の動作パターンは、手部38を所定時間継続して対象者の手に添えるような連続的な動きに設定される。
In addition, from the perspective of the continuity of the contact motion, the motion pattern when expressing "impression," "enthusiasm," and "anger" is to tap the subject's hand several times with the
さらに、接触動作の長さの観点で言えば、“楽しみ”および“怒り”を表出する場合の動作パターンでは、接触動作の長さが所定の長さ(“短い”に相当)に設定され、“感動”、“悲しみ”および“恐怖”を表出する場合の動作パターンでは、“楽しみ”および“怒り”を表出する場合よりも接触動作の長さが長く設定される。なお、接触動作の長さとは、断続的な動きをする動作パターンの場合には、接触動作において最初に対象者の手を叩いたときから最後に対象者の手を叩いたときまでの時間の長さのことをいう。 Furthermore, from the perspective of the length of the contact motion, the length of the contact motion is set to a predetermined length (equivalent to "short") in the motion patterns when expressing "enthusiasm" and "anger." , the length of the contact motion is set longer in the motion patterns for expressing "impression", "sadness", and "fear" than for the motion patterns for expressing "enthusiasm" and "anger". In addition, in the case of a movement pattern that involves intermittent movement, the length of the contact movement is the time from when the subject's hand is first clapped to when the subject's hand is last clapped during the contact movement. Refers to length.
システム10では、イベントにおいて表出する表出用の感情が設定(取得)されると、表出用の感情に設定される平均および分散を算出用パラメータとする表出用の算出条件が設定され、表出用の算出条件を用いて、イベントの発生タイミングを基準として、接触動作の開始タイミングが算出される。また、表出用の感情に応じて接触動作の動作パターン(表出用の動作パターン)が設定される。そして、ロボット12は、開始タイミングに到達すると、表出用の動作パターンに従って接触動作を行う。
In the
本実施例では、人が感情を表出する際の動きを測定する実験結果に基づいて、接触動作の開始タイミングを設定(算出)し、接触動作の動作パターンを設定するので、人が行う接触動作に似た、自然な接触動作を再現することができると考えられる。 In this example, the start timing of the contact motion is set (calculated) and the movement pattern of the contact motion is set based on the experimental results of measuring the movements when a person expresses an emotion. It is thought that it is possible to reproduce natural contact movements that are similar to physical movements.
また、ロボット12は、接触動作の他にも所定の振り、振る舞いのような身体動作または/および発話動作を行う。この第1実施例では、ロボット12が接触動作等の各種動作を実行するための制御情報は、アクチュエータ(A1~A22)を駆動制御するための制御データまたは/および発話内容についての合成音声の音声データを含み、各コミュニケーション行動に付された名称(コマンド名)に対応して記憶される。ただし、身体動作には、自然の動作(無意識動作)も含まれる。無意識動作の代表的な例としては、瞬きや呼吸が該当する。また、このような生理的な動作のみならず、人間の癖による動作も無意識動作に含まれる。たとえば、癖による動作としては、たとえば、髪の毛を触る動作、顔を触る動作や爪を噛む動作などが該当する。また、制御情報は、身体動作とは別に、口の動きおよび顔の表情を表現するための制御データも含む。
In addition to the contact motion, the
図4では省略したが、コミュニケーション行動についての制御情報は、HDDのような不揮発性のメモリに記憶され、必要に応じて、HDDから読み出され、RAM54に書き込まれる。
Although omitted in FIG. 4, control information regarding communication behavior is stored in a nonvolatile memory such as an HDD, and is read from the HDD and written to the
図10は図4に示したRAM54のメモリマップ300の一例を示す図である。図10に示すように、RAM54は、プログラム記憶領域302およびデータ記憶領域304を含む。
FIG. 10 is a diagram showing an example of a memory map 300 of the
プログラム記憶領域302には、通信プログラム302a、人位置検出プログラム302b、動作制御プログラム302c、イベントデータ取得プログラム302d、算出条件設定プログラム302e、タイミング算出プログラム302fおよび動作パターン設定プログラム302g等が記憶される。
The
通信プログラム302aは、コンテンツ提示装置16、位置検出装置18、他のロボットまたは外部コンピュータ等と通信するためのプログラムである。人位置検出プログラム302bは、位置検出装置18から送信される人位置データに基づいて、接触動作を行う目標となる対象者の所定部位(目標部位)の3次元位置(本実施例では対象者の右手の3次元位置)を検出または取得するためのプログラムである。
The
動作制御プログラム302cは、ロボット12の動作を制御するためのプログラムであって、上半身(肩)制御プログラム3020、上肢(肘)制御プログラム3022、手首制御プログラム3024および指制御プログラム3026を含む。
The
上半身(肩)制御プログラム3020は、接触動作等の身体動作に合わせてロボット12の上半身(肩)26の動作を行うように(上肢部30の角度を変位させるように)、図4に示すアクチュエータA19を制御するためのプログラムである。
The upper body (shoulder)
上肢(肘)制御プログラム3022は、接触動作等の身体動作に合わせてロボット12の上肢部30(肘部34)の動作を行うように、図4に示すアクチュエータA20を制御するためのプログラムである。
The upper limb (elbow)
手首制御プログラム3024は、接触動作等の身体動作に合わせてロボット12の手首部36の動作を行うように、図4に示すアクチュエータA21を制御するためのプログラムである。
The
指制御プログラム3026は、接触動作等の身体動作に合わせてロボット12の指部40の動作を行うように、図4に示すアクチュエータA22を制御するためのプログラムである。
The
なお、詳しい説明は省略するが、動作制御プログラム302cには、図3に示すアクチュエータA1-A18のそれぞれを適宜制御して、ロボット12の目または/および口の表情を表現する表情制御プログラム、ロボット12の口唇形状を表現する口唇動作制御プログラム、ロボット12の頭部24の動作を行う頭部制御プログラムおよびロボット12の下半身(腰)32の動作を行う下半身(腰)制御プログラム等も含まれる。
Although a detailed explanation will be omitted, the
イベントデータ取得プログラム302dは、コンテンツ提示装置16から送信されるイベントデータを取得するためのプログラムである。算出条件設定プログラム302eは、イベントの表出用の感情の種類に応じて、平均および分散を算出用パラメータとする表出用の算出条件を設定するためのプログラムである。タイミング算出プログラム302fは、イベントの発生タイミングを基準として、表出用の算出条件を用いて、接触動作の開始タイミングを算出するためのプログラムである。動作パターン設定プログラム302gは、表出用の感情の種類に応じて、表出用の動作パターンを設定するためのプログラムである。
The event
図示は省略するが、プログラム記憶領域302には、人間がロボット12に対して発話した内容をCPU50が認識するための音声認識プログラム、音声合成データに従って合成した音声をスピーカ68に出力するための音声合成プログラム、ロボット12を制御するための他のプログラム等が記憶される。
Although not shown in the figure, the
RAM54のデータ記憶領域304には、種々のデータが記憶される。人位置データ304aは、人位置検出プログラム302bに従って検出または取得される接触動作の目標となる対象者の所定部位の3次元位置のデータである。イベントデータ304bは、イベントデータ取得プログラム302dによって取得されるデータであって、イベントの発生タイミングのデータおよびイベントにおいて表出すべき表出用の感情のデータを含む。算出条件データ304cは、ロボット12が表出可能な感情毎に予め設定され、イベントの発生タイミングに基づいて開始タイミングを算出するための算出条件のデータである。動作パターンデータ304dは、ロボット12が表出可能な感情のそれぞれに対応して用意されている動作パターンのデータである。
Various data are stored in the
図示は省略するが、データ記憶領域304には、マイク70から入力される音声データ、音声認識のために必要な辞書などのデータなども記憶される。また、データ記憶領域304には、ロボット12の制御に必要なコミュニケーション行動を実行するための制御情報などの他のデータが記憶され、さらに、CPU50の動作に必要な、タイマ、レジスタ、フラグなどが設けられる。
Although not shown, the
図11は図5に示すCPU50のロボット制御処理の一例を示すフロー図である。このロボット制御処理は、コンテンツ提示装置16によってコンテンツの再生されたことに合わせて開始される。図11に示すように、CPU50は、ロボット制御処理を開始すると、ステップS1で、イベントデータ取得プログラム302dに従って、コンテンツ提示装置16から送信されたイベントデータを取得(受信)して、ステップS3で、ステップS1で取得したイベントデータに含まれる次(直後)のイベントの発生タイミングおよび表出用の感情を取得する。
FIG. 11 is a flowchart showing an example of robot control processing by the
続いて、ステップS5で、動作パターン設定プログラム302gに従って、RAM54のデータ記憶領域304に記憶された動作パターンデータ304dを読み出して、ロボット12が表出可能な感情のそれぞれに対応して用意されている動作パターンの中から、表出用の感情に応じた表出用の動作パターンを設定する。
Subsequently, in step S5, according to the motion
続いて、ステップS7で、算出条件設定プログラム302eに従って、RAM54のデータ記憶領域304に記憶された算出条件データ304cを読み出して、ロボット12が表出可能な感情毎に予め設定された算出条件の中から、表出用の感情に応じた表出用の算出条件を設定する。
Next, in step S7, according to the calculation
続いて、ステップS9で、タイミング算出プログラム302fに従って、イベントの発生タイミングを基準として、表出用の算出条件を用いて開始タイミングを算出し、ステップS11で、ステップS9で算出された開始タイミングに到達したかどうかを判断する。
Subsequently, in step S9, the start timing is calculated using the expression calculation condition based on the event occurrence timing according to the
ステップS11で“NO”であれば、つまり、開始タイミングに到達していないと判断した場合は、同じステップS11に戻る。一方、ステップS11で“YES”であれば、つまり、開始タイミングに到達したと判断した場合は、ステップS13で、表出用の動作パターンに従って接触動作(対象者にタッチする動作)を実行する。ここでは、アクチュエータ制御回路58に指令値を与え、各アクチュエータA1-Anの動作を制御して、接触動作を行う目標となる対象者の所定部位に手部38が触れるように、手部38を変位させる。
If "NO" in step S11, that is, if it is determined that the start timing has not been reached, the process returns to step S11. On the other hand, if "YES" in step S11, that is, if it is determined that the start timing has been reached, then in step S13, a contact motion (a motion of touching the target person) is performed according to the motion pattern for expression. Here, a command value is given to the
続いて、ステップS15で、接触動作を終了するかどうかを判断する。ステップS15で“NO”であれば、つまり、接触動作を終了しないと判断した場合は、ステップS13に戻る。一方、ステップS15で“YES”であれば、つまり、接触動作を終了すると判断した場合は、ステップS17で、ステップS1で取得したイベントデータに基づいて、次のイベントが存在するかどうかを判断する。 Subsequently, in step S15, it is determined whether or not to end the contact operation. If "NO" in step S15, that is, if it is determined that the contact operation is not to be completed, the process returns to step S13. On the other hand, if "YES" in step S15, that is, if it is determined that the contact motion is to be ended, it is determined in step S17 whether or not the next event exists based on the event data acquired in step S1. .
ステップS17で“YES”であれば、つまり、次のイベントが存在すると判断した場合は、ステップS3に戻る。一方、ステップS17で“NO”であれば、つまり、次のイベントが存在しないと判断した場合は、ロボット制御処理を終了する。 If "YES" in step S17, that is, if it is determined that the next event exists, the process returns to step S3. On the other hand, if "NO" in step S17, that is, if it is determined that the next event does not exist, the robot control process ends.
この第1実施例では、複数の感情のそれぞれに対応して、人が感情を表出する際の動きを測定する実験結果に基づいて予め設定される複数の算出条件を用意しておき、所定の感情を表出するイベントが発生する際に、表出用の感情に対応する表出用の算出条件を用いて、接触動作の開始タイミングを算出し、算出された開始タイミングに到達したときに、接触動作を行う。このため、接触動作を通じてロボットが感情を自然に表出することができる。 In this first embodiment, a plurality of calculation conditions are prepared in advance based on the results of experiments that measure movements when people express emotions, corresponding to each of a plurality of emotions. When an event that expresses an emotion occurs, the start timing of the contact action is calculated using the expression calculation conditions corresponding to the expression emotion, and when the calculated start timing is reached, , performs a contact action. Therefore, the robot can naturally express emotions through contact movements.
なお、上述の各実施例で示した具体的な数値は単なる例示であり、限定される必要は無く、実際の製品および製品が適用される環境などに応じて適宜変更可能である。 Note that the specific numerical values shown in each of the above-mentioned examples are merely examples, and there is no need to limit them, and they can be changed as appropriate depending on the actual product and the environment in which the product is applied.
また、上述の実施例で示したロボット制御処理は、同じ結果が得られるのであれば、各ステップが処理される順番を変更してもよい。 Further, in the robot control processing shown in the above-described embodiment, the order in which each step is processed may be changed as long as the same result is obtained.
さらに、ロボット12および位置検出装置18が一体的に構成されていてもよい。この場合、ロボット12の眼カメラ66が位置検出装置18の距離画像センサとして機能する。
Furthermore, the
さらにまた、ロボット12は、対象者と対面で座った状態で、コンテンツを対象者と共に視聴しながら、コミュニケーション行動を行うようにしても良い。
Furthermore, the
また、上述の実施例では、ロボット12は対象者の手(右手)に触れる接触動作を行うことによって感情を表出するようにしたが、対象者の手以外の部位、たとえば、腕、胴体等に触れる接触動作を行うことによって感情を表出するようにしてもよい。
In the above-described embodiment, the
10 …システム
12 …アンドロイドロボット
14 …ネットワーク
16 …コンテンツ提示装置
18 …位置検出装置
26 …肩部
30 …上肢部
36 …手首部
38 …手部
40 …指部
50 …CPU
54 …RAM
56 …通信モジュール
58 …アクチュエータ制御回路
10...
54...RAM
56...
Claims (6)
前記コミュニケーションロボットが表出可能な複数の感情に含まれる所定の感情を表出するイベントが発生する発生タイミングを取得する第1取得手段、
前記イベントにおいて表出する表出用の感情を取得する第2取得手段、
前記複数の感情のそれぞれに対応して予め設定される、前記接触動作の開始タイミングを算出するための複数の算出条件の中から、前記第2取得手段で取得された前記表出用の感情に対応する表出用の算出条件を設定する第1設定手段、
前記第1取得手段で取得された前記発生タイミングを基準として、前記第1設定手段で設定された前記表出用の算出条件を用いて、前記開始タイミングを算出する算出手段、および
前記算出手段で算出された前記開始タイミングに到達したときに、前記手部を変位させて、前記接触動作を行う動作制御手段を備える、コミュニケーションロボット。 A humanoid communication robot that includes at least a head, a torso, an arm, and a hand, and performs a contact action of touching a nearby person with the hand,
first acquisition means for acquiring an occurrence timing at which an event for expressing a predetermined emotion included in a plurality of emotions that can be expressed by the communication robot occurs;
a second acquisition means for acquiring emotions for expression expressed in the event;
The emotion for expression acquired by the second acquisition means is selected from among a plurality of calculation conditions for calculating the start timing of the contact motion, which are preset corresponding to each of the plurality of emotions. first setting means for setting calculation conditions for corresponding expression;
a calculation means for calculating the start timing using the expression calculation condition set by the first setting means, based on the occurrence timing acquired by the first acquisition means; A communication robot, comprising a motion control means for displacing the hand and performing the contact motion when the calculated start timing is reached.
前記算出手段は、前記表出用の算出条件に含まれる平均および分散をパラメータとする確率密度関数に従う乱数に応じて前記開始タイミングを算出する、請求項1記載のコミュニケーションロボット。 Each of the plurality of calculation conditions includes an average and a variance that are preset according to each of the plurality of emotions,
2. The communication robot according to claim 1, wherein the calculation means calculates the start timing according to a random number according to a probability density function whose parameters are an average and a variance included in the expression calculation conditions.
前記イベントは、前記コンテンツのクライマックスを含む、請求項1または2記載のコミュニケーションロボット。 The communication robot performs the contact action when viewing visually and/or audibly recognizable content alongside a nearby person;
The communication robot according to claim 1 or 2, wherein the event includes a climax of the content.
前記複数の動作パターンの中から、前記第2取得手段で取得された前記表出用の感情に対応する表出用の動作パターンを設定する第2設定手段をさらに備え、
前記動作制御手段は、前記開始タイミングに到達したときに、前記表出用の動作パターンに従って前記接触動作を行う、請求項1から3までのいずれかに記載のコミュニケーションロボット。 The contact motion includes a plurality of motion patterns corresponding to each of the plurality of emotions,
further comprising a second setting means for setting an expression movement pattern corresponding to the expression emotion acquired by the second acquisition means from among the plurality of movement patterns;
4. The communication robot according to claim 1, wherein the motion control means performs the contact motion according to the expression motion pattern when the start timing is reached.
前記コミュニケーションロボットが表出可能な複数の感情に含まれる所定の感情を表出するイベントが発生する発生タイミングを取得する第1取得手段、
前記イベントにおいて表出する表出用の感情を取得する第2取得手段、
前記複数の感情のそれぞれに対応して予め設定される、前記接触動作の開始タイミングを算出するための複数の算出条件の中から、前記第2取得手段で取得された前記表出用の感情に対応する表出用の算出条件を設定する第1設定手段、
前記第1取得手段で取得された前記発生タイミングを基準として、前記第1設定手段で設定された前記表出用の算出条件を用いて、前記開始タイミングを算出する算出手段、および
前記算出手段で算出された前記開始タイミングに到達したときに、前記手部を変位させて、前記接触動作を行う動作制御手段として機能させる、制御プログラム。 A control program executed by a computer of a humanoid communication robot that includes at least a head, a torso, an arm, and a hand, and that performs a contact action of touching a nearby person with the hand, the computer controlling the computer. ,
first acquisition means for acquiring an occurrence timing at which an event for expressing a predetermined emotion included in a plurality of emotions that can be expressed by the communication robot occurs;
a second acquisition means for acquiring emotions for expression expressed in the event;
The emotion for expression acquired by the second acquisition means is selected from among a plurality of calculation conditions for calculating the start timing of the contact motion, which are preset corresponding to each of the plurality of emotions. first setting means for setting calculation conditions for corresponding expression;
a calculation means for calculating the start timing using the expression calculation condition set by the first setting means, based on the occurrence timing acquired by the first acquisition means; A control program that, when the calculated start timing is reached, causes the hand to function as a motion control means for performing the contact motion by displacing the hand.
前記コミュニケーションロボットが表出可能な複数の感情に含まれる所定の感情を表出するイベントが発生する発生タイミングを取得する第1取得ステップ、
前記イベントにおいて表出する表出用の感情を取得する第2取得ステップ、
前記複数の感情のそれぞれに対応して予め設定される、前記接触動作の開始タイミングを算出するための複数の算出条件の中から、前記第2取得ステップで取得された前記表出用の感情に対応する表出用の算出条件を設定する第1設定ステップ、
前記第1取得ステップで取得された前記発生タイミングを基準として、前記第1設定ステップで設定された前記表出用の算出条件を用いて、前記開始タイミングを算出する算出ステップ、および
前記算出ステップで算出された前記開始タイミングに到達したときに、前記手部を変位させて、前記接触動作を行う動作制御ステップを含む、制御方法。 A method for controlling a humanoid communication robot that includes at least a head, a body, an arm, and a hand, and performs a contact action of touching a nearby person with the hand, the method comprising:
a first acquisition step of acquiring an occurrence timing at which an event for expressing a predetermined emotion included in a plurality of emotions that can be expressed by the communication robot occurs;
a second acquisition step of acquiring emotions for expression to be expressed in the event;
The emotion for expression acquired in the second acquisition step is selected from among a plurality of calculation conditions for calculating the start timing of the contact motion, which are preset corresponding to each of the plurality of emotions. a first setting step of setting calculation conditions for the corresponding expression;
a calculation step of calculating the start timing using the expression calculation condition set in the first setting step based on the occurrence timing obtained in the first obtaining step; A control method including a motion control step of displacing the hand and performing the contact motion when the calculated start timing is reached.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020027041A JP7399740B2 (en) | 2020-02-20 | 2020-02-20 | Communication robot, control program and control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020027041A JP7399740B2 (en) | 2020-02-20 | 2020-02-20 | Communication robot, control program and control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021129814A JP2021129814A (en) | 2021-09-09 |
JP7399740B2 true JP7399740B2 (en) | 2023-12-18 |
Family
ID=77551528
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020027041A Active JP7399740B2 (en) | 2020-02-20 | 2020-02-20 | Communication robot, control program and control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7399740B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110118870A1 (en) | 2007-09-06 | 2011-05-19 | Olympus Corporation | Robot control system, robot, program, and information storage medium |
JP2011115936A (en) | 2009-11-04 | 2011-06-16 | Advanced Telecommunication Research Institute International | Robot with tactile sense presentation |
US20180036887A1 (en) | 2016-08-03 | 2018-02-08 | Samsung Electronics Co., Ltd. | Robot apparatus and method for expressing emotions thereof |
JP2018120618A (en) | 2016-06-14 | 2018-08-02 | Groove X株式会社 | Autonomously behaving robot seeking coolness |
JP2019136797A (en) | 2018-02-07 | 2019-08-22 | トヨタ自動車株式会社 | Communication device and control program therefor |
-
2020
- 2020-02-20 JP JP2020027041A patent/JP7399740B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110118870A1 (en) | 2007-09-06 | 2011-05-19 | Olympus Corporation | Robot control system, robot, program, and information storage medium |
JP2011115936A (en) | 2009-11-04 | 2011-06-16 | Advanced Telecommunication Research Institute International | Robot with tactile sense presentation |
JP2018120618A (en) | 2016-06-14 | 2018-08-02 | Groove X株式会社 | Autonomously behaving robot seeking coolness |
US20180036887A1 (en) | 2016-08-03 | 2018-02-08 | Samsung Electronics Co., Ltd. | Robot apparatus and method for expressing emotions thereof |
JP2019136797A (en) | 2018-02-07 | 2019-08-22 | トヨタ自動車株式会社 | Communication device and control program therefor |
Non-Patent Citations (1)
Title |
---|
岡村 栄里奈、外1名,"人型ロボットのハイタッチ動作の検討",「第34回日本ロボット学会学術講演会予稿集DVD-ROM 2016年」,日本,一般社団法人 日本ロボット学会,2016年09月07日,P1742-P1745(RSJ2016AC3W3-07) |
Also Published As
Publication number | Publication date |
---|---|
JP2021129814A (en) | 2021-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7378553B2 (en) | Periocular and audio synthesis of complete facial images | |
US9691296B2 (en) | Methods and apparatus for conversation coach | |
CN108886532B (en) | Apparatus and method for operating personal agent | |
JP6391465B2 (en) | Wearable terminal device and program | |
TWI661363B (en) | Smart robot and human-computer interaction method | |
TWI766499B (en) | Method and apparatus for driving interactive object, device and storage medium | |
JP7400923B2 (en) | Information processing device and information processing method | |
JP6751536B2 (en) | Equipment, robots, methods, and programs | |
US20080124690A1 (en) | Training system using an interactive prompt character | |
JP2020039029A (en) | Video distribution system, video distribution method, and video distribution program | |
US10350761B2 (en) | Communication device | |
CN109116981A (en) | A kind of mixed reality interactive system of passive touch feedback | |
JP7416903B2 (en) | Video distribution system, video distribution method, and video distribution program | |
KR20190015332A (en) | Devices affecting virtual objects in Augmented Reality | |
TW202117498A (en) | Avatar facial expression generating system and method of avatar facial expression generation | |
JP6798258B2 (en) | Generation program, generation device, control program, control method, robot device and call system | |
JP7399740B2 (en) | Communication robot, control program and control method | |
JP2020091909A (en) | Expression control program, recording medium, expression control device and expression control method | |
US20200250498A1 (en) | Information processing apparatus, information processing method, and program | |
JP6977463B2 (en) | Communication equipment, communication systems and programs | |
JP7156300B2 (en) | Information processing device, information processing method, and program | |
Heisler et al. | Making an android robot head talk | |
JP7442341B2 (en) | Robot, robot control program and robot control method | |
JP7133840B2 (en) | ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD | |
Haider et al. | Improving Response Time of Active Speaker Detection Using Visual Prosody Information Prior to Articulation. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20200225 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230328 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231206 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7399740 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |