JP7399740B2 - Communication robot, control program and control method - Google Patents

Communication robot, control program and control method Download PDF

Info

Publication number
JP7399740B2
JP7399740B2 JP2020027041A JP2020027041A JP7399740B2 JP 7399740 B2 JP7399740 B2 JP 7399740B2 JP 2020027041 A JP2020027041 A JP 2020027041A JP 2020027041 A JP2020027041 A JP 2020027041A JP 7399740 B2 JP7399740 B2 JP 7399740B2
Authority
JP
Japan
Prior art keywords
expression
robot
event
motion
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020027041A
Other languages
Japanese (ja)
Other versions
JP2021129814A (en
Inventor
熙乾 鄭
昌裕 塩見
隆史 港
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2020027041A priority Critical patent/JP7399740B2/en
Publication of JP2021129814A publication Critical patent/JP2021129814A/en
Application granted granted Critical
Publication of JP7399740B2 publication Critical patent/JP7399740B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Description

特許法第30条第2項適用 2019年10月11日掲載 https://ieeexplore.ieee.org/document/8865356 〔刊行物等〕 Humanoids2019 2019年10月15日~17日開催 〔刊行物等〕 第37回日本ロボット学会学術講演会(RSJ2019) 2019年9月3日~7日開催Application of Article 30, Paragraph 2 of the Patent Act Posted on October 11, 2019 https://ieeexplore. ieee. org/document/8865356 [Publications, etc.] Humanoids2019 Held from October 15th to 17th, 2019 [Publications, etc.] 37th Academic Conference of the Robotics Society of Japan (RSJ2019) Held from September 3rd to 7th, 2019

この発明はコミュニケーションロボット、制御プログラムおよび制御方法に関し、特にたとえば、人に触れる接触動作を含むコミュニケーション行動を取る、コミュニケーションロボット、制御プログラムおよび制御方法に関する。 The present invention relates to a communication robot, a control program, and a control method, and particularly relates to a communication robot, a control program, and a control method that take communication actions including contact motions that touch people.

本件発明者等は、非特許文献1に記載されるように、ロボットの抱擁中の音声刺激と視覚刺激が、人の知覚印象とストレス緩衝効果をどのように変化させるかについての実験を行い、この実験結果によって、人とロボットとの抱擁の相互作用によりストレス軽減効効果を人にもたらすことが分かった。 As described in Non-Patent Document 1, the present inventors conducted an experiment on how audio stimulation and visual stimulation during a robot's embrace change a person's perceptual impression and stress buffering effect, The results of this experiment revealed that the hugging interaction between humans and robots has a stress-reducing effect on humans.

Masahiro Shiomi, Norihiro Hagita, "Audio-Visual Stimuli Change not Only Robot’s Hug Impressions but Also Its Stress-Buffering Effects" International Journal of Social Robotics, 2019.Masahiro Shiomi, Norihiro Hagita, “Audio-Visual Stimuli Change not Only Robot’s Hug Impressions but Also Its Stress-Buffering Effects” International Journal of Social Robotics, 2019.

背景技術では、ロボットが人に触れることによる触覚刺激でロボット自身の印象を変化させること、および、触覚刺激によってストレス軽減効効果を人にもたらすことが期待できることがわかったが、触覚刺激を通じてロボットがどのように感情を自然に表出するかについては考慮されていなかった。 In the background technology, it was found that the impression of the robot itself can be changed by tactile stimulation when the robot touches a person, and that tactile stimulation can be expected to have a stress-reducing effect on people. No consideration was given to how to express emotions naturally.

それゆえに、この発明の主たる目的は、新規な、コミュニケーションロボット、制御プログラムおよび制御方法を提供することである。 Therefore, the main object of the present invention is to provide a novel communication robot, control program, and control method.

この発明の他の目的は、コミュニケーション対象者に対して、接触動作を通じてロボットが感情を自然に表出することができる、コミュニケーションロボット、制御プログラムおよび制御方法を提供することである。 Another object of the present invention is to provide a communication robot, a control program, and a control method that allow the robot to naturally express emotions to a person to be communicated with through contact movements.

第1の発明は、少なくとも頭部、胴体部、腕部および手部を含み、近くに存在する人に手部によって触れる接触動作を行う人型のコミュニケーションロボットであって、コミュニケーションロボットが表出可能な複数の感情に含まれる所定の感情を表出するイベントが発生する発生タイミングを取得する第1取得手段、イベントにおいて表出する表出用の感情を取得する第2取得手段、複数の感情のそれぞれに対応して予め設定される、接触動作の開始タイミングを算出するための複数の算出条件の中から、第2取得手段で取得された表出用の感情に対応する表出用の算出条件を設定する第1設定手段、第1取得手段で取得された発生タイミングを基準として、第1設定手段で設定された表出用の算出条件に応じて、開始タイミングを算出する算出手段、および算出手段で算出された開始タイミングに到達したときに、手部を変位させて、接触動作を行う動作制御手段を備える。 A first invention is a humanoid communication robot that includes at least a head, a torso, an arm, and a hand, and that performs a contact action of touching a nearby person with the hand, the communication robot being able to express itself. a first acquisition means for acquiring an occurrence timing at which an event expressing a predetermined emotion included in a plurality of emotions occurs; a second acquisition means for acquiring an emotion for expression expressed in the event; A calculation condition for expression corresponding to the emotion for expression acquired by the second acquisition means from among a plurality of calculation conditions for calculating the start timing of the contact motion, which are set in advance corresponding to each of them. a first setting means for setting a start timing, a calculation means for calculating a start timing according to a calculation condition for expression set by the first setting means, based on the occurrence timing acquired by the first acquisition means; A motion control means is provided for displacing the hand and performing a contact operation when the start timing calculated by the means is reached.

第1の発明では、ロボット(12)は、少なくとも頭部(24)、胴体部(20)、腕部(30)および手部(38)を含み、近くに存在する人に手部によって触れる接触動作を行う。第1取得手段(50、302d、S3)は、コミュニケーションロボットが表出可能な複数の感情に含まれる所定の感情を表出するイベントが発生する発生タイミングを取得する。第2取得手段(50、302d、S3)は、イベントにおいて表出する表出用の感情を取得する。第1設定手段(50、302e、S7)は、複数の感情のそれぞれに対応して、人が感情を表出する際の動きを測定する実験結果に基づいて予め設定される、接触動作の開始タイミングを算出するための複数の算出条件の中から、第2取得手段で取得された表出用の感情に対応する表出用の算出条件を設定する。算出手段(50、302f、S9)は、第1取得手段で取得された発生タイミングを基準として、第1設定手段で設定された表出用の算出条件を用いて、開始タイミングを算出する。動作制御手段(50、302c、S13)は、算出手段で算出された開始タイミングに到達したときに、手部を変位させて、接触動作を行う。 In the first invention, the robot (12) includes at least a head (24), a body part (20), an arm part (30), and a hand part (38), and the robot (12) makes contact with a nearby person by the hand part. perform an action. The first acquisition means (50, 302d, S3) acquires the timing of occurrence of an event in which the communication robot expresses a predetermined emotion included in a plurality of emotions that can be expressed. The second acquisition means (50, 302d, S3) acquires emotions to be expressed at the event. The first setting means (50, 302e, S7) starts a contact motion, which is preset based on experimental results of measuring movements when a person expresses an emotion, corresponding to each of a plurality of emotions. A calculation condition for expression corresponding to the emotion for expression acquired by the second acquisition means is set from among the plurality of calculation conditions for calculating the timing. The calculation means (50, 302f, S9) calculates the start timing using the expression calculation conditions set by the first setting means, using the occurrence timing acquired by the first acquisition means as a reference. The motion control means (50, 302c, S13) displaces the hand and performs the contact motion when the start timing calculated by the calculation means is reached.

第1の発明では、複数の感情のそれぞれに対応して、人が感情を表出する際の動きを測定する実験結果に基づいて予め設定される複数の算出条件を用意しておき、所定の感情を表出するイベントが発生する際に、表出用の感情に対応する表出用の算出条件を用いて、接触動作の開始タイミングを算出し、算出された開始タイミングに到達したときに、接触動作を行う。このため、接触動作を通じてロボットが感情を自然に表出することができる。 In the first invention, a plurality of calculation conditions are prepared in advance based on experimental results of measuring movements when a person expresses an emotion, corresponding to each of a plurality of emotions, and a predetermined When an event that expresses an emotion occurs, the start timing of the contact action is calculated using the expression calculation conditions corresponding to the expression emotion, and when the calculated start timing is reached, Perform a contact action. Therefore, the robot can naturally express emotions through contact movements.

第2の発明は、第1の発明に従属し、複数の算出条件のそれぞれは、複数の感情のそれぞれに応じて、人が感情を表出する際の動きを測定する実験結果に基づいて予め設定される平均および分散を含み、算出手段は、表出用の算出条件に含まれる平均および分散をパラメータとする確率密度関数に従う乱数に応じて開始タイミングを算出する、コミュニケーションロボットである。 A second invention is dependent on the first invention, and each of the plurality of calculation conditions is determined in advance based on the results of an experiment in which movements when a person expresses an emotion are measured according to each of a plurality of emotions. The calculation means is a communication robot that calculates the start timing according to a random number according to a probability density function including the average and variance included in the expression calculation conditions as parameters.

第2の発明によれば、人が感情を表出する際の動きを測定する実験結果に基づいて予め設定される平均および分散をパラメータとする確率密度関数に従う乱数に応じて開始タイミングが算出されるので、接触動作を通じてロボットが感情をより自然に表出することができる。 According to the second invention, the start timing is calculated according to a random number according to a probability density function with parameters of an average and variance that are preset based on experimental results of measuring movements when a person expresses emotions. This allows the robot to express emotions more naturally through touch movements.

第3の発明は、第1または第2の発明に従属し、コミュニケーションロボットは、視覚的および/または聴覚的に認識可能なコンテンツを近くに存在する人と並んで視聴する際に接触動作を行い、イベントは、コンテンツのクライマックスを含む、コミュニケーションロボットである。 A third invention is dependent on the first or second invention, in which a communication robot performs a contact action when viewing visually and/or audibly recognizable content alongside a nearby person. , an event is a communication robot that includes the climax of the content.

第3の発明によれば、接触動作を通じてロボットが感情を自然に表出することができる。 According to the third invention, the robot can naturally express emotions through contact motion.

第4の発明は、第1から第3までのいずれかの発明に従属し、接触動作は、複数の感情のそれぞれに対応して、人が感情を表出する際の動きを測定する実験結果に基づいた複数の動作パターンを含み、複数の動作パターンの中から、第2取得手段で取得された表出用の感情に対応する表出用の動作パターンを設定する第2設定手段をさらに備え、動作制御手段は、開始タイミングに到達したときに、表出用の動作パターンに従って接触動作を行う、コミュニケーションロボットである。 A fourth invention is dependent on any one of the first to third inventions, and the contact movement is an experimental result of measuring movements when a person expresses an emotion in response to each of a plurality of emotions. further comprising a second setting means for setting a motion pattern for expression corresponding to the emotion for expression acquired by the second acquisition means from among the plurality of motion patterns based on the second acquisition means. , the motion control means is a communication robot that performs a contact motion according to a motion pattern for expression when the start timing is reached.

第4の発明によれば、人が感情を表出する際の動きを測定する実験結果に基づいた複数の動作パターンを用意しておき、表出用の感情に対応する表出用の動作パターンに従って接触動作を行うので、接触動作を通じてロボットが感情をより自然に表出することができる。 According to the fourth invention, a plurality of motion patterns are prepared based on the results of an experiment to measure movements when a person expresses an emotion, and a motion pattern for expression corresponding to the emotion to be expressed is prepared. Since the robot performs contact actions according to the following, it is possible for the robot to express emotions more naturally through contact actions.

第5の発明は、少なくとも頭部、胴体部、腕部および手部を含み、近くに存在する人に手部によって触れる接触動作を行う人型のコミュニケーションロボットのコンピュータによって実行される制御プログラムであって、コンピュータを、コミュニケーションロボットが表出可能な複数の感情に含まれる所定の感情を表出するイベントが発生する発生タイミングを取得する第1取得手段、イベントにおいて表出する表出用の感情を取得する第2取得手段、複数の感情のそれぞれに対応して予め設定される、接触動作の開始タイミングを算出するための複数の算出条件の中から、第2取得手段で取得された表出用の感情に対応する表出用の算出条件を設定する第1設定手段、第1取得手段で取得された発生タイミングを基準として、第1設定手段で設定された表出用の算出条件を用いて、開始タイミングを算出する算出手段、および算出手段で算出された開始タイミングに到達したときに、手部を変位させて、接触動作を行う動作制御手段として機能させる制御プログラムである。 A fifth invention is a control program executed by a computer of a humanoid communication robot that includes at least a head, a torso, an arm, and a hand, and performs a contact action of touching a nearby person with the hand. a first acquisition means for acquiring an occurrence timing at which an event to express a predetermined emotion included in a plurality of emotions that can be expressed by the communication robot occurs; The second acquisition means to acquire the expression information acquired by the second acquisition means from among the plurality of calculation conditions for calculating the start timing of the contact motion, which are preset corresponding to each of the plurality of emotions. a first setting means for setting a calculation condition for expression corresponding to the emotion; and a first setting means for setting a calculation condition for expression corresponding to the emotion; , a calculation means for calculating a start timing, and a control program that displaces a hand when the start timing calculated by the calculation means is reached, and functions as an operation control means for performing a contact operation.

第6の発明は、少なくとも頭部、胴体部、腕部および手部を含み、近くに存在する人に手部によって触れる接触動作を行う人型のコミュニケーションロボットの制御方法であって、コミュニケーションロボットが表出可能な複数の感情に含まれる所定の感情を表出するイベントが発生する発生タイミングを取得する第1取得ステップ、イベントにおいて表出する表出用の感情を取得する第2取得ステップ、複数の感情のそれぞれに対応して予め設定される、接触動作の開始タイミングを算出するための複数の算出条件の中から、第2取得ステップで取得された表出用の感情に対応する表出用の算出条件を設定する第1設定ステップ、第1取得ステップで取得された発生タイミングを基準として、第1設定ステップで設定された表出用の算出条件を用いて、開始タイミングを算出する算出ステップ、および算出ステップで算出された開始タイミングに到達したときに、手部を変位させて、接触動作を行う動作制御ステップを含む制御方法である。 A sixth invention is a method for controlling a humanoid communication robot that includes at least a head, a torso, an arm, and a hand, and performs a contact action of touching a nearby person with the hand, wherein the communication robot a first acquisition step of acquiring an occurrence timing at which an event to express a predetermined emotion included in a plurality of emotions that can be expressed; a second acquisition step of acquiring an emotion for expression to be expressed in the event; Out of a plurality of calculation conditions for calculating the start timing of the contact motion, which are preset corresponding to each of the emotions of a first setting step for setting calculation conditions; a calculation step for calculating a start timing using the expression calculation conditions set in the first setting step, based on the occurrence timing obtained in the first acquisition step; , and a motion control step of displacing the hand and performing a contact motion when the start timing calculated in the calculation step is reached.

第5および第6の発明によれば、第1の発明と同様の効果が期待できる。 According to the fifth and sixth inventions, the same effects as the first invention can be expected.

この発明によれば、コミュニケーション対象者に対して、接触動作を通じてロボットが感情を自然に表出することができる。 According to this invention, the robot can naturally express emotions to the person to be communicated with through contact motion.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above objects, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1はこの発明の一実施例のシステムを示す図である。FIG. 1 is a diagram showing a system according to an embodiment of the present invention. 図2は図1に示すアンドロイドロボットの外観構成を示す図である。FIG. 2 is a diagram showing the external configuration of the android robot shown in FIG. 1. 図3(A)は図1に示すアンドロイドロボットの瞼および眼球を動かすアクチュエータを説明するための図である。FIG. 3(A) is a diagram for explaining actuators that move the eyelids and eyeballs of the android robot shown in FIG. 1. 図3(B)は図1に示すアンドロイドロボットの額、眉間および口角を動かすアクチュエータを説明するための図である。FIG. 3(B) is a diagram for explaining actuators that move the forehead, between the eyebrows, and the corners of the mouth of the android robot shown in FIG. 図3(C)は図1に示すアンドロイドロボットの唇を動かすアクチュエータを説明するための図である。FIG. 3C is a diagram for explaining an actuator that moves the lips of the android robot shown in FIG. 図4は図1に示すアンドロイドロボットの頭部、肩部、腰部、腕部、手部を動かすアクチュエータを説明するための図である。FIG. 4 is a diagram for explaining actuators that move the head, shoulders, waist, arms, and hands of the android robot shown in FIG. 図5は図1に示すアンドロイドロボットの電気的な構成を示すブロック図である。FIG. 5 is a block diagram showing the electrical configuration of the android robot shown in FIG. 1. 図6は一実施例における接触動作のために人とアンドロイドロボットとが並んでいる状態を示す図である。FIG. 6 is a diagram showing a state in which a person and an android robot are lined up for a contact operation in one embodiment. 図7(A)は感情を表出していない状態のアンドロイドロボットの手の状態を示す図である。FIG. 7(A) is a diagram showing the state of the android robot's hand in a state where no emotion is expressed. 図7(B)は手部で対象者に接触することによって感情を表出している状態のアンドロイドロボットの手の状態を示す図である。FIG. 7(B) is a diagram showing the state of an android robot's hand in a state where it is expressing emotion by touching a target person with its hand. 図7(C)は指部で対象者に接触することによって感情を表出している状態のアンドロイドロボットの手の状態を示す図である。FIG. 7(C) is a diagram showing the state of the android robot's hand in a state where it is expressing emotion by touching the target person with its fingers. 図8は或るコンテンツにおけるクライマックスの時間と感情のカテゴリの対応の一例を示す表である。FIG. 8 is a table showing an example of the correspondence between climax time and emotion category in a certain content. 図9は感情のカテゴリに対応する、接触動作の種類および算出条件の一例を示す表である。FIG. 9 is a table showing examples of types of contact actions and calculation conditions corresponding to emotion categories. 図10はアンドロイドロボットのRAMのメモリマップの一例を示す図である。FIG. 10 is a diagram showing an example of a memory map of the RAM of the android robot. 図11はアンドロイドロボットのCPUのロボット制御処理の一部を示すフロー図である。FIG. 11 is a flow diagram showing part of the robot control processing of the CPU of the android robot.

図1を参照して、この発明の一実施例のアンドロイドロボット制御システム(以下、単に「システム」ということがある。)10は、アンドロイドロボット(以下、単に「ロボット」という)12を含む。ロボット12は、人間に酷似した姿形(外観など)を有する人型ロボットであり(図2~図4参照)、人間に酷似した人間らしい動作(振り、振る舞い、発話)を行う。また、詳細は後述するが、本実施例のロボット12は、ロボット12と対話(コミュニケーション)するコミュニケーション対象となる人(対象者)に触れる接触動作を含むコミュニケーション行動(または動作)を行う。 Referring to FIG. 1, an android robot control system (hereinafter sometimes simply referred to as "system") 10 according to an embodiment of the present invention includes an android robot (hereinafter simply referred to as "robot") 12. The robot 12 is a humanoid robot that has a figure (external appearance, etc.) that closely resembles a human (see FIGS. 2 to 4), and performs human-like movements (waving, behavior, speech) that closely resemble a human. Furthermore, although the details will be described later, the robot 12 of this embodiment performs a communication action (or action) including a contact action of touching a person (target person) who is a communication target with whom the robot 12 interacts (communicates).

ロボット12は、LAN(Local Area Network)、インターネットおよび電話通信回線のようなネットワーク14を介してコンテンツ提示装置16および位置検出装置18に接続される。ロボット12は、ネットワーク14を介さずに、有線または無線(たとえば赤外線方式、WiFi(登録商標)方式またはブルートゥース(Bluetooth;登録商標)方式)で、コンテンツ提示装置16、位置検出装置18および他のコンピュータ等と直接通信することもできる。 The robot 12 is connected to a content presentation device 16 and a position detection device 18 via a network 14 such as a LAN (Local Area Network), the Internet, and a telephone communication line. The robot 12 communicates with the content presentation device 16, the position detection device 18, and other computers by wire or wirelessly (for example, infrared, WiFi (registered trademark), or Bluetooth (registered trademark)) without going through the network 14. You can also communicate directly with others.

コンテンツ提示装置16は、人が視覚的および/または聴覚的に認識可能なコンテンツを再生する。この実施例では、コンテンツは、映像または音(音声)或いはその両方(以下、簡単に「映像・音」ということがある。)を含む。 The content presentation device 16 reproduces content that can be recognized visually and/or audibly by a person. In this embodiment, the content includes video, sound (audio), or both (hereinafter sometimes simply referred to as "video/sound").

コンテンツ提示装置16は、再生装置、ディスプレイおよびスピーカを含む。ディスプレイおよびスピーカの各々は、再生装置に接続される。再生装置は、コンテンツを再生して映像データまたは音データ或いはその両方のデータ(映像・音データ)を出力する装置である。 Content presentation device 16 includes a playback device, a display, and a speaker. A display and a speaker are each connected to a playback device. A playback device is a device that plays back content and outputs video data, audio data, or both (video/sound data).

再生装置としては、記憶媒体または自装置内の記憶部に記憶されたコンテンツを再生する装置を用いることができる。この種の装置としては、光ディスクプレイヤ、ビデオデッキ、カセットデッキ、携帯型音楽プレイヤ、スマートフォン、フィーチャーフォン、デスクトップPC、ノート(ラップトップ)PCおよびタブレットPC等がある。また、再生装置としては、ネットワーク14等を介して外部から転送されるコンテンツを再生(ストリーミング再生)する装置(たとえばスマートフォンまたはPC等)、テレビジョン信号またはラジオ信号を受信してコンテンツを再生する装置(たとえばテレビジョン受信機またはラジオ受信機)等を用いることもできる。 As the playback device, a device that plays back content stored in a storage medium or a storage section within the device itself can be used. Devices of this type include optical disc players, video decks, cassette decks, portable music players, smart phones, feature phones, desktop PCs, notebook PCs, tablet PCs, and the like. In addition, the playback device includes a device (for example, a smartphone or a PC) that plays back (streaming playback) content transferred from the outside via the network 14, etc., and a device that plays content by receiving a television signal or radio signal. (for example, a television receiver or a radio receiver), etc. can also be used.

ディスプレイとしては、たとえばLCD(Liquid Crystal Display)またはEL(Electro-Luminescence)ディスプレイなどの汎用のディスプレイを用いることができ、スピーカとしては、汎用のスピーカを用いることができる。また、ディスプレイとスピーカとは、別々に設けられていてもよく、スピーカを内蔵したスピーカ内蔵型ディスプレイのように一体的に構成されていてもよい。さらに、再生装置、ディスプレイおよびスピーカが一体的に構成されていてもよい。 As the display, a general-purpose display such as an LCD (Liquid Crystal Display) or an EL (Electro-Luminescence) display can be used, and as the speaker, a general-purpose speaker can be used. Further, the display and the speaker may be provided separately, or may be configured integrally, such as a display with a built-in speaker. Furthermore, the playback device, display, and speaker may be integrally configured.

再生装置でコンテンツが再生されると、再生装置からディスプレイに映像データが入力され、ディスプレイは、入力された映像データに対応する映像を出力(表示)し、再生装置からスピーカに音データが入力され、スピーカは、入力された音データに対応する音を出力する。なお、映像のみのコンテンツの場合には、再生装置からは映像データのみが出力され、音のみのコンテンツの場合には、再生装置からは音データのみが出力される。 When content is played back on a playback device, video data is input from the playback device to the display, the display outputs (displays) video corresponding to the input video data, and sound data is input from the playback device to the speaker. , the speaker outputs sound corresponding to the input sound data. Note that in the case of video-only content, only video data is output from the playback device, and in the case of sound-only content, only sound data is output from the playback device.

以上のように、コンテンツ提示装置16によって、映像・音のコンテンツが視聴者に提示される。また、コンテンツ提示装置16は、コンテンツに関するデータ(以下、「イベントデータ」という)をロボット12に送信する。なお、映像・音のコンテンツの内容に連動して、たとえば緊張や興奮が高まる場面(クライマックス)に到達したときに、ディスプレイの明るさ(明度)が変動するようにしても良い。この場合、ディスプレイの明るさが変動することもコンテンツの一部となる。また、コンテンツ提示装置16に加えて、またはこれに代えて、人間(コンテンツ提示者)が視覚的および/または聴覚的に認識可能なコンテンツ(紙芝居、読み聞かせまたは朗読劇等)を視聴者に提示してもよい。 As described above, the content presentation device 16 presents video and audio content to the viewer. Further, the content presentation device 16 transmits data related to content (hereinafter referred to as “event data”) to the robot 12. Note that the brightness (brightness) of the display may be changed in conjunction with the contents of the video/sound content, for example, when a scene (climax) in which tension or excitement increases is reached. In this case, variations in display brightness also become part of the content. Additionally, in addition to or in place of the content presentation device 16, content that can be visually and/or audibly recognized by a human (content presenter) is presented to the viewer (picture show, story-telling, reading drama, etc.). You may.

位置検出装置18は、対象者の体の位置、特に対象者の手の位置を検出する。この実施例では、位置検出装置18は、コンピュータ(位置検出用コンピュータ)および複数の距離画像センサを含む。距離画像センサは、赤外光またはレーザなどの光を照射し、対象物から反射した光(反射光)をCCD(Charge Coupled Device)センサなどの光学センサによって捉える。距離画像センサは、光が戻るまでの時間を画素毎に計測することで、対象物までの実際の距離を測定する。また、距離画像センサは、対象物の形状(たとえば、頭部および手などの人間の所定部位)を測定することが可能である。したがって、距離画像センサの出力に基づいて、人間の位置および人間の所定部位(頭部および手)の位置を検出することができる。 The position detection device 18 detects the position of the subject's body, particularly the position of the subject's hands. In this embodiment, the position detection device 18 includes a computer (position detection computer) and a plurality of distance image sensors. A distance image sensor irradiates light such as infrared light or a laser, and captures the light reflected from an object (reflected light) using an optical sensor such as a CCD (Charge Coupled Device) sensor. A distance image sensor measures the actual distance to an object by measuring the time it takes for light to return for each pixel. Further, the distance image sensor can measure the shape of an object (for example, a predetermined part of a human such as the head and hands). Therefore, based on the output of the distance image sensor, the position of the person and the position of predetermined parts (head and hands) of the person can be detected.

距離画像センサとしては、ASUS(登録商標)製のXtion(登録商標)と言われる製品が採用されている。なお、他の例では、距離画像センサは、Microsoft(登録商標)製のKinect(登録商標)センサ、パナソニック(登録商標)製の3次元距離画像センサD-IMager(登録商標)などを使用することも可能である。この種のセンサは、3次元距離計測センサ、3Dスキャナなどと言われる場合もある。なお、距離画像センサとしては、たとえばLiDAR(たとえば、Velodine社製のイメージングユニットLiDAR(HDL-32e)(商品名))のような全方位レーザ距離計や、ステレオカメラなども利用可能である。 As the distance image sensor, a product called Xtion (registered trademark) manufactured by ASUS (registered trademark) is used. In other examples, the distance image sensor may be a Kinect (registered trademark) sensor manufactured by Microsoft (registered trademark), a three-dimensional distance image sensor D-IMager (registered trademark) manufactured by Panasonic (registered trademark), etc. is also possible. This type of sensor is sometimes referred to as a three-dimensional distance measurement sensor, a 3D scanner, or the like. Note that as the distance image sensor, an omnidirectional laser distance meter such as LiDAR (for example, imaging unit LiDAR (HDL-32e) (trade name) manufactured by Velodine), a stereo camera, etc. can also be used.

距離画像センサの各々からの距離画像信号は、位置検出用コンピュータに入力され、位置検出用コンピュータでは、その距離画像信号をディジタルデータとして、メモリ(たとえばHDDまたはRAMなど)に記憶する。位置検出用コンピュータは、このメモリに記憶した距離画像データを処理して得られた、1または複数の人間の所定部位の位置(この第1実施例では、対象者の手の3次元位置)についてのデータ(以下、「人位置データ」という)をロボット12に送信する。 A distance image signal from each of the distance image sensors is input to a position detection computer, and the position detection computer stores the distance image signal as digital data in a memory (for example, HDD or RAM). The position detection computer processes the distance image data stored in the memory to determine the position of one or more predetermined parts of a person (in this first embodiment, the three-dimensional position of the subject's hand). data (hereinafter referred to as "person position data") is transmitted to the robot 12.

なお、図1に示すシステム10の構成は一例であり、ロボット12と、コンテンツ提示装置16および位置検出装置18との間に、サーバ等の他のコンピュータが介在してもよい。 Note that the configuration of the system 10 shown in FIG. 1 is an example, and another computer such as a server may be interposed between the robot 12, the content presentation device 16, and the position detection device 18.

また、図1では省略するが、ロボット12と通信可能な外部制御端末が設けられてもよい。外部制御端末は、ロボット12を遠隔操作するためのコンピュータである。たとえば、ロボット12が人間とコミュニケーションを行う場合において、ロボット12で対応できない事象が発生したときに、管理者等が外部制御端末を用いてロボット12を制御し、ロボット12が対応できない事象について対応する。管理者等は、ロボット12を通して人間と会話したり、ロボット12にコマンドを送信してコミュニケーション行動を実行させたりする。 Although not shown in FIG. 1, an external control terminal capable of communicating with the robot 12 may be provided. The external control terminal is a computer for remotely controlling the robot 12. For example, when the robot 12 communicates with humans and an event that cannot be handled by the robot 12 occurs, an administrator or the like uses an external control terminal to control the robot 12 and respond to the event that the robot 12 cannot handle. . An administrator or the like communicates with humans through the robot 12 or sends commands to the robot 12 to cause it to perform communication actions.

図2~図4は図1のロボット12の外観および構成の一例を示す。なお、図2~図4に示すロボット12は一例であり、他の外観、構成を持つ任意のアンドロイドロボットが利用可能である。また、ロボット12は、アンドロイドロボットに限定される必要は無く、人間に似た外観を有し、接触動作が可能なロボットであれば他のロボットを使用することもできる。一例として、身体動作または/および音声で、コミュニケーション対象である人間または他のロボットとコミュニケーションを取ることができるコミュニケーションロボットを使用することができる。以下、図2~図4を用いて、本実施例のロボット12の外観および構成について簡単に説明する。 2 to 4 show an example of the appearance and configuration of the robot 12 in FIG. 1. Note that the robot 12 shown in FIGS. 2 to 4 is an example, and any android robot with other appearance and configuration can be used. Furthermore, the robot 12 is not limited to an android robot, and other robots may be used as long as they have a human-like appearance and are capable of contact movements. As an example, a communication robot can be used that can communicate with a human or other robot with whom it communicates through body movements and/or voice. The appearance and configuration of the robot 12 of this embodiment will be briefly described below with reference to FIGS. 2 to 4.

図2および図4に示すように、ロボット12は、胴体部20およびその胴体部20の上に、首部22を介して設けられた頭部24を含む。 As shown in FIGS. 2 and 4, the robot 12 includes a body part 20 and a head 24 provided on the body part 20 via a neck part 22.

胴体部20の上端(頭部の下方)が肩部26であり、胴体部20の中ほどが腰部28である。左右の肩部26のそれぞれから上肢部(腕部)30が設けられ、胴体部20の下端からは下肢部32が設けられる。 The upper end of the body part 20 (below the head) is the shoulder part 26, and the middle part of the body part 20 is the waist part 28. An upper limb part (arm part) 30 is provided from each of the left and right shoulder parts 26, and a lower limb part 32 is provided from the lower end of the body part 20.

また、図4に示すように、上肢部30の中ほどが肘部34であり、上肢部30の先端には、上肢部30の基端(肩部26に近い側)から順に手首部36および手部38が設けられ、手部38は、先端に設けられる5本の指部40を含む。 Further, as shown in FIG. 4, the middle part of the upper limb part 30 is the elbow part 34, and the distal end of the upper limb part 30 has a wrist part 36 and a A hand portion 38 is provided, and the hand portion 38 includes five fingers 40 provided at the distal end.

このようなロボット12は、たとえば金属のような構造材で全体を組み立て、その構造材の上にたとえばシリコーン樹脂のようなソフトな樹脂で皮膚を形成し、必要な部分でその皮膚を衣服から露出させている。 Such a robot 12 is assembled as a whole using a structural material such as metal, and a skin is formed on the structural material using a soft resin such as silicone resin, and the skin is exposed through clothing at necessary parts. I'm letting you do it.

この実施例のシステム10では、ロボット12は、椅子42に座った状態でセットされていて、人間らしい動作を実現するように、空気圧アクチュエータで各部分を動かす。ロボット12の上述の各部分(対象部位)を動かすための以下に説明するアクチュエータは、この第1実施例では、いずれもパルス電力によって駆動されるステッピングモータであり、ステッピングモータの回転量はパルス数で決まる。パルス数が指令値として与えられる。なお、各対象部位は、平常状態において、アクチュエータに初期値が与えられ、変位させる場合に、その方向と大きさに応じたパルス数の指令値が該当するアクチュエータに与えられる。この第1実施例では、各アクチュエータは、「0-255」の指令値で動作され、「0-255」のいずれかの値が初期値として与えられる。以下、図面を参照してロボット12の各部分を動かすための構成を説明する。 In the system 10 of this embodiment, the robot 12 is set while sitting on a chair 42, and each part is moved by pneumatic actuators to achieve human-like movements. In this first embodiment, the actuators described below for moving each of the above-mentioned parts (target parts) of the robot 12 are stepping motors driven by pulsed electric power, and the rotation amount of the stepping motor is determined by the number of pulses. It is determined by The number of pulses is given as a command value. In addition, in a normal state, each target part is given an initial value to the actuator, and when displacing it, a command value of the number of pulses corresponding to the direction and magnitude is given to the corresponding actuator. In this first embodiment, each actuator is operated with a command value of "0-255", and any value of "0-255" is given as an initial value. The configuration for moving each part of the robot 12 will be described below with reference to the drawings.

図3(A)を参照して、アクチュエータA1は、上瞼44aの上下動を制御するためのアクチュエータである。アクチュエータA2、A3およびA4は眼球を左右上下に動かすためのアクチュエータである。アクチュエータA5は、下瞼44bの上下動を制御するアクチュエータである。したがって、アクチュエータA1およびA5によって、目(瞼)が開閉される。 Referring to FIG. 3(A), actuator A1 is an actuator for controlling the vertical movement of upper eyelid 44a. Actuators A2, A3, and A4 are actuators for moving the eyeball left, right, up, and down. Actuator A5 is an actuator that controls the vertical movement of the lower eyelid 44b. Therefore, the eyes (eyelids) are opened and closed by actuators A1 and A5.

図3(B)を参照して、アクチュエータA6は額を動かすためのアクチュエータであり、アクチュエータA7は眉間を動かすためのアクチュエータである。また、アクチュエータA8は、口角46を上げるためのアクチュエータである。アクチュエータA9は舌を上下方に動かすためのアクチュエータである。 Referring to FIG. 3(B), actuator A6 is an actuator for moving the forehead, and actuator A7 is an actuator for moving the glabella. Further, the actuator A8 is an actuator for raising the corner of the mouth 46. Actuator A9 is an actuator for moving the tongue up and down.

図3(C)を参照して、アクチュエータA10は口唇を左右に広げるアクチュエータであり、アクチュエータA11は口唇を前に突き出すためのアクチュエータである。アクチュエータA13は顎を突き出したり引いたりするためのアクチュエータである。このアクチュエータ13によって、口が開閉される。 Referring to FIG. 3(C), actuator A10 is an actuator that spreads the lips left and right, and actuator A11 is an actuator that pushes the lips forward. The actuator A13 is an actuator for protruding or pulling the jaw. This actuator 13 opens and closes the mouth.

図4を参照して、アクチュエータA14は頭部24を左右に傾動させるためのアクチュエータであり、アクチュエータA15は頭部24を俯仰させるためのアクチュエータであり、そして、アクチュエータA16は頭部を左右に回動させるためのアクチュエータである。アクチュエータA17は腰部28を前屈させまたは後傾させるためのアクチュエータであり、アクチュエータA18は腰部28を左右に回動(ひねる)させるためのアクチュエータである。 Referring to FIG. 4, actuator A14 is an actuator for tilting head 24 left and right, actuator A15 is an actuator for raising and lowering head 24, and actuator A16 is an actuator for rotating head 24 left and right. This is an actuator for moving. The actuator A17 is an actuator for bending the waist portion 28 forward or tilting backward, and the actuator A18 is an actuator for rotating (twisting) the waist portion 28 from side to side.

また、アクチュエータA19は肩部26を上下動させる(胴体部20に対する上肢部30の角度を制御する)ためのアクチュエータである。アクチュエータA20は肘部34を中心に上肢部30を屈伸(肘部34を中心に手首部36および手部38を回動)させるためのアクチュエータである。アクチュエータA21は手首部36を中心に手部38を回動させるためのアクチュエータである。アクチュエータA22は指部40を屈伸または回動させるためのアクチュエータである。図示は省略するが、アクチュエータA22は5本の指部40のそれぞれに対応して設けられる。アクチュエータA19~A22の各々が駆動されることによって、ロボット12は、上肢部30(肘部34、手首部36、手部38および指部40等)を用いて、人の腕、手および指の動きに酷似した動作を行うことができる。たとえば、近くに存在する人に手部38または指部40で触れる接触動作(タッチ動作)を行うことができる。 Further, the actuator A19 is an actuator for vertically moving the shoulder section 26 (controlling the angle of the upper limb section 30 with respect to the torso section 20). The actuator A20 is an actuator for bending and extending the upper limb 30 around the elbow 34 (rotating the wrist 36 and the hand 38 around the elbow 34). The actuator A21 is an actuator for rotating the hand 38 around the wrist 36. The actuator A22 is an actuator for bending, extending or rotating the finger portion 40. Although not shown, the actuator A22 is provided corresponding to each of the five finger sections 40. By driving each of the actuators A19 to A22, the robot 12 uses the upper limb section 30 (elbow section 34, wrist section 36, hand section 38, finger section 40, etc.) to move the human arm, hand, and fingers. It is possible to perform actions that closely resemble movements. For example, it is possible to perform a contact action (touch action) in which the hand 38 or the finger 40 touches a nearby person.

なお、図示は省略するが、下肢部32には、下肢部32の各部分を動かすためのアクチュエータが適宜設けられる。 Although not shown in the drawings, the lower limb section 32 is appropriately provided with an actuator for moving each part of the lower limb section 32.

ロボット12は、図5に示すように、ロボット12の全体制御を司るプロセッサ(この第1実施例では、CPU)50を備える。CPU50は、バス52を通して、RAM54、通信モジュール56、アクチュエータ制御回路58、センサI/F(インタフェース)60および入出力I/F62等に接続される。 As shown in FIG. 5, the robot 12 includes a processor (in this first embodiment, a CPU) 50 that controls the entire robot 12. The CPU 50 is connected to a RAM 54, a communication module 56, an actuator control circuit 58, a sensor I/F (interface) 60, an input/output I/F 62, etc. through a bus 52.

CPU50は通信モジュール56を介して、ネットワーク14すなわちコンテンツ提示装置16および位置検出装置18等の外部コンピュータと、有線または無線で、通信可能に接続される。 The CPU 50 is communicably connected via a communication module 56 to the network 14, that is, to external computers such as the content presentation device 16 and the position detection device 18, by wire or wirelessly.

RAM54は、CPU50のバッファ領域およびワーク領域として用いられる。ただし、RAM54に代えて、HDDを用いることもできる。CPU50は、バス52を通してRAM54にアクセスし、RAM54に記憶されているプログラムやデータ(図10参照)に従って、バス52を通してアクチュエータ制御回路58に指令値を与え、各アクチュエータA1-Anの動作を制御する。 The RAM 54 is used as a buffer area and a work area for the CPU 50. However, instead of the RAM 54, an HDD can also be used. The CPU 50 accesses the RAM 54 through the bus 52, and according to the programs and data stored in the RAM 54 (see FIG. 10), provides command values to the actuator control circuit 58 through the bus 52 to control the operation of each actuator A1-An. .

アクチュエータ制御回路58は、CPU50から与えられる指令値に応じた数のパルス電力を生成し、それを該当するステッピングモータに与えることによって、各アクチュエータA1-Anを駆動する。ただし、アクチュエータとしてはステッピングモータを用いるものの他、サーボモータを用いるアクチュエータ、流体アクチュエータなど任意のアクチュエータが利用可能である。 The actuator control circuit 58 drives each actuator A1-An by generating a number of pulsed electric powers according to the command value given from the CPU 50 and applying them to the corresponding stepping motors. However, in addition to using a stepping motor as the actuator, any actuator such as an actuator using a servo motor, a fluid actuator, etc. can be used.

センサI/F60は、触覚センサ64および眼カメラ66からのそれぞれの出力を受ける。 Sensor I/F 60 receives respective outputs from tactile sensor 64 and eye camera 66.

触覚センサ64ないし皮膚センサは、たとえばタッチセンサであり、ロボット12の触覚の一部を構成する。つまり、触覚センサ64は、人間や他の物体等がロボット12に触れたか否かを検出するために用いられる。触覚センサ64からの出力(検出データ)は、センサI/F60を介してCPU50に与えられる。したがって、CPU50は、人間や他の物体等がロボット12に触れたこと(およびその強弱)を検出することができる。 The tactile sensor 64 or skin sensor is, for example, a touch sensor, and forms part of the tactile sense of the robot 12. That is, the tactile sensor 64 is used to detect whether a human or other object has touched the robot 12. Output (detection data) from the tactile sensor 64 is given to the CPU 50 via the sensor I/F 60. Therefore, the CPU 50 can detect that a human or other object has touched the robot 12 (and the strength of the touch).

眼カメラ66は、イメージセンサであり、ロボット12の視覚の一部を構成する。つまり、眼カメラ66は、ロボット12の眼から見た映像ないし画像を検出するために用いられる。この第1実施例では、眼カメラ66の撮影映像(動画ないし静止画)に対応するデータ(画像データ)は、センサI/F60を介してCPU50に与えられる。CPU50は、その画像データを、RAM54に記憶したり、通信モジュール56およびネットワーク14(図1)を介して外部のコンピュータ(たとえば、外部制御端末)に送信したりする。 The eye camera 66 is an image sensor and forms part of the robot's 12 vision. That is, the eye camera 66 is used to detect images or images seen from the eyes of the robot 12. In this first embodiment, data (image data) corresponding to a captured image (moving image or still image) of the eye camera 66 is provided to the CPU 50 via the sensor I/F 60. CPU 50 stores the image data in RAM 54 or transmits it to an external computer (for example, an external control terminal) via communication module 56 and network 14 (FIG. 1).

また、スピーカ68およびマイク70は、入出力I/F62に接続される。スピーカ68は、ロボット12が発話を行う際に音声を出力する。マイク70は、音センサであり、ロボット12の聴覚の一部を構成する。このマイク70は、指向性を有し、主として、ロボット12と対話(コミュニケーション)する人間の音声を検出するために用いられる。 Moreover, the speaker 68 and the microphone 70 are connected to the input/output I/F 62. The speaker 68 outputs audio when the robot 12 speaks. The microphone 70 is a sound sensor and constitutes a part of the robot 12's hearing system. This microphone 70 has directivity and is mainly used to detect the voice of a person interacting (communicating) with the robot 12.

このような構成のシステム10は、ロボット12の接触動作を通じて、ユーザに対して物理的または身体的な刺激(触覚刺激)を提示するためのシステムであり、ロボット12は、接触動作を通じて対象者に触覚刺激を与えることによって色々な感情を表出するコミュニケーション行動を行う。ただし、本実施例のロボット12が表出可能な感情には、感動、楽しみ、悲しみ、怒り、恐怖などがある。 The system 10 having such a configuration is a system for presenting physical or physical stimulation (tactile stimulation) to the user through the contact motion of the robot 12. They perform communication behaviors that express various emotions by providing tactile stimulation. However, the emotions that can be expressed by the robot 12 of this embodiment include emotion, enjoyment, sadness, anger, and fear.

図6に示すように、本実施例のロボット12は、対象者と同じ方向を向いて横に並んで座った状態で、コンテンツ提示装置16によって再生される視覚的および/または聴覚的に認識可能な映像・音を含むコンテンツ(たとえば映画等)を対象者と共に視聴しながら、コミュニケーション行動を行う。本実施例では、ロボット12は、手部38を動作させて、手部38(左の手部(左手部)38または左の指部40)で対象者の手(右手)の甲に触れる接触動作を行うことによって感情を表出する。 As shown in FIG. 6, the robot 12 of this embodiment can be visually and/or audibly recognized by the content presentation device 16 while sitting side by side facing the same direction as the subject. Communicative behavior is performed while watching content (such as a movie) that includes visual images and sounds with the target person. In this embodiment, the robot 12 operates the hand 38 to touch the back of the subject's hand (right hand) with the hand 38 (left hand 38 or left finger 40). Expressing emotions through movement.

図7(A)に示すように、接触動作を行わない場合には、ロボット12は、手部38が対象者の手に触れないように、手部38を対象者の手から少し離れた位置に位置させ(対象者から手部38を離間させ)、図7(B)および図7(C)に示すように、接触動作を行う場合には、ロボット12は、手部38を対象者の手に重ねるように、すなわち手部38が対象者の手に触れるように、手部38を位置させる。なお、図7(B)に示すように手部38の全体で対象者の手に触れるようにしてもよいし、図7(C)に示すように指部40のみで対象者の手に触れるようにしてもよい。 As shown in FIG. 7A, when not performing a contact operation, the robot 12 positions the hand 38 a little away from the subject's hand so that the hand 38 does not touch the subject's hand. 7(B) and FIG. 7(C), the robot 12 moves the hand 38 away from the subject. The hand portion 38 is positioned so as to overlap the hand, that is, so that the hand portion 38 touches the subject's hand. Note that, as shown in FIG. 7(B), the entire hand portion 38 may touch the subject's hand, or only the finger portion 40 may touch the subject's hand as shown in FIG. 7(C). You can do it like this.

ただし、ロボット12の接触動作は、感情を表出すべきイベントが発生した場合に行われる。本実施例では、感情を表出すべきイベントは、視聴中のコンテンツにおいて、重要な場面、内容が大きく変化する場面または緊張や興奮が高まる場面等、すなわちクライマックスのことである。コンテンツ提示装置16によって再生されるコンテンツには、少なくとも1つのイベントが含まれ、ロボット12の接触動作は、視聴中のコンテンツのイベントに応じて行われる。 However, the contact motion of the robot 12 is performed when an event that requires expression of emotion occurs. In this embodiment, the event in which emotions should be expressed is an important scene, a scene where the content changes significantly, a scene where tension or excitement increases, or the like, in the content being viewed, that is, a climax. The content reproduced by the content presentation device 16 includes at least one event, and the contact motion of the robot 12 is performed in response to the event of the content being viewed.

コンテンツ提示装置16は、イベントに関するデータ(以下、「イベントデータ」という)をロボット12に送信する。イベントデータは、イベント(クライマックス)が発生するタイミング(以下、「発生タイミング」という)のデータと、イベントにおいて表出すべき感情(以下、「表出用の感情」という)のデータとを含む。本実施例では、イベントは、視聴中のコンテンツのクライマックスであるので、ロボット12は、視聴中のコンテンツのクライマックスについてのデータをイベントデータとしてコンテンツ提示装置16から取得する。 The content presentation device 16 transmits data related to events (hereinafter referred to as "event data") to the robot 12. The event data includes data on the timing at which an event (climax) occurs (hereinafter referred to as "occurrence timing") and data on emotions to be expressed in the event (hereinafter referred to as "emotions for expression"). In this embodiment, since the event is the climax of the content being viewed, the robot 12 acquires data about the climax of the content being viewed from the content presentation device 16 as event data.

なお、コンテンツにおけるどの部分(場面)をクライマックスとして設定するかについては、コンテンツを解析して重要な場面をクライマックスとして自動的に抽出するようにしてもよいし、人間がコンテンツを視聴した上で、人間が典型的に考える場面をクライマックスとして設定してもよい。なお、コンテンツから重要な場面を抽出する技術は、特開2004-342272号公報などに詳細に開示されるので参照されたい。 Regarding which part (scene) of the content to set as the climax, it is possible to analyze the content and automatically extract the important scene as the climax, or after viewing the content by a human. A scene that humans typically consider may be set as the climax. Note that the technique for extracting important scenes from content is disclosed in detail in Japanese Patent Laid-Open No. 2004-342272, etc., so please refer to it.

図8は、イベントデータの内容の一例を示す図である。図8に示すように、イベントデータには、コンテンツに含まれる各イベントを識別(特定)するための識別情報であるイベントIDが含まれ、各イベントIDに対応して、当該イベントの発生タイミングと、当該イベントの表出用の感情の種類(カテゴリ)とが含まれる。なお、ロボット12が発生タイミングと表出用の感情の種類との対応関係が認識できるのであれば、イベントIDは省略されてもよい。 FIG. 8 is a diagram showing an example of the contents of event data. As shown in FIG. 8, the event data includes an event ID, which is identification information for identifying (specifying) each event included in the content, and corresponding to each event ID, the occurrence timing and timing of the event are determined. , and the type (category) of emotion for expressing the event. Note that the event ID may be omitted if the robot 12 can recognize the correspondence between the timing of occurrence and the type of emotion to be expressed.

図8に示す例では、発生タイミングは、コンテンツの開始時点(0分0秒)からの経過時間として表現されている。たとえば、コンテンツの開始時点から6分54秒後に“感動”を表出するイベント(イベントID“1”のイベント)が発生し、コンテンツの開始時点から8分48秒後に“悲しみ”を表出するイベント(イベントID“2”のイベント)が発生し、コンテンツの開始時点から15分18秒後に“怒り”を表出するイベント(イベントID“3”のイベント)が発生し、コンテンツの開始時点から24分18秒後に“恐怖”を表出するイベント(イベントID“4”のイベント)が発生し、コンテンツの開始時点から27分12秒後に“楽しみ”を表出するイベント(イベントID“5”のイベント)が発生する。 In the example shown in FIG. 8, the occurrence timing is expressed as the elapsed time from the start time of the content (0 minutes 0 seconds). For example, an event that expresses "impression" (event with event ID "1") occurs 6 minutes and 54 seconds after the start of the content, and an event that expresses "sadness" occurs 8 minutes and 48 seconds after the start of the content. An event (event with event ID "2") occurs, and 15 minutes and 18 seconds after the start of the content, an event to express "anger" (event with event ID "3") occurs, and from the start of the content An event that expresses “fear” (event with event ID “4”) occurs 24 minutes and 18 seconds later, and an event that expresses “fun” (event ID “5”) occurs 27 minutes and 12 seconds after the start of the content. event) occurs.

また、システム10では、イベントの発生タイミングに基づいて接触動作を開始するタイミング(以下、「開始タイミング」という)を算出するための算出条件が感情の種類毎に予め設定されている。たとえば、平均および分散をパラメータ(母数)とする確率密度関数に従う乱数に応じて開始タイミングが算出される。確率密度関数としては、正規分布、二項分布および逆ガウス分布等の確率密度関数を用いることができる。 Further, in the system 10, calculation conditions for calculating the timing to start a contact action (hereinafter referred to as "start timing") based on the timing of occurrence of an event are set in advance for each type of emotion. For example, the start timing is calculated according to a random number according to a probability density function with the average and variance as parameters (parameters). As the probability density function, probability density functions such as normal distribution, binomial distribution, and inverse Gaussian distribution can be used.

図9は、感情の種類毎の算出条件のパラメータとしての平均および分散と、感情の種類毎の動作パターンとを示す図である。ただし、平均の値(平均値)は、感情の種類毎に予め設定される平均的なタイミング(平均タイミング)とイベントの発生タイミングとの時間差(秒)を示す値であり、正の数で表される平均値は、平均タイミングが発生タイミングに対し遅れる(繰り下げる)期間(時間)を示し、負の数で表される平均値は、平均タイミングが発生タイミングに対し早まる(繰り上げる)期間を示す。また、分散の値(分散値)は、乱数のとる値のばらつきを示す値であり、分散値が小さいほど乱数の取りうる値が平均値の近くに集まるようになり、分散値が大きいほど乱数の取りうる値がばらつくようになる。 FIG. 9 is a diagram showing the average and variance as parameters of calculation conditions for each type of emotion, and the movement pattern for each type of emotion. However, the average value (average value) is a value that indicates the time difference (seconds) between the average timing (average timing) set in advance for each type of emotion and the event occurrence timing, and is expressed as a positive number. The average value represented by a negative number indicates a period (time) during which the average timing is delayed (moved down) relative to the occurrence timing, and the average value represented by a negative number represents a period during which the average timing is advanced (moved up) relative to the occurrence timing. In addition, the variance value (dispersion value) is a value that indicates the dispersion of the values taken by random numbers. The possible values of will begin to vary.

また、ロボット12の接触動作は、感情の種類毎に複数の動作パターン(動作種類)を含む。ロボット12は、イベントに割り当てられる感情に対応する動作パターン(表出用の動作パターン)に従って接触動作を行う。動作パターンは、ロボット12が表出可能な感情のそれぞれに対応して複数用意されており、複数の動作パターンのそれぞれは、互いに異なる動きの特徴を含む。たとえば、動きの特徴は、接触動作の強さ(圧力)、接触動作の連続性、接触動作の長さ等である。 Further, the contact motion of the robot 12 includes a plurality of motion patterns (motion types) for each type of emotion. The robot 12 performs a contact motion according to a motion pattern (motion pattern for expression) corresponding to the emotion assigned to the event. A plurality of movement patterns are prepared corresponding to each of the emotions that the robot 12 can express, and each of the plurality of movement patterns includes movement characteristics that are different from each other. For example, the characteristics of the movement include the strength (pressure) of the contact action, the continuity of the contact action, the length of the contact action, and the like.

なお、発明者等は、感情を表出すべきイベントが含まれるコンテンツを複数の被験者に視聴させ、人が感情を表出する際(イベントが発生する際)に、近くに存在する他人に接触する接触動作の開始タイミングを測定する実験を行った。また、アンドロイドロボットが特定の感情を表現するときに、複数種類の動作パターンに従って被験者に対し接触動作を行い、感情の種類に応じて被験者が好ましいと認識する動作パターンを測定する実験を行った。これらの実験は、“感動”、“楽しみ”、“悲しみ”、“怒り”および“恐怖”のそれぞれについて行われ、図9に示す感情の種類毎に設定される平均値、分散値および動作パターンは、この実験結果に基づいて決定されている。 In addition, the inventors had multiple subjects view content that includes an event that requires the expression of emotions, and when a person expresses an emotion (when an event occurs), they come into contact with another person nearby. We conducted an experiment to measure the start timing of contact movements. In addition, when an android robot expresses a specific emotion, it makes contact with the subject according to multiple types of movement patterns, and an experiment was conducted to measure the movement pattern that the subject recognized as preferable depending on the type of emotion. These experiments were conducted for each of "emotion," "enthusiasm," "sadness," "anger," and "fear," and the average values, variance values, and movement patterns set for each type of emotion are shown in Figure 9. has been determined based on the results of this experiment.

図9に示す感情の種類毎の平均値からわかるように、“感動”、“楽しみ”、“悲しみ”および“怒り”を表出する場合の人の接触動作の平均タイミングは、発生タイミングよりも後に設定され、“恐怖”を表出する場合の人の接触動作の平均タイミングは、発生タイミングよりも前に設定される。すなわち、“感動”、“楽しみ”、“悲しみ”および“怒り”を表出する場合の人の接触動作は、イベントの発生タイミングよりも少し後に行われることが多く、“恐怖”を表出する場合の人の接触動作は、イベントの発生タイミングよりも少し前に行われることが多い傾向にある。 As can be seen from the average values for each type of emotion shown in Figure 9, the average timing of human touch movements when expressing “impression,” “enthusiasm,” “sadness,” and “anger” is faster than the timing of occurrence. The average timing of a person's contact motion when expressing “fear” is set later and is set before the occurrence timing. In other words, people's contact movements to express "impression," "enthusiasm," "sadness," and "anger" are often performed a little later than the timing of the event, and are often used to express "fear." In this case, a person's contact action tends to be performed slightly before the event occurs.

また、“楽しみ”、“怒り”および“恐怖”を表出する場合の人の接触動作の平均タイミングは、発生タイミングに対する時間差が小さい傾向にあり、“感動”および“悲しみ”を表出する場合の人の接触動作の平均タイミングは、発生タイミングに対する時間差が大きい傾向にある。 Furthermore, the average timing of people's contact movements when expressing "enthusiasm," "anger," and "fear" tends to have a small time difference with respect to the timing of occurrence, while when expressing "impression" and "sadness." The average timing of a person's contact movements tends to have a large time difference with respect to the timing of occurrence.

さらに、図9に示す感情の種類毎の分散値からわかるように、“悲しみ”を表出する場合の人の接触動作の開始タイミングは、個人差が大きい傾向にあり、“怒り”および“恐怖”を表出する場合の個人差が小さい傾向にある。 Furthermore, as can be seen from the variance values for each type of emotion shown in Figure 9, there tends to be large individual differences in the timing of the start of contact movements when people express “sadness”; There is a tendency for individual differences in the expression of ``to be small.''

図9からわかるように、動作パターンの一要素としての接触動作の強さ(圧力)の観点で言えば、“感動”、“楽しみ”および“悲しみ”を表出する場合の動作パターンでは、接触動作の強さが所定の強さ(普通の強さ)に設定され、“怒り”および“恐怖”を表出する場合の動作パターンでは、“感動”、“楽しみ”および“悲しみ”を表出する場合よりも強い強さに設定される。 As can be seen from Figure 9, from the perspective of the strength (pressure) of the contact motion as an element of the motion pattern, in the motion patterns expressing "impression," "enthusiasm," and "sadness," the contact motion The strength of the motion is set to a predetermined strength (normal strength), and the motion pattern that expresses "anger" and "fear" expresses "impression", "enthusiasm", and "sadness". The strength is set to be stronger than when

また、接触動作の連続性の観点で言えば、“感動”、“楽しみ”および“怒り”を表出する場合の動作パターンは、手部38で対象者の手を「とんとん」と数回叩くような断続的な動きに設定される。一方、“悲しみ”および“恐怖”を表出する場合の動作パターンは、手部38を所定時間継続して対象者の手に添えるような連続的な動きに設定される。 In addition, from the perspective of the continuity of the contact motion, the motion pattern when expressing "impression," "enthusiasm," and "anger" is to tap the subject's hand several times with the hand part 38. It is set to intermittent movement like this. On the other hand, the motion pattern for expressing "sadness" and "fear" is set to be a continuous motion in which the hand 38 is placed on the subject's hand for a predetermined period of time.

さらに、接触動作の長さの観点で言えば、“楽しみ”および“怒り”を表出する場合の動作パターンでは、接触動作の長さが所定の長さ(“短い”に相当)に設定され、“感動”、“悲しみ”および“恐怖”を表出する場合の動作パターンでは、“楽しみ”および“怒り”を表出する場合よりも接触動作の長さが長く設定される。なお、接触動作の長さとは、断続的な動きをする動作パターンの場合には、接触動作において最初に対象者の手を叩いたときから最後に対象者の手を叩いたときまでの時間の長さのことをいう。 Furthermore, from the perspective of the length of the contact motion, the length of the contact motion is set to a predetermined length (equivalent to "short") in the motion patterns when expressing "enthusiasm" and "anger." , the length of the contact motion is set longer in the motion patterns for expressing "impression", "sadness", and "fear" than for the motion patterns for expressing "enthusiasm" and "anger". In addition, in the case of a movement pattern that involves intermittent movement, the length of the contact movement is the time from when the subject's hand is first clapped to when the subject's hand is last clapped during the contact movement. Refers to length.

システム10では、イベントにおいて表出する表出用の感情が設定(取得)されると、表出用の感情に設定される平均および分散を算出用パラメータとする表出用の算出条件が設定され、表出用の算出条件を用いて、イベントの発生タイミングを基準として、接触動作の開始タイミングが算出される。また、表出用の感情に応じて接触動作の動作パターン(表出用の動作パターン)が設定される。そして、ロボット12は、開始タイミングに到達すると、表出用の動作パターンに従って接触動作を行う。 In the system 10, when an emotion for expression to be expressed in an event is set (obtained), calculation conditions for expression are set using the average and variance set for the emotion for expression as calculation parameters. , using the expression calculation conditions, the start timing of the contact motion is calculated based on the event occurrence timing. Further, a movement pattern of the contact movement (a movement pattern for expression) is set according to the emotion to be expressed. Then, when the robot 12 reaches the start timing, it performs a contact motion according to the expression motion pattern.

本実施例では、人が感情を表出する際の動きを測定する実験結果に基づいて、接触動作の開始タイミングを設定(算出)し、接触動作の動作パターンを設定するので、人が行う接触動作に似た、自然な接触動作を再現することができると考えられる。 In this example, the start timing of the contact motion is set (calculated) and the movement pattern of the contact motion is set based on the experimental results of measuring the movements when a person expresses an emotion. It is thought that it is possible to reproduce natural contact movements that are similar to physical movements.

また、ロボット12は、接触動作の他にも所定の振り、振る舞いのような身体動作または/および発話動作を行う。この第1実施例では、ロボット12が接触動作等の各種動作を実行するための制御情報は、アクチュエータ(A1~A22)を駆動制御するための制御データまたは/および発話内容についての合成音声の音声データを含み、各コミュニケーション行動に付された名称(コマンド名)に対応して記憶される。ただし、身体動作には、自然の動作(無意識動作)も含まれる。無意識動作の代表的な例としては、瞬きや呼吸が該当する。また、このような生理的な動作のみならず、人間の癖による動作も無意識動作に含まれる。たとえば、癖による動作としては、たとえば、髪の毛を触る動作、顔を触る動作や爪を噛む動作などが該当する。また、制御情報は、身体動作とは別に、口の動きおよび顔の表情を表現するための制御データも含む。 In addition to the contact motion, the robot 12 also performs body motions such as predetermined shaking and behavior, and/or speech motions. In this first embodiment, the control information for the robot 12 to execute various operations such as contact operations is control data for driving and controlling the actuators (A1 to A22) and/or synthesized voice for the content of the utterance. It includes data and is stored in correspondence with the name (command name) given to each communication action. However, body movements also include natural movements (unconscious movements). Typical examples of unconscious movements include blinking and breathing. In addition to such physiological actions, unconscious actions also include actions due to human habit. For example, examples of habitual actions include touching one's hair, touching one's face, and biting one's nails. In addition to body movements, the control information also includes control data for expressing mouth movements and facial expressions.

図4では省略したが、コミュニケーション行動についての制御情報は、HDDのような不揮発性のメモリに記憶され、必要に応じて、HDDから読み出され、RAM54に書き込まれる。 Although omitted in FIG. 4, control information regarding communication behavior is stored in a nonvolatile memory such as an HDD, and is read from the HDD and written to the RAM 54 as necessary.

図10は図4に示したRAM54のメモリマップ300の一例を示す図である。図10に示すように、RAM54は、プログラム記憶領域302およびデータ記憶領域304を含む。 FIG. 10 is a diagram showing an example of a memory map 300 of the RAM 54 shown in FIG. 4. As shown in FIG. 10, RAM 54 includes a program storage area 302 and a data storage area 304.

プログラム記憶領域302には、通信プログラム302a、人位置検出プログラム302b、動作制御プログラム302c、イベントデータ取得プログラム302d、算出条件設定プログラム302e、タイミング算出プログラム302fおよび動作パターン設定プログラム302g等が記憶される。 The program storage area 302 stores a communication program 302a, a human position detection program 302b, a motion control program 302c, an event data acquisition program 302d, a calculation condition setting program 302e, a timing calculation program 302f, a motion pattern setting program 302g, and the like.

通信プログラム302aは、コンテンツ提示装置16、位置検出装置18、他のロボットまたは外部コンピュータ等と通信するためのプログラムである。人位置検出プログラム302bは、位置検出装置18から送信される人位置データに基づいて、接触動作を行う目標となる対象者の所定部位(目標部位)の3次元位置(本実施例では対象者の右手の3次元位置)を検出または取得するためのプログラムである。 The communication program 302a is a program for communicating with the content presentation device 16, the position detection device 18, other robots, external computers, and the like. The human position detection program 302b detects the three-dimensional position of a predetermined part (target part) of the subject who is the target of the contact operation based on the human position data transmitted from the position detection device 18 (in this embodiment, the subject's This is a program for detecting or acquiring the three-dimensional position of the right hand.

動作制御プログラム302cは、ロボット12の動作を制御するためのプログラムであって、上半身(肩)制御プログラム3020、上肢(肘)制御プログラム3022、手首制御プログラム3024および指制御プログラム3026を含む。 The motion control program 302c is a program for controlling the motion of the robot 12, and includes an upper body (shoulder) control program 3020, an upper limb (elbow) control program 3022, a wrist control program 3024, and a finger control program 3026.

上半身(肩)制御プログラム3020は、接触動作等の身体動作に合わせてロボット12の上半身(肩)26の動作を行うように(上肢部30の角度を変位させるように)、図4に示すアクチュエータA19を制御するためのプログラムである。 The upper body (shoulder) control program 3020 uses the actuator shown in FIG. This is a program for controlling A19.

上肢(肘)制御プログラム3022は、接触動作等の身体動作に合わせてロボット12の上肢部30(肘部34)の動作を行うように、図4に示すアクチュエータA20を制御するためのプログラムである。 The upper limb (elbow) control program 3022 is a program for controlling the actuator A20 shown in FIG. 4 so that the upper limb part 30 (elbow part 34) of the robot 12 moves in accordance with body movements such as contact movements. .

手首制御プログラム3024は、接触動作等の身体動作に合わせてロボット12の手首部36の動作を行うように、図4に示すアクチュエータA21を制御するためのプログラムである。 The wrist control program 3024 is a program for controlling the actuator A21 shown in FIG. 4 so that the wrist portion 36 of the robot 12 moves in accordance with body movements such as contact movements.

指制御プログラム3026は、接触動作等の身体動作に合わせてロボット12の指部40の動作を行うように、図4に示すアクチュエータA22を制御するためのプログラムである。 The finger control program 3026 is a program for controlling the actuator A22 shown in FIG. 4 so that the finger section 40 of the robot 12 operates in accordance with body motions such as contact motions.

なお、詳しい説明は省略するが、動作制御プログラム302cには、図3に示すアクチュエータA1-A18のそれぞれを適宜制御して、ロボット12の目または/および口の表情を表現する表情制御プログラム、ロボット12の口唇形状を表現する口唇動作制御プログラム、ロボット12の頭部24の動作を行う頭部制御プログラムおよびロボット12の下半身(腰)32の動作を行う下半身(腰)制御プログラム等も含まれる。 Although a detailed explanation will be omitted, the motion control program 302c includes a facial expression control program that appropriately controls each of the actuators A1 to A18 shown in FIG. 3 to express the facial expressions of the eyes and/or mouth of the robot 12, 12, a head control program that moves the head 24 of the robot 12, and a lower body (waist) control program that moves the lower body (waist) 32 of the robot 12.

イベントデータ取得プログラム302dは、コンテンツ提示装置16から送信されるイベントデータを取得するためのプログラムである。算出条件設定プログラム302eは、イベントの表出用の感情の種類に応じて、平均および分散を算出用パラメータとする表出用の算出条件を設定するためのプログラムである。タイミング算出プログラム302fは、イベントの発生タイミングを基準として、表出用の算出条件を用いて、接触動作の開始タイミングを算出するためのプログラムである。動作パターン設定プログラム302gは、表出用の感情の種類に応じて、表出用の動作パターンを設定するためのプログラムである。 The event data acquisition program 302d is a program for acquiring event data transmitted from the content presentation device 16. The calculation condition setting program 302e is a program for setting calculation conditions for expression using the average and variance as calculation parameters, depending on the type of emotion for expression of the event. The timing calculation program 302f is a program for calculating the start timing of a contact motion using the expression calculation condition based on the event occurrence timing. The motion pattern setting program 302g is a program for setting motion patterns for expression according to the type of emotion to be expressed.

図示は省略するが、プログラム記憶領域302には、人間がロボット12に対して発話した内容をCPU50が認識するための音声認識プログラム、音声合成データに従って合成した音声をスピーカ68に出力するための音声合成プログラム、ロボット12を制御するための他のプログラム等が記憶される。 Although not shown in the figure, the program storage area 302 includes a voice recognition program for the CPU 50 to recognize the content of what a human has uttered to the robot 12, and a voice for outputting the voice synthesized according to the voice synthesis data to the speaker 68. A synthesis program, other programs for controlling the robot 12, etc. are stored.

RAM54のデータ記憶領域304には、種々のデータが記憶される。人位置データ304aは、人位置検出プログラム302bに従って検出または取得される接触動作の目標となる対象者の所定部位の3次元位置のデータである。イベントデータ304bは、イベントデータ取得プログラム302dによって取得されるデータであって、イベントの発生タイミングのデータおよびイベントにおいて表出すべき表出用の感情のデータを含む。算出条件データ304cは、ロボット12が表出可能な感情毎に予め設定され、イベントの発生タイミングに基づいて開始タイミングを算出するための算出条件のデータである。動作パターンデータ304dは、ロボット12が表出可能な感情のそれぞれに対応して用意されている動作パターンのデータである。 Various data are stored in the data storage area 304 of the RAM 54. The human position data 304a is data on the three-dimensional position of a predetermined part of the subject who is the target of the contact motion, which is detected or acquired according to the human position detection program 302b. The event data 304b is data acquired by the event data acquisition program 302d, and includes data on the timing of occurrence of an event and data on emotions to be expressed in the event. The calculation condition data 304c is preset for each emotion that the robot 12 can express, and is calculation condition data for calculating the start timing based on the event occurrence timing. The motion pattern data 304d is motion pattern data that is prepared corresponding to each emotion that the robot 12 can express.

図示は省略するが、データ記憶領域304には、マイク70から入力される音声データ、音声認識のために必要な辞書などのデータなども記憶される。また、データ記憶領域304には、ロボット12の制御に必要なコミュニケーション行動を実行するための制御情報などの他のデータが記憶され、さらに、CPU50の動作に必要な、タイマ、レジスタ、フラグなどが設けられる。 Although not shown, the data storage area 304 also stores voice data input from the microphone 70 and data such as a dictionary necessary for voice recognition. In addition, the data storage area 304 stores other data such as control information for executing communication actions necessary for controlling the robot 12, and also stores timers, registers, flags, etc. necessary for the operation of the CPU 50. provided.

図11は図5に示すCPU50のロボット制御処理の一例を示すフロー図である。このロボット制御処理は、コンテンツ提示装置16によってコンテンツの再生されたことに合わせて開始される。図11に示すように、CPU50は、ロボット制御処理を開始すると、ステップS1で、イベントデータ取得プログラム302dに従って、コンテンツ提示装置16から送信されたイベントデータを取得(受信)して、ステップS3で、ステップS1で取得したイベントデータに含まれる次(直後)のイベントの発生タイミングおよび表出用の感情を取得する。 FIG. 11 is a flowchart showing an example of robot control processing by the CPU 50 shown in FIG. This robot control process is started when the content is played back by the content presentation device 16. As shown in FIG. 11, when the CPU 50 starts the robot control process, in step S1, the CPU 50 acquires (receives) event data transmitted from the content presentation device 16 according to the event data acquisition program 302d, and in step S3, The timing of occurrence of the next (immediately) event and the emotion to be expressed included in the event data acquired in step S1 are acquired.

続いて、ステップS5で、動作パターン設定プログラム302gに従って、RAM54のデータ記憶領域304に記憶された動作パターンデータ304dを読み出して、ロボット12が表出可能な感情のそれぞれに対応して用意されている動作パターンの中から、表出用の感情に応じた表出用の動作パターンを設定する。 Subsequently, in step S5, according to the motion pattern setting program 302g, the motion pattern data 304d stored in the data storage area 304 of the RAM 54 is read out, and the motion pattern data 304d is prepared corresponding to each emotion that the robot 12 can express. From among the motion patterns, a motion pattern for expression is set according to the emotion to be expressed.

続いて、ステップS7で、算出条件設定プログラム302eに従って、RAM54のデータ記憶領域304に記憶された算出条件データ304cを読み出して、ロボット12が表出可能な感情毎に予め設定された算出条件の中から、表出用の感情に応じた表出用の算出条件を設定する。 Next, in step S7, according to the calculation condition setting program 302e, the calculation condition data 304c stored in the data storage area 304 of the RAM 54 is read out, and the calculation conditions set in advance for each emotion that the robot 12 can express are read out. From this, calculation conditions for expression are set according to the emotion to be expressed.

続いて、ステップS9で、タイミング算出プログラム302fに従って、イベントの発生タイミングを基準として、表出用の算出条件を用いて開始タイミングを算出し、ステップS11で、ステップS9で算出された開始タイミングに到達したかどうかを判断する。 Subsequently, in step S9, the start timing is calculated using the expression calculation condition based on the event occurrence timing according to the timing calculation program 302f, and in step S11, the start timing calculated in step S9 is reached. determine whether or not.

ステップS11で“NO”であれば、つまり、開始タイミングに到達していないと判断した場合は、同じステップS11に戻る。一方、ステップS11で“YES”であれば、つまり、開始タイミングに到達したと判断した場合は、ステップS13で、表出用の動作パターンに従って接触動作(対象者にタッチする動作)を実行する。ここでは、アクチュエータ制御回路58に指令値を与え、各アクチュエータA1-Anの動作を制御して、接触動作を行う目標となる対象者の所定部位に手部38が触れるように、手部38を変位させる。 If "NO" in step S11, that is, if it is determined that the start timing has not been reached, the process returns to step S11. On the other hand, if "YES" in step S11, that is, if it is determined that the start timing has been reached, then in step S13, a contact motion (a motion of touching the target person) is performed according to the motion pattern for expression. Here, a command value is given to the actuator control circuit 58 to control the operation of each actuator A1-An, and the hand 38 is moved so that the hand 38 touches a predetermined part of the subject who is the target of the contact action. Displace.

続いて、ステップS15で、接触動作を終了するかどうかを判断する。ステップS15で“NO”であれば、つまり、接触動作を終了しないと判断した場合は、ステップS13に戻る。一方、ステップS15で“YES”であれば、つまり、接触動作を終了すると判断した場合は、ステップS17で、ステップS1で取得したイベントデータに基づいて、次のイベントが存在するかどうかを判断する。 Subsequently, in step S15, it is determined whether or not to end the contact operation. If "NO" in step S15, that is, if it is determined that the contact operation is not to be completed, the process returns to step S13. On the other hand, if "YES" in step S15, that is, if it is determined that the contact motion is to be ended, it is determined in step S17 whether or not the next event exists based on the event data acquired in step S1. .

ステップS17で“YES”であれば、つまり、次のイベントが存在すると判断した場合は、ステップS3に戻る。一方、ステップS17で“NO”であれば、つまり、次のイベントが存在しないと判断した場合は、ロボット制御処理を終了する。 If "YES" in step S17, that is, if it is determined that the next event exists, the process returns to step S3. On the other hand, if "NO" in step S17, that is, if it is determined that the next event does not exist, the robot control process ends.

この第1実施例では、複数の感情のそれぞれに対応して、人が感情を表出する際の動きを測定する実験結果に基づいて予め設定される複数の算出条件を用意しておき、所定の感情を表出するイベントが発生する際に、表出用の感情に対応する表出用の算出条件を用いて、接触動作の開始タイミングを算出し、算出された開始タイミングに到達したときに、接触動作を行う。このため、接触動作を通じてロボットが感情を自然に表出することができる。 In this first embodiment, a plurality of calculation conditions are prepared in advance based on the results of experiments that measure movements when people express emotions, corresponding to each of a plurality of emotions. When an event that expresses an emotion occurs, the start timing of the contact action is calculated using the expression calculation conditions corresponding to the expression emotion, and when the calculated start timing is reached, , performs a contact action. Therefore, the robot can naturally express emotions through contact movements.

なお、上述の各実施例で示した具体的な数値は単なる例示であり、限定される必要は無く、実際の製品および製品が適用される環境などに応じて適宜変更可能である。 Note that the specific numerical values shown in each of the above-mentioned examples are merely examples, and there is no need to limit them, and they can be changed as appropriate depending on the actual product and the environment in which the product is applied.

また、上述の実施例で示したロボット制御処理は、同じ結果が得られるのであれば、各ステップが処理される順番を変更してもよい。 Further, in the robot control processing shown in the above-described embodiment, the order in which each step is processed may be changed as long as the same result is obtained.

さらに、ロボット12および位置検出装置18が一体的に構成されていてもよい。この場合、ロボット12の眼カメラ66が位置検出装置18の距離画像センサとして機能する。 Furthermore, the robot 12 and the position detection device 18 may be integrally configured. In this case, the eye camera 66 of the robot 12 functions as a distance image sensor of the position detection device 18.

さらにまた、ロボット12は、対象者と対面で座った状態で、コンテンツを対象者と共に視聴しながら、コミュニケーション行動を行うようにしても良い。 Furthermore, the robot 12 may perform communication actions while sitting face-to-face with the target person and viewing the content together with the target person.

また、上述の実施例では、ロボット12は対象者の手(右手)に触れる接触動作を行うことによって感情を表出するようにしたが、対象者の手以外の部位、たとえば、腕、胴体等に触れる接触動作を行うことによって感情を表出するようにしてもよい。 In the above-described embodiment, the robot 12 expresses emotions by touching the subject's hand (right hand). Emotions may be expressed by performing a touching action.

10 …システム
12 …アンドロイドロボット
14 …ネットワーク
16 …コンテンツ提示装置
18 …位置検出装置
26 …肩部
30 …上肢部
36 …手首部
38 …手部
40 …指部
50 …CPU
54 …RAM
56 …通信モジュール
58 …アクチュエータ制御回路
10...System 12...Android robot 14...Network 16...Content presentation device 18...Position detection device 26...Shoulder 30...Upper limb 36...Wrist 38...Hand 40...Finger 50...CPU
54...RAM
56...Communication module 58...Actuator control circuit

Claims (6)

少なくとも頭部、胴体部、腕部および手部を含み、近くに存在する人に前記手部によって触れる接触動作を行う人型のコミュニケーションロボットであって、
前記コミュニケーションロボットが表出可能な複数の感情に含まれる所定の感情を表出するイベントが発生する発生タイミングを取得する第1取得手段、
前記イベントにおいて表出する表出用の感情を取得する第2取得手段、
前記複数の感情のそれぞれに対応して予め設定される、前記接触動作の開始タイミングを算出するための複数の算出条件の中から、前記第2取得手段で取得された前記表出用の感情に対応する表出用の算出条件を設定する第1設定手段、
前記第1取得手段で取得された前記発生タイミングを基準として、前記第1設定手段で設定された前記表出用の算出条件を用いて、前記開始タイミングを算出する算出手段、および
前記算出手段で算出された前記開始タイミングに到達したときに、前記手部を変位させて、前記接触動作を行う動作制御手段を備える、コミュニケーションロボット。
A humanoid communication robot that includes at least a head, a torso, an arm, and a hand, and performs a contact action of touching a nearby person with the hand,
first acquisition means for acquiring an occurrence timing at which an event for expressing a predetermined emotion included in a plurality of emotions that can be expressed by the communication robot occurs;
a second acquisition means for acquiring emotions for expression expressed in the event;
The emotion for expression acquired by the second acquisition means is selected from among a plurality of calculation conditions for calculating the start timing of the contact motion, which are preset corresponding to each of the plurality of emotions. first setting means for setting calculation conditions for corresponding expression;
a calculation means for calculating the start timing using the expression calculation condition set by the first setting means, based on the occurrence timing acquired by the first acquisition means; A communication robot, comprising a motion control means for displacing the hand and performing the contact motion when the calculated start timing is reached.
前記複数の算出条件のそれぞれは、前記複数の感情のそれぞれに応じて予め設定される平均および分散を含み、
前記算出手段は、前記表出用の算出条件に含まれる平均および分散をパラメータとする確率密度関数に従う乱数に応じて前記開始タイミングを算出する、請求項1記載のコミュニケーションロボット。
Each of the plurality of calculation conditions includes an average and a variance that are preset according to each of the plurality of emotions,
2. The communication robot according to claim 1, wherein the calculation means calculates the start timing according to a random number according to a probability density function whose parameters are an average and a variance included in the expression calculation conditions.
前記コミュニケーションロボットは、視覚的および/または聴覚的に認識可能なコンテンツを近くに存在する人と並んで視聴する際に前記接触動作を行い、
前記イベントは、前記コンテンツのクライマックスを含む、請求項1または2記載のコミュニケーションロボット。
The communication robot performs the contact action when viewing visually and/or audibly recognizable content alongside a nearby person;
The communication robot according to claim 1 or 2, wherein the event includes a climax of the content.
前記接触動作は、前記複数の感情のそれぞれに対応する複数の動作パターンを含み、
前記複数の動作パターンの中から、前記第2取得手段で取得された前記表出用の感情に対応する表出用の動作パターンを設定する第2設定手段をさらに備え、
前記動作制御手段は、前記開始タイミングに到達したときに、前記表出用の動作パターンに従って前記接触動作を行う、請求項1から3までのいずれかに記載のコミュニケーションロボット。
The contact motion includes a plurality of motion patterns corresponding to each of the plurality of emotions,
further comprising a second setting means for setting an expression movement pattern corresponding to the expression emotion acquired by the second acquisition means from among the plurality of movement patterns;
4. The communication robot according to claim 1, wherein the motion control means performs the contact motion according to the expression motion pattern when the start timing is reached.
少なくとも頭部、胴体部、腕部および手部を含み、近くに存在する人に前記手部によって触れる接触動作を行う人型のコミュニケーションロボットのコンピュータによって実行される制御プログラムであって、前記コンピュータを、
前記コミュニケーションロボットが表出可能な複数の感情に含まれる所定の感情を表出するイベントが発生する発生タイミングを取得する第1取得手段、
前記イベントにおいて表出する表出用の感情を取得する第2取得手段、
前記複数の感情のそれぞれに対応して予め設定される、前記接触動作の開始タイミングを算出するための複数の算出条件の中から、前記第2取得手段で取得された前記表出用の感情に対応する表出用の算出条件を設定する第1設定手段、
前記第1取得手段で取得された前記発生タイミングを基準として、前記第1設定手段で設定された前記表出用の算出条件を用いて、前記開始タイミングを算出する算出手段、および
前記算出手段で算出された前記開始タイミングに到達したときに、前記手部を変位させて、前記接触動作を行う動作制御手段として機能させる、制御プログラム。
A control program executed by a computer of a humanoid communication robot that includes at least a head, a torso, an arm, and a hand, and that performs a contact action of touching a nearby person with the hand, the computer controlling the computer. ,
first acquisition means for acquiring an occurrence timing at which an event for expressing a predetermined emotion included in a plurality of emotions that can be expressed by the communication robot occurs;
a second acquisition means for acquiring emotions for expression expressed in the event;
The emotion for expression acquired by the second acquisition means is selected from among a plurality of calculation conditions for calculating the start timing of the contact motion, which are preset corresponding to each of the plurality of emotions. first setting means for setting calculation conditions for corresponding expression;
a calculation means for calculating the start timing using the expression calculation condition set by the first setting means, based on the occurrence timing acquired by the first acquisition means; A control program that, when the calculated start timing is reached, causes the hand to function as a motion control means for performing the contact motion by displacing the hand.
少なくとも頭部、胴体部、腕部および手部を含み、近くに存在する人に前記手部によって触れる接触動作を行う人型のコミュニケーションロボットの制御方法であって、
前記コミュニケーションロボットが表出可能な複数の感情に含まれる所定の感情を表出するイベントが発生する発生タイミングを取得する第1取得ステップ、
前記イベントにおいて表出する表出用の感情を取得する第2取得ステップ、
前記複数の感情のそれぞれに対応して予め設定される、前記接触動作の開始タイミングを算出するための複数の算出条件の中から、前記第2取得ステップで取得された前記表出用の感情に対応する表出用の算出条件を設定する第1設定ステップ、
前記第1取得ステップで取得された前記発生タイミングを基準として、前記第1設定ステップで設定された前記表出用の算出条件を用いて、前記開始タイミングを算出する算出ステップ、および
前記算出ステップで算出された前記開始タイミングに到達したときに、前記手部を変位させて、前記接触動作を行う動作制御ステップを含む、制御方法。
A method for controlling a humanoid communication robot that includes at least a head, a body, an arm, and a hand, and performs a contact action of touching a nearby person with the hand, the method comprising:
a first acquisition step of acquiring an occurrence timing at which an event for expressing a predetermined emotion included in a plurality of emotions that can be expressed by the communication robot occurs;
a second acquisition step of acquiring emotions for expression to be expressed in the event;
The emotion for expression acquired in the second acquisition step is selected from among a plurality of calculation conditions for calculating the start timing of the contact motion, which are preset corresponding to each of the plurality of emotions. a first setting step of setting calculation conditions for the corresponding expression;
a calculation step of calculating the start timing using the expression calculation condition set in the first setting step based on the occurrence timing obtained in the first obtaining step; A control method including a motion control step of displacing the hand and performing the contact motion when the calculated start timing is reached.
JP2020027041A 2020-02-20 2020-02-20 Communication robot, control program and control method Active JP7399740B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020027041A JP7399740B2 (en) 2020-02-20 2020-02-20 Communication robot, control program and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020027041A JP7399740B2 (en) 2020-02-20 2020-02-20 Communication robot, control program and control method

Publications (2)

Publication Number Publication Date
JP2021129814A JP2021129814A (en) 2021-09-09
JP7399740B2 true JP7399740B2 (en) 2023-12-18

Family

ID=77551528

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020027041A Active JP7399740B2 (en) 2020-02-20 2020-02-20 Communication robot, control program and control method

Country Status (1)

Country Link
JP (1) JP7399740B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110118870A1 (en) 2007-09-06 2011-05-19 Olympus Corporation Robot control system, robot, program, and information storage medium
JP2011115936A (en) 2009-11-04 2011-06-16 Advanced Telecommunication Research Institute International Robot with tactile sense presentation
US20180036887A1 (en) 2016-08-03 2018-02-08 Samsung Electronics Co., Ltd. Robot apparatus and method for expressing emotions thereof
JP2018120618A (en) 2016-06-14 2018-08-02 Groove X株式会社 Autonomously behaving robot seeking coolness
JP2019136797A (en) 2018-02-07 2019-08-22 トヨタ自動車株式会社 Communication device and control program therefor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110118870A1 (en) 2007-09-06 2011-05-19 Olympus Corporation Robot control system, robot, program, and information storage medium
JP2011115936A (en) 2009-11-04 2011-06-16 Advanced Telecommunication Research Institute International Robot with tactile sense presentation
JP2018120618A (en) 2016-06-14 2018-08-02 Groove X株式会社 Autonomously behaving robot seeking coolness
US20180036887A1 (en) 2016-08-03 2018-02-08 Samsung Electronics Co., Ltd. Robot apparatus and method for expressing emotions thereof
JP2019136797A (en) 2018-02-07 2019-08-22 トヨタ自動車株式会社 Communication device and control program therefor

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
岡村 栄里奈、外1名,"人型ロボットのハイタッチ動作の検討",「第34回日本ロボット学会学術講演会予稿集DVD-ROM 2016年」,日本,一般社団法人 日本ロボット学会,2016年09月07日,P1742-P1745(RSJ2016AC3W3-07)

Also Published As

Publication number Publication date
JP2021129814A (en) 2021-09-09

Similar Documents

Publication Publication Date Title
JP7378553B2 (en) Periocular and audio synthesis of complete facial images
US9691296B2 (en) Methods and apparatus for conversation coach
CN108886532B (en) Apparatus and method for operating personal agent
JP6391465B2 (en) Wearable terminal device and program
TWI661363B (en) Smart robot and human-computer interaction method
TWI766499B (en) Method and apparatus for driving interactive object, device and storage medium
JP7400923B2 (en) Information processing device and information processing method
JP6751536B2 (en) Equipment, robots, methods, and programs
US20080124690A1 (en) Training system using an interactive prompt character
JP2020039029A (en) Video distribution system, video distribution method, and video distribution program
US10350761B2 (en) Communication device
CN109116981A (en) A kind of mixed reality interactive system of passive touch feedback
JP7416903B2 (en) Video distribution system, video distribution method, and video distribution program
KR20190015332A (en) Devices affecting virtual objects in Augmented Reality
TW202117498A (en) Avatar facial expression generating system and method of avatar facial expression generation
JP6798258B2 (en) Generation program, generation device, control program, control method, robot device and call system
JP7399740B2 (en) Communication robot, control program and control method
JP2020091909A (en) Expression control program, recording medium, expression control device and expression control method
US20200250498A1 (en) Information processing apparatus, information processing method, and program
JP6977463B2 (en) Communication equipment, communication systems and programs
JP7156300B2 (en) Information processing device, information processing method, and program
Heisler et al. Making an android robot head talk
JP7442341B2 (en) Robot, robot control program and robot control method
JP7133840B2 (en) ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD
Haider et al. Improving Response Time of Active Speaker Detection Using Visual Prosody Information Prior to Articulation.

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20200225

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231206

R150 Certificate of patent or registration of utility model

Ref document number: 7399740

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150