JP2020037141A - Robot, robot control program, and robot control method - Google Patents

Robot, robot control program, and robot control method Download PDF

Info

Publication number
JP2020037141A
JP2020037141A JP2018164160A JP2018164160A JP2020037141A JP 2020037141 A JP2020037141 A JP 2020037141A JP 2018164160 A JP2018164160 A JP 2018164160A JP 2018164160 A JP2018164160 A JP 2018164160A JP 2020037141 A JP2020037141 A JP 2020037141A
Authority
JP
Japan
Prior art keywords
robot
human
person
agent
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018164160A
Other languages
Japanese (ja)
Other versions
JP7133840B2 (en
Inventor
昌裕 塩見
Masahiro Shiomi
昌裕 塩見
隆史 港
Takashi Minato
隆史 港
石黒 浩
Hiroshi Ishiguro
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2018164160A priority Critical patent/JP7133840B2/en
Publication of JP2020037141A publication Critical patent/JP2020037141A/en
Application granted granted Critical
Publication of JP7133840B2 publication Critical patent/JP7133840B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To execute a natural reaction operation to a human of a communication object.SOLUTION: A system 10 includes an android robot 12. The robot refers to human data on positions of each head and hand of one or a plurality of humans acquired on the basis of the output of a distance image sensor 18, determines whether or not the human is in a fixed range, and further determines whether or not the human in the fixed range and in a visual field is trying to touch the robot's face. In response to the fact that the human is trying to touch the robot's face, the robot executes a reaction operation according to a degree of affection of the human.SELECTED DRAWING: Figure 1

Description

この発明は、ロボット、ロボット制御プログラムおよびロボット制御方法に関し、特にたとえば、人間に似た外観を有する、ロボット、ロボット制御プログラムおよびロボット制御方法に関する。   The present invention relates to a robot, a robot control program, and a robot control method, and more particularly to, for example, a robot having a human-like appearance, a robot control program, and a robot control method.

この種の従来のロボットの一例が特許文献1に開示されている。この特許文献1に開示されるアンドロイド制御システムでは、人間に酷似した姿形を有する人型ロボットであるアンドロイドを有し、人間がアンドロイドに接近し、アンドロイドの前で立ち止まると、アンドロイドは当該人間に、挨拶したり、自己紹介したりする。このとき、アンドロイドの制御装置は、環境センサ(フロアセンサ)の出力に基づいて、人間がアンドロイドの近くに立ち止まったことを検出する。   An example of a conventional robot of this type is disclosed in Patent Document 1. The android control system disclosed in Patent Document 1 has an android which is a humanoid robot having a shape very similar to a human, and when the human approaches the android and stops in front of the android, the android is given to the human. Say hello or introduce yourself. At this time, the control device of the android detects that the person has stopped near the android based on the output of the environment sensor (floor sensor).

また、フロアセンサを用いない場合には、制御装置は、触覚センサや衝突センサに反応があった場合に、人間や物体等がアンドロイドに触れたり、衝突したりしたことを検出する。また、マイクに一定レベル以上の音声が入力された場合には、人間がアンドロイドに接近したり、アンドロイドに対して話し掛けたりしていることが検出される。   When a floor sensor is not used, the control device detects that a human or an object touches or collides with an android when a tactile sensor or a collision sensor responds. Also, when a sound of a certain level or more is input to the microphone, it is detected that a human is approaching or talking to the android.

特開2012−111038号JP 2012-111038 A

上記の特許文献1のアンドロイド制御システムでは、環境センサとしてフロアセンサを用いるため、人間の立ち位置とアンドロイドの配置位置との距離に基づいて、人間がアンドロイドに近づいたことを判断するため、人間が床面に接していない部位(たとえば、手)でアンドロイドに触れようとした場合には、そのことを検出できない。   In the android control system of Patent Document 1 described above, since a floor sensor is used as an environment sensor, it is determined based on the distance between the standing position of the person and the arrangement position of the android that the person has approached the android. If you try to touch the android with a part that is not in contact with the floor (for example, your hand), it cannot be detected.

ただし、フロアセンサを用いて、人間がアンドロイドに触れようとしていることを検出できない場合であっても、制御装置は、触覚センサや衝突センサに反応があった場合に、人間や物体等がアンドロイドに触れたり、衝突したりしたことを検出できる。   However, even if it is not possible to detect that a human is trying to touch the android using the floor sensor, the control device still sends a human or object to the android when the tactile sensor or collision sensor responds. Touch and collision can be detected.

しかし、この場合には、アンドロイドは、人間などのコミュニケーション対象に触れられてから反応するため、人間が他者に接触しようとする場合の当該他者の反応と異なり、アンドロイドのコミュニケーション対象である人間は違和感を覚えてしまう。   However, in this case, since the android reacts after being touched by a communication target such as a human, it differs from the reaction of the human when the human tries to contact another person, and the Will feel uncomfortable.

また、アンドロイドは、人間に、挨拶したり、自己紹介したりするようにしてあるが、同じ人間に何度も自己紹介してしまうなどの不都合もある。つまり、何度も会っている人間に対して、初対面のときと同じ動作を繰り返してしまう。   Androids greet and introduce themselves to humans, but they also have the disadvantage of introducing themselves to the same person over and over. In other words, the same operation as that of the first meeting is repeated for a person who has met many times.

それゆえに、この発明の主たる目的は、新規な、ロボット、ロボット制御プログラムおよびロボット制御方法を提供することである。   Therefore, a main object of the present invention is to provide a novel robot, a robot control program, and a robot control method.

また、この発明の他の目的は、コミュニケーション対象の人間に対して自然な反応動作を実行できる、ロボット、ロボット制御プログラムおよびロボット制御方法を提供することである。   Further, another object of the present invention is to provide a robot, a robot control program, and a robot control method that can execute a natural reaction operation on a human to be communicated.

第1の発明は、人間に似た外観を有するロボットであって、他者の好意度についての好意度データを記憶する好意度記憶手段、ロボットの周囲に存在する他者に属する部位が当該ロボットの第1所定距離内に近づいたかどうかを判断する第1接近判断手段と、第1接近判断手段によって他者に属する部位がロボットの第1所定距離内に近づいたことが判断された場合に、好意度記憶手段に記憶された当該他者の好意度に応じた反応動作を当該他者に対して実行する行動実行手段を備える、ロボットである。   A first invention is a robot having an appearance resembling a human being, wherein a preference storage means for storing preference data on the preference of another person, and a part belonging to the other person present around the robot and belonging to the robot. A first approach determining means for determining whether the robot has approached within a first predetermined distance of the robot; and a first approach determining means for determining that a part belonging to another has approached within a first predetermined distance of the robot. The robot includes an action execution unit that executes a reaction operation corresponding to the degree of favor of the other person stored in the favor degree storage unit to the other person.

第2の発明は、第1の発明に従属し、ロボットの周囲に存在する他者の形状および当該他者に属する部位の位置を算出する算出手段をさらに備える。   A second invention is according to the first invention, and further includes calculation means for calculating a shape of another person present around the robot and a position of a part belonging to the other person.

第3の発明は、第1または第2の発明に従属し、行動実行手段は、好意度が所定値以上の場合の第1反応動作または好意度が所定値未満の第2反応動作を実行する。   A third invention is according to the first or second invention, and the action execution means executes the first reaction operation when the degree of favor is equal to or more than a predetermined value or the second reaction operation in which the degree of favor is less than a predetermined value. .

第4の発明は、第3の発明に従属し、他者に属する部位が第1所定距離よりも長い第2所定距離内に近づいたかどうかを判断する第2接近判断手段をさらに備え、行動実行手段は、好意度が所定値以上であれば、第1接近判断手段によって他者に属する部位がロボットの第1距離内に近づいたことが判断された場合に、第1反応動作を実行し、好意度が所定値未満であれば、第2接近判断手段によって他者に属する部位がロボットの2所定距離内に近づいたことが判断された場合に、第2反応動作を実行する。   A fourth invention is according to the third invention, further comprising a second approach determining means for determining whether a part belonging to another person has approached within a second predetermined distance longer than the first predetermined distance, and The means executes a first reaction operation when the first approach determination means determines that a part belonging to another person has approached within a first distance of the robot if the degree of favorableness is equal to or more than a predetermined value, If the degree of favor is less than the predetermined value, the second reaction operation is executed when the second approach determining means determines that the part belonging to another person has approached within the predetermined distance of the robot.

第5の発明は、第1から第4の発明までのいずれかに従属し、他者の好意度は当該他者との間におけるコミュニケーション行動の頻度に応じて変化される。   A fifth invention is according to any one of the first to fourth inventions, wherein the degree of favor of another person is changed according to the frequency of a communication action with the other person.

第6の発明は、他者の好意度についての好意度データを記憶する好意度記憶手段を備え、人間に似た外観を有するロボットのロボット制御プログラムであって、ロボットのプロセッサに、ロボットの周囲に存在する他者に属する部位が当該ロボットの所定距離内に近づいたかどうかを判断する接近判断ステップと、接近判断ステップにおいて他者に属する部位がロボットの所定距離内に近づいたことを判断した場合に、好意度記憶手段に記憶された当該他者の好意度に応じた反応動作を当該他者に対して実行する行動実行ステップを実行させる、ロボット制御プログラムである。   A sixth aspect of the present invention is a robot control program for a robot having a likeness storage means for storing likeness data on the likeness of another person, the robot having a similar appearance to a human being. An approach judging step of judging whether or not a part belonging to another person present in the robot has approached within a predetermined distance of the robot; and when it is judged in the approach judging step that a part belonging to another person has approached within a predetermined distance of the robot. A robot control program for causing the other person to execute an action execution step of executing a reaction operation corresponding to the degree of favor of the other person stored in the favor degree storage means.

第7の発明は、他者の好意度についての好意度データを記憶する好意度記憶手段を備え、人間に似た外観を有するロボットのロボット制御方法であって、(a)ロボットの周囲に存在する他者に属する部位が当該ロボットの所定距離内に近づいたかどうかを判断するステップと、(b)ステップ(a)において他者に属する部位がロボットの所定距離内に近づいたことを判断した場合に、好意度記憶手段に記憶された当該他者の好意度に応じた反応動作を当該他者に対して実行するステップを含む、ロボット制御方法である。   A seventh invention is a robot control method for a robot having a likeness storage means for storing likeness data on the likeness of another person, the robot having a similar appearance to a human being. (B) determining whether a part belonging to another person has approached within a predetermined distance of the robot; and (b) determining in step (a) that a part belonging to another person has approached within a predetermined distance of the robot. And a step of executing a reaction operation on the other person according to the degree of favor of the other person stored in the favor degree storage means.

第8の発明は、他のエージェントの好意度についての好意度データを記憶する好意度記憶手段を備えるコンピュータによって実行され、仮想空間に存在し、人間に似た外観を有するエージェントのエージェント制御プログラムであって、コンピュータのプロセッサに、エージェントの周囲に存在する他のエージェントに属する部位が当該エージェントの所定距離内に近づいたかどうかを判断する接近判断ステップと、接近判断ステップにおいて他のエージェントに属する部位がエージェントの所定距離内に近づいたことを判断した場合に、好意度記憶手段に記憶された当該他のエージェントの好意度に応じた反応動作を当該他のエージェントに対して実行する行動実行ステップを実行させる、エージェント制御プログラムである。   An eighth invention is an agent control program for an agent which is executed by a computer provided with a likeness storage means for storing likeness data about the likeness of another agent, and which exists in a virtual space and has a human-like appearance. An approach judging step for judging whether a part belonging to another agent present around the agent has approached within a predetermined distance of the agent, and a part belonging to another agent in the approach judging step. When it is determined that the agent has approached within a predetermined distance of the agent, an action execution step of executing a reaction operation corresponding to the degree of favorableness of the other agent stored in the favorable degree storage means to the other agent is performed. Is an agent control program.

第9の発明は、仮想空間に存在し、人間に似た外観を有するエージェントを、他のエージェントの好意度についての好意度データを記憶する好意度記憶手段を備えるコンピュータで制御するエージェント制御方法であって、(a)エージェントの周囲に存在する他のエージェントに属する部位が当該エージェントの所定距離内に近づいたかどうかを判断するステップと、(b)ステップ(a)において他のエージェントに属する部位がエージェントの所定距離内に近づいたことを判断した場合に、好意度記憶手段に記憶された当該他のエージェントの好意度に応じた反応動作を当該他のエージェントに対して実行するステップを含む、エージェント制御方法である。   A ninth invention is an agent control method for controlling an agent, which exists in a virtual space and has an appearance similar to a human, by a computer having a favorable degree storage means for storing favorable degree data on the favorable degree of other agents. (A) a step of determining whether a part belonging to another agent existing around the agent has approached within a predetermined distance of the agent; and (b) a part belonging to another agent in step (a). An agent including, when it is determined that the agent has approached within a predetermined distance of the agent, performing a reaction operation on the other agent according to the degree of favorableness of the other agent stored in the favorable degree storage means. It is a control method.

この発明によれば、コミュニケーション対象の人間に対して自然な反応動作を実行することができる。   ADVANTAGE OF THE INVENTION According to this invention, a natural reaction operation | movement can be performed with respect to the communication target person.

この発明の上述の目的、その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1はこの発明の一実施例のシステムを示す図である。FIG. 1 is a diagram showing a system according to an embodiment of the present invention. 図2(A)は図1に示すアンドロイドロボットの瞼および眼球を動かすアクチュエータを説明するための図であり、図2(B)は図1に示すアンドロイドロボットの額、眉間および口角を動かすアクチュエータを説明するための図であり、図2(C)は図1に示すアンドロイドロボットの唇を動かすアクチュエータを説明するための図である。FIG. 2A is a diagram for explaining an actuator for moving the eyelids and eyeballs of the android robot shown in FIG. 1, and FIG. 2B is a diagram showing an actuator for moving the forehead, eyebrows and mouth angle of the android robot shown in FIG. FIG. 2C is a diagram for explaining an actuator that moves the lips of the android robot shown in FIG. 1. 図3は図1に示すアンドロイドロボットの頭部、肩、腰を動かすアクチュエータを説明するための図である。FIG. 3 is a diagram for explaining an actuator that moves the head, shoulders, and waist of the android robot shown in FIG. 図4は図1のアンドロイドロボットの電気的な構成を示すブロック図である。FIG. 4 is a block diagram showing an electrical configuration of the android robot of FIG. 図5は人間が他者の接触に対して反応する第1距離を測定する方法を説明するための図である。FIG. 5 is a diagram for explaining a method of measuring a first distance at which a human reacts to contact with another person. 図6は図4に示したRAMのメモリマップの一例を示す図である。FIG. 6 is a diagram showing an example of a memory map of the RAM shown in FIG. 図7は図4に示すCPUのロボット制御処理を示すフロー図である。FIG. 7 is a flowchart showing a robot control process of the CPU shown in FIG. 図8は第2実施例のRAMのメモリマップの一例を示す図である。FIG. 8 is a diagram showing an example of a memory map of the RAM according to the second embodiment. 図9は第2実施例のCPUのロボット制御処理の一部を示すフロー図である。FIG. 9 is a flowchart showing a part of the robot control process of the CPU of the second embodiment. 図10は第2実施例のCPUのロボット制御処理の他の一部であって、図9に後続するフロー図である。FIG. 10 is a flowchart showing another part of the robot control process of the CPU of the second embodiment, which is subsequent to FIG. 図11は第2実施例のCPUの高好意度の反応動作の処理を示すフロー図である。FIG. 11 is a flowchart showing a process of a reaction operation with a high degree of favor of the CPU of the second embodiment. 図12は第2実施例のCPUの低好意度の反応動作の処理を示すフロー図である。FIG. 12 is a flowchart showing a process of a low-favorable reaction operation of the CPU of the second embodiment.

<第1実施例>
図1を参照して、この第1実施例のアンドロイドロボット制御システム(以下、単に「システム」ということがある。)10は、アンドロイドロボット(以下、単に「ロボット」という)12を含む。ロボット12は、人間に酷似した姿形(外観など)を有する人型ロボットであり(図2(A)、(B)、(C)および図3参照)、人間に酷似した動作(振り、振る舞い、発話)を行う。
<First embodiment>
Referring to FIG. 1, an android robot control system (hereinafter, may be simply referred to as “system”) 10 of the first embodiment includes an android robot (hereinafter, simply referred to as “robot”) 12. The robot 12 is a humanoid robot having a shape (appearance, etc.) very similar to a human (see FIGS. 2 (A), (B), (C), and FIG. 3), and an operation (swing, behavior) very similar to a human Utterance).

ロボット12は、インターネットや電話通信回線のようなネットワーク14を介してコンピュータ16に接続される。コンピュータ16は、PCまたはサーバのような汎用のコンピュータであり、このコンピュータ16には、複数の距離画像センサ18が接続される。   The robot 12 is connected to a computer 16 via a network 14 such as the Internet or a telephone communication line. The computer 16 is a general-purpose computer such as a PC or a server, and a plurality of distance image sensors 18 are connected to the computer 16.

距離画像センサ18は、赤外光またはレーザなどの光を照射し、対象物から反射した光(反射光)をCCD(Charge Coupled Device)センサなどの光学センサによって捉える。距離画像センサ18は、光が戻るまでの時間を画素毎に計測することで、対象物までの実際の距離を測定する。また、距離画像センサ18は、対象物の形状(たとえば、人間のジェスチャ)を測定することが可能である。したがって、距離画像センサ18の出力に基づいて、人間の位置および人間の所定の部位(頭部および手)の位置を検出することができる。ただし、ロボット12が配置される場所ないし環境には、予め3次元の座標系が設定されており、所定の位置を原点として、人間の位置および人間の所定の部位の位置の3次元座標を検出することができる。ただし、この第1実施例では、人間の位置は、人間の足元の位置であるため、高さ方向の成分は無視される。このことは、ロボット12の位置についても同様である。   The range image sensor 18 emits light such as infrared light or laser, and captures light (reflected light) reflected from an object by an optical sensor such as a CCD (Charge Coupled Device) sensor. The distance image sensor 18 measures the actual time to the object by measuring the time until the light returns for each pixel. Further, the distance image sensor 18 can measure the shape of the object (for example, a human gesture). Therefore, based on the output of the distance image sensor 18, the position of a person and the position of a predetermined part (head and hand) of the person can be detected. However, a three-dimensional coordinate system is set in advance in the place or environment where the robot 12 is arranged, and the three-dimensional coordinates of the position of a human and the position of a predetermined part of the human are detected using the predetermined position as the origin. can do. However, in the first embodiment, since the position of the human is the position of the foot of the human, the component in the height direction is ignored. This is the same for the position of the robot 12.

第1実施例の距離画像センサ18としては、ASUS(登録商標)製のXtion(登録商標)と言われる製品が採用されている。なお、他の例では、距離画像センサ18は、Microsoft(登録商標)製のKinect(登録商標)センサ、パナソニック(登録商標)製の3次元距離画像センサD-IMager(登録商標)などを使用することも可能である。この種のセンサは、3次元距離計測センサ、3Dスキャナなどと言われる場合もある。   As the distance image sensor 18 of the first embodiment, a product called Xtion (registered trademark) made by ASUS (registered trademark) is employed. In another example, the distance image sensor 18 uses a Kinect (registered trademark) sensor made by Microsoft (registered trademark), a three-dimensional distance image sensor D-IMager (registered trademark) made by Panasonic (registered trademark), or the like. It is also possible. This type of sensor is sometimes referred to as a three-dimensional distance measurement sensor, a 3D scanner, or the like.

なお、距離画像センサ18としては、たとえばLiDAR(たとえば、Velodine社製のイメージングユニットLiDAR(HDL−32e)(商品名))のような全方位レーザ距離計や、ステレオカメラなども利用可能である。   In addition, as the distance image sensor 18, an omnidirectional laser range finder such as LiDAR (for example, imaging unit LiDAR (HDL-32e) (trade name) manufactured by Velodine), a stereo camera, or the like can be used.

複数の距離画像センサ18の各々からの距離画像信号は、コンピュータ16に入力され、コンピュータ16では、その距離画像信号をディジタルデータとして、メモリ(たとえばHDDまたはRAMなど)に記憶する。コンピュータ16は、このメモリに記憶した距離画像データを処理した結果得られた、1または複数の人間の各々の位置(この第1実施例では、人間の位置と、頭部26および手の3次元位置)についてのデータ(以下、「人間データ」という)をロボット12に送信する。   The distance image signal from each of the plurality of distance image sensors 18 is input to the computer 16, and the computer 16 stores the distance image signal as digital data in a memory (for example, an HDD or a RAM). The computer 16 calculates the position of each of one or a plurality of persons (in this first embodiment, the position of the person, the three-dimensional position of the head 26 and the hand) obtained by processing the distance image data stored in the memory. Data about the position (hereinafter, referred to as “human data”) is transmitted to the robot 12.

なお、図1では省略するが、ネットワーク14を介してロボット12と通信可能に外部制御端末が設けられてもよい。外部制御端末は、ロボット12を遠隔操作するためのコンピュータである。たとえば、ロボット12が人間とコミュニケーションを行う場合において、ロボット12で対応できない事象が発生したときに、管理者等が外部制御端末を用いてロボット12を制御し、ロボット12が対応できない事象について対応する。管理者等は、ロボット12を通して人間と会話したり、ロボット12にコマンドを送信してコミュニケーション行動を実行させたりする。   Although omitted in FIG. 1, an external control terminal may be provided so as to be able to communicate with the robot 12 via the network 14. The external control terminal is a computer for remotely operating the robot 12. For example, in a case where the robot 12 communicates with a human, when an event that cannot be handled by the robot 12 occurs, an administrator or the like controls the robot 12 using an external control terminal and responds to an event that the robot 12 cannot handle. . An administrator or the like talks with a human through the robot 12 or transmits a command to the robot 12 to execute a communication action.

図2(A)、図2(B)、図2(C)および図3は図1のロボット12の外観および構成の一例を示す。具体的には、図2(A)は図1に示すロボット12の瞼(28a、28b)および眼球を動かすアクチュエータA1、A2、A3、A4、A5を説明するための図であり、図2(B)は図1に示すロボット12の額、眉間および口角30を動かすアクチュエータA6、A7、A8、A9を説明するための図であり、図2(C)は図1に示すロボット12の唇を動かすアクチュエータA10、A11、A13を説明するための図である。また、図3は図1に示すロボット12の頭部26、肩32、腰34を動かすアクチュエータA14、A15、A16、A17、A18、A19を説明するための図である。以下、図2(A)〜図2(C)および図3を用いて、ロボット12の外観および構成について簡単に説明する。   2A, 2B, 2C, and 3 show an example of the appearance and configuration of the robot 12 in FIG. Specifically, FIG. 2A is a diagram for explaining the actuators A1, A2, A3, A4, and A5 for moving the eyelids (28a, 28b) and the eyeball of the robot 12 shown in FIG. FIG. 2B is a diagram for explaining the actuators A6, A7, A8, A9 for moving the forehead, eyebrows and mouth angle 30 of the robot 12 shown in FIG. 1, and FIG. 2C is a diagram showing the lips of the robot 12 shown in FIG. It is a figure for explaining actuator A10, A11, and A13 to move. FIG. 3 is a view for explaining actuators A14, A15, A16, A17, A18, and A19 for moving the head 26, the shoulder 32, and the waist 34 of the robot 12 shown in FIG. Hereinafter, the appearance and configuration of the robot 12 will be briefly described with reference to FIGS. 2A to 2C and FIG.

なお、図2(A)〜図2(C)および図3に示すロボット12は一例であり、他の外観、構成を持つ任意のアンドロイドロボットが利用可能である。また、ロボット12は、アンドロイドロボットに限定される必要は無く、人間に似た外観を有するロボットであれば他のロボットを使用することもできる。一例として、身体動作または/および音声で、コミュニケーション対象である人間または他のロボットとコミュニケーションを取ることができるコミュニケーションロボットを使用することができる。具体的には、出願人が開発等を行うコミュニケーションロボットの一例であるロボビー(登録商標)を使用することができる。このロボビーは、人間とは異なり、車輪で移動可能に構成されるが、頭部、胴体、両腕を有し、人間と似た外観を有している。   Note that the robot 12 shown in FIGS. 2A to 2C and FIG. 3 is an example, and any Android robot having another appearance and configuration can be used. Further, the robot 12 does not need to be limited to an android robot, and any other robot having an appearance similar to a human can be used. As an example, a communication robot capable of communicating with a human or other robot to be communicated by physical movement or / and voice can be used. Specifically, Robobie (registered trademark), which is an example of a communication robot developed by the applicant, can be used. Unlike a human, this Roboby is configured to be movable by wheels, but has a head, a torso, and both arms, and has an appearance similar to a human.

ロボット12は、胴体部24およびその胴体部24の上に設けられた頭部26を含む。頭部26には、目(眼球)の上下に、上瞼28aおよび下瞼28bが形成され、それらの上瞼28aおよび下瞼28bの上下動を制御することによって、目を開けたり閉じたりする動作が可能となる。頭部26にはさらに口唇が形成され、それの両端が口角30となる。口角30も同様に上下動可能である。   The robot 12 includes a body 24 and a head 26 provided on the body 24. An upper eyelid 28a and a lower eyelid 28b are formed above and below an eye (eyeball) on the head 26, and the eyes are opened and closed by controlling the vertical movement of the upper eyelid 28a and the lower eyelid 28b. Operation becomes possible. Lips are further formed on the head 26, and both ends of the lips form a corner 30. The mouth angle 30 can also be moved up and down similarly.

胴体部24の上端(頭部の下方)が肩32であり、胴体部24の中ほどが腰34である。肩32は上下動可能であり、腰34は左右にひねる(回動する)ことができ、また、前屈および後傾が可能である。   The upper end (below the head) of the torso portion 24 is a shoulder 32, and the middle of the torso portion 24 is a waist 34. The shoulder 32 can be moved up and down, the waist 34 can be twisted (rotated) left and right, and can bend forward and backward.

ロボット12の上述の各部分を動かすための以下に説明するアクチュエータは、この第1実施例では、いずれもパルス電力によって駆動されるステッピングモータであり、ステッピングモータの回転量はパルス数で決まる。パルス数が指令値として与えられる。なお、各対象部位は、平常状態において、アクチュエータに初期値が与えられ、変位させる場合に、その方向と大きさに応じたパルス数の指令値が該当するアクチュエータに与えられる。この第1実施例では、各アクチュエータは、「0−255」の指令値で動作され、「0−255」のいずれかの値が初期値として与えられる。   In the first embodiment, each of the actuators described below for moving the above-described portions of the robot 12 is a stepping motor driven by pulse power, and the rotation amount of the stepping motor is determined by the number of pulses. The number of pulses is given as a command value. In each of the target parts, an initial value is given to the actuator in a normal state, and when the target part is displaced, a command value of a pulse number according to the direction and magnitude is given to the corresponding actuator. In the first embodiment, each actuator is operated with a command value of "0-255", and any value of "0-255" is given as an initial value.

アクチュエータA1は、上瞼28aの上下動を制御するための制御するためのアクチュエータである。アクチュエータA2、A3およびA4は眼球を左右上下に動かすためのアクチュエータである。アクチュエータA5は、下瞼28bの上下動を制御するアクチュエータである。したがって、アクチュエータA1およびA5によって、目が開閉される。   The actuator A1 is an actuator for controlling the vertical movement of the upper eyelid 28a. The actuators A2, A3 and A4 are actuators for moving the eyeball left, right, up and down. The actuator A5 is an actuator that controls the vertical movement of the lower eyelid 28b. Therefore, the eyes are opened and closed by the actuators A1 and A5.

アクチュエータA6は額を動かすためのアクチュエータであり、アクチュエータA7は眉間を動かすためのアクチュエータである。   The actuator A6 is an actuator for moving the forehead, and the actuator A7 is an actuator for moving the forehead.

アクチュエータA8は、口角30を上げるためのアクチュエータである。アクチュエータA9は舌を上下方に動かすためのアクチュエータである。アクチュエータA10は口唇を左右に広げるアクチュエータであり、アクチュエータA11は口唇を前に突き出すためのアクチュエータである。   The actuator A8 is an actuator for raising the corner angle 30. The actuator A9 is an actuator for moving the tongue up and down. The actuator A10 is an actuator for expanding the lips left and right, and the actuator A11 is an actuator for protruding the lips forward.

アクチュエータA13は顎を突き出したり引いたりするためのアクチュエータである。このアクチュエータ13によって、口が開閉される。   The actuator A13 is an actuator for protruding and pulling a jaw. The mouth is opened and closed by the actuator 13.

アクチュエータA14は頭部26を左右に傾動させるためのアクチュエータであり、アクチュエータA15は頭部26を俯仰させるためのアクチュエータであり、そして、アクチュエータA16は頭部を左右に回動させるためのアクチュエータである。   The actuator A14 is an actuator for tilting the head 26 right and left, the actuator A15 is an actuator for lowering the head 26, and the actuator A16 is an actuator for rotating the head left and right. .

アクチュエータA17は肩32を上下動するためのアクチュエータである。アクチュエータA18は腰34を前屈させまたは後傾させるためのアクチュエータであり、アクチュエータA19は腰34を左右に回動(ひねる)ためのアクチュエータである。   The actuator A17 is an actuator for moving the shoulder 32 up and down. The actuator A18 is an actuator for bending the hip 34 forward or backward, and the actuator A19 is an actuator for rotating (twisting) the hip 34 right and left.

ロボット12は、図4に示すように、ロボット12の全体制御を司るプロセッサ(この第1実施例では、CPU)50を備える。CPU50は、バス52を通して通信モジュール56に接続され、したがって、CPU50は通信モジュール56を介して、ネットワーク14すなわちコンピュータ16と、有線で、または無線で、通信可能に接続される。   As shown in FIG. 4, the robot 12 includes a processor (CPU in the first embodiment) 50 that controls the entire operation of the robot 12. The CPU 50 is connected to the communication module 56 via the bus 52, and thus, the CPU 50 is communicably connected to the network 14, that is, the computer 16 via the communication module 56 by wire or wirelessly.

CPU50はまた、バス52を通してRAM54にアクセスでき、このRAM54に記憶されているプログラムやデータ(図6参照)に従って、バス52を通してアクチュエータ制御回路58に指令値を与え、各アクチュエータA1−Anの動作を制御する。   The CPU 50 can also access the RAM 54 through the bus 52, and gives a command value to the actuator control circuit 58 through the bus 52 in accordance with the programs and data (see FIG. 6) stored in the RAM 54 to control the operation of each of the actuators A1-An. Control.

RAM54は、CPU50のバッファ領域およびワーク領域として用いられる。ただし、RAM54に代えて、HDDを用いることもできる。アクチュエータ制御回路58は、CPU50から与えられる指令値に応じた数のパルス電力を生成し、それを該当するステッピングモータに与えることによって、各アクチュエータA1−Anを駆動する。   The RAM 54 is used as a buffer area and a work area of the CPU 50. However, an HDD can be used instead of the RAM 54. The actuator control circuit 58 drives each of the actuators A1 to An by generating pulse power of a number corresponding to the command value given from the CPU 50 and supplying the pulse power to the corresponding stepping motor.

ただし、アクチュエータとしてはこのようなステッピングモータを用いるものの他、サーボモータを用いるアクチュエータ、流体アクチュエータなど任意のアクチュエータが利用可能である。   However, as the actuator, any actuator such as an actuator using a servomotor and a fluid actuator can be used other than the one using such a stepping motor.

センサI/F(インタフェース)62は、バス52を介して、CPU50に接続され、触覚センサ64および眼カメラ66からのそれぞれの出力を受ける。   The sensor I / F (interface) 62 is connected to the CPU 50 via the bus 52, and receives respective outputs from the tactile sensor 64 and the eye camera 66.

触覚センサ64ないし皮膚センサは、たとえばタッチセンサであり、ロボット12の触覚の一部を構成する。つまり、触覚センサ64は、人間や他の物体等がロボット12に触れたか否かを検出するために用いられる。触覚センサ64からの出力(検出データ)は、センサI/F60を介してCPU50に与えられる。したがって、CPU50は、人間や他の物体等がロボット12に触れたこと(およびその強弱)を検出することができる。   The tactile sensor 64 or the skin sensor is, for example, a touch sensor and forms a part of the tactile sensation of the robot 12. That is, the tactile sensor 64 is used to detect whether or not a human or another object has touched the robot 12. The output (detection data) from the tactile sensor 64 is provided to the CPU 50 via the sensor I / F 60. Therefore, the CPU 50 can detect that a human or another object touches the robot 12 (and the strength thereof).

眼カメラ66は、イメージセンサであり、ロボット12の視覚の一部を構成する。つまり、眼カメラ66は、ロボット12の眼から見た映像ないし画像を検出するために用いられる。この第1実施例では、眼カメラ66の撮影映像(動画ないし静止画)に対応するデータ(画像データ)は、センサI/F60を介してCPU50に与えられる。CPU50は、その画像データを、RAM54に記憶したり、通信モジュール56およびネットワーク14(図1)を介して外部のコンピュータ(たとえば、外部制御端末)に送信したりする。   The eye camera 66 is an image sensor and forms a part of the vision of the robot 12. That is, the eye camera 66 is used to detect a video or image viewed from the eyes of the robot 12. In the first embodiment, data (image data) corresponding to a captured image (moving image or still image) of the eye camera 66 is provided to the CPU 50 via the sensor I / F 60. The CPU 50 stores the image data in the RAM 54 or transmits the image data to an external computer (for example, an external control terminal) via the communication module 56 and the network 14 (FIG. 1).

また、スピーカ68およびマイク70は、入出力I/F62に接続される。スピーカ68は、ロボット12が発話を行う際に音声を出力する。マイク70は、音センサであり、ロボット12の聴覚の一部を構成する。このマイク70は、指向性を有し、主として、ロボット12と対話(コミュニケーション)するコミュニケーション対象である人間の音声を検出するために用いられる。   Further, the speaker 68 and the microphone 70 are connected to the input / output I / F 62. The speaker 68 outputs a sound when the robot 12 speaks. The microphone 70 is a sound sensor and forms a part of the hearing of the robot 12. The microphone 70 has directivity, and is mainly used for detecting a voice of a human being who is to communicate with the robot 12 (communication).

このような構成のシステム10は、或る会社や或るイベント会場などに適用され、ロボット12は、人間の代役として働く。たとえば、ロボット12は、会社やイベント会場の受付として機能する。ロボット12は、人間からの話し掛けに応じて、人間と会話したり、人間を道案内したりするなどのコミュニケーション行動(または動作)を行う。このとき、ロボット12は、音声を発するのみならず、頭部26、肩32および腰34の少なくとも1つを動かす。   The system 10 having such a configuration is applied to a certain company, a certain event venue, or the like, and the robot 12 acts as a substitute for a human. For example, the robot 12 functions as a reception at a company or an event venue. The robot 12 performs a communication action (or action) such as talking with a human or guiding a human in response to a talk from a human. At this time, the robot 12 not only emits a voice, but also moves at least one of the head 26, the shoulder 32, and the waist 34.

なお、詳細な説明は省略するが、コミュニケーション行動を実行する場合において、音声を発するときには、口が開閉され、さらに、額、眉間および口角30が動かされることにより、顔の表情が変化される。このような口、額、眉間、口角30などの動きもコミュニケーション行動に含まれる。以下、コミュニケーション行動を実行する場合について同様である。   Although a detailed description is omitted, when a communication action is performed, the mouth is opened and closed when a voice is emitted, and the facial expression is changed by moving the forehead, eyebrows, and mouth angle 30. Such movements of the mouth, forehead, eyebrows, mouth corner 30 and the like are also included in the communication behavior. Hereinafter, the same applies to the case where a communication action is performed.

たとえば、ロボット12は、人間と会話する場合において、人間の話を聞くときに、単に聞くまたは同意するときの音声(たとえば、「はい」)を発しながら、相槌を打つように、首を縦に振る(頷く)、または、同意しないときの音声(たとえば、「いいえ」)を発しながら、首を横に振るまたは首を傾げる。また、ロボット12は、人間から話しかけられると、挨拶したり、自己紹介したり、要件を聞いたりする。挨拶する場合には、「おはようございます」または「こんにちは」と発しながら、お辞儀する、つまり、上体を少し前傾する。   For example, when talking with a human, the robot 12 may be able to hear his or her voice simply by listening or agreeing (e.g., "yes") while striking a neck so as to hit each other. Shaking (nodding) or shaking or tilting the head while giving a voice when disagreement (eg, “No”). When spoken by a human, the robot 12 greets, introduces itself, and listens to requirements. In the case of greeting, while issued a "good morning" or "Hello", to bow, in other words, tilted forward a little upper body.

また、ロボット12は、道案内する場合には、道順の音声を発しながら、頭部26を動かし、道順に従う進行方向を向くように視線を向けるとともに、肩32を動かし、進行方向に手を伸ばす(指さす)。ただし、この第1実施例では、ロボット12の視線は、ロボット12の左右の目の中心を結ぶ線分の垂直二等分線であって、顔の正面側に延びる直線を意味する。   Further, when guiding the route, the robot 12 moves the head 26 while uttering the voice of the route, turns the head to look in the traveling direction according to the route, moves the shoulder 32, and reaches in the traveling direction. (Points). However, in the first embodiment, the line of sight of the robot 12 is a vertical bisector of a line connecting the centers of the left and right eyes of the robot 12 and means a straight line extending in front of the face.

このように、人間と会話したり、道案内のような所定のサービスを提供したりするためのコミュニケーション行動(後述する「反応動作」に対して「通常動作」という)は、コミュニケーション対象としての人間がロボット12に話し掛けた(問い掛けた)ことに応じて、反応動作を実行した後に、実行される。ただし、人間がロボット12に話し掛ける(問い掛ける)場合には、人間は或る程度の距離(たとえば、60〜70cm)までロボット12に近づく必要がある。これは、ロボット12が、人間の音声を検出し、検出した音声を正しく音声認識するためである。   As described above, a communication action for talking with a human or providing a predetermined service such as a route guide (hereinafter, referred to as a “normal action” with respect to a “reaction action” described later) is a human communication target. Is executed after performing a reaction operation in response to (talking to) the robot 12. However, when a human talks (interrogates) the robot 12, the human needs to approach the robot 12 to a certain distance (for example, 60 to 70 cm). This is because the robot 12 detects human voice and correctly recognizes the detected voice.

また、ロボット12は、所定の入力(または、刺激)に反応して実行するコミュニケーション行動(反行動作)を実行する。所定の入力は、ロボット12が備える各種のセンサの入力である。具体的には、所定の入力は、距離画像センサ18の出力に基づいて一定範囲(たとえば、ロボット12の位置を中心とする半径60〜70cmの円内)内に物または人間が存在することを検出したことである。ただし、距離のみならず、眼カメラ66の撮影画像に基づいて、さらに、ロボット12の前方に物または人間が存在することを知ることもできる。また、所定の入力は、触覚センサ64によって、ロボット12が物または人間に衝突または触れられたことを検出したことである。さらに、所定の入力は、マイク70によって、一定レベル以上の音量の音声を検出したことである。   Further, the robot 12 performs a communication action (return action) executed in response to a predetermined input (or stimulus). The predetermined input is an input of various sensors provided in the robot 12. Specifically, the predetermined input is based on the output of the distance image sensor 18 and indicates that an object or a person exists within a certain range (for example, within a circle having a radius of 60 to 70 cm centered on the position of the robot 12). That was detected. However, based on not only the distance but also the image captured by the eye camera 66, it can be further known that there is an object or a person in front of the robot 12. The predetermined input is that the tactile sensor 64 detects that the robot 12 has collided with or touched an object or a person. Further, the predetermined input is that the microphone 70 has detected a sound having a volume higher than a certain level.

この第1実施例では、反応動作は、ロボット12は、人間がロボット12に近づき、この人間がロボット12の視野内に居て(または存在し)、この人間に属する所定の部位(この第1実施例では「手」)がロボット12の所定の部位(たとえば「顔」)に触れようとしたときに、触れようとしたことに気付いて行うコミュニケーション行動(動作)、人間がロボット12に近づき、この人間がロボット12の視野内に居ないで、この人間がロボット12に触れたときに、触れたことに気づいて行う動作、または人間がロボット12に話し掛けたことに対して行う動作を意味する。   In the first embodiment, the reaction operation is as follows. The robot 12 is configured such that a human approaches the robot 12, the human is within (or is present in) the field of view of the robot 12, and a predetermined part (the first In the embodiment, when a “hand” attempts to touch a predetermined part (for example, “face”) of the robot 12, a communication action (action) performed by noticing the touch, a human approaches the robot 12, When the human is not in the field of view of the robot 12 and touches the robot 12, this means an operation performed by noticing that the human has touched or an operation performed in response to a human talking to the robot 12. .

また、この第1実施例では、反応動作として、ロボット12は、ロボット12に話し掛けること無く、ロボット12自身の顔(頭部26)に触れようとした人間の顔を見る動作(コミュニケーション行動)が実行される。このため、何かに集中していて、近づく人間に気づいていなかったロボット12が、当該人間がロボット12の顔に触れようとしたことに気づいて反応するように動作することができる。   Further, in the first embodiment, as a reaction operation, the robot 12 does not talk to the robot 12 but sees a human face trying to touch the face (head 26) of the robot 12 itself (communication action). Be executed. Therefore, the robot 12 that is focused on something and has not noticed the approaching person can operate so as to react to notice that the person has tried to touch the face of the robot 12.

具体的には、CPU50は、コンピュータ16からの出力(人間データ)を検出し、人間がロボット12を基準とする一定範囲内に居るかどうかを判断する。ロボット12は、自身が配置されている位置の座標を予め記憶しており、その座標と人間データに含まれる人間の位置の座標から人間との距離を算出することができる。算出した距離が一定範囲を規定する長さよりも短い場合に、人間がロボット12を基準とする一定範囲内に居ると判断し、算出した距離が一定範囲を規定する長さ以上である場合に、人間がロボット12を基準とする一定範囲内に居ないと判断する。   Specifically, the CPU 50 detects an output (human data) from the computer 16 and determines whether or not a human is within a certain range based on the robot 12. The robot 12 previously stores the coordinates of the position where the robot 12 is located, and can calculate the distance to the human from the coordinates and the coordinates of the human position included in the human data. If the calculated distance is shorter than the length that defines the certain range, it is determined that the human is within the certain range based on the robot 12, and if the calculated distance is equal to or longer than the length that defines the certain range, It is determined that the human is not within a certain range based on the robot 12.

人間がロボット12を基準とする一定範囲内に居る場合には、CPU50は、当該人間がロボット12の視野内に居るかどうかを判断する。つまり、CPU50は、ロボット12の現在の顔の向きを基準の方向(つまり、視線の方向)とした場合に、上記の一定範囲内に居る人間がロボット12の視野角内に居るかどうかを判断する。   When a human is within a certain range based on the robot 12, the CPU 50 determines whether or not the human is within the field of view of the robot 12. That is, when the current face direction of the robot 12 is set as the reference direction (that is, the direction of the line of sight), the CPU 50 determines whether or not a person who is within the above-described certain range is within the viewing angle of the robot 12. I do.

ただし、ロボット12の視野角は、一般的な人間の視野角に合わせて、水平方向が約200度(ただし、視線を基準(中心)に、左右のそれぞれに100度である)で設定され、垂直方向が約125度(ただし、視線を基準に、下向きが75度で、上向きが50度である)に設定される。ただし、この第1実施例では、ロボット12が見ている方向に人間が居るかどうかを判断するだけであるため、垂直方向については無視される。   However, the viewing angle of the robot 12 is set to be about 200 degrees in the horizontal direction (however, 100 degrees for each of the left and right sides based on the line of sight) in accordance with the viewing angle of a general human, The vertical direction is set to about 125 degrees (however, based on the line of sight, the downward direction is 75 degrees and the upward direction is 50 degrees). However, in the first embodiment, since it is only determined whether or not a human is present in the direction in which the robot 12 is looking, the vertical direction is ignored.

ロボット12は、自身の視線が向く方向(垂直方向の成分を除く)に大きさが1のベクトル(視線ベクトル)を算出するとともに、ロボット12の位置から人間の位置に向かうベクトルを算出し、この2つのベクトルが成す角度が100度以内であるかどうかを判断する。2つのベクトルが成す角度が100度以内であれば、人間がロボット12の視野内に居ることが判断される。一方、2つのベクトルが成す角度が100度を超えている場合には、人間がロボット12の視野外に居ることが判断される。   The robot 12 calculates a vector (line-of-sight vector) having a magnitude of 1 in the direction in which its line of sight is directed (excluding the vertical component), and calculates a vector from the position of the robot 12 to the position of the human. It is determined whether the angle formed by the two vectors is within 100 degrees. If the angle formed by the two vectors is within 100 degrees, it is determined that the human is in the field of view of the robot 12. On the other hand, when the angle formed by the two vectors exceeds 100 degrees, it is determined that the human is outside the visual field of the robot 12.

なお、この実施例では、視野角は固定的に設定されるが、可変的に設定されてもよい。たとえば、人間がロボット12に近づくに連れて視野角は小さくされてもよい。   In this embodiment, the viewing angle is fixedly set, but may be set variably. For example, the viewing angle may be reduced as a person approaches the robot 12.

人間がロボット12の視野内に居る場合には、CPU50は、当該人間の手がロボット12の顔周辺の所定距離(第1距離:たとえば20cm)以内に有るかどうかを判断する。具体的には、この第1実施例では、人間の手と、ロボット12の頭部26の表面との距離が所定距離以内であるかどうかが判断される。人間の手がロボット12の顔周辺の20cm以内に有る場合に、人間がロボット12の顔に触れようとしていることが判断される。一方、人間の手がロボット12の顔周辺の20cmを超えて離れている場合には、人間がロボット12の顔に触れようとしていることが判断されない。   When a human is in the field of view of the robot 12, the CPU 50 determines whether or not the human hand is within a predetermined distance (first distance: for example, 20 cm) around the face of the robot 12. Specifically, in the first embodiment, it is determined whether or not the distance between the human hand and the surface of the head 26 of the robot 12 is within a predetermined distance. If the human hand is within 20 cm of the periphery of the robot 12 face, it is determined that the human is about to touch the robot 12 face. On the other hand, if the human hand is separated by more than 20 cm around the face of the robot 12, it is not determined that the human is about to touch the face of the robot 12.

詳細な説明は省略するが、上記の一定範囲内に、複数の人間が居る場合には、各人間について、ロボット12の視野内に居るかどうかが判断される。さらに、複数の人間がロボット12の視野内に居る場合には、ロボット12に最も近い人間について、当該人間の手がロボット12の顔周辺の第1距離以内に有るかどうかが判断される。ただし、複数の人間がロボット12の視野内に居る場合には、いずれかの人間の手がロボット12の顔周辺の第1距離以内に有るかどうかが判断されてもよい。   Although a detailed description will be omitted, when there are a plurality of persons within the above-described certain range, it is determined whether or not each person is within the field of view of the robot 12. Further, when a plurality of humans are within the field of view of the robot 12, it is determined whether or not the hand closest to the robot 12 is within a first distance around the face of the robot 12. However, when a plurality of humans are in the field of view of the robot 12, it may be determined whether or not any of the human hands is within a first distance around the face of the robot 12.

この第1実施例では、上述したように、人間がロボット12の顔に触れようとしていることが判断されると、ロボット12は、反応動作として、ロボット12自身の顔をその人間の顔の方に向ける。コンピュータ16から送信される人間データに基づいて、人間の顔の3次元位置を検出し、この3次元位置をロボット12の視線が通るように、アクチュエータA14、A15およびA16の少なくとも1つが制御され、ロボット12の頭部26の向きが変化される。   In the first embodiment, as described above, when it is determined that a human is about to touch the face of the robot 12, the robot 12 causes the robot 12 to change its face to the human face as a reactive action. Turn to. Based on the human data transmitted from the computer 16, the three-dimensional position of the human face is detected, and at least one of the actuators A 14, A 15 and A 16 is controlled so that the line of sight of the robot 12 passes through the three-dimensional position, The direction of the head 26 of the robot 12 is changed.

ただし、第1実施例では、人間がロボット12の視野内に居ない(または存在しない)場合には、ロボット12は人間にいずれかの部位を触れられると、わずかな反応動作を実行した後に、当該人間の方に顔を向ける。ただし、わずかな反応動作とは、触られたことに気づく動作を意味し、より具体的には、ぴくりとするように、少し上体を後傾する動作を意味する。つまり、CPU50は、人間に触られると、触れた手が伸びる方向(この第1実施例では、2次元の方向すなわち水平方向)と同じ方向に、ロボット12の上体を少し傾ける(たとえば、3次元空間における高さ方向に対して5〜10度程度傾ける)ように、アクチュエータA18またはA19を制御する。   However, in the first embodiment, when a human is not in the field of view of the robot 12 (or does not exist), the robot 12 performs a slight reaction operation when touching any part by the human, Turn your face toward the person. However, the slight reaction operation means an operation of noticing that a touch has been made, and more specifically, an operation of slightly tilting the upper body backward so as to be surprised. That is, when touched by a human, the CPU 50 slightly tilts the upper body of the robot 12 in the same direction as the direction in which the touched hand extends (in the first embodiment, a two-dimensional direction, that is, a horizontal direction) (for example, 3 degrees). The actuator A18 or A19 is controlled so as to incline by about 5 to 10 degrees with respect to the height direction in the dimensional space.

また、詳細な説明は省略するが、人間がロボット12に話し掛ける(問い掛ける)と、反応動作として、“挨拶”の動作を実行したり、“返事”の動作を実行したりする。詳細な説明は省略するが、“挨拶”の動作では、ロボット12は、“こんにちは”と発話した後に、お辞儀する。また、“返事”の動作では、ロボット12は、“はい”と発話した後に、人間の方を見る。   Although a detailed description is omitted, when a human talks (questions) to the robot 12, a “greeting” operation or a “reply” operation is executed as a reaction operation. Although a detailed description is omitted, in the operation of "greeting", robot 12, after the speech as "Hello", to bow. In the operation of “reply”, the robot 12 looks at a human after speaking “yes”.

また、上述したように、この第1実施例では、第1距離は20cmに設定される。この第1距離の数値は、実験を行うことにより決定された数値である。   As described above, in the first embodiment, the first distance is set to 20 cm. The numerical value of the first distance is a numerical value determined by performing an experiment.

人間が他者の接触に対してどの程度の距離で反応するかを検証するために、お互いを知らない他人の被験者同士によるデータ収集実験を行った。具体的には、図5に示すように、まず評価者T1である被験者が椅子に座って正面を見ている状況で、接触者T2となる被験者が評価者T1の顔へゆっくりと手を近づけ、評価者T1がそれ以上手を近づけてほしくないと感じる距離でボタンを押すことでその距離を計測する、というデータ収集が行われた。距離の計測には、2台の距離画像センサ18(実験では、Kinect V2を使用)が用いられた。また、図5に示すように、接触者T2の立ち位置は、9か所(0〜8)用意し、それぞれの立ち位置から様々な角度で評価者T1の顔へ手を近づけてもらうタスクを繰り返し行った。接触者T2と評価者T1の性別を考慮し、4通りの組み合わせで、それぞれ10ペア(合計40ペア;男性評価者・女性接触者、女性評価者・男性接触者、男性評価者・男性評価者、女性評価者・女性評価者)についてデータ収集を行い、約12000回の対接触前距離データを収集した。   In order to verify how far humans respond to contact with others, we conducted data collection experiments with other subjects who did not know each other. Specifically, as shown in FIG. 5, first, in a situation where the subject who is the evaluator T1 is sitting in a chair and looking at the front, the subject who becomes the contactor T2 slowly approaches his / her hand to the face of the evaluator T1. Then, data collection was performed in which the evaluator T1 measures the distance by pressing a button at a distance where the evaluator T1 does not want the hand to be closer. Two distance image sensors 18 (Kinect V2 was used in the experiment) were used for distance measurement. Further, as shown in FIG. 5, nine standing positions (0 to 8) of the contact person T2 are prepared, and a task of having the hand approach the face of the evaluator T1 at various angles from each standing position is performed. Repeated. Taking into account the gender of the contactor T2 and the evaluator T1, 10 pairs in each of the four combinations (40 pairs in total; male evaluator / female contactor, female evaluator / male contactor, male evaluator / male evaluator) , Female evaluator / female evaluator), and distance data before contact were collected about 12,000 times.

収集したデータなどを分析した結果、平均約20cmの距離で、評価者T1がそれ以上手を近づけてほしくないと感じることが示された。また、接触者T2と評価者T1の性別による有意な影響は見られておらず、手を近づける角度による有意な影響も見られなかった。このようにして、ロボット12が反応動作を実行するかどうかを判断するための第1距離が決定された。   Analysis of the collected data and the like indicated that at an average distance of about 20 cm, the evaluator T1 felt that he did not want any more hands. In addition, no significant effect due to the gender of the contactor T2 and the evaluator T1 was observed, and no significant effect due to the angle of approaching the hand was observed. In this way, the first distance for determining whether the robot 12 performs the reaction operation has been determined.

また、上記のように、通常動作および反応動作では、ロボット12が、所定の振り、振る舞いのような身体動作または/および発話動作を行う。したがって、この第1実施例では、通常動作および反応動作のようなコミュニケーション行動を実行するための制御情報は、アクチュエータ(A1〜A11、A13〜A19)を駆動制御するための制御データまたは/および発話内容についての合成音声の音声データを含み、各コミュニケーション行動に付された名称(コマンド名)に対応して記憶される。ただし、身体動作には、自然の動作(無意識動作)も含まれる。無意識動作の代表的な例としては、瞬きや呼吸が該当する。また、このような生理的な動作のみならず、人間の癖による動作も無意識動作に含まれる。たとえば、癖による動作としては、たとえば、髪の毛を触る動作、顔を触る動作や爪を噛む動作などが該当する。また、制御情報は、身体動作とは別に、口の動きおよび顔の表情を表現するための制御データも含む。   In addition, as described above, in the normal operation and the reaction operation, the robot 12 performs a bodily operation such as a predetermined swing and behavior or / and an utterance operation. Therefore, in the first embodiment, the control information for executing the communication action such as the normal action and the reaction action is the control data for driving and controlling the actuators (A1 to A11, A13 to A19) and / or the utterance. It contains the voice data of the synthesized voice for the content, and is stored corresponding to the name (command name) given to each communication action. However, the physical motion includes a natural motion (unconscious motion). Blinking and breathing are typical examples of unconscious movements. In addition to such physiological actions, unconscious actions include actions due to human habits. For example, the operation due to the habit corresponds to, for example, an operation of touching hair, an operation of touching a face, an operation of biting a nail, and the like. The control information also includes control data for expressing mouth movements and facial expressions, in addition to body movements.

図4では省略したが、コミュニケーション行動についての制御情報は、HDDのような不揮発性のメモリに記憶され、必要に応じて、HDDから読み出され、RAM54に書き込まれる。   Although omitted in FIG. 4, control information on the communication behavior is stored in a non-volatile memory such as an HDD, read from the HDD as needed, and written into the RAM 54.

図6は図4に示したRAM54のメモリマップ300の一例を示す図である。図6に示すように、RAM54は、プログラム記憶領域302およびデータ記憶領域304を含む。   FIG. 6 is a diagram showing an example of the memory map 300 of the RAM 54 shown in FIG. As shown in FIG. 6, the RAM 54 includes a program storage area 302 and a data storage area 304.

プログラム記憶領域302には、通信プログラム302a、距離検出プログラム302b、動作制御プログラム302cおよび音声処理プログラム302dが記憶される。   The program storage area 302 stores a communication program 302a, a distance detection program 302b, an operation control program 302c, and an audio processing program 302d.

通信プログラム302aは、他のロボットまたはコンピュータ(たとえば、コンピュータ16)と通信するためのプログラムである。距離検出プログラム302bは、コンピュータ16から送信される人間データに基づいて、一人または複数の人間の各々との距離についてのデータ(以下、「距離データ」という)を検出または取得するためのプログラムである。   The communication program 302a is a program for communicating with another robot or computer (for example, the computer 16). The distance detection program 302b is a program for detecting or acquiring data on the distance to one or more persons (hereinafter, referred to as “distance data”) based on the human data transmitted from the computer 16. .

動作制御プログラム302cは、ロボット12の動作を制御するためのプログラムであって、頭部制御プログラム3020、口唇動作制御プログラム3022、表情制御プログラム3024、上半身(肩)制御プログラム3026および下半身(腰)制御プログラム3028を含む。   The motion control program 302c is a program for controlling the motion of the robot 12, and includes a head control program 3020, a lip motion control program 3022, an expression control program 3024, an upper body (shoulder) control program 3026, and a lower body (waist) control. And a program 3028.

頭部制御プログラム3020は、ロボット12の頭部26(図2)を通常動作または反応動作に適合するように、図3に示すアクチュエータA14−A16を制御するためのプログラムである。   The head control program 3020 is a program for controlling the actuators A14 to A16 shown in FIG. 3 so that the head 26 (FIG. 2) of the robot 12 is adapted to a normal operation or a reaction operation.

口唇動作制御プログラム3022は、ロボット12がスピーカ68から発話するとき、その発話音声(合成音声)に適合する口唇形状となるように、たとえば図2(C)に示すアクチュエータA10−A11を制御するためのプログラムである。   The lip operation control program 3022 controls, for example, the actuators A10 to A11 shown in FIG. 2C so that when the robot 12 utters from the speaker 68, the lip shape conforms to the uttered voice (synthesized voice). Program.

表情制御プログラム3024は、通常動作または反応動作に合わせてロボット12の目または/および口の表情を表現するように、図2(A)〜図2(C)に示すアクチュエータA1〜A11およびA13を制御するためのプログラムである。   The expression control program 3024 controls the actuators A1 to A11 and A13 shown in FIGS. 2A to 2C to express the expression of the eyes and / or mouth of the robot 12 in accordance with the normal operation or the reaction operation. It is a program for controlling.

上半身(肩)制御プログラム3026は、通常動作または反応動作に合わせてロボット12の上半身(肩)32の動作を行うように、図3に示すアクチュエータA17を制御するためのプログラムである。   The upper body (shoulder) control program 3026 is a program for controlling the actuator A17 shown in FIG. 3 so as to perform the operation of the upper body (shoulder) 32 of the robot 12 in accordance with the normal operation or the reaction operation.

下半身(腰)制御プログラム3028は、通常動作または反応動作に合わせてロボット12の下半身(腰)34の動作を行うために、図3に示すアクチュエータA18およびA19を制御するためのプログラムである。   The lower body (waist) control program 3028 is a program for controlling the actuators A18 and A19 shown in FIG. 3 in order to operate the lower body (waist) 34 of the robot 12 in accordance with the normal operation or the reaction operation.

音声処理プログラム302dは、音声認識プログラムおよび音声合成プログラムを含む。音声認識プログラムは、マイク70を通して入力される、人間がロボット12に対して発話した内容をCPU50が認識するためのプログラムであり、CPU50は、たとえばDPマッチングや隠れマルコフ法(Hidden Markov Model:HMM)により、人間の発話内容を音声認識する。また、CPU50は、音声合成プログラムを実行することにより、音声合成データに従って合成した音声をスピーカ68に出力する。   The speech processing program 302d includes a speech recognition program and a speech synthesis program. The voice recognition program is a program for allowing the CPU 50 to recognize the contents of a human speaking to the robot 12 input through the microphone 70. The CPU 50 includes, for example, DP matching and a Hidden Markov Model (HMM). Thus, the speech content of the human utterance is recognized. The CPU 50 outputs a voice synthesized according to the voice synthesis data to the speaker 68 by executing the voice synthesis program.

図示は省略するが、プログラム記憶領域302には、ロボット12を制御するための他のプログラムが記憶される。   Although not shown, another program for controlling the robot 12 is stored in the program storage area 302.

RAM54のデータ記憶領域304には、種々のデータが記憶される。音声データ304aは、マイク70から入力される音声データであり、一時的に記憶される。辞書データ304bは、音声認識のために必要な辞書などのデータである。距離データ304cは、距離検出プログラム302bに従って検出された距離データであり、一時的に記憶される。ただし、複数の人間がロボット12の周囲に存在する場合には、各人間についての距離データが検出される。   Various data are stored in the data storage area 304 of the RAM 54. The audio data 304a is audio data input from the microphone 70, and is temporarily stored. The dictionary data 304b is data such as a dictionary necessary for voice recognition. The distance data 304c is distance data detected according to the distance detection program 302b, and is temporarily stored. However, when a plurality of people exist around the robot 12, distance data for each person is detected.

図示は省略するが、データ記憶領域304には、ロボット12の制御に必要なコミュニケーション行動を実行するための制御情報などの他のデータが記憶され、また、CPU50の動作に必要な、タイマ、レジスタ、フラグなどが設けられる。   Although not shown, the data storage area 304 stores other data such as control information for executing a communication action necessary for controlling the robot 12, and also includes a timer and a register necessary for the operation of the CPU 50. , A flag, and the like.

図7は第1実施例における図4に示すCPU50のロボット制御処理の一例を示すフロー図である。図7に示すように、CPU50は、ロボット制御処理を開始すると、ステップS1で、ロボット12の顔の向きを初期の方向に設定する。この第1実施例では、初期の方向は、ロボット12の顔の向きが正面を向いている方向であり、アクチュエータA14、A15およびA16の指令値がすべての初期値に設定される。   FIG. 7 is a flowchart showing an example of the robot control process of the CPU 50 shown in FIG. 4 in the first embodiment. As shown in FIG. 7, when starting the robot control process, the CPU 50 sets the direction of the face of the robot 12 to the initial direction in step S1. In the first embodiment, the initial direction is the direction in which the face of the robot 12 faces the front, and the command values of the actuators A14, A15, and A16 are set to all the initial values.

次のステップS3では、一定時間(たとえば、数秒から十数秒)待機する。第1実施例では、ロボット12が一点を見つめるように動作させることにより、何かに集中していることが表現される。たとえば、口を閉じて、少し下向きで机の上の資料を見つめ、瞬きするように、瞼(28aおよび28b)が動作される。つまり、CPU50は、アクチュエータA1およびA5を制御したり、アクチュエータA13を制御したり、アクチュエータA15を制御したりする。   In the next step S3, the process waits for a fixed time (for example, several seconds to ten and several seconds). In the first embodiment, the robot 12 is operated to look at one point, thereby expressing that the robot 12 is concentrated on something. For example, the eyelids (28a and 28b) are actuated to close their mouth, stare slightly downward at the material on the desk, and blink. That is, the CPU 50 controls the actuators A1 and A5, controls the actuator A13, and controls the actuator A15.

続いて、ステップS5では、人間が一定範囲(たとえば、ロボット12の位置を中心とする60〜70cmの円)内に居るかどうかを判断する。ここでは、CPU50は、コンピュータ16からの人間データを受信し、受信した人間データに基づいて、人間との距離を算出し、人間が一定範囲内に居るかどうかを判断する。   Subsequently, in step S5, it is determined whether or not the human is within a certain range (for example, a circle of 60 to 70 cm centering on the position of the robot 12). Here, the CPU 50 receives the human data from the computer 16, calculates the distance to the human based on the received human data, and determines whether the human is within a certain range.

ステップS5で“NO”であれば、つまり、人間が一定範囲内に居なければ、ステップS1に戻る。一方、ステップS5で“YES”であれば、つまり、人間が一定範囲内に居れば、ステップS7で、当該人間がロボット12の視野内に居るかどうかを判断する。ここでは、CPU50は、人間データに基づいて、人間がロボット12の視野角内に居るかどうかを判断する。   If “NO” in the step S5, that is, if the person is not within the predetermined range, the process returns to the step S1. On the other hand, if “YES” in the step S5, that is, if the human is within a certain range, it is determined whether or not the human is in the visual field of the robot 12 in a step S7. Here, the CPU 50 determines whether or not a human is within the viewing angle of the robot 12 based on the human data.

ステップS7で“YES”であれば、つまり、人間がロボット12の視野内に居れば、ステップS9で、人間の手がロボット12の顔周辺の第1距離以内に有るかどうかを判断する。ここでは、CPU50は、人間データに基づいて、人間の手がロボット12の顔(頭部26)から第1距離以内に位置するかどうかを判断する。つまり、人間がロボット12の顔を触ろうとしているかどうかを判断する。   If “YES” in the step S7, that is, if the human is within the visual field of the robot 12, it is determined in a step S9 whether the human hand is within the first distance around the face of the robot 12. Here, the CPU 50 determines whether the human hand is located within a first distance from the face (head 26) of the robot 12 based on the human data. That is, it is determined whether or not a human is about to touch the face of the robot 12.

ステップS9で“NO”であれば、つまり、人間の手がロボット12の顔周辺の第1距離以内に無ければ、ステップS1に戻る。一方、ステップS9で“YES”であれば、つまり、人間の手がロボット12の顔周辺の第1距離以内に有れば、ステップS11で、ロボット12の顔を人間の顔の方に向けて、ステップS19に進む。このステップS11では、CPU50は、人間データから人間の顔の3次元位置を取得し、この3次元位置を視線が通るように、頭部26を動作させる。   If “NO” in the step S9, that is, if the human hand is not within the first distance around the face of the robot 12, the process returns to the step S1. On the other hand, if “YES” in the step S9, that is, if the human hand is within the first distance around the face of the robot 12, the face of the robot 12 is turned toward the human face in a step S11. The process proceeds to step S19. In this step S11, the CPU 50 acquires the three-dimensional position of the human face from the human data, and operates the head 26 so that the line of sight passes through the three-dimensional position.

したがって、ロボット12は、人間がロボット12自身の顔を触ろうとしていることを察知して、この人間の顔を見るように動作される。たとえば、人間が、他の人間に近づいて、この他の人間の顔に触れようとした場合に、他の人間が行う動作と同様の動作をロボット12に実行させることができる。つまり、ロボット12は自然な反応動作を行うため、ロボット12の顔を触れようとした人間が違和感を覚えるのを出来る限り防止することができる。   Therefore, the robot 12 is operated so as to detect that a human is about to touch the face of the robot 12 and look at the human face. For example, when a human approaches another human and tries to touch the face of the other human, the robot 12 can cause the robot 12 to perform the same operation as the operation performed by the other human. That is, since the robot 12 performs a natural reaction operation, it is possible to prevent a person who tries to touch the face of the robot 12 from feeling uncomfortable as much as possible.

また、ステップS7で“NO”であれば、つまり、人間がロボット12の視野内に居なければ、ステップS13で、人間の手がロボット12に触れたかどうかを判断する。ここでは、CPU50は、人間データから取得した人間の手の3次元位置がロボット12の頭部26、胴体または手(腕を含む)の表面の位置であり、触覚センサ64の検出データが触れられたことを示すかどうかを判断する。   If “NO” in the step S7, that is, if the human is not in the visual field of the robot 12, it is determined whether or not the human hand touches the robot 12 in a step S13. Here, the CPU 50 indicates that the three-dimensional position of the human hand acquired from the human data is the position of the surface of the head 26, the body, or the hand (including the arm) of the robot 12, and the detection data of the tactile sensor 64 is touched. Judge whether to show that

ステップS13で“NO”であれば、つまり、人間の手がロボット12に触れていなければ、ステップS3に戻る。一方、ステップS13で“YES”であれば、つまり、人間の手がロボット12に触れれば、ステップS15で、わずかな反応動作を実行する。このステップS15では、触れられたことに気づく動作が実行される。たとえば、ロボット12は、人間に触れられると、触れられた状態を解除または回避するように、上体を移動させる。   If “NO” in the step S13, that is, if the human hand is not touching the robot 12, the process returns to the step S3. On the other hand, if “YES” in the step S13, that is, if a human hand touches the robot 12, a slight reaction operation is executed in a step S15. In step S15, an operation of noticing that the user has been touched is executed. For example, when the robot 12 is touched by a human, the robot 12 moves its upper body so as to release or avoid the touched state.

続くステップS17では、ロボット12の顔を人間の顔の方に向けて、ステップS19に進む。なお、ステップS17の処理は、ステップS11の処理と同じであるため、重複した説明は省略する。   In a succeeding step S17, the face of the robot 12 is turned to a human face, and the process proceeds to a step S19. Note that the processing in step S17 is the same as the processing in step S11, and a duplicate description will be omitted.

ステップS19では、終了かどうかを判断する。つまり、CPU50は、ユーザから終了の指示が与えられたかどうかを判断する。ステップS19で“NO”であれば、つまり、終了でなければ、ステップS1に戻る。一方、ステップS19で“YES”であれば、つまり、終了であれば、制御処理を終了する。   In the step S19, it is determined whether or not to end. That is, the CPU 50 determines whether or not an end instruction has been given by the user. If “NO” in the step S19, that is, if not to end, the process returns to the step S1. On the other hand, if “YES” in the step S19, that is, if it is to be ended, the control processing is ended.

なお、図7では省略するが、図示は省略するが、上述したように、一定範囲内に居る人間がロボット12に話し掛けると、反応動作を実行した後に、ロボット12は通常動作を実行する。   Although not shown in FIG. 7, but not shown, as described above, when a person who is within a certain range talks to the robot 12, the robot 12 performs a reaction operation and then performs a normal operation.

この第1実施例によれば、人間がロボットに話し掛けないで、人間の手がロボットの顔に触れようとした場合に、ロボットがその人間の顔を見るように頭部の向きが制御されるため、より人間に近い反応動作を行うロボットを提供することができる。したがって、ロボットに触れようとした人間が違和感を覚えるのを出来る限り防止することができる。   According to the first embodiment, when the human hand tries to touch the robot face without talking to the robot, the direction of the head is controlled so that the robot looks at the human face. Therefore, it is possible to provide a robot that performs a reaction operation closer to that of a human. Therefore, it is possible to prevent a person who tries to touch the robot from feeling uncomfortable as much as possible.

なお、この第1実施例では、人間の手がロボットの顔に触れようとした場合について説明したが、これに限定される必要はない。たとえば、人間が手に物を持っている場合には、当該手に持った物がロボットの顔に触れようとしたかどうかを判断するようにしてもよい。また、ロボット12の特定の部位は顔に限定される必要は無く、人間がロボットの他の部位(手または肩など)に触れようとしたかどうかを判断するようにしてもよい。ただし、他の部位に触れようとしたかどうかを判断する場合には、上記のような実験を行うことにより、他の部位に応じた第1距離が決定される。   In the first embodiment, the case where the human hand tries to touch the face of the robot has been described. However, the present invention is not limited to this. For example, when a human has an object in his hand, it may be determined whether the object in his hand tries to touch the face of the robot. Further, the specific part of the robot 12 does not need to be limited to the face, and it may be determined whether or not a human tries to touch another part of the robot (such as a hand or a shoulder). However, when it is determined whether or not an attempt is made to touch another part, the first distance according to the other part is determined by performing the above-described experiment.

<第2実施例>
第2実施例のシステム10は、ロボット12が人間毎に設定されたパラメータに応じた反応動作を実行するようにした以外は、第1実施例のシステム10と同じであるため、異なる点について詳細に説明し、重複する点については、説明を省略する、または、簡単に説明することにする。
<Second embodiment>
The system 10 according to the second embodiment is the same as the system 10 according to the first embodiment except that the robot 12 performs a reaction operation according to parameters set for each person. The description of the overlapping points will be omitted or briefly described.

第2実施例では、ロボット12は、何かに集中している状態ではなく、辺りを見渡すなどの無意識動作を行っている状態において、人間が一定範囲内に近づくと、ロボット12は当該人間の方に顔を見る。その後、ロボット12は、人間の好意度に応じて異なる反応動作を実行する。   In the second embodiment, when a human approaches a certain range in a state where the robot 12 is performing an unconscious operation such as looking around, instead of being concentrated on something, the robot 12 will Look at the face towards you. Thereafter, the robot 12 performs a different reaction operation according to the degree of human preference.

第2実施例では、ロボット12とコミュニケーションを行う各人間について、ロボット12から見た場合の好意度(または親密度)を設定および更新し、反応動作を実行する場合に、反応動作の対象である人間の好意度を参照し、好意度に応じた反応動作が実行される。一例として、好意度は、0から3までの数字で決定され、数字が大きい程、好意度が高い。人間がロボット12とコミュニケーションする前においては、好意度は0であり、当該人間とコミュニケーションする回数または/および時間(累積時間)の長さに応じて、つまり、当該人間に対してコミュニケーション行動を実行する頻度に応じて、好意度が増加される。また、好意度は、コミュニケーションしない時間が所定の長さ(たとえば、数か月)を超えると、低減される。   In the second embodiment, for each person who communicates with the robot 12, the degree of favorableness (or intimacy) when viewed from the robot 12 is set and updated, and when a reaction operation is performed, the reaction operation is performed. A reaction operation according to the degree of favor is performed with reference to the degree of favor of humans. As an example, the degree of favor is determined by a number from 0 to 3, and the greater the number, the higher the degree of favor. Before a human communicates with the robot 12, the degree of favor is 0, and a communication action is performed on the human in accordance with the number of times of communication with the human and / or the length of time (cumulative time), that is, on the human. The degree of favor is increased according to the frequency with which the request is made. In addition, the degree of favor is reduced when the non-communication time exceeds a predetermined length (for example, several months).

この第2実施例では、個別に人間を識別する必要があるため、人間に固有の識別情報を記憶したICタグを装着し、ロボット12は、コミュニケーション対象の人間に装着されたICタグから識別情報を読み出して、人間を個別に識別する。したがって、ロボット12は、ICタグのリーダをさらに備える。   In the second embodiment, since it is necessary to individually identify a person, an IC tag storing identification information unique to the person is attached, and the robot 12 transmits the identification information from the IC tag attached to the communication target person. Is read to individually identify humans. Therefore, the robot 12 further includes an IC tag reader.

また、第2実施例では、好意度が2以上の場合に、高好意度の反応動作を実行し、好意度が2未満の場合に、低好意度の反動動作を実行する。第2実施例では、人間が一定範囲内であり、ロボット12の視野内に居る場合には、ロボット12の顔が当該人間の顔の方に向けられる。この動作も反応動作と言えるが、一定範囲内の人間の顔の方にロボット12の顔を向ける動作は、好意度の大きさとは関係なく実行される。   Further, in the second embodiment, when the degree of favorableness is 2 or more, a reaction operation having a high degree of favorableness is performed, and when the degree of favorableness is less than 2, a reaction operation having a low degree of favorableness is performed. In the second embodiment, when a human is within a certain range and is within the visual field of the robot 12, the face of the robot 12 is turned toward the human face. This operation can also be called a reaction operation, but the operation of turning the face of the robot 12 toward a human face within a certain range is executed regardless of the degree of favor.

なお、親密度に応じたコミュニケーション行動(動作)を実行するとともに、親密度を変化させる方法としては、出願人が先に出願し、既に公開された特開2011−681号の方法を採用することもできる。   In addition, as a method of executing a communication action (action) according to the intimacy level and changing the intimacy level, a method of Japanese Patent Application Laid-Open No. 2011-681, which was filed by the applicant first and has already been published, is adopted. Can also.

また、好意度(親密度)を更新すること自体は本願発明の本質的な内容ではないため、この明細書においては、詳細な説明は省略する。   Updating the degree of friendship (intimacy) is not an essential content of the present invention, and a detailed description thereof will be omitted in this specification.

ロボット12の顔が人間の顔の方に向けられた後では、好意度に応じて、異なる反応動作が実行される。高好意度の反応動作では、人の手がロボット12の顔周辺の第1距離以内に有る場合には、好意が高いことを表現する反応動作が実行される。この第2実施例では、好意が高いことを表現する反応動作として、微笑む動作が実行されるとともに、「何か御用ですか?」と発せられる。微笑む動作では、口角30を少し上げるように、アクチュエータA8が制御される。   After the face of the robot 12 is turned toward the human face, different reaction actions are executed according to the degree of favor. In the reaction operation with a high degree of favor, when the human hand is within the first distance around the face of the robot 12, a reaction operation expressing high friendship is executed. In the second embodiment, a smiling action is executed as a reaction action expressing high favor, and "What do you want?" In the operation of smiling, the actuator A8 is controlled so as to slightly raise the mouth angle 30.

また、低好意度の反応動作では、人の手がロボット12の顔周辺の第1距離よりも長い第2距離以内に有る場合には、好意が低いまたは無いことを表現する反応動作が実行される。この第2実施例では、好意が低いまたは無いことを表現する反応動作として、少しのけぞる動作が実行され、さらに、人の手がロボット12の顔周辺の第1距離以内に有る場合には、反応動作として、「何か用ですか?」と発せられる。少しのけぞる動作では、上体を5〜10度程度後傾させるように、アクチュエータA18が制御される。   In the reaction operation with a low degree of favor, if the human hand is within a second distance longer than the first distance around the face of the robot 12, a reaction operation expressing low or no favor is executed. You. In the second embodiment, a slight slewing motion is executed as a reaction operation expressing low or no favor, and when a human hand is within a first distance around the face of the robot 12, the reaction is performed. As an action, "What is it for?" In the slight slewing operation, the actuator A18 is controlled so that the upper body is tilted backward by about 5 to 10 degrees.

さらに、低好意度の反応動作では、人間の手がロボット12に触れた場合には、ロボット12は嫌がる動作を実行する。嫌がる動作としては、人間の反対方向に上体を大きく傾ける動作が実行されるとともに、「やめてください」と発せられる。上体を大きく傾ける動作では、人間の反対方向へ上体を20〜30度程度傾けるように、アクチュエータA18、または、アクチュエータA18およびA19が制御される。   Furthermore, in the reaction operation with a low degree of favor, when a human hand touches the robot 12, the robot 12 performs an unpleasant operation. As the disliked motion, the motion of tilting the upper body greatly in the opposite direction of the human being is executed, and "Please stop" is issued. In the operation of tilting the upper body greatly, the actuator A18 or the actuators A18 and A19 are controlled so that the upper body is tilted by about 20 to 30 degrees in the opposite direction of the human.

また、人間が一定範囲内であっても、ロボット12の視野内に居ない場合には、第1実施例と同様に、わずかな反応動作が実行されるが、第2実施例では、さらに、好意度に応じた反応動作が実行される。好意度が高い場合には、そのことを表現する反応動作として、微笑む動作が実行されるとともに、「何か御用ですか?」と発せられる。一方、好意度が低い場合には、そのことを表現する反応動作として、人間の反対方向へ上体を傾ける動作が実行されるとともに、「やめてください」と発せられる。   In addition, even when the person is within a certain range, if the person is not within the field of view of the robot 12, a slight reaction operation is performed as in the first embodiment, but in the second embodiment, A reaction operation according to the degree of favor is performed. When the degree of favorableness is high, a smiling action is executed as a reaction action expressing the fact, and "What do you want?" On the other hand, when the degree of favorableness is low, as a reaction operation expressing this, a motion of tilting the upper body in the opposite direction of the human is executed, and "Please stop" is issued.

したがって、第2実施例では、プログラム記憶領域302に、好意度判断プログラム302eがさらに記憶される。好意度判断プログラム302eは、ロボット12が反応動作を行う対象の人間の好意度が所定値以上であるかどうかを判断するためのプログラムである。また、第2実施例では、動作制御プログラム302cは、好意度に応じた処理(第2実施例では、高好意度の反応動作処理または低好意度の反応動作処理)を実行する。   Therefore, in the second embodiment, the favorableness degree determination program 302e is further stored in the program storage area 302. The favorableness determination program 302e is a program for determining whether the favorableness of a human to whom the robot 12 performs a reaction operation is equal to or greater than a predetermined value. In the second embodiment, the operation control program 302c executes a process according to the degree of favor (in the second embodiment, a reaction operation process with a high degree of favor or a reaction operation process with a low degree of favor).

また、データ記憶領域304には、ロボット12が反応動作を行う対象の人間の好意度についてのデータ(好意度データ)304dが記憶される。たとえば、ロボット12が反応動作を行う対象の人間についての好意度データ304dは、ロボット12の内部またはネットワーク14上に設けられたデータベースから取得される。また、ロボット12が、人間とコミュニケーション行動を実行したことに応じて、当該人間の好意度データ304dが更新される。たとえば、人間との間で、通常動作を行った場合に、コミュニケーション行動を開始した時からコミュニケーション行動を終了するまでの時間がコミュニケーションの時間として計測され、累積時間に加算されるとともに、コミュニケーションの回数が1回加算される。ただし、これは一例であり、限定される必要はない。たとえば、コミュケーション行動の終了時は、人間が立ち去った(一定範囲から出た)ときである。   In the data storage area 304, data (favoring degree data) 304d on the degree of favorableness of a human to whom the robot 12 performs a reaction operation is stored. For example, the favorableness data 304 d of the human to be reacted by the robot 12 is acquired from a database provided inside the robot 12 or on the network 14. In addition, in response to the robot 12 performing the communication behavior with the human, the human preference data 304d is updated. For example, when performing a normal action with a human, the time from the start of the communication action to the end of the communication action is measured as the communication time, added to the accumulated time, and the number of times of communication Is added once. However, this is only an example and does not need to be limited. For example, the end of the communication behavior is when a human has left (leave a certain range).

図9および図10は、第2実施例におけるCPU50のロボット制御処理の一例を示すフロー図である。以下、第2実施例のロボット制御処理について説明するが、第1実施例で説明した処理と同じ処理については簡単に説明することにする。なお、図示は省略するが、第1実施例と同様に、人間からの話し掛けに応じて、反応動作を実行した後に、通常動作も実行される。   FIGS. 9 and 10 are flowcharts showing an example of the robot control process of the CPU 50 in the second embodiment. Hereinafter, the robot control processing of the second embodiment will be described, but the same processing as that described in the first embodiment will be briefly described. Although illustration is omitted, as in the first embodiment, a normal operation is also performed after the reaction operation is performed in response to a speech from a human.

図9に示すように、CPU50は、ロボット制御処理を開始すると、ステップS31で、ロボット12の顔の向きを初期の方向に設定する。次のステップS33では、一定時間待機する。第2実施例では、ロボット12が瞬きするように、瞼(28aおよび28b)が動作されたり、ロボット12がきょろきょろするように、頭部26が左右に回動されたりする。つまり、CPU50は、アクチュエータA1およびA5を制御したり、アクチュエータA16を制御したりする。   As shown in FIG. 9, when starting the robot control process, the CPU 50 sets the face direction of the robot 12 to the initial direction in step S31. In the next step S33, the process stands by for a fixed time. In the second embodiment, the eyelids (28a and 28b) are operated so that the robot 12 blinks, and the head 26 is rotated left and right so that the robot 12 is swirling. That is, the CPU 50 controls the actuators A1 and A5 and controls the actuator A16.

続いて、ステップS35では、人間が一定範囲内に居るかどうかを判断する。ステップS35で“NO”であれば、ステップS31に戻る。一方、ステップS35で“YES”であれば、ステップS37で、一定範囲内に居る人間がロボット12の視野内に居るかどうかを判断する。   Subsequently, in a step S35, it is determined whether or not the human is within a certain range. If “NO” in the step S35, the process returns to the step S31. On the other hand, if “YES” in the step S35, it is determined in a step S37 whether or not a person within a certain range is within the visual field of the robot 12.

ステップS37で“NO”であれば、図10に示すステップS47に進む。一方、ステップS37で“YES”であれば、ステップS39で、一定範囲内であり、かつ、ロボット12の視野内に居る人間の好意度が所定値(第2実施例では、2)以上であるかどうかを判断する。ただし、一定範囲内であり、かつ、ロボット12の視野内に居る人間が複数人である場合には、ロボット12に最も近い位置に居る人間が反応動作の対象として選択される。   If “NO” in the step S37, the process proceeds to a step S47 shown in FIG. On the other hand, if “YES” in the step S37, in a step S39, the favorable degree of the human being within the fixed range and within the visual field of the robot 12 is equal to or more than a predetermined value (2 in the second embodiment). Determine whether or not. However, when there are a plurality of persons within a certain range and within the visual field of the robot 12, the person at the position closest to the robot 12 is selected as the target of the reaction operation.

ステップS39で“YES”であれば、つまり、好意度が所定値以上であれば、ステップS41で、後述する高好意度の反応動作の処理(図11参照)を実行して、ステップS45に進む。一方、ステップS39で“NO”であれば、つまり、好意度が所定値未満であれば、ステップS43で、後述する低好意度の反応動作の処理(図12参照)を実行して、ステップS45に進む。   If “YES” in the step S39, that is, if the favorable degree is equal to or more than the predetermined value, in a step S41, a process of a reaction operation with a high favorable degree described later (see FIG. 11) is executed, and the process proceeds to the step S45. . On the other hand, if “NO” in the step S39, that is, if the favor degree is less than the predetermined value, in a step S43, the processing of the low favor reaction operation (see FIG. 12) described later is executed, and the step S45 is performed. Proceed to.

ステップS45では、ロボット制御処理を終了するかどうかを判断する。ステップS45で“NO”であれば、ステップS31に戻る。一方、ステップS45で“YES”であれば、ロボット制御処理を終了する。   In step S45, it is determined whether to end the robot control process. If “NO” in the step S45, the process returns to the step S31. On the other hand, if “YES” in the step S45, the robot control process ends.

上述したように、ステップS37で“NO”であれば、図10に示すように、ステップS47で、人間の手がロボット12に触れたかどうかを判断する。ステップS47で“NO”であれば、図9に示したステップS33に戻る。一方、ステップS47で“YES”であれば、ステップS49で、わずかな反応動作を実行し、ステップS51で、ロボット12の顔を人間の顔の方に向ける。   As described above, if “NO” in the step S37, as shown in FIG. 10, it is determined whether or not the human hand touches the robot 12 in a step S47. If “NO” in the step S47, the process returns to the step S33 shown in FIG. On the other hand, if “YES” in the step S47, a slight reaction operation is executed in a step S49, and in a step S51, the face of the robot 12 is turned to the human face.

次のステップS53では、好意度が所定値以上であるかどうかを判断する。ステップS53で“YES”であれば、ステップS55で、微笑む動作を実行し、ステップS57で、「何か御用ですか?」と発話して、図9に示したステップS45に進む。   In a next step S53, it is determined whether or not the degree of favor is equal to or more than a predetermined value. If "YES" in the step S53, a smiling operation is executed in a step S55, and in a step S57, "What do you need?" Is spoken, and the process proceeds to the step S45 shown in FIG.

一方、ステップS53で“NO”であれば、ステップS59で、人間の反対方向へ上体を傾ける動作を実行し、ステップS61で、「やめてください」と発話して、ステップS45に進む。   On the other hand, if “NO” in the step S53, an operation of inclining the upper body in a direction opposite to the human is executed in a step S59, and “stop please” is uttered in a step S61, and the process proceeds to a step S45.

図11は図9のステップS41の高好意度の反応動作の処理を示すフロー図である。以下、高好意度の反応動作の処理について説明するが、既に説明した処理については簡単に説明することにする。図11に示すように、CPU50は、高好意度の反応動作を開始すると、ステップS71で、ロボット12の顔を人間の方に向ける。次のステップS73では、人間の手がロボット12の顔周辺の第1距離以内に有るかどうかを判断する。   FIG. 11 is a flowchart showing the processing of the reaction operation with a high degree of favor in step S41 of FIG. Hereinafter, the processing of the reaction operation with a high degree of favor will be described, but the processing already described will be briefly described. As shown in FIG. 11, when the CPU 50 starts the reaction operation with a high degree of favor, the CPU 50 turns the face of the robot 12 toward a human in step S71. In a next step S73, it is determined whether or not the human hand is within a first distance around the face of the robot 12.

ステップS73で“NO”であれば、ステップS71に戻る。一方、ステップS73で“YES”であれば、ステップ75で、微笑む動作を実行し、ステップS77で、「何か御用ですか?」と発話して、図9および図10に示したロボット制御処理にリターンする。   If “NO” in the step S73, the process returns to the step S71. On the other hand, if “YES” in the step S73, a smiling operation is executed in a step 75, and “Say something?” Is uttered in a step S77, and the robot control process shown in FIGS. 9 and 10 is performed. Return to

図12は図9のステップS43の低好意度の反応動作の処理を示すフロー図である。以下、低好意度の反応動作の処理について説明するが、既に説明した処理については簡単に説明することにする。図12に示すように、CPU50は、低
好意度の反応動作を開始すると、ステップS91で、ロボット12の顔を人間の方に向ける。次のステップS93では、人間の手がロボット12の顔周辺の第2距離以内に有るかどうかを判断する。
FIG. 12 is a flowchart showing the processing of the reaction operation of low favor in step S43 of FIG. Hereinafter, the processing of the reaction operation with a low degree of favor will be described, but the processing already described will be briefly described. As shown in FIG. 12, when the low-favorable-degree reaction operation is started, the CPU 50 turns the face of the robot 12 toward a human in step S91. In a next step S93, it is determined whether or not the human hand is within a second distance around the face of the robot 12.

ステップS93で“NO”であれば、つまり、人間の手がロボット12の顔周辺の第2距離以内に無ければ、ステップS91に戻る。一方、ステップS93で“YES”であれば、つまり、人間の手がロボット12の顔周辺の第2距離以内に有れば、ステップS95で、少しのけぞる動作を実行する。   If “NO” in the step S93, that is, if the human hand is not within the second distance around the face of the robot 12, the process returns to the step S91. On the other hand, if “YES” in the step S93, that is, if the human hand is within the second distance around the face of the robot 12, a slight slashing operation is executed in a step S95.

続いて、ステップS97では、人間の手がロボット12の顔周辺の第1距離以内に有るかどうかを判断する。ステップS97で“NO”であれば、ステップS101に進む。一方、ステップS97で“YES”であれば、ステップ99で、「何か用ですか?」と発話して、ステップS101に進む。   Subsequently, in a step S97, it is determined whether or not the human hand is within the first distance around the face of the robot 12. If “NO” in the step S97, the process proceeds to a step S101. On the other hand, if “YES” in the step S97, in a step 99, “What is it for?” Is uttered, and the process proceeds to the step S101.

ステップS101では、人間の手がロボット12に触れたかどうかを判断する。ステップS101で“NO”であれば、図9および図10に示したロボット制御処理にリターンする。一方、ステップS101で“YES”であれば、ステップS103で、人間の反対方向へ上体を傾ける動作を実行し、ステップS105で、「やめてください」と発話してから、ロボット制御処理にリターンする。   In step S101, it is determined whether a human hand has touched the robot 12. If “NO” in the step S101, the process returns to the robot control process shown in FIGS. On the other hand, if “YES” in the step S101, an operation of tilting the upper body in a direction opposite to a human is executed in a step S103, and “stop please” is uttered in a step S105, and then, the process returns to the robot control process. .

なお、通常、人間および人間の手はロボット12に次第に接近し、また、低好意度の反応動作では、ステップS91−S93のスキャンタイムは1/60秒程度であるため、人間の手がロボット12の顔周辺の第2距離以内に有ると判断される場合に、当該人間の手がロボット12の顔周辺の第1距離以内に有ることはほとんど無いと考えられる。つまり、ステップS93では、人間の手がロボット12の顔周辺の第1距離よりも長く第2距離以内に有るかどうかを判断している。   Normally, the human and the human hand gradually approach the robot 12, and the scan time in steps S <b> 91 to S <b> 93 is about 1/60 second in a low-favorable reaction operation. When it is determined that the human hand is within the second distance around the face of the robot 12, it is considered that the human hand is hardly within the first distance around the face of the robot 12. That is, in step S93, it is determined whether the human hand is longer than the first distance around the face of the robot 12 and is within the second distance.

第2実施例によれば、人間の手がロボットの顔に近づいたことに応じて反応動作を実行するのみならず、当該人間の好意度に応じて反応動作の内容を変化させるので、好意を持った人間と同様の反応動作をロボットに実行させることができる。より人間に近い反応を実現することができる。   According to the second embodiment, not only the reaction operation is performed in response to the human hand approaching the face of the robot, but also the content of the reaction operation is changed in accordance with the degree of preference of the human. It is possible to cause the robot to perform the same reaction operation as a human having. A reaction closer to human beings can be realized.

なお、この第2実施例では、好意度(または親密度)をパラメータとして用いて、このパラメータの値に応じて異なる反応動作を行うようにしたが、パラメータは好意度に限定される必要はない。たとえば、ロボットの年齢を設定しておき、反応動作を行う対象である人間の年齢がロボットの年齢よりも上か、同じか、下かに応じて、異なる反応動作を行うようにしてもよい。また、ロボットの性別を設定しておき、反応動作を行う対象である人間の性別がロボットの性別と同じであるか、異なるかに応じて、異なる反応動作を行うようにしてもよい。これらを複合的に考慮したパラメータを用いて反応動作が決定されてもよい。   In the second embodiment, the degree of favor (or intimacy) is used as a parameter, and different reaction actions are performed according to the value of this parameter. However, the parameter need not be limited to the degree of favor. . For example, the age of the robot may be set, and a different reaction operation may be performed depending on whether the age of the person who performs the reaction operation is higher than, equal to, or lower than the age of the robot. Alternatively, the gender of the robot may be set, and a different reaction operation may be performed depending on whether the gender of the person who performs the reaction operation is the same as or different from the gender of the robot. The reaction operation may be determined using a parameter that considers these in a complex manner.

また、上述の各実施例で示した反応動作は単なる例示であり、限定されるべきでない。実際にロボット12が適用される環境または場所、ロボット12に与えられる実際の役割などを考慮して、適宜設定または変更可能である。   Further, the reaction operation shown in each of the above embodiments is merely an example, and should not be limited. It can be set or changed as appropriate in consideration of the environment or place where the robot 12 is actually applied, the actual role given to the robot 12, and the like.

また、上述の各実施例では、現実空間に存在する、ロボットと人間との間におけるロボットのコミュニケーション行動について説明したが、これに限定される必要はない。仮想空間に人間に似た外観(姿形)を有する2つのエージェント(キャラクタオブジェクト)が配置される場合に、他方のエージェントに属する部位(手または手に相当する部位)が一方のエージェントの所定の部位(顔または顔に相当する部位)に触れようとした場合に、当該一方のエージェントに、反応動作を実行させたり、他方のエージェントについての好意度に応じた内容で反応動作を実行させたりするようにしてもよい。かかる場合には、汎用のコンピュータのプロセッサが、仮想空間にエージェントを描画し、上記の各実施例で示したようなプログラムを実行し、エージェントを制御する。   Further, in each of the above-described embodiments, the communication behavior of the robot between the robot and the human, which exists in the real space, has been described, but is not limited thereto. When two agents (character objects) having a human-like appearance (shape) are arranged in a virtual space, a part (a hand or a part corresponding to a hand) belonging to the other agent is set to a predetermined position of one agent. When an attempt is made to touch a part (a face or a part corresponding to a face), one of the agents is caused to execute a reaction operation, or the other agent is caused to execute a reaction operation according to the degree of favorableness of the other agent. You may do so. In such a case, a processor of a general-purpose computer draws an agent in a virtual space, executes a program as described in each of the above embodiments, and controls the agent.

さらに、上述の各実施例では、画像距離センサを用いて、対象物までの距離おおよび対象物の形状を検出することにより、人間の位置、人間の手および顔の位置を検出するようにしたが、これに限定される必要はない。ロボット12は、眼カメラ66を備えるため、これをステレオカメラとして使用し、左右のカメラの撮影画像に基づいて、ロボット12の正面方向から近づく人間の位置、人間の手および顔の位置を検出するようにしてもよい。   Further, in each of the above-described embodiments, the position of the human, the position of the human hand and the face of the human are detected by detecting the distance to the target and the shape of the target using the image distance sensor. However, it need not be limited to this. Since the robot 12 includes the eye camera 66, the robot 12 is used as a stereo camera, and detects the position of a human approaching from the front direction of the robot 12, the position of the human hand and the face of the human based on the images captured by the left and right cameras. You may do so.

さらにまた、上述の各実施例では、人間の手がロボット12の顔周辺の所定距離(第1距離または第2距離)以内に有るかどうかどうかを判断して、反応動作を実行するようにしたが、これに限定される必要はない。人間の移動速度から予測して、数秒後に、人間の手がロボット12の顔周辺の所定距離以内に有るかどうかを判断して、反応動作を実行するようにしてもよい。   Furthermore, in each of the above-described embodiments, it is determined whether the human hand is within a predetermined distance (first distance or second distance) around the face of the robot 12, and the reaction operation is performed. However, it need not be limited to this. A reaction operation may be performed by estimating from a moving speed of a human and, after a few seconds, determining whether or not the human hand is within a predetermined distance around the face of the robot 12.

また、上述の各実施例で示した具体的な数値は単なる例示であり、限定される必要は無く、実際の製品および製品が適用される環境などに応じて適宜変更可能である。   Further, the specific numerical values shown in the above-described embodiments are merely examples, and need not be limited, and can be appropriately changed according to the actual product, the environment to which the product is applied, and the like.

さらに、上述の実施例で示したロボット制御処理は、同じ結果が得られるのであれば、各ステップが処理される順番を変更してもよい。   Furthermore, in the robot control processing shown in the above-described embodiment, the order in which the steps are processed may be changed as long as the same result is obtained.

10 …システム
12 …アンドロイドロボット
16 …コンピュータ
18 …画像距離センサ
26 …頭部
28a …上瞼
28b …下瞼
30 …口角
32 …肩
34 …腰
50 …CPU
54 …RAM
56 …通信モジュール
64 …触角センサ
66 …眼カメラ
68 …スピーカ
70 …マイク
DESCRIPTION OF SYMBOLS 10 ... System 12 ... Android robot 16 ... Computer 18 ... Image distance sensor 26 ... Head 28a ... Upper eyelid 28b ... Lower eyelid 30 ... Mouth angle 32 ... Shoulder 34 ... Waist 50 ... CPU
54… RAM
56: communication module 64: tactile sensor 66: eye camera 68: speaker 70: microphone

Claims (9)

人間に似た外観を有するロボットであって、
他者の好意度についての好意度データを記憶する好意度記憶手段、
前記ロボットの周囲に存在する前記他者に属する部位が当該ロボットの第1所定距離内に近づいたかどうかを判断する第1接近判断手段と、
前記第1接近判断手段によって前記他者に属する部位が前記ロボットの前記第1所定距離内に近づいたことが判断された場合に、前記好意度記憶手段に記憶された当該他者の好意度に応じた反応動作を当該他者に対して実行する行動実行手段を備える、ロボット。
A robot having a human-like appearance,
Liking storage means for storing liking data about liking of others;
First approach determining means for determining whether a part belonging to the other person present around the robot has approached within a first predetermined distance of the robot;
When it is determined by the first approach determining means that the part belonging to the other person has approached within the first predetermined distance of the robot, the similarity degree of the other person stored in the similarity degree storing means is determined. A robot comprising an action execution unit that executes a corresponding reaction operation on the other person.
前記ロボットの周囲に存在する前記他者の形状および当該他者に属する部位の位置を算出する算出手段をさらに備える、請求項1記載のロボット。   The robot according to claim 1, further comprising a calculation unit configured to calculate a shape of the other person present around the robot and a position of a part belonging to the other person. 前記行動実行手段は、前記好意度が所定値以上の場合の第1反応動作または前記好意度が前記所定値未満の第2反応動作を実行する、請求項1または2記載のロボット。   The robot according to claim 1, wherein the action execution unit executes a first reaction operation when the degree of favor is equal to or more than a predetermined value or a second reaction operation when the degree of favor is less than the predetermined value. 前記他者に属する部位が前記第1所定距離よりも長い第2所定距離内に近づいたかどうかを判断する第2接近判断手段をさらに備え、
前記行動実行手段は、前記好意度が前記所定値以上であれば、前記第1接近判断手段によって前記他者に属する部位が前記ロボットの前記第1距離内に近づいたことが判断された場合に、前記第1反応動作を実行し、前記好意度が前記所定値未満であれば、前記第2接近判断手段によって前記他者に属する部位が前記ロボットの前記2所定距離内に近づいたことが判断された場合に、前記第2反応動作を実行する、請求項3記載のロボット。
A second approach determination unit configured to determine whether a part belonging to the other person has approached within a second predetermined distance longer than the first predetermined distance,
The action execution means is configured to determine whether the part belonging to the other person has approached the first distance of the robot by the first approach determination means if the degree of favor is equal to or greater than the predetermined value. Executing the first reaction operation, and if the degree of favor is less than the predetermined value, the second approach determining means determines that the part belonging to the other person has approached the second predetermined distance of the robot. The robot according to claim 3, wherein the second reaction operation is performed when the operation is performed.
前記他者の好意度は当該他者との間におけるコミュニケーション行動の頻度に応じて変化される、請求項1から4までのいずれかに記載のロボット。   The robot according to any one of claims 1 to 4, wherein the degree of favor of the other person is changed according to a frequency of a communication action with the other person. 他者の好意度についての好意度データを記憶する好意度記憶手段を備え、人間に似た外観を有するロボットのロボット制御プログラムであって、
前記ロボットのプロセッサに、
前記ロボットの周囲に存在する他者に属する部位が当該ロボットの所定距離内に近づいたかどうかを判断する接近判断ステップと、
前記接近判断ステップにおいて前記他者に属する部位が前記ロボットの前記所定距離内に近づいたことを判断した場合に、前記好意度記憶手段に記憶された当該他者の好意度に応じた反応動作を当該他者に対して実行する行動実行ステップを実行させる、ロボット制御プログラム。
A robot control program for a robot having a likeness storage means for storing likeness data about the like of another person, the robot having an appearance similar to a human,
In the processor of the robot,
An approach determining step of determining whether a part belonging to another person present around the robot has approached within a predetermined distance of the robot,
When it is determined in the approach determination step that the part belonging to the other person has approached the predetermined distance of the robot, a reaction operation according to the other person's favorable degree stored in the favorable degree storage means is performed. A robot control program that causes the other person to execute an action execution step to be executed.
他者の好意度についての好意度データを記憶する好意度記憶手段を備え、人間に似た外観を有するロボットのロボット制御方法であって、
(a)前記ロボットの周囲に存在する他者に属する部位が当該ロボットの所定距離内に近づいたかどうかを判断するステップと、
(b)前記ステップ(a)において前記他者に属する部位が前記ロボットの前記所定距離内に近づいたことを判断した場合に、前記好意度記憶手段に記憶された当該他者の好意度に応じた反応動作を当該他者に対して実行するステップを含む、ロボット制御方法。
A robot control method for a robot having a likeness storage means for storing likeness data about another's like, and having a human-like appearance,
(A) determining whether a part belonging to another person present around the robot has approached within a predetermined distance of the robot;
(B) when it is determined in step (a) that the part belonging to the other person has approached within the predetermined distance of the robot, according to the other person's favorable degree stored in the favorable degree storage means; Performing a reaction operation on the other person.
他のエージェントの好意度についての好意度データを記憶する好意度記憶手段を備えるコンピュータによって実行され、仮想空間に存在し、人間に似た外観を有するエージェントのエージェント制御プログラムであって、
前記コンピュータのプロセッサに、
前記エージェントの周囲に存在する他のエージェントに属する部位が当該エージェントの所定距離内に近づいたかどうかを判断する接近判断ステップと、
前記接近判断ステップにおいて前記他のエージェントに属する部位が前記エージェントの前記所定距離内に近づいたことを判断した場合に、前記好意度記憶手段に記憶された当該他のエージェントの好意度に応じた反応動作を当該他のエージェントに対して実行する行動実行ステップを実行させる、エージェント制御プログラム。
An agent control program for an agent that is executed by a computer including a preference storage unit that stores preference data about the preference of another agent, which is present in a virtual space and has an appearance similar to a human,
To the processor of the computer,
An approach determining step of determining whether a part belonging to another agent present around the agent has approached within a predetermined distance of the agent,
When it is determined in the approach determination step that the part belonging to the other agent has approached within the predetermined distance of the agent, a reaction according to the degree of favorableness of the other agent stored in the favorable degree storage means An agent control program for executing an action execution step of executing an action on the other agent.
仮想空間に存在し、人間に似た外観を有するエージェントを、他のエージェントの好意度についての好意度データを記憶する好意度記憶手段を備えるコンピュータで制御するエージェント制御方法であって、
(a)前記エージェントの周囲に存在する他のエージェントに属する部位が当該エージェントの所定距離内に近づいたかどうかを判断するステップと、
(b)前記ステップ(a)において前記他のエージェントに属する部位が前記エージェントの前記所定距離内に近づいたことを判断した場合に、前記好意度記憶手段に記憶された当該他のエージェントの好意度に応じた反応動作を当該他のエージェントに対して実行するステップを含む、エージェント制御方法。
An agent control method that controls an agent that exists in a virtual space and has an appearance similar to a human by a computer including a preference storage unit that stores preference data about the preference of other agents,
(A) determining whether a part belonging to another agent present around the agent has approached within a predetermined distance of the agent;
(B) when it is determined in step (a) that the part belonging to the other agent has approached the predetermined distance of the agent, the similarity of the other agent stored in the similarity storage means; An agent control method including a step of executing a reaction operation according to the above-mentioned other agent on the other agent.
JP2018164160A 2018-09-03 2018-09-03 ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD Active JP7133840B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018164160A JP7133840B2 (en) 2018-09-03 2018-09-03 ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018164160A JP7133840B2 (en) 2018-09-03 2018-09-03 ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD

Publications (2)

Publication Number Publication Date
JP2020037141A true JP2020037141A (en) 2020-03-12
JP7133840B2 JP7133840B2 (en) 2022-09-09

Family

ID=69738417

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018164160A Active JP7133840B2 (en) 2018-09-03 2018-09-03 ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD

Country Status (1)

Country Link
JP (1) JP7133840B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000149040A (en) * 1998-11-04 2000-05-30 Recruit Co Ltd Image processor
JP2007069303A (en) * 2005-09-07 2007-03-22 Advanced Telecommunication Research Institute International Communication robot
JP2010110862A (en) * 2008-11-06 2010-05-20 Nec Corp Communication robot system and method and program for controlling communication robot
JP2010279460A (en) * 2009-06-03 2010-12-16 Namco Bandai Games Inc Program, information memory medium and game device
JP2011000681A (en) * 2009-06-19 2011-01-06 Advanced Telecommunication Research Institute International Communication robot
JP2013193149A (en) * 2012-03-16 2013-09-30 Fujitsu Ltd Robot control device, robot system, robot control method and robot control program
JP2017047494A (en) * 2015-09-01 2017-03-09 株式会社国際電気通信基礎技術研究所 Android robot control system, device, program and method
JP2017170584A (en) * 2016-03-25 2017-09-28 株式会社国際電気通信基礎技術研究所 Robot action simulation device
WO2017175559A1 (en) * 2016-04-08 2017-10-12 Groove X株式会社 Autonomous robot exhibiting shyness

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000149040A (en) * 1998-11-04 2000-05-30 Recruit Co Ltd Image processor
JP2007069303A (en) * 2005-09-07 2007-03-22 Advanced Telecommunication Research Institute International Communication robot
JP2010110862A (en) * 2008-11-06 2010-05-20 Nec Corp Communication robot system and method and program for controlling communication robot
JP2010279460A (en) * 2009-06-03 2010-12-16 Namco Bandai Games Inc Program, information memory medium and game device
JP2011000681A (en) * 2009-06-19 2011-01-06 Advanced Telecommunication Research Institute International Communication robot
JP2013193149A (en) * 2012-03-16 2013-09-30 Fujitsu Ltd Robot control device, robot system, robot control method and robot control program
JP2017047494A (en) * 2015-09-01 2017-03-09 株式会社国際電気通信基礎技術研究所 Android robot control system, device, program and method
JP2017170584A (en) * 2016-03-25 2017-09-28 株式会社国際電気通信基礎技術研究所 Robot action simulation device
WO2017175559A1 (en) * 2016-04-08 2017-10-12 Groove X株式会社 Autonomous robot exhibiting shyness

Also Published As

Publication number Publication date
JP7133840B2 (en) 2022-09-09

Similar Documents

Publication Publication Date Title
Glas et al. Erica: The erato intelligent conversational android
JP3996015B2 (en) Posture recognition device and autonomous robot
JP5429462B2 (en) Communication robot
US11000952B2 (en) More endearing robot, method of controlling the same, and non-transitory recording medium
KR101295003B1 (en) Intelligent robot, system for interaction between intelligent robot and user, and method for interaction between intelligent robot and user
JP4822319B2 (en) Communication robot and attention control system using the same
US10576633B2 (en) Communication device
JP2006247780A (en) Communication robot
CN111002303B (en) Recognition device, robot, recognition method, and storage medium
JP4435212B2 (en) Posture recognition device and autonomous robot
WO2019138619A1 (en) Information processing device, information processing method and program
JP4399603B2 (en) Communication robot
JP4617428B2 (en) Motion generation system
JP6747423B2 (en) Robot, robot control system, robot control method and program
WO2019087495A1 (en) Information processing device, information processing method, and program
JP2024009862A (en) Information processing apparatus, information processing method, and program
JP2017170568A (en) Service providing robot system
JP7133840B2 (en) ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD
JP7435641B2 (en) Control device, robot, control method and program
JP7326707B2 (en) Robot, robot control method and program
JP7442341B2 (en) Robot, robot control program and robot control method
JP7399740B2 (en) Communication robot, control program and control method
JP2022147921A (en) Pseudo contact presentation system, control program and control method
JP2023027060A (en) Robot, method for controlling robot and program
CN111708428A (en) Communication system and method for controlling the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220823

R150 Certificate of patent or registration of utility model

Ref document number: 7133840

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150