JP4878462B2 - Communication robot - Google Patents

Communication robot Download PDF

Info

Publication number
JP4878462B2
JP4878462B2 JP2005258855A JP2005258855A JP4878462B2 JP 4878462 B2 JP4878462 B2 JP 4878462B2 JP 2005258855 A JP2005258855 A JP 2005258855A JP 2005258855 A JP2005258855 A JP 2005258855A JP 4878462 B2 JP4878462 B2 JP 4878462B2
Authority
JP
Japan
Prior art keywords
human
robot
touch
cpu
communication robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005258855A
Other languages
Japanese (ja)
Other versions
JP2007069303A (en
Inventor
史享 山岡
崇行 神田
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2005258855A priority Critical patent/JP4878462B2/en
Publication of JP2007069303A publication Critical patent/JP2007069303A/en
Application granted granted Critical
Publication of JP4878462B2 publication Critical patent/JP4878462B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明はコミュニケーションロボットに関し、特にたとえば、タッチセンサを備え、人間の触行動に反応する、コミュニケーションロボットに関する。   The present invention relates to a communication robot, and more particularly to a communication robot that includes a touch sensor and responds to human tactile behavior.

この種のコミュニケーションロボット(人とコミュニケーションを行うことができるロボット)の一例が、特許文献1に開示される。
特開2002−355783[B25J 13/00 A63H 3/33 11/00 B25J 5/00]
An example of this type of communication robot (a robot that can communicate with a person) is disclosed in Patent Document 1.
JP2002355578 [B25J 13/00 A63H 3/33 11/00 B25J 5/00]

特許文献1におけるコミュニケーションロボットでは、人がタッチセンサに触れると、その人間の触行動に反応して、触行動を知覚したことを人間に知らせ、それによって人間とのコミュニケーションの一層の円滑化を図っている。   In the communication robot in Patent Document 1, when a person touches the touch sensor, the person reacts to the human tactile action to notify the person that he / she has perceived the tactile action, thereby further facilitating communication with the person. ing.

他方、人間に限らず他の動物でも同様であるが、他人が実際にタッチする前に、何らかの手段で、そのことを事前に察知し、その触行動を回避したり、あるいはそれに迎合する反応行動をすることがある。しかしながら、特許文献1の従来技術では、コミュニケーションロボットは人間が実際にロボットにタッチするまでは触行動を検知することはできず、その意味では、「生物らしさ」をやや欠いているといわざるを得ない。   On the other hand, it is the same with other animals as well as humans, but before other people actually touch, it is detected in advance by some means, and the reaction behavior that avoids or responds to that touch behavior Sometimes However, in the prior art of Patent Document 1, the communication robot cannot detect the tactile behavior until a human actually touches the robot, and in that sense, it is said that it is somewhat lacking in “biological character”. I don't get it.

それゆえに、この発明の主たる目的は、新規な、コミュニケーションロボットシステムを提供することである。   Therefore, the main object of the present invention is to provide a novel communication robot system.

この発明の他の目的は、より生物らしい反応が可能な、コミュニケーションロボットシステムを提供することである。   Another object of the present invention is to provide a communication robot system capable of a more biological reaction.

請求項1の発明は、複数の部位に設けられた複数のタッチセンサからのセンサ入力に基づいて人間による触行動を検知するコミュニケーションロボットであって、人間が実際にタッチしたかどうか判断するタッチ判断手段、タッチ判断手段によって実際にタッチしていると判断しなかったとき、人間が所定範囲内に存在するかどうか検出する存在検出手段、および存在検出手段によって人間が所定範囲内に存在することを検出したとき、人間の手が所定距離以内に接近している部位を推定接触部位として特定する第1特定手段を備え、第1特定手段は、人間の手が所定距離以内に接近している部位が複数あるかどうか判断する第1判断手段を含み、第1判断手段で人間の手が所定距離以内に接近している部位が複数あることを検出したとき所定条件を満たす1つの部位を推定接触部位として特定する、コミュニケーションロボットである The invention according to claim 1 is a communication robot that detects human tactile behavior based on sensor inputs from a plurality of touch sensors provided in a plurality of parts, and determines whether or not a human has actually touched. Means for detecting whether or not a person is within the predetermined range when the touch determination means does not determine that the person is actually touching, and the presence detection means for detecting that the person is within the predetermined range. When detected, it comprises first specifying means for specifying a part where a human hand is approaching within a predetermined distance as an estimated contact part, and the first specifying means is a part where the human hand is approaching within a predetermined distance Including first determination means for determining whether or not there are a plurality of parts, wherein the first determination means detects that there are a plurality of parts where a human hand approaches within a predetermined distance. Identifying a satisfying one site as the estimated contact site, a communication robot.

請求項1の発明では、コミュニケーションロボット(実施例で対応または相当する部分を例示する参照符号は「10」。以下同様。)は、CPU(50)を含み、このCPUは、タッチ判断手段や存在検出手段として働く。タッチ判断手段は、複数の部位に設けられたタッチセンサからのセンサ入力の有無などに基づいて、人間がコミュニケーションロボットのどこかの部位にタッチしたかどうか判断する。そして、そのようなタッチ判断手段がタッチを検出しなかったとき、存在検出手段は、たとえばモーションキャプチャ(76)からのロボットおよび人間のそれぞれの部位の三次元座標に基づいて、人間がロボットから所定範囲内に存在するかどうか判断する。具体的には、CPUは、人間が、その人間の手の長さを基準とした所定距離の範囲に存在するかどうか判断する(S37,S39)。CPUはまた、第1特定手段として機能し、人間が所定範囲内に存在すると判断したとき、人間の手が所定距離以内に接近している部位があるかどうか判断し、そのような部位があれば、その部位を推定接触部位として特定する(S49-S59))。
CPUはまた、第1判断手段として機能し、人間の手が所定距離以内に接近している部位が複数あるかどうか判断する(S49)。そして、第1特定手段は、第1判断手段で人間の手が所定距離以内に接近している部位が複数あることを検出したとき所定条件を満たす部位を推定接触部位として特定する(S57)。
請求項2の発明でも同様に、第1判断手段が人間の手が所定距離以内に接近している部位が複数あるかどうか判断し、第1特定手段は、第1判断手段で人間の手が所定距離以内に接近している部位が複数あることを検出したとき所定条件を満たす部位を推定接触部位として特定する。
According to the first aspect of the present invention, the communication robot (the reference numeral exemplifying the corresponding or corresponding part in the embodiment is “10”, the same applies hereinafter) includes the CPU (50). Acts as a detection means. The touch determination means determines whether or not a human has touched any part of the communication robot based on the presence or absence of sensor input from touch sensors provided in a plurality of parts. Then, when such a touch determination means does not detect a touch, the presence detection means, for example, based on the three-dimensional coordinates of the respective parts of the robot and the human from the motion capture (76), the human is predetermined from the robot. Determine if it is within range. Specifically, the CPU determines whether or not the human is within a predetermined distance range based on the length of the human hand (S37, S39). The CPU also functions as the first specifying means. When the CPU determines that the human is within the predetermined range, the CPU determines whether there is a portion where the human hand is approaching within the predetermined distance. For example, the part is specified as an estimated contact part (S49-S59).
The CPU also functions as first determination means, and determines whether there are a plurality of parts where the human hand approaches within a predetermined distance (S49). Then, when the first determining unit detects that there are a plurality of parts where the human hand approaches within a predetermined distance, the first specifying part specifies a part that satisfies the predetermined condition as an estimated contact part (S57).
Similarly, in the invention of claim 2, the first determining means determines whether there are a plurality of parts where the human hand approaches within a predetermined distance, and the first specifying means determines whether the human hand is the first determining means. When it is detected that there are a plurality of parts approaching within a predetermined distance, a part satisfying the predetermined condition is specified as the estimated contact part.

請求項の発明によれば、人間が実際にタッチしなくても、人間の触行動を検知することができ、より生物らしい、コミュニケーションロボットが得られる。さらにまた、人間の手が接近した部位が複数存在しても、そのどれか1つを推定接触部位として特定できるので、触行動に対する反応行動を生起する場合でも、正しい反応行動を生起させることができる。 According to the first aspect of the present invention, it is possible to detect a human tactile behavior without actually touching a human, and to obtain a communication robot that is more biological. Furthermore, even if there are a plurality of parts close to a human hand, any one of them can be specified as an estimated contact part, so that even when a reaction action to a tactile action is caused, a correct reaction action can be caused. it can.

請求項2の発明は、所定条件は前記人間の視線が向いているかどうかである、請求項記載のコミュニケーションロボットである。 A second aspect of the present invention, the predetermined condition is whether the human gaze is directed, it is a communication robot according to claim 1.

請求項の発明では、CPUは、たとえば人間の視線ベクトルを計算することによって、人間の視線が向く方向を推定し、その視線が向けられた部位が、人間が接触しようとしている部位であるとして特定する(S51)ので、人間が関心を持っている部位を正しく推定接触部位として特定することができる。 In the invention of claim 2 , the CPU estimates the direction in which the human line of sight is directed, for example, by calculating a human line-of-sight vector, and the part to which the line of sight is directed is the part that the person is trying to contact Since it specifies (S51), the part which a human is interested can be correctly specified as an estimated contact part.

請求項の発明は、第1特定手段は、人間の手が所定距離以内に接近している部位が1つだけのときには当該部位を推定接触部位として特定する、請求項1ま2記載のコミュニケーションロボットである。 The invention according to claim 3 is the communication according to claim 1 or 2 , wherein the first specifying means specifies the part as an estimated contact part when there is only one part where a human hand approaches within a predetermined distance. It is a robot.

請求項の発明では、CPUは、人間の手が所定距離以内に接近している部位が1つだけのときには、その部位を推定接触部位として特定する(S55)。 In the invention of claim 3 , when there is only one part where the human hand approaches within the predetermined distance, the CPU specifies that part as the estimated contact part (S55).

請求項の発明は、第1特定手段が特定した推定接触部位に応じて反応行動を生起させる反応行動生起所定手段をさらに備える、請求項1ないしのいずれかに記載のコミュニケーションロボットである。 The invention according to claim 4 is the communication robot according to any one of claims 1 to 3 , further comprising a reaction action occurrence predetermined means for causing a reaction action in accordance with the estimated contact site specified by the first specifying means.

請求項の発明では、CPUは、また反応行動生起手段として機能し、反応行動生起手段は、推定接触部位に応じて異なる反応行動(表1)を生起する(S7)。したがって、人間が実際にタッチしなくても推定接触部位に応じた反応行動を実行することができる。 In the invention of claim 4 , the CPU also functions as a reaction behavior generating unit, and the reaction behavior generating unit generates a different reaction behavior (Table 1) depending on the estimated contact site (S7). Therefore, even if a human does not actually touch, the reaction behavior corresponding to the estimated contact site can be executed.

請求項の発明は、複数の部位に設けられた複数のタッチセンサ、およびタッチセンサからのセンサ入力に応じて人間が実際にタッチした実接触部位を特定する第2特定手段をさらに備える、請求項1ないしのいずれかに記載のコミュニケーションロボットである。 The invention of claim 5 further includes a plurality of touch sensors provided in the plurality of parts, and second specifying means for specifying an actual contact part actually touched by a human in response to a sensor input from the touch sensor. Item 5. The communication robot according to any one of Items 1 to 4 .

請求項の発明では、CPUは複数のタッチセンサ(721−728)からセンサ入力によって、人間が実際にタッチした実接触部位も特定できるので、この点では従来のコミュニケーションロボットと同様に人間による触行動を感知することができる。 According to the fifth aspect of the present invention, the CPU can also specify the actual contact site actually touched by a human by sensor input from a plurality of touch sensors (721-728). Can detect behavior.

請求項の発明は、第2特定手段は、複数のタッチセンサからセンサ入力があるかどうか判断する第2判断手段を含み、第2判断手段で複数のタッチセンサからセンサ入力があるかことを検出したとき人間の視線方向に応じて1つの実接触部位を特定する、請求項記載のコミュニケーションロボットである。 In the invention of claim 6 , the second specifying means includes second determining means for determining whether or not there is a sensor input from a plurality of touch sensors, and the second determining means indicates whether or not there is a sensor input from the plurality of touch sensors. The communication robot according to claim 5 , wherein when detected, one actual contact site is identified in accordance with a human gaze direction.

請求項の発明では、CPU(第2特定手段)は、第2判断手段(S25)で複数のタッチセンサからセンサ入力があるかことを検出したとき人間の視線方向に応じて1つの実接触部位を特定する(S27−S31)。人間が関心を持っている部位を正しく推定接触部位として特定することができる。 In the invention of claim 6, CPU (second specifying means), when it detects that one of the plurality of touch sensors in the second determining means (S25) has sensor inputs, only one in accordance with the human eye direction A contact site is specified (S27-S31). It is possible to correctly identify a part that a person is interested in as an estimated contact part.

この発明によれば、人間が実際にタッチしなくても、人間の触行動を検知することができ、場合によってはその触行動に対する反応行動を生起することができるので、従来のものに比べてより生物らしい、コミュニケーションロボットが得られる。   According to the present invention, even if a human does not actually touch, it is possible to detect a human's tactile behavior, and in some cases, a reaction behavior to the tactile behavior can be generated. A communication robot that is more biological is obtained.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1に示すこの発明の一実施例のコミュニケーションロボット(以下、単に「ロボット」ということがある。)10は、台車12を含み、この台車12の下面には、このロボット10を自律移動させる車輪14が設けられる。この車輪14は、車輪モータ(図2において参照番号「70」で示す。)によって駆動され、台車12すなわちロボット10を前後左右任意の方向に動かすことができる。なお、図示しないが、この台車12の前面には、衝突センサ(図2において、参照番号「74」で示す。)が取り付けられ、この衝突センサは、台車12への人や他の障害物の接触を検知する。そして、ロボット10の移動中に障害物との接触を検知すると、直ちに車輪14の駆動を停止してロボット10の移動を急停止させて衝突を未然に防ぐ。   A communication robot (hereinafter, simply referred to as a “robot”) 10 according to an embodiment of the present invention shown in FIG. 1 includes a carriage 12, and wheels on which the robot 10 autonomously moves are provided on the lower surface of the carriage 12. 14 is provided. The wheel 14 is driven by a wheel motor (indicated by reference numeral “70” in FIG. 2), and the carriage 12, that is, the robot 10 can be moved in any direction, front, back, left, and right. Although not shown, a collision sensor (indicated by reference numeral “74” in FIG. 2) is attached to the front surface of the carriage 12, and this collision sensor is used to detect a person or other obstacle to the carriage 12. Detect contact. When contact with an obstacle is detected during the movement of the robot 10, the driving of the wheels 14 is immediately stopped to suddenly stop the movement of the robot 10 to prevent a collision.

なお、ロボット10の背の高さは、この実施例では、人、特に子供に威圧感をあたえることがないように、100cm程度とされている。ただし、この背の高さは任意に変更可能である。   In this embodiment, the height of the robot 10 is set to about 100 cm so as not to intimidate people, particularly children. However, this height can be arbitrarily changed.

台車12の上には、多角形柱のセンサ取付パネル16が設けられ、このセンサ取付パネル16の各面には、超音波距離センサ18が取り付けられる。この超音波距離センサ18は、取付パネル16すなわちロボット10の周囲の主として人との間の距離を計測するものである。   A polygonal column sensor mounting panel 16 is provided on the carriage 12, and an ultrasonic distance sensor 18 is mounted on each surface of the sensor mounting panel 16. The ultrasonic distance sensor 18 measures a distance between the mounting panel 16, that is, a person mainly around the robot 10.

台車12の上には、さらに、下部が上述の取付パネル16に囲まれて、ロボット10の胴体が直立するように取り付けられる。この胴体は下部胴体20と上部胴体22とから構成され、これら下部胴体20および上部胴体22は、連結部24によって、連結される。連結部24には、図示しないが、昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体22の高さすなわちロボット10の高さを変化させることができる。昇降機構は、後述のように、腰モータ(図2において参照番号「68」で示す。)によって駆動される。上で述べたロボット10の身長100cmは、上部胴体22をそれの最下位置にしたときの値である。したがって、ロボット10の身長は100cm以上にすることができる。   On the carriage 12, the lower part is surrounded by the above-described mounting panel 16, and the body of the robot 10 is attached so as to stand upright. This body is composed of a lower body 20 and an upper body 22, and the lower body 20 and the upper body 22 are connected by a connecting portion 24. Although not shown, the connecting portion 24 has a built-in lifting mechanism, and the height of the upper body 22, that is, the height of the robot 10 can be changed by using the lifting mechanism. As will be described later, the elevating mechanism is driven by a waist motor (indicated by reference numeral “68” in FIG. 2). The height 100 cm of the robot 10 described above is a value when the upper body 22 is at its lowest position. Therefore, the height of the robot 10 can be 100 cm or more.

ただし、下部胴体20と上部胴体22とを一体化して、身長を調整できない1つの胴体とすることも可能である。   However, it is also possible to integrate the lower body 20 and the upper body 22 into a single body whose height cannot be adjusted.

上部胴体22のほぼ中央には、1つの全方位カメラ26と、1つのマイク28とが設けられる。全方位カメラ26は、ロボット10の周囲を撮影するもので、後述の眼カメラ46と区別される。マイク28は、周囲の音、とりわけ人の声を取り込む。   One omnidirectional camera 26 and one microphone 28 are provided in the approximate center of the upper body 22. The omnidirectional camera 26 photographs the surroundings of the robot 10 and is distinguished from an eye camera 46 described later. The microphone 28 captures ambient sounds, particularly human voice.

上部胴体22の両肩には、それぞれ、肩関節30Rおよび30Lによって、上腕32Rおよび32Lが取り付けられる。肩関節30Rおよび30Lは、それぞれ3軸の自由度を有する。すなわち、肩関節30Rは、X軸,Y軸およびZ軸のそれぞれの軸廻りにおいて上腕32Rの角度を制御できる。Y軸は、上腕32Rの長手方向(または軸)に並行な軸であり、X軸およびZ軸は、そのY軸に、それぞれ異なる方向から直交する軸である。肩関節30Lは、A軸,B軸およびC軸のそれぞれの軸廻りにおいて上腕32Lの角度を制御できる。B軸は、上腕32Lの長手方向(または軸)に並行な軸であり、A軸およびC軸は、そのB軸に、それぞれ異なる方向から直交する軸である。   Upper arms 32R and 32L are attached to both shoulders of the upper body 22 by shoulder joints 30R and 30L, respectively. The shoulder joints 30R and 30L each have three degrees of freedom. That is, the shoulder joint 30R can control the angle of the upper arm 32R around each of the X axis, the Y axis, and the Z axis. The Y axis is an axis parallel to the longitudinal direction (or axis) of the upper arm 32R, and the X axis and the Z axis are axes orthogonal to the Y axis from different directions. The shoulder joint 30L can control the angle of the upper arm 32L around each of the A, B, and C axes. The B axis is an axis parallel to the longitudinal direction (or axis) of the upper arm 32L, and the A axis and the C axis are axes orthogonal to the B axis from different directions.

上腕32Rおよび32Lのそれぞれの先端には、肘関節34Rおよび34Lを介して、前腕36Rおよび36Lが取り付けられる。肘関節34Rおよび34Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕36Rおよび36Lの角度を制御できる。   Forearms 36R and 36L are attached to the respective distal ends of upper arms 32R and 32L via elbow joints 34R and 34L. The elbow joints 34R and 34L can control the angles of the forearms 36R and 36L around the axes of the W axis and the D axis, respectively.

なお、上腕32Rおよび32Lならびに前腕36Rおよび36L(いずれも図1)の変位を制御するX,Y,X,W軸およびA,B,C,D軸では、「0度」がホームポジションであり、このホームポジションでは、上腕32Rおよび32Lならびに前腕36Rおよび36Lは下方向に向けられる。   In the X, Y, X, W axes and the A, B, C, D axes that control the displacement of the upper arms 32R and 32L and the forearms 36R and 36L (FIG. 1), “0 degree” is the home position. In this home position, the upper arms 32R and 32L and the forearms 36R and 36L are directed downward.

また、図3に示すように、上部胴体22の肩関節30Rおよび30Lを含む肩の部分や上述の上腕32Rおよび32Lならびに前腕36Rおよび36L、さらには頭部42や腹部には、それぞれ、タッチセンサ721−728が設けられていて、これらのタッチセンサ721−728は、人がロボット10のこれらの部位に接触したかどうかを検知する。これらのタッチセンサは図2においては参照番号72で包括的に示す。   Further, as shown in FIG. 3, a touch sensor is provided on the shoulder portion of the upper body 22 including the shoulder joints 30R and 30L, the upper arms 32R and 32L, the forearms 36R and 36L, and the head 42 and the abdomen. 721-728 are provided, and these touch sensors 721-728 detect whether a person has touched these parts of the robot 10 or not. These touch sensors are generally indicated by reference numeral 72 in FIG.

前腕36Rおよび36Lのそれぞれの先端には、手に相当する球体38Rおよび38Lがそれぞれ固定的に取り付けられる。なお、この球体38Rおよび38Lに代えて、この実施例のロボット10と異なり指の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。   Spheres 38R and 38L corresponding to hands are fixedly attached to the tips of the forearms 36R and 36L, respectively. Instead of the spheres 38R and 38L, a “hand” in the shape of a human hand can be used when a finger function is required unlike the robot 10 of this embodiment.

上部胴体22の中央上方には、首関節40を介して、頭部42が取り付けられる。この首関節40は、3つの自由度を有し、S軸,T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上に向かう軸であり、T軸およびU軸は、それぞれ、このS軸に対して異なる方向で直交する軸である。頭部42には、人の口に相当する位置に、スピーカ44が設けられ、目に相当する位置に眼カメラ46が設けられる。スピーカ44は、ロボット10が、それの周囲の人に対して音声または声によってコミュニケーションを図るために用いられる。眼カメラ46は、ロボット10に接近した人の顔や他の部分を撮影してその映像信号を取り込む。ただし、スピーカ44は、ロボット10の他の部位たとえば胴体に設けられてもよい。   A head portion 42 is attached to the upper center of the upper body 22 via a neck joint 40. The neck joint 40 has three degrees of freedom and can be angle-controlled around each of the S, T, and U axes. The S-axis is an axis that goes directly from the neck, and the T-axis and the U-axis are axes that are orthogonal to the S-axis in different directions. The head 42 is provided with a speaker 44 at a position corresponding to a human mouth, and an eye camera 46 at a position corresponding to the eyes. The speaker 44 is used by the robot 10 to communicate with a person around it by voice or voice. The eye camera 46 captures the video signal by photographing the face and other parts of the person approaching the robot 10. However, the speaker 44 may be provided in another part of the robot 10, for example, the trunk.

なお、上述の全方位カメラ26および眼カメラ46のいずれも、たとえばCCDやCMOSのように固体撮像素子を用いるカメラであってよい。   Note that each of the omnidirectional camera 26 and the eye camera 46 described above may be a camera using a solid-state imaging device such as a CCD or a CMOS.

図1に示すロボット10の制御系の構成が図2のブロック図に示される。図2に示すように、このロボット10は、全体の制御のためにマイクロコンピュータまたはCPU50を含み、このCPU50には、バス52を通して、メモリ54,モータ制御ボード56,センサ入力/出力ボード58および音声入力/出力ボード60が接続される。   The configuration of the control system of the robot 10 shown in FIG. 1 is shown in the block diagram of FIG. As shown in FIG. 2, the robot 10 includes a microcomputer or a CPU 50 for overall control. The CPU 50 is connected to a memory 54, a motor control board 56, a sensor input / output board 58 and a voice through a bus 52. An input / output board 60 is connected.

メモリ54は、図示しないが、ROMやRAMを含み、ROMにはこのロボット10の制御プログラムが予め書き込まれているとともに、スピーカ44から発生すべき音声または声の音声データが格納されている。RAMは、一時記憶メモリとして用いられるとともに、ワーキングメモリとして利用され得る。   Although not shown, the memory 54 includes a ROM and a RAM, in which a control program for the robot 10 is written in advance and voice or voice data to be generated from the speaker 44 is stored. The RAM is used as a temporary storage memory and can be used as a working memory.

モータ制御ボード56は、たとえばDSP(Digital Signal Processor)で構成され、各腕や頭部の各軸モータを制御する。すなわち、モータ制御ボード56は、CPU50からの制御データを受け、右肩関節30RのX,YおよびZ軸のそれぞれの角度を制御する3つのモータと右肘関節34Rの軸Wの角度を制御する1つのモータとの計4つのモータ(図2ではまとめて、「右腕モータ」として示す。)62の回転角度を調節する。また、モータ制御ボード56は、左肩関節30LのA,BおよびC軸のそれぞれの角度を制御する3つのモータと左肘関節34LのD軸の角度を制御する1つのモータとの計4つのモータ(図2ではまとめて、「左腕モータ」として示す。)64の回転角度を調節する。モータ制御ボード56は、また、頭部42のS,TおよびU軸のそれぞれの角度を制御する3つのモータ(図2ではまとめて、「頭部モータ」として示す。)66の回転角度を調節する。モータ制御ボード56は、また、腰モータ68、および車輪14を駆動する2つのモータ(図2ではまとめて、「車輪モータ」として示す。)70を制御する。   The motor control board 56 is constituted by, for example, a DSP (Digital Signal Processor), and controls each axis motor of each arm and head. That is, the motor control board 56 receives the control data from the CPU 50, and controls the angles of the three motors for controlling the X, Y, and Z axes of the right shoulder joint 30R and the axis W of the right elbow joint 34R. The rotation angle of a total of four motors (one in FIG. 2 and collectively shown as “right arm motor”) 62 is adjusted. The motor control board 56 includes a total of four motors including three motors that control the angles of the A, B, and C axes of the left shoulder joint 30L and one motor that controls the angle of the D axis of the left elbow joint 34L. (They are collectively shown as “left arm motor” in FIG. 2). The rotation angle of 64 is adjusted. The motor control board 56 also adjusts the rotation angle of three motors 66 (collectively shown as “head motors” in FIG. 2) that control the angles of the S, T, and U axes of the head 42. To do. The motor control board 56 also controls a waist motor 68 and two motors 70 (referred to collectively as “wheel motors” in FIG. 2) that drive the wheels 14.

なお、この実施例の上述のモータは、車輪モータ70を除いて、制御を簡単化するためにそれぞれステッピングモータまたはパルスモータであるが、車輪モータ70と同様に、直流モータであってよい。   In addition, the above-described motors of this embodiment are stepping motors or pulse motors for simplifying the control, except for the wheel motors 70, but may be DC motors similarly to the wheel motors 70.

センサ入力/出力ボード58も、同様に、DSPで構成され、各センサやカメラからの信号を取り込んでCPU50に与える。すなわち、超音波距離センサ18の各々からの反射時間に関するデータがこのセンサ入力/出力ボード58を通して、CPU50に入力される。また、全方位カメラ26からの映像信号が、必要に応じてこのセンサ入力/出力ボード58で所定の処理が施された後、CPU50に入力される。眼カメラ46からの映像信号も、同様にして、CPU50に与えられる。なお、この図2では、図1で説明したタッチセンサは、まとめて「タッチセンサ72」として表され、それらのタッチセンサ72からの信号がセンサ入力/出力ボード58を介して、CPU50に与えられる。   Similarly, the sensor input / output board 58 is configured by a DSP, and takes in signals from each sensor and camera and gives them to the CPU 50. That is, data relating to the reflection time from each of the ultrasonic distance sensors 18 is input to the CPU 50 through the sensor input / output board 58. The video signal from the omnidirectional camera 26 is input to the CPU 50 after being subjected to predetermined processing by the sensor input / output board 58 as required. The video signal from the eye camera 46 is also given to the CPU 50 in the same manner. In FIG. 2, the touch sensors described in FIG. 1 are collectively represented as “touch sensors 72”, and signals from those touch sensors 72 are given to the CPU 50 via the sensor input / output board 58. .

なお、スピーカ44には音声入力/出力ボード60を介して、CPU50から、合成音声データが与えられ、それに応じて、スピーカ44からはそのデータに従った音声または声が出力される。そして、マイク28からの音声入力が、音声入力/出力ボード60を介して、CPU50に取り込まれる。   The speaker 44 is provided with synthesized voice data from the CPU 50 via the voice input / output board 60, and in response to this, the speaker 44 outputs voice or voice according to the data. Then, the voice input from the microphone 28 is taken into the CPU 50 via the voice input / output board 60.

ここで、図2では包括的に示されるタッチセンサ72について詳細に説明する。この実施例のロボット10では、図3に示すように、合計8つのタッチセンサ721−728が設けられる。タッチセンサ721は、頭部42の上面(頭頂)に設けられ、タッチセンサ722および725がそれぞれ左肩および右肩に設けられる。左手上腕32Lおよび左手前腕34Lにタッチセンサ723および724が配置され、右手上腕32Rおよび左手前腕34Rにタッチセンサ7256および727が配置される。そして、胸および/または腹にタッチセンサ728が設けられる。なお、タッチセンサ721−728には、それぞれ、(1)−(8)の番号が付与され、それらの中心位置をP1−P8で表している。   Here, the touch sensor 72 shown comprehensively in FIG. 2 will be described in detail. In the robot 10 of this embodiment, a total of eight touch sensors 721-728 are provided as shown in FIG. The touch sensor 721 is provided on the upper surface (the top of the head) of the head 42, and the touch sensors 722 and 725 are provided on the left shoulder and the right shoulder, respectively. Touch sensors 723 and 724 are disposed on the left upper arm 32L and the left forearm 34L, and touch sensors 7256 and 727 are disposed on the right upper arm 32R and the left forearm 34R. A touch sensor 728 is provided on the chest and / or belly. Note that numbers (1) to (8) are assigned to the touch sensors 721 to 728, respectively, and their center positions are represented by P1 to P8.

ただし、タッチセンサの個数やそれらが配置される場所または部位は、この実施例に限定されるものではなく、適宜変更することができる。   However, the number of touch sensors and the place or part where they are arranged are not limited to this embodiment, and can be changed as appropriate.

さらに、実施例のコミュニケーションロボットシステムでは、図2に示す光学式モーションキャプチャ76を用いる。モーションキャプチャはよく知られているように、現実の人物や物体の動きや姿勢をディジタル的に記録するシステムであり、人体や物体に装着するマーカ(marker)とこれを検出するトラッカ(tracker)とを組み合わせてキャプチャする。光学式では、たとえばマーカとして反射シールを用い、複数のカメラをトラッカとして用いる。   Further, the communication robot system of the embodiment uses an optical motion capture 76 shown in FIG. As is well known, motion capture is a system that digitally records the movements and postures of real people and objects. Markers that are attached to human bodies and objects and trackers that detect this are used. Capture in combination. In the optical system, for example, a reflective seal is used as a marker, and a plurality of cameras are used as trackers.

実施例で説明すると、図1に示すコミュニケーションロボット10に、図4に黒丸で示すように、19個の反射シールをマーカ78として装着する。他方、そのロボット10に対して触行動を行うなどコミュニケーションを図る人間80に、図5に黒丸で示すように、同じく19個の反射シールをマーカ78として装着する。そして、ロボット10と人間80とを同時に、図2に示す複数のMC(モーションキャプチャ)カメラ821−82nで撮影して、それらのカメラ821−82nからの画像信号をMCコンピュータ84に入力する。MCコンピュータ84では、各マーカ78(図4および図5)の3次元位置(座標)をリアルタイムに計算し、それを、バス52を通して、ロボットコンピュータすなわちCPU50に与える。ただし、MCコンピュータ84とロボットコンピュータ50とは、有線ではなく、無線LANによって連係するようにしてもよい。   Explaining in the embodiment, 19 reflective stickers are attached as markers 78 to the communication robot 10 shown in FIG. On the other hand, as shown by a black circle in FIG. 5, 19 reflective stickers are similarly attached as markers 78 to a person 80 who communicates such as touching the robot 10. Then, the robot 10 and the human 80 are simultaneously photographed by a plurality of MC (motion capture) cameras 821-82n shown in FIG. 2, and image signals from these cameras 821-82n are input to the MC computer 84. The MC computer 84 calculates the three-dimensional position (coordinates) of each marker 78 (FIGS. 4 and 5) in real time, and supplies it to the robot computer, that is, the CPU 50 through the bus 52. However, the MC computer 84 and the robot computer 50 may be linked by a wireless LAN instead of wired.

モーションキャプチャシステム(3次元動作計測装置)76としては、公知のモーションキャプチャシステムが適用されるが、発明者等の実験では、VICON社(http://www./vicon.com/)の光学式のモーションキャプチャシステムを用いた。この場合には12台のMCカメラ82を使用する。   As the motion capture system (three-dimensional motion measurement device) 76, a known motion capture system is applied. However, in the experiments by the inventors, the optical system of VICON (http://www./vicon.com/) is used. The motion capture system of was used. In this case, 12 MC cameras 82 are used.

なお、ロボット10の動きや姿勢は必ずしもモーションキャプチャを用いなくても把握できる。たとえば、上で説明した各腕や頭部の各軸モータ、右腕モータ62、左腕モータ64、頭部モータ66の回転角度からロボット10の動きや姿勢を計算によって求めることができる。しかしながら、実施例では、CPU50のリアルタイムの計算量を軽減するために、モーションキャプチャ76を用いるようにした。   The movement and posture of the robot 10 can be grasped without necessarily using motion capture. For example, the movement and posture of the robot 10 can be calculated from the rotation angles of the respective axis motors of the arms and head, the right arm motor 62, the left arm motor 64, and the head motor 66 described above. However, in the embodiment, the motion capture 76 is used to reduce the real-time calculation amount of the CPU 50.

図6は図1および図2に示す実施例のCPU50の動作を説明するためのフローチャートであり、最初のステップS1では、CPU50は、ロボット10のオペレータから停止命令が入力されたかどうか判断する。ステップS1で“YES”が判断されれば、当然、処理は終了する。   FIG. 6 is a flowchart for explaining the operation of the CPU 50 of the embodiment shown in FIGS. 1 and 2. In the first step S <b> 1, the CPU 50 determines whether or not a stop command is input from the operator of the robot 10. If “YES” is determined in the step S1, the processing is naturally ended.

ステップS1で“NO”が判断されたときには、CPU50は、次のステップS3で、人間80によるロボット10への接触行動があったかどうか、そして接触行動があったならロボットのどの場所または部位に接触されたかを判定する。   If "NO" is determined in the step S1, the CPU 50 is contacted in the next step S3 whether or not the human 80 has made contact with the robot 10, and if there has been a contact action, any position or part of the robot is contacted. It is determined.

ここで、図7−図11を参照して、このステップS3のサブルーチンについて詳細に説明する。   Here, the subroutine of step S3 will be described in detail with reference to FIGS.

図7の最初のステップS21では、CPU50は、ロボット10の各部についてタッチセンサの接触反応の有無をチェックする。具体的には、CPU50はセンサ入出力ボード58(図2)を通してタッチセンサ72すなわち図3に示すタッチセンサ721−728について、センサ入力があったかどうか判定する。そして、センサ入力があった場合には、CPU50は、図2のメモリ54内に形成されているタッチセンサフラグTs_flag(n)を「1」にセットする。ただし、カッコ内の「n」は、タッチセンサの番号を表し、実施例の場合「1−8」である。センサ入力がない場合には、CPU50は、該当のフラグTs_flag(n)に「0」を書き込む。なお、センサ入力のあるタッチセンサの個数も同時にカウントされていて、タッチセンサフラグに「1」を書き込むつど、CPU50は、同じメモリ54に形成したタッチセンサカウンタTs_countをインクリメントする(+1)。   In the first step S <b> 21 in FIG. 7, the CPU 50 checks the presence or absence of a contact reaction of the touch sensor for each part of the robot 10. Specifically, the CPU 50 determines whether there is a sensor input for the touch sensor 72, that is, the touch sensors 721-728 shown in FIG. 3, through the sensor input / output board 58 (FIG. 2). If there is a sensor input, the CPU 50 sets the touch sensor flag Ts_flag (n) formed in the memory 54 of FIG. 2 to “1”. However, “n” in parentheses represents the number of the touch sensor, which is “1-8” in the embodiment. When there is no sensor input, the CPU 50 writes “0” in the corresponding flag Ts_flag (n). Note that the number of touch sensors with sensor input is also counted at the same time, and each time “1” is written in the touch sensor flag, the CPU 50 increments the touch sensor counter Ts_count formed in the same memory 54 (+1).

続くステップS23において、CPU50は、タッチセンサカウンタTs_countのカウント値が「1」以上かどうか判定する。このステップS23で“YES”が判定されるということは、先のステップS21において少なくも1つのタッチセンサからセンサ入力があったこと、つまり人間80(図5)がロボット10のどこかに、実際にタッチ(接触)したことを意味し、“NO”が判定されるということは、人間80がロボット10に実際にはタッチ(接触)しなかったことを意味する。   In subsequent step S23, CPU 50 determines whether or not the count value of touch sensor counter Ts_count is “1” or more. If “YES” is determined in this step S23, it means that there is a sensor input from at least one touch sensor in the previous step S21, that is, the human 80 (FIG. 5) is actually somewhere in the robot 10. Means that the human 80 has not actually touched (contacted) the robot 10.

そして、ステップS23で“YES”の場合、続くステップS25において、CPU50は、カウンタTs_countのカウント値が「2以上」かどうか判断する(Ts_count>1)。このステップS25は第2判断手段として機能し、このステップS25で“YES”が判断されるということは、ステップS21で2つ以上のタッチセンサからセンサ入力があったこと、つまりロボット10の複数の場所または部位が人間によって触られたことを意味する。この実施例では、ロボット10の複数の場所にタッチがあった場合でも、どこか1つの場所に特定するようにしている。そのために、ステップS27以下のステップが実行される。   If “YES” in the step S23, in the subsequent step S25, the CPU 50 determines whether or not the count value of the counter Ts_count is “2 or more” (Ts_count> 1). This step S25 functions as a second determination means, and that “YES” is determined in step S25 means that there are sensor inputs from two or more touch sensors in step S21, that is, a plurality of robots 10 Means that a place or part has been touched by a human. In this embodiment, even if there are touches at a plurality of locations on the robot 10, the location is specified as one location. For this purpose, the steps after step S27 are executed.

第2特定手段を構成するステップS27では、簡単にいうと、CPU50は、そのときの人間80の視線方向によって接触場所を特定する。   In step S27 constituting the second specifying means, simply speaking, the CPU 50 specifies the contact location according to the line-of-sight direction of the human 80 at that time.

相手の人間の視線方向は、図5に示すように頭部に取り付けられたマーカの座標から視線ベクトルとして算出する。具体的には、頭部前方に取り付けられた2箇所のマーカ位置を、図9に示すように、右側のものをPright_head_frontとし、左側のものをPleft_head_frontとし、後方に取り付けられたマーカ位置をPcenter_head_backとし、これらのマーカ位置(座標)から視線ベクトルを算出する。視線ベクトルEyeVectorは、Pcenter_head_backからPright_head_frontとPleft_head_frontを結ぶ線の中心位置へのベクトルとする。視線ベクトルは次の数1によって求めることができる。   The line-of-sight direction of the other person is calculated as a line-of-sight vector from the coordinates of the marker attached to the head as shown in FIG. Specifically, as shown in FIG. 9, two marker positions attached to the front of the head are shown as Right_head_front on the right side, Pref_head_front on the left side, and Pcenter_head_back as the marker position attached on the rear side. The line-of-sight vector is calculated from these marker positions (coordinates). The line-of-sight vector EyeVector is a vector from the Center_head_back to the center position of the line connecting the Rights_head_front and the Left_head_front. The line-of-sight vector can be obtained by the following equation (1).

Figure 0004878462
Figure 0004878462

そして、この視線ベクトルEyeVectorが向く方向のタッチセンサTeを特定する。つまり、視線ベクトルEyeVectorの方向にあるタッチセンサが、8つのタッチセンサ721−728(図3)のどれに該当するか判断する。   Then, the touch sensor Te in the direction in which the line-of-sight vector EyeVector faces is specified. That is, it is determined which of the eight touch sensors 721-728 (FIG. 3) corresponds to the touch sensor in the direction of the line-of-sight vector EyeVector.

ここで、まず、ロボットの体の各タッチセンサ721−728の中心座標P1−P8は次のようにして求められる。   Here, first, the center coordinates P1-P8 of the touch sensors 721-728 of the body of the robot are obtained as follows.

ロボットの各タッチセンサ721−728の中心点P1−P8は、タッチセンサ721−728の付近に取り付けられたマーカの座標からのベクトルを予め知っていれば、容易に算出できる。ただし、この場合、先の図3および図4に示すように、タッチセンサ721−728の付近のマーカは、ロボットが動作してもタッチセンサ721−728の中心点P1−P8との相対位置が変化しないところに設置しておく必要がある。   The center point P1-P8 of each touch sensor 721-728 of the robot can be easily calculated if the vector from the coordinates of the marker attached in the vicinity of the touch sensor 721-728 is known in advance. However, in this case, as shown in FIGS. 3 and 4, the marker near the touch sensor 721-728 has a relative position with respect to the center point P1-P8 of the touch sensor 721-728 even when the robot operates. It must be installed where it will not change.

以下の具体例では、一例として、肩部のタッチセンサ722(725)の中心位置P1−P8の座標Ptouchsensor_shoulderを計算する方法を説明する。   In the following specific example, as an example, a method of calculating the coordinates Ptouchsensor_shoulder of the center positions P1 to P8 of the shoulder touch sensor 722 (725) will be described.

肩に取り付けられたマーカの座標Pshoulderから、肩部タッチセンサ722(725)の中心座標Ptouchsensor_shoulderへのベクトルVshoulder(=Ptouchsensor_shoulder−Pshoulder)を予め計測しておく。このベクトルVshoulderを用いることにより、ロボットが動作中の肩部タッチセンサ722(725)の中心位置P1(P5)の座標はPtouchsensor_shoulder=Pshoulder+Vshoulderで求められる。   A vector Vshoulder (= Ptouchsensor_shoulder-Psoulder) from the coordinate Pshoulder of the marker attached to the shoulder to the center coordinate Ptouchsensor_shoulder of the shoulder touch sensor 722 (725) is measured in advance. By using this vector Vshoulder, the coordinates of the center position P1 (P5) of the shoulder touch sensor 722 (725) in which the robot is operating can be obtained by Ptouchsensor_shoulder = Pshoulder + Vsoulder.

また、ロボット10の各部中心(タッチセンサ中心)点は、ロボットの身体中心座標が分かっていれば、現在のロボットの関節各情報から、順運動学方程式を解くことによっても算出することが可能である。   In addition, the center of each part (touch sensor center) point of the robot 10 can be calculated by solving the forward kinematic equation from each information of the current robot joints if the body center coordinates of the robot are known. is there.

次に、図10において、点と直線の距離dは、数2で求まる。ただし、図10においても数2においても、ベクトル記号は、便宜上省略している。   Next, in FIG. 10, the distance d between the point and the straight line is obtained by Equation 2. However, in FIG. 10 and Equation 2, the vector symbols are omitted for convenience.

Figure 0004878462
Figure 0004878462

つまり、視線ベクトルを正規化したベクトルと相手(人間)の頭部後方位置に取り付けたマーカの座標から、視線方向を示す直線を算出し、各タッチセンサの中心座標位置P1−P8(図3)との距離D(n)を上記の点と直線の距離dの式より算出する。ただし、(n)はタッチセンサ721−728の番号、であり、実施例では「1−8」である。   That is, a straight line indicating the line-of-sight direction is calculated from the normalized line-of-sight vector and the coordinates of the marker attached to the back position of the opponent (human) head, and the center coordinate positions P1-P8 of each touch sensor (FIG. 3). Distance D (n) is calculated from the above formula of the distance d between the point and the straight line. However, (n) is the number of the touch sensor 721-728, and is “1-8” in the embodiment.

具体例において上記数2との対応を考えると、点p1は、相手の頭部後方に取り付けたマーカ位置Pcenter_head_backに対応し、点p2は、各タッチセンサ721−728の中心位置Ptouchsensor_nに対応し、正規化した方向ベクトルv(ただし、ベクトル記号は便宜上省略する)は(EyeVector/|EyeVector|)に相当する。そして、数2に従って距離dを計算し、それをD(n)とする。   Considering the correspondence with Equation 2 in the specific example, the point p1 corresponds to the marker position Pcenter_head_back attached to the back of the opponent's head, the point p2 corresponds to the center position Ptouchsensor_n of each touch sensor 721-728, The normalized direction vector v (however, vector symbols are omitted for convenience) corresponds to (EyeVector / | EyeVector |). Then, the distance d is calculated according to Equation 2 and is set to D (n).

このようにして、視線方向の直線と各タッチセンサ721−728の中心との間の距離D(n)が求まる。そして、図11に示すように、この距離D(n)が任意の閾値L以下であるタッチセンサを実際に接触行為のあったタッチセンサTeと推定する。   In this way, the distance D (n) between the straight line in the line-of-sight direction and the center of each touch sensor 721-728 is obtained. Then, as shown in FIG. 11, a touch sensor whose distance D (n) is equal to or less than an arbitrary threshold value L is estimated as a touch sensor Te that actually has a contact act.

その後、CPU50は、ステップS29において、視線方向から推定したタッチセンサTeとステップS21で検出した接触反応箇所とが一致しているかどうか判断する。つまり、フラグTs_flag(Te)が「1」かどうか判断する。ただし、(Te)は推定したタッチセンサ721−728の番号「1−8」のいずれかである。   Thereafter, in step S29, the CPU 50 determines whether or not the touch sensor Te estimated from the line-of-sight direction matches the contact reaction location detected in step S21. That is, it is determined whether the flag Ts_flag (Te) is “1”. However, (Te) is one of the numbers “1-8” of the estimated touch sensors 721-728.

そして、ステップS29で“YES”が判断されると、CPU50は、ステップS31において、視線方向から推定したタッチセンサTeを、実際に接触のあったタッチセンサとして同定し、リターンする。   If “YES” is determined in the step S29, the CPU 50 identifies the touch sensor Te estimated from the line-of-sight direction as a touch sensor actually touched in a step S31, and returns.

ステップS29で“NO”なら、つまり、視線方向から推定したタッチセンサTeとステップS21で検出した接触反応箇所とが一致しない場合には、ステップS33で判定不能と認識し、リターンする。   If “NO” in the step S29, that is, if the touch sensor Te estimated from the line-of-sight direction and the contact reaction portion detected in the step S21 do not coincide with each other, it is recognized that the determination is impossible in the step S33, and the process returns.

なお、ステップS25で“NO”が判断されたとき、つまり、ステップS21で接触反応を検出したタッチセンサが1つだけであった場合には、そのとき検出したタッチセンサを実際にタッチされたタッチセンサであると認識し(ステップS35)、リターンする。   If “NO” is determined in step S25, that is, if only one touch sensor has detected a contact reaction in step S21, the touch sensor actually detected by the touch sensor detected at that time is touched. It recognizes that it is a sensor (step S35), and returns.

以上の説明のように、ステップS25−S31,S35は、相手の人間80がロボット10のどこかに実際にタッチした場合に、実接触部位を特定するための第2特定手段として機能する。   As described above, steps S25 to S31 and S35 function as second specifying means for specifying the actual contact site when the opponent person 80 actually touches the robot 10 somewhere.

ただし、この実施例は、人間が実際にはタッチしない場合でも、人間がタッチしようとする「気配」を察知し、実際にタッチがある場合の触行動に対すると同じような反応行動を生起することによって、より生物らしいコミュニケーションロボットシステムを得ようとするものである。そこで、CPU50は、実際にタッチがない場合でも、ステップS37以降を実行して人間の触行動があったかどうか認識する。   However, in this embodiment, even if a human does not actually touch, it senses the “sign” that the human is trying to touch, and causes a reaction behavior similar to the touch behavior when there is an actual touch. By doing so, we will try to obtain a communication robot system that is more biological. Therefore, even when there is no actual touch, the CPU 50 executes step S37 and subsequent steps to recognize whether or not there has been a human tactile action.

第1判断手段を構成するステップS37では、CPU50は、相手の人間との間の距離Dbを計算する。   In step S37 constituting the first determination means, the CPU 50 calculates the distance Db between the opponent person.

まず、ロボット10および人間80のそれぞれの体の中心座標を求める。具体的には、体の中心座標Pbodycenterは両肩に取り付けたマーカの各座標の中心位置で表し、次の数3のとおりである。   First, the center coordinates of the bodies of the robot 10 and the human 80 are obtained. Specifically, the center coordinate Pbodycenter of the body is represented by the center position of each coordinate of the marker attached to both shoulders, as shown in the following equation (3).

Figure 0004878462
Figure 0004878462

数3に従ってロボット10の体と人80の体のそれぞれの中心座標Probot_bodycenterおよびPhuman_bodycenterが求まる。この2点間の距離をDbとすると、距離Dbは数4で与えられる。   According to Equation 3, the center coordinates Probe_bodycenter and Human_bodycenter of the body of the robot 10 and the body of the person 80 are obtained. If the distance between the two points is Db, the distance Db is given by the following equation (4).

Figure 0004878462
Figure 0004878462

その後、第1判断手段を構成するステップS39において、CPU50は、相手の人間の手の長さLaに基づいて、ロボット10が明らかに相手の手の届く範囲に存在するかどうかをチェックする。一例としては、ロボット10が相手80の手の長さLaの2倍の範囲内に存在すれば、相手はロボットにタッチできると考え、上記距離DbがLa*2の範囲内かどうか判断する。ただし、このような閾値(La*2)は適宜変更可能である。   Thereafter, in step S39 constituting the first determination means, the CPU 50 checks whether or not the robot 10 is clearly within the reach of the opponent's hand based on the length La of the opponent's human hand. As an example, if the robot 10 is within the range of twice the hand length La of the opponent 80, the opponent can touch the robot, and it is determined whether the distance Db is within the range of La * 2. However, such a threshold value (La * 2) can be changed as appropriate.

ここで、相手の人間の手の長さLaの求め方の一例を説明する。相手の体の肩、肘および手先に取り付けられたマーカの位置から相手の腕の長さを算出する。つまり、数5に示すように、肘から肩までの距離+肘から手先までの距離=腕の長さLaとする。   Here, an example of how to obtain the length La of the opponent's human hand will be described. The length of the opponent's arm is calculated from the positions of the markers attached to the shoulder, elbow and hand of the opponent's body. That is, as shown in Equation 5, the distance from the elbow to the shoulder + the distance from the elbow to the hand = the arm length La.

Figure 0004878462
Figure 0004878462

もし、第1判断手段すなわちステップS39において、“NO”と判断されたなら、次のステップS41において、触行動はないと認識し、リターンする。   If “NO” is determined in the first determination means, that is, step S39, in the next step S41, it is recognized that there is no tactile action, and the process returns.

もし、ステップS39において“YES”なら、図8に示すステップS43に進む。このステップS43以降のステップが第1特定手段を構成するが、まず、ステップS43では、CPU50は、数6に従って、相手の左手とロボットの体の各タッチセンサの中心点Pnとの距離(左手距離)Dlh(n)を算出(n=1−8)するとともに、相手の右手とロボットの体の各タッチセンサの中心点Pnとの距離(右手距離)Drh(n)を算出(n=1−8)する。   If “YES” in the step S39, the process proceeds to a step S43 shown in FIG. Steps subsequent to step S43 constitute first specifying means. First, in step S43, the CPU 50 follows the equation (6) between the distance between the opponent's left hand and the center point Pn of each touch sensor of the robot body (left hand distance). ) Dlh (n) is calculated (n = 1-8), and the distance (right hand distance) Drh (n) between the opponent's right hand and the center point Pn of each touch sensor of the robot body is calculated (n = 1− 8) Do it.

Figure 0004878462
Figure 0004878462

そして、次のステップS45では、CPU50は、接近距離L(これは、可変の閾値である。)より小さい左手距離Dlh(n)の中で、最も小さくなるnを左手接触推定部位Tlhとして、図2のメモリ54に形成されている左手レジスタTlhに書き込む(If min{Dlh(n)}<L →Tlh=n)。ただし、接近距離Lより近いDlh(n)がない場合はその左手レジスタTlhには「0」を書き込む(If min{Dlh(n)}>L →Tlh=0)。   In the next step S45, the CPU 50 sets the smallest n among the left hand distances Dlh (n) smaller than the approach distance L (this is a variable threshold) as the left hand contact estimation part Tlh. 2 is written in the left-hand register Tlh formed in the memory 54 (If min {Dlh (n)} <L → Tlh = n). However, if there is no Dlh (n) closer than the approach distance L, “0” is written in the left-hand register Tlh (If min {Dlh (n)}> L → Tlh = 0).

さらに、同じステップS45で、CPU50は、接近距離L(可変閾値)より小さい右手距離Drh(n)の中で、最も小さくなるnを右手接触推定部位Trhとして、図2のメモリ54に形成されている右手レジスタTrhに書き込む(If min{Drh(n)}<L →Trh=n)。ただし、接近距離Lより近いDrh(n)がない場合はその右手レジスタTrhには「0」を書き込む(If min{Drh(n)}>L →Trh=0)。   Furthermore, in the same step S45, the CPU 50 is formed in the memory 54 of FIG. 2 with n that is the smallest among the right hand distances Drh (n) smaller than the approach distance L (variable threshold) as the right hand contact estimation part Trh. Is written in the right-hand register Trh (If min {Drh (n)} <L → Trh = n). However, if there is no Drh (n) closer than the approach distance L, “0” is written in the right-hand register Trh (If min {Drh (n)}> L → Trh = 0).

続くステップS47において、CPU50は、相手の右手および左手が接触しそうなロボットの部位はあるのかどうか判断する。具体的には、左手レジスタTlhと右手レジスタTrhとがともに、「0」かどうかチェックする。その理由は、上で説明したように、レジスタTlhおよびTrhは接近距離Lより近いDlh(n)およびDrh(n)がないときそれぞれ「0」に設定されるので、これが「0」かどうかで接触しそうな部位の有無分かるからである。   In the subsequent step S47, the CPU 50 determines whether or not there is a part of the robot that is likely to come into contact with the opponent's right hand and left hand. Specifically, it is checked whether both the left hand register Tlh and the right hand register Trh are “0”. The reason is that, as described above, the registers Tlh and Trh are set to “0” when there is no Dlh (n) and Drh (n) that are closer than the approach distance L, respectively. This is because the presence or absence of a part that is likely to come into contact is known.

このステップS47で“NO”が判断されるということは、少なくとも相手の右手か左手かがロボットのどこかに接近していることを意味する。したがって、次のステップS49で、DlhおよびDrhがともに「0」ではないか(Dlh≠0、Drh≠0)どうか、つまり、相手の人間の左手も右手もともに接近距離Lより近い状態かどうか判断する。   The determination of “NO” in step S47 means that at least the opponent's right hand or left hand is approaching somewhere in the robot. Therefore, in the next step S49, it is determined whether or not both Dlh and Drh are “0” (Dlh ≠ 0, Drh ≠ 0), that is, whether the other person's left hand and right hand are closer to the approach distance L. To do.

もし、ステップS49で“YES”が判断されると、つまり、相手の人間の左手および右手がともに接近距離Lより近い場合には、CPU50は、人間がタッチしようといている(距離Lより接近している)ロボットの部位をどこか1つだけ特定する必要がある。その特定方法としては、先に説明したステップS27と同様に、人間の視線方向を推定の手がかりとする。つまり、次にCPU50は、ステップS51において、相手の人間の顔の向きと目の位置より相手の視線の方向を算出し、実際に人間がロボットにタッチしている訳ではないが、その視線に基づいて、近接部位を推定接触タッチセンサTeとして推定する。   If “YES” is determined in step S49, that is, if both the left hand and the right hand of the other person are closer than the approach distance L, the CPU 50 is about to touch the person (closer than the distance L). It is necessary to specify only one part of the robot. As the identification method, the human gaze direction is used as a clue for estimation as in step S27 described above. That is, in step S51, the CPU 50 calculates the direction of the other party's line of sight from the direction of the other person's face and the position of the eyes, and the person is not actually touching the robot. Based on this, the proximity part is estimated as the estimated contact touch sensor Te.

相手の人間の視線方向を表す視線ベクトルEyeVectorは、先に図5を参照して説明したように、頭部に取り付けられた3つのマーカPright_head_front、Pleft_head_front、Pcenter_head_backの座標から数1に従って算出できる。そして、この視線ベクトルEyeVectorが向く方向のタッチセンサTeを特定する。つまり、視線ベクトルEyeVectorの方向にあるタッチセンサが、8つのタッチセンサ721−728(図3)のどれに該当するか判断する。   As described above with reference to FIG. 5, the line-of-sight vector EyeVector representing the partner's line-of-sight direction can be calculated according to Equation 1 from the coordinates of the three markers Pride_head_front, Pleft_head_front, and Center_head_back attached to the head. Then, the touch sensor Te in the direction in which the line-of-sight vector EyeVector faces is specified. That is, it is determined which of the eight touch sensors 721-728 (FIG. 3) corresponds to the touch sensor in the direction of the line-of-sight vector EyeVector.

その後、CPU50は、ステップS53において、視線方向から推定したタッチセンサTeとステップS45で検出した左手レジスタTlhおよび右手レジスタTrhにそれぞれ登録されているタッチセンサの番号とが一致しているかどうか判断する。つまり、Te=TlhまたはTe=Trhが充足されているかどうか、判断する。   Thereafter, in step S53, the CPU 50 determines whether or not the touch sensor Te estimated from the line-of-sight direction matches the touch sensor numbers registered in the left hand register Tlh and the right hand register Trh detected in step S45. That is, it is determined whether Te = Tlh or Te = Trh is satisfied.

一致しているとき、つまり、Te=TlhまたはTe=Trhのいずれかが充足されているときには、CPU50は、ステップS55で、そのタッチセンサTeの位置を、人間80がタッチしようとしているロボット10の場所または部位であると特定して、リターンする。   When they match, that is, when either Te = Tlh or Te = Trh is satisfied, in step S55, the CPU 50 determines the position of the touch sensor Te of the robot 10 to be touched by the human 80. Identify the location or location and return.

一致していないときには、CPU50は、ステップS57において、ロボット10により近いほうの人間の手を推定接触部位として特定する。具体的には、ステップS43で求めた左手距離Dlhおよび右手距離Drhを比較し、左手距離Dlhが右手距離Drhより小さい(Dlh<Drh)ときには、CPU50は、推定接触部位Tとして左手接触部位Tlhを特定して、リターンする。逆に、左手距離Dlhが右手距離Drhより大きい(Dlh>Drh)ときには、CPU50は、推定接触部位Tとして右手接触部位Trhを特定して、リターンする。   If they do not match, the CPU 50 specifies a human hand closer to the robot 10 as the estimated contact portion in step S57. Specifically, the left hand distance Dlh and the right hand distance Drh obtained in step S43 are compared. When the left hand distance Dlh is smaller than the right hand distance Drh (Dlh <Drh), the CPU 50 sets the left hand contact part Tlh as the estimated contact part T. Identify and return. Conversely, when the left hand distance Dlh is larger than the right hand distance Drh (Dlh> Drh), the CPU 50 specifies the right hand contact part Trh as the estimated contact part T and returns.

さらに、先のステップS49で“NO”が判断されたとき、つまり推定接触部位TlhまたはTrhのどちらかが「0」であるときには、どちらか一方の手だけが接触する可能性があるので、CPU50は、ステップS59において、そのどちらか一方の推定接触部位TlhまたはTrhを推定接触部位Tとして特定し、リターンする。   Furthermore, when “NO” is determined in the previous step S49, that is, when either the estimated contact portion Tlh or Trh is “0”, there is a possibility that only one of the hands may come into contact with the CPU 50. In step S59, one of the estimated contact sites Tlh or Trh is specified as the estimated contact site T, and the process returns.

最後に、ステップS47で“NO”が判断されたときには、接触しようとする人間の手はなく、推定接触部位TlhおよびTrhはともに「0」であり、その場合には、CPU50は、ステップS61において、接触行為はないと判断して、リターンする。   Finally, when “NO” is determined in step S47, there is no human hand to contact, and the estimated contact sites Tlh and Trh are both “0”. In this case, the CPU 50 determines in step S61. If there is no contact act, return.

このようにして、図6のステップS3において、人間80が実際にロボット10に対してタッチしているかあるいはタッチしようとしているか(触行動の有無)を検知することができる。   In this way, in step S3 of FIG. 6, it is possible to detect whether the human 80 is actually touching or trying to touch the robot 10 (presence or absence of tactile behavior).

そして、ステップS3で図7および図8に示すサブルーチンを実行した結果、人間80による触行動が確認されたときには、ステップS5で“YES”が判断されることになり、CPU50は、図6の次のステップS7において、接触場所または推定接触場所に応じて異なる反応行動をロボット10に命令する。つまり、ステップS7は、反応行動生起手段として機能する。表1はそのような反応行動の一例を示す。ただし、この表1に例示する反応行動は、基本的には、人間に触られるのを嫌がる、という反応行動であるが、逆に、人間に対して好感を表す反応行動やそれらの混在した反応行動を設定することも当然可能である。   Then, as a result of executing the subroutine shown in FIG. 7 and FIG. 8 in step S3, when the tactile action by the human 80 is confirmed, “YES” is determined in step S5, and the CPU 50 performs the processing shown in FIG. In step S7, the robot 10 is commanded to react differently depending on the contact location or the estimated contact location. That is, step S7 functions as a reaction behavior generating unit. Table 1 shows an example of such reaction behavior. However, the reaction behaviors illustrated in Table 1 are basically reaction behaviors that do not like being touched by humans, but conversely, reaction behaviors that express a favorable feeling to humans or reactions in which they are mixed. Naturally, it is possible to set an action.

Figure 0004878462
Figure 0004878462

表1に示すように、たとえば接触部位または推定接触部位が頭部であるとき、すなわち、Te=T(1)であったとき、CPU50はロボット10を後退させるように、図2に示すモータ制御ボード56を通して車輪モータ70を制御する。   As shown in Table 1, for example, when the contact part or the estimated contact part is the head, that is, when Te = T (1), the CPU 50 performs the motor control shown in FIG. The wheel motor 70 is controlled through the board 56.

たとえば、接触部位または推定接触部位が腹部であるとき、すなわち、Te=T(8)であったとき、CPU50は、腹部を触られないように腹部を手でガードしながらロボット10を後退させるように、モータ制御ボード56を通して、右腕モータ62および左腕モータ64ならびに車輪モータ70を制御する。   For example, when the contact site or the estimated contact site is the abdomen, that is, Te = T (8), the CPU 50 moves the robot 10 backward while guarding the abdomen with a hand so as not to touch the abdomen. In addition, the right arm motor 62, the left arm motor 64 and the wheel motor 70 are controlled through the motor control board 56.

たとえば、接触部位または推定接触部位が左肩であるとき、すなわち、Te=T(2)であったとき、CPU50は、左肩を人間から遠ざけるようにロボット10を回転させるように、モータ制御ボード56を通して、腰モータ68を制御する。接触部位または推定接触部位が右肩であるとき、すなわち、Te=T(5)であったとき、CPU50は、右肩を人間から遠ざけるように、ロボット10を回転させるように腰モータ68を制御する。   For example, when the contact site or the estimated contact site is the left shoulder, that is, Te = T (2), the CPU 50 passes through the motor control board 56 so as to rotate the robot 10 so that the left shoulder is kept away from the human. The waist motor 68 is controlled. When the contact part or the estimated contact part is the right shoulder, that is, when Te = T (5), the CPU 50 controls the waist motor 68 to rotate the robot 10 so that the right shoulder is kept away from the human. To do.

たとえば、接触部位または推定接触部位が左上腕であるとき、すなわち、Te=T(3)であったとき、CPU50は、左上腕を人間から遠ざけるようにロボット10を回転させながら左上腕を後ろに下げるように、モータ制御ボード56を通して、腰モータ68を制御するとともに、左腕モータ64を制御する。接触部位または推定接触部位が右上腕であるとき、すなわち、Te=T(6)であったとき、CPU50は、右上腕を人間から遠ざけるようにロボット10を回転させながら左上腕を後ろに下げるように、腰モータ68および右腕モータ62を制御する。   For example, when the contact site or the estimated contact site is the left upper arm, that is, Te = T (3), the CPU 50 turns the left upper arm backward while rotating the robot 10 so as to keep the left upper arm away from the human. The lower motor 68 and the left arm motor 64 are controlled through the motor control board 56 so as to lower. When the contact part or the estimated contact part is the upper right arm, that is, Te = T (6), the CPU 50 lowers the left upper arm backward while rotating the robot 10 so as to keep the upper right arm away from the human. In addition, the waist motor 68 and the right arm motor 62 are controlled.

たとえば、接触部位または推定接触部位が左前腕であるとき、すなわち、Te=T(4)であったとき、CPU50は、左前腕を人間から遠ざけるようにロボット10を回転させながら左前腕を後ろに下げるように、モータ制御ボード56を通して、腰モータ68を制御するとともに、左腕モータ64を制御する。接触部位または推定接触部位が右上腕であるとき、すなわち、Te=T(7)であったとき、CPU50は、右前腕を人間から遠ざけるようにロボット10を回転させながら左前腕を後ろに下げるように、腰モータ68および右腕モータ62を制御する。   For example, when the contact part or the estimated contact part is the left forearm, that is, Te = T (4), the CPU 50 turns the left forearm backward while rotating the robot 10 so as to keep the left forearm away from the human. The lower motor 68 and the left arm motor 64 are controlled through the motor control board 56 so as to lower. When the contact site or the estimated contact site is the upper right arm, that is, Te = T (7), the CPU 50 lowers the left forearm while rotating the robot 10 so as to keep the right forearm away from the human. In addition, the waist motor 68 and the right arm motor 62 are controlled.

なお、いずれの反応行動中でも、ロボット10の眼カメラ46(図2)が近づく人間の手を注視するように、CPU50は、頭部モータ66などを制御する。   In any reaction behavior, the CPU 50 controls the head motor 66 and the like so that the eye camera 46 (FIG. 2) of the robot 10 approaches a human hand.

以上のように、受身状態(Recipient Mode)では、ロボット10の体に人間80の手が実際にタッチするかあるいはタッチするほどに接近するかを検知したときには、所定の反応行動を行うものであるが、図6において、ステップS5で人間の触行動を検知しなかったときには、CPU50は、次のステップS9で、所定時間以上連続して待機状態であるかどうか判断する。ただし、待機状態とは、たとえば、センサボード58(図2)からどんなセンサ入力もない状態をいうものとする。そして、ステップS9で“NO”が判断されるとき、つまり、所定時間内に何らかのセンサ入力があったときには、CPU50は、先のステップS3に戻って先に説明した方法で触行動の有無を検知する。ステップS9で“YES”が判断されたときには、CPU50は、ステップS11で待機状態となる。待機状態では、CPU50は、ロボット10が人間80に対して、アイコンコンタクトを維持したり、対人距離を維持したりするなどの所定の処理を実行するものとする(Idling Mode)。   As described above, in the passive mode, when it is detected whether the hand of the human 80 actually touches the body of the robot 10 or comes close enough to be touched, a predetermined reaction behavior is performed. However, in FIG. 6, when the human tactile action is not detected in step S5, the CPU 50 determines in the next step S9 whether or not it is in the standby state for a predetermined time or more. However, the standby state refers to a state where there is no sensor input from the sensor board 58 (FIG. 2), for example. When “NO” is determined in step S9, that is, when there is any sensor input within a predetermined time, the CPU 50 returns to the previous step S3 and detects the presence or absence of tactile behavior by the method described above. To do. If “YES” is determined in the step S9, the CPU 50 enters a standby state in a step S11. In the standby state, the CPU 50 performs predetermined processing such as maintaining the icon contact or maintaining the interpersonal distance with respect to the human 80 by the robot 10 (Idling Mode).

ただし、一定時間以上待機状態が継続した場合には、ロボット10を作用主状態(Agent Mode)として、たとえば自分の手(腕)を使って人間の手を触るなどの主体的行動を実行させることもできる。   However, if the standby state continues for a certain period of time or longer, the robot 10 is set to the active mode (Agent Mode), and for example, a self-acting action such as touching a human hand with its own hand (arm) is executed. You can also.

なお、上で説明した実施例では人間やロボットの各部位の3次元位置座標を検出するために、マーカ78をカメラ801−80n(図2)で撮影する方式のモーションキャプチャを採用した。しかしながら、他の方法(たとえば磁気)を利用するモーションキャプチャを用いてもよく、さらに、モーションキャプチャではなく、一般的な画像処理によって人間やロボットの腕の状態や位置を検出するようにしてもよい。また、ロボット10の場合には、各関節角を検知することによって各部位の3次元位置座標を特定するようにしてもよい。   In the embodiment described above, in order to detect the three-dimensional position coordinates of each part of a human or a robot, a motion capture method in which the marker 78 is photographed by the cameras 801-80n (FIG. 2) is employed. However, motion capture using other methods (for example, magnetism) may be used, and further, the state and position of a human or robot arm may be detected by general image processing instead of motion capture. . In the case of the robot 10, the three-dimensional position coordinates of each part may be specified by detecting each joint angle.

また、実施例では、第1特定手段によって所定距離以内に接近した部位が2以上あるとき、その中から1つの部位を推定接触部位として特定する際の条件として、人間の視線が向けられているかどうかという条件を用いた。しかしながら、第1特定手段は、たとえば人間の手がより接近していることを条件で1つの推定接触部位を特定するなど、別の条件を採用してもよい。   In addition, in the embodiment, when there are two or more parts approaching within a predetermined distance by the first specifying means, is a human line of sight directed as a condition for specifying one part as an estimated contact part from the two parts? The condition of how was used. However, the first specifying means may adopt another condition, for example, specifying one estimated contact site on condition that a human hand is closer.

図1はこの発明の一実施例のコミュニケーションロボットの構成の一例を示す図解図である。FIG. 1 is an illustrative view showing one example of a configuration of a communication robot according to one embodiment of the present invention. 図2は図1に示すコミュニケーションロボットの電気的な構成を示すブロック図である。FIG. 2 is a block diagram showing an electrical configuration of the communication robot shown in FIG. 図3は図1に示すコミュニケーションロボットに設けられているタッチセンサの配置を例示する図解図である。FIG. 3 is an illustrative view illustrating the arrangement of touch sensors provided in the communication robot shown in FIG. 図4は図1に示すコミュニケーションロボットに装着したマーカの配置を例示する図解図である。FIG. 4 is an illustrative view illustrating the arrangement of markers attached to the communication robot shown in FIG. 図5はコミュニケーションロボットと協働する人間に装着したマーカの配置を例示する図解図である。FIG. 5 is an illustrative view exemplifying an arrangement of markers attached to a person who cooperates with a communication robot. 図6はこの実施例の動作を示すフロー図である。FIG. 6 is a flowchart showing the operation of this embodiment. 図7は図6のサブルーチンの一部を示すフロー図である。FIG. 7 is a flowchart showing a part of the subroutine of FIG. 図8は図7に後続するサブルーチンの一部を示すフロー図である。FIG. 8 is a flowchart showing a part of a subroutine subsequent to FIG. 図9は実施例における人間の視線方向を検出する方法を説明する図解図である。FIG. 9 is an illustrative view for explaining a method of detecting a human gaze direction in the embodiment. 図10は実施例における人間の視線方向の直線とタッチセンサの中心との間の距離を検出する方法を説明する図解図である。FIG. 10 is an illustrative view for explaining a method of detecting a distance between a straight line in a human visual line direction and the center of the touch sensor in the embodiment. 図11は実施例におけるタッチ場所または部位を特定または推定する方法を説明する図解図である。FIG. 11 is an illustrative view for explaining a method of specifying or estimating a touch location or part in the embodiment.

符号の説明Explanation of symbols

10 …コミュニケーションロボット
50 …CPU
72,721−728 …タッチセンサ
76 …モーションキャプチャ
821−82n …モーションキャプチャ(MC)カメラ
84 …MCコンピュータ
10 ... Communication robot 50 ... CPU
72, 721-728 ... touch sensor 76 ... motion capture 821-82n ... motion capture (MC) camera 84 ... MC computer

Claims (6)

複数の部位に設けられた複数のタッチセンサからのセンサ入力に基づいて人間による触行動を検知するコミュニケーションロボットであって、
人間が実際にタッチしたかどうか判断するタッチ判断手段、
前記タッチ判断手段によって実際にタッチしていると判断しなかったとき、人間が所定範囲内に存在するかどうか検出する存在検出手段、および
前記存在検出手段によって人間が前記所定範囲内に存在することを検出したとき、前記人間の手が所定距離以内に接近している部位を推定接触部位として特定する第1特定手段を備え、
前記第1特定手段は、前記人間の手が前記所定距離以内に接近している部位が複数あるかどうか判断する第1判断手段を含み、前記第1判断手段で前記人間の手が前記所定距離以内に接近している部位が複数あることを検出したとき所定条件を満たす1つの部位を前記推定接触部位として特定する、コミュニケーションロボット。
A communication robot that detects human tactile behavior based on sensor inputs from a plurality of touch sensors provided in a plurality of parts,
Touch determination means for determining whether a human has actually touched,
Presence detection means for detecting whether or not a human is within a predetermined range when the touch determination means does not determine that the user is actually touching; and that the human is within the predetermined range by the presence detection means A first specifying means for specifying a part where the human hand is approaching within a predetermined distance as an estimated contact part,
The first specifying means includes first determination means for determining whether or not there are a plurality of parts where the human hand approaches within the predetermined distance, and the first determination means allows the human hand to move to the predetermined distance. A communication robot that identifies one part that satisfies a predetermined condition as the estimated contact part when it is detected that there are a plurality of parts that are approaching within.
前記所定条件は前記人間の視線が向いているかどうかである、請求項記載のコミュニケーションロボット。 Wherein the predetermined condition is whether the human gaze is directed, according to claim 1, wherein the communication robot. 前記第1特定手段は、前記人間の手が前記所定距離以内に接近している部位が1つだけのときには当該部位を前記推定接触部位として特定する、請求項1または2記載のコミュニケーションロボット。 It said first specifying means, the human hand to identify the site as the estimated contact site when only one site approaching within the predetermined distance, according to claim 1 or 2, wherein the communication robot. 前記第1特定手段が特定した推定接触部位に応じて反応行動を生起させる反応行動生起手段をさらに備える、請求項1ないしのいずれかに記載のコミュニケーションロボット。 The communication robot according to any one of claims 1 to 3 , further comprising reaction behavior generating means for generating a reaction behavior in accordance with the estimated contact site specified by the first specifying means. 前記タッチセンサからのセンサ入力に応じて人間が実際にタッチした実接触部位を特定する第2特定手段をさらに備える、請求項1ないしのいずれかに記載のコミュニケーションロボット。 Second, further comprising a specifying means, communication robot according to any one of claims 1 to 4 to identify the actual contact portion of actual touch humans in response to sensor inputs from the touch sensor. 前記第2特定手段は、複数のタッチセンサからセンサ入力があるかどうか判断する第2判断手段を含み、前記第2判断手段で複数のタッチセンサからセンサ入力があるかことを検出したとき前記人間の視線方向に応じて1つの実接触部位を特定する、請求項記載のコミュニケーションロボット。 The second specifying means includes second determination means for determining whether there is a sensor input from a plurality of touch sensors, and when the second determination means detects whether there is a sensor input from the plurality of touch sensors, the human being The communication robot according to claim 5 , wherein one actual contact site is specified according to the line-of-sight direction.
JP2005258855A 2005-09-07 2005-09-07 Communication robot Active JP4878462B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005258855A JP4878462B2 (en) 2005-09-07 2005-09-07 Communication robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005258855A JP4878462B2 (en) 2005-09-07 2005-09-07 Communication robot

Publications (2)

Publication Number Publication Date
JP2007069303A JP2007069303A (en) 2007-03-22
JP4878462B2 true JP4878462B2 (en) 2012-02-15

Family

ID=37931208

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005258855A Active JP4878462B2 (en) 2005-09-07 2005-09-07 Communication robot

Country Status (1)

Country Link
JP (1) JP4878462B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111546338A (en) * 2020-05-08 2020-08-18 华为技术有限公司 Robot control method and device, robot and storage medium

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019176090A1 (en) * 2018-03-16 2019-09-19 株式会社ソニー・インタラクティブエンタテインメント Body size estimation device, body size estimation method, and program
JP7133840B2 (en) * 2018-09-03 2022-09-09 株式会社国際電気通信基礎技術研究所 ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3942586B2 (en) * 2003-12-02 2007-07-11 株式会社国際電気通信基礎技術研究所 Communication robot

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111546338A (en) * 2020-05-08 2020-08-18 华为技术有限公司 Robot control method and device, robot and storage medium

Also Published As

Publication number Publication date
JP2007069303A (en) 2007-03-22

Similar Documents

Publication Publication Date Title
US10755096B2 (en) 3D gaze control of robot for navigation and object manipulation
US20190278295A1 (en) Robot control system, machine control system, robot control method, machine control method, and recording medium
JP6567563B2 (en) Humanoid robot with collision avoidance and orbit return capability
JP5186723B2 (en) Communication robot system and communication robot gaze control method
JP4822319B2 (en) Communication robot and attention control system using the same
US20020198626A1 (en) Communication robot
US20150094851A1 (en) Robot control system, robot control method and output control method
JP5318623B2 (en) Remote control device and remote control program
JP5028568B2 (en) Robot control system
JP5145569B2 (en) Object identification method and apparatus
JP6150429B2 (en) Robot control system, robot, output control program, and output control method
JP3979141B2 (en) Autonomous mobile robot for guidance and its control method
JP4517086B2 (en) Communication robot system and robot controller
US20210031378A1 (en) Information processor, information processing method, and program
JP4399603B2 (en) Communication robot
JP2008018529A (en) Communication robot
JP4878462B2 (en) Communication robot
KR102131097B1 (en) Robot control system and robot control method using the same
JP2007130691A (en) Communication robot
JP2005238382A (en) Communication robot
JP2004042151A (en) Communication robot
JP6142307B2 (en) Attention target estimation system, robot and control program
WO2021005878A1 (en) Information processing device, information processing method, and information processing program
JP6158665B2 (en) Robot, robot control method, and robot control program
JP4779114B2 (en) Communication robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080613

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100407

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110411

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110419

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20110624

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111018

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111128

R150 Certificate of patent or registration of utility model

Ref document number: 4878462

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141209

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250