JP4878462B2 - Communication robot - Google Patents
Communication robot Download PDFInfo
- Publication number
- JP4878462B2 JP4878462B2 JP2005258855A JP2005258855A JP4878462B2 JP 4878462 B2 JP4878462 B2 JP 4878462B2 JP 2005258855 A JP2005258855 A JP 2005258855A JP 2005258855 A JP2005258855 A JP 2005258855A JP 4878462 B2 JP4878462 B2 JP 4878462B2
- Authority
- JP
- Japan
- Prior art keywords
- human
- robot
- touch
- cpu
- communication robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004891 communication Methods 0.000 title claims description 37
- 238000006243 chemical reaction Methods 0.000 claims description 26
- 238000013459 approach Methods 0.000 claims description 15
- 238000001514 detection method Methods 0.000 claims description 5
- 241000282412 Homo Species 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 3
- 230000006399 behavior Effects 0.000 description 25
- 210000003128 head Anatomy 0.000 description 16
- 230000009471 action Effects 0.000 description 14
- 210000000245 forearm Anatomy 0.000 description 13
- 239000003550 marker Substances 0.000 description 13
- 238000000034 method Methods 0.000 description 12
- 230000015654 memory Effects 0.000 description 7
- 210000000323 shoulder joint Anatomy 0.000 description 7
- 210000001015 abdomen Anatomy 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 210000002310 elbow joint Anatomy 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000036544 posture Effects 0.000 description 3
- QBWCMBCROVPCKQ-UHFFFAOYSA-N chlorous acid Chemical compound OCl=O QBWCMBCROVPCKQ-UHFFFAOYSA-N 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 102220538112 Modulator of macroautophagy TMEM150B_A63H_mutation Human genes 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000003028 elevating effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 210000001503 joint Anatomy 0.000 description 1
- 230000005389 magnetism Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Description
この発明はコミュニケーションロボットに関し、特にたとえば、タッチセンサを備え、人間の触行動に反応する、コミュニケーションロボットに関する。 The present invention relates to a communication robot, and more particularly to a communication robot that includes a touch sensor and responds to human tactile behavior.
この種のコミュニケーションロボット(人とコミュニケーションを行うことができるロボット)の一例が、特許文献1に開示される。
特許文献1におけるコミュニケーションロボットでは、人がタッチセンサに触れると、その人間の触行動に反応して、触行動を知覚したことを人間に知らせ、それによって人間とのコミュニケーションの一層の円滑化を図っている。
In the communication robot in
他方、人間に限らず他の動物でも同様であるが、他人が実際にタッチする前に、何らかの手段で、そのことを事前に察知し、その触行動を回避したり、あるいはそれに迎合する反応行動をすることがある。しかしながら、特許文献1の従来技術では、コミュニケーションロボットは人間が実際にロボットにタッチするまでは触行動を検知することはできず、その意味では、「生物らしさ」をやや欠いているといわざるを得ない。
On the other hand, it is the same with other animals as well as humans, but before other people actually touch, it is detected in advance by some means, and the reaction behavior that avoids or responds to that touch behavior Sometimes However, in the prior art of
それゆえに、この発明の主たる目的は、新規な、コミュニケーションロボットシステムを提供することである。 Therefore, the main object of the present invention is to provide a novel communication robot system.
この発明の他の目的は、より生物らしい反応が可能な、コミュニケーションロボットシステムを提供することである。 Another object of the present invention is to provide a communication robot system capable of a more biological reaction.
請求項1の発明は、複数の部位に設けられた複数のタッチセンサからのセンサ入力に基づいて人間による触行動を検知するコミュニケーションロボットであって、人間が実際にタッチしたかどうか判断するタッチ判断手段、タッチ判断手段によって実際にタッチしていると判断しなかったとき、人間が所定範囲内に存在するかどうか検出する存在検出手段、および存在検出手段によって人間が所定範囲内に存在することを検出したとき、人間の手が所定距離以内に接近している部位を推定接触部位として特定する第1特定手段を備え、第1特定手段は、人間の手が所定距離以内に接近している部位が複数あるかどうか判断する第1判断手段を含み、第1判断手段で人間の手が所定距離以内に接近している部位が複数あることを検出したとき所定条件を満たす1つの部位を推定接触部位として特定する、コミュニケーションロボットである。
The invention according to
請求項1の発明では、コミュニケーションロボット(実施例で対応または相当する部分を例示する参照符号は「10」。以下同様。)は、CPU(50)を含み、このCPUは、タッチ判断手段や存在検出手段として働く。タッチ判断手段は、複数の部位に設けられたタッチセンサからのセンサ入力の有無などに基づいて、人間がコミュニケーションロボットのどこかの部位にタッチしたかどうか判断する。そして、そのようなタッチ判断手段がタッチを検出しなかったとき、存在検出手段は、たとえばモーションキャプチャ(76)からのロボットおよび人間のそれぞれの部位の三次元座標に基づいて、人間がロボットから所定範囲内に存在するかどうか判断する。具体的には、CPUは、人間が、その人間の手の長さを基準とした所定距離の範囲に存在するかどうか判断する(S37,S39)。CPUはまた、第1特定手段として機能し、人間が所定範囲内に存在すると判断したとき、人間の手が所定距離以内に接近している部位があるかどうか判断し、そのような部位があれば、その部位を推定接触部位として特定する(S49-S59))。
CPUはまた、第1判断手段として機能し、人間の手が所定距離以内に接近している部位が複数あるかどうか判断する(S49)。そして、第1特定手段は、第1判断手段で人間の手が所定距離以内に接近している部位が複数あることを検出したとき所定条件を満たす部位を推定接触部位として特定する(S57)。
請求項2の発明でも同様に、第1判断手段が人間の手が所定距離以内に接近している部位が複数あるかどうか判断し、第1特定手段は、第1判断手段で人間の手が所定距離以内に接近している部位が複数あることを検出したとき所定条件を満たす部位を推定接触部位として特定する。
According to the first aspect of the present invention, the communication robot (the reference numeral exemplifying the corresponding or corresponding part in the embodiment is “10”, the same applies hereinafter) includes the CPU (50). Acts as a detection means. The touch determination means determines whether or not a human has touched any part of the communication robot based on the presence or absence of sensor input from touch sensors provided in a plurality of parts. Then, when such a touch determination means does not detect a touch, the presence detection means, for example, based on the three-dimensional coordinates of the respective parts of the robot and the human from the motion capture (76), the human is predetermined from the robot. Determine if it is within range. Specifically, the CPU determines whether or not the human is within a predetermined distance range based on the length of the human hand (S37, S39). The CPU also functions as the first specifying means. When the CPU determines that the human is within the predetermined range, the CPU determines whether there is a portion where the human hand is approaching within the predetermined distance. For example, the part is specified as an estimated contact part (S49-S59).
The CPU also functions as first determination means, and determines whether there are a plurality of parts where the human hand approaches within a predetermined distance (S49). Then, when the first determining unit detects that there are a plurality of parts where the human hand approaches within a predetermined distance, the first specifying part specifies a part that satisfies the predetermined condition as an estimated contact part (S57).
Similarly, in the invention of
請求項1の発明によれば、人間が実際にタッチしなくても、人間の触行動を検知することができ、より生物らしい、コミュニケーションロボットが得られる。さらにまた、人間の手が接近した部位が複数存在しても、そのどれか1つを推定接触部位として特定できるので、触行動に対する反応行動を生起する場合でも、正しい反応行動を生起させることができる。 According to the first aspect of the present invention, it is possible to detect a human tactile behavior without actually touching a human, and to obtain a communication robot that is more biological. Furthermore, even if there are a plurality of parts close to a human hand, any one of them can be specified as an estimated contact part, so that even when a reaction action to a tactile action is caused, a correct reaction action can be caused. it can.
請求項2の発明は、所定条件は前記人間の視線が向いているかどうかである、請求項1記載のコミュニケーションロボットである。
A second aspect of the present invention, the predetermined condition is whether the human gaze is directed, it is a communication robot according to
請求項2の発明では、CPUは、たとえば人間の視線ベクトルを計算することによって、人間の視線が向く方向を推定し、その視線が向けられた部位が、人間が接触しようとしている部位であるとして特定する(S51)ので、人間が関心を持っている部位を正しく推定接触部位として特定することができる。
In the invention of
請求項3の発明は、第1特定手段は、人間の手が所定距離以内に接近している部位が1つだけのときには当該部位を推定接触部位として特定する、請求項1ま2記載のコミュニケーションロボットである。
The invention according to
請求項3の発明では、CPUは、人間の手が所定距離以内に接近している部位が1つだけのときには、その部位を推定接触部位として特定する(S55)。
In the invention of
請求項4の発明は、第1特定手段が特定した推定接触部位に応じて反応行動を生起させる反応行動生起所定手段をさらに備える、請求項1ないし3のいずれかに記載のコミュニケーションロボットである。
The invention according to claim 4 is the communication robot according to any one of
請求項4の発明では、CPUは、また反応行動生起手段として機能し、反応行動生起手段は、推定接触部位に応じて異なる反応行動(表1)を生起する(S7)。したがって、人間が実際にタッチしなくても推定接触部位に応じた反応行動を実行することができる。 In the invention of claim 4 , the CPU also functions as a reaction behavior generating unit, and the reaction behavior generating unit generates a different reaction behavior (Table 1) depending on the estimated contact site (S7). Therefore, even if a human does not actually touch, the reaction behavior corresponding to the estimated contact site can be executed.
請求項5の発明は、複数の部位に設けられた複数のタッチセンサ、およびタッチセンサからのセンサ入力に応じて人間が実際にタッチした実接触部位を特定する第2特定手段をさらに備える、請求項1ないし4のいずれかに記載のコミュニケーションロボットである。
The invention of
請求項5の発明では、CPUは複数のタッチセンサ(721−728)からセンサ入力によって、人間が実際にタッチした実接触部位も特定できるので、この点では従来のコミュニケーションロボットと同様に人間による触行動を感知することができる。 According to the fifth aspect of the present invention, the CPU can also specify the actual contact site actually touched by a human by sensor input from a plurality of touch sensors (721-728). Can detect behavior.
請求項6の発明は、第2特定手段は、複数のタッチセンサからセンサ入力があるかどうか判断する第2判断手段を含み、第2判断手段で複数のタッチセンサからセンサ入力があるかことを検出したとき人間の視線方向に応じて1つの実接触部位を特定する、請求項5記載のコミュニケーションロボットである。
In the invention of claim 6 , the second specifying means includes second determining means for determining whether or not there is a sensor input from a plurality of touch sensors, and the second determining means indicates whether or not there is a sensor input from the plurality of touch sensors. The communication robot according to
請求項6の発明では、CPU(第2特定手段)は、第2判断手段(S25)で複数のタッチセンサからセンサ入力があるかことを検出したとき、人間の視線方向に応じて1つの実接触部位を特定する(S27−S31)。人間が関心を持っている部位を正しく推定接触部位として特定することができる。 In the invention of claim 6, CPU (second specifying means), when it detects that one of the plurality of touch sensors in the second determining means (S25) has sensor inputs, only one in accordance with the human eye direction A contact site is specified (S27-S31). It is possible to correctly identify a part that a person is interested in as an estimated contact part.
この発明によれば、人間が実際にタッチしなくても、人間の触行動を検知することができ、場合によってはその触行動に対する反応行動を生起することができるので、従来のものに比べてより生物らしい、コミュニケーションロボットが得られる。 According to the present invention, even if a human does not actually touch, it is possible to detect a human's tactile behavior, and in some cases, a reaction behavior to the tactile behavior can be generated. A communication robot that is more biological is obtained.
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1に示すこの発明の一実施例のコミュニケーションロボット(以下、単に「ロボット」ということがある。)10は、台車12を含み、この台車12の下面には、このロボット10を自律移動させる車輪14が設けられる。この車輪14は、車輪モータ(図2において参照番号「70」で示す。)によって駆動され、台車12すなわちロボット10を前後左右任意の方向に動かすことができる。なお、図示しないが、この台車12の前面には、衝突センサ(図2において、参照番号「74」で示す。)が取り付けられ、この衝突センサは、台車12への人や他の障害物の接触を検知する。そして、ロボット10の移動中に障害物との接触を検知すると、直ちに車輪14の駆動を停止してロボット10の移動を急停止させて衝突を未然に防ぐ。
A communication robot (hereinafter, simply referred to as a “robot”) 10 according to an embodiment of the present invention shown in FIG. 1 includes a
なお、ロボット10の背の高さは、この実施例では、人、特に子供に威圧感をあたえることがないように、100cm程度とされている。ただし、この背の高さは任意に変更可能である。
In this embodiment, the height of the
台車12の上には、多角形柱のセンサ取付パネル16が設けられ、このセンサ取付パネル16の各面には、超音波距離センサ18が取り付けられる。この超音波距離センサ18は、取付パネル16すなわちロボット10の周囲の主として人との間の距離を計測するものである。
A polygonal column
台車12の上には、さらに、下部が上述の取付パネル16に囲まれて、ロボット10の胴体が直立するように取り付けられる。この胴体は下部胴体20と上部胴体22とから構成され、これら下部胴体20および上部胴体22は、連結部24によって、連結される。連結部24には、図示しないが、昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体22の高さすなわちロボット10の高さを変化させることができる。昇降機構は、後述のように、腰モータ(図2において参照番号「68」で示す。)によって駆動される。上で述べたロボット10の身長100cmは、上部胴体22をそれの最下位置にしたときの値である。したがって、ロボット10の身長は100cm以上にすることができる。
On the
ただし、下部胴体20と上部胴体22とを一体化して、身長を調整できない1つの胴体とすることも可能である。
However, it is also possible to integrate the
上部胴体22のほぼ中央には、1つの全方位カメラ26と、1つのマイク28とが設けられる。全方位カメラ26は、ロボット10の周囲を撮影するもので、後述の眼カメラ46と区別される。マイク28は、周囲の音、とりわけ人の声を取り込む。
One
上部胴体22の両肩には、それぞれ、肩関節30Rおよび30Lによって、上腕32Rおよび32Lが取り付けられる。肩関節30Rおよび30Lは、それぞれ3軸の自由度を有する。すなわち、肩関節30Rは、X軸,Y軸およびZ軸のそれぞれの軸廻りにおいて上腕32Rの角度を制御できる。Y軸は、上腕32Rの長手方向(または軸)に並行な軸であり、X軸およびZ軸は、そのY軸に、それぞれ異なる方向から直交する軸である。肩関節30Lは、A軸,B軸およびC軸のそれぞれの軸廻りにおいて上腕32Lの角度を制御できる。B軸は、上腕32Lの長手方向(または軸)に並行な軸であり、A軸およびC軸は、そのB軸に、それぞれ異なる方向から直交する軸である。
上腕32Rおよび32Lのそれぞれの先端には、肘関節34Rおよび34Lを介して、前腕36Rおよび36Lが取り付けられる。肘関節34Rおよび34Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕36Rおよび36Lの角度を制御できる。
なお、上腕32Rおよび32Lならびに前腕36Rおよび36L(いずれも図1)の変位を制御するX,Y,X,W軸およびA,B,C,D軸では、「0度」がホームポジションであり、このホームポジションでは、上腕32Rおよび32Lならびに前腕36Rおよび36Lは下方向に向けられる。
In the X, Y, X, W axes and the A, B, C, D axes that control the displacement of the
また、図3に示すように、上部胴体22の肩関節30Rおよび30Lを含む肩の部分や上述の上腕32Rおよび32Lならびに前腕36Rおよび36L、さらには頭部42や腹部には、それぞれ、タッチセンサ721−728が設けられていて、これらのタッチセンサ721−728は、人がロボット10のこれらの部位に接触したかどうかを検知する。これらのタッチセンサは図2においては参照番号72で包括的に示す。
Further, as shown in FIG. 3, a touch sensor is provided on the shoulder portion of the
前腕36Rおよび36Lのそれぞれの先端には、手に相当する球体38Rおよび38Lがそれぞれ固定的に取り付けられる。なお、この球体38Rおよび38Lに代えて、この実施例のロボット10と異なり指の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。
上部胴体22の中央上方には、首関節40を介して、頭部42が取り付けられる。この首関節40は、3つの自由度を有し、S軸,T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上に向かう軸であり、T軸およびU軸は、それぞれ、このS軸に対して異なる方向で直交する軸である。頭部42には、人の口に相当する位置に、スピーカ44が設けられ、目に相当する位置に眼カメラ46が設けられる。スピーカ44は、ロボット10が、それの周囲の人に対して音声または声によってコミュニケーションを図るために用いられる。眼カメラ46は、ロボット10に接近した人の顔や他の部分を撮影してその映像信号を取り込む。ただし、スピーカ44は、ロボット10の他の部位たとえば胴体に設けられてもよい。
A
なお、上述の全方位カメラ26および眼カメラ46のいずれも、たとえばCCDやCMOSのように固体撮像素子を用いるカメラであってよい。
Note that each of the
図1に示すロボット10の制御系の構成が図2のブロック図に示される。図2に示すように、このロボット10は、全体の制御のためにマイクロコンピュータまたはCPU50を含み、このCPU50には、バス52を通して、メモリ54,モータ制御ボード56,センサ入力/出力ボード58および音声入力/出力ボード60が接続される。
The configuration of the control system of the
メモリ54は、図示しないが、ROMやRAMを含み、ROMにはこのロボット10の制御プログラムが予め書き込まれているとともに、スピーカ44から発生すべき音声または声の音声データが格納されている。RAMは、一時記憶メモリとして用いられるとともに、ワーキングメモリとして利用され得る。
Although not shown, the
モータ制御ボード56は、たとえばDSP(Digital Signal Processor)で構成され、各腕や頭部の各軸モータを制御する。すなわち、モータ制御ボード56は、CPU50からの制御データを受け、右肩関節30RのX,YおよびZ軸のそれぞれの角度を制御する3つのモータと右肘関節34Rの軸Wの角度を制御する1つのモータとの計4つのモータ(図2ではまとめて、「右腕モータ」として示す。)62の回転角度を調節する。また、モータ制御ボード56は、左肩関節30LのA,BおよびC軸のそれぞれの角度を制御する3つのモータと左肘関節34LのD軸の角度を制御する1つのモータとの計4つのモータ(図2ではまとめて、「左腕モータ」として示す。)64の回転角度を調節する。モータ制御ボード56は、また、頭部42のS,TおよびU軸のそれぞれの角度を制御する3つのモータ(図2ではまとめて、「頭部モータ」として示す。)66の回転角度を調節する。モータ制御ボード56は、また、腰モータ68、および車輪14を駆動する2つのモータ(図2ではまとめて、「車輪モータ」として示す。)70を制御する。
The
なお、この実施例の上述のモータは、車輪モータ70を除いて、制御を簡単化するためにそれぞれステッピングモータまたはパルスモータであるが、車輪モータ70と同様に、直流モータであってよい。
In addition, the above-described motors of this embodiment are stepping motors or pulse motors for simplifying the control, except for the
センサ入力/出力ボード58も、同様に、DSPで構成され、各センサやカメラからの信号を取り込んでCPU50に与える。すなわち、超音波距離センサ18の各々からの反射時間に関するデータがこのセンサ入力/出力ボード58を通して、CPU50に入力される。また、全方位カメラ26からの映像信号が、必要に応じてこのセンサ入力/出力ボード58で所定の処理が施された後、CPU50に入力される。眼カメラ46からの映像信号も、同様にして、CPU50に与えられる。なお、この図2では、図1で説明したタッチセンサは、まとめて「タッチセンサ72」として表され、それらのタッチセンサ72からの信号がセンサ入力/出力ボード58を介して、CPU50に与えられる。
Similarly, the sensor input /
なお、スピーカ44には音声入力/出力ボード60を介して、CPU50から、合成音声データが与えられ、それに応じて、スピーカ44からはそのデータに従った音声または声が出力される。そして、マイク28からの音声入力が、音声入力/出力ボード60を介して、CPU50に取り込まれる。
The
ここで、図2では包括的に示されるタッチセンサ72について詳細に説明する。この実施例のロボット10では、図3に示すように、合計8つのタッチセンサ721−728が設けられる。タッチセンサ721は、頭部42の上面(頭頂)に設けられ、タッチセンサ722および725がそれぞれ左肩および右肩に設けられる。左手上腕32Lおよび左手前腕34Lにタッチセンサ723および724が配置され、右手上腕32Rおよび左手前腕34Rにタッチセンサ7256および727が配置される。そして、胸および/または腹にタッチセンサ728が設けられる。なお、タッチセンサ721−728には、それぞれ、(1)−(8)の番号が付与され、それらの中心位置をP1−P8で表している。
Here, the
ただし、タッチセンサの個数やそれらが配置される場所または部位は、この実施例に限定されるものではなく、適宜変更することができる。 However, the number of touch sensors and the place or part where they are arranged are not limited to this embodiment, and can be changed as appropriate.
さらに、実施例のコミュニケーションロボットシステムでは、図2に示す光学式モーションキャプチャ76を用いる。モーションキャプチャはよく知られているように、現実の人物や物体の動きや姿勢をディジタル的に記録するシステムであり、人体や物体に装着するマーカ(marker)とこれを検出するトラッカ(tracker)とを組み合わせてキャプチャする。光学式では、たとえばマーカとして反射シールを用い、複数のカメラをトラッカとして用いる。
Further, the communication robot system of the embodiment uses an
実施例で説明すると、図1に示すコミュニケーションロボット10に、図4に黒丸で示すように、19個の反射シールをマーカ78として装着する。他方、そのロボット10に対して触行動を行うなどコミュニケーションを図る人間80に、図5に黒丸で示すように、同じく19個の反射シールをマーカ78として装着する。そして、ロボット10と人間80とを同時に、図2に示す複数のMC(モーションキャプチャ)カメラ821−82nで撮影して、それらのカメラ821−82nからの画像信号をMCコンピュータ84に入力する。MCコンピュータ84では、各マーカ78(図4および図5)の3次元位置(座標)をリアルタイムに計算し、それを、バス52を通して、ロボットコンピュータすなわちCPU50に与える。ただし、MCコンピュータ84とロボットコンピュータ50とは、有線ではなく、無線LANによって連係するようにしてもよい。
Explaining in the embodiment, 19 reflective stickers are attached as markers 78 to the
モーションキャプチャシステム(3次元動作計測装置)76としては、公知のモーションキャプチャシステムが適用されるが、発明者等の実験では、VICON社(http://www./vicon.com/)の光学式のモーションキャプチャシステムを用いた。この場合には12台のMCカメラ82を使用する。 As the motion capture system (three-dimensional motion measurement device) 76, a known motion capture system is applied. However, in the experiments by the inventors, the optical system of VICON (http://www./vicon.com/) is used. The motion capture system of was used. In this case, 12 MC cameras 82 are used.
なお、ロボット10の動きや姿勢は必ずしもモーションキャプチャを用いなくても把握できる。たとえば、上で説明した各腕や頭部の各軸モータ、右腕モータ62、左腕モータ64、頭部モータ66の回転角度からロボット10の動きや姿勢を計算によって求めることができる。しかしながら、実施例では、CPU50のリアルタイムの計算量を軽減するために、モーションキャプチャ76を用いるようにした。
The movement and posture of the
図6は図1および図2に示す実施例のCPU50の動作を説明するためのフローチャートであり、最初のステップS1では、CPU50は、ロボット10のオペレータから停止命令が入力されたかどうか判断する。ステップS1で“YES”が判断されれば、当然、処理は終了する。
FIG. 6 is a flowchart for explaining the operation of the
ステップS1で“NO”が判断されたときには、CPU50は、次のステップS3で、人間80によるロボット10への接触行動があったかどうか、そして接触行動があったならロボットのどの場所または部位に接触されたかを判定する。
If "NO" is determined in the step S1, the
ここで、図7−図11を参照して、このステップS3のサブルーチンについて詳細に説明する。 Here, the subroutine of step S3 will be described in detail with reference to FIGS.
図7の最初のステップS21では、CPU50は、ロボット10の各部についてタッチセンサの接触反応の有無をチェックする。具体的には、CPU50はセンサ入出力ボード58(図2)を通してタッチセンサ72すなわち図3に示すタッチセンサ721−728について、センサ入力があったかどうか判定する。そして、センサ入力があった場合には、CPU50は、図2のメモリ54内に形成されているタッチセンサフラグTs_flag(n)を「1」にセットする。ただし、カッコ内の「n」は、タッチセンサの番号を表し、実施例の場合「1−8」である。センサ入力がない場合には、CPU50は、該当のフラグTs_flag(n)に「0」を書き込む。なお、センサ入力のあるタッチセンサの個数も同時にカウントされていて、タッチセンサフラグに「1」を書き込むつど、CPU50は、同じメモリ54に形成したタッチセンサカウンタTs_countをインクリメントする(+1)。
In the first step S <b> 21 in FIG. 7, the
続くステップS23において、CPU50は、タッチセンサカウンタTs_countのカウント値が「1」以上かどうか判定する。このステップS23で“YES”が判定されるということは、先のステップS21において少なくも1つのタッチセンサからセンサ入力があったこと、つまり人間80(図5)がロボット10のどこかに、実際にタッチ(接触)したことを意味し、“NO”が判定されるということは、人間80がロボット10に実際にはタッチ(接触)しなかったことを意味する。
In subsequent step S23,
そして、ステップS23で“YES”の場合、続くステップS25において、CPU50は、カウンタTs_countのカウント値が「2以上」かどうか判断する(Ts_count>1)。このステップS25は第2判断手段として機能し、このステップS25で“YES”が判断されるということは、ステップS21で2つ以上のタッチセンサからセンサ入力があったこと、つまりロボット10の複数の場所または部位が人間によって触られたことを意味する。この実施例では、ロボット10の複数の場所にタッチがあった場合でも、どこか1つの場所に特定するようにしている。そのために、ステップS27以下のステップが実行される。
If “YES” in the step S23, in the subsequent step S25, the
第2特定手段を構成するステップS27では、簡単にいうと、CPU50は、そのときの人間80の視線方向によって接触場所を特定する。
In step S27 constituting the second specifying means, simply speaking, the
相手の人間の視線方向は、図5に示すように頭部に取り付けられたマーカの座標から視線ベクトルとして算出する。具体的には、頭部前方に取り付けられた2箇所のマーカ位置を、図9に示すように、右側のものをPright_head_frontとし、左側のものをPleft_head_frontとし、後方に取り付けられたマーカ位置をPcenter_head_backとし、これらのマーカ位置(座標)から視線ベクトルを算出する。視線ベクトルEyeVectorは、Pcenter_head_backからPright_head_frontとPleft_head_frontを結ぶ線の中心位置へのベクトルとする。視線ベクトルは次の数1によって求めることができる。 The line-of-sight direction of the other person is calculated as a line-of-sight vector from the coordinates of the marker attached to the head as shown in FIG. Specifically, as shown in FIG. 9, two marker positions attached to the front of the head are shown as Right_head_front on the right side, Pref_head_front on the left side, and Pcenter_head_back as the marker position attached on the rear side. The line-of-sight vector is calculated from these marker positions (coordinates). The line-of-sight vector EyeVector is a vector from the Center_head_back to the center position of the line connecting the Rights_head_front and the Left_head_front. The line-of-sight vector can be obtained by the following equation (1).
そして、この視線ベクトルEyeVectorが向く方向のタッチセンサTeを特定する。つまり、視線ベクトルEyeVectorの方向にあるタッチセンサが、8つのタッチセンサ721−728(図3)のどれに該当するか判断する。 Then, the touch sensor Te in the direction in which the line-of-sight vector EyeVector faces is specified. That is, it is determined which of the eight touch sensors 721-728 (FIG. 3) corresponds to the touch sensor in the direction of the line-of-sight vector EyeVector.
ここで、まず、ロボットの体の各タッチセンサ721−728の中心座標P1−P8は次のようにして求められる。 Here, first, the center coordinates P1-P8 of the touch sensors 721-728 of the body of the robot are obtained as follows.
ロボットの各タッチセンサ721−728の中心点P1−P8は、タッチセンサ721−728の付近に取り付けられたマーカの座標からのベクトルを予め知っていれば、容易に算出できる。ただし、この場合、先の図3および図4に示すように、タッチセンサ721−728の付近のマーカは、ロボットが動作してもタッチセンサ721−728の中心点P1−P8との相対位置が変化しないところに設置しておく必要がある。 The center point P1-P8 of each touch sensor 721-728 of the robot can be easily calculated if the vector from the coordinates of the marker attached in the vicinity of the touch sensor 721-728 is known in advance. However, in this case, as shown in FIGS. 3 and 4, the marker near the touch sensor 721-728 has a relative position with respect to the center point P1-P8 of the touch sensor 721-728 even when the robot operates. It must be installed where it will not change.
以下の具体例では、一例として、肩部のタッチセンサ722(725)の中心位置P1−P8の座標Ptouchsensor_shoulderを計算する方法を説明する。 In the following specific example, as an example, a method of calculating the coordinates Ptouchsensor_shoulder of the center positions P1 to P8 of the shoulder touch sensor 722 (725) will be described.
肩に取り付けられたマーカの座標Pshoulderから、肩部タッチセンサ722(725)の中心座標Ptouchsensor_shoulderへのベクトルVshoulder(=Ptouchsensor_shoulder−Pshoulder)を予め計測しておく。このベクトルVshoulderを用いることにより、ロボットが動作中の肩部タッチセンサ722(725)の中心位置P1(P5)の座標はPtouchsensor_shoulder=Pshoulder+Vshoulderで求められる。 A vector Vshoulder (= Ptouchsensor_shoulder-Psoulder) from the coordinate Pshoulder of the marker attached to the shoulder to the center coordinate Ptouchsensor_shoulder of the shoulder touch sensor 722 (725) is measured in advance. By using this vector Vshoulder, the coordinates of the center position P1 (P5) of the shoulder touch sensor 722 (725) in which the robot is operating can be obtained by Ptouchsensor_shoulder = Pshoulder + Vsoulder.
また、ロボット10の各部中心(タッチセンサ中心)点は、ロボットの身体中心座標が分かっていれば、現在のロボットの関節各情報から、順運動学方程式を解くことによっても算出することが可能である。
In addition, the center of each part (touch sensor center) point of the
次に、図10において、点と直線の距離dは、数2で求まる。ただし、図10においても数2においても、ベクトル記号は、便宜上省略している。
Next, in FIG. 10, the distance d between the point and the straight line is obtained by
つまり、視線ベクトルを正規化したベクトルと相手(人間)の頭部後方位置に取り付けたマーカの座標から、視線方向を示す直線を算出し、各タッチセンサの中心座標位置P1−P8(図3)との距離D(n)を上記の点と直線の距離dの式より算出する。ただし、(n)はタッチセンサ721−728の番号、であり、実施例では「1−8」である。 That is, a straight line indicating the line-of-sight direction is calculated from the normalized line-of-sight vector and the coordinates of the marker attached to the back position of the opponent (human) head, and the center coordinate positions P1-P8 of each touch sensor (FIG. 3). Distance D (n) is calculated from the above formula of the distance d between the point and the straight line. However, (n) is the number of the touch sensor 721-728, and is “1-8” in the embodiment.
具体例において上記数2との対応を考えると、点p1は、相手の頭部後方に取り付けたマーカ位置Pcenter_head_backに対応し、点p2は、各タッチセンサ721−728の中心位置Ptouchsensor_nに対応し、正規化した方向ベクトルv(ただし、ベクトル記号は便宜上省略する)は(EyeVector/|EyeVector|)に相当する。そして、数2に従って距離dを計算し、それをD(n)とする。
Considering the correspondence with
このようにして、視線方向の直線と各タッチセンサ721−728の中心との間の距離D(n)が求まる。そして、図11に示すように、この距離D(n)が任意の閾値L以下であるタッチセンサを実際に接触行為のあったタッチセンサTeと推定する。 In this way, the distance D (n) between the straight line in the line-of-sight direction and the center of each touch sensor 721-728 is obtained. Then, as shown in FIG. 11, a touch sensor whose distance D (n) is equal to or less than an arbitrary threshold value L is estimated as a touch sensor Te that actually has a contact act.
その後、CPU50は、ステップS29において、視線方向から推定したタッチセンサTeとステップS21で検出した接触反応箇所とが一致しているかどうか判断する。つまり、フラグTs_flag(Te)が「1」かどうか判断する。ただし、(Te)は推定したタッチセンサ721−728の番号「1−8」のいずれかである。
Thereafter, in step S29, the
そして、ステップS29で“YES”が判断されると、CPU50は、ステップS31において、視線方向から推定したタッチセンサTeを、実際に接触のあったタッチセンサとして同定し、リターンする。
If “YES” is determined in the step S29, the
ステップS29で“NO”なら、つまり、視線方向から推定したタッチセンサTeとステップS21で検出した接触反応箇所とが一致しない場合には、ステップS33で判定不能と認識し、リターンする。 If “NO” in the step S29, that is, if the touch sensor Te estimated from the line-of-sight direction and the contact reaction portion detected in the step S21 do not coincide with each other, it is recognized that the determination is impossible in the step S33, and the process returns.
なお、ステップS25で“NO”が判断されたとき、つまり、ステップS21で接触反応を検出したタッチセンサが1つだけであった場合には、そのとき検出したタッチセンサを実際にタッチされたタッチセンサであると認識し(ステップS35)、リターンする。 If “NO” is determined in step S25, that is, if only one touch sensor has detected a contact reaction in step S21, the touch sensor actually detected by the touch sensor detected at that time is touched. It recognizes that it is a sensor (step S35), and returns.
以上の説明のように、ステップS25−S31,S35は、相手の人間80がロボット10のどこかに実際にタッチした場合に、実接触部位を特定するための第2特定手段として機能する。
As described above, steps S25 to S31 and S35 function as second specifying means for specifying the actual contact site when the
ただし、この実施例は、人間が実際にはタッチしない場合でも、人間がタッチしようとする「気配」を察知し、実際にタッチがある場合の触行動に対すると同じような反応行動を生起することによって、より生物らしいコミュニケーションロボットシステムを得ようとするものである。そこで、CPU50は、実際にタッチがない場合でも、ステップS37以降を実行して人間の触行動があったかどうか認識する。
However, in this embodiment, even if a human does not actually touch, it senses the “sign” that the human is trying to touch, and causes a reaction behavior similar to the touch behavior when there is an actual touch. By doing so, we will try to obtain a communication robot system that is more biological. Therefore, even when there is no actual touch, the
第1判断手段を構成するステップS37では、CPU50は、相手の人間との間の距離Dbを計算する。
In step S37 constituting the first determination means, the
まず、ロボット10および人間80のそれぞれの体の中心座標を求める。具体的には、体の中心座標Pbodycenterは両肩に取り付けたマーカの各座標の中心位置で表し、次の数3のとおりである。
First, the center coordinates of the bodies of the
数3に従ってロボット10の体と人80の体のそれぞれの中心座標Probot_bodycenterおよびPhuman_bodycenterが求まる。この2点間の距離をDbとすると、距離Dbは数4で与えられる。
According to
その後、第1判断手段を構成するステップS39において、CPU50は、相手の人間の手の長さLaに基づいて、ロボット10が明らかに相手の手の届く範囲に存在するかどうかをチェックする。一例としては、ロボット10が相手80の手の長さLaの2倍の範囲内に存在すれば、相手はロボットにタッチできると考え、上記距離DbがLa*2の範囲内かどうか判断する。ただし、このような閾値(La*2)は適宜変更可能である。
Thereafter, in step S39 constituting the first determination means, the
ここで、相手の人間の手の長さLaの求め方の一例を説明する。相手の体の肩、肘および手先に取り付けられたマーカの位置から相手の腕の長さを算出する。つまり、数5に示すように、肘から肩までの距離+肘から手先までの距離=腕の長さLaとする。
Here, an example of how to obtain the length La of the opponent's human hand will be described. The length of the opponent's arm is calculated from the positions of the markers attached to the shoulder, elbow and hand of the opponent's body. That is, as shown in
もし、第1判断手段すなわちステップS39において、“NO”と判断されたなら、次のステップS41において、触行動はないと認識し、リターンする。 If “NO” is determined in the first determination means, that is, step S39, in the next step S41, it is recognized that there is no tactile action, and the process returns.
もし、ステップS39において“YES”なら、図8に示すステップS43に進む。このステップS43以降のステップが第1特定手段を構成するが、まず、ステップS43では、CPU50は、数6に従って、相手の左手とロボットの体の各タッチセンサの中心点Pnとの距離(左手距離)Dlh(n)を算出(n=1−8)するとともに、相手の右手とロボットの体の各タッチセンサの中心点Pnとの距離(右手距離)Drh(n)を算出(n=1−8)する。
If “YES” in the step S39, the process proceeds to a step S43 shown in FIG. Steps subsequent to step S43 constitute first specifying means. First, in step S43, the
そして、次のステップS45では、CPU50は、接近距離L(これは、可変の閾値である。)より小さい左手距離Dlh(n)の中で、最も小さくなるnを左手接触推定部位Tlhとして、図2のメモリ54に形成されている左手レジスタTlhに書き込む(If min{Dlh(n)}<L →Tlh=n)。ただし、接近距離Lより近いDlh(n)がない場合はその左手レジスタTlhには「0」を書き込む(If min{Dlh(n)}>L →Tlh=0)。
In the next step S45, the
さらに、同じステップS45で、CPU50は、接近距離L(可変閾値)より小さい右手距離Drh(n)の中で、最も小さくなるnを右手接触推定部位Trhとして、図2のメモリ54に形成されている右手レジスタTrhに書き込む(If min{Drh(n)}<L →Trh=n)。ただし、接近距離Lより近いDrh(n)がない場合はその右手レジスタTrhには「0」を書き込む(If min{Drh(n)}>L →Trh=0)。
Furthermore, in the same step S45, the
続くステップS47において、CPU50は、相手の右手および左手が接触しそうなロボットの部位はあるのかどうか判断する。具体的には、左手レジスタTlhと右手レジスタTrhとがともに、「0」かどうかチェックする。その理由は、上で説明したように、レジスタTlhおよびTrhは接近距離Lより近いDlh(n)およびDrh(n)がないときそれぞれ「0」に設定されるので、これが「0」かどうかで接触しそうな部位の有無分かるからである。
In the subsequent step S47, the
このステップS47で“NO”が判断されるということは、少なくとも相手の右手か左手かがロボットのどこかに接近していることを意味する。したがって、次のステップS49で、DlhおよびDrhがともに「0」ではないか(Dlh≠0、Drh≠0)どうか、つまり、相手の人間の左手も右手もともに接近距離Lより近い状態かどうか判断する。 The determination of “NO” in step S47 means that at least the opponent's right hand or left hand is approaching somewhere in the robot. Therefore, in the next step S49, it is determined whether or not both Dlh and Drh are “0” (Dlh ≠ 0, Drh ≠ 0), that is, whether the other person's left hand and right hand are closer to the approach distance L. To do.
もし、ステップS49で“YES”が判断されると、つまり、相手の人間の左手および右手がともに接近距離Lより近い場合には、CPU50は、人間がタッチしようといている(距離Lより接近している)ロボットの部位をどこか1つだけ特定する必要がある。その特定方法としては、先に説明したステップS27と同様に、人間の視線方向を推定の手がかりとする。つまり、次にCPU50は、ステップS51において、相手の人間の顔の向きと目の位置より相手の視線の方向を算出し、実際に人間がロボットにタッチしている訳ではないが、その視線に基づいて、近接部位を推定接触タッチセンサTeとして推定する。
If “YES” is determined in step S49, that is, if both the left hand and the right hand of the other person are closer than the approach distance L, the
相手の人間の視線方向を表す視線ベクトルEyeVectorは、先に図5を参照して説明したように、頭部に取り付けられた3つのマーカPright_head_front、Pleft_head_front、Pcenter_head_backの座標から数1に従って算出できる。そして、この視線ベクトルEyeVectorが向く方向のタッチセンサTeを特定する。つまり、視線ベクトルEyeVectorの方向にあるタッチセンサが、8つのタッチセンサ721−728(図3)のどれに該当するか判断する。
As described above with reference to FIG. 5, the line-of-sight vector EyeVector representing the partner's line-of-sight direction can be calculated according to
その後、CPU50は、ステップS53において、視線方向から推定したタッチセンサTeとステップS45で検出した左手レジスタTlhおよび右手レジスタTrhにそれぞれ登録されているタッチセンサの番号とが一致しているかどうか判断する。つまり、Te=TlhまたはTe=Trhが充足されているかどうか、判断する。
Thereafter, in step S53, the
一致しているとき、つまり、Te=TlhまたはTe=Trhのいずれかが充足されているときには、CPU50は、ステップS55で、そのタッチセンサTeの位置を、人間80がタッチしようとしているロボット10の場所または部位であると特定して、リターンする。
When they match, that is, when either Te = Tlh or Te = Trh is satisfied, in step S55, the
一致していないときには、CPU50は、ステップS57において、ロボット10により近いほうの人間の手を推定接触部位として特定する。具体的には、ステップS43で求めた左手距離Dlhおよび右手距離Drhを比較し、左手距離Dlhが右手距離Drhより小さい(Dlh<Drh)ときには、CPU50は、推定接触部位Tとして左手接触部位Tlhを特定して、リターンする。逆に、左手距離Dlhが右手距離Drhより大きい(Dlh>Drh)ときには、CPU50は、推定接触部位Tとして右手接触部位Trhを特定して、リターンする。
If they do not match, the
さらに、先のステップS49で“NO”が判断されたとき、つまり推定接触部位TlhまたはTrhのどちらかが「0」であるときには、どちらか一方の手だけが接触する可能性があるので、CPU50は、ステップS59において、そのどちらか一方の推定接触部位TlhまたはTrhを推定接触部位Tとして特定し、リターンする。
Furthermore, when “NO” is determined in the previous step S49, that is, when either the estimated contact portion Tlh or Trh is “0”, there is a possibility that only one of the hands may come into contact with the
最後に、ステップS47で“NO”が判断されたときには、接触しようとする人間の手はなく、推定接触部位TlhおよびTrhはともに「0」であり、その場合には、CPU50は、ステップS61において、接触行為はないと判断して、リターンする。
Finally, when “NO” is determined in step S47, there is no human hand to contact, and the estimated contact sites Tlh and Trh are both “0”. In this case, the
このようにして、図6のステップS3において、人間80が実際にロボット10に対してタッチしているかあるいはタッチしようとしているか(触行動の有無)を検知することができる。 In this way, in step S3 of FIG. 6, it is possible to detect whether the human 80 is actually touching or trying to touch the robot 10 (presence or absence of tactile behavior).
そして、ステップS3で図7および図8に示すサブルーチンを実行した結果、人間80による触行動が確認されたときには、ステップS5で“YES”が判断されることになり、CPU50は、図6の次のステップS7において、接触場所または推定接触場所に応じて異なる反応行動をロボット10に命令する。つまり、ステップS7は、反応行動生起手段として機能する。表1はそのような反応行動の一例を示す。ただし、この表1に例示する反応行動は、基本的には、人間に触られるのを嫌がる、という反応行動であるが、逆に、人間に対して好感を表す反応行動やそれらの混在した反応行動を設定することも当然可能である。
Then, as a result of executing the subroutine shown in FIG. 7 and FIG. 8 in step S3, when the tactile action by the human 80 is confirmed, “YES” is determined in step S5, and the
表1に示すように、たとえば接触部位または推定接触部位が頭部であるとき、すなわち、Te=T(1)であったとき、CPU50はロボット10を後退させるように、図2に示すモータ制御ボード56を通して車輪モータ70を制御する。
As shown in Table 1, for example, when the contact part or the estimated contact part is the head, that is, when Te = T (1), the
たとえば、接触部位または推定接触部位が腹部であるとき、すなわち、Te=T(8)であったとき、CPU50は、腹部を触られないように腹部を手でガードしながらロボット10を後退させるように、モータ制御ボード56を通して、右腕モータ62および左腕モータ64ならびに車輪モータ70を制御する。
For example, when the contact site or the estimated contact site is the abdomen, that is, Te = T (8), the
たとえば、接触部位または推定接触部位が左肩であるとき、すなわち、Te=T(2)であったとき、CPU50は、左肩を人間から遠ざけるようにロボット10を回転させるように、モータ制御ボード56を通して、腰モータ68を制御する。接触部位または推定接触部位が右肩であるとき、すなわち、Te=T(5)であったとき、CPU50は、右肩を人間から遠ざけるように、ロボット10を回転させるように腰モータ68を制御する。
For example, when the contact site or the estimated contact site is the left shoulder, that is, Te = T (2), the
たとえば、接触部位または推定接触部位が左上腕であるとき、すなわち、Te=T(3)であったとき、CPU50は、左上腕を人間から遠ざけるようにロボット10を回転させながら左上腕を後ろに下げるように、モータ制御ボード56を通して、腰モータ68を制御するとともに、左腕モータ64を制御する。接触部位または推定接触部位が右上腕であるとき、すなわち、Te=T(6)であったとき、CPU50は、右上腕を人間から遠ざけるようにロボット10を回転させながら左上腕を後ろに下げるように、腰モータ68および右腕モータ62を制御する。
For example, when the contact site or the estimated contact site is the left upper arm, that is, Te = T (3), the
たとえば、接触部位または推定接触部位が左前腕であるとき、すなわち、Te=T(4)であったとき、CPU50は、左前腕を人間から遠ざけるようにロボット10を回転させながら左前腕を後ろに下げるように、モータ制御ボード56を通して、腰モータ68を制御するとともに、左腕モータ64を制御する。接触部位または推定接触部位が右上腕であるとき、すなわち、Te=T(7)であったとき、CPU50は、右前腕を人間から遠ざけるようにロボット10を回転させながら左前腕を後ろに下げるように、腰モータ68および右腕モータ62を制御する。
For example, when the contact part or the estimated contact part is the left forearm, that is, Te = T (4), the
なお、いずれの反応行動中でも、ロボット10の眼カメラ46(図2)が近づく人間の手を注視するように、CPU50は、頭部モータ66などを制御する。
In any reaction behavior, the
以上のように、受身状態(Recipient Mode)では、ロボット10の体に人間80の手が実際にタッチするかあるいはタッチするほどに接近するかを検知したときには、所定の反応行動を行うものであるが、図6において、ステップS5で人間の触行動を検知しなかったときには、CPU50は、次のステップS9で、所定時間以上連続して待機状態であるかどうか判断する。ただし、待機状態とは、たとえば、センサボード58(図2)からどんなセンサ入力もない状態をいうものとする。そして、ステップS9で“NO”が判断されるとき、つまり、所定時間内に何らかのセンサ入力があったときには、CPU50は、先のステップS3に戻って先に説明した方法で触行動の有無を検知する。ステップS9で“YES”が判断されたときには、CPU50は、ステップS11で待機状態となる。待機状態では、CPU50は、ロボット10が人間80に対して、アイコンコンタクトを維持したり、対人距離を維持したりするなどの所定の処理を実行するものとする(Idling Mode)。
As described above, in the passive mode, when it is detected whether the hand of the human 80 actually touches the body of the
ただし、一定時間以上待機状態が継続した場合には、ロボット10を作用主状態(Agent Mode)として、たとえば自分の手(腕)を使って人間の手を触るなどの主体的行動を実行させることもできる。
However, if the standby state continues for a certain period of time or longer, the
なお、上で説明した実施例では人間やロボットの各部位の3次元位置座標を検出するために、マーカ78をカメラ801−80n(図2)で撮影する方式のモーションキャプチャを採用した。しかしながら、他の方法(たとえば磁気)を利用するモーションキャプチャを用いてもよく、さらに、モーションキャプチャではなく、一般的な画像処理によって人間やロボットの腕の状態や位置を検出するようにしてもよい。また、ロボット10の場合には、各関節角を検知することによって各部位の3次元位置座標を特定するようにしてもよい。
In the embodiment described above, in order to detect the three-dimensional position coordinates of each part of a human or a robot, a motion capture method in which the marker 78 is photographed by the cameras 801-80n (FIG. 2) is employed. However, motion capture using other methods (for example, magnetism) may be used, and further, the state and position of a human or robot arm may be detected by general image processing instead of motion capture. . In the case of the
また、実施例では、第1特定手段によって所定距離以内に接近した部位が2以上あるとき、その中から1つの部位を推定接触部位として特定する際の条件として、人間の視線が向けられているかどうかという条件を用いた。しかしながら、第1特定手段は、たとえば人間の手がより接近していることを条件で1つの推定接触部位を特定するなど、別の条件を採用してもよい。 In addition, in the embodiment, when there are two or more parts approaching within a predetermined distance by the first specifying means, is a human line of sight directed as a condition for specifying one part as an estimated contact part from the two parts? The condition of how was used. However, the first specifying means may adopt another condition, for example, specifying one estimated contact site on condition that a human hand is closer.
10 …コミュニケーションロボット
50 …CPU
72,721−728 …タッチセンサ
76 …モーションキャプチャ
821−82n …モーションキャプチャ(MC)カメラ
84 …MCコンピュータ
10 ...
72, 721-728 ...
Claims (6)
人間が実際にタッチしたかどうか判断するタッチ判断手段、
前記タッチ判断手段によって実際にタッチしていると判断しなかったとき、人間が所定範囲内に存在するかどうか検出する存在検出手段、および
前記存在検出手段によって人間が前記所定範囲内に存在することを検出したとき、前記人間の手が所定距離以内に接近している部位を推定接触部位として特定する第1特定手段を備え、
前記第1特定手段は、前記人間の手が前記所定距離以内に接近している部位が複数あるかどうか判断する第1判断手段を含み、前記第1判断手段で前記人間の手が前記所定距離以内に接近している部位が複数あることを検出したとき所定条件を満たす1つの部位を前記推定接触部位として特定する、コミュニケーションロボット。 A communication robot that detects human tactile behavior based on sensor inputs from a plurality of touch sensors provided in a plurality of parts,
Touch determination means for determining whether a human has actually touched,
Presence detection means for detecting whether or not a human is within a predetermined range when the touch determination means does not determine that the user is actually touching; and that the human is within the predetermined range by the presence detection means A first specifying means for specifying a part where the human hand is approaching within a predetermined distance as an estimated contact part,
The first specifying means includes first determination means for determining whether or not there are a plurality of parts where the human hand approaches within the predetermined distance, and the first determination means allows the human hand to move to the predetermined distance. A communication robot that identifies one part that satisfies a predetermined condition as the estimated contact part when it is detected that there are a plurality of parts that are approaching within.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005258855A JP4878462B2 (en) | 2005-09-07 | 2005-09-07 | Communication robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005258855A JP4878462B2 (en) | 2005-09-07 | 2005-09-07 | Communication robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007069303A JP2007069303A (en) | 2007-03-22 |
JP4878462B2 true JP4878462B2 (en) | 2012-02-15 |
Family
ID=37931208
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005258855A Active JP4878462B2 (en) | 2005-09-07 | 2005-09-07 | Communication robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4878462B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111546338A (en) * | 2020-05-08 | 2020-08-18 | 华为技术有限公司 | Robot control method and device, robot and storage medium |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019176090A1 (en) * | 2018-03-16 | 2019-09-19 | 株式会社ソニー・インタラクティブエンタテインメント | Body size estimation device, body size estimation method, and program |
JP7133840B2 (en) * | 2018-09-03 | 2022-09-09 | 株式会社国際電気通信基礎技術研究所 | ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3942586B2 (en) * | 2003-12-02 | 2007-07-11 | 株式会社国際電気通信基礎技術研究所 | Communication robot |
-
2005
- 2005-09-07 JP JP2005258855A patent/JP4878462B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111546338A (en) * | 2020-05-08 | 2020-08-18 | 华为技术有限公司 | Robot control method and device, robot and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP2007069303A (en) | 2007-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10755096B2 (en) | 3D gaze control of robot for navigation and object manipulation | |
US20190278295A1 (en) | Robot control system, machine control system, robot control method, machine control method, and recording medium | |
JP6567563B2 (en) | Humanoid robot with collision avoidance and orbit return capability | |
JP5186723B2 (en) | Communication robot system and communication robot gaze control method | |
JP4822319B2 (en) | Communication robot and attention control system using the same | |
US20020198626A1 (en) | Communication robot | |
US20150094851A1 (en) | Robot control system, robot control method and output control method | |
JP5318623B2 (en) | Remote control device and remote control program | |
JP5028568B2 (en) | Robot control system | |
JP5145569B2 (en) | Object identification method and apparatus | |
JP6150429B2 (en) | Robot control system, robot, output control program, and output control method | |
JP3979141B2 (en) | Autonomous mobile robot for guidance and its control method | |
JP4517086B2 (en) | Communication robot system and robot controller | |
US20210031378A1 (en) | Information processor, information processing method, and program | |
JP4399603B2 (en) | Communication robot | |
JP2008018529A (en) | Communication robot | |
JP4878462B2 (en) | Communication robot | |
KR102131097B1 (en) | Robot control system and robot control method using the same | |
JP2007130691A (en) | Communication robot | |
JP2005238382A (en) | Communication robot | |
JP2004042151A (en) | Communication robot | |
JP6142307B2 (en) | Attention target estimation system, robot and control program | |
WO2021005878A1 (en) | Information processing device, information processing method, and information processing program | |
JP6158665B2 (en) | Robot, robot control method, and robot control program | |
JP4779114B2 (en) | Communication robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080613 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100407 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110411 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20110419 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20110624 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111018 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111128 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4878462 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141209 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |