JP2007130691A - Communication robot - Google Patents

Communication robot Download PDF

Info

Publication number
JP2007130691A
JP2007130691A JP2005323026A JP2005323026A JP2007130691A JP 2007130691 A JP2007130691 A JP 2007130691A JP 2005323026 A JP2005323026 A JP 2005323026A JP 2005323026 A JP2005323026 A JP 2005323026A JP 2007130691 A JP2007130691 A JP 2007130691A
Authority
JP
Japan
Prior art keywords
robot
axis
neck
sight
gaze
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005323026A
Other languages
Japanese (ja)
Inventor
Yuichiro Yoshikawa
雄一郎 吉川
Kazuhiko Shinosawa
一彦 篠沢
Noriaki Mitsunaga
法明 光永
Keiko Miyashita
敬宏 宮下
Hiroshi Ishiguro
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2005323026A priority Critical patent/JP2007130691A/en
Publication of JP2007130691A publication Critical patent/JP2007130691A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a communication robot which can rotate not only its eyeballs but also its neck (head) at the time of shifting sight line, can very naturally shift the sight line when its intention is transmitted based on the performance of the sight line, and can positively express the intention of the robot. <P>SOLUTION: The communication robot 10 has the head 64 mounted thereon via the neck that is rotatable about a predetermined shaft, e.g. a vertical shaft (S shaft), and the head has the eyeballs 48 arranged thereon, that are also rotatable about respective vertical shafts. When the sight line of the robot is shifted to an attention objective person, a CPU of the robot sets a contribution (A1) of the neck with respect to the shift of the sight line by the eyeballs, and controls the neck and the eyeballs, based on a joint angle θ of the neck and the joint angle α of the eyeballs, that are calculated based on the contribution. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明はコミュニケーションロボットに関し、特にたとえば、視線制御によりロボットの意図を演出する、コミュニケーションロボットに関する。   The present invention relates to a communication robot, and more particularly to a communication robot that produces a robot's intention by line-of-sight control, for example.

この種の背景技術の一例が非特許文献1および非特許文献2に開示される。非特許文献1には、3つの視線パラメータ、凝視量,凝視持続時間および非凝視時視線位置に基づいて擬人化エージェントの視線制御をすることによって、その擬人化エージェントからユーザが受ける印象を操作できることが示されている。   An example of this type of background art is disclosed in Non-Patent Document 1 and Non-Patent Document 2. In Non-Patent Document 1, by controlling the gaze of an anthropomorphic agent based on three gaze parameters, the amount of gaze, the gaze duration, and the gaze position at the time of non-gaze, the user can manipulate the impression received by the anthropomorphic agent It is shown.

また、非特許文献2には、視野内の特徴的な領域を次々に選択して注視するCG(Computer Graphics)の研究において、人間を規範としたルールにより視線の動きを首と目の自由度に配分して実現する方法が提案されている。
深山等「擬人化エージェントの印象操作のための視線制御方法」情報処理学会論文誌Vol.43,No.12,pp3596‐3606 2002年12月 L. Itti et al. “Realistic Avatar Eye and Head Animation Using a Neurobiological Model of Visual Attention” In Proc. SPIE 48th Annual International Symposium on Optical Science and Technology pp. 64-78, Aug. 2003.
In Non-Patent Document 2, in the CG (Computer Graphics) research that selects and focuses on characteristic areas in the field of view one after another, the movement of the line of sight is determined by the rules based on humans. A method for allocating and realizing the above has been proposed.
Fukayama et al. “Gaze control method for impression manipulation of anthropomorphic agent” Information Processing Society of Japan, Vol. 43, no. 12, pp 3596-3606 December 2002 L. Itti et al. “Realistic Avatar Eye and Head Animation Using a Neurobiological Model of Visual Attention” In Proc. SPIE 48th Annual International Symposium on Optical Science and Technology pp. 64-78, Aug. 2003.

非特許文献1の従来技術では、視線パラメータだけが考慮され、首の自由度が利用されていなので、かなり不自然な感じを受ける。   In the prior art of Non-Patent Document 1, only the line-of-sight parameter is considered and the degree of freedom of the neck is used, so that it feels quite unnatural.

これに対して、非特許文献2の従来技術では、視線の動きを首と目の自由度に配分するようにしているので、首の自由度は考慮されてはいるものの、その配分の割合は固定であり、首の自由度がエージェントの意図の演出に利用されているとはいえない。   On the other hand, in the prior art of Non-Patent Document 2, since the movement of the line of sight is distributed to the degrees of freedom of the neck and eyes, the degree of freedom of the neck is taken into consideration, but the distribution ratio is It is fixed, and it cannot be said that the degree of freedom of the neck is used to produce the agent's intention.

それゆえに、この発明の主たる目的は、新規な、コミュニケーションロボットを提供することである。   Therefore, the main object of the present invention is to provide a novel communication robot.

この発明の他の目的は、視線だけでなく、首の自由度もロボットの意図の演出に利用する、新規なコミュニケーションロボットを提供することである。   Another object of the present invention is to provide a novel communication robot that uses not only the line of sight but also the degree of freedom of the neck to produce the intention of the robot.

請求項1の発明は、所定軸周りに回転できる首を介して設けられる頭部と、頭部に設けられ所定軸周りに回転できる眼球とを有し、眼球による視線を用いて意図を演出するようにしたコミュニケーションロボットであって、視線の移動に対する首および眼球の寄与率を設定する寄与率設定手段、および視線を移動するとき、寄与率に従って計算した首の関節角度および眼球の関節角度に基づいて首および眼球を制御する制御手段を備える、コミュニケーションロボットである。   The invention of claim 1 has a head provided through a neck that can rotate around a predetermined axis, and an eyeball that is provided at the head and that can rotate around the predetermined axis, and produces an intention using the line of sight of the eyeball. And a contribution rate setting means for setting a contribution rate of the neck and the eyeball to the movement of the line of sight, and, when moving the line of sight, based on the joint angle of the neck and the joint angle of the eyeball calculated according to the contribution rate A communication robot provided with control means for controlling the neck and eyeball.

請求項1の発明では、コミュニケーションロボット(10:実施例で相当する部分を例示する参照符号。以下同様。)では、頭部(64)は所定軸たとえば鉛直軸(S軸)周りに回転できる首を介して設けられ、その頭部には、同じく鉛直軸周りに回転できる眼球(48)が設けられる。たとえばCPU(72)であってよい寄与率設定手段(S9)が、その眼球による視線の移動に対する首の寄与率(A1)を設定する。そして、同じくたとえばCPU(72)のような制御手段(S9,S25)は、寄与率に従って計算した首の関節角度および眼球の関節角度に基づいて首および眼球を制御する。   According to the first aspect of the present invention, in the communication robot (10: reference numerals exemplifying corresponding portions in the embodiment, the same applies hereinafter), the head (64) is a neck that can rotate around a predetermined axis, for example, the vertical axis (S axis). The eyeball (48) which can be rotated around the vertical axis is also provided on the head. For example, the contribution rate setting means (S9), which may be the CPU (72), sets the neck contribution rate (A1) to the movement of the line of sight by the eyeball. Similarly, the control means (S9, S25) such as the CPU (72) controls the neck and the eyeball based on the neck joint angle and the eyeball joint angle calculated according to the contribution rate.

請求項1の発明によれば、視線移動に際して眼球だけでなく首(頭部)も回転するので、視線の演出によってコミュニケーションロボットの意図を伝達するときの視線の動きがごく自然である。しかも、その寄与率は適宜変更できるので、寄与率によってロボットの意図を確実に表現できるようになる。   According to the first aspect of the present invention, not only the eyeball but also the neck (head) rotates when moving the line of sight, so the movement of the line of sight when the intention of the communication robot is transmitted by the effect of the line of sight is very natural. Moreover, since the contribution rate can be changed as appropriate, the intention of the robot can be reliably expressed by the contribution rate.

請求項2の発明は、注視対象を注視する注視時間を設定する時間設定手段、および注視時間だけ視線を注視対象にとどめる注視時間制御手段をさらに備える、請求項1記載のコミュニケーションロボットである。   The invention according to claim 2 is the communication robot according to claim 1, further comprising time setting means for setting a gaze time for gaze at the gaze object, and gaze time control means for keeping the line of sight at the gaze object for the gaze time.

請求項2の発明では、たとえばCPU(72)であってよい時間設定手段(S9)が注視時間(f(T))を設定するので、たとえばCPU(72)であってよい注視時間制御手段(S9,S25)によってその注視時間だけ対象を注視することができる。   In the second aspect of the invention, the time setting means (S9), which may be the CPU (72), for example, sets the gaze time (f (T)). By S9, S25), it is possible to gaze at the object for the gaze time.

請求項3の発明は、注視時間内において視線を注視対象から逃避させる逃避頻度を設定する逃避頻度設定手段、および逃避頻度に従って視線を注視対象から逃避させる逃避制御手段をさらに備える、請求項2記載のコミュニケーションロボットである。   The invention of claim 3 further comprises escape frequency setting means for setting an escape frequency for escaping the line of sight from the gaze target within the gaze time, and escape control means for escaping the line of sight from the gaze object according to the escape frequency. Is a communication robot.

請求項3の発明では、たとえばCPU(72)であってよい逃避頻度設定手段(S9)が逃避頻度(e(T))を設定するので、たとえばCPU(72)であってよい逃避制御手段(S9,S25)によって視線がその注視対象からその逃避頻度に従って逃避する。したがって、視線逃避による演出を効果的に行える。   In the invention of claim 3, the escape frequency setting means (S9), which may be, for example, the CPU (72) sets the escape frequency (e (T)), so that the escape control means (which may be, for example, the CPU (72)) ( The line of sight escapes from the gaze target according to the escape frequency by S9, S25). Therefore, it is possible to effectively produce a line of sight escape.

この発明によれば、眼球だけでなく首(頭部)も回転させて視線移動を行うので、視線の演出によってコミュニケーションロボットの意図を伝達するときの視線の動きが自然である。しかも、その寄与率は適宜変更できるので、寄与率によってロボットの意図を確実に表現できるようになる。   According to this invention, not only the eyeball but also the neck (head) is rotated to move the line of sight, so the movement of the line of sight when the intention of the communication robot is transmitted by the effect of the line of sight is natural. Moreover, since the contribution rate can be changed as appropriate, the intention of the robot can be reliably expressed by the contribution rate.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この実施例のコミュニケーションロボット(以下、単に「ロボット」とも言う。)10は、主として人間のようなコミュニケーションの対象とコミュニケーションすることを目的とした相互作用指向のもので、身振り手振りのような身体動作を用いてコミュニケーション行動を行う機能を備えている。ただし、コミュニケーション行動には音声が含まれる場合もある。   Referring to FIG. 1, a communication robot (hereinafter, also simply referred to as “robot”) 10 of this embodiment is an interaction-oriented one intended mainly to communicate with a communication target such as a human. It has a function to perform communication behavior using body movements such as gestures. However, the communication behavior may include voice.

ロボット10は、たとえば或る会社(組織)の建物内や或るイベント会場のような現実空間に配置される。詳細な構成は後述するが、ロボット10は、自律移動するための機構を備え、現実空間に存在する人間(図1では、人間A,B,C)と出会ったり、当該人間とコミュニケーションを図ったりする。   The robot 10 is arranged in a real space such as a building of a certain company (organization) or a certain event venue. Although the detailed configuration will be described later, the robot 10 is provided with a mechanism for autonomous movement, and meets a human (in FIG. 1, humans A, B, and C) existing in the real space, and communicates with the human. To do.

なお、図1では、簡単のため、3人の人間を示してあるが、これに限定される必要はなく、1人以上であれば何人でも構わない。   In FIG. 1, for simplicity, three people are shown, but the present invention is not limited to this, and any number of people may be used as long as it is one or more.

また、図1に示すように、人間A、B、Cは、それぞれ、無線タグ14を装着ないし所持しており、無線タグ14から送信される識別情報がロボット10によって検出される。   As shown in FIG. 1, humans A, B, and C each wear or possess a wireless tag 14, and identification information transmitted from the wireless tag 14 is detected by the robot 10.

無線タグ14としては、たとえばRFID(Radio Frequency Identification)タグを用いることができる。図示は省略するが、RFIDタグは、識別情報を記憶するためのメモリや通信用の制御回路等を備えるICチップおよびアンテナ等を含む。この実施例では、後述するように、ロボット10は出会った人間の行動の履歴を記録したり、出会った人間に噂を流したりするので、たとえば、交信距離の比較的長い電磁誘導方式(最大1m程度)またはマイクロ波方式(最大5m程度)のRFIDタグを使用することが望ましい。   As the wireless tag 14, for example, an RFID (Radio Frequency Identification) tag can be used. Although not shown, the RFID tag includes an IC chip, an antenna, and the like that include a memory for storing identification information, a control circuit for communication, and the like. In this embodiment, as will be described later, since the robot 10 records a history of the actions of the human being met or rumors the human being met, for example, an electromagnetic induction method with a relatively long communication distance (maximum 1 m). It is desirable to use an RFID tag of a microwave type (up to about 5 m).

なお、通信距離の比較的短い静電結合方式(数mm程度)や電磁結合方式(数cm程度)のRFIDタグなどを使用することもできるが、これらの場合にはロボット10は人間に接近して、無線タグ読取装置18(図3参照)を当該人間(厳密には無線タグ14)に近づけさせる必要がある。   In addition, an electrostatic coupling method (about several millimeters) or an electromagnetic coupling method (about several centimeters) of an RFID tag having a relatively short communication distance can be used. In these cases, the robot 10 approaches a human. Thus, it is necessary to bring the wireless tag reader 18 (see FIG. 3) closer to the person (strictly, the wireless tag 14).

また、無線タグ14は電池内蔵の能動型(アクティブタイプ)および電池無しの受動型(パッシブタイプ)のどちらでもよい。   The wireless tag 14 may be either an active type (active type) with a built-in battery or a passive type (passive type) without a battery.

図2はロボット10の外観を示す正面図であり、この図2を参照して、ロボット10のハードウェアの構成について説明する。ロボット10は台車22を含み、この台車22の下面にはロボット10を自律移動させる車輪24が設けられる。車輪24は車輪モータ26(図3参照)によって駆動され、台車22すなわちロボット10を前後左右任意の方向に動かすことができる。このように、ロボット10は組織の空間内を移動可能なものであるが、場合によっては空間内の所定位置に固定的に設けられてもよい。   FIG. 2 is a front view showing the appearance of the robot 10, and the hardware configuration of the robot 10 will be described with reference to FIG. The robot 10 includes a carriage 22, and wheels 24 for autonomously moving the robot 10 are provided on the lower surface of the carriage 22. The wheel 24 is driven by a wheel motor 26 (see FIG. 3), and the carriage 22, that is, the robot 10 can be moved in any direction, front, rear, left, and right. As described above, the robot 10 is movable in the space of the tissue, but may be fixedly provided at a predetermined position in the space depending on circumstances.

なお、図2においては省略するが、台車22の前面には、衝突センサ28(図3参照)が取り付けられ、この衝突センサ28は台車22への人や他の障害物の接触を検知する。つまり、ロボット10の移動中に障害物との接触を検知すると、直ちに車輪24の駆動を停止してロボット10の移動を急停止させる。   Although omitted in FIG. 2, a collision sensor 28 (see FIG. 3) is attached to the front surface of the carriage 22, and the collision sensor 28 detects contact of a person and other obstacles to the carriage 22. That is, when contact with an obstacle is detected during the movement of the robot 10, the driving of the wheels 24 is immediately stopped to suddenly stop the movement of the robot 10.

また、この実施例では、ロボット10の背の高さは、人、特に子供に威圧感を与えることのないように、100cm程度とされる。ただし、この背の高さは変更可能である。   In this embodiment, the height of the robot 10 is about 100 cm so as not to intimidate people, particularly children. However, this height can be changed.

台車22の上には、多角形柱のセンサ取付パネル30が設けられ、このセンサ取付パネル30の各面には、超音波距離センサ32が取り付けられる。この超音波距離センサ32は、センサ取付パネル30すなわちロボット10の周囲の主として人との距離を計測するものである。   A polygonal column sensor mounting panel 30 is provided on the carriage 22, and an ultrasonic distance sensor 32 is mounted on each surface of the sensor mounting panel 30. The ultrasonic distance sensor 32 measures the distance between the sensor mounting panel 30, that is, the person around the robot 10 mainly.

また、台車22の上には、さらに、その下部がセンサ取付パネル30に囲まれて、ロボット10の胴体が直立するように設けられる。この胴体は、下部胴体34と上部胴体36とによって構成され、下部胴体34および上部胴体36は、連結部38によって互いに連結される。図示は省略するが、連結部38には昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体36の高さすなわちロボット10の背の高さを変化させることができる。昇降機構は、後述するように、腰モータ40(図3参照)によって駆動される。   Moreover, the lower part of the robot 22 is surrounded by the sensor mounting panel 30 so that the body of the robot 10 stands upright. This body is constituted by a lower body 34 and an upper body 36, and the lower body 34 and the upper body 36 are connected to each other by a connecting portion 38. Although illustration is omitted, the connecting portion 38 has a built-in lifting mechanism, and the height of the upper body 36, that is, the height of the robot 10 can be changed by using this lifting mechanism. The lifting mechanism is driven by a waist motor 40 (see FIG. 3), as will be described later.

なお、上述したロボット10の背の高さは、上部胴体36をそれの最下位置にしたときのものである。したがって、ロボット10の背の高さは、100cm以上にすることも可能である。   The height of the robot 10 described above is that when the upper body 36 is at its lowest position. Therefore, the height of the robot 10 can be 100 cm or more.

上部胴体36のほぼ中央には、1つの全方位カメラ42と1つのマイク46とが設けられる。全方位カメラ42は、ロボット10の周囲を撮影するものであり、後述する眼カメラ48とは区別される。この全方位カメラ42としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。また、マイク46は、周囲の音、とりわけコミュニケーション対象である人の声を取り込む。なお、これら全方位カメラ42およびマイク46の設置位置は上部胴体36に限られず適宜変更され得る。   One omnidirectional camera 42 and one microphone 46 are provided in the approximate center of the upper body 36. The omnidirectional camera 42 photographs the surroundings of the robot 10 and is distinguished from an eye camera 48 described later. As this omnidirectional camera 42, for example, a camera using a solid-state imaging device such as a CCD or a CMOS can be adopted. The microphone 46 captures ambient sounds, particularly voices of people who are communication targets. The installation positions of the omnidirectional camera 42 and the microphone 46 are not limited to the upper body 36 and can be changed as appropriate.

上部胴体36の両肩には、それぞれ、肩関節50Rおよび50Lによって、上腕52Rおよび52Lが設けられる。肩関節50Rおよび50Lは、それぞれ、3軸の自由度を有する。すなわち、肩関節50Rは、X軸、Y軸およびZ軸のそれぞれの軸廻りにおいて上腕52Rの角度を制御できる。Y軸は、上腕52Rの長手方向(または軸)に平行な軸であり、X軸およびZ軸は、そのY軸に対して、それぞれ異なる方向から直交する軸である。他方、肩関節50Lは、A軸、B軸およびC軸のそれぞれの軸廻りにおいて上腕52Lの角度を制御できる。B軸は、上腕52Lの長手方向(または軸)に平行な軸であり、A軸およびC軸は、そのB軸に対して、それぞれ異なる方向から直交する軸である。   Upper arms 52R and 52L are provided on both shoulders of the upper body 36 by shoulder joints 50R and 50L, respectively. The shoulder joints 50R and 50L each have three axes of freedom. That is, the shoulder joint 50R can control the angle of the upper arm 52R around each of the X axis, the Y axis, and the Z axis. The Y axis is an axis parallel to the longitudinal direction (or axis) of the upper arm 52R, and the X axis and the Z axis are orthogonal to the Y axis from different directions. On the other hand, the shoulder joint 50L can control the angle of the upper arm 52L around each of the A axis, the B axis, and the C axis. The B axis is an axis parallel to the longitudinal direction (or axis) of the upper arm 52L, and the A axis and the C axis are axes orthogonal to the B axis from different directions.

また、上腕52Rおよび52Lのそれぞれの先端には、肘関節54Rおよび54Lを介して、前腕56Rおよび56Lが設けられる。肘関節54Rおよび54Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕56Rおよび56Lの角度を制御できる。   Further, forearms 56R and 56L are provided at the respective distal ends of the upper arms 52R and 52L via elbow joints 54R and 54L. The elbow joints 54R and 54L can control the angles of the forearms 56R and 56L around the axes of the W axis and the D axis, respectively.

なお、上腕52Rおよび52Lならびに前腕56Rおよび56Lの変位を制御するX軸,Y軸,Z軸,W軸およびA軸,B軸,C軸,D軸では、それぞれ、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、上腕52Rおよび52Lならびに前腕56Rおよび56Lは下方に向けられる。   In the X axis, Y axis, Z axis, W axis, A axis, B axis, C axis, and D axis that control the displacement of the upper arms 52R and 52L and the forearms 56R and 56L, "0 degree" is the home position, respectively. In this home position, as shown in FIG. 2, the upper arms 52R and 52L and the forearms 56R and 56L are directed downward.

また、図示は省略するが、上部胴体36の肩関節50Rおよび50Lを含む肩の部分や上述の上腕52Rおよび52Lならびに前腕56Rおよび56Lには、それぞれ、タッチセンサ(図3で包括的に示す。:58)が設けられていて、これらのタッチセンサ58は、人がロボット10の当該各部位に触れたかどうかを検知する。   Although not shown in the figure, the shoulder portion including the shoulder joints 50R and 50L of the upper body 36, the upper arms 52R and 52L, and the forearms 56R and 56L described above are each shown by touch sensors (shown comprehensively in FIG. 3). : 58), and these touch sensors 58 detect whether or not a person touches each part of the robot 10.

前腕56Rおよび56Lのそれぞれの先端には、手に相当する球体60Rおよび60Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。   Spheres 60R and 60L corresponding to hands are fixedly provided at the tips of the forearms 56R and 56L, respectively. However, if a finger or palm function is required, a “hand” in the shape of a human hand can be used.

上部胴体36の中央上方には、首関節62を介して頭部64が設けられる。首関節62は、3軸の自由度を有し、S軸、T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上(鉛直上向き)に向かう軸であり、T軸およびU軸は、それぞれ、そのS軸に対して異なる方向で直交する軸である。頭部64のS軸周りの関節角度を「θ」とする。頭部64には、人の口に相当する位置に、スピーカ66が設けられる。スピーカ66は、ロボット10が、それの周辺の人に対して音声ないし音によってコミュニケーションを取るために用いられる。ただし、スピーカ66は、ロボット10の他の部位、たとえば胴体などに設けられてもよい。   A head 64 is provided above the center of the upper body 36 via a neck joint 62. The neck joint 62 has a degree of freedom of three axes, and the angle can be controlled around each of the S axis, the T axis, and the U axis. The S-axis is an axis that extends from the neck directly upward (vertically upward), and the T-axis and the U-axis are axes that are orthogonal to the S-axis in different directions. The joint angle around the S axis of the head 64 is defined as “θ”. The head 64 is provided with a speaker 66 at a position corresponding to a human mouth. The speaker 66 is used for the robot 10 to communicate with people around it by voice or sound. However, the speaker 66 may be provided in another part of the robot 10, for example, the trunk.

また、頭部64には、目に相当する位置に眼球部68Rおよび68Lが設けられる。眼球部68Rおよび68Lは、それぞれ眼カメラ48Rおよび48Lを含む。以下、右の眼球部68Rと左の眼球部68Lとをまとめて眼球部68ということがあり、また、右の眼カメラ48Rと左の眼カメラ48Lとをまとめて眼カメラ48ということもある。   The head 64 is provided with eyeballs 68R and 68L at positions corresponding to the eyes. Eyeball portions 68R and 68L include eye cameras 48R and 48L, respectively. Hereinafter, the right eyeball portion 68R and the left eyeball portion 68L may be collectively referred to as the eyeball portion 68, and the right eye camera 48R and the left eye camera 48L may be collectively referred to as the eye camera 48.

眼カメラ48は、ロボット10に接近した人の顔や他の部分ないし物体等を撮影して、それに対応する映像信号を取り込む。眼カメラ48としては、上述した全方位カメラ42と同様のカメラを用いることができる。   The eye camera 48 captures a human face approaching the robot 10, other parts or objects, and captures a corresponding video signal. As the eye camera 48, a camera similar to the omnidirectional camera 42 described above can be used.

たとえば、眼カメラ48は眼球部68内に固定され、眼球部68は眼球支持部(図示せず)を介して頭部64内の所定位置に取り付けられる。眼球支持部は、2軸の自由度を有し、α軸およびβ軸の各軸廻りに角度制御可能である。α軸およびβ軸は頭部64に対して設けられる軸であり、α軸は頭部64の上へ向かう方向の軸であり、β軸はα軸に直交しかつ頭部64の正面側(顔)が向く方向に直交する方向の軸である。この実施例では、頭部64がホームポジションにあるとき、α軸はS軸と平行であり、β軸はU軸と平行であるように設定される。このような頭部64において、眼球支持部がα軸およびβ軸の各軸廻りに回転されることによって、眼球部68ないし眼カメラ48の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。   For example, the eye camera 48 is fixed in the eyeball part 68, and the eyeball part 68 is attached to a predetermined position in the head 64 via an eyeball support part (not shown). The eyeball support unit has two degrees of freedom and can be controlled in angle around each of the α axis and the β axis. The α axis and the β axis are axes provided with respect to the head 64, the α axis is an axis in a direction toward the top of the head 64, the β axis is orthogonal to the α axis and the front side of the head 64 ( It is an axis in a direction perpendicular to the direction in which the face is facing. In this embodiment, when the head 64 is at the home position, the α axis is set to be parallel to the S axis, and the β axis is set to be parallel to the U axis. In such a head 64, when the eyeball support portion is rotated around each of the α axis and the β axis, the tip (front) side of the eyeball portion 68 or the eye camera 48 is displaced, and the camera axis, that is, the line-of-sight direction is changed. Moved.

なお、眼カメラ48の変位を制御するα軸およびβ軸では、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、眼カメラ48のカメラ軸は頭部64の正面側(顔)が向く方向に向けられ、視線は正視状態となる。   In the α axis and β axis that control the displacement of the eye camera 48, “0 degree” is the home position. At this home position, the camera axis of the eye camera 48 is the head 64 as shown in FIG. The direction of the front side (face) is directed, and the line of sight is in the normal viewing state.

さらに、たとえば頭部64の横の右肩部には、無線タグ読取装置18のアンテナ70が設けられる。アンテナ70は無線タグ14から送信される識別情報が重畳された電磁波ないし電波を受信する。   Further, for example, an antenna 70 of the wireless tag reader 18 is provided on the right shoulder next to the head 64. The antenna 70 receives an electromagnetic wave or a radio wave on which identification information transmitted from the wireless tag 14 is superimposed.

図3はロボット10の電気的な構成を示すブロック図であり、この図3を参照して、ロボット10は、全体を制御するCPU72を含む。CPU72は、マイクロコンピュータ或いはプロセサとも呼ばれ、バス74を介して、メモリ76、モータ制御ボード78、センサ入力/出力ボード80および音声入力/出力ボード82に接続される。   FIG. 3 is a block diagram showing an electrical configuration of the robot 10. With reference to FIG. 3, the robot 10 includes a CPU 72 for controlling the whole. The CPU 72 is also called a microcomputer or a processor, and is connected to the memory 76, the motor control board 78, the sensor input / output board 80, and the audio input / output board 82 via the bus 74.

メモリ76は、図示は省略するが、ROMやRAMを含み、ROMにはロボット10の制御プログラムが予め記憶されるとともに、コミュニケーション行動を実行する際にスピーカ66から発生すべき音声または声の音声データ(音声合成データ)および所定の身振りを提示するための角度データ等も記憶される。RAMは、ワークメモリやバッファメモリとして用いられる。また、メモリ76には、無線タグ14の識別情報を取得して人間の行動履歴を記録するための記録プログラム、噂を作成するための作成プログラム、噂を伝達するための伝達プログラムおよび外部コンピュータ20と通信するための通信プログラム等が記録される。さらに、メモリ76にはまた、ロボットが存在する建物や会場の床、壁、天井を撮影した画像の画像データが各場所の名称(識別情報)に対応して記憶される。   Although not shown in the figure, the memory 76 includes a ROM and a RAM. The ROM 10 stores a control program for the robot 10 in advance, and voice or voice data to be generated from the speaker 66 when the communication action is executed. (Speech synthesis data) and angle data for presenting a predetermined gesture are also stored. The RAM is used as a work memory or a buffer memory. In addition, the memory 76 obtains identification information of the wireless tag 14 and records a human action history, a creation program for creating rumors, a transmission program for transmitting rumors, and the external computer 20. A communication program or the like for communicating with the computer is recorded. Furthermore, the memory 76 also stores image data of an image obtained by photographing the floor, wall, and ceiling of the building or venue where the robot exists, corresponding to the name (identification information) of each location.

モータ制御ボード78は、たとえばDSPで構成され、各腕や頭部および眼球部等の各軸モータの駆動を制御する。すなわち、モータ制御ボード78は、CPU72からの制御データを受け、右眼球部68Rのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ」と示す。)84の回転角度を制御する。同様に、モータ制御ボード78は、CPU72からの制御データを受け、左眼球部68Lのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ」と示す。)86の回転角度を制御する。つまり、後述の眼球の関節角度αrおよびαeは、CPU72が、眼球モータ68(68L,68R)すなわちモータ制御ボード78を制御することによって調整される。   The motor control board 78 is configured by a DSP, for example, and controls driving of each axis motor such as each arm, head, and eyeball. That is, the motor control board 78 receives the control data from the CPU 72 and controls two angles of the α axis and β axis of the right eyeball portion 68R (in FIG. 3, collectively referred to as “right eyeball motor”). .) Control the rotation angle of 84. Similarly, the motor control board 78 receives control data from the CPU 72, and controls two angles of the α axis and β axis of the left eyeball portion 68L (in FIG. 3, collectively referred to as “left eyeball motor”). Controls the rotation angle of 86. That is, joint angles αr and αe of the eyeball described later are adjusted by the CPU 72 controlling the eyeball motor 68 (68L, 68R), that is, the motor control board 78.

また、モータ制御ボード78は、CPU72からの制御データを受け、右肩関節50RのX軸、Y軸およびZ軸のそれぞれの角度を制御する3つのモータと右肘関節54RのW軸の角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ」と示す。)88の回転角度を調節する。同様に、モータ制御ボード78は、CPU72からの制御データを受け、左肩関節50LのA軸、B軸およびC軸のそれぞれの角度を制御する3つのモータと左肘関節54LのD軸の角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ」と示す。)90の回転角度を調整する。   The motor control board 78 receives the control data from the CPU 72, and controls the angles of the X axis, Y axis and Z axis of the right shoulder joint 50R and the W axis angle of the right elbow joint 54R. The rotation angles of a total of four motors (one collectively shown as “right arm motor” in FIG. 3) 88 including one motor to be controlled are adjusted. Similarly, the motor control board 78 receives the control data from the CPU 72 and determines the angles of the three motors for controlling the angles of the A-axis, B-axis and C-axis of the left shoulder joint 50L and the D-axis angle of the left elbow joint 54L. The rotation angle of a total of four motors (one collectively shown as “left arm motor” in FIG. 3) 90 with one motor to be controlled is adjusted.

さらに、モータ制御ボード78は、CPU72からの制御データを受け、頭部64のS軸、T軸およびU軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ」と示す。)92の回転角度を制御する。したがって、後述の首の関節角度θrおよびθeは、CPU72がこの頭部モータ92すなわちモータ制御ボード78を制御することによって調整される。さらにまた、モータ制御ボード78は、CPU72からの制御データを受け、腰モータ40および車輪24を駆動する2つのモータ(図3では、まとめて「車輪モータ」と示す。)26の回転角度を制御する。   Further, the motor control board 78 receives control data from the CPU 72, and controls three angles of the S-axis, T-axis, and U-axis of the head 64 (collectively "head motor" in FIG. 3). The rotation angle of 92 is controlled. Therefore, the neck joint angles θr and θe, which will be described later, are adjusted by the CPU 72 controlling the head motor 92, that is, the motor control board 78. Furthermore, the motor control board 78 receives the control data from the CPU 72 and controls the rotation angle of two motors 26 (hereinafter collectively referred to as “wheel motors”) 26 that drive the waist motor 40 and the wheels 24. To do.

なお、この実施例では、車輪モータ26を除くモータは、制御を簡素化するために、ステッピングモータ或いはパルスモータを用いるようにしてある。ただし、車輪モータ26と同様に、直流モータを用いるようにしてもよい。   In this embodiment, a motor other than the wheel motor 26 is a stepping motor or a pulse motor in order to simplify the control. However, as with the wheel motor 26, a DC motor may be used.

センサ入力/出力ボード80もまた、同様に、DSPで構成され、各センサからの信号を取り込んでCPU72に与える。すなわち、超音波距離センサ32のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード80を通してCPU72に入力される。また、全方位カメラ42からの映像信号が、必要に応じてこのセンサ入力/出力ボード80で所定の処理を施された後、CPU72に入力される。眼カメラ48からの映像信号も、同様にして、CPU72に入力される。また、上述した複数のタッチセンサ(図3では、まとめて「タッチセンサ58」と示す。)からの信号がセンサ入力/出力ボード80を介してCPU72に与えられる。さらに、上述した衝突センサ28からの信号も、同様にして、CPU72に与えられる。   Similarly, the sensor input / output board 80 is also constituted by a DSP, and takes in signals from each sensor and gives them to the CPU 72. That is, data relating to the reflection time from each of the ultrasonic distance sensors 32 is input to the CPU 72 through the sensor input / output board 80. Further, a video signal from the omnidirectional camera 42 is input to the CPU 72 after being subjected to predetermined processing by the sensor input / output board 80 as required. Similarly, the video signal from the eye camera 48 is also input to the CPU 72. Further, signals from the plurality of touch sensors described above (collectively indicated as “touch sensor 58” in FIG. 3) are provided to the CPU 72 via the sensor input / output board 80. Further, the signal from the collision sensor 28 described above is also given to the CPU 72 in the same manner.

音声入力/出力ボード82もまた、同様に、DSPで構成され、CPU72から与えられる音声合成データに従った音声または声がスピーカ66から出力される。すなわち、噂が音声または声としてスピーカ60から発せられる。また、マイク46からの音声入力が、音声入力/出力ボード82を介してCPU72に取り込まれる。   Similarly, the voice input / output board 82 is also configured by a DSP, and voice or voice in accordance with voice synthesis data provided from the CPU 72 is output from the speaker 66. That is, rumors are emitted from the speaker 60 as voice or voice. Also, the voice input from the microphone 46 is taken into the CPU 72 via the voice input / output board 82.

また、CPU72は、バス74を介して通信LANボード94および無線タグ読取装置18に接続される。通信LANボード94は、DSPで構成され、CPU72から送られる送信データを無線通信装置96に与え、無線通信装置96から送信データを、図示は省略するが、たとえば、無線LANのようなネットワークを介して外部コンピュータ20に送信させる。また、通信LANボード94は、無線通信装置96を介してデータを受信し、受信したデータをCPU72に与える。つまり、この通信LANボード94および無線通信装置96によって、ロボット10は外部コンピュータ20等と無線通信を行うことができる。   The CPU 72 is connected to the communication LAN board 94 and the wireless tag reader 18 via the bus 74. The communication LAN board 94 is configured by a DSP, gives transmission data sent from the CPU 72 to the wireless communication device 96, and transmits the transmission data from the wireless communication device 96 to the wireless communication device 96 via a network such as a wireless LAN, although not shown. To be transmitted to the external computer 20. The communication LAN board 94 receives data via the wireless communication device 96 and gives the received data to the CPU 72. That is, the communication LAN board 94 and the wireless communication device 96 allow the robot 10 to perform wireless communication with the external computer 20 or the like.

無線タグ読取装置18は、無線タグ14から送信される識別情報の重畳された電波を、アンテナ70を介して受信し、電波信号を増幅し、当該電波信号から識別情報を分離し、当該情報を復調(デコード)してCPU72に与える。ただし、RFIDの情報は、外部コンピュータでデコードして、CPU72に与えるようにしてもよい。   The wireless tag reader 18 receives the radio wave on which the identification information transmitted from the radio tag 14 is superimposed via the antenna 70, amplifies the radio signal, separates the identification information from the radio signal, Demodulate (decode) and give to CPU72. However, the RFID information may be decoded by an external computer and given to the CPU 72.

具体的には、図3に示したCPU72が図4に示すフロー図に従って全体処理を実行する。なお、図7では、簡単のため、ロボット10が人間(厳密には、RFID)を検出した後の処理を示してあるが、人間を検出する以前においては、ロボット10は組織の建物内やイベント会場を移動(巡回)したり、一定時間或る場所に留まったりしている。   Specifically, the CPU 72 shown in FIG. 3 executes the entire process according to the flowchart shown in FIG. In FIG. 7, for the sake of simplicity, the processing after the robot 10 detects a human (specifically, RFID) is shown. However, before the human 10 is detected, the robot 10 may be in an organization building or an event. They are moving (touring) the venue or staying at a certain place for a certain period of time.

この実施例においては、たとえば、表1に例示する視線による意図を演出する。   In this embodiment, for example, the intention by the line of sight exemplified in Table 1 is produced.

Figure 2007130691
Figure 2007130691

表1を参照して、たとえば最上行には、視線による演出の意図として、「探し物をしている/落ち着かない」を挙げている。この演出内容を実現するための「状況・人の位置」には、「正面/正面でない」と設定しているが、このことは、この演出のための相手がロボット10の正面にいてもよいし、正面から外れていてもよいことを意味している。また、演出のための「注視対象」は、「人/人でない」と設定しているが、このことは、注視対象が人間であっても、人間でなくてもよいことを意味している。また、「注視物の位置」としては「任意」と設定されている。このことは、注視物(人)の位置は遠くても近くても任意の位置にあってよいことを意味している。   Referring to Table 1, for example, the top line lists “I am looking for / I am not calm” as the intention of the production by the line of sight. The “situation / position of person” for realizing this effect is set as “front / not front”. This means that the opponent for this effect may be in front of the robot 10. This means that it may be off the front. In addition, “gazing target” for production is set as “person / not human”, which means that the gaze target may or may not be human. . Further, “arbitrary” is set as the “position of the gaze object”. This means that the position of the gaze object (person) may be at an arbitrary position, whether it is far or near.

さらに、「注視時間(f)」としては、「小」が設定されている。この「注視時間」とは、視線制御パラメータの1つで、どのぐらいの時間注視対象物(人)を見続ける(注視する)かを示すパラメータである。注視時間「小」とは、実施例では、たとえば1秒以下が想定され、「中」が2‐3秒、「大」が5秒以上と想定されている。   Furthermore, “small” is set as the “gaze time (f)”. This “gaze time” is one of the line-of-sight control parameters, and is a parameter indicating how long the gaze target (person) is to be continuously watched (gazed). In the embodiment, the gaze time “small” is assumed to be, for example, 1 second or less, “medium” is assumed to be 2-3 seconds, and “large” is assumed to be 5 seconds or more.

「動作の主(A1)」としては、「首」が設定されている。この「動作の主」とは、その注視対象を注視するための視線の移動(動き)を首と目のどちらの動きで行うかを示す制御パラメータである。つまり、このパラメータA1は、視線の移動のためには、目に加えて首がどの程度寄与すべきかを示す寄与率であり、0−1の範囲の数値として設定される。たとえば、動作の主が「首」のときは、パラメータA1としてたとえば「0.7以上」が設定され、視線の動きの殆どが首の回転で達成されるように設定される。動作の主が「目」のときは、パラメータA1としてたとえば「0.3以下」が設定され、視線の動きの殆どが目の回転で達成されるように設定される。これらに対し、たとえば表1の演出の内容のうち「考え事をしている/注視物について考えている」、「睨んでいる」、「対象物に興味があるが、周りの目を気にしている」、「そのままコミュニケーションを続ける」などのように、動作の主が「首/目」のときは、寄与率(パラメータ)A1としてたとえば「0.4‐0.6」が設定され、視線の動きが首と目の両方の回転で達成されるように設定される。   “Neck” is set as “main operation (A1)”. This “main operation” is a control parameter indicating whether the movement (movement) of the line of sight for gazing at the gaze target is performed by the movement of the neck or the eye. That is, the parameter A1 is a contribution rate indicating how much the neck should contribute in addition to the eyes for the movement of the line of sight, and is set as a numerical value in the range of 0-1. For example, when the main operation is “neck”, for example, “0.7 or more” is set as the parameter A1, so that most of the movement of the line of sight is achieved by the rotation of the neck. When the main operation is “eyes”, for example, “0.3 or less” is set as the parameter A1, and most of the movement of the line of sight is achieved by rotation of the eyes. On the other hand, for example, in the contents of the production in Table 1, “I am thinking / I am thinking about the object to be watched”, “I am jealous”, “I am interested in the object, For example, “0.4-0.6” is set as the contribution ratio (parameter) A1 when the main operation is “neck / eye”, such as “Continue to communicate”. Set so that movement is achieved with both neck and eye rotation.

このように、視線移動に対する「首」および「目」の寄与率を適宜設定するようにした点で、この実施例の視線による意図の演出の方法は従来と大きく異なる。   As described above, the method of producing the intention by the line of sight in this embodiment is greatly different from the conventional method in that the contribution ratios of the “neck” and “eye” to the line of sight movement are appropriately set.

制御パラメータの3番目のものは、「逃避頻度(e)」である。このパラメータ「逃避頻度」とは、上述のように対象物または対象人物を注視している(見続けている)ときに、その視線を外して別のところを見ることを「逃避」といい、その「逃避」が注視時間のなかでどの程度の頻度で行われるのかを示すパラメータを「逃避頻度」と呼ぶ。この「逃避頻度」も「大」,「中」,「小」で設定されるが、「小」の場合には逃避頻度(e)が1(e=1)と設定するようにしてもよい。また、「大」の場合だと、注視時間がたとえば5秒だとすると逃避頻度をたとえば「8」程度に設定する。   The third control parameter is “escape frequency (e)”. This parameter “escape frequency” is referred to as “escape”, when looking at an object or a person as described above (to keep watching), looking away and looking elsewhere. A parameter indicating how often the “escape” is performed during the gaze time is called “escape frequency”. The “escape frequency” is also set as “large”, “medium”, and “small”, but in the case of “small”, the escape frequency (e) may be set to 1 (e = 1). . In the case of “Large”, if the gaze time is, for example, 5 seconds, the escape frequency is set to, for example, about “8”.

なお、この実施例では、注視対象を注視しているときにも視線をそらせる(逃避する)場合があるが、この「逃避」の際にも上記した首および目の寄与率を考慮して視線を動かすようにしてもよい。そのためにこの実施例では、視線逃避の際の寄与率を「A2」として設定するこことした。ただし、このパラメータA2は先のパラメータA1と同じでも違ってもよい。   In this embodiment, there is a case where the line of sight is deflected (escapes) even when the gaze target is being observed. You may make it move. Therefore, in this embodiment, the contribution rate at the time of sight escape is set as “A2”. However, this parameter A2 may be the same as or different from the previous parameter A1.

表1には最後の欄に「逃避対象」を記入しているが、この逃避対象とは、上述のように視線逃避させるときに視線を向ける方向や対象のことであり、「拘束なし」とはどこへ視線を外してもよいという意味である。この実施例では、たとえば眼カメラ48や全方位カメラ42の撮影画像を処理し、その画像中の「特異な色」の部分または位置(人物や物)へ視線を向けるようにしている。ただし、他の方法で視線逃避先を決定するようにしてもよい。   In Table 1, “escape object” is entered in the last column, but this escape object is the direction or object in which the line of sight is directed as described above. Means that the line of sight can be removed anywhere. In this embodiment, for example, a photographed image of the eye camera 48 or the omnidirectional camera 42 is processed, and a line of sight is directed to a “unique color” portion or position (person or object) in the image. However, the line-of-sight escape destination may be determined by other methods.

このような表1を前提にして、以下、図4および図5のフロー図とともに、この実施例の動作を説明する。   Based on Table 1 as described above, the operation of this embodiment will be described below with reference to the flowcharts of FIGS.

図4の最初のステップS1では、ロボット10は、がその視線の意図を表出するべき人がロボットに対してどこにいるのかを検出する。たとえば、CPU72は無線タグ読取装置18からのデータを見て、対象人物が近くに来たことを知り、たとえば眼カメラ48からの画像を処理することによって、その対象人物がロボット10に対してどこにいるのか、たとえば正面にいるのか、そうでないのかなどを検出する。   In the first step S1 in FIG. 4, the robot 10 detects where the person who should express the intention of the line of sight is located with respect to the robot. For example, the CPU 72 looks at the data from the wireless tag reader 18 and knows that the target person has come close. For example, by processing an image from the eye camera 48, where the target person is with respect to the robot 10. For example, whether it is in front or not.

ただし、このような対象の特定や対象者の位置の特定のためには、別の手段、たとえば赤外線タグや、あるいは床センサ(床面にたとえば圧力センサを分散配置しておき、一定の分解能で人間がどこに存在するか、さらには爪先がどちらに向いているかなどを検知できるセンサシステム)を利用することもできる。   However, in order to specify the target or the position of the target person, another means, for example, an infrared tag, or a floor sensor (for example, pressure sensors are distributed and arranged on the floor surface with a certain resolution). It is also possible to use a sensor system that can detect where a person is and where the toes are facing.

ステップS3では、どのような視線の意図を演出したいのか、表1から選択する。   In step S3, what kind of gaze intention is desired to be produced is selected from Table 1.

さらに、ステップS5で、表1に従って、注視対象を選ぶ。そして、その表1に基づいて、視線制御パラメータ、すなわち、寄与率A1(T),注視時間f(T),逃避頻度e(T)さらに必要なら寄与率A2(T)をそれぞれ設定する。それとともに、次に注視対象を変更すべき時刻t_f(T+1)を設定する。ただし、この注視対象変更時刻t_f(T+1)は数1に従って設定すればよい。また、このステップS5において、逃避タイミングの判定に用いる変数Nを「1」に設定する(N=1)。ただし、このN、表1の逃避頻度(e)の値そのままでもよい。
(数1)
t_f(T+1)=t_f(T)+f(T)
ただし、t_f(T)は、前回設定した、今回の変更予定時刻であり、f(T)は、上述のように、今回の注視時間である。
Further, in step S5, a gaze target is selected according to Table 1. Based on Table 1, the line-of-sight control parameters, that is, the contribution rate A1 (T), the gaze time f (T), the escape frequency e (T), and if necessary, the contribution rate A2 (T) are set. At the same time, a time t_f (T + 1) at which the gaze target is to be changed next is set. However, the gaze target change time t_f (T + 1) may be set according to Equation 1. In step S5, a variable N used for determination of escape timing is set to “1” (N = 1). However, the value of N and the escape frequency (e) in Table 1 may be used as they are.
(Equation 1)
t_f (T + 1) = t_f (T) + f (T)
However, t_f (T) is the current scheduled change time set last time, and f (T) is the current gaze time as described above.

そして、次のステップS7において、CPU72は、ロボットの10の顔の正面方向に対する注視対象の角度γ(T)を計算する。首のたとえば図6を参照して、ロボット10の前方に対象者A氏が存在するとした場合、この角度γは、図6に示すように、ロボットの顔の正面からのその対象人物A氏の存在位置のずれ角をいうものとする。   In the next step S7, the CPU 72 calculates an angle γ (T) of the gaze target with respect to the front direction of the robot's 10 face. For example, referring to FIG. 6 on the neck, if it is assumed that the subject person A exists in front of the robot 10, the angle γ is determined by the subject person A from the front of the robot face as shown in FIG. The displacement angle of the existing position shall be said.

その後、ステップS9において、CPU72は、注視対象(たとえばA氏)に対して、
寄与率A1(T)に基づいて、注視対象を注視するための首の目標関節角度θr(T+1)および眼球の目標関節角度αr(T+1)を数2および数3に従って計算する。ただし、数2の例においては、角度γd1は、そのとき対象人物を注視するためにロボットの視線を動かす量(移動角)を示し、図6の例でロボットの正面に対象人物を配置する必要があるときは、その視線移動角度はγとなる。
(数2)
θr(T+1)=θr(T)+A1(T)γd1(T)
(数3)
αr(T+1)=αr(T)+(1−A1(T))γd1(T)
そして、同じステップS9で、CPU72は必要な制御データをモータ制御ボード78へ送り、上で計算した首関節角度θr(T+1)および眼球関節角度α(T+1)になるように、頭部モータ92および眼球モータ84および86を制御する。つまり、首の関節角度θをθr(T+1)とするとともに、眼球の関節角度αをαr(T+1)にするように、モータ制御ボード78に必要な制御データを出力する。
Thereafter, in step S9, the CPU 72 performs the following on the gaze target (for example, Mr. A).
Based on the contribution rate A1 (T), the target joint angle θr (T + 1) of the neck and the target joint angle αr (T + 1) of the eyeball for gazing at the gaze target are calculated according to Equations 2 and 3. However, in the example of Equation 2, the angle γd1 indicates the amount (movement angle) by which the robot's line of sight is moved to gaze at the target person at that time, and it is necessary to place the target person in front of the robot in the example of FIG. When there is, the line-of-sight movement angle is γ.
(Equation 2)
θr (T + 1) = θr (T) + A1 (T) γd1 (T)
(Equation 3)
αr (T + 1) = αr (T) + (1-A1 (T)) γd1 (T)
Then, in the same step S9, the CPU 72 sends necessary control data to the motor control board 78, and the head motor 92 and the eyeball joint angle α (T + 1) and the head joint angle θ (T + 1) calculated above are obtained. The eyeball motors 84 and 86 are controlled. That is, necessary control data is output to the motor control board 78 so that the neck joint angle θ is θr (T + 1) and the eyeball joint angle α is αr (T + 1).

なお、数3において、眼球の移動角度αを計算する際に、全移動角度γd1に対して係数(1−A1)を乗算しているのは、その全移動角度γd1を首(頭部)の移動角度と眼球の移動角度とを寄与率A1で按分するためである。つまり、首関節角度θrの計算で寄与率A1をそのまま使用したので、眼球関節角度αrの計算には(1−A1)を用いる。   In equation (3), when calculating the movement angle α of the eyeball, the total movement angle γd1 is multiplied by a coefficient (1-A1) because the total movement angle γd1 is multiplied by the neck (head). This is because the movement angle and the movement angle of the eyeball are apportioned by the contribution rate A1. That is, since the contribution ratio A1 is used as it is in the calculation of the neck joint angle θr, (1-A1) is used in the calculation of the eyeball joint angle αr.

このようにして、ロボットの10の視線が注視対象に移動されて注視が開始されると、CPU72は次のステップS11において、眼カメラ48および/または全方位カメラ42の画像信号を処理することによって、逃避対象を決定し、その位置を計算する。たとえば、表1に従った逃避先の条件が「拘束なし」であるときには、画像信号を処理することによってたとえば上述の「特異な色」の部分または位置(人物や物)を逃避先として決定する。ただし、逃避先の条件が「正面の人」であるときには、同じくカメラ画像から、ロボットの正面に存在する他の人物を逃避先として決定すればよい。ただし、前述したように、別の方法で逃避先を決定するようにしてもよいことは勿論である。   In this way, when the gaze of the robot 10 is moved to the gaze target and gaze is started, the CPU 72 processes the image signals of the eye camera 48 and / or the omnidirectional camera 42 in the next step S11. Determine the escape target and calculate its location. For example, when the escape destination condition according to Table 1 is “no constraint”, the image signal is processed to determine, for example, the above-mentioned “unique color” portion or position (person or object) as the escape destination. . However, when the escape destination condition is “a person in front”, another person existing in front of the robot may be determined as an escape destination from the camera image. However, as described above, it is a matter of course that the escape destination may be determined by another method.

そして、ステップS13において、CPU72は、ステップS11で決定した逃避先へ視線を移動させるべく、首(頭部)の目標関節角度θe(T+1)および眼球の目標関節角度αe(t+1)を数4および数5に従って計算する。この場合、注視対象からの逃避であるため、角度の基準としては今回の目標関節角度θr(T+1)およびαr(T+1)である。
(数4)
θe(T+1)=θr(T+1)+A2(T)γd2(T)
(数5)
αe(T+1)=αr(T)+(1−A2(T))γd2(T)
ただし、A2は逃避移動の際の首の寄与率であり、γd2はステップS11で決定した逃避先への全移動角度である。
Then, in step S13, the CPU 72 calculates the target joint angle θe (T + 1) of the neck (head) and the target joint angle αe (t + 1) of the eyeball to move the line of sight to the escape destination determined in step S11. Calculate according to Equation 5. In this case, since it is escape from the gaze target, the current target joint angles θr (T + 1) and αr (T + 1) are used as reference angles.
(Equation 4)
θe (T + 1) = θr (T + 1) + A2 (T) γd2 (T)
(Equation 5)
αe (T + 1) = αr (T) + (1-A2 (T)) γd2 (T)
However, A2 is the contribution ratio of the neck at the time of escape movement, and γd2 is the total movement angle to the escape destination determined at step S11.

その後、図5のステップS15に進む。ステップS15では、現在時刻tが次に注視対象を変更すべき時刻t_f(T+1)に達したかどうか判断する。“YES”なら、ステップS17でT=T+1として時間を更新した後、最初のステップS1に戻る。   Thereafter, the process proceeds to step S15 in FIG. In step S15, it is determined whether or not the current time t has reached a time t_f (T + 1) at which the gaze target should be changed next. If “YES”, the time is updated as T = T + 1 in step S17, and then the process returns to the first step S1.

ステップS15で“NO”の判断がなされたときには、続くステップS19において、CPU72は、次の逃避タイミングになったかどうか判断する。   If “NO” is determined in the step S15, in the subsequent step S19, the CPU 72 determines whether or not the next escape timing is reached.

逃避タイミングの計算は数6による。つまり、今回の注視対象変更時刻t_f(T)と注視時間t(T)を逃避頻度e(T)で割りN倍した時間を、今回の注視対象変更時刻t_f(T)に加えた時刻が、逃避タイミングの時刻である。
(数6)
t>t_f(T)+f(T)/e(T)*N
そして、ステップS19で“NO”が判断されたときには、ステップS15に戻るが、“YES”が判断されたときには、次のステップS21において、CPU72は、首の関節角度が目標関節角度θr(T+1)でかつ眼球の目標関節角度がαr(T+1)になったかどうか判断する。つまり、ステップS9で実行した、注視対象への視線の移動が完了したかどうか判断する。
The escape timing is calculated according to Equation 6. That is, the time obtained by dividing the current gaze target change time t_f (T) and the gaze time t (T) by the escape frequency e (T) and multiplying it by N is added to the current gaze target change time t_f (T). It is the time of escape timing.
(Equation 6)
t> t_f (T) + f (T) / e (T) * N
If “NO” is determined in the step S19, the process returns to the step S15. However, if “YES” is determined, in the next step S21, the CPU 72 determines that the neck joint angle is the target joint angle θr (T + 1). And whether or not the target joint angle of the eyeball is αr (T + 1). That is, it is determined whether or not the movement of the line of sight to the gaze target executed in step S9 is completed.

ステップS21において“YES”が判断されたときは、CPU72は続いて逃避先への視線移動のためにステップS23を実行する。つまり、首の関節角度θをθe(T+1)とするとともに、眼球の関節角度αをαe(T+1)にするように、モータ制御ボード78に必要な制御データを出力する。そして、ステップS21で“NO”なら、ステップS25で、今回の注視のための視線移動を続行する。そして、ステップS23またはステップS25の後、ステップS27で逃避タイミング判定のための変数Nをインクリメント(N=N+1)した後、ステップS15に戻る。   If “YES” is determined in the step S21, the CPU 72 subsequently executes a step S23 for moving the line of sight to the escape destination. That is, necessary control data is output to the motor control board 78 so that the neck joint angle θ is θe (T + 1) and the eyeball joint angle α is αe (T + 1). If “NO” in the step S21, the line-of-sight movement for the current gaze is continued in a step S25. After step S23 or step S25, the variable N for escape timing determination is incremented (N = N + 1) in step S27, and the process returns to step S15.

そして、ステップS15では、逃避頻度の変数Nが表1に基づいて設定した逃避頻度(e)の値になったかどうか、すなわち、現在時刻tがt>t_f(T+1)になったかどうか判定し、現在時刻tがt>t_f(T+1)となるまで、f(T)/e(T)秒に1回、目標関節角度θr(T+1),αr(T+1)と、逃避先を注視するための関節角度θe(T),αe(T)とを交互に実現する。   In step S15, it is determined whether the escape frequency variable N has reached the value of the escape frequency (e) set based on Table 1, that is, whether the current time t is t> t_f (T + 1). The joint for gazing at the target joint angles θr (T + 1), αr (T + 1) and the escape destination once every f (T) / e (T) seconds until the current time t becomes t> t_f (T + 1). The angles θe (T) and αe (T) are realized alternately.

なお、表1に列挙した「演出の内容」は単なる一例であり、必要に応じて任意の視線による意図の演出方法が考えられることは勿論である。   It should be noted that the “contents of effects” listed in Table 1 is merely an example, and it is a matter of course that an intended effect method using an arbitrary line of sight can be considered as necessary.

たとえば、上の実施例では、首すなわち頭部と眼球とがともに鉛直軸周りに回転または回動できるロボットについて説明したが、この頭部および眼球の回転または回動軸は水平軸であっても同じようにこの発明を適用できる。さらに、鉛直軸および水平軸を同時に制御する場合にも同様に適用可能である。   For example, in the above embodiment, a robot has been described in which both the neck, that is, the head and the eyeball can rotate or rotate about the vertical axis, but the rotation or rotation axis of the head and eyeball may be a horizontal axis. The present invention can be similarly applied. Furthermore, the present invention can be similarly applied to the case where the vertical axis and the horizontal axis are simultaneously controlled.

また、表1に関連して述べた視線制御パラメータf(T),A1(T),e(T)などの具体的数値もまた単なる例示に過ぎず、適宜変更され得るものである。   Further, specific numerical values such as the line-of-sight control parameters f (T), A1 (T), e (T) described in relation to Table 1 are also merely examples, and can be changed as appropriate.

上述の実施例では、無線タグを用いて人間を識別するようにしたが、これに限定される必要はない。たとえば、予め人間の顔画像をデータベース(顔画像データベース)に記憶しておき、ロボットが遭遇した(出会った)人間の顔画像を撮影して、顔画像データベースと照合することにより、当該人間を特定することもできる。ただし、かかる画像処理は膨大であるため、各人間に異なるマーク(記号、模様、図形、数値など)を付した衣服を着させておき、当該マークを撮影して、ロボットが遭遇した人間を特定するようにしてもよい。   In the above-described embodiment, a person is identified using a wireless tag, but the present invention is not limited to this. For example, a human face image is stored in a database (face image database) in advance, and the human face image that the robot has encountered (encountered) is photographed and collated with the face image database to identify the person. You can also However, since such image processing is enormous, each person is put on clothes with different marks (symbols, patterns, figures, numerical values, etc.), and the person who the robot encounters is identified by shooting the marks. You may make it do.

図1はこの発明の一実施例のコミュニケーションロボットおよび当該コミュニケーションロボットが存在する現実空間の様子を示す図解図である。FIG. 1 is an illustrative view showing a communication robot according to an embodiment of the present invention and a state of a real space where the communication robot exists. 図2は図1に示すコミュニケーションロボットの外観を正面から見た図解図である。FIG. 2 is an illustrative view showing the appearance of the communication robot shown in FIG. 1 from the front. 図3は図1に示すコミュニケーションロボットの電気的な構成を示すブロック図である。FIG. 3 is a block diagram showing an electrical configuration of the communication robot shown in FIG. 図4は図3に示すCPUの全体処理動作の一部を示すフロー図である。FIG. 4 is a flowchart showing a part of the entire processing operation of the CPU shown in FIG. 図5はCPUの全体処理動作の図4に後続する残りの部分を示すフロー図である。FIG. 5 is a flowchart showing the remaining part of the overall processing operation of the CPU subsequent to FIG. 図6は実施例におけるロボットと注視対象との角度を例示する図解図である。FIG. 6 is an illustrative view showing an angle between the robot and the gaze target in the embodiment.

符号の説明Explanation of symbols

10 …コミュニケーションロボット
14 …無線タグ
18 …無線タグ読取装置
42 …全方位カメラ
48 …眼カメラ
72 …CPU
DESCRIPTION OF SYMBOLS 10 ... Communication robot 14 ... Wireless tag 18 ... Wireless tag reader 42 ... Omnidirectional camera 48 ... Eye camera 72 ... CPU

Claims (3)

所定軸周りに回転できる首を介して設けられる頭部と、前記頭部に設けられ前記所定軸周りに回転できる眼球とを有し、前記眼球による視線を用いて意図を演出するようにしたコミュニケーションロボットであって、
前記視線の移動に対する前記首および前記眼球の寄与率を設定する寄与率設定手段、および
前記視線を移動するとき、寄与率に従って計算した前記首の関節角度および前記眼球の関節角度に基づいて前記首および前記眼球を制御する制御手段を備える、コミュニケーションロボット。
A communication having a head provided via a neck that can rotate around a predetermined axis and an eyeball that is provided on the head and that can rotate around the predetermined axis, and that produces an intention using a line of sight of the eyeball A robot,
A contribution rate setting means for setting a contribution rate of the neck and the eyeball to the movement of the line of sight, and the neck based on the joint angle of the neck and the joint angle of the eyeball calculated according to the contribution rate when moving the line of sight And a communication robot comprising control means for controlling the eyeball.
前記注視対象を注視する注視時間を設定する時間設定手段、および
前記注視時間だけ前記視線を前記注視対象にとどめる注視時間制御手段をさらに備える、請求項1記載のコミュニケーションロボット。
The communication robot according to claim 1, further comprising: time setting means for setting a gaze time for gaze at the gaze object; and gaze time control means for keeping the line of sight at the gaze object for the gaze time.
前記注視時間内において前記視線を前記注視対象から逃避させる逃避頻度を設定する逃避頻度設定手段、および
前記逃避頻度に従って前記視線を前記注視対象から逃避させる逃避制御手段をさらに備える、請求項2記載のコミュニケーションロボット。
The escape frequency setting means for setting an escape frequency for escaping the line of sight from the gaze target within the gaze time, and an escape control means for escaping the line of sight from the gaze object according to the escape frequency. Communication robot.
JP2005323026A 2005-11-08 2005-11-08 Communication robot Withdrawn JP2007130691A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005323026A JP2007130691A (en) 2005-11-08 2005-11-08 Communication robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005323026A JP2007130691A (en) 2005-11-08 2005-11-08 Communication robot

Publications (1)

Publication Number Publication Date
JP2007130691A true JP2007130691A (en) 2007-05-31

Family

ID=38152767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005323026A Withdrawn JP2007130691A (en) 2005-11-08 2005-11-08 Communication robot

Country Status (1)

Country Link
JP (1) JP2007130691A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013193149A (en) * 2012-03-16 2013-09-30 Fujitsu Ltd Robot control device, robot system, robot control method and robot control program
CN103471658A (en) * 2013-09-27 2013-12-25 中国兵器工业计算机应用技术研究所 Autonomic unmanned perception system, automatic moving perception terminal and working method of autonomic unmanned perception system and automatic moving perception terminal
CN106002911A (en) * 2016-04-28 2016-10-12 上海钛米机器人科技有限公司 Mobile robot universal chassis
CN107160372A (en) * 2017-07-16 2017-09-15 宁波天业精密铸造有限公司 Biomimetic manipulator
CN108733215A (en) * 2018-05-17 2018-11-02 华南农业大学 One kind personalizes virtual assistant's direction of gaze control method
CN110091345A (en) * 2018-01-31 2019-08-06 丰田自动车株式会社 It interacts robot and it controls program
CN111136650A (en) * 2018-11-02 2020-05-12 深圳市优必选科技有限公司 Robot and visual tracking method thereof and computer readable storage medium

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013193149A (en) * 2012-03-16 2013-09-30 Fujitsu Ltd Robot control device, robot system, robot control method and robot control program
CN103471658A (en) * 2013-09-27 2013-12-25 中国兵器工业计算机应用技术研究所 Autonomic unmanned perception system, automatic moving perception terminal and working method of autonomic unmanned perception system and automatic moving perception terminal
CN106002911A (en) * 2016-04-28 2016-10-12 上海钛米机器人科技有限公司 Mobile robot universal chassis
CN107160372A (en) * 2017-07-16 2017-09-15 宁波天业精密铸造有限公司 Biomimetic manipulator
CN107160372B (en) * 2017-07-16 2023-06-23 宁波天业精密铸造有限公司 Bionic mechanical arm
CN110091345A (en) * 2018-01-31 2019-08-06 丰田自动车株式会社 It interacts robot and it controls program
EP3520970A2 (en) 2018-01-31 2019-08-07 Toyota Jidosha Kabushiki Kaisha Communication robot and control program therefor
EP3599065A1 (en) 2018-01-31 2020-01-29 Toyota Jidosha Kabushiki Kaisha Communication robot and control program therefor
CN108733215A (en) * 2018-05-17 2018-11-02 华南农业大学 One kind personalizes virtual assistant's direction of gaze control method
CN111136650A (en) * 2018-11-02 2020-05-12 深圳市优必选科技有限公司 Robot and visual tracking method thereof and computer readable storage medium

Similar Documents

Publication Publication Date Title
JP5429462B2 (en) Communication robot
JP4822319B2 (en) Communication robot and attention control system using the same
JP5186723B2 (en) Communication robot system and communication robot gaze control method
US9079313B2 (en) Natural human to robot remote control
JP4849244B2 (en) Mobile robot and moving speed estimation method
JP4599522B2 (en) Communication robot
WO2015180497A1 (en) Motion collection and feedback method and system based on stereoscopic vision
JP4949969B2 (en) Communication robot and its operation method
JP5617562B2 (en) Mobile robot
JP7355006B2 (en) Information processing device, information processing method, and recording medium
JP2007130691A (en) Communication robot
US20110244959A1 (en) Image generation system, image generation method, and information storage medium
US11907423B2 (en) Systems and methods for contextualized interactions with an environment
JP2004216513A (en) Communication robot
JP6150429B2 (en) Robot control system, robot, output control program, and output control method
JP6134895B2 (en) Robot control system, robot control program, and explanation robot
JP2009151419A (en) Method and apparatus for specifying target
JP2008018529A (en) Communication robot
JPWO2019087495A1 (en) Information processing equipment, information processing methods, and programs
KR20140009900A (en) Apparatus and method for controlling robot
JP4617428B2 (en) Motion generation system
JP2007160427A (en) Robot control system
JP2006205343A (en) Communication robot system, and robot control device
JP2006231497A (en) Communication robot
JP2004042151A (en) Communication robot

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090203