JP2008018529A - Communication robot - Google Patents

Communication robot Download PDF

Info

Publication number
JP2008018529A
JP2008018529A JP2007223709A JP2007223709A JP2008018529A JP 2008018529 A JP2008018529 A JP 2008018529A JP 2007223709 A JP2007223709 A JP 2007223709A JP 2007223709 A JP2007223709 A JP 2007223709A JP 2008018529 A JP2008018529 A JP 2008018529A
Authority
JP
Japan
Prior art keywords
head
eyeball
axis
robot
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007223709A
Other languages
Japanese (ja)
Other versions
JP4565196B2 (en
Inventor
Takayuki Kanda
崇行 神田
Michita Imai
倫太 今井
Tetsuo Ono
哲雄 小野
Hiroshi Ishiguro
浩 石黒
Kenji Mase
健二 間瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2007223709A priority Critical patent/JP4565196B2/en
Publication of JP2008018529A publication Critical patent/JP2008018529A/en
Application granted granted Critical
Publication of JP4565196B2 publication Critical patent/JP4565196B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a communication robot which communicates with a person without giving a sense of incongruity. <P>SOLUTION: The robot communication robot 10 includes eyeball portions 76R, 76L, and eye cameras 46R, 46L are arranged in the eyeball portions 76R, 76L respectively. An object position such as the person or a specific object in an image obtained from the eye cameras 46R, 46L is detected, and the eyeball portions 76R, 76L are displaced so as to face toward the direction of the object. Thus, the communication robot 10 changes the posture to make eye contact with the person or steadily gaze at the direction of the object. In addition, the eyeball portions 76R, 76L are displaced with the movement of a head portion 42, such as turning the line of the sight in the direction of the movement of the head portion 42 when the head portion 42 moves. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明はコミュニケーションロボットに関し、特にたとえば、コミュニケーションを図る機能を備えたものであって、人の目ないし眼球に相当する部分すなわち眼球部を備えるコミュニケーションロボットに関する。   The present invention relates to a communication robot, and more particularly, to a communication robot having a function for communication and having a portion corresponding to a human eye or an eyeball, that is, an eyeball portion.

従来のロボットには、眼球部をたとえば左右に動かしたり回したりするなど、一定の意図を伝達するために眼球運動をさせるものがあった。   Some conventional robots cause eye movements to transmit a certain intention, for example, by moving the eyeball part to the left or right or turning it.

しかしながら、従来技術では、単一の目的指向の眼球運動を機械的に行っているに過ぎず、生命感を創り出せなかった。したがって、コミュニケーションを図ろうとする人が違和感を覚えてしまって、コミュニケートしている感覚が阻害されてしまうおそれがあった。   However, in the prior art, only a single object-oriented eye movement is mechanically performed, and a life feeling cannot be created. Therefore, the person who is trying to communicate may feel uncomfortable, and the feeling of communicating may be hindered.

それゆえに、この発明の主たる目的は、違和感無くコミュニケーションを図ることができる、コミュニケーションロボットを提供することである。   Therefore, a main object of the present invention is to provide a communication robot that can communicate without a sense of incongruity.

この発明は、コミュニケーションを図る機能を備えたコミュニケーションロボットであって、眼球部、対象とする物体を検出する物体検出手段、および物体の方向に向くように眼球部を変位させる眼球部変位手段を備える、コミュニケーションロボットである。   The present invention is a communication robot having a communication function, and includes an eyeball part, an object detection means for detecting a target object, and an eyeball part displacement means for displacing the eyeball part so as to face the direction of the object. , A communication robot.

眼を表すものと外観上認められる眼球部がたとえば目に相当する位置に設けられる。対象とする物体は物体検出手段によって検出される。たとえば、コミュニケーションロボットの適宜な箇所にはカメラが設けられており、第1検出手段は、カメラから取得した画像に基づいて画像中の物体を検出し、たとえばその位置や方位等を算出する。物体としては、たとえば人の顔や特定の物等が設定され得る。また、コミュニケーションロボットの任意の箇所に複数のタッチセンサが設けられる場合には、第2検出手段は、たとえば人によって触れられることによってオン状態となったタッチセンサを物体として検出する。そして、眼球部は、検出された物体の方向に向くように眼球部変位手段によって変位される。つまり、人の顔,特定の物体あるいは触れられた箇所等の方向に視線が向けられる。したがって、コミュニケーションロボットは、たとえば人と対話する場合などに、人と視線を合わせたり、あるいは話題とする特定の物体方向や触れられた部分を注視したりする格好となる。   An eyeball portion that is recognized as an eye appearance and an appearance is provided at a position corresponding to the eye, for example. The target object is detected by the object detection means. For example, a camera is provided at an appropriate location of the communication robot, and the first detection unit detects an object in the image based on the image acquired from the camera, and calculates, for example, the position and orientation thereof. As the object, for example, a human face or a specific object can be set. In addition, when a plurality of touch sensors are provided at an arbitrary location of the communication robot, the second detection unit detects, for example, a touch sensor that is turned on when touched by a person as an object. Then, the eyeball part is displaced by the eyeball part displacing means so as to face the direction of the detected object. That is, the line of sight is directed toward the face of a person, a specific object, or a touched part. Therefore, for example, when communicating with a person, the communication robot is adapted to match the line of sight with the person, or to look at a specific object direction or a touched part as a topic.

また、頭部を含んで構成される場合には、眼球部はこの頭部に設けられる。頭部は、頭に相当する部分であるため、たとえば胴体に首関節を介して取り付けられ、頭部変位手段によって変位される。頭部は、たとえば頭部の正面側すなわち顔が物体の方向に向くように変位され得る。また、眼球部は、眼球部変位手段によって、頭部の動きに関連して変位され得る。具体的には、たとえば頭部の運動速度に比例する角度データが算出され、この角度データに基づいて眼球部が変位されることによって、頭部が向こうとする方向に視線が向けられる。このように、眼球部は頭部が動作しているときその動きに応じた自然な眼球運動をすることができる。   Moreover, when comprised including a head, an eyeball part is provided in this head. Since the head is a part corresponding to the head, it is attached to the trunk via a neck joint, for example, and is displaced by the head displacement means. The head can be displaced so that, for example, the front side of the head, that is, the face faces the direction of the object. Further, the eyeball part can be displaced in relation to the movement of the head by the eyeball part displacing means. Specifically, for example, angle data proportional to the movement speed of the head is calculated, and the eyeball is displaced based on the angle data, so that the line of sight is directed in the direction in which the head is going. Thus, the eyeball part can perform natural eyeball movement according to the movement of the head when the head is moving.

この発明によれば、人と視線を合わせたり、物体方向を注視したりすることができる。つまり、自然な目の動きでコミュニケーションを図ることができる。さらに、眼球部は頭部の動きに関連した眼球運動をすることができる。したがって、人と同じような極自然な眼の動きを伴ったコミュニケーションとなるので、人は違和感を覚えることなくコミュニケーションロボットとコミュニケーションをすることができる。   According to this invention, it is possible to match the line of sight with a person or to gaze at the object direction. In other words, communication can be achieved with natural eye movements. Further, the eyeball unit can perform eye movements related to the movement of the head. Therefore, since the communication is accompanied by a very natural eye movement similar to that of a person, the person can communicate with the communication robot without feeling uncomfortable.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1は本発明の全体構成を示しており、同図を参照して、この実施例のコミュニケーションロボット(以下、単に「ロボット」ということがある。)10は、台車12を含み、この台車12の下面には、このロボット10を自律移動させる車輪14が設けられる。この車輪14は、車輪モータ(図4において参照番号「70」で示す。)によって駆動され、台車12すなわちロボット10を前後左右任意の方向に動かすことができる。なお、図示しないが、この台車12の前面には、衝突センサ(図4において、参照番号「74」で示す。)が取り付けられ、この衝突センサは、台車12への人や他の障害物の接触を検知する。そして、ロボット10の移動中に障害物との接触を検知すると、直ちに車輪14の駆動を停止してロボット10の移動を急停止させて衝突を未然に防ぐ。   FIG. 1 shows the overall configuration of the present invention. Referring to FIG. 1, a communication robot (hereinafter sometimes simply referred to as “robot”) 10 of this embodiment includes a carriage 12, and this carriage 12 is shown in FIG. A wheel 14 for autonomously moving the robot 10 is provided on the lower surface of the robot. The wheel 14 is driven by a wheel motor (indicated by reference numeral “70” in FIG. 4), and the carriage 12, that is, the robot 10 can be moved in any direction, front, back, left, and right. Although not shown, a collision sensor (indicated by reference numeral “74” in FIG. 4) is attached to the front surface of the carriage 12, and this collision sensor is used to detect people and other obstacles to the carriage 12. Detect contact. When contact with an obstacle is detected during the movement of the robot 10, the driving of the wheels 14 is immediately stopped to suddenly stop the movement of the robot 10 to prevent a collision.

なお、ロボット10の背の高さは、この実施例では、人、特に子供に威圧感をあたえることがないように、100cm程度とされている。ただし、この背の高さは任意に変更可能である。   In this embodiment, the height of the robot 10 is set to about 100 cm so as not to intimidate people, particularly children. However, this height can be arbitrarily changed.

台車12の上には、多角形柱のセンサ取付パネル16が設けられ、このセンサ取付パネル16の各面には、超音波距離センサ18が取り付けられる。この超音波距離センサ18は、取付パネル16すなわちロボット10の周囲の主として人との間の距離を計測するものである。   A polygonal column sensor mounting panel 16 is provided on the carriage 12, and an ultrasonic distance sensor 18 is mounted on each surface of the sensor mounting panel 16. The ultrasonic distance sensor 18 measures a distance between the mounting panel 16, that is, a person mainly around the robot 10.

台車12の上には、さらに、下部が上述の取付パネル16に囲まれて、ロボット10の胴体が直立するように取り付けられる。この胴体は下部胴体20と上部胴体22とから構成され、これら下部胴体20および上部胴体22は、連結部24によって、連結される。連結部24には、図示しないが、昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体22の高さすなわちロボット10の高さを変化させることができる。昇降機構は、後述のように、腰モータ(図4において参照番号「68」で示す。)によって駆動される。上で述べたロボット10の身長100cmは、上部胴体22をそれの最下位置にしたときの値である。したがって、ロボット10の身長は100cm以上にすることができる。   On the carriage 12, the lower part is surrounded by the above-described mounting panel 16, and the body of the robot 10 is attached so as to stand upright. This body is composed of a lower body 20 and an upper body 22, and the lower body 20 and the upper body 22 are connected by a connecting portion 24. Although not shown, the connecting portion 24 has a built-in lifting mechanism, and the height of the upper body 22, that is, the height of the robot 10 can be changed by using the lifting mechanism. As will be described later, the elevating mechanism is driven by a waist motor (indicated by reference numeral “68” in FIG. 4). The height 100 cm of the robot 10 described above is a value when the upper body 22 is at its lowest position. Therefore, the height of the robot 10 can be 100 cm or more.

上部胴体22のほぼ中央には、1つの全方位カメラ26と、1つのマイク28とが設けられる。全方位カメラ26は、ロボット10の周囲を撮影するもので、後述の眼カメラ46と区別される。マイク28は、周囲の音、とりわけ人の声を取り込む。   One omnidirectional camera 26 and one microphone 28 are provided in the approximate center of the upper body 22. The omnidirectional camera 26 photographs the surroundings of the robot 10 and is distinguished from an eye camera 46 described later. The microphone 28 captures ambient sounds, particularly human voice.

上部胴体22の両肩には、それぞれ、肩関節30Rおよび30Lによって、上腕32Rおよび32Lが取り付けられる。肩関節30Rおよび30Lは、それぞれ3軸の自由度を有する。すなわち、肩関節30Rは、X軸,Y軸およびZ軸のそれぞれの軸廻りにおいて上腕32Rの角度を制御できる。Y軸は、上腕32Rの長手方向(または軸)に並行な軸であり、X軸およびZ軸は、そのY軸に、それぞれ異なる方向から直交する軸である。肩関節30Lは、A軸,B軸およびC軸のそれぞれの軸廻りにおいて上腕32Lの角度を制御できる。B軸は、上腕32Lの長手方向(または軸)に並行な軸であり、A軸およびC軸は、そのB軸に、それぞれ異なる方向から直交する軸である。   Upper arms 32R and 32L are attached to both shoulders of the upper body 22 by shoulder joints 30R and 30L, respectively. The shoulder joints 30R and 30L each have three degrees of freedom. That is, the shoulder joint 30R can control the angle of the upper arm 32R around each of the X axis, the Y axis, and the Z axis. The Y axis is an axis parallel to the longitudinal direction (or axis) of the upper arm 32R, and the X axis and the Z axis are axes orthogonal to the Y axis from different directions. The shoulder joint 30L can control the angle of the upper arm 32L around each of the A, B, and C axes. The B axis is an axis parallel to the longitudinal direction (or axis) of the upper arm 32L, and the A axis and the C axis are axes orthogonal to the B axis from different directions.

上腕32Rおよび32Lのそれぞれの先端には、肘関節34Rおよび34Lを介して、前腕36Rおよび36Lが取り付けられる。肘関節34Rおよび34Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕36Rおよび36Lの角度を制御できる。   Forearms 36R and 36L are attached to the respective distal ends of upper arms 32R and 32L via elbow joints 34R and 34L. The elbow joints 34R and 34L can control the angles of the forearms 36R and 36L around the axes of the W axis and the D axis, respectively.

なお、上腕32Rおよび32Lならびに前腕36Rおよび36L(いずれも図1)の変位を制御するX,Y,X,W軸およびA,B,C,D軸では、「0度」がホームポジションであり、このホームポジションでは、上腕32Rおよび32Lならびに前腕36Rおよび36Lは下方向に向けられる。   In the X, Y, X, W axes and the A, B, C, D axes that control the displacement of the upper arms 32R and 32L and the forearms 36R and 36L (FIG. 1), “0 degree” is the home position. In this home position, the upper arms 32R and 32L and the forearms 36R and 36L are directed downward.

また、図示しないが、上部胴体22の肩関節30Rおよび30Lを含む肩の部分や上述の上腕32Rおよび32Lならびに前腕36Rおよび36Lには、それぞれ、タッチセンサが設けられていて、これらのタッチセンサは、人がロボット10のこれらの部位に接触したかどうかを検知する。これらのタッチセンサも図4において参照番号72で包括的に示す。   Although not shown, touch sensors are provided on the shoulder portion of the upper body 22 including the shoulder joints 30R and 30L, the upper arms 32R and 32L, and the forearms 36R and 36L, respectively. , It detects whether a person has touched these parts of the robot 10. These touch sensors are also generally indicated by reference numeral 72 in FIG.

前腕36Rおよび36Lのそれぞれの先端には、手に相当する球体38Rおよび38Lがそれぞれ固定的に取り付けられる。なお、この球体38Rおよび38Lに代えて、この実施例のロボット10と異なり指の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。   Spheres 38R and 38L corresponding to hands are fixedly attached to the tips of the forearms 36R and 36L, respectively. Instead of the spheres 38R and 38L, a “hand” in the shape of a human hand can be used when a finger function is required unlike the robot 10 of this embodiment.

なお、ロボット10の形状・寸法等は適宜に設定されるが、他の実施例では、たとえば、上部胴体22は、前面,背面,右側面,左側面,上面および底面を含み、右側面および左側面は表面が斜め前方に向くように形成してもよい。つまり、前面の横幅が背面の横幅よりも短く、上部胴体22を上から見た形状が台形になるように形成されてもよい。このような場合、肩関節30Rおよび30Lは、右側面および左側面に、その表面が左右両側面とそれぞれ平行である左右の支持部を介して取り付けられる。そして、上腕32Rおよび上腕32Lの回動範囲は、これら左右側面または支持部の表面(取り付け面)によって規制され、上腕32Rおよび32Lは取り付け面を超えて回動することはない。しかし、左右側面の傾斜角,B軸とY軸との間隔,上腕32Rおよび32Lの長さ,ならびに前腕36Rおよび36Lの長さ等を適宜に設定すれば、上腕32Rおよび32Lは前方を越えてより内側まで回動できるので、たとえW軸およびD軸による腕の自由度がなくてもロボット10の腕は前方で交差できる。したがって、腕の自由度が少ない場合でも正面に位置する人と抱き合うなどの密接なコミュニケーションを図ることができる。   Although the shape, dimensions, etc. of the robot 10 are set as appropriate, in other embodiments, for example, the upper body 22 includes a front surface, a back surface, a right side surface, a left side surface, a top surface, and a bottom surface, and the right side surface and the left side surface. The surface may be formed so that the surface faces obliquely forward. That is, the width of the front surface may be shorter than the width of the back surface, and the shape of the upper body 22 viewed from above may be a trapezoid. In such a case, the shoulder joints 30R and 30L are attached to the right side surface and the left side surface via left and right support portions whose surfaces are parallel to the left and right side surfaces, respectively. The rotation range of the upper arm 32R and the upper arm 32L is restricted by the left and right side surfaces or the surface (attachment surface) of the support portion, and the upper arms 32R and 32L do not rotate beyond the attachment surface. However, if the inclination angle of the left and right side surfaces, the distance between the B axis and the Y axis, the lengths of the upper arms 32R and 32L, the lengths of the forearms 36R and 36L, etc. are appropriately set, the upper arms 32R and 32L will exceed the front. Since it can rotate to the inner side, the arms of the robot 10 can cross forward even if there is no degree of freedom of the arms by the W axis and D axis. Therefore, even when the degree of freedom of arms is small, close communication such as embracing with a person located in front can be achieved.

上部胴体22の中央上方には、首関節40を介して、頭部42が取り付けられる。この首関節40は、3つの自由度を有し、S軸,T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上に向かう軸であり、T軸およびU軸は、それぞれ、このS軸に対して異なる方向で直交する軸である。頭部42には、人の口に相当する位置に、スピーカ44が設けられる。スピーカ44は、ロボット10が、それの周囲の人に対して音声または声によってコミュニケーションを図るために用いられる。ただし、スピーカ44は、ロボット10の他の部位たとえば胴体に設けられてもよい。   A head portion 42 is attached to the upper center of the upper body 22 via a neck joint 40. The neck joint 40 has three degrees of freedom and can be angle-controlled around each of the S, T, and U axes. The S-axis is an axis that goes directly from the neck, and the T-axis and the U-axis are axes that are orthogonal to the S-axis in different directions. The head 42 is provided with a speaker 44 at a position corresponding to a human mouth. The speaker 44 is used by the robot 10 to communicate with a person around it by voice or voice. However, the speaker 44 may be provided in another part of the robot 10, for example, the trunk.

また、頭部42には、目に相当する位置に眼球部76Rおよび76Lが設けられる。眼球部76Rおよび76Lは、それぞれ眼カメラ46Rおよび46Lを含む。なお、右の眼球部76Rおよび左の眼球部76Lをまとめて眼球部76といい、右の眼カメラ46Rおよび左の眼カメラ46Lをまとめて眼カメラ46ということもある。眼カメラ46は、ロボット10に接近した人の顔や他の部分ないし物体等を撮影してその映像信号を取り込む。   The head portion 42 is provided with eyeball portions 76R and 76L at positions corresponding to the eyes. Eyeball portions 76R and 76L include eye cameras 46R and 46L, respectively. The right eyeball portion 76R and the left eyeball portion 76L may be collectively referred to as an eyeball portion 76, and the right eye camera 46R and the left eye camera 46L may be collectively referred to as an eye camera 46. The eye camera 46 captures the video signal by photographing the face of the person approaching the robot 10 and other parts or objects.

なお、上述の全方位カメラ26および眼カメラ46のいずれも、たとえばCCDやCMOSのように個体撮像素子を用いるカメラであってよい。   Note that each of the omnidirectional camera 26 and the eye camera 46 described above may be a camera using a solid-state imaging device such as a CCD or a CMOS.

たとえば、眼カメラ46は眼球部76内に固定され、眼球部76は眼球支持部(図示せず)を介して頭部42内の所定位置に取り付けられる。眼球支持部は、2軸の自由度を有し、α軸およびβ軸(図2)の各軸廻りに角度制御可能である。α軸およびβ軸は頭部42に対して設定される軸であり、α軸は頭部42の上へ向かう方向の軸であり、β軸はα軸に直交しかつ頭部42の正面側(顔)が向く方向に直交する方向の軸である。この実施例では、頭部42がホームポジションにあるとき、α軸はS軸に平行し、β軸はU軸に平行するように設定されている。このような頭部42において、眼球支持部がα軸およびβ軸の各軸廻りに回転されることによって、眼球部76ないし眼カメラ46の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される(図3)。   For example, the eye camera 46 is fixed in the eyeball unit 76, and the eyeball unit 76 is attached to a predetermined position in the head 42 via an eyeball support unit (not shown). The eyeball support portion has two degrees of freedom and can be controlled in angle around each of the α axis and β axis (FIG. 2). The α-axis and the β-axis are axes set with respect to the head 42, the α-axis is an axis in a direction toward the top of the head 42, the β-axis is orthogonal to the α-axis and the front side of the head 42 It is an axis in a direction orthogonal to the direction in which (face) faces. In this embodiment, when the head 42 is at the home position, the α axis is set to be parallel to the S axis and the β axis is set to be parallel to the U axis. In such a head 42, when the eyeball support portion is rotated around each of the α axis and β axis, the tip (front) side of the eyeball portion 76 or the eye camera 46 is displaced, and the camera axis, that is, the line-of-sight direction is changed. It is moved (FIG. 3).

なお、眼カメラ46の変位を制御するα軸およびβ軸では、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、眼カメラ46のカメラ軸は頭部42の正面側(顔)が向く方向に向けられ、視線は正視状態となる。   In the α axis and β axis for controlling the displacement of the eye camera 46, “0 degree” is the home position. At this home position, the camera axis of the eye camera 46 is the head 42 as shown in FIG. The direction of the front side (face) is directed, and the line of sight is in the normal viewing state.

図1に示すロボット10の制御系の構成が図4のブロック図に示される。図4に示すように、このロボット10は、全体の制御のためにマイクロコンピュータまたはCPU50を含み、このCPU50には、バス52を通して、メモリ54,モータ制御ボード56,センサ入力/出力ボード58および音声入力/出力ボード60が接続される。   The configuration of the control system of the robot 10 shown in FIG. 1 is shown in the block diagram of FIG. As shown in FIG. 4, the robot 10 includes a microcomputer or a CPU 50 for overall control. The CPU 50 is connected to a memory 54, a motor control board 56, a sensor input / output board 58, and a voice through a bus 52. An input / output board 60 is connected.

メモリ54は、図示しないが、ROMやRAMを含み、ROMにはこのロボット10の制御プログラムが予め書き込まれているとともに、スピーカ44から発生すべき音声または声の音声データが格納されている。RAMは、一時記憶メモリとして用いられるとともに、ワーキングメモリとして利用され得る。   Although not shown, the memory 54 includes a ROM and a RAM, in which a control program for the robot 10 is written in advance and voice or voice data to be generated from the speaker 44 is stored. The RAM is used as a temporary storage memory and can be used as a working memory.

モータ制御ボード56は、たとえばDSP(Digital Signal Processor)で構成され、各腕や頭部および眼球部等の各軸モータを制御する。すなわち、モータ制御ボード56は、CPU50からの制御データを受け、右肩関節30RのX,YおよびZ軸のそれぞれの角度を制御する3つのモータと右肘関節34Rの軸Wの角度を制御する1つのモータとの計4つのモータ(図4ではまとめて、「右腕モータ」として示す。)62の回転角度を調節する。また、モータ制御ボード56は、左肩関節30LのA,BおよびC軸のそれぞれの角度を制御する3つのモータと左肘関節34LのD軸の角度を制御する1つのモータとの計4つのモータ(図4ではまとめて、「左腕モータ」として示す。)64の回転角度を調節する。モータ制御ボード56は、また、頭部42のS,TおよびU軸のそれぞれの角度を制御する3つのモータ(図4ではまとめて、「頭部モータ」として示す。)66の回転角度を調節する。モータ制御ボード56は、また、腰モータ68、および車輪14を駆動する2つのモータ(図4ではまとめて、「車輪モータ」として示す。)70を制御する。   The motor control board 56 is configured by, for example, a DSP (Digital Signal Processor), and controls each axis motor such as each arm, head, and eyeball. That is, the motor control board 56 receives the control data from the CPU 50, and controls the angles of the three motors for controlling the X, Y, and Z axes of the right shoulder joint 30R and the axis W of the right elbow joint 34R. The rotation angle of a total of four motors (one of which is collectively shown as “right arm motor” in FIG. 4) 62 is adjusted. The motor control board 56 includes a total of four motors including three motors that control the angles of the A, B, and C axes of the left shoulder joint 30L and one motor that controls the angle of the D axis of the left elbow joint 34L. (They are collectively shown as “left arm motor” in FIG. 4.) The rotation angle of 64 is adjusted. The motor control board 56 also adjusts the rotation angles of three motors 66 (collectively shown as “head motors” in FIG. 4) that control the angles of the S, T, and U axes of the head 42. To do. The motor control board 56 also controls a waist motor 68 and two motors 70 (hereinafter collectively referred to as “wheel motors”) 70 that drive the wheels 14.

さらに、モータ制御ボード56は、右眼球部76Rのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図4ではまとめて、「右眼球モータ」として示す。)78の回転角度を調節し、また、左眼球部76Lのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図4ではまとめて、「左眼球モータ」として示す。)80の回転角度を調節する。   Furthermore, the motor control board 56 adjusts the rotation angles of two motors 78 (collectively shown as “right eyeball motors” in FIG. 4) that control the angles of the α axis and β axis of the right eyeball portion 76R. In addition, the rotation angle of two motors 80 that control the angles of the α axis and β axis of the left eyeball portion 76L (collectively shown as “left eyeball motor” in FIG. 4) 80 is adjusted.

なお、この実施例の上述のモータは、車輪モータ70を除いて、制御を簡単化するためにそれぞれステッピングモータまたはパルスモータであるが、車輪モータ70と同様に、直流モータであってよい。   In addition, the above-described motors of this embodiment are stepping motors or pulse motors for simplifying the control, except for the wheel motors 70, but may be DC motors similarly to the wheel motors 70.

センサ入力/出力ボード58も、同様に、DSPで構成され、各センサやカメラからの信号を取り込んでCPU50に与える。すなわち、超音波距離センサ18の各々からの反射時間に関するデータがこのセンサ入力/出力ボード58を通して、CPU50に入力される。また、全方位カメラ26からの映像信号が、必要に応じてこのセンサ入力/出力ボード58で所定の処理が施された後、CPU50に入力される。眼カメラ46からの映像信号も、同様にして、CPU50に与えられる。なお、この図4では、図1で説明したタッチセンサは、まとめて「タッチセンサ72」として表され、それらのタッチセンサ72からの信号がセンサ入力/出力ボード58を介して、CPU50に与えられる。   Similarly, the sensor input / output board 58 is configured by a DSP, and takes in signals from each sensor and camera and gives them to the CPU 50. That is, data relating to the reflection time from each of the ultrasonic distance sensors 18 is input to the CPU 50 through the sensor input / output board 58. The video signal from the omnidirectional camera 26 is input to the CPU 50 after being subjected to predetermined processing by the sensor input / output board 58 as required. The video signal from the eye camera 46 is also given to the CPU 50 in the same manner. In FIG. 4, the touch sensors described in FIG. 1 are collectively represented as “touch sensors 72”, and signals from the touch sensors 72 are given to the CPU 50 via the sensor input / output board 58. .

スピーカ44には音声入力/出力ボード60を介して、CPU50から、合成音声データが与えられ、それに応じて、スピーカ44からはそのデータに従った音声または声が出力される。そして、マイク28からの音声入力が、音声入力/出力ボード60を介して、CPU50に取り込まれる。   The synthesized voice data is given to the speaker 44 from the CPU 50 via the voice input / output board 60, and the voice or voice according to the data is outputted from the speaker 44 accordingly. Then, the voice input from the microphone 28 is taken into the CPU 50 via the voice input / output board 60.

この実施例のロボット10は眼球部76を備えており、人や物など対象とする特定の物体の位置を検知してこの眼球部76をその物体の方向を向くように変位させる。さらに、このロボット10では頭部42の動きに関連した眼球運動が行われる。   The robot 10 of this embodiment includes an eyeball unit 76, detects the position of a specific object such as a person or an object, and displaces the eyeball unit 76 to face the direction of the object. Further, the robot 10 performs eye movement related to the movement of the head 42.

たとえば、このロボット10では、眼カメラ46から取得した画像中に人の顔がある場合には、対象物体としての人の顔の位置が検出され、その方向に眼球部76および眼カメラ46を向けるためのα軸およびβ軸の制御角度データが算出される。この角度データが右眼球モータ78および左眼球モータ80に与えられると、眼球部76および眼カメラ46が変位されて視線方向が人の顔方向に向く。したがって、このロボット10は人と視線を合わせることができ、人は違和感を覚えることなくコミュニケートできる。   For example, in the robot 10, when a human face is present in the image acquired from the eye camera 46, the position of the human face as the target object is detected, and the eyeball unit 76 and the eye camera 46 are directed in that direction. Therefore, control angle data for the α axis and β axis is calculated. When this angle data is given to the right eyeball motor 78 and the left eyeball motor 80, the eyeball unit 76 and the eye camera 46 are displaced so that the line-of-sight direction is directed toward the human face. Therefore, the robot 10 can match the line of sight with the person, and the person can communicate without feeling uncomfortable.

また、頭部42が動作しているとき、たとえば首関節を制御する軸(S軸およびU軸)廻りの運動速度等に基づいてα軸およびβ軸の制御角度データを算出して、このデータによって眼球支持部を制御することもある。この場合には、頭部42の動きに合った眼球部76の動きを表すことができ、人が違和感を覚えるのを防止できる。   Further, when the head 42 is operating, for example, control angle data of the α axis and the β axis is calculated based on the movement speed around the axes (S axis and U axis) for controlling the neck joint, and this data is calculated. May control the eyeball support. In this case, it is possible to represent the movement of the eyeball unit 76 that matches the movement of the head 42, and to prevent a person from feeling uncomfortable.

また、このロボット10では、人の顔だけでなく、眼カメラ46から取得した画像中の特定物の位置も検出して、その方向に視線を向けることができる。つまり、たとえば壁等に貼ってあるポスター等の紹介をするような場合、ポスター等の紹介物の位置を検出して、これに顔を向ける動作を挟みつつ紹介を行うというような自然な動作を行うこともできる。   In addition, the robot 10 can detect not only a human face but also a position of a specific object in an image acquired from the eye camera 46, and can direct a line of sight in that direction. In other words, for example, when introducing a poster or the like affixed to a wall or the like, a natural operation such as detecting the position of an introductory material such as a poster and introducing the face while facing it is performed. It can also be done.

具体的には、このロボット10はたとえば図5および図6に示すフロー図に従って動作する。このフロー図では、壁に設置されたポスター紹介を行う場合の動作の一例が示されている。   Specifically, the robot 10 operates according to flowcharts shown in FIGS. 5 and 6, for example. In this flowchart, an example of the operation when introducing a poster installed on a wall is shown.

まず、ステップS1からS5において、初期設定が行われる。ステップS1では、CPU50は、頭部42を前方に向けるように、メモリ54から角度データを取り出してモータ制御ボード56に送る。つまり、S軸,T軸およびU軸の回転角度を制御するモータ(頭部モータ66)にそれぞれ角度「0」を与える。したがって、このステップS1では、頭部42が正面を向く。ステップS3では、CPU50は、眼球部76を正面に向けるように、メモリ54から角度データを取り出してモータ制御ボード56に送る。つまり、α軸およびβ軸の回転角度を制御するモータ(右眼球モータ78および左眼球モータ80)にそれぞれ角度「0」を与える。したがって、このステップS3では、眼球部76および眼カメラ46が正面を向き、視線が正面を向いた正視状態となる。ステップS5では、変数t1,t2およびt3に現在の時刻の値が設定される。なお、図示は省略しているが、変数cも初期設定として1より小さい値が設定される。   First, in steps S1 to S5, initial setting is performed. In step S <b> 1, the CPU 50 extracts angle data from the memory 54 and sends it to the motor control board 56 so that the head 42 is directed forward. That is, an angle “0” is given to each motor (head motor 66) that controls the rotation angles of the S, T, and U axes. Accordingly, in step S1, the head 42 faces the front. In step S <b> 3, the CPU 50 extracts angle data from the memory 54 and sends it to the motor control board 56 so that the eyeball unit 76 faces the front. That is, an angle “0” is given to the motors (the right eyeball motor 78 and the left eyeball motor 80) that control the rotation angles of the α axis and the β axis, respectively. Accordingly, in this step S3, the eyeball unit 76 and the eye camera 46 face the front and the line of sight faces the front. In step S5, the current time values are set in the variables t1, t2, and t3. Although not shown, the variable c is set to a value smaller than 1 as an initial setting.

続くステップS7で、CPU50は、眼カメラ46からの映像信号をセンサ入力/出力ボード58に取り込み、ステップS9では映像信号処理することによって、カメラ画像中に人の顔があればその位置を検出する。なお、人の顔の決定手法としては種々の方法が用いられ得るが、たとえば肌色部分を人の顔であると決めるようにしてもよい。また、たとえば、予めメモリ54に特定の人の顔または特徴等のデータを記憶しておき、このデータを参照することによってこの特定人物に対してだけ視線を合わせるようにしてもよい。   In subsequent step S7, the CPU 50 captures the video signal from the eye camera 46 into the sensor input / output board 58, and in step S9, detects the position of a human face in the camera image by processing the video signal. . Various methods can be used as a method for determining a person's face. For example, the skin color portion may be determined to be a person's face. Further, for example, data such as a specific person's face or characteristics may be stored in the memory 54 in advance, and the line of sight may be adjusted only for the specific person by referring to this data.

ステップS11では、時刻t1から一定時間が経過し、かつ、人の顔が画像中にあるかどうかを判断する。ステップS11で“YES”であれば、ステップS15で、CPU50は、検出された人の顔の位置の方向に該当するα軸およびβ軸の角度データを算出し、この角度データをモータ制御ボード56に送る。右眼球モータ78および左眼球モータ80にはそれぞれ算出されたα軸およびβ軸の制御角度が与えられる。したがって、このステップS15では、視界に人がいれば、眼球部76が人の顔方向に向けられ、人とロボット10は視線を合わすことができる。   In step S11, it is determined whether a predetermined time has elapsed from time t1 and whether a human face is in the image. If “YES” in the step S11, the CPU 50 calculates the angle data of the α axis and the β axis corresponding to the detected direction of the human face in the step S15, and uses the angle data as the motor control board 56. Send to. The right eye motor 78 and the left eye motor 80 are given control angles of the calculated α axis and β axis, respectively. Therefore, in this step S15, if there is a person in the field of view, the eyeball unit 76 is directed toward the face of the person, and the person and the robot 10 can match the line of sight.

続くステップS17では、変数t1に現在時刻が設定され、このステップS17の後はステップS25へ進む。このように、ステップS15の処理が実行されて人の顔方向に視線が向けられると、変数t1が現在の時刻に再設定されるので、その後一定時間が経過するまでは、このステップS15の処理は実行されない。   In the subsequent step S17, the current time is set in the variable t1, and after this step S17, the process proceeds to step S25. As described above, when the process of step S15 is executed and the line of sight is directed toward the face of the person, the variable t1 is reset to the current time. Therefore, the process of step S15 is performed until a predetermined time passes thereafter. Is not executed.

一方、ステップS11で“NO”であれば、つまり、時刻t1から一定時間がまだ経過していない場合、または、画像中に人の顔がない場合には、CPU50は、ステップS13で、時刻t2から一定時間が経過し、かつ、頭部モータ66のうちS軸またはU軸の回転角度を調整するモータが動作中であるかどうかを判断する。   On the other hand, if “NO” in the step S11, that is, if a certain time has not yet elapsed from the time t1, or if there is no human face in the image, the CPU 50 performs a time t2 in a step S13. It is determined whether or not a fixed time has elapsed and the motor for adjusting the rotation angle of the S-axis or U-axis among the head motor 66 is operating.

ステップS13で“YES”であれば、ステップS19で、動作しているS軸およびU軸の運動速度VsおよびVuを検出し、この運動速度VsおよびVuに基づいてα軸およびβ軸の制御角度データを算出する。具体的には、α軸の回転角度はS軸の運動速度Vsに比例する値(aVs)に設定され、β軸の回転角度はU軸の運動速度Vuに比例する値(bVu)に設定される。ここで、aおよびbは定数であり、適宜に設定される。そして、この角度データをモータ制御ボード56に送って、α軸の回転角度を制御するモータに角度「aVs」を与え、β軸の回転角度を制御するモータに角度「bVu」を与える。すると、α軸およびβ軸はそれぞれS軸およびU軸に対応しているので、眼球部76は頭部42の移動方向すなわち頭部42の顔が向こうとする方向に向けられる。このようにして、頭部42を動かすときは、その移動する方向に視線が向けられ、頭の動きに応じた極自然な眼球運動を実現することができる。この実施例では、具体的には、後述するステップS35およびステップS39の処理によって頭部42が動作するときに、このような眼球運動が実現される。続くステップS21では、変数t2に現在時刻が設定され、このステップS21の後はステップS25へ進む。このように、変数t2が現在の時刻に再設定されるので、その後一定時間が経過するまでは、このステップS19の処理は実行されない。   If “YES” in the step S13, the moving speeds Vs and Vu of the operating S axis and the U axis are detected in a step S19, and control angles of the α axis and the β axis are detected based on the moving speeds Vs and Vu. Calculate the data. Specifically, the α-axis rotation angle is set to a value (aVs) proportional to the S-axis motion speed Vs, and the β-axis rotation angle is set to a value (bVu) proportional to the U-axis motion speed Vu. The Here, a and b are constants and are set appropriately. Then, this angle data is sent to the motor control board 56 to give the angle “aVs” to the motor that controls the rotation angle of the α axis, and to give the angle “bVu” to the motor that controls the rotation angle of the β axis. Then, since the α-axis and the β-axis correspond to the S-axis and the U-axis, respectively, the eyeball unit 76 is directed in the moving direction of the head 42, that is, the direction in which the face of the head 42 is about to face. In this way, when the head 42 is moved, the line of sight is directed in the moving direction, and a very natural eye movement according to the movement of the head can be realized. In this embodiment, specifically, such an eye movement is realized when the head 42 is moved by the processing of steps S35 and S39 described later. In the subsequent step S21, the current time is set in the variable t2, and after this step S21, the process proceeds to step S25. As described above, since the variable t2 is reset to the current time, the process of step S19 is not executed until a predetermined time has elapsed.

他方、ステップS13で“NO”であれば、つまり、時刻t2から一定時間が経過していない場合、または、S軸およびU軸の回転角度を調整するモータがいずれも動作中でない場合には、続くステップS23で、CPU50は、眼球部76を正面に向けるように、メモリ54から角度データを取り出してモータ制御ボード56に送る。つまり、α軸およびβ軸の回転角度を制御するモータ(右眼球モータ78および左眼球モータ80)にそれぞれ角度「0」を与える。したがって、このステップS23では、眼球部76および眼カメラ46が正面に向けられる。すなわち、たとえばステップS15やステップS19等で動かされた視線が正面に戻されることとなる。   On the other hand, if “NO” in the step S13, that is, if a certain time has not elapsed since the time t2, or if neither of the motors for adjusting the rotation angles of the S axis and the U axis is operating, In subsequent step S <b> 23, the CPU 50 extracts angle data from the memory 54 and sends it to the motor control board 56 so that the eyeball unit 76 faces the front. That is, an angle “0” is given to the motors (the right eyeball motor 78 and the left eyeball motor 80) that control the rotation angles of the α axis and the β axis, respectively. Therefore, in this step S23, the eyeball unit 76 and the eye camera 46 are directed to the front. That is, for example, the line of sight moved in step S15, step S19, or the like is returned to the front.

ステップS17,S21またはS23の処理を終えると、CPU50は、続くステップS25で、時刻t3から一定時間が経過したかどうかを判断する。ステップS25で“NO”であればステップS7に戻る。したがって、時刻t3から一定時間が経過するまでは、ステップS7からステップS25までの処理が繰り返し実行される。一方、ステップS25で“YES”であれば、図6のステップS27へ進む。   When the process of step S17, S21 or S23 is completed, the CPU 50 determines whether or not a predetermined time has elapsed from time t3 in the subsequent step S25. If “NO” in the step S25, the process returns to the step S7. Therefore, the processing from step S7 to step S25 is repeatedly executed until a predetermined time has elapsed from time t3. On the other hand, if “YES” in the step S25, the process proceeds to a step S27 in FIG.

ステップS27で、CPU50は変数cが1以上であるかどうかを判断する。ステップS27で“NO”であれば、つまり、変数cが1より小さければ、ステップS31へ進む。ステップS31では、CPU50は、眼カメラ46からの映像信号をセンサ入力/出力ボード58に取り込み、ステップS33では映像信号処理することによって、カメラ画像中から壁のポスターの位置を検出する。なお、ポスターの特徴等のデータは予めメモリ54に記憶しておき、このデータを参照することによってポスター位置を検出する。   In step S27, the CPU 50 determines whether the variable c is 1 or more. If “NO” in the step S27, that is, if the variable c is smaller than 1, the process proceeds to a step S31. In step S31, the CPU 50 captures the video signal from the eye camera 46 into the sensor input / output board 58, and in step S33, detects the position of the wall poster from the camera image by processing the video signal. It should be noted that data such as poster characteristics is stored in the memory 54 in advance, and the poster position is detected by referring to this data.

なお、この実施例ではロボット10の視界内にポスターが設置されている場合を想定しているが、ポスターがステップS31で取得した画像中にない場合は、たとえばステップS35およびS37の処理を飛ばして進むようにしたり、あるいは頭部42を動かして周囲を走査しポスターを発見するようにしたりしてもよい。   In this embodiment, it is assumed that a poster is installed in the field of view of the robot 10, but if the poster is not in the image acquired in step S31, for example, the processing in steps S35 and S37 is skipped. It may be advanced or the head 42 may be moved to scan the surroundings to find a poster.

ステップS35では、CPU50は、検出されたポスターの位置の方向に該当するS軸,T軸およびU軸の角度データを算出し、このデータをモータ制御ボード56に送る。したがって、ステップS35では、頭部42の正面側(顔)がポスターのある方向に向けられ、ロボット10はポスターを注視しているような格好となる。   In step S <b> 35, the CPU 50 calculates angle data of the S-axis, T-axis, and U-axis corresponding to the detected direction of the poster position, and sends this data to the motor control board 56. Therefore, in step S35, the front side (face) of the head 42 is directed in the direction in which the poster is present, and the robot 10 looks as if it is gazing at the poster.

そして、ステップS37では、変数t3が現在時刻に設定され、また、変数cが1に設定される。このステップS37の後は、図5のステップS7に戻り、処理が繰り返される。このように、変数t3が現在の時刻に再設定されるので、その後一定時間が経過するまでは、ステップS27以降の処理は実行されない。また、変数cが1に設定されるので、次にステップS27が処理されるときは、“YES”と判断されてステップS29へ進むこととなる。   In step S37, the variable t3 is set to the current time, and the variable c is set to 1. After step S37, the process returns to step S7 in FIG. 5 and the process is repeated. As described above, since the variable t3 is reset to the current time, the processes after step S27 are not executed until a predetermined time elapses thereafter. Since the variable c is set to 1, the next time step S27 is processed, “YES” is determined and the process proceeds to step S29.

一方、ステップS27で“YES”であれば、ステップS29で変数cが2以上であるかどうかを判断する。ステップS29で“NO”であれば、つまり、変数cが1以上2未満であれば、ステップS39へ進む。ステップS39では、CPU50は、頭部42を上にむけるように、メモリ54から角度データを取り出してモータ制御ボード56に送る。つまり、S軸およびT軸の回転角度を制御するモータにそれぞれ角度「0」与え、U軸の回転角度を制御するモータに角度「45」を与える。したがって、このステップS39では、ポスター方向に向けられていた頭部42が前方斜め上方向に向き直されて、仰ぎ見るような格好となる。なお、この格好は、たとえば人が予めロボット10の前方に誘導されているような場合等を想定した動作である。   On the other hand, if “YES” in the step S27, it is determined whether or not the variable c is 2 or more in a step S29. If “NO” in the step S29, that is, if the variable c is 1 or more and less than 2, the process proceeds to a step S39. In step S <b> 39, the CPU 50 extracts the angle data from the memory 54 and sends it to the motor control board 56 so that the head 42 is turned upward. That is, an angle “0” is given to the motor that controls the rotation angle of the S axis and the T axis, and an angle “45” is given to the motor that controls the rotation angle of the U axis. Therefore, in this step S39, the head 42 that has been directed in the poster direction is turned forward diagonally upward and looks like looking up. This appearance is an operation that assumes a case where a person is guided in front of the robot 10 in advance.

そして、ステップS41で、CPU50は、メモリ54から所定の音声データを取り出して音声入出力ボード60に送る。したがって、スピーカ44からたとえば「ポスター見てね」といった合成音声が出力される。このように、特定の物体に関係する合成音声を出力することで人と対話することができ、また、頭部12や眼球部76の動きの意味合を伝達することができる。   In step S 41, the CPU 50 extracts predetermined audio data from the memory 54 and sends it to the audio input / output board 60. Therefore, a synthesized voice such as “Please look at the poster” is output from the speaker 44. In this manner, it is possible to interact with a person by outputting synthesized speech related to a specific object, and to convey the meaning of the movement of the head 12 and the eyeball unit 76.

このようにして、紹介の対象物であるポスターに対して顔を向ける動作(ステップS35)といった極自然な動作を挟みつつ、人と対話することができる。なお、近くに人がいない場合であっても、このような人を勧誘する動作や音声を発する動作等(ステップS39およびS41)によって人が近づいてくるのを期待できる。   In this way, it is possible to interact with a person while sandwiching a very natural action such as an action of turning his / her face to the poster as an introduction target (step S35). Even when there is no person nearby, it can be expected that a person approaches by such an operation of inviting such a person or an operation of emitting a sound (steps S39 and S41).

続くステップS43では、変数t3が再び現在時刻に設定され、また変数cが2に設定される。このステップS43の後は、図2のステップS7に戻り、処理が繰り返される。このように、変数t3が現在の時刻に再び設定されるので、その後一定時間が経過するまでは、ステップS27以降の処理は実行されない。また、変数cが2に設定されるので、次にステップS29を処理するときは、CPU50は“YES”と判断し、この頭部42および眼球部76の動作処理を終了する。なお、このような図5および図6の一連の動作処理はたとえば所定時間経過ごと等に繰り返し実行されてよいのは言うまでもない。   In the subsequent step S43, the variable t3 is set to the current time again, and the variable c is set to 2. After step S43, the process returns to step S7 in FIG. 2 and the process is repeated. In this way, since the variable t3 is set again at the current time, the processes after step S27 are not executed until a certain time has passed thereafter. Further, since the variable c is set to 2, the next time step S29 is processed, the CPU 50 determines “YES”, and the operation process of the head 42 and the eyeball unit 76 is ended. Needless to say, the series of operation processes shown in FIGS. 5 and 6 may be repeatedly executed, for example, every predetermined time.

この実施例によれば、人と対話する際などに、人と視線を合わせたり、話題にする特定の物体方向を注視したりすることができる。つまり、自然な目の動きでコミュニケーションを図ることができる。さらに、眼球部76は頭部42の動きに関連した眼球運動をすることができる。したがって、人や動物等と同じような極自然な眼の動きを伴ったコミュニケーションとなるので、人は違和感を覚えることなくロボット10とコミュニケーションをすることができる。   According to this embodiment, when interacting with a person or the like, it is possible to match the line of sight with the person or gaze at a specific object direction to be discussed. In other words, communication can be achieved with natural eye movements. Further, the eyeball unit 76 can perform eye movement related to the movement of the head 42. Therefore, communication is performed with extremely natural eye movements similar to those of humans and animals, so that humans can communicate with the robot 10 without feeling uncomfortable.

なお、この発明の実施の形態は種々に変更して適用されてもよい。たとえば、上述の実施例では、ステップS35で頭部12を変位させてポスターに顔を向けるようにしているが、ポスターには眼球部76のみを向けるようにしてもよい。   The embodiment of the present invention may be applied with various modifications. For example, in the above-described embodiment, the head 12 is displaced in step S35 so that the face is directed to the poster, but only the eyeball portion 76 may be directed to the poster.

また、上述の各実施例では、ステップS39で、前方斜め上方のように所定方向に頭部42の顔を向けるようにしているが、たとえばステップS7,S9およびS35と同様な処理を実行することで、人の顔の位置を検出してその顔方向に頭部42の顔を向けるようにしてもよい。   In each of the above-described embodiments, in step S39, the face of the head 42 is directed in a predetermined direction, such as diagonally upward at the front. For example, the same processing as in steps S7, S9, and S35 is executed. Thus, the position of the person's face may be detected and the face of the head 42 may be directed in the face direction.

また、上述の各実施例では、ロボット10の視界内に人がいる場合等を想定しているが、たとえば、ステップS7を処理する前に、頭部42を動かして周囲を走査して人を発見するようにしてもよいし、あるいは周囲を見回しても人がいない場合等には、ステップS41と同様にして、予め合成音声等を発することで人を近くまたは視界内に呼び寄せるようにしてもよい。なお、人を呼び寄せるための行動としては、たとえば光を発するなど他の方法を適用してもよい。   In each of the above-described embodiments, it is assumed that there is a person in the field of view of the robot 10. For example, before processing step S <b> 7, the head 42 is moved to scan the surroundings. If there is no person to look around or if there is no person, etc., as in step S41, a synthesized voice or the like is issued in advance so that the person is brought near or in the field of view. Good. Note that other methods such as emitting light may be applied as actions for attracting people.

また、その他の実施例では、たとえば、人によって触られた場合に、オン状態のタッチセンサ72を検知して触られた箇所の位置を算出し、必要な角度データを必要なモータにそれぞれ与えて頭部42および眼球部76を適宜動かして、その方向に視線を向けるようにしてもよい。すなわち、オン状態のタッチセンサ72を物体として検出し、その物体の方向に向くように眼球部76および頭部12等の変位制御をするようにしてもよい。この場合にも、上述の各実施例と同様に、頭部42の動作に関連して眼球部76を動かすことができ、また、極自然な眼球運動を行うことができるので、人に違和感を覚えさせない。   In other embodiments, for example, when touched by a person, the touch sensor 72 in the on state is detected to calculate the position of the touched position, and necessary angle data is respectively given to the necessary motor. The head 42 and the eyeball unit 76 may be appropriately moved so that the line of sight is directed in that direction. That is, the touch sensor 72 in the on state may be detected as an object, and the displacement of the eyeball unit 76 and the head 12 may be controlled so as to face the direction of the object. Also in this case, as in the above-described embodiments, the eyeball unit 76 can be moved in relation to the movement of the head 42, and a very natural eyeball movement can be performed. I don't remember it.

また、触れられた箇所に目を向けるにあたっては、たとえば、現在の目の位置と触れられた位置との関係から、頭部42と眼球部76とで動く距離(角度)を分担し、全体として触れられた位置の方向に視線を向けるように、頭部42および眼球部76を変位させるようにしてもよい。具体的には、触れられた箇所までの距離を算出し、たとえばその距離の半分までは頭部42を動かし、残りの半分は眼球部76を動かすようにする。このような眼球運動も頭部42の動きに関連した自然なものであり、人に違和感を生じさせない。   Further, when turning to the touched part, for example, the distance (angle) of movement between the head 42 and the eyeball part 76 is shared from the relationship between the current eye position and the touched position, and as a whole The head 42 and the eyeball 76 may be displaced so that the line of sight is directed toward the touched position. Specifically, the distance to the touched part is calculated. For example, the head 42 is moved up to half of the distance, and the eyeball unit 76 is moved in the other half. Such eye movements are also natural in relation to the movement of the head 42 and do not cause a person to feel uncomfortable.

なお、触れられた箇所に頭部42を向ける技術は、本願出願人による特許願2001−166018号に詳述されるので参照されたい。   In addition, since the technique which orient | assigns the head 42 to the location touched is explained in full in patent application 2001-166018 by the applicant of this application, please refer to it.

また、上述の各実施例では、左右の眼球部76の制御にあたって、左右それぞれの眼球モータに同じ角度データを与えて両目を揃えて動かすようにしているが、別個の角度データをそれぞれ算出して与えることにより左右の眼球部76を別々に動かすようにしてもよい。また、場合によっては、1つの眼球モータで左右の眼球部76を同時に動かすようにしてもよい。   In the above-described embodiments, when the left and right eyeball portions 76 are controlled, the same angle data is given to the left and right eyeball motors so that both eyes are aligned, but separate angle data is calculated. The left and right eyeballs 76 may be moved separately by giving. In some cases, the left and right eyeballs 76 may be moved simultaneously by one eyeball motor.

また、上述の各実施例では、人と同様に眼球部76を左右2つ設けるようにしているが、眼球部76は目に相当する部分であると外観上認識できるものであれば良く、したがって、眼球部76の数は任意であり適宜変更され得る。また、同様に、眼カメラ46の数も適宜変更され得る。   Further, in each of the above-described embodiments, the left and right eyeball portions 76 are provided in the same manner as a human being, but the eyeball portion 76 only needs to be visually recognizable as being a portion corresponding to the eyes. The number of eyeballs 76 is arbitrary and can be changed as appropriate. Similarly, the number of eye cameras 46 can be changed as appropriate.

また、上述の各実施例では、眼カメラ46からの画像を基に人やポスター等の物体の位置を検出しているが、可能であれば全方位カメラ26からの画像を用いて物体の位置を検出するようにしてもよい。   In each of the above-described embodiments, the position of an object such as a person or a poster is detected based on an image from the eye camera 46. If possible, the position of the object is determined using an image from the omnidirectional camera 26. May be detected.

また、上述の各実施例では、物体の位置を検出して眼球部76または頭部12の変位制御を行うようにしているが、たとえば、物体の方位を検出したり、画像の時間差分が生じた領域(移動していそうな物体が存在すると考えられる。)を検出したりすること等によって、物体を検出して、そこを向くように眼球部76または頭部12等の変位制御を行うようにしてもよい。   In each of the above-described embodiments, the position of the object is detected to control the displacement of the eyeball unit 76 or the head 12. However, for example, the orientation of the object is detected, or a time difference between images occurs. The object is detected by detecting a target area (it is considered that there is an object that seems to move), and the displacement control of the eyeball 76 or the head 12 is performed so as to face the object. It may be.

また、上述の各実施例では、眼球部76は眼カメラ46を含んで構成されたが、場合によっては、眼カメラ46は頭部42の他の部分等の眼球部76以外の部分に設けられてもよい。この場合は、眼球部76はカメラがないため視覚器ではなくなり、見かけ上の眼を表す部分ないしダミーとなるが、眼球部76は目に相当する位置に設けられて、ロボット10の眼であると外観上認識されるように構成されているので、ロボット10とコミュニケートする人にとっては特には問題ないであろう。   In each of the above-described embodiments, the eyeball unit 76 includes the eye camera 46. However, in some cases, the eye camera 46 is provided in a part other than the eyeball part 76 such as another part of the head 42. May be. In this case, the eyeball unit 76 is not a visual device because there is no camera, and is a part or dummy representing an apparent eye, but the eyeball unit 76 is provided at a position corresponding to the eye and is the eye of the robot 10. Therefore, there will be no particular problem for a person who communicates with the robot 10.

なお、上述の各実施例では、物体に目や顔を向けるのみであったが、場合によってはたとえば腕部分等を用いて物体方向を指すなどの動作を目の動きと組み合わせるようにしてもよい。つまり、右腕モータ62および左腕モータ64等の適宜な軸のモータに対して必要な角度データを与えることによって、たとえばポスター等の物体の方向を前腕の先端部(手)で指し示すような紹介動作等をさらに組み合わせて行うようにしてもよい。   In each of the above-described embodiments, the eyes and face are merely directed toward the object. However, in some cases, for example, an action such as pointing an object direction using an arm portion or the like may be combined with the movement of the eyes. . That is, by providing necessary angle data to motors of appropriate axes such as the right arm motor 62 and the left arm motor 64, for example, an introduction operation in which the direction of an object such as a poster is indicated by the tip (hand) of the forearm, etc. You may make it perform combining further.

この発明の一実施例の全体構成を示す正面図である。It is a front view which shows the whole structure of one Example of this invention. 図1実施例の頭部を拡大して示す正面図である。It is a front view which expands and shows the head of the FIG. 1 Example. 図1実施例の眼球部の変位を示す正面図である。It is a front view which shows the displacement of the eyeball part of FIG. 1 Example. 図1実施例を示すブロック図である。It is a block diagram which shows FIG. 1 Example. 図1実施例における動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement in FIG. 1 Example. 図1実施例における動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement in FIG. 1 Example.

符号の説明Explanation of symbols

10 …コミュニケーションロボット
20 …下部胴体
22 …上部胴体
40 …首関節
42 …頭部
46,46R,46L …眼カメラ
50 …CPU
54 …メモリ
56 …モータ制御ボード
58 …センサ入出力ボード
60 …音声入出力ボード
66 …頭部モータ
76,76R,76L …眼球部
78 …右眼球モータ
80 …左眼球モータ
DESCRIPTION OF SYMBOLS 10 ... Communication robot 20 ... Lower body 22 ... Upper body 40 ... Neck joint 42 ... Head 46, 46R, 46L ... Eye camera 50 ... CPU
54 ... Memory 56 ... Motor control board 58 ... Sensor input / output board 60 ... Voice input / output board 66 ... Head motor 76, 76R, 76L ... Eyeball part 78 ... Right eyeball motor 80 ... Left eyeball motor

Claims (7)

コミュニケーションを図る機能を備えたコミュニケーションロボットであって、
眼球部、
対象とする物体を検出する物体検出手段、および
前記物体の方向に向くように前記眼球部を変位させる眼球部変位手段を備える、コミュニケーションロボット。
A communication robot with a function for communication,
Eyeball,
A communication robot comprising: object detection means for detecting a target object; and eyeball part displacement means for displacing the eyeball part so as to face the direction of the object.
胴体、前記胴体に首関節を介して取り付けられるかつ前記眼球部が設けられる頭部、および前記首関節を制御して前記頭部を変位させる頭部変位手段をさらに備え、
前記眼球部変位手段は前記頭部の動きに関連して前記眼球部を変位させる、請求項1記載のコミュニケーションロボット。
A torso, a head attached to the torso via a neck joint and provided with the eyeball, and head displacement means for controlling the neck joint to displace the head;
The communication robot according to claim 1, wherein the eyeball part displacing unit displaces the eyeball part in relation to the movement of the head.
前記眼球部変位手段は前記頭部の運動速度に比例する角度データに基づいて前記眼球部を変位させる、請求項2記載のコミュニケーションロボット。   The communication robot according to claim 2, wherein the eyeball part displacing unit displaces the eyeball part based on angle data proportional to the movement speed of the head. 前記頭部変位手段は、前記頭部の正面側が前記物体の方向に向くように前記頭部を変位させる、請求項2または3記載のコミュニケーションロボット。   The communication robot according to claim 2, wherein the head displacement means displaces the head so that a front side of the head is directed toward the object. 前記物体は人の顔を含む、請求項1ないし4のいずれかに記載のコミュニケーションロボット。   The communication robot according to claim 1, wherein the object includes a human face. 前記物体検出手段はカメラから得られる画像に基づいて前記物体を検出する第1検出手段を含む、請求項1ないし5のいずれかに記載のコミュニケーションロボット。   The communication robot according to claim 1, wherein the object detection means includes first detection means for detecting the object based on an image obtained from a camera. 前記物体検出手段は、前記コミュニケーションロボットの任意の箇所に設けられる複数のタッチセンサのうちオン状態の前記タッチセンサを前記物体として検出する第2検出手段を含む、請求項1ないし6のいずれかに記載のコミュニケーションロボット。   The said object detection means contains the 2nd detection means which detects the said touch sensor of an ON state as the said object among the some touch sensors provided in the arbitrary places of the said communication robot. The communication robot described.
JP2007223709A 2007-08-30 2007-08-30 Communication robot Expired - Lifetime JP4565196B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007223709A JP4565196B2 (en) 2007-08-30 2007-08-30 Communication robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007223709A JP4565196B2 (en) 2007-08-30 2007-08-30 Communication robot

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002199620A Division JP2004042151A (en) 2002-07-09 2002-07-09 Communication robot

Publications (2)

Publication Number Publication Date
JP2008018529A true JP2008018529A (en) 2008-01-31
JP4565196B2 JP4565196B2 (en) 2010-10-20

Family

ID=39074880

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007223709A Expired - Lifetime JP4565196B2 (en) 2007-08-30 2007-08-30 Communication robot

Country Status (1)

Country Link
JP (1) JP4565196B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009000489A1 (en) 2008-01-30 2009-08-13 Ryobi Ltd., Fuchu Method and apparatus for controlling the quality of a printed image for a color printing machine
WO2011089885A1 (en) * 2010-01-25 2011-07-28 パナソニック株式会社 Danger presentation device, danger presentation system, danger presentation method, and program
JP2014030865A (en) * 2012-08-01 2014-02-20 Fujitsu Ltd Sight line control device, sight line control method, sight line control program, and terminal equipment
CN106826867A (en) * 2017-03-31 2017-06-13 上海思依暄机器人科技股份有限公司 A kind of method that robot and control robot head are rotated
JP2018060322A (en) * 2016-10-04 2018-04-12 トヨタ自動車株式会社 Voice interactive device and control method thereof
EP3498429A1 (en) * 2017-11-28 2019-06-19 Toyota Jidosha Kabushiki Kaisha Communication apparatus
US10350761B2 (en) 2016-10-13 2019-07-16 Toyota Jidosha Kabushiki Kaisha Communication device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107009357B (en) * 2017-04-05 2019-03-26 武汉科技大学 A method of object is grabbed based on NAO robot

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63200786A (en) * 1987-02-17 1988-08-19 辰巳電子工業株式会社 Automatic doll
JPH02121092U (en) * 1989-03-17 1990-10-01
JPH06261982A (en) * 1993-03-12 1994-09-20 Toshiba Corp Communication robot
JPH09193078A (en) * 1996-01-22 1997-07-29 Hitachi Constr Mach Co Ltd Camera direction control device of remote control machine
JP2001121463A (en) * 1999-10-29 2001-05-08 Atr Media Integration & Communications Res Lab Intelligent robot
JP2001179666A (en) * 1999-12-28 2001-07-03 Namco Ltd Pet type robot and recording medium readable by computer with program recorded
JP2001239479A (en) * 1999-12-24 2001-09-04 Sony Corp Leg type mobile robot and exterior module for robot
JP2001345906A (en) * 2000-05-31 2001-12-14 Sanyo Electric Co Ltd Robot for adaptive to telephone
JP2002036158A (en) * 2000-07-27 2002-02-05 Yamaha Motor Co Ltd Electronic appliance having autonomous function

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63200786A (en) * 1987-02-17 1988-08-19 辰巳電子工業株式会社 Automatic doll
JPH02121092U (en) * 1989-03-17 1990-10-01
JPH06261982A (en) * 1993-03-12 1994-09-20 Toshiba Corp Communication robot
JPH09193078A (en) * 1996-01-22 1997-07-29 Hitachi Constr Mach Co Ltd Camera direction control device of remote control machine
JP2001121463A (en) * 1999-10-29 2001-05-08 Atr Media Integration & Communications Res Lab Intelligent robot
JP2001239479A (en) * 1999-12-24 2001-09-04 Sony Corp Leg type mobile robot and exterior module for robot
JP2001179666A (en) * 1999-12-28 2001-07-03 Namco Ltd Pet type robot and recording medium readable by computer with program recorded
JP2001345906A (en) * 2000-05-31 2001-12-14 Sanyo Electric Co Ltd Robot for adaptive to telephone
JP2002036158A (en) * 2000-07-27 2002-02-05 Yamaha Motor Co Ltd Electronic appliance having autonomous function

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009000489A1 (en) 2008-01-30 2009-08-13 Ryobi Ltd., Fuchu Method and apparatus for controlling the quality of a printed image for a color printing machine
WO2011089885A1 (en) * 2010-01-25 2011-07-28 パナソニック株式会社 Danger presentation device, danger presentation system, danger presentation method, and program
US8816874B2 (en) 2010-01-25 2014-08-26 Panasonic Corporation Danger presentation device, danger presentation system, danger presentation method and program
JP2014030865A (en) * 2012-08-01 2014-02-20 Fujitsu Ltd Sight line control device, sight line control method, sight line control program, and terminal equipment
JP2018060322A (en) * 2016-10-04 2018-04-12 トヨタ自動車株式会社 Voice interactive device and control method thereof
US10464214B2 (en) 2016-10-04 2019-11-05 Toyota Jidosha Kabushiki Kaisha Voice interaction device and control method therefor
US10350761B2 (en) 2016-10-13 2019-07-16 Toyota Jidosha Kabushiki Kaisha Communication device
CN106826867A (en) * 2017-03-31 2017-06-13 上海思依暄机器人科技股份有限公司 A kind of method that robot and control robot head are rotated
EP3498429A1 (en) * 2017-11-28 2019-06-19 Toyota Jidosha Kabushiki Kaisha Communication apparatus
US11188811B2 (en) 2017-11-28 2021-11-30 TOYOTA JIDOSHA KABUSHtKI KAISHA Communication apparatus

Also Published As

Publication number Publication date
JP4565196B2 (en) 2010-10-20

Similar Documents

Publication Publication Date Title
JP4565196B2 (en) Communication robot
JP4822319B2 (en) Communication robot and attention control system using the same
JP5186723B2 (en) Communication robot system and communication robot gaze control method
US8419545B2 (en) Method and system for controlling movements of objects in a videogame
JP4849244B2 (en) Mobile robot and moving speed estimation method
US20090221368A1 (en) Method and system for creating a shared game space for a networked game
JP2004042151A (en) Communication robot
JP7355006B2 (en) Information processing device, information processing method, and recording medium
Pateromichelakis et al. Head-eyes system and gaze analysis of the humanoid robot Romeo
US11331805B2 (en) Motion restriction system and method
JP2009045692A (en) Communication robot and its operating method
JP2006272471A (en) Communication robot
JP7181148B2 (en) System, program, method, and information processing device
JP4617428B2 (en) Motion generation system
JP2023015061A (en) program
JP2007130691A (en) Communication robot
JP4798581B2 (en) Robot system
JP2006231497A (en) Communication robot
JP3989698B2 (en) Communication robot
JP4517085B2 (en) Robot remote control system
JP5948359B2 (en) Robot and robot control method
JP4831750B2 (en) Communication trigger system
US11518036B2 (en) Service providing system, service providing method and management apparatus for service providing system
JP2003266353A (en) Robot device and control method therefor
KR101402908B1 (en) Situation dependent behavior based robot control appartus and method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100622

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100708

R150 Certificate of patent or registration of utility model

Ref document number: 4565196

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130813

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term