JP4677593B2 - Communication robot - Google Patents

Communication robot Download PDF

Info

Publication number
JP4677593B2
JP4677593B2 JP2007222992A JP2007222992A JP4677593B2 JP 4677593 B2 JP4677593 B2 JP 4677593B2 JP 2007222992 A JP2007222992 A JP 2007222992A JP 2007222992 A JP2007222992 A JP 2007222992A JP 4677593 B2 JP4677593 B2 JP 4677593B2
Authority
JP
Japan
Prior art keywords
communication
robot
axis
user
tag
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2007222992A
Other languages
Japanese (ja)
Other versions
JP2007320033A (en
Inventor
崇行 神田
貴幸 平野
浩 石黒
潔 小暮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2007222992A priority Critical patent/JP4677593B2/en
Publication of JP2007320033A publication Critical patent/JP2007320033A/en
Application granted granted Critical
Publication of JP4677593B2 publication Critical patent/JP4677593B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

この発明はコミュニケーションロボットに関し、特にたとえば固有の無線タグを保有する複数のコミュニケーション対象との間でコミュニケーション行動を実行する、コミュニケーションロボットに関する。   The present invention relates to a communication robot, and more particularly to a communication robot that executes a communication action with a plurality of communication objects having a unique wireless tag, for example.

従来のこの種のコミュニケーションロボットの一例が特許文献1に開示される。この特許文献1に開示されるロボット装置では、ロボット装置に対面する人物をカメラで撮影し、撮影したカメラ画像から正面顔画像を取得し、予め記憶してある識別辞書と照合して、人物を特定していた。
特開2002−56388号(第6頁〜第11頁,第1図〜第10図,第12図,第19図〜第22図および第33図)
An example of a conventional communication robot of this type is disclosed in Patent Document 1. In the robot apparatus disclosed in Patent Document 1, a person who faces the robot apparatus is photographed with a camera, a front face image is acquired from the photographed camera image, and is compared with an identification dictionary stored in advance, and the person is identified. It was specified.
JP 2002-56388 (pages 6 to 11, FIGS. 1 to 10, FIG. 12, FIGS. 19 to 22 and FIG. 33)

しかし、この従来技術は、ロボットに対面する人物を特定(識別)するようにしてあるため、ロボットの近傍やその周囲に存在する人物を特定するのは困難であり、人物が複数人存在する場合には、それぞれの人物と対面して、人物を特定する必要があった。また、カメラで撮影した映像によって人物を特定するようにしてあるため、処理が膨大であり、人物の特定に時間がかかってしまうという問題があった。さらに、ロボットから見て人物が複数重なっている場合には、後ろに位置する人物を特定することができないという問題もあった。したがって、このような従来技術を、複数人の人物のような複数のコミュニケーション対象との間でコミュニケーション行動を実行するコミュニケーションロボットに適用することはできなかった。   However, since this conventional technique is designed to identify (identify) the person facing the robot, it is difficult to identify the person in the vicinity of or around the robot. Had to face each person and identify the person. Further, since the person is specified by the video shot by the camera, there is a problem that the processing is enormous and it takes time to specify the person. Furthermore, when a plurality of persons are overlapped when viewed from the robot, there is a problem that a person located behind cannot be specified. Therefore, such a conventional technique cannot be applied to a communication robot that executes communication behavior with a plurality of communication objects such as a plurality of persons.

それゆえに、この発明の主たる目的は、コミュニケーション対象を容易に特定でき、特定したコミュニケーション対象に適したコミュニケーション行動を実行できる、コミュニケーションロボットを提供することである。   Therefore, a main object of the present invention is to provide a communication robot capable of easily specifying a communication target and executing a communication action suitable for the specified communication target.

この発明は、固有のタグ情報を有する無線タグを保有する複数のコミュニケーション対象との間で、振る舞いおよび音声の少なくとも一方によるコミュニケーション行動を実行するコミュニケーションロボットであって、タグ情報と当該タグ情報を有する無線タグを保有するコミュニケーション対象とを対応付けて記録するタグ情報データベース、コミュニケーション対象が保有する無線タグからタグ情報を取得する取得手段、取得手段の取得結果に基づいて近傍或いは周囲に存在する複数のコミュニケーション対象を個別に認識し、各コミュニケーション対象との距離の大小を検出する認識手段、認識手段の認識結果から距離が最小となるコミュニケーション対象を、コミュニケーション行動を実行する1のコミュニケーション対象として特定する特定手段、コミュニケーション行動の履歴を、当該コミュニケーション行動を実行したコミュニケーション対象に対応づけて記録する履歴データベース、および特定手段によって特定された1のコミュニケーション対象に対応づけて記録されたコミュニケーション行動の履歴に従うコミュニケーション行動を当該コミュニケーション対象に実行する実行手段を備える、コミュニケーションロボットである。 The present invention is a communication robot that executes communication behavior by at least one of behavior and voice between a plurality of communication objects having radio tags having unique tag information, and includes the tag information and the tag information. tag information database for recording in association with communication target carrying a wireless tag, acquiring means for acquiring tag information from the wireless tag held by communication object, double that exist in the vicinity or surroundings on the basis of the obtained results of the acquisition means the number of communication target recognize individually, the recognition means for detecting the magnitude of the distance between the communication target, the communication subject distance from the recognition result of the recognition means is minimized, as a communication object, which executes communication behavior Specifying means for constant, communications history of the behavior, the communication behavior of the history database for recording in association with the communication target has been executed, and communication behavior history recorded in association with one communication target specified by the specifying means It is a communication robot provided with the execution means which performs the communication action according to this communication object .

コミュニケーションロボットは、固有の無線タグを保有するたとえば人間(ユーザ)のような複数のコミュニケーション対象に対して、音および動作の少なくとも一方によるコミュニケーション行動を実行する。コミュニケーションロボットは、少なくともタグ情報を記録するタグ情報データベースを備えている。コミュニケーションロボットは、コミュニケーション行動を実行する際、取得手段によってコミュニケーション対象からタグ情報を取得する。認識手段は、コミュニケーション対象としての人間(ユーザ)を個別に認識する。特定手段は、認識手段の認識結果に基づいて1のコミュニケーション対象を特定する。つまり、コミュニケーションロボットの近傍或いは周囲に存在するユーザのうち、1人のユーザを特定する。そして、実行手段は、当該ユーザに対してコミュニケーション行動を実行する。   The communication robot executes a communication action by at least one of sound and action on a plurality of communication objects such as a human (user) having a unique wireless tag. The communication robot includes a tag information database that records at least tag information. When performing a communication action, the communication robot acquires tag information from a communication target by an acquisition unit. The recognition means individually recognizes a human (user) as a communication target. The specifying unit specifies one communication target based on the recognition result of the recognition unit. That is, one user is specified among users existing near or around the communication robot. And an execution means performs a communication action with respect to the said user.

たとえば、検出手段が各コミュニケーション対象との距離の大小を検出するので、特定手段は、距離が最小となる1のコミュニケーション対象を特定することができる。つまり、最近傍に存在するユーザに対してコミュニケーション行動を取ることができる。   For example, since the detecting means detects the distance between each communication object, the specifying means can specify one communication object having the smallest distance. That is, a communication action can be taken with respect to a user existing in the nearest vicinity.

また、無線タグは電波を発信し、取得手段はアンテナを含む。検出手段は、取得手段によってタグ情報を取得したときのアンテナにおける電波強度に応じて距離の大小を検出する。つまり、電波強度がより弱ければ、コミュニケーションロボットからの距離が大きく、電波強度がより強ければ、コミュニケーションロボットからの距離が小さい。したがって、特定手段は、一番強い電波強度で取得したタグ情報を有するユーザをコミュニケーション対象に特定するのである。   The wireless tag transmits radio waves, and the acquisition means includes an antenna. The detection means detects the magnitude of the distance according to the radio wave intensity at the antenna when the tag information is acquired by the acquisition means. That is, if the radio field intensity is weaker, the distance from the communication robot is larger, and if the radio field intensity is stronger, the distance from the communication robot is smaller. Therefore, the specifying unit specifies a user having tag information acquired with the strongest radio wave intensity as a communication target.

ただし、無線タグは超音波や赤外線によりタグ情報を送信 (放射)するようにしてもよい。超音波によりタグ情報を送信する場合には、取得手段に含まれる超音波センサが無線タグからの超音波を受信し、そのときの超音波センサにおける音波強度に応じてコミュニケーション対象としてのユーザが特定される。また、赤外線によりタグ情報を送信(放射)する場合には、取得手段に含まれる赤外線センサが無線タグからの赤外線を受信し、そのときの赤外線センサにおける受光強度に応じてコミュニケーション対象としてのユーザが特定される。   However, the wireless tag may transmit (radiate) tag information by ultrasonic waves or infrared rays. When transmitting tag information by ultrasonic waves, the ultrasonic sensor included in the acquisition unit receives the ultrasonic waves from the wireless tag, and the user as a communication target is specified according to the sound wave intensity of the ultrasonic sensor at that time. Is done. In addition, when tag information is transmitted (radiated) by infrared rays, an infrared sensor included in the acquisition unit receives infrared rays from a wireless tag, and a user who is a communication target according to the received light intensity of the infrared sensor at that time. Identified.

さらに、コミュニケーションロボットは、実行手段によって実行されたコミュニケーション行動の履歴を、たとえば当該コミュニケーション行動を実行したコミュニケーション対象に対応づけて記録する履歴データベースを備える。このため、履歴データベースを参照して、特定されたコミュニケーション対象に適したコミュニケーション行動を実行することができる。たとえば、初めて対話するユーザに対しては、お辞儀をするとともに、「○○さん、はじめまして」と挨拶することができる。また、以前に対話したことがあるが、今日初めて対話するユーザに対しては、お辞儀をするとともに、「○○さん、こんにちは」と挨拶することができる。つまり、適切でないコミュニケーション行動を繰り返すようなことがない。   Furthermore, the communication robot includes a history database that records the history of communication behavior executed by the execution unit in association with, for example, the communication target that executed the communication behavior. For this reason, it is possible to execute a communication action suitable for the identified communication target with reference to the history database. For example, for a user who interacts for the first time, he can bow and greet “Mr. XX, nice to meet you”. In addition, there is a fact that the dialogue previously, for a user for the first time dialogue today, with the bow, it is possible to greeting as "○○'s, Hello". In other words, there is no such thing as repeating inappropriate communication behavior.

また、判別手段は、履歴データベースを参照して、認識手段によって認識されたコミュニケーション対象のそれぞれについて特定情報を取得しているかどうかを判別する。特定情報を取得していないと判別されたコミュニケーション対象が存在する場合には、実行手段が当該特定情報を少なくとも当該コミュニケーション対象に報知 (提示)するためのコミュニケーション行動を実行する。つまり、特定のユーザに対してのコミュニケーションだけでなく、それ以外のユーザに対してもコミュニケーション行動を取ることもできる。   The determining unit determines whether or not specific information has been acquired for each communication object recognized by the recognizing unit with reference to the history database. If there is a communication target that is determined not to acquire specific information, the execution means executes a communication action for notifying (presenting) the specific information to at least the communication target. That is, not only communication with a specific user but also communication with other users can be performed.

一方、特定情報を取得していないと判別されたコミュニケーション対象が存在しない場合には、実行手段は他のコミュニケーション対象を探すためのコミュニケーション行動を実行する。つまり、新しいコミュニケーション対象を求める。ただし、他の特定情報を報知するためのコミュニケーション行動を実行するようにしてもよい。   On the other hand, when there is no communication target that is determined not to acquire the specific information, the execution means executes a communication action for searching for another communication target. In other words, a new communication object is sought. However, you may make it perform the communication action for alert | reporting other specific information.

また、認識手段によって、コミュニケーション対象を認識できない場合には、つまり近傍や周囲にユーザが存在しない場合には、実行手段は、コミュニケーション対象を探す (求める)ためのコミュニケーション行動を実行する。   In addition, when the communication means cannot be recognized by the recognition means, that is, when there is no user in the vicinity or surroundings, the execution means executes a communication action for searching for (finding) the communication target.

この発明によれば、タグ情報に基づいてコミュニケーション対象を特定するので、その特定が簡単である。また、1のコミュニケーション対象を特定するので、ロボットは当該コミュニケーション対象に適したコミュニケーション行動を取ることができる。   According to the present invention, since the communication target is specified based on the tag information, the specification is simple. In addition, since one communication target is specified, the robot can take a communication action suitable for the communication target.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この実施例のコミュニケーションロボット(以下、単に「ロボット」ということがある。)10は、主として人間のようなコミュニケーションの対象とコミュニケーションすることを目的とした相互作用指向のコミュニケーションロボットである。ただし、コミュニケーションの対象としては、コミュニケーションロボット10と同様に構成された他のコミュニケーションロボットであってもよい。   Referring to FIG. 1, a communication robot (hereinafter, simply referred to as “robot”) 10 of this embodiment is an interaction-oriented communication mainly for the purpose of communicating with a communication target such as a human. It is a robot. However, the communication target may be another communication robot configured similarly to the communication robot 10.

このロボット10の近傍或いは周囲には、人間ないしはユーザA、ユーザBおよびユーザCが存在し、ユーザA、ユーザBおよびユーザCは、それぞれ、RFIDタグ(以下、単に「タグ」という。)12、14および16を所持或いは装着(保有)している。タグ12、14および16は、任意のタグを用いることができるが、この実施例では、自走式(電池式)のタグを用いてある。したがって、タグ12、14および16は、それぞれ、固有のRFID(Radio Frequency Identification)の情報を所定周波数の電波に重畳して、一定の時間間隔で送信(発信)する。ただし、異なる周波数の電波を送信して、周波数の違いでタグ(ユーザ)を識別可能な構成としてもよい。 In the vicinity of or around the robot 10 , there are humans or users A, B, and C. The users A, B, and C are RFID tags (hereinafter simply referred to as “tags”) 12, respectively. 14 or 16 is possessed or mounted (owned). Although any tag can be used as the tags 12, 14, and 16, a self-propelled (battery type) tag is used in this embodiment. Therefore, each of the tags 12, 14, and 16 superimposes specific RFID (Radio Frequency Identification) information on a radio wave having a predetermined frequency, and transmits (transmits) it at a constant time interval. However, it may be configured such that radio waves having different frequencies can be transmitted and the tag (user) can be identified by the difference in frequency.

なお、この実施例では、3人のユーザが存在する場合について示してあるが、ユーザは1人以上であればよい。   In this embodiment, the case where there are three users is shown, but it is sufficient that the number of users is one or more.

図2はロボット10の外観を示す正面図であり、この図2を参照して、ロボット10のハードウェアの構成について説明する。ロボット10は台車20を含み、この台車20の下面にはロボット10を自律移動させる車輪22が設けられる。車輪22は車輪モータ(図3参照:90)によって駆動され、台車20すなわちロボット10を前後左右任意の方向に動かすことができる。 FIG. 2 is a front view showing the appearance of the robot 10, and the hardware configuration of the robot 10 will be described with reference to FIG. The robot 10 includes a carriage 20, and wheels 22 for autonomously moving the robot 10 are provided on the lower surface of the carriage 20. The wheel 22 is driven by a wheel motor (see FIG. 3: 90), and can move the carriage 20, that is, the robot 10 in any direction, front, back, left, and right.

なお、図2においては省略するが、台車20の前面には、衝突センサ(図3参照:94)が取り付けられ、この衝突センサ94は台車20への人や他の障害物の接触を検知する。つまり、ロボット10の移動中に障害物との接触を検知すると、直ちに車輪22の駆動を停止してロボット10の移動を急停止させて、衝突を未然に防止する。   Although omitted in FIG. 2, a collision sensor (see FIG. 3: 94) is attached to the front surface of the carriage 20, and this collision sensor 94 detects contact of a person and other obstacles to the carriage 20. . That is, when contact with an obstacle is detected during the movement of the robot 10, the driving of the wheels 22 is immediately stopped to suddenly stop the movement of the robot 10, thereby preventing a collision.

また、この実施例では、ロボット10の背の高さは、人(ユーザ)、特に子供に威圧感を与えることのないように、100cm程度とされる。ただし、この背の高さは変更可能である。   In this embodiment, the height of the robot 10 is about 100 cm so as not to intimidate people (users), particularly children. However, this height can be changed.

台車20の上には、多角形柱のセンサ取付パネル24が設けられ、このセンサ取付パネル24の各面には、超音波距離センサ26が取り付けられる。この超音波距離センサ26は、センサ取付パネル24すなわちロボット10の周囲の主としてユーザとの距離を計測するものである。   A polygonal column sensor mounting panel 24 is provided on the carriage 20, and an ultrasonic distance sensor 26 is mounted on each surface of the sensor mounting panel 24. The ultrasonic distance sensor 26 measures the distance from the sensor mounting panel 24, that is, the user mainly around the robot 10.

また、台車20の上には、さらに、下部がセンサ取付パネル24に囲まれて、ロボット10の胴体が直立するように設けられる。この胴体は、下部胴体28と上部胴体30とによって構成され、下部胴体28および上部胴体30は、連結部32によって互いに連結される。図示は省略するが、連結部32には昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体30の高さすなわちロボット10の背の高さを変化させることができる。昇降機構は、後述するように、腰モータ(図3参照:88)によって駆動される。   Further, on the carriage 20, the lower part is surrounded by the sensor mounting panel 24 so that the body of the robot 10 stands upright. This body is composed of a lower body 28 and an upper body 30, and the lower body 28 and the upper body 30 are connected to each other by a connecting portion 32. Although illustration is omitted, the connecting portion 32 has a built-in lifting mechanism, and the height of the upper body 30, that is, the height of the back of the robot 10 can be changed by using this lifting mechanism. The lifting mechanism is driven by a waist motor (see FIG. 3: 88) as will be described later.

なお、上述したロボット10の背の高さは、上部胴体30をそれの最下位置にしたときのものである。したがって、ロボット10の背の高さは、100cm以上にすることができる。   The height of the robot 10 described above is the height when the upper body 30 is at its lowest position. Therefore, the height of the robot 10 can be 100 cm or more.

上部胴体30のほぼ中央には、1つの全方位カメラ34と1つのマイク36とが設けられる。全方位カメラ34は、ロボット10の周囲を撮影するものであり、後述する眼カメラ56とは区別される。この全方位カメラ34としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。マイク36は、周囲の音、とりわけコミュニケーション対象であるユーザの声を取り込む。   One omnidirectional camera 34 and one microphone 36 are provided in the approximate center of the upper body 30. The omnidirectional camera 34 captures the surroundings of the robot 10 and is distinguished from an eye camera 56 described later. As this omnidirectional camera 34, for example, a camera using a solid-state imaging device such as a CCD or a CMOS can be adopted. The microphone 36 captures ambient sounds, particularly a user's voice that is a communication target.

上部胴体30の両肩には、それぞれ、肩関節38Rおよび38Lによって、上腕40Rおよび40Lが設けられる。肩関節38Rおよび38Lは、それぞれ、3軸の自由度を有する。すなわち、肩関節38Rは、X軸、Y軸およびZ軸のそれぞれの軸廻りにおいて上腕40Rの角度を制御できる。Y軸は、上腕40Rの長手方向(または軸)に平行な軸であり、X軸およびZ軸は、そのY軸に対して、それぞれ異なる方向から直交する軸である。他方、肩関節38Lは、A軸、B軸およびC軸のそれぞれの軸廻りにおいて上腕40Lの角度を制御できる。B軸は、上腕40Lの長手方向(または軸)に平行な軸であり、A軸およびC軸は、そのB軸に対して、それぞれ異なる方向から直交する軸である。   Upper arms 40R and 40L are provided on both shoulders of the upper body 30 by shoulder joints 38R and 38L, respectively. The shoulder joints 38R and 38L each have three axes of freedom. That is, the shoulder joint 38R can control the angle of the upper arm 40R around each of the X axis, the Y axis, and the Z axis. The Y axis is an axis parallel to the longitudinal direction (or axis) of the upper arm 40R, and the X axis and the Z axis are orthogonal to the Y axis from different directions. On the other hand, the shoulder joint 38L can control the angle of the upper arm 40L around each of the A axis, the B axis, and the C axis. The B axis is an axis parallel to the longitudinal direction (or axis) of the upper arm 40L, and the A axis and the C axis are axes orthogonal to the B axis from different directions.

また、上腕40Rおよび40Lのそれぞれの先端には、肘関節42Rおよび42Lを介して、前腕44Rおよび44Lが設けられる。肘関節42Rおよび42Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕44Rおよび44Lの角度を制御できる。   Further, forearms 44R and 44L are provided at the tips of the upper arms 40R and 40L via elbow joints 42R and 42L, respectively. The elbow joints 42R and 42L can control the angles of the forearms 44R and 44L around the axes of the W axis and the D axis, respectively.

なお、上腕40Rおよび40Lならびに前腕44Rおよび44Lの変位を制御するX軸,Y軸,Z軸,W軸およびA軸,B軸,C軸,D軸では、それぞれ、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、上腕40Rおよび40Lならびに前腕44Rおよび44Lは下方に向けられる。   In the X axis, Y axis, Z axis, W axis, A axis, B axis, C axis, and D axis that control the displacement of the upper arms 40R and 40L and the forearms 44R and 44L, "0 degrees" is the home position, respectively. In this home position, as shown in FIG. 2, the upper arms 40R and 40L and the forearms 44R and 44L are directed downward.

また、図示は省略するが、上部胴体30の肩関節38Rおよび38Lを含む肩の部分や上述の上腕40Rおよび40Lならびに前腕44Rおよび44Lには、それぞれ、タッチセンサ(図3で包括的に示す。:92)が設けられていて、これらのタッチセンサ92は、ユーザがロボット10の当該各部位に触れたかどうかを検知する。   Although not shown in the drawings, the shoulder portion including the shoulder joints 38R and 38L of the upper body 30 and the above-mentioned upper arms 40R and 40L and the forearms 44R and 44L are each shown with touch sensors (shown comprehensively in FIG. 3). : 92), and these touch sensors 92 detect whether or not the user has touched each part of the robot 10.

前腕44Rおよび44Lのそれぞれの先端には、手に相当する球体46Rおよび46Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。   Spheres 46R and 46L corresponding to hands are fixedly provided at the tips of the forearms 44R and 44L, respectively. However, if a finger or palm function is required, a “hand” in the shape of a human hand can be used.

なお、ロボット10の形状・寸法等は適宜設定されるが、他の実施例では、たとえば、上部胴体30は、前面、背面、右側面、左側面、上面および底面を含み、右側面および左側面は表面が斜め前方に向くように形成してもよい。つまり、前面の横幅が背面の横幅よりも短く、上部胴体30を上から見た形状が台形になるように形成されてもよい。   Although the shape, dimensions, etc. of the robot 10 are set as appropriate, in other embodiments, for example, the upper body 30 includes the front surface, the back surface, the right side surface, the left side surface, the top surface, and the bottom surface, and the right side surface and the left side surface. You may form so that the surface may face diagonally forward. That is, the width of the front surface may be shorter than the width of the back surface, and the shape of the upper body 30 viewed from above may be a trapezoid.

このような場合、肩関節38Rおよび38Lは、右側面および左側面に、その表面が左右両側面とそれぞれ平行である左右の支持部を介して設けられる。そして、上腕40Rおよび上腕40Lの回動範囲は、これら左右側面または支持部の表面(取り付け面)によって規制され、上腕40Rおよび40Lは取り付け面を超えて回動することはない。   In such a case, the shoulder joints 38R and 38L are provided on the right side surface and the left side surface via left and right support portions whose surfaces are parallel to the left and right side surfaces, respectively. The rotation range of the upper arm 40R and the upper arm 40L is restricted by the left and right side surfaces or the surface (attachment surface) of the support portion, and the upper arms 40R and 40L do not rotate beyond the attachment surface.

しかし、左右側面の傾斜角、B軸とY軸との間隔、上腕40Rおよび40Lの長さ、ならびに前腕44Rおよび44Lの長さ等を適宜に設定すれば、上腕40Rおよび40Lは前方を超えてより内側まで回動できるので、たとえW軸およびD軸による腕の自由度がなくてもロボット10の腕は前方で交差できる。したがって、腕の自由度が少ない場合でも正面に位置する人と抱き合うなどの密接なコミュニケーションを取ることができる。   However, if the inclination angle of the left and right side surfaces, the distance between the B axis and the Y axis, the lengths of the upper arms 40R and 40L, the lengths of the forearms 44R and 44L, etc. are appropriately set, the upper arms 40R and 40L exceed the front. Since it can rotate to the inner side, the arms of the robot 10 can cross forward even if there is no degree of freedom of the arms by the W axis and D axis. Therefore, even when the degree of freedom of arms is small, close communication such as embracing with a person located in front can be performed.

上部胴体30の中央上方には、首関節48を介して頭部50が設けられる。首関節48は、3軸の自由度を有し、S軸、T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上(鉛直上向き)に向かう軸であり、T軸およびU軸は、それぞれ、そのS軸に対して異なる方向で直交する軸である。頭部50には、人の口に相当する位置に、スピーカ52が設けられる。スピーカ52は、ロボット10が、それの周囲(周辺)の人に対して音声(音を含む。)または声によってコミュニケーションを取るために用いられる。ただし、スピーカ52は、ロボット10の他の部位、たとえば胴体に設けられてもよい。   A head 50 is provided above the center of the upper body 30 via a neck joint 48. The neck joint 48 has a degree of freedom of three axes, and the angle can be controlled around each of the S axis, the T axis, and the U axis. The S-axis is an axis that extends from the neck directly upward (vertically upward), and the T-axis and the U-axis are axes that are orthogonal to the S-axis in different directions. The head 50 is provided with a speaker 52 at a position corresponding to a human mouth. The speaker 52 is used by the robot 10 to communicate with a person around it (sound) including voice (including sound) or voice. However, the speaker 52 may be provided in another part of the robot 10, for example, the trunk.

また、頭部50には、目に相当する位置に眼球部54Rおよび54Lが設けられる。眼球部54Rおよび54Lは、それぞれ眼カメラ56Rおよび56Lを含む。以下、右の眼球部54Rと左の眼球部54Lとをまとめて眼球部54ということがあり、また、右の眼カメラ56Rと左の眼カメラ56Lとをまとめて眼カメラ56ということもある。   The head 50 is provided with eyeball portions 54R and 54L at positions corresponding to the eyes. Eyeball portions 54R and 54L include eye cameras 56R and 56L, respectively. Hereinafter, the right eyeball portion 54R and the left eyeball portion 54L may be collectively referred to as the eyeball portion 54, and the right eye camera 56R and the left eye camera 56L may be collectively referred to as the eye camera 56.

眼カメラ56は、ロボット10に接近した人の顔や他の部分ないし物体等を撮影して、それに対応する映像信号を取り込む。眼カメラ56としては、上述した全方位カメラ34と同様のカメラを用いることができる。   The eye camera 56 captures the face of the person approaching the robot 10, other parts or objects, and captures a corresponding video signal. As the eye camera 56, a camera similar to the omnidirectional camera 34 described above can be used.

たとえば、眼カメラ56は眼球部54内に固定され、眼球部54は眼球支持部(図示せず)を介して頭部50内の所定位置に取り付けられる。眼球支持部は、2軸の自由度を有し、α軸およびβ軸の各軸廻りに角度制御可能である。α軸およびβ軸は頭部50に対して設けられる軸であり、α軸は頭部50の上へ向かう方向の軸であり、β軸はα軸に直交しかつ頭部50の正面側(顔)が向く方向に直交する方向の軸である。この実施例では、頭部50がホームポジションにあるとき、α軸はS軸と平行であり、β軸はU軸と平行であるように設定される。このような頭部50において、眼球支持部がα軸およびβ軸の各軸廻りに回転されることによって、眼球部54ないし眼カメラ56の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。   For example, the eye camera 56 is fixed in the eyeball part 54, and the eyeball part 54 is attached to a predetermined position in the head 50 via an eyeball support part (not shown). The eyeball support unit has two degrees of freedom and can be controlled in angle around each of the α axis and the β axis. The α axis and the β axis are axes provided with respect to the head 50, the α axis is an axis in a direction toward the top of the head 50, the β axis is orthogonal to the α axis and the front side of the head 50 ( It is an axis in a direction perpendicular to the direction in which the face is facing. In this embodiment, when the head 50 is in the home position, the α axis is set to be parallel to the S axis, and the β axis is set to be parallel to the U axis. In such a head 50, the tip (front) side of the eyeball part 54 or the eye camera 56 is displaced by rotating the eyeball support part around each of the α axis and the β axis, and the camera axis, that is, the line-of-sight direction is changed. Moved.

なお、眼カメラ56の変位を制御するα軸およびβ軸では、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、眼カメラ56のカメラ軸は頭部50の正面側(顔)が向く方向に向けられ、視線は正視状態となる。   In the α axis and β axis that control the displacement of the eye camera 56, “0 degree” is the home position. At this home position, the camera axis of the eye camera 56 is the head 50, as shown in FIG. The direction of the front side (face) is directed, and the line of sight is in the normal viewing state.

さらに、頭部50の横であり、右肩部から延びるアンテナ58が設けられる。アンテナ58は図1に示したタグ12、14および16から送信されるRFIDの情報(タグ情報)が重畳された電波を受信する。   Further, an antenna 58 is provided that is next to the head 50 and extends from the right shoulder. The antenna 58 receives radio waves on which RFID information (tag information) transmitted from the tags 12, 14, and 16 shown in FIG. 1 is superimposed.

図3はロボット10の電気的な構成を示すブロック図であり、この図3を参照して、ロボット10は、全体の制御を司るCPU60を含む。CPU60は、マイクロコンピュータ或いはプロセサとも呼ばれ、バス62を介して、メモリ70、モータ制御ボード72、センサ入力/出力ボード74および音声入力/出力ボード76に接続される。   FIG. 3 is a block diagram showing an electrical configuration of the robot 10. With reference to FIG. 3, the robot 10 includes a CPU 60 that performs overall control. The CPU 60 is also called a microcomputer or a processor, and is connected to the memory 70, the motor control board 72, the sensor input / output board 74 and the audio input / output board 76 via the bus 62.

メモリ70は、図示は省略するが、ROMやRAMを含み、ROMにはロボット10の制御プログラムが予め記憶されるとともに、コミュニケーション行動の実行の際にスピーカ52から発生すべき音声または声の音声データ(音声合成データ)および所定の身振りを提示するための角度データ等が記憶される。RAMは、ワークメモリやバッファメモリとして用いられる。   Although not shown in the figure, the memory 70 includes a ROM and a RAM, in which a control program for the robot 10 is stored in advance, and voice or voice data to be generated from the speaker 52 when executing the communication action. (Speech synthesis data) and angle data for presenting a predetermined gesture are stored. The RAM is used as a work memory or a buffer memory.

モータ制御ボード72は、たとえばDSPで構成され、各腕や頭部および眼球部等の各軸モータの駆動を制御する。すなわち、モータ制御ボード72は、CPU60からの制御データを受け、右眼球部54Rのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ」と示す。)78の回転角度を制御する。同様に、モータ制御ボード72は、CPU60からの制御データを受け、左眼球部54Lのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ」と示す。)80の回転角度を制御する。   The motor control board 72 is configured by a DSP, for example, and controls driving of each axis motor such as each arm, head, and eyeball. In other words, the motor control board 72 receives control data from the CPU 60 and controls two angles of the α-axis and β-axis of the right eyeball portion 54R (collectively, “right-eye motor” in FIG. 3). .) Control the rotation angle of 78. Similarly, the motor control board 72 receives control data from the CPU 60, and controls two angles of the α axis and β axis of the left eyeball portion 54L (in FIG. 3, collectively referred to as “left eyeball motor”). Shown) Control the rotation angle of 80.

また、モータ制御ボード72は、CPU60からの制御データを受け、右肩関節38RのX軸、Y軸およびZ軸のそれぞれの角度を制御する3つのモータと右肘関節42RのW軸の角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ」と示す。)82の回転角度を調節する。同様に、モータ制御ボード72は、CPU60からの制御データを受け、左肩関節38LのA軸、B軸およびC軸のそれぞれの角度を制御する3つのモータと左肘関節42LのD軸の角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ」と示す。)84の回転角度を調整する。   The motor control board 72 receives the control data from the CPU 60, and determines the angles of the three motors for controlling the X-axis, Y-axis, and Z-axis angles of the right shoulder joint 38R and the W-axis angle of the right elbow joint 42R. The rotation angle of a total of four motors (one collectively shown as “right arm motor” in FIG. 3) 82 with one motor to be controlled is adjusted. Similarly, the motor control board 72 receives the control data from the CPU 60 and determines the angles of the three motors for controlling the angles of the A-axis, B-axis and C-axis of the left shoulder joint 38L and the D-axis angle of the left elbow joint 42L. The rotation angle of a total of four motors (one collectively shown as “left arm motor” in FIG. 3) 84 including one motor to be controlled is adjusted.

さらに、モータ制御ボード72は、CPU60からの制御データを受け、頭部50のS軸、T軸およびU軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ」と示す。)86の回転角度を制御する。さらにまた、モータ制御ボード72は、CPU60からの制御データを受け、腰モータ88および車輪22を駆動する2つのモータ(図3では、まとめて「車輪モータ」と示す。)90の回転角度を制御する。   Further, the motor control board 72 receives control data from the CPU 60 and controls three motors for controlling the angles of the S-axis, T-axis, and U-axis of the head 50 (in FIG. 3, "head motor" collectively). The rotation angle of 86 is controlled. Furthermore, the motor control board 72 receives control data from the CPU 60 and controls the rotation angle of two motors 90 (hereinafter collectively referred to as “wheel motors”) 90 that drive the waist motor 88 and the wheels 22. To do.

なお、この実施例では、車輪モータ90を除くモータは、制御を簡素化するために、ステッピングモータ或いはパルスモータを用いるようにしてある。ただし、車輪モータ90と同様に、直流モータを用いるようにしてもよい。   In this embodiment, a motor other than the wheel motor 90 is a stepping motor or a pulse motor in order to simplify the control. However, like the wheel motor 90, a DC motor may be used.

センサ入力/出力ボード74もまた、同様に、DSPで構成され、各センサからの信号を取り込んでCPU60に与える。すなわち、超音波距離センサ26のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード74を通してCPU60に入力される。また、全方位カメラ34からの映像信号が、必要に応じてこのセンサ入力/出力ボード74で所定の処理を施された後、CPU60に入力される。眼カメラ56からの映像信号も、同様にして、CPU60に入力される。また、上述した複数のタッチセンサ(図3では、まとめて「タッチセンサ92」と示す。)からの信号がセンサ入力/出力ボード74を介してCPU60に与えられる。さらに、上述した衝突センサ94からの信号も、同様にして、CPU60に与えられる。   Similarly, the sensor input / output board 74 is also constituted by a DSP, and takes in signals from each sensor and gives them to the CPU 60. That is, data relating to the reflection time from each of the ultrasonic distance sensors 26 is input to the CPU 60 through the sensor input / output board 74. Further, a video signal from the omnidirectional camera 34 is input to the CPU 60 after being subjected to predetermined processing by the sensor input / output board 74 as required. Similarly, the video signal from the eye camera 56 is also input to the CPU 60. In addition, signals from the plurality of touch sensors described above (collectively indicated as “touch sensor 92” in FIG. 3) are provided to the CPU 60 via the sensor input / output board 74. Further, the signal from the collision sensor 94 described above is also given to the CPU 60 in the same manner.

音声入力/出力ボード76もまた、同様に、DSPで構成され、CPU60から与えられる音声合成データに従った音声または声がスピーカ52から出力される。また、マイク36からの音声入力が、音声入力/出力ボード76を介してCPU60に取り込まれる。   Similarly, the voice input / output board 76 is also configured by a DSP, and voice or voice in accordance with voice synthesis data provided from the CPU 60 is output from the speaker 52. Also, the voice input from the microphone 36 is taken into the CPU 60 via the voice input / output board 76.

また、CPU60は、バス62を介して通信LANボード96および無線IDタグ装置100に接続される。通信LANボード96は、DSPで構成され、CPU60から送られる送信データを無線通信装置98に与え、無線通信装置98から送信データを、図示は省略するが、たとえば、無線LANのようなネットワークを介して外部コンピュータに送信させる。また、通信LANボード96は、無線通信装置98を介してデータを受信し、受信したデータをCPU60に与える。つまり、この通信LANボード96および無線通信装置98によって、ロボット10は外部コンピュータ等と無線通信を行うことができる。   The CPU 60 is connected to the communication LAN board 96 and the wireless ID tag device 100 via the bus 62. The communication LAN board 96 is configured by a DSP, gives transmission data sent from the CPU 60 to the wireless communication device 98, and transmits the transmission data from the wireless communication device 98 through a network such as a wireless LAN (not shown). To send to an external computer. The communication LAN board 96 receives data via the wireless communication device 98 and gives the received data to the CPU 60. That is, the communication LAN board 96 and the wireless communication device 98 allow the robot 10 to perform wireless communication with an external computer or the like.

無線IDタグ装置100は、図1に示したタグ12、14および16から送信されるRFIDの情報を重畳した電波を、アンテナ58を介して受信し、電波信号を増幅し、当該電波信号からRFIDの情報を分離し、当該RFIDの情報を復調(デコード)してCPU60に与えるとともに、当該RFIDの情報を重畳した電波を受信したときのアンテナ58における電波強度を検出してCPU60に与える。ただし、RFIDの情報は、外部コンピュータでデコードして、CPU60に与えるようにしてもよい。   The wireless ID tag device 100 receives a radio wave superimposed with RFID information transmitted from the tags 12, 14, and 16 shown in FIG. 1 via the antenna 58, amplifies the radio signal, and generates an RFID from the radio signal. The RFID information is demodulated (decoded) and given to the CPU 60, and the radio wave intensity at the antenna 58 when the radio wave superimposed with the RFID information is received is detected and given to the CPU 60. However, the RFID information may be decoded by an external computer and given to the CPU 60.

なお、この実施例に示すタグ(12、14、16)およびアンテナ(58)を含む無線IDタグ装置(100)としては、米国のRF Code社が製造販売する商品名「Spider tag」および「Spider readers」をそれぞれ用いることができる。   As the wireless ID tag device (100) including the tag (12, 14, 16) and the antenna (58) shown in this embodiment, product names “Spider tag” and “Spider” manufactured and sold by RF Code in the United States are used. "readers" can be used respectively.

また、この実施例では、RFIDの情報を重畳した電波をタグ12、14および16から発信し、これをアンテナ58を介して無線IDタグ装置100で受信するようにしてあるが、これに限定されるべきでない。たとえば、RFIDの情報を重畳した超音波をタグ12、14および16から発信し、これを超音波センサを有する受信装置で受信するような構成にすることができる。また、RFIDの情報を赤外線信号に変換した赤外線をタグ12、14および16から放射し、これを赤外線受光部(赤外線センサ)を有する受信装置で受信するような構成にすることもできる。   Further, in this embodiment, radio waves superimposed with RFID information are transmitted from the tags 12, 14 and 16 and received by the wireless ID tag device 100 via the antenna 58. However, the present invention is not limited to this. Should not. For example, an ultrasonic wave on which RFID information is superimposed can be transmitted from the tags 12, 14, and 16 and received by a receiving device having an ultrasonic sensor. In addition, infrared rays obtained by converting RFID information into infrared signals can be emitted from the tags 12, 14, and 16 and received by a receiving device having an infrared light receiving unit (infrared sensor).

さらに、CPU60は、バス62を介して2つのデータベース102および104に接続される。ただし、これらのデータベースは、外部のネットワーク上にアクセス可能に設けるようにしてもよい。データベース102は、ユーザ情報を記憶するデータベース(以下、「ユーザDB」という。)であり、この実施例では、図4(A)に示すようなユーザ情報のテーブルを記録する。図4(A)から分かるように、ユーザ情報のテーブルには、ユーザ名に対応してRFIDが記述される。したがって、たとえば、ユーザAに装着されたタグ12は、“AAAA”というRFIDを有していることが分かる。このようなユーザDB102は、予めロボット10の設計者或いは開発者が登録しておくことができる。また、新たなユーザを追加する場合には、設計者等が当該新しいユーザ等を、外部コンピュータを操作してユーザDB102に登録することができる。他の実施例として、ロボット10が音声認識機能を備える場合には、ロボット10と当該新しいユーザとが会話などのコミュニケーションを取ることにより取得したユーザ名およびそのとき取得したRFIDを対応づけて、ロボット10(厳密には、CPU60)がユーザDB102に登録することもできる。   Further, the CPU 60 is connected to the two databases 102 and 104 via the bus 62. However, these databases may be provided so as to be accessible on an external network. The database 102 is a database for storing user information (hereinafter referred to as “user DB”). In this embodiment, a table of user information as shown in FIG. 4A is recorded. As can be seen from FIG. 4A, the RFID is described in the user information table corresponding to the user name. Therefore, for example, it can be seen that the tag 12 attached to the user A has an RFID of “AAAA”. Such a user DB 102 can be registered in advance by the designer or developer of the robot 10. In addition, when adding a new user, a designer or the like can register the new user or the like in the user DB 102 by operating an external computer. As another example, when the robot 10 has a voice recognition function, the robot 10 and the new user are associated with the user name acquired by communicating such as conversation and the RFID acquired at that time, and the robot 10 10 (strictly speaking, the CPU 60) can also be registered in the user DB 102.

また、データベース104は、ロボット10がユーザDB102に登録されたユーザ(ユーザA、ユーザB、ユーザC、…)のそれぞれ、或いは近傍および周囲に存在するすべてのユーザに対して実行したコミュニケーション行動の履歴を記録したデータベース(コミュニケーション行動履歴DB)であり、図4(B)に示すような履歴情報のテーブルを記録する。この図4(B)から分かるように、履歴情報のテーブルには、年月日および時間、コミュニケーション行動の内容およびRFIDがそれぞれ対応づけて記述される。したがって、図4(B)に示す1行目の例は、ロボット10が、2003年1月20日の10時20分にコミュニケーション行動1をユーザC(RFID:CCCC)に対して実行したことを示してある。また、5行目の例は、ロボット10が、2003年2月2日の15時5分にコミュニケーション行動5を近傍或いは周囲に存在するすべてのユーザ(RFID:ZZZZ)に対して実行したことを示してある。図面の都合上、近傍或いは周囲に存在するすべてのユーザについてのRFIDを“ZZZZ”と記述してあるが、実際には、ロボット10の近傍或いはその周囲に存在するユーザに対応するRFIDが記述される。つまり、後述するIDリストに含まれるすべてのRFIDが記述される。   The database 104 is a history of communication actions performed by the robot 10 for each of the users registered in the user DB 102 (user A, user B, user C,...) Or for all users in the vicinity and surroundings. Is a database (communication action history DB), and records a history information table as shown in FIG. As can be seen from FIG. 4B, the history information table describes the date and time, the content of the communication action, and the RFID in association with each other. Therefore, the example of the first line shown in FIG. 4B shows that the robot 10 executed the communication action 1 for the user C (RFID: CCCC) at 10:20 on January 20, 2003. It is shown. The example of the fifth line shows that the robot 10 executed the communication action 5 for all users (RFID: ZZZZ) in the vicinity or in the vicinity at 15:05 on February 2, 2003. It is shown. For convenience of drawing, the RFID for all users near or around is described as “ZZZ”, but in reality, the RFID corresponding to the users near or around the robot 10 is described. The That is, all RFIDs included in an ID list described later are described.

なお、ロボット10が音声認識機能を備える場合には、ユーザがロボットに対して行ったコミュニケーション行動の内容を履歴に記録することもできる。たとえば、ユーザが発話した内容およびユーザが発話したときの全方位カメラ34や眼カメラ56からの映像信号を履歴に残しておくことができる。   In addition, when the robot 10 has a voice recognition function, the contents of communication actions performed by the user on the robot can be recorded in the history. For example, the contents spoken by the user and the video signals from the omnidirectional camera 34 and the eye camera 56 when the user speaks can be stored in the history.

また、コミュニケーション行動の内容は、モータ78〜90の駆動を制御した角度データおよびスピーカ52から出力した音声(声)に対応するテキストデータであるが、これらの情報を履歴情報として記録した場合にはデータ量が膨大となるため、実際には、1のコミュニケーション行動(たとえば、挨拶、握手、抱きつく、情報提供など)に対応して割り当てられる識別情報(コミュニケーションID)を記録するようにしてある。   Further, the content of the communication action is angle data that controls the driving of the motors 78 to 90 and text data corresponding to the voice (voice) output from the speaker 52, but when such information is recorded as history information, Since the amount of data becomes enormous, in practice, identification information (communication ID) assigned corresponding to one communication action (for example, greeting, handshake, hug, information provision, etc.) is recorded.

さらに、この実施例では、コミュニケーション行動履歴DB(以下、単に「履歴DB」という。)104には、年月日および時間とコミュニケーション行動の内容とに対応づけて、RFIDを記録するようにしてあるが、ユーザ名を記録するようにしてもよい。   Further, in this embodiment, an RFID is recorded in the communication action history DB (hereinafter simply referred to as “history DB”) 104 in association with the date and time and the content of the communication action. However, the user name may be recorded.

また、この実施例では、履歴情報を時系列順に記録するようにして、1つのテーブルで管理するようにしてあるが、RFID(ユーザ)別の履歴情報をテーブルで管理するようにしてもよい。このようにすれば、RFIDに対応したテーブルに履歴情報を記録(追加)すればよいので、個々の履歴情報に対してRFIDを記録する必要がなくなる。   In this embodiment, history information is recorded in chronological order and managed by one table, but history information for each RFID (user) may be managed by a table. In this way, since history information has only to be recorded (added) to a table corresponding to RFID, there is no need to record RFID for each history information.

たとえば、ロボット10は、コミュニケーション行動を取る(実行する)際、自身の近傍或いは周囲(周辺)に存在する、すなわちタグの送信電波がロボット10(アンテナ58)に届く範囲に存在するユーザを認識する。つまり、タグからのRFIDの情報を取得して、取得したRFIDのリスト(IDリスト)を作成する。IDリストは、図4(C)のように示され、RFIDの情報に対応して、当該RFIDの情報を受信した(取得した)際の電波強度が記述される。たとえば、IDリストには、RFIDの情報を取得した順に従ってRFIDおよびそれを取得したときの電波強度が記述され、たとえば、図4(C)に示す1列目の例からは、RFID“CCCC”が取得され、そのときの電波強度がP(dBm)であったことが分かる。   For example, when the robot 10 takes (executes) a communication action, the robot 10 recognizes a user that exists in the vicinity of the robot 10 or in the vicinity (periphery), that is, in a range in which the transmission wave of the tag reaches the robot 10 (antenna 58). . That is, the RFID information from the tag is acquired, and the acquired RFID list (ID list) is created. The ID list is shown as in FIG. 4C, and describes the radio field intensity when receiving (acquiring) the RFID information corresponding to the RFID information. For example, the ID list describes the RFID and the radio wave intensity when the RFID information is acquired in the order in which the RFID information is acquired. For example, from the example of the first column shown in FIG. 4C, the RFID “CCCC” Is obtained, and it can be seen that the radio wave intensity at that time was P (dBm).

ロボット10は、IDリストを作成すると、当該IDリストを参照して、1のコミュニケーション対象を特定する。この実施例では、一番強い電波強度のタグを所持(装着)しているユーザがロボット10に最も近い位置(短い距離)に存在すると判断して、当該ユーザをコミュニケーション対象に特定する。   When the robot 10 creates the ID list, the robot 10 refers to the ID list and identifies one communication target. In this embodiment, it is determined that the user carrying (attaching) the tag having the strongest radio wave intensity exists at a position (short distance) closest to the robot 10, and the user is specified as a communication target.

なお、2番目、3番目のように任意の番目に電波強度が強いタグを装着しているユーザをコミュニケーション対象として特定することもでき、これは設計者や開発者によって予め決定される事項である。   It is also possible to specify a user wearing a tag having the strongest radio wave intensity as the second or third as a communication target, which is a matter determined in advance by the designer or developer. .

また、上述したように、超音波によりRFIDの情報を取得する場合には、超音波センサにおける超音波の強度(音波強度)に応じてコミュニケーション対象が特定される。また、赤外線によりRFIDの情報を取得する場合には、赤外線センサにおける赤外線の強度(受光強度)に応じてコミュニケーション対象が特定される。   Further, as described above, when RFID information is acquired by ultrasonic waves, a communication target is specified according to the ultrasonic wave intensity (sound wave intensity) in the ultrasonic sensor. In addition, when RFID information is acquired by infrared rays, a communication target is specified according to the infrared ray intensity (light reception intensity) in the infrared sensor.

コミュニケーション対象のユーザが特定されると、ロボット10は履歴情報に従って、当該ユーザに適したコミュニケーション行動を実行する。たとえば、この実施例では、特定したユーザが初めて対話する(コミュニケーションする)ユーザであるかどうかを判断する。   When a communication target user is specified, the robot 10 executes communication behavior suitable for the user according to the history information. For example, in this embodiment, it is determined whether or not the identified user is a user who first interacts (communicates).

初めて対話するユーザである場合には、お辞儀をする(頭部50を前方下向きに傾ける)とともに、“○○さん、はじめまして”と挨拶(発話)する(音声をスピーカ52から出力する。)。一方、初めて対話するユーザでない場合、すなわち以前に対話したことのあるユーザである場合には、さらに、今日初めて対話するユーザであるかどうかを判断する。   If the user is the first user to talk, bow (tilt the head 50 forward and downward) and greet (speak) “Good afternoon” (sound is output from the speaker 52). On the other hand, if the user is not the first user to interact, that is, if the user has interacted before, it is further determined whether or not the user is the first user to interact today.

今日初めて対話するユーザである場合には、お辞儀をするとともに、“○○さん、こんにちは”と発話する。一方、今日既に対話したユーザである場合には、ロボット10は、その近傍および周囲に存在するユーザに対してコミュニケーション行動を実行する。具体的には、IDリストに挙がっているユーザのうち、特定情報(たとえば、天気予報)を取得していないユーザが存在するかどうかを、履歴DB104を参照して検出する。   Today in the case of a user for the first time dialogue, with the bow, "○○ Hi," utters. On the other hand, if the user has already interacted with today, the robot 10 performs a communication action on the users in the vicinity and the surrounding area. Specifically, it is detected with reference to the history DB 104 whether there is a user who has not acquired specific information (for example, weather forecast) among the users on the ID list.

特定情報を取得していないユーザが存在する場合には、たとえば、斜め上を向いて(頭部50を前方上方に傾けて)みんなに呼びかけるような振り振る舞いをするとともに、“明日は晴れるよ”という情報を発話する。一方、特定情報を取得していないユーザが存在しない場合には、たとえば、斜め上を向いてみんなに呼びかけるような振り振る舞いをするとともに、“暇だよ”と発話して、他のコミュニケーション対象を探す。ただし、特定情報を取得していないユーザが存在しない場合には、みんなに呼びかけるような振り振る舞いをするとともに、他の特定情報(たとえば、スポーツ番組の放送時間など)を発話するようにしてもよい。このように、特定したユーザに限らず、周囲に存在するユーザに対してもコミュニケーション行動を取ることもできるのである。   When there is a user who has not acquired specific information, for example, the user behaves like calling up to everyone (tilting the head 50 forward and upward) and “Tomorrow is sunny”. Say the information. On the other hand, if there is no user who has not acquired specific information, for example, behave diagonally upward and call out to everyone, and say "I'm free" and select other communication targets. look for. However, when there is no user who has not acquired specific information, the user may behave like calling everyone and speak other specific information (for example, the broadcast time of a sports program). . In this way, communication behavior can be taken not only for the identified user but also for users existing in the vicinity.

なお、この実施例では、特定情報として、天気予報やスポーツ番組を知らせるようにしてあるが、これに限定されるべきでない。特定情報としては、スポーツ、趣味、ゲーム、ショッピングなど様々な情報が想定される。このような特定情報は、ロボット10がインターネットのようなネットワークを介して取得することができる。   In this embodiment, the weather forecast and the sports program are notified as the specific information, but should not be limited to this. As the specific information, various information such as sports, hobbies, games, and shopping are assumed. Such specific information can be acquired by the robot 10 via a network such as the Internet.

また、ユーザ情報にユーザの好みの情報(趣味、興味のある事物の内容など)を付加しておけば、ユーザに応じた特定情報を報知することもできる。   Further, by adding user-preferred information (hobbies, contents of things of interest, etc.) to the user information, specific information corresponding to the user can be notified.

具体的には、図2に示したCPU60が図5および図6に示すフロー図に従ってコミュニケーション行動の処理を実行する。図5に示すように、まず、ステップS1では、停止命令があるかどうかを判断する。つまり、CPU60は、ロボット10自身に設けられる停止スイッチ(図示せず)からの停止コマンドや外部コンピュータからの停止コマンドがあるかどうかを判断する。   Specifically, the CPU 60 shown in FIG. 2 executes communication action processing according to the flowcharts shown in FIGS. As shown in FIG. 5, first, in step S1, it is determined whether there is a stop command. That is, the CPU 60 determines whether there is a stop command from a stop switch (not shown) provided in the robot 10 itself or a stop command from an external computer.

ステップS1で“YES”であれば、つまり停止コマンドがあれば、停止命令があると判断して、そのままコミュニケーション行動の処理を終了する。ただし、ロボット10の主電源がオフされた場合にも、同様に、処理を終了する。一方、ステップS1で“NO”であれば、つまり停止コマンドがなければ、ステップS3でタグを検出する。具体的には、CPU60は、無線IDタグ装置100からの入力を検出する。   If “YES” in the step S1, that is, if there is a stop command, it is determined that there is a stop command, and the processing of the communication action is ended as it is. However, when the main power supply of the robot 10 is turned off, the processing is similarly ended. On the other hand, if “NO” in the step S1, that is, if there is no stop command, the tag is detected in a step S3. Specifically, the CPU 60 detects an input from the wireless ID tag device 100.

続くステップS5では、タグを検出したかどうかを判断する。ステップS5で“NO”であれば、つまり無線IDタグ装置100からRFIDの情報および電波強度を取得しなければ、タグを検出していないと判断し、すなわちロボット10の近傍或いはその周囲にタグを所持したユーザが存在しないと判断し、ステップS7でIDリストおよび最近傍タグID(RFID)を初期化して、ステップS25に進む。   In a succeeding step S5, it is determined whether or not a tag is detected. If “NO” in the step S5, that is, if RFID information and radio wave intensity are not acquired from the wireless ID tag device 100, it is determined that no tag is detected, that is, a tag is placed in the vicinity of the robot 10 or in the vicinity thereof. It is determined that the possessed user does not exist, the ID list and the nearest tag ID (RFID) are initialized in step S7, and the process proceeds to step S25.

一方、ステップS5で“YES”であれば、つまり無線IDタグ装置100からRFIDの情報および電波強度を取得すれば、タグを検出したと判断し、ステップS9で、取得したRFIDおよび各RFIDを受信したときの電波強度とを用いて、図4(C)に示したようなIDリストを作成する。そして、ステップS11でIDリストを参照して、最近傍タグIDを取得する。つまり、電波強度が最大値を示すRFIDを取得して、コミュニケーション対象のタグすなわちユーザを特定する。   On the other hand, if “YES” in the step S5, that is, if RFID information and radio wave intensity are acquired from the wireless ID tag device 100, it is determined that the tag is detected, and the acquired RFID and each RFID are received in a step S9. The ID list as shown in FIG. 4C is created using the radio field intensity at that time. In step S11, the nearest neighbor tag ID is acquired with reference to the ID list. That is, an RFID having a maximum radio field intensity is acquired, and a tag to be communicated, that is, a user is specified.

続いて、ステップS13では、当該RFIDに対応するユーザと初めて対話するかどうかを判断する。具体的には、CPU60は、履歴DB104を参照して、当該RFIDが履歴に存在するかどうかを判断する。ステップS13で“YES”であれば、つまり当該RFIDが履歴に存在していなければ、当該RFIDに対応するユーザと初めて対話すると判断して、ステップS15で頭部50を下に向けるとともに、「○○(当該ユーザ名)さん、はじめまして」と挨拶して、ステップS27に進む。具体的には、CPU60は、角度データ(S軸0度、T軸0度、U軸−45度、X軸0度、Y軸0度、Z軸0度、W軸0度、A軸0度、B軸0度、C軸0度、D軸0度)をモータ制御ボード72に送るとともに、「○○さん、はじめまして」に相当する音声合成データをメモリ70から読み出して音声入力/出力ボード76に与える。すると、頭部モータ88(厳密には、U軸を制御するモータ)が駆動され、頭部50が前方下向きに傾けられる。これと同時或いはほぼ同時に、「○○さん、はじめまして」という音声がスピーカ52から出力される。   Subsequently, in step S13, it is determined whether or not to interact with the user corresponding to the RFID for the first time. Specifically, the CPU 60 refers to the history DB 104 to determine whether or not the RFID exists in the history. If “YES” in the step S13, that is, if the RFID does not exist in the history, it is determined that the user interacts with the user corresponding to the RFID for the first time, the head 50 is turned down in a step S15, and “○ Say hello to (the user name), and go to step S27. Specifically, the CPU 60 calculates the angle data (S-axis 0 degree, T-axis 0 degree, U-axis -45 degrees, X-axis 0 degree, Y-axis 0 degree, Z-axis 0 degree, W-axis 0 degree, A-axis 0 , B-axis 0 degree, C-axis 0 degree, D-axis 0 degree) are sent to the motor control board 72, and voice synthesis data corresponding to “Mr. XX, nice to meet you” is read from the memory 70 and the voice input / output board 76. Then, the head motor 88 (strictly, the motor that controls the U-axis) is driven, and the head 50 is tilted forward and downward. At the same time or almost at the same time, a voice “Nice to meet you” is output from the speaker 52.

一方、ステップS13で“NO”であれば、つまり当該RFIDが履歴に存在すれば、当該RFIDに対応するユーザとは以前対話したことがあると判断して、ステップS17で、履歴DB104を参照して、当該RFIDに対応するユーザと今日初めて対話をするかどうかを判断する。   On the other hand, if “NO” in the step S13, that is, if the RFID exists in the history, it is determined that the user corresponding to the RFID has interacted before, and the history DB 104 is referred to in the step S17. Thus, it is determined whether or not to interact with the user corresponding to the RFID for the first time today.

ステップS17で“YES”であれば、つまり履歴情報に当該RFIDが存在しているが、今日の履歴がなければ、当該RFIDに対応するユーザと今日初めて対話すると判断して、ステップS19で、頭部を下に向け、「○○(当該ユーザ名)さん、こんにちは」と挨拶して、ステップS27に進む。   If “YES” is determined in the step S17, that is, the RFID exists in the history information, but if there is no today's history, it is determined that the user corresponding to the RFID is interacting for the first time today. part of the downward, and greeting as "○○ (the user name) 's, Hello", the process proceeds to step S27.

なお、ステップS19におけるコミュニケーション行動は、発話する内容が異なる以外は上述のステップS15において説明した内容と同じであるため、ここでは、詳細な説明は省略することにする。   Note that the communication behavior in step S19 is the same as the content described in step S15 described above except that the content to be uttered is different, and thus detailed description thereof will be omitted here.

一方、ステップS17で“NO”であれば、つまり履歴情報に当該RFIDが存在し、今日の履歴もあれば、当該RFIDに対応するユーザとは今日既に対話したと判断して、ステップS21で、最新の天気予報(特定情報)を聞いて(取得して)いないユーザがいるかどうかを判断する。つまり、履歴DB104に記録される今日の履歴を参照して、最新の天気予報を聞いていないユーザに対応するRFIDがIDリストに存在するかどうかを判断する。   On the other hand, if “NO” in step S17, that is, if the RFID exists in the history information and there is today's history, it is determined that the user corresponding to the RFID has already interacted with today, and in step S21, It is determined whether or not there is a user who has not heard (acquired) the latest weather forecast (specific information). That is, referring to today's history recorded in the history DB 104, it is determined whether or not an RFID corresponding to a user who has not heard the latest weather forecast exists in the ID list.

ステップS21で“YES”であれば、つまり最新の天気予報を聞いていないユーザに対応するRFIDがIDリストに存在すれば、ステップS23で頭部を上に向けるとともに、「明日は晴れるよ」と天気予報を知らせて、ステップS27に進む。具体的には、ステップS23では、CPU60は、角度データ(S軸0度、T軸0度、U軸+45度、X軸0度、Y軸0度、Z軸0度、W軸0度、A軸0度、B軸0度、C軸0度、D軸0度)をモータ制御ボード72に送るとともに、「明日は晴れるよ」に相当する音声合成データをメモリ70から読み出して音声入力/出力ボード76に与える。すると、頭部モータ88(厳密には、U軸を制御するモータ)が駆動され、頭部50が前方上向きに傾けられる。これと同時或いはほぼ同時に、「明日は晴れるよ」という音声がスピーカ52から出力される。   If “YES” in the step S21, that is, if the RFID corresponding to the user who has not heard the latest weather forecast exists in the ID list, the head is turned up in the step S23 and “Tomorrow is sunny”. The weather forecast is notified and the process proceeds to step S27. Specifically, in step S23, the CPU 60 determines the angle data (S axis 0 degree, T axis 0 degree, U axis +45 degrees, X axis 0 degree, Y axis 0 degree, Z axis 0 degree, W axis 0 degree, A-axis 0 degree, B-axis 0 degree, C-axis 0 degree, D-axis 0 degree) are sent to the motor control board 72, and voice synthesis data corresponding to “Tomorrow is sunny” is read from the memory 70 and voice input / The output board 76 is given. Then, the head motor 88 (strictly, the motor that controls the U-axis) is driven, and the head 50 is tilted forward and upward. At the same time or almost the same time, a sound “Tomorrow is fine” is output from the speaker 52.

一方、ステップS21で“NO”であれば、つまり最新の天気予報を聞いていないユーザに対応するRFIDがIDリストに存在しなければ、ステップS25で頭部を上に向けるとともに、「暇だよ」と発声して、ステップS27に進む。つまり、ステップS25におけるコミュニケーション行動により、周囲に注意を促し、新しいコミュニケーション対象を探しているのである。ただし、ステップS5でタグを検出しない場合には、つまり近傍や周囲にユーザが存在しない場合には、単にコミュニケーション対象を探していることになる。したがって、このような場合には、上述したようなコミュニケーション行動に加えて、さらに車輪モータ90を駆動して、場所を移動するような行動を取ることも考えられる。   On the other hand, if “NO” in the step S21, that is, if the RFID corresponding to the user who has not heard the latest weather forecast does not exist in the ID list, the head is turned up in the step S25, And proceeds to step S27. That is, the communication action in step S25 calls attention to the surroundings and searches for a new communication target. However, if no tag is detected in step S5, that is, if there is no user in the vicinity or surroundings, the communication target is simply searched. Therefore, in such a case, in addition to the communication behavior as described above, it may be possible to further drive the wheel motor 90 to take a behavior that moves the place.

なお、ステップS25におけるコミュニケーション行動は、発話する内容が異なる以外はステップS23で説明した場合と同じであるため、ここでは、詳細な説明は省略することにする。   Note that the communication behavior in step S25 is the same as that described in step S23, except that the content to be uttered is different, so detailed description thereof will be omitted here.

ステップS27では、ステップS15、S19、S23またはS25で実行されたコミュニケーション行動についての履歴情報を履歴DB104に記録(追加)して、ステップS1に戻る。つまり、時計回路(図示しない)から年月日および時間、実行したコミュニケーション行動に割り当てられるコミュニケーションIDおよび当該コミュニケーション対象のRFIDを履歴DB104に記録する。   In step S27, history information about the communication behavior executed in step S15, S19, S23 or S25 is recorded (added) in the history DB 104, and the process returns to step S1. That is, the date and time from the clock circuit (not shown), the communication ID assigned to the executed communication action, and the RFID to be communicated are recorded in the history DB 104.

この実施例によれば、タグからRFIDを取得して、ユーザを特定するので、ユーザの特定が簡単である。   According to this embodiment, since the RFID is acquired from the tag and the user is specified, the user can be specified easily.

また、ロボットの近傍やその周囲に存在するユーザを個別に認識することができるので、ユーザに適したコミュニケーション行動を実行することができる。   Moreover, since the user who exists in the vicinity of the robot and its circumference | surroundings can be recognized separately, the communication action suitable for the user can be performed.

さらに、コミュニケーション行動履歴を残しておくので、或るユーザに一度話した内容を当該ユーザに再び話すようなことを回避でき、ユーザに不快感や違和感を与えることがない。つまり、適切でないコミュニケーション行動を繰り返すことを回避することができる。   Furthermore, since the communication behavior history is kept, it is possible to avoid talking to the user again about the contents once spoken to a certain user, and the user is not made uncomfortable or uncomfortable. That is, it is possible to avoid repeating inappropriate communication behavior.

なお、この実施例で示したコミュニケーション行動の処理は、単なる一例であり、これに限定されるべきでない。たとえば、今日までに対話した回数をユーザ(RFID)毎にカウントし、カウント数に応じて親密度の異なるコミュニケーション行動をユーザとの間で実行することもできる。たとえば、或るユーザに対しては、握手をしながら「○○さん、久しぶり」と挨拶し、他のユーザに対しては、抱きつきながら「○○さん、元気ですか」と挨拶することができる。また、今日だけに着目して、対話した回数をカウントして、カウント数が増えるにつれて、より親密度を深めたり、異なる話題(情報)の提供をしたりするなどのコミュニケーション行動を取ることもできる。   Note that the processing of communication behavior shown in this embodiment is merely an example, and should not be limited to this. For example, it is also possible to count the number of times of interaction for each user (RFID) to date and execute communication behaviors with the user in different intimacy according to the count. For example, you can greet a certain user with a handshake and say “Mr. XX, long time no see”, and greet other users with a hug and say “Mr. XX, how are you?” . Also, focusing on today alone, you can count the number of interactions, and as the number increases, you can take communication actions such as deepening intimacy or providing different topics (information) .

また、この実施例では、コミュニケーション行動としては、ロボットの振り振る舞い(行動)および音声の両方を用いた場合についてのみ説明したが、行動および音声のいずれか一方のみによるコミュニケーション行動を実行するようにしてもよい。   In this embodiment, only the case where both the robot behavior (behavior) and the voice are used as the communication action has been described. However, the communication action based on only one of the action and the voice is executed. Also good.

さらに、この実施例では、天気予報のような特定情報をネットワークから取得して、ユーザに提供するようにしたが、ロボット10に内蔵される記憶装置(たとえば、メモリ70)に記憶しておいた情報を提供することもできる。具体的には、メモリ70等に歌の音声合成データを記憶しておき、ロボット10が当該歌を歌って、その近傍または周囲に存在するユーザに歌を教えたりすることができる。また、複数種類の歌の音声合成データを記憶しておけば、履歴情報を参照して、特定のユーザ或いは近傍または周囲に存在するすべてのユーザに対して、聞いたことがない歌を聞かせて、教えることができる。ただし、歌に限らず、外国語(たとえば、英語)の単語や会話などを教えることもできる。   Further, in this embodiment, specific information such as weather forecast is acquired from the network and provided to the user, but is stored in a storage device (for example, the memory 70) built in the robot 10. Information can also be provided. Specifically, the voice synthesis data of the song is stored in the memory 70 or the like, and the robot 10 can sing the song and teach the song to users in the vicinity or the surrounding area. Also, if you store speech synthesis data for multiple types of songs, you can refer to history information and let a specific user or all users in the vicinity or nearby hear songs you have never heard. Can teach. However, not only songs but also foreign languages (for example, English) words and conversations can be taught.

この発明の一実施例の構成を示す図解図である。It is an illustration figure which shows the structure of one Example of this invention. 図1実施例のロボットのハードウェアを示す正面図である。It is a front view which shows the hardware of the robot of the FIG. 1 Example. 図1実施例のロボットの電気的な構成を示すブロック図である。It is a block diagram which shows the electrical structure of the robot of FIG. 1 Example. 図3に示すデータベースの内容の一例およびIDリストの一例を示す図解図である。It is an illustration figure which shows an example of the content of the database shown in FIG. 3, and an example of ID list. 図3に示すCPUのコミュニケーション行動の処理の一部を示すフロー図である。It is a flowchart which shows a part of process of the communication action of CPU shown in FIG. 図3に示すCPUのコミュニケーション行動の処理の他の一部を示すフロー図である。It is a flowchart which shows another part of process of the communication action of CPU shown in FIG.

符号の説明Explanation of symbols

10 …コミュニケーションロボット
12,14,16 …周波数タグ
60 …CPU
70 …メモリ
72 …モータ制御ボード
74 …センサ入力/出力ボード
76 …音声入力/出力ボード
100 …無線ID受信装置
102,104 …データベース
10 ... Communication robot 12, 14, 16 ... Frequency tag 60 ... CPU
DESCRIPTION OF SYMBOLS 70 ... Memory 72 ... Motor control board 74 ... Sensor input / output board 76 ... Voice input / output board 100 ... Wireless ID receiver 102,104 ... Database

Claims (5)

固有のタグ情報を有する無線タグを保有する複数のコミュニケーション対象との間で、振る舞いおよび音声の少なくとも一方によるコミュニケーション行動を実行するコミュニケーションロボットであって、
タグ情報と当該タグ情報を有する無線タグを保有するコミュニケーション対象とを対応付けて記録するタグ情報データベース、
前記コミュニケーション対象が保有する無線タグからタグ情報を取得する取得手段、
前記取得手段の取得結果に基づいて近傍或いは周囲に存在する複数のコミュニケーション対象を個別に認識し、各コミュニケーション対象との距離の大小を検出する認識手段、
前記認識手段の認識結果から前記距離が最小となる前記コミュニケーション対象を、コミュニケーション行動を実行する1のコミュニケーション対象として特定する特定手段
前記コミュニケーション行動の履歴を、当該コミュニケーション行動を実行した前記コミュニケーション対象に対応づけて記録する履歴データベース、および
前記特定手段によって特定された前記1のコミュニケーション対象に対応づけて記録された前記コミュニケーション行動の履歴に従うコミュニケーション行動を当該コミュニケーション対象に実行する実行手段を備える、コミュニケーションロボット。
A communication robot that performs communication behavior by at least one of behavior and voice between a plurality of communication objects having wireless tags having unique tag information,
A tag information database for recording tag information and a communication target having a wireless tag having the tag information in association with each other ;
Acquisition means for acquiring tag information from a wireless tag held by the communication target;
Recognition means for obtaining results in recognizing individual communication target number double that exist in the vicinity or surroundings based, to detect the magnitude of the distance between the communication target of the acquisition unit,
A specifying means for specifying the communication object having the minimum distance as a communication object for executing a communication action from the recognition result of the recognition means ;
The history of the communication behavior, the communication said action has been executed communication target association with history database records, and wherein the communication behavior of history recorded in association with the communication target of the one specified by the specifying means A communication robot comprising execution means for executing a communication action according to the above-described communication target .
前記無線タグは電波を発信し、
前記取得手段はアンテナを含み、
前記検出手段は、前記取得手段によって前記タグ情報を取得したときの前記アンテナにおける電波強度に応じて前記距離の大小を検出する、請求項記載のコミュニケーションロボット。
The wireless tag transmits radio waves,
The acquisition means includes an antenna;
It said detecting means detects the magnitude of said distance depending on the radio wave intensity in the antenna when acquiring the tag information by the acquisition unit, according to claim 1, wherein the communication robot.
前記無線タグは超音波を発信し、
前記取得手段は超音波センサを含み、
前記検出手段は、前記取得手段によって前記タグ情報を取得したときの前記超音波センサにおける音波強度に応じて前記距離の大小を検出する、請求項記載のコミュニケーションロボット。
The wireless tag emits ultrasonic waves,
The acquisition means includes an ultrasonic sensor,
Said detecting means, said detecting the magnitude of said distance depending on the wave intensity in the ultrasonic sensor of claim 1, wherein the communication robot when obtaining the tag information by the acquisition unit.
前記無線タグは赤外線を放射し、
前記取得手段は赤外線センサを含み、
前記検出手段は、前記取得手段によって前記タグ情報を取得したときの前記赤外線センサにおける受光強度に応じて前記距離の大小を検出する、請求項記載のコミュニケーションロボット。
The wireless tag emits infrared rays,
The acquisition means includes an infrared sensor,
Said detecting means, said detecting the magnitude of said distance based on the light intensity in the infrared sensor of claim 1, wherein the communication robot when obtaining the tag information by the acquisition unit.
前記認識手段によってコミュニケーション対象を認識できないとき、前記実行手段はコミュニケーション対象を探すためのコミュニケーション行動を実行する、請求項1ないしのいずれかに記載のコミュニケーションロボット。 When said unrecognized communication target by the recognition means, said execution means executes the communication behavior to look for communication target, the communication robot according to any one of claims 1 to 4.
JP2007222992A 2007-08-29 2007-08-29 Communication robot Expired - Lifetime JP4677593B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007222992A JP4677593B2 (en) 2007-08-29 2007-08-29 Communication robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007222992A JP4677593B2 (en) 2007-08-29 2007-08-29 Communication robot

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2003007292A Division JP4024683B2 (en) 2003-01-15 2003-01-15 Communication robot

Publications (2)

Publication Number Publication Date
JP2007320033A JP2007320033A (en) 2007-12-13
JP4677593B2 true JP4677593B2 (en) 2011-04-27

Family

ID=38853244

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007222992A Expired - Lifetime JP4677593B2 (en) 2007-08-29 2007-08-29 Communication robot

Country Status (1)

Country Link
JP (1) JP4677593B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201005718D0 (en) * 2010-04-06 2010-05-19 Lipman Steven Interacting toys
US8918213B2 (en) * 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
JP2014206850A (en) * 2013-04-12 2014-10-30 シャープ株式会社 Electronic device and self-propelled cleaner
JP6562681B2 (en) 2015-04-03 2019-08-21 キヤノン株式会社 Electronic device and control method thereof
JP6893630B2 (en) * 2016-03-24 2021-06-23 株式会社国際電気通信基礎技術研究所 Service provision robot system
CN109397300B (en) * 2018-09-04 2020-07-17 中国地质大学(武汉) Smart community life service platform
JP7393119B2 (en) * 2018-11-19 2023-12-06 東京瓦斯株式会社 robots and programs

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001160131A (en) * 1999-09-10 2001-06-12 Yamaha Motor Co Ltd System and method for adjusting behavior
JP2001188784A (en) * 1999-12-28 2001-07-10 Sony Corp Device and method for processing conversation and recording medium
JP2001212782A (en) * 2000-01-31 2001-08-07 Sony Corp Robot device and control method for robot device
JP2002178283A (en) * 2000-12-12 2002-06-25 Honda Motor Co Ltd Autonomous robot
JP2002224981A (en) * 2001-01-30 2002-08-13 Nec Corp Human attitude recognizing robot

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001160131A (en) * 1999-09-10 2001-06-12 Yamaha Motor Co Ltd System and method for adjusting behavior
JP2001188784A (en) * 1999-12-28 2001-07-10 Sony Corp Device and method for processing conversation and recording medium
JP2001212782A (en) * 2000-01-31 2001-08-07 Sony Corp Robot device and control method for robot device
JP2002178283A (en) * 2000-12-12 2002-06-25 Honda Motor Co Ltd Autonomous robot
JP2002224981A (en) * 2001-01-30 2002-08-13 Nec Corp Human attitude recognizing robot

Also Published As

Publication number Publication date
JP2007320033A (en) 2007-12-13

Similar Documents

Publication Publication Date Title
JP4024683B2 (en) Communication robot
JP4677593B2 (en) Communication robot
JP5429462B2 (en) Communication robot
JP4014044B2 (en) Communication robot and communication system using the same
JP5033994B2 (en) Communication robot
JP4599522B2 (en) Communication robot
JP5456832B2 (en) Apparatus and method for determining relevance of an input utterance
US9201143B2 (en) Assisted guidance navigation
US10547937B2 (en) User-controlled beam steering in microphone array
US11338429B2 (en) Robot
US20130190041A1 (en) Smartphone Speakerphone Mode With Beam Steering Isolation
CN110505408B (en) Terminal shooting method and device, mobile terminal and readable storage medium
JP2007260822A (en) Guide robot
JP2007221300A (en) Robot and control method of robot
CN110300267B (en) Photographing method and terminal equipment
JP2007160473A (en) Interactive object identifying method in robot and robot
WO2018155116A1 (en) Information processing device, information processing method, and computer program
CN109218481B (en) Imaging module, terminal equipment and zooming method
JP3942599B2 (en) Communication robot
CN112104963B (en) Following type robot sound amplification method and system
JP2007160427A (en) Robot control system
JP4793904B2 (en) Communication robot system and communication robot
CN113678141A (en) Stereophonic device for blind and visually impaired persons
JP2007130691A (en) Communication robot
JP2012070202A (en) Wireless communication apparatus for mobile operation, communication control program, and mobile

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070918

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110111

R150 Certificate of patent or registration of utility model

Ref document number: 4677593

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140210

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term