JP4677593B2 - Communication robot - Google Patents
Communication robot Download PDFInfo
- Publication number
- JP4677593B2 JP4677593B2 JP2007222992A JP2007222992A JP4677593B2 JP 4677593 B2 JP4677593 B2 JP 4677593B2 JP 2007222992 A JP2007222992 A JP 2007222992A JP 2007222992 A JP2007222992 A JP 2007222992A JP 4677593 B2 JP4677593 B2 JP 4677593B2
- Authority
- JP
- Japan
- Prior art keywords
- communication
- robot
- axis
- user
- tag
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Description
この発明はコミュニケーションロボットに関し、特にたとえば固有の無線タグを保有する複数のコミュニケーション対象との間でコミュニケーション行動を実行する、コミュニケーションロボットに関する。 The present invention relates to a communication robot, and more particularly to a communication robot that executes a communication action with a plurality of communication objects having a unique wireless tag, for example.
従来のこの種のコミュニケーションロボットの一例が特許文献1に開示される。この特許文献1に開示されるロボット装置では、ロボット装置に対面する人物をカメラで撮影し、撮影したカメラ画像から正面顔画像を取得し、予め記憶してある識別辞書と照合して、人物を特定していた。
しかし、この従来技術は、ロボットに対面する人物を特定(識別)するようにしてあるため、ロボットの近傍やその周囲に存在する人物を特定するのは困難であり、人物が複数人存在する場合には、それぞれの人物と対面して、人物を特定する必要があった。また、カメラで撮影した映像によって人物を特定するようにしてあるため、処理が膨大であり、人物の特定に時間がかかってしまうという問題があった。さらに、ロボットから見て人物が複数重なっている場合には、後ろに位置する人物を特定することができないという問題もあった。したがって、このような従来技術を、複数人の人物のような複数のコミュニケーション対象との間でコミュニケーション行動を実行するコミュニケーションロボットに適用することはできなかった。 However, since this conventional technique is designed to identify (identify) the person facing the robot, it is difficult to identify the person in the vicinity of or around the robot. Had to face each person and identify the person. Further, since the person is specified by the video shot by the camera, there is a problem that the processing is enormous and it takes time to specify the person. Furthermore, when a plurality of persons are overlapped when viewed from the robot, there is a problem that a person located behind cannot be specified. Therefore, such a conventional technique cannot be applied to a communication robot that executes communication behavior with a plurality of communication objects such as a plurality of persons.
それゆえに、この発明の主たる目的は、コミュニケーション対象を容易に特定でき、特定したコミュニケーション対象に適したコミュニケーション行動を実行できる、コミュニケーションロボットを提供することである。 Therefore, a main object of the present invention is to provide a communication robot capable of easily specifying a communication target and executing a communication action suitable for the specified communication target.
この発明は、固有のタグ情報を有する無線タグを保有する複数のコミュニケーション対象との間で、振る舞いおよび音声の少なくとも一方によるコミュニケーション行動を実行するコミュニケーションロボットであって、タグ情報と当該タグ情報を有する無線タグを保有するコミュニケーション対象とを対応付けて記録するタグ情報データベース、コミュニケーション対象が保有する無線タグからタグ情報を取得する取得手段、取得手段の取得結果に基づいて近傍或いは周囲に存在する複数のコミュニケーション対象を個別に認識し、各コミュニケーション対象との距離の大小を検出する認識手段、認識手段の認識結果から距離が最小となるコミュニケーション対象を、コミュニケーション行動を実行する1のコミュニケーション対象として特定する特定手段、コミュニケーション行動の履歴を、当該コミュニケーション行動を実行したコミュニケーション対象に対応づけて記録する履歴データベース、および特定手段によって特定された1のコミュニケーション対象に対応づけて記録されたコミュニケーション行動の履歴に従うコミュニケーション行動を当該コミュニケーション対象に実行する実行手段を備える、コミュニケーションロボットである。 The present invention is a communication robot that executes communication behavior by at least one of behavior and voice between a plurality of communication objects having radio tags having unique tag information, and includes the tag information and the tag information. tag information database for recording in association with communication target carrying a wireless tag, acquiring means for acquiring tag information from the wireless tag held by communication object, double that exist in the vicinity or surroundings on the basis of the obtained results of the acquisition means the number of communication target recognize individually, the recognition means for detecting the magnitude of the distance between the communication target, the communication subject distance from the recognition result of the recognition means is minimized, as a communication object, which executes communication behavior Specifying means for constant, communications history of the behavior, the communication behavior of the history database for recording in association with the communication target has been executed, and communication behavior history recorded in association with one communication target specified by the specifying means It is a communication robot provided with the execution means which performs the communication action according to this communication object .
コミュニケーションロボットは、固有の無線タグを保有するたとえば人間(ユーザ)のような複数のコミュニケーション対象に対して、音および動作の少なくとも一方によるコミュニケーション行動を実行する。コミュニケーションロボットは、少なくともタグ情報を記録するタグ情報データベースを備えている。コミュニケーションロボットは、コミュニケーション行動を実行する際、取得手段によってコミュニケーション対象からタグ情報を取得する。認識手段は、コミュニケーション対象としての人間(ユーザ)を個別に認識する。特定手段は、認識手段の認識結果に基づいて1のコミュニケーション対象を特定する。つまり、コミュニケーションロボットの近傍或いは周囲に存在するユーザのうち、1人のユーザを特定する。そして、実行手段は、当該ユーザに対してコミュニケーション行動を実行する。 The communication robot executes a communication action by at least one of sound and action on a plurality of communication objects such as a human (user) having a unique wireless tag. The communication robot includes a tag information database that records at least tag information. When performing a communication action, the communication robot acquires tag information from a communication target by an acquisition unit. The recognition means individually recognizes a human (user) as a communication target. The specifying unit specifies one communication target based on the recognition result of the recognition unit. That is, one user is specified among users existing near or around the communication robot. And an execution means performs a communication action with respect to the said user.
たとえば、検出手段が各コミュニケーション対象との距離の大小を検出するので、特定手段は、距離が最小となる1のコミュニケーション対象を特定することができる。つまり、最近傍に存在するユーザに対してコミュニケーション行動を取ることができる。 For example, since the detecting means detects the distance between each communication object, the specifying means can specify one communication object having the smallest distance. That is, a communication action can be taken with respect to a user existing in the nearest vicinity.
また、無線タグは電波を発信し、取得手段はアンテナを含む。検出手段は、取得手段によってタグ情報を取得したときのアンテナにおける電波強度に応じて距離の大小を検出する。つまり、電波強度がより弱ければ、コミュニケーションロボットからの距離が大きく、電波強度がより強ければ、コミュニケーションロボットからの距離が小さい。したがって、特定手段は、一番強い電波強度で取得したタグ情報を有するユーザをコミュニケーション対象に特定するのである。 The wireless tag transmits radio waves, and the acquisition means includes an antenna. The detection means detects the magnitude of the distance according to the radio wave intensity at the antenna when the tag information is acquired by the acquisition means. That is, if the radio field intensity is weaker, the distance from the communication robot is larger, and if the radio field intensity is stronger, the distance from the communication robot is smaller. Therefore, the specifying unit specifies a user having tag information acquired with the strongest radio wave intensity as a communication target.
ただし、無線タグは超音波や赤外線によりタグ情報を送信 (放射)するようにしてもよい。超音波によりタグ情報を送信する場合には、取得手段に含まれる超音波センサが無線タグからの超音波を受信し、そのときの超音波センサにおける音波強度に応じてコミュニケーション対象としてのユーザが特定される。また、赤外線によりタグ情報を送信(放射)する場合には、取得手段に含まれる赤外線センサが無線タグからの赤外線を受信し、そのときの赤外線センサにおける受光強度に応じてコミュニケーション対象としてのユーザが特定される。 However, the wireless tag may transmit (radiate) tag information by ultrasonic waves or infrared rays. When transmitting tag information by ultrasonic waves, the ultrasonic sensor included in the acquisition unit receives the ultrasonic waves from the wireless tag, and the user as a communication target is specified according to the sound wave intensity of the ultrasonic sensor at that time. Is done. In addition, when tag information is transmitted (radiated) by infrared rays, an infrared sensor included in the acquisition unit receives infrared rays from a wireless tag, and a user who is a communication target according to the received light intensity of the infrared sensor at that time. Identified.
さらに、コミュニケーションロボットは、実行手段によって実行されたコミュニケーション行動の履歴を、たとえば当該コミュニケーション行動を実行したコミュニケーション対象に対応づけて記録する履歴データベースを備える。このため、履歴データベースを参照して、特定されたコミュニケーション対象に適したコミュニケーション行動を実行することができる。たとえば、初めて対話するユーザに対しては、お辞儀をするとともに、「○○さん、はじめまして」と挨拶することができる。また、以前に対話したことがあるが、今日初めて対話するユーザに対しては、お辞儀をするとともに、「○○さん、こんにちは」と挨拶することができる。つまり、適切でないコミュニケーション行動を繰り返すようなことがない。 Furthermore, the communication robot includes a history database that records the history of communication behavior executed by the execution unit in association with, for example, the communication target that executed the communication behavior. For this reason, it is possible to execute a communication action suitable for the identified communication target with reference to the history database. For example, for a user who interacts for the first time, he can bow and greet “Mr. XX, nice to meet you”. In addition, there is a fact that the dialogue previously, for a user for the first time dialogue today, with the bow, it is possible to greeting as "○○'s, Hello". In other words, there is no such thing as repeating inappropriate communication behavior.
また、判別手段は、履歴データベースを参照して、認識手段によって認識されたコミュニケーション対象のそれぞれについて特定情報を取得しているかどうかを判別する。特定情報を取得していないと判別されたコミュニケーション対象が存在する場合には、実行手段が当該特定情報を少なくとも当該コミュニケーション対象に報知 (提示)するためのコミュニケーション行動を実行する。つまり、特定のユーザに対してのコミュニケーションだけでなく、それ以外のユーザに対してもコミュニケーション行動を取ることもできる。 The determining unit determines whether or not specific information has been acquired for each communication object recognized by the recognizing unit with reference to the history database. If there is a communication target that is determined not to acquire specific information, the execution means executes a communication action for notifying (presenting) the specific information to at least the communication target. That is, not only communication with a specific user but also communication with other users can be performed.
一方、特定情報を取得していないと判別されたコミュニケーション対象が存在しない場合には、実行手段は他のコミュニケーション対象を探すためのコミュニケーション行動を実行する。つまり、新しいコミュニケーション対象を求める。ただし、他の特定情報を報知するためのコミュニケーション行動を実行するようにしてもよい。 On the other hand, when there is no communication target that is determined not to acquire the specific information, the execution means executes a communication action for searching for another communication target. In other words, a new communication object is sought. However, you may make it perform the communication action for alert | reporting other specific information.
また、認識手段によって、コミュニケーション対象を認識できない場合には、つまり近傍や周囲にユーザが存在しない場合には、実行手段は、コミュニケーション対象を探す (求める)ためのコミュニケーション行動を実行する。 In addition, when the communication means cannot be recognized by the recognition means, that is, when there is no user in the vicinity or surroundings, the execution means executes a communication action for searching for (finding) the communication target.
この発明によれば、タグ情報に基づいてコミュニケーション対象を特定するので、その特定が簡単である。また、1のコミュニケーション対象を特定するので、ロボットは当該コミュニケーション対象に適したコミュニケーション行動を取ることができる。 According to the present invention, since the communication target is specified based on the tag information, the specification is simple. In addition, since one communication target is specified, the robot can take a communication action suitable for the communication target.
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1を参照して、この実施例のコミュニケーションロボット(以下、単に「ロボット」ということがある。)10は、主として人間のようなコミュニケーションの対象とコミュニケーションすることを目的とした相互作用指向のコミュニケーションロボットである。ただし、コミュニケーションの対象としては、コミュニケーションロボット10と同様に構成された他のコミュニケーションロボットであってもよい。
Referring to FIG. 1, a communication robot (hereinafter, simply referred to as “robot”) 10 of this embodiment is an interaction-oriented communication mainly for the purpose of communicating with a communication target such as a human. It is a robot. However, the communication target may be another communication robot configured similarly to the
このロボット10の近傍或いは周囲には、人間ないしはユーザA、ユーザBおよびユーザCが存在し、ユーザA、ユーザBおよびユーザCは、それぞれ、RFIDタグ(以下、単に「タグ」という。)12、14および16を所持或いは装着(保有)している。タグ12、14および16は、任意のタグを用いることができるが、この実施例では、自走式(電池式)のタグを用いてある。したがって、タグ12、14および16は、それぞれ、固有のRFID(Radio Frequency Identification)の情報を所定周波数の電波に重畳して、一定の時間間隔で送信(発信)する。ただし、異なる周波数の電波を送信して、周波数の違いでタグ(ユーザ)を識別可能な構成としてもよい。
In the vicinity of or around the
なお、この実施例では、3人のユーザが存在する場合について示してあるが、ユーザは1人以上であればよい。 In this embodiment, the case where there are three users is shown, but it is sufficient that the number of users is one or more.
図2はロボット10の外観を示す正面図であり、この図2を参照して、ロボット10のハードウェアの構成について説明する。ロボット10は台車20を含み、この台車20の下面にはロボット10を自律移動させる車輪22が設けられる。車輪22は車輪モータ(図3参照:90)によって駆動され、台車20すなわちロボット10を前後左右任意の方向に動かすことができる。
FIG. 2 is a front view showing the appearance of the
なお、図2においては省略するが、台車20の前面には、衝突センサ(図3参照:94)が取り付けられ、この衝突センサ94は台車20への人や他の障害物の接触を検知する。つまり、ロボット10の移動中に障害物との接触を検知すると、直ちに車輪22の駆動を停止してロボット10の移動を急停止させて、衝突を未然に防止する。
Although omitted in FIG. 2, a collision sensor (see FIG. 3: 94) is attached to the front surface of the
また、この実施例では、ロボット10の背の高さは、人(ユーザ)、特に子供に威圧感を与えることのないように、100cm程度とされる。ただし、この背の高さは変更可能である。
In this embodiment, the height of the
台車20の上には、多角形柱のセンサ取付パネル24が設けられ、このセンサ取付パネル24の各面には、超音波距離センサ26が取り付けられる。この超音波距離センサ26は、センサ取付パネル24すなわちロボット10の周囲の主としてユーザとの距離を計測するものである。
A polygonal column
また、台車20の上には、さらに、下部がセンサ取付パネル24に囲まれて、ロボット10の胴体が直立するように設けられる。この胴体は、下部胴体28と上部胴体30とによって構成され、下部胴体28および上部胴体30は、連結部32によって互いに連結される。図示は省略するが、連結部32には昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体30の高さすなわちロボット10の背の高さを変化させることができる。昇降機構は、後述するように、腰モータ(図3参照:88)によって駆動される。
Further, on the
なお、上述したロボット10の背の高さは、上部胴体30をそれの最下位置にしたときのものである。したがって、ロボット10の背の高さは、100cm以上にすることができる。
The height of the
上部胴体30のほぼ中央には、1つの全方位カメラ34と1つのマイク36とが設けられる。全方位カメラ34は、ロボット10の周囲を撮影するものであり、後述する眼カメラ56とは区別される。この全方位カメラ34としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。マイク36は、周囲の音、とりわけコミュニケーション対象であるユーザの声を取り込む。
One
上部胴体30の両肩には、それぞれ、肩関節38Rおよび38Lによって、上腕40Rおよび40Lが設けられる。肩関節38Rおよび38Lは、それぞれ、3軸の自由度を有する。すなわち、肩関節38Rは、X軸、Y軸およびZ軸のそれぞれの軸廻りにおいて上腕40Rの角度を制御できる。Y軸は、上腕40Rの長手方向(または軸)に平行な軸であり、X軸およびZ軸は、そのY軸に対して、それぞれ異なる方向から直交する軸である。他方、肩関節38Lは、A軸、B軸およびC軸のそれぞれの軸廻りにおいて上腕40Lの角度を制御できる。B軸は、上腕40Lの長手方向(または軸)に平行な軸であり、A軸およびC軸は、そのB軸に対して、それぞれ異なる方向から直交する軸である。
また、上腕40Rおよび40Lのそれぞれの先端には、肘関節42Rおよび42Lを介して、前腕44Rおよび44Lが設けられる。肘関節42Rおよび42Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕44Rおよび44Lの角度を制御できる。
Further, forearms 44R and 44L are provided at the tips of the
なお、上腕40Rおよび40Lならびに前腕44Rおよび44Lの変位を制御するX軸,Y軸,Z軸,W軸およびA軸,B軸,C軸,D軸では、それぞれ、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、上腕40Rおよび40Lならびに前腕44Rおよび44Lは下方に向けられる。
In the X axis, Y axis, Z axis, W axis, A axis, B axis, C axis, and D axis that control the displacement of the
また、図示は省略するが、上部胴体30の肩関節38Rおよび38Lを含む肩の部分や上述の上腕40Rおよび40Lならびに前腕44Rおよび44Lには、それぞれ、タッチセンサ(図3で包括的に示す。:92)が設けられていて、これらのタッチセンサ92は、ユーザがロボット10の当該各部位に触れたかどうかを検知する。
Although not shown in the drawings, the shoulder portion including the
前腕44Rおよび44Lのそれぞれの先端には、手に相当する球体46Rおよび46Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。
なお、ロボット10の形状・寸法等は適宜設定されるが、他の実施例では、たとえば、上部胴体30は、前面、背面、右側面、左側面、上面および底面を含み、右側面および左側面は表面が斜め前方に向くように形成してもよい。つまり、前面の横幅が背面の横幅よりも短く、上部胴体30を上から見た形状が台形になるように形成されてもよい。
Although the shape, dimensions, etc. of the
このような場合、肩関節38Rおよび38Lは、右側面および左側面に、その表面が左右両側面とそれぞれ平行である左右の支持部を介して設けられる。そして、上腕40Rおよび上腕40Lの回動範囲は、これら左右側面または支持部の表面(取り付け面)によって規制され、上腕40Rおよび40Lは取り付け面を超えて回動することはない。
In such a case, the
しかし、左右側面の傾斜角、B軸とY軸との間隔、上腕40Rおよび40Lの長さ、ならびに前腕44Rおよび44Lの長さ等を適宜に設定すれば、上腕40Rおよび40Lは前方を超えてより内側まで回動できるので、たとえW軸およびD軸による腕の自由度がなくてもロボット10の腕は前方で交差できる。したがって、腕の自由度が少ない場合でも正面に位置する人と抱き合うなどの密接なコミュニケーションを取ることができる。
However, if the inclination angle of the left and right side surfaces, the distance between the B axis and the Y axis, the lengths of the
上部胴体30の中央上方には、首関節48を介して頭部50が設けられる。首関節48は、3軸の自由度を有し、S軸、T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上(鉛直上向き)に向かう軸であり、T軸およびU軸は、それぞれ、そのS軸に対して異なる方向で直交する軸である。頭部50には、人の口に相当する位置に、スピーカ52が設けられる。スピーカ52は、ロボット10が、それの周囲(周辺)の人に対して音声(音を含む。)または声によってコミュニケーションを取るために用いられる。ただし、スピーカ52は、ロボット10の他の部位、たとえば胴体に設けられてもよい。
A
また、頭部50には、目に相当する位置に眼球部54Rおよび54Lが設けられる。眼球部54Rおよび54Lは、それぞれ眼カメラ56Rおよび56Lを含む。以下、右の眼球部54Rと左の眼球部54Lとをまとめて眼球部54ということがあり、また、右の眼カメラ56Rと左の眼カメラ56Lとをまとめて眼カメラ56ということもある。
The
眼カメラ56は、ロボット10に接近した人の顔や他の部分ないし物体等を撮影して、それに対応する映像信号を取り込む。眼カメラ56としては、上述した全方位カメラ34と同様のカメラを用いることができる。
The
たとえば、眼カメラ56は眼球部54内に固定され、眼球部54は眼球支持部(図示せず)を介して頭部50内の所定位置に取り付けられる。眼球支持部は、2軸の自由度を有し、α軸およびβ軸の各軸廻りに角度制御可能である。α軸およびβ軸は頭部50に対して設けられる軸であり、α軸は頭部50の上へ向かう方向の軸であり、β軸はα軸に直交しかつ頭部50の正面側(顔)が向く方向に直交する方向の軸である。この実施例では、頭部50がホームポジションにあるとき、α軸はS軸と平行であり、β軸はU軸と平行であるように設定される。このような頭部50において、眼球支持部がα軸およびβ軸の各軸廻りに回転されることによって、眼球部54ないし眼カメラ56の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。
For example, the
なお、眼カメラ56の変位を制御するα軸およびβ軸では、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、眼カメラ56のカメラ軸は頭部50の正面側(顔)が向く方向に向けられ、視線は正視状態となる。
In the α axis and β axis that control the displacement of the
さらに、頭部50の横であり、右肩部から延びるアンテナ58が設けられる。アンテナ58は図1に示したタグ12、14および16から送信されるRFIDの情報(タグ情報)が重畳された電波を受信する。
Further, an
図3はロボット10の電気的な構成を示すブロック図であり、この図3を参照して、ロボット10は、全体の制御を司るCPU60を含む。CPU60は、マイクロコンピュータ或いはプロセサとも呼ばれ、バス62を介して、メモリ70、モータ制御ボード72、センサ入力/出力ボード74および音声入力/出力ボード76に接続される。
FIG. 3 is a block diagram showing an electrical configuration of the
メモリ70は、図示は省略するが、ROMやRAMを含み、ROMにはロボット10の制御プログラムが予め記憶されるとともに、コミュニケーション行動の実行の際にスピーカ52から発生すべき音声または声の音声データ(音声合成データ)および所定の身振りを提示するための角度データ等が記憶される。RAMは、ワークメモリやバッファメモリとして用いられる。
Although not shown in the figure, the
モータ制御ボード72は、たとえばDSPで構成され、各腕や頭部および眼球部等の各軸モータの駆動を制御する。すなわち、モータ制御ボード72は、CPU60からの制御データを受け、右眼球部54Rのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ」と示す。)78の回転角度を制御する。同様に、モータ制御ボード72は、CPU60からの制御データを受け、左眼球部54Lのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ」と示す。)80の回転角度を制御する。
The
また、モータ制御ボード72は、CPU60からの制御データを受け、右肩関節38RのX軸、Y軸およびZ軸のそれぞれの角度を制御する3つのモータと右肘関節42RのW軸の角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ」と示す。)82の回転角度を調節する。同様に、モータ制御ボード72は、CPU60からの制御データを受け、左肩関節38LのA軸、B軸およびC軸のそれぞれの角度を制御する3つのモータと左肘関節42LのD軸の角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ」と示す。)84の回転角度を調整する。
The
さらに、モータ制御ボード72は、CPU60からの制御データを受け、頭部50のS軸、T軸およびU軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ」と示す。)86の回転角度を制御する。さらにまた、モータ制御ボード72は、CPU60からの制御データを受け、腰モータ88および車輪22を駆動する2つのモータ(図3では、まとめて「車輪モータ」と示す。)90の回転角度を制御する。
Further, the
なお、この実施例では、車輪モータ90を除くモータは、制御を簡素化するために、ステッピングモータ或いはパルスモータを用いるようにしてある。ただし、車輪モータ90と同様に、直流モータを用いるようにしてもよい。
In this embodiment, a motor other than the
センサ入力/出力ボード74もまた、同様に、DSPで構成され、各センサからの信号を取り込んでCPU60に与える。すなわち、超音波距離センサ26のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード74を通してCPU60に入力される。また、全方位カメラ34からの映像信号が、必要に応じてこのセンサ入力/出力ボード74で所定の処理を施された後、CPU60に入力される。眼カメラ56からの映像信号も、同様にして、CPU60に入力される。また、上述した複数のタッチセンサ(図3では、まとめて「タッチセンサ92」と示す。)からの信号がセンサ入力/出力ボード74を介してCPU60に与えられる。さらに、上述した衝突センサ94からの信号も、同様にして、CPU60に与えられる。
Similarly, the sensor input /
音声入力/出力ボード76もまた、同様に、DSPで構成され、CPU60から与えられる音声合成データに従った音声または声がスピーカ52から出力される。また、マイク36からの音声入力が、音声入力/出力ボード76を介してCPU60に取り込まれる。
Similarly, the voice input /
また、CPU60は、バス62を介して通信LANボード96および無線IDタグ装置100に接続される。通信LANボード96は、DSPで構成され、CPU60から送られる送信データを無線通信装置98に与え、無線通信装置98から送信データを、図示は省略するが、たとえば、無線LANのようなネットワークを介して外部コンピュータに送信させる。また、通信LANボード96は、無線通信装置98を介してデータを受信し、受信したデータをCPU60に与える。つまり、この通信LANボード96および無線通信装置98によって、ロボット10は外部コンピュータ等と無線通信を行うことができる。
The
無線IDタグ装置100は、図1に示したタグ12、14および16から送信されるRFIDの情報を重畳した電波を、アンテナ58を介して受信し、電波信号を増幅し、当該電波信号からRFIDの情報を分離し、当該RFIDの情報を復調(デコード)してCPU60に与えるとともに、当該RFIDの情報を重畳した電波を受信したときのアンテナ58における電波強度を検出してCPU60に与える。ただし、RFIDの情報は、外部コンピュータでデコードして、CPU60に与えるようにしてもよい。
The wireless
なお、この実施例に示すタグ(12、14、16)およびアンテナ(58)を含む無線IDタグ装置(100)としては、米国のRF Code社が製造販売する商品名「Spider tag」および「Spider readers」をそれぞれ用いることができる。 As the wireless ID tag device (100) including the tag (12, 14, 16) and the antenna (58) shown in this embodiment, product names “Spider tag” and “Spider” manufactured and sold by RF Code in the United States are used. "readers" can be used respectively.
また、この実施例では、RFIDの情報を重畳した電波をタグ12、14および16から発信し、これをアンテナ58を介して無線IDタグ装置100で受信するようにしてあるが、これに限定されるべきでない。たとえば、RFIDの情報を重畳した超音波をタグ12、14および16から発信し、これを超音波センサを有する受信装置で受信するような構成にすることができる。また、RFIDの情報を赤外線信号に変換した赤外線をタグ12、14および16から放射し、これを赤外線受光部(赤外線センサ)を有する受信装置で受信するような構成にすることもできる。
Further, in this embodiment, radio waves superimposed with RFID information are transmitted from the
さらに、CPU60は、バス62を介して2つのデータベース102および104に接続される。ただし、これらのデータベースは、外部のネットワーク上にアクセス可能に設けるようにしてもよい。データベース102は、ユーザ情報を記憶するデータベース(以下、「ユーザDB」という。)であり、この実施例では、図4(A)に示すようなユーザ情報のテーブルを記録する。図4(A)から分かるように、ユーザ情報のテーブルには、ユーザ名に対応してRFIDが記述される。したがって、たとえば、ユーザAに装着されたタグ12は、“AAAA”というRFIDを有していることが分かる。このようなユーザDB102は、予めロボット10の設計者或いは開発者が登録しておくことができる。また、新たなユーザを追加する場合には、設計者等が当該新しいユーザ等を、外部コンピュータを操作してユーザDB102に登録することができる。他の実施例として、ロボット10が音声認識機能を備える場合には、ロボット10と当該新しいユーザとが会話などのコミュニケーションを取ることにより取得したユーザ名およびそのとき取得したRFIDを対応づけて、ロボット10(厳密には、CPU60)がユーザDB102に登録することもできる。
Further, the
また、データベース104は、ロボット10がユーザDB102に登録されたユーザ(ユーザA、ユーザB、ユーザC、…)のそれぞれ、或いは近傍および周囲に存在するすべてのユーザに対して実行したコミュニケーション行動の履歴を記録したデータベース(コミュニケーション行動履歴DB)であり、図4(B)に示すような履歴情報のテーブルを記録する。この図4(B)から分かるように、履歴情報のテーブルには、年月日および時間、コミュニケーション行動の内容およびRFIDがそれぞれ対応づけて記述される。したがって、図4(B)に示す1行目の例は、ロボット10が、2003年1月20日の10時20分にコミュニケーション行動1をユーザC(RFID:CCCC)に対して実行したことを示してある。また、5行目の例は、ロボット10が、2003年2月2日の15時5分にコミュニケーション行動5を近傍或いは周囲に存在するすべてのユーザ(RFID:ZZZZ)に対して実行したことを示してある。図面の都合上、近傍或いは周囲に存在するすべてのユーザについてのRFIDを“ZZZZ”と記述してあるが、実際には、ロボット10の近傍或いはその周囲に存在するユーザに対応するRFIDが記述される。つまり、後述するIDリストに含まれるすべてのRFIDが記述される。
The
なお、ロボット10が音声認識機能を備える場合には、ユーザがロボットに対して行ったコミュニケーション行動の内容を履歴に記録することもできる。たとえば、ユーザが発話した内容およびユーザが発話したときの全方位カメラ34や眼カメラ56からの映像信号を履歴に残しておくことができる。
In addition, when the
また、コミュニケーション行動の内容は、モータ78〜90の駆動を制御した角度データおよびスピーカ52から出力した音声(声)に対応するテキストデータであるが、これらの情報を履歴情報として記録した場合にはデータ量が膨大となるため、実際には、1のコミュニケーション行動(たとえば、挨拶、握手、抱きつく、情報提供など)に対応して割り当てられる識別情報(コミュニケーションID)を記録するようにしてある。
Further, the content of the communication action is angle data that controls the driving of the
さらに、この実施例では、コミュニケーション行動履歴DB(以下、単に「履歴DB」という。)104には、年月日および時間とコミュニケーション行動の内容とに対応づけて、RFIDを記録するようにしてあるが、ユーザ名を記録するようにしてもよい。 Further, in this embodiment, an RFID is recorded in the communication action history DB (hereinafter simply referred to as “history DB”) 104 in association with the date and time and the content of the communication action. However, the user name may be recorded.
また、この実施例では、履歴情報を時系列順に記録するようにして、1つのテーブルで管理するようにしてあるが、RFID(ユーザ)別の履歴情報をテーブルで管理するようにしてもよい。このようにすれば、RFIDに対応したテーブルに履歴情報を記録(追加)すればよいので、個々の履歴情報に対してRFIDを記録する必要がなくなる。 In this embodiment, history information is recorded in chronological order and managed by one table, but history information for each RFID (user) may be managed by a table. In this way, since history information has only to be recorded (added) to a table corresponding to RFID, there is no need to record RFID for each history information.
たとえば、ロボット10は、コミュニケーション行動を取る(実行する)際、自身の近傍或いは周囲(周辺)に存在する、すなわちタグの送信電波がロボット10(アンテナ58)に届く範囲に存在するユーザを認識する。つまり、タグからのRFIDの情報を取得して、取得したRFIDのリスト(IDリスト)を作成する。IDリストは、図4(C)のように示され、RFIDの情報に対応して、当該RFIDの情報を受信した(取得した)際の電波強度が記述される。たとえば、IDリストには、RFIDの情報を取得した順に従ってRFIDおよびそれを取得したときの電波強度が記述され、たとえば、図4(C)に示す1列目の例からは、RFID“CCCC”が取得され、そのときの電波強度がP(dBm)であったことが分かる。
For example, when the
ロボット10は、IDリストを作成すると、当該IDリストを参照して、1のコミュニケーション対象を特定する。この実施例では、一番強い電波強度のタグを所持(装着)しているユーザがロボット10に最も近い位置(短い距離)に存在すると判断して、当該ユーザをコミュニケーション対象に特定する。
When the
なお、2番目、3番目のように任意の番目に電波強度が強いタグを装着しているユーザをコミュニケーション対象として特定することもでき、これは設計者や開発者によって予め決定される事項である。 It is also possible to specify a user wearing a tag having the strongest radio wave intensity as the second or third as a communication target, which is a matter determined in advance by the designer or developer. .
また、上述したように、超音波によりRFIDの情報を取得する場合には、超音波センサにおける超音波の強度(音波強度)に応じてコミュニケーション対象が特定される。また、赤外線によりRFIDの情報を取得する場合には、赤外線センサにおける赤外線の強度(受光強度)に応じてコミュニケーション対象が特定される。 Further, as described above, when RFID information is acquired by ultrasonic waves, a communication target is specified according to the ultrasonic wave intensity (sound wave intensity) in the ultrasonic sensor. In addition, when RFID information is acquired by infrared rays, a communication target is specified according to the infrared ray intensity (light reception intensity) in the infrared sensor.
コミュニケーション対象のユーザが特定されると、ロボット10は履歴情報に従って、当該ユーザに適したコミュニケーション行動を実行する。たとえば、この実施例では、特定したユーザが初めて対話する(コミュニケーションする)ユーザであるかどうかを判断する。
When a communication target user is specified, the
初めて対話するユーザである場合には、お辞儀をする(頭部50を前方下向きに傾ける)とともに、“○○さん、はじめまして”と挨拶(発話)する(音声をスピーカ52から出力する。)。一方、初めて対話するユーザでない場合、すなわち以前に対話したことのあるユーザである場合には、さらに、今日初めて対話するユーザであるかどうかを判断する。
If the user is the first user to talk, bow (tilt the
今日初めて対話するユーザである場合には、お辞儀をするとともに、“○○さん、こんにちは”と発話する。一方、今日既に対話したユーザである場合には、ロボット10は、その近傍および周囲に存在するユーザに対してコミュニケーション行動を実行する。具体的には、IDリストに挙がっているユーザのうち、特定情報(たとえば、天気予報)を取得していないユーザが存在するかどうかを、履歴DB104を参照して検出する。
Today in the case of a user for the first time dialogue, with the bow, "○○ Hi," utters. On the other hand, if the user has already interacted with today, the
特定情報を取得していないユーザが存在する場合には、たとえば、斜め上を向いて(頭部50を前方上方に傾けて)みんなに呼びかけるような振り振る舞いをするとともに、“明日は晴れるよ”という情報を発話する。一方、特定情報を取得していないユーザが存在しない場合には、たとえば、斜め上を向いてみんなに呼びかけるような振り振る舞いをするとともに、“暇だよ”と発話して、他のコミュニケーション対象を探す。ただし、特定情報を取得していないユーザが存在しない場合には、みんなに呼びかけるような振り振る舞いをするとともに、他の特定情報(たとえば、スポーツ番組の放送時間など)を発話するようにしてもよい。このように、特定したユーザに限らず、周囲に存在するユーザに対してもコミュニケーション行動を取ることもできるのである。
When there is a user who has not acquired specific information, for example, the user behaves like calling up to everyone (tilting the
なお、この実施例では、特定情報として、天気予報やスポーツ番組を知らせるようにしてあるが、これに限定されるべきでない。特定情報としては、スポーツ、趣味、ゲーム、ショッピングなど様々な情報が想定される。このような特定情報は、ロボット10がインターネットのようなネットワークを介して取得することができる。
In this embodiment, the weather forecast and the sports program are notified as the specific information, but should not be limited to this. As the specific information, various information such as sports, hobbies, games, and shopping are assumed. Such specific information can be acquired by the
また、ユーザ情報にユーザの好みの情報(趣味、興味のある事物の内容など)を付加しておけば、ユーザに応じた特定情報を報知することもできる。 Further, by adding user-preferred information (hobbies, contents of things of interest, etc.) to the user information, specific information corresponding to the user can be notified.
具体的には、図2に示したCPU60が図5および図6に示すフロー図に従ってコミュニケーション行動の処理を実行する。図5に示すように、まず、ステップS1では、停止命令があるかどうかを判断する。つまり、CPU60は、ロボット10自身に設けられる停止スイッチ(図示せず)からの停止コマンドや外部コンピュータからの停止コマンドがあるかどうかを判断する。
Specifically, the
ステップS1で“YES”であれば、つまり停止コマンドがあれば、停止命令があると判断して、そのままコミュニケーション行動の処理を終了する。ただし、ロボット10の主電源がオフされた場合にも、同様に、処理を終了する。一方、ステップS1で“NO”であれば、つまり停止コマンドがなければ、ステップS3でタグを検出する。具体的には、CPU60は、無線IDタグ装置100からの入力を検出する。
If “YES” in the step S1, that is, if there is a stop command, it is determined that there is a stop command, and the processing of the communication action is ended as it is. However, when the main power supply of the
続くステップS5では、タグを検出したかどうかを判断する。ステップS5で“NO”であれば、つまり無線IDタグ装置100からRFIDの情報および電波強度を取得しなければ、タグを検出していないと判断し、すなわちロボット10の近傍或いはその周囲にタグを所持したユーザが存在しないと判断し、ステップS7でIDリストおよび最近傍タグID(RFID)を初期化して、ステップS25に進む。
In a succeeding step S5, it is determined whether or not a tag is detected. If “NO” in the step S5, that is, if RFID information and radio wave intensity are not acquired from the wireless
一方、ステップS5で“YES”であれば、つまり無線IDタグ装置100からRFIDの情報および電波強度を取得すれば、タグを検出したと判断し、ステップS9で、取得したRFIDおよび各RFIDを受信したときの電波強度とを用いて、図4(C)に示したようなIDリストを作成する。そして、ステップS11でIDリストを参照して、最近傍タグIDを取得する。つまり、電波強度が最大値を示すRFIDを取得して、コミュニケーション対象のタグすなわちユーザを特定する。
On the other hand, if “YES” in the step S5, that is, if RFID information and radio wave intensity are acquired from the wireless
続いて、ステップS13では、当該RFIDに対応するユーザと初めて対話するかどうかを判断する。具体的には、CPU60は、履歴DB104を参照して、当該RFIDが履歴に存在するかどうかを判断する。ステップS13で“YES”であれば、つまり当該RFIDが履歴に存在していなければ、当該RFIDに対応するユーザと初めて対話すると判断して、ステップS15で頭部50を下に向けるとともに、「○○(当該ユーザ名)さん、はじめまして」と挨拶して、ステップS27に進む。具体的には、CPU60は、角度データ(S軸0度、T軸0度、U軸−45度、X軸0度、Y軸0度、Z軸0度、W軸0度、A軸0度、B軸0度、C軸0度、D軸0度)をモータ制御ボード72に送るとともに、「○○さん、はじめまして」に相当する音声合成データをメモリ70から読み出して音声入力/出力ボード76に与える。すると、頭部モータ88(厳密には、U軸を制御するモータ)が駆動され、頭部50が前方下向きに傾けられる。これと同時或いはほぼ同時に、「○○さん、はじめまして」という音声がスピーカ52から出力される。
Subsequently, in step S13, it is determined whether or not to interact with the user corresponding to the RFID for the first time. Specifically, the
一方、ステップS13で“NO”であれば、つまり当該RFIDが履歴に存在すれば、当該RFIDに対応するユーザとは以前対話したことがあると判断して、ステップS17で、履歴DB104を参照して、当該RFIDに対応するユーザと今日初めて対話をするかどうかを判断する。
On the other hand, if “NO” in the step S13, that is, if the RFID exists in the history, it is determined that the user corresponding to the RFID has interacted before, and the
ステップS17で“YES”であれば、つまり履歴情報に当該RFIDが存在しているが、今日の履歴がなければ、当該RFIDに対応するユーザと今日初めて対話すると判断して、ステップS19で、頭部を下に向け、「○○(当該ユーザ名)さん、こんにちは」と挨拶して、ステップS27に進む。 If “YES” is determined in the step S17, that is, the RFID exists in the history information, but if there is no today's history, it is determined that the user corresponding to the RFID is interacting for the first time today. part of the downward, and greeting as "○○ (the user name) 's, Hello", the process proceeds to step S27.
なお、ステップS19におけるコミュニケーション行動は、発話する内容が異なる以外は上述のステップS15において説明した内容と同じであるため、ここでは、詳細な説明は省略することにする。 Note that the communication behavior in step S19 is the same as the content described in step S15 described above except that the content to be uttered is different, and thus detailed description thereof will be omitted here.
一方、ステップS17で“NO”であれば、つまり履歴情報に当該RFIDが存在し、今日の履歴もあれば、当該RFIDに対応するユーザとは今日既に対話したと判断して、ステップS21で、最新の天気予報(特定情報)を聞いて(取得して)いないユーザがいるかどうかを判断する。つまり、履歴DB104に記録される今日の履歴を参照して、最新の天気予報を聞いていないユーザに対応するRFIDがIDリストに存在するかどうかを判断する。
On the other hand, if “NO” in step S17, that is, if the RFID exists in the history information and there is today's history, it is determined that the user corresponding to the RFID has already interacted with today, and in step S21, It is determined whether or not there is a user who has not heard (acquired) the latest weather forecast (specific information). That is, referring to today's history recorded in the
ステップS21で“YES”であれば、つまり最新の天気予報を聞いていないユーザに対応するRFIDがIDリストに存在すれば、ステップS23で頭部を上に向けるとともに、「明日は晴れるよ」と天気予報を知らせて、ステップS27に進む。具体的には、ステップS23では、CPU60は、角度データ(S軸0度、T軸0度、U軸+45度、X軸0度、Y軸0度、Z軸0度、W軸0度、A軸0度、B軸0度、C軸0度、D軸0度)をモータ制御ボード72に送るとともに、「明日は晴れるよ」に相当する音声合成データをメモリ70から読み出して音声入力/出力ボード76に与える。すると、頭部モータ88(厳密には、U軸を制御するモータ)が駆動され、頭部50が前方上向きに傾けられる。これと同時或いはほぼ同時に、「明日は晴れるよ」という音声がスピーカ52から出力される。
If “YES” in the step S21, that is, if the RFID corresponding to the user who has not heard the latest weather forecast exists in the ID list, the head is turned up in the step S23 and “Tomorrow is sunny”. The weather forecast is notified and the process proceeds to step S27. Specifically, in step S23, the
一方、ステップS21で“NO”であれば、つまり最新の天気予報を聞いていないユーザに対応するRFIDがIDリストに存在しなければ、ステップS25で頭部を上に向けるとともに、「暇だよ」と発声して、ステップS27に進む。つまり、ステップS25におけるコミュニケーション行動により、周囲に注意を促し、新しいコミュニケーション対象を探しているのである。ただし、ステップS5でタグを検出しない場合には、つまり近傍や周囲にユーザが存在しない場合には、単にコミュニケーション対象を探していることになる。したがって、このような場合には、上述したようなコミュニケーション行動に加えて、さらに車輪モータ90を駆動して、場所を移動するような行動を取ることも考えられる。
On the other hand, if “NO” in the step S21, that is, if the RFID corresponding to the user who has not heard the latest weather forecast does not exist in the ID list, the head is turned up in the step S25, And proceeds to step S27. That is, the communication action in step S25 calls attention to the surroundings and searches for a new communication target. However, if no tag is detected in step S5, that is, if there is no user in the vicinity or surroundings, the communication target is simply searched. Therefore, in such a case, in addition to the communication behavior as described above, it may be possible to further drive the
なお、ステップS25におけるコミュニケーション行動は、発話する内容が異なる以外はステップS23で説明した場合と同じであるため、ここでは、詳細な説明は省略することにする。 Note that the communication behavior in step S25 is the same as that described in step S23, except that the content to be uttered is different, so detailed description thereof will be omitted here.
ステップS27では、ステップS15、S19、S23またはS25で実行されたコミュニケーション行動についての履歴情報を履歴DB104に記録(追加)して、ステップS1に戻る。つまり、時計回路(図示しない)から年月日および時間、実行したコミュニケーション行動に割り当てられるコミュニケーションIDおよび当該コミュニケーション対象のRFIDを履歴DB104に記録する。
In step S27, history information about the communication behavior executed in step S15, S19, S23 or S25 is recorded (added) in the
この実施例によれば、タグからRFIDを取得して、ユーザを特定するので、ユーザの特定が簡単である。 According to this embodiment, since the RFID is acquired from the tag and the user is specified, the user can be specified easily.
また、ロボットの近傍やその周囲に存在するユーザを個別に認識することができるので、ユーザに適したコミュニケーション行動を実行することができる。 Moreover, since the user who exists in the vicinity of the robot and its circumference | surroundings can be recognized separately, the communication action suitable for the user can be performed.
さらに、コミュニケーション行動履歴を残しておくので、或るユーザに一度話した内容を当該ユーザに再び話すようなことを回避でき、ユーザに不快感や違和感を与えることがない。つまり、適切でないコミュニケーション行動を繰り返すことを回避することができる。 Furthermore, since the communication behavior history is kept, it is possible to avoid talking to the user again about the contents once spoken to a certain user, and the user is not made uncomfortable or uncomfortable. That is, it is possible to avoid repeating inappropriate communication behavior.
なお、この実施例で示したコミュニケーション行動の処理は、単なる一例であり、これに限定されるべきでない。たとえば、今日までに対話した回数をユーザ(RFID)毎にカウントし、カウント数に応じて親密度の異なるコミュニケーション行動をユーザとの間で実行することもできる。たとえば、或るユーザに対しては、握手をしながら「○○さん、久しぶり」と挨拶し、他のユーザに対しては、抱きつきながら「○○さん、元気ですか」と挨拶することができる。また、今日だけに着目して、対話した回数をカウントして、カウント数が増えるにつれて、より親密度を深めたり、異なる話題(情報)の提供をしたりするなどのコミュニケーション行動を取ることもできる。 Note that the processing of communication behavior shown in this embodiment is merely an example, and should not be limited to this. For example, it is also possible to count the number of times of interaction for each user (RFID) to date and execute communication behaviors with the user in different intimacy according to the count. For example, you can greet a certain user with a handshake and say “Mr. XX, long time no see”, and greet other users with a hug and say “Mr. XX, how are you?” . Also, focusing on today alone, you can count the number of interactions, and as the number increases, you can take communication actions such as deepening intimacy or providing different topics (information) .
また、この実施例では、コミュニケーション行動としては、ロボットの振り振る舞い(行動)および音声の両方を用いた場合についてのみ説明したが、行動および音声のいずれか一方のみによるコミュニケーション行動を実行するようにしてもよい。 In this embodiment, only the case where both the robot behavior (behavior) and the voice are used as the communication action has been described. However, the communication action based on only one of the action and the voice is executed. Also good.
さらに、この実施例では、天気予報のような特定情報をネットワークから取得して、ユーザに提供するようにしたが、ロボット10に内蔵される記憶装置(たとえば、メモリ70)に記憶しておいた情報を提供することもできる。具体的には、メモリ70等に歌の音声合成データを記憶しておき、ロボット10が当該歌を歌って、その近傍または周囲に存在するユーザに歌を教えたりすることができる。また、複数種類の歌の音声合成データを記憶しておけば、履歴情報を参照して、特定のユーザ或いは近傍または周囲に存在するすべてのユーザに対して、聞いたことがない歌を聞かせて、教えることができる。ただし、歌に限らず、外国語(たとえば、英語)の単語や会話などを教えることもできる。
Further, in this embodiment, specific information such as weather forecast is acquired from the network and provided to the user, but is stored in a storage device (for example, the memory 70) built in the
10 …コミュニケーションロボット
12,14,16 …周波数タグ
60 …CPU
70 …メモリ
72 …モータ制御ボード
74 …センサ入力/出力ボード
76 …音声入力/出力ボード
100 …無線ID受信装置
102,104 …データベース
10 ...
DESCRIPTION OF
Claims (5)
タグ情報と当該タグ情報を有する無線タグを保有するコミュニケーション対象とを対応付けて記録するタグ情報データベース、
前記コミュニケーション対象が保有する無線タグからタグ情報を取得する取得手段、
前記取得手段の取得結果に基づいて近傍或いは周囲に存在する複数のコミュニケーション対象を個別に認識し、各コミュニケーション対象との距離の大小を検出する認識手段、
前記認識手段の認識結果から前記距離が最小となる前記コミュニケーション対象を、コミュニケーション行動を実行する1のコミュニケーション対象として特定する特定手段、
前記コミュニケーション行動の履歴を、当該コミュニケーション行動を実行した前記コミュニケーション対象に対応づけて記録する履歴データベース、および
前記特定手段によって特定された前記1のコミュニケーション対象に対応づけて記録された前記コミュニケーション行動の履歴に従うコミュニケーション行動を当該コミュニケーション対象に実行する実行手段を備える、コミュニケーションロボット。 A communication robot that performs communication behavior by at least one of behavior and voice between a plurality of communication objects having wireless tags having unique tag information,
A tag information database for recording tag information and a communication target having a wireless tag having the tag information in association with each other ;
Acquisition means for acquiring tag information from a wireless tag held by the communication target;
Recognition means for obtaining results in recognizing individual communication target number double that exist in the vicinity or surroundings based, to detect the magnitude of the distance between the communication target of the acquisition unit,
A specifying means for specifying the communication object having the minimum distance as a communication object for executing a communication action from the recognition result of the recognition means ;
The history of the communication behavior, the communication said action has been executed communication target association with history database records, and wherein the communication behavior of history recorded in association with the communication target of the one specified by the specifying means A communication robot comprising execution means for executing a communication action according to the above-described communication target .
前記取得手段はアンテナを含み、
前記検出手段は、前記取得手段によって前記タグ情報を取得したときの前記アンテナにおける電波強度に応じて前記距離の大小を検出する、請求項1記載のコミュニケーションロボット。 The wireless tag transmits radio waves,
The acquisition means includes an antenna;
It said detecting means detects the magnitude of said distance depending on the radio wave intensity in the antenna when acquiring the tag information by the acquisition unit, according to claim 1, wherein the communication robot.
前記取得手段は超音波センサを含み、
前記検出手段は、前記取得手段によって前記タグ情報を取得したときの前記超音波センサにおける音波強度に応じて前記距離の大小を検出する、請求項1記載のコミュニケーションロボット。 The wireless tag emits ultrasonic waves,
The acquisition means includes an ultrasonic sensor,
Said detecting means, said detecting the magnitude of said distance depending on the wave intensity in the ultrasonic sensor of claim 1, wherein the communication robot when obtaining the tag information by the acquisition unit.
前記取得手段は赤外線センサを含み、
前記検出手段は、前記取得手段によって前記タグ情報を取得したときの前記赤外線センサにおける受光強度に応じて前記距離の大小を検出する、請求項1記載のコミュニケーションロボット。 The wireless tag emits infrared rays,
The acquisition means includes an infrared sensor,
Said detecting means, said detecting the magnitude of said distance based on the light intensity in the infrared sensor of claim 1, wherein the communication robot when obtaining the tag information by the acquisition unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007222992A JP4677593B2 (en) | 2007-08-29 | 2007-08-29 | Communication robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007222992A JP4677593B2 (en) | 2007-08-29 | 2007-08-29 | Communication robot |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003007292A Division JP4024683B2 (en) | 2003-01-15 | 2003-01-15 | Communication robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007320033A JP2007320033A (en) | 2007-12-13 |
JP4677593B2 true JP4677593B2 (en) | 2011-04-27 |
Family
ID=38853244
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007222992A Expired - Lifetime JP4677593B2 (en) | 2007-08-29 | 2007-08-29 | Communication robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4677593B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201005718D0 (en) * | 2010-04-06 | 2010-05-19 | Lipman Steven | Interacting toys |
US8918213B2 (en) * | 2010-05-20 | 2014-12-23 | Irobot Corporation | Mobile human interface robot |
JP2014206850A (en) * | 2013-04-12 | 2014-10-30 | シャープ株式会社 | Electronic device and self-propelled cleaner |
JP6562681B2 (en) | 2015-04-03 | 2019-08-21 | キヤノン株式会社 | Electronic device and control method thereof |
JP6893630B2 (en) * | 2016-03-24 | 2021-06-23 | 株式会社国際電気通信基礎技術研究所 | Service provision robot system |
CN109397300B (en) * | 2018-09-04 | 2020-07-17 | 中国地质大学(武汉) | Smart community life service platform |
JP7393119B2 (en) * | 2018-11-19 | 2023-12-06 | 東京瓦斯株式会社 | robots and programs |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001160131A (en) * | 1999-09-10 | 2001-06-12 | Yamaha Motor Co Ltd | System and method for adjusting behavior |
JP2001188784A (en) * | 1999-12-28 | 2001-07-10 | Sony Corp | Device and method for processing conversation and recording medium |
JP2001212782A (en) * | 2000-01-31 | 2001-08-07 | Sony Corp | Robot device and control method for robot device |
JP2002178283A (en) * | 2000-12-12 | 2002-06-25 | Honda Motor Co Ltd | Autonomous robot |
JP2002224981A (en) * | 2001-01-30 | 2002-08-13 | Nec Corp | Human attitude recognizing robot |
-
2007
- 2007-08-29 JP JP2007222992A patent/JP4677593B2/en not_active Expired - Lifetime
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001160131A (en) * | 1999-09-10 | 2001-06-12 | Yamaha Motor Co Ltd | System and method for adjusting behavior |
JP2001188784A (en) * | 1999-12-28 | 2001-07-10 | Sony Corp | Device and method for processing conversation and recording medium |
JP2001212782A (en) * | 2000-01-31 | 2001-08-07 | Sony Corp | Robot device and control method for robot device |
JP2002178283A (en) * | 2000-12-12 | 2002-06-25 | Honda Motor Co Ltd | Autonomous robot |
JP2002224981A (en) * | 2001-01-30 | 2002-08-13 | Nec Corp | Human attitude recognizing robot |
Also Published As
Publication number | Publication date |
---|---|
JP2007320033A (en) | 2007-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4024683B2 (en) | Communication robot | |
JP4677593B2 (en) | Communication robot | |
JP5429462B2 (en) | Communication robot | |
JP4014044B2 (en) | Communication robot and communication system using the same | |
JP5033994B2 (en) | Communication robot | |
JP4599522B2 (en) | Communication robot | |
JP5456832B2 (en) | Apparatus and method for determining relevance of an input utterance | |
US9201143B2 (en) | Assisted guidance navigation | |
US10547937B2 (en) | User-controlled beam steering in microphone array | |
US11338429B2 (en) | Robot | |
US20130190041A1 (en) | Smartphone Speakerphone Mode With Beam Steering Isolation | |
CN110505408B (en) | Terminal shooting method and device, mobile terminal and readable storage medium | |
JP2007260822A (en) | Guide robot | |
JP2007221300A (en) | Robot and control method of robot | |
CN110300267B (en) | Photographing method and terminal equipment | |
JP2007160473A (en) | Interactive object identifying method in robot and robot | |
WO2018155116A1 (en) | Information processing device, information processing method, and computer program | |
CN109218481B (en) | Imaging module, terminal equipment and zooming method | |
JP3942599B2 (en) | Communication robot | |
CN112104963B (en) | Following type robot sound amplification method and system | |
JP2007160427A (en) | Robot control system | |
JP4793904B2 (en) | Communication robot system and communication robot | |
CN113678141A (en) | Stereophonic device for blind and visually impaired persons | |
JP2007130691A (en) | Communication robot | |
JP2012070202A (en) | Wireless communication apparatus for mobile operation, communication control program, and mobile |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070918 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070918 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100716 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100715 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101221 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110111 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4677593 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140210 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |