JP2004216513A - Communication robot - Google Patents

Communication robot Download PDF

Info

Publication number
JP2004216513A
JP2004216513A JP2003007292A JP2003007292A JP2004216513A JP 2004216513 A JP2004216513 A JP 2004216513A JP 2003007292 A JP2003007292 A JP 2003007292A JP 2003007292 A JP2003007292 A JP 2003007292A JP 2004216513 A JP2004216513 A JP 2004216513A
Authority
JP
Japan
Prior art keywords
communication
robot
user
axis
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003007292A
Other languages
Japanese (ja)
Other versions
JP4024683B2 (en
Inventor
Takayuki Kanda
崇行 神田
Takayuki Hirano
貴幸 平野
Hiroshi Ishiguro
浩 石黒
Kiyoshi Kogure
潔 小暮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2003007292A priority Critical patent/JP4024683B2/en
Publication of JP2004216513A publication Critical patent/JP2004216513A/en
Application granted granted Critical
Publication of JP4024683B2 publication Critical patent/JP4024683B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a communication robot which individually recognizes users existing in the vicinity of or around the robot, and makes communication action suitable for a specified user. <P>SOLUTION: The communication robot 10 includes an antenna 58 and receives an electric wave which is sent from RFID tags 12, 14 and 16 and superimposed by RFID information. Users A, B and C possess or put on the tags 12, 14 and 16, respectively. Accordingly, the robot 10 obtains the RF10 information and recognizes the users A, B and C who are in the vicinity of or around the robot. Further, the robot 10 identifies the nearest user by the electric wave intensity when the robot obtains RFID information, and make communication action with the user. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【産業上の利用分野】
この発明はコミュニケーションロボットに関し、特にたとえば固有の無線タグを保有する複数のコミュニケーション対象との間でコミュニケーション行動を実行する、コミュニケーションロボットに関する。
【0002】
【従来の技術】
従来のこの種のコミュニケーションロボットの一例が特許文献1に開示される。この特許文献1に開示されるロボット装置では、ロボット装置に対面する人物をカメラで撮影し、撮影したカメラ画像から正面顔画像を取得し、予め記憶してある識別辞書と照合して、人物を特定していた。
【0003】
【特許文献1】
特開2002−56388号(第6頁〜第11頁,第1図〜第10図,第12図,第19図〜第22図および第33図)
【0004】
【発明が解決しようとする課題】
しかし、この従来技術は、ロボットに対面する人物を特定(識別)するようにしてあるため、ロボットの近傍やその周囲に存在する人物を特定するのは困難であり、人物が複数人存在する場合には、それぞれの人物と対面して、人物を特定する必要があった。また、カメラで撮影した映像によって人物を特定するようにしてあるため、処理が膨大であり、人物の特定に時間がかかってしまうという問題があった。さらに、ロボットから見て人物が複数重なっている場合には、後ろに位置する人物を特定することができないという問題もあった。したがって、このような従来技術を、複数人の人物のような複数のコミュニケーション対象との間でコミュニケーション行動を実行するコミュニケーションロボットに適用することはできなかった。
【0005】
それゆえに、この発明の主たる目的は、コミュニケーション対象を容易に特定でき、特定したコミュニケーション対象に適したコミュニケーション行動を実行できる、コミュニケーションロボットを提供することである。
【0006】
【課題を解決するための手段】
この発明は、固有の無線タグを保有する複数のコミュニケーション対象との間でコミュニケーション行動を実行するコミュニケーションロボットであって、少なくともタグ情報を記録するタグ情報データベース、コミュニケーション対象からタグ情報を取得する取得手段、取得手段の取得結果に基づいて近傍或いは周囲に存在する1または複数のコミュニケーション対象を個別に認識する認識手段、認識手段の認識結果に基づいてコミュニケーション行動を実行する1のコミュニケーション対象を特定する特定手段、および特定手段によって特定されたコミュニケーション対象にコミュニケーション行動を実行する実行手段を備える、コミュニケーションロボットである。
【0007】
【作用】
コミュニケーションロボットは、固有の無線タグを保有するたとえば人間(ユーザ)のような複数のコミュニケーション対象に対して、音および動作の少なくとも一方によるコミュニケーション行動を実行する。コミュニケーションロボットは、少なくともタグ情報を記録するタグ情報データベースを備えている。コミュニケーションロボットは、コミュニケーション行動を実行する際、取得手段によってコミュニケーション対象からタグ情報を取得する。認識手段は、コミュニケーション対象としての人間(ユーザ)を個別に認識する。特定手段は、認識手段の認識結果に基づいて1のコミュニケーション対象を特定する。つまり、コミュニケーションロボットの近傍或いは周囲に存在するユーザのうち、1人のユーザを特定する。そして、実行手段は、当該ユーザに対してコミュニケーション行動を実行する。
【0008】
たとえば、検出手段が各コミュニケーション対象との距離の大小を検出するので、特定手段は、距離が最小となる1のコミュニケーション対象を特定することができる。つまり、最近傍に存在するユーザに対してコミュニケーション行動を取ることができる。
【0009】
また、無線タグは電波を発信し、取得手段はアンテナを含む。検出手段は、取得手段によってタグ情報を取得したときのアンテナにおける電波強度に応じて距離の大小を検出する。つまり、電波強度がより弱ければ、コミュニケーションロボットからの距離が大きく、電波強度がより強ければ、コミュニケーションロボットからの距離が小さい。したがって、特定手段は、一番強い電波強度で取得したタグ情報を有するユーザをコミュニケーション対象に特定するのである。
【0010】
ただし、無線タグは超音波や赤外線によりタグ情報を送信 (放射)するようにしてもよい。超音波によりタグ情報を送信する場合には、取得手段に含まれる超音波センサが無線タグからの超音波を受信し、そのときの超音波センサにおける音波強度に応じてコミュニケーション対象としてのユーザが特定される。また、赤外線によりタグ情報を送信(放射)する場合には、取得手段に含まれる赤外線センサが無線タグからの赤外線を受信し、そのときの赤外線センサにおける受光強度に応じてコミュニケーション対象としてのユーザが特定される。
【0011】
さらに、コミュニケーションロボットは、実行手段によって実行されたコミュニケーション行動の履歴を、たとえば当該コミュニケーション行動を実行したコミュニケーション対象に対応づけて記録する履歴データベースを備える。このため、履歴データベースを参照して、特定されたコミュニケーション対象に適したコミュニケーション行動を実行することができる。たとえば、初めて対話するユーザに対しては、お辞儀をするとともに、「○○さん、はじめまして」と挨拶することができる。また、以前に対話したことがあるが、今日初めて対話するユーザに対しては、お辞儀をするとともに、「○○さん、こんにちは」と挨拶することができる。つまり、適切でないコミュニケーション行動を繰り返すようなことがない。
【0012】
また、判別手段は、履歴データベースを参照して、認識手段によって認識されたコミュニケーション対象のそれぞれについて特定情報を取得しているかどうかを判別する。特定情報を取得していないと判別されたコミュニケーション対象が存在する場合には、実行手段が当該特定情報を少なくとも当該コミュニケーション対象に報知 (提示)するためのコミュニケーション行動を実行する。つまり、特定のユーザに対してのコミュニケーションだけでなく、それ以外のユーザに対してもコミュニケーション行動を取ることもできる。
【0013】
一方、特定情報を取得していないと判別されたコミュニケーション対象が存在しない場合には、実行手段は他のコミュニケーション対象を探すためのコミュニケーション行動を実行する。つまり、新しいコミュニケーション対象を求める。ただし、他の特定情報を報知するためのコミュニケーション行動を実行するようにしてもよい。
【0014】
また、認識手段によって、コミュニケーション対象を認識できない場合には、つまり近傍や周囲にユーザが存在しない場合には、実行手段は、コミュニケーション対象を探す (求める)ためのコミュニケーション行動を実行する。
【0015】
【発明の効果】
この発明によれば、タグ情報に基づいてコミュニケーション対象を特定するので、その特定が簡単である。また、1のコミュニケーション対象を特定するので、ロボットは当該コミュニケーション対象に適したコミュニケーション行動を取ることができる。
【0016】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【0017】
【実施例】
図1を参照して、この実施例のコミュニケーションロボット(以下、単に「ロボット」ということがある。)10は、主として人間のようなコミュニケーションの対象とコミュニケーションすることを目的とした相互作用指向のコミュニケーションロボットである。ただし、コミュニケーションの対象としては、コミュニケーションロボット10と同様に構成された他のコミュニケーションロボットであってもよい。
【0018】
このロボット12の近傍或いは周囲には、人間ないしはユーザA、ユーザBおよびユーザCが存在し、ユーザA、ユーザBおよびユーザCは、それぞれ、RFIDタグ(以下、単に「タグ」という。)12、14および16を所持或いは装着(保有)している。タグ12、14および16は、任意のタグを用いることができるが、この実施例では、自走式(電池式)のタグを用いてある。したがって、タグ12、14および16は、それぞれ、固有のRFID(Radio Frequency Identification)の情報を所定周波数の電波に重畳して、一定の時間間隔で送信(発信)する。ただし、異なる周波数の電波を送信して、周波数の違いでタグ(ユーザ)を識別可能な構成としてもよい。
【0019】
なお、この実施例では、3人のユーザが存在する場合について示してあるが、ユーザは1人以上であればよい。
【0020】
図2はロボット10の外観を示す正面図であり、この図2を参照して、ロボット10のハードウェアの構成について説明する。ロボット12は台車20を含み、この台車20の下面にはロボット10を自律移動させる車輪22が設けられる。車輪22は車輪モータ(図3参照:90)によって駆動され、台車20すなわちロボット10を前後左右任意の方向に動かすことができる。
【0021】
なお、図2においては省略するが、台車20の前面には、衝突センサ(図3参照:94)が取り付けられ、この衝突センサ94は台車20への人や他の障害物の接触を検知する。つまり、ロボット10の移動中に障害物との接触を検知すると、直ちに車輪22の駆動を停止してロボット10の移動を急停止させて、衝突を未然に防止する。
【0022】
また、この実施例では、ロボット10の背の高さは、人(ユーザ)、特に子供に威圧感を与えることのないように、100cm程度とされる。ただし、この背の高さは変更可能である。
【0023】
台車20の上には、多角形柱のセンサ取付パネル24が設けられ、このセンサ取付パネル24の各面には、超音波距離センサ26が取り付けられる。この超音波距離センサ26は、センサ取付パネル24すなわちロボット10の周囲の主としてユーザとの距離を計測するものである。
【0024】
また、台車20の上には、さらに、下部がセンサ取付パネル24に囲まれて、ロボット10の胴体が直立するように設けられる。この胴体は、下部胴体28と上部胴体30とによって構成され、下部胴体28および上部胴体30は、連結部32によって互いに連結される。図示は省略するが、連結部32には昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体30の高さすなわちロボット10の背の高さを変化させることができる。昇降機構は、後述するように、腰モータ(図3参照:88)によって駆動される。
【0025】
なお、上述したロボット10の背の高さは、上部胴体30をそれの最下位置にしたときのものである。したがって、ロボット10の背の高さは、100cm以上にすることができる。
【0026】
上部胴体30のほぼ中央には、1つの全方位カメラ34と1つのマイク36とが設けられる。全方位カメラ34は、ロボット10の周囲を撮影するものであり、後述する眼カメラ56とは区別される。この全方位カメラ34としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。マイク36は、周囲の音、とりわけコミュニケーション対象であるユーザの声を取り込む。
【0027】
上部胴体30の両肩には、それぞれ、肩関節38Rおよび38Lによって、上腕40Rおよび40Lが設けられる。肩関節38Rおよび38Lは、それぞれ、3軸の自由度を有する。すなわち、肩関節38Rは、X軸、Y軸およびZ軸のそれぞれの軸廻りにおいて上腕40Rの角度を制御できる。Y軸は、上腕40Rの長手方向(または軸)に平行な軸であり、X軸およびZ軸は、そのY軸に対して、それぞれ異なる方向から直交する軸である。他方、肩関節38Lは、A軸、B軸およびC軸のそれぞれの軸廻りにおいて上腕40Lの角度を制御できる。B軸は、上腕40Lの長手方向(または軸)に平行な軸であり、A軸およびC軸は、そのB軸に対して、それぞれ異なる方向から直交する軸である。
【0028】
また、上腕40Rおよび40Lのそれぞれの先端には、肘関節42Rおよび42Lを介して、前腕44Rおよび44Lが設けられる。肘関節42Rおよび42Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕44Rおよび44Lの角度を制御できる。
【0029】
なお、上腕40Rおよび40Lならびに前腕44Rおよび44Lの変位を制御するX軸,Y軸,Z軸,W軸およびA軸,B軸,C軸,D軸では、それぞれ、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、上腕40Rおよび40Lならびに前腕44Rおよび44Lは下方に向けられる。
【0030】
また、図示は省略するが、上部胴体30の肩関節38Rおよび38Lを含む肩の部分や上述の上腕40Rおよび40Lならびに前腕44Rおよび44Lには、それぞれ、タッチセンサ(図3で包括的に示す。:92)が設けられていて、これらのタッチセンサ92は、ユーザがロボット10の当該各部位に触れたかどうかを検知する。
【0031】
前腕44Rおよび44Lのそれぞれの先端には、手に相当する球体46Rおよび46Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。
【0032】
なお、ロボット10の形状・寸法等は適宜設定されるが、他の実施例では、たとえば、上部胴体30は、前面、背面、右側面、左側面、上面および底面を含み、右側面および左側面は表面が斜め前方に向くように形成してもよい。つまり、前面の横幅が背面の横幅よりも短く、上部胴体30を上から見た形状が台形になるように形成されてもよい。
【0033】
このような場合、肩関節38Rおよび38Lは、右側面および左側面に、その表面が左右両側面とそれぞれ平行である左右の支持部を介して設けられる。そして、上腕40Rおよび上腕40Lの回動範囲は、これら左右側面または支持部の表面(取り付け面)によって規制され、上腕40Rおよび40Lは取り付け面を超えて回動することはない。
【0034】
しかし、左右側面の傾斜角、B軸とY軸との間隔、上腕40Rおよび40Lの長さ、ならびに前腕44Rおよび44Lの長さ等を適宜に設定すれば、上腕40Rおよび40Lは前方を超えてより内側まで回動できるので、たとえW軸およびD軸による腕の自由度がなくてもロボット10の腕は前方で交差できる。したがって、腕の自由度が少ない場合でも正面に位置する人と抱き合うなどの密接なコミュニケーションを取ることができる。
【0035】
上部胴体30の中央上方には、首関節48を介して頭部50が設けられる。首関節48は、3軸の自由度を有し、S軸、T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上(鉛直上向き)に向かう軸であり、T軸およびU軸は、それぞれ、そのS軸に対して異なる方向で直交する軸である。頭部50には、人の口に相当する位置に、スピーカ52が設けられる。スピーカ52は、ロボット10が、それの周囲(周辺)の人に対して音声(音を含む。)または声によってコミュニケーションを取るために用いられる。ただし、スピーカ52は、ロボット10の他の部位、たとえば胴体に設けられてもよい。
【0036】
また、頭部50には、目に相当する位置に眼球部54Rおよび54Lが設けられる。眼球部54Rおよび54Lは、それぞれ眼カメラ56Rおよび56Lを含む。以下、右の眼球部54Rと左の眼球部54Lとをまとめて眼球部54ということがあり、また、右の眼カメラ56Rと左の眼カメラ56Lとをまとめて眼カメラ56ということもある。
【0037】
眼カメラ56は、ロボット10に接近した人の顔や他の部分ないし物体等を撮影して、それに対応する映像信号を取り込む。眼カメラ56としては、上述した全方位カメラ34と同様のカメラを用いることができる。
【0038】
たとえば、眼カメラ56は眼球部54内に固定され、眼球部54は眼球支持部(図示せず)を介して頭部50内の所定位置に取り付けられる。眼球支持部は、2軸の自由度を有し、α軸およびβ軸の各軸廻りに角度制御可能である。α軸およびβ軸は頭部50に対して設けられる軸であり、α軸は頭部50の上へ向かう方向の軸であり、β軸はα軸に直交しかつ頭部50の正面側(顔)が向く方向に直交する方向の軸である。この実施例では、頭部50がホームポジションにあるとき、α軸はS軸と平行であり、β軸はU軸と平行であるように設定される。このような頭部50において、眼球支持部がα軸およびβ軸の各軸廻りに回転されることによって、眼球部54ないし眼カメラ56の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。
【0039】
なお、眼カメラ56の変位を制御するα軸およびβ軸では、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、眼カメラ56のカメラ軸は頭部50の正面側(顔)が向く方向に向けられ、視線は正視状態となる。
【0040】
さらに、頭部50の横であり、右肩部から延びるアンテナ58が設けられる。アンテナ58は図1に示したタグ12、14および16から送信されるRFIDの情報(タグ情報)が重畳された電波を受信する。
【0041】
図3はロボット10の電気的な構成を示すブロック図であり、この図3を参照して、ロボット10は、全体の制御を司るCPU60を含む。CPU60は、マイクロコンピュータ或いはプロセサとも呼ばれ、バス62を介して、メモリ70、モータ制御ボード72、センサ入力/出力ボード74および音声入力/出力ボード76に接続される。
【0042】
メモリ70は、図示は省略するが、ROMやRAMを含み、ROMにはロボット10の制御プログラムが予め記憶されるとともに、コミュニケーション行動の実行の際にスピーカ52から発生すべき音声または声の音声データ(音声合成データ)および所定の身振りを提示するための角度データ等が記憶される。RAMは、ワークメモリやバッファメモリとして用いられる。
【0043】
モータ制御ボード72は、たとえばDSPで構成され、各腕や頭部および眼球部等の各軸モータの駆動を制御する。すなわち、モータ制御ボード72は、CPU60からの制御データを受け、右眼球部54Rのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ」と示す。)78の回転角度を制御する。同様に、モータ制御ボード72は、CPU60からの制御データを受け、左眼球部54Lのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ」と示す。)80の回転角度を制御する。
【0044】
また、モータ制御ボード72は、CPU60からの制御データを受け、右肩関節38RのX軸、Y軸およびZ軸のそれぞれの角度を制御する3つのモータと右肘関節42RのW軸の角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ」と示す。)82の回転角度を調節する。同様に、モータ制御ボード72は、CPU60からの制御データを受け、左肩関節38LのA軸、B軸およびC軸のそれぞれの角度を制御する3つのモータと左肘関節42LのD軸の角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ」と示す。)84の回転角度を調整する。
【0045】
さらに、モータ制御ボード72は、CPU60からの制御データを受け、頭部50のS軸、T軸およびU軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ」と示す。)86の回転角度を制御する。さらにまた、モータ制御ボード72は、CPU60からの制御データを受け、腰モータ88および車輪22を駆動する2つのモータ(図3では、まとめて「車輪モータ」と示す。)90の回転角度を制御する。
【0046】
なお、この実施例では、車輪モータ90を除くモータは、制御を簡素化するために、ステッピングモータ或いはパルスモータを用いるようにしてある。ただし、車輪モータ90と同様に、直流モータを用いるようにしてもよい。
【0047】
センサ入力/出力ボード74もまた、同様に、DSPで構成され、各センサからの信号を取り込んでCPU60に与える。すなわち、超音波距離センサ26のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード74を通してCPU60に入力される。また、全方位カメラ34からの映像信号が、必要に応じてこのセンサ入力/出力ボード74で所定の処理を施された後、CPU60に入力される。眼カメラ56からの映像信号も、同様にして、CPU60に入力される。また、上述した複数のタッチセンサ(図3では、まとめて「タッチセンサ92」と示す。)からの信号がセンサ入力/出力ボード74を介してCPU60に与えられる。さらに、上述した衝突センサ94からの信号も、同様にして、CPU60に与えられる。
【0048】
音声入力/出力ボード76もまた、同様に、DSPで構成され、CPU60から与えられる音声合成データに従った音声または声がスピーカ52から出力される。また、マイク36からの音声入力が、音声入力/出力ボード76を介してCPU60に取り込まれる。
【0049】
また、CPU60は、バス62を介して通信LANボード96および無線IDタグ装置100に接続される。通信LANボード96は、DSPで構成され、CPU60から送られる送信データを無線通信装置98に与え、無線通信装置98から送信データを、図示は省略するが、たとえば、無線LANのようなネットワークを介して外部コンピュータに送信させる。また、通信LANボード96は、無線通信装置98を介してデータを受信し、受信したデータをCPU60に与える。つまり、この通信LANボード96および無線通信装置98によって、ロボット10は外部コンピュータ等と無線通信を行うことができる。
【0050】
無線IDタグ装置100は、図1に示したタグ12、14および16から送信されるRFIDの情報を重畳した電波を、アンテナ58を介して受信し、電波信号を増幅し、当該電波信号からRFIDの情報を分離し、当該RFIDの情報を復調(デコード)してCPU60に与えるとともに、当該RFIDの情報を重畳した電波を受信したときのアンテナ58における電波強度を検出してCPU60に与える。ただし、RFIDの情報は、外部コンピュータでデコードして、CPU60に与えるようにしてもよい。
【0051】
なお、この実施例に示すタグ(12、14、16)およびアンテナ(58)を含む無線IDタグ装置(100)としては、米国のRF Code社が製造販売する商品名「Spider tag」および「Spider readers」をそれぞれ用いることができる。
【0052】
また、この実施例では、RFIDの情報を重畳した電波をタグ12、14および16から発信し、これをアンテナ58を介して無線IDタグ装置100で受信するようにしてあるが、これに限定されるべきでない。たとえば、RFIDの情報を重畳した超音波をタグ12、14および16から発信し、これを超音波センサを有する受信装置で受信するような構成にすることができる。また、RFIDの情報を赤外線信号に変換した赤外線をタグ12、14および16から放射し、これを赤外線受光部(赤外線センサ)を有する受信装置で受信するような構成にすることもできる。
【0053】
さらに、CPU60は、バス62を介して2つのデータベース102および104に接続される。ただし、これらのデータベースは、外部のネットワーク上にアクセス可能に設けるようにしてもよい。データベース102は、ユーザ情報を記憶するデータベース(以下、「ユーザDB」という。)であり、この実施例では、図4(A)に示すようなユーザ情報のテーブルを記録する。図4(A)から分かるように、ユーザ情報のテーブルには、ユーザ名に対応してRFIDが記述される。したがって、たとえば、ユーザAに装着されたタグ12は、“AAAA”というRFIDを有していることが分かる。このようなユーザDB102は、予めロボット10の設計者或いは開発者が登録しておくことができる。また、新たなユーザを追加する場合には、設計者等が当該新しいユーザ等を、外部コンピュータを操作してユーザDB102に登録することができる。他の実施例として、ロボット10が音声認識機能を備える場合には、ロボット10と当該新しいユーザとが会話などのコミュニケーションを取ることにより取得したユーザ名およびそのとき取得したRFIDを対応づけて、ロボット10(厳密には、CPU60)がユーザDB102に登録することもできる。
【0054】
また、データベース104は、ロボット10がユーザDB102に登録されたユーザ(ユーザA、ユーザB、ユーザC、…)のそれぞれ、或いは近傍および周囲に存在するすべてのユーザに対して実行したコミュニケーション行動の履歴を記録したデータベース(コミュニケーション行動履歴DB)であり、図4(B)に示すような履歴情報のテーブルを記録する。この図4(B)から分かるように、履歴情報のテーブルには、年月日および時間、コミュニケーション行動の内容およびRFIDがそれぞれ対応づけて記述される。したがって、図4(B)に示す1行目の例は、ロボット10が、2003年1月20日の10時20分にコミュニケーション行動1をユーザC(RFID:CCCC)に対して実行したことを示してある。また、5行目の例は、ロボット10が、2003年2月2日の15時5分にコミュニケーション行動5を近傍或いは周囲に存在するすべてのユーザ(RFID:ZZZZ)に対して実行したことを示してある。図面の都合上、近傍或いは周囲に存在するすべてのユーザについてのRFIDを“ZZZZ”と記述してあるが、実際には、ロボット10の近傍或いはその周囲に存在するユーザに対応するRFIDが記述される。つまり、後述するIDリストに含まれるすべてのRFIDが記述される。
【0055】
なお、ロボット10が音声認識機能を備える場合には、ユーザがロボットに対して行ったコミュニケーション行動の内容を履歴に記録することもできる。たとえば、ユーザが発話した内容およびユーザが発話したときの全方位カメラ34や眼カメラ56からの映像信号を履歴に残しておくことができる。
【0056】
また、コミュニケーション行動の内容は、モータ78〜90の駆動を制御した角度データおよびスピーカ52から出力した音声(声)に対応するテキストデータであるが、これらの情報を履歴情報として記録した場合にはデータ量が膨大となるため、実際には、1のコミュニケーション行動(たとえば、挨拶、握手、抱きつく、情報提供など)に対応して割り当てられる識別情報(コミュニケーションID)を記録するようにしてある。
【0057】
さらに、この実施例では、コミュニケーション行動履歴DB(以下、単に「履歴DB」という。)104には、年月日および時間とコミュニケーション行動の内容とに対応づけて、RFIDを記録するようにしてあるが、ユーザ名を記録するようにしてもよい。
【0058】
また、この実施例では、履歴情報を時系列順に記録するようにして、1つのテーブルで管理するようにしてあるが、RFID(ユーザ)別の履歴情報をテーブルで管理するようにしてもよい。このようにすれば、RFIDに対応したテーブルに履歴情報を記録(追加)すればよいので、個々の履歴情報に対してRFIDを記録する必要がなくなる。
【0059】
たとえば、ロボット10は、コミュニケーション行動を取る(実行する)際、自身の近傍或いは周囲(周辺)に存在する、すなわちタグの送信電波がロボット10(アンテナ58)に届く範囲に存在するユーザを認識する。つまり、タグからのRFIDの情報を取得して、取得したRFIDのリスト(IDリスト)を作成する。IDリストは、図4(C)のように示され、RFIDの情報に対応して、当該RFIDの情報を受信した(取得した)際の電波強度が記述される。たとえば、IDリストには、RFIDの情報を取得した順に従ってRFIDおよびそれを取得したときの電波強度が記述され、たとえば、図4(C)に示す1列目の例からは、RFID“CCCC”が取得され、そのときの電波強度がP(dBm)であったことが分かる。
【0060】
ロボット10は、IDリストを作成すると、当該IDリストを参照して、1のコミュニケーション対象を特定する。この実施例では、一番強い電波強度のタグを所持(装着)しているユーザがロボット10に最も近い位置(短い距離)に存在すると判断して、当該ユーザをコミュニケーション対象に特定する。
【0061】
なお、2番目、3番目のように任意の番目に電波強度が強いタグを装着しているユーザをコミュニケーション対象として特定することもでき、これは設計者や開発者によって予め決定される事項である。
【0062】
また、上述したように、超音波によりRFIDの情報を取得する場合には、超音波センサにおける超音波の強度(音波強度)に応じてコミュニケーション対象が特定される。また、赤外線によりRFIDの情報を取得する場合には、赤外線センサにおける赤外線の強度(受光強度)に応じてコミュニケーション対象が特定される。
【0063】
コミュニケーション対象のユーザが特定されると、ロボット10は履歴情報に従って、当該ユーザに適したコミュニケーション行動を実行する。たとえば、この実施例では、特定したユーザが初めて対話する(コミュニケーションする)ユーザであるかどうかを判断する。
【0064】
初めて対話するユーザである場合には、お辞儀をする(頭部50を前方下向きに傾ける)とともに、“○○さん、はじめまして”と挨拶(発話)する(音声をスピーカ52から出力する。)。一方、初めて対話するユーザでない場合、すなわち以前に対話したことのあるユーザである場合には、さらに、今日初めて対話するユーザであるかどうかを判断する。
【0065】
今日初めて対話するユーザである場合には、お辞儀をするとともに、“○○さん、こんにちは”と発話する。一方、今日既に対話したユーザである場合には、ロボット10は、その近傍および周囲に存在するユーザに対してコミュニケーション行動を実行する。具体的には、IDリストに挙がっているユーザのうち、特定情報(たとえば、天気予報)を取得していないユーザが存在するかどうかを、履歴DB104を参照して検出する。
【0066】
特定情報を取得していないユーザが存在する場合には、たとえば、斜め上を向いて(頭部50を前方上方に傾けて)みんなに呼びかけるような振り振る舞いをするとともに、“明日は晴れるよ”という情報を発話する。一方、特定情報を取得していないユーザが存在しない場合には、たとえば、斜め上を向いてみんなに呼びかけるような振り振る舞いをするとともに、“暇だよ”と発話して、他のコミュニケーション対象を探す。ただし、特定情報を取得していないユーザが存在しない場合には、みんなに呼びかけるような振り振る舞いをするとともに、他の特定情報(たとえば、スポーツ番組の放送時間など)を発話するようにしてもよい。このように、特定したユーザに限らず、周囲に存在するユーザに対してもコミュニケーション行動を取ることもできるのである。
【0067】
なお、この実施例では、特定情報として、天気予報やスポーツ番組を知らせるようにしてあるが、これに限定されるべきでない。特定情報としては、スポーツ、趣味、ゲーム、ショッピングなど様々な情報が想定される。このような特定情報は、ロボット10がインターネットのようなネットワークを介して取得することができる。
【0068】
また、ユーザ情報にユーザの好みの情報(趣味、興味のある事物の内容など)を付加しておけば、ユーザに応じた特定情報を報知することもできる。
【0069】
具体的には、図2に示したCPU60が図5および図6に示すフロー図に従ってコミュニケーション行動の処理を実行する。図5に示すように、まず、ステップS1では、停止命令があるかどうかを判断する。つまり、CPU60は、ロボット10自身に設けられる停止スイッチ(図示せず)からの停止コマンドや外部コンピュータからの停止コマンドがあるかどうかを判断する。
【0070】
ステップS1で“YES”であれば、つまり停止コマンドがあれば、停止命令があると判断して、そのままコミュニケーション行動の処理を終了する。ただし、ロボット10の主電源がオフされた場合にも、同様に、処理を終了する。一方、ステップS1で“NO”であれば、つまり停止コマンドがなければ、ステップS3でタグを検出する。具体的には、CPU60は、無線IDタグ装置100からの入力を検出する。
【0071】
続くステップS5では、タグを検出したかどうかを判断する。ステップS5で“NO”であれば、つまり無線IDタグ装置100からRFIDの情報および電波強度を取得しなければ、タグを検出していないと判断し、すなわちロボット10の近傍或いはその周囲にタグを所持したユーザが存在しないと判断し、ステップS7でIDリストおよび最近傍タグID(RFID)を初期化して、ステップS25に進む。
【0072】
一方、ステップS5で“YES”であれば、つまり無線IDタグ装置100からRFIDの情報および電波強度を取得すれば、タグを検出したと判断し、ステップS9で、取得したRFIDおよび各RFIDを受信したときの電波強度とを用いて、図4(C)に示したようなIDリストを作成する。そして、ステップS11でIDリストを参照して、最近傍タグIDを取得する。つまり、電波強度が最大値を示すRFIDを取得して、コミュニケーション対象のタグすなわちユーザを特定する。
【0073】
続いて、ステップS13では、当該RFIDに対応するユーザと初めて対話するかどうかを判断する。具体的には、CPU60は、履歴DB104を参照して、当該RFIDが履歴に存在するかどうかを判断する。ステップS13で“YES”であれば、つまり当該RFIDが履歴に存在していなければ、当該RFIDに対応するユーザと初めて対話すると判断して、ステップS15で頭部50を下に向けるとともに、「○○(当該ユーザ名)さん、はじめまして」と挨拶して、ステップS27に進む。具体的には、CPU60は、角度データ(S軸0度、T軸0度、U軸−45度、X軸0度、Y軸0度、Z軸0度、W軸0度、A軸0度、B軸0度、C軸0度、D軸0度)をモータ制御ボード72に送るとともに、「○○さん、はじめまして」に相当する音声合成データをメモリ70から読み出して音声入力/出力ボード76に与える。すると、頭部モータ88(厳密には、U軸を制御するモータ)が駆動され、頭部50が前方下向きに傾けられる。これと同時或いはほぼ同時に、「○○さん、はじめまして」という音声がスピーカ52から出力される。
【0074】
一方、ステップS13で“NO”であれば、つまり当該RFIDが履歴に存在すれば、当該RFIDに対応するユーザとは以前対話したことがあると判断して、ステップS17で、履歴DB104を参照して、当該RFIDに対応するユーザと今日初めて対話をするかどうかを判断する。
【0075】
ステップS17で“YES”であれば、つまり履歴情報に当該RFIDが存在しているが、今日の履歴がなければ、当該RFIDに対応するユーザと今日初めて対話すると判断して、ステップS19で、頭部を下に向け、「○○(当該ユーザ名)さん、こんにちは」と挨拶して、ステップS27に進む。
【0076】
なお、ステップS19におけるコミュニケーション行動は、発話する内容が異なる以外は上述のステップS15において説明した内容と同じであるため、ここでは、詳細な説明は省略することにする。
【0077】
一方、ステップS17で“NO”であれば、つまり履歴情報に当該RFIDが存在し、今日の履歴もあれば、当該RFIDに対応するユーザとは今日既に対話したと判断して、ステップS21で、最新の天気予報(特定情報)を聞いて(取得して)いないユーザがいるかどうかを判断する。つまり、履歴DB104に記録される今日の履歴を参照して、最新の天気予報を聞いていないユーザに対応するRFIDがIDリストに存在するかどうかを判断する。
【0078】
ステップS21で“YES”であれば、つまり最新の天気予報を聞いていないユーザに対応するRFIDがIDリストに存在すれば、ステップS23で頭部を上に向けるとともに、「明日は晴れるよ」と天気予報を知らせて、ステップS27に進む。具体的には、ステップS23では、CPU60は、角度データ(S軸0度、T軸0度、U軸+45度、X軸0度、Y軸0度、Z軸0度、W軸0度、A軸0度、B軸0度、C軸0度、D軸0度)をモータ制御ボード72に送るとともに、「明日は晴れるよ」に相当する音声合成データをメモリ70から読み出して音声入力/出力ボード76に与える。すると、頭部モータ88(厳密には、U軸を制御するモータ)が駆動され、頭部50が前方上向きに傾けられる。これと同時或いはほぼ同時に、「明日は晴れるよ」という音声がスピーカ52から出力される。
【0079】
一方、ステップS21で“NO”であれば、つまり最新の天気予報を聞いていないユーザに対応するRFIDがIDリストに存在しなければ、ステップS25で頭部を上に向けるとともに、「暇だよ」と発声して、ステップS27に進む。つまり、ステップS25におけるコミュニケーション行動により、周囲に注意を促し、新しいコミュニケーション対象を探しているのである。ただし、ステップS5でタグを検出しない場合には、つまり近傍や周囲にユーザが存在しない場合には、単にコミュニケーション対象を探していることになる。したがって、このような場合には、上述したようなコミュニケーション行動に加えて、さらに車輪モータ90を駆動して、場所を移動するような行動を取ることも考えられる。
【0080】
なお、ステップS25におけるコミュニケーション行動は、発話する内容が異なる以外はステップS23で説明した場合と同じであるため、ここでは、詳細な説明は省略することにする。
【0081】
ステップS27では、ステップS15、S19、S23またはS25で実行されたコミュニケーション行動についての履歴情報を履歴DB104に記録(追加)して、ステップS1に戻る。つまり、時計回路(図示しない)から年月日および時間、実行したコミュニケーション行動に割り当てられるコミュニケーションIDおよび当該コミュニケーション対象のRFIDを履歴DB104に記録する。
【0082】
この実施例によれば、タグからRFIDを取得して、ユーザを特定するので、ユーザの特定が簡単である。
【0083】
また、ロボットの近傍やその周囲に存在するユーザを個別に認識することができるので、ユーザに適したコミュニケーション行動を実行することができる。
【0084】
さらに、コミュニケーション行動履歴を残しておくので、或るユーザに一度話した内容を当該ユーザに再び話すようなことを回避でき、ユーザに不快感や違和感を与えることがない。つまり、適切でないコミュニケーション行動を繰り返すことを回避することができる。
【0085】
なお、この実施例で示したコミュニケーション行動の処理は、単なる一例であり、これに限定されるべきでない。たとえば、今日までに対話した回数をユーザ(RFID)毎にカウントし、カウント数に応じて親密度の異なるコミュニケーション行動をユーザとの間で実行することもできる。たとえば、或るユーザに対しては、握手をしながら「○○さん、久しぶり」と挨拶し、他のユーザに対しては、抱きつきながら「○○さん、元気ですか」と挨拶することができる。また、今日だけに着目して、対話した回数をカウントして、カウント数が増えるにつれて、より親密度を深めたり、異なる話題(情報)の提供をしたりするなどのコミュニケーション行動を取ることもできる。
【0086】
また、この実施例では、コミュニケーション行動としては、ロボットの振り振る舞い(行動)および音声の両方を用いた場合についてのみ説明したが、行動および音声のいずれか一方のみによるコミュニケーション行動を実行するようにしてもよい。
【0087】
さらに、この実施例では、天気予報のような特定情報をネットワークから取得して、ユーザに提供するようにしたが、ロボット10に内蔵される記憶装置(たとえば、メモリ70)に記憶しておいた情報を提供することもできる。具体的には、メモリ70等に歌の音声合成データを記憶しておき、ロボット10が当該歌を歌って、その近傍または周囲に存在するユーザに歌を教えたりすることができる。また、複数種類の歌の音声合成データを記憶しておけば、履歴情報を参照して、特定のユーザ或いは近傍または周囲に存在するすべてのユーザに対して、聞いたことがない歌を聞かせて、教えることができる。ただし、歌に限らず、外国語(たとえば、英語)の単語や会話などを教えることもできる。
【図面の簡単な説明】
【図1】この発明の一実施例の構成を示す図解図である。
【図2】図1実施例のロボットのハードウェアを示す正面図である。
【図3】図1実施例のロボットの電気的な構成を示すブロック図である。
【図4】図3に示すデータベースの内容の一例およびIDリストの一例を示す図解図である。
【図5】図3に示すCPUのコミュニケーション行動の処理の一部を示すフロー図である。
【図6】図3に示すCPUのコミュニケーション行動の処理の他の一部を示すフロー図である。
【符号の説明】
10 …コミュニケーションロボット
12,14,16 …周波数タグ
60 …CPU
70 …メモリ
72 …モータ制御ボード
74 …センサ入力/出力ボード
76 …音声入力/出力ボード
100 …無線ID受信装置
102,104 …データベース
[0001]
[Industrial applications]
The present invention relates to a communication robot, and more particularly, to a communication robot that executes a communication action with a plurality of communication objects having unique wireless tags, for example.
[0002]
[Prior art]
An example of this type of conventional communication robot is disclosed in Patent Document 1. In the robot device disclosed in Patent Literature 1, a person facing the robot device is photographed by a camera, a frontal face image is obtained from the photographed camera image, and the person is collated with a previously stored identification dictionary. Had been identified.
[0003]
[Patent Document 1]
JP-A-2002-56388 (pages 6 to 11, FIGS. 1 to 10, FIG. 12, FIGS. 19 to 22 and FIG. 33)
[0004]
[Problems to be solved by the invention]
However, since this conventional technique specifies (identifies) a person facing the robot, it is difficult to specify a person near or around the robot. Needed to identify each person in person. In addition, since a person is specified based on an image captured by a camera, the processing is enormous, and there is a problem that it takes time to specify the person. Furthermore, when a plurality of persons overlap from the viewpoint of the robot, there is a problem that a person located behind cannot be specified. Therefore, such a conventional technique cannot be applied to a communication robot that performs a communication action with a plurality of communication targets such as a plurality of persons.
[0005]
Therefore, a main object of the present invention is to provide a communication robot capable of easily specifying a communication target and executing a communication action suitable for the specified communication target.
[0006]
[Means for Solving the Problems]
The present invention relates to a communication robot that performs a communication action with a plurality of communication targets having unique wireless tags, a tag information database that records at least tag information, and an acquisition unit that obtains tag information from a communication target A recognizing means for individually recognizing one or a plurality of communication objects existing in the vicinity or in the vicinity on the basis of the result of the obtaining means, and specifying one communication object for executing a communication action based on the recognition result of the recognizing means. A communication robot comprising: means for executing a communication action on a communication target specified by the specifying means.
[0007]
[Action]
The communication robot executes a communication action by at least one of a sound and an action with respect to a plurality of communication targets such as humans (users) having unique wireless tags. The communication robot includes a tag information database that records at least tag information. When executing a communication action, the communication robot acquires tag information from a communication target by an acquisition unit. The recognition means individually recognizes a human (user) as a communication target. The specifying means specifies one communication target based on the recognition result of the recognition means. That is, one user is specified among the users existing near or around the communication robot. Then, the execution means executes a communication action for the user.
[0008]
For example, since the detecting means detects the magnitude of the distance to each communication target, the specifying means can specify one communication target having the minimum distance. In other words, it is possible to take a communication action with the nearest user.
[0009]
The wireless tag transmits a radio wave, and the acquisition unit includes an antenna. The detecting means detects the magnitude of the distance according to the radio wave intensity at the antenna when the tag information is obtained by the obtaining means. In other words, the lower the radio wave intensity, the greater the distance from the communication robot, and the higher the radio wave intensity, the smaller the distance from the communication robot. Therefore, the specifying means specifies the user having the tag information acquired with the strongest radio field intensity as the communication target.
[0010]
However, the wireless tag may transmit (emit) the tag information by ultrasonic waves or infrared rays. When transmitting tag information by ultrasonic waves, the ultrasonic sensor included in the acquisition unit receives the ultrasonic waves from the wireless tag, and the user as the communication target is specified according to the sound wave intensity of the ultrasonic sensor at that time. Is done. When transmitting (emitting) tag information by infrared rays, an infrared sensor included in the acquisition unit receives infrared rays from the wireless tag, and a user as a communication target communicates according to the received light intensity of the infrared sensor at that time. Specified.
[0011]
Further, the communication robot includes a history database that records a history of the communication behavior executed by the execution unit, for example, in association with a communication target that has performed the communication behavior. Therefore, a communication action suitable for the specified communication target can be executed with reference to the history database. For example, a user who interacts for the first time can bow and also greet “Mr. XX, nice to meet you”. In addition, there is a fact that the dialogue previously, for a user for the first time dialogue today, with the bow, it is possible to greeting as "○○'s, Hello". That is, there is no repetition of inappropriate communication behavior.
[0012]
The determining unit determines whether or not the specific information has been acquired for each of the communication targets recognized by the recognizing unit with reference to the history database. If there is a communication target for which it has been determined that the specific information has not been acquired, the execution means executes a communication action for notifying (presenting) the specific information to at least the communication target. In other words, not only communication with a specific user but also communication with other users can be taken.
[0013]
On the other hand, when there is no communication target for which it has been determined that the specific information has not been acquired, the execution unit executes a communication action for searching for another communication target. In other words, seek a new communication target. However, a communication action for notifying other specific information may be executed.
[0014]
If the communication means cannot be recognized by the recognition means, that is, if there is no user near or around, the execution means executes a communication action for searching for (obtaining) the communication object.
[0015]
【The invention's effect】
According to the present invention, since the communication target is specified based on the tag information, the specification is simple. Further, since one communication target is specified, the robot can take a communication action suitable for the communication target.
[0016]
The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
[0017]
【Example】
Referring to FIG. 1, a communication robot (hereinafter sometimes simply referred to as a “robot”) 10 of this embodiment is an interaction-oriented communication mainly for communicating with a communication target such as a human. Be a robot. However, the communication target may be another communication robot configured similarly to the communication robot 10.
[0018]
A human or a user A, a user B, and a user C exist near or around the robot 12, and the user A, the user B, and the user C are respectively RFID tags (hereinafter, simply referred to as “tags”) 12, 14 or 16 are possessed or mounted (held). Although any tags can be used as the tags 12, 14, and 16, in this embodiment, self-propelled (battery-operated) tags are used. Therefore, each of the tags 12, 14, and 16 superimposes information of a unique RFID (Radio Frequency Identification) on a radio wave of a predetermined frequency and transmits (transmits) the information at a predetermined time interval. However, a configuration may be adopted in which radio waves of different frequencies are transmitted and the tag (user) can be identified based on the difference in frequency.
[0019]
In this embodiment, the case where there are three users is shown, but the number of users may be one or more.
[0020]
FIG. 2 is a front view showing the external appearance of the robot 10, and the hardware configuration of the robot 10 will be described with reference to FIG. The robot 12 includes a carriage 20, and wheels 22 for autonomously moving the robot 10 are provided on a lower surface of the carriage 20. The wheels 22 are driven by a wheel motor (see FIG. 3: 90), and can move the cart 20, that is, the robot 10, in any direction in front, rear, left and right.
[0021]
Although not shown in FIG. 2, a collision sensor (see FIG. 3: 94) is attached to the front of the carriage 20, and the collision sensor 94 detects contact of a person or other obstacles with the carriage 20. . That is, when the contact with the obstacle is detected during the movement of the robot 10, the driving of the wheels 22 is immediately stopped to stop the movement of the robot 10 suddenly, thereby preventing the collision before it occurs.
[0022]
In this embodiment, the height of the robot 10 is set to about 100 cm so as not to give a feeling of intimidation to a person (user), particularly a child. However, this height can be changed.
[0023]
A polygonal column sensor mounting panel 24 is provided on the carriage 20, and an ultrasonic distance sensor 26 is mounted on each surface of the sensor mounting panel 24. The ultrasonic distance sensor 26 measures the distance between the sensor mounting panel 24, that is, the user mainly around the robot 10.
[0024]
In addition, a lower portion is provided on the carriage 20 so that the lower portion is surrounded by the sensor mounting panel 24 so that the body of the robot 10 stands upright. The body is constituted by a lower body 28 and an upper body 30, and the lower body 28 and the upper body 30 are connected to each other by a connecting portion 32. Although not shown, the connecting portion 32 has a built-in elevating mechanism, and by using this elevating mechanism, the height of the upper body 30, that is, the height of the robot 10 can be changed. The lifting mechanism is driven by a waist motor (see FIG. 3: 88) as described later.
[0025]
The height of the robot 10 described above is obtained when the upper body 30 is at the lowest position thereof. Therefore, the height of the back of the robot 10 can be set to 100 cm or more.
[0026]
One omnidirectional camera 34 and one microphone 36 are provided substantially at the center of the upper body 30. The omnidirectional camera 34 is for photographing the periphery of the robot 10 and is distinguished from an eye camera 56 described later. As the omnidirectional camera 34, for example, a camera using a solid-state imaging device such as a CCD or a CMOS can be employed. The microphone 36 captures ambient sounds, particularly the voice of the user to be communicated.
[0027]
Upper arms 40R and 40L are provided on both shoulders of upper torso 30 by shoulder joints 38R and 38L, respectively. The shoulder joints 38R and 38L each have three degrees of freedom. That is, the shoulder joint 38R can control the angle of the upper arm 40R around each of the X axis, the Y axis, and the Z axis. The Y axis is an axis parallel to the longitudinal direction (or axis) of the upper arm 40R, and the X axis and the Z axis are axes orthogonal to the Y axis from different directions. On the other hand, the shoulder joint 38L can control the angle of the upper arm 40L around each of the A axis, the B axis, and the C axis. The B axis is an axis parallel to the longitudinal direction (or axis) of the upper arm 40L, and the A axis and the C axis are axes orthogonal to the B axis from different directions.
[0028]
Further, forearms 44R and 44L are provided at the distal ends of the upper arms 40R and 40L, respectively, via elbow joints 42R and 42L. The elbow joints 42R and 42L can control the angles of the forearms 44R and 44L around the W axis and the D axis, respectively.
[0029]
In the X-axis, Y-axis, Z-axis, W-axis and A-axis, B-axis, C-axis, and D-axis for controlling the displacement of the upper arms 40R and 40L and the forearms 44R and 44L, "0 degree" is the home position. In this home position, the upper arms 40R and 40L and the forearms 44R and 44L are directed downward as shown in FIG.
[0030]
Although not shown, a touch sensor (shown comprehensively in FIG. 3) is provided on the shoulder portion including the shoulder joints 38R and 38L of the upper torso 30, the upper arms 40R and 40L, and the forearms 44R and 44L. : 92), and these touch sensors 92 detect whether or not the user has touched each part of the robot 10.
[0031]
At the tips of the forearms 44R and 44L, spheres 46R and 46L corresponding to hands are fixedly provided, respectively. However, when the function of a finger or a palm is required, a "hand" shaped like a human hand can be used.
[0032]
Although the shape and dimensions of the robot 10 are appropriately set, in another embodiment, for example, the upper body 30 includes a front surface, a back surface, a right side surface, a left side surface, a top surface and a bottom surface, and a right side surface and a left side surface. May be formed so that the surface faces obliquely forward. In other words, the upper body 30 may be formed such that the front width is shorter than the back width, and the shape of the upper body 30 viewed from above is trapezoidal.
[0033]
In such a case, the shoulder joints 38R and 38L are provided on the right and left side surfaces via left and right support portions whose surfaces are parallel to the left and right side surfaces, respectively. The rotation range of the upper arm 40R and the upper arm 40L is regulated by the left and right side surfaces or the surface (mounting surface) of the support portion, and the upper arms 40R and 40L do not rotate beyond the mounting surface.
[0034]
However, if the inclination angles of the left and right side surfaces, the interval between the B axis and the Y axis, the lengths of the upper arms 40R and 40L, and the lengths of the forearms 44R and 44L, etc., are appropriately set, the upper arms 40R and 40L extend beyond the front. Since the robot can be pivoted further inward, the arms of the robot 10 can intersect forward even if there is no freedom of the arms by the W axis and the D axis. Therefore, even when the degree of freedom of the arm is small, close communication such as hugging with a person located in front can be achieved.
[0035]
A head 50 is provided above the center of the upper body 30 via a neck joint 48. The neck joint 48 has three degrees of freedom, and can be angle-controlled around each of the S, T, and U axes. The S axis is an axis heading directly upward (vertically upward) from the neck, and the T axis and the U axis are axes orthogonal to the S axis in different directions. A speaker 52 is provided on the head 50 at a position corresponding to the mouth of a person. The speaker 52 is used by the robot 10 to communicate by voice (including sound) or voice to people around (around) it. However, the speaker 52 may be provided in another part of the robot 10, for example, a body.
[0036]
The head 50 is provided with eyeballs 54R and 54L at positions corresponding to the eyes. Eyeball units 54R and 54L include eye cameras 56R and 56L, respectively. Hereinafter, the right eyeball unit 54R and the left eyeball unit 54L may be collectively referred to as the eyeball unit 54, and the right eye camera 56R and the left eye camera 56L may be collectively referred to as the eye camera 56.
[0037]
The eye camera 56 captures an image of a person's face and other parts or objects approaching the robot 10 and captures a video signal corresponding to the image. As the eye camera 56, a camera similar to the omnidirectional camera 34 described above can be used.
[0038]
For example, the eye camera 56 is fixed in the eyeball unit 54, and the eyeball unit 54 is attached to a predetermined position in the head 50 via an eyeball support (not shown). The eyeball support has two degrees of freedom and can be angle-controlled around each of the α axis and the β axis. The α-axis and the β-axis are axes provided for the head 50, the α-axis is an axis in a direction upward to the head 50, and the β-axis is orthogonal to the α-axis and is on the front side of the head 50 ( Face). In this embodiment, when the head 50 is at the home position, the α axis is set parallel to the S axis, and the β axis is set parallel to the U axis. In such a head 50, the tip (front) side of the eyeball portion 54 or the eye camera 56 is displaced by rotating the eyeball support portion around each of the α axis and the β axis, and the camera axis, that is, the line of sight is changed. Be moved.
[0039]
Note that, in the α axis and the β axis for controlling the displacement of the eye camera 56, “0 degree” is the home position, and in this home position, the camera axis of the eye camera 56 is The front side (face) is turned in a direction to face, and the line of sight is in a normal vision state.
[0040]
Further, an antenna 58 is provided beside the head 50 and extending from the right shoulder. The antenna 58 receives a radio wave on which RFID information (tag information) transmitted from the tags 12, 14, and 16 shown in FIG. 1 is superimposed.
[0041]
FIG. 3 is a block diagram showing an electrical configuration of the robot 10. Referring to FIG. 3, the robot 10 includes a CPU 60 that controls the entire system. The CPU 60 is also called a microcomputer or a processor, and is connected to a memory 70, a motor control board 72, a sensor input / output board 74, and a voice input / output board 76 via a bus 62.
[0042]
Although not shown, the memory 70 includes a ROM or a RAM, in which a control program of the robot 10 is stored in advance, and a voice or voice data of a voice to be generated from the speaker 52 when performing a communication action. (Voice synthesis data) and angle data for presenting a predetermined gesture are stored. The RAM is used as a work memory or a buffer memory.
[0043]
The motor control board 72 is composed of, for example, a DSP, and controls driving of each axis motor such as each arm, head, and eyeball. That is, the motor control board 72 receives the control data from the CPU 60 and controls two motors for controlling the respective angles of the α axis and the β axis of the right eyeball unit 54R (in FIG. 3, they are collectively referred to as “right eyeball motor”). .) The rotation angle of 78 is controlled. Similarly, the motor control board 72 receives the control data from the CPU 60 and controls two motors (in FIG. 3, collectively referred to as “left eyeball motor”) for controlling the respective angles of the α axis and the β axis of the left eyeball unit 54L. The rotation angle of 80 is controlled.
[0044]
Further, the motor control board 72 receives the control data from the CPU 60, and determines three motors for controlling the respective angles of the X axis, Y axis and Z axis of the right shoulder joint 38R and the W axis angle of the right elbow joint 42R. A rotation angle of a total of four motors (one motor to be controlled) (in FIG. 3, collectively referred to as “right arm motor”) 82 is adjusted. Similarly, the motor control board 72 receives the control data from the CPU 60, and sets three motors for controlling the angles of the A-axis, B-axis, and C-axis of the left shoulder joint 38L and the D-axis of the left elbow joint 42L. The rotation angle of a total of four motors (one motor to be controlled) (in FIG. 3, collectively referred to as “left arm motor”) 84 is adjusted.
[0045]
Further, the motor control board 72 receives the control data from the CPU 60 and controls three motors for controlling the respective angles of the S-axis, the T-axis, and the U-axis of the head 50 (in FIG. The rotation angle of 86 is controlled. Furthermore, the motor control board 72 receives the control data from the CPU 60 and controls the rotation angles of the waist motor 88 and two motors 90 that drive the wheels 22 (collectively referred to as “wheel motors” in FIG. 3). I do.
[0046]
In this embodiment, a stepping motor or a pulse motor is used for the motors other than the wheel motor 90 in order to simplify the control. However, similarly to the wheel motor 90, a DC motor may be used.
[0047]
Similarly, the sensor input / output board 74 is also constituted by a DSP, takes in signals from each sensor, and supplies the signals to the CPU 60. That is, data relating to the reflection time from each of the ultrasonic distance sensors 26 is input to the CPU 60 through the sensor input / output board 74. A video signal from the omnidirectional camera 34 is input to the CPU 60 after being subjected to predetermined processing by the sensor input / output board 74 as necessary. The video signal from the eye camera 56 is similarly input to the CPU 60. Further, signals from the above-described plurality of touch sensors (collectively referred to as “touch sensors 92” in FIG. 3) are provided to the CPU 60 via the sensor input / output board 74. Further, the signal from the above-described collision sensor 94 is similarly supplied to the CPU 60.
[0048]
Similarly, the audio input / output board 76 is also constituted by a DSP, and outputs a voice or voice according to the voice synthesis data provided from the CPU 60 from the speaker 52. Further, a voice input from the microphone 36 is taken into the CPU 60 via the voice input / output board 76.
[0049]
The CPU 60 is connected to the communication LAN board 96 and the wireless ID tag device 100 via the bus 62. The communication LAN board 96 is formed of a DSP, and supplies transmission data sent from the CPU 60 to the wireless communication device 98, and transmits the transmission data from the wireless communication device 98 via a network such as a wireless LAN (not shown). To an external computer. Further, the communication LAN board 96 receives data via the wireless communication device 98 and gives the received data to the CPU 60. That is, the robot 10 can perform wireless communication with an external computer or the like by using the communication LAN board 96 and the wireless communication device 98.
[0050]
The wireless ID tag device 100 receives, via an antenna 58, a radio wave on which RFID information transmitted from the tags 12, 14, and 16 shown in FIG. 1 is superimposed, amplifies a radio signal, and converts the radio signal into an RFID signal. , And demodulates (decodes) the information of the RFID and provides the same to the CPU 60, and detects the radio wave intensity at the antenna 58 when the radio wave on which the information of the RFID is superimposed is detected and provides the same to the CPU 60. However, the RFID information may be decoded by an external computer and provided to the CPU 60.
[0051]
As the wireless ID tag device (100) including the tags (12, 14, 16) and the antenna (58) shown in this embodiment, trade names "Spider tag" and "Spider" manufactured and sold by RF Code, USA readers "can be used.
[0052]
Further, in this embodiment, radio waves on which RFID information is superimposed are transmitted from the tags 12, 14, and 16, and the radio waves are received by the wireless ID tag device 100 via the antenna 58. However, the present invention is not limited to this. Should not be. For example, it is possible to adopt a configuration in which ultrasonic waves on which RFID information is superimposed are transmitted from the tags 12, 14, and 16, and received by a receiving device having an ultrasonic sensor. In addition, it is also possible to adopt a configuration in which infrared light obtained by converting RFID information into an infrared signal is radiated from the tags 12, 14, and 16 and received by a receiving device having an infrared light receiving unit (infrared sensor).
[0053]
Further, the CPU 60 is connected to the two databases 102 and 104 via the bus 62. However, these databases may be provided so as to be accessible on an external network. The database 102 is a database that stores user information (hereinafter, referred to as “user DB”). In this embodiment, a table of user information as shown in FIG. 4A is recorded. As can be seen from FIG. 4A, the RFID of the user information table is described corresponding to the user name. Therefore, for example, it can be seen that the tag 12 attached to the user A has the RFID “AAAAA”. Such a user DB 102 can be registered in advance by the designer or developer of the robot 10. When a new user is added, a designer or the like can register the new user or the like in the user DB 102 by operating an external computer. As another embodiment, when the robot 10 has a voice recognition function, the robot 10 associates the user name obtained by communicating with the new user and performing communication such as conversation with the RFID obtained at that time, and 10 (strictly speaking, the CPU 60) can also be registered in the user DB 102.
[0054]
Further, the database 104 stores a history of communication actions performed by the robot 10 for each of the users (user A, user B, user C,...) Registered in the user DB 102, or for all users near and around the user. (Communication behavior history DB) that records a history information table as shown in FIG. 4B. As can be seen from FIG. 4B, the history information table describes the date and time, the content of the communication action, and the RFID in association with each other. Therefore, the example of the first line illustrated in FIG. 4B indicates that the robot 10 performed the communication action 1 with respect to the user C (RFID: CCCC) at 10:20 on January 20, 2003. Is shown. Further, the example of the fifth line indicates that the robot 10 has performed the communication action 5 at 15:05 on February 2, 2003 for all the users (RFID: ZZZZ) existing near or around. Is shown. For convenience of the drawing, the RFIDs of all the users present in the vicinity or in the vicinity are described as “ZZZZ”, but actually, the RFIDs corresponding to the users existing in the vicinity of or in the vicinity of the robot 10 are described. You. That is, all the RFIDs included in the ID list described later are described.
[0055]
When the robot 10 has a voice recognition function, the content of the communication action performed by the user on the robot can be recorded in the history. For example, the contents spoken by the user and the video signal from the omnidirectional camera 34 or the eye camera 56 when the user spoke can be recorded in the history.
[0056]
The contents of the communication action are angle data for controlling the driving of the motors 78 to 90 and text data corresponding to the voice (voice) output from the speaker 52. When these pieces of information are recorded as history information, Since the amount of data is enormous, identification information (communication ID) assigned to one communication action (eg, greeting, handshake, hugging, information provision, etc.) is actually recorded.
[0057]
Further, in this embodiment, the RFID is recorded in the communication behavior history DB (hereinafter simply referred to as “history DB”) 104 in association with the date, time, and the content of the communication behavior. However, the user name may be recorded.
[0058]
Further, in this embodiment, the history information is recorded in chronological order and is managed in one table. However, the history information for each RFID (user) may be managed in a table. With this configuration, it is only necessary to record (add) the history information to the table corresponding to the RFID, so that it is not necessary to record the RFID for each piece of history information.
[0059]
For example, when taking (executing) a communication action, the robot 10 recognizes a user existing near or around (periphery) of the robot 10, that is, a user within a range in which a radio wave transmitted from a tag reaches the robot 10 (antenna 58). . That is, the information of the RFID from the tag is acquired, and a list (ID list) of the acquired RFID is created. The ID list is shown as in FIG. 4 (C), and the radio field intensity when the information of the RFID is received (acquired) is described corresponding to the information of the RFID. For example, the ID list describes the RFID and the radio field intensity when the RFID is acquired in the order in which the information of the RFID is acquired. For example, from the example of the first column shown in FIG. Is obtained, and it can be seen that the radio wave intensity at that time was P (dBm).
[0060]
After creating the ID list, the robot 10 refers to the ID list and specifies one communication target. In this embodiment, it is determined that the user carrying (wearing) the tag having the strongest radio field intensity is at the position (short distance) closest to the robot 10, and the user is specified as a communication target.
[0061]
It is also possible to specify a user wearing a tag having the second highest radio wave intensity, such as the second or third, as a communication target, and this is a matter determined in advance by a designer or a developer. .
[0062]
In addition, as described above, when acquiring RFID information by ultrasonic waves, a communication target is specified according to the intensity of ultrasonic waves (sound wave intensity) in the ultrasonic sensor. When acquiring RFID information by infrared rays, a communication target is specified according to the intensity of infrared rays (light receiving intensity) of the infrared sensor.
[0063]
When a user to be communicated is specified, the robot 10 executes a communication action suitable for the user according to the history information. For example, in this embodiment, it is determined whether or not the specified user is a user who interacts (communicates) for the first time.
[0064]
If the user is a first-time user, he bows (tilts the head 50 forward and downward) and greets (speaks) "Mr. XX, nice to meet you" (outputs sound from the speaker 52). On the other hand, if the user is not the first user to interact, that is, if the user has interacted before, it is further determined whether the user is the first user to interact today.
[0065]
Today in the case of a user for the first time dialogue, with the bow, "○○ Hi," utters. On the other hand, if the user has already interacted with the robot today, the robot 10 performs a communication action with the users existing near and around the user. Specifically, it is detected by referring to the history DB 104 whether or not there is a user who has not obtained specific information (for example, weather forecast) among users listed in the ID list.
[0066]
When there is a user who has not acquired the specific information, for example, the user behaves as if calling diagonally upward (tilting the head 50 forward and upward) to call everyone, and "Tomorrow will be fine." Utter the information. On the other hand, when there is no user who has not acquired the specific information, for example, the user behaves as if calling diagonally upward and calling out to everyone, and utters “I am free” to communicate with other communication targets. look for. However, when there is no user who has not acquired the specific information, the user may behave as if calling out to everyone, and speak other specific information (for example, a broadcast time of a sports program). . In this way, it is possible to take a communication action not only with the specified user but also with the surrounding users.
[0067]
In this embodiment, the weather forecast and the sports program are notified as the specific information, but the present invention is not limited to this. As the specific information, various information such as sports, hobbies, games, and shopping are assumed. Such specific information can be obtained by the robot 10 via a network such as the Internet.
[0068]
In addition, if user's favorite information (hobby, contents of an interesting thing, etc.) is added to the user information, specific information corresponding to the user can be notified.
[0069]
Specifically, the CPU 60 shown in FIG. 2 executes the communication action processing according to the flowcharts shown in FIGS. As shown in FIG. 5, first, in step S1, it is determined whether or not there is a stop command. That is, the CPU 60 determines whether there is a stop command from a stop switch (not shown) provided on the robot 10 itself or a stop command from an external computer.
[0070]
If “YES” in the step S1, that is, if there is a stop command, it is determined that there is a stop command, and the process of the communication action is ended as it is. However, when the main power supply of the robot 10 is turned off, the processing is similarly terminated. On the other hand, if "NO" in the step S1, that is, if there is no stop command, a tag is detected in a step S3. Specifically, CPU 60 detects an input from wireless ID tag device 100.
[0071]
In a succeeding step S5, it is determined whether or not the tag is detected. If “NO” in the step S5, that is, if the RFID information and the radio wave intensity are not acquired from the RFID tag device 100, it is determined that the tag is not detected, that is, the tag is placed near or around the robot 10. It is determined that the possessed user does not exist, the ID list and the nearest tag ID (RFID) are initialized in step S7, and the process proceeds to step S25.
[0072]
On the other hand, if “YES” in the step S5, that is, if the RFID information and the radio wave intensity are acquired from the RFID tag device 100, it is determined that the tag is detected, and in the step S9, the acquired RFID and each RFID are received. The ID list as shown in FIG. 4 (C) is created by using the radio wave intensity obtained at this time. Then, in step S11, the nearest tag ID is acquired with reference to the ID list. That is, an RFID whose radio field intensity indicates the maximum value is acquired, and a tag to be communicated, that is, a user is specified.
[0073]
Subsequently, in step S13, it is determined whether or not to interact with the user corresponding to the RFID for the first time. Specifically, the CPU 60 refers to the history DB 104 and determines whether the RFID exists in the history. If “YES” in the step S13, that is, if the RFID does not exist in the history, it is determined that the user interacts with the user corresponding to the RFID for the first time, and in step S15 the head 50 is turned down and “O ○ (Hello, this user name), and proceed to step S27. Specifically, the CPU 60 calculates the angle data (S axis 0 degree, T axis 0 degree, U axis −45 degree, X axis 0 degree, Y axis 0 degree, Z axis 0 degree, W axis 0 degree, A axis 0 degree Degrees, B-axis 0 degree, C-axis 0 degree, D-axis 0 degree) to the motor control board 72, and reads out the voice synthesis data corresponding to "Mr. Give to 76. Then, the head motor 88 (strictly, a motor for controlling the U axis) is driven, and the head 50 is tilted forward and downward. Simultaneously or almost at the same time, a voice saying “Hello, Mr. XX” is output from the speaker 52.
[0074]
On the other hand, if “NO” in the step S13, that is, if the RFID is present in the history, it is determined that the user corresponding to the RFID has interacted before, and the history DB 104 is referred to in a step S17. Then, it is determined whether or not to interact with the user corresponding to the RFID for the first time today.
[0075]
If “YES” in the step S17, that is, if the RFID exists in the history information but there is no history of the present day, it is determined that the user corresponding to the RFID interacts for the first time today, and in the step S19, the head is determined. part of the downward, and greeting as "○○ (the user name) 's, Hello", the process proceeds to step S27.
[0076]
Note that the communication behavior in step S19 is the same as the content described in step S15 except that the content to be uttered is different, and thus the detailed description is omitted here.
[0077]
On the other hand, if “NO” in the step S17, that is, if the RFID exists in the history information and there is a history of today, it is determined that the user corresponding to the RFID has already interacted with the user today, and in a step S21, It is determined whether any user has not heard (acquired) the latest weather forecast (specific information). That is, with reference to today's history recorded in the history DB 104, it is determined whether an RFID corresponding to a user who has not heard the latest weather forecast exists in the ID list.
[0078]
If “YES” in the step S21, that is, if the RFID corresponding to the user who has not heard the latest weather forecast exists in the ID list, the head is turned up in the step S23 and “Tomorrow is fine”. The weather forecast is notified, and the process proceeds to step S27. Specifically, in step S23, the CPU 60 determines the angle data (S axis 0 degree, T axis 0 degree, U axis +45 degrees, X axis 0 degree, Y axis 0 degree, Z axis 0 degree, W axis 0 degree, A-axis 0 degree, B-axis 0 degree, C-axis 0 degree, D-axis 0 degree) are sent to the motor control board 72, and the voice synthesis data corresponding to "Tomorrow will be fine" is read out from the memory 70 and voice input / Give to output board 76. Then, the head motor 88 (strictly, a motor for controlling the U axis) is driven, and the head 50 is tilted forward and upward. At the same time or almost at the same time, a voice saying “Tomorrow will be fine” is output from the speaker 52.
[0079]
On the other hand, if “NO” in the step S21, that is, if the RFID corresponding to the user who has not heard the latest weather forecast does not exist in the ID list, the head is turned up in the step S25 and “free time”. ", And the process proceeds to step S27. That is, the communication action in step S25 calls attention to the surroundings and seeks a new communication target. However, if no tag is detected in step S5, that is, if there is no user near or around, it means that the user is simply searching for a communication target. Therefore, in such a case, in addition to the above-described communication behavior, it is conceivable to further actuate the wheel motor 90 to move the place.
[0080]
Note that the communication behavior in step S25 is the same as that described in step S23 except that the contents to be uttered are different, and thus the detailed description is omitted here.
[0081]
In step S27, history information on the communication behavior executed in step S15, S19, S23 or S25 is recorded (added) in the history DB 104, and the process returns to step S1. That is, the date, time, and time from a clock circuit (not shown), the communication ID assigned to the executed communication action, and the RFID of the communication target are recorded in the history DB 104.
[0082]
According to this embodiment, since the RFID is obtained from the tag and the user is specified, the user can be easily specified.
[0083]
In addition, it is possible to individually recognize users existing near and around the robot, so that a communication action suitable for the user can be performed.
[0084]
Further, since the communication behavior history is left, it is possible to avoid re-talking to the user what has been once spoken to a certain user, and does not give the user any discomfort or discomfort. That is, it is possible to avoid repeating inappropriate communication behavior.
[0085]
Note that the processing of the communication behavior shown in this embodiment is merely an example, and should not be limited to this. For example, the number of conversations to date can be counted for each user (RFID), and communication actions with different intimacy can be performed with the user according to the count. For example, a certain user can be greeted with "Hello, after a long time" while shaking hands and another user can be greeted with a hug, "Hello, how are you?" . In addition, focusing only on today, the number of conversations can be counted, and as the count increases, communication actions such as deepening intimacy and providing different topics (information) can be performed. .
[0086]
Further, in this embodiment, as the communication behavior, only the case where both the behavior of the robot (behavior) and the voice are used has been described. Is also good.
[0087]
Further, in this embodiment, specific information such as a weather forecast is acquired from the network and provided to the user, but is stored in a storage device (for example, the memory 70) built in the robot 10. Information can also be provided. Specifically, the voice synthesis data of the song is stored in the memory 70 or the like, and the robot 10 can sing the song and teach the user to a user located near or around the song. In addition, if voice synthesis data of a plurality of types of songs is stored, by referring to the history information, a specific user or all users near or around the user can hear a song that he / she has not heard. Can teach. However, not only songs, but also foreign language (for example, English) words and conversations can be taught.
[Brief description of the drawings]
FIG. 1 is an illustrative view showing a configuration of an embodiment of the present invention;
FIG. 2 is a front view showing hardware of the robot of the embodiment in FIG. 1;
FIG. 3 is a block diagram illustrating an electrical configuration of the robot according to the embodiment in FIG. 1;
FIG. 4 is an illustrative view showing one example of contents of a database shown in FIG. 3 and one example of an ID list;
FIG. 5 is a flowchart showing a part of processing of a communication action of a CPU shown in FIG. 3;
FIG. 6 is a flowchart showing another part of the processing of the communication behavior of the CPU shown in FIG. 3;
[Explanation of symbols]
10. Communication robot
12, 14, 16 ... frequency tag
60 ... CPU
70 ... memory
72… Motor control board
74… Sensor input / output board
76… Audio input / output board
100 Wireless ID receiver
102,104… Database

Claims (10)

固有の無線タグを保有する複数のコミュニケーション対象との間でコミュニケーション行動を実行するコミュニケーションロボットであって、
少なくともタグ情報を記録するタグ情報データベース、
前記コミュニケーション対象からタグ情報を取得する取得手段、
前記取得手段の取得結果に基づいて近傍或いは周囲に存在する1または複数のコミュニケーション対象を個別に認識する認識手段、
前記認識手段の認識結果に基づいてコミュニケーション行動を実行する1のコミュニケーション対象を特定する特定手段、および
前記特定手段によって特定された前記コミュニケーション対象にコミュニケーション行動を実行する実行手段を備える、コミュニケーションロボット。
A communication robot that performs a communication action with a plurality of communication targets having unique wireless tags,
A tag information database that records at least tag information,
Acquisition means for acquiring tag information from the communication target,
Recognizing means for individually recognizing one or a plurality of communication objects present in the vicinity or in the vicinity based on the acquisition result of the acquiring means;
A communication robot comprising: a specifying unit that specifies one communication target that executes a communication action based on a recognition result of the recognition unit; and an execution unit that performs a communication action on the communication target specified by the specifying unit.
前記認識手段は、各コミュニケーション対象との距離の大小を検出する検出手段を含み、
前記特定手段は、前記検出手段によって検出された距離が最小となる前記1のコミュニケーション対象を特定する、請求項1記載のコミュニケーションロボット。
The recognition means includes a detection means for detecting the magnitude of the distance to each communication target,
2. The communication robot according to claim 1, wherein the specifying unit specifies the one communication target whose distance detected by the detecting unit is minimum. 3.
前記無線タグは電波を発信し、
前記取得手段はアンテナを含み、
前記検出手段は、前記取得手段によって前記タグ情報を取得したときの前記アンテナにおける電波強度に応じて前記距離の大小を検出する、請求項2記載のコミュニケーションロボット。
The wireless tag emits radio waves,
The obtaining means includes an antenna,
3. The communication robot according to claim 2, wherein the detection unit detects the magnitude of the distance according to a radio field intensity at the antenna when the tag information is acquired by the acquisition unit. 4.
前記無線タグは超音波を発信し、
前記取得手段は超音波センサを含み、
前記検出手段は、前記取得手段によって前記タグ情報を取得したときの前記超音波センサにおける音波強度に応じて前記距離の大小を検出する、請求項2記載のコミュニケーションロボット。
The wireless tag transmits an ultrasonic wave,
The acquisition means includes an ultrasonic sensor,
3. The communication robot according to claim 2, wherein the detection unit detects the magnitude of the distance according to a sound wave intensity of the ultrasonic sensor when the tag information is acquired by the acquisition unit. 4.
前記無線タグは赤外線を放射し、
前記取得手段は赤外線センサを含み、
前記検出手段は、前記取得手段によって前記タグ情報を取得したときの前記赤外線センサにおける受光強度に応じて前記距離の大小を検出する、請求項2記載のコミュニケーションロボット。
The wireless tag emits infrared light,
The acquisition means includes an infrared sensor,
3. The communication robot according to claim 2, wherein the detection unit detects the magnitude of the distance according to a received light intensity of the infrared sensor when the tag information is acquired by the acquisition unit. 4.
前記実行手段によって実行されたコミュニケーション行動の履歴を当該コミュニケーション行動を実行したコミュニケーション対象に対応づけて記録する履歴データベースをさらに備える、請求項1ないし5のいずれかに記載のコミュニケーションロボット。The communication robot according to any one of claims 1 to 5, further comprising a history database that records a history of the communication behavior executed by the execution unit in association with a communication target that has executed the communication behavior. 前記認識手段によって認識されたコミュニケーション対象のそれぞれについて特定情報を取得しているかどうかを前記履歴データベースを参照して判別する判別手段をさらに備え、
前記判別手段によって前記特定情報を取得していないと判別された前記コミュニケーション対象が存在するとき、前記実行手段が少なくとも当該コミュニケーション対象に対して前記特定情報を報知するためのコミュニケーション行動を実行する、請求項6記載のコミュニケーションロボット。
The apparatus further includes a determination unit configured to determine whether the specific information is acquired for each of the communication targets recognized by the recognition unit with reference to the history database.
When there is the communication target for which it has been determined that the specific information has not been obtained by the determination unit, the execution unit executes a communication action for notifying the specific information to at least the communication target. Item 6. The communication robot according to Item 6.
前記判別手段によって前記特定情報を取得していないと判別された前記コミュニケーション対象が存在しないとき、前記実行手段は他のコミュニケーション対象を探すためのコミュニケーション行動を実行する、請求項7記載のコミュニケーションロボット。The communication robot according to claim 7, wherein when there is no communication target for which it has been determined that the specific information has not been obtained by the determination unit, the execution unit executes a communication action for searching for another communication target. 前記判別手段によって前記特定情報を取得していないと判別された前記コミュニケーション対象が存在しないとき、前記実行手段は前記特定情報とは異なる他の特定情報を前記コミュニケーション対象に報知するためのコミュニケーション行動を実行する、請求項7記載のコミュニケーションロボット。When there is no communication target for which it has been determined that the specific information has not been obtained by the determination unit, the execution unit performs a communication action for notifying the communication target of other specific information different from the specific information. The communication robot according to claim 7, which executes. 前記認識手段によってコミュニケーション対象を認識できないとき、前記実行手段はコミュニケーション対象を探すためのコミュニケーション行動を実行する、請求項1ないし9のいずれかに記載のコミュニケーションロボット。The communication robot according to any one of claims 1 to 9, wherein when the communication target cannot be recognized by the recognition unit, the execution unit executes a communication action for searching for the communication target.
JP2003007292A 2003-01-15 2003-01-15 Communication robot Expired - Fee Related JP4024683B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003007292A JP4024683B2 (en) 2003-01-15 2003-01-15 Communication robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003007292A JP4024683B2 (en) 2003-01-15 2003-01-15 Communication robot

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007222992A Division JP4677593B2 (en) 2007-08-29 2007-08-29 Communication robot

Publications (2)

Publication Number Publication Date
JP2004216513A true JP2004216513A (en) 2004-08-05
JP4024683B2 JP4024683B2 (en) 2007-12-19

Family

ID=32897434

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003007292A Expired - Fee Related JP4024683B2 (en) 2003-01-15 2003-01-15 Communication robot

Country Status (1)

Country Link
JP (1) JP4024683B2 (en)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005283533A (en) * 2004-03-31 2005-10-13 Honda Motor Co Ltd Detection object detection system
JP2005291716A (en) * 2004-03-31 2005-10-20 Honda Motor Co Ltd Detection target detection system
JP2005291723A (en) * 2004-03-31 2005-10-20 Honda Motor Co Ltd Position detection system of mobile unit
JP2005291717A (en) * 2004-03-31 2005-10-20 Honda Motor Co Ltd Detection target detection system
JP2006212732A (en) * 2005-02-02 2006-08-17 Fujitsu Ltd Guide and explanation method and system by robot, server, and robot
JP2007125646A (en) * 2005-11-04 2007-05-24 Advanced Telecommunication Research Institute International Communication robot
JP2007160442A (en) * 2005-12-12 2007-06-28 Honda Motor Co Ltd Mobile robot
JP2007222968A (en) * 2006-02-21 2007-09-06 Advanced Telecommunication Research Institute International Communication robot
JP2007268696A (en) * 2006-03-31 2007-10-18 Fujitsu Ltd Interactive robot system
JP2008238383A (en) * 2007-03-29 2008-10-09 Honda Motor Co Ltd Robot
WO2008152943A1 (en) * 2007-06-13 2008-12-18 Softbank Bb Corp. Mobile communication device, method for controlling mobile communication device, program for the same, and recording medium
JP2009139250A (en) * 2007-12-07 2009-06-25 Honda Motor Co Ltd Detection object detection server
US7769203B2 (en) 2004-12-14 2010-08-03 Honda Motor Co., Ltd. Target object detection apparatus and robot provided with the same
JP2010267143A (en) * 2009-05-15 2010-11-25 Fujitsu Ltd Robot device for collecting communication information
JP2010538755A (en) * 2007-09-12 2010-12-16 ディズニー エンタープライゼズ,インコーポレイテッド Interactive animatronics show distributed control system and distributed control method
KR101002619B1 (en) 2007-08-31 2010-12-20 연세대학교 산학협력단 Face robot for giving expression
JP2011000681A (en) * 2009-06-19 2011-01-06 Advanced Telecommunication Research Institute International Communication robot
WO2013055025A1 (en) * 2011-10-12 2013-04-18 한국과학기술연구원 Intelligent robot, system for interaction between intelligent robot and user, and method for interacting between intelligent robot and user
JP2015018344A (en) * 2013-07-09 2015-01-29 シャープ株式会社 Reproduction device, control method for reproduction device, and control program
JP2015066621A (en) * 2013-09-27 2015-04-13 株式会社国際電気通信基礎技術研究所 Robot control system, robot, output control program and output control method
JP2016087399A (en) * 2014-10-31 2016-05-23 ジュシクフェサ ピュアスマート Toy and operation method of toy
JP2017092725A (en) * 2015-11-11 2017-05-25 日本電信電話株式会社 Robot unit having vocalization function, vocalization control method and program
WO2017187614A1 (en) * 2016-04-28 2017-11-02 富士通株式会社 Communication control device, method, and system
JP2021519633A (en) * 2018-03-29 2021-08-12 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー Interactive Anime Character Head Stem and Method

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005291716A (en) * 2004-03-31 2005-10-20 Honda Motor Co Ltd Detection target detection system
JP2005291723A (en) * 2004-03-31 2005-10-20 Honda Motor Co Ltd Position detection system of mobile unit
JP2005291717A (en) * 2004-03-31 2005-10-20 Honda Motor Co Ltd Detection target detection system
JP2005283533A (en) * 2004-03-31 2005-10-13 Honda Motor Co Ltd Detection object detection system
US7769203B2 (en) 2004-12-14 2010-08-03 Honda Motor Co., Ltd. Target object detection apparatus and robot provided with the same
JP2006212732A (en) * 2005-02-02 2006-08-17 Fujitsu Ltd Guide and explanation method and system by robot, server, and robot
JP4701731B2 (en) * 2005-02-02 2011-06-15 富士通株式会社 Robot guidance method
JP2007125646A (en) * 2005-11-04 2007-05-24 Advanced Telecommunication Research Institute International Communication robot
JP2007160442A (en) * 2005-12-12 2007-06-28 Honda Motor Co Ltd Mobile robot
JP4599522B2 (en) * 2006-02-21 2010-12-15 株式会社国際電気通信基礎技術研究所 Communication robot
JP2007222968A (en) * 2006-02-21 2007-09-06 Advanced Telecommunication Research Institute International Communication robot
JP2007268696A (en) * 2006-03-31 2007-10-18 Fujitsu Ltd Interactive robot system
JP2008238383A (en) * 2007-03-29 2008-10-09 Honda Motor Co Ltd Robot
WO2008152943A1 (en) * 2007-06-13 2008-12-18 Softbank Bb Corp. Mobile communication device, method for controlling mobile communication device, program for the same, and recording medium
KR101002619B1 (en) 2007-08-31 2010-12-20 연세대학교 산학협력단 Face robot for giving expression
JP2010538755A (en) * 2007-09-12 2010-12-16 ディズニー エンタープライゼズ,インコーポレイテッド Interactive animatronics show distributed control system and distributed control method
JP2009139250A (en) * 2007-12-07 2009-06-25 Honda Motor Co Ltd Detection object detection server
JP2010267143A (en) * 2009-05-15 2010-11-25 Fujitsu Ltd Robot device for collecting communication information
JP2011000681A (en) * 2009-06-19 2011-01-06 Advanced Telecommunication Research Institute International Communication robot
KR101295003B1 (en) * 2011-10-12 2013-08-16 한국과학기술연구원 Intelligent robot, system for interaction between intelligent robot and user, and method for interaction between intelligent robot and user
WO2013055025A1 (en) * 2011-10-12 2013-04-18 한국과학기술연구원 Intelligent robot, system for interaction between intelligent robot and user, and method for interacting between intelligent robot and user
JP2015018344A (en) * 2013-07-09 2015-01-29 シャープ株式会社 Reproduction device, control method for reproduction device, and control program
JP2015066621A (en) * 2013-09-27 2015-04-13 株式会社国際電気通信基礎技術研究所 Robot control system, robot, output control program and output control method
JP2016087399A (en) * 2014-10-31 2016-05-23 ジュシクフェサ ピュアスマート Toy and operation method of toy
JP2017092725A (en) * 2015-11-11 2017-05-25 日本電信電話株式会社 Robot unit having vocalization function, vocalization control method and program
WO2017187614A1 (en) * 2016-04-28 2017-11-02 富士通株式会社 Communication control device, method, and system
JPWO2017187614A1 (en) * 2016-04-28 2018-11-15 富士通株式会社 Communication control device, method and system
US10885600B2 (en) 2016-04-28 2021-01-05 Fujitsu Limited Communication control apparatus, communication control apparatus method, and system
JP2021519633A (en) * 2018-03-29 2021-08-12 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー Interactive Anime Character Head Stem and Method
JP7295136B2 (en) 2018-03-29 2023-06-20 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー INTERACTIVE ANIME CHARACTER HEADSTEM AND METHOD

Also Published As

Publication number Publication date
JP4024683B2 (en) 2007-12-19

Similar Documents

Publication Publication Date Title
JP2004216513A (en) Communication robot
JP5429462B2 (en) Communication robot
JP4599522B2 (en) Communication robot
JP4014044B2 (en) Communication robot and communication system using the same
JP5033994B2 (en) Communication robot
JP4677593B2 (en) Communication robot
JP4822319B2 (en) Communication robot and attention control system using the same
JP4512830B2 (en) Communication robot
JP4949969B2 (en) Communication robot and its operation method
US11338429B2 (en) Robot
JP4386367B2 (en) Communication robot improvement system
JP2007260822A (en) Guide robot
JP6134895B2 (en) Robot control system, robot control program, and explanation robot
JP3942599B2 (en) Communication robot
JP2006272471A (en) Communication robot
JP2009166184A (en) Guide robot
JP2009131914A (en) Robot control system
JP2007160427A (en) Robot control system
JP2007130691A (en) Communication robot
JP2007152445A (en) Self-propelled robot
JP2005131713A (en) Communication robot
JP4793904B2 (en) Communication robot system and communication robot
CN112104963B (en) Following type robot sound amplification method and system
CN112104962B (en) Following type robot sound amplification method and sound amplification system based on image recognition
JP5842245B2 (en) Communication robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050516

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060113

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060202

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20060324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071003

R150 Certificate of patent or registration of utility model

Ref document number: 4024683

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101012

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101012

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111012

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121012

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121012

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121012

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131012

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees