JP3942599B2 - コミュニケーションロボット - Google Patents

コミュニケーションロボット Download PDF

Info

Publication number
JP3942599B2
JP3942599B2 JP2004051209A JP2004051209A JP3942599B2 JP 3942599 B2 JP3942599 B2 JP 3942599B2 JP 2004051209 A JP2004051209 A JP 2004051209A JP 2004051209 A JP2004051209 A JP 2004051209A JP 3942599 B2 JP3942599 B2 JP 3942599B2
Authority
JP
Japan
Prior art keywords
robot
opponent
partner
communication
communication robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004051209A
Other languages
English (en)
Other versions
JP2005238382A (ja
Inventor
義和 小出
裕介 村上
崇行 神田
康之 角
健二 間瀬
潔 小暮
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2004051209A priority Critical patent/JP3942599B2/ja
Publication of JP2005238382A publication Critical patent/JP2005238382A/ja
Application granted granted Critical
Publication of JP3942599B2 publication Critical patent/JP3942599B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Description

この発明はコミュニケーションロボットに関し、特にたとえば、コミュニケーションの相手の挙動に応じて行動する、コミュニケーションロボットに関する。
従来のコミュニケーションロボットの一例が、たとえば本件出願人による特許文献1および特許文献2に開示される。特許文献1の従来技術ではタッチセンサを利用することによってコミュニケーション相手との接触が認識され、特許文献2の従来技術ではカメラを利用することによってコミュニケーション相手が認識される。
一方、赤外線タグからの識別情報を赤外線センサを用いて検出することによって、相手を個体識別可能に認識する技術の一例が、本件出願人によって平成15年1月15日付で出願された特願2003−7292号に開示される。
特開2002−355783号公報 特開2002−361584号公報
しかしながら、特許文献1および特許文献2では、相手の存在の有無を捉えることは可能であったが、コミュニケーションの間にたとえば相手がどちらを向いているか等の細かな挙動を認識することはできなかった。
一方、赤外線タグを利用する場合には、たとえば人間の正面に赤外線タグが装着されるとともにロボットの正面に赤外線センサが設けられるので、人とロボットとが向かい合っているような状態では、ロボットはその人の存在を認識することが可能である。しかしながら、人がロボットとのコミュニケーション中にたとえば横を向いたりすると、赤外線の指向性のためにロボットは赤外線を検出することができなくなってしまう。このような場合、ロボットは、相手が目前に存在するにもかかわらず、その相手がいなくなったと判断してしまって、たとえばその相手とのコミュニケーションを途中で終了するなど、コミュニケーションに支障をきたすという問題があった。
それゆえに、この発明の主たる目的は、コミュニケーションの相手の細かな挙動を認識することができる、コミュニケーションロボットを提供することである。
請求項1の発明は、コミュニケーションの相手の挙動に応じて話題を転換するコミュニケーションロボットであって、相手がコミュニケーションロボットの方を向いているかどうかを検知する第1検知手段、相手がコミュニケーションロボットの付近の所定領域内に存在するかどうかを検知する第2検知手段、相手がコミュニケーションロボットの方と異なる方向を向くように指示する行動が実行されたかどうかを履歴に基づいて判断する第3判断手段、および第1検知手段を用いて相手がコミュニケーションロボットの方を向いていないことが検知され、第2検知手段を用いて相手が所定領域内に存在することが検知され、かつ、第3判断手段を用いて相手がコミュニケーションロボットの方と異なる方向を向くように指示する行動が実行されていないことが判断されたことによって、相手が興味を失ったと判断されるとき、話題を転換する行動制御手段を備える、コミュニケーションロボットである。
請求項1の発明では、第1検知手段は、相手がコミュニケーションロボットの方を向いているかどうかを検知する。第2検知手段は、相手がコミュニケーションロボットの付近の所定領域内に存在するかどうかを検知する。そして、行動制御手段は、第1検知手段および第2検知手段による検知結果に基づいてコミュニケーションロボットの行動を制御する。したがって、請求項1の発明によれば、コミュニケーションの相手がこのロボットの
付近の所定領域内に存在してこのロボットの方を向いているのか、このロボットの付近の所定領域内に存在するがこのロボットの方を向いていないのか、あるいは、このロボットの付近には存在しないのか、といった相手の細かな挙動を認識することができる。そして、その相手の挙動に応じた行動を実行することができる。たとえば、相手がこのロボットの付近の所定領域内に存在しているが、このロボットの方を向いていないときには、相手がこのロボットとのコミュニケーションに対する興味を失っている状況にあると把握することができ、その状況に相応しい行動を実行することができる。さらに、第3判断手段は、第2判断手段によって相手の存在が検出されたと判断されたときに、相手の向きを変えさせるような向き変更行動を前に実行していたか否かを判断する。つまり、この第3判断手段は、相手がこのロボットの目前など付近に存在するがこのロボットの方を向いていない状態であることが把握される場合において、相手の向きの変更された原因が、このロボットが前に実行していた行動にあるのかを確かめている。そして、行動制御手段は、この第3判断手段によって向き変更行動が実行されていなかったと判断されたときには、相手がこのロボットとのコミュニケーションに興味を失っていると把握できるので、それまでと話題の異なる行動を実行する。したがって、請求項1の発明によれば、相手がこのロボットとのコミュニケーションに興味を失っている場合に、話題の転換を図ることができるので、コミュニケーションの幅を広げて、より高度なコミュニケーションが可能になる。
請求項2の発明は、請求項1の発明に従属し、第1検知手段は、コミュニケーションロボットの前方からの赤外線を検出するように設けられて、相手に装着された赤外線タグから相手の前方へ放射される赤外線を検出する赤外線センサを含み、第2検知手段は、相手との間の距離を測定するための超音波距離センサもしくはレーザレンジファインダ、または相手に装着された無線タグからの識別情報を検出する無線タグ読取装置のいずれか1つを含み、行動制御手段は、相手とコミュニケーションを行っている間に第1検知手段によって赤外線が検出されたか否かを判断する第1判断手段、および第1判断手段によって赤外線が検出されていないと判断されたときに第2検知手段を用いて相手の存在が検出されたか否かを判断する第2判断手段を備え、第1判断手段を用いて赤外線が検出されていないことが判断され、第2判断手段を用いて相手が検出されたことが判断され、かつ、第3判断手段を用いて相手がコミュニケーションロボットの方と異なる方向を向くように指示する行動が実行されていないことが判断されたことによって、相手が興味を失ったと判断されるとき、話題を転換する。
請求項2の発明では、第1検知手段は赤外線センサを含む。赤外線センサは、このロボットの前方からの赤外線を検出するように設けられており、コミュニケーション相手に装着された赤外線タグから該相手の前方へ放射される赤外線を検出する。また、第2検知手段は、超音波距離センサ、レーザレンジファインダ、または無線タグ読取装置のいずれか1つを含む。超音波距離センサもしくはレーザレンジファインダが設けられる場合には、相手との間の距離情報によってロボットの付近の所定領域内における相手の存在が検知される。所定領域はたとえばロボットの目前に設定される。あるいは、無線タグ読取装置が設けられる場合には、相手に装着された無線タグからの識別情報によってロボットの付近の所定領域内における相手の存在が検知される。第1判断手段は、相手とコミュニケーションを行っている間に赤外線センサによって赤外線が検出されたか否かを判断する。つまり、この第1判断手段は、コミュニケーション中に相手がこのロボットの目前に存在してかつこのロボットの方を向いている状態であるのかを確かめている。また、第2判断手段は、第1判断手段によって赤外線が検出されていないと判断されたときに第2検知手段を用いて相手の存在が検出されたか否かを判断する。つまり、この第2判断手段は、相手がこのロボットの方を向いていないと把握される場合において相手がこのロボットの目前などの所定領域に存在しているのかを確かめている。そして、行動制御手段は、第1判断手段または第2判断手段による判断の結果に応じて、相手に対する行動を制御する。したがって、請求項2の発明によれば、コミュニケーションの相手がロボットの目前など付近に存在してこのロボットの方を向いているのか、このロボットの目前など付近に存在するがこのロボットの方を向いていないのか、あるいは、このロボットの目前など付近には存在しないのか、といった相手の細かな挙動を認識することができ、その相手の挙動に応じた行動を実行することができる。
請求項3の発明は、請求項1の発明に従属し、第1検知手段は、コミュニケーションロボットの前方からの超音波を検出するように設けられて、相手に装着された超音波タグから相手の前方へ発射される超音波を検出する超音波受信装置を含み、第2検知手段は、相手との間の距離を測定するためのレーザレンジファインダ、または相手に装着された無線タグからの識別情報を検出する無線タグ読取装置のいずれか1つを含み、行動制御手段は、相手とコミュニケーションを行っている間に第1検知手段によって超音波が検出されたか否かを判断する第1判断手段、および第1判断手段によって超音波が検出されていないと判断されたときに第2検知手段を用いて相手の存在が検出されたか否かを判断する第2判断手段を備え、第1判断手段を用いて超音波が検出されていないことが判断され、第2判断手段を用いて相手が検出されたことが判断され、かつ、第3判断手段を用いて相手がコミュニケーションロボットの方と異なる方向を向くように指示する行動が実行されていないことが判断されたことによって、相手が興味を失ったと判断されるとき、話題を転換する。
請求項3の発明では、第1検知手段は超音波受信装置を含む。超音波受信装置は、このロボットの前方からの超音波を検出するように設けられており、相手に装着された超音波タグから該相手の前方へ発射される超音波を検出する。また、第2検知手段は、レーザレンジファインダ、または無線タグ読取装置のいずれか1つを含む。請求項2の発明で述べたように、レーザレンジファインダが設けられる場合には、相手との距離情報によって相手の存在が検知され、または無線タグ読取装置が設けられる場合には、無線タグの識別情報によって相手の存在が検知される。第1判断手段は、超音波受信装置によって超音波が検出されたか否かを判断して、ミュニケーション中に相手がこのロボットの目前に存在してかつこのロボットの方を向いている状態であるのかを確かめている。第2判断手段は、第1判断手段によって超音波が検出されていないと判断されたときに第2検知手段を用いて相手の存在が検出されたか否かを判断して、相手がこのロボットの方を向いていないと把握される場合において相手がこのロボットの目前などの所定領域に存在しているのかを確かめている。そして、行動制御手段は、第1判断手段または第2判断手段による判断の結果に応じて、相手に対する行動を制御する。したがって、請求項3の発明によれば、請求項2の発明と同様に、コミュニケーションの相手の細かな挙動を認識することができ、その相手の挙動に応じた行動を実行することができる。
請求項の発明は、請求項1ないし3のいずれかの発明に従属し、行動制御手段は、第3判断手段を用いて相手がコミュニケーションロボットの方と異なる方向を向くように指示する行動が実行されていたと判断されたとき、相手に対してコミュニケーションロボットの方を向くように指示する行動を実行する。
請求項の発明では、行動制御手段は、第3判断手段によって向き変更行動が実行されていたと判断された場合には、つまり、相手がこのロボットとのコミュニケーションの結果その向きを変更していた場合には、相手に対してこのロボットの方を向くように指示する。したがって、この請求項の発明によれば、相手がこのロボットとのコミュニケーションに興味を失っていない場合に、相手に対して向きを変えるように指示するので、相手との更なるコミュニケーションを継続していくことが可能になり、コミュニケーションの幅を広げて、より高度なコミュニケーションが可能になる。
この発明によれば、コミュニケーションを行っている間に相手がこのロボットの方を向いているのかどうかを検知するとともに、相手がこのロボットの付近の所定領域内に存在するのかどうかを検知するようにしたので、コミュニケーション相手の細かな挙動を認識できる。具体的には、相手がこちらを向いているのか、こちらを向いていないのか、あるいは相手が存在しないのかといった、挙動を把握できる。それによって、コミュニケーションの幅を広げることができ、相手とのより高度なコミュニケーションが可能になる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1を参照して、この実施例のコミュニケーションロボット(以下、単に「ロボット」とも言う。)10は、自律移動するための機構を備えた自律移動型のコミュニケーションロボットであり、主として人間のようなコミュニケーションの対象とコミュニケーションすることを目的とした相互作用指向のもので、身振りおよび音声の少なくとも一方を用いてコミュニケーションを行う機能を備えている。
なお、この発明の適用されるコミュニケーションロボットはたとえばぬいぐるみのような玩具も含んだ概念を意味する。
この実施例では、コミュニケーションの対象となる人間のそれぞれには、赤外線タグ(IRタグ)12(図4参照)が装着される。赤外線は強い指向性を有しており、赤外線タグは、人間の前方へ赤外線が放射されるように、たとえばその身体の前方(胸等)に装着される。赤外線タグ12は、赤外線LED,その駆動回路および内蔵電池等を含む。赤外線LEDは、そのタグ12が取り付けられた人間を識別可能なように、所定の点滅パターン(点滅周期)で赤外線を発光するよう制御される。
ロボット10は台車14を含み、この台車14の下面にはロボット10を移動させる車輪16が設けられる。車輪16は車輪モータ18(図2参照)によって駆動され、台車14すなわちロボット10を前後左右任意の方向に動かすことができる。
なお、図1においては省略するが、台車14の前面には、衝突センサ20(図2参照)が取り付けられ、この衝突センサ20は台車14への人や他の障害物の接触を検知する。つまり、ロボット10の移動中に障害物との接触を検知すると、直ちに車輪16の駆動を停止してロボット10の移動を急停止させる。
また、この実施例では、ロボット10の背の高さは、人、特に子供に威圧感を与えることのないように、100cm程度とされる。ただし、この背の高さは変更可能である。
台車14の上には、多角形柱のセンサ取付パネル22が設けられ、このセンサ取付パネル22の各面には超音波距離センサ24が取り付けられる。この実施例では24個の超音波距離センサ24が周囲360度にわたるように設けられるが、少なくともロボット10の前方における対象物を検出可能なように前方にのみ設けるようにしてもよい。この超音波距離センサ24は、センサ取付パネル22すなわちロボット10の周囲の主として人との距離を計測するものである。具体的には、超音波距離センサ24は超音波を発射し、その超音波が人から反射されて超音波距離センサ24に入射されたタイミングを測定して、人との間の距離情報を出力する。また、この超音波距離センサ24によって検出可能な領域は、ロボット10の付近の所定領域に設定され、たとえばロボット10の目前の人間がコミュニケーションを行うのに適した範囲に設定される。
また、台車14の上には、さらに、その下部がセンサ取付パネル22に囲まれて、ロボット10の胴体が直立するように設けられる。この胴体は、下部胴体26と上部胴体28とによって構成され、下部胴体26および上部胴体28は、連結部30によって互いに連結される。図示は省略するが、連結部30には昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体28の高さすなわちロボット10の背の高さを変化させることができる。昇降機構は、後述するように、腰モータ32(図2参照)によって駆動される。
なお、上述したロボット10の背の高さは、上部胴体28をそれの最下位置にしたときのものである。したがって、ロボット10の背の高さは、100cm以上にすることも可能である。
上部胴体28のほぼ中央には、1つの全方位カメラ34と1つの赤外線カメラ36と1つのマイク38とが設けられる。全方位カメラ34は、ロボット10の周囲を撮影するものであり、後述する眼カメラ40とは区別される。この全方位カメラ34としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。
赤外線カメラ36は、赤外線を検出するための赤外線センサであり、所定数の赤外線検出素子を含み、ロボット10の前方からの赤外線を検出するように設けられる。この赤外線カメラ36の画角ないし視野の領域内に相手がロボット10に向かい合う状態で存在する場合、その相手に装着された赤外線タグ12から発せられた赤外線が取得され、赤外線の点滅パターンによってその相手が識別されることとなる。
また、マイク38は、周囲の音、とりわけコミュニケーション対象である人の声を取り込む。なお、これら全方位カメラ34,赤外線カメラ36およびマイク38の設置位置は上部胴体28に限られず適宜変更され得る。
上部胴体28の両肩には、それぞれ、肩関節42Rおよび42Lによって、上腕44Rおよび44Lが設けられる。肩関節42Rおよび42Lは、それぞれ、3軸の自由度を有する。すなわち、肩関節42Rは、X軸、Y軸およびZ軸のそれぞれの軸廻りにおいて上腕44Rの角度を制御できる。Y軸は、上腕44Rの長手方向(または軸)に平行な軸であり、X軸およびZ軸は、そのY軸に対して、それぞれ異なる方向から直交する軸である。他方、肩関節42Lは、A軸、B軸およびC軸のそれぞれの軸廻りにおいて上腕44Lの角度を制御できる。B軸は、上腕44Lの長手方向(または軸)に平行な軸であり、A軸およびC軸は、そのB軸に対して、それぞれ異なる方向から直交する軸である。
また、上腕44Rおよび44Lのそれぞれの先端には、肘関節46Rおよび46Lを介して、前腕48Rおよび48Lが設けられる。肘関節46Rおよび46Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕48Rおよび48Lの角度を制御できる。
なお、上腕44Rおよび44Lならびに前腕48Rおよび48Lの変位を制御するX軸,Y軸,Z軸,W軸およびA軸,B軸,C軸,D軸では、それぞれ、「0度」がホームポジションであり、このホームポジションでは、図1に示すように、上腕44Rおよび44Lならびに前腕48Rおよび48Lは下方に向けられる。
また、図示は省略するが、上部胴体28の肩関節42Rおよび42Lを含む肩の部分や上述の上腕44Rおよび44Lならびに前腕48Rおよび48Lには、それぞれ、タッチセンサ(図2で包括的に示す。:50)が設けられていて、これらのタッチセンサ50は、人がロボット10の当該各部位に触れたかどうかを検知する。
前腕48Rおよび48Lのそれぞれの先端には、手に相当する球体52Rおよび52Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。
なお、ロボット10の形状・寸法等は適宜設定されるが、他の実施例では、たとえば、上部胴体28は、前面、背面、右側面、左側面、上面および底面を含み、右側面および左側面は表面が斜め前方に向くように形成してもよい。つまり、前面の横幅が背面の横幅よりも短く、上部胴体28を上から見た形状が台形になるように形成されてもよい。
このような場合、肩関節42Rおよび42Lは、右側面および左側面に、その表面が左右両側面とそれぞれ平行である左右の支持部を介して設けられる。そして、上腕44Rおよび上腕44Lの回動範囲は、これら左右側面または支持部の表面(取り付け面)によって規制され、上腕44Rおよび44Lは取り付け面を超えて回動することはない。
しかし、左右側面の傾斜角、B軸とY軸との間隔、上腕44Rおよび44Lの長さ、ならびに前腕48Rおよび48Lの長さ等を適宜に設定すれば、上腕44Rおよび44Lは前方を超えてより内側まで回動できるので、たとえW軸およびD軸による腕の自由度がなくてもロボット10の腕は前方で交差できる。したがって、腕の自由度が少ない場合でも正面に位置する人と抱き合うなどの密接で親密なコミュニケーション行動を実行することができる。
上部胴体28の中央上方には、首関節54を介して頭部56が設けられる。首関節54は、3軸の自由度を有し、S軸、T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上(鉛直上向き)に向かう軸であり、T軸およびU軸は、それぞれ、そのS軸に対して異なる方向で直交する軸である。頭部56には、人の口に相当する位置に、スピーカ58が設けられる。スピーカ58は、ロボット10が、それの周辺の人に対して音声ないし音によってコミュニケーションを取るために用いられる。ただし、スピーカ58は、ロボット10の他の部位、たとえば胴体などに設けられてもよい。
また、頭部56には、目に相当する位置に眼球部60Rおよび60Lが設けられる。眼球部60Rおよび60Lは、それぞれ眼カメラ40Rおよび40Lを含む。以下、右の眼球部60Rと左の眼球部60Lとをまとめて眼球部60ということがあり、また、右の眼カメラ40Rと左の眼カメラ40Lとをまとめて眼カメラ40ということもある。
眼カメラ40は、ロボット10に接近した人の顔や他の部分ないし物体等を撮影して、それに対応する映像信号を取り込む。眼カメラ40としては、上述した全方位カメラ34と同様のカメラを用いることができる。
たとえば、眼カメラ40は眼球部60内に固定され、眼球部60は眼球支持部(図示せず)を介して頭部56内の所定位置に取り付けられる。眼球支持部は、2軸の自由度を有し、α軸およびβ軸の各軸廻りに角度制御可能である。α軸およびβ軸は頭部56に対して設けられる軸であり、α軸は頭部56の上へ向かう方向の軸であり、β軸はα軸に直交しかつ頭部56の正面側(顔)が向く方向に直交する方向の軸である。この実施例では、頭部56がホームポジションにあるとき、α軸はS軸と平行であり、β軸はU軸と平行であるように設定される。このような頭部56において、眼球支持部がα軸およびβ軸の各軸廻りに回転されることによって、眼球部60ないし眼カメラ40の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。
なお、眼カメラ40の変位を制御するα軸およびβ軸では、「0度」がホームポジションであり、このホームポジションでは、図1に示すように、眼カメラ40のカメラ軸は頭部56の正面側(顔)が向く方向に向けられ、視線は正視状態となる。
図2はロボット10の電気的な構成を示すブロック図であり、この図2を参照して、ロボット10はCPU62を含む。CPU62はマイクロコンピュータ或いはプロセサとも呼ばれ、ロボット10の全体的な制御を担当する。CPU62は、バス64を介して、メモリ66、モータ制御ボード68、センサ入力/出力ボード70および音声入力/出力ボード72に接続される。
メモリ66は、図示は省略するが、ROMもしくはHDDおよびRAMを含み、ROMやHDDにはロボット10の制御プログラムが予め記憶され、RAMはワークメモリやバッファメモリとして用いられる。制御プログラムはたとえばコミュニケーション行動を実行するためのプログラム、外部のコンピュータと通信するためのプログラム等を含む。メモリ66にはまた、コミュニケーション行動を実行するためのデータが記憶され、そのデータは、たとえば、個々の行動を実行する際に、スピーカ58から発生すべき音声または声の音声データ(音声合成データ)、および所定の身振りを提示するための角度データ等を含む。
このメモリ66に記憶されたプログラムおよびデータに基づいて、ロボット10は、コミュニケーション行動の一例として次に挙げるような種々の行動を取ることが可能である。たとえば、「こんにちは」と話しかけて返事があった場合、「握手しよう」と言って一方の腕を前方に差し出す。「こんにちは」と話しかけて返事がなかった場合、「バイバイ」と言う。所定の方向に一方の腕44、48および手52を向けて指差しを行い、「あっちを見て」と言う。眼カメラ40からの画像データに人の顔を認識した場合、その人の顔の方向に頭部56の顔側や眼球部60を向ける。触られた場合、触られた部位の方に頭部56の顔側を向ける。このように、ロボット10は、自ら能動的にコミュニケーション行動を提示し、それに対する人間の反応を認識してその認識結果に応じた行動をさらに提示することができるし、人間と同じような反応動作を行うことができる。
モータ制御ボード68は、たとえばDSPで構成され、各腕や頭部および眼球部等の各軸モータの駆動を制御する。すなわち、モータ制御ボード68は、CPU62からの制御データを受け、右眼球部60Rのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図2では、まとめて「右眼球モータ」と示す。)74の回転角度を制御する。同様に、モータ制御ボード68は、CPU62からの制御データを受け、左眼球部60Lのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図2では、まとめて「左眼球モータ」と示す。)76の回転角度を制御する。
また、モータ制御ボード68は、CPU62からの制御データを受け、右肩関節42RのX軸、Y軸およびZ軸のそれぞれの角度を制御する3つのモータと右肘関節46RのW軸の角度を制御する1つのモータとの計4つのモータ(図2では、まとめて「右腕モータ」と示す。)78の回転角度を調節する。同様に、モータ制御ボード68は、CPU62からの制御データを受け、左肩関節42LのA軸、B軸およびC軸のそれぞれの角度を制御する3つのモータと左肘関節46LのD軸の角度を制御する1つのモータとの計4つのモータ(図2では、まとめて「左腕モータ」と示す。)80の回転角度を調整する。
さらに、モータ制御ボード68は、CPU62からの制御データを受け、頭部56のS軸、T軸およびU軸のそれぞれの角度を制御する3つのモータ(図2では、まとめて「頭部モータ」と示す。)82の回転角度を制御する。さらにまた、モータ制御ボード68は、CPU62からの制御データを受け、腰モータ32および車輪16を駆動する2つのモータ(図2では、まとめて「車輪モータ」と示す。)18の回転角度を制御する。
なお、この実施例では、車輪モータ18を除くモータは、制御を簡素化するために、ステッピングモータ或いはパルスモータを用いるようにしてある。ただし、車輪モータ18と同様に、直流モータを用いるようにしてもよい。
センサ入力/出力ボード70もまた、同様に、DSPで構成され、各センサからの信号を取り込んでCPU62に与える。すなわち、超音波距離センサ24のそれぞれからの反射時間(距離情報)に関するデータがこのセンサ入力/出力ボード70を通してCPU62に入力される。また、全方位カメラ34からの映像信号が、必要に応じてこのセンサ入力/出力ボード70で所定の処理を施された後、CPU62に入力される。眼カメラ40からの映像信号も、同様にして、CPU62に入力される。また、上述した複数のタッチセンサ50からの信号がセンサ入力/出力ボード70を介してCPU62に与えられる。さらに、上述した衝突センサ20からの信号も、同様にして、CPU62に与えられる。また、赤外線カメラ36からの赤外線画像はこのセンサ入力/出力ボード70で処理されることによって、赤外線タグ12から発せられる識別情報およびその画像における位置情報等が取得された後、CPU62に与えられる。
音声入力/出力ボード72もまた、同様に、DSPで構成され、CPU62から与えられる音声合成データに従った音声または声がスピーカ58から出力される。また、マイク38からの音声入力が、音声入力/出力ボード72を介してCPU62に取り込まれる。
また、CPU62は、バス64を介して通信LANボード84および無線通信装置86に接続される。通信LANボード84は、DSPで構成され、CPU62から送られる送信データを無線通信装置86に与え、無線通信装置86から送信データを、図示は省略するが、たとえば無線LANまたはインタネットのようなネットワークを介して外部のコンピュータに送信させる。また、通信LANボード84は、無線通信装置86を介してデータを受信し、受信したデータをCPU62に与える。つまり、この通信LANボード84および無線通信装置86によって、ロボット10は外部のコンピュータ等と無線通信を行うことができる。
さらに、CPU62は、バス64を介してユーザ情報データベース(DB)88に接続される。ただし、このデータベースは、外部のコンピュータまたは外部のネットワーク上にアクセス可能に設けるようにしてもよい。
ユーザ情報DB88は、ロボット10とコミュニケーションするユーザに関する情報を登録しているデータベースであり、この実施例では、図3に示すようなユーザ情報のテーブルを記憶している。ユーザ情報DB88には、たとえば、ユーザIDに対応付けて、ユーザ名、装着される赤外線タグ12の識別情報(点滅パターン)等が記憶される。図3では、たとえばユーザIDがIaであるユーザ名Aには、“Ta”の点滅パターン(点滅周期)で発光される赤外線タグ12が装着されていることが分かる。このように、ユーザに赤外線タグ12によって識別情報が与えられるので、ロボット10は、コミュニケーションの相手に合わせた個別のコミュニケーション行動を実行することが可能である。たとえば、各人の名前に相当する音声データを記憶しておけば、識別情報を取得することによってコミュニケーションの相手を特定して、その人の名前を呼ぶことができる。また、どのユーザとの間でどのようなコミュニケーション行動を実行したかを示す実行履歴データを記録しておいて、その履歴データに基づいたコミュニケーション行動を実行することも可能である。たとえば、初めてコミュニケーションするユーザに対しては「はじめまして」と、久しぶりにコミュニケーションするユーザに対しては「久しぶり」と呼びかけるなど、ユーザごとに適応した行動を実行できる。
このようなロボット10では、ユーザとのコミュニケーションをしている間に、赤外線カメラ36を用いてそのコミュニケーションの相手の存在が確認される。つまり、赤外線カメラ36からのデータに基づいて相手の識別情報を認識できたかどうかが判断される。上述のように赤外線カメラ36がロボット10の前方に設けられるとともに赤外線タグ12が相手の前方に装着されていることから、相手の存在が確認された場合には、図4(A)に示すように、赤外線タグ12が赤外線カメラ36の方を向いた状態で、その相手が赤外線カメラ36の視野ないし画角の範囲内に存在していることが分かる。つまり、この場合には、相手はロボット10の目前に存在して、かつ、ロボット10の方を向いているということを把握できる。したがって、相手はロボット10とのコミュニケーションに興味を持っていると考えられるので、ロボット10はその相手とのコミュニケーションを続ける。
なお、図4はロボット10とユーザとの位置関係を上からの視点で表した図解図であり、この図4では、赤外線カメラ36の検出可能な視野範囲は点線で示され、超音波距離センサ24の検出可能な距離による領域は破線で示されている。
一方、赤外線カメラ36からのデータに基づいて相手の存在を確認できなかった場合には、前方に設けられた超音波距離センサ24によって相手の存在が検出されるか否かが調べられる。前方の超音波距離センサ24に反応があった場合には、図4(B)に示すように、相手に装着された赤外線タグ12が赤外線カメラ36の方を向いていない状態であり、かつ、その相手が超音波距離センサ24の検出領域内に存在することが分かる。つまり、この場合には、相手はロボット10の目前に存在するが、ロボット10の方を向いていないということを把握できる。
そして、たとえば、相手の向きを変えさせるような行動を前に実行したか否かに応じて、以降の行動を変化させる。すなわち、たとえばある特定の場所や物を指差したり「あっちを見て」と発話して異なる方向を向くように指示したりする等、相手の向きを変えさせるような行動(「向き変更行動」というものとする。)を前に実行していた場合には、相手がその変更行動に応じて行動した結果、ロボット10の方を向いていない状態にあると考えられるので、たとえば「こっちを向いて」と発話するなど、ロボット10の方を向くように指示する指示行動を実行する。これに対して、向き変更行動を前に実行していなかった場合には、相手がロボット10とのコミュニケーションに対しての興味を失っていると考えられるので、たとえば、それまでの行動とは話題の異なる行動を実行して話題の転換を図ることなどによって、相手に興味を起こさせるようにする。
また、前方の超音波距離センサ24に反応がなかった場合には、図4(C)に示すように、相手に装着された赤外線タグ12が赤外線カメラ36の方を向いていない状態であり、かつ、その相手が超音波距離センサ24の検出領域内に存在していないことが分かる。つまり、この場合には、相手がロボット10の目前にもはや存在していないことを把握できる。したがって、相手が去ってしまったと考えられるので、ロボット10は、たとえばもう一度コミュニケーションをするために相手を呼び戻すように行動する。
図5のフロー図には、ロボット10のCPU62の動作の一例が示される。図6の最初のステップS1では、赤外線カメラ36からのデータを取得する。赤外線タグ12を装着したユーザがロボット10の方を向いた状態でロボット10の目前に存在する場合には、赤外線タグ12から発せられる識別情報が赤外線カメラ36およびセンサ入力/出力ボード70によって検出される。たとえば、CPU62は、赤外線カメラ36からの所定時間分の画像データを解析して得られた識別情報を、センサ入力/出力ボード70のバッファから取得してメモリ66に書き込む。このようにユーザがロボット10の方を向いてロボット10の目前に存在する場合には、ユーザはロボット10とコミュニケーションを図ることができる状態にある。なお、赤外線カメラ36およびセンサ入力/出力ボード70によって識別情報が検出されていない場合には、たとえば一定時間ごとに識別情報の取得を試みる。
次に、ステップS3では、取得された識別情報をユーザ情報DB88で探索することによって、目前の人物をたとえばユーザIDまたはユーザ名等で特定する。そして、ステップS5でその相手とのインタラクション(コミュニケーション)を開始する。
この実施例では、インタラクションの一例として、ロボット10はユーザに話題を提供する。提供される話題はたとえば話題データとしてメモリ66に予め記憶される。一例として、展示会場で展示物としてのポスタを閲覧したユーザとの間でインタラクションするような場合を想定すると、話題データとしては、たとえば、展示された複数のポスタごとに、印象を尋ねたり、設置場所を指差したり、要約を説明したりするといった個々の行動が設定されている。
続いて、ステップS7で話題データのうち1つを選択して、ステップS9でその話題の提供を処理して、選択された行動を実行する。これによって、たとえば上述したようにポスタの印象を尋ねたり設置場所を指差したりといった行動が提示されて相手に話題が提供される。なお、実行したコミュニケーション行動をメモリ66の所定領域に実行履歴として記録しておく。
そして、ステップS11で、赤外線カメラ36によって相手のID(識別情報)を認識できているか否かを判断する。たとえば、CPU62は、ステップS3で特定した相手の赤外線タグ12の識別情報がセンサ入力/出力ボード70に取得されているかどうかを判断する。ステップS11で“YES”であれば、図4(A)に示したように相手がロボット10の方を向いた状態でロボット10の目前に存在していることを把握できる。この場合には、ロボット10とのコミュニケーションあるいは提供した話題に対して相手は興味を失っていないと考えられる。そこで、続くステップS13で、他に提供できる話題があるかどうかを判断し、“YES”であればステップS9に戻って、その話題を提供する。相手が興味を失っていないと把握される場合には、たとえば同じあるいは関連するポスタに関する行動など、先に提供した話題と関連性のあるような話題を選択するのが望ましい。また、ステップS13で“NO”であれば、続くステップS29で、その相手に対するインタラクションの終了処理を実行して、処理を終了する。
一方、ステップS11で“NO”であれば、つまり、赤外線カメラ36によって相手の識別情報を認識できていない場合には、続くステップS15で、前方の超音波距離センサ24に反応があるか否かを判断する。たとえば、センサ入力/出力ボード70のバッファに前方の超音波距離センサ24からの距離情報が取得されているか否かを判断する。このステップS15で“YES”であれば、図4(B)に示したように、相手はロボット10の目前に存在しているが、ロボット10の方を向いていない状態であることを把握できる。この場合には、相手がロボット10の方を向いていない原因を明らかにすべく、続くステップS17で、たとえば特定の場所を指差すなど、相手の向きを変えさせるような行動を前に実行したか否かを、メモリ66に記録しておいた実行履歴に基づいて判断する。
このステップS17で“YES”であれば、相手は、ロボット10の行動に応じてその向きを変更したと判断することができ、ロボット10とのインタラクションに興味を失っているものではないと考えられる。したがって、続くステップS19で、たとえば「こっち向いて」と発話するなど、相手に対してロボット10の方を向くように指示し、ステップS21で、一定時間内に赤外線カメラ36によって相手の識別情報を認識することができたか否かを判断する。ステップS21で“YES”であれば、相手がロボット10の指示を聞いてロボット10の方を向いたことを意味するので、この相手とのインタラクションを継続すべく、ステップS13へ進む。一方、ステップS21で“NO”であれば、相手がロボット10の指示に従わなかったことを意味し、相手はロボット10とのインタラクションを続ける意思がないと考えられるので、ステップS29へ進んでインタラクションの終了処理を実行する。
他方、ステップS17で“NO”であれば、相手は、ロボット10とのインタラクションに興味を失ってその向きを変更したものと判断することができる。したがって、続くステップS23で、相手に興味を起こさせるように話題を転換すべく、違う話題を準備する。たとえば、それまでとは異なるポスタに関する話題や、天気情報のような展示物を離れた日常的な話題などを選択するようにする。そして、ステップS13で、提供すべき違う話題が存在する場合には、ステップS9へ戻ってその話題を提供して、話題を転換する。
また、ステップS15で“NO”であれば、図4(C)に示したように、相手はロボット10の前から去ってしまっていると判断することができる。したがって、続くステップS25で、たとえば「こっちにおいでよ」と発話するなど、相手にロボット10の方に戻ってくるように指示し、ステップS27で、一定時間内に赤外線カメラ36によって相手の識別情報を認識することができたか否かを判断する。ステップS27で“YES”であれば、相手がロボット10の指示を聞いてロボット10の前に戻ったことを意味するので、この相手とのインタラクションを継続すべくステップS13へ進む。一方、ステップS27で“NO”であれば、相手がロボット10の前に戻って来なかったことを意味し、相手がロボット10とのコミュニケーションを終わらせたと考えられるので、ステップS29へ進んでインタラクションの終了処理を実行する。
この実施例によれば、コミュニケーション相手の赤外線タグ12からの識別情報を赤外線カメラ36によって認識できなくなったときに、超音波距離センサ24を用いて相手の存在を確認するようにしたので、コミュニケーションをしている間に相手が向きを変えてしまった場合であっても、相手の存在の認識を保持することができる。そして、相手がロボット10の目前にいてロボット10の方を向いているのか、またはロボット10の目前に存在するがロボット10の方を向いていないのか、あるいはロボット10の前から去ってしまったのかといった、相手の存在および向きの変化などの相手の細かな挙動を把握することができる。したがって、たとえば相手がロボット10の目前に存在するのにロボット10の方を向いていない場合には相手がコミュニケーションに対する興味を失っていると理解して、話題の転換を図ったりすることができ、相手の存在および向きに応じてより高度なコミュニケーションを展開することができる。
なお、上述の実施例では、相手がロボット10の方を向いているかどうかを検知する手段として赤外線カメラ36を使用し、相手がロボット10の付近の所定領域内(前方)に存在するか否かを検知する手段として超音波距離センサ24を使用するようにしていた。しかし、相手の向きと存在を検知するための手段はこれらに限られるものではない。
たとえば図6に示す他の実施例のロボット10では、図1実施例の超音波距離センサ24の代わりに、相手との間の距離を測定するためのレーザレンジファインダ90が設けられる。レーザレンジファインダ(レーザ距離計)90は、レーザ光線を利用した画像センサであり、目標物にパルスレーザを照射し、そのレーザ光が反射して戻ってきた時間から目標物との距離を瞬時に測定する。したがって、この図6実施例では、図5のステップS15で、前方に設けたレーザレンジファインダ90に反応があったかどうか、つまり、相手までの距離情報が得られたか否かを判断すればよい。この図6実施例でも、超音波距離センサ24を用いた上述の図1実施例と同様に、赤外線カメラ36によって相手の識別情報を認識できなくなった場合に、レーザレンジファインダ90を用いて相手がロボット10の目前に存在しているのかどうかを確認することができるので、相手の細かな挙動を認識することができる。
また、たとえば図7に示すその他の実施例のロボット10では、図1実施例の超音波距離センサ24に代えて、RFID読取装置(無線タグ読取装置)92が設けられる。この図7実施例では、図示は省略するが、コミュニケーション相手には無線タグ(RFIDタグ)がさらに装着され、ユーザ情報DB88にはユーザごとにRFIDタグの識別情報が予め登録される。RFタグは識別情報の重畳された電磁波ないし電波を発信し、RFID読取装置92はたとえばアンテナおよびコントローラ等を含み、RFタグからの電磁波等を受信してその識別情報を取得する。そして、赤外線カメラ36によって相手の赤外線タグの識別情報を認識できなくなったときには、図5のステップS15で、RFID読取装置92によって相手のRFタグの識別情報を認識できているか否かを判断すればよい。これによって、ロボット10の方を向いていない相手がロボット10の周辺に存在しているかどうかを確認することができる。なお、RFIDタグおよびRFID読取装置92として、たとえばマイクロ波方式(周波数2.45GHz)のもののように指向性の強いものを用いた場合には、相手がロボット10の周辺のうち特に前方に存在しているかどうかを確認することも可能になる。
また、たとえば図8に示すさらにその他の実施例のロボット10では、図7実施例の赤外線カメラ36に代えて、超音波を受信するためのセンサを備える超音波受信装置94が設けられる。この図8実施例では、コミュニケーション相手には、赤外線タグ12に代えて超音波タグが装着される。超音波タグは指向性の強い(単一指向性に近い)超音波を発するものを適用する。超音波タグは、図7実施例の赤外線タグ12と同様に、相手の前方へ超音波を発射するように、相手の前方(たとえば胸等)に装着される。また、超音波受信装置94は、図7実施例の赤外線カメラ36と同様にして、ロボット10の前方からの超音波を検出するように設けられる。この超音波の指向性の強さを利用することで、赤外線を利用した図7実施例と同様に、相手の向きを検知することが可能になる。ユーザ情報DB88には、図9に示すように、ユーザごとに、ユーザID、ユーザ名、RFタグの識別情報とともに超音波タグの識別情報が予め登録される。超音波タグは超音波に重畳された識別情報を発信し、超音波受信装置94は超音波タグからの超音波を受信してその識別情報を取得する。
この図8実施例のロボット10の動作の一例が図10に示される。なお、図10の動作のうち図1実施例の動作を示した図5と重複する部分には同符号を付してその説明は省略する。図10の最初のステップS1’では、CPU62は、センサ入力/出力ボード70を介して超音波受信装置94からのデータを取得し、ステップS3で超音波タグの識別情報に基づいてロボット10の目前の人物を特定する。また、ステップS11’では、超音波受信装置94によって相手の超音波の識別情報を認識できているのか否かが判断される。このステップS11’で“YES”であるときは相手がロボット10の目前に居てロボット10の方を向いていることが把握される。一方、ステップS11’で“NO”であるとき、つまり、超音波受信装置94によって相手を認識できなくなったときには、ステップS15’で、RFID読取装置92によって相手を認識しているか否かが判断される。これによって、相手がロボット10の周辺または目前にまだ存在しているかどうかを確認することができる。
なお、図8実施例では、超音波受信装置94によって相手を認識できなくなった場合に相手の存在を確認する手段として、RFID読取装置92を設けるようにしていた。しかし、RFID読取装置92に代えて、図6実施例のようにレーザレンジファインダ90を設けて、レーザレンジファインダ90によって相手がロボット10のたとえば目前に存在しているのかどうかを確認するようにしてもよい。
この発明の一実施例のコミュニケーションロボットの外観を示す図解図(正面図)である。 図1のコミュニケーションロボットの内部構成を示すブロック図である。 図2のユーザ情報DBの内容の一例を示す図解図である。 コミュニケーションロボットと相手との位置関係を示す図解図であり、図4(A)はロボットの目前で相手と向かい合っている状態を示し、図4(B)はロボットの目前で相手が他の方向を向いた状態を示し、図4(C)はロボットの目前から相手が去った状態を示す。 コミュニケーションロボットの動作の一例を示すフロー図である。 この発明の他の実施例のコミュニケーションロボットの内部構成を示すブロック図である。 この発明のその他の実施例のコミュニケーションロボットの内部構成を示すブロック図である。 この発明のさらにその他の実施例のコミュニケーションロボットの内部構成を示すブロック図である。 図8実施例におけるユーザ情報DBの内容の一例を示す図解図である。 図8実施例の動作の一例を示すフロー図である。
符号の説明
10 …コミュニケーションロボット
12 …赤外線タグ
24 …超音波距離センサ
36 …赤外線カメラ
62 …CPU
66 …メモリ
70 …センサ入力/出力ボード
90 …レーザレンジファインダ
92 …RFID読取装置
94 …超音波受信装置

Claims (4)

  1. コミュニケーションの相手の挙動に応じて話題を転換するコミュニケーションロボットであって、
    前記相手が前記コミュニケーションロボットの方を向いているかどうかを検知する第1検知手段、
    前記相手が前記コミュニケーションロボットの付近の所定領域内に存在するかどうかを検知する第2検知手段、
    前記相手が前記コミュニケーションロボットの方と異なる方向を向くように指示する行動が実行されたかどうかを履歴に基づいて判断する第3判断手段、および
    前記第1検知手段を用いて前記相手が前記コミュニケーションロボットの方を向いていないことが検知され、前記第2検知手段を用いて前記相手が前記所定領域内に存在することが検知され、かつ、前記第3判断手段を用いて前記相手が前記コミュニケーションロボットの方と異なる方向を向くように指示する行動が実行されていないことが判断されたことによって、前記相手が興味を失ったと判断されるとき、話題を転換する行動制御手段を備える、コミュニケーションロボット。
  2. 前記第1検知手段は、前記コミュニケーションロボットの前方からの赤外線を検出するように設けられて、前記相手に装着された赤外線タグから前記相手の前方へ放射される赤外線を検出する赤外線センサを含み、
    前記第2検知手段は、前記相手との間の距離を測定するための超音波距離センサもしくはレーザレンジファインダ、または前記相手に装着された無線タグからの識別情報を検出する無線タグ読取装置のいずれか1つを含み、
    前記行動制御手段は、
    前記相手とコミュニケーションを行っている間に前記第1検知手段によって前記赤外線が検出されたか否かを判断する第1判断手段、および
    前記第1判断手段によって前記赤外線が検出されていないと判断されたときに前記第2検知手段を用いて前記相手の存在が検出されたか否かを判断する第2判断手段を備え、
    前記第1判断手段を用いて前記赤外線が検出されていないことが判断され、前記第2判断手段を用いて前記相手が検出されたことが判断され、かつ、前記第3判断手段を用いて前記相手が前記コミュニケーションロボットの方と異なる方向を向くように指示する行動が実行されていないことが判断されたことによって、前記相手が興味を失ったと判断されるとき、話題を転換する、請求項1記載のコミュニケーションロボット。
  3. 前記第1検知手段は、前記コミュニケーションロボットの前方からの超音波を検出するように設けられて、前記相手に装着された超音波タグから前記相手の前方へ発射される超音波を検出する超音波受信装置を含み、
    前記第2検知手段は、前記相手との間の距離を測定するためのレーザレンジファインダ、または前記相手に装着された無線タグからの識別情報を検出する無線タグ読取装置のいずれか1つを含み、
    前記行動制御手段は、
    前記相手とコミュニケーションを行っている間に前記第1検知手段によって前記超音波が検出されたか否かを判断する第1判断手段、および
    前記第1判断手段によって前記超音波が検出されていないと判断されたときに前記第2検知手段を用いて前記相手の存在が検出されたか否かを判断する第2判断手段を備え、
    前記第1判断手段を用いて前記超音波が検出されていないことが判断され、前記第2判断手段を用いて前記相手が検出されたことが判断され、かつ、前記第3判断手段を用いて前記相手が前記コミュニケーションロボットの方と異なる方向を向くように指示する行動が実行されていないことが判断されたことによって、前記相手が興味を失ったと判断されるとき、話題を転換する、請求項1記載のコミュニケーションロボット。
  4. 前記行動制御手段は、前記第3判断手段を用いて前記相手が前記コミュニケーションロボットの方と異なる方向を向くように指示する行動が実行されていたと判断されたとき、前記相手に対して前記コミュニケーションロボットの方を向くように指示する行動を実行する、請求項1ないし3のいずれかに記載のコミュニケーションロボット。
JP2004051209A 2004-02-26 2004-02-26 コミュニケーションロボット Expired - Fee Related JP3942599B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004051209A JP3942599B2 (ja) 2004-02-26 2004-02-26 コミュニケーションロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004051209A JP3942599B2 (ja) 2004-02-26 2004-02-26 コミュニケーションロボット

Publications (2)

Publication Number Publication Date
JP2005238382A JP2005238382A (ja) 2005-09-08
JP3942599B2 true JP3942599B2 (ja) 2007-07-11

Family

ID=35020656

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004051209A Expired - Fee Related JP3942599B2 (ja) 2004-02-26 2004-02-26 コミュニケーションロボット

Country Status (1)

Country Link
JP (1) JP3942599B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4751192B2 (ja) * 2005-12-12 2011-08-17 本田技研工業株式会社 移動ロボット
JP4512830B2 (ja) * 2006-02-20 2010-07-28 国立大学法人埼玉大学 コミュニケーションロボット
JP4800819B2 (ja) * 2006-03-31 2011-10-26 富士通株式会社 対話ロボットシステム
JP4831750B2 (ja) * 2006-11-06 2011-12-07 株式会社国際電気通信基礎技術研究所 コミュニケーション誘発システム
JP4976903B2 (ja) * 2007-04-05 2012-07-18 本田技研工業株式会社 ロボット
JP2009166184A (ja) * 2008-01-17 2009-07-30 Saitama Univ ガイドロボット
JP5300497B2 (ja) * 2009-01-07 2013-09-25 株式会社東芝 対話装置、対話プログラムおよび対話方法
JP5732632B2 (ja) * 2011-02-03 2015-06-10 株式会社国際電気通信基礎技術研究所 ロボットシステムおよびそれに用いる空間陣形認識装置
JP6150429B2 (ja) * 2013-09-27 2017-06-21 株式会社国際電気通信基礎技術研究所 ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法
US9919429B2 (en) 2013-09-27 2018-03-20 Nec Corporation Robot, control method, and program
JP6565853B2 (ja) * 2016-09-29 2019-08-28 トヨタ自動車株式会社 コミュニケーション装置
CN106646486A (zh) * 2016-12-26 2017-05-10 智能佳(北京)机器人有限公司 一种具有超声波眼睛的人形机器人
CN108724222A (zh) * 2018-08-14 2018-11-02 广东校园卫士网络科技有限责任公司 一种智慧校园安防管理系统及方法

Also Published As

Publication number Publication date
JP2005238382A (ja) 2005-09-08

Similar Documents

Publication Publication Date Title
JP4024683B2 (ja) コミュニケーションロボット
JP5429462B2 (ja) コミュニケーションロボット
US6604021B2 (en) Communication robot
JP3942599B2 (ja) コミュニケーションロボット
JP4599522B2 (ja) コミュニケーションロボット
JP4822319B2 (ja) コミュニケーションロボットおよびそれを用いた注意制御システム
JP5033994B2 (ja) コミュニケーションロボット
JP5732632B2 (ja) ロボットシステムおよびそれに用いる空間陣形認識装置
JP5186723B2 (ja) コミュニケーションロボットシステムおよびコミュニケーションロボットの視線制御方法
JP2006272471A (ja) コミュニケーションロボット
JP5145569B2 (ja) 対象物特定方法および装置
JP4677593B2 (ja) コミュニケーションロボット
JP2007260822A (ja) 道案内ロボット
JP2004230479A (ja) コミュニケーションロボットおよびそれを用いたコミュニケーションシステム
JP6134895B2 (ja) ロボット制御システム、ロボット制御プログラムおよび説明ロボット
JP4399603B2 (ja) コミュニケーションロボット
JP2007160427A (ja) ロボット制御システム
JP2005131713A (ja) コミュニケーションロボット
JP4779114B2 (ja) コミュニケーションロボット
JP4793904B2 (ja) コミュニケーションロボットシステムおよびコミュニケーションロボット
JP2006205343A (ja) コミュニケーションロボットシステムおよびロボット制御装置
JP2007130691A (ja) コミュニケーションロボット
JP2011000656A (ja) 案内ロボット
JP2002361585A (ja) コミュニケーションロボット
JP5732633B2 (ja) コミュニケーションロボット

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070403

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3942599

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110413

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120413

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130413

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130413

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140413

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees