JP3745649B2 - コミュニケーションロボット - Google Patents

コミュニケーションロボット Download PDF

Info

Publication number
JP3745649B2
JP3745649B2 JP2001171942A JP2001171942A JP3745649B2 JP 3745649 B2 JP3745649 B2 JP 3745649B2 JP 2001171942 A JP2001171942 A JP 2001171942A JP 2001171942 A JP2001171942 A JP 2001171942A JP 3745649 B2 JP3745649 B2 JP 3745649B2
Authority
JP
Japan
Prior art keywords
person
camera
communication
robot
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001171942A
Other languages
English (en)
Other versions
JP2002361584A (ja
Inventor
倫太 今井
崇行 神田
哲雄 小野
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2001171942A priority Critical patent/JP3745649B2/ja
Publication of JP2002361584A publication Critical patent/JP2002361584A/ja
Application granted granted Critical
Publication of JP3745649B2 publication Critical patent/JP3745649B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)

Description

【0001】
【産業上の利用分野】
この発明は、コミュニケーションロボットに関し、特にたとえば、カメラで周囲にいる人を発見する、コミュニケーションロボットに関する。
【0002】
【従来の技術】
従来、カメラで人を発見する技術として、背景画像を覚えておき、変化があった部分を人と同定する方法や、決まった色の背景に人を配置し、背景から人を切り出すという方法がある。また、カメラからの画像に含まれる肌色部分を人と同定する方法がある。
【0003】
【発明が解決しようとする課題】
従来の背景画像の変化があった部分を人と同定する方法や特定の色の背景から人を切り出すという方法は、カメラを固定して行われる。したがって、ロボットのカメラのように動き回るカメラでは従来の方法が適用できなかった。
【0004】
また、肌色部分を人と同定する方法は、遠距離に位置する人の肌色は面積が小さくなり認識するのは困難であった。
【0005】
それゆえに、この発明の主たる目的は、動き回るカメラを用いて周囲にいる人を発見できる、コミュニケーションロボットを提供することである。
【0006】
【課題を解決するための手段】
の発明は、コミュニケーションを図る機能を備えたコミュニケーションロボットであって、カメラ、物体との距離を測定する距離測定手段、人の接近を促す表現を行う接近促し手段、接近促し手段によって人の接近を促す表現を行った後に距離測定手段によって測定される測定値が閾値以下であるか否かを判定する判定手段、判定手段によって閾値以下であると判定されるとき、カメラからの画像に基づいて当該人の特徴を検出して記憶する記憶手段、および記憶手段に記憶された人の特徴とカメラから得られる画像から当該人を検出する人検出手段を備え、接近促し手段は、発音表現手段および動作表現手段の少なくとも一方を含む、コミュニケーションロボットである。
【0008】
【作用】
の発明においては、たとえば、「抱っこしてね」という音声を発生したり頭部や腕を変位させて「抱っこ」をせがむ状態を表現したりして人の接近を促す。人がコミュニケーションロボットに近づくと距離測定手段が人との距離を測定し、判定手段は人との距離と予め定められた距離(閾値)とを比較して、測定された距離が閾値以下であるか否かを判定する。そして、人との距離が予め定められた距離以下であると、記憶手段がカメラからの画像に含まれるたとえば人の服の色を特徴的な色として記憶する。その後、検出手段はカメラからの画像に含まれる記憶手段が記憶している特徴的な色を検出することによって人を検出する。
【0009】
また、たとえば、人との距離が予め定められた距離以下であると、発音表現手段がたとえば「だいすき」という音声を発生し、動作表現手段に含まれる腕変位手段が肩関節および肘関節を制御して上腕および前腕をたとえば抱っこの形に変位させる(第1コミュニケート)とともに、記憶手段がカメラからの画像に含まれるたとえば人の服の色を特徴的な色として記憶する。人はコミュニケーションロボットを抱っこしてから遠ざかる。検出手段はカメラからの画像に含まれる記憶手段が記憶している特徴的な色を検出することによって人を検出する。そして、検出手段が人を検出すると、発音表現手段がたとえば「こんにちは」という音声を発生し、動作表現手段に含まれる頭部変位手段が首関節を制御して頭部をたとえば下方向に変位させて人に会釈する(第2コミュニケート)。
【0010】
【発明の効果】
この発明によれば、人の接近を促して、接近してきた人の服などの特徴色を記憶する。そして、カメラからの映像に含まれる特徴色を検出することによって人を発見する。したがって、ロボットに搭載されて動くカメラからの映像を用いて、人を発見することができる。
【0011】
また、人が近づくと、たとえば「だいすき」という音声を発生して抱っこをせがむ。そしてその後、抱っこしてくれた人を発見すると「こんにちは」という音声を発生して会釈する。したがって、人に対する人なつっこさを表現してロボットと人とのコミュニケーションをより深めることができる。
【0012】
したがって、本発明によれば、人どうしのコミュニケーションと同じようなコミュニケーションをロボットと人との間で実現できる。
【0013】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【0014】
【実施例】
図1は本発明の全体構成を示しており、同図を参照して、この実施例のコミュニケーションロボット(以下、単に「ロボット」ということがある。)10は、台車12を含み、この台車12の下面には、このロボット10を自律移動させる車輪14が設けられる。この車輪14は、車輪モータ(図3において参照番号「70」で示す。)によって駆動され、台車12すなわちロボット10を前後左右任意の方向に動かすことができる。なお、図示しないが、この台車12の前面には、衝突センサ(図2において、参照番号「74」で示す。)が取り付けられ、この衝突センサは、台車12への人や他の障害物の接触を検知する。そして、ロボット10の移動中に障害物との接触を検知すると、直ちに車輪14の駆動を停止してロボット10の移動を急停止させて衝突を未然に防ぐ。
【0015】
なお、ロボット10の背の高さは、この実施例では、人、特に子供に威圧感をあたえることがないように、100cm程度とされている。ただし、この背の高さは任意に変更可能である。
【0016】
台車12の上には、多角形柱のセンサ取付パネル16が設けられ、このセンサ取付パネル16の各面には、超音波距離センサ18が取り付けられる。この超音波距離センサ18は、取付パネル16すなわちロボット10の周囲の主として人との間の距離を計測するものである。
【0017】
台車12の上には、さらに、下部が上述の取付パネル16に囲まれて、ロボット10の胴体が直立するように取り付けられる。この胴体は下部胴体20と上部胴体22とから構成され、これら下部胴体20および上部胴体22は、連結部24によって、連結される。連結部24には、図示しないが、昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体22の高さすなわちロボット10の高さを変化させることができる。昇降機構は、後述のように、腰モータ(図3において参照番号「68」で示す。)によって駆動される。上で述べたロボット10の身長100cmは、上部胴体22をそれの最下位置にしたときの値である。したがって、ロボット10の身長は100cm以上にすることができる。
【0018】
上部胴体22のほぼ中央には、1つの全方位カメラ26と、1つのマイク28とが設けられる。全方位カメラ26は、ロボット10の周囲を撮影するもので、後述の眼カメラ46と区別される。マイク28は、周囲の音、とりわけ人の声を取り込む。
【0019】
上部胴体22の両肩には、それぞれ、肩関節30Rおよび30Lによって、上腕32Rおよび32Lが取り付けられる。肩関節30Rおよび30Lは、それぞれ3軸の自由度を有する。すなわち、肩関節30Rは、X軸,Y軸およびZ軸のそれぞれの軸廻りにおいて上腕32Rの角度を制御できる。Y軸は、上腕32Rの長手方向(または軸)に並行な軸であり、X軸およびZ軸は、そのY軸に、それぞれ異なる方向から直交する軸である。肩関節30Lは、A軸,B軸およびC軸のそれぞれの軸廻りにおいて上腕32Lの角度を制御できる。B軸は、上腕32Lの長手方向(または軸)に並行な軸であり、A軸およびC軸は、そのB軸に、それぞれ異なる方向から直交する軸である。
【0020】
上腕32Rおよび32Lのそれぞれの先端には、肘関節34Rおよび34Lを介して、前腕36Rおよび36Lが取り付けられる。肘関節34Rおよび34Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕36Rおよび36Lの角度を制御できる。
【0021】
なお、上腕32Rおよび32Lならびに前腕36Rおよび36L(いずれも図1)の変位を制御するX,Y,X,W軸およびA,B,C,D軸では、「0度」がホームポジションであり、このホームポジションでは、上腕32Rおよび32Lならびに前腕36Rおよび36Lは下方向に向けられる。
【0022】
また、図示しないが、上部胴体22の肩の部分や上述の上腕32Rおよび32Lならびに前腕36Rおよび36Lには、それぞれ、タッチセンサが設けられていて、これらのタッチセンサは、人がロボット10のこれらの部位に接触したかどうかを検知する。これらのタッチセンサも図3において参照番号72で包括的に示す。
【0023】
前腕36Rおよび36Lのそれぞれの先端には、手に相当する球体38Rおよび38Lがそれぞれ固定的に取り付けられる。なお、この球体38Rおよび38Lに代えて、この実施例のロボット10と異なり指の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。
【0024】
上部胴体22の中央上方には、首関節40を介して、頭部42が取り付けられる。この首関節40は、3つの自由度を有し、S軸,T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上に向かう軸であり、T軸およびU軸は、それぞれ、このS軸に対して異なる方向で直交する軸である。頭部42には、人の口に相当する位置に、スピーカ44が設けられ、目に相当する位置に眼カメラ46が設けられる。スピーカ44は、ロボット10が、それの周囲の人に対して音声または声によってコミュニケーションを図るために用いられる。眼カメラ46は、ロボット10に接近した人の顔や他の部分を撮影してその映像信号を取り込む。ただし、スピーカ44は、ロボット10の他の部位たとえば胴体に設けられてもよい。
【0025】
なお、上述の全方位カメラ26および眼カメラ46のいずれも、たとえばCCDやCMOSのように個体撮像素子を用いるカメラであってよい。
【0026】
図2は図1のロボット10とは異なる構成のロボット10の主要部の上面図を示しており、上部胴体22は、前面22a,背面22b,右側面22c,左側面22d,上面22eおよび底面22fを含み、右側面22cおよび左側面22dは表面が斜め前方に向くように形成してもよい。つまり、前面22aの横幅が背面22bの横幅よりも短く、上部胴体22を上から見た形状が台形になるように形成される。このような場合、ロボット10の腕は肩関節30Rおよび30Lが支持部80Rおよび80Lを介して右側面22cおよび左側面22dに取り付けられる。なお、支持部80Rおよび80Lの表面はそれぞれ右側面22cおよび左側面22dと平行している。上述したように上腕32RはY軸廻りに回動可能であり、上腕32LはB軸廻りに回動が可能であるが、上腕32Rおよび上腕32Lの回動範囲は、支持部80Rおよび80Lの表面(取り付け面)によって規制される。このため、上腕32Rおよび32Lが取り付け面を超えて回動することはない。
【0027】
図2から分かるように、上腕32Rの基端である肩関節30Rと上腕32Lの基端である肩関節30Lとを結ぶ線L1と右側面22c(取り付け面)とがなす角度θ1は、0°<θ1<90°の条件を満たす。上述の結線L1と左側面22dとがなす角度θ2もまた、0°<θ2<90°の条件を満たす。結線L1はロボット10の前方向と直交しているため、右側面22cに垂直なX軸と前方向とがなす角度θ3は“180°−θ1”に等しく、左側面22dに垂直なA軸と前方向とがなす角度θ4も“180°−θ2”に等しい。なお、角度θ1およびθ2の各々は、好ましくは30°≦θ1≦70°および30°≦θ2≦70°の条件を満たすのが良い。さらに、上腕32Rおよび32Lの各々の長さを230mmとし、前腕36Rおよび36Lの長さを235mmとし、そしてY軸とB軸との間の距離を518mmとした場合、角度θ1およびθ2は60°とすることが好ましい。このとき、角度θ3およびθ4は120°となる。
【0028】
このようにすれば、上腕32Rおよび32Lは前方を越えてより内側まで回動できるので、たとえW軸およびD軸による腕の自由度がなくてもロボット10の腕は前方で交差できる。したがって、腕の自由度が少ない場合でも正面に位置する人と抱き合うなどの密接なコミュニケーションを図ることができる。
【0029】
図1に示すロボット10の制御系の構成が図3のブロック図に示される。図3に示すように、このロボット10は、全体の制御のためにマイクロコンピュータまたはCPU50を含み、このCPU50には、バス52を通して、メモリ54,モータ制御ボード56,センサ入力/出力ボード58および音声入力/出力ボード60が接続される。
【0030】
メモリ54は、図示しないが、ROMやRAMを含み、ROMにはこのロボット10の制御プログラムが予め書き込まれているとともに、スピーカ44から発生すべき音声または声の音声データが格納されている。RAMは、一時記憶メモリとして用いられるとともに、ワーキングメモリとして利用され得る。
【0031】
モータ制御ボード56は、たとえばDSP(Digital Signal Processor)で構成され、各腕や頭部の各軸モータを制御する。すなわち、モータ制御ボード56は、CPU50からの制御データを受け、右肩関節30RのX,YおよびZ軸のそれぞれの角度を制御する3つのモータと右肘関節34Rの軸Wの角度を制御する1つのモータとの計4つのモータ(図3ではまとめて、「右腕モータ」として示す。)62の回転角度を調節する。また、モータ制御ボード56は、左肩関節30LのA,BおよびC軸のそれぞれの角度を制御する3つのモータと左肘関節34LのD軸の角度を制御する1つのモータとの計4つのモータ(図3ではまとめて、「左腕モータ」として示す。)64の回転角度を調節する。モータ制御ボード56は、また、頭部42のS,TおよびU軸のそれぞれの角度を制御する3つのモータ(図2ではまとめて、「頭部モータ」として示す。)66の回転角度を調節する。モータ制御ボード56は、また、腰モータ68、および車輪14を駆動する2つのモータ(図3ではまとめて、「車輪モータ」として示す。)70を制御する。
【0032】
なお、この実施例の上述のモータは、車輪モータ70を除いて、制御を簡単化するためにそれぞれステッピングモータまたはパルスモータであるが、車輪モータ70と同様に、直流モータであってよい。
【0033】
センサ入力/出力ボード58も、同様に、DSPで構成され、各センサやカメラからの信号を取り込んでCPU50に与える。すなわち、超音波距離センサ18の各々からの反射時間に関するデータがこのセンサ入力/出力ボード58を通して、CPU50に入力される。また、全方位カメラ26からの映像信号が、必要に応じてこのセンサ入力/出力ボード58で所定の処理が施された後、CPU50に入力される。眼カメラ46からの映像信号も、同様にして、CPU50に与えられる。なお、この図3では、図1で説明したタッチセンサは、まとめて「タッチセンサ72」として表され、それらのタッチセンサ72からの信号がセンサ入力/出力ボード58を介して、CPU50に与えられる。
【0034】
なお、スピーカ44には音声入力/出力ボード60を介して、CPU50から、合成音声データが与えられ、それに応じて、スピーカ44からはそのデータに従った音声または声が出力される。そして、マイク28からの音声入力が、音声入力/出力ボード60を介して、CPU50に取り込まれる。
【0035】
この実施例のロボット10は、「抱っこしてね」と人に呼びかけて、接近を促がし、接近してきた人のたとえば服の色を特徴色として記憶する。そして、周囲にある特徴色を検知することによって人を発見する。
【0036】
図4および図5に示すフロー図は、ロボット10が一度抱っこされた人を記憶し、その後で抱っこした人を見つけて挨拶をする場合の動作を示す。
【0037】
図4の最初のステップS1では、CPU50は、メモリ54から、音声入出力ボード60へ、音声データを送る。したがって、スピーカ44から合成音声「抱っこしてね」が出力される。
【0038】
ステップS3で、CPU50は、ロボット10の頭部42(図1)を斜め上方向に向けかつ腕を下方向に向けるように、メモリ54から、角度データをモータ制御ボード56に送る。具体的には、図1に示すU軸の回転角度を調整するモータに角度「45」を与え、X軸の回転角度を調整するモータに角度「90」を与え、A軸の回転角度を調整するモータに角度「80」を与え、Y軸およびB軸の回転角度を調整するモータに角度「45」を与え、残りのモータにはすべて「0」を与える。したがって、このステップS3では、ロボット10の頭部42が斜め上を向き、上腕32RがX軸廻りに90度回転されるとともにY軸廻りに45度回転され、上腕32LがA軸廻りに80度回転されるとともにB軸廻りに45度回転される。したがって、上腕32Rおよび32Lが前腕36Rおよび36Lと一直線の状態で、ロボット10の斜め前方に広げられる。その状態はロボット10が「抱っこ」をせがんでいる状態を表現している。
【0039】
続くステップS5において、CPU50は、超音波距離センサ18(図1)からの距離値をセンサ入力/出力ボード58を介して取り込む。すなわち、このステップS5では、超音波距離センサ18からの信号がセンサ入力/出力ボード58に入力される。
【0040】
CPU50は、次のステップS7において、センサ入力/出力ボード58から入力された距離データが所定値以下かどうか判断する。この「距離」が所定値以下であるということは、人がロボット10に近づいたことを意味し、このステップS7で“YES”を判断すると、ステップS13に進む。一方、ステップS7で“NO”を判断すると、ステップS9で、CPU50は台車12の前面の衝突センサ(図示せず)の値を読み込む。そして、ステップS11において、CPU50はステップS9で読み込んだ衝突センサからの値が、「衝突センサのオン」を示しているかどうか、判断する。そして、ステップS11で“YES”を判断すると、すなわち人がロボット10の台車12の前面に接触したことを判断すると、ステップS13に進む。
【0041】
ステップS13では眼カメラ46からの映像信号をセンサ入力/出力ボード58に取り込み、ステップS15ではこのボード58で、映像信号処理することによって、カメラ画像に含まれるたとえば彩度が20%以上である特徴的な色を検出し、検出された特徴色をメモリ54に記憶する。したがって、抱っこをしに近づいてきた人のたとえば服の色をロボット10が特徴色として記憶する。
【0042】
続くステップS17では、CPU50は、メモリ54から音声入出力ボード60へ、音声データを送る。したがって、スピーカ44から合成音声「だいすき」が出力される。
【0043】
そしてステップS19では、ロボット10の頭部42が直立し、前腕36Rおよび35Lを曲げるように、メモリ54から、角度データをモータ制御ボード56に送る。具体的には、図1のX軸の回転角度を調整するモータに角度「90」を与え、A軸の回転角度を調整するモータに角度「80」を与え、Y軸およびB軸のモータに角度「45」を与え、W軸およびD軸のモータに角度「60」を与え、残りのモータにはすべて角度「0」を与える。したがって、このステップS117では、ロボット10の腕が人を抱くように、前腕36Rおよび36Lが曲げられる。
【0044】
続くステップS21では、再び眼カメラ46からの映像信号をセンサ入力/出力ボード58に取り込んでこのボード58で映像信号を処理し、ステップS23では取り込んだ画像中にステップS15においてメモリ54に記憶した特徴色が含まれているかどうかを判断する。含まれていないときにはステップS25でCPU50はモータ制御ボード56に、車輪モータを回転させて台車部が時計回りに30度回転させる角度データを与える。そして、ステップS21に戻る。一方、ステップS23で画像中に特徴色が含まれていると判断すると、ステップS27では、CPU50はモータ制御ボード56に、車輪モータを回転させて台車12を、つまりロボット10を前進させる。
【0045】
次に、ステップS29では、CPU50は、超音波距離センサ18からの距離値をセンサ入力/出力ボード58を介して取り込む。そして、ステップS31では、CPU50は、センサ入力/出力ボード58から入力された距離データが所定値以下かどうか判断する。ステップS31で“NO”を判断すると、ステップS21に戻り、眼カメラ46から得られる画像中に特徴色が含まれているか再び判断する。
【0046】
一方、ステップS31で“YES”を判断すると、つまり近くに抱っこをした人がいると、ステップS33において、CPU50は、メモリ54から、音声入力/出力ボード60へ、音声データを送る。したがって、スピーカ44から合成音声「こんにちは」が出力される。
【0047】
最後に、ステップS35で、CPU50は、ロボット10の頭部42を下に向けるように、メモリ54から、角度データをモータ制御ボード56に送る。具体的には、図1に示すU軸の回転角度を調整するモータに角度「−45」を与え、残りのモータにはすべて角度「0」を与える。したがって、このステップS33では、ロボット10の頭部が下を向いてお辞儀をする格好をとる。
【0048】
このようにして図4および図5の実施例では、人がロボット10からの「抱っこして」の呼びかけに応じて抱っこをしに近づくと、ロボット10は人のたとえば服の色などの特徴色を覚え、覚えた特徴色を頼りに抱っこをした人を発見して近づき挨拶をする。
【0049】
なお、この実施例は適宜変更して実施することができる。たとえば、上述の実施例では、合成音声の発生とともに頭部や腕を変位させるジェスチャーによってコミュニケーションをとることとしたが、合成音声の発生もしくはジェスチャーのどちらかによってコミュニケーションをとるようにしてもよい。
【0050】
また、上述の実施例では言語音である合成音声としたが、これに代えてメロディーや音とすることもできる。
【図面の簡単な説明】
【図1】この発明の一実施例の全体構成を示す正面図である。
【図2】この発明の一実施例の全体構成を示す上面図である。
【図3】図1の実施例のブロック図である。
【図4】図1の実施例における動作の一部を説明するフロー図である。
【図5】図1の実施例における動作のその他の一部を説明するフロー図である。
【符号の説明】
10 …コミュニケーションロボット
12 …台車
14 …車輪
18 …超音波距離センサ
20 …下部胴体
22 …上部胴体
30R、L …肩関節
32R、L …上腕
34R、L …肘関節
36R、L …前腕
40 …首関節
42 …頭部
44 …スピーカ
46 …眼カメラ
50 …CPU
54 …メモリ
56 …モータ制御ボード
58 …センサ入出力ボード
60 …音声入出力ボード
62 …右腕モータ
64 …左腕モータ
66 …頭部モータ

Claims (7)

  1. コミュニケーションを図る機能を備えたコミュニケーションロボットであって、
    カメラ、
    体との距離を測定する距離測定手段、
    人の接近を促す表現を行う接近促し手段、
    前記接近促し手段によって前記人の接近を促す表現を行った後に前記距離測定手段によって測定される測定値が閾値以下であるか否かを判定する判定手段、
    前記判定手段によって前記閾値以下であると判定されるとき、前記カメラからの画像に基づいて当該人の特徴を検出して記憶する記憶手段、および
    前記記憶手段に記憶された前記人の特徴と前記カメラから得られる画像から当該人を検出する人検出手段を備え、
    前記接近促し手段は、発音表現手段および動作表現手段の少なくとも一方を含む、コミュニケーションロボット。
  2. 前記判定手段によって前記閾値以下であると判定されるとき、第1のコミュニケートをする第1コミュニケート手段、および
    前記人検出手段による検出に応じて第2のコミュニケートをする第2コミュニケート手段をさらに備え、
    前記第1コミュニケート手段および前記第2コミュニケート手段は、それぞれ前記発音表現手段および前記動作表現手段の少なくとも一方を含む、請求項1記載のコミュニケーションロボット。
  3. 前記発音表現手段は合成音声を発生する合成音発生手段を含む、請求項1または2記載のコミュニケーションロボット。
  4. 前記記憶手段は前記カメラからの画像に含まれる特徴的な色を記憶し、
    前記検出手段は前記カメラからの画像と前記特徴的な色から当該人の検出を行う、請求項1ないし3のいずれかに記載のコミュニケーションロボット。
  5. 前記検出手段は前記人が検出されないとき前記カメラの方向を所定の角度だけ変位させるカメラ変位手段を含む、請求項1ないし4のいずれかに記載のコミュニケーションロボット。
  6. 胴体、および前記胴体上に首関節を介して取り付けられた頭部をさらに備え、
    前記動作表現手段は、前記首関節を制御して前記頭部の方向を変位させる頭部変位手段を含む、請求項ないし5のいずれかに記載のコミュニケーションロボット。
  7. 前記胴体上に肩関節を介して取り付けられた上腕、および前記上腕に肘関節を介して取り付けられた前腕をさらに備え、
    前記動作表現手段は、前記肩関節および前記肘関節の少なくとも一方を制御して前記上腕および前記前腕の少なくとも一方を変位させる腕変位手段を含む、請求項ないし6のいずれかに記載のコミュニケーションロボット。
JP2001171942A 2001-06-07 2001-06-07 コミュニケーションロボット Expired - Fee Related JP3745649B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001171942A JP3745649B2 (ja) 2001-06-07 2001-06-07 コミュニケーションロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001171942A JP3745649B2 (ja) 2001-06-07 2001-06-07 コミュニケーションロボット

Publications (2)

Publication Number Publication Date
JP2002361584A JP2002361584A (ja) 2002-12-18
JP3745649B2 true JP3745649B2 (ja) 2006-02-15

Family

ID=19013636

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001171942A Expired - Fee Related JP3745649B2 (ja) 2001-06-07 2001-06-07 コミュニケーションロボット

Country Status (1)

Country Link
JP (1) JP3745649B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004243427A (ja) * 2003-02-12 2004-09-02 Yaskawa Electric Corp ロボット制御装置およびロボット制御方法
WO2004082900A1 (ja) * 2003-03-23 2004-09-30 Sony Corporation ロボット装置及びその制御方法
JP3942586B2 (ja) * 2003-12-02 2007-07-11 株式会社国際電気通信基礎技術研究所 コミュニケーションロボット
KR100754385B1 (ko) * 2004-09-30 2007-08-31 삼성전자주식회사 오디오/비디오 센서를 이용한 위치 파악, 추적 및 분리장치와 그 방법
KR100799743B1 (ko) * 2006-09-19 2008-02-01 화천기공 주식회사 가사용 로봇
US8511964B2 (en) * 2009-09-22 2013-08-20 GM Global Technology Operations LLC Humanoid robot
CN106217391B (zh) * 2016-08-24 2018-07-24 广东众恒科技有限公司 一种多用途机器人
CN106346455A (zh) * 2016-11-18 2017-01-25 广东石油化工学院 一种仿真机器人

Also Published As

Publication number Publication date
JP2002361584A (ja) 2002-12-18

Similar Documents

Publication Publication Date Title
JP5033994B2 (ja) コミュニケーションロボット
JP4822319B2 (ja) コミュニケーションロボットおよびそれを用いた注意制御システム
JP4014044B2 (ja) コミュニケーションロボットおよびそれを用いたコミュニケーションシステム
JP5429462B2 (ja) コミュニケーションロボット
JP5732632B2 (ja) ロボットシステムおよびそれに用いる空間陣形認識装置
US6604021B2 (en) Communication robot
US7689319B2 (en) Communication robot control system
JP4849244B2 (ja) 移動ロボットおよび移動速度推定方法
US11338429B2 (en) Robot
JP2008126329A (ja) 音声認識ロボットおよび音声認識ロボットの制御方法
JPWO2007132571A1 (ja) ロボット
JP4131392B2 (ja) ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP2006272471A (ja) コミュニケーションロボット
JP2004216513A (ja) コミュニケーションロボット
JP6565853B2 (ja) コミュニケーション装置
JP3745649B2 (ja) コミュニケーションロボット
JP4399603B2 (ja) コミュニケーションロボット
JP4517086B2 (ja) コミュニケーションロボットシステムおよびロボット制御装置
JP2008018529A (ja) コミュニケーションロボット
JP3942599B2 (ja) コミュニケーションロボット
JP2007160427A (ja) ロボット制御システム
JP4617428B2 (ja) 動作生成システム
JP2002361585A (ja) コミュニケーションロボット
JP4793904B2 (ja) コミュニケーションロボットシステムおよびコミュニケーションロボット
JP2004034274A (ja) 会話ロボット及びその動作方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050329

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051117

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3745649

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091202

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091202

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101202

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111202

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121202

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121202

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131202

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees