JP2004042151A - Communication robot - Google Patents

Communication robot Download PDF

Info

Publication number
JP2004042151A
JP2004042151A JP2002199620A JP2002199620A JP2004042151A JP 2004042151 A JP2004042151 A JP 2004042151A JP 2002199620 A JP2002199620 A JP 2002199620A JP 2002199620 A JP2002199620 A JP 2002199620A JP 2004042151 A JP2004042151 A JP 2004042151A
Authority
JP
Japan
Prior art keywords
eyeball
head
axis
communication robot
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002199620A
Other languages
Japanese (ja)
Inventor
Takayuki Kanda
神田 崇行
Tomohiro Imai
今井 倫太
Tetsuo Ono
小野 哲雄
Hiroshi Ishiguro
石黒 浩
Kenji Mase
間瀬 健二
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2002199620A priority Critical patent/JP2004042151A/en
Publication of JP2004042151A publication Critical patent/JP2004042151A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a communication robot for allowing a person to communicate without feeling a sense of incompatibility. <P>SOLUTION: This communication robot 10 includes an eyeball part 76, and an eye camera 46 is arranged in the eyeball part 76. An object position such as the person and a specific object in an image acquired from the eye camera 46 is detected, and the eyeball part 76 is displaced so as to turn in the object direction. Thus, the communication robot 10 becomes a shape of adjusting a line of sight to the person or steadily gazing the object direction. The eyeball part 76 is displaced in relation to a movement of a head part 42 such as turning the line of sight in the head part 42-turning direction when a head part 42 moves. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【産業上の利用分野】
この発明はコミュニケーションロボットに関し、特にたとえば、コミュニケーションを図る機能を備えたものであって、人の目ないし眼球に相当する部分すなわち眼球部を備えるコミュニケーションロボットに関する。
【0002】
【従来の技術】
従来のロボットには、眼球部をたとえば左右に動かしたり回したりするなど、一定の意図を伝達するために眼球運動をさせるものがあった。
【0003】
【発明が解決しようとする課題】
しかしながら、従来技術では、単一の目的指向の眼球運動を機械的に行っているに過ぎず、生命感を創り出せなかった。したがって、コミュニケーションを図ろうとする人が違和感を覚えてしまって、コミュニケートしている感覚が阻害されてしまうおそれがあった。
【0004】
それゆえに、この発明の主たる目的は、違和感無くコミュニケーションを図ることができる、コミュニケーションロボットを提供することである。
【0005】
【課題を解決するための手段】
この発明は、コミュニケーションを図る機能を備えたコミュニケーションロボットであって、眼球部、対象とする物体を検出する物体検出手段、および物体の方向に向くように眼球部を変位させる眼球部変位手段を備える、コミュニケーションロボットである。
【0006】
【作用】
眼を表すものと外観上認められる眼球部がたとえば目に相当する位置に設けられる。対象とする物体は物体検出手段によって検出される。たとえば、コミュニケーションロボットの適宜な箇所にはカメラが設けられており、第1検出手段は、カメラから取得した画像に基づいて画像中の物体を検出し、たとえばその位置や方位等を算出する。物体としては、たとえば人の顔や特定の物等が設定され得る。また、コミュニケーションロボットの任意の箇所に複数のタッチセンサが設けられる場合には、第2検出手段は、たとえば人によって触れられることによってオン状態となったタッチセンサを物体として検出する。そして、眼球部は、検出された物体の方向に向くように眼球部変位手段によって変位される。つまり、人の顔,特定の物体あるいは触れられた箇所等の方向に視線が向けられる。したがって、コミュニケーションロボットは、たとえば人と対話する場合などに、人と視線を合わせたり、あるいは話題とする特定の物体方向や触れられた部分を注視したりする格好となる。
【0007】
また、頭部を含んで構成される場合には、眼球部はこの頭部に設けられる。頭部は、頭に相当する部分であるため、たとえば胴体に首関節を介して取り付けられ、頭部変位手段によって変位される。頭部は、たとえば頭部の正面側すなわち顔が物体の方向に向くように変位され得る。また、眼球部は、眼球部変位手段によって、頭部の動きに関連して変位され得る。具体的には、たとえば頭部の運動速度に比例する角度データが算出され、この角度データに基づいて眼球部が変位されることによって、頭部が向こうとする方向に視線が向けられる。このように、眼球部は頭部が動作しているときその動きに応じた自然な眼球運動をすることができる。
【0008】
【発明の効果】
この発明によれば、人と視線を合わせたり、物体方向を注視したりすることができる。つまり、自然な目の動きでコミュニケーションを図ることができる。さらに、眼球部は頭部の動きに関連した眼球運動をすることができる。したがって、人と同じような極自然な眼の動きを伴ったコミュニケーションとなるので、人は違和感を覚えることなくコミュニケーションロボットとコミュニケーションをすることができる。
【0009】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【0010】
【実施例】
図1は本発明の全体構成を示しており、同図を参照して、この実施例のコミュニケーションロボット(以下、単に「ロボット」ということがある。)10は、台車12を含み、この台車12の下面には、このロボット10を自律移動させる車輪14が設けられる。この車輪14は、車輪モータ(図4において参照番号「70」で示す。)によって駆動され、台車12すなわちロボット10を前後左右任意の方向に動かすことができる。なお、図示しないが、この台車12の前面には、衝突センサ(図4において、参照番号「74」で示す。)が取り付けられ、この衝突センサは、台車12への人や他の障害物の接触を検知する。そして、ロボット10の移動中に障害物との接触を検知すると、直ちに車輪14の駆動を停止してロボット10の移動を急停止させて衝突を未然に防ぐ。
【0011】
なお、ロボット10の背の高さは、この実施例では、人、特に子供に威圧感をあたえることがないように、100cm程度とされている。ただし、この背の高さは任意に変更可能である。
【0012】
台車12の上には、多角形柱のセンサ取付パネル16が設けられ、このセンサ取付パネル16の各面には、超音波距離センサ18が取り付けられる。この超音波距離センサ18は、取付パネル16すなわちロボット10の周囲の主として人との間の距離を計測するものである。
【0013】
台車12の上には、さらに、下部が上述の取付パネル16に囲まれて、ロボット10の胴体が直立するように取り付けられる。この胴体は下部胴体20と上部胴体22とから構成され、これら下部胴体20および上部胴体22は、連結部24によって、連結される。連結部24には、図示しないが、昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体22の高さすなわちロボット10の高さを変化させることができる。昇降機構は、後述のように、腰モータ(図4において参照番号「68」で示す。)によって駆動される。上で述べたロボット10の身長100cmは、上部胴体22をそれの最下位置にしたときの値である。したがって、ロボット10の身長は100cm以上にすることができる。
【0014】
上部胴体22のほぼ中央には、1つの全方位カメラ26と、1つのマイク28とが設けられる。全方位カメラ26は、ロボット10の周囲を撮影するもので、後述の眼カメラ46と区別される。マイク28は、周囲の音、とりわけ人の声を取り込む。
【0015】
上部胴体22の両肩には、それぞれ、肩関節30Rおよび30Lによって、上腕32Rおよび32Lが取り付けられる。肩関節30Rおよび30Lは、それぞれ3軸の自由度を有する。すなわち、肩関節30Rは、X軸,Y軸およびZ軸のそれぞれの軸廻りにおいて上腕32Rの角度を制御できる。Y軸は、上腕32Rの長手方向(または軸)に並行な軸であり、X軸およびZ軸は、そのY軸に、それぞれ異なる方向から直交する軸である。肩関節30Lは、A軸,B軸およびC軸のそれぞれの軸廻りにおいて上腕32Lの角度を制御できる。B軸は、上腕32Lの長手方向(または軸)に並行な軸であり、A軸およびC軸は、そのB軸に、それぞれ異なる方向から直交する軸である。
【0016】
上腕32Rおよび32Lのそれぞれの先端には、肘関節34Rおよび34Lを介して、前腕36Rおよび36Lが取り付けられる。肘関節34Rおよび34Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕36Rおよび36Lの角度を制御できる。
【0017】
なお、上腕32Rおよび32Lならびに前腕36Rおよび36L(いずれも図1)の変位を制御するX,Y,X,W軸およびA,B,C,D軸では、「0度」がホームポジションであり、このホームポジションでは、上腕32Rおよび32Lならびに前腕36Rおよび36Lは下方向に向けられる。
【0018】
また、図示しないが、上部胴体22の肩関節30Rおよび30Lを含む肩の部分や上述の上腕32Rおよび32Lならびに前腕36Rおよび36Lには、それぞれ、タッチセンサが設けられていて、これらのタッチセンサは、人がロボット10のこれらの部位に接触したかどうかを検知する。これらのタッチセンサも図4において参照番号72で包括的に示す。
【0019】
前腕36Rおよび36Lのそれぞれの先端には、手に相当する球体38Rおよび38Lがそれぞれ固定的に取り付けられる。なお、この球体38Rおよび38Lに代えて、この実施例のロボット10と異なり指の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。
【0020】
なお、ロボット10の形状・寸法等は適宜に設定されるが、他の実施例では、たとえば、上部胴体22は、前面,背面,右側面,左側面,上面および底面を含み、右側面および左側面は表面が斜め前方に向くように形成してもよい。つまり、前面の横幅が背面の横幅よりも短く、上部胴体22を上から見た形状が台形になるように形成されてもよい。このような場合、肩関節30Rおよび30Lは、右側面および左側面に、その表面が左右両側面とそれぞれ平行である左右の支持部を介して取り付けられる。そして、上腕32Rおよび上腕32Lの回動範囲は、これら左右側面または支持部の表面(取り付け面)によって規制され、上腕32Rおよび32Lは取り付け面を超えて回動することはない。しかし、左右側面の傾斜角,B軸とY軸との間隔,上腕32Rおよび32Lの長さ,ならびに前腕36Rおよび36Lの長さ等を適宜に設定すれば、上腕32Rおよび32Lは前方を越えてより内側まで回動できるので、たとえW軸およびD軸による腕の自由度がなくてもロボット10の腕は前方で交差できる。したがって、腕の自由度が少ない場合でも正面に位置する人と抱き合うなどの密接なコミュニケーションを図ることができる。
【0021】
上部胴体22の中央上方には、首関節40を介して、頭部42が取り付けられる。この首関節40は、3つの自由度を有し、S軸,T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上に向かう軸であり、T軸およびU軸は、それぞれ、このS軸に対して異なる方向で直交する軸である。頭部42には、人の口に相当する位置に、スピーカ44が設けられる。スピーカ44は、ロボット10が、それの周囲の人に対して音声または声によってコミュニケーションを図るために用いられる。ただし、スピーカ44は、ロボット10の他の部位たとえば胴体に設けられてもよい。
【0022】
また、頭部42には、目に相当する位置に眼球部76Rおよび76Lが設けられる。眼球部76Rおよび76Lは、それぞれ眼カメラ46Rおよび46Lを含む。なお、右の眼球部76Rおよび左の眼球部76Lをまとめて眼球部76といい、右の眼カメラ46Rおよび左の眼カメラ46Lをまとめて眼カメラ46ということもある。眼カメラ46は、ロボット10に接近した人の顔や他の部分ないし物体等を撮影してその映像信号を取り込む。
【0023】
なお、上述の全方位カメラ26および眼カメラ46のいずれも、たとえばCCDやCMOSのように個体撮像素子を用いるカメラであってよい。
【0024】
たとえば、眼カメラ46は眼球部76内に固定され、眼球部76は眼球支持部(図示せず)を介して頭部42内の所定位置に取り付けられる。眼球支持部は、2軸の自由度を有し、α軸およびβ軸(図2)の各軸廻りに角度制御可能である。α軸およびβ軸は頭部42に対して設定される軸であり、α軸は頭部42の上へ向かう方向の軸であり、β軸はα軸に直交しかつ頭部42の正面側(顔)が向く方向に直交する方向の軸である。この実施例では、頭部42がホームポジションにあるとき、α軸はS軸に平行し、β軸はU軸に平行するように設定されている。このような頭部42において、眼球支持部がα軸およびβ軸の各軸廻りに回転されることによって、眼球部76ないし眼カメラ46の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される(図3)。
【0025】
なお、眼カメラ46の変位を制御するα軸およびβ軸では、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、眼カメラ46のカメラ軸は頭部42の正面側(顔)が向く方向に向けられ、視線は正視状態となる。
【0026】
図1に示すロボット10の制御系の構成が図4のブロック図に示される。図4に示すように、このロボット10は、全体の制御のためにマイクロコンピュータまたはCPU50を含み、このCPU50には、バス52を通して、メモリ54,モータ制御ボード56,センサ入力/出力ボード58および音声入力/出力ボード60が接続される。
【0027】
メモリ54は、図示しないが、ROMやRAMを含み、ROMにはこのロボット10の制御プログラムが予め書き込まれているとともに、スピーカ44から発生すべき音声または声の音声データが格納されている。RAMは、一時記憶メモリとして用いられるとともに、ワーキングメモリとして利用され得る。
【0028】
モータ制御ボード56は、たとえばDSP(Digital Signal Processor)で構成され、各腕や頭部および眼球部等の各軸モータを制御する。すなわち、モータ制御ボード56は、CPU50からの制御データを受け、右肩関節30RのX,YおよびZ軸のそれぞれの角度を制御する3つのモータと右肘関節34Rの軸Wの角度を制御する1つのモータとの計4つのモータ(図4ではまとめて、「右腕モータ」として示す。)62の回転角度を調節する。また、モータ制御ボード56は、左肩関節30LのA,BおよびC軸のそれぞれの角度を制御する3つのモータと左肘関節34LのD軸の角度を制御する1つのモータとの計4つのモータ(図4ではまとめて、「左腕モータ」として示す。)64の回転角度を調節する。モータ制御ボード56は、また、頭部42のS,TおよびU軸のそれぞれの角度を制御する3つのモータ(図4ではまとめて、「頭部モータ」として示す。)66の回転角度を調節する。モータ制御ボード56は、また、腰モータ68、および車輪14を駆動する2つのモータ(図4ではまとめて、「車輪モータ」として示す。)70を制御する。
【0029】
さらに、モータ制御ボード56は、右眼球部76Rのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図4ではまとめて、「右眼球モータ」として示す。)78の回転角度を調節し、また、左眼球部76Lのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図4ではまとめて、「左眼球モータ」として示す。)80の回転角度を調節する。
【0030】
なお、この実施例の上述のモータは、車輪モータ70を除いて、制御を簡単化するためにそれぞれステッピングモータまたはパルスモータであるが、車輪モータ70と同様に、直流モータであってよい。
【0031】
センサ入力/出力ボード58も、同様に、DSPで構成され、各センサやカメラからの信号を取り込んでCPU50に与える。すなわち、超音波距離センサ18の各々からの反射時間に関するデータがこのセンサ入力/出力ボード58を通して、CPU50に入力される。また、全方位カメラ26からの映像信号が、必要に応じてこのセンサ入力/出力ボード58で所定の処理が施された後、CPU50に入力される。眼カメラ46からの映像信号も、同様にして、CPU50に与えられる。なお、この図4では、図1で説明したタッチセンサは、まとめて「タッチセンサ72」として表され、それらのタッチセンサ72からの信号がセンサ入力/出力ボード58を介して、CPU50に与えられる。
【0032】
スピーカ44には音声入力/出力ボード60を介して、CPU50から、合成音声データが与えられ、それに応じて、スピーカ44からはそのデータに従った音声または声が出力される。そして、マイク28からの音声入力が、音声入力/出力ボード60を介して、CPU50に取り込まれる。
【0033】
この実施例のロボット10は眼球部76を備えており、人や物など対象とする特定の物体の位置を検知してこの眼球部76をその物体の方向を向くように変位させる。さらに、このロボット10では頭部42の動きに関連した眼球運動が行われる。
【0034】
たとえば、このロボット10では、眼カメラ46から取得した画像中に人の顔がある場合には、対象物体としての人の顔の位置が検出され、その方向に眼球部76および眼カメラ46を向けるためのα軸およびβ軸の制御角度データが算出される。この角度データが右眼球モータ78および左眼球モータ80に与えられると、眼球部76および眼カメラ46が変位されて視線方向が人の顔方向に向く。したがって、このロボット10は人と視線を合わせることができ、人は違和感を覚えることなくコミュニケートできる。
【0035】
また、頭部42が動作しているとき、たとえば首関節を制御する軸(S軸およびU軸)廻りの運動速度等に基づいてα軸およびβ軸の制御角度データを算出して、このデータによって眼球支持部を制御することもある。この場合には、頭部42の動きに合った眼球部76の動きを表すことができ、人が違和感を覚えるのを防止できる。
【0036】
また、このロボット10では、人の顔だけでなく、眼カメラ46から取得した画像中の特定物の位置も検出して、その方向に視線を向けることができる。つまり、たとえば壁等に貼ってあるポスター等の紹介をするような場合、ポスター等の紹介物の位置を検出して、これに顔を向ける動作を挟みつつ紹介を行うというような自然な動作を行うこともできる。
【0037】
具体的には、このロボット10はたとえば図5および図6に示すフロー図に従って動作する。このフロー図では、壁に設置されたポスター紹介を行う場合の動作の一例が示されている。
【0038】
まず、ステップS1からS5において、初期設定が行われる。ステップS1では、CPU50は、頭部42を前方に向けるように、メモリ54から角度データを取り出してモータ制御ボード56に送る。つまり、S軸,T軸およびU軸の回転角度を制御するモータ(頭部モータ66)にそれぞれ角度「0」を与える。したがって、このステップS1では、頭部42が正面を向く。ステップS3では、CPU50は、眼球部76を正面に向けるように、メモリ54から角度データを取り出してモータ制御ボード56に送る。つまり、α軸およびβ軸の回転角度を制御するモータ(右眼球モータ78および左眼球モータ80)にそれぞれ角度「0」を与える。したがって、このステップS3では、眼球部76および眼カメラ46が正面を向き、視線が正面を向いた正視状態となる。ステップS5では、変数t1,t2およびt3に現在の時刻の値が設定される。なお、図示は省略しているが、変数cも初期設定として1より小さい値が設定される。
【0039】
続くステップS7で、CPU50は、眼カメラ46からの映像信号をセンサ入力/出力ボード58に取り込み、ステップS9では映像信号処理することによって、カメラ画像中に人の顔があればその位置を検出する。なお、人の顔の決定手法としては種々の方法が用いられ得るが、たとえば肌色部分を人の顔であると決めるようにしてもよい。また、たとえば、予めメモリ54に特定の人の顔または特徴等のデータを記憶しておき、このデータを参照することによってこの特定人物に対してだけ視線を合わせるようにしてもよい。
【0040】
ステップS11では、時刻t1から一定時間が経過し、かつ、人の顔が画像中にあるかどうかを判断する。ステップS11で“YES”であれば、ステップS15で、CPU50は、検出された人の顔の位置の方向に該当するα軸およびβ軸の角度データを算出し、この角度データをモータ制御ボード56に送る。右眼球モータ78および左眼球モータ80にはそれぞれ算出されたα軸およびβ軸の制御角度が与えられる。したがって、このステップS15では、視界に人がいれば、眼球部76が人の顔方向に向けられ、人とロボット10は視線を合わすことができる。
【0041】
続くステップS17では、変数t1に現在時刻が設定され、このステップS17の後はステップS25へ進む。このように、ステップS15の処理が実行されて人の顔方向に視線が向けられると、変数t1が現在の時刻に再設定されるので、その後一定時間が経過するまでは、このステップS15の処理は実行されない。
【0042】
一方、ステップS11で“NO”であれば、つまり、時刻t1から一定時間がまだ経過していない場合、または、画像中に人の顔がない場合には、CPU50は、ステップS13で、時刻t2から一定時間が経過し、かつ、頭部モータ66のうちS軸またはU軸の回転角度を調整するモータが動作中であるかどうかを判断する。
【0043】
ステップS13で“YES”であれば、ステップS19で、動作しているS軸およびU軸の運動速度VsおよびVuを検出し、この運動速度VsおよびVuに基づいてα軸およびβ軸の制御角度データを算出する。具体的には、α軸の回転角度はS軸の運動速度Vsに比例する値(aVs)に設定され、β軸の回転角度はU軸の運動速度Vuに比例する値(bVu)に設定される。ここで、aおよびbは定数であり、適宜に設定される。そして、この角度データをモータ制御ボード56に送って、α軸の回転角度を制御するモータに角度「aVs」を与え、β軸の回転角度を制御するモータに角度「bVu」を与える。すると、α軸およびβ軸はそれぞれS軸およびU軸に対応しているので、眼球部76は頭部42の移動方向すなわち頭部42の顔が向こうとする方向に向けられる。このようにして、頭部42を動かすときは、その移動する方向に視線が向けられ、頭の動きに応じた極自然な眼球運動を実現することができる。この実施例では、具体的には、後述するステップS35およびステップS39の処理によって頭部42が動作するときに、このような眼球運動が実現される。続くステップS21では、変数t2に現在時刻が設定され、このステップS21の後はステップS25へ進む。このように、変数t2が現在の時刻に再設定されるので、その後一定時間が経過するまでは、このステップS19の処理は実行されない。
【0044】
他方、ステップS13で“NO”であれば、つまり、時刻t2から一定時間が経過していない場合、または、S軸およびU軸の回転角度を調整するモータがいずれも動作中でない場合には、続くステップS23で、CPU50は、眼球部76を正面に向けるように、メモリ54から角度データを取り出してモータ制御ボード56に送る。つまり、α軸およびβ軸の回転角度を制御するモータ(右眼球モータ78および左眼球モータ80)にそれぞれ角度「0」を与える。したがって、このステップS23では、眼球部76および眼カメラ46が正面に向けられる。すなわち、たとえばステップS15やステップS19等で動かされた視線が正面に戻されることとなる。
【0045】
ステップS17,S21またはS23の処理を終えると、CPU50は、続くステップS25で、時刻t3から一定時間が経過したかどうかを判断する。ステップS25で“NO”であればステップS7に戻る。したがって、時刻t3から一定時間が経過するまでは、ステップS7からステップS25までの処理が繰り返し実行される。一方、ステップS25で“YES”であれば、図6のステップS27へ進む。
【0046】
ステップS27で、CPU50は変数cが1以上であるかどうかを判断する。ステップS27で“NO”であれば、つまり、変数cが1より小さければ、ステップS31へ進む。ステップS31では、CPU50は、眼カメラ46からの映像信号をセンサ入力/出力ボード58に取り込み、ステップS33では映像信号処理することによって、カメラ画像中から壁のポスターの位置を検出する。なお、ポスターの特徴等のデータは予めメモリ54に記憶しておき、このデータを参照することによってポスター位置を検出する。
【0047】
なお、この実施例ではロボット10の視界内にポスターが設置されている場合を想定しているが、ポスターがステップS31で取得した画像中にない場合は、たとえばステップS35およびS37の処理を飛ばして進むようにしたり、あるいは頭部42を動かして周囲を走査しポスターを発見するようにしたりしてもよい。
【0048】
ステップS35では、CPU50は、検出されたポスターの位置の方向に該当するS軸,T軸およびU軸の角度データを算出し、このデータをモータ制御ボード56に送る。したがって、ステップS35では、頭部42の正面側(顔)がポスターのある方向に向けられ、ロボット10はポスターを注視しているような格好となる。
【0049】
そして、ステップS37では、変数t3が現在時刻に設定され、また、変数cが1に設定される。このステップS37の後は、図5のステップS7に戻り、処理が繰り返される。このように、変数t3が現在の時刻に再設定されるので、その後一定時間が経過するまでは、ステップS27以降の処理は実行されない。また、変数cが1に設定されるので、次にステップS27が処理されるときは、“YES”と判断されてステップS29へ進むこととなる。
【0050】
一方、ステップS27で“YES”であれば、ステップS29で変数cが2以上であるかどうかを判断する。ステップS29で“NO”であれば、つまり、変数cが1以上2未満であれば、ステップS39へ進む。ステップS39では、CPU50は、頭部42を上にむけるように、メモリ54から角度データを取り出してモータ制御ボード56に送る。つまり、S軸およびT軸の回転角度を制御するモータにそれぞれ角度「0」与え、U軸の回転角度を制御するモータに角度「45」を与える。したがって、このステップS39では、ポスター方向に向けられていた頭部42が前方斜め上方向に向き直されて、仰ぎ見るような格好となる。なお、この格好は、たとえば人が予めロボット10の前方に誘導されているような場合等を想定した動作である。
【0051】
そして、ステップS41で、CPU50は、メモリ54から所定の音声データを取り出して音声入出力ボード60に送る。したがって、スピーカ44からたとえば「ポスター見てね」といった合成音声が出力される。このように、特定の物体に関係する合成音声を出力することで人と対話することができ、また、頭部12や眼球部76の動きの意味合を伝達することができる。
【0052】
このようにして、紹介の対象物であるポスターに対して顔を向ける動作(ステップS35)といった極自然な動作を挟みつつ、人と対話することができる。なお、近くに人がいない場合であっても、このような人を勧誘する動作や音声を発する動作等(ステップS39およびS41)によって人が近づいてくるのを期待できる。
【0053】
続くステップS43では、変数t3が再び現在時刻に設定され、また変数cが2に設定される。このステップS43の後は、図2のステップS7に戻り、処理が繰り返される。このように、変数t3が現在の時刻に再び設定されるので、その後一定時間が経過するまでは、ステップS27以降の処理は実行されない。また、変数cが2に設定されるので、次にステップS29を処理するときは、CPU50は“YES”と判断し、この頭部42および眼球部76の動作処理を終了する。なお、このような図5および図6の一連の動作処理はたとえば所定時間経過ごと等に繰り返し実行されてよいのは言うまでもない。
【0054】
この実施例によれば、人と対話する際などに、人と視線を合わせたり、話題にする特定の物体方向を注視したりすることができる。つまり、自然な目の動きでコミュニケーションを図ることができる。さらに、眼球部76は頭部42の動きに関連した眼球運動をすることができる。したがって、人や動物等と同じような極自然な眼の動きを伴ったコミュニケーションとなるので、人は違和感を覚えることなくロボット10とコミュニケーションをすることができる。
【0055】
なお、この発明の実施の形態は種々に変更して適用されてもよい。たとえば、上述の実施例では、ステップS35で頭部12を変位させてポスターに顔を向けるようにしているが、ポスターには眼球部76のみを向けるようにしてもよい。
【0056】
また、上述の各実施例では、ステップS39で、前方斜め上方のように所定方向に頭部42の顔を向けるようにしているが、たとえばステップS7,S9およびS35と同様な処理を実行することで、人の顔の位置を検出してその顔方向に頭部42の顔を向けるようにしてもよい。
【0057】
また、上述の各実施例では、ロボット10の視界内に人がいる場合等を想定しているが、たとえば、ステップS7を処理する前に、頭部42を動かして周囲を走査して人を発見するようにしてもよいし、あるいは周囲を見回しても人がいない場合等には、ステップS41と同様にして、予め合成音声等を発することで人を近くまたは視界内に呼び寄せるようにしてもよい。なお、人を呼び寄せるための行動としては、たとえば光を発するなど他の方法を適用してもよい。
【0058】
また、その他の実施例では、たとえば、人によって触られた場合に、オン状態のタッチセンサ72を検知して触られた箇所の位置を算出し、必要な角度データを必要なモータにそれぞれ与えて頭部42および眼球部76を適宜動かして、その方向に視線を向けるようにしてもよい。すなわち、オン状態のタッチセンサ72を物体として検出し、その物体の方向に向くように眼球部76および頭部12等の変位制御をするようにしてもよい。この場合にも、上述の各実施例と同様に、頭部42の動作に関連して眼球部76を動かすことができ、また、極自然な眼球運動を行うことができるので、人に違和感を覚えさせない。
【0059】
また、触れられた箇所に目を向けるにあたっては、たとえば、現在の目の位置と触れられた位置との関係から、頭部42と眼球部76とで動く距離(角度)を分担し、全体として触れられた位置の方向に視線を向けるように、頭部42および眼球部76を変位させるようにしてもよい。具体的には、触れられた箇所までの距離を算出し、たとえばその距離の半分までは頭部42を動かし、残りの半分は眼球部76を動かすようにする。このような眼球運動も頭部42の動きに関連した自然なものであり、人に違和感を生じさせない。
【0060】
なお、触れられた箇所に頭部42を向ける技術は、本願出願人による特許願2001−166018号に詳述されるので参照されたい。
【0061】
また、上述の各実施例では、左右の眼球部76の制御にあたって、左右それぞれの眼球モータに同じ角度データを与えて両目を揃えて動かすようにしているが、別個の角度データをそれぞれ算出して与えることにより左右の眼球部76を別々に動かすようにしてもよい。また、場合によっては、1つの眼球モータで左右の眼球部76を同時に動かすようにしてもよい。
【0062】
また、上述の各実施例では、人と同様に眼球部76を左右2つ設けるようにしているが、眼球部76は目に相当する部分であると外観上認識できるものであれば良く、したがって、眼球部76の数は任意であり適宜変更され得る。また、同様に、眼カメラ46の数も適宜変更され得る。
【0063】
また、上述の各実施例では、眼カメラ46からの画像を基に人やポスター等の物体の位置を検出しているが、可能であれば全方位カメラ26からの画像を用いて物体の位置を検出するようにしてもよい。
【0064】
また、上述の各実施例では、物体の位置を検出して眼球部76または頭部12の変位制御を行うようにしているが、たとえば、物体の方位を検出したり、画像の時間差分が生じた領域(移動していそうな物体が存在すると考えられる。)を検出したりすること等によって、物体を検出して、そこを向くように眼球部76または頭部12等の変位制御を行うようにしてもよい。
【0065】
また、上述の各実施例では、眼球部76は眼カメラ46を含んで構成されたが、場合によっては、眼カメラ46は頭部42の他の部分等の眼球部76以外の部分に設けられてもよい。この場合は、眼球部76はカメラがないため視覚器ではなくなり、見かけ上の眼を表す部分ないしダミーとなるが、眼球部76は目に相当する位置に設けられて、ロボット10の眼であると外観上認識されるように構成されているので、ロボット10とコミュニケートする人にとっては特には問題ないであろう。
【0066】
なお、上述の各実施例では、物体に目や顔を向けるのみであったが、場合によってはたとえば腕部分等を用いて物体方向を指すなどの動作を目の動きと組み合わせるようにしてもよい。つまり、右腕モータ62および左腕モータ64等の適宜な軸のモータに対して必要な角度データを与えることによって、たとえばポスター等の物体の方向を前腕の先端部(手)で指し示すような紹介動作等をさらに組み合わせて行うようにしてもよい。
【図面の簡単な説明】
【図1】この発明の一実施例の全体構成を示す正面図である。
【図2】図1実施例の頭部を拡大して示す正面図である。
【図3】図1実施例の眼球部の変位を示す正面図である。
【図4】図1実施例を示すブロック図である。
【図5】図1実施例における動作の一部を示すフロー図である。
【図6】図1実施例における動作の他の一部を示すフロー図である。
【符号の説明】
10 …コミュニケーションロボット
20 …下部胴体
22 …上部胴体
40 …首関節
42 …頭部
46,46R,46L …眼カメラ
50 …CPU
54 …メモリ
56 …モータ制御ボード
58 …センサ入出力ボード
60 …音声入出力ボード
66 …頭部モータ
76,76R,76L …眼球部
78 …右眼球モータ
80 …左眼球モータ
[0001]
[Industrial applications]
The present invention relates to a communication robot, and more particularly, to a communication robot having a function of communicating, for example, having a portion corresponding to human eyes or eyes, that is, an eyeball.
[0002]
[Prior art]
2. Description of the Related Art Some conventional robots perform eye movements to convey a certain intention, such as moving or rotating an eyeball part left and right, for example.
[0003]
[Problems to be solved by the invention]
However, in the prior art, only a single goal-directed eye movement is performed mechanically, and a sense of life cannot be created. Therefore, there is a fear that a person trying to communicate may feel uncomfortable and the feeling of communicating may be hindered.
[0004]
Therefore, a main object of the present invention is to provide a communication robot that can communicate without a sense of incongruity.
[0005]
[Means for Solving the Problems]
The present invention relates to a communication robot having a function of performing communication, comprising: an eyeball, an object detection unit for detecting a target object, and an eyeball unit displacement unit for displacing the eyeball so as to face the object. , A communication robot.
[0006]
[Action]
An eyeball portion that is visually recognized as representing the eye is provided, for example, at a position corresponding to the eye. The target object is detected by the object detection means. For example, a camera is provided at an appropriate position of the communication robot, and the first detection unit detects an object in the image based on the image acquired from the camera, and calculates, for example, a position and a direction thereof. As the object, for example, a human face, a specific object, or the like can be set. In addition, when a plurality of touch sensors are provided at arbitrary positions of the communication robot, the second detection unit detects, for example, a touch sensor that is turned on by being touched by a person as an object. Then, the eyeball is displaced by the eyeball displacing means so as to face the direction of the detected object. In other words, the line of sight is directed toward a person's face, a specific object, or a touched location. Therefore, for example, when interacting with a person, the communication robot looks like a line of sight with the person, or gazes at a specific object direction or a touched part of a topic.
[0007]
In the case of including the head, the eyeball is provided on the head. Since the head is a portion corresponding to the head, the head is attached to, for example, a torso via a neck joint, and is displaced by head displacing means. The head can be displaced, for example, such that the front side of the head, ie the face, faces the direction of the object. The eyeball can be displaced by the eyeball displacing means in relation to the movement of the head. Specifically, for example, angle data proportional to the movement speed of the head is calculated, and the eyeball is displaced based on the angle data, whereby the line of sight is directed in the direction in which the head is headed. In this way, the eyeball section can make a natural eyeball movement according to the movement of the head when the head is moving.
[0008]
【The invention's effect】
According to the present invention, it is possible to match a line of sight with a person or to gaze at an object direction. That is, communication can be achieved by natural eye movements. Further, the eyeball can perform eye movements related to the movement of the head. Therefore, since communication is performed with extremely natural eye movements similar to that of a person, the person can communicate with the communication robot without feeling uncomfortable.
[0009]
The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
[0010]
【Example】
FIG. 1 shows an overall configuration of the present invention. Referring to FIG. 1, a communication robot (hereinafter, may be simply referred to as a “robot”) 10 of this embodiment includes a bogie 12. Wheels 14 for autonomously moving the robot 10 are provided on the lower surface of the robot. The wheels 14 are driven by wheel motors (indicated by reference numeral “70” in FIG. 4), and can move the carriage 12, that is, the robot 10, in any direction in the front, rear, left, and right directions. Although not shown, a collision sensor (indicated by reference numeral “74” in FIG. 4) is mounted on the front surface of the cart 12, and the collision sensor is used to prevent a person or other obstacles from entering the cart 12. Detect contact. Then, when contact with an obstacle is detected while the robot 10 is moving, the driving of the wheels 14 is immediately stopped, and the movement of the robot 10 is suddenly stopped to prevent collision.
[0011]
In this embodiment, the height of the robot 10 is set to about 100 cm so as not to give a feeling of intimidation to a person, especially a child. However, this height can be arbitrarily changed.
[0012]
A polygonal column sensor mounting panel 16 is provided on the carriage 12, and an ultrasonic distance sensor 18 is mounted on each surface of the sensor mounting panel 16. The ultrasonic distance sensor 18 measures a distance between the mounting panel 16, that is, a person mainly around the robot 10.
[0013]
The lower part of the robot 12 is mounted on the carriage 12 so that the lower part is surrounded by the mounting panel 16 and the body of the robot 10 stands upright. The body includes a lower body 20 and an upper body 22, and the lower body 20 and the upper body 22 are connected by a connecting portion 24. Although not shown, the connecting portion 24 has a built-in elevating mechanism, and by using the elevating mechanism, the height of the upper body 22, that is, the height of the robot 10 can be changed. The lifting mechanism is driven by a waist motor (indicated by reference numeral “68” in FIG. 4) as described later. The height 100 cm of the robot 10 described above is a value when the upper body 22 is at the lowest position thereof. Therefore, the height of the robot 10 can be set to 100 cm or more.
[0014]
One omnidirectional camera 26 and one microphone 28 are provided substantially at the center of the upper body 22. The omnidirectional camera 26 captures an image around the robot 10 and is distinguished from an eye camera 46 described later. The microphone 28 captures ambient sounds, especially human voices.
[0015]
Upper arms 32R and 32L are attached to both shoulders of upper torso 22 by shoulder joints 30R and 30L, respectively. The shoulder joints 30R and 30L each have three degrees of freedom. That is, the shoulder joint 30R can control the angle of the upper arm 32R around each of the X axis, the Y axis, and the Z axis. The Y axis is an axis parallel to the longitudinal direction (or axis) of the upper arm 32R, and the X axis and the Z axis are axes orthogonal to the Y axis from different directions. The shoulder joint 30L can control the angle of the upper arm 32L around each of the A axis, the B axis, and the C axis. The B axis is an axis parallel to the longitudinal direction (or axis) of the upper arm 32L, and the A axis and the C axis are axes orthogonal to the B axis from different directions.
[0016]
Forearms 36R and 36L are attached to respective distal ends of the upper arms 32R and 32L via elbow joints 34R and 34L. The elbow joints 34R and 34L can control the angles of the forearms 36R and 36L around the W axis and the D axis, respectively.
[0017]
In the X, Y, X, W axes and the A, B, C, D axes for controlling the displacement of the upper arms 32R and 32L and the forearms 36R and 36L (FIG. 1), "0 degree" is the home position. In this home position, the upper arms 32R and 32L and the forearms 36R and 36L are directed downward.
[0018]
Further, although not shown, touch sensors are provided on the shoulder portion of the upper body 22 including the shoulder joints 30R and 30L, the upper arms 32R and 32L, and the forearms 36R and 36L, respectively, and these touch sensors are provided. , To detect whether a person has contacted these parts of the robot 10. These touch sensors are also indicated generally by reference numeral 72 in FIG.
[0019]
Balls 38R and 38L corresponding to the hands are fixedly attached to the tips of the forearms 36R and 36L, respectively. In place of the spheres 38R and 38L, when a function of a finger is required unlike the robot 10 of this embodiment, a "hand" shaped like a human hand can be used.
[0020]
Although the shape and dimensions of the robot 10 are appropriately set, in other embodiments, for example, the upper body 22 includes a front surface, a back surface, a right side surface, a left side surface, a top surface and a bottom surface, and a right side surface and a left side. The surface may be formed so that the surface faces diagonally forward. In other words, the upper body 22 may be formed to have a trapezoidal shape in which the width of the front surface is shorter than the width of the rear surface, and the shape of the upper body 22 viewed from above is trapezoidal. In such a case, the shoulder joints 30R and 30L are attached to the right side surface and the left side surface via left and right support parts whose surfaces are parallel to the left and right side surfaces, respectively. The rotation range of the upper arm 32R and the upper arm 32L is regulated by the left and right side surfaces or the surface (mounting surface) of the support portion, and the upper arms 32R and 32L do not rotate beyond the mounting surface. However, if the inclination angles of the left and right side surfaces, the interval between the B axis and the Y axis, the lengths of the upper arms 32R and 32L, and the lengths of the forearms 36R and 36L are appropriately set, the upper arms 32R and 32L can move beyond the front. Since the robot can be pivoted further inward, the arms of the robot 10 can intersect forward even if there is no freedom of the arms by the W axis and the D axis. Therefore, even when the degree of freedom of the arm is small, close communication such as hugging with a person located in front can be achieved.
[0021]
Above the center of the upper body 22, a head 42 is attached via a neck joint 40. The neck joint 40 has three degrees of freedom, and can be angle-controlled around each of the S axis, T axis, and U axis. The S-axis is an axis directly above the neck, and the T-axis and the U-axis are axes orthogonal to the S-axis in different directions. A speaker 44 is provided on the head 42 at a position corresponding to the mouth of a person. The speaker 44 is used by the robot 10 to communicate by voice or voice with people around it. However, the speaker 44 may be provided on another part of the robot 10, for example, on the body.
[0022]
Further, the head 42 is provided with eyeball portions 76R and 76L at positions corresponding to the eyes. The eyeball portions 76R and 76L include eye cameras 46R and 46L, respectively. Note that the right eyeball 76R and the left eyeball 76L are collectively referred to as the eyeball 76, and the right eye camera 46R and the left eye camera 46L are sometimes referred to as the eye camera 46. The eye camera 46 captures an image of a person's face and other parts or objects approaching the robot 10 and captures the video signal.
[0023]
Each of the omnidirectional camera 26 and the eye camera 46 may be a camera using a solid-state imaging device such as a CCD or a CMOS.
[0024]
For example, the eye camera 46 is fixed in the eyeball 76, and the eyeball 76 is attached to a predetermined position in the head 42 via an eyeball support (not shown). The eyeball support has two degrees of freedom, and can be angle-controlled around each of the α axis and the β axis (FIG. 2). The α axis and the β axis are axes set with respect to the head 42, the α axis is an axis in a direction going upward of the head 42, and the β axis is orthogonal to the α axis and is on the front side of the head 42. This is an axis in a direction orthogonal to the direction in which (face) faces. In this embodiment, when the head 42 is at the home position, the α axis is set to be parallel to the S axis, and the β axis is set to be parallel to the U axis. In such a head 42, the eyeball supporting portion is rotated around each of the α axis and the β axis, whereby the eyeball portion 76 or the tip (front) side of the eye camera 46 is displaced, and the camera axis, that is, the line of sight is changed. Moved (FIG. 3).
[0025]
In addition, in the α axis and the β axis for controlling the displacement of the eye camera 46, “0 degree” is the home position. In this home position, the camera axis of the eye camera 46 is, as shown in FIG. The front side (face) is turned in a direction to face, and the line of sight is in a normal vision state.
[0026]
The configuration of the control system of the robot 10 shown in FIG. 1 is shown in the block diagram of FIG. As shown in FIG. 4, the robot 10 includes a microcomputer or a CPU 50 for overall control. The CPU 50 is connected to a memory 54, a motor control board 56, a sensor input / output board 58, and an audio The input / output board 60 is connected.
[0027]
Although not shown, the memory 54 includes a ROM and a RAM. The ROM stores a control program of the robot 10 in advance and stores voice or voice data to be generated from the speaker 44. The RAM can be used as a temporary storage memory and also as a working memory.
[0028]
The motor control board 56 is composed of, for example, a DSP (Digital Signal Processor), and controls each axis motor of each arm, head, eyeball, and the like. That is, the motor control board 56 receives the control data from the CPU 50, and controls the three motors for controlling the respective angles of the X, Y and Z axes of the right shoulder joint 30R and the angle of the axis W of the right elbow joint 34R. The rotation angles of a total of four motors (one motor and a right motor) 62 in FIG. 4 are adjusted. The motor control board 56 has four motors, three motors for controlling the angles of the A, B and C axes of the left shoulder joint 30L and one motor for controlling the angle of the D axis of the left elbow joint 34L. (They are collectively shown as “left arm motor” in FIG. 4.) The rotation angle of 64 is adjusted. The motor control board 56 also adjusts the rotation angles of three motors (collectively shown in FIG. 4 as “head motors”) 66 that control the respective angles of the S, T and U axes of the head 42. I do. The motor control board 56 also controls a waist motor 68 and two motors 70 for driving the wheels 14 (collectively shown as “wheel motors” in FIG. 4).
[0029]
Further, the motor control board 56 adjusts the rotation angles of two motors (collectively shown as “right eyeball motor” in FIG. 4) 78 for controlling the respective angles of the α axis and the β axis of the right eyeball 76R. Further, the rotation angle of two motors (collectively shown as “left eyeball motor” in FIG. 4) 80 for controlling the respective angles of the α axis and the β axis of the left eyeball section 76L is adjusted.
[0030]
The above-described motors in this embodiment are stepping motors or pulse motors for simplifying the control except for the wheel motor 70, but may be DC motors like the wheel motor 70.
[0031]
Similarly, the sensor input / output board 58 is also configured by a DSP, and takes in signals from each sensor and camera and supplies them to the CPU 50. That is, data on the reflection time from each of the ultrasonic distance sensors 18 is input to the CPU 50 through the sensor input / output board 58. A video signal from the omnidirectional camera 26 is input to the CPU 50 after being subjected to predetermined processing by the sensor input / output board 58 as necessary. The video signal from the eye camera 46 is similarly supplied to the CPU 50. In FIG. 4, the touch sensors described in FIG. 1 are collectively represented as “touch sensors 72”, and signals from those touch sensors 72 are given to the CPU 50 via the sensor input / output board 58. .
[0032]
Synthesized voice data is supplied from the CPU 50 to the speaker 44 via the voice input / output board 60, and a voice or voice according to the data is output from the speaker 44 in response thereto. Then, the voice input from the microphone 28 is taken into the CPU 50 via the voice input / output board 60.
[0033]
The robot 10 of this embodiment includes an eyeball 76, detects the position of a specific target object such as a person or an object, and displaces the eyeball 76 so as to face the object. Further, in the robot 10, eye movement related to the movement of the head 42 is performed.
[0034]
For example, in the robot 10, when a human face is present in the image acquired from the eye camera 46, the position of the human face as the target object is detected, and the eyeball unit 76 and the eye camera 46 are turned in that direction. Control angle data of α-axis and β-axis are calculated. When the angle data is given to the right eyeball motor 78 and the left eyeball motor 80, the eyeball 76 and the eye camera 46 are displaced, and the line of sight is directed toward the face of the person. Therefore, the robot 10 can match the line of sight with the person, and the person can communicate without feeling uncomfortable.
[0035]
When the head 42 is operating, control angle data of the α-axis and β-axis are calculated based on, for example, the movement speed around the axes (S-axis and U-axis) for controlling the neck joint. In some cases, the eyeball support may be controlled. In this case, the movement of the eyeball portion 76 that matches the movement of the head 42 can be represented, and it is possible to prevent a person from feeling uncomfortable.
[0036]
In addition, the robot 10 can detect the position of a specific object in the image acquired from the eye camera 46 as well as the face of the person, and turn his or her gaze in that direction. That is, for example, when introducing a poster or the like affixed to a wall or the like, a natural operation such as detecting the position of a referral such as a poster and performing an introduction while interposing an operation of turning a face toward this is introduced. You can do it too.
[0037]
Specifically, this robot 10 operates according to the flowcharts shown in FIGS. 5 and 6, for example. This flowchart shows an example of the operation when introducing a poster installed on a wall.
[0038]
First, in steps S1 to S5, initialization is performed. In step S1, the CPU 50 extracts angle data from the memory 54 and sends it to the motor control board 56 so that the head 42 is directed forward. That is, an angle “0” is given to each of the motors (the head motor 66) that control the rotation angles of the S axis, the T axis, and the U axis. Therefore, in this step S1, the head 42 faces the front. In step S <b> 3, the CPU 50 extracts the angle data from the memory 54 and sends it to the motor control board 56 so that the eyeball unit 76 faces the front. That is, the angle “0” is given to the motors (the right eyeball motor 78 and the left eyeball motor 80) that control the rotation angles of the α axis and the β axis. Therefore, in this step S3, the eyeball unit 76 and the eye camera 46 face the front, and a normal vision state in which the line of sight faces the front. In step S5, the value of the current time is set in the variables t1, t2, and t3. Although not shown, the variable c is set to a value smaller than 1 as an initial setting.
[0039]
In the following step S7, the CPU 50 captures the video signal from the eye camera 46 into the sensor input / output board 58, and in step S9, processes the video signal to detect the position of a human face in the camera image, if any. . Various methods can be used as a method for determining a human face. For example, a skin color portion may be determined to be a human face. Further, for example, data such as a specific person's face or characteristics may be stored in the memory 54 in advance, and the line of sight may be adjusted only to the specific person by referring to the data.
[0040]
In step S11, it is determined whether a predetermined time has elapsed from time t1 and whether a human face is present in the image. If “YES” in the step S11, in a step S15, the CPU 50 calculates the angle data of the α axis and the β axis corresponding to the detected direction of the face of the person, and transmits the angle data to the motor control board 56. Send to The calculated α-axis and β-axis control angles are given to the right eyeball motor 78 and the left eyeball motor 80, respectively. Therefore, in step S15, if there is a person in the field of view, the eyeball 76 is turned toward the face of the person, and the person and the robot 10 can match their eyes.
[0041]
In the following step S17, the current time is set in the variable t1, and after this step S17, the process proceeds to step S25. As described above, when the processing in step S15 is performed and the line of sight is turned toward the face of the person, the variable t1 is reset to the current time. Therefore, the processing in step S15 is performed until a certain time has elapsed thereafter. Is not executed.
[0042]
On the other hand, if “NO” in the step S11, that is, if the fixed time has not yet elapsed from the time t1, or if there is no human face in the image, the CPU 50 determines in the step S13 that the time t2 It is determined whether or not a predetermined time has passed since and the motor for adjusting the rotation angle of the S-axis or the U-axis of the head motor 66 is operating.
[0043]
If “YES” in the step S13, the moving speeds Vs and Vu of the operating S axis and the U axis are detected in a step S19, and the control angles of the α axis and the β axis are determined based on the moving speeds Vs and Vu. Calculate the data. Specifically, the rotation angle of the α-axis is set to a value (aVs) proportional to the movement speed Vs of the S-axis, and the rotation angle of the β-axis is set to a value (bVu) proportional to the movement speed Vu of the U-axis. You. Here, a and b are constants and are set as appropriate. Then, the angle data is sent to the motor control board 56, and the angle “aVs” is given to the motor controlling the α-axis rotation angle, and the angle “bVu” is given to the motor controlling the β-axis rotation angle. Then, since the α-axis and the β-axis correspond to the S-axis and the U-axis, respectively, the eyeball 76 is directed in the moving direction of the head 42, that is, the direction in which the face of the head 42 faces. In this way, when the head 42 is moved, the line of sight is directed in the direction in which the head 42 is moved, and an extremely natural eye movement according to the head movement can be realized. In this embodiment, specifically, such eye movements are realized when the head 42 operates by the processing of steps S35 and S39 described later. In the following step S21, the current time is set in the variable t2, and after this step S21, the process proceeds to step S25. As described above, since the variable t2 is reset to the current time, the process of step S19 is not performed until a certain time has elapsed thereafter.
[0044]
On the other hand, if “NO” in the step S13, that is, if the fixed time has not elapsed from the time t2, or if the motor for adjusting the rotation angles of the S axis and the U axis is not operating, In a succeeding step S23, the CPU 50 takes out the angle data from the memory 54 and sends it to the motor control board 56 so that the eyeball portion 76 faces the front. That is, the angle “0” is given to the motors (the right eyeball motor 78 and the left eyeball motor 80) that control the rotation angles of the α axis and the β axis. Therefore, in this step S23, the eyeball section 76 and the eye camera 46 are turned to the front. That is, for example, the line of sight moved in step S15 or step S19 is returned to the front.
[0045]
After finishing the processing in step S17, S21 or S23, the CPU 50 determines in a succeeding step S25 whether a predetermined time has elapsed from the time t3. If “NO” in the step S25, the process returns to the step S7. Therefore, the processing from step S7 to step S25 is repeatedly performed until a certain time has elapsed from time t3. On the other hand, if “YES” in the step S25, the process proceeds to a step S27 in FIG.
[0046]
In step S27, the CPU 50 determines whether or not the variable c is 1 or more. If “NO” in the step S27, that is, if the variable c is smaller than 1, the process proceeds to a step S31. In step S31, the CPU 50 captures the video signal from the eye camera 46 into the sensor input / output board 58, and in step S33 performs the video signal processing to detect the position of the poster on the wall from the camera image. Note that data such as the characteristics of the poster is stored in the memory 54 in advance, and the poster position is detected by referring to this data.
[0047]
In this embodiment, it is assumed that a poster is set within the field of view of the robot 10, but if the poster is not in the image acquired in step S31, for example, the processing of steps S35 and S37 is skipped. The user may move on, or the head 42 may be moved to scan the surroundings to find the poster.
[0048]
In step S35, the CPU 50 calculates S-axis, T-axis, and U-axis angle data corresponding to the direction of the detected poster position, and sends the data to the motor control board 56. Therefore, in step S35, the front side (face) of the head 42 is turned in the direction in which the poster is located, and the robot 10 looks like watching the poster.
[0049]
Then, in step S37, the variable t3 is set to the current time, and the variable c is set to 1. After step S37, the process returns to step S7 in FIG. 5, and the process is repeated. As described above, since the variable t3 is reset to the current time, the processing after step S27 is not executed until a certain time has elapsed thereafter. Further, since the variable c is set to 1, when the next step S27 is processed, “YES” is determined and the process proceeds to step S29.
[0050]
On the other hand, if “YES” in the step S27, it is determined whether or not the variable c is 2 or more in a step S29. If “NO” in the step S29, that is, if the variable c is 1 or more and less than 2, the process proceeds to a step S39. In step S39, the CPU 50 takes out the angle data from the memory 54 and sends it to the motor control board 56 so that the head 42 faces upward. That is, an angle “0” is given to each of the motors controlling the rotation angles of the S-axis and the T-axis, and an angle “45” is given to the motor controlling the rotation angles of the U-axis. Therefore, in this step S39, the head 42 that has been turned in the poster direction is turned forward and obliquely upward, and looks like looking up. Note that this appearance is an operation assuming, for example, a case where a person is guided in front of the robot 10 in advance.
[0051]
Then, in a step S41, the CPU 50 extracts predetermined audio data from the memory 54 and sends it to the audio input / output board 60. Therefore, a synthesized voice such as “Look at the poster” is output from the speaker 44. In this way, by outputting a synthesized voice related to a specific object, it is possible to interact with a person and to convey the meaning of the movement of the head 12 and the eyeball 76.
[0052]
In this way, it is possible to talk with a person while sandwiching an extremely natural operation such as an operation of turning the face to the poster to be introduced (step S35). It should be noted that even when there is no nearby person, it can be expected that the person comes closer by such an operation to invite a person or an operation to emit a voice (steps S39 and S41).
[0053]
In a succeeding step S43, the variable t3 is set to the current time again, and the variable c is set to 2. After step S43, the process returns to step S7 of FIG. 2, and the process is repeated. As described above, since the variable t3 is set to the current time again, the processes after step S27 are not executed until a certain time has elapsed thereafter. In addition, since the variable c is set to 2, the CPU 50 determines “YES” when processing the next step S29, and ends the operation processing of the head 42 and the eyeball section 76. It is needless to say that such a series of operation processes in FIGS. 5 and 6 may be repeatedly executed, for example, every predetermined time.
[0054]
According to this embodiment, when interacting with a person or the like, it is possible to match the line of sight with the person or gaze at a specific object direction to be talked about. That is, communication can be achieved by natural eye movements. Further, the eyeball portion 76 can perform eyeball movement related to the movement of the head portion 42. Therefore, since communication is performed with extremely natural eye movements similar to those of humans and animals, humans can communicate with the robot 10 without feeling uncomfortable.
[0055]
The embodiments of the present invention may be applied with various changes. For example, in the above-described embodiment, the head 12 is displaced in step S35 so that the face is turned to the poster. However, only the eyeball 76 may be turned to the poster.
[0056]
Further, in each of the above-described embodiments, the face of the head 42 is directed in a predetermined direction such as obliquely upward and forward in step S39. However, for example, processing similar to steps S7, S9, and S35 may be performed. Then, the position of the human face may be detected, and the face of the head 42 may be turned in the direction of the face.
[0057]
In each of the above-described embodiments, it is assumed that there is a person in the field of view of the robot 10. For example, before processing step S7, the user moves the head 42 to scan the surroundings to detect the person. If it is possible to find the person, or if there is no person even looking around, for example, as in step S41, a synthetic voice or the like may be issued in advance to bring the person closer or into the field of view. Good. In addition, as a behavior for calling a person, other methods such as emitting light may be applied.
[0058]
Further, in another embodiment, for example, when touched by a person, the touch sensor 72 in the ON state is detected to calculate the position of the touched point, and the necessary angle data is given to the necessary motors. The head 42 and the eyeball section 76 may be appropriately moved so as to direct the line of sight in that direction. That is, the on state touch sensor 72 may be detected as an object, and the displacement of the eyeball 76 and the head 12 may be controlled so as to face the direction of the object. Also in this case, similarly to the above-described embodiments, the eyeball portion 76 can be moved in association with the movement of the head 42, and an extremely natural eyeball movement can be performed. I don't remember.
[0059]
Further, when turning to the touched portion, for example, the distance (angle) that the head 42 and the eyeball portion 76 move is shared based on the relationship between the current eye position and the touched position. The head 42 and the eyeball 76 may be displaced so as to direct the line of sight to the direction of the touched position. Specifically, the distance to the touched portion is calculated, and the head 42 is moved to half the distance, for example, and the eyeball 76 is moved to the other half. Such eye movements are also natural related to the movement of the head 42 and do not cause any discomfort to humans.
[0060]
The technique for turning the head 42 to the touched location is described in detail in Japanese Patent Application No. 2001-166018 filed by the present applicant.
[0061]
Further, in each of the above-described embodiments, in controlling the left and right eyeball units 76, the same angle data is given to the left and right eyeball motors so that both eyes are aligned and moved, but separate angle data is calculated respectively. The left and right eyeball portions 76 may be moved separately by giving the information. In some cases, the left and right eyeball portions 76 may be simultaneously moved by one eyeball motor.
[0062]
Further, in each of the above-described embodiments, two eyeballs 76 are provided on the left and right as in the case of a person. However, the eyeballs 76 only need to be visually recognizable as parts corresponding to the eyes. The number of the eyeball portions 76 is arbitrary and can be changed as appropriate. Similarly, the number of eye cameras 46 may be changed as appropriate.
[0063]
In each of the above-described embodiments, the position of an object such as a person or a poster is detected based on the image from the eye camera 46. However, if possible, the position of the object is detected using the image from the omnidirectional camera 26. May be detected.
[0064]
In each of the above-described embodiments, the position of the object is detected to control the displacement of the eyeball 76 or the head 12. However, for example, the direction of the object is detected, or a time difference of the image is generated. By detecting an object (e.g., an object that is likely to move) that is likely to move, an object is detected, and the displacement of the eyeball 76 or the head 12 is controlled so as to face the object. It may be.
[0065]
Further, in each of the above-described embodiments, the eyeball portion 76 is configured to include the eye camera 46. However, in some cases, the eyeball camera 46 is provided in a portion other than the eyeball portion 76 such as another portion of the head 42. You may. In this case, the eyeball 76 is not a visual organ because there is no camera, and becomes a part or dummy representing an apparent eye. However, the eyeball 76 is provided at a position corresponding to the eye and is the eye of the robot 10. Since it is configured to be visually recognized as such, there will be no particular problem for a person communicating with the robot 10.
[0066]
In each of the above-described embodiments, the eyes and face are merely turned to the object. However, in some cases, an operation such as pointing in the direction of the object using an arm portion or the like may be combined with an eye movement. . That is, by giving necessary angle data to motors of appropriate axes such as the right arm motor 62 and the left arm motor 64, for example, an introduction operation such as pointing the direction of an object such as a poster with the tip (hand) of the forearm. May be further combined.
[Brief description of the drawings]
FIG. 1 is a front view showing an entire configuration of an embodiment of the present invention.
FIG. 2 is an enlarged front view showing the head of the embodiment of FIG. 1;
FIG. 3 is a front view showing the displacement of the eyeball unit of the embodiment in FIG. 1;
FIG. 4 is a block diagram showing the embodiment of FIG. 1;
FIG. 5 is a flowchart showing a part of the operation in the embodiment in FIG. 1;
FIG. 6 is a flowchart showing another portion of the operation in the embodiment in FIG. 1;
[Explanation of symbols]
10. Communication robot
20 ... lower body
22 ... upper torso
40 ... neck joint
42 ... head
46, 46R, 46L ... eye camera
50 ... CPU
54… Memory
56… Motor control board
58… Sensor input / output board
60: Voice input / output board
66… Head motor
76, 76R, 76L ... Eyeball
78… Right eyeball motor
80… Left eyeball motor

Claims (7)

コミュニケーションを図る機能を備えたコミュニケーションロボットであって、
眼球部、
対象とする物体を検出する物体検出手段、および
前記物体の方向に向くように前記眼球部を変位させる眼球部変位手段を備える、コミュニケーションロボット。
A communication robot with a function to communicate,
Eyeball,
A communication robot comprising: object detection means for detecting a target object; and eyeball displacement means for displacing the eyeball so as to face the object.
胴体、前記胴体に首関節を介して取り付けられるかつ前記眼球部が設けられる頭部、および前記首関節を制御して前記頭部を変位させる頭部変位手段をさらに備え、
前記眼球部変位手段は前記頭部の動きに関連して前記眼球部を変位させる、請求項1記載のコミュニケーションロボット。
A torso, a head attached to the torso via a neck joint, and a head provided with the eyeball portion, and further comprising head displacement means for controlling the neck joint to displace the head;
The communication robot according to claim 1, wherein the eyeball displacing unit displaces the eyeball in association with the movement of the head.
前記眼球部変位手段は前記頭部の運動速度に比例する角度データに基づいて前記眼球部を変位させる、請求項2記載のコミュニケーションロボット。The communication robot according to claim 2, wherein the eyeball displacing unit displaces the eyeball based on angle data proportional to the movement speed of the head. 前記頭部変位手段は、前記頭部の正面側が前記物体の方向に向くように前記頭部を変位させる、請求項2または3記載のコミュニケーションロボット。The communication robot according to claim 2, wherein the head displacing unit displaces the head such that a front side of the head is directed toward the object. 前記物体は人の顔を含む、請求項1ないし4のいずれかに記載のコミュニケーションロボット。The communication robot according to claim 1, wherein the object includes a human face. 前記物体検出手段はカメラから得られる画像に基づいて前記物体を検出する第1検出手段を含む、請求項1ないし5のいずれかに記載のコミュニケーションロボット。The communication robot according to claim 1, wherein the object detection unit includes a first detection unit that detects the object based on an image obtained from a camera. 前記物体検出手段は、前記コミュニケーションロボットの任意の箇所に設けられる複数のタッチセンサのうちオン状態の前記タッチセンサを前記物体として検出する第2検出手段を含む、請求項1ないし6のいずれかに記載のコミュニケーションロボット。7. The object detection device according to claim 1, wherein the object detection unit includes a second detection unit that detects the on-state touch sensor among the plurality of touch sensors provided at an arbitrary position of the communication robot as the object. 8. Communication robot described.
JP2002199620A 2002-07-09 2002-07-09 Communication robot Pending JP2004042151A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002199620A JP2004042151A (en) 2002-07-09 2002-07-09 Communication robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002199620A JP2004042151A (en) 2002-07-09 2002-07-09 Communication robot

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007223709A Division JP4565196B2 (en) 2007-08-30 2007-08-30 Communication robot

Publications (1)

Publication Number Publication Date
JP2004042151A true JP2004042151A (en) 2004-02-12

Family

ID=31706704

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002199620A Pending JP2004042151A (en) 2002-07-09 2002-07-09 Communication robot

Country Status (1)

Country Link
JP (1) JP2004042151A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005254433A (en) * 2004-03-15 2005-09-22 Fuji Photo Film Co Ltd Personal robot and personal robot control program
JP2005279897A (en) * 2004-03-30 2005-10-13 Advanced Telecommunication Research Institute International Robot system
JP2005279896A (en) * 2004-03-30 2005-10-13 Advanced Telecommunication Research Institute International Robot
JP2006035381A (en) * 2004-07-28 2006-02-09 Honda Motor Co Ltd Control equipment for mobile robot
JP2006123101A (en) * 2004-10-29 2006-05-18 Advanced Telecommunication Research Institute International Eyeball control device, eyeball control method and eyeball control program
JP2006123102A (en) * 2004-10-29 2006-05-18 Advanced Telecommunication Research Institute International Eyeball control device, eyeball control method and eyeball control program
JP2006192562A (en) * 2004-12-14 2006-07-27 Honda Motor Co Ltd Autonomous mobile robot
JP2007050461A (en) * 2005-08-17 2007-03-01 Nec Corp Robot control system, robot device, and robot control method
JP2011115897A (en) * 2009-12-03 2011-06-16 Honda Motor Co Ltd Robot
JP2017204231A (en) * 2016-05-13 2017-11-16 富士通株式会社 Information processor, information processing method, and information processing program
US9919429B2 (en) 2013-09-27 2018-03-20 Nec Corporation Robot, control method, and program
JP2019101492A (en) * 2017-11-28 2019-06-24 トヨタ自動車株式会社 Communication apparatus
US10576633B2 (en) 2016-09-29 2020-03-03 Toyota Jidosha Kabushiki Kaisha Communication device

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005254433A (en) * 2004-03-15 2005-09-22 Fuji Photo Film Co Ltd Personal robot and personal robot control program
JP2005279897A (en) * 2004-03-30 2005-10-13 Advanced Telecommunication Research Institute International Robot system
JP2005279896A (en) * 2004-03-30 2005-10-13 Advanced Telecommunication Research Institute International Robot
JP2006035381A (en) * 2004-07-28 2006-02-09 Honda Motor Co Ltd Control equipment for mobile robot
JP2006123101A (en) * 2004-10-29 2006-05-18 Advanced Telecommunication Research Institute International Eyeball control device, eyeball control method and eyeball control program
JP2006123102A (en) * 2004-10-29 2006-05-18 Advanced Telecommunication Research Institute International Eyeball control device, eyeball control method and eyeball control program
JP4564447B2 (en) * 2004-12-14 2010-10-20 本田技研工業株式会社 Autonomous mobile robot
JP2006192562A (en) * 2004-12-14 2006-07-27 Honda Motor Co Ltd Autonomous mobile robot
US7933684B2 (en) 2004-12-14 2011-04-26 Honda Motor Co., Ltd. Autonomous mobile robot
JP2007050461A (en) * 2005-08-17 2007-03-01 Nec Corp Robot control system, robot device, and robot control method
JP2011115897A (en) * 2009-12-03 2011-06-16 Honda Motor Co Ltd Robot
US9919429B2 (en) 2013-09-27 2018-03-20 Nec Corporation Robot, control method, and program
JP2017204231A (en) * 2016-05-13 2017-11-16 富士通株式会社 Information processor, information processing method, and information processing program
US10576633B2 (en) 2016-09-29 2020-03-03 Toyota Jidosha Kabushiki Kaisha Communication device
JP2019101492A (en) * 2017-11-28 2019-06-24 トヨタ自動車株式会社 Communication apparatus
US11188811B2 (en) 2017-11-28 2021-11-30 TOYOTA JIDOSHA KABUSHtKI KAISHA Communication apparatus

Similar Documents

Publication Publication Date Title
JP4565196B2 (en) Communication robot
JP5186723B2 (en) Communication robot system and communication robot gaze control method
Li et al. Human cooperative wheelchair with brain–machine interaction based on shared control strategy
JP4849244B2 (en) Mobile robot and moving speed estimation method
JP5120745B2 (en) Communication robot
US8419545B2 (en) Method and system for controlling movements of objects in a videogame
JP2004042151A (en) Communication robot
JP4949969B2 (en) Communication robot and its operation method
US20020198626A1 (en) Communication robot
EP2243525A2 (en) Method and system for creating a shared game space for a networked game
JP4239635B2 (en) Robot device, operation control method thereof, and program
JP2012161851A (en) Robot system and space formation recognizing device used in the same
JP2006272471A (en) Communication robot
JP2023015061A (en) program
JP4617428B2 (en) Motion generation system
JP2007130691A (en) Communication robot
JP4798581B2 (en) Robot system
Li et al. An egocentric computer vision based co-robot wheelchair
Vogel et al. Flexible, semi-autonomous grasping for assistive robotics
JP3989698B2 (en) Communication robot
JP4517085B2 (en) Robot remote control system
JP2004227276A (en) Human communication behavior recording system and method
Kanajar et al. Neptune: assistive robotic system for children with motor impairments
US11518036B2 (en) Service providing system, service providing method and management apparatus for service providing system
JP5948359B2 (en) Robot and robot control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040604

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050712

A131 Notification of reasons for refusal

Effective date: 20050719

Free format text: JAPANESE INTERMEDIATE CODE: A131

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050920

A02 Decision of refusal

Effective date: 20060228

Free format text: JAPANESE INTERMEDIATE CODE: A02

A521 Written amendment

Effective date: 20060425

Free format text: JAPANESE INTERMEDIATE CODE: A523

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Effective date: 20060428

Free format text: JAPANESE INTERMEDIATE CODE: A911

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20060609

A521 Written amendment

Effective date: 20070831

Free format text: JAPANESE INTERMEDIATE CODE: A523