JP2007181888A - コミュニケーションロボットシステム - Google Patents

コミュニケーションロボットシステム Download PDF

Info

Publication number
JP2007181888A
JP2007181888A JP2006000863A JP2006000863A JP2007181888A JP 2007181888 A JP2007181888 A JP 2007181888A JP 2006000863 A JP2006000863 A JP 2006000863A JP 2006000863 A JP2006000863 A JP 2006000863A JP 2007181888 A JP2007181888 A JP 2007181888A
Authority
JP
Japan
Prior art keywords
sight
line
human
robot
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006000863A
Other languages
English (en)
Other versions
JP5186723B2 (ja
Inventor
Yuichiro Yoshikawa
雄一郎 吉川
Kazuhiko Shinosawa
一彦 篠沢
Noriaki Mitsunaga
法明 光永
Hiroshi Ishiguro
浩 石黒
Keiko Miyashita
敬宏 宮下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2006000863A priority Critical patent/JP5186723B2/ja
Publication of JP2007181888A publication Critical patent/JP2007181888A/ja
Application granted granted Critical
Publication of JP5186723B2 publication Critical patent/JP5186723B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【構成】コミュニケーションロボットシステム200は人の視線を検出する視線計測装置14を含む。コミュニケーションロボット10は人の視線に応じてその視線を動かす。たとえば、人に見られているとき当該人の目を見詰め返し、人に見られていないとき当該人と同じ方向に目を向ける。なお、ロボット10はたとえば人の眼に照射された赤外線の角膜反射像を赤外線カメラ74で検出し当該人の眼の位置を検出する。または、人に見られているとき当該人の眼の位置から視線をそらし、人に見られていないとき当該人の眼を盗み見する。あるいは、見詰め合っている時間が閾値を超えたとき人の眼から視線をそらし、見詰め合っている時間が閾値未満のとき人の眼を見詰め返したり人の視線を追ったりする。
【効果】人と視線のやりとりを行うことができ、人の眼を見ていることや見ていないことを人に強く実感させることができる。
【選択図】図3

Description

この発明はコミュニケーションロボットシステムに関し、特にたとえば、人間の視線を検出するコミュニケーションロボットシステムに関する。
たとえば本件出願人による特許文献1には、カメラ画像に基づいて検出した物体の位置を注視するコミュニケーションロボットが開示される。この技術では、物体として特に人の顔を検出することによって、人の顔に眼を向けることができる。そして、検出した顔の位置に眼を向けることによって、その人の顔を注視したり、その人と視線を合わせることを表現したりしていた。
特開2004−42151号公報
しかし、従来技術では、人の視線を検出することができないので、その人がどこを見ているのかを把握することができなかった。したがって、人の視線に応じて視線を変えるなど、人と視線をやりとりすることが困難であった。また、人の眼の位置を正確に検出することができないので、その人の眼を注視することが困難であった。したがって、ロボットから眼を見詰められ、あるいは見られていないことを人に実感させることが困難であった。
それゆえに、この発明の主たる目的は、人と視線をやりとりすることができる、コミュニケーションロボットシステムを提供することである。
この発明の他の目的は、見られていることや見られていないことを人に強く実感させることができる、コミュニケーションロボットシステムを提供することである。
請求項1の発明は、人の視線を検出する視線検出手段、および視線検出手段によって検出された人の視線に応じて視線を動かす視線制御手段を備える、コミュニケーションロボットシステムである。
請求項1の発明では、コミュニケーションロボットシステムは、視線検出手段によって人の視線を検出する。視線検出手段は、たとえば、人に装着される視線計測装置であり、当該人の眼球運動および視野画像の計測によって当該人の視線ないし注視点を検出する。視線制御手段は、検出された人の視線に応じてコミュニケーションロボットの視線を動かす。たとえば、人に見られているとき当該人の目を見詰め返したり、人に見られていないとき人の視線を追ったりするように、視線が制御される。または、人に見られているとき当該人の目から目をそらしたり、人に見られていないとき当該人の目を盗み見したりするように、視線が制御されてよい。あるいは、見詰め合っている時間が所定値を超えた場合見詰め合うのを止めたり、見詰め合っている時間が所定値よりも小さい場合人の目を見詰め返したり人の視線を追ったりするように、視線が制御されてもよい。なお、コミュニケーションロボットが変位可能な眼球部を備える場合、視線制御手段は眼球部を変位させることによって視線を制御する。また、コミュニケーションロボットが眼の設けられた変位可能な頭部を備える場合には、視線制御手段は頭部を変位させることによって視線を制御してもよい。あるいは、眼球部および頭部の両方を変位させるようにしてもよい。
請求項1の発明によれば、検出した人の視線に応じて視線が制御されるので、人と視線をやりとりすることができるコミュニケーションロボットを実現できるし、また、コミュニケーションロボットに見られていることや見られていないことを人に強く実感させることができる。
請求項2の発明は、請求項1の発明に従属し、人の眼の位置を検出する眼位置検出手段をさらに備え、視線制御手段は、眼位置検出手段によって検出された人の眼の位置に基づいて視線を動かす。
請求項2の発明では、眼位置検出手段によって人の眼の位置が検出される。たとえば、人の視線を計測するために人の眼に照射される赤外線の反射像を赤外線カメラで検出することによって、人の眼の位置を検出する。視線制御手段は、検出された人の眼の位置に基づいて視線を動かす。したがって、人の視線に応じて、人の眼の位置に視線を向けたり、人の眼の位置から視線をそらしたりするなどの視線制御を行うことができる。
請求項3の発明は、請求項2の発明に従属し、視線制御手段は、視線検出手段による検出結果に基づいて人に見られていると判定されるとき、眼位置検出手段によって検出された人の眼の位置に視線を向ける。
請求項3の発明では、検出された人の視線に基づいて当該人に見られていると判定されるとき、視線制御手段によって、当該人の眼の位置に視線が向けられる。したがって、人に見られたとき、当該人の眼を見詰め返すことができる。
請求項4の発明は、請求項2の発明に従属し、視線制御手段は、視線検出手段による検出結果に基づいて人に見られていると判定されるとき、眼位置検出手段によって検出された人の眼の位置以外に視線を向ける。
請求項4の発明では、検出された人の視線に基づいて当該人に見られていると判定されるとき、視線制御手段によって、当該人の眼の位置以外に視線が向けられる。したがって、人に見られたとき、当該人の眼から視線をそらすことができる。
請求項5の発明は、請求項2ないし4の発明のいずれかに従属し、視線制御手段は、視線検出手段による検出結果に基づいて人に見られていないと判定されるとき、眼位置検出手段によって検出された人の眼の位置に視線を向ける。
請求項5の発明では、検出された人の視線に基づいて当該人に見られていないと判定されるとき、視線制御手段によって、当該人の眼の位置に視線が向けられる。したがって、人に見られていないとき、当該人の眼を盗み見することができる。
請求項6の発明は、請求項1ないし3の発明のいずれかに従属し、視線制御手段は、視線検出手段による検出結果に基づいて人に見られていないと判定されるとき、人の視線と同じ方向に視線を向ける。
請求項6の発明では、検出された人の視線に基づいて当該人に見られていないと判定されるとき、視線制御手段によって、当該人の視線と同じ方向に視線が向けられる。したがって、人に見られていないとき、当該人の視線を追うことができる。
請求項7の発明は、請求項1ないし6の発明のいずれかに従属し、視線検出手段は、人の眼に向けて赤外線を照射する赤外線発光装置、人の眼の赤外線画像を撮影する第1赤外線カメラ、および人の視野画像を撮影する視野カメラを含み、人の視線として、赤外線画像および視野画像に基づいて人の注視点を検出する。
請求項7の発明では、視線検出手段は、赤外線発光装置、第1赤外線カメラおよび視野カメラを含む。たとえば、赤外線発光装置によって人の眼に照射された赤外線による輝点(角膜反射像)と瞳孔とを第1赤外線カメラで検出することによって、当該人の眼の回転運動が計測される。視線検出手段は、この眼球運動と視野カメラで撮影された人の視野画像とを関連付けることによって、人の視線すなわち注視点を検出することができる。これによって、人がロボットの顔ないし頭部などを見ているのか否かを把握することが可能であるし、人が見ている位置や物体などを特定することも可能になる。
請求項8の発明は、請求項2ないし7の発明のいずれかに従属し、眼位置検出手段は、赤外線画像を撮影する第2赤外線カメラを含み、第2赤外線カメラによって人の眼に反射した赤外線を検出することによって人の眼の位置を検出する。
請求項8の発明では、眼位置検出手段は、第2赤外線カメラを含む。第2赤外線カメラの赤外線画像から人の眼に反射した赤外線(角膜反射像)を検出することによって、当該人の眼の位置を検出することができる。なお、人の眼で反射される赤外線は、たとえば、視線検出手段の赤外線発光装置から照射された赤外線であってよい。これによって、人の眼の位置を把握することができる。
なお、請求項2の発明に従属するある発明では、視線制御手段は、相互注視時間が第1閾値を超えた場合、眼位置検出手段によって検出された人の眼の位置以外に視線を向けるようにしてもよい。このように構成した場合には、人とロボットとが見詰め合っている時間が所定時間を超えたときには、当該人の眼から視線をそらして、見詰め合うのを止めることができる。このため、適切な時間だけ人と見詰め合うことができ、より自然な対話やコミュニケーションを行える。
また、請求項2の発明または上記発明に従属する別の発明では、視線制御手段は、相互注視時間が第2閾値よりも小さい場合、眼位置検出手段によって検出された人の眼の位置に視線を向けるようにしてもよい。このように構成した場合には、人とロボットとが見詰め合っている時間が所定時間になるまでは、当該人と見詰め合うように視線を制御できる。このため、適切な時間だけ人と見詰め合うことができ、より自然な対話やコミュニケーションを行える。また、上記発明と組み合わせた発明では、第2閾値を第1閾値よりも小さい値に設定し、見詰め合っていないときに相互注視時間を減算するようにすれば、相互注視時間が第1閾値を超えたときに、見詰め合うのを止め、その後相互注視時間が第2閾値よりも小さくなったときに、再び人と見詰め合うというように、視線を制御することができる。したがって、適切な時間だけ見詰め合いかつ適切な時間だけ目を合わさないように視線を制御できるので、より自然な対話やコミュニケーションを行うことができる。
この発明によれば、人の視線を検出して、当該人の視線に応じて視線を動かすようにしたので、人と視線をやりとりすることができる。また、人の視線に応じてコミュニケーションロボットの視線が動かされるので、コミュニケーションロボットから見られていること、あるいは、見られていないことを、人に強く実感させることができる。したがって、より自然な対話やコミュニケーションを実行することが可能になる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1を参照して、この実施例のコミュニケーションロボットシステム(以下、単に「システム」という。)200は、コミュニケーションロボット(以下、単に「ロボット」という。)10、およびコミュニケーションの対象である人間12の視線を検出するための視線計測装置14を含む。ロボット10は、身振りおよび発話の少なくとも一方を用いて人間12と相互作用する機能を備えており、たとえば、日常生活の中で人間12とかかわりながら活動し、人間12と同じ環境で対等なパートナとして振る舞うことが可能である。このロボット10は、人間12とのコミュニケーションにおいて、視線計測装置14を用いて計測された人間12の視線に応じて動作することができる。
視線計測装置14は、視野カメラ16、赤外線発光装置18、および赤外線カメラ20を含み、これらは、たとえばキャップ22を用いて人間12に装着されるとともに、たとえば人間12に背負われた携帯型のコンピュータ24に接続される。
視野カメラ16は、たとえばカラービデオカメラであり、人間12の視野の映像を撮影し、当該映像信号をコンピュータ24に出力する。赤外線発光装置18は赤外線LEDを含み、人間12の眼に向けて赤外線を照射する。赤外線カメラ20は、たとえば赤外線フィルタ付きビデオカメラであり、人間12の眼の赤外線の映像を撮影し、当該映像信号をコンピュータ24に出力する。
コンピュータ24は、たとえば一定時間ごとに赤外線画像および視野画像に基づいて人間12の視線を検出する。赤外線カメラ20によって撮影された赤外線画像には、瞳孔と赤外線発光装置18からの赤外線が角膜で反射することによって得られた輝点(角膜反射像)とが含まれる。コンピュータ24は、赤外線画像における瞳孔および輝点の位置に基づいて人間12の眼球運動を検出し、この眼球の回転運動と視野画像とを関連付けることによって、人間12の視線や注視点を検出する。また、赤外線発光装置18および赤外線カメラ20のセットを両目に対して設けて両目同時計測を行うことによって、輻輳角および注視点距離を計測することが可能になる。また、コンピュータ24は、ロボット10と無線通信可能であり、たとえば無線LANのようなネットワークを介してまたは直接にロボット10と通信することができる。コンピュータ24は、検出した人間12の視線ないし注視点に関する情報や、視野カメラ16で撮影された視野映像などをロボット10に送信する。
上述のような視線計測装置14の一例として、株式会社ナックイメージテクノロジーの視線計測システム「アイマークレコーダ」(http://www.eyemark.jp/)の技術を適用することができる。
図2を参照して、ロボット10は台車26を含み、この台車26の下面には、このロボット10を自律移動させる車輪28が設けられる。この車輪28は、車輪モータ(図3において参照番号「30」で示す。)によって駆動され、台車26すなわちロボット10を前後左右任意の方向に動かすことができる。なお、図2では示さないが、この台車26の前面には、衝突センサ(図3において参照番号「32」で示す。)が取り付けられ、この衝突センサ32は、台車26への人や他の障害物との接触を検知する。ロボット10の移動中に接触を検知すると、直ちに車輪28の駆動を停止することができる。
台車26の上には、多角形柱のセンサ取付パネル34が設けられ、このセンサ取付パネル34の各面には、超音波距離センサ36が取り付けられる。この超音波距離センサ36は、取付パネル34すなわちロボット10の周囲の主として人間12との間の距離を計測するためのものである。
台車26の上には、さらに、ロボット10の胴体が、その下部が上述の取付パネル34に囲まれて、直立するように取り付けられる。この胴体は下部胴体38と上部胴体40とから構成され、これら下部胴体38および上部胴体40は、連結部42によって連結される。連結部42には、図示しないが、昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体40の高さすなわちロボット10の高さを変化させることができる。昇降機構は、腰モータ(図3において参照番号「44」で示す。)によって駆動される。
上部胴体40には、1つの全方位カメラ46が設けられる。全方位カメラ46はたとえば背面側上端部のほぼ中央から延びる支柱48上に設置される。全方位カメラ46は、ロボット10の周囲を撮影するものであり、後述する眼カメラ50とは区別される。この全方位カメラ46としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。また、上部胴体40の正面側のほぼ中央には、1つのマイク52が設けられる。マイク52は、周囲の音、とりわけコミュニケーション対象である人間12の声を取り込む。なお、これら全方位カメラ46およびマイク52の設置位置は上部胴体40に限られず適宜変更され得る。
上部胴体40の両肩には、それぞれ、肩関節54Rおよび54Lによって、上腕56Rおよび56Lが取り付けられる。肩関節54Rおよび54Lは、それぞれ3軸の自由度を有する。すなわち、右肩関節54Rは、X軸,Y軸およびZ軸の各軸廻りにおいて上腕56Rの角度を制御できる。Y軸は、上腕56Rの長手方向(または軸)に平行な軸であり、X軸およびZ軸は、そのY軸に、それぞれ異なる方向から直交する軸である。左肩関節54Lは、A軸,B軸およびC軸の各軸廻りにおいて上腕56Lの角度を制御できる。B軸は、上腕56Lの長手方向(または軸)に平行な軸であり、A軸およびC軸は、そのB軸に、それぞれ異なる方向から直交する軸である。
上腕56Rおよび56Lのそれぞれの先端には、肘関節58Rおよび58Lを介して、前腕60Rおよび60Lが取り付けられる。肘関節58Rおよび58Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕60Rおよび60Lの角度を制御できる。
なお、上腕56Rおよび56Lならびに前腕60Rおよび60Lの変位を制御するX,Y,Z,W軸およびA,B,C,D軸では、「0度」がホームポジションであり、このホームポジションでは、上腕56Rおよび56Lならびに前腕60Rおよび60Lは下方向に向けられる。
また、図2では示さないが、上部胴体40の肩関節54Rおよび54Lを含む肩の部分や上述の上腕56Rおよび56Lならびに前腕60Rおよび60Lを含む腕の部分には、それぞれ、タッチセンサ(図3において参照番号「62」で包括的に示す。)が設けられていて、これらのタッチセンサ62は、人間12がロボット10のこれらの部位に接触したかどうかを検知する。
前腕60Rおよび60Lのそれぞれの先端には、手に相当する球体64Rおよび64Lがそれぞれ固定的に取り付けられる。なお、この球体64Rおよび64Lに代えて、この実施例のロボット10と異なり指の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。
上部胴体40の中央上方には、首関節66を介して、頭部68が取り付けられる。この首関節66は、3軸の自由度を有し、S軸,T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上に向かう軸であり、T軸およびU軸は、それぞれ、このS軸に対して異なる方向で直交する軸である。頭部68には、人の口に相当する位置に、スピーカ70が設けられる。なお、スピーカ70は、ロボット10が、それの周囲の人に対して音声または声によってコミュニケーションを図るために用いられる。また、スピーカ70は、ロボット10の他の部位たとえば胴体に設けられてもよい。
また、頭部68には、目に相当する位置に眼球部72Rおよび72Lが設けられる。眼球部72Rおよび72Lは、それぞれ眼カメラ50Rおよび50Lを含む。なお、左右の眼球部72Rおよび72Lをまとめて参照符号「72」で示し、左右の眼カメラ50Rおよび50Lをまとめて参照符号「50」で示すこともある。眼カメラ50は、ロボット10に接近した人間12の顔や他の部分ないし物体等を撮影してその映像信号を取り込む。なお、眼カメラ50としては上述の全方位カメラ46と同様なイメージセンサが使用され得る。
たとえば、眼カメラ50は眼球部72内に固定され、眼球部72は眼球支持部(図示せず)を介して頭部68内の所定位置に取り付けられる。眼球支持部は、2軸の自由度を有し、α軸およびβ軸の各軸廻りに角度制御可能である。α軸およびβ軸は頭部68に対して設定される軸であり、α軸は頭部68の上へ向かう方向の軸であり、β軸はα軸に直交しかつ頭部68の正面側(顔)が向く方向に直交する方向の軸である。この実施例では、頭部68がホームポジションにあるとき、α軸はS軸に平行し、β軸はU軸に平行するように設定されている。このような頭部68において、眼球支持部がα軸およびβ軸の各軸廻りに回転されることによって、眼球部72ないし眼カメラ50の先端(正面)側が変位され、カメラ軸すなわち視線が移動される。
なお、眼カメラ50の変位を制御するα軸およびβ軸では、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、眼カメラ50のカメラ軸は頭部68の正面側(顔)が向く方向に向けられ、視線は正視状態となる。
さらに、頭部68の上部中央には、赤外線カメラ74がそのカメラ軸を頭部68の正面に向けた状態で固定的に設けられる。したがって、赤外線カメラ74のカメラ軸は頭部68の変位とともに変位される。赤外線カメラ74は、たとえば赤外線フィルタ付きイメージセンサであり、視線計測装置14を装着した人間12の眼で反射した赤外線を検出するために設けられる。なお、赤外線カメラ74は、頭部68の他の場所や他の部位たとえば上部胴体40に設けられてもよい。
図3を参照して、ロボット10は、全体の制御のためにマイクロコンピュータまたはCPU76を含み、このCPU76には、バス78を通して、メモリ80,モータ制御ボード82,センサ入力/出力ボード84および音声入力/出力ボード86が接続される。
メモリ80は、図示しないが、ROMやHDDおよびRAM等を含み、ROMまたはHDDには、このロボット10の動作を制御するためのプログラムおよびデータが予め格納されている。CPU76は、このプログラムに従って処理を実行する。また、RAMは、バッファメモリやワーキングメモリとして使用される。
モータ制御ボード82は、たとえばDSP(Digital Signal Processor)で構成され、右腕、左腕、頭および眼等の身体部位を駆動するためのモータを制御する。すなわち、モータ制御ボード82は、CPU76からの制御データを受け、右肩関節54RのX,YおよびZ軸のそれぞれの角度を制御する3つのモータと右肘関節58Rの軸Wの角度を制御する1つのモータを含む計4つのモータ(図3ではまとめて「右腕モータ」として示す。)88の回転角度を調節する。また、モータ制御ボード82は、左肩関節54LのA,BおよびC軸のそれぞれの角度を制御する3つのモータと左肘関節58LのD軸の角度を制御する1つのモータとを含む計4つのモータ(図3ではまとめて「左腕モータ」として示す。)90の回転角度を調節する。モータ制御ボード82は、また、首関節66のS,TおよびU軸のそれぞれの角度を制御する3つのモータ(図3ではまとめて「頭部モータ」として示す。)92の回転角度を調節する。モータ制御ボード82は、また、腰モータ44および車輪28を駆動する2つのモータ(図3ではまとめて「車輪モータ」として示す。)30を制御する。さらに、モータ制御ボード82は、右眼球部72Rのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3ではまとめて「右眼球モータ」として示す。)94の回転角度を調節し、また、左眼球部72Lのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3ではまとめて「左眼球モータ」として示す。)96の回転角度を調節する。
なお、この実施例の上述のモータは、車輪モータ30を除いて、制御を簡単化するためにそれぞれステッピングモータまたはパルスモータであるが、車輪モータ30と同様に、直流モータであってよい。また、この実施例では、ロボット10の腕、頭、眼などの身体部位を駆動するアクチュエータとして電力を駆動源とするモータを用いた。しかしながら、このロボット10としては、たとえば空気圧(または負圧)、油圧、圧電素子あるいは形状記憶合金などによる他のアクチュエータによって身体部位を駆動するロボットが適用されてもよい。
センサ入力/出力ボード84も、同様に、DSPで構成され、各センサからの信号を取り込んでCPU76に与える。すなわち、超音波距離センサ36の各々からの反射時間に関するデータがこのセンサ入力/出力ボード84を通して、CPU76に入力される。また、全方位カメラ46からの映像信号が、必要に応じてこのセンサ入力/出力ボード84で所定の処理が施された後、CPU76に入力される。眼カメラ50からの映像信号も、同様にして、CPU76に与えられる。赤外線カメラ74からの映像信号も、同様にして、CPU76に与えられる。また、タッチセンサ62および衝突センサ32からの信号がセンサ入力/出力ボード84を介してCPU76に与えられる。
スピーカ70には音声入力/出力ボード86を介して、CPU76から音声データが与えられ、それに応じて、スピーカ70からはそのデータに従った音声または声が出力される。また、マイク52からの音声入力が、音声入力/出力ボード86を介して音声データとしてCPU76に取り込まれる。
さらに、CPU76には、バス78を介して通信LANボード98が接続される。通信LANボード98は、同様にDSPで構成され、無線通信装置100に接続される。この実施例では、ロボット10のCPU76は、通信LANボード98および無線通信装置100を用いて無線LANなどのネットワークに通信接続される。通信LANボード98は、CPU76から与えられた送信データを無線通信装置100に与えて、当該データを無線通信装置100から送信する。また、通信LANボード98は無線通信装置100を介してデータを受信し、受信データをCPU76に与える。
さらにまた、CPU76には、上述の視線計測装置14が、通信LANボード98、無線通信装置100およびネットワークを介して無線により接続される。視線計測装置14は、上述のようにコンピュータ24を含み、コンピュータ24は、視野カメラ16の映像信号および赤外線カメラ20の映像信号を取得し、また、赤外線発光装置18の発光を制御する。また、コンピュータ24は、視野カメラ16で撮影された視野映像および赤外線カメラ20で撮影された赤外線映像に基づいて、人間12の注視点の位置を検出する。さらに、コンピュータ24は、検出した人間12の注視点に関する情報および視野カメラ16で撮影された視野画像等の必要な情報をCPU76に送信する。
このようなシステム200では、視線計測装置14によってコミュニケーションの相手である人間12の注視点が検出され、当該人間12の注視点の位置に応じてロボット10の視線が制御される。たとえば、追従モード、逃避モードおよび見詰め合いモードが準備される。
追従モードでは、ロボット10の視線は、人間12の目の位置や視線を追うように制御される。具体的には、まず、視線計測装置14から人間12の注視点および視野画像が取得され、人間12がロボット10を見ているか否かが判定される。ロボット10が人間12に注視されている場合には、赤外線カメラ74からの画像に基づいて当該人間12の目の位置を検出し、この人間12の目の位置を見るように頭部68および/または眼球部72を変位させることによって、ロボット10の視線が制御される。このようにして、ロボット10は、人間12が自分を見ている場合には、当該人間12の目の位置に視線を向けて、当該人間12を見詰め返す。
一方、ロボット10が人間12に注視されていない場合には、当該人間12が見ている位置を検出し、当該人間12と同じ方向を見るように頭部68および/または眼球部72を変位させることによって、ロボット10の視線が制御される。このようにして、ロボット10は、人間12が自分を見ていない場合には、当該人間12の視線の先を追い、当該人間12の見ているものをその人間12と一緒に見る。
その後、たとえば、一定時間が経過し、または、人間12の注視点の変化が検出されたときには、再び、人間12がロボット10を見ているか否かに応じて、ロボット10の視線が制御される。
このように、追従モードでは、人間12の視線の動きに応じて、人間12の目を見詰め返したり人間12の視線を追ったりするように、ロボット10の視線が動かされる。このシステム200によれば、ロボット10が人間12を見ていることや人間12の目の動きを見ていること等を当該人間12に強く実感させることができる。したがって、人間12に知的な印象を与えることができるし、どこを見ているのかを明確に伝えることができるので、人間12とより自然な対話やコミュニケーションを実行することが可能になる。
図4にはロボット10のCPU76の追従モードにおける動作の一例が示される。ステップS1では、人間12の注視点が検出される。具体的には、視線計測装置14で検出された人間12の注視点が取得される。また、視野画像などの必要な情報も取得される。
次に、ステップS3で、人間12がロボット10を見ているのか否かが判定される。この実施例では、ロボット10の顔を見ているか否かが判定される。たとえば、予め記憶しておいたロボット10の顔画像に基づいて視野画像におけるロボット10の顔の位置が検出され、当該ロボット10の顔の位置(領域)内に注視点の座標が含まれる場合には、人間12がロボット10を注視していると判断され、当該ロボット10の顔の位置(領域)内に注視点の座標が含まれない場合には、人間12がロボット10を注視していないと判断される。
ステップS3で“YES”であれば、つまり、ロボット10が人間12に見られている場合には、ステップS5で、人間12の目の位置が検出される。たとえば、赤外線カメラ74から取得した赤外線画像における輝点(角膜反射像)を検出することによって人間12の目の位置が算出される。
続くステップS7で、人間12の目の位置を見るように視線が制御される。これによって、ロボット10は人間12を見詰め返す。たとえば、眼球部72のみの動きによって視線が動かされる。具体的には、ロボット10の眼である眼球部72が当該人間12の目の位置を見るような、眼球部72のα軸およびβ軸に関する制御データが算出される。そして、当該制御データがモータ制御ボード82に与えられて、右眼球モータ94および左眼球モータ96の回転が制御される。または、頭部68のみの動きによって視線が動かされてもよい。この場合には、眼球部72が当該人間12の目の位置を見るような、頭部68(首関節66)のS軸、T軸およびU軸に関する制御データが算出され、頭部モータ92の回転が制御される。あるいは、眼球部72および頭部68の両方の動きによって視線が動かされてもよい。この場合には、眼球部72が当該人間12の目の位置を見るような、眼球部72のα軸およびβ軸ならびに頭部68のS軸、T軸およびU軸に関する制御データが算出されて、右眼球モータ94、左眼球モータ96および頭部モータ92の回転が制御される。ステップS7を終了すると処理はステップS13へ進む。
一方、ステップS3で“NO”であれば、つまり、ロボット10が人間12に見られていない場合には、ステップS9で、人間12が見ている位置が検出される。具体的には、人間12の注視点の3次元位置計測が行われる。たとえば、複数の視野カメラ16で人間12の頭の位置に対する注視点の3次元位置が計測される。また、ロボット10の眼カメラ50Rおよび50Lまたは環境に設置したカメラ(図示しない)によって人間12の頭の位置および姿勢が計測される。そして、ロボット10の眼カメラ50に対する注視点の3次元位置または環境に対する注視点の3次元位置が算出される。あるいは、物体認識が行われる。たとえば、視野カメラ16の視野画像における人間12の注視点周りの画像を用いて物体が認識される。また、ロボット10の眼カメラ50または環境に設置したカメラの画像に基づいて人間12の見ている物体と一致する物体が探索され、当該物体の位置が算出される。
続くステップS11で、人間12と同じ方向を見るように視線が制御される。これによって、ロボット10の視線は、人間12の視線を追い、人間12の見ているものを見る。ロボット10の視線は、上述のステップS7と同様にして、眼球部72および/または頭部68を動かすことによって動かされる。眼球部72がステップS9で検出された人間12の見ている位置を見るような制御データが算出され、当該制御データに基づいて、対応するモータ92、94、96の回転が制御される。ステップS11を終了すると処理はステップS13に進む。
ステップS13では、注視点の変化または一定時間の経過が待機される。たとえば、視線計測装置14から注視点に関する情報等が取得されて、当該注視点が前回取得した注視点と異なるか否かが判定される。注視点の変化がない場合には、たとえば、一定時間が経過するまで、注視点の変化の判定が繰返される。一方、注視点の変化が検出されたとき、または、一定時間が経過したときには、処理はステップS15へ進む。
そして、ステップS15で、この追従モードを終了するか否かが判定される。たとえば、オペレータからの終了指示を無線により受信した場合、人間12がいなくなった場合等、追従モードを終了するための条件が満足されたか否かが判定される。ステップS15で“NO”であれば、ステップS1に戻って、追従モードの動作が続けられ、“YES”であれば追従モードが終了される。
逃避モードでは、ロボット10の視線は、人間12と視線が合わないように制御される。具体的には、まず、視線計測装置14から人間12の注視点および視野画像が取得され、人間12がロボット10を見ているか否かが判定される。ロボット10が人間12に見られている場合には、当該人間12の目の位置を検出し、この人間12の目の位置以外を見るように頭部68および/または眼球部72を変位させることによって、ロボット10の視線が制御される。このようにして、ロボット10は、人間12が自分を見ている場合には、当該人間12の目の位置以外に視線を向けて、当該人間12の目の位置から目をそらす。
一方、ロボット10が人間12に見られていない場合には、ロボット10が人間12を見ているか否かが判定される。ロボット10が当該人間12を見ていないときには、検出した人間12の目の位置を見るように頭部68および/または眼球部72を変位させることによって、ロボット10の視線が制御される。このようにして、ロボット10は、人間12が自分を見ておらず、かつ、自分も人間12を見ていない場合には、当該人間12の目の位置に目を向ける。つまり、ロボット10は人間12の目を盗み見する。
また、ロボット10が人間12に見られていない場合において、ロボット10が人間12を見ているときには、上述の人間12に見られている場合と同様に、人間12の目の位置以外を見るように視線が制御される。このように、ロボット10は、自分を見ていない人間12を見ている場合にも、当該人間12の目の位置から目をそらす。したがって、この実施例では、ロボット10は、人間12の目を盗み見した後には当該人間12の目の位置から目をそらすこととなる。
その後、たとえば、一定時間が経過し、または、人間12の注視点の変化が検出されたときには、再び、人間12がロボット10を見ているか否か、あるいはロボット10が人間12を見ているか否かに応じて、ロボット10の視線が制御される。
このように、逃避モードでは、人間12の視線の動きやロボット10の現在の視線に応じて、人間12の目から目をそらしたり人間12の目を盗み見したりするように、ロボット10の視線が動かされる。このシステム200によれば、ロボット10が人間12の目の動きを見ていること、その上で人間12の目を見ていない(見ようとしない)ことを当該人間12に強く実感させることができる。したがって、人間12に知的な印象を与えることができるし、どこを見ているのかあるいは見ていないのかを明確に伝えることができるので、人間12とより自然な対話やコミュニケーションを実行することが可能になる。
図5には、ロボット10のCPU76の逃避モードにおける動作の一例が示される。ステップS31では、上述のステップS1と同様にして、人間12の注視点が検出される。
次に、ステップS33で、上述のステップS3と同様にして、人間12がロボット10を見ているのか否かが判定される。ステップS33で“YES”であれば、つまり、ロボット10が人間12に見られている場合には、処理はステップS37へ進む。
一方、ステップS33で“NO”であれば、つまり、ロボット10が人間12に見られていない場合には、ステップS35で、ロボット10が人間12を見ているか否かが判定される。たとえば、ロボット10が人間12の顔を見ているか否かが判定される。具体的には、眼カメラ50で取得した画像において、眼球部72の正面に対応する領域に、人間12の顔を示す画像が入っているか否かが判定される。あるいは、赤外線カメラ74の画像において、眼球部72の正面に対応する領域に、赤外線照射による輝点が存在するか否かが判定されてもよい。ステップS35で“YES”であれば、つまり、ロボット10が自分を見ていない人間12を見ている場合には、処理はステップS37に進む。
ステップS37では、上述のステップS5と同様にして、人間12の目の位置が検出される。続くステップS39では、人間12の目の位置以外を見るように視線が制御される。これによって、ロボット10は人間12の目の位置から目をそらす。ステップS39では、上述の追従モードの場合と同様に、視線は、眼球部72および/または頭部68を動かすことによって動かされる。ただし、人間12の目の位置以外の位置を眼球部72が見るような制御データが算出される。たとえば、人間12の目の位置から所定距離以上離れた位置がランダムに選ばれてよい。ステップS39を終了すると処理はステップS45へ進む。
一方、ステップS35で“NO”であれば、つまり、ロボット10も人間12も相手を見ていない場合には、ステップS41で、上述のステップS1と同様にして、人間12の目の位置が検出される。続くステップS43では、上述のステップS7と同様にして、人間12の目の位置を見るように視線が制御される。これによって、ロボット10は、自分を見ていない人間12の目を盗み見する。ステップS43を終了すると処理はステップS45へ進む。
ステップS45では、上述のステップS13と同様にして、注視点の変化または一定時間の経過が待機され、注視点が変化したとき、または、一定時間が経過したとき、処理はステップS47へ進む。ステップS47では、ステップS15と同様にして、この逃避モードを終了するか否かが判断される。ステップS47で“NO”であれば処理はステップS31に戻って逃避モードの動作が続行され、“YES”でればこの逃避モードが終了される。
見詰め合いモードでは、ロボット10の視線は、人間12と見詰め合うように制御される。この実施例では、相互注視時間が計測され、この相互注視時間の値に応じて異なる方法で視線が制御される。相互注視時間は、ロボット10と人間12とが見詰め合った時間を示す。この実施例では、人間12がロボット10を見ている、かつ、ロボット10が当該人間12を見ていると判定されたとき、両者が見詰め合っていると判断して、相互注視時間が単位時間増加され、両者が見詰め合っていないと判定されるときには相互注視時間が単位時間減少される。つまり、相互注視時間としては、両者が連続的に見詰め合った時間が計測される。
相互注視時間の値は、ロボット10が人間12を見ているか否かに応じて異なる所定値を基に評価される。この実施例では、ロボット10が人間12を見ている場合には第1閾値が使用され、ロボット10が人間12を見ていない場合には第2閾値が使用される。第1閾値は第2閾値よりも大きい値に設定される。第1閾値はロボット10が人間12を見詰めたくなくなる限界を示し、第2閾値はロボット10が人間12を見詰めたくなる限界を示す。たとえば、第1閾値は3秒、第2閾値は2秒のように両値は適宜に設定される。
具体的には、ロボット10が人間12を見ていない場合において、相互注視時間が第2閾値よりも小さいときには、ロボット10の視線は、人間12とロボット10とが見詰め合うように制御される。この実施例では、上述の追従モードで視線が制御され、ロボット10は、人間12に見られているとき当該人間12を見詰め返し、人間12に見られていないとき当該人間12の視線を追う。
その後、ロボット10が人間12の目を見詰め返しているうちに相互注視時間は増加される。ロボット10が人間12を見ている場合において、相互注視時間が第1閾値を超えたときには、ロボット10の視線は、人間12の視線と合わないように制御される。この実施例では、上述の逃避モードで視線が制御され、ロボット10は、人間12の目の位置から目をそらす。なお、ロボット10が人間12を見ているときにこの第1閾値の判定が行われるので、この場合の逃避モードでは、盗み見が実行されることはない。
あるいは、相互注視時間が第1閾値を超える前に人間12がロボット10から目をそらしてロボット10が人間12の視線を追った場合において、相互注視時間が第2閾値を超えているときには、ロボット10の視線は人間12の視線と合わないように制御される。この実施例では、上述の逃避モードで視線が制御され、ロボット10は、人間12に見られているとき当該人間12の目の位置から目をそらし、人間12に見られていないとき当該人間12の目を盗み見する。
そのうちに、相互注視時間が第2閾値を下回ると、ロボット10の視線は、上述のように、再び人間12と見詰め合うように制御される。
このように、見詰め合いモードでは、ロボット10は、連続して見詰め合った時間が第1閾値に達していない場合には、人間12と見詰め合うように視線を制御する。連続して見詰め合った時間が第1閾値を超えたときには、ロボット10は人間12から目をそらして見詰め合うのを止める。その後、見詰め合うのを止めてから所定時間(第1閾値−第2閾値)が経過して、相互注視時間が第2閾値よりも小さくなったときには、ロボット10は再び人間12と見詰め合うように視線を制御する。このシステム200によれば、ロボット10が人間12の目を見ていること、あるいは、人間12の目を見ていないことを、当該人間12に強く実感させることができる。また、適切な時間(第1閾値)だけ人間12と目を合わせ、その後、適切な時間(第1閾値−第2閾値)だけ人間12から目をそらすことができる。したがって、人間12に知的な印象を与えることができるし、どこを見ているのかあるいは見ていないのかを明確に伝えることができるので、人間12とより自然な対話やコミュニケーションを実行することが可能になる。
図6には、ロボット10のCPU76の見詰め合いモードにおける動作の一例が示される。ステップS61では、上述のステップS1と同様にして、人間12の注視点が検出される。
次に、ステップS63で、人間12がロボット10を見ていて、かつ、ロボット10が人間12を見ているか否か、すなわち、両者が見詰め合っているか否かが判定される。なお、人間12がロボット10を見ているか否かは上述のステップS3と同様にして判定され、ロボット10が人間12を見ているか否かは上述のステップS35と同様にして判定される。
ステップS63で“YES”であれば、つまり、両者が見詰め合っている場合には、ステップS65で、相互注視時間が単位時間だけ増加される。一方、ステップS63で“NO”であれば、つまり、両者が見詰め合っていない場合には、ステップS67で、相互注視時間が単位時間だけ減少される。なお、相互注視時間の初期値は0であり、また、その最小値も0であり、相互注視時間は減算によって0より小さくなる場合はリセットされる。
ステップS65またはS67を終了すると、ステップS69で、ロボット10が人間12を見ているか否かが判定される。ロボット10が人間12を見ている場合には、ステップS71で第1閾値に基づいて相互注視時間の判定が実行され、一方、ロボット10が人間12を見ていない場合には、ステップS73で第2閾値に基づいて相互注視時間の判定が実行される。そして、相互注視時間の判定結果に応じて視線が制御される。
すわなち、ステップS69で“YES”の場合、ステップS71で相互注視時間が第1閾値未満であるか否かが判定される。ステップS71で“YES”の場合、つまり、相互注視時間が見詰め合いたくなくなる限界に達していない場合には、ステップS75で上述の追従モードと同様にして視線が制御される。詳しくは、図4の追従モードのステップS3からS11の処理が実行され、ロボット10は、人間12がロボット10を見ているときには当該人間12の目を見詰め返し、人間12がロボット10を見ていないときには当該人間12の視線を追う。一方、ステップS71で“NO”の場合、つまり、相互注視時間が見詰め合いたくなくなる限界に達した場合には、ステップS77で上述の逃避モードと同様にして視線が制御される。詳しくは、図5のステップS33からS43の処理が実行され、ロボット10は人間12の目の位置から目をそらす。
また、ステップS69で“NO”の場合、ステップS73で相互注視時間が第2閾値未満であるか否かが判定される。ステップS73で“YES”の場合、つまり、相互注視時間が見詰め合いたくなる下限を超えている場合には、ステップS75で上述の追従モードと同様にして視線が制御される。これによって、ロボット10は、人間12に見られているときには当該人間12の目を見詰め返し、人間12に見られていないときには当該人間12の視線を追う。一方、ステップS73で“NO”の場合、つまり、相互注視時間が第2閾値以上である場合には、ステップS77で上述の逃避モードと同様にして視線が制御される。これによって、ロボット10は、人間12に見られているときには当該人間12の目から視線をそらし、人間12に見られていないときには当該人間12の目を盗み見する。
ステップS75またはS77を終了すると、ステップS79で、上述のステップS13と同様にして、注視点の変化または一定時間の経過が待機され、注視点が変化したとき、または、一定時間が経過したとき、処理はステップS81へ進む。ステップS81では、ステップS15と同様にして、この見詰め合いモードを終了するか否かが判断される。ステップS81で“NO”であれば処理はステップS61に戻って見詰め合いモードの動作が続行され、“YES”でればこの見詰め合いモードが終了される。
なお、上述の実施例の見詰め合いモードでは、ロボット10が人間12を見ているか否かに応じて異なる閾値を用いて相互注視時間の判定を行うようにしていた。しかし、他の実施例では、相互注視時間が所定の閾値未満の場合には、人間12と見詰め合うようにたとえば追従モードで視線が制御され、相互注視時間が所定の閾値以上の場合には、人間12と目を合わさないようにたとえば逃避モードで視線が制御されるようにしてもよい。
また、上述の各実施例では、視線計測装置14のコンピュータ24で人間12の視線ないし注視点を検出して、当該検出情報をロボット10に送信するようにしているが、他の実施例では、コンピュータ24は視野カメラ16で撮影した視野映像および赤外線カメラ20で撮影した赤外線映像をロボット10に送信し、ロボット10のCPU76が人間12の視線ないし注視点を検出するようにしてもよい。
また、上述の各実施例では、眼球部72を変位可能に設けたが、他の実施例では、眼球部72を頭部68に固定的に設けてもよい。その場合には、頭部68を変位させることによって、眼球部72の向きすなわち視線を動かす。
この発明の一実施例のコミュニケーションロボットシステムの概略を示す図解図である。 図1実施例のコミュニケーションロボットの外観の一例を示す図解図である。 図1実施例のコミュニケーションロボットシステムの電気的な構成の一例を示すブロック図である。 コミュニケーションロボットの追従モードにおける動作の一例を示すフロー図である。 コミュニケーションロボットの逃避モードにおける動作の一例を示すフロー図である。 コミュニケーションロボットの見詰め合いモードにおける動作の一例を示すフロー図である。
符号の説明
10 …コミュニケーションロボット
14 …視線計測装置
16 …視野カメラ
18 …赤外線発光装置
20,74 …赤外線カメラ
24 …コンピュータ
66 …首関節
68 …頭部
72 …眼球部
76 …CPU
80 …メモリ
82 …モータ制御ボード
84 …センサ入力/出力ボード
92 …頭部モータ
94 …右眼球モータ
96 …左眼球モータ
200 …コミュニケーションロボットシステム

Claims (8)

  1. 人の視線を検出する視線検出手段、および
    前記視線検出手段によって検出された前記人の視線に応じて視線を動かす視線制御手段を備える、コミュニケーションロボットシステム。
  2. 前記人の眼の位置を検出する眼位置検出手段をさらに備え、
    前記視線制御手段は、前記眼位置検出手段によって検出された前記人の眼の位置に基づいて前記視線を動かす、請求項1記載のコミュニケーションロボットシステム。
  3. 前記視線制御手段は、前記視線検出手段による検出結果に基づいて前記人に見られていると判定されるとき、前記眼位置検出手段によって検出された前記人の眼の位置に前記視線を向ける、請求項2記載のコミュニケーションロボットシステム。
  4. 前記視線制御手段は、前記視線検出手段による検出結果に基づいて前記人に見られていると判定されるとき、前記眼位置検出手段によって検出された前記人の眼の位置以外に前記視線を向ける、請求項2記載のコミュニケーションロボットシステム。
  5. 前記視線制御手段は、前記視線検出手段による検出結果に基づいて前記人に見られていないと判定されるとき、前記眼位置検出手段によって検出された前記人の眼の位置に前記視線を向ける、請求項2ないし4のいずれかに記載のコミュニケーションロボットシステム。
  6. 前記視線制御手段は、前記視線検出手段による検出結果に基づいて前記人に見られていないと判定されるとき、前記人の視線と同じ方向に前記視線を向ける、請求項1ないし3のいずれかに記載のコミュニケーションロボットシステム。
  7. 前記視線検出手段は、前記人の眼に向けて赤外線を照射する赤外線発光装置、前記人の眼の赤外線画像を撮影する第1赤外線カメラ、および前記人の視野画像を撮影する視野カメラを含み、前記人の視線として、前記赤外線画像および前記視野画像に基づいて前記人の注視点を検出する、請求項1ないし6のいずれかに記載のコミュニケーションロボットシステム。
  8. 前記眼位置検出手段は、赤外線画像を撮影する第2赤外線カメラを含み、前記第2赤外線カメラによって前記人の眼に反射した赤外線を検出することによって前記人の眼の位置を検出する、請求項2ないし7のいずれかに記載のコミュニケーションロボットシステム。
JP2006000863A 2006-01-05 2006-01-05 コミュニケーションロボットシステムおよびコミュニケーションロボットの視線制御方法 Active JP5186723B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006000863A JP5186723B2 (ja) 2006-01-05 2006-01-05 コミュニケーションロボットシステムおよびコミュニケーションロボットの視線制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006000863A JP5186723B2 (ja) 2006-01-05 2006-01-05 コミュニケーションロボットシステムおよびコミュニケーションロボットの視線制御方法

Publications (2)

Publication Number Publication Date
JP2007181888A true JP2007181888A (ja) 2007-07-19
JP5186723B2 JP5186723B2 (ja) 2013-04-24

Family

ID=38338375

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006000863A Active JP5186723B2 (ja) 2006-01-05 2006-01-05 コミュニケーションロボットシステムおよびコミュニケーションロボットの視線制御方法

Country Status (1)

Country Link
JP (1) JP5186723B2 (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101890719A (zh) * 2010-07-09 2010-11-24 中国科学院深圳先进技术研究院 机器人远程控制装置及机器人系统
JP2013193149A (ja) * 2012-03-16 2013-09-30 Fujitsu Ltd ロボット制御装置、ロボットシステム、ロボット制御方法、及びロボット制御プログラム
JP2014030865A (ja) * 2012-08-01 2014-02-20 Fujitsu Ltd 視線制御装置、視線制御方法及び視線制御プログラム並びに端末装置
JP2014197403A (ja) * 2010-05-20 2014-10-16 アイロボット コーポレイション 自動推進式テレビ会議プラットホーム
JP2016021106A (ja) * 2014-07-14 2016-02-04 三▲祥▼株式会社 防犯用の眼球模型
JP2016209991A (ja) * 2015-05-01 2016-12-15 キヤノン株式会社 ロボットの制御装置、制御方法およびシステム
JP2018060322A (ja) * 2016-10-04 2018-04-12 トヨタ自動車株式会社 音声対話装置及びその制御方法
CN109108960A (zh) * 2017-06-23 2019-01-01 卡西欧计算机株式会社 机器人、机器人的控制方法以及存储介质
JP2019008510A (ja) * 2017-06-23 2019-01-17 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
WO2019050034A1 (ja) * 2017-09-11 2019-03-14 Groove X株式会社 相手を見つめる自律行動型ロボット
EP3498429A1 (en) * 2017-11-28 2019-06-19 Toyota Jidosha Kabushiki Kaisha Communication apparatus
JP2019130610A (ja) * 2018-01-31 2019-08-08 トヨタ自動車株式会社 コミュニケーションロボットおよびその制御プログラム
US10395653B2 (en) 2016-05-27 2019-08-27 Toyota Jidosha Kabushiki Kaisha Voice dialog device and voice dialog method
JP2019144732A (ja) * 2018-02-19 2019-08-29 日本電信電話株式会社 動作指示生成システム、方法およびプログラム
JP2020151012A (ja) * 2019-03-18 2020-09-24 トヨタ自動車株式会社 コミュニケーションシステム、及びコミュニケーションシステムの制御方法
JP2020163509A (ja) * 2019-03-29 2020-10-08 株式会社国際電気通信基礎技術研究所 シミュレーションシステム、シミュレーションプログラムおよび学習装置
CN113272752A (zh) * 2019-01-12 2021-08-17 株式会社Zmp 自主行驶车辆、配送系统以及程序

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024110779A1 (en) * 2022-11-24 2024-05-30 Viewpointsystem Gmbh Method for triggering actions in the metaverse or virtual worlds

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61142085A (ja) * 1984-12-11 1986-06-28 三菱重工業株式会社 遠隔制御装置
JP2005279896A (ja) * 2004-03-30 2005-10-13 Advanced Telecommunication Research Institute International ロボット
JP2005279895A (ja) * 2004-03-30 2005-10-13 Advanced Telecommunication Research Institute International ロボット

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61142085A (ja) * 1984-12-11 1986-06-28 三菱重工業株式会社 遠隔制御装置
JP2005279896A (ja) * 2004-03-30 2005-10-13 Advanced Telecommunication Research Institute International ロボット
JP2005279895A (ja) * 2004-03-30 2005-10-13 Advanced Telecommunication Research Institute International ロボット

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014197403A (ja) * 2010-05-20 2014-10-16 アイロボット コーポレイション 自動推進式テレビ会議プラットホーム
CN101890719B (zh) * 2010-07-09 2015-06-03 中国科学院深圳先进技术研究院 机器人远程控制装置及机器人系统
CN101890719A (zh) * 2010-07-09 2010-11-24 中国科学院深圳先进技术研究院 机器人远程控制装置及机器人系统
JP2013193149A (ja) * 2012-03-16 2013-09-30 Fujitsu Ltd ロボット制御装置、ロボットシステム、ロボット制御方法、及びロボット制御プログラム
JP2014030865A (ja) * 2012-08-01 2014-02-20 Fujitsu Ltd 視線制御装置、視線制御方法及び視線制御プログラム並びに端末装置
JP2016021106A (ja) * 2014-07-14 2016-02-04 三▲祥▼株式会社 防犯用の眼球模型
JP2016209991A (ja) * 2015-05-01 2016-12-15 キヤノン株式会社 ロボットの制御装置、制御方法およびシステム
US10395653B2 (en) 2016-05-27 2019-08-27 Toyota Jidosha Kabushiki Kaisha Voice dialog device and voice dialog method
US10867607B2 (en) 2016-05-27 2020-12-15 Toyota Jidosha Kabushiki Kaisha Voice dialog device and voice dialog method
JP2018060322A (ja) * 2016-10-04 2018-04-12 トヨタ自動車株式会社 音声対話装置及びその制御方法
US10464214B2 (en) 2016-10-04 2019-11-05 Toyota Jidosha Kabushiki Kaisha Voice interaction device and control method therefor
CN109108960A (zh) * 2017-06-23 2019-01-01 卡西欧计算机株式会社 机器人、机器人的控制方法以及存储介质
JP2019005842A (ja) * 2017-06-23 2019-01-17 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
CN109108960B (zh) * 2017-06-23 2022-03-01 卡西欧计算机株式会社 机器人、机器人的控制方法以及存储介质
JP2019008510A (ja) * 2017-06-23 2019-01-17 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
US10836041B2 (en) 2017-06-23 2020-11-17 Casio Computer Co., Ltd. More endearing robot, robot control method, and non-transitory recording medium
CN111093913A (zh) * 2017-09-11 2020-05-01 Groove X 株式会社 注视对方的行为自主型机器人
US11498222B2 (en) 2017-09-11 2022-11-15 Groove X, Inc. Autonomously acting robot that stares at companion
GB2580273A (en) * 2017-09-11 2020-07-15 Groove X Inc Autonomously acting robot staring at partner
JP7177497B2 (ja) 2017-09-11 2022-11-24 Groove X株式会社 相手を見つめる自律行動型ロボット
GB2580273B (en) * 2017-09-11 2022-06-01 Groove X Inc Autonomously acting robot that stares at companion
JPWO2019050034A1 (ja) * 2017-09-11 2020-11-05 Groove X株式会社 相手を見つめる自律行動型ロボット
WO2019050034A1 (ja) * 2017-09-11 2019-03-14 Groove X株式会社 相手を見つめる自律行動型ロボット
US11188811B2 (en) 2017-11-28 2021-11-30 TOYOTA JIDOSHA KABUSHtKI KAISHA Communication apparatus
EP3498429A1 (en) * 2017-11-28 2019-06-19 Toyota Jidosha Kabushiki Kaisha Communication apparatus
JP2019130610A (ja) * 2018-01-31 2019-08-08 トヨタ自動車株式会社 コミュニケーションロボットおよびその制御プログラム
JP2019144732A (ja) * 2018-02-19 2019-08-29 日本電信電話株式会社 動作指示生成システム、方法およびプログラム
CN113272752A (zh) * 2019-01-12 2021-08-17 株式会社Zmp 自主行驶车辆、配送系统以及程序
CN113272752B (zh) * 2019-01-12 2023-11-17 株式会社Zmp 自主行驶车辆、配送系统以及程序
US12036917B2 (en) 2019-01-12 2024-07-16 Zmp Inc. Autonomous vehicle, delivery system, and program
US11491660B2 (en) 2019-03-18 2022-11-08 Toyota Jidosha Kabushiki Kaisha Communication system and method for controlling communication system
JP2020151012A (ja) * 2019-03-18 2020-09-24 トヨタ自動車株式会社 コミュニケーションシステム、及びコミュニケーションシステムの制御方法
JP7180470B2 (ja) 2019-03-18 2022-11-30 トヨタ自動車株式会社 コミュニケーションシステム、及びコミュニケーションシステムの制御方法
JP2020163509A (ja) * 2019-03-29 2020-10-08 株式会社国際電気通信基礎技術研究所 シミュレーションシステム、シミュレーションプログラムおよび学習装置
JP7258426B2 (ja) 2019-03-29 2023-04-17 株式会社国際電気通信基礎技術研究所 シミュレーションシステム、シミュレーションプログラムおよび学習装置

Also Published As

Publication number Publication date
JP5186723B2 (ja) 2013-04-24

Similar Documents

Publication Publication Date Title
JP5186723B2 (ja) コミュニケーションロボットシステムおよびコミュニケーションロボットの視線制御方法
JP4822319B2 (ja) コミュニケーションロボットおよびそれを用いた注意制御システム
JP5429462B2 (ja) コミュニケーションロボット
JP4949969B2 (ja) コミュニケーションロボットとその動作方法
JP5028568B2 (ja) ロボット制御システム
KR20140015144A (ko) 최소 침습 수술 시스템에서 손 존재 검출을 위한 방법 및 시스템
KR20120115487A (ko) 원격조종 최소 침습 종속 수술 기구의 손 제어를 위한 방법 및 시스템
KR20130027006A (ko) 최소 침습 수술 시스템에서 손 제스처 제어를 위한 방법 및 장치
JPWO2007132571A1 (ja) ロボット
JP2008149399A (ja) 移動ロボットおよび移動速度推定方法
JP2006272471A (ja) コミュニケーションロボット
JP2013091114A (ja) インタラクション操作システム
JP6134895B2 (ja) ロボット制御システム、ロボット制御プログラムおよび説明ロボット
JP5145569B2 (ja) 対象物特定方法および装置
JP6716028B2 (ja) 制御装置、情報処理システム、制御方法、及びプログラム
JP4399603B2 (ja) コミュニケーションロボット
JP4565196B2 (ja) コミュニケーションロボット
WO2019087495A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP4517086B2 (ja) コミュニケーションロボットシステムおよびロボット制御装置
JPWO2021059359A1 (ja) アニメーション制作システム
JP4617428B2 (ja) 動作生成システム
JP2005131713A (ja) コミュニケーションロボット
JP2007130691A (ja) コミュニケーションロボット
JP2007160427A (ja) ロボット制御システム
Li et al. An egocentric computer vision based co-robot wheelchair

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130107

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160201

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5186723

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250