JP2009151419A - 対象物特定方法および装置 - Google Patents

対象物特定方法および装置 Download PDF

Info

Publication number
JP2009151419A
JP2009151419A JP2007326924A JP2007326924A JP2009151419A JP 2009151419 A JP2009151419 A JP 2009151419A JP 2007326924 A JP2007326924 A JP 2007326924A JP 2007326924 A JP2007326924 A JP 2007326924A JP 2009151419 A JP2009151419 A JP 2009151419A
Authority
JP
Japan
Prior art keywords
article
pointing
robot
human
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007326924A
Other languages
English (en)
Other versions
JP5145569B2 (ja
Inventor
Kazuhiko Shinosawa
一彦 篠沢
Keiko Miyashita
敬宏 宮下
Takaaki Akimoto
高明 秋本
Norihiro Hagita
紀博 萩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2007326924A priority Critical patent/JP5145569B2/ja
Publication of JP2009151419A publication Critical patent/JP2009151419A/ja
Application granted granted Critical
Publication of JP5145569B2 publication Critical patent/JP5145569B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【構成】コミュニケーションロボットシステム10はロボット12を含み、このロボット12は、人間16の指差し方向(L3,L4)や視線(L1,L2)を推定することによって、人間16が指示した本24のどれかを対象物として特定する。
【効果】指差し方向および視線を対象物特定のために同時に参照するので、対象物を正確に特定できる。
【選択図】図1

Description

この発明は、対象物特定方法および装置に関し、特にたとえばコミュニケーションロボットが人間とコミュニケーションしながら人間が指示した物品または物体(以下、「対象物」という。)を特定してその物品を運搬した移動させたりするために利用される、対象物特定方法および装置ならびにそれを備えるコミュニケーションロボットに関する。
特許文献1には、人間が指差す方向に存在する対象物を特定する、対象物特定装置が開示されている。この特許文献1に示す装置によれば、人間が指差す対象物を特定することができる
特開2007−80060号[G06F 3/038 G01C 21/00 G08G 1/0969 G09B 29/00 G09B 29/10]
特許文献1の技術では、指差し方向だけに基づいて対象物を特定するので、たとえば、人間の指差す方向は正確に対象物に向かっているとは限らず、したがって、間違って対象物を特定する可能性がある。
それゆえに、この発明の主たる目的は、新規な、対象物特定方法および装置を提供することである。
この発明の他の目的は、対象物を正確に特定できる、対象物特定方法および装置を提供することである。
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。
第1の発明は、人間の近傍に存在する物品のうち人間が指示している対象物を特定する方法であって、(a) 繰り返しの時間毎に、指差し方向を示す指差し直線と各物品との間の距離に基づいて、物品毎の指差し方向確信度を評価し、(b) 繰り返しの時間毎に、視線方向を示す視線直線と各物品との間の距離に基づいて、物品毎の視線方向確信度を評価し、そして(c) 指差し方向確信度および視線方向確信度に基づいて対象物を特定する、対象物特定方法である。
第2の発明は、第1の発明に従属し、ステップ(a) は、(a1) 繰り返しの時間毎に、指先と顔の中心とを通る第1指差し直線との距離が最小の物品を推定するステップ、および(a2) 繰り返しの時間毎に、指先と肘とを通る第2指差し直線との距離が最小の物品を推定するステップを含み、ステップ(b) は、(b1) 繰り返しの時間毎に、一方の目の視線ベクトルを示す第1視線直線との距離が最小の物品を推定するステップ、および(b2) 繰り返しの時間毎に、他方の目の視線ベクトルを示す第2視線直線との距離が最小の物品を推定するステップを含み、ステップ(a) では、ステップ(a1) およびステップ(a2)の結果に基づいて指差し方向確信度を評価し、ステップ(b) では、ステップ(b1) およびステップ(b2) の結果に基づいて視線方向確信度を評価する、対象物特定方法である。
たとえば、モーションキャプチャによって、第1指差し直線および第2指差し直線を推定し、それらの直線と、人間の近傍の各物品との間の距離を計算することによって各線ごとの各物品に対する「確信度」を評価する。同様に、人間の両目のそれぞれの視線方向直線と各物品との間の距離を計算して、各視線毎の各物品に対する確信度を評価する。
繰り返しの時間毎にこのような確信度を評価し、最も多くの確信度を獲得した物品を対象物として特定する。
第3の発明は、人間の近傍に存在する物品のうち人間が指示している対象物を特定する装置であって、繰り返しの時間毎に、指差し方向を示す指差し直線と各物品との間の距離に基づいて、物品毎の指差し方向確信度を評価する手段、繰り返しの時間毎に、視線方向を示す視線直線と各物品との間の距離に基づいて、物品毎の視線方向確信度を評価する手段、および指差し方向確信度および視線方向確信度に基づいて対象物を特定する手段を備える、対象物特定装置である。
第4の発明は、第3の発明に従った対象物特定装置、および対象物特定装置で特定した対象物を指示する指示手段を備える、コミュニケーションロボットである。
第5の発明は、第4の発明に従属し、対象物特定装置で特定した対象物を運ぶ手段をさらに備える、コミュニケーションロボットである。
この発明によれば、人間の視線方向と指差し方向とを同時に参照して対象物を特定するようにしたので、対象物を正確に特定することができる。
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1を参照して、この実施例のコミュニケーションロボットシステム10は、コミュニケーションロボット(以下、単に「ロボット」ということがある。)12を含む。このロボット12は、たとえば無線LANなどのネットワーク14にアクセスすることができる。ロボット12は、人間16の指示する対象物を特定し、たとえばその対象物を人間16に持っていくなどの動作を実行する。
人間16は、その人物が誰であるかを示す無線タグ18を装着しているとともに、図示しないが、モーションキャプチャのためのマーカが付着されている。マーカは、典型的には、人間の頭頂、両肩、両肘、両手の人差し指の先端などに設定されていて、それらのマーカが、人間16の全体とともに、サーバ20に制御されるカメラ22によって撮影される。カメラ22は、実施例では、3つ設けられ、人間16を3方向から撮影し、そのカメラ映像をサーバ20に供給する。
サーバ20は無線LANのようなネットワーク14に結合され、上述のようにして入力されるカメラ映像データに基づいて、マーカの動きを検出するモーションキャプチャ処理を実行するとともに、たとえば肌色領域を検出することによって、人間16の顔の位置を特定することができる。
このシステム10では、上述のように、ロボット12が人間16の指示する物品を対象物として特定するものである。対象物となり得る物品の例として、この実施例では、本(書籍)を用いる。本24には、その本がどのような本であるかを示す無線タグ18が付着されている。本24は本棚26に収納される。
ただし、対象物となり得る物品は実施例の書籍だけでなく、もし家庭用のシステムであれば、家庭内のあらゆる物品が考えられる。また、当然、家庭用としてだけではなく、人間と一緒に働く任意の場所(会社、事務所、工場など)での利用が考えられる。
そして、このコミュニケーションロボットシステム10が対象とするすべての物品は、サーバ20に付設された物品辞書28に登録される。物品辞書28については後述する。
なお、図1では、簡単のため、1台のロボット12を示してあるが、2台以上であってよい。また、人間は1人に限定される必要はなく、無線タグ18で識別できるので、複数であってよい。
また、図1に示す実施例では、このシステム10を設置している空間のワールド座標を用いてロボット12、人間16、物品24などの位置が表現されていて、他方、ロボット12の制御はロボット座標で行なわれるので、詳細は説明しないが、ロボット12は、後述の処理における必要に応じて、ロボット座標とワールド座標との間の座標変換処理を実行するものである。
図2を参照して、ロボット12のハードウェアの構成について説明する。また、図2はこの実施例のロボット12の外観を示す正面図である。ロボット12は台車30を含み、台車30の下面にはロボット12を自律移動させる2つの車輪32および1つの従輪34が設けられる。2つの車輪32は車輪モータ36(図3参照)によってそれぞれ独立に駆動され、台車30すなわちロボット12を前後左右の任意方向に動かすことができる。また、従輪34は車輪32を補助する補助輪である。したがって、ロボット12は、配置された空間内を自律制御によって移動可能である。
台車30の上には、円柱形のセンサ取り付けパネル38が設けられ、このセンサ取り付けパネル38には、多数の赤外線距離センサ40が取り付けられる。これらの赤外線距離センサ40は、センサ取り付けパネル38すなわちロボット12の周囲の物体(人間や障害物など)との距離を測定するものである。
なお、この実施例では、距離センサとして、赤外線距離センサを用いるようにしてあるが、赤外線距離センサに代えて、超音波距離センサやミリ波レーダなどを用いることもできる。
センサ取り付けパネル38の上には、胴体42が直立するように設けられる。また、胴体42の前方中央上部(人の胸に相当する位置)には、上述した赤外線距離センサ40がさらに設けられ、ロボット12の前方の主として人間との距離を計測する。また、胴体42には、その側面側上端部のほぼ中央から伸びる支柱44が設けられ、支柱44の上には、全方位カメラ46が設けられる。全方位カメラ46は、ロボット12の周囲を撮影するものであり、後述する眼カメラ70とは区別される。この全方位カメラ46としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。なお、これら赤外線距離センサ40および全方位カメラ46の設置位置は、当該部位に限定されず適宜変更され得る。
胴体42の両側面上端部(人の肩に相当する位置)には、それぞれ、肩関節48Rおよび肩関節48Lによって、上腕50Rおよび上腕50Lが設けられる。図示は省略するが、肩関節48Rおよび肩関節48Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節48Rは、直交する3軸のそれぞれの軸廻りにおいて上腕50Rの角度を制御できる。肩関節48Rの或る軸(ヨー軸)は、上腕50Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。同様にして、肩関節48Lは、直交する3軸のそれぞれの軸廻りにおいて上腕50Lの角度を制御できる。肩関節48Lの或る軸(ヨー軸)は、上腕50Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。
また、上腕50Rおよび上腕50Lのそれぞれの先端には、肘関節52Rおよび肘関節52Lが設けられる。図示は省略するが、肘関節52Rおよび肘関節52Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸回りにおいて前腕54Rおよび前腕54Lの角度を制御できる。
前腕54Rおよび前腕54Lのそれぞれの先端には、人の手に相当するハンド56Rおよびハンド56Lがそれぞれ設けられる。これらのハンド56Rおよび56Lは、詳細な図示は省略するが、開閉可能に構成され、それによってロボット12は、ハンド56Rおよび56Lを用いて物体を把持または挟持することができる。ただし、ハンド56R,56Lの形状は実施例の形状に限らず、人間の手に酷似した形状や機能を持たせるようにしてもよい。
また、図示は省略するが、台車30の前面,肩関節48Rと肩関節48Lとを含む肩に相当する部位,上腕50R,上腕50L,前腕54R,前腕54L,球体56Rおよび球体56Lには、それぞれ、接触センサ58(図3で包括的に示す)が設けられる。台車30の前面の接触センサ58は、台車30への人間や他の障害物の接触を検知する。したがって、ロボット12は、その自身の移動中に障害物との接触が有ると、それを検知し、直ちに車輪32の駆動を停止してロボット12の移動を急停止させることができる。また、その他の接触センサ58は、当該各部位に触れたかどうかを検知する。なお、接触センサ58の設置位置は、当該部位に限定されず、適宜な位置(人の胸,腹,脇,背中および腰に相当する位置)に設けられてもよい。
胴体42の中央上部(人の首に相当する位置)には首関節60が設けられ、さらにその上には頭部62が設けられる。図示は省略するが、首関節60は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット12の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。
頭部62には、人の口に相当する位置に、スピーカ64が設けられる。スピーカ64は、ロボット12が、それの周辺の人間に対して音声ないし音によってコミュニケーションを取るために用いられる。また、人の耳に相当する位置には、マイク66Rおよびマイク66Lが設けられる。以下、右のマイク66Rと左のマイク66Lとをまとめてマイク66ということがある。マイク66は、周囲の音、とりわけコミュニケーションを実行する対象である人間の音声を取り込む。さらに、人の目に相当する位置には、眼球部68Rおよび眼球部68Lが設けられる。眼球部68Rおよび眼球部68Lは、それぞれ眼カメラ70Rおよび眼カメラ70Lを含む。以下、右の眼球部68Rと左の眼球部68Lとをまとめて眼球部68ということがある。また、右の眼カメラ70Rと左の眼カメラ70Lとをまとめて眼カメラ70ということがある。
眼カメラ70は、ロボット12に接近した人間の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。この実施例では、ロボット12は、この眼カメラ70からの映像信号によって、人間16の左右両目のそれぞれの視線方向(ベクトル)を検出する。その視線検出方法は具体的には、2つのカメラを用いるものとして特開2004‐255074号公報に、1つのカメラを用いるものとして特開2006‐172209号公報や特開2006‐285531号公報開示されるが、ここではその詳細は重要ではないので、これらの公開公報を引用するにとどめる。
ただし、人間16の視線ベクトルの検出のためには、よく知られているアイマークレコーダなどが利用されてもよい。
また、眼カメラ70は、上述した全方位カメラ46と同様のカメラを用いることができる。たとえば、眼カメラ70は、眼球部68内に固定され、眼球部68は、眼球支持部(図示せず)を介して頭部62内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部62の上に向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部62の正面側(顔)が向く方向に直行する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部68ないし眼カメラ70の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ64,マイク66および眼カメラ70の設置位置は、当該部位に限定されず、適宜な位置に設けられてよい。
このように、この実施例のロボット12は、車輪32の独立2軸駆動,肩関節48の3自由度(左右で6自由度),肘関節52の1自由度(左右で2自由度),首関節60の3自由度および眼球支持部の2自由度(左右で4自由度)の合計17自由度を有する。
図3はロボット12の電気的な構成を示すブロック図である。この図3を参照して、ロボット12は、CPU80を含む。CPU80は、マイクロコンピュータ或いはプロセッサとも呼ばれ、バス82を介して、メモリ84,モータ制御ボード86,センサ入力/出力ボード88および音声入力/出力ボード90に接続される。
メモリ84は、図示は省略をするが、ROM,HDDおよびRAMを含む。ROMおよびHDDには、ロボット12の動作を制御するための制御プログラムが予め記憶される。たとえば、各センサの出力(センサ情報)を検知するための検知プログラムや、外部コンピュータ(中央制御装置14および操作端末16など)との間で必要なデータやコマンドを送受信するための通信プログラムなどが記録される。また、RAMは、ワークメモリやバッファメモリとして用いられる。
さらに、この実施例では、ロボット12は、人間16とのコミュニケーションをとるために発話したり、ジェスチャできるように構成されているが、メモリ84に、このような発話やジェスチャのための発話/ジェスチャ辞書85Aが設定されている。
また、メモリ84には検索辞書85Bが設定されているが、この検索辞書85Bは、ロボット12が人間16の指示する物品(実施例では本。)を対象物として特定するために、当該人間の近傍に存在する物品(本)だけを物品辞書28から抜き出して登録する辞書で、人間16の位置の変化に応じて、動的に書き換えられるものである。
モータ制御ボード86は、たとえばDSPで構成され、各腕や首関節および眼球部などの各軸モータの駆動を制御する。すなわち、モータ制御ボード86は、CPU80からの制御データを受け、右眼球部68Rの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ92」と示す)の回転角度を制御する。同様にして、モータ制御ボード86は、CPU80からの制御データを受け、左眼球部68Lの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ94」と示す)の回転角度を制御する。
また、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Rの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Rの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ96」と示す)の回転角度を制御する。同様にして、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Lの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Lの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ98」と示す)の回転角度を制御する。
さらに、モータ制御ボード86は、CPU80からの制御データを受け、首関節60の直交する3軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ100」と示す)の回転角度を制御する。そして、モータ制御ボード86は、CPU80からの制御データを受け、車輪32を駆動する2つのモータ(図3では、まとめて「車輪モータ36」と示す)の回転角度を制御する。
モータ制御ボード86にはさらにハンドアクチュエータ108が結合され、モータ制御ボード86は、CPU80からの制御データを受け、ハンド56R,56Lの開閉を制御する。
なお、この実施例では、車輪モータ36を除くモータは、制御を簡素化するためにステッピングモータ(すなわち、パルスモータ)を用いる。ただし、車輪モータ36と同様に直流モータを用いるようにしてもよい。また、ロボット12の身体部位を駆動するアクチュエータは、電流を動力源とするモータに限らず適宜変更された、たとえば、他の実施例では、エアアクチュエータが適用されてもよい。
センサ入力/出力ボード88は、モータ制御ボード86と同様に、DSPで構成され、各センサからの信号を取り込んでCPU80に与える。すなわち、赤外線距離センサ40のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード88を通じてCPU80に入力される。また、全方位カメラ46からの映像信号が、必要に応じてセンサ入力/出力ボード88で所定の処理を施してからCPU80に入力される。眼カメラ70からの映像信号も、同様にして、CPU80に入力される。また、上述した複数の接触センサ58(図3では、まとめて「接触センサ58」と示す)からの信号がセンサ入力/出力ボード88を介してCPU80に与えられる。音声入力/出力ボード90もまた、同様に、DSPで構成され、CPU80から与えられる音声合成データに従った音声または声がスピーカ64から出力される。また、マイク66からの音声入力が、音声入力/出力ボード90を介してCPU80に与えられる。
また、CPU80は、バス82を介して通信LANボード102に接続される。通信LANボード102は、たとえばDSPで構成され、CPU80から与えられた送信データを無線通信装置104に与え、無線通信装置104は送信データを、ネットワーク14を介してサーバ20に送信する。また、通信LANボード102は、無線通信装置104を介してデータを受信し、受信したデータをCPU80に与える。たとえば、送信データとしては、ロボット12からサーバ20への信号(コマンド)であったり、ロボット12が行ったコミュニケーションについての動作履歴情報(履歴データ)などであったりする。このように、コマンドのみならず履歴データを送信するのは、メモリ84の容量を少なくするためと、消費電力を抑えるためである。この実施例では、履歴データはコミュニケーションが実行される度に、サーバ20に送信されたが、一定時間または一定量の単位でサーバ20に送信されるようにしてもよい。
さらに、CPU80は、バス82を介して無線タグ読取装置106が接続される。無線タグ読取装置106は、アンテナ(図示せず)を介して、無線タグ18(RFIDタグ)から送信される識別情報の重畳された電波を受信する。そして、無線タグ読取装置106は、受信した電波信号を増幅し、当該電波信号から識別信号を分離し、当該識別情報を復調(デコード)してCPU80に与える。図1によれば無線タグ18は、ロボット12が配置された会社の受付や一般家庭の居間などに居る人間16に装着され、無線タグ読取装置106は、通信可能範囲内の無線タグ18を検出する。なお、無線タグ18は、アクティブ型であってもよいし、無線タグ読取装置106から送信される電波に応じて駆動されるパッシブ型であってもよい。
次に、図4を参照して物品辞書28を説明する。この図4に示す物品辞書28は、たとえばユーコード(Ucode)のようなIDをそれぞれの物品の1つに割り当て、物品毎にその名称、属性、位置(座標)などの必要な情報を文字列として登録している。なお、ユーコードは、具体的には、128ビットの数字からなり、340兆の1兆倍のさらに1兆倍の数の物品を個別に識別できるものである。ただし、この物品辞書28に使うIDは必ずしもこのようなユーコードである必要はなく、適宜の数字や記号の組み合わせからなるものであってよい。
このような物品辞書28は、ロボットが識別すべき対象物となるすべての、たとえば家庭内の物品をIDと文字列とで登録するものであり、いわばグローバル辞書に相当する。
ロボット12が人間16とのコミュニケーションに従って対象物を特定する場合には、ロボット12は、人間16の近傍(人間16から所定距離範囲内)に存在する物品についてのみ登録した、図5に例示する検索辞書85Bを作成する。この検索辞書85Bは、上述のように人間16からの所定距離範囲内にある物品についてだけ登録するものであるため、いわばローカル辞書として機能する。人間16の位置の変化に応じてその近傍に存在する物品にも変化を生じるため、この検索辞書85Bは動的に書き換えられると考えられる。この物品辞書85Bの登録内容は、物品辞書28から抽出したものであってよい。
次に、図1に示す実施例におけるロボット12の動作について、図6に示すフロー図を参照して説明する。
図6の最初のステップS1において、ロボット12のCPU80(図3)は、同じく図3に例示するセンサ入力/出力ボード88からのセンサ入力に従って、人間16(図1)を認識したかどうか判断する。具体的には、たとえば赤外線センサ40で人体を検知し、そのとき無線タグ読取装置106でユーザ16が装着している無線タグ18を認識したとき、人間(ユーザ)16を認識したと判断する。
そして、ステップS1でユーザ(人間16)を認識すると、次のステップS3で、ロボット12のCPU80は、先に説明したように、ユーザ16から所定距離範囲内にある物品、図1の例では本24を個別に示すIDと文字列とを含む検索辞書85Bを、物品辞書28から内容を抽出することによって、メモリ84内に作成する。
次のステップS5において、CPU80は、メモリ84内に設定している発話/ジェスチャ辞書85Aを用いて、スピーカ64から、たとえば、「何か本を持って来ましょうか?」のような発話を行なわせる。その後、ユーザがたとえば「持ってきて」のような発話をしたとすると、ステップS7において、CPU80がユーザの指示を確認し、“YES”を判断する。このとき、ユーザ16は、「持ってきて」と発話するとともに、該当の本を指差すことによって、どの本を持ってきてほしいかを指示するものとする。
ステップS7でユーザの指示を確認すると、次のステップS9において、CPU80は、メモリ84内に設定したカウンタ85Cをインクリメントする。初期状態ではカウンタに「1」を設定する。このカウンタ85Cは、ユーザ16の近傍に存在する物品の数をカウントするもので、検索辞書85B(図5)のポインタとして機能する。したがって、カウンタ85Cのカウント値によって、検索辞書85B内において、異なる物品を指定する。カウンタ85Cのカウント値が、検索辞書85B内にリストアップしている物品の数「n」に等しくなるまで、以下の動作が各物品について、実行されるものと理解されたい。
ステップS9に続いて、CPU80は、ユーザ(人間16)の視線を推定してそれの確信度を求める動作と、指差し方向を推定してそれの確信度を求める動作とを並行して実行するが、ここでは便宜上、まず視線を推定し次いで指差し方向を推定する順序で説明する。
図6のステップS9‐ステップS23の動作は、ステップS5での発話時間T内に一定の繰り返しの時間(t1,t2,t3,…,tn)毎に実行されるが、実施例では、50Hz(1秒間に50回)で実行されるものとし、時間Tが0.5‐1秒と設定した。
ステップS11では、CPU80は、たとえば眼カメラ70からのカメラ映像を処理することによって、先に挙げた公開公報に記載したいずれかの方法に従って、ユーザ16の左右のそれぞれの眼の視線ベクトルを推定する。この左右それぞれの眼の視線方向は図7において直線L1およびL2で示される。このようにして、各視線L1およびL2を推定した後、CPU80は、次のステップS13において、カウンタ85Cがそのとき検索辞書85B内で指定している物品と、各視線L1およびL2との距離を計算する。
指差し方向を推定するためには、ステップS17において、まず、CPU80は、人間16が指差し動作をした腕を特定する。具体的には、モーションキャプチャのデータを参照して、たとえば、人間16の指先と肩の高さとの差が小さい側の腕を指差し腕として推定する。なぜなら、指差し動作をする場合には、腕を持ち上げる動作をまずするであろうからである。このようにして、ステップS17でどちらの腕を用いて指差し動作をするかを推定した後、CPU80は、次のステップS19において、指差し方向を推定する。
この実施例では、図7に示すように、指差し腕の指先と顔の中心(重心)とを通る直線L3、および指差し腕の指先とその腕の肘とを通る直線L4を想定する。そして、モーションキャプチャのデータを参照して、その直線L3およびL4を推定する。次のステップS21において、各直線L3およびL4と各物品との間の距離を計算する。
上述のステップS11‐S13およびS17‐S21は、発話時間T内の各繰返し時間毎に行われる。そして、各繰返しの時間(t1,t2,t3,...,tn)毎に、線L1,L2,L3,およびL4との距離が最小になる物品を求める。各線において、最小になった物品に対して高い確信度(図8でいえば「○」印)を付与する。このようにして、たとえば図8に示すような確信度表を作成する。
このように直線毎に最短距離を持つ物品を算出することによって確信度表を作成するようにすれば、1つの物品について2以上の直線について確信度(○)が付与されることがある。このことによって、後にステップS25で説明するような物品リストを作成することができるのである。
この図8の確信度表において、視線L1およびL2のそれぞれについて評価される確信度は「視線確信度」ということができ、指差し方向線L3およびL4のそれぞれについて評価される確信度が「指差し方向確信度」であるということができる。
図8に示す例で説明すると、「123…000001」のIDを持つ物品、実施例でいえば図1に示す「地球温暖化」という名称の本についていえば、時間t1に一方の視線L2とこの本との間の距離が最小になったものの、その他の時間区間ではどの線も当該本に最接近することはなかったと判断できる。次の、「123…000035」のIDを持つ物品、実施例でいえば図1に示す「カメラ」という名称の雑誌についていえば、時間t1を除いて、各時間にどれかの線がこの物品に再接近したことがわかる。このようにして、図8に示す確信度表がステップS13およびS21で作成される。
ステップS25においてCPU80は、図8に示す確信度表を参照して、そのとき人間16(ユーザ)が指示したと考える対象物を特定する。具体的には、確信度評価(図8で言えば丸印)が単に多い順や、繰返し時間で視線(L1またはL2)と指差し(L3またはL4)の両方に○が入っている回数が多い順などに従って、物品リストを作成し、その最上位のものをまず対象物として特定する。このことによって、確信度評価の多様性が得られる。
この確信度評価について、たとえば、図8に示す例で説明すると、「123…000001」のIDを持つ「地球温暖化」という名称の本についていえば、確信度評価は「1」(1つの○印が付与された。)であり、「123…000035」のIDを持つ「カメラ」という雑誌の確信度は「3」ということになる。したがって、この場合には、物品リストには、ID「123…000035」、ID「123…000001」の順で登録される。そのため、まず、雑誌「カメラ」(ID「123…000035」)が対象物として特定される。
ただし、確信度(○印)の数が同じ場合であるとか、確信度(○印)の数が所定の閾値より小さい場合など、判断に迷う場合には、たとえば、図8に示す各繰り返しの時間の全区間の半分以上で確信度が付与されているような物品を対象物として特定すればよい。
ステップS25で対象物を特定した後、CPU80は、次のステップS27において、S25で特定した対象物を示すように、発話/ジェスチャ辞書85Aを参照して、発話および指差し動作を行う。対象物を「カメラ」というタイトルの雑誌であると特定した場合、このステップS27では、図1において右から3番目に置かれている本を指差しジェスチャで示すとともに、たとえば「カメラという白色の雑誌ですね」のような発話を行う。
その後、CPU80は、マイク66を通して入力されたユーザ(人間16)の声を音声認識処理する。そして、ステップS31で、そのときユーザが、ロボット12が特定した対象物を肯定したのか否定したのかを判断し、否定したときには、次のステップS33に進み、ステップS25で物品リストに未特定の物品がまだ残っているかどうかを判断する。このステップS33で“YES”と判断したときにはステップS25に戻って処理を繰り返すが、“NO”と判断したときには、対象物が特定できなかったものとして処理を終了する。
ステップS31でユーザ16の肯定的な音声を認識した場合、ロボット12は、該当する対象物の方向に移動し、該当する対象物を把持してユーザ16の位置に運ぶ。つまり、対象物が存在する位置の座標が既にわかっているので、ロボット12のCPU80は、車輪モータ36を制御して、ロボット12をその対象物の位置に移動させ、次いでアクチュエータ108(図3)を制御することによってハンド56R(または56L)開閉して対象物をハンド56R(または56L:図2)で把持させ、その状態で再び車輪モータ36を制御してロボット12をユーザ16の位置にまで移動させる。このようにして、ステップS35で、ロボット12がステップS25で特定した対象物をユーザ16に運ぶことができる。
このように、上述の実施例では、視線L1およびL2ならびに指差し方向線L3およびL4を推定して各物品に対する距離を計算した上で、確信度に基づいて判断するようにしたので、人間の指示が曖昧であったり、時間ごとに変動するような場合であっても、かなり正確に対象物を特定することができる。
ただし、たとえば、ユーザの視線L1およびL2がロボット12に向けられていて、明らかに対象物には向けられていないと推定できる場合には、視線L1およびL2について推定することなく、指差し方向直線L3およびL4だけを推定するようにしてもよい。
また、上述の実施例において個々の説明は省略したが、各線L1-L4を定義したり、物品や人間の位置を特定したり、各線と各物品の間の距離を計算したりするためには、全てワールド座標系の座標を用いるようにしている。したがって、ロボット12は必要な場合には、ロボット座標系との間で座標変換を実行する。
さらに、この発明の対象物特定方法および装置をコミュニケーションロボットシステムに適用した実施例について説明したが、コミュニケーションロボット以外の用途にも適用できるのはいうまでもない。
図1はこの発明の一実施例を示すコミュニケーションロボットシステムの概要を示す図解図である。 図2は図1に示すロボットの外観を正面から見た図解図である。 図3は図1に示すロボットの電気的な構成を示すブロック図である。 図4は図1の実施例で用いられる物品辞書の一例を示す図解図である。 図5は図1の実施例で用いられる検索辞書の一例を示す図解図である。 図6は図1の実施例におけるロボットの動作を示すフロー図である。 図7はユーザ(人間)の視線および指差し方向を示す図解図である。 図8は図6の実施例で用いる確信度表の一例を示す図解図である。
符号の説明
10 …コミュニケーションロボットシステム
12 …コミュニケーションロボット
14 …ネットワーク
18 …無線タグ
20 …サーバ
22 …カメラ
24 …物品(本)
80 …CPU

Claims (5)

  1. 人間の近傍に存在する物品のうち人間が指示している対象物を特定する方法であって、
    (a) 繰り返しの時間毎に、指差し方向を示す指差し直線と各物品との間の距離に基づいて、物品毎の指差し方向確信度を評価し、
    (b) 繰り返しの時間毎に、視線方向を示す視線直線と各物品との間の距離に基づいて、物品毎の視線方向確信度を評価し、そして
    (c) 前記指差し方向確信度および前記視線方向確信度に基づいて対象物を特定する、対象物特定方法。
  2. 前記ステップ(a) は、(a1) 繰り返しの時間毎に、指先と顔の中心とを通る第1指差し直線との距離が最小の物品を推定するステップ、および(a2) 繰り返しの時間毎に、前記指先と肘とを通る第2指差し直線との距離が最小の物品を推定するステップを含み、
    前記ステップ(b) は、(b1) 繰り返しの時間毎に、一方の目の視線ベクトルを示す第1視線直線との距離が最小の物品を推定するステップ、および(b2) 繰り返しの時間毎に、他方の目の視線ベクトルを示す第2視線直線との距離が最小の物品を推定するステップを含み、
    前記ステップ(a) では、前記ステップ(a1) および前記ステップ(a2)の結果に基づいて前記指差し方向確信度を評価し、
    前記ステップ(b) では、前記ステップ(b1) および前記ステップ(b2) の結果に基づいて前記視線方向確信度を評価する、請求項1記載の対象物特定方法。
  3. 人間の近傍に存在する物品のうち人間が指示している対象物を特定する装置であって、
    繰り返しの時間毎に、指差し方向を示す指差し直線と各物品との間の距離に基づいて、物品毎の指差し方向確信度を評価する手段、
    繰り返しの時間毎に、視線方向を示す視線直線と各物品との間の距離に基づいて、物品毎の視線方向確信度を評価する手段、および
    前記指差し方向確信度および前記視線方向確信度に基づいて対象物を特定する手段を備える、対象物特定装置。
  4. コミュニケーションロボットであって、
    請求項3記載の対象物特定装置、および
    前記対象物特定装置で特定した対象物を指示する指示手段を備える、コミュニケーションロボット。
  5. 前記対象物特定装置で特定した対象物を運ぶ手段をさらに備える、請求項4記載のコミュニケーションロボット。
JP2007326924A 2007-12-19 2007-12-19 対象物特定方法および装置 Active JP5145569B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007326924A JP5145569B2 (ja) 2007-12-19 2007-12-19 対象物特定方法および装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007326924A JP5145569B2 (ja) 2007-12-19 2007-12-19 対象物特定方法および装置

Publications (2)

Publication Number Publication Date
JP2009151419A true JP2009151419A (ja) 2009-07-09
JP5145569B2 JP5145569B2 (ja) 2013-02-20

Family

ID=40920534

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007326924A Active JP5145569B2 (ja) 2007-12-19 2007-12-19 対象物特定方法および装置

Country Status (1)

Country Link
JP (1) JP5145569B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009240370A (ja) * 2008-03-28 2009-10-22 Advanced Telecommunication Research Institute International 動作検出装置
JP2015043209A (ja) * 2013-08-26 2015-03-05 トムソン ライセンシングThomson Licensing ヘッドマウント装置を介する表示方法
WO2016035281A1 (ja) * 2014-09-04 2016-03-10 株式会社ランディード 車載システム、情報処理方法、およびコンピュータプログラム
US10198082B2 (en) 2015-07-31 2019-02-05 Kabushiki Kaisha Toshiba Position input device and position input method
KR20190047640A (ko) * 2017-10-27 2019-05-08 서울대학교산학협력단 전력 및 모션 감응형 교육용 로봇
WO2020066269A1 (ja) * 2018-09-28 2020-04-02 株式会社デンソー ジェスチャ入力装置
CN112847357A (zh) * 2020-12-31 2021-05-28 宁波知行物联科技有限公司 一种取档机器人控制方法和系统
US11318877B2 (en) 2019-05-29 2022-05-03 Toyota Boshoku Kabushiki Kaisha Vehicle light-adjusting system
JP2022121592A (ja) * 2017-04-19 2022-08-19 マジック リープ, インコーポレイテッド ウェアラブルシステムのためのマルチモード実行およびテキスト編集

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06337756A (ja) * 1993-05-28 1994-12-06 Daikin Ind Ltd 3次元位置指定方法および仮想空間立体視装置
JP2004246856A (ja) * 2002-12-18 2004-09-02 National Institute Of Advanced Industrial & Technology インタフェース装置
JP2004265222A (ja) * 2003-03-03 2004-09-24 Nippon Telegr & Teleph Corp <Ntt> インタフェース方法、装置、およびプログラム
JP2005006897A (ja) * 2003-06-19 2005-01-13 Nara Institute Of Science & Technology 関心度推定装置
JP2005321966A (ja) * 2004-05-07 2005-11-17 Nippon Telegr & Teleph Corp <Ntt> インタフェース方法、装置、およびプログラム
JP2006231497A (ja) * 2005-02-28 2006-09-07 Advanced Telecommunication Research Institute International コミュニケーションロボット
WO2007086222A1 (ja) * 2006-01-24 2007-08-02 Honda Motor Co., Ltd. 注意領域を推定するシステムおよび方法
WO2007105792A1 (ja) * 2006-03-15 2007-09-20 Omron Corporation 監視装置および監視方法、制御装置および制御方法、並びにプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06337756A (ja) * 1993-05-28 1994-12-06 Daikin Ind Ltd 3次元位置指定方法および仮想空間立体視装置
JP2004246856A (ja) * 2002-12-18 2004-09-02 National Institute Of Advanced Industrial & Technology インタフェース装置
JP2004265222A (ja) * 2003-03-03 2004-09-24 Nippon Telegr & Teleph Corp <Ntt> インタフェース方法、装置、およびプログラム
JP2005006897A (ja) * 2003-06-19 2005-01-13 Nara Institute Of Science & Technology 関心度推定装置
JP2005321966A (ja) * 2004-05-07 2005-11-17 Nippon Telegr & Teleph Corp <Ntt> インタフェース方法、装置、およびプログラム
JP2006231497A (ja) * 2005-02-28 2006-09-07 Advanced Telecommunication Research Institute International コミュニケーションロボット
WO2007086222A1 (ja) * 2006-01-24 2007-08-02 Honda Motor Co., Ltd. 注意領域を推定するシステムおよび方法
WO2007105792A1 (ja) * 2006-03-15 2007-09-20 Omron Corporation 監視装置および監視方法、制御装置および制御方法、並びにプログラム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009240370A (ja) * 2008-03-28 2009-10-22 Advanced Telecommunication Research Institute International 動作検出装置
JP2015043209A (ja) * 2013-08-26 2015-03-05 トムソン ライセンシングThomson Licensing ヘッドマウント装置を介する表示方法
WO2016035281A1 (ja) * 2014-09-04 2016-03-10 株式会社ランディード 車載システム、情報処理方法、およびコンピュータプログラム
US10198082B2 (en) 2015-07-31 2019-02-05 Kabushiki Kaisha Toshiba Position input device and position input method
JP2022121592A (ja) * 2017-04-19 2022-08-19 マジック リープ, インコーポレイテッド ウェアラブルシステムのためのマルチモード実行およびテキスト編集
JP7336005B2 (ja) 2017-04-19 2023-08-30 マジック リープ, インコーポレイテッド ウェアラブルシステムのためのマルチモード実行およびテキスト編集
US11960636B2 (en) 2017-04-19 2024-04-16 Magic Leap, Inc. Multimodal task execution and text editing for a wearable system
KR20190047640A (ko) * 2017-10-27 2019-05-08 서울대학교산학협력단 전력 및 모션 감응형 교육용 로봇
KR102191488B1 (ko) 2017-10-27 2020-12-15 서울대학교산학협력단 전력 및 모션 감응형 교육용 로봇
WO2020066269A1 (ja) * 2018-09-28 2020-04-02 株式会社デンソー ジェスチャ入力装置
US11318877B2 (en) 2019-05-29 2022-05-03 Toyota Boshoku Kabushiki Kaisha Vehicle light-adjusting system
CN112847357A (zh) * 2020-12-31 2021-05-28 宁波知行物联科技有限公司 一种取档机器人控制方法和系统

Also Published As

Publication number Publication date
JP5145569B2 (ja) 2013-02-20

Similar Documents

Publication Publication Date Title
JP5145569B2 (ja) 対象物特定方法および装置
JP5429462B2 (ja) コミュニケーションロボット
JP4822319B2 (ja) コミュニケーションロボットおよびそれを用いた注意制御システム
JP5366048B2 (ja) 情報提供システム
JP2007260822A (ja) 道案内ロボット
JP5764795B2 (ja) 移動ロボット、移動ロボット用の学習システムおよび移動ロボットの行動学習方法
JP4386367B2 (ja) コミュニケーションロボット改良システム
CN102902271A (zh) 基于双目视觉的机器人目标识别与抓取系统及方法
JP5318623B2 (ja) 遠隔操作装置および遠隔操作プログラム
JP4599522B2 (ja) コミュニケーションロボット
JP2007139710A (ja) 歩行補助ロボット
JP2007181888A (ja) コミュニケーションロボットシステム
JP6150429B2 (ja) ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法
WO2019138619A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6134895B2 (ja) ロボット制御システム、ロボット制御プログラムおよび説明ロボット
JP4399603B2 (ja) コミュニケーションロボット
JP6134894B2 (ja) ロボット制御システムおよびロボット
WO2019087495A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2007160427A (ja) ロボット制御システム
JP2017170568A (ja) サービス提供ロボットシステム
JP2011000656A (ja) 案内ロボット
JP5163202B2 (ja) 物品推定システム
JP5194314B2 (ja) コミュニケーションシステム
JP4111959B2 (ja) 距離計測システム
JP5115886B2 (ja) 道案内ロボット

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120321

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121102

R150 Certificate of patent or registration of utility model

Ref document number: 5145569

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250