JP2015114933A - 物体認識装置、ロボット及び物体認識方法 - Google Patents

物体認識装置、ロボット及び物体認識方法 Download PDF

Info

Publication number
JP2015114933A
JP2015114933A JP2013257666A JP2013257666A JP2015114933A JP 2015114933 A JP2015114933 A JP 2015114933A JP 2013257666 A JP2013257666 A JP 2013257666A JP 2013257666 A JP2013257666 A JP 2013257666A JP 2015114933 A JP2015114933 A JP 2015114933A
Authority
JP
Japan
Prior art keywords
unit
recognized
robot
motion
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013257666A
Other languages
English (en)
Other versions
JP6067547B2 (ja
Inventor
裕明 矢口
Hiroaki Yaguchi
裕明 矢口
虎太郎 長濱
Torataro Nagahama
虎太郎 長濱
雅幸 稲葉
Masayuki Inaba
雅幸 稲葉
将慶 土永
Shokei Tsuchinaga
将慶 土永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Toyota Motor Corp
Original Assignee
University of Tokyo NUC
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC, Toyota Motor Corp filed Critical University of Tokyo NUC
Priority to JP2013257666A priority Critical patent/JP6067547B2/ja
Publication of JP2015114933A publication Critical patent/JP2015114933A/ja
Application granted granted Critical
Publication of JP6067547B2 publication Critical patent/JP6067547B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

【課題】物体同士の重畳関係を、より具体的に把握すること。
【解決手段】本発明に係る物体認識装置は、周辺を時間的に連続して撮像し、複数の画像情報を生成する撮像部と、複数の画像情報のそれぞれについて撮像範囲に位置する第1の物体及び第2の物体を認識する物体認識部と、認識された第1の物体及び第2の物体のそれぞれの位置の変化から、第1の物体及び第2の物体のそれぞれが静止状態か運動状態のいずれにあるかを判定する運動判定部と、第1の物体と第2の物体の重畳関係を推定する重畳関係推定部を備える。重畳関係推定部は、第1の物体が静止状態にあり第2の物体が運動状態にあるときに、第2の物体が認識されなくなった場合には、第1の物体内に第2の物体が存在すると推定し、第1の物体が静止状態にあり第2の物体が運動状態にあるときに、第1の物体が認識されなくなった場合には、第1の物体上に第2の物体が存在すると推定する。
【選択図】図3

Description

本発明は、物体認識装置、ロボット及び物体認識方法に関し、特に、相互に重畳する可能性のある複数の物体を認識する技術に関する。
特許文献1には、長時間にわたる追跡対象の遮蔽や、遮蔽後に遮蔽物が追跡対象と一体となって移動する場合にも追跡を可能とする物体追跡装置が開示されている。この物体追跡装置は、追跡対象の尤度モデルにより算出した追跡対象の尤度と、予め定められた閾値との比較により異常状態を検知した場合、遮蔽物の尤度モデルを作成する。これにより、追跡の異常があったときに、追跡の対象を本来の対象から遮蔽物に移して、遮蔽物を仮の追跡対象として認識して追跡を続行することができるようにしている。
特許文献2には、追跡目標が遮蔽物に遮蔽され、遮蔽物が追跡対象となっている場合に、追跡目標の再検出精度を高めることができる目標追跡装置が開示されている。この目標追跡装置は、入力画像内において追跡目標が遮蔽物に遮蔽された場合、入力画像内での遮蔽物のサイズ変動に応じて追跡目標のサイズ情報も更新するようにしている。これにより、追跡目標が再出現したときに、追跡目標を再検出する可能性を高めることができるようにしている。
特開2007−272436号公報 特開2012−80222号公報
しかしながら、特許文献1及び特許文献2に開示の技術では、単に、物体が遮蔽されているか否かを把握することができるのみであり、物体同士の重畳関係を、それよりも具体的に把握することはできないという問題がある。
本発明は、上述のような問題を解決するためになされたものであり、物体同士の重畳関係を、より具体的に把握することができる物体認識装置、ロボット及び物体認識方法を提供することを目的とする。
本発明の第1の態様に係る物体認識装置は、周辺を時間的に連続して撮像し、それぞれの画像を示す複数の画像情報を生成する撮像部と、前記生成された複数の画像情報のそれぞれについて、前記撮像部の撮像範囲に位置する第1の物体及び第2の物体を認識する物体認識部と、前記認識された第1の物体及び第2の物体のそれぞれの位置の変化から、前記第1の物体及び前記第2の物体のそれぞれが静止状態か運動状態のいずれにあるかを判定する運動判定部と、前記第1の物体及び前記第2の物体の認識結果と、前記第1の物体及び前記第2の物体が静止状態か運動状態のいずれにあるかの判定結果から、前記第1の物体と前記第2の物体の重畳関係を推定する重畳関係推定部と、を備え、前記重畳関係推定部は、前記第1の物体が静止状態にあり前記第2の物体が運動状態にあるときに、前記第1の物体が認識されているが前記第2の物体が認識されなくなった場合には、前記第1の物体内に前記第2の物体が存在すると推定し、前記第1の物体が静止状態にあり前記第2の物体が運動状態にあるときに、前記第2の物体が認識されているが前記第1の物体が認識されなくなった場合には、前記第1の物体上に前記第2の物体が存在すると推定するものである。これによれば、物体が他方の物体内に存在する形で重畳しているのか、物体が他方の物体上に存在する形で重畳しているのかといった物体同士のより具体的な重畳関係を把握することができる。
前記物体認識装置は、さらに、前記認識された第1の物体及び前記第2の物体のそれぞれの位置から、前記第1の物体と前記第2の物体との間の距離を算出する距離算出部を備え、前記重畳関係推定部は、前記距離算出部により算出された前記第1の物体と前記第2の物体との間の距離が所定の距離閾値以上であるときには、前記第1の物体と前記第2の物体のいずれかが認識されなくなるような場合であっても、前記第1の物体と前記第2の物体とが重畳関係にあると推定しないようにしてもよい。これによれば、物体が相互に離れており物体が重畳し得ないような状態において物体が重畳していると誤認識することを防止することができる。
また、前記運動判定部は、前記認識された第1の物体及び第2の物体のそれぞれの位置の変化として、前記第1の物体及び前記第2の物体のそれぞれについて運動ベクトルを算出し、算出した運動ベクトルの大きさが、所定の運動ベクトル閾値未満である場合には静止状態であると判定し、前記運動ベクトル閾値以上である場合には運動状態にあると判定するようにしてもよい。これによれば、実際には物体が運動していないが微小な運動ベクトルが検出されてしまった場合に、物体が運動していると誤判定することを防止することができる。
本発明の第2の態様に係るロボットは、上述の第1の態様に係る物体認識装置と、物体を操作可能なロボットアームと、前記重畳関係推定部によって推定された前記第1の物体と前記第2の物体の重畳関係を考慮して前記第1の物体又は前記第2の物体を操作するように前記ロボットアームを制御する制御部と、を備えたものである。これによれば、ロボットが、より具体的な物体同士の重畳関係を把握して動作することができるため、より柔軟な物体の操作をすることができる。
本発明の第3の態様に係るロボットは、上述の第1の態様に係る物体認識装置と、物体を操作可能なロボットアームと、前記第1の物体について、その物体内に他の物体を置くことができる物体か、又は、その物体上に他の物体を置くことができる物体かを示す物体機能情報が格納される格納部と、前記ロボットアームにより前記第1の物体に他の物体を置く場合、前記格納部に格納された物体機能情報に従って、前記第1の物体内に他の物体を置く、又は、前記第2の物体上に他の物体を置くように前記ロボットアームを制御する制御部と、を備え、前記物体関係推定部は、前記第1の物体内に前記第2の物体が存在すると推定した場合、前記第1の物体について、その物体内に他の物体を置くことができる物体であることを示す物体機能情報を前記格納部に格納し、前記第1の物体上に前記第2の物体が存在すると推定した場合、前記第1の物体について、その物体上に他の物体を置くことができる物体であることを示す物体機能情報を前記格納部に格納するようにしてもよい。これによれば、ロボットが、物体の機能(他の物体を内部に置くことができる、他の物体を上に置くことができる)を学習し、物体の機能を考慮してより柔軟な物体の操作をすることができる。
本発明の第4の態様に係る物体認識方法は、周辺を時間的に連続して撮像し、それぞれの画像を示す複数の画像情報を生成するステップと、前記生成された複数の画像情報により、撮像範囲に位置する第1の物体及び第2の物体が静止状態か運動状態のいずれにあるかを判定するステップと、前記第1の物体が静止状態にあり前記第2の物体が運動状態にあると判定した場合、前記第1の物体及び前記第2の物体のうち、前記第2の物体が認識されなくなったときには、前記第1の物体内に前記第2の物体が存在すると推定し、前記第1の物体が認識されなくなったときには、前記第1の物体上に前記第2の物体が存在すると推定するステップと、を備えたものである。これによれば、上述の第1の態様と同様に、物体同士のより具体的な重畳関係を把握することができる。
上述した本発明の各態様によれば、物体同士の重畳関係を、より具体的に把握することができる物体認識装置、ロボット及び物体認識方法を提供することができる。
実施の形態1に係るロボットの外部構成図である。 実施の形態1に係るロボットの内部構成図である。 実施の形態1に係るロボットの処理ブロック図である。 実施の形態1に係るロボットの処理を示すフローチャートである。 実施の形態1に係るロボットの処理を示すフローチャートである。 対象物の重畳関係の一例を示す図である。 対象物の重畳関係の一例を示す図である。 実施の形態2に係るロボットの処理ブロック図である。 実施の形態2に係るロボットの処理を示すフローチャートである。
以下に図面を参照しながら、本発明の好適な実施の形態について説明する。以下の実施の形態に示す具体的な数値等は、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、それに限定されるものではない。また、以下の記載及び図面では、説明の明確化のため、当業者にとって自明な事項等については、適宜、省略及び簡略化がなされている。
<発明の実施の形態1>
本実施の形態1に係るロボット1について説明する。まず、図1を参照して、本実施の形態1に係るロボット1の外部構成について説明する。図1は、本実施の形態1に係るロボット1の外部構成図である。
ロボット1は、ロボット本体10、移動台車20、把持部30、及び頭部40を有している。ロボット1は、工場において人が行う作業を代行する産業ロボットとして利用することができる。また、ロボット1は、家庭内において人が行う作業を代行するサービスロボットとしても利用することができる。例えば、ロボット1は、人に代わり物体を運搬する作業や、物体を人に拾い届ける作業等を実行するロボットとして利用することができる。
移動台車20は、その上方でロボット本体10を支持するように、その上部がロボット本体10の下部に連結されている。移動台車20は、その下部に設けられた車輪(図示せず)を駆動することでロボット1を移動させる。
把持部30は、ロボット本体10の前方に突出するように、ロボット本体10の前部に接続されている。把持部30は、多関節のアーム(ロボットアーム)である。把持部30は、その先端部に、任意の物体を把持できるハンド60を含む。これにより、ロボット1は、把持部30の各関節の角度を調整することで、ハンド60を所望の位置に移動させ、その位置に存在する物体を把持することができる。
頭部40は、ロボット本体10の上方でロボット本体10に支持されるように、ロボット本体10の上部に連結されている。頭部40は、その前方を撮像部50によって観測可能となるように、その前部に撮像部50が取り付けられている。撮像部50は、ロボット1の周辺を撮像し、撮像した周辺の画像を示す画像情報を生成する。すなわち、撮像部50は、具体的には周辺を撮像するカメラとなる。カメラは、単眼カメラ及びステレオカメラ等の各種カメラのうち、任意のカメラを使用するようにしてよい。
撮像部50は、所定の角度範囲(画角)を撮像可能となっている。一方、頭部40とロボット本体10との連結部は、頭部40を動作可能となるように多自由度の関節構造となっている。例えば、関節構造として少なくとも2自由度以上を有するようにすることで、頭部40は、少なくとも上下左右に動作させることが可能とされている。これにより、撮像部50の撮像可能な角度範囲が限られていても、頭部40を動作させることで広範囲を撮像することを可能としている。
操作端末9は、ロボット1と無線又は有線によって通信可能な情報処理端末である。本実施の形態では、操作端末9とロボット1とが無線によって通信する例について説明する。操作端末9は、デスクトップPC(Personal Computer)のような据え置き型の情報処理端末であってもよいが、好ましくは、ユーザが生活空間において制限なくロボット1を操作可能とするために、携帯型の情報処理端末であるとよい。携帯型の情報処理端末は、例えば、スマートフォン、又はタブレット端末等である。
ユーザは、操作端末9によってロボット1に対して、上述したような人が行う作業を指示することができる。ロボット1は、ユーザから指示された作業をユーザに代わり実行する。例えば、ロボット1は、ユーザから操作端末9によって物体の運搬を指示された場合、その物体を運搬先に運搬する。
すなわち、上述した構成により、ロボット1は、撮像部50によって生成した画像情報が示す画像に基づいて周辺に存在する物体を認識する。そして、ロボット1は、認識した物体を把持部30によって把持して、その物体の運搬先となる目標地点へ移動台車20の車輪を駆動することで運搬する。
続いて、図2を参照して、本実施の形態1に係るロボット1の内部構成について説明する。図2は、本実施の形態1に係るロボット1の内部構成図である。
ロボット1は、制御部11、記憶部12、通信部13、アクチュエータ21a、21b、車輪22a、22b、及びアクチュエータ31a、31bを有する。制御部11及び記憶部12は、ロボット本体10に含まれる。アクチュエータ21a、21b及び車輪22a、22bは、移動台車20に含まれる。アクチュエータ31a、31bは、把持部30に含まれる。
制御部11は、ロボット1を統括的に制御する。制御部11は、CPU(Central Processing Unit)を有しており、そのCPUが記憶部12に格納されたプログラムを実行することで、制御部11としての各種処理を実現する。すなわち、このプログラムは、制御部11が有するCPUに制御部11としての各種処理を実行させるためのコードを含んでいる。
記憶部12は、上記プログラムや、その他の制御部11が使用する各種情報が格納される。記憶部12は、上記プログラムや各種情報を格納可能な記憶装置の少なくとも1つを含む。記憶装置として、例えば、メモリ及びハードディスク等の少なくとも1つを任意に使用してよい。
通信部13は、操作端末9に送信するために制御部11から出力された情報を、無線信号に変換し、操作端末9に送信する。通信部13は、操作端末9から受信した無線信号を、制御部11で処理可能な情報となるように電気信号に変換し、制御部11に出力する。例えば、ユーザがロボット1に指示をする場合、その指示内容を示す無線信号が操作端末9から送信され、通信部13によって受信されることになる。
アクチュエータ21a、21bは、ロボット1の車輪22a、22bを駆動する。アクチュエータ21aは、制御部11からの制御によって駆動され、車輪22aを回転させる。アクチュエータ21bは、制御部11からの制御によって駆動され、車輪22bを回転させる。
車輪22a及び車輪22bは、上述した移動台車20の下部に取り付けられた車輪に該当する。すなわち、制御部11は、アクチュエータ21a、21bを制御して、車輪22a、22bを回転させることでロボット1を移動させる。
アクチュエータ31a、31bは、ロボット1の把持部30を駆動する。アクチュエータ31a、31bは、制御部11からの制御によって駆動され、把持部30を動作させるアクチュエータ31a、31bのそれぞれは、把持部30の関節として設けられている。なお、ここでは、把持部30が、アクチュエータ31aとアクチュエータ31bとの2つの関節を有する例について説明するが、把持部30の関節数は、これに限られない。
ハンド60は、制御部11からの制御によって駆動され、物体を把持もしくは解放する。制御部11は、ハンド60によって把持対象の物体を把持する場合、各アクチュエータ31a、31b、21a、21bの少なくとも1つを駆動し、撮像部50から出力された画像情報が示す画像に基づいて認識した物体までハンド60を導く。
続いて、図3を参照して、本実施の形態1に係るロボット1の処理ブロックについて説明する。図3は、本実施の形態1に係るロボット1の処理ブロック図である。
制御部11は、特徴抽出部111、特徴点対応付け部112、物体認識部113、及び運動ベクトル算出部114、運動判定部115、距離算出部116、及び重畳関係推定部117として機能する。
また、記憶部12は、物体情報格納部121として機能する。物体情報格納部121には、ロボット1が動作する環境に存在する複数の物体のそれぞれについて、物体認識用特徴情報、物体3Dモデル情報(物体形状情報)、特徴点位置情報、及び物体IDが格納されている。物体認識用特徴情報、物体3Dモデル情報、特徴点位置情報、及び物体IDは、同一の物体について相互に対応付けられている。これらの情報は、物体の種類毎に用意するようにしてもよい。
物体認識用特徴情報は、物体のモデルを特徴点(特徴点群)によって示す情報である。物体3Dモデル情報は、物体の3Dモデル(モデルとなる三次元形状)を示す情報である。特徴点位置情報は、物体3Dモデル情報が示す物体の3Dモデルに対する、物体認識用特徴情報が示す各特徴点の位置関係を示す情報である。物体IDは、各物体を一意に示す情報である。
撮像部50は、所定の時間間隔で撮像し、順次、生成した画像情報を特徴抽出部111に出力する。このようにして、複数のフレームの画像情報が順次生成される。
特徴抽出部111は、撮像部50から出力された現フレームの画像情報が示す画像において特徴点(特徴点群)を抽出する。なお、特徴点を抽出するために利用する画像特徴として、SURF特徴、エッジ特徴、及びHOG(Histogram of Oriented Gradient)特徴等の特徴のうち、任意の特徴を利用するようにしてよい。
特徴点対応付け部112は、特徴抽出部111によって抽出された特徴点と、物体認識用特徴情報が示す物体のモデルの特徴点との対応付けを行う。すなわち、特徴点対応付け部112は、抽出された特徴点と、物体のモデルの特徴点とを照合(マッチング)することで、抽出された特徴点の中から物体のモデルの特徴点と一致する特徴点を特定し、相互に対応付ける。すなわち、これにより、画像の特徴点の中から、物体の特徴点が認識される。
物体認識部113は、特徴点対応付け部112によって特定された特徴点の対応関係に基づいて、どの物体(どの物体IDの物体)が存在するか認識するとともに、物体の位置・姿勢を認識する。具体的には、物体認識部113は、抽出された特徴点と物体のモデルの特徴点との間で対応付けられた(一致した)特徴点が、物体のモデルの全ての特徴点に対して所定の割合を超えている場合に、その位置にその物体が存在するものと認識する。これにより、物体認識部113は、その物体のモデルの特徴量を示す物体認識用特徴情報に対応する物体IDの物体が存在すると認識する。また、物体認識部113は、抽出された物体の特徴点の位置関係に基づいて、物体の姿勢(傾き)を特定する。なお、物体の位置には、ロボット1から物体までの距離も含まれる。ここで、ロボット1から物体までの距離は、撮像部50が単眼カメラであれば、特徴点間の距離に基づいて推定するようにすればよく、2つの以上の画像を撮像するステレオカメラであれば、2つの画像間の同一地点のズレ量(例えば同一特徴点のズレ量等)に基づいて算出するようにすればよい。
運動ベクトル算出部114は、物体認識部113による過去フレームから現フレームまでの複数フレーム分の物体の認識結果(物体の位置)の比較によって、物体の運動ベクトル(方向および速度)を算出する。例えば、物体認識部113が現フレームの物体の認識結果を記憶部12に格納することで、その後のフレームの処理時に運動ベクトル算出部114が過去フレームの物体の認識結果として参照可能とすればよい。
運動判定部115は、運動ベクトル算出部114によって算出された物体の運動ベクトルから、過去フレームから現フレームにかけて、その物体が運動しているか否かを判定する。具体的には、運動判定部115は、物体の運動ベクトルの大きさが所定の閾値以上である場合、その物体が運動している(運動状態にある)と判定する。一方、運動判定部115は、物体の運動ベクトルの大きさが所定の閾値未満である場合、その物体が運動していない(静止状態にある)と判定する。
距離算出部116は、物体認識部113によって得られた複数の物体のそれぞれの認識結果(物体の位置)から、現フレームにおける物体同士の距離を算出する。
重畳関係推定部117は、距離算出部116によって算出された過去フレームでの物体同士の距離と、運動判定部115による過去フレームでのそれらの物体が運動しているか否かの判定結果と、物体認識部113による現フレームでのそれらの物体の認識結果とから、物体同士がどのような重畳関係にあるのかを推定する。
具体的には、重畳関係推定部117は、次の(1)〜(4)に示す事前知識に従って物体同士の重畳関係を推定する。
(1)対象物体同士が接近した後に一方の対象物体しか見えなくなった場合、一方の対象物体が他方の対象物体に重畳している
(2)対象物体Aが対象物体Bを隠している場合、対象物体Aが動いた後でも対象物体Bが見えなければ、対象物体Bは対象物体Aに随伴して運動している
(3)対象物体Aが静止しており、対象物体Bが運動した後に対象物体Bが見えなくなった場合、対象物体Bは対象物体A内に存在する
(4)対象物体Aが静止しており、対象物体Bが運動した後に対象物体Aが見えなくなった場合、対象物体Bは対象物体A上に存在する
特に、重畳関係推定部117は、(3)(4)に示すように、対象物体A及び対象物体Bのうち、どちらの対象物体が認識されなくなった場合に、どちらの対象物体が運動していたか否かも考慮することで、より具体的な重畳関係を特定する。すなわち、運動している物体が認識できなくなった場合には、その物体が他方の物体内に入り込んだ蓋然性が高いため、運動していた物体が静止していた物体内に存在すると推定する。一方、静止している物体が認識できなくなった場合には、その物体上に他方の物体が載せられた蓋然性が高いため、運動していた物体が静止していた物体上に存在すると推定する。このようにして、本実施の形態では、物体同士の重畳関係として、単に物体が遮蔽されているか否かだけでなく、外部及び内部のいずれにおいて重畳しているかまで把握するこを可能としている。
続いて、図4及び図5を参照して、本実施の形態1に係るロボット1の処理について説明する。図4及び図5は、本実施の形態1に係るロボット1の処理を示すフローチャートである。以下、説明の簡略化のため、tフレーム目における物体の重畳関係の判定のみに着目して説明をする。すなわち、実際は、以下に説明する処理はパイプライン処理的に実施され、tフレーム目以外のフレームのそれぞれにおいても同様に物体の重畳関係の判定が行われることになる。また、以下の説明では、説明の簡略化のため、撮像によって得られた画像において2つの物体(対象物A、対象物B)が認識される場合について例示する。
(t−2フレーム目の画像に対する処理)
撮像部50は、その画角内で周辺を撮像し、撮像した環境の画像(カメラ画像)を示す画像情報を生成して特徴抽出部111に出力する(S1)。特徴抽出部111は、撮像部50から出力された画像情報が示す画像について特徴点を抽出する(S2)。
特徴点対応付け部112は、特徴抽出部111によって抽出された特徴点と、物体情報格納部121に格納された物体認識用特徴情報が示す物体のモデルの特徴点とをマッチングし、相互に一致する特徴点を特定する(S3)。
物体認識部113は、特徴点対応付け部112によって特定された特徴点の対応関係に基づいて、マッチングの取れた特徴点から物体ID及び物体の位置・姿勢を認識する(S4)。すなわち、物体認識部113は、特徴点のマッチングの取れた物体のモデルに対応する物体IDの物体が存在するものと認識する。また、抽出された特徴点に対して、一致する特徴点を基準として物体のモデルの特徴点を当てはめた場合に、その物体のモデルが占める位置に物体が存在すると推定する。また、一致する特徴点を基準として当てはめられた物体のモデルの特徴点から、特徴点位置情報が示す物体の3Dモデルと物体の特徴点との位置関係に基づいて物体が存在する領域(物体全体の領域)も特定することができる。よって、例えば、その当てはめられた物体のモデルの特徴点における各特徴点の重心、又は、物体が存在する領域の重心等として、物体の位置を認識することができる。
また、物体の姿勢(傾き)は、一致する特徴点について、物体のモデルの特徴点の分布に対する、抽出された物体の特徴点の分布の傾きとして特定することができる。この傾きは、例えば、物体のモデルの特徴点において、物体が傾きなく水平面に置かれた状態における方向を定義しておくことで特定するようにすればよい。これによれば、特徴点認識用特徴情報に基づいて、物体のモデルの特徴点の分布に対する、抽出された物体の特徴点の分布の傾きとして、物体の姿勢を特定することができる。
なお、ここでは、上述したように、対象物Aと対象物Bの2つの物体が認識されたものとして説明を続ける。
距離算出部116は、距離算出部116によって認識された対象物同士の距離を算出する(S5)。すなわち、距離算出部116は、対象物Aの位置と対象物Bの位置との差として、対象物Aと対象物Bの距離を算出する。
重畳関係推定部117は、対象物同士の距離が近いか否かを判定する(S6)。すなわち、重量関係推定部117は、対象物Aと対象物Bの距離が所定の閾値以上である場合、対象物同士の距離が近くないと判定する。一方、重量関係推定部117は、対象物Aと対象物Bの距離が所定の閾値未満である場合、対象物同士の距離が近いと判定する。
対象物同士の距離が近くないと判定した場合(S6:No)、重畳関係推定部117は、その対象物Aと対象物Bの重畳関係の推定は行わない。この場合は、対象物Aと対象物Bが離れているため、対象物Aと対象物Bのいずれかが認識されなくなるような場合であっても、対象物Aと対象物Bが重畳することは無いと考えられるからである。一方、対象物同士の距離が近いと判定した場合(S6:Yes)、ステップS7以降の対象物Aと対象物Bの重畳関係を推定する処理を継続する。
(t−1フレーム目の画像に対する処理)
次のフレームとなるt−1フレーム目の画像についても物体が認識されることになるため、その認識結果を利用して以下の処理が行われる(S7)。具体的には、ロボット1は、t−1フレーム目の画像についても、上述のステップS1〜S4と同様の処理によって対象物A及び対象物Bを認識する。すなわち、t−1フレーム目の画像による物体の認識は、ステップS6でNoとなる場合も当然に行われることとなる。
運動ベクトル算出部114は、物体認識部113によって認識した対象物A及び対象物Bのそれぞれについて運動ベクトルを算出する(S8)。具体的には、運動ベクトル算出部114は、対象物Aと対象物Bのそれぞれについて、t−2フレーム目の画像において認識した位置から、t−1フレーム目の画像において認識した位置までのベクトルを、運動ベクトルとして算出する。
運動判定部115は、運動ベクトル算出部114によって算出された対象物Aの運動ベクトルから、対象物Aが静止しているか否かを判定する(S9)。すなわち、運動判定部115は、対象物Aの運動ベクトルが所定の閾値未満である場合、対象物Aが静止していると判定する。一方、運動判定部115は、対象物Aの運動ベクトルが所定の閾値以上である場合、対象物Aが静止しておらず、運動していると判定する。
また、運動判定部115は、運動ベクトル算出部114によって算出された対象物Bの運動ベクトルから、対象物Bが静止しているか否かを判定する(S10、S11)。すなわち、運動判定部115は、対象物Bの運動ベクトルが所定の閾値未満である場合、対象物Bが静止していると判定する。一方、運動判定部115は、対象物Bの運動ベクトルが所定の閾値以上である場合、対象物Bが静止しておらず、運動していると判定する。
対象物Aと対象物Bが共に静止していると判定された場合(S9:Yes、S10:Yes)、対象物Aと対象物Bの重畳関係の推定は行わない。この場合は、対象物Aと対象物Bがいずれも動いていないため、対象物Aと対象物Bが重畳することは無いと考えられるからである。
対象物Aが静止しているが、対象物Bが静止しておらず運動していると判定された場合(S9:Yes、S10:No)、ステップS12以降の対象物Aと対象物Bの重畳関係を推定する処理を継続する。
対象物Aが静止しておらず運動しているが、対象物Bが静止していると判定された場合(S9:No、S10:Yes)、ステップS18以降の対象物Aと対象物Bの重畳関係を推定する処理を継続する。
対象物Aと対象物Bが共に静止しておらず運動していると判定された場合(S9:No、S10:No)、対象物Aと対象物Bの重畳関係の推定は行わない。ただし、この場合には、対象物A及び対象物Bが共に運動しており、いずれかの対象物が他方の対象物に遮蔽される可能性がある。そのため、次のフレームで、いずれかの対象物が認識できなくなった場合には、他方の対象物によって遮蔽されているとの重畳関係の推定を行うようにしてもよい。
(tフレーム目の画像に対する処理1)
次のフレームとなるtフレーム目の画像についても物体が認識されることになるため、その認識結果を利用して以下の処理が行われる(S12)。具体的には、ロボット1は、tフレーム目の画像についても、上述のステップS1〜S4と同様の処理によって対象物A及び対象物Bを認識する。すなわち、tフレーム目の画像による物体の認識は、ステップS6でNoとなる場合も当然に行われることとなる。ただし、ここでは、対象物A及び対象物Bのうち、いずれかの対象物が認識できない場合が発生するものとして説明する。
重畳関係推定部117は、物体認識部113によるtフレーム目の画像での認識結果において対象物Aが認識できているか否かを判定する(S13)。また、重畳関係推定部117は、物体認識部113によるtフレーム目の画像での認識結果において対象物Bが認識できているか否かを判定する(S14、S15)。
対象物Aと対象物Bが共に認識できている場合(S13:Yes、S14:Yes)、重畳関係推定部117は、対象物Aと対象物Bの重畳関係の推定は行わない。この場合は、対象物Aと対象物Bが共に見えており、対象物Aと対象物Bは重畳していないからである。もしくは、対象物Aか対象物Bの一部が隠蔽されているが、対象物Aと対象物Bの位置が認識の結果、特定できており、重畳関係が明らかであるからである。
対象物Aが認識できるが、対象物Bが認識できていない場合(S13:Yes、S14:No)、重畳関係推定部117は、対象物Bが対象物A内に存在すると判定する(S15)。この場合は、対象物Aが静止しており、対象物Bが運動しているときに、対象物Aと対象物Bのうち、対象物Bのみが認識できなくなった場合となる。よって、対象物Bが対象物A内に入ったと考えられるからである。
例えば、図6に例示するように、食器棚(対象物B)に食器(対象物A)が入れられた場合、ステップS15に到達する。すなわち、ロボット1は、例えば、図6に例示するようなケースにおいて、食器棚(対象物B)に食器(対象物A)が入れられたという重畳関係を適切に認識することができる。
対象物Aが認識できないが、対象物Bが認識できる場合(S13:No、S15:Yes)、重畳関係推定部117は、対象物Bが対象物A上に存在すると判定する(S17)。この場合は、対象物Aが静止しており、対象物Bが運動しているときに、対象物Aと対象物Bのうち、対象物Aのみが認識できなくなった場合となる。よって、対象物Bが対象物A上に載せられたと考えられるからである。
例えば、図7に例示するように、食器(対象物A)の上に他の食器(対象物B)が重ねて置かれた場合、ステップS17に到達する。すなわち、ロボット1は、例えば、図7に例示するようなケースにおいて、食器(対象物A)の上に他の食器(対象物B)が重ねて置かれたという重畳関係を適切に認識することができる。
ここで、図7に示すように、対象物Aに対して対象物Bを重ねて置いた場合であっても、対象物Aが認識できているのであれば、対象物Aと対象物Bのそれぞれの位置が認識できるので、その位置関係からロボット1は対象物Aに対して対象物Bを重ねて置かれた状態であることを推定することができる。一方で、SURFのように輝度変化の大きい点を特徴点として抽出する画像特徴を利用する場合、図7のように対象物Aの上に対象物Bを置くことで対象物Aの絵柄が隠れてしまうと、対象物Aが認識できなくなる場合がある。また、エッジ特徴及びHOG特徴のように物体の輪郭を特徴点として抽出する画像特徴を利用する場合、図7のように対象物Aの上に対象物Bを置くことで対象物Aの輪郭が広範囲で見えなくなってしまうと、対象物Aが認識できなくなる場合がある。本実施の形態によれば、このような場合にも、対象物Aの上に対象物Bが存在するとして重畳関係を適切に認識することができる。
対象物Aと対象物Bが共に認識できていない場合(S13:No、S15:No)、重畳関係推定部117は、対象物Aと対象物Bの重畳関係の推定は行わない。この場合は、対象物Aと対象物Bは共に、対象物A及び対象物B以外の他の対象物との関係で認識できなくなっている可能性がある。しかしながら、その場合であっても、ロボット1は、対象物A及び対象物Bのそれぞれと、他の対象物との関係においても、上述の処理を実行するため、その重畳関係を特定することが可能である。
(tフレーム目の画像に対する処理2)
上述したように、次のフレームとなるtフレーム目の画像についても物体が認識されることになるため、その認識結果を利用して以下の処理が行われる(S18)。ただし、ここでも、上述と同様に、対象物A及び対象物Bのうち、いずれかの対象物が認識できない場合が発生するものとして説明する。
重畳関係推定部117は、物体認識部113によるtフレーム目の画像での認識結果において対象物Aが認識できているか否かを判定する(S19)。また、重畳関係推定部117は、物体認識部113によるtフレーム目の画像での認識結果において対象物Bが認識できているか否かを判定する(S20、S21)。
対象物Aと対象物Bが共に認識できている場合(S19:Yes、S20:Yes)、重畳関係推定部117は、対象物Aと対象物Bの重畳関係の推定は行わない。この場合は、対象物Aと対象物Bが共に見えており、対象物Aと対象物Bは重畳していないからである。もしくは、対象物Aか対象物Bの一部が隠蔽されているが、対象物Aと対象物Bの位置が認識の結果、特定できており、重畳関係が明らかであるからである。
対象物Aが認識できるが、対象物Bが認識できていない場合(S19:Yes、S20:No)、重畳関係推定部117は、対象物Aが対象物B上に存在すると判定する(S22)。この場合は、対象物Bが静止しており、対象物Aが運動しているときに、対象物Aと対象物Bのうち、対象物Bのみが認識できなくなった場合となる。よって、対象物Aが対象物B上に載せられたと考えられるからである。
対象物Aが認識できないが、対象物Bが認識できる場合(S19:No、S21:Yes)、重畳関係推定部117は、対象物Aが対象物B内に存在すると判定する(S23)。この場合は、対象物Bが静止しており、対象物Aが運動しているときに、対象物Aと対象物Bのうち、対象物Aのみが認識できなくなった場合となる。よって、対象物Aが対象物B内に入ったと考えられるからである。
対象物Aと対象物Bが共に認識できていない場合(S19:No、S21:No)、重畳関係推定部117は、対象物Aと対象物Bの重畳関係の推定は行わない。この場合は、対象物Aと対象物Bは共に、対象物A及び対象物B以外の他の対象物との関係で認識できなくなっている可能性がある。しかしながら、その場合であっても、ロボット1は、対象物A及び対象物Bのそれぞれと、他の対象物との関係においても、上述の処理を実行することができるため、その重畳関係を特定することが可能である。
上述の処理によれば、ロボット1は、物体の重畳関係をより具体的(物体内に他の物体が存在するか、物体上に他の物体が存在するか)に認識することができるため、その物体の具体的な重畳関係を考慮して、把持部30によって、より柔軟な物体の操作をすることができる。
例えば、制御部11は、食器棚(対象物B)の中に食器(対象物A)が置かれた場合でも、その後に柔軟な物体の操作をすることができる。すなわち、このようにしても、上述した処理によれば、制御部11は、食器棚の中に食器が置かれていると把握しているため、例えばユーザから操作端末9を介して食器を取ってくるように指示された場合に、食器を食器棚から出すように把持部30を制御をすることができる。
また、例えば、制御部11は、食器(対象物A)の上に食器(対象物B)が重ねて置かれた場合であっても、その後に柔軟な物体の操作をすることができる。すなわち、このようにしても、上述の処理によれば、制御部11は、食器(対象物A)の上に食器(対象物B)が置かれていると把握しているため、例えばユーザから操作端末9を介して食器(対象物A)を取ってくるように指示された場合に、食器(対象物A)の上に置かれた食器(対象物B)を下ろして食器(対象物A)を把持するように把持部30を制御することができる。
このように、本実施の形態によれば、制御部11は、重複関係推定部117によって推定された対象物A及び対象物Bの重畳関係を考慮して対象物A又は対象物Bを操作するように把持部30を制御することができる。これによれば、上述したように、より柔軟な物体の操作をすることができる。特に、ロボット1のように、人の作業を代行して実行するロボットに適用することで、上述したように、より人が実行する動作に近い柔軟な物体の操作を実施することが可能となるため、非常に有効である。
なお、以上の処理では、運動ベクトルの算出を、最終的な判定を行うフレーム(tフレーム)の1つ前のフレーム(t−1フレーム)と2つ前のフレーム(t−2フレーム)における認識結果を利用して行う例について説明したが、これに限られない。例えば、異なる2つのフレーム(例えばt−1フレームとt−3フレーム、又は、t−2フレームとt−3フレーム等)での認識結果を利用してもよく、3つ以上のフレーム(t−1〜t−3フレーム)を利用してもよい。しかしながら、好ましくは、上述したように、最終的な判定を行うフレーム(tフレーム)により近いフレームで運動ベクトルを算出するとよい。
また、上述の処理では、対象物同士の距離を、最終的な判定を行うフレーム(tフレーム)の2つ前のフレーム(t−2フレーム)における認識結果を利用して行う例について説明したが、これに限られない。例えば、他のフレーム(t−1フレームや、t−3フレーム等)での認識結果を利用してもよい。しかしながら、好ましくは、上述したように、最終的な判定を行うフレーム(tフレーム)により近いフレーム(例えばt−1フレームやt−2フレーム)で対象物同士の距離を算出するとよい。
なお、上述の処理の典型的な状況としては、撮像部50が対象物Aや対象物Bの上方に位置している状況となる。例えば、斜め上方から、これらの物体を撮像している場合である。この場合には、例えば、図7に示すように、対象物Aの上に対象物Bが載せられた状態を適切に把握することができる。また、撮像部50が対象物Aや対象物Bの真上に位置している場合であってもよい。
さらに、より正確に対象物Aと対象物Bの重畳関係を把握するためには、対象物A及び対象物Bの物体3Dモデル情報による対象物A及び対象物Bの構造や、対象物A及び対象物Bのロボット1からの相対的な位置関係を考慮して判定を行うようにしてもよい。例えば、対象物Bが静止しており対象物Aが運動しているときに、対象物Aと対象物Bのうち、対象物Aのみが認識できなくなったときであっても、対象物Bの物体3Dモデル情報によれば対象物Bが物体を入れることができない構造である場合や、対象物Aと対象物Bの相対位置が大きく異なる(例えば所定の閾値以上である)場合には、対象物Aが対象物B内に存在すると判定しないようにしてもよい。また、例えば、対象物Bが静止しており対象物Aが運動しているときに、対象物Aと対象物Bのうち、対象物Bのみが認識できなくなったときであっても、対象物Bの物体3Dモデル情報によれば対象物Bが物体を上に載せることができない構造である場合や、対象物Aと対象物Bの相対位置が大きく異なる(例えば所定の閾値以上である)場合には、対象物Aが対象物B上に存在すると判定しないようにしてもよい。
以上に説明したように、本実施の形態1は、第1の物体と第2の物体が十分近い距離に存在し、第1の物体が静止状態にあり第2の物体が運動状態にあるときに、第1の物体が認識されているが第2の物体が認識されなくなった場合には、前記第1の物体内に前記第2の物体が存在すると推定するようにしている。また、第1の物体が静止状態にあり第2の物体が運動状態にあるときに、第2の物体が認識されているが第1の物体が認識されなくなった場合には、第1の物体上に第2の物体が存在すると推定するようにしている。これによれば、物体が他方の物体内に存在する形で重畳しているのか、物体が他方の物体上に存在する形で重畳しているのかといった物体同士のより具体的な重畳関係を把握することができる。
<発明の実施の形態2>
続いて、実施の形態2に係るロボット1について説明する。本実施の形態2に係るロボット1の外部構成及び内部構成については、図1及び図2と同様であるため説明を省略する。図8を参照して、本実施の形態2に係るロボット1の処理ブロックについて説明する。図8は、本実施の形態2に係るロボット1の処理ブロック図である。
本実施の形態2に係る制御部11は、実施の形態1に係る制御部11と比較して、さらに、物体機能推定部118及び物体機能格納部122として機能する。
物体機能推定部118は、重畳関係推定部117によって得られた物体同士の重畳関係から、物体の機能を推定する。例えば、物体機能推定部118は、重畳関係推定部117によって対象物Bが対象物A上に存在すると推定された場合、対象物Aは別の物体を上に載せられる物体であるということを、対象物A固有の機能として学習する。また、物体機能推定部118は、重畳関係推定部117によって対象物Bが対象物A内に存在すると推定された場合、対象物Aは別の物体を内部に入れられる物体であるということを、対象物A固有の機能として学習する。
物体機能格納部122は、物体情報格納部121に格納された物体IDと対応付けられて、その物体IDが示す物体IDの物体における物体固有の機能を示す物体機能情報が格納される。この物体機能情報は、物体機能推定部118によって格納される。すなわち、物体認識部113によってある物体IDの物体として認識された物体が別の物体を上に載せられる物体であると学習した場合、物体機能推定部118は、その物体IDと対応付けて、別の物体を上に載せられる物体であることを示す物体機能情報を物体機能格納部122に格納する。また、物体認識部113によってある物体IDの物体として認識された物体が別の物体を内部に入れられる物体であると学習した場合、物体機能推定部118は、その物体IDと対応付けて、別の物体を内部に入れられる物体であることを示す物体機能情報を物体機能格納部122に格納する。
続いて、図9を参照して、本実施の形態1に係るロボット1の処理について説明する。図9は、本実施の形態1に係るロボット1の処理を示すフローチャートである。以下、重畳関係が推定される2つの物体を、対象物A及び対象物Bとして説明する。
重畳関係推定部117は、図4及び図5を参照して説明した処理により、対象物同士の重畳関係を推定する(S31)。
物体機能推定部118は、重畳関係推定部117によって推定された対象物同士の重畳関係から、対象物の機能を推定する(S32)。例えば、物体機能推定部118は、重畳関係推定部117によって対象物Bが対象物A上に存在すると推定された場合、対象物Aは別の物体を上に載せられる物体であると推定する。また、物体機能推定部118は、重畳関係推定部117によって対象物Bが対象物A内に存在すると推定された場合、対象物Aは別の物体を内部に入れられる物体であると推定する。
物体機能推定部118は、推定した対象物の機能を物体機能格納部122に記憶する(S33)。例えば、物体機能推定部118は、対象物Aは別の物体を上に載せられる物体であると推定した場合、それを示す物体機能情報を対象物Aの物体IDと対応付けて物体機能格納部122に格納する。物体機能推定部118は、対象物Aは別の物体を内部に入れられる物体であると推定した場合、それを示す物体機能情報を対象物Aの物体IDと対応付けて物体機能格納部122に格納する。
制御部11は、物体機能格納部122に記憶された対象物の機能に従って対象物を操作するように把持部30を制御する(S34)。例えば、物体機能推定部118は、対象物Aについて、別の物体を上に載せられる物体であることを示す物体機能情報が物体機能格納部122に格納されている場合、対象物Aに他の物体を置くときには、対象物A上に他の物体を置くように把持部30を制御する。また、物体機能推定部118は、対象物Aについて、別の物体を内部に入れられる物体であることを示す物体機能情報が物体機能格納部122に格納されている場合、対象物Aに他の物体を置くときには、対象物A内に他の物体を置くように把持部30を制御する。
上述の処理によれば、ロボット1は、物体の機能を認識することができるため、その物体の機能を利用して物体の操作をすることができる。
例えば、制御部11は、図6に示すようにユーザが食器(対象物A)を食器棚(対象物B)に片づける行為を撮像部50によって撮像することで、食器棚(対象物B)が別の物体を内部に入れることができる物体であることを学習することができる。よって、制御部は、その後に、ユーザから操作端末9を介して、図6に示すように食器(対象物A)を食器棚(対象物B)に片づけるように指示を受けた場合、食器(対象物A)を把持して、食器棚(対象物B)の中に置くように把持部30を制御することが可能となる。
また、例えば、制御部11は、図7に示すようにユーザが食器(対象物A)の上に食器(対象物B)を重ねて置く行為を撮像部50によって撮像することで、食器(対象物A)が別の物体を上に載せられる物体であることを学習することができる。よって、制御部11は、その後に、ユーザから操作端末9を介して、図7に示すような食器(対象物A及び対象物B)を運搬する指示を受けた場合、食器(対象物A)の上に食器(対象物B)を重ねて置いた後に食器(対象物A)を把持し、食器(対象物A及び対象物B)をまとめて運搬するように把持部30を制御することが可能となる。なお、この場合には、下の食器(対象物A)が認識されなくなることになるが、食器(対象物A)の上に食器(対象物B)が重ねられていることは把握しているため、例えば最後の食器(対象物A)の認識結果に従って食器(対象物A)を把持する等すればよい。
このように、本実施の形態によれば、制御部11は、物体機能推定部118によって推定された対象物の機能に従って、対象物内に他の物体を置く、対象物上に他の物体を置くように把持部30を制御することができる。すなわち、上述したように、ロボット1が、物体の機能を学習し、物体の機能を考慮して物体の操作をすることができる。特に、ロボット1のように、人の作業を代行して実行するロボットに適用することで、上述したように、より人が実行する物体の操作を学習し、それに近い柔軟な物体の操作を実施することが可能となるため、非常に有効である。
以上に説明したように、本実施の形態2では、物体機能推定部118は、第1の物体内に第2の物体が存在すると推定した場合、第1の物体について、その物体内に他の物体を置くことができる物体であることを示す物体機能情報を物体機能格納部122に格納するようにしている。また、物体機能推定部118は、第1の物体上に第1の物体が存在すると推定した場合、第1の物体について、その物体上に他の物体を置くことができる物体であることを示す物体機能情報を物体機能格納部122に格納するようにしている。そして、制御部11は、把持部30により第1の物体に他の物体を置く場合、物体機能格納部122に格納された物体機能情報に従って、第1の物体内に他の物体を置く、又は、第2の物体上に他の物体を置くように把持部30を制御するようにしている。これによれば、ロボット1が、物体の機能(他の物体を内部に置くことができる、他の物体を上に置くことができる)を学習し、物体の機能を考慮して物体の操作をすることができる。
なお、本発明は上記の実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
例えば、本実施の形態では、対象物Aと対象物Bの2つの物体を認識して、それらの重畳関係を推定する場合について説明したが、3つ以上の複数の物体についても相互に重畳関係を推定するようにしてもよい。すなわち、複数の物体において2つの物体がとり得る組み合わせの全てについて対象物A及び対象物Bとして、図4及び図5を参照して説明した処理を繰り返すことで、3つ以上の複数の物体についても相互に重畳関係を推定することが可能である。
1 ロボット
10 ロボット本体
20 移動台車
30 把持部
40 頭部
50 撮像部
60 ハンド
11 制御部
12 記憶部
13 通信部
21a、21b アクチュエータ
22a、22b 車輪
31a、31b アクチュエータ
111 特徴抽出部
112 特徴点対応付け部
113 物体認識部
114 運動ベクトル算出部114
115 運動判定部
116 距離算出部
117 重畳関係推定部
118 物体機能推定部
121 物体情報格納部
122 物体機能格納部

Claims (6)

  1. 周辺を時間的に連続して撮像し、それぞれの画像を示す複数の画像情報を生成する撮像部と、
    前記生成された複数の画像情報のそれぞれについて、前記撮像部の撮像範囲に位置する第1の物体及び第2の物体を認識する物体認識部と、
    前記認識された第1の物体及び第2の物体のそれぞれの位置の変化から、前記第1の物体及び前記第2の物体のそれぞれが静止状態か運動状態のいずれにあるかを判定する運動判定部と、
    前記第1の物体及び前記第2の物体の認識結果と、前記第1の物体及び前記第2の物体が静止状態か運動状態のいずれにあるかの判定結果から、前記第1の物体と前記第2の物体の重畳関係を推定する重畳関係推定部と、を備え、
    前記重畳関係推定部は、
    前記第1の物体が静止状態にあり前記第2の物体が運動状態にあるときに、前記第1の物体が認識されているが前記第2の物体が認識されなくなった場合には、前記第1の物体内に前記第2の物体が存在すると推定し、
    前記第1の物体が静止状態にあり前記第2の物体が運動状態にあるときに、前記第2の物体が認識されているが前記第1の物体が認識されなくなった場合には、前記第1の物体上に前記第2の物体が存在すると推定する、
    物体認識装置。
  2. 前記物体認識装置は、さらに、前記認識された第1の物体及び前記第2の物体のそれぞれの位置から、前記第1の物体と前記第2の物体との間の距離を算出する距離算出部を備え、
    前記重畳関係推定部は、前記距離算出部により算出された前記第1の物体と前記第2の物体との間の距離が所定の距離閾値以上であるときには、前記第1の物体と前記第2の物体のいずれかが認識されなくなるような場合であっても、前記第1の物体と前記第2の物体とが重畳関係にあると推定しない、
    請求項1に記載の物体認識装置。
  3. 前記運動判定部は、前記認識された第1の物体及び第2の物体のそれぞれの位置の変化として、前記第1の物体及び前記第2の物体のそれぞれについて運動ベクトルを算出し、算出した運動ベクトルの大きさが、所定の運動ベクトル閾値未満である場合には静止状態であると判定し、前記運動ベクトル閾値以上である場合には運動状態にあると判定する、
    請求項1又は2に記載の物体認識装置。
  4. 請求項1乃至3のいずれか1項に記載の物体認識装置と、
    物体を操作可能なロボットアームと、
    前記重畳関係推定部によって推定された前記第1の物体と前記第2の物体の重畳関係を考慮して前記第1の物体又は前記第2の物体を操作するように前記ロボットアームを制御する制御部と、
    を備えたロボット。
  5. 請求項1乃至3のいずれか1項に記載の物体認識装置と、
    物体を操作可能なロボットアームと、
    前記第1の物体について、その物体内に他の物体を置くことができる物体か、又は、その物体上に他の物体を置くことができる物体かを示す物体機能情報が格納される格納部と、
    前記ロボットアームにより前記第1の物体に他の物体を置く場合、前記格納部に格納された物体機能情報に従って、前記第1の物体内に他の物体を置く、又は、前記第2の物体上に他の物体を置くように前記ロボットアームを制御する制御部と、を備え、
    前記重畳関係推定部は、
    前記第1の物体内に前記第2の物体が存在すると推定した場合、前記第1の物体について、その物体内に他の物体を置くことができる物体であることを示す物体機能情報を前記格納部に格納し、
    前記第1の物体上に前記第2の物体が存在すると推定した場合、前記第1の物体について、その物体上に他の物体を置くことができる物体であることを示す物体機能情報を前記格納部に格納する、
    ロボット。
  6. 周辺を時間的に連続して撮像し、それぞれの画像を示す複数の画像情報を生成するステップと、
    前記生成された複数の画像情報により、撮像範囲に位置する第1の物体及び第2の物体が静止状態か運動状態のいずれにあるかを判定するステップと、
    前記第1の物体が静止状態にあり前記第2の物体が運動状態にあると判定した場合、前記第1の物体及び前記第2の物体のうち、前記第2の物体が認識されなくなったときには、前記第1の物体内に前記第2の物体が存在すると推定し、前記第1の物体が認識されなくなったときには、前記第1の物体上に前記第2の物体が存在すると推定するステップと、
    を備えた物体認識方法。
JP2013257666A 2013-12-13 2013-12-13 物体認識装置、ロボット及び物体認識方法 Active JP6067547B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013257666A JP6067547B2 (ja) 2013-12-13 2013-12-13 物体認識装置、ロボット及び物体認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013257666A JP6067547B2 (ja) 2013-12-13 2013-12-13 物体認識装置、ロボット及び物体認識方法

Publications (2)

Publication Number Publication Date
JP2015114933A true JP2015114933A (ja) 2015-06-22
JP6067547B2 JP6067547B2 (ja) 2017-01-25

Family

ID=53528656

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013257666A Active JP6067547B2 (ja) 2013-12-13 2013-12-13 物体認識装置、ロボット及び物体認識方法

Country Status (1)

Country Link
JP (1) JP6067547B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105696483A (zh) * 2016-04-07 2016-06-22 扬州江润科技有限公司 轻型路锥自动收放机器人
WO2017179543A1 (ja) * 2016-04-14 2017-10-19 日本電気株式会社 情報処理装置、情報処理方法及びプログラム記録媒体
JP6572406B1 (ja) * 2018-08-01 2019-09-11 楽天株式会社 警告装置、検出装置、警告方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体
US20210390712A1 (en) * 2020-06-16 2021-12-16 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004096402A (ja) * 2002-08-30 2004-03-25 Nec Corp 物体追跡装置、物体追跡方法および物体追跡プログラム
JP2004272321A (ja) * 2003-03-05 2004-09-30 Nippon Telegr & Teleph Corp <Ntt> オブジェクト管理システム、オブジェクト管理方法、オブジェクト管理プログラム、及び該プログラムを記録した記録媒体
JP2007272436A (ja) * 2006-03-30 2007-10-18 Univ Of Electro-Communications 物体追跡装置、異常状態検知装置及び物体追跡方法
JP2010004719A (ja) * 2008-06-23 2010-01-07 Nissan Motor Co Ltd 電力変換装置及び自動車システム
JP2012080222A (ja) * 2010-09-30 2012-04-19 Jvc Kenwood Corp 目標追跡装置、目標追跡方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004096402A (ja) * 2002-08-30 2004-03-25 Nec Corp 物体追跡装置、物体追跡方法および物体追跡プログラム
JP2004272321A (ja) * 2003-03-05 2004-09-30 Nippon Telegr & Teleph Corp <Ntt> オブジェクト管理システム、オブジェクト管理方法、オブジェクト管理プログラム、及び該プログラムを記録した記録媒体
JP2007272436A (ja) * 2006-03-30 2007-10-18 Univ Of Electro-Communications 物体追跡装置、異常状態検知装置及び物体追跡方法
JP2010004719A (ja) * 2008-06-23 2010-01-07 Nissan Motor Co Ltd 電力変換装置及び自動車システム
JP2012080222A (ja) * 2010-09-30 2012-04-19 Jvc Kenwood Corp 目標追跡装置、目標追跡方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
高松 淳: "ロボット動作の自動生成のための観察による組み立て作業の抽象化", 情報処理学会論文誌 第46巻 NO.SIG9(CVIM11), vol. Vol.46 No.SIG9(CVIM11), JPN6016045716, 15 June 2005 (2005-06-15), JP, pages 41 - 55, ISSN: 0003450252 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105696483A (zh) * 2016-04-07 2016-06-22 扬州江润科技有限公司 轻型路锥自动收放机器人
WO2017179543A1 (ja) * 2016-04-14 2017-10-19 日本電気株式会社 情報処理装置、情報処理方法及びプログラム記録媒体
JPWO2017179543A1 (ja) * 2016-04-14 2019-02-21 日本電気株式会社 情報処理装置、情報処理方法及びプログラム記録媒体
US10740614B2 (en) 2016-04-14 2020-08-11 Nec Corporation Information processing device, information processing method, and program storing medium
JP6572406B1 (ja) * 2018-08-01 2019-09-11 楽天株式会社 警告装置、検出装置、警告方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体
WO2020026381A1 (ja) * 2018-08-01 2020-02-06 楽天株式会社 警告装置、警告方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体
US20210390712A1 (en) * 2020-06-16 2021-12-16 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium

Also Published As

Publication number Publication date
JP6067547B2 (ja) 2017-01-25

Similar Documents

Publication Publication Date Title
US20210205986A1 (en) Teleoperating Of Robots With Tasks By Mapping To Human Operator Pose
Delmerico et al. Spatial computing and intuitive interaction: Bringing mixed reality and robotics together
JP2017185578A (ja) 物体把持装置及び把持制御プログラム
CN111319044B (zh) 物品抓取方法、装置、可读存储介质及抓取机器人
JP6067547B2 (ja) 物体認識装置、ロボット及び物体認識方法
KR20120027253A (ko) 물체-학습 로봇 및 방법
JP2015071206A (ja) 制御装置、ロボット、教示データ生成方法及びプログラム
JP6902369B2 (ja) 提示装置、提示方法およびプログラム、ならびに作業システム
US20220080581A1 (en) Dual arm robot teaching from dual hand human demonstration
JP2018153873A (ja) マニピュレータの制御装置、制御方法およびプログラム、ならびに作業システム
JP5515654B2 (ja) ロボットシステム
JP5879704B2 (ja) ロボット制御装置、物品取り出しシステム、プログラムおよびロボットの制御方法
JP2014138964A (ja) ロボットハンドの制御装置及び制御方法
CN111319039A (zh) 机器人
JP6777670B2 (ja) 画像処理を利用してロボットの教示を補正するロボットシステム
Yang et al. Real-time human-robot interaction in complex environment using kinect v2 image recognition
CN112975952A (zh) 远程操作系统及远程操作方法
JP2018089736A (ja) マスタスレーブシステム
JP2018122376A (ja) 画像処理装置、ロボット制御装置、及びロボット
JP6931585B2 (ja) 作業システム、作業システムの制御方法及びプログラム
JP6455869B2 (ja) ロボット、ロボットシステム、制御装置、及び制御方法
Funakubo et al. Recognition and handling of clothes with different pattern by dual hand-eyes robotic system
JP2015145050A (ja) ロボットシステム、ロボット制御装置、ロボット制御方法およびロボット制御プログラム
Hafiane et al. 3D hand recognition for telerobotics
JP6176091B2 (ja) 把持方法、運搬方法及びロボット

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161221

R150 Certificate of patent or registration of utility model

Ref document number: 6067547

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250