JP2007319938A - ロボット装置及び物体の三次元形状の取得方法 - Google Patents

ロボット装置及び物体の三次元形状の取得方法 Download PDF

Info

Publication number
JP2007319938A
JP2007319938A JP2006149403A JP2006149403A JP2007319938A JP 2007319938 A JP2007319938 A JP 2007319938A JP 2006149403 A JP2006149403 A JP 2006149403A JP 2006149403 A JP2006149403 A JP 2006149403A JP 2007319938 A JP2007319938 A JP 2007319938A
Authority
JP
Japan
Prior art keywords
camera
arm
image
robot
dimensional shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006149403A
Other languages
English (en)
Inventor
Yusuke Nakano
雄介 中野
Murahito Hattori
祐人 服部
Noriaki Matsui
禮朗 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2006149403A priority Critical patent/JP2007319938A/ja
Publication of JP2007319938A publication Critical patent/JP2007319938A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】物体把持を行うことが可能な腕部を有するロボットにおいて、把持対象物体の三次元形状認識の精度を向上させる。
【解決手段】ロボット1は、頭部10及び胴体部11よりなる体幹部、胴体部11に連結された腕部12、頭部10に固定された頭部カメラ101、腕部12に固定された手先カメラ125を備えている。また、ロボット1は、頭部カメラ101によって腕部12を撮像した画像に基づいて、前記第2のカメラの三次元位置及び姿勢を算出し、手先カメラ125によって複数の位置から把持対象物体を撮像して得た画像系列と、算出した手先カメラ125の三次元位置及び姿勢とに基づいて把持対象物体の三次元形状を算出する。さらに、ロボット1は、算出した持対象物体の三次元形状に基づいて前記物体の把持動作を実行する。
【選択図】図3

Description

本発明は、腕部を有するロボットによる物体の三次元形状の取得方法に関する。
物体を把持可能な腕部を有するヒューマノイド型のロボットに物体の把持を行わせるためには、把持動作に先立って把持対象物体の三次元形状をロボットに認識させることが必要である。このとき、腕部によって物体を把持する間は、把持対象物体に対して静止した状態にあるロボットの胴体部や頭部などに固定されたカメラによって把持対象物体を観測することにより、把持対象物の三次元形状の認識することが行われている。しかしながら、このような物体認識方法は、把持対象物体の置かれている環境によっては、カメラによる把持対象物体の撮像を十分に行うことができないため、把持対象物体の全体的な形状を認識できない場合がある。このように把持対象物体の形状認識が不十分であると、把持対象物体の種類の判断の誤りや、適切な把持位置を選択できないことにより、物体把持に失敗する場合があった。
なお、特許文献1には、物体を把持可能な腕部を有し、腕部によって把持した物体を頭部に固定されたカメラの前に移動して観測することにより、把持した物体の三次元形状を認識するロボットが開示されている。しかしながら、当該ロボットは、物体の把持を行うための腕部の制御を、頭部に固定されたカメラによって物体を撮像することにより行っている。このため、当該ロボットは上述した物体把持の失敗という問題を内包しているものと考えられる。
また、特許文献2には、いわゆるeye−in−hand構造のロボットアームが開示されている。具体的には、ロボットアーム搭載されたカメラによって三次元位置が既知の基準点を観測することでロボットアームと基準点の相対位置関係を認識することにより、ロボットアームを所定の三次元位置に位置決めするものである。しかしながら、このようなロボットアームに搭載されたカメラを用いたロボットアームの位置決め方法は、撮影する基準点の三次元位置が既知であるために可能な方法である。したがって、三次元位置、形状が未知の把持対象物体の形状認識にそのまま適用することは困難である。
なお、上述した問題は、腕部による物体把持を行うロボットに限らず存在するものである。つまり、何らかの動作に先立って物体の三次元形状を認識する必要があるロボットなど、少なくとも物体の三次元形状の認識を行うロボットにおいて生じる問題である。
特開2003−346152号公報 特許第2767417号公報
本発明は、上述した事情を考慮してなされたものであり、腕部を有するロボットにおいて、物体の三次元形状認識の精度を向上させることを目的とする。
本発明にかかるロボット装置は、体幹部と、前記体幹部に連結された少なくとも1つの腕部と、前記体幹部に固定された第1のカメラと、前記腕部に固定された第2のカメラと、前記第1のカメラによって前記腕部又は前記第2のカメラの少なくとも一方を撮像した画像に基づいて、前記第2のカメラの三次元位置及び姿勢を算出する第1の算出手段と、前記第2のカメラによって複数の位置から物体を撮像して得た画像系列と、前記第1の算出手段によって算出された前記第2のカメラの三次元位置及び姿勢とに基づいて、前記物体の三次元形状を算出する第2の算出手段とを備える。
このような構成により、腕部を動作させることで、第2のカメラによって物体を様々な角度から撮影して画像系列を得ることができ、得られた画像系列を用いて物体の三次元形状を復元、物体認識を行うことができる。これにより、物体が未知であっても、その三次元形状を復元して物体認識を行うことができる。
また、本発明にかかるロボット装置は、エンコーダや関節角センサ等の内界センサの計測情報ではなく、体幹部に固定された第1のカメラによって撮影された画像データを基準に腕部に固定された第2のカメラの位置及び姿勢を算出する。このため、第2のカメラの位置及び姿勢の推定を正確に行うことができ、物体の認識精度の低下を抑制することができる。
また、上述した本発明にかかるロボット装置は、前記物体の三次元形状に基づいて、前記第2のカメラが固定された前記腕部によって前記物体の把持動作を実行する制御手段をさらに備えてもよい。把持を行う腕部と物体認識を行うための第2のカメラを搭載した腕部を共通化することにより、ロボット装置の構成が簡素化される。
また、前記画像系列は、前記第1の算出手段によって算出された前記第2のカメラの三次元位置及び姿勢にある前記第2のカメラによって撮影した画像を先頭画像として生成される画像系列としてもよい。少なくとも最初の画像を、前記第1の算出手段によって算出された前記第2のカメラの三次元位置及び姿勢に基づいて生成すれば、以降の画像の撮影したカメラ位置及び姿勢は、画像系列において対応点を追跡することによって推定することが可能である。
また、上述した本発明にかかるロボット装置は、前記画像系列を得るために前記腕部の移動経路を算出する経路計画部をさらに備えるものとし、前記経路計画部は、前記物体と前記腕部とが予め定めた距離より接近していることを判定した場合に、前記物体と前記腕部との距離を予め定めた距離より大きくする経路を算出してもよい。これにより、腕部と物体との衝突や、腕部が物体に接近しすぎたために、必要な対応点を含む画像を撮影できない状況を回避することができる。
また、上述した本発明にかかるロボット装置は、前記腕部の状態量を計測する内界センサと、前記内界センサの計測情報を用いて算出した前記カメラの変動情報に基づいて、前記第2のカメラによる撮影画像のぶれを補正する補正部とをさらに備えるものとし、前記第2の算出手段は、前記補正部によって画像ぶれを補正した画像系列を用いて前記物体の三次元形状を算出してもよい。これにより、第2のカメラの移動による画像ぶれの影響を軽減した解像度の高い画像系列が得られるため、前記物体の三次元形状の復元精度を向上させることができる。
一方、本発明にかかる方法は、少なくとも1つの腕部を有するロボットが実行する物体の三次元形状の取得方法である。ここで、前記ロボットは、前記物体の三次元形状を取得する際の位置及び姿勢の変化が前記腕部に比べて小さい前記ロボットの部位に固定された第1のカメラと、前記腕部に固定された第2のカメラとを備えるものとする。三次元形状の取得の際は、まず、前記第1のカメラによって前記腕部又は前記第2のカメラの少なくとも一方を撮像した画像に基づいて、前記第2のカメラの三次元位置及び姿勢を算出する、次に、算出した前記第2のカメラの三次元位置及び姿勢を初期値として前記腕部を移動して、前記第2のカメラで複数の位置から前記物体を撮像する。続いて、前記第2のカメラで前記物体を撮像して得た画像系列に基づいて、前記物体の三次元形状を算出する。
これにより、腕部を動作させることで、第2のカメラによって物体を様々な角度から撮影して画像系列を得ることができ、得られた画像系列を用いて物体の三次元形状を復元することができる。また、物体の三次元形状を取得する際の位置及び姿勢の変化が第2のカメラに比べて小さい第1のカメラによって撮影された画像データを基準に、腕部に固定された第2のカメラの位置及び姿勢を算出している。このため、腕部のエンコーダや関節角センサ等のロボットが備える内界センサの計測情報を用いて第2のカメラの位置及び姿勢を推定する場合に比べて、第2のカメラの位置及び姿勢の推定を正確に行うことができ、物体の三次元形状の復元精度の低下を抑制することができる。
本発明により、物体の三次元形状認識を正確に行うことが可能なロボット及び、ロボットによる物体の三次元形状の取得方法を提供できる。
以下では、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。各図面において、同一要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略する。なお、以下に示す発明の実施の形態は、物体把持を行う腕部を備えたロボットに本発明を適用したものである。
発明の実施の形態1.
本実施の形態にかかるロボット1の外観を図1に示す。ロボット1の頭部10には、外界を撮影可能な頭部カメラ101が設けられている。頭部10は、胴体部11に連結されている。また、胴体部11には、腕部12が連結されている。より詳細には、腕部12に含まれる上腕部121が胴体部11と肩関節機構(不図示)を介して連結され、上腕部121と前腕部123とが肘関節部122を介して連結され、前腕部123の先端に手部124が設けられている。さらに、外界を撮影可能な手先カメラ125が手部124に固定されている。また、胴体部11にはロボット1の移動機構である車輪131及び132が設けられている。
ロボット1は、頭部カメラ101によって撮影した画像を用いて手先カメラ125の位置及び姿勢を推定し、手先カメラ125によって撮像した画像系列を用いて把持対象である物体50の三次元形状を認識する。さらに、認識した物体50に対応した把持動作を実行することにより、手部124による物体50の把持を行うものである。
以下では、ロボット1による把持対象物体50の三次元形状の認識処理について、図2を及び図3を用いて説明する。図2に示すブロック図は、三次元形状の認識処理に関係するロボット1の主要部の内部構成を示している。図2において、画像補正部111は、頭部カメラ101及び手先カメラ125から入力された画像の歪みを補正する。三次元復元部112は、頭部カメラ101によって撮影した画像を用いて手先カメラ125の位置及び姿勢を算出するとともに、手先カメラ125によって撮影された画像を用いて物体50の三次元形状を算出する。なお、三次元復元部112による物体50の三次元形状の算出処理の詳細については後述する。
経路計画部113は、物体50を様々な視点から撮影するために、手先カメラ125の移動経路を計画し、手先カメラ125の移動経路に応じた腕部12の動作情報を制御部115に出力する。
物体認識部114は、三次元復元部112が算出した物体50の三次元形状を用いて、物体50を認識する。具体的には、三次元復元部112が算出した物体50の三次元形状を、予め記憶している把持対象物体の形状データと照合することにより、物体50の種別を決定する。さらに、物体認識部114は、決定した物体50の種別に応じた把持動作の実行を制御部115に通知する。
制御部115は、頭部10、腕部12、車輪132及び133の位置、角度、速度、角速度等を検出するためにロボット1が備えているエンコーダ(不図示)や関節角センサ(不図示)等の内界センサの計測情報を収集し、頭部10、腕部12、車輪132及び133を駆動するための制御信号を、これらを駆動する駆動部に対して出力する。さらに、制御部115は、経路計画部113及び物体認識部114が決定した動作計画に従って腕部12を動作させるための制御信号をアーム駆動部116に出力する。なお、アーム駆動部116は、腕部12のアクチュエータを動作させるための駆動回路である。
次に、頭部カメラ101及び手先カメラ125による撮影画像を用いた物体50の認識手順を、図3のフローチャートを用いて説明する。まずステップS101では、頭部カメラ101によって、物体50の近傍に配置された手部124を撮像する。得られた画像データは、画像補正部111による補正処理を行った後に三次元復元部112に入力される。なお、頭部カメラ101が生成する画像データは、単眼画像でもステレオ画像でもよい。
ステップS102では、三次元位置算出部112が、頭部カメラ101によって撮影された画像データを用いて手先カメラ101の三次元位置及び姿勢を推定する。具体的には、図4のフローチャートに示す手順で手先カメラ101の三次元位置及び姿勢を推定する。
始めに、制御部115から内界センサの計測情報を入力して手部124又は手先カメラ125のおおまかな位置を特定する(ステップS201)。次に、ステップS201でおおまかに特定した位置を頭部カメラの画像に投影することにより、頭部カメラ101で撮影された画像データから手部124が存在する画像領域を抽出する(ステップS202)。なお、ステップS202では、ロボット1の手部124の動きによる動き差分画像を利用してもよい。続いて、抽出した画像と、ロボット1が予め記憶している手部124の三次元形状データ又はテクスチャデータとを照合することにより、手先カメラの姿勢及び位置を算出する。(ステップS203及びS204))。ここで、抽出した画像と手部124の三次元形状データとの照合は、従来から知られているパターン認識の手法を採用して行えばよい。
なお、ステップS201及びS202を行わずに、頭部カメラ101によって得た画像データの全体を走査して、手部124の像を検出してもよい。しかしながら、内界センサの計測情報に基づいて手部124の存在する画像領域を抽出した後に走査を行うことによって走査領域を小さくできるため、演算量が削減できる点で有効である。
図3に戻り説明を続ける。ステップS103では、手先カメラ125によって物体50を撮像する。得られた画像データは、画像補正部111による補正処理を行った後に三次元復元部112に入力される。
ステップS104では、手先カメラ125によって撮影された画像データを用いて、物体50の三次元形状を復元する。具体的には、手先カメラ125を移動して撮影した2枚の画像から対応点を検出し、2枚の画像によるステレオ視によって対応点の3次元位置を復元する。ここで、2つの撮影画像に対する対応点の探索は、2つの撮影画像に対する時空間微分の拘束式を用いた勾配法や相関法等の公知の手法を適用して行えばよい。
いま、2つの画像が撮影された手先カメラ125の位置及び姿勢から決定した射影行列P及びPを用いれば、2つの画像における対応点の座標の組m=(u、v)、m=(u、v)と、対応点の三次元位置M=(X,Y,Z)とは、以下の(1)式により対応付けられる。
ここで、射影行列P及びPは、手先カメラ125の焦点距離や画素サイズ、画像中心等の内部パラメータを表す行列Aと、手先カメラ125の位置及び姿勢を表すロボット座標に対する回転行列R及び平行移動ベクトルTによって、以下の(2)式により与えられる。また、(2)式においてπ、π、πはそれぞれ、3×4行列である射影行列Pの1行目、2行目及び3行目に相当する1×3行列である。
射影行列P及びPを決定するために必要な手先カメラ125の位置及び姿勢の初期値には、ステップS102において頭部カメラ101の撮影画像を用いて推定した手部124の位置及び姿勢から決定した手先カメラ125の位置及び姿勢を利用する。その後、物体50の撮像を繰り返し実行する際には、過去の撮影画像と新たな撮影画像との間で物体50の対応点を追跡することによって決定した手先カメラ125の位置及び姿勢を利用して、射影行列P及びPを決定すればよい。
上述した(1)式をz,z,X,Y,Zの連立方程式とみなし、z及びzを消去することで、対応点の三次元位置M=(X,Y,Z)を算出することができる。なお、対応点の三次元位置の復元の精度を高めるために、得られた三次元位置M=(X,Y,Z)を手先カメラ125による撮影画像に再投影した点と、対応点m=(u、v)との距離の二乗和によって定義される再投影誤差を目的関数とする最適化を実行し、再投影誤差が最小となるように対応点の三次元位置を決定してもよい。最適化の目的関数εは、以下の(3)式で与えられる。
(3)式において添字iは、異なる対応点を表す。つまり、異なる対応点の再投影誤差の和として定義された目的関数εを最小とするような、対応点の三次元位置の組{M}を決定する。
ステップS105では、物体50の三次元形状認識に必要十分なデータが取得できたか否かを判定する。具体的には、物体50の半周180度や全周360度に渡って対応点が得られたか否かによって判定すればよい。物体50の三次元形状認識に必要十分なデータが取得できた場合には、ステップS108の三次元形状認識を行う。一方、物体50の三次元形状認識に必要十分なデータが取得できていない場合には、ステップS106を行う。
ステップS106では、次の撮影位置に手先カメラ125を移動するための手部124の移動経路を決定する。次の撮影位置は、前回の撮影によって得た画像データに含まれる特徴点が撮影画像に含まれる位置とすればよい手先カメラ125の移動前後の2つの撮影画像に共通して含まれる特徴点を対応点とすることにより、手先カメラ125の位置及び姿勢の推定、並びに、対応点の三次元位置の復元が可能となるためである。
なお、このとき、物体50と手部124とが予め定めた距離より接近した場合には、物体50と手部124との距離を大きくするような経路を計画することが望ましい。手部124と物体50との衝突や、手部124が物体50に接近しすぎたために、必要な対応点を含む画像を撮影できない状況を回避できる点において有効である。具体的には、手部124と物体50との距離に対する閾値dを予め定めておき、(4)式が成立する場合に、上述した回避動作を行う経路を計画すればよい。
(4)式において、Hは手部124の周囲の空間領域、Oは物体50の周囲の空間領域である。また、回避動作を行う経路を生成する際には、公知の経路回避手法を利用することができる。
ステップS107では、経路計画に従って制御部115がアーム駆動部116を駆動することによって、手部124を目標位置まで移動する。ステップS107の後は、ステップS103に戻って物体50の撮像を実行する。
ステップS105において物体50の三次元形状認識に必要十分なデータの取得が終了したことを判定した場合は、ステップS108において、物体50の三次元形状の認識を行う。具体的には、物体認識部114が、手先カメラ125による撮影画像を用いて算出した物体50の三次元形状を、ロボット1が備える記憶部(不図示)に予め格納している把持対象物体の形状データと照合し、物体50の種別を決定する。なお、物体50の三次元形状だけでなく、手先カメラ125による撮影画像から得られる物体50のテクスチャを併せて照合することとしてもよい。物体認識部114は、決定した物体50の種別に応じた把持動作の実行を制御部115に通知し、物体50の認識処理を終了する。
なお、上述したステップS104において、手先カメラ125によって最初に撮影した画像に対しては、対応点を検索するための過去の画像が存在しない。このため、手先カメラ125による最初の撮影画像に対しては、ステップS104をスキップし、2枚目の撮影画像からステップS104を行うものとする。なお、ステップS103における手先カメラ125による物体50の撮像は、最初だけ2フレームの画像を撮影することとし、撮影した2フレームの画像を用いてステップS104を行ってもよい。さらにまた、手先カメラ125を2台のカメラとし、これら2台のカメラによって物体50を撮像して得た画像データを用いてステップS104を行ってもよい。
また、図3のフローチャートでは、頭部カメラ101による画像入力(S101)、手先カメラ125の位置及び姿勢の推定(S102)、手先カメラ125による画像入力(S103)の順序で行うことを示した。しかしながら、これらの処理はステップS104に先立って行われていればよく、処理順序に必然性はない。このため、S101乃至S103の順序を入れ替えて実行してもよい。また、S103の処理を、S101又はS102の処理と並行して行っても良い。
また、ステップS102において頭部カメラ101による撮影画像を用いた手先カメラ125の位置及び姿勢の推定を行う場合にも、ステップS104で示した再投影誤差の最小化による三次元位置の算出を行うことにより、位置推定精度を向上させてもよい。具体的には、頭部カメラ101による撮影画像を用いて復元した手先カメラ125の特徴点の三次元位置を撮影画像に再投影したときの再投影誤差を最小化するように、手先カメラ125の三次元位置を決定すればよい。このとき手先カメラ125の全ての特徴点に対する再投影誤差の最適化を行うと、計算量が膨大になる場合がある。この場合には、手先カメラ125の全ての特徴点に対する最適化を行う必要はなく、SIFT(Scale Invariant Feature Transform)特徴点であるコーナー特徴点などを選択して最適化を行えばよい。
上述したように、本実施の形態にかかるロボット1は、腕部12の先端部分に手先カメラ125を設けている。このため、腕部12を動作させることで、手先カメラ125によって物体50を様々な角度から撮影して画像系列を得ることができる。物体50を様々な角度から撮影した画像系列が得られれば、この画像系列を用いて物体50の三次元形状を復元し、復元した三次元形状を用いて物体50が如何なる種別の物体であるかを認識することが可能となる。これにより、把持対象物体が未知であっても、その三次元形状を復元して物体認識を行うことができ、把持対象物体に応じた把持動作を確実に行うことができる。また、把持対象物体に近接させることが可能な手先カメラ125で把持対象物体の撮像を行うため、把持対象物体が小さい場合も形状復元を正確に行うことができる。
さらに、ロボット1は、頭部カメラ101によって手部124を撮像し、得られた画像データを用いて手部124に固定された手先カメラ125の位置及び姿勢を算出することとしている。腕部12は、物体把持を行う場合、その準備動作として物体認識を行う場合に大きく動作する部位であるため位置及び姿勢の変化量が大きいうえに、関節数が多いことから、内界センサの情報に基づいて手先カメラ125の位置及び姿勢を推定すると、推定誤差が比較的大きくなるという問題がある。手先カメラ125の位置及び姿勢の推定誤差が大きいと、復元した物体50の三次元形状の誤差が大きくなり、物体50の認識の精度を低下させるおそれがある。これに対してロボット1は、内界センサの情報ではなく、頭部カメラ101によって撮影された画像データを基準に手先カメラ125の位置及び姿勢を算出するため、手先カメラ125の位置及び姿勢の推定を正確に行うことができ、物体50の認識精度の低下を抑制することができる。
なお、上述したロボット1は、頭部10に設けた頭部カメラ101によって手部124を撮像することとした。しかしながら、手先カメラ125の位置及び姿勢の推定に使用される画像データを得るためのカメラは、例えば胴体部11に設けてもよい。上述したように、腕部12は、把持対象物体の認識を行う場合に大きく動作する部位であるために位置及び姿勢の変化量が大きいうえ、関節数が多いことから、内界センサの情報に基づく位置、姿勢の推定誤差が比較的大きくなる点に問題がある。このため、把持対象物体の認識を行う場合の位置及び姿勢の変化が腕部12に比較して小さい頭部10や胴体部11などの体幹部に、手先カメラ125の位置及び姿勢の推定に用いるカメラを設けることが望ましい。
発明の実施の形態2.
本実施の形態にかかるロボット2は、発明の実施の形態1にかかるロボット1の構成に、手先カメラ125で撮影した画像の画像ぶれを補正する処理部を追加したものである。ロボット2の外観構成は、図1に示したロボット1の外観と同様であるため、詳細な説明を省略するとともに、以下の説明においてロボット2の各部に言及する際は、ロボット1の各部の符号を準用することとする。
ロボット2の主要部の構成を図5に示す。図5において、画像ぶれ補正部217は、制御部115から手部124の位置、速度等を示す内界センサの計測情報を入力し、これらの計測情報と手先カメラ125のシャッタ速度を用いて、手先カメラ125による撮像時における手先カメラ125の変位ベクトルを算出する。ここで、変位ベクトルとは、三次元空間での手先カメラ125の変位量及び変位方向を示すベクトルである。さらに、画像ぶれ補正部217は、手先カメラ125の変位ベクトルを用いて、手先カメラ125の移動による画像ぶれを表す画像ブレ行列Hを算出する。ここで、画像ぶれ行列Hは、手先カメラ125の移動によって画像ブレを生じた撮影画像の各画素と、手先カメラ125の移動による画像ブレがない状態の各画素との変換を示す行列である。
具体的には、以下の(5)式に示す残差Cを最小化する復元画像の画像ベクトルxを最急降下法や共役勾配法等の最適化手法によって決定すれば良い。(5)式においてyは撮影画像の画像ベクトルである。ここで画像ベクトルとは、画素値を成分とするベクトルである。
図6は、ロボット2による物体50の認識手順を示すフローチャートである。上述した画像ぶれ補正部217による画像ブレ補正はステップS301において行われる。なお、ステップS301を除く他の処理は、発明の実施の形態1において説明した図3のフローチャートの各ステップと同様であるため詳細な説明を省略する。
このように手先カメラ125による撮影画像の画像ぶれを補正することにより、手先カメラ125の移動による画像ぶれの影響を軽減した解像度の高い画像が得られるため、対応点の検出精度を向上させることができる。
その他の実施の形態.
上述した発明の実施の形態において、頭部カメラ101をステレオカメラとし、得られたステレオ画像から距離データを生成してもよい。この場合、得られた距離画像と、手部124の三次元形状データとを照合することにより、手部124の位置及び姿勢を算出することができる。
上述した発明の実施の形態にかかるロボット1及び2は、手部124に手先カメラ125を固定することとしたが、前腕部123に固定してもよい。要するに、手先カメラ125は、物体50の周囲に手先カメラ125を移動させることができるように、腕部12に固定されていればよい。
上述した発明の実施の形態にかかるロボット1及び2は、頭部カメラ101による撮影画像と、ロボット1が予め記憶している手部124の三次元形状データ又はテクスチャデータとを照合することにより、手先カメラ125の姿勢及び位置を算出することとした。しかしながら、頭部カメラ101で物体50を撮像して得た画像から物体50の特徴点の三次元位置を算出し、これらの特徴点の三次元位置を基準として手先カメラ125の三次元位置を算出することとしてもよい。具体的には、三次元位置が特定された物体50の特徴点を手先カメラ125によって撮像し、得られた撮影画像を用いて物体50の特徴点に対する手先カメラ125の相対位置を求めることにより、手先カメラ125の姿勢及び位置を算出することができる。
上述した発明の実施の形態にかかるロボット1及び2は、手部124の位置及び姿勢を特定した上で、手先カメラ125の位置及び姿勢を決定することとした。しかしながら、頭部カメラ101による撮影画像を手先カメラ125の形状データと照合することにより、直接的に手先カメラ125の位置及び姿勢を決定してもよい。
上述した発明の実施の形態にかかるロボット1及び2は、復元した物体50の三次元形状を、予め記憶している把持対象物体の形状データと照合することにより、物体50の種別を決定し、決定した物体種別に応じた把持動作を実行するものとして説明した。しかしながら、復元した物体50の三次元形状に適した把持位置を算出し、物体50の三次元形状及び把持位置に応じた腕部12の動作を決定して把持動作を開始してもよい。
上述した発明の実施の形態にかかるロボット1及び2は、1つの腕部12を備えるものとして説明した。しかしながら、ロボット1及び2を複数の腕部12を備えてもよく、手先カメラ125を備える腕部と物体50の把持を行う腕部とは別個のものでもよい。
上述した発明の実施の形態にかかるロボット1及び2は、頭部カメラ101による撮影画像から算出した手先カメラ125の位置及び姿勢を初期値として利用し、その後の手先カメラ125の位置及び姿勢は、手先カメラ125により得た画像系列から検出した対応点を追跡することによって算出するものとして説明した。しかしながら、頭部カメラ101によって手部124の撮像が可能である間は、頭部カメラ101による撮影画像から手先カメラ125の位置及び姿勢を算出し、物体50の特徴点の三次元復元に利用してもよい。
上述した発明の実施の形態では、物体の三次元形状を認識し、当該物体の把持を行うことを目的とするロボットについて説明した。しかしながら、本発明は、三次元形状を認識した後に把持以外の動作を実行するロボット、又は物体の三次元形状の認識のみを目的とするロボット等にも適用可能である。
さらに、本発明は上述した実施の形態のみに限定されるものではなく、既に述べた本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
発明の実施の形態1にかかるロボットの外観を示す図である。 発明の実施の形態1にかかるロボットの内部構成を示すブロック図である。 発明の実施の形態1にかかるロボットが行う物体認識処理の手順を示すフローチャートである。 発明の実施の形態1にかかるロボットが行う手先カメラの三次元位置及び姿勢を推定する処理の手順をフローチャートである。 発明の実施の形態2にかかるロボットの内部構成を示すブロック図である。 発明の実施の形態2にかかるロボットが行う物体認識処理の手順を示すフローチャートである。
符号の説明
1、2 ロボット
10 頭部
101 頭部カメラ
11 胴体部
12 腕部
121 上腕部
122 肘関節機構
123 前腕部
124 手部
125 手先カメラ
131、132 車輪
111 画像補正部
112 三次元復元部
113 経路計画部
114 物体認識部
115 制御部
116 アーム駆動部
217 画像ぶれ補正部
50 把持対象物体

Claims (7)

  1. 体幹部と、
    前記体幹部に連結された少なくとも1つの腕部と、
    前記体幹部に固定された第1のカメラと、
    前記腕部に固定された第2のカメラと、
    前記第1のカメラによって前記腕部又は前記第2のカメラの少なくとも一方を撮像した画像に基づいて、前記第2のカメラの三次元位置及び姿勢を算出する第1の算出手段と、
    前記第2のカメラによって複数の位置から物体を撮像して得た画像系列と、前記第1の算出手段によって算出された前記第2のカメラの三次元位置及び姿勢とに基づいて、前記物体の三次元形状を算出する第2の算出手段と、
    を備えるロボット装置。
  2. 前記物体の三次元形状に基づいて、前記第2のカメラが固定された前記腕部によって前記物体の把持動作を実行する制御手段をさらに備える請求項1に記載のロボット装置。
  3. 前記画像系列は、前記第1の算出手段によって算出された前記第2のカメラの三次元位置及び姿勢にある前記第2のカメラによって撮影した画像を先頭画像として生成される画像系列である請求項1に記載のロボット装置。
  4. 前記画像系列を得るために前記腕部の移動経路を算出する経路計画部を備え、
    前記経路計画部は、前記物体と前記腕部とが予め定めた距離より接近していることを判定した場合に、前記物体と前記腕部との距離を予め定めた距離より大きくする経路を算出する請求項1に記載のロボット装置。
  5. 前記腕部の状態量を計測する内界センサと、
    前記内界センサの計測情報を用いて算出した前記カメラの変動情報に基づいて、前記第2のカメラによる撮影画像のぶれを補正する補正部とをさらに備え、
    前記第2の算出手段は、前記補正部によって画像ぶれを補正した画像系列を用いて前記物体の三次元形状を算出する請求項1に記載のロボット装置。
  6. 少なくとも1つの腕部を有するロボットが実行する物体の三次元形状の取得方法であって、
    前記ロボットは、
    前記物体の三次元形状を取得する際の位置及び姿勢の変化が前記腕部に比べて小さい前記ロボットの部位に固定された第1のカメラと、
    前記腕部に固定された第2のカメラとを備えており、
    前記第1のカメラによって前記腕部又は前記第2のカメラの少なくとも一方を撮像した画像に基づいて、前記第2のカメラの三次元位置及び姿勢を算出し、
    算出した前記第2のカメラの三次元位置及び姿勢を初期値として前記腕部を移動して、前記第2のカメラで複数の位置から前記物体を撮像し、
    前記第2のカメラで前記物体を撮像して得た画像系列に基づいて、前記物体の三次元形状を算出する方法。
  7. 前記物体を撮像する処理において、
    前記物体と前記腕部とが予め定めた距離より接近しているか否かを判定し、
    前記物体と前記腕部とが接近していることを判定した場合は、前記物体と前記腕部との距離を予め定めた距離より大きくするよう前記腕部を移動する請求項6に記載の方法。
JP2006149403A 2006-05-30 2006-05-30 ロボット装置及び物体の三次元形状の取得方法 Pending JP2007319938A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006149403A JP2007319938A (ja) 2006-05-30 2006-05-30 ロボット装置及び物体の三次元形状の取得方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006149403A JP2007319938A (ja) 2006-05-30 2006-05-30 ロボット装置及び物体の三次元形状の取得方法

Publications (1)

Publication Number Publication Date
JP2007319938A true JP2007319938A (ja) 2007-12-13

Family

ID=38853157

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006149403A Pending JP2007319938A (ja) 2006-05-30 2006-05-30 ロボット装置及び物体の三次元形状の取得方法

Country Status (1)

Country Link
JP (1) JP2007319938A (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010014699A (ja) * 2008-06-05 2010-01-21 Toppan Printing Co Ltd 形状計測装置及び形状計測方法
JP2010092343A (ja) * 2008-10-09 2010-04-22 Sharp Corp 自走式移動体の制御システム
JP2010125583A (ja) * 2008-12-01 2010-06-10 Seiko Epson Corp ロボットアーム装置、ロボットアーム装置の制御方法および制御プログラム
JP2011067941A (ja) * 2009-09-22 2011-04-07 Gm Global Technology Operations Inc 人間型ロボットのための視覚認知システムおよび方法
JP2013122695A (ja) * 2011-12-12 2013-06-20 Honda Motor Co Ltd 情報提示装置、情報提示方法、情報提示プログラム、及び情報伝達システム
JP2014240753A (ja) * 2013-06-11 2014-12-25 富士通株式会社 距離測定装置、距離測定方法、およびプログラム
JP2015085488A (ja) * 2013-11-01 2015-05-07 トヨタ自動車株式会社 ロボット
WO2017037908A1 (ja) * 2015-09-03 2017-03-09 富士機械製造株式会社 ロボットシステム
WO2019146201A1 (ja) 2018-01-23 2019-08-01 ソニー株式会社 情報処理装置、情報処理方法及び情報処理システム
JP2019194540A (ja) * 2018-05-02 2019-11-07 オムロン株式会社 3次元形状計測システム及び計測時間設定方法
JP2020053008A (ja) * 2018-09-26 2020-04-02 深セン市優必選科技股▲ふん▼有限公司Ubtech Pobotics Corp Ltd 位置決め方法、ロボット及びコンピューター記憶媒体
JP2020093366A (ja) * 2018-12-14 2020-06-18 トヨタ自動車株式会社 ロボット
JP2021174078A (ja) * 2020-04-21 2021-11-01 株式会社日立製作所 最適化装置および最適化方法
WO2022014312A1 (ja) 2020-07-16 2022-01-20 ソニーグループ株式会社 ロボット制御装置、およびロボット制御方法、並びにプログラム
DE112021000986T5 (de) 2020-02-12 2022-11-24 Fanuc Corporation Robotersystem

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61182786A (ja) * 1985-02-08 1986-08-15 株式会社日立製作所 平行グリツパによる物体自動把持方式
JPS6334094A (ja) * 1986-07-29 1988-02-13 シャープ株式会社 視覚装置
JPH02300611A (ja) * 1989-05-15 1990-12-12 Nissan Motor Co Ltd 測定装置
JPH05126521A (ja) * 1991-11-08 1993-05-21 Toshiba Corp 遠隔操作マニピユレータ用位置測定装置
JPH07239219A (ja) * 1990-04-30 1995-09-12 Korea Mach Res Inst 非接触式タイヤ端面輪郭形状計測方法および装置
JPH0926812A (ja) * 1995-07-11 1997-01-28 Hitachi Zosen Corp 作業用ロボット装置におけるncデータの作成方法
JP2003530561A (ja) * 2000-04-06 2003-10-14 ビ−エイイ− システムズ パブリック リミテッド カンパニ− 測定装置及び方法
JP2004230480A (ja) * 2003-01-28 2004-08-19 Sony Corp ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP2005149299A (ja) * 2003-11-18 2005-06-09 Fanuc Ltd 教示位置修正装置
JP2006007390A (ja) * 2004-06-29 2006-01-12 Sharp Corp 撮像装置、撮像方法、撮像プログラム、撮像プログラムを記録したコンピュータ読取可能な記録媒体

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61182786A (ja) * 1985-02-08 1986-08-15 株式会社日立製作所 平行グリツパによる物体自動把持方式
JPS6334094A (ja) * 1986-07-29 1988-02-13 シャープ株式会社 視覚装置
JPH02300611A (ja) * 1989-05-15 1990-12-12 Nissan Motor Co Ltd 測定装置
JPH07239219A (ja) * 1990-04-30 1995-09-12 Korea Mach Res Inst 非接触式タイヤ端面輪郭形状計測方法および装置
JPH05126521A (ja) * 1991-11-08 1993-05-21 Toshiba Corp 遠隔操作マニピユレータ用位置測定装置
JPH0926812A (ja) * 1995-07-11 1997-01-28 Hitachi Zosen Corp 作業用ロボット装置におけるncデータの作成方法
JP2003530561A (ja) * 2000-04-06 2003-10-14 ビ−エイイ− システムズ パブリック リミテッド カンパニ− 測定装置及び方法
JP2004230480A (ja) * 2003-01-28 2004-08-19 Sony Corp ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP2005149299A (ja) * 2003-11-18 2005-06-09 Fanuc Ltd 教示位置修正装置
JP2006007390A (ja) * 2004-06-29 2006-01-12 Sharp Corp 撮像装置、撮像方法、撮像プログラム、撮像プログラムを記録したコンピュータ読取可能な記録媒体

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010014699A (ja) * 2008-06-05 2010-01-21 Toppan Printing Co Ltd 形状計測装置及び形状計測方法
JP2010092343A (ja) * 2008-10-09 2010-04-22 Sharp Corp 自走式移動体の制御システム
JP2010125583A (ja) * 2008-12-01 2010-06-10 Seiko Epson Corp ロボットアーム装置、ロボットアーム装置の制御方法および制御プログラム
JP2011067941A (ja) * 2009-09-22 2011-04-07 Gm Global Technology Operations Inc 人間型ロボットのための視覚認知システムおよび方法
JP2013122695A (ja) * 2011-12-12 2013-06-20 Honda Motor Co Ltd 情報提示装置、情報提示方法、情報提示プログラム、及び情報伝達システム
US8990078B2 (en) 2011-12-12 2015-03-24 Honda Motor Co., Ltd. Information presentation device associated with sound source separation
JP2014240753A (ja) * 2013-06-11 2014-12-25 富士通株式会社 距離測定装置、距離測定方法、およびプログラム
JP2015085488A (ja) * 2013-11-01 2015-05-07 トヨタ自動車株式会社 ロボット
WO2017037908A1 (ja) * 2015-09-03 2017-03-09 富士機械製造株式会社 ロボットシステム
US11420335B2 (en) 2018-01-23 2022-08-23 Sony Corporation Information processing apparatus, information processing method, and information processing system
WO2019146201A1 (ja) 2018-01-23 2019-08-01 ソニー株式会社 情報処理装置、情報処理方法及び情報処理システム
JP2019194540A (ja) * 2018-05-02 2019-11-07 オムロン株式会社 3次元形状計測システム及び計測時間設定方法
JP7124424B2 (ja) 2018-05-02 2022-08-24 オムロン株式会社 3次元形状計測システム及び計測時間設定方法
JP2020053008A (ja) * 2018-09-26 2020-04-02 深セン市優必選科技股▲ふん▼有限公司Ubtech Pobotics Corp Ltd 位置決め方法、ロボット及びコンピューター記憶媒体
JP2020093366A (ja) * 2018-12-14 2020-06-18 トヨタ自動車株式会社 ロボット
JP7044047B2 (ja) 2018-12-14 2022-03-30 トヨタ自動車株式会社 ロボット
DE112021000986T5 (de) 2020-02-12 2022-11-24 Fanuc Corporation Robotersystem
JP2021174078A (ja) * 2020-04-21 2021-11-01 株式会社日立製作所 最適化装置および最適化方法
JP7370924B2 (ja) 2020-04-21 2023-10-30 株式会社日立製作所 最適化装置および最適化方法
WO2022014312A1 (ja) 2020-07-16 2022-01-20 ソニーグループ株式会社 ロボット制御装置、およびロボット制御方法、並びにプログラム

Similar Documents

Publication Publication Date Title
JP2007319938A (ja) ロボット装置及び物体の三次元形状の取得方法
JP6180087B2 (ja) 情報処理装置及び情報処理方法
JP4961860B2 (ja) ロボット装置及びロボット装置の制御方法
JP4837116B2 (ja) 視覚センサを備えたロボットシステム
KR100693262B1 (ko) 화상 처리 장치
JP6180086B2 (ja) 情報処理装置及び情報処理方法
JP5911299B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP4226623B2 (ja) ワーク取り出し装置
JP6855492B2 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
US20130230235A1 (en) Information processing apparatus and information processing method
JP4265088B2 (ja) ロボット装置及びその制御方法
JP6165745B2 (ja) 車載搭載型のコンピュータ・ベース視覚システムの校正方法
JP6324025B2 (ja) 情報処理装置、情報処理方法
JP4160572B2 (ja) 画像処理装置及び画像処理方法
JP6317618B2 (ja) 情報処理装置およびその方法、計測装置、並びに、作業装置
JP2010112859A (ja) ロボットシステム、ロボット制御装置およびロボット制御方法
US20130182903A1 (en) Robot apparatus and position and orientation detecting method
JP5891698B2 (ja) ロボット
JP5093591B2 (ja) 三次元位置姿勢計測方法および装置
JP2008168372A (ja) ロボット装置及び形状認識方法
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
JP7427370B2 (ja) 撮像装置、画像処理装置、画像処理方法、撮像装置の校正方法、ロボット装置、ロボット装置を用いた物品の製造方法、制御プログラムおよび記録媒体
JP2006224291A (ja) ロボットシステム
JP2559939B2 (ja) 3次元情報入力装置
CN111145267B (zh) 基于imu辅助的360度全景视图多相机标定方法

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20061220

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101008

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101019

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110301