JP2012228765A - ロボット、ロボットの動作方法、及びプログラム - Google Patents

ロボット、ロボットの動作方法、及びプログラム Download PDF

Info

Publication number
JP2012228765A
JP2012228765A JP2011099792A JP2011099792A JP2012228765A JP 2012228765 A JP2012228765 A JP 2012228765A JP 2011099792 A JP2011099792 A JP 2011099792A JP 2011099792 A JP2011099792 A JP 2011099792A JP 2012228765 A JP2012228765 A JP 2012228765A
Authority
JP
Japan
Prior art keywords
imaging
unit
camera
hand
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011099792A
Other languages
English (en)
Other versions
JP5609760B2 (ja
Inventor
Murahito Hattori
祐人 服部
Fumitomo Saito
史倫 齋藤
Katsuya Inuzuka
克也 犬塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2011099792A priority Critical patent/JP5609760B2/ja
Publication of JP2012228765A publication Critical patent/JP2012228765A/ja
Application granted granted Critical
Publication of JP5609760B2 publication Critical patent/JP5609760B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】あるカメラを介して認識された物体を他のカメラを介して認識させる動作を的確に行うこと。
【解決手段】ロボット100は、俯瞰カメラ10と手先カメラ40を有する。ロボット100は、俯瞰カメラ10から供給される撮像データに基づいて認識された物体が手先カメラ40から供給される撮像データに基づいて認識できないとき、俯瞰カメラ10の撮像方向に対して手先カメラ40の撮像方向が一致する状態となる方向へ、手先カメラ40を移動させる。この動作による手先カメラ40を介した物体認識の成功後、ロボット100は、ビジュアルサーボに基づいて、ハンド部30/手先カメラ40をワーク201側へ推進移動させる。
【選択図】図2

Description

本発明は、ロボット、ロボットの動作方法、及びプログラムに関する。
ヒトの住環境内にロボットを導入し、このロボットによりヒトの生活をアシストする取り組みが従来から行われている。例えば、特許文献1には、ロボットのボディー部上に設けられたメインカメラ22と、ロボットの指34〜38近傍に設けられたカラーカメラ24とを具備するロボット10を開示する(同文献の図1参照)。同文献では、白色LED23をカラーカメラ24に近接配置し、白色LED23の点灯を制御する。同文献の段落0048には、発光の前後の輝度を比較することで、セグメント化、及びワークまでの距離推定を実行することが開示されている。
特開2006−21300号公報
ヒトの住環境等に例示されるように様々な物体が存在する空間内にロボットを導入する場合、あるカメラを介してロボットにより認識された物体が、他のカメラを介してはロボットにより認識されない場合が想定される。例えば、障害物、ワークに対する光照射により生じる陰影等の影響によって、上述の状況が招来され得る。
上述の説明から明らかなように、ある撮像手段を介して認識された物体を他の撮像手段を介して認識させる動作を的確に行うことが強く要望されている。なお、この課題の原因は、様々なものが考えられ、上述の例示(障害物による遮断、及びワークに対する光照射により生じる陰影)に限定されるべきものではない。
本発明に係るロボットは、第1及び第2撮像手段と、前記第1撮像手段から供給される撮像データに基づいて認識された物体が前記第2撮像手段から供給される撮像データに基づいて認識できないとき、前記第1撮像手段の撮像方向に対して前記第2撮像手段の撮像方向が一致する状態となる方向へ、前記第2撮像手段を移動させる駆動手段と、を備える。
前記駆動手段は、前記第1及び第2撮像手段それぞれから供給される撮像データに基づいて物体を認識する物体認識手段を含む、と良い。
前記駆動手段は、前記第1撮像手段から供給された撮像データに基づいて認識した物体を撮像可能と推定される位置に前記第2撮像手段を移動させ、その後、前記第2撮像手段から供給された撮像データに基づいてその物体を認識できないとき、前記第1撮像手段の撮像方向に対して前記第2撮像手段の撮像方向が一致する状態となる方向へ、前記第2撮像手段を移動させる、と良い。
前記駆動手段は、前記第1撮像手段から供給される撮像データに基づいて認識した物体を前記第2撮像手段から供給される撮像データに基づいて認識できたとき、前記第2撮像手段により前記物体が撮像される状態を維持し続ける態様にて前記第2撮像手段を前記物体側へ移動させる、と良い。
前記駆動手段は、空間内に配置される物体に対して割り当てられた識別値と当該識別値に対して関連付けられた情報とを記憶する記憶手段を含む、上述のいずれかに記載のロボットであって、前記駆動手段は、前記第1撮像手段から供給される撮像データ及び前記記憶手段に格納された情報に基づいて物体を認識し、かつ前記第2撮像手段から供給される撮像データ及び前記記憶手段に格納された情報に基づいて物体を認識する、と良い。
前記駆動手段は、空間内に配置される物体に対して割り当てられた識別値と当該識別値に対して関連付けられた情報とを記憶する記憶手段を含み、かつ前記駆動手段は、前記第1撮像手段から供給される撮像データ及び前記記憶手段に格納された情報に基づいて物体を認識し、かつ前記第2撮像手段から供給される撮像データ及び前記記憶手段に格納された情報に基づいて物体を認識する、上述のいずれかに記載のロボットであって、前記情報は、当該情報が関連づけられた物体の形状を示す情報を含む、と良い。
前記駆動手段により駆動されて前記第2撮像手段と共に空間変位するハンド部を更に備え、前記駆動手段は、空間内に配置される物体に対して割り当てられた識別値と当該識別値に対して関連付けられた情報とを記憶する記憶手段を含み、かつ前記駆動手段は、前記第1撮像手段から供給される撮像データ及び前記記憶手段に格納された情報に基づいて物体を認識し、かつ前記第2撮像手段から供給される撮像データ及び前記記憶手段に格納された情報に基づいて物体を認識する、上述のいずれかに記載のロボットであって、前記情報は、当該情報が関連づけられた物体を把持することが可能な認識精度が十分に得られる範囲を示す情報を含み、当該範囲を示す情報に基づいて、前記駆動手段により物体側へ移動される前記第2撮像手段及び前記ハンド部の停止位置が決定される、と良い。
前記第1撮像手段は、ロボット本体に対して設けられ、前記第2撮像手段は、ロボットに設けられたアーム部の先端側に設けられ、前記アーム部は、複数の関節を介して接続された複数のリンクを含み、前記アーム部の先端側には物体を把持可能なハンド部が設けられている、と良い。
前記第2撮像手段は、前記第1撮像手段よりも解像度が低い撮像素子を用いて撮像動作する、と良い。
本発明に係るロボットの動作方法は、第1及び第2撮像手段それぞれから供給される撮像データに基づいて物体を認識し、前記第1撮像手段から供給される撮像データに基づいて認識した物体が前記第2撮像手段から供給される撮像データに基づいて認識できないとき、前記第1撮像手段の撮像方向に対して前記第2撮像手段の撮像方向が一致する状態となる方向へ、前記第2撮像手段を移動させるための情報を生成する。本発明に係るプログラムは、左記した方法をコンピュータに実行させる。
本発明によれば、ある撮像手段を介して認識された物体を他の撮像手段を介して認識させる動作を的確に行うことが可能となる。
実施の形態1にかかる所定空間へロボットを導入した状態を示す模式図である。 実施の形態1にかかる手先カメラの位置調整態様を示す模式図である。 実施の形態1にかかる手先カメラの位置調整態様を示す模式図である。 実施の形態1にかかるワーク及びカメラの空間位置を示す模式図である。 実施の形態1にかかるロボットの概略構成を示すブロック図である。 実施の形態1にかかる物体情報データベースの構造を示す模式図である。 実施の形態1にかかる把持可能エリア情報を説明するための模式図である。 実施の形態1にかかる手先カメラの移動位置の算出を説明するための模式図である。 実施の形態1にかかる手先カメラの移動位置の算出を説明するための模式図である。 実施の形態1にかかるロボットの動作を説明するための概略的なフローチャートである。 実施の形態1にかかる俯瞰カメラにより撮像された画像を示す模式図である。 実施の形態1にかかる手先カメラにより撮像された画像を示す模式図である。 実施の形態1にかかる手先カメラにより撮像された画像を示す模式図である。 実施の形態1にかかる手先カメラにより撮像された画像を示す模式図である。 課題を説明するための説明図である。
実施の形態1
以下、図面を参照して本発明の実施の形態について説明する。本実施形態に係るロボット100は、図1に示すように、俯瞰カメラ10、及び手先カメラ40を備える。ロボット100は、俯瞰カメラ10から供給される撮像データに基づいてワーク(作業対象物、物体)201を認識する。ロボット100は、俯瞰カメラ10から供給される撮像データに基づいて認識したワーク201を、手先カメラ40から供給される撮像データに基づいて認識することができない。ワーク201と手先カメラ40との間に障害物202が存在しているためである。この場合、ロボット100は、手先カメラ40の撮像方向が俯瞰カメラ10の撮像方向に対して一致する状態となる方向へ、手先カメラ40を移動させる(図2参照)。これによって、ワーク201と手先カメラ40間に障害物202が存在している状態等であっても、より的確/迅速に手先カメラ40を介してワーク201を認識することが可能となる。ロボット100のハンド部30によりワーク201を把持する場合、より短時間にワーク201を把持することが可能となる。
なお、障害物202の種類、大きさ、配置状態等は様々な態様が考えられる。従って、仮にロボット100の存在位置/手先カメラ30の位置姿勢をランダムに変更したとしても、必ずしも的確/迅速に手先カメラ40を介してワーク201を認識することには至らない。
以下、図面を参照しつつ、より具体的に説明する。図1は、所定空間へロボットを導入した状態を示す模式図である。図2及び図3は、手先カメラの位置調整態様を示す模式図である。図4は、ワーク及びカメラの空間位置を示す模式図である。図5は、ロボットの概略構成を示すブロック図である。図6は、物体情報データベースの構造を示す模式図である。図7は、把持可能エリア情報を説明するための模式図である。図8及び図9は、手先カメラの移動位置の算出を説明するための模式図である。図10は、ロボットの動作を説明するための概略的なフローチャートである。図11は、俯瞰カメラにより撮像されたフレーム画像を示す模式図である。図12乃至図14は、手先カメラにより撮像されたフレーム画像を示す模式図である。図15は、課題を説明するための説明図である。
図1に示すように、ロボット100は、俯瞰カメラ(第1撮像手段/撮像部)10、アーム部(位置調整手段/位置調整部)20、ハンド部(作用手段/作用部)30、及び手先カメラ(第2撮像手段/撮像部)40を具備する。俯瞰カメラ10は、ヒトの目として機能するべく、ロボット100のボディー上面に設けられている。アーム部20は、ヒトの腕として機能するべく、ロボット100のボディー側面に設けられている。ハンド部30は、ヒトの手として機能するべく、アーム部20の先端に設けられている。手先カメラ40は、ハンド部30の周囲を観察するべく、ハンド部30に設けられている。
俯瞰カメラ10は、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等の一般的な撮像素子を具備するカメラである。俯瞰カメラ10は、周囲の環境を連続撮像し、ビデオ信号(撮像データ)を出力する。
アーム部20は、複数の関節を介してリンクが連続した構造を有し、ロボット100の本体側から供給される駆動力によって、各リンク間の相対位置を調整可能に構成されている。換言すれば、アーム部20の姿勢は、ロボット100のコンピュータにより制御される。アーム部20を構成するリンク間の関節は、柔らかく構成されている。これにより、アーム部20のリンクが障害物に当たると、リンクが反対側へ押し戻されることとなり、アーム部20により障害物が倒されること等が効果的に抑制される。
ハンド部30は、アーム部20の先端に設けられ、ワーク201を把持可能なように構成されている。
手先カメラ40は、俯瞰カメラ10と同様、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等の一般的な撮像素子を具備するカメラである。手先カメラ40は、ハンド部30の周囲の環境を連続撮像し、ビデオ信号(画像データ)を出力する。手先カメラ40内に組み込まれる撮像素子の分解能は、俯瞰カメラ10に組み込まれる撮像素子の分解能よりも低い。これは、手先カメラ40は、専ら、狭い範囲を撮像するために設けられているためである。各カメラを設ける目的に則って各カメラ内に組み込まれる撮像素子の撮像性能に相違をつけることは、コストダウンの観点から望ましい。なお、俯瞰カメラ10及び手先カメラ40内には、レンズ系が設けられている。各カメラに対してズーム/オートフォーカス等の機構を具備させる場合には、各機能を実現するために適したレンズ系を採用すれば良い。
当業者には周知のように、ロボット100のボディー内には、様々な電気/機械要素が内蔵されている。例えば、ロボット100のボディー内には、コンピュータ、各種センサ(ジャイロセンサ、加速度センサ、温度センサ、エンコーダ等)、電磁モーター、伝達機構、バッテリー等の要素が内蔵されている。ロボット100に内蔵されるコンピュータは、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)等のメモリ、バス、ハードディスク、インターフェイス、ASIC(Application Specific Integrated Circuit)等から構成される。コンピュータが、記憶領域から読みだしたプログラムをCPUにより実行して、様々な機能を実現すること(これは、ソフトウェア制御と呼ばれることもある)は、当業者には広く知られている。なお、プログラムは、CD、DVD、Blue−ray等の光学的記録媒体に格納されて拡販されたりする。プログラムの格納媒体は、これに限らず、その他にも様々な種類が存在する。
ロボット100は、ビジュアルサーボに基づいて、ハンド部30の位置を制御する(なお、ビジュアルサーボに基づく制御を"ビジュアルフィードバック"と呼ぶこともある)。ビジュアルサーボは、手先カメラ40を介してコンピュータにより認識されたワークを手先カメラ40が取得したフレーム画像内(好ましくは、フレーム画像の中心)に捉えながら、認識されたワーク側へハンド部30を推進移動する処理を示す。ビジュアルサーボ処理は、手先カメラ40が取得したフレーム画像中に含まれるワークを認識する処理と、認識したワークを手先カメラ40が取得するフレーム画像の中心に捉えながら、ワーク側へハンド部30を移動させる処理とを含む。この点は、後で改めて説明する。
図1に示すとき、俯瞰カメラ10でワーク201を認識することでロボット100とワーク201の3次元的な位置関係を算出する。これにより、俯瞰カメラ10の視軸L1を、ワーク201を臨む方向に一致させる。なお、視軸L1は、俯瞰カメラ10に内蔵されるレンズ系の光軸に一致する軸であり、俯瞰カメラ10の撮像方向に一致する。同様にして、図1に示すとき、ワーク201の位置が俯瞰カメラ10により既知となる。手先カメラ40の視軸L2も、手先カメラ40がワーク201を臨む方向に一致させることができる。なお、視軸L2は、好適には、手先カメラ40に内蔵されるレンズ系の光軸に一致する軸であり、手先カメラ40の撮像方向に一致する。
図1に示すとき、俯瞰カメラ10により撮像されるワーク201は、ワーク201と手先カメラ40間の障害物202の存在によって手先カメラ40により撮像し得ない状態にある。このような場合、ロボット100を如何様に移動したら良いのか、手先カメラ40を如何様に移動したら良いのか不明な状態にある。
本実施形態では、このような問題を解決するべく、図2に模式的に示すように、俯瞰カメラ10の視軸L1(俯瞰カメラ10の撮像方向)に対して手先カメラ40の視軸L2(手先カメラ40の撮像方向)が一致する状態となる方向へ手先カメラ40を移動させる。具体的には、ロボット100は、アーム部20の姿勢を調整することによって、図2の矢印にて模式的に示された方向へ手先カメラ40を移動させる。これによって、俯瞰カメラ10によって捉えたワーク201を手先カメラ40によって的確/迅速に捉えることが可能となる。ロボット100/手先カメラ40をランダムに移動させることを抑制することで、手先カメラ40によりワーク201を捉えることに要するエネルギー/時間を低減することが可能となる。
図2に模式的に示したように手先カメラ40の位置を変更した後、図3に模式的に示すように、ロボット100は、上述のビジュアルサーボの原理に基づいて、ワーク201側へハンド部30/手先カメラ40を推進移動させる。ロボット100は、ハンド部30によりワーク201が把持されることが可能となる位置にてハンド部30/手先カメラ40を停止させる。ハンド部30によりワーク201を把持する際、手先カメラ40によりワーク201が適当に撮像されている。ロボット100は、手先カメラ40を介してワーク201の位置姿勢を的確に認識している。従って、ハンド部30によるワーク201の把握をより的確に行うことができ、ハンド部30によるワーク201の把持性能を効果的に高めることができる。図2に模式的に示したように手先カメラ40を移動させることで、より迅速に手先カメラ40によってワーク201を捉えることができる。従って、ワーク201をハンド部30により把持することに要する全体時間も効果的に短縮することが可能となる。
なお、ワーク201側へハンド部30/手先カメラ40を推進移動させる具体的なメカニズムは任意であり、ビジュアルサーボ原理に基づく推進移動に限定されるべきものではない。なお、上述のように、ハンド部30/手先カメラ40の移動は、ロボット100内のコンピュータによるアーム部20の姿勢制御により具現化される。
より一般的には、俯瞰カメラ10、手先カメラ40、ワーク201は、図4に模式的に示すような3次元的関係(配置関係)にあり、ワーク201の中心を原点Oとした極座標を設定することによって、ワーク201、俯瞰カメラ10、手先カメラ40の相対的な位置関係を把握することができる。図4に模式的に示すように、俯瞰カメラ10の視軸L1と手先カメラ40の視軸L2は、ワーク201の中心(原点O)を通過するように設定されている。原点から等しい距離にある曲面を観念すると、曲面と視軸L1の交点をPとし、曲面と視軸L2の交点をPと設定することができる。俯瞰カメラ10の位置は、交点Pと原点Oを結ぶ直線が極座標のz軸に対して為す角度θ、交点Pと原点Oを結ぶ直線を鉛直方向へ投影した線が極座標のx軸に対して為す角度φによって定まる。手先カメラ40の位置は、交点Pと原点Oを結ぶ直線が極座標のz軸に対して為す角度θ、交点Pと原点Oを結ぶ直線を鉛直方向へ投影した線が極座標のx軸に対して為す角度φによって定まる。角度θが角度θに一致し、かつ角度φが角度φに一致するとき、俯瞰カメラ10の視軸L1と手先カメラ40の視軸L2とが一致している状態にある。図2で手先カメラ40を移動させるのは、3次元的には、原点O、交点P、Pを含む面(平面)内に拘束して視軸L2を移動させることに相当する。このように、ワークに対して極座標を設定し、この極座標により各カメラの位置を算出することによって、カメラ間の位置調整を好適に実施することができる。
図5に、ロボット100の概略的なブロック構成を示す。なお、図5は、ロボットの構成を概略的に示すに留まり、その細部の構成までも開示していない。ロボット100の具体的な構成方法は任意であり、図5に開示する構成に限られるべきものではない。
図5に示すように、ロボット100は、俯瞰カメラ10、手先カメラ40、及び駆動部(駆動手段)65を有する。駆動部65は、物体認識処理部60、物体情報DB(DataBase)61、認識視点候補抽出部62、及びロボット制御部63を含む。駆動部65は、俯瞰カメラ10から供給される撮像データに基づいて認識したワークを手先カメラ40により撮像するべく、手先カメラ40を空間的に変位させる。駆動部65は、上述のビジュアルサーボによりハンド部30/手先カメラ40をワーク側へ推進移動させる。
俯瞰カメラ10が出力するビデオ信号は、物体認識処理部60へ供給される。手先カメラ40が出力するビデオ信号は、物体認識処理部60へ供給される。物体認識処理部60は、物体情報DB61に対してアクセス可能に接続されている。物体認識処理部60の出力は、認識視点候補抽出部62へ供給される。認識視点候補抽出部62の出力は、ロボット制御部63へ供給される。認識視点候補抽出部62は、物体情報DB61に対してアクセス可能に接続されている。
物体認識処理部60は、各カメラからビデオ信号を受信し、任意の方法によりフレーム画像内にワークが存在することを認識する。物体認識処理部60によるワークの認識方法は任意である。本例では、物体情報DB61内に、ワーク単位でワークの形状を示す形状データが予め格納されている(図6参照)。物体認識処理部60は、物体情報DB61に格納された形状情報に対応する形状がフレーム画像内に含まれているか否かを判定する。例えば、物体認識処理部60は、フレーム画像に対してエッジ抽出処理を施し、抽出したエッジ形状が物体情報DB61から読みだした形状情報に対応するものか否かを判定する。この判定により、物体認識処理部60は、フレーム内にワークが含まれることを検知する。
図6に示すように、物体情報DB61には、ワーク単位で、ワークを識別する物体ID、ワークの物体名、ワークの形状情報、ワークの過去の存在位置姿勢を示す履歴、およびワークの把持可能エリア情報が格納されている。1番目のワークは、ID=1のペットボトルであり、これに関連づけて、CAD形式の形状データ、履歴、および把持可能エリア情報が格納されている。2番目のワークは、ID=2の携帯電話であり、これに関連づけて、CAD形式の形状データ、履歴、および把持可能エリア情報が格納されている。冗長な説明を避けるため、図6では、2つのワークに限って開示している。物体情報DB61に格納されるデータ構造/データ量は任意であり、図6の開示に限定されるべきものではない。
図6に示された把持可能エリア情報は、図7に模式的に示すように把握される。図7に示す点線範囲R0〜R4は、手先カメラ40がこれらの範囲内にあれば把持のために十分な認識精度が得られると考えられる領域を示している。つまり、手先カメラ40がその点線範囲R0〜R4内に位置していれば、ハンド部30によりワークが把持可能である。なお、図7では、ワークは、斜線を施した円柱として表示されている。
各点線範囲R0〜R4は、任意の面内において存在する。点線範囲の形状は、ワークの中心を原点として設定された極座標により表現される。例えば、図7に模式的に示すように、点線範囲R1の外周位置は、式(1)により表わされる。
Figure 2012228765
θは、外周位置と原点とを結ぶ直線がz軸に対して為す角度である。φは、外周位置と原点とを結ぶ直線がx軸に対して為す角度である。Rは、外周位置と原点間の間隔である。各ワークに設定された各把持可能エリア情報は、把持可能な範囲を規定する点線範囲を構成する外周位置情報の集合により構成される。
図5に示した認識視点候補抽出部62は、物体認識処理部60により認識されたワークを手先カメラ40により捉えるべく、手先カメラ40の移動先の位置を算出する。この点について、図8及び図9を参照して説明する。
図8に示すように、まず、物体認識処理部60は、上述のように、物体情報DBに格納された情報を活用しつつ、俯瞰カメラ10から供給されたビデオ信号に基づいてワークを認識する。物体認識処理部60により認識されたワークの情報(例えば、物体ID、フレーム中に占める高さ、幅、形状等)は、認識視点候補抽出部62に供給される。認識視点候補抽出部62は、物体認識処理部60から供給されたワークの情報と、これに対応する物体情報DB61に格納された情報とに基づいて、俯瞰カメラ10により撮像されたワークの位置姿勢を算出する。例えば、フレーム内のワーク(例えば、物体ID=1のペットボトル)の幅と、物体情報DB61に格納されたワーク(物体ID=1のペットボトル)の幅との比率を算出することによって、俯瞰カメラ10とワーク201間の距離d1が算出される。
俯瞰カメラ10の画角αは既知である。従って、俯瞰カメラ10により観察されるワーク201が位置する平面範囲、すなわち俯瞰カメラ10の視野範囲W1も計算式W1=2×d1・tan(α/2)により求められる。
このように認識視点候補抽出部62により算出されたワークの位置姿勢は、同次変換行列の形式(式(2))により表現される。ワーク側から見た俯瞰カメラ10の位置姿勢は、左記した行列の逆行列、式(3)となる。
Figure 2012228765
Figure 2012228765
認識視点候補抽出部62は、次に、ワーク201を手先カメラ40により捉えることが可能であり、かつ手先カメラ40の視野範囲が俯瞰カメラ10の視野範囲と一致する位置を算出する。俯瞰カメラ10の視野範囲に対して手先カメラ40の視野範囲を一致させることで、手先カメラ40によりワーク201をより確実に捉えることが可能となる。
ワークの位置姿勢は既に求まっているので、ワーク中心を通過する視軸L2は決まる。視軸L2上のワークから手先カメラまでの距離d2を次のように求める。図9に示すように、手先カメラ40の画角βとすると、視野範囲W2=視野範囲W1の条件を満たす間隔d2は、W1=2×d2・tan(β/2)を解くことで求めることができる。認識視点候補抽出部62は、ワーク201まで間隔d2をあけた位置を示す位置情報を生成する。ロボット制御部63は、認識視点候補抽出部62により生成された位置情報が示す位置まで手先カメラ40を移動させる。これにより、手先カメラ40は、ビジュアルサーボ駆動の開始点に配置される。
認識視点候補抽出部62により生成される位置情報は、例えば、ロボット100の現在位置を中心とする座標系により表現される。ロボット100の現在位置を中心とする座標系におけるワーク201の位置は、物体認識処理部60により算出され、認識視点候補抽出部62へ供給される。認識視点抽出部62は、ワーク201の座標位置から、上述のように算出した間隔d2だけ離れた位置を算出する。認識視点候補抽出部62により算出された位置情報は、ロボット制御部63へ供給される。ロボット制御部63は、手先カメラ40を現在の位置から算出された位置まで移動させることに要するアーム部20の姿勢変化を求める。ロボット制御部63により算出されたようにアーム部20が姿勢変化されることによって、図9に示すように手先カメラ40は位置付けられる。
図8及び図9に提示した手法によって、手先カメラ40の初期位置を求めることができるが、この方法に限定されるべきものではない。つまり、図8及び図9を参照して説明した方法以外の方法を採用して、手先カメラ40の初期位置を求めても良い。例えば、各カメラの視野範囲を一致させることなく、単に、ワーク201の中心を向くように手先カメラ40を姿勢変化させても良い。ワーク201の中心を向くように手先カメラ40を位置付ける場合には、ワーク201に対する手先カメラ40の間隔が手先カメラ40内のレンズの被写界深度の範囲内となる位置とすることが望ましい。
図5に示したロボット制御部63は、自律的又はユーザーの指示に基づいて、ロボット100の全体姿勢を制御する。具体的には、ロボット制御部63は、自律的又はユーザーの指示に基づいて、俯瞰カメラ10の姿勢を調整する。ロボット制御部63は、自律的又はユーザーの指示に基づいて、アーム部20の姿勢を調整する。ロボット制御部63は、自律的又はユーザーの指示に基づいて、ハンド部30の把持動作を制御する。
上述のビジュアルサーボに基づく制御は、物体認識処理部60、認識視点候補抽出部62、及びロボット制御部63が協働することにより実行される。具体的には、認識視点候補抽出部62は、物体認識処理部60により認識されたワーク201が手先カメラ40により取得されたフレームの中心に位置する状態を保ちつつ、ワーク201側へ手先カメラ40を近づけるための位置情報を生成し、ロボット制御部63は、その生成された位置情報に応じて、アーム部20の姿勢を変化させる。このサイクルを繰り返すことによって、ワーク201近傍にハンド部30を位置づけさせることが可能となる。ビジュアルサーボを移動制御の原理として採用することによって、把持対象のワーク201が手先カメラ40の撮像範囲から外れることなく、好適に、ワーク201の近傍にハンド部30を位置付けることが可能となる。
ハンド部30の停止位置は、物体情報DB61に格納された把持可能エリア情報に基づいて決定される。具体的には、認識視点候補抽出部62は、次の位置情報を算出するたびに、この位置情報により移動される手先カメラ40が、物体情報DB61に格納された把持可能エリア情報から定まる範囲内に存在することになるか否かを判定する。物体情報DB61に格納された把持可能エリア情報から定まる範囲内に手先カメラ40が入ることを検出すると、認識視点候補抽出部62は、物体認識処理部60と協働して実行してきた位置情報の算出サイクルを停止する。なお、最終的に算出された位置情報は、認識視点候補抽出部62からロボット制御部63に供給され、これに応じて、ロボット制御部63は、手先カメラ40を移動させる。
次に、図10のフローチャートを参照して、ロボット100の動作について説明する。
まず、ロボット100は、俯瞰カメラ10を介してワークを認識する(S100)。具体的には、俯瞰カメラ10は、視軸L1の近傍に存在しているワークを撮像し、これに応じたビデオ信号を生成する。物体認識処理部60は、俯瞰カメラ10から供給されるフレーム画像に含まれるワークを抽出し、抽出したワークと物体情報DB61に格納されたワーク情報(ワークの形状情報等)とを比較することによって撮像フレーム内にワークが存在することを認識する。物体認識処理部60は、認識したワークの位置姿勢等も算出する。なお、物体情報DB61等のデータベースを用いることなく、ワークを認識しても良い。
次に、ワークの中心に対して視軸L1を合わせるように俯瞰カメラの姿勢を調整する(S101)。この処理は、例えば、物体認識処理部60とロボット制御部63との協働により実現される。俯瞰カメラ10の姿勢調整と同時に、俯瞰カメラ10をワーク側に対して近付け、これにより、俯瞰カメラ10によりワークをより十分に認識可能としても良い。
次に、ロボット100は、手先カメラ40の移動位置を算出する(S102)。具体的には、図8及び図9を参照して説明したように、認識視点候補抽出部62は、俯瞰カメラ10の視野範囲と同範囲となる視野範囲にて手先カメラ40によりワークを捉えることが可能となる手先カメラ40の位置姿勢を算出する。
次に、ロボット100は、算出した位置姿勢へ手先カメラ40を移動する(S103)。具体的には、ロボット制御部63は、認識視点候補抽出部62から位置姿勢情報に応じて、アーム部20を姿勢変化させ、所定の位置姿勢にまでハンド部30を移動させる。
次に、ロボット100は、手先カメラ40でワークを認識したか否かを判定する(S104)。具体的には、物体認識処理部60は、手先カメラ40から供給されるフレーム画像に含まれるワークを抽出する。次に、物体認識処理部60は、抽出したワークが、上述のS100で俯瞰カメラ10を介して認識されたワークに等しいか判定する。例えば、物体認識処理部60は、上述のS100で俯瞰カメラ10を介して認識されたワークの識別IDをもとに物体情報DB61から形状情報を読み出す。次に、物体認識処理部60は、読みだした情報と上述のように手先カメラ40から供給されるフレーム画像から抽出されたワークの情報とを比較し、両者の一致性を判定する。所定条件を満足するとき、物体認識処理部60は、両者が一致すると判定する。このようにして、ロボット100は、俯瞰カメラ10で撮像されたワーク201が手先カメラ40によって撮像されている状態を検出する。
ステップS104の判定結果がNOの場合、ロボット100は、手先カメラ40の視軸L2が俯瞰カメラ10の視軸L1に一致するような状態となる方向へ手先カメラ40を移動する(S105)。具体的には、図2を参照して説明したように、ロボット100は、ハンド部30/手先カメラ40の位置姿勢を変更するべく、アーム部20の姿勢を制御する。
この動作は、図4の模式図を参照することで理解することができる。図4においては、上述のように、角度θが角度θに一致し、かつ角度φが角度φに一致するとき、俯瞰カメラ10の視軸L1と手先カメラ40の視軸L2とが一致している状態にある。従って、このような状態に近づくように、手先カメラ40の軌道を算出すればよい。例えば、ロボット制御部63は、自身を中心とする座標系において、俯瞰カメラ10の位置、ワーク201の位置、手先カメラ40の位置を認識している。これらの位置情報を用いることによって、ロボット制御部63は、手先カメラ40を移動すべき方向を算出する。ステップS105の後、再び、ステップS104の判定が実行される。
好適には、所定距離だけハンド部30/手先カメラ40を移動させる度に、S104の判定処理を実行するようなサイクルを採用する。これにより、必要以上にハンド部30/手先カメラ40を移動させることを効果的に回避し、より短時間で手先カメラ40によりワークを捉えることが可能となる。
ステップS104の判定結果がYESの場合、ロボット100は、手先カメラ40をビジュアルサーボにより移動制御する(S106)。具体的には、図3を参照して説明したように、物体認識処理部60、認識視点候補抽出部62、及びロボット制御部63が協働することにより、手先カメラ40の中心にワークを捉えながら、ハンド部30/手先カメラ40がワーク側へ近づくようにアーム部20の姿勢が制御される。
次に、ロボット100は、ハンド部30でワークを把持可能な認識精度が得られる位置に手先カメラが存在するか否かを判定する(S107)。具体的には、認識視点候補抽出部62は、ステップS106において次の位置情報を算出するたびに、この位置情報により移動される手先カメラ40が、物体情報DB61に格納された把持可能エリア情報から定まる範囲内に存在することになるか否かを判定する。物体情報DB61に格納された把持可能エリア情報から定まる範囲内に手先カメラ40が入ることを検出すると、認識視点候補抽出部62は、物体認識処理部60と協働して実行してきた位置情報の算出サイクルを停止する。
次に、ステップS107の判定結果がYESの場合、ロボット100は、ワークを把持する(S108)。具体的には、ロボット制御部63は、物体認識処理部60により算出された位置姿勢情報に応じてアーム部20を姿勢変化させ、所望の位置にハンド部30/手先カメラ40を移動させる。その後、ロボット制御部63は、ハンド部30によりワークを把持するべく、ハンド部30のハンド状態を変化させる。なお、ステップS107においてNOの場合、ステップS104にまで戻る。
図11乃至図14を参照して、各カメラにより撮像されたフレーム画像を示す。図11は、図10のステップS100において、俯瞰カメラ10により撮像されたフレーム画像を模式的に示す。図12は、図10のステップS104において、手先カメラ40により撮像されたフレーム画像を模式的に示す。図10と図12との対比から明らかなように、俯瞰カメラ10により捉えられたワーク201は、手先カメラ40から見ると、障害物202により遮られている。
図13は、図10のステップS105により手先カメラ40の位置を図2に模式的に示したように変更した後、手先カメラ40により撮像されたフレーム画像を模式的に示す。図12と図13との対比から明らかなように、手先カメラ40の位置を図2に模式的に示したように調整することによって、手先カメラ40によりワーク201を捉えることが可能となる。
図14は、図10のステップS106の後、手先カメラ40により撮像されたフレーム画像を示す。図13と図14との対比から明らかなように、ロボット100は、ワーク201をフレームの中心に位置付けながらビジュアルサーボに基づいて手先カメラ40を移動する。これにより、手先カメラ40の移動に伴って、手先カメラ40の視野からワーク201が外れることを効果的に抑制することができる。
上述の説明から明らかなように、本実施形態では、ロボット100は、俯瞰カメラ10から供給される撮像データに基づいて認識したワーク201が手先カメラ40から供給される撮像データに基づいて認識することができないとき、手先カメラ40の撮像方向が俯瞰カメラ10の撮像方向に対して一致する状態となる方向へ、手先カメラ40を移動させる。このように制御することによって、ワーク201と手先カメラ40間に障害物202が存在している状態であっても、より的確に手先カメラ40を介してワーク201を認識することが可能となる。ロボット100のハンド部30によりワーク201を把持する場合には、より短時間にワーク201を把持することが可能となる。
なお、俯瞰カメラ10により捉えられたワーク201が手先カメラ40により捉えることができない原因は、障害物の存在以外にも他に様々なものが考えられる。例えば、図15に模式的に示すように、光源250によりワーク260に陰影が付与されている場合、手先カメラ40によりワーク260の形状を正確に捉えることができず、物体認識処理部60によりワーク260を認識することができない。
このような場合であっても、本実施形態のように、手先カメラ40の視軸が俯瞰カメラ10の視軸に一致するような状態となるような方向へ手先カメラ40を移動させることによって、ワーク260を的確に認識することが可能となる。俯瞰カメラ10を介してワーク260が既にロボット100により認識されているためである。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、ロボット100がワーク201に対して行う動作は、把持に限らず、他の様々な動作態様が想定される。ロボット100の構成は、図示したものに限らず、他の様々な態様が想定される。図5に示した物体認識処理部60、認識視点候補抽出部62、ロボット制御部63が発揮する機能は、好適には、CPUによるプログラムの実行により具現化される。俯瞰カメラ10の撮像方向に対して手先カメラ40の撮像方向が一致した状態となる方向へ手先カメラ40を移動させる態様は任意である。例えば、手先カメラ40の移動軌跡は、直線状、波状、又はその他の態様であったりする。
100 ロボット

10 俯瞰カメラ
20 アーム部
30 ハンド部
40 手先カメラ
60 物体認識処理部
61 物体情報DB
62 認識視点候補抽出部
63 ロボット制御部

201 ワーク
202 障害物

250 光源
260 ワーク

Claims (11)

  1. 第1及び第2撮像手段と、
    前記第1撮像手段から供給される撮像データに基づいて認識された物体が前記第2撮像手段から供給される撮像データに基づいて認識できないとき、前記第1撮像手段の撮像方向に対して前記第2撮像手段の撮像方向が一致する状態となる方向へ、前記第2撮像手段を移動させる駆動手段と、を備えるロボット。
  2. 前記駆動手段は、前記第1及び第2撮像手段それぞれから供給される撮像データに基づいて物体を認識する物体認識手段を含むことを特徴とする請求項1に記載のロボット。
  3. 前記駆動手段は、前記第1撮像手段から供給された撮像データに基づいて認識された物体を撮像可能と推定される位置に前記第2撮像手段を移動させ、その後、前記第2撮像手段から供給された撮像データに基づいてその物体を認識できないとき、前記第1撮像手段の撮像方向に対して前記第2撮像手段の撮像方向が一致する状態となる方向へ、前記第2撮像手段を移動させることを特徴とする請求項1又は2に記載のロボット。
  4. 前記駆動手段は、前記第1撮像手段から供給される撮像データに基づいて認識した物体を前記第2撮像手段から供給される撮像データに基づいて認識できたとき、前記第2撮像手段により前記物体が撮像される状態を維持し続ける態様にて前記第2撮像手段を前記物体側へ移動させることを特徴とする請求項1乃至3のいずれか一項に記載のロボット。
  5. 前記駆動手段は、空間内に配置される物体に対して割り当てられた識別値と当該識別値に対して関連付けられた情報とを記憶する記憶手段を含む、請求項1乃至4のいずれか一項に記載のロボットであって、
    前記駆動手段は、前記第1撮像手段から供給される撮像データ及び前記記憶手段に格納された情報に基づいて物体を認識し、かつ前記第2撮像手段から供給される撮像データ及び前記記憶手段に格納された情報に基づいて物体を認識する。
  6. 前記駆動手段は、空間内に配置される物体に対して割り当てられた識別値と当該識別値に対して関連付けられた情報とを記憶する記憶手段を含み、かつ
    前記駆動手段は、前記第1撮像手段から供給される撮像データ及び前記記憶手段に格納された情報に基づいて物体を認識し、かつ前記第2撮像手段から供給される撮像データ及び前記記憶手段に格納された情報に基づいて物体を認識する、請求項1乃至5のいずれか一項に記載のロボットであって、
    前記情報は、当該情報が関連づけられた物体の形状を示す情報を含む。
  7. 前記駆動手段により駆動されて前記第2撮像手段と共に空間変位するハンド部を更に備え、
    前記駆動手段は、空間内に配置される物体に対して割り当てられた識別値と当該識別値に対して関連付けられた情報とを記憶する記憶手段を含み、かつ
    前記駆動手段は、前記第1撮像手段から供給される撮像データ及び前記記憶手段に格納された情報に基づいて物体を認識し、かつ前記第2撮像手段から供給される撮像データ及び前記記憶手段に格納された情報に基づいて物体を認識する、請求項1乃至6のいずれか一項に記載のロボットであって、
    前記情報は、当該情報が関連づけられた物体を把持可能な精度の得られる範囲を示す情報を含み、当該範囲を示す情報に基づいて、前記駆動手段により物体側へ移動される前記第2撮像手段及び前記ハンド部の停止位置が決定される。
  8. 前記第1撮像手段は、ロボット本体に対して設けられ、
    前記第2撮像手段は、ロボットに設けられたアーム部の先端側に設けられ、
    前記アーム部は、複数の関節を介して接続された複数のリンクを含み、
    前記アーム部の先端側には物体を把持可能なハンド部が設けられていることを特徴とする請求項1乃至7のいずれか一項に記載のロボット。
  9. 前記第2撮像手段は、前記第1撮像手段よりも解像度が低い撮像素子を用いて撮像動作することを特徴とする請求項1乃至8のいずれか一項に記載のロボット。
  10. 第1及び第2撮像手段それぞれから供給される撮像データに基づいて物体を認識し、
    前記第1撮像手段から供給される撮像データに基づいて認識した物体が前記第2撮像手段から供給される撮像データに基づいて認識できないとき、前記第1撮像手段の撮像方向に対して前記第2撮像手段の撮像方向が一致する状態となる方向へ、前記第2撮像手段を移動させるための情報を生成する、ロボットの動作方法。
  11. 請求項10に記載の方法をコンピュータに実行させるプログラム。
JP2011099792A 2011-04-27 2011-04-27 ロボット、ロボットの動作方法、及びプログラム Active JP5609760B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011099792A JP5609760B2 (ja) 2011-04-27 2011-04-27 ロボット、ロボットの動作方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011099792A JP5609760B2 (ja) 2011-04-27 2011-04-27 ロボット、ロボットの動作方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2012228765A true JP2012228765A (ja) 2012-11-22
JP5609760B2 JP5609760B2 (ja) 2014-10-22

Family

ID=47430758

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011099792A Active JP5609760B2 (ja) 2011-04-27 2011-04-27 ロボット、ロボットの動作方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP5609760B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014172119A (ja) * 2013-03-08 2014-09-22 Seiko Epson Corp ロボット制御システム、ロボット、プログラム及びロボット制御方法
JP2015085488A (ja) * 2013-11-01 2015-05-07 トヨタ自動車株式会社 ロボット
CN105014679A (zh) * 2015-08-03 2015-11-04 华中科技大学无锡研究院 一种基于扫描仪的机器人手眼标定方法
JP2018001348A (ja) * 2016-07-01 2018-01-11 日本電気株式会社 情報処理装置、情報処理方法、及び、プログラム
JP2019055769A (ja) * 2017-07-17 2019-04-11 オーロラ フライト サイエンシズ コーポレーション 航空機システムにおいて障害物を検出するためのシステム及び方法
CN110238849A (zh) * 2019-06-13 2019-09-17 深圳市汇川技术股份有限公司 机器人手眼标定方法及装置

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0830327A (ja) * 1994-07-18 1996-02-02 Fujitsu Ltd 能動的環境認識システム
JP2003305675A (ja) * 2002-04-15 2003-10-28 Denso Wave Inc 視覚認識装置
JP2006021300A (ja) * 2004-07-09 2006-01-26 Sharp Corp 推定装置および把持装置
US20060063599A1 (en) * 2004-09-23 2006-03-23 Michael Greenspan Method and apparatus for positional error correction in a robotic pool systems using a cue-aligned local camera
JP2007216350A (ja) * 2006-02-17 2007-08-30 Toyota Motor Corp 移動型ロボット
US20070216332A1 (en) * 2003-10-20 2007-09-20 Georg Lambert Method for Effecting the Movement of a Handling Device and Image Processing Device
JP2007290056A (ja) * 2006-04-24 2007-11-08 Yaskawa Electric Corp ロボットおよびその物体把持方法
JP2008168372A (ja) * 2007-01-10 2008-07-24 Toyota Motor Corp ロボット装置及び形状認識方法
JP2009190164A (ja) * 2008-02-15 2009-08-27 Korea Inst Of Scinence & Technology 物体認識及び認識された物体を含む周辺環境情報に基づいたロボットの自己位置推定方法
JP2009269110A (ja) * 2008-05-02 2009-11-19 Olympus Corp 組立装置
JP2012030320A (ja) * 2010-07-30 2012-02-16 Dainippon Screen Mfg Co Ltd 作業システム、作業ロボット制御装置および作業プログラム

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0830327A (ja) * 1994-07-18 1996-02-02 Fujitsu Ltd 能動的環境認識システム
JP2003305675A (ja) * 2002-04-15 2003-10-28 Denso Wave Inc 視覚認識装置
US20070216332A1 (en) * 2003-10-20 2007-09-20 Georg Lambert Method for Effecting the Movement of a Handling Device and Image Processing Device
JP2006021300A (ja) * 2004-07-09 2006-01-26 Sharp Corp 推定装置および把持装置
US20060063599A1 (en) * 2004-09-23 2006-03-23 Michael Greenspan Method and apparatus for positional error correction in a robotic pool systems using a cue-aligned local camera
JP2007216350A (ja) * 2006-02-17 2007-08-30 Toyota Motor Corp 移動型ロボット
JP2007290056A (ja) * 2006-04-24 2007-11-08 Yaskawa Electric Corp ロボットおよびその物体把持方法
JP2008168372A (ja) * 2007-01-10 2008-07-24 Toyota Motor Corp ロボット装置及び形状認識方法
JP2009190164A (ja) * 2008-02-15 2009-08-27 Korea Inst Of Scinence & Technology 物体認識及び認識された物体を含む周辺環境情報に基づいたロボットの自己位置推定方法
JP2009269110A (ja) * 2008-05-02 2009-11-19 Olympus Corp 組立装置
JP2012030320A (ja) * 2010-07-30 2012-02-16 Dainippon Screen Mfg Co Ltd 作業システム、作業ロボット制御装置および作業プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200800894012; 湯本 貢司 Koji YUMOTO: '大規模仮想環境における共同注意を支援する視覚化手法の提案 A Visualization Technique for Supporting J' 電子情報通信学会技術研究報告 Vol.108 No.226 IEICE Technical Report 第108巻, 社団法人電子情報通信学会 The Institute of Electro *
JPN6014033166; 湯本 貢司 Koji YUMOTO: '大規模仮想環境における共同注意を支援する視覚化手法の提案 A Visualization Technique for Supporting J' 電子情報通信学会技術研究報告 Vol.108 No.226 IEICE Technical Report 第108巻, 社団法人電子情報通信学会 The Institute of Electro *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014172119A (ja) * 2013-03-08 2014-09-22 Seiko Epson Corp ロボット制御システム、ロボット、プログラム及びロボット制御方法
JP2015085488A (ja) * 2013-11-01 2015-05-07 トヨタ自動車株式会社 ロボット
CN105014679A (zh) * 2015-08-03 2015-11-04 华中科技大学无锡研究院 一种基于扫描仪的机器人手眼标定方法
JP2018001348A (ja) * 2016-07-01 2018-01-11 日本電気株式会社 情報処理装置、情報処理方法、及び、プログラム
JP2019055769A (ja) * 2017-07-17 2019-04-11 オーロラ フライト サイエンシズ コーポレーション 航空機システムにおいて障害物を検出するためのシステム及び方法
CN110238849A (zh) * 2019-06-13 2019-09-17 深圳市汇川技术股份有限公司 机器人手眼标定方法及装置
CN110238849B (zh) * 2019-06-13 2021-11-12 深圳市汇川技术股份有限公司 机器人手眼标定方法及装置

Also Published As

Publication number Publication date
JP5609760B2 (ja) 2014-10-22

Similar Documents

Publication Publication Date Title
JP5609760B2 (ja) ロボット、ロボットの動作方法、及びプログラム
CN107618030B (zh) 基于视觉的机器人动态跟踪抓取方法及系统
US11117262B2 (en) Intelligent robots
JP4961860B2 (ja) ロボット装置及びロボット装置の制御方法
CN111788041A (zh) 由机器人基于使用(一个或多个)机器学习模型确定的抓取策略对物体的抓取
US20230154015A1 (en) Virtual teach and repeat mobile manipulation system
JP2019508273A (ja) ロボットの把持のための深層機械学習方法および装置
JP7044047B2 (ja) ロボット
EP2682711A1 (en) Apparatus and method for three-dimensional measurement and robot system comprising said apparatus
US11331799B1 (en) Determining final grasp pose of robot end effector after traversing to pre-grasp pose
CN111085997A (zh) 基于点云获取和处理的抓取训练方法及系统
JP2008023630A (ja) アームを誘導可能な移動体およびアームを誘導する方法
JP5195465B2 (ja) ロボット制御装置及び方法
JP2008168372A (ja) ロボット装置及び形状認識方法
CN114341930A (zh) 图像处理装置、拍摄装置、机器人以及机器人系统
JP2013069100A (ja) 三次元位置・姿勢認識装置、産業用ロボット、三次元位置・姿勢認識方法、プログラム、記録媒体
CN114670189B (zh) 存储介质、以及生成机器人的控制程序的方法及系统
JP2006224291A (ja) ロボットシステム
JP2015074061A (ja) ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム
JP6067547B2 (ja) 物体認識装置、ロボット及び物体認識方法
WO2020179416A1 (ja) ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
JP5561037B2 (ja) ロボット及びその制御方法
JP2005205519A (ja) ロボットハンド装置
JP2014144516A (ja) ロボット制御装置、ロボットシステム、ロボット、制御方法及びプログラム
JP2006007390A (ja) 撮像装置、撮像方法、撮像プログラム、撮像プログラムを記録したコンピュータ読取可能な記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140723

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140805

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140818

R151 Written notification of patent or utility model registration

Ref document number: 5609760

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151