JP2017087326A - ロボット制御装置およびロボット制御方法 - Google Patents
ロボット制御装置およびロボット制御方法 Download PDFInfo
- Publication number
- JP2017087326A JP2017087326A JP2015218215A JP2015218215A JP2017087326A JP 2017087326 A JP2017087326 A JP 2017087326A JP 2015218215 A JP2015218215 A JP 2015218215A JP 2015218215 A JP2015218215 A JP 2015218215A JP 2017087326 A JP2017087326 A JP 2017087326A
- Authority
- JP
- Japan
- Prior art keywords
- target object
- information
- gripping
- robot
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1687—Assembly, peg and hole, palletising, straight line, weaving pattern movement
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/04—Viewing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0093—Programme-controlled manipulators co-operating with conveyor means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G47/00—Article or material-handling devices associated with conveyors; Methods employing such devices
- B65G47/74—Feeding, transfer, or discharging devices of particular kinds or types
- B65G47/90—Devices for picking-up and depositing articles or materials
- B65G47/905—Control arrangements
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39102—Manipulator cooperating with conveyor
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40053—Pick 3-D object from pile of objects
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40555—Orientation and distance
Abstract
【課題】ロボットが対象物体を適切に把持できるようにするロボット制御装置を提供すること。
【解決手段】対象物体を把持するロボットの動作を制御するロボット制御装置であって、前記対象物体の位置および姿勢に関する情報を取得する取得手段と、複数の把持精度に対応する複数の把持モードの中から、前記対象物体の撮像画像に基づいて、1つの把持モードを選択する選択手段と、前記取得手段が取得した情報であって、前記選択手段が選択した把持モードに対応する情報を用いて、前記ロボットの把持動作を規定する把持動作データを生成する生成手段と、を備える。
【選択図】 図2
Description
本発明は、上記課題を解決するためになされたものであり、対象物体の位置や姿勢を正確に認識できない場合でも、ロボットが対象物体を適切に把持できるようにするロボット制御装置を提供することを目的とする。
実施形態1
以下において、カメラにより撮像した対象物体の撮像画像を用いて、対象物体の物体情報を取得して対象物体の把持を行うロボットシステムを説明する。本実施形態において、対象物体は加工前または後の部品であるとする。本実施形態において、物体情報は、対象物体の位置および姿勢に関する情報であるとする。
図1(a)は、本実施形態のロボットシステムを上方から見たときの図である。カメラ101は、ベルトコンベア102に載置された対象物体103を撮像できるように配置されている。
ロボットシステムは、カメラ101と、情報取得部104と、把持モード選択部105と、把持動作生成部106と、ロボット107とを含む。カメラ101、情報取得部104、把持モード選択部105、把持動作生成部106およびロボット107は、ライン110により有線接続されている。本実施形態のロボット107は、単腕ロボットである。
ベルトコンベア102は、対象物体103を載置して、矢印111の方向に対象物体103を搬送する。ベルトコンベア102は、対象物体103を搬送することにより、ロボット107に対象物体103を供給するので、供給部と称することができる。ベルトコンベア102は、複数の対象物体103を載置して搬送することができる。対象物体103は、平面視において、矩形状の本体と、本体から突出する半円形の突出部とからなる。
図1(a)に示されているように、カメラ101は、ベルトコンベア102によって供給される対象物体103を上方から撮像し、対象物体103の撮像画像を取得する。カメラ101は、所定の撮像範囲112を有し、撮像範囲112に搬送されてきた対象物体103を撮像することができる。本実施形態では、対象物体103の撮像画像は、例えば、部品(物体)の計測値(例えば、対象物体の画素単位の輝度値)を得るために用いられる。したがって、カメラ101は、対象物体の計測部として機能する。対象物体の輝度値は、対象物体の物性情報の一例である。ロボットハンド109の位置および姿勢は、カメラ101の座標系上で表すことができる。カメラ101が取得した撮像画像は、情報取得部104に送られる。カメラ101は、例えば、CCDイメージセンサやCMOSイメージセンサ等の撮像素子(視覚センサ)を備えるデジタルカメラ(ビデオカメラを含む)である。
図1に示した実施形態において、情報取得部104と把持モード選択部105と把持動作生成部106とにより、ロボット107を制御するロボット制御装置114が構成される。ロボット制御装置114は、把持動作生成部106が生成した把持動作データをロボット107に送ることにより、ロボット107の把持動作を制御する。
情報取得部104は、カメラ101が取得した撮像画像を用いて、対象物体103の物体情報を取得する。本実施形態において、情報取得部104は複数の種類の物体情報を取得する。複数の種類の物体情報とは、物体詳細情報、物体概略情報および物体手がかり情報である。情報取得部104は、物体詳細情報、物体概略情報および物体手がかり情報を取得するための処理(計算)を実行する。物体詳細情報、物体概略情報および物体手がかり情報は、対象物体103の認識精度(撮像精度)に応じて段階的に設定される。物体詳細情報、物体概略情報および物体手がかり情報の詳細は後述する。
ロボット107は、ロボットアーム108とロボットハンド109とベース部113とを有する。ロボットアーム108は、例えば、多関節アームである。ロボットハンド109は、ロボットアーム108の先端に取り付けられている。ロボットハンド109は、対象物体103を把持する把持部(エフェクタ)である。図1のロボットハンド109は、二本指の標準的なロボットハンドである。ロボット107は、さらに、ロボットアーム108を駆動するサーボモータ(図示せず)と、当該サーボモータの角度位置を検出するエンコーダ(図示せず)等を有する。ロボット107は、把持動作生成部106で生成された把持動作データ(コマンド)に従って動作し、対象物体103を把持する。ロボットアーム108の基部は、ベース部113に取り付けられている。ベース部113は、ロボットアーム108を支持する架台である。
図2は、本実施形態のロボット107がカメラ101により撮像した対象物体103の撮像画像を用いて、対象部品(対象物体)の物体情報を取得して把持を行う動作を説明するフローチャートである。以下、図2に基づいて、ロボット制御装置114の動作を説明する。図2のフローチャートは、例えば、ロボット107の電源がオンにされると開始する。
S201において、カメラ101は、対象物体103を上方から撮影し、撮像画像を取得する。
S202において、情報取得部104は、S201で取得した撮像画像を用いて、物体情報(物体詳細情報、物体概略情報、物体手がかり情報)を取得する。物体詳細情報は、対象物体103の正確な位置および姿勢を表す(特定する)情報である。つまり、物体詳細情報は、対象物体103の詳細な位置および姿勢を特定できる情報である。物体概略情報は、対象物体103の取り得る位置および姿勢の範囲を示す情報である。つまり、物体概略情報は、対象物体103の範囲付きの位置および姿勢を表す情報である。物体手がかり情報は、所定の領域内において対象物体103が存在することを示す情報である。つまり、物体手がかり情報は、対象物体103の存在範囲を示す位置範囲情報である。本実施形態では、1つのステップ(S202)において、複数の物体情報(物体詳細情報、物体概略情報、物体手がかり情報)を取得する。
S205において、把持動作生成部106は、詳細位置決めモードで把持動作O1を計算し、ロボット107に出力する。カメラ101の座標系上におけるロボットハンドの初期位置姿勢をR0とし、目標位置姿勢をR1とすると、初期位置姿勢R0および目標位置姿勢R1は以下の(1)式で表される。把持動作O1は把持動作データと称してもよい。
このように、把持動作生成部106は、情報取得部104が取得した物体情報であって、把持モード選択部105が選択した把持モードに対応する情報である物体詳細情報Rpreciseを用いて、ロボット107の把持動作を規定する把持動作データを生成する。
S206において、ロボット107は、把持動作生成部106が生成した把持動作O1を実行して、対象物体103を把持する。ロボット107が対象物体103を把持すると、このフローチャートは完了する。なお、ロボット107は、対象物体103を把持した後、対象物体103を所定の位置(部位)に組み付ける。
S208において、把持モード選択部105は、把持モードとして概略位置決めモードを選択する。概略位置決めモードでは、後述するように、ロボットハンド107の目的位置は、対象物体103の概略の位置姿勢に基づいて決定される。
S209において、把持動作生成部106は、概略位置決めモードで把持動作O2を計算し、ロボット107に出力する。カメラ101の座標系上における目標位置姿勢をR2とすると、目標位置姿勢R2は以下の(3)式で表される。
S211において、把持モード選択部105は、把持モードとして位置範囲指定把持モードを選択する。位置範囲指定把持モードでは、後述するように、ロボットハンド109の目的位置は、物体手がかり情報から得られた対象物体103が存在する位置範囲(領域)に基づいて決定される。
S212において、把持動作生成部106は、位置範囲指定把持モードで把持動作O3を計算し、ロボット107に出力する。この場合、カメラ101の座標系上における目標位置姿勢をR3とすると、ロボットハンド109の目標位置姿勢R3は以下の(4)式で表される。
S210の判定がNOの場合、S213において、把持モード選択部105は、把持モードとしてランダム把持モードを選択する。ランダム把持モードでは、後述するように、ロボットの目的位置(ロボットハンドの移動先位置)は、物体情報を用いずに決定される。
S214において、把持動作生成部106は、ランダム把持モードで把持動作O4を計算し、ロボット107に出力する。カメラ101の座標系上における目標位置姿勢をR4とすると、ロボットハンド109の目標位置姿勢R4は以下の(5)式で表される。
このように、S201〜S214の動作を実施することで、ロボット107を用いて対象物体103の把持を適切に行うことが出来る。ロボット107は、対象物体103を把持した後、対象物体103を所定の位置(部位)に組み付ける。
次に、S202の物体情報取得処理の詳細について、図3のフローチャートを用いて説明する。図3のフローチャートの説明は、図4〜図8を参照して行う。図3に示した各ステップ(S301〜S308)は、情報取得部104が実行する。
S301において、情報取得部104は、撮像画像の走査を行い、背景画像との差分を計算して差分画像Dを取得する。
図4は、差分画像Dの取得を説明する図である。図4(a)に示すように、対象物体103が存在しない状態で撮影した背景画像Bを予め作成(用意)する。背景画像は、図1のベルトコンベア102の上部の画像である。図4(b)は、現在の撮像画像Cを示す。つまり、図1の状態で撮像した画像が撮像画像Cである。対象物体103がベルトコンベア102に載置されている。図4(c)は差分画像Dを示す。背景画像Bと撮像画像Cとの間で(6)式の様に差分を取り、対象物体103を示す画素のみを抽出することにより、差分画像Dを求めることができる。
図5は、差分画像Dの対象物体103の重心gと、対象物体103の長辺方向を示す直線hとを示す図である。直線hは、対象物体103の重心gを通っており、対象物体103の主軸であると言える。
S302において、情報取得部104は、撮像画像中における対象物体103の位置を規定する重心g(xg, yg)と主軸hとを計算する。図5は、対象物体103の差分画像Dにおける重心g(xg, yg)と主軸hとを示している。対象物体103の重心gは、以下の(7)式で表される。
S304において、情報取得部104は、正規化画像Nに対してテンプレートマッチングを行い、現在の対象物体103の配置姿勢を認識する。本実施形態では、図7(a)、図7(b)および図7(c)に示すように、対象物体103の配置姿勢は3種類存在するとする。3種類の配置姿勢を予め上方から(図7の矢印701の方向から)観察し、S301〜S303と同様の手順を用いて正規化画像Nを生成し、これら正規化画像Nを各姿勢のテンプレートT1〜T3とする。図8(a)、図8(b)および図8(c)は、図7(a)、図7(b)および図7(c)にそれぞれ対応するテンプレートT1、T2、T3を示す。各テンプレートを用いて、以下の(10)式でテンプレートマッチングを行う。
S305において、情報取得部104は、最小マッチング誤差eminに対応するテンプレートTkに対する、撮像画像中の対象物体103のスケールsを計算する。スケールsは、以下の(11)式で求められる。
S306において、情報取得部104は、物体詳細情報として、対象物体103の三次元位置姿勢を示すRpreciseを計算して出力する。Rpreciseは、以下の(12)式で求められる。
S307において、情報取得部104は、物体概略情報として、対象物体の三次元の範囲つきの位置姿勢を示すRroughを計算して出力する。Rroughは以下の(13)式で求められる。
S308において、情報取得部104は、物体手がかり情報として、対象物体103の存在範囲を示す位置範囲uを計算して出力する。位置範囲uは、以下の(14)式で求められる。
上記したようにロボット107の把持動作を制御することによって、本実施形態のロボット制御装置114は、撮像画像から得られた対象物体103の情報の精度(撮像精度)に応じて把持モードを選択して、対象物体103の把持を行うことが出来る。これにより、悪条件下で対象物体103の詳細な(正確な)情報が取得できない場合にも、対象物体103の把持の成功率を高めることが出来る。
なお、上記の説明において、カメラ101と、情報取得部104と、把持モード選択部105と、把持動作生成部106と、ロボット107とは、ライン110により有線接続されているとしたが、無線接続されてもよい。
本発明は、上記した実施形態1以外の形態でも実施することができる。実施形態1においては、情報取得部104は1つのステップ(S202)で3種類の物体情報(物体詳細情報、物体概略情報、物体手がかり情報)の取得処理を行っている。そして、実施形態1では、物体情報の取得処理(S202)の後、実際に認識できた対象物体103の情報の精度(撮像精度)に基づいて把持モードを選択(決定)している。実施形態2では、情報取得部104は、1つのステップで1種類の物体情報を取得する。つまり、実施形態2では情報取得部104における1ステップの処理負荷を低減させる。これによって、最短で動作する場合となる、詳細位置決めモードを選択した際の動作(ロボットシステム全体としての動作)を高速化することができる。
図9は、本実施形態のロボット制御装置114の処理を説明するフローチャートである。以下に、図9のステップに従って動作説明を行う。
S901において、カメラ101は、対象物体103を上方から撮影し、対象物体103の撮像画像を取得する。S901は、実施形態1におけるS201と同じであるので詳細な説明は省略する。
S903において、把持モード選択部105は、S902で求めた最小マッチング誤差eminと予め設定した第1の閾値epreciseとの比較を行う。最小マッチング誤差eminが第1の閾値epreciseよりも小さい場合(S903:YES)は、撮像画像から対象物体103の詳細な情報(正確な位置と姿勢)が認識できたと判定してS904へ進む。最小マッチング誤差eminが第1の閾値eprecise以上の場合(S903:NO)は、対象物体103の詳細情報が認識(検出)できなかったと判定してS907へ進む。
S903の判定がNOの場合、S907において、情報取得部104は、S901で取得した撮像画像を用いて物体概略情報を取得する。情報取得部104は、実施形態1におけるS307と同様な処理により物体概略情報を取得する。
S908において、把持モード選択部105は、S902で求めた最小マッチング誤差eminと予め設定した第2の閾値eroughとの比較を行う。最小マッチング誤差eminが第2の閾値eroughよりも小さい場合(S908:YES)は、対象物体103の概略情報が認識(検出)できたと判定してS909へ進む。最小マッチング誤差eminが第2の閾値erough以上の場合(S908:NO)は、対象物体103の概略情報が認識できなかったと判定してS911へ進む。
S908の判定がNOの場合、S911において、情報取得部104は、S901で取得した撮像画像を用いて物体手がかり情報を取得する。情報取得部104は、実施形態1におけるS308と同様な処理により物体手がかり情報を取得する。
S912において、把持モード選択部105は、S902で求めた差分画像D中における、画素の輝度値が0よりも大きい画素の画素数mDと、予め設定した閾値である画素数閾値mclueとの比較を行う。画素数mDが画素数閾値mclue以上の場合(S912:YES)は、対象物体103の手がかりとなる情報が認識できたと判定してS913に進む。画素数mDが画素数閾値mclueよりも小さい場合(S908:NO)は、対象物体103の手がかりとなる情報が認識できなかったと判定してS915へ進む。
S908の判定がNOの場合、S915において把持モード選択部105がランダム把持モードを選択し、S916において把持動作生成部106が把持動作を生成する。S915の内容は実施形態1におけるS213と同様であり、S916の内容は実施形態1における214と同様であるので、説明は省略する。S916の後、S906に進み、物体把持動作を実行する。
このように、S901〜916の動作を実施することで、ロボット107を用いて対象物体103の把持を行うことが出来る。
実施形態2では、各物体情報の取得を逐次行うので、情報取得部104において1ステップで1種類ずつ物体情報の取得を行うことになる。これにより、1ステップの処理負荷を低減させている。1ステップの処理負荷を低減することができれば、1ステップにおける情報取得部104の処理時間を短縮することができる。
本発明は上記した実施形態1および2に限定されない。実施形態1においては、情報取得部104で複数種類の物体情報の取得を行い、実際に得られる(認識できる)対象物体103の情報の精度に基づいて把持モードを決定している。このようにせずに、情報取得部104は物体詳細情報の取得のみを行い、撮像画像に基づいて把持モードを選択するという構成にしてもよい。この構成のロボット制御装置を実施形態3として説明する。実施形態3で用いるロボットシステムの構成は、実施形態1(図1)で説明したものと同様である。したがって、以下の記載においては、実施形態1と同じ参照符号を使用する。実施形態3においても、カメラ101により対象物体103を撮像し、情報取得部104が当該撮像画像を用いて、対象物体103の物体情報を取得し、ロボット107が対象物体103の把持を行う。実施形態3では物体詳細情報のみを取得し、撮像画像に基づいて把持モードを選択することによって、ロボット107の動作の高速化が可能になる。
S1001において、カメラ101は、対象物体103を上方から撮影し、撮像画像を取得する。S1001は、実施形態1のS201と同様のステップである。
S1002において、情報取得部104は、S1001で取得した撮像画像を用いて物体詳細情報を取得する。具体的には、情報取得部104は、実施形態1におけるS301〜S306と同様の処理を行う。このとき、実施形態1と同じように(S304)、最小マッチング誤差eminを求める。
S1003において、把持モード選択部105は、S1002で求めた最小マッチング誤差eminと予め設定した閾値epreciseとの比較を行う。最小マッチング誤差eminが閾値epreciseよりも小さい場合(S1003:YES)は、対象物体103の詳細情報が認識(取得)できたと判定してS1004へ進む。最小マッチング誤差eminが閾値eprecise以上の場合(S1003:NO)は、対象物体103の詳細情報が認識できていないと判定してS1007へ進む。
S1003の判定がNOの場合、S1007において、把持モード選択部105がランダム把持モードを選択し、S1008において把持動作生成部106が把持動作を生成する。S1007の内容は実施形態1におけるS213と同様であり、S1008の内容は実施形態1における214と同様であるので、説明は省略する。S1008の後、S1006に進み、物体把持動作を実行する。
このように、S1001〜1008の動作を実施することで、ロボット107を用いて対象物体103の把持を行うことが出来る。
本発明は上記した実施形態1〜3に限定されない。例えば、上記した実施形態において以下のような変更や追加をしてもよい。
(ロボットの動作が実施形態1とは異なる変形例)
実施形態1におけるロボット107は、対象物体103を把持した後に、対象物体103を所定位置(部位)に組み付けるとしたが、ロボット107の動作はこれに限定されない。例えば、撮像した物体情報の情報の精度に応じて選択した把持モードによって対象物体103を把持した後、ロボット107は、対象物体103の配置位置を変更するようにしてもよい。
実施形態1〜3におけるカメラ101は、対象物体103を上方から撮影し、物体計測値である撮像画像を取得するので、上記した実施形態においてカメラ101は計測部であるが、本発明の計測部は、カメラ101に限定されない。本発明の計測部は、対象物体についての物体情報(位置、姿勢、画素、輝度など)を計算するための物体計測値が取得できれば、どのようなものであってもよい。例えば、物体計測値として対象物体の画素単位の輝度値でなく、計測部からの距離値を取得出来るTime-of-Flight形式の三次元撮像センサを計測部として(カメラ101の代わりに)用いてもよい。三次元撮像センサを用いることで、物体詳細情報としてより正確な位置姿勢を求めることができる。また、三次元撮像センサを用いることで、物体手がかり情報としても輝度差分でなく距離差分を用いることができるので、より正確な物体手がかり情報を得ることが出来るようになる。
ロボット制御装置またはロボットシステムの計測部は、画像センサに限定されない。例えば、ロボットシステムの計測部は、超音波を用いた測定や、探査針を用いた接触測定により計測部からの距離を計測し、上記の三次元撮像センサと同様の物体計測値を得てもよい。超音波や接触測定を用いると、対象物体表面の光の反射率に依存しない計測が可能となるため、透過性のある対象物体を把持する場合などに好適である。
本発明のロボットシステムの計測部は、対象物体についての物体情報を計算するための物体計測値が取得できれば、どのようなものであってもよい。
実施形態1および2における情報取得部104では、3つの物体情報(物体詳細情報、物体概略情報、物体手がかり情報)を求めている。しかし、ロボット107が扱う対象物体の形状・サイズ等やロボット107の作業目的によっては、必ずしも3つの物体情報を求める必要は無い。例えば、対象物体の把持が容易で、かつ把持後に正確な組み付けでなく、単純な平置きを行うような作業の場合は、物体詳細情報を取得せず、より簡易な物体概略情報と物体手がかり情報とを取得するようにしてもよい。あるいは、物体詳細情報を取得せず、物体概略情報と物体手がかり情報のいずれかを作業目的等に応じて選択的に取得するようにしてもよい。この場合、把持モードも物体情報に対応して、詳細位置決め把持モードでなく、概略位置決め把持モード、位置範囲指定把持モードを選択して把持動作を生成する。このように、対象物体の形状・サイズ等とロボット107の作業目的等に応じて物体詳細情報が必要ないと考えられる場合には、物体詳細情報の計算(取得)を省略することで、情報取得部104における処理の高速化を図ることが出来る。
実施形態1〜3における情報取得部104では、物体詳細情報を算出するために、重心位置gと長辺方向の主軸hを求めて正規化を行い、テンプレートマッチングを計算しているが、本発明はこのような算出手法に限定されない。対象物体103の正確な位置姿勢を求めることができる手法であれば、正規化処理やテンプレートマッチング以外の手法を用いてもよい。例えば、対象物体が円形状に近く、長辺の主軸が安定して求められない場合は、対象物体の画像の正規化が困難になる。このような場合には、対象物体の回転方向に依存しないSIFT(Scale−Invariant Feature Transform)などの画像特徴量を検出、記録しておき、正規化を行わずに直接マッチングするようにしてもよい。これにより、より多様な対象物体の形状にも対応できるようになる。
実施形態1〜3における情報取得部104では、物体概略情報を算出するために、テンプレートマッチング時の最小マッチング誤差に重みづけを掛けて対象物体103の位置・姿勢にばらつきを与えているが、本発明はこのような算出手法に限定されない。例えば、対象物体の画像の正規化が困難な場合は、SIFTによる上位のマッチング候補と、それに対応する位置姿勢をランダムに選択してもよい。このとき、最小マッチング誤差eminに相当する値は選択した上位マッチング結果の誤差を用いればよい。これにより、より多様な対象物体の形状に対応できるようになる。さらに、ランダムに上位のマッチング候補の位置姿勢を取ることで、誤認識による局所解を用いて、誤った位置姿勢を選択し続けるという問題を回避することができる。
実施形態1〜3における情報取得部104は、物体手がかり情報を算出する際に、差分画像Dが存在する領域を用いているが、本発明はこれに限定されない。例えば、背景の輝度と対象物体の輝度が近い場合には、輝度差分に変わって輝度分散値、輝度エッジや輝度コーナの位置、数などの値を用いて物体手がかり情報を求めてもよい。ベルトコンベアなどの背景画像の輝度は均一な値であるのに対し、対象物体は相対的に複雑な形状を有し、輝度分散、輝度エッジ、輝度コーナを多く有することが予想される。このように、対象物体が有すると予想できる値が存在する位置範囲を求めることで物体手がかり情報とすることが出来る。
あるいは、対象物体の位置部分に貼付されている特定のバーコードや、対象物体に特有の模様や形状を物体手がかり情報としてもよい。対象物体がこれらの固有の特徴を有する場合には、より良好に物体手がかり情報を取得することが出来る。
本発明のロボット制御装置の情報取得部は、対象物体についての物体情報が計算できるものであれば、どのようなものであってもよい。
実施形態1〜3におけるロボットの把持部は、図1に示す二本指の標準的なロボットハンド109であるが、本発明はこれに限定されない。例えば、ロボットハンドは、様々な形状の対象物体を、特定の姿勢以外でも同一動作で把持できるようなユニバーサルハンドであってもよい。ユニバーサルハンドは、例えば、薄いゴム製の袋に粉体を詰め、内部の空気をポンプで吸い出すことによってゴム部を硬化させて対象物体の把持を行うことができるタイプのユニバーサルハンドである。
本発明のロボットの把持部は、対象物体を任意の姿勢で把持することが可能な把持部であれば、どのようなものであってもよい。
図11はロボットシステムのハードウエア構成の一例を示すブロック図である。図11に示されるように、ロボットシステムは、カメラ101と、ロボット制御装置114と、ロボット107とを有する。ロボット制御装置114は、画像処理部120、インターフェース121、CPU122、ROM123、RAM124、HDD125およびインターフェース126を有する。CPU122は、ロボット制御装置114の演算部である。ロボット制御装置114は、記憶部としてROM123とRAM124を備えている。インターフェース121、CPU122、ROM123、RAM124、HDD125およびインターフェース126は、バス127で相互接続されている。ROM123には、BIOS(Basic Input/Output System)等の基本プログラムが格納されている。RAM124は、CPU122の演算処理結果等の各種データを一時的に記憶する。HDD125は、CPU122の演算結果や外部から取得した各種データを記憶すると共に、CPU122に各種の演算処理を実行させるためのプログラム128を記憶する。CPU122は、HDD125に記憶されたプログラム128に基づいてロボット107の把持動作等を制御する。CPUは、Central Processing Unitの略である。ROMは、Read Only Memoryの略である。RAMは、Random Access Memoryの略である。HDDは、Hard Disk Driveの略である。
実施形態1〜3における情報取得部104、把持モード選択部105および把持動作生成部106は、それらの機能を実現するソフトウエアのプログラムコードを記録した記録媒体を、システムあるいは装置に供給する形式で設けられてもよい。本発明の目的は、そのシステムあるいは装置のコンピュータ(またはCPUまたはMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成される。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することとなり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM、DVDなどを用いることができる。
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書きこまれる。そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も、本発明の技術的範囲に含まれる。
実施形態1および2ではロボット107の把持モードが4つあるとし、実施形態3では把持モードが2つであるとしたが、把持モードの数は2または4に限定されない。
本発明のロボット107の把持モード選択部は、対象物体の撮像画像に基づいて把持モードを選択するものであれば、どのようなものであってもよい。
本発明のロボット制御装置114の把持動作生成部は、選択された把持モードに従って把持動作を生成するものであれば、どのようなものであってもよい。
ロボット制御装置114は、カメラ101(または三次元撮像センサ)と、情報取得部104と、把持モード選択部105と、把持動作生成部106とにより構成さてもよい。
本発明は、上記した実施形態のうちの1つ以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。ASICは、Application Specific Integrated Circuitの略である。
Claims (16)
- 対象物体を把持するロボットの動作を制御するロボット制御装置であって、
前記対象物体の位置および姿勢に関する情報を取得する取得手段と、
複数の把持精度に対応する複数の把持モードの中から、前記対象物体の撮像画像に基づいて、1つの把持モードを選択する選択手段と、
前記取得手段が取得した情報であって、前記選択手段が選択した把持モードに対応する情報を用いて、前記ロボットの把持動作を規定する把持動作データを生成する生成手段と、
を備えることを特徴とするロボット制御装置。 - 前記取得手段は、複数の種類の前記位置および姿勢に関する情報を取得し、
前記生成手段は、前記取得手段が取得した複数の種類の前記位置および姿勢に関する情報の中から、前記選択した把持モードに対応する情報を用いて、前記把持動作データを生成することを特徴とする請求項1に記載のロボット制御装置。 - 前記取得手段は、1つの種類の前記位置および姿勢に関する情報を取得し、
前記選択手段が前記1つの種類の位置および姿勢に関する情報に対応する把持モードを選択することができた場合には、前記生成手段は前記1つの種類の位置および姿勢に関する情報を用いて、前記把持動作データを生成し、
前記選択手段が前記1つの種類の位置および姿勢に関する情報に対応する把持モードを選択することができなかった場合には、前記取得手段は他の種類の位置および姿勢に関する情報を取得することを特徴とする請求項1に記載のロボット制御装置。 - 前記取得手段は、1つの種類の前記位置および姿勢に関する情報を取得し、
前記選択手段が前記1つの種類の位置および姿勢に関する情報に対応する把持モードを選択することができた場合には、前記生成手段は前記1つの種類の位置および姿勢に関する情報を用いて、前記把持動作データを生成し、
前記選択手段が前記1つの種類の位置および姿勢に関する情報に対応する把持モードを選択することができなかった場合には、前記選択手段は、他の把持モードを選択することを特徴とする請求項1に記載のロボット制御装置。 - 前記対象物体を計測する計測手段をさらに備え、前記選択手段は前記計測手段により計測された値を用いて前記把持モードを選択することを特徴とする請求項1〜4のいずれか1項に記載のロボット制御装置。
- 前記位置および姿勢に関する情報は、前記対象物体の位置および姿勢を特定する情報を含むことを特徴とする請求項1〜5のいずれか1項に記載のロボット制御装置。
- 前記位置および姿勢に関する情報は、前記対象物体の取り得る位置および姿勢の範囲を示す情報を含むことを特徴とする請求項1〜6のいずれか1項に記載のロボット制御装置。
- 前記位置および姿勢に関する情報は、所定の領域内において前記対象物体が存在することを示す情報を含むことを特徴とする請求項1〜7のいずれか1項に記載のロボット制御装置。
- 前記撮像画像に基づいて、前記対象物体の位置および姿勢を特定することができた場合、前記選択手段は、前記対象物体の当該位置および姿勢に基づいて把持モードを選択することを特徴とする請求項6に記載のロボット制御装置。
- 前記撮像画像に基づいて、前記対象物体の位置および姿勢を特定することができず、前記対象物体の取り得る位置および姿勢の範囲を検出できた場合は、前記選択手段は、前記対象物体の当該取り得る位置および姿勢の範囲に基づいて把持モードを選択することを特徴とする請求項6、7または9に記載のロボット制御装置。
- 前記撮像画像に基づいて、前記対象物体の位置および姿勢を特定できず且つ前記対象物体の取り得る位置および姿勢の範囲を検出できず、所定の領域内において前記対象物体が存在することを検出できた場合は、前記選択手段は、所定の領域の情報に基づいて把持モードを選択することを特徴とする請求項6〜10のいずれか1項に記載のロボット制御装置。
- 前記選択手段が選択した把持モードが、前記取得手段が取得した情報のいずれにも対応しない場合、前記生成手段は、前記対象物体の位置および姿勢に関する情報を用いずに把持動作データを生成することを特徴とする請求項1〜11のいずれか1項に記載のロボット制御装置。
- 前記複数の種類の位置および姿勢に関する情報の中から、前記取得手段が取得すべき位置および姿勢に関する情報を決定する決定手段をさらに備えることを特徴とする請求項2記載のロボット制御装置。
- 請求項1〜13のいずれか1項に記載のロボット制御装置と、前記対象物体を把持するロボットと、を備えるロボットシステム。
- 対象物体を把持するロボットの動作を制御するロボット制御方法であって、
前記対象物体の位置および姿勢に関する情報を取得する取得ステップと、
複数の把持精度に対応する複数の把持モードの中から、前記対象物体の撮像画像に基づいて、1つの把持モードを選択する選択ステップと、
前記取得ステップで取得した情報であって、前記選択した把持モードに対応する情報を用いて、前記ロボットの把持動作を規定する把持動作データを生成する生成ステップと、
を有することを特徴とするロボット制御方法。 - コンピュータを、請求項1乃至13のいずれか1項に記載のロボット制御装置として機能させるためのコンピュータプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015218215A JP6711591B2 (ja) | 2015-11-06 | 2015-11-06 | ロボット制御装置およびロボット制御方法 |
US15/298,983 US10695905B2 (en) | 2015-11-06 | 2016-10-20 | Robot control apparatus and robot control method |
KR1020160146389A KR102086884B1 (ko) | 2015-11-06 | 2016-11-04 | 로봇 제어 장치 및 로봇 제어 방법 |
CN201610963497.6A CN106945035B (zh) | 2015-11-06 | 2016-11-04 | 机器人控制设备及其控制方法和机器人系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015218215A JP6711591B2 (ja) | 2015-11-06 | 2015-11-06 | ロボット制御装置およびロボット制御方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017087326A true JP2017087326A (ja) | 2017-05-25 |
JP2017087326A5 JP2017087326A5 (ja) | 2018-12-20 |
JP6711591B2 JP6711591B2 (ja) | 2020-06-17 |
Family
ID=58668465
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015218215A Active JP6711591B2 (ja) | 2015-11-06 | 2015-11-06 | ロボット制御装置およびロボット制御方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10695905B2 (ja) |
JP (1) | JP6711591B2 (ja) |
KR (1) | KR102086884B1 (ja) |
CN (1) | CN106945035B (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020121352A (ja) * | 2019-01-29 | 2020-08-13 | 日本金銭機械株式会社 | 物体把持システム |
JP2020168711A (ja) * | 2019-04-03 | 2020-10-15 | 株式会社Mujin | オブジェクト識別メカニズムおよびオブジェクトハンドリングメカニズムを有するロボットシステムおよびその動作方法 |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6589847B2 (ja) * | 2016-12-26 | 2019-10-16 | 株式会社ダイフク | 物品積載設備 |
JP6880457B2 (ja) * | 2017-11-14 | 2021-06-02 | オムロン株式会社 | 把持方法、把持システム及びプログラム |
US11314220B2 (en) | 2018-04-26 | 2022-04-26 | Liberty Reach Inc. | Non-contact method and system for controlling an industrial automation machine |
JP7028092B2 (ja) * | 2018-07-13 | 2022-03-02 | オムロン株式会社 | 把持姿勢評価装置及び把持姿勢評価プログラム |
US11312014B2 (en) * | 2018-09-10 | 2022-04-26 | Kindred Systems Inc. | System and method for robotic gripping utilizing dynamic collision modeling for vacuum suction and finger control |
JP7467041B2 (ja) | 2018-09-27 | 2024-04-15 | キヤノン株式会社 | 情報処理装置、情報処理方法及びシステム |
EP3646995A1 (de) * | 2018-10-29 | 2020-05-06 | Siemens Aktiengesellschaft | Vollautomatisierte montage und kontaktierung elektrischer bauteile |
US10369701B1 (en) | 2018-10-30 | 2019-08-06 | Mujin, Inc. | Automated package registration systems, devices, and methods |
DE112019000125B4 (de) | 2018-10-30 | 2021-07-01 | Mujin, Inc. | Systeme, vorrichtungen und verfahren zur automatisierten verpackungsregistrierung |
KR102619004B1 (ko) * | 2018-12-14 | 2023-12-29 | 삼성전자 주식회사 | 로봇 장치 및 로봇의 작업 기술을 학습하는 방법 |
JP7391571B2 (ja) * | 2019-08-28 | 2023-12-05 | キヤノン株式会社 | 電子機器、その制御方法、プログラム、および記憶媒体 |
CN111470070B (zh) * | 2020-05-09 | 2022-03-22 | 清华大学 | 一种空间非合作目标无接触消旋辨识装置及方法 |
CN112614181B (zh) * | 2020-12-01 | 2024-03-22 | 深圳乐动机器人股份有限公司 | 一种基于高亮目标的机器人定位方法及装置 |
KR102473296B1 (ko) * | 2021-08-17 | 2022-12-02 | 박광중 | 픽앤플레이스 모니터링 방법, 그의 제어 장치 및 시스템 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04109815U (ja) * | 1991-02-28 | 1992-09-24 | ダイキン工業株式会社 | 部品供給装置 |
JP2013046937A (ja) * | 2011-08-29 | 2013-03-07 | Dainippon Screen Mfg Co Ltd | 対象物把持装置および対象物把持方法および対象物把持プログラム |
JP2014240106A (ja) * | 2013-06-12 | 2014-12-25 | セイコーエプソン株式会社 | ロボット、ロボット制御装置およびロボットの駆動方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3314890B2 (ja) | 1993-04-23 | 2002-08-19 | 澁谷工業株式会社 | 物品整列装置 |
JP3805310B2 (ja) | 2003-01-30 | 2006-08-02 | ファナック株式会社 | ワーク取出し装置 |
WO2005099417A2 (en) * | 2004-04-12 | 2005-10-27 | Strider Labs, Inc. | System and method for computing grasps for a robotic hand with a palm |
KR101003579B1 (ko) | 2006-02-02 | 2010-12-22 | 가부시키가이샤 야스카와덴키 | 로봇 시스템 |
JP4481291B2 (ja) * | 2006-12-01 | 2010-06-16 | 本田技研工業株式会社 | ロボット、ならびにその制御方法および制御プログラム |
JP4316630B2 (ja) * | 2007-03-29 | 2009-08-19 | 本田技研工業株式会社 | ロボット、ロボットの制御方法およびロボットの制御プログラム |
JP5448326B2 (ja) | 2007-10-29 | 2014-03-19 | キヤノン株式会社 | 把持装置および把持装置制御方法 |
CN103517789B (zh) * | 2011-05-12 | 2015-11-25 | 株式会社Ihi | 运动预测控制装置和方法 |
US9014857B2 (en) * | 2012-01-13 | 2015-04-21 | Toyota Motor Engineering & Manufacturing North America, Inc. | Methods and computer-program products for generating grasp patterns for use by a robot |
JP5426719B2 (ja) * | 2012-05-18 | 2014-02-26 | ファナック株式会社 | ロボットシステムの動作シミュレーション装置 |
US20130343640A1 (en) * | 2012-06-21 | 2013-12-26 | Rethink Robotics, Inc. | Vision-guided robots and methods of training them |
DE102012013022A1 (de) * | 2012-06-29 | 2014-04-24 | Liebherr-Verzahntechnik Gmbh | Vorrichtung zur automatisierten Handhabung von Werkstücken |
JP6323993B2 (ja) | 2012-08-28 | 2018-05-16 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びコンピュータプログラム |
JP5905549B1 (ja) * | 2014-09-16 | 2016-04-20 | ファナック株式会社 | バラ積みされた物品を取出す物品取出装置 |
JP6529302B2 (ja) * | 2015-03-24 | 2019-06-12 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
-
2015
- 2015-11-06 JP JP2015218215A patent/JP6711591B2/ja active Active
-
2016
- 2016-10-20 US US15/298,983 patent/US10695905B2/en active Active
- 2016-11-04 KR KR1020160146389A patent/KR102086884B1/ko active IP Right Grant
- 2016-11-04 CN CN201610963497.6A patent/CN106945035B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04109815U (ja) * | 1991-02-28 | 1992-09-24 | ダイキン工業株式会社 | 部品供給装置 |
JP2013046937A (ja) * | 2011-08-29 | 2013-03-07 | Dainippon Screen Mfg Co Ltd | 対象物把持装置および対象物把持方法および対象物把持プログラム |
JP2014240106A (ja) * | 2013-06-12 | 2014-12-25 | セイコーエプソン株式会社 | ロボット、ロボット制御装置およびロボットの駆動方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020121352A (ja) * | 2019-01-29 | 2020-08-13 | 日本金銭機械株式会社 | 物体把持システム |
JP2020168711A (ja) * | 2019-04-03 | 2020-10-15 | 株式会社Mujin | オブジェクト識別メカニズムおよびオブジェクトハンドリングメカニズムを有するロボットシステムおよびその動作方法 |
JP2020168709A (ja) * | 2019-04-03 | 2020-10-15 | 株式会社Mujin | ロボットシステム、ロボットシステムの方法及び非一時的コンピュータ可読媒体 |
JP2020168710A (ja) * | 2019-04-03 | 2020-10-15 | 株式会社Mujin | ロボットシステム、ロボットシステムの方法及び非一時的コンピュータ可読媒体 |
Also Published As
Publication number | Publication date |
---|---|
KR102086884B1 (ko) | 2020-03-09 |
KR20170053585A (ko) | 2017-05-16 |
CN106945035A (zh) | 2017-07-14 |
CN106945035B (zh) | 2020-10-30 |
US20170129101A1 (en) | 2017-05-11 |
JP6711591B2 (ja) | 2020-06-17 |
US10695905B2 (en) | 2020-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6711591B2 (ja) | ロボット制御装置およびロボット制御方法 | |
JP6396516B2 (ja) | 視覚センサのキャリブレーション装置、方法及びプログラム | |
JP5612916B2 (ja) | 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム | |
JP5949242B2 (ja) | ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム | |
US11094082B2 (en) | Information processing apparatus, information processing method, robot system, and non-transitory computer-readable storage medium | |
Lambrecht | Robust few-shot pose estimation of articulated robots using monocular cameras and deep-learning-based keypoint detection | |
JP6838833B2 (ja) | 把持装置、把持方法、及びプログラム | |
JP2010184300A (ja) | 姿勢変更システムおよび姿勢変更方法 | |
JP7372076B2 (ja) | 画像処理システム | |
JP6265784B2 (ja) | 姿勢推定システム、プログラムおよび姿勢推定方法 | |
JP2021079464A (ja) | 設定装置、設定方法およびプログラム | |
CN115082550A (zh) | 从对象的相机图像中定位对象的位置的设备和方法 | |
JP6836628B2 (ja) | ピッキングまたはデバンニング用対象物認識装置、ピッキングまたはデバンニング用対象物認識方法、ならびにプログラム | |
JP2018017610A (ja) | 三次元計測装置、ロボット、ロボット制御装置、及びロボットシステム | |
WO2019093299A1 (ja) | 位置情報取得装置およびそれを備えたロボット制御装置 | |
US20230154162A1 (en) | Method For Generating Training Data Used To Learn Machine Learning Model, System, And Non-Transitory Computer-Readable Storage Medium Storing Computer Program | |
WO2022172471A1 (ja) | 支援システム、画像処理装置、支援方法およびプログラム | |
US20230419643A1 (en) | Machine learning device and machine learning method | |
US20230390936A1 (en) | Control method, recording medium, method for manufacturing product, and system | |
US20230415349A1 (en) | Method for controlling a robot for manipulating, in particular picking up, an object | |
JP2022183723A (ja) | 処理装置、サーボシステム、処理方法、およびプログラム | |
JP2021077290A (ja) | 情報処理装置、情報処理方法、プログラム、システム及び物品の製造方法 | |
JP2020110851A (ja) | ピッキングシステム | |
JP6179267B2 (ja) | 画像処理装置、ロボット制御システム、画像処理方法及びプログラム | |
JP2020184110A (ja) | 画像処理方法、物品の製造方法、画像処理装置、ロボットシステム、プログラム、及び記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181105 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181105 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200428 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200528 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6711591 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |