JP2024090687A - ロボット制御システム - Google Patents
ロボット制御システム Download PDFInfo
- Publication number
- JP2024090687A JP2024090687A JP2022206736A JP2022206736A JP2024090687A JP 2024090687 A JP2024090687 A JP 2024090687A JP 2022206736 A JP2022206736 A JP 2022206736A JP 2022206736 A JP2022206736 A JP 2022206736A JP 2024090687 A JP2024090687 A JP 2024090687A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- camera
- recognition unit
- control system
- movable camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 description 59
- 238000000034 method Methods 0.000 description 17
- 238000006073 displacement reaction Methods 0.000 description 5
- 239000003550 marker Substances 0.000 description 3
- 238000010586 diagram Methods 0.000 description 1
- 238000003754 machining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Abstract
【課題】必要なカメラの台数が増えることを抑制するとともに、サイクル時間が長くなることを抑制する。
【解決手段】ロボット制御システム(10)は、複数の作業エリアでそれぞれ対象物(W)に対して作業を行うロボット(20)と、ロボットと分離して移動し、複数の作業エリアの対象物をそれぞれ撮像可能な可動式カメラ(30)と、可動式カメラにより所定位置(P1、P2)から撮像された画像に基づいて、物体の位置を認識可能である物体認識部(50)と、を備える。可動式カメラは、基準物(B1)と対象物とを視野に入れて撮像した所定画像を取得する。物体認識部は、所定位置から撮像された画像に基づき認識した基準物の位置を基準位置として予め登録しており、基準位置と所定画像に基づき認識した基準物の位置とに基づいて、可動式カメラの位置の所定位置からのずれ量を算出し、ずれ量と所定画像とに基づいて対象物の位置を認識する。
【選択図】 図1
【解決手段】ロボット制御システム(10)は、複数の作業エリアでそれぞれ対象物(W)に対して作業を行うロボット(20)と、ロボットと分離して移動し、複数の作業エリアの対象物をそれぞれ撮像可能な可動式カメラ(30)と、可動式カメラにより所定位置(P1、P2)から撮像された画像に基づいて、物体の位置を認識可能である物体認識部(50)と、を備える。可動式カメラは、基準物(B1)と対象物とを視野に入れて撮像した所定画像を取得する。物体認識部は、所定位置から撮像された画像に基づき認識した基準物の位置を基準位置として予め登録しており、基準位置と所定画像に基づき認識した基準物の位置とに基づいて、可動式カメラの位置の所定位置からのずれ量を算出し、ずれ量と所定画像とに基づいて対象物の位置を認識する。
【選択図】 図1
Description
本発明は、カメラとロボットとを備えるロボット制御システムに関する。
従来、ロボットの作業エリアの上方に設置された固定構造物に取り付けられたカメラにより作業エリアのワークを撮像し、カメラにより撮像した画像を処理してワークの位置を認識する固定カメラ式のロボット制御システムがある(特許文献1参照)。また、特許文献1には、カメラをロボットに取り付けたオンハンドカメラ式のロボット制御システムも記載されている。
ところで、ロボットがワーク(対象物)の供給部からワークを取り出し、ワークの収容部までワークを運んで収容する場合等、供給部及び収容部(複数の作業エリア)でそれぞれワークに対して作業を行う場合がある。この場合、固定カメラ式のロボット制御システムでは、作業エリア毎にカメラが必要となる。また、オンハンドカメラ式のロボット制御システムでは、ロボットに取り付けられたカメラによりワークを撮像してワークの位置を認識してからしかワークに対する作業を行えず、ワークの取り出しから収容までのサイクル時間が長くなる。
本発明は、上記課題を解決するためになされたものであり、その主たる目的は、ロボットが複数の作業エリアでそれぞれ対象物に対して作業を行う場合であっても、必要なカメラの台数が増えることを抑制するとともに、サイクル時間が長くなることを抑制することにある。
上記課題を解決するための第1の手段は、
複数の作業エリアでそれぞれ対象物(W)に対して作業を行うロボット(20)と、
前記ロボットと分離して移動し、前記複数の作業エリアの前記対象物をそれぞれ撮像可能な可動式カメラ(30)と、
前記可動式カメラにより所定位置(P1、P2)から撮像された画像に基づいて、物体の位置を認識可能である物体認識部(50)と、
を備えるロボット制御システム(10)であって、
前記可動式カメラは、位置基準となる基準物(B1)と前記対象物とを視野に入れて撮像した所定画像を取得し、
前記物体認識部は、前記所定位置から撮像された画像に基づき認識した前記基準物の位置を基準位置として予め登録しており、前記基準位置と前記所定画像に基づき認識した前記基準物の位置とに基づいて、前記可動式カメラの位置の前記所定位置からのずれ量を算出し、前記ずれ量と前記所定画像とに基づいて前記対象物の位置を認識し、
前記ロボットは、前記物体認識部により認識された前記対象物の位置に基づいて、前記対象物に対して作業を行う。
複数の作業エリアでそれぞれ対象物(W)に対して作業を行うロボット(20)と、
前記ロボットと分離して移動し、前記複数の作業エリアの前記対象物をそれぞれ撮像可能な可動式カメラ(30)と、
前記可動式カメラにより所定位置(P1、P2)から撮像された画像に基づいて、物体の位置を認識可能である物体認識部(50)と、
を備えるロボット制御システム(10)であって、
前記可動式カメラは、位置基準となる基準物(B1)と前記対象物とを視野に入れて撮像した所定画像を取得し、
前記物体認識部は、前記所定位置から撮像された画像に基づき認識した前記基準物の位置を基準位置として予め登録しており、前記基準位置と前記所定画像に基づき認識した前記基準物の位置とに基づいて、前記可動式カメラの位置の前記所定位置からのずれ量を算出し、前記ずれ量と前記所定画像とに基づいて前記対象物の位置を認識し、
前記ロボットは、前記物体認識部により認識された前記対象物の位置に基づいて、前記対象物に対して作業を行う。
上記構成によれば、ロボットは、複数の作業エリアでそれぞれ対象物に対して作業を行う。このため、複数の作業エリアでそれぞれ対象物の位置を認識するために、複数の作業エリアの対象物をそれぞれ撮像する必要がある。この点、可動式カメラは、前記ロボットと分離して移動し、前記複数の作業エリアの前記対象物をそれぞれ撮像可能である。そして、物体認識部は、前記可動式カメラにより所定位置から撮像された画像に基づいて、物体の位置を認識可能である。このため、可動式カメラを所定位置に移動させて前記複数の作業エリアの前記対象物をそれぞれ撮像することにより、複数の作業エリアでそれぞれ対象物の位置を認識することができる。したがって、ロボットが複数の作業エリアでそれぞれ対象物に対して作業を行う場合であっても、必要なカメラの台数が増えることを抑制することができる。
また、前記可動式カメラは、位置基準となる基準物と前記対象物とを視野に入れて撮像した所定画像を取得する。このため、所定画像には、基準物と対象物とが含まれている。前記物体認識部は、所定位置から撮像された画像に基づき認識した前記基準物の位置を基準位置として予め登録している。ここで、前記可動式カメラにより撮像された画像に基づき認識した基準物の位置が基準位置からずれていれば、そのずれ量は前記可動式カメラの位置の前記所定位置からのずれ量に起因している。このため、可動式カメラの位置が所定位置からずれている場合であっても、このずれ量を用いて補正することにより、物体認識部は撮像された画像に基づいて物体の位置を認識することができる。この点、前記物体認識部は、前記基準位置と前記所定画像に基づき認識した前記基準物の位置とに基づいて、前記可動式カメラの位置の前記所定位置からのずれ量を算出し、前記ずれ量と前記所定画像とに基づいて前記対象物の位置を認識する。このため、可動式カメラが所定位置に正確に戻ることができなかった場合でも、対象物の位置を正確に認識することができる。そして、前記ロボットは、前記物体認識部により認識された前記対象物の位置に基づいて、前記対象物に対して正確に作業を行うことができる。
さらに、例えば1つの作業エリアにおいて可動式カメラにより対象物の位置を認識するとともに、既に対象物を収容する位置を認識した他の作業エリアにおいてロボットにより対象物に対して作業を行うことができる。すなわち、可動式カメラによる対象物の位置の認識と、ロボットによる対象物に対する作業とを並行して行うことができる。したがって、複数の作業エリアにおいて、可動式カメラにより対象物の位置を認識し始めてから対象物に対して作業し終えるまでのサイクル時間が長くなることを抑制することができる。
第2の手段では、前記ロボットを複数備え、前記基準物は、複数の前記ロボットの前記複数の作業エリアにそれぞれ設けられており、前記可動式カメラは、複数の前記ロボットの前記複数の作業エリアの前記対象物をそれぞれ撮像可能である。こうした構成によれば、1台の可動式カメラにより、複数のロボットの作業における対象物の位置の認識を行うことができる。したがって、必要なカメラの台数をさらに減らすことができる。
第3の手段では、前記可動式カメラは、視野に前記基準物と前記対象物とが入っていない場合に、視野に前記基準物と前記対象物とが入る位置まで移動して前記所定画像を取得する。こうした構成によれば、視野に前記基準物と前記対象物とが入らない位置に可動式カメラが移動している場合であっても、可動式カメラが移動して位置を変更することにより、基準物と前記対象物とを視野に入れて撮像した所定画像を取得することができる。
具体的には、第4の手段のように、前記物体認識部は、前記可動式カメラの座標系と前記ロボットの座標系との対応関係を校正するキャリブレーションを行うことにより、前記可動式カメラにより前記所定位置から撮像された画像に基づいて、前記物体の位置として前記ロボットの座標系における物体の位置を認識可能とする、ことができる。
第5の手段では、前記キャリブレーションは、物体の位置を検出する精度が前記可動式カメラよりも高い3Dスキャナ(70)を用いて行われ、前記基準位置は、前記3Dスキャナを用いて予め登録されている。こうした構成によれば、前記可動式カメラの座標系と前記ロボットの座標系との対応関係を正確に校正することができる。さらに、前記所定位置から撮像された画像に基づき認識した前記基準物の位置である基準位置を、より正確に取得することができる。したがって、可動式カメラの位置の所定位置からのずれ量をより正確に算出することができ、ひいては対象物の位置をより正確に認識することができる。
第6の手段では、前記ロボットは、前記複数の作業エリアのうちの1つの作業エリアにおいて前記対象物を掴み、他の作業エリアまで前記対象物を移動させて離す作業を行う。こうした構成によれば、前記複数の作業エリアのうちの1つの作業エリアにおいて前記対象物を掴み、他の作業エリアまで前記対象物を移動させて離す(置く)作業を行う場合であっても、作業エリア毎にカメラが必要とならない。また、例えば既に対象物の位置を認識した第1作業エリアにおいてロボットにより対象物を掴む作業を行うとともに、対象物を離す第2作業エリアにおいて可動式カメラにより対象物を収容する位置を認識することができる。その結果、必要なカメラの台数が増えることを抑制するとともに、サイクル時間が長くなることを抑制することにある。
第7の手段では、前記物体認識部は、前記複数の作業エリアのうちの1つの作業エリアにおいて前記対象物を掴む前に、前記基準位置と前記所定画像に基づき認識した前記基準物の位置とに基づいて、前記可動式カメラの位置の前記所定位置からのずれ量を算出し、前記ずれ量と前記所定画像とに基づいて前記対象物の位置を認識し、前記ロボットは、前記物体認識部により認識された前記対象物の位置に基づいて、前記対象物を掴む作業を行う。こうした構成によれば、対象物を掴む前に対象物の位置を正確に認識することができ、正確に認識した対象物の位置に基づいて対象物を正確に掴むことができる。
1つの作業エリアにおいてロボットが対象物を掴む際に、ロボットと対象物との相対位置にばらつきが生じる。その場合、掴んだ対象物を他の作業エリアまで移動させて離す(置く)作業において、対象物を置く位置にばらつきが生じるおそれがある。
この点、第8の手段では、前記物体認識部は、前記複数の作業エリアのうちの1つの作業エリアにおいて前記対象物を掴んだ後に、前記基準位置と前記所定画像に基づき認識した前記基準物の位置とに基づいて、前記可動式カメラの位置の前記所定位置からのずれ量を算出し、前記ずれ量と前記所定画像とに基づいて前記対象物の位置を認識し、前記ロボットは、前記物体認識部により認識された前記対象物の位置に基づいて、前記1つの作業エリアから他の作業エリアまで前記対象物を移動させて離す作業を行う。こうした構成によれば、対象物を掴んだ後に対象物の位置を正確に認識することができ、正確に認識した対象物の位置に基づいて、1つの作業エリアから他の作業エリアまで対象物を移動させて正確な位置で離す(正確な位置に置く)ことができる。
第9の手段では、前記基準物は、前記対象物の周囲に配置された非対称の多面体からなるブロックである。こうした構成によれば、物体認識部は、基準物の特徴を捉えやすくなるため、基準物の位置を容易に認識することができる。
第10の手段では、前記基準物は、前記対象物の周囲に存在する設備の一部である。こうした構成によれば、前記対象物の周囲に存在する設備の一部を基準物として利用することができるため、特別なブロック等を基準物として配置する必要がなくなる。
以下、ワークを供給部から取り出し、加工して収容部に収容するロボット制御システムに具現化した一実施形態について、図面を参照しつつ説明する。
図1に示すように、ロボット制御システム10は、ロボット20、カメラ30、スライダ40、物体認識部50、及びロボット制御装置60等を備えている。
ロボット20は、例えば単腕の垂直多関節型ロボットである。ロボット20は、供給部においてワークWを把持して(掴んで)加工部へ移動させ、加工部において切削機械等によりワークWを加工した後に、ワークWを収容部へ移動させて収容ケースHの各載置部SnにワークWを置く(ワークWを離す)。すなわち、ロボット20は、複数の作業エリアでそれぞれ対象物に対して作業を行う。ロボット20のアーム部21の先端部には、把持用ツール22(作業ツール)が装着されている。
ワークW(対象物)は、所定形状の立体物である。同一形状の複数のワークWが、整列していない状態で通箱Tbに収容されている。すなわち、各ワークWの位置及び向きは不特定である。
カメラ30(可動式カメラ)は、3次元画像を撮像する双眼カメラである。カメラ30は、スライダ40の可動部41に取り付けられている。スライダ40は、可動部41を往復直線移動させ、直線上の任意の位置で可動部41を停止させることができる。スライダ40の駆動状態は、例えば物体認識部50により制御される。カメラ30は、可動部41と共に移動することにより、供給部、加工部、及び収容部(作業エリア)を撮像可能な向きで可動部41に取り付けられている。カメラ30の視野角は、供給部において、通箱Tb内の全てのワークW及び基準ブロックB1を視野に入れることができる視野角である。さらに、カメラ30の視野角は、収容部において、収容ケースH内の全ての載置部Sn及び基準ブロックB3を視野に入れることができる視野角である。基準ブロックB1,B3(基準物)は、位置基準となるものであり、例えばワークW及び載置部Snの付近(周囲)にそれぞれ配置された非対称の多面体(特徴部を備える形状)からなるブロック(立体物)である。載置部Sn(対象物を収容する位置)は、例えば加工後のワークWの形状に対応した凹部として形成されている。すなわち、カメラ30は、ロボット20と分離して移動し、複数の作業エリアの対象物をそれぞれ撮像可能である。カメラ30は、撮像する際に自動的に焦点位置を調整する機能を備えている。
カメラ30は、第1撮像位置P1と第2撮像位置P2との間で移動させられる。カメラ30は、第1撮像位置P1において、通箱Tb内の全てのワークW及び基準ブロックB1を同じ撮像視野に入れて3次元画像を撮像する。また、カメラ30は、第2撮像位置P2において、収容ケースH内の全ての載置部Sn及び基準ブロックB3を同じ撮像視野に入れて3次元画像を撮像する。なお、第1撮像位置P1,第2撮像位置P2は、カメラ30が各作業エリアを撮像することができる位置として、予め設定しておくことも、3次元画像に基づいてその都度設定することもできる。
物体認識部50は、画像処理部、記憶部、及び入出力インターフェース等を備えている。物体認識部50は、カメラ30の座標系とロボット20の座標系との対応関係を校正するキャリブレーションを行う。物体認識部50は、第1撮像位置P1及び第2撮像位置P2(所定位置)にカメラ30を移動させた状態で、それぞれキャリブレーションを行う。例えば、ロボット20のアーム部21の先端に、所定のマーカB2を取り付け、アーム部21を動作させながらマーカB2をカメラ30により撮像する。マーカB2として、所定のドットパターン等が印刷されたキャリブレーションボードや、上記の基準ブロックB1,B3と同様のブロック等を採用することができる。これにより、物体認識部50は、カメラ30によりキャリブレーション時の撮像位置から撮像された画像に基づき認識したカメラ30の座標系における物体の位置姿勢(位置)を、ロボット20の座標系における物体の位置姿勢(位置)に変換するためのパラメータを取得する。このパラメータは、第1撮像位置P1及び第2撮像位置P2の情報を含む。すなわち、物体認識部50は、キャリブレーションを行うことにより、カメラ30により所定位置から撮像された画像に基づいて、物体の位置姿勢としてロボット20の座標系における物体の位置姿勢を認識可能とする。以下、ロボット20の座標系における物体の位置姿勢を、単に物体の位置姿勢ということがある。物体認識部50は、カメラ30が取得した3次元画像(3次元画像データ)を用いて物体の位置姿勢を認識する(演算する)。具体的には、物体認識部50は、カメラ30が取得した3次元画像から、物体の位置や姿勢(向き)等を演算する。物体認識部50は、3次元画像に基づいてワークW、基準ブロックB1,B3、及び収容ケースH内の載置部Snの位置姿勢を認識する。
ロボット制御装置60は、CPU、ROM、RAM、及び入出力インターフェース等を備えている。ロボット制御装置60は、ロボット20のアーム部21の揺動・回転、把持用ツール22の動作等を制御する。ロボット制御装置60は、物体認識部50が認識したワークWの位置姿勢に基づいて、ロボット20の各動作を制御する。なお、ロボット20の各動作は、予め教示してロボット制御装置60に記憶させているので、物体認識部50が演算したワークWの位置姿勢に基づいて、ロボット制御装置60は、教示データを自動的に補正する。
次に、ロボット20を稼動させる前に行う初期設定の手順について、図2のフローチャートを参照して説明する。この一連の処理は、物体認識部50により実行される。
まず、ロボット20とカメラ30とのキャリブレーションを行う(S10)。具体的には、スライダ40によりカメラ30を第1撮像位置P1に移動させた状態で、上記のキャリブレーションを行う。このとき、カメラ30により撮像された3次元画像には、通箱Tb内の全てのワークW及び基準ブロックB1が含まれている。なお、キャリブレーション後に通箱Tb及び基準ブロックB1を配置して、カメラ30により撮像された3次元画像に通箱Tb内の全てのワークW及び基準ブロックB1が含まれるようにしてもよい。
続いて、基準ブロックB1の形状データを登録する(S11)。具体的には、カメラ30により撮像された3次元画像を処理することにより、基準ブロックB1の3次元形状データを取得して登録する。なお、3次元形状データは、物体の各点の位置を表す点群のデータとして取得される。
続いて、基準ブロックB1とカメラ30との位置関係を取得する(S12)。具体的には、カメラ30により第1撮像位置P1から基準ブロックB1を撮像した3次元画像に基づいて、カメラ30の座標系における基準ブロックB1の位置姿勢を認識する。カメラ30の座標系における基準ブロックB1の位置姿勢(位置)を、上記パラメータを用いてロボット20の座標系における基準ブロックB1の位置姿勢(位置)に変換する。そして、ロボット20の座標系における基準ブロックB1の位置姿勢(基準位置)を、基準ブロックB1とカメラ30との位置関係として取得する。すなわち、カメラ30により第1撮像位置P1から基準ブロックB1を撮像した3次元画像に基づき認識した基準ブロックB1の位置姿勢を、基準ブロックB1とカメラ30との位置関係として取得する。
続いて、対象物の形状データを登録する(S13)。具体的には、カメラ30により撮像された3次元画像を処理することにより、ワークWの3次元形状データを取得して登録する。なお、複数のワークWは同一形状であるため、代表の1つのワークWの3次元形状データを取得すればよい。
続いて、マスタデータを保存する(S14)。具体的には、上記の基準ブロックB1の3次元形状データ、ロボット20の座標系における基準ブロックB1の位置姿勢、及びワークWの3次元形状データを、ロボット20の稼働時に用いるマスタデータとして保存する。その後、この一連の処理を終了する(END)。
また、物体認識部50は、スライダ40によりカメラ30を第2撮像位置P2に移動させた状態で、上記S10~S14と同様の処理を行う。ここでは、基準ブロックB3を基準ブロックとし、収容ケースH内の載置部Snを対象物に準ずる扱いとする。
また、物体認識部50は、スライダ40によりカメラ30を第2撮像位置P2に移動させた状態で、上記S10~S14と同様の処理を行う。ここでは、基準ブロックB3を基準ブロックとし、収容ケースH内の載置部Snを対象物に準ずる扱いとする。
次に、ロボット20の稼動時における制御の手順について、図3のフローチャートを参照して説明する。この一連の処理において、S20~S26の処理は物体認識部50により実行され、S27の処理はロボット制御装置60により実行される。ここでは、ロボット20が収容部で作業をしている際に、スライダ40によりカメラ30を第1撮像位置P1に移動させてこの一連の処理を行う場合を例にして説明する。スライダ40によりカメラ30を第1撮像位置P1から他の位置へ移動させた後に第1撮像位置P1に移動させる際には、第1撮像位置P1と実際のカメラ30の位置とにずれ(誤差)が生じる。
まず、マスタデータを読み込む(S20)。具体的には、上記初期設定において保存されたマスタデータを読み込む。
続いて、基準ブロックと対象物とが同じ撮像視野に入っているか否か判定する(S21)。具体的には、基準ブロックB1と全てのワークWとが同じ撮像視野(1つの撮像視野)に入っているか否か判定する。この判定は、カメラ30により撮像された3次元画像と上記マスタデータ(基準ブロックB1の3次元形状データ、及びワークWの3次元形状データ)とに基づいて、いわゆるマッチングにより行うことができる。この判定において、基準ブロックB1と全てのワークWとが同じ撮像視野に入っていないと判定した場合(S21:NO)、スライダ40によりカメラ30を他の撮像位置へ移動させる(S22)。具体的には、スライダ40の直線軌道のいずれか一方へ、スライダ40の可動部41を所定量移動させる。なお、上記判定において撮像された3次元画像に基づいて、基準ブロックと対象物とを同じ撮像視野に入れるための可動部41の移動方向及び移動量を決定することもできる。その後、S21の処理から再度実行する。すなわち、カメラ30は、同じ視野に基準ブロックB1とワークWとが入っていない場合に、同じ視野に基準ブロックB1とワークWとが入る位置まで移動して3次元画像(所定画像)を取得する。
S21の判定において、基準ブロックB1と全てのワークWとが同じ撮像視野に入っていると判定した場合(S21:YES)、可動式カメラのずれ量を算出する(S23)。具体的には、カメラ30の現在位置(位置)の第1撮像位置P1からのずれ量を算出する。ここで、カメラ30により現在位置で撮像された3次元画像(所定画像)に基づき認識した基準ブロックB1の位置がマスタデータにおける基準ブロックB1の位置(基準位置)からずれていれば、そのずれ量はカメラ30の現在位置の第1撮像位置P1からのずれ量に対応(起因)している。このため、カメラ30により現在位置で撮像された3次元画像に基づき認識した基準ブロックB1の位置と、マスタデータにおける基準ブロックB1の位置とに基づいて、カメラ30の現在位置が第1撮像位置P1からずれているずれ量を算出する。
続いて、可動式カメラのずれ量を補正する(S24)。具体的には、カメラ30の座標系における物体の位置姿勢(位置)を、ロボット20の座標系における物体の位置姿勢(位置)に変換するための上記パラメータを上記ずれ量に基づいて補正する(パラメータにずれ量を反映させる)。
続いて、対象物の位置姿勢(位置)を認識する(S25)。具体的には、カメラ30により現在位置からワークWを撮像した3次元画像に基づいて、カメラ30の座標系におけるワークWの位置姿勢を認識する。このとき、複数のワークWの中から掴む対象とするワークWを選択して、選択したワークWの位置姿勢を認識する。そして、カメラ30の座標系におけるワークWの位置姿勢を、上記補正されたパラメータを用いて、ロボット20の座標系におけるワークWの位置姿勢に変換する。すなわち、マスタデータにおける基準ブロックB1の位置(基準位置)と、基準ブロックB1とワークWとを視野に入れて撮像した3次元画像(所定画像)に基づき認識した基準ブロックB1の位置とに基づいて、カメラ30の現在位置(位置)の第1撮像位置P1(所定位置)からのずれ量を算出し、ずれ量と所定画像とに基づいてワークWの位置姿勢(位置)を認識する。
続いて、対象物の位置姿勢(位置)をロボット制御装置60へ送信する(S26)。具体的には、物体認識部50は、認識したワークWの位置姿勢をロボット制御装置60へ送信する。
続いて、ロボット20の動作を制御する(S27)。具体的には、ロボット制御装置60は、受信したワークWの位置姿勢に基づいて、ワークWを掴むようにアーム部21及び把持用ツール22を動作させる(ワークWに対して作業を行う)。一方、ロボット20が供給部で作業をしている際に、物体認識部50はカメラ30を第2撮像位置P2へ移動させて、S20~S26と同様の処理を基準ブロックB3及び収容ケースHの各載置部Snに対して実行している。供給部においてワークWを掴んだ後、加工部へワークWを移動させて切削機械等によりワークWを加工する。ワークWを加工した後、ワークWを収容部へ移動させて収容ケースHの各載置部SnにワークWを置く。このとき、ロボット制御装置60は、ロボット20が供給部で作業をしている際に予め認識した収容ケースHの各載置部Snの位置姿勢に基づいて、目標とする載置部SnにワークWを置く。そして、ロボット20が収容部で作業をしている際に、物体認識部50はカメラ30を第1撮像位置P1へ再度移動させて、S20~S26の処理を再度実行する。以降、上記処理を全てのワークWに対して作業が終了するまで繰り返す。
以上詳述した本実施形態は、以下の利点を有する。
・カメラ30は、ロボット20と分離して移動し、複数の作業エリアのワークW及び収容ケースHの載置部Snをそれぞれ撮像可能である。そして、物体認識部50は、カメラ30により第1撮像位置P1,第2撮像位置P2から撮像された画像に基づいて、物体の位置を認識可能である。このため、カメラ30を第1撮像位置P1,第2撮像位置P2に移動させて複数の作業エリアのワークW及び収容ケースHの載置部Snをそれぞれ撮像することにより、複数の作業エリアでそれぞれワークW及び収容ケースHの載置部Snの位置を認識することができる。したがって、ロボット20が複数の作業エリアでそれぞれワークWに対して作業を行う場合であっても、必要なカメラの台数が増えることを抑制することができる。
・物体認識部50は、第1撮像位置P1から撮像された3次元画像に基づき認識した基準ブロックB1の基準位置と、基準ブロックB1とワークWとを同じ視野に入れて撮像した所定画像に基づき認識した基準ブロックB1の位置とに基づいて、カメラ30の位置の第1撮像位置P1からのずれ量を算出する。そして、ずれ量と所定画像とに基づいてワークWの位置を認識する。このため、カメラ30が第1撮像位置P1に正確に戻ることができなかった場合でも、ワークWの位置を正確に認識することができる。そして、ロボット20は、物体認識部50により認識されたワークWの位置に基づいて、ワークWに対して正確に作業を行うことができる。また、第2撮像位置P2、基準ブロックB3、及び収容ケースHの載置部Snに対しても同様である。
・供給部においてカメラ30によりワークWの位置を認識するとともに、既に収容ケースHの載置部Snの位置を認識した収容部においてロボット20によりワークWに対して作業を行うことができる。すなわち、カメラ30によるワークWの位置の認識と、ロボット20による載置部SnへのワークWに対する作業とを並行して行うことができる。したがって、複数の作業エリアにおいて、カメラ30によりワークWの位置を認識し始めてからワークWに対して作業し終えるまでのサイクル時間が長くなることを抑制することができる。また、収容部においてカメラ30により収容ケースHの載置部Snの位置を認識するとともに、既にワークWの位置を認識した供給部においてロボット20によりワークWに対して作業を行うことができる。
・カメラ30は、同じ撮像視野に基準ブロックB1とワークWとが入っていない場合に、同じ撮像視野に基準ブロックB1とワークWとが入る位置まで移動して所定画像を取得する。こうした構成によれば、同じ撮像視野に基準ブロックB1とワークWとが入らない位置にカメラ30が移動している場合であっても、カメラ30が移動して位置を変更することにより、基準ブロックB1とワークWとを同じ撮像視野に入れて撮像した所定画像を取得することができる。
・ロボット20は、複数の作業エリアのうちの供給部においてワークWを掴み、収容部までワークWを移動させて離す作業を行う。こうした構成によれば、複数の作業エリアのうちの1つの作業エリアにおいてワークWを掴み、他の作業エリアまでワークWを移動させて離す(置く)作業を行う場合であっても、作業エリア毎にカメラが必要とならない。また、既にワークWの位置を認識した供給部においてロボット20によりワークWを掴む作業を行うとともに、ワークWを離す収容部においてカメラ30により収容ケースHの載置部Snの位置を認識することができる。その結果、必要なカメラの台数が増えることを抑制するとともに、サイクル時間が長くなることを抑制することにある。
・物体認識部50は、複数の作業エリアのうちの供給部においてロボット20がワークWを掴む前に、基準位置と所定画像に基づき認識した基準ブロックB1の位置とに基づいて、カメラ30の現在位置の第1撮像位置P1からのずれ量を算出し、ずれ量と所定画像とに基づいてワークWの位置姿勢を認識する。そして、ロボット20は、物体認識部50により認識されたワークWの位置姿勢に基づいて、ワークWを掴む作業を行う。こうした構成によれば、ワークWを掴む前にワークWの位置姿勢を正確に認識することができ、正確に認識したワークWの位置姿勢に基づいてワークWを正確に掴むことができる。
・基準ブロックB1は、ワークWの周囲に配置された非対称の多面体からなるブロックである。こうした構成によれば、物体認識部50は、基準ブロックB1の特徴を捉えやすくなるため、基準ブロックB1の位置を容易に認識することができる。
なお、上記実施形態を、以下のように変更して実施することもできる。上記実施形態と同一の部分については、同一の符号を付すことにより説明を省略する。
・基準ブロックB1,B3の3次元形状データは、それぞれ第1撮像位置P1,第2撮像位置P2でカメラ30が撮像した3次元画像データと、基準ブロックB1,B3の3次元CADデータとを合成して形成することもできる。また、ワークW及び収容ケースHの載置部Snの3次元形状データは、それぞれ第1撮像位置P1及び第2撮像位置P2でカメラ30が撮像した3次元画像データと、ワークW及び載置部Snの3次元CADデータとを合成して形成することもできる。
・物体認識部50は、図1に示すように、物体の位置を検出する精度がカメラ30よりも高い3Dスキャナ70を用いてキャリブレーションを行うこともできる。この場合、物体認識部50は、第1撮像位置P1及び第2撮像位置P2(所定位置)に3Dスキャナ70を配置した状態で、それぞれキャリブレーションを行う。そして、3Dスキャナ70により第1撮像位置P1,第2撮像位置P2から基準ブロックB1,B3をそれぞれ撮像した3次元画像に基づき認識した基準ブロックB1,B3の位置姿勢(基準位置)を、基準ブロックB1,B3とカメラ30との位置関係として取得して登録する。
こうした構成によれば、カメラ30の座標系とロボット20の座標系との対応関係を正確に校正することができる。さらに、第1撮像位置P1及び第2撮像位置P2からそれぞれ撮像された画像に基づき認識した基準ブロックB1,B3の位置である基準位置を、より正確に取得することができる。したがって、カメラ30の位置の第1撮像位置P1及び第2撮像位置P2からのずれ量をより正確に算出することができ、ひいてはワークW及び収容ケースHの載置部Snの位置をより正確に認識することができる。
・供給部(1つの作業エリア)においてロボット20がワークWを掴む際に、ロボット20とワークWとの相対位置にばらつきが生じる。その場合、掴んだワークWを収容部(他の作業エリア)まで移動させて離す(置く)作業において、ワークWを置く位置にばらつきが生じるおそれがある。
そこで、物体認識部50は、複数の作業エリアのうちの供給部においてワークWを掴んだ後に、基準位置と所定画像に基づき認識した基準ブロックB1の位置とに基づいて、カメラ30の現在位置の第1撮像位置P1からのずれ量を算出し、ずれ量と所定画像とに基づいてワークWの位置姿勢(位置)を認識してもよい。そして、ロボット20は、ワークWを掴んだ後に、物体認識部50により認識されたワークWの位置姿勢に基づいて、供給部から収容部までワークWを移動させて離す作業を行ってもよい。
こうした構成によれば、ワークWを掴んだ後にワークWの位置姿勢を正確に認識することができ、正確に認識したワークWの位置姿勢に基づいて、供給部から収容部までワークWを移動させて正確な位置で離す(正確な位置に置く)ことができる。なお、供給部においてワークWを掴んだ後に、物体認識部50により認識されたワークWの位置姿勢に基づいて、供給部から加工部までワークWを移動させて加工する作業を行うこともできる。
・カメラ30により現在位置で撮像された3次元画像に基づき認識した基準ブロックB1の位置と、マスタデータにおける基準ブロックB1の位置とに基づいて、カメラ30の現在位置が第1撮像位置P1からずれているずれ量を算出する。このずれ量と、座標を変換する上記パラメータに含まれる第1撮像位置P1及び第2撮像位置P2の情報とに基づいて、カメラ30の現在位置を算出する。そして、カメラ30の現在位置と上記所定画像とに基づいて、ワークWの位置姿勢(位置)を認識することもできる。
・図1に破線で示すように、ロボット制御システム10は、ロボット20を複数備えていてもよい。この場合、基準ブロックB1,B3(基準物)は、複数のロボット20の複数の作業エリアにそれぞれ設けられている。そして、カメラ30は、複数のロボット20の複数の作業エリアのワークW(対象物)及び収容ケースHの載置部Snをそれぞれ撮像可能である。具体的には、スライダ40の可動部41は、複数のロボット20の複数の作業エリアまで移動可能である。こうした構成によれば、1台のカメラ30により、複数のロボット20の作業における対象物の位置の認識を行うことができる。したがって、必要なカメラの台数をさらに減らすことができる。
上記の場合において、カメラ30により1つの基準ブロックを撮像している状態において、撮像視野にワークW及び収容ケースHの載置部Snが入れば、供給部及び収容部に共通の1つの基準ブロックを配置してもよい。そして、ロボット20毎に、1つの基準ブロックを配置してもよい。
・位置基準となる基準物として、ワークW及び収容ケースHの載置部Snの周囲に存在する設備の一部(例えば装置の一部や支持構造の一部)を採用することもできる。基準物として採用する設備の一部は、位置及び形状が変化しない物体で、カメラ30により特徴部を認識しやすいものが好ましい。こうした構成によれば、ワークW及び収容ケースHの載置部Snの周囲に存在する設備の一部を基準物として利用することができるため、特別なブロック等を基準物として配置する必要がなくなる。
・物体認識部50は、ロボット制御装置60に含まれていてもよいし、カメラ30に含まれていてもよい。
・ロボット20は、単腕の水平多関節型ロボットであってもよい。また、ロボット20は、双腕の多関節型ロボットであってもよい。
なお、上記各実施形態及びその変更例を、組み合わせ可能な範囲で組み合わせて実施することもできる。
以下、上述した実施形態及び変更例から抽出される特徴的な構成を記載する。
[構成1]
複数の作業エリアでそれぞれ対象物(W)に対して作業を行うロボット(20)と、
前記ロボットと分離して移動し、前記複数の作業エリアの前記対象物をそれぞれ撮像可能な可動式カメラ(30)と、
前記可動式カメラにより所定位置(P1、P2)から撮像された画像に基づいて、物体の位置を認識可能である物体認識部(50)と、
を備えるロボット制御システム(10)であって、
前記可動式カメラは、位置基準となる基準物(B1)と前記対象物とを視野に入れて撮像した所定画像を取得し、
前記物体認識部は、前記所定位置から撮像された画像に基づき認識した前記基準物の位置を基準位置として予め登録しており、前記基準位置と前記所定画像に基づき認識した前記基準物の位置とに基づいて、前記可動式カメラの位置の前記所定位置からのずれ量を算出し、前記ずれ量と前記所定画像とに基づいて前記対象物の位置を認識し、
前記ロボットは、前記物体認識部により認識された前記対象物の位置に基づいて、前記対象物に対して作業を行う、ロボット制御システム。
[構成2]
前記ロボットを複数備え、
前記基準物は、複数の前記ロボットの前記複数の作業エリアにそれぞれ設けられており、
前記可動式カメラは、複数の前記ロボットの前記複数の作業エリアの前記対象物をそれぞれ撮像可能である、構成1に記載のロボット制御システム。
[構成3]
前記可動式カメラは、視野に前記基準物と前記対象物とが入っていない場合に、視野に前記基準物と前記対象物とが入る位置まで移動して前記所定画像を取得する、構成1又は2に記載のロボット制御システム。
[構成4]
前記物体認識部は、前記可動式カメラの座標系と前記ロボットの座標系との対応関係を校正するキャリブレーションを行うことにより、前記可動式カメラにより前記所定位置から撮像された画像に基づいて、前記物体の位置として前記ロボットの座標系における物体の位置を認識可能とする、構成1~3のいずれか1つに記載のロボット制御システム。
[構成5]
前記キャリブレーションは、物体の位置を検出する精度が前記可動式カメラよりも高い3Dスキャナ(70)を用いて行われ、
前記基準位置は、前記3Dスキャナを用いて予め登録されている、構成4に記載のロボット制御システム。
[構成6]
前記ロボットは、前記複数の作業エリアのうちの1つの作業エリアにおいて前記対象物を掴み、他の作業エリアまで前記対象物を移動させて離す作業を行う、構成1~5のいずれか1つに記載のロボット制御システム。
[構成7]
前記物体認識部は、前記複数の作業エリアのうちの1つの作業エリアにおいて前記対象物を掴む前に、前記基準位置と前記所定画像に基づき認識した前記基準物の位置とに基づいて、前記可動式カメラの位置の前記所定位置からのずれ量を算出し、前記ずれ量と前記所定画像とに基づいて前記対象物の位置を認識し、
前記ロボットは、前記物体認識部により認識された前記対象物の位置に基づいて、前記対象物を掴む作業を行う、構成6に記載のロボット制御システム。
[構成8]
前記物体認識部は、前記複数の作業エリアのうちの1つの作業エリアにおいて前記対象物を掴んだ後に、前記基準位置と前記所定画像に基づき認識した前記基準物の位置とに基づいて、前記可動式カメラの位置の前記所定位置からのずれ量を算出し、前記ずれ量と前記所定画像とに基づいて前記対象物の位置を認識し、
前記ロボットは、前記物体認識部により認識された前記対象物の位置に基づいて、前記1つの作業エリアから他の作業エリアまで前記対象物を移動させて離す作業を行う、構成6又は7に記載のロボット制御システム。
[構成9]
前記基準物は、前記対象物の周囲に配置された非対称の多面体からなるブロックである、構成1~8のいずれか1つに記載のロボット制御システム。
[構成10]
前記基準物は、前記対象物の周囲に存在する設備の一部である、構成1~8のいずれか1つに記載のロボット制御システム。
[構成1]
複数の作業エリアでそれぞれ対象物(W)に対して作業を行うロボット(20)と、
前記ロボットと分離して移動し、前記複数の作業エリアの前記対象物をそれぞれ撮像可能な可動式カメラ(30)と、
前記可動式カメラにより所定位置(P1、P2)から撮像された画像に基づいて、物体の位置を認識可能である物体認識部(50)と、
を備えるロボット制御システム(10)であって、
前記可動式カメラは、位置基準となる基準物(B1)と前記対象物とを視野に入れて撮像した所定画像を取得し、
前記物体認識部は、前記所定位置から撮像された画像に基づき認識した前記基準物の位置を基準位置として予め登録しており、前記基準位置と前記所定画像に基づき認識した前記基準物の位置とに基づいて、前記可動式カメラの位置の前記所定位置からのずれ量を算出し、前記ずれ量と前記所定画像とに基づいて前記対象物の位置を認識し、
前記ロボットは、前記物体認識部により認識された前記対象物の位置に基づいて、前記対象物に対して作業を行う、ロボット制御システム。
[構成2]
前記ロボットを複数備え、
前記基準物は、複数の前記ロボットの前記複数の作業エリアにそれぞれ設けられており、
前記可動式カメラは、複数の前記ロボットの前記複数の作業エリアの前記対象物をそれぞれ撮像可能である、構成1に記載のロボット制御システム。
[構成3]
前記可動式カメラは、視野に前記基準物と前記対象物とが入っていない場合に、視野に前記基準物と前記対象物とが入る位置まで移動して前記所定画像を取得する、構成1又は2に記載のロボット制御システム。
[構成4]
前記物体認識部は、前記可動式カメラの座標系と前記ロボットの座標系との対応関係を校正するキャリブレーションを行うことにより、前記可動式カメラにより前記所定位置から撮像された画像に基づいて、前記物体の位置として前記ロボットの座標系における物体の位置を認識可能とする、構成1~3のいずれか1つに記載のロボット制御システム。
[構成5]
前記キャリブレーションは、物体の位置を検出する精度が前記可動式カメラよりも高い3Dスキャナ(70)を用いて行われ、
前記基準位置は、前記3Dスキャナを用いて予め登録されている、構成4に記載のロボット制御システム。
[構成6]
前記ロボットは、前記複数の作業エリアのうちの1つの作業エリアにおいて前記対象物を掴み、他の作業エリアまで前記対象物を移動させて離す作業を行う、構成1~5のいずれか1つに記載のロボット制御システム。
[構成7]
前記物体認識部は、前記複数の作業エリアのうちの1つの作業エリアにおいて前記対象物を掴む前に、前記基準位置と前記所定画像に基づき認識した前記基準物の位置とに基づいて、前記可動式カメラの位置の前記所定位置からのずれ量を算出し、前記ずれ量と前記所定画像とに基づいて前記対象物の位置を認識し、
前記ロボットは、前記物体認識部により認識された前記対象物の位置に基づいて、前記対象物を掴む作業を行う、構成6に記載のロボット制御システム。
[構成8]
前記物体認識部は、前記複数の作業エリアのうちの1つの作業エリアにおいて前記対象物を掴んだ後に、前記基準位置と前記所定画像に基づき認識した前記基準物の位置とに基づいて、前記可動式カメラの位置の前記所定位置からのずれ量を算出し、前記ずれ量と前記所定画像とに基づいて前記対象物の位置を認識し、
前記ロボットは、前記物体認識部により認識された前記対象物の位置に基づいて、前記1つの作業エリアから他の作業エリアまで前記対象物を移動させて離す作業を行う、構成6又は7に記載のロボット制御システム。
[構成9]
前記基準物は、前記対象物の周囲に配置された非対称の多面体からなるブロックである、構成1~8のいずれか1つに記載のロボット制御システム。
[構成10]
前記基準物は、前記対象物の周囲に存在する設備の一部である、構成1~8のいずれか1つに記載のロボット制御システム。
10…ロボット制御システム、20…ロボット、30…カメラ、50…物体認識部、B1…基準ブロック、B3…基準ブロック、Sn…載置部、W…ワーク。
Claims (10)
- 複数の作業エリアでそれぞれ対象物(W)に対して作業を行うロボット(20)と、
前記ロボットと分離して移動し、前記複数の作業エリアの前記対象物をそれぞれ撮像可能な可動式カメラ(30)と、
前記可動式カメラにより所定位置(P1、P2)から撮像された画像に基づいて、物体の位置を認識可能である物体認識部(50)と、
を備えるロボット制御システム(10)であって、
前記可動式カメラは、位置基準となる基準物(B1)と前記対象物とを視野に入れて撮像した所定画像を取得し、
前記物体認識部は、前記所定位置から撮像された画像に基づき認識した前記基準物の位置を基準位置として予め登録しており、前記基準位置と前記所定画像に基づき認識した前記基準物の位置とに基づいて、前記可動式カメラの位置の前記所定位置からのずれ量を算出し、前記ずれ量と前記所定画像とに基づいて前記対象物の位置を認識し、
前記ロボットは、前記物体認識部により認識された前記対象物の位置に基づいて、前記対象物に対して作業を行う、ロボット制御システム。 - 前記ロボットを複数備え、
前記基準物は、複数の前記ロボットの前記複数の作業エリアにそれぞれ設けられており、
前記可動式カメラは、複数の前記ロボットの前記複数の作業エリアの前記対象物をそれぞれ撮像可能である、請求項1に記載のロボット制御システム。 - 前記可動式カメラは、視野に前記基準物と前記対象物とが入っていない場合に、視野に前記基準物と前記対象物とが入る位置まで移動して前記所定画像を取得する、請求項1又は2に記載のロボット制御システム。
- 前記物体認識部は、前記可動式カメラの座標系と前記ロボットの座標系との対応関係を校正するキャリブレーションを行うことにより、前記可動式カメラにより前記所定位置から撮像された画像に基づいて、前記物体の位置として前記ロボットの座標系における物体の位置を認識可能とする、請求項1又は2に記載のロボット制御システム。
- 前記キャリブレーションは、物体の位置を検出する精度が前記可動式カメラよりも高い3Dスキャナ(70)を用いて行われ、
前記基準位置は、前記3Dスキャナを用いて予め登録されている、請求項4に記載のロボット制御システム。 - 前記ロボットは、前記複数の作業エリアのうちの1つの作業エリアにおいて前記対象物を掴み、他の作業エリアまで前記対象物を移動させて離す作業を行う、請求項1又は2に記載のロボット制御システム。
- 前記物体認識部は、前記複数の作業エリアのうちの1つの作業エリアにおいて前記対象物を掴む前に、前記基準位置と前記所定画像に基づき認識した前記基準物の位置とに基づいて、前記可動式カメラの位置の前記所定位置からのずれ量を算出し、前記ずれ量と前記所定画像とに基づいて前記対象物の位置を認識し、
前記ロボットは、前記物体認識部により認識された前記対象物の位置に基づいて、前記対象物を掴む作業を行う、請求項6に記載のロボット制御システム。 - 前記物体認識部は、前記複数の作業エリアのうちの1つの作業エリアにおいて前記対象物を掴んだ後に、前記基準位置と前記所定画像に基づき認識した前記基準物の位置とに基づいて、前記可動式カメラの位置の前記所定位置からのずれ量を算出し、前記ずれ量と前記所定画像とに基づいて前記対象物の位置を認識し、
前記ロボットは、前記物体認識部により認識された前記対象物の位置に基づいて、前記1つの作業エリアから他の作業エリアまで前記対象物を移動させて離す作業を行う、請求項6に記載のロボット制御システム。 - 前記基準物は、前記対象物の周囲に配置された非対称の多面体からなるブロックである、請求項1又は2に記載のロボット制御システム。
- 前記基準物は、前記対象物の周囲に存在する設備の一部である、請求項1又は2に記載のロボット制御システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2023/042090 WO2024135220A1 (ja) | 2022-12-23 | 2023-11-23 | ロボット制御システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024090687A true JP2024090687A (ja) | 2024-07-04 |
Family
ID=
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6855492B2 (ja) | ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法 | |
JP6429473B2 (ja) | ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体 | |
JP6180087B2 (ja) | 情報処理装置及び情報処理方法 | |
JP4837116B2 (ja) | 視覚センサを備えたロボットシステム | |
JP5685027B2 (ja) | 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム | |
US7200260B1 (en) | Teaching model generating device | |
JP3946711B2 (ja) | ロボットシステム | |
EP3542969B1 (en) | Working-position correcting method and working robot | |
CN109952178B (zh) | 作业机器人及作业位置修正方法 | |
JP6885856B2 (ja) | ロボットシステムおよびキャリブレーション方法 | |
JP6855491B2 (ja) | ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法 | |
JP5088186B2 (ja) | ロボット装置及びロボット装置の制御方法 | |
WO2023013740A1 (ja) | ロボット制御装置、ロボット制御システム、及びロボット制御方法 | |
WO2024135220A1 (ja) | ロボット制御システム | |
WO2023032400A1 (ja) | 自動搬送装置、及びシステム | |
JP2024090687A (ja) | ロボット制御システム | |
CN110977950B (zh) | 一种机器人抓取定位方法 | |
JP6578671B2 (ja) | ロボット、ロボットの制御方法、及びロボットの制御装置 | |
CN116390834A (zh) | 机器人系统 | |
JP7509918B2 (ja) | 画像処理システム及び画像処理方法 | |
JP7450857B2 (ja) | 計測パラメータの最適化方法及び装置、並びに、コンピュータ制御プログラム | |
US20240157567A1 (en) | Picking system | |
WO2024062535A1 (ja) | ロボット制御装置 | |
JP2022162340A (ja) | ピッキング装置 | |
JP2021133458A (ja) | 3次元計測装置および3次元計測システム |