JPWO2020175425A1 - ロボットシステム、ロボットの制御装置、およびロボットの制御プログラム - Google Patents
ロボットシステム、ロボットの制御装置、およびロボットの制御プログラム Download PDFInfo
- Publication number
- JPWO2020175425A1 JPWO2020175425A1 JP2021502233A JP2021502233A JPWO2020175425A1 JP WO2020175425 A1 JPWO2020175425 A1 JP WO2020175425A1 JP 2021502233 A JP2021502233 A JP 2021502233A JP 2021502233 A JP2021502233 A JP 2021502233A JP WO2020175425 A1 JPWO2020175425 A1 JP WO2020175425A1
- Authority
- JP
- Japan
- Prior art keywords
- unit
- robot
- work
- robot system
- sensor unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012937 correction Methods 0.000 claims abstract description 66
- 238000013459 approach Methods 0.000 claims abstract description 8
- 230000009471 action Effects 0.000 claims description 66
- 238000005520 cutting process Methods 0.000 claims description 22
- 238000005259 measurement Methods 0.000 claims description 7
- 239000011248 coating agent Substances 0.000 claims description 3
- 238000000576 coating method Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 description 36
- 238000000034 method Methods 0.000 description 21
- 238000003860 storage Methods 0.000 description 21
- 238000004891 communication Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 17
- 238000012545 processing Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 9
- 238000003754 machining Methods 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 5
- 230000010365 information processing Effects 0.000 description 5
- 230000004913 activation Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000011549 displacement method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- APTZNLHMIGJTEW-UHFFFAOYSA-N pyraflufen-ethyl Chemical compound C1=C(Cl)C(OCC(=O)OCC)=CC(C=2C(=C(OC(F)F)N(C)N=2)Cl)=C1F APTZNLHMIGJTEW-UHFFFAOYSA-N 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1692—Calibration of manipulator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/005—Manipulators for mechanical processing tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1633—Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39011—Fixed camera detects deviation end effector from reference on workpiece, object
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40488—Coarse and fine motion planning combined
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40609—Camera to monitor end effector as well as object to be handled
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
- Numerical Control (AREA)
Abstract
Description
第1節では、ロボットシステム1の全体構成について図面を用いて説明する。図1は、本実施形態に係るロボットシステム1の構成概要を示す図である。ロボットシステム1は、ロボット2と、ロボット2を制御するための制御装置3とを備え、これらが電気的に接続されたシステムである。ロボットシステム1は作業毎に与えられる対象物OBJ(図2参照)に対して予め定められた作業を実施するものである。
本実施形態に係るロボットシステム1において、ロボット2の全体形態は特に限定されるものではないが、第1のセンサ部21と対象物作用部22(目標箇所)とを備えていることが特徴である。これら2つの構成要素の詳細に関しては後述する。その他、作業者が作業内容を指定するユーザーインターフェイス機能、対象物OBJを供給する機能、静的な位置調整機能など、ロボット一般に有する機能は図中における本体20で実現しているものとし、ここでは詳述しない。
図1に示す通り、制御装置3は通信部31と、記憶部32と、制御部33とを有し、これらの構成要素が制御装置3の内部において通信バス30を介して電気的に接続されている。以下、各構成要素についてさらに説明する。
通信部31は、ロボット2との間で情報の授受を行なうものである。USB、IEEE1394、Thunderbolt、有線LANネットワーク通信等といった有線型の通信手段が好ましいものの、無線LANネットワーク通信、5G/LTE/3G等のモバイル通信、Bluetooth(登録商標)通信等を必要に応じて含めてもよい。これらは一例であり、専用の通信規格を採用してもよい。すなわち、これら複数の通信手段の集合として実施することがより好ましい。
記憶部32は、様々な情報を記憶する揮発性または不揮発性の記憶媒体である。これは、例えばソリッドステートドライブ(Solid State Drive:SSD)等のストレージデバイスとして、あるいは、プログラムの演算に係る一時的に必要な情報(引数、配列等)を記憶するランダムアクセスメモリ(Random Access Memory:RAM)等のメモリとして実施されうる。また、これらの組合せであってもよい。
制御部33は、制御装置3に関連する全体動作の処理・制御を行う。制御部33は、例えば不図示の中央処理装置(Central Processing Unit:CPU)である。制御部33は、記憶部32に記憶された所定のプログラムを読み出すことによって、制御装置3に係る種々の機能を実現する。具体的には、対象物OBJ毎に予め与えられた情報、第1のセンサ部21その他センサからの情報を元に対象物OBJに定義される作業箇所OPと現時点の対象物作用部22間の座標位置ズレ情報を計算し、対象物作用部22および第1のセンサ部21の粗動作を管理し、対象物作用部22の高精度な補正動作を実施する機能が該当する。
演算制御部331はソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されているものである。演算制御部331は、通信部31を介して第1のセンサ部21から得た情報、および対象物OBJ毎に予め与えられたパラメータを元に作業箇所OPおよび対象物作用部22の空間座標を特定する演算を行なう。このとき、演算を行なう頻度は第1のセンサ部21の動作周波数である第1の動作周波数である。例えば図2の構成の場合では、切削具CTの形状や長さ、対象物OBJの厚さ、および作業箇所OPに予め付けられたマークを画像認識する際の明度閾値などがパラメータとなる。得られた作業箇所OPと対象物作用部22の空間座標間の位置ズレ情報を元に位置を補正する制御信号を生成する。その制御信号は後述する補正駆動部333単独あるいは粗動作管理部332および補正駆動部333双方にて活用される。
粗動作管理部332は、ソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されているものである。粗動作管理部332は前記対象物作用部22単独あるいは前記対象物作用部22と前記第1のセンサ部21双方の粗動作を管理するものである。ここでの粗動作とは、前記対象物作用部22単独あるいは前記対象物作用部22と前記第1のセンサ部21双方を、対象物OBJ毎に定義される作業箇所OP近傍まで近づけるものである。この作業場所近傍とは、記憶部32に記憶されているソフトウェア内で定義されている情報を活用する場合、前記第1のセンサ部21からの情報を基に演算制御部331で演算した空間座標位置情報を活用する場合、前記第2のセンサ部からの情報を基に演算制御部331で演算した空間座標位置情報を活用する場合がある。また、これらの組み合わせも可能である。
補正駆動部333はソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されているものである。補正駆動部333は演算制御部331から提供された位置補正信号を基に、前記対象物作用部22に対する位置補正を実施し、前記対象物作用部22の作用点を対象物OBJ毎に定義される作用箇所に整合させる。この場合、前記第1のセンサ部21と前記対象物作用部22が有する空間的な分解能の範囲内となる高精度な座標位置合わせが可能となる。
第2節では、個々の対象物OBJに対してロボットが高精度な作業を行なうための、ロボットシステム1におけるロボット2の制御方法について説明する。具体例として、図2で例示した構成において対象物OBJの一部分を高フレームレートカメラ21aで撮影した画像情報を図3に示す。また、単発作業時の制御フローを図4に、連続作業時の制御フローを図5に示す。以下、図面を参照しながら説明する。
ロボットシステム1が対象物OBJに対して単発作業を行なう場合の制御フローである。制御フロー図は図4を参照されたい。
(ステップS1)
対象物OBJをロボット作業可能領域に配置する。この際の位置精度は後段の処理にて、第1のセンサ部21(高フレームレートカメラ21a)の視野内に、対象物OBJ上の作業箇所OP(作業指定点)と、対象物作用部22の作用点(切削具CTの先端)TP(目標箇所)が存在し、かつ対象物作用部22(高速2次元アクチュエータ22a)の補正動作許容範囲に入って入れば良い。位置決めのためだけに高精度に作製された対象物OBJを保持する冶具を用意する必要はない。
粗動作管理部332が、対象物作用部22を対象物OBJ上にある作業箇所OP近傍まで移動させる。この際、作業箇所OPは、予め記憶部32に記憶させておいた、個々の対象物OBJごとについての作業箇所OP座標位置情報を粗動作管理部332に入力して利用しても良い。あるいは第2のセンサ部として、一般的なカメラから取得した画像情報を演算制御部331に入力して演算した結果得られた座標情報を粗動作管理部332が利用する方法でも良い。
図3は上記ステップS2の粗動作管理が終了した時点におけるもので、図3左側が対象物OBJ全体図、図3右側が高フレームレートカメラ21aで撮影した画像データIMである。作業箇所OPと切削具CTの先端位置TPの間に距離dの位置ズレが発生している。この高フレームレートカメラ21a(第1のセンサ部21)が捉えた画像情報は通信部31を介して演算制御部331に入力され、演算制御部331にて座標位置ズレ量情報を演算する。
上記ステップS3で求めた座標位置ズレ情報を補正駆動部333に伝達する。補正駆動部333は切削具CTの先端位置TPが作業箇所OPに来るように、高速2次元アクチェータ22a(対象物作用部22)に対して座標位置補正移動制御を実施する。その結果、作業箇所OPと切削具CTの先端位置TPは、高フレームレートカメラ21a(第1のセンサ部21)と高速2次元アクチェータ22a(対象物作用部22)の分解能の範囲内まで高精度に近づけることが出来る。
ロボット2が対象物OBJに対して作業を実施する。
[単発作業終了]
ロボットシステム1が対象物OBJに対して連続作業を行なう場合の制御フローである。制御フロー図は図5を参照されたい。
(ステップS1)
対象物OBJをロボット2の作業可能領域に配置する。図3を用いて説明する。図3左側には連続補足動作時の画像情報例を示す。図3左側の点線がライン状の連続作業指定位置RT1である。先ず連続作業指定位置RT1上における作業開始の位置を連続作業開始点STとし、対象物OBJを連続作業開始点STに対するロボットの作業可能領域に配置する。この際の位置精度は後段の処理にて、第1のセンサ部21(高フレームレートカメラ21a)の視野内に、対象物OBJ上の連続作業開始点STと、対象物作用部22の作用点(切削具CTの先端)TP(目標箇所)が存在し、かつ対象物作用部22(高速2次元アクチュエータ22a)の補正動作許容範囲に入って入れば良いのは単発作業と同様である。位置決めのためだけに高精度に作製された対象物OBJを保持する冶具を用意する必要はないのも単発作業と同じである。
粗動作管理部332が、対象物作用部22を対象物OBJ上にある連続作業指定位置RT1上の連続作業開始点STから開始して作業毎に連続作業終了点EN方向に向かう、作業毎に更新される作業箇所OP近傍まで移動させる。この際、作業箇所OPは、予め記憶部32に記憶させておいた、個々の対象物OBJ毎についての連続作業指定位置RT1上にて毎回の作業毎に更新される作業箇所OP座標位置情報を粗動作管理部332に入力して利用しても良い。あるいは第2のセンサ部として、一般的なカメラから取得した画像情報を演算制御部331に入力して演算した結果得られた座標情報を粗動作管理部332が利用する方法でも良いのは単発動作と同じである。連続作業指定位置RT1は作業者がマークを塗布するなど明示的に示しても良いし、対象物OBJ内に複数の物体が存在する場合などで境界線を連続作業指定位置RT1と定義できる場合はその境界線を画像認識して活用することも可能である。図3左側の制御軌跡RT2に粗動作管理部332が制御を行った軌跡を表す。連続作業指定位置RT1に対する粗動作管理部の制御軌跡RT2の距離が、第1のセンサ部21(高フレームレートカメラ21a)の視野内、かつ対象物作用部22での補正動作範囲内であることが重要である。
連続動作内での各作業回での座標位置ズレ計測と補正作業は単発作業と同じである。図3は各回での上記ステップS2の粗動作管理が終了した時点におけるもので、図3右側が高フレームレートカメラ21aで撮影した画像データIMである。作業箇所OPと切削具CTの先端位置TPの間に位置ズレ(距離d)が発生している。この高フレームレートカメラ21a(第1のセンサ部21)が捉えた画像情報は通信部31を介して演算制御部331に入力され、演算制御部331にて座標位置ズレ量情報を演算する。
上記ステップS3で求めた座標位置ズレ情報を補正駆動部333に伝達する。補正駆動部333は切削具CTの先端位置TPが作業箇所OPに来るように、高速2次元アクチェータ22a(対象物作用部22)に対して座標位置補正移動制御を実施する。その結果、作業箇所OPと切削具CTの先端位置TPは、高フレームレートカメラ21a(第1のセンサ部21)と高速2次元アクチェータ22a(対象物作用部22)の分解能の範囲内まで高精度に近づけることが出来ることは単発作業と同じである。
ロボット2が対象物OBJに対して作業を実施するのは単発作業と同じである。
連続作業が終了したかどうか判断する。予め記憶部32に記憶させておいた個々の対象物OBJ毎の連続作業指定位置RT1での作業が全て終了したかで判断できる。あるいは第2のセンサ部として一般的なカメラを利用する場合であれば、例えばマーキングされた作業指示ラインの終点まで到達したことなどで判断しても良い。連続作業が終了していなければステップS2に戻って作業を続ける。
[連続作業終了]
上記の様な制御方法を実施することにより、対象物OBJが個々に形状が異なる場合であっても、対象物OBJを保持する冶具を用意することなく、高精度にロボット2を制御することが出来る。一連の連続作業が終了した時点でループを抜ける。
第3節では、本実施形態に係る変形例について説明する。すなわち、次のような態様によって、本実施形態に係るロボットシステム1をさらに創意工夫してもよい。
図6に3次元位置ズレ補正動作実施例構成図を示す。図6では本体20は図示していない。高速3次元アクチュエータ22bは3次元座標上をx軸y軸z軸それぞれに移動可能な構成となっており、高速3次元アクチュエータ22bの先端には例として切削具CTを配置している。図6ではロボットシステムの作業内容を切削として切削具CTを配置しているが、前記ロボットシステム1の作業内容に応じて塗布具やレーザ射出部などに適宜置き換えることが可能である。
2.2にて説明した、連続作業制御フローでは、粗動作管理部332が利用する連続作業指定位置RT1は、予め記憶部32に記憶されているか、第2のセンサ部(一般的なカメラなど)からの情報を利用する方法を採用している。ここでは第1のセンサ部21が特定した作業箇所座標位置を基に、粗動作管理部332が利用する移動情報を更新する実施形態の制御フローを説明する。対象物作用部22(目標箇所)と第1のセンサ部21の構成図は図2、画像情報は図3、制御フロー図は図7を参照されたい。
[連続作業開始]
(ステップS1)
対象物OBJをロボット2の作業可能領域に配置する。2.2連続作業と同様であり、説明は省略する。
粗動作管理部332が、対象物作用部22を対象物OBJ上にある連続作業指定位置RT1上の連続作業開始点STから開始して作業毎に連続作業終了点EN方向に向かう、作業毎に更新される作業箇所OP近傍まで移動させる。この際の移動情報は、ステップS8にて後述するごとく、第1のセンサ部21が特定した作業箇所OP情報を用いて更新する場合もある。連続作業指定位置RT1は作業者がマークを塗布するなど明示的に示しても良いし、対象物OBJ内に複数の物体が存在する場合などで境界線を連続作業指定位置RT1と定義できる場合はその境界線を画像認識して活用することも可能であることは2.2と同様である。
連続動作内での各作業回での座標位置ズレ計測と補正作業は、2.1単発作業、2.2連続作業と同様であり、説明は省略する。なお、高フレームレートカメラ21a(第1のセンサ部21)が特定した作業箇所OPが図3における画像データIM内の何処に存在するかの情報を、後述のステップS7、ステップS8で利用する。
上記ステップS3で求めた座標位置ズレ情報を補正駆動部333に伝達し、対象物作用部22に対して座標位置補正移動制御を実施するのは2.1単発作業、2.2連続作業と同様であり、説明は省略する。
ロボット2が対象物OBJに対して作業を実施するのは2.1単発作業、2.2連続作業と同じである。
予め記憶部32に記憶させておいた連続作業の全工程が終了したかどうかを判断する。連続作業が終了していなければステップS7に進み作業を継続する。
ステップS3にて高フレームレートカメラ21a(第1のセンサ部21)が特定した作業箇所OPが、画像データIMの許容範囲内に位置するのかで、粗動作管理部332で用いる移動情報を更新するかどうかを判断する。具体的には、例えば現在の作業箇所OPが画像データIMの中心付近にあり、次回の作業箇所と切削具CT(対象物作用部22)の先端位置TPの間に距離dの位置ズレが小さく補正駆動部333が処理できる範囲であると推定できれば、許容範囲以下であり現状位置で作業を継続することとしてステップS2に戻る。許容範囲超と判断されたらステップS8に進む。なお、閾値である許容範囲を0と設定して必ずステップS8に進む制御も可能である。
高フレームレートカメラ21a(第1のセンサ部21)が特定した作業箇所OP情報を基に粗動作管理部332において使用する移動情報を更新する。具体的には、例えば作業箇所OPが画像データIM内で中心から上方向にずれた場合には、ロボット2を上方向に移動させることで作業箇所OPを中心方向に近づけることが出来る。この様な演算を演算制御部331が行い、粗動作管理部332が使用する移動情報を更新し、ステップS2に戻って連続作業を続ける。
[連続作業終了]
本実施形態に係るロボットシステム1に人工知能(Artificial Intelligence:AI)分野で盛んに研究されている機械学習を加えることで、正確かつ効率的な製品加工が期待されうる。ところで、[課題を解決するための手段]において記載した通り、ロボットシステム1は、対象物OBJがオーダーメイドや多品種少量生産である場合に特に適している。オーダーメイドや多品種少量生産品は、詳細な形状や寸法は当然に多種多様であっても、用途、材質、形状、寸法等、物品の属性という観点では従来品に共通する部分が多く見られる。そこで、ロボットシステム1によって加工する物品の属性を機械学習させて、加工中または将来の加工をより正確かつ効率的に行うことができる。
第2節ではロボット2が対象物作用部22を有した状態で、対象物作用部22の位置を補正しながら定められた作業を行なう場合を説明した。一方で対象物作用部22の重量が大きい場合などでは、ロボットシステム1の本番作業前に作業を行なう目標箇所の位置情報を高精度に把握し、ロボットシステム1の本番作業をより短時間で実行したい場合もある。
対象物作用部22をロボット2から取り外した状態で対象物OBJをロボット作業可能領域に配置する。この際、図3左側の連続作業指定位置RT1上における連続作業開始点STが第1のセンサ部21(高フレームレートカメラ21a)の視野内に収まる様にする。このとき、対象物作用部22は取り外しており、対象物作用部22の作用点(切削具CTの先端)TPも存在しないため留意する必要は無い。
ここでは図3中RT1を本番作業の目標箇所とする。粗動作管理部332が、第1のセンサ部21を対象物OBJ上にある連続作業指定位置RT1上の連続作業開始点ST近傍から開始して連続作業終了点EN近傍方向に向かう。ここで連続作業指定位置RT1は、予め記憶部32に記憶させておいた情報を活用しても良い。あるいは、第2のセンサ部として、一般的なカメラから取得した画像情報を演算制御部331に入力して演算した結果得られた座標情報を粗動作管理部332が利用する方法でも良い。連続作業指定位置RT1は作業者がマークを塗布するなど明示的に示しても良いし、対象物OBJ内に複数の物体が存在する場合などで境界線を連続作業指定位置RT1と定義できる場合はその境界線を画像認識して活用することも可能であることは、第2節で記述した連続作業制御フローと同じである。
高フレームレートカメラ21a(第1のセンサ部21)で撮影した画像データIMから目標箇所の高精度位置情報を求める。画像データIMは通信部31を介して演算制御部331に入力され、演算制御部331にて画像データ中心部からの座標位置ズレ量情報を演算し、粗動作管理部332による移動量と合わせて目標箇所の高精度位置情報とする。
ステップS3で演算した高精度位置情報を記憶部32に記憶する。
連続作業指定位置全体の計測が終了したかどうかを判定する。終了していればステップS6に進み、終了していなければステップS2に戻って計測を続行する。
切削具CT(対象物作用部22)をロボット2に取り付けて作業を実施する。この際、記憶部32に記憶されている高精度位置情報に基づき、切削具CTの先端位置TPを移動させながら連続作業を行なう。予め高精度位置情報が記憶されているので作業中にフィードバック制御を行なう必要は無い。
[作業終了]
以上の様に、本実施形態によれば、ロボットシステム1において、対象物OBJが個々に形状が異なる場合であっても、対象物OBJに対応した冶具を用意すること無しに高精度な作業を実施可能なロボットシステム1を実施することが出来る。
2 :ロボット
3 :制御装置
20 :本体
21 :第1のセンサ部
21a :高フレームレートカメラ
21b :高フレームレートカメラ
22 :対象物作用部
22a :高速2次元アクチュエータ
22b :高速3次元アクチュエータ
30 :通信バス
31 :通信部
32 :記憶部
33 :制御部
331 :演算制御部
332 :粗動作管理部
333 :補正駆動部
CT :切削具
IM :画像データ
OBJ :対象物
OP :作業箇所
RT1 :連続作業指定位置
RT2 :制御軌跡
TP :先端位置
d :距離
Claims (11)
- ロボットシステムであって、
ロボットと、前記ロボットを制御する制御装置とを備え、
前記ロボットは、第1のセンサ部を備え、
前記第1のセンサ部は、個々の形状が異なる複数種類の対象物毎に定義される作業箇所と目標箇所との座標位置のズレ量、または前記ズレ量に起因して変化する物理量を第1の動作周波数で計測可能に構成され、
前記制御装置は、粗動作管理部と、演算制御部と、補正駆動部とを備え、
前記粗動作管理部は、第2の動作周波数で前記目標箇所を前記対象物近傍まで移動可能に構成され、
前記演算制御部は、前記目標箇所が前記作業箇所に近づくように前記ズレ量を補正する制御信号を第3の動作周波数で生成可能に構成され、
前記補正駆動部は、前記制御信号に基づいて、前記目標箇所を前記作業箇所に位置を整合させる補正動作を実施可能に構成され、
ここで、前記第2の動作周波数は、前記第1および第3の動作周波数の1/2以下の周波数である、
ロボットシステム。 - 請求項1に記載のロボットシステムにおいて、
前記ズレ量に起因して変化する物理量とは、
力又はトルクである、
ロボットシステム。 - 請求項1または請求項2に記載のロボットシステムにおいて、
前記目標箇所とは、対象物作用部であり、
前記対象物作用部は、
座標位置を変位可能に構成され、かつ
前記対象物に対して、所定の作業を実施可能に構成される、
ロボットシステム。 - 請求項3に記載のロボットシステムにおいて、
前記対象物作用部は、切削具、塗布具、またはレーザ射出部を有する、
ロボットシステム。 - 請求項3に記載のロボットシステムにおいて、
前記第1のセンサ部とは異なる第2のセンサ部をさらに備え、
前記第1のセンサ部は、前記対象物作用部と連動して動作可能に構成され、
前記第2のセンサ部は、前記作業箇所を計測可能に構成され、
前記粗動作管理部は、前記第2のセンサ部の計測結果に基づいて、前記対象物作用部を前記対象物近傍まで移動させる、
ロボットシステム。 - 請求項1〜請求項5の何れか1つに記載のロボットシステムにおいて、
前記第1のセンサ部は、単眼のカメラであって、前記ズレ量を2次元座標情報として計測し、
前記補正駆動部は、2次元の前記補正動作を行なう、
ロボットシステム。 - 請求項1〜請求項5の何れか1つに記載のロボットシステムにおいて、
前記第1のセンサ部は、複数のカメラであって、前記ズレ量を3次元座標情報として計測し、
前記補正駆動部は、3次元の前記補正動作を行なう、
ロボットシステム。 - 請求項1〜請求項7の何れか1つに記載のロボットシステムにおいて、
前記第1および第3の動作周波数は、100Hz以上である、
ロボットシステム。 - 請求項1〜請求項8の何れか1つに記載のロボットシステムにおいて、
前記第1のセンサ部で特定した前記作業箇所座標位置に基づいて、前記粗動作管理部が利用する移動情報を更新可能に構成される、
ロボットシステム。 - ロボットの制御装置であって、
前記ロボットとは、第1のセンサ部を有するもので、前記第1のセンサ部は、個々の形状が異なる複数種類の対象物毎に定義される作業箇所と目標箇所との座標位置のズレ量、または前記ズレ量に起因して変化する物理量を第1の動作周波数で計測可能に構成され、
当該制御装置は、粗動作管理部と、演算制御部と、補正駆動部とを備え、
前記粗動作管理部は、第2の動作周波数で前記目標箇所を前記対象物近傍まで移動可能に構成され、
前記演算制御部は、前記目標箇所が前記作業箇所に近づくように前記ズレ量を補正する制御信号を第3の動作周波数で生成可能に構成され、
前記補正駆動部は、前記制御信号に基づいて、前記目標箇所を前記作業箇所に位置を整合させる補正動作を実施可能に構成され、
ここで、前記第2の動作周波数は、前記第1および第3の動作周波数の1/2以下の周波数である、
ロボットの制御装置。 - ロボットの制御プログラムであって、
前記ロボットとは、第1のセンサ部を有するもので、前記第1のセンサ部は、個々の形状が異なる複数種類の対象物毎に定義される作業箇所と目標箇所との座標位置のズレ量、または前記ズレ量に起因して変化する物理量を第1の動作周波数で計測可能に構成され、
当該制御プログラムは、コンピュータに、粗動作管理機能と、演算制御機能と、補正駆動機能とを実行させるもので、
前記粗動作管理機能によれば、第2の動作周波数で前記目標箇所を前記対象物近傍まで移動させ、
前記演算制御機能によれば、前記目標箇所が前記作業箇所に近づくように前記ズレ量を補正する制御信号を第3の動作周波数で生成させ、
前記補正駆動機能によれば、前記制御信号に基づいて、前記目標箇所を前記作業箇所に位置を整合させる補正動作を実施させ、
ここで、前記第2の動作周波数は、前記第1および第3の動作周波数の1/2以下の周波数である、
ロボットの制御プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019031790 | 2019-02-25 | ||
JP2019031790 | 2019-02-25 | ||
PCT/JP2020/007310 WO2020175425A1 (ja) | 2019-02-25 | 2020-02-25 | ロボットシステム、ロボットの制御装置、およびロボットの制御プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020175425A1 true JPWO2020175425A1 (ja) | 2021-11-18 |
JP7228290B2 JP7228290B2 (ja) | 2023-02-24 |
Family
ID=72239038
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021502233A Active JP7228290B2 (ja) | 2019-02-25 | 2020-02-25 | ロボットシステム、ロボットの制御装置、およびロボットの制御プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220134567A1 (ja) |
JP (1) | JP7228290B2 (ja) |
CN (1) | CN113439013B (ja) |
WO (1) | WO2020175425A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210061842A (ko) * | 2019-11-20 | 2021-05-28 | 삼성전자주식회사 | 이동 로봇 장치 및 이의 제어 방법 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013063474A (ja) * | 2011-09-15 | 2013-04-11 | Yaskawa Electric Corp | ロボットシステム及び撮像方法 |
JP5622250B1 (ja) * | 2013-11-08 | 2014-11-12 | スターテクノ株式会社 | 較正機能付きワーク加工装置 |
JP2017087325A (ja) * | 2015-11-06 | 2017-05-25 | キヤノン株式会社 | ロボット制御装置、ロボット制御方法、ロボット制御システムおよびコンピュータプログラム |
WO2018043525A1 (ja) * | 2016-09-02 | 2018-03-08 | 倉敷紡績株式会社 | ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法 |
JP2019018339A (ja) * | 2017-07-12 | 2019-02-07 | ファナック株式会社 | ロボットシステム |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4821206A (en) * | 1984-11-27 | 1989-04-11 | Photo Acoustic Technology, Inc. | Ultrasonic apparatus for positioning a robot hand |
WO1997024206A1 (fr) * | 1995-12-27 | 1997-07-10 | Fanuc Ltd | Systeme robotique composite de detection |
JP5383756B2 (ja) * | 2011-08-17 | 2014-01-08 | ファナック株式会社 | 学習制御機能を備えたロボット |
JP2013078825A (ja) * | 2011-10-04 | 2013-05-02 | Yaskawa Electric Corp | ロボット装置、ロボットシステムおよび被加工物の製造方法 |
EP2881226A4 (en) * | 2012-08-02 | 2017-01-11 | Fuji Machine Mfg. Co., Ltd. | Work machine provided with articulated robot and electric component mounting machine |
EP2705935A1 (en) * | 2012-09-11 | 2014-03-12 | Hexagon Technology Center GmbH | Coordinate measuring machine |
US9283048B2 (en) * | 2013-10-04 | 2016-03-15 | KB Medical SA | Apparatus and systems for precise guidance of surgical tools |
CN104802166B (zh) * | 2013-10-10 | 2016-09-28 | 精工爱普生株式会社 | 机器人控制系统、机器人、程序以及机器人控制方法 |
JP2015089575A (ja) * | 2013-11-05 | 2015-05-11 | セイコーエプソン株式会社 | ロボット、制御装置、ロボットシステム及び制御方法 |
JP2015147256A (ja) * | 2014-02-04 | 2015-08-20 | セイコーエプソン株式会社 | ロボット、ロボットシステム、制御装置、及び制御方法 |
CN105313127A (zh) * | 2014-06-02 | 2016-02-10 | 精工爱普生株式会社 | 机器人、机器人的控制方法以及机器人的控制装置 |
CN111419121B (zh) * | 2014-07-01 | 2022-11-29 | 三星电子株式会社 | 清洁机器人及其控制方法 |
US10065318B2 (en) * | 2014-09-15 | 2018-09-04 | The Boeing Company | Methods and systems of repairing a structure |
JP6042860B2 (ja) * | 2014-12-02 | 2016-12-14 | ファナック株式会社 | ロボットを用いて物品を移送する物品移送装置及び物品移送方法 |
JP6267157B2 (ja) * | 2015-05-29 | 2018-01-24 | ファナック株式会社 | 位置補正機能を有するロボットを備えた生産システム |
SG10201505560YA (en) * | 2015-07-15 | 2017-02-27 | Ndr Medical Technology Pte Ltd | A System And Method For Aligning An Elongated Tool To An Occluded Target |
WO2017044686A1 (en) * | 2015-09-09 | 2017-03-16 | Carbon Robotics, Inc. | Robotic arm system and object avoidance methods |
US10059003B1 (en) * | 2016-01-28 | 2018-08-28 | X Development Llc | Multi-resolution localization system |
JP6469069B2 (ja) * | 2016-12-13 | 2019-02-13 | ファナック株式会社 | 学習を容易化する機能を備えたロボット制御装置、及びロボット制御方法 |
US10682774B2 (en) * | 2017-12-12 | 2020-06-16 | X Development Llc | Sensorized robotic gripping device |
US11609544B2 (en) * | 2018-01-29 | 2023-03-21 | Shaper Tools, Inc. | Systems, methods and apparatus for guided tools with multiple positioning systems |
JP2018158439A (ja) * | 2018-03-15 | 2018-10-11 | 株式会社東芝 | 物体ハンドリング装置、制御装置、および較正方法 |
-
2020
- 2020-02-25 CN CN202080014916.6A patent/CN113439013B/zh active Active
- 2020-02-25 WO PCT/JP2020/007310 patent/WO2020175425A1/ja active Application Filing
- 2020-02-25 JP JP2021502233A patent/JP7228290B2/ja active Active
- 2020-02-25 US US17/431,485 patent/US20220134567A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013063474A (ja) * | 2011-09-15 | 2013-04-11 | Yaskawa Electric Corp | ロボットシステム及び撮像方法 |
JP5622250B1 (ja) * | 2013-11-08 | 2014-11-12 | スターテクノ株式会社 | 較正機能付きワーク加工装置 |
JP2017087325A (ja) * | 2015-11-06 | 2017-05-25 | キヤノン株式会社 | ロボット制御装置、ロボット制御方法、ロボット制御システムおよびコンピュータプログラム |
WO2018043525A1 (ja) * | 2016-09-02 | 2018-03-08 | 倉敷紡績株式会社 | ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法 |
JP2019018339A (ja) * | 2017-07-12 | 2019-02-07 | ファナック株式会社 | ロボットシステム |
Also Published As
Publication number | Publication date |
---|---|
US20220134567A1 (en) | 2022-05-05 |
CN113439013A (zh) | 2021-09-24 |
WO2020175425A1 (ja) | 2020-09-03 |
CN113439013B (zh) | 2024-05-14 |
JP7228290B2 (ja) | 2023-02-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6657469B2 (ja) | ロボットシステムの自動較正方法 | |
Sun et al. | Accurate robotic belt grinding of workpieces with complex geometries using relative calibration techniques | |
US9457470B2 (en) | Robot system and method for calibration | |
US9221176B2 (en) | Robot system and method for controlling the same | |
JP2020172017A (ja) | ロボット光センサのオートキャリブレーション | |
US20050273202A1 (en) | Method and device for improving the positioning accuracy of a manipulator | |
JP2016099257A (ja) | 情報処理装置及び情報処理方法 | |
US20140156072A1 (en) | Apparatus and method for measuring tool center point position of robot | |
JP2020128009A (ja) | ロボットを制御する方法 | |
JP2015136770A (ja) | 視覚センサのデータ作成システム及び検出シミュレーションシステム | |
JP2021059012A (ja) | 情報処理装置、情報処理方法及びロボットシステム | |
CN111982012A (zh) | 一种构件表面三维测量方法、装置及系统 | |
KR100644174B1 (ko) | 로봇 용접의 보정방법 | |
JP2018202542A (ja) | 計測装置、システム、制御方法及び物品の製造方法 | |
TW202222518A (zh) | 使用了機器人的3d印表機及機器人的控制裝置 | |
JP6825026B2 (ja) | 情報処理装置、情報処理方法及びロボットシステム | |
CN110154043B (zh) | 基于加工结果进行学习控制的机器人系统及其控制方法 | |
JPWO2020175425A1 (ja) | ロボットシステム、ロボットの制御装置、およびロボットの制御プログラム | |
JP2016159406A (ja) | ロボット制御装置、ロボット制御方法及びロボットシステム | |
CN111360789B (zh) | 工件加工的示教方法、控制方法及机器人示教系统 | |
JP4616853B2 (ja) | モデル加工方法およびモデル加工システム | |
US20230123629A1 (en) | 3d computer-vision system with variable spatial resolution | |
Zaki et al. | Trajectory planning for contact-based robotic applications by use of a 3D stereo depth camera | |
US20220402141A1 (en) | Method and apparatus for calibrating position of robot using 3d scanner | |
Chalus et al. | Calibration and using a laser profile scanner for 3D robotic welding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210706 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210721 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220823 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230131 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230206 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7228290 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |