JP6591507B2 - 同時運動学およびハンドアイ較正 - Google Patents
同時運動学およびハンドアイ較正 Download PDFInfo
- Publication number
- JP6591507B2 JP6591507B2 JP2017184395A JP2017184395A JP6591507B2 JP 6591507 B2 JP6591507 B2 JP 6591507B2 JP 2017184395 A JP2017184395 A JP 2017184395A JP 2017184395 A JP2017184395 A JP 2017184395A JP 6591507 B2 JP6591507 B2 JP 6591507B2
- Authority
- JP
- Japan
- Prior art keywords
- calibration parameters
- robot
- values
- machine vision
- calibration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 claims description 214
- 230000036544 posture Effects 0.000 claims description 163
- 238000000034 method Methods 0.000 claims description 94
- 230000009466 transformation Effects 0.000 claims description 89
- 238000007670 refining Methods 0.000 claims description 17
- 239000002131 composite material Substances 0.000 claims description 13
- 238000006243 chemical reaction Methods 0.000 claims description 12
- 238000000844 transformation Methods 0.000 claims description 11
- 238000004891 communication Methods 0.000 claims description 10
- 230000015572 biosynthetic process Effects 0.000 claims description 4
- 238000003786 synthesis reaction Methods 0.000 claims description 4
- 230000000007 visual effect Effects 0.000 claims description 2
- 230000006870 function Effects 0.000 description 74
- 238000005516 engineering process Methods 0.000 description 30
- 238000004590 computer program Methods 0.000 description 8
- 238000013519 translation Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- YLJREFDVOIBQDA-UHFFFAOYSA-N tacrine Chemical compound C1=CC=C2C(N)=C(CCCC3)C3=NC2=C1 YLJREFDVOIBQDA-UHFFFAOYSA-N 0.000 description 4
- 229960001685 tacrine Drugs 0.000 description 4
- 238000013507 mapping Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 102000006822 Agouti Signaling Protein Human genes 0.000 description 1
- 108010072151 Agouti Signaling Protein Proteins 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/401—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by control arrangements for measuring, e.g. calibration and initialisation, measuring workpiece for machining purposes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/04—Viewing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1692—Calibration of manipulator
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0014—Image feed-back for automatic industrial control, e.g. robot with camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39016—Simultaneous calibration of manipulator and camera
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39045—Camera on end effector detects reference pattern
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39057—Hand eye calibration, eye, camera on hand, end effector
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40607—Fixed camera to observe workspace, object, workpiece, global
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Robotics (AREA)
- Theoretical Computer Science (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Manufacturing & Machinery (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
本技術は、マシンビジョンシステムに関し、より具体的には、ロボット/運動ステージおよびハンドアイ較正パラメータの運動学的連鎖を同時に精緻化することによってマシンビジョンシステムを構成することに関する。
本発明は、例えば、以下を提供する。
(項目1)
マシンビジョンシステムであって、
ロボットと、
カメラと、
上記ロボットおよび上記カメラと通信する制御システムであって、
上記ロボットを複数の姿勢に移動させ、上記複数の姿勢の姿勢毎に、
上記カメラを用いて、較正標的上の1つまたはそれを上回る特徴の画像を捕捉し、
複数のロボット関節角度を捕捉する、ことと、
複数のロボット較正パラメータのための複数の初期値を得ることと、
上記複数のロボット較正パラメータのための複数の初期値と、上記複数の姿勢毎に捕捉された上記画像および上記複数のロボット関節角度とに基づいて、複数のハンドアイ較正パラメータのための複数の初期値を判定することと、
上記複数のハンドアイ較正パラメータのうちの1つまたはそれを上回るものおよび上記複数のロボット較正パラメータのうちの1つまたはそれを上回るものを精緻化し、コスト関数を最小限にすることによって、上記複数のハンドアイ較正パラメータのための複数の最終値および上記ロボット較正パラメータのための複数の最終値を判定することと
を行うように構成される、制御システムと
を備える、システム。
(項目2)
上記制御システムはさらに、
視覚誘導式ロボット用途のために、上記複数のハンドアイ較正パラメータのための複数の最終値および上記ロボット較正パラメータのための複数の最終値を使用するように構成される、上記項目に記載のマシンビジョンシステム。
(項目3)
上記制御システムはさらに、
上記ロボット較正パラメータのための複数の最終値を使用して、上記ロボットを移動させるように構成される、上記項目のいずれかに記載のマシンビジョンシステム。
(項目4)
上記コスト関数は、上記複数の姿勢の姿勢毎に、上記姿勢のために捕捉された画像内の特徴の観察される場所と上記特徴の予期される場所との間の差異を測定し、上記予期される場所は、上記複数のロボット較正パラメータのための第1の複数の値、上記複数のハンドアイ較正パラメータのための第2の複数の値、および上記姿勢のために捕捉された上記複数のロボット関節角度に基づいて判定される、上記項目のいずれかに記載のマシンビジョンシステム。
(項目5)
上記コスト関数は、上記複数の姿勢の姿勢毎に、合成変換と恒等変換との間の差異を測定し、上記合成変換は、第1の座標空間から第2の座標空間への第1の変換および上記第2の座標空間から上記第1の座標空間への第2の変換の合成であって、上記第1の変換および上記第2の変換は、上記複数のロボット較正パラメータのための第1の複数の値、上記複数のハンドアイ較正パラメータのための第2の複数の値、上記姿勢のための較正標的の複数の観察される特徴、および上記姿勢のために捕捉された上記複数のロボット関節角度に基づいて判定される、上記項目のいずれかに記載のマシンビジョンシステム。
(項目6)
上記コスト関数は、上記複数の姿勢の姿勢毎に、上記姿勢のために捕捉された上記複数のロボット関節角度のロボット関節角度と上記姿勢のための推定される関節角度との間の差異を測定し、上記推定される関節角度は、上記複数のロボット較正パラメータのための第1の複数の値、上記複数のハンドアイ較正パラメータのための第2の複数の値、および上記姿勢のための較正標的の複数の観察される特徴に基づいて判定される、上記項目のいずれかに記載のマシンビジョンシステム。
(項目7)
上記制御システムはさらに、非線形最小二乗法を使用して上記コスト関数を最小限にするように構成される、上記項目のいずれかに記載のマシンビジョンシステム。
(項目8)
上記制御システムは、上記複数のハンドアイ較正パラメータの全て未満および上記複数のロボット較正パラメータの全て未満を精緻化するように構成される、上記項目のいずれかに記載のマシンビジョンシステム。
(項目9)
上記複数のロボット較正パラメータは、上記ロボットのためのDenavit−Hartenbergパラメータを含む、上記項目のいずれかに記載のマシンビジョンシステム。
(項目10)
マシンビジョンシステム実装較正方法であって、
制御システムによって、ロボットを複数の姿勢に移動させ、上記複数の姿勢の姿勢毎に、
カメラによって、較正標的上の1つまたはそれを上回る特徴の画像を捕捉し、
上記制御システムによって、複数のロボット関節角度を捕捉する、ことと、
上記制御システムによって、複数のロボット較正パラメータのための複数の初期値を得ることと、
上記制御システムによって、上記複数のロボット較正パラメータのための複数の初期値と、上記複数の姿勢毎に捕捉された上記画像および上記複数のロボット関節角度とに基づいて、複数のハンドアイ較正パラメータのための複数の初期値を判定することと、
上記制御システムによって、上記複数のハンドアイ較正パラメータのうちの1つまたはそれを上回るものおよび上記複数のロボット較正パラメータのうちの1つまたはそれを上回るものを精緻化し、コスト関数を最小限にすることによって、上記複数のハンドアイ較正パラメータのための複数の最終値および上記複数のロボット較正パラメータのための複数の最終値を判定することと
を含む、方法。
(項目11)
上記コスト関数は、上記複数の姿勢の姿勢毎に、上記姿勢のために捕捉された画像内の特徴の観察される場所と上記特徴の予期される場所との間の差異を測定し、上記予期される場所は、上記複数のロボット較正パラメータのための第1の複数の値、上記複数のハンドアイ較正パラメータのための第2の複数の値、および上記姿勢のために捕捉された上記複数のロボット関節角度に基づいて判定される、上記項目に記載の方法。
(項目12)
上記コスト関数は、上記複数の姿勢の姿勢毎に、合成変換と恒等変換との間の差異を測定し、上記合成変換は、第1の座標空間から第2の座標空間への第1の変換および上記第2の座標空間から上記第1の座標空間への第2の変換の合成であって、上記第1の変換および上記第2の変換は、上記複数のロボット較正パラメータのための第1の複数の値、上記複数のハンドアイ較正パラメータのための第2の複数の値、上記姿勢のための較正標的の複数の観察される特徴、および上記姿勢のために捕捉された上記複数のロボット関節角度に基づいて判定される、上記項目のいずれかに記載の方法。
(項目13)
上記コスト関数は、上記複数の姿勢の姿勢毎に、上記姿勢のために捕捉された上記複数のロボット関節角度のロボット関節角度と上記姿勢のための推定される関節角度との間の差異を測定し、上記推定される関節角度は、上記複数のロボット較正パラメータのための第1の複数の値、上記複数のハンドアイ較正パラメータのための第2の複数の値、および上記姿勢のための較正標的の複数の観察される特徴に基づいて判定される、上記項目のいずれかに記載の方法。
(項目14)
非線形最小二乗法を使用して上記コスト関数を最小限にすることをさらに含む、上記項目のいずれかに記載の方法。
(項目15)
上記複数のハンドアイ較正パラメータの全て未満および上記複数のロボット較正パラメータの全て未満を精緻化することをさらに含む、上記項目のいずれかに記載の方法。
(項目16)
上記複数のロボット較正パラメータは、上記ロボットのためのDenavit−Hartenbergパラメータを含む、上記項目のいずれかに記載の方法。
(項目17)
マシンビジョンシステムであって、
運動ステージと、
カメラと、
上記運動ステージおよび上記カメラと通信する制御システムであって、
上記運動ステージを複数の姿勢に移動させ、上記複数の姿勢の姿勢毎に、
上記カメラを用いて、較正標的上の1つまたはそれを上回る特徴の画像を捕捉し、
上記運動ステージの複数のアクチュエータのための複数のエンコーダカウントを捕捉する、ことと、
複数の運動ステージ較正パラメータのための複数の初期値を得ることと、
上記複数の運動ステージ較正パラメータのための複数の初期値と、上記複数の姿勢毎に捕捉された上記画像および上記複数のエンコーダカウントとに基づいて、複数のハンドアイ較正パラメータのための複数の初期値を判定することと、
上記複数のハンドアイ較正パラメータのうちの1つまたはそれを上回るものおよび上記複数の運動ステージ較正パラメータのうちの1つまたはそれを上回るものを精緻化し、コスト関数を最小限にすることによって、上記複数のハンドアイ較正パラメータのための複数の最終値および上記運動ステージ較正パラメータのための複数の最終値を判定することと
を行うように構成される、制御システムと
を備える、マシンビジョンシステム。
(項目18)
上記制御システムはさらに、
視覚誘導式運動ステージ用途のために、上記複数のハンドアイ較正パラメータのための複数の最終値および上記運動ステージ較正パラメータのための複数の最終値を使用するように構成される、上記項目に記載のマシンビジョンシステム。
(項目19)
上記制御システムはさらに、
上記運動ステージ較正パラメータのための複数の最終値を使用して、上記運動ステージを移動させるように構成される、上記項目のいずれかに記載のマシンビジョンシステム。
(項目20)
上記コスト関数は、上記複数の姿勢の姿勢毎に、上記姿勢のために捕捉された画像内の特徴の観察される場所と上記特徴の予期される場所との間の差異を測定し、上記予期される場所は、上記複数の運動ステージ較正パラメータのための第1の複数の値、上記複数のハンドアイ較正パラメータのための第2の複数の値、および上記姿勢のために捕捉された上記複数のエンコーダカウントに基づいて判定される、上記項目のいずれかに記載のマシンビジョンシステム。
(項目21)
上記コスト関数は、上記複数の姿勢の姿勢毎に、上記姿勢のために捕捉された上記複数のエンコーダカウントのエンコーダカウントと上記姿勢のために推定されるエンコーダカウントとの間の差異を測定し、上記推定されるエンコーダカウントは、上記複数の運動ステージ較正パラメータのための第1の複数の値、上記複数のハンドアイ較正パラメータのための第2の複数の値、および上記姿勢のための較正標的の複数の観察される特徴に基づいて判定される、上記項目のいずれかに記載のマシンビジョンシステム。
(項目22)
上記制御システムはさらに、非線形最小二乗法を使用して上記コスト関数を最小限にするように構成される、上記項目のいずれかに記載のマシンビジョンシステム。
(項目23)
上記制御システムは、上記複数のハンドアイ較正パラメータの全て未満および上記複数の運動ステージ較正パラメータの全て未満を精緻化するように構成される、上記項目のいずれかに記載のマシンビジョンシステム。
(項目24)
上記複数の運動ステージ較正パラメータは、ローラ中心位置、ローラ半径、方向、ステップサイズ、ホームエンコーダカウント、およびアクチュエータのための受座の方向のうちの1つまたはそれを上回るものを含む、上記項目のいずれかに記載のマシンビジョンシステム。
(項目25)
マシンビジョンシステム実装較正方法であって、
制御システムによって、運動ステージを複数の姿勢に移動させ、上記複数の姿勢の姿勢毎に、
カメラによって、較正標的上の1つまたはそれを上回る特徴の画像を捕捉し、
上記制御システムによって、上記運動ステージの複数のアクチュエータのための複数のエンコーダカウントを捕捉する、ことと、
上記制御システムによって、複数の運動ステージ較正パラメータのための複数の初期値を得ることと、
上記制御システムによって、上記複数の運動ステージ較正パラメータのための複数の初期値と、上記複数の姿勢毎に捕捉された上記画像および上記複数のエンコーダカウントとに基づいて、複数のハンドアイ較正パラメータのための複数の初期値を判定することと、
上記制御システムによって、上記複数のハンドアイ較正パラメータのうちの1つまたはそれを上回るものおよび上記複数の運動ステージ較正パラメータのうちの1つまたはそれを上回るものを精緻化し、コスト関数を最小限にすることによって、上記複数のハンドアイ較正パラメータのための複数の最終値および上記運動ステージ較正パラメータのための複数の最終値を判定することと
含む、方法。
(項目26)
上記コスト関数は、上記複数の姿勢の姿勢毎に、上記姿勢のために捕捉された画像内の特徴の観察される場所と上記特徴の予期される場所との間の差異を測定し、上記予期される場所は、上記複数の運動ステージ較正パラメータのための第1の複数の値、上記複数のハンドアイ較正パラメータのための第2の複数の値、および上記姿勢のために捕捉された上記複数のエンコーダカウントに基づいて判定される、上記項目に記載の方法。
(項目27)
上記コスト関数は、上記複数の姿勢の姿勢毎に、上記姿勢のために捕捉された上記複数のエンコーダカウントのエンコーダカウントと上記姿勢のために推定されるエンコーダカウントとの間の差異を測定し、上記推定されるエンコーダカウントは、上記複数の運動ステージ較正パラメータのための第1の複数の値、上記複数のハンドアイ較正パラメータのための第2の複数の値、および上記姿勢のための較正標的の複数の観察される特徴に基づいて判定される、上記項目のいずれかに記載の方法。
(項目28)
非線形最小二乗法を使用して上記コスト関数を最小限にすることをさらに含む、上記項目のいずれかに記載の方法。
(項目29)
上記複数のハンドアイ較正パラメータの全て未満および上記複数の運動ステージ較正パラメータの全て未満を精緻化することをさらに含む、上記項目のいずれかに記載の方法。
(項目30)
上記複数の運動ステージ較正パラメータは、ローラ中心位置、ローラ半径、方向、ステップサイズ、ホームエンコーダカウント、およびアクチュエータのための受座の方向のうちの1つまたはそれを上回るものを含む、上記項目のいずれかに記載の方法。
(摘要)
説明されるのは、同時運動学およびハンドアイ較正のためのマシンビジョンシステムおよび方法である。マシンビジョンシステムは、ロボットまたは運動ステージと、制御システムと通信するカメラとを含む。制御システムは、ロボットまたは運動ステージをある姿勢に移動させ、姿勢毎に、較正標的特徴の画像と、ロボット関節角度または運動ステージエンコーダカウントとを捕捉するように構成される。制御システムは、ロボットまたは運動ステージ較正パラメータのための初期値を得て、ロボットまたは運動ステージ較正パラメータのための初期値、画像、および関節角度またはエンコーダカウントに基づいて、ハンドアイ較正パラメータのための初期値を判定するように構成される。制御システムは、ハンドアイ較正パラメータおよびロボットまたは運動ステージ較正パラメータを精緻化し、コスト関数を最小限にすることによって、ハンドアイ較正パラメータおよびロボットまたは運動ステージ較正パラメータのための最終値を判定するように構成される。
図1は、例示的マシンビジョンシステム100を図示する。マシンビジョンシステム100は、例えば、VGR用途のために使用されることができる。マシンビジョンシステム100は、その上に搭載されるカメラ110を伴うロボット105と、制御システム115とを含む。図1は、可動カメラ構成を図示する(例えば、カメラ110は、ロボット105のアーム上に搭載される)。依然として、図1を参照すると、特徴123を有する、較正標的120が、示される。カメラ110は、2次元CCDカメラセンサ、2次元CMOSカメラセンサ、または画像を生成するための任意の他のタイプのカメラセンサを含む、エリアスキャンカメラであることができる。制御システム115は、任意の処理デバイス(例えば、内蔵マシンビジョンプロセッサ、コンピューティングデバイス等)であることができる。
本技術は、較正パラメータ値を精緻化するための効率的技法を提供することによって、マシンビジョンシステムの改良された正確度を促進することができる。概して、較正パラメータは、当技術分野において周知であるように、ハンドアイ較正パラメータを含むことができる。ロボットを伴うマシンビジョンシステムの場合、較正パラメータは、ロボット較正パラメータを含むことができる。運動ステージを伴うマシンビジョンシステムの場合、較正パラメータは、運動ステージ較正パラメータを含むことができる。ロボット較正パラメータおよび/または運動ステージ較正パラメータは、運動学較正パラメータと称されることができる。ロボットに関して、ロボット較正パラメータは、例えば、ロボットの連結部および関節を説明するために使用される、Denavit−Hartenbergパラメータ(D−Hパラメータ)を含むことができる。別の実施例として、UVW運動ステージは、例えば、X方向に移動する2つのアクチュエータと、Y方向に移動する1つのアクチュエータとを含むことができる、運動ステージである。UVW運動ステージに関して、運動ステージ較正パラメータは、アクチュエータ毎に、ローラの中心位置と、ローラの半径と、アクチュエータの方向と、アクチュエータのステップサイズと、アクチュエータのホームエンコーダカウントと、受座の方向を含むことができる。さらに別の実施例として、XYシータ運動ステージは、例えば、X軸に沿った線形平行移動のためのアクチュエータと、Y軸に沿った線形平行移動のためのアクチュエータと、回転を提供するシータアクチュエータとを含むことができる、運動ステージである。XYシータ運動ステージに関して、運動ステージ較正パラメータは、XおよびYアクチュエータ毎の方向ならびにステップサイズと、ローラの中心位置および半径と、アクチュエータの方向ならびにステップサイズと、シータアクチュエータのための受座の方向とを含むことができる。より一般的には、本技術は、幾何学的にモデル化され得る、運動デバイスの較正のために使用されることができる。例えば、本技術は、運動デバイスの較正のために使用されることができ、その幾何学形状は、較正パラメータ値を用いて表されることができる。
本技術は、その仕様および他の条件からのロボットの相違によって生じる不正確性を最小限にすることによって、較正パラメータ値を精緻化することができる。本技術の例示的実施形態では、ロボット(例えば、ロボット105)は、複数の姿勢に移動され、姿勢毎に、マシンビジョンシステムは、較正標的(例えば、較正標的120)の画像(例えば、カメラ110を介して)と、その姿勢におけるロボットの関節角度とを捕捉する。初期較正パラメータ値が、判定されることができる。例えば、初期ロボット較正パラメータ値は、ロボットの仕様から得ることができる。初期ハンドアイ較正パラメータ値は、捕捉された画像および初期ロボット較正パラメータ値を使用して判定されることができる。初期ハンドアイ較正パラメータ値を判定するための較正機能性は、Cognex Corporation製Cognex Vision Library(R)等において市販されている。1つまたはそれを上回るロボット較正パラメータ値および1つまたはそれを上回るハンドアイ較正パラメータを含む、1つまたはそれを上回る初期較正パラメータ値が、次いで、最終較正パラメータ値を判定するために精緻化されることができる。例えば、非線形最適化方法を使用することによって、ロボット較正パラメータおよび関節角度を使用して判定され得る、ロボット運動と、マシンビジョンシステムによって観察される運動との間の全体的相違を最小限にする。最終較正パラメータ値は、次いで、マシンビジョンシステムによって使用され、ランタイムの間、ロボットを動作させることができる。例えば、最終ロボット較正パラメータ値は、ロボットをより正確に制御するために使用されることができる。最終ハンドアイ較正パラメータ値は、ランタイム時のマシンビジョンシステムの性能をさらに改良することができる。
図4は、本技術による、マシンビジョンシステムを較正する方法のフロー図400を描写する。描写される方法は、制御システム115によって行われることができる。ステップ405では、制御システム115は、ロボット105が複数の姿勢にあるときに、画像およびロボット関節角度を捕捉する。各姿勢において、制御システム115は、カメラ110に、特徴122のうちの1つまたはそれを上回るものを含有する、較正標的120の少なくとも一部の画像を捕捉させる。制御システム115はさらに、その姿勢におけるロボット105の各関節の角度を捕捉する。例えば、ロボット105は、各関節の角度を制御システム115に報告することができる。
ステップ410では、制御システム115は、初期較正パラメータ値を判定する。初期較正パラメータ値は、精緻化に先立って図3を参照して議論される変換を判定するために使用される値であることができる。以下により詳細に説明されるであろうように、これらの較正パラメータの値は、本技術に従って精緻化されることができる。図3の図示される実施例では、制御システム115は、ロボット105の仕様に基づいて、ロボット105のための初期ロボット較正パラメータ値を得ることができる。例えば、ロボット製造業者が、典型的には、これらの値を提供するであろう。これらの初期較正値および特定の姿勢におけるロボット105のための関節角度を使用して、制御システム115は、その姿勢におけるロボット105のための以下の変換を判定することができる:RobotBase3DFromJoint1、Joint1FromJoint2、Joint2FromJoint3、Joint3FromJoint4、Joint4FromJoint5、Joint5FromJoint6、およびJoint6FromHand3D。例えば、Joint1FromJoint2、Joint2FromJoint3、Joint3FromJoint4、Joint4FromJoint5、Joint5FromJoint6は、ロボット仕様およびその姿勢におけるロボット105の関節角度値によって提供されるD−H値に基づいて、Denavit−Hartenbergマトリクスを使用して判定されることができる。RobotBase3DFromJoint1は、ロボット仕様(例えば、ロボット105の寸法)に基づいて判定されることができる。Joint6FromHand3Dは、ロボット105のHand3D160のロボット仕様およびJoint6の関節角度値に基づいて判定されることができる。Joint6FromHand3Dは、J6 340(例えば、Joint 6座標系)におけるロボットハンド160の剛体変換を提供することができる。制御システム115は、これらの変換に基づいて、ロボット105の特定の姿勢のための合成変換RobotBase3DFromHand3Dを形成することができる。例えば、以下の方程式は、RobotBase3DFromHand3Dを提供する。
RobotBase3DFromHand3D=RobotBase3DFromJoint1*Joint1FromJoint2*Joint2FromJoint3*Joint3FromJoint4*Joint4FromJoint5*Joint5FromJoint6*Joint6FromHand3D
ステップ415では、制御システム115は、複数の較正パラメータを精緻化し、それらの較正パラメータのためのより正確な値を判定する。較正パラメータを精緻化するために、制御システム115は、コスト関数を最小限にする、較正パラメータ値を判定する。コスト関数を最小限にし、最終較正パラメータ値を判定するための技法は、非線形最小二乗法を含むことができる。当業者は、他の技法も使用されることができることを理解されるであろう。
MappedFeatureRaw2Dij=Raw2DFromCamera3D*CalPlate3DFromCamera3DAtPoseiEstimated−1*CalibrationTargetFeaturej
式中、
CalPlate3DFromCamera3DAtPoseiEstimated=CalPlate3DFromRobotBase3D*RobotBase3DFromHand3DAtPosei *Hand3DFromCamera3D
RobotBase3DFromHand3DAtPoseiは、姿勢iにおける関節角度値および初期較正パラメータ値(または連続的に精緻化される較正パラメータ値)を使用して姿勢iにおいて推定されるロボット姿勢である。
制御システム115は、次いで、観察される特徴場所とマップされた特徴場所との間の距離を算出することができる。コスト関数は、以下のように定義されることができる。
CalPlate3DFromCalPlate3DAtPosei=CalPlate3DFromRobotBase3D*RobotBase3DFromHand3DAtPosei *Hand3DFromCamera3D*Camera3DFromCalPlate3DAtPosei
式中、RobotBase3DFromHand3DAtPoseiは、姿勢iにおいて関節角度値および初期較正パラメータ値(または連続的に精緻化される較正パラメータ値)を使用して姿勢iにおける推定されるロボット姿勢である。
Camera3DFromCalPlate3DAtPoseiは、Raw2Dにおいて観察される特徴およびカメラ較正情報を使用することによって得られる。
制御システム115は、次いで、特徴場所とマップされた特徴場所との間の距離を算出することができる。コスト関数は、以下のように定義されることができる。
CalPlate3DfromCalPlate3DAtPosei.translation.lengthは、変換CalPlate3DfromCalPlate3DAtPoseiの平行移動成分の長さである。
CalPlate3DfromCalPlate3DAtPosei.rotationAngleは、変換CalPlate3DfromCalPlate3DAtPoseiの回転量である(例えば、回転は、回転軸の周囲の回転量として表されることができる)。
wは、平行移動および回転成分を平衡するための加重(例えば、スケール係数)である。
Hand3DFromHand3DAtPosei=Hand3DFromCamera3D*Camera3DFromCalPlate3DAtPosei *CalPlate3DFromRobotBase3D*RobotBase3DFromHand3DAtPosei
式中、
Hand3DFromCamera3D*Camera3DFromCalPlate3DAtPosei *CalPlate3DFromRobotBase3Dは、姿勢iにおいてカメラによって観察されるRobotBase3DFromHand3Dの逆数を表す(Camera3DFromCalPlate3DAtPoseiは、Raw2D内の観察される特徴およびカメラ較正情報を使用することによって得られる)。
Hand3DFromHand3DAtPoseiは、ロボット105のロボット較正パラメータに基づく姿勢とカメラ110からの画像に基づく推定される姿勢との間の差異を示す。較正パラメータが完全に正確である場合、Hand3DFromHand3DPoseiは、恒等変換となるであろう。コスト関数は、以下のように定義されることができる。
RobotBase3DFromHand3D_estimated=RobotBase3DFromCalPlate3D*CalPlate3DFromCamera3DAtPosei *Camera3DFromHand3D.
マシンビジョンシステム100のための図示される実施例では、精緻化され得る較正パラメータは、32のロボット較正パラメータ、すなわち、ロボット105の関節のための20のD−Hパラメータと、RobotBase3DFromJoint1のための6つのロボット較正パラメータと、Joint6FromHand3Dのための6つのロボット較正パラメータとを含む。較正パラメータはまた、Camera3DFromHand3Dのための6つのパラメータと、RobotBase3DFromCalPlate3Dのための6つのパラメータとを含み、較正パラメータの総数を44のパラメータにする。
本技術は、前述のものに類似するアプローチを使用することによって、運動ステージを含む、マシンビジョンシステムのための較正パラメータを精緻化することができることを理解されたい。本技術は、単一精緻化計算においてハンドアイ較正パラメータおよび運動ステージ較正パラメータを精緻化することができる。
再び、図4を参照して、描写される方法が、マシンビジョンシステム200の制御システム215によって行われることができる。ステップ405では、制御システムは、運動ステージ205が複数の姿勢にあるとき、画像およびアクチュエータエンコーダカウントを捕捉する。各姿勢において、制御システム215は、カメラに、1つまたはそれを上回る特徴を含有する較正標的220の少なくとも一部の画像を捕捉させる。制御システム215はさらに、各姿勢において、運動ステージ2015のアクチュエータ毎に、エンコーダカウントを捕捉する。
ステップ410では、制御システム215は、初期較正パラメータ値を判定する。初期較正パラメータ値は、精緻化に先立って図5を参照して議論される変換を判定するために使用される値であることができる。これらの較正パラメータの値は、本技術に従って精緻化されることができる。図4の図示される実施例では、制御システム215は、運動ステージ205の仕様に基づいて、運動ステージ205のための初期運動ステージ較正パラメータ値を得ることができる。例えば、運動ステージ製造業者が、典型的には、これらの値を提供するであろう。これらの初期較正値および特定の姿勢におけるエンコーダカウントを使用して、制御システム215は、変換Home2DFromStage2Dを判定することができる。
ステップ415では、制御システム215は、複数の較正パラメータを精緻化し、それらの較正パラメータのためのより正確な値を判定する。較正パラメータを精緻化するために、制御システム215は、コスト関数を最小限にする、較正パラメータを判定する。一般に、コスト関数は、運動ステージ205運動(例えば、運動ステージから読み取られた実際のエンコーダカウントから判定される)と観察されるカメラまたは較正標的運動(例えば、カメラによって捕捉された画像に基づく)の比較に基づくことができる。本技術の実施形態は、種々のコスト関数を使用することができる。
Posei’=Home2DFromCamera2D*Camera2DFromCalPlate2DAtPosei *Plate2DFromStage2D
式中、Camera2DFromCalPlate2DAtPoseiは、画像特徴およびカメラ較正情報から算出される。
MappedFeatureRaw2Dij=Raw2DFromCamera2D*CalPlate2DFromCamera2DAtPoseiEstimated−1*CalibrationTargetFeaturej
式中、CalPlate2DFromCamera2DAtPoseiEstimated=CalPlate2DFromStage2D*Home2DFromStage2DAtPosei −1*Home2DFromCamera2D
Home2DFromStage2DAtPoseiは、姿勢iにおいて運動ステージ205から読み取られたエンコーダカウントおよび初期較正パラメータ値(または連続的に精緻化される較正パラメータ値)に基づいて算出されることができる。制御システム115は、次いで、観察される特徴場所とマップされる特徴場所との間の距離を算出することができる。コスト関数は、以下のように定義されることができる。
CalPlate2DFromCalPlate2DAtPosei=CalPlate2DFromStage2D*Home2DFromStage2DAtPosei −1*Home2DFromCamera2D*Camera2DFromPlate2DAtPosei
式中、Home2DFromStage2DAtPoseiは、姿勢iにおいて運動ステージ205から読み取られたエンコーダカウントおよび初期較正パラメータ値(または連続的に精緻化される較正パラメータ値)に基づいて算出されることができる。
Camera2DFromCalPlate2DAtPoseiは、Raw2D内の観察される特徴およびカメラ較正情報を使用することによって得られる。
Claims (30)
- マシンビジョンシステムであって、
ロボットと、
カメラと、
前記ロボットおよび前記カメラと通信する制御システムであって、前記制御システムは、
前記ロボットを複数の姿勢に移動させ、前記複数の姿勢の姿勢毎に、
前記カメラを用いて、較正標的上の1つ以上の特徴の画像を捕捉すること、および、
複数のロボット関節角度を捕捉することを実行することと、
複数のロボット較正パラメータのための複数の初期値を得ることと、
前記複数のロボット較正パラメータのための複数の初期値と、前記複数の姿勢の姿勢毎に捕捉された前記画像および前記複数のロボット関節角度とに基づいて、複数のハンドアイ較正パラメータのための複数の初期値を判定することであって、前記判定することは、各々が前記ロボットの特徴に関連付けられた複数の座標空間間の前記複数のロボット較正パラメータのための複数の初期値の変換を判定することを含む、ことと、
前記複数の座標空間間の前記複数のロボット較正パラメータのための複数の初期値の前記変換のうちの少なくとも1つを使用して、前記複数のハンドアイ較正パラメータのうちの1つ以上および前記複数のロボット較正パラメータのうちの1つ以上を精緻化し、コスト関数を最小限にすることによって、前記複数のハンドアイ較正パラメータのための複数の最終値および前記ロボット較正パラメータのための複数の最終値を判定することと
を行うように構成される、制御システムと
を備える、マシンビジョンシステム。 - 前記制御システムはさらに、
視覚誘導式ロボット用途のために、前記複数のハンドアイ較正パラメータのための複数の最終値および前記ロボット較正パラメータのための複数の最終値を使用するように構成される、請求項1に記載のマシンビジョンシステム。 - 前記制御システムはさらに、
前記ロボット較正パラメータのための複数の最終値を使用して、前記ロボットを移動させるように構成される、請求項1に記載のマシンビジョンシステム。 - 前記コスト関数は、前記複数の姿勢の姿勢毎に、前記姿勢のために捕捉された画像内の特徴の観察される場所と前記特徴の予期される場所との間の差異を測定し、前記予期される場所は、前記複数のロボット較正パラメータのための第1の複数の値、前記複数のハンドアイ較正パラメータのための第2の複数の値、および前記姿勢のために捕捉された前記複数のロボット関節角度に基づいて判定される、請求項1に記載のマシンビジョンシステム。
- 前記コスト関数は、前記複数の姿勢の姿勢毎に、合成変換と恒等変換との間の差異を測定し、前記合成変換は、第1の座標空間から第2の座標空間への第1の変換および前記第2の座標空間から前記第1の座標空間への第2の変換の合成であり、前記第1の変換および前記第2の変換は、前記複数のロボット較正パラメータのための第1の複数の値、前記複数のハンドアイ較正パラメータのための第2の複数の値、前記姿勢のための較正標的の複数の観察される特徴、および前記姿勢のために捕捉された前記複数のロボット関節角度に基づいて判定される、請求項1に記載のマシンビジョンシステム。
- 前記コスト関数は、前記複数の姿勢の姿勢毎に、前記姿勢のために捕捉された前記複数のロボット関節角度のロボット関節角度と前記姿勢のための推定される関節角度との間の差異を測定し、前記推定される関節角度は、前記複数のロボット較正パラメータのための第1の複数の値、前記複数のハンドアイ較正パラメータのための第2の複数の値、および前記姿勢のための較正標的の複数の観察される特徴に基づいて判定される、請求項1に記載のマシンビジョンシステム。
- 前記制御システムはさらに、非線形最小二乗法を使用して前記コスト関数を最小限にするように構成される、請求項1に記載のマシンビジョンシステム。
- 前記制御システムは、前記複数のハンドアイ較正パラメータの全て未満および前記複数のロボット較正パラメータの全て未満を精緻化するように構成される、請求項1に記載のマシンビジョンシステム。
- 前記複数のロボット較正パラメータは、前記ロボットのためのDenavit−Hartenbergパラメータを含む、請求項1に記載のマシンビジョンシステム。
- マシンビジョンシステム実装較正方法であって、
制御システムによって、ロボットを複数の姿勢に移動させ、前記複数の姿勢の姿勢毎に、
カメラによって、較正標的上の1つ以上の特徴の画像を捕捉すること、および、
前記制御システムによって、複数のロボット関節角度を捕捉することを実行することと、
前記制御システムによって、複数のロボット較正パラメータのための複数の初期値を得ることと、
前記制御システムによって、前記複数のロボット較正パラメータのための複数の初期値と、前記複数の姿勢の姿勢毎に捕捉された前記画像および前記複数のロボット関節角度とに基づいて、複数のハンドアイ較正パラメータのための複数の初期値を判定することであって、前記判定することは、各々が前記ロボットの特徴に関連付けられた複数の座標空間間の前記複数のロボット較正パラメータのための複数の初期値の変換を判定することを含む、ことと、
前記制御システムによって、前記複数の座標空間間の前記複数のロボット較正パラメータのための複数の初期値の前記変換のうちの少なくとも1つを使用して、前記複数のハンドアイ較正パラメータのうちの1つ以上および前記複数のロボット較正パラメータのうちの1つ以上を精緻化し、コスト関数を最小限にすることによって、前記複数のハンドアイ較正パラメータのための複数の最終値および前記複数のロボット較正パラメータのための複数の最終値を判定することと
を含む、方法。 - 前記コスト関数は、前記複数の姿勢の姿勢毎に、前記姿勢のために捕捉された画像内の特徴の観察される場所と前記特徴の予期される場所との間の差異を測定し、前記予期される場所は、前記複数のロボット較正パラメータのための第1の複数の値、前記複数のハンドアイ較正パラメータのための第2の複数の値、および前記姿勢のために捕捉された前記複数のロボット関節角度に基づいて判定される、請求項10に記載の方法。
- 前記コスト関数は、前記複数の姿勢の姿勢毎に、合成変換と恒等変換との間の差異を測定し、前記合成変換は、第1の座標空間から第2の座標空間への第1の変換および前記第2の座標空間から前記第1の座標空間への第2の変換の合成であり、前記第1の変換および前記第2の変換は、前記複数のロボット較正パラメータのための第1の複数の値、前記複数のハンドアイ較正パラメータのための第2の複数の値、前記姿勢のための較正標的の複数の観察される特徴、および前記姿勢のために捕捉された前記複数のロボット関節角度に基づいて判定される、請求項10に記載の方法。
- 前記コスト関数は、前記複数の姿勢の姿勢毎に、前記姿勢のために捕捉された前記複数のロボット関節角度のロボット関節角度と前記姿勢のための推定される関節角度との間の差異を測定し、前記推定される関節角度は、前記複数のロボット較正パラメータのための第1の複数の値、前記複数のハンドアイ較正パラメータのための第2の複数の値、および前記姿勢のための較正標的の複数の観察される特徴に基づいて判定される、請求項10に記載の方法。
- 非線形最小二乗法を使用して前記コスト関数を最小限にすることをさらに含む、請求項10に記載の方法。
- 前記複数のハンドアイ較正パラメータの全て未満および前記複数のロボット較正パラメータの全て未満を精緻化することをさらに含む、請求項10に記載の方法。
- 前記複数のロボット較正パラメータは、前記ロボットのためのDenavit−Hartenbergパラメータを含む、請求項10に記載の方法。
- マシンビジョンシステムであって、
運動ステージと、
カメラと、
前記運動ステージおよび前記カメラと通信する制御システムであって、前記制御システムは、
前記運動ステージを複数の姿勢に移動させ、前記複数の姿勢の姿勢毎に、
前記カメラを用いて、較正標的上の1つ以上の特徴の画像を捕捉すること、および、
前記運動ステージの複数のアクチュエータのための複数のエンコーダカウントを捕捉することを実行することと、
複数の運動ステージ較正パラメータのための複数の初期値を得ることと、
前記複数の運動ステージ較正パラメータのための複数の初期値と、前記複数の姿勢の姿勢毎に捕捉された前記画像および前記複数のエンコーダカウントとに基づいて、複数のハンドアイ較正パラメータのための複数の初期値を判定することであって、前記判定することは、各々が前記運動ステージの特徴に関連付けられた複数の座標空間間の前記複数の運動ステージ較正パラメータのための複数の初期値の変換を判定することを含む、ことと、
前記複数の座標空間間の前記複数の運動ステージ較正パラメータのための複数の初期値の前記変換のうちの少なくとも1つを使用して、前記複数のハンドアイ較正パラメータのうちの1つ以上および前記複数の運動ステージ較正パラメータのうちの1つ以上を精緻化し、コスト関数を最小限にすることによって、前記複数のハンドアイ較正パラメータのための複数の最終値および前記運動ステージ較正パラメータのための複数の最終値を判定することと
を行うように構成される、制御システムと
を備える、マシンビジョンシステム。 - 前記制御システムはさらに、
視覚誘導式運動ステージ用途のために、前記複数のハンドアイ較正パラメータのための複数の最終値および前記運動ステージ較正パラメータのための複数の最終値を使用するように構成される、請求項17に記載のマシンビジョンシステム。 - 前記制御システムはさらに、
前記運動ステージ較正パラメータのための複数の最終値を使用して、前記運動ステージを移動させるように構成される、請求項17に記載のマシンビジョンシステム。 - 前記コスト関数は、前記複数の姿勢の姿勢毎に、前記姿勢のために捕捉された画像内の特徴の観察される場所と前記特徴の予期される場所との間の差異を測定し、前記予期される場所は、前記複数の運動ステージ較正パラメータのための第1の複数の値、前記複数のハンドアイ較正パラメータのための第2の複数の値、および前記姿勢のために捕捉された前記複数のエンコーダカウントに基づいて判定される、請求項17に記載のマシンビジョンシステム。
- 前記コスト関数は、前記複数の姿勢の姿勢毎に、前記姿勢のために捕捉された前記複数のエンコーダカウントのエンコーダカウントと前記姿勢のための推定されるエンコーダカウントとの間の差異を測定し、前記推定されるエンコーダカウントは、前記複数の運動ステージ較正パラメータのための第1の複数の値、前記複数のハンドアイ較正パラメータのための第2の複数の値、および前記姿勢のための較正標的の複数の観察される特徴に基づいて判定される、請求項17に記載のマシンビジョンシステム。
- 前記制御システムはさらに、非線形最小二乗法を使用して前記コスト関数を最小限にするように構成される、請求項17に記載のマシンビジョンシステム。
- 前記制御システムは、前記複数のハンドアイ較正パラメータの全て未満および前記複数の運動ステージ較正パラメータの全て未満を精緻化するように構成される、請求項17に記載のマシンビジョンシステム。
- 前記複数の運動ステージ較正パラメータは、ローラ中心位置、ローラ半径、方向、ステップサイズ、ホームエンコーダカウント、およびアクチュエータのための受座の方向のうちの1つ以上を含む、請求項17に記載のマシンビジョンシステム。
- マシンビジョンシステム実装較正方法であって、
制御システムによって、運動ステージを複数の姿勢に移動させ、前記複数の姿勢の姿勢毎に、
カメラによって、較正標的上の1つ以上の特徴の画像を捕捉すること、および、
前記制御システムによって、前記運動ステージの複数のアクチュエータのための複数のエンコーダカウントを捕捉することを実行することと、
前記制御システムによって、複数の運動ステージ較正パラメータのための複数の初期値を得ることと、
前記制御システムによって、前記複数の運動ステージ較正パラメータのための複数の初期値と、前記複数の姿勢の姿勢毎に捕捉された前記画像および前記複数のエンコーダカウントとに基づいて、複数のハンドアイ較正パラメータのための複数の初期値を判定することであって、前記判定することは、各々が前記運動ステージの特徴に関連付けられた複数の座標空間間の前記複数の運動ステージ較正パラメータのための複数の初期値の変換を判定することを含む、ことと、
前記制御システムによって、前記複数の座標空間間の前記複数の運動ステージ較正パラメータのための複数の初期値の前記変換のうちの少なくとも1つを使用して、前記複数のハンドアイ較正パラメータのうちの1つ以上および前記複数の運動ステージ較正パラメータのうちの1つ以上を精緻化し、コスト関数を最小限にすることによって、前記複数のハンドアイ較正パラメータのための複数の最終値および前記運動ステージ較正パラメータのための複数の最終値を判定することと
含む、方法。 - 前記コスト関数は、前記複数の姿勢の姿勢毎に、前記姿勢のために捕捉された画像内の特徴の観察される場所と前記特徴の予期される場所との間の差異を測定し、前記予期される場所は、前記複数の運動ステージ較正パラメータのための第1の複数の値、前記複数のハンドアイ較正パラメータのための第2の複数の値、および前記姿勢のために捕捉された前記複数のエンコーダカウントに基づいて判定される、請求項25に記載の方法。
- 前記コスト関数は、前記複数の姿勢の姿勢毎に、前記姿勢のために捕捉された前記複数のエンコーダカウントのエンコーダカウントと前記姿勢のための推定されるエンコーダカウントとの間の差異を測定し、前記推定されるエンコーダカウントは、前記複数の運動ステージ較正パラメータのための第1の複数の値、前記複数のハンドアイ較正パラメータのための第2の複数の値、および前記姿勢のための較正標的の複数の観察される特徴に基づいて判定される、請求項25に記載の方法。
- 非線形最小二乗法を使用して前記コスト関数を最小限にすることをさらに含む、請求項25に記載の方法。
- 前記複数のハンドアイ較正パラメータの全て未満および前記複数の運動ステージ較正パラメータの全て未満を精緻化することをさらに含む、請求項25に記載の方法。
- 前記複数の運動ステージ較正パラメータは、ローラ中心位置、ローラ半径、方向、ステップサイズ、ホームエンコーダカウント、およびアクチュエータのための受座の方向のうちの1つ以上を含む、請求項25に記載の方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/278,156 | 2016-09-28 | ||
US15/278,156 US10076842B2 (en) | 2016-09-28 | 2016-09-28 | Simultaneous kinematic and hand-eye calibration |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018051758A JP2018051758A (ja) | 2018-04-05 |
JP6591507B2 true JP6591507B2 (ja) | 2019-10-16 |
Family
ID=61564377
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017184395A Active JP6591507B2 (ja) | 2016-09-28 | 2017-09-26 | 同時運動学およびハンドアイ較正 |
Country Status (5)
Country | Link |
---|---|
US (3) | US10076842B2 (ja) |
JP (1) | JP6591507B2 (ja) |
KR (1) | KR102093165B1 (ja) |
CN (1) | CN107871328B (ja) |
DE (1) | DE102017217142B4 (ja) |
Families Citing this family (65)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10076842B2 (en) * | 2016-09-28 | 2018-09-18 | Cognex Corporation | Simultaneous kinematic and hand-eye calibration |
CN110463182B (zh) | 2017-03-31 | 2021-07-13 | 松下知识产权经营株式会社 | 摄像系统以及校正方法 |
EP3606038B1 (en) * | 2017-03-31 | 2021-12-08 | Panasonic Intellectual Property Management Co., Ltd. | Imaging system and correction method |
US20190328465A1 (en) * | 2018-04-30 | 2019-10-31 | Aih Llc | System and method for real image view and tracking guided positioning for a mobile radiology or medical device |
CN108772839B (zh) * | 2018-06-25 | 2021-07-20 | 中国人民解放军第二军医大学 | 主从操作与人机一体化系统 |
CN109079778A (zh) * | 2018-08-07 | 2018-12-25 | 珠海格力电器股份有限公司 | 机器人调零系统及方法 |
CN109249392B (zh) * | 2018-08-31 | 2021-03-23 | 先临三维科技股份有限公司 | 工件抓取系统的校准方法、标定件、装置、设备和介质 |
WO2020047713A1 (en) * | 2018-09-03 | 2020-03-12 | Abb Schweiz Ag | Method and apparatus for managing robot system |
WO2020055903A1 (en) * | 2018-09-10 | 2020-03-19 | Fanuc America Corporation | Robot calibration for ar and digital twin |
TWI696529B (zh) * | 2018-11-30 | 2020-06-21 | 財團法人金屬工業研究發展中心 | 自動定位方法以及自動控制裝置 |
JP7305951B2 (ja) * | 2018-12-14 | 2023-07-11 | ニデック株式会社 | キャリブレーション装置及びキャリブレーション方法 |
CN109807937B (zh) * | 2018-12-28 | 2020-10-27 | 北京信息科技大学 | 一种基于自然场景的机器人手眼标定方法 |
US11911914B2 (en) | 2019-01-28 | 2024-02-27 | Cognex Corporation | System and method for automatic hand-eye calibration of vision system for robot motion |
CN111496773B (zh) * | 2019-01-30 | 2023-05-02 | 北京京东乾石科技有限公司 | 一种调整机器人机械参数的方法和装置 |
US11254019B2 (en) * | 2019-03-05 | 2022-02-22 | The Boeing Company | Automatic calibration for a robot optical sensor |
US10369698B1 (en) * | 2019-03-07 | 2019-08-06 | Mujin, Inc. | Method and system for performing automatic camera calibration for robot control |
US10399227B1 (en) * | 2019-03-29 | 2019-09-03 | Mujin, Inc. | Method and control system for verifying and updating camera calibration for robot control |
US10906184B2 (en) | 2019-03-29 | 2021-02-02 | Mujin, Inc. | Method and control system for verifying and updating camera calibration for robot control |
CN110238849B (zh) * | 2019-06-13 | 2021-11-12 | 深圳市汇川技术股份有限公司 | 机器人手眼标定方法及装置 |
WO2021012124A1 (zh) * | 2019-07-19 | 2021-01-28 | 西门子(中国)有限公司 | 机器人手眼标定方法、装置、计算设备、介质以及产品 |
CN110480658B (zh) * | 2019-08-15 | 2022-10-25 | 同济大学 | 一种融合视觉自标定的六轴机器人控制系统 |
KR102217282B1 (ko) * | 2019-08-22 | 2021-02-18 | (주)인스케이프 | Tof 기능을 포함하는 카메라 모듈의 검사 장치 |
CN110842914B (zh) * | 2019-10-15 | 2022-09-23 | 上海交通大学 | 基于差分进化算法的手眼标定参数辨识方法、系统及介质 |
CN110695770A (zh) * | 2019-10-21 | 2020-01-17 | 上海维宏电子科技股份有限公司 | 视觉定位校准的方法及相应的数控加工的方法 |
KR102220173B1 (ko) * | 2019-11-01 | 2021-02-25 | 주식회사 뉴로메카 | 로봇 비전 시스템을 위한 자동 캘리브레이션 방법 및 장치 |
US20220402141A1 (en) * | 2019-11-15 | 2022-12-22 | Cmes Inc. | Method and apparatus for calibrating position of robot using 3d scanner |
KR102424378B1 (ko) * | 2019-11-15 | 2022-07-22 | 주식회사 씨메스 | 3차원 스캐너를 이용한 로봇의 위치 보정 방법 및 장치 |
CN110930442B (zh) * | 2019-11-26 | 2020-07-31 | 广东技术师范大学 | 基于标定块的机器人手眼标定中关键点位置确定方法与装置 |
CN110842901B (zh) * | 2019-11-26 | 2021-01-15 | 广东技术师范大学 | 基于一种新型三维标定块的机器人手眼标定方法与装置 |
US11919170B2 (en) * | 2019-12-13 | 2024-03-05 | Edda Technology, Inc. | Fast method for robot path planning with obstacle avoidance |
CN113043268A (zh) * | 2019-12-27 | 2021-06-29 | 沈阳新松机器人自动化股份有限公司 | 机器人手眼标定方法、装置、终端、系统及存储介质 |
CN111113490B (zh) * | 2019-12-31 | 2021-11-23 | 深圳市远弗科技有限公司 | 一种视觉机器人大规模客制化的自动化校准系统及方法 |
CN111152223A (zh) * | 2020-01-09 | 2020-05-15 | 埃夫特智能装备股份有限公司 | 一种全自动机器人手眼标定方法 |
CN111482964A (zh) * | 2020-04-17 | 2020-08-04 | 上海智殷自动化科技有限公司 | 一种新的机器人手眼标定方法 |
CN111667539B (zh) * | 2020-06-08 | 2023-08-29 | 武汉唯理科技有限公司 | 一种相机标定及平面测量方法 |
CN111823230B (zh) * | 2020-06-19 | 2022-01-07 | 山东科技大学 | 一种基于Scara机器人的非固定式手眼关系标定方法 |
CN111872922B (zh) * | 2020-07-29 | 2021-09-03 | 贵州电网有限责任公司 | 基于3d视觉传感器的三自由度并联机器人手眼标定方法 |
US20220134566A1 (en) * | 2020-11-04 | 2022-05-05 | X Development Llc | Optimizing calibration with constraints between different coordinate frames |
CN114589682B (zh) * | 2020-12-04 | 2023-08-18 | 长春理工大学 | 一种机器人手眼自动标定的迭代方法 |
CN112692840A (zh) * | 2020-12-10 | 2021-04-23 | 安徽巨一科技股份有限公司 | 一种基于机器视觉配合机械手定位引导和标定方法 |
CN114643577B (zh) * | 2020-12-18 | 2023-07-14 | 沈阳新松机器人自动化股份有限公司 | 一种通用型机器人视觉自动标定装置和方法 |
CN112743546B (zh) * | 2020-12-29 | 2022-03-29 | 华南理工大学 | 机器人手眼标定位姿选择方法、装置、机器人系统及介质 |
KR20220099440A (ko) | 2021-01-06 | 2022-07-13 | 이지윤 | 동작 인식 카메라를 이용한 운동 교정 소프트웨어 |
CN112792814B (zh) * | 2021-01-21 | 2022-06-10 | 珞石(北京)科技有限公司 | 基于视觉标志的机械臂零点标定方法 |
US20220264072A1 (en) * | 2021-02-12 | 2022-08-18 | Sony Group Corporation | Auto-calibrating n-configuration volumetric camera capture array |
US11508089B2 (en) * | 2021-03-05 | 2022-11-22 | Black Sesame Technologies Inc. | LiDAR assisted wheel encoder to camera calibration |
CN113119083B (zh) * | 2021-03-19 | 2022-05-06 | 深圳市优必选科技股份有限公司 | 一种机器人标定方法、装置、机器人及存储介质 |
CN113070879B (zh) * | 2021-03-29 | 2022-03-29 | 北京锐智金联科技有限公司 | 可移动设备 |
CN113172636B (zh) * | 2021-06-29 | 2021-11-02 | 深圳市越疆科技有限公司 | 一种自动手眼标定方法、装置及存储介质 |
CN113313772B (zh) * | 2021-07-28 | 2021-10-15 | 浙江华睿科技股份有限公司 | 一种标定方法、装置、电子设备及存储介质 |
CN113681559B (zh) * | 2021-08-24 | 2023-01-03 | 宁波光雷睿融智能系统有限公司 | 一种基于标准圆柱的线激光扫描机器人手眼标定方法 |
CN113733088B (zh) * | 2021-09-07 | 2024-05-14 | 河南大学 | 一种基于双目视觉的机械臂运动学自标定方法 |
CN113787522B (zh) * | 2021-10-12 | 2022-08-26 | 华侨大学 | 消除机械臂累积误差的手眼标定方法 |
CN114029946A (zh) * | 2021-10-14 | 2022-02-11 | 五邑大学 | 一种基于3d光栅引导机器人定位抓取的方法、装置及设备 |
CN114516048B (zh) * | 2022-02-21 | 2024-01-09 | 乐聚(深圳)机器人技术有限公司 | 机器人的零点调试方法、装置、控制器及存储介质 |
CN114619489A (zh) * | 2022-04-01 | 2022-06-14 | 西南交通大学 | 一种基于图像处理的机械臂搬运物体坐标识别与修正系统及方法 |
CN114589698B (zh) * | 2022-04-07 | 2023-06-06 | 北京信息科技大学 | 基于多目标视觉测量和机器学习的机械臂无模型实时标定方法及装置 |
CN114700989B (zh) * | 2022-04-24 | 2024-08-27 | 安吉八塔机器人有限公司 | 一种平面相机自动调平装置及其控制方法 |
CN115008452B (zh) * | 2022-05-12 | 2023-01-31 | 兰州大学 | 一种机械臂控制方法及其系统、电子设备、存储介质 |
US20240042598A1 (en) * | 2022-08-05 | 2024-02-08 | Mingfeng ZHANG | Method for Simultaneous Robot Kinematic and Hand-Eye Calibration |
US20240144558A1 (en) * | 2022-10-27 | 2024-05-02 | Capital One Services, Llc | Generating video streams to depict bot performance during an automation run |
CN116079697B (zh) * | 2022-12-23 | 2024-05-28 | 北京纳通医用机器人科技有限公司 | 一种基于图像的单目视觉伺服方法、装置、设备及介质 |
CN115861445B (zh) * | 2022-12-23 | 2023-07-04 | 广东工业大学 | 一种基于标定板三维点云的手眼标定方法 |
CN116038720B (zh) * | 2023-04-03 | 2023-08-11 | 广东工业大学 | 一种基于点云配准的手眼标定方法、装置及设备 |
CN118655825A (zh) * | 2024-08-21 | 2024-09-17 | 四川汇达未来科技有限公司 | 基于图像数据处理的运动控制视觉校准系统 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1999012082A1 (en) * | 1997-09-04 | 1999-03-11 | Dynalog, Inc. | Method for calibration of a robot inspection system |
US5978080A (en) * | 1997-09-25 | 1999-11-02 | Cognex Corporation | Machine vision methods using feedback to determine an orientation, pixel width and pixel height of a field of view |
KR100468857B1 (ko) * | 2002-11-21 | 2005-01-29 | 삼성전자주식회사 | 2차원 형상에 대한 투사 불변형 표현자를 이용한핸드/아이 캘리브레이션 방법 |
JP3946716B2 (ja) | 2004-07-28 | 2007-07-18 | ファナック株式会社 | ロボットシステムにおける3次元視覚センサの再校正方法及び装置 |
CN100524108C (zh) * | 2007-11-19 | 2009-08-05 | 北京理工大学 | 一种基于小波神经网络的视觉反馈控制方法 |
US9393694B2 (en) | 2010-05-14 | 2016-07-19 | Cognex Corporation | System and method for robust calibration between a machine vision system and a robot |
CN102294695A (zh) * | 2010-06-25 | 2011-12-28 | 鸿富锦精密工业(深圳)有限公司 | 机器人标定方法及标定系统 |
JP5371927B2 (ja) * | 2010-10-27 | 2013-12-18 | 三菱電機株式会社 | 座標系校正方法及びロボットシステム |
RU2455676C2 (ru) * | 2011-07-04 | 2012-07-10 | Общество с ограниченной ответственностью "ТРИДИВИ" | Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления |
JP5991121B2 (ja) | 2012-09-28 | 2016-09-14 | 株式会社デンソーウェーブ | キャリブレーション装置、および撮像装置のキャリブレーション方法 |
JP6108860B2 (ja) * | 2013-02-14 | 2017-04-05 | キヤノン株式会社 | ロボットシステム及びロボットシステムの制御方法 |
US10032273B2 (en) * | 2013-03-15 | 2018-07-24 | Cognex Corporation | Machine vision system calibration using inaccurate calibration targets |
US9457470B2 (en) * | 2013-04-05 | 2016-10-04 | Abb Technology Ltd | Robot system and method for calibration |
JP6468741B2 (ja) * | 2013-07-22 | 2019-02-13 | キヤノン株式会社 | ロボットシステム及びロボットシステムの校正方法 |
JP6429473B2 (ja) * | 2014-03-20 | 2018-11-28 | キヤノン株式会社 | ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体 |
US9193073B1 (en) | 2014-10-15 | 2015-11-24 | Quanta Storage Inc. | Robot calibration apparatus for calibrating a robot arm |
CN105157725B (zh) * | 2015-07-29 | 2018-06-29 | 华南理工大学 | 一种二维激光视觉传感器和机器人的手眼标定方法 |
US10076842B2 (en) * | 2016-09-28 | 2018-09-18 | Cognex Corporation | Simultaneous kinematic and hand-eye calibration |
-
2016
- 2016-09-28 US US15/278,156 patent/US10076842B2/en active Active
-
2017
- 2017-09-26 JP JP2017184395A patent/JP6591507B2/ja active Active
- 2017-09-27 DE DE102017217142.1A patent/DE102017217142B4/de active Active
- 2017-09-27 KR KR1020170125399A patent/KR102093165B1/ko active IP Right Grant
- 2017-09-28 CN CN201710896174.4A patent/CN107871328B/zh active Active
-
2018
- 2018-09-17 US US16/133,324 patent/US20190015991A1/en not_active Abandoned
-
2019
- 2019-06-21 US US16/448,925 patent/US10864639B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
KR20180035172A (ko) | 2018-04-05 |
CN107871328A (zh) | 2018-04-03 |
CN107871328B (zh) | 2021-08-24 |
US20190015991A1 (en) | 2019-01-17 |
JP2018051758A (ja) | 2018-04-05 |
KR102093165B1 (ko) | 2020-03-25 |
DE102017217142A1 (de) | 2018-03-29 |
US20180089831A1 (en) | 2018-03-29 |
US20190308326A1 (en) | 2019-10-10 |
US10864639B2 (en) | 2020-12-15 |
US10076842B2 (en) | 2018-09-18 |
DE102017217142B4 (de) | 2019-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6591507B2 (ja) | 同時運動学およびハンドアイ較正 | |
US11077557B2 (en) | System and method for robust calibration between a machine vision system and a robot | |
CN109153125B (zh) | 用于定向工业机器人的方法和工业机器人 | |
JP6180086B2 (ja) | 情報処理装置及び情報処理方法 | |
CN104889973B (zh) | 机械手、机械手系统、控制装置以及控制方法 | |
JP2018169403A (ja) | 案内された組立環境におけるマシンビジョン座標空間を結合するためのシステム及び方法 | |
JP2015199155A (ja) | 情報処理装置および情報処理方法、プログラム | |
JP2013036988A (ja) | 情報処理装置及び情報処理方法 | |
JP2014014912A (ja) | ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム | |
JP2017170571A (ja) | ロボット、ロボット制御装置、及びロボットシステム | |
JP6626338B2 (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
JP2015212644A (ja) | 情報処理装置およびその方法、計測装置、並びに、作業装置 | |
JP7427370B2 (ja) | 撮像装置、画像処理装置、画像処理方法、撮像装置の校正方法、ロボット装置、ロボット装置を用いた物品の製造方法、制御プログラムおよび記録媒体 | |
Dehghani et al. | Vision-based calibration of a Hexa parallel robot | |
Khan et al. | On the calibration of active binocular and RGBD vision systems for dual-arm robots | |
CN106959704B (zh) | 三维形貌测量仪的控制方法及其系统 | |
JP7249221B2 (ja) | センサ位置姿勢キャリブレーション装置及びセンサ位置姿勢キャリブレーション方法 | |
CN117576227B (zh) | 一种手眼标定方法、设备及存储介质 | |
Liu et al. | Real time pose estimation based on extended Kalman filter for binocular camera | |
JP6766229B2 (ja) | 位置姿勢計測装置及び方法 | |
Chen et al. | Missile loader manipulator positioning technology based on visual guidance | |
Liu et al. | Development and experiment of CSM-based industrial robot servoing control system | |
Kucarov et al. | Calibration of Robotic Arm for Workstation Installation in Changing Environment-Comparison of Manual, Mechanic, and Automatic Calibration | |
Dogaru et al. | An overview on accuracy and calibration methods for manipulators | |
CN116079726A (zh) | 机器人标定方法、装置和数据采集装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180921 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180919 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20181220 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190318 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190820 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190918 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6591507 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |