JP5904676B2 - マシンビジョンシステムおよびロボットの間のロバストな較正の装置および方法 - Google Patents

マシンビジョンシステムおよびロボットの間のロバストな較正の装置および方法 Download PDF

Info

Publication number
JP5904676B2
JP5904676B2 JP2013511241A JP2013511241A JP5904676B2 JP 5904676 B2 JP5904676 B2 JP 5904676B2 JP 2013511241 A JP2013511241 A JP 2013511241A JP 2013511241 A JP2013511241 A JP 2013511241A JP 5904676 B2 JP5904676 B2 JP 5904676B2
Authority
JP
Japan
Prior art keywords
image
feature
robot
calibration
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013511241A
Other languages
English (en)
Other versions
JP2013526423A (ja
Inventor
ワラック、アーロン、エス
リュー、リフェン
イ、シャングン
Original Assignee
コグネックス・コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コグネックス・コーポレイション filed Critical コグネックス・コーポレイション
Publication of JP2013526423A publication Critical patent/JP2013526423A/ja
Application granted granted Critical
Publication of JP5904676B2 publication Critical patent/JP5904676B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1607Calculation of inertia, jacobian matrixes and inverses
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39008Fixed camera detects reference pattern held by end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39022Transform between measuring and manipulator coordinate system
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39045Camera on end effector detects reference pattern
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39057Hand eye calibration, eye, camera on hand, end effector
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/09Closed loop, sensor feedback controls arm movement

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Description

本発明の実例の実施形態が、マシンビジョンシステムの較正に関し、さらに詳細にはマシンビジョンシステムおよびロボットの間の較正の装置および方法に関する。
関節アームは、特定の姿勢に対して作業域に亘って端部作動体を正確に繰り返し動かすことのできる制御可能な機械である。本明細書で用いられるように、用語の姿勢が例示的に3次元の位置および3次元の回転の組合せを呼ぶ。例示的に、ロボット座標系に関して、ロボットの姿勢が端部作動体の姿勢に対応する。例示的に、端部作動体が加工対象物を掴んで離すことのできる制御可能な機械であり、たとえば、機械的な把持部、真空吸着部、電磁接触部などで構成される。典型的には、本明細書で用いるように、関節アームおよび端部作動体の組合せがロボットと称される。作業を実施するロボットが動ける3次元領域がロボットの作業域と称される。
例示的にロボットが用いられて、所定の連続のステップを実行することによって、作業域内で加工対象物を動かすなどの仕事が実行される。たとえば、端部作動体が軌道T1に沿って端部作動体姿勢P1に移動する。次に、端部作動体が加工対象物を掴んで、軌道T2に沿って端部作動体姿勢P2に移動する。姿勢P2に到達すると、次に端部作動体が加工対象物を離す。このようなロボットを用いることの不利な点として、加工対象物が知られている姿勢で存在していることが必要であることが知られ、これによってロボットが仕事を首尾良く実行できる。たとえば、加工対象物が初期位置に予期された姿勢で配置されない場合、端部作動体が加工対象物を掴めない。加工対象物姿勢の不正確性がこのようなロボット装置の良く知られた非常に不利な点であり、さらにこのことが、ロボットが把持、配置、および組立作業を実行する際に用いるのに選択されない典型的な理由である。
加工対象物姿勢の不正確性を除去するものとして、センサを用いて最初に加工対象物の姿勢を測定し次に測定した加工対象物の姿勢を用いてロボットの軌道を調節することが1つの知られた技術である。マシンビジョンが加工対象物の位置を検知するのに用いられる典型的な技術であり、とういうのは、マシンビジョンが典型的には早くて安価な非接触検知モーダリティであるからである。用語の視覚案内ロボット工学(Vision Guided Robotics)(VGR)が、例示的にロボットが仕事を実行するのを補助するマシンビジョンシステムを用いる処理を指す。
加工対象物の姿勢を測定するマシンビジョンを用いる非常に不利な点が、典型的にマシンビジョンシステムがマシンビジョンシステムの座標系において加工対象物の姿勢を測定し、一方でロボットがロボット座標系において端部作動体を動かすことである。このように、マシンビジョンシステムによって計算された加工対象物の姿勢がロボットの座標系に変換されて、マシンビジョンシステムによって計算された加工対象物の姿勢をロボットが使用することができるようになる。例示的に、ハンドアイ較正(hand−eye calibration)という用語がマシンビジョンシステムの座標系およびロボットの座標系の間の関係を決定するタスクを指す。
当該技術分野の当業者によって理解されるように、ハンドアイ較正の正確さがVGR手順の正確さに直接に影響を与える。ハンドアイ較正がマシンビジョンシステムの座標系およびロボットの座標系の間の真の関係を直接に反映する場合、加工対象物の姿勢に対する正確なマシンビジョン測定によって、加工対象物の把持、配置、および組立てにおける端部作動体が正確な姿勢に導かれる。それに対して、ハンドアイ較正が不正確でマシンビジョンの座標系およびロボットの座標系の間の真の関係を反映しない場合、加工対象物の正確なマシンビジョン測定が必ずしも加工対象物の把持、配置、および組立てにおける端部作動体の正確な姿勢に導かない。これらの不正確なロボットの姿勢によって、ロボットが所定の仕事を実行できないことになる。
TsaiとLenzがハンドアイ較正を実施する良く知られた技術を開発した。彼らの技術が「A Versatile Camera Calibration Techincs for High−Accuracy 3D Machine Vision Metrology Using Off−the−Shelf TV Cameras and Lenses」、IEEE Transaction on Robotics Automation、Volume 5、 Issue 3、 pages 345−348に記載され、その内容は本明細書に援用される。TsaiとLenzの技術が例示的にロボット姿勢および関連する取得画像の組を取得する。取得された画像それぞれに対して、較正対象物に対するカメラの姿勢を推量する。これが、較正対象物に対するロボット姿勢およびカメラの推量姿勢の組を生成する。TsaiとLenzの技術によって、次に、ロボット姿勢および対応するカメラの推量姿勢の組から関節アームに対するカメラの姿勢を決定する。例示的に静止カメラの周囲の場合、TsaiとLenzの技術の著しく不利な点が、ロボット基準に対してただ1つのカメラおよびただ1つのカメラ姿勢であること、および、端部作動体に対して1つのカメラおよびただ1つの較正対象姿勢という制約を明らかに取り込んでいないことである。代わりに、TsaiとLenzの技術が、独立したそれ故に一貫しない可能性のあるカメラ姿勢の推量を許し、さらに、独立したそれ故に一貫しない可能性のある較正対象物姿勢の推量を許す。
TsaiとLenzの技術のさらに著しく不利な点が、マシンビジョンシステムにおいて同時に1つのカメラに対してしか較正を実施できないことである。このように、マシンビジョンシステムにおいて複数のカメラに対して較正を実施したい場合、TsaiとLenzの技術がカメラそれぞれに対して繰り返して実行されなけらばならない。このことが、較正を実行するに必要な時間を増やし、個々のカメラに対して独立したそれ故に一貫しない可能性のある較正を許すことになる。
TsaiとLenzが、対の動きおよび数式AiX=XBi(ここでAiがカメラの予測される動きを表わし、Biが端部作動体の相対動きを表す)を研究した。彼らがそれによって端部作動体およびカメラXの間の変換を、Xに対して解くことで算出し、これがAXiおよびXBiの対の間の総合の差異を最小にした。2006 IEEE/RSJ International Conference on Intelligent Robots and Systems、 2008 pages 4647−4653に公表された「Optical Hand−Eye Calibration」におけるStroblとHirzingerの記載によれば、ハンドアイ較正の技術について数式AX=ZBを研究して、端部作動体カメラ変換およびロボット較正プレート変換を推量したところ、問題は、固体変換(rigid transforms)の系、すなわち、AiX=ZBi(ここで、Aiがカメラ及び較正プレートの間の予測される変換を、Xが端部動作体対カメラを、Zがロボット基準の較正プレート変換を、Biが端部作動体姿勢(端部作動体からロボット基準までの変換)をそれぞれ表す)に帰すことがわかった。これら両方の取組み(およびこの基礎技術に従う他の全ての取組み)の欠点は、2つの固体変換の間の推量差異、すなわち、diff(変換1、変換2)を含んでいることであり、そして、2つの変換の間の差異を測定する良く知られた物理的に意味のある方法がないことである。
TsaiとLenz、およびStroblとHirzingerによって記載された方法の別の欠点が、較正プレート姿勢のみに基づいてハンドアイ較正を推量することが次善の策であるということである。なぜなら、計算したカメラ較正プレート姿勢がそれぞれ通常にある方向において他の方向よりも正確であって、この方向の正確性情報がカメラ較正プレート姿勢に含まれていないからである。カメラ較正プレート姿勢が通常はある方向において他の方向よりも正確であることは、較正プレートの方向が通常較正プレートの傾きよりも正確に推量できることを研究して明らかになった。
本発明の例示の実施形態がマシンビジョンおよびロボットの間のロバストな較正の装置および方法を提供して、当技術分野の不利な点を解決する。実例的には、ロボットが複数の姿勢に動かされて、較正プレートなどの較正対象の画像が取得され、該較正対象が、ロボットの端部作動体に添付され、正確に知られる位置の特徴を含んでいる。別法では、較正対象が、空間に固定され、カメラがロボットに実装され、次に複数の姿勢に動かされて、そこでの較正対象の画像が取得される。マシンビジョンシステムが用いられて取得画像を画像の中の特徴の位置を測定することで分析する。この特定のロボット姿勢および測定画像特徴位置が用いられてマシンビジョンシステムの座標系およびロボットの座標系の間の関係を決定する。
典型的な静止カメラ周囲では、例示的に、本発明の例示の実施形態がそれぞれのカメラおよびロボット基準座標系の間で固有な自由度6の変換(6DOF)であるという制約を課し、ロボット端部作動体および較正プレートの間の固有な6DOFがあるという制約を明示的に課す。尚、本発明の別法においては、異なる自由度の数が用いられても良い。このように、6DOFの記述が単に代表として用いられるに過ぎない。本発明の例示の実施形態が複数のカメラからロボット、加えて個々のカメラ較正の、同時較正を実例的に可能とし、それ故に先ずロボットの加工対象物に対するカメラを較正して、次にロボットに対するマシンビジョンシステムを較正する必要がなくなる。
カメラが、ロボットの作業域部分に拡がる視野を有する空間に実装されるか、ロボットの関節アームおよび/または端部作動体に実装されて良い。空間に実装されたカメラを本明細書では静止カメラと呼び、ロボットの関節アームおよび/または端部作動体に実装されたカメラを動くカメラと呼ぶ。1つのカメラが静止空間に実装される場合、本発明の例示の実施形態が2つの変換を計算し、該変換がロボットの座標系およびカメラの座標系の間の変換、較正対象の姿勢および端部作動体の姿勢の間の変換である。複数のカメラが空間に静止して実装される場合、本発明の例示の実施形態がロボットの座標系およびカメラの座標系のそれぞれの間の変換、および較正対象の姿勢および端部作動体の姿勢の間の変換を計算する。尚、用語の較正対象および較正プレートが本明細書では置き換え可能に用いられる。カメラの座標系が時にはカメラの姿勢と呼ばれる。較正対象の姿勢が時には較正対象の座標系と呼ばれる。1つまたは複数のカメラが較正されたときには、標準的な較正プレートの座標系がマシンビジョンの座標系と呼ばれる。マシンビジョンの座標系が時にはマシンビジョンシステムの世界座標系と呼ばれる。端部作動体の姿勢が時には端部作動体の座標系と呼ばれる。ロボットに対する端部作動体の姿勢が時にはロボット姿勢と呼ばれる。ロボットの座標系が時にはロボット基準の座標系と呼ばれる。尚、発明が、異なるカメラが異なる標準の較正プレート変換に対して較正され得る状況を扱える。換言すると、本発明の例示の実施形態が、1つまたは複数のカメラが異なるマシンビジョンシステムの座標系に対して較正された状況を扱える。これは、本発明がそれぞれのカメラの姿勢を推量し、カメラがマシンビジョンシステムの座標系に対して同じ姿勢に在る制約を必ずしも課さないからである。
1つのカメラがロボットに実装される場合、2つの変換がはやり計算され、すなわち、ロボット座標系および較正対象の間の変換およびカメラ姿勢および端部作動体の姿勢と間の変換である。多重ロボット実装(動き)カメラを用いる場合、本発明がロボット座標系および較正対象の間の変換およびそれぞれのカメラ姿勢および端部作動体姿勢の間の変換を計算する。
尚、マシンビジョンシステムの世界座標系が通常プレースホルダとして機能し、マシンビジョンシステムの世界座標系が通常本質的に物理的意味を有しない。その結果、単一の静止カメラに対して、ユーザが本発明によって計算されてハンドアイ較正変換を用いて、ロボット座標系に対するマシンビジョンシステムの世界座標系の間の変換を調節できる(一方でカメラおよびマシンビジョンシステムの世界座標系の間の変換が変更されない)。別法では、単一の静止カメラに対し、ユーザが本発明によって計算されてハンドアイ較正変換を用いて、カメラおよびマシンビジョンシステムの世界座標系の間の変換を調節できる(一方でロボット座標系に対するマシンビジョンシステムの世界座標系の間の変換が変更されない)。別法では、単一の静止カメラに対し、ユーザが本発明によって計算されてハンドアイ較正変換を用いて、端部作動体の座標系に対してマシンビジョンシステムの世界座標系を調節できる(一方でカメラおよびマシンビジョンシステムの世界座標系の間の変換が変更されない)。別法では、単一の静止カメラに対し、ユーザが本発明によって計算され、ハンドアイ較正変換を用いて、カメラおよびマシンビジョンシステムの世界座標系の間の変換を調節できる(一方で端部作動体の座標系に対するマシンビジョンシステムの世界座標系の間の変換が変更されない)。カメラ姿勢およびマシンビジョンシステムの世界座標系がこのように交換できるので、我々は時にはマシンビジョンシステムの世界座標系の推量をすることを指して、カメラ姿勢を推量することと呼び、カメラ姿勢を推量することを指して、マシンビジョンシステムの世界座標系を推量することと呼ぶ。
本発明の上記およびさらなる有利な点が添付の図面と共に次の説明を参照することでより良く理解され、図面において類似の参照番号が特定または機能的に類似の構成要素を指す。
本発明の例示の実施形態による、マシンビジョンシステムおよびロボットの間の較正に用いる、カメラが空間に静止して実装された状態の代表的なマシンビジョンロボットの周囲の概略図である。 本発明の例示の実施形態による、マシンビジョンシステムおよびロボットの間の較正に用いる、カメラがロボットに実装された状態の代表的なマシンビジョンロボットの周囲の概略図である。 本発明の例示の実施形態による、固体カメラを用いて、ロボットおよびマシンビジョンシステムの間の較正を実行する手順のステップを詳細に示す流れ図である。 本発明の例示の実施形態による、ロボットに実装されたカメラを用いて、ロボットおよびマシンビジョンシステムの間の較正を実行するための手順のステップを詳細に示す流れ図である。 本発明の例示の実施形態による、マシンビジョンシステムおよびロボットを用いて、代表的な制御システムの概略ブロック図である。
本発明の例示の実施形態がハンドアイ較正を正確に改良する装置および方法を提供し、一方、例示的には、それらが動くカメラの場合に対して、それぞれのカメラおよび端部作動体の間の特別な6DOF(自由度)の変換であるとの制約を課し、静止カメラの場合に対してそれぞれのカメラおよびロボット基準の間の特別な6自由度の変換であるとの制約を課す。尚、本発明の別の実施形態では自由度の異なる数字が用いられる。このように、6自由度の記述がただ代表として挙げられる。さらには、本発明の例示の実施形態が、動くカメラの場合のロボットの座標系および較正プレートの間の特定の6自由度の変換があるという制約を例示的に課す。別法では、静止カメラの場合には、本発明の例示の実施形態が較正プレートの座標系および端部作動体の座標系の間の特定の6自由度の変換があるという制約を課す。例示的には、ロボットが特定の姿勢まで動かされ、正確に知られる物理的位置で特徴を有する較正対象の画像が取得される。本発明の例示の実施形態が物理的位置の特徴の正確な情報を含み、本発明の別の実施形態が知られた物理的位置の特徴を粗く用いる。較正対象が必ずしも平坦な対象物(特徴すべてが同じ面にある)でなくても良い。別法では、較正対象が立方体などの3次元の対象物であっても良く、特徴が複数の面に存在する。別法では、較正対象が特徴が1つまたは2つの面に存在する円盤でも良い。別法では、較正対象が特徴を有する球状でも良い。別法では、較正対象が特徴を有する円柱でも良い。
次にマシンビジョンシステムが画像の特徴の位置を測定することで取得データを分析して特定のロボット姿勢を測定した画像の特徴位置に関連させて、マシンビジョンシステムの座標系およびロボットの座標系の間の関係を決定する。本発明の例示の実施形態がそれぞれのカメラおよび端部作動体の間の特別な6自由度の変換があるという制約を明白に課し、かつ動くカメラに対するロボットの座標系および較正プレートの間の特別な6自由度の変換があるという制約を明白に課す分析を例示的に用いる。別法では、静止カメラの場合に、本発明の例示の実施形態がそれぞれのカメラおよびロボット基準の間の特別な6自由度の変換があるという制約を明白に課し、かつ較正プレートの座標系および端部作動体の座標系の間の特別な6自由度の変換があるという制約を明白に課す分析を例示的に用いる。
本発明の例示の実施形態が静止較正プレートおよび静止ロボットを用いることに関連し、本発明の別の実施形態が非静止較正プレートおよび/または非静止ロボットを用いることに関連し、その結果、複数の6自由度の変換が用いられる。用語のカメラが電磁波を測定する検知構成要素および電磁波を屈折させるレンズの複合を指す。カメラ検知構成要素の例にはCCDセンサ、CMOセンサおよびサポート回路が含まれて輝度の2次元描写を形成する。レンズが通常用いられて、場面から電磁波をカメラ検知構成要素に焦点を絞る。カメラが時にはマシンビジョンカメラと呼ばれる。ハンドアイ較正用に、カメラおよびレンズが通常固定的に互いに位置付けられて一貫した観測をする。
改良技術の1つの実施形態が、変換でマッピングされた点の間の距離を比較することで差異を考察することに関係する。改良技術の1つの実施形態が較正プレート上の物理的なすべての点、Piを考慮すること、およびAXB-1およびZでマッピングされたそれら点間の物理的な空間の差異を考慮すること、を含む。Zによってマッピングされた物理的な各点Pi、すなわちロボット基台および較正プレートの間の変換が、ロボット座標系におけるPiの物理的な位置に対応する。加えて、AXB-1でマッピングされた物理的な各点Piがやはりロボット座標系におけるPiの物理的な位置に対応する。2つの物理的な点の間の距離が特別であって良く知られる。それ故に、すべての変換でマッピングされたすべての点の差異の二乗総和、Σ(AXB-1i−Zpi2を検討でき、この構成が良く定義され、3次元の点の間の距離の測定に依存し、かつ固定変換の間の差異を推量することに依存しない。
Σ(AXB-1i−Zpi2を最小にする実施形態が、カメラに対して較正プレート姿勢を推量することに依存するといった不利を免れ得なく、このような方法が次善の策であって、というのは、計算されたカメラ−較正プレート姿勢には初期の特徴データに及ばない情報しか含まれていないからである。各計算されたカメラ−較正プレート姿勢が、通常、ある方向において、他の方向よりも正確であり、該方向正確性情報がカメラ−較正プレート姿勢の中に含まれない。カメラ−較正プレート姿勢が、通常、ある方向において他の方向よりも正確であることは、較正プレートの向きの較正が通常較正プレートの傾きよりも正確に推量できるということを考慮すれば理解されよう。
留意点の1つとして、TsaiとLenzおよびStroblとHirzingerにより記載されたような方法には、単一カメラを較正することを意図している欠点があることである。これらの方法が複数のカメラの同時に較正することを前提としていなく、各カメラがそれぞれに較正される。各カメラをそれぞれに較正することの欠点は、各個々の較正が異なる較正プレート姿勢を想定することであり、一方で較正プレートの姿勢がすべてのカメラに一貫していることが知られている。すべての関係する物理制約を組み込むことで、ほとんどの較正精度は常に改善する。
他に、相対変換を考慮するTsaiとLenzの方法の欠点が、相対変換が一時的に連続するロボット姿勢に基づいていることである。結果、ロボット姿勢の異なる一時的に順番が異なるハンドアイ較正を伴う恐れがある。例示的に、本発明がロボット姿勢の順番に影響されないハンドアイ較正を提供する。
この改良技術の例示の実施形態が、計算されたカメラ−較正プレート姿勢に依存する代わりに、観測される画像特徴位置から直接にハンドアイ較正のパラメータを推量する。改良技術の例示の実施形態において、装置が対応するカメラ上の三次元点の投影を推量し、推量二次元位置を測定した二次元位置と比較する。改良技術の別の実施形態において、各カメラにおける特徴点fiに対応する三次元光線riが較正プレートの対応する変換した点の三次元点と比較される。次に、これらの個々の比較からの寄与が二乗総和のように集計、統合されて、それによって、二乗総和差異を最小にするハンドアイ較正パラメータが推量される。さらに別の実施形態では、個々の比較の寄与がそれぞれのカメラからの距離によって重み付けされて、三次元の放射および対応する三次元の点の間の距離が画像差異に近付く。
マシンビジョンカメラを視覚案内ロボットに対して実装する2つの基本的な方法がある。第1の例示の実施形態において、1つまたは複数のマシンビジョンカメラが、図1を参照して次に説明される、静止位置に実装されて、ロボットの作業域を見る。第2の例示の実施形態では、1つまたは複数のマシンビジョンカメラが関節のあるアームおよび/または端部作動体に取り付けられる(その結果1つまたは複数のカメラがロボットと動く)が、図2を参照して次に説明する。尚、マシンビジョン測定がロボットによって適宜に用いられるために、これら2つの基本的なマシンビジョンカメラの実装方法にはハンドアイ較正が必要である。
1.較正周囲
図1が本発明の例示の実施形態による典型的な周囲100の概略図であり、較正プレートが端部作動体に取り付けられて状態で、複数のカメラが空間に実装されてロボット較正へのマシンビジョンを実施するのに用いられる。周囲100が例示的には複数のカメラ105A、B、Cを有し、それらが空間的に固定され、それぞれが少なくとも周囲100の部分を見ている。カメラ105がそれぞれ、特別なカメラ座標系における視野の画像を取得する。3台のカメラ105A、B、Cが示されているが、本発明の主旨では何れの数のカメラで用いられても良い。尚、別の実施形態では、異なるカメラ数が用いられても良い。このように、3つのカメラの記載が単に例として取り上げられる。ロボットが例示的にロボット基台110および端部作動体120が端部に配設されている関節アーム115を備える。例示的には、ロボット基台110が周囲100内に固定される。本発明の例示の実施形態によれば、カメラ105の視野がロボット基台110に対して較正される。すなわち、ロボット基台110が較正に用いられるロボット座標系の原点として機能する。当業者が想定するように、ロボットがその端部作動体の繰り返し動作を実行して、ロボット基台に対して姿勢を取る。本発明の例示の実施形態がロボット基台の座標系に対してマシンビジョンシステムのロバストな較正を可能にする。
関節アーム115が例示的に3つの区分を有して示される。しかしながら、別の実施形態では、異なる数の区分が用いられることに留意すべきである。このように、3つの区分の関節アーム115の記述が単に例として取りあげられている。関節アームを端部作動体に位置付ける他の方法が多くあり、端部作動体に位置付ける代替の駆動部には、リニアステージの複合や、スチュワートプラットフォーム(Stuart platforms)などが含まれる。さらには、端部作動体120が、機構的、電磁的、真空吸着などの従来技術に知られている何れの種類の端部作動体で構成されて良い。本発明の例示の実施形態によれば、較正プレート125が端部作動体120に付けられる。較正プレートが通常にマシンビジョンシステムに用いられる従来の較正プレートで構成されて良い。典型的な較正プレートがマサチューセッツ州ナティックのCognex社から販売されている。典型的な較正プレートがモデル番号320−5029RでCognex社から市販されている。代替の較正プレートおよび特徴の測定方法が米国特許第6,137,893号に記載されている。代替の較正プレートおよび特徴の測定方法が米国特許第6,816,187号に記載されている。代替の較正プレートおよび特徴の測定方法がIEEE Journal of Robotics and Automation Volume RA−3、pages323−344に、Roger Y Tsaiによる「A Versatile Camera Calibration Technique for High−Accuracy 3D Machine Vision Metrology Using Off−the−Shelf TV Camera and Lenses」に記載されている。
しかしながら、本発明の別の実施形態によれば、較正プレートの異なる種類が用いられても良いことに留意されたい。較正プレートの1つの例が、較正パターンを表示する表示画面である。較正プレートの別の例が変わるパターンを表示する表示画面であって、複数の画像が異なるパターンの表示画面が得られ、結果の組合せが較正プレートの単一の取得とみなされる。このように、上記の援用される米国特許出願に記載の較正プレートが単に例として挙げられるに過ぎない。較正プレート125が端部作動体が動いている間にずれることのないように端部作動体に固定される。さらに下記に記載のように、関節アーム115および端部作動体120がカメラ105の視野内で複数の姿勢に動く。尚、較正プレートが別法では端部作動体ではなく駆動部の何れかに取り付けられ、しかしながら、この代替の状況では、当該のロボット姿勢が駆動部の適当な位置の姿勢に対応しなければならない。複数の姿勢から収集された画像データが、次に本発明の例示の実施形態で教示するように用いられて、較正変換を生成する。
図2がマシンビジョンロボット較正用の代表的な周囲200の概略図であって、本発明の例示の実施形態によれば、複数のカメラがロボットの関節アームに固定される。較正プレート125が周囲200に固定される。例示的には、本発明の例示の実施形態によれば、較正プレートが固定されて較正処理中に動かない。ロボット基台110がやはり周囲200内に固定される。関節アーム115がロボット基台110に連結され、端部作動体120が関節アーム115の端末に配置される。関節アーム115の端部に固定されるのは複数のカメラ205A、Bである。カメラ205が例示的に関節アーム115および/または端部作動体120に固定される。カメラ205が動かないように固定されて関節アーム115および/または端部作動体120に影響されずに動かない。尚、本発明の例示の実施形態によれば、カメラ205が何れの数で用いられて良い。このように、2つのカメラ205A、Bが用いられる説明は単に例として挙げられているに過ぎない。さらに図4を参照して次に記載のように、関節アーム115および/または端部作動体120が様々な姿勢に動いて、較正プレート125の画像が取得される。
尚、本発明の例示の実施形態によれば、別には、カメラが端部作動体とは別の駆動部の何れの部分に取り付けられ、しかしながら、この別法の状況では、当該のロボット姿勢が駆動部の適切な位置の姿勢に対応しなければならない。さらには、この別法の状況では、異なるカメラが駆動部の異なる部分に取り付けられなければならない。取得された画像から、較正情報が取得または計算されて、図5を参照して次に記載される制御システム(図示せず)がロボット基台座標系に関してロボットを制御できる。
2.固定の(静止の)カメラを用いての較正
例示的には、1つまたは複数の静止カメラのハンドアイ較正用に、較正プレートなどの較正対象がロボットの関節アームおよび/または端部作動体の何れに動かずに固定され、ロボットが様々な姿勢に動いて、その結果、較正対象が1つまたは複数のカメラで見られる。較正対象の取得画像がロボット姿勢と一緒に保存される。
単一の静止カメラの場合、ハンドアイ較正が例示的に2つの変換、(1)マシンビジョンシステムの世界座標系に関するロボットの座標系、(2)較正対象の姿勢および端部作動体の姿勢の間の変換、を推量することで実行される。カメラが外因性および内因性の両方のパラメータ用に前較正(pre―calibrated)され、カメラ較正がハンドアイ較正の間および後で一定に保たれることが考えられる。カメラ較正にはカメラの姿勢およびマシンビジョンシステムの世界座標系の間の変換が含まれるので、本質的にマシンビジョンシステムの世界座標系を推量することはカメラの姿勢を推量することであり、というのは、カメラの姿勢が一定に保たれるカメラ較正変換を介してマシンビジョンシステムの世界座標系に連結されるからである。
尚、ハンドアイ較正用に取得された画像がカメラ(すなわち、外因性および内因性パラメータを決定する)を較正するのに用いることもでき、このように、カメラがハンドアイ較正の前に較正されなくても良く、というのは、ハンドアイ較正手順が例示的に最初のステップとしてハンドアイ較正を含んで良いからである。
ハンドアイ較正の間、カメラが定位置に動かずにいると共にロボット基台が定位置に動かずにいるので、ロボットの座標系が一定に保たれると共に、マシンビジョンシステムの座標系も一定に保たれる。したがって、ロボット座標系および視覚装置の座標系の間の変換は1つだけである。同様に、ハンドアイ較正の処理中、較正対象が関節アームおよび/または端部作動体に動かずに固定維持されるので、端部作動体の姿勢を較正対象の姿勢に関係させる変換は1つだけである。
変換Gがロボットの座標系からマシンビジョンシステムの座標系へ移す。変換Hが較正対象から端部作動体の姿勢へ移す。マッピングPがマシンビジョンシステムの座標系の3次元の点から取得画像の2次元の点に移すように、カメラが計算されているものと仮定する。カメラの較正および対応するマッピングPがハンドアイ較正の間中およびその後で一定に維持されることが考えられる。変換Riが端部作動体姿勢(ステップiにおける)からロボット座標系へ移す。用語のx(i,u,v,w)がステップiにおける画像特徴抽出によって観察される画像特徴のx座標系を指し、較正対象の物理的な座標系(u,v,w)に対応するものとする。用語のy(i,u,v,w)がステップiにおける画像特徴抽出によって観察される画像特徴のy座標系を指し、較正対象の物理的な座標系(u,v,w)に対応するものとする。したがって、(x(i,u,v,w)、y(i,u,v,w))が取得画像の発見された特徴の2次元の位置である。この取得画像の2次元の位置が較正対象の3次元の位置(u,v,w)に対応する。較正対象の3次元の位置(u,v,w)が端部作動体の3次元の位置H*(u,v,w)に対応する。端部作動体の3次元の位置H*(u,v,w)がロボット座標系における3次元の位置Ri**(u,v,w)に対応する。ロボット座標系の3次元の位置Ri**(u,v,w)がマシンビジョンシステムの座標系における3次元の位置G*Ri**(u,v,w)に対応する。3次元の位置G*Ri**(u,v,w)が取得画像の2次元の位置P(G*Ri**(u,v,w))に対応する。取得画像に発見された特徴の2次元位置(x(u,v,w),y(u,v,w))がそれぞれ推定される2次元位置P(G*Ri**(u,v,w))に対応する。発見された2次元の特徴位置それぞれに対して、発見された2次元の特徴位置が推定された2次元位置と比較されて、画像座標系における差異、P(G*Ri**(u,v,w))−(x(i,u,v,w)、y(i,u,v,w))を生成する。差異二乗総和
Σ|P(G*Ri**(u,v,w))−(x(i,u,v,w)、y(i,u,v,w))|2
が、実際の測定データおよび予測データの間の差異を連結させたものである。本発明の例示の実施形態によれば、実際に測定されたデータおよび予測されたデータの間の最小の残留二乗総和を生じるGおよびHパラメータを解くことによって、ハンドアイ較正が改善される。尚、Hが自由度6(6DOF)であり、マシンビジョンシステムの座標系およびロボット座標系の間の変換をパラメータ化する(並進に3自由度、回転に3自由度)。尚、Gが6自由度(6DOF)であり、較正対象で画定される較正物理座標系および端部作動体座標系の間の変換をパラメータ化する(並進に3自由度、回転に3自由度)。
Ga、Gb、Gc、Gc、Gx、Gy、GzがGの6変数パラメータとされ、Ha、Hb、Hc、Hx、Hy、HzがHの6変数パラメータとされる。E(Ga,Gb,Gc,Gc,Gx,Gy,Gz,Ha,Hb,Hc,Hx,Hy,Hz|測定画像特徴位置、対応較正位置、および対応ロボット姿勢)が、12変数Ga,Gb,Gc,Gc,Gx,Gy,Gz,Ha,Hb,Hc,Hx,Hy,Hz、および測定画像特徴位置、対応の較正位置、および対応のロボット姿勢で決まる二乗総和誤差関数を指すものとする。Eが|P(G*Ri**(u,v,w))−(x(i,u,v,w)、y(i,u,v,w))|2から個々の寄与を繰返し加算することに基づいて数値的に計算される。
例示の実施形態では、ハンドアイ較正のパラメータがTsaiとLenzの方法の変体を用いて、最初に大雑把に推量される。International Journal of Robotics Research、Volume 18, No.3, page286−298に記載されたDaniiliidis「Hand Eye Calibration Using Dual Quaternions」に記載された技術が、その内容が本明細書に援用されるが、例示的に用いられて、ハンドアイ較正パラメータを大雑把に推量する。別の実施形態では、ユーザがハンドアイ較正パラメータの粗い推量値を手で入力する。他の実施形態では、コンピュータプログラムがハンドアイ較正パラメータの粗い複数の推量値を挙げてこれら列記された粗い推量値をそれぞれ精度を上げて、最低の残留を発生する精度の上げられたハンドアイ較正パラメータを選択する。
例示的には、本発明の例示の実施形態が勾配降下技術を用いてパラメータ値を改良して、Eを最小にするパラメータ値を探す。GおよびHの3次元回転のパラメータがハンドアイ較正に対応する変換の粗い推量を用いる。
四元法算法が3次元の回転空間をパラメータ化するよく知られた効果的な方法であるが、該四元法算法は4つのパラメータ、s0、s1、s2、s3を有するということから免れられない。四元法算法が、幸いなことに、投影される座標系について規定されるので、4つの値r*s0、r*s1、r*s2、r*s3をスケーリングすることが3次元回転に影響されない。その結果、1つの値の固定された座標系表示が規定されて、そこで四元法算法の4つの値の1つが1または−1に固定されて他の四元法算法座標系の3つが3つのパラメータに対応する。このパラメータ化が有効であり、というのは、おおよその3次元の回転が粗い推量から知られ、したがって1または−1として固定する該四元法算法座標系が適当に選択されるからである。
特には、Levenberg−Marquette最適化技術が例示的に用いられ、傾斜降下を実行して、誤差関数の偏導関数が局所的極値において0であり、Levenberg−Marquette技術が連立方程式について解を同時に数学的に解き、この場合、偏導関数のセットが、dE/dGa、dE/dGb、dE/dGc、dE/dGx、dE/dGy、dE/dGz、dE/dHa、dE/dHb、dE/dHc、dE/dHy、dE/dHz、である。ここで、E()はGa、Gb、Gc、Gx、Gy、Gz、Ha、Hb、Hc、Hy、Hzの関数なので、その偏導関数はすべてGa、Gb、Gc、Gx、Gy、Gz、Ha、Hb、Hc、Hy、Hzの関数で良い。
Levenberg−Marquette技術を用いるために、Eの偏導関数が任意のパラメータ値で計算される必要がある。用語ベクトルJはパラメータ値の任意選択を指す。Eの偏導関数の第1次数が各独立値について数学的に推量でき、それは構成(configuration)Jで計算されたEおよび隣接の構成で計算されたEの間の差分を計算することでなされ、該隣接の構成が構成Jの周りで対称かつ値の1つにおいてわずかに異なるものとされ、次いで、対称構成での変数値の間の差分で除算する。たとえば、GcについてのEの偏導関数が構成Jで計算でき、該計算がE値の差分および変数の差分の間の比率(E(GaJ,GbJ,GcJ+δ,GxJ,GyJ,GzJ,HaJ,HbJ,HcJ,HxJ,HyJ,HzJ)−E(GaJ,GbJ,GcJ−δ,GxJ,GyJ,GzJ,HaJ,HbJ,HcJ,HxJ,HyJ,HzJ))/(2δ)を計算することでなされる。例示的には、δに対する10Λ−4の値が用いられが、他の実施形態ではδの異なる値を用いることもできる。別の実施形態では、変数に関するEの偏導関数が構成Jにおいて非対象標本構成を用いて計算され、たとえば、該計算がE値の差分および変数の差分の間の比率(E(GaJ,GbJ,GcJ+δ,GxJ,GyJ,GzJ,HaJ,HbJ,HcJ,HxJ,HyJ,HzJ)−E(GaJ,GbJ,GcJ,GxJ,GyJ,GzJ,HaJ,HbJ,HcJ,HxJ,HyJ,HzJ))/δを計算することでなされる。
別の実施形態が変数に関するEの偏導関数を解析的に計算することができ、該計算が誤差関数Eに対する解析式を立てることでなされる。記号を用いて計算された偏導関数が数値を用いて計算された偏導関数よりも正確であり、またユーザが数値の偏導関数を計算するステップサイズを選択する必要がない。第1に、汎用代数誤差関数が、1つの2次元画像特徴位置および対応する3次元較正特徴位置の間の誤差、およびロボット姿勢を不明のパラメータの多変数代数式を特徴づけて公式化する。
内部的には、Levenberg−Marqaudt最適化方法が最適化されるべき式の偏導関数を含む。式の系が誤差関数の偏導関数であるので、Levenberg−Marqaudt技術が用いる偏導関数がE関数の第2次偏導関数となる。第2次偏導関数が2つの変数に対して数値的に推量され、該推量がdE/dvar偏導関数における差分(変数の1つにおける小量で分離される)と該小量との間の比率を数値的に計算してなされる。たとえば、Gcに対するEの第2次偏導関数が構成Jにおいて計算でき、すなわち、(dE/dvar(GaJ,GbJ,GcJ+ε,GxJ,GyJ,GzJ,HaJ,HbJ,HcJ,HxJ,HyJ,HzJ)−dE/dvar(GaJ,GbJ,GcJ,GxJ,GyJ,GzJ,HaJ,HbJ,HcJ,HxJ,HyJ,HzJ))/εで計算される。例示の実施形態では、最大100の反復が用いられ、Levenberg−Marqaudt最適化に対して、εの10Λ−4の値、ラムダの10Λ−2の値、δの10Λ−6の値が計算される。変数ラムダが通常Levenberg−Marqaudt最適化に対するダンピングファクタとして参照して用いられる。
尚、このハンドアイ較正の方法が各カメラおよび端部作動体の間に特別な6自由度変換があるという制約が明示的に課され、一方で、ロボット座標系および較正対象で画定される物理的座標系の間に特別な6自由度があるという制約を実行する。というのは、ハンドアイ較正方法が各カメラおよび端部作動体の間の6自由度変換、およびロボット座標系および較正プレートの間の6自由度変換をパラメータ化するからである。これらの制約が実際の物理系を正確に反映し、これらのハンドアイ較正方法における制約を課すことで、これら制約の係らないハンドアイ較正方法よりも、正確なハンドアイ較正方法を提供する。
本発明の別の態様の実施形態が、端部作動体に関係する複数のカメラの姿勢および較正プレートの姿勢について同時に較正することに関わる。発明のこの態様において、各カメラ姿勢が各カメラに対する6パラメータを用いてそれぞれパラメータ化される。これにより、n台のカメラのハンドアイ較正をする全体システムが6*n+6パラメータを含み、その中で、6*nパラメータがn台のカメラ用の、6パラメータが端部作動体に対する較正対象の姿勢用である。ハンドアイ較正が各カメラに対する異なるマシンビジョン座標系を考慮することで、複数のカメラに実行される。このことは、特定のカメラの較正が各カメラに想定されマシンビジョン座標系の若干異なる姿勢がそのカメラのカメラ較正で特定されるよりも若干異なるカメラ姿勢と等しい。さらに、各カメラに対して異なるマシンビジョン座標系を特徴づけるこのアプローチが、ハンドアイ較正を改良するための体系に容易に組み込まれる。1つのカメラに対するハンドアイ較正に用いられる12のパラメータ、G1a,G1b,G1c,G1x,G1y,G1z,Ha,Hb,Hc,Hx,Hy,Hzと比べて、ハンドアイ較正がハンドアイ較正を特徴づけるために、6*(n+1)パラメータ、G1a,G1b,G1c,G1x,G1y,G1z,G2a,G2b,G2c,G2x,G2y,G2z、...Gna,Gnb,Gnc,Gnx,Gny,Gnz、Ha,Hb,Hc,Hx,Hy,Hzを用いる。
複数のカメラのシステムにハンドアイ較正を実行するために、(xk(i,u,v,w),yk(i,u,v,w))をカメラkに対応する取得画像において発見された特徴の2次元位置とする。取得画像のこの2次元の位置が較正対象における3次元位置(u,v,w)に対応する。較正対象の3次元位置(u,v,w)が端部作動体における3次元位置H*(u,v,w)に対応する。端部作動体における3次元位置H*(u,v,w)がロボット座標系の3次元位置Ri**(u,v,w)に対応する。ロボット座標系の3次元位置Ri**(u,v,w)がカメラkのマシンビジョンシステムの座標系における3次元位置Gk*Ri**(u,v,w)に対応する。3次元位置Gk*Ri**(u,v,w)がカメラkの取得画像における2次元位置Pk(Gk*Ri**(u,v,w))に対応する。各(xk(i,u,v,w),yk(i,u,v,w))が予測される2次元位置Pk(Gk*Ri**(u,v,w))に対応する取得画像の発見された特徴の2次元位置である。各発見された2次元の特徴の位置用に、発見された2次元の特徴の位置が予測される2次元位置と比較して差異、Pk(Gk*Ri**(u,v,w))−(xk(i,u,v,w),yk(i,u,v,w))を生成する。この差異の二乗が、|Pk(Gk*Ri**(u,v,w))−(xk(i,u,v,w),yk(i,u,v,w))|2である。これら差異の二乗の総和がΣ|Pk(Gk*Ri**(u,v,w))−(xk(i,u,v,w),yk(i,u,v,w))|2である。
例示の実施形態では、マシンビジョンシステムの座標系を画定する較正対象姿勢がハンドアイ較正用の画像の1つを取得するように用いられるように、画像の取得および較正対象の位置が配置される。例示的には、これがハンドアイ較正用に取得された画像を、カメラ較正用の画像として用いて実現され、そこでは、ハンドアイ較正に用いられる画像の1つが、カメラ較正用のマシンビジョン座標系を画定するために用いられる画像である。別法では、先ずハンドアイ較正用の画像を取得し、次に較正対象を同じ姿勢のままでハンドアイ較正用に先ず取得した画像をマシンビジョン座標系を画定する画像として用いることで、これが実現される。
図3が、本発明の例示の実施形態による、固定カメラを用いてマシンビジョンをロボット較正に実行する代表的な手順300のステップを詳述する流れ図である。手順300がステップ305で始まりステップ310に続くが、ここで1つまたは複数のカメラが空間に固定される。上記のように、本発明の例示の実施形態では、複数のカメラを同時に較正できる。例示的には、較正に用いられるカメラが環境の中に固定され、そこで、動くことのできないようにして用いられる。較正プレートがステップ315で関節アームの端部作動体に固定される。別の実施形態では、較正プレートが端部作動体ではなく関節アームの1つの区分に固定せれても良い。このように、較正プレートが端部作動体に固定されることが単に例として取り上げて説明されたに過ぎない。
次いでステップ320で端部作動体が複数の姿勢に動いて、各複数の姿勢における較正プレートの画像が取得される。例示的には、これら姿勢の中の動きが少なくとも2つの非平行軸の回りの回転を含む。さらには、較正情報を良く取得するように、回転角度が少なくとも5°とされる。これが必須の条件ではないが、様々な姿勢の間の大きな回転および動きに対して改良された結果が得られる。
次いでステップ325で、画像特徴抽出技術が取得画像において実行されて較正プレートにおける特徴を抽出する。例示的には、特徴抽出ステップがCohnex社からその特徴検出器として市販されているような技術を用いる。特徴を測定する別の方法が、米国特許第6,137,893に記載されている。特徴を測定する別の方法が、米国特許第6,816,187に記載されている。特徴を測定する別の方法が、IEEE Journal of Robotics and Automation Volume RA−3、No4、pages323−344に、Roger Y Tsaiによる「A Versatile Camera Calibration Technique for High−Accuracy 3D Machine Vision Metrology Using Off−the−Shelf TV Camera and Lenses」に記載されている。尚、しかしながら別の実施形態では、様々な特徴抽出技術が用いられて良い。このように、上記の援用される米国特許に記載の技術を用いることが単に例として取り上げて説明されたに過ぎない。さらに、本発明の別の実施形態では、特徴抽出がたとえば3次元カメラ、レンジカメラ、共に動作して3次元情報を供給する構造的な照明およびカメラの複合、感熱カメラを用いる熱特徴検出器などからの3次元特徴を用いることを含んだ、様々な技術を用いて良い。たとえば、2つ以上のカメラが較正プレートを見て各特徴の3次元位置を測定するステレオカメラ装置が用いられても良い。
別法では、不均一レンズや、ミラー、ホログラフレンズなどの複数の独自光路と一緒に用いられる単一検知要素が複数の個別カメラとなることが検討されても良い。別法では、同じ光路を共有する複数検知要素が単一カメラとなることが検討されても良い。
このように、従来のマシンビジョンシステムを用いる特徴検出が単に例として取り上げて説明されたに過ぎない。
各カメラに対して、較正プレート姿勢(各カメラに対する較正プレートの姿勢)が次いでステップ330で計算される。すなわち、固有データおよび知られる特徴位置および観察された特徴位置の間の相関性を用いて、カメラの姿勢が較正プレートに対して計算される。このステップがカメラの固有パラメータが前較正されていることを想定している。しかしながら、別の実施形態では、カメラが収集したデータを用いて較正されて、よって最初のカメラの較正および次のマシンビジョンシステムおよびロボットの間の較正の実行といった2つのステップをスキップして良い。カメラ較正が、たとえば米国特許第6,816,187記載されたような良く知られた技術を用いて実行されても良い。別法では、IEEE Journal of Robotics and Automation Volume RA−3、No4、pages323−344に、Roger Y Tsaiによる「A Versatile Camera Calibration Technique for High−Accuracy 3D Machine Vision Metrology Using Off−the−Shelf TV Camera and Lenses」に記載されている技術を用いて、カメラ較正が実行されても良い。尚、本発明の別の実施形態では、様々な形式のカメラ較正が用いられて良い。このように、上記に援用された米国特許出願を用いるカメラ較正が単に例として取り上げて説明されたに過ぎない。
対応するロボット姿勢と共に取得された画像が、次いでステップ335で処理される。この予備の処理が例示的にプレートおよびロボットの動きを記述する。各対の画像およびロボット姿勢が次いで動きを最大にするように再配列される。ステップ330で前較正されたカメラのパラメータで計算された各プレート姿勢の場合、各2つのプレート姿勢の間の動きが計算される。同様に、2つのロボット姿勢の間の動きが計算される。プレート動きおよびロボット動きの対が次いですべて計算されて、差異が所定の閾値でカットされるそれら対が例示的に異常値に見なされて動き対から除かれる。
ロボットの動きおよび較正プレートの動きに対して、単一軸の回りの等価な回転を用いて表すならば、またはスクリュモーションを用いて表すならば、回転角が理想状況に等しくなる。したがって、ロボットの動きおよび較正プレートの動きの間の同じ対との回転角の差が、差異として用いることができる。再配列によってシステムが任意の順番の姿勢から一定動作を抽出し、実質的に回転を有する動きを用い、その結果、より安定で正確でロバストな較正が決定される。
較正系が次いでステップ340でロボット基台座標系における変換を特定する直線系を解く。上記のように、これが例示的に変体をTsaiとLenzの技術に用いる。尚、ステップ330〜340が本発明の別の実施形態においては任意である。
別法では、カメラ−ロボット変換および端部作動体−較正位置変換の推量がステップ342で得られる。その変換が次いでステップ345で改善される。上記の予測された2次元特徴位置および発見された位置の間の差異の二乗総和を最小にすることに基づいて改善される。別法では、端部作動体から較正プレートまでの変換、および各カメラからロボット座標系までの変換の初期推量が先ず報告のロボット姿勢および計算されたロボット姿勢の中の差異を変換を用いて最小にする独立した精密化により改善される。次いで、精密化された変換が2次元特徴位置差異ベースの精密化ステップに送られる。別法では、チェックステップが精密化された後に付加されて、精密化結果が特定のチェック基準値対して精密化されていない結果よりも良好な結果でない場合に、精密化結果を無視することもできる。
変換一貫精密化(報告されたロボット姿勢および計算されたロボット姿勢の中の差異を変換を用いて最小にする)がやはり複数カメラ、すなわち、複数の固定カメラを同時に精密化して、較正プレート座標系からロボット端部作動体座標系への1つの変換だけである。
変換一貫精密化の一例が次の通りである。Zがカメラ座標系からロボット基台座標系への変換を表わすものとする。Xが較正プレート系からロボットの端部作動体系への変換を表わすものとする。Biが位置iでのロボット姿勢(ロボット端部作動体座標系からロボット基台座標系への変換)である。Aiが位置iでの1つのカメラに対する較正プレート姿勢(較正プレート座標系からカメラ座標系への変換)である。変換Aiが時には測定された変換と呼ばれる。合成Z_inverse*Bi*Xが時には予期された変換と呼ばれる。次の合成が恒等変換(identity transform)(較正プレート座標系から較正プレート座標系への変換なので)と言える。
Ai_inverse*Z_inverse*Bi*
精密化の目的が各Ai_inverse*Z_inverse*Bi*X、およびすべてのカメラおよび動きへの恒等変換の間の総合差異を最小にすることである。
ハンドアイ較正の応用において、2つの変換(または2つの姿勢)の間の差異を計算する例示的に方法が次のように作業空間次元を用いることに基づく。ロボット視覚応用の作業容積が境界ボックスで表わされ、次いで変換X1および変換X2の間の差異が、境界ボックスの8つのマッピングされた頂点の位置を比較して測定できる。
Σ(Xi*vi−X2*vi)
i=1−8
例示的にステップが、変換一貫精密化からの精密化の変換を用い、それを画像特徴ベースの精密化に供給される。そこで初期推量がさらにより精密化されて、精密化の変換が画像特徴を用いることにより高速化され、かつ最小局所に閉じ込められることを避けることができる。
チェック用基準の一例が、精密化前の二乗平均差異と比較されるように、精密化後に計算される画像座標系における差異の二乗平均平方根(rms)である。ある場合では、ロボット動きがマシンビジョン程度に正確でなくても良く、正確でないロボット姿勢に基づいたカメラ−端部作動体変換およびロボット基台−較正プレート変換に、精密化が過剰となるかもしれない。精密化前後の残余を比較することで、精密化の結果を取り込むかを決めることができる。
精密化が向上したかどうかを判断する別の方法では、カメラ較正の画像座標系における差異の二乗平均平方根(rms)で精密化された後に計算された画像座標系における二乗平均差異を比較する。精密化後の残余をカメラ較正に関連する残余と比較することで、精密化の結果を取り込むかを決めることができる。
次いでステップ350でカメラ/マシンビジョンシステムが変換で設定される。カメラ/マシンビジョン設定により、装置がロボット基台座標系に関してマシンビジョンシステムによって視覚される位置を報告することができる。次いでステップ355で手順300が完了する。
C.動く(ロボットに実装の)カメラを用いた較正
例示の実施形態において、カメラが関節アームに固定されて、端部作動体に従って変形される。較正対象がカメラで視覚されるように位置付けられて、ロボットアーム/端部作動体が様々な姿勢に動いて較正対象が1つまたは複数のカメラで視覚される。較正対象の取得画像がロボット姿勢と合わせて再配列される。
単一固定カメラのハンドアイ較正の方法と同様に、単一の動きカメラのハンドアイ較正が2つの変換を計算することで実行され、それは、(1)較正対象で規定されるロボット座標系および物理座標系の間の変換、(2)カメラのマシンビジョン座標系および端部作動体の姿勢の間の変換である。ロボット基台および較正対象がハンドアイ較正手順の間は静止しているので、ロボット座標系および較正対象の間の1つの変換しかない。同様に、ハンドアイ較正の間はカメラが端部作動体に対して固定して位置付けられたままなので、端部作動体の姿勢をカメラの姿勢に関連させる1つの変換しかない。
さらに、静止カメラのハンドアイ較正の方法と同様に、動くカメラのハンドアイ較正がハンドアイ較正画像をすべて用いてハンドアイ較正を実行し、その結果、カメラがハンドアイ較正に先んじて前較正される必要がない。変換Gがロボット座標系から較正対象の座標系へ移す。GΛ−1変換が較正対象の座標系からロボット座標系へ移す。変換Hがカメラのマシンビジョンシステム座標系から端部作動体姿勢へ移す。変換HΛ−1が端部作動体姿勢からカメラのマシンビジョンシステム座標系へ移す。マッピングPがマシンビジョンシステム座標系における3次元の点から取得画像における2次元の点へ移すようにカメラが較正されると仮定する。ハンドアイ較正手順およびその後で、カメラ較正(内部および外部パラメータ)および対応するマッピングPが一定であるものと仮定される。用語Riが端部作動体姿勢(ステップiにおける)からロボット座標系へ移す変換を指すものとする。用語RiΛ−1がロボット座標系(ステップiにおける)から端部作動体姿勢(ステップiにおける)へ移す変換を指すものとする。用語x(i,u,v,w)が、較正対象上の物理座標系(u,v,w)に対応するステップiにおける画像特徴位置のx座標系を指すものとする。用語y(i,u,v,w)が、較正対象上の物理座標系(u,v,w)に対応するステップiにおける画像特徴位置のy座標系を指すものとする。各(x(i,u,v,w),y(i,u,v,w))が取得画像における発見された特徴の2次元の位置である。取得画像のこの2次元の位置が較正対象における3次元位置(u,v,w)に対応する。較正対象の3次元位置(u,v,w)がロボット座標系における3次元位置GΛ−1*(u,v,w)に対応する。ロボット座標系における3次元位置GΛ−1*(u,v,w)が端部作動体における3次元位置RiΛ−1*GΛ−1*(u,v,w)に対応する。端部作動体の座標系における3次元位置RiΛ−1*GΛ−1*(u,v,w)がカメラのマシンビジョンシステムの座標系における3次元位置HΛ−1*RiΛ−1*GΛ−1*(u,v,w)に対応する。3次元位置HΛ−1*RiΛ−1*GΛ−1*(u,v,w)が取得画像における2次元位置P(HΛ−1*RiΛ−1*GΛ−1*(u,v,w))に対応する。取得画像の発見された特徴の各(x(i,u,v,w),y(i,u,v,w)2次元位置が予測される2次元位置P(HΛ−1*RiΛ−1*GΛ−1*(u,v,w))に対応する。各発見された2次元特徴位置に対して、発見された2次元特徴位置が予測された2次元位置を比較されて差異P(HΛ−1*RiΛ−1*GΛ−1*(u,v,w))−(x(i,u,v,w),y(i,u,v,w)が生成される。この差異の距離の二乗が、|P(HΛ−1*RiΛ−1*GΛ−1*(u,v,w))−(x(i,u,v,w),y(i,u,v,w)|2である。これら差異の二乗の総和がΣ|P(HΛ−1*RiΛ−1*GΛ−1*(u,v,w))−(x(i,u,v,w),y(i,u,v,w)|2であって、画像座標系における実際の測定データおよび予測された位置の間の複合差異に対応する。例示的には、実際の測定データおよび予測された位置の間の差異の最小二乗総和を発生するGおよびHパラメータを解くことで、ハンドアイ較正が計算される。パラメータ値が実際の測定データおよび予測された位置の間の差異の二乗総和を最小にするGおよびHに対して解かれる。
動くカメラ、すなわちカメラがロボットに実装されているカメラ、のハンドアイ較正の方法が、静止カメラのハンドアイ較正の方法と類似する。単一の静止カメラのハンドアイ較正の方法と同じように、単一の実装カメラのハンドアイ較正がやはり12変数Ga、Gb、Gc、Gx、Gy、Gz、Ha、Hb、Hc、Hx、Hy、Hzに関する系をパラメータ化し、そして、先ず、ハンドアイ較正の粗い推量を計算し、次いで傾斜降下などの最適化方法を用いてパラメータ推量を精密化する。単一静止カメラのハンドアイ較正の方法と同じように、単一の動くカメラのハンドアイ較正の方法がやはり誤差関数E(Ga、Gb、Gc、Gx、Gy、Gz、Ha、Hb、Hc、Hx、Hy、Hz)を計算し、該機能が実際の測定された特徴位置および予測された特徴位置の間の二乗総和差異を特徴付けて傾斜降下などの最適化方法を用いてパラメータを精密化する。単一の静止カメラのハンドアイ較正の方法と同じように、単一の動くカメラのハンドアイ較正の方法の例示の実施形態が、やはり誤差関数の偏導関数の系においてLevenberg−Marquadtを用い、ここで、これらの偏導関数が数値的に計算される。
複数の静止カメラのハンドアイ較正の方法と同じように、複数の動くカメラのハンドアイ較正の方法の例示の実施形態がやはり複数のカメラを扱うが、これは、異なるマシンビジョンシステム座標系を各カメラに関連させ、6n+6パラメータを用い、ハンドアイ較正(この場合は1つのG変換およびnのH変換であるが)Ga、Gb、Gc、Gx、Gy、Gz、H1a、H1b、H1c、H1x、H1y、H1z、H2a、H2b、H2c、H2x、H2y、H2z...Hna、Hnb、Hnc、Hnx、Hny、Hnzを特徴付けて、ハンドアイ較正を特徴付けることでなされる。
複数の静止カメラのハンドアイ較正の方法のように、複数の動きカメラのハンドアイ較正の方法の例示の実施形態がやはり(xk(i,u,v,w),yk(i,u,v,w))をカメラkに対する取得画像の発見された特徴の2次元位置を指すものとする。取得画像のこの2次元位置が較正対象の3次元位置(u,v,w)に対応する。較正対象の3次元位置(u,v,w)がロボット座標系における3次元位置GΛ−1*(u,v,w)に対応する。ロボット座標系における3次元位置GΛ−1*(u,v,w)が端部作動体座標系における3次元位置RiΛ−1*GΛ−1*(u,v,w)に対応する。端部作動体座標系における3次元位置RiΛ−1*GΛ−1*(u,v,w)がカメラkのマシンビジョンシステムの座標系における3次元位置HkΛ−1*RiΛ−1*GΛ−1*(u,v,w)に対応する。3次元位置HkΛ−1*RiΛ−1*GΛ−1*(u,v,w)が取得画像における2次元位置Pk(HkΛ−1*RiΛ−1*GΛ−1*(u,v,w))に対応する。取得画像の発見された特徴の各(xk(i,u,v,w),yk(i,u,v,w)2次元位置が予測される2次元位置Pk(HkΛ−1*RiΛ−1*GΛ−1*(u,v,w))に対応する。各発見された2次元特徴位置に対して、発見された2次元特徴位置が予測された2次元位置を比較されて差異Pk(HkΛ−1*RiΛ−1*GΛ−1*(u,v,w))−(xk(i,u,v,w),yk(i,u,v,w)が生成される。この差異の距離の二乗が、|Pk(HkΛ−1*RiΛ−1*GΛ−1*(u,v,w))−(xk(i,u,v,w),yk(i,u,v,w)|2である。これら差異の二乗の総和がΣ|kP(HkΛ−1*RiΛ−1*GΛ−1*(u,v,w))−(xk(i,u,v,w),yk(i,u,v,w)|2であって、画像座標系における実際の測定データおよび予測された位置の間の複合差異に対応する。例示的には、実際の測定データおよび予測された位置の間の差異の最小二乗総和を発生するGおよびH1...Hnパラメータを解くことで、ハンドアイ較正が計算される。パラメータ値が実際の測定データおよび予測された位置の間の差異の二乗総和を最小にするGおよびH1...Hnに対して解かれる。
図4が本発明の例示の実施形態によるロボットに固定されたカメラを用いてマシンビジョンをロボット較正に実行する例示的に手順400のステップを詳述する流れ図である。手順400がステップ405で始まり、ステップ410に続き、そこでは1つまたは複数のカメラがロボットに固定される。上記のように、本発明の例示の実施形態が複数のカメラを同時に較正できる。例示的には、較正用に用いられるカメラがロボットの関節アームおよび/または端部作動体に固定される。較正プレートがステップ415で空間に固定される。例示的には、較正プレートが較正処理中に動かないように固定される。端部作動体が次いで複数の姿勢に動かされて、ステップ420で各複数の姿勢における較正プレートの画像が取得される。例示的には、すべての姿勢の中の動きには少なくとも2つの非平行軸の回りの回転が含まれる。より良い較正情報を得るには、回転角が少なくとも5度とされる。これは必須の要件ではないが、動きの中でより大きな回転の方が、改善された結果が得られる。
画像検出技術が取得画像に施されて、ステップ425で較正プレート上の特徴を検出する。上記のように、特徴検出がCognex社から特徴検出器として市販されているものなどの技術を用いて良い。特徴を測定する別の方法が米国特許第6,137,893号に記載されている。特徴を測定する別の方法が米国特許第6,816,187号に記載されている。特徴を測定する別の方法が、IEEE Journal of Robotics and Automation Volume RA−3、No4、pages323−344に、Roger Y Tsaiによる「A Versatile Camera Calibration Technique for High−Accuracy 3D Machine Vision Metrology Using Off−the−Shelf TV Camera and Lenses」に記載されている。さらに上記のように、本発明の別の方法において、特徴抽出がたとえば3次元カメラからの3次元特徴の使用、感熱カメラを用いた熱特徴検出などを含む様々な技術を用いて良い。
各カメラに対して、較正プレート姿勢が次いでステップ430で計算される。すなわち、内部データおよび知られた特徴位置および観察された特徴位置の間の対応の組を用いることで、カメラ姿勢が較正プレートに対して計算される。このステップがカメラが事前較正されていることを想定している。しかしながら、別の実施形態では、カメラが集合されたデータを用いて較正されても良く、これにより2つの処理、すなわち先ずカメラを較正し、次にヘッドマシンビジョンシステムおよびロボットの間の較正を実行することを避けても良い。取得画像および対応するロボット姿勢が次いでステップ435で事前処理される。この事前処理が例示的に各プレートおよびロボットの動きを記録する。画像およびロボット姿勢の各対が次いで再配列されて動きを最大にする。ステップ430で計算された事前較正のカメラパラメータのある各カメラ姿勢の場合、各2つのカメラ姿勢の間の動きが計算される。同様に、2つのカメラの姿勢の間の動きが計算される。カメラ動きおよびロボット動きの対がすべて計算され、所定の閾値でカットされる差異の対が異常値と見なされて動き対から除かれる。
ロボットおよびカメラ動きの対に対して、単一軸の回りの等価な回転を用いて回転を表わす場合、またはスクリュモーションを用いて回転を表わす場合、回転角が理想状態と等価とされる。したがって、ロボット動きおよびカメラ動きの間の回転角の同じ対との相異が差異として用いられる。
装置が再配列によって姿勢から任意の順の一貫した動きを抽出でき、実質的に回転の動きを用いることができ、その結果、さらに安定で正確でロバスト性のある較正を決定する。
尚、別の実施形態では、ステップ430−440が任意である。較正装置が次いで直線系を解いて、ステップ440でロボット基台座標系における変換を計算する。別の実施形態では、ステップ442で、カメラ−ロボット変換および端部作動体−較正プレート変換の初期推量が得られる。変換が次いでステップ445で精密化される。精密化が予測された上述の2次元画像特徴位置および発見された特徴位置の間の二乗総和差異を最小にすることに基づく。別法では、端部作動体からカメラへの変換、およびプレートからロボット基台系への変換に対する初期推量が先ず変換を用いて報告されたロボット姿勢および計算されたロボット姿勢の間の差異を最小にする個々の精密化で精密化される。次いで、精密化された変換が2次元特徴位置差異ベースの精密化へ供給される。別法では、チェックステップが精密化の後に追加されて、精密化の結果がチェック基準に対して精密化されていない結果よりも良い結果を提供しない場合に精密化された結果を無視する。
変換一貫精密化(報告されたロボット姿勢および計算されたロボット姿勢の0間の差異を変換を用いて最小にする)が、複数のカメラに対して位置を同時に精密化する。換言すると、複数の動いているカメラの場合に対して、較正プレート座標系からロボット基台座標系へ変換が1つしかない。
変換一貫精密化の1つの実施形態が次のようである。Zが較正プレート座標系からロボット基台座標系への変換を指すものとし、Xがカメラ座標系からロボット端部作動体座標系への変換である。Biがi点におけるロボット姿勢(ロボット端部作動体の座標系からロボット基台座標系への変換)である。Aiがi点における1つのカメラに対する較正プレート姿勢(較正プレート座標系からカメラ座標系への変換)である。変換Aiが測定された変換と呼ばれる場合がある。次の構成が識別の変換と言える(というのは、較正プレート座標系から較正プレート座標系への変換の構成であるからである)。

Z_inverse*Bi**Ai

精密化の目的がすべてのカメラおよび動きに対する各Z_inverse*Bi**Aiおよび識別の変換の間の総合差異を最小にすることである。構成Z_inverse*Bi**Aiの逆数が予測された変換と呼ばれる場合がある。
ハンドアイ較正の用途において、2つの変換(2つの姿勢)の間の差を計算する例示的に方法が次のように作業空間の大きさを用いることに基づく。ロボット−視覚用途の空間容積が境界ボックスで表されると仮定すると、変換X1および変換X2の間の差が変換、特には境界ボックスの8頂点、v1からv8でマッピングされた点の間の距離を検討して計算される。

Σ(X1*vi−X2*vi)
i=1−8
例示的にステップが画像特徴ベースの精密化を用いてさらにカメラ−端部作動体変換およびロボット基台−較正プレート変換を精密化する前に、これらを精密化することである。最初にマッピングされた点の間の差異の基準を用いて変換を精密化することで、画像特徴ベースの精密化に対してより良い初期推量が得られ、ハンドアイ較正が高速化され、そのロバスト性もより高められる。
チェック基準の1つの実施形態が、精密化前の差異の二乗平均平方根と比較されるように、精密化後に計算された画像座標系差の差異の二乗平均平方根である。ある場合では、ロボット動きが視覚装置より正確ではなく、精密化が不正確なロボット姿勢に基づくカメラ−端部作動体変換およびロボット基台−較正プレート変換に過剰適合かもしれない。精密化の前後で残留を比較して、精密化の結果を取り込むかを決定できる。
精密化が改善されたかどうかを判断する別の方法が、精密化後の計算された画像座標系における差異の二乗平均平方根をカメラ較正の画像座標系における差異の二乗平均平方根と比較することである。精密化後の残留をカメラ較正に関連された残留と比較することによって、精密化からの結果を取り込むかを判断できる。
カメラ/マシンビジョンシステムが次いでステップ450で変換で構成される。手順400が次いでステップ455で完了する。
D.制御メカニズム
図5が本発明の例示の実施形態による機械視覚装置およびロボット用の制御メカニズムを示す代表的な環境500の概略ブロック図である。ロボット基台110が端部作動体120をその端末に有する関節アーム115に内部接続されて動作する。例示的に、ロボット制御装置500がプロセッサ515、入力/出力アダプタセット520、およびメモリ525を備える。メモリ525に保存されるのは、ロボット制御装置505およびロボットとを制御するソフトウェア530である。例示的に、ロボット制御装置505がプログラマブルリードオンリメモリ(PROM)や、不揮発ランダムアクセスメモリ(NVRAM)などを使用することを含む様々なフォーマットに移植されて良い。このように、ロボット制御装置505の構成要素がただ例として取り上げて説明したに過ぎない。尚、さらに別の実施形態では、ロボット制御装置505がソフトウェアなどを持たないハードウェア接続であっても良い。
また、環境500内には、カメラ105A、Bが備えられる。尚、環境500には、カメラ105が空間に固定されるように示されているが、別の実施形態では、カメラがロボットの関節アームまたは/および端部作動体120に実装されても良い。このように、カメラ105が空間に固定されることが単に例として取り上げているに説明しているに過ぎない。カメラ105が機械視覚装置510と動作可能に内部接続される。機械視覚装置510が例示的にプロセッサ535、入力/出力アダプタ540およびメモリ545を備える。メモリ545が例示的に本発明の例示的な実施形態による新規の較正技術を実行するソフトウェア550を有する。また、ロボット制御装置505を参照して上述したように、機械視覚装置510が、代替、または追加のおよび/または異なる構成要素を備えて良い。このように本明細書では単に例として取り上げて説明したに過ぎない。
上記に本発明の例示的な実施形態を詳述してきた。編成において発明の主旨および範囲から逸脱しないで様々な変体が生成できる。また、本説明がハードウェア上で実行されるソフトウェアに関して記載したが、本発明が教示されたことがソフトウェアとして実行できることは明白に分かり、該ソフトウェアにはプログラム指令を有し、コンピュータや、ハードウェア、ファームウェア、それらの複合上で実行するコンピュータ読取り可能メディアが含まれる。したがって、上記の説明は単に例として取り上げたに過ぎず、発明の範囲を限定するものではない。

Claims (36)

  1. マシンビジョンシステムおよびロボットの間の較正の決定方法であって、
    空間に固定されたカメラを用い、前記ロボットをロボット用の作業域内で最初の姿勢にして前記ロボットの作動体に固定された較正対象の最初の画像を取得し、前記ロボットをロボット用の作業域内で次の姿勢にして前記較正対象の次の画像を取得するステップであって、前記最初の姿勢と前記次の姿勢が互いに異なり、前記較正対象が第1の対象の特徴および第2の対象の特徴を備え、前記第1の特徴および前記第2の特徴が互いに固定の既知の距離に配置され、前記ロボットがロボット座標系を有し、前記カメラがカメラ座標系を有し、前記作動体が作動体座標系を有し、較正対象が対象座標系を有する、画像を取得するステップ、
    前記カメラ座標系と前記ロボット座標系との間のカメラ―ロボット変換を特定するステップ、
    前記対象座標系と前記作動体座標系との間の対象―作動体変換を特定するステップ、
    前記最初の画像に第1の最初の画像の特徴および第2の最初の画像の特徴の位置を特定し、前記次の画像に第1の次の画像の特徴および第2の次の画像の特徴の位置を特定するステップであって、前記第1の最初の画像の特徴および前記第1の次の画像の特徴が前記第1の対象の特徴に対応し、前記第2の最初の画像の特徴および前記第2の次の画像の特徴が前記第2の対象の特徴に対応する、特徴の位置を特定するステップ、
    前記固定の既知の距離、前記最初の姿勢、前記次の姿勢、前記カメラ―ロボット変換、および前記対象―作動体変換を用いて、前記最初の画像に対する、予測される第1の最初の画像の特徴および予測される第2の最初の画像の特徴、並びに、前記次の画像に対する、予測される第1の次の画像の特徴および予測される第2の次の画像の特徴を算出するステップであって、前記予測される第1の最初の画像の特徴および前記予測される第1の次の画像の特徴が前記第1の対象の特徴に対応し、前記予測される第2の最初の画像の特徴および前記予測される第2の次の画像の特徴が前記第2の対象の特徴に対応する、特徴を算出するステップ、
    前記カメラ―ロボット変換または前記対象―作動体変換を変更して、前記第1の最初の画像の特徴および前記予測される第1の最初の画像の特徴、前記第2の最初の画像の特徴および前記予測される第2の最初の画像の特徴、前記第1の次の画像の特徴および前記予測される第1の次の画像の特徴、並びに前記第2の次の画像の特徴および前記予測される第2の次の画像の特徴、の少なくとも1つの間の差異を最少にすることで、最適化された変換を生成するステップ、
    前記最適化された変換を用いて、前記マシンビジョンシステムおよび前記ロボットを較正するステップ
    を含むことを特徴とする較正の決定方法。
  2. 前記較正対象が較正プレートを含むことを特徴とする請求項1に記載の較正の決定方法。
  3. 前記最初の姿勢と前記次の姿勢との間の差異には、少なくとも2つの平行でない軸の回りの回転が含まれていることを特徴とする請求項1に記載の較正の決定方法。
  4. 前記回転は、少なくとも5°の回転とされることを特徴とする請求項3に記載の較正の決定方法。
  5. 取得した画像(以下、「取得画像」という。)の組を事前処理して異常値を除去するステップをさらに含み、該事前処理するステップには、
    異常値の組を決定するステップと、
    異常値の組を決定するステップに応じて、前記異常値を有する取得画像の組から1つまたは複数の画像を削除し、減少された取得画像の組を生成するステップと、
    前記減少された取得画像の組を再配列して、所望の動きを取得するステップと、
    が含まれていることを特徴とする請求項1に記載の較正の決定方法。
  6. 前記所望の動きには、前記減少された取得画像の組の識別の対の間の変化が含まれていることを特徴とする請求項5に記載の較正の決定方法。
  7. 前記変換が自由度6とされることを特徴とする請求項1に記載の較正の決定方法。
  8. マシンビジョンシステムおよびロボットの間の較正の決定方法であって、
    前記ロボットの作動体に固定されたカメラを用いて、前記ロボットがロボット用の作業域内で最初の姿勢を取って空間に固定された較正対象の最初の画像を取得し、前記ロボット用の作業域内で次の姿勢を取って前記較正対象の次の画像を取得するステップであって、前記最初の姿勢と前記次の姿勢が互いに異なり、前記較正対象が第1の対象の特徴および第2の対象の特徴を備え、前記第1の特徴および前記第2の特徴が互いに対して固定の既知の距離に配置され、前記ロボットがロボット座標系を有し、前記カメラがカメラ座標系を有し、前記作動体が作動体座標系を有し、前記較正対象が較正対象座標系を有する、画像を取得するステップ、
    前記対象座標系と前記ロボット座標系との間の対象―ロボット変換を特定するステップ、
    前記カメラ座標系と前記作動体座標系との間のカメラ―作動体変換を特定するステップ、
    前記最初の画像に第1の最初の画像の特徴および第2の最初の画像の特徴の位置を特定し、前記次の画像に第1の次の画像の特徴および第2の次の画像の特徴の位置を特定するステップであって、前記第1の最初の画像の特徴および前記第1の次の画像の特徴が前記第1の対象の特徴に対応し、前記第2の最初の画像の特徴および前記第2の次の画像の特徴が前記第2の対象の特徴に対応する、特徴の位置を特定するステップ、
    前記固定の既知の距離、前記最初の姿勢、前記次の姿勢、前記対象―ロボット変換、および前記カメラ―作動体変換を用いて、前記最初の画像に対する、予測される第1の最初の画像の特徴および予測される第2の最初の画像の特徴、並びに前記次の画像に対する、予測される第1の次の画像の特徴および予測される第2の次の画像の特徴を算出するステップであって、前記予測される第1の最初の画像の特徴および前記予測される第1の次の画像の特徴が前記第1の対象の特徴に対応し、前記予測される第2の最初の画像の特徴および前記予測される第2の次の画像の特徴が前記第2の対象の特徴に対応する、特徴を算出するステップ、
    前記対象―ロボット変換または前記カメラ―作動体変換を変更して、前記第1の最初の画像の特徴および前記予測される第1の最初の画像の特徴、前記第2の最初の画像の特徴および前記予測される第2の最初の画像の特徴、前記第1の次の画像の特徴および前記予測される第1の次の画像の特徴、および前記第2の次の画像の特徴および前記予測される第2の次の画像の特徴、の少なくとも1つの間の差異を最少にして、最適化した変換を生成するステップ、
    前記最適化した変換を用いて、前記マシンビジョンシステムおよび前記ロボットを較正するステップ
    を含むことを特徴とする較正の決定方法。
  9. 前記較正対象が較正プレートを含むことを特徴とする請求項に記載の較正の決定方法。
  10. 前記最初の姿勢と前記次の姿勢との間の差異には、少なくとも2つの平行でない軸の回りの回転が含まれていることを特徴とする請求項に記載の較正の決定方法。
  11. 前記回転は、少なくとも5°の回転であることを特徴とする請求項1に記載の較正の決定方法。
  12. 前記取得した画像(以下、「取得画像」という。)の組を事前処理して異常値を除去するステップをさらに含み、該事前処理するステップには、
    異常値の組を決定するステップと、
    異常値の組を決定するステップに対応して、前記異常値を有する取得画像の組から1つまたは複数の画像を削除し、減少された取得画像の組を生成するステップと、
    前記減少された取得画像の組を再配列して所望の動きを取得するステップと、
    が含まれていることを特徴とする請求項に記載の較正方法。
  13. 前記所望の動きには、前記減少された取得画像の組の識別の対の間の変化が含まれていることを特徴とする請求項1に記載の較正方法。
  14. 前記変換が自由度6とされることを特徴とする請求項に記載の較正方法。
  15. マシンビジョンシステムおよびロボットの間の較正の決定方法であって、
    空間に固定された主のカメラを用いて、前記ロボットがロボット用の作業域内で主の姿勢を取って前記ロボットの作動体に固定された較正対象の主の最初の画像を取得し、前記ロボットが前記ロボット用の作業域内で次の姿勢を取って前記較正対象の主の次の画像を取得するステップであって、前記主の最初の姿勢と前記主の次の姿勢が互いに異なり、前記較正対象が第1の対象の特徴および第2の対象の特徴を備え、前記第1の特徴および前記第2の特徴が互いに対して固定の既知の距離に配置され、前記ロボットがロボット座標系を有し、前記主のカメラが主のカメラ座標系を有し、前記作動体が作動体座標系を有し、較正対象が較正対象座標系を有する、画像を取得するステップ、
    空間に固定された副のカメラを用いて、前記ロボットが前記ロボット用の作業域内で副の姿勢を取って前記較正対象の副の最初の画像を取得し、前記ロボットが前記ロボット用の作業域内で副の次の姿勢を取って前記較正対象の副の次の画像を取得するステップであって、前記副の最初の姿勢と前記副の次の姿勢が互いに異なり、前記副のカメラが副のカメラ座標系を有する画像を取得するステップ、
    前記主のカメラおよび前記副のカメラの座標系の各々と前記ロボット座標系の間のカメラ―ロボット変換を特定するステップ、
    前記対象座標系と前記作動体座標系との間の対象―作動体変換を特定するステップ、
    第1の主の最初の画像の特徴および第2の主の最初の画像の特徴の位置を前記主の最初の画像に特定し、前記主の次の画像に第1の主の次の画像の特徴および第2の主の次の画像の特徴の位置を特定し、前記副の最初の画像に第1の副の最初の画像の特徴および第2の副の最初の画像の特徴の位置を特定し、前記副の次の画像に第1の副の次の画像の特徴および第2の副の次の画像の特徴の位置を特定するステップであって、前記第1の主の最初の画像の特徴、前記第1の主の次の画像の特徴、前記第1の副の最初の画像の特徴、および前記第1の副の次の画像の特徴が前記第1の対象の特徴に対応し、前記第2の主の最初の画像の特徴、前記第2の主の次の画像の特徴、前記第2の副の最初の画像の特徴、および前記第2の副の次の画像の特徴が前記第2の対象の特徴に対応する、特徴の位置を特定するステップ、
    前記固定の既知の距離、前記主の最初の姿勢、前記主の次の姿勢、前記副の最初の姿勢、前記副の次の姿勢、前記カメラ―ロボット変換、および前記対象―作動体変換を用いて、前記主の最初の画像に対する、予測される第1の主の最初の画像の特徴および予測される第2の主の最初の画像の特徴、前記主の次の画像に対する、予測される第1の主の次の画像の特徴および予測される第2の主の次の画像の特徴、前記副の最初の画像に対する、予測される第1の副の主の最初の画像の特徴および予測される第2の副の最初の画像の特徴、並びに前記副の次の画像に対する、予測される第1の副の次の画像の特徴および予測される第2の副の次の画像の特徴を算出するステップであって、前記予測される第1の主の最初の画像の特徴、前記予測される第1の主の次の画像の特徴、前記予測される第1の副の最初の画像の特徴、前記予測される第1の副の次の画像の特徴が前記第1の対象の特徴に対応し、前記予測される第2の主の最初の画像の特徴、前記予測される第2の主の次の画像の特徴、前記予測される第2の副の最初の画像の特徴、前記予測される第2の副の次の画像の特徴が前記第2の対象の特徴に対応する、特徴を算出するステップ、
    前記カメラ―ロボット変換および前記対象―作動体変換を変更して、前記第1の主の最初の画像の特徴および前記予測される第1の主の最初の画像の特徴、前記第2の主の最初の画像の特徴および前記予測される第2の主の最初の画像の特徴、前記第1の主の次の画像の特徴および前記予測される第1の主の次の画像の特徴、前記第2の主の次の画像の特徴および前記予測される第2の主の次の画像の特徴、前記第1の副の最初の画像の特徴および前記予測される第1の副の最初の画像の特徴、前記第2の副の最初の画像の特徴および前記予測される第2の副の最初の画像の特徴、前記第1の副の次の画像の特徴および前記予測される第1の副の次の画像の特徴、および前記第2の副の次の画像の特徴および前記予測される第2の副の次の画像の特徴の少なくとも1つの間の差異を最少にし、最適化した変換を生成するステップ、
    前記最適化した変換を用いて、前記マシンビジョンシステムおよび前記ロボットを較正するステップ
    を含んでいることを特徴とする較正の決定方法。
  16. 前記較正対象が較正プレートを含むことを特徴とする請求項1に記載の較正の決定方法。
  17. 前記主の最初の姿勢と前記主の次の姿勢との間の差異、および、前記副の最初の姿勢と前記副の次の姿勢との間の差異にはそれぞれ、少なくとも2つの平行でない軸の回りの回転が含まれていることを特徴とする請求項1に記載の較正の決定方法。
  18. 前記回転は、少なくとも5°の回転であることを特徴とする請求項1に記載の較正の決定方法。
  19. 前記取得した画像(以下、「取得画像」という。)の組を事前処理して異常値を除去するステップをさらに含み、該事前処理するステップには、
    異常値の組を決定するステップと、
    異常値の組を決定するステップに対応して、前記異常値を有する取得画像の組から1つまたは複数の画像を削除し、減少された取得画像の組を生成するステップと、
    前記減少された取得画像の組を再配列して所望の動きを取得するステップと、
    が含まれていることを特徴とする請求項1に記載の較正の決定方法。
  20. 前記所望の動きには、前記減少された取得画像の組の特定の対の間の変化が含まれていることを特徴とする請求項19に記載の較正の決定方法。
  21. 前記カメラ―ロボット変換を特定するステップが、前記主および副のカメラのそれぞれに対し前記変換を同時に特定することを特徴とする請求項1に記載の較正の決定方法。
  22. 前記変換が自由度6とされることを特徴とする請求項1に記載の較正の決定方法。
  23. マシンビジョンシステムおよびロボットの間の較正の決定方法であって、
    前記ロボットの作動体に固定されたカメラを用いて、前記ロボットがロボット用の作業域内で主の最初の姿勢を取って空間に固定された較正対象の主の最初の画像を取得し、前記ロボットが前記ロボット用の作業域内で主の次の姿勢を取って前記較正対象の主の次の画像を取得するステップであって、前記主の最初の姿勢と前記主の次の姿勢が互いに異なり、前記較正対象が第1の対象の特徴および第2の対象の特徴を備え、前記第1の特徴および前記第2の特徴が互いに対して固定の既知の距離に配置され、前記ロボットがロボット座標系を有し、前記主カメラが主カメラ座標系を有し、前記作動体が作動体座標系を有し、較正対象が較正対象座標系を有する、主の画像を取得するステップ、
    前記ロボットの作動体に固定された副カメラを用いて、前記ロボットが前記ロボット用の作業域内で副の最初の姿勢を取って空間に固定された較正対象の副の次の最初の画像を取得し、前記ロボットが前記ロボット用の作業域内で副の次の姿勢を取って前記較正対象の副の次の画像を取得するステップであって、前記副の最初の姿勢と前記副の次の姿勢が互いに異なり、前記副カメラが副カメラ座標系を有し、
    前記主および副カメラ座標系の各々と前記作動体変換との間のカメラ―作動体変換を特定する、副の画像を取得するステップ、
    前記対象座標系と前記ロボット座標系との間の対象―ロボット変換を特定するステップ、
    前記主の最初の画像に第1の主の最初の画像の特徴および第2の主の最初の画像の特徴の位置を特定し、前記主の次の画像に第1の主の次の画像の特徴および第2の主の次の画像の特徴の位置を特定し、前記副の最初の画像に第1の副の最初の画像の特徴および第2の副の最初の画像の特徴の位置を特定し、前記副の次の画像に第1の副の次の画像の特徴および第2の副の次の画像の特徴の位置を特定するステップであって、前記第1の主の最初の画像の特徴、前記第1の主の次の画像の特徴、前記第1の副の最初の画像の特徴、および前記第1の副の次の画像の特徴が前記第1の対象の特徴に対応し、前記第2の主の最初の画像の特徴、前記第2の主の次の画像の特徴、前記第2の副の最初の画像の特徴、および前記第2の副の次の画像の特徴が前記第2の対象の特徴に対応する、特徴の位置を特定するステップ、
    前記固定の既知の距離、前記主の最初の姿勢、前記主の次の姿勢、前記副の最初の姿勢、前記副の次の姿勢、前記カメラ―作動体変換、前記対象―ロボット変換を用いて、前記主の最初の画像に対する、前記予測される第1の主の最初の画像の特徴および予測される第2の主の最初の画像の特徴、前記主の次の画像に対する、予測される第1の主の次の画像の特徴および予測される第2の主の次の画像の特徴、前記副の最初の画像に対する、前記予測される第1の副の最初の画像の特徴および予測される第2の副の最初の画像の特徴、前記副の次の画像に対する、予測される第1の副の次の画像の特徴および予測される第2の副の次の画像の特徴を算出するステップであって、前記前記予測される第1の主の最初の画像の特徴、前記予測される第1の主の次の画像の特徴、前記予測される第1の副の最初の画像の特徴、および前記予測される第1の副の次の画像の特徴が前記第1の対象の特徴に対応し、前記予測される第2の主の最初の画像の特徴、前記予測される第2の主の次の画像の特徴、前記予測される第2の副の最初の画像の特徴、および前記予測される第2の副の次の画像の特徴が前記第2の対象の特徴に対応する、画像の特徴を算出するステップ、
    前記カメラ―作動体変換および前記対象―ロボット変換を変更して、前記第1の主の最初の画像の特徴および前記予測される第1の主の最初の画像の特徴、前記第2の主の最初の画像の特徴および前記予測される第2の主の最初の画像の特徴、前記第1の次の画像の特徴および前記予測される第1の主の次の画像の特徴、および前記第2の主の次の画像の特徴および前記予測される第2の主の次の画像の特徴、前記第1の副の最初の画像の特徴および前記予測される第1の副の最初の画像の特徴、前記第2の副の最初の画像の特徴および前記予測される第2の副の最初の画像の特徴、前記第1の副の次の画像の特徴および前記予測される第1の副の次の画像の特徴、並びに前記第2の副の次の画像の特徴および前記予測される第2の副の次の画像の特徴、の少なくとも1つの間の差異を最少にして、最適化した変換を生成するステップ、
    前記最適化した変換を用いて、前記マシンビジョンシステムおよび前記ロボットを較正するステップ
    を含んでいることを特徴とする較正の決定方法。
  24. 前記較正対象が較正プレートを含むことを特徴とする請求項2に記載の較正の決定方法。
  25. 前記主の最初の姿勢と前記主の次の姿勢との間の差異、および、前記副の最初の姿勢と前記副の次の姿勢との間の差異にはそれぞれ、少なくとも2つの平行でない軸の回りの回転が含まれていることを特徴とする請求項2に記載の較正の決定方法。
  26. 前記回転は、少なくとも5°の回転であることを特徴とする請求項2に記載の較正の決定方法。
  27. 前記取得した画像(以下、「取得画像」という。)の組を事前処理して異常値を除去するステップをさらに含み、該事前処理するステップには、
    異常値の組を決定するステップと、
    異常値の組を決定するステップに対応して、前記異常値を有する取得画像の組から1つまたは複数の画像を削除し、減少された取得画像の組を生成するステップと、
    前記減少された取得画像の組を再配列して所望の動きを取得するステップと、
    が含まれていることを特徴とする請求項2に記載の較正の決定方法。
  28. 前記所望の動きには、前記減少された取得画像の組の識別の対の間の変化が含まれていることを特徴とする請求項2に記載の較正の決定方法。
  29. 前記カメラ―作動体変換を特定することが、前記主および副のカメラそれぞれのカメラに対し変換を同時に特定することを特徴とする請求項2に記載の較正の決定方法。
  30. 前記変換が自由度6とされることを特徴とする請求項2に記載の較正の決定方法。
  31. マシンビジョンシステムおよびロボットの間の較正の決定方法であって、
    空間に固定されたカメラを用いて、前記ロボットがロボット用の作業域内で較正対象を複数の異なる姿勢に動かして前記ロボットの作動体に固定された較正対象の複数の画像を取得するステップであって、前記較正対象が、第1の対象の特徴、第2の対象の特徴を備え、前記第1の較正対象の特徴および前記第2の較正対象の特徴が互いに対して固定の既知の距離に配置され、前記ロボットがロボット座標系を有し、前記2つ以上のカメラが各々カメラ座標系を有し、前記作動体が作動体座標系を有し、前記較正対象が較正対象座標系を有する、画像を取得するステップ、
    前記2つ以上のカメラ座標系の各々と前記ロボット座標系との間のカメラ―ロボット変換を特定するステップ、
    前記対象座標系と前記作動体座標系との間の対象―作動体変換を特定するステップ、
    前記複数の画像に画像の特徴を特定するステップであって、前記画像の特徴が前記第1の対象の特徴および前記第2の対象の特徴に対応する、画像の特徴を特定するステップ、
    前記固定の既知の距離、前記複数の姿勢、前記2つ以上のカメラ―ロボット変換、および前記対象―作動体変換を用いて、前記複数の画像における予測される特徴を算出するステップであって、前記予測される特徴が前記第1の対象の特徴および前記第2の対象の特徴に対応する、特徴を算出するステップ、
    前記2つ以上のカメラ―ロボット変換および対象―作動体変換を同時に変更することにより、前記予測される特徴と画像の特徴との間の差異を最少にし、最適化した変換を生成するステップ、
    前記最適化した変換を用いて、前記マシンビジョンシステムおよび前記ロボットを較正するステップ
    を含んでいることを特徴とする較正の決定方法。
  32. マシンビジョンシステムおよびロボットの間の較正の決定方法であって、
    ロボットの作動体に固定された2つ以上のカメラを用いて、前記ロボットがロボット用の作業域内で2つ以上のカメラを複数の異なる姿勢に動かして、空間に固定された較正対象の複数の画像を取得するステップであって、前記較正対象が第1の対象の特徴および第2の対象の特徴を備え、前記第1の対象の特徴および前記第2の対象の特徴が互いに対して固定の既知の距離に配置され、前記ロボットがロボット座標系を有し、前記2つ以上のカメラが各々カメラ座標系を有し、前記作動体が作動体座標系を有し、前記較正対象が較正対象座標系を有する、画像を取得するステップ、
    前記2つ以上のカメラ座標系の各々と前記作動体座標系との間のカメラ―作動体変換を特定するステップ、
    前記対象座標系と前記ロボット座標系との間の対象―ロボット変換を特定するステップ、
    前記複数の画像に画像の特徴を特定するステップであって、前記画像の特徴が前記第1の対象の特徴および前記第2の対象の特徴に対応するステップ、
    前記固定の既知の距離、前記複数の姿勢、前記2つ以上のカメラ―作動体変換、および前記対象―ロボット変換を用いて、前記複数の画像における予測される特徴を算出するステップであって、前記予測される特徴が前記第1の対象の特徴および前記第2の対象の特徴に対応する、特徴を算出するステップ、
    前記2つ以上のカメラ―作動体変換および対象―ロボット変換を同時に変更することにより、前記予測される特徴と画像の特徴との間の差異を最少にし、最適化した変換を生成するステップ、
    前記最適化した変換を用いて、前記マシンビジョンシステムおよび前記ロボットを較正するステップ
    を含んでいることを特徴とする較正の決定方法。
  33. マシンビジョンシステムおよびロボットの間の較正方法であって、
    カメラ姿勢およびロボット姿勢の対の組を取得するステップと、
    前記取得した対の組の中から対応するロボットの動きおよびカメラの動きを解析するステップと、
    前記解析に基づいて異常値を検出するステップと、
    検出した異常値が除去された状態で前記対の組を再配列して、所望の動きのカメラ姿勢およびロボット姿勢の対の組を取得するステップと、
    前記所望の動きのカメラ姿勢およびロボット姿勢の対の組を用い、少なくとも2つの対のカメラ姿勢およびロボット姿勢の較正対象の複数の画像を取得し、前記複数の画像に特定された前記較正対象の特徴と前記カメラ用のカメラ座標系を用いて、前記ロボットの姿勢によって予測される前記較正対象の特徴、前記較正対象に対する較正対象座標系、静止している前記ロボットの一部分に対するロボット座標系、および移動して前記ロボット姿勢を取る前記ロボットの一部分に対する作動体座標系、との間の差異を最小にすることによって、較正を実行するステップ
    を含んでいることを特徴とする較正方法。
  34. 前記所望の動きには、少なくとも5°の回転が含まれていることを特徴とする請求項3に記載の較正方法。
  35. 前記所望の動きには、少なくとも2つの平行でない軸の回りの回転が含まれていることを特徴とする請求項3に記載の較正方法。
  36. 前記対の組には、少なくとも3つのカメラ姿勢およびロボット姿勢の対が含まれていることを特徴とする請求項3に記載の較正方法。
JP2013511241A 2010-05-14 2011-05-13 マシンビジョンシステムおよびロボットの間のロバストな較正の装置および方法 Active JP5904676B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/780,119 2010-05-14
US12/780,119 US9393694B2 (en) 2010-05-14 2010-05-14 System and method for robust calibration between a machine vision system and a robot
PCT/US2011/036460 WO2011143576A2 (en) 2010-05-14 2011-05-13 System and method for robust calibration between a machine vision system and a robot

Publications (2)

Publication Number Publication Date
JP2013526423A JP2013526423A (ja) 2013-06-24
JP5904676B2 true JP5904676B2 (ja) 2016-04-20

Family

ID=44121246

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013511241A Active JP5904676B2 (ja) 2010-05-14 2011-05-13 マシンビジョンシステムおよびロボットの間のロバストな較正の装置および方法

Country Status (5)

Country Link
US (3) US9393694B2 (ja)
JP (1) JP5904676B2 (ja)
CN (1) CN103209809B (ja)
DE (1) DE112011101730B4 (ja)
WO (1) WO2011143576A2 (ja)

Families Citing this family (153)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9610628B2 (en) 2009-05-04 2017-04-04 Orametrix, Inc. Apparatus and method for customized shaping of orthodontic archwires and other medical devices
US9393694B2 (en) 2010-05-14 2016-07-19 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
JP5685027B2 (ja) 2010-09-07 2015-03-18 キヤノン株式会社 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム
US20120327214A1 (en) * 2011-06-21 2012-12-27 HNJ Solutions, Inc. System and method for image calibration
US9188973B2 (en) 2011-07-08 2015-11-17 Restoration Robotics, Inc. Calibration and transformation of a camera system's coordinate system
EP2729850A4 (en) * 2011-08-11 2015-07-08 Siemens Healthcare Diagnostics METHOD AND DEVICE FOR CALIBRATING AN ALIGNMENT OF A ROBOT GRIPPER AND A CAMERA
US20150002855A1 (en) * 2011-12-19 2015-01-01 Peter Kovacs Arrangement and method for the model-based calibration of a robot in a working space
WO2013091596A1 (de) * 2011-12-19 2013-06-27 Isios Gmbh Anordnung und verfahren zur modellbasierten kalibration eines roboters in einem arbeitsraum
JP5938954B2 (ja) * 2012-03-06 2016-06-22 株式会社ジェイテクト ロボットのキャリブレーション方法及びキャリブレーション装置
JP5949242B2 (ja) * 2012-07-11 2016-07-06 セイコーエプソン株式会社 ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム
DE102012014312A1 (de) * 2012-07-19 2014-05-15 Kuka Roboter Gmbh Robotergeführte Messanordnung
JP5620445B2 (ja) * 2012-09-13 2014-11-05 ファナック株式会社 選択条件に基づいてロボットの保持位置姿勢を決定する物品取出装置
JP6108860B2 (ja) * 2013-02-14 2017-04-05 キヤノン株式会社 ロボットシステム及びロボットシステムの制御方法
US10664994B2 (en) * 2013-02-25 2020-05-26 Cognex Corporation System and method for calibration of machine vision cameras along at least three discrete planes
CN105073348B (zh) 2013-04-05 2016-11-09 Abb技术有限公司 用于校准的机器人系统和方法
CN103389699B (zh) * 2013-05-09 2015-08-12 浙江大学 基于分布式智能监测控制节点的机器人监控及自主移动系统的运行方法
US10725478B2 (en) * 2013-07-02 2020-07-28 The Boeing Company Robotic-mounted monument system for metrology systems
JP6335460B2 (ja) * 2013-09-26 2018-05-30 キヤノン株式会社 ロボットシステムの制御装置及び指令値生成方法、並びにロボットシステムの制御方法
US9628778B2 (en) * 2013-10-14 2017-04-18 Eys3D Microelectronics, Co. Calibration system of a stereo camera and calibration method of a stereo camera
US10380764B2 (en) * 2013-12-18 2019-08-13 Cognex Corporation System and method for performing vision system planar hand-eye calibration from straight line features
CN104827480A (zh) * 2014-02-11 2015-08-12 泰科电子(上海)有限公司 机器人系统的自动标定方法
FR3019909B1 (fr) * 2014-04-11 2016-04-01 Snecma Module porte mires pour la calibration du systeme de vision d'un moyen de production
US9856037B2 (en) * 2014-06-18 2018-01-02 The Boeing Company Stabilization of an end of an extended-reach apparatus in a limited-access space
US9511496B2 (en) * 2014-06-20 2016-12-06 The Boeing Company Robot alignment systems and methods of aligning a robot
US9211643B1 (en) 2014-06-25 2015-12-15 Microsoft Technology Licensing, Llc Automatic in-situ registration and calibration of robotic arm/sensor/workspace system
CN105279775B (zh) * 2014-07-23 2019-09-17 广明光电股份有限公司 机器手臂的校正装置及方法
US10179407B2 (en) * 2014-11-16 2019-01-15 Robologics Ltd. Dynamic multi-sensor and multi-robot interface system
WO2016079967A1 (en) * 2014-11-21 2016-05-26 Seiko Epson Corporation Robot and robot system
JP6507792B2 (ja) * 2015-03-30 2019-05-08 セイコーエプソン株式会社 ロボットおよびロボットシステム
JP6565175B2 (ja) * 2014-11-21 2019-08-28 セイコーエプソン株式会社 ロボットおよびロボットシステム
JP6486679B2 (ja) 2014-12-25 2019-03-20 株式会社キーエンス 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム
TWI577493B (zh) 2014-12-26 2017-04-11 財團法人工業技術研究院 校正方法與應用此方法的自動化設備
US9616569B2 (en) * 2015-01-22 2017-04-11 GM Global Technology Operations LLC Method for calibrating an articulated end effector employing a remote digital camera
CN107530881B (zh) * 2015-01-29 2021-05-25 Abb瑞士股份有限公司 机器人系统和用于操作机器人的方法
EP3054265B1 (en) * 2015-02-04 2022-04-20 Hexagon Technology Center GmbH Coordinate measuring machine
CN104647390B (zh) * 2015-02-11 2016-02-10 清华大学 用于机械臂遥操作的多摄像机联合主动跟踪目标的方法
US10223589B2 (en) * 2015-03-03 2019-03-05 Cognex Corporation Vision system for training an assembly system through virtual assembly of objects
JP6562665B2 (ja) 2015-03-18 2019-08-21 蛇の目ミシン工業株式会社 ロボット
DE102015104587B4 (de) 2015-03-26 2022-04-28 Pi4_Robotics Gmbh Verfahren zum Kalibrieren eines Roboters an einem Arbeitsbereich und System zum Durchführen des Verfahrens
US9857786B2 (en) 2015-03-31 2018-01-02 Recognition Robotics, Inc. System and method for aligning a coordinated movement machine reference frame with a measurement system reference frame
US9878447B2 (en) * 2015-04-10 2018-01-30 Microsoft Technology Licensing, Llc Automated collection and labeling of object data
ZA201505409B (en) * 2015-07-27 2016-12-21 Csir A method of calibrating a helmet anda system therefor
US10290118B2 (en) * 2015-08-06 2019-05-14 Cognex Corporation System and method for tying together machine vision coordinate spaces in a guided assembly environment
US10173324B2 (en) * 2015-11-16 2019-01-08 Abb Schweiz Ag Facilitating robot positioning
JP2017100202A (ja) * 2015-11-30 2017-06-08 株式会社アイキューブテクノロジ ロボットシステム、制御装置、制御方法、及びプログラム
JP6674655B2 (ja) * 2016-01-12 2020-04-01 株式会社Ihi 相対データ較正装置と方法
US9815204B2 (en) * 2016-01-22 2017-11-14 The Boeing Company Apparatus and method to optically locate workpiece for robotic operations
DE102016103317B4 (de) * 2016-02-25 2018-12-06 Roboception Gmbh Verfahren zur Gewinnung von Kalibrierungsdaten
DE102016203701A1 (de) * 2016-03-07 2017-09-07 Kuka Roboter Gmbh Industrieroboter mit mindestens zwei Bilderfassungseinrichtungen
JP2017170571A (ja) * 2016-03-24 2017-09-28 セイコーエプソン株式会社 ロボット、ロボット制御装置、及びロボットシステム
US10214926B2 (en) * 2016-03-29 2019-02-26 Elid Technology International Pte Ltd System and method for cleaning external walls of building
CN105773661B (zh) * 2016-03-30 2018-08-21 广东速美达自动化股份有限公司 水平机器人固定相机下工件平移旋转标定方法
US10596706B2 (en) * 2016-04-08 2020-03-24 Delta Electronics, Inc. Mechanism-parameter-calibration method for robotic arm system
US11267125B2 (en) 2016-04-08 2022-03-08 Delta Electronics, Inc. Mechanism-parameter-calibration method for robotic arm system
US10322506B2 (en) 2016-05-06 2019-06-18 Kindred Systems Inc. Systems, devices, articles, and methods for using trained robots
DE102016212694A1 (de) * 2016-05-31 2017-11-30 Siemens Aktiengesellschaft Verfahren zur Orientierung eines Industrieroboters und Industrieroboter
WO2017220600A2 (de) * 2016-06-20 2017-12-28 Cognex Corporation Verfahren zur kalibrierung eines bilderfassenden sensors aus mindestens einer sensorkamera unter verwendung eines zeitlich kodierten mustertargets
CN107571290B (zh) * 2016-07-04 2020-04-28 北京航空航天大学 工业机器人末端执行器的校准装置、方法及系统
US10076842B2 (en) * 2016-09-28 2018-09-18 Cognex Corporation Simultaneous kinematic and hand-eye calibration
JP6490037B2 (ja) * 2016-10-04 2019-03-27 ファナック株式会社 移動可能な台車に支持されたロボットを備えるロボットシステム
SE540459C2 (en) * 2016-11-22 2018-09-18 Unibap Ab Measuring system and method of an industrial robot
CN106553195B (zh) * 2016-11-25 2018-11-27 中国科学技术大学 工业机器人抓取过程中的物体6自由度定位方法及系统
JP7179439B2 (ja) * 2016-11-28 2022-11-29 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
KR102576842B1 (ko) * 2017-01-04 2023-09-12 삼성전자주식회사 핸드-아이 캘리브레이션을 수행하는 로봇 및 전자 장치
JP6396516B2 (ja) 2017-01-12 2018-09-26 ファナック株式会社 視覚センサのキャリブレーション装置、方法及びプログラム
SG11201906809RA (en) 2017-01-24 2019-08-27 Angel Playing Cards Co Ltd Chip recognition system
US10661442B2 (en) * 2017-02-03 2020-05-26 Abb Schweiz Ag Calibration article for a 3D vision robotic system
JP6860843B2 (ja) * 2017-02-20 2021-04-21 株式会社安川電機 ロボットシステム、ロボット制御装置、及びロボット制御方法
WO2018199947A1 (en) * 2017-04-26 2018-11-01 Hewlett-Packard Development Company, L.P. Robotic structure calibrations
EP3642798A4 (en) * 2017-06-20 2020-12-16 Hewlett-Packard Development Company, L.P. DETERMINATIONS OF SENSOR POSITIONS
JP7003463B2 (ja) * 2017-07-11 2022-01-20 セイコーエプソン株式会社 ロボットの制御装置、ロボットシステム、並びに、カメラの校正方法
FR3069691B1 (fr) * 2017-07-25 2020-07-10 Safran Procede de determination de la position et de l'orientation d'un capteur optique matriciel par rapport a un robot porteur
JP2019029820A (ja) 2017-07-31 2019-02-21 セイコーエプソン株式会社 カメラの校正方法および校正用具
JP6886620B2 (ja) * 2017-08-09 2021-06-16 オムロン株式会社 キャリブレーション方法、キャリブレーションシステム及びプログラム
TWI668541B (zh) 2017-09-29 2019-08-11 財團法人工業技術研究院 機器人工具中心點校正系統及其方法
EP3737537A4 (en) * 2017-11-20 2022-05-04 Kindred Systems Inc. SYSTEMS, DEVICES, ARTICLES AND METHODS FOR CALIBRATION OF RANGEFINDERS AND ROBOTS
US11338441B2 (en) 2017-12-01 2022-05-24 Delta Electronics, Inc. Calibration system for robot tool and calibration method for the same
US11072074B2 (en) * 2017-12-13 2021-07-27 Cognex Corporation Calibration and operation of vision-based manipulation systems
CN107993227B (zh) * 2017-12-15 2020-07-24 深圳先进技术研究院 一种获取3d腹腔镜手眼矩阵的方法和装置
US11088004B2 (en) 2018-01-30 2021-08-10 Brooks Automation, Inc. Automatic wafer centering method and apparatus
CN108436909A (zh) * 2018-03-13 2018-08-24 南京理工大学 一种基于ros的相机和机器人的手眼标定方法
JP6777670B2 (ja) * 2018-03-27 2020-10-28 ファナック株式会社 画像処理を利用してロボットの教示を補正するロボットシステム
CN110349218A (zh) * 2018-04-03 2019-10-18 泰科电子(上海)有限公司 摄像机的标定方法和标定系统
CN112106110B (zh) * 2018-04-27 2023-02-10 上海趋视信息科技有限公司 标定相机的系统和方法
CN109048893A (zh) * 2018-07-27 2018-12-21 浙江工业大学 一种基于单目rgb相机的机械臂定位方法
WO2020024178A1 (zh) * 2018-08-01 2020-02-06 深圳配天智能技术研究院有限公司 一种手眼标定方法、系统及计算机存储介质
CN108769673A (zh) * 2018-08-07 2018-11-06 布勒索特克斯光电设备(合肥)有限公司 一种相机对准和光学校准的装置及方法
US11002529B2 (en) 2018-08-16 2021-05-11 Mitutoyo Corporation Robot system with supplementary metrology position determination system
US10751883B2 (en) 2018-08-16 2020-08-25 Mitutoyo Corporation Robot system with supplementary metrology position coordinates determination system
US10871366B2 (en) 2018-08-16 2020-12-22 Mitutoyo Corporation Supplementary metrology position coordinates determination system for use with a robot
US11745354B2 (en) 2018-08-16 2023-09-05 Mitutoyo Corporation Supplementary metrology position coordinates determination system including an alignment sensor for use with a robot
EP3755970A4 (en) * 2018-09-03 2021-11-24 ABB Schweiz AG ROBOT SYSTEM MANAGEMENT METHOD AND APPARATUS
US10913156B2 (en) 2018-09-24 2021-02-09 Mitutoyo Corporation Robot system with end tool metrology position coordinates determination system
CN110969665B (zh) * 2018-09-30 2023-10-10 杭州海康威视数字技术股份有限公司 一种外参标定方法、装置、系统及机器人
US11609574B2 (en) * 2018-11-13 2023-03-21 FLIR Belgium BVBA Extrinsic sensor calibration systems and methods
TWI677413B (zh) * 2018-11-20 2019-11-21 財團法人工業技術研究院 用於機械手臂系統之校正方法及裝置
US10926416B2 (en) * 2018-11-21 2021-02-23 Ford Global Technologies, Llc Robotic manipulation using an independently actuated vision system, an adversarial control scheme, and a multi-tasking deep learning architecture
TWI696529B (zh) * 2018-11-30 2020-06-21 財團法人金屬工業研究發展中心 自動定位方法以及自動控制裝置
TWI672206B (zh) * 2018-12-19 2019-09-21 財團法人工業技術研究院 機械手臂非接觸式工具中心點校正裝置及其方法以及具有校正功能的機械手臂系統
CN109719726B (zh) * 2018-12-30 2021-08-20 芜湖哈特机器人产业技术研究院有限公司 一种机械臂手眼标定装置及方法
CN109794963B (zh) * 2019-01-07 2021-06-01 南京航空航天大学 一种面向曲面构件的机器人快速定位方法
KR102577448B1 (ko) * 2019-01-22 2023-09-12 삼성전자 주식회사 핸드 아이 캘리브레이션 방법 및 시스템
US11911914B2 (en) 2019-01-28 2024-02-27 Cognex Corporation System and method for automatic hand-eye calibration of vision system for robot motion
DE102019102927B4 (de) 2019-02-06 2023-02-23 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren und Vorrichtung zum Bestimmen von dimensionalen und/oder geometrischen Eigenschaften eines Messobjekts
DE102019105466B3 (de) 2019-03-04 2020-08-06 Forward Ttc Gmbh Verfahren zum Betrieb eines Antriebssystems sowie Antriebssystem
US11254019B2 (en) * 2019-03-05 2022-02-22 The Boeing Company Automatic calibration for a robot optical sensor
US10369698B1 (en) * 2019-03-07 2019-08-06 Mujin, Inc. Method and system for performing automatic camera calibration for robot control
GB2582139B (en) * 2019-03-11 2021-07-21 Arrival Ltd A method for determining positional error within a robotic cell environment
TWI706841B (zh) * 2019-03-22 2020-10-11 達明機器人股份有限公司 3d相機與機械手臂座標系統的校正裝置及方法
US10399227B1 (en) 2019-03-29 2019-09-03 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
US10906184B2 (en) 2019-03-29 2021-02-02 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
US10576636B1 (en) * 2019-04-12 2020-03-03 Mujin, Inc. Method and control system for and updating camera calibration for robot control
CN111823222B (zh) * 2019-04-16 2021-04-27 华中科技大学无锡研究院 单目相机多视场视觉引导装置及引导方法
CN110378937B (zh) * 2019-05-27 2021-05-11 浙江工业大学 基于Kinect摄像头的工业机械臂人机安全距离检测方法
CN114025928A (zh) * 2019-06-27 2022-02-08 松下知识产权经营株式会社 末端执行器的控制系统以及末端执行器的控制方法
TWI699264B (zh) * 2019-07-05 2020-07-21 上銀科技股份有限公司 視覺導引機器手臂校正方法
KR20210004553A (ko) * 2019-07-05 2021-01-13 삼성전자주식회사 전자 장치, 이를 이용한 스테레오 영상 복원 방법 및 컴퓨터로 읽을 수 있는 기록 매체
TWI758626B (zh) * 2019-08-01 2022-03-21 達明機器人股份有限公司 機器手臂的視覺系統定位方法
JP6785931B1 (ja) * 2019-08-30 2020-11-18 Dmg森精機株式会社 生産システム
EP3792012B1 (en) * 2019-09-12 2023-12-27 Bayerische Motoren Werke Aktiengesellschaft Method and control unit for operating a rotating head system with multiple cameras
TWI708667B (zh) * 2019-09-27 2020-11-01 國立臺灣大學 運動裝置之位置與姿態校正裝置及系統與方法
JP7443014B2 (ja) 2019-10-08 2024-03-05 大豊精機株式会社 ロボットアーム試験装置
CN110634164B (zh) * 2019-10-16 2022-06-14 易思维(杭州)科技有限公司 视觉传感器快速标定方法
US11370121B2 (en) 2019-10-29 2022-06-28 Mujin, Inc. Method and system for determining poses for camera calibration
CN111131813B (zh) * 2019-10-29 2020-12-25 牧今科技 用于确定相机校准的姿态的方法、系统和介质
EP4046099A1 (en) 2019-11-12 2022-08-24 Bright Machines, Inc. A software defined manufacturing/assembly system
CN111191546A (zh) * 2019-12-20 2020-05-22 广西柳州联耕科技有限公司 基于机器视觉识别的产品智能装配方法
TWI706843B (zh) * 2020-01-02 2020-10-11 台達電子工業股份有限公司 機器人工具的校正方法與校正系統
US11826918B2 (en) * 2020-02-06 2023-11-28 Berkshire Grey Operating Company, Inc. Systems and methods for camera calibration with a fiducial of unknown position on an articulated arm of a programmable motion device
CN111591474B (zh) * 2020-02-28 2021-12-07 上海航天控制技术研究所 一种航天器在轨操作系统对准式手眼标定方法
US20210291376A1 (en) * 2020-03-18 2021-09-23 Cognex Corporation System and method for three-dimensional calibration of a vision system
CN111710002B (zh) * 2020-05-27 2022-09-16 华中科技大学 一种基于Optitrack系统的相机外参标定方法
CN111912337B (zh) * 2020-07-24 2021-11-09 上海擎朗智能科技有限公司 机器人位姿信息的确定方法、装置、设备和介质
US11548156B2 (en) * 2020-09-17 2023-01-10 Techman Robot Inc. Device and method for calibrating coordinate system of 3D camera and robotic arm
US20220134566A1 (en) * 2020-11-04 2022-05-05 X Development Llc Optimizing calibration with constraints between different coordinate frames
CN112847350B (zh) * 2020-12-30 2022-03-25 杭州思锐迪科技有限公司 手眼标定方法、系统、计算机设备和存储介质
US20220219328A1 (en) * 2021-01-08 2022-07-14 General Electric Company Method and device for creation of three dimensional tool frame
US20220264072A1 (en) * 2021-02-12 2022-08-18 Sony Group Corporation Auto-calibrating n-configuration volumetric camera capture array
CN112975973B (zh) * 2021-03-02 2022-07-26 中山大学 一种应用于柔性机器人的混合标定方法及装置
CN112936315B (zh) * 2021-03-18 2022-12-20 深圳市梯易易智能科技有限公司 一种基于成像方式的机械臂校准方法及装置
US11912513B1 (en) * 2021-04-14 2024-02-27 Amazon Technologies, Inc. Robotic system camera calibration and localization using robot-mounted registered patterns
EP4094897B1 (de) * 2021-05-26 2023-09-20 MVTec Software GmbH Hand-auge-kalibrierung von kamerageführten apparaturen
EP4101604A1 (en) * 2021-06-09 2022-12-14 Ebots, Inc. System and method for improving accuracy of 3d eye-to-hand coordination of a robotic system
TWI782709B (zh) * 2021-09-16 2022-11-01 財團法人金屬工業研究發展中心 手術機械臂控制系統以及手術機械臂控制方法
CN113843792B (zh) * 2021-09-23 2024-02-06 四川锋准机器人科技有限公司 一种手术机器人的手眼标定方法
CN115890638A (zh) * 2021-09-30 2023-04-04 台达电子工业股份有限公司 自动化机械手臂系统
CN113787522B (zh) * 2021-10-12 2022-08-26 华侨大学 消除机械臂累积误差的手眼标定方法
DE102021126517A1 (de) 2021-10-13 2023-04-13 Bayerische Motoren Werke Aktiengesellschaft Robotervorrichtung, Verfahren zum Betreiben einer Robotervorrichtung sowie Steuereinheit für eine Robotervorrichtung
CN114454167B (zh) * 2022-02-11 2024-06-07 四川锋准机器人科技有限公司 一种种植牙机器人末端夹持器几何尺寸的标定方法
CN114589698B (zh) * 2022-04-07 2023-06-06 北京信息科技大学 基于多目标视觉测量和机器学习的机械臂无模型实时标定方法及装置
TWI799310B (zh) * 2022-06-30 2023-04-11 國立清華大學 機器人及機器人手眼校正方法
TWI832770B (zh) * 2023-05-31 2024-02-11 台達電子工業股份有限公司 基於影像處理的機械手臂校正方法以及系統
CN116673998B (zh) * 2023-07-25 2023-10-20 宿迁中矿智能装备研究院有限公司 一种工业机械手的定位校准装置

Family Cites Families (103)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2598019B1 (fr) 1986-04-25 1992-09-11 Thomson Csf Procede d'utilisation d'une matrice photosensible a transfert de charge, et matrice photosensible ainsi utilisee
FR2604320B1 (fr) 1986-09-19 1988-11-04 Thomson Csf Systeme de prise de vues en videographie rapide utilisant un capteur optique matriciel a transfert de charges
US4831549A (en) * 1987-07-28 1989-05-16 Brigham Young University Device and method for correction of robot inaccuracy
FR2631188A1 (fr) 1988-05-03 1989-11-10 Thomson Csf Photodetecteur matriciel a transfert de charges avec dispositif integre de filtrage de charges
US5297238A (en) 1991-08-30 1994-03-22 Cimetrix Incorporated Robot end-effector terminal control frame (TCF) calibration method and device
FR2711824B1 (fr) 1993-10-21 1996-01-05 Recif Sa Procédés et dispositifs d'identification de caractères inscrits sur des substrats.
JPH08201021A (ja) 1995-01-23 1996-08-09 Mazda Motor Corp キャリブレーション方法
US5742037A (en) 1996-03-07 1998-04-21 Cognex Corp. Method and apparatus for high speed identification of objects having an identifying feature
US5978502A (en) 1996-04-01 1999-11-02 Cognex Corporation Machine vision methods for determining characteristics of three-dimensional objects
US5859924A (en) 1996-07-12 1999-01-12 Robotic Vision Systems, Inc. Method and system for measuring object features
US6026172A (en) 1996-09-06 2000-02-15 Lewis, Jr.; Clarence A. System and method for zoom lens calibration and method using same
JPH1080882A (ja) 1996-09-06 1998-03-31 Fujitsu Ltd ロボット用座標変換パラメータ測定方法
US6137893A (en) 1996-10-07 2000-10-24 Cognex Corporation Machine vision calibration targets and methods of determining their location and orientation in an image
US5960125A (en) * 1996-11-21 1999-09-28 Cognex Corporation Nonfeedback-based machine vision method for determining a calibration relationship between a camera and a moveable object
US5918196A (en) 1996-11-29 1999-06-29 Cognex Corporation Vision system for analyzing solid-of-revolution radius profile
US6005965A (en) 1997-04-07 1999-12-21 Komatsu Ltd. Inspection apparatus for semiconductor packages
DE19734695C1 (de) * 1997-08-11 1998-11-05 Leica Mikroskopie & Syst Verfahren zur Korrektur der Messfehler einer Koodinaten-Messmaschine
US5978521A (en) 1997-09-25 1999-11-02 Cognex Corporation Machine vision methods using feedback to determine calibration locations of multiple cameras that image a common object
US5978080A (en) * 1997-09-25 1999-11-02 Cognex Corporation Machine vision methods using feedback to determine an orientation, pixel width and pixel height of a field of view
US6044530A (en) 1997-10-02 2000-04-04 Stanley Fastening Systems, L.P. Slotted clip and method
US6856698B1 (en) 1997-11-26 2005-02-15 Cognex Corporation Fast high-accuracy multi-dimensional pattern localization
US6658145B1 (en) 1997-12-31 2003-12-02 Cognex Corporation Fast high-accuracy multi-dimensional pattern inspection
US6173070B1 (en) 1997-12-30 2001-01-09 Cognex Corporation Machine vision method using search models to find features in three dimensional images
US6850646B1 (en) 1997-12-31 2005-02-01 Cognex Corporation Fast high-accuracy multi-dimensional pattern inspection
US6070109A (en) * 1998-03-10 2000-05-30 Fanuc Robotics North America, Inc. Robot calibration system
US6101455A (en) * 1998-05-14 2000-08-08 Davis; Michael S. Automatic calibration of cameras and structured light sources
DE19826395A1 (de) * 1998-06-12 1999-12-23 Amatec Gmbh Verfahren zum Erfassen und Kompensieren von kinematischen Veränderungen eines Roboters
DE19848765C2 (de) 1998-10-22 2000-12-21 Brainlab Med Computersyst Gmbh Positionsverifizierung in Kamerabildern
US7068825B2 (en) 1999-03-08 2006-06-27 Orametrix, Inc. Scanning system and calibration method for capturing precise three-dimensional information of objects
JP3421608B2 (ja) * 1999-04-08 2003-06-30 ファナック株式会社 教示モデル生成装置
JP4453119B2 (ja) * 1999-06-08 2010-04-21 ソニー株式会社 カメラ・キャリブレーション装置及び方法、画像処理装置及び方法、プログラム提供媒体、並びに、カメラ
GB9914918D0 (en) * 1999-06-26 1999-08-25 British Aerospace Method and apparatus for calibrating a first co-ordinate frame of an indexing means in a second frame of a sensing means
US6166811A (en) 1999-08-12 2000-12-26 Perceptron, Inc. Robot-based gauging system for determining three-dimensional measurement data
US6594623B1 (en) 1999-11-12 2003-07-15 Cognex Technology And Investment Corporation Determining three-dimensional orientation of objects
US6639624B1 (en) 1999-12-30 2003-10-28 Cognex Corporation Machine vision methods for inspection of leaded components
US6748104B1 (en) 2000-03-24 2004-06-08 Cognex Corporation Methods and apparatus for machine vision inspection using single and multiple templates or patterns
US7065242B2 (en) * 2000-03-28 2006-06-20 Viewpoint Corporation System and method of three-dimensional image capture and modeling
EP2258303B1 (en) 2000-04-19 2013-09-18 OraMetrix, Inc. System for creating an individual three-dimensional virtual tooth model
WO2001080764A1 (en) 2000-04-25 2001-11-01 Align Technology, Inc. Systems and methods for varying elastic modulus appliances
US6701005B1 (en) 2000-04-29 2004-03-02 Cognex Corporation Method and apparatus for three-dimensional object segmentation
EP1285224A1 (de) 2000-05-16 2003-02-26 Steinbichler Optotechnik Gmbh Verfahren und vorrichtung zum bestimmen der 3d-form eines objektes
US6718074B1 (en) 2000-06-02 2004-04-06 Cognex Corporation Method and apparatus for inspection for under-resolved features in digital images
US6768509B1 (en) 2000-06-12 2004-07-27 Intel Corporation Method and apparatus for determining points of interest on an image of a camera calibration object
US6624899B1 (en) 2000-06-29 2003-09-23 Schmitt Measurement Systems, Inc. Triangulation displacement sensor
JP4501239B2 (ja) * 2000-07-13 2010-07-14 ソニー株式会社 カメラ・キャリブレーション装置及び方法、並びに、記憶媒体
US6771808B1 (en) * 2000-12-15 2004-08-03 Cognex Corporation System and method for registering patterns transformed in six degrees of freedom using machine vision
US6681151B1 (en) 2000-12-15 2004-01-20 Cognex Technology And Investment Corporation System and method for servoing robots based upon workpieces with fiducial marks using machine vision
US6728582B1 (en) * 2000-12-15 2004-04-27 Cognex Corporation System and method for determining the position of an object in three dimensions using a machine vision system with two cameras
US6751338B1 (en) 2000-12-15 2004-06-15 Cognex Corporation System and method of using range image data with machine vision tools
US6751361B1 (en) 2000-12-22 2004-06-15 Cognex Corporation Method and apparatus for performing fixturing in a machine vision system
US6798925B1 (en) * 2000-12-22 2004-09-28 Cognex Corporation Method and apparatus for calibrating an image acquisition system
US20040104935A1 (en) * 2001-01-26 2004-06-03 Todd Williamson Virtual reality immersion system
US6915008B2 (en) * 2001-03-08 2005-07-05 Point Grey Research Inc. Method and apparatus for multi-nodal, three-dimensional imaging
SE0103279L (sv) 2001-10-02 2003-04-03 Integrated Vision Prod Förfarande för mätning av ljusspridning och geometrisk profil
US6993177B1 (en) * 2001-11-02 2006-01-31 Cognex Technology And Investment Corporation Gauging based on global alignment and sub-models
US7046840B2 (en) * 2001-11-09 2006-05-16 Arcsoft, Inc. 3-D reconstruction engine
US7212228B2 (en) * 2002-01-16 2007-05-01 Advanced Telecommunications Research Institute International Automatic camera calibration method
AU2003239171A1 (en) * 2002-01-31 2003-09-02 Braintech Canada, Inc. Method and apparatus for single camera 3d vision guided robotics
US7085622B2 (en) 2002-04-19 2006-08-01 Applied Material, Inc. Vision system
CN1300551C (zh) 2002-07-25 2007-02-14 索卢申力士公司 使用光学标记自动排列三维扫描数据的设备和方法
WO2004040231A2 (en) * 2002-10-29 2004-05-13 Metron Systems, Inc. Calibration for 3d measurement system
KR100468857B1 (ko) * 2002-11-21 2005-01-29 삼성전자주식회사 2차원 형상에 대한 투사 불변형 표현자를 이용한핸드/아이 캘리브레이션 방법
JP3944091B2 (ja) 2003-02-06 2007-07-11 パルステック工業株式会社 3次元画像データ生成方法
SE524818C2 (sv) * 2003-02-13 2004-10-05 Abb Ab En metod och ett system för att programmera en industrirobot att förflytta sig relativt definierade positioner på ett objekt
JP4021351B2 (ja) 2003-03-24 2007-12-12 株式会社新川 ボンディング用照明装置及びボンディング用照明装置の較正方法
US7373270B2 (en) 2003-03-26 2008-05-13 Sony Corporation Diagnosing device for stereo camera mounted on robot, and diagnostic method of stereo camera mounted on robot apparatus
JP4346950B2 (ja) * 2003-05-02 2009-10-21 キヤノン株式会社 情報処理方法および装置
JP2004354257A (ja) 2003-05-29 2004-12-16 Olympus Corp キャリブレーションずれ補正装置及びこの装置を備えたステレオカメラ並びにステレオカメラシステム
DE10333802B4 (de) 2003-07-24 2005-09-08 Steinbichler Optotechnik Gmbh Verfahren und Vorrichtung zum Prüfen von Reifen
JP3733364B2 (ja) * 2003-11-18 2006-01-11 ファナック株式会社 教示位置修正方法
EP1709617A2 (en) * 2003-12-30 2006-10-11 Trustees Of The Stevens Institute Of Technology Three-dimensional imaging system using optical pulses, non-linear optical mixers and holographic calibration
JP4021413B2 (ja) * 2004-01-16 2007-12-12 ファナック株式会社 計測装置
JP3930482B2 (ja) * 2004-01-19 2007-06-13 ファナック株式会社 3次元視覚センサ
US7609893B2 (en) 2004-03-03 2009-10-27 Trw Automotive U.S. Llc Method and apparatus for producing classifier training images via construction and manipulation of a three-dimensional image model
US7292257B2 (en) * 2004-06-28 2007-11-06 Microsoft Corporation Interactive viewpoint video system and process
JP3946716B2 (ja) * 2004-07-28 2007-07-18 ファナック株式会社 ロボットシステムにおける3次元視覚センサの再校正方法及び装置
JP2006110705A (ja) 2004-09-15 2006-04-27 Yaskawa Electric Corp ロボットのキャリブレーション方法
US7356425B2 (en) 2005-03-14 2008-04-08 Ge Security, Inc. Method and system for camera autocalibration
US7590218B2 (en) * 2005-03-23 2009-09-15 Best Medical International, Inc. System for monitoring the geometry of a radiation treatment apparatus, trackable assembly, program product, and related methods
JP2006289531A (ja) * 2005-04-07 2006-10-26 Seiko Epson Corp ロボット位置教示のための移動制御装置、ロボットの位置教示装置、ロボット位置教示のための移動制御方法、ロボットの位置教示方法及びロボット位置教示のための移動制御プログラム
US7801330B2 (en) 2005-06-24 2010-09-21 Objectvideo, Inc. Target detection and tracking from video streams
WO2007038330A2 (en) * 2005-09-22 2007-04-05 3M Innovative Properties Company Artifact mitigation in three-dimensional imaging
DE102005048136B4 (de) * 2005-10-06 2010-01-21 Kuka Roboter Gmbh Verfahren zum Bestimmen eines virtuellen Tool-Center-Points
US8111904B2 (en) * 2005-10-07 2012-02-07 Cognex Technology And Investment Corp. Methods and apparatus for practical 3D vision system
US7656425B2 (en) * 2006-03-31 2010-02-02 Mitutoyo Corporation Robust field of view distortion calibration
JP4267005B2 (ja) * 2006-07-03 2009-05-27 ファナック株式会社 計測装置及びキャリブレーション方法
US20080129894A1 (en) * 2006-12-02 2008-06-05 Electronics And Telecommunications Research Institute Geometric calibration apparatus for correcting image distortions on curved screen, and calibration control system and method using the same
WO2008075271A2 (en) * 2006-12-18 2008-06-26 Koninklijke Philips Electronics N.V. Calibrating a camera system
JP4298757B2 (ja) * 2007-02-05 2009-07-22 ファナック株式会社 ロボット機構のキャリブレーション装置及び方法
JP5230114B2 (ja) * 2007-03-13 2013-07-10 キヤノン株式会社 情報処理装置、情報処理方法
EP2153410B1 (en) 2007-05-29 2016-11-16 Cognex Technology and Investment Corporation 3d assembly verification from 2d images
KR100918480B1 (ko) * 2007-09-03 2009-09-28 한국전자통신연구원 스테레오 비전 시스템 및 그 처리 방법
US7777300B2 (en) 2007-09-18 2010-08-17 Infineon Technologies Ag Semiconductor device with capacitor
EP2070664A1 (en) 2007-12-14 2009-06-17 Montanuniversität Leoben Object processing system
EP2268459B9 (en) * 2008-04-30 2012-03-21 ABB Technology AB A method and a system for determining the relation between a robot coordinate system and a local coordinate system located in the working range of the robot
US8248476B2 (en) * 2008-09-03 2012-08-21 University Of South Carolina Robust stereo calibration system and method for accurate digital image correlation measurements
GB2465793A (en) * 2008-11-28 2010-06-02 Sony Corp Estimating camera angle using extrapolated corner locations from a calibration pattern
US8442304B2 (en) 2008-12-29 2013-05-14 Cognex Corporation System and method for three-dimensional alignment of objects using machine vision
US11699247B2 (en) * 2009-12-24 2023-07-11 Cognex Corporation System and method for runtime determination of camera miscalibration
US9393694B2 (en) 2010-05-14 2016-07-19 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
US8743214B2 (en) * 2011-05-11 2014-06-03 Intel Corporation Display screen for camera calibration
JP6108860B2 (ja) * 2013-02-14 2017-04-05 キヤノン株式会社 ロボットシステム及びロボットシステムの制御方法
US9507995B2 (en) * 2014-08-29 2016-11-29 X Development Llc Combination of stereo and structured-light processing

Also Published As

Publication number Publication date
CN103209809A (zh) 2013-07-17
WO2011143576A2 (en) 2011-11-17
WO2011143576A3 (en) 2012-08-09
JP2013526423A (ja) 2013-06-24
US20190084160A1 (en) 2019-03-21
US20160039096A1 (en) 2016-02-11
US20110280472A1 (en) 2011-11-17
DE112011101730T5 (de) 2013-06-27
US10421189B2 (en) 2019-09-24
DE112011101730B4 (de) 2016-03-17
CN103209809B (zh) 2017-02-22
US9393694B2 (en) 2016-07-19
US11077557B2 (en) 2021-08-03

Similar Documents

Publication Publication Date Title
JP5904676B2 (ja) マシンビジョンシステムおよびロボットの間のロバストな較正の装置および方法
JP6966582B2 (ja) ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法
JP6591507B2 (ja) 同時運動学およびハンドアイ較正
US9437005B2 (en) Information processing apparatus and information processing method
JP6180087B2 (ja) 情報処理装置及び情報処理方法
JP6855492B2 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
US8244402B2 (en) Visual perception system and method for a humanoid robot
JP6317618B2 (ja) 情報処理装置およびその方法、計測装置、並びに、作業装置
CN111278608B (zh) 用于3d视觉机器人系统的校准物品
JP2019119027A (ja) ロボットシステムの制御方法、およびロボットシステム
WO2018043524A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
KR101972432B1 (ko) 레이저비전 센서 및 그 보정방법
Khan et al. On the calibration of active binocular and RGBD vision systems for dual-arm robots
CN113597362B (zh) 用于确定机器人坐标系与可移动装置坐标系之间的关系的方法和控制装置
EP3738725B1 (en) Measurement system, measurement device, measurement method, and measurement program
Abbott et al. University of Illinois active vision system
WO2022124232A1 (ja) 画像処理システム及び画像処理方法
CN115972192A (zh) 具有可变空间分辨率的3d计算机视觉系统
Wieghardt et al. Hand-projector self-calibration using structured light
Pretlove Stereoscopic eye in hand active machine vision for real-time adaptive robot arm guidance

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140502

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20141021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150512

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150810

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150911

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20151008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160314

R150 Certificate of patent or registration of utility model

Ref document number: 5904676

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250