JP2013515959A - カメラのミスキャリブレーションの実行時決定のためのシステムと方法 - Google Patents

カメラのミスキャリブレーションの実行時決定のためのシステムと方法 Download PDF

Info

Publication number
JP2013515959A
JP2013515959A JP2012546230A JP2012546230A JP2013515959A JP 2013515959 A JP2013515959 A JP 2013515959A JP 2012546230 A JP2012546230 A JP 2012546230A JP 2012546230 A JP2012546230 A JP 2012546230A JP 2013515959 A JP2013515959 A JP 2013515959A
Authority
JP
Japan
Prior art keywords
cameras
feature
measurement result
camera
accuracy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012546230A
Other languages
English (en)
Inventor
イェ,シャンユン
ワイ. リ,デイヴィッド
シヴァラム,グルプラサド
ジェイ. マイケル,デイヴィッド
Original Assignee
コグネックス・コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コグネックス・コーポレイション filed Critical コグネックス・コーポレイション
Publication of JP2013515959A publication Critical patent/JP2013515959A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本発明は、シーン内で取得された対象について、教示された対象モデルの観察された画像データと予想された画像データとのマッチングに基づいて定義される実行時アライメント得点の履歴統計定義に基づき、典型的にカメラ外部パラメータに関して、カメラのミスキャリブレーション(精度)の実行時決定(自己診断)のためのシステムと方法を提供する。この構成は、システムのカメラがキャリブレーションされた状態に留まっているか診断するためにビジョンシステムの実行時動作を中断し、および/またはビジョンシステムよって監視されている生産ラインを停止する必要を回避する。ビジョンシステムによって検査される対象または特徴は時間が経過しても実質的に同じであるという仮定の下で、ビジョンシステムは部分アライメント結果の統計を蓄積し、中間結果を保存して現在のシステム精度の指標として使用する。マルチカメラビジョンシステムに対しては、個々の問題のあるカメラを特定するために例示的にクロス確認を用いる。このシステムと方法により、劣化するカメラキャリブレーションに関するビジョンシステムの不具合をより迅速、廉価、簡明に診断することが可能となる。

Description

本発明は、ビジョンシステム、より具体的にはビジョンシステムカメラキャリブレーションに関する。
マシンビジョンシステムは、産業界において所定の2次元(2D)または3次元(3D)座標空間を基準として部品や対象のアライメントを決定するために通常使用されている。これらのシステムは種々の技術とプログラムを用いて、しばしば対象の教示されたモデルに基づき対象のアライメントを決定する。カメラキャリブレーションは、2次元(2D)撮像システムと3次元(3D)撮像システムのいずれにおいても、コンピュータビジョンの必須のステップである。カメラキャリブレーションは、外部パラメータと内部パラメータとして既知のカメラの位置とレンズの性質のモデリングを含む。カメラキャリブレーションは、シングルカメラ構成またはマルチカメラ構成、例えば1個以上のカメラヘッドを有するシステムで実施できる。ステレオカメラヘッドおよび他の形態の3Dセンサは、対象の3D奥行画像の生成を可能にする。これらのカメラのキャリブレーションは、観察された2D画像空間と3D世界の間の関係を決定する。カメラキャリブレーションの後で3D情報は2Dコンピュータ画像座標から推測でき、同様に2D画像座標は3D情報から推測できる。
より具体的には、カメラ内部の幾何的および光学的性質(内部パラメータであり、有効焦点距離、または投影中心距離に対する画像面、レンズ歪み係数、xに対する倍率、カメラ走査および取得タイミング誤差に起因する、画像面における原点に対するコンピュータ画像座標を含み得る)および定義された世界座標系に対するカメラの3D位置と向き(外部パラメータ)を評価することによって、カメラキャリブレーションは画像形成システムをモデリングすることを含む。カメラの内部パラメータと外部パラメータ(しばしばカメラキャリブレーションパラメータと呼ばれる)は、レンズ歪みを除去して3D空間において観察された2D画像特徴ポイントを解釈するために実行時アライメントまたは検査タスクに用いられる。カメラキャリブレーションの精度はビジョンシステムの性能に直接影響する。
対象を包含するシーンの周囲のそれぞれ1以上の有利な地点で1台以上の2Dカメラまたは3Dカメラを使用することにより、世界座標空間を基準として被写体の全体的画像を生成する際に利点を提供できる。異なるカメラの画像を組み合わせることにより、1以上の画像で起こり得る対象の部分の種々のオクルージョンやオブストラクションが、他の有利な地点から取得された画像によって補償される。したがってあらゆる場合に、しかし特にビジョンシステムが複数の2Dカメラまたは3Dカメラを使用するような場合には、カメラキャリブレーションの精度はビジョンシステムの全体的性能に不可欠である。しかしながら、カメラキャリブレーションは典型的に1回限りのビジョンシステムセットアップ手順と見なされる。これは通常典型的な実行時ユーザ(製造ライン作業員と彼らの監督であることが多い)より著しく多くの知識を有する技術者によって行われる。典型的に、システムがキャリブレーションされた後で、これらの実行時ユーザによってカメラパラメータは現在のキャリブレーションの本当の精度とは関係なく、マシンビジョンタスクで反復的に使用される。キャリブレーションは熟練技術者によってなされる要求が多く時間のかかるタスクであり、最も良いのは実際に必要とされるときだけ実行することである。
しかしながら、ビジョンシステムが製造ライン等の不利な環境で作動する場合、熱膨張、振動、不用意な焦点変化等の原因で実際のカメラ位置やレンズ歪みが変化することがある。その結果、カメラキャリブレーションがもはや観察された2D画像と3D世界との関係を表さなくなれば、マシンビジョンアプリケーションは準最適な性能しか発揮しなくなるであろう。さらにたとえマシンビジョンアプリケーションが準最適な性能しか発揮しなくなっても、カメラのミスキャリブレーションによるアプリケーションの性能劣化の根本原因を追跡することは困難であろう。
定期的にカメラキャリブレーションの確認を行えば、カメラが容認できるキャリブレーションパラメータで機能し、不必要なキャリブレーション手順の実施を回避するのを助けはするが、逆にカメラはキャリブレーションがずれた状態で作動し続けることになろう。単数または複数の2Dカメラまたは3Dカメラに応用可能なカメラキャリブレーションを定期的に確認する新規の効果的な方策は、イェ・シアンユィン他による合衆国特許出願番号12/346、773「ビジョンシステムにおけるカメラキャリブレーションを確認するためのシステムと方法」に開示されており、その教示内容は参照により有益な背景情報として本明細書に組み入れられる。簡単に言えば、この確認手順はカメラシステムを実行時動作から取り出して、キャリブレーションターゲットをカメラの視野内に入れることを必要とする。次にこのターゲットを用いて、典型的にはキャリブレーション技術者ではなくシステムの実行時作業員によって確認手順が実施される。この手順は現在の内部パラメータと(マルチカメラシステムの場合)外部パラメータを生み出す。内部パラメータは有効焦点距離、または投影中心距離に対する画像面、レンズ歪み係数、xに対する倍率、カメラ走査および取得タイミング誤差に起因する取得された画像の原点の移動を含む。外部パラメータは、典型的に定義された世界座標系を基準としたカメラの3D位置と向きによって定義される。これらの現在のパラメータが、保存されたセットアップ時間の内部パラメータと外部パラメータを基準として分析されて、カメラシステムおよび/または個々のカメラが容認可能なキャリブレーションに留まっているか決定する。この確認手順はシステムのダウンタイムを著しく短縮する。なぜなら、確認手順はキャリブレーション時間の何分の1しかかからず、また、確認手順でカメラの「キャリブレーションがずれている」ことが示された場合だけ再キャリブレーションを行えば済むからである。同様に、これはシステムの実行時作業員によって実施できる。それにもかかわらず、この方策は依然として、確認手順を実施しているときはシステムが生産を行わないことを必要とする。確認はビジョンシステムのかなり長いダウンタイムを要求することがあまりに多くそれによって生産ラインの処理量が減少するので、確認を実施する頻度が問題となる。逆に、確認をごく稀にしかしないと、3Dビジョンシステムはカメラキャリブレーションの劣化により過度に誤った不合格/合格の決定を下すリスクがある。
それゆえシステムをオフラインにする必要なく実行時にカメラシステムのキャリブレーションを診断し、またシステム作業員が別個に確認プロセスを行うためのシステムと方法を提供することが望ましい。このようなシステムと方法は、頻繁な確認を可能にし、カメラシステムのキャリブレーションがずれたことによる誤った読みを起こりにくくする。
米国特許出願公報第12/346、773号明細書 米国特許出願公報第12/345,130号明細書
ロジャー・ツァイにより「既製のTVカメラおよびレンズを使用する高精度3Dマシンビジョン計測のための汎用カメラキャリブレーション技術」(IEEEロボット工学・自動化ジャーナル、RA−3巻4号、1987年8月、323−344ページ) リチャード・I.ハートリーおよびアンドリュー・ジッセルマン著「多視点幾何学」第2版(ケンブリッジ・ユニバーシティー・プレス、2004年) ハラリック、R.M.が「対応するポイントデータからの姿勢の推定」(IEEEシステム・人間・人工頭脳部会議事録19巻6号、1989年11/12月、1426〜1446ページ)
本発明は、シーン内で取得された対象の実行時測定結果の履歴統計に基づき、典型的にはカメラ外部要因に関連付けて、カメラのミスキャリブレーション(精度)を実行時決定(自己診断)するためのシステムと方法を提供する。実行時測定結果の一例は、教示された対象モデルの観察された画像データと予想された画像データとのマッチングに基づいて定義されるアライメント得点である。この構成は、システムのカメラがキャリブレーションされた状態に留まっているか診断するために、ビジョンシステムの実行時動作を中断し、および/またはビジョンシステムによって監視されている生産ラインを停止する必要を回避する。ビジョンシステムによって検査される対象または特徴は時間が経過しても実質的に同じであるという仮定の下で、ビジョンシステムは部分アライメント結果の統計を蓄積し、中間結果を保存して現在のシステム精度の指標として使用する。マルチカメラビジョンシステムに対しては、個々の問題のあるカメラを特定するために例示的にクロス確認を用いる。このシステムと方法により、劣化するカメラキャリブレーションに関するビジョンシステムの不具合をより迅速、廉価、簡明に診断することが可能となる。
例示的な実施形態において、多数のカメラを有するシステム、例示的に3台以上のカメラからなるシステムが、離散的な有利な地点からシーンに向けられている。少なくとも3台のカメラが最初にキャリブレーションされ、これは少なくとも3台のカメラの各々に対してそれぞれの外部キャリブレーションパラメータを検出することを含む。少なくとも3台のカメラのうちの第1の複数のカメラで3次元空間に第1の対象特徴または対象全体(またはその一部)が検出される。次に第1の対象特徴または第1の対象姿勢の第1の測定結果が導き出される。少なくとも3台のカメラのうちの第2の複数のカメラで3次元空間において第2の対象特徴または対象全体(またはその一部)が検出される。次に第2の対象特徴または第2の対象姿勢の第2の測定結果が導き出される。検出された第1の特徴は第2の検出された特徴と実質的に似ていることもあり得るし、あるいは、これら2つの特徴は異なっていて既知の物理量によって区別されることもあり得る。次に、(i)キャリブレーション手順で決定された精度、(ii)所望のシステム精度、および(iii)2つの特徴の既知の特性の少なくとも1つを基準として第1の測定結果と第2の測定結果が比較される。例示的には、第1の測定結果は第1の特徴の推定された第1の位置を包含し、第2の測定結果は第2の特徴の推定された第2の位置を包含する。第1の測定結果は第1の特徴の検出に成功した得点を包含でき、第2の測定結果は第2の特徴の検出に成功した得点を包含できる。一実施形態において、比較するステップまたはプロセスは、第1の測定結果と第2の測定結果との間の不一致を計算して、(i)キャリブレーションで決定された精度、(ii)所望のシステム精度、および(iii)対象の既知の特性の少なくとも1つを基準として不一致を比較することを含む。
例示的な実施形態において、比較するステップまたはプロセスに応じて、比較のステップの結果が、(i)ステップ(a)で決定された精度と(ii)所望のシステム精度との少なくとも1つを超えることに基づいて、再キャリブレーションが必要であることを示す信号を発生する。これは、比較に基づいて新しい外部キャリブレーションパラメータを生成し、この外部キャリブレーションパラメータを少なくとも3台のカメラのうちの少なくとも1台に提供して、少なくとも3台のカメラのうちの少なくとも1台を再キャリブレーションすることを含んでいてもよい。例示的には、少なくとも3台のカメラからなるシステムはマシンビジョンシステム検査機能を有して、少なくとも3台のカメラによって視られる体積空間を通過する対象に対して実行時マシンビジョン検査を実行することができる。これらの対象は、複数のカメラによる測定結果の生成のための基礎を形成する。
以下に本発明を、添付の図面に基づいて説明する。
カメラシステムの初期キャリブレーションを確定するために用いられる、模範的なキャリブレーション対象を含む例示的な実施形態による、3次元空間においてシーン内の対象の画像を取得するために少なくとも3台の離散的なカメラを使用するビジョンシステムの概念図である。 ある対象に関してマシンビジョンのタスクを果たすために使用される3台のカメラからなる模範的なシステムの概念図である。 ある対象に関してマシンビジョンのタスクを果たすために使用される4台のカメラからなる模範的なシステムの概念図である。 2対(2組の複数)のカメラがそれぞれある対象に関してマシンビジョンのタスクを果たし、各々の複数のカメラ対象の異なる離散的な特徴を基準として動作する、模範的なシステムの概念図である。 例示的な実施形態による、少なくとも3台のカメラを有するビジョンシステムのためのセットアップとキャリブレーションプロセス、および実行時検査と自己診断プロセスのブロック図である。 図2の自己診断プロセスにおいてサブセットが使用される、種々の誤差統計を示す概念図である。 本明細書に記載されたシステムと方法による、実行時自己診断とそれに続く再キャリブレーションを行うための例示的な手順を示すフローチャートである。 本明細書に記載された実施形態で使用するための、3次元世界座標空間と2次元カメラ座標空間との間のマッピングポイントのグラフ図である。 本明細書に記載された実施形態で使用するための、世界座標系におけるポイントの、2台以上(複数)のカメラにおける画像ポイントからの三角測量のグラフ図である。
A.システムの概観とキャリブレーション
図1は、視られたシーンの2次元(2D)または3次元(3D)アライメントまたは姿勢を決定するためのビジョンシステム100の典型的な構成を表しており、シーンはロボットマニピュレータによって検査され、整列され、作用される1以上の実行時対象、またはマシンビジョンプロセスによって制御または支援される他の何らかの動作を含んでいてもよい。システムは本発明の例示的な実施形態により、キャリブレーションできる(キャリブレーションは後で自己診断され得る)。
一般的に、システム100は視野内に対象を包含するシーン128を持つ少なくとも3台のカメラを有するビジョンシステム構成であってもよい。カメラまたはセンサ120、122、124はそれぞれ図示の2Dカメラ、または随意に3Dセンサを有していてもよい。3Dセンサが設けられている場合は、既知のベースラインによって分離された、ステレオカメラヘッド内の2台の離散的カメラ(双眼視)の間で光学的三角測量を用いてシーンの奥行画像を生成するように適合させることができる。より一般的に、3Dセンサは、種々の技術を用いて奥行データを生成できる種々の感知方式に基づいてもよい。多様な技術はステレオ(マルチカメラ)撮像、光検出および測距またはLIDAR、構造化光(structured light)、または走査レーザを使用する装置を含むが、これに限らない。2Dおよび3D撮像装置はCCDおよびCMOSを含む多様な原理に従って動作できる。同様に、2Dカメラまたは3Dセンサのために、総称的にブロック125として示されている複数の追加的なカメラ/センサを、シーン128に対して異なる離散的な有利な地点に配置できる。複数のステレオカメラヘッドが設けられている場合は、各ヘッド内の個々のカメラはシステムによって個別にアクセスできるか、またはヘッドによって生成された奥行画像はプロセッサに供給される生データとして提供される。2Dカメラおよび/または3Dセンサが接続されているこのプロセッサは、例として、インタフェースとディスプレイを有してソフトウェアおよび/またはハードウェアに基づくキャリブレーションプロセス(150)を実行する汎用コンピュータ130として示されており、実行時ビジョンプロセス(検査、アライメント、操作等)(152)も実行できる。ビジョンプロセッサの構成、タイプおよび位置は極めて可変である。例示的な実施形態において、プロセッサは1以上の2Dカメラおよび/または3Dセンサ内に包含でき、多数のカメラおよび/またはセンサの間に適当な有線または無線相互接続を設けることができる。
多数の2Dカメラおよび/または多数の3Dセンサが使用される実施形態において、各々のカメラ120、122、124は本明細書において直交するx、yおよびz軸140、142、143として表されそれ自身の内部座標系を定義し、zはシーンに向けられたカメラの光学軸であり、xおよびyは画像面を定義する。ビジョンプロセッサ(130)はこれらの個々のカメラ座標系を、シーン128に対するx、yおよびz軸で表される共通の3D世界座標系148にキャリブレーションするように適合されている。3D撮像および関連するコンセプトの一般的議論は、背景技術としてシリル・C.マリオン他による共同譲渡された合衆国特許出願番号12/345,130「マシンビジョンを用いる対象の3次元アライメントのためのシステムと方法」に開示されており、その教示内容は参照により有益な背景情報として本明細書に組み入れられる。
図1Aと図1Bは、本発明によりキャリブレーションでき、続いてその後で(図示されているように)対象に対する実行時ビジョン検査動作に使用できる2つの模範的なカメラシステム構成を詳しく示す。図示された各々の構成において、3D空間における対象のアライメントは、取得された画像の特徴を三角測量して、予想された特徴と測定された画像特徴のマッチングを評価することによって達成される。
図1Aに示す模範的なカメラ3台のシステム構成153による、3台のカメラ154、155、156は対象または部品157に対して異なる向きに配置されており、対象または部品157は動いているコンベヤまたは対象が連続的に検査および/または整列されることを可能にする他の機構に載ってシステムの視野を通過する。このシステム163はタスクの中でも特に部品の品質を検査し、またはロボットマニピュレータ(図示せず)の向きを可能にする。この例におけるカメラ構成153は、一般的に視覚案内ロボット(VGR)アプリケーションで使用されるものに類似している。このようなVGRアプリケーションにおいて、典型的に部品157はすべてのカメラ154、155、156にとって可視である。以下に記すように、部品姿勢の得点は観察された画像が教示されたモデルにどれほど一致しているかを測定する三角測量誤差に基づいている。この場合、モデルは破線で示すように、各々のカメラに可視である1以上の特徴158、159、160を含んでいる。相互参照の不一致は多数のカメラから出る同じ特徴ポイントの光線がどれほど近接して互いに交差しているかを測定する。
4台のカメラ163、164、165、166を有するカメラシステムの別の模範的な構成161が図1Bに示されている。カメラ163、164、165、166はそれぞれ部品162に対して図示されているように離散的な位置に配置されており、各々離散的なx、y、z(または他の座標系)の向きに向けられた対応する画像面167を定義する。この構成において、部品162のアライメントは共通の特徴を同時に視るカメラに基づく必要はないが、例示的に部品姿勢の得点は観察された画像が教示された3D形状モデルから予測された画像とどの程度一致するかに基づいている。多様な別のマルチカメラ構成および実行時検査/アライメント手順が明確に想定されている。
さらに図1を参照して、模範的なカメラキャリブレーション手順、例えばマサチューセッツ州ネイティックのコグネックス社から市販されているビジョンシステムと組み合わせて利用できるキャリブレーションソフトウェア(これに限るものではない)は、典型的に複数の異なる向き(例として仮想図で示す)でカメラ120、122および124に提示された、大きさと形状が既知の平面キャリブレーション対象170を観察することをカメラに要求するフレキシブルな技術を用いる。このキャリブレーション手順は、(典型的に多数のカメラを有する実施形態において)各カメラに対する3次元世界座標空間を定義するために、各カメラの内部パラメータと外部パラメータを調整する役割を担う。図示されたキャリブレーションプロセスで技術者またはロボットはキャリブレーション対象170−本明細書では大きさと形状が既知の例示的なチェッカー盤で、中心基準172を含んでいてもよい−を複数の位置の各々の間で動かし(矢印171)、その一方でキャリブレーションアプリケーション150は視覚処理システム130上で作動して、各々の位置で対象170の画像を取得および分析する。取得された対象の画像を用いてカメラキャリブレーションプロセスは、観察された2D画像特徴ポイントと平面上に配置されたおよび3D特徴に関する(画像と物理的)特徴の対応から内部パラメータと外部パラメータを推定する。一例において、これらの(画像と物理的)特徴の対応は、例えばチェッカー盤キャリブレーションプレートの画像上でチェッカー盤特徴抽出ビジョンシステムソフトウェアツールを実行することによって自動的に決定され得る。ソフトウェアツールとキャリブレーションプレートのいずれもコグネックス社から入手可能である。
例示的なシステムに応用できるカメラキャリブレーションの公知の技術は、ロジャー・ツァイにより「既製のTVカメラおよびレンズを使用する高精度3Dマシンビジョン計測のための汎用カメラキャリブレーション技術」(IEEEロボット工学・自動化ジャーナル、RA−3巻4号、1987年8月、323−344ページ)に記載されており、その教示内容は有益な背景情報として本明細書に組み入れられる。キャリブレーション手順はより一般的に上で組み入れられた合衆国特許出願番号12/346,773「ビジョンシステムにおけるカメラキャリブレーションを確認するためのシステムと方法」に開示されている。加えてそのような手順は、以下に一般的に2台の離散的カメラで取得された特徴に基づいて姿勢を推定することとの関連において参照される。
要約すると、カメラキャリブレーションは検出された2D画像特徴ポイント(チェッカーの角)と予測された特徴ポイントとの間の不一致を最小化するための非線形最適化方法を含む。このカメラキャリブレーション法は、(カメラに対する)キャリブレーションプレートの姿勢を計算する。
ここで、システムキャリブレーションプロセス、実行時アライメントまたは検査タスク、およびシステムキャリブレーションの自己診断の図式的な概観200を示す図2を参照する。図示されているように、オフラインの部分としてプロセス212は部品または対象教示プロセス213であり、ここでビジョンシステムは1以上の所定の大きさ、位置および/または形状の目立った対象特徴(例えばエッジ、印刷、穴等)を認識するように教示される。代替的に、システムは対象の全体形状またはその一部を認識するように教示され得る。教示はビジョンシステムによって使用される具体的なアプリケーションに依存している。これらのアプリケーションは、ブロブ解析、エッジ検出、回転およびスケール不変な探索等を含んでいてもよい。ビジョンシステム特有の他のセットアッププロセス214も、オフラインプロセス212中に起こる。これらのプロセスは、照明制御、ロボットマニピュレータとの調整、およびその他の多様な動作を含んでいてもよい。とりわけキャリブレーション226中にカメラの内部パラメータ222と外部パラメータ224が導き出される。これらの内部パラメータと外部パラメータはシステム実行時動作(ブロック230)中に使用される(矢印225)。より具体的には、外部パラメータは実行時230に行われる例示的なキャリブレーション自己診断で使用される。例示的な実施形態において、セットアップ記憶装置220は、観察された画像特徴と予測された物理的特徴との間の不一致に関する情報を含む「誤差」統計228も保存し、この情報はキャリブレーションがまだ許容範囲内にあるかどうかをシステムが決定する受け入れ閾値を定義するために使用できる。
図3も参照すると、保存された誤差統計228は次のものを含むが、これらに限られるものではない。
a.歪められた画像座標(実際の取得されたピクセル)310における精度または不一致。各々の推定されたキャリブレーション対象/プレート姿勢について、キャリブレーションプロセスはレンズ歪みを考慮して、各3D特徴ポイント(プレートのパターン内のチェッカーの角)の画像面上の2D位置を計算する。精度の測定結果は、各々の観察された2Dポイントとこれに関連する投影された/歪められた2D位置との間の不一致に対応し、誤差統計228として保存される。
b.歪められていない画像座標(すなわち3D座標系におけるz=1投影面。zは各々のピクセルの奥行であり、x、yは視野内の各ピクセルに対する2D座標である)における精度または不一致320。各々の推定されたキャリブレーションプレート姿勢について、プロセスはz=l投影面への3Dポイントの線形投影を計算する。加えて、プロセスは取得された2D画像ポイントをレンズ歪みの逆数を通してマッピングする(言い換えればポイントは保存されたレンズ補正係数を用いて再計算される)。精度の測定結果は投影された2Dポイントとこれに対応する歪められた2Dポイントとの間の不一致に対応し、誤差統計228として保存される。
c.ステレオ三角測量330によって得られる3D位置の精度。マルチカメラシステムで各々の推定されたキャリブレーションプレート姿勢について、プロセスは多数のカメラにより三角測量で撮像された各特徴ポイントの3D座標を計算し、rmsFitErrorを保持する。多数のカメラに対する特徴ポイントの三角測量された位置と推定された位置との間の不一致は、誤差統計228として保存される。
上述した精度の測定結果a−cはビジョンシステムにおける通常当業者には公知であり、通常当業者に公知の手順を用いて生成できる。これらの測定結果は典型的にあるカメラキャリブレーション法を別のカメラキャリブレーション法と比較するために使用される。例示的な実施形態による、これらの誤差統計228は保存され、続いて実行時ビジョンシステム動作中にカメラキャリブレーションの精度を診断するために使用できる(図2のブロック230)。受け入れ閾値は、特定のビジョンシステムアプリケーション要件に従って可変に設定できることに留意されたい。すなわち、あるアプリケーションはより高い精度を指示して、より低い受け入れ閾値を要求してもよい(例えばキャリブレーションと実行時/確認不一致との差がより小さい)。
上記のカメラキャリブレーションの精度は、ビジョンシステムの性能に直接影響する。ほとんどのビジョンシステムはカメラキャリブレーションを1回限りのシステムセットアップタスクであると見なしているが、画像形成システムの実際の挙動はカメラフレームの熱膨張、カメラの不用意な動き等のため時間の経過にわたりドリフトすることがある。このドリフトに対処する1つの方法は、カメラを定期的に再キャリブレーションすることである。しかしながら、カメラのキャリブレーションは要求の多いタスクであり、種々の姿勢のキャリブレーションターゲットの多数の画像を取得することを必要とし、長時間かかることがある。さらに、それは通常システムインテグレータ等の熟練者を関与させる。その結果、カメラキャリブレーション(ブロック226)は典型的に必要なときのみ熟練した専門家によって行われる。
B.実行時手順
例示的な実施形態によれば、キャリブレーション自己診断プロセスは全体的実行時ビジョンシステム動作230の一部である。一般的に、この例におけるシステムは多数のカメラを使用して対象/部品を教示モデルに基づき、(プロセス分岐234を経由して)保存された内部パラメータ222、外部パラメータ224および誤差統計228に従って整列させ検査する。アライメント結果は1以上の対象特徴または対象姿勢の推定された位置(x、y、z世界座標または他の世界座標系)からなる測定結果から集められる。このデータは、実行時ブロック240に従ってアライメント得点を計算するために使用できる。図示されているように、実行時プロセスはアライメント結果および中間結果の履歴統計を集めることができる(ブロック250)。これらはストア260に供給され、ストア260は3台以上のカメラのサブセットまたはグループ(複数のカメラ)または全体システムに基づき、アライメント結果および中間結果の統計を集めて編集することができる。それゆえグループは少なくとも2台のカメラからなるが、少なくとも3台のカメラからなるカメラグループ全体より少ない複数のカメラとして定義できる。すなわち、システムはN−Choose−M通りのカメラの組合せのグループまたはサブセットを生成する。ビジョンシステムによって推定される各々の特徴の位置または姿勢は、例示的に教示された3Dモデルと観察された画像データのマッチングを測定するように定義された得点関数で評価される。姿勢候補およびこれに関連する得点は、N−choose−M通りのカメラ組合せの各々を選択することにより推定できる。より具体的には、ストア260は、観察された画像特徴と予測された物理的特徴との間の不一致に関する統計を含んでいてもよい。
例として図1Aの3台カメラ(VGR)セットアップは3−choose−2、すなわち3通りのカメラの組合せを定義し、部品アライメント(姿勢の推定)に使用できる。図1Bに示す4台カメラ構成は4−choose−2プラス4−choose−3、すなわち10通りのカメラの組合せを定義し、部品アライメント(姿勢の推定)に使用できる。10通りのカメラの組合せのうち、部品アライメントに隣接する2台のカメラを使用する4通りのカメラの組合せは、それらの好適な視角のために最も代表的であろう。
実行時プロセスステップ270において、保存された統計(ブロック260)は決定するために用いられる。カメラが所定のキャリブレーション精度または閾値内にとどまっている。閾値は所定の値に設定できるが、これは特定のビジョンタスクに依存してもしなくてもよい。例えば、非常に精密なタスクに対して閾値は小さい値であってもよく、大まかな操作タスクは大きい値を許してもよい。プロセスステップ270は、十分正確にドリフトしたかを決定する。一般的に、このようなドリフトは内部パラメータよりも外部パラメータ−システム内においてあるカメラの他のカメラに対する相対的状態−に関連する。しかしながら、内部パラメータを保存することが明確に想定されており、これらのパラメータは後続のいずれかの再キャリブレーションステップ(226)で利用可能にされてよい。決定ステップ280は、1台以上のカメラがキャリブレーションにおいて再キャリブレーション手順の性能を保証するほど十分ドリフトしたか決定する。閾値に到達しなかった場合、システムは実行時部品または対象検査および/またはアライメントの通常動作の間、ステップ240、250、260および270(手順分岐290経由)に従って統計を監視および保存し続ける。しかしながら、システムの1台以上のカメラ所定の精度/閾値を超えたら、決定ステップ280はキャリブレーションステップ226に分岐する(分岐292経由)。後述するように、システムはオンラインにとどまり、作業員に指示または警告を出すか、または動作を中断して作業員の行動(例えば再キャリブレーション手順)を待機することができる。ステップ280の一環として、システムは実行時プロセス(230)中に導き出された外部パラメータおよび不一致データを供給でき、そのためシステムは再キャリブレーションを必要とするカメラを特定するために使用できる。加えて、自動化された再キャリブレーション手順を(慣用的な技術に従い)更新された外部パラメータを用いてカメラを自動的に再キャリブレーションするために使用できることが想定されている。
ステップ270に従うキャリブレーション測定結果と実行時統計との比較は、種々の技術を用いて達成できる。ある実施形態は、実行時統計プロセスにおける精度観察と、キャリブレーションプロセスで統計的仮説検定を用いて得られた測定結果を比較する。これは、キャリブレーション測定結果の分布と実行時測定結果の分布を前提とすれば、2つの分布の統計的相関である。2つの手順がある統計的有意性をもって同じ精度を有するときは帰無仮説を設定できる。2組の観察に基づいて決定がなされたら、エンドユーザはカメラが再キャリブレーションされる必要があるか決定できる。別の実施形態は、最大不一致をカメラキャリブレーション時間に観察された不一致の関数として設定される閾値と比較するプロセスを提供する。
ここで図4を参照すると、例示的な実施形態による3台以上のカメラの構成においてカメラキャリブレーションの実行時自己診断のための一般化されたプロセス400が示されている。例として、このプロセスはコンピュータまたはプロセッサ上で実行される診断アプリケーション180(図1)においてインスタンス化でき、またはシステム内で1台以上のカメラからなるハードドウェアに直接提供できる。キャリブレーションプロセスは最初にステップ410により上述したようにオフラインで実施される。このプロセスの間、外部パラメータおよびその他のパラメータと統計、例えば種々のカメラグループまたはサブセット(例えばカメラ対)に関する特徴の位置または姿勢の測定結果の不一致が生成および保存される。前述の通り、本明細書で定義された「カメラ」は、あるシーンの離散的な画像を取得する任意の装置である。センサは一種のカメラであり、1台以上の撮像装置(カメラおよびその他の3D撮像のための距離測定装置)を含んでよい。
続いてプロセス400は実行時段階(破線420)に入り、ここで対象特徴または対象全体がシステムの各々のカメラ−ブロック430、432、434で示されているように少なくとも3台のカメラと、該当する場合はその他のカメラ(ブロック436)によって検出される。検出された特徴は実質的に同じであってもよい(すなわち各々のカメラは一般的に同じ特徴を検出して世界x、y、z座標またはその他の座標におけるそれぞれの位置を推定する)。代替的に、異なるカメラが物理的空間において互いに対して既知の位置にある1以上の異なる特徴を検出してもよい。これは、一部のカメラは他のカメラが検出した特徴の劣化した表示または不明瞭な表示しか持たない場合に適していよう。代替的に、各々のカメラは教示されたモデルに基づいて対象3次元空間における姿勢を決定できる。ブロック430、432、434、436によれば、カメラは各々対象の特徴の「測定結果」を決定する。例示的には、測定結果は特徴に対する推定されたx、y、z(その他の座標系)位置、姿勢、または特徴または対象が各々のカメラによってどの程度成功して検出されたかを表す得点であってもよい。各々のカメラからの測定結果は、システム内の各々のカメラに対してステップ440で保存できる。これらの測定結果は、カメラグループへと編成され適当なフォーマットに変換され得る。
3次元空間における特徴の位置および/または姿勢は、エッジ検出、ブロブ解析、回転およびスケール不変探索等を含む広範な在来のマシンビジョン技術によって決定できる。3Dにおける姿勢を検出する技術も、上で組み入れられた合衆国特許出願番号12/345,130「マシンビジョンを用いる対象の3次元アライメントのためのシステムと方法」に記載されている。
ステップ450で、次に複数のカメラ(全体的なマルチカメラシステムからのカメラのグループまたはサブセット、典型的にカメラ対)の各々によって検出された測定結果が比較されて、それらの間の三角測量結果の得点または残留誤差を導き出す。これは不一致として定義することもできる。これらの比較は閾値または精度値に関して順番に分析される。精度値は所望の設定値として定義でき、ユーザによって提供されるか、またはシステムにおいてあらかじめプログラムされる。このような離散的な閾値は一部必要とされる精度に基づいてもよく、カメラのドリフトに対して許容範囲のレベルを指示する。すなわち低い精度は再キャリブレーションが必要となる前により多くのカメラドリフトを許容し、高い精度はより少ないカメラドリフトを指示する。代替的に、精度はシステム精度であってもよく、これはキャリブレーション中に導き出される残差または不一致の累積に基づいて定義される。
決定ステップ460では、ステップ450で各々のカメラグループまたはサブセットからの測定結果を比較した結果、閾値または精度を超えたら、システムは再キャリブレーションまたはその他の適当な措置を講じるための信号を出す(ステップ470)。講じられる措置は、要因およびプログラムされた命令の数に依存する。例えば閾値を著しく超えなければ、システムは再キャリブレーションの警告を出すが動作し続けてよい。代替的に信号はシステムを停止させてアラームを発生させる。別の実施形態において、システムは随意に保存された測定結果を多数の対象検査サイクルにわたり現在のシステム状態の合理的に精確な指標として使用でき、キャリブレーションがずれた1台以上のカメラのために新しい外部パラメータを導き出す(ステップ480)。これらの新しい外部パラメータは適当なカメラに戻すことができ(手順分岐482経由)、人の手で、または自動化方式で再キャリブレーションを行うために使用される(例えば検出されたドリフトに対処するためにカメラの既存の外部パラメータを新しい外部パラメータで置き換える)。再キャリブレーションはオフラインで達成でき、または適当なアプリケーションが設けられている場合は、オンザフライ方式で再キャリブレーションするカメラ、もしくは少なくともシステム内の他の再キャリブレーションしないカメラで行い、引き続きオンラインで検査タスクを続行する。いずれの再キャリブレーションにおいても、内部パラメータは適当なキャリブレーション対象および/またはその他の手順を用いて更新できることが想定されている。
決定ステップ460が、各々のカメラグループについて比較された測定結果が許容された精度内にとどまっていると決定する場合、実行時手順は継続して(手順分岐484経由)、さらに測定結果を蓄積する。ここで留意すべきは、システムに関する比較または所望の精度は多数の検査サイクルにわたる平均(履歴)測定結果を考慮できるので、異常測定結果の数が比較的小さければ早過ぎる再キャリブレーション信号を引き起こさないことである。
ドリフトに起因する受け入れ可能なカメラの誤差は誤差分布に基づいてもよい点に留意されたい。例えば、システムは履歴を基準にして位置のRMS誤差を点検するように適合させることができる。
一般的に、3台以上のカメラを前提すると、システムは対象の測定結果に固有の冗長性を含む。この冗長性によりカメラグループ全体のサブセットグループ間で測定結果が相違し、少なくとも1台のカメラはキャリブレーションがずれた状態にあることを示す。
C.位置と姿勢の推定を決定および比較するための例示的技術
図4の比較ステップ450によれば、システムは3D特徴の位置または対象の姿勢を決定するのに種々の技術を用いて、推定に基づいて誤差または不一致を導き出すことができる。以下に決定および比較のための例示的な技術を記載する。
1.多数のカメラにおいて2D画像ポイントから特徴ポイントの3D位置を推定
カメラキャリブレーションに続いて、物理的空間における3Dポイントを画像空間における2Dポイントにマッピングでき、画像空間における2Dポイントは物理的空間における3D光線にマッピングできる。マッピングに関する以下の記述は、リチャード・I.ハートリーおよびアンドリュー・ジッセルマン著「多視点幾何学」第2版(ケンブリッジ・ユニバーシティー・プレス、2004年)を背景情報として行う。記述を簡素化するために、ここでは半径方向の歪みは無視できるものとする。そうすると3D世界座標系510におけるポイントからプロセッサ画像座標系520へのマッピングは、カメラキャリブレーションマトリックスMによって管理される。n台のカメラを有するシステムに対して、これらのマトリックスはM≦i≦nとして表すことができる。図6を参照して、世界におけるポイントPは式p=MPに従いpとしてマッピングされる。同様に2台以上のカメラ(模範的なカメラlとカメラ2を図示する)におけるポイントの画像(模範的なポイントpおよびpを図示する)を前提すると、その世界座標系における位置は三角測量を用いて計算できる。それぞれのカメラi(カメラl、カメラ2)におけるポイントp(p、p)に対して、画像は光線R(RとR)として投影される。世界座標系における光線の式はPi(λ)=M ++λCで表され、C(CとC)は世界座標系におけるカメラの中心である。CとM +はカメラキャリブレーションパラメータから得られる。世界座標系におけるポイントは、多数のカメラからの光線間の交差ポイントを検出することによって得ることができる。
実地ではノイズが存在すると2本の光線(RとR)は交差するとは限らない。このような状況で三角測量に利用できる技術が幾つかある。例示的な実施形態では、最初に世界座標系内にすべての光線との間の距離の合計が最小であるポイントを検出する技術を用いる。この推定結果は、カメラの中心からのポイントの距離と、光学軸に対する光線の角度に基づいて精緻化される。この技術に加えて、またはこの技術の代替として別の三角測量の技術も使用できる。
次に図6を参照して、ポイントPの値は本明細書に記載された三角測量を用いて導き出され、位置Pは式P(λ)=M ++λCおよびP(β)=M ++βCでλとβの値を求めることによって計算される。
2.2Dと3Dの対応から対象の3D姿勢を推定する
ある対象の姿勢は、対象モデルをその固有の座標系から感知データとの一致にマッピングするのに必要とされる3D剛性変換である。剛体の姿勢を推定することは、2D画像から3D空間における剛体の動きを決定することを意味する。3Dモデルを知るために、推定プロセスは画像におけるある2D特徴と3Dモデルにおけるそれらの対等物との対応に依存する。
種々の姿勢の推定問題に対する解は、ハラリック、R.M.が「対応するポイントデータからの姿勢の推定」(IEEEシステム・人間・人工頭脳部会議事録19巻6号、1989年11/12月、1426〜1446ページ)で教示している。
さらに別の例示により、ツァイの出版物に記載されているように、図5はカメラモデルの基本的幾何を例示する。(X、Y、Z)は、3D世界座標系における対象ポイントPの3D座標を定義する。(Χ、Y、Ζ)は3Dカメラ座標系520における対象ポイントPの3D座標510を定義する。この座標系の中心はポイントO、すなわち光学中心であり、z軸は光学軸(図1も参照)と同じである。(x、y)はO(光学軸と画像正面530の交点)を中心とする画像座標系であり、x軸およびy軸に対して平行である。fは画像正面530と光学中心Oとの距離である。(x、y)は、完璧なピンホールカメラモデルを使用した場合の(X、Y、Z)の画像座標である。(x、y)は、レンズ歪みのために(x、y)とは異なる実際の画像座標である。しかしながら、ここではカメラはキャリブレーションされているので、レンズ歪みはマッピングの前に補正である。
3D世界座標から2Dカメラ座標系へのマッピングは、例示的に4段階変換として提供され、次のステップに従って進行する。
1.対象の3D世界座標系(X、Y、Z)510からカメラの3D座標系(X、Y、Z)への剛体変換を実行する。
Figure 2013515959
ここに、Rは3X3回転マトリックスであり、Tは3X1並進ベクトルである。キャリブレーションされるパラメータはRとTである。
2.3Dカメラ座標(Χ、Y、Ζ)から理想的な(歪められていない)画像座標(x、y)への変換を、次のピンホールカメラ幾何による透視投影を用いて実行する。
Figure 2013515959
3.半径方向レンズ歪みを次の通り計算する。
Figure 2013515959
ここに、(x、y)は画像面530上の歪められた画像座標または真の画像座標である。半径方向レンズ歪みを規定するために利用できる多数のモデルがある。モデルの1つは、次の通りである。
Figure 2013515959
使用されるモデルのタイプは、撮像に使用されるレンズのタイプに基づいて決定できる。
4.真の画像座標(x、y)からプロセッサの画像座標(x、y)への変換を実行する。
Figure 2013515959
ここに、
(x、y) プロセッサの画像フレームメモリ内の画像ピクセルの行と列の数
(C、C) 画像面における原点に対するコンピュータ画像座標
Figure 2013515959
x(走査線)方向における隣接するセンサ要素間の距離
y方向における隣接するCCDセンサ間の中心距離
cx x方向におけるセンサ要素の数
fx プロセッサによってサンプリングされる線内のピクセルの数、である。
は多様な要因、例えば画像取得/プロセッサハードウェアとカメラ走査ハードウェアとのわずかなハードウェアタイミング不一致、または走査タイミング自体の不正確さに起因する。sx=ax x -1に設定し、dを1に設定すると、sを見つける必要がある。dが1に設定されると、計算された焦点距離fは、実際の焦点距離とyにおける倍率の積である。
姿勢推定問題は、カメラ内部パラメータが既に知られている場合のカメラ外部パラメータキャリブレーションと同じである。問題を単純にするために、生画像で検出された2D画像ポイントは、上記のステップ2のように基準画像面に表現されるように正規化されている。それゆえ姿勢推定問題は、次のように定式化できる。
1組の世界ポイント(X、Y、Z、i=1,2,・・・,nおよびこれに対応する1組の正規化された画像ポイント(x、yを前提すると、姿勢推定問題は幾何的再投影の誤差を最小化する回転マトリックスRと並進ベクトルTを検出することである。
Figure 2013515959
代替的に、各々の画像ポイントは3D線として表現できる投影光線を定義するので、姿勢推定問題は、3Dポイントと3D線の距離がすべての対で最小であるような変換を検出することに等しく、これは対象空間共線性としても知られている。
誤差測定の最小化は、レーベンバーグ・マルカート法等の非線形最適化法によって行うことができる。マルチカメラ(または多視点)ビジョンシステムにおいて、すべてのカメラが同じ世界座標系にキャリブレーションされた後で、各々のカメラの対応が1つの線形システムに付加されて同時に解決される。多数のカメラを使用することは、曖昧性の分解能の改善や精度の改善という利点がある。
3.多面体モデルを濃淡値勾配に直接マッチングさせることにより対象の3D姿勢を推定する
上記2項では、姿勢推定問題を非線形最適化問題として記述し、対象の剛性変換(回転および並進)は対応する2Dポイントおよび3Dポイントの再投影誤差に基づき誤差測定を最小化することによって見出される。
代替的に、2Dと3Dの対応を確立することが困難な場合、モデルを種々異なる仮定された姿勢でグレーレベル勾配画像に直接マッチングさせることによって対象の3D姿勢を推定でき、そしてマッチング得点が最も高い姿勢を報告する。
例えば、マッチングプロセスは次のステップで行うことができる。
a.Rx、Ry、Rzおよびt、t、tに対する探索空間をセットアップする。6次元空間Rx、Ry、Rz、t、t、tにおける各サンプリングポイントが仮定された姿勢を定義する。
b.各サンプリングポイント(仮定された姿勢)について、対象の3Dモデルをカメラキャリブレーションに基づいて.画像空間に投影する。投影された2Dポイントとグレーレベル勾配画像とのマッチング得点を計算する。
c.6次元空間Rx、Ry、Rz、t、t、tにおける最多得点を探索する。非極大値抑制等の典型的なピーク検出技術を適用する。
d.最多得点と結び付いた姿勢が関連した対象に対して推定された姿勢である。
ステップbにおいて3Dモデルを画像面に投影する場合に、自己遮蔽特徴を除去することによって3Dモデルのトポロジーを明らかにすべきであることに留意されたい。
以下は、上述したように例示的な実施形態による、このような2つの測定結果を比較するために、位置と姿勢の推定を用いる技術である。
i.特徴ポイントの3D位置の2つの推定を比較する
特徴ポイントの3D位置の2つの推定を比較するとき、2つの推定された3Dポイントのユークリッド距離を使用できる。
Figure 2013515959
検出された第1の特徴と検出された第2の特徴が実質的に同じであるときは、検出された2つの位置のユークリッド距離を、(i)ステップ(a)で決定された精度と、(ii)所望のシステム精度のうちの少なくとも1つで直接比較できる。
図1Cのビジョンシステム構成180を簡単に参照すると、カメラ182、184、186、188は、それぞれ複数のカメラを包含する2つのグループ(182、184)および(186、188)に配置されている。本明細書に記載された別の実施形態におけるように、カメラ182、184、186、188は画像取得およびビジョンシステム処理のために、それぞれ多様な内部および外部ハードウェアおよびソフトウェアプロセスを含んでいてもよい。必要に応じて外部プロセッサおよび関連装置(図示せず)も設けることができ、カメラおよび/または外部装置は必要に応じて有線および/または無線接続により接続できる。すべてのカメラは、体積空間内の模範的な対象190の画像を取得する。模範的な第1の特徴192と模範的な第2の特徴194が離れた位置および/または対象の異なる表面/3D向きに設けられている。カメラグループ/複数のカメラ182、184は第1の特徴を取得および検出し、第2のグループ/複数のカメラ182、184は第2の特徴194を取得および検出する。その他の特徴が設けられている場合は、対象上の当該特徴の位置と向きを取得するために最良に位置決めされたカメラを使用するように変更できる点に留意されたい。一般的に、例示的な実施形態によれば、検出された第1の特徴と検出された第2の特徴が物理的空間において異なり、図示されている既知の物理的寸法(すなわち「既知の特性」)によって分離される場合は、2つの検出された位置のユークリッド距離および既知の物理的寸法を比較できる。さらにそれぞれの三角測量の結果の2つの残差を比較できる。
ii.対象の3D姿勢の2つの推定を比較する
ある対象の姿勢は、対象モデルをその固有の座標系から感知データとの一致にマッピングするのに必要とされる3D剛性変換である。姿勢の推定は回転マトリックスRと並進ベクトルTからなる。対象の2つの姿勢の推定を比較するために多数の方法を用いることができる。
直観的測定は、2つの姿勢で変換された2組のモデルポイントの間の二乗平均平方根距離である。
1組のモデルポイントを
Figure 2013515959
とすると、2つの姿勢推定の二乗平均平方根距離は次のように定義される。
Figure 2013515959
ここに、[R|T]は第1の姿勢推定を表し、[R|T]は第2の姿勢推定を表す。
モデルポイントセットは対象モデルの表面または内部の少数のユニークな特徴ポイントとして定義できる。代替的に、それはソリッドモデルの表面のモザイク状ファセットの頂点として定義できる。
2つの姿勢を比較する別の技術は、ロボットが対象を第1の姿勢[R|T]から第2の姿勢[R|T]に動かすのに使用するであろう仕事量を計算することである。2つの姿勢の間の変換は依然として剛体変換[R|T-1・[R|T]である。対象は、スキュー理論として知られている回転と並進を組み合わせた動作で、第1の姿勢から第2の姿勢に動かすことができる。2つの姿勢を比較するために、変換[R|T-1・[R|T]に対する螺旋軸と螺旋運動パラメータを計算できる。モデルポイントセットの各ポイントについて、動作の螺旋に沿った線積分を計算できる。次に2つの姿勢の間のずれをモデルポイントセットのすべてのポイントの合計として計算する。再び、モデルポイントセットは対象の表面の目立った特徴ポイント、または対象のモザイク状ファセットの頂点のセットであってもよい。
例示的な実施形態のシステムと方法は、3台以上のマシンビジョンカメラからなるシステムにおいて、外部パラメータが変わるために1台以上のカメラのミスキャリブレーションを特定するための効果的な技術を提供することは明確でなければならない。このシステムと方法は、誤ったマシンビジョンタスクが発生するのを可能にする前にミスキャリブレーションが特定されることを保証し、自動化された方法で再キャリブレーションを可能にする。とりわけこのシステムと方法は、多様な検査用途および対象特徴の位置または姿勢を決定するための機構に応用できる。
以上、本発明の例示的な実施形態を詳細に記述した。本発明の精神および範囲から逸脱することなく種々の修正および追加を行うことができる。上述した種々の実施形態の各々は記載された他の実施形態と組み合わせて多数の特徴を提供できる。さらに、以上に本発明の装置と方法の多数の別個の実施形態が記載されているが、これは本明細書において本発明の原理の応用を単に例示的に記したに過ぎない。例えば、システムは比較を所望の精度またはその他の閾値で実行するために、対象の多数の特徴と姿勢で動作できる。また、「位置」とい言う用語は、キャリブレーション精度におけるドリフトを決定する目的で、特徴または対象の取得された画像を他の画像と比較できるようにする多様な異なる構造を定義するものとして広く解釈されるべきである。対象の位置を特定する代替的な方策を用いることもできる。例えば実施形態に従って測定結果を導き出すために、在来技術に従う輪郭マッチング技術を用いることができる。さらに、対象または部品は、各々の部品取得と一緒に取得され得るシーン内の永久的な特徴(例えば基準)として定義できる。この永久的な特徴またはパターンは、例示的な実施形態に従って測定結果を決定するために使用される。さらに、ことが明確に想定されている。本明細書に記載されたプロセスと手順は、ハードウェア、コンピュータ可読プログラム命令からなるソフトウェア、またはハードウェアとソフトウェアの組合せとして実現できる。従って上記の説明は、例示の目的としてのみ理解されるべきであり、本発明の範囲を制限することを意図するものではない。

Claims (22)

  1. a)少なくとも3台のカメラの各々に対してそれぞれの外部キャリブレーションパラメータを検出することを含む、少なくとも3台のカメラをキャリブレーションするステップと;
    b)少なくとも3台のカメラのうちの第1の複数のカメラで3次元空間において第1の特徴を検出し、前記第1の特徴の第1の測定結果を決定するステップと;
    c)少なくとも3台のカメラのうちの第2の複数のカメラで3次元空間において第2の特徴を検出し、前記第2の特徴の第2の測定結果を決定するステップと;
    d)前記第1の測定結果と前記第2の測定結果を(i)ステップ(a)で決定された精度、(ii)所望のシステム精度、および(iii)第1の特徴と第2の特徴の既知の特性のうち少なくとも1つを基準として比較するステップとを包含する、
    少なくとも3台のカメラからなるシステムでカメラのミスキャリブレーションを決定するための方法。
  2. 前記第1の特徴は、(a)前記第2の特徴と実質的に同じであるか、または(b)前記第2の特徴と異なっている、請求項1記載の方法。
  3. 前記第1の測定結果は、前記第1の特徴の推定された第1の位置を包含し、前記第2の測定結果は前記第2の特徴の推定された第2の位置を包含する、請求項2記載の方法。
  4. 前記第1の測定結果は前記第1の特徴の検出に成功した得点を包含し、前記第2の測定結果は前記第2の特徴の検出に成功した得点を包含する、請求項2記載の方法。
  5. 前記ステップ(d)は、前記第1の測定結果と前記第2の測定結果との間の不一致を計算して、前記不一致を(i)ステップ(a)で決定された精度、(ii)所望のシステム精度、および(iii)第1の特徴と第2の特徴の既知の特性のうち少なくとも1つを基準として比較することを含む、請求項1記載の方法。
  6. 前記既知の特性は前記第1の特徴と前記第2の特徴との既知の距離を含み、少なくとも3台のカメラのうちの前記第1の複数のカメラは少なくとも2台のカメラからなる第1のグループを含み、少なくとも3台のカメラのうちの前記第2の複数のカメラは少なくとも2台のカメラからなる第2のグループを含む、請求項5記載の方法。
  7. さらに、ステップ(d)に応じて、前記比較のステップの結果が、(i)ステップ(a)で決定された精度と(ii)所望のシステム精度との少なくとも1つを超えることに基づいて、再キャリブレーションが必要であることを示す信号を発生することを含む、請求項1記載の方法。
  8. 前記発生のステップは、ステップ(d)に基づいて新しい外部キャリブレーションパラメータを生成し、前記外部キャリブレーションパラメータを少なくとも3台のカメラのうちの少なくとも1台に提供して、少なくとも3台のカメラのうちの少なくとも1台を再キャリブレーションすることを含む、請求項7記載の方法。
  9. 前記ステップ(a)で決定された精度は、キャリブレーション残差に基づく値の集積を含む、請求項1記載の方法。
  10. さらに新しい外部パラメータを提供して、ステップ(a)に従い少なくとも3台のカメラのうちの少なくとも1台を再キャリブレーションする請求項9記載の方法。
  11. 少なくとも3台のカメラからなるシステムはマシンビジョンシステム検査機能を有しており、少なくとも3台のカメラによって視られる体積空間を通過する対象に対して実行時マシンビジョン検査を実行する、請求項1記載の方法。
  12. 前記所望のシステム精度は、前記第1の測定結果と前記第2の測定結果の各々に対する履歴値に基づいている、請求項1記載の方法。
  13. 前記所望のシステム精度は、所定の閾値に基づいている、請求項1記載の方法。
  14. 前記閾値は、実行時ビジョンシステムタスクの所望の精度に基づいて定義される、請求項13記載の方法。
  15. さらに、前記ステップ(a)で少なくとも3台のカメラのうちの少なくとも1台に内部パラメータを提供し、少なくとも3台のカメラのうちの少なくとも1台を新しい内部パラメーに基づいて再キャリブレーションする、請求項1記載の方法。
  16. 前記既知の特性は前記第1の特徴と前記第2の特徴との間の既知の距離を含み、少なくとも3台のカメラの第1の複数のカメラは少なくとも2台のカメラからなる第1のグループを含み、少なくとも3台のカメラのうちの第2の複数のカメラは少なくとも2台のカメラからなる第2のグループを含む、請求項1記載の方法。
  17. a)少なくとも3台のカメラの各々に対してそれぞれの外部キャリブレーションパラメータを検出することを含む、少なくとも3台のカメラをキャリブレーションするステップと;
    b)少なくとも3台のカメラのうちの第1の複数のカメラで3次元空間において第1の特徴を検出して第1の対象姿勢の第1の測定結果を決定するステップと;
    c)少なくとも3台のカメラのうちの第2の複数のカメラで3次元空間において第2の対象姿勢を検出して第2の特徴の第2の測定結果を決定するステップと;
    d)前記第1の測定結果と前記第2の測定結果を(i)ステップ(a)で決定された精度と、(ii)所望のシステム精度とのうち少なくとも1つを基準として比較するステップとを包含する、
    少なくとも3台のカメラからなるシステムでカメラのミスキャリブレーションを決定するための方法。
  18. 前記第1の測定結果は第1の姿勢得点であり、前記第2の測定結果は第2の姿勢得点である、請求項17記載の方法。
  19. a)それぞれ外部キャリブレーションパラメータを含む、少なくとも3台のカメラと;
    b)3次元空間において第1の特徴を検出し、前記第1の特徴の第1の測定結果を決定する、少なくとも3台のカメラのうちの第1の複数のカメラと;
    c)3次元空間において第2の特徴を検出し、前記第2の特徴の第2の測定結果を決定する、少なくとも3台のカメラのうちの第2の複数のカメラと;
    d)前記第1の測定結果と前記第2の測定結果を(i)外部キャリブレーションパラメータと関連する精度、(ii)所望のシステム精度、および(iii)第1の特徴と第2の特徴の既知の特性のうち少なくとも1つを基準として比較する比較プロセスとを包含する、
    少なくとも3台のカメラからなるシステムでカメラのミスキャリブレーションを決定するためのシステム。
  20. 前記既知の特性は前記第1の特徴と前記第2の特徴との間の既知の距離を含み、少なくとも3台のカメラの第1の複数のカメラは少なくとも2台のカメラからなる第1のグループを含み、少なくとも3台のカメラのうちの第2の複数のカメラは少なくとも2台のカメラからなる第2のグループを含む、請求項19記載の方法。
  21. 前記第1のグループの少なくとも2台のカメラは、前記第2のグループの少なくとも2台のカメラとそれぞれ異なる、請求項20記載の方法。
  22. a)それぞれ外部キャリブレーションパラメータを含む、少なくとも3台のカメラと;
    b)3次元空間において第1の対象姿勢を検出し、前記第1の対象姿勢の第1の測定結果を決定する、少なくとも3台のカメラのうちの第1の複数のカメラと;
    c)3次元空間において第2の対象姿勢を検出し、前記第2の対象姿勢の第2の測定結果を決定する、少なくとも3台のカメラのうちの第2の複数のカメラと;
    d)前記第1の測定結果と前記第2の測定結果を(i)外部キャリブレーションパラメータと関連する精度、および(ii)所望のシステム精度のうち少なくとも1つを基準として比較する比較プロセスとを包含する、
    少なくとも3台のカメラからなるシステムにおいてカメラのミスキャリブレーションを決定するためのシステム。
JP2012546230A 2009-12-24 2010-12-23 カメラのミスキャリブレーションの実行時決定のためのシステムと方法 Pending JP2013515959A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/647,192 US11699247B2 (en) 2009-12-24 2009-12-24 System and method for runtime determination of camera miscalibration
US12/647,192 2009-12-24
PCT/US2010/061989 WO2011079258A1 (en) 2009-12-24 2010-12-23 System and method for runtime determination of camera miscalibration

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015139399A Division JP6280525B2 (ja) 2009-12-24 2015-07-13 カメラのミスキャリブレーションの実行時決定のためのシステムと方法

Publications (1)

Publication Number Publication Date
JP2013515959A true JP2013515959A (ja) 2013-05-09

Family

ID=43731811

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2012546230A Pending JP2013515959A (ja) 2009-12-24 2010-12-23 カメラのミスキャリブレーションの実行時決定のためのシステムと方法
JP2015139399A Active JP6280525B2 (ja) 2009-12-24 2015-07-13 カメラのミスキャリブレーションの実行時決定のためのシステムと方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2015139399A Active JP6280525B2 (ja) 2009-12-24 2015-07-13 カメラのミスキャリブレーションの実行時決定のためのシステムと方法

Country Status (5)

Country Link
US (1) US11699247B2 (ja)
JP (2) JP2013515959A (ja)
CN (2) CN102782721B (ja)
DE (1) DE112010005008B4 (ja)
WO (1) WO2011079258A1 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013137760A (ja) * 2011-12-16 2013-07-11 Cognex Corp 複数のカメラに対する複数部品コレスポンダ
JP2014070978A (ja) * 2012-09-28 2014-04-21 Denso Wave Inc キャリブレーション装置、および撮像装置のキャリブレーション方法
JP2014520351A (ja) * 2011-07-08 2014-08-21 レストレーション ロボティクス,インク. カメラシステムの座標系の較正および変換
KR20150004263A (ko) * 2013-07-02 2015-01-12 더 보잉 컴파니 계측 시스템을 위한 로봇 장착형 표지 시스템
JP2016218710A (ja) * 2015-05-20 2016-12-22 株式会社リコー 情報処理システム、情報処理装置、情報処理方法およびプログラム
KR20170026591A (ko) * 2014-09-05 2017-03-08 인텔 코포레이션 카메라 교정
WO2017104448A1 (ja) * 2015-12-17 2017-06-22 セイコーエプソン株式会社 情報処理装置、3次元モデル生成装置、情報処理装置の制御方法、及び、コンピュータープログラム
JP2017518147A (ja) * 2014-03-28 2017-07-06 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 手術シーンの定量的三次元撮像
JP2017519380A (ja) * 2014-03-21 2017-07-13 オムロン株式会社 光学系における光学的障害を検出しかつ緩和するための方法および装置
JP2017156317A (ja) * 2016-03-04 2017-09-07 Necプラットフォームズ株式会社 判定装置、搬送装置、判定方法及び判定プログラム
US10334227B2 (en) 2014-03-28 2019-06-25 Intuitive Surgical Operations, Inc. Quantitative three-dimensional imaging of surgical scenes from multiport perspectives
US10350009B2 (en) 2014-03-28 2019-07-16 Intuitive Surgical Operations, Inc. Quantitative three-dimensional imaging and printing of surgical implants
JP2019534727A (ja) * 2016-09-18 2019-12-05 イェダ リサーチ アンド ディベロップメント カンパニー リミテッドYeda Research And Development Co.Ltd. 蛍光照明に基づいて3d画像を生成するためのシステムおよび方法
US11266465B2 (en) 2014-03-28 2022-03-08 Intuitive Surgical Operations, Inc. Quantitative three-dimensional visualization of instruments in a field of view
US11304771B2 (en) 2014-03-28 2022-04-19 Intuitive Surgical Operations, Inc. Surgical system with haptic feedback based upon quantitative three-dimensional imaging

Families Citing this family (93)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9533418B2 (en) * 2009-05-29 2017-01-03 Cognex Corporation Methods and apparatus for practical 3D vision system
US9179106B2 (en) * 2009-12-28 2015-11-03 Canon Kabushiki Kaisha Measurement system, image correction method, and computer program
US9393694B2 (en) 2010-05-14 2016-07-19 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
JP5472463B2 (ja) * 2010-06-30 2014-04-16 富士通株式会社 画像処理プログラムおよび画像処理装置
US20110298916A1 (en) * 2011-04-18 2011-12-08 Lmi Technologies Ltd. Sensor system processing architecture
DE102012103495B8 (de) * 2012-03-29 2014-12-04 Sick Ag Optoelektronische Vorrichtung zur Vermessung von Struktur- oder Objektgrößen und Verfahren zur Kalibrierung
US9338439B2 (en) 2012-04-02 2016-05-10 Intel Corporation Systems, methods, and computer program products for runtime adjustment of image warping parameters in a multi-camera system
CN102708378B (zh) * 2012-04-28 2014-06-11 浙江工业大学 一种基于图像异常特征的智能交通抓拍设备故障诊断的方法
JP6032987B2 (ja) * 2012-07-24 2016-11-30 オリンパス株式会社 画像出力装置および画像出力装置の作動方法
KR101893788B1 (ko) * 2012-08-27 2018-08-31 삼성전자주식회사 다시점 카메라간 정합 장치 및 방법
CN103884272B (zh) * 2012-12-20 2016-10-05 联想(北京)有限公司 一种物体位置确定方法、装置及移动电子设备
TWI554100B (zh) * 2012-12-27 2016-10-11 Metal Ind Res &Development Ct Correction sheet design for correcting a plurality of image capturing apparatuses and correction methods of a plurality of image capturing apparatuses
CN103679693B (zh) * 2013-01-25 2017-06-16 杭州先临三维科技股份有限公司 一种多相机单视图标定装置及其标定方法
EP3410064B1 (de) * 2013-02-04 2023-08-09 Dnv Gl Se Inspektionskameraeinheit, verfahren zur inspektion von innenräumen sowie sensoreinheit
WO2014168974A1 (en) * 2013-04-08 2014-10-16 Omnivision Technologies, Inc. Systems and methods for calibration of a 360 degree camera system
JP6163899B2 (ja) * 2013-06-11 2017-07-19 ソニー株式会社 情報処理装置、撮像装置、情報処理方法、及びプログラム
US9772173B2 (en) * 2013-06-27 2017-09-26 Faro Technologies, Inc. Method for measuring 3D coordinates of a surface with a portable articulated arm coordinate measuring machine having a camera
US10489912B1 (en) * 2013-12-20 2019-11-26 Amazon Technologies, Inc. Automated rectification of stereo cameras
CN106255938B (zh) 2014-02-28 2019-12-17 惠普发展公司,有限责任合伙企业 传感器和投影仪的校准
CN104897053A (zh) * 2014-03-05 2015-09-09 泰科电子(上海)有限公司 可编程数字化机器视觉检测平台
US20150355030A1 (en) * 2014-06-04 2015-12-10 Honeywell International Inc. Equipment and method for intensity-temperature transformation of imaging system
US10021379B2 (en) 2014-06-12 2018-07-10 Faro Technologies, Inc. Six degree-of-freedom triangulation scanner and camera for augmented reality
EP2983131A1 (en) * 2014-08-06 2016-02-10 Thomson Licensing Method and device for camera calibration
US9596459B2 (en) 2014-09-05 2017-03-14 Intel Corporation Multi-target camera calibration
US10176625B2 (en) 2014-09-25 2019-01-08 Faro Technologies, Inc. Augmented reality camera for use with 3D metrology equipment in forming 3D images from 2D camera images
FR3026591B1 (fr) 2014-09-25 2016-10-21 Continental Automotive France Procede de calibration extrinseque de cameras d'un systeme de formation d'images stereos embarque
US9506744B2 (en) 2014-12-16 2016-11-29 Faro Technologies, Inc. Triangulation scanner and camera for augmented reality
US20160191901A1 (en) 2014-12-24 2016-06-30 3M Innovative Properties Company 3d image capture apparatus with cover window fiducials for calibration
CN105806320B (zh) * 2014-12-29 2020-04-21 同方威视技术股份有限公司 拍摄测量系统以及拍摄测量方法
US11019330B2 (en) * 2015-01-19 2021-05-25 Aquifi, Inc. Multiple camera system with auto recalibration
US10119809B2 (en) * 2015-02-16 2018-11-06 Intel Corporation Simulating multi-camera imaging systems
US10223589B2 (en) * 2015-03-03 2019-03-05 Cognex Corporation Vision system for training an assembly system through virtual assembly of objects
US10750080B2 (en) * 2015-04-28 2020-08-18 Sony Corporation Information processing device, information processing method, and program
JP6446329B2 (ja) * 2015-06-03 2018-12-26 株式会社日立製作所 カメラのキャリブレーション装置、カメラシステム及び、カメラのキャリブレーション方法
CN104964652B (zh) * 2015-06-25 2017-12-29 惠州时代电池有限公司 一种基于机器视觉的电池卷绕生产检测方法及设备
US11070793B2 (en) * 2015-07-31 2021-07-20 Cognex Corporation Machine vision system calibration
US10412369B2 (en) * 2015-07-31 2019-09-10 Dell Products, Lp Method and apparatus for compensating for camera error in a multi-camera stereo camera system
US10290118B2 (en) 2015-08-06 2019-05-14 Cognex Corporation System and method for tying together machine vision coordinate spaces in a guided assembly environment
US10334209B2 (en) * 2015-12-17 2019-06-25 Nike, Inc. Image stitching for footwear component processing
WO2017121926A1 (en) * 2016-01-15 2017-07-20 Nokia Technologies Oy Method and apparatus for calibration of a multi-camera system
US10142544B1 (en) * 2016-01-27 2018-11-27 RAPC Systems, Inc. Real time wide angle video camera system with distortion correction
US10140687B1 (en) * 2016-01-27 2018-11-27 RAPC Systems, Inc. Real time wide angle video camera system with distortion correction
JP6702543B2 (ja) * 2016-05-31 2020-06-03 株式会社東芝 情報処理装置、方法およびプログラム
CN106126933B (zh) * 2016-06-24 2018-11-30 清华大学 一种基于动态数据协调降低测量参数噪音的方法
JP6664000B2 (ja) * 2016-08-12 2020-03-13 オリンパス株式会社 較正装置、較正方法、光学装置、撮影装置、および投影装置
JP6803570B2 (ja) * 2016-09-08 2020-12-23 パナソニックIpマネジメント株式会社 カメラパラメタセット算出装置、カメラパラメタセット算出方法、および、プログラム
CN110506297B (zh) * 2017-04-17 2023-08-11 康耐视公司 高精确度校准系统和方法
US10186051B2 (en) 2017-05-11 2019-01-22 Dantec Dynamics A/S Method and system for calibrating a velocimetry system
US10304210B2 (en) * 2017-05-25 2019-05-28 GM Global Technology Operations LLC Method and apparatus for camera calibration
DE102017115587A1 (de) * 2017-07-12 2019-01-17 Connaught Electronics Ltd. Verfahren zum Bestimmen einer räumlichen Unsicherheit in Bildern eines Umgebungsbereiches eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
US10666926B1 (en) * 2017-07-18 2020-05-26 Edge 3 Technologies, Inc. Residual error mitigation in multiview calibration
JP2019025572A (ja) * 2017-07-28 2019-02-21 セイコーエプソン株式会社 ロボットの制御装置、ロボット、ロボットシステム、並びに、ロボットの異常を確認する方法
DE102017213362A1 (de) * 2017-08-02 2019-02-07 Siemens Aktiengesellschaft Bewerten einer Kalibrierung eines Sensorsystems
US11012683B1 (en) 2017-09-28 2021-05-18 Alarm.Com Incorporated Dynamic calibration of surveillance devices
US10636173B1 (en) 2017-09-28 2020-04-28 Alarm.Com Incorporated Dynamic calibration of surveillance devices
US10958895B1 (en) * 2017-10-04 2021-03-23 Amazon Technologies, Inc. High speed automated capture of 3D models of packaged items
US10542211B2 (en) * 2017-10-05 2020-01-21 GM Global Technology Operations LLC Camera subsystem evaluation using sensor report integration
US11072074B2 (en) * 2017-12-13 2021-07-27 Cognex Corporation Calibration and operation of vision-based manipulation systems
JP7008942B2 (ja) * 2017-12-21 2022-01-25 株式会社安川電機 較正方法及び較正装置
JP2019158414A (ja) * 2018-03-08 2019-09-19 東芝テック株式会社 情報処理装置
EP3561773B1 (en) * 2018-04-26 2022-03-02 Continental Automotive GmbH Online evaluation for camera intrinsic parameters
WO2019213666A1 (en) * 2018-05-04 2019-11-07 Aquifi, Inc. Systems and methods for three-dimensional data acquisition and processing under timing constraints
KR102023087B1 (ko) * 2018-05-31 2019-09-20 주식회사 미르기술 카메라 캘리브레이션 방법
CN108986164B (zh) * 2018-07-03 2021-01-26 百度在线网络技术(北京)有限公司 基于图像的位置检测方法、装置、设备及存储介质
DE102019004235B4 (de) 2018-07-16 2024-01-18 Mako Surgical Corp. System und verfahren zur bildbasierten registrierung und kalibrierung
JP7237483B2 (ja) * 2018-07-18 2023-03-13 キヤノン株式会社 ロボットシステムの制御方法、制御プログラム、記録媒体、制御装置、ロボットシステム、物品の製造方法
US10719957B2 (en) 2018-07-30 2020-07-21 Pony Ai Inc. System and method for calibrating on-board vehicle cameras
CN109040745B (zh) * 2018-08-01 2019-12-27 Oppo广东移动通信有限公司 摄像头自校准方法和装置、电子设备、计算机存储介质
WO2020024576A1 (zh) * 2018-08-01 2020-02-06 Oppo广东移动通信有限公司 摄像头校准方法和装置、电子设备、计算机可读存储介质
CN109040746B (zh) * 2018-08-01 2019-10-25 Oppo广东移动通信有限公司 摄像头校准方法和装置、电子设备、计算机可读存储介质
RU2699401C1 (ru) * 2018-08-03 2019-09-05 Общество с ограниченной ответственностью "ДиСиКон" (ООО "ДСК") Способ и система определения параметров калибровки PTZ камеры
DE102018128990B4 (de) * 2018-11-19 2021-11-18 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zum Kalibrieren sowie Verfahren und Vorrichtung zur Vermessung
US11911914B2 (en) 2019-01-28 2024-02-27 Cognex Corporation System and method for automatic hand-eye calibration of vision system for robot motion
US11254019B2 (en) * 2019-03-05 2022-02-22 The Boeing Company Automatic calibration for a robot optical sensor
US11293748B2 (en) 2019-03-07 2022-04-05 Faro Technologies, Inc. System and method for measuring three-dimensional coordinates
CN110175960B (zh) * 2019-05-21 2021-04-13 Oppo广东移动通信有限公司 图像校正方法、装置、电子设备以及存储介质
JP7324639B2 (ja) * 2019-07-23 2023-08-10 日本放送協会 被写体位置推定装置、フォーカス補助装置、及び、それらのプログラム
GB2594111B (en) * 2019-12-18 2023-06-07 Motional Ad Llc Camera-to-LiDAR calibration and validation
US11557086B2 (en) * 2020-01-02 2023-01-17 Sony Group Corporation Three-dimensional (3D) shape modeling based on two-dimensional (2D) warping
US11227173B2 (en) 2020-02-18 2022-01-18 Datalogic IP Tech, S.r.l. Virtual-frame preprocessing for optical scanning
DE102020108910B3 (de) * 2020-03-31 2021-07-22 Sick Ag Austausch einer Kamera
US11095870B1 (en) 2020-04-23 2021-08-17 Sony Corporation Calibration of cameras on unmanned aerial vehicles using human joints
CN111861976B (zh) * 2020-05-20 2024-02-02 西安理工大学 一种基于硬件指纹相关性的数字图像源拍摄设备识别方法
US20220128347A1 (en) * 2020-10-28 2022-04-28 Kamerai Private Limited System and method to measure object dimension using stereo vision
CN112381889B (zh) * 2020-11-19 2024-05-07 阿波罗智联(北京)科技有限公司 相机检验方法、装置、设备及存储介质
CN112511747B (zh) * 2020-11-27 2022-09-13 广州富港生活智能科技有限公司 基于物联网的自动拍摄设备控制方法及装置
CN112833816A (zh) * 2020-12-31 2021-05-25 武汉中观自动化科技有限公司 一种标志点定位与智能反向定位混合的定位方法和系统
US20220264072A1 (en) * 2021-02-12 2022-08-18 Sony Group Corporation Auto-calibrating n-configuration volumetric camera capture array
DE102021202993A1 (de) 2021-03-26 2022-09-29 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Ermittlung einer Kalibrierungsgüte eines optischen Sensors
FR3128561B1 (fr) * 2021-10-26 2024-03-22 Commissariat Energie Atomique Procédé de calibration automatique des paramètres extrinsèques d’un réseau de caméras optiques ; Produit programme d’ordinateur, système de vision par ordinateur et véhicule automobile associés.
US11587258B1 (en) * 2021-11-10 2023-02-21 GM Cruise Holdings LLC. Focal length validation using three-dimensional pose estimates
US11893450B2 (en) 2021-12-06 2024-02-06 Datalogic IP Tech, S.r.l. Robust optical aimer for triangulation-based distance measurement
WO2023220593A1 (en) * 2022-05-09 2023-11-16 Cognex Corporation System and method for field calibration of a vision system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003279315A (ja) * 2002-01-16 2003-10-02 Advanced Telecommunication Research Institute International カメラの自動校正方法
JP2004306249A (ja) * 2003-03-26 2004-11-04 Sony Corp ロボットに搭載されたステレオ・カメラの診断用装置、並びにロボット装置に搭載されたステレオ・カメラの診断方法
JP2004354256A (ja) * 2003-05-29 2004-12-16 Olympus Corp キャリブレーションずれ検出装置及びこの装置を備えたステレオカメラ並びにステレオカメラシステム
JP2007010419A (ja) * 2005-06-29 2007-01-18 Komatsu Engineering Corp 対象物の3次元形状検証システム。
JP2009511881A (ja) * 2005-10-07 2009-03-19 コグネックス・コーポレイション 実用的な3dビジョンシステムの方法および装置

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US346773A (en) 1886-08-03 Bath-pad
US345130A (en) 1886-07-06 Take-up for knitting-machines
US5257203A (en) * 1989-06-09 1993-10-26 Regents Of The University Of Minnesota Method and apparatus for manipulating computer-based representations of objects of complex and unique geometry
US6026172A (en) * 1996-09-06 2000-02-15 Lewis, Jr.; Clarence A. System and method for zoom lens calibration and method using same
US6075881A (en) * 1997-03-18 2000-06-13 Cognex Corporation Machine vision methods for identifying collinear sets of points from an image
US6078701A (en) * 1997-08-01 2000-06-20 Sarnoff Corporation Method and apparatus for performing local to global multiframe alignment to construct mosaic images
US6151406A (en) * 1997-10-09 2000-11-21 Cognex Corporation Method and apparatus for locating ball grid array packages from two-dimensional image data
US6178392B1 (en) * 1998-09-22 2001-01-23 Intel Corporation Method for combining the computer models of two surfaces in 3-D space
DE19848765C2 (de) * 1998-10-22 2000-12-21 Brainlab Med Computersyst Gmbh Positionsverifizierung in Kamerabildern
US6553138B2 (en) * 1998-12-30 2003-04-22 New York University Method and apparatus for generating three-dimensional representations of objects
US7068825B2 (en) * 1999-03-08 2006-06-27 Orametrix, Inc. Scanning system and calibration method for capturing precise three-dimensional information of objects
US6476803B1 (en) * 2000-01-06 2002-11-05 Microsoft Corporation Object modeling system and process employing noise elimination and robust surface extraction techniques
DE60119708T2 (de) * 2000-03-23 2007-01-11 Snap-On Inc., Pleasant Prairie Vorrichtung und verfahren zum kalibrieren der relativlage zweier messeinrichtungen eines messsystems
CN100346133C (zh) * 2000-03-23 2007-10-31 捷装技术公司 自校准、多相机机器视觉测量系统
US7027642B2 (en) * 2000-04-28 2006-04-11 Orametrix, Inc. Methods for registration of three-dimensional frames to create three-dimensional virtual models of objects
US7414732B2 (en) * 2000-05-16 2008-08-19 Steinbichler Optotechnik Gmbh Method and device for determining the 3D profile of an object
US6768509B1 (en) * 2000-06-12 2004-07-27 Intel Corporation Method and apparatus for determining points of interest on an image of a camera calibration object
EP1176557A1 (en) * 2000-07-24 2002-01-30 Setrix AG Method and arrangement for camera calibration
US7212228B2 (en) * 2002-01-16 2007-05-01 Advanced Telecommunications Research Institute International Automatic camera calibration method
US7085622B2 (en) * 2002-04-19 2006-08-01 Applied Material, Inc. Vision system
JP4354708B2 (ja) 2003-01-15 2009-10-28 独立行政法人科学技術振興機構 多視点カメラシステム
US7333113B2 (en) * 2003-03-13 2008-02-19 Sony Corporation Mobile motion capture cameras
US7373270B2 (en) * 2003-03-26 2008-05-13 Sony Corporation Diagnosing device for stereo camera mounted on robot, and diagnostic method of stereo camera mounted on robot apparatus
US7215810B2 (en) * 2003-07-23 2007-05-08 Orametrix, Inc. Method for creating single 3D surface model from a point cloud
JP4307283B2 (ja) 2004-02-17 2009-08-05 三菱電機株式会社 ステレオカメラシステムおよび該システムのステレオカメラ同士のキャリブレーション方法
US7512261B2 (en) * 2004-07-27 2009-03-31 Microsoft Corp. System and method for calibrating multiple cameras without employing a pattern by inter-image homography
JP3946716B2 (ja) * 2004-07-28 2007-07-18 ファナック株式会社 ロボットシステムにおける3次元視覚センサの再校正方法及び装置
JP2006214735A (ja) 2005-02-01 2006-08-17 Viewplus Inc 複合ステレオビジョン装置
US7356425B2 (en) * 2005-03-14 2008-04-08 Ge Security, Inc. Method and system for camera autocalibration
US7801330B2 (en) * 2005-06-24 2010-09-21 Objectvideo, Inc. Target detection and tracking from video streams
JP2007033087A (ja) * 2005-07-22 2007-02-08 Sony Corp キャリブレーション装置及び方法
JP2007064836A (ja) * 2005-08-31 2007-03-15 Kyushu Institute Of Technology カメラキャリブレーションの自動化アルゴリズム
CN100412503C (zh) 2005-09-30 2008-08-20 中国海洋大学 多视角激光测头及其标定方法
TWI307484B (en) * 2006-02-21 2009-03-11 Univ Nat Chiao Tung Image capture apparatus calibration system and method there
CN101226638B (zh) * 2007-01-18 2010-05-19 中国科学院自动化研究所 一种对多相机系统的标定方法及装置
US8655052B2 (en) * 2007-01-26 2014-02-18 Intellectual Discovery Co., Ltd. Methodology for 3D scene reconstruction from 2D image sequences
JP4886560B2 (ja) * 2007-03-15 2012-02-29 キヤノン株式会社 情報処理装置、情報処理方法
KR100886655B1 (ko) * 2007-04-10 2009-03-04 삼성중공업 주식회사 로봇 기반 멀티 레이저 비전 시스템의 자동 캘리브레이션방법
EP2153410B1 (en) 2007-05-29 2016-11-16 Cognex Technology and Investment Corporation 3d assembly verification from 2d images
JP4442661B2 (ja) 2007-08-29 2010-03-31 オムロン株式会社 3次元計測方法および3次元計測装置
CN101216681B (zh) * 2007-12-28 2010-10-20 上海微电子装备有限公司 机器视觉动态标定方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003279315A (ja) * 2002-01-16 2003-10-02 Advanced Telecommunication Research Institute International カメラの自動校正方法
JP2004306249A (ja) * 2003-03-26 2004-11-04 Sony Corp ロボットに搭載されたステレオ・カメラの診断用装置、並びにロボット装置に搭載されたステレオ・カメラの診断方法
JP2004354256A (ja) * 2003-05-29 2004-12-16 Olympus Corp キャリブレーションずれ検出装置及びこの装置を備えたステレオカメラ並びにステレオカメラシステム
JP2007010419A (ja) * 2005-06-29 2007-01-18 Komatsu Engineering Corp 対象物の3次元形状検証システム。
JP2009511881A (ja) * 2005-10-07 2009-03-19 コグネックス・コーポレイション 実用的な3dビジョンシステムの方法および装置

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014520351A (ja) * 2011-07-08 2014-08-21 レストレーション ロボティクス,インク. カメラシステムの座標系の較正および変換
JP2013137760A (ja) * 2011-12-16 2013-07-11 Cognex Corp 複数のカメラに対する複数部品コレスポンダ
JP2014070978A (ja) * 2012-09-28 2014-04-21 Denso Wave Inc キャリブレーション装置、および撮像装置のキャリブレーション方法
KR20150004263A (ko) * 2013-07-02 2015-01-12 더 보잉 컴파니 계측 시스템을 위한 로봇 장착형 표지 시스템
JP2015014600A (ja) * 2013-07-02 2015-01-22 ザ・ボーイング・カンパニーTheBoeing Company 計測システムのためのロボット搭載モニュメントシステム
KR102224047B1 (ko) * 2013-07-02 2021-03-10 더 보잉 컴파니 계측 시스템을 위한 로봇 장착형 표지 시스템
US10725478B2 (en) 2013-07-02 2020-07-28 The Boeing Company Robotic-mounted monument system for metrology systems
US10085001B2 (en) 2014-03-21 2018-09-25 Omron Corporation Method and apparatus for detecting and mitigating mechanical misalignments in an optical system
JP2017519380A (ja) * 2014-03-21 2017-07-13 オムロン株式会社 光学系における光学的障害を検出しかつ緩和するための方法および装置
JP2020054832A (ja) * 2014-03-28 2020-04-09 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 手術シーンの定量的三次元撮像
JP7321916B2 (ja) 2014-03-28 2023-08-07 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 手術シーンの定量的三次元撮像
JP2017518147A (ja) * 2014-03-28 2017-07-06 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 手術シーンの定量的三次元撮像
US10334227B2 (en) 2014-03-28 2019-06-25 Intuitive Surgical Operations, Inc. Quantitative three-dimensional imaging of surgical scenes from multiport perspectives
US10350009B2 (en) 2014-03-28 2019-07-16 Intuitive Surgical Operations, Inc. Quantitative three-dimensional imaging and printing of surgical implants
US10368054B2 (en) 2014-03-28 2019-07-30 Intuitive Surgical Operations, Inc. Quantitative three-dimensional imaging of surgical scenes
US11304771B2 (en) 2014-03-28 2022-04-19 Intuitive Surgical Operations, Inc. Surgical system with haptic feedback based upon quantitative three-dimensional imaging
US11266465B2 (en) 2014-03-28 2022-03-08 Intuitive Surgical Operations, Inc. Quantitative three-dimensional visualization of instruments in a field of view
JP2017535980A (ja) * 2014-09-05 2017-11-30 インテル・コーポレーション カメラキャリブレーション
KR20170026591A (ko) * 2014-09-05 2017-03-08 인텔 코포레이션 카메라 교정
KR102268878B1 (ko) * 2014-09-05 2021-06-24 인텔 코포레이션 카메라 교정
JP2016218710A (ja) * 2015-05-20 2016-12-22 株式会社リコー 情報処理システム、情報処理装置、情報処理方法およびプログラム
WO2017104448A1 (ja) * 2015-12-17 2017-06-22 セイコーエプソン株式会社 情報処理装置、3次元モデル生成装置、情報処理装置の制御方法、及び、コンピュータープログラム
JP2017156317A (ja) * 2016-03-04 2017-09-07 Necプラットフォームズ株式会社 判定装置、搬送装置、判定方法及び判定プログラム
JP2019534727A (ja) * 2016-09-18 2019-12-05 イェダ リサーチ アンド ディベロップメント カンパニー リミテッドYeda Research And Development Co.Ltd. 蛍光照明に基づいて3d画像を生成するためのシステムおよび方法
JP7184489B2 (ja) 2016-09-18 2022-12-06 イェダ リサーチ アンド ディベロップメント カンパニー リミテッド 蛍光照明に基づいて3d画像を生成するためのシステムおよび方法
US11540725B2 (en) 2016-09-18 2023-01-03 Yeda Research And Development Co. Ltd. Systems and methods for generating 3D images based on fluorescent illumination

Also Published As

Publication number Publication date
JP2016001181A (ja) 2016-01-07
DE112010005008T5 (de) 2012-11-15
CN110084854B (zh) 2024-05-07
US11699247B2 (en) 2023-07-11
CN102782721A (zh) 2012-11-14
CN102782721B (zh) 2020-09-22
JP6280525B2 (ja) 2018-02-14
US20110157373A1 (en) 2011-06-30
CN110084854A (zh) 2019-08-02
WO2011079258A1 (en) 2011-06-30
DE112010005008B4 (de) 2018-09-13

Similar Documents

Publication Publication Date Title
JP6280525B2 (ja) カメラのミスキャリブレーションの実行時決定のためのシステムと方法
US9734419B1 (en) System and method for validating camera calibration in a vision system
JP6180087B2 (ja) 情報処理装置及び情報処理方法
US9437005B2 (en) Information processing apparatus and information processing method
EP2416113B1 (en) Position and orientation measurement apparatus and position and orientation measurement method
JP2020116734A (ja) ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法
US20170072566A1 (en) Measurement system used for calibrating mechanical parameters of robot
JP6324025B2 (ja) 情報処理装置、情報処理方法
Semeniuta Analysis of camera calibration with respect to measurement accuracy
CN111278608B (zh) 用于3d视觉机器人系统的校准物品
JP2008188705A (ja) ロボット機構のキャリブレーション装置及び方法
JP2009511881A (ja) 実用的な3dビジョンシステムの方法および装置
JP2005201824A (ja) 計測装置
Boochs et al. Increasing the accuracy of untaught robot positions by means of a multi-camera system
JP7353757B2 (ja) アーチファクトを測定するための方法
WO2018043524A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
CN109773589B (zh) 对工件表面进行在线测量和加工导引的方法及装置、设备
KR101972432B1 (ko) 레이저비전 센서 및 그 보정방법
JP6180158B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法、およびプログラム
Qiao Advanced sensing development to support robot accuracy assessment and improvement
JP7414850B2 (ja) ロボットシステム
Heikkilä et al. Calibration procedures for object locating sensors in flexible robotized machining
WO2022124232A1 (ja) 画像処理システム及び画像処理方法
Bai et al. A comparison of two different approaches to camera calibration in LSDM photogrammetric systems
Madhusudanan Fast Eye-In-Hand 3D Scanner-Robot Calibration for Low Stitching Errors

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140418

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140708

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140715

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150311

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150713

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150902

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20151030

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20161102

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20161201

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20161221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170206