JP2015135331A - 実用型3dビジョンシステム装置およびその方法 - Google Patents

実用型3dビジョンシステム装置およびその方法 Download PDF

Info

Publication number
JP2015135331A
JP2015135331A JP2015023165A JP2015023165A JP2015135331A JP 2015135331 A JP2015135331 A JP 2015135331A JP 2015023165 A JP2015023165 A JP 2015023165A JP 2015023165 A JP2015023165 A JP 2015023165A JP 2015135331 A JP2015135331 A JP 2015135331A
Authority
JP
Japan
Prior art keywords
interest
camera
region
cameras
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015023165A
Other languages
English (en)
Other versions
JP2015135331A5 (ja
Inventor
ワラック、アローン
Aaron Wallack
マイケル、デイヴィッド
Michael David
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cognex Corp
Original Assignee
Cognex Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cognex Corp filed Critical Cognex Corp
Publication of JP2015135331A publication Critical patent/JP2015135331A/ja
Publication of JP2015135331A5 publication Critical patent/JP2015135331A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】改善された3次元マシンビジョン方法および装置を提供する。【解決手段】少なくとも第1のカメラおよび第2のカメラを含む、カメラ固有の軌跡に沿って配置された視野をそれぞれ有する複数のカメラ、を有する3D画像化システムにおける関心領域を特定するための方法およびそのシステムは、前記複数のカメラの視野内の位置に部品を配置する工程と、前記複数のカメラのそれぞれの視野内に存在する関心領域を、前記部品上に表示する工程と、前記複数のカメラそれぞれに対して、(i)前記関心領域を有する前記部品の少なくとも1つの画像を取得し、(ii)この少なくとも1つの画像における前記関心領域と関連付けされた前記カメラの視野内のカメラ固有の関心フィールドを識別して、(iii)後の使用のために前記関心フィールドを保存する工程と、を有している。【選択図】図1

Description

本発明は、マシンビジョンに関するものであり、より具体的には、3次元(3D)マシ
ンビジョンに関するものである。本発明は、ごく一例として、製造、品質管理およびロボ
ット工学といった分野における用途を有する。
マシンビジョンとは、画像の自動解析により画像において表現されている物体の特性を
判定する技術をさす。マシンビジョン技術は、自動化された製造ラインでしばしば利用さ
れており、各種構成部品のピッキング、組立てのための配置および整列を行うために、各
種構成部品の画像の解析が利用されている。自動組立て手段としてロボットが用いられて
いて、自動画像解析を部品ピッキング、部品配置および部品整列等に用いるシステムは、
視覚誘導ロボット工学とよばれる。また、マシンビジョン技術は、ロボットの操縦にも用
いられており、例えば、様々な環境中をロボットに移動させて状況を把握することを確実
にするためにマシンビジョン技術が用いられている。
3次元(3D)解析は様々な文献において論じられて久しいけれども、最先端のマシン
ビジョンシステムは、2次元(2D)画像解析に依拠している。このため、検査対象物体
が、制約を受けた方向および位置においてマシンビジョンシステムに「提示(prese
nted to)」されることが必要となるのが典型的である。コンベヤベルトがこの目
的のために一般的に用いられている。組立てまたは検査対象たる物体は、典型的には、ベ
ルト上の特定かつ既知にして安定した3Dコンフィギュレーションに配置されるが、しか
して、未知の位置および方向に配置され、マシンビジョンシステムの視野内に移動される
。前記視野内における物体の2次元姿勢(すなわち位置および方向)に基づいて、および
当該物体がコンベヤ上に配置されているという事実を考慮に入れつつ(それにより、「ラ
イ(当該物体が実際におかれている状態)」とマシンビジョンシステムカメラから物体ま
での距離とを確実なものとする)、システムは、2次元形状(2D geometry)
を適用して、当該物体の厳密な3次元姿勢および/または予想される外的形状との適合性
を判定する。
かかる2D映像解析を用いた例は、承継人の先行特許である以下の各特許明細書:米国
特許第6,748,104号(発明の名称『単一および複数のテンプレートまたはパター
ンを用いたマシンビジョン検査装置およびその方法』);米国特許第6,639,624
号(発明の名称『有鉛部品の検査のためのマシンビジョン方法』);米国特許第6,30
1,396号(発明の名称『カメラ‐可動物体間のキャリブレーション関係を判定するた
めの非フィードバック型マシンビジョン方法』);米国特許第6,137,893号(発
明の名称『マシンビジョンキャリブレーションターゲットおよび画像内におけるターゲッ
ト位置・方向を判定する方法』);米国特許第5,978,521号(発明の名称『共通
の物体を撮像する複数のカメラのキャリブレーション位置を判定するためのマシンビジョ
ン方法』);米国特許第5,978,080号(発明の名称『フィードバックにより視野
の方向、ピクセル幅およびピクセル高を判定するマシンビジョン方法』);米国特許第5
,960,125号(発明の名称『カメラ‐可動物体間のキャリブレーション関係を判定
する非フィードバック型マシンビジョン方法』);米国特許第6,856,698号(発
明の名称『高速高精度多次元パターン位置測定』);米国特許第6,850,646号(
発明の名称『高速高精度多次元パターン検査』);米国特許第6,658,145号(発
明の名称『高速高精度多次元パターン検査』)などにおいて提供されているところである
(あくまで若干の例である)。
工場フロアから家庭までロボット工学への依存度が高まるにつれて、実用的な3Dマシ
ンビジョンシステムへのニーズが表面化してきている。これは、これらの環境下において
は、多くの場合、検査対象たる物体が全体の位置およびライ内には必ずしも収まらないこ
とによる、例えば、コンベヤベルト上に配置された物体の事例とは違うのである。つまり
、当該物体の精確な3Dコンフィギュレーションは未知でありうるのである。
3Dシーン内における姿勢および位置の追加的な自由度を許容するために、3Dビジョ
ンツールが必須ではないものの有益である。これらの例としては以下のものがある:米国
特許第6,771,808号(発明の名称『マシンビジョンを利用して6自由度で変換さ
れたパターンを登録するためのシステムおよびその方法』)、および米国特許第6,72
8,582号(発明の名称『2つのカメラを備えたマシンビジョンシステムを用いて3次
元で物体の位置を判定するためのシステムおよびその方法』)。
米国特許第6,748,104号明細書 米国特許第6,639,624号明細書 米国特許第6,301,396号明細書 米国特許第6,137,893号明細書 米国特許第5,978,521号明細書 米国特許第5,978,080号明細書 米国特許第5,960,125号明細書 米国特許第6,856,698号明細書 米国特許第6,850,646号明細書 米国特許第6,658,145号明細書
他のマシンビジョン技術が従来技術として提案されているところである。しかしながら
、技術によっては、過大なプロセッサ出力が必要であるためにリアルタイム性が要求され
る用途には実用的でないものもある。他の技術では、検査対象たる物体に対して複雑な登
録手続を実施しなければならず、および/または、実行時に、物体の特性の多くがマシン
ビジョンシステム視野において同時的に視認されることが必要である。
マシンビジョン分野以外では、技術水準はまた、3次元姿勢を判定する接触式の方法を
提供している、例えば、タッチセンサを有するXYZ軸測定マシンなどである。しかしな
がら、これは接触が必要であって、相対的に動作は遅く、人間の関与が必要となりうる。
3次元姿勢を判定するための電磁波式の方法も提供されている。これらは物理的接触を必
要としないが、それ自身の欠点の影響を受ける、例えば、検査対象たる物体に対して発信
機を取り付けるといったしばしば実際問題として実現不可能な工程が必要である。
本発明の目的は、改善されたマシンビジョン方法および装置を提供することにあり、よ
り具体的には、3次元マシンビジョン方法および装置を提供することにある。
本発明の関連する目的は、限定する趣旨でないが、製造、品質管理、ロボット工学とい
った複数の実用分野において適用可能な方法および装置を提供することにある。
本発明のさらなる目的は、例えば、3D空間における位置および姿勢を判定することが
できる方法および装置を提供することにある。
本発明のさらなる目的は、例えば、検査対象たる物体の全体的位置およびライなどの制
約条件が少なくて済む方法および装置を提供することにある。
本発明のさらなる目的は、検査対象たる物体の登録に関連する要件を最小化することが
できる方法および装置を提供することにある。
本発明のさらなる目的は、現在および将来のマシンビジョンプラットフォームにおいて
実装することができる方法および装置を提供することにある。
前述したものは、本発明によって達成される目的の一部であるが、なかんずく、姿勢、
例えば、当該物体の複数画像から収集されたデータに対する三角測量によって、物体のX
YZ軸における位置、ピッチ、ロール、ヨー(その他1以上の姿勢特性)を3次元で判定
する方法および装置が提供される。
このように、例えば、ある態様において、本発明は、3Dマシンビジョン方法を提供す
るものであって、較正ステップの間、物体の複数の画像を異なる各々の視点から取得する
ように配置された複数のカメラが、調整されて、当該カメラの視野におけるピクセルロケ
ーションに対応する各々のカメラのレンズから発せられた3D空間における光線を識別す
るマッピング関数を識別するように構成されている。トレーニングステップでは、カメラ
と関連付けされた機能性がトレーニングされて、取得されるべき物体の複数の画像におけ
る期待パターンを識別する。実行時ステップが、これらのパターンの1または複数の3D
空間におけるロケーションを、物体の複数の画像におけるこれらのパターンのピクセル単
位での位置から、および、較正ステップで識別されたマッピングから、三角法で測る。
本発明のさらなる態様は、実行時ステップにより、複数のカメラによって実質的に同時
的に撮像された物体の複数の画像から位置を三角法で測定するところの前記方法を提供す
るものである。
本発明の別の態様は、本発明の別の目的は、物体の実行時画像を使用して、前述のマッ
ピング関数を、例えば較正から外れたカメラに関して識別する再較正ステップを含むよう
な方法を提供することである。したがって、例えば1台のカメラが画像を生成し、その画
像内で、パターンが、(例えばそのカメラに関する3D光線に対してマッピングされたと
きに)残りのカメラからの(例えばそれぞれの3D光線を使用してマッピングされたとき
の)画像と一致しない、かつ/または大幅に食い違うような位置にあるように見える場合
、それらの残りのカメラからの画像を用いて求められたパターン位置を使用して、その1
台のカメラを再較正することができる。
本発明の別の態様は、較正ステップが、(例えば較正プレートまたはその他の手段上の
標的、十字線などの)各登録対象を、3D空間内の既知の各位置に配置すること、および
それらの位置と、各カメラの視野内にあるそれぞれの登録対象のピクセル単位での位置と
の相関関係を記録する、または例えばアルゴリズム的に特徴付けることを含む、上述の方
法を提供する。本発明の諸関連態様は、それらの登録対象、較正プレートなどのうち1つ
または複数を使用して、複数台のカメラを同時に、例えば同時結像によって較正するよう
な方法を提供する。
本発明の他の態様は、較正ステップが、視野内の歪みを考慮に入れたマッピング関数を
カメラごとに識別することを含む、上述の方法を提供する。
本発明の別の態様は、トレーニングステップが、カメラに付随する機能を、文字、数字
、(登録対象など)他の記号、隅部、または物体の(暗点や光点など)他の識別可能な特
徴などの、例えば測定法および検索/検出モデルがそれに関して当技術分野で既知の期待
パターンを認識するようにトレーニングすることを含む、上述の方法を含む。
本発明の別の関連態様は、トレーニングステップが、前述の機能を、「モデル点」、す
なわち実行時に検査される物体上にあるパターンの3D空間内での(例えば絶対的または
相対的な)期待位置に関してトレーニングすることを含むような方法を提供する。それら
の画像から識別された三角測量された3D位置と組み合わせて、実行時ステップ中にこの
情報を使用することによって、その物体の姿勢を識別することができる。
本発明の諸態様によれば、パターンの期待位置(すなわちモデル点)に関するトレーニ
ングは、そのようなパターンそれぞれの基準点(または「原点」)の2D姿勢を検出する
ことを含む。2台以上のカメラの視野内に出現することが期待されるパターンの場合、そ
のような基準点により、3D空間内でのそれらのパターンの(したがって物体の)位置を
求めるための、以下に述べる三角測量が容易になる。
本発明の諸関連態様は、期待パターンに関するトレーニングが、各カメラに付随する機
能内で、類似モデルを、異なるカメラ相互間で類似の期待パターンをトレーニングするの
に利用することを含むような方法を提供する。これには、実行時に検出されたパターンに
関する基準点(または原点)が、それらの異なるカメラによって得られる画像相互間で一
致することが確実になるという利点がある。
本発明の別の関連態様は、期待パターンに関するトレーニングが、各カメラに付随する
機能内で、異なるモデルを類似パターンとして異なるカメラ相互間で利用することを含む
ような方法を提供する。こうすることにより、例えば姿勢、視角および/または障害物に
より、異なるカメラが各パターンを結像する様式が変更される場合に、それらのパターン
の検出が容易になる。
本発明の諸関連態様は、モデリングされた各パターンの基準点(または原点)の選択を
トレーニングすることを含むような方法を提供する。そのようなトレーニングは、それら
の基準点(または原点)が、それらの異なるカメラによって得られた画像相互間で一致す
ることを確実にするために、例えばオペレータの手で、例えばレーザーポインタまたはそ
の他の手段を使用して達成することができる。
本発明の諸関連態様は、トレーニングステップが、パターンの位置を、例えば実行時段
階(runtime phase)中に実施されるものに類似の三角測量法を利用するこ
とによって識別することを含むような方法を提供する。あるいは、パターンの期待(相対
)位置を、オペレータの手で入力する、かつ/または他の測定法によって識別することも
できる。
本発明の別の関連態様は、トレーニングステップが、1台(または複数台)のカメラか
らの画像内にある期待パターンを、別のカメラからの画像内にあるそのパターンの以前の
特定に基づいて検出することを含むような方法を提供する。したがって、トレーニングス
テップは、例えばオペレータが1台のカメラから撮影された画像内にある期待パターンを
特定した後、残りのカメラからの画像内にあるその同じパターンを自動的に検出すること
を含むことができる。
本発明の別の態様は、トレーニングステップが、カメラごとに物体の複数のビューを、
好ましくはそうした物体上に見られるパターンの原点が一貫して定義されるように取得す
る、上述の方法を提供する。画像間の潜在的な不一致を補償するために、パターンに関し
て最高一致得点(マッチスコア)をもたらすものを使用することができる。これには、任
意の姿勢の対象部品を検出するように、方法をよりロバストにするという利点がある。
本発明の別の態様では、実行時ステップ(runtime step)が、実行時画像
(runtime image)内にあるパターンのうち1つまたは複数の位置を、例え
ばパターンマッチングまたは他の2次元ビジョンツールを使用して、また、それぞれのカ
メラの視野内にあるそれらのパターンのピクセル単位での位置を、それらのパターンが上
にある前述の3D光線に相関付けるように較正段階中に識別されたマッピングを使用して
、三角測量することを含む。
本発明の諸関連態様によれば、パターン位置の三角測量は、例えば所与のパターンの位
置が、そのパターンが上にある(複数台のカメラからの)複数本の3D光線が交差する点
(または最小二乗適合点)から求められる場合のような、「直接的」三角測量によるもの
とすることができる。あるいは、またはそれに加えて、三角測量は、所与のパターンの位
置が、そのパターンが上にある1本の光線(または複数本の光線)からだけではなく、(
i)残りのパターンが上にある光線、および(ii)(例えばトレーニング段階中に求め
られる)それらのパターン相互の相対位置からも求められる場合のような、「間接的」で
もよい。
本発明の他の態様は、カメラに付随する機能が、トレーニングまたは実行時中に物体の
画像内に期待パターンを検出することができない場合に、例えばそのようなパターンが欠
如している、隠されている、または検出されない場合に「タイムアウト」し、それによっ
て、位置特定の際に過度の遅延を回避する、上述の方法を提供する。
本発明の別の態様は、上述の方法に類似し、IDマトリックスコード(あるいはその外
観および/または位置が予め定義されたまたは既知の他のパターン)が上記で論じたパタ
ーンの代わりに使用される。本発明のこれらの態様では、トレーニングステップが不要に
なる、または低減される。その代わりに、3D位置にマッピングするために、そうしたコ
ード(または他のパターン)の2D位置を、例えば一般的なタイプの特徴に合わせて設計
されたビジョンツールによって、トレーニング段階または実行時の画像から識別すること
ができる。
本発明の別の態様は、上述の方法に類似し、IDマトリックスコード(あるいはその外
観および/または位置が予め定義されたまたは既知の他のパターン)が上記で論じたパタ
ーンの代わりに使用される。本発明のこれらの態様では、トレーニングステップが不要に
なる、または低減される。その代わりに、3D位置にマッピングするために、そうしたコ
ード(または他のパターン)の2D位置を、例えば一般的なタイプの特徴に合わせて設計
されたビジョンツールによって、トレーニング段階または実行時の画像から識別すること
ができる。
本発明の他の態様は、例えばデジタル処理機能およびカメラを含み、上記の方法に従っ
て動作する、マシンビジョンシステムを提供する。本発明のこれらの態様および他の態様
は、図面中および以下の説明において明白である。
本発明の別の関連態様は、物体の検査により、例えばその一部分の相対位置を求めて、
妥当性検証することが可能になるような方法および装置を提供する。そのような方法およ
び装置を、非限定的な例として、例えば組立て、品質管理、保守、または他の作業中に、
検査および評価を支援するために使用することができる。
本発明の別の関連態様は、物体の部品(または他の部分)の欠如、または不適切な配置
を、(例えばその部品/部分に関連する)1つまたは複数の期待パターンが実行時画像か
ら欠如している場合、またはそうした画像内ではあるが、期待されないまたは望ましくな
い3D位置に位置するピクセル位置にある場合に、推論するような方法および装置を提供
する。
本発明の別の関連態様は、実行時ステップ中に、物体の部品または他の部分の位置が、
実行時画像内に見られるパターンに対応する3D位置のサブセットに基づいて求められ、
その3D位置が、さらに別のパターンの期待位置を求めるのに使用されるような方法およ
び装置を提供する。そうした別のパターンの期待位置は、例えば実行時画像から求められ
るその実際の3D位置と比較することができる。比較において特定された位置の差が指定
の許容差を超える場合、システムは適切な通知を(例えばオペレータに対して)生成する
ことができる。
本発明によるシステムおよび方法の利点は、それらが従来技術のシステムの手法よりも
使用しやすく、より実用的であり、しかもビジョンベースであり、したがって検査を受け
る物体との接触または検査を受ける物体の事前準備を必要としないことである。(本発明
による)そのようなシステムおよび方法は、容易にセットアップし、次いで「ショーアン
ドゴー(show‐and‐go)」を使用してトレーニングすることができる。
さらにそれらは、例えば欠如している結果および間違った結果に対して、迅速な性能お
よびロバストネスを提供する。したがって、例えば本発明の諸態様による方法および装置
は、いくつかのパターンが、例えばパターンが1台または複数台のカメラによるビューか
ら隠されているため、またはそれらのパターンの画像を適時取得することができないため
、いくつかの(また、いくつかの状況下では、いずれの)実行時画像の中に見られなくて
も、物体の姿勢を求めることができる。別の例として、本発明の諸態様による方法および
装置は、(例えば位置合せ不良のカメラによって生じる)間違った結果に対して、実行時
画像内に見られるパターンに対応する3D位置のサブセットを使用した三角測量をするこ
とによってロバストネスを提供する。サブセットの1つが、より低い二乗和誤差(sum
‐squared error)をもたらす場合、すべてのパターンではなくそのサブセ
ットを、位置三角測量に使用することができる。
少なくとも幾つかの実施形態は、少なくとも第1のカメラと第2のカメラとを含み、そ
れぞれ異なる軌跡に沿って配置された視野を有する、複数のカメラを備えた3D画像化シ
ステムにおいて関心領域を特定する方法において、(イ)前記複数のカメラの各視野内に
おける所定の場所に位置するように対象部品を配置する工程と;(ロ)前記複数のカメラ
の各視野の範囲内における関心領域を前記対象部品上に表示する工程と;前記複数のカメ
ラのそれぞれについて、(ハ)前記関心領域を含む前記対象部品の少なくとも1つの画像
を取得する工程と;(ニ)取得した前記少なくとも1つの画像における前記関心領域と関
連付けされた前記カメラの視野内のカメラ固有の関心フィールドを識別する工程と;(ホ
)前記カメラ固有の関心フィールドを後の使用に供するために保存する工程と;を順次有
することを特徴とする、複数のカメラを備えた3D画像化システムにおいて関心領域を特
定する方法、を提供する。
幾つかの実施形態において、前記複数のカメラそれぞれの視野内において、関心領域を
前記対象部品上に表示する前記(ロ)工程において、前記関心領域を画定するための少な
くとも3つの点を前記対象部品上に表示する。幾つかの実施形態において、前記関心領域
を画定する少なくとも3つの点を表示する際に、レーザー装置を用いて該少なくとも3つ
の点を1つずつ逐次的に表示させたうえで、前記少なくとも1つの画像を取得する工程に
おいて、前記少なくとも3つの点のそれぞれについて独立の画像を取得する。幾つかの実
施形態において、前記カメラ固有の関心フィールドを識別する前記(ニ)工程において、
複数の取得した画像を用いて前記関心フィールドを識別する。
幾つかのケースでは、前記方法は、前記少なくとも3つの点の各点に対して、該各点が
各カメラによって取得された少なくとも1つの画像において識別された点を判定して、当
該点を表示する工程を有している。幾つかのケースでは、前記少なくとも3つの点の各点
が少なくとも1つの他のカメラによって取得された少なくとも1つの他の画像において識
別されない間に該各点が前記少なくとも1つのカメラによって取得された前記少なくとも
1つの画像において識別された点を判定する。
幾つかの実施形態において、前記関心領域を前記対象部品上に表示する工程において、
レーザー装置を用いて該対象部品の少なくとも一部分をレーザービームで照明して該関心
領域を該対象部品の表面上に表示する。幾つかの実施形態において、前記レーザー装置に
設けられたボタンを選択すると、前記対象部品において現在照明されている一部分が少な
くとも複数の関心領域定義情報に対応することを表示するとともに、前記ボタンを選択し
た瞬間における前記対象部品の複数の画像を解析して該対象部品において前記現在照明さ
れている一部分と関連付けされた位置情報を取得すべきことを前記レーザー装置に指示さ
せ、かつ、前記画像を解析すべきとの前記レーザー装置からの指示があるかどうかをモニ
タする。
幾つかのケースでは、前記レーザー装置を、前記ボタンが選択されると前記対象部品上
に照明した前記レーザービームの外形を変化させるようにプログラムし、かつ、前記レー
ザー装置からの指示があるかどうかをモニタする工程において、前記複数のカメラによっ
て取得した複数の画像を解析して、前記対象部品上に照射した前記レーザービームの外形
における変化を識別する。幾つかのケースでは、カメラ固有の関心フィールドが前記複数
のカメラのそれぞれについて識別された点を示すフィードバックを前記システムユーザに
提供する。幾つかのケースでは、前記少なくとも1つの画像を取得する工程において、複
数の画像を高速連写で取得し、かつ、前記少なくとも3つの点を表示する工程において、
レーザー装置を用いて、前記少なくとも3つの点を個別的に照明する。幾つかのケースで
は、前記少なくとも3つの点を表示する工程において、各点について、前記レーザー装置
が前記点を照明している間に、前記照明された位置が、前記関心領域を定義する前記少な
くとも点の一つであることを表示する。
幾つかの実施形態は、少なくとも第1のカメラと第2のカメラとを含む、それぞれ異な
る軌跡に沿って配置された視野を有する複数のカメラを備えた3D画像化システムにおい
て関心領域を特定する方法において、(イ)前記複数のカメラの視野内の場所に位置する
ように対象部品を配置する工程と;(ロ)レーザー装置を用いて、前記対象部品上に関心
領域を定義する複数の点を逐次的かつ個別的に表示する工程と;前記複数のカメラのそれ
ぞれについて、(ハ)前記複数の点を前記対象部品上に表示している間に、前記関心領域
を含む前記対象部品の複数の画像を取得する工程と;(ニ)これら複数の画像における前
記複数の点を用いて、各カメラについて、前記関心領域に対応する前記視野における関心
領域を識別する工程と;(ホ)前記視野内における関心領域をカメラ固有の関心フィール
ドとして保存する工程と;を有することを特徴とする方法を提供する。
他の実施形態は、関心領域を対象部品上に表示する3次元マシンビジョンシステムをト
レーニングして、カメラ固有の関心フィールドを定義するためのシステムにおいて、(イ
)複数のカメラとであって、前記関心領域が前記カメラの前記視野内に存在するように視
野を有しかつカメラ固有の軌跡に沿って配置されたカメラであって、前記カメラの視野内
における前記部品の複数の画像を取得するカメラからなる複数のカメラと;(ロ)各カメ
ラに対して、(i)複数の画像を受信し、(ii)前記受信した複数の画像の少なくとも
1つを用いて、前記関心領域と関連付けされた前記画像を生成するのに用いた前記カメラ
の視野の一部分を、関心領域であると識別して、(iii)前記関心領域と関連付けされ
た前記関心領域を、カメラ固有の関心領域として保存するようにプログラムされた、マシ
ンビジョンプロセッサと;を有していることを特徴とするシステムを提供する。
幾つかのケースでは、前記システムには、レーザービームを前記対象部品に照射して前
記関心領域を該対象部品上に表示するレーザーポインタ装置が設けられている。幾つかの
ケースでは、前記レーザーポインタ装置には、ボタンが設けられていて、このボタンを選
択すると、前記部品の現在照明されている一部分が、少なくともいくつかの関心領域定義
情報に対応することが示されるとともに、前記ボタンが選択された瞬間における前記部品
の複数の画像を解析して前記部品の前記現在照明された一部分と関連付けされた位置情報
を取得すべきことが示されるものとされ、かつ、前記マシンビジョンプロセッサが、前記
画像を解析すべきとの前記レーザーポインタ装置からの指示があるかどうかをモニタする
工程を実行するようにプログラムされている。幾つかのケースでは、前記レーザーポイン
タ装置が、前記ボタンが選択されると、前記部品上の前記照明ビームの前記外的形状を変
化させるようにプログラムされ、かつ、前記マシンビジョンプロセッサが、前記レーザー
ポインタ装置からの表示の有無をモニタする工程において、カメラ画像を解析して、前記
部品上の前記照明ビームの前記外的形状の変化を識別するようにプログラムされている。
幾つかのケースでは、前記レーザーポインタ装置には、前記ボタンが選択されると信号を
送信する送信機が設けられている。
本発明のより完全な理解は、図面を参照することで得ることができる。
本発明を実施するように構成されたデジタルデータ処理装置を示した図である。 本発明に係るシステムの動作を説明したフローチャートである。 本発明に係るシステムのキャリブレーションを示した図である。 本発明に係るシステムのトレーニングおよび/または実行時動作を説明した図である。 3D画像化システムにおける複数のカメラのための互いに区別された関心フィールドをトレーニングするための方法を説明したフローチャートである。
図1は、同一物体について撮像した複数画像から収集したデータに対して三角測量を行
うことによって、当該物体(object)12の姿勢を3次元で求めることができる、
本発明に係るマシンビジョンシステム10を示したものである。ここに示された実施形態
においては、姿勢(pose)とは、3D空間における物体の位置(position)
および向き(orientation)として定義され、より具体的には、「x軸14、
y軸16およびz軸18に沿った物体の位置ならびに各軸に対する物体のピッチ、ロール
およびヨー」として定義される。他の実施形態では、姿勢をこれらの空間的特性のサブセ
ット(例えば、軸16に沿った位置およびヨー、軸14〜18に沿った位置、ロールなど
)に限定することができる。図示の軸14〜18は、ビジョンシステム10のフレーム2
0に位置合せされているが、他の実施形態では、他の基準系を使用することができる。図
示した実施形態のフレーム20は、太線で示すカメラマウント20aおよびプラットフォ
ーム20bによって例示されているが、他の実施形態では、他の部材を使用する必要があ
ることもあり、またはそのような部材を使用する必要がないこともあろう。
マシンビジョンシステム10は、さらに、デジタルデータ処理装置 22と画像取得装
置 24とが設けられている。デジタルデータ処理装置22は、ここでは、単純化のため
、iMac(登録商標)G5パーソナルコンピュータとして記載されているが、メインフ
レームコンピュータであってもよく、ワークステーション、パソコン(例えば、Wind
ows(登録商標)/Intel Pentium(登録商標)4プラットフォームまた
はその他のプラットフォーム)、専用のビジョンコンピュータ、組込みプロセッサ また
は特許製品、オープンソース製品その他のオペレーティングシステムで動作する各種デジ
タルデータ処理装置あるいはここに記載された教示内容に従って動作するようにプログラ
ムされたまたは構成された装置であって、画像取得装置24が提供した複数画像から物体
12の姿勢を求める装置であってもよい。デジタルデータ処理装置は、図に示すように、
ディスプレイ22a、キーボード22b、マウス22cおよびその他の入出力装置など、
技術分野において公知のものを有してもよい。
画像取得装置24は、マシンビジョンカメラでも、ビデオカメラでも、静止画撮影用ス
チルカメラでも、物体12の画像を可視または他の関連するスペクトルにおいて取得する
ことができる他の装置であってもよい。一般性を害することなく、以下の記述においては
、画像取得装置24は一般に、「カメラ」とよぶことにするが、実際には、カメラは任意
の画像取得機能を有する要素で構成されてもよい。
記載された実施形態においては、このような画像取得装置24が3台図示されているが
、実際には、任意の複数台の装置(例えば2台以上)を使用することができる。これらの
画像取得装置は、物体12の画像を、それぞれの異なる視点から取得するように配設され
ている。いくつかの実施形態では、検査対象たる物体の3次元姿勢を、単一のかかる画像
取得装置24によって得られた画像を用いて求めることもでき、したがってあらゆる実施
形態が複数台のカメラからの画像を必要とするとは限らないことは、当業者において明ら
かであろう。
デジタルデータ処理装置22は、本明細書の教示に従って動作するようにプログラムさ
れているが、当技術分野で既知のタイプの、中央処理装置(CPU)、メモリ(RAM)
、および入力/出力(I/O)機能をさらに有している。
具体的には、記載された実施形態においては、これらは図2に示す方法に従って3Dマ
シンビジョンを実現するように構成されている。図2では、較正ステップ30において、
複数台のカメラ24がそれぞれ、そのカメラのレンズから発せられかつそのカメラの視野
内のピクセル位置に対応する3D空間内の光線を特定する、それぞれのマッピング関数を
識別するように較正(調節)される。
図3を参照すると、この点に関して、較正ステップは、(例えば較正プレート40その
他の手段上の照準、十字線などの)各登録対象を、3D空間内の既知の各位置に配置する
こと、およびそれらの位置と、各カメラの視野内にあるそれぞれの登録対象のピクセル単
位での位置との相関関係を記録する、または例えばアルゴリズム的に特徴付けることを含
む。好ましくは、このマッピングには、それぞれのカメラ24の視野内の歪みが考慮され
る。
記載された実施形態においては、登録対象、較正プレート40などを使用して、複数台
のカメラ24を同時に、例えば同時結像によって較正する。したがって、一例として、操
作者が画像取得装置24のうち2台以上の視野内に登録対象を配置して、それらがその登
録対象を、較正目的で同時に結像することができる。
較正プレート40などが較正に使用される場合、それは、好ましくはフィデューシャル
(fiducial)41(例えば、一様なチェッカーボードパターンとは異なる一意の
パターン)を原点のところに示し、したがってすべての画像取得装置24を、特定の向き
を有する同じ一意の基準点に対して較正することができる。装置24を一貫してそのよう
に較正することによって、それらをすべて使用して、その画像座標(例えばパターン原点
のピクセル単位での位置)から共通の基準点またはフレームに対してマッピングすること
ができる。そのような好ましいフィデューシャルは、図面中のL字形フィデューシャルの
場合と同様に、非対称である。
かかる較正(キャリブレーション)のための背景的な方法および装置は、限定する趣旨
でない例示として、米国特許第6,748,104号(発明の名称『単一および複数の
テンプレートまたは パターンを用いたマシンビジョン検査装置およびその方法』)、米
国特許第6,639,624号(発明の名称『有鉛部品の検査のためのマシンビジョン方
法』)、米国特許第6,301,396号(発明の名称『カメラ‐可動物体間のキャリブ
レーション関係を判定するための非フィードバック型マシンビジョン方法』)、米国特許
第6,137,893号(発明の名称『マシンビジョンキャリブレーションターゲットお
よび画像内におけるターゲット位置・方向を判定する方法』)、米国特許第5,978,
521号(発明の名称『共通の物体を撮像する複数のカメラのキャリブレーション位置を
判定するためのマシンビジョン方法』)、米国特許第5,978,080号(発明の名称
『フィードバックにより視野の方向、ピクセル幅およびピクセル高を判定するマシンビジ
ョン方法』)、米国特許第5,960,125号(発明の名称『カメラ‐可動物体間のキ
ャリブレーション関係を判定する非フィードバック型マシンビジョン方法』)、米国特許
第6,856,698号(発明の名称『高速高精度多次元パターン位置測定』)、米国特
許第6,850,646号(発明の名称『高速高精度多次元パターン検査』)および米国
特許第6,658,145号(発明の名称『高速高精度多次元パターン検査』)などに教
示されているところである。これらの教示内容はすべて参照により本明細書に編入される
ものとする。最後の3つの特許文献に記載された方法および装置は、本明細書では、「P
atMax」の名称でよぶことにする。
任意選択のトレーニングステップ32では、それぞれのカメラ24に付随するモジュー
ル(例えばコードシーケンス、サブルーチン、関数、オブジェクト、他のデータ構造およ
び/または関連ソフトウェア、あるいは他の機能)を、実行時中に取得すべき物体12の
画像内にある期待パターンを認識するようにトレーニングする。期待パターンは、文字、
数字、他の記号(登録対象など)、隅部、または物体12の実行時画像内で識別可能であ
ることが予想される(暗点や光点など)他の特徴であり、例えば、測定法および検索/検
出モデルがそれに関して当技術分野で既知のものとすることができる。これらのパターン
は、恒久的に物体の一部分をなすものでも、物体に添付されるものでもよい。しかし、そ
れらのパターンは、例えば取外し可能な較正目標の場合、一時的でもよい。実際には、そ
れらのパターンは、物体に物理的に関連付けられることさえ不要である。例えば、それら
のパターンを、トレーニング段階および/または実行時段階中に結像される物体上に、例
えばレーザーまたは他の装置によって、光学的にまたは他の手段で投影することができる
各カメラ24と関連付けされたモジュールまたは他の機能を、パターンを認識するよう
にトレーニングすることに加えて、図示の実施形態のトレーニングステップ32は、それ
らをモデル点位置、すなわち、実行時中に検査される物体上にあるパターンの例えば相互
の(すなわち3D空間内での)期待位置に関してトレーニングすることを含む。これは、
例えば、実行時段階中に実施されるものに類似の三角測量法を利用することによるものと
することができる。あるいは、それらのパターンの期待(相対)位置を、オペレータの手
で入力する、かつ/または他の測定法(例えば、ルーラ、キャリパ、光学的距離ゲージな
ど)によって識別することもできる。
三角測量が使用されるか、それとも他の方法が使用されるかに関わらず、トレーニング
ステップ32は、好ましくは、各カメラ24に付随するモジュールまたは他の機能を、そ
のようなトレーニングされるパターンそれぞれの基準点(または「原点」)に関してトレ
ーニングすることを含む。2台以上のカメラの視野内に出現することが期待されるパター
ンの場合、そのような基準点に関するトレーニングによって、3D空間内でのそれらのパ
ターンおよび/または物体の位置を、直接的および間接的に三角測量することが容易にな
る。
記載された実施形態においては、そのようなトレーニングは、類似モデル(例えば「P
atMax」など)を、異なるカメラ24相互間で類似期待パターンをトレーニングする
のに使用することによって達成することができる。これには、実行時に検出されたパター
ンに関する基準点(または原点)が、それらの異なるカメラによって得られる画像相互間
で一致することが確実になるという利点がある。
姿勢、視角および/または障害物により、異なるカメラ24が類似パターンを見る見方
が変わる場合、そのようなトレーニングには、異なるカメラ相互間で異なるモデルを(類
似パターンとして)利用することを含むことができる。モデルが異なれば、類似パターン
に関して異なる基準点が特定される傾向があり得るので、記載された実施形態においては
、類似パターンに関する類似基準点の選択を、操作者がトレーニングすることが可能であ
る。
これは、一例として、トレーニングステップ32中に、(ステップ34において検索す
るためのテンプレートとして使用すべき)パターンの画像を複数台のカメラ24から同時
に取得し、次いでレーザーポインタで物体を照らすことによって達成することができる。
レーザー照射を用いて取得された画像から、レーザー点の3D位置を計算し、それによっ
て、パターンのすべての画像上で一致する原点を定義することができる。(ここでは、異
なるモデルをパターントレーニングに使用することに関して説明しているが、この技法は
、類似モデルが使用される場合にも適用することができる)。この目的のために、余分な
レーザーポインタ点がある、またはない画像を使用して、autoThresholdi
ngおよびブロブ(blob)解析を実行することによって、すべての画像内でその点の
中央を検出し、それによって一貫性のある一致した原点を求めることができる。本明細書
の別の場所で論じるように、この点の3D位置を得るために三角測量を使用することがで
き、それによってこの技法を、(トレーニング中の)物体上にある複数パターンに、例え
ば物体が移動しないことを条件として使用することが可能になる。
これは、一例として、トレーニングステップ32中に、(ステップ34において検索す
るためのテンプレートとして使用すべき)パターンの画像を複数台のカメラ24から同時
に取得し、次いでレーザーポインタで物体を照らすことによって達成することができる。
レーザー照射を用いて取得された画像から、レーザー点の3D位置を計算し、それによっ
て、パターンのすべての画像上で一致する原点を定義することができる。(ここでは、異
なるモデルをパターントレーニングに使用することに関して説明しているが、この技法は
、類似モデルが使用される場合にも適用することができる)。この目的のために、余分な
レーザーポインタ点がある、またはない画像を使用して、autoThresholdi
ngおよびブロブ(blob)解析を実行することによって、すべての画像内でその点の
中央を検出し、それによって一貫性のある一致した原点を求めることができる。本明細書
の別の場所で論じるように、この点の3D位置を得るために三角測量を使用することがで
き、それによってこの技法を、(トレーニング中の)物体上にある複数パターンに、例え
ば物体が移動しないことを条件として使用することが可能になる。
本発明の好ましい一実施によれば、トレーニングステップ32は、1台(または複数台
)のカメラ24からの画像内にある期待パターンを、別のカメラからの画像内にあるその
パターンの以前の特定に基づいて検出することを含む。したがって、トレーニングステッ
プは、例えばオペレータが1台のカメラから撮影された画像内にある期待パターンを特定
した後、残りのカメラからの画像内にあるその同じパターンを自動的に検出することを含
むことができる。
好ましい実施形態では、ステップ32は、カメラ24ごとに物体の複数のビューを、好
ましくはそうした物体上に見られるパターンの原点が一貫して定義されるように取得する
ことを含む。画像間の潜在的な不一致を補償するために、パターンに関して最高一致得点
(マッチスコア)をもたらすものを使用することができる。これには、任意の姿勢の部品
を検出するように、方法をよりロバストにするという利点がある。
上述したように、トレーニングステップ32は任意選択である。本発明のいくつかの実
施形態では、トレーニングステップ32は、キャパシティを下げた状態で使用され、また
は全く使用されないことも考えられる。例えば、実行時に期待されるパターンがblob
モデル(例えば明るい特徴を探すもの)によって検索できる場合、パターントレーニング
は必要ないが、上述のタイプの位置トレーニングが依然として使用される。そうしたこと
は、さらなる例として、IDマトリックスコードであるパターン(あるいはその外観およ
び/または位置が予め定義されたまたは既知の他のパターン)が、上記で論じたトレーニ
ング可能なパターンの代わりに使用される場合にも当てはまる。この場合、3D位置にマ
ッピングするために、そうしたコード(または他のパターン)の2D位置が、例えば一般
的なタイプの特徴に合わせて設計されたビジョンツールによって、トレーニング段階また
は実行時の画像から識別される。本発明のそうした実装形態は有用である。というのも、
工業用部品はつねにIDマトリックスコードを有することができ、それによって複数のト
レーニングレスセンサが、IDマトリックスコードの3D位置を出力することができるた
めである。さらに、IDマトリックスコードは矩形領域に広がるので、そうしたセンサは
すべて、4隅の2D位置を出力することができる。さらに、IDマトリックスが特定の工
程を用いて印刷される場合、(コードのサイズ/タイプを知ることにより)その3D位置
を知り、3D姿勢を計算することができる。
実行時ステップ34では、デジタルデータ処理装置22が、物体12上にあるパターン
42a〜42cのうちの1つまたは複数の3D空間内の位置を、物体12の実行時画像内
にあるそれらのパターンを表すピクセル単位での位置に基づいて、また較正ステップ30
中に識別されたマッピングから三角測量する。記載された実施形態においては、物体12
のそれらの実行時画像が、好ましくは同時に、または実質的に同時に、画像取得装置24
によって取得される。この点に関して、実質的に同時にとは、物体12、画像取得装置2
4、フレーム20、またはその他のものの動きが、実行時画像内のパターンのピクセル単
位での位置、および/またはそこから求められるマッピングに実質的に影響を及ぼさない
ほど、画像取得がほぼ時間的に迫って行われることを指す。そのような同時取得は、カメ
ラ24を同時に(またはほぼそのように)作動させることによって、あるいは、例えばカ
メラ24のシャッタが開いている間に、結像された物体をストロボ照射することを含む他
の手段によって達成することができる。
記載された実施形態においては、位置三角測量が、パターンマッチングまたは他の2次
元ビジョンツールを使用して、実行時画像内にあるパターンのピクセルに関する位置を識
別することによって、また、それぞれのカメラ24の視野内にあるそれらのパターンのピ
クセルに関する位置を、それらのパターンが上にある前述の3D光線に相関付けるように
較正段階中に識別されたマッピングを使用することによって達成される。
2次元ビジョンツールを用いた例としては、前述した、本明細書に参照により編入され
た、米国特許第6,748,104号、米国特許第6,639,624号、米国特許第6
,301,396号、米国特許第6,137,893号、米国特許第5,978,521
号、米国特許第5,978,080号、米国特許第5,960,125号、米国特許第6
,856,698号、米国特許第6,850,646号および米国特許第6,658,1
45号である。
パターン位置の三角測量は、例えば所与のパターンの位置が、そのパターンが上にある
(複数台のカメラからの)複数本の3D光線が交差する点から求められる場合のような、
「直接的」三角測量によるものとすることができる。代替的には、またはそれに加えて、
三角測量は、所与のパターンの位置が、そのパターンが上にある1本の光線(または複数
本の光線)からだけでなく、(i)残りのパターンが上にある光線、および(ii)結像
された物体上にある(例えばトレーニング段階中に求められる)それらのパターン相互の
相対位置からも求められる場合のような、「間接的」であってもよい。
記載された実施形態においては、1つまたは複数のパターンが上にあるように見える(
複数台のカメラ24からの)複数本の3D光線相互間または複数本の3D光線の中で交差
(または最寄りの交差)点を検出するために、直接的および/または間接的三角測量で「
最小二乗適合(least squares fit)」または他のそうした方法を利用
することができる。例えば、2台以上のカメラ24から取得された画像が、所与のパター
ン(より正確にはそのパターンの見かけ上の原点)が2本以上の光線上にあることを示す
場合、最小二乗適合法を使用して、3D空間内でのそれらの光線の交差位置、またはそこ
に最寄りの点(すなわち、それらの光線の最寄りにある空間内の点)を求めることができ
る。同様に、カメラ24からの画像が、複数光線上にある複数パターンに関する原点を示
す場合、物体上にあるそれらのパターンのモデル点を用いて最小二乗適合を使用すること
によって、それらのパターンおよび/または物体自体の最尤な位置を求めることができる
図示の実施形態は、光線とパターンの最小二乗(または二乗平均平方根)適合を見つけ
出すために、オプティマイザ(または「ソルバ(solver)」)を利用する。これは
、当技術分野で入手可能なタイプの汎用ツールであり、かつ/または以下に詳述するよう
に動作することができるものであればよい。いずれにせよ、実行時ステップ34中に、実
行時画像から特定されたパターン(より正確にはパターン原点)が上にある3D光線の定
義、ならびに(関連のある場合)物体上にある各パターンの位置または相対位置がソルバ
に供給される。
一般に、この情報により、過度に制約が加えられた(over‐constraine
d)システムが定義され(すなわち、実際の位置を推論するために必要であるよりも多く
の情報が、光線の定義および物体上の相対パターン位置によって供給されるということ)
、図示のシステムはそれを、ロバスト性を目的として利用する。したがって例えば、実行
時ステップ34は、(例えばパターンが1つまたは複数のカメラのビューから隠されてい
る場合、あるいはパターン画像の適時取得を可能にしない照明または他の状況の場合のよ
うに)例えばパターンが物体またはその実行時画像から欠如している場合でさえ、物体の
姿勢を求めることができる。また、さらなる例として、実行時ステップ34は、光線とモ
デル点、または光線の三角測量との間の適合の二乗平均平方根(RMS)誤差を最小限に
抑えるために、取得装置24によって検出されたパターン原点のサブセット(より正確に
は、パターン原点に対応する位置のサブセット)を試用することを含むことができる。サ
ブセットの1つに、より低い二乗和誤差がある場合、すべてのパターン原点ではなくその
サブセットを、位置三角測量に使用することができる。
一般に、この情報により、過度に制約が加えられたシステムが定義され(すなわち、実
際の位置を推論するために必要であるよりも多くの情報が、光線の定義および物体上の相
対パターン位置によって供給されるということ)、図示のシステムはそれを、ロバスト性
を目的として利用する。したがって例えば、実行時ステップ34は、例えばいくつかのパ
ターンが(例えば、あるパターンの位置を、残りの検出されたパターンにより予測される
位置と比較することによって検査/妥当性検証するように)考慮から意図的に除外される
場合でさえ、物体の姿勢を求めることができる。
また、さらなる例として、実行時ステップ34は、光線とモデル点、または光線の三角
測量との間の適合の二乗平均平方根(RMS)誤差を最小限に抑えるために、取得装置2
4によって検出されたパターン原点のサブセット(より正確には、パターン原点に対応す
る位置のサブセット)を試用することを含むことができる。次いで、このステップは、サ
ブセット内に含まれなかった(すなわち、上述のように意図的に除外された)パターンの
3D位置を外挿して、それぞれのカメラ内での2D画像位置を予測することができる。予
測された画像位置は、実際の測定された画像位置と比較することができる。予測された画
像位置と実際の測定された画像位置との間の距離が、何らかのユーザ指定の距離許容差を
超える場合、システムは適切な警告または他の通知を生成することができる。あるいは、
またはそれに加えて、除外されたパターンの外挿された3D位置を、三角測量によって求
められた3D位置に対して比較することができる。この場合もやはり、外挿された(予測
された)位置と実際の位置との間の距離が異なる場合、実行時ステップ34は、適切な警
告または他の通知を生成することを含むことができる。
トレーニング段階と実行時段階のどちらの間でも、パターン認識の速度を向上させるた
めに、図示の実施形態は、1つのパターンの検出された位置を利用して、残りのパターン
に対する検索の自由度を制限することができる。例えば、第1のカメラ24がパターンを
15度で検出し、別のカメラが第1のカメラとほぼ同じ向きである場合、別のカメラは、
パターンを向き15±10度で探すだけでよい。さらに、1台のカメラから原点の位置が
与えられると、その原点が、ある3D光線に沿って存在することが分かり、それによって
その光線を第2のカメラの視野上に投影し、その線に沿ってパターンを探すだけでよい。
2つのパターンが混同しやすい(すなわち、カメラの視野内にあるパターンに類似する
2つの事例がある)場合、図示の実施形態は、可能な異なる対応関係をすべて試行するこ
とができる。例えば、前述したとおり参照により編入されたところの米国特許第6,85
6,698号(発明の名称『高速高精度多次元パターン位置測定』)、米国特許第6,8
50,646号(発明の名称『高速高精度多次元パターン検査』)、および米国特許第6
,658,145号(発明の名称『高速高精度多次元パターン検査』)に記載された技術
を用いて、(POST−IT(登録商標)Notesラベルからの)文字シーケンス「P
」、「ST」、「It」および「Notes」などのパターンはどれも異なり、したがっ
てマッチ(一致)が見られる場合、それが正しいマッチであると分かる。
代替的には、「ブロブ(blob)」解析として知られるマシンビジョンツールを使用
して、パターンを(例えばそれが暗い穴である場合に)検出することができる。この場合
、blob#1が3Dモデル点1に対応し、blob#2が3Dモデル点2に対応するな
どと仮定することができる。それが機能しない場合、解析は、blob#2が3Dモデル
点#2に対応し、blob#1が3Dモデル点#1に対応するという次の仮定に移ること
ができる。
記載された実施形態の三角測量プロセスのより完全な理解は、以下の議論から理解され
ることができる。
n本の3D光線と交差するために(すなわち、n本の3D光線までの二乗和距離を最小
限に抑える点を見つけ出すために)、まず、各光線を2つの別々の直交平面とみなす(な
ぜなら、ある点からある光線までの二乗距離は、その点からその光線を交差する2つの直
交面までの二乗距離の和であるからである)。これは、以下のC++コードによって例示
される。
Figure 2015135331
Figure 2015135331
3D点を対応する3D光線上に最良にマッピングする姿勢に関して解くには、(Wat
erloo Maple社の一部門であるMaplesoftから市販されている、Ma
ple math packageにおいて表現される)以下の式を使用すると言うこと
ができる。
この手法は、(x、y、zで表される)点pと(px、py、pz、pt)で表される
平面との間の二乗和誤差を最小限に抑える、(変数a、b、c、d、tx、ty、tzに
よって表される)姿勢について解く。各3d光線が、そのような2つの平面の制約に対応
することに留意されたい。この手法は、二乗和誤差を、代数誤差関数の係数を合計するこ
とによって計算する。次いで、この手法は、最適なa、b、c、d、tx、ty、tzに
ついて、勾配降下を使用して解く。7つの変数(a、b、c、d、tx、ty、tz)が
あり、6自由度しかないので、aを1に設定し、変数がb、c、dである場合、bを1に
設定し、変数がa、c、dである場合、cを1に設定し、変数がa、b、dである場合、
およびdを1に設定し、変数がa、b、cである場合の4つの異なる場合について試行す
ることに留意されたい。
Figure 2015135331
前述したことは、以下の内容を考慮するとさらに理解されよう。以下では、Gener
icPoly()が、関数の係数を抽出する関数である。したがって、関数がx*x+2
*x*y+y*yである場合、その汎関数は、f0x2y0*x*x+f0x1y1*x
*y+f0x0y2*y*y(ただしf0x2y0=1、f0x1y1=2、f0x0y
2=1)である。GenericPoly()は、例えば非限定的な例としてwww.c
s.unc.edu/〜geom/MARSから一般に無料で入手可能なMARS、すな
わちMaple Matlab Resultant Solver Systemに含
まれている。
Figure 2015135331
誤差関数は、単に導関数(weightMat*weightMat)ではなく、実際
には(aに関して偏導関数を計算する場合)(a*a+b*b+c*c+d*d)*導関
数(weightMat*weightMat)マイナス4*a*weightMat*
weightMatであることに留意されたい(これは、unit*diff(eval
(genPoly[1]),a)−eval(genPoly[1])*4*a));)
として記載される)。というのも、商に関する連鎖法則deriv(F(x)/G(x)
)==(G(x)*F(x)‐F(x)*G’(x))/(G(x)*G(x))のため
である。
この解析に関して、(偏導関数に関する連鎖法則の分母内の)分母の二乗は、分母(a
*a+b*b+c*c+d*d)がすべての偏導関数d((a*a+b*b+c*c+d
*d)∧2)/da=4*a*(a*a+b*b+c*c+d*d))に一律に適用され
るので、無視できることに留意されたい。
前述したことのさらなる例として、数値的勾配降下法で誤差関数ならびにその誤差関数
の導関数を利用する。誤差関数の導関数は、数値的にまたはシンボリックに計算すること
ができる。数値的に計算される導関数の場合、単に変数の1つを少量だけ変更し、次いで
誤差関数を再計算し、そのようにして導関数を数値的に計算することができる。シンボリ
ックに計算される導関数の場合、導関数に対応するシンボリック関数が必要であり、この
場合にはシンボリック関数を、誤差関数を記述する代数式があるので使用し、シンボリッ
ク関数によってその代数誤差関数をシンボリックに微分することができる。
図示の実施形態では、以下のように、Cデータ構造が、代数式用にすべての係数を保持
する。
Figure 2015135331
Figure 2015135331
図示の実施形態は、代数式の係数を増やす関数も利用する(そうした関数は、入力とし
て、3D点(x、y、z)、およびpx、py、pz、ptによって特徴付けられる対応
する平面をとる)。
Figure 2015135331
図示の実施形態は、所与の姿勢(a、b、c、d、tx、ty、tz)における誤差を
計算する関数も利用する。ただし(a、b、c、d)は、3D回転(ロール、ピッチ、ヨ
ー)の四元数表現であり、(tx、ty、tz)は並進運動である。
Figure 2015135331
図示の実施形態は、導関数を計算する関数も提供する。
Figure 2015135331
Figure 2015135331
例えば、係数を増やす関数は、続く抜粋例と整合する形で表現することができる。この
完全な関数は、本明細書の教示および提供されるMapleコードを考えれば明らかであ
る。
Figure 2015135331
これは、fa...が係数であり、変数の名前が、各単項式の次数を符号化するような
形で成立することに留意されたい。
Figure 2015135331
さらに、一般的なゼロ誤差関数fa0b0c0d0tx0ty0tz0=0fa0b0
c0d0tx0ty0tz1=0から開始することに留意されたい。
これに続いて、((x、y、z、px、py、pz、pt)によって特徴付けられる)
点、平面の組ごとに、関数ptRayGenericPoly_addToVals()
に対して呼出しが行われ、それが単項式の係数を累算して、和誤差関数に入れる。
図2の任意選択のステップ36を参照すると、図示のシステム10は、例えばカメラの
うち1台が較正後に寸動された場合に、位置合せからずれた画像取得装置24を再較正す
ることができる。(この点に関して、図示の実施形態では、較正段階中に求められたマッ
ピングを失わないようにするために、カメラ24が較正後に固定されたまま、かつ/また
は静止したままでであることが好ましくは意図されることが理解されよう。)これは、ス
テップ34において実施される位置三角測量中、また場合によってはステップ32におい
て実施される位置三角測量中に検出することができる。この目的のためには、1台のカメ
ラ24が画像を生成し、その画像内で、検査中の物体の実行時画像内に見られるパターン
が、(例えばそのカメラに関する3D光線に対してマッピングされたときに)残りのカメ
ラからの(例えばそれぞれの3D光線を使用してマッピングされたときの)画像と一致し
ない、かつ/または大幅に食い違うような位置にあるように見える場合、それらの残りの
カメラからの画像を用いて求められたパターン位置を使用して、その1台のカメラを、ス
テップ30に関連して上述した同じ較正法を用いて再較正することができる。
この点に関して、ステップ30において(ならびにステップ36において)求められる
マッピングは、カメラ24が寸動された場合に一定のまま(というのも、これはレンズの
作用に他ならず、また例えばレンズをCCD、CMOSまたは他のイメージセンサに対し
て定位置に接着することができるため)である、糸巻き型歪み(pincushioni
ng)やその他の画像収差などのレンズ歪みと、カメラ24の作業空間に対する姿勢との
、2つの別々の影響に分解できることが理解されよう。カメラが寸動された場合に変化す
るのは、後者、すなわち姿勢である。ステップ36では、レンズ歪みが一定のままである
と仮定されるので、作業空間内でのカメラの姿勢に帰せられるマッピングの側面を、例え
ば較正プレートを必要とせずに、再計算することができる。
図示のシステム10は、好ましくは、期待パターンが実行時段階34中に取得された画
像内で検出されない場合に過度の遅延を回避する、「タイムアウト」機能を含む。この点
に関して、システムは単に、(例えばオペレータまたは他の手段によって設定される)指
定の遅延間隔内に検出されないパターンを未検出として取り扱い、残りの検出されたパタ
ーンに基づいて位置特定を続行する。これには、システム10を、欠如している特徴に対
してよりロバストにし、その動作をより時宜にかなったものにするという利点がある。
少なくともいくつかの実施形態において、特定のマシンビジョンプロセスは、検査また
は解析対象たる所定の対象部品について取得された複数の画像に属する1または複数の特
定の領域を識別するシステムユーザによって最適化する必要があるか、最適化されること
ができる。例えば、第1の対象部品が検査対称となるケースでは、システムユーザは、パ
ターンが当該カメラによって生成された複数の画像の左上四半分に現れるように関心対象
たるパターンがつねにカメラの視野内に存在することを知ることができる。この場合、パ
ターン認識プロセスを高速化するために、カメラプロセッサによって、取得された画像の
左上四半分にパターン探索を局限することが最適であろう。ここで、第2のカメラが、第
1のカメラと同時的に複数の瞬間におけるの第1の対象部品の複数の画像を取得する場合
には、パターンは、第2のカメラの視野の右下四半分内につねに現れるであろう。これは
、第2のカメラが生成した複数の画像を処理するプロセッサにとって、右下コーナーにパ
ターン探索を限定することが最適であるようにするためである。同様に、システムが第3
のカメラ、第4のカメラ等を有する場合には、パターン認識のための画像プロセスをカメ
ラ複数画像の特定部分にのみ限定することが最適であろう。
少なくともいくつかの実施形態において、以下のことが想定されている。すなわち、ト
レーニングプロセスの間において、ユーザは、「関心領域(AOI)トレーニングプロシ
ージャ」を実行して、理想的対象部品が2台またはそれ以上のカメラの視野内に位置づけ
られるとともに、ユーザは、取得された複数画像において検証または解析すべき領域であ
る関心領域を画定する複数の点を当該対象部品上に手動で識別するようにしてもよい。複
数の画像は、2台またはそれ以上のカメラを用いて取得され、ユーザが選択した複数の点
は、コンピュータのCPU/プロセッサ(図1参照)によって識別することができる。そ
の後、プロセッサは、取得した複数画像における選択された複数の点の座標を保存して、
各カメラに対して、当該関心領域(AOI;area of interest)に対応
する独立の「関心フィールド」(FOI;field of interest)を個別
に定義する。
独立の複数の画像における複数の点が撮像対象部品上の同一の選択された複数の点に対
応する一方、選択された点に対応する関心フィールド(すなわち複数画像における複数部
分)は、各カメラによって異なる、なんとなれば、各カメラは対象部品および選択された
点に対して異なる方向に向けられているからである。このように、例えば、4つの選択さ
れた点が第1のカメラをその視野が第1の軌跡に沿って配置された状態で用いて取得され
た画像における正方形を画定する。他方、同じ4つの点は、第2のカメラをその視野が第
2の軌跡に沿って配置された状態で用いて生成された画像における矩形、台形または他の
四辺形を画定してもよい。
以上の説明から、以下の点が明らかであろう、すなわち、このAOIトレーニングプロ
シージャは、相対的に単純でありマルチカメラ構成の3Dシステムに属する各カメラを較
正して1つの対象部品における厳密に同一な領域または区画を検証または解析することを
確実にする。また、次の点が明らかであろう、すなわち、単一のAOIトレーニングプロ
シージャを実行してすべてのカメラにおけるカメラ固有の関心フィールドを同時的にトレ
ーニングすることができる。
また、試運転プロシージャの間に関心領域(AOI)を表示または指定するための複数
の異なる方法が想定されている。例えば、幾つかのケースでは、システムユーザは、手動
式レーザーポインタ80を用いて選択された点を、それら点を1つずつ対象部品12にあ
ててもよい。ここで、第1の点がレーザーポインタを介して選択される一方、カメラは、
同時画像を取得するように制御されることができる。
少なくとも幾つかのケースにおいては、手動式レーザーポインタには、送信機およびボ
タンが設けられている。このボタンを選択すると、ポインタ送信機がコンピュータ22a
(図1参照)に接続された受信機に、その瞬間に時間的に対応する複数の画像を検証して
レーザー照明された点の複数の画像内における位置を識別すべきことを示す信号を送信す
る。他のケースにおいては、一連の取得された複数の画像内におけるレーザーのいくつか
の挙動は、点が選択されたことをコンピュータプロセッサに対して示すものであってもよ
いであろう。例えば、ポインタ80は、オン状態でレーザービームを安定した状態で生成
するように構成してもよく、レーザーポインタのボタンが選択されると2回点滅するよう
にしてもよいであろう。
ここで、各カメラが一連の複数の画像を急激に連続する複数の瞬間において、AOIト
レーニングプロシージャの間に取得する場合には、コンピュータプロセッサは、点滅照明
された点を、当該点が選択されたことおよび関連付けされた複数の画像が検証されてレー
ザー照明された点の複数の画像内におけるロケーションを認識すべきことを示す兆候であ
ると認識するようにプログラムされてもよい。さらに他のケースにおいて、ユーザは単純
にキーボード22bからキーを選択して特定の瞬間における複数の画像を解析して各画像
における照明された点の位置を識別すべきことを表示してもよい。
次に、ユーザは、ポインタ80を用いて第2の領域定義点を選択して同時的に複数画像
をカメラに取得させたのち、必要な第3の点の選択を行うなどしてもよい。ひとたび関心
領域(AOI)を定義するのに必要なすべての点を含む複数の画像がキャプチャされたら
、コンピュータプロセッサは、複数の関心フィールド(FOI)を独立のカメラに対して
後の利用のために識別することができる。カメラ固有の複数の関心フィールド(FOI)
が保存された後で、正常動作の間に、ある対象部品がその後撮像されたら、プロセッサは
、特定のカメラに対して複数の画像における複数の関心フィールド(FOI)のみを解析
してもよい。
幾つかの実施形態においては、ユーザが4つの点を選択して概して直線的な関心領域(
AOI)を定義することが必要であるが、他方、少なくとも幾つかの実施形態においては
、ユーザの裁量により、より多くのまたなより少ない点を用いてもよく、それにより他の
AOI形状を定義してもよい。例えば、3つの点を指定または選択して三角形を指定する
とか、5つの点で五角形を指定してもよいであろう。
別の例として、レーザー光源は、レーザービームを急速にスキャンして、正方形(図1
の82参照)、矩形、三角形、円形などのAOIバウンダリを形成するようにプログラム
されてもよく、ここで、AOIバウンダリは、それに向かって向けられて、部品12の面
積の範囲を定めて、関心領域(AOI)を定義してもよい。ここで、各カメラは、当該部
品の単一の画像を撮影するのみでよいこともあり、カメラプロセッサは、カメラ固有の複
数の関心フィールド(FOI)をそこから「学習」するようにプログラムされてもよい。
ここで、再び、関心領域(AOI)が選択されたことを示す信号は、レーザーポインタを
介してコンピュータプロセッサへの送信によって容易にされてもよく、ポインタボタンが
選択されるとコンピュータプロセッサによって検知されるいくつかの挙動(例えば、AO
Iバウンダリの点滅オンオフ、AOIバウンダリ強度における変化、AOIバウンダリか
ら一群のバウンダリ定義点への急激な変化など)、コンピュータキーボードボタンの選択
などであってもよい。
さらに別の例として、システムユーザは、AOIトレーニングプロシージャの間に、部
品に対してステッカを張るなどしてもよい。関心領域(AOI)を定義するためにステッ
カが貼られた後、複数の画像は、複数台のカメラを解して取得され、コンピュータプロセ
ッサは、ステッカロケーションに対応する各画像におけるカメラ固有の複数の関心フィー
ルド(FOI)を識別する、そして、その後、カメラ固有の複数の関心フィールド(FO
I)を適宜用いる。
少なくともいくつかの実施形態において、以下のことが想定されている、すなわち、各
カメラがAOIトレーニングプロシージャの間に動作して急激な連続性における(すなわ
ち高速連写による)複数の複数の画像を取得してもよい。この場合、少なくとも幾つかの
実施形態において、レーザーを用いて、複数の画像が取得される間に、ボックス、サーク
ルといった形状のAOIバウンダリを関心領域(AOI)の周りに「描画」してもよく、
ここで、コンピュータプロセッサは、各カメラに対して複数の複数の画像からレーザー点
位置情報を用いてカメラ固有の複数の関心フィールド(FOI)を作成するようにプログ
ラムされている。
少なくともいくつかの実施形態において、AOIトレーニングプロシージャの間に、コ
ンピュータプロセッサは、少なくとも幾つかのフィードバックをシステムユーザに提供す
るようにプログラムされてもよいと想定されている。例えば、システムが3つのカメラを
有していてユーザが1つの点を、レーザーポインタを介して選択する場合には、もしカメ
ラが複数の画像を取得するも1または複数のカメラに関連する複数画像が、ユーザが指示
した瞬間にレーザーによって照明された点が含まれていないならば、プロセッサは、異な
る点が選択されるべきことをビープ音などで表示してもよく、あるいは、プロセッサは、
点がキャプチャされなかったことを表示してもよい(すなわちビープ音は、すべてのカメ
ラについて複数の画像における点が識別された場合にのみ提供されるであろう)それによ
り、ユーザを促して他の点を選択せしめるのである。
別の例として、3つのシステムカメラのうち2つに関連する複数の画像が用いられて4
つの選択された点が識別され、その間に、第3のカメラに関連する複数の画像が、同時的
に取得された複数画像にける2つの選択された点のみを識別するために用いられるような
場合には、プロセッサは、トレーニングプロセスが成功しなかったことを表示してもよい
。もう1つの例として、カメラが高速連写にて複数画像を撮影する間にレーザーを用いて
AOIバウンダリを部品上に「描画」」する場合には、プロセッサは、アウトラインがい
つ閉じられたか(すなわちいつ交差が生じたか)を認識するようにプログラムされてもよ
く、また、ビープ音などによってアウトラインの閉じを表示するようにしてもよい。フィ
ードバックは、また、コンピュータディスプレイ画面22aを介して可視的なものとして
もよい。
少なくともいくつかの実施形態においては、AOIトレーニングプロシージャを用いて
カメラ固有のAOIを後の利用に供するために定義するのに加えて、同様のトレーニング
プロシージャをパターン/モデルトレーニングセッションの間に用いて、領域/区画を、
モデルパターンを作成すべき部品上に表示してもよい。例えば、ユーザは、レーザーポイ
ンタ80などを用いて、AOIを、特定の関心対象たる特徴を含む部品上に定義してもよ
く、コンピュータプロセッサは、それから、ユーザによって指定されたカメラ固有の複数
の関心フィールド(FOI)のそれぞれについて独立のモデル生成プロセスを実行しても
よい。
図5を参照すると、例示的なAOIトレーニングプロシージャ50が記載されている。
ブロック52において、AOIトレーニングプロシージャが開始される。ここで、プロシ
ージャを開始するために、ユーザは、コンピュータ22を介して(またはレーザーポイン
タ80を介して)プロシージャが開始されるべきことを表示してもよい(図1参照)。
ブロック54において、ユーザは、関心領域(AOI)点をシステムカメラ24の視野
内の部品(図1の12を参照)上に表示する。この例においては、関心領域(AOI)を
定義する点は、レーザーポインタ80を介して、図1におけるように表示される。ただし
、前述した任意の他の態様または前述したものと等価的なものが用いられてもよい。
ブロック56において、複数のカメラ24を用いて、当該部品12の複数の画像が取得
される。ブロック58において、複数の画像は、コンピュータプロセッサによって検討さ
れて、AOIを定義する選択された点を識別する。ブロック60において、プロセッサは
、AOlを定義する点が各カメラに関連する少なくとも1つの画像において位置づけられ
るかどうかを決定する。関心領域(AOI)を定義する点がすべて識別されない場合には
、制御はブロック54に戻り、プロセスがループし続ける。
最適には、ブロック55において、フィードバックがシステムユーザに提供されてもよ
い。ひとたびすべての関心領域(AOI)を定義する点が識別されたならば、ブロック6
2において、各カメラの関心フィールド(FOI)が保存され、および、ブロック64に
おいて、現在の関心領域(AOI)に対するAOIトレーニングプロシージャが完了した
ことを示すフィードバック(例えば、ビープ)が、ユーザに提供される。ユーザがその部
分について第2の関心領域(AOI)を定義したい場合には、プロセス50が繰り返され
ることができる。
以上、諸目的、特にそのうち前述した目的を達成する方法および装置を説明したところ
であるが、当然のことながら、図面に図示しかつ前述した方法および装置は、本発明の一
例を示したものにすぎず、変更を施した他の実施形態もまた本発明の範囲内に属するもの
である。

Claims (18)

  1. 少なくとも第1のカメラと第2のカメラとを含み、それぞれ異なる軌跡に沿って配置さ
    れた視野を有する、複数のカメラを備えた3D画像化システムにおける関心領域を特定す
    る方法であって、
    (イ)前記複数のカメラの各視野内の所定の場所に位置するように対象部品を配置する工
    程と;
    (ロ)前記複数のカメラの各視野の範囲内の関心領域を前記対象部品上に表示する工程と

    前記複数のカメラのそれぞれが、
    (ハ)前記関心領域を含む前記対象部品の少なくとも1つの画像を取得する工程と;
    (ニ)取得した前記少なくとも1つの画像における前記関心領域と関連付けされた前記カ
    メラの視野内のカメラ固有の関心フィールドを識別する工程と;
    (ホ)前記カメラ固有の関心フィールドを後の使用に供するために保存する工程と;
    を順次有することを特徴とする、複数のカメラを備えた3D画像化システムにおける関心
    領域を特定する方法。
  2. 前記複数のカメラそれぞれの視野内の関心領域を前記対象部品上に表示する前記(ロ)
    工程において、前記関心領域を画定するための少なくとも3つの点を前記対象部品上に表
    示することを特徴とする請求項1に記載の方法。
  3. 前記関心領域を画定する少なくとも3つの点を表示する際に、レーザー装置を用いて該
    少なくとも3つの点を1つずつ逐次表示させ、前記少なくとも1つの画像を取得する工程
    は、前記少なくとも3つの点のそれぞれについて独立の画像を取得することを特徴とする
    請求項2に記載の方法。
  4. 前記カメラ固有の関心フィールドを識別する前記(ニ)工程は、複数の取得した画像を
    用いて前記関心フィールドを識別することを特徴とする請求項3に記載の方法。
  5. 前記少なくとも3つの点の各点について、該各点が各カメラによって取得された少なく
    とも1つの画像において識別された点を判定して、当該点を表示する工程を有しているこ
    とを特徴とする請求項3に記載の方法。
  6. 前記少なくとも3つの点の各点を少なくとも1つの他のカメラによって取得された少な
    くとも1つの他の画像内に識別していない間に、該各点を前記少なくとも1つのカメラに
    よって取得された前記少なくとも1つの画像内に識別した点を判定することを特徴とする
    請求項3に記載の方法。
  7. 前記関心領域を前記対象部品上に表示する工程は、レーザー装置を用いて該対象部品の
    少なくとも一部分をレーザービームで照明して該関心領域を該対象部品の表面上に表示す
    ることを特徴とする請求項1に記載の方法。
  8. 前記レーザー装置にボタンが設けられ、このボタンを選択すると、前記対象部品の現在
    照明されている一部分が少なくとも幾つかの関心領域定義情報に対応することを表示する
    とともに、前記ボタンを選択した瞬間における前記対象部品の複数の画像を解析して該対
    象部品の前記現在照明されている一部分と関連付けされた位置情報を取得すべきことを前
    記レーザー装置に指示させ、かつ、
    前記画像を解析すべきとの前記レーザー装置からの指示があるかどうかをモニタする工
    程を有している
    ことを特徴とする請求項7に記載の方法。
  9. 前記レーザー装置を、前記ボタンが選択されると前記対象部品上に照明した前記レーザ
    ービームの外形を変化させるようにプログラムし、かつ、前記レーザー装置からの指示を
    モニタする工程は、前記複数のカメラによって取得した複数の画像を解析して、前記対象
    部品上に照射した前記レーザービームの外形の変化を識別することを特徴とする請求項8
    に記載の方法。
  10. カメラ固有の関心フィールドが前記複数のカメラのそれぞれについて識別された点を示
    すフィードバックを前記システムユーザに提供する工程を有していることを特徴とする請
    求項1に記載の方法。
  11. 前記少なくとも1つの画像を取得する工程は、複数の画像を高速連写で取得し、かつ、
    前記少なくとも3つの点を表示する工程は、レーザー装置を用いて前記少なくとも3つの
    点を個別的に照明することを特徴とする請求項2に記載の方法。
  12. 前記少なくとも3つの点を表示する工程は、各点について、前記レーザー装置が前記点
    を照明している間に、前記照明された位置が、前記関心領域を画定する前記少なくとも点
    の一つであることを表示することを特徴とする請求項11に記載の方法。
  13. 少なくとも第1のカメラと第2のカメラとを含む、それぞれ異なる軌跡に沿って配置さ
    れた視野を有する複数のカメラを備えた3D画像化システムにおける関心領域を特定する
    方法であって、
    (イ)前記複数のカメラの視野内の場所に位置するように対象部品を配置する工程と;
    (ロ)レーザー装置を用いて、前記対象部品上に関心領域を画定する複数の点を逐次的か
    つ個別的に表示する工程と;
    前記複数のカメラのそれぞれについて、
    (ハ)前記複数の点を前記対象部品上に表示している間に、前記関心領域を含む前記対象
    部品の複数の画像を取得する工程と;
    (ニ)これら複数の画像における前記複数の点を用いて、各カメラについて、前記関心領
    域に対応する前記視野における関心領域を識別する工程と;
    (ホ)前記視野内の関心領域をカメラ固有の関心フィールドとして保存する工程と;
    を有することを特徴とする方法。
  14. 関心領域を対象部品上に表示する3次元マシンビジョンシステムをトレーニングして各
    カメラ固有の関心フィールドを画定するように構成され、かつ、複数のカメラとマシンビ
    ジョンプロセッサとを備えた、3次元マシンビジョンシステムトレーニングシステムであ
    って、
    (イ)前記複数のカメラが、前記関心領域が前記カメラの前記視野内に存在するような視
    野を有し、カメラ固有の軌跡に沿って配置され、かつ、前記カメラの視野内の前記部品の
    複数の画像を取得するように構成され、かつ、
    (ロ)前記マシンビジョンプロセッサが、各カメラに対して、(i)複数の画像を受信し
    、(ii)前記受信した複数の画像の少なくとも1つを用いて、前記関心領域と関連付け
    された前記画像を生成するのに用いた前記カメラの視野の一部分を、関心領域として識別
    して、(iii)前記関心領域と関連付けされた前記関心領域を、カメラ固有の関心領域
    として保存するようにプログラムされている
    ことを特徴とする3次元マシンビジョンシステムトレーニングシステム。
  15. レーザービームを前記対象部品に照射して前記関心領域を該対象部品上に表示するレー
    ザーポインタ装置が設けられていることを特徴とする請求項14に記載のシステム。
  16. 前記レーザーポインタ装置には、ボタンが設けられていて、このボタンを選択すると、
    前記部品の現在照明されている一部分が、少なくともいくつかの関心領域定義情報に対応
    することが示されるとともに、前記ボタンが選択された瞬間における前記部品の複数の画
    像を解析して前記部品の前記現在照明された一部分と関連付けされた位置情報を取得すべ
    きことが示されるものとされ、かつ、前記マシンビジョンプロセッサが、前記画像を解析
    すべきとの前記レーザーポインタ装置からの指示をモニタする工程を実行するようにプロ
    グラムされている
    ことを特徴とする請求項15に記載のシステム。
  17. 前記レーザーポインタ装置が、前記ボタンが選択されると、前記部品上の前記照明ビー
    ムの前記外的形状を変化させるようにプログラムされ、かつ、前記マシンビジョンプロセ
    ッサが、前記レーザーポインタ装置からの表示の有無をモニタする工程において、カメラ
    画像を解析して、前記部品上の前記照明ビームの前記外的形状の変化を識別するようにプ
    ログラムされていることを特徴とする請求項16に記載のシステム。
  18. 前記レーザーポインタ装置には、前記ボタンが選択されると信号を送信する送信機が設
    けられていることを特徴とする請求項16に記載のシステム。
JP2015023165A 2009-05-29 2015-02-09 実用型3dビジョンシステム装置およびその方法 Pending JP2015135331A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/474,778 2009-05-29
US12/474,778 US9533418B2 (en) 2009-05-29 2009-05-29 Methods and apparatus for practical 3D vision system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012513196A Division JP5922572B2 (ja) 2009-05-29 2010-05-26 実用型3dビジョンシステム装置およびその方法

Publications (2)

Publication Number Publication Date
JP2015135331A true JP2015135331A (ja) 2015-07-27
JP2015135331A5 JP2015135331A5 (ja) 2015-10-29

Family

ID=42671161

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2012513196A Active JP5922572B2 (ja) 2009-05-29 2010-05-26 実用型3dビジョンシステム装置およびその方法
JP2015023165A Pending JP2015135331A (ja) 2009-05-29 2015-02-09 実用型3dビジョンシステム装置およびその方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2012513196A Active JP5922572B2 (ja) 2009-05-29 2010-05-26 実用型3dビジョンシステム装置およびその方法

Country Status (5)

Country Link
US (1) US9533418B2 (ja)
JP (2) JP5922572B2 (ja)
CN (1) CN102762344B (ja)
DE (1) DE112010002174B4 (ja)
WO (1) WO2010138565A2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102118125B1 (ko) * 2020-01-15 2020-06-09 주식회사 사라다 레이더와 카메라를 이용한 영상 관제 장치 및 방법
JP7520187B2 (ja) 2019-02-22 2024-07-22 デクステリティ・インコーポレーテッド マルチカメラ画像処理

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7957554B1 (en) 2002-12-31 2011-06-07 Cognex Technology And Investment Corporation Method and apparatus for human interface to a machine vision system
WO2010050412A1 (ja) * 2008-10-28 2010-05-06 日本電気株式会社 校正指標決定装置、校正装置、校正性能評価装置、システム、方法、及びプログラム
US9533418B2 (en) * 2009-05-29 2017-01-03 Cognex Corporation Methods and apparatus for practical 3D vision system
JP5631086B2 (ja) * 2010-07-12 2014-11-26 キヤノン株式会社 情報処理装置及びその制御方法、プログラム
CN102467756B (zh) * 2010-10-29 2015-11-25 国际商业机器公司 用于三维场景的透视方法及装置
CN104428678A (zh) * 2012-04-30 2015-03-18 克莱奥克斯特拉克特仪器有限责任公司 用于生物样本的冷冻等分器的机器视觉系统
US9251582B2 (en) * 2012-12-31 2016-02-02 General Electric Company Methods and systems for enhanced automated visual inspection of a physical asset
US9410980B2 (en) * 2013-02-20 2016-08-09 Toyota Motor Engineering & Manufacturing North America, Inc. Work monitoring system
US9238304B1 (en) * 2013-03-15 2016-01-19 Industrial Perception, Inc. Continuous updating of plan for robotic object manipulation based on received sensor data
CN103707300A (zh) * 2013-12-20 2014-04-09 上海理工大学 机械手装置
TWI520100B (zh) 2014-03-17 2016-02-01 緯創資通股份有限公司 自由空間定位方法及系統
JP6642968B2 (ja) * 2014-03-20 2020-02-12 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
CN103925877A (zh) * 2014-04-03 2014-07-16 东莞市天勤仪器有限公司 多镜头尺寸快速测量设备
CN104266587B (zh) * 2014-09-22 2017-04-12 电子科技大学 一种三维测量系统及获得真实3d纹理点云数据方法
US11062061B2 (en) 2015-03-30 2021-07-13 Volvo Construction Equipment Ab System and method for determining the material loading condition of a bucket of a material moving machine
US9967523B2 (en) * 2015-12-16 2018-05-08 General Electric Company Locating systems and methods for components
CN105444697A (zh) * 2015-12-31 2016-03-30 河南科达东大国际工程有限公司 阳极炭块外形测量系统
DE102016201736B3 (de) 2016-02-04 2017-03-30 Volkswagen Aktiengesellschaft System und Verfahren zum Bestücken eines mindestens einen Steckplatz aufweisenden Gebindes
US10577081B2 (en) * 2016-03-24 2020-03-03 Intel Corporation Proactive vehicle control systems and methods
US9940721B2 (en) * 2016-06-10 2018-04-10 Hand Held Products, Inc. Scene change detection in a dimensioner
CN108000499B (zh) * 2016-10-27 2020-07-31 达明机器人股份有限公司 机器人视觉坐标的编程方法
CA3049894A1 (en) 2017-02-03 2018-08-09 Benjamin Moore & Co. Autonomous system to assist consumers to select colors
CN107650122B (zh) * 2017-07-31 2019-11-05 宁夏巨能机器人股份有限公司 一种基于3d视觉识别的机器人手爪定位系统及其定位方法
DE102017213362A1 (de) * 2017-08-02 2019-02-07 Siemens Aktiengesellschaft Bewerten einer Kalibrierung eines Sensorsystems
DE102017123576A1 (de) * 2017-10-10 2019-04-11 Thermodyne Gmbh Verfahren und System zur Konturdatenermittlung und Herstellung eines Formkörpers und Verarbeitungseinheit
DE102017123577A1 (de) * 2017-10-10 2019-04-11 Thermodyne Gmbh Verfahren und System zur Konturdatenermittlung und Herstellung eines Formkörpers und Verarbeitungseinrichtung
CN107823883B (zh) * 2017-11-21 2020-12-29 河南黄烨科技有限公司 基于图像识别和激光定位的瞄准点屏幕坐标获取方法
JP6646034B2 (ja) 2017-12-14 2020-02-14 ファナック株式会社 ロボットシステム
GB201804194D0 (en) * 2018-03-15 2018-05-02 Blue Vision Labs Uk Ltd Urban Environmrnt labeling
US20190314995A1 (en) * 2018-04-12 2019-10-17 Aeolus Robotics Corporation Limited Robot and method for controlling the same
WO2020142495A1 (en) * 2018-12-31 2020-07-09 Abb Schweiz Ag Multiple robot and/or positioner object learning system and method
CN111723598A (zh) * 2019-03-18 2020-09-29 北京邦天信息技术有限公司 机器视觉系统及其实现方法
JP6785931B1 (ja) * 2019-08-30 2020-11-18 Dmg森精機株式会社 生産システム
US11927438B2 (en) * 2020-01-02 2024-03-12 The Boeing Company Methods and systems for calibrating fiducial markers relative to an object
US11826908B2 (en) * 2020-04-27 2023-11-28 Scalable Robotics Inc. Process agnostic robot teaching using 3D scans
KR20230130704A (ko) * 2021-01-19 2023-09-12 구글 엘엘씨 카메라 캘리브레이션을 위한 교차 스펙트럼 기능 매핑
CN112797900B (zh) * 2021-04-07 2021-07-06 中科慧远视觉技术(北京)有限公司 多相机板材尺寸测量方法
CN113415087B (zh) * 2021-06-21 2022-12-23 天津大学 印章式柔性传感器原位制造装置
CN113554644B (zh) * 2021-08-17 2022-08-09 湖南金烽信息科技有限公司 一种基于卷积神经网络的农产品身份识别及数量盘点系统
CN116100562B (zh) * 2023-04-11 2023-06-09 四川大学 多机器人协同上下料的视觉引导方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08128966A (ja) * 1994-10-31 1996-05-21 Taiyo Elex Kk 撮像式検査装置
JPH1123262A (ja) * 1997-07-09 1999-01-29 Nekusuta:Kk 三次元位置計測システム
JP2000205821A (ja) * 1999-01-07 2000-07-28 Nec Corp 三次元形状計測装置及びその三次元形状計測方法
JP2006505376A (ja) * 2002-11-11 2006-02-16 アート アドヴァンスド リサーチ テクノロジーズ インコーポレイテッド 光学撮像におけて関心領域を選択するための方法および装置
WO2006135040A1 (ja) * 2005-06-17 2006-12-21 Omron Corporation 3次元計測を行う画像処理装置および画像処理方法

Family Cites Families (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2598019B1 (fr) 1986-04-25 1992-09-11 Thomson Csf Procede d'utilisation d'une matrice photosensible a transfert de charge, et matrice photosensible ainsi utilisee
FR2604320B1 (fr) 1986-09-19 1988-11-04 Thomson Csf Systeme de prise de vues en videographie rapide utilisant un capteur optique matriciel a transfert de charges
FR2631188A1 (fr) 1988-05-03 1989-11-10 Thomson Csf Photodetecteur matriciel a transfert de charges avec dispositif integre de filtrage de charges
FR2711824B1 (fr) 1993-10-21 1996-01-05 Recif Sa Procédés et dispositifs d'identification de caractères inscrits sur des substrats.
JPH08201021A (ja) 1995-01-23 1996-08-09 Mazda Motor Corp キャリブレーション方法
US5742037A (en) 1996-03-07 1998-04-21 Cognex Corp. Method and apparatus for high speed identification of objects having an identifying feature
US5978502A (en) 1996-04-01 1999-11-02 Cognex Corporation Machine vision methods for determining characteristics of three-dimensional objects
US5859924A (en) 1996-07-12 1999-01-12 Robotic Vision Systems, Inc. Method and system for measuring object features
US6137893A (en) 1996-10-07 2000-10-24 Cognex Corporation Machine vision calibration targets and methods of determining their location and orientation in an image
US5960125A (en) 1996-11-21 1999-09-28 Cognex Corporation Nonfeedback-based machine vision method for determining a calibration relationship between a camera and a moveable object
US5918196A (en) 1996-11-29 1999-06-29 Cognex Corporation Vision system for analyzing solid-of-revolution radius profile
US6005965A (en) 1997-04-07 1999-12-21 Komatsu Ltd. Inspection apparatus for semiconductor packages
US5978080A (en) 1997-09-25 1999-11-02 Cognex Corporation Machine vision methods using feedback to determine an orientation, pixel width and pixel height of a field of view
US5978521A (en) 1997-09-25 1999-11-02 Cognex Corporation Machine vision methods using feedback to determine calibration locations of multiple cameras that image a common object
US6044530A (en) 1997-10-02 2000-04-04 Stanley Fastening Systems, L.P. Slotted clip and method
US6856698B1 (en) * 1997-11-26 2005-02-15 Cognex Corporation Fast high-accuracy multi-dimensional pattern localization
US6658145B1 (en) 1997-12-31 2003-12-02 Cognex Corporation Fast high-accuracy multi-dimensional pattern inspection
US6173070B1 (en) 1997-12-30 2001-01-09 Cognex Corporation Machine vision method using search models to find features in three dimensional images
US6850646B1 (en) 1997-12-31 2005-02-01 Cognex Corporation Fast high-accuracy multi-dimensional pattern inspection
US6352517B1 (en) * 1998-06-02 2002-03-05 Stephen Thomas Flock Optical monitor of anatomical movement and uses thereof
US6850656B1 (en) 1998-10-07 2005-02-01 Ecole Polytechnique Federale De Lausanne Method and apparatus for measuring locally and superficially the scattering and absorption properties of turbid media
US7068825B2 (en) 1999-03-08 2006-06-27 Orametrix, Inc. Scanning system and calibration method for capturing precise three-dimensional information of objects
JP2000269286A (ja) * 1999-03-16 2000-09-29 Toshiba Microelectronics Corp 半導体基板の欠陥位置特定方法
US6619406B1 (en) * 1999-07-14 2003-09-16 Cyra Technologies, Inc. Advanced applications for 3-D autoscanning LIDAR system
US6304050B1 (en) * 1999-07-19 2001-10-16 Steven B. Skaar Means and method of robot control relative to an arbitrary surface using camera-space manipulation
US6166811A (en) 1999-08-12 2000-12-26 Perceptron, Inc. Robot-based gauging system for determining three-dimensional measurement data
US6594623B1 (en) 1999-11-12 2003-07-15 Cognex Technology And Investment Corporation Determining three-dimensional orientation of objects
US6639624B1 (en) 1999-12-30 2003-10-28 Cognex Corporation Machine vision methods for inspection of leaded components
US6748104B1 (en) * 2000-03-24 2004-06-08 Cognex Corporation Methods and apparatus for machine vision inspection using single and multiple templates or patterns
US6701005B1 (en) 2000-04-29 2004-03-02 Cognex Corporation Method and apparatus for three-dimensional object segmentation
WO2001088471A1 (de) 2000-05-16 2001-11-22 Steinbichler Optotechnik Gmbh Verfahren und vorrichtung zum bestimmen der 3d-form eines objektes
US6718074B1 (en) 2000-06-02 2004-04-06 Cognex Corporation Method and apparatus for inspection for under-resolved features in digital images
US6624899B1 (en) 2000-06-29 2003-09-23 Schmitt Measurement Systems, Inc. Triangulation displacement sensor
US7058204B2 (en) * 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US6681151B1 (en) 2000-12-15 2004-01-20 Cognex Technology And Investment Corporation System and method for servoing robots based upon workpieces with fiducial marks using machine vision
US6751338B1 (en) 2000-12-15 2004-06-15 Cognex Corporation System and method of using range image data with machine vision tools
US6771808B1 (en) * 2000-12-15 2004-08-03 Cognex Corporation System and method for registering patterns transformed in six degrees of freedom using machine vision
US6728582B1 (en) 2000-12-15 2004-04-27 Cognex Corporation System and method for determining the position of an object in three dimensions using a machine vision system with two cameras
US6751361B1 (en) 2000-12-22 2004-06-15 Cognex Corporation Method and apparatus for performing fixturing in a machine vision system
US6798925B1 (en) 2000-12-22 2004-09-28 Cognex Corporation Method and apparatus for calibrating an image acquisition system
US7206434B2 (en) * 2001-07-10 2007-04-17 Vistas Unlimited, Inc. Method and system for measurement of the duration an area is included in an image stream
SE0103279L (sv) 2001-10-02 2003-04-03 Integrated Vision Prod Förfarande för mätning av ljusspridning och geometrisk profil
US6993177B1 (en) 2001-11-02 2006-01-31 Cognex Technology And Investment Corporation Gauging based on global alignment and sub-models
US7440590B1 (en) 2002-05-21 2008-10-21 University Of Kentucky Research Foundation System and technique for retrieving depth information about a surface by projecting a composite image of modulated light patterns
JP4226550B2 (ja) 2002-07-25 2009-02-18 ソリューショニックス コーポレーション 光学式マーカーを用いた三次元測定データ自動整列装置及びその方法
JP3944091B2 (ja) 2003-02-06 2007-07-11 パルステック工業株式会社 3次元画像データ生成方法
CN100339873C (zh) 2003-03-13 2007-09-26 皇家飞利浦电子股份有限公司 用于在数据体积中标示感兴趣对象的3d成像系统和方法
IL155525A0 (en) * 2003-04-21 2009-02-11 Yaron Mayer System and method for 3d photography and/or analysis of 3d images and/or display of 3d images
US8224064B1 (en) * 2003-05-21 2012-07-17 University Of Kentucky Research Foundation, Inc. System and method for 3D imaging using structured light illumination
US7586655B1 (en) * 2003-06-30 2009-09-08 Google Inc. Acquiring and using three-dimensional information in a document scanning system
DE10333802B4 (de) 2003-07-24 2005-09-08 Steinbichler Optotechnik Gmbh Verfahren und Vorrichtung zum Prüfen von Reifen
US7609893B2 (en) 2004-03-03 2009-10-27 Trw Automotive U.S. Llc Method and apparatus for producing classifier training images via construction and manipulation of a three-dimensional image model
WO2006005187A1 (en) * 2004-07-09 2006-01-19 Parham Aarabi Interactive three-dimensional scene-searching, image retrieval and object localization
HU226450B1 (en) * 2004-09-20 2008-12-29 Attila Dr Balogh Telerecorder or medical tools movable stock receiver mainly for brain-surgery
US20060247863A1 (en) * 2005-04-28 2006-11-02 Bui Huy A Optimizing maldi mass spectrometer operation by sample plate image analysis
JP4909543B2 (ja) * 2005-08-01 2012-04-04 株式会社トプコン 三次元計測システム及びその方法
US8111904B2 (en) * 2005-10-07 2012-02-07 Cognex Technology And Investment Corp. Methods and apparatus for practical 3D vision system
WO2007050776A2 (en) * 2005-10-25 2007-05-03 University Of Kentucky Research Foundation System and method for 3d imaging using structured light illumination
JP2008187564A (ja) * 2007-01-31 2008-08-14 Sanyo Electric Co Ltd カメラ校正装置及び方法並びに車両
JP5270670B2 (ja) 2007-05-29 2013-08-21 コグネックス・テクノロジー・アンド・インベストメント・コーポレーション 2次元画像による3次元組立て検査
US8126260B2 (en) * 2007-05-29 2012-02-28 Cognex Corporation System and method for locating a three-dimensional object using machine vision
US7777300B2 (en) 2007-09-18 2010-08-17 Infineon Technologies Ag Semiconductor device with capacitor
US7784946B2 (en) * 2007-12-21 2010-08-31 Alcon Refractivehorizons, Inc. Virtual microscope system for monitoring the progress of corneal ablative surgery and associated methods
US8646689B2 (en) * 2007-12-28 2014-02-11 Cognex Corporation Deformable light pattern for machine vision system
US8442304B2 (en) 2008-12-29 2013-05-14 Cognex Corporation System and method for three-dimensional alignment of objects using machine vision
SE534271C2 (sv) * 2009-03-30 2011-06-21 Niklas Barringer Strålningstålig kamera
US9533418B2 (en) * 2009-05-29 2017-01-03 Cognex Corporation Methods and apparatus for practical 3D vision system
US11699247B2 (en) * 2009-12-24 2023-07-11 Cognex Corporation System and method for runtime determination of camera miscalibration
US8600192B2 (en) * 2010-12-08 2013-12-03 Cognex Corporation System and method for finding correspondence between cameras in a three-dimensional vision system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08128966A (ja) * 1994-10-31 1996-05-21 Taiyo Elex Kk 撮像式検査装置
JPH1123262A (ja) * 1997-07-09 1999-01-29 Nekusuta:Kk 三次元位置計測システム
JP2000205821A (ja) * 1999-01-07 2000-07-28 Nec Corp 三次元形状計測装置及びその三次元形状計測方法
JP2006505376A (ja) * 2002-11-11 2006-02-16 アート アドヴァンスド リサーチ テクノロジーズ インコーポレイテッド 光学撮像におけて関心領域を選択するための方法および装置
WO2006135040A1 (ja) * 2005-06-17 2006-12-21 Omron Corporation 3次元計測を行う画像処理装置および画像処理方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7520187B2 (ja) 2019-02-22 2024-07-22 デクステリティ・インコーポレーテッド マルチカメラ画像処理
KR102118125B1 (ko) * 2020-01-15 2020-06-09 주식회사 사라다 레이더와 카메라를 이용한 영상 관제 장치 및 방법

Also Published As

Publication number Publication date
WO2010138565A2 (en) 2010-12-02
DE112010002174T5 (de) 2012-10-04
US9533418B2 (en) 2017-01-03
CN102762344A (zh) 2012-10-31
WO2010138565A3 (en) 2011-03-10
JP2012528395A (ja) 2012-11-12
US20100303337A1 (en) 2010-12-02
DE112010002174B4 (de) 2020-01-02
CN102762344B (zh) 2016-08-03
JP5922572B2 (ja) 2016-05-24

Similar Documents

Publication Publication Date Title
JP5922572B2 (ja) 実用型3dビジョンシステム装置およびその方法
JP4976402B2 (ja) 実用的な3dビジョンシステムの方法および装置
JP6280525B2 (ja) カメラのミスキャリブレーションの実行時決定のためのシステムと方法
US8295588B2 (en) Three-dimensional vision sensor
CN103702607B (zh) 相机系统的坐标系统的校准和变换
US20170249729A1 (en) Automated optical metrology computer aided inspection station and method of operation
US8095237B2 (en) Method and apparatus for single image 3D vision guided robotics
JP4226550B2 (ja) 光学式マーカーを用いた三次元測定データ自動整列装置及びその方法
EP2153410B1 (en) 3d assembly verification from 2d images
JP7174074B2 (ja) 画像処理装置、作業ロボット、基板検査装置および検体検査装置
JP2009053147A (ja) 3次元計測方法および3次元計測装置
CN109672878A (zh) 对校准物体两相对侧成像的视觉系统的场校准系统和方法
EP3491333B1 (en) Non-contact probe and method of operation
El-Hakim et al. Multicamera vision-based approach to flexible feature measurement for inspection and reverse engineering
JPH11166818A (ja) 三次元形状計測装置の校正方法及び校正装置
WO2021226716A1 (en) System and method for discrete point coordinate and orientation detection in 3d point clouds
KR100502560B1 (ko) 광학식 마커를 이용한 3차원 측정 데이터 자동 정렬장치및 그 방법
CN108093618A (zh) 通过比较3d高度轮廓与参照高度轮廓来检验贴装内容
JP2018522240A (ja) アーチファクトを測定するための方法
CN115210664A (zh) 用于控制对物品的自动检查的系统和方法
JP7293087B2 (ja) 遠隔計測装置及び遠隔計測方法
JP2022017738A (ja) 画像処理装置
WO2022168617A1 (ja) ワーク検出装置、ワーク検出方法、ワーク検出システム及びワーク検出プログラム
Hardner et al. Development of a multi camera calibration for an analysis and manipulation system of biological samples in petri dishes
US11636382B1 (en) Robotic self programming visual inspection

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160209

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160506

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161115