JP2017096939A - ビジョンシステムで3dポイントクラウドマッチングに使用するクラッタをスコアリングするためのシステム及び方法 - Google Patents

ビジョンシステムで3dポイントクラウドマッチングに使用するクラッタをスコアリングするためのシステム及び方法 Download PDF

Info

Publication number
JP2017096939A
JP2017096939A JP2016220016A JP2016220016A JP2017096939A JP 2017096939 A JP2017096939 A JP 2017096939A JP 2016220016 A JP2016220016 A JP 2016220016A JP 2016220016 A JP2016220016 A JP 2016220016A JP 2017096939 A JP2017096939 A JP 2017096939A
Authority
JP
Japan
Prior art keywords
point cloud
cloud image
score
clutter
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016220016A
Other languages
English (en)
Other versions
JP6506731B2 (ja
Inventor
ジャ,ホンジュン
Hongjun Jia
ジェイ. マイケル,デイヴィッド
J Michael David
ジェイ. マイケル,デイヴィッド
ワグマン,アダム
Wagman Adam
ヘルシャー,アンドリュー
Hoelscher Andrew
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cognex Corp
Original Assignee
Cognex Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cognex Corp filed Critical Cognex Corp
Publication of JP2017096939A publication Critical patent/JP2017096939A/ja
Application granted granted Critical
Publication of JP6506731B2 publication Critical patent/JP6506731B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

【課題】ビジョンシステムプロセッサを用いてモデルを表す第1の3次元(3D)ポイントクラウド画像を、ターゲットを表す第2の3Dポイントクラウド画像とアライメントするためのシステム及び方法を提供する。【解決手段】第1の3Dポイントクラウド画像と第2の3Dポイントクラウド画像との可能なアライメントに対して合格全体スコアを定める。第1の3Dポイントクラウド画像と第2の3Dポイントクラウド画像との少なくとも1つの可能なアライメントについてカバレッジスコアを評価し、カバレッジスコアは第2の3Dポイントクラウド画像内に存在する第1の3Dポイントクラウド画像内の所望された特徴の量を表す。クラッタスコアを評価し、ここで前記クラッタスコアは第2の3Dポイントクラウド画像内の無関係な特徴を表す。全体スコアはカバレッジスコアとクラッタスコアとの差として計算する。【選択図】図6

Description

本発明は、撮像されたシーン内のオブジェクトのアライメントと検査のためのマシンビジョンシステム及び関連する方法に関する。
本明細書で「ビジョンシステム」とも呼ばれるマシンビジョンシステムは、製造環境において多様なタスクを実行するために使用される。一般にビジョンシステムは、製造中のオブジェクトを包含するシーンのグレースケール又はカラー画像を取得する画像センサ(又は「イメージャ」)を備えた1台以上の2次元(2D)カメラからなる。オブジェクトの2D画像を分析してデータ/情報をユーザ及び関連する製造工程に提供できる。2D画像によって生み出されたデータは通常はビジョンシステムにより1台以上のビジョンシステムプロセッサで分析及び処理され、ビジョンシステムプロセッサはそれ専用に製造されているか、又は汎用コンピュータ(例えばPC、ラップトップ、タブレット又はスマートフォン)内で作成される1以上のソフトウェアアプリケーションの一部であってもよい。
ビジョンシステムの共通タスクは、アライメントと検査を含む。アライメントタスクにおいてビジョンシステムツール、例えばコグネックス社(マサチューセッツ州ネイティック)から市販されている周知のPatMax(登録商標)システムが、あるシーンの2D画像内の特徴を(実際のモデル又は合成モデルを用いて)トレーニングされた2Dパターンと比較して、2D撮像されたシーンにおける2Dパターンの存在/欠落及び姿勢を決定する。この情報は後続の検査作業(又は他の)作業に使用して欠陥を探し、及び/又は部品拒否など他の作業を実行できる。
ビジョンシステムを用いる具体的なタスクは、実行時にトレーニングされた3Dモデル形状に基づいて3次元(3D)ターゲット形状をアライメントすることである。3Dカメラは多様な技術、例えばレーザ変位センサ(プロファイラ)、立体カメラ、ソナー、レーザ又はLIDARレンジ検出カメラ、及びその他の多様な受動的及び能動的レンジ検出技術に基づいていてもよい。そのようなカメラはレンジ画像を生み出し、そこで画像ピクセルの配列(典型的には直交するx軸とy軸に沿った位置として特徴付けられる)が生み出されるが、これらは各ピクセルに対する第3の次元(高さ)(典型的にはx−y面に対して垂直な軸に沿った位置として特徴付けられる)も含んでいる。或いは、そのようなカメラは撮像されたオブジェクトのポイントクラウド表現を生成できる。ポイントクラウドは空間内の3Dポイントの集合であり、各ポイントiは(Xi、Yi、Zi)として表わすことができる。ポイントクラウドは、オブジェクトの背面及び側面、頂面と底面を含む完全な3Dオブジェクトを表わすことができる。3Dポイント(Xi、Yi、Zi)は、オブジェクトがカメラに見える空間内の位置を表す。この表現において空の空間はポイントが無いことによって表される。
比較すると、3Dレンジ画像表現Z(x、y)は2D画像表現I(x、y)に類似しており、奥行又は高さZはI画像内の位置x、yにおける輝度/明度に相当するものに取って代わる。単一の奥行のみが任意のポイント位置x、yと関連しているので、レンジ画像は専ら直接カメラに面するオブジェクトの正面を表現する。レンジ画像は典型的にはオブジェクトの背面又は側面、頂面又は底面を表現できない。レンジ画像は典型的にはあらゆる位置(x、y)のデータを有しており、それはそのような位置に情報がない場合も含む。時々、カメラ画像データは特定の位置に「欠落ピクセル」ラベルを含めることによって、情報が存在しないことを直接表現する。「欠落ピクセル」は画像内の当該位置における撮像条件が不十分であったことを意味するか、オブジェクトの当該位置に穴が存在することを意味しよう。3Dレンジ画像は時々慣用的な2D画像処理技術で処理されることができ、高さの次元Zは輝度/明度Iに置き換えられ、欠落ピクセルは特別な方法で扱われるか無視される。
更に背景を説明すると、レンジ画像表現と3Dポイントクラウド表現との間の3D画像の変換は適当な技術によって達成できるが、情報の損失及び/又は精度の損失を伴う。一部の3Dカメラは、画像が取得されたときに(同時に)3Dポイントクラウド画像か、又は3Dレンジ画像を直接生み出すことができる。いずれかの表現を生み出すことができるカメラからの表現の間で画像を変換する場合も画像が取得されたら、精度の損失を引き起こすことがある。それゆえ3Dポイントクラウド又はレンジ画像は、カメラによってそれぞれのモードで取得されるとき最も精確である。
ターゲット画像(取得されるか合成プロセスによって生成される)をモデル画像(やはり取得されるか又は合成される)とアライメントする場合、1つの方策は最良のマッチングポーズを検出する目的で、ターゲットにおける3Dポイントクラウドをモデルにおける3Dポイントクラウドとマッチング/比較することを含んでいる。比較はモデルを基準にしたターゲットのカバレッジのスコアリングを含むことができる。ある限界を超えるスコアは、受け入れ可能なマッチ/ポーズ評価と見なされ、この情報を使用してアライメント結果を生成する。それにもかかわらず3D画像に基づいてアライメント結果を精確且つ効率的に生成するのは難題であり、モデルとターゲットの3Dポイントクラウドのマッチングを採用した実用的な一般化された技術は概して利用できない。
本発明は、3D(ポイントクラウド)画像内のクラッタを用いて3Dターゲット画像を3Dモデル画像とアライメントするためのシステム及び方法を提供し、それにより多様な表面形状に作用する3Dマッチングのための一般化された技術を提供することによって先行技術の短所を克服する。クラッタはターゲット画像で特定されて画像内にあることが期待されない要素を表し、クラッタスコアを計算するために用いられ、クラッタスコアは種々のポーズからのアライメント候補をマッチさせるために使用される。3D画像内に過度に多いクラッタが観察されたら、マッチは示唆されない。そのポーズは従ってスコアに逆に影響し、そのようなポーズは候補として拒否される。反対に、所定の限界を満たすスコアはアライメント結果を生成するために使用できるポーズ候補と見なされる。
例示的な実施形態において、ビジョンシステムプロセッサを用いて第1の3Dポイントクラウド画像を第2の3Dポイントクラウド画像とアライメントするためのシステム及び方法が提供され、ビジョンシステムプロセッサは第1の3Dポイントクラウド画像(典型的にはソースオブジェクトの画像−「モデル」と呼ぶ)及び第2の3Dポイントクラウド画像(典型的には実行時オブジェクトの画像−「ターゲット」と呼ぶ)を含んでいる。第1の3Dポイントクラウド画像と第2の3Dポイントクラウド画像との可能なアライメントに対して合格全体スコアが確定される。第1の3Dポイントクラウド画像と第2の3Dポイントクラウド画像との少なくとも1つの可能なアライメントについてカバレッジスコアが評価され、カバレッジスコアは第2の3Dポイントクラウド画像内に存在する第1の3Dポイントクラウド画像内の所望された特徴の量を表す。第1の3Dポイントクラウド画像と第2の3Dポイントクラウド画像との少なくとも1つの可能なアライメントについてクラッタスコアも評価され、クラッタスコアは第2の3Dポイントクラウド画像内の無関係な特徴を表す。全体スコアをカバレッジスコアとクラッタスコアとの差として計算される。例示的に、モデルは3Dカメラと3Dコンピュータ支援設計描写の少なくとも1つを用いて定義され、ターゲットは3Dカメラと3Dコンピュータ支援設計描写の少なくとも1つを用いて定義される。システム及び方法は例示的に、カバレッジスコアとクラッタスコアを計算するために、第1の3Dポイントクラウド画像周りの境界ボリュームを定義する。この境界ボリュームは自動的に又はユーザ指定の定義に基づいて定義され得る。ボリュームは例えば直線面を有する立方体状の形状又はその他の所望された形状を定義できる。実施形態において(ある基準の下で)境界ボリュームは軸合わせされ及び/又は3Dポイントクラウド画像を包囲/画定(包含)する最小ボリュームに設定される。最初のステップとして第1の3Dポイントクラウド画像と第2の3Dポイントクラウド画像は、第1の3Dポイントクラウド画像と第2の3Dポイントクラウド画像の各々における所定の配置のポイントマッチングに基づいておおまかに登録される。例示的に第1の3Dポイントクラウド画像と第2の3Dポイントクラウド画像内の各ポイントは、スコア計算に使用されるカバレッジウェイトを定義でき、カバレッジウェイトは0の値と1の値の間で定義され得る。加えて、全体スコアは、クラッタ比定数を乗じたクラッタスコアに基づいて評価され得る。クラッタ比定数はユーザによって(例えば)GUIを用いて設定でき、1以下の値(例えば0.5)であってよい。
以下に本発明について添付の図面を参照して説明する。
アライメントの目的でオブジェクト(模範的な錐台)の表面の3D(ポイントクラウド)画像を取得するために配置されたビジョンシステムの図である。
模範的なモデルオブジェクト(錐台)の周りの、クラッタ区域のない適当なサイズの3D境界ボリュームを定義するために配置されたトレーニング時のビジョンシステムを示す図である。
トレーニングされた境界ボリュームがクラッタを含むサイズになるようにオブジェクトの頂面内に突入したクラッタ区域を含む、図2のトレーニングされた3D境界ボリュームが模範的な実行時オブジェクト(錐台)の周りに配置された実行時のビジョンシステムを示す図である。
模範的なモデルオブジェクト(錐台)の周りの、クラッタ区域のない適当なサイズの3D境界ボリュームを定義するために配置されたトレーニング時のビジョンシステムを示す図である。
トレーニングされた境界ボリュームがクラッタを含むサイズになるようにオブジェクトの頂面上に突出したクラッタ区域を含む、図2のトレーニングされた3D境界ボリュームが模範的な実行時オブジェクト(錐台)の周りに配置された実行時のビジョンシステムを示す図である。
評価されたモデルカバレッジスコアとクラッタスコアを用いて3Dポイントクラウド画像をターゲット3Dポイントクラウド画像とアライメントするための手順のフローチャートである。
3Dポイントクラウド画像のクラッタスコアを計算するために境界ボリュームを手動又は自動で設定するための手順のフローチャートである。
図1は、3Dビジョンシステムカメラアセンブリ120(「変位センサ」とも呼ぶ)の視野(FOV)内で撮像されたオブジェクト112の表面110上の特徴の検査及び/又は分析に使用するためマシンビジョンシステム構成(本明細書では「ビジョンシステム」とも呼ぶ)100を示す。カメラアセンブリ120はコンポーネントの任意の受け入れ可能な配置構成であってよく、典型的にはレンズアセンブリ122と、CCD又はCMOSなど任意の受け入れ可能な撮像技術に基づき画像センサ(又は「イメージャ」)126を収容するカメラ本体124を含む。イメージャ126は、画像を1次元又は2次元(例えばx軸とy軸に沿って)で、シーンをグレースケール又はカラーで感知するように適合できるピクセルの配列として取得するように配置できる。カメラアセンブリ120は更に、オブジェクト表面110の3D「レンジ画像」を構成する第3の直交する次元(例えばz軸に沿った高さ)を決定するように適合できる。それぞれの画像ピクセルに対して高さデータを生成するために多様な技術を採用できる。高さデータ及びその関連するレンジ画像は、ポイントクラウドに変換される。或いは、3Dビジョンシステムカメラアセンブリは、適当なカメラの機能及び設定を用いて直接3Dポイントの集合(ポイントクラウド)を取得できる。複数のカメラ及び/又はセンサを配列して使用でき、3Dカメラアセンブリの用語はオブジェクト表面のポイントクラウド表現を生成するための全体的配置を表わすために用いられることに留意されたい。
ポイントクラウド(図1に図示されている)を生成するために使用される模範的なタイプの3Dカメラアセンブリはレーザ変位センサであり、これはレーザ光の扇形130(又は他の構造の照明)をオブジェクト表面110に投影してライン(例えばx方向と交差する)132を形成して、レーザ変位センサのイメージャ126で投影されたラインから扇形130の平面とイメージャ光軸OAとの相対的角度(鋭角)で反射光を受け取る。従って投影されたライン132はイメージャのピクセル配列126においては、各ポイントにおけるオブジェクト表面の高さに基づきx方向と交差するy方向に沿った変位として現れる。このyベースの変位はカメラアセンブリによってz軸に沿った高さ値に転換される。検出されたポイントに対応する空間内のx座標はXiである。この検出されたポイントに対応する高さ値はZiである。以下にYiに対する値をどのように得るか述べる。
典型的な配置において、3Dカメラアセンブリ120及び/又はオブジェクト112は相対的に(例えば矢印138によって示された物理的y座標方向で)運動するので、オブジェクト表面110はレーザ変位センサによってスキャニングされて、レーザライン130の一連の画像が所望された空間的間隔で、典型的には運動情報144をシステムビジョンプロセッサ(150、以下に説明する)に送るモーションコントローラ140及び関連するエンコーダ又は他の運動測定デバイスと連携して(或いは時間ベースの間隔で)取得される。運動方向に沿ったオブジェクト上のポイントの位置は、座標Yiとして定義される。3Dカメラアセンブリによって取得されたポイント(Xi、Yi、Zi)の集合は、ポイントクラウドとして定義される。
あるシーンにおけるオブジェクトの3D画像(レンジ画像又はポイントクラウド)をキャプチャーするために、他の機能的原理を用いて作用する3Dカメラアセンブリも使用できることが明確に想定されている。例えば構造化された光システム、ステレオビジョンシステム、DLP計測及び他の構成を使用できる。これらのシステムはすべて高さ値(例えばz座標)をピクセルに提供する画像を生成する。
種々のタイプの3Dカメラアセンブリ(又はそれらの組み合わせ)によって生成される3Dポイントクラウド画像を使用して、オブジェクト表面上の特別の特徴を探してその存在及び/又は特性を決定できる。
カメラ本体124は、関連するビジョンプロセスを実行するビジョンプロセッサ130を構成する種々の画像処理コンポーネントを含むことができる。ビジョンプロセッサ150はシーンの取得した画像上で作動し、ビジョンシステムツール及びプロセス152を用いて取得した画像から情報を抽出できる。この情報は興味のある特徴及び画像内に現れる他のアイテムに関係することができる。例えば米国マサチューセッツ州ネイティック市のコグネックス株式会社から市販されている既知のPatMax(登録商標)などのビジョンシステムツールを使用して、画像内の2D及び3D特徴を解析して、相対的ポーズ、アライメント及び他のディテール、例えばエッジ、ブロブなどに関する情報を提供する。ビジョンシステムプロセスの一部の又は全部をカメラアセンブリ120の本体124内で実行できる。プロセスの一部の又は全部を相互接続された(有線又は無線)コンピューティングデバイス/プロセッサ160、例えば適当なユーザインタフェース162及びディスプレイ164専用プロセッサ又は汎用コンピュータ(例えばサーバー、PC、ラップトップ、スマートフォン、タブレットなど)によって実行できることが明確に想定されている。相互接続されたコンピューティングデバイス/プロセッサ160は、処理された画像データを用いて更に別のユーティライゼーションタスク170を実行できる(即ち「ユーティライゼーションエレメント」又は「ユーティライザ」プロセスを用いる)。例えばビジョンシステムが検査タスクを実行する場合に、情報を用いてデータベース品質管理情報を提供したり、加工ライン上の欠陥品を拒否したりできる。情報はオブジェクト上のラベル及び/又はIDコードを読み取ることによって(例えば)物流用途にも使用できる。画像データ及び関連する情報で他の様々なユーティライゼーションタスクを企てることができる。
例示的な実施形態において、ビジョンプロセス及びプロセッサはモデル3D画像とターゲット3D画像のアライメントを容易にするためにクラッタ決定プロセス(プロセッサ)を用いるアライメントプロセス(プロセッサ)154を含む。アライメントプロセス(プロセッサ)154は本明細書の実施形態に従い取得された画像内のクラッタのレベルを決定するために働く。クラッタは一般に、画像内のトレーニングされたパターンに従い何も存在してはならない場合における画像内の情報と見なされる。概して最も慣用的なサーチツールはトレーニングされたパターンの存在を探し、検出された場合は、成功を示す結果を戻す。しかしながらオブジェクト表面の画像内にクラッタ又は他の望ましくない「ノイズ」がある場合は、所望された/トレーニングされたパターンが存在し得ても、画像全体は(追加のノイズ又はクラッタのため)欠陥があることを示してユーザにオブジェクトを欠陥品として拒否させる。
決定アライメントにおいてプロセス(プロセッサ)150は、画像データの各ポーズと関連したクラッタスコアを生成するスコアリングモジュール156として示されたクラッタスコアリングプロセスを用いる(以下に説明する)。各々の可能なポーズに対するモデル画像とターゲット画像で生成されたカバレッジスコアと組み合わせて、アライメントプロセス(プロセッサ)は、モデルを基準にしたターゲットにとって最良のアライメントを決定する。
ここで図2を参照すると、ビジョンシステムのトレーニング時に上記の3Dビジョンシステムカメラセンサ120及びプロセス(プロセッサ)150によって撮像された模範的なモデルオブジェクト(例えば錐台)210を示している。カメラ/センサ120によって生成された画像は3Dポイントクラウド(モデル)画像として定義できる。これはx座標及びy座標及びz座標と関連付けられたポイントの集合からなり、すべてカメラの座標空間と関連付けられている。視野240は、最大奥行DO(図示のx軸沿い)、最大幅WO(図示のy軸沿い)及び最大高さHO(図示のz軸沿い)を定義する全オブジェクトを包含する。ビジョンシステムはオブジェクト220周囲の3D境界ボリューム250(この例では直線面/直交平面を有する直方体又は「ボックス」)を、オブジェクトの完全な奥行、幅及び高さを包囲(画定)するようにそれぞれの寸法DB、WB及びHBで定義するように配置されている。以下に述べるように、この例ではオブジェクトはクラッタ特徴がなく、境界ボリュームのサイズオブジェクトを完全に包囲するように適合されている。この実施形態では3Dカメラセンサスキャニング方向(矢印260)におけるオブジェクトとセンサの相対運動に基づいて作動することに留意されたい。
図3を参照すると、3Dポイントクラウド画像をモデル3Dポイントクラウド画像とアライメントして最良ポーズを決定する目的で、類似の形状をした模範的な実行時オブジェクト(本明細書では概して「ターゲット」と呼ぶ)320(錐台)がビジョンシステムカメラセンサ120によって(スキャニングで、矢印260)撮像される。このときビジョンシステムはトレーニング時に定義された境界ボリューム250を探して、ターゲットの画像320を完全に包囲する。この例ではオブジェクト320はクラッタ区域をオブジェクトの頂面の模範的なくぼみ又は凹部330の形で含んでいる。トレーニング時に境界ボリュームの寸法を選択することにより、この境界ボリューム250はオブジェクト320の特徴を、画像にマッピングされたとき模範的なクラッタ区域330を含めて完全に包含する。更に以下に述べるように、境界ボリューム250の定義は、凹部の表面上のほとんどのポイントがクラッタウェイト値を受け取るのに十分である。これらのウェイト値は撮像されたターゲットの具体的なポーズの全体クラッタスコアへの寄与分として用いられる。
図4では類似のトレーニングオブジェクト(錐台)420がカメラセンサ120及び関連するビジョンプロセス(プロセッサ)150によって撮像される。システムはクラッタがオブジェクトの標準最大寸法DO1、WO1及びHO1(この場合は高さHO1)の少なくとも1つを超える可能性があることを予想し、従って3D境界ボリューム450の寸法DB1、WB1及びHB1(この場合はボリューム高さHB1)は、クラッタ区域によってもたらされる予測された超過高さを包含するように拡大される。次いでこの緩やかな境界ボリュームは図5に示す実行時に撮像されたターゲット520のポーズに適用される。この場合、突出部530は、画像にマッピングされたとき拡大された境界ボリューム450がその境界内に包含するクラッタ区域を提供する。これにより、突出部(クラッタを)530がクラッタウェイト値に含まれて全体クラッタスコア計算の一部となることが確保される。種々の実施形態において境界ボリュームはそれぞれ基面に対して平行な頂面と底面(例えば直方体形状内)を定義し、ボリュームは専らz軸中心に回転するように保持される。
ここで図6を参照すると、評価されたカバレッジスコアとクラッタスコアとを用いてモデル3Dポイントクラウド画像をターゲット3Dポイントクラウド画像とアライメントするための手順600は、最良ポーズを表すアライメント候補を選ぶ。ステップ610で、上述したオブジェクトのモデルに基づいて第1の3Dポイントクラウド画像がビジョンシステムアライメントプロセス(プロセッサ)(図1の154)に入力される。ステップ620で、ターゲットに基づいて第2の3Dポイントクラウド画像もアライメントプロセス(プロセッサ)154入力される。ステップ630で、ユーザ又は自動化されたシステムが、モデル3Dポイントクラウド画像とターゲット3Dポイントクラウド画像との間の可能なアライメントに対する最低合格スコアを提供する。これはセットアップ/トレーニング時にシステムGUIにおいて値を設定し、又は実行時に値を提供することを伴ってよい。
次に、ステップ640で、モデル3Dポイントクラウドとターゲット3Dポイントクラウドとの間の1以上の可能なアライメントについて、プロセス600はそれぞれのカバレッジスコアを評価する。次いでステップ650で、プロセス600はモデル3Dポイントクラウドとターゲット3Dポイントクラウドとの間の1以上の可能なアライメントについてクラッタスコアを評価する。例示的なシステム及び方法は、2つの3Dポイントクラウドをアライメントした後で全体カバレッジとクラッタ状態に基づいて最良アライメント候補を選択することに留意されたい。その結果として生じるポーズが実行時クラウド(ターゲット)に適用されて、それをトレーニング時クラウド(モデル)とアライメントする。次いで2つのアライメントされたクラウドから2つのスコア、即ちカバレッジスコアとクラッタスコアを計算する。
カバレッジスコアは、モデル上のすべてのポイントの合計とすべてのモデルポイントの数との比として表されるのに対し、クラッタスコアはすべてのターゲットポイントのクラッタスコアの合計とすべてのモデルポイントの数との比として定義される。モデルポイントはマッピングされたどのターゲットポイントもこのポイントの近傍内にあり、そのカバレッジスコアが1に設定され、さもなければ0である場合に、アライメントされたターゲットクラウドによってカバーされていると見なされる。ターゲットポイントは、モデルクラウド区域内又は近傍の位置にマッピングされ得るが、近くに実際のモデルポイントがなく(区域にモデルポイントが実質的になく)、そのクラッタスコアが1であり、さもなければクラッタスコアは0である場合に散乱していると見なされる。例示的に、カバレッジスコアはモデル上の所望された特徴がどれだけ多くターゲットによってカバーされているかを表し、クラッタスコアは無関係な特徴がターゲットクラウドからモデル空間に導入される程度を表す。随意に、一部のポイントの重要性を更に強調するために各ターゲット/モデルポイントに0と1の間のウェイトを導入して、上述したカバレッジ/クラッタスコアの別法を提供することもできる。
例示的な実施形態において、最終的に評価されたスコアはプロセス600のステップ660に従い、次の通り定義される。
スコア=カバレッジスコアクラッタスコア*クラッタ比
クラッタ比はクラッタスコアのペナルティーを管理するための定数であり、ゼロと1の間にあり、例えば1/2(0.5)に設定され得るが、他の多様なファクターに基づいて変動することがあり、(例えば)上述したGUIを用いて定義できる。例示的に、上記の式が負の値を生めば、スコアは0に設定される。或いは、プロセスはモデル3Dポイントクラウドとターゲット3Dポイントクラウドを3Dボリューム又はメッシュに転換するように配置でき、重なる区域の体積又は表面積を用いてカバレッジスコア及びクラッタスコアを計算できる。ポイントクラウドが各ポイントで定義されるより多くの属性を有する場合、上記のスコアは距離に加えて属性の類似点に基づいて計算され得る。モデル3Dポイントクラウド内の各ポイントは計算された「カバレッジウェイト」を有し、ターゲットポイント3Dクラウド内の各ポイントは計算された「カバレッジウェイト」と計算された「クラッタウェイト」を有することに留意されたい。そのようなウェイトはすべて[0、1]の範囲で定義される。カバレッジスコアはモデルカバレッジウェイトの合計とモデルポイントの数の比である。同様に、クラッタスコアはクラッタウェイトの合計とモデルポイントの数の比である。
実行時ポイントに対するカバレッジウェイトとクラッタウェイトは、それぞれそのマッピングされた最も近いモデルポイントからの距離に基づいて計算される。この距離が十分近い(例えば限界値dist_thres1より小さい)場合、カバレッジウェイトは1に等しく、距離が増すに連れてカバレッジウェイト値は減少する。従って距離が十分遠い(例えば限界値dist_thres2より大きい)場合、クラッタウェイトは1であり、距離が小さくなるに連れてクラッタウェイトは少なくなる。モデルポイントに対するカバレッジウェイトは、実行時ポイントのカバレッジウェイトに基づいている。例示的に、モデルポイントのカバレッジウェイトは実行時ポイントのカバレッジウェイトの最大数に等しい。これは次の関係で表される。ここで、Tはモデル空間からターゲット空間にマッピングするための変換である。
マッピングされたボックス←T*境界ボックス
マッピングされたモデル←T*モデルクラウド
モデル←モデルポイントの数
カバー←すべてのモデルポイントのカバレッジウェイトの合計。モデルポイントはマッピングされたボックス内のポイントに近ければ「カバーされている」。
Wクラッタを←マッピングされたボックス内のすべての実行時ポイントのクラッタウェイトの合計
スコアカバレッジ←Wカバー/Nモデル
スコアクラッタ←Wクラッタ/Nモデル
上述したように、更に図7及びプロセス700を参照すると、クラッタスコアを計算するために使用する境界ボリュームの寸法は、モデルポイントクラウドのサイズに基づいて決定される(ステップ710)。境界ボリュームのサイズはトレーニング時にユーザが指定するか、又はユーザは境界ボックスが自動的に計算されることを要求できる(決定ステップ720)。自動的に設定される場合、ある基準の下で、境界ボリュームの寸法(サイズ)は、(例えば)モデルポイントクラウドを完全に包含する最小境界ボリュームに設定され得る(ステップ730)。実施形態において、境界ボリュームはある基準の下で軸合わせされ得る。ユーザが定義した場合は、境界ボリュームサイズはビジョンシステムの(例えば)GUI(160、162、164)を介する入力に基づいてユーザ定義寸法に設定される(ステップ740)。次いで設定されたボックスサイズに基づき、上述したようにおおまかにアライメントされた境界ボリューム内にあるターゲットの3Dポイントクラウドに基づいてクラッタスコアが決定される(ステップ750)。すべてのスコアリングは最終的な精緻化されたポーズで実行されることに留意されたい。最初にモデルポイントクラウドとターゲットポイントクラウドをスコアリングするために、これらは最初のステップとして、モデル上の既知の特徴と比較してターゲット特徴を特定するために使用できるポイントのおおまかな特徴又は小さいセット(例えばコーナ、エッジなど)に基づいておおまかにアライメントされる。
再度プロセス600に言及すると、カバレッジスコアとクラッタスコアとの差が決定されて各々の可能なアライメント候補に対する全体スコアが評価されたら(ステップ660)、ステップ670で最も高い全体スコア(ある場合)を有する1以上のアライメント候補が選択される。これが当該ターゲットに対するアライメントソリューションとなる。
例示的な実施形態において、システム及び方法は、ターゲット画像内のマルチプルインスタンスを検出するためにクラッタを含む画像を用いて使用できる。マルチプルインスタンスが見いだされた場合は、各インスタンスは上述したステップに従ってスコアリングされて、最良スコアを有する1以上のインスタンスが後続の処理のために検出されたターゲットとして特定される。
上述したシステム及び方法は、3Dポイントクラウドマッチング結果の精度を測定するための比較的単純な技術を提供することが明らかであろう。0〜1のスコアは理解しやすいメトリックを提供し、1はモデルポイントクラウドとターゲットポイントクラウドとの間の完全なマッチを定義し、これより高いスコアはより良好なポーズ評価を示し、これより低いスコアはあまり所望されない評価、及び所定のスコア限界を下回るときは拒否される可能性のある候補を定義する。このスコアはマッチングを決定するために使用される技術に依存せず、従って類似の基準に基づく異なる方法で得られた結果を評価するメトリックとして使用できる。更に言うと、例示的なシステム及び方法はポイントクラウド画像内のクラッタを処理する独特の能力を提供し、オブジェクト上の何らかの特徴を決定する際に追加の利点を与える。
以上、本発明の例示的な実施形態を詳細に説明した。本発明の精神と範囲を逸脱することなく種々の改変及び追加を行うことができる。上述した種々の実施形態の各々の特徴は、関連する新しい実施形態において多数の特徴の組み合わせを提供するのに適する限り、別の記載された実施形態の特徴と組み合わされてよい。更に、上に本発明の装置と方法の多数の別個の実施形態を記したが、ここに記載されたものは本発明の原理の応用を例示したものに過ぎない。例えば本明細書中で使用される「プロセス」及び/又は「プロセッサ」という言葉は広く電子ハードウェア及び/又はソフトウェアをベースとする多様な機能及びコンポーネントント(或いは機能的「モジュール」又は「エレメント」と呼ぶことがある)を含むものと解釈されるべきである。更に、図示されたプロセス又はプロセッサは他のプロセス及び/又はプロセッサと組み合わせ、又は種々のサブプロセス又はサブプロセッサに分割されてよい。そのようなサブプロセス及び/又はサブプロセッサは、本明細書に記載された実施形態に従って多様に組み合わせることができる。同様に、本明細書中の何らかの機能、プロセス及び/又はプロセッサは、プログラム命令の非一時的コンピュータ可読媒体からなる電子ハードウェア、ソフトウェア、或いはハードウェアとソフトウェアの組み合わせを用いて実施できることが明確に想定されている。更に、本明細書で使用される様々な方向及び/又は向きを表わす用語、例えば、「垂直」、「水平」、「上」、「下」、「底部」、「頂部」、「側部」、「前部」、「後部」、「左」、「右」及びこれに類するものは、相対的な表現法として用いられているに過ぎず、重力の作用方向など固定した座標系を基準とした絶対的な向きを表わすものではない。従ってこの説明は例示の方法によるものであり、本発明の範囲を別途制限することを意味するものではない。
以下に特許請求の範囲を記載する。

Claims (20)

  1. 第1の3Dポイントクラウド画像をモデルからビジョンシステムプロセッサに提供するステップと、
    第2の3Dポイントクラウド画像をターゲットからビジョンシステムプロセッサに提供するステップと、
    第1の3Dポイントクラウド画像と第2の3Dポイントクラウド画像との可能なアライメントに対して合格全体スコアを確定するステップと、
    第1の3Dポイントクラウド画像と第2の3Dポイントクラウド画像との少なくとも1つの可能なアライメントについてカバレッジスコアを評価するステップであって、前記カバレッジスコアは第2の3Dポイントクラウド画像内に存在する第1の3Dポイントクラウド画像内の所望された特徴の量を表す、ステップと、
    第1の3Dポイントクラウド画像と第2の3Dポイントクラウド画像との少なくとも1つの可能なアライメントについてクラッタスコアを評価するステップで会って、前記クラッタスコアは第2の3Dポイントクラウド画像内の無関係な特徴を表す、ステップと、
    全体スコアをカバレッジスコアとクラッタスコアとの差として評価するステップと、を含む、
    第1の3次元(3D)ポイントクラウド画像を第2の3Dポイントクラウド画像とアライメントするための方法。
  2. モデルとターゲット少なくとも1つは3Dカメラと3Dコンピュータ支援設計描写の少なくとも1つを用いて定義される請求項1に記載の方法。
  3. 前記第1の3Dポイントクラウド画像がモデル画像である請求項2に記載の方法。
  4. 前記第2の3Dポイントクラウド画像がターゲットの画像である請求項3に記載の方法。
  5. 更に、カバレッジスコアとクラッタスコアを計算するために第1の3Dポイントクラウド画像周りの境界ボリュームを定義することを含む、請求項1に記載の方法。
  6. 前記境界ボリュームのサイズは、自動的に又はユーザ指定の定義に基づいて定義される、請求項5に記載の方法。
  7. 自動的に定義された境界ボリュームは、第1の3Dポイントクラウド画像を完全に包含する最小ボリューム形状に設定される、請求項6に記載の方法。
  8. 更に、第1の3Dポイントクラウド画像と第2の3Dポイントクラウド画像の各々における所定の配置のポイントのマッチングに基づいて、第1の3Dポイントクラウド画像と第2の3Dポイントクラウド画像の初期登録を実行することを含む、請求項1に記載の方法。
  9. 第1の3Dポイントクラウド画像と第2の3Dポイントクラウド画像内の各ポイントは、カバレッジウェイトを定義する、請求項1に記載の方法。
  10. 前記カバレッジウェイトが0の値と1の値の間で定義される請求項9に記載の方法。
  11. 前記全体スコアは、クラッタ比定数を乗じたクラッタスコアに基づいて評価される、請求項10に記載の方法。
  12. 第1の3Dポイントクラウド画像と第2の3Dポイントクラウド画像内の各ポイントが、カバレッジウェイトとクラッタウェイトを0の値と1の値の間で定義し、ここで、(a)カバレッジスコアはカバレッジウェイトの合計値と第1の3Dポイントクラウド画像内のポイントの数との比であり、(b)クラッタスコアはクラッタウェイトの合計値と第1の3Dポイントクラウド画像内のポイントの数との比である、請求項10に記載の方法。
  13. 第1の3Dポイントクラウド画像と第2の3Dポイントクラウド画像との間の少なくとも1つの可能なアライメントに対して、カバレッジスコアとクラッタスコアと全体スコアを決定するスコアリングモジュールと、
    第2の3Dポイントクラウド画像に対するアライメント決定を全体スコアに基づいて下すアライメントモジュールと、を含む、
    第1の3Dポイントクラウド画像を第2の3Dポイントクラウド画像とアライメントするためのシステム。
  14. 前記モデルは、3Dカメラと3Dコンピュータ支援設計描写の少なくとも1つを用いて定義される、請求項13に記載のシステム。
  15. 前記第2の3Dポイントクラウド画像は、ターゲットの画像である、請求項14に記載のシステム。
  16. 前記境界ボリュームは、カバレッジスコアとクラッタスコアを計算するために第1の3Dポイントクラウド画像の周りで定義される、請求項13に記載のシステム。
  17. 前記境界ボリュームのサイズは、自動的に又はユーザ指定の定義に基づいて定義される、請求項16に記載のシステム。
  18. 自動的に定義された境界ボリュームが、第1の3Dポイントクラウド画像を完全に包含する最小ボリューム形状に設定される、請求項17に記載のシステム。
  19. 第1の3Dポイントクラウド画像と第2の3Dポイントクラウド画像内の各ポイントが、カバレッジウェイトを定義する、請求項13に記載のシステム。
  20. カバレッジウェイトが0の値と1の値との間で定義される請求項19に記載のシステム。

JP2016220016A 2015-11-12 2016-11-10 ビジョンシステムで3dポイントクラウドマッチングに使用するクラッタをスコアリングするためのシステム及び方法 Active JP6506731B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/938,981 2015-11-12
US14/938,981 US10452949B2 (en) 2015-11-12 2015-11-12 System and method for scoring clutter for use in 3D point cloud matching in a vision system

Publications (2)

Publication Number Publication Date
JP2017096939A true JP2017096939A (ja) 2017-06-01
JP6506731B2 JP6506731B2 (ja) 2019-04-24

Family

ID=57288255

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016220016A Active JP6506731B2 (ja) 2015-11-12 2016-11-10 ビジョンシステムで3dポイントクラウドマッチングに使用するクラッタをスコアリングするためのシステム及び方法

Country Status (4)

Country Link
US (1) US10452949B2 (ja)
EP (1) EP3168812B1 (ja)
JP (1) JP6506731B2 (ja)
CN (1) CN107025663B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020061132A (ja) * 2018-09-12 2020-04-16 コグネックス・コーポレイション マシンビジョン用の画像データを処理するための方法及び装置
US11475593B2 (en) 2018-09-12 2022-10-18 Cognex Corporation Methods and apparatus for processing image data for machine vision
US11657630B2 (en) 2018-09-12 2023-05-23 Cognex Corporation Methods and apparatus for testing multiple fields for machine vision

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9605950B2 (en) * 2013-05-22 2017-03-28 Cognex Corporation System and method for efficient surface measurement using a laser displacement sensor
US10452949B2 (en) * 2015-11-12 2019-10-22 Cognex Corporation System and method for scoring clutter for use in 3D point cloud matching in a vision system
US10482621B2 (en) 2016-08-01 2019-11-19 Cognex Corporation System and method for improved scoring of 3D poses and spurious point removal in 3D image data
US11094112B2 (en) * 2018-09-06 2021-08-17 Foresight Ai Inc. Intelligent capturing of a dynamic physical environment
JP6795562B2 (ja) * 2018-09-12 2020-12-02 ファナック株式会社 検査装置及び機械学習方法
US10846563B2 (en) * 2018-09-12 2020-11-24 Cognex Corporation Methods and apparatus for generating a dense field of three dimensional data for machine vision
EP3942792A1 (en) * 2019-03-20 2022-01-26 Bobst Mex Sa Multi-camera imaging system using a laser line
WO2020232709A1 (en) * 2019-05-23 2020-11-26 Beijing Didi Infinity Technology And Development Co., Ltd. Method and system for evaluating quality of a point cloud map
WO2021112858A1 (en) * 2019-12-05 2021-06-10 Hewlett-Packard Development Company, L.P. Registering objects
WO2021145888A1 (en) * 2020-01-17 2021-07-22 Hewlett-Packard Development Company, L.P. Object deformation determination
CN115867939A (zh) * 2020-06-18 2023-03-28 德卡产品有限公司 用于空中到地面配准的系统和方法
WO2021257094A1 (en) * 2020-06-19 2021-12-23 Hewlett-Packard Development Company, L.P. Point cloud alignment
US20230290060A1 (en) * 2020-07-28 2023-09-14 Hewlett-Packard Development Company, L.P. Deriving metrology data for an object based on abstract geometry data
CN115078384A (zh) * 2022-06-16 2022-09-20 华侨大学 一种石材大板表面凹坑和裂缝的快速检测装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009531784A (ja) * 2006-03-29 2009-09-03 コグネックス・コーポレイション マシンビジョンツールパラメータの自動決定
JP2011165007A (ja) * 2010-02-10 2011-08-25 Seiko Epson Corp 検査システム、その方法及びプログラム
JP2011221988A (ja) * 2010-03-24 2011-11-04 National Institute Of Advanced Industrial & Technology ステレオ画像による3次元位置姿勢計測装置、方法およびプログラム
JP2012032370A (ja) * 2010-07-29 2012-02-16 Sharp Corp 欠陥検出方法、欠陥検出装置、学習方法、プログラム、及び記録媒体
JP2012514252A (ja) * 2008-12-29 2012-06-21 コグネックス・コーポレイション マシンビジョンを用いたオブジェクトの3次元アライメントのためのシステムと方法
JP2012150796A (ja) * 2010-12-28 2012-08-09 Canon Inc 情報処理装置および方法
JP2015007639A (ja) * 2014-08-20 2015-01-15 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
US20150063683A1 (en) * 2013-08-28 2015-03-05 Autodesk, Inc. Building datum extraction from laser scanning data
US20150242697A1 (en) * 2014-02-24 2015-08-27 MedSight Tech Corp. Methods and systems for performing segmentation and registration of images using neutrosophic similarity scores

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5109425A (en) 1988-09-30 1992-04-28 The United States Of America As Represented By The United States National Aeronautics And Space Administration Method and apparatus for predicting the direction of movement in machine vision
US5988862A (en) 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
US6173070B1 (en) 1997-12-30 2001-01-09 Cognex Corporation Machine vision method using search models to find features in three dimensional images
US6323776B1 (en) 1999-12-21 2001-11-27 Snap-On Technologies, Inc. Method and apparatus of automatically identifying faults in a machine vision measuring system
US6476803B1 (en) 2000-01-06 2002-11-05 Microsoft Corporation Object modeling system and process employing noise elimination and robust surface extraction techniques
US6941026B1 (en) 2000-06-13 2005-09-06 Cognex Corporation Method and apparatus using intensity gradients for visual identification of 2D matrix symbols
US7110602B2 (en) 2002-08-21 2006-09-19 Raytheon Company System and method for detection of image edges using a polar algorithm process
US7242460B2 (en) 2003-04-18 2007-07-10 Sarnoff Corporation Method and apparatus for automatic registration and visualization of occluded targets using ladar data
US7583852B2 (en) 2004-10-26 2009-09-01 Mitutoyo Corporation Method of filtering an image for high precision machine vision metrology
US7995054B2 (en) 2005-11-21 2011-08-09 Leica Geosystems Ag Identification of edge regions from 3D point data
US8054217B2 (en) 2006-10-26 2011-11-08 Raytheon Company Radar imaging system and method using gradient magnitude second moment spatial variance detection
US8675951B2 (en) * 2007-05-11 2014-03-18 Three Pixels Wide Pty Ltd. Method and system for generating a 3D model
ATE468572T1 (de) 2008-01-18 2010-06-15 Mvtec Software Gmbh System und verfahren zur erkennung verformbarer objekte
US20090232388A1 (en) 2008-03-12 2009-09-17 Harris Corporation Registration of 3d point cloud data by creation of filtered density images
WO2010042466A1 (en) 2008-10-06 2010-04-15 Kevin Scott Williams Apparatus and method for classifying point cloud data based on principal axes
US8290305B2 (en) * 2009-02-13 2012-10-16 Harris Corporation Registration of 3D point cloud data to 2D electro-optical image data
US8179393B2 (en) * 2009-02-13 2012-05-15 Harris Corporation Fusion of a 2D electro-optical image and 3D point cloud data for scene interpretation and registration performance assessment
US8686992B1 (en) * 2009-03-30 2014-04-01 Google Inc. Methods and systems for 3D shape matching and retrieval
US8488877B1 (en) 2009-12-02 2013-07-16 Hrl Laboratories, Llc System for object recognition in colorized point clouds
US8345930B2 (en) * 2010-01-22 2013-01-01 Sri International Method for computing food volume in a method for analyzing food
US8295589B2 (en) * 2010-05-20 2012-10-23 Microsoft Corporation Spatially registering user photographs
US8447099B2 (en) 2011-01-11 2013-05-21 Eastman Kodak Company Forming 3D models using two images
US8269830B1 (en) 2011-04-14 2012-09-18 Mitutoyo Corporation Inspecting potentially interfering features in a machine vision system
WO2012146253A1 (en) 2011-04-29 2012-11-01 Scape Technologies A/S Pose estimation and classification of objects from 3d point clouds
US9153061B2 (en) 2012-05-04 2015-10-06 Qualcomm Incorporated Segmentation of 3D point clouds for dense 3D modeling
US20140050387A1 (en) 2012-08-17 2014-02-20 Cognex Corporation System and Method for Machine Vision Inspection
US9056395B1 (en) * 2012-09-05 2015-06-16 Google Inc. Construction zone sign detection using light detection and ranging
US8995756B2 (en) * 2012-09-27 2015-03-31 Vangogh Imaging, Inc. 3D vision processing
US20140192050A1 (en) 2012-10-05 2014-07-10 University Of Southern California Three-dimensional point processing and model generation
US20140120319A1 (en) 2012-11-01 2014-05-01 Benjamin E. Joseph 3d mapping using structured light and formation of custom surface contours
US9294495B1 (en) * 2013-01-06 2016-03-22 Spheric Security Solutions System and method for evaluating and enhancing the security level of a network system
US9355462B2 (en) * 2013-05-08 2016-05-31 Caterpillar Inc. Motion estimation system utilizing point cloud registration
RU2677096C2 (ru) * 2013-05-10 2019-01-15 Конинклейке Филипс Н.В. Способ и система выбора 3-d устройства интерфейса пациента
CN105378802B (zh) * 2013-05-10 2019-02-05 皇家飞利浦有限公司 3d患者接口设备选择系统和方法
US9098773B2 (en) 2013-06-27 2015-08-04 Chevron U.S.A. Inc. System and method of detecting objects in scene point cloud
US9208609B2 (en) 2013-07-01 2015-12-08 Mitsubishi Electric Research Laboratories, Inc. Method for fitting primitive shapes to 3D point clouds using distance fields
US9280827B2 (en) 2013-07-03 2016-03-08 Mitsubishi Electric Research Laboratories, Inc. Method for determining object poses using weighted features
WO2015127464A1 (en) * 2014-02-24 2015-08-27 H. Lee Moffitt Cancer Center And Research Institute, Inc. Methods and systems for performing segmentation and registration of images using neutrosophic similarity scores
US9785818B2 (en) * 2014-08-11 2017-10-10 Synaptics Incorporated Systems and methods for image alignment
US9426409B2 (en) * 2014-09-30 2016-08-23 Apple Inc. Time-lapse video capture with optimal image stabilization
US10452949B2 (en) * 2015-11-12 2019-10-22 Cognex Corporation System and method for scoring clutter for use in 3D point cloud matching in a vision system
US10380767B2 (en) * 2016-08-01 2019-08-13 Cognex Corporation System and method for automatic selection of 3D alignment algorithms in a vision system
US10482621B2 (en) * 2016-08-01 2019-11-19 Cognex Corporation System and method for improved scoring of 3D poses and spurious point removal in 3D image data
GB201717397D0 (en) * 2017-10-23 2017-12-06 Brainomix Ltd Tomographic data analysis

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009531784A (ja) * 2006-03-29 2009-09-03 コグネックス・コーポレイション マシンビジョンツールパラメータの自動決定
JP2012514252A (ja) * 2008-12-29 2012-06-21 コグネックス・コーポレイション マシンビジョンを用いたオブジェクトの3次元アライメントのためのシステムと方法
JP2011165007A (ja) * 2010-02-10 2011-08-25 Seiko Epson Corp 検査システム、その方法及びプログラム
JP2011221988A (ja) * 2010-03-24 2011-11-04 National Institute Of Advanced Industrial & Technology ステレオ画像による3次元位置姿勢計測装置、方法およびプログラム
JP2012032370A (ja) * 2010-07-29 2012-02-16 Sharp Corp 欠陥検出方法、欠陥検出装置、学習方法、プログラム、及び記録媒体
JP2012150796A (ja) * 2010-12-28 2012-08-09 Canon Inc 情報処理装置および方法
US20150063683A1 (en) * 2013-08-28 2015-03-05 Autodesk, Inc. Building datum extraction from laser scanning data
US20150242697A1 (en) * 2014-02-24 2015-08-27 MedSight Tech Corp. Methods and systems for performing segmentation and registration of images using neutrosophic similarity scores
JP2015007639A (ja) * 2014-08-20 2015-01-15 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020061132A (ja) * 2018-09-12 2020-04-16 コグネックス・コーポレイション マシンビジョン用の画像データを処理するための方法及び装置
US11475593B2 (en) 2018-09-12 2022-10-18 Cognex Corporation Methods and apparatus for processing image data for machine vision
JP7182528B2 (ja) 2018-09-12 2022-12-02 コグネックス・コーポレイション マシンビジョン用の画像データを処理するための方法及び装置
KR20230042237A (ko) * 2018-09-12 2023-03-28 코그넥스코오포레이션 기계 시각을 위한 이미지 데이터 처리 방법들 및 장치
US11657630B2 (en) 2018-09-12 2023-05-23 Cognex Corporation Methods and apparatus for testing multiple fields for machine vision
KR102617732B1 (ko) * 2018-09-12 2023-12-27 코그넥스코오포레이션 기계 시각을 위한 이미지 데이터 처리 방법들 및 장치

Also Published As

Publication number Publication date
US20170140537A1 (en) 2017-05-18
EP3168812B1 (en) 2018-11-07
CN107025663A (zh) 2017-08-08
EP3168812A3 (en) 2017-05-31
EP3168812A2 (en) 2017-05-17
CN107025663B (zh) 2021-08-17
US10452949B2 (en) 2019-10-22
JP6506731B2 (ja) 2019-04-24

Similar Documents

Publication Publication Date Title
JP6506731B2 (ja) ビジョンシステムで3dポイントクラウドマッチングに使用するクラッタをスコアリングするためのシステム及び方法
JP6525459B2 (ja) 3d画像データにおける3dポーズの改良されたスコアリング及び偽ポイント除去のためのシステム及び方法
JP6503153B2 (ja) ビジョンシステムにおいて3dアライメントアルゴリズムを自動選択するためのシステム及び方法
JP7339316B2 (ja) ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法
US8600192B2 (en) System and method for finding correspondence between cameras in a three-dimensional vision system
US20140118500A1 (en) System and method for finding correspondence between cameras in a three-dimensional vision system
US11488322B2 (en) System and method for training a model in a plurality of non-perspective cameras and determining 3D pose of an object at runtime with the same
JP6352208B2 (ja) 三次元モデル処理装置およびカメラ校正システム
JP6899189B2 (ja) ビジョンシステムで画像内のプローブを効率的に採点するためのシステム及び方法
JP2017118396A (ja) デプスカメラの内部パラメータを算出するプログラム、装置及び方法
JP2020512536A (ja) モデルベースのピーク選択を使用した3dプロファイル決定のためのシステム及び方法
WO2021231265A1 (en) Methods and apparatus for generating point cloud histograms
Cociaş et al. Multiple-superquadrics based object surface estimation for grasping in service robotics
Cui et al. ACLC: Automatic Calibration for non-repetitive scanning LiDAR-Camera system based on point cloud noise optimization
Liu et al. Robust Extrinsic Self-Calibration of Camera and Solid State LiDAR
JP2017009477A (ja) 3次元形状計測装置、3次元形状計測方法および3次元形状計測プログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170920

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180712

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190128

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190329

R150 Certificate of patent or registration of utility model

Ref document number: 6506731

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250