JP2015072715A - 複数のカメラに対する複数部品コレスポンダ - Google Patents

複数のカメラに対する複数部品コレスポンダ Download PDF

Info

Publication number
JP2015072715A
JP2015072715A JP2014252695A JP2014252695A JP2015072715A JP 2015072715 A JP2015072715 A JP 2015072715A JP 2014252695 A JP2014252695 A JP 2014252695A JP 2014252695 A JP2014252695 A JP 2014252695A JP 2015072715 A JP2015072715 A JP 2015072715A
Authority
JP
Japan
Prior art keywords
ray
feature
camera
image
correspondence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2014252695A
Other languages
English (en)
Inventor
リーフェン リウ
Lifeng Liu
リーフェン リウ
シー. マリオン シリル
C Marrion Cyril
シー. マリオン シリル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cognex Corp
Original Assignee
Cognex Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cognex Corp filed Critical Cognex Corp
Publication of JP2015072715A publication Critical patent/JP2015072715A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

【課題】2以上のカメラのカメラ画像で1以上の部品の対応を見出すためのコンピュータプログラムプロダクトを含む、方法、システム、装置の提供。
【解決手段】2以上のカメラのカメラ画像で1以上の部品の対応を見出すためのコンピュータプログラムプロダクトを含む、方法、システム、装置が記述される。第1カメラの第1カメラ画像における第1部品に対して、第1カメラ画像での第1部品の第1特徴座標の、3D物理的空間への第1バックプロジェクションである第1の3D光線が計算される。第2カメラの第2カメラ画像での第2部品に対して、第2カメラ画像における第2部品の第2特徴座標の、3D物理的空間への第2のバックプロジェクションである第2の3D光線が計算され、第1特徴座標、第2特徴座標は、モデルにおいて特定されている通りの第1特徴に対応している。第1の3D光線と第2の3D光線との間の第1距離が計算される。
【選択図】図1

Description

(発明の詳細な説明)
(関連出願の引用)
本出願は、2011年12月16日に出願された「Multi−Part Corresponder for Multiple Cameras」と題する米国特許出願第61/576,952号の利益および優先権を主張し、米国特許出願第61/576,952号の全内容が本明細書に参考として援用されている。
(技術分野)
本発明は概して、マシンビジョンの分野に関し、より詳細には、別個のカメラ画像において部品を対応させることに関する。
(背景)
(発明の背景)
デジタル画像は、多くのデバイスによって形成され、そして、多くの実用的目的のために使用される。デバイスは、可視光線または赤外線で動作するカメラ、ラインスキャンセンサ、フライングスポットスキャナ、電子顕微鏡、CTスキャナを含むX線デバイス、磁気共鳴イメージャ、および当業者に知られている他のデバイスを含む。実用的な用途は、産業オートメーション、医療診断、様々な軍事目的、民間の目的、および科学的目的のための衛星撮像、写真処理、監視および交通モニタリング、文書処理、ならびにその他多数において見出される。
これらの用途に役立てるために、様々なデバイスによって形成された画像は、デジタルデバイスによって分析され、適切な情報を抽出する。実用の面でかなり重要である分析の1つの形態は、撮像デバイスの視野における物体と対応する画像における模様の位置、配向、および大きさを決定することである。模様の位置特定方法は、産業オートメーションにおいて特に重要であり、産業オートメーションにおいては、模様の位置特定方法は、半導体製造、電子機器組み立て、製薬、食品加工、消費財製造、およびその他多数におけるロボットならびに他のオートメーション機器を案内するために使用される。
1つより多くの撮像デバイスを使用する用途において、実用の面で重要なデジタル画像分析の別の形態は、1つのデバイスの視野および別のデバイスの視野における部品の間の対応(例えば、別個の視野におけるどの部品が同じ物理的部品と対応するか)を特定することである。従って、別個の視野において迅速に部品を対応させるシステムおよび方法が必要とされる。
(本技術の概要)
一局面において、本技術は、2つ以上のカメラのカメラ画像において1つ以上の部品の対応を見出すコンピュータで実行される方法に関する。方法は、第1のカメラの第1のカメラ画像における第1の部品に対して、該第1のカメラ画像における該第1の部品の第1の特徴座標の、3D物理的空間への第1のバックプロジェクションである第1の3D光線を計算することを含む。方法は、第2のカメラの第2のカメラ画像における第2の部品に対して、該第2のカメラ画像における該第2の部品の第2の特徴座標の、該3D物理的空間への第2のバックプロジェクションである第2の3D光線を計算することを含み、ここで該第1の特徴座標および該第2の特徴座標は、モデルにおいて特定されているとおりの第1の特徴に対応している。方法は、該第1の3D光線と該第2の3D光線との間の第1の距離を計算することを含む。
別の局面において、本技術は、2つ以上のカメラのカメラ画像において1つ以上の部品の対応を見出すコンピュータで実行される方法に関する。方法は、第1のカメラの第1のカメラ画像における第1の部品に対して、該第1のカメラ画像における第1の特徴座標の、3D物理的空間へのバックプロジェクションである第1の3D光線を計算すること、該第1のカメラ画像における第2の特徴座標の、該3D物理的空間への第2のバックプロジェクションである第2の3D光線を計算することを含む。方法は、第2のカメラの第2のカメラ画像における第2の部品に対して、該第2のカメラ画像における第3の特徴座標の、該3D物理的空間への第3のバックプロジェクションである第3の3D光線を計算すること、該第2のカメラ画像における第4の特徴座標の、該3D物理的空間への第4のバックプロジェクションである第4の3D光線を計算することを含み、ここで、該第1の特徴座標および該第3の特徴座標は、モデルにおいて特定されているとおりの同じ第1の特徴に対応し、該第2の特徴座標および該第4の特徴座標は、該モデルにおいて特定されているとおりの同じ第2の特徴に対応する。方法は、該第1の3D光線および該第3の3D光線上の最近ポイント間の第1のポイントならびに該第2の3D光線および該第4の3D光線上の最近ポイント間の第2のポイントを計算することを含む。
一部の実施形態において、方法は、前記第1のカメラの前記第1のカメラ画像における前記第1の部品に対して、該第1のカメラ画像における第3の特徴座標の、3D物理的空間への第3のバックプロジェクションである第3の3D光線を計算することと、前記第2のカメラの前記第2のカメラ画像における前記第2の部品に対して、該第2のカメラ画像における第4の特徴座標の、該3D物理的空間への第4のバックプロジェクションである第4の3D光線を計算することであって、該第3の特徴座標および該第4の特徴座標は、該モデルにおいて特定されているとおりの第2の特徴に対応している、ことと、該第3の3D光線と該第4の3D光線との間の第2の距離を計算することとを含む。
一部の実施形態において、方法は、前記第1の距離および前記第2の距離のうちの少なくとも1つに基づいて候補部品対応スコアを計算することを含む。一部の実施形態において、前記候補部品対応スコアは、前記第1の距離および前記第2の距離の平均である。一部の実施形態において、方法は、前記第1の距離が所定の閾値を超過する場合、候補部品対応としての前記第1のカメラの前記第1のカメラ画像における前記第1の部品と前記第2のカメラの前記第2のカメラ画像における前記第2の部品とのペアリングを除外することを含む。
一部の実施形態において、方法は、第3のカメラの第3のカメラ画像における第3の部品に対して、該第3のカメラ画像における該第3の部品の第3の特徴座標の、前記3D物理的空間への第3のバックプロジェクションである第3の3D光線を計算することであって、前記第1の特徴座標、前記第2の特徴座標、および該第3の特徴座標は、前記モデルにおいて特定されているとおりの前記第1の特徴に対応している、ことと、該第3の3D光線と、前記第1の3D光線および前記第2の3D光線上の最近ポイント間の第1のポイントとの間の第2の距離を計算することとを含む。
一部の実施形態において、方法は、第3のカメラの第3のカメラ画像における第3の部品に対して、該第3のカメラ画像における該第3の部品の第3の特徴座標の、前記3D物理的空間への第3のバックプロジェクションである第3の3D光線を計算することであって、前記第1の特徴座標、前記第2の特徴座標、および該第3の特徴座標は、前記モデルにおいて特定されているとおりの特徴に対応している、ことと、前記第1の3D光線と該第3の3D光線との間の第2の距離を計算し、かつ前記第2の3D光線と該第3の3D光線との間の第3の距離を計算することとを含む。
一部の実施形態において、方法は、前記第1のポイントと前記第2のポイントとの間の距離を計算することを含む。一部の実施形態において、方法は、前記距離を所定の値と比較することにより、距離残差を決定することを含む。一部の実施形態において、前記所定の値は、前記モデルにおいて特定されているとおりの前記第1の特徴および前記第2の特徴に基づく。一部の実施形態において、前記所定の値は、入力された値に基づく。
一部の実施形態において、方法は、前記距離残差に基づいて候補対応スコアを計算することを含む。一部の実施形態において、方法は、前記距離残差が所定の閾値を超過する場合、候補部品対応としての前記第1のカメラ画像における前記第1の部品と前記第2のカメラ画像における前記第2の部品とのペアリングを除外することを含む。一部の実施形態において、方法は、前記第1の3D光線と前記第3の3D光線との間の第1の距離を計算し、かつ前記第2の3D光線と前記第4の3D光線との間の第2の距離を計算することと、前記距離残差、該第1の距離、および該第2の距離に基づいて候補部品対応スコアを計算することとを含む。
別の局面において、本技術は、システムに関する。システムは、2つ以上のカメラと、対応モジュールであって、該対応モジュールは、該2つ以上のカメラのうちの第1のカメラの第1のカメラ画像における第1の部品に対して、該第1のカメラ画像における該第1の部品の第1の特徴座標の、3D物理的空間への第1のバックプロジェクションである第1の3D光線を計算することと、該2つ以上のカメラのうちの第2のカメラの第2のカメラ画像における第2の部品に対して、該第2のカメラ画像における該第2の部品の第2の特徴座標の、該3D物理的空間への第2のバックプロジェクションである第2の3D光線を計算することであって、該第1の特徴座標および該第2の特徴座標は、モデルにおいて特定されているとおりの第1の特徴に対応している、ことと、該第1の3D光線と該第2の3D光線との間の第1の距離を計算することとを実行するように構成されている、対応モジュールとを含む。
別の局面において、本技術は、システムに関する。システムは、2つ以上のカメラと、対応モジュールであって、該対応モジュールは、該2つ以上のカメラのうちの第1のカメラの第1のカメラ画像における第1の部品に対して、該第1のカメラ画像における第1の特徴座標の、3D物理的空間へのバックプロジェクションである第1の3D光線を計算し、該第1のカメラ画像における第2の特徴座標の、該3D物理的空間への第2のバックプロジェクションである第2の3D光線を計算することと、該2つ以上のカメラのうちの第2のカメラの第2のカメラ画像における第2の部品に対して、該第2のカメラ画像における第3の特徴座標の、該3D物理的空間への第3のバックプロジェクションである第3の3D光線を計算し、該第2のカメラ画像における第4の特徴座標の、該3D物理的空間への第4のバックプロジェクションである第4の3D光線を計算することであって、該第1の特徴座標および該第3の特徴座標は、モデルにおいて特定されているとおりの同じ第1の特徴に対応し、該第2の特徴座標および該第4の特徴座標は、該モデルにおいて特定されているとおりの同じ第2の特徴に対応する、ことと、該第1の3D光線および該第3の3D光線上の最近ポイント間の第1のポイントならびに該第2の3D光線および該第4の3D光線上の最近ポイント間の第2のポイントを計算することとを実行するように構成されている、対応モジュールとを含む。
本技術の他の局面および利点が、ただの例として本技術の原理を示している添付の図面との関連でなされている以下の詳細な説明から明らかとなる。
例えば、本発明は、以下を提供する。
(項目1)
2つ以上のカメラのカメラ画像において1つ以上の部品の対応を見出すコンピュータで実行される方法であって、該方法は、
第1のカメラの第1のカメラ画像における第1の部品に対して、
該第1のカメラ画像における該第1の部品の第1の特徴座標の、3D物理的空間への第1のバックプロジェクションである第1の3D光線を計算することと、
第2のカメラの第2のカメラ画像における第2の部品に対して、
該第2のカメラ画像における該第2の部品の第2の特徴座標の、該3D物理的空間への第2のバックプロジェクションである第2の3D光線を計算することであって、
該第1の特徴座標および該第2の特徴座標は、モデルにおいて特定されているとおりの第1の特徴に対応している、ことと、
該第1の3D光線と該第2の3D光線との間の第1の距離を計算することと
を含む、方法。
(項目2)
上記第1のカメラの上記第1のカメラ画像における上記第1の部品に対して、
該第1のカメラ画像における第3の特徴座標の、3D物理的空間への第3のバックプロジェクションである第3の3D光線を計算することと、
上記第2のカメラの上記第2のカメラ画像における上記第2の部品に対して、
該第2のカメラ画像における第4の特徴座標の、該3D物理的空間への第4のバックプロジェクションである第4の3D光線を計算することであって、
該第3の特徴座標および該第4の特徴座標は、該モデルにおいて特定されているとおりの第2の特徴に対応している、ことと、
該第3の3D光線と該第4の3D光線との間の第2の距離を計算することと
をさらに含む、上記項目に記載のコンピュータで実行される方法。
(項目3)
上記第1の距離および上記第2の距離のうちの少なくとも1つに基づいて候補部品対応スコアを計算することをさらに含む、上記項目のいずれか一項に記載のコンピュータで実行される方法。
(項目4)
上記候補部品対応スコアは、上記第1の距離および上記第2の距離の平均である、上記項目のいずれか一項に記載のコンピュータで実行される方法。
(項目5)
上記第1の距離が所定の閾値を超過する場合、候補部品対応としての上記第1のカメラの上記第1のカメラ画像における上記第1の部品と上記第2のカメラの上記第2のカメラ画像における上記第2の部品とのペアリングを除外することをさらに含む、上記項目のいずれか一項に記載のコンピュータで実行される方法。
(項目6)
第3のカメラの第3のカメラ画像における第3の部品に対して、
該第3のカメラ画像における該第3の部品の第3の特徴座標の、上記3D物理的空間への第3のバックプロジェクションである第3の3D光線を計算することであって、
上記第1の特徴座標、上記第2の特徴座標、および該第3の特徴座標は、上記モデルにおいて特定されているとおりの上記第1の特徴に対応している、ことと、
該第3の3D光線と、上記第1の3D光線および上記第2の3D光線上の最近ポイント間の第1のポイントとの間の第2の距離を計算することと
をさらに含む、上記項目のいずれか一項に記載のコンピュータで実行される方法。
(項目7)
第3のカメラの第3のカメラ画像における第3の部品に対して、
該第3のカメラ画像における該第3の部品の第3の特徴座標の、上記3D物理的空間への第3のバックプロジェクションである第3の3D光線を計算することであって、
上記第1の特徴座標、上記第2の特徴座標、および該第3の特徴座標は、上記モデルにおいて特定されているとおりの特徴に対応している、ことと、
上記第1の3D光線と該第3の3D光線との間の第2の距離を計算し、かつ上記第2の3D光線と該第3の3D光線との間の第3の距離を計算することと
をさらに含む、上記項目のいずれか一項に記載のコンピュータで実行される方法。
(項目8)
2つ以上のカメラのカメラ画像において1つ以上の部品の対応を見出すコンピュータで実行される方法であって、該方法は、
第1のカメラの第1のカメラ画像における第1の部品に対して、
該第1のカメラ画像における第1の特徴座標の、3D物理的空間へのバックプロジェクションである第1の3D光線を計算し、
該第1のカメラ画像における第2の特徴座標の、該3D物理的空間への第2のバックプロジェクションである第2の3D光線を計算することと、
第2のカメラの第2のカメラ画像における第2の部品に対して、
該第2のカメラ画像における第3の特徴座標の、該3D物理的空間への第3のバックプロジェクションである第3の3D光線を計算し、
該第2のカメラ画像における第4の特徴座標の、該3D物理的空間への第4のバックプロジェクションである第4の3D光線を計算することであって、
該第1の特徴座標および該第3の特徴座標は、モデルにおいて特定されているとおりの同じ第1の特徴に対応し、該第2の特徴座標および該第4の特徴座標は、該モデルにおいて特定されているとおりの同じ第2の特徴に対応する、ことと、
該第1の3D光線および該第3の3D光線上の最近ポイント間の第1のポイントならびに該第2の3D光線および該第4の3D光線上の最近ポイント間の第2のポイントを計算することと
を含む、方法。
(項目9)
上記第1のポイントと上記第2のポイントとの間の距離を計算することをさらに含む、上記項目に記載の方法。
(項目10)
上記距離を所定の値と比較することにより、距離残差を決定することをさらに含む、上記項目のいずれか一項に記載の方法。
(項目11)
上記所定の値は、上記モデルにおいて特定されているとおりの上記第1の特徴および上記第2の特徴に基づく、上記項目のいずれか一項に記載の方法。
(項目12)
上記所定の値は、入力された値に基づく、上記項目のいずれか一項に記載の方法。
(項目13)
上記距離残差に基づいて候補対応スコアを計算することをさらに含む、上記項目のいずれか一項に記載の方法。
(項目14)
上記距離残差が所定の閾値を超過する場合、候補部品対応としての上記第1のカメラ画像における上記第1の部品と上記第2のカメラ画像における上記第2の部品とのペアリングを除外することをさらに含む、上記項目のいずれか一項に記載の方法。
(項目15)
上記第1の3D光線と上記第3の3D光線との間の第1の距離を計算し、かつ上記第2の3D光線と上記第4の3D光線との間の第2の距離を計算することと、上記距離残差、該第1の距離、および該第2の距離に基づいて候補部品対応スコアを計算することとをさらに含む、上記項目のいずれか一項に記載の方法。
(項目16)
システムであって、該システムは、
2つ以上のカメラと、
対応モジュールであって、該対応モジュールは、
該2つ以上のカメラのうちの第1のカメラの第1のカメラ画像における第1の部品に対して、
該第1のカメラ画像における該第1の部品の第1の特徴座標の、3D物理的空間への第1のバックプロジェクションである第1の3D光線を計算することと、
該2つ以上のカメラのうちの第2のカメラの第2のカメラ画像における第2の部品に対して、
該第2のカメラ画像における該第2の部品の第2の特徴座標の、該3D物理的空間への第2のバックプロジェクションである第2の3D光線を計算することであって、
該第1の特徴座標および該第2の特徴座標は、モデルにおいて特定されているとおりの第1の特徴に対応している、ことと、
該第1の3D光線と該第2の3D光線との間の第1の距離を計算することと
を実行するように構成されている、対応モジュールと
を備えている、システム。
(項目17)
システムであって、該システムは、
2つ以上のカメラと、
対応モジュールであって、該対応モジュールは、
該2つ以上のカメラのうちの第1のカメラの第1のカメラ画像における第1の部品に対して、
該第1のカメラ画像における第1の特徴座標の、3D物理的空間へのバックプロジェクションである第1の3D光線を計算し、
該第1のカメラ画像における第2の特徴座標の、該3D物理的空間への第2のバックプロジェクションである第2の3D光線を計算することと、
該2つ以上のカメラのうちの第2のカメラの第2のカメラ画像における第2の部品に対して、
該第2のカメラ画像における第3の特徴座標の、該3D物理的空間への第3のバックプロジェクションである第3の3D光線を計算し、
該第2のカメラ画像における第4の特徴座標の、該3D物理的空間への第4のバックプロジェクションである第4の3D光線を計算することであって、
該第1の特徴座標および該第3の特徴座標は、モデルにおいて特定されているとおりの同じ第1の特徴に対応し、該第2の特徴座標および該第4の特徴座標は、該モデルにおいて特定されているとおりの同じ第2の特徴に対応する、ことと、
該第1の3D光線および該第3の3D光線上の最近ポイント間の第1のポイントならびに該第2の3D光線および該第4の3D光線上の最近ポイント間の第2のポイントを計算することと
を実行するように構成されている、対応モジュールと
を備えている、システム。
本技術の上記の目的、特徴、および利点ならびに他の目的、特徴、および利点が、添付の図面と合わせて読まれるとき、以下の様々な実施形態の説明からより十分に理解される。
図1は、本技術との使用が可能であるシステムを示している。 図2は、2つの画像捕捉デバイスの視野を示している。 図3は、2つ以上のカメラの視野における1つ以上の部品の対応を見出す方法を示している流れ図である。 図4は、部品および部品の画像を示している。
(実施形態の説明)
(詳細な説明)
概して、本技術は、複数のカメラ画像の間で部品を対応させるコンピュータ化されたシステムおよびコンピュータで実行される方法を含む。3Dマシンビジョンシステムにおいて、同じまたは重複する場面を撮像する2つ以上の2Dカメラは、場面または複数の場面における品目に関する3D情報(例えば、カメラまたは他の既知のポイントからの距離)を決定するために使用されることができる。1つのカメラの視野における品目と第2のカメラの視野における品目とが同じ物理的品目に対応するかどうかを決定することは、場面の中の品目についての3D情報を決定することに関連して別個の画像を利用することを容易にすることができる。本明細書に記述されるコンピュータ化されたシステムおよびコンピュータで実行される方法は、別個のカメラの視野における品目を対応させることを容易にする。
図1は、本技術との使用が可能であるシステム100を示している。システム100は、画像捕捉デバイス(例えば、カメラ)105と画像捕捉デバイス110とを含む。画像捕捉デバイス105と画像捕捉デバイス110とは、作業空間112の画像を捕捉するように位置決めされている。画像平面115は、画像捕捉デバイス105の画像平面であり、画像捕捉デバイス105によって捕捉される作業空間112の画像の二次元平面を表す。画像平面120は、画像捕捉デバイス110の画像平面であり、画像捕捉デバイス110によって捕捉される作業空間112の画像の二次元平面を表す。システム100は、2つの画像捕捉デバイス(画像捕捉デバイス105と画像捕捉デバイス110)によって示されているが、しかし、本技術は、2つ以上の画像捕捉デバイスを有するシステムとの使用が可能である。
システム100は、対応モジュール125を含む。対応モジュール125は、画像捕捉デバイス105と画像捕捉デバイス110から画像を受信する。対応モジュール125は、画像平面115(例えば、画像捕捉デバイス105の視野)における部品の、画像平面120(例えば、画像捕捉デバイス110の視野)における部品との対応を決定するために、本明細書に記述された方法を使用するように構成されることができる。
システム100は、1つの画像捕捉デバイスの座標系から別の画像捕捉デバイスの座標系への数学的変換を提供するように較正されることができる。システム100は、画像捕捉デバイスの座標系から画像捕捉デバイスの視野における物理的な場面に対する座標系への数学的変換を提供するように較正されることができる。特徴座標と関連する画像ポイントxは、xおよびカメラセンターによって定義された3D光線にバックプロジェクションする。較正は、画像ポイントを光線の方向に関連付ける。カメラ較正に関するさらなる情報は、2000年12月22日に出願された「Method and apparatus for calibrating an image acquisition system」と題する米国特許第6,798,925号、ならびに「Multiple view Geometry in Computer Vision」第2版、Richard HartleyおよびAndrew Zisserman(2004)に見出されることができ、これらの全内容は、本明細書に参考として援用されている。
システム100は、本明細書に記述されたコンピュータで実行される方法を実行するように特に構成されているコンピュータ化されたシステムの例である。しかしながら、図1に関して述べられているシステム構造および内容は、単に例示的な目的のためのものであり、他の例を図1に示されている特定の構造に限定するようには意図されていない。当業者には明らかであるように、多くの異形のシステム構造が、本明細書に記述されたコンピュータ化されたシステムおよび方法から逸脱することなく設計されることができる。
図2は、2つの画像捕捉デバイスの視野を示している。視野210は、第1の画像捕捉デバイス(例えば、画像捕捉デバイス105)の視野である。視野220は、第2の画像捕捉デバイス(例えば、画像捕捉デバイス110)の視野である。視野210および220は、同じ部品のグループを示している。本明細書に記述されている技術は、1つの視野におけるどの部品例が、他の視野におけるどの部品例と対応するかを特定することを容易にするために使用されることができる。本明細書で使用される場合、部品例とは、画像内における物理的な部品の表示を指す。
例えば、図2において、視野210および220は、両方とも、幾つかの部品例を含む。本明細書に記述されているコンピュータ化されたシステムおよびコンピュータで実行される方法は、視野210における部品を視野220における部品とマッチさせること(例えば、視野210における部品225と視野220における部品230とが、同じ物理的部品に対応すると決定すること)を補佐することができる。
図3は、2つ以上のカメラの視野における1つ以上の部品の対応を見出す方法を示している流れ図300である。ステップ305において、部品に対する3Dモデル特徴が生成される。一部の実施形態において、3Dモデル特徴は、3Dポイントであることができる。一部の実施形態において、3Dモデル特徴は、コーナ、円、およびラインセグメントのうちの少なくとも1つでもあることができる。3Dモデルは、物理的部品の数学的記述であることができる。3Dモデルを生成する方法は、当業者によく知られている。例えば、その全内容が本明細書に参考として援用されている「Computer Graphics:principles and practice,」James D.Foley(1996)を参照されたい。例えば、3Dモデルは、部品の寸法、その頂点、または部品の物理的特徴を特定する他の属性を含むことができる。部品特徴は、画像捕捉デバイスによって捕捉された画像における部品の特定の際に補佐するために選択されることができる部品の局面である。例えば、部品特徴は、部品の鋸歯状のエッジ、部品における穴、または部品の任意の他の物理的局面であることができる。部品特徴は、モデルに基づいて手動で、またはプログラム的に選択されることができる。3Dモデルは、MA、ネーティックのCognex Corporationによって提供されるCognex VisionPro(登録商標)3D三角測量機能を使用して生成されることができる。
ステップ310において、部品ロケータツールは、部品例の位置を特定するように訓練される。特徴ファインダツールは、部品特徴の位置を特定するように訓練される。一部の実施形態において、部品の位置の特定および特徴を見出すことは、同じツールを使用して実行される。一部の実施形態において、部品の位置の特定および特徴を見出すことは、別個のツールを使用して実行される。一部の実施形態において、特徴の位置は、コーナファインダ、円ファインダ、または他のパターンマッチングツールを使用して特定されることができる。一部の実施形態において、特徴の位置は、部品ロケータツールから生じる2Dポーズを適用することによって(例えば、訓練画像からランタイム画像へ特徴の位置をマッピングするための部品ロケーションポーズ(location pose)を使用することによって)直接的に特定されることができる。
訓練ステップは、画像捕捉デバイスの2D画像において3Dモデルによって記述された部品の位置を特定するように特徴ファインダツールを訓練する。例えば、Cognex PatMaxは、画像において部品特徴を見出すように訓練されることができる。
ステップ315において、2D部品例の位置は、各カメラの画像において特定される。図4は、部品およびこれらの部品の画像を示す。図4において、部品402は、特徴405(例えば、部品のボックス状のコーナ405)を有し、部品407は、特徴410を有する。部品402と部品407の両方は、同じモデル(図示されず)によってモデル化されており、特徴405および特徴410は、モデルにおける同じ特徴の例である。カメラ415は、部品405(部品例425)および部品407(部品例430)の2Dプロジェクションを含む画像420をカメラ415の画像平面の中に捕捉することができる。カメラ435は、部品405(部品例445)および部品407(部品例450)の2Dプロジェクションを含む画像440をカメラ435の画像平面の中に捕捉することができる。部品例の位置は、例えば、Cognex PatMaxを使用して特定の画像において特定されることができる(例えば、部品例425および430は、画像420において、ならびに部品例445および450は、画像440において)。いかにしてCognex PatMaxが画像における部品例を見出すことができるかについてのさらなる記述は、「Method for Fast,Robust, Multi−Dimensional Pattern Recognition」と題して1998年7月13日に出願された米国特許第7,016,539号および「Fast high−accuracy multi−dimensional pattern inspection」と題して2003年11月10日に出願された米国特許第7,065,262号に見出されることができ、これらの全内容は、参考として本明細書に援用されている。
ステップ320において、各2D部品例に対する特徴位置または座標は、各カメラの画像において見出される。図4の示された例において、特徴455(画像420の中への特徴405の2Dプロジェクション)、特徴460(画像420の中への特徴410の2Dプロジェクション)、特徴465(画像440の中への特徴405の2Dプロジェクション)、および特徴470(画像440の中への特徴410の2Dプロジェクション)は、例えば、Cognex PatMaxを使用して見出されることができる。一部の実施形態において、特徴位置は、部品例内において、部品ロケーションポーズを特徴位置オフセットに適用することによって計算されることができる。例えば、部品例425内における特徴455に対するオフセットは、部品425の見出されたポーズと組み合わされることができ、そして、特徴位置として使用されることができる。このアプローチの利益は、閉塞された特徴の位置がこの方法で取得されることができる点にある。
ステップ325において、対応候補のリストが作成される。一部の実施形態において、対応候補リストは、各カメラの画像から1つの部品例を選択することによって生成されるすべての組み合わせのリストであることができる。一部の実施形態において、対応候補リストは、各カメラの画像から1つの部品例を選択することによって生成される全ての組み合わせのサブセットを含むリストであることができる。例えば、図4を参照すると、対応候補は、(部品例425/部品例445);(部品例425/部品例450);(部品例430/部品例445);(部品例430/部品例450)(例えば、画像420からの部品例と画像440からの部品例との全ての組み合わせ)であることができる。
3つのカメラを使用する実施形態において、対応候補は、第1のカメラの画像からの部品例、第2のカメラの画像からの部品例、および第3のカメラの画像からの部品例を選択することによって生成される全ての組み合わせを含むことができる。既に述べられたように、本明細書に記述される方法は、1つより多くの任意の数のカメラとの使用が可能である。
ステップ330において、対応候補が評価される。一部の実施形態において、対応候補は、対応候補の各部品例における同じ部品特徴の例を使用して三角測量に基づき評価される。対応する部品特徴は、比較されることができる(例えば、1つの部品例425における特徴455は、別の部品例445における同じ特徴465と比較される)。図4を参照すると、例えば、対応候補(部品例425/部品例445)が評価されることができる。特徴455から始めると、(画像420における特徴455の座標の、3D物理的空間へのバックプロジェクションである)光線475が計算される。(画像440における特徴465の座標の、3D物理的空間へのバックプロジェクションである)光線480も計算される。光線475と光線480との間の光線残差(例えば、光線475および480上の最近ポイント間の距離)が計算される。一部の実施形態において、光線残差が閾値よりも大きい場合、対応候補は、対応候補リストから除去される。大きな光線残差は、比較されている部品例が、2つの異なる物理的部品に対応することを示唆することができる。光線残差が閾値より小さい場合、残りの特徴が同様な態様で評価され、そして光線残差が閾値と比較される。特徴の各々に対する各残差が閾値よりも小さい場合、対応候補スコアが計算され、そして対応候補は、対応候補リストに残る。一部の実施形態において、光線残差は、特徴全部未満に対して計算される。
一部の実施形態において、閾値は、部品寸法に基づく。例えば、閾値は、一辺に沿った部品の寸法の百分率であることができる。
一部の実施形態において、対応候補スコアは、残差の平均であることができる。一部の実施形態において、対応候補スコアは、残差の合計であることができる。
光線残差は、存在するカメラの数に依存して、多くの様々な方法で計算されることができる。例えば、3つのカメラを使用する実施形態において、光線残差は、3つの光線(例えば、各光線は、各カメラ画像に対する特徴座標の、3D物理的空間へのバックプロジェクションである)の間の距離の合計として計算されることができる。一部の実施形態において、残差は、第1の光線と第2の光線との間の距離および最初の2つの光線間のポイントと第3の光線との間の距離の合計として計算されることができる。3つ以上のカメラを使用する別の実施形態において、光線残差は、第1の光線および第2の光線の最近ポイント間のポイントを決定し、そして次に、第3のカメラの画像の中に3Dポイントをプロジェクションし、そして、プロジェクションされたポイントの距離を第3の画像における特徴の位置と比較することによって計算されることができる。
一部の実施形態において、対応候補は、モデルの幾何学的形状に基づいて評価されることができる。例えば、光線475および光線480上の最近ポイント間の第1のポイントが計算されることができる。別の特徴に対する光線に対する最近ポイント間のポイントが計算されることができる。これら2つのポイント間の計算された距離が、部品モデルにおけるこれら2つの特徴間の提供された距離と比較されることができる。例えば、計算された距離と提供された距離との差である距離残差が計算されることができる。一部の実施形態において、距離残差が閾値よりも大きい場合、対応候補は、対応候補リストから除去される。大きな距離残差は、2つの異なった物理的部品に対応する部品例が評価されつつあることを示すことができる。距離残差が閾値より小さい場合、残りの特徴間の距離が、同様な態様で評価され、そして、距離残差が閾値と比較される。各距離残差が閾値より小さい場合、対応候補スコアが計算され、そして、対応候補は、対応候補リスト上に残る。一部の実施形態において、対応候補スコアは、距離残差の平均であることができる。一部の実施形態において、対応候補スコアは、距離残差の合計であることができる。一部の実施形態において、対応候補スコアは、距離残差の重み付き平均であることができ、ここで、重み付けは、モデル寸法に基づく。一部の実施形態において、対応候補スコアは、光線残差および距離残差に基づく。
ステップ335において、対応候補リストにおける対応候補が分類される。一部の実施形態において、対応候補は、最も可能性の高い対応候補が最初となるように、それぞれの対応候補スコアによって分類される。対応候補リストは、アレイ、リンクされたリスト、または他のデータ構造であることができる。
例えば、図4を参照すると、分類された対応候補リストは、以下の対応候補を含むことができる:
部品例425/部品例445(対応候補スコア8);
部品例430/部品例450(対応候補スコア9);
部品例425/部品例450(対応候補スコア20);
部品例430/部品例445(対応候補スコア35)。
ステップ340において、最良の対応候補が、対応候補リストから除去され、結果リストに加えられる。一部の実施形態において、最良の対応候補は、所定の閾値を満足するスコアを有さなくてはならず、そして次に、結果リストに加えられる。結果リストは、見出された部品対応のリストである。
ステップ345において、ステップ340において除去された対応候補における部品例を含む、対応候補リストにおける対応候補は、対応候補リストから除去される。例えば、上記の対応候補リストを参照すると、対応候補(部品例425/部品例445)が、最低のスコアを有する対応候補として対応候補リストから除去された後、対応候補(部品例425/部品例450)と対応候補(部品例430/部品例445)の両方は、除去されることができる。なぜならば、各々は、対応候補(部品例425/部品例445))と部品例を共有するからである。
ステップ350において、対応候補リストには候補が幾つか残っているかどうかが決定される。リストが空である場合、方法は戻ることができる。結果リストにおける対応候補は、見出された部品例対応を特定している。
対応候補リストに対応候補が残っている場合、ステップ340について記述されたように、最低の対応候補スコアを有する対応候補が、対応候補リストから除去される。対応候補リストは次に、ステップ345について記述されたように、最低の対応候補スコアを有する対応候補と部品例を共有する対応候補を除去して間引かれる。
上述の技術は、デジタルおよび/もしくはアナログ電子回路において、またはコンピュータハードウェア、ファームウェア、ソフトウェアにおいて、または様々な組み合わせにおいて実行されることができる。実施形態は、コンピュータプログラムプロダクト、すなわち、例えばプログラム可能なプロセッサ、コンピュータ、および/または複数のコンピュータのようなデータ処理装置によって実行するための、またはその動作を制御するための、マシン読み取り可能な格納デバイスにおいて触知可能に具体化されたコンピュータプログラムとして、であることができる。コンピュータプログラムは、ソースコード、コンパイル済みコード、解釈済みコード、および/またはマシンコードを含む任意の形態のコンピュータまたはプログラミング言語で書き込まれることができ、そして、コンピュータプログラムは、スタンドアロンプログラムとしての形態、または、サブルーチン、素子、もしくはコンピューティング環境における使用に対して適切な他のユニットとしての形態を含む任意の形態で配備されることができる。コンピュータプログラムは、1つ以上の場所において、1つのコンピュータで、または複数のコンピュータで実行されるように配備されることができる。
方法のステップは、本発明の機能を実行するためのコンピュータプログラムを実行する1つ以上のプロセッサにより、入力データで動作することおよび/または出力データを発生させることによって実行されることができる。方法のステップは、例えばFPGA(フィールドプログラマブルゲートアレイ)、FPAA(フィールドプログラマブルアナログアレイ)、CPLD(複合プログラマブル論理デバイス)、PSoC(プログラマブルシステムオンチップ)、ASIP(特定用途の命令セットプロセッサ)、またはASIC(特定用途の集積回路)のような専用論理回路網によっても実行されることができ、装置は、このような専用論理回路網として実装されることができる。サブルーチンは、1つ以上の機能を実行するコンピュータプログラムおよび/またはプロセッサ/特殊回路網の部分を指すことができる。
コンピュータプログラムの実行に対して適切なプロセッサは、例として、汎用マイクロプロセッサと専用マイクロプロセッサの両方、および任意の種類のデジタルまたはアナログコンピュータの任意の1つ以上のプロセッサを含む。一般的に、プロセッサは、読み出し専用メモリもしくはランダムアクセスメモリまたは両方から命令およびデータを受信する。コンピュータの必須の素子は、命令を実行するためのプロセッサおよび命令および/またはデータを格納するための1つ以上のメモリデバイスである。キャッシャのようなメモリデバイスは、データを一時的に格納するために使用されることができる。メモリデバイスは、長期のデータ格納のためにも使用されることができる。一般的に、コンピュータはまた、データを格納するための1つ以上の大容量格納デバイス、例えば磁気ディスク、光磁気ディスク、または光ディスクを含むか、またはこれらからデータを受信するかもしくはこれらへデータを転送するか、またはその両方のために動作可能に結合されている。コンピュータはまた、ネットワークから命令および/もしくはデータを受信し、かつ/または、ネットワークへ命令および/もしくはデータを転送するために、通信ネットワークに動作可能に結合されることができる。コンピュータプログラム命令およびデータを具体化するために適切なコンピュータ読み取り可能格納デバイスは、例として、半導体メモリデバイス、例えばDRAM、SRAM,EPROM、EEPROM、およびフラッシュメモリデバイス;磁気ディスク、例えば内蔵ハードディスクまたは取り外し可能ディスク;光磁気ディスク;ならびに光ディスク、例えばCD、DVD、HD−DVD、およびBlu−rayディスクを含む全ての形態の揮発性および不揮発性メモリを含む。プロセッサおよびメモリは、専用論理回路網によって補足されることができ、かつ/または専用論理回路網の中に組み込まれることができる。
ユーザとの対話に対して備えるために、上述の技術は、表示装置、例えば、情報をユーザに対して表示するためのCRT(陰極線管)、プラズマ、またはLCD(液晶表示)モニタ、ならびにキーボードおよびポインティングデバイス、例えば、ユーザがそれによって入力をコンピュータに提供することができる(例えば、ユーザインターフェース素子と対話することができる)マウス、トラックボール、タッチパッド、または運動センサと通信するコンピュータで実行されることができる。他の種類のデバイスも、ユーザとの対話に対して備えるために使用されることができる。例えば、ユーザに提供されるフィードバックは、任意の形態の感覚フィードバック、例えば視覚フィードバック、聴覚フィードバック、または触覚フィードバックであることができ、ユーザからの入力は、音響、音声、および/または触覚入力を含む任意の形態で受信されることができる。
上述の技術は、バックエンドコンポーネントを含む分散型コンピューティングシステムで実行されることができる。バックエンドコンポーネントは、例えばデータサーバ、ミドルウェアコンポーネント、および/またはアプリケーションサーバであることができる。上述の技術は、フロントエンドコンポーネントを含む分散型コンピューティングシステムで実行されることができる。フロントエンドコンポーネントは、例えばグラフィカルユーザインターフェース、ユーザがそれを介して例示の実施形態と対話することができるウェブブラウザ、および/または送信デバイスに対する他のグラフィカルユーザインターフェースを有するクライアントコンピュータであることができる。上述の技術は、そのようなバックエンド、ミドルウェア、またはフロントエンドコンポーネントの任意の組み合わせを含む分散型コンピューティングシステムで実行されることができる。
コンピューティングシステムは、クライアントおよびサーバを含むことができる。クライアントおよびサーバは一般的に、互いから遠く離れており、通常、通信ネットワークを介して対話する。クライアントとサーバとの関係は、それぞれのコンピュータで進行しかつ互いにクライアント−サーバ関係を有するコンピュータプログラムによって生じる。
コンピューティングシステムのコンポーネントは、デジタルまたはアナログデータ通信(例えば、通信ネットワーク)の任意の形態または媒体によって相互に接続されることができる。通信ネットワークの例は、回路ベースのネットワークおよびパケットベースのネットワークを含む。パケットベースのネットワークは、例えば、インターネット、搬送波インターネットプロトコル(IP)ネットワーク(例えば、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、キャンパスエリアネットワーク(CAN)、メトロポリタンエリアネットワーク(MAN)、ホームエリアネットワーク(HAN))、プライベートIPネットワーク、IP私設交換網(IPBX)、無線ネットワーク(例えば、無線アクセスネットワーク(RAN)、802.11ネットワーク、802.16ネットワーク、汎用パケット無線サービス(GPRS)ネットワーク、HiperLAN)、および/または他のパケットベースのネットワークを含むことができる。回路ベースのネットワークは、例えば、公衆電話交換ネットワーク(PSTN)、私設交換網(PBX)、無線ネットワーク(例えば、RAN、ブルートゥース、符号分割多重アクセス(CDMA)ネットワーク、時分割多重アクセス(TDMA)ネットワーク、移動通信に対するグローバルシステム(GSM(登録商標))ネットワーク)、および/または他の回路ベースのネットワークを含むことができる。
コンピューティングシステムのデバイスおよび/またはコンピューティングデバイスは、例えば、コンピュータ、ブラウザデバイスを備えているコンピュータ、電話、IP電話、モバイルデバイス(例えば、携帯電話、携帯情報端末(PDA)デバイス、ラップトップコンピュータ、電子メールデバイス)、サーバ、1つ以上の処理カードを備えているラック、専用回路網、および/または他の通信デバイスを含むことができる。ブラウザデバイスは、例えば、ワールドワイドウェブブラウザ(例えば、Microsoft Corporationから入手可能であるMicrosoft(登録商標)Internet Explorer(登録商標)、Mozilla Corporationから入手可能であるMozilla(登録商標)Firefox)を備えているコンピュータ(例えば、デスクトップコンピュータ、ラップトップコンピュータ)を含む。モバイルコンピューティングデバイスは、例えば、Blackberry(登録商標)を含む。IP電話は、例えば、Cisco System,Incから入手可能であるCisco(登録商標)Unified IP Phone 7985G、および/またはCisco System,Incから入手可能であるCisco(登録商標)Unified Wireless Phone 7920を含む。
当業者は、本発明がその精神または必須の特性から逸脱することなく他の特定の形態で具体化され得ることを認識する。従って、上述の実施形態は、あらゆる点において、例を示すものであり、本明細書に記述された発明を限定するものではないと考えられるべきである。従って、本発明の範囲は、上述の説明によっては示されず、添付の請求項によって示され、そして、請求項の均等物の意味および範囲内にある全ての変更は、従って、それらに含まれていることが意図されている。

Claims (1)

  1. 本明細書に記載の発明。
JP2014252695A 2011-12-16 2014-12-15 複数のカメラに対する複数部品コレスポンダ Withdrawn JP2015072715A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161576952P 2011-12-16 2011-12-16
US61/576,952 2011-12-16

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012272770A Division JP2013137760A (ja) 2011-12-16 2012-12-13 複数のカメラに対する複数部品コレスポンダ

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017241440A Division JP2018092636A (ja) 2011-12-16 2017-12-18 複数のカメラに対する複数部品コレスポンダ

Publications (1)

Publication Number Publication Date
JP2015072715A true JP2015072715A (ja) 2015-04-16

Family

ID=48609738

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2012272770A Pending JP2013137760A (ja) 2011-12-16 2012-12-13 複数のカメラに対する複数部品コレスポンダ
JP2014252695A Withdrawn JP2015072715A (ja) 2011-12-16 2014-12-15 複数のカメラに対する複数部品コレスポンダ
JP2017241440A Pending JP2018092636A (ja) 2011-12-16 2017-12-18 複数のカメラに対する複数部品コレスポンダ

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2012272770A Pending JP2013137760A (ja) 2011-12-16 2012-12-13 複数のカメラに対する複数部品コレスポンダ

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2017241440A Pending JP2018092636A (ja) 2011-12-16 2017-12-18 複数のカメラに対する複数部品コレスポンダ

Country Status (4)

Country Link
US (1) US10097811B2 (ja)
JP (3) JP2013137760A (ja)
CN (1) CN103208112B (ja)
DE (1) DE102012223047B4 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9582864B2 (en) * 2014-01-10 2017-02-28 Perkinelmer Cellular Technologies Germany Gmbh Method and system for image correction using a quasiperiodic grid
GB2532077B (en) * 2014-11-10 2017-11-22 Vision Rt Ltd Method of calibrating a patient monitoring system for use with a radiotherapy treatment apparatus
JP7013144B2 (ja) * 2016-10-12 2022-01-31 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP6766995B2 (ja) * 2016-11-09 2020-10-14 株式会社ミツトヨ 位相シフト干渉計
CN110969662B (zh) * 2018-09-28 2023-09-26 杭州海康威视数字技术股份有限公司 鱼眼摄像机内参标定方法、装置、标定装置控制器和系统
CN112797900B (zh) * 2021-04-07 2021-07-06 中科慧远视觉技术(北京)有限公司 多相机板材尺寸测量方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5724493A (en) * 1994-12-13 1998-03-03 Nippon Telegraph & Telephone Corporation Method and apparatus for extracting 3D information of feature points
US6975764B1 (en) 1997-11-26 2005-12-13 Cognex Technology And Investment Corporation Fast high-accuracy multi-dimensional pattern inspection
US7016539B1 (en) 1998-07-13 2006-03-21 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US6798925B1 (en) 2000-12-22 2004-09-28 Cognex Corporation Method and apparatus for calibrating an image acquisition system
US8111904B2 (en) * 2005-10-07 2012-02-07 Cognex Technology And Investment Corp. Methods and apparatus for practical 3D vision system
US20090010507A1 (en) * 2007-07-02 2009-01-08 Zheng Jason Geng System and method for generating a 3d model of anatomical structure using a plurality of 2d images
US8442304B2 (en) * 2008-12-29 2013-05-14 Cognex Corporation System and method for three-dimensional alignment of objects using machine vision
US11699247B2 (en) * 2009-12-24 2023-07-11 Cognex Corporation System and method for runtime determination of camera miscalibration
JP5024410B2 (ja) * 2010-03-29 2012-09-12 カシオ計算機株式会社 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム
JP5346863B2 (ja) * 2010-03-30 2013-11-20 大日本スクリーン製造株式会社 3次元位置・姿勢認識装置およびそれを用いたシステム、方法、プログラム
US8811719B2 (en) * 2011-04-29 2014-08-19 Microsoft Corporation Inferring spatial object descriptions from spatial gestures
US8432435B2 (en) * 2011-08-10 2013-04-30 Seiko Epson Corporation Ray image modeling for fast catadioptric light field rendering

Also Published As

Publication number Publication date
CN103208112A (zh) 2013-07-17
DE102012223047B4 (de) 2015-09-10
JP2013137760A (ja) 2013-07-11
JP2018092636A (ja) 2018-06-14
CN103208112B (zh) 2017-09-15
US10097811B2 (en) 2018-10-09
DE102012223047A1 (de) 2013-07-11
US20130155199A1 (en) 2013-06-20

Similar Documents

Publication Publication Date Title
JP2018092636A (ja) 複数のカメラに対する複数部品コレスポンダ
Zubizarreta et al. A framework for augmented reality guidance in industry
JP6349418B2 (ja) 高精度単眼移動によるオブジェクト位置特定
US11847796B2 (en) Calibrating cameras using human skeleton
US20160283792A1 (en) Information processing apparatus, information processing method, and storage medium
Olesen et al. Real-time extraction of surface patches with associated uncertainties by means of kinect cameras
JP2019153290A (ja) ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法
JP6601613B2 (ja) 位置推定方法、位置推定装置及び位置推定プログラム
Mörwald et al. Advances in real-time object tracking: Extensions for robust object tracking with a Monte Carlo particle filter
Kawanishi et al. Parallel line-based structure from motion by using omnidirectional camera in textureless scene
Bae et al. Fast and scalable 3D cyber-physical modeling for high-precision mobile augmented reality systems
Lee et al. Robust multithreaded object tracker through occlusions for spatial augmented reality
Guerra et al. Detection and positioning of pipes and columns with autonomous multicopter drones
Kim et al. Pose initialization method of mixed reality system for inspection using convolutional neural network
Garcke et al. Alignment of highly resolved time-dependent experimental and simulated crash test data
EP4239580A1 (en) Measurement system
US9477890B2 (en) Object detection using limited learned attribute ranges
Dalbah et al. Visual odometry with high resolution time-of-flight cameras
Vokhmintsev et al. Development of a method for constructing a 3D accurate map of the surrounding environment
Jiahao et al. EO-SLAM: Evolutionary Object Slam in Perceptual Constrained Scene
Seo et al. Improved numerical inverse kinematics for human pose estimation
Kaminski Data association for object-based SLAM
Zhang et al. Social distance control for quadruped robots in a gated spike filter neural network framework
Swaminathan Analysis of Fisheye Stereo Camera based Visual SLAM for indoor environment
Martinsson Implementation and Evaluation of Monocular SLAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170206

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170502

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170703

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180207

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180227

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20180302