JP2015072715A - 複数のカメラに対する複数部品コレスポンダ - Google Patents
複数のカメラに対する複数部品コレスポンダ Download PDFInfo
- Publication number
- JP2015072715A JP2015072715A JP2014252695A JP2014252695A JP2015072715A JP 2015072715 A JP2015072715 A JP 2015072715A JP 2014252695 A JP2014252695 A JP 2014252695A JP 2014252695 A JP2014252695 A JP 2014252695A JP 2015072715 A JP2015072715 A JP 2015072715A
- Authority
- JP
- Japan
- Prior art keywords
- ray
- feature
- camera
- image
- correspondence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
【解決手段】2以上のカメラのカメラ画像で1以上の部品の対応を見出すためのコンピュータプログラムプロダクトを含む、方法、システム、装置が記述される。第1カメラの第1カメラ画像における第1部品に対して、第1カメラ画像での第1部品の第1特徴座標の、3D物理的空間への第1バックプロジェクションである第1の3D光線が計算される。第2カメラの第2カメラ画像での第2部品に対して、第2カメラ画像における第2部品の第2特徴座標の、3D物理的空間への第2のバックプロジェクションである第2の3D光線が計算され、第1特徴座標、第2特徴座標は、モデルにおいて特定されている通りの第1特徴に対応している。第1の3D光線と第2の3D光線との間の第1距離が計算される。
【選択図】図1
Description
(関連出願の引用)
本出願は、2011年12月16日に出願された「Multi−Part Corresponder for Multiple Cameras」と題する米国特許出願第61/576,952号の利益および優先権を主張し、米国特許出願第61/576,952号の全内容が本明細書に参考として援用されている。
本発明は概して、マシンビジョンの分野に関し、より詳細には、別個のカメラ画像において部品を対応させることに関する。
(発明の背景)
デジタル画像は、多くのデバイスによって形成され、そして、多くの実用的目的のために使用される。デバイスは、可視光線または赤外線で動作するカメラ、ラインスキャンセンサ、フライングスポットスキャナ、電子顕微鏡、CTスキャナを含むX線デバイス、磁気共鳴イメージャ、および当業者に知られている他のデバイスを含む。実用的な用途は、産業オートメーション、医療診断、様々な軍事目的、民間の目的、および科学的目的のための衛星撮像、写真処理、監視および交通モニタリング、文書処理、ならびにその他多数において見出される。
一局面において、本技術は、2つ以上のカメラのカメラ画像において1つ以上の部品の対応を見出すコンピュータで実行される方法に関する。方法は、第1のカメラの第1のカメラ画像における第1の部品に対して、該第1のカメラ画像における該第1の部品の第1の特徴座標の、3D物理的空間への第1のバックプロジェクションである第1の3D光線を計算することを含む。方法は、第2のカメラの第2のカメラ画像における第2の部品に対して、該第2のカメラ画像における該第2の部品の第2の特徴座標の、該3D物理的空間への第2のバックプロジェクションである第2の3D光線を計算することを含み、ここで該第1の特徴座標および該第2の特徴座標は、モデルにおいて特定されているとおりの第1の特徴に対応している。方法は、該第1の3D光線と該第2の3D光線との間の第1の距離を計算することを含む。
(項目1)
2つ以上のカメラのカメラ画像において1つ以上の部品の対応を見出すコンピュータで実行される方法であって、該方法は、
第1のカメラの第1のカメラ画像における第1の部品に対して、
該第1のカメラ画像における該第1の部品の第1の特徴座標の、3D物理的空間への第1のバックプロジェクションである第1の3D光線を計算することと、
第2のカメラの第2のカメラ画像における第2の部品に対して、
該第2のカメラ画像における該第2の部品の第2の特徴座標の、該3D物理的空間への第2のバックプロジェクションである第2の3D光線を計算することであって、
該第1の特徴座標および該第2の特徴座標は、モデルにおいて特定されているとおりの第1の特徴に対応している、ことと、
該第1の3D光線と該第2の3D光線との間の第1の距離を計算することと
を含む、方法。
(項目2)
上記第1のカメラの上記第1のカメラ画像における上記第1の部品に対して、
該第1のカメラ画像における第3の特徴座標の、3D物理的空間への第3のバックプロジェクションである第3の3D光線を計算することと、
上記第2のカメラの上記第2のカメラ画像における上記第2の部品に対して、
該第2のカメラ画像における第4の特徴座標の、該3D物理的空間への第4のバックプロジェクションである第4の3D光線を計算することであって、
該第3の特徴座標および該第4の特徴座標は、該モデルにおいて特定されているとおりの第2の特徴に対応している、ことと、
該第3の3D光線と該第4の3D光線との間の第2の距離を計算することと
をさらに含む、上記項目に記載のコンピュータで実行される方法。
(項目3)
上記第1の距離および上記第2の距離のうちの少なくとも1つに基づいて候補部品対応スコアを計算することをさらに含む、上記項目のいずれか一項に記載のコンピュータで実行される方法。
(項目4)
上記候補部品対応スコアは、上記第1の距離および上記第2の距離の平均である、上記項目のいずれか一項に記載のコンピュータで実行される方法。
(項目5)
上記第1の距離が所定の閾値を超過する場合、候補部品対応としての上記第1のカメラの上記第1のカメラ画像における上記第1の部品と上記第2のカメラの上記第2のカメラ画像における上記第2の部品とのペアリングを除外することをさらに含む、上記項目のいずれか一項に記載のコンピュータで実行される方法。
(項目6)
第3のカメラの第3のカメラ画像における第3の部品に対して、
該第3のカメラ画像における該第3の部品の第3の特徴座標の、上記3D物理的空間への第3のバックプロジェクションである第3の3D光線を計算することであって、
上記第1の特徴座標、上記第2の特徴座標、および該第3の特徴座標は、上記モデルにおいて特定されているとおりの上記第1の特徴に対応している、ことと、
該第3の3D光線と、上記第1の3D光線および上記第2の3D光線上の最近ポイント間の第1のポイントとの間の第2の距離を計算することと
をさらに含む、上記項目のいずれか一項に記載のコンピュータで実行される方法。
(項目7)
第3のカメラの第3のカメラ画像における第3の部品に対して、
該第3のカメラ画像における該第3の部品の第3の特徴座標の、上記3D物理的空間への第3のバックプロジェクションである第3の3D光線を計算することであって、
上記第1の特徴座標、上記第2の特徴座標、および該第3の特徴座標は、上記モデルにおいて特定されているとおりの特徴に対応している、ことと、
上記第1の3D光線と該第3の3D光線との間の第2の距離を計算し、かつ上記第2の3D光線と該第3の3D光線との間の第3の距離を計算することと
をさらに含む、上記項目のいずれか一項に記載のコンピュータで実行される方法。
(項目8)
2つ以上のカメラのカメラ画像において1つ以上の部品の対応を見出すコンピュータで実行される方法であって、該方法は、
第1のカメラの第1のカメラ画像における第1の部品に対して、
該第1のカメラ画像における第1の特徴座標の、3D物理的空間へのバックプロジェクションである第1の3D光線を計算し、
該第1のカメラ画像における第2の特徴座標の、該3D物理的空間への第2のバックプロジェクションである第2の3D光線を計算することと、
第2のカメラの第2のカメラ画像における第2の部品に対して、
該第2のカメラ画像における第3の特徴座標の、該3D物理的空間への第3のバックプロジェクションである第3の3D光線を計算し、
該第2のカメラ画像における第4の特徴座標の、該3D物理的空間への第4のバックプロジェクションである第4の3D光線を計算することであって、
該第1の特徴座標および該第3の特徴座標は、モデルにおいて特定されているとおりの同じ第1の特徴に対応し、該第2の特徴座標および該第4の特徴座標は、該モデルにおいて特定されているとおりの同じ第2の特徴に対応する、ことと、
該第1の3D光線および該第3の3D光線上の最近ポイント間の第1のポイントならびに該第2の3D光線および該第4の3D光線上の最近ポイント間の第2のポイントを計算することと
を含む、方法。
(項目9)
上記第1のポイントと上記第2のポイントとの間の距離を計算することをさらに含む、上記項目に記載の方法。
(項目10)
上記距離を所定の値と比較することにより、距離残差を決定することをさらに含む、上記項目のいずれか一項に記載の方法。
(項目11)
上記所定の値は、上記モデルにおいて特定されているとおりの上記第1の特徴および上記第2の特徴に基づく、上記項目のいずれか一項に記載の方法。
(項目12)
上記所定の値は、入力された値に基づく、上記項目のいずれか一項に記載の方法。
(項目13)
上記距離残差に基づいて候補対応スコアを計算することをさらに含む、上記項目のいずれか一項に記載の方法。
(項目14)
上記距離残差が所定の閾値を超過する場合、候補部品対応としての上記第1のカメラ画像における上記第1の部品と上記第2のカメラ画像における上記第2の部品とのペアリングを除外することをさらに含む、上記項目のいずれか一項に記載の方法。
(項目15)
上記第1の3D光線と上記第3の3D光線との間の第1の距離を計算し、かつ上記第2の3D光線と上記第4の3D光線との間の第2の距離を計算することと、上記距離残差、該第1の距離、および該第2の距離に基づいて候補部品対応スコアを計算することとをさらに含む、上記項目のいずれか一項に記載の方法。
(項目16)
システムであって、該システムは、
2つ以上のカメラと、
対応モジュールであって、該対応モジュールは、
該2つ以上のカメラのうちの第1のカメラの第1のカメラ画像における第1の部品に対して、
該第1のカメラ画像における該第1の部品の第1の特徴座標の、3D物理的空間への第1のバックプロジェクションである第1の3D光線を計算することと、
該2つ以上のカメラのうちの第2のカメラの第2のカメラ画像における第2の部品に対して、
該第2のカメラ画像における該第2の部品の第2の特徴座標の、該3D物理的空間への第2のバックプロジェクションである第2の3D光線を計算することであって、
該第1の特徴座標および該第2の特徴座標は、モデルにおいて特定されているとおりの第1の特徴に対応している、ことと、
該第1の3D光線と該第2の3D光線との間の第1の距離を計算することと
を実行するように構成されている、対応モジュールと
を備えている、システム。
(項目17)
システムであって、該システムは、
2つ以上のカメラと、
対応モジュールであって、該対応モジュールは、
該2つ以上のカメラのうちの第1のカメラの第1のカメラ画像における第1の部品に対して、
該第1のカメラ画像における第1の特徴座標の、3D物理的空間へのバックプロジェクションである第1の3D光線を計算し、
該第1のカメラ画像における第2の特徴座標の、該3D物理的空間への第2のバックプロジェクションである第2の3D光線を計算することと、
該2つ以上のカメラのうちの第2のカメラの第2のカメラ画像における第2の部品に対して、
該第2のカメラ画像における第3の特徴座標の、該3D物理的空間への第3のバックプロジェクションである第3の3D光線を計算し、
該第2のカメラ画像における第4の特徴座標の、該3D物理的空間への第4のバックプロジェクションである第4の3D光線を計算することであって、
該第1の特徴座標および該第3の特徴座標は、モデルにおいて特定されているとおりの同じ第1の特徴に対応し、該第2の特徴座標および該第4の特徴座標は、該モデルにおいて特定されているとおりの同じ第2の特徴に対応する、ことと、
該第1の3D光線および該第3の3D光線上の最近ポイント間の第1のポイントならびに該第2の3D光線および該第4の3D光線上の最近ポイント間の第2のポイントを計算することと
を実行するように構成されている、対応モジュールと
を備えている、システム。
(詳細な説明)
概して、本技術は、複数のカメラ画像の間で部品を対応させるコンピュータ化されたシステムおよびコンピュータで実行される方法を含む。3Dマシンビジョンシステムにおいて、同じまたは重複する場面を撮像する2つ以上の2Dカメラは、場面または複数の場面における品目に関する3D情報(例えば、カメラまたは他の既知のポイントからの距離)を決定するために使用されることができる。1つのカメラの視野における品目と第2のカメラの視野における品目とが同じ物理的品目に対応するかどうかを決定することは、場面の中の品目についての3D情報を決定することに関連して別個の画像を利用することを容易にすることができる。本明細書に記述されるコンピュータ化されたシステムおよびコンピュータで実行される方法は、別個のカメラの視野における品目を対応させることを容易にする。
部品例425/部品例445(対応候補スコア8);
部品例430/部品例450(対応候補スコア9);
部品例425/部品例450(対応候補スコア20);
部品例430/部品例445(対応候補スコア35)。
Claims (1)
- 本明細書に記載の発明。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161576952P | 2011-12-16 | 2011-12-16 | |
US61/576,952 | 2011-12-16 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012272770A Division JP2013137760A (ja) | 2011-12-16 | 2012-12-13 | 複数のカメラに対する複数部品コレスポンダ |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017241440A Division JP2018092636A (ja) | 2011-12-16 | 2017-12-18 | 複数のカメラに対する複数部品コレスポンダ |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015072715A true JP2015072715A (ja) | 2015-04-16 |
Family
ID=48609738
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012272770A Pending JP2013137760A (ja) | 2011-12-16 | 2012-12-13 | 複数のカメラに対する複数部品コレスポンダ |
JP2014252695A Withdrawn JP2015072715A (ja) | 2011-12-16 | 2014-12-15 | 複数のカメラに対する複数部品コレスポンダ |
JP2017241440A Pending JP2018092636A (ja) | 2011-12-16 | 2017-12-18 | 複数のカメラに対する複数部品コレスポンダ |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012272770A Pending JP2013137760A (ja) | 2011-12-16 | 2012-12-13 | 複数のカメラに対する複数部品コレスポンダ |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017241440A Pending JP2018092636A (ja) | 2011-12-16 | 2017-12-18 | 複数のカメラに対する複数部品コレスポンダ |
Country Status (4)
Country | Link |
---|---|
US (1) | US10097811B2 (ja) |
JP (3) | JP2013137760A (ja) |
CN (1) | CN103208112B (ja) |
DE (1) | DE102012223047B4 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9582864B2 (en) * | 2014-01-10 | 2017-02-28 | Perkinelmer Cellular Technologies Germany Gmbh | Method and system for image correction using a quasiperiodic grid |
GB2532077B (en) * | 2014-11-10 | 2017-11-22 | Vision Rt Ltd | Method of calibrating a patient monitoring system for use with a radiotherapy treatment apparatus |
JP7013144B2 (ja) * | 2016-10-12 | 2022-01-31 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP6766995B2 (ja) * | 2016-11-09 | 2020-10-14 | 株式会社ミツトヨ | 位相シフト干渉計 |
CN110969662B (zh) * | 2018-09-28 | 2023-09-26 | 杭州海康威视数字技术股份有限公司 | 鱼眼摄像机内参标定方法、装置、标定装置控制器和系统 |
CN112797900B (zh) * | 2021-04-07 | 2021-07-06 | 中科慧远视觉技术(北京)有限公司 | 多相机板材尺寸测量方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5724493A (en) * | 1994-12-13 | 1998-03-03 | Nippon Telegraph & Telephone Corporation | Method and apparatus for extracting 3D information of feature points |
US6975764B1 (en) | 1997-11-26 | 2005-12-13 | Cognex Technology And Investment Corporation | Fast high-accuracy multi-dimensional pattern inspection |
US7016539B1 (en) | 1998-07-13 | 2006-03-21 | Cognex Corporation | Method for fast, robust, multi-dimensional pattern recognition |
US6798925B1 (en) | 2000-12-22 | 2004-09-28 | Cognex Corporation | Method and apparatus for calibrating an image acquisition system |
US8111904B2 (en) * | 2005-10-07 | 2012-02-07 | Cognex Technology And Investment Corp. | Methods and apparatus for practical 3D vision system |
US20090010507A1 (en) * | 2007-07-02 | 2009-01-08 | Zheng Jason Geng | System and method for generating a 3d model of anatomical structure using a plurality of 2d images |
US8442304B2 (en) * | 2008-12-29 | 2013-05-14 | Cognex Corporation | System and method for three-dimensional alignment of objects using machine vision |
US11699247B2 (en) * | 2009-12-24 | 2023-07-11 | Cognex Corporation | System and method for runtime determination of camera miscalibration |
JP5024410B2 (ja) * | 2010-03-29 | 2012-09-12 | カシオ計算機株式会社 | 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム |
JP5346863B2 (ja) * | 2010-03-30 | 2013-11-20 | 大日本スクリーン製造株式会社 | 3次元位置・姿勢認識装置およびそれを用いたシステム、方法、プログラム |
US8811719B2 (en) * | 2011-04-29 | 2014-08-19 | Microsoft Corporation | Inferring spatial object descriptions from spatial gestures |
US8432435B2 (en) * | 2011-08-10 | 2013-04-30 | Seiko Epson Corporation | Ray image modeling for fast catadioptric light field rendering |
-
2012
- 2012-12-13 DE DE102012223047.5A patent/DE102012223047B4/de active Active
- 2012-12-13 JP JP2012272770A patent/JP2013137760A/ja active Pending
- 2012-12-14 US US13/714,524 patent/US10097811B2/en active Active
- 2012-12-17 CN CN201210549589.1A patent/CN103208112B/zh active Active
-
2014
- 2014-12-15 JP JP2014252695A patent/JP2015072715A/ja not_active Withdrawn
-
2017
- 2017-12-18 JP JP2017241440A patent/JP2018092636A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
CN103208112A (zh) | 2013-07-17 |
DE102012223047B4 (de) | 2015-09-10 |
JP2013137760A (ja) | 2013-07-11 |
JP2018092636A (ja) | 2018-06-14 |
CN103208112B (zh) | 2017-09-15 |
US10097811B2 (en) | 2018-10-09 |
DE102012223047A1 (de) | 2013-07-11 |
US20130155199A1 (en) | 2013-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018092636A (ja) | 複数のカメラに対する複数部品コレスポンダ | |
Zubizarreta et al. | A framework for augmented reality guidance in industry | |
JP6349418B2 (ja) | 高精度単眼移動によるオブジェクト位置特定 | |
US11847796B2 (en) | Calibrating cameras using human skeleton | |
US20160283792A1 (en) | Information processing apparatus, information processing method, and storage medium | |
Olesen et al. | Real-time extraction of surface patches with associated uncertainties by means of kinect cameras | |
JP2019153290A (ja) | ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法 | |
JP6601613B2 (ja) | 位置推定方法、位置推定装置及び位置推定プログラム | |
Mörwald et al. | Advances in real-time object tracking: Extensions for robust object tracking with a Monte Carlo particle filter | |
Kawanishi et al. | Parallel line-based structure from motion by using omnidirectional camera in textureless scene | |
Bae et al. | Fast and scalable 3D cyber-physical modeling for high-precision mobile augmented reality systems | |
Lee et al. | Robust multithreaded object tracker through occlusions for spatial augmented reality | |
Guerra et al. | Detection and positioning of pipes and columns with autonomous multicopter drones | |
Kim et al. | Pose initialization method of mixed reality system for inspection using convolutional neural network | |
Garcke et al. | Alignment of highly resolved time-dependent experimental and simulated crash test data | |
EP4239580A1 (en) | Measurement system | |
US9477890B2 (en) | Object detection using limited learned attribute ranges | |
Dalbah et al. | Visual odometry with high resolution time-of-flight cameras | |
Vokhmintsev et al. | Development of a method for constructing a 3D accurate map of the surrounding environment | |
Jiahao et al. | EO-SLAM: Evolutionary Object Slam in Perceptual Constrained Scene | |
Seo et al. | Improved numerical inverse kinematics for human pose estimation | |
Kaminski | Data association for object-based SLAM | |
Zhang et al. | Social distance control for quadruped robots in a gated spike filter neural network framework | |
Swaminathan | Analysis of Fisheye Stereo Camera based Visual SLAM for indoor environment | |
Martinsson | Implementation and Evaluation of Monocular SLAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151211 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170206 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20170502 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20170703 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170818 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20180207 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20180227 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20180302 |