JP2015518211A - 立体補正方法 - Google Patents
立体補正方法 Download PDFInfo
- Publication number
- JP2015518211A JP2015518211A JP2015505707A JP2015505707A JP2015518211A JP 2015518211 A JP2015518211 A JP 2015518211A JP 2015505707 A JP2015505707 A JP 2015505707A JP 2015505707 A JP2015505707 A JP 2015505707A JP 2015518211 A JP2015518211 A JP 2015518211A
- Authority
- JP
- Japan
- Prior art keywords
- image
- epipole
- camera
- virtual
- pair
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 73
- 238000012937 correction Methods 0.000 title claims description 33
- 239000013598 vector Substances 0.000 claims abstract description 42
- 230000009466 transformation Effects 0.000 claims description 18
- 239000007787 solid Substances 0.000 claims description 14
- 238000000844 transformation Methods 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 11
- 238000004519 manufacturing process Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 description 43
- 239000011159 matrix material Substances 0.000 description 19
- 230000033001 locomotion Effects 0.000 description 12
- 230000009471 action Effects 0.000 description 6
- 238000002474 experimental method Methods 0.000 description 6
- 230000006872 improvement Effects 0.000 description 6
- 238000005259 measurement Methods 0.000 description 5
- 238000010606 normalization Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000000875 corresponding effect Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- 239000013256 coordination polymer Substances 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 229930091051 Arenine Natural products 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000001808 coupling effect Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000012883 sequential measurement Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Geometry (AREA)
- Studio Devices (AREA)
Abstract
Description
ことが認識されるだろう。
図10の方法は、それがオーダ(n)からなる特性を有する。ここで、nは、観察されたフィーチャの数である。これは、シーンから抽出されトラックされたフィーチャの数に対して計算負荷が線形比例的に増加することを意味する。したがって、フィーチャの数を10から100に増加させることは、単に処理負荷を10倍増加させる。
Claims (23)
- 画像のペアを立体補正する方法であって、
前記画像のペアにおける各画像について、前記画像をキャプチャするカメラの、第1のカメラ方位に関連付けられた画像面におけるエピポールの位置を決定することと、
前記画像のペアにおける各画像について、前記カメラの第2のカメラ方位に関連付けられた仮想画像面の中心におけるエピポールを位置決めすることと、
前記位置決めの後、前記画像のペアのエピポールと交差する立体ベースラインの周囲に回転させることによって、前記画像のペアを互いに揃えることと、
画像面の立体補正されたペアを取得できるように、前記立体ベースラインに実質的に平行な仮想画像面と、互いに実質的に平行な法線ベクトルとを位置決めするために、前記仮想画像面を回転することと、
を備える方法。 - 前記画像のペアは、異なるカメラによってキャプチャされる、請求項1に記載の方法。
- 前記画像のペアは、移動しているカメラによってキャプチャされる、請求項1に記載の方法。
- 前記仮想画像面の中心におけるエピポールを位置決めした後、前記画像のペアの仮想画像面は互いに実質的に平行である、請求項1に記載の方法。
- 前記揃えることは、
それぞれの仮想画像面における両画像に共通している基準画像フィーチャを選択することと、
前記画像のペアのうちの1つの画像の仮想面における基準画像フィーチャの位置が、前記画像のペアのうちの他方の画像の仮想面における基準画像フィーチャの位置と一致するように、前記立体ベースラインの周囲の各仮想画像面を位置決めすることと
を備える、請求項1に記載の方法。 - 前記基準画像フィーチャは、実際の水平に最も近い、前記画像内の物体である、請求項5に記載の方法。
- 各画像について、
先ず、前記エピポールを位置決めするために、カメラ中心を中心とする座標系の第1の軸に沿って、前記画像面を回転させ、
次に、前記エピポールを位置決めするために、前記座標系の第2の軸に沿って、前記画像面を回転させ、前記仮想面の中心におけるエピポールの位置決めを行うことによって、
前記仮想画像面が取得される、請求項1に記載の方法。 - 前記立体ベースラインに実質的に平行な仮想画像面を位置決めするために、前記仮想画像面を回転させた後、前記仮想画像面のおのおのが、第3のカメラ方位に関連付けられる、請求項1に記載の方法。
- 前記エピポールの位置を決定することは、
各画像の推定されたエピポール位置を用いて、4次元空間における面を形成する関数を決定することと、ここで、前記4次元空間は、各画像のエピポール位置の誤差によってパラメータ化される、
前記関数の最小値を決定することと
を備える、請求項1に記載の方法。 - 前記関数の最小値を決定することは、前記関数の4次元勾配下降を実行することを備える、請求項7に記載の方法。
- 前記4次元空間のパラメータは、各画像のエピポール位置のx誤差およびy誤差である、請求項2に記載の方法。
- 画像のペアを立体補正するための方法を実行するためのマシン実行可能な命令群を用いてエンコードされた物理的な非一時的なコンピュータ読取可能な媒体を備える製造物品であって、前記方法は、
前記画像のペアにおける各画像について、前記画像をキャプチャするカメラの、第1のカメラ方位に関連付けられた画像面におけるエピポールの位置を決定することと、
前記画像のペアにおける各画像について、前記カメラの第2のカメラ方位に関連付けられた仮想画像面の中心におけるエピポールを位置決めすることと、
前記位置決めの後、前記画像のペアのエピポールと交差する立体ベースラインの周囲に回転させることによって、前記画像のペアを互いに揃えることと、
画像面の立体補正されたペアを取得できるように、前記立体ベースラインに実質的に平行な仮想画像面と、互いに実質的に平行な法線ベクトルとを位置決めするために、前記仮想画像面を回転することと
を備える、製造物品。 - 前記画像のペアは、異なるカメラによってキャプチャされる、請求項12に記載の製造物品。
- 前記画像のペアは、移動しているカメラによってキャプチャされる、請求項12に記載の製造物品。
- 前記仮想画像面の中心におけるエピポールが位置決めされた後、前記画像のペアの仮想画像面は、実質的に互いに平行である、請求項12に記載の製造物品。
- 前記揃えることは、
それぞれの仮想画像面における両画像に共通している基準画像フィーチャを選択することと、
前記画像のペアのうちの1つの画像の仮想面における基準画像フィーチャの位置が、前記画像のペアのうちの他方の画像の仮想面における基準画像フィーチャの位置と一致するように、前記立体ベースラインの周囲の各仮想画像面を位置決めすることと
を備える、請求項12に記載の製造物品。 - 前記基準画像フィーチャは、実際の水平に最も近い、前記画像内の物体である、請求項16に記載の製造物品。
- 各画像について、
先ず、前記エピポールを位置決めするために、カメラ中心を中心とする座標系の第1の軸に沿って、前記画像面を回転させ、
次に、前記エピポールを位置決めするために、前記座標系の第2の軸に沿って、前記画像面を回転させ、前記仮想面の中心におけるエピポールの位置決めを行うことによって、
前記仮想画像面が取得される、請求項12に記載の製造物品。 - 前記立体ベースラインに実質的に平行な仮想画像面を位置決めするために、前記仮想画像面を回転させた後、前記仮想画像面のおのおのが、第3のカメラ方位に関連付けられる、請求項12に記載の製造物品。
- 前記エピポールの位置を決定することは、
各画像の推定されたエピポール位置を用いて、4次元空間における面を形成する関数を決定することと、ここで、前記4次元空間は、各画像のエピポール位置の誤差によってパラメータ化される、
前記関数の最小値を決定することと
を備える、請求項12に記載の製造物品。 - 前記関数の最小値を決定することは、前記関数の4次元勾配下降を実行することを備える、請求項19に記載の製造物品。
- 前記4次元空間のパラメータは、各画像のエピポール位置のx誤差およびy誤差である、請求項19に記載の製造物品。
- 画像のペアを処理する方法であって、
前記画像のペアにおける各画像について、前記画像をキャプチャするカメラの、第1のカメラ方位に関連付けられた画像面におけるエピポールの位置を決定することによって、前記画像のペアを立体補正することと、
前記画像のペアにおける各画像について、前記カメラの第2のカメラ方位に関連付けられた仮想画像面の中心におけるエピポールを位置決めすることと、
前記位置決めの後、前記画像のペアのエピポールと交差する立体ベースラインの周囲に回転させることによって、前記画像のペアを互いに揃えることと、
画像面の立体補正されたペアを取得できるように、前記立体ベースラインに実質的に平行な仮想画像面と、互いに実質的に平行な法線ベクトルとを位置決めするために、前記仮想画像面を回転することと
によって前記画像のペアを立体補正することと、
前記画像のペアの各画像について、画像全体を立体補正された画像面にマップするために、前記画像において1または複数のホモグラフィックな変換を実行することと、
を備える方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/445,454 US9019350B2 (en) | 2012-04-12 | 2012-04-12 | Stereo rectification method |
US13/445,454 | 2012-04-12 | ||
PCT/US2013/025789 WO2013154668A1 (en) | 2012-04-12 | 2013-02-12 | Stereo rectification method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015518211A true JP2015518211A (ja) | 2015-06-25 |
JP5917767B2 JP5917767B2 (ja) | 2016-05-18 |
Family
ID=47843383
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015505707A Active JP5917767B2 (ja) | 2012-04-12 | 2013-02-12 | 立体補正方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9019350B2 (ja) |
EP (1) | EP2839431B1 (ja) |
JP (1) | JP5917767B2 (ja) |
WO (1) | WO2013154668A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102482186B1 (ko) | 2013-04-08 | 2022-12-29 | 스냅 아이엔씨 | 멀티-카메라 장치를 사용하는 거리 추정 |
JP6156126B2 (ja) * | 2013-12-19 | 2017-07-05 | 富士通株式会社 | 検索方法、検索プログラムおよび検索装置 |
US9501826B2 (en) | 2014-05-06 | 2016-11-22 | Intel Corporation | Rectification techniques for heterogeneous camera arrays |
US9846974B2 (en) * | 2014-12-05 | 2017-12-19 | Stmicroelectronics S.R.L. | Absolute rotation estimation including outlier detection via low-rank and sparse matrix decomposition |
US10002435B2 (en) * | 2016-01-29 | 2018-06-19 | Google Llc | Detecting motion in images |
US10371784B2 (en) | 2016-06-03 | 2019-08-06 | Raytheon Company | System and method for multi-sensor multi-target 3D fusion using an unbiased measurement space |
US11882262B2 (en) * | 2021-11-08 | 2024-01-23 | Foresight Automotive Ltd. | System and method for stereoscopic image analysis |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6606404B1 (en) * | 1999-06-19 | 2003-08-12 | Microsoft Corporation | System and method for computing rectifying homographies for stereo vision processing of three dimensional objects |
JP2010220177A (ja) * | 2009-03-19 | 2010-09-30 | Asahi Kasei Corp | ステレオ画像処理装置、ステレオ画像処理方法及びステレオ画像処理プログラム |
US20100329543A1 (en) * | 2008-03-03 | 2010-12-30 | Huawei Technologies Co., Ltd. | Method and system for rectifying images |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7142726B2 (en) | 2003-03-19 | 2006-11-28 | Mitsubishi Electric Research Labs, Inc. | Three-dimensional scene reconstruction from labeled two-dimensional images |
KR100850931B1 (ko) | 2006-06-29 | 2008-08-07 | 성균관대학교산학협력단 | 실시간 스테레오 영상 교정 시스템 및 방법 |
US8593524B2 (en) * | 2006-12-18 | 2013-11-26 | Koninklijke Philips N.V. | Calibrating a camera system |
US8610708B2 (en) * | 2010-09-22 | 2013-12-17 | Raytheon Company | Method and apparatus for three-dimensional image reconstruction |
-
2012
- 2012-04-12 US US13/445,454 patent/US9019350B2/en active Active
-
2013
- 2013-02-12 WO PCT/US2013/025789 patent/WO2013154668A1/en active Application Filing
- 2013-02-12 EP EP13708266.5A patent/EP2839431B1/en active Active
- 2013-02-12 JP JP2015505707A patent/JP5917767B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6606404B1 (en) * | 1999-06-19 | 2003-08-12 | Microsoft Corporation | System and method for computing rectifying homographies for stereo vision processing of three dimensional objects |
US20100329543A1 (en) * | 2008-03-03 | 2010-12-30 | Huawei Technologies Co., Ltd. | Method and system for rectifying images |
JP2010220177A (ja) * | 2009-03-19 | 2010-09-30 | Asahi Kasei Corp | ステレオ画像処理装置、ステレオ画像処理方法及びステレオ画像処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
EP2839431B1 (en) | 2016-04-06 |
WO2013154668A1 (en) | 2013-10-17 |
JP5917767B2 (ja) | 2016-05-18 |
EP2839431A1 (en) | 2015-02-25 |
US20130271578A1 (en) | 2013-10-17 |
US9019350B2 (en) | 2015-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5917767B2 (ja) | 立体補正方法 | |
JP6001776B2 (ja) | 固定されていないカメラによる点群構築 | |
CN110296691B (zh) | 融合imu标定的双目立体视觉测量方法与系统 | |
JP5946924B2 (ja) | シーン構造ベース自己姿勢推定 | |
Elqursh et al. | Line-based relative pose estimation | |
JP5362189B2 (ja) | 画像処理装置及びその処理方法 | |
JP5992184B2 (ja) | 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム | |
US20190012804A1 (en) | Methods and apparatuses for panoramic image processing | |
US20150116691A1 (en) | Indoor surveying apparatus and method | |
US20090153669A1 (en) | Method and system for calibrating camera with rectification homography of imaged parallelogram | |
CN110033489A (zh) | 一种车辆定位准确性的评估方法、装置及设备 | |
JP2007323615A (ja) | 画像処理装置及びその処理方法 | |
Barczyk et al. | Towards realistic covariance estimation of ICP-based Kinect V1 scan matching: The 1D case | |
US8509522B2 (en) | Camera translation using rotation from device | |
Ji et al. | Self-calibration of a rotating camera with a translational offset | |
JP4809134B2 (ja) | 画像処理装置及びその処理方法 | |
US20180350216A1 (en) | Generating Representations of Interior Space | |
JP2007323616A (ja) | 画像処理装置及びその処理方法 | |
JP4778569B2 (ja) | ステレオ画像処理装置、ステレオ画像処理方法及びステレオ画像処理プログラム | |
Kurz et al. | Bundle adjustment for stereoscopic 3d | |
Pathak et al. | Distortion-robust spherical camera motion estimation via dense optical flow | |
CN114187344A (zh) | 一种地图构建方法、装置及设备 | |
Kim et al. | Pose initialization method of mixed reality system for inspection using convolutional neural network | |
JP2003209836A (ja) | 情報伝達システム及び情報表示システム及び情報伝達方法及び情報表示方法 | |
Masher | Accurately scaled 3-D scene reconstruction using a moving monocular camera and a single-point depth sensor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151015 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151020 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151203 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160308 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160406 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5917767 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |