JP6571225B2 - カメラ姿勢推定方法およびシステム - Google Patents
カメラ姿勢推定方法およびシステム Download PDFInfo
- Publication number
- JP6571225B2 JP6571225B2 JP2018024896A JP2018024896A JP6571225B2 JP 6571225 B2 JP6571225 B2 JP 6571225B2 JP 2018024896 A JP2018024896 A JP 2018024896A JP 2018024896 A JP2018024896 A JP 2018024896A JP 6571225 B2 JP6571225 B2 JP 6571225B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- features
- scale
- image
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
この方法は、
第1の位置で捕捉された第1の画像と第2の位置で捕捉された第2の画像とから特徴を抽出することと、抽出された特徴は、場所、スケール情報、および記述子を備える、記述子は、第1の画像からの特徴を第2の画像からの特徴にマッチングさせることができる情報を備える、
一致した特徴を生成するために第1の画像と第2の画像との間で特徴をマッチングさせることと、
一致した特徴の深度比をスケール情報から決定することと、ここにおいて、深度比は、第1の位置からの一致した特徴の深度と第2の位置からの一致した特徴の深度の比である、
n個の一致した特徴を選択することと、ここで、一致した特徴のうちの少なくとも1つが深度比と場所の両方により選択される、
スケール情報から導出された深度比をもつ選択された一致した特徴を使用して、第1のカメラ姿勢と第2のカメラ姿勢との間の平行移動および回転を計算することとを備える。
モデルパラメータを最良モデルの最良モデルパラメータとして設定することと、
最良モデルの適合度を評価することと、
新しいモデルを生成するために、n個の一致した特徴の新しいセットを選択し、新しいモデルパラメータを計算することと、
新しいモデルの適合度を評価することと、
新しいモデルの適合度が最良モデルの適合度よりも良好である場合新しいモデルパラメータで最良モデルパラメータを更新することと、
新しいモデルを生成するために、n個の一致した特徴の新しいセットを選択すること、新しいモデルの適合度を評価すること、および新しいモデルの適合度が最良モデルの適合度よりも良好である場合新しいモデルパラメータで最良モデルパラメータを更新することのプロセスを、停止基準が達せられるまで連続的に繰り返すことと
を備えることができる。
ここにおいて、モデルの適合度を評価することが、特徴から得られた深度比、正の誤差値をもつ深度比、および負の誤差値をもつ深度比に対するモデルの適合度を評価することを備え、
この方法は、
特徴から得られた深度比、正の誤差値をもつ深度比、および負の誤差値をもつ深度比から選択された3つの値のうちのどれが最良の適合度を生成したかに応じて、これらの3つの値のうちの1つにより深度比を更新することと、
新しい誤差値を設定することと、新しい誤差値が現在の誤差値を2で割ったものである、
新しい誤差値を使用してモデルの適合度を評価することと
をさらに備える。
1.スケールおよび対応の場所による相対姿勢推定
a.SLAM(simultaneous localization and mapping)
b.3Dモデル発生
2.信号入力に対するオドメトリ推定
a.単眼カメラからのスケール比
b.ステレオカメラまたはRGB−Dカメラからの深度比
3.自動運転+ドライバ支援システム
a.車両の軌跡の高速推定
b.車両の3D位置および3D方位の推定
のために使用され得る。
移動カメラを使用して物体の複数の画像を捕捉することと、
物体の点群を発生することと、点群はカメラの姿勢を使用して三角測量から決定される、
を備え、
ここにおいて、カメラの姿勢は上述の方法によって推定される。
この装置はプロセッサを備え、プロセッサは、
第1の位置で捕捉された第1の画像と第2の位置で捕捉された第2の画像とから特徴を抽出し、抽出された特徴は、場所、スケール情報、および記述子を備える、記述子は、第1の画像からの特徴を第2の画像からの特徴にマッチングさせることができる情報を備える、
一致した特徴を生成するために第1の画像と第2の画像との間の特徴をマッチングさせ、
一致した特徴の深度比をスケール情報から決定し、ここにおいて、深度比は、第1の位置からの一致した特徴の深度と第2の位置からの一致した特徴の深度の比である、
n個の一致した特徴を選択し、ここで、一致した特徴のうちの少なくとも1つが深度比と場所の両方により選択される、
スケール情報から導出された深度比をもつ選択された一致した特徴を使用して、第1のカメラ姿勢と第2のカメラ姿勢との間の平行移動および回転を計算する
ように構成される。
残念ながら、スケールの推定は、安定性が低く、スケール空間ピラミッドで使用されるステップサイズに依存する。例えば、SIFTにおいて、スケールは、最初に、ベーススケールσ0=1.6およびステップサイズσs=1を用いて
2:repeat
3: 1+3:
{2+1点アルゴリズムの場合:
4: スケール変動を初期化する
6: 1+3:スケールsa、sa±εをもつ選択されたタプルに対してRj、tjを見つけ出す
{2+1アルゴリズムの場合:スケールsa、sa±ε、sb、sb±εをもつ選択されたタプルに対してRj、tjを見つけ出す}
7: for all Rj, tj do
8: 1+3:インライアレートrsおよびrlを計算する、および
{2+1アルゴリズムの場合:インライアレートrsおよびrlを計算する、および
9: if
10: 最良の結果
11: end if
12: end for
13: if
14: ブレーク
15: end if
16: 1+3:最良のスケールを選択する、およびsaを更新する、および
17: end while
18: k=k+1
19:until k≧K
2)現在のjに対してRjおよびtjが存在するか?
a.Yes:続ける
b.No:5に行く
3)インライア比を計算する
4)最低の現在のインライアレートか?
a.No:j+1、および2に行く
b.Yes:今のところsaを最良のスケールとしてセーブする(レート、解などを記憶する)、および4.aを行う
5)sa+eに対してRjおよびtjを計算する(j=0に設定する)
6)現在のjに対してRjおよびtjが存在するか?
a.Yes:続ける
b.No:9に行く
7)インライア比を計算する
8)最低の現在のインライアレートか?
a.No:j+1、および6に行く
b.Yes:今のところs_a+eを最良のスケールとしてセーブする(インライアレート、解などを記憶する)、および8.aを行う
9)sa−eに対してRjおよびtjを計算する(j=0に設定する)
10)現在のjに対してRjおよびtjが存在するか?
a.Yes:続ける
b.No:14に行く
11)インライア比を計算する
12)最低の現在のインライアレートか?
a.No:j+1、および10に行く
b.Yes:今のところs_a−eを最良のスケールとしてセーブする(レート、解などを記憶する)、および12.aを行う
13)e<閾値か?
a.No:最良のスケールとなるようにs_aを更新し、半分のe、および5からループする
b.Yes:続ける
14)最低の総合インライアレートか?
a.Yes:記憶されたレートおよび解から結果および停止基準を更新する
b.No:続ける
15)S165
1.スケール(または深度)比を相対姿勢に関連づける幾何学的観察を導出する。
Claims (19)
- 第1のカメラ姿勢と第2のカメラ姿勢との間の平行移動および回転を決定するためのカメラ姿勢推定方法であって、
第1の位置で捕捉された第1の画像と第2の位置で捕捉された第2の画像とから特徴を抽出することと、ここにおいて、前記抽出された特徴が、場所、スケール情報、および記述子を備え、前記記述子が、前記第1の画像からの特徴を前記第2の画像からの特徴にマッチングさせることができる情報を備える、
前記第1の画像と前記第2の画像との間で特徴をマッチングさせ、一致した特徴を生成することと、
一致した特徴の深度比を前記スケール情報から決定することと、ここにおいて、前記深度比が、前記第2の位置からの一致した特徴の深度に対する前記第1の位置からの一致した特徴の深度の比である、
n個の一致した特徴を選択することと、ここにおいて、前記一致した特徴のうちの少なくとも1つが前記深度比および前記場所の両方により選択される、
前記スケール情報から導出された前記深度比をもつ前記選択された一致した特徴を使用して、前記第1のカメラ姿勢と前記第2のカメラ姿勢との間の前記平行移動および前記回転を計算することと
を備える、方法。 - 前記一致した特徴を選択することが、n個の一致した特徴を選択することを備え、ここにおいて、nは4以下の整数であり、前記n個の一致した特徴のうちのm個が、前記深度比と前記場所の両方により選択され、p個の特徴が、前記深度比ではなく場所情報により選択され、mおよびpは、関係式2m+p=5を満たす整数である、請求項1に記載の方法。
- m=1およびp=3である、請求項2に記載の方法。
- m=2およびp=1である、請求項2に記載の方法。
- 前記深度比に関連する情報が、スケール比から導出される、請求項1に記載の方法。
- ロバスト推定器を使用してモデルを改良することをさらに備える、ここにおいて、モデルパラメータが、前記第1の位置と前記第2の位置との間の前記計算された平行移動および回転である、請求項1に記載の方法。
- 前記ロバスト推定器を使用することが、
前記モデルパラメータを最良モデルの最良モデルパラメータとして設定することと、
前記最良モデルの適合度を評価することと、
n個の一致した特徴の新しいセットを選択し、新しいモデルパラメータを計算して、新しいモデルを生成することと、
前記新しいモデルの適合度を評価することと、
前記新しいモデルの前記適合度が前記最良モデルの前記適合度よりも良好である場合に、前記新しいモデルパラメータで前記最良モデルパラメータを更新することと、
n個の一致した特徴の新しいセットを選択して新しいモデルを生成することと、前記新しいモデルの前記適合度を評価することと、前記新しいモデルの前記適合度が前記最良モデルの前記適合度よりも良好である場合に、前記新しいモデルパラメータで前記最良モデルパラメータを更新することとのプロセスを、停止基準が達せられるまで連続的に繰り返すことと
を備える、
請求項6に記載の方法。 - 前記適合度が、インライアの数を計算することによって評価される、請求項7に記載の方法。
- 前記一致した特徴の深度比に関連する前記情報に誤差があることが仮定され、
前記モデルの前記適合度を評価することが、前記特徴から得られた前記深度比、正の誤差値をもつ前記深度比、および負の誤差値をもつ前記深度比に対する前記モデルの前記適合度を評価することを備え、
前記方法が、
前記特徴から得られた前記深度比、正の誤差値をもつ前記深度比、および負の誤差値をもつ前記深度比から選択された3つの値のうちのどれが最良の適合度を生じたかに依存して、前記3つの値のうちの1つにより前記深度比を更新することと、
新しい誤差値を設定することと、ここにおいて、前記新しい誤差値が現在の誤差値を2で割ったものである、
前記新しい誤差値を使用して前記モデルの前記適合度を評価することと
をさらに備える、
請求項7に記載の方法。 - 前記インライアの数が、深度と場所の両方に対して計算される、請求項8に記載の方法。
- より良好なモデルを見つけ出す可能性が閾値を下回るとき、前記停止基準が設定される、請求項7に記載の方法。
- 前記第1の画像が第1のカメラによって捕捉され、前記第2の画像が第2のカメラによって捕捉され、前記第1のカメラと前記第2のカメラとが異なる、請求項1に記載の方法。
- 前記第1の画像および前記第2の画像がビデオカメラによって捕捉される、請求項1に記載の方法。
- 前記ビデオカメラが移動車両に備えられる、請求項13に記載の方法。
- 前記車両の軌跡が、前記第1のカメラ姿勢と前記第2のカメラ姿勢との間の前記計算された平行移動および回転から決定される、請求項14に記載の方法。
- ビデオカメラを使用してSLAM(simultaneous localization and mapping)を実行する方法であって、前記ビデオカメラの姿勢が請求項1に記載の方法を使用して推定される、方法。
- 物体の3Dモデルを決定する方法であって、
移動カメラを使用して前記物体の複数の画像を捕捉することと、
前記物体の点群を発生することと、ここにおいて、前記点群が前記カメラの姿勢を使用して三角測量から決定される、
を備え、
前記カメラの前記姿勢が、請求項1に記載の前記方法によって推定される、方法。 - 第1のカメラ姿勢と第2のカメラ姿勢との間の平行移動および回転を決定するためのカメラ姿勢推定装置であって、
前記装置がプロセッサを備え、前記プロセッサが、
第1の位置で捕捉された第1の画像と第2の位置で捕捉された第2の画像とから特徴を抽出し、ここにおいて、前記抽出された特徴が、場所、スケール情報、および記述子を備え、前記記述子が、前記第1の画像からの特徴を前記第2の画像からの特徴にマッチングさせることができる情報を備える、
前記第1の画像と前記第2の画像との間の特徴をマッチングさせ、一致した特徴を生成し、
前記一致した特徴の深度比を前記スケール情報から決定し、ここにおいて、前記深度比が、前記第2の位置からの一致した特徴の深度に対する前記第1の位置からの一致した特徴の深度の比である、
n個の一致した特徴を選択し、ここで、前記一致した特徴のうちの少なくとも1つが前記深度比と前記場所の両方により選択される、
前記スケール情報から導出された深度比をもつ前記選択された一致した特徴を使用して、前記第1のカメラ姿勢と前記第2のカメラ姿勢との間の前記平行移動および前記回転を計算する
ように構成される、
カメラ姿勢推定装置。 - 請求項1に記載の前記方法をコンピュータに実行させるように構成されたコンピュータ可読コードを備える非一時的記録媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/653,158 US10460471B2 (en) | 2017-07-18 | 2017-07-18 | Camera pose estimating method and system |
US15/653,158 | 2017-07-18 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019021291A JP2019021291A (ja) | 2019-02-07 |
JP6571225B2 true JP6571225B2 (ja) | 2019-09-04 |
Family
ID=65022999
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018024896A Active JP6571225B2 (ja) | 2017-07-18 | 2018-02-15 | カメラ姿勢推定方法およびシステム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10460471B2 (ja) |
JP (1) | JP6571225B2 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11080890B2 (en) * | 2017-07-28 | 2021-08-03 | Qualcomm Incorporated | Image sensor initialization in a robotic vehicle |
US10831188B2 (en) | 2017-11-07 | 2020-11-10 | Zoox, Inc. | Redundant pose generation system |
CN109993113B (zh) * | 2019-03-29 | 2023-05-02 | 东北大学 | 一种基于rgb-d和imu信息融合的位姿估计方法 |
WO2021026705A1 (zh) * | 2019-08-09 | 2021-02-18 | 华为技术有限公司 | 匹配关系确定方法、重投影误差计算方法及相关装置 |
CN110570474B (zh) * | 2019-09-16 | 2022-06-10 | 北京华捷艾米科技有限公司 | 一种深度相机的位姿估计方法及系统 |
CN111476842B (zh) * | 2020-04-10 | 2023-06-20 | 中国人民解放军国防科技大学 | 一种像机相对位姿估计方法及系统 |
CN112907662B (zh) * | 2021-01-28 | 2022-11-04 | 北京三快在线科技有限公司 | 特征提取方法、装置、电子设备及存储介质 |
WO2023085997A1 (en) * | 2021-11-09 | 2023-05-19 | Saab Ab | A method, software product and system for gnss denied navigation |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6504569B1 (en) * | 1998-04-22 | 2003-01-07 | Grass Valley (U.S.), Inc. | 2-D extended image generation from 3-D data extracted from a video sequence |
US9179047B2 (en) * | 2011-06-13 | 2015-11-03 | University Of Florida Research Foundation, Inc. | Systems and methods for estimating the structure and motion of an object |
US8831290B2 (en) | 2012-08-01 | 2014-09-09 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for determining poses of vehicle-mounted cameras for in-road obstacle detection |
CN104933755B (zh) * | 2014-03-18 | 2017-11-28 | 华为技术有限公司 | 一种静态物体重建方法和系统 |
US9969337B2 (en) * | 2014-09-03 | 2018-05-15 | Sharp Laboratories Of America, Inc. | Methods and systems for mobile-agent navigation |
US10295365B2 (en) * | 2016-07-29 | 2019-05-21 | Carnegie Mellon University | State estimation for aerial vehicles using multi-sensor fusion |
-
2017
- 2017-07-18 US US15/653,158 patent/US10460471B2/en active Active
-
2018
- 2018-02-15 JP JP2018024896A patent/JP6571225B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019021291A (ja) | 2019-02-07 |
US20190026916A1 (en) | 2019-01-24 |
US10460471B2 (en) | 2019-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6571225B2 (ja) | カメラ姿勢推定方法およびシステム | |
US10225473B2 (en) | Threshold determination in a RANSAC algorithm | |
US8953847B2 (en) | Method and apparatus for solving position and orientation from correlated point features in images | |
US8411966B2 (en) | Estimation of image relations from point correspondences between images | |
Wells III | Statistical approaches to feature-based object recognition | |
WO2015135323A1 (zh) | 一种摄像机跟踪方法及装置 | |
JP2016128810A (ja) | 奥行きカメラを校正する方法 | |
CN109842811B (zh) | 一种在视频中植入推送信息的方法、装置及电子设备 | |
US20130208009A1 (en) | Method and apparatus for optimization and incremental improvement of a fundamental matrix | |
EP3012779A1 (en) | Method and apparatus for extracting feature correspondences from multiple images | |
Albl et al. | Rolling shutter camera absolute pose | |
CN112541950A (zh) | 一种深度相机外参的标定方法、及装置 | |
JP6359985B2 (ja) | デプス推定モデル生成装置及びデプス推定装置 | |
Lee et al. | Robust uncertainty-aware multiview triangulation | |
CN109902695B (zh) | 一种面向像对直线特征匹配的线特征矫正与提纯方法 | |
Dang et al. | Stereo calibration in vehicles | |
CN105931231A (zh) | 一种基于全连接随机场联合能量最小化的立体匹配方法 | |
US11790606B2 (en) | Determining camera rotations based on known translations | |
Wang et al. | Robustifying relative orientations with respect to repetitive structures and very short baselines for global SfM | |
Hess-Flores et al. | Ray divergence-based bundle adjustment conditioning for multi-view stereo | |
Rastgar | Robust self-calibration and fundamental matrix estimation in 3D computer vision | |
Komorowski et al. | Extrinsic camera calibration method and its performance evaluation | |
CN115147619B (zh) | 一种优化图像添加次序的增量式运动恢复结构方法 | |
Papachristou et al. | A method for the evaluation of projective geometric consistency in weakly calibrated stereo with application to point matching | |
Mijakovska et al. | Overview of the process of 3D modelling from video |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180223 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190416 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190516 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190709 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190807 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6571225 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |