JP6044005B2 - 部分的に既知の環境におけるカメラの位置特定および3d再構築を行う方法 - Google Patents
部分的に既知の環境におけるカメラの位置特定および3d再構築を行う方法 Download PDFInfo
- Publication number
- JP6044005B2 JP6044005B2 JP2014513155A JP2014513155A JP6044005B2 JP 6044005 B2 JP6044005 B2 JP 6044005B2 JP 2014513155 A JP2014513155 A JP 2014513155A JP 2014513155 A JP2014513155 A JP 2014513155A JP 6044005 B2 JP6044005 B2 JP 6044005B2
- Authority
- JP
- Japan
- Prior art keywords
- environment
- camera
- model
- reconstruction
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 83
- 230000004807 localization Effects 0.000 title claims description 25
- 238000005457 optimization Methods 0.000 claims description 39
- 238000004364 calculation method Methods 0.000 claims description 9
- 230000003068 static effect Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 description 18
- 230000036544 posture Effects 0.000 description 12
- 230000003190 augmentative effect Effects 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 7
- 230000033001 locomotion Effects 0.000 description 4
- 239000003550 marker Substances 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000036961 partial effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012423 maintenance Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20004—Adaptive image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
−数個の視点についてカメラの姿勢を推定するために既知の位置の符号化マーカーを物体の周辺に配置する。符号化マーカー(符号化目標とも称する)とは、画像内で容易に検出されて自身の符号により識別可能な既知のサイズの光学マーカーである。これらの視点の各々について、関心対象の点が画像から抽出されて周辺のテクスチャにより特徴付けられ、次いで、符号化目標によりこれらの視点の各々について既知であるカメラの視点からの単一の射影により物体上で当該関心対象の点に対応する3D点に直接関連付けられる。一例を、Juri Platonov、Hauke Heibel、Peter Meier、およびBert Grollmannによる論文「A mobile markerless AR system for maintenance and repair」(ISMAR,2006)に示されている。
−3D点のクラウドを、ビデオシーケンスのマッチする2D点により、且つSfM(「Structure from Motion(動きからの構造復元)」の略語)による再構築技術を用いて推定する。次いで、当該3D点のクラウドをオフライン且つ半自動的に物体の3Dモデルに再編成して、画像から抽出された記述子により補足された当該モデルに属する3D点を得る。当該方法の例を記述したP.Lothe、S.Bourgeois、F.Dekeyser、E.Royer、およびM.Dhomeの論文「Towards geographical referencing of monocular slam reconstruction using 3d city models:Application to real−time accurate vision−based localization」(CVPR,2009)を引用することができる。学習フェーズが実行されたならば、記述子の尤度基準を用いて、現在画像から抽出された2D点を当該物体の3D点に関連付けることにより、オンラインでの姿勢計算が実行される。
−a/環境内でのカメラの初期姿勢および初期再構築の計算、
−b/環境の3Dプリミティブと前記画像の2Dプリミティブとのマッチングによる各新規画像に対するカメラの姿勢の計算、および三角測量による環境の3Dプリミティブの再構築、
−c/複数の画像にわたり再射影誤差を最小化することによるカメラの姿勢および3Dプリミティブの同時最適化。
−事前学習フェーズを一切必要とせず、
−関心対象物体(既知の3Dモデルの)をカメラの軌道全体にわたりカメラの視野に収めておく必要がない、または換言すれば、各画像内で物体が見えている必要がなく、
−閉塞およびカメラ−被写体間の距離の大幅な変動に強靭であり、
−近似的初期姿勢を自然に精緻化することが可能になり、
−環境の3D再構築の正確性が向上し、
−テクスチャのある、またはテクスチャの無い物体に対して機能し、
−2個の連続的な姿勢の間で高度な安定性を保証し(例えば拡張現実アプリケーションに往々にして有害な震動が無い)、
−環境と物体を同時に再構築することが可能になり、震動および不正確さの影響が回避される。
−1種類の項は、モデルにより制約されるプリミティブの残余に紐付けられ、
−1種類の項は、モデルの外部環境のプリミティブの残余に紐付けられている。
c1,c2は強靭な推定子の拒否閾値、
ρは強靭な推定子関数であってρ(r,c)=r2/(r2+c2)、rはコスト関数の残余誤差、cは推定子の拒否閾値である。
−c1=cenvironmentおよびc2=cmodel、
−c1=c2=call、
−c1=c2=cmodel、
cmodelはモデルに基づく残余について推定された拒否閾値、
cenvironmentは環境の未知部分の残余について推定された拒否閾値、
callは全ての残余について推定された拒否閾値である。
−3D−3D関連付けフェーズ:再構築された3Dプリミティブ(3D点、3D区間)に平面またはモデルのエッジが関連付けられる。所与のプリミティブについて、モデルの制約が最適化フェーズにおいて関心対象プリミティブおよびカメラの軌道に適用される。当該制約は、自身が関連付けられたモデルの部分に応じて3Dプリミティブに割り当てられる自由度の個数に反映させることができる(例:再構築されたがモデルに関連付けられていない3D点は3個の自由度を有しているのに対し、再構築されてモデルの平面に関連付けられた3D点は自身が関連付けられた平面内でしか移動できないため2個の自由度を有している。再構築されたがモデルに関連付けられていない3D区間は少なくとも4個の自由度を有しているのに対し、再構築されてモデルの平面に関連付けられた3D区間は2個の自由度を有している。再構築されてモデルのエッジに関連付けられた3D区間は1個の自由度を有している)。
−3D−2D関連付けフェーズ:モデル(3D点、3D区間)から抽出された3Dプリミティブは画像へ再射影されて2Dプリミティブ(2D点、2D区間、2Dエッジ)に関連付けられる。制約は次いで、モデルから抽出された3D点または区間が0個の自由度を有しているという事実に反映される。これは、最適化フェーズにおけるカメラの軌跡を制約するためにのみ用いられる。
1.プリミティブの環境またはモデルとの関連付け
引用できるプリミティブの例は以下を含んでいる。
a.再構築された点のケース:各3D点Qi()の、関連付けられた平面πiへの射影であって、3D点に関連付けられた平面は、同じ3D点に関連付けられた2D観測により生じる最大光線により横断されている。
b.再構築された区間のケース:各3D区間の、自身に関連付けられた平面πiへの射影であって、3D区間に関連付けられた平面は、同じ3D区間に関連付けられた2D観測により生じる最大光線により横断されている。
c.モデルから抽出された3D点のケース:2D最適化に含まれる各キー画像内で視認可能な3D点の射影、およびこれらの画像内で検出された関心対象の点との2D関連付け。
d.モデルから抽出された3D区間のケース:2D最適化に含まれる各キー画像内で視認可能な3D区間の射影、およびこれらの画像のエッジとの2D関連付け。
2.推定子の拒否閾値の計算。
3.推定子の誤差εの最適化。
−3Dモデルにより制約される種類の項(群)を含む2目的関数、および未知環境のプリミティブのマルチビュー制約に用いる種類の項(群)、
−拒否閾値c1およびc2によりこれら2種類の項(群)同士の影響の適応的調整に依存する。
これは、平面に関するエピポーラ幾何学的形状の先の関係に等価である。平面πにより誘導される射影変換Hは次式の通りである。
−現実のシーンに、重ね合わされた仮想情報(カメラからのビデオストリーム、またはユーザーが半透明の眼鏡を用いる場合はユーザーの直接視認に基づく)を追加する拡張現実。拡張現実の概念はまた、先験的に視認できるものではない仮想要素を追加することにより、現実世界に対する知覚を向上させることを意図している。そのアプリケーションは多岐にわたり、ビデオゲーム、映画、テレビ(仮想スタジオ、スポーツの再転送等)、工業(概念、設計、保守、組立、ロボット工学等)、医療等、益々多くの分野に影響を及ぼしつつある。
−ロボット工学分野:視認(自律的ナビゲーション)によるロボットまたは特定の物体の操作を行うロボット化されたアームの誘導またはサーボ制御の関連。
−自動車産業:都市環境内でのナビゲーション支援の関連。
Claims (11)
- カメラの位置特定、および前記カメラが内部を移動して画像を形成する静的環境の3D再構築を行う方法であって、前記環境が、3Dモデルが既知の関心対象物体と、前記物体の外部の未知である環境とを含み、前記方法が、以下のステップ
−a/前記環境内での前記カメラの初期姿勢および初期再構築の計算、
−b/前記環境の3Dプリミティブと前記画像の2Dプリミティブとのマッチングによる各新規画像に対する前記カメラの姿勢の計算、および三角測量による前記環境の3Dプリミティブの再構築、
−c/複数の画像にわたり再射影誤差を最小化することによる前記カメラの姿勢および前記3Dプリミティブの同時最適化を含み、
前記3Dモデルが前記関心対象物体の幾何学的記述であること、前記再射影誤差が2種類の項、即ち前記3Dモデルにより制約されるプリミティブに紐付けられた第1の種類の項および前記物体以外の前記環境のプリミティブに紐付けられた第2の種類の項のみを含むこと、および前記最適化ステップがプリミティブを前記環境または前記3Dモデルに関連付けるサブステップ
を含むことを特徴とする方法。 - 前記最適化ステップが、拒否閾値を示す強靭な推定子を用いて、各種の項の影響を前記拒否閾値の関数として適応制御することにより実行されることを特徴とする、請求項1に記載のカメラの位置特定および前記環境の前記3D再構築を行う方法。
- 前記再射影誤差の各種の項が前記強靭な推定子の前記拒否閾値に紐付けられた拒否閾値に関連付けられていて、前記2個の拒否閾値(c1、c2)が前記3Dモデルに基づいて残余に対して推定された前記推定子の前記拒否閾値に等しいことを特徴とする、請求項2に記載のカメラの位置特定および環境の3D再構築を行う方法。
- 前記初期姿勢の計算が、前記物体の前記基準フレームの前記平面の一つに配置されたサイズが既知の目標により半自動的に実行することができ、目標は前記平面の間に配置された3Dプリミティブの組であって前記画像内で識別可能であること、および前記初期再構築が前記モデルへの前記2Dプリミティブの逆射影により得られることを特徴とする、請求項1〜3のいずれか1項に記載のカメラの位置特定および環境の3D再構築を行う方法。
- 各新規画像に対する前記カメラの姿勢を計算するステップが、前記3Dモデルにより制約されるプリミティブ、および前記物体以外の環境のプリミティブに基づいて実行されることを特徴とする、請求項1〜4のいずれか1項に記載のカメラの位置特定および環境の3D再構築を行う方法。
- 前記最適化ステップに続いて、前記プリミティブが前記3Dモデルにより制約されない三角測量ステップを実行することを特徴とする、請求項1〜5のいずれか1項に記載のカメラの位置特定および環境の3D再構築を行う方法。
- 前記最適化および/または3D再構築ステップが、現在画像と最終キー画像との間で合致したプリミティブの個数が最小値より小さい場合に選択されたキー画像に対してのみ実行されることを特徴とする、請求項1〜6のいずれか1項に記載のカメラの位置特定および環境の3D再構築を行う方法。
- 前記最適化ステップが、局所バンドル調整により実行されることを特徴とする、請求項1〜7のいずれか1項に記載のカメラの位置特定および環境の3D再構築を行う方法。
- 前記画像がリアルタイムビデオストリームから、および予め記録されたビデオから得られることを特徴とする、請求項1〜8のいずれか1項に記載のカメラの位置特定および環境の3D再構築を行う方法。
- 前記関心対象物体が、特定の画像内で視認不可能であるか、または画像毎に変更されていることを特徴とする、請求項1〜9のいずれか1項に記載のカメラの位置特定および環境の3D再構築を行う方法。
- 前記3Dモデルにより制約される前記プリミティブが、前記物体にテクスチャが有るおよび/またはテクスチャが無いのいずれかの関数として選択されることを特徴とする、請求項1〜10のいずれか1項に記載のカメラの位置特定および環境の3D再構築を行う方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1154702 | 2011-05-30 | ||
FR1154702A FR2976107B1 (fr) | 2011-05-30 | 2011-05-30 | Procede de localisation d'une camera et de reconstruction 3d dans un environnement partiellement connu |
PCT/EP2012/060044 WO2012163912A1 (fr) | 2011-05-30 | 2012-05-29 | Procede de localisation d'une camera et de reconstruction 3d dans un environnement partiellement connu |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014519117A JP2014519117A (ja) | 2014-08-07 |
JP6044005B2 true JP6044005B2 (ja) | 2016-12-14 |
Family
ID=46210232
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014513155A Active JP6044005B2 (ja) | 2011-05-30 | 2012-05-29 | 部分的に既知の環境におけるカメラの位置特定および3d再構築を行う方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9613420B2 (ja) |
EP (1) | EP2715662B1 (ja) |
JP (1) | JP6044005B2 (ja) |
CN (1) | CN103635937B (ja) |
FR (1) | FR2976107B1 (ja) |
WO (1) | WO2012163912A1 (ja) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2672461A1 (de) * | 2012-06-05 | 2013-12-11 | a.tron3d GmbH | Verfahren zum Fortsetzen von Aufnahmen zum Erfassen von dreidimensionalen Geometrien von Objekten |
US9901407B2 (en) * | 2013-08-23 | 2018-02-27 | Stryker European Holdings I, Llc | Computer-implemented technique for determining a coordinate transformation for surgical navigation |
US9436987B2 (en) * | 2014-04-30 | 2016-09-06 | Seiko Epson Corporation | Geodesic distance based primitive segmentation and fitting for 3D modeling of non-rigid objects from 2D images |
US10242453B2 (en) | 2014-04-30 | 2019-03-26 | Longsand Limited | Simultaneous localization and mapping initialization |
US9846963B2 (en) * | 2014-10-03 | 2017-12-19 | Samsung Electronics Co., Ltd. | 3-dimensional model generation using edges |
US10360718B2 (en) * | 2015-08-14 | 2019-07-23 | Samsung Electronics Co., Ltd. | Method and apparatus for constructing three dimensional model of object |
US10404962B2 (en) * | 2015-09-24 | 2019-09-03 | Intel Corporation | Drift correction for camera tracking |
US10511895B2 (en) | 2015-10-09 | 2019-12-17 | Warner Bros. Entertainment Inc. | Cinematic mastering for virtual reality and augmented reality |
US10482681B2 (en) | 2016-02-09 | 2019-11-19 | Intel Corporation | Recognition-based object segmentation of a 3-dimensional image |
US10373380B2 (en) * | 2016-02-18 | 2019-08-06 | Intel Corporation | 3-dimensional scene analysis for augmented reality operations |
US9996936B2 (en) | 2016-05-20 | 2018-06-12 | Qualcomm Incorporated | Predictor-corrector based pose detection |
CN109155082B (zh) * | 2016-05-26 | 2023-06-20 | 索尼公司 | 信息处理设备、信息处理方法和存储介质 |
US10573018B2 (en) | 2016-07-13 | 2020-02-25 | Intel Corporation | Three dimensional scene reconstruction based on contextual analysis |
CN106096322B (zh) * | 2016-07-22 | 2023-07-18 | 青岛大学附属医院 | 肝肾医学图像数据协同处理系统 |
FR3060115B1 (fr) * | 2016-12-14 | 2020-10-23 | Commissariat Energie Atomique | Localisation d'un vehicule |
US10809795B2 (en) * | 2017-05-31 | 2020-10-20 | Occipital, Inc. | Six degree of freedom tracking with scale recovery and obstacle avoidance |
US10679090B2 (en) * | 2017-12-12 | 2020-06-09 | Korea Advanced Institute Of Science And Technology | Method for estimating 6-DOF relative displacement using vision-based localization and apparatus therefor |
CN108519102B (zh) * | 2018-03-26 | 2021-06-01 | 东南大学 | 一种基于二次投影的双目视觉里程计算方法 |
FR3086423B1 (fr) | 2018-09-21 | 2021-09-10 | Diotasoft | Procede et systeme de visualisation en realite augmentee |
CN109725339A (zh) * | 2018-12-20 | 2019-05-07 | 东莞市普灵思智能电子有限公司 | 一种紧耦合的自动驾驶感知方法及系统 |
US10460516B1 (en) | 2019-04-26 | 2019-10-29 | Vertebrae Inc. | Three-dimensional model optimization |
CN110133741A (zh) * | 2019-05-08 | 2019-08-16 | 常州大学 | 一种多视角匹配和跟踪的自动安检方法 |
CN112154485A (zh) * | 2019-08-30 | 2020-12-29 | 深圳市大疆创新科技有限公司 | 三维重建模型的优化方法、设备和可移动平台 |
IL275198B1 (en) * | 2020-06-08 | 2024-03-01 | Elbit Systems Ltd | Systems and methods for guiding landing and cross-country flight |
KR20230012755A (ko) * | 2021-07-16 | 2023-01-26 | 한국전자통신연구원 | 2차원 배열 구조의 다중 시점 영상을 이용한 카메라 자세 추정 장치 및 이를 이용한 방법 |
CN113610969B (zh) * | 2021-08-24 | 2024-03-08 | 国网浙江省电力有限公司双创中心 | 一种三维人体模型生成方法、装置、电子设备及存储介质 |
KR102616028B1 (ko) * | 2023-05-02 | 2023-12-20 | 주식회사 브이알크루 | 비주얼 로컬라이제이션을 효율적으로 수행하기 위한 방법 및 장치 |
CN117274318B (zh) * | 2023-11-20 | 2024-03-15 | 广州市大湾区虚拟现实研究院 | 一种高鲁棒性的反向光学大范围跟踪方法和系统 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1297691A2 (en) * | 2000-03-07 | 2003-04-02 | Sarnoff Corporation | Camera pose estimation |
US7522186B2 (en) | 2000-03-07 | 2009-04-21 | L-3 Communications Corporation | Method and apparatus for providing immersive surveillance |
US20030206652A1 (en) * | 2000-06-28 | 2003-11-06 | David Nister | Depth map creation through hypothesis blending in a bayesian framework |
US6811264B2 (en) * | 2003-03-21 | 2004-11-02 | Mitsubishi Electric Research Laboratories, Inc. | Geometrically aware projector |
JP4178469B2 (ja) | 2003-11-27 | 2008-11-12 | 国際航業株式会社 | 空中写真画像データーセットの構成方法 |
US8160400B2 (en) * | 2005-11-17 | 2012-04-17 | Microsoft Corporation | Navigating images using image based geometric alignment and object based controls |
KR101195942B1 (ko) * | 2006-03-20 | 2012-10-29 | 삼성전자주식회사 | 카메라 보정 방법 및 이를 이용한 3차원 물체 재구성 방법 |
JP4874693B2 (ja) | 2006-04-06 | 2012-02-15 | 株式会社トプコン | 画像処理装置及びその処理方法 |
US8675951B2 (en) * | 2007-05-11 | 2014-03-18 | Three Pixels Wide Pty Ltd. | Method and system for generating a 3D model |
US20080310757A1 (en) * | 2007-06-15 | 2008-12-18 | George Wolberg | System and related methods for automatically aligning 2D images of a scene to a 3D model of the scene |
US20100045701A1 (en) * | 2008-08-22 | 2010-02-25 | Cybernet Systems Corporation | Automatic mapping of augmented reality fiducials |
CN101419055B (zh) * | 2008-10-30 | 2010-08-25 | 北京航空航天大学 | 基于视觉的空间目标位姿测量装置和方法 |
US8698875B2 (en) * | 2009-02-20 | 2014-04-15 | Google Inc. | Estimation of panoramic camera orientation relative to a vehicle coordinate frame |
FR2960082B1 (fr) * | 2010-05-17 | 2012-08-10 | Commissariat Energie Atomique | Procede et systeme pour fusionner des donnees issues de capteurs d'images et de capteurs de mouvement ou de position |
-
2011
- 2011-05-30 FR FR1154702A patent/FR2976107B1/fr not_active Expired - Fee Related
-
2012
- 2012-05-29 WO PCT/EP2012/060044 patent/WO2012163912A1/fr active Application Filing
- 2012-05-29 US US14/123,087 patent/US9613420B2/en active Active
- 2012-05-29 JP JP2014513155A patent/JP6044005B2/ja active Active
- 2012-05-29 CN CN201280032553.4A patent/CN103635937B/zh active Active
- 2012-05-29 EP EP12726076.8A patent/EP2715662B1/fr active Active
Also Published As
Publication number | Publication date |
---|---|
US20140105486A1 (en) | 2014-04-17 |
CN103635937B (zh) | 2017-02-15 |
FR2976107A1 (fr) | 2012-12-07 |
US9613420B2 (en) | 2017-04-04 |
JP2014519117A (ja) | 2014-08-07 |
EP2715662B1 (fr) | 2019-07-17 |
EP2715662A1 (fr) | 2014-04-09 |
WO2012163912A1 (fr) | 2012-12-06 |
CN103635937A (zh) | 2014-03-12 |
FR2976107B1 (fr) | 2014-01-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6044005B2 (ja) | 部分的に既知の環境におけるカメラの位置特定および3d再構築を行う方法 | |
CN109166149B (zh) | 一种融合双目相机与imu的定位与三维线框结构重建方法与系统 | |
KR102647351B1 (ko) | 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치 | |
US10553026B2 (en) | Dense visual SLAM with probabilistic surfel map | |
Pollefeys et al. | Visual modeling with a hand-held camera | |
Comport et al. | A real-time tracker for markerless augmented reality | |
Fitzgibbon et al. | Automatic 3D model acquisition and generation of new images from video sequences | |
Delamarre et al. | 3D articulated models and multiview tracking with physical forces | |
CN103247075B (zh) | 基于变分机制的室内环境三维重建方法 | |
Audras et al. | Real-time dense appearance-based SLAM for RGB-D sensors | |
Dorfmüller | Robust tracking for augmented reality using retroreflective markers | |
KR20190042187A (ko) | 깊이 값을 추정하는 방법 및 장치 | |
Meilland et al. | Dense visual mapping of large scale environments for real-time localisation | |
Pressigout et al. | Real-time hybrid tracking using edge and texture information | |
Meilland et al. | Super-resolution 3D tracking and mapping | |
Siu et al. | Image registration for image-based rendering | |
GB2567245A (en) | Methods and apparatuses for depth rectification processing | |
Oe et al. | Estimating camera position and posture by using feature landmark database | |
Bosse et al. | Vanishing points and three-dimensional lines from omni-directional video | |
Cobzas et al. | Cylindrical panoramic image-based model for robot localization | |
Laskar et al. | Robust loop closures for scene reconstruction by combining odometry and visual correspondences | |
Tykkälä | Real-time image-based RGB-D camera motion tracking and environment mapping | |
Kang et al. | Creating walk-through images from a video sequence of a dynamic scene | |
Seo et al. | Camera tracking using partially modeled 3-D objects with scene textures | |
Salvador et al. | Joint estimation of shape and motion from silhouettes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150326 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150528 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160216 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160512 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160719 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161024 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6044005 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |