JP6044005B2 - 部分的に既知の環境におけるカメラの位置特定および3d再構築を行う方法 - Google Patents

部分的に既知の環境におけるカメラの位置特定および3d再構築を行う方法 Download PDF

Info

Publication number
JP6044005B2
JP6044005B2 JP2014513155A JP2014513155A JP6044005B2 JP 6044005 B2 JP6044005 B2 JP 6044005B2 JP 2014513155 A JP2014513155 A JP 2014513155A JP 2014513155 A JP2014513155 A JP 2014513155A JP 6044005 B2 JP6044005 B2 JP 6044005B2
Authority
JP
Japan
Prior art keywords
environment
camera
model
reconstruction
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014513155A
Other languages
English (en)
Other versions
JP2014519117A (ja
Inventor
タマズーチ、モハメド
ブルジョア、スティーヴ
ドメ、ミシェル
ゲイ−ベリエ、ヴァンサン
ナーデ、シルヴィ
Original Assignee
コミシリア ア レネルジ アトミック エ オ エナジーズ オルタネティヴズ
コミシリア ア レネルジ アトミック エ オ エナジーズ オルタネティヴズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コミシリア ア レネルジ アトミック エ オ エナジーズ オルタネティヴズ, コミシリア ア レネルジ アトミック エ オ エナジーズ オルタネティヴズ filed Critical コミシリア ア レネルジ アトミック エ オ エナジーズ オルタネティヴズ
Publication of JP2014519117A publication Critical patent/JP2014519117A/ja
Application granted granted Critical
Publication of JP6044005B2 publication Critical patent/JP6044005B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明の分野は、部分的に既知の環境の3D再構築、および当該環境内で移動しているカメラの視認による位置特定である。「部分的に既知の環境」という表現は、3D幾何学的モデルが既知である関心対象物体を含む環境を意味し、当該物体の外部環境は未知であるものと理解されたい。
カメラの軌跡の推定は特に、現実のシーンのデジタル画像の仮想物体をマージする拡張現実アプリケーションで用いられる。単一のカメラを用いる拡張現実システムにおける主な難点は、現実的なマージを得るために如何にして現実のシーン(または現実の環境)と3D仮想情報の間の3Dレジストレーションを可能な限り正確に推定するかである。この3Dレジストレーションには、任意の時点でのカメラのポーズ、即ちシーンで固定された基準フレームに対するカメラの位置および向きを決定することを伴う。
3Dシーンに対するカメラのポーズの推定は極めて活発な研究テーマである。
特に3D物体を追跡する既存の方法の大多数は、関心対象物体のシーンの既知の部分、この場合は3Dモデル化された部分だけを考慮する。これらの方法のうち、モデルに基づく方法即ち「モデルに基づく追跡」と、学習に基づく方法は区別することができる。
モデルに基づく方法は、カメラにより取得された画像の各々について、射影された3Dモデルのエッジと画像内で検出されたエッジとの距離を最小化することによりカメラの6個の姿勢パラメータを計算するものである。そのような方法の一例がVincent LeptitおよびPascal Fuaが発表した「Monocular Model−based 3d tracking of rigid objects:A survey」(FTCGV,2005)に記述されている。これらの方法の主な制約は、物体が画像のシーケンス内で常時視認可能な場合にしか機能しない点である。正確な姿勢を得るためには、関心対象物体が画像の主要な部分を占める、換言すれば、カメラに「近い」ことも必要である。更に、確実に3Dを追跡できるようにカメラの移動は少なくなければならない。
学習に基づく方法は、物体の測光アスペクト(即ち外観)の学習からなる、いわゆる事前学習フェーズを必要とする。このフェーズは、画像から抽出されたテクスチャ記述子により物体の3Dモデルを補足することにある。以下の2種類の学習が可能である。
−数個の視点についてカメラの姿勢を推定するために既知の位置の符号化マーカーを物体の周辺に配置する。符号化マーカー(符号化目標とも称する)とは、画像内で容易に検出されて自身の符号により識別可能な既知のサイズの光学マーカーである。これらの視点の各々について、関心対象の点が画像から抽出されて周辺のテクスチャにより特徴付けられ、次いで、符号化目標によりこれらの視点の各々について既知であるカメラの視点からの単一の射影により物体上で当該関心対象の点に対応する3D点に直接関連付けられる。一例を、Juri Platonov、Hauke Heibel、Peter Meier、およびBert Grollmannによる論文「A mobile markerless AR system for maintenance and repair」(ISMAR,2006)に示されている。
−3D点のクラウドを、ビデオシーケンスのマッチする2D点により、且つSfM(「Structure from Motion(動きからの構造復元)」の略語)による再構築技術を用いて推定する。次いで、当該3D点のクラウドをオフライン且つ半自動的に物体の3Dモデルに再編成して、画像から抽出された記述子により補足された当該モデルに属する3D点を得る。当該方法の例を記述したP.Lothe、S.Bourgeois、F.Dekeyser、E.Royer、およびM.Dhomeの論文「Towards geographical referencing of monocular slam reconstruction using 3d city models:Application to real−time accurate vision−based localization」(CVPR,2009)を引用することができる。学習フェーズが実行されたならば、記述子の尤度基準を用いて、現在画像から抽出された2D点を当該物体の3D点に関連付けることにより、オンラインでの姿勢計算が実行される。
これらの方法の二つの主な制約は、一方ではこれらが事前学習フェーズを必要とし、他方では学習フェーズと姿勢計算フェーズとの間での物体の測光外観の変化(すり切れた物体、照明条件の変動)に極めて敏感な点である。更に、これらの方法は、顕著なテクスチャのある物体にしか機能しない。
一般に、物体の既知の部分しか考慮しないこれらの方法の主な制約は、当該物体が画像のシーケンス内で常時視認可能な場合にしか機能しない点である。当該物体が完全に遮蔽されているかまたはカメラの視野から消えた場合、もはやこれらの方法ではカメラの姿勢を計算することができない。
これらの方法はまた、「ジタリング」(1画像毎に計算された姿勢の不安定性に起因する拡張現実における震動)を受けやすく、正確な姿勢推定を得るためには関心対象物体が画像内の多くのスペースを占有する必要がある。実際、カメラの姿勢を推定する際に環境に関する情報は考慮されていない。
他の方法は、全く未知環境内で移動しているカメラを考慮するものである。SfM方式またはSLAM「Simultaneous Localization And Mapping(同時位置特定およびマッピング)」方式の方法は、観測されるシーンの幾何学的形状に関する一切の先験的知識無しにカメラの移動を推定する。オフライン、次いでオンラインの方法が提案されてきた。これらの方法は、位置を特定したい観測されたシーンの全体を用いるため極めて安定している。これらの方法は、カメラの軌跡およびシーンの幾何学的形状を逐次的に推定するものである。このため、これらのアルゴリズムは、恐らくは3D再構築されたシーンの(点、直線区間等の3Dプリミティブの疎なクラウドの形式での)により、マルチビュー関係(1個のビューが画像である)を用いてカメラの移動を推定する。カメラおよび再構築された3Dシーンの姿勢を同時に精緻化する追加的な最適化ステップが一般に実行される。後者のステップはバンドル調整と称する。SLAM方式のアルゴリズムの主な短所は、時間の経過に伴い誤差の累積し、従って軌道のドリフトの影響を受ける点である。常に高い3Dレジストレーション正確性を要するアプリケーションで(例:拡張現実)これらの方法を元々の形式で利用することは従って考慮されていない。また、単眼の場合、再構築は任意のスケールで実行されるが、現実のスケールは、シーンのスケールに関する追加的な情報を加えることでしか知ることができない。再構築はまた、シーンの物体に紐付けられていない任意の基準フレームで実行される。
最後に、より最近では、いくつかの方法がこれらの二つの方法を順次組み合せることを試みている。モデルに基づくアプローチ、次いでSfM技術を順次用いて部分的に既知の環境内で移動しているカメラの姿勢を推定する方法が提案されている。Bleserらは「Online camera pose estimation in partially known and dynamic scenes」(ISMAR、2006)で、モデルの幾何学的な制約を利用して基準フレームおよびSLAMアルゴリズムの再構築のスケールを初期化している。次いで、もはや3Dモデルを考慮に入れないSLAM方式の「従来型」方法によりカメラの位置を計算する。
初期化を行う間の正確性は、初期化が単一視点でなされるため保証されず、また、当該方法は依然として数値誤差の累積およびスケール係数のドリフトの影響を受ける。先に指摘したように、SLAMまたはSfM方式の方法に基づく位置特定では中期的には正確な位置特定が行えず、また長期的にはドリフト等の問題が生じる。
V.Gay−Bellile、P.Lothe、S.Bourgeois、E.Royer、およびS.Naudet−Colletteが「Augmented Reality in Large Environments:Application to Aided Navigation in Urban Context」(ISMAR、2010)に記述している方法は、SLAM技術と事前学習を用いる再配置技術を組み合わせるものである。これにより、当該物体がもはやSLAMにより視認できない場合にカメラの姿勢を計算して、再配置によりドリフトを回避することが可能になる。しかし、この方法は、学習に基づく方法における事前学習フェーズを必要とする。
後者の二つの方法は、モデルの制約、次いで環境の制約を順次用いる。
同様に、環境の制約、次いでモデルの制約を順次用いる方法がLotheら「Real−Time Vehicle Global Localisation with a Single Camera in Dense Urban Areas:Exploitation of Coarse 3D City Models」(CVPR、2010)」に提案されている。この場合、環境の第1の再構築が実行され、次いで第2段階で、厳密な反復最近接点(Iterative Closest Point(ICP))法に基づく処理を用いて、再構築された環境をモデル上に再編成する。これは、可能な場合(即ちモデルが十分な幾何学的制約を与える場合)、モデルの情報だけを用いてカメラの軌跡を再編成するものである。この方法の主な短所は、モデル3Dレジストレーションステップにおけるマルチビュー制約を維持するために、当該処理に含まれる全てのカメラに同様の変換を施すが、これは現実には困難な仮定である。また、モデルに基づく方法と同様の短所がある。即ち、関心対象物体が殆どまたは全く観測されない場合に正確性および強靭性を欠く。また、この方法が二つに連続的なステップで実行されるため最適ではなく、各時点での正確且つリアルタイムな位置特定が保証されない。モデルによる修正が後験的ステップでなされるため、現在画像に姿勢の修正を施すには時間遅延が伴うため、当該方法は拡張現実のようなアプリケーションには適していない。
従って、カメラの位置特定、およびカメラが移動している静的環境内での3D再構築を、正確性、強靭性、安定性に関する上述の全ての要件を同時に満たし、且つこれをリアルタイムに行う方法に対するニーズが現在もある。
本発明によれば、カメラの位置特定および部分的に既知の環境内における環境の3D再構築は、SLAM方式のアルゴリズムの最適化フェーズを行う間、部分的に既知の環境の幾何学的制約と、環境の既知および未知な部分のマルチビュー制約を同時に組み合わせる。
カメラの姿勢および環境を構成する再構築された3Dプリミティブは、関心対象物体(=環境内の既知の部分)に属するプリミティブの3Dモデルの幾何学的形状により制約される最適化方程式と、環境の未知の部分に属するプリミティブに対する従来の最適化方程式とを組み合せ、且つ2種類の項を有する単一のコスト関数により計算される。
より具体的には、本発明の主題は、カメラの位置特定、および当該カメラが内部を移動して画像を形成する静的環境の3D再構築を行う方法であって、当該環境が、3Dモデルが既知の関心対象物体を含み、本方法は以下のステップを含んでいる。
−a/環境内でのカメラの初期姿勢および初期再構築の計算、
−b/環境の3Dプリミティブと前記画像の2Dプリミティブとのマッチングによる各新規画像に対するカメラの姿勢の計算、および三角測量による環境の3Dプリミティブの再構築、
−c/複数の画像にわたり再射影誤差を最小化することによるカメラの姿勢および3Dプリミティブの同時最適化。
本発明は、3Dモデルが関心対象物体の幾何学的記述であること、再射影誤差が2種類の項、即ち3Dモデルにより制約されるプリミティブに紐付けられた第1の種類の項および当該物体以外の環境のプリミティブに紐付けられた第2の種類の項のみを含むこと、および最適化ステップがプリミティブを環境または3Dモデルに関連付けるサブステップを含むことを主な特徴とする。
SLAMまたはSfM方式の従来方法と比較して、本方法は、シーン(=環境)のサイズが巨大(多くの3Dプリミティブおよび多くのシーンのビュー)であっても、精緻化の強靭性および環境全体の再構築だけでなくカメラの位置特定の正確性も向上させる。これは、本システムが3D幾何学的モデルから生じた完全な情報を取り込むという事実による。更に、得られた再構築は原寸大(3Dモデルにより得られた)である。
最後に、モデルに基づく追跡方法と比較して、提案する解決策は、シーンの関心対象物体を連続的に観測する必要がないため、より満足できるものである。実際、問題の物体が観測されない場合(または画像の小さい部分しか占有しない場合)であっても、カメラは自身が移動している環境内で常に位置を特定することができる。本方法は従って、部分的または全体的な閉塞に対して完全に強靭である。カメラの位置特定の安定性も向上する。
最後に、2種類の情報を順次用いる方法と比較して、2種類の制約が各時点で同時に生じることが保証される。従ってより強靭な方法でカメラのより正確な位置特定および3D再構築が行える。
従来技術と比較した本方法との主な相違は以下の通りである。即ち、
−事前学習フェーズを一切必要とせず、
−関心対象物体(既知の3Dモデルの)をカメラの軌道全体にわたりカメラの視野に収めておく必要がない、または換言すれば、各画像内で物体が見えている必要がなく、
−閉塞およびカメラ−被写体間の距離の大幅な変動に強靭であり、
−近似的初期姿勢を自然に精緻化することが可能になり、
−環境の3D再構築の正確性が向上し、
−テクスチャのある、またはテクスチャの無い物体に対して機能し、
−2個の連続的な姿勢の間で高度な安定性を保証し(例えば拡張現実アプリケーションに往々にして有害な震動が無い)、
−環境と物体を同時に再構築することが可能になり、震動および不正確さの影響が回避される。
最後に、極めて正確、強靭、且つ安定な位置特定システムが得られる。
本発明の一特徴によれば、最適化ステップは、拒否閾値を示す強靭な推定子を用いて、各種の項の影響を当該拒否閾値の関数として適応制御することにより実行される。好適には、再射影誤差の各種の項が強靭な推定子の前記拒否閾値に紐付けられた拒否閾値に関連付けられていて、2個の拒否閾値(c1、c2)は3Dモデルに基づいて残余に対して推定された推定子の拒否閾値に等しい。これにより、環境のプリミティブに起因するマルチ画像制約を維持しながら、モデルに起因する制約を優先させることが可能になる。
初期姿勢の計算は、物体の基準フレームの複数平面の一つに配置された、マーカーとも称する、サイズが既知の目標により半自動的に実行することができ、目標は当該平面の間に配置された3Dプリミティブの組であって当該画像内で識別可能であるため、3個の自由度を固定することが可能になり、初期再構築はモデルへの2Dプリミティブの逆射影により得られる。
本発明の一特徴によれば、各新規画像に対するカメラの姿勢を計算するステップは、関心対象物体のプリミティブの3Dモデルの制約、および当該物体以外の環境のプリミティブに基づいて実行される。
最適化ステップに続いて、プリミティブが3Dモデルにより制約されない三角測量ステップを実行することができる。
最適化および/または再構築ステップは、現在画像と最終キー画像との対をなすプリミティブの個数が最小値より小さい場合に選択されたキー画像に対してのみ実行される点が有利である。
最適化ステップは有利には局所バンドル調整により実行され、リアルタイムな方法を得ることが可能になる。
3Dモデルにより制約されるプリミティブは、関心対象物体にテクスチャが有るおよび/またはテクスチャが無いのいずれかに応じて選択される。
本発明の他の特徴および利点は、添付の図面を参照しながら、非限定的な例として与える以下の詳細な説明を精査することにより明らかになろう。
従来技術によるカメラの位置特定および3D再構築方法の主なステップを模式的に示す。 本発明によるカメラの位置特定および3D再構築方法の主なステップを模式的に示す。
本発明は、シーン内の物体のモデルに関する知識に紐付けられた幾何学的制約を組み込むべく修正されたSfM方式の方法に依存する。シーンは、環境とも呼ばれ、静的であって、物体はシーン内での位置を変えないが、カメラにより画像シーケンス(ビデオ)が入力される間に、関心対象物体の要素がビデオ中に移動または除去される可能性があるため、物体自体が変形する場合がある。
以下の記述は、カメラの位置特定(軌道の推定)および当該カメラが移動している3D環境のモデリング(または再構築)を行う際に与えられる。
以下、環境について、その既知部分、即ち物体のモデルと、当該モデルの外部環境である当該環境の未知部分とは線引きされて区別される。
本発明は、SfM方法に基づいている。SfM方法の原版は、E.Mouragnon、M.Lhuillier、M.Dhome、F.Dekeyser、およびP.Saydにより「Real time localization and 3d reconstrution」(CVPR、2006)で提案された、関心対象の点に用いるものと同一であるが、異なる種類のプリミティブにも適用可能である。図1に関して記述する従来のSfM方法の原版では以下の4個のステップ、即ち初期化(ステップA)、位置特定(ステップB)、再構築(ステップD)、最適化(ステップE)を含んでいる。最後の3ステップは順次または並列に実行できることが直ちに理解されよう。
初期化は、観測されたシーンの第1の3D再構築を実行して、カメラの第1の姿勢(位置および回転)を計算するものである。
位置特定(3D追跡とも称する)は、既に再構築されているシーンの3Dプリミティブと現在画像の2Dプリミティブとの相関からカメラの姿勢を計算するものである。
3D再構築は、3D三角測量により、特に新規のプリミティブの3D再構築を可能にすべく、先行画像(2D追跡)のプリミティブと、現在画像内で検出されたプリミティブとをマッチングするものである。
最適化により、3D再構築されたシーンおよびカメラの推定された軌跡を精緻化することが可能になる。最適化は、非線形コスト関数、この場合は再射影誤差、の最小化に基づいているため、画像内で再射影された再構築プリミティブを画像内で観測されるプリミティブと最適にマッチさせることが可能になる。多くの方法を用いることができ、そのうち引用可能なものがバンドル調整である。更に、画像内での2D誤差を最小化することによりエピポーラ幾何学に基づく方法を用いることも可能であり、これにより最初に軌道が最適され、2回目に再構築されたシーンが最適化される。
リアルタイム性能を目的として、3D再構築および最適化ステップは、全ての画像について実行される訳ではなく、「キー画像」(ステップC)と称する特定の画像に対してのみ実行される。これらは、当該画像内で合致したプリミティブの個数と、カメラの姿勢間の相対変位との間のトレードオフを得ることにより、当業者に知られた従来の仕方で選択され、三角測量により実行された3D再構築を優先させる。これは、現在画像と最終キー画像との間で合致したプリミティブの個数が最小値より低い場合にキー画像を選択することになる。
一般に、この最適化フェーズは、同時に軌道および再構築を最適化することを可能にするバンドル調整により実行される。バンドル調整による最適化は、再射影誤差の和、即ち射影された3Dプリミティブと検出された2Dプリミティブの距離の和を最小化する。
バンドル調整に基づく最適化フェーズは以下の表記を用いて詳述する。
ベクトルは、統一座標として表される。例えば、q≡(x、y、w)、ここには転置、および≡はあるスケール係数の範囲内での等号を示す。精緻化したい再構築されたシーンは、N個の3D点
Figure 0006044005
およびカメラのm通りの姿勢
Figure 0006044005
からなる。姿勢Cにおけるカメラ内の3D点Qの観測をqi,kで表記し、観測するカメラの添え字Qの組をAと表記する。カメラの姿勢Cに関連付けられた射影行列P
Figure 0006044005
で与えられ、ここにKは固有パラメータの行列で(R;t)は時点kにおけるカメラの姿勢のパラメータである。従来のバンドル調整により、観測されたシーンおよびカメラの姿勢を記述する3D点を同時に精緻化することが可能になる。これにより、画像内の3D点の射影とそれらの観測値との距離の2乗和を最小化する。この幾何学的距離を再射影誤差εと称する。最適化したいパラメータは、N個の3D点の3個の座標、およびカメラのm通りの姿勢の6個の外部パラメータである。パラメータの総数は従って、3N+6mである。コスト関数は、次式で与えられる。
Figure 0006044005
ここにd(q、q’)=||q−q’||は画像の2点間の距離の2乗である。
本発明によれば、バンドル調整による最適化、初期化、および恐らく位置特定も、関心対象物体の3Dモデルの制約を受ける。
最適化は、N個の最終キー画像の姿勢および観測された3D点を、M個の最終キー画像(N≦M且つMは全ての観測と同数であり得る)内のこれらの点の観測値の残余を用いて最適化するものである局所バンドル調整により有利に実行することができる。注目すべきは、大域的バンドル調整に対するメモリへの書き込みを減少させながらリアルタイム方法を得ることである。本方法は、N=3で実行できる。
4フェーズの各々に用いるプリミティブは、関心対象の点、直線区間、曲線、平面、または数種類のプリミティブ(例えば、点+区間)の組合せ等であってよい。
これらのフェーズについて以下に詳述する。
上述のように、3Dモデルのこれらの制約は初期化(ステップA’)、即ち初期姿勢または初期再構築の計算のいずれかに適用できる。
初期姿勢計算により、物体上の固定された基準フレームに相対的なカメラの位置および向きを計算することが可能になる。多くの方法をこのステップに利用することができる。Bleserらは「Online camera pose estimation in partially known and dynamic scenes」(ISMAR、2006)において、カメラを動かすことによりユーザーに画像内の物体上の3Dモデルを再編成させる半自動方法を提案している。ユーザーは従って、画像内の物体のエッジに基づく精緻化を可能にすべく、姿勢が十分現実に近いことが(自動的に)検出されるまで、6個の自由度を再編成する必要がある。Bleserらのものに比較的類似しているが、よりユーザーフレンドリーな半自動式の解決策が提案されている。これは、物体の基準フレームの平面の一つにサイズが既知(位置が未知)の標的を配置するものである。目標により推定された3個の自由度(2個の回転自由度および1個の並進自由度)はこのように固定される。ユーザーは次いで、最後の3個の自由度を再編成しなければならない。画像内の物体のエッジに基づく精緻化が次いで実行される。これらの間で位置して画像内で識別可能な3Dプリミティブの組を目標と称する。この位置特定および3D再構築方法が、近似的な初期姿勢(カメラ−被写体間距離の許容度が最大10%)しか必要としない点に注意されたい。この可能な近似的な初期姿勢でも本方法の強靭性は損なわれない。
プリミティブの第1の3D再構築は、初期画像内で検出された2D点を3Dモデルへ逆射影することにより実行される。次いでモデルに属する3D点の組が粗い精度で得られる。逆射影とは、各2D点について、光線照射(カメラおよび2D点の光学中心を透過する光線追跡)を実行して、当該光線と3D物体の表面との交差を計算するものである。
モデルの制約を受ける可能性があるが必然的ではない3D位置特定フェーズ(ステップB’)の場合、合致した3D/2Dプリミティブを用いて各新規画像についてカメラの姿勢が計算される。使用する方法(モデルの制約を受けない)は、E.Mouragnon、M.Lhuillier、M.Dhome、F.Dekeyser、およびP.Saydにより「Real time localization and 3d reconstruction」(CVPR、2006)に記述されている、関心対象の点に用いるものと同種であるが、異なる種類のプリミティブにも適用可能である。
3D再構築フェーズは、簡単な三角測量(ステップD)により従来方式で実行される。
最適化フェーズ(ステップE’)はモデルの制約を受ける。当該ステップは、3D空間内の現在画像の2Dプリミティブの逆射影から始まる。物体に属するプリミティブ(自身の光線が当該物体の表面を横断する)は従って当該物体の環境に属する3Dプリミティブとは区別される。
上で見たように、従来のバンドル調整による最適化は、再射影誤差の和、即ち射影された3Dプリミティブと検出された2Dプリミティブとの距離の2乗和を最小化するものである。本発明によれば、最小化したいコスト関数もまた、これらの再射影誤差(残余)の和であるが、コスト関数は2種類の項からなる。即ち、
−1種類の項は、モデルにより制約されるプリミティブの残余に紐付けられ、
−1種類の項は、モデルの外部環境のプリミティブの残余に紐付けられている。
以下に、物体の3Dモデルに起因する追加的な制約を利用する方法をより詳細に述べる。モデルの制約は、考慮するプリミティブに応じて異なって定式化される。その定式化を以下のプリミティブ、即ち関心対象の点および直線区間について詳述する。
マルチビュー関係(即ちマルチ画像)および3Dモデルに属する制約を組み合せた2個の非線形コスト関数を提示する。第1の、点に基づくコスト関数は、自身のプリミティブが一般に関心対象の点であるテクスチャのある物体に適用可能である。第2の、エッジに基づくコスト関数は、殆どテクスチャのない物体に適用される。これらには、ピクセルに表れる残余誤差εを最小化するという共通性がある。これらは、テクスチャおよびエッジを示す物体のバンドル調整に一緒に用いることができる。
このコスト関数εは最初に点について考慮される。モデルが物体(平面πの組)の面を記述する三角形の組であると仮定する。主たる発想は、平面πに属する3D点Qが2個の自由度しか有していないということである。
カメラの位置およびシーンの3D構造を最適化すべく、得られたコスト関数は次式の通りである。
Figure 0006044005
上式において、
Figure 0006044005
は平面πの基準フレームと大域的基準フレームとの間の転送行列であって
Figure 0006044005
(Xπi,Yπi,0,1)であって(Xπi,Yπi)は平面πの基準フレーム上でQの座標、
,cは強靭な推定子の拒否閾値、
ρは強靭な推定子関数であってρ(r,c)=r/(r+c)、rはコスト関数の残余誤差、cは推定子の拒否閾値である。
関心対象物体にテクスチャが無い場合は、直線区間に基づくモデルの制約を用いる。物体の幾何学的モデルはこの場合、当該モデルのエッジである。当該モデルは次いでE個の区間(中心点
Figure 0006044005
および方向
Figure 0006044005
で自動的にサンプリングされて画像に射影される。次いで射影された区間の法線方向ni,kでの最大勾配を前記画像内で求める。カメラCの中心点Mの射影に関連付けられた最大勾配をmi,kと表記し、観測しているカメラの添え字Mの組をSと表記する。次いで画像に再射影された区間の中心点と、付随する最大勾配との間の距離(ピクセル単位)を用いてカメラの軌跡および未知環境のプリミティブの3D再構築を制約し、その結果得られるコスト関数は次式の通りである。
Figure 0006044005
提案する解決策は、初期3Dレジストレーションの不完全さ、およびモデルの幾何学的不完全さ(現実と完全には一致しないモデル)に対して強靭である。現実には、モデルの幾何学的不完全さおよびSfM方式のアルゴリズムにより生じるドリフトに対する近似初期3Dレジストレーションは、最適化プロセスの収束を妨げる恐れがある劣悪なプリミティブモデル関連付けをもたらす可能性がある。これらの異常な関連付けを管理するために、M推定子により強靭な推定が実行される。例えば、正規化されているという顕著な特徴を有するGeman−McClure推定子を用いる。
2目的問題を最小化する際の重大な困難の一つが、各項の影響をどのように制御するかである。これは一般に、試行錯誤的に固定される重み付けパラメータを用いて、またはMichela Farenzena、Adrien Bartoli、およびYoucef Mezouarにより「Efficient camera smoothing in sequential structure−frommotion using approximate cross−validation」(ECCV、2008)に記述されているように相互検証を用いてなされる。より簡単な代替例が提案されている。即ち、通常MAD(Median of Absolute Deviation)と表記される残余の絶対偏差の中央値により計算された強靭な推定子の拒否閾値を用いて各種の項(群)の影響を直接制御する。試行錯誤的に検証されるこのいわゆる適応的重み付け法の利点は、リアルタイムでの自動重み付けが可能になる点である。例えば、以下の三通りの可能性が考えらえる。
−c1=cenvironmentおよびc2=cmodel
−c1=c2=call
−c1=c2=cmodel
modelはモデルに基づく残余について推定された拒否閾値、
environmentは環境の未知部分の残余について推定された拒否閾値、
allは全ての残余について推定された拒否閾値である。
=c=callを仮定することにより、2種類の残余が同じオーダーの大きさを有していると恣意的に考えられる。一方、他の二つのケースでは、モデルに関連付けられた残余が実際にはより高い値を有するという事実が考慮に入れられる。第1のケースでは、環境の既知部分(モデル)と未知部分を同じように考慮する。第3のケースでは、環境の未知部分に関連付けられた制約がいぜんとして検証されていることを保証しながら、最適化を行う間は既知部分(モデル)を優先させる。この第3のケースが好ましい。
従来の最適化と比較して、モデルの制約による最適化は従って追加的なステップを伴う。実際には、モデルの制約を生じるために、プリミティブにモデルが関連付けられていなければならない(選択された制約に応じて2Dまたは3Dの関連付け)。異なる制約を生成する2種類の関連付けが可能である。即ち、
−3D−3D関連付けフェーズ:再構築された3Dプリミティブ(3D点、3D区間)に平面またはモデルのエッジが関連付けられる。所与のプリミティブについて、モデルの制約が最適化フェーズにおいて関心対象プリミティブおよびカメラの軌道に適用される。当該制約は、自身が関連付けられたモデルの部分に応じて3Dプリミティブに割り当てられる自由度の個数に反映させることができる(例:再構築されたがモデルに関連付けられていない3D点は3個の自由度を有しているのに対し、再構築されてモデルの平面に関連付けられた3D点は自身が関連付けられた平面内でしか移動できないため2個の自由度を有している。再構築されたがモデルに関連付けられていない3D区間は少なくとも4個の自由度を有しているのに対し、再構築されてモデルの平面に関連付けられた3D区間は2個の自由度を有している。再構築されてモデルのエッジに関連付けられた3D区間は1個の自由度を有している)。
−3D−2D関連付けフェーズ:モデル(3D点、3D区間)から抽出された3Dプリミティブは画像へ再射影されて2Dプリミティブ(2D点、2D区間、2Dエッジ)に関連付けられる。制約は次いで、モデルから抽出された3D点または区間が0個の自由度を有しているという事実に反映される。これは、最適化フェーズにおけるカメラの軌跡を制約するためにのみ用いられる。
最適化ステップ(E’)は従って以下のサブステップを含んでいる。
1.プリミティブの環境またはモデルとの関連付け
引用できるプリミティブの例は以下を含んでいる。
a.再構築された点のケース:各3D点Q()の、関連付けられた平面πへの射影であって、3D点に関連付けられた平面は、同じ3D点に関連付けられた2D観測により生じる最大光線により横断されている。
b.再構築された区間のケース:各3D区間の、自身に関連付けられた平面πへの射影であって、3D区間に関連付けられた平面は、同じ3D区間に関連付けられた2D観測により生じる最大光線により横断されている。
c.モデルから抽出された3D点のケース:2D最適化に含まれる各キー画像内で視認可能な3D点の射影、およびこれらの画像内で検出された関心対象の点との2D関連付け。
d.モデルから抽出された3D区間のケース:2D最適化に含まれる各キー画像内で視認可能な3D区間の射影、およびこれらの画像のエッジとの2D関連付け。
2.推定子の拒否閾値の計算。
3.推定子の誤差εの最適化。
このように提案されたバンドル調整は従って、
−3Dモデルにより制約される種類の項(群)を含む2目的関数、および未知環境のプリミティブのマルチビュー制約に用いる種類の項(群)、
−拒否閾値cおよびcによりこれら2種類の項(群)同士の影響の適応的調整に依存する。
本方法により、モデルの不完全さ、物体の局所的変動、または物体の閉塞にも適応させることが可能になる。
例えば、視認される物体が局所的に変更された(例えば、物体の一部の除去により)場合、アルゴリズムは自動的にこの変化に適応する。より正確には、拒否閾値の(自動的に決定される)適応的な制御により、モデルにより当初制約されたプリミティブは、拒否されるかまたは未知環境に属するプリミティブとして識別される(従ってコスト関数の第1項に含まれる)。物体が部分的または完全に隠されている場合でも同じ現象が現れる。
従って、本発明の方法は当然、モデルの不完全さに対して強靭である。関心対象物体の幾何学的モデルが、問題の物体のそれと完全に同一でない場合であっても本方法は機能する。本方法は、シーケンスの最中に物体が僅かに変更されても同様に強靭である。これは、各最適化ステップE’でプリミティブとモデルの関連付けを再評価可能にする再構築ステップDを行う間、プリミティブが強制的にモデルに属させられないという事実による。
同じ原理で、カメラの軌跡だけを最適化して、シーンの幾何学的形状を誘導的に最適化することも可能である。これは、最適化のプリミティブの位置パラメータを除去することにより行える。その利点は、メモリへの書き込みが減ると共に、本方法の収束域が増えることである(最適化すべきパラメータが少ない)。この目的のために、もはやバンドル調整は使用しないが、エピポーラ幾何学に基づく他のコスト関数を用いることができる(例:環境のプリミティブの基本行列、モデルを構成する異なる平面の一つに関連付けられたプリミティブのホモグラフィ)。この場合、シーンの幾何学的形状を取得するためには、カメラの軌跡を精緻化した後で、プリミティブの三角測量を行えば十分であることが認められる。
エピポーラ幾何学的形状は、2個の異なる位置からカメラにより撮像された同一シーンの2個の画像間の幾何学的関係を定義する。これは、基本行列により以下のように3D点Qの2個の観測値(qi,1、qi,2)を紐付ける。
Figure 0006044005
ここにFは階数2の3×3行列であり、Fj,kは画像ペア(j,k)の間の基本行列を表記する。
この関係は、第1の画像の点qi,1に対応する第2の画像の任意の点qi,2が、l=Fqi,1となるようにエピポーラ線lに乗っていなければならないことを意味する。
(q,l)を用いて点qと線1の間の点−線間距離を示す。
Figure 0006044005
ωは統一座標として表されるベクトルqの最後の要素である。
2個の視認角度を有する幾何学的形状において、同一平面πの2個の画像が射影変換Hにより、qi,1〜Hqi,2となるように紐付けられる。
これは、平面に関するエピポーラ幾何学的形状の先の関係に等価である。平面πにより誘導される射影変換Hは次式の通りである。
Figure 0006044005
ここに、nは平面への法線、dはC1と平面との距離である。
Figure 0006044005
を用いてカメラの位置jおよびkから見た平面πの観測により誘導される射影変換を示す。
カメラの位置だけを最適化したい場合、得られるコスト関数は次式の通りである。
Figure 0006044005
上に示す逆射影誤差の各々は2個の項だけを含んでいる。より一般的には、2種類の項のみを含み、一方は3Dモデルにより制約され、他方は未知環境のプリミティブのマルチビュー制約用であり、各々の種類の項自身が多くの項を含んでいてよい。実際、未知環境を2個の部分に分けて、テクスチャのある部分に1項およびテクスチャの無い部分に他の項を用いることが可能である。同じことが、モデルのテクスチャのある、またはテクスチャの無い部分に応じて同じく2個の項を含む環境(モデル)の既知の部分にあてはまる。
多くのアプリケーションが3D物体の追跡を必要とする。
−現実のシーンに、重ね合わされた仮想情報(カメラからのビデオストリーム、またはユーザーが半透明の眼鏡を用いる場合はユーザーの直接視認に基づく)を追加する拡張現実。拡張現実の概念はまた、先験的に視認できるものではない仮想要素を追加することにより、現実世界に対する知覚を向上させることを意図している。そのアプリケーションは多岐にわたり、ビデオゲーム、映画、テレビ(仮想スタジオ、スポーツの再転送等)、工業(概念、設計、保守、組立、ロボット工学等)、医療等、益々多くの分野に影響を及ぼしつつある。
−ロボット工学分野:視認(自律的ナビゲーション)によるロボットまたは特定の物体の操作を行うロボット化されたアームの誘導またはサーボ制御の関連。
−自動車産業:都市環境内でのナビゲーション支援の関連。
これら全てのアプリケーションのために、コンピュータ視認は従って安価、実用的、且つ非侵入性の解決案を提供する。
カメラは較正され、その固有パラメータ(焦点、画像の中心位置)は既知である。
画像は、リアルタイムストリームから、または事前に録音されたビデオからのものである。

Claims (11)

  1. カメラの位置特定、および前記カメラが内部を移動して画像を形成する静的環境の3D再構築を行う方法であって、前記環境が、3Dモデルが既知の関心対象物体と、前記物体の外部の未知である環境とを含み、前記方法が、以下のステップ
    −a/前記環境内での前記カメラの初期姿勢および初期再構築の計算、
    −b/前記環境の3Dプリミティブと前記画像の2Dプリミティブとのマッチングによる各新規画像に対する前記カメラの姿勢の計算、および三角測量による前記環境の3Dプリミティブの再構築、
    −c/複数の画像にわたり再射影誤差を最小化することによる前記カメラの姿勢および前記3Dプリミティブの同時最適化を含み、
    前記3Dモデルが前記関心対象物体の幾何学的記述であること、前記再射影誤差が2種類の項、即ち前記3Dモデルにより制約されるプリミティブに紐付けられた第1の種類の項および前記物体以外の前記環境のプリミティブに紐付けられた第2の種類の項のみを含むこと、および前記最適化ステップがプリミティブを前記環境または前記3Dモデルに関連付けるサブステップ
    を含むことを特徴とする方法。
  2. 前記最適化ステップが、拒否閾値を示す強靭な推定子を用いて、各種の項の影響を前記拒否閾値の関数として適応制御することにより実行されることを特徴とする、請求項1に記載のカメラの位置特定および前記環境の前記3D再構築を行う方法。
  3. 前記再射影誤差の各種の項が前記強靭な推定子の前記拒否閾値に紐付けられた拒否閾値に関連付けられていて、前記2個の拒否閾値(c1、c2)が前記3Dモデルに基づいて残余に対して推定された前記推定子の前記拒否閾値に等しいことを特徴とする、請求項2に記載のカメラの位置特定および環境の3D再構築を行う方法。
  4. 前記初期姿勢の計算が、前記物体の前記基準フレームの前記平面の一つに配置されたサイズが既知の目標により半自動的に実行することができ、目標は前記平面の間に配置された3Dプリミティブの組であって前記画像内で識別可能であること、および前記初期再構築が前記モデルへの前記2Dプリミティブの逆射影により得られることを特徴とする、請求項1〜3のいずれか1項に記載のカメラの位置特定および環境の3D再構築を行う方法。
  5. 各新規画像に対する前記カメラの姿勢を計算するステップが、前記3Dモデルにより制約されるプリミティブ、および前記物体以外の環境のプリミティブに基づいて実行されることを特徴とする、請求項1〜4のいずれか1項に記載のカメラの位置特定および環境の3D再構築を行う方法。
  6. 前記最適化ステップに続いて、前記プリミティブが前記3Dモデルにより制約されない三角測量ステップを実行することを特徴とする、請求項1〜5のいずれか1項に記載のカメラの位置特定および環境の3D再構築を行う方法。
  7. 前記最適化および/または3D再構築ステップが、現在画像と最終キー画像との間で合致したプリミティブの個数が最小値より小さい場合に選択されたキー画像に対してのみ実行されることを特徴とする、請求項1〜6のいずれか1項に記載のカメラの位置特定および環境の3D再構築を行う方法。
  8. 前記最適化ステップが、局所バンドル調整により実行されることを特徴とする、請求項1〜7のいずれか1項に記載のカメラの位置特定および環境の3D再構築を行う方法。
  9. 前記画像がリアルタイムビデオストリームから、および予め記録されたビデオから得られることを特徴とする、請求項1〜8のいずれか1項に記載のカメラの位置特定および環境の3D再構築を行う方法。
  10. 前記関心対象物体が、特定の画像内で視認不可能であるか、または画像毎に変更されていることを特徴とする、請求項1〜9のいずれか1項に記載のカメラの位置特定および環境の3D再構築を行う方法。
  11. 前記3Dモデルにより制約される前記プリミティブが、前記物体にテクスチャが有るおよび/またはテクスチャが無いのいずれかの関数として選択されることを特徴とする、請求項1〜10のいずれか1項に記載のカメラの位置特定および環境の3D再構築を行う方法。
JP2014513155A 2011-05-30 2012-05-29 部分的に既知の環境におけるカメラの位置特定および3d再構築を行う方法 Active JP6044005B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1154702 2011-05-30
FR1154702A FR2976107B1 (fr) 2011-05-30 2011-05-30 Procede de localisation d'une camera et de reconstruction 3d dans un environnement partiellement connu
PCT/EP2012/060044 WO2012163912A1 (fr) 2011-05-30 2012-05-29 Procede de localisation d'une camera et de reconstruction 3d dans un environnement partiellement connu

Publications (2)

Publication Number Publication Date
JP2014519117A JP2014519117A (ja) 2014-08-07
JP6044005B2 true JP6044005B2 (ja) 2016-12-14

Family

ID=46210232

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014513155A Active JP6044005B2 (ja) 2011-05-30 2012-05-29 部分的に既知の環境におけるカメラの位置特定および3d再構築を行う方法

Country Status (6)

Country Link
US (1) US9613420B2 (ja)
EP (1) EP2715662B1 (ja)
JP (1) JP6044005B2 (ja)
CN (1) CN103635937B (ja)
FR (1) FR2976107B1 (ja)
WO (1) WO2012163912A1 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2672461A1 (de) * 2012-06-05 2013-12-11 a.tron3d GmbH Verfahren zum Fortsetzen von Aufnahmen zum Erfassen von dreidimensionalen Geometrien von Objekten
US9901407B2 (en) * 2013-08-23 2018-02-27 Stryker European Holdings I, Llc Computer-implemented technique for determining a coordinate transformation for surgical navigation
US9436987B2 (en) * 2014-04-30 2016-09-06 Seiko Epson Corporation Geodesic distance based primitive segmentation and fitting for 3D modeling of non-rigid objects from 2D images
US10242453B2 (en) 2014-04-30 2019-03-26 Longsand Limited Simultaneous localization and mapping initialization
US9846963B2 (en) * 2014-10-03 2017-12-19 Samsung Electronics Co., Ltd. 3-dimensional model generation using edges
US10360718B2 (en) * 2015-08-14 2019-07-23 Samsung Electronics Co., Ltd. Method and apparatus for constructing three dimensional model of object
US10404962B2 (en) * 2015-09-24 2019-09-03 Intel Corporation Drift correction for camera tracking
US10511895B2 (en) 2015-10-09 2019-12-17 Warner Bros. Entertainment Inc. Cinematic mastering for virtual reality and augmented reality
US10482681B2 (en) 2016-02-09 2019-11-19 Intel Corporation Recognition-based object segmentation of a 3-dimensional image
US10373380B2 (en) * 2016-02-18 2019-08-06 Intel Corporation 3-dimensional scene analysis for augmented reality operations
US9996936B2 (en) 2016-05-20 2018-06-12 Qualcomm Incorporated Predictor-corrector based pose detection
CN109155082B (zh) * 2016-05-26 2023-06-20 索尼公司 信息处理设备、信息处理方法和存储介质
US10573018B2 (en) 2016-07-13 2020-02-25 Intel Corporation Three dimensional scene reconstruction based on contextual analysis
CN106096322B (zh) * 2016-07-22 2023-07-18 青岛大学附属医院 肝肾医学图像数据协同处理系统
FR3060115B1 (fr) * 2016-12-14 2020-10-23 Commissariat Energie Atomique Localisation d'un vehicule
US10809795B2 (en) * 2017-05-31 2020-10-20 Occipital, Inc. Six degree of freedom tracking with scale recovery and obstacle avoidance
US10679090B2 (en) * 2017-12-12 2020-06-09 Korea Advanced Institute Of Science And Technology Method for estimating 6-DOF relative displacement using vision-based localization and apparatus therefor
CN108519102B (zh) * 2018-03-26 2021-06-01 东南大学 一种基于二次投影的双目视觉里程计算方法
FR3086423B1 (fr) 2018-09-21 2021-09-10 Diotasoft Procede et systeme de visualisation en realite augmentee
CN109725339A (zh) * 2018-12-20 2019-05-07 东莞市普灵思智能电子有限公司 一种紧耦合的自动驾驶感知方法及系统
US10460516B1 (en) 2019-04-26 2019-10-29 Vertebrae Inc. Three-dimensional model optimization
CN110133741A (zh) * 2019-05-08 2019-08-16 常州大学 一种多视角匹配和跟踪的自动安检方法
CN112154485A (zh) * 2019-08-30 2020-12-29 深圳市大疆创新科技有限公司 三维重建模型的优化方法、设备和可移动平台
IL275198B1 (en) * 2020-06-08 2024-03-01 Elbit Systems Ltd Systems and methods for guiding landing and cross-country flight
KR20230012755A (ko) * 2021-07-16 2023-01-26 한국전자통신연구원 2차원 배열 구조의 다중 시점 영상을 이용한 카메라 자세 추정 장치 및 이를 이용한 방법
CN113610969B (zh) * 2021-08-24 2024-03-08 国网浙江省电力有限公司双创中心 一种三维人体模型生成方法、装置、电子设备及存储介质
KR102616028B1 (ko) * 2023-05-02 2023-12-20 주식회사 브이알크루 비주얼 로컬라이제이션을 효율적으로 수행하기 위한 방법 및 장치
CN117274318B (zh) * 2023-11-20 2024-03-15 广州市大湾区虚拟现实研究院 一种高鲁棒性的反向光学大范围跟踪方法和系统

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1297691A2 (en) * 2000-03-07 2003-04-02 Sarnoff Corporation Camera pose estimation
US7522186B2 (en) 2000-03-07 2009-04-21 L-3 Communications Corporation Method and apparatus for providing immersive surveillance
US20030206652A1 (en) * 2000-06-28 2003-11-06 David Nister Depth map creation through hypothesis blending in a bayesian framework
US6811264B2 (en) * 2003-03-21 2004-11-02 Mitsubishi Electric Research Laboratories, Inc. Geometrically aware projector
JP4178469B2 (ja) 2003-11-27 2008-11-12 国際航業株式会社 空中写真画像データーセットの構成方法
US8160400B2 (en) * 2005-11-17 2012-04-17 Microsoft Corporation Navigating images using image based geometric alignment and object based controls
KR101195942B1 (ko) * 2006-03-20 2012-10-29 삼성전자주식회사 카메라 보정 방법 및 이를 이용한 3차원 물체 재구성 방법
JP4874693B2 (ja) 2006-04-06 2012-02-15 株式会社トプコン 画像処理装置及びその処理方法
US8675951B2 (en) * 2007-05-11 2014-03-18 Three Pixels Wide Pty Ltd. Method and system for generating a 3D model
US20080310757A1 (en) * 2007-06-15 2008-12-18 George Wolberg System and related methods for automatically aligning 2D images of a scene to a 3D model of the scene
US20100045701A1 (en) * 2008-08-22 2010-02-25 Cybernet Systems Corporation Automatic mapping of augmented reality fiducials
CN101419055B (zh) * 2008-10-30 2010-08-25 北京航空航天大学 基于视觉的空间目标位姿测量装置和方法
US8698875B2 (en) * 2009-02-20 2014-04-15 Google Inc. Estimation of panoramic camera orientation relative to a vehicle coordinate frame
FR2960082B1 (fr) * 2010-05-17 2012-08-10 Commissariat Energie Atomique Procede et systeme pour fusionner des donnees issues de capteurs d'images et de capteurs de mouvement ou de position

Also Published As

Publication number Publication date
US20140105486A1 (en) 2014-04-17
CN103635937B (zh) 2017-02-15
FR2976107A1 (fr) 2012-12-07
US9613420B2 (en) 2017-04-04
JP2014519117A (ja) 2014-08-07
EP2715662B1 (fr) 2019-07-17
EP2715662A1 (fr) 2014-04-09
WO2012163912A1 (fr) 2012-12-06
CN103635937A (zh) 2014-03-12
FR2976107B1 (fr) 2014-01-03

Similar Documents

Publication Publication Date Title
JP6044005B2 (ja) 部分的に既知の環境におけるカメラの位置特定および3d再構築を行う方法
CN109166149B (zh) 一种融合双目相机与imu的定位与三维线框结构重建方法与系统
KR102647351B1 (ko) 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치
US10553026B2 (en) Dense visual SLAM with probabilistic surfel map
Pollefeys et al. Visual modeling with a hand-held camera
Comport et al. A real-time tracker for markerless augmented reality
Fitzgibbon et al. Automatic 3D model acquisition and generation of new images from video sequences
Delamarre et al. 3D articulated models and multiview tracking with physical forces
CN103247075B (zh) 基于变分机制的室内环境三维重建方法
Audras et al. Real-time dense appearance-based SLAM for RGB-D sensors
Dorfmüller Robust tracking for augmented reality using retroreflective markers
KR20190042187A (ko) 깊이 값을 추정하는 방법 및 장치
Meilland et al. Dense visual mapping of large scale environments for real-time localisation
Pressigout et al. Real-time hybrid tracking using edge and texture information
Meilland et al. Super-resolution 3D tracking and mapping
Siu et al. Image registration for image-based rendering
GB2567245A (en) Methods and apparatuses for depth rectification processing
Oe et al. Estimating camera position and posture by using feature landmark database
Bosse et al. Vanishing points and three-dimensional lines from omni-directional video
Cobzas et al. Cylindrical panoramic image-based model for robot localization
Laskar et al. Robust loop closures for scene reconstruction by combining odometry and visual correspondences
Tykkälä Real-time image-based RGB-D camera motion tracking and environment mapping
Kang et al. Creating walk-through images from a video sequence of a dynamic scene
Seo et al. Camera tracking using partially modeled 3-D objects with scene textures
Salvador et al. Joint estimation of shape and motion from silhouettes

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161024

R150 Certificate of patent or registration of utility model

Ref document number: 6044005

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250