JP2015513679A - シーン構造ベース自己姿勢推定 - Google Patents

シーン構造ベース自己姿勢推定 Download PDF

Info

Publication number
JP2015513679A
JP2015513679A JP2014559896A JP2014559896A JP2015513679A JP 2015513679 A JP2015513679 A JP 2015513679A JP 2014559896 A JP2014559896 A JP 2014559896A JP 2014559896 A JP2014559896 A JP 2014559896A JP 2015513679 A JP2015513679 A JP 2015513679A
Authority
JP
Japan
Prior art keywords
camera
image
reference image
query
direction vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014559896A
Other languages
English (en)
Other versions
JP5946924B2 (ja
JP2015513679A5 (ja
Inventor
クレメンス・アルト
ゲーアハルト・ライトマイヤー
ディーター・シュマルシュティーグ
Original Assignee
クアルコム,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クアルコム,インコーポレイテッド filed Critical クアルコム,インコーポレイテッド
Publication of JP2015513679A publication Critical patent/JP2015513679A/ja
Publication of JP2015513679A5 publication Critical patent/JP2015513679A5/ja
Application granted granted Critical
Publication of JP5946924B2 publication Critical patent/JP5946924B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

クエリ画像およびデータベースからの参照画像においてキャプチャされたシーン構造を使用して、姿勢推定が実行される。参照画像の各々は、関連位置推定値を有する。クエリ画像および複数の参照画像に基づいて、クエリ画像に関するカメラ中心の未知の位置と各参照画像に関する参照カメラ中心との間の方向を表す方向ベクトルが生成される。方向ベクトルは、たとえばホモグラフィ、エッセンシャル行列、またはファンダメンタル行列を使用して生成され得る。方向ベクトルおよび各参照画像の関連位置推定値を使用して、6自由度を有する姿勢推定が判断される。姿勢推定は、たとえば、方向ベクトルおよび各参照画像の関連位置推定値を使用して3点姿勢問題を解くことによって判断され得る。

Description

係属仮出願の相互参照
本出願は、2012年3月2日に出願した「Scene Structure-Based Self-Pose Estimation」という表題の米国仮出願第61/606,209号に対して米国特許法第119条による優先権を主張する、2012年7月12日に出願した「Scene Structure-Based Self-Pose Estimation」という表題の米国出願第13/547,987号の優先権を主張するものであり、それらの両方が本出願の譲受人に譲渡され、参照により本出願に組み込まれている。
本明細書で説明する主題の実施形態は、一般に、位置およびトラッキングに関し、より詳細には、ビジョンベーストラッキングに関する。
姿勢推定は、既知または未知であり得る環境に対するカメラの外部キャリブレーションを判断するタスクを表す。最近、画像ベース姿勢推定方法が、非常に正確な6自由度(6DOF)姿勢推定を達成するタスクを解くための優れた選択であることが判明してきている。画像ベース姿勢推定は従来から、シーンの何らかの再構成または3Dモデルを必要とする。疎な3Dモデルの使用は、オンライン姿勢推定については正確性および速度の点で有利であるが、これらのモデルの構築は通常、複雑なオフラインプロセスである。したがって、一方では、必要な3Dモデルのスケーラビリティおよびメンテナビリティは、しかしながら依然として未解決の問題である。
クエリ画像およびデータベースからの参照画像においてキャプチャされたシーン構造を使用して、姿勢推定が実行される。参照画像の各々は、関連位置推定値を有する。クエリ画像および複数の参照画像に基づいて、クエリ画像に関するカメラ中心の未知の位置と各参照画像に関する参照カメラ中心との間の方向を表す方向ベクトルが生成される。方向ベクトルは、たとえばホモグラフィ、エッセンシャル行列、またはファンダメンタル行列を使用して生成され得る。方向ベクトルおよび各参照画像の関連位置推定値を使用して、6自由度を有する姿勢推定が判断される。姿勢推定は、たとえば、方向ベクトルおよび各参照画像の関連位置推定値を使用して3点姿勢問題を解くことによって判断され得る。
一実装形態では、方法が、カメラでキャプチャされたシーンのクエリ画像を受信するステップと、データベースからシーンの複数の参照画像を受信するステップであって、各参照画像は関連位置推定値を有する、ステップと、クエリ画像および複数の参照画像に基づいて、クエリ画像に関するカメラ中心の未知の位置と各参照画像に関する参照カメラ中心との間の方向を表す方向ベクトルを生成するステップと、方向ベクトルおよび各参照画像の関連位置推定値を使用して、6自由度を有するカメラの姿勢を判断するステップとを含む。
一実装形態では、装置が、カメラでキャプチャされたシーンのクエリ画像を受信することが可能な第1のインターフェースと、データベースからシーンの複数の参照画像を受信することが可能な第2のインターフェースであって、各参照画像は関連位置推定値を有する、第2のインターフェースと、第1のインターフェースからのクエリ画像および第2のインターフェースからの複数の参照画像を受信するように結合されたプロセッサであって、クエリ画像および複数の参照画像に基づいて、クエリ画像に関するカメラ中心の未知の位置と各参照画像に関する参照カメラ中心との間の方向を表す方向ベクトルを生成し、方向ベクトルおよび各参照画像の関連位置推定値を使用して、6自由度を有するカメラの姿勢を判断するように構成されたプロセッサとを含む。
一実装形態では、装置が、カメラでキャプチャされたシーンのクエリ画像を受信するための手段と、データベースからシーンの複数の参照画像を受信するための手段であって、各参照画像は関連位置推定値を有する、手段と、クエリ画像および複数の参照画像に基づいて、クエリ画像に関するカメラ中心の未知の位置と各参照画像に関する参照カメラ中心との間の方向を表す方向ベクトルを生成するための手段と、方向ベクトルおよび各参照画像の関連位置推定値を使用して、6自由度を有するカメラの姿勢を判断するための手段とを含む。
一実装形態では、プログラムコードを記憶した非一時的コンピュータ可読媒体が、カメラでキャプチャされたシーンのクエリ画像を受信するためのプログラムコードと、データベースからシーンの複数の参照画像を受信するためのプログラムコードであって、各参照画像は関連位置推定値を有する、プログラムコードと、クエリ画像および複数の参照画像に基づいて、クエリ画像に関するカメラ中心の未知の位置と各参照画像に関する参照カメラ中心との間の方向を表す方向ベクトルを生成するためのプログラムコードと、方向ベクトルおよび各参照画像の関連位置推定値を使用して、6自由度を有するカメラの姿勢を判断するためのプログラムコードとを含む。
シーン構造ベース姿勢推定を使用することが可能なモバイルデバイスの正面を示す図である。 シーン構造ベース姿勢推定を使用することが可能なモバイルデバイスの裏面を示す図である。 モバイルデバイスがシーン構造ベース姿勢推定のために参照画像を取得するためにデータベースにアクセスするシステムを示すブロック図である。 画像のデータベースを使用して6DOF姿勢を判断する方法を示すフローチャートである。 画像のデータベースを使用した6DOF姿勢の判断を概略的に示す図である。 参照画像のデータベースの生成を概略的に示す図である。 シーン構造ベース姿勢推定を使用することが可能なモバイルデバイスのブロック図である。 画像のデータベースを使用して6DOF姿勢を判断することが可能なサーバのブロック図である。
下の図1Aおよび図1Bは、3D再構築の必要なしに6DOF姿勢を判断するためにシーン構造ベース姿勢推定を使用することが可能なモバイルデバイス100の、それぞれ正面、裏面を示す。本明細書で説明するように、クエリ画像およびデータベースからの参照画像においてキャプチャされたシーン構造を使用して、姿勢推定が実行される。参照画像の各々は、関連位置推定値を有する。たとえば、クエリ画像およびこれらの参照画像の各々によって形成されたペアに関して、たとえばSIFT(Scale-Invariant-Feature-Transform)などの画像特徴を使用してエピポーラ幾何が推定される。既知のエピポーラ幾何から、エピポールを取得することができ、エピポールを参照画像の既知の位置とともに、クエリ画像の単一の2D-3D対応として扱うことができる。少なくとも3つの参照画像に基づいて、標準的な3点姿勢問題が使用され得る。クエリカメラの完全な6DOF姿勢は、全体的文脈において、たとえばロバスト解法によるRANSAC(RANdom SAmple Consensus)ベース方式を適用することによって、推定され得る。この手法は、実世界点およびそれらの画像観測値からカメラの姿勢を推定するのとは対照的である。既知の参照カメラ位置は、世界点として扱われ、クエリカメラに対するカメラの配置は、観測値として扱われる。
図1に示すように、モバイルデバイス100は、筐体101、タッチスクリーンディスプレイであり得るディスプレイ102、ならびにスピーカ104およびマイクロフォン106を含む。モバイルデバイス100は、環境を撮像する前方カメラ110をさらに含む。モバイルデバイス100は、たとえばビデオのフレームとして、シーンの画像をキャプチャし、その画像を、データベースからのジオタグ付き参照画像とともに使用して、モバイルデバイス100の位置を判断する。モバイルデバイス100は、ジオタグ付き参照画像を、キャプチャされたクエリ画像とともに使用して、複数のホモグラフィ、エッセンシャル行列またはファンダメンタル行列に基づいて6DOF姿勢推定を判断する。
本明細書で使用される場合、モバイルデバイスは、セルラーもしくは他のワイヤレス通信デバイス、パーソナル通信システム(PCS)デバイス、パーソナルナビゲーションデバイス(PND)、個人情報マネージャ(PIM)、携帯情報端末(PDA)、または他の適したモバイルデバイスなどの任意のポータブル電子デバイスを指す。モバイルデバイスは、ナビゲーション測位信号など、ワイヤレス通信および/またはナビゲーション信号を受信することが可能であり得る。「モバイルデバイス」という用語はまた、衛星信号受信、支援データ受信、および/または位置関連処理がそのデバイスにおいて行われるか、パーソナルナビゲーションデバイス(PND)において行われるかにかかわらず、短距離ワイヤレス、赤外線、有線接続、または他の接続などによって、PNDと通信するデバイスを含むものである。また、「モバイルデバイス」は、その環境の画像(またはビデオ)をキャプチャすることが可能であるワイヤレス通信デバイス、コンピュータ、ラップトップ、タブレットコンピュータなどを含む、すべての電子デバイスを含むものである。
図2は、モバイルデバイス100がワイヤレスネットワーク120を介してリモートサーバ130を使用してデータベース135にアクセスし得るシステムを示すブロック図を示している。データベース135は、ジオタグ付き参照画像を含み得る。ジオタグ付き参照画像の関連セットは、たとえば、画像マッチングに基づいて、またはクエリ画像の大まかな位置推定値を使用して、データベース135に位置付けられ得る。クエリ画像の大まかな位置推定値は、衛星測位システム(SPS)122を使用する大まかなGPS測定またはアクセスポイント124もしくはセルラータワー126などのワイヤレスソースを使用する三辺測量などの従来型の測位技法を使用して、モバイルデバイス100から取得され得る。送信機のSPSシステム122は、エンティティが、地上または上空での自身の位置を、送信機から受信された信号に少なくとも一部基づいて判断することを可能にするように配置される。特定の例では、そのような送信機は地球周回軌道衛星ビークル(SV)に、たとえば、全地球測位システム(GPS)、Galileo、Glonassもしくはコンパスなどの全地球航法衛星システム(GNSS)のコンステレーションまたは他の非全地球システムに位置付けられ得る。したがって本明細書で使用する場合、SPSは1つまたは複数の全地球および/または地域航法衛星システムおよび/または補強システムの任意の組合せを含むことがあり、またSPS信号はSPS信号、SPS様信号、および/またはそのような1つもしくは複数のSPSに関連する他の信号を含んでよい。
モバイルデバイス100はまた、クエリ画像(またはクエリ画像からの特徴セット)をサーバ130に提供することができ、ジオタグ付き参照画像の関連セットを発見する作業負荷は、サーバ130ならびに本明細書で説明する任意の他の所望のプロセスで実行されることになる。代替として、サーバ130は、参照画像のセット、または各参照画像の事前計算済み特徴セットをモバイルデバイス100に提供することができ、モバイルデバイス100は、本明細書で説明するプロセスを実行することができる。さらに、参照画像のデータベース、または参照画像の事前計算済み特徴セットが、モバイルデバイス100に記憶されて、それにより、ネットワーク120を通じてリモートサーバ130にアクセスする必要性を取り除いてもよい。
図3は、画像のデータベースを使用して6DOF姿勢を判断する方法を示すフローチャートである。図示のように、カメラによってキャプチャされたシーンのクエリ画像Iが受信される(202)。クエリ画像は、たとえば、ビデオのフレームであり得る。たとえば、サーバ130が姿勢推定プロセスを実行する場合、クエリ画像Iはサーバ130によって、モバイルデバイス100からネットワーク120を介して受信され得る。モバイルデバイス100が姿勢推定プロセスを実行する場合、クエリ画像Iは、たとえば、モバイルデバイス100中のプロセッサによって、カメラ110から受信され得る。クエリ画像は、関連位置推定値、すなわち、クエリ画像をキャプチャしたカメラ中心の概略位置推定値を有することができ、これは、クエリ画像のキャプチャ時間中またはキャプチャ時間近くに取得され得る。クエリ画像に関連する関連位置推定値は、GPS測定またはワイヤレスソースを使用する三辺測量を含む既知の測位技法を使用して取得されてよく、したがって、測位技法の正確性(たとえば、GPSタイプの測定では10〜50フィート)に限定された概略位置である。
データベースからシーンの複数の参照画像I'(各参照画像は関連位置推定値を有する)が受信される(204)。たとえば、サーバ130が姿勢推定プロセスを実行する場合、複数の参照画像I'は、サーバ130中のプロセッサによって、データベース135から受信され得る。モバイルデバイス100が姿勢推定プロセスを実行する場合、複数の参照画像I'はモバイルデバイス100によって、データベース135からサーバ130およびネットワーク120を介して受信され得る。各参照画像の関連位置推定値は、関連方位を含まないことがある。したがって、たとえば、クエリ画像の関連位置推定値に基づいて、N個の関連画像の第1のセットSが、データベースをフィルタ処理することによって収集され得る。第1のセットSにおける各参照画像は、クエリ画像に関連する位置推定値に近い関連位置推定値を有する。クエリ画像の位置推定値と各参照画像の位置推定値との間の許容可能な距離は、ロケーション(たとえば、グランドキャニオンには、都市の場合よりも大きい距離が使用され得る)、ならびに参照画像の利用可能性(たとえば、参照画像が少ない場合またはシーン構造が遠くにある場合には、より大きい距離が許容可能であり得る)などの要因に依存し得る。たとえば、シーン構造は、それが通常、大きく離れて撮像される場合、遠くにあることがあり、たとえば、自由の女神は通常、ボートから、大きく離れて撮影される。第1のセットSにおける各参照画像は、クエリ画像が取られた位置の近くに位置付けられるので、これらの参照画像の一部は同じシーンを示している可能性が高い。参照画像のセットは、クエリ画像と同じシーンを示す参照画像のみを含むように改良され得る。たとえば、関連画像の第1のセットSは、参照画像の第1のセット中の各参照画像中の特徴とクエリ画像中の特徴を比較し、マッチする特徴を幾何学的に検証することによって、フィルタ処理されて、関連画像の第2のセットS'が生成され得る。例として、クエリ画像および参照画像によって形成されたすべての画像ペアに関して、画像特徴を使用してエピポーラ幾何が推定され得る。特徴マッチングからエラーが生じる可能性があることから、アウトライアー除去のためのロバスト方式が使用され得る。
クエリ画像Iおよび複数の参照画像I'に基づいて、クエリ画像Iに関するカメラ中心の未知の位置と各参照画像I'に関する参照カメラ中心との間の方向を表す3次元(3D)方向ベクトルが生成される(206)。言い換えれば、クエリカメラCと参照カメラC'との間の相対並進が判断される。方向ベクトルは、たとえばファンダメンタル行列、エッセンシャル行列、またはホモグラフィを使用して、クエリ画像Iおよび各参照画像I'から抽出されたエピポーラ幾何に基づいて生成され得る。方向ベクトルおよび各参照画像の関連位置推定値を使用して、6自由度を有するカメラの姿勢を判断する(208)。たとえば、6自由度を有するカメラの姿勢は、方向ベクトルおよび各参照画像の関連位置推定値を使用して3点姿勢問題を解くことによって判断され得る。
図4は、画像のデータベースを使用した6DOF姿勢の判断を概略的に示している。図示のように、クエリ画像Iがキャプチャされ、クエリ画像Iの大まかな位置推定値304を使用して、データベース135から参照画像I'のセットS、306を取得する。
図5は例として、データベース135の生成を概略的に示している。図5は、シーン309において四角によって複数の画像I'A、I'B、I'C、およびI'D(総称して画像I'と呼ばれることがある)が識別される位置とともに建物310、312を含むシーン309の上面図を示している。画像I'ならびに画像が取られたときのカメラの関連位置推定値(pos)がデータベース135に提供され、記憶される。所望される場合、内部カメラキャリブレーションなど、画像I'に関連する追加情報もデータベースに記憶され得る。所望される場合、データベース135は、画像全体自体ではなく、画像I'からの抽出された特徴のみを記憶することができる。
クエリ画像Iおよび参照画像I'のセットSが幾何回復316のために提供される。上記で説明したように、クエリ画像Iの大まかな位置推定値を使用して生成され得る参照画像の初期セットが、たとえばSIFT、SURF(Speeded Up Robust Feature)を使用して抽出された画像IおよびI'からの画像特徴のマッチング318を通じて改良され得る。マッチング318のプロセスは、画像ペア間のエピポーラ幾何を計算する間に実行され得る。モデル推定320は、たとえばファンダメンタル行列F、エッセンシャル行列E、またはホモグラフィHとして、各画像ペアIおよびI'の間の相対姿勢を生成する。
概して、カメラに関する情報が知られていない場合、ファンダメンタル行列Fが決定されてよく、一方で、内部キャリブレーションKがカメラで知られている場合、エッセンシャル行列Eが決定されてよい。加えて、シーンに支配的平面があると仮定され得る場合、誘起されたホモグラフィHが決定され得る。さらに、必要とされる対応の最少数が追加情報とともに減少し、たとえばファンダメンタル行列Fは少なくとも7個必要とし、エッセンシャル行列は5個必要とし、ホモグラフィHは4個のみ必要とする。
ファンダメンタル行列Fによって記述される、画像ペア間、たとえばクエリ画像Iと参照画像I'の各々との間のエピポーラ幾何が、たとえばSIFT(Scale Invariant Feature Transforms)、SURF(Speeded Up Robust Feature)などの画像特徴を使用して推定され得る。2つの画像IおよびI'について、随意のシーン特徴点Xが、Iにおける観測値xおよびI'における観測値x'として示される。観測値xの記述子と観測値x'の記述子とをマッチングすることによって、画像Iと画像I'との間の対応が確立される。多数の画像特徴について、対応のセット全体がこのように取得され得る。クエリ画像とマッチする特徴のしきい値を下回る参照画像がセットSから廃棄され得る。しきい値は、a)示されたシーン、b)用いられた特徴の推定パフォーマンス、およびc)初期マッチの数を含む、いくつかの要素に依存し得る。良好なヒューリスティックは、ファンダメンタル行列F、エッセンシャル行列E、またはホモグラフィHを後に推定するためのアルゴリズムに必要とされる数の対応を少なくとも有するペアを受け入れることであり、たとえば、ホモグラフィは4+1を使用してよく、一方で、標準的な8点アルゴリズムが用いられる場合、ファンダメンタル行列F、エッセンシャル行列Eは8+1を使用してよい。
ファンダメンタル行列Fは、クエリカメラCおよび参照カメラC'の完全固有射影幾何(full intrinsic projective geometry)をカプセル化し、非線形最適化を使用してクエリ画像Iと参照画像I'との間の少なくとも6個の対応から推定され得る。線形最小2乗法では8個の対応が使用され得る。ファンダメンタル行列Fは、画像IおよびI'における単一のシーン点Xiの観測値xiおよびx'iについて、以下が成り立つような3×3行列である。
Figure 2015513679
代替として、クエリカメラCと参照カメラC'の両方の内部カメラキャリブレーションKおよびK'が知られている場合、次のように正規化座標を取得するためにカメラキャリブレーション逆関数(camera calibration inverse)が点に適用され得る。
Figure 2015513679
正規化座標から、次のようなファンダメンタル行列Fの特殊形式としてエッセンシャル行列Eが推定され得る。
Figure 2015513679
エッセンシャル行列Eは、クエリ画像Iと参照画像I'との間の少なくとも5個の対応から推定でき、以下によってファンダメンタル行列Fに関係する。
E=KTFK 式4
画像Iと画像I'との間の対応のセットに誤差が存在するために、ファンダメンタル行列Fまたはエッセンシャル行列Eのいずれかの推定は、RANSACをロバストに用いて実行され得る。
クエリ画像Iと参照画像I'との間のエピポーラ幾何に基づいて、クエリカメラCと参照カメラC'との間の相対並進を判断し、それにより、ファンダメンタル行列、エッセンシャル行列として図4の3D方向ベクトル324を提供することができる。たとえば、Cに対するC'の相対並進に関する情報、すなわち方向ベクトルは、次のように抽出され得る。
Fの右ヌルベクトルはエピポールeであり。これは基本的に、画像Iにおける参照カメラC'の観測値である。事実上、エピポールeは、参照カメラC'がクエリカメラCから見られる場合の方向を表す。クエリカメラCの内部キャリブレーションKによってエピポールeを正規化した後、
Figure 2015513679
が、参照カメラC'が存在しなければならないクエリカメラCの座標系の方向を表す。すなわち、画像IおよびI'についてエッセンシャル行列Eを推定することが可能である場合、エピポール
Figure 2015513679
が、Eの右ヌルベクトルとして直接計算され得る。分解の後、符号のあいまいさが存在し、したがって、ファンダメンタル行列Fおよびエッセンシャル行列Eは、方向性のないベクトルを提供する。
方向ベクトル324を導出するためにファンダメンタル行列またはエッセンシャル行列を使用することに加えて、ホモグラフィに基づくモデル推定320が、クエリ画像の未知の位置と各参照画像に関連する推定位置との間の方向ベクトル324を生成するために使用され得る。人工的環境では一般的である支配的平面構造をシーンが有し、クエリカメラCと参照カメラC'の両方の内部キャリブレーションKおよびK'が知られている場合、エピポーラ幾何ではなくホモグラフィを用いて、カメラの互いの相対配置を推定することができる。
単一の物理平面Πを仮定すると、IとI'との間の最低4個の対応が、2DホモグラフィHの推定に十分である。ホモグラフィHは、単一の基礎平面Πに有効なクエリ画像Iと参照画像I'との間の2D射影変換をカプセル化する。Π上の随意のシーン点Xiについて、3×3行列Hは、Iにおける点の観測値
Figure 2015513679
をI'における点の観測値
Figure 2015513679
に、以下が成り立つように変換する。
Figure 2015513679
エピポーラ幾何と同様に、ホモグラフィHは、クエリカメラCと参照カメラC'との間の相対姿勢変化Pを符号化する。
P=[R|t] 式7
上式で、Rおよびtは、それぞれ姿勢変化の回転部分、並進部分を示す。Hがクエリ画像IとI'との間のホモグラフィを示すとすると、次のようになる。
Figure 2015513679
上式で、dは、クエリカメラCから所与の平面Πまでの距離であり、nは、クエリカメラCに対するΠの法線ベクトルであり、Rおよびtは、クエリカメラCに対する参照カメラC'の相対回転および相対並進である。式8からの行列Hの分解323が実行され、この場合、数値の安定のために、det(H)=1となるように分解前にHが正規化される。結果として、R、t、dおよびnの2つの物理的に可能な解が計算される。
クエリカメラCと参照カメラC'との間の真の並進を、Hから完全に推定することはできない。しかしながら、特定の参照カメラC'の位置を考慮して、tは、クエリカメラCが存在しなければならない方向を定義する。並進tをクエリカメラCの座標系に変換して、以下を取得することができる。
v=-RTt 式9
上式で、vは、クエリカメラCの座標系に対する参照カメラC'の方向ベクトル324を示す。上述した、ファンダメンタル行列またはエッセンシャル行列を使用して取得された方向ベクトル324と同様に、この場合に、ホモグラフィを使用して生成された方向ベクトル324が、6自由度を有するクエリカメラCのロバスト姿勢推定328のために、参照画像I'の位置推定値326とともに使用されてよい。
クエリ画像Iの未知の位置と参照画像I'の各関連位置推定値との間の方向を表す方向ベクトル324および参照画像I'の各々に関連する位置推定値326により、クエリカメラCのロバスト姿勢推定328が、3点姿勢問題を使用して実行され得る。ピンホールカメラモデルの場合、既知のカメラキャリブレーションKにより、画像測定値xiを光線viに変換することが可能になり、それらのペアワイズ角度∠(vi; vj)が測定され得る。ピンホールカメラモデルでは、3つの既知の3D点Xiおよびそれらの対応する画像測定値xiが、3つのペアワイズ角度測定値をもたらす。これらは、カメラのロケーションおよび方位についての有限数の解を計算するのに十分である。解のもっともらしさを判断するために、3D点の第4の観測値が使用される。
しかしながら、ピンホールカメラモデルとは異なり、本ケースは画像空間において作用しない。言い換えれば、光線viは、ファンダメンタル行列Fもしくはエッセンシャル行列Eからのエピポール、またはホモグラフィHから取得された並進方向のいずれかとして取得される参照カメラC'iの推定方向ベクトル
Figure 2015513679
である。参照カメラC'iは、既知の3D点Xiを有する。ペアワイズ角度測定値
Figure 2015513679
が計算されてよく、これはピンホールカメラの場合と同じ方程式系に導く。3つの既知の参照カメラ位置C'iについて、ペアワイズ3D点距離li,jが計算され得る。さらに、角度θI, jは、対応する方向ベクトル
Figure 2015513679
および
Figure 2015513679
からわかる。未知数は、クエリカメラCの中心(ピンホールの場合における射影の中心に相当する)とカメラ中心C'iとの間の距離diである。
Figure 2015513679
コサインの法則を使用して、3点ペアの各々は、次のような1つの式を与える。
Figure 2015513679
式11は、従来型のピンホールカメラモデルの場合と同じ多項式系であり、同じ技法で解くことができ、ここでの違いは、ピンホールカメラモデルの場合に、カメラキャリブレーション行列Kを使用して、画像測定値をベクトル、ひいてはペアワイズユークリッド角度測定値に変換するのに対し、本ケースでは、光線が差分姿勢(differential pose)の並進部分によって定義されることである。
参照カメラC'がクエリカメラCによって見られる方向に符号のあいまいさがある。標準的な3点姿勢アルゴリズムの実装では、方向性のある光線を使用し、カメラ中心の後ろに3D点がある可能性を無視する。この問題を克服する1つの方法は、有効な解として四次式の負の累乗根を考慮して、実装を相応に変更することである。これは、部分的に点が反映された(partially point mirrored)姿勢をもたらす可能性がある。それらは、回転構成要素の否定判断をチェックすることによって検証され得る。代替として、当業者によって知られているような一般化された3点姿勢アルゴリズムは、無視できる追加コストで方向性のない光線において暗示的に効果を発揮し、同じ解を返すので、そのようなアルゴリズムが使用されることもある。
少なくとも3点-光線ペアが、問題を解くために必要であるが、解の物理的なもっともらしさを検証するためには、第4のペアが使用される。したがって、理論的には完全な6-DOF姿勢が、最低4個の参照画像I'を使用してクエリカメラCのために計算され得るが、実際には、10個以上の参照画像I'を使用して問題を解くのが望ましいことがある。その上、ホモグラフィ、エッセンシャル行列およびファンダメンタル行列によってもたらされる方向推定は、2つのあり得る解を提供するので、RANSACを用いるロバスト推定方式が使用され得る。
したがって、完全な6-DOF姿勢推定の問題は、手元にシーンの明示的な再構築を有することなく、かつ明示的にシーンを再構築する必要なしに解かれる。解の正確性は、参照画像I'の数および幾何推定の質に直接依存する。したがって、幾何回復316の計算労力(すなわち、ホモグラフィ、エッセンシャル行列またはファンダメンタル行列の推定)は、正確性の異なるレベルに対して決定され得る。
図6は、画像のデータベースを使用して6DOF姿勢を判断することが可能なモバイルデバイス100のブロック図である。モバイルデバイス100は、画像をキャプチャするためのカメラ110を含む。モバイルデバイス100は、(図2に示す)ネットワーク120からワイヤレス信号を受信するためのワイヤレスインターフェース170をさらに含み得る。ワイヤレスインターフェース170は、ワイヤレスワイドエリアネットワーク(WWAN)、ワイヤレスローカルエリアネットワーク(WLAN)、ワイヤレスパーソナルエリアネットワーク(WPAN)などのような、様々なワイヤレス通信ネットワークを使用し得る。「ネットワーク」および「システム」という用語は多くの場合に互換的に使用される。WWANは、符号分割多元接続(CDMA)ネットワーク、時分割多元接続(TDMA)ネットワーク、周波数分割多元接続(FDMA)ネットワーク、直交周波数分割多元接続(OFDMA)ネットワーク、単一搬送周波数分割多元接続(SC-FDMA)ネットワーク、ロングタームエボリューション(LTE)などでもよい。CDMAネットワークは、cdma2000、広帯域CDMA(W-CDMA)などの1つまたは複数の無線アクセス技術(RAT)を実装することができる。cdma2000は、IS-95、IS-2000、およびIS-856規格を含む。TDMAネットワークは、Global System for Mobile Communications(GSM(登録商標))、Digital Advanced Mobile Phone System(D-AMPS)または何らかの他のRATを実装することができる。GSM(登録商標)およびW-CDMAは、「3rd Generation Partnership Project」(3GPP)という名称の組織からの文書に記載されている。cdma2000は、「3rd Generation Partnership Project 2」(3GPP2)という名称の組織からの文書に記載されている。3GPPおよび3GPP2の文書は公的に入手可能である。WLANは、IEEE802.11xネットワークであり得、またWPANはBluetooth(登録商標)ネットワーク、IEEE802.15x、または何らかの他のタイプのネットワークであり得る。その上、WWAN、WLANおよび/またはWPANの任意の組合せが使用され得る。
モバイルデバイス100は、動きまたは位置センサ、たとえば加速度計、ジャイロスコープ、電子コンパスまたは他の同様の動き検知要素などの非視覚的ナビゲーションセンサ171を随意に含むことができる。ナビゲーションセンサ171の使用は、上述の方法の複数のアクションを支援することができる。
モバイルデバイス100は、ディスプレイ102、キーパッド105、またはユーザが情報をモバイルデバイス100に入力することのできる他の入力デバイスを含むユーザインターフェース103をさらに含むことができる。所望される場合、キーパッド105は、仮想キーパッドをタッチセンサ付きディスプレイ102に組み込むことによって取り除くことができる。たとえば、モバイルデバイス100が、セルラー電話などのモバイルデバイスである場合、ユーザインターフェース103は、マイクロフォン106およびスピーカ104も含み得る。もちろん、モバイルデバイス100は、本開示に無関係の他の要素を含み得る。
図7は、モバイルデバイス100に類似し得る、画像のデータベースを使用して6DOF姿勢を判断することが可能なサーバ130のブロック図を示している。サーバ130は、ネットワーク120を介してモバイルデバイス100と通信するために使用される外部インターフェース131を含む。外部インターフェース131は、ルータ(図示せず)への有線インターフェースまたは任意の様々なワイヤレス通信ネットワークで使用されるワイヤレスインターフェースであり得る。サーバ130は、たとえば、ディスプレイ、ならびにキーパッド、またはユーザが情報をサーバ130に入力することのできる他の入力デバイスを含み得るユーザインターフェース133をさらに含むことができる。サーバ130は、データベース135を含むものとしてさらに示されているが、データベース135はサーバ130の外部にあってもよいことを理解されたい。
モバイルデバイス100とサーバ130の両方が、モバイルデバイス中のカメラ110およびサーバ130中のデータベース135からクエリ画像を受信するように接続された制御ユニットを含むものとして示されている。図6に示すように、制御ユニット180はカメラ110、SPS受信機150、ワイヤレスインターフェース170およびナビゲーションセンサ171(含まれる場合)に結合される。モバイルデバイス100において、制御ユニット180は上述のように、カメラ110から第1のインターフェース111を介してデータを、ならびにデータベース135から第2のインターフェース、すなわちワイヤレスインターフェース170を介して受信した参照画像I'を、受け入れて処理する。図7に示すように、制御ユニットは外部インターフェース131、ユーザインターフェース133、およびデータベース135に結合される。したがって、サーバ130において、制御ユニット180は上述のように、カメラ110から第1のインターフェース111、すなわち外部インターフェース131を介してデータを、ならびにデータベース135から第2のインターフェース137を介して参照画像I'を、受け入れて処理する。
モバイルデバイス100またはサーバ130のいずれかにおける制御ユニット180は、バス180b、プロセッサ181および関連するメモリ184、ハードウェア182、ソフトウェア185、ならびにファームウェア183によって提供され得る。制御ユニット180は上述のように、クエリ画像Iと参照画像I'との間の特徴を抽出してマッチングする画像マッチングユニット192、および、たとえばファンダメンタル行列、エッセンシャル行列またはホモグラフィを使用して、クエリ画像Iと参照画像I'との間の方向ベクトルを生成するモデル推定ユニット194を、含むことができる。さらに、方向ベクトルおよび参照画像I'に関連する位置推定値を使用して、6DOF姿勢を判断するロバスト姿勢推定ユニット196を含み得る。画像マッチングユニット192、モデル推定ユニット194およびロバスト姿勢推定ユニット196は、説明を簡単にするためにプロセッサ181とは別に示され、別個のものであるが、単一のユニットであってもよく、かつ/またはプロセッサ181の中で実行されるソフトウェア185内の命令に基づいてプロセッサ181の中で実装されてもよい。本明細書で使用する場合、プロセッサ181、ならびに画像マッチングユニット192、モデル推定ユニット194およびロバスト姿勢推定ユニット196のうちの1つまたは複数は、1つまたは複数のマイクロプロセッサ、組込みプロセッサ、コントローラ、特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DPS)などを含み得るが、必ずしもそれらを含む必要はないことが理解されよう。プロセッサという用語は、特定のハードウェアではなく、システムによって実装される機能について説明することが意図される。さらに、本明細書で使用する場合、「メモリ」という用語は、長期メモリ、短期メモリ、またはモバイルプラットフォームに関連する他のメモリを含む任意のタイプのコンピュータ記憶媒体を指し、いかなる特定のタイプのメモリ、もしくはメモリの数、またはメモリが収納される媒体のタイプに限定されない。
したがって、モバイルデバイス100とサーバ130の両方は、カメラでキャプチャされたシーンのクエリ画像を受信するための手段を含み、これはたとえば、モバイルデバイス100中のインターフェース111またはサーバ130中の外部インターフェース131であり得る。データベースからシーンの複数の参照画像を受信するための手段であって、各参照画像は関連位置推定値を有する、手段は、モバイルデバイス100中のワイヤレスインターフェース170またはサーバ130中のインターフェース137であり得る。クエリ画像および複数の参照画像に基づいて、クエリ画像に関するカメラ中心の未知の位置と各参照画像に関する参照カメラ中心との間の方向を表す方向ベクトルを生成するための手段は、たとえば、モデル推定ユニット194、またはソフトウェア185から受信した命令を実行するプロセッサ181であり得る。方向ベクトルおよび各参照画像の関連位置推定値を使用して、6自由度を有するカメラの姿勢を判断するための手段は、ロバスト姿勢推定ユニット196、またはソフトウェア185から受信した命令を実行するプロセッサ181であり得る。
本明細書で説明する方法は、用途に応じて様々な手段によって実装され得る。たとえば、これらの方法は、ハードウェア182、ファームウェア183、ソフトウェア185、またはそれらの何らかの組合せの形で実装され得る。ハードウェアの実装形態の場合、処理ユニットは1つまたは複数の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、デジタル信号処理デバイス(DSPDs)、プログラマブル論理デバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGAs)、プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、電子デバイス、本明細書に記載された機能を実行するように設計された他の電子ユニット、またはそれらの組合せの範囲内で実装され得る。
ファームウェアおよび/またはソフトウェアの実装形態の場合、これらの方法を、本明細書に記載された機能を実行するモジュール(たとえば、プロシージャ、関数など)で実装することができる。本明細書に記載された方法を実装する際に、命令を有形に具現化する任意の機械可読媒体を使用することができる。たとえば、ソフトウェアコードがメモリ184に記憶され、プロセッサ181によって実行されてもよい。メモリは、プロセッサ181内に、またはプロセッサ181の外部に実装され得る。
ファームウェアおよび/またはソフトウェアに実装される場合、機能は、コンピュータ可読媒体に1つまたは複数の命令またはコードとして記憶され得る。例として、データ構造で符号化された非一時的コンピュータ可読媒体、およびコンピュータプログラムで符号化されたコンピュータ可読媒体がある。コンピュータ可読媒体には、物理的コンピュータ記憶媒体が含まれる。記憶媒体は、コンピュータによってアクセスされ得る任意の入手可能な媒体であり得る。限定ではなく例として、そのようなコンピュータ可読媒体は、RAM、ROM、EEPROM、CD-ROMもしくは他の光ディスク記憶装置、磁気ディスク記憶装置もしくは他の磁気記憶デバイス、または、所望のプログラムコードを命令もしくはデータ構造の形式で格納するために用いることができ、コンピュータによってアクセスすることができる他の任意の媒体を含むことができる。また本明細書で使用する場合にディスク(disk)およびディスク(disc)は、コンパクトディスク(CD)、レーザーディスク(登録商標)、光ディスク、デジタル多用途ディスク(DVD)、フロッピー(登録商標)ディスクおよびブルーレイディスクを含む。ディスク(disk)は通常磁気的にデータを複製するが、ディスク(disc)はレーザーを用いて光学的にデータを複製する。上記の組合せも、コンピュータ可読媒体の範囲内に含まれるべきである。
説明のために本発明を特定の実施形態に関連して示したが、本発明はそれらの実施形態に限定されない。本発明の範囲から逸脱することなく様々な適合および改変がなされてもよい。したがって、添付の特許請求の範囲の趣旨および範囲は、上記の説明に限定されるべきではない。
304 位置推定値
306 参照画像I'のセットS
309 シーン
310 建物
312 建物
316 幾何回復
318 マッチング
320 モデル推定
323 分解
324 3D方向ベクトル、方向ベクトル
326 位置推定値
328 ロバスト姿勢推定

Claims (24)

  1. カメラでキャプチャされたシーンのクエリ画像を受信するステップと、
    データベースから前記シーンの複数の参照画像を受信するステップであって、各参照画像は関連位置推定値を有する、ステップと、
    前記クエリ画像および前記複数の参照画像に基づいて、前記クエリ画像に関するカメラ中心の未知の位置と各参照画像に関する参照カメラ中心との間の方向を表す方向ベクトルを生成するステップと、
    前記方向ベクトルおよび各参照画像の前記関連位置推定値を使用して、6自由度を有する前記カメラの姿勢を判断するステップと
    を含む方法。
  2. 前記クエリ画像に関する前記カメラ中心と各参照画像に関する前記参照カメラ中心との間の方向を表す前記方向ベクトルを生成するステップは、ホモグラフィ、エッセンシャル行列、およびファンダメンタル行列のうちの少なくとも1つを使用するステップを含む、請求項1に記載の方法。
  3. 6自由度を有する前記カメラの前記姿勢は、前記方向ベクトルおよび各参照画像の前記関連位置推定値を使用して3点姿勢問題を解くことによって判断される、請求項1に記載の方法。
  4. 前記データベースから前記シーンの前記複数の参照画像を受信するステップは、
    前記クエリ画像がキャプチャされたときの前記カメラの概略位置を使用して、参照画像の第1のセットを生成するステップと、
    前記クエリ画像中の特徴を各参照画像中の特徴とマッチングすることによって、参照画像の前記第1のセットをフィルタ処理して、前記複数の参照画像を生成するステップと
    を含む、請求項1に記載の方法。
  5. 各参照画像の前記関連位置推定値は、関連方位を含まない、請求項1に記載の方法。
  6. 各参照画像は、関連カメラキャリブレーションを有し、前記方向ベクトルを生成するステップは、各参照画像の前記関連カメラキャリブレーションを使用する、請求項1に記載の方法。
  7. カメラでキャプチャされたシーンのクエリ画像を受信することが可能な第1のインターフェースと、
    データベースから前記シーンの複数の参照画像を受信することが可能な第2のインターフェースであって、各参照画像は関連位置推定値を有する、第2のインターフェースと、
    前記第1のインターフェースからの前記クエリ画像および前記第2のインターフェースからの前記複数の参照画像を受信するように結合されたプロセッサであって、前記クエリ画像および前記複数の参照画像に基づいて、前記クエリ画像に関するカメラ中心の未知の位置と各参照画像に関する参照カメラ中心との間の方向を表す方向ベクトルを生成し、前記方向ベクトルおよび各参照画像の前記関連位置推定値を使用して、6自由度を有する前記カメラの姿勢を判断するように構成されたプロセッサと
    を含む装置。
  8. 前記装置は、前記カメラをさらに含み、前記第1のインターフェースは、前記カメラと前記プロセッサとの間のインターフェースであり、前記第2のインターフェースは、ワイヤレスインターフェースである、請求項7に記載の装置。
  9. 前記第1のインターフェースは、ワイヤレスインターフェースであり、前記第2のインターフェースは、前記データベースと前記プロセッサとの間のインターフェースである、請求項7に記載の装置。
  10. 前記プロセッサは、ホモグラフィ、エッセンシャル行列、およびファンダメンタル行列のうちの少なくとも1つを使用して、前記クエリ画像に関する前記カメラ中心と各参照画像に関する前記参照カメラ中心との間の方向を表す前記方向ベクトルを生成するように構成される、請求項7に記載の装置。
  11. 前記プロセッサは、前記方向ベクトルおよび各参照画像の前記関連位置推定値を使用して3点姿勢問題を解くことによって、6自由度を有する前記カメラの前記姿勢を判断するように構成される、請求項7に記載の装置。
  12. 前記プロセッサは、前記クエリ画像中の特徴を各参照画像中の特徴とマッチングすることによって、前記複数の参照画像をフィルタ処理するようにさらに構成される、請求項7に記載の装置。
  13. 各参照画像の前記関連位置推定値は、関連方位を含まない、請求項7に記載の装置。
  14. 各参照画像は、関連カメラキャリブレーションを有し、前記方向ベクトルを生成するステップは、各参照画像の前記関連カメラキャリブレーションを使用する、請求項7に記載の装置。
  15. カメラでキャプチャされたシーンのクエリ画像を受信するための手段と、
    データベースから前記シーンの複数の参照画像を受信するための手段であって、各参照画像は関連位置推定値を有する、手段と、
    前記クエリ画像および前記複数の参照画像に基づいて、前記クエリ画像に関するカメラ中心の未知の位置と各参照画像に関する参照カメラ中心との間の方向を表す方向ベクトルを生成するための手段と、
    前記方向ベクトルおよび各参照画像の前記関連位置推定値を使用して、6自由度を有する前記カメラの姿勢を判断するための手段と
    を含む装置。
  16. 前記クエリ画像に関する前記カメラ中心と各参照画像に関する前記参照カメラ中心との間の方向を表す前記方向ベクトルを生成するための前記手段は、ホモグラフィ、エッセンシャル行列、およびファンダメンタル行列のうちの少なくとも1つを使用する、請求項15に記載の装置。
  17. 6自由度を有する前記カメラの前記姿勢は、前記方向ベクトルおよび各参照画像の前記関連位置推定値を使用して3点姿勢問題を解くことによって判断される、請求項15に記載の装置。
  18. 前記データベースから前記シーンの前記複数の参照画像を受信するための前記手段は、前記クエリ画像がキャプチャされたときの前記カメラの概略位置を使用して、参照画像の第1のセットを生成し、前記クエリ画像中の特徴を各参照画像中の特徴とマッチングすることによって、参照画像の前記第1のセットをフィルタ処理して、前記複数の参照画像を生成する、請求項15に記載の装置。
  19. 各参照画像の前記関連位置推定値は、関連方位を含まない、請求項15に記載の装置。
  20. 各参照画像は、関連カメラキャリブレーションを有し、前記方向ベクトルを生成するための前記手段は、各参照画像の前記関連カメラキャリブレーションを使用する、請求項15に記載の装置。
  21. プログラムコードを記憶した非一時的コンピュータ可読記憶媒体であって、
    カメラでキャプチャされたシーンのクエリ画像を受信するためのプログラムコードと、
    データベースから前記シーンの複数の参照画像を受信するためのプログラムコードであって、各参照画像は関連位置推定値を有する、プログラムコードと、
    前記クエリ画像および前記複数の参照画像に基づいて、前記クエリ画像に関するカメラ中心の未知の位置と各参照画像に関する参照カメラ中心との間の方向を表す方向ベクトルを生成するためのプログラムコードと、
    前記方向ベクトルおよび各参照画像の前記関連位置推定値を使用して、6自由度を有する前記カメラの姿勢を判断するためのプログラムコードと
    を含む非一時的コンピュータ可読記憶媒体。
  22. 前記クエリ画像に関する前記カメラ中心と各参照画像に関する前記参照カメラ中心との間の方向を表す前記方向ベクトルを生成するための前記プログラムコードは、ホモグラフィ、エッセンシャル行列、およびファンダメンタル行列のうちの少なくとも1つを使用する、請求項21に記載の非一時的コンピュータ可読記憶媒体。
  23. 6自由度を有する前記カメラの前記姿勢は、前記方向ベクトルおよび各参照画像の前記関連位置推定値を使用して3点姿勢問題を解くことによって判断される、請求項21に記載の非一時的コンピュータ可読記憶媒体。
  24. 前記データベースから前記シーンの前記複数の参照画像を受信するための前記プログラムコードは、
    前記クエリ画像がキャプチャされたときの前記カメラの概略位置を使用して、参照画像の第1のセットを生成するためのプログラムコードと、
    前記クエリ画像中の特徴を各参照画像中の特徴とマッチングすることによって、参照画像の前記第1のセットをフィルタ処理して、前記複数の参照画像を生成するためのプログラムコードと
    を含む、請求項21に記載の非一時的コンピュータ可読記憶媒体。
JP2014559896A 2012-03-02 2013-01-29 シーン構造ベース自己姿勢推定 Expired - Fee Related JP5946924B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201261606209P 2012-03-02 2012-03-02
US61/606,209 2012-03-02
US13/547,987 2012-07-12
US13/547,987 US8965057B2 (en) 2012-03-02 2012-07-12 Scene structure-based self-pose estimation
PCT/US2013/023669 WO2013130208A1 (en) 2012-03-02 2013-01-29 Scene structure-based self-pose estimation

Publications (3)

Publication Number Publication Date
JP2015513679A true JP2015513679A (ja) 2015-05-14
JP2015513679A5 JP2015513679A5 (ja) 2015-06-25
JP5946924B2 JP5946924B2 (ja) 2016-07-06

Family

ID=49042864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014559896A Expired - Fee Related JP5946924B2 (ja) 2012-03-02 2013-01-29 シーン構造ベース自己姿勢推定

Country Status (6)

Country Link
US (1) US8965057B2 (ja)
EP (1) EP2820618B1 (ja)
JP (1) JP5946924B2 (ja)
KR (1) KR101585521B1 (ja)
CN (1) CN104145294B (ja)
WO (1) WO2013130208A1 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9317928B2 (en) 2012-04-06 2016-04-19 Adobe Systems Incorporated Detecting and tracking point features with primary colors
US8873846B2 (en) * 2012-04-06 2014-10-28 Adobe Systems Incorporated Detecting and tracking point features with primary colors
US9159133B2 (en) * 2012-11-05 2015-10-13 Qualcomm Incorporated Adaptive scale and/or gravity estimation
US10168871B2 (en) * 2013-09-16 2019-01-01 Rovi Guides, Inc. Methods and systems for presenting direction-specific media assets
US10037469B2 (en) 2013-12-10 2018-07-31 Google Llc Image location through large object detection
DE102014003284A1 (de) * 2014-03-05 2015-09-10 Astrium Gmbh Verfahren zur Positions- und Lagebestimmung mittels virtueller Referenzbilder
US10484697B2 (en) * 2014-09-09 2019-11-19 Qualcomm Incorporated Simultaneous localization and mapping for video coding
WO2016155767A1 (en) * 2015-03-30 2016-10-06 Siemens Aktiengesellschaft Method and system for determining an orientation of a mobile device
GB2546954A (en) * 2015-04-17 2017-08-09 Cinime Asia Pacific Pte Ltd A location method and system
US9984301B2 (en) * 2015-04-20 2018-05-29 Qualcomm Incorporated Non-matching feature-based visual motion estimation for pose determination
WO2017201487A1 (en) * 2016-05-20 2017-11-23 Magic Leap, Inc. Method and system for performing convolutional image transformation estimation
US9996936B2 (en) * 2016-05-20 2018-06-12 Qualcomm Incorporated Predictor-corrector based pose detection
US9965689B2 (en) * 2016-06-09 2018-05-08 Qualcomm Incorporated Geometric matching in visual navigation systems
CN107665231A (zh) * 2016-07-27 2018-02-06 优屏亚太私人有限公司 定位方法和系统
US10311330B2 (en) * 2016-08-17 2019-06-04 International Business Machines Corporation Proactive input selection for improved image analysis and/or processing workflows
US10579741B2 (en) 2016-08-17 2020-03-03 International Business Machines Corporation Proactive input selection for improved machine translation
CN109215077B (zh) * 2017-07-07 2022-12-06 腾讯科技(深圳)有限公司 一种相机姿态信息确定的方法及相关装置
CN107806861B (zh) * 2017-09-14 2020-03-06 中国人民解放军92859部队 一种基于本质矩阵分解的倾斜影像相对定向方法
FR3073655B1 (fr) * 2017-11-16 2019-10-18 Thales Procede de determination d'un vecteur vitesse visuel d'un engin mobile, produit programme d'ordinateur et systeme de determination associes
CN108010055B (zh) * 2017-11-23 2022-07-12 塔普翊海(上海)智能科技有限公司 三维物体的跟踪系统及其跟踪方法
US11393160B2 (en) * 2018-03-23 2022-07-19 Intel Corporation Deep geometric model fitting
EP4296943A3 (en) * 2018-12-26 2024-04-03 Elbit Systems Land and C4I Ltd. Methods and systems for camera 3d pose determination
WO2020222871A1 (en) * 2019-04-30 2020-11-05 Google Llc Systems and interfaces for location-based device control
KR102316216B1 (ko) * 2019-11-12 2021-10-22 네이버랩스 주식회사 블라인드 워터마킹 기술을 이용한 카메라 기반 측위 방법 및 시스템
KR102383567B1 (ko) * 2019-12-16 2022-04-06 네이버랩스 주식회사 시각 정보 처리 기반의 위치 인식 방법 및 시스템
CN113689374B (zh) * 2020-05-18 2023-10-27 浙江大学 一种植物叶片表面粗糙度确定方法及系统
WO2022092511A1 (ko) * 2020-10-30 2022-05-05 에스케이텔레콤 주식회사 3차원 맵을 생성하는 방법 및 생성된 3차원 맵을 이용하여 사용자 단말의 포즈를 결정하는 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1594322A2 (en) * 2004-02-11 2005-11-09 British Broadcasting Corporation Position determination
WO2006001129A1 (ja) * 2004-06-29 2006-01-05 Sony Corporation 情報処理装置および方法、プログラム、並びに情報処理システム
JP2008185417A (ja) * 2007-01-29 2008-08-14 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9229540B2 (en) 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
US7463778B2 (en) * 2004-01-30 2008-12-09 Hewlett-Packard Development Company, L.P Motion estimation for compressing multiple view images
JP5403861B2 (ja) 2006-11-06 2014-01-29 キヤノン株式会社 情報処理装置、情報処理方法
US20100045701A1 (en) 2008-08-22 2010-02-25 Cybernet Systems Corporation Automatic mapping of augmented reality fiducials
US8644551B2 (en) * 2009-10-15 2014-02-04 Flyby Media, Inc. Systems and methods for tracking natural planar shapes for augmented reality applications
CN103119627B (zh) 2010-09-20 2017-03-08 高通股份有限公司 用于云辅助式扩增现实的可适应性框架
EP2619605A1 (en) 2010-09-23 2013-07-31 Telefónica, S.A. Method and system for calculating the geo-location of a personal device
CN102034238B (zh) * 2010-12-13 2012-07-18 西安交通大学 基于光学成像测头和视觉图结构的多摄像机系统标定方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1594322A2 (en) * 2004-02-11 2005-11-09 British Broadcasting Corporation Position determination
WO2006001129A1 (ja) * 2004-06-29 2006-01-05 Sony Corporation 情報処理装置および方法、プログラム、並びに情報処理システム
JP2008185417A (ja) * 2007-01-29 2008-08-14 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム

Also Published As

Publication number Publication date
US20130230214A1 (en) 2013-09-05
EP2820618A1 (en) 2015-01-07
KR20140136016A (ko) 2014-11-27
US8965057B2 (en) 2015-02-24
CN104145294B (zh) 2017-03-08
JP5946924B2 (ja) 2016-07-06
KR101585521B1 (ko) 2016-01-14
WO2013130208A1 (en) 2013-09-06
EP2820618B1 (en) 2018-09-26
CN104145294A (zh) 2014-11-12

Similar Documents

Publication Publication Date Title
JP5946924B2 (ja) シーン構造ベース自己姿勢推定
US9031283B2 (en) Sensor-aided wide-area localization on mobile devices
US10134196B2 (en) Mobile augmented reality system
JP6215442B2 (ja) クライアント−サーバベースの動的検索
JP5660648B2 (ja) マルチユーザ拡張現実におけるオンライン参照生成および追跡
EP2715667B1 (en) Planar mapping and tracking for mobile devices
WO2018068678A1 (zh) 一种立体摄像机外部参数的确定方法及装置
JP6348574B2 (ja) 総体的カメラ移動およびパノラマカメラ移動を使用した単眼視覚slam
JP6456347B2 (ja) 平面固有の特徴のターゲットのinsitu生成
US20120300020A1 (en) Real-time self-localization from panoramic images
WO2016199605A1 (ja) 画像処理装置および方法、並びにプログラム
CN111127524A (zh) 一种轨迹跟踪与三维重建方法、系统及装置
JP2009266224A (ja) リアルタイム・ビジュアル・オドメトリの方法およびシステム
WO2011063282A2 (en) Orientation determination of a mobile station using side and top view images
ES2923924T3 (es) Referenciación 3D
JP6393000B2 (ja) 3dマップに関する仮説的ラインマッピングおよび検証
Mamatas et al. Using Inertial Measurements to Aid in Camera Intrinsic Parameter Estimation
CN117451052A (zh) 基于视觉和轮速计的定位方法、装置、设备及存储介质
CN117419725A (zh) 先验地图数据生成方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150415

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150415

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20150415

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20150508

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150608

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151120

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160601

R150 Certificate of patent or registration of utility model

Ref document number: 5946924

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees