JP2008503757A - ビジュアル・オドメトリのための方法および装置 - Google Patents

ビジュアル・オドメトリのための方法および装置 Download PDF

Info

Publication number
JP2008503757A
JP2008503757A JP2007518274A JP2007518274A JP2008503757A JP 2008503757 A JP2008503757 A JP 2008503757A JP 2007518274 A JP2007518274 A JP 2007518274A JP 2007518274 A JP2007518274 A JP 2007518274A JP 2008503757 A JP2008503757 A JP 2008503757A
Authority
JP
Japan
Prior art keywords
sequence
scene images
point feature
point
surrounding environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007518274A
Other languages
English (en)
Inventor
バーゲン,ジェームス,ラッセル
ナロディツキー,オレグ
ニスター,デヴィット
Original Assignee
サーノフ コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サーノフ コーポレーション filed Critical サーノフ コーポレーション
Publication of JP2008503757A publication Critical patent/JP2008503757A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

(例えば周囲の環境の中をナビゲートする)ビジュアル・オドメトリのための方法および装置が開示される。一実施形態では、周囲の環境の少なくとも一部を表すシーン・イメージのシーケンスが(例えばビデオ・カメラまたはステレオ・ヘッドから)受領される。シーン・イメージのシーケンスが(例えばビデオ処理技法に従って)処理され、周囲の環境に対するポーズの推定が導出される。この推定は、グローバル・ポジショニング・システム、あるいは慣性センサまたは機械センサなどの他のセンサからのデータでさらに補足することができる。

Description

関連出願への相互参照
本願は、参照により本明細書にその全体が組み込まれる2004年6月22日出願の米国仮特許出願第60/581867号の特典を主張するものである。
政府資金援助への参照
本発明は、DARPA(Defense Advanced Research Projects Agency) によって与えられた交付番号MDA972−01−9−0016の下で政府援助を伴ってなされたものである。政府は、本発明における一定の権利を有する。
様々な応用例におけるコンピュータ・ビジョン・システムの有用性が認められている。例えば、(例えば車両用およびロボット用の)自律ナビゲーション・システムは、周囲の環境内での障害物検出およびナビゲーションのためにそのようなシステムを大いに利用する。そのようなシステムは、人間のオペレータを危険にさらすことなく、難しい地帯または危険な地帯のナビゲーションおよび/または監視を可能にする。
しかし、自律的ナビゲーション用のほとんどの既存のシステムは、一般に環境特有のものであるという点で汎用性に欠けている。例えば、GPSベースのナビゲーション・システムは、屋外環境では良好に動作するが、屋内での動作が不十分である。ホイール・エンコーダからの情報を利用するナビゲーション・システムは、地上車両で実装したときは良好に動作するが、例えば航空機での使用には適していない。さらに、ビデオまたはイメージ・データを解析することによって動作するほとんどの既存のシステムは、過去の運動の知識を提供することができるが、現在の運動および/または位置の(例えばリアル・タイムの)知識を適時に提供することができない。
米国仮特許出願第60/581867号 C.HarrisおよびM.Stephens、A Combined Corner and Edge Detector (Proc.Fourth Alvey Vision Conference、pp.147−151、1988年) D.Nister、Preemptive RANSAC for Live Structure and Motion Estimation、IEEE International Conference on Computer Vision、pp.199−206、2003年 米国特許出願第10/798726号 R.Haralick、C.Lee、K.Ottenberg、およびM.Nolle、Review and Analysis of Solutions of the Three Point Perspective Pose Estimation Problem、International Journal of Computer Vision、13(3):331−356、1994年
したがって、環境に無関係であり、ほぼリアル・タイムで運動推定および/または位置推定を確実に提供することのできるビジュアル・オドメトリのための方法および装置が当技術分野で求められている。
(例えば周囲の環境の中をナビゲートする)ビジュアル・オドメトリのための方法および装置が開示される。一実施形態では、周囲の環境の少なくとも一部を表すシーン・イメージのシーケンスが(例えばビデオ・カメラまたはステレオ・ヘッドから)受領される。シーン・イメージのシーケンスが(例えばビデオ処理技法に従って)処理され、周囲の環境に対するポーズの推定が導出される。この推定は、グローバル・ポジショニング・システム、あるいは慣性センサまたは機械センサなどの他のセンサからのデータでさらに補足することができる。
上述の本発明の特徴を詳細に理解できるように、添付の図面にその一部が図示される実施形態を参照することにより、上記で簡潔に要約される本発明のより具体的な説明を得ることができる。しかし、添付の図面は本発明の典型的な実施形態を示すに過ぎず、したがって、本発明は同様に効果的な他の実施形態を認めることができるので、添付の図面を本発明の範囲の制限と見なすべきでないことに留意されたい。
本発明は、(例えば、自律的車両またはロボットなどの移動物体の自律的ナビゲーション用の)ビジュアル・オドメトリのための方法および装置を開示する。従来の自律的ナビゲーション・システムとは異なり、一実施形態では、本発明は、主にビデオ・データを利用して物体の位置推定および運動推定を導出する。したがって、本発明による自律的ナビゲーションは実質上、環境に無関係である。自律的ナビゲーション・システムで通常使用されるような環境特有のセンサは主に、ビデオ・ベースの推定を補足するためのデータを得るための任意選択手段として働く。
図1は、本発明によるビジュアル・オドメトリのための方法100の一実施形態を示す流れ図である。方法100は、例えば、自律的(例えば無人の)車両またはロボットなどのナビゲーションを必要とする物体で実装することができる。方法100はステップ102で初期化され、ステップ104に進み、ステップ104では、方法100は、周囲の環境の少なくとも一部を表すシーン・イメージのシーケンスを受け取る。一実施形態では、ナビゲーションを必要とする物体に取り付けられた移動カメラまたはステレオ・ヘッドを介してこのシーン・イメージのシーケンスを受け取ることができる。
ステップ106では、方法100は、シーン・イメージのシーケンスを処理し、それから位置推定を導出する。すなわち、方法100は、受け取ったシーン・イメージのシーケンスから直接、ナビゲーションを必要とする物体の現在位置を推定する。一実施形態では、シーン・イメージのシーケンスが、ビデオ処理のための任意の適切な周知の方法に従って処理される。
位置推定をシーン・イメージのシーケンスから導出した後、任意選択で、方法100はステップ108に進み、追加のデータで位置推定を補足する。したがって、この実施形態では、ステップ106で導出されたビデオ・ベースの位置推定を、その後で他のソースからデータを取り入れることによって改善される予備推定と見なすことができる。一実施形態では、この追加のデータは、GPSシステム、慣性センサ、および機械センサ(例えばホイール・エンコーダ)のうちの少なくとも1つなどの、少なくとも1つの追加のセンサで与えられるデータを含む。
(追加のデータを用いて、または追加のデータを用いずに)位置推定を導出した後、方法100はステップ110で終了する。
それによって方法100は、方法100が機能する環境とは無関係な、迅速で正確な運動推定および位置推定を可能にする。方法100は主に(ある場合には専ら)ビデオ・データを利用して運動推定および位置推定を導出するので、ほぼ任意の場所、すなわち屋外、屋内、地上、空中などで利用するように実装することができる。
図2は、本発明によるビデオ・データから運動推定および/または位置推定を導出する方法200の一実施形態を示す流れ図である。上記で議論した方法100のステップ106に従って方法200を実装して、ナビゲーションを必要とする車両、ロボットなどの運動または位置のビデオ・ベースの推定を生成することができる。
方法200はステップ202で初期化され、ステップ204に進み、ステップ204では、方法200は、シーン・イメージのシーケンスの現フレーム内のポイント・フィーチャの位置を突き止める。一実施形態では、突き止めたポイント・フィーチャは、小さなイメージひずみから中程度のイメージひずみの下で比較的安定すると予想されるフィーチャである。例えば、一実施形態では、ポイント・フィーチャは、C.HarrisおよびM.Stephens、A Combined Corner and Edge Detector (Proc.Fourth Alvey Vision Conference、pp.147−151、1988年)に記載されているハリス・コーナである。ポイント・フィーチャは、確実に追跡することのできるフレームの任意の識別可能な要素でよい。一実施形態では、最大数百個のポイント・フィーチャの位置がステップ202で突き止められる。例えば、図8は、シーン・イメージのシーケンスから取られた例示的フレーム800であり、その中で複数のポイント・フィーチャの位置が円で突き止められている。話を簡単にするために、これらの円で囲まれたポイント・フィーチャのうちの一部だけに802と符号を付ける。
ステップ206では、方法200は、ステップ204で位置が突き止められたポイント・フィーチャを(例えば、フィーチャを、後続のフレーム内の対応するフィーチャと突き合わせることによって)複数の後続のフレームにわたって追跡する。一実施形態では、ポイント・フィーチャは、フィーチャが視野内にとどまる限り追跡される。一実施形態では、幾何学的制約なしに追跡が実施される。
ステップ208では、方法200は、ステップ206で得られたフィーチャ追跡データに基づいて1組の軌跡を生成する。軌跡は、ナビゲーションを必要とする物体に対する、追跡したフィーチャの位置および/または向きの経時的な変化を表す。一実施形態では、突き合わせたフィーチャが基本的にフレーム間でリンクされる。再び図8を参照すると、図示されている複数の軌跡(その一部に804と符号を付けてある)は、関連するポイント・フィーチャの以前の相対運動を示す。
軌跡の組を確立した後、方法200はステップ210に進み、ポイント・フィーチャ軌跡で伝えられた情報に基づいて、ナビゲーションを必要とする車両、ロボットなどについての複数の増分フレーム間ポーズ推定を生成する。一実施形態では、「ポーズ」が6つの自由度で推定され、3次元(例えばx、y、z座標)位置と角度方向として定義される。一実施形態では、幾何学的推定方法に従ってポーズ推定が生成される。ポーズ推定を生成する幾何学的推定方法は、シーン・イメージの元のシーケンスをキャプチャする手段に応じて変化する可能性がある(例えば、単眼ビデオ入力、ステレオ入力など)。
ステップ212では、方法200は、ポーズ推定を評価し、最も可能性の高い推定を、現在のポーズを示すものとして選択する。一実施形態では、ポーズ推定の評価は、以下でより詳細に議論するように、周知のRANSAC(random sample consensus)技法(例えば、D.Nister、Preemptive RANSAC for Live Structure and Motion Estimation、IEEE International Conference on Computer Vision、pp.199−206、2003年で論じられている)に従って実施される。
方法200はステップ214で終了する。
図3は、例えば方法200のステップ204による、ポイント・フィーチャ検出のための方法300の一実施形態を示す流れ図である。方法300はステップ302で初期化され、ステップ304に進み、ステップ304では、方法300は、解析中のシーン・イメージのシーケンスからイメージ・フレームを取り出す。一実施形態では、イメージ・フレームが、ピクセル当たり約8ビットで表される。
ステップ306では、方法300は、フレームのコーナ応答の強度sを計算する。例えば、一実施形態では、ハリス・コーナ検出器は、イメージ勾配から計算される局所平均モーメント行列を計算する。次いで、モーメント行列の固有値が組み合わされ、コーナ応答または「強度」が計算される。その最大値がコーナ位置を示す。
(例えば汎用コンピュータを使用する)非常に効率的な計算のために設計された一実施形態では、sが以下のように計算される。コーナ応答の出力ラインごとに、現出力ラインの上または下のいくつかのラインに関して一時フィルタ出力が必要である。すべてのフィルタ出力が一度だけ計算され、最適なキャッシュ性能のためにラップアラウンド・バッファに格納される。ラップアラウンド・バッファは、ローリング・ウィンドウでの一時フィルタ出力を表す。ローリング・ウィンドウは、何らかのフィルタ出力の再計算を回避するために必要な最低限の数のラインを含む。
例えば、一実施形態では、イメージ・フレームの水平方向微分および垂直方向微分が、それぞれIおよびIと表される。一実施形態では、IおよびIがタイプ[−1 0 1]の水平フィルタおよび垂直フィルタによって計算され、入力を8ビットだけ下に、出力を16ビットだけ下に保つために、乗算を実行する前に1ビットだけ下にシフトされる。
この場合、ラップアラウンド・バッファおよび得られるコーナ応答が、ラインごとに4つの「掃引」を使用して、ラインごとに更新される。第1掃引は、I、I、およびIについてのラップアラウンド・バッファを更新する。一実施形態では、I、I、およびIについてのラップアラウンド・バッファはライン5本分であり、典型的な掃引は、コーナ応答の現在の出力ラインより2つ先に位置する1つのラインを更新する。
第2掃引は、32ビット・フィルタ出力の3つの単一ラインgxx、gxy、およびgyyを生成するために、2項フィルタ(例えば[1 4 6 4 1])でラップアラウンド・バッファ内のすべてのラインを垂直方向にコンボルブする。一実施形態では、このことは、コストのかかる乗算を回避するためにシフトおよび加算で実施される。
第3掃引は、第2掃引で使用されたのと同じ2項フィルタで水平方向にコンボルブし、32ビット単一ラインGxx、Gxy、Gxyを生成する。Gxx、Gxy、Gxyは、gxx、gxy、およびgyyと同じ場所に格納されるが、2ピクセルだけシフトされる。
最後に、第4掃引は、コーナ応答の
行列式d=Gxxyy−Gxyxy (式1)
トレースt=Gxx+Gyy (式2)
および強度s=d−kt (式3)
を浮動小数点で計算する(ただしk=0.06)。一実施形態では、第1掃引から第4掃引はすべて、128ピクセルのマルチメディア・エクステンション(MMX)チャンクで実装され、ストールを回避し、両方のパイプラインを最適に用いるために、手動でインターリーブされる。
図3に戻ると、コーナ応答の強度を計算した後、方法300はステップ310に進み、計算したコーナ応答強度に従って、イメージ・フレーム内のポイント・フィーチャを定義する。上述のように、単一のイメージ・フレーム内に数百ものポイント・フィーチャを定義することができる。一実施形態では、ポイント・フィーチャの定義は、非最大抑制技法(non−maximum suppression technique)に従って達成される。具体的には、コーナ応答が定義された半径(例えば5ピクセルごとの近傍)内で他のすべてのピクセルよりも強いと計算される各ピクセルで、ポイント・フィーチャが宣言される。
方法300はステップ312で終了する。
図4は、例えばステップ206による、ポイント・フィーチャ整合のための方法400の一実施形態を示す流れ図である。方法400はステップ402で初期化され、ステップ404に進み、ステップ404では、方法400は、第1フレーム内の所与のポイント・フィーチャを第2フレーム内の対応するポイント・フィーチャから固定の距離以内のあらゆるポイント・フィーチャと突き合わせることを試みる(例えば、互いの事前定義された不一致限界以内のすべてのポイント・フィーチャが突き合わされる)。一実施形態では、ポイント・フィーチャ合致に関する不一致限界は、所望の出力速度およびシーン・イメージの入力シーケンスの平滑度に応じて、イメージ・サイズの約3から30パーセントである。
方法400の次の段階は、フレーム間フィーチャ対応を確立する。このフレーム間フィーチャ対応は、オプティカル・フロー技法およびエリア相関技法を含む様々な周知の方法に従って確立することができる。ステップ406〜408は、(汎用コンピュータ上の)計算速度に関して最適化された、フレーム間フィーチャ対応を確立する1つの例示的プロセスを示す。
ステップ406では、方法400は、正規化相関を使用して第1フレームと第2フレームの間の潜在的ポイント・フィーチャ合致を評価する。一実施形態では、正規化相関は、検出されたポイント・フィーチャ上に中心が置かれた11ピクセル四方のウィンドウにわたって実施される。一実施形態では、速度に関してウィンドウ全体にわたって一様な重み付けが使用される。各ウィンドウがイメージ・フレームからコピーされ、n=121バイト・ベクトル(一実施形態では、便宜上128バイトに増加される)としてメモリ内に連続的にレイアウトされる。各ウィンドウについて、以下の値が事前計算される。
A=ΣI (式4)
B=ΣI (式5)
Figure 2008503757
(式6)
次いで、各潜在的合致について、以下のスカラ積が2つのウィンドウ間で計算される。
D=ΣI (式7)
次いで正規化相関は、
(nD−A)C (式8)
各潜在的合致について正規化相関が計算された後、方法400はステップ408に進み、相互の整合性に従ってどの合致を受け入れるかを決定する。この理論によれば、第1イメージ・フレーム内のあらゆるポイント・フィーチャは、(例えば最大不一致によって決定される)第2イメージ・フレームからのポイント・フィーチャとの間のいくつかの正規化相関に関係する。したがって、最高の正規化相関を生成する第2イメージ・フレームからのポイント・フィーチャが、第1フレーム内のポイント・フィーチャに対する好ましい合致として選択される。逆に、第2イメージ・フレーム内の各ポイント・フィーチャも、第1イメージ・フレームで好ましい合致を生成する。したがって、相互に好ましいマッチとして互いを指定するポイント・フィーチャの対が有効な合致として受け入れられる。上述のように、経時的なポイント・フィーチャの運動を示す軌跡を生成するために、この突合せ技法を複数のイメージ・フレームにわたって実施することができる。
方法400はステップ410で終了する。
図5は、本発明によるフレーム間増分ポーズ推定を生成する方法500の一実施形態を示す流れ図である。様々な周知のフレーム間ポーズ推定方法のいずれかを実装して推定を生成することができ、方法500は使用することのできる例示的一方法に過ぎないことを当業者は理解されよう。方法500は、カメラの運動に対応しない移動物体または他の潜在的イメージ源の対応を含む可能性のある環境でのリアル・タイム・フレーム間ポーズ推定に特に適している。
方法500は、例えば上記で議論した方法200のステップ210に従って実装することができる。具体的には、方法500は、単眼ビデオ入力(例えば単一の移動ビデオ・カメラからのデータ)に基づいてフレーム間増分ポーズ推定を生成する際に有用である。
方法500はステップ502で初期化され、ステップ504に進み、ステップ504では、方法500は、(例えばナビゲーションを必要とする移動物体に取り付けられた単一のビデオ・カメラからフィードとして受領された)シーン・イメージのシーケンスの複数のフレームを通じて追跡されたポイント・フィーチャに関する複数のポイント・フィーチャ軌跡を受け取る。ステップ506では、方法500は、受け取った軌跡データに基づいて、複数のフレームの中から識別されたポイント・フィーチャに対する、ナビゲーションを必要とする物体のポーズを推定する。
一実施形態では、ステップ506によるポーズ推定が、5点アルゴリズム(例えば、参照によりその全体が本明細書に組み込まれる2004年3月11日出願の米国特許出願第10/798726号に記載されている)およびプリエンプティブRANSACと、その後に続く反復的改善とに従って実施される。したがって、方法500は、与えられたポイント・フィーチャに基づいて、1組の可能なポーズ解または仮定を生成する。こうした仮定は、利用可能なポイント・フィーチャ軌跡のサブセットを選択することによって生成される。一実施形態では、このサブセットは、少なくとも5つの無作為に選択されたポイント・フィーチャを含む。次いで、こうした仮定のそれぞれが、利用可能なすべてのポイント・フィーチャ軌跡に対して評価され、どの仮定が最大フィーチャ軌跡数と整合するかが判定される。一実施形態では、この最高に整合する仮定が、正確である可能性が最も高いと理解される。
ステップ508では、方法500は、ステップ506で決定した推定ポーズを使用して、観測したポイント・フィーチャ軌跡を複数の3次元(3D)ポイントに三角形分割する。一実施形態では、ポイント・フィーチャ軌跡に沿って最初および最後に観測したポイント・フィーチャを使用して三角形分割が実施される。別の実施形態では、方向誤差による最適三角形分割に従って三角形分割が実施される。一実施形態では、ステップ508が実行されるのが初めてではない場合、現在のポイント・フィーチャ軌跡結果と直前のポイント・フィーチャ軌跡結果との間の目盛係数が(例えばプリエンプティブRANSAC手続きに従って)推定される。次いで、現在のポイント・フィーチャ軌跡結果が前の結果に取って代わる。
ステップ510では、方法500は、(例えば、ステップ504でポイント・フィーチャ軌跡を最初に受け取った時点に続いて)関連するポイント・フィーチャがいくつかの後続のフレームについて追跡されるとき、例えばビデオ入力のストリームの形の追加のポイント・フィーチャ軌跡データを受け取る。ステップ512では、方法500は、追加のポイント・フィーチャ軌跡データに基づいて、(例えばステップ508で確立された)既知の3Dポイントに対する現在のポーズを計算する。一実施形態では、3点2次元−3次元アルゴリズムおよびプリエンプティブRANSACと、その後に続く反復的改善とに従ってポーズ推定が実施される。(例えば、R.Haralick、C.Lee、K.Ottenberg、およびM.Nolle、Review and Analysis of Solutions of the Three Point Perspective Pose Estimation Problem、International Journal of Computer Vision、13(3):331−356、1994年や様々なテキストブックに記載の)1つの周知の3点アルゴリズムは、3つの3次元ワールド・ポイントに対する2次元イメージ・ポイントの対応を使用してカメラ・ポーズを推定する。
ステップ512での既知の3次元ポイントに対するポーズ推定に続いて、方法500はステップ514に進み、新しいポイント・フィーチャ軌跡データに関して追加の3Dポイントを再三角形分割する。一実施形態では、再三角形分割は、(例えば、このとき新しいフィーチャ・ポイント軌跡データを含む)軌跡に沿って最初および最後に観測したフィーチャ・ポイントを使用して再三角形分割が実施される。次いで、方法500はステップ516に進み、ステップ510から追跡を続行すべきかどうか(例えば追加のポイント・フィーチャ軌跡データを処理すべきかどうか)を判定する。一実施形態では、ステップ510からさらなる反復を続行するかどうかに関する判定は、計算コストおよび環境的複雑さの少なくとも一方など、いくつかの応用例特有の基準のうちの1つまたは複数に従って行うことができる。例えば、上記で議論した3点ポーズ推定技法は、関連する他の方法よりも一般に計算的に複雑ではなく、したがって5点推定の数に比べて、追加の3点推定を実施することは、一般に全計算負荷を低減する。しかし、3点ポーズ推定技法の精度は、特に複雑なシーン環境では誤差を受けやすい、三角形分割された3次元ポイントの精度に直接依存する。したがって、所与の応用例についてステップ510〜514の最適な反復回数を決定するのに、応用例ごとの方法に関してこれらの考慮すべき点の平衡を取ることが一般には望ましい。しかし、一実施形態では、ステップ510からの反復回数は3に事前設定される。
ステップ510から追跡を続行すべきであると方法500がステップ516で判定した場合、方法500はステップ510に戻り、上述と同様に進む。あるいは、ステップ510から追跡を続行すべきでないと方法500がステップ516で判定した場合、方法500はステップ518に進む。
ステップ518では、方法500は、ステップ504から追跡を続行すべきかどうか(例えば、追加のフィーチャ軌跡データを処理すべきかどうか)を判定する。一実施形態では、処理はステップ504からいくつかの反復だけ続行する。反復回数は、運動速度やポーズおよび/または三角形分割誤差の確率などの応用例特有の基準に基づく。一実施形態では、ステップ504から実施される反復回数は3に事前設定される。ステップ504から追跡を続行すべきであると方法500がステップ518で判定した場合、方法500はステップ504に戻り、上述と同様に進む。あるいは、ステップ504から追跡を続行すべきでないと方法500がステップ518で判定した場合、方法500はステップ520に進む。
ステップ520では、方法500は、入力データのストリームにファイアウォールを挿入し、それによって、将来の3Dポイントの三角形分割が、最新のファイアウォールに先行する観測を使用して実施されないことになる。したがって、三角形分割では、ファイアウォールの直後のシーン・イメージのシーケンスのフレームが第1フレームと見なされる。言い換えれば、先行する反復に対して使用される3次元ポイントが廃棄され、完全に新しい1組の3次元ポイントが推定される。これは、方法500の実行全体を通して、(例えば3Dポイント位置決め、ポーズ推定などでの)誤差の伝播を低減する助けになる。次いで方法500はステップ504に戻り、上述と同様に進む。
図6は、本発明によるフレーム間増分ポーズ推定を生成する方法600の第2実施形態を示す流れ図である。方法500と同様に、方法600は、上記で議論した方法200のステップ210に従って実装することができる。しかし、方法500とは対照的に、方法600は、ステレオ・ビデオ(例えば、較正された1対のビデオ・カメラからのデータ)に基づいてフレーム間増分ポーズ推定を生成する際に有用である。
方法600はステップ602で初期化され、ステップ604に進み、ステップ604では、方法600は、(例えば、移動車両またはロボットに取り付けられた2つの移動ビデオ・カメラからの個々のフィードで実施される)ポイント・フィーチャ軌跡を受け取る。ポイント・フィーチャ軌跡は、(例えば左のビデオ・カメラと右のビデオ・カメラから見た)同一のポイント・フィーチャ軌跡の異なるパースペクティブを提示する2つの異なるビューから受領される。方法600はステップ606に進み、着信するイメージまたはシーン・イメージのシーケンスで提示される2つのビュー間でポイント・フィーチャを突き合わせる。
ステップ608では、方法600は、ステレオ較正データの知識を使用して、ステップ606で確立された合致を3Dポイントに三角形分割する。次いで、ステップ610で追加のポイント・フィーチャ軌跡データを受け取る。
ステップ612では、方法600は、受け取ったポイント・フィーチャ軌跡データに基づいて、シーン・イメージのシーケンスの複数のフレーム間の、(例えばステレオ・ヘッドが取り付けられた)ナビゲーションを必要とする物体の相対的ポーズを推定する。一実施形態では、ステップ612によるポーズ推定が、(例えば上記で議論したように、例えば左イメージからのフィーチャを用いる)3点アルゴリズムおよびプリエンプティブRANSACと、その後に続く左イメージと右イメージの両方におけるフィーチャに基づく反復的改善とに従って実施される。したがって、方法600は、与えられたフィーチャ・ポイントに基づいて、1組の可能なポーズ解または仮定を生成する。こうした仮定は、利用可能なフィーチャ軌跡のサブセットを選択することによって生成される。一実施形態では、このサブセットは、少なくとも3つの無作為に選択されたフィーチャ軌跡を含む。次いで、こうした仮定のそれぞれが、利用可能なすべてのフィーチャ軌跡に対して評価され、(例えばすべてのフィーチャとの最大の整合性に基づいて)どの仮定が正確である可能性が最も高いかが判定される。
ステップ614では、方法600は、ステップ610から追跡を続行すべきかどうか(例えば、追加のポイント・フィーチャ軌跡データを処理すべきかどうか)を判定する。上記で議論したように、この判定は応用例特有の基準に基づいて行うことができ、または固定の回数だけ反復を実施することができる。ステップ610から追跡を続行すべきであると方法600がステップ614で判定した場合、方法600はステップ610に戻り、上述と同様に進む。あるいは、ステップ610から追跡を続行すべきでないと方法600がステップ614で判定した場合、方法600はステップ616に進む。
ステップ616では、方法600は、左イメージおよび右イメージでの観測に従って、すべての新しいポイント・フィーチャ合致を三角形分割する。次いで、方法600はステップ618に進み、ステップ610から追跡を続行すべきかどうかを判定する。上記で議論したように、この判定は応用例特有の基準に基づいて行うことができ、または固定の回数だけ反復を実施することができる。ステップ610から追跡を続行すべきであると方法600がステップ618で判定した場合、方法600はステップ610に戻り、上述と同様に進む。あるいは、ステップ610から追跡を続行すべきでないと方法600がステップ618で判定した場合、方法600はステップ620に進む。
ステップ620では、方法600は、すべての既存の3Dポイントを廃棄し、新しいポイント・フィーチャ軌跡データに基づいてすべての3Dポイントを再三角形分割し、したがって入力データのストリームにファイアウォールを挿入し、それによって、将来の3Dポイントの三角形分割が、最新のファイアウォールに先行する観測を使用して実施されないことになる。次いで、方法600はステップ610に戻り、前述と同様に進む。
図7は、汎用コンピューティング装置700を使用して実施されるビジュアル・オドメトリ方法の高レベル・ブロック図である。一実施形態では、汎用コンピューティング装置700は、プロセッサ702、メモリ704、ビジュアル・オドメトリ・モジュール705、およびディスプレイ、キーボード、マウス、モデムなどの様々な入出力(I/O)装置706を備えることができる。一実施形態では、少なくとも1つのI/O装置は記憶装置(例えばディスク・ドライブ、光ディスク・ドライブ、フロッピィ・ディスク・ドライブ)である。通信チャネルを介してプロセッサに結合された物理的装置またはサブシステムとしてビジュアル・オドメトリ・モジュール705を実装できることを理解されたい。
あるいは、ビジュアル・オドメトリ・モジュール705は、1つまたは複数のソフトウェア・アプリケーション(さらには、ソフトウェアと、例えば特定用途向け集積回路(ASIC)を用いたハードウェアとの組合せ)で表すことができる。その場合ソフトウェアは、記憶媒体(例えばI/O装置706)からロードされ、汎用コンピューティング装置700のメモリ704内でプロセッサ702によって操作される。したがって、一実施形態では、上記の図を参照しながら本明細書で説明した運動および位置を推定するビジュアル・オドメトリ・モジュール705を、コンピュータ可読媒体またはキャリア(例えばRAM、磁気または光ドライブまたはディスケットなど)上に格納することができる。
別の実施形態では、ビジュアル・オドメトリを従来のナビゲーション装置(GPS、慣性測定ユニット、コンパスなど)と組み合わせる統合検出装置として本発明を実装することができる。そのような実施形態では、ビジュアル・オドメトリで生成された6自由度運動推定が、従来のセンサで生成された推定を補正するのに使用され、逆も同様である。したがって、この統合システムは、利用可能なすべてのセンサ入力を組み込む単一ナビゲーション解を生成することができる。このようなシステムの従来装置に勝る利点は、統合ナビゲーション・システムが、ビジュアル入力単独、またはより正確かつ安定した位置確認のために追加のセンサ入力で補足されたビジュアル入力を操作できることである。
したがって、本発明は、自律的ナビゲーションの分野での著しい進歩を表す。移動物体(例えば自律的車両またはロボット)が周囲環境の性質の如何に関わらず周囲の環境の中をナビゲートすることを可能にする方法および装置が提供される。ほぼどんな環境または条件でも得ることのできるビデオ・データを主に処理することにより、位置および運動を正確に推定することができる。次いで、任意選択で、自律的ナビゲーション・システムで通常使用されているような追加の環境特有のセンサからのデータを使用して、ビデオ・データから導出された推定を補足することができる。
上記は本発明の実施形態を対象とするものであるが、本発明の基本的範囲から逸脱することなく、本発明の別の実施形態を考案することができ、本発明の範囲は、添付の特許請求の範囲によって決定される。
本発明によるビジュアル・オドメトリのための方法の一実施形態を示す流れ図である。 本発明によるビデオ・データから運動推定および/または位置推定を導出する方法の一実施形態を示す流れ図である。 ポイント・フィーチャ検出のための方法の一実施形態を示す流れ図である。 ポイント・フィーチャ整合のための方法の一実施形態を示す流れ図である。 本発明によるフレーム間増分ポーズ推定を生成する方法の一実施形態を示す流れ図である。 本発明によるフレーム間増分ポーズ推定を生成する方法の第2実施形態を示す流れ図である。 汎用コンピューティング装置を使用して実施されるビジュアル・オドメトリ方法の高レベル・ブロック図である。 シーン・イメージのシーケンスから取られた例示的フレームであり、その中で複数のポイント・フィーチャの位置が円で突き止められている図である。

Claims (10)

  1. 周囲の環境の中をナビゲートする方法であって、
    前記周囲の環境の少なくとも一部を表すシーン・イメージのシーケンスを受け取ること、および
    前記シーン・イメージのシーケンスを処理して、前記周囲の環境に対するポーズの推定を導出すること
    を含む方法。
  2. 少なくとも1つのセンサから補足位置関連データを受け取ること、および
    前記補足位置関連データで前記推定を補足すること
    をさらに含む請求項1に記載の方法。
  3. 前記処理することが、
    前記シーン・イメージのシーケンスの第1フレーム内の複数のポイント・フィーチャの位置を突き止めること、
    前記シーン・イメージのシーケンスの複数の後続のフレームにわたって前記複数のポイント・フィーチャを追跡し、第1の複数の関連ポイント・フィーチャ軌跡を生成すること、および
    前記第1の複数のポイント・フィーチャ軌跡に従って前記ポーズを推定すること
    を含む請求項1に記載の方法。
  4. 前記位置を突き止めることが、
    前記シーン・イメージのシーケンスの前記第1フレーム内の各ピクセルについてコーナ応答を計算すること、および
    定義された半径以内の他のすべてのピクセルよりも前記コーナ応答が強い各ピクセルでポイント・フィーチャを宣言すること
    を含む請求項3に記載の方法。
  5. 前記追跡することが、
    前記シーン・イメージのシーケンスの前記第1フレーム内の前記複数のポイント・フィーチャのそれぞれを、前記シーン・イメージのシーケンスの少なくとも1つの後続フレーム内の第2の複数のポイント・フィーチャと比較して、複数の潜在的合致を生成すること、および
    相互の整合性に従って前記潜在的合致のうちの1つを選択すること
    を含む請求項3に記載の方法。
  6. 前記推定することが、
    前記第1の複数のポイント・フィーチャ軌跡の指定されたサブセットに基づいて複数のフレーム間増分ポーズ推定を生成すること、および
    前記ポーズを示す可能性が最も高いものとして前記複数のフレーム間増分ポーズ推定のうちの1つを選択すること
    を含む請求項3に記載の方法。
  7. 前記生成することが、
    前記第1の複数のポイント・フィーチャ軌跡の2つの同時ステレオ・ビューを受け取ること、
    前記2つの同時ステレオ・ビューに従って複数の3次元ポイントを三角形分割すること、
    前記複数の3次元ポイントに関連する後続ポイント・フィーチャ軌跡データを受け取ること、および
    前記複数の3次元ポイントおよび前記第1の複数のポイント・フィーチャ軌跡に従って、少なくとも1つの増分ポーズ推定を生成すること
    を含む請求項6に記載の方法。
  8. 第2の複数のポイント・フィーチャ軌跡を複数の3次元ポイントに増分式に三角形分割すること、
    前記第2の複数のポイント・フィーチャ軌跡に関連する後続のポイント・フィーチャ軌跡データを受け取ること、および
    前記複数の3次元ポイントおよび前記第2の複数のポイント・フィーチャ軌跡に従って、少なくとも1つの増分ポーズ推定を生成すること
    をさらに含む請求項3に記載の方法。
  9. 複数の命令が格納されたコンピュータ可読媒体であって、前記複数の命令が、プロセッサで実行されたときに、周囲の環境の中をナビゲートする方法の工程を前記プロセッサに実行させる命令を含み、前記方法が、
    前記周囲の環境の少なくとも一部を表すシーン・イメージのシーケンスを受け取ること、および
    前記シーン・イメージのシーケンスを処理して、前記周囲の環境に対するポーズの推定を導出すること
    を含むコンピュータ可読媒体。
  10. 周囲の環境の中をナビゲートする装置であって、
    前記周囲の環境の少なくとも一部を表すシーン・イメージのシーケンスを受け取る手段と、
    前記シーン・イメージのシーケンスを処理して、前記周囲の環境に対するポーズの推定を導出する手段と
    を備える装置。
JP2007518274A 2004-06-22 2005-06-22 ビジュアル・オドメトリのための方法および装置 Pending JP2008503757A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US58186704P 2004-06-22 2004-06-22
PCT/US2005/022297 WO2006002322A2 (en) 2004-06-22 2005-06-22 Method and apparatus for visual odometry

Publications (1)

Publication Number Publication Date
JP2008503757A true JP2008503757A (ja) 2008-02-07

Family

ID=35782346

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007518274A Pending JP2008503757A (ja) 2004-06-22 2005-06-22 ビジュアル・オドメトリのための方法および装置

Country Status (4)

Country Link
US (1) US20070288141A1 (ja)
EP (1) EP1759334A2 (ja)
JP (1) JP2008503757A (ja)
WO (1) WO2006002322A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8213684B2 (en) 2008-06-23 2012-07-03 Swiss Federal Institute Of Technology Zurich Motion estimating device

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8838374B2 (en) * 2005-07-05 2014-09-16 Mi-Jack Products, Inc. Automatic correction of past position errors for location and inventory tracking
WO2008024772A1 (en) * 2006-08-21 2008-02-28 University Of Florida Research Foundation, Inc. Image-based system and method for vehicle guidance and navigation
JP4800163B2 (ja) 2006-09-29 2011-10-26 株式会社トプコン 位置測定装置及びその方法
EP2093713A3 (en) 2008-02-20 2010-06-02 Nederlandse Centrale Organisatie Voor Toegepast Natuurwetenschappelijk Onderzoek TNO A method of estimating a motion of a multiple camera system, a multiple camera system and a computer program product
EP2135498B1 (en) * 2008-06-20 2012-06-20 AGROCOM GmbH & Co. Agrarsystem KG A method of navigating an agricultural vehicle and an agricultural vehicle
US8698875B2 (en) * 2009-02-20 2014-04-15 Google Inc. Estimation of panoramic camera orientation relative to a vehicle coordinate frame
DE102009019399B4 (de) * 2009-04-29 2015-09-24 Audi Ag Verfahren zur automatischen Bestimmung wenigstens einer die Änderung der Lage eines Kraftfahrzeugs beschreibenden Zielgröße
US9476987B2 (en) 2009-11-20 2016-10-25 Saab Ab Method estimating absolute orientation of a vehicle
WO2011163341A2 (en) * 2010-06-22 2011-12-29 University Of Florida Research Foundation, Inc. Systems and methods for estimating pose
US8676498B2 (en) * 2010-09-24 2014-03-18 Honeywell International Inc. Camera and inertial measurement unit integration with navigation data feedback for feature tracking
US8971641B2 (en) * 2010-12-16 2015-03-03 Microsoft Technology Licensing, Llc Spatial image index and associated updating functionality
US8988536B2 (en) * 2010-12-23 2015-03-24 Samsung Electronics Co., Ltd. Image processing circuit, method of operation thereof, and digital camera including same
CN102789642B (zh) * 2011-05-16 2017-08-25 索尼公司 消失方向确定方法和装置、摄像机自标定方法和装置
DE102012207119A1 (de) * 2012-04-27 2013-06-27 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zur rechnergestützten Bestimmung der Lage eines Objekts aus digitalen Bildern
US20140212001A1 (en) * 2013-01-27 2014-07-31 Quantum Signal Llc Visual odometry
US9251587B2 (en) 2013-04-05 2016-02-02 Caterpillar Inc. Motion estimation utilizing range detection-enhanced visual odometry
US9384551B2 (en) * 2013-04-08 2016-07-05 Amazon Technologies, Inc. Automatic rectification of stereo imaging cameras
US9542773B2 (en) * 2013-05-23 2017-01-10 Google Inc. Systems and methods for generating three-dimensional models using sensed position data
CN104748727B (zh) * 2013-12-31 2017-02-15 中国科学院沈阳自动化研究所 阵列式高速视觉里程计及其实现方法
US9280832B2 (en) * 2014-05-08 2016-03-08 The Trustees Of The University Of Pennsylvania Methods, systems, and computer readable media for visual odometry using rigid structures identified by antipodal transform
US9761008B2 (en) 2014-05-08 2017-09-12 The Trustees Of The University Of Pennsylvania Methods, systems, and computer readable media for visual odometry using rigid structures identified by antipodal transform
FR3029672B1 (fr) * 2014-12-03 2017-01-13 Airbus Defence & Space Sas Procede d'estimation du mouvement d'un porteur par rapport a un environnement et dispositif de calcul pour syteme de navigation
KR102410300B1 (ko) 2015-06-26 2022-06-20 한국전자통신연구원 스테레오 카메라를 이용한 카메라 위치 측정 장치 및 방법
US9946264B2 (en) 2016-03-22 2018-04-17 Sharp Laboratories Of America, Inc. Autonomous navigation using visual odometry
US10269147B2 (en) 2017-05-01 2019-04-23 Lockheed Martin Corporation Real-time camera position estimation with drift mitigation in incremental structure from motion
US10269148B2 (en) 2017-05-01 2019-04-23 Lockheed Martin Corporation Real-time image undistortion for incremental 3D reconstruction
US10839508B2 (en) 2019-03-21 2020-11-17 Sri International Integrated circuit image alignment and stitching

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07334800A (ja) * 1994-06-06 1995-12-22 Matsushita Electric Ind Co Ltd 車両認識装置
JPH1183530A (ja) * 1997-09-11 1999-03-26 Fuji Heavy Ind Ltd 画像のオプティカルフロー検出装置及び移動体の自己位置認識システム
JP2001022936A (ja) * 1999-07-08 2001-01-26 Fujitsu Ltd 3次元形状生成装置
JP2001082954A (ja) * 1999-09-13 2001-03-30 Fujitsu Ten Ltd 画像処理装置及び画像処理測距方法
JP2002048513A (ja) * 2000-05-26 2002-02-15 Honda Motor Co Ltd 位置検出装置、位置検出方法、及び位置検出プログラム
JP2002328933A (ja) * 2001-05-01 2002-11-15 Sharp Corp 情報提示装置および情報提示方法
JP2003280739A (ja) * 2002-03-26 2003-10-02 Matsushita Electric Works Ltd 案内用自律移動ロボットとその制御方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5870486A (en) * 1991-12-11 1999-02-09 Texas Instruments Incorporated Method of inferring sensor attitude through multi-feature tracking
US6089168A (en) * 1996-11-27 2000-07-18 Inter Bold Secure enclosure bolt work apparatus for automated banking machine
US6307959B1 (en) * 1999-07-14 2001-10-23 Sarnoff Corporation Method and apparatus for estimating scene structure and ego-motion from multiple images of a scene using correlation
US6438463B1 (en) * 1999-09-06 2002-08-20 Honda Giken Kogyo Kabushiki Kaisha Process for determining lateral overturning of vehicle, and system for detecting inclination angle of vehicle body
AU2001250802A1 (en) * 2000-03-07 2001-09-17 Sarnoff Corporation Camera pose estimation
US6741757B1 (en) * 2000-03-07 2004-05-25 Microsoft Corporation Feature correspondence between images using an image pyramid
US6580821B1 (en) * 2000-03-30 2003-06-17 Nec Corporation Method for computing the location and orientation of an object in three dimensional space
US6990220B2 (en) * 2001-06-14 2006-01-24 Igo Technologies Inc. Apparatuses and methods for surgical navigation
US7031497B2 (en) * 2001-11-05 2006-04-18 Koninklijke Philips Electronics N.V. Method for computing optical flow under the epipolar constraint
WO2004016400A2 (en) * 2002-08-16 2004-02-26 Evolution Robotics, Inc. Systems and methods for the automated sensing of motion in a mobile robot using visual data
EP1584896A1 (en) * 2004-04-06 2005-10-12 Saab Ab Passive measurement of terrain parameters

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07334800A (ja) * 1994-06-06 1995-12-22 Matsushita Electric Ind Co Ltd 車両認識装置
JPH1183530A (ja) * 1997-09-11 1999-03-26 Fuji Heavy Ind Ltd 画像のオプティカルフロー検出装置及び移動体の自己位置認識システム
JP2001022936A (ja) * 1999-07-08 2001-01-26 Fujitsu Ltd 3次元形状生成装置
JP2001082954A (ja) * 1999-09-13 2001-03-30 Fujitsu Ten Ltd 画像処理装置及び画像処理測距方法
JP2002048513A (ja) * 2000-05-26 2002-02-15 Honda Motor Co Ltd 位置検出装置、位置検出方法、及び位置検出プログラム
JP2002328933A (ja) * 2001-05-01 2002-11-15 Sharp Corp 情報提示装置および情報提示方法
JP2003280739A (ja) * 2002-03-26 2003-10-02 Matsushita Electric Works Ltd 案内用自律移動ロボットとその制御方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8213684B2 (en) 2008-06-23 2012-07-03 Swiss Federal Institute Of Technology Zurich Motion estimating device

Also Published As

Publication number Publication date
US20070288141A1 (en) 2007-12-13
WO2006002322A3 (en) 2006-05-04
EP1759334A2 (en) 2007-03-07
WO2006002322A2 (en) 2006-01-05

Similar Documents

Publication Publication Date Title
JP2008503757A (ja) ビジュアル・オドメトリのための方法および装置
EP3679549B1 (en) Visual-inertial odometry with an event camera
Nistér et al. Visual odometry
JP5991952B2 (ja) 周囲状況に対するカメラの姿勢を求めるための方法
US7440585B2 (en) Autonomous vehicle and motion control therefor
CN109461208B (zh) 三维地图处理方法、装置、介质和计算设备
WO2019029099A1 (zh) 基于图像梯度联合优化的双目视觉里程计算方法
US8305430B2 (en) System and method for multi-camera visual odometry
JP2009266224A (ja) リアルタイム・ビジュアル・オドメトリの方法およびシステム
JP2013187862A (ja) 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム
Tomono 3-D localization and mapping using a single camera based on structure-from-motion with automatic baseline selection
AU2015334707A1 (en) Optical Inertial Measurement Apparatus and Method
CN112802096A (zh) 实时定位和建图的实现装置和方法
Kunz et al. Stereo self-calibration for seafloor mapping using AUVs
Khoshelham et al. Vehicle positioning in the absence of GNSS signals: Potential of visual-inertial odometry
Xian et al. Fusing stereo camera and low-cost inertial measurement unit for autonomous navigation in a tightly-coupled approach
Muffert et al. The estimation of spatial positions by using an omnidirectional camera system
Li et al. RD-VIO: Robust visual-inertial odometry for mobile augmented reality in dynamic environments
US20180200614A1 (en) 6DoF Inside-Out Tracking Game Controller
CN112731503A (zh) 一种基于前端紧耦合的位姿估计方法及系统
Yang et al. Simultaneous estimation of ego-motion and vehicle distance by using a monocular camera
Sekkati et al. 3-D motion estimation for positioning from 2-D acoustic video imagery
Yokochi et al. Extrinsic camera parameter estimation based-on feature tracking and GPS data
Romanovas et al. Stochastic cloning Kalman filter for visual odometry and inertial/magnetic data fusion
Chiodini et al. Camera rig extrinsic calibration using a motion capture system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101104

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110330