JP5379109B2 - ヘディングを決定するためのシステムおよび方法 - Google Patents
ヘディングを決定するためのシステムおよび方法 Download PDFInfo
- Publication number
- JP5379109B2 JP5379109B2 JP2010247957A JP2010247957A JP5379109B2 JP 5379109 B2 JP5379109 B2 JP 5379109B2 JP 2010247957 A JP2010247957 A JP 2010247957A JP 2010247957 A JP2010247957 A JP 2010247957A JP 5379109 B2 JP5379109 B2 JP 5379109B2
- Authority
- JP
- Japan
- Prior art keywords
- time point
- processor
- heading
- identification features
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Navigation (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
本発明は、一般的にナビゲーションシステムに関する。より詳細には、本発明は、ヘディングの決定のためのシステムおよび方法に関する。
従来、ステレオベースの視覚的なオドメトリのための方法およびシステムがあります(例えば、特許文献1を参照)。また、従来、正確なビジョン支援ナビゲーションのための統一されたフレームワークがあります(例えば、特許文献2を参照)。また、従来、環境の拡張された状況認識および視覚化のためのシステムおよび方法があります(例えば、特許文献3を参照)。また、従来、ナビゲーション装置があります(例えば、特許文献4を参照)。また、従来、ビジョン支援カメラ位置決定があります(例えば、特許文献5を参照)。また、従来、位置決定のためのシステムおよび方法があります(例えば、特許文献6を参照)。
運行ビークル上に搭載可能なヘディングを決定するためのシステムであって、該システムは、
画像システムであって、該画像システムは、該運行ビークルの運行期間中に関心地域において第1の時点および第2の時点で複数の識別特徴をキャプチャし、該第1の時点でキャプチャされた該複数の識別特徴と該第2の時点でキャプチャされた該複数の識別特徴とを照合し、該複数の照合された識別特徴のそれぞれについて、該第1の時点に基く、所与の照合された識別特徴に関連する第1の単位ベクトルと、該第2の時点に関連し、該所与の照合された識別特徴に関連する第2の単位ベクトルとを決定する、画像システムと、
該第1の時点から該第2の時点までキャプチャされるキャリア位相情報に基いて並進ベクトルを決定するグローバルポジショニングシステム(GPS)と、
結合プロセッサであって、補正されたヘディングを決定するために、該複数の照合された識別特徴のそれぞれについてエピポーラ方程式における誤差を、それぞれの該第1の単位ベクトルと該第2の単位ベクトルと該並進ベクトルとに基いて最小化する、結合プロセッサと
を備えている、システム。
上記結合プロセッサに初期レベリングを提供する慣性計測システムをさらに備え、該結合プロセッサはヘディングについて上記エピポーラ方程式を直接的に解くために該初期レベリングを利用する、上記項目に記載のシステム。
上記慣性計測システムは、慣性計測ユニット(IMU)と慣性プロセッサとを備え、
該IMUは、速度変化および姿勢変化を該慣性プロセッサに提供し、
該慣性プロセッサは、位置、ヘディングおよび姿勢のそれぞれの評価値を決定する、
上記項目のうちのいずれか1項に記載のシステム。
上記エピポーラ方程式は(x1 L×x2 L)・CN LTN=0であり、ここで、x1 Lは上記第1の単位ベクトル、x2 Lは上記第2の単位ベクトル、TNは上記並進ベクトル、およびCN Lは下記のようなナビゲーションフレーム(N)フレームから局所フレーム(L)フレームへの変換マトリクスであり、
上記結合プロセッサに初期ヘディングを提供する慣性計測システムをさらに備え、
該結合プロセッサは、開始点で該初期ヘディングを利用し、上記エピポーラ方程式における誤差を最小化するヘディング角度が提供されるまで該ヘディング角度を繰り返し補正する、
上記項目のうちのいずれか1項に記載のシステム。
上記結合プロセッサは、上記システムに対するヘディングを直接的に計算するために、上記複数の照合された識別特徴のそれぞれの上記決定された補正されたヘディングを平均化する、上記項目のうちのいずれか1項に記載のシステム。
上記結合プロセッサはカルマンフィルタであり、上記エピポーラ方程式はδr=T×(x1×x2)・φ+(x1×x2)・δTであり、ここで、x1は上記第1の単位ベクトル、x2は上記第2の単位ベクトル、Tは上記並進ベクトルであり、ここで、φ=姿勢誤差およびδT=並進誤差であり、該カルマンフィルタが姿勢誤差φの解を得、δTは上記GPSによって計測される、上記項目のうちのいずれか1項に記載のシステム。
上記GPSは、GPSデバイスとGPSプロセッサとを備え、
該GPSデバイスは、キャリア位相情報を提供し、
該GPSプロセッサは、上記並進ベクトルを決定する、
上記項目のうちのいずれか1項に記載のシステム。
上記画像システムは、画像センサと画像プロセッサとを備え、
該画像センサは、上記運行ビークルの運行期間中に上記関心地域において上記第1の時点および上記第2の時点で上記複数の識別特徴をキャプチャし、
該画像プロセッサは、該第1の時点でキャプチャされた該複数の識別特徴と該第2の時点でキャプチャされた該複数の識別特徴とを照合し、該複数の照合された識別特徴のそれぞれについて、該第1の時点に基く、所与の照合された識別特徴に関連する上記第1の単位ベクトルと、該第2の時点に関連し、該所与の照合された識別特徴に関連する上記第2の単位ベクトルとを決定する、
上記項目のうちのいずれか1項に記載のシステム。
運行ビークル上に搭載可能なヘディングを決定するためのシステムであって、該システムは、
画像システムであって、該画像システムは、該運行ビークルの運行期間中に関心地域において第1の時点および第2の時点で複数の識別特徴をキャプチャし、該第1の時点でキャプチャされた該複数の識別特徴と該第2の時点でキャプチャされた該複数の識別特徴とを照合し、該複数の照合された識別特徴のそれぞれについて、該第1の時点に基く、所与の照合された識別特徴に関連する第1の単位ベクトルと、該第2の時点に関連し、該所与の照合された識別特徴に関連する第2の単位ベクトルとを決定する、画像システムと、
該第1の時点から該第2の時点までキャプチャされるキャリア位相情報に基いて並進ベクトルを決定するグローバルポジショニングシステム(GPS)と、
結合プロセッサであって、補正されたヘディングを決定するために、該複数の照合された識別特徴のそれぞれについてエピポーラ方程式における誤差を、それぞれの該第1の単位ベクトルと該第2の単位ベクトルと該並進ベクトルとに基いて最小化する、結合プロセッサと、
該結合プロセッサに初期ヘディングを提供する慣性計測システムであって、該結合プロセッサは、該エピポーラ方程式を最小化するために開始点で該初期ヘディングを利用する、慣性計測システムと
を備えている、システム。
上記エピポーラ方程式は(x1 L×x2 L)・CN LTN=0であり、ここで、x1 Lは上記第1の単位ベクトル、x2 Lは上記第2の単位ベクトル、TNは上記並進ベクトル、およびCN Lは下記のようなナビゲーションフレーム(N)フレームから局所フレーム(L)フレームへの変換マトリクスであり、
上記結合プロセッサは、上記システムに対する上記ヘディングを直接的に計算するために、上記複数の照合された識別特徴のそれぞれの上記決定された補正されたヘディングを平均化する、上記項目のうちのいずれか1項に記載のシステム。
上記結合プロセッサはカルマンフィルタであり、上記エピポーラ方程式はδr=T×(x1×x2)・φ+(x1×x2)・δTであり、ここで、x1は上記第1の単位ベクトル、x2は上記第2の単位ベクトル、Tは上記並進ベクトルであり、ここで、φ=姿勢誤差およびδT=並進誤差であり、該カルマンフィルタが姿勢誤差φの解を得、δTはGPSによって計測される、上記項目のうちのいずれか1項に記載のシステム。
上記GPSは、GPSデバイスとGPSプロセッサとを備え、
該GPSデバイスは、キャリア位相情報を提供し、
該GPSプロセッサは、上記並進ベクトルを決定し、
上記画像システムは、画像センサと画像プロセッサとを備え、
該画像センサは、上記運行ビークルの運行期間中に上記関心地域において上記第1の時点および上記第2の時点で上記複数の識別特徴をキャプチャし、
該画像プロセッサは、該第1の時点でキャプチャされた該複数の識別特徴と該第2の時点でキャプチャされた該複数の識別特徴とを照合し、該複数の照合された識別特徴のそれぞれについて、該第1の時点に基く、所与の照合された識別特徴に関連する上記第1の単位ベクトルと、該第2の時点に関連し、該所与の照合された識別特徴に関連する上記第2の単位ベクトルとを決定し、
上記慣性計測システムは、慣性計測ユニット(IMU)と慣性プロセッサとを備え、
該IMUは、速度変化および姿勢変化を該慣性プロセッサに提供し、
該慣性プロセッサは、位置、ヘディングおよび姿勢のそれぞれの評価値を決定する、
上記項目のうちのいずれか1項に記載のシステム。
画像システムと慣性システムとグローバルポジショニングシステム(GPS)とを利用する運行ビークルのヘディングを決定する方法であって、該方法は、
一の関心地域において影像をキャプチャし、第1の時点で複数の識別特徴の座標を抽出することと、
該一の関心地域において影像をキャプチャし、第2の時点で複数の識別特徴の座標を抽出することと、
複数の照合された識別特徴を決定するために、該第1の時点でキャプチャされた該複数の識別特徴の座標と該第2の時点でキャプチャされた該複数の識別特徴の座標とを照合することと、
該複数の照合された識別特徴のそれぞれについて、該第1の時点に基く、所与の照合された識別特徴に関連する第1の単位ベクトル、および該第2の時点に関連し、該所与の照合された識別特徴に関連する第2の単位ベクトルを提供することと、
該第1の時点から該第2の時点までキャプチャされるキャリア位相情報に基いて、並進ベクトルを計算することと、
補正されたヘディングを決定するために、該第1の単位ベクトルと該第2の単位ベクトルと該並進ベクトルとに基いて、該複数の照合された識別特徴のそれぞれについてエピポーラ方程式を最小化することと
を包含している、方法。
上記エピポーラ方程式を最小化するために開始点で上記IMUによって提供される初期ヘディングを利用することをさらに包含している、上記項目のうちのいずれか1項に記載の方法。
上記エピポーラ方程式は(x1 L×x2 L)・CN LTN=0であり、ここで、x1 Lは上記第1の単位ベクトル、x2 Lは上記第2の単位ベクトル、TNは上記並進ベクトル、およびCN Lは下記のようなナビゲーションフレーム(N)フレームから局所フレーム(L)フレームへの変換マトリクスであり、
上記整合されたヘディングを直接的に計算するために、上記複数の照合された識別特徴のそれぞれの上記決定された補正されたヘディングを平均化することをさらに包含している、上記項目のうちのいずれか1項に記載の方法。
上記エピポーラ方程式はδr=T×(x1×x2)・φ+(x1×x2)・δTであり、ここで、x1は上記第1の単位ベクトル、x2は上記第2の単位ベクトル、Tは上記並進ベクトルであり、ここで、φ=姿勢誤差およびδT=並進誤差である、上記項目のうちのいずれか1項に記載の方法。
カルマンフィルタが上記姿勢誤差φの解を得、上記δTは上記GPSによって計測される、上記項目のうちのいずれか1項に記載の方法。
運行ビークルのヘディングを決定するためのシステムおよび方法が提供される。当該システムおよび方法は、第1および第2の時点で画像エリアの複数の識別情報をキャプチャおよび照合し、複数の識別特徴に関連する単位ベクトルを決定するために、画像システムを利用する。グローバルポジショニングシステム(GPS)は、第1および第2の時点について並進ベクトルを提供し、結合プロセッサは、補正されたヘディングを提供するために、単位ベクトルおよび並進ベクトルを利用する。
映像的な手掛かりを使用したヘディングを決定するためのシステムおよび方法が提供される。映像的な手掛かりの使用は、S字ターン操縦の必要性を削減する一方で同様の性能を提供し、高品質な機器類が使用される場合にヘディング精度を改善する可能性を提示する。本発明の一実施形態において、ヘディングを決定するために、運行ビークル上に搭載可能なシステムが提供される。当該システムは、運行ビークルの運動期間中に、関心地域において、継続的な時点で複数の識別特徴を認定および追跡する画像システムを含む。映像処理手順は、複数の特徴を照合することと、それから、これらの照合された識別特徴のそれぞれに関連する単位ベクトルを決定することとを含む。当該システムは、第1の時点から第2の時点までキャプチャされるキャリア位相情報に基いて並進ベクトルを決定するグローバルポジショニングシステム(GPS)と、複数の照合された識別特徴のそれぞれについてエピポーラ方程式における誤差を、それぞれの第1の単位ベクトルと第2の単位ベクトルと並進ベクトルとに基いて最小化する結合プロセッサとを、さらに含む。カルマンフィルタ(または他の最適な評価手段)は、精練されたヘディングの解決手段のために計測を連続的に結合するのに利用され得る。
(x1×x2)・T=0 式1
ここで、x1およびx2は、それぞれ、点o1および点o2から同一の特徴を指す第1の単位ベクトルおよび第2の単位ベクトルである。便宜(および照準誤差を無視)のため、画像フレームとシステムボディフレームとは同一であると仮定する。また、IMU14のロール角度およびピッチ角度は既知(それらは重力ベクトルの計測によって直ちに決定される)であると仮定する。つまりボディフレームから局地水平面フレームLへの変換マトリクスCB Lが既知であることを意味する。これにより、ヘディング角度を解くことの問題は、ナビゲーション(N)フレームから局地(L)フレームへの変換マトリクスCN Lを解くことに低減される。
(x1 L×x2 L)・CN LTN=0 式3
ヘディング角度は、最小化される(例えば、おおよそ0)エピポーラ方程式の結果を提供するヘディング角度が提供されるまで、結合プロセッサ30によって繰り返し補正される。これは複数の識別特徴のそれぞれについて反復される。結合プロセッサ30は、複数の識別特徴から導かれるヘディング角度を平均化し、システム10に対する初期ヘディング整合を出力する。
r=x2・(T×x1)=0, 式5
ここで、「・」は内積であり、「×」は外積である。
上記の方程式は単に、3ベクトルx1、x2、およびTは同一面にあることを表わす。式5は下記のように書き直され得、
r=(x1×x2)・T=0, 式6
となる。
δr=−φ×(x1×x2)・T+(x1×x2)・δT +計測ノイズ 式7
δr=T×(x1×x2)・φ+(x1×x2)・δT +計測ノイズ 式8
ここで、φ=姿勢誤差(傾斜誤差およびヘディング誤差)、δT=並進誤差。
δTはGPSによって精度良く計測され得るから、式8はカルマンフィルタが姿勢誤差φ(傾斜誤差およびヘディング誤差)の解を得るのに十分な情報を提供する。
12 慣性計測システム
14 慣性計測ユニット(IMU)
16 慣性プロセッサ
18 画像システム
20 画像センサ
22 画像プロセッサ
24 グローバルポジショニングシステム(GPS)
26 GPS受信器
28 GPSプロセッサ
30 結合プロセッサ
40 エピポーラ幾何グラフ
50 第1のシミュレーションにおける慣性姿勢誤差対時間のグラフ
60 第2のシミュレーションにおける慣性姿勢誤差対時間のグラフ
70 ヘディングを決定するための方法論
Claims (17)
- 走行するビークル上に搭載可能なシステムであって、該システムは、該ビークルが走行する方向を表すヘディングを決定するためのシステムであり、該システムは、
該走行するビークルの走行期間中の第1の時点および第2の時点で、関心地域における複数の識別特徴をキャプチャし、該第1の時点でキャプチャされた該複数の識別特徴と該第2の時点でキャプチャされた該複数の識別特徴とを照合し、該複数の照合された識別特徴のそれぞれについて、該第1の時点に基づく、所与の照合された識別特徴に関連する第1の単位ベクトルと、該第2の時点に関連し、該所与の照合された識別特徴に関連する第2の単位ベクトルとを決定する画像システムと、
該第1の時点から該第2の時点までにキャプチャされたキャリア位相情報に基づいて並進ベクトルを決定するグローバルポジショニングシステム(GPS)と、
該第1の単位ベクトルと該第2の単位ベクトルと該並進ベクトルとにそれぞれ基づいて、該複数の照合された識別特徴のそれぞれについてエピポーラ方程式における誤差を最小化することにより、補正されたヘディングを決定する結合プロセッサと
を備えており、
該結合プロセッサはカルマンフィルタであり、該エピポーラ方程式はδr=T×(x 1 ×x 2 )・φ+(x 1 ×x 2 )・δTであり、ここで、x 1 は該第1の単位ベクトル、x 2 は該第2の単位ベクトル、Tは該並進ベクトルであり、ここで、φ=姿勢誤差であり、δT=並進誤差であり、該カルマンフィルタが姿勢誤差φの解を得、δTは該GPSによって計測される、システム。 - 前記結合プロセッサに初期レベリングを提供する慣性計測システムをさらに備え、該結合プロセッサは、ヘディングについて前記エピポーラ方程式を直接的に解くために該初期レベリングを利用する、請求項1に記載のシステム。
- 前記慣性計測システムは、慣性計測ユニット(IMU)と慣性プロセッサとを備え、
該IMUは、速度変化および姿勢変化を該慣性プロセッサに提供し、
該慣性プロセッサは、位置、ヘディング、姿勢のそれぞれの評価値を決定する、請求項2に記載のシステム。 - 前記エピポーラ方程式は(x1 L×x2 L)・CN LTN=0であり、ここで、x1 Lは前記第1の単位ベクトル、x2 Lは前記第2の単位ベクトル、TNは前記並進ベクトル、CN Lは下記のようなナビゲーション(N)フレームから局所(L)フレームへの変換マトリクスであり、
- 前記結合プロセッサに初期ヘディングを提供する慣性計測システムをさらに備え、
該結合プロセッサは、開始点で該初期ヘディングを利用し、前記エピポーラ方程式における誤差を最小化するヘディング角度が提供されるまで該ヘディング角度を繰り返し補正する、請求項4に記載のシステム。 - 前記結合プロセッサは、前記システムに対するヘディングを直接的に計算するために、前記複数の照合された識別特徴のそれぞれの前記決定された補正されたヘディングを平均化する、請求項1に記載のシステム。
- 前記GPSは、GPSデバイスとGPSプロセッサとを備え、
該GPSデバイスは、キャリア位相情報を提供し、
該GPSプロセッサは、前記並進ベクトルを決定する、請求項1に記載のシステム。 - 前記画像システムは、画像センサと画像プロセッサとを備え、
該画像センサは、前記走行するビークルの走行期間中の前記第1の時点および前記第2の時点で、前記関心地域における前記複数の識別特徴をキャプチャし、
該画像プロセッサは、該第1の時点でキャプチャされた該複数の識別特徴と該第2の時点でキャプチャされた該複数の識別特徴とを照合し、該複数の照合された識別特徴のそれぞれについて、該第1の時点に基づく、所与の照合された識別特徴に関連する前記第1の単位ベクトルと、該第2の時点に関連し、該所与の照合された識別特徴に関連する前記第2の単位ベクトルとを決定する、請求項1に記載のシステム。 - 走行するビークル上に搭載可能なシステムであって、該システムは、該ビークルが走行する方向を表すヘディングを決定するためのシステムであり、該システムは、
該走行するビークルの走行期間中の第1の時点および第2の時点で、関心地域における複数の識別特徴をキャプチャし、該第1の時点でキャプチャされた該複数の識別特徴と該第2の時点でキャプチャされた該複数の識別特徴とを照合し、該複数の照合された識別特徴のそれぞれについて、該第1の時点に基づく、所与の照合された識別特徴に関連する第1の単位ベクトルと、該第2の時点に関連し、該所与の照合された識別特徴に関連する第2の単位ベクトルとを決定する画像システムと、
該第1の時点から該第2の時点までにキャプチャされたキャリア位相情報に基づいて並進ベクトルを決定するグローバルポジショニングシステム(GPS)と、
該第1の単位ベクトルと該第2の単位ベクトルと該並進ベクトルとにそれぞれ基づいて、該複数の照合された識別特徴のそれぞれについてエピポーラ方程式における誤差を最小化することにより、補正されたヘディングを決定する結合プロセッサと、
該結合プロセッサに初期ヘディングを提供する慣性計測システムであって、該結合プロセッサは、該エピポーラ方程式を最小化するために開始点で該初期ヘディングを利用する、慣性計測システムと
を備えており、
該結合プロセッサはカルマンフィルタであり、該エピポーラ方程式はδr=T×(x 1 ×x 2 )・φ+(x 1 ×x 2 )・δTであり、ここで、x 1 は該第1の単位ベクトル、x 2 は該第2の単位ベクトル、Tは該並進ベクトルであり、ここで、φ=姿勢誤差であり、δT=並進誤差であり、該カルマンフィルタが姿勢誤差φの解を得、δTはGPSによって計測される、システム。 - 前記エピポーラ方程式は(x1 L×x2 L)・CN LTN=0であり、ここで、x1 Lは前記第1の単位ベクトル、x2 Lは前記第2の単位ベクトル、TNは前記並進ベクトル、CN Lは下記のようなナビゲーション(N)フレームから局所(L)フレームへの変換マトリクスであり、
- 前記結合プロセッサは、前記システムに対する前記ヘディングを直接的に計算するために、前記複数の照合された識別特徴のそれぞれの前記決定された補正されたヘディングを平均化する、請求項9に記載のシステム。
- 前記GPSは、GPSデバイスとGPSプロセッサとを備え、
該GPSデバイスは、キャリア位相情報を提供し、
該GPSプロセッサは、前記並進ベクトルを決定し、
前記画像システムは、画像センサと画像プロセッサとを備え、
該画像センサは、前記走行するビークルの走行期間中の前記第1の時点および前記第2の時点で、前記関心地域における前記複数の識別特徴をキャプチャし、
該画像プロセッサは、該第1の時点でキャプチャされた該複数の識別特徴と該第2の時点でキャプチャされた該複数の識別特徴とを照合し、該複数の照合された識別特徴のそれぞれについて、該第1の時点に基づく、所与の照合された識別特徴に関連する前記第1の単位ベクトルと、該第2の時点に関連し、該所与の照合された識別特徴に関連する前記第2の単位ベクトルとを決定し、
前記慣性計測システムは、慣性計測ユニット(IMU)と慣性プロセッサとを備え、
該IMUは、速度変化および姿勢変化を該慣性プロセッサに提供し、
該慣性プロセッサは、位置、ヘディング、姿勢のそれぞれの評価値を決定する、請求項1に記載のシステム。 - 画像システムと慣性システムとグローバルポジショニングシステム(GPS)とを利用する走行するビークルのヘディングを決定する方法であって、該ヘディングは、該ビークルが走行する方向を表し、該方法は、
一の関心地域において影像をキャプチャし、第1の時点で複数の識別特徴の座標を抽出することと、
該一の関心地域において影像をキャプチャし、第2の時点で複数の識別特徴の座標を抽出することと、
複数の照合された識別特徴を決定するために、該第1の時点でキャプチャされた該複数の識別特徴の座標と該第2の時点でキャプチャされた該複数の識別特徴の座標とを照合することと、
該複数の照合された識別特徴のそれぞれについて、該第1の時点に基づく、所与の照合された識別特徴に関連する第1の単位ベクトルと、該第2の時点に関連し、該所与の照合された識別特徴に関連する第2の単位ベクトルとを提供することと、
該第1の時点から該第2の時点までにキャプチャされたキャリア位相情報に基づいて、並進ベクトルを計算することと、
該第1の単位ベクトルと該第2の単位ベクトルと該並進ベクトルとに基づいて、該複数の照合された識別特徴のそれぞれについてエピポーラ方程式を最小化することにより、補正されたヘディングを決定することと
を包含しており、
該エピポーラ方程式はδr=T×(x 1 ×x 2 )・φ+(x 1 ×x 2 )・δTであり、ここで、x 1 は該第1の単位ベクトル、x 2 は該第2の単位ベクトル、Tは該並進ベクトルであり、ここで、φ=姿勢誤差であり、δT=並進誤差である、方法。 - 前記エピポーラ方程式を最小化するために開始点で前記IMUによって提供される初期ヘディングを利用することをさらに包含している、請求項13に記載の方法。
- 前記エピポーラ方程式は(x1 L×x2 L)・CN LTN=0であり、ここで、x1 Lは前記第1の単位ベクトル、x2 Lは前記第2の単位ベクトル、TNは前記並進ベクトル、CN Lは下記のようなナビゲーション(N)フレームから局所(L)フレームへの変換マトリクスであり、
- 前記整合されたヘディングを直接的に計算するために、前記複数の照合された識別特徴のそれぞれの前記決定された補正されたヘディングを平均化することをさらに包含している、請求項13に記載の方法。
- カルマンフィルタが前記姿勢誤差φの解を得、前記δTは前記GPSによって計測される、請求項13に記載の方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/616,487 US8346466B2 (en) | 2009-11-11 | 2009-11-11 | Systems and methods for determining heading |
US12/616,487 | 2009-11-11 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011102799A JP2011102799A (ja) | 2011-05-26 |
JP5379109B2 true JP5379109B2 (ja) | 2013-12-25 |
Family
ID=43607826
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010247957A Active JP5379109B2 (ja) | 2009-11-11 | 2010-11-04 | ヘディングを決定するためのシステムおよび方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US8346466B2 (ja) |
EP (1) | EP2322902B1 (ja) |
JP (1) | JP5379109B2 (ja) |
CA (1) | CA2720437C (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011120141A1 (en) * | 2010-03-31 | 2011-10-06 | Ambercore Software Inc. | Dynamic network adjustment for rigorous integration of passive and active imaging observations into trajectory determination |
RU2010124265A (ru) * | 2010-06-16 | 2011-12-27 | Алексей Владиславович Жданов (RU) | Способ и устройство определения направления начала движения |
CN103026260B (zh) * | 2010-07-20 | 2015-05-13 | 莱卡地球系统公开股份有限公司 | 确定车辆的单值航行方向的系统和方法 |
GB201706129D0 (en) | 2017-04-18 | 2017-05-31 | Blue Vision Labs Uk Ltd | Distributed device mapping |
FR3071624B1 (fr) * | 2017-09-22 | 2019-10-11 | Thales | Systeme d'affichage, procede d'affichage et programme d'ordinateur associes |
CN109115212B (zh) * | 2018-10-30 | 2022-04-12 | 中国船舶重工集团公司第七0七研究所 | 一种惯导系统全范围姿态角提取方法 |
JP7291775B2 (ja) * | 2019-02-25 | 2023-06-15 | 古野電気株式会社 | 移動情報算出装置、および、移動情報算出方法 |
GB2584463B (en) | 2019-06-04 | 2023-06-28 | Atlantic Inertial Systems Ltd | Direction finder |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7202776B2 (en) * | 1997-10-22 | 2007-04-10 | Intelligent Technologies International, Inc. | Method and system for detecting objects external to a vehicle |
JP2002532770A (ja) | 1998-11-20 | 2002-10-02 | ジオメトリックス インコーポレイテッド | 映像に関連してカメラポーズを決定する方法及びシステム |
US6411898B2 (en) * | 2000-04-24 | 2002-06-25 | Matsushita Electric Industrial Co., Ltd. | Navigation device |
US6754584B2 (en) * | 2001-02-28 | 2004-06-22 | Enpoint, Llc | Attitude measurement using a single GPS receiver with two closely-spaced antennas |
JP2004177362A (ja) * | 2002-11-29 | 2004-06-24 | Nippon Telegr & Teleph Corp <Ntt> | 位置計測方法、位置計測装置、位置計測方法のプログラム、およびこのプログラムを記録した記録媒体 |
JP4257219B2 (ja) * | 2004-01-06 | 2009-04-22 | 富士重工業株式会社 | 走行軌跡記録装置および走行軌跡記録方法 |
US20070070069A1 (en) * | 2005-09-26 | 2007-03-29 | Supun Samarasekera | System and method for enhanced situation awareness and visualization of environments |
JP5362189B2 (ja) * | 2006-05-10 | 2013-12-11 | 株式会社トプコン | 画像処理装置及びその処理方法 |
JP5090797B2 (ja) * | 2006-06-15 | 2012-12-05 | 株式会社岩根研究所 | Cv値基準一括追跡装置、このcv値基準一括追跡装置を用いたcv領域画像前置装置 |
US7925049B2 (en) * | 2006-08-15 | 2011-04-12 | Sri International | Stereo-based visual odometry method and system |
WO2008024772A1 (en) * | 2006-08-21 | 2008-02-28 | University Of Florida Research Foundation, Inc. | Image-based system and method for vehicle guidance and navigation |
US8280107B2 (en) * | 2006-11-03 | 2012-10-02 | Tomtom Global Content B.V. | Method and apparatus for identification and position determination of planar objects in images |
US8174568B2 (en) * | 2006-12-01 | 2012-05-08 | Sri International | Unified framework for precise vision-aided navigation |
EP1972893A1 (en) | 2007-03-21 | 2008-09-24 | Universiteit Gent | System and method for position determination |
JP5227065B2 (ja) * | 2008-01-25 | 2013-07-03 | 株式会社岩根研究所 | 三次元機械地図、三次元機械地図生成装置、ナビゲーション装置及び自動運転装置 |
-
2009
- 2009-11-11 US US12/616,487 patent/US8346466B2/en active Active
-
2010
- 2010-11-04 JP JP2010247957A patent/JP5379109B2/ja active Active
- 2010-11-09 CA CA2720437A patent/CA2720437C/en active Active
- 2010-11-11 EP EP10014496.3A patent/EP2322902B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
CA2720437C (en) | 2014-09-09 |
US8346466B2 (en) | 2013-01-01 |
CA2720437A1 (en) | 2011-05-11 |
EP2322902A3 (en) | 2016-06-15 |
US20110112767A1 (en) | 2011-05-12 |
EP2322902B1 (en) | 2019-01-23 |
EP2322902A2 (en) | 2011-05-18 |
JP2011102799A (ja) | 2011-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5379109B2 (ja) | ヘディングを決定するためのシステムおよび方法 | |
US6463366B2 (en) | Attitude determination and alignment using electro-optical sensors and global navigation satellites | |
US9316716B2 (en) | Dynamic attitude measurement method of star sensor based on gyro's precise angular correlation | |
Garratt et al. | Integration of GPS/INS/vision sensors to navigate unmanned aerial vehicles | |
JP4600357B2 (ja) | 測位装置 | |
US11099030B2 (en) | Attitude estimation apparatus, attitude estimation method, and observation system | |
US20080195316A1 (en) | System and method for motion estimation using vision sensors | |
Stančić et al. | The integration of strap-down INS and GPS based on adaptive error damping | |
JP2008304260A (ja) | 画像処理装置 | |
CN111707259B (zh) | 一种校正加速度计误差的sins/cns组合导航方法 | |
EP3348963A1 (en) | Navigation device and survey system | |
CN108375383B (zh) | 多相机辅助的机载分布式pos柔性基线测量方法和装置 | |
US20160195878A1 (en) | Missile system with navigation capability based on image processing | |
CN110736457A (zh) | 一种基于北斗、gps和sins的组合导航方法 | |
JP6221295B2 (ja) | 位置算出方法及び位置算出装置 | |
Mostafa et al. | Optical flow based approach for vision aided inertial navigation using regression trees | |
US9476987B2 (en) | Method estimating absolute orientation of a vehicle | |
US11037018B2 (en) | Navigation augmentation system and method | |
EP3855216A1 (en) | Navigation device and method and program for generating navigation assistance information | |
CN114383612B (zh) | 一种视觉辅助惯性差分位姿测量系统 | |
Li et al. | Image-based self-position and orientation method for moving platform | |
JP2015193347A (ja) | 飛翔体の慣性航法システム | |
US9210384B2 (en) | System and method for real time registration of images | |
Zhai et al. | Application of unscented Kalman filter in GPS/INS | |
Sheikhpour et al. | An enhanced visual-inertial navigation system based on multi-state constraint Kalman filter |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111024 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120820 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121029 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130625 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130909 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130926 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5379109 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |