JP5379109B2 - ヘディングを決定するためのシステムおよび方法 - Google Patents

ヘディングを決定するためのシステムおよび方法 Download PDF

Info

Publication number
JP5379109B2
JP5379109B2 JP2010247957A JP2010247957A JP5379109B2 JP 5379109 B2 JP5379109 B2 JP 5379109B2 JP 2010247957 A JP2010247957 A JP 2010247957A JP 2010247957 A JP2010247957 A JP 2010247957A JP 5379109 B2 JP5379109 B2 JP 5379109B2
Authority
JP
Japan
Prior art keywords
time point
processor
heading
identification features
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010247957A
Other languages
English (en)
Other versions
JP2011102799A (ja
Inventor
シュエー カイナン
ジェフリー ディックマン ティー.
アーマディ レザ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northrop Grumman Guidance and Electronics Co Inc
Original Assignee
Litton Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Litton Systems Inc filed Critical Litton Systems Inc
Publication of JP2011102799A publication Critical patent/JP2011102799A/ja
Application granted granted Critical
Publication of JP5379109B2 publication Critical patent/JP5379109B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Navigation (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

(技術分野)
本発明は、一般的にナビゲーションシステムに関する。より詳細には、本発明は、ヘディングの決定のためのシステムおよび方法に関する。
グローバルポジショニングシステム(GPS)の利用をもってしても、低品位の慣性計測ユニット(IMU)は、ビークルが顕著な速度変化を時々刻々と経験しない限り、そのヘディング角度を精度良く決定できない。例えば、速度変化無しでは、GPSにより支援される1度/時間のジャイロを装備したIMUのヘディング精度は約0.1ラジアンである。低品位IMU装備をGPSまたは他の外的な位置/速度の照会と整合させるための伝統的な手法は、ヘディング誤差の可観測性を提供するために、運行の期間中にS字ターンを利用することである。伝統的な飛行中の整合手順は、ビークルが、数分間続く長たらしい水平面S字ターン操縦を実行することを要求する。ミリラジアンの整合精度の達成が可能であるが、長たらしい伝統的な整合手順は一般的に与えられたミッションのゴールからそれる。
従来、ステレオベースの視覚的なオドメトリのための方法およびシステムがあります(例えば、特許文献1を参照)。また、従来、正確なビジョン支援ナビゲーションのための統一されたフレームワークがあります(例えば、特許文献2を参照)。また、従来、環境の拡張された状況認識および視覚化のためのシステムおよび方法があります(例えば、特許文献3を参照)。また、従来、ナビゲーション装置があります(例えば、特許文献4を参照)。また、従来、ビジョン支援カメラ位置決定があります(例えば、特許文献5を参照)。また、従来、位置決定のためのシステムおよび方法があります(例えば、特許文献6を参照)。
米国特許出願公開第2008/0144925号明細書 米国特許出願公開第2008/0167814号明細書 米国特許出願公開第2007/0070069号明細書 米国特許第6,411,898号明細書 国際公開第00/34803号 欧州特許出願公開第1972893号明細書
本発明の一実施形態において、ヘディングを決定するために、運行ビークル上に搭載可能なシステムが提供される。当該システムは、運行ビークルの運行期間中に、関心地域において、第1の時点および第2の時点で複数の識別特徴をキャプチャする画像システムを含み、第1の時点でキャプチャされた複数の識別特徴と第2の時点でキャプチャされた複数の識別特徴とを照合し、複数の照合された識別特徴のそれぞれについて、第1の時点に基く、所与の照合された識別特徴に関連する第1の単位ベクトルと、第2の時点に関連し、該所与の照合された識別特徴に関連する第2の単位ベクトルとを決定する。当該システムは、第1の時点から第2の時点までキャプチャされるキャリア位相情報に基いて並進ベクトルを決定するグローバルポジショニングシステム(GPS)と、補正されたヘディングを決定するために、複数の照合された識別特徴のそれぞれについてエピポーラ方程式における誤差を、それぞれの第1の単位ベクトルと第2の単位ベクトルと並進ベクトルとに基いて最小化する結合プロセッサとを、さらに含む。
本発明の別の実施形態においては、ヘディングを決定するために、運行ビークル上に搭載可能なシステムが提供される。当該システムは、運行ビークルの運行期間中に、関心地域において、第1の時点および第2の時点で複数の識別特徴をキャプチャする画像システムを含み、第1の時点でキャプチャされた複数の識別特徴と第2の時点でキャプチャされた複数の識別特徴とを照合し、複数の照合された識別特徴のそれぞれについて、第1の時点に基く、所与の照合された識別特徴に関連する第1の単位ベクトルと、第2の時点に関連し、該所与の照合された識別特徴に関連する第2の単位ベクトルとを決定する。当該システムは、第1の時点から第2の時点までキャプチャされるキャリア位相情報に基いて並進ベクトルを決定するグローバルポジショニングシステム(GPS)と、補正されたヘディングを決定するために、複数の照合された識別特徴のそれぞれについてエピポーラ方程式における誤差を、それぞれの第1の単位ベクトルと第2の単位ベクトルと並進ベクトルとに基いて最小化する結合プロセッサとを、さらに含む。当該システムはまた、結合プロセッサに初期のヘディングを提供する慣性計測システムを含み、それによって、結合プロセッサがエピポーラ方程式を最小化するために開始点で初期ヘディングを利用する。
本発明のまたさらなる実施形態において、画像システムと慣性システムとグローバルポジショニングシステム(GPS)とを利用する運行ビークルのヘディングを決定する方法が提供される。当該方法は、一の関心地域において影像をキャプチャし、第1の時点で複数の識別特徴の座標を抽出することと、該一の関心地域において影像をキャプチャし、第2の時点で複数の識別特徴の座標を抽出することと、複数の照合された識別特徴を決定するために第1の時点でキャプチャされた複数の識別特徴の座標と第2の時点でキャプチャされた複数の識別特徴の座標とを照合することとを含む。当該方法は、複数の照合された識別特徴のそれぞれについて、第1の時点に基く、所与の照合された識別特徴に関連する第1の単位ベクトル、および第2の時点に関連し、該所与の照合された識別特徴に関連する第2の単位ベクトルを提供することと、第1の時点から第2の時点までキャプチャされるキャリア位相情報に基いて並進ベクトルを計算することと、補正されたヘディングを決定するために第1の単位ベクトルと第2の単位ベクトルと並進ベクトルとに基いて、複数の照合された識別特徴のそれぞれについてエピポーラ方程式を最小化することとを、さらに含む。
以上により、本発明は、以下の手段を提供する。
(項目1)
運行ビークル上に搭載可能なヘディングを決定するためのシステムであって、該システムは、
画像システムであって、該画像システムは、該運行ビークルの運行期間中に関心地域において第1の時点および第2の時点で複数の識別特徴をキャプチャし、該第1の時点でキャプチャされた該複数の識別特徴と該第2の時点でキャプチャされた該複数の識別特徴とを照合し、該複数の照合された識別特徴のそれぞれについて、該第1の時点に基く、所与の照合された識別特徴に関連する第1の単位ベクトルと、該第2の時点に関連し、該所与の照合された識別特徴に関連する第2の単位ベクトルとを決定する、画像システムと、
該第1の時点から該第2の時点までキャプチャされるキャリア位相情報に基いて並進ベクトルを決定するグローバルポジショニングシステム(GPS)と、
結合プロセッサであって、補正されたヘディングを決定するために、該複数の照合された識別特徴のそれぞれについてエピポーラ方程式における誤差を、それぞれの該第1の単位ベクトルと該第2の単位ベクトルと該並進ベクトルとに基いて最小化する、結合プロセッサと
を備えている、システム。
(項目2)
上記結合プロセッサに初期レベリングを提供する慣性計測システムをさらに備え、該結合プロセッサはヘディングについて上記エピポーラ方程式を直接的に解くために該初期レベリングを利用する、上記項目に記載のシステム。
(項目3)
上記慣性計測システムは、慣性計測ユニット(IMU)と慣性プロセッサとを備え、
該IMUは、速度変化および姿勢変化を該慣性プロセッサに提供し、
該慣性プロセッサは、位置、ヘディングおよび姿勢のそれぞれの評価値を決定する、
上記項目のうちのいずれか1項に記載のシステム。
(項目4)
上記エピポーラ方程式は(x ×x )・C =0であり、ここで、x は上記第1の単位ベクトル、x は上記第2の単位ベクトル、Tは上記並進ベクトル、およびC は下記のようなナビゲーションフレーム(N)フレームから局所フレーム(L)フレームへの変換マトリクスであり、
ここで、c=cos(a)およびs=sin(a)であり、aは解かれるべきヘディング角度である、上記項目のうちのいずれか1項に記載のシステム。
(項目5)
上記結合プロセッサに初期ヘディングを提供する慣性計測システムをさらに備え、
該結合プロセッサは、開始点で該初期ヘディングを利用し、上記エピポーラ方程式における誤差を最小化するヘディング角度が提供されるまで該ヘディング角度を繰り返し補正する、
上記項目のうちのいずれか1項に記載のシステム。
(項目6)
上記結合プロセッサは、上記システムに対するヘディングを直接的に計算するために、上記複数の照合された識別特徴のそれぞれの上記決定された補正されたヘディングを平均化する、上記項目のうちのいずれか1項に記載のシステム。
(項目7)
上記結合プロセッサはカルマンフィルタであり、上記エピポーラ方程式はδr=T×(x×x)・φ+(x×x)・δTであり、ここで、xは上記第1の単位ベクトル、xは上記第2の単位ベクトル、Tは上記並進ベクトルであり、ここで、φ=姿勢誤差およびδT=並進誤差であり、該カルマンフィルタが姿勢誤差φの解を得、δTは上記GPSによって計測される、上記項目のうちのいずれか1項に記載のシステム。
(項目8)
上記GPSは、GPSデバイスとGPSプロセッサとを備え、
該GPSデバイスは、キャリア位相情報を提供し、
該GPSプロセッサは、上記並進ベクトルを決定する、
上記項目のうちのいずれか1項に記載のシステム。
(項目9)
上記画像システムは、画像センサと画像プロセッサとを備え、
該画像センサは、上記運行ビークルの運行期間中に上記関心地域において上記第1の時点および上記第2の時点で上記複数の識別特徴をキャプチャし、
該画像プロセッサは、該第1の時点でキャプチャされた該複数の識別特徴と該第2の時点でキャプチャされた該複数の識別特徴とを照合し、該複数の照合された識別特徴のそれぞれについて、該第1の時点に基く、所与の照合された識別特徴に関連する上記第1の単位ベクトルと、該第2の時点に関連し、該所与の照合された識別特徴に関連する上記第2の単位ベクトルとを決定する、
上記項目のうちのいずれか1項に記載のシステム。
(項目10)
運行ビークル上に搭載可能なヘディングを決定するためのシステムであって、該システムは、
画像システムであって、該画像システムは、該運行ビークルの運行期間中に関心地域において第1の時点および第2の時点で複数の識別特徴をキャプチャし、該第1の時点でキャプチャされた該複数の識別特徴と該第2の時点でキャプチャされた該複数の識別特徴とを照合し、該複数の照合された識別特徴のそれぞれについて、該第1の時点に基く、所与の照合された識別特徴に関連する第1の単位ベクトルと、該第2の時点に関連し、該所与の照合された識別特徴に関連する第2の単位ベクトルとを決定する、画像システムと、
該第1の時点から該第2の時点までキャプチャされるキャリア位相情報に基いて並進ベクトルを決定するグローバルポジショニングシステム(GPS)と、
結合プロセッサであって、補正されたヘディングを決定するために、該複数の照合された識別特徴のそれぞれについてエピポーラ方程式における誤差を、それぞれの該第1の単位ベクトルと該第2の単位ベクトルと該並進ベクトルとに基いて最小化する、結合プロセッサと、
該結合プロセッサに初期ヘディングを提供する慣性計測システムであって、該結合プロセッサは、該エピポーラ方程式を最小化するために開始点で該初期ヘディングを利用する、慣性計測システムと
を備えている、システム。
(項目11)
上記エピポーラ方程式は(x ×x )・C =0であり、ここで、x は上記第1の単位ベクトル、x は上記第2の単位ベクトル、Tは上記並進ベクトル、およびC は下記のようなナビゲーションフレーム(N)フレームから局所フレーム(L)フレームへの変換マトリクスであり、
ここで、c=cos(a)およびs=sin(a)であり、aは解かれるべきヘディング角度である、上記項目のうちのいずれか1項に記載のシステム。
(項目12)
上記結合プロセッサは、上記システムに対する上記ヘディングを直接的に計算するために、上記複数の照合された識別特徴のそれぞれの上記決定された補正されたヘディングを平均化する、上記項目のうちのいずれか1項に記載のシステム。
(項目13)
上記結合プロセッサはカルマンフィルタであり、上記エピポーラ方程式はδr=T×(x×x)・φ+(x×x)・δTであり、ここで、xは上記第1の単位ベクトル、xは上記第2の単位ベクトル、Tは上記並進ベクトルであり、ここで、φ=姿勢誤差およびδT=並進誤差であり、該カルマンフィルタが姿勢誤差φの解を得、δTはGPSによって計測される、上記項目のうちのいずれか1項に記載のシステム。
(項目14)
上記GPSは、GPSデバイスとGPSプロセッサとを備え、
該GPSデバイスは、キャリア位相情報を提供し、
該GPSプロセッサは、上記並進ベクトルを決定し、
上記画像システムは、画像センサと画像プロセッサとを備え、
該画像センサは、上記運行ビークルの運行期間中に上記関心地域において上記第1の時点および上記第2の時点で上記複数の識別特徴をキャプチャし、
該画像プロセッサは、該第1の時点でキャプチャされた該複数の識別特徴と該第2の時点でキャプチャされた該複数の識別特徴とを照合し、該複数の照合された識別特徴のそれぞれについて、該第1の時点に基く、所与の照合された識別特徴に関連する上記第1の単位ベクトルと、該第2の時点に関連し、該所与の照合された識別特徴に関連する上記第2の単位ベクトルとを決定し、
上記慣性計測システムは、慣性計測ユニット(IMU)と慣性プロセッサとを備え、
該IMUは、速度変化および姿勢変化を該慣性プロセッサに提供し、
該慣性プロセッサは、位置、ヘディングおよび姿勢のそれぞれの評価値を決定する、
上記項目のうちのいずれか1項に記載のシステム。
(項目15)
画像システムと慣性システムとグローバルポジショニングシステム(GPS)とを利用する運行ビークルのヘディングを決定する方法であって、該方法は、
一の関心地域において影像をキャプチャし、第1の時点で複数の識別特徴の座標を抽出することと、
該一の関心地域において影像をキャプチャし、第2の時点で複数の識別特徴の座標を抽出することと、
複数の照合された識別特徴を決定するために、該第1の時点でキャプチャされた該複数の識別特徴の座標と該第2の時点でキャプチャされた該複数の識別特徴の座標とを照合することと、
該複数の照合された識別特徴のそれぞれについて、該第1の時点に基く、所与の照合された識別特徴に関連する第1の単位ベクトル、および該第2の時点に関連し、該所与の照合された識別特徴に関連する第2の単位ベクトルを提供することと、
該第1の時点から該第2の時点までキャプチャされるキャリア位相情報に基いて、並進ベクトルを計算することと、
補正されたヘディングを決定するために、該第1の単位ベクトルと該第2の単位ベクトルと該並進ベクトルとに基いて、該複数の照合された識別特徴のそれぞれについてエピポーラ方程式を最小化することと
を包含している、方法。
(項目16)
上記エピポーラ方程式を最小化するために開始点で上記IMUによって提供される初期ヘディングを利用することをさらに包含している、上記項目のうちのいずれか1項に記載の方法。
(項目17)
上記エピポーラ方程式は(x ×x )・C =0であり、ここで、x は上記第1の単位ベクトル、x は上記第2の単位ベクトル、Tは上記並進ベクトル、およびC は下記のようなナビゲーションフレーム(N)フレームから局所フレーム(L)フレームへの変換マトリクスであり、
ここで、c=cos(a)およびs=sin(a)であり、aは解かれるべきヘディング角度である、上記項目のうちのいずれか1項に記載の方法。
(項目18)
上記整合されたヘディングを直接的に計算するために、上記複数の照合された識別特徴のそれぞれの上記決定された補正されたヘディングを平均化することをさらに包含している、上記項目のうちのいずれか1項に記載の方法。
(項目19)
上記エピポーラ方程式はδr=T×(x×x)・φ+(x×x)・δTであり、ここで、xは上記第1の単位ベクトル、xは上記第2の単位ベクトル、Tは上記並進ベクトルであり、ここで、φ=姿勢誤差およびδT=並進誤差である、上記項目のうちのいずれか1項に記載の方法。
(項目20)
カルマンフィルタが上記姿勢誤差φの解を得、上記δTは上記GPSによって計測される、上記項目のうちのいずれか1項に記載の方法。
(摘要)
運行ビークルのヘディングを決定するためのシステムおよび方法が提供される。当該システムおよび方法は、第1および第2の時点で画像エリアの複数の識別情報をキャプチャおよび照合し、複数の識別特徴に関連する単位ベクトルを決定するために、画像システムを利用する。グローバルポジショニングシステム(GPS)は、第1および第2の時点について並進ベクトルを提供し、結合プロセッサは、補正されたヘディングを提供するために、単位ベクトルおよび並進ベクトルを利用する。
図1は、本発明の一局面に従ってヘディングを決定するためのシステムのブロックダイヤグラムを図示する。 図2は、本発明の一局面に従って結合プロセッサにより遂行される計算の説明を容易にするエピポーラ幾何グラフを図示する。 図3は、第1のシミュレーションにおける慣性姿勢誤差対時間のグラフを図示し、そのような第1のシミュレーションは、GPSを有さず、S字ターン整合操縦を有した、気圧支援ナビゲーション品位の慣性ナビゲーションシステム(INS)の自由慣性姿勢誤差を有して遂行された。 図4は、第2のシミュレーションにおける慣性姿勢誤差対時間のグラフを図示し、そのような第2のシミュレーションは、S字ターン整合を利用する気圧支援ナビゲーション品位のINSを有さず、本発明の一局面に従って連続的な整合用の映像観測を有して遂行された。 図5は、本発明の一局面に従ってヘディングを決定するための方法論を図示する。
(詳細な説明)
映像的な手掛かりを使用したヘディングを決定するためのシステムおよび方法が提供される。映像的な手掛かりの使用は、S字ターン操縦の必要性を削減する一方で同様の性能を提供し、高品質な機器類が使用される場合にヘディング精度を改善する可能性を提示する。本発明の一実施形態において、ヘディングを決定するために、運行ビークル上に搭載可能なシステムが提供される。当該システムは、運行ビークルの運動期間中に、関心地域において、継続的な時点で複数の識別特徴を認定および追跡する画像システムを含む。映像処理手順は、複数の特徴を照合することと、それから、これらの照合された識別特徴のそれぞれに関連する単位ベクトルを決定することとを含む。当該システムは、第1の時点から第2の時点までキャプチャされるキャリア位相情報に基いて並進ベクトルを決定するグローバルポジショニングシステム(GPS)と、複数の照合された識別特徴のそれぞれについてエピポーラ方程式における誤差を、それぞれの第1の単位ベクトルと第2の単位ベクトルと並進ベクトルとに基いて最小化する結合プロセッサとを、さらに含む。カルマンフィルタ(または他の最適な評価手段)は、精練されたヘディングの解決手段のために計測を連続的に結合するのに利用され得る。
プラットフォームの整合は2つのステップを要求することが理解されるべきである。すなわち、任意の地球固定フレームとボディフレームとの間の関係を決定すること、それから既知の地球固定フレーム(例えば、北、東、下)に対するこの地球固定フレームを決定することである。十分に照合された特徴により、映像観測は地球固定座標フレーム(北、東、および下への関係は未だ未知)において参照されるプラットフォームのポーズへと結合され得る。それから結合プロセッサは、ボディフレームと既知の地球固定フレームとの間の最終的な整合を決定するために、映像観測をGPS計測と結合し得る。
本発明の別の実施形態においては、結合プロセッサは、開始点で初期ヘディングについて直接的に解くために、エピポーラ方程式(式3)と共にGPS並進および映像観測を利用する。あるいは、慣性計測システムは結合プロセッサに開始点で初期ヘディングを提供し得る。
これ以後、例示の簡便のため、特徴照合の記載は逐次的な2つの時点の間の照合として記載されるが、この操作は2つ以上の時点を含み得る。
図1は、本発明の一局面に従ってヘディングを決定するためのシステム10を図示する。システム10は、運行ビークル(示されていない)上に搭載される、慣性計測システム12、画像システム18およびグローバルポジションシステム(GPS)24を含む。慣性計測システム12は、比較的低廉な慣性計測ユニット(IMU)14および慣性プロセッサ16を含む。画像システム18は、画像センサ20(例えばカメラ)および画像プロセッサ22を含む。GPS24は、GPS受信器26およびGPSプロセッサ28を含む。一の画像エリアの複数の識別特徴は、運行ビークルの運動期間中に、第1の時点(t)および第2の時点(t)で画像センサ20によってキャプチャされる。複数の識別特徴の照合後、画像プロセッサ22によって、複数の照合された特徴のそれぞれについて、第1の単位ベクトル(x)は第1の時点(t)で決定され得、第2の単位ベクトル(x)は第2の時点(t)で決定され得る。画像プロセッサ22は、複数の特徴のそれぞれについて、第1の単位ベクトル(x)および第2の単位ベクトル(x)を結合プロセッサ30に提供する。並進ベクトルTGPSは、第1の時点(t)から第2の時点(t)までのGPS受信器26によってキャプチャされるキャリア位相情報に基いて、GPSプロセッサ28によって決定され得る。GPSプロセッサ28は、並進ベクトルTGPSを結合プロセッサ30に提供する。
初期整合の期間中、GPSプロセッサ28からの並進情報と並行して、速度の変化(ΔV)および姿勢の変化(Δθ)がIMU14から慣性プロセッサ16に提供され、これにより、結合プロセッサ30は初期位置、初期姿勢および初期ヘディングを決定できる。IMU14は速度および姿勢の変化を提供し続け、慣性プロセッサ16は第1の時点(t)と第2の時点(t)との間における位置、姿勢およびヘディングを伝達する。これらの値は結合プロセッサ30に提供され、結合プロセッサ30はまた慣性プロセッサ16に補正情報をフィードバックする。
並進ベクトルTGPSは、ナビゲーションフレームN(北−東−下)においてGPSプロセッサ28によって決定され、第1の単位ベクトルxおよび第2の単位ベクトルxは、IMU14のボディフレームBに堅固に関係した画像プロセッサ22によって決定される。結合プロセッサ30は、エピポーラ方程式における誤差を解き、および最小化するように構成され、
(x×x)・T=0 式1
ここで、xおよびxは、それぞれ、点oおよび点oから同一の特徴を指す第1の単位ベクトルおよび第2の単位ベクトルである。便宜(および照準誤差を無視)のため、画像フレームとシステムボディフレームとは同一であると仮定する。また、IMU14のロール角度およびピッチ角度は既知(それらは重力ベクトルの計測によって直ちに決定される)であると仮定する。つまりボディフレームから局地水平面フレームLへの変換マトリクスC が既知であることを意味する。これにより、ヘディング角度を解くことの問題は、ナビゲーション(N)フレームから局地(L)フレームへの変換マトリクスC を解くことに低減される。
上述した既知の誤差を無視することに基いて、および上述した既知の仮定に基いて、結合プロセッサ30は、下記のようなナビゲーション(N)フレームから局地(L)フレームへの変換マトリクスC を解くことによってヘディング角度を決定し、
ここで、c=cos(a)およびs=sin(a)であり、aは解かれるべきヘディング角度である。
初期ヘディング角度aは、慣性プロセッサ16から提供され得、下記のエピポーラ方程式に代入され、
(x ×x )・C =0 式3
ヘディング角度は、最小化される(例えば、おおよそ0)エピポーラ方程式の結果を提供するヘディング角度が提供されるまで、結合プロセッサ30によって繰り返し補正される。これは複数の識別特徴のそれぞれについて反復される。結合プロセッサ30は、複数の識別特徴から導かれるヘディング角度を平均化し、システム10に対する初期ヘディング整合を出力する。
ヘディングを決定するためのシステム10は、たくさんの有用な用途を有する。主に、この技術は、航空機、陸上ビークル、またはヘリコプタにおいて、慣例の軌跡またはS字ターンのような操縦の必要性を有さずに、そのヘディングを決定するのに低コストなスタンドアロンのGPS−IMU−カメラのパッケージの使用を可能にする。このことはまた、例えば電子/光学センサまたはSAR(合成開口レーダ)などの、ある種の映像センサが既に利用可能であるような状況にも適用され得る。
図2は、本発明の一局面に従って結合プロセッサにより遂行される計算の記載を容易にするエピポーラ幾何グラフ40を図示する。3D空間における地点pでの特徴は画像センサによって2度(tおよびt)観測され、それぞれ点oおよび点oに位置付けられる。XおよびXを、北−東−下ナビゲーション座標フレーム(N)におけるそれぞれoおよびoからpへのベクトルとする。Tをoからoへの並進ベクトルとする。画像センサは特徴への方向(単位ベクトル)を提供する。それはIMUのボディフレーム(B)に堅固に関係した画像センサフレームにおいて計測され、それからナビゲーションフレームへ変換される。便宜(単一焦点距離を仮定および照準誤差を無視)のため、画像センサフレームおよびIMUボディフレームは同一であると仮定する。例えば、
とし、エピポーラ方程式は下記のように表わされ、
r=x・(T×x)=0, 式5
ここで、「・」は内積であり、「×」は外積である。
上記の方程式は単に、3ベクトルx、x、およびTは同一面にあることを表わす。式5は下記のように書き直され得、
r=(x×x)・T=0, 式6
となる。
本発明の一局面において、結合プロセッサ30はカルマンフィルタである。上述の解決手段は、以下に記載されるようにカルマンフィルタを使用することによって精練され得る。画像センサフレームはIMUフレームに関係しているから、画像計測はIMUフレームと同一の姿勢誤差を共有する。式6の誤差は下記のように表現され得、
δr=−φ×(x×x)・T+(x×x)・δT +計測ノイズ 式7
δr=T×(x×x)・φ+(x×x)・δT +計測ノイズ 式8
ここで、φ=姿勢誤差(傾斜誤差およびヘディング誤差)、δT=並進誤差。
δTはGPSによって精度良く計測され得るから、式8はカルマンフィルタが姿勢誤差φ(傾斜誤差およびヘディング誤差)の解を得るのに十分な情報を提供する。
図3は、第1のシミュレーションにおける慣性姿勢誤差対時間のグラフ50を図示し、そのような第1のシミュレーションは、S字ターン整合後、GPSを拒否した期間中に気圧支援ナビゲーション品位のINSの自由慣性姿勢誤差を有して遂行された。図4は、第2のシミュレーションにおける慣性姿勢誤差対時間のグラフ60を図示し、そのような第2のシミュレーションは、S字ターン整合を利用する気圧支援INSを有さず、本発明の一局面に従って画像センサを使用する連続的な整合を有して遂行された。結果を図示するために、S字ターン整合を有して映像による整合を有しない気圧支援の自由慣性姿勢の精度(30回のモンテカルロ実行から1σ)が図3に図示されている。映像が含まれる場合にS字ターン操縦は取り除かれ得、性能は殆ど同一であるから、ヘディング精度は主に整合手順の恩恵である。この例では、映像支援は、逐次的なフレーム間で5つの特徴を照合する下向きに見るEO映像センサによって提供された。シミュレーションされた映像精度は、0.22mradの特徴ノイズおよびトータルレンジの0.1%の特徴レンジ精度から成っていた。これらのパラメータは高性能カメラの象徴となり得る。これに対応する、映像による整合を有しS字ターンを有しない姿勢誤差が図4に図示されている。図4は、図3のS字ターンの場合と同様なヘディング整合精度を、映像を使用して、任務プロファイルに(S字ターンのような)特別な操縦を追加する必要無く、図示していることに留意されるべきである。
上述された前記の構造的および機能的特徴に照らして、本発明の様々な局面に従った方法論が図5の参照と共により理解されよう。説明の簡便のために、図5の方法論は直列に実行するように示され記載されているが、本発明は図示された順序に限定されず、ある局面では、本発明に従って、異なる順序および/または本明細書中に示され記載される他の局面と共に発生し得ることを理解されるべきである。さらに言えば、本発明の一局面に従って方法論を実施するのに、すべての図示された特徴は要求されないかもしれない。
図5は、本発明の一局面に従ってヘディングを決定するための方法論70の例を図示する。当該方法論は、画像システム、慣性計測システムおよび運行ビークル上に搭載されるGPSを利用する。72では、一の画像エリアの影像が運行ビークルの運行期間中に第1の時点(t)で画像センサによってキャプチャされ、複数の識別特徴の座標が画像プロセッシングによって抽出される。74では、該一の画像エリアの影像が運行ビークルの運行期間中に第2の時点(t)で画像センサによってキャプチャされ、複数の識別特徴の座標が画像プロセッシングによって抽出される。76では、識別特徴の座標が照合され、複数の照合された識別特徴のそれぞれについて、第1の時点(t)に基いて第1の単位ベクトル(x)が決定され、第2の時点(t)に基いて第2の単位ベクトル(x)が決定される。方法論70はそれから78に進む。
78では、並進ベクトルTGPSが、第1の時点(t)から第2の時点(t)までのGPSデバイスによって提供されるキャリア位相情報に基いて計算される。80では、慣性計測システムが結合プロセッサに初期レベリングを提供する。結合プロセッサは、式3に基いてヘディングについてエピポーラ方程式を直接的に解くために初期レベリングを利用し得る。82では、照合された識別特徴のそれぞれに関連する補正されたヘディングを決定するために、所与の照合された識別特徴についての第1の単位ベクトル(x)および第2の単位ベクトル(x)と、並進ベクトルTGPSと、80からの初期レベリングとに基いて、照合された識別特徴のそれぞれについてエピポーラ方程式における誤差が最小化される。複数の補正されたヘディングは、一つの精巧に整合された補正されたヘディングを提供するために平均化され得る。エピポーラ幾何方程式は、初期ヘディングを直接的に計算する場合は式3に基き得、IMUが利用可能な場合は式8に基き得る。結合プロセッサはヘディングを連続的に精練するのにカルマンフィルタを使用し得る。
これまでの上述は本発明の例である。勿論、本発明を記載する目的で構成要素または方法論のあらゆる想定される組合せを記載することは不可能であるが、本分野における通常の技術を有する者は本発明のさらに多くの組合せおよび入替えが可能であることを認識されよう。従って、本発明はこれらの変更、改変および変形のすべてを包含し、添付の特許請求の範囲の意図および範囲内にあることを意図している。
10 ヘディングを決定するためのシステム
12 慣性計測システム
14 慣性計測ユニット(IMU)
16 慣性プロセッサ
18 画像システム
20 画像センサ
22 画像プロセッサ
24 グローバルポジショニングシステム(GPS)
26 GPS受信器
28 GPSプロセッサ
30 結合プロセッサ
40 エピポーラ幾何グラフ
50 第1のシミュレーションにおける慣性姿勢誤差対時間のグラフ
60 第2のシミュレーションにおける慣性姿勢誤差対時間のグラフ
70 ヘディングを決定するための方法論

Claims (17)

  1. 走行するビークル上に搭載可能なシステムであって、該システムは、該ビークルが走行する方向を表すヘディングを決定するためのシステムであり、該システムは、
    該走行するビークルの走行期間中の第1の時点および第2の時点で、関心地域における複数の識別特徴をキャプチャし、該第1の時点でキャプチャされた該複数の識別特徴と該第2の時点でキャプチャされた該複数の識別特徴とを照合し、該複数の照合された識別特徴のそれぞれについて、該第1の時点に基づく、所与の照合された識別特徴に関連する第1の単位ベクトルと、該第2の時点に関連し、該所与の照合された識別特徴に関連する第2の単位ベクトルとを決定する画像システムと、
    該第1の時点から該第2の時点までにキャプチャされたキャリア位相情報に基づいて並進ベクトルを決定するグローバルポジショニングシステム(GPS)と、
    該第1の単位ベクトルと該第2の単位ベクトルと該並進ベクトルとにそれぞれ基づいて、該複数の照合された識別特徴のそれぞれについてエピポーラ方程式における誤差を最小化することにより、補正されたヘディングを決定する結合プロセッサと
    を備えており、
    該結合プロセッサはカルマンフィルタであり、該エピポーラ方程式はδr=T×(x ×x )・φ+(x ×x )・δTであり、ここで、x は該第1の単位ベクトル、x は該第2の単位ベクトル、Tは該並進ベクトルであり、ここで、φ=姿勢誤差であり、δT=並進誤差であり、該カルマンフィルタが姿勢誤差φの解を得、δTは該GPSによって計測される、システム。
  2. 前記結合プロセッサに初期レベリングを提供する慣性計測システムをさらに備え、該結合プロセッサは、ヘディングについて前記エピポーラ方程式を直接的に解くために該初期レベリングを利用する、請求項1に記載のシステム。
  3. 前記慣性計測システムは、慣性計測ユニット(IMU)と慣性プロセッサとを備え、
    該IMUは、速度変化および姿勢変化を該慣性プロセッサに提供し、
    該慣性プロセッサは、位置、ヘディング、姿勢のそれぞれの評価値を決定する、請求項2に記載のシステム。
  4. 前記エピポーラ方程式は(x ×x )・C =0であり、ここで、x は前記第1の単位ベクトル、x は前記第2の単位ベクトル、Tは前記並進ベクトル、C は下記のようなナビゲーショ(N)フレームから局(L)フレームへの変換マトリクスであり、
    ここで、c=cos(a)であり、s=sin(a)であり、aは解かれるべきヘディング角度である、請求項1に記載のシステム。
  5. 前記結合プロセッサに初期ヘディングを提供する慣性計測システムをさらに備え、
    該結合プロセッサは、開始点で該初期ヘディングを利用し、前記エピポーラ方程式における誤差を最小化するヘディング角度が提供されるまで該ヘディング角度を繰り返し補正する、請求項4に記載のシステム。
  6. 前記結合プロセッサは、前記システムに対するヘディングを直接的に計算するために、前記複数の照合された識別特徴のそれぞれの前記決定された補正されたヘディングを平均化する、請求項1に記載のシステム。
  7. 前記GPSは、GPSデバイスとGPSプロセッサとを備え、
    該GPSデバイスは、キャリア位相情報を提供し、
    該GPSプロセッサは、前記並進ベクトルを決定する、請求項1に記載のシステム。
  8. 前記画像システムは、画像センサと画像プロセッサとを備え、
    該画像センサは、前記走行するビークルの走行期間中の前記第1の時点および前記第2の時点で、前記関心地域における前記複数の識別特徴をキャプチャし、
    該画像プロセッサは、該第1の時点でキャプチャされた該複数の識別特徴と該第2の時点でキャプチャされた該複数の識別特徴とを照合し、該複数の照合された識別特徴のそれぞれについて、該第1の時点に基づく、所与の照合された識別特徴に関連する前記第1の単位ベクトルと、該第2の時点に関連し、該所与の照合された識別特徴に関連する前記第2の単位ベクトルとを決定する、請求項1に記載のシステム。
  9. 走行するビークル上に搭載可能なシステムであって、該システムは、該ビークルが走行する方向を表すヘディングを決定するためのシステムであり、該システムは、
    該走行するビークルの走行期間中の第1の時点および第2の時点で、関心地域における複数の識別特徴をキャプチャし、該第1の時点でキャプチャされた該複数の識別特徴と該第2の時点でキャプチャされた該複数の識別特徴とを照合し、該複数の照合された識別特徴のそれぞれについて、該第1の時点に基づく、所与の照合された識別特徴に関連する第1の単位ベクトルと、該第2の時点に関連し、該所与の照合された識別特徴に関連する第2の単位ベクトルとを決定する画像システムと、
    該第1の時点から該第2の時点までにキャプチャされたキャリア位相情報に基づいて並進ベクトルを決定するグローバルポジショニングシステム(GPS)と、
    該第1の単位ベクトルと該第2の単位ベクトルと該並進ベクトルとにそれぞれ基づいて、該複数の照合された識別特徴のそれぞれについてエピポーラ方程式における誤差を最小化することにより、補正されたヘディングを決定する結合プロセッサと、
    該結合プロセッサに初期ヘディングを提供する慣性計測システムであって、該結合プロセッサは、該エピポーラ方程式を最小化するために開始点で該初期ヘディングを利用する、慣性計測システムと
    を備えており、
    該結合プロセッサはカルマンフィルタであり、該エピポーラ方程式はδr=T×(x ×x )・φ+(x ×x )・δTであり、ここで、x は該第1の単位ベクトル、x は該第2の単位ベクトル、Tは該並進ベクトルであり、ここで、φ=姿勢誤差であり、δT=並進誤差であり、該カルマンフィルタが姿勢誤差φの解を得、δTはGPSによって計測される、システム。
  10. 前記エピポーラ方程式は(x ×x )・C =0であり、ここで、x は前記第1の単位ベクトル、x は前記第2の単位ベクトル、Tは前記並進ベクトル、C は下記のようなナビゲーショ(N)フレームから局(L)フレームへの変換マトリクスであり、
    ここで、c=cos(a)であり、s=sin(a)であり、aは解かれるべきヘディング角度である、請求項に記載のシステム。
  11. 前記結合プロセッサは、前記システムに対する前記ヘディングを直接的に計算するために、前記複数の照合された識別特徴のそれぞれの前記決定された補正されたヘディングを平均化する、請求項に記載のシステム。
  12. 前記GPSは、GPSデバイスとGPSプロセッサとを備え、
    該GPSデバイスは、キャリア位相情報を提供し、
    該GPSプロセッサは、前記並進ベクトルを決定し、
    前記画像システムは、画像センサと画像プロセッサとを備え、
    該画像センサは、前記走行するビークルの走行期間中の前記第1の時点および前記第2の時点で、前記関心地域における前記複数の識別特徴をキャプチャし、
    該画像プロセッサは、該第1の時点でキャプチャされた該複数の識別特徴と該第2の時点でキャプチャされた該複数の識別特徴とを照合し、該複数の照合された識別特徴のそれぞれについて、該第1の時点に基づく、所与の照合された識別特徴に関連する前記第1の単位ベクトルと、該第2の時点に関連し、該所与の照合された識別特徴に関連する前記第2の単位ベクトルとを決定し、
    前記慣性計測システムは、慣性計測ユニット(IMU)と慣性プロセッサとを備え、
    該IMUは、速度変化および姿勢変化を該慣性プロセッサに提供し、
    該慣性プロセッサは、位置、ヘディング、姿勢のそれぞれの評価値を決定する、請求項1に記載のシステム。
  13. 画像システムと慣性システムとグローバルポジショニングシステム(GPS)とを利用する走行するビークルのヘディングを決定する方法であって、該ヘディングは、該ビークルが走行する方向を表し、該方法は、
    一の関心地域において影像をキャプチャし、第1の時点で複数の識別特徴の座標を抽出することと、
    該一の関心地域において影像をキャプチャし、第2の時点で複数の識別特徴の座標を抽出することと、
    複数の照合された識別特徴を決定するために、該第1の時点でキャプチャされた該複数の識別特徴の座標と該第2の時点でキャプチャされた該複数の識別特徴の座標とを照合することと、
    該複数の照合された識別特徴のそれぞれについて、該第1の時点に基づく、所与の照合された識別特徴に関連する第1の単位ベクトルと、該第2の時点に関連し、該所与の照合された識別特徴に関連する第2の単位ベクトルとを提供することと、
    該第1の時点から該第2の時点までにキャプチャされたキャリア位相情報に基づいて、並進ベクトルを計算することと、
    該第1の単位ベクトルと該第2の単位ベクトルと該並進ベクトルとに基づいて、該複数の照合された識別特徴のそれぞれについてエピポーラ方程式を最小化することにより、補正されたヘディングを決定することと
    を包含しており、
    該エピポーラ方程式はδr=T×(x ×x )・φ+(x ×x )・δTであり、ここで、x は該第1の単位ベクトル、x は該第2の単位ベクトル、Tは該並進ベクトルであり、ここで、φ=姿勢誤差であり、δT=並進誤差である、方法。
  14. 前記エピポーラ方程式を最小化するために開始点で前記IMUによって提供される初期ヘディングを利用することをさらに包含している、請求項13に記載の方法。
  15. 前記エピポーラ方程式は(x ×x )・C =0であり、ここで、x は前記第1の単位ベクトル、x は前記第2の単位ベクトル、Tは前記並進ベクトル、C は下記のようなナビゲーショ(N)フレームから局(L)フレームへの変換マトリクスであり、
    ここで、c=cos(a)であり、s=sin(a)であり、aは解かれるべきヘディング角度である、請求項13に記載の方法。
  16. 前記整合されたヘディングを直接的に計算するために、前記複数の照合された識別特徴のそれぞれの前記決定された補正されたヘディングを平均化することをさらに包含している、請求項13に記載の方法。
  17. カルマンフィルタが前記姿勢誤差φの解を得、前記δTは前記GPSによって計測される、請求項13に記載の方法。
JP2010247957A 2009-11-11 2010-11-04 ヘディングを決定するためのシステムおよび方法 Active JP5379109B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/616,487 US8346466B2 (en) 2009-11-11 2009-11-11 Systems and methods for determining heading
US12/616,487 2009-11-11

Publications (2)

Publication Number Publication Date
JP2011102799A JP2011102799A (ja) 2011-05-26
JP5379109B2 true JP5379109B2 (ja) 2013-12-25

Family

ID=43607826

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010247957A Active JP5379109B2 (ja) 2009-11-11 2010-11-04 ヘディングを決定するためのシステムおよび方法

Country Status (4)

Country Link
US (1) US8346466B2 (ja)
EP (1) EP2322902B1 (ja)
JP (1) JP5379109B2 (ja)
CA (1) CA2720437C (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011120141A1 (en) * 2010-03-31 2011-10-06 Ambercore Software Inc. Dynamic network adjustment for rigorous integration of passive and active imaging observations into trajectory determination
RU2010124265A (ru) * 2010-06-16 2011-12-27 Алексей Владиславович Жданов (RU) Способ и устройство определения направления начала движения
CN103026260B (zh) * 2010-07-20 2015-05-13 莱卡地球系统公开股份有限公司 确定车辆的单值航行方向的系统和方法
GB201706129D0 (en) 2017-04-18 2017-05-31 Blue Vision Labs Uk Ltd Distributed device mapping
FR3071624B1 (fr) * 2017-09-22 2019-10-11 Thales Systeme d'affichage, procede d'affichage et programme d'ordinateur associes
CN109115212B (zh) * 2018-10-30 2022-04-12 中国船舶重工集团公司第七0七研究所 一种惯导系统全范围姿态角提取方法
JP7291775B2 (ja) * 2019-02-25 2023-06-15 古野電気株式会社 移動情報算出装置、および、移動情報算出方法
GB2584463B (en) 2019-06-04 2023-06-28 Atlantic Inertial Systems Ltd Direction finder

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7202776B2 (en) * 1997-10-22 2007-04-10 Intelligent Technologies International, Inc. Method and system for detecting objects external to a vehicle
JP2002532770A (ja) 1998-11-20 2002-10-02 ジオメトリックス インコーポレイテッド 映像に関連してカメラポーズを決定する方法及びシステム
US6411898B2 (en) * 2000-04-24 2002-06-25 Matsushita Electric Industrial Co., Ltd. Navigation device
US6754584B2 (en) * 2001-02-28 2004-06-22 Enpoint, Llc Attitude measurement using a single GPS receiver with two closely-spaced antennas
JP2004177362A (ja) * 2002-11-29 2004-06-24 Nippon Telegr & Teleph Corp <Ntt> 位置計測方法、位置計測装置、位置計測方法のプログラム、およびこのプログラムを記録した記録媒体
JP4257219B2 (ja) * 2004-01-06 2009-04-22 富士重工業株式会社 走行軌跡記録装置および走行軌跡記録方法
US20070070069A1 (en) * 2005-09-26 2007-03-29 Supun Samarasekera System and method for enhanced situation awareness and visualization of environments
JP5362189B2 (ja) * 2006-05-10 2013-12-11 株式会社トプコン 画像処理装置及びその処理方法
JP5090797B2 (ja) * 2006-06-15 2012-12-05 株式会社岩根研究所 Cv値基準一括追跡装置、このcv値基準一括追跡装置を用いたcv領域画像前置装置
US7925049B2 (en) * 2006-08-15 2011-04-12 Sri International Stereo-based visual odometry method and system
WO2008024772A1 (en) * 2006-08-21 2008-02-28 University Of Florida Research Foundation, Inc. Image-based system and method for vehicle guidance and navigation
US8280107B2 (en) * 2006-11-03 2012-10-02 Tomtom Global Content B.V. Method and apparatus for identification and position determination of planar objects in images
US8174568B2 (en) * 2006-12-01 2012-05-08 Sri International Unified framework for precise vision-aided navigation
EP1972893A1 (en) 2007-03-21 2008-09-24 Universiteit Gent System and method for position determination
JP5227065B2 (ja) * 2008-01-25 2013-07-03 株式会社岩根研究所 三次元機械地図、三次元機械地図生成装置、ナビゲーション装置及び自動運転装置

Also Published As

Publication number Publication date
CA2720437C (en) 2014-09-09
US8346466B2 (en) 2013-01-01
CA2720437A1 (en) 2011-05-11
EP2322902A3 (en) 2016-06-15
US20110112767A1 (en) 2011-05-12
EP2322902B1 (en) 2019-01-23
EP2322902A2 (en) 2011-05-18
JP2011102799A (ja) 2011-05-26

Similar Documents

Publication Publication Date Title
JP5379109B2 (ja) ヘディングを決定するためのシステムおよび方法
US6463366B2 (en) Attitude determination and alignment using electro-optical sensors and global navigation satellites
US9316716B2 (en) Dynamic attitude measurement method of star sensor based on gyro&#39;s precise angular correlation
Garratt et al. Integration of GPS/INS/vision sensors to navigate unmanned aerial vehicles
JP4600357B2 (ja) 測位装置
US11099030B2 (en) Attitude estimation apparatus, attitude estimation method, and observation system
US20080195316A1 (en) System and method for motion estimation using vision sensors
Stančić et al. The integration of strap-down INS and GPS based on adaptive error damping
JP2008304260A (ja) 画像処理装置
CN111707259B (zh) 一种校正加速度计误差的sins/cns组合导航方法
EP3348963A1 (en) Navigation device and survey system
CN108375383B (zh) 多相机辅助的机载分布式pos柔性基线测量方法和装置
US20160195878A1 (en) Missile system with navigation capability based on image processing
CN110736457A (zh) 一种基于北斗、gps和sins的组合导航方法
JP6221295B2 (ja) 位置算出方法及び位置算出装置
Mostafa et al. Optical flow based approach for vision aided inertial navigation using regression trees
US9476987B2 (en) Method estimating absolute orientation of a vehicle
US11037018B2 (en) Navigation augmentation system and method
EP3855216A1 (en) Navigation device and method and program for generating navigation assistance information
CN114383612B (zh) 一种视觉辅助惯性差分位姿测量系统
Li et al. Image-based self-position and orientation method for moving platform
JP2015193347A (ja) 飛翔体の慣性航法システム
US9210384B2 (en) System and method for real time registration of images
Zhai et al. Application of unscented Kalman filter in GPS/INS
Sheikhpour et al. An enhanced visual-inertial navigation system based on multi-state constraint Kalman filter

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130909

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130926

R150 Certificate of patent or registration of utility model

Ref document number: 5379109

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250