JP2018139105A - 地理登録を通じた生センサ画像強化のための方法および装置 - Google Patents

地理登録を通じた生センサ画像強化のための方法および装置 Download PDF

Info

Publication number
JP2018139105A
JP2018139105A JP2017243745A JP2017243745A JP2018139105A JP 2018139105 A JP2018139105 A JP 2018139105A JP 2017243745 A JP2017243745 A JP 2017243745A JP 2017243745 A JP2017243745 A JP 2017243745A JP 2018139105 A JP2018139105 A JP 2018139105A
Authority
JP
Japan
Prior art keywords
sensor
image
generated
raw
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017243745A
Other languages
English (en)
Other versions
JP7403210B2 (ja
Inventor
ダニエル・ティー・フィリップス
t phillips Daniel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Boeing Co
Original Assignee
Boeing Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Boeing Co filed Critical Boeing Co
Publication of JP2018139105A publication Critical patent/JP2018139105A/ja
Application granted granted Critical
Publication of JP7403210B2 publication Critical patent/JP7403210B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1652Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Abstract

【課題】地理登録を通じた生センサ画像強化のための方法及び装置を提供する。
【解決手段】センサ・プラットフォーム104は、プロセッサ命令を格納するメモリ116に通信可能に接続されたプロセッサ112、ならびにプラットフォームの動きの慣性測定値を取得し、これらの測定値をプラットフォームの慣性状態の推定に、適切な座標変換を介して変換するための手段、慣性ナビゲーション・システム(INS)114のようなセンサ106を備える。INS114は、3つの直交方向の加速度測定を提供する3つの加速度計及び3つの直交方向の回転を検知するジャイロのような3速センサを備えた慣性基準ユニット(IRU)を備える。GPSは、INS114が慣性空間内のその位置の決定を支援するために使用する信号を送信する複数の衛星102A乃至102Nを備える。
【選択図】図1

Description

関連出願の記載
本願は、Daniel T. Phillipsによる本願と同日に出願された、発明の名称を「地理登録を通じた複数の生センサ画像強化のための方法および装置」とした、同時係属の本発明の譲渡人に譲渡された特許出願に関連し、その出願は参照により本明細書に組み込まれる。
本開示は、生センサ・データから画像を生成するためのシステムおよび方法に関し、特に地理登録を通じてかかる画像生成を強化するためのシステムおよび方法に関する。
画像登録は、異なる組の画像データを単一の座標系に変換するプロセスである。当該登録プロセスで使用される画像データは一般に十分に同一のシーンの複数の画像を含み、かかる画像は同時に、または異なる時点または視点で取得されうる。データ登録技術は、コンピュータ・ビジョン、医療画像処理、軍用自動ターゲット認識で使用され、衛星からの画像およびデータを編集し分析する際に使用される。登録は、これらの異なる測定値から取得されたデータを比較または統合できるようにするために必要である。
幾つかのケースでは、画像を、当該画像(複数可)で示された同一のシーンの参照ビュー合成モデルと関連して登録してもよい。例えば、特許文献1は、ここで参照により本明細書に組み込まれ、参照画像データベースおよび/またはデジタル高度モデル(DEM)に画像を自動的に登録するための処理アーキテクチャを示す。
センサ・データおよび後続の画像処理の集合は、生センサ測定値を取得するセンサの位置の不確実性により歪められる。これは、当該センサが搭載されるプラットフォームのナビゲーション・システムの不確実性、画像登録プロセスにおける誤差に起因し、その制限された組の参照高度データのみが一般に当該画像の処理に利用可能である。
米国特許出願公開第2005/0220363号明細書
必要なものは、かかる歪みを削減するシステムおよび方法である。かかるシステムおよび方法を以下で開示する。
上述の要件を解決するために、本願は生センサ・データから画像を生成するためのシステムおよび方法を開示する。1実施形態では、当該方法は、複数の生センサ・データ・セットを読み取るステップであって、各生センサ・データ・セットは複数のセンサ慣性状態で1つまたは複数のセンサから読み取られる、ステップと、当該複数のセンサ慣性状態の各々の推定を生成するステップと、当該生センサ・データ・セットの各々を保持するステップとを含む。当該生センサ・データ・セットの各々は、当該複数の推定されたセンサ慣性状態および当該複数の生センサ・データ・セットから少なくとも部分的に画像を生成するステップおよび当該センサ慣性状態の少なくとも1つの更新された推定を生成するステップの間に保持され、当該センサ慣性状態の当該少なくとも1つの当該更新された推定は、当該生成された画像および当該複数の推定されたセンサ慣性状態から少なくとも部分的に生成される。最後に、強化された画像が、当該保持された生センサ・データ・セットおよび当該センサ慣性状態の当該少なくとも1つの当該更新された推定から生成される。別の実施形態は上の動作を実施するための手段により明らかになる。
さらに別の実施形態は、生データを生成するためのセンサと、当該センサに通信可能に接続され、複数の生センサ・データ・セットを当該センサから読み取るための画像プロセッサであって、各生センサ・データ・セットは複数のセンサ慣性状態で当該センサから読み取られる、画像プロセッサと、当該センサに通信可能に接続され、当該複数のセンサ慣性状態の各々の推定を生成するための慣性ナビゲーション・システムと、当該センサおよび当該慣性ナビゲーション・システムに通信可能に接続され、画像を生成するための画像プロセッサであって、当該画像は、当該複数の推定されたセンサ慣性状態および当該複数の生センサ・データ・セットから少なくとも部分的に生成される、画像プロセッサと、当該慣性ナビゲーション・システムおよび当該画像プロセッサに通信可能に接続され、当該センサ慣性状態の更新された推定の少なくとも1つを生成するための地理登録システムであって、当該センサ慣性状態の当該少なくとも1つの当該更新された推定は、当該生成された画像および当該複数の推定されたセンサ慣性状態から少なくとも部分的に生成される、地理登録システムとを備えた、生センサ・データから画像を生成するための装置により明らかになる。当該実施形態では、当該画像プロセッサは強化された画像を、当該保持された生センサ・データ・セットおよび当該センサ慣性状態の当該少なくとも1つの当該更新された推定から生成し、当該画像が当該生センサ・データから生成され当該センサ慣性状態の当該少なくとも1つの当該更新された推定が生成される間に当該センサは当該生センサ・データ・セットの各々を保持する。さらに別の実施形態は、プロセッサおよび以上の動作を実施するためのプロセッサ命令を格納する通信可能に接続されるメモリを有する装置により明らかになる。
説明した特徴、機能、および利点を、独立に実現でき本発明の様々な実施形態ではまたはさらに他の実施形態において結合してもよく、そのさらなる詳細を以下の説明と図面を参照して理解することができる。
次に図面を参照する。同じ参照番号は本明細書にわたって対応する部分を表す。
センサ・プラットフォームの動作を示す図である。 例示的な地理登録システムを表す図である。 地理登録システムのより詳細な実施形態を示す図である。 生センサ・データから画像を生成するために使用できる例示的なプロセスのステップを表す図である。 生センサ・データから画像を生成するために使用できる例示的なプロセスのステップを表す図である。 生センサ・データから画像を生成するために使用できる例示的なプロセスのステップを表す図である。 生センサ・データから画像を生成するために使用できる例示的なプロセスのステップを表す図である。 改善された地理登録システムの1実施形態の図である。 処理要素を実装するために使用できる例示的なコンピュータまたはシステム600を示す図である。
以下の説明では、本明細書の一部を形成する添付図面を参照する。当該添付図面は、例により、幾つかの実施形態を示している。他の実施形態を利用してもよく、構造的変更を、本開示の範囲から逸脱することなく行ってもよいことは理解される。
概要
生センサ・データから画像を生成するための既存のシステムおよび方法と異なり、本明細書で説明するシステムおよび方法は生センサ画像データ(例えば、合成開口レーダ(SAR)IQ集合データ)を保持する。高解像度参照画像への地理登録が成功すると、当該生センサ・データが、より高い精度および削減された歪みの強化された出力センサ画像をもたらす計算された強化されたセンサ位置および参照画像データで再処理され、例えば、大幅な面外加速度を伴う高解像度集合にその主要な利益が見出される後方投影のようなアルゴリズムを用いて生センサSARデータが処理される。改善されうる他の歪みはフォーショートニングおよびレイオーバの歪みを含み、これらはSARアプリケーションで問題である。
プラットフォーム
図1は、センサ・プラットフォーム104(以降、代替的にプラットフォームとも称される)の動作を示す図である。センサ・プラットフォーム104は地球の大気圏または宇宙で動作してもよく、無人または有人であってもよい。1実施形態では、当該センサ・プラットフォームは無人空中ビークル(UAV)である。プラットフォーム104は一般に、地上または地上付近でターゲット110を監視する視野(FOV)108を有するセンサ106(回転可能櫓105に搭載されてもよい)を含む。
プラットフォーム104はまた一般に、本明細書で説明した動作を実施するためのプロセッサ命令を格納するメモリ116に通信可能に接続されたプロセッサ112、ならびにプラットフォーム104の動きの慣性測定値を取得し、これらの測定値をプラットフォーム104の慣性状態の推定に、適切な座標変換を介して変換するための手段、慣性ナビゲーション・システム(INS)114のようなセンサ106を備える。一般に、INS114は、3つの直交方向の加速度測定を提供する3つの加速度計、および3つの直交方向の回転を検知するジャイロのような3速センサを備えた慣性基準ユニット(IRU)を備える。一般に、INS114はまた、全地球測位システム(GPS)のようなシステムから利用可能であるもののような、グローバル・ナビゲーション情報を受信するための別の受信機を備えてもよい。GPSは、INS114が慣性空間内のその位置の決定を支援するために使用する信号を送信する複数の衛星102A乃至102Nを備える。幾つかのアプリケーションでは、INS114はまた、星型追跡器または位置を推定するための他の手段を備えてもよい。
1実施形態では、プラットフォーム104はまた、地上局118とコマンドおよび他の情報を送受信するための、プロセッサ112に通信可能に接続された受信機117を備える。地上局118内のコンピュータおよび他の機器を用いて、ユーザ120は、コマンドをプラットフォーム104に提供し、センサ106により取得されたデータを含むデータを受信する。
センサ実施形態
1実施形態では、センサ106は、ターゲット110を含むシーン109をスキャンし、ターゲット110および/またはシーン109の画像を、かかるスキャンから生成された生センサ・データで構築するSARを含む。
SARは、プラットフォーム104の飛行経路を利用して極端に大きなアンテナまたは開口部を電子的にシミュレートし、高解像度リモート検知画像を生成する、コヒーレントなおおよそ空中輸送されているまたは宇宙で輸送されている側方監視レーダシステムである。時間とともに、個々の送受信サイクルは、各サイクルからのデータが電子的に格納されることで完了する。当該信号処理は、合成開口部の要素から連続的なパルスにわたって、受信された信号の規模およびフェーズを使用する。所与の数のサイクルの後に、当該格納されたデータは、飛行中の地形の高解像度画像を生成するために、(各後続のサイクルにおける幾何形状を対象とする異なる送信器に固有なドップラー効果を考慮して)再結合される。
SARはフェーズド・アレイと同様に動作するが、フェーズド・アレイの多数の並列アンテナ要素の代わりに、SARは、(機械的にまたは電子的に操縦できるビームを生成する)1つのアンテナを使用して、測定値を時間多重化して大型の開口部センサをシミュレートする。当該アンテナ要素の異なる幾何的位置は移動するプラットフォーム104の結果である。
画像プロセッサは全てのレーダ帰還信号を、振幅および位相として、或る期間にわたり格納し、各信号は慣性空間内の関連位置から取得されたデータを表す。この時点で、長さv・Tのアンテナにより取得されているであろう信号を再構築するのが可能である。vはプラットフォーム速度であり、Tは当該期間である。視線方向がレーダプラットフォームの軌跡に沿って変化すると、合成開口部は、アンテナを長くする効果を有する信号処理により生産される。Tを大きくすることで、当該「合成開口部」が大きくなり、したがってより高い解像度を実現することができる。
ターゲット110が最初にレーダ・ビームに入ると、各送信されたパルスからの後方散乱エコーが記録され始める。プラットフォームが前方に動き続けると、パルスごとの当該ターゲットからの全てのエコーが、当該ターゲットが当該ビーム内にある時間全体の間に記録される。当該ターゲットが後の何等かの時点で当該レーダ・ビームのビューから出る時点は、シミュレートまたは合成されたアンテナの長さを決定する。合成された拡張ビーム幅は、地上幅が増大するにつれターゲットがビーム内にある増大された時間と組み合わさって、解像度が全範囲にわたって定数に留まるように互いにバランスする。SARの実現可能な方位解像度は実際の(現実の)アンテナの長さのおおよそ半分に等しく、プラットフォームの高度(距離)に依存しない。画像を生成するプロセスを、入ってくる生センサ・データがシフト・レジスタに提供されるプロセスと考えてもよく、各新たな生センサ・データの到着は、以前に測定された生データを隣接するシフト・レジスタ要素にシフトさせ、当該新たなデータは退去した要素に置かれる。各シフト・レジスタからのデータはついで算術動作または処理関数を用いて結合され、当該画像の解像度は、各新たな生画像データ・セットが処理されると向上する(各新たな測定が、当該画像データの総数に関連付けられた「開口部」を増大させるので、期待される結果である)。一般に、画像が生成されると、シフト・レジスタ内のデータが削除されるかまたは上書きされ、(地理登録を介して当該画像から生成された)当該センサの慣性状態の推定の改善を使用して当該画像の品質を改善できる可能性が排除される。
したがって、SARは、SAR画像処理技術を用いて結合された生画像データの連続的なインスタンスを用いて画像を生成し、慣性空間内の異なる点で取得された各データ・インスタンスを結合し、完全な画像を生成する。当該結果の画像の精度は、各連続的な画像が取得されたときのプラットフォーム104位置の任意の決定の精度を含む、幾つかの因子に依存する。かかるシステムの要件は、安定で完全にコヒーレントな送信器、効率的で強力なSAR画像プロセッサ、およびセンサの飛行経路および/または速度の知識である。
SARは、フォーショートニング、レイオーバ、および陰影効果を含むスラント・レンジ(slant-range)歪みを受ける。かかるスラント・レンジ歪みは、レーダが地上に沿った真の水平距離ではなくスラント・レンジにおける特徴への距離を測定しているので、生ずる。これが、近くから遠くの範囲に移動する、可変の画像スケールをもたらす。フォーショートニングは、レーダ・ビームが当該レーダに向かって捻じれる高い特徴(例えば、山)の底部に、その頂上に到達する前に到達するときに生ずる。当該レーダは水平範囲でなくスラント・レンジ内の距離を測定するので、スロープは圧縮されたように見え、当該スロープの長さは画像平面で不正確に表される。レイオーバは、当該レーダ・ビームが背の高い特徴の頂上に、その底部に到達する前に到達するときに生ずる。当該特徴の頂上からの帰還信号は、当該底部からの信号の前に受信される。結果として、当該特徴の頂上は地上の真の位置からレーダに向かって変位し、当該特徴の底部を「延期する」。この陰影効果は、ちょうど太陽が沈むと我々の影が伸びるように、大きな入射角θとともに増大する。かかるスラント・レンジ歪みの全てを補償するのは可能であるが、かかる補償は、少なくとも部分的にセンサの慣性状態の正確な知識(例えば、その位置および/または速度)に依存する。SARの基本原理の説明は http://www.radartutorial.eu/20.airborne/ab07.en.htmlで提供されている
別の実施形態では、センサ106は、ターゲット110を含むシーン109をスキャンする平面撮像センサを含み、ターゲット110および/またはシーン109の画像をかかるスキャンから生成された生センサ・データで構築する。一般に、当該平面撮像センサは、映画カメラのような画像のシーケンスのキャプチャを可能とするカメラを含み、可視光線、赤外線(IR)または紫外線波長のエネルギを検知してもよい。幾つかのアプリケーションでは、当該平面センサは他の波長のデータを電磁気スペクトルにわたって収集する。一般に、撮像センサ106は、プラットフォーム104をピッチ、ヨーおよびロールで操縦することで方向付けることができ、また、プラットフォーム104のボディと独立に捻じれ方向およびパン方向に方向付けてもよい。かかる捻じれおよびパンニングを、櫓105または同様な構造を用いて電子的にまたは機械的に実現してもよい。
地理登録システム
図2は、例示的な地理登録システム200を表す図である。当該地理登録システムは、画像プロセッサ204に通信可能に接続されたセンサ106を備える。画像プロセッサ204は生センサ・データ202を処理して画像206を生成する。一般に、画像プロセッサ204は画像206を生成する目的に特化した特殊目的プロセッサであり、プラットフォーム・プロセッサ112と異なる。しかし、プラットフォーム・プロセッサ112を使用して、画像プロセッサ204の機能を実施してもよい。
地理登録システム200はまた、画像プロセッサ204に通信可能に接続されたINS114を備える。上述のように、INS114は、時間とともに、プラットフォーム104の慣性状態の推定、および適切な座標変換により、センサ106の慣性状態を生成する。センサ慣性状態208は、例えば、センサ106の位置、速度、加速度、態勢または態勢レートを含んでもよい。これらの状態を慣性座標空間に関して表現してもよく、当該座標空間が、デカルト、極、または他の座標系(NED、ECEF、システム/センサ・ボディ)であってもよい。単純さのため、1つまたは複数の生センサ・データ集合イベントに対応する、センサの位置、速度、加速度、姿勢、または態勢レートの1つまたは複数の推定はそれぞれセンサ慣性状態および生センサ・データとして定義される。
画像プロセッサ204は生センサ・データ202を受信し、このデータを処理して画像を生成する。センサ106がSARである実施形態では、画像プロセッサ204は、生IQセンサ・データ202を複数の物理センサ106位置で取得されたセンサ106から受信し、各かかる生センサ・データが取得されたときセンサ106の物理位置の推定を用いて、画像206を生成する。
画像206およびセンサ慣性状態208が地理登録モジュール210に提供される。地理登録モジュール210は、地理登録されたセンサ画像212をセンサ慣性状態208から、画像206、および参照画像および/または他の参照地理空間データ(例えば、高度)を参照画像データベースから生成する。
図3は、地理登録システム300のより詳細な実施形態を示す図である。(センサ慣性状態208に変換されうる)プラットフォーム・パラメータ322およびセンサ・パラメータ332(例えば、視野またはFOV)が、画像およびセンサ・フットプリントにより示されるシーンの位置の推定を生成するためにセンサ・フットプリント分析モジュール324に提供される。その情報が関心領域(AOI)抽出モジュール326に提供される。関心領域(AOI)抽出モジュール326は、参照画像データベース214および参照デジタル高度モデル(DEM)データベース340を使用して、参照チップ330およびDEMチップ342を生成する。
プラットフォーム・パラメータ322およびセンサ・パラメータ320はまたセンサ視点分析モジュール350に提供される。センサ視点分析モジュール350は、プラットフォームとセンサの間の関係を記述するセンサ変換モデル354に沿って、参照画像をセンサ視点に変換するための変換を生成するために使用される視点パラメータ352を生成する。参照チップ330およびDEMチップ342が参照直交画像(orthoimage)チップ348および参照DEMチップ346を生成するために直交画像構築モジュール344に提供される。参照直交画像チップ348および参照DEMチップ346は、視点参照画像358を生成するためにセンサ視点モジュール356によりセンサ視点に変換される。視点参照画像358は、マッチ・パラメータを生成するために、画像マッチング・モジュール360により生センサ・データから生成されたセンサ画像でマッチされる。これらのマッチ・パラメータは、センサ画像を視点参照画像とマッチするための変換(例えば、平行移動、回転、逆視点等)を反映するマッチング関数362である。以上のシステムの例示的な実施形態はさらに、特許文献1で説明され、これは参照により本明細書に組み込まれる。
この地理登録された画像212を使用して、集合およびしたがってプラットフォーム104自体の時刻(複数可)で発生するセンサ106の慣性状態の決定の精度を高めることができる。重要なことに、および以下で論じられるように、生センサ・データ202が保持される場合、センサ106の慣性状態に関するこのより正確なデータをまた、強化された(例えば、良好な品質の)画像206を生成するために使用することができる。これを実現するために、生センサ・データ202は、画像206を生成するために使用される画像処理がより正確なセンサ106の慣性状態データを用いて反復される(例えば、再度実施される)ように、保持されまたはそうでなければ格納されなければならない。したがって、高解像度参照画像に対する地理登録が成功すると、生センサ・データ202は、より高い精度および削減された歪みの強化された出力センサ画像(例えば、面外加速度、フォーショートニングおよびレイオーバ)をもたらす計算される強化されたセンサ位置および参照画像データで再処理される。
強化された画像生成
図4A乃至4Dは、生センサ・データ202から画像206を生成するために使用しうる例示的なプロセスのステップを表す図である。まず図4Aを参照すると、ブロック402で、生センサ・データ202がセンサ106から読み出される。ブロック404で、センサ慣性状態208の推定がINS114により生成される。一般に、生センサ・データ202を読み取るプロセスおよびセンサ106の慣性状態の推定を生成するプロセスは独立なプロセスにより並列に実施され、各プロセスからのデジタル・データは、生センサ・データ202が読み取られたときに生センサ・データ202を当該推定されたセンサ慣性状態208と相関させることができるように時間でタグ付けされる。したがって、当該慣性推定センサ慣性状態208が、センサ106からの生センサ・データの読取りの間にまたはそれと並行して生成されてもよい。
ブロック406で示すように、生センサ・データ202は、更新された(または強化された)バージョンの画像206を生成する際に後に使用するために保持または格納される。1実施形態では、これは、センサ106と別々に生センサ・データ202をメモリ(例えば、図5に示すメモリ502)に格納することにより実現される。他の実施形態では、これは、生センサ・データ202を、センサ106自体のメモリ、即ち、画像プロセッサ204、またはプラットフォーム・プロセッサ112の一部であるかまたはそれらにアクセス可能なメモリに格納することにより実現される。
ブロック408で示すように、画像206が少なくとも部分的に生センサ・データ202から生成される。これを、例えば、図5に示す画像プロセッサ204を用いて実現することができる。1実施形態では、当該生センサ・データは、赤外線または可視光にセンシティブな要素のアレイを有する赤外線または可視光センサのような平面撮像センサから取得されたデータを含む。当該実施形態では、当該センサの位置は、当該生データが読み取られたとき画像を生成するために必要とされないので、当該画像を、推定された慣性センサ状態なしに当該生センサ・データから生成することができる。当該画像を生成するのに必要ではないが、このデータを、図4Cと同様にプラットフォームの慣性状態の推定への第2のセンサ・データ入力として利用してもよい。
別の実施形態では、推定されたセンサ慣性状態208は、画像プロセッサ204が画像を生成するために必要とされる。例えば、画像206が複数のセンサ106位置(例えば、SARのような合成開口部システム)から取得された生センサ・データ202を結合することにより生成されるアプリケーションでは、画像206が、生センサ・データ202だけでなく、生センサ・データ202が取得されたときセンサ106の慣性状態も用いて生成される。
ブロック410で示すように、当該センサ慣性状態の更新された推定が、生成された画像206および当該推定されたセンサ慣性状態から少なくとも部分的に生成される。1実施形態では、当該センサ慣性状態の更新された推定は、ブロック408で生成された画像を地理登録し、当該地理登録された画像を用いて当該センサ慣性状態の更新推定を取得することで生成される。これをさらに図5を参照して以下で説明する。最後に、ブロック412で、強化された画像が、保持された生センサ・データおよびセンサ慣性状態の更新された推定から生成される。
1実施形態では、ブロック412で生成された強化された画像がブロック410に提供され、センサ慣性状態の更新された推定をさらに改善するために使用される。生センサ・データは依然として利用可能であるので、これは、ブロック412の動作が繰り返されるときのさらに強化された画像の生成を可能とする。このプロセスを繰り返し反復して、かかる反復が当該センサ慣性状態の推定をもはや十分に改善しないまで、当該生成された画像および当該センサ慣性状態の推定を改善することができる。
以上のプロセスを、追加の生センサ・データおよびセンサ慣性状態の追加の推定に対して繰り返してもよい。これを、例えば、(複数の生センサ・データが異なる時点で異なる位置から取得される)SARまたは(複数の生センサ・データが同時にまたはほぼ同一の時間点で異なる位置から取得される)複数のセンサ実施形態のような合成開口部技術を用いる諸実施形態において、適用してもよい。
図4Bは、追加の生センサ・データおよびセンサ慣性状態の推定の利用を示す図である。この実施形態は、例えば、選択されたSARアプリケーションにおいて有用である。ブロック422で、第2の生データがセンサから読み出される。当該実施形態では、当該センサは、上述した第1の生データを(異なる位置で異なる時刻に)読み取る同一のセンサである。ブロック424で、第2のセンサ慣性状態の推定が生成される。第2のセンサ慣性状態は、上述したセンサ慣性状態とは異なる位置(および時刻)での同一のセンサの状態である。ブロック426で、第2の生センサ・データが保持される(第1の生センサ・データも使用のために保持されている)
ブロック428で画像が生成される。この画像は、センサ慣性状態の更新された推定、第2のセンサ慣性状態の推定、当該生センサ・データおよび第2の生センサ・データから少なくとも部分的に生成される。例えば、SARの実施形態では、当該さらに生成された画像は、第1のセンサ位置で取得された第1の生データおよび第2の位置で取得された第2の生データ、ならびに当該生データが取得された位置でのセンサの状態から生成される。
ブロック430で、第2の慣性センサ状態の更新された推定が生成される。第2の慣性センサ状態のこの更新された推定は、ブロック428で生成されたさらに生成された画像および推定された第2のセンサ慣性状態から少なくとも部分的に生成される。
最後に、ブロック432で、さらに強化された画像が、当該保持された生センサ・データ、当該保持された第2の生センサ・データ、当該センサ慣性状態の更新された推定および当該更新された第2のセンサ慣性状態の推定を用いて生成される。
図4Aに示すプロセスと同様に、以上のプロセスを、追加の生センサ・データおよびセンサ慣性状態の追加の推定に対して繰り返してもよい。これを、例えば、(複数の生センサ・データが異なる時点で異なる位置から取得される)SARのような合成開口部技術を用いた諸実施形態または(複数の生センサ・データが同時にまたはほぼ同一の時間点で当該異なる位置から取得される)複数のセンサの実施形態において、適用してもよい。
図4Cは、2つのセンサを用いた1実施形態における追加の生センサ・データおよび慣性状態の推定の利用を示す図である。当該実施形態では、第1の生センサ・データおよび第2の生センサ・データは、2つの異なるセンサから取得され、同一の時点または異なる時点に取得されてもよい。ブロック432は第2の生センサ・データを第2のセンサから読み取り、ブロック434は第2のセンサ慣性状態の推定を生成する。ブロック436は、少なくともブロック438および440の動作が実施される限り第2の生センサ・データを保持する(第1の生センサ・データも使用のために保持されている)。ブロック438で、画像がさらに、少なくとも部分的に(第1のセンサの)センサ慣性状態の更新された推定、(第2のセンサの)第2の推定された慣性状態、および第1のセンサおよび第2のセンサからの生データから生成される。ブロック440で、(第2のセンサの)第2の慣性センサ状態の更新された推定が少なくとも部分的に当該さらに生成された画像および(第2のセンサの)第2のセンサ慣性状態から生成される。最後に、ブロック442で、さらに強化された画像が、第1の保持された生センサ・データ、第2の保持された生センサ・データから生成される。
再度、図4Aおよび4Bと関連して論じた実施形態と同様に、ブロック442で生成された当該強化された画像をブロック440に提供し、第2のセンサ慣性状態の更新された推定をさらに改善するために使用してもよい。第2の生センサ・データは依然として利用可能であるので、これは、ブロック442の動作が繰り返されるときさらに強化された画像の生成を可能とする。
図4Dは、画像206を生センサ・データ202から生成するために使用しうる例示的なプロセスのステップの別の実施形態の図である。当該実施形態では、特定の解像度で特定の領域109をカバーするターゲット110の画像が望まれる。当該画像を収集するのにどれくらいかかるか(時間)に関係し、当該画像が収集の間にセンサ106の視野108内に保持するために予測されることを検証する予測が生成される。より多くのデータ点が異なるセンサ位置で収集されたときより大きな解像度が実現され、これは一般に当該データを収集するためのより長い期間を反映する。センサ・プラットフォーム104が移動すると、センサ106は、(SARのケースでは、生データの各集合が無線周波数パルスから取得された)生データを複数のセンサ位置または慣性状態で集める収集を開始する。INS114は、パルスに対応する生データの集合ごとにセンサ位置または慣性状態の推定を生成する。生センサ・データ202の各組はついでセンサ106の慣性位置の推定に関連付けられる。これを、例えば、生センサ・データ202が各パルスから収集された記録時刻とセンサ106の慣性状態の推定の時刻を相関付けることで実現してもよい。
ブロック458で、画像206が、少なくとも部分的に、(複数のパルスの各々からのデータ・セットを含む)生センサ・データ202および生センサ・データ202セットの各々に対応するセンサ208の慣性状態の推定から生成される。ブロック460で、当該センサ慣性状態の更新された推定が少なくとも部分的に当該生成された画像および当該推定されたセンサ慣性状態から生成される。1実施形態では、これは、地理登録された画像212を生成された画像206および参照画像データベース214から生成し、ついで地理登録された画像212を用いてセンサ位置の更新された推定(複数可)を生成することにより実現される。ブロック462で、強化された画像が、保持された生センサ・データ・セット456およびセンサ慣性状態の更新された推定から生成される。
再度、図4A乃至4Cと関連して論じた実施形態と同様に、ブロック462で生成された強化された画像をブロック460に提供して、センサ慣性状態の更新された推定をさらに改善するために使用してもよい。生センサ・データは依然として利用可能であるので、これは、ブロック462の動作が繰り返されるときさらに強化された画像の生成を可能とする。
さらに、センサ慣性状態の改善された推定を使用して、将来の生センサ・データ202セット集合に対する推定された慣性状態を改善し、したがって生成された画像206をさらに改善することができる。
図4A乃至4Dを参照して論じた実施形態では、推定されたセンサ慣性状態は、使用されるセンサ106に依存して異なるデータを含んでもよい。例えば、生センサ・データが同一のセンサ(例えば、SAR)により異なるセンサ位置で取得される実施形態では、当該推定されたセンサ慣性状態は慣性空間内のセンサ位置を含み、また慣性空間内のセンサ速度を含んでもよい。(例えば、IR、uV、または可視光帯域幅におけるエネルギにセンシティブな画素のアレイを有する平面センサを用いる)諸実施形態では、当該センサ慣性状態は、当該生センサ・データが読み取られるときのセンサ位置およびセンサ態勢を含んでもよい。
図5は、改善された地理登録システム500の1実施形態の図である。図4A、4B、4C、および4Dのブロック410、430、440および460はそれぞれ、センサ慣性状態(または第2の慣性センサ状態)の更新された推定が、関連する画像から少なくとも部分的に生成される動作を記述する。これを地理登録モジュール210により実現してもよい。地理登録モジュール210は、地理登録された画像を、上で参照した生成された画像および参照画像データベース214および前述の参照DEMデータベースから生成する。更新されたセンサ慣性状態がついで、地理登録された画像から少なくとも部分的に生成される。これを、当該地理登録された画像を、DEMデータベース340内の既知の特徴および特許文献1で説明されている地理登録された画像と比較して、当該画像を生成するために使用される生センサ・データが読み取られたときセンサの位置に関する追加の情報を提供することにより実現することができる。かかる比較を、INS114のハードウェア、ソフトウェア、またはファームウェア・モジュール506、画像プロセッサ204のハードウェア、ソフトウェア、またはファームウェア・モジュール504および/またはプラットフォーム・プロセッサ112のハードウェア、ソフトウェア、またはファームウェア・モジュールにより実施してもよい。
最後に、強化された画像が上述したプロセスから利用可能であるので、強化された地理登録された画像が当該強化された画像および更新されたセンサ位置(複数可)から生成されてもよい。これは、(更新されたセンサ慣性状態208を用いて生成された)強化された画像206および更新されたセンサ慣性状態208自体を地理登録モジュール210に提供することで実現される。地理登録モジュール210はこの時点で強化された画像を有し、更新された(およびより正確な)センサ慣性状態208を有するので、強化された地理登録されたセンサ画像212を生成することができる。もちろん、この強化された地理登録されたセンサ画像212を使用して、さらに、画像206を改善するために使用されうるセンサ慣性状態208の精度を改善することができる。画像206はついで、さらに強化された地理登録されたセンサ画像212の生成を可能とする。したがって、生センサ・データ202を、地理登録プロセスにより可能とされる改善された精度でセンサ慣性状態208を用いてそれを再処理できるように保持することにより、継続的に画像およびセンサ状態の推定の両方を改善する処理の閉ループが定義される。
処理環境
図6は、プラットフォーム・プロセッサ112、画像プロセッサ204、地理登録モジュール210、INS114の部分、受信機117および地上局118を含む、上述の開示の処理要素を実装するために使用できる例示的なコンピュータまたはシステム600を示す。コンピュータ602はプロセッサ604および、ランダム・アクセスメモリ(RAM)606のようなメモリを含む。人間のインタフェースを必要とする諸実施形態では、コンピュータ602はディスプレイ622に動作可能に接続される。ディスプレイ622は、グラフィカル・ユーザ・インタフェース618B上のユーザに対する窓のような画像を提供する。コンピュータ602はキーボード614、マウスデバイス616、プリンタ等のような他のデバイスに接続されてもよい。もちろん、当業者は、上述のコンポーネント、または任意数の異なるコンポーネント、周辺装置、および他のデバイスの任意の組合せをコンピュータ602で使用してもよいことを認識する。
一般に、コンピュータ602は、メモリ606に格納されたオペレーティング・システム608の制御下で動作し、ユーザとインタフェースして、入力およびコマンドを受け付け、グラフィカル・ユーザ・インタフェース(GUI)モジュール618Aを通じて結果を提供する。GUIモジュール618Bは別々のモジュールとして示されているが、当該GUI機能を実施する命令を、動作システム608、コンピュータ・プログラム610内に常駐させるかまたは分散させることができ、または特殊目的メモリおよびプロセッサで実装することができる。コンピュータ602はまた、Java(登録商標)、C++、C#、または他の言語のようなプログラミング言語で書かれたアプリケーション・プログラム610をプロセッサ604可読コードに変換できるコンパイラ612を実装する。完了後、アプリケーション610は、コンパイラ612を用いて生成された関係およびロジックを用いてコンピュータ602のメモリ606に格納されたデータにアクセスし操作する。類似の結果をフィールド・プログラム可能ゲートアレイ(FPGA)で実現することができる。コンピュータ602はまた、場合によっては、モデム、衛星リンク、イーサネット(登録商標)カード、または他のコンピュータと通信するための他のデバイスのような外部通信デバイスを含む。
1実施形態では、動作システム608、コンピュータ・プログラム610、およびコンパイラ612を実装する命令はコンピュータ可読媒体、例えば、データ記憶デバイス620で有形に具体化される。当該コンピュータ可読媒体は、ジップ・ドライブ、フロッピーディスクドライブ624、ハード・ドライブ、CD−ROMドライブ、テープ・ドライブ等のような1つまたは複数の固定のまたは取外し可能データ記憶デバイスを含みうる。さらに、動作システム608およびコンピュータ・プログラム610は、コンピュータ602により読み取られ実行されるとき、コンピュータ602に本明細書で説明した動作をさせる命令から構成される。コンピュータ・プログラム610および/または動作命令はまた、メモリ606および/またはデータ通信デバイス630で有形に具体化され、それによりコンピュータ・プログラム製品または製品を生成してもよい。したがって、「製品」、「プログラム記憶デバイス」および「コンピュータ・プログラム製品」という用語は本明細書で説明する際、任意のコンピュータ可読デバイスまたは媒体からアクセス可能を包含するコンピュータ・プログラムを包含することが意図されている。
当該コンピュータシステムの以上の実施形態が、地上局118および同様なアプリケーションに有用でありうるが他の処理要素に不必要に含まれない周辺装置(例えば、ディスプレイ622、GUIモジュール618A、GUI618、マウスデバイス616、キーボード614、プリンタ628またはコンパイラ612)を含むことは理解される。
当業者は、本開示の範囲から逸脱することなくこの構成に多くの修正を行ってもよいことを認識する。例えば、当業者は、上述のコンポーネント、または任意数の異なるコンポーネント、周辺装置、および他のデバイスの任意の組合せを使用してもよいことを認識する。
結論
これは、本開示の好適な実施形態の説明を結論付ける。当該好適な実施形態の以上の説明は例示および説明の目的のために提供されている。これは、包括的であることを意図したものではなく、本開示を開示された正確な形態に限定しようとするものでもない。上述の教示事項に鑑みて多くの修正および変形が可能である。その権利範囲はこの詳細な説明により制限されず、添付の特許請求の範囲により制限されることが意図されている。
106 センサ
202 生センサ・データ
204 画像プロセッサ
206 画像
208 センサ慣性状態
210 地理登録モジュール
212 地理登録されたセンサ画像
214 参照画像データベース
312 センサ画像
320 センサ・パラメータ
322 プラットフォーム・パラメータ
324 センサ・フットプリント分析
326 AOI抽出
330 参照チップ
340 参照DEMデータベース
344 正画像構築
346 参照DEMチップ
348 参照正画像チップ
350 センサ視点分析
352 視点パラメータ
354 センサ変換モデル
356 センサ視点への変換
358 視点参照画像
360 画像マッチ
362 マッチ関数(変換、逆遠近等)

Claims (13)

  1. 画像を生成する方法であって、
    複数の生センサ・データ・セットを読み取るステップであって、各生センサ・データ・セットは複数のセンサ慣性状態で1つまたは複数のセンサから読み取られる、ステップと、
    前記複数のセンサ慣性状態の各々の推定を生成するステップと、
    画像を生成するステップであって、前記画像は、前記複数の推定されたセンサ慣性状態および前記複数の生センサ・データ・セットから少なくとも部分的に生成される、ステップと、
    前記センサ慣性状態の少なくとも1つの更新された推定を生成するステップであって、前記センサ慣性状態の前記少なくとも1つの前記更新された推定は、前記生成された画像および前記複数の推定されたセンサ慣性状態から少なくとも部分的に生成される、ステップと、
    強化された画像を、保持された生センサ・データ・セットおよび前記センサ慣性状態の前記少なくとも1つの前記更新された推定から生成するステップと、
    を含むステップを実施する間に前記生センサ・データ・セットの各々を保持するステップと、
    を含む、方法。
  2. 前記センサ慣性状態の少なくとも1つの更新された推定を生成するステップであって、前記センサ慣性状態の前記少なくとも1つの前記更新された推定は、前記生成された画像および前記複数の推定されたセンサ慣性状態から少なくとも部分的に生成される、ステップは、
    前記複数のセンサ慣性状態の各々の更新された推定を生成するステップであって、前記複数のセンサ慣性状態の各々の更新された推定は、前記生成された画像および前記複数の推定されたセンサ慣性状態から少なくとも部分的に生成される、ステップ
    を含む、請求項1に記載の方法。
  3. 複数の生センサ・データ・セットを読み取るステップであって、各生センサ・データ・セットは複数のセンサ慣性状態で1つまたは複数のセンサから読み取られる、ステップは、
    複数の生センサ・データ・セットを読み取るステップであって、各生センサ・データ・セットは前記複数のセンサ慣性状態で単一のセンサから読み取られる、ステップ
    を含む、請求項2に記載の方法。
  4. 前記複数のセンサ慣性状態の各々の推定は前記複数の生センサ・データ・セットに関連付けられた複数のセンサ位置の各々の推定を含み、
    前記複数のセンサ慣性状態の各々の更新された推定を生成するステップであって、前記複数のセンサ慣性状態の各々の更新された推定は、前記生成された画像および前記複数の推定されたセンサ慣性状態から少なくとも部分的に生成される、ステップは、
    前記複数のセンサ位置の各々の更新された推定を生成するステップであって、前記複数のセンサ位置の各々の前記更新された推定は、前記生成された画像および前記複数の推定されたセンサ位置から少なくとも部分的に生成される、ステップ
    を含む、請求項3に記載の方法。
  5. 前記複数のセンサ位置の各々の更新された推定を生成するステップであって、前記複数のセンサ位置の各々の前記更新された推定は、前記生成された画像および前記複数の推定されたセンサ位置から少なくとも部分的に生成される、ステップは、
    前記生成された画像および参照画像データベースから地理登録された画像を生成するステップと、
    少なくとも部分的に前記地理登録された画像から前記複数のセンサ位置の各々の前記更新された推定を生成するステップと、
    を含む、請求項4に記載の方法。
  6. 強化された地理登録された画像を、前記強化された画像および前記複数のセンサ位置の各々の前記更新された推定から生成するステップをさらに含む、請求項5に記載の方法。
  7. 画像を生成する装置であって、
    生データを生成するためのセンサと、
    前記センサに通信可能に接続され、複数の生センサ・データ・セットを前記センサから読み取るための画像プロセッサであって、各生センサ・データ・セットは複数のセンサ慣性状態で前記センサから読み取られる、画像プロセッサと、
    前記センサに通信可能に接続され、前記複数のセンサ慣性状態の各々の推定を生成するための慣性ナビゲーション・システムと、
    前記センサおよび前記慣性ナビゲーション・システムに通信可能に接続され、画像を生成するための画像プロセッサであって、前記画像は、前記複数の推定されたセンサ慣性状態および前記複数の生センサ・データ・セットから少なくとも部分的に生成される、画像プロセッサと、
    前記慣性ナビゲーション・システムおよび前記画像プロセッサに通信可能に接続され、前記センサ慣性状態の少なくとも1つの更新された推定を生成するための地理登録システムであって、前記センサ慣性状態の前記少なくとも1つの前記更新された推定は、前記生成された画像および前記複数の推定されたセンサ慣性状態から少なくとも部分的に生成される、地理登録システムと、
    を備え、
    前記画像プロセッサは、強化された画像を、保持された生センサ・データ・セットおよび前記センサ慣性状態の前記少なくとも1つの前記更新された推定から生成し、前記画像が前記生センサ・データから生成され前記センサ慣性状態の前記少なくとも1つの前記更新された推定が生成される間に前記センサは前記生センサ・データ・セットの各々を保持する、
    装置。
  8. 前記地理登録システムは、前記複数のセンサ慣性状態の各々の更新された推定を、少なくとも部分的に前記生成された画像および前記複数の推定されたセンサ慣性状態から生成する、請求項7に記載の装置。
  9. 前記複数のセンサ慣性状態の各々の推定は、前記複数の生センサ・データ・セットに関連付けられた複数のセンサ位置の推定を含み、
    前記地理登録システムは前記複数のセンサ位置の各々の更新された推定を生成し、前記複数のセンサ位置の各々の前記更新された推定は、前記生成された画像および前記複数の推定されたセンサ位置から少なくとも部分的に生成される、
    請求項8に記載の装置。
  10. 前記地理登録システムは、
    前記生成された画像および参照画像データベースから地理登録された画像を生成することにより、少なくとも部分的に前記生成された画像および前記複数の推定されたセンサ位置から前記複数のセンサ位置の各々の前記更新された推定を生成し、
    少なくとも部分的に前記地理登録された画像から、前記複数のセンサ位置の各々の前記更新された推定を生成する、
    請求項9に記載の装置。
  11. 前記地理登録システムは、強化された地理登録された画像を、前記強化された画像および前記複数のセンサ位置の各々の前記更新された推定からさらに生成する、請求項10に記載の装置。
  12. 前記センサは合成開口部レーダ(SAR)を含む、請求項11に記載の装置。
  13. 画像を生成するための装置であって、
    複数の生センサ・データ・セットを読み取るための手段であって、各生センサ・データ・セットは複数のセンサ慣性状態で1つまたは複数のセンサから読み取られる、手段と、
    前記複数のセンサ慣性状態の各々の推定を生成するための手段と、
    画像を生成するステップであって、前記画像は、前記複数の推定されたセンサ慣性状態および前記複数の生センサ・データ・セットから少なくとも部分的に生成される、ステップと、
    前記センサ慣性状態の少なくとも1つの更新された推定を生成するステップであって、前記センサ慣性状態の前記少なくとも1つの前記更新された推定は、前記生成された画像および前記複数の推定されたセンサ慣性状態から少なくとも部分的に生成される、ステップと、
    強化された画像を、保持された生センサ・データ・セットおよび前記センサ慣性状態の前記少なくとも1つの前記更新された推定から生成するステップと、
    を含むステップを実施する間に前記生センサ・データ・セットの各々を保持するための手段と、
    を備える、装置。
JP2017243745A 2016-12-21 2017-12-20 地理登録を通じた生センサ画像強化のための方法および装置 Active JP7403210B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/387,493 US11175398B2 (en) 2016-12-21 2016-12-21 Method and apparatus for multiple raw sensor image enhancement through georegistration
US15/387,493 2016-12-21

Publications (2)

Publication Number Publication Date
JP2018139105A true JP2018139105A (ja) 2018-09-06
JP7403210B2 JP7403210B2 (ja) 2023-12-22

Family

ID=60935660

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017243745A Active JP7403210B2 (ja) 2016-12-21 2017-12-20 地理登録を通じた生センサ画像強化のための方法および装置

Country Status (5)

Country Link
US (1) US11175398B2 (ja)
EP (1) EP3340174B1 (ja)
JP (1) JP7403210B2 (ja)
CN (1) CN108225309B (ja)
TW (1) TWI771350B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111750850A (zh) * 2019-03-27 2020-10-09 杭州海康威视数字技术股份有限公司 角度信息获取方法、装置和系统

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10395017B2 (en) * 2017-02-01 2019-08-27 International Business Machines Corporation Selectively redacting digital footprint information in order to improve computer data security
US10591300B2 (en) * 2017-05-01 2020-03-17 RideOn Ltd. Fixing magnetometer based azimuth according to sun positioning
CN110617802A (zh) * 2019-07-26 2019-12-27 北京控制工程研究所 一种星载动目标检测及速度估计方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010038718A1 (en) * 1997-05-09 2001-11-08 Rakesh Kumar Method and apparatus for performing geo-spatial registration of imagery
JP2006195540A (ja) * 2005-01-11 2006-07-27 Ntt Data Corp モザイク画像合成装置、モザイク画像合成方法及びモザイク画像合成プログラム
JP2008304260A (ja) * 2007-06-06 2008-12-18 Mitsubishi Electric Corp 画像処理装置
US20160098838A1 (en) * 2013-04-24 2016-04-07 Commissariat à l'Energie Atomique et aux Energies Alternatives Registration of sar images by mutual information

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6738532B1 (en) 2000-08-30 2004-05-18 The Boeing Company Image registration using reduced resolution transform space
US7197160B2 (en) * 2001-03-05 2007-03-27 Digimarc Corporation Geographic information systems using digital watermarks
US20030225513A1 (en) * 2002-04-12 2003-12-04 Nikhil Gagvani Method and apparatus for providing multi-level blended display of arbitrary shaped textures in a geo-spatial context
US20030218674A1 (en) 2002-05-24 2003-11-27 Sarnoff Corporation Method and apparatus for video georegistration
US7773799B2 (en) 2004-04-02 2010-08-10 The Boeing Company Method for automatic stereo measurement of a point of interest in a scene
US7751651B2 (en) 2004-04-02 2010-07-06 The Boeing Company Processing architecture for automatic image registration
US7395156B2 (en) * 2005-06-23 2008-07-01 Raytheon Company System and method for geo-registration with global positioning and inertial navigation
US7580591B2 (en) 2005-07-01 2009-08-25 The Boeing Company Method for generating a synthetic perspective image
US7873240B2 (en) 2005-07-01 2011-01-18 The Boeing Company Method for analyzing geographic location and elevation data and geocoding an image with the data
JP2008164545A (ja) 2006-12-29 2008-07-17 Mitsubishi Electric Corp 移動目標検出装置、移動目標検出方法および移動目標検出プログラム
CN100552716C (zh) * 2007-04-12 2009-10-21 上海交通大学 全局异常信号环境下基于联合显著图的鲁棒图像配准方法
EP2423873B1 (en) * 2010-08-25 2013-12-11 Lakeside Labs GmbH Apparatus and Method for Generating an Overview Image of a Plurality of Images Using a Reference Plane
US20140168264A1 (en) 2012-12-19 2014-06-19 Lockheed Martin Corporation System, method and computer program product for real-time alignment of an augmented reality device
CN103438904B (zh) * 2013-08-29 2016-12-28 深圳市宇恒互动科技开发有限公司 一种使用视觉辅助校正的惯性定位方法及系统
CN103745474B (zh) * 2014-01-21 2017-01-18 南京理工大学 基于惯性传感器和摄像机的图像配准方法
IL232853A (en) * 2014-05-28 2015-11-30 Elbit Systems Land & C4I Ltd Imaging Georegistration System and Method
US10274958B2 (en) 2015-01-22 2019-04-30 Bae Systems Information And Electronic Systems Integration Inc. Method for vision-aided navigation for unmanned vehicles
CN107615211B (zh) 2015-05-23 2020-07-21 深圳市大疆创新科技有限公司 使用传感器融合估计可移动物体的状态信息的方法及系统
ITUA20164568A1 (it) * 2016-06-21 2017-12-21 Thales Alenia Space Italia Spa Con Unico Socio Metodo di formazione di immagini sar per analisi interferometriche

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010038718A1 (en) * 1997-05-09 2001-11-08 Rakesh Kumar Method and apparatus for performing geo-spatial registration of imagery
JP2006195540A (ja) * 2005-01-11 2006-07-27 Ntt Data Corp モザイク画像合成装置、モザイク画像合成方法及びモザイク画像合成プログラム
JP2008304260A (ja) * 2007-06-06 2008-12-18 Mitsubishi Electric Corp 画像処理装置
US20160098838A1 (en) * 2013-04-24 2016-04-07 Commissariat à l'Energie Atomique et aux Energies Alternatives Registration of sar images by mutual information

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
TARO SUZUKI ET AL.: ""Vision based localization of a small UAV for generating a large mosaic image"", PROCEEDINGS OF SICE ANNUAL CONFERENCE 2010, JPN6021051856, 18 August 2010 (2010-08-18), US, pages 2960 - 2964, XP031776172, ISSN: 0004672199 *
南部 聡、外2名: ""位置・姿勢情報と画像情報に基づく空撮映像のモザイク画像合成"", 電子情報通信学会2001年情報・システムソサイエティ大会講演論文集, JPN6021051859, 29 August 2001 (2001-08-29), JP, pages 221, ISSN: 0004672198 *
鈴木 太郎、外10名: ""小型自律飛行ロボットを用いた災害時における情報収集システムの構築"", 日本ロボット学会誌, vol. 26, no. 6, JPN6021051861, 15 September 2008 (2008-09-15), JP, pages 85 - 92, ISSN: 0004866508 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111750850A (zh) * 2019-03-27 2020-10-09 杭州海康威视数字技术股份有限公司 角度信息获取方法、装置和系统
CN111750850B (zh) * 2019-03-27 2021-12-14 杭州海康威视数字技术股份有限公司 角度信息获取方法、装置和系统

Also Published As

Publication number Publication date
EP3340174A1 (en) 2018-06-27
EP3340174B1 (en) 2021-10-27
TWI771350B (zh) 2022-07-21
CN108225309B (zh) 2023-09-26
TW201824182A (zh) 2018-07-01
US11175398B2 (en) 2021-11-16
JP7403210B2 (ja) 2023-12-22
US20180172822A1 (en) 2018-06-21
CN108225309A (zh) 2018-06-29

Similar Documents

Publication Publication Date Title
US10565732B2 (en) Sensor fusion using inertial and image sensors
Turner et al. Direct georeferencing of ultrahigh-resolution UAV imagery
CN102168981B (zh) 一种深空探测器火星捕获段自主天文导航方法
Fazeli et al. Evaluating the potential of RTK-UAV for automatic point cloud generation in 3D rapid mapping
JP7403210B2 (ja) 地理登録を通じた生センサ画像強化のための方法および装置
CN102741706B (zh) 地理参照图像区域的方法
JP7138428B2 (ja) 地理登録を通じた生センサ画像強化のための方法および装置
Johnson et al. Real-time terrain relative navigation test results from a relevant environment for Mars landing
EP2901236B1 (en) Video-assisted target location
RU2550811C1 (ru) Способ и устройство определения координат объектов
CN111912430B (zh) 高轨光学卫星的在轨几何定标方法、装置、设备及介质
JP2017524932A (ja) ビデオ支援着艦誘導システム及び方法
Gautam et al. Footprint determination of a spectroradiometer mounted on an unmanned aircraft system
Yuan et al. GNSS-IMU-assisted colored ICP for UAV-LiDAR point cloud registration of peach trees
US20240044645A1 (en) Apparatus and method for area mapping
CN109341685B (zh) 一种基于单应变换的固定翼飞机视觉辅助着陆导航方法
WO2021101612A2 (en) Passive wide-area three-dimensional imaging
Hasler et al. Direct georeferencing for Hyperspectral Imaging of ocean surface
Hajri et al. Automatic generation of ground truth for the evaluation of obstacle detection and tracking techniques
Zhang et al. Obstacle detection for low flying UAS using monocular camera
Danescu et al. Real Time Orbital Object Recognition for Optical Space Surveillance Applications
Wang et al. Improvement of image resolution in ScanSAR simulation
Welch Algorithms for the Calibration and Correction of Texel Images Using Inertial Measurement Updates
Virrankoski Autonomous Sensing using Satellites, Multicopters, Sensors and Actuators (MULTICO)-Final Report
Coury Development of a Real-Time Electro-Optical Reconnaissance System

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220331

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220805

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220805

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220819

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220822

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20220909

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20220920

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20221003

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20230110

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20230424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230720

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231212

R150 Certificate of patent or registration of utility model

Ref document number: 7403210

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150