JP2008517488A - ミサイル探索装置のflirとミサイルボアサイトの相関および非均一性補償 - Google Patents

ミサイル探索装置のflirとミサイルボアサイトの相関および非均一性補償 Download PDF

Info

Publication number
JP2008517488A
JP2008517488A JP2007532386A JP2007532386A JP2008517488A JP 2008517488 A JP2008517488 A JP 2008517488A JP 2007532386 A JP2007532386 A JP 2007532386A JP 2007532386 A JP2007532386 A JP 2007532386A JP 2008517488 A JP2008517488 A JP 2008517488A
Authority
JP
Japan
Prior art keywords
image
nuc
scene
registered
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007532386A
Other languages
English (en)
Inventor
ウィリアムス、ダリン・エス.
キッチン、エドワード・エヌ.
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Raytheon Co
Original Assignee
Raytheon Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Raytheon Co filed Critical Raytheon Co
Publication of JP2008517488A publication Critical patent/JP2008517488A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/007Preparatory measures taken before the launching of the guided missiles
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2226Homing guidance systems comparing the observed data with stored target data, e.g. target configuration data
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2253Passive homing systems, i.e. comprising a receiver and do not requiring an active illumination of the target
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2273Homing guidance systems characterised by the type of waves
    • F41G7/2293Homing guidance systems characterised by the type of waves using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/7803Means for monitoring or calibrating
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/67Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response
    • H04N25/671Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response for non-uniformity detection or correction
    • H04N25/673Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response for non-uniformity detection or correction by using reference sources
    • H04N25/674Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response for non-uniformity detection or correction by using reference sources based on the scene itself, e.g. defocusing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Image Analysis (AREA)
  • Testing Of Balance (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

本発明はFLIRとミサイルビデオとのボアサイト相関を簡単で効率化する。ボアサイト相関42は、NUCミサイルビデオ40により行われ、ボアサイト相関とNUCが同時に行われることを可能にし、目標を捕捉してミサイルを発射するのに必要な時間を減少させる。この方法はNUCに対するミサイル探索装置の運動を使用して探索装置が運動するときの差画像によりミサイル画像中の空間的勾配濾波を生成する。これは画像中のDC非均一性を補償する。FLIR画像44は追跡される情景運動に基づいて構成された変位を整合させ空間的フィルタを減算することにより処理される。FLIR画像44はミサイル画像解像度に整合するように再サンプルされ、2つの画像は通常ように予備処理され、相関される。改良されたNUC46は映像装置で異なる画素により観察されるように情景の各区域の多数の測定を相互参照して行われる。この方法は同じものを見る同じアレイの画素は同じものを見るという簡単で優れた前提に基づいている。その結果NUCタームは情景ではなく画像装置中の非均一に適合される。
【選択図】 図1

Description

本発明は、ターゲットがFLIRからミサイル探索装置へハンドオーバーされる前に行われる必要のあるボアサイト相関および非均一性補償(NUC)に関するものであり、特に、NUCでないミサイルビデオをFLIRに相関させる方法および改良された情景に基づいた非均一性補償方法に関する。
誘導ミサイルシステムでは、前方監視赤外線システム(FLIR)のようなターゲット指定装置からミサイル探索装置へターゲットをハンドオーバーする前にある較正が行われなければならない。それらにはFLIRとミサイル探索装置との間の厳密ではない機械的な整列を補正するためのボアサイト相関の実行およびミサイル探索装置の赤外線映像装置中の画素単位の応答の非均一性を減少させるための非均一性補償の実行が含まれている。これらの調整はミサイルの捕捉の機会を改善し、ターゲットに命中させるための追跡が行われる。
図1および2に示されているように、兵士10は携帯発射ミサイルシステム12を使用して戦車16をターゲットとして破壊するためにミサイルを発射する。このミサイルシステム12は前方監視赤外線システム(FLIR)18を備え、それはそのFOV22内の情景の高解解像度画像20を捕捉する高解解像度映像装置を有している。ミサイル14はFOV28内の情景の低解解像度の画像26を捕捉する低解解像度の映像装置を有するミサイル探索装置24を装備されている。FLIRとミサイルビデオはデータバス30のようなチャンネルにより情報を通信している。図示されているように、FLIRとミサイル探索装置のFOVは整列しておらず赤外線映像装置の非均一性は低解解像度の画像26内の戦車16をほとんど完全に不明瞭にするような程度のものである。
ボアサイト相関を行う自動化されたシステムは例えばLANTIRNのような10年以上前からすでに存在している。実質的な知識は頑強な方法で得られる。例えば、織地状の情景に対してエッジ事前濾波およびマスクされたバイレベルが相関され、ブランドシーンにたいしてスポット特徴ベースの相関が行われる。しかしながら、これらの方法はミサイル探索装置の画像を横切る比較的均一な応答を必要とする。地対地ミサイルでは、画像の均一性は、ボアサイト相関が開始される前にミサイル探索装置の赤外線イメージャを完全に冷却して非均一性を補償することによって達成される。3つの全ての順次の動作が完了してデータがミサイル探索装置に渡されると、兵士は探索装置のビデオを最小の雑音で観察し、FLIRビデオの中心にする。これは時間が必要であり、兵士を敵の砲火に露出させ、ターゲットを破壊する使命を危うくする。
非均一性の補償(NUC)はボアサイト相関を行うの十分な品質の画像を提供するために必要であるが、その主要な機能は発射後の追跡中に兵士により捕捉するためのミサイル赤外線ビデオの固定パターン雑音レベルを減少させることである。NUCは画素ベースで赤外線イメージャの応答特性が時間と共に、環境および動作条件に基づいて劇的に変化する可能性があるために必要とされる。NUC手順は赤外線イメージャの応答特性が画素ベースでの変化の程度を少なくとも実質的に減少させ、或いは除去するのに有効であり、迅速に行われる必要があり、またオペレータの介入(ノブの回転)が最小であることが必要である。
NUCに対する有力な方法は、赤外線ミサイル探索装置の運動により、或いは一時的な平均により随意選択的に生成された情景の汚れたバージョンを使用する。その前提は、全画素の平均で全画素が同じ値を見なければならないと言うことである。この仮定に基づいて、各画素に対する汚れた画像中で検出される任意の高い周波数のコンポーネントは非均一な画素応答の結果であると見なされる。汚れた画像は高い周波数のコンポーネントを除去されるように補正される。同様の補正は後続する汚れのない画像に対して適用される。この方法は比較的フラットな画像に対しては有効であるが、高い空間周波数の顕著な内容を含んでいる情景では困難である。これらは非均一性として感知され、“補償された”情景を生成し、身体の運動に依存したアーチファクトとなる。
NUCが完了すると、十分に低い雑音レベルが得られ、ボアサイト相関はミサイルとFLIRとの間の不整列の補正を行うことができる。ボアサイト相関は典型的に最初に探索装置の解像度に整合する粗い解像度にFLIR画像を再サンプリングすることにより行われる。次にNUCされたミサイルの画像はデータバスにより送られ、再サンプリングされたFLIR画像と相関される。この相関処理は当業者にはよく知られている。相関のピークの位置はFLIRのボアサイト(視野のFLIRフィールドの中心)に関するミサイル画像の中心位置を示している。この相対的なボアサイトオフセットが知られるならば、FLIRからのターゲットの位置および大きさはミサイル画像中にマップされることができる。
これらの兵器システムの有効性を改善し、兵士を保護するためにボアサイト相関を簡単にし、能率化するための技術が必要とされている。さらに、高い帯域幅と改善された雑音減少が得られ、厳しい非均一な情景に適用可能なユーザの関係を最小にするFLIRに対する技術は、兵器システムおよびその他の赤外線映像システムの効率をさらに改善するであろう。
本発明は、FLIRとミサイルのビデオのボアサイト相関を簡単で、能率化されたものとし、高い帯域幅と高い信号対雑音比を提供するユーザが容易に使用できる赤外線映像装置を提供する。NUCプロセスはまた強調された画像を表示する能力を提供する。
この目的は、FLIRされないミサイルビデオによりボアサイト相関を行う方法により部分的に達成される。これはボアサイト相関とFLIRが同時に実行されることを可能にし、それによってターゲットを捕捉してミサイルを点火するのに必要な時間を減少させる。現在の方法はNUCに対するミサイル探索装置の運動を使用しておおり、探索装置が運動する時の微分画像によりミサイルの画像における空間的勾配フィルタを生成する。これは画像中のDC非均一性を補償する。情景内容および利得の不均一性からの残留アーチファクトが存在するが、それらは適切な事前濾波が使用された時には相関を妨害するように十分に厳しくはない。FLIR画像は整合した変位により処理され、追跡された情景の運動に基づいて構成された空間的フィルタを減算する。FLIR画像は再サンプリングされてミサイルの画像の解像度に整合され、2つの画像は予備処理され、通常の方法を使用して相関される。
ボアサイト相関のこの方法は、NUCに対する通常の技術と縦続して使用されることができるが、増加した帯域幅、ミサイルビデオの改良されたSNRおよびオペレータの介入が少ない付加的な利点は改良された情景ベースのNUCにより実現れることができる。現在の方法は映像装置中で異なる画素により観察されるような情景の各区域の相互参照多重測定により動作する。この方法は、同じものを見るアレイ中の全ての画素は同じものを観察しなければならないと言う簡単でしかも優れた前提に基づいている。結果としてNUCタームは情景ではなく、映像装置中の非均一性に適合する。
情景ベースのNNにおいて、ミサイルビデオからの一時的な画像のシーケンスはそれらが存在すると仮定する演繹的NNタームにより補償される。情景を横切るFOV運動が追跡され、補償された画像が登録され、共に合計されて登録された合計画像が形成される。“登録された合計画像”は登録された合計画像中の各画素に影響する画素の数(または全体の画素ウエイト)を記録する。“登録された平均画像”は“登録されたカウント画像”による“登録された合計画像”を除算することによって生成される。この画像は実際の情景内容の最良の利用可能な評価を構成する。画像はある程度、補償されない非均一性によって汚染されるが、これらは消去されるであろう。“登録された平均画像”は例えば完全なNUCを仮定すると理想的な入力画像の評価を生成するために各入力画像に対応するコラージュからフレームを切出すことにより逆方向マップされる。各評価は“説明されない差”画像のシーケンスを生成するために各補償された画像から減算される。入力画像に対するこけらの差のN次の相関は任意の残留する均一性を補正するために必要とされるNUCタームの画素単位の評価を生成する。これらのNUCタームは事前のNUCターム、例えば工場の較正、優先的反復から生じるタームと組合わされ、ミサイルビデオを補償するために使用される。簡単なDCオフセット補償の場合にはこの組合わせは単なる合計である。典型的に処理は多数回反復され雑音レベルを低下させる。多数回の反復はNUCタームの収斂規則または画像システムに許容される時間に基づいて固定することができる。
このプロセスは順方向マッピング(登録された平均画像の生成)、および/または逆方向マッピング(理想的な入力画像の評価)およびこれらの映像装置の加重、および/またはさらに可変度が少ない情景画素における変化程度の追跡を維持することにより強化される。これは順方向マッピング中に情景内容を評価するための最も一致した応答によりこれらの映像装置の画素(カメラ画素)に好ましい影響を与え、逆方向マッピング中に画素応答の評価における最も空間的で一時的な一致である情景の区域(情景画素)に好ましい影響を与える。空間的一致は逆方向マッピングにおける偽名性によりこの変化に入り、空間的一致の区域は疑似性が少なく、したがって逆方向マッピングにおける変化は少ない。
処理はまた探索装置の画像解像度よりも大きい登録された平均画像を記憶することによって強化できる。特に、FOV中の多数の画素を拡張するために簡単な最も近い近隣のマッピング(補間)の使用は大きな利点を保証する。入力画像中の位相変化は複製から疑似周波数成分を消去し、入力画像中のナイキスト周波数を実際に越える疑似生成物が構造的に付加され、保存される。拡大された情景を生成するためのアンチアイリアス補間はこの望ましい効果を失わせる傾向がある。
変化が追跡されず、映像装置の非均一性がゼロ次、すなわち純粋にオフセットと仮定されるならば、プロセスの計算を簡単にすることができる。この場合には、個々のフレームは計算の反復をサポートするために保存される必要はなく、スタックされた平均と、登録された合計と、登録されたカウント画像(後者は反復を通して固定されている)だけが必要である。理想的にスタックされた平均は、登録された平均画像に対するFOV運動追跡(f)の回旋により計算され、残留する非均一性は入力スタック平均とこれとの差により識別され、残留する差(DC非均一性評価)はFOV運動トレース(f)に対してそれらを相関させ、インクリメント結果を登録された合計に加算することにより登録された平均画像に与えられる。
これらおよびその他の本発明の特徴および利点は、添付図面を参照にした以下の詳細な説明から当業者には明らかであろう。
本発明は、簡単で効率のよいFLIRとミサイルビデオのボアサイト相関と高い帯域幅と、高いSNRと、ユーザに好ましい赤外線映像装置のNUCを提供する。
図3に示されているように、これは部分的にNUCされないミサイルビデオ40とボアサイト相関を行う方法により達成される。これはFLIRビデオ44およびミサイルビデオ40上のNUC46によりボアサイト相関42が同時に行われることを可能にし、それによってFLIRからミサイル探索装置にターゲットハンドオーバー48を行い、ミサイルを発射するために必要な時間を減少させる。NUCはターゲットハンドオーバーのために必要はないが、それはミサイルビデオの信号対雑音比を改良するためには有効である。NUCプロセスはまた例えば雑音の濾波およびオペレータディスプレイ50の非常に高い解像度の画像のような強化された表示能力を提供する。
ボアサイト相関の現在の方法は、IR画像エッジの位置を決めるためにIR映像装置からのミサイルビデオを時間的に処理し、特にFLIR画像中の同じエッジの少なくとも幾つかの位置を決めるために情景の運動の評価にしたがってFLIRビデオを空間的に処理し、ミサイルとFLIR画像とを相関させる。さらに詳しく説明すると、探索装置の運動は1つの画像中の空間的エッジを画像のシーケンス中の時間的なシグネチュアに変換する。そのシグネチュアは、例えばフレーム差を使用してエッジを検出するのに使用される。FLIRビデオは例えば変位を使用して情景の運動にしたがって空間的に処理され、フィルタを減算してFLIR画像中の同じエッジの少なくとも幾つかを位置させる。ミサイルとFLIR画像(エッジマップ)は相関され、ボアサイト相関を与える。
図4を参照すると、例示的な実施形態で連続的な画像(ミサイルビデオ40のフレーム)が表示され、次の画像から減算54されてエッジマップ56を形成する。これは画像中のDC非均一性を消去する。情景内容からの残留アーチファクトがあるが、それらは適切な前置フィルタが使用されるとき相関を妨害するには不十分である。高次の差が形成されて付加的な計算の複雑さにより費用はかかるが、エッジマップを改善する。FLIR画像(FLIRビデオ44のフレーム)は整合変位により処理されて、例えばミサイル探索装置のジンバル位置からの情景運動評価に基づいて構成され、慣性レートセンサおよび/またはミサイルビデオの自己相関と一体とされる。FLIR画像は60で再サンプリングされて、ミサイル画像の解像度と整合され、2つの画像は前処理されて通常の方法を使用して相関される。ミサイル画像(エッジマップ)は62で遅延され、次のミサイル画像と63で自己相関されてNUCに対する登録を与える。登録を決定するためにボアサイト相関を待つのではなく、エッジマップから登録を抽出することによって、NUCはボアサイト相関と同時に行われ、それによってターゲットハンドオーバーを行うために必要な時間を減少させることができる。
このボアサイト相関の方法はNUCに対する通常の技術と縦続して使用されることができるが、帯域幅が増加し、ミサイルビデオのSNRが改善され、オペレータの介在が少なくてよい付加的な利点が改良された情景ベースのNUCにより実現されることができる。図5乃至8に示されている現在の方法は映像装置中の異なった画素により観察される情景の各区域の多重測定の交差参照により動作する。この方法は同じものを見るアレイ中の各画素は同じものを見なければならないと言う簡単でしかも優れた前提に基づいている。結果として、NUCタームは情景ではなく映像装置中の非均一性に適応する。
図5に示されているように、NUCに対する基本的なフロー図はミサイルビデオの粗入力画像を捕捉し(ステップ64)、最も最近のNUCタームを使用して画素単位のベースで各フレームに対して補償し(ステップ65)、圧縮された画像に基づいてNUCエラータームを評価する(ステップ66)。NUCエラータームは現在のNUCタームと組合わされて(ステップ67)次の反復のために使用されるNUCタームを更新する(ステップ68)。NUCタームは前のNUCタームにより初期化されてもよい(ステップ69)。典型的にプロセスは雑音レベルを圧倒するように補償された画像について多数回反復される。その反復数はNUCタームの収斂規則または映像システムにより許容される時間に基づいて固定されることができる。
図6および7に示されているように、NUCエラータームはミサイルビデオからの補償された画像70のシーケンスを与えることによって評価され(ステップ71)、情景を横切る関連するFOV運動(f)72を追跡する(ステップ73)。画像はFOV運動を使用して登録され、“登録された合計画像”を形成するためにともに合計される(ステップ74)。 “登録されたカウント画像”75は登録された合計画像中の各画素に影響している画素の数(または以下説明するように全体の画素加重)を記録する(ステップ76)。“登録された平均画像”77は“登録されたカウント画像”により“登録された合計画像”を割算することによって生成される(ステップ78)。この画像は実際の情景の内容の最良の利用可能な評価を構成する。画像は補償されない非均一性によってある程度汚染されるが、それらは市を卯挙される。ステップ73, 74, 76, 78は共に順方向マッピングを構成する。FOV (f1 )80を横切る情景の運動を使用して、“登録された平均画像”77は入力画像のそれぞれに対応するカレッジからフレーム83a, 83b, 83c, 83dを切出すことにより逆方向マッピングされ(ステップ82)、例えば 完全なNUCを仮定する理想的な入力画像の評価84a, 84b, 84c, 84dを生成する。それらの各評価はそれぞれ前の補償された画像70から減算され、“説明されない差”画像85のシーケンスを生成する(ステップ86)。それぞれの評価された画像に対するこれらの差画像85のN次の相関(ステップ88)は、任意の残りの情報を補正するために必要とされるNUCエラーターム90の画素単位の評価を生成する。0次の相関の場合には(この場合はDCオフセットだけを仮定し、利得タームはない)、差画像85は入力画像に対する参照なしに単に平均された画素単位である。この特定の実施形態では、NUCにおけるインクリメントエラーは各反復において累積される。特に、0次(DC補償)に対しては、反復的に補償された画像の代わりに元の画像に基準が戻ることが好ましく、それ故、完全なNUCタームがNUCエラータームの代わりに各反復において計算される。。
このプロセスは順方向マッピング(登録された平均画像を生成する)および/または逆方向マッピング(理想的な入力画像の評価)における変化の追跡を維持し、それらの画像画素および/または情景画素を変化が少なくもっと重く加重することにより強化することができる。これは順方向マッピング中の評価している情景に対する応答に最も適合する映像装置画素と逆方向マッピング中評価している画素に最も空間的および時間的に一致している情景の区域(情景画素)に好ましい影響を与える。空間的一致は逆方向マッピング中にエイリアスによりこの変化中に入り、空間的一致区域はエイリアスが少なく、したがって逆方向マッピングでは変化が少ない。
図6乃至8を参照すると、逆方向マッピングの変化性は、登録された合計画像の生成中に映像装置静止マップ102 を利用可能にすることにより追跡される(ステップ104 )。マップ値は映像装置中の各画素の応答の変化の尺度である。一致に応答する画素は小さい変化を割当られ、不一致に応答する明滅のような画素は大きい変化に割当てられる。各映像装置画素に対する加重Wi はその後静止マップ102 から得られる(ステップ106 )。例えば、変化の尺度が画素応答の変化である場合には、加重は標準偏差に反比例するのが適切である。その結果、高度の静止性を有する画素、例えば低い変化の画素は大きい加重が割当てられ、逆の場合は反対である。加重は標準偏差に一定値を付加することによってバイアスされてもよい。これはその画素に影響するサンプルが僅かであるときのみ雑音レベルより上に加重を維持するために行われる。さらに、NUCタームのセットに収斂することを確実にするために十分に大きい値に定数が設定される。マップ、したがって加重は必須ではないが典型的には反復処理を開始するために値の均一なセットに初期化される。反復処理はよい画素と悪い画素およびビデオの静止部分と非静止部分とを識別し、したがって加重の再バランスが行われる。
“登録された加重された合計画像”が各画素に対して登録された画像値Ii 、すなわち(ΣWi i )の加重された合計値として形成される。このように良好な画素からの影響は強調され、悪い画素からの影響は強調されない。加重Wi はまた“登録された加重されたカウント画像”を形成するために使用され(ステップ110 )、それにおいては情景画素に対応する各エントリは影響する映像装置画素(ΣWi )の加重の合計である。情景画素静止マップ112 は各情景画素の時間的および空間的な尺度を与える(ステップ114 )。少ないが依然としてかなりの大きさであるため、このマップはまた例えば明滅しているような悪い画素の影響も含んでいる。このマップは例えば登録された合計画像中の各情景画素における加重された変化、すなわち、各情景画素に対して影響する登録された映像装置画素の加重された変化を計算することによって生成されることができる。
理想的な映像装置画素応答を仮定すると、情景マップは画像中の時間的変化(ビデオ)および空間的変化(探索装置の運動)の両者を考慮にいれる。その代わりに、空間的および/または時間的ハイパスフィルタ処理が登録された合計画像を形成する前に入力画像に対して行われてローカルな“平坦性”評価が与えられる。空間的フィルタはその後FOV運動の知識により構成される。
登録された平均画像は“登録された加重されたカウント画像”によって“登録された合計画像”を割算することにより生成される(ステップ116 )。“良好な”画素を強調し、“悪い”画素を低下させることにより、カレッジから切離された評価された入力画像は理想的な入力画像のより良好な評価である。登録された平均画像は逆方向マッピングされ、説明されない差画像が前のように形成される(ステップ118 )。情景画素マップ112 により加重された各評価された画像に対するこれらの差画像のN次の相関は任意の残りの非均一性を補正するために必要なNUCエラーターム90の画素単位の評価を生成する。映像装置画素静止マップ102 は、相関が行われた後の各画素に残留する変化であるように更新される。0次のシステムに対してはこれは各画素における説明されない差の変動に対してデフォルトである。
別の実施形態では、図9に示されているようにNUC評価プロセスはまた、探索装置の画素解像度よりも大きい登録された平均画像を記憶することにより強化される。特に、各補償された画像70は2,4,8等の係数でアップサンプルされ、その値は画素130 に割当られる。その結果、登録された合計画像、したがって登録された平均画像はアップサンプルされ補償された画像の画素レベルで登録され、それは元の画像のサブ画素解像度に対応している。FOV中の拡張された画素に値を割当てるための簡単な最も近いマッピング (対補間)の使用は非常に有効であることを保証する。補償された画像の位相変化は複製から疑似周波数成分の消去を行わせ、入力画像中の実際のナイキスト周波数を越える周波数と一致している疑似アーチファクトは構造的に加算されて保存される。拡大された情景を生成するための疑似防止補間方法はこの好ましい効果を減少させる傾向がある。典型的に高い解像度で登録された平均情景の評価は、逆方向マッピング中の疑似を減少させることにより高い空間周波数内容の区域で性能を改善する効果を有している。それは逆方向マッピングされた画像のサブ画素登録を可能にする。対応する領域(2xの解像度で2×2)は平均化されて各逆方向マッピングされた画素を生成する。
変化が順方向または逆方向マッピングプロセスのいずれでも追跡されず、映像装置の非均一性が0次、例えば正確にDCオフセットであると仮定されるならば、反復プロセスは計算が簡単にされる。この場合には、個々の画像は計算の反復をサポートするために保持される必要はなく、粗または前の補償された画像のスタックされた平均と、登録された合計と、登録されたカウント画像(後者は反復を通して固定されている)とだけが必要とされる。理想的なスタックされた平均は、登録された平均画像(またはFOVf-1を横切る情景運動に対する等価の相関)に対するFOV運動トレース(f)のコンボリューションによって計算され、残留する非均一性はこれと入力のスタックされた平均との差によって識別され、残留する差(DC非均一性評価)はFOV運動トレース(f)に対してそれらを相関させ、インクリメントの結果を登録された合計に加算することによって登録された平均画像へ伝搬される。コンボリューションは保留されたマスクに対して相関することと等価であるから、1つの動作は各画素によって見られている情景の部分を収集して、画像から情景へ残留エラーを分配する。基準点はこれら2つの場合(映像装置FOVに固定された場合と情景に固定された場合)で逆にされるから、相関マスクも逆にされる。
図10に示されているように、NUCは入力画像の時間的シーケンスを捕捉し(ステップ150 )、(存在するならば)工場における較正タームのような前のNUCターム151 を使用して各画像を補償し(ステップ152 )、情景を横切る関連したFOV運動(f)を追跡することによって達成される(ステップ154 )。画像はFOV運動を使用して登録され、最初の“登録された合計画像”を形成するために共に合計される(ステップ156 )。登録された合計画像中の各画素に影響する画素の数は“登録されたカウント画像”中に記録される(ステップ158 )。“登録された合計画像”は“登録されたカウント画像”により除算されて登録された平均画像を形成する(ステップ160 )。この画像は実際の情景内容の最良の利用可能な評価を構成する。画像は補償されない非均一性によってある程度汚染されているが、これらは消去される。
この時点まで、NUCプロセスは図5および6に関して前に説明したのと同じである。0次補償および前述の変化追跡を仮定することによって、計算プロセスは簡単にされる。全体のプロセスを反復しなければならない代わりに、登録された合計画像の更新についての反復することだけが必要である。最初にFOV運動トレースf162 が登録された平均画像に対して回旋されて理想的なスタックされた平均が形成される(ステップ164 )。この理想的なスタックされた平均とスタックされた平均(補償された画像の平均)との差が形成され(ステップ166 )、複合の説明されない差画像(DC非均一性)が評価を形成する(ステップ168 )。複合画像はNUCエラーターム170 として出力され、それは前の反復からの更新されたNUCターム172 と組合わされて現在の更新されたNUCターム172 を形成する(ステップ173 )。
入力画像を更新されたNUCタームによって補償し、新しい登録された合計画像を生成しなければならない代わりに、NUCエラータームは単にFOV運動トレースfに対して相関させて登録された合計エラーを形成し(ステップ174 )、登録された合計画像に付加して(ステップ176 )登録された合計画像を更新し、それにより登録された平均画像を更新する。この内部ループはある数の反復回数で更新されたNUCターム172 が収斂するまで繰返される。
図11に示されているように、NUCプロセスはまたオペレータのディスプレイ200 または自動化された画像プロセス202 に対して強化された画像を提供する能力を与える。各補償された画像に対して、情景画素静止マップ112 が使用されて画像Ni の数を選択して各情景画素において合体させるために使用される(ステップ204 )。情景画素は大きいNi ほど安定である。その後、各入力画像フレームに対してFOV運動72が使用されて各映像装置画素における最も最近のNi の影響を選択する(ステップ206 )。これら2つのステップは本質的に各画素に対する時間的平均フィルタの幅と各画素に対する運動補償を決定する。そのフィルタはストレートな平均、加重された平均、または何らかの高次のフィルタであってもよい。この情報を利用して、複合平均画像が各フレームに対して補償された画像から生成される(ステップ208 )。複合画像は2つの異なる方法で強化される。第1に、比較的安定な画像の区域においては、多数の画像の合体によりかなりの雑音減少が実現できる。さらに、顕著に変化する画像の区域においては、細部はほんの少しの画像の合成または画像なしで保存される。第2に、特に図9の強化された解像度の方法では、隣接するフレームからの情報の混合によって複合画像中の情景内容を再構成することが可能であり、それは個々のフレームに対するナイキスト制限を越えてそこにもともと存在していない。走査線形アレイが交差軸において画像解像度を与えるためにしばしば使用されるように、2次元映像装置は両軸で強化された解像度を与えることができる。
本発明の幾つかの実施形態が示され、説明されたが、多数の変形および置換された実施形態が当業者には明らかであろう。そのような変形および置換された実施形態は容易に予測され、特許請求の範囲に記載されている本発明の技術的範囲から逸脱することなく行われることができる。
FLIRおよびミサイルシステムのブロック図。 ボアサイト相関に先立ってFLIRビデオフレームとNUCされたミサイルビデオのフレームを示す図。 本発明によるターゲットハンドオーバーに対する非均一性補償とボアサイト相関の並列処理のブロック図。 NUCされないミサイルビデオとNUCされないミサイルビデオの自己相関とを使用するボアサイト相関のブロック図。 反復NUCプロセッスを示す図。 NUCエラータームの評価のフローチャート。 評価プロセスの説明図。 順方向および逆方向マッピングプロセス中の変化を追跡する別の実施形態のフローチャート。 登録された平均画像が探索装置の画素解像度よりも大きい解像度である別の実施形態の説明図。 ゼロ次のシステムの計算効率のよい実施形態のフローチャート。 NUCにより与えられた情報を使用して強化された画像を表示するためのフローチャート。

Claims (10)

  1. 画素化された赤外線映像装置のための非均一性補償(NUC)方法において、
    入力情景の評価値(77)を生成するために異なったFOVを有する赤外線映像装置からの入力画像(70)の時間的シーケンスを登録し(ステップ73, 74, 76, 78)、
    異なるFOVに対して評価された入力情景を逆方向マッピングしてそれぞれに対して評価された入力画像(84a, 84b…)を生成し(ステップ82)、
    前記各評価入力画像(84a, 84b…)を関連する入力画像(70)と比較して赤外線映像装置に対する画素単位の応答の非均一性補償(NUC)タームを評価し、
    そのNUCタームを画像に適用して補償された画像を生成する(ステップ65)各ステップを含んでいる赤外線映像装置の非均一性補償方法。
  2. 入力情景の評価は、
    前記登録された入力画像(70)を共に加算して登録された合計画像を生成し(ステップ74)、
    登録されたカウント画像(75)中の情景中の各画素に対して影響する入力画像の数を累算し、
    登録された合計画像を登録されたカウント画像によって除算して登録された平均画像(77)を形成する(ステップ78)ことによって生成される請求項1記載の方法。
  3. さらに、登録された合計画像を更新するために順方向マッピングにおいて映像装置の画素(102) の応答の変化の追跡を維持し(ステップ104,106,108,111,121 )、最もよく一致している応答を与える映像装置の画素が登録された合計画像および登録されたカウント画像に最も強く影響し、それにより入力情景の評価値に影響を与えている請求項2記載の方法。
  4. 最も近接した近隣のマッピングが登録された平均画像(77)中に入力画像のFOV中の画素(130) の数を拡大するために使用され、それは入力画像(70)よりも高い解像度に維持され、入力画像中の位相変化により疑似周波数成分をマッピングから消去しながら、入力画像中のナイキスト周波数を越える周波数と一致するアーチファクトが構造的に付加されて保存される請求項2記載の方法。
  5. 評価された入力情景(77)は、その評価された入力情景(77)中の1フレーム(83a, 83b…)を切離すことにより各入力画像に逆方向でマッピングされ、その評価された入力情景(77)はその画像の視野に対応しており、さらに、逆方向マッピングの期間中情景画素の静止マップ(112) 中の情景画素の変化の追跡を維持して評価されたNUCタームを更新し(ステップ114,118,120)、時間的に安定しており局部的にフラットな影響の入力情景の評価の区域はNUCタームの評価に対して最も重くされている請求項1記載の方法。
  6. さらに、各補償された画像に対して情景画素静止マップ(112) を使用して各情景画素において混合される画像の数Ni を選択し(ステップ204)、
    情景運動の評価を使用して各画像画素(i,j)における最も最近のN(I,J) の影響を選択し、
    各画像画素において補償された画像からのN(I,J) の影響を混合することによって複合画像を生成する請求項5記載の方法。
  7. 前記NUCタームは、
    入力画像と評価された入力画像との各対を弁別して説明されない差画像のシーケンスを形成し(ステップ86) 、
    前記説明されない差画像についてN次相関を行ってNUCエラーターム(90)を形成し (ステップ88) 、
    NUCエラータームをNUCタームと組合わせて(ステップ67) NUCタームを更新する(ステップ68) ことによって評価される請求項1記載の方法。
  8. 前記逆方向マッピングは、登録された平均画像に対してFOV運動トレースを回旋して理想的なスタックされた平均を形成し(ステップ164)、それは入力画像のスタックされた平均と比較されて(ステップ166)、説明されない複合差画像を形成し(ステップ168)、それはNUCエラーターム(170) として出力されてNUCタームを更新し(ステップ172)、前記NUCエラータームはFOV運動トレースに対して相関され(ステップ174)、登録された合計画像に加算されて(ステップ176)、NUCエラータームについて別の反復のために登録された平均画像を更新する請求項2記載の方法。
  9. NUCタームの評価を改善するために補償された画像について各ステップが反復される(ステップ65,66,67,68)請求項1記載の方法。
  10. 補償されない赤外線は、
    赤外線ビデオの複数のフレームにわたって赤外線映像装置の時間的運動を使用して第1のエッジマップを形成し、
    赤外線ビデオ中の情景の運動を測定し、
    情景の運動にしたがって基準ビデオ中の画像を空間的に処理して第2のエッジマップを形成するために同じエッジの少なくとも幾つかの位置を決定し、
    第1と第2のエッジマップを相関させることによって基準ビデオと相関される請求項1記載の方法。
JP2007532386A 2004-09-15 2005-09-09 ミサイル探索装置のflirとミサイルボアサイトの相関および非均一性補償 Pending JP2008517488A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/941,203 US7463753B2 (en) 2004-09-15 2004-09-15 FLIR-to-missile boresight correlation and non-uniformity compensation of the missile seeker
PCT/US2005/032254 WO2006096211A2 (en) 2004-09-15 2005-09-09 Flir-to-missile boresight correlation and non-uniformity compensation of the missile seeker

Publications (1)

Publication Number Publication Date
JP2008517488A true JP2008517488A (ja) 2008-05-22

Family

ID=36763834

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007532386A Pending JP2008517488A (ja) 2004-09-15 2005-09-09 ミサイル探索装置のflirとミサイルボアサイトの相関および非均一性補償

Country Status (10)

Country Link
US (3) US7463753B2 (ja)
EP (2) EP1803291B1 (ja)
JP (1) JP2008517488A (ja)
CN (1) CN101065953B (ja)
AT (1) ATE406036T1 (ja)
AU (1) AU2005328648B2 (ja)
CA (1) CA2580543C (ja)
DE (1) DE602005009236D1 (ja)
IL (1) IL181937A (ja)
WO (1) WO2006096211A2 (ja)

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL161082A (en) * 2004-03-25 2008-08-07 Rafael Advanced Defense Sys System and method for automatically acquiring a target with a narrow field-of-view gimbaled imaging sensor
US7899271B1 (en) 2004-09-15 2011-03-01 Raytheon Company System and method of moving target based calibration of non-uniformity compensation for optical imagers
SE0600574L (sv) * 2006-03-16 2007-09-04 Flir Systems Ab Metod för korrektion av olikheter hos detektorelement ingående i en IR-detektor
CN100433793C (zh) * 2007-04-19 2008-11-12 华中科技大学 基于运动检测指导的红外焦平面非均匀性校正方法
CN101459495B (zh) * 2007-12-14 2011-06-01 华为技术有限公司 多用户多入多出通信系统、以及发射信号的方法和装置
US8946606B1 (en) * 2008-03-26 2015-02-03 Arete Associates Determining angular rate for line-of-sight to a moving object, with a body-fixed imaging sensor
US20100166257A1 (en) * 2008-12-30 2010-07-01 Ati Technologies Ulc Method and apparatus for detecting semi-transparencies in video
US9635285B2 (en) 2009-03-02 2017-04-25 Flir Systems, Inc. Infrared imaging enhancement with fusion
US9756264B2 (en) 2009-03-02 2017-09-05 Flir Systems, Inc. Anomalous pixel detection
US9948872B2 (en) 2009-03-02 2018-04-17 Flir Systems, Inc. Monitor and control systems and methods for occupant safety and energy efficiency of structures
US9843742B2 (en) * 2009-03-02 2017-12-12 Flir Systems, Inc. Thermal image frame capture using de-aligned sensor array
US10244190B2 (en) 2009-03-02 2019-03-26 Flir Systems, Inc. Compact multi-spectrum imaging with fusion
US9451183B2 (en) 2009-03-02 2016-09-20 Flir Systems, Inc. Time spaced infrared image enhancement
US10757308B2 (en) 2009-03-02 2020-08-25 Flir Systems, Inc. Techniques for device attachment with dual band imaging sensor
US9716843B2 (en) 2009-06-03 2017-07-25 Flir Systems, Inc. Measurement device for electrical installations and related methods
US10091439B2 (en) 2009-06-03 2018-10-02 Flir Systems, Inc. Imager with array of multiple infrared imaging modules
US9843743B2 (en) 2009-06-03 2017-12-12 Flir Systems, Inc. Infant monitoring systems and methods using thermal imaging
US8738678B2 (en) 2009-10-29 2014-05-27 Raytheon Company Methods and systems for determining an enhanced rank order value of a data set
US8416986B2 (en) * 2009-10-29 2013-04-09 Raytheon Company Methods and systems for processing data using non-linear slope compensation
US8692889B2 (en) 2010-03-17 2014-04-08 Drs Rsta, Inc. Image magnitude differential based system and method for tracking cooperative, non-incandescent sources
US8457437B2 (en) * 2010-03-23 2013-06-04 Raytheon Company System and method for enhancing registered images using edge overlays
US9706138B2 (en) 2010-04-23 2017-07-11 Flir Systems, Inc. Hybrid infrared sensor array having heterogeneous infrared sensors
US9948878B2 (en) 2010-04-23 2018-04-17 Flir Systems, Inc. Abnormal clock rate detection in imaging sensor arrays
US9961277B2 (en) 2011-06-10 2018-05-01 Flir Systems, Inc. Infrared focal plane array heat spreaders
KR101808375B1 (ko) 2011-06-10 2017-12-12 플리어 시스템즈, 인크. 저전력 소형 폼 팩터 적외선 이미징
US9900526B2 (en) * 2011-06-10 2018-02-20 Flir Systems, Inc. Techniques to compensate for calibration drifts in infrared imaging devices
US10841508B2 (en) 2011-06-10 2020-11-17 Flir Systems, Inc. Electrical cabinet infrared monitor systems and methods
US10051210B2 (en) 2011-06-10 2018-08-14 Flir Systems, Inc. Infrared detector array with selectable pixel binning systems and methods
US9235023B2 (en) 2011-06-10 2016-01-12 Flir Systems, Inc. Variable lens sleeve spacer
US9706137B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Electrical cabinet infrared monitor
US9143703B2 (en) 2011-06-10 2015-09-22 Flir Systems, Inc. Infrared camera calibration techniques
US10389953B2 (en) 2011-06-10 2019-08-20 Flir Systems, Inc. Infrared imaging device having a shutter
US9509924B2 (en) 2011-06-10 2016-11-29 Flir Systems, Inc. Wearable apparatus with integrated infrared imaging module
CA2838992C (en) 2011-06-10 2018-05-01 Flir Systems, Inc. Non-uniformity correction techniques for infrared imaging devices
US9058653B1 (en) 2011-06-10 2015-06-16 Flir Systems, Inc. Alignment of visible light sources based on thermal images
US8665334B2 (en) 2011-08-22 2014-03-04 Raytheon Company Blur-calibration system for electro-optical sensors and method using a moving multi-target constellation
US8861893B2 (en) * 2011-09-27 2014-10-14 The Boeing Company Enhancing video using super-resolution
US8749640B2 (en) 2011-10-11 2014-06-10 Raytheon Company Blur-calibration system for electro-optical sensors and method using a moving multi-focal multi-target constellation
US9338352B2 (en) * 2011-12-30 2016-05-10 Flir Systems Ab Image stabilization systems and methods
US9163905B2 (en) 2012-05-23 2015-10-20 Rosemount Aerospace Inc. Dual-mode SAL/IR imaging
WO2014047075A1 (en) * 2012-09-18 2014-03-27 Flir Systems, Inc. Row and column noise reduction in thermal images
US10996542B2 (en) 2012-12-31 2021-05-04 Flir Systems, Inc. Infrared imaging system shutter assembly with integrated thermister
CN105027557B (zh) * 2012-12-31 2019-11-05 菲力尔系统公司 补偿红外成像装置中校准漂移的技术
GB201313681D0 (en) * 2013-07-31 2014-01-08 Mbda Uk Ltd Image processing
GB201313682D0 (en) 2013-07-31 2013-12-18 Mbda Uk Ltd Method and apparatus for tracking an object
US9167239B2 (en) 2013-09-12 2015-10-20 Raytheon Company System and moving modulated target with unmodulated position references for characterization of imaging sensors
US9973692B2 (en) 2013-10-03 2018-05-15 Flir Systems, Inc. Situational awareness by compressed display of panoramic views
US9094628B2 (en) 2013-10-27 2015-07-28 Raytheon Company Address mapped repartitioned digital pixel
US11297264B2 (en) 2014-01-05 2022-04-05 Teledyne Fur, Llc Device attachment with dual band imaging sensor
US9335218B2 (en) * 2014-06-23 2016-05-10 Raytheon Company Digital imaging bolometer and method of measuring photon radiation in a pixelated image
AU2016238311B2 (en) * 2015-03-25 2021-07-08 Aerovironment, Inc. Machine to machine targeting maintaining positive identification
KR101698314B1 (ko) * 2015-12-09 2017-01-20 경북대학교 산학협력단 영상 통계정보에 기반한 정지장면 분할장치 및 그 방법
CN107062991A (zh) * 2016-12-27 2017-08-18 南京理工大学 导引头测试的红外热源转台装置
US10097757B1 (en) * 2017-03-24 2018-10-09 Fotonation Limited Method for determining bias in an inertial measurement unit of an image acquisition device
US10373458B2 (en) * 2017-04-20 2019-08-06 Deep Sentinel Corp. Automatic threat detection based on video frame delta information in compressed video streams
US10701296B2 (en) 2017-10-18 2020-06-30 RPX Technologies, Inc. Thermal camera with image enhancement derived from microelectromechanical sensor
US11252344B2 (en) * 2017-12-27 2022-02-15 Adasky, Ltd. Method and system for generating multiple synchronized thermal video streams for automotive safety and driving systems
CN108871832B (zh) * 2018-08-01 2019-10-18 北京交通大学 一种红外导引头免拆卸在线标定系统
US10715781B1 (en) * 2019-04-01 2020-07-14 Raytheon Company Multiple kill vehicle (MKV) interceptor with improved pre-ejection acquisition and discrimination
FR3112229B1 (fr) * 2020-07-02 2022-07-15 Thales Sa Procede d'acquisition d'images d'une scene
WO2024057102A1 (en) * 2022-09-13 2024-03-21 Rafael Advanced Defense Systems Ltd. Electro-optical tactical missile system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04138325A (ja) * 1990-09-28 1992-05-12 Shimadzu Corp アレイ検出器の感度補正装置
JPH07283999A (ja) * 1994-04-07 1995-10-27 Sony Corp 画像合成装置及び画像撮影装置
JPH07284016A (ja) * 1992-10-13 1995-10-27 Samsung Electron Co Ltd ディジタル映像安定化システムの適応形動きベクトルの決定方法及び装置
JPH09191426A (ja) * 1996-01-09 1997-07-22 Canon Inc 撮像装置
JPH10271393A (ja) * 1996-12-19 1998-10-09 He Holdings Inc Dba Hughes Electron 運動トリガーを備えた情景ベースの非均一性補正プロセッサ
JP2002077736A (ja) * 2000-08-31 2002-03-15 Nikon Corp 画像二値化信号生成装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3974383A (en) * 1975-02-03 1976-08-10 Hughes Aircraft Company Missile tracking and guidance system
US5052045A (en) * 1988-08-29 1991-09-24 Raytheon Company Confirmed boundary pattern matching
US5168529A (en) * 1988-08-29 1992-12-01 Rayethon Company Confirmed boundary pattern matching
US5018218A (en) * 1988-08-29 1991-05-21 Raytheon Company Confirmed boundary pattern matching
US5210799A (en) * 1991-03-28 1993-05-11 Texas Instruments Incorporated System and method for ranking and extracting salient contours for target recognition
US5129595A (en) 1991-07-03 1992-07-14 Alliant Techsystems Inc. Focal plane array seeker for projectiles
US5680487A (en) * 1991-12-23 1997-10-21 Texas Instruments Incorporated System and method for determining optical flow
CA2110368C (en) 1992-12-07 1999-11-23 Gary M. Lindgren Wide dynamic range non-uniformity compensation for infrared focal plane arrays
US5424881A (en) * 1993-02-01 1995-06-13 Cirrus Logic, Inc. Synchronous read channel
DE69426232T2 (de) 1993-06-04 2001-05-17 Sarnoff Corp., Princeton System und verfahren zur elektronischen bildstabilisierung
US5619426A (en) * 1995-06-16 1997-04-08 Hughes Electronics Flexible modular signal processor for infrared imaging and tracking systems
CN1134993C (zh) * 1996-04-18 2004-01-14 诺基亚流动电话有限公司 视频数据编码器和解码器、传输和保存视频数据的系统及其方法
US6507018B2 (en) 1996-08-30 2003-01-14 Raytheon Company Ditherless non-uniformity compensation for infrared detector arrays with recursive spatial low pass filtering
US5940140A (en) 1996-09-10 1999-08-17 Ultimatte Corporation Backing luminance non-uniformity compensation in real-time compositing systems
US5903659A (en) * 1997-04-17 1999-05-11 Raytheon Company Adaptive non-uniformity compensation algorithm
FR2768891B1 (fr) * 1997-09-19 2000-02-04 Thomson Multimedia Sa Procede et dispositif d'interpolation temporelle d'images a compensation de mouvement
US6396961B1 (en) * 1997-11-12 2002-05-28 Sarnoff Corporation Method and apparatus for fixating a camera on a target point using image alignment
US6366357B1 (en) * 1998-03-05 2002-04-02 General Scanning, Inc. Method and system for high speed measuring of microscopic targets
US6243498B1 (en) * 1998-10-19 2001-06-05 Raytheon Company Adaptive non-uniformity compensation using feedforwarding shunting
US6175407B1 (en) * 1998-12-17 2001-01-16 Identix Incorporated Apparatus and method for optically imaging features on the surface of a hand
EP1404135B1 (en) * 2000-01-21 2016-12-14 Nokia Technologies Oy A motion estimation method and a system for a video coder
US7103235B2 (en) * 2001-04-25 2006-09-05 Lockheed Martin Corporation Extended range image processing for electro-optical systems
US6901173B2 (en) 2001-04-25 2005-05-31 Lockheed Martin Corporation Scene-based non-uniformity correction for detector arrays
KR100396558B1 (ko) * 2001-10-25 2003-09-02 삼성전자주식회사 적응 움직임 보상형 프레임 및/또는 레이트 변환 장치 및그 방법
US7065465B2 (en) * 2002-03-26 2006-06-20 Lockheed Martin Corporation Method and system for multi-sensor data fusion
US6750974B2 (en) * 2002-04-02 2004-06-15 Gsi Lumonics Corporation Method and system for 3D imaging of target regions
US6836320B2 (en) * 2002-10-23 2004-12-28 Ae Systems Information And Electronic Systems Integration Inc. Method and apparatus for active boresight correction

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04138325A (ja) * 1990-09-28 1992-05-12 Shimadzu Corp アレイ検出器の感度補正装置
JPH07284016A (ja) * 1992-10-13 1995-10-27 Samsung Electron Co Ltd ディジタル映像安定化システムの適応形動きベクトルの決定方法及び装置
JPH07283999A (ja) * 1994-04-07 1995-10-27 Sony Corp 画像合成装置及び画像撮影装置
JPH09191426A (ja) * 1996-01-09 1997-07-22 Canon Inc 撮像装置
JPH10271393A (ja) * 1996-12-19 1998-10-09 He Holdings Inc Dba Hughes Electron 運動トリガーを備えた情景ベースの非均一性補正プロセッサ
JP2002077736A (ja) * 2000-08-31 2002-03-15 Nikon Corp 画像二値化信号生成装置

Also Published As

Publication number Publication date
CA2580543A1 (en) 2006-09-14
EP1803291A2 (en) 2007-07-04
WO2006096211A3 (en) 2006-11-02
AU2005328648A1 (en) 2006-09-14
ATE406036T1 (de) 2008-09-15
EP1983485A2 (en) 2008-10-22
EP1983485A3 (en) 2009-01-07
US7912247B2 (en) 2011-03-22
CN101065953B (zh) 2012-04-18
IL181937A0 (en) 2007-07-04
US7463753B2 (en) 2008-12-09
US20090103776A1 (en) 2009-04-23
AU2005328648B2 (en) 2009-05-14
EP1983485B1 (en) 2013-05-22
CA2580543C (en) 2014-07-08
EP1803291B1 (en) 2008-08-20
US7881495B2 (en) 2011-02-01
WO2006096211A2 (en) 2006-09-14
US20090046902A1 (en) 2009-02-19
DE602005009236D1 (de) 2008-10-02
US20080112594A1 (en) 2008-05-15
IL181937A (en) 2010-11-30
CN101065953A (zh) 2007-10-31

Similar Documents

Publication Publication Date Title
JP2008517488A (ja) ミサイル探索装置のflirとミサイルボアサイトの相関および非均一性補償
AU2006244201B2 (en) Continuous extended range image processing
US7103235B2 (en) Extended range image processing for electro-optical systems
EP2171642B1 (en) System and method of moving target based calibration of non-uniformity compensation for optical imagers
CN103826033B (zh) 图像处理方法、图像处理设备、图像拾取设备和存储介质
US8208755B1 (en) Scene based non-uniformity correction systems and methods
JP2019149809A (ja) 撮像装置のモデリングおよび校正のためのシステムおよびその方法
US9210341B2 (en) Image processing device, imaging device, information storage medium, and image processing method
JP2000188680A (ja) 高解像度画像の生成方法及びシステム
CN108961163A (zh) 一种高分辨率卫星影像超分辨重建方法
CN109636731A (zh) 一种图像拖影的消除方法、电子设备及存储介质
EP0539897B1 (en) Wide field image generation system
Fanning et al. IR system field performance with superresolution
JP7352389B2 (ja) 焦点検出装置及び方法、及び撮像装置
Buquet et al. Intelligent Vision System optimization through end-to-end simulation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080818

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101102

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110329