JP2005537545A - 画像融合システムおよび方法 - Google Patents

画像融合システムおよび方法 Download PDF

Info

Publication number
JP2005537545A
JP2005537545A JP2004531889A JP2004531889A JP2005537545A JP 2005537545 A JP2005537545 A JP 2005537545A JP 2004531889 A JP2004531889 A JP 2004531889A JP 2004531889 A JP2004531889 A JP 2004531889A JP 2005537545 A JP2005537545 A JP 2005537545A
Authority
JP
Japan
Prior art keywords
image
sensor
contrast
intensity
sensors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004531889A
Other languages
English (en)
Other versions
JP2005537545A5 (ja
JP4261480B2 (ja
Inventor
ティアナ,カルロ
Original Assignee
ビーエーイー システムズ エアクラフト コントロールズ,インコーポレイティド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ビーエーイー システムズ エアクラフト コントロールズ,インコーポレイティド filed Critical ビーエーイー システムズ エアクラフト コントロールズ,インコーポレイティド
Publication of JP2005537545A publication Critical patent/JP2005537545A/ja
Publication of JP2005537545A5 publication Critical patent/JP2005537545A5/ja
Application granted granted Critical
Publication of JP4261480B2 publication Critical patent/JP4261480B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

複数個の画像を処理して、一個以上の画像から選択された領域を含む処理済み画像または融合画像を形成する、コントラストに基づく画像融合システムおよび方法。画像は各画像領域へと分割される。必要であれば、各画像の夫々の部分はフィルタリングされる。畳み込みカーネルを介して各画像に対するコントラスト・マップが生成され、各画像領域に対するコントラスト値を有するコントラスト・マップに帰着する。各コントラスト値は比較され、且つ、大きい方のもしくは最大のコントラストなどの選択用の判定基準もしくはプロセスに基づき、画像領域が選択される。選択された画像領域は、融合画像を形成する。必要であれば、融合画像の一個以上の部分の輝度が調節される。ひとつのセンサは基準センサとして選択され、且つ、基準センサ画像を縦断して、該基準センサ画像の各領域の平均強度が決定される。最終画像の一個以上の領域の強度は、決定済み平均輝度値と該最終画像の強度値とを組み合わせることで調節される。

Description

本発明は概略的に、画像化システムおよび方法に関し、より詳細には、2個以上のセンサからの画像の領域を選択的に融合し又は組み合わせる画像化システムおよび方法に関する。
画像融合は概略的に2個以上の画像の夫々の部分を単一の処理済み画像へと組み合わせ又は併合する段階を指している。画像融合は一般的に画像の生成において2個以上の検出器が用いられるときに使用されることで、ユーザに対して表示され又は自動化処理システムに対して提供される画像は上記センサの各々により提供される情報から組み合わされる。
公知のシステムが種々のセンサからの画像を組み合わせるひとつの様式は、ピクセル毎に2個の画像を単純に相互に加えるものである。故にたとえば、各ピクセル位置が位置(x,y)により特定されるというn×mマトリクス内に配置されたピクセルの2次元(2−D)の処理済み画像を表現するためには、第1画像のピクセル(1,1)における値もしくはデータが第2画像のピクセル(1,1)におけるデータもしくは値に加算され、上記第1画像のピクセル(1,2)における値もしくはデータが上記第2画像のピクセル(1,2)における値もしくはデータに加算され、以降は、両方の画像の夫々のピクセルに関してピクセル(n,m)まで同様である。他の公知のシステムはこの技術の変形例を実施すると共に、2つの値を加算する代わりに、各ピクセルにおける値の平均を計算する。故に最終的な画像は、平均化されたピクセル値を含む。
しかしこれらのシステムは、多くの欠点を有する。第1に、公知の画像融合技術は典型的に、不都合で不必要な歪曲に帰着する。たとえば一方の画像の一部が明瞭であり且つユーザにより理解可能であるが第2画像の対応部分が不鮮明であれば、ピクセル値を加算もしくは平均化すると、明瞭な画像が明瞭さの少ない画像へと歪曲されてしまう。この不都合な効果は、加算もしくは平均化を介して、不鮮明なピクセルの要素を明瞭なピクセルへと取入れた結果である。更なる例として、明るい画像領域に対して不必要なバックグラウンド領域を加えると、上記明るい画像領域のコントラストおよび品質が減少され得る。たとえば、2個の画像の領域が高い優位性を有し又は明るければ、2個の明るい領域を相互に加えると、“過剰露出”された即ち明る過ぎる最終画像に帰着し得る。これは、飽和した画像に帰着する。最後に、2個の薄暗い画像領域を平均化すると比較的に薄暗い画像に帰着し、且つ、本来的に薄暗い画像領域はそれらの明るさが更に低下し得る。
他の公知のシステムはこれらの欠点を克服すべく、画像内のパターンを特定し且つ該パターンに基づき融合画像を形成するという技術の使用を試みた。ソース画像もしくはオリジナル画像の各々は、(たとえばガウスのロールオフまたはラプラシアン・ピラミッドの手法などに基づき)異なる帯域幅を備えたフィルタを用いて、更に低い解像度の複数個の画像へと分解される。上記のピラミッド手法は、異なる画像領域に対する異なる解像度の使用に基づいており、大まかな特定形状は低解像度にて分析され、且つ、精細な特定形状は高解像度にて分析される。しかしこれらのシステムもまた不十分である、と言うのも、各センサからの完全な画像は、ピラミッドを構成する処理が開始し得る以前に受信されるからである。この要件は典型的に、最も低速なセンサからの少なくとも一個の画像のタイムラグに帰着する。斯かるタイムラグは、航空機もしくは他の移動体などの高速移動プラットフォーム上に載置されたセンサにおいては、または、更に概略的にはリアルタイムの動作が所望される場合には、受け入れられない。
他の公知のシステムは、ラプラシアン方法が改変されると共にソース画像に対しては顕著性値(saliency value)もしくは加重値が割当てられるという技術を用いている。パターンは、該パターンが画像の理解に有用な情報を担持するならば“顕著”である。最終画像は、“加重”パターンに基づいて形成される。しかしこれらの技術もまた不十分である、と言うのも、それらは典型的に画像全体の各ピクセルもしくは領域に対する顕著姓の加重値を分析して割当てる段階を包含するからである。画像全体は、その後に処理される。その後、顕著なパターンが選択される。結果として、画像全体の各領域およびそれらに対応する顕著性値を分析するために過剰な時間が浪費される。
これらの欠点は特に、たとえば飛行機の着陸、戦車の駆動などの様に時間的に敏感な行動に関して公知の画像化システムが使用されたときに特に問題である。これらの状況においては、明確な画像が迅速に生成されることが望ましい。しかし公知の技術は典型的に、これらの時的制約内において高品質の画像を生成し得ず、または典型的に、処理のための完全な画像が利用可能とされた後でのみそれを行い得る。
故に、ソース画像から有用な、適宜なまたは適切な情報を効果的かつ効率的に選択し、更に有益もしくは有用な処理済み画像であってソース画像の各々からの適切で適宜かつ有用な情報を含む処理済み画像を時間的に効率的な様式で形成する方法およびシステムに対する要望が存在する。更に、上記選択的な画像融合技術を種々の検出器もしくは画像生成器に適用して種々の用途で使用されるための融通性を提供することが望ましい。
本発明は、異なるセンサにより生成された(本明細書中ではセンサ画像もしくはソース画像とも称される)各画像の夫々の領域を選択的に組み合わせることで、各センサ画像からの適切な情報を用いて処理済み画像または融合画像を形成する方法およびシステムを提供する。上記方法およびシステムは、各センサ画像を夫々の画像領域へと分割し、且つ、各画像領域に対してたとえば畳み込みによりコントラスト値のマップを生成することで実現される。次に、ひとつのセンサ画像に対するコントラスト値のマップは、他のセンサ画像に対するコントラスト値の対応マップと比較される。比較された2個以上のコントラスト値から、たとえば、比較された2個以上のコントラスト値の大きい方とされ得る選択判定基準に基づいて、ひとつのコントラスト値が選択される。次に、選択された各コントラスト値に対応する画像領域が使用されて処理済み画像が形成される。本発明によれば各画像領域は、ピクセル、ピクセル群、または、任意形状領域に基づいて分割され得る。
本発明に依れば更に、各センサは異なる波長を検出する。
また本発明に依れば、異なる形式、個数および組み合わせのセンサからの画像が処理され得る。使用され得るセンサとしては、赤外線(IR)センサ、(たとえば、レーダなどの能動的センサ、または、放射測定器などの受動的センサなどの)無線周波センサが挙げられる。
本発明に依れば更に、複数個のセンサからの画像領域が組み合わされて上記処理済み画像が形成される。
本発明に依れば更に、第1センサおよび第2センサからの画像に対するコントラスト・マップが組み合わされて中間コントラスト・マップが形成され、これは次に、第3画像のコントラスト・マップと比較されて上記処理済み画像が形成される。
本発明に依れば更に、上記画像融合方法およびシステムは、航空機、船舶、自動車もしくは列車などの移動体の誘導に関して用いられる。
本発明に依れば更に、一個以上の画像区画の強度もしくは輝度が処理済み画像を縦断して調節される。ひとつのセンサが基準センサとして選択され、且つ、基準センサ画像の各領域の平均強度が決定される。上記処理済み画像における同一のもしくは対応する領域または近傍の領域の強度は、上記基準画像の決定済み平均輝度値と上記処理済み画像の強度値とを組み合わせることで調節される。
また本発明に依れば、上記方法およびシステムは、コントラスト比較が実施される前に各センサ画像の夫々の部分をフィルタリングすべく実現される。
以下における本発明の実施例の説明においては、本発明の一部を構成すると共に本発明が実施され得る特定実施例が例示される添付図面を参照されたい。本発明の有効範囲から逸脱せずに構造的変更が為され得ることから、他の実施例が利用され得ることは理解される。
図1を参照すると、航空機におけるコクピットからの場景、すなわち、センサ100、102およびプロセッサ110およびディスプレイ120を有する本発明のシステムSが示される。センサ100、102は、たとえばコンピュータ、マイクロコントローラまたは他の制御要素もしくはシステムであるプロセッサ110に対して夫々の画像データもしくはストリーム104、106(すなわちセンサ画像またはソース画像)を提供する。上記各センサは、同一の重複する波長もしくは異なる波長を検出し得る。更に、上記各センサはまた、同一の視野すなわち重複する視野も検出し得る。
プロセッサ110は、各画像104、106からの領域を選択的に組み合わせて処理済み画像または融合画像115とすべくプログラムされる。より詳細にはプロセッサ110は、各画像104、106の領域を比較し、且つ、たとえば各センサ画像の明るい領域と暗い領域との間の明るさの見かけ上の差を表すコントラスト値の比較などの選択判定基準に基づき、画像領域を選択する。上記プロセッサは、限定的なものとしてでは無く、夫々の比較に関して大きい方のもしくは最大のコントラスト値などの異なる選択判定基準を考慮すべくプログラムされ得る。故に上記処理システムは本質的に、一個以上のまたは全ての画像から、上記選択判定基準に基づき望ましい選択肢に係る単一もしくは複数の領域を抽出する。選択された各領域は相互にピース化されて融合画像115を形成する(パズルの各ピースが複数個のソースから選択され得ることを除き、ジグソーパズルが複数個のピースから形成されるのと酷似している)。上記“パズル・ピース”または画像領域は、単一の画像、上記画像の内の幾つかの画像、または、上記画像の全てに由来し得る。その場合に融合画像115は視覚ディスプレイ120を介してパイロットもしくはユーザに呈示される。上記融合画像はまた、更なる処理のために画像プロセッサもしくはコンピュータにも提供され得る。
図1は航空機におけるシステムSの適用を示しているが、当業者であれば、以下に記述される如く上記システムは他の多くの移動体に適用されて種々の用途で使用され得ることを理解し得よう。
図2乃至図4のフローチャートには、画像104、106の部分を融合してもしくは選択的に組み合わせて処理済み画像115とする技術が示される。図2に示された如く、ステップ200において各センサは画像を生成し、且つ、画像データはプロセッサに対して提供される。ステップ202において、所望であれば各画像領域は、処理からの排除のために、処理済み画像からの排除のために、または、処理済み画像に対する寄与を低減するために、フィルタリングされ得る。ステップ204においては、各センサ画像の対応領域のコントラスト値が比較される。ステップ206においては、一定のコントラスト値を選択もしくは特定するために上記選択判定基準が適用される。システムSの実施例において上記選択判定基準は、大きい方のもしくは最大のコントラスト値の選択もしくは特定とされ得るが;単一もしくは複数個の上記選択判定基準もしくはプロセスはシステムSの別実施例においては、該システムが如何に利用されるかに依存して全てが異なるものとされ得る。ステップ208においては、選択されたまたは特定されたコントラスト値に対応する画像領域が特定もしくは選択される。ステップ210においては、選択された画像領域が組み合わされ、すなわち、効率的に“相互にピース化”されて融合画像もしくは処理済み画像が形成される。次にステップ212においては、所望であれば、処理済み画像または融合画像の強度もしくは輝度が調節もしくは補正されて更に明瞭な画像が生成される。
図3は更に、ステップ204すなわちコントラスト値を比較する段階を示している。ステップ300においては、各センサ画像が複数個の画像領域へと分割される。次にステップ302においては、各センサ画像に対するコントラスト・マップが生成される。各コントラスト・マップは、定義された各画像領域に対するコントラスト値を含む。ステップ304においては、ひとつのセンサ画像の画像領域のコントラスト値が、他の単一もしくは複数個のセンサ画像の対応画像領域のコントラスト値と比較される。この点に関して使用される対応画像領域とは、少なくとも重複するセンサ画像を指している。たとえばひとつのセンサ画像の視野が飛行場の滑走路を含むなら、このセンサ画像は、別のセンサ画像も同一の飛行場滑走路を含むならば該センサ画像の視野と“重複”する。もし上記2つのセンサ画像の視野が相互に同一(もしくは略々同一)であれば、各画像は(略々)100%重複すると見做される。
次に図4を参照すると、ステップ212すなわち融合画像の強度もしくは輝度の調節段階が更に詳細に示される。ステップ400においては、ひとつのセンサ、すなわち輝度値が整合されるべきセンサが基準センサとして選択される。次にステップ402においては、上記基準センサの画像を縦断して該画像の各画像領域(たとえば断面的ライン)の平均輝度もしくは平均強度が決定される。次にステップ404においては、融合画像もしくは処理済み画像の一個以上の領域の強度が、上記で決定された平均輝度値と該融合画像の強度値とを組み合わせて調節されることで、輝度補正済み融合画像が形成される。上記強度調節は、同一領域、または、近傍のもしくは追随する領域に対して適用され得る。たとえば上記調節は、強度が決定されたものと同一のラインまたは近傍のもしくは追随するラインに対し406、あるいは、上記融合画像における近傍のもしくは追随する領域もしくはラインに対し408、適用され得る。
当業者であれば、上記画像融合方法およびシステムは複数個の画像を処理する多くの異なる環境および用途において使用され得ることを理解し得よう。たとえば(飛行機、ジェット機、ヘリコプタなどの)航空機の他にも、上記方法およびシステムは船舶、自動車または列車などの他の移動体において実現され得る。更に上記画像融合方法およびシステムは、(たとえば超音波、赤外線、レーザ画像化もしくはトモグラフィ・センサなどを用いる)医療器具、および、監視システムからの画像を表示すべく使用され得る。実際、各センサ画像からの適切な情報もしくは情報の選択肢を含む処理済み画像または融合画像を形成するという画像領域の上記選択的融合によれば、多くの用途が恩恵を受け得る。
但し、説明を目的として本明細書は基本的に航空機に関連する画像に言及する。斯かる画像は、航空機の着陸、地上走行、離陸または巡航と、シーフィット(Controlled Flight Into Terrain (CFIT))を防止する用途とに関連し得る。上記システムが航空機用途において如何に使用され得るかの特定例として、本明細書はレーダセンサおよびIRセンサにより生成された画像の処理に言及する。但し、説明される如く、多くの異なる形式、個数および組み合わせのセンサおよびセンサ画像が処理され得る。故に本明細書において説明される例示的なシステムおよび方法は、多くの異なる用途に対して使用され得る。
画像およびセンサ
次に図5A乃至図5Cを参照するとセンサ100、102は、たとえば図5A乃至図5Bに示された画像500、510などの夫々の画像104、106を生成する。一方もしくは両方の画像の選択領域が使用され、すなわち効果的に相互に結合もしくはピース化され、たとえば図5Cに示された融合画像520などの融合画像もしくは処理済み画像115が形成される。ソース画像の内容に依存し、たとえば図11A乃至図11Bに関して後に説明される如く、上記融合画像を更に処理することが望ましいこともある。
より詳細には図5Aは、赤外線(IR)センサにより生成された滑走路の画像500を示している。上記IRセンサは、たとえば0.8〜2μm、3〜5μm、8〜12μmまたはそれらの組み合わせおよび拡張などの種々のIR波長範囲にて動作し得る。使用され得るIRセンサのひとつの例は、マサチューセッツ州、レキシントンのビーエーイー・システムズ(BAE SYSTEMS)から入手可能な赤外線画像化システムである。図5Bは、同一であるか又は殆ど同一の滑走路場面であるが画像510はレーダセンサにより生成されたという同一の滑走路を示している。レーダセンサは、X、K、Kaまたは他のバンドレーダ・センサとされ得る。本発明と共に使用される適切なレーダセンサはたとえば、カリフォルニア州、サンタモニカのビーエーイー・システムズから入手可能な航空機制御器である。
この場合、IRセンサおよびレーダセンサは両者とも概略的に、両方の視野において視認可能な対象物もしくは状態が一方のセンサよりも他方のセンサにより更に良好に検出され得る如く、同一のもしくは重複する視野を提供する。当業者であれば、後に記述される如く、上記システムおよび方法は異なる度合いの重複もしくは視野による画像に対して適用され得ることを理解し得よう。更に、記述される実施例はレーダおよびIRによるセンサおよび画像を含むシステムの特定例を提供するが、異なる形式、個数および組み合わせのセンサおよび画像が利用され得る。たとえば上記システムは紫外線(UV)センサと共にでも使用され得るが、ひとつの例示的なUVセンサはカリフォルニア州、サニーベールのパルニクス・アメリカ社(Pulnix America, Inc.)から入手可能である。更に、上記各センサの一方は、限定的なものとしてではなく10、35、76、94および220GHzなどの種々のRF帯域で動作する画像化レーダまたは放射測定器などの能動的もしくは受動的な無線周波数(RF)システムに基づき得ると共に、斯かるセンサの一例はカリフォルニア州、レドンドビーチ(Redondo Beach)のティーアールダブル社(TRW Inc.)から入手可能である。更なる例として、センサは、ウィスコンシン州、ウォーキシャ(Waukesha)のジェネラル・エレクトリック・メディカル・システムズ・ディビジョン(General Electric Medical Systems Division)から入手可能な医療用画像化用途で利用される超音波センサなどの超音波センサとされ得る。センサはまた、たとえば低レベルの光で視認可能な帯域センサ、荷電結合素子(CCD)、または、自然のもしくは人工的な照明を使用し得ると共にニュージャージー州、セコーカス(Secaucus)のパナソニック社(Panasonic Inc.)から入手可能なカラーもしくはグレースケール用カメラなどの、可視帯域センサともされ得る。
更に上記画像融合システムは、たとえば3個、4個または他の個数のセンサなどの複数個のセンサからの画像を処理すべく構成され得る。センサのひとつの可能的な組み合わせとしては、2個のIRセンサおよび1個のレーダセンサが挙げられる。全てのセンサからの画像は、まとめて処理され且つ選択的に組み合わされて処理済み画像とされ得る。たとえば画像A、BおよびCが選択的に組み合わされて処理済み画像または融合画像Dとされ得る。代替的に2個のセンサ画像が処理され、その結果が第3のセンサ画像とともに処理されることで、処理済み画像もしくは融合画像またはその代表的なコントラスト・マップが形成され得る。たとえば画像AおよびBが組み合わされて画像Cもしくは中間コントラスト・マップCとされ、これは引き続き画像Dもしくはコントラスト・マップDと選択的に組み合わされることで、融合画像Eもしくは更なる中間コントラスト・マップが形成され、全ての画像が処理されて融合画像が形成されるまで、以下同様である。実際、所望に応じてまたは必要に応じて、異なる個数のセンサ画像の異なる組み合わせは、異なる反復回数の比較により処理され得る。
センサの形式の選択は、そのセンサが使用される条件および環境に依存し得る。前述された如く、ひとつの環境に対してはひとつの形式のセンサが更に適切であり得る一方、異なる環境に対しては別のセンサが更に適切であり得る。より詳細には、一定の形式のセンサは、環境が昼光、夜間、霧、雨などであるかに依存し、且つ、画像が遠距離もしくは近距離であるかに依存し、更に明瞭な画像を提供し得る。たとえばレーダセンサは典型的に霧の条件ではIRセンサと比較して更に良好な画像を提供するが、IR画像の写真的品質は欠如し得る。
画像領域のコントラスト値の比較
画像領域のコントラスト値は、各画像を夫々の領域へと分割し、定義された領域に基づいてコントラスト・マップを生成し、且つ、単一もしくは複数個の選択判定基準を用いて対応するコントラスト・マップ値を比較することで、比較される(ステップ204)。上記比較は、関連する各画像領域の比較を許容すべく配置された単一もしくは複数個の整列されたもしくは事前位置合わせされた画像に基づく。故に、もし重複しない各画像が処理されるなら、以下において更に詳細に記述される如く関連する各領域が比較される如く、それらの画像は事前位置合わせもしくは整列される。次にコントラスト値は、たとえば大きい方のもしくは最大のコントラスト値を優先する選択判定基準に基づき選択される(ステップ206)。たとえば、一時的な残光、明るさ、色などの他の選択判定基準も利用され得る。
画像から領域への分割
最初に、センサ画像は図6A乃至図6Fに示された如く画像領域へと分割される。画像は、ピクセル600a−b、6001a−b毎に(図6A乃至図6B)またはピクセル群602a−b、604a−b毎に(図6C乃至図6D)分割され得る。ピクセルもしくはピクセル群は、モノクロ画像すなわち異なるグレーの陰影(グレースケール)を表すことで異なるレベルの強度を有する画像を表すべく、“ブラックまたはホワイト”とされ得る。ピクセルもしくはピクセル群はまた、カラー画像の一部を形成すべく活用される赤、緑および青のドットも有し得る。更に各画像領域は、任意の形状とされた領域もしくは境界を有する画像領域606a−b、608a−b、610a−b、612a−bとして定義され得る(図6E乃至図6F)。結果として、各センサ画像における各領域に関し、ひとつの画像領域は別の対応画像領域と比較され得る。たとえば図6A乃至図6Bを参照すると、領域600a(x1=1、y1=12)は領域600b(x2=1、y2=12)と比較可能であり;且つ、領域601a(x1=17、y1=10)は領域601b(x2=17、y2=10)と比較可能である。
説明を目的として、図5A乃至図5Bと、図6A乃至図6Fに示された関連例示画像領域とは、たとえば整列もしくは事前位置合わせされたピクセル、ピクセル群または任意形状領域などの様に概略的に整列もしくは事前位置合わせされた画像領域を備えた同一のもしくは本質的に同一の画像を包含する。換言すると図5A乃至図5Bは、重複する画像(100%重複)、または、高度に重複した画像(ほとんど同一のセンサ画像)を示している。結果として図6A乃至図6Fの画像領域は、一連の対応画像領域において相互に整列される。故に、(たとえば樹木607などの)対象物は各センサ画像内で殆ど同一の相対位置に在ることから、各センサ画像が如何にして画像領域へと分割されるかに関わりなく、両方のセンサ画像の同一の画像領域内に位置する。
但し当業者であれば、上記システムおよび方法は、センサの配置個所、位置、視野および検出機能に依存して、異なる個数、形式、および、異なる重複度合いのセンサ画像の組み合わせと共に利用され得ることを理解し得よう。異なる重複度合いを伴う場合に上記各画像領域は、比較が実施され得る如く整列もしくは事前位置合わせされ得る。
たとえば各センサは、図5A乃至図5Bに示された滑走路場面などの様に本質的に同一の画像を検出すべく相互に接近して(たとえば航空機の前部または底部の近傍に)位置され得る。結果として、同一もしくは同様の各画像内における画像領域は概略的に、図6A乃至図6Fに示された如く対応様式で相互に整列される。これらの場合において、選択プロセスまたは判定基準が適用される各画像領域(または、処理済み画像の形成における選択および使用に対して“競合”する各画像領域)は、図6A乃至図6Fにおいて整列された画像領域の全てであると見做され得る、と言うのも、上記各画像は概略的に一対一の境界および視野だからでる。
更なる例として、ひとつのセンサは第1画像を検出し得る一方で別のセンサは上記第1画像の殆どを検出し得るが付加的な状況要素も検出し得る。これはたとえば、各センサが相互から離間して位置され、または、異なる視野を有すべく位置されたときに生じ得る。この場合に上記選択プロセスは、重複する各領域の幾つかもしくは全てに対して適用され得る。各画像領域は、コントラスト比較などの選択プロセスもしくは判定基準の適用により処理される。競合する各領域は比較され、各画像領域が選択されて処理済み画像または融合画像が形成される。重複しないもしくは競合しない画像領域は、たとえばソース画像および融合画像もしくは処理済み画像の品質、センサの形式、および、ユーザおよびシステムの要求内容などに依存して異なる様式で処理され得る。たとえば非重複の画像はフィルタまたはバックグラウンドとして、処理済み画像に加えられ得る。代替的に非重複領域は、処理済み画像または融合画像における包含から廃棄もしくは除外され得る。一定の場合、特定のシステムおよび用途に依存して、重複領域は処理されなくても良い。
故に上記方法およびシステムは、異なる重複度合いを有する画像、および、異なる整列度合いを有する画像領域と共に利用され得る。重複および整列の変形例は、異なる検出機能および位置を有するセンサから帰着し得る。但し説明を目的として本明細書および支援図は、整列されて大きな重複度合いを有する対応画像領域を有する画像を参照かつ図示している。結果として、各画像領域の殆どもしくは全ては競合画像領域であり、上記選択判定基準により処理される。但し上記方法およびシステムは、異なる重複度合い、整列および対応性を有する他の画像領域構成を処理すべく構成され得る。
コントラスト・マップの生成
図7A乃至図7Bに示された如く、コントラスト・マップ700、710は夫々レーダ画像およびIR画像に対して生成される。各コントラスト・マップは、そのコントラスト・マップ内において各々定義された画像領域に対するコントラスト値を含む。レーダセンサおよびIRセンサを用いる上記例を続けて説明すると、図7Aは、当該レーダ画像の分割による画像領域の各々に対するコントラスト値を含むレーダ画像に対するコントラスト・マップ700を示している。同様に図7Bは、当該IR画像の分割による画像領域の各々に対するコントラスト値を含むIR画像に対するコントラスト・マップ710を示している。本発明によれば、コントラスト・マップ700および710の各々には任意数の画像領域が存在可能であるが、斯かる個数は好適には等しくされるべきであり、且つ、レーダセンサおよびIRセンサが100%重複する画像を提供する場合に各画像領域は対応する。
この例示的なレーダ・マップに対し、画像/マップの概略的な頂部および底部部分702、706におけるコントラスト値は比較的に低い値であり、且つ、概略的中央部分704におけるコントラスト値は比較的に高い値である。例示的なIRマップに対し、概略的な中央部分714におけるコントラスト値は比較的に低い値であり、且つ、概略的な頂部および底部部分712、716におけるコントラスト値は比較的に高い値である。
本発明によれば、各画像領域に対するコントラスト値を含むコントラスト・マップは、たとえば適切なカーネル(kernel)を有する畳み込み(convolution)を介して生成される。2次元(3×3)の正規化畳み込みカーネルにおいて利用され得るひとつの例示的な畳み込みおよびカーネル:
Kc*S1(x,y),Kc*S2(x,y)
式中、*は畳み込みを表現し、
Figure 2005537545
であり、
x、yは夫々、0から画像幅(w)および画像高さ(h)に亙る画像の空間座標であり、
S1は、たとえばミリワット・レーダ画像ストリームなどの第1センサ画像であり、且つ、
S2は、第1もしくはレーダ画像と空間的に事前位置合わせもしくは整列されたIR画像ストリームなどの第2センサ画像である。
例示的カーネルKcは、その中心からの距離測定値を反映する値を含む。コントラスト・マップは、畳み込みの結果として各画像の夫々の画像領域に対するコントラスト値を含んで生成される。
上記プロセッサは、C言語もしくは別のプログラミング言語を以て、または、専用の集積回路ハードウェアにおいて、上記畳み込みを実行し得る。上記畳み込みのリアルタイムの実施は、デジタル信号プロセッサ(DSP)、フィールド・プログラマブル・ゲート・アレイ(FPGA)、特定用途集積回路(ASIC)または他のハードウェア式手段を用いて行われ得る。
コントラスト値の選択
図8A乃至図8Bは、図7A乃至図7Bのコントラスト・マップにおけるコントラスト値の比較時に実施された選択判定基準に基づき選択されて処理済み画像の形成において使用されるピクセル値を示している。レーダ画像の画像領域とIR画像の対応画像領域との間の各コントラスト値の大きい方を選択すべく選択判定基準が作用するというこの例において、図8Aは、図7Aの選択(レーダ)コントラスト値のピクセル値であって上述された如く概略的にレーダ画像の中央部分800に位置するピクセル値を示している。同様に、同一の選択判定基準の下で作用するシステムSによれば、図8Bは、図7Bの選択(IR)コントラスト値のピクセル値であって上述された如く概略的にIR画像の頂部および底部部分810および820に位置するピクセル値を示している。
選択されたコントラスト値に関連する各画像領域は、各画像から選択されてから、その様に選択された他の画像領域と組み合わされ(もしくは“相互にピース化され”)、たとえば図5Cに示された融合画像などの処理済み画像または融合画像が形成される。故にこの例において、最大コントラスト値に基づき画像領域を選択する判定基準は以下の如く表現され得る:
Fmax-con(x,y)=max{Kc*S1(x,y),Kc*S2(x,y)}
式中、“最大値判定基準”演算は、たとえば一個以上のピクセルもしくは任意形状領域などの様に領域毎に基づいて実施される。故に最大コントラストに基づく画像領域の選択は本質的に、異なる画像からの画像領域の組み合わせ又は上位集合を含む融合画像に帰着するピクセル・バルブの役割を果たす。上記選択プロセスの結果として上記各画像領域は全て、各画像の内容およびコントラスト値に依存して、単一の画像から又は複数個の画像から選択され得る。幾つかのセンサ画像は、融合画像もしくは処理済み画像に対して何らの画像領域も寄与しないこともある。たとえば、特定もしくは選択されたコントラスト値の全てを第1画像が有するなら、処理済み画像または融合画像はその第1画像と同一である。更なる例として、もし各コントラスト値が第1画像ではなく第2および第3画像から選択されるなら、融合画像は第1画像ではなく第2および第3画像からの領域を含む。故に、画像領域A、BおよびCを有する処理済み画像において、画像領域Aはセンサ画像1から、画像領域Bはセンサ画像2から、且つ、画像領域Cはセンサ画像3からとされ得る。
畳み込みの適用を包含する前述の例は、2つのコントラスト・マップの生成に帰着する。実際、複数回の比較もしくは複数個のセンサ画像における使用のために複数個のコントラスト・マップを生成すべく、他の回数および組み合わせの畳み込みが実施され得る。たとえば図9を参照すると、画像900〜902は、夫々のセンサから生成される。夫々の画像900〜902のデータに対しては適切なカーネル910〜912により畳み込みが適用され、以下の如く夫々のコントラスト・マップ920〜922が生成される:
Kc*S1(x,y),Kc*S2(x,y),Kc*S3(x,y)
式中、第3センサS3もまた例えばIRセンサである。当業者であれば、同一のもしくは異なるセンサと共に異なるカーネルが使用され得ることを理解し得よう。故に、3つの畳み込みを含むプロセスは、例えば3つの異なる畳み込みカーネルを使用し得る。
次に、3個の画像の対応コントラスト値が比較930され、選択判定基準に基づきコントラスト値が選択940される。選択945された画像領域は、選択されたコントラスト値に対応する。最大コントラスト値判定基準に基づく画像領域の選択は以下の如く表現され得る:
Fmax-con(x,y)=max{Kc*S1(x,y),Kc*S2(x,y),Kc*S3(x,y)}
一個以上のセンサ画像から選択された選択領域は次に相互にピース化され、処理済み画像または融合画像950が形成される。故にこの例においては、対応コントラスト値の全てが相互に比較され(3個のコントラスト値が同時に比較され)、最大コントラスト値を有する画像領域が選択される。
代替実施例においては畳み込みの複数回の反復が実施されることで夫々のコントラスト・マップが生成され得るが、それらの値は反復して比較されることで最終的に処理済み画像が形成される。たとえば図10を参照するとコントラスト・マップ920〜922は、先に記述された如く畳み込みおよび適切なカーネル910〜912を介して、各画像900〜902に対して形成される。但し、各コントラスト・マップの対応値の全てを相互に比較する代わりに、可能的には異なるコントラスト選択カーネルを利用してコントラスト・マップ比較の反復が実施される。
故にたとえば、コントラスト・マップ920および921におけるコントラスト値の比較1000が実施される結果、たとえば大きい方のまたは最大のコントラストなどに基づき一群のコントラスト値1010が選択される。選択されたコントラスト値は選択的に組み合わされることで、中間的な画像もしくはコントラスト・マップ1030が形成される。
コントラスト・マップ1030における各コントラスト値は次に、第3画像902からのコントラスト・マップ922におけるコントラスト値と比較1040される。上記コントラスト値が選択もしくは特定1050されると共に、選択された各コントラスト値に対応する画像領域が選択1055される。各選択領域は、処理済み画像または融合画像1060を形成する。当業者であれば、同一のもしくは異なる畳み込みカーネルにより、異なる個数のコントラスト・マップに対する異なる回数の反復もしくは比較が実施され得ることを理解し得よう。故に本発明の処理システムおよび方法は、種々の用途に対して畳み込みを用いて適合可能である融通性の高い画像融合法を提供する。
融合画像の輝度補正
所望であれば融合画像の輝度もしくは明るさは、利用されるセンサの形式および結果的なセンサ画像および融合画像の品質に依存し、補正もしくは調節され得る。輝度補正は特に、融合画像がパイロットに対して十分に明瞭でないときに有用である。
図5Cに示された如く、レーダ画像およびIR画像を含む例においては融合画像中に顕著なアーチファクトが存在し得る。該アーチファクトは融合画像の明るさもしくは輝度が一貫していない結果であり、融合画像を縦断する不連続な輝度に帰着する。この特定例において、レーダ画像から選択された高コントラストの領域(この例においては中央の水平バンド)は概略的に、IR画像からの高コントラスト領域よりも暗い。結果的な処理済み画像または融合画像の輝度分布は、2つの入力センサの輝度間で異なっている。たとえば上記画像の中心を縦断する更に暗いバンドは概略的にレーダ画像から選択されており、該レーダ画像はその領域において、IR画像よりも高コントラストを有するが輝度は更に低い。これにより、融合画像の全体的な明瞭性が低下する。
融合画像内における輝度分布が調節されることで、更に明瞭な融合画像が生成され得る。輝度調節は、基準センサにより生成された画像の各領域における平均輝度値を決定し、且つ、対応する決定済みの値に基づき融合画像の各領域の輝度を調節することで実施される。図5Aおよび図5Bの例示的な画像において輝度調節技術は、予測される様に(たとえば何らの特定の仰角にて上記画像を縦断するという)任意の水平断面ではなく、(たとえば空から水平線を通り前景に至る)センサ画像の垂直断面内で典型的に変化する輝度に基づく。
基準センサ
輝度補正は、基準センサとしてひとつのセンサを選択し、且つ、基準センサの輝度分布に整合もしくは近似されるべく融合画像の輝度を調節することで実施され得る。上記基準センサは、任意に選択され、または、特定状況におけるセンサの期待された有用性に基づき得る。たとえばレーダセンサは概略的にIRセンサよりも、低視認性の条件において更なる画像詳細を提供する。しかしIRセンサは典型的に、少なくとも近距離において更に自然なまたは写真的な画像を提供する。
説明を目的として本明細書は、当該センサからの画像の自然に見える特性を捕捉すべく、輝度分布に対する基準センサとしてIRセンサI(x,y)を記述する。但し、レーダセンサまたは他のセンサが基準センサとされ得る。
平均輝度の決定
輝度の調節は、たとえば場面の水平線に平行な各画像断面に沿う細長領域などの様に特定の画像領域において基準センサの平均強度を決定する段階を含む。場面の水平線とは、“実際の”現実世界の水平線を指す。場面の水平線は、航空機のロール、バンクまたは他の動作の間においては画像水平線に対して所定角度となることもある。
基準センサ画像の斯かる細長領域の各々の平均輝度が決定される。次に、上記決定から獲得された各輝度値は、融合画像の対応細長領域の各々に対して加算され、融合画像の輝度が調節される。更に、必要であれば、輝度の度合いは特定の輝度調節効果のために重み付けされ得る。加重値λは輝度補償の効果を減ずるべく使用され得るが、殆どの状況において十分に明瞭に調節された融合画像を提供すべくλ=1の値が決定された。
故に、融合画像において輝度が調節される様式は、以下の如く表現され得る:
Figure 2005537545
式中、
F(x,y)は、融合画像の各輝度値であり、
λは、異なる度合いの輝度調節に対する重み係数であり、
wは、x=0からx=wまでの画像の幅であり、且つ、
LC(x,y)は、輝度補償された融合画像である。
当業者であれば、上記基準センサ画像は、水平断面の他にも異なる断面に沿い、且つ、該画像を縦断する細長領域の他にも異なるセグメントを以てサンプリングされ得ることを理解し得よう。断面およびサンプリングの選択は、センサの形式、センサ画像、画像の配向、および、上記システムまたは方法の用途などの種々の要因に依存し得る。但し説明を目的として本明細書は、基準センサ画像の細長領域の断面的サンプリングと、処理済み画像における対応細長領域の補正とに対して言及する。
図11には、輝度調節の適用例が示される。輝度補正の以前において融合画像1100に描かれた滑走路場面は、処理済み画像または融合画像を歪曲する多くのアーチファクトを含む。結果として上記滑走路場面は、特に上記画像の中央部分において幾分か不明瞭である。画像1110は、輝度補正の後であって基準センサとしてIRセンサを選択した同一の画像1100を表している。
(輝度補正の前の)画像1100と(輝度補正の後の)画像1110とを比較することで理解され得る如く、輝度が補償された画像は上下方向においてそれほど目立たない輝度変動を例証しているが、斯かる輝度変動はそうでなければノイズの多い画像を生成する傾向がある。結果は、更に明瞭な処理済み画像または融合画像である。
融合画像の輝度補正は、該融合画像の異なる細長領域または領域を補正することで実施され得る。たとえば上記基準センサの平均輝度は、基準センサ画像における画像ラインもしくは細長領域に対して決定される。上記基準センサ画像から決定された平均輝度値は、たとえば前述された輝度調節式により処理されて、対応する融合画像ラインまたは細長領域における各ピクセルに加算される。
代替実施例において処理効率は、基準センサ画像の一本のラインからの平均のもしくは決定された輝度値を用い、且つ、基準センサ画像において決定されたラインに対応する処理済み画像または融合画像中のラインの近傍における該融合画像中のライン(たとえば対応する決定済みラインの上方もしくは下方における次のライン)に対して該輝度値を補正値として適用することで高められ得る。輝度値を次のラインに適用することは概略的に容認可能である、と言うのも、順次的な各画像ライン間にて平均値は典型的にはそれほど変化しないからである。但しこの技術は、輝度の変動に依存して、対象ラインの上方もしくは下方における次のラインを、または、基準ラインから離間された所定数のラインを調節するために適用され得る。
輝度補正はまた、航空機が片側へとロールもしくはバンクしたときなどにおいて場面の水平線が画像の水平線と平行でない状況にも適合され得る。この場合に場面の水平角および仰角は概略的に、航空機の方位センサから知られる。輝度補正値は基準センサから計算され、2次元のルックアップ・テーブルとして記憶され得る。上記ルックアップ・テーブルから求められた補正値は、ピクセル毎の様式で融合画像に適用される。もし画像全体のルックアップ・テーブルに対して十分なメモリ記憶資源が利用可能ならば、待ち時間および処理時間を最小化するために、先のフレームの間に計算された値に基づくテーブル値が現在のフレームに対して適用され得る。これらの要件は、たとえば8ビット/ピクセルのセンサに対する320×240バイトの画像フレーム・サイズ、または、各センサにより生成される画像の詳細に依存する他のサイズに略々等しくされ得る。
センサ画像の空間的な事前フィルタリング
センサ画像の各領域もしくは各部分もまた、コントラスト値の比較および選択判定基準の適用の処理を簡素化するためにフィルタリングされ得る。フィルタリングされた領域は、融合画像に対する該領域の寄与を低減するために1より小さい数として、または、融合画像に対する寄与を全て除去することで処理時間を簡素化かつ短縮するためにゼロとして、表され得る。
フィルタリングされ得る画像領域としては、たとえばレーダセンサの場合にはレーダ地上探知範囲(radar horizon)の上方の領域の様に融合画像に含まれないであろう画像の部分が挙げられる。もしレーダセンサが利用されるなら典型的に、レーダ地上探知範囲の上方(すなわちレーダセンサの検出限界外)には有用な情報は無く、且つ、(少なくとも更なる高度における)近距離場に情報は殆どもしくは全く無い。IRセンサは典型的に、センサが雨もしくは霧などの障害物を貫通し得ないことから遠距離場が検出され得ないという天候状態において特に、短距離(近距離場)にて最も効率的である。故に例示的なレーダセンサおよびIRセンサによれば、レーダ地上探知範囲の上方および近距離場におけるレーダ画像領域は事前フィルタリングされ得ると共に、遠距離場におけるIR画像領域が事前フィルタリングされ得る。他のフィールドおよび領域は、各センサ、それらにより生成された結果的な画像、および、ユーザもしくはシステムの要求内容に依存し、フィルタリングに適することもある。
図12A乃至図12Bには、概略的な空間フィルタが示される。図12Aは、レーダセンサにより生成された画像に対するフィルタを示している。特に該フィルタは、レーダセンサの効率が低い箇所すなわちレーダ地上探知範囲1200の上方と近距離場1204とにおける情報を除去する一方、残りのレーダセンサ情報1202を通過させてコントラスト・マップに含まれることを許容する。フィルタリングされたデータは、更に暗い領域1200、1204として表される。同様に図12Bにおいてフィルタは、IRセンサの効率が低い箇所すなわち遠距離場1212における情報を除去する一方、残りの情報1210および1214を通過させてコントラスト・マップに含まれることを許容する。図12A乃至図12Bは本質的に殆ど相補的なフィルタを示しているが、当業者であれば、種々のセンサ/画像の組み合わせによれば必ずしもそうでないことは理解し得よう。異なるセンサは、異なるフィルタ関数を必要とし得る。
画像領域をフィルタリングするひとつの技術は、空間依存型のαおよびβ重み付け関数を選択することで実施される。レーダ画像およびIR画像を含む例を続けて説明すると、上記重み付け関数は、レーダ信号が最も強い箇所における領域ではレーダ画像の寄与を優位とし、且つ、その他の箇所ではIR信号を優位とすべく選択され得る。
上記重み付け関数は、たとえば以下の如き1次元のガウス重み付け関数などの様に、不必要なアーチファクトを導入しない空間フィルタもしくは他の平滑化関数を介して実現され得る:
Figure 2005537545
式中、
αMおよびαIは、上記ガウス関数の最大振幅を決定し(通常は1であるが、一方のセンサを優位とすべく、または、基礎値pMおよびpIを補償すべく他の値も使用され得る)、
MおよびbIは、ガウス関数の幅、すなわち、センサの関心領域、または、センサ情報が群化する領域を決定し、且つ、
0は、必要に応じて画像内でガウス関数の中心を垂直方向に上下させる。
図13A乃至図13Bには、斯かる重み付け関数の更に詳細な例が示される。図13A乃至図13Bは、レーダセンサおよびIRセンサの夫々に対する例示的なフィルタ透過度分布のプロット1300、1310を示している。各プロット1300、1310において横軸もしくは“x”軸は、対応する画像に沿うラインもしくは断面を表す。縦軸もしくは“y”軸は、フィルタの透過もしくは伝達能力を表す。
図13Aを参照するとフィルタ・プロット1300は、対応する図13Cにおける垂直位置の関数としてのフィルタ重み付けを示している。該プロットは、伝達の値、割合もしくは比率を示している:0.0(データは伝達されない)、0.2、0.4、…、1.0(データは全て伝達される)。故にこの例示的フィルタは、レーダ画像の効率が少ない部分、すなわちレーダ地上探知範囲1320の上方と近距離場1324とにおける各部分を強調停止すべく設計される。結果として、大きな伝達比率(すなわち1.0)を有するフィルタは、レーダ画像の最も効率的な部分すなわち画像1322の遠距離場もしくは中央区画の部分に対して適用される。
特に、レーダ・フィルタの一例は、完全コントラスト・サイクルにより構成される:画像の中央における最大値にては100%の透過度、および、画像の上下の縁部にては0%。例示的なフィルタ1300は、50ピクセルの標準偏差を以て構成される。使用されるセンサと所望されるフィルタリング効果とに依存し、異なるフィルタ構成および機能が利用され得る。
図13Bは、対応する図13Dにおける垂直位置の関数としてのフィルタ重み付けを示している。このフィルタ1310は、IRフィルタの効率が少ない部分、すなわち、中央画像もしくは遠距離場バンド1332を強調停止し、且つ、更に強い領域1330、1334を強調すべく設計される。例示的なIRフィルタは75%の最大コントラストを有し;それは画像の中央における約25%の透過度から上下の縁部における100%まで変化すると共に、フィルタ関数1300と同様に50ピクセルの標準偏差を有する。
この様にセンサ画像を重み付けすると本質的に、有用で適切な情報を含むが故に融合画像への包含の候補である画像領域が事前選択される。これに加え、情報が殆ど利用可能でない領域を除外することにより、処理時間は短縮され得る。
レーダ画像およびIR画像の例を続けて説明すると、図14A乃至図14Fには画像領域の事前選択もしくはフィルタリングが更に示される。
図14Aは、レーダセンサにより生成されたオリジナルのレーダ画像1400を示している。画像1400に見られ得る如く、中央領域1404すなわち遠距離場は、(レーダ地上探知範囲の上方の)領域1402および1406(近距離場)と比較して最も情報を包含している。図14Bはフィルタ1410を示している。該フィルタは、上記レーダ画像の領域1404に対応する高伝達区画1414と、レーダ画像の領域1402および1406に対応する低伝達区画1412および1416とを含む。故に上記フィルタは、レーダが最も効率的でない領域1402、1406を強調停止する。図14Cはフィルタ後レーダ画像1420を示しており、この場合には遠距離場もしくは中央領域1404が強調されて最も適切な情報が提供される。
同様に図14Dは、IRセンサにより生成されたオリジナルIR画像1430を示している。画像1430から理解され得る如く、(レーダ地上探知範囲の上方の)頂部領域1432および底部領域1436(近距離場)は、領域1434(遠距離場)と比較して最も情報を含んでいる。図14Eは、フィルタ1440を示している。該フィルタは、上記IR画像の領域1432および1436に対応する高伝達区画1442および1446と、上記IR画像の領域1434に対応する低伝達区画1444とを含む。故に上記フィルタは、IRの効率が低い領域1434を強調停止する。図14Fはフィルタ後IR画像1450を示しており、この場合にレーダ地上探知範囲の上方の領域1432および近距離場領域1436が強調され、最も適切な情報が提供される。
最適なフィルタリングのために上記重み付け関数は、特定システムの要求内容および設計態様に依存する状態もしくは動作パラメータを考慮すべきである。たとえば図15A乃至図15Eに示された如く、航空機の場合にフィルタリングは、場面の水平線の回転に帰着するという航空機のロールまたは他の動作もしくは配向の関数とされ得る。故にフィルタリングは、上記重み付け関数の配向により整合され得る。更に、フィルタリングは航空機のピッチおよび高度の関数とされ得るが、これらは両者ともに、有効なレーダ視野に影響し且つ典型的には重み付け関数の標準偏差および垂直位置に影響する。
故に、たとえば、図15Aはオリジナルのレーダ画像1500を示している。図15Bは、通常状態すなわち航空機ロールがないときの重み付けまたはフィルタ関数1510を示している。図15Cは、フィルタ後レーダ画像1520を示している。結果として、フィルタ1510およびフィルタリング済みレーダ画像1520の両者は場面の水平線に対して平行であり、一切の角度調節を呈しない。
図15Dは、約5°の航空機ロールを反映する重み付けまたはフィルタ関数1530を示している。より詳細には、上記フィルタの伝達部分は約5°だけ回転される。図16Eは、約5°の航空機ロールを考慮すべく約5°だけ回転されたフィルタ関数を反映するフィルタ後レーダ画像1540を示している。
事前フィルタリング、コントラストに基づく画像融合、および、輝度補正の組み合わせ
各センサ、および、センサおよび融合画像の結果的な品質に依存し、画像融合処理の一部として空間的事前フィルタリングおよび/または輝度補正プロセスが画像に対して適用され得る。
もしコントラストに基づく画像融合および輝度補正のみが実施されるなら、それらは通常は記述された順序で完了される。もし3つのプロセスが全て実施されるなら、典型的には空間的事前フィルタリングが最初に実施され、次にコントラストに基づくセンサ融合、最後に輝度補正が実施される。これらの順序は典型的には、処理時間を短縮し乍ら更に効率的な融合画像に帰着する。所望の輝度分布を最も厳密に達成すべく、且つ、引き続く処理の結果として画像輝度分布が変化することを防止すべく、輝度補正は通常は事前フィルタリングおよびコントラストに基づく融合の両者の後とすべきである。この様にしてこれらの技術を適用することで、パイプライン遅延およびデータ待ち時間が最小化されてシステム性能が強化される。これらの強化は特に、たとえば航空輸送、ループ中パイロット(pilot-in-the-loop)用途、または、リアルタイムの画像処理を使用する他の用途などの様に画像を必要とする時間集中的状況において有用であり得る。
上記記述においては好適実施例に対して言及が為されたが、画像処理システムを設計する当業者であれば、添付図面に関して権利請求された発明から逸脱せずに記述好適実施例に対して想起可能な改変、変更および置換が為され得ることを理解し得よう。
故に、上記好適実施例は基本的には航空機に関してレーダセンサおよびIRセンサからの2つの画像を処理するものとして記述されたが、当業者であれば、他の形式、組み合わせおよび個数のセンサからの画像が利用され得ることを理解し得よう。たとえば2個のセンサの代わりに、上記システムは3個、4個、5個または他の個数のセンサを以て実施され得る。更にレーダセンサおよびIRセンサの代わりに、上記システムは、異なる波長における同一形式の各センサ、紫外線(UV)センサ、能動的もしくは受動的な無線周波数(RF)システムに基づくセンサ;超音波センサ、低レベルの光で視認可能な帯域センサ、荷電結合素子(CCD)、または、カラーもしくはグレースケール用カメラからの画像を処理し得る。更に当業者であれば、本発明の画像融合システムおよび方法は航空機画像の処理以外の用途において使用され得ることを理解し得よう。たとえば上記システムおよび方法は、複数個の画像もしくはセンサを含む他の移動体、医療処置、監視、および、モニタリングおよび画像処理用途に関して使用され得る。付加的に、当業者であれば、コントラスト値の大きい方もしくは最大値が例示的な判定基準であるが、種々の選択判定基準もしくはプロセスに基づいて融合画像もしくは処理済み画像が形成され得ることを理解し得よう。
図1は、航空機などの移動体におけるプロセッサもしくはコンピュータと、2個のセンサと、ディスプレイとを含む本発明に係るシステムの一実施例の概略図である。 図2は、各センサにより生成された画像を処理して処理済み画像または融合画像を形成する各段階を示すフローチャートである。 図3は、コントラスト値が比較される様式を示すフローチャートである。 図4は、処理済み画像の輝度が調節される様式を示すフローチャートである。 図5A乃至図5Cは、レーダセンサ、赤外線(IR)センサの夫々の画像と、選択プロセスもしくは判定基準に基づきレーダ画像およびIR画像から選択された領域を含む処理済み画像とを示す白黒写真である。 図5A乃至図5Cは、レーダセンサ、赤外線(IR)センサの夫々の画像と、選択プロセスもしくは判定基準に基づきレーダ画像およびIR画像から選択された領域を含む処理済み画像とを示す白黒写真である。 図5A乃至図5Cは、レーダセンサ、赤外線(IR)センサの夫々の画像と、選択プロセスもしくは判定基準に基づきレーダ画像およびIR画像から選択された領域を含む処理済み画像とを示す白黒写真である。 図6A乃至図6Fは、ピクセル、ピクセル群、または、任意に定義された領域に基づくなどの様にひとつの画像を種々の画像領域へと分割する方法を示す図である。 図6A乃至図6Fは、ピクセル、ピクセル群、または、任意に定義された領域に基づくなどの様にひとつの画像を種々の画像領域へと分割する方法を示す図である。 図6A乃至図6Fは、ピクセル、ピクセル群、または、任意に定義された領域に基づくなどの様にひとつの画像を種々の画像領域へと分割する方法を示す図である。 図6A乃至図6Fは、ピクセル、ピクセル群、または、任意に定義された領域に基づくなどの様にひとつの画像を種々の画像領域へと分割する方法を示す図である。 図6A乃至図6Fは、ピクセル、ピクセル群、または、任意に定義された領域に基づくなどの様にひとつの画像を種々の画像領域へと分割する方法を示す図である。 図6A乃至図6Fは、ピクセル、ピクセル群、または、任意に定義された領域に基づくなどの様にひとつの画像を種々の画像領域へと分割する方法を示す図である。 図7A乃至図7Bは、各画像に対して生成されたコントラスト・マップを示す白黒写真である。 図7A乃至図7Bは、各画像に対して生成されたコントラスト・マップを示す白黒写真である。 図8A乃至図8Bは、選択判定基準に基づき図7A乃至図7Bのコントラスト・マップから選択されたコントラスト値を示す白黒写真である。 図8A乃至図8Bは、選択判定基準に基づき図7A乃至図7Bのコントラスト・マップから選択されたコントラスト値を示す白黒写真である。 図9は、複数個の画像のコントラスト値の全てを比較して処理済み画像または融合画像を形成するという複数個の画像の処理を示すフローチャートである。 図10は、コントラスト値の複数回の比較を実施して処理済み画像または融合画像を形成するという複数個の画像の処理を示すフローチャートである。 図11A乃至図11Bは、輝度補正の前後における処理済み画像または融合画像を示す白黒写真である。 図11A乃至図11Bは、輝度補正の前後における処理済み画像または融合画像を示す白黒写真である。 図12A乃至図12Bは、空間フィルタを概略的に示す白黒写真である。 図12A乃至図12Bは、空間フィルタを概略的に示す白黒写真である。 図13A乃至図13Bは、夫々、レーダおよびIRセンサに対するフィルタ・プロットを示す図である。 図13A乃至図13Bは、夫々、レーダおよびIRセンサに対するフィルタ・プロットを示す図である。 図14A乃至図14Fは、レーダ画像およびIR画像、フィルタ関数もしくは効果、および、レーダ画像およびIR画像に適用されたフィルタ関数を示す白黒写真である。 図14A乃至図14Fは、レーダ画像およびIR画像、フィルタ関数もしくは効果、および、レーダ画像およびIR画像に適用されたフィルタ関数を示す白黒写真である。 図14A乃至図14Fは、レーダ画像およびIR画像、フィルタ関数もしくは効果、および、レーダ画像およびIR画像に適用されたフィルタ関数を示す白黒写真である。 図14A乃至図14Fは、レーダ画像およびIR画像、フィルタ関数もしくは効果、および、レーダ画像およびIR画像に適用されたフィルタ関数を示す白黒写真である。 図14A乃至図14Fは、レーダ画像およびIR画像、フィルタ関数もしくは効果、および、レーダ画像およびIR画像に適用されたフィルタ関数を示す白黒写真である。 図14A乃至図14Fは、レーダ画像およびIR画像、フィルタ関数もしくは効果、および、レーダ画像およびIR画像に適用されたフィルタ関数を示す白黒写真である。 図15A乃至図15Eは、ロール効果を有する重み付け関数と有さない重み付け関数との比較を示す白黒写真である。 図15A乃至図15Eは、ロール効果を有する重み付け関数と有さない重み付け関数との比較を示す白黒写真である。 図15A乃至図15Eは、ロール効果を有する重み付け関数と有さない重み付け関数との比較を示す白黒写真である。 図15A乃至図15Eは、ロール効果を有する重み付け関数と有さない重み付け関数との比較を示す白黒写真である。 図15A乃至図15Eは、ロール効果を有する重み付け関数と有さない重み付け関数との比較を示す白黒写真である。

Claims (60)

  1. 夫々のセンサにより生成された複数個の画像を用いて処理済み画像を形成する方法であって、
    各画像を複数個の画像領域へと分割する段階と、
    各画像に対して、各画像領域に対するコントラスト値を含むコントラスト・マップを生成する段階と、
    上記コントラスト値に対して選択プロセスを適用し、処理済み画像において使用される画像領域を選択する段階と、
    選択された各画像領域により上記処理済み画像を形成する段階と、
    を備えて成る、処理済み画像を形成する方法。
  2. 前記各画像を複数個の画像領域へと分割する前記段階は、各画像を、ピクセル、ピクセルのブロック、または、任意形状領域へと分割する段階、を更に備えて成る、請求項1記載の方法。
  3. 前記コントラスト・マップを生成する前記段階は、畳み込みを実施して上記コントラスト・マップのコントラスト値を決定する段階、を更に備えて成る、請求項1記載の方法。
  4. 前記畳み込みを実施する前記段階は、カーネルKcを用いて前記畳み込みを実施する段階であって、
    [{Kc*S1(x,y),Kc*S2(x,y)}]が上記畳み込みを表し、
    Figure 2005537545
    S1が第1画像の各画像領域を表し、
    S2が第2画像の各画像領域を表し、且つ、
    (x,y)が前記各画像の空間座標を表す、
    段階、を更に備えて成る、請求項3記載の方法。
  5. 各センサは異なる波長を検出する、請求項1記載の方法。
  6. 前記複数個のセンサは赤外線(IR)センサおよびレーダセンサを含む、請求項1記載の方法。
  7. 前記複数個のセンサは赤外線(IR)および紫外線(UV)センサを含む、請求項1記載の方法。
  8. 前記複数個のセンサはレーダセンサおよび紫外線(UV)センサを含む、請求項1記載の方法。
  9. 前記複数個の画像は、各々が異なる波長を検出する2個以上の赤外線(IR)センサにより生成される、請求項1記載の方法。
  10. 前記選択プロセスを適用する前記段階は、2個の夫々の画像からの2個の対応画像領域の競合コントラスト値を比較する段階を含む、請求項1記載の方法。
  11. 前記選択プロセスは前記競合コントラスト値の内の大きい方を選択すべく作用する、請求項10記載の方法。
  12. 競合コントラスト値を比較する前記段階は、重複する画像領域の対応コントラスト値を比較する段階を更に備えて成る、請求項10記載の方法。
  13. 第1、第2および第3のセンサの夫々のコントラスト・マップのコントラスト値が相互に比較されて前記処理済み画像が形成される、請求項1記載の方法。
  14. 第1および第2センサの画像からコントラスト値を特定して中間コントラスト・マップを形成する段階と、
    上記中間コントラスト・マップのコントラスト値と、第3センサの画像のコントラスト・マップのコントラスト値とに対し、選択プロセスを適用する段階と、
    選択された画像領域により前記処理済み画像を形成する段階と、
    を更に備えて成る、請求項13記載の方法。
  15. 前記第1および第2センサは赤外線(IR)センサであり且つ前記第3センサはレーダセンサである、請求項14記載の方法。
  16. センサ画像は移動体からの視界を表示する、請求項1記載の方法。
  17. 前記移動体は航空機、船舶、自動車もしくは列車である、請求項16記載の方法。
  18. 前記処理済み画像の一個以上の領域の強度を調節する段階を更に備えて成る、請求項1記載の方法。
  19. 強度調節の度合いを重み付けする段階を更に備えて成る、請求項18記載の方法。
  20. 強度を調節する前記段階は、前記処理済み画像を縦断して強度を調節する段階を更に備えて成る、請求項18記載の方法。
  21. 前記処理済み画像を縦断して強度を調節する前記段階は、
    ひとつのセンサを基準センサとして選択する段階と、
    基準センサ画像の各領域の平均強度を決定する段階と、
    決定済み平均輝度値と上記処理済み画像の強度値とを組み合わせることで、上記処理済み画像における一個以上の領域の強度を調節する段階と、
    を更に備えて成る、請求項18記載の方法。
  22. 前記各センサはレーダセンサおよび赤外線(IR)センサを含み、且つ、前記基準センサは上記レーダセンサから成る、請求項21記載の方法。
  23. 前記各センサはレーダセンサおよび赤外線(IR)センサを含み、且つ、前記基準センサは上記赤外線(IR)センサから成る、請求項21記載の方法。
  24. 前記処理済み画像における一個以上の領域の強度を調節する前記段階は、前記平均強度が決定された前記基準センサ画像中のラインに対応する上記処理済み画像中のラインの強度を調節する段階を更に備えて成る、請求項21記載の方法。
  25. 前記処理済み画像における一本以上のラインの強度を調節する前記段階は、前記平均強度が決定された前記基準センサ画像中の同一ラインに対応する上記処理済み画像中のラインの近傍である該処理済み画像中のラインの強度を調節する段階を更に備えて成る、請求項24記載の方法。
  26. 場面の水平線は画像の水平線に対して所定角度にて再位置決めされ、且つ、当該方法は、
    ピクセル毎に前記基準センサ画像の平均強度を決定する段階と、
    ピクセル毎に前記処理済み画像の強度を調節する段階と、
    を更に備えて成る、請求項21記載の方法。
  27. 前記場面の水平線は、ロール、バンク、ヨーまたはピッチ動作により再位置決めされる、請求項26記載の方法。
  28. 各画像に対する前記コントラスト・マップを生成する前に、一個以上の画像の領域をフィルタリングする段階を更に備えて成る、請求項1記載の方法。
  29. 選択された画像領域を重み付けすることにより各画像の領域を空間的にフィルタリングする段階を更に備えて成る、請求項28記載の方法。
  30. ひとつのセンサはレーダセンサから成り、且つ、前記空間的フィルタリングはレーダ地上探知範囲の上方の画像領域をフィルタリングすることで実施される、請求項29記載の方法。
  31. 複数個の画像を組み合わせて最終画像を形成するシステムであって、
    夫々の画像を生成する複数個のセンサと、
    プロセッサであって、
    各画像を複数個の画像領域へと分割し、
    各画像に対して、各画像領域に対するコントラスト値を含むコントラスト・マップを生成し、
    上記コントラスト値に対して選択判定基準を適用し、処理済み画像において使用される画像領域を選択し、且つ、
    選択された各画像領域により上記処理済み画像を形成すべく、
    構成されたプロセッサと、
    を備えて成るシステム。
  32. 前記プロセッサは、各画像を、個々のピクセル、ピクセルのブロック、または、任意形状領域へと分割すべく構成される、請求項31記載のシステム。
  33. 前記プロセッサは、畳み込みを実施して前記コントラスト・マップのコントラスト値を決定することで上記コントラスト・マップを生成すべく構成される、請求項31記載のシステム。
  34. 前記プロセッサは、カーネルKcを用いて前記畳み込みを実施すべく構成され、
    [{Kc*S1(x,y),Kc*S2(x,y)}]は上記畳み込みを表し、
    Figure 2005537545
    S1は第1画像の各画像領域を表し、
    S2は第2画像の各画像領域を表し、且つ、
    (x,y)は前記各画像の空間座標を表す、
    請求項33記載のシステム。
  35. 各センサは異なる波長を検出する、請求項31記載のシステム。
  36. 前記複数個のセンサは赤外線(IR)センサおよびレーダセンサを含む、請求項31記載のシステム。
  37. 前記複数個のセンサは赤外線(IR)および紫外線(UV)センサを含む、請求項31記載のシステム。
  38. 前記複数個のセンサはレーダセンサおよび紫外線(UV)センサを含む、請求項31記載のシステム。
  39. 前記複数個のセンサは、各々が異なる波長を検出する2個以上の赤外線(IR)センサを含む、請求項31記載のシステム。
  40. 前記プロセッサは更に、2個の夫々の画像からの2個の対応画像領域の競合コントラスト値を比較すべく構成される、請求項31記載のシステム。
  41. 前記プロセッサは更に、前記競合コントラスト値の内の大きい方を選択すべく構成される、請求項40記載のシステム。
  42. 前記プロセッサは、重複する画像領域の対応コントラスト値を比較すべく構成される、請求項40記載のシステム。
  43. 第1、第2および第3のセンサの夫々のコントラスト・マップのコントラスト値が相互に比較されて前記最終画像が形成される、請求項31記載のシステム。
  44. 前記プロセッサは更に、
    第1および第2センサの画像からコントラスト値を特定して中間コントラスト・マップを形成し、
    上記中間コントラスト・マップのコントラスト値と、第3センサの画像のコントラスト・マップのコントラスト値とに対し、選択プロセスを適用し、且つ、
    選択された画像領域により前記処理済み画像を形成すべく、
    構成される、請求項43記載のシステム。
  45. 前記第1および第2センサは赤外線(IR)センサであり且つ前記第3センサはレーダセンサである、請求項44記載のシステム。
  46. センサ画像は移動体からの視界を表示する、請求項31記載のシステム。
  47. 前記移動体は航空機、船舶、自動車もしくは列車である、請求項46記載のシステム。
  48. 前記プロセッサは更に、前記処理済み画像の一個以上の領域の強度を調節すべく構成される、請求項31記載のシステム。
  49. 前記プロセッサは、前記処理済み画像を縦断して強度を調節すべく構成される、請求項48記載のシステム。
  50. 前記プロセッサは、強度調節の度合いを重み付けすべく構成される、請求項49記載のシステム。
  51. 前記プロセッサは更に、
    ひとつのセンサを基準センサとして選択し、
    基準センサ画像を縦断して該基準センサ画像の各領域の平均強度を決定し、且つ、
    決定済み平均輝度値と上記処理済み画像の強度値とを組み合わせることで、上記処理済み画像における一個以上の領域の強度を調節すべく、
    構成される、請求項49記載のシステム。
  52. 前記各センサはレーダセンサおよび赤外線(IR)センサを含み、且つ、前記基準センサは上記レーダセンサから成る、請求項51記載のシステム。
  53. 前記各センサはレーダセンサおよび赤外線(IR)センサを含み、且つ、前記基準センサは上記赤外線(IR)センサから成る、請求項51記載のシステム。
  54. 前記プロセッサは、前記平均強度が決定された前記基準センサ画像中のラインに対応する上記処理済み画像中のラインの強度を調節すべく構成される、請求項51記載のシステム。
  55. 前記プロセッサは、前記平均強度が決定された前記基準センサ画像中の同一ラインに対応する上記処理済み画像中のラインの近傍である該処理済み画像中のラインの強度を調節すべく構成される、請求項51記載のシステム。
  56. 場面の水平線は画像の水平線に対して所定角度にて再位置決めされ、且つ、
    前記プロセッサは更に、
    ピクセル毎に前記基準センサ画像の平均強度を決定し、且つ、
    ピクセル毎に前記処理済み画像の強度を調節すべく、
    構成される、請求項51記載のシステム。
  57. 前記場面の水平線は、ロール、バンク、ピッチまたはヨー動作により、画像の水平線に対して再位置決めされる、請求項56記載のシステム。
  58. 前記プロセッサは、一個以上の画像領域をフィルタリングすべく構成される、請求項31記載のシステム。
  59. 前記プロセッサは、選択された画像領域を重み付けすることにより一個以上の画像領域をフィルタリングすべく構成される、請求項58記載のシステム。
  60. ひとつのセンサはレーダセンサから成り、且つ、前記プロセッサは更に、レーダ地上探知範囲の上方の画像領域を空間的フィルタリングすべく構成される、請求項58記載のシステム。
JP2004531889A 2002-08-28 2003-08-27 画像融合システムおよび方法 Expired - Fee Related JP4261480B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/229,574 US6898331B2 (en) 2002-08-28 2002-08-28 Image fusion system and method
PCT/US2003/027046 WO2004021264A1 (en) 2002-08-28 2003-08-27 Image fusion system and method

Publications (3)

Publication Number Publication Date
JP2005537545A true JP2005537545A (ja) 2005-12-08
JP2005537545A5 JP2005537545A5 (ja) 2006-11-09
JP4261480B2 JP4261480B2 (ja) 2009-04-30

Family

ID=31976257

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004531889A Expired - Fee Related JP4261480B2 (ja) 2002-08-28 2003-08-27 画像融合システムおよび方法

Country Status (9)

Country Link
US (2) US6898331B2 (ja)
EP (1) EP1540575B1 (ja)
JP (1) JP4261480B2 (ja)
KR (1) KR100796707B1 (ja)
CN (1) CN100421122C (ja)
AU (1) AU2003270034A1 (ja)
CA (1) CA2497212C (ja)
HK (1) HK1085292A1 (ja)
WO (1) WO2004021264A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11227371B2 (en) 2017-12-14 2022-01-18 Nec Corporation Image processing device, image processing method, and image processing program

Families Citing this family (147)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1326209B1 (en) * 2001-12-24 2007-09-26 STMicroelectronics S.r.l. Method for contrast enhancement in colour digital image
EP1394742B1 (en) * 2002-08-23 2007-12-12 STMicroelectronics S.r.l. Method for filtering the noise of a digital image sequence
US6898331B2 (en) 2002-08-28 2005-05-24 Bae Systems Aircraft Controls, Inc. Image fusion system and method
US8571289B2 (en) 2002-11-27 2013-10-29 Hologic, Inc. System and method for generating a 2D image from a tomosynthesis data set
US7098868B2 (en) * 2003-04-08 2006-08-29 Microsoft Corporation Display source divider
US7289683B2 (en) * 2003-10-30 2007-10-30 Itt Manufacturing Enterprises, Inc. System and method for scintillation suppression in intensified digital video
WO2005072431A2 (en) * 2004-01-27 2005-08-11 Sarnoff Corporation A method and apparatus for combining a plurality of images
US8014575B2 (en) * 2004-03-11 2011-09-06 Weiss Kenneth L Automated neuroaxis (brain and spine) imaging with iterative scan prescriptions, analysis, reconstructions, labeling, surface localization and guided intervention
CA2464591A1 (en) * 2004-04-14 2005-10-14 Inventi Limited Partnership Puzzle machine and method of operating same
JP4507806B2 (ja) * 2004-10-01 2010-07-21 三菱電機株式会社 指紋画像撮像装置
JP2006106979A (ja) * 2004-10-01 2006-04-20 Mitsubishi Electric Corp 指紋画像撮像装置
US7684029B2 (en) * 2004-10-29 2010-03-23 Avago Technologies General Ip (Singapore) Pte. Ltd. Method and apparatus for identifying a sensed light environment
ES2429572T3 (es) * 2004-12-01 2013-11-15 Zorg Industries (Hong Kong) Limited Sistema integrado de vehículos para la prevención de colisiones a baja velocidad
US8531562B2 (en) 2004-12-03 2013-09-10 Fluke Corporation Visible light and IR combined image camera with a laser pointer
US7760962B2 (en) * 2005-03-30 2010-07-20 Casio Computer Co., Ltd. Image capture apparatus which synthesizes a plurality of images obtained by shooting a subject from different directions, to produce an image in which the influence of glare from a light is reduced
US7365310B2 (en) * 2005-06-27 2008-04-29 Agilent Technologies, Inc. Increased depth of field for high resolution imaging for a matrix-based ion source
US7796837B2 (en) * 2005-09-22 2010-09-14 Google Inc. Processing an image map for display on computing device
US10008184B2 (en) * 2005-11-10 2018-06-26 Hologic, Inc. System and method for generating a 2D image using mammography and/or tomosynthesis image data
US7613360B2 (en) * 2006-02-01 2009-11-03 Honeywell International Inc Multi-spectral fusion for video surveillance
US8532745B2 (en) 2006-02-15 2013-09-10 Hologic, Inc. Breast biopsy and needle localization using tomosynthesis systems
US7885469B2 (en) * 2006-05-22 2011-02-08 Microsoft Corporation Encoded high dynamic range textures
JP2009545799A (ja) * 2006-08-02 2009-12-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ バイナリー・クラスター・マップを単一のクラスター・マップに組み合わせる方法
US7636098B2 (en) * 2006-09-28 2009-12-22 Microsoft Corporation Salience preserving image fusion
DE102006052779A1 (de) * 2006-11-09 2008-05-15 Bayerische Motoren Werke Ag Verfahren zur Erzeugung eines Gesamtbilds der Umgebung eines Kraftfahrzeugs
US8049685B2 (en) * 2006-11-09 2011-11-01 Global Oled Technology Llc Passive matrix thin-film electro-luminescent display
US9098939B2 (en) * 2006-11-30 2015-08-04 Lockheed Martin Corporation System and method of generating light maps
US9262818B2 (en) 2007-05-01 2016-02-16 Pictometry International Corp. System for detecting image abnormalities
US8385672B2 (en) * 2007-05-01 2013-02-26 Pictometry International Corp. System for detecting image abnormalities
US20080273754A1 (en) * 2007-05-04 2008-11-06 Leviton Manufacturing Co., Inc. Apparatus and method for defining an area of interest for image sensing
JP2008306512A (ja) * 2007-06-08 2008-12-18 Nec Corp 情報提供システム
ITTO20070620A1 (it) * 2007-08-31 2009-03-01 Giancarlo Capaccio Sistema e metodo per presentare dati visuali rilevati a distanza in immagini multi-spettrali, di fusione, ed a tre dimensioni spaziali.
US7970178B2 (en) * 2007-12-21 2011-06-28 Caterpillar Inc. Visibility range estimation method and system
US8144927B2 (en) * 2008-01-31 2012-03-27 Max-Viz, Inc. Video image processing and fusion
US8824833B2 (en) * 2008-02-01 2014-09-02 Omnivision Technologies, Inc. Image data fusion systems and methods
US20100097226A1 (en) * 2008-10-22 2010-04-22 Leviton Manufacturing Co., Inc. Occupancy sensing with image and supplemental sensing
US9756264B2 (en) 2009-03-02 2017-09-05 Flir Systems, Inc. Anomalous pixel detection
US10757308B2 (en) 2009-03-02 2020-08-25 Flir Systems, Inc. Techniques for device attachment with dual band imaging sensor
WO2012170946A2 (en) 2011-06-10 2012-12-13 Flir Systems, Inc. Low power and small form factor infrared imaging
US9473681B2 (en) 2011-06-10 2016-10-18 Flir Systems, Inc. Infrared camera system housing with metalized surface
US9948872B2 (en) 2009-03-02 2018-04-17 Flir Systems, Inc. Monitor and control systems and methods for occupant safety and energy efficiency of structures
US9235876B2 (en) 2009-03-02 2016-01-12 Flir Systems, Inc. Row and column noise reduction in thermal images
US9674458B2 (en) 2009-06-03 2017-06-06 Flir Systems, Inc. Smart surveillance camera systems and methods
US9843742B2 (en) 2009-03-02 2017-12-12 Flir Systems, Inc. Thermal image frame capture using de-aligned sensor array
US9635285B2 (en) 2009-03-02 2017-04-25 Flir Systems, Inc. Infrared imaging enhancement with fusion
US9998697B2 (en) 2009-03-02 2018-06-12 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US10244190B2 (en) 2009-03-02 2019-03-26 Flir Systems, Inc. Compact multi-spectrum imaging with fusion
US9986175B2 (en) 2009-03-02 2018-05-29 Flir Systems, Inc. Device attachment with infrared imaging sensor
US9517679B2 (en) 2009-03-02 2016-12-13 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US9451183B2 (en) 2009-03-02 2016-09-20 Flir Systems, Inc. Time spaced infrared image enhancement
USD765081S1 (en) 2012-05-25 2016-08-30 Flir Systems, Inc. Mobile communications device attachment with camera
US9208542B2 (en) 2009-03-02 2015-12-08 Flir Systems, Inc. Pixel-wise noise reduction in thermal images
US8249394B2 (en) * 2009-03-12 2012-08-21 Shmuel Peleg Method and system for shift-map image editing
WO2010121133A2 (en) 2009-04-17 2010-10-21 The General Hospital Corporation Multimodal imaging of fibrin
AU2010226479A1 (en) 2009-03-19 2011-09-22 Wyeth Llc Methods for the preparation of [2-(8,9-dioxo-2,6-diazabicyclo[5.2.0]non-1(7) -en-2-yl)ethyl]phosphonic acid and precursors thereof
US8321422B1 (en) 2009-04-23 2012-11-27 Google Inc. Fast covariance matrix generation
US8611695B1 (en) 2009-04-27 2013-12-17 Google Inc. Large scale patch search
US8396325B1 (en) * 2009-04-27 2013-03-12 Google Inc. Image enhancement through discrete patch optimization
US8391634B1 (en) 2009-04-28 2013-03-05 Google Inc. Illumination estimation for images
US8385662B1 (en) 2009-04-30 2013-02-26 Google Inc. Principal component analysis based seed generation for clustering analysis
US9756262B2 (en) 2009-06-03 2017-09-05 Flir Systems, Inc. Systems and methods for monitoring power systems
US9843743B2 (en) 2009-06-03 2017-12-12 Flir Systems, Inc. Infant monitoring systems and methods using thermal imaging
US9292909B2 (en) 2009-06-03 2016-03-22 Flir Systems, Inc. Selective image correction for infrared imaging devices
US9819880B2 (en) 2009-06-03 2017-11-14 Flir Systems, Inc. Systems and methods of suppressing sky regions in images
US9716843B2 (en) 2009-06-03 2017-07-25 Flir Systems, Inc. Measurement device for electrical installations and related methods
US10091439B2 (en) 2009-06-03 2018-10-02 Flir Systems, Inc. Imager with array of multiple infrared imaging modules
WO2011043838A1 (en) 2009-10-08 2011-04-14 Hologic, Inc . Needle breast biopsy system and method of use
US10690540B2 (en) 2015-10-06 2020-06-23 View, Inc. Multi-sensor having a light diffusing element around a periphery of a ring of photosensors
US10533892B2 (en) 2015-10-06 2020-01-14 View, Inc. Multi-sensor device and system with a light diffusing element around a periphery of a ring of photosensors and an infrared sensor
US9207708B2 (en) 2010-04-23 2015-12-08 Flir Systems, Inc. Abnormal clock rate detection in imaging sensor arrays
US9848134B2 (en) 2010-04-23 2017-12-19 Flir Systems, Inc. Infrared imager with integrated metal layers
US9706138B2 (en) 2010-04-23 2017-07-11 Flir Systems, Inc. Hybrid infrared sensor array having heterogeneous infrared sensors
TWI494824B (zh) * 2010-08-24 2015-08-01 Quanta Comp Inc 光學觸控系統及方法
TWI419077B (zh) * 2010-09-10 2013-12-11 Oriental Inst Technology 立體視覺資訊補償系統及方法
US20140192238A1 (en) * 2010-10-24 2014-07-10 Linx Computational Imaging Ltd. System and Method for Imaging and Image Processing
US9075903B2 (en) 2010-11-26 2015-07-07 Hologic, Inc. User interface for medical image review workstation
US8798393B2 (en) 2010-12-01 2014-08-05 Google Inc. Removing illumination variation from images
AU2012225398B2 (en) 2011-03-08 2017-02-02 Hologic, Inc. System and method for dual energy and/or contrast enhanced breast imaging for screening, diagnosis and biopsy
US10169666B2 (en) 2011-06-10 2019-01-01 Flir Systems, Inc. Image-assisted remote control vehicle systems and methods
US10079982B2 (en) 2011-06-10 2018-09-18 Flir Systems, Inc. Determination of an absolute radiometric value using blocked infrared sensors
US9058653B1 (en) 2011-06-10 2015-06-16 Flir Systems, Inc. Alignment of visible light sources based on thermal images
US9961277B2 (en) 2011-06-10 2018-05-01 Flir Systems, Inc. Infrared focal plane array heat spreaders
US9706137B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Electrical cabinet infrared monitor
US10051210B2 (en) 2011-06-10 2018-08-14 Flir Systems, Inc. Infrared detector array with selectable pixel binning systems and methods
EP2719166B1 (en) 2011-06-10 2018-03-28 Flir Systems, Inc. Line based image processing and flexible memory system
US9509924B2 (en) 2011-06-10 2016-11-29 Flir Systems, Inc. Wearable apparatus with integrated infrared imaging module
US9235023B2 (en) 2011-06-10 2016-01-12 Flir Systems, Inc. Variable lens sleeve spacer
US9143703B2 (en) 2011-06-10 2015-09-22 Flir Systems, Inc. Infrared camera calibration techniques
CN103875235B (zh) 2011-06-10 2018-10-12 菲力尔系统公司 用于红外成像装置的非均匀性校正技术
US9900526B2 (en) 2011-06-10 2018-02-20 Flir Systems, Inc. Techniques to compensate for calibration drifts in infrared imaging devices
US10389953B2 (en) 2011-06-10 2019-08-20 Flir Systems, Inc. Infrared imaging device having a shutter
US10841508B2 (en) 2011-06-10 2020-11-17 Flir Systems, Inc. Electrical cabinet infrared monitor systems and methods
CN102231844B (zh) * 2011-07-21 2013-04-03 西安电子科技大学 基于结构相似度和人眼视觉的视频图像融合性能评价方法
US8729653B2 (en) 2011-10-26 2014-05-20 Omnivision Technologies, Inc. Integrated die-level cameras and methods of manufacturing the same
EP2782505B1 (en) 2011-11-27 2020-04-22 Hologic, Inc. System and method for generating a 2d image using mammography and/or tomosynthesis image data
KR101307031B1 (ko) 2011-12-26 2013-09-11 경희대학교 산학협력단 영상 방향을 고려한 국부 콘트라스트 향상 방법
US9805507B2 (en) 2012-02-13 2017-10-31 Hologic, Inc System and method for navigating a tomosynthesis stack using synthesized image data
US11674843B2 (en) 2015-10-06 2023-06-13 View, Inc. Infrared cloud detector systems and methods
US8938119B1 (en) 2012-05-01 2015-01-20 Google Inc. Facade illumination removal
US9811884B2 (en) 2012-07-16 2017-11-07 Flir Systems, Inc. Methods and systems for suppressing atmospheric turbulence in images
US9347794B1 (en) 2012-09-21 2016-05-24 Rockwell Collins, Inc. Image data combining systems and methods of multiple vision systems
KR20140049137A (ko) * 2012-10-12 2014-04-25 삼성전자주식회사 의료영상 분석장치 및 방법
CN103942768B (zh) 2013-01-18 2017-05-24 诺基亚技术有限公司 图像融合的方法和装置
WO2014115144A1 (en) * 2013-01-28 2014-07-31 Opgal Optronic Industries Ltd. Enhancing infrared measurement accuracy in a specified area
US9299130B2 (en) 2013-03-15 2016-03-29 Trustees Of Tufts College Methods and apparatus for image processing and analysis
WO2014151646A1 (en) 2013-03-15 2014-09-25 Hologic Inc. Tomosynthesis-guided biopsy in prone
US9053558B2 (en) 2013-07-26 2015-06-09 Rui Shen Method and system for fusing multiple images
US9973692B2 (en) 2013-10-03 2018-05-15 Flir Systems, Inc. Situational awareness by compressed display of panoramic views
US11297264B2 (en) 2014-01-05 2022-04-05 Teledyne Fur, Llc Device attachment with dual band imaging sensor
CN104702849B (zh) * 2014-01-10 2018-03-30 杭州海康威视数字技术股份有限公司 一种红外摄像机及其红外灯亮度调整方法
CN103795920B (zh) * 2014-01-21 2017-06-20 宇龙计算机通信科技(深圳)有限公司 照片处理方法及装置
GB2523097B (en) * 2014-02-12 2016-09-28 Jaguar Land Rover Ltd Vehicle terrain profiling system with image enhancement
ES2878599T3 (es) 2014-02-28 2021-11-19 Hologic Inc Sistema y método para generar y visualizar bloques de imagen de tomosíntesis
US9990730B2 (en) 2014-03-21 2018-06-05 Fluke Corporation Visible light image with edge marking for enhancing IR imagery
EP3143468B1 (en) * 2014-05-12 2019-04-10 Gulfstream Aerospace Corporation Advanced aircraft vision system utilizing multi-sensor gain scheduling
EP3201613B1 (en) * 2014-09-29 2021-01-06 View, Inc. Sunlight intensity or cloud detection with variable distance sensing
TWI727931B (zh) 2014-09-29 2021-05-21 美商唯景公司 組合式感測器系統
US11566938B2 (en) 2014-09-29 2023-01-31 View, Inc. Methods and systems for controlling tintable windows with cloud detection
US11781903B2 (en) 2014-09-29 2023-10-10 View, Inc. Methods and systems for controlling tintable windows with cloud detection
US9785837B2 (en) * 2014-10-21 2017-10-10 Bae Systems Information And Electronic Systems Integration Inc. Measuring atmospheric attributes using multispectral images
US9680670B2 (en) 2014-11-20 2017-06-13 At&T Intellectual Property I, L.P. Transmission device with channel equalization and control and methods for use therewith
US9823346B1 (en) * 2014-12-04 2017-11-21 National Technology & Engineering Solutions Of Sandia, Llc Apodization of spurs in radar receivers using multi-channel processing
US9599706B2 (en) * 2015-04-06 2017-03-21 GM Global Technology Operations LLC Fusion method for cross traffic application using radars and camera
US10152811B2 (en) 2015-08-27 2018-12-11 Fluke Corporation Edge enhancement for thermal-visible combined images and cameras
US11255722B2 (en) 2015-10-06 2022-02-22 View, Inc. Infrared cloud detector systems and methods
KR101866014B1 (ko) 2016-03-22 2018-06-08 현대자동차주식회사 차량의 측면충돌 회피 시스템 및 그 방법
CN106965945B (zh) * 2016-07-14 2019-09-03 科盾科技股份有限公司 一种基于数据同步的避免碰撞障碍的方法及飞行器
US10565682B2 (en) * 2016-11-07 2020-02-18 Ford Global Technologies, Llc Constructing map data using laser scanned images
KR20190096374A (ko) * 2016-12-14 2019-08-19 댄-에릭 닐손 환경 내의 공간 광 분포를 결정하는 방법
JP7174710B2 (ja) 2017-03-30 2022-11-17 ホロジック, インコーポレイテッド 合成乳房組織画像を生成するための標的オブジェクト増強のためのシステムおよび方法
US11399790B2 (en) 2017-03-30 2022-08-02 Hologic, Inc. System and method for hierarchical multi-level feature image synthesis and representation
US11455754B2 (en) 2017-03-30 2022-09-27 Hologic, Inc. System and method for synthesizing low-dimensional image data from high-dimensional image data using an object grid enhancement
US11403483B2 (en) 2017-06-20 2022-08-02 Hologic, Inc. Dynamic self-learning medical image method and system
EP3422132B1 (en) * 2017-06-27 2020-06-03 TTTech Auto AG Method and fault tolerant computer architecture for reducing false negatives in fail-safe trajectory planning for a moving entity
WO2019031086A1 (ja) * 2017-08-09 2019-02-14 富士フイルム株式会社 画像処理システム、サーバ装置、画像処理方法、及び画像処理プログラム
US10440293B1 (en) 2018-06-22 2019-10-08 Jurgen R. Ihns Avionics imaging control method and apparatus
CN109035338B (zh) * 2018-07-16 2020-11-10 深圳辰视智能科技有限公司 一种基于单尺度特征的点云与图片融合方法、装置及其设备
US20210319541A1 (en) * 2018-09-06 2021-10-14 Carmel Haifa University Economic Corporation Ltd. Model-free physics-based reconstruction of images acquired in scattering media
US11727092B2 (en) 2018-11-28 2023-08-15 Saab Ab Method, software product, device and system for integrating images
CN109558848A (zh) * 2018-11-30 2019-04-02 湖南华诺星空电子技术有限公司 一种基于多源信息融合的无人机生命探测方法
JP7299046B2 (ja) * 2019-03-25 2023-06-27 ソニー・オリンパスメディカルソリューションズ株式会社 医療用観察制御装置及び医療用観察システム
US11037038B2 (en) 2019-03-27 2021-06-15 Digimarc Corporation Artwork generated to convey digital messages, and methods/apparatuses for generating such artwork
CN110132823A (zh) * 2019-05-15 2019-08-16 林伟阳 一种基于模板匹配与查找轮廓的细胞计数方法
CN111462065B (zh) * 2020-03-27 2023-06-27 浙江杜比医疗科技有限公司 超声、红外序列图像融合的乳腺癌检测方法及其系统
CN111462032B (zh) * 2020-03-31 2023-03-31 北方夜视技术股份有限公司 非制冷红外图像与日盲紫外图像融合方法及应用
US11851215B2 (en) * 2021-05-27 2023-12-26 Honeywell International Inc. Systems and methods for calibrating a synthetic image on an avionic display
CN113687383A (zh) * 2021-08-23 2021-11-23 阿波罗智联(北京)科技有限公司 含雷达和相机的探测装置、路侧传感设备及智能交通系统
KR102535687B1 (ko) * 2022-08-18 2023-05-26 주식회사 페블러스 이미지에 대응되는 형상 이미지를 제공하기 위한 이미지 처리 방법 및 그러한 방법을 수행하는 전자 장치

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05242253A (ja) * 1992-02-26 1993-09-21 Hitachi Ltd 画像処理方法
JPH0670212A (ja) * 1992-03-26 1994-03-11 Sony Corp 画像処理装置
JPH06113183A (ja) * 1992-09-29 1994-04-22 Sony Corp 撮像装置
JPH08201499A (ja) * 1995-01-30 1996-08-09 Tech Res & Dev Inst Of Japan Def Agency 目標検出装置
JPH10262176A (ja) * 1997-03-19 1998-09-29 Teiichi Okochi 映像形成方法
JPH11242737A (ja) * 1998-02-26 1999-09-07 Ricoh Co Ltd 画像処理方法及び装置並びに情報記録媒体
JP2000123271A (ja) * 1998-10-19 2000-04-28 Mitsubishi Electric Corp 飛翔体警戒装置
JP2000261715A (ja) * 1999-03-08 2000-09-22 Casio Comput Co Ltd 画像合成装置
JP2001084944A (ja) * 1999-07-09 2001-03-30 Hitachi Ltd 荷電粒子線装置
JP2001281340A (ja) * 2000-03-29 2001-10-10 Mitsubishi Electric Corp 放射線検出装置
JP2001344599A (ja) * 2000-06-02 2001-12-14 Hitachi Ltd 全焦点画像合成方法及び装置
JP2002324235A (ja) * 2001-04-24 2002-11-08 Matsushita Electric Ind Co Ltd 車載カメラの画像合成表示方法及びその装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4674125A (en) 1983-06-27 1987-06-16 Rca Corporation Real-time hierarchal pyramid signal processing apparatus
GB8317407D0 (en) 1983-06-27 1983-07-27 Rca Corp Image transform techniques
US5686960A (en) * 1992-01-14 1997-11-11 Michael Sussman Image input device having optical deflection elements for capturing multiple sub-images
US5325449A (en) 1992-05-15 1994-06-28 David Sarnoff Research Center, Inc. Method for fusing images and apparatus therefor
GB9216811D0 (en) * 1992-08-07 1992-09-23 Graviner Ltd Kidde Flame detection methods and apparatus
DE69420168T2 (de) * 1993-03-30 2000-04-06 Koninkl Philips Electronics Nv Röntgenuntersuchungsgerät mit einer Bildformungsvorrichtung mit mehreren Bildsensoren
DE4404047C1 (de) * 1994-02-09 1995-08-31 Daimler Benz Aerospace Ag Verfahren zur Beeinflussung der Bildqualität von durch eine elektronische Bildaufnahmevorrichtung gelieferten Bildern
US5778108A (en) * 1996-06-07 1998-07-07 Electronic Data Systems Corporation Method and system for detecting transitional markers such as uniform fields in a video signal
US6137498A (en) * 1997-01-02 2000-10-24 Runaway Technology, Inc. Digital composition of a mosaic image
WO1999036904A1 (en) 1998-01-16 1999-07-22 Thresholds Unlimited, Inc. Head up display and vision system
US6320979B1 (en) * 1998-10-06 2001-11-20 Canon Kabushiki Kaisha Depth of field enhancement
US6201899B1 (en) * 1998-10-09 2001-03-13 Sarnoff Corporation Method and apparatus for extended depth of field imaging
JP2002072066A (ja) * 2000-08-25 2002-03-12 Olympus Optical Co Ltd ピント合せ装置
US6898331B2 (en) 2002-08-28 2005-05-24 Bae Systems Aircraft Controls, Inc. Image fusion system and method

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05242253A (ja) * 1992-02-26 1993-09-21 Hitachi Ltd 画像処理方法
JPH0670212A (ja) * 1992-03-26 1994-03-11 Sony Corp 画像処理装置
JPH06113183A (ja) * 1992-09-29 1994-04-22 Sony Corp 撮像装置
JPH08201499A (ja) * 1995-01-30 1996-08-09 Tech Res & Dev Inst Of Japan Def Agency 目標検出装置
JPH10262176A (ja) * 1997-03-19 1998-09-29 Teiichi Okochi 映像形成方法
JPH11242737A (ja) * 1998-02-26 1999-09-07 Ricoh Co Ltd 画像処理方法及び装置並びに情報記録媒体
JP2000123271A (ja) * 1998-10-19 2000-04-28 Mitsubishi Electric Corp 飛翔体警戒装置
JP2000261715A (ja) * 1999-03-08 2000-09-22 Casio Comput Co Ltd 画像合成装置
JP2001084944A (ja) * 1999-07-09 2001-03-30 Hitachi Ltd 荷電粒子線装置
JP2001281340A (ja) * 2000-03-29 2001-10-10 Mitsubishi Electric Corp 放射線検出装置
JP2001344599A (ja) * 2000-06-02 2001-12-14 Hitachi Ltd 全焦点画像合成方法及び装置
JP2002324235A (ja) * 2001-04-24 2002-11-08 Matsushita Electric Ind Co Ltd 車載カメラの画像合成表示方法及びその装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
内藤将彦、児玉和也、相澤清晴、羽鳥光俊: "複数の異なる焦点画像からの焦点外れ画像の生成を利用した全焦点画像の強調的取得", 電子情報通信学会論文誌, vol. Vol.J79−D−2、No.6, JPN6008021079, 25 June 1996 (1996-06-25), JP, pages 1046 - 1053, ISSN: 0001215326 *
白川昌之 他2名: "赤外線カメラ画像と可視光線カメラ画像の融合の一検討", 電子情報通信学会技術研究報告, vol. 98, no. 421, JPN6008066153, 19 November 1998 (1998-11-19), JP, pages 1 - 8, ISSN: 0001215327 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11227371B2 (en) 2017-12-14 2022-01-18 Nec Corporation Image processing device, image processing method, and image processing program

Also Published As

Publication number Publication date
US6898331B2 (en) 2005-05-24
EP1540575A4 (en) 2007-10-10
CA2497212C (en) 2010-06-01
EP1540575B1 (en) 2011-10-05
HK1085292A1 (en) 2006-08-18
CA2497212A1 (en) 2004-03-11
KR100796707B1 (ko) 2008-01-21
KR20050067389A (ko) 2005-07-01
USRE41447E1 (en) 2010-07-20
CN100421122C (zh) 2008-09-24
US20040047518A1 (en) 2004-03-11
AU2003270034A1 (en) 2004-03-19
EP1540575A1 (en) 2005-06-15
CN1695155A (zh) 2005-11-09
JP4261480B2 (ja) 2009-04-30
WO2004021264A1 (en) 2004-03-11

Similar Documents

Publication Publication Date Title
JP4261480B2 (ja) 画像融合システムおよび方法
JP6729394B2 (ja) 画像処理装置、画像処理方法、プログラム及びシステム
US10315776B2 (en) Vehicle navigation methods, systems and computer program products
CN111209825B (zh) 一种用于动态目标3d检测的方法和装置
EP3488603B1 (en) Methods and systems for processing an image
EP3299995A1 (de) Bildanalysesystem für landwirtschaftliche arbeitsmaschinen
JP2022509034A (ja) ニューラルネットワークを使用した輝点除去
Ren et al. Infrared and visible image fusion based on weighted variance guided filter and image contrast enhancement
CN110827218B (zh) 基于图像hsv透射率加权校正的机载图像去雾方法
KR20040053344A (ko) 영상을 향상시켜서 차량 안전을 개선하기 위한 방법 및 장치
EP2124194B1 (en) Method of detecting objects
CN112686172A (zh) 机场跑道异物检测方法、装置及存储介质
JPWO2020066456A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
WO2017068141A1 (fr) Système adapté à fournir à un opérateur une visibilité augmentée et procédé associé
JP2024060851A (ja) 空撮画像変化抽出装置
DE102013220839A1 (de) Dynamische adaptive Rückspiegelabblendungs-Überlagerung durch Szenehelligkeitsschätzung
DE102017117212A1 (de) System und Verfahren zur Stereotriangulation
Nie et al. Image Defogging Based on Joint Contrast Enhancement and Multi-scale Fusion
Buquet et al. In-flight testing of wide-angle low-light for UAS automated navigation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080513

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080812

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080819

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090106

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090205

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130220

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees