JP2004516533A - Synthetic aperture radar and forward-looking infrared image superposition method - Google Patents

Synthetic aperture radar and forward-looking infrared image superposition method Download PDF

Info

Publication number
JP2004516533A
JP2004516533A JP2002529716A JP2002529716A JP2004516533A JP 2004516533 A JP2004516533 A JP 2004516533A JP 2002529716 A JP2002529716 A JP 2002529716A JP 2002529716 A JP2002529716 A JP 2002529716A JP 2004516533 A JP2004516533 A JP 2004516533A
Authority
JP
Japan
Prior art keywords
flir
sar
feature points
image
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002529716A
Other languages
Japanese (ja)
Inventor
チェン,ヤン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HRL Laboratories LLC
Original Assignee
HRL Laboratories LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by HRL Laboratories LLC filed Critical HRL Laboratories LLC
Publication of JP2004516533A publication Critical patent/JP2004516533A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/37Determination of transform parameters for the alignment of images, i.e. image registration using transform domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/753Transform-based matching, e.g. Hough transform

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

合成開口レーダー(SAR)および前向き赤外線(FLIR)イメージを関連付けるかまたは対応させるのに用いられる方法がここに開示される。双方のイメージから検出可能な特徴点に基づき、2段階アプローチを採用して、SARおよびFLIRイメージ重ね合わせの問題点に立ち向かう:FLIRイメージから検出された特徴点をSARイメージ座標に変換する初期重ね合わせ段階;およびSARおよびFLIR特徴点が「一般化されたHough変換」を受け、それから、マッチング特徴点の最大サブセットが得られ、重ね合わせ変換を導くことができる残存重ね合わせ段階。これらの2つの段階は、SARおよびFLIRイメージ重ね合わせ方法を含む5つの工程:1)該SARおよびFLIRイメージから特徴点を抽出し;2)FLIRイメージの初期重ね合わせを生じさせ;3)一般化されたHough変換を利用して二次元残存重ね合わせを生じさせ;4)重ね合わせ変換を見積もり;次いで、5)重ね合わせを確認することに分けられる。この方法は、残存重ねあわせが(6よりはむしろ)二次元Hough変換でなされることを可能とし、その結果、迅速かつ強固な実行がもたらされ、ならびに偽重ね合わせの可能性を低下させる。Disclosed herein are methods used to associate or correspond to synthetic aperture radar (SAR) and forward-looking infrared (FLIR) images. Based on feature points detectable from both images, a two-stage approach is employed to combat the problem of SAR and FLIR image registration: initial registration, which converts feature points detected from FLIR images to SAR image coordinates And SAR and FLIR feature points undergo a "generalized Hough transform", from which the largest subset of matching feature points is obtained, which can lead to a superposition transformation. These two steps include five steps including a SAR and FLIR image superposition method: 1) extract feature points from the SAR and FLIR images; 2) produce an initial superposition of the FLIR images; 3) generalize Utilizing the applied Hough transform to produce a two-dimensional residual overlay; 4) estimating the overlay transform; and 5) confirming the overlay. This method allows the residual registration to be done with a two-dimensional Hough transform (rather than 6), resulting in a fast and robust implementation, as well as reducing the possibility of false registration.

Description

【0001】
【発明の属する技術分野】
(発明の分野)
本発明は、2つのイメージの重ね合わせを解く方法に関する。特に、本発明は、合成開口レーダー(SAR)イメージの、および前向き赤外線(FLIR)イメージの重ね合わせを解く2段階方法に関する。
【0002】
【従来の技術および発明が解決しようとする課題】
(先行技術の簡単な記載)
伝統的なイメージ重ね合わせシステムは、多くの修正技術の変形を用いる、灰色レベルの空間的分布において重ね合わすべきイメージの対の間の同様性に頼る。これらのアプローチは、SARおよびFLIRのごときイメージングセンサーによって使用される異なる現象学のため、イメージの空間的灰色レベル分布がイメージの間で変化する場合には働かない。特徴−ベースのイメージ重ね合わせ技術は、2つのイメージからの(点以外の)抽出された特徴の間のいくつかの同様性に頼る。1つのイメージの個々の特徴セグメントは、これらの抽出された特徴を用いてもう1つからのものに対してマッチングさせることができる。しかしながら、これらの種類の特徴はSARおよびFLIR双方には稀にしか存在しないか、あるいは抽出するのが非常に困難である。他方、点−ベースの重ね合わせ技術は、透視変換下でモデルおよびセンサー配置をイメージするのを満足するイメージの点の組の特異的配置を開発する。これは、通常、高計算複雑性を含めた多次元空間においてパラメータの組につきサーチすることを含む。
【0003】
重ね合わせは、対応またはマッチング問題を解くための(空気センサーのごとき)マルチ−センサーシステムで必要である。SARおよびFLIRイメージの対および関連センサーモデルが与えられると、2つのイメージを重ね合わすためには、少なくとも6つの独立したパラメータ値を決定しなければならない。これは、(センサーモデルおよび関連パラメータ、センサー位置および向きを含めた)センサープラットフォームについてのいくつかの先行知識がなければ一般に困難である。理論的には、もし全てのセンサーパラメーターおよびセンサープラットフォーム情報が知られていれば、2つのイメージは重ね合わせることができる。しかしながら、実行においては、技術水準のセンサー技術を持ってさえも、センサーシステムにおける誤差および/またはノイズのため、あるいはその操作の特徴によって、重ね合わせが依然として必要である。SARおよびFLIRイメージ重ね合わせでは、これは特別の挑戦を取る。というのは、2つのイメージを修正するのに容易に用いることができるSARおよびFLIRイメージには数個の特徴があるからである。
【0004】
従って、低い計算複雑性および高い強固性をもって、SARおよびFLIRイメージを重ね合わすことができる方法を提供するのが望ましい。
【0005】
【課題を解決するための手段】
(発明の概要)
本発明は、双方のイメージから検出可能な特徴点に基づき、合成開口レーダー(SAR)イメージの、および前向き赤外線(FLIR)イメージの重ね合わせを解く方法に関する。該方法は2つの段階:初期重ね合わせ段階および残存重ね合わせ段階によって区別される。初期重ね合わせにおいては、FLIRイメージから検出された特徴点をSARイメージ座標に変換する。残存重ね合わせ段階においては、SARからの特徴点の組およびFLIRからのものは一般化されたHough変換(GHT)を受け、それから、マッチング点の最大サブセットが得られ、重ね合わせ変換を得ることができる。本発明における該方法は、第1の段階で用いた方法でもって、第2の段階の残存重ね合わせが、むしろより高い次元において二次元(2−D)GHTでなされることを可能とする。
【0006】
利用可能なセンサーパラメーターおよびセンサー位置の情報を用い、重ね合わせ仕事は5つの工程:(1)SARおよびFLIRイメージ双方からの特徴点を検出し;(2)公知のセンサーパラメーターおよびセンサープラットフォーム情報を用い、特徴点をFLIRイメージからSARイメージに変換し;(3)2−D並進ドメインにおけるSAR特徴点の組および変換されたFLIR特徴点の組につきGHTを実行し、GHTからマッチング特徴点の最大サブセットを選択し;(4)更新された重ね合わせ変換を計算し;次いで、(5)重ね合わせ変換を評価することに分けることができる。その結果、本発明は、SARおよびFLIRを整列させるイメージ重ね合わせ変換、およびSARおよびFLIRイメージの間の対応する点の対の組の双方を提供する。重ね合わせに関与する重ね合わせサーチ空間の減少は6次元から2次元である。この減少の結果は、偽重ね合わせおよびデータ収集の間に導入されるノイズおよび誤差に対する強固な重ね合わせの可能性の実質的減少を含む。また、この方法は、特徴点の組のマッチングが、SARおよびFLIR双方のイメージにおいて全特徴点集団の非常に小さな一部のみを構成し、残りはシーンにおいてランダムクラスターによって引き起こされる場合にも働く。
【0007】
【発明の実施の形態】
(本発明の詳細な記載)
本発明は、双方のイメージから抽出された特徴点を用いることによって、SARイメージおよびFLIRイメージの重ね合わせを解く方法に関する。本発明の方法は、5つの区別される工程を含むプロセスとして以下に記載される。本発明に対して必要な入力は、以下の工程1に記載された特徴点にあり、本発明の出力は1)SARおよびFLIRイメージからの特徴点の対応性;2)FLIRイメージにおけるいずれの点をもSARイメージに変換する重ね合わせ変換を含む。
【0008】
工程1:特徴点の抽出
まず、一定偽−アラーム速度(CFAR)ディテクターのごときよく知られたアルゴリズムの1つを用いることによって、SARおよびFLIRイメージ双方から特徴点を抽出する。本発明で用いるべき特徴点についての要件は、それらはSARおよびFLIR双方からの検出可能なある種の点を表すものでなければならず、双方のイメージにおいて同様に位置することができることである。そのような特徴点の例がシーンにおけるある種の物体の位置である。標的検出/認識適用において、特徴点は、所望により、標的−同様性尺度が付けられたものを有することができる。工程1は、2つのイメージがそれらがカバーする空間において重複を有する、および共通の特徴点を双方のイメージから検出することができることを仮定する。これらの仮定が真実でなければ、重ね合わせは失敗し、状況は工程3または5で検出することができる。ウィンドウサイズwと呼ばれる特徴抽出におけるパラメータがあり、これは、とりわけ、2つの検出された特徴をどのように近く(イメージ画素において測定)することができるかを決定する。ウィンドウサイズは、(物体サイズのごとき)イメージにおける特徴の性質によって決定される。SARについてのw=21のウィンドウサイズは、以下の記載において非限定的例として用いられる。FLIRについての特異的ウィンドウサイズは、本発明を実施するにおいて要求されない。
【0009】
工程2:初期重ね合わせ
初期重ね合わせは、利用可能な(おそらくは、ノイズおよび誤差についての)センサー真実データを用い、FLIRイメージで検出された特徴点をSARイメージの接地面座標フレームに変換するプロセスである。センサー真実データは(限定されるものではないが、SARおよびFLIRについての解およびFLIRについての焦点長さを含めた)センサーパラメーター、センサー位置情報(センサーの位置、+FLIRについての方位角、傾斜角および回転角)を含む。FLIR特徴点をSARに変換するには、均一座標系においてFLIRセンサー−イメージングモデルを作成する:
(数式1)

Figure 2004516533
【0010】
[式中、Pはイメージすべき点を表すカメラ座標フレームにおける三次元(3−D)点であり、(X−Y)はPのイメージであり、uはスケーリングファクターであり、およびFはカメラ焦点長である]。Pは、以下のごとく、参照フレームWにおける座標(x,y,z)によって表すことができる:
(数式2)
Figure 2004516533
【0011】
[式中、R、RおよびRは、参照フレームに対するカメラ座標フレームの回転角θ、俯角θおよび方位角θを表す3×3正規直交回転行列であり、および(t,t,tは参照フレームWにおけるカメラ座標フレームの原点を表す位置ベクトルである]。
【0012】
簡潔にするために、このセクションの残りにおいては、参照フレームは、そのXOY面がSARイメージ接地面と同じ空間を占め、そのXおよびY軸が、各々、XARイメージのXおよびY軸と同じ空間を占め、そのZ軸は上方に向くと仮定する。FLIRカメラの注目する全ての点が、選択された参照フレームにおいてz=hである接地面に存在すると仮定すれば、方程式(1)および(2)はxおよびyについて解くことができ、その結果、イメージ点(X−Y)から3−D点、(x,y,z)への逆投影変換がもたらされる:
Figure 2004516533
【0013】
方程式(3)の逆投影変換を、FLIRイメージにおける各特徴点に適用する。次いで、以下のごとく、これらの逆投影された特徴点を単にSARイメージ座標で評価する:
(数式4)
Figure 2004516533
【0014】
[式中、(x,y)は参照フレームWにおけるFLIR特徴点の逆投影であり、(xs,ys)はSARイメージにおける逆投影であり、およびcはSARイメージの解を反映する定数である。残りの議論において、「逆投影」としての方程式(3)および(4)双方を含む数学的変換を参照する。{(xs,ys)},i=1,…,Nを逆投影されたFLIR特徴点の組とし、{(xr,yr)},i=1…,MをSAR特徴点の組とする。現在、重ね合わせ問題は、{(xs,ys)}のサブセットを{(xr,yr)}のサブセットとマッチさせることである。もしセンサー真実の正確な測定が利用できれば、{(xs,ys)}のサブセットは{(xr,yr)}の対応するサブセットに正確にマップされ、検出位置は正確であって、前記関連仮定は真実であると仮定する。しかしながら、現実には、センサー真実データは、ノイズおよび測定誤差のためしばしば正確ではない。測定におけるノイズおよび誤差は、SAR特徴点および逆投影されたFLIR特徴点がもしそれらがシーンにおける同一特徴点に対応すれば正確に整列しないように、残存重ね合わせエラーを引き起こし得る。
【0015】
従って、特徴点のそのような2つの組をマッチさせる一般的問題は、少なくとも6つの次元(回転につき3および並進につき3)のパラメータ空間においてサーチして、測定誤差およびノイズを説明することを含む。これは、センサーパラメーター(センサーの解像度および焦点長)は正確に測定することができると仮定する。
【0016】
工程3:残存重ね合わせ
パラメーターサーチ空間減少
方程式(3)は、いずれかのイメージ点を3−D点への逆投影を行う一般式を表す。センサー真実における変化の間の関係およびFLIR特徴点の逆投影の結果(xs,ys)の詳細な解析は、FLIRカメラからFLIRフィールド−オブ−ビュー(FOV)の中心への距離が、FLIR FOVにおいてカバーされる領域のサイズに対してはるかに大きい場合、残存重ね合わせ誤差は、圧倒的に、俯角θおよび方位角θの変化によって引き起こされる。他のセンサー真実値の変化は逆投影における比較的小さな変化を引き起こすに過ぎず、無視することができる。例えば、カメラ回転角θrの小さな変化は得られた逆投影に歪みを引き起こし、カメラ位置の小さな変化は逆投影における並進の小さな変化を引き起こす。さらに、俯角θおよび方位角θにおける不正確さによるFLIR特徴点の逆投影の位置の変化は、純粋な並進として近似的にモデル化することができる。換言すれば、同一の物理的特徴点に対応する特徴点の2つのサブセット(1つはSARからのものであり、1つは逆投影の後のFLIRからのものである)は並進により位置が異なるに過ぎないゆえに、特徴点の2つの組の誤重ね合わせを2−Dで解くことができる。
【0017】
この2−D並進を解くためには、特徴点の1つの対が必要なのに過ぎない:SARおよびFLIRイメージからの各々1つ。対応性(SARにおけるいずれの点がFLIRにおけるいずれの点に対応するか)が知られていなければ、この方法は用いることができない。加えて、点のただ1つの対に頼ることは、正確でもないし、または強固でもない。全ての利用可能な特徴点を用いなければならない。特徴点の対応性および残存重ね合わせ誤差を排除する並進は共に見出されなければならない。GHTは同時に双方の問題を解くのを助けることができる。GHT実行において、2−D蓄積アレイは、SAR特徴点および対応する逆−投影されたFLIR特徴点の間の並進を測定するアレイ指標で設定される。SARおよびFLIRからの特徴点の全ての可能な対を数え上げる。各そのような対につき、それらを重ね合わせるのに必要な並進を計算し、指標として並進を用いてGHT蓄積アレイにおいて1つの票を入れる。最後に、(票の数および他の因子を組み合わせる)最高スコアを持つGHT蓄積アレイエレメント(定義については下記参照)は、正しい並進を表し、エレメントにつき投票された特徴点の組は、設定されたマッチング点を形成する。この仕事を達成するようにGHTは選択される。なぜならば、それは非反復形式アプローチであり、実行するのが非常に単純であり、最も重要なことには、ノイズに対して強固であるからである。「ノイズ」は、検出された特徴点、および混乱による望まない特徴点における位置の誤差を共に含み、これは他のイメージにおいて対応性を有しない。
【0018】
GHTの実行を以下により徹底的に記載する。
【0019】
一般化されたHough変換(GHT)
GHT蓄積アレイのサイズ
アレイサイズは、以下の図面に示すように、逆投影されたFLIR特徴点、SAR特徴点のスパンによって決定される。
【0020】
【図X】
Figure 2004516533
【0021】
GHTアレイはサイズ(Xmax−Xmin)/q+1×(Ymax−Ymin)/q+1のものであり、ここに、qは量子化単位である(すなわち、蓄積アレイにおけるセルはサイズq×qの平方を表す)。量子化単位qはウィンドウサイズw(前記参照):q=[w/4]に従って決定され、ここに、[x]はxよりも大きな最小整数である。
【0022】
GHTにおけるメモリー効率を増加させるためには、SAR特徴点および逆投影されたFLIR点の群が相互に離れている場合、(例えば、FLIRから逆投影された)特徴点の1つの組は、2つの組がおおまかに同一空間を占めるように、蓄積アレイを組み立てる前にシフトすることができる。これは、例えば、点の双方の組の重心を計算し、逆投影されたFLIR点をシフトさせることによって、それらを相互に整列させることによってなすことができる。このアプローチは、特徴点の合計スパン、従って、蓄積アレイのサイズを減少させる。しかしながら、現実の並進は残存重ね合わせを解明するにおいて計算する場合、この余分なシフトを考慮しなければならない。これを達成するために逆投影されたFLIRに加えられた合計シフトを(Δx,Δy)と表す。
【0023】
GHTアルゴリズム
1.Cを適当なサイズの2−Dアレイとする。Cにおける各エレメントは並進パラメータ空間においてq×qの平方を表し、ここに、qは量子化単位である。Cにおける全てのエレメントをゼロ(0)にセットする。
【0024】
2.{(xs,ys)},i=1,…Nを逆投影されたFLIR特徴点の組とし、{(xr,yr)},i=1,….,MをSAR特徴点の組とする。以下の反復を実行する:
各(xs,ys),x=1ないしNにつき、
各(xr,yr),j=1ないしMにつき、
(dx,dy)←((xsi−xri)/q,(ysi−yri)/q)
(Dx,Dy)← [dx], [dy])
(Dx,Dy)←C(Dx,Dy)+1
(Dx−1,Dy)←C(Dx−1,Dy)+1
(Dx,Dy−1)←C(Dx,Dy−1)+1
(Dx−1,Dy−1)←C(Dx−1,Dy−1)+1
終了
終了
[式中、[x]はxより小さな最大整数である]。この工程において、SARおよびFLIR特徴点の各対は、複数の隣接セルにおいて票を投じる。従って、事実、蓄積セルは重複する範囲を有する。これは、また、得られた蓄積アレイを畳み込むことに同等であり、各対につき1つの票を投じ、2×2の核は全ての1.0を含む。重複セルの使用は、真の並進が2以上のセルの境界または境界近くに位置する状況を防ぐ。この状況は、近くのセルの中で票が割れることを引き起こし、誤った解をもたらす可能性がある。
【0025】
3.Lを、その票のカウントがゼロよりも大きく、その位置の標準偏差σ(後記にて定義)が組閾値T未満である蓄積セルのリストとする。リストL中の各セルにつきスコアを計算する。
【0026】
各蓄積セルのスコアはa)票の数;b)共通特徴を持つ物体の組からのものであるセルにつき票を投じる(双方のイメージからの)特徴点の尤度の関数である。本発明では、スコアは、セル中の全ての対のFLIR特徴強度の合計と定義される。FLIR特徴強度は、今度は、そのバックグラウンドに対するFLIR特徴の平均コントラストである。スコアの関数はSARからの特徴強度を含むことができる。この「スコアリング関数」の目的は、GHTの結果をランク付けすることである。位置標準偏差σは、与えられたセルにおける、票についてのdxおよびdyの標準偏差の幾何平均である;
σ= √σ +σ
[式中、σおよびσは、各々、dxおよびdyの標準偏差である]。位置標準偏差についての閾値はTi=(2/3)qに設定され、ここに、qはセル量子化単位である。定数2/3は、得られた結果において高信頼性を維持するのに用いられる。その結果、位置標準偏差の使用はGHTの結果を効果的にスクリーニングする。
【0027】
4.(dxm,dym)を、最大スコアを持つLにおけるセルについての指標とする。
【0028】
5.もし(dxm,dym)におけるCでの票カウントK、K=C(dxm,dym)が4未満であれば(すなわち、C(dxm、dym)<4)、失敗が報告され終了する。さもなければ成功が報告され、(dmx,dym)におけるセルについて投票された対の組はマッチング解を構成する。
【0029】
工程4:重ね合わせ変換の見積もり
最後の工程におけるGHTの結果、SARおよびFLIRからの特徴点のマッチング対の組が得られる。マッチング点のこの組でもって、重ね合わせ変換を見積もることができ、これを用いて、FLIRイメージにおけるいずれの点(マッチング組における点に限らない)もSARイメージに変換することができる。重ね合わせ変換を見積もるための2つの方向が記載される。
【0030】
最小二乗方法
マッチング特徴点の4以上の対の組において、最小二乗方法を用い、SARおよびFLIRイメージの間の重ね合わせ変換を見積もるのは容易である。方程式(4)を(3)に代入し、係数を正規化し、FLIRイメージ点をSARイメージに変換するための以下の方程式が得られる:
Figure 2004516533
[式中、(X,Y)はFLIR特徴点の座標であり、(xr,yr)は対応するSAR特徴点の座標であり]、および
(数式6)
Figure 2004516533
【0031】
であり、[式中、cおよびA,N=1,…,8は、各々、方程式(4)および(3)に定義される]。方程式(5)中の項を並べなおした後、以下の結果が得られる。
(数式7)
Figure 2004516533
【0032】
マッチング点の各対は、方程式(7)の形式で2つの同時線形方程式を与える。方程式(7)中の8つのパラメータBないしBを解くためには、マッチング点の少なくとも4つの対が必要である。マッチング点の4以上の対があれば、パラメータBないしBに対する最小二乗解を見出すことができ、これは以下の誤差項を最小化する:
Figure 2004516533
[式中、Kは点対の数であり、exlおよびeylは方程式7)に基づく誤差項である]:
Figure 2004516533
逆ヤコビアン方法
前記で与えられた最小二乗方法は、マッチング点対の組を用い、変換の8つのパラメータを最初から解く。初期重ね合わせ変換は方程式(3)によってすでに与えられているので、GHTで見出されたマッチング点対の組を用いて初期変換を更新することによっても、最終重ね合わせ変換を見出すことができる。工程3における「パラメーターサーチ空間減少」で議論したごとく、残存重ね合わせ誤差は、主として、俯角θおよび方位角θにおける誤差によって引き起こされる。従って、残存重ね合わせ誤差および関係する2つの角度の間の関係を確立することができる。以下のヤコビアン行列が定義される:
(数式10)
Figure 2004516533
【0033】
Jは、2つの回転パラメータ、俯角θおよびθ方位角θおよびθに関する方程式(3)における(xr,yr)のヤコビアン行列である。これらの2つのパラメータに対する更新は、以下の:
(数式11)
Figure 2004516533
【0034】
[式中、(Δx,Δy)は残存並進重ね合わせ誤差であり、J−1はヤコビアン行列の逆行列である]
を用いることによって生じる。(Δx,Δy)は、工程3におけるGHTの結果からのセル(dxm,dym)における全ての票につき複数dxおよびdyを平均することによって決定することができる。
(数式12)
Figure 2004516533
【0035】
[式中、K=C(dxm、dym)は(dxm,dym)における蓄積アレイでの票の数であり、dxおよびdy,i=1,…,Kは(dxm,dym)における特徴点の対についての並進の成分であり、ΔxおよびΔyは逆投影されたFLIR点に適用された全体シフトである(第8ページ,13行参照)]
方程式(11)および(12)に従ってセンサー真実データにおけるθおよびθを更新した後、方程式(3)中のAないしAとz=h(ここに、hは接地面上昇である)のパラメータを計算することによって、変換パラメータBないしBを再度計算することができる。実験においては、h=0を用いた。しかしながら、hは、イメージされた領域についての公知の範囲の上昇で置き換えるべきである。一旦AないしAが計算されたならば、方程式(5)で説明した変換についての係数BないしBは、方程式(6)に従って誘導することができる。
【0036】
工程5:重ね合わせの確認
重ね合わせ確認工程は2つの目的を有する。1つは、マッチの組(SARおよびFLIR特徴点の対)が事実、幾何学的に可能であることを保障することである。第2は、さらなる可能なマッチをピックアップするか、いくつかの誤ったマッチを捨てることである。確認は、方程式(5)に従って、工程4における新たに見積もられたパラメータBないしBを用いて全てのFLIR特徴点をSARイメージにまず変換することによってなされる。次いで、各変換されたFLIR点につき、XおよびYの両方向における4(画素)の距離内の最も近いSAR特徴点についてサーチがなされる。再度、番号4を好ましくは用いて高い信頼性を維持する。もしそのようなSAR特徴点が見いだされれば、FLIRおよびSARの特徴点の対を新しいマッチした点のリストに加える。
【0037】
一旦確認が成されれば、新しいマッチした点のリストをチェックして、それが4を超える点を含むか否かを判断する。もし是であれば、重ね合わせは完了する。もし否であれば、重ね合わせは失敗である。
【図面の簡単な説明】
【図1】図1は、SARおよびFLIRイメージ重ね合わせ方法についてのシステムダイアグラムを示す模式的ダイアグラムである。[0001]
TECHNICAL FIELD OF THE INVENTION
(Field of the Invention)
The present invention relates to a method for decomposing two images. In particular, the present invention relates to a two-step method for decomposing a synthetic aperture radar (SAR) image and a forward-looking infrared (FLIR) image.
[0002]
2. Description of the Related Art
(Brief description of prior art)
Traditional image superposition systems rely on the similarity between pairs of images to be superimposed in the spatial distribution of gray levels, using a number of modification techniques variants. These approaches do not work when the spatial gray level distribution of an image changes between images, due to the different phenomenology used by imaging sensors such as SAR and FLIR. Feature-based image superposition techniques rely on some similarity between extracted features (other than points) from two images. Individual feature segments of one image can be matched against one from another using these extracted features. However, these types of features are rarely present in both SARs and FLIRs, or are very difficult to extract. On the other hand, point-based superposition techniques develop a specific arrangement of image point sets that satisfies imaging the model and sensor arrangement under perspective transformation. This typically involves searching for sets of parameters in a multidimensional space that includes high computational complexity.
[0003]
Superposition is needed in multi-sensor systems (such as air sensors) to solve correspondence or matching problems. Given a pair of SAR and FLIR images and an associated sensor model, at least six independent parameter values must be determined to superimpose the two images. This is generally difficult without some prior knowledge of the sensor platform (including the sensor model and related parameters, sensor position and orientation). Theoretically, the two images can be superimposed if all sensor parameters and sensor platform information are known. However, in practice, even with state-of-the-art sensor technology, superposition is still required due to errors and / or noise in the sensor system or due to the nature of its operation. For SAR and FLIR image superposition, this takes a special challenge. This is because SAR and FLIR images have several features that can be easily used to modify the two images.
[0004]
Therefore, it would be desirable to provide a method that can overlay SAR and FLIR images with low computational complexity and high robustness.
[0005]
[Means for Solving the Problems]
(Summary of the Invention)
The present invention relates to a method for decomposing synthetic aperture radar (SAR) images and forward-looking infrared (FLIR) images based on feature points detectable from both images. The method is distinguished by two stages: an initial overlay stage and a residual overlay stage. In the initial superposition, the feature points detected from the FLIR image are transformed into SAR image coordinates. In the residual superposition stage, the set of feature points from the SAR and those from the FLIR undergo a generalized Hough transform (GHT), from which the largest subset of matching points is obtained and the superposition transform is obtained. it can. The method in the present invention, with the method used in the first stage, allows the remaining superposition of the second stage to be made in a two-dimensional (2-D) GHT rather in a higher dimension.
[0006]
Using the available sensor parameters and sensor position information, the overlay work consists of five steps: (1) detecting feature points from both SAR and FLIR images; (2) using known sensor parameters and sensor platform information. Convert the feature points from the FLIR image to the SAR image; (3) perform a GHT on the set of SAR feature points in the 2-D translation domain and the converted set of FLIR feature points, and extract the maximum subset of matching feature points from the GHT. (4) calculate the updated overlay transform; and then (5) evaluate the overlay transform. As a result, the present invention provides both an image superposition transform that aligns the SAR and FLIR, and a corresponding set of point pairs between the SAR and FLIR images. The reduction in overlay search space involved in overlay is from six to two dimensions. The consequences of this reduction include a false reduction and a substantial reduction in the possibility of robust registration against noise and errors introduced during data acquisition. The method also works when the matching of the feature point sets constitutes only a very small part of the total feature point population in both SAR and FLIR images, the rest being caused by random clusters in the scene.
[0007]
BEST MODE FOR CARRYING OUT THE INVENTION
(Detailed description of the present invention)
The present invention relates to a method for decomposing a SAR image and a FLIR image by using feature points extracted from both images. The method of the invention is described below as a process comprising five distinct steps. The inputs required for the present invention are the feature points described in step 1 below, and the output of the present invention is 1) correspondence of feature points from SAR and FLIR images; 2) any point in FLIR images Also includes a superposition transform that converts to a SAR image.
[0008]
Step 1: Feature Point Extraction First, feature points are extracted from both SAR and FLIR images by using one of the well-known algorithms, such as a constant false-alarm rate (CFAR) detector. The requirement for the feature points to be used in the present invention is that they must represent some kind of detectable point from both the SAR and the FLIR and can be similarly located in both images. An example of such a feature point is the position of certain objects in the scene. In target detection / recognition applications, feature points can have target-likeness measures, if desired. Step 1 assumes that the two images have overlap in the space they cover, and that a common feature point can be detected from both images. If these assumptions are not true, the registration fails and the situation can be detected in steps 3 or 5. There is a parameter in feature extraction called the window size w, which among other things determines how close (measured at image pixels) the two detected features can be. The window size is determined by the nature of the features in the image (such as the object size). A window size of w = 21 for SAR is used as a non-limiting example in the following description. A specific window size for FLIR is not required in practicing the present invention.
[0009]
Step 2: Initial Superposition Initial superposition is a process that uses the available sensor truth data (perhaps for noise and error) to transform the feature points detected in the FLIR image into a SAR image ground plane coordinate frame. is there. Sensor truth data includes sensor parameters (including, but not limited to, solutions for SAR and FLIR and focal length for FLIR), sensor location information (sensor location, azimuth for + FLIR, tilt angle and Rotation angle). To convert FLIR feature points to SAR, create a FLIR sensor-imaging model in a uniform coordinate system:
(Equation 1)
Figure 2004516533
[0010]
Where P is a three-dimensional (3-D) point in the camera coordinate frame representing the point to be imaged, (XY) is the image of P, u is the scaling factor, and F is the camera Focal length]. P can be represented by the coordinates (x, y, z) l in the reference frame W as follows:
(Equation 2)
Figure 2004516533
[0011]
Where R r , R d and R a are 3 × 3 orthonormal rotation matrices representing the rotation angle θ r , depression angle θ d and azimuth θ a of the camera coordinate frame with respect to the reference frame, and (t x , Ty , tz ) l is a position vector representing the origin of the camera coordinate frame in the reference frame W].
[0012]
For simplicity, in the remainder of this section, the reference frame will have its XOY plane occupying the same space as the SAR image ground plane, and its X and Y axes will be the same space as the XAR image X and Y axes, respectively. , And assume that its Z axis points upward. Assuming that all the points of interest of the FLIR camera are on the ground plane where z = h in the selected reference frame, equations (1) and (2) can be solved for x and y, so that , Resulting in a backprojection transformation from the image point (XY) to the 3-D point, (x, y, z):
Figure 2004516533
[0013]
The backprojection transform of equation (3) is applied to each feature point in the FLIR image. These back-projected feature points are then simply evaluated in SAR image coordinates as follows:
(Equation 4)
Figure 2004516533
[0014]
Where (x, y) t is the backprojection of the FLIR feature points in the reference frame W, (xs, ys) is the backprojection in the SAR image, and c is a constant that reflects the solution of the SAR image. is there. In the remainder of the discussion, reference will be made to a mathematical transformation involving both equations (3) and (4) as "backprojection". {(Xs i , ys i )}, i = 1,..., N are a set of back-projected FLIR feature points, and {(xr i , y r i )}, i = 1. Make a set. Currently, the superposition problem, is to match the subset of {(xs i, ys i) } a subset of {(xr i, yr i) }. If utilized if accurate measurements of the sensor truth, {(xs i, ys i )} subset of map exactly to a corresponding subset of {(xr i, yr i) }, the detection position is a correct, Assume that the relevant assumptions are true. However, in reality, sensor truth data is often not accurate due to noise and measurement errors. Noise and errors in the measurements can cause residual registration errors such that the SAR feature points and the backprojected FLIR feature points do not align correctly if they correspond to the same feature points in the scene.
[0015]
Thus, the general problem of matching such two sets of feature points involves searching in a parameter space of at least six dimensions (3 for rotation and 3 for translation) to account for measurement errors and noise. . This assumes that the sensor parameters (sensor resolution and focal length) can be accurately measured.
[0016]
Step 3: Remaining superposition parameter search The space reduction equation (3) represents a general expression for backprojecting any image point to the 3-D point. A detailed analysis of the relationship between changes in sensor truth and the back projection of FLIR feature points (xs, ys) t is based on the fact that the distance from the FLIR camera to the center of the FLIR field-of-view (FOV) is , The residual registration error is predominantly caused by changes in depression angle θ d and azimuth angle θ a . Changes in other sensor truth values cause only relatively small changes in backprojection and can be ignored. For example, a small change in the camera rotation angle θr causes distortion in the resulting backprojection, and a small change in the camera position causes a small change in translation in the backprojection. Further, the change in the backprojection position of the FLIR feature points due to inaccuracies at the depression angle θ d and the azimuth angle θ a can be approximately modeled as pure translation. In other words, two subsets of feature points corresponding to the same physical feature point (one from the SAR and one from the FLIR after backprojection) are translated by translation. Because they are only different, the mis-superposition of the two sets of feature points can be solved in 2-D.
[0017]
To solve this 2-D translation, only one pair of feature points is needed: one each from SAR and FLIR images. Unless the correspondence (which point in the SAR corresponds to which point in the FLIR) is not known, this method cannot be used. In addition, relying on only one pair of points is neither accurate nor robust. All available feature points must be used. Feature point correspondences and translations that eliminate residual registration errors must both be found. GHT can help solve both problems at the same time. In a GHT implementation, the 2-D accumulation array is set with an array index that measures the translation between the SAR feature points and the corresponding back-projected FLIR feature points. Enumerate all possible pairs of feature points from SAR and FLIR. For each such pair, calculate the translation required to superimpose them and place one vote in the GHT storage array using translation as an index. Finally, the GHT accumulation array element with the highest score (combining the number of votes and other factors) (see below for definition) represents the correct translation and the set of feature points voted for the element is set. Form a matching point. The GHT is chosen to accomplish this task. Because it is a non-iterative approach, it is very simple to implement and, most importantly, robust against noise. "Noise" includes both detected feature points and positional errors at undesired feature points due to confusion, which have no correspondence in other images.
[0018]
The implementation of the GHT is described more thoroughly below.
[0019]
Generalized Hough transform (GHT)
The size of the GHT storage array The array size is determined by the span of the back-projected FLIR and SAR feature points, as shown in the following figures.
[0020]
[Figure X]
Figure 2004516533
[0021]
The GHT array is of size (X max −X min ) / q + 1 × (Y max −Y min ) / q + 1, where q is a quantization unit (ie, the cells in the storage array are of size q × q ). The quantization unit q is determined according to the window size w (see above): q = [w / 4], where [x] is the smallest integer greater than x.
[0022]
To increase the memory efficiency in the GHT, if the SAR feature points and the backprojected FLIR point cloud are separated from each other, one set of feature points (eg, backprojected from the FLIR) will be 2 It can be shifted before assembling the storage array so that one set occupies roughly the same space. This can be done, for example, by calculating the centroids of both sets of points and shifting them back-projected FLIR points to align them with each other. This approach reduces the total span of the feature points, and thus the size of the storage array. However, this extra shift must be considered when calculating the actual translation in resolving the residual superposition. The total shift applied to the backprojected FLIR to achieve this is denoted as (Δx g , Δy g ).
[0023]
GHT algorithm Let C be an appropriately sized 2-D array. Each element in C represents the square of q × q in the translation parameter space, where q is a quantization unit. Set all elements in C to zero (0).
[0024]
2. {(Xs i , ys i )}, i = 1,..., N is a set of back-projected FLIR feature points, and {(xr i , y r i )}, i = 1,. , M as a set of SAR feature points. Perform the following iteration:
For each (xs i , ys i ), x = 1 to N,
For each (xr j , yr j ), j = 1 to M,
(Dx, dy) ← ((xsi-xri) / q, (ysi-yri) / q)
(Dx, Dy) ← [dx], [dy])
(Dx, Dy) ← C (Dx, Dy) +1
(Dx-1, Dy) ← C (Dx-1, Dy) +1
(Dx, Dy-1) ← C (Dx, Dy-1) +1
(Dx-1, Dy-1) ← C (Dx-1, Dy-1) +1
End end, where [x] is the largest integer less than x. In this step, each pair of SAR and FLIR feature points casts a vote in a plurality of adjacent cells. Thus, in fact, the storage cells have overlapping ranges. This is also equivalent to convolving the resulting storage array, casting one vote for each pair and a 2x2 kernel containing all 1.0. The use of overlapping cells prevents situations where a true translation is located at or near the boundary of two or more cells. This situation can cause the vote to crack in nearby cells, leading to erroneous solutions.
[0025]
3. Let L be a list of storage cells whose count for the vote is greater than zero and for which the standard deviation σ l (defined below) of that position is less than the set threshold T l . A score is calculated for each cell in the list L.
[0026]
The score of each storage cell is a function of the likelihood of the feature points (from both images) a) the number of votes; b) the votes for cells that are from a set of objects with common features. In the present invention, the score is defined as the sum of the FLIR feature strengths of all pairs in the cell. FLIR feature intensity is, in turn, the average contrast of the FLIR feature against its background. The function of the score may include the feature strength from the SAR. The purpose of this "scoring function" is to rank the GHT results. The position standard deviation σ l is the geometric mean of the standard deviations of dx and dy for a vote in a given cell;
σ l = √σ x 2 + σ y 2
Where σ x and σ y are the standard deviations of dx and dy, respectively. The threshold for the position standard deviation is set to Ti = (2/3) q, where q is the cell quantization unit. The constant 2/3 is used to maintain high reliability in the obtained results. As a result, the use of positional standard deviation effectively screens GHT results.
[0027]
4. Let (dxm, dym) be the index for the cell in L with the largest score.
[0028]
5. If the vote count K, K = C (dxm, dym) at C at (dxm, dym) is less than 4 (ie, C (dxm, dym) <4), a failure is reported and the process ends. Otherwise a success is reported and the pair pairs voted for the cell at (dmx, dym) constitute a matching solution.
[0029]
Step 4: Estimation of superposition transformation As a result of the GHT in the last step, a set of matching pairs of feature points from SAR and FLIR is obtained. With this set of matching points, the overlay transform can be estimated and used to convert any point in the FLIR image (not limited to the points in the matching set) to a SAR image. Two directions for estimating the superposition transform are described.
[0030]
It is easy to estimate the superposition transform between SAR and FLIR images using the least squares method on a set of four or more pairs of least squares matching feature points. Substituting equation (4) into (3), normalizing the coefficients and obtaining the following equation for converting FLIR image points to SAR images:
Figure 2004516533
[Where, (X, Y) is the coordinates of the FLIR feature point and (xr, yr) are the coordinates of the corresponding SAR feature point], and (Formula 6)
Figure 2004516533
[0031]
Where c and A n , N = 1,..., 8 are defined in equations (4) and (3), respectively. After rearranging the terms in equation (5), the following results are obtained.
(Equation 7)
Figure 2004516533
[0032]
Each pair of matching points gives two simultaneous linear equations in the form of equation (7). Solving the eight parameters B 1 to B 8 in equation (7) requires at least four pairs of matching points. With four or more pairs of matching points, a least-squares solution for the parameters B 1 to B 8 can be found, which minimizes the following error terms:
Figure 2004516533
Where K is the number of point pairs and exl and eyl are error terms based on equation 7):
Figure 2004516533
Inverse Jacobian Method The least squares method given above uses a set of matching point pairs and solves the eight parameters of the transformation from the beginning. Since the initial overlay transform has already been given by equation (3), the final overlay transform can also be found by updating the initial transform with the set of matching point pairs found in the GHT. As discussed in the "parameter search space reduction" in step 3, the residual overlay error is mainly caused by errors in the depression angle theta d and azimuth theta a. Thus, a relationship between the remaining registration error and the two angles involved can be established. The following Jacobian matrix is defined:
(Equation 10)
Figure 2004516533
[0033]
J is the Jacobian matrix of the two rotation parameters, in equation (3) relating to depression angle theta d and theta a azimuth angle theta d and θ a (xr, yr). Updates to these two parameters are:
(Equation 11)
Figure 2004516533
[0034]
[Where, (Δx, Δy) is the residual translational superposition error, and J −1 is the inverse matrix of the Jacobian matrix]
This is caused by using (Δx, Δy) can be determined by averaging multiple dx and dy for all votes in cell (dxm, dym) from the GHT result in step 3.
(Equation 12)
Figure 2004516533
[0035]
Wherein, K = C (dxm, dym ) is (dxm, dym) the number of votes in the storage array in, dx i and dy i, i = 1, ... , K is characterized in (dxm, dym) The translation components for the point pairs, Δx g and Δy g are the overall shifts applied to the backprojected FLIR points (see page 8, line 13)]
After updating θ d and θ a in the sensor truth data according to equations (11) and (12), A 1 through A 9 and z = h in equation (3) (where h is the ground contact rise) , The conversion parameters B 1 to B 8 can be calculated again. In the experiment, h = 0 was used. However, h should be replaced by a known range increase for the imaged area. Once A 1 to A 9 have been calculated, the coefficients B 1 to B 8 for the transformation described in equation (5) can be derived according to equation (6).
[0036]
Step 5: Confirmation of overlay The overlay confirmation step has two purposes. One is to ensure that the set of matches (the pair of SAR and FLIR feature points) is in fact geometrically possible. The second is to pick up more possible matches or discard some false matches. Confirmation, according to equation (5) is done by first converting all the FLIR feature points SAR image using to parameters B 1 without the estimated new in Step 4 B 8. Then, for each transformed FLIR point, a search is made for the closest SAR feature point within a distance of 4 (pixels) in both the X and Y directions. Again, number 4 is preferably used to maintain high reliability. If such SAR feature points are found, the FLIR and SAR feature point pairs are added to the new list of matched points.
[0037]
Once confirmed, the list of new matched points is checked to determine if it contains more than four points. If so, the overlay is complete. If not, the overlay fails.
[Brief description of the drawings]
FIG. 1 is a schematic diagram showing a system diagram for a SAR and FLIR image superposition method.

Claims (6)

以下の工程:
合成開口レーダー(SAR)および前向き赤外線(FLIR)イメージから特徴点を抽出し;
前期FLIRイメージの初期重ね合わせを生じさせ;
一般化されたHough変換を利用して前期FLIRイメージの二次元残存重ね合わせを生じさせ;
重ね合わせ変換を見積もり;次いで
重ね合わせを確認する;
ことを特徴とするSARおよびFLIRイメージからマッチング特徴点の組を得る方法。
The following steps:
Extract feature points from synthetic aperture radar (SAR) and forward-looking infrared (FLIR) images;
Causing an initial overlay of the FLIR image;
Utilizing the generalized Hough transform to produce a two-dimensional residual superposition of the FLIR image;
Estimate overlay conversion; then check overlay;
Obtaining a set of matching feature points from SAR and FLIR images.
抽出工程が:
一定パルス−アラーム速度(CFAR)ディテクターのごときアルゴリズムを用いることを含む請求項1記載のSARおよびFLIRイメージからマッチング特徴点の組を得る方法。
The extraction process is:
The method of obtaining a set of matching feature points from SAR and FLIR images according to claim 1, comprising using an algorithm such as a constant pulse-alarm speed (CFAR) detector.
SARイメージが接地面およびX、YおよびZ軸を有し、ここに、FLIRイメージが接地面およびX、YおよびZ軸を有し、ここに、初期重ね合わせを生じさせる工程が均一座標系:
(数式1)
Figure 2004516533
[式中、Pは原点を有し、イメージすべき点を表すカメラ座標フレーム中の三次元(3−D)点であり、(X,Y)はPのイメージであり、uはスケーリングファクターであり、fはカメラ焦点長である]
を用い;
XOY面を有する参照フレームWにおけるその座標(X,Y,Z)によって以下のごとくPを表し:
(数式2)
Figure 2004516533
[式中、R、RおよびRは、参照フレームに対するカメラ座標フレームの回転角θ、俯角θおよび方位角θを表す3×3正規直交回転行列であり、および(t,t,tは参照フレームWにおけるカメラ座標フレームの原点を表す位置ベクトルである];
参照フレームは、そのXOY面がSARイメージ接地面と同一の空間を占め、そのXおよびY軸は、各々、SARイメージのXおよびY軸と同一の空間を占め、そのZ軸はイメージ接地面に対して上方に向き、およびFLIRイメージにおける全ての点が、参照フレームWに対する接地面上昇を表すz=hを持つ接地面に存在すると仮定し;
xおよびyを解き、その結果、イメージ点(X,Y)から3−Dの点、(x,y,z)への逆投影変換が得られ:
Figure 2004516533
FLIRイメージにおける各特徴点につき方程式(3)の逆投影変換を適用し;
逆投影特徴点を以下のごとくSARイメージ座標に基準化し:
(数式4)
Figure 2004516533
[式中、(x,y)は参照フレームWにおけるFLIR特徴点の逆投影であり、(xs,ys)はSARイメージにおける逆投影であり、およびcはSARイメージの解を反映する定数である];次いで、
逆投影されたFLIR特徴点の組として{(xs,ys)},i=1,...,N、およびSAR特徴点の組としての{(xr,yr)},i=1,...,Mを生じさせる;
ことを含む請求項1記載の前期SARおよびFLIRイメージからの特徴点をマッチングさせる方法。
The SAR image has a ground plane and the X, Y, and Z axes, where the FLIR image has a ground plane and the X, Y, and Z axes, wherein the process of producing the initial overlay is a uniform coordinate system:
(Equation 1)
Figure 2004516533
Where P is a three-dimensional (3-D) point in the camera coordinate frame that has the origin and represents the point to be imaged, (X, Y) is the image of P, and u is the scaling factor. And f is the camera focal length]
Using;
Represent P by its coordinates (X, Y, Z) t in a reference frame W having an XOY plane as follows:
(Equation 2)
Figure 2004516533
Where R r , R d and R a are 3 × 3 orthonormal rotation matrices representing the rotation angle θ r , depression angle θ d and azimuth θ a of the camera coordinate frame with respect to the reference frame, and (t x , Ty , tz ) l is a position vector representing the origin of the camera coordinate frame in the reference frame W];
The reference frame has its XOY plane occupying the same space as the SAR image ground plane, its X and Y axes occupying the same space as the SAR image X and Y axes, respectively, and its Z axis at the image ground plane. Facing upwards, and assuming that all points in the FLIR image are on the ground plane with z = h representing the ground plane rise relative to the reference frame W;
Solving x and y results in a backprojection transformation from the image point (X, Y) to the 3-D point, (x, y, z):
Figure 2004516533
Applying the backprojection transform of equation (3) for each feature point in the FLIR image;
Backprojected feature points are scaled to SAR image coordinates as follows:
(Equation 4)
Figure 2004516533
Where (x, y) t is the backprojection of the FLIR feature points in the reference frame W, (xs, ys) is the backprojection in the SAR image, and c is a constant that reflects the solution of the SAR image. There]; then
As a set of backprojected FLIR feature points {(xs i, ys i) }, i = 1 ,. . . , N, and SAR of feature points set as the {(xr i, yr i) }, i = 1 ,. . . , M;
2. The method for matching feature points from SAR and FLIR images according to claim 1, comprising:
二次元残存重ね合わせを生じさせるために一般化されたHough変換を用いる請求項3記載のSARおよびFLIRイメージからの特徴点をマッチングさせる方法であって、前期生じさせる工程が:
逆投影されたFLIR特徴点およびSAR特徴点のスパンからアレイサイズを決定し;
サイズ(Xmax−Xmin)/q+1×(Ymax−Ymin)/q+1(式中、qは量子化単位を表す)の一般化されたHough変換アレイを有し;
ウィンドウサイズw:q=[w/4]に従って量子化単位qを決定し、ここに、[x]はxよりも大きい最小整数であり;次いで、
5工程の一般化されたHough変換(GHT)を用いて、二次元残存重ね合わせリストを生じさせる;
ことを含む前期方法。
4. The method of matching feature points from SAR and FLIR images according to claim 3, wherein a generalized Hough transform is used to produce the two-dimensional residual superposition, wherein the producing comprises:
Determining the array size from the span of the backprojected FLIR and SAR feature points;
Having a generalized Hough transform array of size (X max −X min ) / q + 1 × (Y max −Y min ) / q + 1, where q represents a quantization unit;
Determine the quantization unit q according to the window size w: q = [w / 4], where [x] is the smallest integer greater than x;
Using a five-step generalized Hough transform (GHT) to generate a two-dimensional residual superimposed list;
The method including the above.
前期見積もる工程が:
最小二乗方法、あるいは逆ヤコビアン(Jacobian)方法を用い;次いで、逆ヤコビアン方法を用いて前期重ね合わせを更新する;
ことを含む請求項1記載のSARおよびFLIRイメージからの特徴点をマッチングさせる方法。
The process to estimate in the previous term is:
Use the least-squares method or the inverse Jacobian method; then update the superposition using the inverse Jacobian method;
2. The method for matching feature points from SAR and FLIR images according to claim 1, comprising:
SARイメージは、各々、複数の特徴点を含み、各特徴点は画素よりなり、各画素はxおよびy座標によって表され、ここに、FLIRイメージは、各々、複数の特徴点を含み、各特徴点は画素よりなり、各画素はxおよびy座標によって表され、ここに、前期確認工程が:
最小二乗方法あるいは逆ヤコビアン方法を用いてFLIR特徴点の全てをSAR座標に変換して、新たに見積もられたパラメータBないしBの組を生じさせ;
xおよびy両座標において4画素の距離内の各変換されたFlIR特徴点に対して最も近いSAR特徴点につきサーチを行い;
もしかかるSAR特徴点が見出されれば、FLIRおよびSAR特徴点の対を二次元残存重ねあわせに加え;次いで、
二次元残存重ね合わせをチェックし、次いで、それが4を超える点を含む場合に重ね合わせは完了したと判断する;
ことを含む請求項1記載のSARおよびFILRイメージからの特徴点をマッチングさせる方法。
The SAR images each include a plurality of feature points, each feature point is composed of a pixel, and each pixel is represented by x and y coordinates, where the FLIR image each includes a plurality of feature points, The points are made up of pixels, each pixel being represented by an x and y coordinate, where the validation step is:
All FLIR feature points using the least squares method or reverse Jacobian method is converted into SAR coordinates, to the parameter B 1 is no estimated new cause a set of B 8;
performing a search for the closest SAR feature point to each transformed FlIR feature point within a distance of 4 pixels in both x and y coordinates;
If such SAR feature points are found, the FLIR and SAR feature point pairs are added to the two-dimensional residual overlay;
Check the two-dimensional residual overlay, and then determine that the overlay is complete if it contains more than 4 points;
2. The method for matching feature points from SAR and FILR images according to claim 1.
JP2002529716A 2000-09-22 2001-09-22 Synthetic aperture radar and forward-looking infrared image superposition method Pending JP2004516533A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/668,657 US6795590B1 (en) 2000-09-22 2000-09-22 SAR and FLIR image registration method
PCT/US2001/029877 WO2002025592A2 (en) 2000-09-22 2001-09-22 Sar and flir image registration method

Publications (1)

Publication Number Publication Date
JP2004516533A true JP2004516533A (en) 2004-06-03

Family

ID=24683228

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002529716A Pending JP2004516533A (en) 2000-09-22 2001-09-22 Synthetic aperture radar and forward-looking infrared image superposition method

Country Status (5)

Country Link
US (1) US6795590B1 (en)
EP (1) EP1319216A2 (en)
JP (1) JP2004516533A (en)
AU (1) AU2001294679A1 (en)
WO (1) WO2002025592A2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101840517A (en) * 2010-04-27 2010-09-22 武汉大学 Control point image database matching method based on image registration and device thereof
JP2010236970A (en) * 2009-03-31 2010-10-21 Mitsubishi Space Software Kk Generation device, reproduction device, generation program, reproduction program, generation method, and reproduction method of sar (synthetic aperture radar) superimposed data

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10120536C2 (en) * 2001-04-26 2003-12-24 Eads Deutschland Gmbh Radar system for active obstacle warning and imaging of the earth's surface
DE10120537C2 (en) * 2001-04-26 2003-12-18 Eads Deutschland Gmbh Method for recognizing and identifying objects using a plurality of sensors present in an aircraft
US7310440B1 (en) * 2001-07-13 2007-12-18 Bae Systems Information And Electronic Systems Integration Inc. Replacement sensor model for optimal image exploitation
US7298866B2 (en) * 2001-10-15 2007-11-20 Lockheed Martin Corporation Two dimensional autonomous isotropic detection technique
US7751651B2 (en) * 2004-04-02 2010-07-06 The Boeing Company Processing architecture for automatic image registration
US20060215935A1 (en) * 2004-04-02 2006-09-28 The Boeing Company System and architecture for automatic image registration
US7773799B2 (en) * 2004-04-02 2010-08-10 The Boeing Company Method for automatic stereo measurement of a point of interest in a scene
US8055100B2 (en) * 2004-04-02 2011-11-08 The Boeing Company Method and system for image registration quality confirmation and improvement
US7006031B1 (en) * 2004-10-19 2006-02-28 Raytheon Company Interrupt SAR image restoration using linear prediction and Range Migration Algorithm (RMA) processing
US7873240B2 (en) * 2005-07-01 2011-01-18 The Boeing Company Method for analyzing geographic location and elevation data and geocoding an image with the data
US7580591B2 (en) * 2005-07-01 2009-08-25 The Boeing Company Method for generating a synthetic perspective image
US7606420B1 (en) * 2005-10-31 2009-10-20 Adobe Systems, Incorporated Method and apparatus for improving the speed of belief propagation
WO2007071113A1 (en) * 2005-12-22 2007-06-28 Qifeng Yu A three-images isoline correlation interferometric method for generating an interferogram of radar
GB0625455D0 (en) * 2006-12-20 2007-01-31 Mitsubishi Electric Inf Tech Graph-based multiple panorama extraction from unordered image sets
WO2008075061A2 (en) * 2006-12-20 2008-06-26 Mitsubishi Electric Information Technology Centre Europe B.V. Multiple image registration apparatus and method
US20090027417A1 (en) * 2007-07-24 2009-01-29 Horsfall Joseph B Method and apparatus for registration and overlay of sensor imagery onto synthetic terrain
US8155433B2 (en) * 2008-07-10 2012-04-10 Goodrich Corporation Method of object location in airborne imagery using recursive quad space image processing
CN101561865B (en) * 2009-05-22 2012-03-28 西安电子科技大学 Synthetic aperture radar image target identification method based on multi-parameter spectrum feature
CN101923711B (en) * 2010-07-16 2012-06-20 西安电子科技大学 SAR (Synthetic Aperture Radar) image change detection method based on neighborhood similarity and mask enhancement
CN102323570B (en) * 2011-05-24 2013-03-13 中国人民解放军国防科学技术大学 Method for estimating magnitude-phase characteristics of radar target echo signal simulator
CN102903075B (en) * 2012-10-15 2015-04-08 西安电子科技大学 Robust watermarking method based on image feature point global correction
US9210417B2 (en) * 2013-07-17 2015-12-08 Microsoft Technology Licensing, Llc Real-time registration of a stereo depth camera array
CN103593669B (en) * 2013-11-22 2016-08-24 中国电子科技集团公司第五十四研究所 A kind of method that polarimetric synthetic aperture radar image four component decomposes
CN103971362B (en) * 2013-12-24 2017-03-29 西安电子科技大学 SAR image change-detection based on rectangular histogram and elite genetic algorithm for clustering
CN104268574A (en) * 2014-09-25 2015-01-07 西安电子科技大学 SAR image change detecting method based on genetic kernel fuzzy clustering
CN105184801B (en) * 2015-09-28 2018-01-23 武汉大学 It is a kind of based on multi-level tactful optics and SAR image high-precision method for registering
US10027954B2 (en) 2016-05-23 2018-07-17 Microsoft Technology Licensing, Llc Registering cameras in a multi-camera imager
US10339662B2 (en) 2016-05-23 2019-07-02 Microsoft Technology Licensing, Llc Registering cameras with virtual fiducials
US10326979B2 (en) 2016-05-23 2019-06-18 Microsoft Technology Licensing, Llc Imaging system comprising real-time image registration
JP7152131B2 (en) * 2016-09-21 2022-10-12 日本電気株式会社 Image processing device, image processing method and program
CN108469612B (en) * 2018-03-20 2020-06-05 西安电子科技大学 Bistatic time-varying acceleration foresight SAR imaging method based on equivalent slope distance
CN108510531A (en) * 2018-03-26 2018-09-07 西安电子科技大学 SAR image registration method based on PCNCC and neighborhood information
CN109816724B (en) * 2018-12-04 2021-07-23 中国科学院自动化研究所 Three-dimensional feature extraction method and device based on machine vision
CN109615584B (en) * 2018-12-17 2022-12-06 辽宁工程技术大学 SAR image sequence MAP super-resolution reconstruction method based on homography constraint
CN109934860B (en) * 2019-03-21 2022-10-18 大连海事大学 Image registration method based on SIFT-FLANN and mismatching point elimination
CN110929598B (en) * 2019-11-07 2023-04-18 西安电子科技大学 Unmanned aerial vehicle-mounted SAR image matching method based on contour features
CN111060910B (en) * 2019-12-11 2023-08-29 西安电子科技大学 InSAR carrier reverse positioning based on topography-image matching
CN112419380B (en) * 2020-11-25 2023-08-15 湖北工业大学 Cloud mask-based high-precision registration method for stationary orbit satellite sequence images

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0424773A (en) * 1990-05-15 1992-01-28 Nippon Telegr & Teleph Corp <Ntt> Pattern matching method
JPH0690415A (en) * 1990-09-18 1994-03-29 Texas Instr Inc <Ti> System and method for real-time composition of video images from many sources
JPH09145829A (en) * 1995-11-28 1997-06-06 Mitsubishi Electric Corp Radar signal processing unit

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2967672B2 (en) * 1993-07-28 1999-10-25 三菱電機株式会社 Radar signal processing equipment
US5963653A (en) * 1997-06-19 1999-10-05 Raytheon Company Hierarchical information fusion object recognition system and method
SE510844C2 (en) * 1997-11-03 1999-06-28 Celsiustech Syst Ab Automatic compensation of systematic errors in target tracking with multiple sensors

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0424773A (en) * 1990-05-15 1992-01-28 Nippon Telegr & Teleph Corp <Ntt> Pattern matching method
JPH0690415A (en) * 1990-09-18 1994-03-29 Texas Instr Inc <Ti> System and method for real-time composition of video images from many sources
JPH09145829A (en) * 1995-11-28 1997-06-06 Mitsubishi Electric Corp Radar signal processing unit

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010236970A (en) * 2009-03-31 2010-10-21 Mitsubishi Space Software Kk Generation device, reproduction device, generation program, reproduction program, generation method, and reproduction method of sar (synthetic aperture radar) superimposed data
CN101840517A (en) * 2010-04-27 2010-09-22 武汉大学 Control point image database matching method based on image registration and device thereof

Also Published As

Publication number Publication date
US6795590B1 (en) 2004-09-21
AU2001294679A1 (en) 2002-04-02
WO2002025592A3 (en) 2003-01-09
EP1319216A2 (en) 2003-06-18
WO2002025592A2 (en) 2002-03-28

Similar Documents

Publication Publication Date Title
JP2004516533A (en) Synthetic aperture radar and forward-looking infrared image superposition method
CN108562274B (en) Marker-based non-cooperative target pose measurement method
CN111784770B (en) Three-dimensional attitude estimation method in disordered grabbing based on SHOT and ICP algorithm
CN107122705B (en) Face key point detection method based on three-dimensional face model
CN106651752B (en) Three-dimensional point cloud data registration method and splicing method
CN107063228B (en) Target attitude calculation method based on binocular vision
CN101488187B (en) System and method for deformable object recognition
Rothwell et al. Planar object recognition using projective shape representation
Haehnel et al. An extension of the ICP algorithm for modeling nonrigid objects with mobile robots
US7616807B2 (en) System and method for using texture landmarks for improved markerless tracking in augmented reality applications
David et al. Softposit: Simultaneous pose and correspondence determination
CN109064516B (en) Camera self-calibration method based on absolute quadratic curve image
Pizarro et al. Relative Pose Estimation for Instrumented, Calibrated Imaging Platforms.
CN112200203B (en) Matching method of weak correlation speckle images in oblique field of view
CN101147159A (en) Fast method of object detection by statistical template matching
CN106595702B (en) A kind of multisensor spatial registration method based on astronomy calibration
CN111145232A (en) Three-dimensional point cloud automatic registration method based on characteristic information change degree
US20100092073A1 (en) System and method for object recognition and classification using a three-dimensional system with adaptive feature detectors
CN113516693B (en) Rapid and universal image registration method
CN108960267A (en) System and method for model adjustment
KR101941878B1 (en) System for unmanned aircraft image auto geometric correction
US20230086983A1 (en) Method for acquiring distance from moving body to at least one object located in any direction of moving body by utilizing camera-view depth map and image processing device using the same
CN113012271B (en) Finger three-dimensional model texture mapping method based on UV (ultraviolet) mapping
CN110728296A (en) Two-step random sampling consistency method and system for accelerating feature point matching
CN114972451A (en) Rotation-invariant SuperGlue matching-based remote sensing image registration method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080922

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110712