JP2004516533A - Synthetic aperture radar and forward-looking infrared image superposition method - Google Patents
Synthetic aperture radar and forward-looking infrared image superposition method Download PDFInfo
- Publication number
- JP2004516533A JP2004516533A JP2002529716A JP2002529716A JP2004516533A JP 2004516533 A JP2004516533 A JP 2004516533A JP 2002529716 A JP2002529716 A JP 2002529716A JP 2002529716 A JP2002529716 A JP 2002529716A JP 2004516533 A JP2004516533 A JP 2004516533A
- Authority
- JP
- Japan
- Prior art keywords
- flir
- sar
- feature points
- image
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/37—Determination of transform parameters for the alignment of images, i.e. image registration using transform domain methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/753—Transform-based matching, e.g. Hough transform
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
- Radar Systems Or Details Thereof (AREA)
- Image Analysis (AREA)
Abstract
合成開口レーダー(SAR)および前向き赤外線(FLIR)イメージを関連付けるかまたは対応させるのに用いられる方法がここに開示される。双方のイメージから検出可能な特徴点に基づき、2段階アプローチを採用して、SARおよびFLIRイメージ重ね合わせの問題点に立ち向かう:FLIRイメージから検出された特徴点をSARイメージ座標に変換する初期重ね合わせ段階;およびSARおよびFLIR特徴点が「一般化されたHough変換」を受け、それから、マッチング特徴点の最大サブセットが得られ、重ね合わせ変換を導くことができる残存重ね合わせ段階。これらの2つの段階は、SARおよびFLIRイメージ重ね合わせ方法を含む5つの工程:1)該SARおよびFLIRイメージから特徴点を抽出し;2)FLIRイメージの初期重ね合わせを生じさせ;3)一般化されたHough変換を利用して二次元残存重ね合わせを生じさせ;4)重ね合わせ変換を見積もり;次いで、5)重ね合わせを確認することに分けられる。この方法は、残存重ねあわせが(6よりはむしろ)二次元Hough変換でなされることを可能とし、その結果、迅速かつ強固な実行がもたらされ、ならびに偽重ね合わせの可能性を低下させる。Disclosed herein are methods used to associate or correspond to synthetic aperture radar (SAR) and forward-looking infrared (FLIR) images. Based on feature points detectable from both images, a two-stage approach is employed to combat the problem of SAR and FLIR image registration: initial registration, which converts feature points detected from FLIR images to SAR image coordinates And SAR and FLIR feature points undergo a "generalized Hough transform", from which the largest subset of matching feature points is obtained, which can lead to a superposition transformation. These two steps include five steps including a SAR and FLIR image superposition method: 1) extract feature points from the SAR and FLIR images; 2) produce an initial superposition of the FLIR images; 3) generalize Utilizing the applied Hough transform to produce a two-dimensional residual overlay; 4) estimating the overlay transform; and 5) confirming the overlay. This method allows the residual registration to be done with a two-dimensional Hough transform (rather than 6), resulting in a fast and robust implementation, as well as reducing the possibility of false registration.
Description
【0001】
【発明の属する技術分野】
(発明の分野)
本発明は、2つのイメージの重ね合わせを解く方法に関する。特に、本発明は、合成開口レーダー(SAR)イメージの、および前向き赤外線(FLIR)イメージの重ね合わせを解く2段階方法に関する。
【0002】
【従来の技術および発明が解決しようとする課題】
(先行技術の簡単な記載)
伝統的なイメージ重ね合わせシステムは、多くの修正技術の変形を用いる、灰色レベルの空間的分布において重ね合わすべきイメージの対の間の同様性に頼る。これらのアプローチは、SARおよびFLIRのごときイメージングセンサーによって使用される異なる現象学のため、イメージの空間的灰色レベル分布がイメージの間で変化する場合には働かない。特徴−ベースのイメージ重ね合わせ技術は、2つのイメージからの(点以外の)抽出された特徴の間のいくつかの同様性に頼る。1つのイメージの個々の特徴セグメントは、これらの抽出された特徴を用いてもう1つからのものに対してマッチングさせることができる。しかしながら、これらの種類の特徴はSARおよびFLIR双方には稀にしか存在しないか、あるいは抽出するのが非常に困難である。他方、点−ベースの重ね合わせ技術は、透視変換下でモデルおよびセンサー配置をイメージするのを満足するイメージの点の組の特異的配置を開発する。これは、通常、高計算複雑性を含めた多次元空間においてパラメータの組につきサーチすることを含む。
【0003】
重ね合わせは、対応またはマッチング問題を解くための(空気センサーのごとき)マルチ−センサーシステムで必要である。SARおよびFLIRイメージの対および関連センサーモデルが与えられると、2つのイメージを重ね合わすためには、少なくとも6つの独立したパラメータ値を決定しなければならない。これは、(センサーモデルおよび関連パラメータ、センサー位置および向きを含めた)センサープラットフォームについてのいくつかの先行知識がなければ一般に困難である。理論的には、もし全てのセンサーパラメーターおよびセンサープラットフォーム情報が知られていれば、2つのイメージは重ね合わせることができる。しかしながら、実行においては、技術水準のセンサー技術を持ってさえも、センサーシステムにおける誤差および/またはノイズのため、あるいはその操作の特徴によって、重ね合わせが依然として必要である。SARおよびFLIRイメージ重ね合わせでは、これは特別の挑戦を取る。というのは、2つのイメージを修正するのに容易に用いることができるSARおよびFLIRイメージには数個の特徴があるからである。
【0004】
従って、低い計算複雑性および高い強固性をもって、SARおよびFLIRイメージを重ね合わすことができる方法を提供するのが望ましい。
【0005】
【課題を解決するための手段】
(発明の概要)
本発明は、双方のイメージから検出可能な特徴点に基づき、合成開口レーダー(SAR)イメージの、および前向き赤外線(FLIR)イメージの重ね合わせを解く方法に関する。該方法は2つの段階:初期重ね合わせ段階および残存重ね合わせ段階によって区別される。初期重ね合わせにおいては、FLIRイメージから検出された特徴点をSARイメージ座標に変換する。残存重ね合わせ段階においては、SARからの特徴点の組およびFLIRからのものは一般化されたHough変換(GHT)を受け、それから、マッチング点の最大サブセットが得られ、重ね合わせ変換を得ることができる。本発明における該方法は、第1の段階で用いた方法でもって、第2の段階の残存重ね合わせが、むしろより高い次元において二次元(2−D)GHTでなされることを可能とする。
【0006】
利用可能なセンサーパラメーターおよびセンサー位置の情報を用い、重ね合わせ仕事は5つの工程:(1)SARおよびFLIRイメージ双方からの特徴点を検出し;(2)公知のセンサーパラメーターおよびセンサープラットフォーム情報を用い、特徴点をFLIRイメージからSARイメージに変換し;(3)2−D並進ドメインにおけるSAR特徴点の組および変換されたFLIR特徴点の組につきGHTを実行し、GHTからマッチング特徴点の最大サブセットを選択し;(4)更新された重ね合わせ変換を計算し;次いで、(5)重ね合わせ変換を評価することに分けることができる。その結果、本発明は、SARおよびFLIRを整列させるイメージ重ね合わせ変換、およびSARおよびFLIRイメージの間の対応する点の対の組の双方を提供する。重ね合わせに関与する重ね合わせサーチ空間の減少は6次元から2次元である。この減少の結果は、偽重ね合わせおよびデータ収集の間に導入されるノイズおよび誤差に対する強固な重ね合わせの可能性の実質的減少を含む。また、この方法は、特徴点の組のマッチングが、SARおよびFLIR双方のイメージにおいて全特徴点集団の非常に小さな一部のみを構成し、残りはシーンにおいてランダムクラスターによって引き起こされる場合にも働く。
【0007】
【発明の実施の形態】
(本発明の詳細な記載)
本発明は、双方のイメージから抽出された特徴点を用いることによって、SARイメージおよびFLIRイメージの重ね合わせを解く方法に関する。本発明の方法は、5つの区別される工程を含むプロセスとして以下に記載される。本発明に対して必要な入力は、以下の工程1に記載された特徴点にあり、本発明の出力は1)SARおよびFLIRイメージからの特徴点の対応性;2)FLIRイメージにおけるいずれの点をもSARイメージに変換する重ね合わせ変換を含む。
【0008】
工程1:特徴点の抽出
まず、一定偽−アラーム速度(CFAR)ディテクターのごときよく知られたアルゴリズムの1つを用いることによって、SARおよびFLIRイメージ双方から特徴点を抽出する。本発明で用いるべき特徴点についての要件は、それらはSARおよびFLIR双方からの検出可能なある種の点を表すものでなければならず、双方のイメージにおいて同様に位置することができることである。そのような特徴点の例がシーンにおけるある種の物体の位置である。標的検出/認識適用において、特徴点は、所望により、標的−同様性尺度が付けられたものを有することができる。工程1は、2つのイメージがそれらがカバーする空間において重複を有する、および共通の特徴点を双方のイメージから検出することができることを仮定する。これらの仮定が真実でなければ、重ね合わせは失敗し、状況は工程3または5で検出することができる。ウィンドウサイズwと呼ばれる特徴抽出におけるパラメータがあり、これは、とりわけ、2つの検出された特徴をどのように近く(イメージ画素において測定)することができるかを決定する。ウィンドウサイズは、(物体サイズのごとき)イメージにおける特徴の性質によって決定される。SARについてのw=21のウィンドウサイズは、以下の記載において非限定的例として用いられる。FLIRについての特異的ウィンドウサイズは、本発明を実施するにおいて要求されない。
【0009】
工程2:初期重ね合わせ
初期重ね合わせは、利用可能な(おそらくは、ノイズおよび誤差についての)センサー真実データを用い、FLIRイメージで検出された特徴点をSARイメージの接地面座標フレームに変換するプロセスである。センサー真実データは(限定されるものではないが、SARおよびFLIRについての解およびFLIRについての焦点長さを含めた)センサーパラメーター、センサー位置情報(センサーの位置、+FLIRについての方位角、傾斜角および回転角)を含む。FLIR特徴点をSARに変換するには、均一座標系においてFLIRセンサー−イメージングモデルを作成する:
(数式1)
【0010】
[式中、Pはイメージすべき点を表すカメラ座標フレームにおける三次元(3−D)点であり、(X−Y)はPのイメージであり、uはスケーリングファクターであり、およびFはカメラ焦点長である]。Pは、以下のごとく、参照フレームWにおける座標(x,y,z)lによって表すことができる:
(数式2)
【0011】
[式中、Rr、RdおよびRaは、参照フレームに対するカメラ座標フレームの回転角θr、俯角θdおよび方位角θaを表す3×3正規直交回転行列であり、および(tx,ty,tz)lは参照フレームWにおけるカメラ座標フレームの原点を表す位置ベクトルである]。
【0012】
簡潔にするために、このセクションの残りにおいては、参照フレームは、そのXOY面がSARイメージ接地面と同じ空間を占め、そのXおよびY軸が、各々、XARイメージのXおよびY軸と同じ空間を占め、そのZ軸は上方に向くと仮定する。FLIRカメラの注目する全ての点が、選択された参照フレームにおいてz=hである接地面に存在すると仮定すれば、方程式(1)および(2)はxおよびyについて解くことができ、その結果、イメージ点(X−Y)から3−D点、(x,y,z)への逆投影変換がもたらされる:
【0013】
方程式(3)の逆投影変換を、FLIRイメージにおける各特徴点に適用する。次いで、以下のごとく、これらの逆投影された特徴点を単にSARイメージ座標で評価する:
(数式4)
【0014】
[式中、(x,y)tは参照フレームWにおけるFLIR特徴点の逆投影であり、(xs,ys)はSARイメージにおける逆投影であり、およびcはSARイメージの解を反映する定数である。残りの議論において、「逆投影」としての方程式(3)および(4)双方を含む数学的変換を参照する。{(xsi,ysi)},i=1,…,Nを逆投影されたFLIR特徴点の組とし、{(xri,yri)},i=1…,MをSAR特徴点の組とする。現在、重ね合わせ問題は、{(xsi,ysi)}のサブセットを{(xri,yri)}のサブセットとマッチさせることである。もしセンサー真実の正確な測定が利用できれば、{(xsi,ysi)}のサブセットは{(xri,yri)}の対応するサブセットに正確にマップされ、検出位置は正確であって、前記関連仮定は真実であると仮定する。しかしながら、現実には、センサー真実データは、ノイズおよび測定誤差のためしばしば正確ではない。測定におけるノイズおよび誤差は、SAR特徴点および逆投影されたFLIR特徴点がもしそれらがシーンにおける同一特徴点に対応すれば正確に整列しないように、残存重ね合わせエラーを引き起こし得る。
【0015】
従って、特徴点のそのような2つの組をマッチさせる一般的問題は、少なくとも6つの次元(回転につき3および並進につき3)のパラメータ空間においてサーチして、測定誤差およびノイズを説明することを含む。これは、センサーパラメーター(センサーの解像度および焦点長)は正確に測定することができると仮定する。
【0016】
工程3:残存重ね合わせ
パラメーターサーチ空間減少
方程式(3)は、いずれかのイメージ点を3−D点への逆投影を行う一般式を表す。センサー真実における変化の間の関係およびFLIR特徴点の逆投影の結果(xs,ys)tの詳細な解析は、FLIRカメラからFLIRフィールド−オブ−ビュー(FOV)の中心への距離が、FLIR FOVにおいてカバーされる領域のサイズに対してはるかに大きい場合、残存重ね合わせ誤差は、圧倒的に、俯角θdおよび方位角θaの変化によって引き起こされる。他のセンサー真実値の変化は逆投影における比較的小さな変化を引き起こすに過ぎず、無視することができる。例えば、カメラ回転角θrの小さな変化は得られた逆投影に歪みを引き起こし、カメラ位置の小さな変化は逆投影における並進の小さな変化を引き起こす。さらに、俯角θdおよび方位角θaにおける不正確さによるFLIR特徴点の逆投影の位置の変化は、純粋な並進として近似的にモデル化することができる。換言すれば、同一の物理的特徴点に対応する特徴点の2つのサブセット(1つはSARからのものであり、1つは逆投影の後のFLIRからのものである)は並進により位置が異なるに過ぎないゆえに、特徴点の2つの組の誤重ね合わせを2−Dで解くことができる。
【0017】
この2−D並進を解くためには、特徴点の1つの対が必要なのに過ぎない:SARおよびFLIRイメージからの各々1つ。対応性(SARにおけるいずれの点がFLIRにおけるいずれの点に対応するか)が知られていなければ、この方法は用いることができない。加えて、点のただ1つの対に頼ることは、正確でもないし、または強固でもない。全ての利用可能な特徴点を用いなければならない。特徴点の対応性および残存重ね合わせ誤差を排除する並進は共に見出されなければならない。GHTは同時に双方の問題を解くのを助けることができる。GHT実行において、2−D蓄積アレイは、SAR特徴点および対応する逆−投影されたFLIR特徴点の間の並進を測定するアレイ指標で設定される。SARおよびFLIRからの特徴点の全ての可能な対を数え上げる。各そのような対につき、それらを重ね合わせるのに必要な並進を計算し、指標として並進を用いてGHT蓄積アレイにおいて1つの票を入れる。最後に、(票の数および他の因子を組み合わせる)最高スコアを持つGHT蓄積アレイエレメント(定義については下記参照)は、正しい並進を表し、エレメントにつき投票された特徴点の組は、設定されたマッチング点を形成する。この仕事を達成するようにGHTは選択される。なぜならば、それは非反復形式アプローチであり、実行するのが非常に単純であり、最も重要なことには、ノイズに対して強固であるからである。「ノイズ」は、検出された特徴点、および混乱による望まない特徴点における位置の誤差を共に含み、これは他のイメージにおいて対応性を有しない。
【0018】
GHTの実行を以下により徹底的に記載する。
【0019】
一般化されたHough変換(GHT)
GHT蓄積アレイのサイズ
アレイサイズは、以下の図面に示すように、逆投影されたFLIR特徴点、SAR特徴点のスパンによって決定される。
【0020】
【図X】
【0021】
GHTアレイはサイズ(Xmax−Xmin)/q+1×(Ymax−Ymin)/q+1のものであり、ここに、qは量子化単位である(すなわち、蓄積アレイにおけるセルはサイズq×qの平方を表す)。量子化単位qはウィンドウサイズw(前記参照):q=[w/4]に従って決定され、ここに、[x]はxよりも大きな最小整数である。
【0022】
GHTにおけるメモリー効率を増加させるためには、SAR特徴点および逆投影されたFLIR点の群が相互に離れている場合、(例えば、FLIRから逆投影された)特徴点の1つの組は、2つの組がおおまかに同一空間を占めるように、蓄積アレイを組み立てる前にシフトすることができる。これは、例えば、点の双方の組の重心を計算し、逆投影されたFLIR点をシフトさせることによって、それらを相互に整列させることによってなすことができる。このアプローチは、特徴点の合計スパン、従って、蓄積アレイのサイズを減少させる。しかしながら、現実の並進は残存重ね合わせを解明するにおいて計算する場合、この余分なシフトを考慮しなければならない。これを達成するために逆投影されたFLIRに加えられた合計シフトを(Δxg,Δyg)と表す。
【0023】
GHTアルゴリズム
1.Cを適当なサイズの2−Dアレイとする。Cにおける各エレメントは並進パラメータ空間においてq×qの平方を表し、ここに、qは量子化単位である。Cにおける全てのエレメントをゼロ(0)にセットする。
【0024】
2.{(xsi,ysi)},i=1,…Nを逆投影されたFLIR特徴点の組とし、{(xri,yri)},i=1,….,MをSAR特徴点の組とする。以下の反復を実行する:
各(xsi,ysi),x=1ないしNにつき、
各(xrj,yrj),j=1ないしMにつき、
(dx,dy)←((xsi−xri)/q,(ysi−yri)/q)
(Dx,Dy)← [dx], [dy])
(Dx,Dy)←C(Dx,Dy)+1
(Dx−1,Dy)←C(Dx−1,Dy)+1
(Dx,Dy−1)←C(Dx,Dy−1)+1
(Dx−1,Dy−1)←C(Dx−1,Dy−1)+1
終了
終了
[式中、[x]はxより小さな最大整数である]。この工程において、SARおよびFLIR特徴点の各対は、複数の隣接セルにおいて票を投じる。従って、事実、蓄積セルは重複する範囲を有する。これは、また、得られた蓄積アレイを畳み込むことに同等であり、各対につき1つの票を投じ、2×2の核は全ての1.0を含む。重複セルの使用は、真の並進が2以上のセルの境界または境界近くに位置する状況を防ぐ。この状況は、近くのセルの中で票が割れることを引き起こし、誤った解をもたらす可能性がある。
【0025】
3.Lを、その票のカウントがゼロよりも大きく、その位置の標準偏差σl(後記にて定義)が組閾値Tl未満である蓄積セルのリストとする。リストL中の各セルにつきスコアを計算する。
【0026】
各蓄積セルのスコアはa)票の数;b)共通特徴を持つ物体の組からのものであるセルにつき票を投じる(双方のイメージからの)特徴点の尤度の関数である。本発明では、スコアは、セル中の全ての対のFLIR特徴強度の合計と定義される。FLIR特徴強度は、今度は、そのバックグラウンドに対するFLIR特徴の平均コントラストである。スコアの関数はSARからの特徴強度を含むことができる。この「スコアリング関数」の目的は、GHTの結果をランク付けすることである。位置標準偏差σlは、与えられたセルにおける、票についてのdxおよびdyの標準偏差の幾何平均である;
σl= √σx 2+σy 2
[式中、σxおよびσyは、各々、dxおよびdyの標準偏差である]。位置標準偏差についての閾値はTi=(2/3)qに設定され、ここに、qはセル量子化単位である。定数2/3は、得られた結果において高信頼性を維持するのに用いられる。その結果、位置標準偏差の使用はGHTの結果を効果的にスクリーニングする。
【0027】
4.(dxm,dym)を、最大スコアを持つLにおけるセルについての指標とする。
【0028】
5.もし(dxm,dym)におけるCでの票カウントK、K=C(dxm,dym)が4未満であれば(すなわち、C(dxm、dym)<4)、失敗が報告され終了する。さもなければ成功が報告され、(dmx,dym)におけるセルについて投票された対の組はマッチング解を構成する。
【0029】
工程4:重ね合わせ変換の見積もり
最後の工程におけるGHTの結果、SARおよびFLIRからの特徴点のマッチング対の組が得られる。マッチング点のこの組でもって、重ね合わせ変換を見積もることができ、これを用いて、FLIRイメージにおけるいずれの点(マッチング組における点に限らない)もSARイメージに変換することができる。重ね合わせ変換を見積もるための2つの方向が記載される。
【0030】
最小二乗方法
マッチング特徴点の4以上の対の組において、最小二乗方法を用い、SARおよびFLIRイメージの間の重ね合わせ変換を見積もるのは容易である。方程式(4)を(3)に代入し、係数を正規化し、FLIRイメージ点をSARイメージに変換するための以下の方程式が得られる:
[式中、(X,Y)はFLIR特徴点の座標であり、(xr,yr)は対応するSAR特徴点の座標であり]、および
(数式6)
【0031】
であり、[式中、cおよびAn,N=1,…,8は、各々、方程式(4)および(3)に定義される]。方程式(5)中の項を並べなおした後、以下の結果が得られる。
(数式7)
【0032】
マッチング点の各対は、方程式(7)の形式で2つの同時線形方程式を与える。方程式(7)中の8つのパラメータB1ないしB8を解くためには、マッチング点の少なくとも4つの対が必要である。マッチング点の4以上の対があれば、パラメータB1ないしB8に対する最小二乗解を見出すことができ、これは以下の誤差項を最小化する:
[式中、Kは点対の数であり、exlおよびeylは方程式7)に基づく誤差項である]:
逆ヤコビアン方法
前記で与えられた最小二乗方法は、マッチング点対の組を用い、変換の8つのパラメータを最初から解く。初期重ね合わせ変換は方程式(3)によってすでに与えられているので、GHTで見出されたマッチング点対の組を用いて初期変換を更新することによっても、最終重ね合わせ変換を見出すことができる。工程3における「パラメーターサーチ空間減少」で議論したごとく、残存重ね合わせ誤差は、主として、俯角θdおよび方位角θaにおける誤差によって引き起こされる。従って、残存重ね合わせ誤差および関係する2つの角度の間の関係を確立することができる。以下のヤコビアン行列が定義される:
(数式10)
【0033】
Jは、2つの回転パラメータ、俯角θdおよびθa方位角θdおよびθaに関する方程式(3)における(xr,yr)のヤコビアン行列である。これらの2つのパラメータに対する更新は、以下の:
(数式11)
【0034】
[式中、(Δx,Δy)は残存並進重ね合わせ誤差であり、J−1はヤコビアン行列の逆行列である]
を用いることによって生じる。(Δx,Δy)は、工程3におけるGHTの結果からのセル(dxm,dym)における全ての票につき複数dxおよびdyを平均することによって決定することができる。
(数式12)
【0035】
[式中、K=C(dxm、dym)は(dxm,dym)における蓄積アレイでの票の数であり、dxiおよびdyi,i=1,…,Kは(dxm,dym)における特徴点の対についての並進の成分であり、ΔxgおよびΔygは逆投影されたFLIR点に適用された全体シフトである(第8ページ,13行参照)]
方程式(11)および(12)に従ってセンサー真実データにおけるθdおよびθaを更新した後、方程式(3)中のA1ないしA9とz=h(ここに、hは接地面上昇である)のパラメータを計算することによって、変換パラメータB1ないしB8を再度計算することができる。実験においては、h=0を用いた。しかしながら、hは、イメージされた領域についての公知の範囲の上昇で置き換えるべきである。一旦A1ないしA9が計算されたならば、方程式(5)で説明した変換についての係数B1ないしB8は、方程式(6)に従って誘導することができる。
【0036】
工程5:重ね合わせの確認
重ね合わせ確認工程は2つの目的を有する。1つは、マッチの組(SARおよびFLIR特徴点の対)が事実、幾何学的に可能であることを保障することである。第2は、さらなる可能なマッチをピックアップするか、いくつかの誤ったマッチを捨てることである。確認は、方程式(5)に従って、工程4における新たに見積もられたパラメータB1ないしB8を用いて全てのFLIR特徴点をSARイメージにまず変換することによってなされる。次いで、各変換されたFLIR点につき、XおよびYの両方向における4(画素)の距離内の最も近いSAR特徴点についてサーチがなされる。再度、番号4を好ましくは用いて高い信頼性を維持する。もしそのようなSAR特徴点が見いだされれば、FLIRおよびSARの特徴点の対を新しいマッチした点のリストに加える。
【0037】
一旦確認が成されれば、新しいマッチした点のリストをチェックして、それが4を超える点を含むか否かを判断する。もし是であれば、重ね合わせは完了する。もし否であれば、重ね合わせは失敗である。
【図面の簡単な説明】
【図1】図1は、SARおよびFLIRイメージ重ね合わせ方法についてのシステムダイアグラムを示す模式的ダイアグラムである。[0001]
TECHNICAL FIELD OF THE INVENTION
(Field of the Invention)
The present invention relates to a method for decomposing two images. In particular, the present invention relates to a two-step method for decomposing a synthetic aperture radar (SAR) image and a forward-looking infrared (FLIR) image.
[0002]
2. Description of the Related Art
(Brief description of prior art)
Traditional image superposition systems rely on the similarity between pairs of images to be superimposed in the spatial distribution of gray levels, using a number of modification techniques variants. These approaches do not work when the spatial gray level distribution of an image changes between images, due to the different phenomenology used by imaging sensors such as SAR and FLIR. Feature-based image superposition techniques rely on some similarity between extracted features (other than points) from two images. Individual feature segments of one image can be matched against one from another using these extracted features. However, these types of features are rarely present in both SARs and FLIRs, or are very difficult to extract. On the other hand, point-based superposition techniques develop a specific arrangement of image point sets that satisfies imaging the model and sensor arrangement under perspective transformation. This typically involves searching for sets of parameters in a multidimensional space that includes high computational complexity.
[0003]
Superposition is needed in multi-sensor systems (such as air sensors) to solve correspondence or matching problems. Given a pair of SAR and FLIR images and an associated sensor model, at least six independent parameter values must be determined to superimpose the two images. This is generally difficult without some prior knowledge of the sensor platform (including the sensor model and related parameters, sensor position and orientation). Theoretically, the two images can be superimposed if all sensor parameters and sensor platform information are known. However, in practice, even with state-of-the-art sensor technology, superposition is still required due to errors and / or noise in the sensor system or due to the nature of its operation. For SAR and FLIR image superposition, this takes a special challenge. This is because SAR and FLIR images have several features that can be easily used to modify the two images.
[0004]
Therefore, it would be desirable to provide a method that can overlay SAR and FLIR images with low computational complexity and high robustness.
[0005]
[Means for Solving the Problems]
(Summary of the Invention)
The present invention relates to a method for decomposing synthetic aperture radar (SAR) images and forward-looking infrared (FLIR) images based on feature points detectable from both images. The method is distinguished by two stages: an initial overlay stage and a residual overlay stage. In the initial superposition, the feature points detected from the FLIR image are transformed into SAR image coordinates. In the residual superposition stage, the set of feature points from the SAR and those from the FLIR undergo a generalized Hough transform (GHT), from which the largest subset of matching points is obtained and the superposition transform is obtained. it can. The method in the present invention, with the method used in the first stage, allows the remaining superposition of the second stage to be made in a two-dimensional (2-D) GHT rather in a higher dimension.
[0006]
Using the available sensor parameters and sensor position information, the overlay work consists of five steps: (1) detecting feature points from both SAR and FLIR images; (2) using known sensor parameters and sensor platform information. Convert the feature points from the FLIR image to the SAR image; (3) perform a GHT on the set of SAR feature points in the 2-D translation domain and the converted set of FLIR feature points, and extract the maximum subset of matching feature points from the GHT. (4) calculate the updated overlay transform; and then (5) evaluate the overlay transform. As a result, the present invention provides both an image superposition transform that aligns the SAR and FLIR, and a corresponding set of point pairs between the SAR and FLIR images. The reduction in overlay search space involved in overlay is from six to two dimensions. The consequences of this reduction include a false reduction and a substantial reduction in the possibility of robust registration against noise and errors introduced during data acquisition. The method also works when the matching of the feature point sets constitutes only a very small part of the total feature point population in both SAR and FLIR images, the rest being caused by random clusters in the scene.
[0007]
BEST MODE FOR CARRYING OUT THE INVENTION
(Detailed description of the present invention)
The present invention relates to a method for decomposing a SAR image and a FLIR image by using feature points extracted from both images. The method of the invention is described below as a process comprising five distinct steps. The inputs required for the present invention are the feature points described in
[0008]
Step 1: Feature Point Extraction First, feature points are extracted from both SAR and FLIR images by using one of the well-known algorithms, such as a constant false-alarm rate (CFAR) detector. The requirement for the feature points to be used in the present invention is that they must represent some kind of detectable point from both the SAR and the FLIR and can be similarly located in both images. An example of such a feature point is the position of certain objects in the scene. In target detection / recognition applications, feature points can have target-likeness measures, if desired.
[0009]
Step 2: Initial Superposition Initial superposition is a process that uses the available sensor truth data (perhaps for noise and error) to transform the feature points detected in the FLIR image into a SAR image ground plane coordinate frame. is there. Sensor truth data includes sensor parameters (including, but not limited to, solutions for SAR and FLIR and focal length for FLIR), sensor location information (sensor location, azimuth for + FLIR, tilt angle and Rotation angle). To convert FLIR feature points to SAR, create a FLIR sensor-imaging model in a uniform coordinate system:
(Equation 1)
[0010]
Where P is a three-dimensional (3-D) point in the camera coordinate frame representing the point to be imaged, (XY) is the image of P, u is the scaling factor, and F is the camera Focal length]. P can be represented by the coordinates (x, y, z) l in the reference frame W as follows:
(Equation 2)
[0011]
Where R r , R d and R a are 3 × 3 orthonormal rotation matrices representing the rotation angle θ r , depression angle θ d and azimuth θ a of the camera coordinate frame with respect to the reference frame, and (t x , Ty , tz ) l is a position vector representing the origin of the camera coordinate frame in the reference frame W].
[0012]
For simplicity, in the remainder of this section, the reference frame will have its XOY plane occupying the same space as the SAR image ground plane, and its X and Y axes will be the same space as the XAR image X and Y axes, respectively. , And assume that its Z axis points upward. Assuming that all the points of interest of the FLIR camera are on the ground plane where z = h in the selected reference frame, equations (1) and (2) can be solved for x and y, so that , Resulting in a backprojection transformation from the image point (XY) to the 3-D point, (x, y, z):
[0013]
The backprojection transform of equation (3) is applied to each feature point in the FLIR image. These back-projected feature points are then simply evaluated in SAR image coordinates as follows:
(Equation 4)
[0014]
Where (x, y) t is the backprojection of the FLIR feature points in the reference frame W, (xs, ys) is the backprojection in the SAR image, and c is a constant that reflects the solution of the SAR image. is there. In the remainder of the discussion, reference will be made to a mathematical transformation involving both equations (3) and (4) as "backprojection". {(Xs i , ys i )}, i = 1,..., N are a set of back-projected FLIR feature points, and {(xr i , y r i )}, i = 1. Make a set. Currently, the superposition problem, is to match the subset of {(xs i, ys i) } a subset of {(xr i, yr i) }. If utilized if accurate measurements of the sensor truth, {(xs i, ys i )} subset of map exactly to a corresponding subset of {(xr i, yr i) }, the detection position is a correct, Assume that the relevant assumptions are true. However, in reality, sensor truth data is often not accurate due to noise and measurement errors. Noise and errors in the measurements can cause residual registration errors such that the SAR feature points and the backprojected FLIR feature points do not align correctly if they correspond to the same feature points in the scene.
[0015]
Thus, the general problem of matching such two sets of feature points involves searching in a parameter space of at least six dimensions (3 for rotation and 3 for translation) to account for measurement errors and noise. . This assumes that the sensor parameters (sensor resolution and focal length) can be accurately measured.
[0016]
Step 3: Remaining superposition parameter search The space reduction equation (3) represents a general expression for backprojecting any image point to the 3-D point. A detailed analysis of the relationship between changes in sensor truth and the back projection of FLIR feature points (xs, ys) t is based on the fact that the distance from the FLIR camera to the center of the FLIR field-of-view (FOV) is , The residual registration error is predominantly caused by changes in depression angle θ d and azimuth angle θ a . Changes in other sensor truth values cause only relatively small changes in backprojection and can be ignored. For example, a small change in the camera rotation angle θr causes distortion in the resulting backprojection, and a small change in the camera position causes a small change in translation in the backprojection. Further, the change in the backprojection position of the FLIR feature points due to inaccuracies at the depression angle θ d and the azimuth angle θ a can be approximately modeled as pure translation. In other words, two subsets of feature points corresponding to the same physical feature point (one from the SAR and one from the FLIR after backprojection) are translated by translation. Because they are only different, the mis-superposition of the two sets of feature points can be solved in 2-D.
[0017]
To solve this 2-D translation, only one pair of feature points is needed: one each from SAR and FLIR images. Unless the correspondence (which point in the SAR corresponds to which point in the FLIR) is not known, this method cannot be used. In addition, relying on only one pair of points is neither accurate nor robust. All available feature points must be used. Feature point correspondences and translations that eliminate residual registration errors must both be found. GHT can help solve both problems at the same time. In a GHT implementation, the 2-D accumulation array is set with an array index that measures the translation between the SAR feature points and the corresponding back-projected FLIR feature points. Enumerate all possible pairs of feature points from SAR and FLIR. For each such pair, calculate the translation required to superimpose them and place one vote in the GHT storage array using translation as an index. Finally, the GHT accumulation array element with the highest score (combining the number of votes and other factors) (see below for definition) represents the correct translation and the set of feature points voted for the element is set. Form a matching point. The GHT is chosen to accomplish this task. Because it is a non-iterative approach, it is very simple to implement and, most importantly, robust against noise. "Noise" includes both detected feature points and positional errors at undesired feature points due to confusion, which have no correspondence in other images.
[0018]
The implementation of the GHT is described more thoroughly below.
[0019]
Generalized Hough transform (GHT)
The size of the GHT storage array The array size is determined by the span of the back-projected FLIR and SAR feature points, as shown in the following figures.
[0020]
[Figure X]
[0021]
The GHT array is of size (X max −X min ) / q + 1 × (Y max −Y min ) /
[0022]
To increase the memory efficiency in the GHT, if the SAR feature points and the backprojected FLIR point cloud are separated from each other, one set of feature points (eg, backprojected from the FLIR) will be 2 It can be shifted before assembling the storage array so that one set occupies roughly the same space. This can be done, for example, by calculating the centroids of both sets of points and shifting them back-projected FLIR points to align them with each other. This approach reduces the total span of the feature points, and thus the size of the storage array. However, this extra shift must be considered when calculating the actual translation in resolving the residual superposition. The total shift applied to the backprojected FLIR to achieve this is denoted as (Δx g , Δy g ).
[0023]
GHT algorithm Let C be an appropriately sized 2-D array. Each element in C represents the square of q × q in the translation parameter space, where q is a quantization unit. Set all elements in C to zero (0).
[0024]
2. {(Xs i , ys i )}, i = 1,..., N is a set of back-projected FLIR feature points, and {(xr i , y r i )}, i = 1,. , M as a set of SAR feature points. Perform the following iteration:
For each (xs i , ys i ), x = 1 to N,
For each (xr j , yr j ), j = 1 to M,
(Dx, dy) ← ((xsi-xri) / q, (ysi-yri) / q)
(Dx, Dy) ← [dx], [dy])
(Dx, Dy) ← C (Dx, Dy) +1
(Dx-1, Dy) ← C (Dx-1, Dy) +1
(Dx, Dy-1) ← C (Dx, Dy-1) +1
(Dx-1, Dy-1) ← C (Dx-1, Dy-1) +1
End end, where [x] is the largest integer less than x. In this step, each pair of SAR and FLIR feature points casts a vote in a plurality of adjacent cells. Thus, in fact, the storage cells have overlapping ranges. This is also equivalent to convolving the resulting storage array, casting one vote for each pair and a 2x2 kernel containing all 1.0. The use of overlapping cells prevents situations where a true translation is located at or near the boundary of two or more cells. This situation can cause the vote to crack in nearby cells, leading to erroneous solutions.
[0025]
3. Let L be a list of storage cells whose count for the vote is greater than zero and for which the standard deviation σ l (defined below) of that position is less than the set threshold T l . A score is calculated for each cell in the list L.
[0026]
The score of each storage cell is a function of the likelihood of the feature points (from both images) a) the number of votes; b) the votes for cells that are from a set of objects with common features. In the present invention, the score is defined as the sum of the FLIR feature strengths of all pairs in the cell. FLIR feature intensity is, in turn, the average contrast of the FLIR feature against its background. The function of the score may include the feature strength from the SAR. The purpose of this "scoring function" is to rank the GHT results. The position standard deviation σ l is the geometric mean of the standard deviations of dx and dy for a vote in a given cell;
σ l = √σ x 2 + σ
Where σ x and σ y are the standard deviations of dx and dy, respectively. The threshold for the position standard deviation is set to Ti = (2/3) q, where q is the cell quantization unit. The constant 2/3 is used to maintain high reliability in the obtained results. As a result, the use of positional standard deviation effectively screens GHT results.
[0027]
4. Let (dxm, dym) be the index for the cell in L with the largest score.
[0028]
5. If the vote count K, K = C (dxm, dym) at C at (dxm, dym) is less than 4 (ie, C (dxm, dym) <4), a failure is reported and the process ends. Otherwise a success is reported and the pair pairs voted for the cell at (dmx, dym) constitute a matching solution.
[0029]
Step 4: Estimation of superposition transformation As a result of the GHT in the last step, a set of matching pairs of feature points from SAR and FLIR is obtained. With this set of matching points, the overlay transform can be estimated and used to convert any point in the FLIR image (not limited to the points in the matching set) to a SAR image. Two directions for estimating the superposition transform are described.
[0030]
It is easy to estimate the superposition transform between SAR and FLIR images using the least squares method on a set of four or more pairs of least squares matching feature points. Substituting equation (4) into (3), normalizing the coefficients and obtaining the following equation for converting FLIR image points to SAR images:
[Where, (X, Y) is the coordinates of the FLIR feature point and (xr, yr) are the coordinates of the corresponding SAR feature point], and (Formula 6)
[0031]
Where c and A n , N = 1,..., 8 are defined in equations (4) and (3), respectively. After rearranging the terms in equation (5), the following results are obtained.
(Equation 7)
[0032]
Each pair of matching points gives two simultaneous linear equations in the form of equation (7). Solving the eight parameters B 1 to B 8 in equation (7) requires at least four pairs of matching points. With four or more pairs of matching points, a least-squares solution for the parameters B 1 to B 8 can be found, which minimizes the following error terms:
Where K is the number of point pairs and exl and eyl are error terms based on equation 7):
Inverse Jacobian Method The least squares method given above uses a set of matching point pairs and solves the eight parameters of the transformation from the beginning. Since the initial overlay transform has already been given by equation (3), the final overlay transform can also be found by updating the initial transform with the set of matching point pairs found in the GHT. As discussed in the "parameter search space reduction" in
(Equation 10)
[0033]
J is the Jacobian matrix of the two rotation parameters, in equation (3) relating to depression angle theta d and theta a azimuth angle theta d and θ a (xr, yr). Updates to these two parameters are:
(Equation 11)
[0034]
[Where, (Δx, Δy) is the residual translational superposition error, and J −1 is the inverse matrix of the Jacobian matrix]
This is caused by using (Δx, Δy) can be determined by averaging multiple dx and dy for all votes in cell (dxm, dym) from the GHT result in
(Equation 12)
[0035]
Wherein, K = C (dxm, dym ) is (dxm, dym) the number of votes in the storage array in, dx i and dy i, i = 1, ... , K is characterized in (dxm, dym) The translation components for the point pairs, Δx g and Δy g are the overall shifts applied to the backprojected FLIR points (see page 8, line 13)]
After updating θ d and θ a in the sensor truth data according to equations (11) and (12), A 1 through A 9 and z = h in equation (3) (where h is the ground contact rise) , The conversion parameters B 1 to B 8 can be calculated again. In the experiment, h = 0 was used. However, h should be replaced by a known range increase for the imaged area. Once A 1 to A 9 have been calculated, the coefficients B 1 to B 8 for the transformation described in equation (5) can be derived according to equation (6).
[0036]
Step 5: Confirmation of overlay The overlay confirmation step has two purposes. One is to ensure that the set of matches (the pair of SAR and FLIR feature points) is in fact geometrically possible. The second is to pick up more possible matches or discard some false matches. Confirmation, according to equation (5) is done by first converting all the FLIR feature points SAR image using to parameters B 1 without the estimated new in Step 4 B 8. Then, for each transformed FLIR point, a search is made for the closest SAR feature point within a distance of 4 (pixels) in both the X and Y directions. Again,
[0037]
Once confirmed, the list of new matched points is checked to determine if it contains more than four points. If so, the overlay is complete. If not, the overlay fails.
[Brief description of the drawings]
FIG. 1 is a schematic diagram showing a system diagram for a SAR and FLIR image superposition method.
Claims (6)
合成開口レーダー(SAR)および前向き赤外線(FLIR)イメージから特徴点を抽出し;
前期FLIRイメージの初期重ね合わせを生じさせ;
一般化されたHough変換を利用して前期FLIRイメージの二次元残存重ね合わせを生じさせ;
重ね合わせ変換を見積もり;次いで
重ね合わせを確認する;
ことを特徴とするSARおよびFLIRイメージからマッチング特徴点の組を得る方法。The following steps:
Extract feature points from synthetic aperture radar (SAR) and forward-looking infrared (FLIR) images;
Causing an initial overlay of the FLIR image;
Utilizing the generalized Hough transform to produce a two-dimensional residual superposition of the FLIR image;
Estimate overlay conversion; then check overlay;
Obtaining a set of matching feature points from SAR and FLIR images.
一定パルス−アラーム速度(CFAR)ディテクターのごときアルゴリズムを用いることを含む請求項1記載のSARおよびFLIRイメージからマッチング特徴点の組を得る方法。The extraction process is:
The method of obtaining a set of matching feature points from SAR and FLIR images according to claim 1, comprising using an algorithm such as a constant pulse-alarm speed (CFAR) detector.
(数式1)
[式中、Pは原点を有し、イメージすべき点を表すカメラ座標フレーム中の三次元(3−D)点であり、(X,Y)はPのイメージであり、uはスケーリングファクターであり、fはカメラ焦点長である]
を用い;
XOY面を有する参照フレームWにおけるその座標(X,Y,Z)tによって以下のごとくPを表し:
(数式2)
[式中、Rr、RdおよびRaは、参照フレームに対するカメラ座標フレームの回転角θr、俯角θdおよび方位角θaを表す3×3正規直交回転行列であり、および(tx,ty,tz)lは参照フレームWにおけるカメラ座標フレームの原点を表す位置ベクトルである];
参照フレームは、そのXOY面がSARイメージ接地面と同一の空間を占め、そのXおよびY軸は、各々、SARイメージのXおよびY軸と同一の空間を占め、そのZ軸はイメージ接地面に対して上方に向き、およびFLIRイメージにおける全ての点が、参照フレームWに対する接地面上昇を表すz=hを持つ接地面に存在すると仮定し;
xおよびyを解き、その結果、イメージ点(X,Y)から3−Dの点、(x,y,z)への逆投影変換が得られ:
FLIRイメージにおける各特徴点につき方程式(3)の逆投影変換を適用し;
逆投影特徴点を以下のごとくSARイメージ座標に基準化し:
(数式4)
[式中、(x,y)tは参照フレームWにおけるFLIR特徴点の逆投影であり、(xs,ys)はSARイメージにおける逆投影であり、およびcはSARイメージの解を反映する定数である];次いで、
逆投影されたFLIR特徴点の組として{(xsi,ysi)},i=1,...,N、およびSAR特徴点の組としての{(xri,yri)},i=1,...,Mを生じさせる;
ことを含む請求項1記載の前期SARおよびFLIRイメージからの特徴点をマッチングさせる方法。The SAR image has a ground plane and the X, Y, and Z axes, where the FLIR image has a ground plane and the X, Y, and Z axes, wherein the process of producing the initial overlay is a uniform coordinate system:
(Equation 1)
Where P is a three-dimensional (3-D) point in the camera coordinate frame that has the origin and represents the point to be imaged, (X, Y) is the image of P, and u is the scaling factor. And f is the camera focal length]
Using;
Represent P by its coordinates (X, Y, Z) t in a reference frame W having an XOY plane as follows:
(Equation 2)
Where R r , R d and R a are 3 × 3 orthonormal rotation matrices representing the rotation angle θ r , depression angle θ d and azimuth θ a of the camera coordinate frame with respect to the reference frame, and (t x , Ty , tz ) l is a position vector representing the origin of the camera coordinate frame in the reference frame W];
The reference frame has its XOY plane occupying the same space as the SAR image ground plane, its X and Y axes occupying the same space as the SAR image X and Y axes, respectively, and its Z axis at the image ground plane. Facing upwards, and assuming that all points in the FLIR image are on the ground plane with z = h representing the ground plane rise relative to the reference frame W;
Solving x and y results in a backprojection transformation from the image point (X, Y) to the 3-D point, (x, y, z):
Applying the backprojection transform of equation (3) for each feature point in the FLIR image;
Backprojected feature points are scaled to SAR image coordinates as follows:
(Equation 4)
Where (x, y) t is the backprojection of the FLIR feature points in the reference frame W, (xs, ys) is the backprojection in the SAR image, and c is a constant that reflects the solution of the SAR image. There]; then
As a set of backprojected FLIR feature points {(xs i, ys i) }, i = 1 ,. . . , N, and SAR of feature points set as the {(xr i, yr i) }, i = 1 ,. . . , M;
2. The method for matching feature points from SAR and FLIR images according to claim 1, comprising:
逆投影されたFLIR特徴点およびSAR特徴点のスパンからアレイサイズを決定し;
サイズ(Xmax−Xmin)/q+1×(Ymax−Ymin)/q+1(式中、qは量子化単位を表す)の一般化されたHough変換アレイを有し;
ウィンドウサイズw:q=[w/4]に従って量子化単位qを決定し、ここに、[x]はxよりも大きい最小整数であり;次いで、
5工程の一般化されたHough変換(GHT)を用いて、二次元残存重ね合わせリストを生じさせる;
ことを含む前期方法。4. The method of matching feature points from SAR and FLIR images according to claim 3, wherein a generalized Hough transform is used to produce the two-dimensional residual superposition, wherein the producing comprises:
Determining the array size from the span of the backprojected FLIR and SAR feature points;
Having a generalized Hough transform array of size (X max −X min ) / q + 1 × (Y max −Y min ) / q + 1, where q represents a quantization unit;
Determine the quantization unit q according to the window size w: q = [w / 4], where [x] is the smallest integer greater than x;
Using a five-step generalized Hough transform (GHT) to generate a two-dimensional residual superimposed list;
The method including the above.
最小二乗方法、あるいは逆ヤコビアン(Jacobian)方法を用い;次いで、逆ヤコビアン方法を用いて前期重ね合わせを更新する;
ことを含む請求項1記載のSARおよびFLIRイメージからの特徴点をマッチングさせる方法。The process to estimate in the previous term is:
Use the least-squares method or the inverse Jacobian method; then update the superposition using the inverse Jacobian method;
2. The method for matching feature points from SAR and FLIR images according to claim 1, comprising:
最小二乗方法あるいは逆ヤコビアン方法を用いてFLIR特徴点の全てをSAR座標に変換して、新たに見積もられたパラメータB1ないしB8の組を生じさせ;
xおよびy両座標において4画素の距離内の各変換されたFlIR特徴点に対して最も近いSAR特徴点につきサーチを行い;
もしかかるSAR特徴点が見出されれば、FLIRおよびSAR特徴点の対を二次元残存重ねあわせに加え;次いで、
二次元残存重ね合わせをチェックし、次いで、それが4を超える点を含む場合に重ね合わせは完了したと判断する;
ことを含む請求項1記載のSARおよびFILRイメージからの特徴点をマッチングさせる方法。The SAR images each include a plurality of feature points, each feature point is composed of a pixel, and each pixel is represented by x and y coordinates, where the FLIR image each includes a plurality of feature points, The points are made up of pixels, each pixel being represented by an x and y coordinate, where the validation step is:
All FLIR feature points using the least squares method or reverse Jacobian method is converted into SAR coordinates, to the parameter B 1 is no estimated new cause a set of B 8;
performing a search for the closest SAR feature point to each transformed FlIR feature point within a distance of 4 pixels in both x and y coordinates;
If such SAR feature points are found, the FLIR and SAR feature point pairs are added to the two-dimensional residual overlay;
Check the two-dimensional residual overlay, and then determine that the overlay is complete if it contains more than 4 points;
2. The method for matching feature points from SAR and FILR images according to claim 1.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US09/668,657 US6795590B1 (en) | 2000-09-22 | 2000-09-22 | SAR and FLIR image registration method |
PCT/US2001/029877 WO2002025592A2 (en) | 2000-09-22 | 2001-09-22 | Sar and flir image registration method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004516533A true JP2004516533A (en) | 2004-06-03 |
Family
ID=24683228
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002529716A Pending JP2004516533A (en) | 2000-09-22 | 2001-09-22 | Synthetic aperture radar and forward-looking infrared image superposition method |
Country Status (5)
Country | Link |
---|---|
US (1) | US6795590B1 (en) |
EP (1) | EP1319216A2 (en) |
JP (1) | JP2004516533A (en) |
AU (1) | AU2001294679A1 (en) |
WO (1) | WO2002025592A2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101840517A (en) * | 2010-04-27 | 2010-09-22 | 武汉大学 | Control point image database matching method based on image registration and device thereof |
JP2010236970A (en) * | 2009-03-31 | 2010-10-21 | Mitsubishi Space Software Kk | Generation device, reproduction device, generation program, reproduction program, generation method, and reproduction method of sar (synthetic aperture radar) superimposed data |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10120536C2 (en) * | 2001-04-26 | 2003-12-24 | Eads Deutschland Gmbh | Radar system for active obstacle warning and imaging of the earth's surface |
DE10120537C2 (en) * | 2001-04-26 | 2003-12-18 | Eads Deutschland Gmbh | Method for recognizing and identifying objects using a plurality of sensors present in an aircraft |
US7310440B1 (en) * | 2001-07-13 | 2007-12-18 | Bae Systems Information And Electronic Systems Integration Inc. | Replacement sensor model for optimal image exploitation |
US7298866B2 (en) * | 2001-10-15 | 2007-11-20 | Lockheed Martin Corporation | Two dimensional autonomous isotropic detection technique |
US7751651B2 (en) * | 2004-04-02 | 2010-07-06 | The Boeing Company | Processing architecture for automatic image registration |
US20060215935A1 (en) * | 2004-04-02 | 2006-09-28 | The Boeing Company | System and architecture for automatic image registration |
US7773799B2 (en) * | 2004-04-02 | 2010-08-10 | The Boeing Company | Method for automatic stereo measurement of a point of interest in a scene |
US8055100B2 (en) * | 2004-04-02 | 2011-11-08 | The Boeing Company | Method and system for image registration quality confirmation and improvement |
US7006031B1 (en) * | 2004-10-19 | 2006-02-28 | Raytheon Company | Interrupt SAR image restoration using linear prediction and Range Migration Algorithm (RMA) processing |
US7873240B2 (en) * | 2005-07-01 | 2011-01-18 | The Boeing Company | Method for analyzing geographic location and elevation data and geocoding an image with the data |
US7580591B2 (en) * | 2005-07-01 | 2009-08-25 | The Boeing Company | Method for generating a synthetic perspective image |
US7606420B1 (en) * | 2005-10-31 | 2009-10-20 | Adobe Systems, Incorporated | Method and apparatus for improving the speed of belief propagation |
WO2007071113A1 (en) * | 2005-12-22 | 2007-06-28 | Qifeng Yu | A three-images isoline correlation interferometric method for generating an interferogram of radar |
GB0625455D0 (en) * | 2006-12-20 | 2007-01-31 | Mitsubishi Electric Inf Tech | Graph-based multiple panorama extraction from unordered image sets |
WO2008075061A2 (en) * | 2006-12-20 | 2008-06-26 | Mitsubishi Electric Information Technology Centre Europe B.V. | Multiple image registration apparatus and method |
US20090027417A1 (en) * | 2007-07-24 | 2009-01-29 | Horsfall Joseph B | Method and apparatus for registration and overlay of sensor imagery onto synthetic terrain |
US8155433B2 (en) * | 2008-07-10 | 2012-04-10 | Goodrich Corporation | Method of object location in airborne imagery using recursive quad space image processing |
CN101561865B (en) * | 2009-05-22 | 2012-03-28 | 西安电子科技大学 | Synthetic aperture radar image target identification method based on multi-parameter spectrum feature |
CN101923711B (en) * | 2010-07-16 | 2012-06-20 | 西安电子科技大学 | SAR (Synthetic Aperture Radar) image change detection method based on neighborhood similarity and mask enhancement |
CN102323570B (en) * | 2011-05-24 | 2013-03-13 | 中国人民解放军国防科学技术大学 | Method for estimating magnitude-phase characteristics of radar target echo signal simulator |
CN102903075B (en) * | 2012-10-15 | 2015-04-08 | 西安电子科技大学 | Robust watermarking method based on image feature point global correction |
US9210417B2 (en) * | 2013-07-17 | 2015-12-08 | Microsoft Technology Licensing, Llc | Real-time registration of a stereo depth camera array |
CN103593669B (en) * | 2013-11-22 | 2016-08-24 | 中国电子科技集团公司第五十四研究所 | A kind of method that polarimetric synthetic aperture radar image four component decomposes |
CN103971362B (en) * | 2013-12-24 | 2017-03-29 | 西安电子科技大学 | SAR image change-detection based on rectangular histogram and elite genetic algorithm for clustering |
CN104268574A (en) * | 2014-09-25 | 2015-01-07 | 西安电子科技大学 | SAR image change detecting method based on genetic kernel fuzzy clustering |
CN105184801B (en) * | 2015-09-28 | 2018-01-23 | 武汉大学 | It is a kind of based on multi-level tactful optics and SAR image high-precision method for registering |
US10027954B2 (en) | 2016-05-23 | 2018-07-17 | Microsoft Technology Licensing, Llc | Registering cameras in a multi-camera imager |
US10339662B2 (en) | 2016-05-23 | 2019-07-02 | Microsoft Technology Licensing, Llc | Registering cameras with virtual fiducials |
US10326979B2 (en) | 2016-05-23 | 2019-06-18 | Microsoft Technology Licensing, Llc | Imaging system comprising real-time image registration |
JP7152131B2 (en) * | 2016-09-21 | 2022-10-12 | 日本電気株式会社 | Image processing device, image processing method and program |
CN108469612B (en) * | 2018-03-20 | 2020-06-05 | 西安电子科技大学 | Bistatic time-varying acceleration foresight SAR imaging method based on equivalent slope distance |
CN108510531A (en) * | 2018-03-26 | 2018-09-07 | 西安电子科技大学 | SAR image registration method based on PCNCC and neighborhood information |
CN109816724B (en) * | 2018-12-04 | 2021-07-23 | 中国科学院自动化研究所 | Three-dimensional feature extraction method and device based on machine vision |
CN109615584B (en) * | 2018-12-17 | 2022-12-06 | 辽宁工程技术大学 | SAR image sequence MAP super-resolution reconstruction method based on homography constraint |
CN109934860B (en) * | 2019-03-21 | 2022-10-18 | 大连海事大学 | Image registration method based on SIFT-FLANN and mismatching point elimination |
CN110929598B (en) * | 2019-11-07 | 2023-04-18 | 西安电子科技大学 | Unmanned aerial vehicle-mounted SAR image matching method based on contour features |
CN111060910B (en) * | 2019-12-11 | 2023-08-29 | 西安电子科技大学 | InSAR carrier reverse positioning based on topography-image matching |
CN112419380B (en) * | 2020-11-25 | 2023-08-15 | 湖北工业大学 | Cloud mask-based high-precision registration method for stationary orbit satellite sequence images |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0424773A (en) * | 1990-05-15 | 1992-01-28 | Nippon Telegr & Teleph Corp <Ntt> | Pattern matching method |
JPH0690415A (en) * | 1990-09-18 | 1994-03-29 | Texas Instr Inc <Ti> | System and method for real-time composition of video images from many sources |
JPH09145829A (en) * | 1995-11-28 | 1997-06-06 | Mitsubishi Electric Corp | Radar signal processing unit |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2967672B2 (en) * | 1993-07-28 | 1999-10-25 | 三菱電機株式会社 | Radar signal processing equipment |
US5963653A (en) * | 1997-06-19 | 1999-10-05 | Raytheon Company | Hierarchical information fusion object recognition system and method |
SE510844C2 (en) * | 1997-11-03 | 1999-06-28 | Celsiustech Syst Ab | Automatic compensation of systematic errors in target tracking with multiple sensors |
-
2000
- 2000-09-22 US US09/668,657 patent/US6795590B1/en not_active Expired - Fee Related
-
2001
- 2001-09-22 JP JP2002529716A patent/JP2004516533A/en active Pending
- 2001-09-22 WO PCT/US2001/029877 patent/WO2002025592A2/en not_active Application Discontinuation
- 2001-09-22 EP EP01975344A patent/EP1319216A2/en not_active Withdrawn
- 2001-09-22 AU AU2001294679A patent/AU2001294679A1/en not_active Abandoned
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0424773A (en) * | 1990-05-15 | 1992-01-28 | Nippon Telegr & Teleph Corp <Ntt> | Pattern matching method |
JPH0690415A (en) * | 1990-09-18 | 1994-03-29 | Texas Instr Inc <Ti> | System and method for real-time composition of video images from many sources |
JPH09145829A (en) * | 1995-11-28 | 1997-06-06 | Mitsubishi Electric Corp | Radar signal processing unit |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010236970A (en) * | 2009-03-31 | 2010-10-21 | Mitsubishi Space Software Kk | Generation device, reproduction device, generation program, reproduction program, generation method, and reproduction method of sar (synthetic aperture radar) superimposed data |
CN101840517A (en) * | 2010-04-27 | 2010-09-22 | 武汉大学 | Control point image database matching method based on image registration and device thereof |
Also Published As
Publication number | Publication date |
---|---|
US6795590B1 (en) | 2004-09-21 |
AU2001294679A1 (en) | 2002-04-02 |
WO2002025592A3 (en) | 2003-01-09 |
EP1319216A2 (en) | 2003-06-18 |
WO2002025592A2 (en) | 2002-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2004516533A (en) | Synthetic aperture radar and forward-looking infrared image superposition method | |
CN108562274B (en) | Marker-based non-cooperative target pose measurement method | |
CN111784770B (en) | Three-dimensional attitude estimation method in disordered grabbing based on SHOT and ICP algorithm | |
CN107122705B (en) | Face key point detection method based on three-dimensional face model | |
CN106651752B (en) | Three-dimensional point cloud data registration method and splicing method | |
CN107063228B (en) | Target attitude calculation method based on binocular vision | |
CN101488187B (en) | System and method for deformable object recognition | |
Rothwell et al. | Planar object recognition using projective shape representation | |
Haehnel et al. | An extension of the ICP algorithm for modeling nonrigid objects with mobile robots | |
US7616807B2 (en) | System and method for using texture landmarks for improved markerless tracking in augmented reality applications | |
David et al. | Softposit: Simultaneous pose and correspondence determination | |
CN109064516B (en) | Camera self-calibration method based on absolute quadratic curve image | |
Pizarro et al. | Relative Pose Estimation for Instrumented, Calibrated Imaging Platforms. | |
CN112200203B (en) | Matching method of weak correlation speckle images in oblique field of view | |
CN101147159A (en) | Fast method of object detection by statistical template matching | |
CN106595702B (en) | A kind of multisensor spatial registration method based on astronomy calibration | |
CN111145232A (en) | Three-dimensional point cloud automatic registration method based on characteristic information change degree | |
US20100092073A1 (en) | System and method for object recognition and classification using a three-dimensional system with adaptive feature detectors | |
CN113516693B (en) | Rapid and universal image registration method | |
CN108960267A (en) | System and method for model adjustment | |
KR101941878B1 (en) | System for unmanned aircraft image auto geometric correction | |
US20230086983A1 (en) | Method for acquiring distance from moving body to at least one object located in any direction of moving body by utilizing camera-view depth map and image processing device using the same | |
CN113012271B (en) | Finger three-dimensional model texture mapping method based on UV (ultraviolet) mapping | |
CN110728296A (en) | Two-step random sampling consistency method and system for accelerating feature point matching | |
CN114972451A (en) | Rotation-invariant SuperGlue matching-based remote sensing image registration method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080922 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081030 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110215 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110712 |