JP2723174B2 - Registration correction method between heterogeneous sensor images - Google Patents

Registration correction method between heterogeneous sensor images

Info

Publication number
JP2723174B2
JP2723174B2 JP6323968A JP32396894A JP2723174B2 JP 2723174 B2 JP2723174 B2 JP 2723174B2 JP 6323968 A JP6323968 A JP 6323968A JP 32396894 A JP32396894 A JP 32396894A JP 2723174 B2 JP2723174 B2 JP 2723174B2
Authority
JP
Japan
Prior art keywords
registration
error
image
processing
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP6323968A
Other languages
Japanese (ja)
Other versions
JPH08161474A (en
Inventor
洋一 瀬戸
野本  安栄
学 賀来
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
Agency of Industrial Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agency of Industrial Science and Technology filed Critical Agency of Industrial Science and Technology
Priority to JP6323968A priority Critical patent/JP2723174B2/en
Publication of JPH08161474A publication Critical patent/JPH08161474A/en
Application granted granted Critical
Publication of JP2723174B2 publication Critical patent/JP2723174B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 【0001】 【産業上の利用分野】本発明は、計算機により自動化を
目的とした画像の位置合わせ(レジストレーション)補
正処理に関わり、特に、衛星画像処理システムにおい
て、センサの感度特性が異なる複数センサにより得られ
た画像(以下、異種センサ画像という)の自動レジスト
レーション処理に好適な異種センサ画像レジストレーシ
ョン補正処理方法に関する。 【0002】 【従来の技術】画像レジストレーション処理の従来技術
は、長尾真著「画像認識論」((株)コロナ社、昭和5
8年2月発行)および瀬戸洋一、西島英児、手塚主宇著
「画像レジストレーション処理ユーザ支援システムの開
発」(リモートセンシング学会、pp.27−37、V
ol.10、No.4、1991年)に記載されてい
る。 【0003】処理の概要は以下の通りである。 【0004】(1)画像の正規化 基準とするセンサ画像(テンプレート画像)の特性(空
間分解能と平均輝度レベル)に、他のセンサ画像(探索
画像)の特性を整合させる。 【0005】(2)レジストレーション誤差算出 比較するセンサ画像間の位置誤差量を測定する。測定法
としては、特徴量としてスペクトル特性や形状特徴を用
い、類似度として相関係数を用いて自動的に画像マッチ
ングをとる方法と、操作者が異種センサ画像上の対応点
を指示する方法がある。 【0006】(3)補間処理 レジストレーション誤差算出処理で求めた誤差量を用
い、2個の画像(上記テンプレート画像と探索画像)に
おける画素間の位置関係を多項式であらわし、画素位置
の再配列処理(リサンプリング処理)を行なう。整数座
標以外の画素はキュービックコンボリューション法など
を用いて補間処理を行なう。 【0007】以上のように従来技術は、同種類のセンサ
画像を比較処理する方法であったり、異種センサ画像の
場合は、操作者が対応点を指示する方法であった。 【0008】 【発明が解決しようとする課題】従来方法は、スペクト
ル特性が類似の同種センサ画像間のレジストレーション
に適用する場合の自動化処理や、スペクトル特性が異な
る異種センサ画像間の対応点を操作者が指示する場合の
レジストレーション処理を前提としていた。また、対応
点は、あらかじめマッチング精度がいい位置を事前に登
録できた。したがって、処理する画像数が多く、かつス
ペクトル特性の異なる異種センサ画像間のレジストレー
ション処理に従来方法を適用する場合は、以下の課題が
生じた。 【0009】(1)同一地表点のスペクトル特性、つま
り、輝度レベル分布が2個の画像で異なるため、輝度レ
ベルより求めた相関値(特徴量)を用いた画像マッチン
グ処理を行なっても正しい結果が得られない。 【0010】例えば、可視画像と熱赤外画像との間の輝
度レベル相関はほとんどなく、画像マッチング処理を正
しく行なうことができない。 【0011】(2)画像マッチング処理を操作者が手動
でディスプレイに表示された画像を指示することにより
行なう場合、処理データが多量であり、現実的な時間内
で操作者が対応領域を指示できない。 【0012】例えば、1日1000シーンの画像を処理
する場合、1シーンについて100の対応領域を処理す
る必要があると仮定する。各領域についての処理時間を
2分とすると、すべて処理するには約3000時間を要
する。これを例えば8時間で処理する場合は約400人
の操作者が必要である。 【0013】本発明の目的は、異種センサ画像間のレジ
ストレーション処理精度を向上することと多量の画像デ
ータのレジストレーション処理を自動化することにあ
る。 【0014】 【課題を解決するための手段】上記課題を解決するため
に、以下の処理をおこなう。 【0015】(1)スペクトル特性が異なる異種センサ
画像のマッチング処理を可能とするために、画像比較に
最適な特徴量を選択し、2個の画像の位置誤差を検出す
るのに必要な対応領域(計算領域)を複数設定し、位置
誤差が正しく算出できた対応領域を粗マッチング処理と
精密マッチング処理よりなる多段かつ閾値判定により絞
り込む。 【0016】(2)候補となる対応領域の絞り込みを行
なった後、操作者が対応領域を指示する候補選定処理を
設ける。 【0017】(3)対応領域が精度よく求まらない場合
は、一番類似した位置誤差を用いて代替データとする。 【0018】(4)拡大した画像を用いて位置誤差を算
出する。あるいは、算出した特徴量を補間して、高精度
に位置誤差を求める。 【0019】 【作用】 (1)異種センサ画像中に対応領域を複数設け、類似し
た特徴量をもつ対応領域を閾値判定により選定すること
で測定精度の向上を図る。また、処理を多段にし、後段
ほど測定精度がよくなるように候補を絞り込む処理によ
り、計算時間を短縮する。 【0020】(2)候補を絞り込むことにより、候補対
応領域の数は少なくなるので、操作者による指示入力が
可能となる。 【0021】(3)衛星センサの場合、センサポインテ
ィング誤差は、時間に依存するので、雲域など、画像マ
ッチング処理が精度よく求まらない場合は、処理すべき
対象画像の撮影時期に一番近いデータを近似値として用
いることにより、処理不能状態を防ぐ。 【0022】(4)画像を拡大あるいは、特徴量を補間
することにより、実数座標で位置誤差を精度よく求める
ことができる。 【0023】 【実施例】以下、本発明の実施例を図面にもとづき詳細
に説明する。図2は本発明を適用する衛星地上情報シス
テムの概要図で、資源探査や環境監視などを目的に観測
衛星10により地表面の所望領域を観測し、観測した画
像データを地上システム20で処理する。 【0024】本観測衛星10は、2個の異なるスペクト
ル特性をもつ異種センサを搭載している。「図3」に示
すようにセンサ1(30)は可視と近赤外波長域に感度
を有するセンサであり空間分解能は10m、センサ2
(40)は熱赤外波長域に感度を有するセンサであり空
間分解能は40mである。一度に60km四方を撮影す
る。衛星は、一日に地球を約15回周回し地表を100
0シーン観測する。各々のセンサは衛星の進行方向(軌
道方向)に直交する方向に観測角を変えるポインティン
グ機構を有する。ポインティング角度を制御・計測する
装置もあるが、正確に制御・計測できず、同一方向をポ
インティングしても設定角に誤差を生じる(「図3」の
点線がポインティング誤差が生じた場合の視野を示
す)。例えば、ポインティング誤差が125マイクロラ
ジアン生じた場合、地上800Km上空から地表を観測
した場合、地表では100mの位置誤差が生じる。 【0025】このため、図4に示すように2個のセンサ
画像92、94を重ね合わせる場合、重ね合わせ誤差5
0が生じる。この誤差50を「図2」の地上システム2
0で取り除く必要がある。 【0026】以下、図にしたがい地上システム20にお
ける画像レジストレーション補正処理の内容を述べる。
観測衛星10により観測された地表のデータは、地上の
受信アンテナ12により受信され、地上システム20に
入力される。入力された各センサ画像は、センサ固有の
システム補正60や種々の処理を行ない補正画像70を
得、ユーザ80に配布される。 【0027】センサ1画像を例に処理の詳細を以下に述
べる(センサ2画像も同様である)。 【0028】(1)センサ固有のシステム補正処理60 センサ1固有のシステム補正処理60とは、幾何学ひず
みや放射強度ひずみ補正である。本処理は例えば、山縣
著、地球観測衛星によるリモートセンシング画像処理、
67頁〜72頁(日立評論、第64巻、第6号、198
2年6月)に記載の技術で行なえばよい。 【0029】処理結果は、フォーマット変換された観測
画像90と幾何学ひずみや放射強度ひずみの補正係数
(以下、本発明に関係する幾何学ひずみ補正係数のみを
単にひずみ補正係数と呼ぶ)100である。これらは記
録媒体に格納される。 【0030】(2)レジストレーション処理110 上記ひずみ補正係数100を用いて、図4に示すよう
に、補正したセンサ1画像92とセンサ2画像94を重
ね合わせると、上記システム補正では考慮できなかった
センサのポインティング誤差が残り、画像上に重ね合わ
せ誤差50が生じる。この誤差を補正するのがレジスト
レーション処理110であり、これを実現する方法が本
発明である。 【0031】本処理では各観測画像90とひずみ補正係
数100を用いて、ポインティング誤差を補正する修正
ひずみ補正係数130を算出する。 【0032】(3)リサンプリング処理140 放射強度ひずみなどのひずみ補正係数100と修正ひず
み補正係数130と観測画像90より補正画像70を算
出する処理であり、前述の文献(日立評論、第64巻)
に記載の技術で行なえばよいので詳細は省略する。 【0033】以下、本発明の中心であるレジストレーシ
ョン処理110の詳細を「図5」にしたがい述べる。 【0034】(1)前処理150 レジストレーション誤差を求める画像(該当バンド)
f’、g’(160)について、ひずみ補正係数φ1、
φ2(155)を用いて処理し、補正画像(ひずみ補正
されたセンサ1画像とセンサ2画像)f−、g−(17
0)を作成する。 【0035】ここで、f−、g−はそれぞれf、gの真
上に「−」を付したことを表わす。 【0036】(2)画像正規化処理180 ひずみ補正されたセンサ1画像f−とセンサ2画像g−
の画像特性の整合をとる。具体的には、空間分解能と平
均輝度レベルの合わせ込みを行なう。求めた画像をf、
g(170)とする。 【0037】空間分解能は、センサ1画像の10メート
ルにあうように、センサ2画像(空間分解能40メート
ル)の1画素を縦横4倍にリサンプリングする。また、
輝度レベルのヒストグラムを求め、ヒストグラムの平均
と分散が一致するようにヒストグラムを合わせ込む。 【0038】具体的には、高木、下田監修、画像処理ハ
ンドブック((財)東京大学出版会発行、1991年1
月)463頁から465頁および425頁から429頁
の方法で実現できる。 【0039】(3)レジストレーション誤差算出処理1
90 レジストレーション誤差算出処理190は、「図1」に
より構成される。 【0040】(a)粗マッチング処理200 「図6」に示すように画像中のランダムな位置にテンプ
レート領域f202とそれに対応する探索領域g(20
4)を複数設定し、整数画素の精度でマッチングを行な
う。用いる特徴量は、センサ特性などを考慮して事前に
決める。 【0041】同種類のセンサ画像や類似のセンサ画像比
較においては、輝度レベル値を用いた「数1」で表せる
面積相関γにより類似度を求めればよい。 【0042】 【数1】 ここで、f〜、g〜は、それぞれf、gの真上に「〜」
を付したことを表わし、f、gの平均を意味する。 【0043】異種センサ画像間レジストレーション処理
の場合は、輝度レベルに必ずしも正の相関はないため、
形状特徴などを求めてから、類似度を求める。形状特徴
量としては、DPマッチングやフーリエ記述子やテクス
チャ特徴やエッジ特徴などを用いればよい。ここでは、
エッジ特徴を用いた処理を述べる。 【0044】エッジ抽出は、画像をぼかしてから、ラプ
ラシアンフィルタを考慮する「数2」、「数3」のフィ
ルタ処理の後、ゼロクロッシング法(高木、下田監修、
画像処理ハンドブック550頁から582頁((財)東
京大学出版会発行、1991年1月)によりエッジを線
情報として抽出する。例えば、画像gについて、エッジ
抽出するには、 【0045】 【数2】 【0046】 【数3】 ここで、σ:標準偏差、@:コンボリューションを表
す。 【0047】標準偏差σをパラメータとして変えること
により抽出するエッジの周波数特性を選択できる。 【0048】「数2」により求めた画像g*を2値化し
た後、「数1」により相関値を求めることもできるが、
ここでは、2値化せず濃淡画像として、「数1」により
相関値を求める。 【0049】また、「数2」「数3」およびゼロクロッ
シング法で求めた画像に対して、低周波通過フィルタ
(例えば、ガウスフィルタなど)を適用後の画像に対
し、相関値を求めることも有効である。 【0050】求めた相関値の一番大きな値を持つ座標を
画像より求め、位置誤差(レジストレーション誤差)を
算出する。つまり、相関係数が最大となる座標(sm、
tm)をマッチング位置として、基準とする画像(例え
ば、センサ1画像)の位置(s0、t0)からのズレ量
(σx、σy)をレジストレーション誤差として「数
4」[数5」により求める。 【0051】 【数4】 【0052】 【数5】 以上の処理を各テンプレート領域について行なう。求め
た相関値γ(i)と誤差量σx(i)、σy(i)とマ
ッチングエリア(領域)の番号iとを次の処理に引き渡
す。本実施例では、iは10点とする。 【0053】(b)候補エリア選定処理210 位置誤差の大きさと誤差(ズレ)の生じる方向とを用い
て、異常値を閾値判定により取り除く。それ以外を候補
エリア(領域)とする。 【0054】「図7」に示す閾値判定による候補エリア
選択処理フローを説明するため、「図8」の誤差分布を
仮定する。「図8」の各候補エリアにおける誤差の分布
と誤差量を「図9」と「図10」に示す。 【0055】例えば、i=1のエリアは、相関係数γ
(1)=0.9、誤差量σx(1)=4画素、σy
(1)=0画素である。 【0056】まず、ブロック710で全エリアについて
相関係数γが0.5以下のエリアを候補から取り除く
(γ判定)。取り除くエリアは、i=3、6である。残
ったエリアについて、ブロック720で位置誤差の大き
さrとx軸となす角度θを算出する。i=1のエリアで
は、例えば、r=2、θ=0となる。 【0057】次に、ブロック730で候補エリアの誤差
の大きさと方向の平均r−、θ−(rとθの真上にそれ
ぞれ「−」を付したことを表わす)と偏差δr、δθお
よびを算出230する。r=3.2、δr=1.2、θ
=20.25、δθ=46.5となる。次に、ブロック
740で、θ±δθ以内、かつブロック750で、r±
δr以内に入っていないエリアを除く。前者のθ判定で
i=7、9、また、後者のr判定でi=2が候補から取
り除かれる。結局、ブロック760で、i=1、4、
5、8、10が候補エリアとして登録される。 【0058】(c)精密マッチング処理220 マッチング位置を精度よく算出するためには、図7の処
理フローで絞り込んだ候補エリア(i=1、4、5、
8、10)を画質の劣化が少ない方法で拡大補間する。
例えば、キュービックコンボリューションカーネルを用
いて10倍拡大する。 【0059】拡大したエリアについて、粗マッチング処
理と同様の処理を行ない、テンプレート画像と探索画像
の位置誤差を求める。 【0060】(d)誤差算出処理230 「図7」と同様の異常値の判定処理を行ない、求めた候
補エリアのデータの誤差の平均値を求める。これを最終
的なレジストレーション誤差とする。 【0061】「図10」に精密マッチング処理により算
出した誤差量を示す(10倍拡大した値)。上記(b)
と同様の閾値判定処理で、異常値を取り除く。「図1
0」では、i=1、5が取り除かれる。残りの候補エリ
ア(i=4、8、10)を用いて、10倍拡大したこと
を考慮して、元の画像の分解能に相当したレジストレー
ション誤差を算出する。つまり、x方向は、3.1画
素、y方向は、0.2画素と求まる(小数点第2以下は
四捨五入)。 【0062】以下、「図5」にもどって説明する。 【0063】(4)誤差の検索処理270 レジストレーション誤差算出処理190において、処理
対象シーンが、夜間や海域や雲域などの場合、画像マッ
チング処理がうまく行かない。つまり、偏差が極端に大
きくなる場合や、あらかじめ判明している制御・計測誤
差よりもかなり大きな値になるなど、レジストレーショ
ン誤差が精度よく求まらない場合は、次の幾何学ひずみ
補正係数修正処理280において、処理対象画像の撮影
時期に一番近い画像から求めた誤差量を誤差ファイル2
75から検索して用いる。 【0064】(3)幾何学ひずみ補正係数修正処理28
0 レジストレーション誤差算出処理190で求めた誤差量
(Δx、Δy)を用い、幾何学ひずみ補正係数φ1(a
0、a1、a2、a3)、φ2(b0、b1、b2、b
3)を修正する(φは係数の集合を表す)。 【0065】「図11」に示すように、幾何学ひずみ補
正係数φ1,φ2(214)は、補正画像208と未補正
画像206の幾何学的関係を示す。また,この係数はブ
ロック212ごとに設定される。関係式は一般に「数
6」「数7」に示すバイリニア式が用いられる。 【0066】 【数6】 【0067】 【数7】 誤差量(Δx、Δy)より「数8」「数9」のように修
正幾何学ひずみ補正係数φ1’、φ2’(290)を求
め、これを記録媒体に格納する。 【0068】 【数8】 【0069】 【数9】 ここで、 【0070】 【数10】 【0071】 【数11】 【0072】 【数12】 【0073】 【数13】 【0074】 【数14】 【0075】 【数15】 【0076】 【数16】 【0077】 【数17】 誤差がバイアス誤差である場合は、誤差を上記のように
ひずみ補正係数にバイアス的に考慮すればよいが、高次
誤差の場合は、「図2」におけるセンサ固有のシステム
補正60まで誤差量をフィードバックして再度ひずみ補
正係数を算出することで対処する必要がある。 【0078】本実施例の代替案として「図1」における
精密マッチング処理220のかわりに、「図12」に示
すように操作者244が候補エリアより最終的な候補エ
リアを選択する候補選定処理243を設けてもよい。粗
マッチング処理200により候補エリアを10分の1程
度にできれば上記処理が可能となる。また、粗マッチン
グ処理200がうまくいかない画像のみ操作者244に
よる候補選定処理243を行ってもよい。 【0079】精密マッチング処理220は、画像を所望
の倍率で拡大してから相関値を算出したが、拡大せず
「数1」により相関値を算出した後、「図13」に示す
ように相関値を補間して相関値が最大となる実数座標値
265を算出してもよい。 【0080】以上に述べた発明は、衛星地上情報システ
ムに適用可能であり、特に、異種センサにより撮影され
た多数の画像のレジストレーション処理の自動化に有効
である。 【0081】 【発明の効果】本発明によれば以下の効果がある。 【0082】(1)マッチング処理を粗、精密と多段に
することで候補エリア数を減らすことが可能となり、誤
差算出処理の負荷を軽減できる。また、操作者が介在し
候補エリアを指示することが可能となる。 【0083】(2)閾値判定による候補エリア選定処理
を機能として加えることにより、誤差の特性が類似の対
応エリアを効率よく選択することが可能となる。 【0084】(3)精密マッチング処理において、画像
を拡大して、相関値を求めたり、あるいは、相関値を補
間処理することにより、対応エリア領域の位置を、精度
よく求めることができる。 【0085】(4)画像の組合せにより、特徴量や類似
度を選択することによりマッチング精度を向上できる。 【0086】(5)閾値による誤差算出処理において、
対応エリアの位置誤差の平均値や平均値からの偏差など
を用いて、異常値を取り除くことにより高精度に対応エ
リア誤差を求めることができる。 【0087】(6)誤差量ファイルにレジストレーショ
ン誤差量を一時保存しておき、雲、海、夜間などを撮影
したデータの場合は、保存した誤差量の中から時間的に
一番近い値を検索し、修正幾何学ひずみ補正係数算出処
理に用いることにより、処理ができない画像をなくすこ
とができる。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image registration (registration) correction process for automation by a computer, and more particularly to a sensor for a satellite image processing system. The present invention relates to a heterogeneous sensor image registration correction method suitable for automatic registration of images obtained by a plurality of sensors having different sensitivity characteristics (hereinafter, referred to as heterogeneous sensor images). 2. Description of the Related Art The prior art of image registration processing is disclosed in "Image Recognition Theory" by Makoto Nagao (Corona Co., Ltd., Showa 5).
"Development of Image Registration Processing User Support System" by Yoichi Seto, Hideji Nishijima and Shuu Tezuka (Remote Sensing Society, pp. 27-37, V
ol. 10, No. 4, 1991). The outline of the processing is as follows. (1) Match the characteristics (spatial resolution and average luminance level) of a sensor image (template image) as a reference for normalizing an image with the characteristics of another sensor image (search image). (2) Calculation of registration error The amount of positional error between the sensor images to be compared is measured. Measurement methods include a method of automatically performing image matching using spectral characteristics and shape characteristics as feature amounts and a correlation coefficient as similarity, and a method of an operator indicating corresponding points on a heterogeneous sensor image. is there. (3) Interpolation process The positional relationship between pixels in two images (the template image and the search image) is represented by a polynomial using the error amount obtained in the registration error calculation process, and the pixel position is rearranged. (Resampling process). Pixels other than the integer coordinates are subjected to interpolation using a cubic convolution method or the like. As described above, in the prior art, a method of comparing sensor images of the same type or a method of instructing a corresponding point by an operator in the case of different types of sensor images. [0008] The conventional method is an automatic process when applied to registration between similar sensor images having similar spectral characteristics, and operates a corresponding point between different sensor images having different spectral characteristics. Registration processing when the user gives an instruction. As for the corresponding point, a position with a good matching accuracy could be registered in advance. Therefore, when the conventional method is applied to registration processing between different types of sensor images having a large number of images to be processed and having different spectral characteristics, the following problems occur. (1) Since the spectral characteristics of the same ground point, that is, the luminance level distribution is different between the two images, a correct result is obtained even if an image matching process using a correlation value (feature amount) obtained from the luminance level is performed. Can not be obtained. For example, there is almost no luminance level correlation between the visible image and the thermal infrared image, and the image matching process cannot be performed correctly. (2) When the operator performs the image matching process by manually instructing the image displayed on the display, the processing data is large and the operator cannot designate the corresponding area within a realistic time. . For example, assume that when processing images of 1000 scenes per day, it is necessary to process 100 corresponding regions for one scene. Assuming that the processing time for each area is 2 minutes, it takes about 3000 hours to perform all the processing. If this is processed in eight hours, for example, about 400 operators are required. An object of the present invention is to improve the accuracy of registration processing between different types of sensor images and to automate the registration processing of a large amount of image data. [0014] In order to solve the above-mentioned problems, the following processing is performed. (1) In order to enable matching processing of different types of sensor images having different spectral characteristics, a corresponding area necessary for selecting an optimal feature amount for image comparison and detecting a position error between two images. A plurality of (calculation regions) are set, and the corresponding regions for which the position error has been correctly calculated are narrowed down by a multi-stage and threshold determination made of a rough matching process and a fine matching process. (2) After narrowing down the corresponding areas as candidates, a candidate selection process is provided for the operator to specify the corresponding area. (3) If the corresponding area cannot be determined with high accuracy, substitute data is used using the most similar position error. (4) A position error is calculated using the enlarged image. Alternatively, the position error is obtained with high accuracy by interpolating the calculated feature amount. (1) A plurality of corresponding regions are provided in a heterogeneous sensor image, and a corresponding region having a similar feature amount is selected by threshold determination to improve measurement accuracy. Also, the processing time is reduced by multi-stage processing and narrowing down the candidates so that the measurement accuracy is improved in later stages. (2) By narrowing down candidates, the number of candidate corresponding areas is reduced, so that an operator can input an instruction. (3) In the case of a satellite sensor, since the sensor pointing error depends on time, if image matching processing such as a cloud area cannot be determined with high accuracy, it is most likely that the target image to be processed is photographed at the most appropriate time. By using close data as an approximate value, a processing impossible state is prevented. (4) By enlarging an image or interpolating a feature amount, a position error can be accurately obtained in real number coordinates. Embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 2 is a schematic diagram of a satellite terrestrial information system to which the present invention is applied. A desired area on the ground surface is observed by an observation satellite 10 for the purpose of resource exploration and environmental monitoring, and the observed image data is processed by a terrestrial system 20. . The observation satellite 10 is equipped with two different types of sensors having different spectral characteristics. As shown in FIG. 3, the sensor 1 (30) is a sensor having sensitivity in the visible and near-infrared wavelength ranges, has a spatial resolution of 10 m, and has a sensor 2 (30).
(40) is a sensor having sensitivity in the thermal infrared wavelength range, and has a spatial resolution of 40 m. Shoot 60km square at a time. The satellite orbits the earth about 15 times a day and makes 100
Observe 0 scenes. Each sensor has a pointing mechanism that changes the observation angle in a direction orthogonal to the satellite traveling direction (orbit direction). Although there are devices that control and measure the pointing angle, they cannot be controlled and measured accurately, and an error occurs in the set angle even when pointing in the same direction (the dotted line in FIG. 3 indicates the field of view when a pointing error occurs). Shown). For example, when a pointing error occurs at 125 microradians, and when the ground surface is observed from 800 Km above the ground, a position error of 100 m occurs on the ground surface. Therefore, when two sensor images 92 and 94 are superimposed as shown in FIG.
0 results. This error 50 is compared to the ground system 2 in FIG.
It must be removed at zero. The contents of the image registration correction processing in the ground system 20 will be described below with reference to the drawings.
The surface data observed by the observation satellite 10 is received by the receiving antenna 12 on the ground and input to the ground system 20. Each of the input sensor images is subjected to a sensor-specific system correction 60 and a correction image 70 by performing various processes, and is distributed to the user 80. The details of the processing will be described below using the sensor 1 image as an example (the same applies to the sensor 2 image). (1) System Correction Process 60 Specific to Sensor The system correction process 60 specific to the sensor 1 is for correcting geometric distortion and radiation intensity distortion. This processing is, for example, by Yamagata, remote sensing image processing by earth observation satellites,
67-72 (Hitachi Review, Vol. 64, No. 6, 198)
(June 2 years). The processing result is a format-converted observed image 90 and a correction coefficient for geometric distortion and radiation intensity distortion (hereinafter, only the geometric distortion correction coefficient related to the present invention is simply referred to as a distortion correction coefficient) 100. . These are stored in a recording medium. (2) Registration process 110 When the corrected sensor 1 image 92 and sensor 2 image 94 are superimposed as shown in FIG. 4 using the distortion correction coefficient 100, the system correction cannot be considered. A pointing error of the sensor remains, and an overlay error 50 occurs on the image. The registration process 110 corrects this error, and a method for realizing this is the present invention. In this processing, a corrected distortion correction coefficient 130 for correcting a pointing error is calculated using each observed image 90 and the distortion correction coefficient 100. (3) Resampling process 140 This is a process for calculating the corrected image 70 from the distortion correction coefficient 100 such as the radiant intensity distortion, the corrected distortion correction coefficient 130, and the observed image 90. The above-mentioned document (Hitachi Review, Vol. 64) )
Therefore, the details will be omitted. The details of the registration process 110, which is the center of the present invention, will be described with reference to FIG. (1) Pre-processing 150 Image for obtaining registration error (corresponding band)
For f ′ and g ′ (160), the distortion correction coefficient φ1,
Processed using φ2 (155) and corrected images (distortion-corrected sensor 1 image and sensor 2 image) f-, g- (17
0) is created. Here, f- and g- indicate that "-" is added immediately above f and g, respectively. (2) Image normalization processing 180 The distortion-corrected sensor 1 image f- and sensor 2 image g-
Image characteristics are matched. Specifically, the spatial resolution and the average luminance level are adjusted. The obtained image is f,
g (170). As for the spatial resolution, one pixel of the image of the sensor 2 (spatial resolution of 40 meters) is resampled four times vertically and horizontally so as to correspond to 10 meters of the image of one sensor. Also,
A histogram of the brightness level is obtained, and the histogram is adjusted so that the average and the variance of the histogram match. Specifically, Takagi and Shimoda supervised, Image Processing Handbook (published by The University of Tokyo Press, January 1991)
Month) pages 463 to 465 and 425 to 429. (3) Registration error calculation processing 1
90 The registration error calculation processing 190 is constituted by "FIG. 1". (A) Rough Matching Processing 200 As shown in FIG. 6, a template area f202 and a corresponding search area g (20) are located at random positions in an image.
4) is set, and matching is performed with an accuracy of an integer pixel. The features to be used are determined in advance in consideration of sensor characteristics and the like. In comparing the same type of sensor image and similar sensor images, the similarity may be obtained by the area correlation γ represented by “Equation 1” using the luminance level value. ## EQU1 ## Here, f ~ and g ~ are "~" immediately above f and g, respectively.
Means the average of f and g. In the case of registration processing between different types of sensor images, since there is not always a positive correlation between the luminance levels,
After obtaining the shape features and the like, the similarity is obtained. As the shape feature, DP matching, Fourier descriptor, texture feature, edge feature, and the like may be used. here,
The processing using the edge feature will be described. In the edge extraction, after the image is blurred, the filter processing of "Equation 2" and "Equation 3" which take the Laplacian filter into consideration is performed, and then the zero crossing method (supervised by Takagi and Shimoda,
Edges are extracted as line information from pages 550 to 582 of the image processing handbook (published by The University of Tokyo Press, January 1991). For example, to extract edges from the image g, ## EQU3 ## Here, σ: standard deviation, @: convolution. The frequency characteristics of the edges to be extracted can be selected by changing the standard deviation σ as a parameter. After binarizing the image g * obtained by "Equation 2", the correlation value can be obtained by "Equation 1".
Here, a correlation value is obtained by “Equation 1” as a grayscale image without binarization. In addition, it is also possible to obtain a correlation value with respect to an image obtained by applying a low frequency pass filter (for example, a Gaussian filter) to the image obtained by “Equation 2”, “Equation 3” and the zero crossing method. It is valid. The coordinates having the largest value of the obtained correlation values are obtained from the image, and the position error (registration error) is calculated. That is, the coordinates (sm,
tm) as a matching position, and the amount of deviation (σx, σy) from the position (s0, t0) of the reference image (for example, the image of the sensor 1) is determined from “Equation 4” and “Equation 5” as a registration error. (Equation 4) (Equation 5) The above processing is performed for each template area. The obtained correlation value γ (i), the error amounts σx (i) and σy (i), and the number i of the matching area (region) are transferred to the next processing. In this embodiment, i is 10 points. (B) Candidate area selection processing 210 Using the magnitude of the position error and the direction in which the error (deviation) occurs, the abnormal value is removed by threshold value judgment. Others are set as candidate areas (areas). In order to explain the flow of the candidate area selection process based on the threshold determination shown in FIG. 7, the error distribution shown in FIG. 8 is assumed. FIGS. 9 and 10 show the error distribution and error amount in each candidate area in FIG. For example, the area where i = 1 is the correlation coefficient γ
(1) = 0.9, error amount σx (1) = 4 pixels, σy
(1) = 0 pixels. First, in block 710, areas having a correlation coefficient γ of 0.5 or less for all areas are removed from candidates (γ determination). The area to be removed is i = 3,6. With respect to the remaining area, the angle r between the position error magnitude r and the x-axis is calculated in block 720. In the area where i = 1, for example, r = 2 and θ = 0. Next, in block 730, the error magnitude and direction average r−, θ− (indicating that “−” is added immediately above r and θ, respectively) and deviations δr, δθ of the candidate area are calculated. The calculation 230 is performed. r = 3.2, δr = 1.2, θ
= 20.25 and δθ = 46.5. Next, at block 740, within θ ± δθ, and at block 750, r ±
Exclude areas not within δr. In the former θ determination, i = 7 and 9 are removed from the candidates, and in the latter r determination, i = 2 is removed from the candidates. Eventually, at block 760, i = 1, 4,
5, 8, and 10 are registered as candidate areas. (C) Precise Matching Process 220 In order to calculate the matching position with high accuracy, the candidate areas (i = 1, 4, 5,
8, 10) are enlarged and interpolated by a method with little deterioration in image quality.
For example, using a cubic convolution kernel, the image is magnified 10 times. The same processing as the rough matching processing is performed on the enlarged area, and the position error between the template image and the search image is obtained. (D) Error Calculation Process 230 The same abnormal value determination process as that shown in FIG. 7 is performed, and the average value of the error of the obtained data of the candidate area is obtained. This is the final registration error. FIG. 10 shows the error amount calculated by the precision matching process (a value enlarged by 10 times). (B) above
The abnormal value is removed by the threshold determination processing similar to the above. "Figure 1
In "0", i = 1 and 5 are removed. Using the remaining candidate areas (i = 4, 8, 10), a registration error corresponding to the resolution of the original image is calculated in consideration of the 10-times magnification. That is, 3.1 pixels are obtained in the x direction and 0.2 pixels are obtained in the y direction (rounded off to the second decimal place). Hereinafter, description will be made returning to FIG. (4) Error Retrieval Process 270 In the registration error calculation process 190, if the processing target scene is nighttime, sea area, cloud area, or the like, the image matching processing is not performed well. In other words, when the deviation is extremely large, or when the registration error is not accurately determined, such as when the value becomes significantly larger than the control / measurement error known in advance, the correction of the geometric distortion correction coefficient In processing 280, the error amount obtained from the image closest to the shooting time of the processing target image is stored in the error file 2
Search from 75 and use. (3) Geometric distortion correction coefficient correction processing 28
0 Using the error amount (Δx, Δy) obtained in the registration error calculation processing 190, the geometric distortion correction coefficient φ1 (a
0, a1, a2, a3), φ2 (b0, b1, b2, b
Modify 3) (φ represents a set of coefficients). As shown in FIG. 11, the geometric distortion correction coefficients φ 1 and φ 2 (214) indicate the geometric relationship between the corrected image 208 and the uncorrected image 206. This coefficient is set for each block 212. In general, a bilinear equation shown in “Equation 6” and “Equation 7” is used as the relational expression. [Mathematical formula-see original document] [Mathematical formula-see original document] From the error amounts (Δx, Δy), the modified geometric distortion correction coefficients φ1 ′ and φ2 ′ (290) are obtained as shown in “Equation 8” and “Equation 9”, and are stored in the recording medium. [Mathematical formula-see original document] [Mathematical formula-see original document] Where: [Mathematical formula-see original document] [Mathematical formula-see original document] ## EQU13 ## ## EQU14 ## (Equation 15) ## EQU16 ## [Mathematical formula-see original document] If the error is a bias error, the error may be considered as a bias in the distortion correction coefficient as described above. However, if the error is a higher-order error, the error amount is reduced to the sensor-specific system correction 60 in FIG. It is necessary to take measures by feeding back and calculating the distortion correction coefficient again. As an alternative to this embodiment, instead of the precision matching process 220 in FIG. 1, a candidate selection process 243 in which the operator 244 selects a final candidate area from the candidate areas as shown in FIG. May be provided. If the candidate area can be reduced to about 1/10 by the rough matching processing 200, the above processing becomes possible. Further, the candidate selection process 243 by the operator 244 may be performed only on an image for which the rough matching process 200 does not work. The precision matching process 220 calculates the correlation value after enlarging the image at a desired magnification, but calculates the correlation value by “Equation 1” without enlarging the image and then calculates the correlation value as shown in FIG. The real number coordinate value 265 at which the correlation value becomes maximum may be calculated by interpolating the values. The invention described above is applicable to a satellite terrestrial information system, and is particularly effective in automating the registration process of a large number of images photographed by different types of sensors. According to the present invention, the following effects can be obtained. (1) The number of candidate areas can be reduced by making the number of stages of the matching process coarse and fine, and the load of the error calculation process can be reduced. Further, the operator can intervene to specify a candidate area. (2) By adding a candidate area selection process based on threshold value determination as a function, it is possible to efficiently select a corresponding area having similar error characteristics. (3) In the precise matching process, the position of the corresponding area area can be obtained with high accuracy by enlarging the image and obtaining a correlation value, or by interpolating the correlation value. (4) Matching accuracy can be improved by selecting a feature amount and a similarity based on a combination of images. (5) In the error calculation process using the threshold,
By removing an abnormal value by using an average value or a deviation from the average value of the position error of the corresponding area, the corresponding area error can be obtained with high accuracy. (6) The registration error amount is temporarily stored in the error amount file, and in the case of data obtained by photographing a cloud, the sea, nighttime, or the like, a value closest to the time from the stored error amounts is used. By searching and using the corrected geometric distortion correction coefficient calculation processing, an image that cannot be processed can be eliminated.

【図面の簡単な説明】 【図1】多段閾値判定によるレジストレーション誤差の
算出フロー。 【図2】本発明を適用する衛星地上情報システムの概要
図。 【図3】センサのポインティング機能と誤差の関係を説
明する概要図。 【図4】2個のセンサ画像の重ね合わせ誤差の説明図。 【図5】レジストレーション処理フロー。 【図6】テンプレート画像と探索画像との画像マッチン
グ処理の概要図。 【図7】閾値判定による候補エリア算出処理フロー。 【図8】閾値判定による候補エリア算出処理の説明図。 【図9】粗マッチング処理による誤差の特性と判定処理
結果を表す図表。 【図10】精密マッチング処理による誤差の特性を表す
図表。 【図11】幾何学ひずみ補正係数の説明図。 【図12】操作者の候補選定処理を考慮したレジストレ
ーション誤差算出処理フロー。 【図13】誤差の算出を行なう代替方法の説明図。 【符号の説明】 200…粗マッチング処理、210…閾値による候補エ
リア算出処理、212…精密マッチング処理、213…
閾値による誤差算出処理。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a calculation flow of a registration error by multi-stage threshold value determination. FIG. 2 is a schematic diagram of a satellite ground information system to which the present invention is applied. FIG. 3 is a schematic diagram illustrating a relationship between a pointing function of a sensor and an error. FIG. 4 is an explanatory diagram of an overlay error between two sensor images. FIG. 5 is a registration processing flow. FIG. 6 is a schematic diagram of an image matching process between a template image and a search image. FIG. 7 is a flowchart of a candidate area calculation process based on threshold determination. FIG. 8 is an explanatory diagram of a candidate area calculation process based on threshold determination. FIG. 9 is a table showing characteristics of an error caused by a rough matching process and a result of a determination process. FIG. 10 is a table showing characteristics of an error caused by a precision matching process. FIG. 11 is an explanatory diagram of a geometric distortion correction coefficient. FIG. 12 is a registration error calculation processing flow in consideration of an operator candidate selection processing; FIG. 13 is an explanatory diagram of an alternative method for calculating an error. [Description of Signs] 200: Coarse matching process, 210: Candidate area calculation process by threshold value, 212: Fine matching process, 213 ...
Error calculation processing using a threshold.

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平4−76788(JP,A) 特開 昭63−118889(JP,A) 特開 平4−307682(JP,A)   ────────────────────────────────────────────────── ─── Continuation of front page    (56) References JP-A-4-76788 (JP, A)                 JP-A-63-118889 (JP, A)                 JP-A-4-307682 (JP, A)

Claims (1)

(57)【特許請求の範囲】 【請求項1】(a)異種センサ画像にたいして各画像特
性間の整合をとるための正規化をおこない、 (b)正規化された異種センサ画像間の対応領域を被数
個設定し、 (c)設定された対応領域間について、画像中に設定し
たテンプレート画像と探索画像の間の対応点の特徴量を
算出し、該特徴量の類似度を比較し、類似度の高い対応
点の座標を整数位置で求める粗マッチング処埋により対
応領域間の類似度とレジストレーション誤差を算出し、 (d)算出された類似度とレジストレーション誤差にも
とづき上記対応領域から候補対応領域を選定し、 (e)選定された侯補対応領域間の精密マッチング処理
により候補対応領域間の類似度とレジストレーション謀
差を算出し、 (f)該算出された類似度とレジストレーション誤差に
もとづき上記侯補対応領域を絞りこみ、 (g)絞りこまれた侯補対応領域間のレジストレーショ
ン誤差にもとづき異種センサ画像間のレジストレーショ
ン誤差を算出し、 (h)最終的に算出されたレジストレーション誤差にも
とづき異種センサ画像間のレジストレーション補正をお
こなう、 異種センサ画像間レジストレーション補正方法。 【請求項2】上記候補領域選定処理は、上記粗マツチン
グ処理により求めた対応点座標より位置誤差の方向、大
きさ、誤差の平均値からの偏差を算出し、誤差の特性が
類似の対応点を選択する請求項1の異種センサ画像間レ
ジストレーション補正方法。 【講求項3】上記精密マッチング処理は、上記粗マツチ
ング処理により求めた対応点の特徴量が最大となる実数
座標を補間処理により求める請求項2の異種センサ画像
間レジストレーション補正方法。 【請求項4】上記特徴量としては輝度レベル値、スペク
トル特性、エッジ特徴、テクスチャ特徴、フーリエ記述
子のすくなくとも1個を用い、類似度としては、差分値
または相関値を用いる請求項1の異種センサ画像間レジ
ストレ ーション補正方法。 【請求項5】上記(g)のレジストレーション誤差算出
処理は、上記精密マツチング処理により求めた対応点の
位置誤差の平均値または該平均値からの偏差を用いて、
異常値を取り除いた対応点のみを用いて誤差量を求める
請求項1の異種センサ画像間レジストレーション補正方
法。 【請求項6】上記粗マツチング処理および精密マツチン
グ処理は、画像に低周波通過フィルタを適用後、エッジ
抽出処理を行なって算出した形状特徴を用いる請求項1
の異種センサ画像間レジストレーション補正方法。 【請求項7】上記エッジ抽出処理によって、抽出したエ
ッジを2値データあるいは、濃淡データの形状特徴とし
て用いる請求項6の異種センサ画像間レジストレーショ
ン補正方法。 【請求項8】上記エッジ抽出処理は、該エッジ抽出処理
したデータに低周波通過フィルタを適用して濃淡データ
を算出する請求項7の異種センサ画像間レジストレーシ
ョン補正方法。 【請求項9】上記精密マッチング処理は、テンプレート
および探索画像を拡大処理し、整数座標における相関値
を求め、最大の相間値をとる座標位置を、拡大前の実数
座標値に換算し求める請求項3の異種センサ画像間レジ
ストレーション補正方法。 【請求項10】上記(g)のレジストレーション誤差算
出処理は、算出したレジストレーション誤差量を誤差量
ファイルに保存しておき、雲、海、夜間の場合は、保存
した誤差量の中から時間的に一番近い値を検索し、修正
幾何学ひずみ補正係数算出処理に用いる請求項1の異種
センサ画像間レジストレーション補正方法。 【請求項11】上記(c)と(d)の処理に替えて上記
(b)で設定された対応領域を候補対応領域として上記
(e)の処理をする請求項1の異種センサ画像間レジス
トレーション補正方法。 【請求項12】上記(c)〜(f)の処理を複数回繰り
返す請求項1の異種センサ画像間レジストレーション補
正方法。 【請求項13】上記(e)と(f)の処理に替えて操作
者による候補 領域絞りこみ処理をする請求項2の異種セ
ンサ間レジストレーション方法。
(57) [Claims] [Claim 1] (a) Each image feature for a different sensor image
Normalization for matching between genders is performed. (B) The corresponding area between the normalized heterogeneous sensor images
Into individual sets, for between corresponding regions set (c), set in the image
The feature amount of the corresponding point between the template image and the search image
Calculate and compare the similarity of the feature amount, and respond to the high similarity
The coordinates of a point are determined by integer positions.
Calculating the similarity between the corresponding regions and the registration error, and (d) calculating the similarity and the registration error.
(E) Precise matching processing between the selected candidate corresponding areas
Of similarity between candidate corresponding areas and registration scheme
Calculating the difference, and (f) calculating the calculated similarity and the registration error.
Based narrow down the Hou complement corresponding region, Registration cane between Hou complement corresponding regions narrowed (g)
Registration between heterogeneous sensor images based on the registration error
Calculating a down error, to registration errors calculated finally (h)
To correct registration between different types of sensor images.
A method for correcting registration between different types of sensor images. 2. The method according to claim 1, wherein the candidate area selection process comprises the step of:
The direction of the position error from the coordinates of the corresponding point
Calculate the deviation of the error from the average value, and
2. A method according to claim 1, wherein similar corresponding points are selected.
Registration correction method. [Course 3] The precision matching process is based on the rough match
Real number that maximizes the feature value of the corresponding point obtained by
3. The heterogeneous sensor image according to claim 2, wherein the coordinates are obtained by an interpolation process.
Registration correction method. 4. The method according to claim 1, wherein the characteristic amount is a luminance level value, a spec.
Toll characteristics, edge features, texture features, Fourier description
At least one child is used, and the similarity is calculated using the difference value
2. The register according to claim 1, wherein a correlation value is used.
Stress Shon correction method. 5. The calculation of the registration error of (g).
The processing is based on the corresponding points determined by the precision matching processing described above.
Using the average value of the position error or deviation from the average value,
Calculate the error amount using only corresponding points from which outliers have been removed
A method for correcting registration between different types of sensor images according to claim 1.
Law. 6. The above rough and fine matting treatment.
After applying a low-pass filter to the image,
2. The method according to claim 1, wherein a shape feature calculated by performing an extraction process is used.
Registration correction method between different types of sensor images. 7. An image extracted by the edge extraction processing.
Edge as binary data or shading data.
7. Registration between different types of sensor images according to claim 6.
Correction method. 8. The edge extraction processing according to claim 1 , wherein
Applying a low-pass filter to the processed data
8. The registration rate between different types of sensor images according to claim 7, wherein
Correction method. 9. The precision matching process according to claim 1 , wherein
And the search image is enlarged and the correlation value at integer coordinates
And the coordinate position that takes the maximum inter-phase value is the real number before enlargement.
4. The register according to claim 3, wherein the register is obtained by converting the coordinate value into a coordinate value.
Installation correction method . 10. The registration error calculation of (g).
The output process calculates the registration error amount as the error amount.
Save in a file, save in the case of clouds, sea, night
Search for the closest value in time from the error amount specified and correct it
2. The different type according to claim 1, which is used in a geometric distortion correction coefficient calculation process.
Registration correction method between sensor images. 11. The method according to claim 1, wherein the processing of (c) and (d) is replaced with the processing of
The corresponding area set in (b) is set as a candidate corresponding area.
2. A register between different types of sensor images according to claim 1, wherein the process of (e) is performed.
Torsion correction method. 12. The processes (c) to (f) are repeated a plurality of times.
2. A registration supplement between images of different types of sensors according to claim 1.
Right way. 13. An operation in place of the processes (e) and (f).
3. The heterogeneous method according to claim 2 , wherein a candidate area narrowing process is performed by a user.
Registration method between sensors.
JP6323968A 1994-12-02 1994-12-02 Registration correction method between heterogeneous sensor images Expired - Lifetime JP2723174B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6323968A JP2723174B2 (en) 1994-12-02 1994-12-02 Registration correction method between heterogeneous sensor images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6323968A JP2723174B2 (en) 1994-12-02 1994-12-02 Registration correction method between heterogeneous sensor images

Publications (2)

Publication Number Publication Date
JPH08161474A JPH08161474A (en) 1996-06-21
JP2723174B2 true JP2723174B2 (en) 1998-03-09

Family

ID=18160650

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6323968A Expired - Lifetime JP2723174B2 (en) 1994-12-02 1994-12-02 Registration correction method between heterogeneous sensor images

Country Status (1)

Country Link
JP (1) JP2723174B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4680026B2 (en) * 2005-10-20 2011-05-11 株式会社日立ソリューションズ Inter-image change extraction support system and method
JP5328491B2 (en) * 2009-06-02 2013-10-30 三菱電機株式会社 Radar image processing device
JP5867237B2 (en) * 2012-03-29 2016-02-24 富士通株式会社 Image processing apparatus, image processing method, and image processing program
JP6240050B2 (en) * 2014-09-17 2017-11-29 株式会社東芝 Bias estimation apparatus, method and program thereof, and fault diagnosis apparatus, method and program thereof
CN116380148B (en) * 2023-04-06 2023-11-10 中国人民解放军93209部队 Two-stage space-time error calibration method and device for multi-sensor target tracking system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0786914B2 (en) * 1986-11-07 1995-09-20 株式会社日立製作所 Change detection method using images
JPH0476788A (en) * 1990-07-18 1992-03-11 Nec Corp Radiation digital image processor
JPH04307682A (en) * 1991-04-04 1992-10-29 Nippon Telegr & Teleph Corp <Ntt> Image positioning method

Also Published As

Publication number Publication date
JPH08161474A (en) 1996-06-21

Similar Documents

Publication Publication Date Title
US7313289B2 (en) Image processing method and apparatus and computer-readable storage medium using improved distortion correction
US6084989A (en) System and method for automatically determining the position of landmarks in digitized images derived from a satellite-based imaging system
EP1145568B1 (en) Software correction of image distortion in digital cameras
US7826685B2 (en) Spatial and spectral calibration of a panchromatic, multispectral image pair
EP3509034B1 (en) Image filtering based on image gradients
US10366501B2 (en) Method and apparatus for performing background image registration
Hong et al. A robust technique for precise registration of radar and optical satellite images
JP2010511257A (en) Panchromatic modulation of multispectral images
CN112287904B (en) Airport target identification method and device based on satellite images
WO2005038394A1 (en) Refinements to the rational polynomial coefficient camera model
CN112419380B (en) Cloud mask-based high-precision registration method for stationary orbit satellite sequence images
CN109712084B (en) Image restoration method, image restoration system and flat panel detector
CN113223066B (en) Multi-source remote sensing image matching method and device based on characteristic point fine tuning
US6751341B2 (en) Image position matching method and apparatus
CN112419420B (en) Camera calibration method and device, electronic equipment and storage medium
CN114241064B (en) Real-time geometric calibration method for internal and external orientation elements of remote sensing satellite
CN112200848A (en) Depth camera vision enhancement method and system under low-illumination weak-contrast complex environment
JP2723174B2 (en) Registration correction method between heterogeneous sensor images
CN108876829B (en) SAR high-precision registration method based on nonlinear scale space and radial basis function
CN112085684B (en) Remote sensing image fusion method and device
Panigrahi et al. Pre-processing algorithm for rectification of geometric distortions in satellite images
CN114004770B (en) Method and device for accurately correcting satellite space-time diagram and storage medium
CN116206139A (en) Unmanned aerial vehicle image upscaling matching method based on local self-convolution
CN113592744A (en) Geometric precise correction method suitable for high-resolution remote sensing image
CN117592001B (en) Data fusion method and device

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term