JPH08161474A - Method for correcting registration between images by different kinds of sensors - Google Patents

Method for correcting registration between images by different kinds of sensors

Info

Publication number
JPH08161474A
JPH08161474A JP6323968A JP32396894A JPH08161474A JP H08161474 A JPH08161474 A JP H08161474A JP 6323968 A JP6323968 A JP 6323968A JP 32396894 A JP32396894 A JP 32396894A JP H08161474 A JPH08161474 A JP H08161474A
Authority
JP
Japan
Prior art keywords
registration
error
image
processing
sensor images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6323968A
Other languages
Japanese (ja)
Other versions
JP2723174B2 (en
Inventor
Yoichi Seto
洋一 瀬戸
Yasue Nomoto
野本  安栄
Manabu Kaku
学 賀来
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
Agency of Industrial Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agency of Industrial Science and Technology filed Critical Agency of Industrial Science and Technology
Priority to JP6323968A priority Critical patent/JP2723174B2/en
Publication of JPH08161474A publication Critical patent/JPH08161474A/en
Application granted granted Critical
Publication of JP2723174B2 publication Critical patent/JP2723174B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: To attain high speed, highly accurate and automatic registration processing for lots of image data obtained from plural sensors whose sensitivity characteristics differ from each other. CONSTITUTION: In the image registration processing consisting of normalizing processing, registration error calculation processing and re-sampling processing of an image, the registration error calculation processing is executed by a rough matching processing 200, an object area calculation processing 210 based on a threshold level, a precise matching processing 220 and an error calculation processing 230 based on a threshold level. Since multi processing stages as the rough and the precise processing are adopted for the registration error calculation processing, it is possible to decrease number of object areas and the load of the error calculation processing is relieved and the processing speed is improved. Furthermore, the inter-image registration processing for lots of image data picked up by different kind of sensors is automated.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、計算機により自動化を
目的とした画像の位置合わせ(レジストレーション)補
正処理に関わり、特に、衛星画像処理システムにおい
て、センサの感度特性が異なる複数センサにより得られ
た画像(以下、異種センサ画像という)の自動レジスト
レーション処理に好適な異種センサ画像レジストレーシ
ョン補正処理方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image registration (registration) correction process for the purpose of automation by a computer, and in particular, in a satellite image processing system, it is obtained by a plurality of sensors having different sensitivity characteristics. The present invention relates to a heterogeneous sensor image registration correction processing method suitable for automatic registration processing of an image (hereinafter referred to as a heterogeneous sensor image).

【0002】[0002]

【従来の技術】画像レジストレーション処理の従来技術
は、長尾真著「画像認識論」((株)コロナ社、昭和5
8年2月発行)および瀬戸洋一、西島英児、手塚主宇著
「画像レジストレーション処理ユーザ支援システムの開
発」(リモートセンシング学会、pp.27−37、V
ol.10、No.4、1991年)に記載されてい
る。
2. Description of the Related Art The prior art of image registration processing is described in "Image Recognition" by Shin Nagao (Corona Corp., Showa 5).
(Published in Feb. 8) and Yoichi Seto, Eiji Nishijima, and Shouyu Tezuka "Development of Image Registration Processing User Support System" (Remote Sensing Society, pp.27-37, V.
ol. 10, No. 4, 1991).

【0003】処理の概要は以下の通りである。The outline of the processing is as follows.

【0004】(1)画像の正規化 基準とするセンサ画像(テンプレート画像)の特性(空
間分解能と平均輝度レベル)に、他のセンサ画像(探索
画像)の特性を整合させる。
(1) Normalization of image The characteristics (spatial resolution and average luminance level) of the sensor image (template image) serving as a reference are matched with the characteristics of another sensor image (search image).

【0005】(2)レジストレーション誤差算出 比較するセンサ画像間の位置誤差量を測定する。測定法
としては、特徴量としてスペクトル特性や形状特徴を用
い、類似度として相関係数を用いて自動的に画像マッチ
ングをとる方法と、操作者が異種センサ画像上の対応点
を指示する方法がある。
(2) Registration error calculation The amount of position error between sensor images to be compared is measured. As the measurement method, there are a method of automatically performing image matching using a spectral characteristic or a shape feature as a feature amount and a correlation coefficient as a degree of similarity, and a method in which an operator designates corresponding points on different sensor images. is there.

【0006】(3)補間処理 レジストレーション誤差算出処理で求めた誤差量を用
い、2個の画像(上記テンプレート画像と探索画像)に
おける画素間の位置関係を多項式であらわし、画素位置
の再配列処理(リサンプリング処理)を行なう。整数座
標以外の画素はキュービックコンボリューション法など
を用いて補間処理を行なう。
(3) Interpolation process Using the error amount obtained in the registration error calculation process, the positional relationship between pixels in the two images (the template image and the search image) is expressed by a polynomial, and the pixel position rearrangement process is performed. (Resampling process) is performed. Pixels other than integer coordinates are interpolated using the cubic convolution method or the like.

【0007】以上のように従来技術は、同種類のセンサ
画像を比較処理する方法であったり、異種センサ画像の
場合は、操作者が対応点を指示する方法であった。
As described above, the prior art has been a method of comparing and processing sensor images of the same type, or a method of instructing corresponding points by an operator in the case of different types of sensor images.

【0008】[0008]

【発明が解決しようとする課題】従来方法は、スペクト
ル特性が類似の同種センサ画像間のレジストレーション
に適用する場合の自動化処理や、スペクトル特性が異な
る異種センサ画像間の対応点を操作者が指示する場合の
レジストレーション処理を前提としていた。また、対応
点は、あらかじめマッチング精度がいい位置を事前に登
録できた。したがって、処理する画像数が多く、かつス
ペクトル特性の異なる異種センサ画像間のレジストレー
ション処理に従来方法を適用する場合は、以下の課題が
生じた。
According to the conventional method, an operator indicates an automatic process when applied to registration between similar-type sensor images having similar spectral characteristics, and an operator indicates a corresponding point between different-type sensor images having different spectral characteristics. It was premised on the registration process when doing. In addition, as the corresponding points, positions with good matching accuracy could be registered in advance. Therefore, when the conventional method is applied to the registration process between the different types of sensor images having a large number of images to be processed and different spectral characteristics, the following problems occur.

【0009】(1)同一地表点のスペクトル特性、つま
り、輝度レベル分布が2個の画像で異なるため、輝度レ
ベルより求めた相関値(特徴量)を用いた画像マッチン
グ処理を行なっても正しい結果が得られない。
(1) Since the spectral characteristics of the same ground point, that is, the brightness level distributions of the two images are different, a correct result is obtained even if the image matching process using the correlation value (feature amount) obtained from the brightness level is performed. Can't get

【0010】例えば、可視画像と熱赤外画像との間の輝
度レベル相関はほとんどなく、画像マッチング処理を正
しく行なうことができない。
For example, there is almost no brightness level correlation between a visible image and a thermal infrared image, and image matching processing cannot be performed correctly.

【0011】(2)画像マッチング処理を操作者が手動
でディスプレイに表示された画像を指示することにより
行なう場合、処理データが多量であり、現実的な時間内
で操作者が対応領域を指示できない。
(2) When the image matching process is performed by the operator manually instructing the image displayed on the display, the amount of processing data is large, and the operator cannot instruct the corresponding area within a realistic time. .

【0012】例えば、1日1000シーンの画像を処理
する場合、1シーンについて100の対応領域を処理す
る必要があると仮定する。各領域についての処理時間を
2分とすると、すべて処理するには約3000時間を要
する。これを例えば8時間で処理する場合は約400人
の操作者が必要である。
For example, when processing images of 1000 scenes per day, assume that it is necessary to process 100 corresponding regions for one scene. If the processing time for each area is 2 minutes, it takes about 3000 hours to process all the areas. If this is processed in, for example, 8 hours, about 400 operators are required.

【0013】本発明の目的は、異種センサ画像間のレジ
ストレーション処理精度を向上することと多量の画像デ
ータのレジストレーション処理を自動化することにあ
る。
An object of the present invention is to improve the accuracy of registration processing between images of different types of sensors and to automate the registration processing of a large amount of image data.

【0014】[0014]

【課題を解決するための手段】上記課題を解決するため
に、以下の処理をおこなう。
[Means for Solving the Problems] In order to solve the above problems, the following processing is performed.

【0015】(1)スペクトル特性が異なる異種センサ
画像のマッチング処理を可能とするために、画像比較に
最適な特徴量を選択し、2個の画像の位置誤差を検出す
るのに必要な対応領域(計算領域)を複数設定し、位置
誤差が正しく算出できた対応領域を粗マッチング処理と
精密マッチング処理よりなる多段かつ閾値判定により絞
り込む。
(1) Corresponding regions required to select a feature amount optimum for image comparison and detect a positional error between two images in order to enable matching processing of different sensor images having different spectral characteristics. A plurality of (calculation areas) are set, and the corresponding area in which the position error has been calculated correctly is narrowed down by a multi-stage and coarse threshold judgment including rough matching processing and fine matching processing.

【0016】(2)候補となる対応領域の絞り込みを行
なった後、操作者が対応領域を指示する候補選定処理を
設ける。
(2) After narrowing down the corresponding areas that are candidates, an operator selects a candidate area to specify a corresponding area.

【0017】(3)対応領域が精度よく求まらない場合
は、一番類似した位置誤差を用いて代替データとする。
(3) If the corresponding area cannot be obtained accurately, the most similar position error is used as alternative data.

【0018】(4)拡大した画像を用いて位置誤差を算
出する。あるいは、算出した特徴量を補間して、高精度
に位置誤差を求める。
(4) The position error is calculated using the enlarged image. Alternatively, the calculated feature amount is interpolated to obtain the position error with high accuracy.

【0019】[0019]

【作用】[Action]

(1)異種センサ画像中に対応領域を複数設け、類似し
た特徴量をもつ対応領域を閾値判定により選定すること
で測定精度の向上を図る。また、処理を多段にし、後段
ほど測定精度がよくなるように候補を絞り込む処理によ
り、計算時間を短縮する。
(1) The measurement accuracy is improved by providing a plurality of corresponding areas in different sensor images and selecting corresponding areas having similar feature amounts by threshold determination. Further, the processing time is shortened by performing the processing in multiple stages and narrowing down the candidates so that the measurement accuracy becomes higher in the subsequent stages.

【0020】(2)候補を絞り込むことにより、候補対
応領域の数は少なくなるので、操作者による指示入力が
可能となる。
(2) Since the number of candidate corresponding areas is reduced by narrowing down the candidates, the operator can input an instruction.

【0021】(3)衛星センサの場合、センサポインテ
ィング誤差は、時間に依存するので、雲域など、画像マ
ッチング処理が精度よく求まらない場合は、処理すべき
対象画像の撮影時期に一番近いデータを近似値として用
いることにより、処理不能状態を防ぐ。
(3) In the case of the satellite sensor, the sensor pointing error depends on time. Therefore, if the image matching process cannot be accurately performed, such as in the cloud area, the sensor pointing error is most likely to occur when the target image to be processed is taken. By using close data as an approximate value, the unprocessable state is prevented.

【0022】(4)画像を拡大あるいは、特徴量を補間
することにより、実数座標で位置誤差を精度よく求める
ことができる。
(4) By enlarging the image or interpolating the feature amount, the position error can be accurately obtained in the real number coordinates.

【0023】[0023]

【実施例】以下、本発明の実施例を図面にもとづき詳細
に説明する。図2は本発明を適用する衛星地上情報シス
テムの概要図で、資源探査や環境監視などを目的に観測
衛星10により地表面の所望領域を観測し、観測した画
像データを地上システム20で処理する。
Embodiments of the present invention will now be described in detail with reference to the drawings. FIG. 2 is a schematic diagram of a satellite ground information system to which the present invention is applied, in which a desired area on the ground surface is observed by an observation satellite 10 for the purpose of resource exploration and environmental monitoring, and the observed image data is processed by the ground system 20. .

【0024】本観測衛星10は、2個の異なるスペクト
ル特性をもつ異種センサを搭載している。「図3」に示
すようにセンサ1(30)は可視と近赤外波長域に感度
を有するセンサであり空間分解能は10m、センサ2
(40)は熱赤外波長域に感度を有するセンサであり空
間分解能は40mである。一度に60km四方を撮影す
る。衛星は、一日に地球を約15回周回し地表を100
0シーン観測する。各々のセンサは衛星の進行方向(軌
道方向)に直交する方向に観測角を変えるポインティン
グ機構を有する。ポインティング角度を制御・計測する
装置もあるが、正確に制御・計測できず、同一方向をポ
インティングしても設定角に誤差を生じる(「図3」の
点線がポインティング誤差が生じた場合の視野を示
す)。例えば、ポインティング誤差が125マイクロラ
ジアン生じた場合、地上800Km上空から地表を観測
した場合、地表では100mの位置誤差が生じる。
The observation satellite 10 is equipped with two different types of sensors having different spectral characteristics. As shown in FIG. 3, the sensor 1 (30) is a sensor having sensitivity in the visible and near-infrared wavelength regions, the spatial resolution is 10 m, and the sensor 2
Reference numeral (40) is a sensor having sensitivity in the thermal infrared wavelength region, and the spatial resolution is 40 m. Shoot 60km square at a time. The satellite orbits the earth about 15 times a day,
Observe 0 scenes. Each sensor has a pointing mechanism that changes the observation angle in a direction orthogonal to the satellite traveling direction (orbit direction). There is also a device that controls and measures the pointing angle, but it cannot be controlled and measured accurately, and an error occurs in the set angle even when pointing in the same direction (the dotted line in "Fig. 3" indicates the field of view when a pointing error occurs). Shown). For example, when the pointing error is 125 microradians, and when the ground surface is observed from 800 Km above the ground, a position error of 100 m occurs on the ground surface.

【0025】このため、図4に示すように2個のセンサ
画像92、94を重ね合わせる場合、重ね合わせ誤差5
0が生じる。この誤差50を「図2」の地上システム2
0で取り除く必要がある。
Therefore, when the two sensor images 92 and 94 are superposed on each other as shown in FIG.
0 occurs. This error 50 is the ground system 2 of "Fig. 2".
It should be removed with 0.

【0026】以下、図にしたがい地上システム20にお
ける画像レジストレーション補正処理の内容を述べる。
観測衛星10により観測された地表のデータは、地上の
受信アンテナ12により受信され、地上システム20に
入力される。入力された各センサ画像は、センサ固有の
システム補正60や種々の処理を行ない補正画像70を
得、ユーザ80に配布される。
The contents of the image registration correction processing in the ground system 20 will be described below with reference to the drawings.
The data on the ground surface observed by the observation satellite 10 is received by the receiving antenna 12 on the ground and input to the ground system 20. The input sensor images are distributed to the user 80 after the system correction 60 specific to the sensor and various processings are performed to obtain a corrected image 70.

【0027】センサ1画像を例に処理の詳細を以下に述
べる(センサ2画像も同様である)。
The details of the processing will be described below using the image of the sensor 1 as an example (the same applies to the image of the sensor 2).

【0028】(1)センサ固有のシステム補正処理60 センサ1固有のシステム補正処理60とは、幾何学ひず
みや放射強度ひずみ補正である。本処理は例えば、山縣
著、地球観測衛星によるリモートセンシング画像処理、
67頁〜72頁(日立評論、第64巻、第6号、198
2年6月)に記載の技術で行なえばよい。
(1) System correction processing 60 peculiar to the sensor The system correction processing 60 peculiar to the sensor 1 is geometric distortion or radiant intensity distortion correction. This processing is, for example, by Yamagata, remote sensing image processing by an earth observation satellite,
Pages 67-72 (Hitachi critique, Vol. 64, No. 6, 198)
The technique described in June, 2) may be used.

【0029】処理結果は、フォーマット変換された観測
画像90と幾何学ひずみや放射強度ひずみの補正係数
(以下、本発明に関係する幾何学ひずみ補正係数のみを
単にひずみ補正係数と呼ぶ)100である。これらは記
録媒体に格納される。
The processing result is a format-converted observation image 90 and a geometric distortion or radiation intensity distortion correction coefficient (hereinafter, only the geometric distortion correction coefficient relevant to the present invention is simply referred to as a distortion correction coefficient) 100. . These are stored in the recording medium.

【0030】(2)レジストレーション処理110 上記ひずみ補正係数100を用いて、図4に示すよう
に、補正したセンサ1画像92とセンサ2画像94を重
ね合わせると、上記システム補正では考慮できなかった
センサのポインティング誤差が残り、画像上に重ね合わ
せ誤差50が生じる。この誤差を補正するのがレジスト
レーション処理110であり、これを実現する方法が本
発明である。
(2) Registration processing 110 When the corrected sensor 1 image 92 and sensor 2 image 94 are superposed as shown in FIG. 4 by using the distortion correction coefficient 100, it cannot be considered in the system correction. The pointing error of the sensor remains and an overlay error 50 occurs on the image. The registration process 110 corrects this error, and a method of realizing this is the present invention.

【0031】本処理では各観測画像90とひずみ補正係
数100を用いて、ポインティング誤差を補正する修正
ひずみ補正係数130を算出する。
In this processing, the corrected distortion correction coefficient 130 for correcting the pointing error is calculated using each observed image 90 and the distortion correction coefficient 100.

【0032】(3)リサンプリング処理140 放射強度ひずみなどのひずみ補正係数100と修正ひず
み補正係数130と観測画像90より補正画像70を算
出する処理であり、前述の文献(日立評論、第64巻)
に記載の技術で行なえばよいので詳細は省略する。
(3) Resampling process 140 This is a process of calculating the corrected image 70 from the distortion correction coefficient 100 such as the radiant intensity distortion, the corrected distortion correction coefficient 130, and the observed image 90, and is described in the above-mentioned document (Hitachi Review, Volume 64). )
The details will be omitted because it may be performed by the technique described in (1).

【0033】以下、本発明の中心であるレジストレーシ
ョン処理110の詳細を「図5」にしたがい述べる。
The details of the registration process 110, which is the core of the present invention, will be described below with reference to FIG.

【0034】(1)前処理150 レジストレーション誤差を求める画像(該当バンド)
f’、g’(160)について、ひずみ補正係数φ1、
φ2(155)を用いて処理し、補正画像(ひずみ補正
されたセンサ1画像とセンサ2画像)f−、g−(17
0)を作成する。
(1) Preprocessing 150 Image for finding registration error (corresponding band)
For f ′ and g ′ (160), distortion correction coefficient φ1,
φ2 (155) is used for processing and corrected images (distortion corrected sensor 1 image and sensor 2 image) f−, g− (17
0) is created.

【0035】ここで、f−、g−はそれぞれf、gの真
上に「−」を付したことを表わす。
Here, f- and g- mean that "-" is added just above f and g, respectively.

【0036】(2)画像正規化処理180 ひずみ補正されたセンサ1画像f−とセンサ2画像g−
の画像特性の整合をとる。具体的には、空間分解能と平
均輝度レベルの合わせ込みを行なう。求めた画像をf、
g(170)とする。
(2) Image Normalization Processing 180 Distortion-corrected sensor 1 image f- and sensor 2 image g-
Match the image characteristics of. Specifically, the spatial resolution and the average brightness level are matched. The obtained image is f,
g (170).

【0037】空間分解能は、センサ1画像の10メート
ルにあうように、センサ2画像(空間分解能40メート
ル)の1画素を縦横4倍にリサンプリングする。また、
輝度レベルのヒストグラムを求め、ヒストグラムの平均
と分散が一致するようにヒストグラムを合わせ込む。
As for the spatial resolution, one pixel of the image of the sensor 2 (spatial resolution of 40 meters) is resampled by 4 times in the vertical and horizontal directions so that it corresponds to 10 meters of the image of the sensor 1. Also,
The histogram of the brightness level is obtained, and the histograms are matched so that the average and the variance of the histogram match.

【0038】具体的には、高木、下田監修、画像処理ハ
ンドブック((財)東京大学出版会発行、1991年1
月)463頁から465頁および425頁から429頁
の方法で実現できる。
Specifically, Takagi and Shimoda supervise, Image Processing Handbook (published by The University of Tokyo Press, 1991 1
Month) This can be realized by the method of pages 463 to 465 and 425 to 429.

【0039】(3)レジストレーション誤差算出処理1
90 レジストレーション誤差算出処理190は、「図1」に
より構成される。
(3) Registration error calculation processing 1
90 The registration error calculation processing 190 is configured by "FIG. 1".

【0040】(a)粗マッチング処理200 「図6」に示すように画像中のランダムな位置にテンプ
レート領域f202とそれに対応する探索領域g(20
4)を複数設定し、整数画素の精度でマッチングを行な
う。用いる特徴量は、センサ特性などを考慮して事前に
決める。
(A) Coarse matching process 200 As shown in FIG. 6, the template region f202 and the corresponding search region g (20) are randomly located in the image.
4) is set, and matching is performed with the accuracy of integer pixels. The feature amount to be used is determined in advance in consideration of sensor characteristics and the like.

【0041】同種類のセンサ画像や類似のセンサ画像比
較においては、輝度レベル値を用いた「数1」で表せる
面積相関γにより類似度を求めればよい。
In the case of comparing sensor images of the same type or similar sensor images, the degree of similarity may be obtained by the area correlation γ that can be represented by "Equation 1" using the brightness level value.

【0042】[0042]

【数1】 ここで、f〜、g〜は、それぞれf、gの真上に「〜」
を付したことを表わし、f、gの平均を意味する。
[Equation 1] Here, f ~ and g ~ are "~" just above f and g, respectively.
Is added and means the average of f and g.

【0043】異種センサ画像間レジストレーション処理
の場合は、輝度レベルに必ずしも正の相関はないため、
形状特徴などを求めてから、類似度を求める。形状特徴
量としては、DPマッチングやフーリエ記述子やテクス
チャ特徴やエッジ特徴などを用いればよい。ここでは、
エッジ特徴を用いた処理を述べる。
In the case of registration processing between different types of sensor images, the luminance levels do not always have a positive correlation.
After obtaining the shape feature and the like, the degree of similarity is obtained. As the shape feature amount, DP matching, Fourier descriptor, texture feature, edge feature, or the like may be used. here,
The processing using the edge feature will be described.

【0044】エッジ抽出は、画像をぼかしてから、ラプ
ラシアンフィルタを考慮する「数2」、「数3」のフィ
ルタ処理の後、ゼロクロッシング法(高木、下田監修、
画像処理ハンドブック550頁から582頁((財)東
京大学出版会発行、1991年1月)によりエッジを線
情報として抽出する。例えば、画像gについて、エッジ
抽出するには、
In the edge extraction, after blurring the image, the filter processing of "Equation 2" and "Equation 3" in which the Laplacian filter is taken into consideration, and the zero-crossing method (supervised by Takagi and Shimoda,
Edges are extracted as line information from pages 550 to 582 of the image processing handbook (published by The University of Tokyo Press, January 1991). For example, for image g, edge extraction

【0045】[0045]

【数2】 [Equation 2]

【0046】[0046]

【数3】 ここで、σ:標準偏差、@:コンボリューションを表
す。
(Equation 3) Here, σ: standard deviation, @: convolution.

【0047】標準偏差σをパラメータとして変えること
により抽出するエッジの周波数特性を選択できる。
The frequency characteristic of the edge to be extracted can be selected by changing the standard deviation σ as a parameter.

【0048】「数2」により求めた画像g*を2値化し
た後、「数1」により相関値を求めることもできるが、
ここでは、2値化せず濃淡画像として、「数1」により
相関値を求める。
It is also possible to binarize the image g * obtained by "Equation 2" and then obtain the correlation value by "Equation 1".
Here, the correlation value is obtained by "Equation 1" as a grayscale image without binarization.

【0049】また、「数2」「数3」およびゼロクロッ
シング法で求めた画像に対して、低周波通過フィルタ
(例えば、ガウスフィルタなど)を適用後の画像に対
し、相関値を求めることも有効である。
Further, it is also possible to obtain a correlation value for an image obtained by applying a low-frequency pass filter (for example, a Gaussian filter) to the images obtained by "Equation 2" and "Equation 3" and the zero-crossing method. It is valid.

【0050】求めた相関値の一番大きな値を持つ座標を
画像より求め、位置誤差(レジストレーション誤差)を
算出する。つまり、相関係数が最大となる座標(sm、
tm)をマッチング位置として、基準とする画像(例え
ば、センサ1画像)の位置(s0、t0)からのズレ量
(σx、σy)をレジストレーション誤差として「数
4」[数5」により求める。
The coordinate having the largest correlation value thus obtained is obtained from the image, and the position error (registration error) is calculated. That is, the coordinates (sm,
tm) as a matching position, the deviation amount (σx, σy) from the position (s0, t0) of the reference image (for example, the image of the sensor 1) is obtained as a registration error by “Equation 4” and “Equation 5”.

【0051】[0051]

【数4】 [Equation 4]

【0052】[0052]

【数5】 以上の処理を各テンプレート領域について行なう。求め
た相関値γ(i)と誤差量σx(i)、σy(i)とマ
ッチングエリア(領域)の番号iとを次の処理に引き渡
す。本実施例では、iは10点とする。
(Equation 5) The above processing is performed for each template area. The calculated correlation value γ (i), the error amount σx (i), σy (i) and the matching area number i are passed to the next process. In this embodiment, i is 10 points.

【0053】(b)候補エリア選定処理210 位置誤差の大きさと誤差(ズレ)の生じる方向とを用い
て、異常値を閾値判定により取り除く。それ以外を候補
エリア(領域)とする。
(B) Candidate area selection processing 210 Using the magnitude of the position error and the direction in which the error (deviation) occurs, the abnormal value is removed by the threshold value judgment. The other areas are candidate areas.

【0054】「図7」に示す閾値判定による候補エリア
選択処理フローを説明するため、「図8」の誤差分布を
仮定する。「図8」の各候補エリアにおける誤差の分布
と誤差量を「図9」と「図10」に示す。
In order to explain the candidate area selection processing flow by the threshold value judgment shown in FIG. 7, the error distribution of FIG. 8 is assumed. The error distribution and the error amount in each candidate area of "FIG. 8" are shown in "FIG. 9" and "FIG. 10."

【0055】例えば、i=1のエリアは、相関係数γ
(1)=0.9、誤差量σx(1)=4画素、σy
(1)=0画素である。
For example, in the area of i = 1, the correlation coefficient γ
(1) = 0.9, error amount σx (1) = 4 pixels, σy
(1) = 0 pixels.

【0056】まず、ブロック710で全エリアについて
相関係数γが0.5以下のエリアを候補から取り除く
(γ判定)。取り除くエリアは、i=3、6である。残
ったエリアについて、ブロック720で位置誤差の大き
さrとx軸となす角度θを算出する。i=1のエリアで
は、例えば、r=2、θ=0となる。
First, in block 710, areas having a correlation coefficient γ of 0.5 or less for all areas are removed from the candidates (γ judgment). The areas to be removed are i = 3 and 6. For the remaining area, in block 720, the angle r between the position error magnitude r and the x axis is calculated. In the area of i = 1, for example, r = 2 and θ = 0.

【0057】次に、ブロック730で候補エリアの誤差
の大きさと方向の平均r−、θ−(rとθの真上にそれ
ぞれ「−」を付したことを表わす)と偏差δr、δθお
よびを算出230する。r=3.2、δr=1.2、θ
=20.25、δθ=46.5となる。次に、ブロック
740で、θ±δθ以内、かつブロック750で、r±
δr以内に入っていないエリアを除く。前者のθ判定で
i=7、9、また、後者のr判定でi=2が候補から取
り除かれる。結局、ブロック760で、i=1、4、
5、8、10が候補エリアとして登録される。
Next, at block 730, the error magnitudes and directional averages r- and θ- (representing "-" just above r and θ) of the candidate areas and the deviations δr, δθ and Calculate 230. r = 3.2, δr = 1.2, θ
= 20.25 and δθ = 46.5. Next, in block 740, within θ ± δθ, and in block 750, r ±
Excludes areas that are not within δr. In the former θ judgment, i = 7 and 9, and in the latter r judgment, i = 2 is removed from the candidates. Eventually, at block 760, i = 1, 4,
5, 8, and 10 are registered as candidate areas.

【0058】(c)精密マッチング処理220 マッチング位置を精度よく算出するためには、図7の処
理フローで絞り込んだ候補エリア(i=1、4、5、
8、10)を画質の劣化が少ない方法で拡大補間する。
例えば、キュービックコンボリューションカーネルを用
いて10倍拡大する。
(C) Precision Matching Processing 220 In order to calculate the matching position with high accuracy, the candidate areas (i = 1, 4, 5,
8 and 10) are enlarged and interpolated by a method with little deterioration in image quality.
For example, a cubic convolution kernel is used to enlarge 10 times.

【0059】拡大したエリアについて、粗マッチング処
理と同様の処理を行ない、テンプレート画像と探索画像
の位置誤差を求める。
With respect to the enlarged area, the same processing as the rough matching processing is performed to obtain the position error between the template image and the search image.

【0060】(d)誤差算出処理230 「図7」と同様の異常値の判定処理を行ない、求めた候
補エリアのデータの誤差の平均値を求める。これを最終
的なレジストレーション誤差とする。
(D) Error calculation process 230 The same abnormal value determination process as in FIG. 7 is performed to obtain the average value of the errors of the obtained candidate area data. This is the final registration error.

【0061】「図10」に精密マッチング処理により算
出した誤差量を示す(10倍拡大した値)。上記(b)
と同様の閾値判定処理で、異常値を取り除く。「図1
0」では、i=1、5が取り除かれる。残りの候補エリ
ア(i=4、8、10)を用いて、10倍拡大したこと
を考慮して、元の画像の分解能に相当したレジストレー
ション誤差を算出する。つまり、x方向は、3.1画
素、y方向は、0.2画素と求まる(小数点第2以下は
四捨五入)。
FIG. 10 shows the error amount calculated by the precision matching process (value magnified 10 times). Above (b)
The abnormal value is removed by the threshold determination processing similar to. "Figure 1
At "0", i = 1, 5 is removed. Using the remaining candidate areas (i = 4, 8, 10), the registration error corresponding to the resolution of the original image is calculated in consideration of the 10 times enlargement. That is, 3.1 pixels in the x direction and 0.2 pixels in the y direction are obtained (rounded to the second decimal place).

【0062】以下、「図5」にもどって説明する。Hereinafter, the description will be returned to FIG.

【0063】(4)誤差の検索処理270 レジストレーション誤差算出処理190において、処理
対象シーンが、夜間や海域や雲域などの場合、画像マッ
チング処理がうまく行かない。つまり、偏差が極端に大
きくなる場合や、あらかじめ判明している制御・計測誤
差よりもかなり大きな値になるなど、レジストレーショ
ン誤差が精度よく求まらない場合は、次の幾何学ひずみ
補正係数修正処理280において、処理対象画像の撮影
時期に一番近い画像から求めた誤差量を誤差ファイル2
75から検索して用いる。
(4) Error Retrieval Processing 270 In the registration error calculation processing 190, if the processing target scene is at night, a sea area, a cloud area, or the like, the image matching processing does not work well. In other words, if the registration error cannot be obtained accurately, such as when the deviation is extremely large or when it is significantly larger than the known control / measurement error, the next geometric distortion correction coefficient correction In the process 280, the error amount obtained from the image closest to the image capturing time of the process target image is used as the error file 2
Search from 75 and use.

【0064】(3)幾何学ひずみ補正係数修正処理28
0 レジストレーション誤差算出処理190で求めた誤差量
(Δx、Δy)を用い、幾何学ひずみ補正係数φ1(a
0、a1、a2、a3)、φ2(b0、b1、b2、b
3)を修正する(φは係数の集合を表す)。
(3) Geometrical distortion correction coefficient correction processing 28
0 Using the error amount (Δx, Δy) obtained in the registration error calculation process 190, the geometric distortion correction coefficient φ1 (a
0, a1, a2, a3), φ2 (b0, b1, b2, b
3) is modified (φ represents a set of coefficients).

【0065】「図11」に示すように、幾何学ひずみ補
正係数φ1,φ2(214)は、補正画像208と未補正
画像206の幾何学的関係を示す。また,この係数はブ
ロック212ごとに設定される。関係式は一般に「数
6」「数7」に示すバイリニア式が用いられる。
As shown in FIG. 11, the geometric distortion correction coefficients φ 1 and φ 2 (214) indicate the geometric relationship between the corrected image 208 and the uncorrected image 206. Further, this coefficient is set for each block 212. As the relational expression, the bilinear expression shown in "Equation 6" and "Equation 7" is generally used.

【0066】[0066]

【数6】 (Equation 6)

【0067】[0067]

【数7】 誤差量(Δx、Δy)より「数8」「数9」のように修
正幾何学ひずみ補正係数φ1’、φ2’(290)を求
め、これを記録媒体に格納する。
(Equation 7) From the error amounts (Δx, Δy), the corrected geometric distortion correction coefficients φ1 ′ and φ2 ′ (290) are calculated as in “Equation 8” and “Equation 9”, and these are stored in the recording medium.

【0068】[0068]

【数8】 (Equation 8)

【0069】[0069]

【数9】 ここで、[Equation 9] here,

【0070】[0070]

【数10】 [Equation 10]

【0071】[0071]

【数11】 [Equation 11]

【0072】[0072]

【数12】 (Equation 12)

【0073】[0073]

【数13】 (Equation 13)

【0074】[0074]

【数14】 [Equation 14]

【0075】[0075]

【数15】 (Equation 15)

【0076】[0076]

【数16】 [Equation 16]

【0077】[0077]

【数17】 誤差がバイアス誤差である場合は、誤差を上記のように
ひずみ補正係数にバイアス的に考慮すればよいが、高次
誤差の場合は、「図2」におけるセンサ固有のシステム
補正60まで誤差量をフィードバックして再度ひずみ補
正係数を算出することで対処する必要がある。
[Equation 17] When the error is a bias error, the error may be bias-considered in the distortion correction coefficient as described above. However, in the case of a higher-order error, the error amount up to the sensor-specific system correction 60 in FIG. It is necessary to deal with it by feeding back and calculating the distortion correction coefficient again.

【0078】本実施例の代替案として「図1」における
精密マッチング処理220のかわりに、「図12」に示
すように操作者244が候補エリアより最終的な候補エ
リアを選択する候補選定処理243を設けてもよい。粗
マッチング処理200により候補エリアを10分の1程
度にできれば上記処理が可能となる。また、粗マッチン
グ処理200がうまくいかない画像のみ操作者244に
よる候補選定処理243を行ってもよい。
As an alternative to the present embodiment, a candidate selection process 243 in which the operator 244 selects a final candidate area from the candidate areas as shown in FIG. 12 instead of the precise matching process 220 in FIG. May be provided. If the candidate area can be reduced to about 1/10 by the rough matching process 200, the above process becomes possible. Further, the operator 244 may perform the candidate selection processing 243 only on the images for which the rough matching processing 200 is not successful.

【0079】精密マッチング処理220は、画像を所望
の倍率で拡大してから相関値を算出したが、拡大せず
「数1」により相関値を算出した後、「図13」に示す
ように相関値を補間して相関値が最大となる実数座標値
265を算出してもよい。
The precision matching processing 220 calculates the correlation value after enlarging the image by a desired magnification. However, after calculating the correlation value by "Equation 1" without enlarging, the correlation value is calculated as shown in FIG. The value may be interpolated to calculate the real number coordinate value 265 that maximizes the correlation value.

【0080】以上に述べた発明は、衛星地上情報システ
ムに適用可能であり、特に、異種センサにより撮影され
た多数の画像のレジストレーション処理の自動化に有効
である。
The invention described above can be applied to a satellite terrestrial information system, and is particularly effective for automating the registration processing of a large number of images photographed by different types of sensors.

【0081】[0081]

【発明の効果】本発明によれば以下の効果がある。The present invention has the following effects.

【0082】(1)マッチング処理を粗、精密と多段に
することで候補エリア数を減らすことが可能となり、誤
差算出処理の負荷を軽減できる。また、操作者が介在し
候補エリアを指示することが可能となる。
(1) The number of candidate areas can be reduced by making the matching process coarse and precise, and the load of the error calculation process can be reduced. Further, it becomes possible for the operator to intervene and designate a candidate area.

【0083】(2)閾値判定による候補エリア選定処理
を機能として加えることにより、誤差の特性が類似の対
応エリアを効率よく選択することが可能となる。
(2) By adding the candidate area selection process based on the threshold value judgment as a function, it becomes possible to efficiently select corresponding areas having similar error characteristics.

【0084】(3)精密マッチング処理において、画像
を拡大して、相関値を求めたり、あるいは、相関値を補
間処理することにより、対応エリア領域の位置を、精度
よく求めることができる。
(3) In the precise matching process, the position of the corresponding area region can be accurately obtained by enlarging the image to obtain the correlation value or by interpolating the correlation value.

【0085】(4)画像の組合せにより、特徴量や類似
度を選択することによりマッチング精度を向上できる。
(4) The matching accuracy can be improved by selecting the feature amount and the similarity by combining the images.

【0086】(5)閾値による誤差算出処理において、
対応エリアの位置誤差の平均値や平均値からの偏差など
を用いて、異常値を取り除くことにより高精度に対応エ
リア誤差を求めることができる。
(5) In the error calculation process based on the threshold,
The corresponding area error can be obtained with high accuracy by removing the abnormal value using the average value of the position error of the corresponding area or the deviation from the average value.

【0087】(6)誤差量ファイルにレジストレーショ
ン誤差量を一時保存しておき、雲、海、夜間などを撮影
したデータの場合は、保存した誤差量の中から時間的に
一番近い値を検索し、修正幾何学ひずみ補正係数算出処
理に用いることにより、処理ができない画像をなくすこ
とができる。
(6) The registration error amount is temporarily stored in the error amount file, and in the case of data obtained by photographing clouds, sea, night, etc., the value closest in time is selected from the stored error amounts. Images that cannot be processed can be eliminated by searching and using them in the correction geometric distortion correction coefficient calculation processing.

【図面の簡単な説明】[Brief description of drawings]

【図1】多段閾値判定によるレジストレーション誤差の
算出フロー。
FIG. 1 is a flow chart of calculating a registration error by multi-step threshold value determination.

【図2】本発明を適用する衛星地上情報システムの概要
図。
FIG. 2 is a schematic diagram of a satellite ground information system to which the present invention is applied.

【図3】センサのポインティング機能と誤差の関係を説
明する概要図。
FIG. 3 is a schematic diagram illustrating a relationship between a pointing function of a sensor and an error.

【図4】2個のセンサ画像の重ね合わせ誤差の説明図。FIG. 4 is an explanatory diagram of a superposition error of two sensor images.

【図5】レジストレーション処理フロー。FIG. 5 is a registration processing flow.

【図6】テンプレート画像と探索画像との画像マッチン
グ処理の概要図。
FIG. 6 is a schematic diagram of image matching processing between a template image and a search image.

【図7】閾値判定による候補エリア算出処理フロー。FIG. 7 is a candidate area calculation processing flow based on threshold value determination.

【図8】閾値判定による候補エリア算出処理の説明図。FIG. 8 is an explanatory diagram of a candidate area calculation process based on threshold determination.

【図9】粗マッチング処理による誤差の特性と判定処理
結果を表す図表。
FIG. 9 is a diagram showing an error characteristic and a determination processing result by the rough matching processing.

【図10】精密マッチング処理による誤差の特性を表す
図表。
FIG. 10 is a chart showing characteristics of an error due to the precision matching processing.

【図11】幾何学ひずみ補正係数の説明図。FIG. 11 is an explanatory diagram of a geometric distortion correction coefficient.

【図12】操作者の候補選定処理を考慮したレジストレ
ーション誤差算出処理フロー。
FIG. 12 is a registration error calculation processing flow in consideration of operator candidate selection processing.

【図13】誤差の算出を行なう代替方法の説明図。FIG. 13 is an explanatory diagram of an alternative method for calculating an error.

【符号の説明】[Explanation of symbols]

200…粗マッチング処理、210…閾値による候補エ
リア算出処理、212…精密マッチング処理、213…
閾値による誤差算出処理。
200 ... Coarse matching process, 210 ... Candidate area calculation process by threshold value, 212 ... Fine matching process, 213 ...
Error calculation processing based on a threshold.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 9061−5H G06F 15/70 320 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Office reference number FI technical display location 9061-5H G06F 15/70 320

Claims (15)

【特許請求の範囲】[Claims] 【請求項1】(A) 異種センサ画像にたいして各画像特性
間の整合をとるための正規化をおこない、 (B) 正規化された画像間の類似度とレジストレーション
誤差を算出し、 (C) 算出された類似度とレジストレーション誤差にもと
づき上記画像間のレジストレーション補正をおこなう、
異種センサ画像間レジストレーション補正方法。
1. (A) The different sensor images are normalized to match the image characteristics, (B) The similarity between the normalized images and the registration error are calculated, and (C) Perform registration correction between the images based on the calculated similarity and registration error,
Registration correction method between different sensor images.
【請求項2】(a) 異種センサ画像にたいして各画像特性
間の整合をとるための正規化をおこない、 (b) 正規化された異種センサ画像間の対応領域を複数個
設定し、 (c) 設定された対応領域間の粗マッチング処理により対
応領域間の類似度とレジストレーション誤差を算出し、 (d) 算出された類似度とレジストレーション誤差にもと
づき上記対応領域から候補対応領域を選定し、 (e) 選定された候補対応領域間の精密マッチング処理に
より候補対応領域間の類似度とレジストレーション誤差
を算出し、 (f) 該算出された類似度とレジストレーション誤差にも
とづき上記候補対応領域を絞りこみ、 (g) 絞りこまれた候補対応領域間のレジストレーション
誤差にもとづき異種センサ画像間のレジストレーション
誤差を算出し、 (h) 最終的に算出されたレジストレーション誤差にもと
づき異種センサ画像間のレジストレーション補正をおこ
なう、異種センサ画像間レジストレーション補正方法。
2. (a) The different sensor images are normalized so as to match the respective image characteristics, (b) a plurality of corresponding regions between the normalized different sensor images are set, and (c) Calculate the similarity between the corresponding areas and the registration error by the rough matching process between the set corresponding areas, and (d) select the candidate corresponding area from the corresponding area based on the calculated similarity and the registration error. (e) The similarity and registration error between the candidate corresponding areas are calculated by the precision matching process between the selected candidate corresponding areas, and (f) the candidate corresponding area is calculated based on the calculated similarity and registration error. (G) The registration error between different sensor images is calculated based on the registration error between the narrowed candidate corresponding regions, and (h) the final calculated registration error. Based on Diafiltration error perform registration correction between different sensor image, heterologous sensor inter-image registration correction method.
【請求項3】上記粗マッチング処理は、画像中に設定し
たテンプレート画像と探索画像の間の対応点の特徴量を
算出し、該特徴量の類似度を比較し、類似度の高い対応
点の座標を整数位置で求める請求項2の異種センサ画像
間レジストレーション補正方法。
3. The rough matching process calculates feature quantities of corresponding points between a template image set in an image and a search image, compares the similarities of the feature quantities, and calculates the corresponding points of high similarity. The method for correcting registration between different types of sensor images according to claim 2, wherein the coordinates are obtained at integer positions.
【請求項4】上記候補領域選定処理は、上記粗マッチン
グ処理により求めた対応点座標より位置誤差の方向、大
きさ、誤差の平均値からの偏差を算出し、誤差の特性が
類似の対応点を選択する請求項3の異種センサ画像間レ
ジストレーション補正方法。
4. The candidate area selection process calculates the direction, magnitude, and deviation of the position error from the mean value of the position error from the corresponding point coordinates obtained by the rough matching process, and the corresponding points having similar error characteristics. 4. The registration correction method between different sensor images according to claim 3, wherein
【請求項5】上記精密マッチング処理は、上記粗マッチ
ング処理により求めた対応点の特徴量が最大となる実数
座標を補間処理により求める請求項4の異種センサ画像
間レジストレーション補正方法。
5. The registration correction method between different types of sensor images according to claim 4, wherein in the fine matching process, real number coordinates that maximize the feature amount of the corresponding points obtained by the rough matching process are obtained by interpolation processing.
【請求項6】上記特徴量としては輝度レベル値、スペク
トル特性、エッジ特徴、テクスチャ特徴、フーリエ記述
子のすくなくとも1個を用い、類似度としては、差分値
または相関値を用いる請求項3の異種センサ画像間レジ
ストレーション補正方法。
6. The heterogeneity according to claim 3, wherein at least one of a luminance level value, a spectral characteristic, an edge characteristic, a texture characteristic, and a Fourier descriptor is used as the feature quantity, and a difference value or a correlation value is used as the similarity degree. Registration correction method between sensor images.
【請求項7】上記(g)のレジストレーション誤差算出
処理は、上記精密マッチング処理により求めた対応点の
位置誤差の平均値または該平均値からの偏差を用いて、
異常値を取り除いた対応点のみを用いて誤差量を求める
請求項2の異種センサ画像間レジストレーション補正方
法。
7. The registration error calculation process of (g) above uses an average value of the position errors of corresponding points obtained by the precise matching process or a deviation from the average value,
3. The registration correction method between different types of sensor images according to claim 2, wherein the error amount is calculated using only corresponding points from which abnormal values are removed.
【請求項8】上記粗マッチング処理および精密マッチン
グ処理は、画像に低周波通過フィルタを適用後、エッジ
抽出処理を行なって算出した形状特徴を用いる請求項2
の異種センサ画像間レジストレーション補正方法。
8. The rough matching process and the fine matching process use shape features calculated by applying an edge extraction process after applying a low-frequency pass filter to an image.
Method for correcting registration between different types of sensor images.
【請求項9】上記エッジ抽出処理によって、抽出したエ
ッジを2値データあるいは、濃淡データの形状特徴とし
て用いる請求項8の異種センサ画像間レジストレーショ
ン補正方法。
9. The registration correction method between different sensor images according to claim 8, wherein the edge extracted by the edge extraction processing is used as a shape feature of binary data or grayscale data.
【請求項10】上記エッジ抽出処理は、該エッジ抽出処
理したデータに低周波通過フィルタを適用して濃淡デー
タを算出する請求項9の異種センサ画像間レジストレー
ション補正方法。
10. The registration correction method between different sensor images according to claim 9, wherein the edge extraction processing calculates a grayscale data by applying a low frequency pass filter to the data subjected to the edge extraction processing.
【請求項11】上記精密マッチング処理は、テンプレー
トおよび探索画像を拡大処理し、整数座標における相関
値を求め、最大の相関値をとる座標位置を、拡大前の実
数座標値に換算し求める請求項5の異種センサ画像間レ
ジストレーション補正方法。
11. The precise matching process enlarges a template and a search image to obtain a correlation value in integer coordinates, and converts a coordinate position having the maximum correlation value into a real number coordinate value before enlargement. 5. Registration correction method between different types of sensor images.
【請求項12】上記(g)のレジストレーション誤差算
出処理は、算出したレジストレーション誤差量を誤差量
ファイルに保存しておき、雲、海、夜間の場合は、保存
した誤差量の中から時間的に一番近い値を検索し、修正
幾何学ひずみ補正係数算出処理に用いる請求項2の異種
センサ画像間レジストレーション補正方法。
12. In the registration error calculation process of the above (g), the calculated registration error amount is saved in an error amount file, and in the case of clouds, sea, or night, the time is calculated from the saved error amount. 3. The method of correcting registration between different types of sensor images according to claim 2, wherein a value closest in terms of image is searched for and used for the correction geometric distortion correction coefficient calculation processing.
【請求項13】上記(c)と(d)の処理に替えて上記
(b)で設定された対応領域を候補対応領域として上記
(e)の処理をする請求項2の異種センサ画像間レジス
トレーション補正方法。
13. The resist between different sensor images according to claim 2, wherein the process of (e) is performed by using the corresponding region set in (b) as a candidate corresponding region instead of the processes of (c) and (d). Correction method.
【請求項14】上記(c)〜(f)の処理を複数回繰り
返す請求項2の異種センサ画像間レジストレーション補
正方法。
14. A registration correction method between different types of sensor images according to claim 2, wherein the processes (c) to (f) are repeated a plurality of times.
【請求項15】上記(e)と(f)の処理に替えて操作
者による候補領域絞りこみ処理をする請求項2の異種セ
ンサ画像間レジストレーション補正方法。
15. The registration correction method between different types of sensor images according to claim 2, wherein a candidate region narrowing process is performed by an operator instead of the processes (e) and (f).
JP6323968A 1994-12-02 1994-12-02 Registration correction method between heterogeneous sensor images Expired - Lifetime JP2723174B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6323968A JP2723174B2 (en) 1994-12-02 1994-12-02 Registration correction method between heterogeneous sensor images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6323968A JP2723174B2 (en) 1994-12-02 1994-12-02 Registration correction method between heterogeneous sensor images

Publications (2)

Publication Number Publication Date
JPH08161474A true JPH08161474A (en) 1996-06-21
JP2723174B2 JP2723174B2 (en) 1998-03-09

Family

ID=18160650

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6323968A Expired - Lifetime JP2723174B2 (en) 1994-12-02 1994-12-02 Registration correction method between heterogeneous sensor images

Country Status (1)

Country Link
JP (1) JP2723174B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007114994A (en) * 2005-10-20 2007-05-10 Hitachi Software Eng Co Ltd System and method for supporting extraction of variation between images
JP2010281584A (en) * 2009-06-02 2010-12-16 Mitsubishi Electric Corp Radar image processing unit
JP2013206430A (en) * 2012-03-29 2013-10-07 Fujitsu Ltd Image processing device, image processing method and image processing program
CN106662472A (en) * 2014-09-17 2017-05-10 株式会社东芝 Therapeutic treatment device
CN116380148A (en) * 2023-04-06 2023-07-04 中国人民解放军93209部队 Two-stage space-time error calibration method and device for multi-sensor target tracking system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63118889A (en) * 1986-11-07 1988-05-23 Hitachi Ltd Change detection system by picture
JPH0476788A (en) * 1990-07-18 1992-03-11 Nec Corp Radiation digital image processor
JPH04307682A (en) * 1991-04-04 1992-10-29 Nippon Telegr & Teleph Corp <Ntt> Image positioning method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63118889A (en) * 1986-11-07 1988-05-23 Hitachi Ltd Change detection system by picture
JPH0476788A (en) * 1990-07-18 1992-03-11 Nec Corp Radiation digital image processor
JPH04307682A (en) * 1991-04-04 1992-10-29 Nippon Telegr & Teleph Corp <Ntt> Image positioning method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007114994A (en) * 2005-10-20 2007-05-10 Hitachi Software Eng Co Ltd System and method for supporting extraction of variation between images
JP2010281584A (en) * 2009-06-02 2010-12-16 Mitsubishi Electric Corp Radar image processing unit
JP2013206430A (en) * 2012-03-29 2013-10-07 Fujitsu Ltd Image processing device, image processing method and image processing program
CN106662472A (en) * 2014-09-17 2017-05-10 株式会社东芝 Therapeutic treatment device
CN116380148A (en) * 2023-04-06 2023-07-04 中国人民解放军93209部队 Two-stage space-time error calibration method and device for multi-sensor target tracking system
CN116380148B (en) * 2023-04-06 2023-11-10 中国人民解放军93209部队 Two-stage space-time error calibration method and device for multi-sensor target tracking system

Also Published As

Publication number Publication date
JP2723174B2 (en) 1998-03-09

Similar Documents

Publication Publication Date Title
US6587601B1 (en) Method and apparatus for performing geo-spatial registration using a Euclidean representation
US7313289B2 (en) Image processing method and apparatus and computer-readable storage medium using improved distortion correction
Hong et al. A robust technique for precise registration of radar and optical satellite images
CN109523585B (en) Multisource remote sensing image feature matching method based on direction phase consistency
CN108961286B (en) Unmanned aerial vehicle image segmentation method considering three-dimensional and edge shape characteristics of building
CN109727279B (en) Automatic registration method of vector data and remote sensing image
CN107240130B (en) Remote sensing image registration method, device and system
CN112287904B (en) Airport target identification method and device based on satellite images
Cracknell et al. Pixel and sub-pixel accuracy in geometrical correction of AVHRR imagery
CN109671109B (en) Dense point cloud generation method and system
CN112419350A (en) Remote sensing image automatic geometric registration method and system based on ground object boundary information
Gonçalves et al. CHAIR: Automatic image registration based on correlation and Hough transform
JPH05181411A (en) Map information collation and update system
JPH08161474A (en) Method for correcting registration between images by different kinds of sensors
CN117058008A (en) Remote sensing image geometry and radiation integrated correction method, device, equipment and medium
CN116862881A (en) Multi-target real-time offset detection method based on image processing
CN110969650A (en) Intensity image and texture sequence registration method based on central projection
CN116206139A (en) Unmanned aerial vehicle image upscaling matching method based on local self-convolution
EP0834151B1 (en) Object recognition method
CN112669360B (en) Multi-source image registration method based on non-closed multi-dimensional contour feature sequence
CN116170569A (en) Hyperspectral image forward shooting correction method and device and storage medium
CN113486728A (en) Method and device for detecting surface three-dimensional change based on feature fusion
Tsai et al. Automated image mosaicking
CN115953332B (en) Dynamic image fusion brightness adjustment method, system and electronic equipment
CN113160071B (en) Satellite image automatic geometric correction method, system, medium and terminal equipment

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term