JP2003141507A - Precise geometric correction method for landsat tm image and precise geometric correction method for satellite image - Google Patents

Precise geometric correction method for landsat tm image and precise geometric correction method for satellite image

Info

Publication number
JP2003141507A
JP2003141507A JP2001342440A JP2001342440A JP2003141507A JP 2003141507 A JP2003141507 A JP 2003141507A JP 2001342440 A JP2001342440 A JP 2001342440A JP 2001342440 A JP2001342440 A JP 2001342440A JP 2003141507 A JP2003141507 A JP 2003141507A
Authority
JP
Japan
Prior art keywords
image
landsat
map
coordinates
satellite
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001342440A
Other languages
Japanese (ja)
Other versions
JP4005336B2 (en
JP2003141507A5 (en
Inventor
Yoshikazu Iikura
善和 飯倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Corp filed Critical Japan Science and Technology Corp
Priority to JP2001342440A priority Critical patent/JP4005336B2/en
Publication of JP2003141507A publication Critical patent/JP2003141507A/en
Publication of JP2003141507A5 publication Critical patent/JP2003141507A5/ja
Application granted granted Critical
Publication of JP4005336B2 publication Critical patent/JP4005336B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a precise geometric correction method for Landsat TM images enabling accurate geometric correction for an entire area of interest. SOLUTION: A geometric transformation containing a translation parameter included in system information provided along with a Landsat TM image is as follows: p-p0 =[cosθ0 *(x-x0 )-sinθ0 *(y-y0 )]/Δ; l-l0 =[-sinθ0 *(x-x0 )-cosθ0 *(y-y0 )]/Δ. A solar direct illumination image created using a numerical altitude model is used as a simulation image. An appropriate translation parameter is determined while using as an evaluation function a correlation function of the pixel values of the simulation image and the Landsat TM image.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、ランドサットTM
画像の精密幾何補正方法及び衛星画像の精密幾何補正方
法に関するものである。
TECHNICAL FIELD The present invention relates to Landsat TM.
The present invention relates to an image precision geometric correction method and a satellite image precision geometric correction method.

【0002】[0002]

【従来の技術】ランドサットTMデータ(Thematic Map
per Data)の標準処理データには衛星画像を地図上(U
TM座標系)に投影するための情報(システム情報)と
して、例えば複数のパラメータを含む幾何変換式が含ま
れている。しかし、システム情報に基づく幾何変換(シ
ステム幾何変換)では、かなりの誤差が生じるため、一
般にはほとんど用いられることがない。宇宙開発事業団
から入手できるランドサットTMデータは、実際の衛星
画像に対して所定の幾何補正が施されて変換された画像
である。しかしながらこの変換された画像の幾何補正精
度は必ずしも高くない。そこで従来、幾何的な精度を要
求される場合には、複数のGCP(地上制御点)を利用
したアフィン変換に基づく精密幾何補正方法(正射投影
を含む)が採用されるのが一般的である。このGCP
(地上制御点)を用いた精密幾何補正方法では、目視に
より同定された複数のGCPの衛星画像上の座標と対応
する地図上の座標からアフィン変換式を最小2乗法を用
いて統計的に推定する。画素単位のGCPの決定には誤
差がさけられないため、精密幾何補正の精度を統計的に
上げるには、できるだけ多数のGCPを取得する必要が
あるとされてきた。しかしGCPの取得は非効率であ
り、かつ熟練者が行わない場合には高い精度は期待でき
ない問題がある。
2. Description of the Related Art Landsat TM data (Thematic Map
For the standard processing data of (per Data), the satellite image on the map (U
As information (system information) for projecting on the TM coordinate system, for example, a geometric transformation formula including a plurality of parameters is included. However, in geometric transformation based on system information (system geometric transformation), since a considerable error occurs, it is generally rarely used. The Landsat TM data that can be obtained from the Space Development Agency is an image obtained by applying a predetermined geometric correction to an actual satellite image and converting the image. However, the geometric correction accuracy of this converted image is not necessarily high. Therefore, conventionally, when geometrical accuracy is required, a precise geometric correction method (including orthographic projection) based on affine transformation using a plurality of GCPs (ground control points) is generally adopted. is there. This GCP
In the precise geometric correction method using (ground control point), the affine transformation formula is statistically estimated by using the least squares method from the coordinates on the map corresponding to the plurality of GCP satellite images visually identified. To do. It is said that it is necessary to acquire as many GCPs as possible in order to statistically increase the precision of the precision geometric correction, because an error is unavoidable in determining the GCP in pixel units. However, there is a problem that the acquisition of GCP is inefficient and high accuracy cannot be expected unless a skilled person performs it.

【0003】そこで発明者等は、多数のGCPを自動的
に決定する方法として数値標高モデルを用いて作成でき
る太陽の直達人射照度画像をテンプレート(シミュレー
ション画像)として、これとシステム幾何変換後の衛星
画像を局所的にマッチングさせる方法(シミュレーショ
ン画像法)を提案した(「数値標高モデルを用いた衛星
画像の地上制御点の同定」と題して「写真測量とリモー
トセンシング」Vol.37,No.6,1998に発
表)。
Therefore, the inventors of the present invention use, as a template (simulation image), a direct irradiance image of the sun, which can be created by using a digital elevation model as a method for automatically determining a large number of GCPs, and after this system geometric transformation. A method for locally matching satellite images (simulation image method) was proposed ("Photogrammetry and remote sensing" Vol. 37, No. 37, entitled "Identification of ground control points of satellite images using digital elevation model"). 6, 1998).

【0004】[0004]

【発明が解決しようとする課題】発明者が先に提案した
シミュレーション画像法を多数のランドサットTM画像
に適用した結果、この方法を採用すれば、対象領域がそ
れほど広くない場合には、システム幾何変換による衛星
画像の位置ズレの大きさや方向が、場所にほとんど依存
しないことが分かった。これは、恒星センサーを搭載し
たランドサットの姿勢制御が極めて高い精度で行われて
いるためであると推察される。
As a result of applying the simulation image method previously proposed by the inventor to a large number of Landsat TM images, if this method is adopted, the system geometric transformation is performed when the target area is not so wide. It was found that the size and direction of the positional deviation of the satellite image due to were almost independent of the place. It is speculated that this is because the attitude control of Landsat equipped with a star sensor is performed with extremely high accuracy.

【0005】しかしながらこの従来のシミュレーション
画像法では、局所的に衛星画像を地図に投影(マッチン
グ)できる(衛星画像の座標系と地図の座標系を局所的
に整合させることができる)ものの、対象領域全体で衛
星画像を地図に投影することができなかった。
However, in this conventional simulation image method, although the satellite image can be locally projected (matched) on the map (the coordinate system of the satellite image and the coordinate system of the map can be locally matched), the target region The satellite image could not be projected on the map as a whole.

【0006】本発明の目的は、多数のGCPを取得する
ことなしに、対象領域全体に対して、精密幾何補正を実
行することができるランドサットTM画像の精密幾何補
正方法及び衛星画像の精密幾何補正方法を提供すること
にある。
An object of the present invention is to provide a precise geometric correction method for a Landsat TM image and a precise geometric correction for a satellite image capable of performing a precise geometric correction for the entire target area without acquiring a large number of GCPs. To provide a method.

【0007】[0007]

【課題を解決するための手段】本発明では、システム幾
何変換で用いる幾何変換式のパラメータを最適化する。
具体的レベルでは、平行移動パラメータを最適化する。
このとき衛星画像とシミュレーション画像の相関係数を
評価関数として、パラメータを選択(最適化)する。具
体的に変化させるパラメータは平行移動パラメータ2個
のみであるため、最適解の探索が容易であり、また1画
素以内の微調整も可能となる。
In the present invention, the parameters of the geometric transformation formula used in the system geometric transformation are optimized.
At a specific level, the translation parameters are optimized.
At this time, parameters are selected (optimized) using the correlation coefficient between the satellite image and the simulation image as an evaluation function. Since only two parallel movement parameters are specifically changed, it is easy to search for an optimum solution, and fine adjustment within one pixel is possible.

【0008】そこで本発明は、地図上の座標とランドサ
ットTM画像の座標との関係を表すために複数のパラメ
ータを含んで構成された幾何変換式を用いてランドサッ
トTM画像の座標と地図の座標とを整合させるためにラ
ンドサットTM画像を幾何補正するランドサットTM画
像の精密幾何補正方法を改良の対象とする。本発明にお
いては、幾何変換式としてランドサットTM画像に付随
して提供されるシステム情報に含まれる平行移動パラメ
ータを含む幾何変換式を用いる。
In view of this, the present invention uses a geometric transformation equation including a plurality of parameters to represent the relationship between the coordinates on the map and the coordinates of the Landsat TM image, and the coordinates of the Landsat TM image and the coordinates of the map. An object of the improvement is a precision geometric correction method for a Landsat TM image, which geometrically corrects a Landsat TM image in order to match. In the present invention, a geometric transformation equation including a translation parameter included in the system information provided in association with the Landsat TM image is used as the geometric transformation equation.

【0009】例えば、このシステム情報に含まれる幾何
変換式は、次の式である。
For example, the geometric conversion formula contained in this system information is the following formula.

【0010】p−p=[cosθ*(x−x)−
sinθ*(y−y)]/Δ l−l=[−sinθ*(x−x)−cosθ
*(y−y)]/Δ 上記式において、x及びyは地図の座標系の中心座
標であり、x及びyは地図の座標系の任意の位置の座標
であり、p及びlはランドサットTM画像の座標系
の中心座標(ピクセル番号とライン番号)であり、p及
びlはランドサットTM画像上の任意の位置の座標(ピ
クセル番号とライン番号)であり、θは地図の座標系
に対する画像の座標系の回転角であり、Δはランドサッ
トTM画像の空間解像度である。
P-p 0 = [cos θ 0 * (x-x 0 )-
sin θ 0 * (y−y 0 )] / Δ l−l 0 = [− sin θ 0 * (x−x 0 ) −cos θ 0
* (Y−y 0 )] / Δ In the above formula, x 0 and y 0 are the center coordinates of the map coordinate system, x and y are the coordinates at any position in the map coordinate system, and p 0 and l 0 is the center coordinate (pixel number and line number) of the coordinate system of the Landsat TM image, p and l are the coordinates (pixel number and line number) of any position on the Landsat TM image, and θ 0 is the map Is the rotation angle of the image coordinate system with respect to the coordinate system of, and Δ is the spatial resolution of the Landsat TM image.

【0011】本発明では、数値標高モデルを用いて作成
した太陽の直達人射照度画像をシミュレーション画像と
し、該シミュレーション画像及びランドサットTM画像
の画素値の相関係数を評価関数として、適切な平行移動
パラメータを求める(評価関数の最適値が得られるパラ
メータを求める)。ここで太陽の直達入射照度画像と
は、太陽の位置情報及び既知の標高情報から得た太陽の
直達入射照度の差を含む画像である。太陽の直達入射照
度cosβは、cosβ=cosθ*cos(e)+s
in(e)*cos(φ−A)の式に基いて演算するこ
とができる。但しθは天頂角であり、Aは方位角であ
り、eが地表面の斜度であり、φが傾斜方位である。画
素値とは、画像中の1画素の明るさに比例するデジタル
・ナンバーであり、ランドサットTM画像の画素値は、
1画素の輝度に比例する値であり、直達入射照度画像の
画素値は、1画素の照度に比例する値である。
In the present invention, the direct illuminance image of the sun created using the digital elevation model is used as a simulation image, and the appropriate parallel movement is performed by using the correlation coefficient of the pixel values of the simulation image and the Landsat TM image as an evaluation function. Find the parameter (find the parameter that gives the optimum value of the evaluation function). Here, the direct incident illuminance image of the sun is an image including the difference between the direct incident illuminance of the sun obtained from the position information of the sun and the known elevation information. The direct incident illuminance cosβ of the sun is cosβ = cosθ * cos (e) + s
It can be calculated based on the expression in (e) * cos (φ-A). Where θ is the zenith angle, A is the azimuth angle, e is the inclination of the ground surface, and φ is the inclination azimuth. The pixel value is a digital number proportional to the brightness of one pixel in the image, and the pixel value of the Landsat TM image is
It is a value proportional to the brightness of one pixel, and the pixel value of the direct-incidence illuminance image is a value proportional to the illuminance of one pixel.

【0012】また相関係数は、ランドサットTM画像及
びシミュレーション画像中のそれぞれの画素値の関係性
を評価する指数であり、−1から+1の間の数値とな
る。相関係数は、一般的な公式に基いて求めることがで
きる。そして相関係数を評価関数とするためには、まず
ランドサットTM画像とシミュレーション画像の大まか
なズレ量を目視等により求めておき、そのズレ量を中心
にして一方の画像を他方の画像に対してピクセル方向及
びライン方向に所定量ずつ移動させて、特定の画素領域
(例えば画像の中心の100×100の画素の領域)に
おける前述の相関係数を求める。そして、この相関係数
が最大になる(最適値になる)移動量を決定して、この
移動量から二つの画像のズレ量を求め、このズレ量を補
正できるように平行移動パラメータの値を決定する。
The correlation coefficient is an index for evaluating the relationship between the respective pixel values in the Landsat TM image and the simulation image, and is a numerical value between -1 and +1. The correlation coefficient can be obtained based on a general formula. Then, in order to use the correlation coefficient as an evaluation function, first, a rough shift amount between the Landsat TM image and the simulation image is obtained by visual inspection or the like, and one image with respect to the other image is centered on the shift amount. The above-mentioned correlation coefficient in a specific pixel area (for example, an area of 100 × 100 pixels at the center of the image) is obtained by moving the pixel direction and the line direction by a predetermined amount. Then, the amount of movement that maximizes this correlation coefficient (it becomes the optimum value) is determined, the amount of deviation between the two images is calculated from this amount of movement, and the value of the parallel movement parameter is set so that this amount of deviation can be corrected. decide.

【0013】直接的には、p及びlを評価関数を用
いて最適化または適切化するパラメータとすればよい。
しかし具体的には、上記二つの式を、下記のように簡略
化する。
Directly, p 0 and l 0 may be parameters optimized or optimized using an evaluation function.
However, specifically, the above two equations are simplified as follows.

【0014】p=ax−by+c l=bx−ay+d 但しa乃至dは変数である。そしてこの式のc及びdを
平行移動パラメータとする。そしてこれらのパラメータ
を、二つの画像の画素値の相関係数を評価関数として、
この評価関数が最適値になるように定め、前述のp
びlを求める。
P = ax-by + c l = bx-ay + d where a to d are variables. Then, c and d in this equation are set as parallel movement parameters. And these parameters, the correlation coefficient of the pixel values of the two images as an evaluation function,
The evaluation function is set to have an optimum value, and the above-mentioned p 0 and l 0 are obtained.

【0015】このようにして定めた平行移動パラメータ
を用いて上記幾何変換式に従い、対象領域のすべての座
標について幾何変換を行えば、多数のGCPを取得する
ことなく、対象領域全体にわたって高い精度の幾何補正
を行うことができる。
If the geometric conversion is performed for all the coordinates of the target area according to the above-mentioned geometric conversion equation using the parallel movement parameters determined in this way, it is possible to obtain a high accuracy over the entire target area without acquiring a large number of GCPs. Geometric correction can be performed.

【0016】なお平行移動パラメータをそれぞれ変化さ
せたときのピクセル方向の相関係数及びライン方向の相
関係数の値が最大値となる値を、平行移動パラメータの
最適値とすれば、1画素内の微調整が可能になる。
If the value of the correlation coefficient in the pixel direction and the value of the correlation coefficient in the line direction when the parallel movement parameters are changed is the maximum value, the optimum value of the parallel movement parameter is within one pixel. Fine adjustment is possible.

【0017】本発明の特徴をより抽象的に表現すれば、
本発明の特徴は、ランドサットTM画像全体に現れる画
像上の特徴(例えば、前述の輝度)と地図上の地図情報
に関連して得られる地図関連情報のうち画像上の特徴に
対応する対応地図情報(例えば、前述の太陽の直達入射
照度)との空間的整合性を統計的に偏りなく定量的に評
価する評価関数を用いて評価を行いながら、平行移動パ
ラメータの最適化を行うことである。ここで「空間的整
合性を統計的に偏りなく定量的に評価する評価関数」の
一つが、前述のTM画像上の輝度に基く画素値と太陽の
直達入射照度画像(シミュレーション画像)上の太陽の
直達入射照度に基く画素値との間の相関係数である。こ
のような評価関数としては、他のものを用いることもで
きる。例えば、TM画像上の特徴が、この画像上に現れ
る陸地と海との相違であり、対応地図情報が地図上に示
される陸地と海との相違であるとした場合には、評価関
数として、海岸線からの距離で層別したカテゴリー毎に
無作為に抽出した複数の評価点が陸地であるか海である
かの識別データの正否を、対応地図情報により判定して
得た識別率を用いることができる。尚「層別」とは、統
計処理において、事前情報(海岸線からの距離)によ
り、母集団をいくつかの部分集団(層またはカテゴリ
ー)に分けることを意味する。識別率を評価関数とする
場合にも、この評価関数が最適値または適切値になるよ
うにパラメータを定める。
To express the features of the present invention more abstractly,
The feature of the present invention is that the corresponding map information corresponding to the feature on the image among the map-related information obtained in relation to the feature (for example, the above-mentioned brightness) on the image appearing in the entire Landsat TM image and the map information on the map. (For example, the parallel movement parameter is optimized while performing evaluation using an evaluation function that quantitatively evaluates the spatial consistency with the above-mentioned direct incident illuminance of the sun) without being statistically biased. Here, one of the "evaluation functions for quantitatively evaluating spatial consistency without bias" is the pixel value based on the brightness on the TM image and the sun on the direct incident illuminance image (simulation image) of the sun. Is a correlation coefficient with the pixel value based on the direct incident illuminance of. Other such evaluation functions can be used. For example, if the feature on the TM image is the difference between the land and the sea appearing on this image, and the corresponding map information is the difference between the land and the sea shown on the map, then as an evaluation function, Use the identification rate obtained by determining the correctness of the identification data whether the multiple evaluation points randomly selected for each category stratified by the distance from the coastline are land or sea from the corresponding map information. You can It should be noted that "stratification" means that in statistical processing, the population is divided into some subgroups (layers or categories) based on prior information (distance from the coastline). Even when the identification rate is used as the evaluation function, the parameters are determined so that this evaluation function has an optimum value or an appropriate value.

【0018】本発明の特徴を、衛星画像に対する精密幾
何補正方法として更に抽象的に(一般的に)表現すれ
ば、次のように表現できる。
If the features of the present invention are further abstractly (generally) expressed as a precise geometric correction method for satellite images, they can be expressed as follows.

【0019】すなわち本発明は、地図上の座標と衛星画
像の座標との関係を表すために複数のパラメータを含ん
で構成された幾何変換式を用いて衛星画像の座標と地図
の座標とを整合させるように衛星画像を幾何補正する衛
星画像の精密幾何補正方法を対象として、衛星画像全体
に現れる画像上の特徴と地図上の地図情報に関連して得
られる地図関連情報のうち画像上の特徴に対応する対応
地図情報との空間的整合性を統計的に偏りなく定量的に
評価する評価関数を用いて複数のパラメータの最適化を
行うことを特徴とするものである。
That is, according to the present invention, the coordinate of the satellite image and the coordinate of the map are matched by using the geometric transformation formula constituted by including a plurality of parameters in order to represent the relationship between the coordinate on the map and the coordinate of the satellite image. Targeting the precise geometric correction method of the satellite image that geometrically corrects the satellite image so that the features on the image appearing in the entire satellite image and the map features out of the map-related information obtained in relation to the map information on the map It is characterized in that a plurality of parameters are optimized by using an evaluation function that quantitatively evaluates the spatial consistency with the corresponding map information corresponding to.

【0020】さらにパラメータの決定を容易にするため
には、2つの段階を経てパラメータを決定すればよい。
まず最初に、ランドサットTM画像(衛星画像)上に海
岸線からの距離で層別したカテゴリー毎に無作為に抽出
した複数の評価点が陸地であるか海であるかの判定の正
否を地図上に示される陸地と海のデータに基いて判定し
て、その識別率を求める。そしてこの識別率を評価関数
として複数のパラメータの適切値を求める。次にこの適
切値を幾何変換式に入力して衛星画像を幾何補正して幾
何補正された衛星画像を定める。その後、数値標高モデ
ルを用いて作成した太陽の直達人射照度画像をシミュレ
ーション画像とし、このシミュレーション画像及び幾何
補正された衛星画像のそれぞれの画素値の相関係数を評
価関数として、複数のパラメータの最適値化を行う。こ
のようにすると目視によりランドサットTM画像(衛星
画像)とシミュレーション画像のズレを確認する必要が
なくなるので、パラメータの決定の自動化が容易にな
る。
Further, in order to facilitate the parameter determination, the parameter may be determined through two steps.
First of all, on the map, the correctness of the judgment as to whether the multiple evaluation points randomly selected for each category stratified by the distance from the coastline on the Landsat TM image (satellite image) is land or sea is displayed on the map. Judgment is made based on the land and sea data shown, and the discrimination rate is obtained. Then, using the identification rate as an evaluation function, appropriate values of a plurality of parameters are obtained. Next, this appropriate value is input to the geometric transformation formula to geometrically correct the satellite image to determine the geometrically corrected satellite image. After that, the direct irradiance image of the sun created using the digital elevation model is used as a simulation image, and the correlation coefficient of each pixel value of the simulation image and the geometrically corrected satellite image is used as an evaluation function. Optimize the value. In this way, it is not necessary to visually check the deviation between the Landsat TM image (satellite image) and the simulation image, and therefore the parameter determination can be easily automated.

【0021】[0021]

【発明の実施の形態】以下図面を参照して本発明の実施
の形態を詳細に説明する。図1は、本発明の第1の実施
の形態の方法のデータ処理の流れを説明するための図で
ある。この実施の形態では、衛星画像としてランドサッ
トTM画像を扱う。ランドサットTMデータのシステム
情報に含まれる標準処理データに付属するリーダファイ
ルの地図投影アンシナリーレコードに関する情報には、
撮影シーンのセンター(中心)の基準となる地図上の中
心座標即ちUTM座標(x,y)、UTM座標系に
対する送信するTM画像の回転角(オリエンテーション
角θ)、および空間解像度(Δ)が含まれている。空
間解像度は、画像を撮影したセンサが分解できる最も小
さい対象物の単位である。これらの情報を用いれば、以
下の幾何変換式(1)及び(2)を用いて任意の地図上
のUTM座標x,yを衛星画像上の位置(ラインおよび
ピクセルに)に変換(いわゆる逆変換)することができ
る。これらの式(1)及び(2)は、システム情報に付
属している。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described in detail below with reference to the drawings. FIG. 1 is a diagram for explaining the flow of data processing of the method according to the first embodiment of this invention. In this embodiment, a Landsat TM image is treated as a satellite image. The information about the map projection ancillary record of the reader file attached to the standard processing data included in the system information of Landsat TM data includes:
The center coordinates on the map that is the reference of the center (center) of the shooting scene, that is, UTM coordinates (x 0 , y 0 ), the rotation angle (orientation angle θ 0 ) of the TM image to be transmitted with respect to the UTM coordinate system, and the spatial resolution (Δ )It is included. Spatial resolution is the smallest unit of object that can be resolved by the sensor that captured the image. If these pieces of information are used, the UTM coordinates x and y on an arbitrary map are converted into positions (lines and pixels) on the satellite image (so-called inverse conversion) using the following geometric conversion formulas (1) and (2). )can do. These equations (1) and (2) are attached to the system information.

【0022】 p−p=[cosθ*(x−x)−sinθ*(y−y)]/ Δ …(1) l−l0=[−sinθ*(x−x)−cosθ*(y−y)] /Δ …(2) 上記式において、x及びyは地図の座標系の中心座
標であり、x及びyは地図の座標系の任意の位置の座標
であり、p及びlはランドサットTM画像の座標系
の中心座標(ピクセル番号とライン番号)であり、p及
びlはランドサットTM画像上の任意の位置の座標(ピ
クセル番号とライン番号)であり、θはオリエンテー
ション角であり、Δは空間解像度である。
P−p 0 = [cos θ 0 * (x−x 0 ) −sin θ 0 * (y−y 0 )] / Δ (1) 1−10 = [− sin θ 0 * (x−x 0 ) -Cos θ 0 * (y−y 0 )] / Δ (2) In the above formula, x 0 and y 0 are the center coordinates of the map coordinate system, and x and y are the coordinates of any position of the map coordinate system. Coordinates, p 0 and l 0 are the center coordinates (pixel number and line number) of the coordinate system of the Landsat TM image, and p and l are coordinates (pixel number and line number) at any position on the Landsat TM image. Where θ 0 is the orientation angle and Δ is the spatial resolution.

【0023】上記式をアフィン変換式で簡略化すれば次
のようになる。
The above equation can be simplified by the affine transformation equation as follows.

【0024】p=ax−by+c l=bx−ay+d 但しa乃至dは変数である。この場合c及びdが平行移
動パラメータとなる。システム幾何変換では上式の係数
はすべてが決定される。本実施の形態の方法では、画像
座標上での平行移動を意味するcとdの2つのパラメー
タを変数と考える。また上記式(1)及び(2)におけ
るp及びlをパラメータ(変数)と考えても同じで
ある。
P = ax-by + c l = bx-ay + d where a to d are variables. In this case, c and d are translation parameters. In the system geometric transformation, all the coefficients in the above equation are determined. In the method of the present embodiment, two parameters c and d, which mean parallel movement on image coordinates, are considered as variables. The same is true when p 0 and l 0 in the above equations (1) and (2) are considered as parameters (variables).

【0025】この実施の形態では、ランドサットTM画
像を所定の幾何変換を経て幾何補正したもの(変換され
た衛星画像)とシミュレーションにより作成した直達入
射照度画像との相関係数を幾何補正の評価関数として用
いてパラメータの最適値を決定する。相関係数は位置決
めが正しい程大きくなるため、精密幾何補正に用いる幾
何変換式のパラメータを最適化することが可能となる。
最適化は相関係数が大きくなるようにパラメータを探索
することによって実現される。
In this embodiment, the correlation coefficient between a Landsat TM image geometrically corrected through a predetermined geometrical conversion (converted satellite image) and a direct incidence illuminance image created by simulation is used as an evaluation function for geometrical correction. To determine the optimum value of the parameter. Since the correlation coefficient becomes larger as the positioning becomes correct, it becomes possible to optimize the parameters of the geometric transformation formula used for the precise geometric correction.
The optimization is realized by searching the parameters so that the correlation coefficient becomes large.

【0026】なお、この実施の形態では、上記式を用い
た幾何変換に正射投影を含めるため、上式で得られるピ
クセル値に起伏に基づく位置ズレを加えた衛星画像上の
見かけの位置のデータを利用している。最適解を求める
ために利用する幾何変換には正射投影を組み込むものと
する。すなわち、上記(1)及び(2)式に地図座標
(x,y)を代入して得られるピクセル値pに起伏に基
づく位置ズレΔpを加える。ただし、起伏に基づく位置
ズレΔpを厳密に求めるには、地球の曲率を考慮した計
算が必要となり、計算機への負担が大きくなる。なお厳
密な計算による位置ズレが地球の曲率を考慮しない場合
の位置ズレよりも10%程大きくなることを利用するこ
とにより計算時間の短縮をはかることができる。また衛
星直下点の起伏に基く位置ズレは、原画像における欠損
データの軌跡から推定すればよい。なおこの点に関して
は、「写真測量とリモートセンシング」のVol.3
7,No.4の12頁〜22頁に掲載された「ランドサ
ットTM画像の正射投影とその評価」と題する論文に掲
載されている。
In this embodiment, since the orthographic projection is included in the geometric transformation using the above formula, the apparent position on the satellite image obtained by adding the positional deviation based on the undulation to the pixel value obtained by the above formula is calculated. Uses data. The geometric transformation used to find the optimal solution shall include orthographic projection. That is, the positional deviation Δp based on the undulations is added to the pixel value p obtained by substituting the map coordinates (x, y) into the equations (1) and (2). However, in order to exactly obtain the positional deviation Δp based on the undulations, it is necessary to perform calculation in consideration of the curvature of the earth, which increases the load on the computer. The calculation time can be shortened by utilizing the fact that the positional deviation due to the strict calculation is about 10% larger than the positional deviation when the curvature of the earth is not considered. The positional deviation due to the undulations of the point directly below the satellite may be estimated from the trajectory of the missing data in the original image. Regarding this point, Vol. Of "Photogrammetry and remote sensing". Three
7, No. 4, page 12-22, entitled "Orthographic Projection of Landsat TM Image and Its Evaluation".

【0027】シミュレーション画像を得るために必要な
太陽の直達入射照度cosβは、太陽位置(天頂角θと
方位角A)と地表面の斜度eと傾斜方位φの関数として
以下の式から与えられる。
The direct incident illuminance cos β of the sun required to obtain a simulation image is given by the following equation as a function of the sun position (zenith angle θ and azimuth angle A), the inclination e of the ground surface and the inclination azimuth φ. .

【0028】cosβ=cosθcos(e)+sin
θsin(e)cos(φ−A) ここで太陽位置(天頂角θと方位角A)のデータについ
ては、標準処理データに付属する太陽位置を利用する。
斜度eと傾斜方位φを求めるには数値標高モデルが必要
となる。数値標高モデルは、国土地理院から発行されて
いる数値地図50m(標高)を投影変換(UTM座標
系)および再配列(30m)して用いる。国土地理院か
ら発行されている数値地図50mメッシュ(標高)は、
格子点(メッシュ)が等間隔の緯度と経度により構成さ
れており、サイズが約50mである。したがって、これ
をランドサットTMの画像処理に利用するには、投影変
換(UTM座標系)および再配列(空間解像度30m)
が必要になるのである。なおこの点の詳細にしては、日
本リモートセンシング学会誌、Vol.21,No.2
の150〜157頁に掲載された「数値標高モデルの投
影変換に用いる内挿方の評価法」と題する論文に掲載さ
れている。本実施の形態では、この投影変換(UTM座
標系)および再配列(空間解像度30m)したものか
ら、斜度eと傾斜方位φを求めている。
Cos β = cos θ cos (e) + sin
θsin (e) cos (φ-A) Here, for the data of the sun position (zenith angle θ and azimuth angle A), the sun position attached to the standard processing data is used.
A numerical elevation model is required to obtain the slope e and the inclination azimuth φ. As the digital elevation model, a numerical map 50 m (elevation) issued by the Geospatial Information Authority of Japan is used after projection conversion (UTM coordinate system) and rearrangement (30 m). The numerical map 50m mesh (elevation) issued by the Geographical Survey Institute is
The grid points (mesh) are composed of evenly spaced latitudes and longitudes, and the size is about 50 m. Therefore, in order to use this for image processing of Landsat TM, projection transformation (UTM coordinate system) and rearrangement (spatial resolution 30 m)
Is needed. For details of this point, see the Remote Sensing Society of Japan, Vol. 21, No. Two
Pp. 150-157 of the article entitled "Evaluation Method of Interpolation Method Used for Projection Transformation of Digital Elevation Model". In the present embodiment, the inclination e and the inclination azimuth φ are obtained from the projection transformation (UTM coordinate system) and rearrangement (spatial resolution 30 m).

【0029】本実施の形態では、図2に示す岩手県内の
5箇所(黒丸の中に1から5の数字を記載した地域)を
対象地域とした。各地点毎に切り出す衛星画像の大きさ
は縦430、横430、空間解像度は30mとして数値
標高モデルを作成した。
In the present embodiment, the target areas are five locations in Iwate prefecture shown in FIG. 2 (areas in which numbers 1 to 5 are written in black circles). A numerical elevation model was created with the size of the satellite image cut out for each point as vertical 430, horizontal 430, and spatial resolution of 30 m.

【0030】衛星画像は1995年6月12日撮影のラ
ンドサットTMデータ(パス102,ロウ32)を用い
た。撮影時の太陽高度は58度、方位は北から時計周り
の方向に112度であった。この情報を用いて太陽の直
達入射照度のシミュレーション画像を作成した。地点1
のシミュレーション画像を図3に示す。
As the satellite image, Landsat TM data (pass 102, row 32) taken on June 12, 1995 was used. The solar altitude at the time of shooting was 58 degrees, and the azimuth was 112 degrees clockwise from north. Using this information, a simulation image of the direct incident illuminance of the sun was created. Point 1
A simulation image of the above is shown in FIG.

【0031】最初にシステム幾何変換後の衛星画像とシ
ミュレーション画像とを目視で比較することにより、お
おまかな位置合わせを行った。その結果ピクセル方向に
40画素、ライン方向に27画素の位置ズレが確認され
た。そこで目視により確認した位置ズレ(ピクセル方向
に40画素、ライン方向に27画素)を中心にして、変
換後のランドサットTM画像をシミュレーション画像に
対して画素単位で(1画素ずつ)ピクセル方向及びライ
ン方向に移動させて、ランドサットTM画像の中心に位
置する例えば100×100個の画素の画素値とそれら
に対応するシュミレーション画像の画素の画素値との相
関係数を求めた。その結果を、下記表1に示す。
First, a rough alignment was performed by visually comparing the satellite image after system geometric transformation and the simulation image. As a result, a positional shift of 40 pixels in the pixel direction and 27 pixels in the line direction was confirmed. Therefore, the converted Landsat TM image is pixel-wise (one pixel at a time) in pixel and line directions with respect to the simulation image, centering on the positional deviation visually confirmed (40 pixels in the pixel direction, 27 pixels in the line direction). Then, the correlation coefficient between the pixel value of, for example, 100 × 100 pixels located at the center of the Landsat TM image and the pixel value of the corresponding pixel of the simulation image was obtained. The results are shown in Table 1 below.

【0032】[0032]

【表1】 上記表1の横軸の数字はピクセル方向に40画素を中心
にして±2画素ずらすことを意味し、縦軸の数字はライ
ン方向に27画素を中心にして±2画素ずらすことを意
味する。そして表中の数字は、画素単位で移動したとき
の画素値の相関係数である。表1の結果が、評価関数を
示している。表1からは、ピクセル方向に40画素、ラ
イン方向に27画素ずれた位置における相関係数0.6
95が最も大きくなることが分かる。すなわち評価関数
の最適値は、ピクセル方向に40画素、ライン方向に2
7画素ずらすことである。この段階で、このようなズレ
量を得られるように前述の平行移動パラメータc及びd
を決定することができる。
[Table 1] The numbers on the horizontal axis in Table 1 above mean ± 2 pixel shifts with 40 pixels in the pixel direction, and the numbers on the vertical axis mean ± 2 pixel shifts with 27 pixels in the line direction. The numbers in the table are correlation coefficients of pixel values when moving in pixel units. The results in Table 1 show the evaluation function. From Table 1, it is found that the correlation coefficient is 0.6 at a position shifted by 40 pixels in the pixel direction and 27 pixels in the line direction.
It can be seen that 95 is the largest. That is, the optimum value of the evaluation function is 40 pixels in the pixel direction and 2 in the line direction.
It is to shift by 7 pixels. At this stage, the parallel movement parameters c and d described above are obtained so that such a shift amount can be obtained.
Can be determined.

【0033】図4には地点1の変換後の衛星画像(バン
ド5)を示した。図3に示したシミュレーション画像と
比べて、両者の陰影が一致していることが確認できる。
FIG. 4 shows the satellite image (Band 5) after conversion at point 1. It can be confirmed that the shadows of the two are the same as in the simulation image shown in FIG.

【0034】次に、1画素以内の微調整を行うために行
う、前述の位置ズレを原点とした幾何変換式からの平行
移動パラメータの最適値の決定方法を説明する。平行移
動パラメータc,dを変化させて作成した衛星画像(ピ
クセル方向に40画素、ライン方向に27画素ずらした
ランドサットTM画像)の中心領域の100×100の
画素の画素値とこれに対応するシミュレーション画像の
画素の画素値の相関係数を計算した。その結果の例を図
5及び図6に示す。ピクセル方向への移動量を決める平
行移動パラメータcを変化させた場合の相関係数の変化
を図5に示しており、ライン方向への移動量を決める平
行移動パラメータdを変化させた場合の相関係数の変化
を図6に示してある。図5及び図6を比較すると、パラ
メータcを変化させた場合のほうが、パラメータdを変
化させた場合よりも変化がより明らかであるが、両者と
もきれいな対称性がある。2つのパラメータを2次元的
に探索することにより最適なパラメータを1画素よりも
一桁小さいオーダーで決定することができる。これは相
関係数の計算に非常に多くの点を利用できるため、結果
の精度が向上したためであると思われる。すなわちパラ
メータc及びdを変化させて相関係数が最大値になると
きのそれぞれのパラメータc及びdの値(この例では
0.2及び0.2)をそれぞれの最適値として定めるこ
とができる。なお、相関係数を計算する画像範囲を地上
被覆が均一で起伏の比較的大きな範囲とすれば0.8を
こえる相関係数が得られる。しかしながら、そのように
しても位置ズレの情報としては大きな変化は見られない
ため、単純に標本の数を大きくするという意味で相関係
数をとる範囲は全域にとるのが好ましい。
Next, a method of determining the optimum value of the parallel movement parameter from the geometric conversion formula having the above-mentioned positional deviation as the origin, which is performed for fine adjustment within one pixel, will be described. Pixel values of 100 × 100 pixels in the central area of a satellite image (Landsat TM image with 40 pixels in the pixel direction and 27 pixels shifted in the line direction) created by changing the parallel movement parameters c and d, and the corresponding simulation The correlation coefficient of the pixel value of the pixel of the image was calculated. Examples of the results are shown in FIGS. 5 and 6. FIG. 5 shows changes in the correlation coefficient when the parallel movement parameter c that determines the movement amount in the pixel direction is changed, and shows the phase when the parallel movement parameter d that determines the movement amount in the line direction is changed. The change in the number of relationships is shown in FIG. Comparing FIGS. 5 and 6, the change is more apparent when the parameter c is changed than when the parameter d is changed, but both have a clean symmetry. By searching two parameters two-dimensionally, the optimum parameter can be determined in the order of one digit smaller than one pixel. It seems that this is because the accuracy of the result is improved because a large number of points can be used for the calculation of the correlation coefficient. That is, the values of the respective parameters c and d (0.2 and 0.2 in this example) when the correlation coefficient becomes the maximum value by changing the parameters c and d can be determined as the respective optimum values. If the image range for calculating the correlation coefficient is set to a range in which the ground cover is uniform and the undulation is relatively large, a correlation coefficient exceeding 0.8 can be obtained. However, even in such a case, a large change is not seen in the information of the positional deviation, and therefore it is preferable to set the range of the correlation coefficient to the entire range in the sense of simply increasing the number of samples.

【0035】このようにして最適な平行移動量を図1の
各地点1乃至5に対して求めた結果を表2に示す。
Table 2 shows the results obtained by thus determining the optimum amount of parallel movement for each of the points 1 to 5 in FIG.

【0036】[0036]

【表2】 表2において、横軸のc及びdはそれぞれパラメータを
示し、rは相関係数の値を示している。選択した5点は
かなり広い範囲を占めるが、最適な平行移動パラメータ
c及びdの違いはピクセル方向、ライン方向ともで1.
1画素程度であった。この程度の範囲ではcとdを固定
しても1画素以内の、ライン方向で約1画素に満たな
い。これはシステム情報に基づく幾何補正の精度がかな
り良いことを示していると考えられる。また、西側の地
点(図1の地点2と5)でピクセル方向のマイナス側へ
のズレが大きくなり、ライン方向ではプラス側へのズレ
が大きくなるなど系統的な特徴が見られる。このこと
は、より大きな範囲を問題にする場合には回転を含めた
最適化が必要なことを示唆している。
[Table 2] In Table 2, c and d on the horizontal axis indicate parameters, and r indicates the value of the correlation coefficient. The selected five points occupy a fairly wide range, but the difference between the optimum translation parameters c and d is 1.
It was about one pixel. In this range, even if c and d are fixed, the number of pixels is less than 1 pixel and less than about 1 pixel in the line direction. This is considered to indicate that the accuracy of geometric correction based on system information is fairly good. In addition, systematic characteristics such as a large deviation toward the minus side in the pixel direction at the west side points (points 2 and 5 in FIG. 1) and a large deviation toward the plus side in the line direction can be seen. This suggests that optimization including rotation is necessary when a larger range is concerned.

【0037】上記の説明では、パラメータc及びdの最
適値を求めた。しかし上記式(1)及び(2)中のp
及びl即ちシーンのセンターをパラメータとすること
ができる。この場合には、幾何変換式のシーンのセンタ
ー(p、l)を変化(δp、δl)させることにより
1画素より小さな単位で位置ズレを調整する。また、正
射投影を行うことにより、広い領域で精度の高い出力画
像を作成することが期待できる。更に最適解の計算は、
IDL(Interactive Data Language)(Ver5.3)に組み
込まれているPowellの方法を用いて行うことができる。
In the above description, the optimum values of the parameters c and d have been obtained. However, p 0 in the above equations (1) and (2)
And l 0, the center of the scene, can be a parameter. In this case, the position shift is adjusted in units smaller than one pixel by changing (δp, δl) the center (p 0 , l 0 ) of the scene of the geometric conversion formula. Further, by performing the orthographic projection, it can be expected that an accurate output image is created in a wide area. Furthermore, the calculation of the optimal solution is
This can be done using the Powell method incorporated in IDL (Interactive Data Language) (Ver5.3).

【0038】図1の例では、パラメータの最適値化を行
った後に式(1)及び(2)の幾何変換式にパラメータ
を代入して、ランドサットTM画像の精密幾何変換を行
っている。しかしながら図7に示すように、ランドサッ
トTMデータを幾何変換する際に、式(1)及び(2)
を用い、最初に適当な平行移動パラメータの値をこれら
の式中に挿入して、パラメータの最適値化を実行し、そ
の結果で平行移動パラメータを変更するようにしてもよ
い。
In the example of FIG. 1, the parameters are substituted into the geometric conversion formulas (1) and (2) after the parameters are optimized, and the precise geometric conversion of the Landsat TM image is performed. However, as shown in FIG. 7, when geometrically transforming Landsat TM data, the equations (1) and (2) are used.
Alternatively, the appropriate translation parameter values may be first inserted into these equations to optimize the parameters and, as a result, change the translation parameters.

【0039】本実施の形態では、ランドサットTMの標
準処理データを幾何変換する簡便な方法(修正システム
幾何変換法)が提案されている。この修正システム幾何
変換法ではシステム情報に含まれる地図投影に関する情
報を基本に、平行移動と地上の起伏による位置ズレ(正
射投影)を加味した変換を考えている。そして、太陽の
直達入射照度のシミュレーション画像と衛星画像の画素
値の相関係数を評価関数として平行移動のパラメータを
調整する。0.1画素単位の微調整も可能である。従来
のGCPを利用した精密幾何補正では、GCPの選択と
座標変換式の統計的な推定という2段階の操作が必要と
なるのに対して、本発明の方法では従来問題とされてき
たGCPの選択が省略できる利点がある。
The present embodiment proposes a simple method (correction system geometric conversion method) for geometrically converting standard processing data of Landsat TM. This modified system geometric transformation method is based on the information about the map projection included in the system information, and considers the transformation that considers the displacement (orthographic projection) due to the parallel movement and the undulation on the ground. Then, the parallel movement parameter is adjusted using the correlation coefficient of the pixel value between the simulation image of the direct incident illuminance of the sun and the satellite image as an evaluation function. Fine adjustment in units of 0.1 pixel is also possible. In the conventional precise geometric correction using GCP, a two-step operation of selecting GCP and statistically estimating the coordinate conversion formula is required, whereas in the method of the present invention, GCP There is an advantage that selection can be omitted.

【0040】上記実施の形態では、2つの平行移動パラ
メータの最適値化を行ったが、最適値化できるパラメー
タは平行移動パラメータに限定されるものではなく、他
のパラメータについても同様の方法で最適値化を実行で
きるのは勿論である。
In the above embodiment, the two parallel movement parameters are optimized, but the parameters that can be optimized are not limited to the parallel movement parameters, and other parameters can be optimized by the same method. Of course, the digitization can be performed.

【0041】図8は、本発明の第2の実施の形態のデー
タ処理の流れを示す図である。上記の第1の実施の形態
では、目視で衛星画像とシミュレーション画像とのズレ
量を見てから、パラメータの最適値化を行っている。こ
の実施の形態では、目視によるズレ量の検出に変えて、
自動的に大域的なズレ量を検出する。そこでこの実施の
形態では、大域的な方法(海と陸の違いを利用した方
法)で、大域的なズレ量を検出した後、前述の第1の実
施の形態で採用している局所的な方法(太陽の直達入射
照度の推定値を利用した方法)でパラメータを決定す
る。
FIG. 8 is a diagram showing the flow of data processing according to the second embodiment of the present invention. In the above-described first embodiment, the parameters are optimized by visually observing the deviation amount between the satellite image and the simulation image. In this embodiment, instead of visually detecting the amount of deviation,
The amount of global deviation is automatically detected. Therefore, in this embodiment, after detecting the amount of global deviation by a global method (method utilizing the difference between the sea and land), the local method used in the first embodiment described above is detected. The parameters are determined by the method (method utilizing the estimated value of the direct incident illuminance of the sun).

【0042】具体的に説明すると、この実施の形態で
は、最初にランドサットTM画像上の海岸線からの距離
で層別したカテゴリー毎に無作為に抽出した複数の評価
点が陸地であるか海であるかの判定の正否を地図上に示
される陸地と海のデータに基いて判定して、その識別率
を求める。そしてこの識別率を評価関数として平行移動
パラメータの適切値を求める。その後適切値を幾何変換
式に入力してランドサットTM画像を幾何補正して幾何
補正ランドサットTM画像を定める。次に数値標高モデ
ルを用いて作成した太陽の直達人射照度画像をシミュレ
ーション画像とし、シミュレーション画像及び幾何補正
ランドサットTM画像のそれぞれの画素値の相関係数を
評価関数として、平行移動パラメータの最適値化を行
う。
More specifically, in this embodiment, a plurality of evaluation points randomly extracted for each category stratified by the distance from the coastline on the Landsat TM image are land or sea. Whether the judgment is correct or not is judged based on the land and sea data shown on the map, and the discrimination rate is obtained. Then, using this discrimination rate as an evaluation function, an appropriate value of the parallel movement parameter is obtained. Then, an appropriate value is input to the geometric conversion formula to geometrically correct the Landsat TM image to determine a geometrically corrected Landsat TM image. Next, the direct irradiance image of the sun created using the digital elevation model is used as a simulation image, and the correlation coefficient of each pixel value of the simulation image and the geometrically corrected Landsat TM image is used as an evaluation function, and the optimum value of the parallel movement parameter is obtained. To convert.

【0043】以下に大域的な方法(海と陸の違いを利用
した方法)について説明する。衛星画像で識別できるも
っとも大きな特徴は、陸域と海域の違いであり、これら
は特に近赤外バンドの画像では明瞭に識別できる。地図
座標上の各点が海か陸かの判定は国土地理院から発行さ
れる数値情報によって知ることができる。この特徴を利
用するため、陸域と海域から複数の評価点を選択する。
次に設定した幾何補正式を利用して評価点の衛星画像上
の座標を求める。この座標上の輝度値から判定できる海
と陸が地図情報と一致する評価点の割り合いを適合度と
する。この方法では、評価点の設定が重要である。海岸
に近いところだけでなく遠いところも含めることにより
パラメータの初期値によらない最適化が可能となる。ま
た評価点を調整することにより、計算時間の短縮を計る
ことができるため、シーン全体などの広い地域を対象に
する場合や多数のパラメータを推定する場合に有効であ
る。
A global method (method utilizing the difference between the sea and land) will be described below. The most distinguishing feature of satellite images is the difference between land and sea, which can be clearly identified especially in the near infrared band image. The judgment of whether each point on the map coordinates is sea or land can be known by the numerical information issued by the Geographical Survey Institute. To take advantage of this feature, select multiple evaluation points from land and sea areas.
Next, the coordinate of the evaluation point on the satellite image is obtained by using the set geometric correction formula. The applicability is defined as the proportion of evaluation points at which the sea and land that can be determined from the brightness values on these coordinates match the map information. In this method, the setting of evaluation points is important. By including not only the part near the coast but also the part near the coast, it is possible to optimize without depending on the initial value of the parameter. In addition, since the calculation time can be shortened by adjusting the evaluation points, it is effective when targeting a wide area such as the entire scene or when estimating a large number of parameters.

【0044】この実施の形態では、宇宙開発事業団から
提供されたランドサット5号からの衛星画像(TMデー
タ)「1995年6月12日撮影(パス107/ロウ3
2)」を用いた。ここで使用するデータはいわゆる標準
処理データ(レベル1b)といわれるもので、(1)検
知素子間の感度差の調整、および(2)衛星の軌道・姿
勢情報を用いたUTM座標系への投影と再配列(システ
ム幾何補正)が行われたものである。しかし、システム
幾何補正では(1)地表面の起伏の影響が考慮されてい
ない、(2)軌道情報が正確ではない、(3)画像の配
列がUTM座標系のxy軸と対応していない(オリエン
テーション角)などの問題があるため、地図のデータと
正確には重ね合わせることができない。
In this embodiment, the satellite image (TM data) from Landsat No. 5 provided by the Space Development Agency of Japan, "photographed on June 12, 1995 (pass 107 / row 3
2) ”was used. The data used here is what is called standard processing data (level 1b). It is (1) adjustment of the sensitivity difference between the detection elements, and (2) projection to the UTM coordinate system using the satellite orbit and attitude information. And rearrangement (system geometric correction) was performed. However, in the system geometric correction, (1) the influence of the undulation of the ground surface is not taken into consideration, (2) the trajectory information is not accurate, (3) the image array does not correspond to the xy axes of the UTM coordinate system ( Due to problems such as orientation angle), it is not possible to accurately overlay the map data.

【0045】図9に可視バンドの画像ファイルの一例の
画像を示している。ファイルの最初にはヘッダレコード
(1行)、各レコードの最初の32バイトはレコードヘ
ッダ、最後の68バイトはレコードトレイラであるが、
本解析に必要な情報は含まれていない。他の部分が画像
データであるが、左右の黒い部分(輝度値0)はシステ
ム補正の際に生じた撮影されていない部分である。精密
幾何変換(正射投影)では画像を各ライン毎のこの境界
の軌跡の中間点を衛星直下点とする。
FIG. 9 shows an image of an example of a visible band image file. The header record (one line) is at the beginning of the file, the first 32 bytes of each record is the record header, and the last 68 bytes is the record trailer.
The information necessary for this analysis is not included. The other portions are image data, but the left and right black portions (luminance value 0) are the portions that have not been photographed that occurred during system correction. In the precise geometric transformation (orthogonal projection), the image is set to the point directly below the satellite at the midpoint of the locus of this boundary for each line.

【0046】標準処理データには、画像ファイルの他に
情報ファイル(リードファイル)が付属している。この
ファイルには幾何変換に必要な以下の情報が記載されて
いる。
An information file (read file) is attached to the standard process data in addition to the image file. This file contains the following information necessary for geometric transformation.

【0047】太陽高度 θ= 62 度 太陽方位 φ= 119 度 オリエンテーション角θ= 0.1830542 radian シーン中心(UTM座標系) x= 534146.1182 m y= 4463628.9062 m 空間分解能 28.5m また、この画像ファイル上のシーン中心は p= 3492.0 pixel l= 2983.5 line である。Sun altitude θ = 62 degrees Sun direction φ = 119 degrees Orientation angle θ 0 = 0.1830542 radian Scene center (UTM coordinate system) x 0 = 534146.1182 m y 0 = 4463628.9062 m Spatial resolution 28.5 m Also on this image file The center of the scene is p 0 = 3492.0 pixel l 0 = 2983.5 line.

【0048】これらの情報からUTM座標(x、y)が
与えられた場合の画像上の位置(p、l)は上記第1の
実施の形態で用いた(1)式及び(2)式を用いて次の
式で求められる。
The position (p, l) on the image when the UTM coordinates (x, y) are given from these information is expressed by the equations (1) and (2) used in the first embodiment. It is calculated by the following formula.

【0049】p=p+[cosθ*(x−x)−
sinθ*(y−y)]/28.5 l=l+[−sinθ*(x−x)−cosθ
*(y−y)]/28.5 図10に地図上に衛星データの範囲を示した。図10に
おいて、領域Aが図9の衛星画像の範囲であり、領域B
が大地的な方法を実施する範囲であり、領域Cが局所的
な方法を実施する範囲である。
P = p 0 + [cos θ 0 * (x−x 0 ) −
sin θ 0 * (y−y 0 )] / 28.5 1 = l 0 + [− sin θ 0 * (x−x 0 ) −cos θ 0
* (Y−y 0 )] / 28.5 Figure 10 shows the satellite data range on the map. In FIG. 10, the area A is the range of the satellite image in FIG. 9, and the area B is
Is the range in which the ground method is implemented, and region C is the range in which the local method is implemented.

【0050】図8に示したデータ処理の流れは、(A)
評価用のデータの作成と(B)評価関数の最適化による
幾何変換式の推定に分けられる。後者には海と陸の判別
を用いる大域的な方法と直達入射照度を用いる局所的な
方法がある。それぞれ独立に用いることもできるが、ラ
ンドサットTMの場合には、大域的な方法で回転を含む
幾何変換式を作成した後で、その平行移動パラメータを
修正する形で局所的な方法を用いるのが合理的である。
The data processing flow shown in FIG. 8 is (A)
It is divided into the creation of evaluation data and (B) estimation of the geometric transformation formula by optimizing the evaluation function. The latter includes a global method using the discrimination between the sea and land and a local method using the direct incident illuminance. Although they can be used independently of each other, in the case of Landsat TM, it is preferable to use a local method by modifying a translation parameter after creating a geometric transformation formula including rotation by a global method. It is rational.

【0051】図8のデータ処理の流れでは、まず最初
に、評価用のデータを作成する。評価用のデータは2種
類(海と陸の判別データと太陽の直達入射照度)ある
が、どちらも国土地理院発行の数値地図50mメッシュ
(標高)から作成する。
In the data processing flow of FIG. 8, first, evaluation data is created. There are two types of data for evaluation (sea and land discrimination data and direct incident illuminance of the sun), both of which are created from the numerical map 50m mesh (elevation) issued by the Geographical Survey Institute.

【0052】図11に示した対象とする衛星画像(パス
107/ロウ32用)の範囲と海岸線の多くが重なる矩
形の領域Bの数値標高モデルを切り出したものが図11
に示すものである。この画像を用いて海岸線からの距離
画像(海と陸が接するものをレベル1)を作成した。海
岸線からの距離が約750mの領域を距離で15のレベ
ルに層別し、各レベル(カテゴリー)毎に200画素
(海と陸が半々)を無作為に抽出し、合計3000個の
地点を評価点とし表3に示すようなデータを作成した。
この一部を示したものが図12である。図12におい
て、+印が評価点を示している。さらに幾何変換式の決
定で用いるデータはこの経緯度で示される位置データを
UTM座標系に変換する。
FIG. 11 is a cutout of the digital elevation model of a rectangular area B where the range of the target satellite image (for path 107 / row 32) and most of the coastline shown in FIG. 11 overlap.
It is shown in. Using this image, a distance image from the coastline (level 1 where the sea and land are in contact) was created. The area of about 750 m from the coastline is stratified into 15 levels by distance, and 200 pixels (half the sea and half the land) are randomly extracted for each level (category), and a total of 3000 points are evaluated. The data as shown in Table 3 was created as the points.
FIG. 12 shows a part of this. In FIG. 12, the + mark indicates the evaluation point. Further, the data used in the determination of the geometric conversion formula converts the position data indicated by the latitude and longitude into the UTM coordinate system.

【0053】[0053]

【表3】 図13は、図10に示した地域Cの太陽の直達入射照度
画像(シミュレーション画像)を示している。この画像
は、数値標高モデル(UTM座標系/空間分解能30
m)を数値地図50mメッシュ(標高)を投影変換/再配
列(共1次内挿法)して作成したものである。画像の大
きさは430×430である。太陽の直達入射照度co
sβの求め方は第1の実施の形態の場合と同じである。
[Table 3] FIG. 13 shows a direct incident illuminance image (simulation image) of the sun in the area C shown in FIG. 10. This image shows a digital elevation model (UTM coordinate system / spatial resolution 30
m) is created by projection transformation / rearrangement (colinear interpolation) of a 50 m mesh (elevation) of a digital map. The size of the image is 430 × 430. Direct incident illuminance of the sun co
The method of obtaining sβ is the same as in the case of the first embodiment.

【0054】次に評価関数の最適化による幾何変換式の
推定について説明する。
Next, the estimation of the geometric conversion formula by optimizing the evaluation function will be described.

【0055】図9に示したバンド4の衛星画像に対し
て、大域的な方法を適用する。システム情報に基づいて
評価点の衛星画像上の位置を計算し、各評価点の輝度値
(画素値)が閾値γ(20を設定)以下の場合を海域と
し、輝度値が閾値より大きい場合を陸域と判断した。そ
してこの判断結果(識別データ)の正否を、前述の数値
地図50mメッシュ(標高)から得た地図関連情報に照
らして判断し、識別率を求めた。その結果、評価点から
衛星画像の範囲外にある122地点を除いた2878地
点の中で718地点が間違って判定された。
A global method is applied to the satellite image of band 4 shown in FIG. The position of the evaluation point on the satellite image is calculated based on the system information, and the case where the brightness value (pixel value) of each evaluation point is less than or equal to the threshold value γ (set 20) is set as the sea area, and the brightness value is greater than the threshold value. Judged to be land area. Then, whether the judgment result (identification data) is correct or not is judged by referring to the map-related information obtained from the above-mentioned numerical map 50 m mesh (elevation), and the discrimination rate is obtained. As a result, 718 points were erroneously determined from 2878 points excluding 122 points outside the range of the satellite image from the evaluation points.

【0056】この例では、間違った数を識別率とし、こ
れを評価関数として評価値が大きくなるように(識別率
が小さくなるように)シーンのセンターのズレ(Δp、
Δl)および閾値(γ)に関して最適化を行ったとこ
ろ、間違いは51個に減少した。ここで最適値化は、Δ
p、Δlおよび閾値γを周知の最適化手法に従って可変
し、その都度、輝度値(画素値)と閾値との対比して行
った。このときのパラメータの値は以下の通りである。
In this example, a wrong number is used as the discrimination rate, and this is used as an evaluation function to increase the evaluation value (to reduce the discrimination rate).
Optimization with respect to Δl) and threshold (γ) reduced the number of errors to 51. Here, the optimum value is Δ
p, Δl, and the threshold value γ were changed according to a known optimization method, and the brightness value (pixel value) and the threshold value were compared with each other. The parameter values at this time are as follows.

【0057】ケースA: Δp=40.90、Δl=27.18、
γ=28.39 ケースAは平行移動のみであるが、回転を含めるため
に、さらに、オリエンテーション角のズレΔθを含めて
最適化を行ったところ、間違いは40個となった。図1
4に間違った場所と範囲外の地点を地図上に示した。北
部に見えるのは衛星画像の範囲外となった評価点であ
る。このときのパラメータの値は以下の通りである。
Case A: Δp = 40.90, Δl = 27.18,
γ = 28.39 Case A has only parallel movement, but when the optimization was performed to include rotation, the deviation Δθ of the orientation angle was further included, and 40 errors were found. Figure 1
The wrong place and the out-of-range point are shown on the map in 4. What is visible in the north is the evaluation points outside the range of the satellite image. The parameter values at this time are as follows.

【0058】ケースB: Δp=40.25、Δl=27.18、
Δθ=0.000217、γ=29.08 空間分解能28.5mも変化させて最適化を行った場合
には、間違いの現象はみられなかった。なお、間違った
地点を個別的にチェックはしていないが、陸奥小川原湖
周辺の湖沼の影響が多く見られるほかは、系統的な傾向
は見られない。小さな島や河口、あるいは港の回収など
の影響によると思われる。
Case B: Δp = 40.25, Δl = 27.18,
When the optimization was performed by changing the spatial resolution of 28.5 m, Δθ = 0.000217, γ = 29.08, no error phenomenon was observed. Although we did not check the wrong points individually, there is no systematic tendency, except that there are many lakes and marshes around Mutsu Ogawara. It may be due to the recovery of small islands, estuaries, or ports.

【0059】前述の大域的な方法で得られた幾何変換式
を用いて、画像の再配列を行った。すなわち幾何補正し
たランドサットTM画像とシミュレーション画像との間
の大まかなズレ量を決定した。この画像の再配列が、第
1の実施の形態における目視によるシーンのセンターの
ズレ量の決定に相当する。その後第1の実施の形態と同
様にして、画素単位で幾何補正したランドサットTM画
像をピクセル方向及びライン方向に移動して、変換され
た衛星画像とシミュレーション画像の所定領域における
それぞれの画素値の相関係数の変化を求めた。表4及び
表5は、それぞれ前述のケースA及びBのパラメータを
用いた場合に得られた相関係数の変化を示している。な
おこの例では、地形の起伏による誤差を避けるために正
射投影を考慮した変換を行った。また内挿には共1次内
挿法を用いた。解析には変換後の衛星画像をピクセル方
向とライン方向にずらして求めた相関係数を用いた。正
しい変換であればズレがないところで最大値をとる。
Images were rearranged using the geometric transformation formula obtained by the above-mentioned global method. That is, a rough shift amount between the geometrically corrected Landsat TM image and the simulation image was determined. The rearrangement of this image corresponds to the visual determination of the amount of shift of the center of the scene in the first embodiment. After that, similarly to the first embodiment, the Landsat TM image geometrically corrected in pixel units is moved in the pixel direction and the line direction so that the pixel values of the converted satellite image and the simulation image have different pixel values. The change in the number of relationships was sought. Tables 4 and 5 show the changes in the correlation coefficient obtained when the parameters of the above-mentioned cases A and B were used, respectively. It should be noted that in this example, in order to avoid an error due to ups and downs of the terrain, orthoscopic projection is taken into consideration for the conversion. A co-linear interpolation method was used for the interpolation. For the analysis, the correlation coefficient obtained by shifting the converted satellite image in the pixel direction and the line direction was used. If it is a correct conversion, it takes the maximum value where there is no deviation.

【0060】[0060]

【表4】 [Table 4]

【表5】 表4および表5には、ともに横軸にピクセル方向への移
動量(画素数)を示して縦軸にライン方向への移動量
(画素数)を示している。横軸及び縦軸の数字は、ケー
スA及びケースBで求めたシーンのセンターのズレΔp
及びΔlの値を基準にして(0にして)画素単位で画像
をピクセル方向及びライン方向にずらすことを意味して
いる。
[Table 5] In Tables 4 and 5, the horizontal axis indicates the amount of movement (pixel number) in the pixel direction, and the vertical axis indicates the amount of movement (pixel number) in the line direction. The numbers on the horizontal and vertical axes are the center shifts Δp of the scenes obtained in Case A and Case B.
It means that the image is shifted in the pixel direction and the line direction on a pixel-by-pixel basis based on the values of Δl and Δl (set to 0).

【0061】ケースA(平行移動のみ)の場合も、ケー
スB(回転も含める)の場合も、共にライン方向にはズ
レがなく、ピクセル方向に最大2画素程度のズレが見ら
れる。両者を比較すると、後者の方の位置ズレが若干小
さい。
In both case A (only parallel movement) and case B (including rotation), there is no deviation in the line direction, and a maximum deviation of about 2 pixels is observed in the pixel direction. Comparing the two, the positional deviation of the latter is slightly smaller.

【0062】次に相関係数を評価関数として、各ケース
についてパラメータの最適化を行った。その結果を以下
に示す。
Next, the parameters were optimized for each case using the correlation coefficient as an evaluation function. The results are shown below.

【0063】ケースA: Δp=38.79、Δl=27.45、
相関係数0.692 ケースB: Δp=39.19、Δl=27.21、Δθ=−0.00
0213、相関係数0.692 最適化を行った場合には、回転を含める効果はほとんど
現れない。これは対象画像の範囲(約10km)では回
転の影響は数m(10000×Δθ)程度しかあらわれ
ないためである。したがって、回転のズレを求めるには
大域的な方法が不可欠である。また、局所的な方法で最
適化を行う場合、初期値を適切に設定しないと解がなか
なか見つからないことが起きる。大域的な方法で得られ
たパラメータを初期値として利用することにより、この
問題を解決することができる。
Case A: Δp = 38.79, Δl = 27.45,
Correlation coefficient 0.692 Case B: Δp = 39.19, Δl = 27.21, Δθ = −0.00
[0213] Correlation coefficient 0.692 When optimization is performed, the effect of including rotation hardly appears. This is because in the range of the target image (about 10 km), the influence of rotation appears only for several meters (10000 × Δθ). Therefore, a global method is indispensable for obtaining the rotational deviation. Also, when performing optimization by a local method, it may be difficult to find a solution unless the initial value is set appropriately. This problem can be solved by using the parameters obtained by the global method as the initial values.

【0064】[0064]

【発明の効果】本発明によれば、相関関数を評価関数と
して、適切な平行移動パラメータを求めることができる
ので、この平行移動パラメータを用いて対象領域のすべ
ての座標について幾何変換を行えば、多数のGCPを取
得することなく、対象領域全体にわたって高い精度の幾
何補正を行うことができる利点がある。
According to the present invention, since an appropriate translation parameter can be obtained by using the correlation function as an evaluation function, geometric transformation can be performed for all coordinates of the target area using this translation parameter. There is an advantage that geometric correction can be performed with high accuracy over the entire target region without acquiring a large number of GCPs.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施の形態の方法のデータ処理
の流れを説明するための図である。
FIG. 1 is a diagram for explaining a flow of data processing of a method according to a first embodiment of this invention.

【図2】対象地域を示す図である。FIG. 2 is a diagram showing a target area.

【図3】図2に示した地点1のシミュレーション画像を
示す図である。
FIG. 3 is a diagram showing a simulation image of a point 1 shown in FIG.

【図4】図2に示した地点1の変換後の衛星画像(バン
ド5)を示す図である。
4 is a diagram showing a satellite image (band 5) after conversion of point 1 shown in FIG.

【図5】パラメータcに対する相関係数の変化を示す図
である。
FIG. 5 is a diagram showing changes in a correlation coefficient with respect to a parameter c.

【図6】パラメータdに対する相関係数の変化を示す図
である。
FIG. 6 is a diagram showing changes in a correlation coefficient with respect to a parameter d.

【図7】第1の実施の形態の別のデータ処理の流れを示
す図である。
FIG. 7 is a diagram showing another data processing flow according to the first embodiment.

【図8】本発明の第2の実施の形態のデータ処理の流れ
を示す図である。
FIG. 8 is a diagram showing a flow of data processing according to the second embodiment of this invention.

【図9】可視バンドの画像ファイルの画像を示す図であ
る。
FIG. 9 is a diagram showing an image of a visible band image file.

【図10】対象地域を示す図である。FIG. 10 is a diagram showing a target area.

【図11】図10の領域Bの数値標高モデルを示す図で
ある。
11 is a diagram showing a digital elevation model of a region B in FIG.

【図12】無作為に抽出した評価点の例を示す図であ
る。
FIG. 12 is a diagram showing an example of evaluation points randomly selected.

【図13】図10に示した地域Cの直達入射照度画像
(シミュレーション画像)を示す図である。
13 is a diagram showing a direct-incidence illuminance image (simulation image) of area C shown in FIG.

【図14】陸と海の判定を誤った評価点を示す図であ
る。
FIG. 14 is a diagram showing evaluation points in which land and sea are erroneously determined.

【符号の説明】[Explanation of symbols]

A乃至C 領域 Area A to C

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B050 AA01 BA02 BA07 BA08 BA17 DA07 EA13 5B057 AA13 AA14 CA08 CA13 CA16 CB08 CB13 CB16 CD11 CH01 DB03 DB09 DC30 5J070 AC01 AE07 AF08 AH04 AH19 AJ02 AK22 AK37 BG27 5L096 AA06 AA09 BA20 DA01 EA15 FA34 FA66 FA69 FA78    ─────────────────────────────────────────────────── ─── Continued front page    F-term (reference) 5B050 AA01 BA02 BA07 BA08 BA17                       DA07 EA13                 5B057 AA13 AA14 CA08 CA13 CA16                       CB08 CB13 CB16 CD11 CH01                       DB03 DB09 DC30                 5J070 AC01 AE07 AF08 AH04 AH19                       AJ02 AK22 AK37 BG27                 5L096 AA06 AA09 BA20 DA01 EA15                       FA34 FA66 FA69 FA78

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 地図上の座標とランドサットTM画像の
座標との関係を表すために複数のパラメータを含んで構
成された幾何変換式を用いて前記ランドサットTM画像
の座標と前記地図の座標とを整合させるために前記ラン
ドサットTM画像を幾何補正するランドサットTM画像
の精密幾何補正方法であって、 前記幾何変換式として前記ランドサットTM画像に付随
して提供されるシステム情報に含まれる平行移動パラメ
ータを含む幾何変換式を用い、 数値標高モデルを用いて作成した太陽の直達人射照度画
像をシミュレーション画像とし、該シミュレーション画
像及び前記ランドサットTM画像のそれぞれの画素値の
相関係数を評価関数として、適切な前記平行移動パラメ
ータを求めることを特徴とするランドサットTM画像の
精密幾何補正方法。
1. The coordinates of the Landsat TM image and the coordinates of the map are calculated by using a geometric transformation equation including a plurality of parameters to represent the relationship between the coordinates on the map and the coordinates of the Landsat TM image. What is claimed is: 1. A method of precisely correcting a Landsat TM image for geometrical correction to match the Landsat TM image, the method including a translation parameter included in system information provided accompanying the Landsat TM image as the geometric conversion formula. Using the geometric transformation formula, the direct irradiance image of the sun created by using the digital elevation model is used as a simulation image, and the correlation coefficient of each pixel value of the simulation image and the Landsat TM image is used as an evaluation function. Precise geometrical compensation of Landsat TM image, characterized by obtaining the parallel movement parameter Method.
【請求項2】 前記平行移動パラメータをそれぞれ変化
させたときのピクセル方向の前記相関係数及びライン方
向の前記相関係数の値が最大値となる値を、前記平行移
動パラメータの最適値とすることを特徴とする請求項1
に記載のランドサットTM画像の精密幾何補正方法。
2. A value that maximizes the values of the correlation coefficient in the pixel direction and the correlation coefficient in the line direction when each of the translation parameters is changed is the optimum value of the translation parameter. Claim 1 characterized by the above.
The method for precise geometrical correction of a Landsat TM image according to 1.
【請求項3】 地図上の座標とランドサットTM画像の
座標との関係を表すために複数のパラメータを含んで構
成された幾何変換式を用いて前記ランドサットTM画像
の座標と前記地図の座標とを整合させるために前記ラン
ドサットTM画像を幾何補正するランドサットTM画像
の精密幾何補正方法であって、 前記幾何変換式として前記ランドサットTM画像に付随
して提供されるシステム情報に含まれる平行移動パラメ
ータを含む幾何変換式を用い、 前記ランドサットTM画像全体に現れる画像上の特徴と
前記地図上の地図情報に関連して得られる地図関連情報
のうち前記画像上の特徴に対応する対応地図情報との空
間的整合性を統計的に偏りなく定量的に評価する評価関
数を用いて、前記平行移動パラメータの最適化を行うこ
とを特徴とするランドサットTM画像の精密幾何補正方
法。
3. The coordinates of the Landsat TM image and the coordinates of the map are calculated by using a geometric transformation equation including a plurality of parameters to represent the relationship between the coordinates on the map and the coordinates of the Landsat TM image. What is claimed is: 1. A method of precisely correcting a Landsat TM image for geometrical correction to match the Landsat TM image, the method including a translation parameter included in system information provided accompanying the Landsat TM image as the geometric conversion formula. By using a geometric transformation formula, the spatial relationship between the feature on the image appearing in the entire Landsat TM image and the corresponding map information corresponding to the feature on the image among the map-related information obtained in association with the map information on the map Using an evaluation function for quantitatively evaluating the consistency without statistically biasing, the parallel movement parameters are optimized. Precision geometric correction method of that Landsat TM image.
【請求項4】 前記画像上の特徴が輝度に基く画素値で
あり、 前記対応地図情報が太陽の位置情報及び既知の標高情報
から得た太陽の直達入射照度に基く画素値であり、 前記評価関数として、前記輝度に基く前記画素値と前記
太陽の直達入射照度に基く画素値との間の相関係数を用
いることを特徴とする請求項3に記載のランドサットT
M画像の精密幾何補正方法。
4. The feature on the image is a pixel value based on luminance, and the corresponding map information is a pixel value based on direct incident illuminance of the sun obtained from position information of the sun and known elevation information, 4. The Landsat T according to claim 3, wherein a correlation coefficient between the pixel value based on the brightness and the pixel value based on the direct incident illuminance of the sun is used as a function.
Method for precise geometric correction of M image.
【請求項5】 前記画像上の特徴が、前記画像上に現れ
る陸地と海との相違であり、 前記対応地図情報が前記地図上に示される陸地と海との
相違であり、 前記評価関数として、海岸線からの距離で層別したカテ
ゴリー毎に無作為に抽出した複数の評価点が陸地である
か海であるかの識別データの正否を、前記対応地図情報
により判定して得た識別率を用いることを特徴とする請
求項3に記載のランドサットTM画像の精密幾何補正方
法。
5. The feature on the image is the difference between the land and the sea appearing on the image, the corresponding map information is the difference between the land and the sea shown on the map, and the evaluation function is , The correctness of the identification data whether a plurality of evaluation points randomly extracted for each category stratified by the distance from the coastline are land or sea, the identification rate obtained by determining by the corresponding map information The method for precise geometry correction of a Landsat TM image according to claim 3, which is used.
【請求項6】 前記システム情報に含まれる幾何変換式
は、 p−p=[cosθ*(x−x)−sinθ
(y−y)]/Δ l−l=[−sinθ*(x−x)−cosθ
*(y−y)]/Δ であり、上記式において、x及びyは前記地図の座
標系の中心座標であり、x及びyは前記地図の座標系の
任意の位置の座標であり、p及びlは前記ランドサ
ットTM画像の座標系の中心座標であり、p及びlは前
記ランドサットTM画像上の任意の位置の座標であり、
θは前記地図の座標系に対する前記画像の座標系の回
転角であり、Δは前記ランドサットTM画像の空間解像
度であり、上記式を、p=ax−by+c及びl=bx
−ay+dと簡略化したときの(但しa乃至dは変
数)、前記c及びdを前記平行移動パラメータとするこ
とを特徴とする請求項1または3に記載のランドサット
TM画像の精密幾何補正方法。
6. The geometric transformation formula contained in the system information is p−p 0 = [cos θ 0 * (x−x 0 ) −sin θ 0 *
(Y−y 0 )] / Δ 1−l 0 = [− sin θ 0 * (x−x 0 ) −cos θ 0
* (Y−y 0 )] / Δ, where x 0 and y 0 are the center coordinates of the map coordinate system, and x and y are the coordinates of any position in the map coordinate system. Yes, p 0 and l 0 are the center coordinates of the coordinate system of the Landsat TM image, p and l are the coordinates of any position on the Landsat TM image,
θ 0 is the rotation angle of the coordinate system of the image with respect to the coordinate system of the map, Δ is the spatial resolution of the Landsat TM image, and p = ax−by + c and l = bx are given by the above equations.
The method for precise geometric correction of a Landsat TM image according to claim 1 or 3, wherein the translation parameters are the c and d when simplified to -ay + d (where a to d are variables).
【請求項7】 前記システム情報に含まれる幾何変換式
は、 p−p=[cosθ*(x−x)−sinθ
(y−y)]/Δ l−l=[−sinθ*(x−x)−cosθ
*(y−y)]/Δ であり、上記式において、x及びyは前記地図の座
標系の中心座標であり、x及びyは前記地図の座標系の
任意の位置の座標であり、p及びlは前記ランドサ
ットTM画像の座標系の中心座標であり、p及びlは前
記ランドサットTM画像上の任意の位置の座標であり、
θは前記地図の座標系に対する前記画像の座標系の回
転角であり、Δは前記ランドサットTM画像の空間解像
度であり、前記p及びlが前記評価関数を用いて最
適化するパラメータであることを特徴とする請求項1ま
たは3に記載のランドサットTM画像の精密幾何補正方
法。
7. The geometric conversion formula contained in the system information is p−p 0 = [cos θ 0 * (x−x 0 ) −sin θ 0 *
(Y−y 0 )] / Δ 1−l 0 = [− sin θ 0 * (x−x 0 ) −cos θ 0
* (Y−y 0 )] / Δ, where x 0 and y 0 are the center coordinates of the map coordinate system, and x and y are the coordinates of any position in the map coordinate system. Yes, p 0 and l 0 are the center coordinates of the coordinate system of the Landsat TM image, p and l are the coordinates of any position on the Landsat TM image,
θ 0 is the rotation angle of the image coordinate system with respect to the map coordinate system, Δ is the spatial resolution of the Landsat TM image, and p 0 and l 0 are parameters optimized using the evaluation function. The method for precise geometric correction of a Landsat TM image according to claim 1 or 3, wherein:
【請求項8】 地図上の座標と衛星画像の座標との関係
を表すために複数のパラメータを含んで構成された幾何
変換式を用いて前記衛星画像の座標と前記地図の座標と
を整合させるために前記衛星画像を幾何補正する衛星画
像の精密幾何補正方法であって、 前記衛星画像全体に現れる画像上の特徴と前記地図上の
地図情報に関連して得られる地図関連情報のうち前記画
像上の特徴に対応する対応地図情報との空間的整合性を
統計的に偏りなく定量的に評価する評価関数を用いて前
記複数のパラメータの最適化を行うことを特徴とする衛
星画像の精密幾何補正方法。
8. The coordinates of the satellite image and the coordinates of the map are matched by using a geometric transformation formula configured to include a plurality of parameters to represent the relationship between the coordinates on the map and the coordinates of the satellite image. A satellite image precision geometric correction method for geometrically correcting the satellite image, wherein the image out of the map-related information obtained in relation to the features on the image appearing in the entire satellite image and the map information on the map Precise geometry of satellite images characterized by performing optimization of the plurality of parameters using an evaluation function that quantitatively evaluates spatial consistency with corresponding map information corresponding to the above features, without statistically biasing Correction method.
【請求項9】 地図上の座標と衛星画像の座標との関係
を表すために複数のパラメータを含んで構成された幾何
変換式を用いて前記衛星画像の座標と前記地図の座標と
を整合させるために前記衛星画像を幾何補正する衛星画
像の精密幾何補正方法であって、 前記衛星画像上に海岸線からの距離で層別したカテゴリ
ー毎に無作為に抽出した複数の評価点が、陸地であるか
海であるかの判定の正否を前記地図上に示される陸地と
海のデータに基いて判定して、その識別率を求め、 前記識別率を評価関数として前記複数のパラメータの適
切値を求め、 前記適切値を前記幾何変換式に入力して前記衛星画像を
幾何補正して幾何補正された衛星画像を定め、 数値標高モデルを用いて作成した太陽の直達人射照度画
像をシミュレーション画像とし、 前記シミュレーション画像及び前記幾何補正された衛星
画像のそれぞれの画素値の相関係数を評価関数として、
前記複数のパラメータの最適値化を行うことを特徴とす
る衛星画像の精密幾何補正方法。
9. The coordinates of the satellite image and the coordinates of the map are matched by using a geometric transformation formula configured to include a plurality of parameters to represent the relationship between the coordinates on the map and the coordinates of the satellite image. For this purpose, there is provided a satellite image precision geometric correction method for geometrically correcting the satellite image, wherein a plurality of evaluation points randomly extracted for each category stratified by the distance from the coastline on the satellite image is land. Whether or not it is the sea is determined based on the land and sea data shown on the map, the identification rate is obtained, and the appropriate value of the plurality of parameters is obtained using the identification rate as an evaluation function. , Inputting the appropriate value into the geometric conversion formula to geometrically correct the satellite image to determine a geometrically corrected satellite image, and use a direct elevation irradiance image of the sun created using a numerical elevation model as a simulation image, The above The correlation coefficient for each pixel value of the simulation image and the geometric correction satellite images as an evaluation function,
A method for precisely geometrically correcting a satellite image, which comprises optimizing the plurality of parameters.
JP2001342440A 2001-11-07 2001-11-07 Precision geometric correction method for Landsat TM image and precise geometric correction method for satellite image Expired - Fee Related JP4005336B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001342440A JP4005336B2 (en) 2001-11-07 2001-11-07 Precision geometric correction method for Landsat TM image and precise geometric correction method for satellite image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001342440A JP4005336B2 (en) 2001-11-07 2001-11-07 Precision geometric correction method for Landsat TM image and precise geometric correction method for satellite image

Publications (3)

Publication Number Publication Date
JP2003141507A true JP2003141507A (en) 2003-05-16
JP2003141507A5 JP2003141507A5 (en) 2005-03-10
JP4005336B2 JP4005336B2 (en) 2007-11-07

Family

ID=19156297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001342440A Expired - Fee Related JP4005336B2 (en) 2001-11-07 2001-11-07 Precision geometric correction method for Landsat TM image and precise geometric correction method for satellite image

Country Status (1)

Country Link
JP (1) JP4005336B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007323180A (en) * 2006-05-30 2007-12-13 Hitachi Software Eng Co Ltd Image processing system
JP2015111128A (en) * 2014-12-19 2015-06-18 キヤノン株式会社 Position attitude measurement device, position attitude measurement method, and program
KR20150101009A (en) * 2014-02-24 2015-09-03 주식회사 한화 Apparatus and method for image matching unmanned aerial vehicle image with map image
KR101842154B1 (en) 2016-04-28 2018-03-26 서울시립대학교 산학협력단 Equipment and Method for topographically corrected image generation using quantitative analysis and Apparatus Thereof
JP2019179217A (en) * 2018-03-30 2019-10-17 日産自動車株式会社 Map correction method and map correction device
CN112148823A (en) * 2020-09-04 2020-12-29 国家卫星气象中心(国家空间天气监测预警中心) Geometric correction parallel method and device for remote sensing data and computer equipment
CN114184173A (en) * 2021-12-13 2022-03-15 自然资源部国土卫星遥感应用中心 Comprehensive evaluation method for mapping capability of three-dimensional image of remote sensing satellite
CN117392363A (en) * 2023-12-12 2024-01-12 广东省海洋发展规划研究中心 Land-sea remote sensing image partition correction method, system, equipment and medium

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007323180A (en) * 2006-05-30 2007-12-13 Hitachi Software Eng Co Ltd Image processing system
JP4673799B2 (en) * 2006-05-30 2011-04-20 株式会社日立ソリューションズ Image processing system
KR20150101009A (en) * 2014-02-24 2015-09-03 주식회사 한화 Apparatus and method for image matching unmanned aerial vehicle image with map image
KR101617078B1 (en) * 2014-02-24 2016-04-29 주식회사 한화 Apparatus and method for image matching unmanned aerial vehicle image with map image
JP2015111128A (en) * 2014-12-19 2015-06-18 キヤノン株式会社 Position attitude measurement device, position attitude measurement method, and program
KR101842154B1 (en) 2016-04-28 2018-03-26 서울시립대학교 산학협력단 Equipment and Method for topographically corrected image generation using quantitative analysis and Apparatus Thereof
JP2019179217A (en) * 2018-03-30 2019-10-17 日産自動車株式会社 Map correction method and map correction device
JP7154025B2 (en) 2018-03-30 2022-10-17 日産自動車株式会社 Map correction method and map correction device
CN112148823A (en) * 2020-09-04 2020-12-29 国家卫星气象中心(国家空间天气监测预警中心) Geometric correction parallel method and device for remote sensing data and computer equipment
CN112148823B (en) * 2020-09-04 2023-12-26 国家卫星气象中心(国家空间天气监测预警中心) Remote sensing data geometric correction parallel method and device and computer equipment
CN114184173A (en) * 2021-12-13 2022-03-15 自然资源部国土卫星遥感应用中心 Comprehensive evaluation method for mapping capability of three-dimensional image of remote sensing satellite
CN117392363A (en) * 2023-12-12 2024-01-12 广东省海洋发展规划研究中心 Land-sea remote sensing image partition correction method, system, equipment and medium
CN117392363B (en) * 2023-12-12 2024-03-29 广东省海洋发展规划研究中心 Land-sea remote sensing image partition correction method, system, equipment and medium

Also Published As

Publication number Publication date
JP4005336B2 (en) 2007-11-07

Similar Documents

Publication Publication Date Title
Henriksen et al. Extracting accurate and precise topography from LROC narrow angle camera stereo observations
Li et al. Rigorous photogrammetric processing of HiRISE stereo imagery for Mars topographic mapping
Baltsavias et al. Radiometric and geometric evaluation of Ikonos GEO images and their use for 3D building modelling
US7343051B1 (en) Method of recognizing an object in an image using multi-sensor integration through conditionally optimal geoscene generation and registration
CN107527328B (en) Unmanned aerial vehicle image geometric processing method considering precision and speed
CN112017224B (en) SAR data area network adjustment processing method and system
CN107917699B (en) Method for improving aerial three quality of mountain landform oblique photogrammetry
US6125329A (en) Method, system and programmed medium for massive geodetic block triangulation in satellite imaging
Tang et al. Verification of ZY-3 satellite imagery geometric accuracy without ground control points
Wang Automated triangulation of linear scanner imagery
CN108253942B (en) Method for improving oblique photography measurement space-three quality
Jacobsen Mapping with IKONOS images
CN110986888A (en) Aerial photography integrated method
JP2003141507A (en) Precise geometric correction method for landsat tm image and precise geometric correction method for satellite image
Fraser et al. 3D building reconstruction from high-resolution Ikonos stereo-imagery
Cramer On the use of direct georeferencing in airborne photogrammetry
CN107705272A (en) A kind of high-precision geometric correction method of aerial image
Kong et al. An automatic and accurate method for marking ground control points in unmanned aerial vehicle photogrammetry
Dowman Encoding and validating data from maps and images
Abd-Elrahman et al. Detection of positional errors in systems utilizing small-format digital aerial imagery and navigation sensors using area-based matching techniques
Rao et al. Topographic map updation using Cartosat-1 data
Bertacchini et al. Map updating and coastline control with very high resolution satellite images: application to Molise and Puglia coasts (Italy)
Andaru et al. Multitemporal UAV photogrammetry for sandbank morphological change analysis: evaluations of camera calibration methods, co-registration strategies, and the reconstructed DSMs
CN113902626B (en) Orthorectification method for extra constraint condition of ultra-wide linear array image
Sholarin et al. Photogrammetry

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20031031

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20040129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040402

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040402

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070823

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100831

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110831

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120831

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130831

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees