JP2009187440A - Observation image correction device, observation image correction program, and observation image correction method - Google Patents

Observation image correction device, observation image correction program, and observation image correction method Download PDF

Info

Publication number
JP2009187440A
JP2009187440A JP2008028848A JP2008028848A JP2009187440A JP 2009187440 A JP2009187440 A JP 2009187440A JP 2008028848 A JP2008028848 A JP 2008028848A JP 2008028848 A JP2008028848 A JP 2008028848A JP 2009187440 A JP2009187440 A JP 2009187440A
Authority
JP
Japan
Prior art keywords
image
observation
simulated
pixel
radar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008028848A
Other languages
Japanese (ja)
Other versions
JP5004817B2 (en
Inventor
Yoshikuni Shindo
嘉邦 進藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Space Software Co Ltd
Original Assignee
Mitsubishi Space Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Space Software Co Ltd filed Critical Mitsubishi Space Software Co Ltd
Priority to JP2008028848A priority Critical patent/JP5004817B2/en
Publication of JP2009187440A publication Critical patent/JP2009187440A/en
Application granted granted Critical
Publication of JP5004817B2 publication Critical patent/JP5004817B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To allow an accurate ortho-image to be generated through ortho-correction of an observation image without performing a work for manually setting position information. <P>SOLUTION: A simulation image generation section 110 generates a simulation intensity image 171 and simulation image coordinate data 172 based on observation condition information 192 and a digital elevation model (DEM) 181. An agreement point detection section 120 detects a point of agreement 831 between an observation image 191 and the simulation intensity image 171. A latitude-longitude resampling section 130 affine transforms the observation image 191 so as to be superposed on the simulation intensity image 171 based on the point of agreement 831, specifies a pixel of the simulation intensity image 171 corresponding to a pixel of the observation image 191, acquires a coordinate corresponding to the observation image 191 from simulation image coordinate data 172, and generates observation image coordinate data 193. An ortho-correction section 140 ortho-corrects the observation image 191 based on the observation image coordinate data 193, and generates the ortho-image 196. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、例えば、合成開口レーダー画像をオルソ補正する観測画像補正装置、観測画像補正プログラムおよび観測画像補正方法に関するものである。   The present invention relates to an observation image correction apparatus, an observation image correction program, and an observation image correction method for ortho-correcting a synthetic aperture radar image, for example.

合成開口レーダーによる観測画像(合成開口レーダー画像)からオルソ補正した画像(オルソ画像)を作成する代表的な方法として以下のものがある。オルソ画像とは、真上から見たかのように正射投影して補正した画像のことである。   As typical methods for creating an orthocorrected image (ortho image) from an observation image (synthetic aperture radar image) obtained by a synthetic aperture radar, there are the following methods. An ortho image is an image corrected by orthographic projection as if viewed from directly above.

(1)軌道情報、スラントレンジ、DEM(Digital Elevation Model:数値標高モデル)などを用いて標高を考慮して観測画像の各ピクセルの観測点を求め、これをもとにオルソ補正を行う。
(2)観測画像上の数ピクセルに対して各ピクセルの位置(緯度、経度)を手動で入力し、入力値をもとに多項式変換などにより幾何学歪みを補正する。
特開2003−141507号公報 特開2007−248216号公報 特開2005−292882号公報 特開2006−189372号公報 特開2003−323611号公報 特開2004−171413号公報 特開2003−241653号公報
(1) The observation point of each pixel of the observation image is obtained in consideration of the altitude using orbit information, slant range, DEM (Digital Elevation Model), etc., and orthorectification is performed based on this.
(2) The position (latitude and longitude) of each pixel is manually input for several pixels on the observed image, and the geometric distortion is corrected by polynomial transformation based on the input value.
JP 2003-141507 A JP 2007-248216 A JP 2005-292882 A JP 2006-189372 A JP 2003-323611 A JP 2004-171413 A JP 2003-241653 A

上記(1)の方法には以下のような課題がある。
(a)観測画像が地図投影されていないことが条件となるが、販売されている標準の観測画像は地図投影されている。なお、販売品の観測画像は標高がゼロメートルと仮定されており、標高が考慮されていないのでオルソ画像ではない。また、販売品の観測画像は実際の地形や道路などとは一致しない。
(b)観測画像の各ピクセルから合成開口レーダーを搭載した観測衛星までの距離(スラントレンジ)と方位、各観測値の観測時刻または観測衛星の軌道情報に誤差があると、その誤差はそのままオルソ画像の誤差となり、オルソ画像により示される地形、道路、建物などは実際と一致しない。最近の観測衛星(例えば、だいち[ALOS1])や航空機のこれら情報は精度が良いが、90年代あるいはさらに古い観測衛星や航空機の情報は誤差が大きい。例えば、ふよう1号の軌道情報には数100メートルの誤差がある。このため、最近取られた観測画像以外には上記(1)の方法は適さない。
(c)使用する各種情報(例えば、軌道情報)に含まれる誤差を考慮してオルソ補正するためには、観測画像上の数ピクセルに対して正確な位置情報を手動で設定する必要がある。正確な位置情報には、高い精度で予め測量されている地上基準点(GCP:Grand Control Point)の座標値が用いられる。
The method (1) has the following problems.
(A) The observation image is not projected on the map, but the standard observation image sold is projected on the map. Note that the observation image of the product for sale is assumed to have an altitude of zero meters and is not an ortho image because the altitude is not considered. In addition, the observation image of the product for sale does not match the actual topography or road.
(B) If there is an error in the distance (slant range) and orientation from each pixel of the observation image to the observation satellite equipped with the synthetic aperture radar, the observation time of each observation value, or the orbit information of the observation satellite, the error is orthorectified. It becomes an image error, and the terrain, roads, buildings, etc. shown by the ortho image do not match the actual ones. These information on recent observation satellites (for example, DAICHI [ALOS1]) and aircraft have good accuracy, but information on observation satellites and aircraft in the 1990s or older has large errors. For example, the orbit information of Fuyo 1 has an error of several hundred meters. For this reason, the method (1) is not suitable except for recently observed images.
(C) In order to perform ortho correction in consideration of errors included in various types of information to be used (for example, orbit information), it is necessary to manually set accurate position information for several pixels on the observed image. For accurate position information, a coordinate value of a ground control point (GCP) that is measured in advance with high accuracy is used.

上記(2)の方法には以下のような課題がある。
(a)観測画像上の数ピクセルに対して正確な位置情報を手動で設定する必要がある。
(b)正確な位置情報を手動で設定した数ピクセル(GCP)以外は位置がずれる。
The method (2) has the following problems.
(A) It is necessary to manually set accurate position information for several pixels on the observed image.
(B) The position is shifted except for several pixels (GCP) in which accurate position information is manually set.

本発明は、例えば、位置情報を手動で設定するという作業をせずに観測画像をオルソ補正して正確なオルソ画像を作成できるようにすることを目的とする。   An object of the present invention is, for example, to make it possible to create an accurate ortho image by ortho-correcting an observation image without performing an operation of manually setting position information.

本発明の観測画像補正装置は、レーダー観測で取得された観測データに基づいて生成された地表の画像を示す観測画像を記憶機器を用いて記憶する観測画像記憶部と、前記レーダー観測の観測条件に関する情報を示す観測条件情報を記憶機器を用いて記憶する観測条件記憶部と、格子に区切られた地表の各格子点の平面座標と各格子点の標高とを示す標高データを記憶機器を用いて記憶する標高データ記憶部と、前記観測条件記憶部に記憶されている前記観測条件情報と前記標高データ記憶部に記憶されている前記標高データとに基づいてレーダー観測をCPU(Central Processing Unit)を用いて模擬し、模擬したレーダー観測で取得された模擬データに基づいて地表の画像を示す模擬画像を生成する模擬画像生成部と、前記観測画像記憶部に記憶されている前記観測画像を構成する複数の画素と前記模擬画像生成部により生成された前記模擬画像を構成する複数の画素とをCPUを用いて比較し、前記観測画像の画素に対応する前記模擬画像の画素を特定する対応画素特定部と、前記標高データ記憶部に記憶されている前記標高データに基づいて前記模擬画像生成部により生成された前記模擬画像の画素に対応する平面座標を示す模擬画像座標データをCPUを用いて生成する模擬画像座標データ生成部と、前記対応画素特定部により特定された前記観測画像の画素に対応する前記模擬画像の画素と前記模擬画像座標データ生成部により生成された前記模擬画像座標データにより示される前記模擬画像の画素に対応する平面座標とに基づいて前記観測画像の画素に対応する平面座標を示す観測画像座標データをCPUを用いて生成する観測画像座標データ生成部と、前記観測画像記憶部に記憶されている前記観測画像の画素が平面座標に対応する位置に配置された画像を前記観測画像座標データ生成部により生成された前記観測画像座標データに基づいて補正画像としてCPUを用いて生成する補正画像生成部とを備える。   An observation image correction apparatus according to the present invention includes an observation image storage unit that stores an observation image indicating an image of the ground surface generated based on observation data acquired by radar observation using a storage device, and observation conditions for the radar observation. Using the storage device, the observation condition storage unit that stores the observation condition information indicating the information on the plane, and the altitude data indicating the plane coordinates of each grid point on the ground surface and the altitude of each grid point using the storage device A radar processing based on the elevation data storage unit, the observation condition information stored in the observation condition storage unit, and the elevation data stored in the elevation data storage unit, the CPU (Central Processing Unit) Simulation image generation that generates a simulated image showing the surface image based on simulated data acquired by simulated radar observation A plurality of pixels constituting the observation image stored in the observation image storage unit and a plurality of pixels constituting the simulation image generated by the simulation image generation unit using a CPU, The simulated image generated by the simulated image generation unit based on the elevation data stored in the elevation data storage unit and the corresponding pixel identification unit that identifies the pixel of the simulated image corresponding to the pixel of the observation image A simulated image coordinate data generating unit that generates, using a CPU, simulated image coordinate data indicating planar coordinates corresponding to the pixel of the pixel, and a pixel of the simulated image corresponding to the pixel of the observed image specified by the corresponding pixel specifying unit And the plane image corresponding to the pixel of the simulated image indicated by the simulated image coordinate data generated by the simulated image coordinate data generation unit. An observation image coordinate data generation unit that generates, using a CPU, observation image coordinate data indicating a plane coordinate corresponding to the pixel of the pixel, and a position in which the pixel of the observation image stored in the observation image storage unit corresponds to the plane coordinate A correction image generation unit that generates a correction image using a CPU based on the observation image coordinate data generated by the observation image coordinate data generation unit.

前記観測画像補正装置において、前記模擬画像生成部は、標高の高いものをレーダー観測を行った観測レーダー側に倒れ込ませて見せるフォア・ショートニングさせた画像を前記模擬画像として生成する。   In the observed image correction apparatus, the simulated image generating unit generates a fore-shortened image that is caused to fall down on an observation radar side that has performed a radar observation and viewed as a simulated image.

前記観測画像補正装置において、前記模擬画像生成部は、前記観測条件情報に基づいてレーダー観測を行った観測レーダーの3次元座標を算出し、算出した前記観測レーダーの3次元座標と前記標高データにより示される地表の各格子点の平面座標と前記標高データにより示される地表の各格子点の標高とに基づいて前記観測レーダーから地表の各格子点までの距離と前記観測レーダーにより出射された電磁波の成す地表の各格子点における入射角とを算出し、算出した前記入射角に基づいて地表の各格子点からの反射波の強度を算出し、算出した前記距離に対応する画像内での位置にある画素に算出した前記強度に対応する陰影を付けて前記模擬画像を生成する。   In the observation image correction device, the simulated image generation unit calculates three-dimensional coordinates of an observation radar that has performed radar observation based on the observation condition information, and uses the calculated three-dimensional coordinates of the observation radar and the elevation data. The distance from the observation radar to each grid point on the ground surface and the electromagnetic wave emitted by the observation radar based on the plane coordinates of each grid point shown on the ground surface and the elevation of each grid point on the ground surface indicated by the elevation data The incident angle at each lattice point on the ground surface is calculated, the intensity of the reflected wave from each lattice point on the ground surface is calculated based on the calculated incident angle, and the position in the image corresponding to the calculated distance is calculated. The simulated image is generated by adding a shadow corresponding to the calculated intensity to a certain pixel.

前記観測画像補正装置において、前記対応画素特定部は、前記観測画像の2画素に対応する前記模擬画像の2画素を特定し、前記観測画像の前記2画素それぞれの画素位置と前記模擬画像の前記2画素それぞれの画素位置との位置ずれの量に基づいて前記観測画像と前記模擬画像との少なくとも一方をアフィン変換し、アフィン変換後に前記観測画像の画素と同じ画素位置にある前記模擬画像の画素を前記観測画像の前記画素に対応する前記模擬画像の画素として求める。   In the observed image correction device, the corresponding pixel specifying unit specifies two pixels of the simulated image corresponding to two pixels of the observed image, and each pixel position of the two pixels of the observed image and the simulated image A pixel of the simulated image that is at the same pixel position as the pixel of the observed image after affine transformation is obtained by affine transforming at least one of the observed image and the simulated image based on the amount of positional deviation from the pixel position of each of the two pixels As a pixel of the simulated image corresponding to the pixel of the observed image.

前記観測画像補正装置において、前記観測画像が光学センサを用いて撮像した光学画像である。   In the observed image correction apparatus, the observed image is an optical image captured using an optical sensor.

本発明の観測画像補正プログラムは、レーダー観測で取得された観測データに基づいて生成された地表の画像を示す観測画像を記憶機器を用いて記憶する観測画像記憶部と、前記レーダー観測の観測条件に関する情報を示す観測条件情報を記憶機器を用いて記憶する観測条件記憶部と、格子に区切られた地表の各格子点の平面座標と各格子点の標高とを示す標高データを記憶機器を用いて記憶する標高データ記憶部とを用い、模擬画像生成部が、前記観測条件記憶部に記憶されている前記観測条件情報と前記標高データ記憶部に記憶されている前記標高データとに基づいてレーダー観測をCPU(Central Processing Unit)を用いて模擬し、模擬したレーダー観測で取得された模擬データに基づいて地表の画像を示す模擬画像を生成する模擬画像生成処理と、対応画素特定部が、前記観測画像記憶部に記憶されている前記観測画像を構成する複数の画素と前記模擬画像生成部により生成された前記模擬画像を構成する複数の画素とをCPUを用いて比較し、前記観測画像の画素に対応する前記模擬画像の画素を特定する対応画素特定処理と、模擬画像座標データ生成部が、前記標高データ記憶部に記憶されている前記標高データに基づいて前記模擬画像生成部により生成された前記模擬画像の画素に対応する平面座標を示す模擬画像座標データをCPUを用いて生成する模擬画像座標データ生成処理と、観測画像座標データ生成部が、前記対応画素特定部により特定された前記観測画像の画素に対応する前記模擬画像の画素と前記模擬画像座標データ生成部により生成された前記模擬画像座標データにより示される前記模擬画像の画素に対応する平面座標とに基づいて前記観測画像の画素に対応する平面座標を示す観測画像座標データをCPUを用いて生成する観測画像座標データ生成処理と、補正画像生成部が、前記観測画像記憶部に記憶されている前記観測画像の画素が平面座標に対応する位置に配置された画像を前記観測画像座標データ生成部により生成された前記観測画像座標データに基づいて補正画像としてCPUを用いて生成する補正画像生成処理とをコンピュータに実行させる。   The observation image correction program of the present invention includes an observation image storage unit that stores an observation image indicating an image of the ground surface generated based on observation data acquired by radar observation using a storage device, and observation conditions for the radar observation. Using the storage device, the observation condition storage unit that stores the observation condition information indicating the information on the plane, and the altitude data indicating the plane coordinates of each grid point on the ground surface and the altitude of each grid point using the storage device Using the altitude data storage unit stored therein, the simulated image generation unit is configured to detect radar based on the observation condition information stored in the observation condition storage unit and the elevation data stored in the elevation data storage unit. Observation is simulated using a CPU (Central Processing Unit), and an image of the ground surface is shown based on simulated data acquired by simulated radar observation. A simulated image generation process for generating a simulated image, and a corresponding pixel specifying unit that includes a plurality of pixels constituting the observed image stored in the observed image storage unit and the simulated image generated by the simulated image generating unit. A plurality of constituent pixels are compared using a CPU, a corresponding pixel specifying process for specifying a pixel of the simulated image corresponding to a pixel of the observation image, and a simulated image coordinate data generation unit are stored in the elevation data storage unit. Simulated image coordinate data generation processing for generating, using a CPU, simulated image coordinate data indicating plane coordinates corresponding to pixels of the simulated image generated by the simulated image generation unit based on the stored elevation data; The observed image coordinate data generating unit includes the simulated image pixel corresponding to the pixel of the observed image specified by the corresponding pixel specifying unit and the simulated image coordinate data generating unit. Observation that uses the CPU to generate observation image coordinate data indicating the plane coordinates corresponding to the pixels of the observation image based on the plane coordinates corresponding to the pixels of the simulation image indicated by the simulation image coordinate data generated by the CPU The image coordinate data generation process and the corrected image generation unit generate an image in which pixels of the observation image stored in the observation image storage unit are arranged at positions corresponding to plane coordinates by the observation image coordinate data generation unit. Based on the observed image coordinate data, the computer is caused to execute a corrected image generation process that is generated using the CPU as a corrected image.

前記観測画像補正プログラムにおいて、前記模擬画像生成部は、標高の高いものをレーダー観測を行った観測レーダー側に倒れ込ませて見せるフォア・ショートニングさせた画像を前記模擬画像として生成する。   In the observed image correction program, the simulated image generation unit generates, as the simulated image, a fore-shortened image that causes a high altitude to fall down on the observation radar side that performed radar observation.

前記観測画像補正プログラムにおいて、前記模擬画像生成部は、前記観測条件情報に基づいてレーダー観測を行った観測レーダーの3次元座標を算出し、算出した前記観測レーダーの3次元座標と前記標高データにより示される地表の各格子点の平面座標と前記標高データにより示される地表の各格子点の標高とに基づいて前記観測レーダーから地表の各格子点までの距離と前記観測レーダーにより出射された電磁波の成す地表の各格子点における入射角とを算出し、算出した前記入射角に基づいて地表の各格子点からの反射波の強度を算出し、算出した前記距離に対応する画像内での位置にある画素に算出した前記強度に対応する陰影を付けて前記模擬画像を生成する。   In the observation image correction program, the simulated image generation unit calculates three-dimensional coordinates of an observation radar that has performed radar observation based on the observation condition information, and uses the calculated three-dimensional coordinates of the observation radar and the elevation data. The distance from the observation radar to each grid point on the ground surface and the electromagnetic wave emitted by the observation radar based on the plane coordinates of each grid point shown on the ground surface and the elevation of each grid point on the ground surface indicated by the elevation data The incident angle at each lattice point on the ground surface is calculated, the intensity of the reflected wave from each lattice point on the ground surface is calculated based on the calculated incident angle, and the position in the image corresponding to the calculated distance is calculated. The simulated image is generated by adding a shadow corresponding to the calculated intensity to a certain pixel.

前記観測画像補正プログラムにおいて、前記対応画素特定部は、前記観測画像の2画素に対応する前記模擬画像の2画素を特定し、前記観測画像の前記2画素それぞれの画素位置と前記模擬画像の前記2画素それぞれの画素位置との位置ずれの量に基づいて前記観測画像と前記模擬画像との少なくとも一方をアフィン変換し、アフィン変換後に前記観測画像の画素と同じ画素位置にある前記模擬画像の画素を前記観測画像の前記画素に対応する前記模擬画像の画素として求める。   In the observation image correction program, the corresponding pixel specifying unit specifies two pixels of the simulated image corresponding to two pixels of the observation image, and each pixel position of the two pixels of the observation image and the simulation image A pixel of the simulated image that is at the same pixel position as the pixel of the observed image after affine transformation is obtained by affine transforming at least one of the observed image and the simulated image based on the amount of positional deviation from the pixel position of each of the two pixels As a pixel of the simulated image corresponding to the pixel of the observed image.

前記観測画像補正プログラムにおいて、前記観測画像が光学センサを用いて撮像した光学画像である。   In the observed image correction program, the observed image is an optical image captured using an optical sensor.

本発明の観測画像補正方法は、レーダー観測で取得された観測データに基づいて生成された地表の画像を示す観測画像を記憶機器を用いて記憶する観測画像記憶部と、前記レーダー観測の観測条件に関する情報を示す観測条件情報を記憶機器を用いて記憶する観測条件記憶部と、格子に区切られた地表の各格子点の平面座標と各格子点の標高とを示す標高データを記憶機器を用いて記憶する標高データ記憶部とを用い、模擬画像生成部が、前記観測条件記憶部に記憶されている前記観測条件情報と前記標高データ記憶部に記憶されている前記標高データとに基づいてレーダー観測をCPU(Central Processing Unit)を用いて模擬し、模擬したレーダー観測で取得された模擬データに基づいて地表の画像を示す模擬画像を生成する模擬画像生成処理を行い、対応画素特定部が、前記観測画像記憶部に記憶されている前記観測画像を構成する複数の画素と前記模擬画像生成部により生成された前記模擬画像を構成する複数の画素とをCPUを用いて比較し、前記観測画像の画素に対応する前記模擬画像の画素を特定する対応画素特定処理を行い、模擬画像座標データ生成部が、前記標高データ記憶部に記憶されている前記標高データに基づいて前記模擬画像生成部により生成された前記模擬画像の画素に対応する平面座標を示す模擬画像座標データをCPUを用いて生成する模擬画像座標データ生成処理を行い、観測画像座標データ生成部が、前記対応画素特定部により特定された前記観測画像の画素に対応する前記模擬画像の画素と前記模擬画像座標データ生成部により生成された前記模擬画像座標データにより示される前記模擬画像の画素に対応する平面座標とに基づいて前記観測画像の画素に対応する平面座標を示す観測画像座標データをCPUを用いて生成する観測画像座標データ生成処理を行い、補正画像生成部が、前記観測画像記憶部に記憶されている前記観測画像の画素が平面座標に対応する位置に配置された画像を前記観測画像座標データ生成部により生成された前記観測画像座標データに基づいて補正画像としてCPUを用いて生成する補正画像生成処理を行う。   The observation image correction method of the present invention includes an observation image storage unit that stores an observation image indicating an image of the ground surface generated based on observation data acquired by radar observation using a storage device, and observation conditions for the radar observation. Using the storage device, the observation condition storage unit that stores the observation condition information indicating the information on the plane, and the altitude data indicating the plane coordinates of each grid point on the ground surface and the altitude of each grid point using the storage device Using the altitude data storage unit stored therein, the simulated image generation unit is configured to detect radar based on the observation condition information stored in the observation condition storage unit and the elevation data stored in the elevation data storage unit. A simulated image that simulates observation using a CPU (Central Processing Unit) and shows an image of the ground surface based on simulated data acquired by simulated radar observation A simulation image generation process for generating an image is performed, and the corresponding pixel specifying unit generates a plurality of pixels constituting the observation image stored in the observation image storage unit and the simulation image generated by the simulation image generation unit. A plurality of constituent pixels are compared using a CPU, a corresponding pixel specifying process for specifying a pixel of the simulated image corresponding to a pixel of the observed image is performed, and the simulated image coordinate data generation unit is the elevation data storage unit Simulated image coordinate data generation processing for generating simulated image coordinate data indicating plane coordinates corresponding to pixels of the simulated image generated by the simulated image generation unit based on the altitude data stored in the CPU using a CPU. And the observed image coordinate data generating unit includes the simulated image pixel and the simulated image coordinate data corresponding to the pixel of the observed image specified by the corresponding pixel specifying unit. The observed image coordinate data indicating the plane coordinates corresponding to the pixels of the observed image is generated using the CPU based on the plane coordinates corresponding to the pixels of the simulated image indicated by the simulated image coordinate data generated by the generator. The correction image generation unit generates an image in which the pixels of the observation image stored in the observation image storage unit are arranged at positions corresponding to the plane coordinates. Based on the observed image coordinate data generated by the unit, a correction image generation process is performed in which a correction image is generated using a CPU.

本発明によれば、例えば、位置情報を手動で設定するという作業をせずに観測画像をオルソ補正して正確なオルソ画像(補正画像)を作成することができる。   According to the present invention, for example, it is possible to create an accurate ortho image (corrected image) by ortho-correcting an observation image without performing an operation of manually setting position information.

実施の形態1.
まず、レーダー観測、レーダー観測で得られる観測画像191および実施の形態1におけるオルソ補正装置100が観測画像191をオルソ補正(オルソ視補正)して作成するオルソ画像196について説明する。
Embodiment 1 FIG.
First, radar observation, an observation image 191 obtained by radar observation, and an ortho image 196 created by the ortho correction device 100 according to Embodiment 1 by ortho correction (ortho vision correction) of the observation image 191 will be described.

図1、図2および図3は、レーダー観測を示す図である。
図1において、SAR800(Synthetic Aperture Radar:合成開口レーダー)(観測レーダー)を搭載して地上の観測を行う人工衛星や航空機(以下、SAR800という)は、上空から斜め下方に向いたビーム照射方向803にビーム804(電磁波、電波、マイクロ波)を照射(出射)し、地表面823で反射して後方散乱した後方散乱波805を観測する。SAR800の進行方向801は「アジマス方向」と呼ばれ、進行方向801に直交する方向は「レンジ方向802」と呼ばれる。SAR800は、ビーム804を直下方向ではなく進行方向801と直交するレンジ方向802に照射して観測を行うため、サイドルッキングレーダーとも呼ばれる。また、ビーム804を照射するアンテナとビーム804を後方散乱させた地表の物体(以下、地物という)との距離rを「スラントレンジ」という。
1, 2 and 3 are diagrams showing radar observation.
In FIG. 1, an artificial satellite or an aircraft (hereinafter referred to as SAR 800) that carries SAR 800 (Synthetic Aperture Radar: Synthetic Aperture Radar) (observation radar) and observes the ground has a beam irradiation direction 803 directed obliquely downward from above. Is irradiated (emitted) with a beam 804 (electromagnetic wave, radio wave, microwave), and a backscattered wave 805 which is reflected and scattered back by the ground surface 823 is observed. The traveling direction 801 of the SAR 800 is referred to as “azimuth direction”, and the direction orthogonal to the traveling direction 801 is referred to as “range direction 802”. Since the SAR 800 performs observation by irradiating the beam 804 in the range direction 802 orthogonal to the traveling direction 801 instead of directly below, it is also referred to as a side-looking radar. A distance r between an antenna that irradiates the beam 804 and an object on the ground surface (hereinafter referred to as a terrestrial feature) from which the beam 804 is backscattered is referred to as a “slant range”.

図2において、観測画像191は、レーダー観測により得られた観測データに基づいて生成され、進行方向801を縦方向としビーム照射方向803を横方向として地上を表す。但し、観測画像191には、縦横が入れ代わったものや、左右・上下の定義が異なるものもある。図2では、観測画像191は、画像の向きが特定の方位(例えば、北向き)を示すように地図投影がされていない。   In FIG. 2, an observation image 191 is generated based on observation data obtained by radar observation, and represents the ground with the traveling direction 801 as the vertical direction and the beam irradiation direction 803 as the horizontal direction. However, the observed image 191 may include one in which the vertical and horizontal directions are interchanged, and another in which the definition of left and right and up and down is different. In FIG. 2, the observed image 191 is not projected on a map so that the orientation of the image indicates a specific orientation (for example, northward).

観測画像191は、観測された後方散乱波805に対してビーム804の照射から後方散乱波805の観測までの時間に基づいて算出されたスラントレンジrに対応して画素の位置が特定され、特定された画素が後方散乱波805の強度に応じた明度で示されることにより、地上の画像化がなされたものである。
スラントレンジrと画素位置との関係は以下の式1で表される。
In the observed image 191, the position of the pixel is specified corresponding to the slant range r calculated based on the time from the irradiation of the beam 804 to the observation of the backscattered wave 805 with respect to the observed backscattered wave 805. The displayed pixels are displayed with lightness according to the intensity of the backscattered wave 805, and thus the ground image is formed.
The relationship between the slant range r and the pixel position is expressed by Equation 1 below.

r=r+n×(C/fAD)/2 ・・・式1
ここで、
「r」を左端の画素(0、0)、(0、1)、・・・、(0、y)に対応するスラントレンジ、「n」を横方向の画素番号(0、1、・・・、x)、「C」を光速、「fAD」をビーム804(および後方散乱波805)のサンプリング周波数とする。
「C/fAD」はビーム804の往復伝搬時間(ビーム804の伝搬時間+後方散乱波805の伝搬時間)を示し、ビーム804の往復伝搬時間を2で割った片道伝搬時間に基づいてスラントレンジrは求められている。
r = r 0 + n × (C / fAD) / 2 Formula 1
here,
“R 0 ” is the slant range corresponding to the leftmost pixels (0, 0), (0, 1),..., (0, y), and “n” is the horizontal pixel number (0, 1,. X), “C” is the speed of light, and “fAD” is the sampling frequency of the beam 804 (and the backscattered wave 805).
“C / fAD” indicates the round-trip propagation time of the beam 804 (propagation time of the beam 804 + propagation time of the backscattered wave 805). Is sought after.

図3において、山頂(A点)やビルの屋上のように標高の高い地点は標高0mの地表面に比べてスラントレンジrが短くなる。このため、標高の高い地点からの後方散乱波805はSAR800に近い地表面で反射したものとして観測画像191に表される。例えば、山頂(A点)はスラントレンジrの等しい等距離線812上の麓(B点)に位置するかのように観測画像191に表される。
このように、標高の高い地点がSAR800側に倒れ込んで見えることを「フォア・ショートニング」という。
In FIG. 3, the slant range r is shorter at a high altitude such as the summit (point A) or the roof of the building compared to the ground surface at an altitude of 0 m. For this reason, the backscattered wave 805 from a point with a high altitude is represented in the observation image 191 as having reflected on the ground surface near SAR800. For example, the summit (point A) is represented in the observed image 191 as if it is located at the ridge (point B) on the equidistant line 812 of the slant range r.
In this way, it is called “fore shortening” that a high altitude point appears to fall down to the SAR 800 side.

図4は、実施の形態1における観測画像191と稜線813とを示す図である。
図5は、実施の形態1におけるオルソ画像196と稜線813とを示す図である。
図4および図5には、観測画像191およびオルソ画像196に重畳させて正しい稜線813の位置を点線で示している。
図4ではフォア・ショートニングにより観測画像191が稜線813からSAR800側にズレており、図5ではオルソ画像196が稜線813に合っていることが見て取れる。
実施の形態1におけるオルソ補正装置100は、図4に示すようにレーダー観測により得られフォア・ショートニングした観測画像191をオルソ補正して、図5に示すように地上を真上から見て正確に表したオルソ画像196を作成する。
オルソ補正は正射投影を意味し、オルソ画像196は正射投影画像ともいう。
FIG. 4 is a diagram showing the observation image 191 and the ridge line 813 in the first embodiment.
FIG. 5 is a diagram showing an ortho image 196 and a ridge line 813 in the first embodiment.
4 and 5, the position of the correct ridge line 813 is indicated by a dotted line so as to be superimposed on the observation image 191 and the ortho image 196.
In FIG. 4, it can be seen that the observed image 191 is shifted from the ridge line 813 to the SAR 800 side by the foreshortening, and the ortho image 196 is aligned with the ridge line 813 in FIG.
The orthorectification apparatus 100 according to the first embodiment orthorectifies the fore-shortened observation image 191 obtained by radar observation as shown in FIG. 4, and accurately sees the ground from directly above as shown in FIG. The represented ortho image 196 is created.
Orthorectification means orthographic projection, and orthoimage 196 is also called orthographic projection image.

図6は、実施の形態1におけるオルソ補正装置100の機能構成図である。
実施の形態1におけるオルソ補正装置100の機能構成について、図6に基づいて以下に説明する。
FIG. 6 is a functional configuration diagram of the orthorectifying apparatus 100 according to the first embodiment.
A functional configuration of the orthorectifying apparatus 100 according to the first embodiment will be described below with reference to FIG.

オルソ補正装置100(観測画像補正装置)は、模擬画像生成部110、一致点検出部120、緯度・経度リサンプリング部130、オルソ補正部140、模擬画像記憶部170、DEM記憶部180および観測画像記憶部190を備える。   The orthocorrection device 100 (observation image correction device) includes a simulated image generation unit 110, a coincidence point detection unit 120, a latitude / longitude resampling unit 130, an orthocorrection unit 140, a simulated image storage unit 170, a DEM storage unit 180, and an observation image. A storage unit 190 is provided.

観測画像記憶部190(観測条件記憶部)は、レーダー観測で取得された観測データに基づいて生成された地表の画像を示す観測画像191を記憶機器を用いて記憶する。観測画像191には、画像データのほか、レーダー観測の観測条件に関する情報を示す観測条件情報192が含まれる。例えば、観測条件情報192には、SAR800の軌道情報、観測時刻、ビーム照射方向803、地図投影情報(地図投影の有無、地図投影に用いられた図法など)が含まれる。   The observation image storage unit 190 (observation condition storage unit) stores an observation image 191 indicating an image of the ground surface generated based on observation data acquired by radar observation using a storage device. In addition to image data, the observation image 191 includes observation condition information 192 indicating information on observation conditions for radar observation. For example, the observation condition information 192 includes orbit information of the SAR 800, observation time, beam irradiation direction 803, map projection information (presence / absence of map projection, projection used for map projection, etc.).

DEM記憶部180(標高データ記憶部)は、格子に区切られた地表の各格子点の平面座標と各格子点の標高とを示すDEM181(Digital Elevation Model)(標高データ)を記憶機器を用いて記憶する。   The DEM storage unit 180 (elevation data storage unit) uses a storage device to store a DEM 181 (Digital Elevation Model) (elevation data) indicating the plane coordinates of each grid point on the ground surface and the altitude of each grid point partitioned by a grid. Remember.

以下、平面座標は緯度と経度との2次元座標を示すものとする。但し、平面座標は緯度経度座標系以外の座標系で表されても構わない。   Hereinafter, the plane coordinates indicate two-dimensional coordinates of latitude and longitude. However, the plane coordinates may be expressed in a coordinate system other than the latitude / longitude coordinate system.

模擬画像生成部110は、観測画像記憶部190に記憶されている観測条件情報192とDEM記憶部180に記憶されているDEM181とに基づいてレーダー観測をCPU(Central Processing Unit)を用いて模擬し、模擬したレーダー観測で取得された模擬データに基づいて地表の画像を示す模擬強度画像171(模擬画像)を生成する。このとき、模擬画像生成部110は、標高の高いものをレーダー観測を行ったSAR800(観測レーダー)側に倒れ込ませて見せるフォア・ショートニングした画像を模擬強度画像171として生成する。例えば、模擬画像生成部110は、観測条件情報192に基づいてSAR800の3次元座標を算出し、算出したSAR800の3次元座標とDEM181とに基づいてSAR800から地表の各格子点までの距離とSAR800により出射されたビーム804の成す地表の各格子点における入射角とを算出し、算出した入射角に基づいて地表の各格子点からの後方散乱波805(反射波)の強度を算出し、算出した距離に対応する画像内での位置にある画素に算出した強度に対応する陰影を付けて模擬強度画像171を生成する。
さらに、模擬画像生成部110(模擬画像座標データ生成部)は、DEM記憶部180に記憶されているDEM181に基づいて模擬強度画像171の各画素に対応する平面座標を示す模擬画像座標データ172をCPUを用いて生成する。模擬画像座標データ172には模擬強度画像171の各画素に対応する緯度を示す模擬画像緯度データ173と模擬強度画像171の各画素に対応する経度を示す模擬画像経度データ174とが含まれる。
The simulated image generation unit 110 simulates radar observation using a CPU (Central Processing Unit) based on the observation condition information 192 stored in the observation image storage unit 190 and the DEM 181 stored in the DEM storage unit 180. Based on the simulated data acquired by the simulated radar observation, a simulated intensity image 171 (simulated image) indicating the image of the ground surface is generated. At this time, the simulated image generation unit 110 generates, as a simulated intensity image 171, a fore-shortened image that is shown by being brought down to the SAR 800 (observation radar) side where radar observation was performed at a high altitude. For example, the simulated image generation unit 110 calculates the three-dimensional coordinates of the SAR 800 based on the observation condition information 192, and based on the calculated three-dimensional coordinates of the SAR 800 and the DEM 181, the distance from the SAR 800 to each lattice point on the ground surface and the SAR 800. The incident angle at each lattice point on the ground surface formed by the beam 804 emitted by the above is calculated, and based on the calculated incident angle, the intensity of the backscattered wave 805 (reflected wave) from each lattice point on the ground surface is calculated and calculated. A simulated intensity image 171 is generated by adding a shadow corresponding to the calculated intensity to the pixel at the position in the image corresponding to the distance.
Further, the simulated image generation unit 110 (simulated image coordinate data generation unit) generates simulated image coordinate data 172 indicating the plane coordinates corresponding to each pixel of the simulated intensity image 171 based on the DEM 181 stored in the DEM storage unit 180. Generated using CPU. The simulated image coordinate data 172 includes simulated image latitude data 173 indicating the latitude corresponding to each pixel of the simulated intensity image 171 and simulated image longitude data 174 indicating the longitude corresponding to each pixel of the simulated intensity image 171.

模擬画像記憶部170は、模擬画像生成部110により生成された模擬強度画像171と模擬画像座標データ172とを記憶機器を用いて記憶する。   The simulated image storage unit 170 stores the simulated intensity image 171 and the simulated image coordinate data 172 generated by the simulated image generation unit 110 using a storage device.

一致点検出部120(対応画素特定部)は、観測画像記憶部190に記憶されている観測画像191を構成する複数の画素と模擬画像生成部110により生成された模擬強度画像171を構成する複数の画素とをCPUを用いて比較し、観測画像191と模擬強度画像171とで対応する画素を一致点831として特定する。   The coincidence point detecting unit 120 (corresponding pixel specifying unit) includes a plurality of pixels constituting the observed image 191 stored in the observed image storage unit 190 and a plurality of simulated intensity images 171 generated by the simulated image generating unit 110. These pixels are compared using the CPU, and the corresponding pixels in the observed image 191 and the simulated intensity image 171 are specified as the coincidence point 831.

緯度・経度リサンプリング部130(対応画素特定部)は、一致点検出部120により特定された一致点831に基づいて観測画像191の画素に対応する模擬強度画像171の画素をCPUを用いて特定する。例えば、緯度・経度リサンプリング部130は、観測画像191の2画素に対応する模擬強度画像171の2画素を特定し、観測画像191の2画素それぞれの画素位置と模擬強度画像171の2画素それぞれの画素位置との位置ずれの量に基づいて観測画像191と模擬強度画像171との少なくとも一方をアフィン変換し、アフィン変換後に観測画像191の画素と同じ画素位置にある模擬強度画像171の画素を観測画像191の当該画素に対応する模擬強度画像171の画素として求める。
さらに、緯度・経度リサンプリング部130(観測画像座標データ生成部)は、特定した観測画像191の画素に対応する模擬強度画像171の画素と模擬画像生成部110により生成された模擬画像座標データ172とに基づいて観測画像191の各画素に対応する平面座標を示す観測画像座標データ193をCPUを用いて生成する。観測画像座標データ193には観測画像191の各画素に対応する緯度を示す観測画像緯度データ194と観測画像191の各画素に対応する経度を示す観測画像経度データ195とが含まれる。
The latitude / longitude resampling unit 130 (corresponding pixel specifying unit) specifies the pixel of the simulated intensity image 171 corresponding to the pixel of the observation image 191 based on the matching point 831 specified by the matching point detection unit 120 using the CPU. To do. For example, the latitude / longitude resampling unit 130 specifies two pixels of the simulated intensity image 171 corresponding to two pixels of the observed image 191, and each of the two pixel positions of the two pixels of the observed image 191 and each of the two pixels of the simulated intensity image 171. At least one of the observation image 191 and the simulated intensity image 171 is affine-transformed based on the amount of positional deviation from the pixel position of the pixel, and the pixel of the simulated intensity image 171 at the same pixel position as the pixel of the observation image 191 after affine transformation is obtained. It is obtained as a pixel of the simulated intensity image 171 corresponding to the pixel of the observed image 191.
Further, the latitude / longitude resampling unit 130 (observation image coordinate data generation unit) generates simulated image coordinate data 172 generated by the simulated image generation unit 110 and the pixels of the simulated intensity image 171 corresponding to the identified pixels of the observed image 191. Based on the above, observation image coordinate data 193 indicating plane coordinates corresponding to each pixel of the observation image 191 is generated using the CPU. The observation image coordinate data 193 includes observation image latitude data 194 indicating the latitude corresponding to each pixel of the observation image 191 and observation image longitude data 195 indicating the longitude corresponding to each pixel of the observation image 191.

オルソ補正部140(補正画像生成部)は、緯度・経度リサンプリング部130により生成された観測画像座標データ193に基づいて観測画像191の各画素を平面座標に対応する画素位置にCPUを用いて配置してオルソ画像196(補正画像)を生成する。   The ortho correction unit 140 (corrected image generation unit) uses the CPU to set each pixel of the observation image 191 to a pixel position corresponding to the plane coordinate based on the observation image coordinate data 193 generated by the latitude / longitude resampling unit 130. The ortho image 196 (corrected image) is generated by arranging.

図7は、実施の形態1におけるオルソ補正装置100の外観の一例を示す図である。
図7において、オルソ補正装置100は、システムユニット910、CRT(Cathode・Ray・Tube)やLCD(液晶)の表示画面を有する表示装置901、キーボード902(Key・Board:K/B)、マウス903、FDD904(Flexible・Disk・Drive)、CDD905(コンパクトディスク装置)、プリンタ装置906、スキャナ装置907などのハードウェア資源を備え、これらはケーブルや信号線で接続されている。
システムユニット910は、コンピュータであり、ファクシミリ機932、電話器931とケーブルで接続され、また、LAN942(ローカルエリアネットワーク)、ゲートウェイ941を介してインターネット940に接続されている。
FIG. 7 is a diagram illustrating an example of an appearance of the orthorectifying apparatus 100 according to the first embodiment.
In FIG. 7, an orthorectifier 100 includes a system unit 910, a display device 901 having a CRT (Cathode / Ray / Tube) or LCD (liquid crystal) display screen, a keyboard 902 (Key / Board: K / B), and a mouse 903. , FDD904 (Flexible / Disk / Drive), CDD905 (compact disc device), printer device 906, scanner device 907, and the like, which are connected by cables and signal lines.
The system unit 910 is a computer and is connected to the facsimile machine 932 and the telephone 931 with a cable, and is connected to the Internet 940 via a LAN 942 (local area network) and a gateway 941.

図8は、実施の形態1におけるオルソ補正装置100のハードウェア資源の一例を示す図である。
図8において、オルソ補正装置100は、プログラムを実行するCPU911(Central・Processing・Unit、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサともいう)を備えている。CPU911は、バス912を介してROM913、RAM914、通信ボード915、表示装置901、キーボード902、マウス903、FDD904、CDD905、プリンタ装置906、スキャナ装置907、磁気ディスク装置920と接続され、これらのハードウェアデバイスを制御する。磁気ディスク装置920の代わりに、光ディスク装置、メモリカード読み書き装置などの記憶装置でもよい。
RAM914は、揮発性メモリの一例である。ROM913、FDD904、CDD905、磁気ディスク装置920の記憶媒体は、不揮発性メモリの一例である。これらは、記憶機器、記憶装置あるいは記憶部の一例である。また、入力データが記憶されている記憶機器は入力機器、入力装置あるいは入力部の一例であり、出力データが記憶される記憶機器は出力機器、出力装置あるいは出力部の一例である。
通信ボード915、キーボード902、スキャナ装置907、FDD904などは、入力機器、入力装置あるいは入力部の一例である。
また、通信ボード915、表示装置901、プリンタ装置906などは、出力機器、出力装置あるいは出力部の一例である。
FIG. 8 is a diagram illustrating an example of hardware resources of the orthorectifying apparatus 100 according to the first embodiment.
In FIG. 8, the orthorectifying apparatus 100 includes a CPU 911 (also referred to as a central processing unit, a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, or a processor) that executes a program. The CPU 911 is connected to the ROM 913, the RAM 914, the communication board 915, the display device 901, the keyboard 902, the mouse 903, the FDD 904, the CDD 905, the printer device 906, the scanner device 907, and the magnetic disk device 920 via the bus 912, and the hardware. Control the device. Instead of the magnetic disk device 920, a storage device such as an optical disk device or a memory card read / write device may be used.
The RAM 914 is an example of a volatile memory. The storage media of the ROM 913, the FDD 904, the CDD 905, and the magnetic disk device 920 are an example of a nonvolatile memory. These are examples of a storage device, a storage device, or a storage unit. A storage device in which input data is stored is an example of an input device, an input device, or an input unit, and a storage device in which output data is stored is an example of an output device, an output device, or an output unit.
The communication board 915, the keyboard 902, the scanner device 907, the FDD 904, and the like are examples of an input device, an input device, or an input unit.
The communication board 915, the display device 901, the printer device 906, and the like are examples of output devices, output devices, or output units.

通信ボード915は、ファクシミリ機932、電話器931、LAN942等に接続されている。通信ボード915は、LAN942に限らず、インターネット940、ISDN等のWAN(ワイドエリアネットワーク)などに接続されていても構わない。インターネット940或いはISDN等のWANに接続されている場合、ゲートウェイ941は不用となる。   The communication board 915 is connected to the facsimile machine 932, the telephone 931, the LAN 942, and the like. The communication board 915 is not limited to the LAN 942 and may be connected to the Internet 940, a WAN (wide area network) such as ISDN, or the like. When connected to a WAN such as the Internet 940 or ISDN, the gateway 941 is unnecessary.

磁気ディスク装置920には、OS921(オペレーティングシステム)、ウィンドウシステム922、プログラム群923、ファイル群924が記憶されている。プログラム群923のプログラムは、CPU911、OS921、ウィンドウシステム922により実行される。   The magnetic disk device 920 stores an OS 921 (operating system), a window system 922, a program group 923, and a file group 924. The programs in the program group 923 are executed by the CPU 911, the OS 921, and the window system 922.

上記プログラム群923には、実施の形態において「〜部」として説明する機能を実行するプログラムが記憶されている。プログラムは、CPU911により読み出され実行される。   The program group 923 stores a program for executing a function described as “˜unit” in the embodiment. The program is read and executed by the CPU 911.

ファイル群924には、実施の形態において、「〜部」の機能を実行した際の「〜の判定結果」、「〜の計算結果」、「〜の処理結果」などの結果データ、「〜部」の機能を実行するプログラム間で受け渡しするデータ、その他の情報やデータや信号値や変数値やパラメータが、「〜ファイル」や「〜データベース」の各項目として記憶されている。観測画像191、DEM181、模擬強度画像171、模擬画像座標データ172、一致点831、観測画像座標データ193、オルソ画像196などはファイル群924に含まれるものの一例である。観測画像191やDEM181はネットワークを介して通信ボード915で受信されたり、記憶された記憶媒体からFDD904やCDD905などにより読み込まれたりして、キーボード902にファイル群924として記憶される。
「〜ファイル」や「〜データベース」は、ディスクやメモリなどの記録媒体に記憶される。ディスクやメモリなどの記憶媒体に記憶された情報やデータや信号値や変数値やパラメータは、読み書き回路を介してCPU911によりメインメモリやキャッシュメモリに読み出され、抽出・検索・参照・比較・演算・計算・処理・出力・印刷・表示などのCPUの動作に用いられる。抽出・検索・参照・比較・演算・計算・処理・出力・印刷・表示のCPUの動作の間、情報やデータや信号値や変数値やパラメータは、メインメモリやキャッシュメモリやバッファメモリに一時的に記憶される。
また、実施の形態において説明するフローチャートの矢印の部分は主としてデータや信号の入出力を示し、データや信号値は、RAM914のメモリ、FDD904のフレキシブルディスク、CDD905のコンパクトディスク、磁気ディスク装置920の磁気ディスク、その他光ディスク、ミニディスク、DVD(Digital・Versatile・Disc)等の記録媒体に記録される。また、データや信号値は、バス912や信号線やケーブルその他の伝送媒体によりオンライン伝送される。
In the file group 924, in the embodiment, result data such as “determination result”, “calculation result of”, “processing result of” when executing the function of “to part”, “to part” The data to be passed between programs that execute the function “,” other information, data, signal values, variable values, and parameters are stored as items “˜file” and “˜database”. The observed image 191, the DEM 181, the simulated intensity image 171, the simulated image coordinate data 172, the coincidence point 831, the observed image coordinate data 193, the ortho image 196, and the like are examples of what is included in the file group 924. The observation image 191 and the DEM 181 are received by the communication board 915 via the network, or read from the stored storage medium by the FDD 904, the CDD 905, or the like, and stored in the keyboard 902 as the file group 924.
The “˜file” and “˜database” are stored in a recording medium such as a disk or a memory. Information, data, signal values, variable values, and parameters stored in a storage medium such as a disk or memory are read out to the main memory or cache memory by the CPU 911 via a read / write circuit, and extracted, searched, referenced, compared, and calculated. Used for CPU operations such as calculation, processing, output, printing, and display. Information, data, signal values, variable values, and parameters are temporarily stored in the main memory, cache memory, and buffer memory during the CPU operations of extraction, search, reference, comparison, operation, calculation, processing, output, printing, and display. Is remembered.
In addition, arrows in the flowcharts described in the embodiments mainly indicate input / output of data and signals. The data and signal values are the RAM 914 memory, the FDD 904 flexible disk, the CDD 905 compact disk, and the magnetic disk device 920 magnetic field. It is recorded on a recording medium such as a disc, other optical discs, mini discs, DVD (Digital Versatile Disc). Data and signal values are transmitted online via a bus 912, signal lines, cables, or other transmission media.

また、実施の形態において「〜部」として説明するものは、「〜回路」、「〜装置」、「〜機器」であってもよく、また、「〜ステップ」、「〜手順」、「〜処理」であってもよい。すなわち、「〜部」として説明するものは、ROM913に記憶されたファームウェアで実現されていても構わない。或いは、ソフトウェアのみ、或いは、素子・デバイス・基板・配線などのハードウェアのみ、或いは、ソフトウェアとハードウェアとの組み合わせ、さらには、ファームウェアとの組み合わせで実施されても構わない。ファームウェアとソフトウェアは、プログラムとして、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD等の記録媒体に記憶される。プログラムはCPU911により読み出され、CPU911により実行される。すなわち、プログラムは、「〜部」としてコンピュータを機能させるものである。あるいは、「〜部」の手順や方法をコンピュータに実行させるものである。   In addition, what is described as “˜unit” in the embodiment may be “˜circuit”, “˜device”, “˜device”, and “˜step”, “˜procedure”, “˜”. Processing ". That is, what is described as “˜unit” may be realized by firmware stored in the ROM 913. Alternatively, it may be implemented only by software, only hardware such as elements, devices, substrates, wirings, etc., or a combination of software and hardware, and further a combination of firmware. Firmware and software are stored as programs in a recording medium such as a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, and a DVD. The program is read by the CPU 911 and executed by the CPU 911. That is, the program causes the computer to function as “to part”. Alternatively, the procedure or method of “to part” is executed by a computer.

図9は、実施の形態1におけるオルソ補正方法を示すフローチャートである。
実施の形態1におけるオルソ補正装置100が実行するオルソ補正方法(観測画像補正方法)について、図9に基づいて以下に説明する。
オルソ補正装置100の各部は、以下に説明する各処理をCPUを用いて実行する。
FIG. 9 is a flowchart showing an ortho correction method according to the first embodiment.
The ortho correction method (observation image correction method) executed by the ortho correction device 100 according to Embodiment 1 will be described below with reference to FIG.
Each unit of the orthorectifying apparatus 100 executes each process described below using a CPU.

<S110:観測条件情報抽出処理>
まず、模擬画像生成部110は、観測画像191から観測条件情報192を抽出する。
このとき、模擬画像生成部110は観測画像記憶部190から観測画像191を取得し、取得した観測画像191から観測画像191に含まれる観測条件情報192を抽出する。観測条件情報192はSAR800の軌道情報、観測時刻、ビーム照射方向803、地図投影情報(地図投影の有無、地図投影に用いられた図法など)などを含んでいる。
<S110: Observation condition information extraction process>
First, the simulated image generation unit 110 extracts observation condition information 192 from the observation image 191.
At this time, the simulated image generation unit 110 acquires the observation image 191 from the observation image storage unit 190 and extracts observation condition information 192 included in the observation image 191 from the acquired observation image 191. Observation condition information 192 includes orbit information of SAR 800, observation time, beam irradiation direction 803, map projection information (presence / absence of map projection, projection used for map projection, etc.), and the like.

<S120:模擬画像生成処理>
次に、模擬画像生成部110は観測条件情報192とDEM181とに基づいて模擬強度画像171を作成する。
このとき、模擬画像生成部110は、DEM記憶部180からDEM181を取得し、観測条件情報抽出処理(S110)で抽出した観測条件情報192とDEM記憶部180から取得したDEM181とに基づいてレーダー観測をシミュレーションし、シミュレーションしたレーダー観測で取得された模擬データに基づいてフォア・ショートニングした模擬強度画像171を作成する。作成された模擬強度画像171には、SAR800で観測される後方散乱波805の強度に応じた明度(輝度)で陰影が付けられている。模擬画像生成部110は作成した模擬強度画像171を模擬画像記憶部170に記憶する。
<S120: Simulated Image Generation Processing>
Next, the simulated image generation unit 110 creates a simulated intensity image 171 based on the observation condition information 192 and the DEM 181.
At this time, the simulated image generation unit 110 acquires the DEM 181 from the DEM storage unit 180 and performs radar observation based on the observation condition information 192 extracted in the observation condition information extraction process (S110) and the DEM 181 acquired from the DEM storage unit 180. And a fore-shortened simulated intensity image 171 is created based on the simulated data acquired by the simulated radar observation. The created simulated intensity image 171 is shaded with brightness (luminance) corresponding to the intensity of the backscattered wave 805 observed by the SAR 800. The simulated image generation unit 110 stores the created simulated intensity image 171 in the simulated image storage unit 170.

図10は、フォア・ショートニングしていない模擬強度画像179を示し、図11は、実施の形態1におけるフォア・ショートニングした模擬強度画像171を示している。
模擬画像生成部110は、DEM181に基づいて生成される真上から見た場合の模擬強度画像179(図10)をレーダー観測のシミュレーションによりフォア・ショートニングさせ、観測画像191を模擬した模擬強度画像171(図11)を作成する。
図11の模擬強度画像171では標高の高い地点がSAR800側に倒れ込んで見えている。例えば、図11に表示されている山811の山頂は図10に比べてSAR800側に寄って見えている。
また、図11の模擬強度画像171には、SAR800から見て遮蔽されない部分(SAR800で観測される後方散乱波805の強度が強い部分)が明るく見え、SAR800から見て影になる部分(SAR800で観測される後方散乱波805の強度が弱い部分)が暗く見えるように陰影が付けられている。
FIG. 10 shows a simulated intensity image 179 that is not foreshortened, and FIG. 11 shows a simulated intensity image 171 that is foreshortened in the first embodiment.
The simulated image generation unit 110 foreshortens the simulated intensity image 179 (FIG. 10) generated from the DEM 181 when viewed from directly above by a radar observation simulation, and simulates the observed image 191. (FIG. 11) is created.
In the simulated intensity image 171 of FIG. 11, a point at a high altitude is seen falling down to the SAR 800 side. For example, the top of the mountain 811 displayed in FIG. 11 is closer to the SAR 800 side than in FIG.
In addition, in the simulated intensity image 171 of FIG. 11, a portion that is not shielded when viewed from the SAR 800 (a portion where the intensity of the backscattered wave 805 observed by the SAR 800 is strong) appears bright, and a portion that becomes a shadow when viewed from the SAR 800 (the SAR 800 The portion of the observed backscattered wave 805 having a low intensity) is shaded.

図12は、実施の形態1の模擬画像生成処理(S120)を示すフローチャートである。
図13は、実施の形態1の模擬画像生成処理(S120)におけるSAR800の地点Pと観測点Qとの関係図である。
模擬画像生成処理(S120)の詳細について、図12および図13に基づいて以下に説明する。
FIG. 12 is a flowchart showing the simulated image generation process (S120) of the first embodiment.
FIG. 13 is a relationship diagram between the point P and the observation point Q of the SAR 800 in the simulated image generation process (S120) of the first embodiment.
Details of the simulation image generation process (S120) will be described below with reference to FIGS.

<S121:レーダー座標算出処理>
図12において、模擬画像生成部110は、観測条件情報192に含まれるSAR800の軌道情報と観測時刻とに基づいて観測時刻におけるSAR800の位置していた地点Pの3次元座標を算出する。
<S121: Radar coordinate calculation processing>
In FIG. 12, the simulated image generation unit 110 calculates the three-dimensional coordinates of the point P where the SAR 800 was located at the observation time based on the orbit information of the SAR 800 and the observation time included in the observation condition information 192.

<S122:スラントレンジ算出処理>
次に、模擬画像生成部110はDEM記憶部180からDEM181を取得する。DEM181は格子に区切られた地表の各格子点の平面座標(緯度、経度)と各格子点の標高とを示す。つまり、DEM181は地表の各地点の3次元座標(緯度、経度、標高)を示す。そして、模擬画像生成部110は、レーダー座標算出処理(S121)で算出した観測時刻におけるSAR800の位置していた地点Pの3次元座標とDEM記憶部180から取得したDEM181により示される地表の各地点の3次元座標とに基づいて、地表の特定の地点(以下、観測点Qという)に対するスラントレンジrを算出する。図13にSAR800の地点Pと観測点Qとの関係を示す。模擬画像生成部110は、SAR800の地点Pと観測点Qとの距離を、実際のレーダー観測において算出された観測点Qに対するスラントレンジrの推定値として算出する。
<S122: Slant range calculation process>
Next, the simulated image generation unit 110 acquires the DEM 181 from the DEM storage unit 180. The DEM 181 indicates the plane coordinates (latitude and longitude) of each grid point on the ground surface divided by the grid and the altitude of each grid point. That is, the DEM 181 indicates the three-dimensional coordinates (latitude, longitude, altitude) of each point on the ground surface. Then, the simulated image generation unit 110 uses the three-dimensional coordinates of the point P where the SAR 800 was located at the observation time calculated in the radar coordinate calculation process (S121) and each point on the ground surface indicated by the DEM 181 acquired from the DEM storage unit 180. The slant range r for a specific point on the surface of the earth (hereinafter referred to as an observation point Q) is calculated based on the three-dimensional coordinates. FIG. 13 shows the relationship between the point P and the observation point Q of the SAR 800. The simulated image generation unit 110 calculates the distance between the point P and the observation point Q of the SAR 800 as an estimated value of the slant range r with respect to the observation point Q calculated in the actual radar observation.

<S123:画素位置特定処理>
次に、模擬画像生成部110はスラントレンジ算出処理(S122)で算出したスラントレンジrに基づいて観測点Qを表示させる模擬強度画像171の画素(ピクセル)位置を特定する。観測点Qの画素位置は、スラントレンジrが短ければSAR800寄りの地点を表す画素位置となり、スラントレンジrが長いほどSAR800寄りの地点を表わす画素から離れた位置となる。図13において、標高の高い観測点Qには、スラントレンジrの等しい等距離線812上のSAR800寄りの麓の点Q’に対応する画素位置が特定される。
<S123: Pixel position specifying process>
Next, the simulated image generation unit 110 specifies the pixel position of the simulated intensity image 171 for displaying the observation point Q based on the slant range r calculated in the slant range calculation process (S122). The pixel position of the observation point Q is a pixel position that represents a point closer to the SAR 800 if the slant range r is shorter, and is a position that is farther from a pixel that represents a point closer to the SAR 800 as the slant range r is longer. In FIG. 13, the pixel position corresponding to the saddle point Q ′ near the SAR 800 on the equidistant line 812 having the same slant range r is specified for the observation point Q having a high altitude.

<S124:入射角算出処理>
また、模擬画像生成部110は、SAR800の地点Pの3次元座標と観測点Qの3次元座標とに基づいて、実際のレーダー観測においてSAR800により照射されたビーム804の観測点Qにおける入射角θincの推定値を算出する。
図13に示すように、入射角θincはSAR800の地点Pと観測点Qとを結んだ線(SAR800から観測点Qへの視線ベクトル)と法線821との成す角度を示す。また、法線821は観測点Qにおいて地表面に接する接平面822に対して垂直な線を示す。
<S124: Incident angle calculation processing>
In addition, the simulated image generation unit 110 uses the incident angle θ of the beam 804 irradiated by the SAR 800 in the actual radar observation at the observation point Q based on the three-dimensional coordinates of the point P of the SAR 800 and the three-dimensional coordinates of the observation point Q. The estimated value of inc is calculated.
As shown in FIG. 13, the incident angle θ inc represents an angle formed by a line connecting the point P of the SAR 800 and the observation point Q (line-of-sight vector from the SAR 800 to the observation point Q) and the normal line 821. The normal line 821 indicates a line perpendicular to the tangent plane 822 that is in contact with the ground surface at the observation point Q.

<S125:反射波強度算出処理>
次に、模擬画像生成部110は、入射角算出処理(S124)で算出した入射角θincに基づいて、実際のレーダー観測で観測された観測点Qからの後方散乱波805の強度σの推定値を算出する。
<S125: reflected wave intensity calculation processing>
Next, the simulated image generation unit 110 estimates the intensity σ of the backscattered wave 805 from the observation point Q observed in the actual radar observation, based on the incident angle θ inc calculated in the incident angle calculation process (S124). Calculate the value.

後方散乱波805の強度は入射角θincと観測点Qの表面を構成する物質とにより決定される。ここで、地表が概ね一様に土壌などの均一な物質から構成されていると仮定すると、後方散乱波805の強度は入射角θincにより特徴付けられる。様々な物質に対する入射角θincと後方散乱波805の強度との関係についてはいくつかの文献に示されている。例えば、“HANDBOOK OF Radar Scattering Statistics for Terrain”、F.T.Ulaby,and M.C.Dobson、Artech House、1989では、入射角θincと後方散乱波805の強度σとの関係式2が以下のように与えられている。 The intensity of the backscattered wave 805 is determined by the incident angle θ inc and the substance constituting the surface of the observation point Q. Here, assuming that the ground surface is substantially uniformly composed of a uniform material such as soil, the intensity of the backscattered wave 805 is characterized by an incident angle θ inc . The relationship between the incident angle θ inc and the intensity of the backscattered wave 805 for various substances is described in several documents. For example, “HANDBOOK OF Radar Scattering Statistics for Terrain”, F.R. T.A. Ulaby, and M.M. C. In Dobson, Arttech House, 1989, the relational expression 2 between the incident angle θ inc and the intensity σ of the backscattered wave 805 is given as follows.

σ[デシベル]=P1+{P2×exp(−P3×θinc)}+{P4×cos((P5×θinc)+P6)} ・・・式2 σ [decibel] = P1 + {P2 × exp (−P3 × θ inc )} + {P4 × cos ((P5 × θ inc ) + P6)} Equation 2

同文献によると、地表面を構成する物質が土壌や岩(Soil and Rock)の場合における上記式2のパラメータ値は、「P1=−85.984」、「P2=99」、「P3=0.628」、「P4=8.189」、「P5=3.414」、「P6=―3.142」と記されている。   According to the document, the parameter values of the above equation 2 when the material constituting the ground surface is soil and rock (Soil and Rock) are “P1 = −85.984”, “P2 = 99”, “P3 = 0”. .628 ”,“ P4 = 8.189 ”,“ P5 = 3.414 ”, and“ P6 = −3.142 ”.

上記式2において後方散乱波805の強度σに対する入射角θincの寄与は第2項の「exp(−P3×θinc)」で示されており、後方散乱波805の強度σは入射角θincの増加に伴って減少する。すなわち、図13において、観測点Qの接平面822がSAR800側を向いている(入射角θincが小さい)と後方散乱波805の強度σは大きくなり、観測点Qの接平面822がSAR800と反対側を向いている(入射角θincが大きい)と後方散乱波805の強度σは小さくなる。例えば、SAR800から見て山の手前の斜面からの後方散乱波805の強度σは大きく、山の反対側の斜面からの後方散乱波805の強度σは小さい。 In Expression 2, the contribution of the incident angle θ inc to the intensity σ of the backscattered wave 805 is indicated by the second term “exp (−P3 × θ inc )”, and the intensity σ of the backscattered wave 805 is the incident angle θ. Decreases with increasing inc . That is, in FIG. 13, when the tangent plane 822 of the observation point Q faces the SAR 800 side (incident angle θ inc is small), the intensity σ of the backscattered wave 805 increases, and the tangent plane 822 of the observation point Q becomes SAR 800. When facing the opposite side (incident angle θinc is large), the intensity σ of the backscattered wave 805 becomes small. For example, the intensity σ of the backscattered wave 805 from the slope before the mountain as viewed from the SAR 800 is large, and the intensity σ of the backscattered wave 805 from the slope on the opposite side of the mountain is small.

レーダー座標算出処理(S121)〜反射波強度算出処理(S125)において、模擬画像生成部110は、観測画像191が表す地表面より広い範囲を対象とし、対象範囲内の各地点それぞれを観測点Qとして、各観測点Qに対応する画素位置と後方散乱波805の強度σとを算出する。   In the radar coordinate calculation process (S121) to the reflected wave intensity calculation process (S125), the simulated image generation unit 110 targets a range wider than the ground surface represented by the observation image 191 and sets each point in the target range as the observation point Q. As described above, the pixel position corresponding to each observation point Q and the intensity σ of the backscattered wave 805 are calculated.

<S126:模擬強度画像作成処理>
そして、模擬画像生成部110は、画素位置特定処理(S123)で特定した画素を反射波強度算出処理(S125)で算出した後方散乱波805の強度σに応じた明度(輝度)で表わして模擬強度画像171を作成する。このとき、模擬画像生成部110は後方散乱波805の強度σが強いほど明度を明るくし、後方散乱波805の強度σが弱いほど明度を暗くする。
<S126: Simulated Strength Image Creation Processing>
Then, the simulated image generation unit 110 simulates the pixel specified by the pixel position specifying process (S123) with brightness (luminance) corresponding to the intensity σ of the backscattered wave 805 calculated by the reflected wave intensity calculation process (S125). An intensity image 171 is created. At this time, the simulated image generation unit 110 brightens the lightness as the intensity σ of the backscattered wave 805 increases, and darkens the lightness as the intensity σ of the backscattered wave 805 decreases.

図14は、実施の形態1における観測画像191と模擬強度画像171とを示す図である。
上記の模擬画像生成処理(S120)により、模擬画像生成部110は、図14に示すように一見あたかも実際の観測画像191かのような模擬強度画像171を作成することができる。
FIG. 14 is a diagram showing an observation image 191 and a simulated intensity image 171 in the first embodiment.
Through the simulated image generation process (S120), the simulated image generation unit 110 can create a simulated intensity image 171 as if it were an actual observation image 191 as shown in FIG.

また、模擬画像生成部110は、上記の反射波強度算出処理(S125)によらず、海部分の後方散乱波805の強度σを「0」としてもよい。これは、海面では鏡面反射によりビーム804のほとんどがSAR800と反対側に散乱してしまうため、SAR800で観測される後方散乱波805の強度σがほぼ「0」となるためである。なお、国土地理院刊行のDEM181には海の部分に対して特定値(−999)が設定されているため、陸と海との判別は容易である。   Further, the simulated image generation unit 110 may set the intensity σ of the backscattered wave 805 in the sea portion to “0” regardless of the reflected wave intensity calculation process (S125). This is because most of the beam 804 is scattered on the opposite side of the SAR 800 due to specular reflection at the sea surface, and the intensity σ of the backscattered wave 805 observed by the SAR 800 is almost “0”. The DEM 181 published by the Geospatial Information Authority of Japan sets a specific value (−999) for the sea portion, so that discrimination between land and sea is easy.

図9に戻り、オルソ補正方法の模擬画像座標データ生成処理(S130)以降の処理について説明する。   Returning to FIG. 9, the processing after the simulated image coordinate data generation processing (S130) of the ortho correction method will be described.

<S130:模擬画像座標データ生成処理>
模擬画像生成部110は模擬強度画像171に対応する模擬画像座標データ172を作成する。模擬画像生成部110は作成した模擬画像座標データ172を模擬画像記憶部170に記憶する。
<S130: Simulated Image Coordinate Data Generation Processing>
The simulated image generation unit 110 creates simulated image coordinate data 172 corresponding to the simulated intensity image 171. The simulated image generation unit 110 stores the created simulated image coordinate data 172 in the simulated image storage unit 170.

図15は、実施の形態1におけるレーダー観測と模擬強度画像171との関係図である。
図16は、実施の形態1における模擬強度画像171と模擬画像座標データ172の概念図とを示している。
模擬画像座標データ生成処理(S130)において模擬画像生成部110が作成する模擬画像座標データ172について、図15および図16に基づいて以下に説明する。
FIG. 15 is a relationship diagram between the radar observation and the simulated intensity image 171 in the first embodiment.
FIG. 16 shows a simulated intensity image 171 and a conceptual diagram of simulated image coordinate data 172 in the first embodiment.
The simulated image coordinate data 172 created by the simulated image generation unit 110 in the simulated image coordinate data generation process (S130) will be described below with reference to FIGS.

図15において、左図においてSAR800の地点Pからの距離をそれぞれR1、R2およびR3(R1<R2<R3)とする観測点Q1、Q2およびQ3は、模擬強度画像171上の画素Q1、Q2およびQ3に対応している。模擬強度画像171は上述のとおりDEM181に基づいて作成されているため、模擬強度画像171上の各画素(例えば、Q1、Q2、Q3)は平面座標(緯度、経度)が既知である。
したがって、模擬画像生成部110は模擬強度画像171の各画素に対応する平面座標を示す模擬画像座標データ172をDEM181に基づいて作成することができる。
In FIG. 15, observation points Q1, Q2 and Q3 having distances from the point P of the SAR 800 as R1, R2 and R3 (R1 <R2 <R3) in the left diagram are pixels Q1, Q2 and Q2 on the simulated intensity image 171, respectively. Corresponds to Q3. Since the simulated intensity image 171 is created based on the DEM 181 as described above, each pixel (eg, Q1, Q2, Q3) on the simulated intensity image 171 has known plane coordinates (latitude, longitude).
Therefore, the simulated image generation unit 110 can create simulated image coordinate data 172 indicating the plane coordinates corresponding to each pixel of the simulated intensity image 171 based on the DEM 181.

例えば、模擬画像生成部110は模擬強度画像171の各画素に対応させて2次元配列を生成し、2次元配列に各画素に対応する平面座標を設定して模擬画像座標データ172を作成する。以下、「緯度」の設定された2次元配列を模擬画像緯度データ173、「経度」の設定された2次元配列を模擬画像経度データ174とする。   For example, the simulated image generation unit 110 generates a two-dimensional array corresponding to each pixel of the simulated intensity image 171, sets the plane coordinates corresponding to each pixel in the two-dimensional array, and generates simulated image coordinate data 172. Hereinafter, the two-dimensional array in which “latitude” is set is referred to as simulated image latitude data 173, and the two-dimensional array in which “longitude” is set is referred to as simulated image longitude data 174.

図16において、模擬強度画像171の画素位置(a、b)に対応する緯度と経度はそれぞれ模擬画像緯度データ173の2次元配列の要素(a,b)と模擬画像経度データ174の2次元配列の要素(a,b)により示される。
図16では、模擬画像緯度データ173の2次元配列の各要素を2次元平面上に展開し、緯度の等しい要素を結んだ等緯度線173a(緯線)を模擬画像緯度データ173の概念図として示している。また、図16では、模擬画像経度データ174の2次元配列の各要素を2次元平面上に展開し、経度の等しい要素を結んだ等経度線174a(子午線、経線)を模擬画像経度データ174の概念図として示している。
模擬画像緯度データ173のQ1、Q2およびQ3は模擬強度画像171のQ1、Q2およびQ3の緯度を示し、模擬画像経度データ174のQ1、Q2およびQ3は模擬強度画像171のQ1、Q2およびQ3の経度を示している。模擬強度画像171において山頂を表しているQ2はフォア・ショートニングにより実際よりSAR800寄りに表示されているため、模擬画像経度データ174の等経度線174aを歪曲させている。
In FIG. 16, the latitude and longitude corresponding to the pixel position (a, b) of the simulated intensity image 171 are the two-dimensional array element (a, b) of the simulated image latitude data 173 and the two-dimensional array of simulated image longitude data 174, respectively. Are indicated by elements (a, b).
In FIG. 16, each element of the two-dimensional array of the simulated image latitude data 173 is expanded on a two-dimensional plane, and an equal latitude line 173 a (lattice line) connecting elements having the same latitude is shown as a conceptual diagram of the simulated image latitude data 173. ing. Further, in FIG. 16, each element of the two-dimensional array of the simulated image longitude data 174 is expanded on a two-dimensional plane, and an equi-longitude line 174 a (meridian line, meridian) connecting elements having the same longitude is displayed in the simulated image longitude data 174. It is shown as a conceptual diagram.
Q1, Q2 and Q3 of the simulated image latitude data 173 indicate the latitudes of Q1, Q2 and Q3 of the simulated intensity image 171. Q1, Q2 and Q3 of the simulated image longitude data 174 are Q1, Q2 and Q3 of the simulated intensity image 171. Indicates longitude. In the simulated intensity image 171, Q2 representing the peak is displayed closer to the SAR 800 than the actual due to foreshortening, and therefore, the equilongitude line 174a of the simulated image longitude data 174 is distorted.

図9に戻り、オルソ補正方法の地図投影処理(S140)以降の処理について説明する。   Returning to FIG. 9, the processing after the map projection processing (S140) of the ortho correction method will be described.

<S140:地図投影処理>
模擬画像生成部110は観測画像191に合わせて模擬強度画像171を地図投影する。
このとき、模擬画像生成部110は観測条件情報192に含まれている地図投影情報に基づいて観測画像191が地図投影されているか否かを判定する。地図投影情報には地図投影の有無や地図投影図法などが示されている。
観測画像191が地図投影されていると判定した場合、模擬画像生成部110は模擬画像生成処理(S120)で生成した模擬強度画像171を観測画像191と同じ図法で地図投影する。地図投影とは例えば、画像の向きを特定の方角(例えば、北)に向けて配置することであり、図法には例えば、メルカトル図法、ミラー図法、サンソン図法、モルワイデ図法などがある。
観測画像191が地図投影されていないと判定した場合、模擬画像生成部110は模擬強度画像171を地図投影せずに地図投影処理(S140)を終了する。
<S140: Map projection processing>
The simulated image generation unit 110 projects the simulated intensity image 171 on the map according to the observed image 191.
At this time, the simulated image generation unit 110 determines whether or not the observation image 191 is projected on the map based on the map projection information included in the observation condition information 192. The map projection information indicates the presence / absence of map projection, map projection, and the like.
When it is determined that the observation image 191 is projected on the map, the simulated image generation unit 110 projects the simulated intensity image 171 generated in the simulated image generation process (S120) using the same projection as that of the observation image 191. Map projection is, for example, placing an image in a specific direction (for example, north). Examples of projections include Mercator projection, Mirror projection, Sanson projection, and Morweide projection.
When it is determined that the observation image 191 is not projected on the map, the simulated image generation unit 110 ends the map projection process (S140) without projecting the simulated intensity image 171 on the map.

<S150:一致点検出処理>
一致点検出部120は観測画像191と模擬強度画像171との一致点831を検出する。
このとき、一致点検出部120は観測画像記憶部190から観測画像191を取得すると共に模擬画像記憶部170から模擬強度画像171を取得し、観測画像191と模擬強度画像171とをイメージマッチングして観測画像191と模擬強度画像171との一致点831(タイポイントともいう)を2点以上検出する。但し、一致点検出部120が検出する一致点831は後述するように1点であっても構わない。例えば、一致点検出部120は、観測画像191の各画素の明度と模擬強度画像171の各画素の明度とを面積相関法(イメージマッチングの一例)で比較して観測画像191と模擬強度画像171との一致点831を検出する。
<S150: Matching point detection process>
The coincidence point detection unit 120 detects a coincidence point 831 between the observed image 191 and the simulated intensity image 171.
At this time, the coincidence point detection unit 120 acquires the observation image 191 from the observation image storage unit 190 and also acquires the simulation intensity image 171 from the simulation image storage unit 170, and performs image matching between the observation image 191 and the simulation intensity image 171. Two or more coincidence points 831 (also referred to as tie points) between the observed image 191 and the simulated intensity image 171 are detected. However, the coincidence point 831 detected by the coincidence point detection unit 120 may be one point as described later. For example, the coincidence point detection unit 120 compares the brightness of each pixel of the observed image 191 with the brightness of each pixel of the simulated intensity image 171 by an area correlation method (an example of image matching), and compares the observed image 191 and the simulated intensity image 171. A matching point 831 is detected.

図17は、実施の形態1における一致点831の検出結果を示す図である。
例えば、図14に示した観測画像191と模擬強度画像171とを面積相関法で比較した結果として、図17の観測画像191において×印で示されている画素が一致点831として検出された画素である。
FIG. 17 is a diagram illustrating a detection result of the coincidence point 831 in the first embodiment.
For example, as a result of comparing the observed image 191 shown in FIG. 14 and the simulated intensity image 171 by the area correlation method, the pixels indicated by the crosses in the observed image 191 in FIG. It is.

<S160:対応画素特定処理>
緯度・経度リサンプリング部130は一致点831に基づいて観測画像191を模擬強度画像171に重ねるようにアフィン変換し、観測画像191の画素に対応する模擬強度画像171の画素を特定する。アフィン変換は平行移動、回転移動を意味する。
<S160: Corresponding Pixel Identification Process>
The latitude / longitude resampling unit 130 affine-transforms the observed image 191 so as to overlap the simulated intensity image 171 based on the coincidence point 831, and specifies the pixel of the simulated intensity image 171 corresponding to the pixel of the observed image 191. Affine transformation means translation and rotation.

このとき、緯度・経度リサンプリング部130は一致点検出処理(S150)で検出された観測画像191の一致点831と模擬強度画像171の一致点831との画素位置のずれ量を観測画像191と模擬強度画像171のずれ量として算出する。模擬強度画像171は観測条件情報192に基づいて作成されているが、観測条件情報192の誤差(例えば、軌道情報の誤差)やSAR800の観測誤差などの影響により、模擬強度画像171と観測画像191との間にはズレが生じる。そのため、緯度・経度リサンプリング部130は観測画像191と模擬強度画像171とのずれ量を算出する。ここで、一致点831が最低1点検出されていれば観測画像191と模擬強度画像171との平行方向(縦方向および横方向)のずれ量が特定できる。したがって、一致点検出処理(S150)で検出する一致点831は1点であっても構わない。また、一致点831が最低2点検出されていれば観測画像191と模擬強度画像171との平行方向および回転方向のずれ量が特定できる。複数の一致点831それぞれで観測画像191と模擬強度画像171とのずれ量が異なる場合、緯度・経度リサンプリング部130は各一致点831におけるずれ量に対して最小二乗法を行って観測画像191と模擬強度画像171とのずれ量を特定する。
次に、緯度・経度リサンプリング部130は特定したずれ量に応じて観測画像191をアフィン変換して観測画像191の一致点831を模擬強度画像171の一致点831に重ねる。但し、模擬強度画像171をアフィン変換して観測画像191と模擬強度画像171とを重ね合わせてもよいし、観測画像191と模擬強度画像171との両方をアフィン変換して観測画像191と模擬強度画像171とを重ね合わせてもよい。アフィン変換の係数は観測画像191と模擬強度画像171とのずれ量に応じて定まる。
そして、緯度・経度リサンプリング部130は観測画像191の画素に重なる模擬強度画像171の画素を観測画像191の画素に対応する模擬強度画像171の画素として特定する。
At this time, the latitude / longitude resampling unit 130 calculates the amount of deviation of the pixel position between the coincidence point 831 of the observation image 191 and the coincidence point 831 of the simulated intensity image 171 detected in the coincidence point detection process (S150) with the observation image 191. This is calculated as a deviation amount of the simulated intensity image 171. Although the simulated intensity image 171 is created based on the observation condition information 192, the simulated intensity image 171 and the observed image 191 are affected by an error of the observation condition information 192 (for example, an error of orbit information), an observation error of the SAR 800, and the like. There is a gap between the two. Therefore, the latitude / longitude resampling unit 130 calculates the amount of deviation between the observed image 191 and the simulated intensity image 171. Here, if at least one coincidence point 831 is detected, the shift amount in the parallel direction (vertical direction and horizontal direction) between the observed image 191 and the simulated intensity image 171 can be specified. Accordingly, the matching point 831 detected in the matching point detection process (S150) may be one point. If at least two coincidence points 831 are detected, it is possible to specify the amount of deviation between the observed image 191 and the simulated intensity image 171 in the parallel direction and the rotational direction. When the amount of deviation between the observed image 191 and the simulated intensity image 171 is different at each of the plurality of coincidence points 831, the latitude / longitude resampling unit 130 performs the least square method on the amount of deviation at each coincidence point 831, thereby observing the observed image 191. And the simulated intensity image 171 are specified.
Next, the latitude / longitude resampling unit 130 affine-transforms the observation image 191 according to the specified shift amount, and superimposes the coincidence point 831 of the observation image 191 on the coincidence point 831 of the simulated intensity image 171. However, the simulated intensity image 171 may be affine transformed to superimpose the observed image 191 and the simulated intensity image 171, or both the observed image 191 and the simulated intensity image 171 may be affine transformed to observe the observed image 191 and the simulated intensity. The image 171 may be superimposed. The coefficient of affine transformation is determined according to the amount of deviation between the observed image 191 and the simulated intensity image 171.
Then, the latitude / longitude resampling unit 130 identifies the pixel of the simulated intensity image 171 that overlaps the pixel of the observed image 191 as the pixel of the simulated intensity image 171 corresponding to the pixel of the observed image 191.

<S170:観測画像座標データ生成処理>
緯度・経度リサンプリング部130は観測画像191の各画素に対応する平面座標を模擬画像座標データ172から取得し、観測画像座標データ193を作成する。観測画像座標データ193には観測画像191の各画素に対応する緯度を示す観測画像緯度データ194と観測画像191の各画素に対応する経度を示す観測画像経度データ195とが含まれる。観測画像緯度データ194は、模擬画像緯度データ173と同様に、観測画像191の各画素に対応した2次元配列の各要素に「緯度」が設定されたものである。また、観測画像経度データ195は、模擬画像経度データ174と同様に、観測画像191の各画素に対応した2次元配列の各要素に「経度」が設定されたものである。観測画像座標データ193の作成を観測画像191の緯度・経度情報のリサンプリングという。
<S170: Observation Image Coordinate Data Generation Processing>
The latitude / longitude resampling unit 130 acquires the plane coordinates corresponding to each pixel of the observed image 191 from the simulated image coordinate data 172, and creates the observed image coordinate data 193. The observation image coordinate data 193 includes observation image latitude data 194 indicating the latitude corresponding to each pixel of the observation image 191 and observation image longitude data 195 indicating the longitude corresponding to each pixel of the observation image 191. Similar to the simulated image latitude data 173, the observed image latitude data 194 is obtained by setting “latitude” to each element of the two-dimensional array corresponding to each pixel of the observed image 191. Similarly to the simulated image longitude data 174, the observed image longitude data 195 is obtained by setting “longitude” in each element of the two-dimensional array corresponding to each pixel of the observed image 191. Creation of the observation image coordinate data 193 is referred to as resampling of latitude / longitude information of the observation image 191.

図18は、実施の形態1における模擬強度画像171と観測画像191との関係図および模擬画像座標データ172と観測画像座標データ193との関係図である。
図18において、上図は対応画素特定処理(S160)でアフィン変換され模擬強度画像171に重なり合った観測画像191の枠線を示している。また、左下図は観測画素座標データ生成処理(S170)で作成される観測画像緯度データ194の概念図を示し、右下図は観測画像座標データ生成処理(S170)で作成される観測画像経度データ195の概念図を示している。
FIG. 18 is a relationship diagram between the simulated intensity image 171 and the observed image 191 and a relationship diagram between the simulated image coordinate data 172 and the observed image coordinate data 193 in the first embodiment.
In FIG. 18, the upper diagram shows a frame line of the observation image 191 that is affine-transformed by the corresponding pixel specifying process (S160) and overlaps the simulated intensity image 171. The lower left diagram shows a conceptual diagram of the observed image latitude data 194 created in the observed pixel coordinate data generation process (S170), and the lower right diagram shows the observed image longitude data 195 created in the observed image coordinate data generation process (S170). The conceptual diagram of is shown.

図18において、例えば、模擬強度画像171の画素(x1、y1)と観測画像191の画素(0、0)とが対応している場合、緯度・経度リサンプリング部130は模擬画像緯度データ173の(x1、y1)番目の要素を観測画像緯度データ194の(0、0)番目の要素に設定し、模擬画像経度データ174の(x1、y1)番目の要素を観測画像経度データ195の(0、0)番目の要素に設定する。   In FIG. 18, for example, when the pixel (x1, y1) of the simulated intensity image 171 corresponds to the pixel (0, 0) of the observed image 191, the latitude / longitude resampling unit 130 stores the simulated image latitude data 173. The (x1, y1) th element is set as the (0, 0) th element of the observed image latitude data 194, and the (x1, y1) th element of the simulated image longitude data 174 is set to (0 , 0) set to the element.

図9に戻り、オルソ補正方法の補正画像生成処理(S180)について説明する。   Returning to FIG. 9, the correction image generation processing (S180) of the ortho correction method will be described.

<S180:補正画像生成処理>
オルソ補正部140は観測画像座標データ193に基づいて観測画像191をオルソ補正(オルソ視補正)し、オルソ画像196を作成する。
このとき、オルソ補正部140は観測画像191(例えば、図4)の各画素を観測画像座標データ193の示す平面座標に対応する画素位置に配置し直して観測画像191が真上から見た画像を示すようにオルソ補正する。そして、オルソ補正部140はオルソ補正した観測画像191をオルソ画像196(例えば、図5)として記憶機器に記憶したり、プリンタ装置906を用いて印刷したりする。観測画像191の各画素の配置し直しを観測画像191のリサンプリングという。観測画像191の各画素をリサンプリングした場合、フォア・ショートニングの影響により、オルソ画像196には観測画像191の画素が配置されない空白の画素が生じる。そこで、オルソ補正部140は、オルソ画像196の空白の画素を周囲の画素に基づいて補間する。例えば、オルソ補正部140は、線形補間、多項式補間、キュービック・コンボリューション、バイリニア法(双一次線形法)などを補間方法として用いる。
<S180: Corrected Image Generation Processing>
The ortho correction unit 140 performs ortho correction (ortho vision correction) on the observation image 191 based on the observation image coordinate data 193 to create an ortho image 196.
At this time, the orthocorrection unit 140 rearranges each pixel of the observation image 191 (for example, FIG. 4) at a pixel position corresponding to the plane coordinate indicated by the observation image coordinate data 193, and the observation image 191 is viewed from directly above. Orthorectify as shown. Then, the orthocorrection unit 140 stores the orthocorrected observation image 191 in the storage device as an orthoimage 196 (for example, FIG. 5) or prints it using the printer device 906. The rearrangement of each pixel of the observation image 191 is referred to as resampling of the observation image 191. When each pixel of the observation image 191 is resampled, blank pixels in which the pixels of the observation image 191 are not arranged are generated in the ortho image 196 due to the influence of foreshortening. Therefore, the ortho correction unit 140 interpolates blank pixels of the ortho image 196 based on surrounding pixels. For example, the ortho correction unit 140 uses linear interpolation, polynomial interpolation, cubic convolution, bilinear method (bilinear method), or the like as an interpolation method.

実施の形態1におけるオルソ補正方法は、レーダー観測により得られたレーダー画像(例えば、SAR画像)に対して最適な方法である。但し、実施の形態1におけるオルソ補正方法はレーダー画像以外の観測画像にも有効である。カメラのような光学センサで撮像した光学画像(観測画像の一例)にも有効である。光学センサは地表で反射した光(例えば、太陽光)を観測するものである。光学画像は地表の構成物(土、植物など)による影響が大きいため、入射角や太陽角の情報だけでは模擬強度画像171を観測画像191に良く似せて作成することは難しい。ただし、荒野や、砂漠、月、惑星などのように、構成物をほぼ1種類とみなすことができる地表部分であれば、模擬強度画像171を観測画像191に十分に似せて作成することができる。このため、実施の形態1におけるオルソ補正は、光学その他のセンサで撮像した観測画像に対しても適用可能である。   The ortho correction method according to the first embodiment is an optimum method for a radar image (for example, a SAR image) obtained by radar observation. However, the ortho correction method in the first embodiment is also effective for observation images other than radar images. It is also effective for an optical image (an example of an observation image) captured by an optical sensor such as a camera. The optical sensor observes light (for example, sunlight) reflected from the ground surface. Since the optical image is greatly influenced by the constituents of the ground (such as soil and plants), it is difficult to create a simulated intensity image 171 that closely resembles the observed image 191 with only the incident angle and sun angle information. However, the simulated intensity image 171 can be made to resemble the observation image 191 sufficiently if it is a ground surface portion that can be regarded as almost one type of component such as a wilderness, desert, moon, or planet. . For this reason, the ortho correction in Embodiment 1 is applicable also to the observation image imaged with the optical and other sensors.

実施の形態1では、以下のような手順で観測画像をオルソ補正するオルソ補正装置100について説明した。
<手順1>入力画像(観測画像191)から軌道情報、観測開始時刻(画像先頭ラインに対応する時刻)、地図投影情報(投影の有無、図法など)を抽出する。
<手順2>DEMと軌道情報とを用いて模擬強度画像171及び模擬強度画像171の各ピクセルに対応した緯度情報(模擬画像緯度データ173)と経度情報(模擬画像経度データ174)とを作成する。
<手順3>観測画像191が地図投影されているのであれば、観測画像191に合わせて模擬強度画像171を地図投影する。
<手順4>模擬強度画像171と観測画像191との位置ズレを計測する(イメージマッチングにより一致する点を自動的に計測)。
<手順5>計測して求めたズレ量をもとに、観測画像191の各ピクセルに対応した緯度情報(観測画像緯度データ194)と経度情報(観測画像経度データ195)とを作成する(緯度情報および経度情報のリサンプリング)。
<手順6>リサンプリングして得た緯度情報と経度情報とをもとに、観測画像191をオルソ補正する(観測画像191のリサンプリング)。
In the first embodiment, the orthorectifying apparatus 100 that orthorectifies an observation image in the following procedure has been described.
<Procedure 1> Extract trajectory information, observation start time (time corresponding to the head line of the image), and map projection information (presence of projection, projection, etc.) from the input image (observation image 191).
<Procedure 2> Latitude information (simulated image latitude data 173) and longitude information (simulated image longitude data 174) corresponding to each pixel of the simulated intensity image 171 and the simulated intensity image 171 are created using the DEM and the trajectory information. .
<Procedure 3> If the observed image 191 is projected on a map, the simulated intensity image 171 is projected on the map in accordance with the observed image 191.
<Procedure 4> The positional deviation between the simulated intensity image 171 and the observed image 191 is measured (a point that matches by image matching is automatically measured).
<Procedure 5> Latitude information (observation image latitude data 194) and longitude information (observation image longitude data 195) corresponding to each pixel of the observation image 191 are created based on the amount of deviation obtained by measurement (latitude). Information and longitude information resampling).
<Procedure 6> Based on the latitude information and longitude information obtained by resampling, the observation image 191 is orthorectified (resampling of the observation image 191).

実施の形態1で説明したオルソ補正装置100は、例えば、以下のような効果を奏する。
(1)位置情報(GCP)を手動で設定するという作業をせずに観測画像191をオルソ補正して正確なオルソ画像196を作成することができる。つまり、オルソ画像196の作成を自動化できる。
(2)観測条件情報192(例えば、軌道情報)に高い精度が要求されないため、過去に取得された観測画像191を活用してオルソ画像196を作成することができる。これにより、例えば、過去の地形と現在の地形とをより正確に比較することができる。
(3)観測画像191は地図投影がされていてもいなくても構わないため、地図投影されている標準的な販売品を用いて正確なオルソ画像196を得ることができる。
The orthorectifying apparatus 100 described in the first embodiment has the following effects, for example.
(1) It is possible to create an accurate ortho image 196 by ortho-correcting the observed image 191 without manually setting the position information (GCP). That is, creation of the ortho image 196 can be automated.
(2) Since the observation condition information 192 (for example, orbit information) does not require high accuracy, the ortho image 196 can be created using the observation image 191 acquired in the past. Thereby, for example, the past terrain and the current terrain can be compared more accurately.
(3) Since the observation image 191 may or may not be projected on a map, an accurate ortho image 196 can be obtained using a standard product that is projected on a map.

レーダー観測を示す図。The figure which shows radar observation. レーダー観測を示す図。The figure which shows radar observation. レーダー観測を示す図。The figure which shows radar observation. 実施の形態1における観測画像191と稜線813とを示す図。FIG. 5 shows an observation image 191 and a ridge line 813 according to Embodiment 1. 実施の形態1におけるオルソ画像196と稜線813とを示す図。FIG. 6 shows an ortho image 196 and a ridge line 813 according to Embodiment 1. 実施の形態1におけるオルソ補正装置100の機能構成図。FIG. 3 is a functional configuration diagram of the orthorectifying apparatus 100 according to the first embodiment. 実施の形態1におけるオルソ補正装置100の外観の一例を示す図。FIG. 3 is a diagram illustrating an example of an appearance of an orthorectifying apparatus 100 according to the first embodiment. 実施の形態1におけるオルソ補正装置100のハードウェア資源の一例を示す図。FIG. 3 is a diagram illustrating an example of hardware resources of the orthorectifying apparatus 100 according to the first embodiment. 実施の形態1におけるオルソ補正方法を示すフローチャート。3 is a flowchart showing an ortho correction method according to the first embodiment. フォア・ショートニングしていない模擬強度画像179を示す図。The figure which shows the simulation intensity | strength image 179 which is not foreshortening. 実施の形態1におけるフォア・ショートニングした模擬強度画像171を示す図。FIG. 6 shows a simulated intensity image 171 subjected to fore-shortening in the first embodiment. 実施の形態1の模擬画像生成処理(S120)を示すフローチャート。6 is a flowchart showing a simulated image generation process (S120) according to the first embodiment. 実施の形態1の模擬画像生成処理(S120)におけるSAR800の地点Pと観測点Qとの関係図。FIG. 6 is a relationship diagram between a point P and an observation point Q of the SAR 800 in the simulated image generation process (S120) of the first embodiment. 実施の形態1における観測画像191と模擬強度画像171とを示す図。FIG. 6 shows an observation image 191 and a simulated intensity image 171 in the first embodiment. 実施の形態1におけるレーダー観測と模擬強度画像171との関係図。FIG. 6 is a relationship diagram between radar observation and simulated intensity image 171 in the first embodiment. 実施の形態1における模擬強度画像171と模擬画像座標データ172の概念図とを示す図。FIG. 6 is a diagram showing a simulated intensity image 171 and a conceptual diagram of simulated image coordinate data 172 in the first embodiment. 実施の形態1における一致点831の検出結果を示す図。FIG. 6 shows a detection result of a coincidence point 831 in the first embodiment. 実施の形態1における模擬強度画像171と観測画像191との関係図および模擬画像座標データ172と観測画像座標データ193との関係図。FIG. 6 is a relationship diagram between a simulated intensity image 171 and an observed image 191 and a relationship diagram between the simulated image coordinate data 172 and the observed image coordinate data 193 in the first embodiment.

符号の説明Explanation of symbols

100 オルソ補正装置、110 模擬画像生成部、120 一致点検出部、130 緯度・経度リサンプリング部、140 オルソ補正部、170 模擬画像記憶部、171 模擬強度画像、172 模擬画像座標データ、173 模擬画像緯度データ、173a 等緯度線、174 模擬画像経度データ、174a 等経度線、179 模擬強度画像、180 DEM記憶部、181 DEM、190 観測画像記憶部、191 観測画像、192 観測条件情報、193 観測画像座標データ、194 観測画像緯度データ、195 観測画像経度データ、196 オルソ画像、800 SAR、801 進行方向、802 レンジ方向、803 ビーム照射方向、804 ビーム、805 後方散乱波、811 山、812 等距離線、813 稜線、821 法線、822 接平面、823 地表面、831 一致点、901 表示装置、902 キーボード、903 マウス、904 FDD、905 CDD、906 プリンタ装置、907 スキャナ装置、910 システムユニット、911 CPU、912 バス、913 ROM、914 RAM、915 通信ボード、920 磁気ディスク装置、921 OS、922 ウィンドウシステム、923 プログラム群、924 ファイル群、931 電話器、932 ファクシミリ機、940 インターネット、941 ゲートウェイ、942 LAN。   DESCRIPTION OF SYMBOLS 100 Orthogonal correction apparatus, 110 Simulated image production | generation part, 120 Matching point detection part, 130 Latitude / longitude resampling part, 140 Orthorectification part, 170 Simulated image storage part, 171 Simulated intensity image, 172 Simulated image coordinate data, 173 Simulated image Latitude data, 173a equal latitude line, 174 simulated image longitude data, 174a equal longitude line, 179 simulated intensity image, 180 DEM storage unit, 181 DEM, 190 observation image storage unit, 191 observation image, 192 observation condition information, 193 observation image Coordinate data, 194 observation image latitude data, 195 observation image longitude data, 196 ortho image, 800 SAR, 801 traveling direction, 802 range direction, 803 beam irradiation direction, 804 beam, 805 backscattered wave, 811 mountain, 812 equidistant line , 813 Ridge line, 8 1 normal line, 822 tangent plane, 823 ground surface, 831 coincidence point, 901 display device, 902 keyboard, 903 mouse, 904 FDD, 905 CDD, 906 printer device, 907 scanner device, 910 system unit, 911 CPU, 912 bus, 913 ROM, 914 RAM, 915 communication board, 920 magnetic disk device, 921 OS, 922 window system, 923 program group, 924 file group, 931 telephone, 932 facsimile machine, 940 Internet, 941 gateway, 942 LAN.

Claims (11)

レーダー観測で取得された観測データに基づいて生成された地表の画像を示す観測画像を記憶機器を用いて記憶する観測画像記憶部と、
前記レーダー観測の観測条件に関する情報を示す観測条件情報を記憶機器を用いて記憶する観測条件記憶部と、
格子に区切られた地表の各格子点の平面座標と各格子点の標高とを示す標高データを記憶機器を用いて記憶する標高データ記憶部と、
前記観測条件記憶部に記憶されている前記観測条件情報と前記標高データ記憶部に記憶されている前記標高データとに基づいてレーダー観測をCPU(Central Processing Unit)を用いて模擬し、模擬したレーダー観測で取得された模擬データに基づいて地表の画像を示す模擬画像を生成する模擬画像生成部と、
前記観測画像記憶部に記憶されている前記観測画像を構成する複数の画素と前記模擬画像生成部により生成された前記模擬画像を構成する複数の画素とをCPUを用いて比較し、前記観測画像の画素に対応する前記模擬画像の画素を特定する対応画素特定部と、
前記標高データ記憶部に記憶されている前記標高データに基づいて前記模擬画像生成部により生成された前記模擬画像の画素に対応する平面座標を示す模擬画像座標データをCPUを用いて生成する模擬画像座標データ生成部と、
前記対応画素特定部により特定された前記観測画像の画素に対応する前記模擬画像の画素と前記模擬画像座標データ生成部により生成された前記模擬画像座標データにより示される前記模擬画像の画素に対応する平面座標とに基づいて前記観測画像の画素に対応する平面座標を示す観測画像座標データをCPUを用いて生成する観測画像座標データ生成部と、
前記観測画像記憶部に記憶されている前記観測画像の画素が平面座標に対応する位置に配置された画像を前記観測画像座標データ生成部により生成された前記観測画像座標データに基づいて補正画像としてCPUを用いて生成する補正画像生成部と
を備えたことを特徴とする観測画像補正装置。
An observation image storage unit for storing an observation image indicating an image of the ground surface generated based on observation data acquired by radar observation using a storage device;
An observation condition storage unit for storing observation condition information indicating information on observation conditions of the radar observation using a storage device;
An altitude data storage unit for storing altitude data indicating the plane coordinates of each grid point of the ground surface divided into grids and the altitude of each grid point using a storage device;
Based on the observation condition information stored in the observation condition storage unit and the elevation data stored in the elevation data storage unit, radar observation is simulated using a CPU (Central Processing Unit), and a simulated radar A simulated image generating unit that generates a simulated image indicating an image of the ground surface based on simulated data acquired by observation;
A plurality of pixels constituting the observation image stored in the observation image storage unit and a plurality of pixels constituting the simulation image generated by the simulation image generation unit are compared using a CPU, and the observation image is compared A corresponding pixel specifying unit for specifying the pixel of the simulated image corresponding to the pixel;
A simulated image that uses a CPU to generate simulated image coordinate data indicating planar coordinates corresponding to pixels of the simulated image generated by the simulated image generation unit based on the elevation data stored in the elevation data storage unit A coordinate data generation unit;
Corresponding to the pixels of the simulated image corresponding to the pixels of the observed image specified by the corresponding pixel specifying unit and the pixels of the simulated image indicated by the simulated image coordinate data generated by the simulated image coordinate data generating unit An observation image coordinate data generating unit that generates observation image coordinate data indicating a plane coordinate corresponding to a pixel of the observation image based on the plane coordinate using a CPU;
Based on the observation image coordinate data generated by the observation image coordinate data generation unit, an image in which pixels of the observation image stored in the observation image storage unit are arranged at positions corresponding to plane coordinates is used as a correction image. An observation image correction apparatus comprising: a correction image generation unit that generates using a CPU.
前記模擬画像生成部は、標高の高いものをレーダー観測を行った観測レーダー側に倒れ込ませて見せるフォア・ショートニングさせた画像を前記模擬画像として生成する
ことを特徴とする請求項1記載の観測画像補正装置。
2. The observation according to claim 1, wherein the simulated image generation unit generates a fore-shortened image that causes a high altitude to fall down on an observation radar side that has performed radar observation and shows the simulated image as the simulated image. Image correction device.
前記模擬画像生成部は、前記観測条件情報に基づいてレーダー観測を行った観測レーダーの3次元座標を算出し、算出した前記観測レーダーの3次元座標と前記標高データにより示される地表の各格子点の平面座標と前記標高データにより示される地表の各格子点の標高とに基づいて前記観測レーダーから地表の各格子点までの距離と前記観測レーダーにより出射された電磁波の成す地表の各格子点における入射角とを算出し、算出した前記入射角に基づいて地表の各格子点からの反射波の強度を算出し、算出した前記距離に対応する画像内での位置にある画素に算出した前記強度に対応する陰影を付けて前記模擬画像を生成する
ことを特徴とする請求項1〜請求項2いずれかに記載の観測画像補正装置。
The simulated image generation unit calculates three-dimensional coordinates of an observation radar that has performed radar observation based on the observation condition information, and each lattice point of the ground surface indicated by the calculated three-dimensional coordinates of the observation radar and the elevation data The distance from the observation radar to each grid point on the ground surface based on the plane coordinates of the surface and the altitude of each grid point on the ground surface indicated by the elevation data and at each grid point on the ground surface formed by the electromagnetic wave emitted by the observation radar The incident angle is calculated, the intensity of the reflected wave from each lattice point on the ground surface is calculated based on the calculated incident angle, and the intensity calculated for the pixel at the position in the image corresponding to the calculated distance The observed image correction apparatus according to claim 1, wherein the simulated image is generated with a shadow corresponding to the image.
前記対応画素特定部は、前記観測画像の2画素に対応する前記模擬画像の2画素を特定し、前記観測画像の前記2画素それぞれの画素位置と前記模擬画像の前記2画素それぞれの画素位置との位置ずれの量に基づいて前記観測画像と前記模擬画像との少なくとも一方をアフィン変換し、アフィン変換後に前記観測画像の画素と同じ画素位置にある前記模擬画像の画素を前記観測画像の前記画素に対応する前記模擬画像の画素として求める
ことを特徴とする請求項1〜請求項3いずれかに記載の観測画像補正装置。
The corresponding pixel specifying unit specifies two pixels of the simulated image corresponding to two pixels of the observation image, and each pixel position of the two pixels of the observation image and each pixel position of the two pixels of the simulation image At least one of the observed image and the simulated image is affine transformed based on the amount of misalignment, and the pixel of the simulated image at the same pixel position as the pixel of the observed image after affine transformation is converted to the pixel of the observed image. The observation image correction device according to claim 1, wherein the observation image correction device is obtained as a pixel of the simulated image corresponding to the image.
前記観測画像が光学センサを用いて撮像した光学画像であることを特徴とする請求項1〜請求項4いずれかに記載の観測画像補正装置。   The observed image correction apparatus according to claim 1, wherein the observed image is an optical image captured using an optical sensor. レーダー観測で取得された観測データに基づいて生成された地表の画像を示す観測画像を記憶機器を用いて記憶する観測画像記憶部と、
前記レーダー観測の観測条件に関する情報を示す観測条件情報を記憶機器を用いて記憶する観測条件記憶部と、
格子に区切られた地表の各格子点の平面座標と各格子点の標高とを示す標高データを記憶機器を用いて記憶する標高データ記憶部とを用い、
模擬画像生成部が、前記観測条件記憶部に記憶されている前記観測条件情報と前記標高データ記憶部に記憶されている前記標高データとに基づいてレーダー観測をCPU(Central Processing Unit)を用いて模擬し、模擬したレーダー観測で取得された模擬データに基づいて地表の画像を示す模擬画像を生成する模擬画像生成処理と、
対応画素特定部が、前記観測画像記憶部に記憶されている前記観測画像を構成する複数の画素と前記模擬画像生成部により生成された前記模擬画像を構成する複数の画素とをCPUを用いて比較し、前記観測画像の画素に対応する前記模擬画像の画素を特定する対応画素特定処理と、
模擬画像座標データ生成部が、前記標高データ記憶部に記憶されている前記標高データに基づいて前記模擬画像生成部により生成された前記模擬画像の画素に対応する平面座標を示す模擬画像座標データをCPUを用いて生成する模擬画像座標データ生成処理と、
観測画像座標データ生成部が、前記対応画素特定部により特定された前記観測画像の画素に対応する前記模擬画像の画素と前記模擬画像座標データ生成部により生成された前記模擬画像座標データにより示される前記模擬画像の画素に対応する平面座標とに基づいて前記観測画像の画素に対応する平面座標を示す観測画像座標データをCPUを用いて生成する観測画像座標データ生成処理と、
補正画像生成部が、前記観測画像記憶部に記憶されている前記観測画像の画素が平面座標に対応する位置に配置された画像を前記観測画像座標データ生成部により生成された前記観測画像座標データに基づいて補正画像としてCPUを用いて生成する補正画像生成処理と
をコンピュータに実行させることを特徴とする観測画像補正プログラム。
An observation image storage unit for storing an observation image indicating an image of the ground surface generated based on observation data acquired by radar observation using a storage device;
An observation condition storage unit for storing observation condition information indicating information on observation conditions of the radar observation using a storage device;
Using an altitude data storage unit that stores altitude data indicating the plane coordinates of each grid point of the ground surface divided by a grid and the altitude of each grid point using a storage device,
A simulated image generation unit uses a CPU (Central Processing Unit) to perform radar observation based on the observation condition information stored in the observation condition storage unit and the elevation data stored in the elevation data storage unit. Simulated image generation processing for generating a simulated image indicating a ground image based on simulated data acquired by simulated radar observation;
The corresponding pixel specifying unit uses a CPU to generate a plurality of pixels constituting the observation image stored in the observation image storage unit and a plurality of pixels constituting the simulation image generated by the simulation image generation unit. And a corresponding pixel specifying process for specifying the pixel of the simulated image corresponding to the pixel of the observed image;
A simulated image coordinate data generation unit generates simulated image coordinate data indicating planar coordinates corresponding to pixels of the simulated image generated by the simulated image generation unit based on the elevation data stored in the elevation data storage unit. Simulated image coordinate data generation processing generated using a CPU;
The observed image coordinate data generation unit is indicated by the simulated image pixel corresponding to the pixel of the observed image specified by the corresponding pixel specifying unit and the simulated image coordinate data generated by the simulated image coordinate data generating unit. Observation image coordinate data generation processing for generating observation image coordinate data indicating a plane coordinate corresponding to the pixel of the observation image using a CPU based on the plane coordinate corresponding to the pixel of the simulated image;
The observed image coordinate data generated by the observed image coordinate data generating unit, wherein the corrected image generating unit generates an image in which the pixels of the observed image stored in the observed image storage unit are arranged at positions corresponding to plane coordinates. An observation image correction program that causes a computer to execute correction image generation processing that is generated using a CPU as a correction image based on the above.
前記模擬画像生成部は、標高の高いものをレーダー観測を行った観測レーダー側に倒れ込ませて見せるフォア・ショートニングさせた画像を前記模擬画像として生成する
ことを特徴とする請求項6記載の観測画像補正プログラム。
The observation according to claim 6, wherein the simulated image generation unit generates a fore-shortened image that causes a high altitude to fall down on an observation radar side that has performed radar observation and shows the simulated image as the simulated image. Image correction program.
前記模擬画像生成部は、前記観測条件情報に基づいてレーダー観測を行った観測レーダーの3次元座標を算出し、算出した前記観測レーダーの3次元座標と前記標高データにより示される地表の各格子点の平面座標と前記標高データにより示される地表の各格子点の標高とに基づいて前記観測レーダーから地表の各格子点までの距離と前記観測レーダーにより出射された電磁波の成す地表の各格子点における入射角とを算出し、算出した前記入射角に基づいて地表の各格子点からの反射波の強度を算出し、算出した前記距離に対応する画像内での位置にある画素に算出した前記強度に対応する陰影を付けて前記模擬画像を生成する
ことを特徴とする請求項6〜請求項7いずれかに記載の観測画像補正プログラム。
The simulated image generation unit calculates three-dimensional coordinates of an observation radar that has performed radar observation based on the observation condition information, and each lattice point of the ground surface indicated by the calculated three-dimensional coordinates of the observation radar and the elevation data The distance from the observation radar to each grid point on the ground surface based on the plane coordinates of the surface and the altitude of each grid point on the ground surface indicated by the elevation data and at each grid point on the ground surface formed by the electromagnetic wave emitted by the observation radar The incident angle is calculated, the intensity of the reflected wave from each lattice point on the ground surface is calculated based on the calculated incident angle, and the intensity calculated for the pixel at the position in the image corresponding to the calculated distance The observation image correction program according to claim 6, wherein the simulated image is generated with a shadow corresponding to the image.
前記対応画素特定部は、前記観測画像の2画素に対応する前記模擬画像の2画素を特定し、前記観測画像の前記2画素それぞれの画素位置と前記模擬画像の前記2画素それぞれの画素位置との位置ずれの量に基づいて前記観測画像と前記模擬画像との少なくとも一方をアフィン変換し、アフィン変換後に前記観測画像の画素と同じ画素位置にある前記模擬画像の画素を前記観測画像の前記画素に対応する前記模擬画像の画素として求める
ことを特徴とする請求項6〜請求項8いずれかに記載の観測画像補正プログラム。
The corresponding pixel specifying unit specifies two pixels of the simulated image corresponding to two pixels of the observation image, and each pixel position of the two pixels of the observation image and each pixel position of the two pixels of the simulation image At least one of the observed image and the simulated image is affine transformed based on the amount of misalignment, and the pixel of the simulated image at the same pixel position as the pixel of the observed image after affine transformation is converted to the pixel of the observed image. The observation image correction program according to claim 6, wherein the observation image correction program is obtained as a pixel of the simulated image corresponding to.
前記観測画像が光学センサを用いて撮像した光学画像であることを特徴とする請求項6〜請求項9いずれかに記載の観測画像補正プログラム。   The observation image correction program according to any one of claims 6 to 9, wherein the observation image is an optical image captured using an optical sensor. レーダー観測で取得された観測データに基づいて生成された地表の画像を示す観測画像を記憶機器を用いて記憶する観測画像記憶部と、
前記レーダー観測の観測条件に関する情報を示す観測条件情報を記憶機器を用いて記憶する観測条件記憶部と、
格子に区切られた地表の各格子点の平面座標と各格子点の標高とを示す標高データを記憶機器を用いて記憶する標高データ記憶部とを用い、
模擬画像生成部が、前記観測条件記憶部に記憶されている前記観測条件情報と前記標高データ記憶部に記憶されている前記標高データとに基づいてレーダー観測をCPU(Central Processing Unit)を用いて模擬し、模擬したレーダー観測で取得された模擬データに基づいて地表の画像を示す模擬画像を生成する模擬画像生成処理を行い、
対応画素特定部が、前記観測画像記憶部に記憶されている前記観測画像を構成する複数の画素と前記模擬画像生成部により生成された前記模擬画像を構成する複数の画素とをCPUを用いて比較し、前記観測画像の画素に対応する前記模擬画像の画素を特定する対応画素特定処理を行い、
模擬画像座標データ生成部が、前記標高データ記憶部に記憶されている前記標高データに基づいて前記模擬画像生成部により生成された前記模擬画像の画素に対応する平面座標を示す模擬画像座標データをCPUを用いて生成する模擬画像座標データ生成処理を行い、
観測画像座標データ生成部が、前記対応画素特定部により特定された前記観測画像の画素に対応する前記模擬画像の画素と前記模擬画像座標データ生成部により生成された前記模擬画像座標データにより示される前記模擬画像の画素に対応する平面座標とに基づいて前記観測画像の画素に対応する平面座標を示す観測画像座標データをCPUを用いて生成する観測画像座標データ生成処理を行い、
補正画像生成部が、前記観測画像記憶部に記憶されている前記観測画像の画素が平面座標に対応する位置に配置された画像を前記観測画像座標データ生成部により生成された前記観測画像座標データに基づいて補正画像としてCPUを用いて生成する補正画像生成処理を行う
ことを特徴とする観測画像補正方法。
An observation image storage unit for storing an observation image indicating an image of the ground surface generated based on observation data acquired by radar observation using a storage device;
An observation condition storage unit for storing observation condition information indicating information on observation conditions of the radar observation using a storage device;
Using an altitude data storage unit that stores altitude data indicating the plane coordinates of each grid point of the ground surface divided by a grid and the altitude of each grid point using a storage device,
A simulated image generation unit uses a CPU (Central Processing Unit) to perform radar observation based on the observation condition information stored in the observation condition storage unit and the elevation data stored in the elevation data storage unit. Simulate and perform a simulated image generation process to generate a simulated image showing the image of the ground surface based on simulated data acquired by simulated radar observation,
The corresponding pixel specifying unit uses a CPU to generate a plurality of pixels constituting the observation image stored in the observation image storage unit and a plurality of pixels constituting the simulation image generated by the simulation image generation unit. Performing the corresponding pixel specifying process for specifying the pixel of the simulated image corresponding to the pixel of the observed image,
A simulated image coordinate data generation unit generates simulated image coordinate data indicating planar coordinates corresponding to pixels of the simulated image generated by the simulated image generation unit based on the elevation data stored in the elevation data storage unit. Perform the simulated image coordinate data generation process generated using the CPU,
The observed image coordinate data generation unit is indicated by the simulated image pixel corresponding to the pixel of the observed image specified by the corresponding pixel specifying unit and the simulated image coordinate data generated by the simulated image coordinate data generating unit. Performing observation image coordinate data generation processing using a CPU to generate observation image coordinate data indicating the plane coordinates corresponding to the pixels of the observation image based on the plane coordinates corresponding to the pixels of the simulated image;
The observed image coordinate data generated by the observed image coordinate data generating unit, wherein the corrected image generating unit generates an image in which the pixels of the observed image stored in the observed image storage unit are arranged at positions corresponding to plane coordinates. An observation image correction method comprising: performing a correction image generation process using a CPU as a correction image based on the above.
JP2008028848A 2008-02-08 2008-02-08 Observation image correction apparatus, observation image correction program, and observation image correction method Expired - Fee Related JP5004817B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008028848A JP5004817B2 (en) 2008-02-08 2008-02-08 Observation image correction apparatus, observation image correction program, and observation image correction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008028848A JP5004817B2 (en) 2008-02-08 2008-02-08 Observation image correction apparatus, observation image correction program, and observation image correction method

Publications (2)

Publication Number Publication Date
JP2009187440A true JP2009187440A (en) 2009-08-20
JP5004817B2 JP5004817B2 (en) 2012-08-22

Family

ID=41070587

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008028848A Expired - Fee Related JP5004817B2 (en) 2008-02-08 2008-02-08 Observation image correction apparatus, observation image correction program, and observation image correction method

Country Status (1)

Country Link
JP (1) JP5004817B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011185834A (en) * 2010-03-10 2011-09-22 Nikko Tankai Kk Sar data processing method and sar data processing system
JP2013510326A (en) * 2009-11-09 2013-03-21 グーグル インコーポレイテッド Orthorectification of oblique images joined to the direct view and their applications
JP2013231843A (en) * 2012-04-27 2013-11-14 Kokusai Kogyo Co Ltd Topography image creation method and topography image creation device
JP2013250274A (en) * 2013-07-24 2013-12-12 Mitsubishi Space Software Kk Observation apparatus, observation object estimation apparatus, observation object estimation program, and observation object estimation method
CN105699951A (en) * 2016-03-09 2016-06-22 中国人民解放军镇江船艇学院 DEM data superposition-based marine radar echo simulation method
KR101750390B1 (en) * 2016-10-05 2017-06-23 주식회사 알에프코리아 Apparatus for tracing and monitoring target object in real time, method thereof
EP3132283A4 (en) * 2014-04-14 2017-11-15 Vricon Systems AB Method and system for rendering a synthetic aperture radar image
CN111025246A (en) * 2019-11-28 2020-04-17 北京遥测技术研究所 Simulation system and method for composite scene imaging of sea surface and ship by using stationary orbit SAR
CN111241221A (en) * 2020-01-06 2020-06-05 长江勘测规划设计研究有限责任公司 Automatic matching and high-precision repairing method for damaged terrain coordinate data
WO2023073936A1 (en) * 2021-10-29 2023-05-04 日本電気株式会社 Signal processing system and signal processing method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02231591A (en) * 1989-03-06 1990-09-13 Hitachi Ltd Method for correcting distortion of synthetic aperture radar image
JPH05225314A (en) * 1992-02-13 1993-09-03 Nippon Avionics Co Ltd Simulation picture genertation device
JP2002357419A (en) * 2001-02-20 2002-12-13 Kyushu Techno Research Kk Side oblique air photograph and pseudo orthoscopic image
JP2004171413A (en) * 2002-11-21 2004-06-17 Hitachi Software Eng Co Ltd Digital image processor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02231591A (en) * 1989-03-06 1990-09-13 Hitachi Ltd Method for correcting distortion of synthetic aperture radar image
JPH05225314A (en) * 1992-02-13 1993-09-03 Nippon Avionics Co Ltd Simulation picture genertation device
JP2002357419A (en) * 2001-02-20 2002-12-13 Kyushu Techno Research Kk Side oblique air photograph and pseudo orthoscopic image
JP2004171413A (en) * 2002-11-21 2004-06-17 Hitachi Software Eng Co Ltd Digital image processor

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013510326A (en) * 2009-11-09 2013-03-21 グーグル インコーポレイテッド Orthorectification of oblique images joined to the direct view and their applications
JP2011185834A (en) * 2010-03-10 2011-09-22 Nikko Tankai Kk Sar data processing method and sar data processing system
JP2013231843A (en) * 2012-04-27 2013-11-14 Kokusai Kogyo Co Ltd Topography image creation method and topography image creation device
JP2013250274A (en) * 2013-07-24 2013-12-12 Mitsubishi Space Software Kk Observation apparatus, observation object estimation apparatus, observation object estimation program, and observation object estimation method
EP3132283A4 (en) * 2014-04-14 2017-11-15 Vricon Systems AB Method and system for rendering a synthetic aperture radar image
CN105699951A (en) * 2016-03-09 2016-06-22 中国人民解放军镇江船艇学院 DEM data superposition-based marine radar echo simulation method
CN105699951B (en) * 2016-03-09 2018-05-29 中国人民解放军镇江船艇学院 Marine radar analogue echoes method based on dem data superposition
KR101750390B1 (en) * 2016-10-05 2017-06-23 주식회사 알에프코리아 Apparatus for tracing and monitoring target object in real time, method thereof
CN111025246A (en) * 2019-11-28 2020-04-17 北京遥测技术研究所 Simulation system and method for composite scene imaging of sea surface and ship by using stationary orbit SAR
CN111025246B (en) * 2019-11-28 2021-09-07 北京遥测技术研究所 Simulation system and method for composite scene imaging of sea surface and ship by using stationary orbit SAR
CN111241221A (en) * 2020-01-06 2020-06-05 长江勘测规划设计研究有限责任公司 Automatic matching and high-precision repairing method for damaged terrain coordinate data
CN111241221B (en) * 2020-01-06 2022-05-13 长江勘测规划设计研究有限责任公司 Automatic matching and high-precision repairing method for damaged terrain coordinate data
WO2023073936A1 (en) * 2021-10-29 2023-05-04 日本電気株式会社 Signal processing system and signal processing method

Also Published As

Publication number Publication date
JP5004817B2 (en) 2012-08-22

Similar Documents

Publication Publication Date Title
JP5004817B2 (en) Observation image correction apparatus, observation image correction program, and observation image correction method
James et al. 3‐D uncertainty‐based topographic change detection with structure‐from‐motion photogrammetry: precision maps for ground control and directly georeferenced surveys
US9378585B2 (en) System and method for automatic geometric correction using RPC
Shimada Ortho-rectification and slope correction of SAR data using DEM and its accuracy evaluation
US7773799B2 (en) Method for automatic stereo measurement of a point of interest in a scene
CN107202582A (en) The in-orbit real time imagery navigation of fixed statellite and method for registering
Sheng et al. Automated georeferencing and orthorectification of Amazon basin-wide SAR mosaics using SRTM DEM data
US20060210169A1 (en) Apparatus and method for simulated sensor imagery using fast geometric transformations
CN110940966B (en) Laser footprint plane positioning method based on laser height measurement satellite footprint image
CN116625354B (en) High-precision topographic map generation method and system based on multi-source mapping data
CN107633108A (en) Fixed statellite imaging based navigation and registering track motion compensation method
Zhang et al. Refraction and coordinate correction with the JONSWAP model for ICESat-2 bathymetry
Khlopenkov et al. Achieving subpixel georeferencing accuracy in the Canadian AVHRR processing system
Gašparović et al. Geometric accuracy improvement of WorldView‐2 imagery using freely available DEM data
CN111368716B (en) Geological disaster damage cultivated land extraction method based on multi-source space-time data
Van Natijne et al. Massive linking of PS-InSAR deformations to a national airborne laser point cloud
CN105403886A (en) Automatic extraction method for airborne SAR scaler image position
CN116203544A (en) Method, device and medium for back-and-forth detection and return uncontrolled self-checking of mobile measurement system
WO2018056129A1 (en) Information processing device, information processing method, and storage medium
Kartal et al. Comperative analysis of different geometric correction methods for very high resolution pleiades images
CN114280613A (en) Method for generating ground mapping image of simulated airborne fire control radar based on DEM data
Hough et al. DEMkit & LunaRay: Tools for Mission Data Generation and Validation
US11403815B2 (en) Gridding global data into a minimally distorted global raster
Zeng et al. Verification of Imaging Algorithm for Signal Processing Software within Synthetic Aperture Radar (SAR) System
US20230141795A1 (en) Method for georeferencing of optical images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120327

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120423

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120522

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150601

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees