JP2008185375A - 3d shape calculation device of sar image, and distortion correction device of sar image - Google Patents

3d shape calculation device of sar image, and distortion correction device of sar image Download PDF

Info

Publication number
JP2008185375A
JP2008185375A JP2007017223A JP2007017223A JP2008185375A JP 2008185375 A JP2008185375 A JP 2008185375A JP 2007017223 A JP2007017223 A JP 2007017223A JP 2007017223 A JP2007017223 A JP 2007017223A JP 2008185375 A JP2008185375 A JP 2008185375A
Authority
JP
Japan
Prior art keywords
sar
distortion
sar image
image
calculation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007017223A
Other languages
Japanese (ja)
Inventor
Sho Shimizu
祥 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2007017223A priority Critical patent/JP2008185375A/en
Publication of JP2008185375A publication Critical patent/JP2008185375A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform highly accurate shape estimation relative to an SAR (Synthetic Aperture Radar) image, and to perform correction of layover of the SAR image. <P>SOLUTION: A 3D shape of the SAR image is estimated by using as input images, two or more SAR images imaging the same spot, acquired by imaging with changed squint angles from the same direction. Foreshortening and optical falling are corrected based on the estimated 3D shape and the input images, and brightness of a pixel after correcting a distortion is calculated from correlation of corresponding points in a plurality of input images, to thereby correct the layover. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、例えば、人工衛星等のプラットフォームから撮像された合成開口レーダ(Synthetic Aperture Radar,SAR)画像について、撮像ターゲットに発生する歪を補正し、視認性の高い画像を生成する技術に関する。   The present invention relates to a technique for generating a highly visible image by correcting distortion generated in an imaging target for a Synthetic Aperture Radar (SAR) image captured from a platform such as an artificial satellite.

従来のSAR画像の歪補正の方法としては、オルソ補正がある。オルソ補正処理は、観測対象地域の標高データDEM(Digital Elevation Model)及び地上の基準点GCP(Ground Control Point)を用いて、高度を持つターゲットのフォアショートニングを補正する処理である(例えば、特許文献1参照)。
また、撮像条件の異なる複数SAR画像のフォアショートニングの量を基に観測対象の形状を推定する処理としては、ドップラーゼロの方向からの撮像において、オフナディア角の異なる2枚のSAR画像から標高データDEMを求める処理(SARステレオDEM作成処理)がある。
特開2003−323611号公報
A conventional SAR image distortion correction method includes ortho correction. The ortho correction process is a process for correcting foreshortening of a target having an altitude by using altitude data DEM (Digital Elevation Model) of the observation target area and a ground control point GCP (Ground Control Point) (for example, Patent Documents). 1).
In addition, as processing for estimating the shape of the observation target based on the amount of foreshortening of a plurality of SAR images with different imaging conditions, elevation data from two SAR images with different off-nadir angles in imaging from the direction of Doppler zero is used. There is processing for obtaining DEM (SAR stereo DEM creation processing).
JP 2003-323611 A

従来のオルソ補正では、フォアショートニングのみを補正するので、レイオーバーを補正することはできない。したがって、人口構造物など垂直な面を有するターゲットに対しては、その視認性を向上することはできないという課題がある。
また、SARステレオDEM作成処理では、オフナディア角の異なる2枚のSAR画像を用いる。そのため、レーダ反射断面積がレーダ波の入射角に大きく依存する。この結果、2枚のSAR画像間の相関が悪くなる。したがって、SARステレオDEM作成処理では、形状推定精度が悪くなるという課題がある。
In the conventional ortho correction, only the foreshortening is corrected, so that the layover cannot be corrected. Therefore, there is a problem that the visibility of a target having a vertical surface such as an artificial structure cannot be improved.
In the SAR stereo DEM creation process, two SAR images having different off-nadir angles are used. For this reason, the radar reflection cross-sectional area greatly depends on the incident angle of the radar wave. As a result, the correlation between the two SAR images is deteriorated. Therefore, the SAR stereo DEM creation process has a problem that the shape estimation accuracy is deteriorated.

本発明は、例えば、同一箇所を撮像した2枚以上のSAR画像を用いて、精度の高い形状推定を行うことを目的とする。また、本発明は、例えば、複数画像の情報を総合することにより、レイオーバーについても補正を行うことを目的とする。   An object of the present invention is to perform highly accurate shape estimation using, for example, two or more SAR images obtained by imaging the same location. Another object of the present invention is to correct layover by combining information of a plurality of images, for example.

本発明に係るSAR画像の3D形状算出装置は、例えば、同一箇所を異なる合成開口レーダで撮像した複数のSAR(Synthetic Aperture Radar)画像を入力して記憶装置に記憶するSAR画像入力部と、
上記SAR画像入力部が入力した複数のSAR画像間の歪量の差を処理装置により算出する歪量算出部と、
上記複数のSAR画像と地上の形状を表すGCP(Ground Control Point)データとに基づき、歪量の差を高さに変換する高さ変換係数を処理装置により算出する高さ変換係数算出部と、
上記歪量算出部が算出した歪量の差と、上記高さ変換係数算出部が算出した高さ変換係数とに基づき、SAR画像に撮像された箇所の高さを算出して、上記複数のSAR画像に撮像された箇所の3D(Dimensional)形状データを求めて記憶装置に記憶する3D形状算出部と
を備えることを特徴とする。
The SAR image 3D shape calculation apparatus according to the present invention includes, for example, a SAR image input unit that inputs a plurality of SAR (Synthetic Aperture Radar) images obtained by imaging the same location with different synthetic aperture radars, and stores them in a storage device;
A distortion amount calculation unit that calculates a difference in distortion amount between a plurality of SAR images input by the SAR image input unit by a processing device;
A height conversion coefficient calculation unit that calculates a height conversion coefficient for converting a difference in distortion amount into height based on the plurality of SAR images and GCP (Ground Control Point) data representing the shape of the ground;
Based on the difference between the distortion amounts calculated by the distortion amount calculation unit and the height conversion coefficient calculated by the height conversion coefficient calculation unit, the height of the portion imaged in the SAR image is calculated, And a 3D shape calculation unit that obtains 3D (Dimensional) shape data of a location captured in the SAR image and stores the data in a storage device.

本発明に係るSAR画像の3D形状算出装置によれば、複数のSAR画像の歪量の差と高さ変換係数とに基づき、3D形状データを求めることができる。また、上記3D形状データに基づき、SAR画像について、精度の高い形状推定を行えるとともに、レイオーバーについても補正することができる。   According to the 3D shape calculation apparatus for a SAR image according to the present invention, 3D shape data can be obtained based on a difference in distortion amount and a height conversion coefficient of a plurality of SAR images. In addition, based on the 3D shape data, it is possible to estimate the shape of the SAR image with high accuracy and to correct the layover.

実施の形態1.
実施の形態1では、複数のSAR画像とGCPデータとに基づき、SAR画像に撮像された箇所の3D形状データを求める方法について説明する。また、上記3D形状データに基づき、SAR画像の歪を補正する方法について説明する。
Embodiment 1 FIG.
In the first embodiment, a method for obtaining 3D shape data of a location captured in a SAR image based on a plurality of SAR images and GCP data will be described. A method for correcting the distortion of the SAR image based on the 3D shape data will be described.

まず、SAR画像の歪と歪補正処理とについて説明する。
SARは、衛星のアンテナと地上のターゲットの距離(スラントレンジ)を計測して画像化する。そのため、標高の高いターゲットは衛星側に近寄った位置に画像化される。この現象をフォアショートニング(倒れこみ)と呼ぶ。通常の地図では、地表面より高い位置にあるターゲットはターゲットの垂下の位置にあるはずである。しかし、SAR画像では、地表面より高い位置にあるターゲットはスラントレンジが等しい位置、即ち手前にずれて(倒れこんで)画像化される。
First, SAR image distortion and distortion correction processing will be described.
SAR measures and images the distance (slant range) between a satellite antenna and a ground target. Therefore, a target with a high altitude is imaged at a position close to the satellite side. This phenomenon is called foreshortening. In a normal map, targets that are higher than the ground surface should be in the position of the target. However, in the SAR image, the target at a position higher than the ground surface is imaged at a position having the same slant range, that is, shifted toward the front (falling down).

また、フォアショートニングにより、標高の高いターゲットが手前の地表面上にずれて表示される場合に、上記地表面上に別のターゲットがある場合がある。この場合、上記標高の高いターゲットと上記別のターゲットとは、SAR画像では重なって表示される。この現象をレイオーバーと呼ぶ。SAR画像で重なって表示された上記標高の高いターゲットと上記別のターゲットとを分離することは困難である。   In addition, when a target with a high altitude is shifted and displayed on the ground surface in front by foreshortening, there may be another target on the ground surface. In this case, the high altitude target and the other target are displayed in an overlapping manner in the SAR image. This phenomenon is called layover. It is difficult to separate the high-altitude target displayed on the SAR image and the other target.

ここで、歪補正処理とは、観測対象の形状を、撮像条件の異なる複数画像のフォアショートニングの量を基に推定し、フォアショートニングとレイオーバーを補正する処理である。   Here, the distortion correction processing is processing for estimating the shape of the observation target based on the amount of foreshortening of a plurality of images with different imaging conditions and correcting foreshortening and layover.

次に、図1に基づき実施の形態1に係るSAR画像の歪補正システム100の概要を説明する。図1は、実施の形態1に係るSAR画像のSAR画像の歪補正システム100(オルソ補正処理装置)の全体構成図である。   Next, an outline of the SAR image distortion correction system 100 according to the first embodiment will be described with reference to FIG. FIG. 1 is an overall configuration diagram of a SAR image distortion correction system 100 (ortho correction processing apparatus) of a SAR image according to the first embodiment.

SAR画像の歪補正システム100は、形状推定処理部5、歪補正処理部6を備える。まず、形状推定処理部5へ、SAR画像1、SAR画像2、GCPデータ3とが入力される。そして、形状推定処理部5は、入力されたSAR画像に撮像された箇所の3D形状データ4を出力する。また、歪補正処理部6へ、SAR画像1、SAR画像2、3D形状データ4が入力される。そして、歪補正処理部6は、歪補正画像7を出力する。
ここで、形状推定処理部5と歪補正処理部6とへ入力されるSAR画像は、3つ以上でも構わない。しかし、ここでは説明の簡単のため、2つのSAR画像が入力されたものとして説明する。
また、形状推定処理部5は、SAR画像の3D形状算出装置である。また、歪補正処理部6は、SAR画像の歪補正装置である。
ここで、SAR画像1は合成開口の位置情報を含み、かつ各画素の地図情報(緯度経度または地図座標)が取得可能である。SAR画像2は、SAR画像1と同一箇所を別の合成開口を用いて撮像したSAR画像である。SAR画像2も、SAR画像1と同様に合成開口の位置情報を含み、かつ各画素の地図情報が取得可能である。GCPデータ3は地図データ等から取得した位置、高度のデータである。3D形状データ4は入力されたSAR画像に撮像された箇所の3D形状を示すデータである。歪補正画像7はフォアショートニングとレイオーバーとを補正した後の画像である。
The SAR image distortion correction system 100 includes a shape estimation processing unit 5 and a distortion correction processing unit 6. First, the SAR image 1, the SAR image 2, and the GCP data 3 are input to the shape estimation processing unit 5. And the shape estimation process part 5 outputs the 3D shape data 4 of the location imaged by the input SAR image. Further, the SAR image 1, the SAR image 2, and the 3D shape data 4 are input to the distortion correction processing unit 6. Then, the distortion correction processing unit 6 outputs a distortion corrected image 7.
Here, three or more SAR images may be input to the shape estimation processing unit 5 and the distortion correction processing unit 6. However, for the sake of simplicity of explanation, it is assumed here that two SAR images have been input.
The shape estimation processing unit 5 is a SAR image 3D shape calculation device. The distortion correction processing unit 6 is a SAR image distortion correction apparatus.
Here, the SAR image 1 includes the position information of the synthetic aperture, and map information (latitude and longitude or map coordinates) of each pixel can be acquired. The SAR image 2 is a SAR image obtained by capturing the same part as the SAR image 1 using another synthetic aperture. Similar to the SAR image 1, the SAR image 2 includes the position information of the synthetic aperture, and map information of each pixel can be acquired. The GCP data 3 is position and altitude data acquired from map data or the like. The 3D shape data 4 is data indicating the 3D shape of a portion captured in the input SAR image. The distortion corrected image 7 is an image after correcting foreshortening and layover.

次に、図2に基づきフォアショートニングとレイオーバーについて説明する。図2は、衛星搭載アンテナを用いたSARのフォアショートニングの概念を示す概念図である。
上述したように、SARは、合成開口と地上のターゲットの距離(スラントレンジ)を計測して画像化する。そのため、標高の高いターゲットは衛星側に近寄った位置に画像化されるフォアショートニングと呼ぶ現象が発生する。
図2において、高度を持つターゲットAは、地図では位置Bにあるはずである。しかし、SAR画像ではスラントレンジが等しい位置C(距離S−A=距離S−C)に画像化される。これをフォアショートニングと呼ぶ。また、距離S−Cと衛星からの距離が等しい位置Dは、同様に位置Cに画像化される。つまり、位置Aと位置Dとは、いずれも位置Cに重なって画像化される。これをレイオーバーと呼ぶ。
Next, foreshortening and layover will be described with reference to FIG. FIG. 2 is a conceptual diagram showing the concept of SAR foreshortening using a satellite-mounted antenna.
As described above, the SAR measures and images the distance (slant range) between the synthetic aperture and the ground target. For this reason, a phenomenon called foreshortening occurs in which a high altitude target is imaged at a position close to the satellite side.
In FIG. 2, target A with altitude should be at position B on the map. However, the SAR image is imaged at a position C where the slant range is equal (distance SA = distance SC). This is called foreshortening. Further, the position D where the distance S-C is equal to the distance from the satellite is imaged to the position C in the same manner. That is, both the position A and the position D are imaged so as to overlap the position C. This is called layover.

次に図3に基づき形状推定処理部5の機能について説明する。図3は、形状推定処理部5の機能を示す機能ブロック図である。
形状推定処理部5は、SAR画像入力部51、相関領域分割部52、歪量算出部53、高さ変換係数算出部54、3D形状算出部55、GCPデータ入力部56を備える。
SAR画像入力部51は、同一箇所を異なる合成開口レーダで撮像した複数のSAR画像を入力して記憶装置に記憶する。
相関領域分割部52は、複数のSAR画像それぞれを処理装置により複数の微小領域に分割する。つまり、相関領域分割部52は、SAR画像1及びSAR画像2を入力とし、各SAR画像を分割して微小領域を出力する。
歪量算出部53は、SAR画像入力部51が入力した複数のSAR画像間の歪量の差を処理装置により算出する。つまり、歪量算出部53は、相関領域分割部52が分割した複数の微小領域の各微小領域において複数のSAR画像それぞれ間での相関をとる。そして、複数のSAR画像間での相対的な位置のずれを求めて、複数のSAR画像間の歪量の差を算出する。すなわち、歪量算出部53は、分割された微小領域とSAR画像1及びSAR画像2を入力とし各微小領域の歪量の差を出力する。
高さ変換係数算出部54は、複数のSAR画像と地上の形状を表すGCPデータとに基づき、歪量の差を高さに変換する高さ変換係数を処理装置により算出する。つまり、高さ変換係数算出部54は、SAR画像1、SAR画像2及びGCPデータを入力とし、高さ変換係数を出力する。
3D形状算出部55は、歪量算出部53が算出した歪量の差と、高さ変換係数算出部54が算出した高さ変換係数とに基づき、SAR画像に撮像された箇所の高さを算出する。そして、3D形状算出部55は、複数のSAR画像に撮像された箇所の3D形状データを求めて記憶装置に記憶する。つまり、3D形状算出部55は、各微小領域の歪量の差と高さ変換係数とを基に、3D形状データ4を出力する。
GCPデータ入力部56は、GCPデータを入力装置により入力する。
Next, the function of the shape estimation process part 5 is demonstrated based on FIG. FIG. 3 is a functional block diagram illustrating functions of the shape estimation processing unit 5.
The shape estimation processing unit 5 includes a SAR image input unit 51, a correlation region division unit 52, a distortion amount calculation unit 53, a height conversion coefficient calculation unit 54, a 3D shape calculation unit 55, and a GCP data input unit 56.
The SAR image input unit 51 inputs a plurality of SAR images obtained by capturing the same portion with different synthetic aperture radars and stores them in the storage device.
The correlation area dividing unit 52 divides each of the plurality of SAR images into a plurality of minute areas by the processing device. That is, the correlation area dividing unit 52 receives the SAR image 1 and the SAR image 2 as input, divides each SAR image, and outputs a minute area.
The distortion amount calculation unit 53 calculates the distortion amount difference between the plurality of SAR images input by the SAR image input unit 51 by the processing device. That is, the distortion amount calculation unit 53 obtains a correlation between each of the plurality of SAR images in each of the plurality of minute regions divided by the correlation region dividing unit 52. Then, a relative positional shift between the plurality of SAR images is obtained, and a distortion amount difference between the plurality of SAR images is calculated. That is, the distortion amount calculation unit 53 receives the divided minute area and the SAR image 1 and the SAR image 2 as inputs and outputs a difference in distortion amount between the minute areas.
Based on a plurality of SAR images and GCP data representing the shape of the ground, the height conversion coefficient calculation unit 54 calculates a height conversion coefficient for converting a difference in distortion amount into a height by a processing device. That is, the height conversion coefficient calculation unit 54 receives the SAR image 1, the SAR image 2, and the GCP data, and outputs a height conversion coefficient.
The 3D shape calculation unit 55 calculates the height of the part imaged in the SAR image based on the difference between the distortion amounts calculated by the distortion amount calculation unit 53 and the height conversion coefficient calculated by the height conversion coefficient calculation unit 54. calculate. Then, the 3D shape calculation unit 55 obtains 3D shape data of locations captured by the plurality of SAR images and stores them in the storage device. That is, the 3D shape calculation unit 55 outputs the 3D shape data 4 based on the difference in distortion amount of each minute region and the height conversion coefficient.
The GCP data input unit 56 inputs GCP data from an input device.

次に、図4に基づき歪補正処理部6の機能について説明する。図4は、歪補正処理部6の機能を示す機能ブロック図である。
歪補正処理部6は、SAR画像入力部61、3D形状データ入力部62、座標算出部63、画像対応点算出部64、座標輝度算出部65、歪補正画像生成部66を備える。
SAR画像入力部61は、同一箇所を異なる合成開口レーダで撮像した複数のSAR画像を入力して記憶装置に記憶する。
3D形状データ入力部62は、SAR画像入力部61が入力した複数のSAR画像に撮像されている箇所の3D形状データを入力して記憶装置に記憶する。つまり、3D形状データ入力部62は、3D形状算出部55が算出した3D形状データ4を入力する。
座標算出部63は、3D形状データ入力部が入力した3D形状データに基づき、複数のSAR画像の歪補正後の各点の座標を処理装置により算出する。つまり、座標算出部63は、SAR画像1、SAR画像2及び3D形状データ4を入力し、歪補正画像の各点(格子点)の座標を出力する。
画像対応点算出部64は、座標算出部63が座標を算出した歪補正後の各点に対応するSAR画像における画素を処理装置により算出する。つまり、画像対応点算出部64は、歪補正画像の格子点の座標、SAR画像1、SAR画像2及び3D形状データ4を入力し、各格子点に対応する各SAR画像中の画素の座標を出力する。
座標輝度算出部65は、画像対応点算出部64が算出した歪補正後の各点に対応する複数のSAR画像それぞれにおける画素の輝度に基づき、歪補正後の各点の輝度を処理装置により算出する。つまり、座標輝度算出部65は、各格子点に対応する各SAR画像中の画素の座標、SAR画像1、SAR画像2及び3D形状データ4を入力し、歪補正後の各点の輝度を算出する。
歪補正画像生成部66は、歪補正後の各点の座標と、座標輝度算出部65が算出した歪補正後の各点の輝度とに基づき、SAR画像の歪を補正した歪補正画像を生成する。つまり、歪補正画像生成部66は、歪補正後の各点の座標と歪補正後の各点の輝度とを入力として、歪補正画像7を出力する。
Next, the function of the distortion correction processing unit 6 will be described with reference to FIG. FIG. 4 is a functional block diagram illustrating functions of the distortion correction processing unit 6.
The distortion correction processing unit 6 includes a SAR image input unit 61, a 3D shape data input unit 62, a coordinate calculation unit 63, an image corresponding point calculation unit 64, a coordinate luminance calculation unit 65, and a distortion correction image generation unit 66.
The SAR image input unit 61 inputs a plurality of SAR images obtained by capturing the same portion with different synthetic aperture radars and stores them in the storage device.
The 3D shape data input unit 62 inputs 3D shape data of locations captured in the plurality of SAR images input by the SAR image input unit 61 and stores them in the storage device. That is, the 3D shape data input unit 62 inputs the 3D shape data 4 calculated by the 3D shape calculation unit 55.
The coordinate calculation unit 63 calculates the coordinates of each point after distortion correction of a plurality of SAR images based on the 3D shape data input by the 3D shape data input unit. That is, the coordinate calculation unit 63 inputs the SAR image 1, the SAR image 2, and the 3D shape data 4, and outputs the coordinates of each point (grid point) of the distortion corrected image.
The image corresponding point calculation unit 64 calculates the pixels in the SAR image corresponding to each point after distortion correction for which the coordinate calculation unit 63 has calculated the coordinates by the processing device. That is, the image corresponding point calculation unit 64 inputs the coordinates of the lattice points of the distortion correction image, the SAR image 1, the SAR image 2, and the 3D shape data 4, and calculates the coordinates of the pixels in each SAR image corresponding to each lattice point. Output.
The coordinate luminance calculation unit 65 calculates the luminance of each point after distortion correction by the processing device based on the luminance of each pixel in the plurality of SAR images corresponding to each point after distortion correction calculated by the image corresponding point calculation unit 64. To do. That is, the coordinate luminance calculation unit 65 inputs the coordinates of the pixels in each SAR image corresponding to each grid point, the SAR image 1, the SAR image 2, and the 3D shape data 4, and calculates the luminance of each point after distortion correction. To do.
The distortion correction image generation unit 66 generates a distortion correction image in which the distortion of the SAR image is corrected based on the coordinates of each point after distortion correction and the luminance of each point after distortion correction calculated by the coordinate luminance calculation unit 65. To do. That is, the distortion corrected image generation unit 66 outputs the distortion corrected image 7 with the coordinates of each point after distortion correction and the luminance of each point after distortion correction as inputs.

次に、図5に基づき実施の形態1に係るSAR画像の歪補正システムの動作について説明する。図5は、実施の形態1に係るSAR画像のオルソ補正処理における動作を示すフローチャートである。   Next, the operation of the SAR image distortion correction system according to the first embodiment will be described with reference to FIG. FIG. 5 is a flowchart showing an operation in the SAR image orthocorrection processing according to the first embodiment.

図5に示すように、実施の形態1に係るSAR画像のオルソ補正処理は、大きく2つのSTEPからなる。
まず、STEP1(形状推定処理)では、形状推定処理部5がSAR画像1、SAR画像2及びGCPデータを基に3D形状データを算出(推定)する。
次に、STEP2(歪補正処理)では、歪補正処理部6がSAR画像1、SAR画像2及び3D形状データ4を基に、歪補正画像7を出力する。
As shown in FIG. 5, the SAR image ortho-correction processing according to the first embodiment mainly includes two STEPs.
First, in STEP 1 (shape estimation processing), the shape estimation processing unit 5 calculates (estimates) 3D shape data based on the SAR image 1, the SAR image 2, and the GCP data.
Next, in STEP 2 (distortion correction processing), the distortion correction processing unit 6 outputs a distortion correction image 7 based on the SAR image 1, the SAR image 2, and the 3D shape data 4.

次に、図6、図7に基づきSTEP1(形状推定処理)の概要について説明する。STEP1の目的は、STEP2を行う前に、SAR画像の歪の基となる対象物の3次元形状を求めることである。   Next, an outline of STEP 1 (shape estimation processing) will be described with reference to FIGS. The purpose of STEP 1 is to obtain the three-dimensional shape of the target object of distortion of the SAR image before performing STEP 2.

図6は、SAR画像中に現れる目標の歪を示す概念図である。図7は、SAR画像におけるフォアショートニング、レイオーバー及びシャドーを示す概念図である。
図6において、hは目標の高さ、θは合成開口から目標を見たときの俯角である。上述したように、SARの位置Sから目標の位置Aまでの距離は、SARの位置Sから倒れこみした位置Cまでの距離と同一である。ここで、一般にhは、SARの位置S(合成開口)と目標の位置Aとの間の距離より十分に小さい。そのため、SARの位置Sと目標の位置Aとを繋ぐ直線と倒れこみした位置Cと目標の位置Aとを繋ぐ直線とは直交すると近似できる。なおこの図では簡単の為、スクイント角は0、即ち合成開口はドップラーゼロの方向にあるとする。
この場合、SAR画像において、目標の手前(SAR側)の側面はh・tanθだけ手前にフォアショートニングを起こす。また、目標の手前の側面は手前の地面との間でレイオーバーを発生させる。また、高さがある目標の後ろ側(SARと反対側)はSARからは撮像できない。そのため、目標の後方にはh/tanθだけシャドー(撮像できない部分)が発生する。図6の状態でSARを撮像した場合、図7に示すようにフォアショートニング、レイオーバー及びシャドーを生じる。
STEP1(形状推定処理)は、複数のSAR画像から、各画像間のフォアショートニングの量の差を算出し、目標の形状を推定する。
FIG. 6 is a conceptual diagram showing target distortion appearing in the SAR image. FIG. 7 is a conceptual diagram showing foreshortening, layover, and shadow in a SAR image.
In FIG. 6, h is the target height, and θ is the depression angle when the target is viewed from the synthetic aperture. As described above, the distance from the SAR position S to the target position A is the same as the distance from the SAR position S to the collapsed position C. Here, in general, h is sufficiently smaller than the distance between the position S (synthetic aperture) of the SAR and the target position A. Therefore, it can be approximated that the straight line connecting the position S of the SAR and the target position A and the straight line connecting the collapsed position C and the target position A are orthogonal. In this figure, for the sake of simplicity, it is assumed that the squint angle is 0, that is, the synthetic aperture is in the direction of Doppler zero.
In this case, in the SAR image, the foreshortening occurs on the side surface in front of the target (SAR side) by h · tan θ. Further, a layover occurs between the side surface in front of the target and the ground in front. Also, the rear side of the target with the height (the side opposite to the SAR) cannot be imaged from the SAR. For this reason, shadows (portions where imaging cannot be performed) occur by h / tan θ behind the target. When the SAR is imaged in the state of FIG. 6, foreshortening, layover, and shadow are generated as shown in FIG.
STEP 1 (shape estimation processing) calculates a difference in the amount of foreshortening between each image from a plurality of SAR images, and estimates a target shape.

図8は、上記フォアショートニング量と合成開口との関係式に関して、合成開口の位置を一般化した場合の概念図である。
図8では、合成開口を形成するアンテナを衛星で示している。図8のhは目標の高さベクトル、Rは合成開口から目標を見た場合の変位ベクトル、Vは合成開口を形成するアンテナの速度ベクトル、Lは合成開口の位置からの速度ベクトルの延長線、Rは目標からLに下ろした垂線の足Sから目標を見た場合の変位ベクトル、xはフォアショートニングによる歪を表すベクトルを示す。
ここで、フォアショートニングによる歪xは、Vと直交する平面内に発生する。
FIG. 8 is a conceptual diagram when the position of the synthetic aperture is generalized with respect to the relational expression between the foreshortening amount and the synthetic aperture.
In FIG. 8, the antenna forming the synthetic aperture is indicated by a satellite. In FIG. 8, h is the target height vector, R is the displacement vector when the target is viewed from the synthetic aperture, V is the velocity vector of the antenna forming the synthetic aperture, and L is the extension of the velocity vector from the synthetic aperture position. , R 0 is a displacement vector when the target is viewed from the foot S of a perpendicular line dropped from the target to L, and x is a vector representing distortion due to foreshortening.
Here, distortion x due to foreshortening occurs in a plane orthogonal to V.

次に、図9に基づきSTEP1(形状推定処理)の処理を詳細に説明する。図9は、STEP1(形状推定処理)の処理を示すフローチャートである。   Next, the processing of STEP 1 (shape estimation processing) will be described in detail with reference to FIG. FIG. 9 is a flowchart showing the processing of STEP 1 (shape estimation processing).

まず、STEP1−1(相関領域分割処理)では、SAR画像入力部51は、同一箇所を異なる合成開口で撮像した2枚以上のSAR画像を入力する。そして、相関領域分割部52は、各々の画像を特徴的なパターンを有する微小領域に分割する。ここで、特徴的なパターンを有する微小領域とは、例えば、輝度の高い地点を含む小領域である。   First, in STEP 1-1 (correlation region division processing), the SAR image input unit 51 inputs two or more SAR images obtained by capturing the same part with different synthetic apertures. Then, the correlation area dividing unit 52 divides each image into minute areas having characteristic patterns. Here, the micro region having a characteristic pattern is, for example, a small region including a point with high luminance.

次に、STEP1−2(歪量算出処理)では、歪量算出部53は、STEP1−1で分割された微小領域を入力とし、微小領域とSAR画像1あるいはSAR画像2との相関を取る。そして、歪量算出部53は、SAR画像中の微小領域について、SAR画像1とSAR画像2の間の相対的な位置のずれを求め、その微小領域における相対的な歪量の差異を算出する。
ここで、歪量算出部53は、全ての微小領域に対して相対的な歪量の差異を算出する。
Next, in STEP 1-2 (distortion amount calculation processing), the distortion amount calculation unit 53 receives the minute region divided in STEP 1-1 as an input, and obtains a correlation between the minute region and the SAR image 1 or the SAR image 2. Then, the distortion amount calculation unit 53 obtains a relative positional shift between the SAR image 1 and the SAR image 2 for a minute area in the SAR image, and calculates a relative distortion amount difference in the minute area. .
Here, the distortion amount calculation unit 53 calculates the difference in relative distortion amounts for all the minute regions.

次にSTEP1−3(高さ変換係数算出処理)では、高さ変換係数算出部54は、SAR画像に含まれる合成開口の位置情報と、GCPデータを基に、複数のSAR画像の相対的な歪量の差を高さに変換する係数を算出する。
まず、高さ変換係数算出部54は、GCPの位置と合成開口の位置とから、合成開口からGCPを見た場合の変位ベクトルRGCPを求める。GCPは目標と同一SAR画像上にありかつ合成開口が目標から十分にはなれていることを仮定すると、合成開口から目標を見た場合の変位ベクトルRはRGCPとほぼ同一と扱っても良い。
つまり、
R>>R−RGCP
したがって、
R≒RGCP
が成立する。
さらに、Rは目標からLへ下ろした垂線の足Sから目標を見た場合の変位ベクトルであるから、RとVとからRを求めることができる。つまり、RGCPとVとからRを求めることができる。
Next, in STEP 1-3 (height conversion coefficient calculation processing), the height conversion coefficient calculation unit 54 calculates the relative position of a plurality of SAR images based on the position information of the synthetic aperture included in the SAR image and the GCP data. A coefficient for converting the difference in distortion amount into height is calculated.
First, the height conversion coefficient calculation unit 54 obtains a displacement vector RGCP when the GCP is viewed from the synthetic aperture from the GCP position and the synthetic aperture position. Assuming that the GCP is on the same SAR image as the target and that the synthetic aperture is sufficiently away from the target, the displacement vector R when the target is viewed from the synthetic aperture may be treated as almost the same as RGCP .
That means
R >> R-R GCP
Therefore,
R ≒ R GCP
Is established.
Furthermore, since R 0 is a displacement vector when the target is viewed from the foot S of the perpendicular line that has been lowered from the target to L, R 0 can be obtained from R and V. That is, R 0 can be obtained from R GCP and V.

図8において、合成開口から目標を見たときの俯角θに対応する角は、R×Vとhのなす角である。また、フォアショートニングによる歪xは、R×Vとhとで張られる平面内でhに垂直である。さらに、フォアショートニングによる歪xは、
|x|≒h・tanθ
である。
この場合、
sinθ=|(R×V)×h|/|R×V|・|h|,
cosθ=(R×V)・h/|R×V|・|h|
である。
したがって、フォアショートニングによる歪xは、
x≒(h×R×V×h)/((R×V)・h) (式3)
x:フォアショートニングによる歪,
h:目標の高さベクトル,
:ドップラーゼロから目標へのベクトル,
V:移動速度ベクトル,
×:外積,
・:内積又は積
となる。
In FIG. 8, the angle corresponding to the depression angle θ when the target is viewed from the synthetic aperture is an angle formed by R 0 × V and h. Further, the distortion x due to foreshortening is perpendicular to h in a plane stretched by R 0 × V and h. Furthermore, the distortion x due to foreshortening is
| X | ≒ h · tanθ
It is.
in this case,
sin θ = | (R 0 × V) × h | / | R 0 × V | · | h |,
cos θ = (R 0 × V) · h / | R 0 × V | · | h |
It is.
Therefore, the distortion x due to foreshortening is
x≈ (h × R 0 × V × h) / ((R 0 × V) · h) (Formula 3)
x: distortion due to foreshortening,
h: target height vector,
R 0 : vector from Doppler zero to target,
V: moving speed vector,
×: outer product,
・ : Inner product or product.

ここで、上記の通りジオメトリが一般化されていることから、合成開口から目標を見たときに、スクイントしている場合についても式3は適用できる。つまり、同一方向からスクイント角を変えて、複数の撮像を行うことで得た複数のSAR画像を入力画像として用いることができる。同一方向からスクイント角を変えて撮像することで、画像間の相関を維持したまま、異なる歪量を有する複数のSAR画像を得ることができる。したがって、同一方向からスクイント角を変えて、複数の撮像を行うことで得た複数のSAR画像を入力画像とすることで、形状推定の精度を高めることができる。   Here, since the geometry is generalized as described above, Equation 3 can also be applied to the case where the target is viewed from the synthetic aperture. In other words, a plurality of SAR images obtained by performing a plurality of imaging by changing the squint angle from the same direction can be used as an input image. A plurality of SAR images having different amounts of distortion can be obtained while maintaining the correlation between the images by changing the squint angle from the same direction. Therefore, by changing the squint angle from the same direction and using a plurality of SAR images obtained by performing a plurality of imaging as input images, the accuracy of shape estimation can be improved.

ここで、目標の大きさが、Rと比べて十分小さいとすれば、歪量xは同じ撮像条件の画像中では、すべての場所で同じ方向であり、かつ大きさは|h|に比例する。つまり、式3に示すように、RとVとが等しい場合には、歪量xは画像中ではすべての場所で同じ方向であり、かつ大きさは|h|に比例する。したがって、SAR画像1の点での歪をx、SAR画像1の点に対応するSAR画像2の点での歪をxとすると次の式4が成り立つ。
=a・|h|・x10
=a・|h|・x20
(a,aは数値であり定数、x10,x20はベクトルであり定数) (式4)
Here, if the target size is sufficiently smaller than R, the distortion amount x is the same in all locations in an image under the same imaging condition, and the size is proportional to | h |. . That is, as shown in Expression 3, when R 0 and V are equal, the distortion amount x is in the same direction everywhere in the image, and the magnitude is proportional to | h |. Therefore, when the distortion at the point of the SAR image 1 is x 1 and the distortion at the point of the SAR image 2 corresponding to the point of the SAR image 1 is x 2 , the following Expression 4 is established.
x 1 = a 1 · | h | · x 10 ,
x 2 = a 2 · | h | · x 20
(A 1 and a 2 are numerical values and constants, and x 10 and x 20 are vectors and constants) (Formula 4)

したがって、SAR画像1とSAR画像2の間で、対応する点の倒れこみベクトルの差分Δxについては、次の式5が成り立つ。
Δx=x−x=|h|(a・x20−a・x10) (式5)
Therefore, between the SAR image 1 and the SAR image 2, the following expression 5 is established for the difference Δx of the collapse vector of the corresponding points.
Δx = x 2 −x 1 = | h | (a 2 · x 20 −a 1 · x 10 ) (Formula 5)

ここで、a・x20−a・x10は、画像を固定すると定数ベクトルとなる。
したがって、2枚のSAR画像間で対応する点の倒れこみの差分は、すべての場所で、同じ方向かつ、大きさは|h|に比例する。また、歪量を高さに変換する係数は、式5から、上記定数の逆数として求められることがわかる。つまり、
|h|=|Δx|/|(a・x20−a・x10)| (式6)
である。
Here, a 2 · x 20 -a 1 · x 10 is a constant vector when the image is fixed.
Therefore, the difference in collapse of the corresponding points between the two SAR images is the same direction and the size is proportional to | h | Further, it can be seen from Equation 5 that the coefficient for converting the distortion amount into the height is obtained as the reciprocal of the above constant. That means
| H | = | Δx | / | (a 2 · x 20 −a 1 · x 10 ) | (Formula 6)
It is.

つまり、高さ変換係数算出部54は、上記a・x20−a・x10を算出することで、複数のSAR画像の相対的な歪量の差を高さに変換する係数を得る。 That is, the height conversion coefficient calculation unit 54 calculates the above a 2 · x 20 -a 1 · x 10 to obtain a coefficient for converting a relative distortion amount difference between a plurality of SAR images into a height. .

STEP1−4(3D形状算出処理)では、3D形状算出部55は、高さ変換係数と各微小領域の歪量を基に、SAR画像の各点の高さを求める。そして、3D形状算出部55は、SAR画像の各点の座標及び高さから散乱点の三次元的な分布を表す3D形状データを出力する。ここで、3D形状データとは、例えば、対象領域中にある全散乱点の3次元的な位置情報を含むデータ(ファイル)である。   In STEP1-4 (3D shape calculation processing), the 3D shape calculation unit 55 obtains the height of each point of the SAR image based on the height conversion coefficient and the amount of distortion of each minute region. Then, the 3D shape calculation unit 55 outputs 3D shape data representing a three-dimensional distribution of scattered points from the coordinates and height of each point of the SAR image. Here, the 3D shape data is, for example, data (file) including three-dimensional position information of all scattering points in the target region.

つまり、STEP1(形状推定処理)では、対象領域中にある全散乱点の3次元的な位置情報を含むデータを出力する。   That is, in STEP 1 (shape estimation process), data including three-dimensional position information of all scattering points in the target region is output.

次に、図10、図11に基づきSTEP2(歪補正処理)について、概要を説明する。STEP2では、3D形状データ4の高さ情報を基に、SAR画像1とSAR画像2の歪量を算出する。そして、算出した歪量に基づき、歪を補正した歪補正画像7を出力する。   Next, an outline of STEP2 (distortion correction processing) will be described with reference to FIGS. In STEP 2, the distortion amounts of the SAR image 1 and the SAR image 2 are calculated based on the height information of the 3D shape data 4. Then, based on the calculated distortion amount, a distortion corrected image 7 in which the distortion is corrected is output.

まず、歪補正処理では、SAR画像の各点の位置の補正を行う。つまり、SAR画像の各点が、補正後の歪補正画像7のどの点になるのかを算出する。
図10は、SAR画像中の歪の補正し、視認性の高い画像に復元する操作を示す概念図である。図10に示すケースにおいては、画像の各点の(1)フォアショートニングによる歪量を補正する。その後更に画像の各点の(2)光学の倒れこみに相当する歪量を補正する。(1)と(2)とを実行した結果、SAR画像中のシャドーの部分がカバーされる。つまり、(1)と(2)とを実行することにより、フォアショートニングによりSAR側へ倒れこんで表示されていた画像が、光学写真と同様に、撮像機器(SAR)と反対側へ倒れこんで表示される。図10の復元画像の上面はフォアショートニング分を戻した後、更に、光学の倒れこみ相当を移動している。
First, in the distortion correction process, the position of each point in the SAR image is corrected. That is, it is calculated which point of the corrected distortion corrected image 7 each point of the SAR image is.
FIG. 10 is a conceptual diagram showing an operation for correcting distortion in the SAR image and restoring it to an image with high visibility. In the case shown in FIG. 10, the distortion amount due to (1) foreshortening of each point of the image is corrected. Thereafter, the distortion amount corresponding to (2) optical collapse of each point of the image is further corrected. As a result of executing (1) and (2), the shadow portion in the SAR image is covered. In other words, by executing (1) and (2), an image that has been collapsed to the SAR side due to foreshortening has fallen to the opposite side of the imaging device (SAR), like an optical photograph. Is displayed. The upper surface of the restored image in FIG. 10 is moved by the amount corresponding to the optical collapse after returning the foreshortening.

さらに、歪補正処理では、フォアショートニングによりレイオーバーを起こしていた点の補正後の画像での輝度を求める。つまり、上記(1)と(2)とでは、補正後の各点の位置を求めることはできるが、フォアショートニングによりレイオーバーを起こしていた点の補正後の輝度については求まらない。すなわち、フォアショートニングによりレイオーバーを起こしていた箇所(画素)については、補正後の画素の輝度を求める必要がある。そこで、フォアショートニングによりレイオーバーを起こしていた箇所(画素)については、複数のSAR画像中の対応点の相関から、適切な値(画素の輝度)を算出し、レイオーバーを補正する。
図11は、レイオーバーの概念を示す図である。SAR画像の原理上、図8のSを含みVと直行する平面上で、Sから等距離にある点は、同一の画像上の点に結像する。すなわち、図中SAR画像1のS1から等距離R1にあるA1、B1およびC1は同一の箇所に結像し、図中SAR画像2のS2から等距離R2にあるA2、B2およびC2についても同一の箇所に結像する。つまり、SAR画像では、A1、B1およびC1は、1つの画素として表示され、A1、B1およびC1それぞれに分離して表示する場合に、A1、B1およびC1それぞれの画素の輝度はわからない。A2、B2およびC2についても同様である。そこで、上述したように、複数SAR画像の対応点の相関から、A1、B1およびC1それぞれの画素の輝度を算出し、レイオーバーを補正する。
Further, in the distortion correction process, the luminance in the corrected image of the point where the layover has occurred due to the foreshortening is obtained. That is, in (1) and (2) above, the position of each point after correction can be obtained, but the luminance after correction of the point that has caused layover due to foreshortening cannot be obtained. That is, for a portion (pixel) where a layover has occurred due to foreshortening, it is necessary to obtain the luminance of the pixel after correction. Therefore, for a portion (pixel) where a layover has occurred due to foreshortening, an appropriate value (pixel luminance) is calculated from the correlation of corresponding points in a plurality of SAR images, and the layover is corrected.
FIG. 11 is a diagram illustrating the concept of layover. Based on the principle of the SAR image, a point that is equidistant from S on a plane that includes S in FIG. 8 and that is perpendicular to V forms an image at a point on the same image. That is, A1, B1, and C1 that are equidistant R1 from S1 of the SAR image 1 in the figure are imaged at the same location, and A2, B2, and C2 that are equidistant R2 from S2 of the SAR image 2 in the figure are the same. The image is formed at That is, in the SAR image, A1, B1, and C1 are displayed as one pixel, and when the A1, B1, and C1 are displayed separately, the luminance of each of the pixels A1, B1, and C1 is unknown. The same applies to A2, B2 and C2. Therefore, as described above, the luminance of each pixel of A1, B1, and C1 is calculated from the correlation of corresponding points of the plurality of SAR images, and the layover is corrected.

次に、図12基づきSTEP2(歪補正処理)の処理を詳細に説明する。図12は、STEP2(歪補正処理)の処理を示すフローチャートである。   Next, the processing of STEP2 (distortion correction processing) will be described in detail with reference to FIG. FIG. 12 is a flowchart showing the processing of STEP2 (distortion correction processing).

まず、STEP2−1(座標算出処理)では、座標算出部63は、SAR画像と3D形状データをもとに、歪補正後の各点(格子点)の座標を算出する。つまり、座標算出部63は、STEP2の最終出力である歪補正画像7の画素となる格子点の座標を算出する。STEP2−1では、歪補正画像7の格子点の座標値を求めるのみで、格子点の輝度は求めていない。つまり、STEP2−1では、歪を補正した後の画像では、どの位置に格子点があるかという情報が求まる。STEP2−1では、座標算出部63は、SAR画像に撮像されている範囲を機械的に等分に(ブロックに)分割し、等分された領域のコーナーを格子点とする。つまり、座標算出部63は、例えば、画像を等分して座標を計算することで、格子点の座標を求める。   First, in STEP 2-1 (coordinate calculation process), the coordinate calculation unit 63 calculates the coordinates of each point (lattice point) after distortion correction based on the SAR image and 3D shape data. That is, the coordinate calculation unit 63 calculates the coordinates of the lattice points that are the pixels of the distortion corrected image 7 that is the final output of STEP2. In STEP 2-1, only the coordinate value of the lattice point of the distortion corrected image 7 is obtained, and the brightness of the lattice point is not obtained. That is, in STEP 2-1, information on which position the lattice point is in the image after correcting the distortion is obtained. In STEP 2-1, the coordinate calculation unit 63 mechanically divides the range captured in the SAR image into equal parts (in blocks), and sets the corners of the equally divided areas as lattice points. That is, the coordinate calculation unit 63 calculates the coordinates of the lattice points by, for example, equally dividing the image and calculating the coordinates.

次に、STEP2−2(画像対応点算出処理)では、画像対応点算出部64は、STEP2−1で算出した格子点の、SAR画像毎の歪量を算出する。つまり、画像対応点算出部64は、格子点の座標に基づき、各SAR画像に対応した歪量を算出する。格子点のSAR画像毎の歪量を求めることにより、格子点に対応する各SAR画像の画素の座標を求める。ここで、合成開口レーダ(プラットフォーム)の位置と目標の位置との関係が図8に示す場合に発生する歪量を定式化すると、フォアショートニングによる歪量は上述した式5の通りである。また、光学の倒れこみに相当する歪量yは、その歪量が図8に示すRとhで張られる平面内で発生することから、式5と同様に、以下の式7で表される。
y≒h×(h×R)/R・h (式7)
Next, in STEP 2-2 (image corresponding point calculation processing), the image corresponding point calculation unit 64 calculates the distortion amount for each SAR image of the lattice points calculated in STEP 2-1. That is, the image corresponding point calculation unit 64 calculates the distortion amount corresponding to each SAR image based on the coordinates of the lattice points. By obtaining the amount of distortion for each SAR image of the lattice point, the coordinates of the pixel of each SAR image corresponding to the lattice point are obtained. Here, when the distortion amount generated when the relationship between the position of the synthetic aperture radar (platform) and the target position is shown in FIG. 8 is formulated, the distortion amount due to foreshortening is expressed by Equation 5 described above. Further, since the distortion amount y corresponding to the optical collapse occurs in the plane stretched by R and h shown in FIG. .
y≈h × (h × R) / R · h (Formula 7)

STEP2−2を、全ての格子点について実施する。つまり、全ての格子点について、対応する各SAR画像の画素の座標を求める。
すなわち、STEP2−2では、歪補正画像7の各格子点に各SAR画像のどの画素が対応するかを求めることができる。
STEP 2-2 is performed for all grid points. That is, the coordinates of the pixels of each corresponding SAR image are obtained for all grid points.
That is, in STEP 2-2, it is possible to determine which pixel of each SAR image corresponds to each lattice point of the distortion corrected image 7.

次に、STEP2−3(座標輝度算出処理)では、座標輝度算出部65は、各格子点に対応する各SAR画像の画素から、各対応するSAR画像の画素の輝度(画素値)を算出する。そして、座標輝度算出部65は、各対応するSAR画像の画素の輝度から歪補正画像7の画素の輝度を算出(推定)する。つまり、座標輝度算出部65は、レイオーバーしていた画素を補正した後の画素の輝度を算出する。   Next, in STEP 2-3 (coordinate luminance calculation processing), the coordinate luminance calculator 65 calculates the luminance (pixel value) of each corresponding SAR image pixel from each SAR image pixel corresponding to each grid point. . Then, the coordinate luminance calculation unit 65 calculates (estimates) the luminance of the pixel of the distortion corrected image 7 from the luminance of the pixel of each corresponding SAR image. That is, the coordinate luminance calculation unit 65 calculates the luminance of the pixel after correcting the pixel that has been laid over.

歪補正画像7の画素の輝度の推定方法としては、いくつかの方法が考えられる。
1つ目の方法として、歪補正画像7の輝度を算出する画素に対応する各SAR画像の画素の中から、最小の輝度の画素を選択し、その輝度を歪補正画像7の画素の輝度として採用する方法がある。つまり、座標輝度算出部65は、歪補正後の各点に対応する上記複数のSAR画像それぞれにおける画素の輝度の内、最小の輝度を上記歪補正後の当該点の輝度とする。
この方法では、複数のSAR画像の中のいずれかの画像で、輝度を算出しようとしている画素がレイオーバーしていない場合には、原則としてレイオーバーしていないSAR画像における画素が選ばれる。また、全てのSAR画像において、輝度を算出しようとしている画素がレイオーバーしている場合には、最もレイオーバーの影響の少ない画素が選ばれる。つまり、輝度を算出する画素に対応する各SAR画像の画素の中から、最小の輝度の画素を選択することで、複数のSAR画像における対応する画素の中から、最も本来の輝度に近い輝度を持つ画素を選択することができる。しかし、この方法では、全てのSAR画像において、輝度を算出しようとしている画素がレイオーバーしている場合には正確な輝度を算出することができない。
As a method for estimating the luminance of the pixel of the distortion corrected image 7, several methods are conceivable.
As a first method, a pixel having the minimum luminance is selected from the pixels of each SAR image corresponding to the pixel for calculating the luminance of the distortion correction image 7, and the luminance is used as the luminance of the pixel of the distortion correction image 7. There is a method to adopt. That is, the coordinate luminance calculation unit 65 sets the minimum luminance among the luminances of the pixels in each of the plurality of SAR images corresponding to each point after distortion correction as the luminance of the point after the distortion correction.
In this method, when a pixel whose luminance is to be calculated does not lay over in any one of a plurality of SAR images, a pixel in the SAR image that does not lay over is selected in principle. Further, in all SAR images, when a pixel whose luminance is to be calculated is laid over, a pixel having the least influence of layover is selected. That is, by selecting the pixel with the lowest luminance from the pixels of each SAR image corresponding to the pixel for calculating the luminance, the luminance closest to the original luminance is obtained from the corresponding pixels in the plurality of SAR images. A pixel can be selected. However, with this method, in all SAR images, accurate luminance cannot be calculated when the pixel whose luminance is to be calculated lays over.

2つ目の方法として、各SAR画像の画素毎にレイオーバーにより重畳された歪補正画像7の座標を全て算出し、SAR画像の画素の輝度と算出した歪補正画像7の座標との対応関係から得られる連立方程式を解く方法がある。
つまり、SAR画像の画素値は、レイオーバーにより重畳される座標点の持つ輝度の和であると考えられる。したがって、座標輝度算出部65は、歪補正後の各点と複数のSAR画像それぞれにおける画素及び当該画素の輝度との対応関係に基づき連立方程式を導く。そして、座標輝度算出部65は、連立方程式を解くことにより、歪補正後の各点の輝度を算出することができる。つまり、あるSAR画像のある画素にレイオーバーにより重畳された歪補正画像7の座標点を全て算出する。すると、算出された全ての座標点の輝度の和は、上記SAR画像の上記画素の輝度であるという式が成り立つ。算出された上記全ての座標点に対して、他のSAR画像に基づき式を求め、連立方程式を解くことにより、目標の各座標点の輝度を求めることができる。
この方法では、1つ目の方法とは異なり、全てのSAR画像において、輝度を算出しようとしている画素がレイオーバーしている場合であっても正確な輝度を算出することが可能である。
As a second method, all the coordinates of the distortion corrected image 7 superimposed by layover are calculated for each pixel of each SAR image, and the correspondence between the luminance of the pixel of the SAR image and the calculated coordinates of the distortion corrected image 7 is calculated. There is a method of solving simultaneous equations obtained from
That is, the pixel value of the SAR image is considered to be the sum of the luminances of the coordinate points superimposed by layover. Therefore, the coordinate luminance calculation unit 65 derives simultaneous equations based on the correspondence between each point after distortion correction, the pixel in each of the plurality of SAR images, and the luminance of the pixel. The coordinate luminance calculation unit 65 can calculate the luminance of each point after distortion correction by solving the simultaneous equations. That is, all the coordinate points of the distortion corrected image 7 superimposed on a certain pixel of a certain SAR image by layover are calculated. Then, the formula that the sum of the calculated luminances of all the coordinate points is the luminance of the pixel of the SAR image is established. For all the calculated coordinate points, the luminance of each target coordinate point can be obtained by obtaining an equation based on another SAR image and solving the simultaneous equations.
In this method, unlike the first method, in all SAR images, it is possible to calculate an accurate luminance even when a pixel whose luminance is to be calculated is laid over.

そして、歪補正画像生成部66は、座標算出部63が算出した歪補正後の各点の座標と、座標輝度算出部65が算出した歪補正後の各点の輝度とに基づき、SAR画像の歪を補正した歪補正画像を生成する。   Then, the distortion corrected image generation unit 66 uses the coordinates of each point after distortion correction calculated by the coordinate calculation unit 63 and the luminance of each point after distortion correction calculated by the coordinate luminance calculation unit 65 of the SAR image. A distortion corrected image in which distortion is corrected is generated.

以上のように、従来の補正方式ではオフナディア角の異なる2枚のSAR画像を用いるため、画像間の相関が悪くなり、結果として形状推定精度が悪くなるという課題があった。また、フォアショートニングのみを補正するので、レイオーバーを補正することはできないという課題があった。しかしながら、本実施の形態に係る歪補正システムでは、ジオメトリが一般化されていることから、同一方向からスクイント角を変えて、複数の撮像を行うことで得た、画像間の相関を維持しつつ、異なる歪量を有する複数のSAR画像を用いて補正を行うことができる。また、本実施の形態に係る歪補正システムでは、複数画像の情報を総合することにより、レイオーバーを起こしている箇所についても、補正を行うことができる。   As described above, since the conventional correction method uses two SAR images having different off-nadir angles, there is a problem that the correlation between the images is deteriorated, and as a result, the shape estimation accuracy is deteriorated. Further, since only foreshortening is corrected, there is a problem that layover cannot be corrected. However, in the distortion correction system according to the present embodiment, since the geometry is generalized, while maintaining the correlation between images obtained by performing multiple imaging by changing the squint angle from the same direction. Correction can be performed using a plurality of SAR images having different distortion amounts. Further, in the distortion correction system according to the present embodiment, it is possible to correct a portion where a layover has occurred by combining information of a plurality of images.

ここで、上記実施の形態をまとめると以下のようになる。
上記実施の形態に係るSAR画像の歪補正システムは、同一箇所を異なる合成開口で撮像した2枚以上のSAR画像を入力とし、各々の画像を、相関をとる微小領域に分割する相関領域分割部と、分割された微小領域とSAR画像を入力とし、相関を取ることにより、複数SAR画像間の相対的な歪量の差異を求める歪量算出部と、SAR画像に含まれる合成開口の位置情報と、GCPデータを基に、歪量を高さに変換する係数を算出する高さ変換係数算出部と、高さ変換係数と各微小領域の歪量を基に、3D形状データを出力する3D形状推定部と、SAR画像と3D形状データを基に、歪補正画像の格子点の座標を算出する格子点算出部と、歪補正画像の格子点の座標とSAR画像像と3D形状データを基に、各格子点に対応する各SAR画像中の画素を算出する画像対応点算出部と、各格子点に対応する各SAR画像中の画素の算出結果とSAR画像と3D形状データを基に各格子点の輝度を決定し歪補正画像を出力する格子点輝度推定部とを備えたことを特徴とする。
Here, the above embodiment is summarized as follows.
The SAR image distortion correction system according to the above-described embodiment receives, as an input, two or more SAR images obtained by capturing the same part with different synthetic apertures, and correlates each of the images into minute regions for correlation. A distortion amount calculation unit that obtains a difference in relative distortion amounts among a plurality of SAR images by inputting the divided minute area and the SAR image and taking a correlation; and position information of the synthetic aperture included in the SAR image A height conversion coefficient calculation unit that calculates a coefficient for converting the distortion amount into height based on the GCP data, and 3D that outputs 3D shape data based on the height conversion coefficient and the distortion amount of each minute region Based on the shape estimation unit, the lattice point calculation unit that calculates the coordinates of the lattice points of the distortion correction image based on the SAR image and the 3D shape data, the coordinates of the lattice points of the distortion correction image, the SAR image image, and the 3D shape data And each SA corresponding to each grid point An image corresponding point calculation unit that calculates pixels in the image, a calculation result of the pixels in each SAR image corresponding to each grid point, a luminance of each grid point based on the SAR image and 3D shape data, and a distortion corrected image And a grid point luminance estimation unit for outputting

また、上記SAR画像の歪補正システムを用いた歪補正方法は、合成開口から目標を見たときに、スクイントしている場合についても適用できるよう歪量の算出式を一般化し、同一方向からスクイント角を変えて、複数の撮像を行うことで、画像間の相関を維持したままで、異なる歪量を有する複数のSAR画像を得る事ができるようにしたことを特徴とする。   Further, the distortion correction method using the SAR image distortion correction system generalizes the equation for calculating the amount of distortion so that it can be applied even when the target is viewed from the synthetic aperture. It is characterized in that a plurality of SAR images having different distortion amounts can be obtained while maintaining the correlation between the images by changing the angle and performing a plurality of images.

さらに、上記SAR画像の歪補正システムを用いた歪補正方法は、各格子点に対応する各SAR画像中の画素の座標から、各々対応するSAR画像上の画素値をもとめ、それらの画素値から歪補正画像の画素値を推定し出力する際、対応する複数の画素値の中から、最小のものを歪補正画像の画素値として採用することを特徴とする。   Further, the distortion correction method using the distortion correction system for the SAR image obtains the pixel value on the corresponding SAR image from the coordinates of the pixel in each SAR image corresponding to each grid point, and calculates the pixel value from the pixel value. When estimating and outputting the pixel value of the distortion corrected image, the smallest one of the corresponding pixel values is adopted as the pixel value of the distortion corrected image.

また、さらに、上記SAR画像の歪補正システムを用いた歪補正方法は、各格子点に対応する各SAR画像中の画素の座標から、各々対応するSAR画像上の画素値をもとめ、それらの画素値から歪補正画像の画素値を推定し出力する際、画素毎にレイオーバーにより重畳される座標点を全て算出し、その全ての座標に対して、他のSAR画像上の画素値を求め、連立方程式を解くことにより、目標の各座標点の輝度を求めることを特徴とする。   Further, the distortion correction method using the distortion correction system for the SAR image obtains the pixel value on the corresponding SAR image from the coordinates of the pixel in each SAR image corresponding to each grid point, and those pixels. When estimating and outputting the pixel value of the distortion-corrected image from the value, all the coordinate points superimposed by layover for each pixel are calculated, and the pixel value on the other SAR image is obtained for all the coordinates, It is characterized in that the luminance of each target coordinate point is obtained by solving simultaneous equations.

次に、図13に基づき、上記実施の形態に係る3D形状処理装置及び歪補正装置のハードウェア構成について説明する。図13は、実施の形態に係る3D形状処理装置及び歪補正装置のハードウェア構成の一例を示す図である。
図13において、3D形状処理装置及び歪補正装置は、プログラムを実行するCPU911(Central・Processing・Unit、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサともいう)を備えている。CPU911は、バス912を介してROM913、RAM914、キーボード902、通信ボード915、磁気ディスク装置920と接続され、これらのハードウェアデバイスを制御する。3D形状処理装置及び歪補正装置は、さらに、LCD901等を備えていても構わない。
Next, a hardware configuration of the 3D shape processing apparatus and the distortion correction apparatus according to the above embodiment will be described with reference to FIG. FIG. 13 is a diagram illustrating an example of a hardware configuration of the 3D shape processing apparatus and the distortion correction apparatus according to the embodiment.
In FIG. 13, the 3D shape processing apparatus and the distortion correction apparatus include a CPU 911 (also referred to as a central processing unit, a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, and a processor) that executes a program. . The CPU 911 is connected to the ROM 913, RAM 914, keyboard 902, communication board 915, and magnetic disk device 920 via the bus 912, and controls these hardware devices. The 3D shape processing apparatus and the distortion correction apparatus may further include an LCD 901 or the like.

RAM914は、揮発性メモリの一例である。ROM913、磁気ディスク装置920の記憶媒体は、不揮発性メモリの一例である。これらは、記憶装置の一例である。
通信ボード915、キーボード902などは、入力装置の一例である。
The RAM 914 is an example of a volatile memory. The storage medium of the ROM 913 and the magnetic disk device 920 is an example of a nonvolatile memory. These are examples of the storage device.
The communication board 915, the keyboard 902, and the like are examples of input devices.

通信ボード915は、通信装置の一例である。
磁気ディスク装置920又はROM913などには、オペレーティングシステム921(OS)、ウィンドウシステム922、プログラム群923、ファイル群924が記憶されている。プログラム群923のプログラムは、CPU911、オペレーティングシステム921、ウィンドウシステム922により実行される。
The communication board 915 is an example of a communication device.
An operating system 921 (OS), a window system 922, a program group 923, and a file group 924 are stored in the magnetic disk device 920 or the ROM 913. The programs in the program group 923 are executed by the CPU 911, the operating system 921, and the window system 922.

上記プログラム群923には、上記で説明した実施の形態において3D形状処理装置及び歪補正装置の各機能を実行するプログラムがそれぞれ記憶されている。プログラムは、CPU911により読み出され実行される。
ファイル群924には、上記で説明した実施の形態において、「〜データ」、「〜画像」として説明する情報やデータや信号値や変数値やパラメータが、「ファイル」や「データベース」の各項目として記憶されている。「ファイル」や「データベース」は、ディスクやメモリなどの記録媒体に記憶される。ディスクやメモリになどの記憶媒体に記憶された情報やデータや信号値や変数値やパラメータは、読み書き回路を介してCPU911によりメインメモリやキャッシュメモリに読み出され、抽出・検索・参照・比較・演算・計算・処理・出力・印刷・表示などのCPU911の動作に用いられる。抽出・検索・参照・比較・演算・計算・処理・出力・印刷・表示のCPU911の動作の間、情報やデータや信号値や変数値やパラメータは、メインメモリやキャッシュメモリやバッファメモリに一時的に記憶される。
また、上記で説明した実施の形態において、処理フロー及びフローチャートの矢印の部分は主としてデータや信号の入出力を示し、データや信号値は、RAM914のメモリ、FDD904のフレキシブルディスク、コンパクトディスク、磁気ディスク装置920の磁気ディスク、その他光ディスク、ミニディスク、DVD(Digital・Versatile・Disc)等の記録媒体に記録される。また、データや信号は、バス912や信号線やケーブルその他の伝送媒体によりオンライン伝送される。
The program group 923 stores programs for executing the functions of the 3D shape processing apparatus and the distortion correction apparatus in the embodiment described above. The program is read and executed by the CPU 911.
In the file group 924, the information, data, signal values, variable values, and parameters described as “˜data” and “˜image” in the above-described embodiment are the items of “file” and “database”. Is remembered as The “file” and “database” are stored in a recording medium such as a disk or a memory. Information, data, signal values, variable values, and parameters stored in a storage medium such as a disk or memory are read out to the main memory or cache memory by the CPU 911 via a read / write circuit, and extracted, searched, referenced, compared, It is used for operations of the CPU 911 such as calculation / calculation / processing / output / printing / display. Information, data, signal values, variable values, and parameters are temporarily stored in the main memory, cache memory, and buffer memory during the operation of the CPU 911 for extraction, search, reference, comparison, calculation, calculation, processing, output, printing, and display. Is remembered.
In the embodiment described above, the arrows in the processing flow and flowchart mainly indicate input / output of data and signals, and the data and signal values are the memory of the RAM 914, the flexible disk of the FDD904, the compact disk, and the magnetic disk. The data is recorded on a recording medium such as a magnetic disk, other optical disk, mini disk, or DVD (Digital Versatile Disc) in the apparatus 920. Data and signals are transmitted online via a bus 912, signal lines, cables, or other transmission media.

また、上記で説明した実施の形態において「〜部」として説明するものは、「〜回路」、「〜装置」、「〜機器」、「〜手段」であってもよく、また、「〜ステップ」、「〜手順」、「〜処理」であってもよい。すなわち、「〜部」として説明するものは、ROM913に記憶されたファームウェアで実現されていても構わない。或いは、ソフトウェアのみ、或いは、素子・デバイス・基板・配線などのハードウェアのみ、或いは、ソフトウェアとハードウェアとの組み合わせ、さらには、ファームウェアとの組み合わせで実施されても構わない。ファームウェアとソフトウェアは、プログラムとして、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD等の記録媒体に記憶される。プログラムはCPU911により読み出され、CPU911により実行される。すなわち、プログラムは、上記で説明した実施の形態において「〜部」としてコンピュータを機能させるものである。あるいは、上記で説明した実施の形態において「〜部」の手順や方法をコンピュータに実行させるものである。   In the embodiment described above, what is described as “to part” may be “to circuit”, “to device”, “to device”, “to means”, and “to step”. ”,“ ˜procedure ”, or“ ˜processing ”. That is, what is described as “˜unit” may be realized by firmware stored in the ROM 913. Alternatively, it may be implemented only by software, or only by hardware such as elements, devices, substrates, and wirings, by a combination of software and hardware, or by a combination of firmware. Firmware and software are stored as programs in a recording medium such as a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, and a DVD. The program is read by the CPU 911 and executed by the CPU 911. That is, the program causes the computer to function as “to part” in the embodiment described above. Alternatively, in the embodiment described above, the computer executes the procedure and method of “to part”.

実施の形態1に係るSAR画像のSAR画像の歪補正システム100(オルソ補正処理装置)の全体構成図。1 is an overall configuration diagram of a SAR image distortion correction system 100 (ortho correction processing apparatus) of a SAR image according to Embodiment 1. FIG. 衛星搭載アンテナを用いたSARのフォアショートニングの概念を示す概念図。The conceptual diagram which shows the concept of the SAR foreshortening using a satellite-mounted antenna. 形状推定処理部5の機能を示す機能ブロック図。The functional block diagram which shows the function of the shape estimation process part 5. FIG. 歪補正処理部6の機能を示す機能ブロック図。FIG. 3 is a functional block diagram showing functions of a distortion correction processing unit 6. 実施の形態1に係るSAR画像のオルソ補正処理における動作を示すフローチャート。5 is a flowchart showing an operation in an SAR image orthocorrection process according to the first embodiment. SAR画像中に現れる目標の歪を示す概念図。The conceptual diagram which shows the distortion of the target which appears in a SAR image. SAR画像におけるフォアショートニング、レイオーバー及びシャドーを示す概念図。The conceptual diagram which shows the foreshortening, layover, and shadow in a SAR image. 上記フォアショートニング量と合成開口との関係式に関して、合成開口の位置を一般化した場合の概念図。The conceptual diagram at the time of generalizing the position of a synthetic aperture regarding the relational expression of the said foreshortening amount and a synthetic aperture. STEP1(形状推定処理)の処理を示すフローチャート。The flowchart which shows the process of STEP1 (shape estimation process). SAR画像中の歪の補正し、視認性の高い画像に復元する操作を示す概念図。The conceptual diagram which shows operation which correct | amends the distortion in a SAR image, and decompress | restores in an image with high visibility. レイオーバーの概念を示す図。The figure which shows the concept of layover. STEP2(歪補正処理)の処理を示すフローチャート。7 is a flowchart showing a STEP 2 (distortion correction process) process. 実施の形態に係る3D形状処理装置及び歪補正装置のハードウェア構成の一例を示す図。The figure which shows an example of the hardware constitutions of the 3D shape processing apparatus which concerns on embodiment, and a distortion correction apparatus.

符号の説明Explanation of symbols

1,2 SAR画像、3 GCPデータ、4 3D形状データ、5 形状推定処理部、51,61 SAR画像入力部、52 相関領域分割部、53 歪量算出部、54 高さ変換係数算出部、55 3D形状算出部、56 GCPデータ入力部、6 歪補正処理部、62 3D形状データ入力部、63 座標算出部、64 画像対応点算出部、65 座標輝度算出部、66 歪補正画像生成部、7 歪補正画像、100 SAR画像の歪補正システム、902 K/B、911 CPU、912 バス、913 ROM、914 RAM、915 通信ボード、920 磁気ディスク装置、921 OS、922 ウィンドウシステム、923 プログラム群、924 ファイル群。   1, 2 SAR image, 3 GCP data, 4 3D shape data, 5 shape estimation processing unit, 51, 61 SAR image input unit, 52 correlation region division unit, 53 distortion amount calculation unit, 54 height conversion coefficient calculation unit, 55 3D shape calculation unit, 56 GCP data input unit, 6 distortion correction processing unit, 62 3D shape data input unit, 63 coordinate calculation unit, 64 image corresponding point calculation unit, 65 coordinate luminance calculation unit, 66 distortion correction image generation unit, 7 Distortion correction image, 100 SAR image distortion correction system, 902 K / B, 911 CPU, 912 bus, 913 ROM, 914 RAM, 915 communication board, 920 magnetic disk device, 921 OS, 922 window system, 923 program group, 924 Files.

Claims (7)

同一箇所を異なる合成開口で撮像した複数のSAR(Synthetic Aperture Radar)画像を入力して記憶装置に記憶するSAR画像入力部と、
上記SAR画像入力部が入力した複数のSAR画像間の歪量の差を処理装置により算出する歪量算出部と、
上記複数のSAR画像と地上の形状を表すGCP(Ground Control Point)データとに基づき、歪量の差を高さに変換する高さ変換係数を処理装置により算出する高さ変換係数算出部と、
上記歪量算出部が算出した歪量の差と、上記高さ変換係数算出部が算出した高さ変換係数とに基づき、SAR画像に撮像された箇所の高さを算出して、上記複数のSAR画像に撮像された箇所の3D(Dimensional)形状データを求めて記憶装置に記憶する3D形状算出部と
を備えることを特徴とするSAR画像の3D形状算出装置。
A SAR image input unit that inputs a plurality of SAR (Synthetic Aperture Radar) images obtained by imaging the same portion with different synthetic apertures and stores them in a storage device;
A distortion amount calculation unit that calculates a difference in distortion amount between a plurality of SAR images input by the SAR image input unit by a processing device;
A height conversion coefficient calculation unit that calculates a height conversion coefficient for converting a difference in distortion amount into height based on the plurality of SAR images and GCP (Ground Control Point) data representing the shape of the ground;
Based on the difference between the distortion amounts calculated by the distortion amount calculation unit and the height conversion coefficient calculated by the height conversion coefficient calculation unit, the height of the portion imaged in the SAR image is calculated, A 3D shape calculation device for a SAR image, comprising: a 3D shape calculation unit that obtains 3D (Dimensional) shape data of a location imaged in the SAR image and stores the data in a storage device.
上記3D形状算出装置は、さらに、
上記複数のSAR画像それぞれを複数の微小領域に分割する相関領域分割部を備え、
上記歪量算出部は、上記相関領域分割部が分割した複数の微小領域の各微小領域において上記複数のSAR画像それぞれ間での相関をとることにより、上記複数のSAR画像間での相対的な位置のずれを求めて、上記複数のSAR画像間の歪量の差を算出する
ことを特徴とする請求項1記載のSAR画像の3D形状算出装置。
The 3D shape calculation device further includes:
A correlation area dividing unit that divides each of the plurality of SAR images into a plurality of minute areas;
The distortion amount calculation unit obtains a correlation between each of the plurality of SAR images in each micro region of the plurality of micro regions divided by the correlation region dividing unit, so that a relative relationship between the plurality of SAR images is obtained. The apparatus for calculating a 3D shape of a SAR image according to claim 1, wherein a difference in distortion amount between the plurality of SAR images is calculated by obtaining a positional shift.
上記SAR画像入力部は、同一方向からスクイント角を変えて撮像した複数のSAR画像を入力し、
上記高さ変換係数算出部は、上記同一方向からスクイント角を変えて撮像した複数のSAR画像とGCPデータとに基づき、歪量の差を高さに変換する高さ変換係数を算出する
ことを特徴とする請求項1記載のSAR画像の3D形状算出装置。
The SAR image input unit inputs a plurality of SAR images captured by changing the squint angle from the same direction,
The height conversion coefficient calculation unit calculates a height conversion coefficient for converting a difference in distortion amount into a height based on a plurality of SAR images captured by changing the squint angle from the same direction and the GCP data. The SAR image 3D shape calculation apparatus according to claim 1, wherein
上記高さ変換係数算出部は、歪量を表す式1に基づき求められた式2に基づき、歪量を高さに変換する高さ変換係数を算出する
ことを特徴とする請求項3記載のSAR画像の3D形状算出装置。
x≒(h×R×V×h)/((R×V)・h) (式1)
|h|=Δx/(a・x20−a・x10) (式2)
x:フォアショートニングによる歪,
h:目標の高さベクトル,
:ドップラーゼロから目標へのベクトル,
V:移動速度ベクトル,
Δx:2つのSAR画像の間での対応する点の倒れこみベクトルの差分,
,x10,a,x20:定数(a,a:数値,x10,x20:ベクトル)
×:外積,
・:内積又は積
4. The height conversion coefficient calculating unit calculates a height conversion coefficient for converting a distortion amount into a height based on an expression 2 obtained based on an expression 1 representing the distortion amount. SAR image 3D shape calculation device.
x≈ (h × R 0 × V × h) / ((R 0 × V) · h) (Formula 1)
| H | = Δx / (a 2 · x 20 -a 1 · x 10 ) (Formula 2)
x: distortion due to foreshortening,
h: target height vector,
R 0 : vector from Doppler zero to target,
V: moving speed vector,
Δx: difference of collapse vector of corresponding points between two SAR images,
a 1 , x 10 , a 2 , x 20 : constant (a 1 , a 2 : numerical value, x 10 , x 20 : vector)
×: outer product,
-: Inner product or product
同一箇所を異なる合成開口で撮像した複数のSAR(Synthetic Aperture Radar)画像を入力して記憶装置に記憶するSAR画像入力部と、
上記SAR画像入力部が入力した複数のSAR画像に撮像されている箇所の3D(Dimensional)形状データを入力して記憶装置に記憶する3D形状データ入力部と、
上記3D形状データ入力部が入力した3D形状データに基づき、上記複数のSAR画像の歪補正後の各点の座標を処理装置により算出する座標算出部と、
上記座標算出部が座標を算出した歪補正後の各点に対応する上記SAR画像における画素を処理装置により算出する画像対応点算出部と、
上記画像対応点算出部が算出した歪補正後の各点に対応する上記複数のSAR画像それぞれにおける画素の輝度に基づき、上記歪補正後の各点の輝度を処理装置により算出する座標輝度算出部と、
上記歪補正後の各点の座標と、上記座標輝度算出部が算出した上記歪補正後の各点の輝度とに基づき、SAR画像の歪を補正した歪補正画像を生成する歪補正画像生成部と
を備えることを特徴とするSAR画像の歪補正装置。
A SAR image input unit that inputs a plurality of SAR (Synthetic Aperture Radar) images obtained by imaging the same portion with different synthetic apertures and stores them in a storage device;
A 3D shape data input unit that inputs 3D (Dimensional) shape data of a portion captured in a plurality of SAR images input by the SAR image input unit and stores the data in a storage device;
A coordinate calculation unit that calculates the coordinates of each point after distortion correction of the plurality of SAR images based on the 3D shape data input by the 3D shape data input unit;
An image corresponding point calculation unit that calculates a pixel in the SAR image corresponding to each point after distortion correction for which the coordinate calculation unit has calculated the coordinates by a processing device;
A coordinate luminance calculation unit that calculates the luminance of each point after the distortion correction by the processing device based on the luminance of the pixel in each of the plurality of SAR images corresponding to each point after the distortion correction calculated by the image corresponding point calculation unit. When,
A distortion-corrected image generation unit that generates a distortion-corrected image in which the distortion of the SAR image is corrected based on the coordinates of each point after the distortion correction and the luminance of each point after the distortion correction calculated by the coordinate luminance calculation unit. A distortion correction apparatus for a SAR image, comprising:
上記座標輝度算出部は、上記歪補正後の各点に対応する上記複数のSAR画像それぞれにおける画素の輝度の内、最小の輝度を上記歪補正後の当該点の輝度とする
ことを特徴とする請求項5記載のSAR画像の歪補正装置。
The coordinate luminance calculation unit is characterized in that the minimum luminance among the luminances of the pixels in each of the plurality of SAR images corresponding to each point after the distortion correction is set as the luminance of the point after the distortion correction. The SAR image distortion correction apparatus according to claim 5.
上記座標輝度算出部は、上記歪補正後の各点と上記複数のSAR画像それぞれにおける画素及び当該画素の輝度との対応関係に基づき導いた連立方程式を解くことにより、上記歪補正後の各点の輝度を算出する
ことを特徴とする請求項5記載のSAR画像の歪補正装置。
The coordinate luminance calculation unit solves the distortion-corrected points by solving simultaneous equations derived based on the correspondence between each point after the distortion correction, the pixel in each of the plurality of SAR images, and the luminance of the pixel. The SAR image distortion correction apparatus according to claim 5, wherein the luminance of the SAR image is calculated.
JP2007017223A 2007-01-29 2007-01-29 3d shape calculation device of sar image, and distortion correction device of sar image Pending JP2008185375A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007017223A JP2008185375A (en) 2007-01-29 2007-01-29 3d shape calculation device of sar image, and distortion correction device of sar image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007017223A JP2008185375A (en) 2007-01-29 2007-01-29 3d shape calculation device of sar image, and distortion correction device of sar image

Publications (1)

Publication Number Publication Date
JP2008185375A true JP2008185375A (en) 2008-08-14

Family

ID=39728534

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007017223A Pending JP2008185375A (en) 2007-01-29 2007-01-29 3d shape calculation device of sar image, and distortion correction device of sar image

Country Status (1)

Country Link
JP (1) JP2008185375A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010230373A (en) * 2009-03-26 2010-10-14 Mitsubishi Space Software Kk Device, method and program for calculating vehicle speed
CN103646389A (en) * 2013-03-26 2014-03-19 中国科学院电子学研究所 SAR slant range image match automatic extraction method based on geometric model
JP2015079296A (en) * 2013-10-15 2015-04-23 株式会社パスコ Radar image interpretation support device and radar image interpretation support method
WO2015151134A1 (en) * 2014-04-04 2015-10-08 三菱電機株式会社 Radar signal processing device
JP2016057092A (en) * 2014-09-05 2016-04-21 国立研究開発法人情報通信研究機構 Method for forming three-dimensional topographic map from sar diagram
WO2017126547A1 (en) * 2016-01-22 2017-07-27 日本電気株式会社 Image processor, image processing method and image processing program
WO2018056129A1 (en) * 2016-09-20 2018-03-29 日本電気株式会社 Information processing device, information processing method, and storage medium
CN108387899A (en) * 2018-04-17 2018-08-10 南京师范大学 Ground control point automatically selecting method in synthetic aperture radar interferometry
WO2018198212A1 (en) * 2017-04-26 2018-11-01 日本電気株式会社 Information processing device, information processing method, and computer-readable storage medium
CN108776342A (en) * 2018-07-13 2018-11-09 电子科技大学 A kind of high speed platform SAR moving-target detection and speed estimation method at a slow speed
WO2018211625A1 (en) * 2017-05-17 2018-11-22 日本電気株式会社 Information processing device, information processing method, and storage medium having program stored thereon
WO2018220732A1 (en) * 2017-05-31 2018-12-06 日本電気株式会社 Information providing device, information providing method, and storage medium
WO2022190196A1 (en) 2021-03-09 2022-09-15 日本電気株式会社 Change detection device and change detection method
US20220308203A1 (en) * 2021-03-24 2022-09-29 R2 Space, LLC Synthetic aperture radar simulation
WO2023073936A1 (en) * 2021-10-29 2023-05-04 日本電気株式会社 Signal processing system and signal processing method
EP4332628A1 (en) 2022-09-01 2024-03-06 NEC Corporation Signal processing device and signal processing method

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010230373A (en) * 2009-03-26 2010-10-14 Mitsubishi Space Software Kk Device, method and program for calculating vehicle speed
CN103646389A (en) * 2013-03-26 2014-03-19 中国科学院电子学研究所 SAR slant range image match automatic extraction method based on geometric model
JP2015079296A (en) * 2013-10-15 2015-04-23 株式会社パスコ Radar image interpretation support device and radar image interpretation support method
WO2015151134A1 (en) * 2014-04-04 2015-10-08 三菱電機株式会社 Radar signal processing device
JP2016057092A (en) * 2014-09-05 2016-04-21 国立研究開発法人情報通信研究機構 Method for forming three-dimensional topographic map from sar diagram
WO2017126547A1 (en) * 2016-01-22 2017-07-27 日本電気株式会社 Image processor, image processing method and image processing program
US11175399B2 (en) 2016-09-20 2021-11-16 Nec Corporation Information processing device, information processing method, and storage medium
JP7020418B2 (en) 2016-09-20 2022-02-16 日本電気株式会社 Information processing equipment, information processing methods, and programs
WO2018056129A1 (en) * 2016-09-20 2018-03-29 日本電気株式会社 Information processing device, information processing method, and storage medium
JPWO2018056129A1 (en) * 2016-09-20 2019-06-27 日本電気株式会社 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND STORAGE MEDIUM
WO2018198212A1 (en) * 2017-04-26 2018-11-01 日本電気株式会社 Information processing device, information processing method, and computer-readable storage medium
JPWO2018211625A1 (en) * 2017-05-17 2020-05-07 日本電気株式会社 Information processing apparatus, information processing method, and storage medium storing program
WO2018211625A1 (en) * 2017-05-17 2018-11-22 日本電気株式会社 Information processing device, information processing method, and storage medium having program stored thereon
WO2018220732A1 (en) * 2017-05-31 2018-12-06 日本電気株式会社 Information providing device, information providing method, and storage medium
CN108387899B (en) * 2018-04-17 2020-07-31 南京师范大学 Ground control point automatic selection method in synthetic aperture radar interferometry
CN108387899A (en) * 2018-04-17 2018-08-10 南京师范大学 Ground control point automatically selecting method in synthetic aperture radar interferometry
CN108776342A (en) * 2018-07-13 2018-11-09 电子科技大学 A kind of high speed platform SAR moving-target detection and speed estimation method at a slow speed
CN108776342B (en) * 2018-07-13 2022-03-15 电子科技大学 High-speed platform SAR slow moving target detection and speed estimation method
WO2022190196A1 (en) 2021-03-09 2022-09-15 日本電気株式会社 Change detection device and change detection method
US20220308203A1 (en) * 2021-03-24 2022-09-29 R2 Space, LLC Synthetic aperture radar simulation
US12050262B2 (en) * 2021-03-24 2024-07-30 R2 Space, LLC Synthetic aperture radar simulation
WO2023073936A1 (en) * 2021-10-29 2023-05-04 日本電気株式会社 Signal processing system and signal processing method
EP4332628A1 (en) 2022-09-01 2024-03-06 NEC Corporation Signal processing device and signal processing method

Similar Documents

Publication Publication Date Title
JP2008185375A (en) 3d shape calculation device of sar image, and distortion correction device of sar image
US10880541B2 (en) Stereo correspondence and depth sensors
JP5503578B2 (en) Object detection apparatus and object detection method
US9135710B2 (en) Depth map stereo correspondence techniques
KR101697512B1 (en) Image registration device and method thereof
US9230335B2 (en) Video-assisted target location
US20140253679A1 (en) Depth measurement quality enhancement
WO2012101967A1 (en) Positioning information forming device, detection device, and positioning information forming method
US8170374B2 (en) Image reconstruction method
JP6326641B2 (en) Image processing apparatus and image processing method
JP6061770B2 (en) Camera posture estimation apparatus and program thereof
US9563937B2 (en) High-resolution image generation apparatus, high-resolution image generation method, and high-resolution image generation program
WO2009096520A1 (en) Corresponding point search apparatus and corresponding point search method
JP2016200557A (en) Calibration device, distance measurement apparatus and calibration method
JP2011133341A (en) Displacement measuring device, displacement measuring method, and displacement measuring program
US9514526B2 (en) Device and method for detecting angle of rotation from normal position of image
JP2017199285A (en) Information processor, information processing method, program
JP2009146150A (en) Method and device for detecting feature position
JP2020041950A (en) Surveying device, surveying method, and program
WO2018139297A1 (en) Camera device
US20210398292A1 (en) Movement amount estimation device, movement amount estimation method, and computer readable medium
JP2011171991A (en) Image processing apparatus, electronic device, image processing method and image processing program
JP5891751B2 (en) Inter-image difference device and inter-image difference method
JP5636966B2 (en) Error detection apparatus and error detection program
JP2022043503A (en) Altitude data generation system, altitude data generation program, and altitude data generation method