JP5328491B2 - Radar image processing device - Google Patents

Radar image processing device Download PDF

Info

Publication number
JP5328491B2
JP5328491B2 JP2009132922A JP2009132922A JP5328491B2 JP 5328491 B2 JP5328491 B2 JP 5328491B2 JP 2009132922 A JP2009132922 A JP 2009132922A JP 2009132922 A JP2009132922 A JP 2009132922A JP 5328491 B2 JP5328491 B2 JP 5328491B2
Authority
JP
Japan
Prior art keywords
radar
radar image
image
phase correction
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009132922A
Other languages
Japanese (ja)
Other versions
JP2010281584A (en
Inventor
昇 大石
正芳 土田
俊夫 若山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2009132922A priority Critical patent/JP5328491B2/en
Publication of JP2010281584A publication Critical patent/JP2010281584A/en
Application granted granted Critical
Publication of JP5328491B2 publication Critical patent/JP5328491B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Description

本発明はレーダ画像処理装置に関し、特に、観測対象へ電波を照射して得るレーダ画像を処理するためのレーダ画像処理装置に関する。   The present invention relates to a radar image processing apparatus, and more particularly, to a radar image processing apparatus for processing a radar image obtained by irradiating an observation target with radio waves.

航空機や人工衛星などの移動プラットフォームには、合成開口レーダや実開口レーダなどのレーダが搭載され、それらにより得られるレーダ画像は、複数枚重ね合わされて処理されることがある。この重ね合せ処理は、地形の起伏計測、微小変化抽出、切断(トモグラフィ)画像作成などに用いられる。   A mobile platform such as an aircraft or an artificial satellite is equipped with a radar such as a synthetic aperture radar or a real aperture radar, and a plurality of radar images obtained by the radar may be processed in a superimposed manner. This superposition processing is used for terrain undulation measurement, minute change extraction, cutting (tomography) image creation, and the like.

重ね合わせ処理は、2段階の処理に分けられ、処理の第一段では、基準画像に対して他の画像を重ね合わせ、当該基準画像に対する他の画像のずれの大きさを推定する。処理の第二段では、基準画像の各画素と他の画像の各画素の示す観測対象(地表上の建造物など)が一致するよう、推定したずれ量に合わせて、重ね合わせた他の画像をずらしてリサンプルする。   The superimposition process is divided into two stages. In the first stage of the process, another image is superimposed on the reference image, and the size of the shift of the other image with respect to the reference image is estimated. In the second stage of processing, other images superimposed in accordance with the estimated deviation amount so that the observation target (such as a building on the ground) indicated by each pixel of the reference image and each pixel of the other image match. Shift and resample.

処理の第一段における、ずれの大きさの従来の推定法は、例えば、図1に示すように、2枚の画像の相互相関を計算して、ずれ量(Δx,Δy)に対する相互相関の分布図を作成し、相互相関の最大値が生じた位置をずれ量推定値

Figure 0005328491
とする(例えば、非特許文献1参照)。図1において、レーダ画像Aを基準画像とし、レーダ画像Bを、レーダ画像Aに重ね合わせる他のレーダ画像とする。ずれの推定は、画像全体で一つのずれ量とみなして推定してもよいし、画像を小画像に分割し、小画像ごとにずれ量を推定してもよい。相互相関には、次式(1)および(2)で示される、相互相関係数C(Δx,Δy)もしくは相互相関関数C(Δx,Δy)を用いる。 For example, as shown in FIG. 1, the conventional estimation method of the magnitude of the deviation in the first stage of the process calculates the cross-correlation between two images and calculates the cross-correlation with respect to the deviation (Δx, Δy). Create a distribution map and estimate the position where the maximum cross-correlation occurred.
Figure 0005328491
(For example, see Non-Patent Document 1). In FIG. 1, a radar image A is a reference image, and a radar image B is another radar image that is superimposed on the radar image A. The estimation of the shift may be performed by regarding the entire image as one shift amount, or the image may be divided into small images and the shift amount may be estimated for each small image. For the cross-correlation, a cross-correlation coefficient C c (Δx, Δy) or a cross-correlation function C f (Δx, Δy) represented by the following expressions (1) and (2) is used.

Figure 0005328491
Figure 0005328491

Figure 0005328491
Figure 0005328491

ここで、x,yはそれぞれレーダ画像Aとレーダ画像Bの縦軸と横軸、A(x,y),B(x,y)はそれぞれレーダ画像Aとレーダ画像Bの座標(x,y)における画素値である。xmin,xmax,ymin、ymaxは、それぞれ、ずれ量を推定するレーダ画像のx軸最小値、x軸最大値、y軸最小値、y軸最大値を示す。*は複素共役を示す。   Here, x and y are the vertical and horizontal axes of the radar image A and the radar image B, respectively, and A (x, y) and B (x, y) are the coordinates (x, y) of the radar image A and the radar image B, respectively. ). xmin, xmax, ymin, and ymax respectively indicate the x-axis minimum value, the x-axis maximum value, the y-axis minimum value, and the y-axis maximum value of the radar image for estimating the shift amount. * Indicates a complex conjugate.

処理の第二段における、従来のリサンプリング法では、レーダ画像Aの各画素と重ね合わせたレーダ画像Bの各画素の示す観測対象(地表上の建造物など)が一致するよう、推定したずれ量

Figure 0005328491
に合わせて、レーダ画像Bをずらしてリサンプルする。 In the conventional resampling method in the second stage of processing, the estimated shift is made so that the observation target (such as a building on the ground surface) indicated by each pixel of the radar image B superimposed with each pixel of the radar image A matches. amount
Figure 0005328491
The radar image B is shifted and resampled at the same time.

D. S. Schwartz, 他“P-3 SAR motion compensation techniques”, Proc of SPIE, vol. 4050, pp. 219-230, 2000D. S. Schwartz, et al. “P-3 SAR motion compensation techniques”, Proc of SPIE, vol. 4050, pp. 219-230, 2000

従来の重ね合せ処理では、ずれ量の推定処理に問題点があった。レーダ画像の取得では、風の影響や軌道制御の精度上の限界のために、画像Aと画像Bを観測した際の移動プラットフォームの軌道が一致しない。すると、レーダ画像の画素には軌道と観測対象の距離に比例した位相が含まれるため、画像Aと画像Bにおいて、同一の観測対象を示す画素間でも位相に差が生じる。この位相差のため、ずれが無くても画像間の相関が低下するので、相互相関係数C(Δx,Δy)や相互相関関数C(Δx,Δy)からずれ量を推定しようとしても、正確なずれ量において相関の最大値が低下して、雑音に埋もれ、他のずれ量において最大となる可能性がある。このため、ずれ量に誤差が生じてしまうという問題点があった。 In the conventional overlay process, there is a problem in the shift amount estimation process. In the acquisition of radar images, the trajectories of the moving platforms at the time of observing the images A and B do not match due to the influence of wind and the limit on the accuracy of trajectory control. Then, since the pixels of the radar image include a phase proportional to the distance between the trajectory and the observation target, in the image A and the image B, there is a difference in phase between pixels indicating the same observation target. Because of this phase difference, the correlation between images decreases even if there is no shift, so even if an attempt is made to estimate the shift amount from the cross-correlation coefficient C c (Δx, Δy) or the cross-correlation function C f (Δx, Δy). There is a possibility that the maximum value of the correlation is lowered at an accurate deviation amount, buried in noise, and maximized at other deviation amounts. For this reason, there is a problem that an error occurs in the shift amount.

本発明はかかる問題点を解決するためになされたものであり、軌道差で生じた位相差を除去して、正確にずれ量推定を行うことが可能なレーダ画像処理装置を得ることを目的とする。   The present invention has been made to solve such a problem, and an object thereof is to obtain a radar image processing apparatus capable of accurately estimating a deviation amount by removing a phase difference caused by a trajectory difference. To do.

本発明は、互いに異なる軌道から同一の観測対象を観測した複数のレーダ画像を格納するレーダ画像格納部と、前記軌道の軌道差により発生したレーダ画像間の位相補正量を算出する位相補正量算出部と、前記位相補正量の算出結果に基づき、前記レーダ画像の位相を補正する位相補正部と、位相補正した前記レーダ画像間の相互相関を計算する相互相関計算部と、前記相互相関から前記レーダ画像間のずれ量を推定するずれ量推定部と、前記ずれ量の推定結果に基づき、前記レーダ画像同士が互いに重なるように前記レーダ画像をずらしてリサンプルするリサンプル部とを備えたレーダ画像処理装置である。   The present invention provides a radar image storage unit that stores a plurality of radar images obtained by observing the same observation target from different trajectories, and a phase correction amount calculation that calculates a phase correction amount between radar images generated due to a trajectory difference between the trajectories. Based on the calculation result of the phase correction amount, a phase correction unit for correcting the phase of the radar image, a cross-correlation calculation unit for calculating a cross-correlation between the phase-corrected radar images, and the cross-correlation A radar comprising: a deviation amount estimation unit that estimates a deviation amount between radar images; and a resample unit that shifts and resamples the radar images so that the radar images overlap each other based on the estimation result of the deviation amount An image processing apparatus.

本発明は、互いに異なる軌道から同一の観測対象を観測した複数のレーダ画像を格納するレーダ画像格納部と、前記軌道の軌道差により発生したレーダ画像間の位相補正量を算出する位相補正量算出部と、前記位相補正量の算出結果に基づき、前記レーダ画像の位相を補正する位相補正部と、位相補正した前記レーダ画像間の相互相関を計算する相互相関計算部と、前記相互相関から前記レーダ画像間のずれ量を推定するずれ量推定部と、前記ずれ量の推定結果に基づき、前記レーダ画像同士が互いに重なるように前記レーダ画像をずらしてリサンプルするリサンプル部とを備えたレーダ画像処理装置であるので、軌道差で生じた位相差を除去して、正確にずれ量推定を行うことができる。   The present invention provides a radar image storage unit that stores a plurality of radar images obtained by observing the same observation target from different trajectories, and a phase correction amount calculation that calculates a phase correction amount between radar images generated due to a trajectory difference between the trajectories. Based on the calculation result of the phase correction amount, a phase correction unit for correcting the phase of the radar image, a cross-correlation calculation unit for calculating a cross-correlation between the phase-corrected radar images, and the cross-correlation A radar comprising: a deviation amount estimation unit that estimates a deviation amount between radar images; and a resample unit that shifts and resamples the radar images so that the radar images overlap each other based on the estimation result of the deviation amount Since the image processing apparatus is used, it is possible to accurately estimate the shift amount by removing the phase difference caused by the trajectory difference.

レーダ画像の重ね合わせ処理を説明した説明図である。It is explanatory drawing explaining the overlay process of a radar image. 本発明の実施の形態1に係るレーダ画像処理装置の構成を示したブロック図である。It is the block diagram which showed the structure of the radar image processing apparatus which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係るレーダ画像処理装置の処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the process of the radar image processing apparatus which concerns on Embodiment 1 of this invention. 本発明の実施の形態2に係るレーダ画像処理装置の構成を示したブロック図である。It is the block diagram which showed the structure of the radar image processing apparatus which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係るレーダ画像処理装置の処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the process of the radar image processing apparatus which concerns on Embodiment 2 of this invention. 本発明の実施の形態3に係るレーダ画像処理装置の構成を示したブロック図である。It is the block diagram which showed the structure of the radar image processing apparatus which concerns on Embodiment 3 of this invention. 本発明の実施の形態3に係るレーダ画像処理装置の処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the process of the radar image processing apparatus which concerns on Embodiment 3 of this invention.

実施の形態1.
図に基づいて本発明の実施の形態に係るレーダ画像処理装置について説明する。本発明のレーダ画像処理装置は、観測対象へレーダにより電波を照射することによって得るレーダ画像を処理するものであって、レーダ画像の重ね合わせ処理を行うものである。本発明の対象となる、レーダ画像の重ね合わせ処理では、地表などの同一観測対象を複数回観測して複数枚のレーダ画像を得て、それらの複数枚のレーダ画像から一枚の基準画像を定め、当該基準画像にその他の画像を重ねて、そのずれの大きさを推定し、基準画像の各画素が示す観測対象(地表上の建造物など)と重ね合わせ画像における同一の観測対象とが一致するように、推定したずれ量に合わせて重ね合わせ画像をずらして、リサンプルするものである。以降では、基準画像をレーダ画像A、重ね合わせ画像をレーダ画像Bと呼称する。なお、レーダ画像Aおよびレーダ画像Bを取得するためのレーダは、航空機や人工衛星などの移動プラットフォームに搭載されていることを想定する。また、レーダ画像Aおよびレーダ画像Bは、当該移動プラットフォームの互いに異なる軌道から同一の観測対象を観測して得た画像とする。
Embodiment 1 FIG.
A radar image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings. The radar image processing apparatus of the present invention processes a radar image obtained by irradiating an observation target with radio waves from a radar, and performs a radar image overlay process. In the radar image superimposition process that is the object of the present invention, the same observation target such as the ground surface is observed multiple times to obtain a plurality of radar images, and one reference image is obtained from the plurality of radar images. Establish and superimpose other images on the reference image, estimate the magnitude of the deviation, and observe the observation target (such as a building on the ground) indicated by each pixel of the reference image and the same observation target in the superimposed image. The superimposed images are shifted in accordance with the estimated shift amount so as to match, and resampled. Hereinafter, the reference image is referred to as a radar image A, and the superimposed image is referred to as a radar image B. It is assumed that the radar for acquiring the radar image A and the radar image B is mounted on a mobile platform such as an aircraft or an artificial satellite. Radar image A and radar image B are images obtained by observing the same observation target from different trajectories of the mobile platform.

図2は、本発明の実施の形態1によるレーダ画像処理装置の構成を示すブロック図である。なお、以降では、各図中、同一もしくは相当部分は同一符号で示す。図2において、レーダ画像A格納部1110は、重ね合わせ処理における基準画像となるレーダ画像Aを格納する。基準とする画像は、複数枚のレーダ画像の中から本装置の操作者が任意の画像を設定することができる。レーダ画像B格納部1120は、重ね合わせ込まれる画像のレーダ画像Bを格納する。軌道情報A格納部1210および軌道情報B格納部1220は、それぞれ、レーダ画像Aおよびレーダ画像Bを取得した際の移動プラットフォームの軌道情報を格納する。軌道情報としては、例えば慣性航法装置やGlobal Positioning System(GPS)から得た、時刻ごとのプラットフォームの位置情報、もしくは、それを推定できる情報などがあるが、これらに限定されるものではない。また、軌道に基づく位相差算出部1230は、軌道情報A格納部1210と軌道情報B格納部1220に格納された軌道情報を基に、軌道差で生じたレーダ画像Aとレーダ画像B間の位相補正量を計算する。位相補正部1300は、軌道に基づく位相差算出部1230で計算した位相補正量を基にレーダ画像Aおよびレーダ画像Bの位相を補正する。相互相関計算部1400では、位相補正されたレーダ画像Aとレーダ画像B間の相互相関の分布図を計算する。ずれ量推定部1500では、相互相関の分布図からレーダ画像A,B間のずれ量を推定する。リサンプル部1600は、ずれ量推定値を基に、レーダ画像Bをリサンプルする。出力格納部1700は、リサンプルしたレーダ画像Bを格納する。   FIG. 2 is a block diagram showing the configuration of the radar image processing apparatus according to Embodiment 1 of the present invention. In the following, the same or corresponding parts are denoted by the same reference numerals in the respective drawings. In FIG. 2, a radar image A storage unit 1110 stores a radar image A that serves as a reference image in the overlay process. As the reference image, the operator of this apparatus can set an arbitrary image from a plurality of radar images. The radar image B storage unit 1120 stores a radar image B of an image to be superimposed. The trajectory information A storage unit 1210 and the trajectory information B storage unit 1220 store trajectory information of the moving platform when the radar image A and the radar image B are acquired, respectively. Examples of the trajectory information include, but are not limited to, platform position information for each time obtained from an inertial navigation system or Global Positioning System (GPS), or information that can be estimated. The phase difference calculation unit 1230 based on the trajectory is based on the trajectory information stored in the trajectory information A storage unit 1210 and the trajectory information B storage unit 1220, and the phase between the radar image A and the radar image B generated by the trajectory difference. Calculate the correction amount. The phase correction unit 1300 corrects the phases of the radar image A and the radar image B based on the phase correction amount calculated by the phase difference calculation unit 1230 based on the trajectory. The cross-correlation calculation unit 1400 calculates a cross-correlation distribution map between the phase-corrected radar image A and radar image B. The deviation amount estimation unit 1500 estimates the deviation amount between the radar images A and B from the cross-correlation distribution diagram. The resample unit 1600 resamples the radar image B based on the estimated deviation amount. The output storage unit 1700 stores the resampled radar image B.

次に、動作について説明する。図3は、実施の形態1によるレーダ画像処理装置の処理の流れを示すフローチャートである。なお、ステップの番号は基本的にブロック図中の実行するブロックの符合に対応する(以降同様)。   Next, the operation will be described. FIG. 3 is a flowchart showing a processing flow of the radar image processing apparatus according to the first embodiment. The step number basically corresponds to the code of the block to be executed in the block diagram (the same applies hereinafter).

まず、ステップST1100では、レーダにより得られたレーダ画像Aとレーダ画像Bが入力され、それぞれ、レーダ画像A格納部1110およびレーダ画像B格納部1120に格納される。   First, in step ST1100, a radar image A and a radar image B obtained by a radar are input and stored in a radar image A storage unit 1110 and a radar image B storage unit 1120, respectively.

次に、ステップST1200では、軌道に基づく位相差算出部1230が、軌道情報A格納部1210と軌道情報B格納部1220に予め格納されている軌道情報Aと軌道情報Bとを読み込み、当該軌道情報Aと軌道情報Bとから、レーダ画像Aとレーダ画像Bの画素ごとの位相補正量を計算する。レーダ画像A、レーダ画像Bの位相補正量φ(x,y),φ(x,y)は、次式(3)および(4)で計算できる。 Next, in step ST1200, the trajectory-based phase difference calculation unit 1230 reads the trajectory information A and the trajectory information B stored in advance in the trajectory information A storage unit 1210 and the trajectory information B storage unit 1220, and the trajectory information. From A and the trajectory information B, the phase correction amount for each pixel of the radar image A and the radar image B is calculated. The phase correction amounts φ A (x, y) and φ B (x, y) of the radar image A and the radar image B can be calculated by the following equations (3) and (4).

Figure 0005328491
Figure 0005328491

Figure 0005328491
ここで、λはレーダの波長、r(x,y)はレーダ画像Aの座標(x,y)に位置する画素の示す観測対象と、その画素を観測した時刻におけるプラットフォームの位置との距離である。この観測した時刻におけるプラットフォームの位置は、画像再生の際に定義される位置である。r(x,y)も同様に、レーダ画像Bの座標(x,y)に位置する画素の示す観測対象と、その画素を観測した時刻におけるプラットフォームの位置との距離である。
Figure 0005328491
Here, λ is the radar wavelength, r A (x, y) is the distance between the observation target indicated by the pixel located at the coordinates (x, y) of the radar image A and the platform position at the time when the pixel is observed. It is. The platform position at the observed time is a position defined at the time of image reproduction. Similarly, r B (x, y) is the distance between the observation target indicated by the pixel located at the coordinates (x, y) of the radar image B and the platform position at the time when the pixel was observed.

次に、ステップST1300では、位相補正部1300が、ステップST1200で計算した位相補正量を基に、レーダ画像Aとレーダ画像Bの位相を補正する。補正後のレーダ画像A,Bの画素A'(x,y),B'(x,y)は、それぞれ次式(5),(6)となる。   Next, in step ST1300, phase correction section 1300 corrects the phases of radar image A and radar image B based on the phase correction amount calculated in step ST1200. Pixels A ′ (x, y) and B ′ (x, y) in the corrected radar images A and B are expressed by the following equations (5) and (6), respectively.

Figure 0005328491
Figure 0005328491

Figure 0005328491
Figure 0005328491

ただし、jは虚数単位を示す。なお、この補正はレーダ画像A,Bの位相の差を補正するものなので、例えばレーダ画像Aのみ次式(7)により補正し、レーダ画像Bを補正しないことも可能である。   However, j shows an imaginary unit. Since this correction corrects the phase difference between the radar images A and B, for example, it is possible to correct only the radar image A by the following equation (7) and not the radar image B.

Figure 0005328491
Figure 0005328491

さらに、ステップST1400では、相互相関計算部1400が、位相補正したレーダ画像A,Bの相互相関の分布を計算する。この計算は、例えば、ずれ量(Δx,Δy)を変えながら、上述した式(1)もしくは式(2)で逐次計算してもよい。また、式(2)の計算は、フーリエ変換を用いた次式(8)でも実行できる。   In step ST1400, cross-correlation calculation section 1400 calculates the cross-correlation distribution of phase-corrected radar images A and B. For example, this calculation may be performed sequentially using the above-described equation (1) or equation (2) while changing the shift amount (Δx, Δy). Moreover, the calculation of Formula (2) can also be performed by the following Formula (8) using Fourier transform.

Figure 0005328491
Figure 0005328491

ここで、F[ ],F−1[ ]は、それぞれ、2次元フーリエ変換、2次元逆フーリエ変換を表す。 Here, F [] and F −1 [] represent a two-dimensional Fourier transform and a two-dimensional inverse Fourier transform, respectively.

ステップST1500では、ずれ量推定部1500が、ステップST1400で求めた相互相関分布から、相互相関が最大となるずれ量を求め、それをずれ量推定値

Figure 0005328491
とする。 In step ST1500, the deviation amount estimation unit 1500 obtains a deviation amount that maximizes the cross-correlation from the cross-correlation distribution obtained in step ST1400, and calculates the deviation amount estimated value.
Figure 0005328491
And

次に、ステップST1600では、リサンプル部1600が、ずれ量推定値

Figure 0005328491
に応じてレーダ画像Bをずらし、レーダ画像Aの各画素と重なるようにレーダ画像Bの各画素を補間処理によりリサンプルする。この補間には、例えば、最近画素の画素を用いる方法や、一次関数または二次関数などの多項式により補間する方法などがある。なお、ステップST1600でリサンプルされたレーダ画像Bは、出力格納部1700に格納される。 Next, in step ST1600, the resampling unit 1600 determines the estimated deviation amount.
Figure 0005328491
Accordingly, the radar image B is shifted, and each pixel of the radar image B is resampled by interpolation processing so as to overlap with each pixel of the radar image A. This interpolation includes, for example, a method using a pixel of the latest pixel and a method of interpolation using a polynomial such as a linear function or a quadratic function. The radar image B resampled in step ST1600 is stored in the output storage unit 1700.

以上のように、本実施の形態1によれば、相互相関を計算する前に、軌道差により生じる位相差を補正することで、この位相差による相互相関の低下で生じるずれ量推定の誤差を防止し、正確なずれ量推定が可能である。   As described above, according to the first embodiment, by correcting the phase difference caused by the orbital difference before calculating the cross-correlation, the error in estimating the deviation amount caused by the reduction of the cross-correlation due to the phase difference can be reduced. It is possible to prevent and accurately estimate the deviation amount.

実施の形態2.
上述の実施の形態1では、レーダ観測時の移動プラットフォームの軌道の情報を基に、位相補正量を計算した。本実施の形態2では、軌道情報を使う代わりに、レーダ画像A,B間の干渉縞から位相補正量を推定する。
Embodiment 2. FIG.
In the first embodiment described above, the phase correction amount is calculated based on the information on the trajectory of the mobile platform at the time of radar observation. In the second embodiment, the phase correction amount is estimated from the interference fringes between the radar images A and B instead of using the trajectory information.

図4は、本発明の実施の形態2に係るレーダ画像処理装置の構成を示すブロック図である。図4において、実施の形態1と同一もしくは相当部分は同一符号で示し、ここでは、その説明を省略する。実施の形態1との構成の違いは、本実施の形態2においては、実施の形態1で示した、図2の軌道情報A格納部1210および軌道情報B格納部1220が設けられておらず、その代わりに、粗い重ね合わせ部2210が設けられており、また、実施の形態1で示した、図2の軌道に基づく位相差算出部1230が設けられておらず、その代わりに、干渉縞に基づく位相補正量算出部2220が設けられている点である。   FIG. 4 is a block diagram showing the configuration of the radar image processing apparatus according to Embodiment 2 of the present invention. In FIG. 4, the same or corresponding parts as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted here. The difference from the configuration of the first embodiment is that the second embodiment does not have the trajectory information A storage unit 1210 and the trajectory information B storage unit 1220 shown in FIG. Instead, a rough overlapping unit 2210 is provided, and the phase difference calculation unit 1230 based on the trajectory of FIG. 2 shown in the first embodiment is not provided. The phase correction amount calculation unit 2220 is provided.

粗い重ね合わせ部2210は、レーダ画像Aとレーダ画像Bとを粗い精度で重ね合せ処理するものである。また、干渉縞に基づく位相補正量算出部2220は、レーダ画像Aと粗いレジストレーションをしたレーダ画像Bの干渉縞から位相補正量を算出するものである。   The coarse overlay unit 2210 superimposes the radar image A and the radar image B with coarse accuracy. Further, the phase correction amount calculation unit 2220 based on the interference fringes calculates the phase correction amount from the interference fringes of the radar image B that is roughly registered with the radar image A.

次に、動作について説明する。図5は、本実施の形態2に係るレーダ画像処理装置の処理の流れを示すフローチャートである。ステップST1100は実施の形態1と同じである。   Next, the operation will be described. FIG. 5 is a flowchart showing a processing flow of the radar image processing apparatus according to the second embodiment. Step ST1100 is the same as that in the first embodiment.

ステップST2210では、粗い重ね合わせ部2210が、レーダ画像Aとレーダ画像Bとを粗い精度で重ね合わせる。なお、一般に、2枚のずれのないレーダ画像の位相差を計算すると、干渉縞が生じる。そして、レーダ画像間のずれが大きいほど干渉縞が雑音に埋もれて確認できなくなる。このステップST2210でいう粗い重ねあわせとは、干渉縞が確認できる程度の粗さを指す。また、粗い重ね合わせの方法としては、レーダ画像Aとレーダ画像Bの振幅成分のみからなる画像(振幅画像)において、画像中の単数もしくは複数の特徴点(例えば建造物の角や電柱など)が重なり合うようにリサンプルするなどの方法がある。   In step ST2210, the coarse overlay unit 2210 superimposes the radar image A and the radar image B with coarse accuracy. In general, when the phase difference between two radar images without any deviation is calculated, interference fringes are generated. As the deviation between the radar images increases, the interference fringes are buried in noise and cannot be confirmed. The rough overlay referred to in step ST2210 refers to a roughness that can confirm interference fringes. In addition, as a rough superposition method, in an image (amplitude image) consisting only of the amplitude components of the radar image A and the radar image B, one or a plurality of feature points (for example, a corner of a building or a utility pole) are included in the image. There are methods such as resampling so that they overlap.

次に、ステップST2220では、干渉縞に基づく位相補正量算出部2220が、干渉縞を基に位相補正量を推定する。レーダ画像の干渉縞は、2回の観測の間に生じた位相の変化である。この位相の変化は、地表の変化、視線の変化による見え方の変化、及び/または、軌道差による位相差である。この軌道差による位相差が、位相補正量である。レーダ画像A,Bの位相差の分布を見ると、地表の変化、見え方の変化はランダムな分布になり、軌道差による位相差は周期性を持った縞模様として現れる。このため、レーダ画像A,Bの位相差の分布を2次元フーリエ変換すると、軌道差による位相差の周波数成分が、他の二つの位相変化の周波数成分よりもスペクトル上で大きいパワーを持つ。よって、この大きいパワーの周波数成分を取り出し、2次元逆フーリエ変換することで、軌道差による位相差を取り出すことが出来る。この位相差が、式(7)中のφ(x,y)−φ(x,y)に相当する。 Next, in step ST2220, the phase correction amount calculation unit 2220 based on the interference fringes estimates the phase correction amount based on the interference fringes. Interference fringes in radar images are phase changes that occur between two observations. This phase change is a change in appearance due to a change in the ground surface, a change in line of sight, and / or a phase difference due to a trajectory difference. The phase difference due to this orbital difference is the phase correction amount. When the distribution of the phase difference between the radar images A and B is seen, the change in the ground surface and the change in the appearance are random distributions, and the phase difference due to the orbital difference appears as a striped pattern having periodicity. For this reason, when the distribution of the phase difference between the radar images A and B is two-dimensional Fourier transformed, the frequency component of the phase difference due to the orbital difference has a greater power on the spectrum than the other two frequency components of the phase change. Therefore, the phase difference due to the orbital difference can be extracted by taking out the frequency component of this large power and performing the two-dimensional inverse Fourier transform. This phase difference corresponds to φ A (x, y) −φ B (x, y) in the equation (7).

ステップST1300では、実施の形態1と同様の手順で、位相補正部1300が、計算された位相補正量を基に、レーダ画像Aとレーダ画像Bの位相を補正する。但し、本実施の形態の場合、当該位相補正量は、ステップST2220で計算されたものである。   In step ST1300, the phase correction unit 1300 corrects the phases of the radar image A and the radar image B based on the calculated phase correction amount in the same procedure as in the first embodiment. However, in the case of the present embodiment, the phase correction amount is calculated in step ST2220.

なお、以降のステップST1400からステップST1600までの処理は、上述の実施の形態1と同じであるため、ここでは、説明を省略する。   The subsequent processing from step ST1400 to step ST1600 is the same as that in the above-described first embodiment, and thus description thereof is omitted here.

以上のように、本実施の形態2によれば、上述の実施の形態1と同様に、相互相関を計算する前に、軌道差により生じる位相差を補正することで、この位相差による相互相関の低下で生じるずれ量推定の誤差を防止し、正確なずれ量推定が可能である。また、本実施の形態2においては、レーダ画像A,B間の干渉縞から位相補正量を推定するようにして、軌道情報を必要としないことから、軌道情報の計測誤差に影響されずに正確なずれ量推定が可能である。また、軌道情報を必要としないことから、データ保存容量に制限のある装置でも、正確なずれ量推定が可能となり、さらに、軌道情報の無いレーダ画像についても正確なずれ量推定が可能である。   As described above, according to the second embodiment, the cross-correlation due to this phase difference is corrected by correcting the phase difference caused by the orbital difference before calculating the cross-correlation, as in the first embodiment. Therefore, it is possible to prevent an error in estimating the amount of deviation caused by the decrease in the number of errors and to estimate the amount of deviation accurately. Further, in the second embodiment, since the phase correction amount is estimated from the interference fringes between the radar images A and B and the trajectory information is not required, it is accurate without being affected by the measurement error of the trajectory information. It is possible to estimate the amount of deviation. Further, since no trajectory information is required, an accurate deviation amount can be estimated even with an apparatus having a limited data storage capacity. Further, an accurate deviation amount can be estimated even for a radar image without trajectory information.

実施の形態3.
本実施の形態3では、上述の実施の形態2の粗い合わせ込みの代わりに、少しずつずらす度に位相補正および相互相関の計算を実施することで、画像に特徴点などが無く粗い合せ込みが出来ない場合でも、軌道情報を用いない位相差補正を実現し、ひいては、正確なずれ量推定を可能にする。
Embodiment 3 FIG.
In the third embodiment, instead of the rough fitting of the above-described second embodiment, phase correction and cross-correlation calculation are performed every time the shift is made little by little, so that there is no feature point in the image and rough fitting is performed. Even if this is not possible, phase difference correction without using trajectory information is realized, and thus accurate deviation amount estimation is possible.

図6は、本発明の実施の形態3によるレーダ画像処理装置の構成を示すブロック図である。図6において、実施の形態1または実施の形態2と同一もしくは相当部分は同一符号で示し、ここでは、その説明を省略する。実施の形態2との構成の違いは、本実施の形態3においては、実施の形態2で示した、図4の粗い重ね合わせ部2210が設けられておらず、その代わりに、ずれ量設定部3200とリサンプル部3600とが設けられており、また、実施の形態2で示した、図4の相互相関計算部1400が設けられておらず、その代わりに、相互相関逐次計算部3400が設けられている点である。   FIG. 6 is a block diagram showing a configuration of a radar image processing apparatus according to Embodiment 3 of the present invention. In FIG. 6, the same or corresponding parts as those in the first embodiment or the second embodiment are denoted by the same reference numerals, and the description thereof is omitted here. The difference between the second embodiment and the second embodiment is that the third embodiment does not have the rough overlapping section 2210 shown in FIG. 4 and is provided with a deviation amount setting section. 3200 and a resample unit 3600 are provided, and the cross-correlation calculation unit 1400 of FIG. 4 shown in the second embodiment is not provided, and instead, a cross-correlation sequential calculation unit 3400 is provided. This is the point.

ずれ量設定部3200は、複数のずれ量(Δx,Δy)を予め設定するものであって、レーダ画像B格納部1120に格納されたレーダ画像Bのデータと、相互相関逐次計算部3400の更新信号とを入力とし、設定したずれ量(Δx,Δy)を順次出力する。なお、ずれ量設定部3200に接続されたリサンプル部3600は、この設定したずれ量に合わせてリサンプルする。相互相関逐次計算部3400は、干渉縞に基づく位相補正量算出部2220による位相補正されたレーダ画像Aとレーダ画像Bとから相互相関を計算し、設定したずれ量の更新信号と相互相関の分布図とを出力する。   The deviation amount setting unit 3200 sets a plurality of deviation amounts (Δx, Δy) in advance, and updates the radar image B data stored in the radar image B storage unit 1120 and the cross-correlation sequential calculation unit 3400. The set deviation amount (Δx, Δy) is sequentially output with the signal as an input. Note that the resample unit 3600 connected to the deviation amount setting unit 3200 resamples in accordance with the set deviation amount. The cross-correlation sequential calculation unit 3400 calculates a cross-correlation from the radar image A and the radar image B phase-corrected by the phase correction amount calculation unit 2220 based on interference fringes, and sets an update signal of the set deviation amount and the cross-correlation distribution. Output the figure.

次に、動作について説明する。図7は、本実施の形態3に係るレーダ画像処理装置の処理の流れを示すフローチャートである。ステップST1100は、実施の形態1および2と同じであるため、ここでは説明を省略する。   Next, the operation will be described. FIG. 7 is a flowchart showing a processing flow of the radar image processing apparatus according to the third embodiment. Step ST1100 is the same as in Embodiments 1 and 2, and thus description thereof is omitted here.

ステップST3200では、ずれ量設定部3200が、レーダ画像Bをずらすためのずれ量を設定する。ずれ量の設定は、設定するずれ量(Δx,Δy)を複数個予め決めておき、それらを順次設定する。   In step ST3200, the shift amount setting unit 3200 sets a shift amount for shifting the radar image B. For the setting of the deviation amount, a plurality of deviation amounts (Δx, Δy) to be set are determined in advance, and these are sequentially set.

ステップST3600では、リサンプル部3600が、設定されたずれ量に応じてレーダ画像Bをずらし、レーダ画像Aの各画素と重なるようにレーダ画像Bの各画素を補間処理によりリサンプルする。この補間には、例えば、最近画素の画素を用いる方法や、一次関数または二次関数などの多項式により補間する方法などがある。   In step ST3600, the resample unit 3600 shifts the radar image B according to the set amount of deviation, and resamples each pixel of the radar image B by interpolation processing so as to overlap each pixel of the radar image A. This interpolation includes, for example, a method using a pixel of the latest pixel and a method of interpolation using a polynomial such as a linear function or a quadratic function.

ステップST2220およびステップST1300は実施の形態2と基本的に同じである。すなわち、ステップST2220で、位相補正量算出部2220が、リサンプルされたレーダ画像Bと基本画像であるレーダ画像Aとを重ね合わせて干渉させ、干渉縞から位相補正量を推定する。ステップST1300では、実施の形態2と同様に、位相補正部1300が、ST2220で計算された位相補正量を基に、レーダ画像Aとレーダ画像Bの位相を補正する。   Step ST2220 and step ST1300 are basically the same as those in the second embodiment. That is, in step ST2220, the phase correction amount calculation unit 2220 superimposes the resampled radar image B and the radar image A that is the basic image to interfere, and estimates the phase correction amount from the interference fringes. In step ST1300, as in the second embodiment, phase correction section 1300 corrects the phases of radar image A and radar image B based on the phase correction amount calculated in ST2220.

ステップST3410では、相互相関逐次計算部3400が、位相補正されたレーダ画像Aと、ステップST3200で設定したずれ量分だけずらした上で位相補正されたレーダ画像Bとの相互相関を計算する。また、計算した相互相関の値と、そのとき設定されていたずれ量とを基に、ずれ量と相互相関の分布図を作成する。   In step ST3410, the cross-correlation sequential calculation unit 3400 calculates the cross-correlation between the phase-corrected radar image A and the phase-corrected radar image B after shifting by the shift amount set in step ST3200. Further, based on the calculated cross-correlation value and the deviation amount set at that time, a distribution map of the deviation amount and the cross-correlation is created.

ステップST3420では、予め設定したずれ量が順次全て設定され、全てのずれ量に対する相互相関の計算および分布の作成が完了したか否かを確認する。完了していなければ、ステップST3200の処理に戻り、まだ設定されておらず相互相関の計算等が完了していないずれ量の値に設定して、ステップST3600からステップST3410までの処理を行う。一方、ステップST3420の判定の結果、全てのずれ量に対する相互相関の計算および分布の作成が完了していれば、ステップST1500へ進み、ステップST1500およびステップST1600の処理を行う。ステップST1500およびステップST1600の処理については、実施の形態1および2と同じであるため、ここでは、その説明を省略する。   In step ST3420, all preset deviation amounts are sequentially set, and it is confirmed whether calculation of cross-correlation for all deviation amounts and creation of distribution are completed. If not completed, the process returns to the process of step ST3200, set to the value of the deviation that has not been set yet and the cross-correlation calculation or the like has not been completed, and the processes from step ST3600 to step ST3410 are performed. On the other hand, as a result of the determination in step ST3420, if calculation of cross-correlation for all the deviation amounts and creation of distribution are completed, the process proceeds to step ST1500, and the processes in steps ST1500 and ST1600 are performed. Since the processes in step ST1500 and step ST1600 are the same as those in the first and second embodiments, the description thereof is omitted here.

以上のように、本実施の形態3によれば、上述の実施の形態1および実施の形態2と同様に、相互相関を計算する前に、軌道差により生じる位相差を補正することで、この位相差による相互相関の低下で生じるずれ量推定の誤差を防止し、正確なずれ量推定が可能である。また、本実施の形態3においても、実施の形態2と同様に、軌道情報を必要としないことから、軌道情報の計測誤差に影響されずに正確なずれ量推定が可能であり、また、データ保存容量に制限のある装置でも正確なずれ量推定が可能で、さらに、軌道情報の無いレーダ画像についても正確なずれ量推定が可能である。加えて、本実施の形態3においては、粗い合わせ込みの代わりに、少しずつずらす度に位相補正および相互相関の計算を実施するようにしたので、レーダ画像に特徴点などが無く、実施の形態2で示したような粗い重ね合せが出来ない場合でも、正確なずれ量推定が可能である。   As described above, according to the third embodiment, as in the first and second embodiments, the phase difference caused by the trajectory difference is corrected before the cross-correlation is calculated. It is possible to prevent a deviation amount estimation error caused by a decrease in cross-correlation due to a phase difference, and to accurately estimate a deviation amount. Also in the third embodiment, as in the second embodiment, since orbit information is not required, accurate deviation amount estimation is possible without being affected by the measurement error of the orbit information, and the data Even an apparatus with a limited storage capacity can accurately estimate the amount of deviation, and can also accurately estimate the amount of deviation for a radar image without trajectory information. In addition, in the third embodiment, instead of rough fitting, phase correction and cross-correlation calculation are performed every time the shift is performed little by little. Even when rough overlaying as shown in FIG. 2 cannot be performed, accurate deviation amount estimation is possible.

1110 レーダ画像A格納部、1120 レーダ画像B格納部、1210 軌道情報A格納部、1220 軌道情報B格納部、1230 軌道に基づく位相差算出部、1300 位相補正部、1400 相互相関計算部、1500 ずれ量推定部、1600 リサンプル部、1700 出力格納部、2210 粗い重ね合わせ部、2220 干渉縞に基づく位相補正量算出部、3200 ずれ量設定部、3400 相互相関逐次計算部、3600 リサンプル部。   1110 Radar image A storage unit, 1120 Radar image B storage unit, 1210 Orbit information A storage unit, 1220 Orbit information B storage unit, 1230 Phase difference calculation unit based on orbit, 1300 Phase correction unit, 1400 Cross correlation calculation unit, 1500 deviation Amount estimation unit, 1600 resample unit, 1700 output storage unit, 2210 coarse overlay unit, 2220 phase correction amount calculation unit based on interference fringes, 3200 deviation amount setting unit, 3400 cross-correlation sequential calculation unit, 3600 resample unit.

Claims (4)

互いに異なる軌道から同一の観測対象を観測した複数のレーダ画像を格納するレーダ画像格納部と、
前記軌道の軌道差により発生したレーダ画像間の位相補正量を算出する位相補正量算出部と、
前記位相補正量の算出結果に基づき、前記レーダ画像の位相を補正する位相補正部と、
位相補正した前記レーダ画像間の相互相関を計算する相互相関計算部と、
前記相互相関から前記レーダ画像間のずれ量を推定するずれ量推定部と、
前記ずれ量の推定結果に基づき、前記レーダ画像同士が互いに重なるように前記レーダ画像をずらしてリサンプルするリサンプル部と
を備えたことを特徴とするレーダ画像処理装置。
A radar image storage unit for storing a plurality of radar images obtained by observing the same observation target from different orbits;
A phase correction amount calculation unit for calculating a phase correction amount between radar images generated due to a trajectory difference between the trajectories;
A phase correction unit for correcting the phase of the radar image based on the calculation result of the phase correction amount;
A cross-correlation calculator for calculating cross-correlation between the phase-corrected radar images;
A deviation amount estimation unit for estimating a deviation amount between the radar images from the cross-correlation;
A radar image processing apparatus comprising: a resample unit that shifts and resamples the radar images so that the radar images overlap with each other based on the estimation result of the shift amount.
前記位相補正量算出部は、
前記レーダ画像の軌道情報を格納する軌道情報格納部と、
前記軌道情報が入力され、軌道差に基づくレーダ画像間の位相補正量を計算する補正量算出部と
を含むことを特徴とする請求項1に記載のレーダ画像処理装置。
The phase correction amount calculation unit
A trajectory information storage unit for storing trajectory information of the radar image;
The radar image processing apparatus according to claim 1, further comprising: a correction amount calculation unit that receives the trajectory information and calculates a phase correction amount between radar images based on a trajectory difference.
前記位相補正量算出部は、
前記レーダ画像同士が干渉して干渉縞が確認できる程度に前記レーダ画像を粗く重ね合わせる粗い重ね合わせ部と、
前記干渉縞に基づくレーダ画像間の位相補正量を計算する補正量算出部と
を含むことを特徴とする請求項1に記載のレーダ画像処理装置。
The phase correction amount calculation unit
A rough overlay unit that roughly overlays the radar image to the extent that the radar images interfere with each other and interference fringes can be confirmed;
The radar image processing apparatus according to claim 1, further comprising: a correction amount calculation unit that calculates a phase correction amount between radar images based on the interference fringes.
互いに異なる軌道から同一の観測対象を観測した複数のレーダ画像を格納するレーダ画像格納部と、
前記複数のレーダ画像の中の1つを基準画像としたときに、当該基準画像に重ね合わせる他のレーダ画像をずらすためのずれ量を設定するずれ量設定部と、
設定した前記ずれ量に基づき、前記他のレーダ画像をずらしてリサンプルする第1のリサンプル部と、
リサンプルされた前記他のレーダ画像と前記基準画像とを重ね合わせて干渉させ、当該干渉縞に基づく前記他のレーダ画像と前記基準画像との間の位相補正量を計算する位相補正量算出部と、
位相補正量の算出結果に基づき、前記他のレーダ画像と前記基準画像の位相をそれぞれ補正する位相補正部と、
位相補正した前記他のレーダ画像と前記基準画像との間の相互相関を計算する相互相関計算部と、
前記相互相関から前記他のレーダ画像と前記基準画像とのずれ量を推定するずれ量推定部と、
前記ずれ量の推定結果に基づき、前記他のレーダ画像と前記基準画像とが互いに重なるようにずらしてリサンプルする第2のリサンプル部と
を備えたことを特徴とするレーダ画像処理装置。
A radar image storage unit for storing a plurality of radar images obtained by observing the same observation target from different orbits;
A shift amount setting unit for setting a shift amount for shifting another radar image to be superimposed on the reference image when one of the plurality of radar images is set as a reference image;
A first resampler for shifting and resampling the other radar image based on the set shift amount;
A phase correction amount calculation unit that calculates the phase correction amount between the other radar image and the reference image based on the interference fringes by causing the resampled other radar image and the reference image to overlap and interfere with each other. When,
A phase correction unit that corrects the phases of the other radar image and the reference image based on the calculation result of the phase correction amount;
A cross-correlation calculator that calculates a cross-correlation between the other radar image that has undergone phase correction and the reference image;
A deviation amount estimation unit for estimating a deviation amount between the other radar image and the reference image from the cross-correlation;
A radar image processing apparatus, comprising: a second resampler that resamples the other radar image and the reference image so as to overlap each other based on the estimation result of the shift amount.
JP2009132922A 2009-06-02 2009-06-02 Radar image processing device Expired - Fee Related JP5328491B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009132922A JP5328491B2 (en) 2009-06-02 2009-06-02 Radar image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009132922A JP5328491B2 (en) 2009-06-02 2009-06-02 Radar image processing device

Publications (2)

Publication Number Publication Date
JP2010281584A JP2010281584A (en) 2010-12-16
JP5328491B2 true JP5328491B2 (en) 2013-10-30

Family

ID=43538466

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009132922A Expired - Fee Related JP5328491B2 (en) 2009-06-02 2009-06-02 Radar image processing device

Country Status (1)

Country Link
JP (1) JP5328491B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5888153B2 (en) * 2012-07-06 2016-03-16 三菱電機株式会社 Image radar apparatus and signal processing apparatus
WO2015008554A1 (en) * 2013-07-19 2015-01-22 国立大学法人東北大学 Synthetic aperture processing sensor, processing method for sensor, and program
JP6396714B2 (en) 2014-08-06 2018-09-26 株式会社デンソー Object recognition device
JP6452586B2 (en) * 2015-10-07 2019-01-16 三菱電機株式会社 Image processing apparatus and image processing method
KR101873732B1 (en) * 2016-03-14 2018-07-03 서울시립대학교 산학협력단 Apparatus and Method for Correction of Distortion on Displacement Map generated from Synthetic Aperture Radar Offset Tracking Method
KR101804522B1 (en) 2016-03-14 2017-12-04 서울시립대학교 산학협력단 Apparatus and Method for SAR Offset Tracking using Multiple-Displacement estimated Kernel
WO2019187061A1 (en) * 2018-03-30 2019-10-03 三菱電機株式会社 Radar image processing device and radar image processing method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0815426A (en) * 1994-06-30 1996-01-19 Nec Corp Terrain alteration extracting device using interference type synthetic aperture radar
JP2723174B2 (en) * 1994-12-02 1998-03-09 工業技術院長 Registration correction method between heterogeneous sensor images
JP3781004B2 (en) * 2002-12-06 2006-05-31 三菱電機株式会社 Synthetic aperture radar apparatus and digital elevation model creation method
JP4855304B2 (en) * 2007-03-06 2012-01-18 三菱電機株式会社 Image radar signal processor

Also Published As

Publication number Publication date
JP2010281584A (en) 2010-12-16

Similar Documents

Publication Publication Date Title
JP5328491B2 (en) Radar image processing device
US9378585B2 (en) System and method for automatic geometric correction using RPC
Reigber et al. Refined estimation of time-varying baseline errors in airborne SAR interferometry
CN107102333B (en) Satellite-borne InSAR long and short baseline fusion unwrapping method
JP5134792B2 (en) Map information update support device, map information update support method, and map information update support program
Tong et al. Detection and estimation of ZY-3 three-line array image distortions caused by attitude oscillation
JP6440539B2 (en) Equipment information display system, mobile terminal, server, and equipment information display method
Fielding et al. Surface deformation related to the 2019 Mw 7.1 and 6.4 Ridgecrest earthquakes in California from GPS, SAR interferometry, and SAR pixel offsets
Zhang et al. Orientation of spaceborne SAR stereo pairs employing the RPC adjustment model
JP5614903B2 (en) Investigation method of ground change
KR102005620B1 (en) Apparatus and method for image navigation and registration of geostationary remote sensing satellites
CN102269813A (en) Interference processing technology of airborne non-vertical dual-antenna InSAR system
Kim et al. DEM matching for bias compensation of rigorous pushbroom sensor models
CN109239710B (en) Method and device for acquiring radar elevation information and computer-readable storage medium
CN115469308B (en) Multi-track InSAR inter-earthquake deformation rate field splicing method, device, equipment and medium
Elshambaky et al. A novel three-direction datum transformation of geodetic coordinates for Egypt using artificial neural network approach
JP2010175330A (en) Radar image signal processing apparatus
KR100870894B1 (en) Method of automatic geometric correction for linear pushbroom image
WO2016151730A1 (en) Image correction device and image correction method
JP4855304B2 (en) Image radar signal processor
KR100594969B1 (en) Method of correcting the orbit of sar image
CN111819418A (en) Navigation device, VSLAM correction method, spatial information estimation method, VSLAM correction program, and spatial information estimation program
Wang et al. Phase-Ramp reduction in interseismic interferograms from pixel-offsets
Li et al. DEM registration, alignment and evaluation for SAR interferometry
Lee et al. Automatic building reconstruction with satellite images and digital maps

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130723

R150 Certificate of patent or registration of utility model

Ref document number: 5328491

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees