WO2015151134A1 - レーダ信号処理装置 - Google Patents

レーダ信号処理装置 Download PDF

Info

Publication number
WO2015151134A1
WO2015151134A1 PCT/JP2014/001959 JP2014001959W WO2015151134A1 WO 2015151134 A1 WO2015151134 A1 WO 2015151134A1 JP 2014001959 W JP2014001959 W JP 2014001959W WO 2015151134 A1 WO2015151134 A1 WO 2015151134A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
radar
phase
unit
signal processing
Prior art date
Application number
PCT/JP2014/001959
Other languages
English (en)
French (fr)
Inventor
昇 大石
啓 諏訪
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2014/001959 priority Critical patent/WO2015151134A1/ja
Publication of WO2015151134A1 publication Critical patent/WO2015151134A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9021SAR image post-processing techniques
    • G01S13/9023SAR image post-processing techniques combined with interferometric techniques

Definitions

  • the present invention relates to a radar signal processing apparatus that images an observation target using radio waves or the like.
  • Image radars such as Synthetic Aperture Radar (SAR) and Real Aperture Radar transmit radio waves from the radar device, receive the radio waves reflected by the object with the antenna, and perform signal processing to detect the observation target. Make an image. At this time, the distance between the platform on which the radar apparatus is mounted and the observation target is observed based on the delay time from when the radio wave is transmitted until it is received. In addition, using the radio waves observed at a plurality of horizontal observation points, the horizontal position of the observation target is observed. By such a method, the observation target is imaged with respect to the range representing the distance to the observation target and the azimuth axis representing the horizontal position of the observation target.
  • SAR Synthetic Aperture Radar
  • Real Aperture Radar transmit radio waves from the radar device, receive the radio waves reflected by the object with the antenna, and perform signal processing to detect the observation target. Make an image. At this time, the distance between the platform on which the radar apparatus is mounted and the observation target is observed based on the delay time from when the radio wave
  • the reflectors overlapped by the layover are regarded as the same position in the azimuth and range directions, the distance in the wavelength level is different because the positions are different in the height direction, resulting in the phase of the received radio wave. There will be a difference. Therefore, synthetic aperture processing is performed in the height direction based on the difference in the phase of the received wave with respect to the height direction of the radio wave reflected by the reflector, that is, the elevation direction, and reflection is performed in the three dimensions of range, azimuth, and elevation. By creating a three-dimensional distribution map in which the body is positioned, the overlapping reflectors can be separated in the height direction (for example, Non-Patent Document 1).
  • a three-dimensional distribution map obtained using the conventional SAR tomography is generated by a synthetic aperture process in the height direction, that is, the elevation direction.
  • a signal spread called a side lobe also occurs in a height direction different from the original height of the observation target. Therefore, there arises a problem that the side lobes of the reflectors having different heights are mixed with the reflector to be observed.
  • a reflector having a low strength is buried in the side lobe of the reflector having a high strength, resulting in a problem that the two reflectors cannot be separated.
  • the present invention has been made to solve the above-described problems, and by extracting or removing only one reflector image from each radar image without creating a three-dimensional distribution map, The purpose is to separate the overlapping reflectors.
  • a radar signal processing apparatus provides the first object and the second object obtained by observing the first object and the second object from different observation positions.
  • An observation image storage unit for storing at least two radar images having overlapping images of the target object, and a spatial distribution of the phase difference between the radar images based on the radar image.
  • an image extracting unit for extracting image data.
  • the radar signal processing apparatus it is possible to extract or remove only one reflector image from a radar image without separating a three-dimensional distribution map and to separate the overlapping reflectors by layover. .
  • FIG. 1 is a block diagram showing a configuration of a radar signal processing apparatus according to Embodiment 1 of the present invention.
  • 1 is a flowchart of radar signal processing according to Embodiment 1 of the present invention. Image data representing a phase difference according to the first embodiment of the present invention.
  • the block diagram which shows the structure of the radar signal processing apparatus which concerns on Embodiment 2 of this invention.
  • Embodiment 1 A radar signal processing apparatus according to Embodiment 1 of the present invention will be described.
  • FIG. 1 is a block diagram of a radar signal processing device 1 representing Embodiment 1 of the present invention.
  • the radar signal processing apparatus 1 includes an observation image storage unit 10, an image point image extraction unit 11 that is an image extraction unit, and an image point image storage unit 42.
  • the imaging point image extraction unit 11 includes an imaging point phase estimation unit 20, an imaging point phase storage unit 12, an imaging point amplitude estimation unit 30, an imaging point amplitude estimation unit 13, and an image generation unit.
  • a point image generation unit 41 is provided.
  • the imaging point phase estimation unit 20 includes an interference processing unit 21 and a layover phase separation unit 22 as a phase separation unit
  • the imaging point amplitude estimation unit 30 includes an imaging point phase removal unit 31 as a phase removal unit,
  • a pixel value averaging unit 32 is provided.
  • the radar devices 2a and 2b include an antenna 3a, a signal transmission / reception unit 4a, and an image reproduction unit 5a.
  • the radar devices 2a and 2b include an antenna 3b, a signal transmission / reception unit 4b, and an image reproduction unit 5b.
  • the signal transmission / reception unit 4a in the radar devices 2a and 2b generates a high-frequency pulse signal and radiates the high-frequency pulse signal from the transmission / reception antenna 3a to the space as a radar signal.
  • the transmission / reception antenna 3a collects a reflection signal obtained by reflecting the radiated radar signal, and sends the reflection signal to the signal transmission / reception unit 4a.
  • the signal transmission / reception unit 4a records the reflected signal collected by the transmission / reception antenna 3a as digital data, and transmits the data to the image reproduction unit 5a.
  • the image reproduction unit 5a When the image reproduction unit 5a receives data from the signal transmission / reception unit 4a, the image reproduction unit 5a receives from the observation target using the range representing the distance from the transmission / reception antenna 3a to the object and the azimuth representing the closest position of the transmission / reception antenna 3a and the object as coordinate axes. A radar image representing the reflected signal is output. However, the definition of azimuth may not be the closest position but the position of the transmitting / receiving antenna 3a such that the center of the beam emitted by the transmitting / receiving antenna 3a overlaps the observation target.
  • the observation image storage unit 10 stores the radar image output from the image reproduction unit 5a.
  • the operations of the radar devices 2a and 2b are the same.
  • the radar images stored in the observed image storage unit 10 are at least two radar images obtained by observing the same region from different positions.
  • the radar devices 2a and 2b generate a radar image using the range as a coordinate axis.
  • the radar devices 2a and 2b can also generate a radar image with respect to another coordinate axis.
  • FIG. 1 shows the radar devices 2a and 2b including the antennas 3a and 3b
  • the radar devices 2a and 2b may be either real aperture radar or synthetic aperture radar.
  • the observation image storage unit 10 stores at least two radar images obtained by observing the same region from different positions. The stored radar image may be observed at the same time, or may be observed at another date and time.
  • the antenna arrangement in FIG. 1 is merely an example, and the antenna arrangement may be such that a plurality of antennas may be arranged at different positions on one platform, or a plurality of antennas may be arranged on different platforms. Good.
  • the radar images stored in the observed image storage unit 10 have already been subjected to processing such as alignment and frequency band alignment. This alignment is sometimes called registration.
  • the coordinate system of the radar image may be a global center of gravity coordinate system converted from the range / azimuth axis, a global coordinate system such as latitude / longitude / altitude, or a local coordinate system with the center of the observation area as the origin. .
  • the imaging point image extraction unit 11 extracts at least two radar images obtained by observing the same region from the observation image storage unit 10. In addition, one of at least two radar images is set as a reference image, and observation target data having a continuous spatial distribution of the phase difference between the reference image and other image data is extracted and extracted. Output data.
  • the imaging point image storage unit 42 stores the image data output from the imaging point image extraction unit 11.
  • FIG. 2 shows an example of the arrangement of observation objects to be observed by the radar devices 2a and 2b.
  • the radar devices 2a and 2b transmit radar signals from the antennas 3a and 3b, and observe an area including the observation target A51, the observation target B52, and the observation target C53.
  • the observation target A51 is an object having a continuous shape that is spatially longer than the observation target B52 and the observation target C53.
  • the observation target A51 may be a building
  • the observation target B52
  • the observation target C53 may be an object such as a car.
  • the radar image 54 generated by the radar devices 2a and 2b generated based on the reflection signal is an image including the observation target A51, the observation target B52, and the observation target C53 at the same time.
  • the radar image 54 includes an image acquired by the radar devices 2a and 2b and a reference when the image observed by the radar devices 2a and 2b is defined as a reference image with a range that is a distance from the radar devices 2a and 2b as a coordinate axis. It is the phase difference from the image.
  • the invention according to the present application performs a process of separating a radar image of a specific observation target from a mixture of reflection signals from many observation targets.
  • FIG. 3 shows a basic concept of processing for separating a reflected wave of a specific observation target according to the prior art.
  • radar images with respect to a reference image of reflected waves received by different antennas 3a or 3b are generated as image # 1 and image # 2, respectively.
  • the received data for each different antenna is converted into a radar image for each different spatial direction.
  • the observation target A51, the observation target B52, and the observation target C53 are separated in the elevation direction, and a three-dimensional distribution map of the observation target A51, the observation target B52, and the observation target C53 is created.
  • the distance and height diagrams in FIG. 3 show a three-dimensional distribution diagram cut at a certain radar platform position.
  • FIG. 4 shows a basic concept of processing for separating a radar image of a specific observation object according to the present invention.
  • the image data of the observation target A51, the observation target B52, and the observation target C53 are separated based on the spatial distribution of information indicating the pixels of the radar image. That is, the observation target A51, which is a spatially long continuous object, forms a continuous spatial distribution of phase differences.
  • the observation object B52 and the observation object C53 having a short shape have a phase distribution that appears only at specific positions in the range direction, and thus have a spatial distribution of discontinuous phase differences at the specific positions.
  • the image data of the observation target B52 and the observation target C53 fluctuate greatly at a specific position with respect to the measurement axis
  • the image data of the observation target A51 is a complex series having continuity with respect to the measurement axis.
  • the observation target A51 is extracted as an imaging point image based on the difference in continuity of the phase difference on the image of the object, and the imaging point image is further converted into the radar device.
  • image data having only information of the observation target B52 and the observation target C53 is generated as an image point removal image.
  • the imaging point image extraction unit 11 separates the overlapping image data to be observed based on the spatial distribution of the phase difference of the image data with respect to the coordinate axis.
  • the imaging point image extraction unit 11 there is a method in which polynomial fitting is applied to the spatial distribution of phase differences, and image data is generated based on continuous phase differences obtained by curve approximation by polynomial fitting.
  • the polynomial fitting may be any method known so far.
  • the imaging point image extraction unit 11 can efficiently extract continuous image data approximated by a curve.
  • the imaging point phase estimation unit 20 is a part that estimates the phase of the scatterer to be removed from the radar image, and includes an interference processing unit 21 and a layover phase separation unit 22.
  • the interference processing unit 21 extracts at least two radar images stored in the observation image storage unit 10 and outputs a difference between the phase of one piece of reference image data and the phase of each image data determined by the user.
  • the layover phase separation unit 22 uses the image data output from the interference processing unit 21 to separate the phases of signals corresponding to one observation target among signals corresponding to a plurality of observation targets overlapping due to the layover. .
  • the imaging point phase storage unit 12 stores the phase separated by the layover phase separation unit 22.
  • the imaging point amplitude estimation unit 30 is a part that estimates the amplitude of the separated signal based on the phase of the separated signal stored in the imaging point phase storage unit 12, and the imaging point phase removal unit 31.
  • a pixel value averaging unit 32 The imaging point phase removal unit 31 subtracts the phase of the separated signal stored in the imaging point phase storage unit 12 from the phase of each radar image extracted from the observation image storage unit 10 and separates it from each radar image. The signal is processed so that the phase of the signal becomes zero or a constant value independent of the image.
  • the pixel value averaging unit 32 calculates the average of the images output from the imaging point phase removal unit 31 for each pixel.
  • the imaging point amplitude storage unit 13 stores the image output from the imaging point amplitude estimation unit 30.
  • the imaging point image generation unit 41 generates image data of only the imaging point based on the phase component stored in the imaging point phase storage unit 12 and the amplitude component stored in the imaging point amplitude estimation unit 13. To do.
  • the generated result is stored in the imaging point image storage unit 42.
  • the imaging point phase estimation unit 20 in the imaging point image extraction unit 11 takes out at least two radar images obtained by observing the same region from the observation image storage unit 10.
  • the image data is a data series having an amplitude and a phase with respect to the coordinate axis.
  • the interference processing unit 21 in the imaging point phase estimation unit 20 calculates the phase difference ⁇ n (x, y) between the reference image specified by the user and each image for each pixel of the aligned image, that is, for each pixel position.
  • (x, y) is an image coordinate, that is, a pixel position.
  • M is a reference image number and a natural number satisfying 1 ⁇ M ⁇ N
  • * is a complex conjugate
  • arg [] is an operator for obtaining a declination.
  • the reference image may be arbitrarily selected by a person, or may be selected automatically or manually based on observation conditions such as observation orbit and observation date and time.
  • the layover phase separation unit 22 distributes the signals overlapped by the layover on the surface among the signals laid over based on the spatial distribution of the phase difference in the phase difference image that is the output of the interference processing unit 21.
  • the phase difference of the signal to be extracted is separated (step S202).
  • the phase of the reference image is added to the phase difference after separation (step S203). For example, when reflection signals from the roof of a building (observation target A) and two cars parked near the building (observation targets B and C) overlap due to layover, the phase difference is 3 based on the spatial distribution as shown in FIG. Can be classified into types.
  • the observation target A is distributed in a planar shape, the observation target can be separated into a portion where the phase difference is spatially continuous and a portion where it is not as shown in FIG.
  • the phase difference ⁇ n (x, y) from only the observation target A is estimated by performing polynomial fitting.
  • a phase noise removal filter is applied to the phase difference distribution, a moving average process is performed to replace the average value with the surrounding pixels for each pixel, or an intermediate value with the surrounding pixels is replaced for each pixel.
  • phase difference ⁇ n (x, y) of only the reflected signal from the observation object A that becomes a continuous phase difference distribution is extracted.
  • the reflector that is the basis of the reflection signal corresponding to the observation target that is the continuous phase difference distribution extracted in this way is called an imaging point in this specification.
  • the observation object A corresponds to the image formation point.
  • the layover phase separation unit 22 removes the reflected wave of the reflector corresponding to the imaging point from the extracted radar image. Further, the layover phase separation unit 22 adds the phase of the reference image to the phase difference after separation, and obtains the phase ⁇ n (x, y) of the imaging point by the calculation of the following equation.
  • j is an imaginary unit.
  • the phase ⁇ n (x, y) of the imaging point calculated in this way is stored in the imaging point phase storage unit 12.
  • the imaging point phase removing unit 31 calculates the phase ⁇ of the imaging point extracted from the imaging point phase storage unit 12 from the pixel value S n (x, y) of each image extracted from the observed image storage unit 10. Subtract n (x, y) (step S301). By this calculation, the phase of the reflected signal from the image formation point is set to zero or a constant value that does not depend on the image. Further, the pixel value averaging unit 32 averages the output result of the imaging point phase removal unit 31 for each coordinate (x, y) as in the following equation, and estimates the amplitude An (x, y) of the reflected signal. (Step S302).
  • the amplitude A n (x, y) estimated in this way may be a complex number due to the influence of the phase noise included in the radar image, the estimation error of the phase ⁇ n (x, y) of the imaging point, or the like.
  • the pixel values of the observation target other than the image formation point that is the extraction target have a random phase from 0 to 2 ⁇ .
  • the influence of the amplitude of the observation target can be reduced.
  • the amplitude of the observation target can be accurately estimated.
  • the imaging point phase removal unit 31 calculates the reflection signal of the imaging point from the amplitude A n (x, y) and the phase ⁇ n (x, y) (step S401), and the pixel of the imaging point in each radar image. Calculate the value (step S402)
  • the phase difference at the imaging point is estimated from the continuity of the distribution of the phase difference in the radar image. Furthermore, an image is generated by estimating a reflected wave from the image forming point based on the estimation information. As a result, image data of the imaging point can be generated from the overlapping observation objects without generating a three-dimensional distribution diagram. Further, an image of the reflector can be generated without being affected by side lobes from the reflector having a high intensity, which is a problem of the three-dimensional distribution diagram.
  • observation position information at the time of radar observation is unnecessary, so there is no need to acquire observation position information. Further, the processing result of the radar signal processing apparatus is not affected by the error of the observation position information.
  • the observation image storage unit 10 stores at least two radar images.
  • one is used as a reference image, and phase difference data with other radar images is calculated, so that the relative position of the object with respect to the reference position can be grasped and processed. Can proceed. Further, by using the difference data, it becomes possible to cancel and handle the same characteristic of the radar image, such as the reflection characteristic unique to each observation target, and the position can be measured with high accuracy.
  • observation object A may be called a first object
  • observation object B may be called a second object
  • the radar signal processing apparatus obtains the first object and the first object obtained by observing the first object and the second object from different observation positions.
  • An observation image storage unit for storing at least two radar images in which images of two objects overlap each other, and the first object from the radar image based on a spatial distribution of a phase difference between the radar images.
  • an image extracting unit for extracting the image data.
  • the difference in the continuity of the image data between the first object and the second object is possible to smoothly extract the image data of the first object.
  • the configuration in which the imaging point image extracting unit 11 extracts the image data of the first object by smoothing such as polynomial fitting of information obtained from the radar image is also a feature of the first embodiment of the present invention. By using such a configuration, the image data of the first object can be extracted smoothly.
  • the imaging point image extraction unit 11 uses one of at least two radar images as a reference image, and uses phase difference data between at least two radar images other than the reference image and the reference image, By using a configuration for extracting image data of the first object, it is possible to perform processing such as image data extraction with high accuracy.
  • the imaging point image extraction unit 11 outputs the phase difference between at least one radar image other than the reference image and the reference image as difference data, and based on the spatial distribution of the phase difference.
  • a layover phase separation unit 22 for extracting a phase difference of the first object and outputting a phase obtained by adding the phase of the reference image to the phase difference of the extracted first object as the phase of the first object;
  • the phase removal unit 31 that outputs an image value obtained by subtracting the phase output from the phase separation unit from the phase included in at least two radar images, and the pixel value output from the phase removal unit 31 as a radar
  • a pixel value averaging unit 32 that outputs the amplitude of the first object by averaging at least two images, a phase of the first object output by the pixel value averaging unit 32, and a layover phase separation unit First output by 22
  • the imaging point image generating unit 41 for generating a radar image, by using a configuration with, it is possible to process the radar image represented by an amplitude and phase with
  • layover phase separation unit 22 smoothly extracts the phase difference of the first object by performing smoothing by polynomial fitting or the like of the phase difference between at least two radar images other than the reference image and the reference image. Can do.
  • the layover phase separation unit 22 can determine a section in which polynomial fitting is performed using two-dimensional or three-dimensional map information. With such a configuration, by grasping the shape of the object from the map information, it is possible to accurately set a section for smoothing such as polynomial fitting, and to smoothly extract the phase difference of the first object. .
  • the layover phase separation unit 22 performs a noise removal process on the phase difference between at least two radar images other than the reference image and the reference image, or calculates a moving average that replaces the average value with surrounding pixels for each pixel.
  • the phase difference of the first object can be efficiently extracted by applying a process or smoothing the phase difference distribution by replacing each pixel with an intermediate value with surrounding pixels.
  • Embodiment 2 FIG. In the first embodiment, only the image at the imaging point is extracted, whereas in the second embodiment, an image is generated by removing the image at the extracted imaging point.
  • the image of the imaging point that is the observation target having a continuous shape is generated, but the user may desire to acquire image data of the observation target other than the imaging point.
  • image data of the observation target For example, when a building roof and a car lay over, it may be desired to generate an image of the car by removing the image of the building roof, which is the image formation point.
  • the second embodiment of the present invention will be described below with respect to a configuration in which data obtained by removing the image of the imaging point is extracted from the image data on which the observation targets overlap.
  • the difference between the image data for the reference image in FIG. 4 and the image formation point image of the observed object A51 is taken, and the image formation point removed image, which is image data from which the image formation point has been removed, is obtained. Generate.
  • FIG. 7 is a block diagram showing a radar signal processing device 60 that implements the second embodiment.
  • the radar signal processing device 60 includes an imaging point image removal unit 61 and an imaging point removal image storage unit 62 which are image removal units in addition to the radar signal processing device 1 shown in FIG. 1. Yes. Since other configurations and functions are the same as those of the radar signal processing apparatus 1 of the first embodiment, the description thereof is omitted.
  • the imaging point image removal unit 61 removes the image stored in the imaging point image storage unit 42 from the image in the observation image storage unit 10.
  • the image point removal image storage unit 62 stores a radar image from which the image point that is the output of the image point image removal unit 61 is removed.
  • the imaging point image removal unit 61 removes the image in the imaging point image storage unit 42 from the image in the observation image storage unit 10 as in the following equation (step S601). This calculation is obtained radar image S n obtained by removing the reflected signal of the imaging point '' a (x, y).
  • the phase difference at the imaging point is estimated based on the distribution of the phase difference in the radar image, and the reflected wave from the imaging point is estimated based on these and removed from the image. Therefore, even when a reflector having a high intensity and a reflector having a low intensity are overlapped, the reflector having a low intensity can be erased. As a result, it is possible to smoothly extract image data of a desired reflector from the overlapping reflectors.
  • the radar signal processing apparatus subtracts the image data of the first object acquired from the imaging point image storage unit 42 from the radar image acquired from the observation image storage unit 10.
  • the image forming point image removing unit 61 that outputs the image data obtained in this manner and the image forming point removing image storing unit 62 that stores the image data output from the image forming point image removing unit 61 are provided.
  • Embodiments 1 and 2 complex numbers in the range direction are handled as image data, but it is also possible to handle image data for coordinate axes other than the range, such as azimuth and elevation. In addition, image data can be handled in the same manner with two-dimensional coordinates based on a plurality of coordinate axes.
  • image data may be called “radar image”.
  • the “observation target image having a continuous shape” may be called an “imaging point image”.
  • Observation object may be called “object”.
  • the “reflecting object” corresponds to an “observation object that reflects radio waves”, and may be called an “observation object” or an “object”.
  • the observation target A may be called a first target object, and the observation target B or the observation target C may be called a second target object.
  • the present invention may be used in a radar signal processing apparatus that recognizes and identifies an observation target using radio waves or the like and further measures the length of an arbitrary point of the observation target.
  • 1 radar signal processing device, 2a, 2b: radar device, 3a, 3b: antenna, 4a, 4b: signal transmission / reception unit, 5a, 5b: image reproduction unit, 10: observation image storage unit, 11: imaging point image extraction , 12: imaging point phase storage unit, 13: imaging point amplitude estimation unit, 20: imaging point phase estimation unit, 21: interference processing unit, 22: layover phase separation unit, 30: imaging point amplitude estimation unit 31: Imaging point phase removal unit, 32: Pixel value averaging unit, 41: Imaging point image generation unit, 42: Imaging point image storage unit, 51: Observation target A, 52: Observation target B, 53: Observation Object C, 54: Image data for reference image, 60: Radar signal processing device, 61: Imaging point image removal unit, 62: Imaging point removal image storage unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

複数の観測対象が画像上で重なりをもつ少なくとも2枚のレーダ画像において、各観測対象の空間的な大きさや形状の違いによって生じる各観測対象の画像データ上でのレーダ画像間の位相差の連続性の違いに基づき、多項式フィッティング等を用いて1つの観測対象を分離・抽出する。この処理によって、複数の観測対象が画像上で重なりをもつレーダ画像から、三次元分布図を作成することなく、所望の対象物の画像データを抽出することができる。

Description

レーダ信号処理装置
この発明は電波などを用いて観測対象を画像化するレーダ信号処理装置に関するものである。
 合成開口レーダ(Synthetic Aperture Radar:SAR)や実開口レーダなどの画像レーダは、レーダ装置から電波を送信し、対象物で反射された電波をアンテナで受信して信号処理することにより、観測対象を画像化する。この際、電波が送信されてから受信されるまでの遅延時間に基づき、レーダ装置が搭載されたプラットフォームと観測対象との距離を観測する。また、水平方向の複数の観測点で観測された電波を用いて、観測対象の水平方向の位置を観測する。このような方法により、観測対象との距離を表すレンジと、観測対象の水平方向の位置を表すアジマスの軸に対して、観測対象を画像化する。
しかし、等アジマス、等レンジに異なる観測対象が存在する場合、異なる観測対象が画像上で重なるレイオーバという現象が生じる。例えば、航空機や衛星に搭載した合成開口レーダ装置から地表を観測する場合、観測領域内の高い建物は、合成開口レーダ装置からの距離が建物と等しい地表とレイオーバによって画像上で重なる。重なった観測対象を分離して判読するために、従来技術ではSARトモグラフィと呼ばれる高さ計測法を用いて対象物である反射体の高さを観測していた。具体的には、レイオーバにより重なった反射体は、アジマス、レンジ方向では同一位置とみなされるものの、高さ方向に位置が違うために波長レベルでの距離差が生じ、結果として受信する電波の位相に差が生じる。従って、反射体で反射された電波の高さ方向、すなわちエレベーション方向、に対する受信波の位相の違いに基づき、高さ方向で合成開口処理を行い、レンジ、アジマス、エレベーションの三次元で反射体を測位した三次元分布図を作成することで、重なった反射体を高さ方向に分離することができる(例えば、非特許文献1)。
A.Reigber,他,「First Demonstration of airborne SAR tomography using multibaseline L-band data"IEEE Trans. Geosci. Remote Sensing,vol.38.No.5,pp.2161-2152,Sep.2000.
従来技術のSARトモグラフィを用いて得られる三次元分布図は、高さ方向、すなわち、エレベーション方向での合成開口処理で生成される。しかし、こうして生成された三次元分布図では、観測対象の本来の高さと異なる高さ方向にもサイドローブと呼ばれる信号の広がりが生じる。そのため、高さの異なる反射体のサイドローブが、観測すべき反射体と混合する問題が生じる。特に、複数の反射体の強度が大きく異なる場合、強度の大きい反射体のサイドローブに強度の小さい反射体が埋もれ、2つの反射体を分離出来ない問題が生じていた。
この発明は、上記のような問題点を解決するためになされたもので、三次元分布図を作成することなく、各レーダ画像から一つの反射体の画像のみを抽出もしくは除去して、レイオーバで重なった反射体を分離することを目的とする。
 上記の目的を達成するために、この発明におけるレーダ信号処理装置は、第1の対象物と第2の対象物を異なる観測位置から観測して得た、前記第1の対象物と前記第2の対象物の画像が重なりをもつ少なくとも2枚のレーダ画像を格納する観測画像格納部と、前記レーダ画像間の位相差の空間的な分布に基づき、前記レーダ画像から前記第1の対象物の画像データを抽出する画像抽出部と、を含むことを特徴とする。
 この発明にかかるレーダ信号処理装置では、三次元分布図を作成することなく、レーダ画像から一つの反射体の画像のみを抽出もしくは除去してレイオーバで重なった反射体を分離することが可能となる。
この発明の実施の形態1に係るレーダ信号処理装置の構成を示すブロック図。 この発明の実施の形態1に係るレーダ装置で観測を行う観測対象の一例。 従来技術によって特定の観測対象の反射波を分離する処理の基本概念を示す図。 この発明の実施の形態1によって特定の観測対象の画像を分離する処理の基本概念を示す図。 この発明の実施の形態1に係るレーダ信号処理のフローチャート。 この発明の実施の形態1に係る位相差を表す画像データ。 この発明の実施の形態2に係るレーダ信号処理装置の構成を示すブロック図。 この発明の実施の形態2に係るレーダ信号処理のフローチャート。
この発明のレーダ信号処理装置の好適な実施の形態を以下に図面を用いて説明する。各図において同一符号は同一または相当部分を示す。
実施の形態1.
 この発明の実施の形態1に係るレーダ信号処理装置について説明する。
 図1はこの発明の実施の形態1を表すレーダ信号処理装置1のブロック構成図である。図1において、レーダ信号処理装置1は、観測画像格納部10、画像抽出部である結像点画像抽出部11、結像点画像格納部42を備えている。また、結像点画像抽出部11は、結像点位相推定部20、結像点位相格納部12、結像点振幅推定部30、結像点振幅推定部13、画像生成部である結像点画像生成部41を備える。また、結像点位相推定部20は干渉処理部21、位相分離部であるレイオーバ位相分離部22を備え、結像点振幅推定部30は、位相除去部である結像点位相除去部31、画素値平均部32を備える。レーダ装置2a、2bはアンテナ3a、信号送受信部4a、画像再生部5a、を備えている。レーダ装置2a、2bはアンテナ3b、信号送受信部4b、画像再生部5bを備えている。
この発明の実施の形態1を表すレーダ信号処理装置1の説明に先立って、レーダ装置2a、2bで行われる基本動作を説明する。レーダ装置2a、2b内の信号送受信部4aは高周波パルス信号を発生させ、その高周波パルス信号をレーダ信号として送受信アンテナ3aから空間に放射する。送受信アンテナ3aは放射したレーダ信号が反射された反射信号を収集し、反射信号を信号送受信部4aに送る。信号送受信部4aは送受信アンテナ3aで収集された反射信号をデジタルデータとして記録し、画像再生部5aにデータを送信する。画像再生部5aは信号送受信部4aからデータを受信すると、送受信アンテナ3aから対象物までの距離を表すレンジと、送受信アンテナ3aと対象物の最近接位置を表すアジマスを座標軸として、観測対象から受信した反射信号を表したレーダ画像を出力する。ただしアジマスの定義は、最近接位置でなく送受信アンテナ3aが放射するビームの中心が観測対象と重なるような送受信アンテナ3aの位置でも構わない。観測画像格納部10は画像再生部5aから出力されるレーダ画像を格納する。レーダ装置2a、2bの動作も同様である。ここで、観測画像格納部10に格納されるレーダ画像は、同一領域を異なる位置から観測して得た少なくとも2枚のレーダ画像である。
ここまでは、レーダ装置2a、2bがレンジを座標軸としてレーダ画像を生成する構成を示したが、レーダ装置2a、2bは他の座標軸に対してレーダ画像を生成することもできる。例えば、レーダ装置2a、2bを搭載したプラットフォームの水平または垂直方向の異なる位置で観測された反射信号を用いて、水平または垂直方向を測定軸とした観測対象のレーダ画像を生成することもできる。従って、観測画像格納部10はレンジの他に、水平方向の位置を表すアジマス、または、垂直方向の位置を表すエレベーションを座標軸として、少なくとも2枚のレーダ画像を取得することもできる。
図1では、アンテナ3a、3bを備えたレーダ装置2a、2bを示したが、レーダ装置2a、2bは実開口レーダ、合成開口レーダのいずれであっても構わない。いずれの場合においても、観測画像格納部10は同一領域を異なる位置から観測して得た少なくとも2枚のレーダ画像を格納する。格納したレーダ画像は同時に観測されたものでもよいし、別の日時に観測されたものでもよい。また、図1のアンテナ配置は一例に過ぎず、アンテナ配置は一つのプラットフォームに複数のアンテナを異なる位置に配置してもよいし、複数のアンテナを各々別のプラットフォームに搭載して配置してもよい。また、観測画像格納部10に格納されたレーダ画像は互いに位置合わせ、周波数帯域合わせなどの処理が済んだものである。この位置合わせはレジストレーションと呼ばれることもある。
ここではレーダ画像を複素数として表記する例を示したが、複素数の代わりに画像の振幅と位相のデータを別々に表示することも可能である。また、レーダ画像の座標系はレンジ・アジマス軸から変換した地球重心座標系や緯度・経度・高度等の全世界的な座標系でもよいし、観測領域の中心を原点とした局所座標系でもよい。
次に、レーダ信号処理装置1の基本構成について説明する。結像点画像抽出部11は観測画像格納部10から同一領域を観測して得た少なくとも2枚のレーダ画像を取り出す。また、少なくとも2枚のレーダ画像の中の一つを基準画像として設定し、基準画像とその他の画像データの位相の差の空間分布が連続的である観測対象のデータを抽出し、抽出されたデータを出力する。結像点画像格納部42は結像点画像抽出部11から出力された画像データを格納する。
図2から図4を用いて、この発明の実施の形態1の基本概念を説明する。図2にレーダ装置2a、2bで観測を行う観測対象の配置の一例を示す。レーダ装置2a、2bはアンテナ3a、3bからレーダ信号を送信し、観測対象A51、観測対象B52、観測対象C53を含む領域を観測する。ここで、観測対象A51は観測対象B52、観測対象C53と比較して、空間的に長い連続的な形状を有する物体である。例えば、観測対象A51としては建物、観測対象B52、観測対象C53としては車などの物体が考えられる。
このとき、異なる場所に位置するレーダ装置2a、2bから放射されたレーダ信号は観測対象A51、観測対象B52、観測対象C53で反射され、その反射信号はレーダ装置2a、2bで受信される。その結果、反射信号に基づき生成されたレーダ装置2a、2bで生成されたレーダ画像54は、観測対象A51、観測対象B52、観測対象C53を同時に含んだ画像となる。例えば、レーダ画像54は、レーダ装置2a、2bからの距離であるレンジを座標軸とし、レーダ装置2a、2bで観測した画像を基準画像と定めた時のレーダ装置2a、2bで取得した画像と基準画像との位相差である。本願に係る発明は、この多くの観測対象からの反射信号が混在する中から、特定の観測対象のレーダ画像を分離する処理を行う。
図3は、従来技術によって特定の観測対象の反射波を分離する処理の基本概念を示している。従来技術では、異なるアンテナ3aまたは3bで受信した反射波の基準画像に対するレーダ画像をそれぞれ画像#1、画像#2として生成する。また、異なるアンテナごとの受信データを異なる空間方向ごとのレーダ画像に変換する。その結果、観測対象A51、観測対象B52、観測対象C53をエレベーション方向で分離し、観測対象A51、観測対象B52、観測対象C53の三次元分布図を作成する。図3における距離と高さの図は、三次元分布図をあるレーダのプラットフォームの位置にて切断した図を示している。
これに対して、図4は、この発明によって特定の観測対象のレーダ画像を分離する処理の基本概念を示している。この発明の実施の形態1では、レーダ画像の画素を示す情報の空間的な分布に基づき、観測対象A51、観測対象B52、観測対象C53の画像データを分離する。すなわち、空間的に長い連続的な形状を有する物体である観測対象A51は連続的な位相差の空間分布を形成する。これに対して、形状の短い観測対象B52、観測対象C53はレンジ方向の特定の位置にのみ位相差が現れるため、特定の位置で不連続な位相差の空間分布となる。その結果、観測対象B52、観測対象C53の画像データは、測定軸に対する特定の位置で大きく変動するのに対して、観測対象A51の画像データは測定軸に対して連続性を有する複素数の系列となる。このように、この発明の実施の形態1では、対象物の画像上での位相差の連続性の違いに基づき、観測対象A51を結像点画像として抽出し、さらに結像点画像をレーダ装置2a、2bで取得した画像から除去することで、観測対象B52、観測対象C53のみの情報を有する画像データを結像点除去画像として生成する。
 本実施の形態では、結像点画像抽出部11が座標軸に対する画像データの位相差の空間分布に基づき、重なった観測対象の画像データを分離する。その動作の一例として、位相差の空間分布に多項式フィッティングを適用し、多項式フィッティングにより曲線近似を行った連続的な位相差を元に画像データを生成する方法がある。多項式フィッティングは、これまでに知られているいかなる方法でも構わない。多項式フィッティングによって、結像点画像抽出部11は曲線近似された連続的な画像データを効率的に抽出できる。
以下では、レーダ信号処理装置1の動作例を述べる。
まず、図1における結像点画像抽出部11の構成を説明する。結像点位相推定部20はレーダ画像から除去する散乱体の位相を推定する部分であり、干渉処理部21、レイオーバ位相分離部22を有している。干渉処理部21は、観測画像格納部10に格納された少なくとも2枚のレーダ画像を取り出し、ユーザにより定められた一枚の基準画像データの位相と各画像データの位相との差を出力する。レイオーバ位相分離部22は、干渉処理部21から出力された画像データを用いて、レイオーバにより重なっている複数の観測対象に対応する信号のうち、一つの観測対象に対応する信号の位相を分離する。
結像点位相格納部12は、レイオーバ位相分離部22で分離した位相を格納する。結像点振幅推定部30は、結像点位相格納部12に格納されている分離した信号の位相に基づいて、分離された信号の振幅を推定する部分であり、結像点位相除去部31と画素値平均部32を有する。結像点位相除去部31は、結像点位相格納部12に格納されている分離した信号の位相を、観測画像格納部10から取り出した各レーダ画像の位相から引いて、各レーダ画像から分離した信号の位相がゼロもしくは画像に依らない一定値となるよう処理する。画素値平均部32は、画素毎に結像点位相除去部31で出力された画像の平均を計算する。
結像点振幅格納部13は、結像点振幅推定部30から出力された画像を格納する。結像点画像生成部41は、結像点位相格納部12に格納された位相の成分、結像点振幅推定部13に格納された振幅の成分を基に結像点のみの画像データを生成する。生成した結果は、結像点画像格納部42に格納される。
次に、図5を用いて、レーダ信号処理装置1で行われる処理の動作を説明する。まず、結像点画像抽出部11内の結像点位相推定部20は観測画像格納部10から同一領域を観測して得た少なくとも2枚のレーダ画像を取り出す。ここで、画像データは座標軸に対して、振幅と位相を有するデータ系列である。
結像点位相推定部20内の干渉処理部21は、位置合わせした画像の画素毎、すなわち画素の位置毎に、ユーザが指定した基準画像と各画像の位相差Δn(x,y)を算出する(ステップS201)。ここで、(x,y)は画像の座標、すなわち画素の位置である。nは入力されるレーダ画像に割り振った番号で、N枚の入力画像に対してn=1,2,・・・,Nの値をとる。Nは2以上の自然数である。n番目の画像で(x,y)に位置する画素の値をSn(x,y)とすると、位相差Δn(x,y)は次式で算出できる。

Figure JPOXMLDOC01-appb-I000001

ただし、Mは基準画像の番号で1≦M≦Nとなる自然数、*は複素共役、arg[]は偏角を求める演算子を表す。基準画像は人が任意に選択してもよいし、観測軌道や観測日時などの観測条件を基に自動または手動で選択してもよい。
次に、レイオーバ位相分離部22は、レイオーバにより重なった信号を、干渉処理部21の出力である位相差画像において、位相差の空間分布を基にしてレイオーバした信号のうち、面上に分布した抽出すべき信号の位相差を分離する(ステップS202)。また、分離後の位相差に基準画像の位相を加える(ステップS203)。例えばビルの屋上(観測対象A)とビル付近に駐車した2台の自動車(観測対象B、C)からの反射信号がレイオーバにより重なった場合、図6のように位相差は空間分布に基づき3種類に分類できる。このように観測対象Aが面状に分布していれば、図6のように位相差が空間的に連続である部分とそうでない部分として観測対象を分離可能である。図6の観測対象Aと観測対象B、もしくは観測対象Aと観測対象Cからの反射信号の和となっている画素値については、周囲にある観測対象Aからの反射信号の位相差を例えば区分的に多項式フィッティングすることで、観測対象Aからのみの位相差δn(x,y)を推定する。他にも、位相差の分布に対して位相ノイズ除去フィルタをかけたり、画素毎に周囲の画素との平均値に置き換える移動平均処理をかけたり、画素毎に周囲の画素との中間値に置き換えたりすることにより、位相差の空間分布をなまらせることで、連続的な位相差分布となる観測対象Aからの反射信号のみの位相差δn(x,y)を抽出する。こうして抽出した連続的な位相差分布となる観測対象に相当する反射信号の基となった反射体を本明細書では結像点と呼ぶ。
図6では観測対象Aが結像点に相当する。レイオーバ位相分離部22は、取り出したレーダ画像から結像点に相当する反射体の反射波を除去する。さらに、レイオーバ位相分離部22は分離後の位相差に基準画像の位相を加えて、次式の計算にて結像点の位相φn(x,y)を得る。
Figure JPOXMLDOC01-appb-I000002
ここで、jは虚数単位である。こうして計算した結像点の位相φn(x,y)を、結像点位相格納部12に格納する。
続いて、結像点位相除去部31は、観測画像格納部10から取り出した各画像の画素値Sn(x,y)から、結像点位相格納部12から取り出した結像点の位相φn(x,y)を引く(ステップS301)。この計算により、結像点からの反射信号の位相をゼロもしくは画像に依らない一定値に揃える。さらに、画素値平均部32は、次式のように座標(x,y)毎に結像点位相除去部31の出力結果を平均し、反射信号の振幅An(x,y)を推定する(ステップS302)。
Figure JPOXMLDOC01-appb-I000003
こうして推定した振幅An(x,y)は、レーダ画像に含まれる位相雑音や結像点の位相φn(x,y)の推定誤差等の影響で複素数となることもある。
ステップS301で得られた画素値では、抽出する対象である結像点以外の観測対象の画素値は0から2πでランダムな位相となるため、式(3)の平均化により結像点以外の観測対象の振幅の影響を小さくできる。その結果、観測対象の振幅を精度よく推定できる。
結像点位相除去部31では、結像点の反射信号を振幅An(x,y)と位相φn(x,y)から計算し(ステップS401)、各レーダ画像における結像点の画素値を計算する(ステップS402)
Figure JPOXMLDOC01-appb-I000004
以上のように、この発明の実施の形態1ではレーダ画像における位相差の分布の連続性から結像点の位相差を推定する。さらに、その推定情報を基に結像点からの反射波を推定して画像を生成する。その結果、三次元分布図を生成することなく、重なった観測対象の中から結像点の画像データを生成することができる。また、三次元分布図の問題点である強度の大きい反射体からのサイドローブの影響を受けることなく、反射体の画像を生成できる。
この発明の実施の形態1では、従来技術と異なりレーダ観測時の観測位置情報が不要なため、観測位置情報を取得する手間がない。また、本レーダ信号処理装置の処理結果が観測位置情報の誤差に影響されることがない。
ここでは、観測画像格納部10が少なくとも2枚のレーダ画像を格納する場合について述べた。少なくとも2枚のレーダ画像を用いる場合には、1つを基準画像とし、他のレーダ画像との位相差データを算出することで、基準位置に対する対象物の相対的な位置を把握して、処理を進めることができる。また、差分データを用いることにより、観測対象毎に固有な反射特性など、レーダ画像が有する同一の特性をキャンセルして扱うことが可能となり、高精度に位置測定を行うことができる。
また、観測対象Aを第1の対象物、観測対象Bを第2の対象物と呼んでも構わない。
このように、この発明の実施の形態1に係るレーダ信号処理装置は、第1の対象物と第2の対象物を異なる観測位置から観測して得た、前記第1の対象物と前記第2の対象物の画像が重なりをもつ少なくとも2枚のレーダ画像を格納する観測画像格納部と、前記レーダ画像間の位相差の空間的な分布に基づき、前記レーダ画像から前記第1の対象物の画像データを抽出する画像抽出部とを含む構成を有する。このような構成を用いることにより、三次元分布図を作成することなく、レーダ画像から一つの反射体の画像のみを抽出もしくは除去してレイオーバで重なった反射体を分離することが可能となる。
特に、第1の対象物が第2の対象物よりも空間的に連続的な画像データを有する場合には、第1の対象物と第2の対象物との画像データの連続性の違いに基づいて、円滑に第1の対象物の画像データを抽出することが可能となる。
また、結像点画像抽出部11がレーダ画像から得られた情報の多項式フィッティングなどの平滑化によって第1の対象物の画像データを抽出する構成もこの発明の実施の形態1の特徴である。このような構成を用いることによって、円滑に第1の対象物の画像データを抽出することが可能となる。
また、結像点画像抽出部11が少なくとも2枚のレーダ画像のうちの一つを基準画像とし、基準画像以外の少なくとも2枚のレーダ画像と前記基準画像との位相差データを用いて、前記第1の対象物の画像データを抽出する構成を用いることによって、画像データの抽出などの処理を高精度に行うことが可能となる。
また、結像点画像抽出部11が、基準画像以外の少なくとも1枚のレーダ画像と基準画像との位相差を差分データとして出力する干渉処理部21と、前記位相差の空間的な分布に基づき、第1の対象物の位相差を抽出し、抽出された第1の対象物の位相差に基準画像の位相を加えた位相を第1の対象物の位相として出力するレイオーバ位相分離部22と、少なくとも2枚のレーダ画像に含まれる位相から前記位相分離部で出力された位相を差し引いて得られた画像値を出力する位相除去部31と、位相除去部31で出力された画素値をレーダ画像の少なくとも2枚に対して平均することにより第1の対象物の振幅を出力する画素値平均部32と、画素値平均部32が出力した第1の対象物の位相と、レイオーバ位相分離部22が出力した第1の対象物の振幅に基づき、レーダ画像を生成する結像点画像生成部41と、を有する構成を用いることによって、振幅と位相によって表されるレーダ画像を高精度に処理することが可能となる。
また、レイオーバ位相分離部22は基準画像以外の少なくとも2枚のレーダ画像と基準画像との位相差の多項式フィッティング等により平滑化することによって、第1の対象物の位相差を円滑に抽出することができる。
また、レイオーバ位相分離部22は、2次元または3次元の地図情報を用いて、多項式フィッティングを行う区間を決定することができる。このような構成により、地図情報から対象物の形状を把握することで、多項式フィッティング等の平滑化を行う区間を正確に設定でき、第1の対象物の位相差を円滑に抽出することができる。
また、レイオーバ位相分離部22は、基準画像以外の少なくとも2枚のレーダ画像と基準画像との位相差の雑音除去処理をかけたり,画素毎に周囲の画素との平均値に置き換える計算する移動平均処理をかけたり,画素毎に周囲の画素との中間値に置き換えたりすることにより位相差分布をなまらせることによって、第1の対象物の位相差を効率的に抽出することができる。
実施の形態2.
 実施の形態1では、結像点の画像のみを取り出したのに対し、実施の形態2では、取り出した結像点の画像を除去した画像を生成する実施の形態を示す。
 実施の形態1では、連続的な形状を有する観測対象である結像点の画像を生成したが、ユーザは結像点以外の観測対象の画像データを取得することを望む場合もある。例えば、ビルの屋上と車がレイオーバした場合、結像点であるビルの屋上の画像を除去し、車の画像を生成したい場合がある。このような要求に対処するため、この発明の実施の形態2では、観測対象の重なった画像データの中から結像点の画像を除去したデータを取り出す構成について以下で説明する。
実施の形態2では、図4において基準画像に対する画像データと生成された観測対象A51の結像点画像との差を取ることにより、結像点を除去した画像データである結像点除去画像を生成する。
図7は、実施の形態2を実現するレーダ信号処理装置60を示すブロック構成図である。図7において、レーダ信号処理装置60は、図1に示したレーダ信号処理装置1に加えて、画像除去部である結像点画像除去部61と結像点除去画像格納部62を有している。その他の構成および機能は、実施の形態1のレーダ信号処理装置1と同様なので、説明を省略する。
結像点画像除去部61は、観測画像格納部10の画像から結像点画像格納部42に格納された画像を除去する。結像点除去画像格納部62は、結像点画像除去部61の出力である結像点を除去したレーダ画像を格納する。
続いて、図8のフローチャートを参照しながら、この発明の実施の形態2に係るレーダ信号処理装置の動作について説明する。実施の形態1と同様の動作については、説明を省略する。
結像点画像除去部61は、次式のように観測画像格納部10の画像から結像点画像格納部42の画像を除去する(ステップS601)。この計算により、結像点の反射信号を除去したレーダ画像Sn ''(x,y)を得る。
Figure JPOXMLDOC01-appb-I000005
以上のように、結像点の位相差をレーダ画像における位相差の分布を基に推定し、それらを基に結像点からの反射波を推定して画像から除去する。従って、強度の大きい反射体と強度の小さい反射体が重なっている場合でも、強度の小さい反射体を消すことができる。その結果、重なり合った反射体の中から所望の反射体の画像データを円滑に抽出することが可能となる。
このように、この発明の実施の形態2に係るレーダ信号処理装置は、結像点画像格納部42から取得した第1の対象物の画像データを観測画像格納部10から取得したレーダ画像から差し引いて得られた画像データを出力する結像点画像除去部61と、結像点画像除去部61から出力された画像データを格納する結像点除去画像格納部62とを有する。このような構成を用いることにより、三次元分布図を作成することなく、複数の対象物が重なったレーダ画像から形状の小さい第2の対象物を分離することが可能となる。
 実施の形態1、2では、レンジ方向に対する複素数を画像データとして扱ったが、例えば、アジマス、エレベーションなどレンジ以外の座標軸に対する画像データを扱うことも可能である。また、複数の座標軸による2次元座標で画像データを同様に扱うこともできる。
また、実施の形態1、2において、「画像データ」は「レーダ画像」と呼んでも構わない。「連続的な形状を有する観測対象の画像」を「結像点画像」と呼んでも構わない。「観測対象」を「対象物」と呼んでも構わない。また、「反射物」は「電波を反射する観測対象」に相当し、「観測対象」または「対象物」と呼んでも構わない。また、観測対象Aを第1の対象物、観測対象Bまたは観測対象Cを第2の対象物と呼んでも構わない。
この発明は電波などを用いて観測対象を認識・識別し、さらに観測対象の任意の点の長さを計測するレーダ信号処理装置に利用される可能性がある。
1:レーダ信号処理装置、2a、2b:レーダ装置、3a、3b:アンテナ、4a、4b:信号送受信部、5a、5b:画像再生部、10:観測画像格納部、11:結像点画像抽出部、12:結像点位相格納部、13:結像点振幅推定部、20:結像点位相推定部、21:干渉処理部、22:レイオーバ位相分離部、30:結像点振幅推定部、31:結像点位相除去部、32:画素値平均部、41:結像点画像生成部、42:結像点画像格納部、51:観測対象A、52:観測対象B、53:観測対象C、54:基準画像に対する画像データ、60:レーダ信号処理装置、61:結像点画像除去部、62:結像点除去画像格納部

Claims (10)

  1. 第1の対象物と第2の対象物を異なる観測位置から観測して得た、前記第1の対象物と前記第2の対象物の画像が重なりをもつ少なくとも2枚のレーダ画像を格納する観測画像格納部と、
    前記レーダ画像間の位相差の空間的な分布に基づき、前記レーダ画像から前記第1の対象物の画像データを抽出する画像抽出部と、
    を含むことを特徴とするレーダ信号処理装置。
  2. 前記第1の対象物は前記第2の対象物よりも空間的に大きな形状を有することを特徴とする請求項1に記載のレーダ信号処理装置。
  3. 前記画像抽出部は、前記レーダ画像間の位相差の多項式フィッティングによって前記第1の対象物の画像データを抽出することを特徴とする請求項1または請求項2に記載のレーダ信号処理装置。
  4. 前記少なくとも2枚のレーダ画像は同一領域を観測して得た画像であることを特徴とする請求項1乃至3のいずれか1項に記載のレーダ信号処理装置。
  5. 前記画像抽出部は前記少なくとも2枚のレーダ画像のうちの一つを基準画像とし、前記基準画像以外の前記少なくとも2枚のレーダ画像と前記基準画像との位相差データを用いて、前記第1の対象物の画像データを抽出することを特徴とする請求項4に記載のレーダ信号処理装置。
  6. 前記画像抽出部は、
    前記基準画像以外の前記少なくとも2枚のレーダ画像と前記基準画像との位相差を差分データとして出力する干渉処理部と、
    前記位相差の空間的な分布に基づき、前記第1の対象物の位相差を抽出し、抽出された前記第1の対象物の位相差に前記基準画像の位相を加えた位相を前記第1の対象物の位相として出力する位相分離部と、
    前記少なくとも2枚のレーダ画像に含まれる位相から前記位相分離部で出力された位相を差し引いて得られた画像値を出力する位相除去部と、
    前記位相除去部で出力された画素値を前記少なくとも2枚のレーダ画像に対して平均することにより前記第1の対象物の振幅を出力する画素値平均部と、
    前記画素値平均部が出力した前記第1の対象物の位相と、前記位相分離部が出力した前記第1の対象物の振幅に基づき、レーダ画像を生成する画像生成部と、
    を有することを特徴とする請求項4または請求項5に記載のレーダ信号処理装置。
  7. 前記観測画像格納部から取得したレーダ画像から、前記画像抽出部で抽出された前記第1の対象物の画像データを差し引いて得られた画像データを出力する画像除去部画像除去部
    を有することを特徴とする請求項1乃至6のいずれか1項に記載のレーダ信号処理装置。
  8. 前記位相分離部が前記位相差に対して前記多項式フィッティングを行うことによって、前記第1の対象物の位相差を抽出すること
    を特徴とする請求項6または請求項7に記載のレーダ信号処理装置。
  9. 前記位相分離部は、2次元または3次元の地図情報に基づき、前記多項式フィッティングを行う区間を決定することを特徴とする請求項8に記載のレーダ信号処理装置。
  10. 前記位相分離部は、前記位相差の雑音除去処理や平均化などの平滑化手法によって位相差分布をなまらせることによって、前記第1の対象物の位相差を抽出することを特徴とする請求項6または請求項7に記載のレーダ信号処理装置。
PCT/JP2014/001959 2014-04-04 2014-04-04 レーダ信号処理装置 WO2015151134A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/001959 WO2015151134A1 (ja) 2014-04-04 2014-04-04 レーダ信号処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/001959 WO2015151134A1 (ja) 2014-04-04 2014-04-04 レーダ信号処理装置

Publications (1)

Publication Number Publication Date
WO2015151134A1 true WO2015151134A1 (ja) 2015-10-08

Family

ID=54239511

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/001959 WO2015151134A1 (ja) 2014-04-04 2014-04-04 レーダ信号処理装置

Country Status (1)

Country Link
WO (1) WO2015151134A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018220732A1 (ja) * 2017-05-31 2018-12-06 日本電気株式会社 情報提供装置、情報提供方法、および記憶媒体
JPWO2018056129A1 (ja) * 2016-09-20 2019-06-27 日本電気株式会社 情報処理装置、情報処理方法、および記憶媒体
WO2019189765A1 (ja) * 2018-03-30 2019-10-03 三菱電機株式会社 レーダ画像処理装置及びレーダ画像処理方法
WO2022190196A1 (ja) * 2021-03-09 2022-09-15 日本電気株式会社 変化検知装置および変化検知方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09257926A (ja) * 1996-03-25 1997-10-03 Mitsubishi Electric Corp 標高抽出装置
WO2000054006A2 (en) * 1999-03-08 2000-09-14 Lockheed Martin Corporation Single-pass interferometric synthetic aperture radar
JP2008185375A (ja) * 2007-01-29 2008-08-14 Mitsubishi Electric Corp Sar画像の3d形状算出装置及びsar画像の歪補正装置
JP2010175330A (ja) * 2009-01-28 2010-08-12 Mitsubishi Electric Corp レーダ画像信号処理装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09257926A (ja) * 1996-03-25 1997-10-03 Mitsubishi Electric Corp 標高抽出装置
WO2000054006A2 (en) * 1999-03-08 2000-09-14 Lockheed Martin Corporation Single-pass interferometric synthetic aperture radar
JP2008185375A (ja) * 2007-01-29 2008-08-14 Mitsubishi Electric Corp Sar画像の3d形状算出装置及びsar画像の歪補正装置
JP2010175330A (ja) * 2009-01-28 2010-08-12 Mitsubishi Electric Corp レーダ画像信号処理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
A. THIELE ET AL.: "INSAR PHASE PROFILES AT BUILDING LOCATIONS", PROCEEDINGS OF ISPRS PIA07, vol. 36 -3/W4, 19 September 2007 (2007-09-19), pages 203 - 208, XP055228619 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018056129A1 (ja) * 2016-09-20 2019-06-27 日本電気株式会社 情報処理装置、情報処理方法、および記憶媒体
US11175399B2 (en) 2016-09-20 2021-11-16 Nec Corporation Information processing device, information processing method, and storage medium
JP7020418B2 (ja) 2016-09-20 2022-02-16 日本電気株式会社 情報処理装置、情報処理方法、およびプログラム
WO2018220732A1 (ja) * 2017-05-31 2018-12-06 日本電気株式会社 情報提供装置、情報提供方法、および記憶媒体
WO2019189765A1 (ja) * 2018-03-30 2019-10-03 三菱電機株式会社 レーダ画像処理装置及びレーダ画像処理方法
JP6599050B1 (ja) * 2018-03-30 2019-10-30 三菱電機株式会社 レーダ画像処理装置及びレーダ画像処理方法
JPWO2019189765A1 (ja) * 2018-03-30 2020-04-30 三菱電機株式会社 レーダ画像処理装置及びレーダ画像処理方法
US11474236B2 (en) 2018-03-30 2022-10-18 Mitsubishi Electric Corporation Radar image processing device and radar image processing method
WO2022190196A1 (ja) * 2021-03-09 2022-09-15 日本電気株式会社 変化検知装置および変化検知方法

Similar Documents

Publication Publication Date Title
JP6320577B2 (ja) 合成開口レーダ信号処理装置
JP6054435B2 (ja) 強化された撮像システム
WO2015151134A1 (ja) レーダ信号処理装置
US11333753B2 (en) Stripmap synthetic aperture radar (SAR) system utilizing direct matching and registration in range profile space
WO2011154804A1 (en) Method for estimating the topography of the earth's surface in areas with plant cover
CN110487241B (zh) 卫星激光测高提取建筑区高程控制点方法
Magnard et al. Analysis of a maximum likelihood phase estimation method for airborne multibaseline SAR interferometry
Brown et al. Simultaneous optical and meteor head echo measurements using the Middle Atmosphere Alomar Radar System (MAARSY): Data collection and preliminary analysis
Samczynski et al. Passive SAR imaging using a satellite pulsed radar as an illuminator of opportunity
JP5489813B2 (ja) レーダ画像処理装置
JP6367143B2 (ja) 合成開口レーダ装置及びそのレーダ信号処理方法
Samczynski et al. SARENKA-C-band SAR radar for UAV application
KR102151362B1 (ko) 극좌표변환을 이용한 항공기기반 영상복원장치 및 이를 이용한 영상복원방법
EP2873987B1 (en) Radar system and data processing device
US10018717B2 (en) Electromagnetic search and identification, in near field arenas
RU2429990C1 (ru) Многофункциональная радиолокационная станция высокого разрешения с активной фазированной решеткой для пилотируемых и беспилотных летательных аппаратов
US20200408901A1 (en) Radar image processing device and radar image processing method
Cristofani et al. A multibeam opportunistic SAR system
Zeng Passive bistatic SAR with GNSS transmitter and a stationary receiver
KR100425283B1 (ko) 간섭측정용 합성 개구 레이다의 기하학적 특성을 이용한지형고도 측정방법
Shao et al. Digital elevation model reconstruction in multichannel spaceborne/stationary SAR interferometry
WO2023186386A1 (en) Detecting and suppressing ambiguities in synthetic aperture radar data and images
JP4937791B2 (ja) レーダ画像処理装置
JP2015052549A (ja) 合成開口レーダ装置及びその画像処理方法
JP6083935B2 (ja) 目標輪郭識別装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14888134

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14888134

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP