WO2019176016A1 - レーダ画像処理装置およびレーダ画像処理方法 - Google Patents

レーダ画像処理装置およびレーダ画像処理方法 Download PDF

Info

Publication number
WO2019176016A1
WO2019176016A1 PCT/JP2018/010002 JP2018010002W WO2019176016A1 WO 2019176016 A1 WO2019176016 A1 WO 2019176016A1 JP 2018010002 W JP2018010002 W JP 2018010002W WO 2019176016 A1 WO2019176016 A1 WO 2019176016A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
virtual image
unit
radar
radar image
Prior art date
Application number
PCT/JP2018/010002
Other languages
English (en)
French (fr)
Inventor
昇 大石
山本 和彦
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2018/010002 priority Critical patent/WO2019176016A1/ja
Priority to CA3092123A priority patent/CA3092123C/en
Priority to EP18909775.1A priority patent/EP3751309B1/en
Priority to JP2018535188A priority patent/JP6448870B1/ja
Publication of WO2019176016A1 publication Critical patent/WO2019176016A1/ja
Priority to US17/015,391 priority patent/US11531098B2/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9021SAR image post-processing techniques
    • G01S13/9029SAR image post-processing techniques specially adapted for moving target detection within a single SAR image or within multiple SAR images taken at the same time
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9004SAR image acquisition techniques
    • G01S13/9011SAR image acquisition techniques with frequency domain processing of the SAR signals in azimuth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9021SAR image post-processing techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9021SAR image post-processing techniques
    • G01S13/9027Pattern recognition for feature extraction

Definitions

  • the present invention relates to a radar image processing apparatus and a radar image processing method for suppressing a virtual image in a radar image.
  • Synthetic aperture radar obtains a radar image related to the observation target area based on the received signal of the radio wave reflected from the observation target area.
  • the radio wave is irradiated to the observation target region from a moving body such as an aircraft, an artificial satellite, or a vehicle.
  • the radar image has two axes, a range axis along a linear direction from the radar to the observation target region and an azimuth axis along the traveling direction of the moving object or the direction orthogonal to the range axis.
  • the pixel of the radar image has a complex number indicating a reflected wave from the observation target region.
  • the Doppler frequency axis element is obtained.
  • Signal processing for obtaining a radar image based on a received signal of a reflected wave from an observation target is called “image reproduction”.
  • image reproduction a part of a radio wave irradiation range is set as an imaging range, and processing is performed with focusing so that this range is imaged. This imaging range is a region to be observed.
  • the Doppler frequency of the radio wave received by the radar is equal to or lower than a pulse repetition frequency (hereinafter referred to as PRF), and a pulse is transmitted and received. Is within the time range (range gate) required for analog-digital conversion of the received signal of the reflected wave.
  • PRF is determined based on the period from when a pulse is transmitted until it is received.
  • SAR is often designed so that the range of the main beam becomes the range of imaging using the directivity of the antenna that transmits and receives radio waves.
  • the antenna has directivity, since it transmits and receives radio waves in almost all directions, it also receives reflected waves from objects that exist outside the imaging range.
  • a signal of a reflected wave from an object existing outside the imaging range may overlap with a signal within the imaging range due to aliasing caused by the Doppler frequency of this signal exceeding the PRF. This is called azimuth ambiguity. Also, the signal from an object far from the imaging range or closer to the imaging range as seen from the radar cannot be distinguished from a signal whose reception time is shifted by an integral multiple of the radar pulse repetition period. May overlap with the signal inside. This is called multi-order echo or range ambiguity.
  • a virtual image caused by a reflected wave from an object existing outside the imaging range is in a blurred state without forming an image even when the image is reproduced while focusing on the imaging range. It overlaps with the true image.
  • the apparatus described in Patent Document 1 assumes that the target in the radar image is ambiguity, further assumes the position where the target exists, and compresses the radar image based on the assumed position. If the target amplitude in the azimuth-compressed image data is higher than the threshold, the apparatus determines that the target is an ambiguity generated at the assumed position. The above apparatus determines whether the target is ambiguity by changing the assumed position and repeats the above processing, and sets the target amplitude value determined to be ambiguity to 0 or pixels around the target The ambiguity is suppressed by replacing it with the average value of.
  • the apparatus described in Patent Document 1 suppresses a virtual image (ambiguity) included in a radar image focused on an observation target region, the value of a pixel including a blurred and expanding virtual image is 0 or It is replaced with the average value of the surrounding pixels.
  • a radar image in which an image of an object existing in the observation target region (hereinafter referred to as a true image) overlaps the virtual image and the focus is on the observation target region, the signal of the virtual image is Although it is blurred and spread, the signal of the true image is focused and concentrated in a narrow range. For this reason, in the apparatus described in Patent Document 1, when the value of a pixel including a virtual image is changed, many of the signals of the true image that overlap with the virtual image are affected, and the true image is suppressed. was there.
  • the present invention solves the above-described problems, and an object thereof is to obtain a radar image processing apparatus and a radar image processing method capable of suppressing only a virtual image in a radar image.
  • the radar image processing apparatus includes a refocus unit, a virtual image determination unit, and a virtual image suppression unit.
  • the refocus unit inputs a radar image and changes the focus of the radar image.
  • the virtual image determination unit determines a pixel including a virtual image from the radar image whose focus has been changed by the refocusing unit.
  • the virtual image suppression unit changes a value of a pixel determined by the virtual image determination unit to include a virtual image on the radar image whose focus has been changed by the refocusing unit.
  • the radar image processing apparatus determines a pixel that includes a virtual image on the radar image in which the focus of the radar image is changed, and changes a value of a pixel that is determined to include a virtual image.
  • the radar image processing apparatus can suppress only the virtual image in the radar image.
  • FIG. 3 is a flowchart showing a radar image processing method according to the first embodiment.
  • FIG. 3 is a diagram showing an outline of a focus change of a radar image in the first embodiment.
  • 3 is a flowchart showing details of a radar image processing method according to the first embodiment.
  • 4 is a flowchart illustrating normalization of pixel amplitude and estimation of the number of aliases in the first embodiment. It is a figure which shows the relationship between an evaluation parameter
  • 3 is a flowchart illustrating a virtual image determination process in the first embodiment.
  • FIG. 10A is a block diagram showing a hardware configuration for realizing the functions of the radar image processing apparatus according to the first or second embodiment.
  • FIG. 10B is a block diagram illustrating a hardware configuration that executes software that implements the functions of the radar image processing apparatus according to the first or second embodiment.
  • FIG. 1 is a block diagram showing a configuration of a radar image processing apparatus 1 according to Embodiment 1 of the present invention.
  • the radar image processing apparatus 1 suppresses the virtual image included in the radar image input from the first storage unit 2 and stores the radar image in which the virtual image is suppressed in the second storage unit 3.
  • the radar image is an image after image reproduction, and the focus can be changed by signal processing of the image.
  • the original imaging range of the radar image is an observation target region, a radar image that forms an image outside the original imaging range can be obtained by changing the focal point.
  • the radar image processing apparatus 1 includes a refocus unit 10, a virtual image determination unit 11, a virtual image suppression unit 12, a normalization unit 13, a moving average unit 14, an estimation unit 15, and an iterative determination unit 16. Composed.
  • the first storage unit 2 stores a radar image.
  • a radar (not shown) emits radio waves toward the observation target area and receives the radio waves reflected from the observation target area.
  • the radar generates a radar image of a region to be observed based on a radio wave reception signal. Note that if radio waves reflected from an object outside the observation target area are mixed with radio waves reflected from the observation target area, the radar image is caused by reflected waves from the object outside the observation target area. A virtual image is generated.
  • the first storage unit 2 also stores a radar image in which the above-described virtual image is generated.
  • the first storage unit 2 stores a radar image whose focus has been changed by the refocusing unit 10 or a radar image in which the blur of the virtual image that is the processing target of the virtual image suppression unit 12 is reduced.
  • the pixels of the radar image stored in the first storage unit 2 have complex pixel values.
  • the second storage unit 3 stores a radar image in which a virtual image is suppressed by the radar image processing apparatus 1 and focused on the original imaging range.
  • the radar image stored in the second storage unit 3 is referred to as a radar image after virtual image suppression.
  • the refocus unit 10 inputs a radar image from the first storage unit 2 and changes the focus of the radar image. For example, the refocusing unit 10 generates a radar image focused outside the original imaging range by changing the focus of the radar image focused on the original imaging range. In a radar image focused on the original imaging range, this range forms an image, but the virtual image is blurred. On the other hand, in a radar image focused on outside the original imaging range, the image formed in the original imaging range is blurred.
  • the virtual image determination unit 11 determines a pixel including a virtual image from the radar image whose focus has been changed by the refocusing unit 10.
  • the position information of the pixel determined to include a virtual image and the radar image are output from the virtual image determination unit 11 to the virtual image suppression unit 12.
  • the pixel position information is, for example, pixel position coordinates on the radar image.
  • the virtual image determination unit 11 determines the presence or absence of a virtual image in the radar image based on the estimated value of the number of turns input from the estimation unit 15. Details will be described later. Further, the virtual image determination unit 11 outputs the number of determinations of pixels including a virtual image to the iterative determination unit 16.
  • the virtual image suppression unit 12 changes the value of the pixel determined by the virtual image determination unit 11 to include a virtual image on the radar image whose focus has been changed by the refocus unit 10. For example, the virtual image suppression unit 12 replaces the value of the pixel including the virtual image with 0. Thereby, the pixel containing a virtual image is suppressed. However, as long as a pixel including a virtual image can be suppressed, the pixel value may be multiplied by a real number of 1 or less, or may be replaced with an average value of the values of surrounding pixels. On the other hand, when there is no pixel determined to include a virtual image, it is not changed.
  • the normalization unit 13 normalizes the pixel amplitude in the radar image input from the first storage unit 2. For example, the normalization unit 13 replaces the pixel amplitude with a constant value A.
  • A is a real number other than 0.
  • the moving average unit 14 receives the radar image whose focus has been changed by the refocusing unit 10 and generates an image obtained by performing a moving average of pixels in the input radar image. For example, the moving average unit 14 subtracts the phases of pixels separated by a certain distance ( ⁇ a pixels) in the azimuth direction at each pixel included in the input radar image, and calculates the complex number of the pixel after the phase subtraction. A radar image obtained by moving and averaging values is generated.
  • the estimation unit 15 estimates the number of aliasing that reduces the blur of the virtual image based on the image generated by the moving average unit 14.
  • the number of turns includes a number of turns indicating the degree of azimuth ambiguity aliasing and a multiple of the radar pulse repetition period that causes a shift in the reception time of the range ambiguity.
  • M the deviation of the reception time at an integral multiple of the pulse repetition period of the radar
  • N the number of aliases indicating the degree of aliasing
  • the repetition determination unit 16 determines the end of repetition of the virtual image suppression processing by the virtual image suppression unit 12. For example, the repetition determination unit 16 determines whether or not the number of repetitions input from the virtual image determination unit 11 has reached the upper limit value, and notifies the refocusing unit 10 of the determination result. When receiving the determination result that the number of iterations has reached the upper limit value, the refocusing unit 10 suppresses the virtual image, and selects the radar image focused on the original imaging range (the radar image after the virtual image suppression) as the first image. 2 in the storage unit 3.
  • the radar image processing apparatus 1 only needs to include the refocus unit 10, the virtual image determination unit 11, and the virtual image suppression unit 12, and other components are included in devices other than the radar image processing device 1. Also good.
  • the normalization unit 13, the moving average unit 14, the estimation unit 15, and the iterative determination unit 16 may be components included in another device capable of exchanging information with the radar image processing device 1.
  • FIG. 2 is a flowchart showing the radar image processing method according to the first embodiment.
  • the refocus unit 10 inputs a radar image from the first storage unit 2 and changes the focus of the input radar image (step ST1).
  • the refocus unit 10 generates a radar image focused outside the original imaging range by changing the focus of the radar image focused on the original imaging range.
  • FIG. 3 is a diagram showing an outline of changing the focus of the radar image.
  • the radar image 20A shown in FIG. 3 is an image focused on the original imaging range.
  • the image 30a and the image 30b are images of objects to be observed, that is, true images.
  • the true image 30 b overlaps the virtual image 40. Since the radar image 20A is focused on the original imaging range, the image 30a and the image 30b are formed. For this reason, the signal of the image 30a and the signal of the image 30b are concentrated in a narrow area on the radar image 20A.
  • the virtual image 40 is blurred on the radar image 20A, and the signal of the virtual image 40 is spread over a region including the image 30b.
  • the refocusing unit 10 changes the radar image 20A focused on the original imaging range, and the radar image 20B focused on outside the original imaging range.
  • the virtual image 40 is formed and the signals of the virtual image 40 are concentrated in a narrow range.
  • the image 30a and the image 30b are blurred, and the signal of the image 30a and the signal of the image 30b are spread on the radar image 20B.
  • the virtual image determination unit 11 determines a pixel including a virtual image from the radar image whose focus has been changed by the refocusing unit 10 (step ST2). For example, the virtual image determination unit 11 determines the pixel including the virtual image 40 formed in a narrow range on the radar image 20B illustrated in FIG. 3, and the position information of the pixel determined to include the virtual image 40 and the radar image 20B is output to the virtual image suppression unit 12.
  • the virtual image suppression unit 12 changes the value of the pixel determined by the virtual image determination unit 11 to include a virtual image on the radar image whose focus has been changed by the refocus unit 10 (step ST3).
  • the virtual image suppression unit 12 specifies a pixel including the virtual image 40 on the radar image 20B based on the pixel position information input from the virtual image determination unit 11, and changes the value of the specified pixel.
  • the signals of the virtual image 40 gather in a narrow range, and the images 30a and 30b that are true images are blurred and spread. Even if the value of the pixel including the virtual image 40 concentrated in such a narrow range is changed, most of the signals of the image 30b overlapping the virtual image 40 are not affected, and only the virtual image 40 is suppressed.
  • FIG. 4 is a flowchart showing details of the radar image processing method according to the first embodiment.
  • the process from step ST1a to step ST2a is the detailed process of step ST1 in FIG. 2, and the process from step ST3a to step ST4a shows the detailed process of step ST2 in FIG.
  • the process from step ST5a to step ST7a shows the detailed process of step ST3 of FIG.
  • step ST1a the normalization unit 13 normalizes the pixel amplitude in the radar image input from the first storage unit 2, and the estimation unit 15 blurs the virtual image based on the image generated by the moving average unit 14. Estimated values M 0 and N 0 of the number of turns that can be relaxed are obtained.
  • FIG. 5 is a flowchart showing pixel amplitude normalization and folding number estimation processing in Embodiment 1, and shows detailed processing in step ST1a in FIG.
  • the normalization unit 13 normalizes the amplitudes of all pixels on the radar image to a constant value A (step ST1b).
  • A is a real number other than 0. Normalization changes the amplitude distribution of the pixels on the radar image, but does not change the phase distribution of the pixels. By this process, after changing the focus of the radar image so that the blur of the virtual image is alleviated, an accurate evaluation that is not influenced by the amplitude distribution of the pixels on the radar image is possible when the degree of image formation of the virtual image is evaluated. .
  • the refocus unit 10 focuses the radar image whose pixel amplitude is normalized by the normalization unit 13 and focused on the original imaging range on the imaging range corresponding to the candidates M and N of the number of turns. Is changed to an image that matches (step ST2b).
  • the folding number candidates M and N are obtained by the estimation unit 15 and set in the refocusing unit 10 by the virtual image determination unit 11.
  • the refocusing unit 10 sequentially changes the values of the folding number candidates M and N set by the virtual image determination unit 11 and sequentially generates images focused on the imaging range corresponding to M and N.
  • both values of M and N may be changed.
  • the value of M may be fixed to 0 and only the value of N may be changed, or the value of M may be fixed by fixing the value of N to 0. You may change only.
  • the blur of the virtual image is alleviated and the signal of the virtual image that has been blurred and spread is a narrow range.
  • the refocus unit 10 may be changed to a focal point where the blur of the virtual image is alleviated, and it is not necessary to make the point image response of an ideal radar image because the blur is completely eliminated.
  • the image formed with the radar image focused on the original imaging range is blurred and spread due to the change of the focus.
  • the refocus unit 10 Fourier-transforms the radar image whose pixel amplitude is normalized by the normalization unit 13 in the azimuth direction, and converts the signal into a range Doppler frequency domain signal.
  • V r the distance between the observation object and the radar within the original imaging range.
  • R 0 is the distance when the radar and the radio wave reflector are closest to each other.
  • is the wavelength of the radio wave
  • f ⁇ is the Doppler frequency of the radio signal.
  • R a (R 0 , f ⁇ , M, N) The distance between the object outside the original imaging range and the radar is derived from the following formula (2), where M and N are candidates for the number of aliasing. Can do.
  • c the speed of light
  • f PRF the pulse repetition frequency (PRF) of radio waves in the radar.
  • ⁇ N is a value obtained from the following equation (3).
  • R a (R 0 , f ⁇ , M, N) ⁇ R 0 + cM / (2f PRF ) ⁇ cos ( ⁇ N ) / ⁇ 1- ⁇ 2 f ⁇ 2 / (4V r ) ⁇ 1/2 ...
  • ⁇ N sin ⁇ 1 ⁇ Nf PRF / (2V r ) ⁇ (3)
  • the radar image focused on the original imaging range is corrected based on the distance change and the phase change according to R t (R 0 , f ⁇ ).
  • a radar image focused out of the range of the original imaging is a distance change and a phase change according to R a (R 0 , f ⁇ , N, M) ⁇ R t (R 0 , f ⁇ ). It is necessary to correct based on The focal point outside the original imaging range is calculated as R a (R 0 , f ⁇ , N, M) ⁇ R t (R 0 , f ⁇ ) assuming the number of aliasing candidates M and N. It can be obtained by correcting the calculated distance and phase.
  • the focus changing process by the refocusing unit 10 is performed based on the images corresponding to the aliasing candidates M and N from the radar image focused on the imaging range corresponding to the aliasing candidates M ′ and N ′. This can be thought of as a process of changing the focus to a radar image that is focused on the range of conversion.
  • the correction amount ⁇ R (R 0 , f ⁇ , N, M, N ′, M ′) of the distance between the radar and the object outside the original imaging range has the relationship of the following formula (4).
  • ⁇ R (R 0 , f ⁇ , N, M, N ′, M ′) R a (R 0 , f ⁇ , N, M) ⁇ R a (R 0 , f ⁇ , N ′, M ′) (4)
  • the Fourier-transformed radar image signal is shifted according to the correction amount ⁇ R (R 0 , f ⁇ , N, M, N ′, M ′) for each Doppler frequency f ⁇ .
  • the shift method may be a shift by interpolation or interpolation.
  • the linear phase corresponding to the correction amount ⁇ R (R 0 , f ⁇ , N, M, N ′, M ′) is multiplied, and then the inverse Fourier is applied in the range direction. It may be converted.
  • the phase is corrected by the following procedure.
  • the refocusing unit 10 fits the correction amount ⁇ R (R 0 , f ⁇ , N, M, N ′, M ′) with a linear function of Doppler frequency f ⁇ for each R 0 .
  • the phase correction amount ⁇ (R 0 , f ⁇ , N, M, N ′, M ′) is , From the following formula (5).
  • the phase correction amount ⁇ (R 0 , f ⁇ , N, M, N ′, M ′) is a phase f (R 0 , f ⁇ , N, M, N ′, M ′) proportional to the Doppler frequency f ⁇ .
  • the image subjected to inverse Fourier transform after the phase is corrected shifts in the moving direction (azimuth direction) of the moving body. In order to prevent this shift, the linear phase component is removed from the phase correction amount ⁇ (R 0 , f ⁇ , N, M, N ′, M ′).
  • the refocusing unit 10 corrects the phase correction amount ⁇ (R 0 , f ⁇ , N, M, N ′, M for the signal in the Doppler frequency domain obtained by Fourier transforming the radar image in the azimuth direction. The focus of the radar image is changed so that ') does not have the phase component proportional to the Doppler frequency direction.
  • the refocusing unit 10 performs an inverse Fourier transform in the range direction on the signal with the corrected distance and phase, thereby obtaining a radar image that is imaged in the imaging range corresponding to the number of aliasing candidates M and N.
  • the focus changing process described so far is merely an example, and the focus may be changed by autofocus.
  • the phase correction process when the value of the phase correction amount ⁇ (R 0 , f ⁇ , N, M, N ′, N ′) is small, the phase correction process may be omitted.
  • the distance R t (R 0 , f ⁇ ) may be calculated by other than the above formula (1).
  • the moving average unit 14 inputs a radar image whose pixel amplitude has been normalized by the normalization unit 13 and whose focus has been changed by the refocusing unit 10 in the above-described procedure, and calculates the moving average of the pixels of the input radar image.
  • the applied image is generated (step ST3b). This moving average removes noise from the radar image whose focus has been changed.
  • the moving average unit 14 subtracts the phase of a pixel separated by ⁇ a pixels in the azimuth direction from the phase of each pixel of the radar image whose focus has been changed by the refocus unit 10. .
  • the ⁇ a is a real number other than 0. This process corresponds to differentiating the pixel phase on the radar image in the azimuth direction.
  • the moving average unit 14 generates a radar image obtained by performing a moving average of pixels differentiated in the azimuth direction.
  • the radar image after the focus is changed there is a primary component in phase corresponding to the position of the object causing the virtual image, that is, a component proportional to the azimuth direction.
  • Noise is removed from the radar image by removing the primary component by phase differentiation and calculating the moving average of the pixels.
  • this moving average compared to an image obtained by moving and averaging only the amplitudes of pixels, the average of signals scattered on the complex plane is likely to be zero, and the noise reduction effect is high. Further, by performing the moving average of the pixels, in addition to the noise included in the radar image, the influence of interference between signals, speckle, and numerical calculation error in signal processing is reduced.
  • the estimation unit 15 calculates an evaluation index for obtaining the number of turns at which a virtual image is formed based on the radar image on which the moving average of the pixels has been performed by the moving average unit 14 (step ST4b).
  • the estimation unit 15 changes the radar image that has been changed to a focus suitable for the imaging range corresponding to the number of aliases M and N by the refocusing unit 10 and has been subjected to moving average by the moving average unit 14.
  • An evaluation index is obtained by sequentially inputting each of the folding number candidates M and N.
  • the estimation unit 15 extracts L pixels having a large amplitude from the input radar image, and uses an average value of the amplitudes of the extracted pixels as an evaluation index.
  • the evaluation index may be the maximum amplitude value among the L pixels, or may be the average value of the amplitudes of all the pixels in the radar image.
  • the estimation unit 15 determines the number of wraparound candidates M and N that maximize the evaluation index value.
  • FIG. 6 is a diagram showing the relationship between the evaluation index and the number of turns, and shows the distribution of the evaluation index obtained by calculating the evaluation index while changing the values of the candidates M and N for the number of turns.
  • the white part indicates that the value of the evaluation index is low
  • the black part indicates that the value of the evaluation index is high.
  • step ST5b When the estimation unit 15 calculates the evaluation index based on the image focused on the imaging range corresponding to the folding number candidates M and N, has the evaluation index calculation processing been performed for all the folding number candidates? It is confirmed whether or not (step ST5b). If the evaluation index calculation processing has not been performed for all the folding number candidates (step ST5b; NO), the processing returns to step ST2b and the above-described processing is repeated. In this way, the distribution of evaluation indices shown in FIG. 6 is created sequentially. On the other hand, when the evaluation index calculation processing has been performed for all the folding number candidates (step ST5b; YES), the estimation unit 15 selects the folding number candidate that maximizes the value of the evaluation index among the distribution of the evaluation indices. M and N are determined to be the estimated values M 0 and N 0 of the number of turns (step ST6b).
  • step ST ⁇ b> 2 a the virtual image determination unit 11 determines whether or not the value of the evaluation index when the folding number estimation values M 0 and N 0 input from the estimation unit 15 exceed the threshold value T 1 .
  • Thresholds T 1 is set in advance virtual image determining unit 11 as a parameter of the threshold for metric. If the evaluation index value when the aliasing number estimation values M 0 and N 0 are equal to or less than the threshold T 1 (step ST2a; NO), the virtual radar image does not exist in the target radar image, and thus the processing of FIG. 4 ends. Is done. Thus evaluation index, if the thresholds T 1 below specified separately as parameter repetition is stopped, the processing is terminated.
  • the image in the image changed to this focus is used.
  • the amplitude of the pixel is at least larger than A.
  • L pixels having a large amplitude are extracted from the pixels in the image whose focus has been changed, and an average value of the amplitudes of the extracted pixels is used as an evaluation index. Since this evaluation index is calculated based on the image whose focus has been changed, when there is a virtual image formed on the image whose focus has been changed, the evaluation index calculated from this image is larger than A Value.
  • the evaluation index is a value smaller than A.
  • the radar image processing apparatus 1 can determine the presence or absence of a virtual image in an image based on the evaluation index.
  • the virtual image determination unit 11 sets the aliasing number estimation values M 0 and N 0 . , It is specified that the information relates to a focal point where the virtual image is formed or a focal point where the blur of the virtual image is reduced.
  • the virtual image determination unit 11 outputs the estimated values M 0 and N 0 of the number of turns to the refocus unit 10.
  • the refocusing unit 10 changes the focal point of the radar image input from the first storage unit 2 to a focal point that forms an image within the imaging range corresponding to the estimated values M 0 and N 0 of the folding number, and after changing the focal point Are output to the virtual image determination unit 11.
  • the virtual image determination unit 11 determines pixels including a virtual image formed on the radar image input from the refocus unit 10 (step ST3a). For example, the virtual image determination unit 11 determines that a pixel that satisfies all of the following four conditions is a pixel that includes a virtual image. Note that the determination based on the following four conditions is performed for each pixel. Further, a pixel existing at coordinates (x, y) on the radar image formed in the imaging range corresponding to the folding number candidates M and N is defined as S (x, y, N, M).
  • the first condition is that when the coordinates (x, y) are fixed and the folding number candidates M and N are changed, the maximum value of the pixel amplitude is the estimated number M 0 and N 0 of the folding number. It is a condition that it matches the amplitude of the pixel at the time. That is, the first condition is a condition in which the pixel S (x, y, N, M) satisfies the following formula (6). However, max N, M [] indicates that the maximum value in [] is extracted when the values of M and N are changed. max N, M [
  • ]
  • the second condition is a condition that the amplitude of the pixel reaches a peak when the estimated values M 0 and N 0 of the number of aliasing. That is, the second condition is a condition in which the pixel satisfies all of the following formula (7), the following formula (8), the following formula (9), and the following formula (10).
  • the third condition is a condition that the autocorrelation coefficient of the pixel when the aliasing number estimation values M 0 and N 0 are lower than the threshold T 2 .
  • Threshold T 2 are are set in advance virtual image determining unit 11 as the threshold for the autocorrelation coefficient parameters.
  • the autocorrelation coefficient C (x, y, N 0 , M 0 ) is calculated from the following equation (11).
  • the shift amount ⁇ x and the shift amount ⁇ y are parameters set in advance in the virtual image determination unit 11.
  • W is a region for calculating an autocorrelation coefficient, and * indicates a complex conjugate.
  • the following equation (11) is an equation for calculating the value of the autocorrelation coefficient from the pixel S (x, y, N, M), and the value of the autocorrelation coefficient is the pixel amplitude
  • the fourth condition is an image S ′ () in which the pixel amplitude is normalized, the focus is changed to a focus suitable for the imaging range corresponding to the number of aliasing candidates M and N, and the moving average of the pixel phase is applied.
  • the condition is that the amplitude of the pixel on x, y) is higher than the threshold T 3 .
  • the threshold T 3 is set in advance in the virtual image determination unit 11 as a threshold parameter relating to the amplitude of the pixel on the image S ′ (x, y).
  • the image S ′ (x, y) is output from the estimation unit 15 to the virtual image determination unit 11.
  • the normalization unit 13 normalizes the pixel amplitude to A, the refocusing unit 10 changes the focus, and the power of the virtual image signal is concentrated. For this reason, the amplitude
  • the fourth condition is a condition that satisfies the following expression (12).
  • the virtual image determination unit 11 determines whether or not all of the first to fourth conditions are satisfied for each pixel, and determines that a pixel satisfying the four conditions is a pixel including the formed virtual image. . Further, the virtual image determination unit 11 determines whether the power of the virtual image signal or the pixel amplitude is a threshold value for the radar image that has been changed to an image focused on the imaging range corresponding to the estimated values M 0 and N 0 of the folding number. A larger pixel may be determined to be a pixel including a formed virtual image.
  • the virtual image determination unit 11 applies a certain false alarm probability (hereinafter referred to as CFAR) to a radar image that has been changed to an image focused on the imaging range corresponding to the estimated values M 0 and N 0 of the folding number. (Described) may be processed.
  • the virtual image determination unit 11 performs a CFAR process on the radar image to detect a pixel whose power or amplitude is larger than that of the surrounding pixels and becomes a peak vertex, and forms an image of the detected pixel. It is determined that the pixel includes a virtual image.
  • the virtual image determination unit 11 determines whether or not there is a pixel including a virtual image on the radar image (step ST4a). When the virtual image determination unit 11 determines that there is no pixel including the virtual image (step ST4a; NO), the process of FIG. 4 is terminated. When there is no pixel including a virtual image in this way, the iteration is stopped and the process ends. On the other hand, when it is determined that there is a pixel including the virtual image (step ST4a; YES), the virtual image determination unit 11 outputs the position information of the pixel including the virtual image to the virtual image suppression unit 12.
  • the virtual image suppressing unit 12 suppresses the virtual image based on the position information of the pixel including the virtual image (step ST5a).
  • the radar image that is the target of suppressing the virtual image is read from the first storage unit 2 by the refocus unit 10 and the focus is changed to the imaging range corresponding to the estimated values M 0 and N 0 of the folding number. It is an image.
  • the virtual image suppression unit 12 suppresses the virtual image by replacing the value of the pixel determined to include the virtual image with 0.
  • the virtual image suppression unit 12 may multiply the value of a pixel determined to include a virtual image by a real number equal to or less than 1, and calculates the value of each pixel determined to include a virtual image as the value of surrounding pixels. It may be replaced with the average value of.
  • the image whose virtual image is suppressed by the virtual image suppression unit 12 is output to the refocus unit 10.
  • the refocusing unit 10 changes the focus of the radar image whose virtual image has been suppressed by the virtual image suppression unit 12 to a focus that matches the original imaging range (step ST6a).
  • the number of determination processes by the virtual image determination unit 11 corresponds to the number of repetitions of the virtual image suppression process by the virtual image suppression unit 12.
  • Iterative determination unit 16 determines to input the number of determinations from virtual image determining unit 11, the number of iterations is determined number entered whether reaches the upper limit value T 4 (step ST7a).
  • step ST7a If the number of iterations reaches the upper limit value T 4 (step ST7a; YES), the process of FIG. 4 is ended. In this way, when the number of iterations of the process reaches the upper limit of the number of iterations determined as a separate parameter, the iteration is stopped and the process ends. In this case, the repetition determining unit 16 notifies that the number of iterations reaches the upper limit value T 4 to refocus portion 10. Upon receiving the above notification from the iterative determination unit 16, the refocus unit 10 returns the focus of the radar image after virtual image suppression to the original imaging range and stores it in the second storage unit 3.
  • step ST7a If the number of iterations has not reached the upper limit value T 4 (step ST7a; NO), the repetition determining unit 16 notifies that the number of iterations has not reached the upper limit value T 4 to refocus portion 10.
  • the refocus unit 10 stores the radar image in which the virtual image is suppressed and focused on the original imaging range in the first storage unit 2. Thereby, a series of processing from step ST1a is repeated with respect to the image stored in the first storage unit 2.
  • the iterative determination unit 16 may determine the number of determination processes by the virtual image determination unit 11.
  • the iterative determination unit 16 may store the radar image after virtual image suppression in the first storage unit 2 or the second storage unit 3. For example, when the number of repetitions has not reached the upper limit value T 4 , the repetition determination unit 16 inputs a radar image from the refocus unit 10 and stores the input radar image in the first storage unit 2. When the number of iterations reaches the upper limit value T 4 , the iteration determination unit 16 inputs a radar image after virtual image suppression from the refocus unit 10, and stores the input radar image in the second storage unit 3.
  • FIG. 7 is a flowchart showing the virtual image determination process in the first embodiment, and shows details of the process in step ST3a in FIG.
  • the estimation unit 15 calculates an evaluation index from an image focused on the imaging range corresponding to each of the folding number candidates M and N, and evaluates the evaluation index. And the estimated values M 0 and N 0 of the number of folds are calculated from the created distribution of evaluation indices. Further, in step ST2a, a determination result is obtained that the value of the evaluation index when the aliasing number estimated values M 0 and N 0 exceed the threshold value T 1 .
  • the virtual image determination unit 11 determines a pixel including a virtual image in the radar image focused on the imaging range corresponding to the estimated values M 0 and N 0 of the folding number (step ST1c). For example, the virtual image determination unit 11 determines, for each pixel, whether or not all of the first to fourth conditions described above are satisfied, and is a pixel including a virtual image formed by forming pixels that satisfy the four conditions. Is determined.
  • the virtual image determination unit 11 removes pixel noise from the pixel determined to include a virtual image (step ST2c).
  • Pixel noise includes noise included in a reflected wave or noise caused by an error caused by numerical calculation of pixel values.
  • the virtual image determination unit 11 identifies pixel noise based on the distribution of pixels determined to include a virtual image, and changes the determination that the specified pixel does not include a virtual image. For example, the virtual image determination unit 11 is isolated and distributed on the image among the pixels determined to include the virtual image, and the pixel determined to include the virtual image is not in the adjacent position.
  • the process for determining an isolated pixel includes a process using a morphological expansion and contraction operation or a process using a median filter, and the virtual image determination unit 11 determines that the isolated pixel is not included in the virtual image. change.
  • the radar image processing apparatus 1 determines the pixel that includes the virtual image and the value of the pixel that is determined to include the virtual image on the radar image in which the focus of the radar image is changed. Make changes. Thereby, the radar image processing apparatus 1 can suppress only the virtual image in the radar image. In particular, the radar image processing apparatus 1 can detect even a virtual image with low signal power on a radar image focused on the original imaging range, and can suppress only the detected virtual image. it can. Since only the signal of the virtual image is processed, it is not necessary for the radar image to include a true image (the image of the object to be observed), and the virtual image suppression unit 12 converts the virtual image included in the image without the true image. Can be suppressed.
  • the refocusing unit 10 converts the radar image from a time domain to a Doppler frequency domain signal, and the amount of phase correction of the Doppler frequency domain signal is proportional to the Doppler frequency direction.
  • the focal point of the radar image is changed so as not to have a component that does.
  • the refocusing unit 10 can obtain a radar image that forms an image within the imaging range corresponding to the folding number candidates M and N.
  • the radar image processing apparatus 1 includes a normalization unit 13 that normalizes pixel amplitudes in a radar image. Since the normalization unit 13 normalizes the amplitude of the pixels, the degree of image formation of the virtual image when the focus is changed can be confirmed without being affected by the amplitude distribution of the pixels on the radar image.
  • the radar image processing apparatus 1 subtracts the values of pixels that are separated by a certain distance from each pixel included in the radar image, and generates an image that has been subjected to a moving average of pixels obtained by subtracting the phase.
  • a moving average unit 14 is provided.
  • the moving average unit 14 can reduce the noise included in the radar image by moving and averaging the pixels, and can reduce the influence of interference between signals, speckle, and error in numerical calculation of signal processing.
  • the estimation unit 15 estimates the number of aliases that reduces the blur of the virtual image based on the image generated by the moving average unit 14.
  • the refocus unit 10 changes the focus using the number of turns estimated by the estimation unit 15.
  • the virtual image determination unit 11 determines a pixel including a virtual image from the radar image whose focus has been changed by the refocusing unit 10. Since the estimation unit 15 estimates the number of folding before the determination by the virtual image determination unit 11, the virtual image determination unit 11 can reliably determine a pixel including a virtual image in a state where the number of folding is determined. Furthermore, the estimation unit 15 calculates a plurality of evaluation indexes based on an image focused on an imaging range corresponding to a plurality of folding number candidates, and obtains an estimation value of the folding number from the plurality of evaluation indexes. The virtual image determination unit 11 determines a pixel including a virtual image from an image focused on an imaging range corresponding to the estimated number of folding. As a result, the virtual image suppressing unit 12 can suppress a virtual image even when an object that becomes a virtual image exists in a wide range and a plurality of candidates for the number of aliases can be obtained.
  • the refocus unit 10 changes the radar image to a plurality of focal points.
  • the virtual image determination unit 11 determines a pixel including a virtual image based on the change in the value of the pixel in the radar image changed to each of the plurality of focal points. For example, the refocus unit 10 generates an image focused on an imaging range corresponding to each of a plurality of folding number candidates M and N.
  • the virtual image determination unit 11 determines a pixel including a virtual image from an image on which a virtual image is formed, using a change in the value of the pixel in these images as an evaluation index. Thereby, the virtual image determination unit 11 can accurately determine the pixel including the virtual image.
  • the refocus unit 10 changes the radar image to a plurality of focal points.
  • the virtual image determination unit 11 identifies information on a focus at which the blur of the virtual image is reduced based on a change in the pixel value in the radar image changed to each of the plurality of focal points, and the virtual image is determined based on the information on the identified focus.
  • a pixel including a virtual image is determined from the radar image in which the blur is reduced.
  • the refocus unit 10 generates an image focused on an imaging range corresponding to each of a plurality of folding number candidates M and N.
  • the virtual image determination unit 11 specifies the estimated values M 0 and N 0 of the number of folding determined based on these images as information on the focal point at which the blur of the virtual image is reduced.
  • the virtual image determination unit 11 determines a pixel including the virtual image from the radar image in which the blur of the virtual image is reduced based on the information on the identified focus. Thereby, the virtual image determination unit 11 can accurately determine the pixel including the virtual image.
  • the virtual image determination unit 11 determines a radar image including a virtual image based on the autocorrelation of the radar image among the radar images whose focus has been changed by the refocusing unit 10. To do. Thereby, the virtual image determination unit 11 can accurately determine the pixel including the virtual image.
  • the radar image processing apparatus 1 includes an iterative determination unit 16 that determines the end of repetition of refocus processing, virtual image determination processing, and virtual image suppression processing.
  • the virtual image suppressing unit 12 can be suppressed virtual image until it reaches the upper limit T 4 of iterations.
  • the virtual image determination unit 11 specifies pixel noise based on the distribution of pixels determined to include a virtual image, and the specified pixel does not include a virtual image. And change the judgment. Thereby, noise can be removed from the pixel determined to include the virtual image.
  • FIG. 8 is a block diagram showing a configuration of a radar image processing apparatus 1A according to Embodiment 2 of the present invention.
  • the radar image processing apparatus 1 ⁇ / b> A performs processing for suppressing a virtual image in the radar image stored in the first storage unit 2, and stores the radar image in which the virtual image is suppressed in the second storage unit 3.
  • the radar image processing apparatus 1A includes a refocus unit 10, a virtual image determination unit 11, a virtual image suppression unit 12, a normalization unit 13, a moving average unit 14, an estimation unit 15, an iterative determination unit 16, and an image display.
  • a processing unit 17, a first correction unit 18, and a second correction unit 19 are provided.
  • the image display processing unit 17 displays the image generated by the moving average unit 14 on a display device (not shown).
  • the user of the radar image processing apparatus 1A can visually recognize the image displayed on the display device.
  • the first correction unit 18 receives a correction operation on information about the focus specified by the virtual image determination unit 11, and corrects information on the focus on which the blur of the virtual image is reduced based on the received correction operation.
  • the virtual image determination unit 11 determines a pixel including a virtual image from the radar image in which the blur of the virtual image is reduced based on the information regarding the focus corrected by the first correction unit 18.
  • the second correction unit 19 receives a correction operation for the determination result of the pixel including the virtual image, and corrects the determination result of the pixel including the virtual image based on the received correction operation.
  • the virtual image suppressing unit 12 suppresses the virtual image by changing the value of the pixel determined to contain a virtual image based on the determination result corrected by the second correcting unit 19.
  • FIG. 9 is a flowchart showing details of the radar image processing method according to the second embodiment.
  • Step ST1d in FIG. 9 is the same process as step ST1a in FIG. 4, and step ST3d and step ST4d in FIG. 9 are the same process as step ST2a and step ST3a in FIG.
  • Steps ST6d to ST9d in FIG. 9 are the same processes as steps ST4a to ST7a in FIG. Description of these processes is omitted.
  • the first correction unit 18 corrects the estimation values M 0 and N 0 of the number of turns input from the estimation unit 15. For example, the first correction unit 18 instructs the image display processing unit 17 to estimate the number of folds M 0 , N 0 , the evaluation index when the number of folds is estimated M 0 , N 0 , and the wrapping. A radar image in focus corresponding to the estimated values M 0 and N 0 is displayed on the display device. And the 1st correction
  • the second correction unit 19 corrects the determination result of the pixels including the virtual image by the virtual image determination unit 11.
  • the second correcting unit 19 instructs the image display processing unit 17 to display the position information of the pixels determined to include the estimated values M 0 and N 0 of the number of folding and the virtual image on the display device.
  • the 2nd correction part 19 receives the correction operation using the input device which abbreviate
  • the determination result corrected in this way is output from the second correction unit 19 to the virtual image suppression unit 12.
  • the virtual image suppressing unit 12 suppresses the virtual image by changing the value of the pixel determined to contain a virtual image based on the determination result corrected by the second correcting unit 19.
  • the virtual image determination unit 11 uses the radar image in which the blur of the virtual image is reduced based on the information on the focus corrected by the first correction unit 18. A pixel including a virtual image is determined. Thereby, even if the radar image processing apparatus 1A erroneously generates information regarding the focal point at which the blur of the virtual image is reduced, the first correction unit 18 can correct the erroneous information correctly.
  • the virtual image suppression unit 12 suppresses the virtual image by changing the value of the pixel determined to include the virtual image based on the determination result corrected by the second correction unit 19 To do. Thereby, even if the radar image processing apparatus 1A erroneously determines a pixel including a virtual image, the second correction unit 19 can correct the erroneous determination result correctly.
  • Embodiment 3 In the radar image processing apparatus 1, the functions of the refocus unit 10, the virtual image determination unit 11, the virtual image suppression unit 12, the normalization unit 13, the moving average unit 14, the estimation unit 15, and the iterative determination unit 16 are realized by a processing circuit. Is done. That is, the radar image processing apparatus 1 includes a processing circuit for executing the processing from step ST1a to step ST7a shown in FIG. Similarly, in the radar image processing apparatus 1A, the refocus unit 10, the virtual image determination unit 11, the virtual image suppression unit 12, the normalization unit 13, the moving average unit 14, the estimation unit 15, the iterative determination unit 16, the image display processing unit 17, The functions of the first correction unit 18 and the second correction unit 19 are realized by a processing circuit. These processing circuits may be dedicated hardware, or may be a CPU (Central Processing Unit) that executes a program stored in a memory.
  • CPU Central Processing Unit
  • FIG. 10A is a block diagram showing a hardware configuration for realizing the functions of the radar image processing apparatus 1 or the radar image processing apparatus 1A.
  • FIG. 10B is a block diagram illustrating a hardware configuration for executing software that implements the functions of the radar image processing apparatus 1 or the radar image processing apparatus 1A.
  • the storage device 100 illustrated in FIGS. 10A and 10B functions as the first storage unit 2 and the second storage unit 3.
  • the storage device 100 may be a component included in the radar image processing device 1 or the radar image processing device 1A, but may be provided in a device independent of the radar image processing device.
  • the storage device 100 may be a device on a communication network that can be accessed from the radar image processing device 1 or the radar image processing device 1A.
  • the display device 101 displays the image information input from the image display processing unit 17 under the control of the image display processing unit 17.
  • the input device 102 is a device that receives an operation input from a user, and is realized by a touch panel, hardware keys, a mouse, and the like.
  • the first correction unit 18 corrects information regarding the focus at which the blur of the virtual image is reduced based on the correction operation using the input device 102.
  • the second correction unit 19 corrects the determination result of the pixel including the virtual image based on the correction operation using the input device 102.
  • the processing circuit 103 may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated), or the like. Circuit), FPGA (Field-Programmable Gate Array), or a combination thereof.
  • the functions of the refocusing unit 10, virtual image determination unit 11, virtual image suppression unit 12, normalization unit 13, moving average unit 14, estimation unit 15, and iterative determination unit 16 are performed by separate processing circuits. These functions may be realized, or these functions may be realized by a single processing circuit.
  • the refocus unit 10 the virtual image determination unit 11, the virtual image suppression unit 12, the normalization unit 13, the moving average unit 14, the estimation unit 15, the iterative determination unit 16, the image display processing unit 17, and the first
  • the functions of the correction unit 18 and the second correction unit 19 may be realized by separate processing circuits, or these functions may be realized by a single processing circuit.
  • the refocus unit 10 When the processing circuit is the processor 104 shown in FIG. 10B, the refocus unit 10, the virtual image determination unit 11, the virtual image suppression unit 12, the normalization unit 13, the moving average unit 14, the estimation unit 15 and the radar image processing apparatus 1 in the radar image processing apparatus 1
  • Each function of the iterative determination unit 16 is realized by software, firmware, or a combination of software and firmware.
  • the functions of the first correction unit 18 and the second correction unit 19 are also realized by software, firmware, or a combination of software and firmware.
  • the software or firmware is described as a program and stored in the memory 105.
  • the processor 104 reads out and executes the program stored in the memory 105, whereby the refocus unit 10, the virtual image determination unit 11, the virtual image suppression unit 12, the normalization unit 13, and the moving average unit 14 in the radar image processing apparatus 1.
  • the functions of the estimation unit 15 and the iterative determination unit 16 are realized. That is, the radar image processing apparatus 1 includes a memory 105 for storing a program that, when executed by the processor 104, results in the processing from step ST1a to step ST7a shown in FIG. These programs cause the computer to execute the procedures or methods of the refocus unit 10, the virtual image determination unit 11, the virtual image suppression unit 12, the normalization unit 13, the moving average unit 14, the estimation unit 15, and the iterative determination unit 16.
  • the memory 105 stores a program for causing the computer to function as the refocus unit 10, the virtual image determination unit 11, the virtual image suppression unit 12, the normalization unit 13, the moving average unit 14, the estimation unit 15, and the iterative determination unit 16. It may be a computer readable storage medium. The same applies to the radar image processing apparatus 1A.
  • the memory 105 may be, for example, a nonvolatile memory such as a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically-EPROM), or a volatile memory.
  • a nonvolatile memory such as a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically-EPROM), or a volatile memory.
  • RAM Random Access Memory
  • ROM Read Only Memory
  • flash memory an EPROM (Erasable Programmable Read Only Memory)
  • EEPROM Electrically-EPROM
  • Magnetic disks, flexible disks, optical disks, compact disks, mini disks, DVDs, and the like are applicable.
  • a part of each function of the refocusing unit 10, the virtual image determination unit 11, the virtual image suppression unit 12, the normalization unit 13, the moving average unit 14, the estimation unit 15, and the iterative determination unit 16 is realized by dedicated hardware.
  • the unit may be realized by software or firmware.
  • the refocus unit 10, the virtual image determination unit 11, and the virtual image suppression unit 12 realize a function with a processing circuit as dedicated hardware.
  • the normalization unit 13, the moving average unit 14, the estimation unit 15, and the iterative determination unit 16 may realize functions by the processor 104 reading and executing a program stored in the memory 105.
  • the radar image processing apparatus 1A includes a refocus unit 10, a virtual image determination unit 11, a virtual image suppression unit 12, a normalization unit 13, a moving average unit 14, an estimation unit 15, an iterative determination unit 16, an image display processing unit 17, The same applies to the first correction unit 18 and the second correction unit 19.
  • the processing circuit can realize each of the above functions by hardware, software, firmware, or a combination thereof.
  • the radar image processing apparatus can suppress only the virtual image in the radar image, it can be used for SAR.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本発明は、レーダ画像における虚像のみを抑圧できるレーダ画像処理装置を得ることを目的とする。 本発明のレーダ画像処理装置(1)は、レーダ画像を入力して、レーダ画像の焦点を変更するリフォーカス部(10)と、前記リフォーカス部によって焦点が変更されたレーダ画像から、虚像が含まれる画素を判定する虚像判定部(11)と、前記リフォーカス部によって焦点が変更されたレーダ画像上で前記虚像判定部によって虚像が含まれると判定された画素の値を変更する虚像抑圧部(12)とを備えたことを特徴とする。 本発明のレーダ画像処理装置(1)は、合成開口レーダ(SAR)に利用可能である。

Description

レーダ画像処理装置およびレーダ画像処理方法
 この発明は、レーダ画像中の虚像を抑圧するレーダ画像処理装置およびレーダ画像処理方法に関する。
 合成開口レーダ(以下、SARと記載する)では、観測対象の領域で反射された電波の受信信号に基づいて、観測対象の領域に関するレーダ画像が得られる。電波は、例えば、航空機、人工衛星もしくは車両といった移動体から、観測対象の領域に照射される。レーダ画像には、レーダから観測対象の領域までの直線方向に沿ったレンジ軸と移動体の進行方向あるいはレンジ軸に直交する方向に沿ったアジマス軸との二軸がある。レーダ画像の画素は、観測対象の領域からの反射波を示す複素数を有している。
 レーダ画像をアジマス軸の方向にフーリエ変換して周波数表現すると、ドップラー周波数の軸の要素が得られる。なお、観測対象からの反射波の受信信号に基づいてレーダ画像を得る信号処理は“画像再生”と呼ばれている。画像再生では、電波の照射範囲の一部を画像化の範囲として、この範囲が結像するように焦点を合わせて処理が行われる。この画像化の範囲が観測対象の領域である。
 画像再生後のレーダ画像を信号処理することで、レーダ画像の焦点を変えることも可能である。モノスタティック観測の場合、一般的な画像化の範囲では、レーダに受信された電波のドップラー周波数がパルス繰り返し周波数(以下、PRFと記載する)以下であり、かつ、パルスが送信されて受信されるまでの時間が、反射波の受信信号のアナログデジタル変換に要する時間範囲(レンジゲート)内である。なお、PRFは、パルスが送信されてから受信されるまでの周期に基づいて決定される。
 SARでは、電波を送受信するアンテナの指向性を利用してメインビームの範囲が画像化の範囲になるように設計される場合が多い。しかしながら、アンテナは、指向性があるものの、ほぼ全方位で電波を送受信しているため、画像化の範囲外に存在する物体からの反射波も受信してしまう。
 画像化の範囲外に存在する物体からの反射波の信号は、この信号のドップラー周波数がPRFを超えてエイリアシングが生じて画像化の範囲内の信号と重なることがある。これは、アジマスアンビギュイティと呼ばれる。また、レーダからみて画像化の範囲から遠い物体もしくは画像化の範囲よりも近い物体からの信号は、受信時刻がレーダのパルス繰り返し周期の整数倍だけずれた信号と区別できず、画像化の範囲内の信号と重なることがある。これは、多次エコーもしくはレンジアンビギュイティと呼ばれる。画像化の範囲外に存在する物体からの反射波に起因した虚像は、画像化の範囲に焦点を合わせて画像再生しても結像せずにぼけた状態となり、画像化の範囲内で結像した真の像と重なってしまう。
 例えば、特許文献1に記載された装置では、レーダ画像中の目標をアンビギュイティと仮定し、さらに目標の存在する位置を仮定して、仮定した位置に基づいてレーダ画像をアジマス圧縮する。アジマス圧縮した画像データにおける目標の振幅が閾値よりも高い場合、上記装置は、目標が仮定した位置に生じたアンビギュイティであると判定する。上記装置は、仮定する位置を変化させて上記処理を繰り返すことで、目標がアンビギュイティであるか否かを判定し、アンビギュイティと判定した目標の振幅値を0または目標周囲にある画素の振幅の平均値に置き換えて、アンビギュイティを抑圧している。
特開2008-261720号公報
 特許文献1に記載された装置は、観測対象の領域に焦点が合ったレーダ画像に含まれる虚像(アンビギュイティ)を抑圧するので、ぼけて広がっている虚像が含まれる画素の値が0または周囲にある画素の値の平均値に置き換えられる。
 一方、観測対象の領域内に存在する物体の像(以下、真の像と記載する)と上記虚像とが重なっており、かつ観測対象の領域に焦点が合ったレーダ画像において、虚像の信号はぼけて広がっているが、真の像の信号は、結像して狭い範囲に集中している。
 このため、特許文献1に記載された装置では、虚像が含まれる画素の値を変更すると、虚像と重なった真の像の信号の多くが影響を受けて、真の像まで抑圧されるという課題があった。
 この発明は上記課題を解決するものであり、レーダ画像における虚像のみを抑圧できるレーダ画像処理装置およびレーダ画像処理方法を得ることを目的とする。
 この発明に係るレーダ画像処理装置は、リフォーカス部、虚像判定部および虚像抑圧部を備えて構成される。リフォーカス部は、レーダ画像を入力し、レーダ画像の焦点を変更する。虚像判定部は、リフォーカス部によって焦点が変更されたレーダ画像から、虚像が含まれる画素を判定する。虚像抑圧部は、リフォーカス部によって焦点が変更されたレーダ画像上で虚像判定部によって虚像が含まれると判定された画素の値を変更する。
 この発明によれば、レーダ画像処理装置が、レーダ画像の焦点を変更したレーダ画像上で虚像が含まれる画素の判定と虚像が含まれると判定した画素の値の変更とを行う。これにより、レーダ画像処理装置は、レーダ画像における虚像のみを抑圧することができる。
この発明の実施の形態1に係るレーダ画像処理装置の構成を示すブロック図である。 実施の形態1に係るレーダ画像処理方法を示すフローチャートである。 実施の形態1におけるレーダ画像の焦点変更の概要を示す図である。 実施の形態1に係るレーダ画像処理方法の詳細を示すフローチャートである。 実施の形態1における画素の振幅の規格化および折り返し数の推定処理を示すフローチャートである。 評価指標と折り返し数との関係を示す図である。 実施の形態1における虚像判定処理を示すフローチャートである。 この発明の実施の形態2に係るレーダ画像処理装置の構成を示すブロック図である。 実施の形態2に係るレーダ画像処理方法の詳細を示すフローチャートである。 図10Aは、実施の形態1または実施の形態2に係るレーダ画像処理装置の機能を実現するハードウェア構成を示すブロック図である。図10Bは、実施の形態1または実施の形態2に係るレーダ画像処理装置の機能を実現するソフトウェアを実行するハードウェア構成を示すブロック図である。
 以下、この発明をより詳細に説明するため、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 図1は、この発明の実施の形態1に係るレーダ画像処理装置1の構成を示すブロック図である。レーダ画像処理装置1は、第1の格納部2から入力したレーダ画像に含まれる虚像を抑圧し、虚像を抑圧したレーダ画像を第2の格納部3に格納する。なお、レーダ画像は、画像再生後の画像であり、この画像を信号処理して焦点を変えることが可能である。レーダ画像の本来の画像化の範囲は観測対象の領域であるが、焦点を変更することにより本来の画像化の範囲外で結像するレーダ画像が得られる。図1に示す例では、レーダ画像処理装置1が、リフォーカス部10、虚像判定部11、虚像抑圧部12、規格化部13、移動平均部14、推定部15および反復判定部16を備えて構成される。
 第1の格納部2は、レーダ画像を格納する。図示を省略したレーダが、観測対象の領域に向けて電波を照射し、観測対象の領域で反射された電波を受信する。上記レーダは、電波の受信信号に基づいて観測対象の領域のレーダ画像を生成する。
 なお、観測対象の領域で反射された電波に対して観測対象の領域外にある物体で反射された電波が混入すると、レーダ画像には、観測対象の領域外にある物体からの反射波に起因した虚像が生じる。
 第1の格納部2には、前述した虚像を生じたレーダ画像も格納されている。また、第1の格納部2には、リフォーカス部10によって焦点が変更されたレーダ画像、または虚像抑圧部12の処理対象である虚像のぼけが緩和されたレーダ画像が格納される。
 第1の格納部2に格納されているレーダ画像の画素は、画素値が複素数になっている。
 第2の格納部3には、レーダ画像処理装置1によって虚像が抑圧されて本来の画像化の範囲に焦点が合ったレーダ画像が格納される。以下、第2の格納部3に格納されるレーダ画像を、虚像抑圧後のレーダ画像と記載する。
 リフォーカス部10は、第1の格納部2からレーダ画像を入力し、レーダ画像の焦点を変更する。例えば、リフォーカス部10は、本来の画像化の範囲に焦点が合ったレーダ画像の焦点を変更することによって、本来の画像化の範囲外に焦点を合わせたレーダ画像を生成する。本来の画像化の範囲に焦点が合ったレーダ画像では、この範囲が結像するが、虚像はぼけている。一方、本来の画像化の範囲外に焦点が合ったレーダ画像では、本来の画像化の範囲で結像していた像はぼける。
 虚像判定部11は、リフォーカス部10によって焦点が変更されたレーダ画像から、虚像が含まれる画素を判定する。虚像が含まれると判定された画素の位置情報およびレーダ画像は、虚像判定部11から虚像抑圧部12に出力される。画素の位置情報は、例えば、レーダ画像上の画素の位置座標である。虚像判定部11は、推定部15から入力した折り返し数の推定値に基づいてレーダ画像中の虚像の有無を判定する。詳細は後述する。また、虚像判定部11は、虚像が含まれる画素の判定回数を反復判定部16に出力する。
 虚像抑圧部12は、リフォーカス部10によって焦点が変更されたレーダ画像上で、虚像判定部11によって虚像が含まれると判定された画素の値を変更する。例えば、虚像抑圧部12は、虚像が含まれる画素の値を0に置き換える。これにより、虚像が含まれる画素が抑圧される。ただし、虚像が含まれる画素を抑圧できれば、画素の値に1以下の実数を乗じてもよく、周囲の画素の値の平均値に置き換えてもよい。一方で、虚像が含まれると判定された画素がない場合には変更されない。
 規格化部13は、第1の格納部2から入力したレーダ画像における画素の振幅を規格化する。例えば、規格化部13は、画素の振幅を一定値Aに置き換える。Aは0以外の実数である。
 移動平均部14は、リフォーカス部10によって焦点が変更されたレーダ画像を入力して、入力したレーダ画像における画素の移動平均を施した画像を生成する。例えば、移動平均部14は、入力したレーダ画像に含まれる画素のそれぞれでアジマス方向に一定の距離(δ画素分)だけ離れた画素の位相同士を減算し、位相減算後の画素の複素数の値を移動平均したレーダ画像を生成する。
 推定部15は、移動平均部14によって生成された上記画像に基づいて、虚像のぼけが緩和される折り返し数を推定する。なお、折り返し数には、アジマスアンビギュイティのエイリアシングの度合いを示す折り返し数と、レンジアンビギュイティの受信時刻のずれとなるレーダのパルス繰り返し周期の倍数とが含まれる。以下、受信時刻のレーダのパルス繰り返し周期の整数倍のずれをMとし、エイリアシングの度合いを示す折り返し数をNとする。
 反復判定部16は、虚像抑圧部12による虚像抑圧処理の反復の終了を判定する。
 例えば、反復判定部16は、虚像判定部11から入力した反復回数が上限値に達したか否かを判定し、この判定結果をリフォーカス部10に通知する。リフォーカス部10は、反復回数が上限値に達したという判定結果を受けると、虚像が抑圧され、本来の画像化の範囲に焦点を合わせたレーダ画像(虚像抑圧後のレーダ画像)を、第2の格納部3に格納する。
 なお、レーダ画像処理装置1は、リフォーカス部10、虚像判定部11および虚像抑圧部12を備えていればよく、これら以外の構成要素は、レーダ画像処理装置1とは別の装置が備えてもよい。例えば、規格化部13、移動平均部14、推定部15および反復判定部16は、レーダ画像処理装置1との間で情報のやり取りが可能な別の装置が備える構成要素であってもよい。
 次に動作について説明する。
 図2は、実施の形態1に係るレーダ画像処理方法を示すフローチャートである。
 リフォーカス部10が、第1の格納部2からレーダ画像を入力し、入力したレーダ画像の焦点を変更する(ステップST1)。ここで、リフォーカス部10は、本来の画像化の範囲に焦点が合ったレーダ画像の焦点を変更することによって、本来の画像化の範囲外に焦点を合わせたレーダ画像を生成する。
 図3はレーダ画像の焦点変更の概要を示す図である。図3に示すレーダ画像20Aは、本来の画像化の範囲に焦点が合った画像である。像30aおよび像30bは、観測対象の物体の像、すなわち、真の像である。また、真の像30bは、虚像40と重なっている。レーダ画像20Aは、本来の画像化の範囲に焦点が合っているので、像30aと像30bは結像している。このため、像30aの信号と像30bの信号は、レーダ画像20A上の狭い領域に集中している。一方、レーダ画像20A上で虚像40はぼけており、虚像40の信号は、像30bを含む領域に広がっている。
 リフォーカス部10は、本来の画像化の範囲に焦点が合ったレーダ画像20Aを、本来の画像化の範囲外に焦点が合ったレーダ画像20Bを変更する。虚像に焦点が合った場合は、虚像40が結像して、虚像40の信号は狭い範囲に集中する。一方、像30aおよび像30bはぼけており、像30aの信号および像30bの信号は、レーダ画像20B上で広がっている。
 図2の説明に戻る。
 虚像判定部11は、リフォーカス部10によって焦点が変更されたレーダ画像から虚像が含まれる画素を判定する(ステップST2)。
 例えば、虚像判定部11は、図3に示したレーダ画像20B上で、狭い範囲に結像した虚像40が含まれる画素を判定し、虚像40が含まれると判定した画素の位置情報およびレーダ画像20Bを虚像抑圧部12に出力する。
 次に、虚像抑圧部12は、リフォーカス部10によって焦点が変更されたレーダ画像上で、虚像判定部11によって虚像が含まれると判定された画素の値を変更する(ステップST3)。例えば、虚像抑圧部12は、虚像判定部11から入力した画素の位置情報に基づいて、レーダ画像20B上の虚像40が含まれる画素を特定し、特定した画素の値を変更する。
 レーダ画像20Bでは、前述したように、虚像40の信号が狭い範囲に集まり、真の像である像30aおよび像30bは、ぼけて広がっている。このように狭い範囲に集中している虚像40が含まれる画素の値を変更しても、虚像40と重なっている像30bの信号の多くは影響を受けず、虚像40のみが抑圧される。
 次に、実施の形態1に係るレーダ画像処理方法の詳細を説明する。
 図4は、実施の形態1に係るレーダ画像処理方法の詳細を示すフローチャートである。図4において、ステップST1aからステップST2aまでの処理は、図2のステップST1の詳細な処理であり、ステップST3aからステップST4aまでの処理は、図2のステップST2の詳細な処理を示している。ステップST5aからステップST7aまでの処理は、図2のステップST3の詳細な処理を示している。
 ステップST1aにおいて、規格化部13が、第1の格納部2から入力したレーダ画像における画素の振幅を規格化し、推定部15が、移動平均部14によって生成された画像に基づいて、虚像のぼけが緩和される折り返し数の推定値M,Nを求める。
 図5は、実施の形態1における画素の振幅の規格化および折り返し数の推定処理を示すフローチャートであり、図4のステップST1aの詳細な処理を示している。
 規格化部13は、レーダ画像上の全ての画素の振幅を一定値Aに規格化する(ステップST1b)。Aは0以外の実数である。規格化によって、レーダ画像上の画素の振幅分布が変わるが、画素の位相分布は変わらない。この処理によって、虚像のぼけが緩和されるようにレーダ画像の焦点を変更した後、虚像の結像度合いを評価するときにレーダ画像上の画素の振幅分布に影響されない正確な評価が可能となる。
 リフォーカス部10は、規格化部13によって画素の振幅が規格化され、本来の画像化の範囲に焦点が合ったレーダ画像を、折り返し数の候補M,Nに対応した画像化の範囲に焦点が合った画像に変更する(ステップST2b)。折り返し数の候補M,Nは、推定部15によって求められ、虚像判定部11によってリフォーカス部10に設定される。
 M=0かつN=0であるときは虚像の信号の折り返しはないため、M=0かつN=0に対応した画像化の範囲に焦点が合ったレーダ画像は、本来の画像化の範囲に焦点が合ったレーダ画像である。リフォーカス部10は、虚像判定部11によって設定された折り返し数の候補M,Nの値を変えて、M,Nに対応した画像化の範囲に焦点が合った画像を順次生成する。ここで、MとNの両方の値を変えてもよいが、例えば、Mの値を0に固定してNの値のみを変えてもよく、Nの値を0に固定してMの値のみを変えてもよい。
 折り返し数の候補M,Nに対応した画像化の範囲に焦点が合ったレーダ画像では、図3に示したように、虚像のぼけが緩和されて、ぼけて広がっていた虚像の信号は狭い範囲に集中している。なお、リフォーカス部10は、虚像のぼけが緩和される焦点に変更すればよく、完全にぼけがなくなり理想的なレーダ画像の点像応答とする必要はない。
 また、本来の画像化の範囲に焦点が合ったレーダ画像で結像していた像は、焦点が変更されたことで、ぼけて広がった状態となる。
 リフォーカス部10は、規格化部13によって画素の振幅が規格化されたレーダ画像をアジマス方向にフーリエ変換して、レンジドップラー周波数領域の信号に変換する。
 レーダが搭載された移動体が速さVで等速直線運動しているときに、本来の画像化の範囲内にある観測対象と上記レーダとの間の距離R(R,fη)は、下記の参考文献に記載されるように、下記式(1)から導くことができる。ただし、Rは、上記レーダと電波の反射体とが最も接近したときの距離である。λは電波の波長、fηは電波の信号のドップラー周波数である。
 R(R,fη)=R/{1-λη /(4V)}1/2  ・・・(1)
(参考文献)I. G. Cumming、F. H. Wong,“Digital processing of synthetic aperture radar”, Artech House,2005.
 本来の画像化の範囲外にある物体と上記レーダとの距離R(R,fη,M,N)は、折り返し数の候補をM,Nとすると、下記式(2)から導くことができる。ただし、cは光速であり、fPRFは、上記レーダにおける電波のパルス繰り返し周波数(PRF)である。また、θは、下記式(3)から求められる値である。
 R(R,fη,M,N)={R+cM/(2fPRF)}cos(θ)/{1-λη /(4V)}1/2・・・(2)
 θ=sin-1{λNfPRF/(2V)}   ・・・(3)
 本来の画像化の範囲に焦点が合ったレーダ画像は、R(R,fη)に応じた距離変化と位相変化とに基づいて補正される。また、本来の画像化の範囲外に焦点が合ったレーダ画像は、R(R,fη,N,M)-R(R,fη)に応じた距離変化と位相変化とに基づいて補正する必要がある。本来の画像化の範囲外に合った焦点は、折り返し数の候補M,Nを想定してR(R,fη,N,M)-R(R,fη)を算出し、算出した距離と位相を補正して求めることができる。
 本来の画像化の範囲に焦点が合ったレーダ画像は、M=0かつN=0であることから、R(R,fη)=R(R,fη,0,0)となる。このため、リフォーカス部10による焦点の変更処理は、折り返し数の候補M’,N’に対応した画像化の範囲に焦点が合ったレーダ画像から、折り返し数の候補MおよびNに応じた画像化の範囲に焦点が合ったレーダ画像への焦点の変更処理と考えることができる。
 リフォーカス部10による焦点の変更処理において、上記レーダと本来の画像化の範囲外にある物体との間の距離の補正量ΔR(R,fη,N,M,N’,M’)は、下記式(4)の関係を有する。
 ΔR(R,fη,N,M,N’,M’)
 =R(R,fη,N,M)-R(R,fη,N’,M’)   ・・・(4)
 上記距離の補正では、フーリエ変換されたレーダ画像の信号が、ドップラー周波数fηごとに、補正量ΔR(R,fη,N,M,N’,M’)に応じてシフトされる。
 シフトの方法は、補間または内挿によるシフトでもよい。また、レーダ画像を、レンジ方向にフーリエ変換した後に、補正量ΔR(R,fη,N,M,N’,M’)に応じた線形の位相を乗じてから、レンジ方向に逆フーリエ変換してもよい。
 焦点の変更処理において、位相の補正は下記の手順で行われる。
 リフォーカス部10は、補正量ΔR(R,fη,N,M,N’,M’)を、Rごとにドップラー周波数fηの一次関数でフィッティングする。フィッティングした一次関数をf(R,fη,N,M,N’,M’)とした場合、位相の補正量φ(R,fη,N,M,N’,M’)は、下記式(5)から求めることができる。
 φ(R,fη,N,M,N’,M’)
 =(4π/λ){ΔR(R,fη,N,M,N’,M’)-f(R,fη,N,M,N’,M’)}     ・・・(5)
 位相の補正量φ(R,fη,N,M,N’,M’)がドップラー周波数fηに比例した位相f(R,fη,N,M,N’,M’)を含むと、位相が補正された後に逆フーリエ変換した画像は、移動体の移動方向(アジマス方向)にシフトする。このシフトが生じないように、位相の補正量φ(R,fη,N,M,N’,M’)から、線形の位相成分が除かれる。exp[-jφ(R,fη,N,M,N’,M’)]をレンジドップラー周波数領域の信号に乗じることで、当該信号の位相は補正される。このように、リフォーカス部10は、レーダ画像をアジマス方向にフーリエ変換して得られたドップラー周波数領域の信号についての位相の補正量φ(R,fη,N,M,N’,M’)がドップラー周波数方向に比例する上記位相成分を持たないように、レーダ画像の焦点を変更する。
 リフォーカス部10が、距離と位相を補正した信号をレンジ方向に逆フーリエ変換することで、折り返し数の候補M,Nに対応した画像化の範囲で結像するレーダ画像を得る。なお、これまで説明した焦点の変更処理は一例であって、オートフォーカスで焦点を変更してもよい。焦点の変更処理において、位相の補正量φ(R,fη,N,M,N’,N’)の値が小さい場合、位相の補正処理を省略してもよい。距離R(R,fη)は、上記式(1)以外で算出してもよい。
 焦点の変更処理において、本来の画像化の範囲に焦点が合ったレーダ画像は、折り返し数の候補M’≠0およびN’≠0でM=0およびN=0となる。本来の画像化の範囲外に焦点が合ったレーダ画像は、折り返し数の候補M’=0およびN’=0で、M≠0およびN≠0となる。
 移動平均部14は、規格化部13によって画素の振幅が規格化されて、前述した手順でリフォーカス部10によって焦点が変更されたレーダ画像を入力し、入力したレーダ画像の画素の移動平均を施した画像を生成する(ステップST3b)。この移動平均により、焦点が変更されたレーダ画像から雑音が除かれる。
 まず、移動平均部14は、移動平均を算出する前に、リフォーカス部10によって焦点が変更されたレーダ画像のそれぞれの画素の位相からアジマス方向にδ画素だけ離れた画素の位相を減算する。δは0以外の実数である。この処理は、レーダ画像上の画素の位相をアジマス方向に微分することに相当する。移動平均部14は、アジマス方向に微分された画素の移動平均を施したレーダ画像を生成する。
 焦点が変更された後のレーダ画像には、虚像が生じる原因となった物体の位置に応じた位相の一次成分、すなわちアジマス方向に比例した成分が存在する。この一次成分を位相の微分によって除去し画素の移動平均を算出することにより、レーダ画像から雑音が除去される。この移動平均は、画素の振幅のみを移動平均した画像に比べて、複素平面上でばらついた信号の平均が0になりやすく、雑音の低減効果が高い。また、画素の移動平均を施すことで、レーダ画像に含まれる雑音の他に、信号同士の干渉、スペックルおよび信号処理の数値演算の誤差の影響が低減される。
 次に、推定部15は、移動平均部14によって画素の移動平均が施されたレーダ画像に基づいて、虚像が結像する折り返し数を求めるための評価指標を算出する(ステップST4b)。ここで、推定部15は、リフォーカス部10によって折り返し数の候補M,Nに対応した画像化の範囲に合った焦点に変更され、移動平均部14によって移動平均が施されたレーダ画像を、折り返し数の候補M,Nごとに順次入力して、評価指標を求める。例えば、推定部15は、入力したレーダ画像から振幅の大きいL個の画素を抽出して、抽出した画素の振幅の平均値を評価指標とする。なお、評価指標は、L個の画素のうちの振幅の最大値であってもよく、レーダ画像における全画素の振幅の平均値であってもよい。
 推定部15は、評価指標の値が最大となる折り返し数の候補M,Nを決定する。
 図6は、評価指標と折り返し数との関係を示す図であり、折り返し数の候補M,Nの値を変えながら評価指標の算出を実施して得られた評価指標の分布を示している。評価指標の分布のイメージ図において、白い部分は評価指標の値が低く、黒い部分は評価指標の値が高いことを示している。
 推定部15は、折り返し数の候補M,Nに対応した画像化の範囲に焦点が合った画像に基づいて評価指標を算出すると、全ての折り返し数の候補について、評価指標の算出処理を行ったか否かを確認する(ステップST5b)。全ての折り返し数の候補について評価指標の算出処理が行われていない場合(ステップST5b;NO)、ステップST2bの処理に戻り、前述の処理を繰り返す。このようにして図6に示した評価指標の分布が順次作成される。一方、全ての折り返し数の候補について評価指標の算出処理を行った場合(ステップST5b;YES)、推定部15は、上記評価指標の分布のうち、評価指標の値が最大となる折り返し数の候補M,Nを、折り返し数の推定値M,Nに決定する(ステップST6b)。
 図4の説明に戻る。
 ステップST2aにおいて、虚像判定部11は、推定部15から入力した折り返し数の推定値M,Nであるときの評価指標の値が閾値Tを超えているか否かを判定する。
 閾値Tは、評価指標に関する閾値のパラメータとして虚像判定部11に事前に設定される。折り返し数の推定値M,Nであるときの評価指標の値が閾値T以下である場合(ステップST2a;NO)、対象のレーダ画像中に虚像がないため、図4の処理が終了される。このように評価指標が、別途パラメータとして定める閾値T以下の場合に、反復が停止され、処理が終了する。
 画素の振幅の値がAに規格化された画像を、折り返し数の推定値M,Nに対応した画像化の範囲に合った焦点に変更されると、この焦点に変更された画像における画素の振幅は、少なくともAよりも大きな値となる。
 また、焦点が変更された上記画像における画素のうち、振幅の大きいL個の画素を抽出し、抽出した画素の振幅の平均値を評価指標とする。この評価指標は、焦点が変更された上記画像に基づいて算出されるため、焦点が変更された上記画像上で結像した虚像がある場合、この画像から算出した評価指標は、Aよりも大きな値となる。一方、虚像が抑圧されるか、焦点が変更された上記画像に虚像がない場合、評価指標は、Aよりも小さい値となる。このように、実施の形態1に係るレーダ画像処理装置1では、評価指標に基づいて画像中の虚像の有無を判定することができる。
 折り返し数の推定値M,Nであるときの評価指標の値が閾値Tを超えた場合(ステップST2a;YES)、虚像判定部11は、折り返し数の推定値M,Nを、虚像が結像する焦点または虚像のぼけが緩和される焦点に関する情報であると特定する。
 虚像判定部11は、折り返し数の推定値M,Nをリフォーカス部10に出力する。リフォーカス部10は、第1の格納部2から入力したレーダ画像の焦点を、折り返し数の推定値M,Nに対応した画像化の範囲で結像する焦点に変更し、焦点変更後のレーダ画像を虚像判定部11に出力する。
 虚像判定部11は、リフォーカス部10から入力したレーダ画像上で結像している虚像が含まれる画素を判定する(ステップST3a)。
 例えば、虚像判定部11は、下記の4つの条件の全てを満たす画素が、虚像が含まれる画素であると判定する。なお、下記の4つの条件に基づく判定は、画素ごとに行われる。また、折り返し数の候補M,Nに対応した画像化の範囲で結像しているレーダ画像上の座標(x,y)に存在する画素をS(x,y,N,M)とする。
 第1の条件は、座標(x,y)を固定して折り返し数の候補M,Nを変化させたときの画素の振幅の最大値が、折り返し数の推定値M,Nであったときの画素の振幅と一致するという条件である。すなわち、第1の条件は、画素S(x,y,N,M)が下記式(6)を満たす条件である。ただし、maxN,M[ ]は、M,Nの値を変化させたときの[ ]の中の最大値を抽出することを示している。
 maxN,M[|S(x,y,N,M)|]=|S(x,y,N,M)|・・(6)
 第2の条件は、折り返し数の推定値M,Nであるときに画素の振幅がピークになるという条件である。すなわち、第2の条件は、画素が、下記式(7)、下記式(8)、下記式(9)および下記式(10)の全てを満たす条件である。
 max[|S(x,y,N,M)|-|S(x,y,N-1,M)|]
 =|S(x,y,N,M)|-|S(x,y,N-1,M)| ・・・(7)
 min[|S(x,y,N,M)|-|S(x,y,N+1,M)|]
 =|S(x,y,N,M)|-|S(x,y,N+1,M)| ・・・(8)
 max[|S(x,y,N,M)|-|S(x,y,N,M-1)|]
 =|S(x,y,N,M)|-|S(x,y,N,M-1)| ・・・(9)
 min[|S(x,y,N,M)|-|S(x,y,N,M+1)|]
 =|S(x,y,N,M)|-|S(x,y,N,M+1)| ・・・(10)
 第3の条件は、折り返し数の推定値M,Nであるときの画素の自己相関係数が閾値Tよりも低いという条件である。閾値Tは、自己相関係数に関する閾値のパラメータとして虚像判定部11に事前に設定される。自己相関係数C(x,y,N,M)は、下記式(11)から算出される。下記式(11)において、シフト量δおよびシフト量δは、虚像判定部11に事前に設定されるパラメータである。Wは自己相関係数を算出する領域であり、*は複素共役を示している。下記式(11)は、画素S(x,y,N,M)から自己相関係数の値を算出する式であるが、自己相関係数の値は、画素の振幅|S(x,y,N,M)|から算出してもよいし、移動平均部14によって移動平均が施された画素値から算出してもよい。
 C(x,y,N,M
 =|Σ(x,y)∈WS(x+δ,y+δ,N,M)S(x,y,N,M)|/{Σ(x,y)∈W|S(x,y,N,M)|Σ(x,y)∈W|S(x+δ,y+δ,N,M)|1/2   ・・・(11)
 第4の条件は、画素の振幅が規格化され、折り返し数の候補M,Nに対応した画像化の範囲に合った焦点に変更され、画素の位相の移動平均が施された画像S’(x,y)上の画素の振幅が閾値Tよりも高いという条件である。閾値Tは、画像S’(x,y)上の画素の振幅に関する閾値のパラメータとして虚像判定部11に事前に設定される。
 なお、画像S’(x,y)は、推定部15から虚像判定部11に出力される。
 画像S’(x,y)は、規格化部13によって画素の振幅がAに規格化され、リフォーカス部10によって焦点が変更されて虚像の信号の電力が集中している。このため、画像S’(x,y)で結像した画素の振幅|S’(x,y)|は、少なくともAより大きい値となる。第4の条件は、下記式(12)が成り立つ条件である。
 |S’(x,y)|/A≧T   ・・・(12)
 虚像判定部11は、第1から第4の条件の全てを満たすか否かを画素ごとに判定して、4つの条件を満たした画素を、結像した虚像が含まれる画素であると判定する。
 また、虚像判定部11は、折り返し数の推定値M,Nに対応した画像化の範囲に焦点が合った画像に変更されたレーダ画像について、虚像の信号の電力もしくは画素の振幅が閾値よりも大きい画素を、結像した虚像が含まれる画素であると判定してもよい。
 さらに、虚像判定部11は、折り返し数の推定値M,Nに対応した画像化の範囲に焦点が合った画像に変更されたレーダ画像に対して、一定誤警報確率(以下、CFARと記載する)処理を施してもよい。この場合、虚像判定部11は、レーダ画像に対してCFAR処理を施すことで、電力または振幅が、周囲の画素よりも大きくピークの頂点となる画素を検出し、検出した画素を、結像した虚像が含まれる画素であると判定する。
 虚像判定部11は、レーダ画像上に虚像が含まれる画素があるか否かを判定する(ステップST4a)。虚像判定部11によって虚像が含まれる画素がないと判定された場合(ステップST4a;NO)、図4の処理が終了される。このように虚像を含む画素がない場合に、反復が停止され、処理が終了する。
 一方、虚像が含まれる画素があると判定した場合(ステップST4a;YES)、虚像判定部11は、虚像が含まれる画素の位置情報を虚像抑圧部12に出力する。
 虚像抑圧部12は、虚像が含まれる画素の位置情報に基づいて虚像を抑圧する(ステップST5a)。虚像を抑圧する対象のレーダ画像は、リフォーカス部10によって第1の格納部2から読み出され、折り返し数の推定値M,Nに対応した画像化の範囲に焦点が変更されたレーダ画像である。また、虚像抑圧部12は、虚像が含まれると判定された画素の値を0に置き換えて虚像を抑圧する。なお、虚像抑圧部12は、虚像が含まれると判定された画素の値に1以下の実数を乗じてもよく、虚像が含まれると判定された画素のそれぞれの値を、周囲の画素の値の平均値に置き換えてもよい。虚像抑圧部12によって虚像が抑圧された画像は、リフォーカス部10に出力される。
 リフォーカス部10は、虚像抑圧部12によって虚像が抑圧されたレーダ画像の焦点を本来の画像化の範囲に合った焦点に変更する(ステップST6a)。
 なお、虚像判定部11による判定処理の回数は、虚像抑圧部12による虚像の抑圧処理の反復回数に相当する。
 反復判定部16は、虚像判定部11から判定回数を入力して、入力した判定回数である反復回数が上限値Tに達したか否かを判定する(ステップST7a)。
 反復回数が上限値Tに達した場合(ステップST7a;YES)、図4の処理が終了される。このように処理の反復回数が、別途パラメータとして定める反復回数の上限値に到達した場合に、反復が停止され処理が終了する。このとき、反復判定部16は、反復回数が上限値Tに達したことをリフォーカス部10に通知する。リフォーカス部10は、反復判定部16から上記通知を受けると、虚像抑圧後のレーダ画像の焦点を本来の画像化の範囲に戻して、第2の格納部3に格納する。
 反復回数が上限値Tに達していない場合(ステップST7a;NO)、反復判定部16は、反復回数が上限値Tに達していないことをリフォーカス部10に通知する。
 リフォーカス部10は、反復判定部16から上記通知を受けると、虚像が抑圧されて、本来の画像化の範囲に焦点が合ったレーダ画像を第1の格納部2に格納する。
 これにより、第1の格納部2に格納された上記画像に対して、ステップST1aからの一連の処理が繰り返される。
 なお、反復判定部16が虚像の抑圧処理の反復回数を判定することを説明したが、反復判定部16が、虚像判定部11による判定処理の回数を判定してもよい。また、反復判定部16が、虚像抑圧後のレーダ画像を第1の格納部2または第2の格納部3に格納してもよい。例えば、反復回数が上限値Tに達していない場合、反復判定部16が、リフォーカス部10からレーダ画像を入力し、入力したレーダ画像を第1の格納部2に格納する。また、反復回数が上限値Tに達した場合、反復判定部16が、リフォーカス部10から虚像抑圧後のレーダ画像を入力し、入力したレーダ画像を第2の格納部3に格納する。
 図7は、実施の形態1における虚像判定処理を示すフローチャートであり、図4のステップST3aの処理の詳細を示している。図7の処理が実行される前に、ステップST1aにおいて、推定部15が、折り返し数の候補M,Nごとに対応した画像化の範囲に焦点が合った画像から評価指標を算出して評価指標の分布を作成し、作成した評価指標の分布から折り返し数の推定値M,Nを算出している。また、ステップST2aにおいて、折り返し数の推定値M,Nであるときの評価指標の値が閾値Tを超えたという判定結果が得られている。
 虚像判定部11は、折り返し数の推定値M,Nに対応した画像化の範囲に焦点が合ったレーダ画像において、虚像が含まれる画素を判定する(ステップST1c)。
 例えば、虚像判定部11は、前述した第1から第4の条件の全てを満たすか否かを画素ごとに判定し、4つの条件を満たした画素を、結像した虚像が含まれる画素であると判定する。
 次に、虚像判定部11は、虚像が含まれると判定した画素から、画素の雑音を除去する(ステップST2c)。画素の雑音には、反射波に含まれる雑音、または、画素値の数値計算で生じた誤差に起因する雑音がある。虚像判定部11は、虚像が含まれると判定した画素の分布に基づいて画素の雑音を特定し、特定した画素について虚像が含まれないものと判定を変更する。例えば、虚像判定部11は、虚像が含まれると判定した画素のうち、画像上で1画素だけ孤立して分布しており、虚像が含まれると判定された画素が隣接位置にない場合、この画素を雑音とみなす。孤立した画素を決定する処理には、モルフォロジーの膨張と収縮の操作を利用した処理またはメディアンフィルタを使用した処理があり、虚像判定部11は、孤立した画素が虚像に含まれないように判定を変更する。
 以上のように、実施の形態1に係るレーダ画像処理装置1が、レーダ画像の焦点を変更したレーダ画像上で、虚像が含まれる画素の判定と、虚像が含まれると判定した画素の値の変更とを行う。これによって、レーダ画像処理装置1は、レーダ画像における虚像のみを抑圧することができる。特に、レーダ画像処理装置1は、本来の画像化の範囲に焦点が合ったレーダ画像上で、信号の電力が小さい虚像であっても検出が可能であり、検出した虚像のみを抑圧することができる。虚像の信号のみが処理対象となることから、レーダ画像に真の像(観測対象の物体の像)が含まれる必要がなく、虚像抑圧部12は、真の像がない画像に含まれる虚像を抑圧することができる。
 実施の形態1に係るレーダ画像処理装置1において、リフォーカス部10が、レーダ画像を時間領域からドップラー周波数領域の信号に変換し、ドップラー周波数領域の信号の位相の補正量がドップラー周波数方向に比例する成分を持たないように、レーダ画像の焦点を変更する。これにより、リフォーカス部10は、折り返し数の候補M,Nに対応した画像化の範囲で結像するレーダ画像を得ることができる。
 実施の形態1に係るレーダ画像処理装置1は、レーダ画像における画素の振幅を規格化する規格化部13を備える。規格化部13が画素の振幅を規格化するので、レーダ画像上の画素の振幅分布に影響されずに、焦点を変更したときの虚像の結像度合いを確認することができる。
 実施の形態1に係るレーダ画像処理装置1は、レーダ画像に含まれる画素のそれぞれで一定の距離だけ離れた画素の値を減算し、位相を減算した画素の移動平均を施した画像を生成する移動平均部14を備える。移動平均部14が、画素を移動平均することで、レーダ画像に含まれる雑音を低減でき、信号同士の干渉、スペックルおよび信号処理の数値演算の誤差の影響を低減できる。
 また、推定部15は、移動平均部14によって生成された画像に基づいて、虚像のぼけが緩和される折り返し数を推定する。リフォーカス部10は、推定部15によって推定された折り返し数を用いて焦点を変更する。虚像判定部11は、リフォーカス部10によって焦点が変更されたレーダ画像から虚像が含まれる画素を判定する。推定部15が虚像判定部11による判定の前に折り返し数を推定するので、虚像判定部11は、折り返し数が確定された状態で虚像が含まれる画素を確実に判定することができる。さらに、推定部15は、複数の折り返し数の候補に対応した画像化の範囲に焦点が合った画像に基づいて複数の評価指標を算出し、複数の評価指標から折り返し数の推定値を求める。虚像判定部11は、折り返し数の推定値に対応した画像化の範囲に焦点が合った画像から、虚像が含まれる画素を判定する。これにより、虚像抑圧部12は、虚像となる物体が広範囲に存在して複数の折り返し数の候補が得られる場合であっても、虚像を抑圧することができる。
 実施の形態1に係るレーダ画像処理装置1において、リフォーカス部10が、レーダ画像を複数の焦点に変更する。虚像判定部11が、複数の焦点のそれぞれに変更されたレーダ画像における画素の値の変化に基づいて、虚像が含まれる画素を判定する。
 例えば、リフォーカス部10が、複数の折り返し数の候補M,Nごとに対応した画像化の範囲に焦点が合った画像を生成する。虚像判定部11が、これらの画像における画素の値の変化を評価指標として、虚像を結像させた画像から虚像が含まれる画素を判定する。これにより、虚像判定部11が、虚像が含まれる画素を的確に判定することができる。
 実施の形態1に係るレーダ画像処理装置1において、リフォーカス部10が、レーダ画像を複数の焦点に変更する。虚像判定部11が、複数の焦点のそれぞれに変更されたレーダ画像における画素の値の変化に基づいて虚像のぼけが緩和される焦点に関する情報を特定し、特定した焦点に関する情報に基づいて虚像のぼけが緩和されたレーダ画像から虚像が含まれる画素を判定する。
 例えば、リフォーカス部10が、複数の折り返し数の候補M,Nごとに対応した画像化の範囲に焦点が合った画像を生成する。虚像判定部11が、これらの画像に基づいて決定された折り返し数の推定値M,Nを、虚像のぼけが緩和される焦点に関する情報として特定する。虚像判定部11は、特定した焦点に関する情報に基づいて虚像のぼけが緩和されたレーダ画像から虚像が含まれる画素を判定する。これにより、虚像判定部11は、虚像が含まれる画素を的確に判定することができる。
 実施の形態1に係るレーダ画像処理装置1において、虚像判定部11が、リフォーカス部10によって焦点が変更されたレーダ画像のうち、レーダ画像の自己相関に基づいて虚像が含まれるレーダ画像を判定する。これにより、虚像判定部11は、虚像が含まれる画素を的確に判定することができる。
 実施の形態1に係るレーダ画像処理装置1は、リフォーカス処理、虚像判定処理および虚像抑圧処理の反復の終了を判定する反復判定部16を備える。これにより、虚像抑圧部12は、反復回数の上限値Tに達するまで虚像を抑圧することができる。
 実施の形態1に係るレーダ画像処理装置1において、虚像判定部11が、虚像が含まれると判定した画素の分布に基づいて画素の雑音を特定し、特定した画素については虚像が含まれないものと判定を変更する。これにより、虚像が含まれると判定された画素から、雑音を除去することができる。
実施の形態2.
 実施の形態2に係るレーダ画像処理装置は、処理結果の確認と修正が可能である。
 図8は、この発明の実施の形態2に係るレーダ画像処理装置1Aの構成を示すブロック図である。図8において、図1に記載したものと同一の構成要素には同一の符号を付して説明を省略する。レーダ画像処理装置1Aは、第1の格納部2に格納されたレーダ画像における虚像を抑圧する処理を行い、虚像が抑圧されたレーダ画像を第2の格納部3に格納する。図8に示す例では、レーダ画像処理装置1Aは、リフォーカス部10、虚像判定部11、虚像抑圧部12、規格化部13、移動平均部14、推定部15、反復判定部16、画像表示処理部17、第1の修正部18および第2の修正部19を備える。
 画像表示処理部17は、移動平均部14によって生成された画像を、図示を省略した表示装置に表示させる。レーダ画像処理装置1Aの使用者は、この表示装置に表示された画像を視認することができる。
 第1の修正部18は、虚像判定部11によって特定された焦点に関する情報の修正操作を受け付け、受け付けた修正操作に基づいて虚像のぼけが緩和される焦点に関する情報を修正する。虚像判定部11は、第1の修正部18によって修正された焦点に関する情報に基づいて虚像のぼけが緩和されたレーダ画像から虚像が含まれる画素を判定する。
 第2の修正部19は、虚像が含まれる画素の判定結果に対する修正操作を受け付けて、受け付けた修正操作に基づいて、虚像が含まれる画素の判定結果を修正する。虚像抑圧部12は、第2の修正部19によって修正された判定結果で虚像が含まれると判定された画素の値を変更して虚像を抑圧する。
 次に動作について説明する。
 図9は、実施の形態2に係るレーダ画像処理方法の詳細を示すフローチャートである。図9のステップST1dは、図4のステップST1aと同じ処理であり、図9のステップST3dおよびステップST4dは、図4のステップST2aおよびステップST3aと同じ処理である。図9のステップST6dからステップST9dまでは、図4のステップST4aからステップST7aまでと同じ処理である。これらの処理の説明は省略する。
 ステップST2dにおいて、第1の修正部18は、推定部15から入力した折り返し数の推定値M,Nを修正する。例えば、第1の修正部18は、画像表示処理部17に指示して、折り返し数の推定値M,N、折り返し数の推定値M,Nであるときの評価指標、および折り返し数の推定値M,Nに対応する焦点に合ったレーダ画像を、上記表示装置に表示させる。そして、第1の修正部18は、上記表示装置に表示させた情報について、図示を省略した入力装置を用いた修正操作を受け付けて、受け付けた修正操作に基づいて上記表示装置に表示させた情報を修正する。このように修正された推定値M,Nは、第1の修正部18から虚像判定部11に出力される。
 ステップST5dにおいて、第2の修正部19は、虚像判定部11による虚像が含まれる画素の判定結果を修正する。例えば、第2の修正部19は、画像表示処理部17に指示して、折り返し数の推定値M,Nおよび虚像が含まれると判定された画素の位置情報を上記表示装置に表示させる。そして、第2の修正部19は、上記表示装置に表示させた情報について、図示を省略した入力装置を用いた修正操作を受け付けて、受け付けた修正操作に基づいて上記表示装置に表示させた情報を修正する。このように修正された判定結果は、第2の修正部19から虚像抑圧部12に出力される。虚像抑圧部12は、第2の修正部19によって修正された判定結果で虚像が含まれると判定された画素の値を変更して虚像を抑圧する。
 以上のように、実施の形態2に係るレーダ画像処理装置1Aにおいて、虚像判定部11が、第1の修正部18によって修正された焦点に関する情報に基づいて虚像のぼけが緩和されたレーダ画像から虚像が含まれる画素を判定する。これにより、レーダ画像処理装置1Aが、虚像のぼけが緩和される焦点に関する情報を誤って生成しても、第1の修正部18が、誤った情報を正しく修正することができる。
 実施の形態2に係るレーダ画像処理装置1Aにおいて、虚像抑圧部12が、第2の修正部19によって修正された判定結果で虚像が含まれると判定された画素の値を変更して虚像を抑圧する。これにより、レーダ画像処理装置1Aが、虚像が含まれる画素を誤判定しても、第2の修正部19が、誤った判定結果を正しく修正することができる。
実施の形態3.
 レーダ画像処理装置1における、リフォーカス部10、虚像判定部11、虚像抑圧部12、規格化部13、移動平均部14、推定部15および反復判定部16のそれぞれの機能は、処理回路により実現される。すなわち、レーダ画像処理装置1は、図4に示したステップST1aからステップST7aまでの処理を実行するための処理回路を備える。同様に、レーダ画像処理装置1Aにおける、リフォーカス部10、虚像判定部11、虚像抑圧部12、規格化部13、移動平均部14、推定部15、反復判定部16、画像表示処理部17、第1の修正部18および第2の修正部19のそれぞれの機能は、処理回路により実現される。これらの処理回路は、専用のハードウェアであってもよいが、メモリに記憶されたプログラムを実行するCPU(Central Processing Unit)であってもよい。
 図10Aは、レーダ画像処理装置1またはレーダ画像処理装置1Aの機能を実現するハードウェア構成を示すブロック図である。図10Bは、レーダ画像処理装置1またはレーダ画像処理装置1Aの機能を実現するソフトウェアを実行するハードウェア構成を示すブロック図である。図10Aおよび図10Bに示す記憶装置100は、第1の格納部2および第2の格納部3として機能する。なお、記憶装置100は、レーダ画像処理装置1またはレーダ画像処理装置1Aが備える構成要素であってもよいが、レーダ画像処理装置とは独立した装置が備えてもよい。例えば、記憶装置100は、レーダ画像処理装置1またはレーダ画像処理装置1Aから通信アクセスが可能な通信ネットワーク上の装置であってもよい。
 表示装置101は、画像表示処理部17の制御に従って、画像表示処理部17から入力した画像情報を表示する。入力装置102は、使用者からの操作入力を受け付ける装置であり、タッチパネル、ハードウェアキーおよびマウスなどにより実現される。第1の修正部18は、入力装置102を用いた修正操作に基づいて、虚像のぼけが緩和される焦点に関する情報を修正する。また、第2の修正部19は、入力装置102を用いた修正操作に基づいて、虚像が含まれる画素の判定結果を修正する。
 上記処理回路が図10Aに示す専用のハードウェアの処理回路103である場合、処理回路103は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)またはこれらを組み合わせたものが該当する。
 レーダ画像処理装置1における、リフォーカス部10、虚像判定部11、虚像抑圧部12、規格化部13、移動平均部14、推定部15および反復判定部16のそれぞれの機能を別々の処理回路で実現してもよいし、これらの機能をまとめて1つの処理回路で実現してもよい。レーダ画像処理装置1Aにおける、リフォーカス部10、虚像判定部11、虚像抑圧部12、規格化部13、移動平均部14、推定部15、反復判定部16、画像表示処理部17、第1の修正部18および第2の修正部19のそれぞれの機能を別々の処理回路で実現してもよいし、これらの機能をまとめて1つの処理回路で実現してもよい。
 上記処理回路が図10Bに示すプロセッサ104である場合、レーダ画像処理装置1における、リフォーカス部10、虚像判定部11、虚像抑圧部12、規格化部13、移動平均部14、推定部15および反復判定部16のそれぞれの機能は、ソフトウェア、ファームウェアまたはソフトウェアとファームウェアとの組み合わせによって実現される。
 また、レーダ画像処理装置1Aにおける、リフォーカス部10、虚像判定部11、虚像抑圧部12、規格化部13、移動平均部14、推定部15、反復判定部16、画像表示処理部17、第1の修正部18および第2の修正部19のそれぞれの機能についても、ソフトウェア、ファームウェアまたはソフトウェアとファームウェアとの組み合わせによって実現される。なお、ソフトウェアまたはファームウェアは、プログラムとして記述されてメモリ105に記憶される。
 プロセッサ104は、メモリ105に記憶されたプログラムを読み出して実行することにより、レーダ画像処理装置1における、リフォーカス部10、虚像判定部11、虚像抑圧部12、規格化部13、移動平均部14、推定部15および反復判定部16のそれぞれの機能を実現する。すなわち、レーダ画像処理装置1は、プロセッサ104によって実行されるときに、図4に示したステップST1aからステップST7aまでの処理が結果的に実行されるプログラムを記憶するためのメモリ105を備える。
 これらのプログラムは、リフォーカス部10、虚像判定部11、虚像抑圧部12、規格化部13、移動平均部14、推定部15および反復判定部16の手順または方法をコンピュータに実行させる。メモリ105は、コンピュータを、リフォーカス部10、虚像判定部11、虚像抑圧部12、規格化部13、移動平均部14、推定部15および反復判定部16として機能させるためのプログラムが記憶されたコンピュータ可読記憶媒体であってもよい。これは、レーダ画像処理装置1Aにおいても同様である。
 メモリ105には、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically-EPROM)などの不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVDなどが該当する。
 リフォーカス部10、虚像判定部11、虚像抑圧部12、規格化部13、移動平均部14、推定部15および反復判定部16のそれぞれの機能について一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現してもよい。
 例えば、リフォーカス部10、虚像判定部11および虚像抑圧部12は、専用のハードウェアとしての処理回路で機能を実現する。規格化部13、移動平均部14、推定部15および反復判定部16については、プロセッサ104がメモリ105に記憶されたプログラムを読み出して実行することにより機能を実現してもよい。
 これは、レーダ画像処理装置1Aにおける、リフォーカス部10、虚像判定部11、虚像抑圧部12、規格化部13、移動平均部14、推定部15、反復判定部16、画像表示処理部17、第1の修正部18および第2の修正部19においても同様である。
 このように、処理回路は、ハードウェア、ソフトウェア、ファームウェアまたはこれらの組み合わせにより上記機能のそれぞれを実現することができる。
 なお、本発明は上記実施の形態に限定されるものではなく、本発明の範囲内において、実施の形態のそれぞれの自由な組み合わせまたは実施の形態のそれぞれの任意の構成要素の変形もしくは実施の形態のそれぞれにおいて任意の構成要素の省略が可能である。
 この発明に係るレーダ画像処理装置は、レーダ画像における虚像のみを抑圧することができるので、SARに利用可能である。
 1,1A レーダ画像処理装置、2 第1の格納部、3 第2の格納部、10 リフォーカス部、11 虚像判定部、12 虚像抑圧部、13 規格化部、14 移動平均部、15 推定部、16 反復判定部、17 画像表示処理部、18 第1の修正部、19 第2の修正部、20A,20B レーダ画像、30a,30b 像、40 虚像、100 記憶装置、101 表示装置、102 入力装置、103 処理回路、104 プロセッサ、105 メモリ。

Claims (12)

  1.  レーダ画像を入力して、レーダ画像の焦点を変更するリフォーカス部と、
     前記リフォーカス部によって焦点が変更されたレーダ画像から、虚像が含まれる画素を判定する虚像判定部と、
     前記リフォーカス部によって焦点が変更されたレーダ画像上で前記虚像判定部によって虚像が含まれると判定された画素の値を変更する虚像抑圧部とを備えたこと
     を特徴とするレーダ画像処理装置。
  2.  前記リフォーカス部は、レーダ画像を時間領域からドップラー周波数領域の信号に変換し、ドップラー周波数領域の信号の位相の補正量がドップラー周波数方向に比例する成分を持たないように、レーダ画像の焦点を変更すること
     を特徴とする請求項1記載のレーダ画像処理装置。
  3.  レーダ画像における画素の振幅を規格化する規格化部を備えたこと
     を特徴とする請求項1記載のレーダ画像処理装置。
  4.  レーダ画像に含まれる画素のそれぞれで一定の距離だけ離れた画素の位相を減算して、位相を減算した画素の移動平均を施した画像を生成する移動平均部を備えたこと
     を特徴とする請求項1記載のレーダ画像処理装置。
  5.  前記リフォーカス部は、レーダ画像を複数の焦点に変更し、
     前記虚像判定部は、複数の焦点のそれぞれに変更されたレーダ画像における画素の値の変化に基づいて、虚像が含まれる画素を判定すること
     を特徴とする請求項1記載のレーダ画像処理装置。
  6.  前記リフォーカス部は、複数の焦点のレーダ画像に変更し、
     前記虚像判定部は、複数の焦点のそれぞれに変更されたレーダ画像における画素の値の変化に基づいて虚像のぼけが緩和される焦点に関する情報を特定し、特定した焦点に関する情報に基づいて虚像が含まれる画素を判定すること
     を特徴とする請求項1記載のレーダ画像処理装置。
  7.  前記虚像判定部は、前記リフォーカス部によって焦点が変更されたレーダ画像のうち、レーダ画像の自己相関に基づいて虚像が含まれるレーダ画像を判定すること
     を特徴とする請求項1記載のレーダ画像処理装置。
  8.  リフォーカス処理、虚像判定処理および虚像抑圧処理の反復の終了を判定する反復判定部を備えたこと
     を特徴とする請求項1記載のレーダ画像処理装置。
  9.  前記虚像判定部によって特定された焦点に関する情報の修正操作を受け付け、受け付けた修正操作に基づいて虚像のぼけが緩和される焦点に関する情報を修正する第1の修正部を備え、
     前記虚像判定部は、前記第1の修正部によって修正された焦点に関する情報に基づいて虚像のぼけが緩和されたレーダ画像から虚像が含まれる画素を判定すること
     を特徴とする請求項6記載のレーダ画像処理装置。
  10.  前記虚像判定部による虚像が含まれる画素の判定結果の修正操作を受け付け、受け付けた修正操作に基づいて、虚像が含まれる画素の判定結果を修正する第2の修正部を備え、
     前記虚像抑圧部は、前記第2の修正部によって修正された判定結果で虚像が含まれると判定された画素の値を変更して虚像を抑圧すること
     を特徴とする請求項1記載のレーダ画像処理装置。
  11.  前記虚像判定部は、虚像が含まれると判定した画素の分布に基づいて画素の雑音を特定し、特定した画素については虚像が含まれるものと判定を変更すること
     を特徴とする請求項1記載のレーダ画像処理装置。
  12.  リフォーカス部が、レーダ画像を入力して、レーダ画像の焦点を変更するステップと、
     虚像判定部が、前記リフォーカス部によって焦点が変更されたレーダ画像から、虚像を含む画素を判定するステップと、
     虚像抑圧部が、前記リフォーカス部によって焦点が変更されたレーダ画像上で前記虚像判定部によって虚像が含まれると判定された画素の値を変更するステップとを備えたこと
     を特徴とするレーダ画像処理方法。
PCT/JP2018/010002 2018-03-14 2018-03-14 レーダ画像処理装置およびレーダ画像処理方法 WO2019176016A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
PCT/JP2018/010002 WO2019176016A1 (ja) 2018-03-14 2018-03-14 レーダ画像処理装置およびレーダ画像処理方法
CA3092123A CA3092123C (en) 2018-03-14 2018-03-14 Radar image processing device and radar image processing method
EP18909775.1A EP3751309B1 (en) 2018-03-14 2018-03-14 Radar image processing device and radar image processing method
JP2018535188A JP6448870B1 (ja) 2018-03-14 2018-03-14 レーダ画像処理装置およびレーダ画像処理方法
US17/015,391 US11531098B2 (en) 2018-03-14 2020-09-09 Radar image processing device and radar image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/010002 WO2019176016A1 (ja) 2018-03-14 2018-03-14 レーダ画像処理装置およびレーダ画像処理方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/015,391 Continuation US11531098B2 (en) 2018-03-14 2020-09-09 Radar image processing device and radar image processing method

Publications (1)

Publication Number Publication Date
WO2019176016A1 true WO2019176016A1 (ja) 2019-09-19

Family

ID=64960236

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/010002 WO2019176016A1 (ja) 2018-03-14 2018-03-14 レーダ画像処理装置およびレーダ画像処理方法

Country Status (5)

Country Link
US (1) US11531098B2 (ja)
EP (1) EP3751309B1 (ja)
JP (1) JP6448870B1 (ja)
CA (1) CA3092123C (ja)
WO (1) WO2019176016A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021234906A1 (ja) * 2020-05-21 2021-11-25
JP2022051396A (ja) * 2020-09-18 2022-03-31 株式会社東芝 逆合成開口レーダ装置および信号処理方法
WO2023089713A1 (ja) * 2021-11-18 2023-05-25 三菱電機株式会社 レーダ信号処理装置、レーダ信号処理方法及び目標観測システム
WO2024111103A1 (ja) * 2022-11-25 2024-05-30 三菱電機株式会社 レーダ画像処理装置、レーダ画像処理方法、およびレーダ画像処理プログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3775975A1 (en) * 2018-04-06 2021-02-17 Teknologian Tutkimuskeskus VTT Oy Monitoring living facilities by multichannel radar
WO2022191795A1 (en) * 2021-03-11 2022-09-15 Qubi̇tri̇um Teknoloji̇ Ltd. Şti̇. Ghost imaging-based quantum radar and lidar
GB2624030A (en) * 2022-11-04 2024-05-08 Iceye Oy Ambiguity detection and suppression in SAR images
CN115542323B (zh) * 2022-12-01 2023-03-03 中国人民解放军国防科技大学 Sar运动目标图像快速重聚焦方法、装置和计算机设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10268041A (ja) * 1997-03-27 1998-10-09 Mitsubishi Electric Corp 補償回路、補償方法およびレーダ装置
JP2005326187A (ja) * 2004-05-12 2005-11-24 Mitsubishi Electric Corp レーダ画像処理装置
JP2008261720A (ja) 2007-04-12 2008-10-30 Mitsubishi Electric Corp アンビギュイティ処理装置
US20110298654A1 (en) * 2008-11-11 2011-12-08 Saab Ab Sar radar system
JP2014095585A (ja) * 2012-11-08 2014-05-22 Mitsubishi Electric Corp 画像レーダ処理装置及び画像レーダ処理方法
JP2017104476A (ja) * 2015-03-09 2017-06-15 炭 親良 ビームフォーミング方法、計測イメージング装置、及び、通信装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9131128B2 (en) 2011-09-28 2015-09-08 The United States Of America As Represented By The Secretary Of The Army System and processor implemented method for improved image quality and generating an image of a target illuminated by quantum particles
JP2011145069A (ja) * 2010-01-12 2011-07-28 Furuno Electric Co Ltd 偽像低減装置、レーダ装置、偽像低減方法、および偽像低減プログラム
US9378542B2 (en) * 2011-09-28 2016-06-28 The United States Of America As Represented By The Secretary Of The Army System and processor implemented method for improved image quality and generating an image of a target illuminated by quantum particles
FR2992068B1 (fr) * 2012-06-13 2014-06-20 Thales Sa Procede de filtrage des echos ambigus d images sar
US10624612B2 (en) 2014-06-05 2020-04-21 Chikayoshi Sumi Beamforming method, measurement and imaging instruments, and communication instruments
US11125866B2 (en) 2015-06-04 2021-09-21 Chikayoshi Sumi Measurement and imaging instruments and beamforming method
EP3732505A4 (en) * 2017-12-28 2020-12-16 NEC Corporation IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND NON-TRANSITORIC, COMPUTER-READABLE MEDIUM FOR STORING AN IMAGE PROCESSING PROGRAM

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10268041A (ja) * 1997-03-27 1998-10-09 Mitsubishi Electric Corp 補償回路、補償方法およびレーダ装置
JP2005326187A (ja) * 2004-05-12 2005-11-24 Mitsubishi Electric Corp レーダ画像処理装置
JP2008261720A (ja) 2007-04-12 2008-10-30 Mitsubishi Electric Corp アンビギュイティ処理装置
US20110298654A1 (en) * 2008-11-11 2011-12-08 Saab Ab Sar radar system
JP2014095585A (ja) * 2012-11-08 2014-05-22 Mitsubishi Electric Corp 画像レーダ処理装置及び画像レーダ処理方法
JP2017104476A (ja) * 2015-03-09 2017-06-15 炭 親良 ビームフォーミング方法、計測イメージング装置、及び、通信装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3751309A4

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021234906A1 (ja) * 2020-05-21 2021-11-25
WO2021234906A1 (ja) * 2020-05-21 2021-11-25 三菱電機株式会社 レーダ画像処理装置、レーダ画像処理方法及びレーダ画像処理プログラム
JP7143550B2 (ja) 2020-05-21 2022-09-28 三菱電機株式会社 レーダ画像処理装置、レーダ画像処理方法及びレーダ画像処理プログラム
JP2022051396A (ja) * 2020-09-18 2022-03-31 株式会社東芝 逆合成開口レーダ装置および信号処理方法
JP7155211B2 (ja) 2020-09-18 2022-10-18 株式会社東芝 逆合成開口レーダ装置および信号処理方法
WO2023089713A1 (ja) * 2021-11-18 2023-05-25 三菱電機株式会社 レーダ信号処理装置、レーダ信号処理方法及び目標観測システム
JP7399368B2 (ja) 2021-11-18 2023-12-15 三菱電機株式会社 レーダ信号処理装置、レーダ信号処理方法及び目標観測システム
WO2024111103A1 (ja) * 2022-11-25 2024-05-30 三菱電機株式会社 レーダ画像処理装置、レーダ画像処理方法、およびレーダ画像処理プログラム

Also Published As

Publication number Publication date
US11531098B2 (en) 2022-12-20
JPWO2019176016A1 (ja) 2020-04-16
EP3751309B1 (en) 2024-06-12
CA3092123A1 (en) 2019-09-19
JP6448870B1 (ja) 2019-01-09
CA3092123C (en) 2021-12-07
EP3751309A1 (en) 2020-12-16
US20200400813A1 (en) 2020-12-24
EP3751309A4 (en) 2021-03-03

Similar Documents

Publication Publication Date Title
JP6448870B1 (ja) レーダ画像処理装置およびレーダ画像処理方法
Zhang et al. Translational motion compensation for ISAR imaging under low SNR by minimum entropy
CN108051809B (zh) 基于Radon变换的运动目标成像方法、装置及电子设备
US7551119B1 (en) Flight path-driven mitigation of wavefront curvature effects in SAR images
EP1990653B1 (en) Signal processing method
JP6415288B2 (ja) レーダ装置
JP6249110B1 (ja) 合成開口レーダ装置
CN110806577B (zh) 合成孔径雷达的聚焦成像方法及装置、设备、存储介质
US10495750B1 (en) Spectral replacement to mitigate interference for multi-pass synthetic aperture radar
JP2012132687A (ja) 物標探知方法、物標探知プログラム、物標探知装置、およびレーダ装置
WO2018037533A1 (ja) レーダ装置
US20060066475A1 (en) Method for reducing angular blur in radar pictures
Garren SAR focus theory of complicated range migration signatures due to moving targets
CN109725313B (zh) 一种sar海浪成像方法、系统、电子设备和介质
JP6529689B2 (ja) 観測装置および観測方法
Abe et al. Accurate and omnidirectional UWB radar imaging algorithm with RPM method extended to curvilinear scanning model
Farhadi et al. Phase error estimation for automotive SAR
CN111007512B (zh) 车载雷达成像方法及装置、电子设备
Liu et al. MTRC compensation in high-resolution ISAR imaging via improved polar format algorithm based on ICPF
Xuejiao et al. An improved azimuth ambiguity suppression method for SAR based on ambiguity area imaging and detection
US11067686B2 (en) Obstacle position and extent measurement by automotive radar
KR102169874B1 (ko) 방위각 고분해능 신호처리 알고리즘을 이용하는 차량용 레이더 및 그 운영 방법
CN111880154A (zh) 基于对称波数谱对消的复图像域运动目标检测方法
JP2020085591A (ja) レーダ信号処理装置及びレーダ信号処理プログラム
Borden Regularization of noisy ISAR images containing extended features

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018535188

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18909775

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 3092123

Country of ref document: CA

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018909775

Country of ref document: EP

Effective date: 20200909