WO2018235271A1 - 合成開口レーダ信号処理装置、方法およびプログラム - Google Patents

合成開口レーダ信号処理装置、方法およびプログラム Download PDF

Info

Publication number
WO2018235271A1
WO2018235271A1 PCT/JP2017/023238 JP2017023238W WO2018235271A1 WO 2018235271 A1 WO2018235271 A1 WO 2018235271A1 JP 2017023238 W JP2017023238 W JP 2017023238W WO 2018235271 A1 WO2018235271 A1 WO 2018235271A1
Authority
WO
WIPO (PCT)
Prior art keywords
phase
range
unit
evaluation
calculation
Prior art date
Application number
PCT/JP2017/023238
Other languages
English (en)
French (fr)
Inventor
大典 生藤
宝珠山 治
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US16/625,154 priority Critical patent/US11662459B2/en
Priority to JP2019524833A priority patent/JP7056655B2/ja
Priority to PCT/JP2017/023238 priority patent/WO2018235271A1/ja
Publication of WO2018235271A1 publication Critical patent/WO2018235271A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9004SAR image acquisition techniques
    • G01S13/9019Auto-focussing of the SAR signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9021SAR image post-processing techniques
    • G01S13/9023SAR image post-processing techniques combined with interferometric techniques

Definitions

  • the present invention relates to a synthetic aperture radar signal processing apparatus capable of appropriately determining a range used for phase error estimation of autofocus.
  • FIG. 26 is a block diagram showing the configuration of the synthetic aperture radar device described in Patent Document 1.
  • the synthetic aperture radar device shown in FIG. 26 includes a signal transmission / reception unit 101, an image reproduction processing unit 102, a range bin selection unit 103, an image shift unit 104, a window function multiplication unit 105, a phase gradient estimation and compensation unit 106, and a repetition determination unit 107. Is equipped.
  • the signal transmission / reception unit 101 supplies a high frequency pulse signal to an antenna (not shown), and receives a reflected wave from the observation target range via the antenna.
  • the image reproduction processing unit 102 reproduces the received signal as a two-dimensional image corresponding to two axes in the range direction and the azimuth direction.
  • the range bin selection unit 103 selects a range bin including a reflection point isolated in the reproduced image and a side lobe that is a reflection component thereof.
  • the image shift unit 104 shifts each range image in the azimuth direction.
  • the window function multiplying unit 105 extracts the range to be used for phase error estimation from the amplitude information of the reproduced image.
  • the phase gradient estimation and compensation unit 106 corrects the reproduced two-dimensional image.
  • the repeat determination unit 107 determines whether to execute the compensation process again based on the phase error amount remaining in the compensated two-dimensional image.
  • FIG. 27 is a flow chart showing the operation of the synthetic aperture radar system shown in FIG.
  • the signal transmission / reception unit 101 radiates an electromagnetic wave via an antenna and receives a reflected wave (step S101).
  • the signal transmission / reception unit 101 outputs the digital signal to the image reproduction processing unit 102.
  • the image reproduction processing unit 102 performs synthetic aperture processing on the input digital signal to reproduce a two-dimensional image (step S102).
  • the image reproduction processing unit 102 outputs the two-dimensional image to the range bin selection unit 103.
  • the range bin selection unit 103 selects a range bin in a range in which the reflection signal from the isolated point is included in the reproduced two-dimensional image (step S103).
  • the range bin selection unit 103 outputs the image of the selected range bin to the image shift unit 104.
  • the image shift unit 104 shifts each range image in the azimuth direction such that the pixel having the maximum amplitude is located at the center in each selected range bin (step S104).
  • the image shift unit 104 outputs the shifted image to the window function multiplication unit 105.
  • the window function multiplication unit 105 adds the shifted images in the range direction, and designs a rectangular window in the azimuth direction in which a range from the central amplitude to a predetermined amplitude value is a passband. Then, the window function multiplication unit 105 multiplies each of the shifted range bins by the designed rectangular window (step S105).
  • the phase gradient estimation and compensation unit 106 estimates and compensates the phase error of the reproduced image by the phase gradient method for the range bin after the window function multiplication (step S106).
  • the phase gradient method is one of the autofocus techniques for estimating and correcting the phase error in the reproduced image, but a specific process is described in, for example, Patent Document 1.
  • the repetition determination unit 107 determines whether the phase error amount of the compensated image is equal to or greater than a threshold, and shifts the compensated image by shifting the compensated image if the phase error amount is equal to or greater than the threshold. It supplies to the part 104 (step S107).
  • the synthetic aperture radar device repeats the process after the process of step S104.
  • the repetition determination unit 107 outputs a compensated image when the phase error amount is less than the threshold.
  • Patent Document 1 The technique described in Patent Document 1 focuses on the point that the phase error estimation accuracy decreases when the amplitude of background noise is high. Then, the technique estimates the amplitude ratio of the reflected signal of the isolated point and the background noise, adds a weight that increases the amount of compensation as the point where the reflected signal from the isolated point is dominant, and reduces the influence of the background noise. Make it possible.
  • the synthetic aperture radar system described in Patent Document 1 compensates for an image by weighting so as to increase the contribution of the point at which the reflected signal from the isolated point is dominant at the time of phase error compensation.
  • the contribution of the reflection signals from unintended points also becomes large, so there is a problem that the correction accuracy of the image is lowered.
  • FIG. 28 is an explanatory view for explaining the problem of the synthetic aperture radar device described in Patent Document 1.
  • z1 indicates an observation image when an area in which a plurality of reflection points are mixed is observed.
  • z2 indicates the range in which the reflection signal from a specific point is observed.
  • the component of the reflected signal from each point appears in the cross-shaped area as in z2.
  • the component extending in the range direction and the azimuth direction like a cross in each reflected signal is called a side lobe and is a part of the component of the reflected signal.
  • the broken-lined boxes represented by z3, z4, and z5 indicate the determination range when it is determined only by the amplitude information.
  • each dashed frame corresponds to the width of the rectangular window described above.
  • the range z3 in the range z3, components of other reflected signals are mixed, so that the estimation accuracy of the phase error in the autofocusing is lowered.
  • the ranges z4 and z5 show an example in which signals from a plurality of adjacent reflection points are erroneously detected as signals from one reflection point. When the ranges z4 and z5 are used, the estimation accuracy of the phase error in the autofocusing decreases.
  • the synthetic aperture radar signal processing device includes a range bin selection unit that selects a range bin including a signal of an isolated reflection point from an observation image, a phase evaluation unit that evaluates the phase in the azimuth direction of the range bin, and an evaluation of the phase evaluation unit.
  • a window function is designed based on the result, and a window function multiplication unit that multiplies the range bin by the window function, and a phase error correction unit that estimates the phase error from the range bin multiplied by the window function and corrects the observation image It is characterized by
  • the synthetic aperture radar signal processing method selects a range bin including the signal of the isolated reflection point from the observation image, evaluates the phase of the range bin in the azimuth direction, and designs a window function based on the evaluation result. Are multiplied by the window function, and the phase error is estimated from the range bin multiplied by the window function to correct the observed image.
  • the synthetic aperture radar signal processing program uses a computer to perform range bin selection processing for selecting range bins including signals of isolated reflection points from observed images, phase evaluation processing for evaluating phase in azimuth direction of range bins, and phase evaluation.
  • a window function is designed based on the evaluation result of the process, a window function multiplication process in which the range bin is multiplied by the window function, and a phase error correction process in which the phase error is estimated from the range bin multiplied by the window function And to execute.
  • the estimation accuracy of the phase error in autofocusing is improved.
  • the estimation accuracy of the phase error is improved even when the reflected signal intensity from the isolated point is weak or when a plurality of reflection points are close.
  • FIG. 1 is a block diagram showing a first embodiment of a synthetic aperture radar signal processing apparatus. It is a flowchart which shows operation
  • FIG. 1 It is a flowchart which shows operation
  • FIG. 1 is a block diagram showing a first embodiment of a synthetic aperture radar signal processing apparatus.
  • the synthetic aperture radar signal processing apparatus shown in FIG. 1 includes a range bin selection unit 1, a phase evaluation unit 2, a window function multiplication unit 3 and a phase error correction unit 4.
  • the range bin selection unit 1, the phase evaluation unit 2, the window function multiplication unit 3, and the phase error correction unit 4 are connected so as to be able to input and output signals.
  • the range bin selection unit 1 inputs the observation image having a synthetic aperture, and selects a range bin in which the reflection signal from the isolated point is included in the observation image. For example, range bin selection unit 1 starts a search in the range direction from a point at which the amplitude value is the highest in the observation image, and selects a range bin including points having amplitude values below a predetermined threshold. If position information of an isolated point is known in the observation image, range bin selection unit 1 inputs position information of the isolated point together with the observation image, selects a range bin including a reflection signal of the isolated point from the position information It is also good.
  • the observation image input to the range bin selection unit 1 has, as an example, a range direction and an azimuth direction generated based on a signal (reflected signal) by a reflected wave from an observation target range of an electromagnetic wave radiated via an antenna. It is a two-dimensional image corresponding to two axes of.
  • the phase evaluation unit 2 evaluates phase information in the azimuth direction in the selected range bin, and determines a range in the azimuth direction in which the phase can be regarded as a linear phase. Then, the phase evaluation unit 2 outputs the determined range to the window function multiplication unit 3.
  • the window function multiplication unit 3 takes out the range in which the signal of the isolated reflection point is present from each range bin selected by the range bin selection unit 1, and outputs the range to the phase error correction unit 4.
  • the window function multiplication unit 3 designs a rectangular window in the azimuth direction with the determination range input from the phase evaluation unit 2 as the pass band. Then, the window function multiplication unit 3 multiplies each of the range bins selected by the range bin selection unit 1 by the designed rectangular window, and outputs each range bin after multiplication to the phase error correction unit 4.
  • the phase error correction unit 4 estimates the phase error using the phase gradient method or the map drift method for the input range bin, and adds or subtracts the estimated phase error to the phase of the observation image to obtain the observed image. to correct.
  • the range bin selection unit 1 selects a plurality of range bins including a reflection signal having a high amplitude value from the inputted synthetic aperture observation image (step S1). Alternatively, range bin selection unit 1 selects a plurality of range bins from coordinates at which isolated reflection points are given in advance. The range bin selection unit 1 outputs the selected range bin to the phase evaluation unit 2.
  • the phase evaluation unit 2 evaluates the phase in the azimuth direction with respect to the selected range bin, and obtains a range in which the phase can be regarded as a linear phase (step S2).
  • the phase evaluation unit 2 outputs the obtained range to the window function multiplication unit 3.
  • the window function multiplication unit 3 designs a rectangular window having a range in the azimuth direction in which the phase can be regarded as a linear phase in the determined range. Then, the window function multiplication unit 3 multiplies each of the range bins selected by the range bin selection unit 1 by a rectangular window (step S3). The window function multiplication unit 3 outputs each range bin after multiplication by the rectangular window to the phase error correction unit 4.
  • the phase error correction unit 4 corrects the observation image by estimating the phase error included in each of the input range bins by the phase gradient method or the map drift method, and adding or subtracting the estimated phase error to the phase of the observation image. (Step S4).
  • the synthetic aperture radar signal processing apparatus is configured to obtain a range for estimating a phase error in autofocus from phase information. According to such a configuration, even when background noise and a signal from another reflection point are mixed, a range in which phase information required for autofocusing can be acquired is determined robustly.
  • FIG. 3 is an explanatory diagram for explaining the effect of the first embodiment in the case where there is much background noise.
  • observation images in which background noise is superimposed on reflected signals from two reflection points are shown.
  • y1 shows the observation image in the condition where the amount of background noise is small.
  • y2 indicates the range in which the reflected signal from one reflection point appears.
  • y3 indicates one range bin of multiple range bins selected from the observation image y1.
  • y4 shows the observation image in the condition where the amount of background noise is large.
  • y5 indicates one range bin of multiple range bins selected from the observation image y4.
  • the range in which the reflection signal from the isolated point is present is determined separately from the other reflection signals.
  • the range in which a plurality of points are mixed is determined. Note that the range in which other reflected signals are mixed can be excluded by setting the threshold value y7 in accordance with the background noise amount. However, since the range in which the side lobe component of the reflection signal from the isolated point is present is also excluded, the accuracy of autofocusing is reduced.
  • the result when the reflection signal from the isolated point is dominant is determined using the “phase information” of the signal sequence in the azimuth direction in range bins y3 and y5. It is shown. That is, the range determined by the synthetic aperture radar signal processing device of the first embodiment is shown. y11 and y13 indicate phases in range bins y3 and y5, respectively. y12 and y14 indicate a range in which the phases y11 and y13 can be regarded as linear phases. The phase approximates a straight line in the range in which the reflected signal from the isolated point is dominant, that is, the range in which the phase information necessary for autofocus is present. Also, the phase is random within the range where the amount of background noise is dominant.
  • the range in which the phase is linear is determined as the range in which the reflected signal from the isolated point is dominant. Further, in the range y12, the determined range extends to the left and right. The reason is that the determination range is set to a range where there is a side lobe component that can be used for the autofocus that was buried in the “amplitude information”.
  • phase information it is possible to robustly determine the dominant range of the signal from one isolated point even when background noise is included.
  • background noise has a feature that is uniformly distributed in the observation image, it is understood that the phase can be used to determine a wide range including the side lobe component.
  • FIG. 4 is an explanatory view for explaining the effect of the first embodiment when the reflection points are close to each other.
  • observation images in which reflection signals from two reflection points are close to each other and their side lobes overlap are shown.
  • x1 shows the observation image in the conditions with few overlapping ranges.
  • x2 indicates the range in which the reflected signal from one reflection point appears.
  • x3 indicates one range bin of multiple range bins selected from the observation image x1.
  • x4 shows the observation image in the conditions with many overlapping ranges.
  • x5 indicates one range bin of multiple range bins selected from the observation image x4.
  • the phase approximates a straight line in the range in which the reflected signal from the isolated point is dominant, that is, the range in which the phase information necessary for autofocus is present.
  • the phase becomes random in the range where the reflected signal is superimposed from different points. Therefore, in the first embodiment, as shown in (e) and (f) in FIG. 4, the range in which the phase is linear is determined as the range in which the reflection signal from the isolated point is dominant. Further, the range in which the phase is linear is determined excluding the range in which the reflected signals from other points are superimposed. In the range x12, the determined range extends to the left. The reason is that the range is determined including the range where there is a side lobe component that can be used for autofocus that was buried in “amplitude information”, as in the result shown in (e) in FIG. is there.
  • FIG. 5 is a block diagram showing a configuration example of the second embodiment. Although the phase evaluation unit 2 is shown in FIG. 5, the overall configuration of the synthetic aperture radar signal processing apparatus is the same as that of the first embodiment shown in FIG.
  • the phase evaluation unit 2 shown in FIG. 5 includes an evaluation range bin selection unit 21, a phase calculation range determination unit 22, a phase calculation unit 23 and a straight line determination unit 24.
  • the evaluation range bin selection unit 21, the phase calculation range determination unit 22, the phase calculation unit 23, and the straight line determination unit 24 are connected so as to be able to input and output signals.
  • the evaluation range bin selection unit 21 outputs the range bin selected by the range bin selection unit 1 shown in FIG. 1 to the evaluation range bin selection unit 21.
  • the evaluation range bin selection unit 21 selects a range bin that strongly includes the reflection signal from the isolated point in the range bin selected by the range bin selection unit 1. Then, the evaluation range bin selection unit 21 outputs the selected range bin as the evaluation range bin (range bin to be evaluated) to the phase calculation range determination unit 22. For example, the evaluation range bin selection unit 21 sets a range bin having a point with the highest amplitude value as an evaluation range bin.
  • the phase calculation range determination unit 22 determines a range for calculating the phase in the azimuth direction of the evaluation range bin. In addition, the phase calculation range determination unit 22 sets a range obtained by expanding ⁇ 1 pixel in the azimuth direction from the point with the highest amplitude value in the evaluation range bin as the initial calculation range. Each time the phase calculation range determination unit 22 obtains feedback from the straight line determination unit 24, the phase calculation range determination unit 22 further outputs a range obtained by expanding ⁇ 1 pixel in the azimuth direction to the phase calculation unit 23. Note that ⁇ 1 pixel of the enlargement range is an example, and for example, ⁇ 2 or more pixels may be enlarged. In addition, the phase calculation range determination unit 22 may set the maximum possible range as the initial calculation range, and may reduce the phase calculation range each time there is feedback from the straight line determination unit 24.
  • the phase calculation unit 23 calculates the phase of the evaluation range bin in the determined phase calculation range. Then, the phase calculation unit 23 performs phase unwrapping processing on the calculated phase, and then outputs the phase to the straight line determination unit 24.
  • the phase calculation unit 23 assumes that the phases of adjacent points are continuous in the phase unwrapping process. Then, when the absolute change amount of the adjacent phase exceeds ⁇ radian, the phase calculation unit 23 adds 2 ⁇ radian in the plus or minus direction.
  • the phase calculation unit 23 obtains the phase spectrum of each point so that the absolute change amount falls within ⁇ radian or less.
  • the phase calculating unit 23 may realize the phase unwrapping process by a method other than such a method.
  • the straight line determination unit 24 determines whether the input phase is a linear phase. When the straight line determination unit 24 determines that the calculated phase is a linear phase, the phase calculation range determination unit 22 executes the process again. In addition, when determining that the calculated phase is not a linear phase, the straight line determination unit 24 outputs a phase calculation range in which the phase is a linear phase to the window function multiplication unit 3 illustrated in FIG. As an example, the straight line determination unit 24 outputs the maximum phase calculation range in which the phase can be regarded as a linear phase to the window function multiplication unit 3.
  • phase calculation range determination unit 22 determines a range in which the phase is a linear phase while reducing from the maximum possible range, the branch condition of the straight line determination unit 24 is reversed, but the phase is a linear phase.
  • the calculation range when it can be considered is output to the window function multiplication unit 3.
  • phase evaluation unit 2 Next, the operation of the phase evaluation unit 2 will be described with reference to the flowchart of FIG.
  • the evaluation range bin selection unit 21 selects a range bin including a pixel in which the reflection signal from the isolated point is strong among the range bins selected in the process of step S1 (see FIG. 2) (step S21).
  • the evaluation range bin selection unit 21 selects, for example, a range bin having a pixel with the highest amplitude value in the selected range bin as an evaluation range bin.
  • the evaluation range bin selection unit 21 outputs the selected range bin as an evaluation range bin to the phase calculation range determination unit 22.
  • the phase calculation range determination unit 22 expands the range for calculating the phase centering on the pixel having the maximum amplitude value in the input evaluation range bin, and sets the expanded range as the phase calculation range (step S22).
  • the phase calculation range determination unit 22 outputs the expanded range to the phase calculation unit 23.
  • the phase calculation range determination unit 22 sets a range of ⁇ 1 pixel from the pixel having the maximum amplitude value as an initial calculation range, and extends the range each time feedback from the straight line determination unit 24 is obtained.
  • the phase calculation unit 23 calculates the phase of the evaluation range bin selected in the process of step S21 with respect to the range determined in the process of step S22. Furthermore, the phase calculation unit 23 performs a phase unwrapping process on the calculated phase, and outputs the unwrapped phase to the straight line determination unit 24 (step S23).
  • the straight line determination unit 24 determines whether the phase calculated in the process of step S23 is a straight phase (step S24). If the straight line determination unit 24 determines that the calculated phase is a straight phase, the process returns to step S22. When it is determined that the calculated phase is not a linear phase, the straight line determination unit 24 outputs a phase calculation range in which the phase can be regarded as a straight line in the past determination processing.
  • the window function multiplication unit 3 and the phase error correction unit 4 execute the processes of steps S3 and S4 shown in FIG.
  • the second embodiment by obtaining a range in which the phase of the reflected signal can be regarded as a linear phase, the range in which the influence of background noise or the like is removed is determined while retaining the phase information of the reflected signal from the isolated point.
  • FIG. 7 is an explanatory view for explaining the effect of the second embodiment.
  • z1 shows the observation image at the time of the area
  • the range in which the phase can be regarded as a linear phase is calculated for the signal of the evaluation range bin, so that the range in which the information of the reflected signal from the isolated point can be widely taken.
  • the synthetic aperture radar signal processing apparatus can realize robust autofocus with respect to background noise and other reflection point signals, and can obtain a high quality corrected image.
  • FIG. 8 is a block diagram showing a configuration example of the third embodiment. Although a straight line determination unit 24 is shown in FIG. 8, the overall configuration of the phase evaluation unit 2 is the same as that of the second embodiment shown in FIG. 5. Further, the overall configuration of the synthetic aperture radar signal processing apparatus is the same as that of the first embodiment shown in FIG.
  • the straight line determination unit 24 includes a regression line calculation unit 241, a correlation coefficient calculation unit 242, and a threshold value determination unit 243.
  • the regression line calculation unit 241, the correlation coefficient calculation unit 242, and the threshold value determination unit 243 are connected so as to be able to input and output signals.
  • the straight line determination unit 24 outputs the phase calculated by the phase calculation unit 23 shown in FIG. 5 to the regression line calculation unit 241.
  • the regression line calculation unit 241 calculates a regression line of the input phase, and outputs the regression line to the correlation coefficient calculation unit 242.
  • the correlation coefficient calculation unit 242 calculates the correlation coefficient between the phase calculated by the phase calculation unit 23 and the regression line calculated by the regression line calculation unit 241, and outputs the calculated correlation coefficient to the threshold value determination unit 243.
  • the threshold determination unit 243 determines whether the correlation coefficient calculated by the correlation coefficient calculation unit 242 is equal to or higher than a predetermined threshold, and if the correlation coefficient is equal to or higher than the threshold, Consider the phase as a straight line.
  • a threshold of about 0.8 to 0.9 is a value that can realize autofocus robustly against background noise or a signal from another reflection point.
  • the threshold value determination unit 243 may regard the phase as a straight line when the correlation coefficient exceeds a predetermined threshold value.
  • the phase calculation range determination unit 22 executes the process again. Further, when it is determined that the calculated phase is not a straight line, the straight line determination unit 24 outputs a phase calculation range in which the phase can be regarded as a straight line to the window function multiplication unit 3.
  • the straight line determination unit 24 outputs, for example, the maximum phase calculation range in which the phase can be regarded as a straight line to the window function multiplication unit 3.
  • the regression line calculation unit 241 calculates a regression line of the phase calculated in the process of step S23 shown in FIG. 6 (step S241).
  • the regression line calculation unit 241 outputs the calculated regression line to the correlation coefficient calculation unit 242.
  • the correlation coefficient calculation unit 242 calculates a correlation coefficient between the phase calculated in the process of step S23 and the regression line calculated in the process of step S241 (step S242).
  • the correlation coefficient calculation unit 242 outputs the calculated correlation coefficient to the threshold value determination unit 243.
  • the threshold value determination unit 243 determines whether or not the calculated correlation coefficient is equal to or greater than a predetermined threshold value. I think. Then, the process returns to the process of step S22. When it is less than the threshold value, the straight line determination unit 24 outputs, to the window function multiplication unit 3, a phase calculation range in which the phase can be regarded as a straight line in the past threshold value determination processing.
  • the window function multiplication unit 3 and the phase error correction unit 4 execute the processes of steps S3 and S4 shown in FIG.
  • the linearity of the phase of the signal is evaluated by the correlation coefficient. That is, the range in which the reflected signal from the isolated point is dominant is determined by using the feature that the correlation coefficient becomes higher as the phase of the reflected signal approximates to a straight line.
  • a range in which a constant correlation coefficient can be obtained regardless of the amount of background noise or the influence of other reflection points that is, a range in which the reflection signal from the isolated point is dominant is determined.
  • a threshold value of about 0.8 to 0.9 can realize robust autofocusing against background noise and the like.
  • the synthetic aperture radar signal processing apparatus according to the third embodiment can realize robust autofocusing with respect to background noise and signals of other reflection points, and can obtain a high quality corrected image.
  • FIG. 10 is a block diagram showing a configuration example of the fourth embodiment. Although the phase evaluation unit 2 is shown in FIG. 10, the overall configuration of the synthetic aperture radar signal processing apparatus is the same as that of the first embodiment shown in FIG.
  • the phase evaluation unit 2 shown in FIG. 10 includes an evaluation range bin selection unit 21, a phase calculation range determination unit 22, a phase calculation unit 23, and a straight line determination unit 25.
  • the evaluation range bin selection unit 21, the phase calculation range determination unit 22, the phase calculation unit 23, and the straight line determination unit 25 are connected so as to be able to input and output signals.
  • the function of the straight line determination unit 25 is different from the function of the straight line determination unit 24 in the second embodiment shown in FIG.
  • the other configurations and functions of the phase evaluation unit 2 are the same as the configurations and functions in the second embodiment.
  • FIG. 11 is a block diagram showing a configuration example of the straight line determination unit 25.
  • the straight line determination unit 25 includes a regression line calculation unit 241, an error calculation unit 252, and a threshold value determination unit 253.
  • the configuration and the function of the regression line calculation unit 241 in the straight line determination unit 25 are the same as the configuration and the function in the third embodiment.
  • the function of the threshold determination unit 253 is different from the function of the threshold determination unit 243 in the third embodiment.
  • the straight line determination unit 25 determines whether the phase calculated by the phase calculation unit 23 is a straight line, as in the case of the second embodiment.
  • the error calculation unit 252 calculates an error between the phase calculated by the phase calculation unit 23 and the regression line calculated by the regression line calculation unit 241.
  • the error calculation unit 252 calculates, for example, the mean square error or Euclidean distance of the phase and the regression line as an error.
  • the threshold determination unit 253 determines whether the error calculated by the error calculation unit 252 is equal to or greater than a predetermined threshold.
  • the straight line determination unit 25 regards the phase as a straight line when the amount of error is less than the threshold. If the phase is considered to be a straight line, the phase calculation range determination unit 22 executes the process again. And evaluation of the phase in a wider range is performed.
  • the straight line determination unit 25 may regard the phase as a straight line when the amount of error is equal to or less than a threshold.
  • the straight line determination unit 25 When it is determined that the calculated phase is not a straight line, the straight line determination unit 25 outputs, to the window function multiplication unit 3, a range in which the phase can be regarded as a straight line in the past processing.
  • phase evaluation unit 2 Next, the operation of the phase evaluation unit 2 will be described with reference to the flowchart of FIG.
  • the straight line judgment processing (step S25) by the straight line judgment unit 25 This differs from the straight line determination process (step S24) in the second embodiment.
  • the other processes are the same as the processes in the second embodiment.
  • FIG. 13 is a flowchart showing the straight line determination process of step S25.
  • the regression line calculation unit 241 in the line determination unit 25 calculates the regression line of the phase as in the third embodiment (step S241), but in the fourth embodiment, the error calculation unit 252 performs the process of step S23.
  • An error between the phase calculated in step S2 and the regression line calculated in the process of step S241 is calculated (step S252).
  • the error calculation unit 252 uses, for example, the mean square error of the phase and the regression line, the Euclidean distance, and the like to calculate the error.
  • the error calculation unit 252 outputs the calculated error to the threshold value determination unit 253.
  • the threshold determination unit 253 determines whether the error obtained in the process of step S252 is equal to or greater than a predetermined threshold (step S253).
  • the straight line determination unit 25 regards the phase as a straight line when the error is less than the threshold. Then, the process returns to the process of step S22 to evaluate the phase in a wider azimuth range. If the error is equal to or greater than the threshold value, the straight line determination unit 25 outputs, to the window function multiplication unit 3, a phase calculation range in which the phase can be regarded as a straight line in the past threshold value determination processing.
  • step S252 The error calculated in the process of step S252 tends to increase exponentially as signals other than the reflection signal from the isolated point are mixed. Therefore, every time the iterative process (steps S22 to S25) in FIG. 12 is executed, the threshold value determination unit 253 sequentially updates the threshold value to a constant multiple of the past error, and the error exceeds the threshold value. The process may be terminated when the error is significantly increased.
  • the phase of the reflected signal is evaluated by the amount of error.
  • a feature is used in which the amount of error exponentially increases as background noise and other reflected signals are mixed into the reflected signal from the isolated point. Based on such characteristics, searching for a range in which the increase in error is gradual makes it possible to determine a range in which the effects such as background noise can be estimated to be small. Further, in the case of determining the range while sequentially updating the threshold value for determining the amount of error, it is possible to adapt to various observation images. With such a configuration, the synthetic aperture radar signal processing apparatus according to the fourth embodiment can realize robust autofocus with respect to background noise and other reflection point signals, and obtain high-quality corrected images. it can.
  • FIG. 14 is a block diagram showing a configuration example of the fifth embodiment.
  • the phase evaluation unit 2 is shown in FIG. 14, but the overall configuration of the synthetic aperture radar signal processing apparatus is the same as that of the first embodiment shown in FIG.
  • the phase evaluation unit 2 shown in FIG. 14 includes an evaluation range bin selection unit 21, a phase calculation range determination unit 22, a phase calculation unit 26, and a straight line determination unit 27.
  • the evaluation range bin selection unit 21, the phase calculation range determination unit 22, the phase calculation unit 26, and the straight line determination unit 27 are connected so as to be able to input and output signals.
  • phase calculating unit 26 and the straight line judging unit 27 are different from the functions of the phase calculating unit 23 and the straight line judging unit 24 in the second embodiment shown in FIG.
  • Other configurations and functions of the phase evaluation unit 2 are the same as those in the second embodiment.
  • the phase calculation unit 26 calculates the phase on the frequency axis of the evaluation range bin in the phase calculation range determined by the phase calculation range determination unit 22.
  • the phase calculation unit 26 realizes calculation of the phase on the frequency axis by performing Fourier transform in the azimuth direction, for example, with the amplitude value of a point other than the determined phase calculation range being zero. Then, the phase calculating unit 26 outputs the phase to the straight line judging unit 27 after performing the phase unwrapping process on the calculated phase.
  • FIG. 15 is a block diagram showing a configuration example of the straight line determination unit 27.
  • the straight line determination unit 27 includes a slope calculation unit 271, a standard deviation calculation unit 272, and a threshold value determination unit 273.
  • the straight line determination unit 27 estimates the range to be used for autofocusing, focusing on the gradient of the phase actually used by the phase error correction unit 4.
  • the gradient calculating unit 271 calculates a gradient vector from the phase calculated by the phase calculating unit 26.
  • the gradient calculating unit 271 outputs the calculated gradient vector to the standard deviation calculating unit 272.
  • the standard deviation calculation unit 272 calculates the standard deviation of the input gradient vector.
  • the standard deviation calculation unit 272 outputs the calculated standard deviation to the threshold value determination unit 273.
  • the threshold determination unit 273 compares the calculated standard deviation with a predetermined threshold, and regards the phase as a straight line when the value of the standard deviation is less than the threshold. If the phase is considered to be a straight line, the phase calculation range determination unit 22 executes the process again. If the value of the standard deviation is equal to or greater than the threshold value, the straight line determination unit 27 outputs, to the window function multiplication unit 3, a range in which the phase can be regarded as a straight line in the past processing.
  • phase evaluation unit 2 Next, the operation of the phase evaluation unit 2 will be described with reference to the flowchart of FIG.
  • phase calculation process (step S26) by the phase calculation unit 26 and the straight line The straight line determination process (step S27) by the determination unit 27 is different from the phase calculation process (step S23) and the straight line determination process (step S24) in the second embodiment.
  • the other processes are the same as the processes in the second embodiment.
  • the phase calculation unit 26 calculates the phase on the frequency axis of the evaluation range bin in the phase calculation range determined in step S22 (step S26). Specifically, the phase calculation unit 26 calculates the phase by Fourier transforming the evaluation range bin in the azimuth direction after setting the amplitude values of the pixels outside the determined range to zero. Further, the phase calculation unit 26 performs a phase unwrapping process on the calculated phase, and outputs the unwrapped phase to the straight line determination unit 27.
  • FIG. 17 is a flowchart showing the straight line determination process of step S27.
  • the gradient calculation unit 271 in the straight line determination unit 27 calculates the gradient vector of the phase calculated in the process of step S26 (step S271).
  • the gradient calculating unit 271 outputs the calculated gradient vector to the standard deviation calculating unit 272.
  • the standard deviation calculation unit 272 calculates the standard deviation of the gradient vector calculated in the process of step S271 (step S272).
  • the standard deviation calculation unit 272 outputs the calculated standard deviation to the threshold value determination unit 273.
  • the threshold determination unit 273 determines whether the standard deviation obtained in the process of step S 272 is equal to or greater than a predetermined threshold.
  • the straight line determination unit 27 regards the phase as a straight line when the standard deviation is less than the threshold. If the phase is considered to be a straight line, the phase calculation range determination unit 22 executes the process again. And evaluation of the phase in a wider range is performed.
  • the straight line determination unit 27 When the standard deviation is equal to or greater than the threshold value, the straight line determination unit 27 outputs to the window function multiplication unit 3 a phase calculation range in which the phase can be regarded as a straight line in the past threshold value determination processing.
  • the phase of the reflected signal is evaluated on the frequency axis.
  • a characteristic that the gradient vector of the phase approaches 0 is used. That is, by searching the range where the standard deviation of the gradient vector is small, the range in which the reflection signal from the isolated point is dominant is determined. Based on such features, the signal processing system of the synthetic aperture radar can realize robust autofocusing against background noise and other reflection point signals, and can obtain a high quality corrected image.
  • FIG. 18 is a block diagram showing a sixth embodiment of the synthetic aperture radar signal processing device.
  • the synthetic aperture radar signal processing device shown in FIG. 18 includes a range bin selection unit 1, a phase evaluation unit 5, a window function multiplication unit 6, and a phase error correction unit 4.
  • the range bin selection unit 1, the phase evaluation unit 5, the window function multiplication unit 6, and the phase error correction unit 4 are connected so as to be able to input and output signals.
  • the configurations and functions of the range bin selection unit 1 and the phase error correction unit 4 are the same as those configurations and functions in the first embodiment.
  • FIG. 19 is a block diagram showing a configuration example of the phase evaluation unit 5 in the sixth embodiment.
  • the phase evaluation unit 5 shown in FIG. 19 includes an evaluation range bin selection unit 51, a phase calculation range determination unit 22, a phase calculation unit 23, a straight line determination unit 24, and an end determination unit 55.
  • the evaluation range bin selection unit 51, the phase calculation range determination unit 22, the phase calculation unit 23, the straight line determination unit 24, and the end determination unit 55 are connected so as to be able to input and output signals.
  • the configurations and functions of the phase calculation range determination unit 22, the phase calculation unit 23, and the straight line determination unit 24 are the same as those configurations and functions in the second embodiment shown in FIG.
  • the phase evaluation unit 5 evaluates the phase in the azimuth direction for each range bin with respect to the plurality of range bins selected by the range bin selection unit 1, and the window function multiplication unit allows the range in which the phase in the azimuth direction of each range bin Output to 6.
  • An evaluation range bin selection unit 51 in the phase evaluation unit 5 selects a range bin whose phase is to be evaluated from the range bins selected by the range bin selection unit 1.
  • the evaluation range bin selection unit 51 selects an arbitrary range bin from among the range bins selected by the range bin selection unit 1 as an evaluation range bin, and selects a different range bin as an evaluation range bin each time feedback is received from the end determination unit 55.
  • the evaluation range bin selection unit 51 sequentially selects, from the range bins selected by the range bin selection unit 1, for example, range bins including pixels having high luminance values.
  • the end determination unit 55 determines whether or not a predetermined number of range bins have been selected in the process of the evaluation range bin selection unit 51. When it is determined that a predetermined number of range bins are selected as evaluation range bins, end determination unit 55 outputs, to window function multiplication unit 6, a range in which the phase corresponding to each range bin can be regarded as a straight line.
  • the end determination unit 55 uses, as the range bin number to be evaluated, for example, the range bin number including pixels having a luminance value of ⁇ 20 dB or more from the pixel having the highest luminance value in the range bin selected by the range bin selection unit 1. Further, the end determination unit 55 may use the number of range bins selected by the range bin selection unit 1 as it is.
  • the window function multiplication unit 6 designs, for each range bin selected by the evaluation range bin selection unit 51, a window function in which each range input from the phase evaluation unit 5 is a passband. Then, the window function multiplication unit 6 multiplies each of the selected plurality of range bins by the window function, and outputs each range bin after multiplication to the phase error correction unit 4.
  • the phase error correction unit 4 estimates the phase error based on the relative swing of the observation target from each range bin after the input window function multiplication, and corrects the observed image based on the estimated phase error.
  • the straight line determination unit 25 (see FIG. 11) in the fourth embodiment may be used as the straight line determination unit in the phase evaluation unit 5. Further, as the phase calculation unit and the straight line determination unit in the phase evaluation unit 5, the phase calculation unit 26 (see FIG. 14) and the straight line determination unit 27 (see FIG. 14) in the fifth embodiment may be used.
  • the phase evaluation process by the phase evaluation unit 5 (step S5)
  • the window function multiplication process (step S6) by the window function multiplication unit 6 is the window function multiplication process (step S3) in the first embodiment. Is different.
  • the other processes are the same as the processes in the first embodiment.
  • the phase evaluation unit 5 evaluates the phase of each of the range bins selected in the process of step S1 for each range bin, and allows the window function multiplication unit 6 to have an azimuth range in which the phase in the azimuth direction of each range bin can be regarded as a straight line. It outputs (step S5).
  • FIG. 21 is a flowchart showing the operation of the phase evaluation unit 5. Comparing the operation of the phase evaluation unit 5 shown in FIG. 21 with the operation of the phase evaluation unit 2 in the second embodiment shown in FIG. 6, the evaluation range bin selection process (step S51) is the second implementation. It differs from the evaluation range bin selection process (step S21) in the embodiment. Further, the sixth embodiment is different from the second embodiment in that the end determination process (step S55) by the end determination unit 55 is added. The other processes are the same as the processes in the second embodiment.
  • the evaluation range bin selection unit 51 selects a range bin whose phase is to be evaluated from the range bins selected in the process of step S1 (step S51).
  • the evaluation range bin selection unit 51 selects an arbitrary range bin from among the range bin numbers selected in the process of step S1 as an evaluation range bin, and selects a different range bin as an evaluation range bin each time feedback is received from the end determination unit 55.
  • the evaluation range bin selection unit 51 sequentially selects range bins including pixels having high luminance values, for example, from the range bins selected in the process of step S1.
  • the end determination unit 55 determines whether the phase evaluation of the predetermined number of range bins is completed (step S55). The end determination unit 55 determines, for example, whether the number of repetitions is equal to the number of range bins determined in advance. Then, if the numbers are the same, the end determination unit 55 ends the repetitive processing, and the phase evaluation unit 5 outputs the range bin numbers and the corresponding azimuth ranges to the window function multiplication unit 6.
  • the window function multiplication unit 6 For the range bins selected in the process of step S1, the window function multiplication unit 6 designs a rectangular window whose passband is a range in which the phase obtained for each range bin input from the phase evaluation unit 5 can be regarded as a straight line. Do. Then, the window function multiplication unit 6 multiplies each of the selected plurality of range bins by the window function, and outputs each range bin after multiplication to the phase error correction unit 4.
  • the phase error correction unit 4 estimates the phase error due to the rocking from the input range bins, and corrects the observed image based on the estimated phase error. Specifically, the phase error correction unit 4 corrects the observation image by calculating the range in which the phase in the azimuth direction becomes a linear phase for each range bin.
  • the synthetic aperture radar signal processing apparatus is configured to independently evaluate the phase of each range bin to obtain an area for estimating a phase error in autofocus for each range bin.
  • the synthetic aperture radar signal processing apparatus can estimate the phase error using only the region where the signal of the isolated reflection point is dominant for each range bin.
  • FIG. 22 is an explanatory diagram for explaining the effect of the sixth embodiment.
  • z1 shows the observation image at the time of the area
  • the synthetic aperture radar signal processing apparatus can obtain a corrected image that realizes more robust autofocus with respect to background noise and signals of other reflection points even in the range direction of the isolated reflection point. Furthermore, since the synthetic aperture radar signal processing apparatus according to the sixth embodiment determines the range in which the phase satisfies the condition for each range bin, even when the intensity of the isolated reflection point that is difficult to detect only by the amplitude information is insufficient. Autofocus can be realized.
  • FIG. 23 is a block diagram showing a seventh embodiment of the synthetic aperture radar signal processing device.
  • the synthetic aperture radar signal processing apparatus of the seventh embodiment is configured by adding an amplitude evaluation unit 7 to the synthetic aperture radar signal processing apparatus of the first embodiment shown in FIG. Ru.
  • the other configurations and functions are the same as the configurations and functions of the synthetic aperture radar signal processing device of the first embodiment.
  • the amplitude evaluation unit 7 sets, for each of the range bins selected by the range bin selection unit 1, a point having an amplitude value equal to or less than a threshold value on the basis of a point where the amplitude value is high.
  • the amplitude evaluation unit 7 may set a point where the amplitude value as a reference is high to a point where the maximum amplitude value is taken. Note that the amplitude evaluation unit 7 may use a predetermined value as the threshold value, or may use a value determined based on the ratio to the background noise amount.
  • phase evaluation unit 5 and the window function multiplication unit 6 in the sixth embodiment may be used as the phase evaluation unit and the window function multiplication unit.
  • the straight line judgment unit 24 in the second embodiment may be used as the straight line judgment unit in the phase evaluation unit 2 or the straight line judgment unit 25 in the fourth embodiment may be used.
  • the phase calculation unit 23 and the straight line judgment unit 24 in the second embodiment may be used as the phase calculation unit and the straight line judgment unit in the phase evaluation unit 2, or the phase calculation unit 26 and the straight line judgment in the fifth embodiment Part 27 may be used.
  • step S7 an amplitude evaluation process is added to the process of the first embodiment shown in FIG.
  • the other processes are the same as the processes in the first embodiment.
  • the amplitude evaluation unit 7 sets, for each of the range bins selected in the process of step S1, the value of a point having an amplitude smaller than the threshold value to 0 on the basis of a point having a high amplitude.
  • the amplitude evaluation unit 7 sets, for example, a point having the maximum amplitude value of each range bin as a point having a high amplitude.
  • the amplitude evaluation unit 7 may use a predetermined value such as -20 dB from the maximum amplitude value as the threshold value, but based on the amplitude ratio of the background noise and the reference point A threshold may be set.
  • the amplitude evaluation unit 7 supplies, to the phase evaluation unit 2, range bins including points having amplitudes other than zero.
  • the synthetic aperture radar signal processing apparatus is configured to roughly determine a region for estimating a phase error in autofocusing based on the amplitude and then evaluate the phase within the range.
  • the synthetic aperture radar signal processing device is based on the amplitude information when the intensity of the background noise or other reflected signal is low, and the phase information when the intensity of the reflected signal is high. Based on the above, in order to estimate the phase error, it is possible to extract a region in which the signal of the isolated reflection point is dominant over the entire two-dimensional image.
  • the synthetic aperture radar signal processing device can be configured by hardware, but can also be realized by a computer program.
  • FIG. 25 is a block diagram showing a configuration example of an information processing apparatus capable of realizing the function of the synthetic aperture radar signal processing apparatus of each of the above-described embodiments.
  • the information processing apparatus shown in FIG. 25 includes a processor such as one or more CPUs (Central Processing Units), a program memory 1002 and a memory 1003.
  • a processor such as one or more CPUs (Central Processing Units), a program memory 1002 and a memory 1003.
  • An information processing apparatus having one processor 1001 is illustrated in FIG.
  • the program memory 1002 a semiconductor storage medium such as a flash ROM (Read Only Memory) or a magnetic storage medium such as a hard disk can be used.
  • the program memory 1002 includes each block (range bin selection unit 1, phase evaluation units 2 and 5, window function multiplication units 3 and 6, phase error correction unit 4, amplitude evaluation unit) in the synthetic aperture radar signal processing device according to each of the above embodiments. A program for realizing the function of 7) is stored.
  • the memory 1003 a semiconductor storage medium or a magnetic storage medium can be used.
  • the memory 1003 stores temporary data and the like generated when the synthetic aperture radar signal processing device is executing processing.
  • Program memory 1002 and memory 1003 may be integrated.
  • the processor 1001 implements the function of the synthetic aperture radar signal processing device of each of the above-described embodiments by executing processing in accordance with a program stored in the program memory 1002.
  • the plurality of processors cooperate to realize the function of the synthetic aperture radar signal processing apparatus.
  • a range bin selection unit that selects a range bin including a signal of an isolated reflection point from an observation image, A phase evaluation unit that evaluates the phase in the azimuth direction of the range bin; A window function multiplication unit which designs a window function based on the evaluation result of the phase evaluation unit and multiplies the range bin by the window function; A phase error correction unit which estimates a phase error from the range bin multiplied by the window function and corrects the observation image.
  • the phase evaluation unit An evaluation range bin selection unit that selects any one range bin from among the range bins as an evaluation range bin; A phase calculation range determination unit that determines a calculation range of the phase of the evaluation range bin; A phase calculation unit for obtaining a phase of the evaluation range bin in the calculation range;
  • the synthetic aperture radar signal processing device further comprising: a straight line determination unit that determines whether the phase calculated by the phase calculation unit is a linear phase.
  • the straight line determination unit A regression line calculation unit for obtaining a regression line of the phase determined by the phase calculation unit; A correlation coefficient calculation unit for obtaining a correlation coefficient between the phase and the regression line;
  • the synthetic aperture radar signal processing device further comprising: a threshold determination unit that determines the correlation coefficient as a threshold and determines whether the phase is a linear phase.
  • the straight line determination unit A regression line calculation unit for obtaining a regression line of the phase determined by the phase calculation unit; An error calculation unit that calculates an error between the phase calculated by the phase calculation unit and the regression line;
  • the synthetic aperture radar signal processing device further comprising: a threshold determination unit that determines whether the phase is a linear phase by thresholding the error.
  • the phase calculation unit calculates the phase on the frequency axis of the evaluation range bin in the calculation range,
  • the straight line determination unit A gradient calculation unit that calculates a gradient vector of the phase;
  • a standard deviation calculation unit that calculates a standard deviation of the gradient vector;
  • the synthetic aperture radar signal processing device further comprising: a threshold determination unit that determines whether the phase is a linear phase by thresholding the standard deviation.
  • the phase evaluation unit selects a plurality of range bins from the range bins selected by the range bin selection unit,
  • the phase error correction unit respectively calculates a range in which the phase in the azimuth direction is a linear phase for each of the plurality of range bins, and corrects the observed image.
  • Aperture radar signal processor Aperture radar signal processor.
  • An amplitude evaluation unit that determines a range in which the amplitude value in the azimuth direction is higher than a threshold value for the range bin selected by the range bin selection unit, further comprising: The synthetic aperture radar signal processing device according to any one of Appendixes 1 to 5, wherein the amplitude evaluation unit outputs range bins in the range to the phase evaluation unit.
  • a synthetic aperture radar signal processing method comprising: estimating a phase error from the range bin multiplied by the window function; and correcting the observation image.
  • a plurality of range bins are selected from the selected range bins when evaluating the phase, When correcting the observation image, the range in which the phase in the azimuth direction becomes a linear phase is calculated for each of the plurality of range bins, and the observation image is corrected. Synthetic aperture radar signal processing method.
  • Range bin selection processing for selecting a range bin including a signal of an isolated reflection point from an observation image;
  • a phase evaluation process for evaluating the phase in the azimuth direction of the range bin;
  • Window function multiplication processing for designing a window function based on the evaluation result of the phase evaluation processing, and multiplying the range bin by the window function;
  • a synthetic aperture radar signal processing program for estimating a phase error from the range bin multiplied by the window function, and performing a phase error correction process of correcting the observation image.
  • Evaluation range bin selection processing of selecting any one range bin from among the range bins as an evaluation range bin; A phase calculation range determination process for determining a calculation range of the phase of the evaluation range bin; A phase calculation process for determining the phase of the evaluation range bin in the calculation range; 15.
  • phase calculation process the phase on the frequency axis of the evaluation range bin in the calculation range is calculated;
  • straight line determination process Gradient calculation processing for calculating a gradient vector of the phase;
  • Standard deviation calculation processing for calculating the standard deviation of the gradient vector; 17.
  • the synthetic aperture radar signal processing program according to appendix 16 wherein threshold value determination processing of the standard deviation is performed to determine whether the phase is a linear phase.
  • phase evaluation process a plurality of range bins are selected from the range bins selected in the range bin selection process, In the phase error correction process, the range in which the phase in the azimuth direction becomes a linear phase is calculated for each of the plurality of range bins, and the process of correcting the observed image is executed.
  • Synthetic aperture radar signal processing program according to claim 1.
  • Amplitude evaluation processing for determining a range in which the amplitude value in the azimuth direction is higher than a threshold value is further executed on the range bin selected in the range bin selection processing,
  • Range bin selection processing of selecting a range bin including a signal of an isolated reflection point from an observation image
  • a phase evaluation process for evaluating the phase in the azimuth direction of the range bin
  • Window function multiplication processing for designing a window function based on the evaluation result of the phase evaluation processing, and multiplying the range bin by the window function
  • a recording medium storing a synthetic aperture radar signal processing program for estimating a phase error from the range bin multiplied by the window function and performing a phase error correction process for correcting the observation image.
  • Evaluation range bin selection processing of selecting any one range bin from among the range bins as an evaluation range bin; A phase calculation range determination process for determining a calculation range of the phase of the evaluation range bin; A phase calculation process for determining the phase of the evaluation range bin in the calculation range; A recording medium storing the synthetic aperture radar signal processing program according to Supplementary Note 22, which executes: a straight line determination process of determining whether the phase calculated in the phase calculation process is a linear phase.
  • phase evaluation process a plurality of range bins are selected from the range bins selected in the range bin selection process, In the phase error correction process, the range in which the phase in the azimuth direction becomes a linear phase is calculated for each of the plurality of range bins, and the process of correcting the observation image is executed.
  • Amplitude evaluation processing for determining a range in which the amplitude value in the azimuth direction is higher than the threshold value is further executed on the range bin selected in the range bin selection processing,
  • the recording medium storing the synthetic aperture radar signal processing program according to any one of Appendixes 22 to 26, wherein range bins in the range are output to the phase evaluation processing in the amplitude evaluation processing.
  • the present invention is applicable to a system that corrects an image of synthetic aperture radar using satellites or aircraft.
  • the present invention is also applicable to orbit estimation of satellites and aircrafts with the function of estimating phase errors.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

合成開口レーダ信号処理装置は、観測画像から、孤立反射点の信号を含むレンジビンを選択するレンジビン選択部と、レンジビンのアジマス方向の位相を評価する位相評価部と、位相評価部の評価結果にもとづいて窓関数を設計し、レンジビンに窓関数を乗算する窓関数乗算部と、窓関数が乗算されたレンジビンから位相誤差を推定して、観測画像を補正する位相誤差補正部とを備える。

Description

合成開口レーダ信号処理装置、方法およびプログラム
 本発明は、オートフォーカスの位相誤差推定に利用する範囲を適切に決定できる合成開口レーダ信号処理装置に関する。
 図26は、特許文献1に記載された合成開口レーダ装置の構成を示すブロック図である。図26に示す合成開口レーダ装置は、信号送受信部101、画像再生処理部102、レンジビン選択部103、画像シフト部104、窓関数乗算部105、フェーズグラディエント推定および補償部106、ならびに繰り返し判定部107を備えている。
 信号送受信部101は、アンテナ(図示せず)に高周波パルス信号を供給し、観測対象範囲からの反射波をアンテナを介して受信する。画像再生処理部102は、受信された信号をレンジ方向およびアジマス方向の2軸に対応する2次元画像として再生する。レンジビン選択部103は、再生画像内で孤立した反射点とその反射成分であるサイドローブを含むレンジビンを選択する。画像シフト部104は、各レンジ画像をアジマス方向にシフトする。窓関数乗算部105は、再生画像の振幅情報から位相誤差推定に利用する範囲を抜き出す。フェーズグラディエント推定および補償部106は、再生された2次元画像を補正する。繰り返し判定部107は、補償された2次元画像に残る位相誤差量にもとづいて補償処理を再度実行するか否かを判定する。
 次に、図26に示された合成開口レーダ装置の動作を説明する。図27は、図26に示された合成開口レーダ装置の動作を示すフローチャートである。
 信号送受信部101は、アンテナを介して電磁波を放射し、反射波を受信する(ステップS101)。信号送受信部101は、デジタル信号を画像再生処理部102に出力する。
 画像再生処理部102は、入力されたデジタル信号に合成開口処理を行って2次元画像を再生する(ステップS102)。画像再生処理部102は、2次元画像をレンジビン選択部103に出力する。
 レンジビン選択部103は、再生された2次元画像内で孤立点からの反射信号が含まれる範囲のレンジビンを選択する(ステップS103)。レンジビン選択部103は、選択したレンジビンの画像を画像シフト部104に出力する。
 画像シフト部104は、選択されたレンジビンごとに最大振幅となる画素が中央に位置するように各レンジ画像をアジマス方向にシフトする(ステップS104)。画像シフト部104は、シフトした画像を窓関数乗算部105に出力する。
 窓関数乗算部105は、シフトされた画像をレンジ方向に足し合わせ、中央の振幅からあらかじめ決定された振幅値までを通過域とするアジマス方向の矩形窓を設計する。そして窓関数乗算部105は、設計した矩形窓をシフトされた各レンジビンに乗算する(ステップS105)。
 フェーズグラディエント推定および補償部106は、窓関数乗算後のレンジビンに対して、フェーズグラディエント法によって再生画像の位相誤差を推定して補償する(ステップS106)。フェーズグラディエント法は再生画像内の位相誤差を推定および補正するオートフォーカス技術の一つであるが、具体的な処理は例えば特許文献1に記載されている。
 繰り返し判定部107は、補償された画像の位相誤差量がしきい値以上であるか否かを判定し、位相誤差量がしきい値以上である場合には、補償された画像をス画像シフト部104に供給する(ステップS107)。合成開口レーダ装置は、ステップS104の処理以降の処理を繰り返す。繰り返し判定部107は、位相誤差量がしきい値未満である場合には、補償画像を出力する。
 特許文献1に記載された技術は、背景雑音の振幅が高い場合に、位相誤差推定精度が低下する点に着目する。そして、当該技術は、孤立点の反射信号と背景雑音の振幅比を推定して、孤立点からの反射信号が支配的な点ほど補償量を大きくする重みを加え、背景雑音の影響を小さくすることを可能にする。
特開2003-215240号公報
 特許文献1に記載された合成開口レーダ装置は、位相誤差補償時に孤立点からの反射信号が支配的である点の寄与を大きくするよう重みを付けて画像を補償する。しかし、異なる点の反射信号などが混入する場合、目的としない点からの反射信号の寄与も大きくなるため、画像の補正精度が低下する課題がある。
 図28は、特許文献1に記載された合成開口レーダ装置の課題を説明するための説明図である。図28において、z1は、複数の反射点が混在する領域が観測された際の観測画像を示す。z2は、特定の1点からの反射信号が観測される範囲を示す。各点からの反射信号の成分は、z2と同様に十字状の領域に現れる。各反射信号において、十字のようにレンジ方向およびアジマス方向に伸びる成分は、サイドローブと呼ばれ、反射信号の成分の一部である。z3,z4,z5で表される破線の枠は、振幅情報のみで決定された場合の決定範囲を示す。それぞれの破線の枠の範囲は、上述した矩形窓の幅に相当する。図28において、範囲z3では、他の反射信号の成分が混入するため、オートフォーカスにおける位相誤差の推定精度が低下する。また、範囲z4,z5は、近接する複数の反射点からの信号を1つの反射点からの信号として誤検出された一例を示す。範囲z4,z5が利用された場合、オートフォーカスにおける位相誤差の推定精度は低下する。
 本発明は、背景雑音や異なる点の反射信号に頑健なオートフォーカスを実現することができるようにすることを目的とする。本発明の他の目的は、強度が高い孤立反射点が得られない場合でもオートフォーカスが実現できるようにすることである。
 本発明による合成開口レーダ信号処理装置は、観測画像から、孤立反射点の信号を含むレンジビンを選択するレンジビン選択部と、レンジビンのアジマス方向の位相を評価する位相評価部と、位相評価部の評価結果にもとづいて窓関数を設計し、レンジビンに窓関数を乗算する窓関数乗算部と、窓関数が乗算されたレンジビンから位相誤差を推定して、観測画像を補正する位相誤差補正部とを備えることを特徴とする。
 本発明による合成開口レーダ信号処理方法は、観測画像から、孤立反射点の信号を含むレンジビンを選択し、レンジビンのアジマス方向の位相を評価し、評価の結果にもとづいて窓関数を設計し、レンジビンに窓関数を乗算し、窓関数が乗算されたレンジビンから位相誤差を推定して、観測画像を補正することを特徴とする。
 本発明による合成開口レーダ信号処理プログラムは、コンピュータに、観測画像から、孤立反射点の信号を含むレンジビンを選択するレンジビン選択処理と、レンジビンのアジマス方向の位相を評価する位相評価処理と、位相評価処理の評価結果にもとづいて窓関数を設計し、レンジビンに窓関数を乗算する窓関数乗算処理と、窓関数が乗算されたレンジビンから位相誤差を推定して、観測画像を補正する位相誤差補正処理とを実行させることを特徴とする。
 本発明によれば、オートフォーカスにおける位相誤差の推定精度が向上する。また、孤立点からの反射信号強度が弱い場合や複数の反射点が近接する場合でも位相誤差の推定精度が向上する。
合成開口レーダ信号処理装置の第1の実施形態を示すブロック図である。 第1の実施形態の合成開口レーダ信号処理装置の動作を示すフローチャートである。 第1の実施形態の効果を説明するための説明図である。 第1の実施形態の効果を説明するための説明図である。 第2の実施形態における位相評価部の構成例を示すブロック図である。 第2の実施形態における位相評価部の動作を示すフローチャートである。 第2の実施形態の効果を説明するための説明図である。 第3の実施形態における直線判定部の構成例を示すブロック図である。 第3の実施形態における直線判定部の動作を示すフローチャートである。 第4の実施形態における位相評価部の構成例を示すブロック図である。 第4の実施形態における直線判定部の構成例を示すブロック図である。 第4の実施形態における位相評価部の動作を示すフローチャートである。 第4の実施形態における直線判定部の処理を示すフローチャートである。 第5の実施形態における位相評価部の構成例を示すブロック図である。 第5の実施形態における直線判定部の構成例を示すブロック図である。 第5の実施形態における位相評価部の動作を示すフローチャートである。 第5の実施形態における直線判定部の処理を示すフローチャートである。 合成開口レーダ信号処理装置の第6の実施形態を示すブロック図である。 第6の実施形態における位相評価部の構成例を示すブロック図である。 第6の実施形態の合成開口レーダ信号処理装置の動作を示すフローチャートである。 第6の実施形態における位相評価部の動作を示すフローチャートである。 第6の実施形態の効果を説明するための説明図である。 合成開口レーダ信号処理装置の第7の実施形態を示すブロック図である。 第7の実施形態の合成開口レーダ信号処理装置の動作を示すフローチャートである。 合成開口レーダ信号処理装置の機能を実現可能な情報処理装置の構成例を示すブロック図である。 特許文献1に記載された合成開口レーダ装置の構成を示すブロック図である。 図26に示された合成開口レーダ装置の動作を示すフローチャートである。 特許文献1に記載された合成開口レーダ装置の課題を説明するための説明図である。
 以下、本発明の実施形態を図面を参照して説明する。
実施形態1.
 図1は、合成開口レーダ信号処理装置の第1の実施形態を示すブロック図である。図1に示す合成開口レーダ信号処理装置は、レンジビン選択部1、位相評価部2、窓関数乗算部3および位相誤差補正部4を備える。レンジビン選択部1、位相評価部2、窓関数乗算部3および位相誤差補正部4は、信号入出力可能に接続されている。
 レンジビン選択部1は、合成開口された観測画像を入力し、観測画像内で孤立点からの反射信号が含まれるレンジビンを選択する。レンジビン選択部1は、例えば、観測画像内で振幅値が最も高い点からレンジ方向に探索を開始し、あらかじめ決定されたしきい値を下回る振幅値を持つ点までを含むレンジビンを選択する。レンジビン選択部1は、観測画像において孤立点の位置情報が既知である場合には、観測画像とともに孤立点の位置情報を入力し、位置情報から孤立点の反射信号が含まれるレンジビンを選択してもよい。なお、レンジビン選択部1に入力される観測画像は、一例として、アンテナを介して放射された電磁波の観測対象範囲からの反射波による信号(反射信号)にもとづいて生成されたレンジ方向およびアジマス方向の2軸に対応する2次元画像である。
 位相評価部2は、選択されたレンジビンにおいて、アジマス方向の位相情報を評価して、その位相が直線位相とみなせるアジマス方向の範囲を決定する。そして、位相評価部2は、決定した範囲を窓関数乗算部3に出力する。
 窓関数乗算部3は、レンジビン選択部1で選択された各レンジビンから孤立反射点の信号が存在する範囲を取り出し、その範囲を位相誤差補正部4に出力する。窓関数乗算部3は、位相評価部2から入力した決定範囲を通過域とするアジマス方向の矩形窓を設計する。そして、窓関数乗算部3は、レンジビン選択部1で選択された各レンジビンに、設計した矩形窓を乗算し、乗算後の各レンジビンを位相誤差補正部4に出力する。
 位相誤差補正部4は、入力されたレンジビンを対象としてフェーズグラディエント法やマップドリフト法などを用いて位相誤差を推定し、推定した位相誤差を観測画像の位相に加算または減算することによって観測画像を補正する。
 次に、図2のフローチャートを参照して第1の実施形態の合成開口レーダ信号処理装置の動作を説明する。
 レンジビン選択部1は、入力された合成開口された観測画像から振幅値の高い反射信号を含むレンジビンを複数選択する(ステップS1)。または、レンジビン選択部1は、あらかじめ与えられた孤立反射点が存在する座標から、レンジビンを複数選択する。レンジビン選択部1は、選択したレンジビンを位相評価部2に出力する。
 位相評価部2は、選択されたレンジビンに対してアジマス方向の位相を評価し、位相が直線位相と見なせる範囲を求める(ステップS2)。位相評価部2は、求めた範囲を窓関数乗算部3に出力する。
 窓関数乗算部3は、求められた範囲において、位相が直線位相と見なせるアジマス方向の範囲を通過域とする矩形窓を設計する。そして、窓関数乗算部3は、レンジビン選択部1によって選択された各レンジビンに、矩形窓を乗算する(ステップS3)。窓関数乗算部3は、矩形窓が乗算された後の各レンジビンを位相誤差補正部4に出力する。
 位相誤差補正部4は、入力した各レンジビンに含まれる位相誤差をフェーズグラディエント法やマップドリフト法などで推定し、推定した位相誤差を観測画像の位相に加算または減算することによって観測画像を補正する(ステップS4)。
 第1の実施形態の効果を説明する。第1の実施形態の合成開口レーダ信号処理装置は、オートフォーカスにおける位相誤差を推定する範囲を位相情報から求めるように構成されている。そのような構成によれば、背景雑音や別の反射点からの信号が混在する場合でも、オートフォーカスに必要とされる位相情報を取得できる範囲が頑健に決定される。
 図3は、背景雑音が多い場合における第1の実施形態の効果を説明するための説明図である。
 図3における(a),(b)には、2つの反射点からの反射信号に背景雑音が重畳した観測画像が示されている。y1は背景雑音量が少ない条件における観測画像を示す。y2は1点の反射点からの反射信号が現れる範囲を示す。y3は、観測画像y1の中から選択された複数レンジビンの1レンジビンを示す。y4は背景雑音量が多い条件における観測画像を示す。y5は観測画像y4の中から選択された複数レンジビンの1レンジビンを示す。
 図3における(c),(d)には、レンジビンy3,y5におけるアジマス方向の信号列の「振幅情報」を用いて孤立点からの反射信号が支配的な範囲が決定された場合の結果が示されている。y6,y9は、それぞれレンジビンy3,y5における振幅を示す。y7は矩形窓の範囲を決めるためのしきい値を示す。y8,y10は、しきい値y7を利用した際に信号の振幅値がしきい値以上になる範囲を示す。
 図3における(c)に示された結果では、孤立点からの反射信号が存在する範囲が、他の反射信号と切り分けて決定されている。しかし、図3における(d)に示された結果では、複数の点が混在する範囲が決定されている。なお、背景雑音量に合わせてしきい値y7を設定することによって、他の反射信号が混在する範囲を除外できる。しかし、孤立点からの反射信号のサイドローブ成分が存在する範囲も除外されるので、オートフォーカスの精度が低下する。
 図3における(e),(f)には、レンジビンy3,y5におけるアジマス方向の信号列の「位相情報」を用いて孤立点からの反射信号が支配的な範囲が決定された場合の結果が示されている。すなわち、第1の実施形態の合成開口レーダ信号処理装置によって決定される範囲が示されている。y11,y13は、それぞれレンジビンy3,y5における位相を示す。y12,y14は、位相y11,y13が直線位相とみなせる範囲を示す。孤立点からの反射信号が支配的な範囲、すなわちオートフォーカスに必要な位相情報が存在する範囲において、位相が直線に近似する。また、背景雑音量が支配的な範囲では、位相はランダムになる。
 したがって、第1の実施形態では、図3における(e),(f)に示されるように、位相が直線になる範囲が、孤立点からの反射信号が支配的な範囲として決定される。また、範囲y12では、決定される範囲が左右に伸びている。その理由は、「振幅情報」では埋もれていたオートフォーカスに利用できるサイドローブ成分が存在する範囲まで決定範囲とされているためである。
 図3に示された例から、「位相情報」を利用することによって、背景雑音が含まれる場合でも頑健に1つの孤立点からの信号が支配的な範囲を決定できることが分かる。また、背景雑音が観測画像内に一様に分布する特徴を持つ場合、位相を利用することによって、サイドローブ成分も含めた広範囲を決定できることが分かる。
 図4は、反射点が近接している場合における第1の実施形態の効果を説明するための説明図である。
 図4における(a),(b)には、2つの反射点からの反射信号が近接し、それぞれのサイドローブが重なっている観測画像が示されている。x1は重畳範囲が少ない条件における観測画像を示す。x2は1点の反射点からの反射信号が現れる範囲を示す。x3は観測画像x1の中から選択された複数レンジビンの1レンジビンを示す。x4は重畳範囲が多い条件における観測画像を示す。x5は観測画像x4の中から選択された複数レンジビンの1レンジビンを示す。
 図4における(c),(d)には、レンジビンx3,x5におけるアジマス方向の信号列の「振幅情報」を用いて孤立点からの反射信号が支配的な範囲は決定された場合の結果が示されている。x6,x9はそれぞれレンジビンx3,x5における振幅を示す。x7は矩形窓の範囲を決めるためのしきい値を示す。x8,x10は、しきい値x7を利用した際に信号の振幅値がしきい値以上になる範囲を示す。x12,x14は、位相x11,x13が直線位相とみなせる範囲を示す。
 図4における(c)に示された結果では、1つの孤立点からの反射信号が支配的な範囲を決定できているが、図4における(d)に示された結果では、複数の点からの信号が混在する範囲が決定されている。
 図4における(e),(f)には、レンジビンx3,x5におけるアジマス方向の信号列の「位相情報」を用いて孤立点からの反射信号が支配的な範囲が決定された場合の結果が示されている。すなわち、第1の実施形態の合成開口レーダ信号処理装置によって決定される範囲が示されている。
 孤立点からの反射信号が支配的な範囲、すなわちオートフォーカスに必要な位相情報が存在する範囲において、位相が直線に近似する。また、異なる点から反射信号が重畳する範囲では、位相はランダムになる。したがって、第1の実施形態では、図4における(e),(f)に示されるよう、位相が直線になる範囲が、孤立点からの反射信号が支配的な範囲として決定される。また、位相が直線になる範囲が、他の点からの反射信号が重畳する範囲を除外して決定される。また、範囲x12では決定される範囲が左に伸びている。その理由は、図3における(e)に示された結果と同様に、「振幅情報」では埋もれていたオートフォーカスに利用できるサイドローブ成分が存在する範囲も含めて範囲が決定されているためである。
 図4に示された例から、「位相情報」を利用することによって、それぞれの反射点が近接する場合でも、頑健に1つの孤立点からの反射信号が支配的な範囲を決定できることが分かる。
実施形態2.
 図5は、第2の実施形態の構成例を示すブロック図である。図5には、位相評価部2が示されているが、合成開口レーダ信号処理装置の全体的な構成は、図1に示された第1の実施形態と同様である。
 図5に示された位相評価部2は、評価レンジビン選択部21、位相算出範囲決定部22、位相算出部23および直線判定部24を備える。評価レンジビン選択部21、位相算出範囲決定部22、位相算出部23および直線判定部24は、信号入出力可能に接続されている。
 評価レンジビン選択部21は、図1に示されたレンジビン選択部1で選択されたレンジビンを評価レンジビン選択部21に出力する。評価レンジビン選択部21は、レンジビン選択部1で選択されたレンジビンにおいて孤立点からの反射信号を強く含むレンジビンを選択する。そして、評価レンジビン選択部21は、選択したレンジビンを評価レンジビン(評価対象のレンジビン)として位相算出範囲決定部22に出力する。評価レンジビン選択部21は、例えば、最も振幅値が高い点を有するレンジビンを評価レンジビンとする。
 位相算出範囲決定部22は、評価レンジビンのアジマス方向の位相を算出する範囲を決定する。なお、位相算出範囲決定部22は、評価レンジビンにおいて最も振幅値が高い点からアジマス方向に±1画素拡大した範囲を初期算出範囲にする。位相算出範囲決定部22は、直線判定部24からのフィードバックを得るたびに、さらにアジマス方向に±1画素拡大した範囲を位相算出部23に出力する。なお、拡大範囲の±1画素は一例であり、例えば±2以上の画素ずつ拡大するとしてもよい。また、位相算出範囲決定部22は、取り得る最大の範囲を初期算出範囲にし、直線判定部24からフィードバックがあるたびに位相の算出範囲を縮小するようにしてもよい。
 位相算出部23は、決定された位相算出範囲における評価レンジビンの位相を算出する。そして、位相算出部23は、算出した位相に位相アンラップ処理を行った上で位相を直線判定部24に出力する。位相算出部23は、位相アンラップ処理において、隣り合う点の位相が連続していると仮定する。そして、位相算出部23は、隣接する位相の絶対変化量がπラジアンを越えるとき、プラスまたはマイナス方向に2πラジアン加算する。位相算出部23は、絶対変化量がπラジアン以下に納まるよう各点の位相スペクトルを求める。なお、位相算出部23は、そのような方法以外の方法で位相アンラップ処理を実現してもよい。
 直線判定部24は、入力された位相が直線位相であるか否かを判定する。直線判定部24が、算出した位相が直線位相であると判定した場合には、位相算出範囲決定部22が再度処理を実行する。また、直線判定部24は、算出した位相が直線位相でないと判定した場合には、位相が直線位相である位相算出範囲を、図1に示された窓関数乗算部3に出力する。一例として、直線判定部24は、位相が直線位相と見なせる最大の位相算出範囲を窓関数乗算部3に出力する。
 なお、位相算出範囲決定部22が、取り得る最大範囲から縮小させながら位相が直線位相である範囲を決定する場合にも、直線判定部24の分岐条件は逆になるが、位相が直線位相と見なせるときの算出範囲が、窓関数乗算部3に出力される。
 次に、位相評価部2の動作を、図6のフローチャートを参照して説明する。
 評価レンジビン選択部21は、ステップS1の処理(図2参照)で選択された各レンジビンの中で孤立点からの反射信号が強い画素を含むレンジビンを選択する(ステップS21)。評価レンジビン選択部21は、例えば、選択したレンジビン内で最も振幅値が高い画素を有するレンジビンを評価レンジビンとして選択する。評価レンジビン選択部21は、選択したレンジビンを評価レンジビンとして位相算出範囲決定部22に出力する。
 位相算出範囲決定部22は、入力された評価レンジビンにおいて最大の振幅値を取る画素を中心に位相を算出する範囲を拡大し、拡大した範囲を位相算出範囲とする(ステップS22)。位相算出範囲決定部22は、拡大した範囲を位相算出部23に出力する。なお、位相算出範囲決定部22は、最大振幅値をとる画素から±1画素の範囲を初期算出範囲とし、直線判定部24からのフィードバックを得るたびに範囲を拡げる。
 位相算出部23は、ステップS21の処理で選択された評価レンジビンの位相を、ステップS22の処理で決定された範囲に対して算出する。さらに、位相算出部23は、算出した位相に対して位相アンラップ処理を行い、アンラップされた位相を直線判定部24に出力する(ステップS23)。
 直線判定部24は、ステップS23の処理で算出された位相が直線位相であるか否かを判定する(ステップS24)。直線判定部24が、算出された位相が直線位相であると判定した場合には、ステップS22の処理に戻る。また、直線判定部24は、算出された位相が直線位相でないと判定した場合には、過去の判定処理において位相が直線と見なせる位相算出範囲を出力する。
 そして、窓関数乗算部3および位相誤差補正部4(図1参照)は、図2に示されたステップS3,S4の処理を実行する。
 第2の実施形態の効果を説明する。第2の実施形態では、反射信号の位相が直線位相と見なせる範囲を求めることによって、孤立点からの反射信号の位相情報を保持しつつ、背景雑音などの影響を取り除いた範囲が決定される。
 図7は、第2の実施形態の効果を説明するための説明図である。図7において、z1は、図28に示されたz1と同様に、複数の反射点が混在する領域が観測された際の観測画像を示す。z2は、図28に示されたz2と同様に、特定の1点からの反射信号が観測される範囲を示す。w3,w4は、第2の実施の形態で決定されるオートフォーカスのための範囲を示す。第2の実施形態では、評価レンジビンの信号に対して、位相が直線位相と見なせる範囲が算出されるので、孤立点からの反射信号の情報が支配的な範囲を広く取ることができる。その結果、合成開口レーダ信号処理装置は、背景雑音や他の反射点の信号に対して、頑健なオートフォーカスを実現でき、高品質な補正画像を得ることができる。
実施形態3.
 図8は、第3の実施形態の構成例を示すブロック図である。図8には、直線判定部24が示されているが、位相評価部2の全体的な構成は、図5に示された第2の実施形態と同様である。また、合成開口レーダ信号処理装置の全体的な構成は、図1に示された第1の実施形態と同様である。
 図8に示されるように、直線判定部24は、回帰直線算出部241、相関係数算出部242およびしきい値判定部243を備える。回帰直線算出部241、相関係数算出部242およびしきい値判定部243は、信号入出力可能に接続されている。
 直線判定部24は、図5に示された位相算出部23で算出された位相を回帰直線算出部241に出力する。回帰直線算出部241は、入力した位相の回帰直線を算出して、相関係数算出部242に出力する。相関係数算出部242は、位相算出部23で算出された位相と、回帰直線算出部241で算出された回帰直線の相関係数を算出し、しきい値判定部243に出力する。
 しきい値判定部243は、相関係数算出部242で算出された相関係数があらかじめ定められたしきい値以上であるかを判定し、相関係数がしきい値以上である場合に、位相を直線と見なす。なお、例えば0.8~0.9程度のしきい値が、背景雑音や別の反射点からの信号に対して頑健にオートフォーカスを実現できる値である。なお、しきい値判定部243は、相関係数があらかじめ定められたしきい値を越える場合に位相を直線と見なすようにしてもよい。
 直線判定部24が、しきい値判定部243の結果から算出される位相が直線であると判定した場合には、位相算出範囲決定部22が再度処理を実行する。また、直線判定部24は、算出される位相が直線でないと判定した場合には、位相が直線と見なせる位相算出範囲を窓関数乗算部3に出力する。直線判定部24は、例えば、位相が直線と見なせる最大の位相算出範囲を窓関数乗算部3に出力する。
 次に、直線判定部24の動作を、図9のフローチャートを参照して説明する。
 回帰直線算出部241は、図6に示されたステップS23の処理で算出された位相の回帰直線を算出する(ステップS241)。回帰直線算出部241は、算出した回帰直線を相関係数算出部242に出力する。相関係数算出部242は、ステップS23の処理で算出された位相と、ステップS241の処理で算出された回帰直線との相関係数を算出する(ステップS242)。相関係数算出部242は、算出した相関係数をしきい値判定部243に出力する。
 ステップS243の処理で、しきい値判定部243は、算出された相関係数があらかじめ定められたしきい値以上であるか否かを判定し、しきい値以上である場合に位相を直線と見なす。そして、ステップS22の処理に戻る。しきい値未満である場合には、直線判定部24は、過去のしきい値判定処理において位相が直線と見なせる位相算出範囲を窓関数乗算部3に出力する。
 そして、窓関数乗算部3および位相誤差補正部4(図1参照)は、図2に示されたステップS3,S4の処理を実行する。
 第3の実施形態の効果を説明する。第3の実施形態では、信号の位相の直線性が相関係数で評価される。すなわち、反射信号の位相が直線に近似するほど相関係数が高くなるという特徴を利用して、孤立点からの反射信号が支配的な範囲が決定される。その結果、背景雑音量や他の反射点の影響に関係なく一定の相関係数が得られる範囲、すなわち孤立点からの反射信号が支配的な範囲が決定される。また、実験によって、0.8~0.9程度をしきい値にすると、背景雑音などに頑健なオートフォーカスを実現できることが分かった。第3の実施形態の合成開口レーダ信号処理装置は、背景雑音や他の反射点の信号に対して頑健なオートフォーカスを実現でき、高品質な補正画像を得ることができる。
実施形態4.
 図10は、第4の実施形態の構成例を示すブロック図である。図10には、位相評価部2が示されているが、合成開口レーダ信号処理装置の全体的な構成は、図1に示された第1の実施形態と同様である。
 図10に示された位相評価部2は、評価レンジビン選択部21、位相算出範囲決定部22、位相算出部23および直線判定部25を備える。評価レンジビン選択部21、位相算出範囲決定部22、位相算出部23および直線判定部25は、信号入出力可能に接続されている。
 直線判定部25の機能は、図5に示された第2の実施形態における直線判定部24の機能とは異なる。位相評価部2のその他の構成および機能は、第2の実施形態における構成および機能と同じである。
 図11は、直線判定部25の構成例を示すブロック図である。直線判定部25は、回帰直線算出部241、誤差算出部252およびしきい値判定部253を備えている。直線判定部25における回帰直線算出部241の構成および機能は、第3の実施形態におけるそれらの構成および機能と同じである。しきい値判定部253の機能は、第3の実施形態におけるしきい値判定部243の機能とは異なる。
 直線判定部25は、第2の実施形態の場合と同様に、位相算出部23で算出された位相が直線であるか否かを判定する。誤差算出部252は、位相算出部23で算出された位相と回帰直線算出部241で算出された回帰直線との誤差を算出する。誤差算出部252は、例えば、位相と回帰直線の平均2乗誤差やユークリッド距離を誤差として算出する。
 しきい値判定部253は、誤差算出部252で算出された誤差があらかじめ定められたしきい値以上であるか否かを判定する。直線判定部25は、誤差量がしきい値未満であるとき、位相を直線と見なす。位相が直線であると見なされた場合、位相算出範囲決定部22が再度処理を実行する。そして、さらに広い範囲における位相の評価が行われる。なお、直線判定部25は、誤差量がしきい値以下である場合に位相を直線と見なすようにしてもよい。
 また、算出された位相が直線でないと判定された場合には、直線判定部25は、過去の処理で位相が直線と見なせる範囲を窓関数乗算部3に出力する。
 次に、位相評価部2の動作を、図12のフローチャートを参照して説明する。
 図12に示される位相評価部2の動作と、図6に示された第2の実施形態における位相評価部2の動作とを比較すると、直線判定部25による直線判定処理(ステップS25)が、第2の実施形態における直線判定処理(ステップS24)とは異なる。その他の処理は、第2の実施形態における処理と同じである。
 図13は、ステップS25の直線判定処理を示すフローチャートである。直線判定部25における回帰直線算出部241は、第3の実施形態と同様に位相の回帰直線を算出するが(ステップS241)、第4の実施形態では、誤差算出部252が、ステップS23の処理で算出された位相とステップS241の処理で算出された回帰直線との誤差を算出する(ステップS252)。誤差算出部252は、例えば、誤差の算出に、位相と回帰直線の平均2乗誤差やユークリッド距離などを利用する。誤差算出部252は、算出した誤差をしきい値判定部253に出力する。
 しきい値判定部253は、ステップS252の処理で求められた誤差があらかじめ定められたしきい値以上であるか否かを判定する(ステップS253)。直線判定部25は、誤差がしきい値未満である場合に、位相を直線と見なす。そして、さらに広いアジマス範囲における位相を評価するために、ステップS22の処理に戻る。誤差がしきい値以上である場合には、直線判定部25は、過去のしきい値判定処理において位相が直線と見なせる位相算出範囲を窓関数乗算部3に出力する。
 なお、ステップS252の処理で算出される誤差は、孤立点からの反射信号以外の信号が混入するほど、指数的に増加する傾向がある。そこで、図12における繰り返し処理(ステップS22~S25)が実行されるごとに、しきい値判定部253は、しきい値を過去の誤差の定数倍に逐次更新し、誤差がしきい値を越えたとき、すなわち誤差が大幅に増加したときに、処理を終えるようにしてもよい。
 第4の実施形態の効果を説明する。第4の実施形態では、反射信号の位相が誤差量で評価される。このとき、孤立点からの反射信号に背景雑音や他の反射信号が混入するほど誤差量が指数的に増加する特徴が利用される。そのような特徴にもとづいて、誤差の増加が緩やかな範囲を探索することによって、背景雑音などの影響を小さく見積もれる範囲を決定できる。また、誤差量を判定するしきい値を逐次更新しながら範囲を決定する場合には、様々な観測画像に適応することが可能である。そのような構成によって、第4の実施形態の合成開口レーダ信号処理装置は、背景雑音や他の反射点の信号に対して、頑健なオートフォーカスを実現でき、高品質な補正画像を得ることができる。
実施形態5.
 図14は、第5の実施形態の構成例を示すブロック図である。図14には、位相評価部2が示されているが、合成開口レーダ信号処理装置の全体的な構成は、図1に示された第1の実施形態と同様である。
 図14に示された位相評価部2は、評価レンジビン選択部21、位相算出範囲決定部22、位相算出部26および直線判定部27を備える。評価レンジビン選択部21、位相算出範囲決定部22、位相算出部26および直線判定部27は、信号入出力可能に接続されている。
 位相算出部26および直線判定部27の機能は、図5に示された第2の実施形態における位相算出部23および直線判定部24の機能とは異なる。位相評価部2のその他の構成および機能は、第2の実施形態におけるそれらの構成および機能と同じである。
 位相算出部26は、位相算出範囲決定部22で決定された位相算出範囲における評価レンジビンの周波数軸上の位相を算出する。位相算出部26は、例えば、決定された位相算出範囲以外の点の振幅値を0として、アジマス方向にフーリエ変換することによって、周波数軸上の位相の算出を実現する。そして、位相算出部26は、算出した位相に位相アンラップ処理を行った上で、位相を直線判定部27に出力する。
 図15は、直線判定部27の構成例を示すブロック図である。直線判定部27は、勾配算出部271、標準偏差算出部272およびしきい値判定部273を備えている。直線判定部27は、位相誤差補正部4で実際に利用される位相の勾配に着目して、オートフォーカスに利用する範囲を推定する。
 勾配算出部271は、位相算出部26で算出された位相から勾配ベクトルを算出する。勾配算出部271は、算出した勾配ベクトルを標準偏差算出部272に出力する。標準偏差算出部272は、入力した勾配ベクトルの標準偏差を算出する。標準偏差算出部272は、算出した標準偏差をしきい値判定部273に出力する。
 しきい値判定部273は、算出された標準偏差とあらかじめ定められたしきい値とを比較し、標準偏差の値がしきい値未満である場合に、位相を直線と見なす。位相が直線であると見なされた場合、位相算出範囲決定部22が再度処理を実行する。標準偏差の値がしきい値以上である場合には、直線判定部27は、過去の処理において位相が直線と見なせる範囲を窓関数乗算部3に出力する。
 次に、位相評価部2の動作を、図16のフローチャートを参照して説明する。
 図16に示される位相評価部2の動作と、図6に示された第2の実施形態における位相評価部2の動作とを比較すると、位相算出部26による位相算出処理(ステップS26)および直線判定部27による直線判定処理(ステップS27)が、第2の実施形態における位相算出処理(ステップS23)および直線判定処理(ステップS24)とは異なる。その他の処理は、第2の実施形態における処理と同じである。
 位相算出部26は、ステップS22で決定された位相算出範囲における評価レンジビンの周波数軸上の位相を算出する(ステップS26)。具体的には、位相算出部26は、決定された範囲以外の画素の振幅値を0としてから、評価レンジビンをアジマス方向にフーリエ変換することによって、位相を算出する。さらに、位相算出部26は、算出した位相に対して位相アンラップ処理を行い、アンラップされた位相を直線判定部27に出力する。
 図17は、ステップS27の直線判定処理を示すフローチャートである。直線判定部27における勾配算出部271は、ステップS26の処理で算出された位相の勾配ベクトルを算出する(ステップS271)。勾配算出部271は、算出した勾配ベクトルを標準偏差算出部272に出力する。
 標準偏差算出部272は、ステップS271の処理で算出された勾配ベクトルの標準偏差を算出する(ステップS272)。標準偏差算出部272は、算出した標準偏差をしきい値判定部273に出力する。
 しきい値判定部273は、ステップS272の処理で求められ標準偏差があらかじめ定められたしきい値以上であるか否かを判定する。直線判定部27は、標準偏差がしきい値未満である場合に、位相を直線と見なす。位相が直線であると見なされた場合、位相算出範囲決定部22が再度処理を実行する。そして、さらに広い範囲における位相の評価が行われる。
 また、標準偏差がしきい値以上である場合には、直線判定部27は、過去のしきい値判定処理において位相が直線と見なせる位相算出範囲を窓関数乗算部3に出力する。
 第5の実施形態の効果を説明する。第5の実施形態では、周波数軸上で反射信号の位相が評価される。このとき、推定すべき位相誤差が連続的に変化する場合、孤立点からの反射信号が支配的な範囲では、その位相の勾配ベクトルが0に近似する特量が利用される。すなわち、勾配ベクトルの標準偏差が小さい範囲を探索することによって、孤立点からの反射信号が支配的な範囲が決定される。そのような特徴にもとづいて、合成開口レーダの信号処理システムは、背景雑音や他の反射点の信号に対して、頑健なオートフォーカスが実現可能となり高品質な補正画像を得ることができる。
実施形態6.
 図18は、合成開口レーダ信号処理装置の第6の実施形態を示すブロック図である。図18に示す合成開口レーダ信号処理装置は、レンジビン選択部1、位相評価部5、窓関数乗算部6および位相誤差補正部4を備える。レンジビン選択部1、位相評価部5、窓関数乗算部6および位相誤差補正部4は、信号入出力可能に接続されている。なお、レンジビン選択部1および位相誤差補正部4の構成および機能は、第1の実施形態におけるそれらの構成および機能と同じである。
 図19は、第6の実施形態における位相評価部5の構成例を示すブロック図である。図19に示された位相評価部5は、評価レンジビン選択部51、位相算出範囲決定部22、位相算出部23、直線判定部24および終了判定部55を備える。評価レンジビン選択部51、位相算出範囲決定部22、位相算出部23、直線判定部24および終了判定部55は、信号入出力可能に接続されている。位相算出範囲決定部22、位相算出部23および直線判定部24の構成および機能は、図5に示された第2の実施形態におけるそれらの構成および機能と同じである。
 位相評価部5は、レンジビン選択部1で選択された複数レンジビンに対して、レンジビンごとにそれぞれのアジマス方向の位相を評価し、各レンジビンのアジマス方向の位相が直線と見なせる範囲を窓関数乗算部6に出力する。
 位相評価部5における評価レンジビン選択部51は、レンジビン選択部1で選択されたレンジビンから位相を評価するレンジビンを選択する。評価レンジビン選択部51は、レンジビン選択部1で選択されたレンジビンの中から任意のレンジビンを評価レンジビンとして選択し、終了判定部55からフィードバックを受けるたびに、異なるレンジビンを評価レンジビンとして選択する。評価レンジビン選択部51は、例えば、レンジビン選択部1で選択されたレンジビンから、高い輝度値を有する画素が含まれるレンジビンを順に選択する。
 終了判定部55は、評価レンジビン選択部51の処理において、あらかじめ定められる数のレンジビンが選択されたか否かを判定する。終了判定部55は、あらかじめ定められる数のレンジビンが評価レンジビンとして選択されたと判定したときに、各レンジビンに対応する位相が直線とみなせる範囲を窓関数乗算部6に出力する。なお、終了判定部55は、評価するレンジビン数として、例えば、レンジビン選択部1で選択されたレンジビンにおいて、最も輝度値が高い画素から-20dB以上の輝度値を有する画素を含むレンジビン数を用いる。また、終了判定部55は、レンジビン選択部1で選択されたレンジビン数をそのまま用いてもよい。
 窓関数乗算部6は、評価レンジビン選択部51で選択された各レンジビンに対して、位相評価部5から入力されたそれぞれの範囲を通過域とする窓関数をそれぞれ設計する。そして、窓関数乗算部6は、窓関数を、選択された複数レンジビンのそれぞれに乗算し、乗算後の各レンジビンを位相誤差補正部4に出力する。
 位相誤差補正部4は、入力した窓関数乗算後の各レンジビンから、観測対象の相対的な揺動にもとづく位相誤差を推定し、推定した位相誤差にもとづいて観測画像を補正する。なお、位相評価部5における直線判定部として、第4の実施の形態における直線判定部25(図11参照)を用いてもよい。また、位相評価部5における位相算出部および直線判定部として、第5の実施の形態における位相算出部26(図14参照)および直線判定部27(図14参照)を用いてもよい。
 次に、図20のフローチャートを参照して第6の実施形態の合成開口レーダ信号処理装置の動作を説明する。
 図20に示される合成開口レーダ信号処理装置の動作と、図2に示された第1の実施形態における位相評価部2の動作とを比較すると、位相評価部5による位相評価処理(ステップS5)が、第1の実施形態における位相評価処理(ステップS2)とは異なり、窓関数乗算部6による窓関数乗算処理(ステップS6)が、第1の実施形態における窓関数乗算処理(ステップS3)とは異なる。その他の処理は、第1の実施形態における処理と同じである。
 位相評価部5は、ステップS1の処理で選択された複数レンジビンに対して、レンジビンごとにそれぞれの位相を評価し、各レンジビンのアジマス方向の位相が直線と見なせるアジマス範囲を窓関数乗算部6に出力する(ステップS5)。
 図21は、位相評価部5の動作を示すフローチャートである。図21に示される位相評価部5の動作と、図6に示された第2の実施形態における位相評価部2の動作とを比較すると、評価レンジビン選択処理(ステップS51)が、第2の実施形態における評価レンジビン選択処理(ステップS21)とは異なる。また、第6の実施形態では終了判定部55による終了判定処理(ステップS55)が追加されている点が、第2の実施形態とは異なる。その他の処理は、第2の実施形態における処理と同じである。
 評価レンジビン選択部51は、ステップS1の処理で選択されたレンジビンから位相が評価されるレンジビンを選択する(ステップS51)。評価レンジビン選択部51は、ステップS1の処理で選択されたレンジビン番号の中から任意のレンジビンを評価レンジビンとして選択し、終了判定部55からフィードバックを受けるたびに異なるレンジビンを評価レンジビンとして選択する。評価レンジビン選択部51は、例えば、ステップS1の処理で選択されたレンジビンから、高い輝度値を有する画素が含まれるレンジビンを順に選択する。
 終了判定部55は、あらかじめ定められたレンジビン数の位相評価が完了したかを判定する(ステップS55)。終了判定部55は、例えば、繰り返し回数があらかじめ定められたレンジビン数と同数であるか否かを判定する。そして、終了判定部55は、それらが同数であれば繰り返し処理を終え、位相評価部5は、各レンジビン番号と、それぞれに対応するアジマス範囲を窓関数乗算部6に出力する。
 窓関数乗算部6は、ステップS1の処理で選択されたレンジビンに対して、位相評価部5から入力されたレンジビンごとに求められた位相が直線と見なせる範囲を通過域とする矩形窓をそれぞれ設計する。そして、窓関数乗算部6は、窓関数を、選択された複数レンジビンのそれぞれに乗算し、乗算後の各レンジビンを位相誤差補正部4に出力する。
 位相誤差補正部4は、入力された複数のレンジビンから揺動による位相誤差を推定し、推定した位相誤差にもとづいて観測画像を補正する。具体的には、位相誤差補正部4は、各レンジビンに対して、アジマス方向の位相が直線位相となる範囲をそれぞれ算出して、観測画像を補正する。
 第6の実施形態の効果を説明する。第6の実施形態の合成開口レーダ信号処理装置は、各レンジビンの位相を独立に評価して、オートフォーカスにおける位相誤差を推定する領域をレンジビンごとに求めるように構成されている。そのように構成されているので、合成開口レーダ信号処理装置は、レンジビンごとに孤立反射点の信号が支配的な領域だけを用いて位相誤差を推定できる。
 図22は、第6の実施形態の効果を説明するための説明図である。図22において、z1は、図28に示されたz1と同様に、複数の反射点が混在する領域が観測された際の観測画像を示す。z2は、図28に示されたz2と同様に、特定の1点からの反射信号が観測される範囲を示す。v3,v4は、第6の実施形態で、オートフォーカスのために決定される領域を示す。図22に示すように、孤立反射点の情報が支配的な領域のみが取り出される。
 したがって、合成開口レーダ信号処理装置は、孤立反射点のレンジ方向においても背景雑音や他の反射点の信号に対して、より頑健なオートフォーカスを実現した補正画像を得ることができる。さらに、第6の実施形態の合成開口レーダ信号処理装置は、レンジビンごとに位相が条件を満たす範囲を決定するので、振幅情報のみでは検出が困難な孤立反射点の強度が不十分な場合でも、オートフォーカスを実現できる。
実施形態7.
 図23は、合成開口レーダ信号処理装置の第7の実施形態を示すブロック図である。図23に示すように、第7の実施形態の合成開口レーダ信号処理装置は、図1に示された第1の実施形態の合成開口レーダ信号処理装置に振幅評価部7が追加されて構成される。その他の構成および機能は、第1の実施形態の合成開口レーダ信号処理装置の構成および機能と同じである。
 振幅評価部7は、レンジビン選択部1で選択されたレンジビンのそれぞれに対して、振幅値が高い点を基準にしきい値以下の振幅値を持つ点を0にする。振幅評価部7は、基準としての振幅値が高い点を、最大振幅値をとる点にしてもよい。なお、振幅評価部7は、しきい値として、あらかじめ定められた値を用いてもよいし、背景雑音量との比を基に決定される値を用いてもよい。
 また、位相評価部および窓関数乗算部として、第6の実施の形態における位相評価部5および窓関数乗算部6が用いられてもよい。位相評価部2における直線判定部として、第2の実施形態における直線判定部24が用いられてもよいし、第4の実施形態における直線判定部25が用いられてもよい。位相評価部2における位相算出部および直線判定部として、第2の実施形態における位相算出部23および直線判定部24が用いられてもよいし、第5の実施形態における位相算出部26および直線判定部27が用いられてもよい。
 次に、図24のフローチャートを参照して第7の実施形態の合成開口レーダ信号処理装置の動作を説明する。
 第7の実施の形態では、図2に示された第1の実施の形態の処理に対して振幅評価処理(ステップS7)が追加されている。その他の処理は、第1の実施形態における処理と同じである。
 振幅評価部7は、ステップS1の処理で選択されたレンジビンのそれぞれに対して、振幅の高い点を基準にしきい値未満の振幅を持つ点の値を0にする。振幅評価部7は、レンジビンごとの振幅の高い点を決定するときに、例えば、各レンジビンの最大振幅値を有する点を、振幅の高い点にする。また、振幅評価部7は、しきい値として、例えば、最大振幅値から-20dBのようなあらかじめ決められている値を用いてもよいが、背景雑音と基準となる点の振幅比にもとづいてしきい値を設定してもよい。
 振幅評価部7は、0ではない振幅を持つ点を含むレンジビンを位相評価部2に供給する。
 第7の実施形態の効果を説明する。第7の実施形態の合成開口レーダ信号処理装置は、オートフォーカスにおける位相誤差を推定する領域を振幅にもとづいて大まかに決定してから、その範囲内で位相を評価するように構成されている。そのように構成されているので、合成開口レーダ信号処理装置は、背景雑音や他の反射信号の強度が低い場合には振幅情報にもとづいて、また、反射信号の強度が高い場合には位相情報にもとづいて、位相誤差を推定するために、2次元画像全体に亘って孤立反射点の信号が支配的な領域を抜き出すことができる。
 上記の各実施形態の合成開口レーダ信号処理装置を、ハードウェアで構成することも可能であるが、コンピュータプログラムにより実現することも可能である。
 図25は、上記の各実施形態の合成開口レーダ信号処理装置の機能を実現可能な情報処理装置の構成例を示すブロック図である。図25に示す情報処理装置は、1つまたは複数のCPU(Central Processing Unit )などのプロセッサ、プログラムメモリ1002およびメモリ1003を含む。図25には、1つのプロセッサ1001を有する情報処理装置が例示されている。
 プログラムメモリ1002として、フラッシュROM(Read Only Memory)などの半導体記憶媒体やハードディスク等の磁気記憶媒体が使用可能である。プログラムメモリ1002は、上記の各実施形態の合成開口レーダ信号処理装置における各ブロック(レンジビン選択部1、位相評価部2,5、窓関数乗算部3,6、位相誤差補正部4、振幅評価部7)の機能を実現するためのプログラムが格納される。
 メモリ1003として、半導体記憶媒体やの磁気記憶媒体が使用可能である。メモリ1003には、合成開口レーダ信号処理装置が処理を実行しているときに発生する一時的なデータなどが記憶される。なお、プログラムメモリ1002とメモリ1003とは、一体であってもよい。
 プロセッサ1001は、プログラムメモリ1002に格納されているプログラムに従って処理を実行することによって、上記の各実施形態の合成開口レーダ信号処理装置の機能を実現する。複数のプロセッサが搭載されている場合には、複数のプロセッサが共働して合成開口レーダ信号処理装置の機能を実現する。
 上記の実施形態の一部または全部は以下の付記のようにも記載されうるが、本発明の構成は以下の構成に限定されない。
(付記1)観測画像から、孤立反射点の信号を含むレンジビンを選択するレンジビン選択部と、
 前記レンジビンのアジマス方向の位相を評価する位相評価部と、
 前記位相評価部の評価結果にもとづいて窓関数を設計し、前記レンジビンに前記窓関数を乗算する窓関数乗算部と、
 前記窓関数が乗算された前記レンジビンから位相誤差を推定して、前記観測画像を補正する位相誤差補正部と
 を備える合成開口レーダ信号処理装置。
(付記2)前記位相評価部は、
 前記レンジビンの中から任意の1レンジビンを評価レンジビンとして選択する評価レンジビン選択部と、
 前記評価レンジビンの位相の算出範囲を決定する位相算出範囲決定部と、
 前記算出範囲における前記評価レンジビンの位相を求める位相算出部と、
 前記位相算出部によって求められた位相が直線位相であるか否かを判定する直線判定部と
 を含む付記1に記載の合成開口レーダ信号処理装置。
(付記3)前記直線判定部は、
 前記位相算出部によって求められた位相の回帰直線を求める回帰直線算出部と、
 当該位相と前記回帰直線の相関係数を求める相関係数算出部と、
 前記相関係数をしきい値判定して当該位相が直線位相であるか否かを判定するしきい値判定部と
 を含む付記2に記載の合成開口レーダ信号処理装置。
(付記4)前記直線判定部は、
 前記位相算出部によって求められた位相の回帰直線を求める回帰直線算出部と、
 前記位相算出部によって求められた位相と前記回帰直線との誤差を算出する誤差算出部と、
 前記誤差をしきい値判定して前記位相が直線位相であるかを判定するしきい値判定部と
 を含む付記2に記載の合成開口レーダ信号処理装置。
(付記5)前記位相算出部は、前記算出範囲における前記評価レンジビンの周波数軸上の位相を算出し、
 前記直線判定部は、
 前記位相の勾配ベクトルを算出する勾配算出部と、
 前記勾配ベクトルの標準偏差を算出する標準偏差算出部と、
 前記標準偏差をしきい値判定して前記位相が直線位相であるか否かを判定するしきい値判定部と
 を含む付記2に記載の合成開口レーダ信号処理装置。
(付記6)前記位相評価部は、前記レンジビン選択部によって選択された前記レンジビンから複数のレンジビンを選択し、
 前記位相誤差補正部は、前記複数のレンジビンの各々についてアジマス方向の位相が直線位相となる範囲をそれぞれ算出して、前記観測画像を補正する
 付記1から付記5のうちのいずれかに記載の合成開口レーダ信号処理装置。
(付記7)前記レンジビン選択部によって選択されたレンジビンに対して、アジマス方向の振幅値がしきい値より高い範囲を決定する振幅評価部をさらに備え、
 前記振幅評価部は、前記範囲におけるレンジビンを前記位相評価部に出力する
 付記1から付記5のうちのいずれかに記載の合成開口レーダ信号処理装置。
(付記8)観測画像から、孤立反射点の信号を含むレンジビンを選択し、
 前記レンジビンのアジマス方向の位相を評価し、
 前記評価の結果にもとづいて窓関数を設計し、前記レンジビンに前記窓関数を乗算し、
 前記窓関数が乗算された前記レンジビンから位相誤差を推定して、前記観測画像を補正する
 合成開口レーダ信号処理方法。
(付記9)前記位相を評価するときに、
 前記レンジビンの中から任意の1レンジビンを評価レンジビンとして選択し、
 前記評価レンジビンの位相の算出範囲を決定し、
 前記算出範囲における前記評価レンジビンの位相を求め、
 求められた位相が直線位相であるか否かを判定する
 付記8に記載の合成開口レーダ信号処理方法。
(付記10)前記直線位相であるか否かを判定するときに、
 求められた位相の回帰直線を求め、
 当該位相と前記回帰直線の相関係数を求め、
 前記相関係数をしきい値判定して当該位相が直線位相であるか否かを判定する 付記9に記載の合成開口レーダ信号処理方法。
(付記11)前記直線位相であるか否かを判定するときに、
 求められた位相の回帰直線を求め、
 求められた位相と前記回帰直線との誤差を算出し、
 前記誤差をしきい値判定して前記位相が直線位相であるかを判定する
 付記9に記載の合成開口レーダ信号処理方法。
(付記12)前記評価レンジビンの位相を求めるときに、前記算出範囲における前記評価レンジビンの周波数軸上の位相を算出し、
 前記直線位相であるか否かを判定するときに、
 前記位相の勾配ベクトルを算出し、
 前記勾配ベクトルの標準偏差を算出し、
 前記標準偏差をしきい値判定して前記位相が直線位相であるか否かを判定する
 付記9に記載の合成開口レーダ信号処理方法。
(付記13)前記位相を評価するときに、選択された前記レンジビンから複数のレンジビンを選択し、
 前記観測画像を補正するときに、前記複数のレンジビンの各々についてアジマス方向の位相が直線位相となる範囲をそれぞれ算出して、前記観測画像を補正する
 付記8から付記12のうちのいずれかに記載の合成開口レーダ信号処理方法。
(付記14)選択されたレンジビンに対して、アジマス方向の振幅値がしきい値より高い範囲を決定し、
 決定された前記範囲におけるレンジビンを対象として位相を評価する
 付記8から付記12のうちのいずれかに記載の合成開口レーダ信号処理方法。
(付記15)コンピュータに、
 観測画像から、孤立反射点の信号を含むレンジビンを選択するレンジビン選択処理と、
 前記レンジビンのアジマス方向の位相を評価する位相評価処理と、
 前記位相評価処理の評価結果にもとづいて窓関数を設計し、前記レンジビンに前記窓関数を乗算する窓関数乗算処理と、
 前記窓関数が乗算された前記レンジビンから位相誤差を推定して、前記観測画像を補正する位相誤差補正処理と
 を実行させるための合成開口レーダ信号処理プログラム。
(付記16)コンピュータに、
 前記位相評価処理で、
 前記レンジビンの中から任意の1レンジビンを評価レンジビンとして選択する評価レンジビン選択処理と、
 前記評価レンジビンの位相の算出範囲を決定する位相算出範囲決定処理と、
 前記算出範囲における前記評価レンジビンの位相を求める位相算出処理と、
 前記位相算出処理で求められた位相が直線位相であるか否かを判定する直線判定処理と
 を実行させる付記15に記載の合成開口レーダ信号処理プログラム。
(付記17)コンピュータに、
 前記直線判定処理で、
 前記位相算出処理で求められた位相の回帰直線を求める回帰直線算出処理と、
 当該位相と前記回帰直線の相関係数を求める相関係数算出処理と、
 前記相関係数をしきい値判定して当該位相が直線位相であるか否かを判定するしきい値判定処理と
 を実行させる付記16に記載の合成開口レーダ信号処理プログラム。
(付記18)コンピュータに、
 前記直線判定処理で、
 前記位相算出処理で求められた位相の回帰直線を求める回帰直線算出処理と、
 前記位相算出処理で求められた位相と前記回帰直線との誤差を算出する誤差算出処理と、
 前記誤差をしきい値判定して前記位相が直線位相であるかを判定するしきい値判定処理と
 を実行させる付記16に記載の合成開口レーダ信号処理プログラム。
(付記19)コンピュータに、
 前記位相算出処理で、前記算出範囲における前記評価レンジビンの周波数軸上の位相を算出させ、
 前記直線判定処理で、
 前記位相の勾配ベクトルを算出する勾配算出処理と、
 前記勾配ベクトルの標準偏差を算出する標準偏差算出処理と、
 前記標準偏差をしきい値判定して前記位相が直線位相であるか否かを判定するしきい値判定処理と
 を実行させる付記16に記載の合成開口レーダ信号処理プログラム。
(付記20)コンピュータに、
 前記位相評価処理で、前記レンジビン選択処理で選択された前記レンジビンから複数のレンジビンを選択させ、
 前記位相誤差補正処理で、前記複数のレンジビンの各々についてアジマス方向の位相が直線位相となる範囲をそれぞれ算出して、前記観測画像を補正する処理を実行させる
 付記15から付記19のうちのいずれかに記載の合成開口レーダ信号処理プログラム。
(付記21)コンピュータに、
 前記レンジビン選択処理で選択されたレンジビンに対して、アジマス方向の振幅値がしきい値より高い範囲を決定する振幅評価処理をさらに実行させ、
 前記振幅評価処理で、前記範囲におけるレンジビンを前記位相評価処理に出力させる
 付記15から付記19のうちのいずれかに記載の合成開口レーダ信号処理プログラム。
(付記22)観測画像から、孤立反射点の信号を含むレンジビンを選択するレンジビン選択処理と、
 前記レンジビンのアジマス方向の位相を評価する位相評価処理と、
 前記位相評価処理の評価結果にもとづいて窓関数を設計し、前記レンジビンに前記窓関数を乗算する窓関数乗算処理と、
 前記窓関数が乗算された前記レンジビンから位相誤差を推定して、前記観測画像を補正する位相誤差補正処理とを実行させるための合成開口レーダ信号処理プログラムを記憶する記録媒体。
(付記23)前記位相評価処理で、
 前記レンジビンの中から任意の1レンジビンを評価レンジビンとして選択する評価レンジビン選択処理と、
 前記評価レンジビンの位相の算出範囲を決定する位相算出範囲決定処理と、
 前記算出範囲における前記評価レンジビンの位相を求める位相算出処理と、
 前記位相算出処理で求められた位相が直線位相であるか否かを判定する直線判定処理と
 を実行させる付記22に記載の合成開口レーダ信号処理プログラムを記憶する記録媒体。
(付記24)前記直線判定処理で、
 前記位相算出処理で求められた位相の回帰直線を求める回帰直線算出処理と、
 当該位相と前記回帰直線の相関係数を求める相関係数算出処理と、
 前記相関係数をしきい値判定して当該位相が直線位相であるか否かを判定するしきい値判定処理と
 を実行させる付記23に記載の合成開口レーダ信号処理プログラムを記憶する記録媒体。
(付記25)前記直線判定処理で、
 前記位相算出処理で求められた位相の回帰直線を求める回帰直線算出処理と、
 前記位相算出処理で求められた位相と前記回帰直線との誤差を算出する誤差算出処理と、
 前記誤差をしきい値判定して前記位相が直線位相であるかを判定するしきい値判定処理と
 を実行させる付記23に記載の合成開口レーダ信号処理プログラムを記憶する記録媒体。
(付記26)前記直線判定処理で、
 前記位相算出処理で求められた位相の回帰直線を求める回帰直線算出処理と、
 前記位相算出処理で求められた位相と前記回帰直線との誤差を算出する誤差算出処理と、
 前記誤差をしきい値判定して前記位相が直線位相であるかを判定するしきい値判定処理と
 を実行させる付記23に記載の合成開口レーダ信号処理プログラムを記憶する記録媒体。
(付記27)前記位相評価処理で、前記レンジビン選択処理で選択された前記レンジビンから複数のレンジビンを選択させ、
 前記位相誤差補正処理で、前記複数のレンジビンの各々についてアジマス方向の位相が直線位相となる範囲をそれぞれ算出して、前記観測画像を補正する処理を実行させる
 付記22から付記26のうちのいずれかに記載の合成開口レーダ信号処理プログラムを記憶する記録媒体。
(付記28)前記レンジビン選択処理で選択されたレンジビンに対して、アジマス方向の振幅値がしきい値より高い範囲を決定する振幅評価処理をさらに実行させ、
 前記振幅評価処理で、前記範囲におけるレンジビンを前記位相評価処理に出力させる
 付記22から付記26のうちのいずれかに記載の合成開口レーダ信号処理プログラムを記憶する記録媒体。
 本発明は、衛星や航空機などを用いた合成開口レーダの画像を補正するシステムに利用可能である。また、本発明は、位相誤差を推定する機能を衛星や航空機の軌道推定にも適用可能である。
 1    レンジビン選択部
 2    位相評価部
 3    窓関数乗算部
 4    位相誤差補正部
 5    位相評価部
 6    窓関数乗算部
 7    振幅評価部
 21   評価レンジビン選択部
 22   位相算出範囲決定部
 23,26 位相算出部
 24,25,27 直線判定部
 51   評価レンジビン選択部
 55   終了判定部
 241  回帰直線算出部
 242  相関係数算出部
 243,253,273 しきい値判定部
 252  誤差算出部
 271  勾配算出部
 272  標準偏差算出部
 1001 プロセッサ
 1002 プログラムメモリ
 1003 メモリ

Claims (21)

  1.  観測画像から、孤立反射点の信号を含むレンジビンを選択するレンジビン選択部と、
     前記レンジビンのアジマス方向の位相を評価する位相評価部と、
     前記位相評価部の評価結果にもとづいて窓関数を設計し、前記レンジビンに前記窓関数を乗算する窓関数乗算部と、
     前記窓関数が乗算された前記レンジビンから位相誤差を推定して、前記観測画像を補正する位相誤差補正部と
     を備える合成開口レーダ信号処理装置。
  2.  前記位相評価部は、
     前記レンジビンの中から任意の1レンジビンを評価レンジビンとして選択する評価レンジビン選択部と、
     前記評価レンジビンの位相の算出範囲を決定する位相算出範囲決定部と、
     前記算出範囲における前記評価レンジビンの位相を求める位相算出部と、
     前記位相算出部によって求められた位相が直線位相であるか否かを判定する直線判定部と
     を含む請求項1記載の合成開口レーダ信号処理装置。
  3.  前記直線判定部は、
     前記位相算出部によって求められた位相の回帰直線を求める回帰直線算出部と、
     当該位相と前記回帰直線の相関係数を求める相関係数算出部と、
     前記相関係数をしきい値判定して当該位相が直線位相であるか否かを判定するしきい値判定部と
     を含む請求項2記載の合成開口レーダ信号処理装置。
  4.  前記直線判定部は、
     前記位相算出部によって求められた位相の回帰直線を求める回帰直線算出部と、
     前記位相算出部によって求められた位相と前記回帰直線との誤差を算出する誤差算出部と、
     前記誤差をしきい値判定して前記位相が直線位相であるかを判定するしきい値判定部と
     を含む請求項2記載の合成開口レーダ信号処理装置。
  5.  前記位相算出部は、前記算出範囲における前記評価レンジビンの周波数軸上の位相を算出し、
     前記直線判定部は、
     前記位相の勾配ベクトルを算出する勾配算出部と、
     前記勾配ベクトルの標準偏差を算出する標準偏差算出部と、
     前記標準偏差をしきい値判定して前記位相が直線位相であるか否かを判定するしきい値判定部と
     を含む請求項2記載の合成開口レーダ信号処理装置。
  6.  前記位相評価部は、前記レンジビン選択部によって選択された前記レンジビンから複数のレンジビンを選択し、
     前記位相誤差補正部は、前記複数のレンジビンの各々についてアジマス方向の位相が直線位相となる範囲をそれぞれ算出して、前記観測画像を補正する
     請求項1から請求項5のうちのいずれか1項に記載の合成開口レーダ信号処理装置。
  7.  前記レンジビン選択部によって選択されたレンジビンに対して、アジマス方向の振幅値がしきい値より高い範囲を決定する振幅評価部をさらに備え、
     前記振幅評価部は、前記範囲におけるレンジビンを前記位相評価部に出力する
     請求項1から請求項5のうちのいずれか1項に記載の合成開口レーダ信号処理装置。
  8.  観測画像から、孤立反射点の信号を含むレンジビンを選択し、
     前記レンジビンのアジマス方向の位相を評価し、
     前記評価の結果にもとづいて窓関数を設計し、前記レンジビンに前記窓関数を乗算し、
     前記窓関数が乗算された前記レンジビンから位相誤差を推定して、前記観測画像を補正する
     合成開口レーダ信号処理方法。
  9.  前記位相を評価するときに、
     前記レンジビンの中から任意の1レンジビンを評価レンジビンとして選択し、
     前記評価レンジビンの位相の算出範囲を決定し、
     前記算出範囲における前記評価レンジビンの位相を求め、
     求められた位相が直線位相であるか否かを判定する
     請求項8記載の合成開口レーダ信号処理方法。
  10.  前記直線位相であるか否かを判定するときに、
     求められた位相の回帰直線を求め、
     当該位相と前記回帰直線の相関係数を求め、
     前記相関係数をしきい値判定して当該位相が直線位相であるか否かを判定する 請求項9記載の合成開口レーダ信号処理方法。
  11.  前記直線位相であるか否かを判定するときに、
     求められた位相の回帰直線を求め、
     求められた位相と前記回帰直線との誤差を算出し、
     前記誤差をしきい値判定して前記位相が直線位相であるかを判定する
     請求項9記載の合成開口レーダ信号処理方法。
  12.  前記評価レンジビンの位相を求めるときに、前記算出範囲における前記評価レンジビンの周波数軸上の位相を算出し、
     前記直線位相であるか否かを判定するときに、
     前記位相の勾配ベクトルを算出し、
     前記勾配ベクトルの標準偏差を算出し、
     前記標準偏差をしきい値判定して前記位相が直線位相であるか否かを判定する
     請求項9記載の合成開口レーダ信号処理方法。
  13.  前記位相を評価するときに、選択された前記レンジビンから複数のレンジビンを選択し、
     前記観測画像を補正するときに、前記複数のレンジビンの各々についてアジマス方向の位相が直線位相となる範囲をそれぞれ算出して、前記観測画像を補正する
     請求項8から請求項12のうちのいずれか1項に記載の合成開口レーダ信号処理方法。
  14.  選択されたレンジビンに対して、アジマス方向の振幅値がしきい値より高い範囲を決定し、
     決定された前記範囲におけるレンジビンを対象として位相を評価する
     請求項8から請求項12のうちのいずれか1項に記載の合成開口レーダ信号処理方法。
  15.  コンピュータに、
     観測画像から、孤立反射点の信号を含むレンジビンを選択するレンジビン選択処理と、
     前記レンジビンのアジマス方向の位相を評価する位相評価処理と、
     前記位相評価処理の評価結果にもとづいて窓関数を設計し、前記レンジビンに前記窓関数を乗算する窓関数乗算処理と、
     前記窓関数が乗算された前記レンジビンから位相誤差を推定して、前記観測画像を補正する位相誤差補正処理と
     を実行させるための合成開口レーダ信号処理プログラム。
  16.  コンピュータに、
     前記位相評価処理で、
     前記レンジビンの中から任意の1レンジビンを評価レンジビンとして選択する評価レンジビン選択処理と、
     前記評価レンジビンの位相の算出範囲を決定する位相算出範囲決定処理と、
     前記算出範囲における前記評価レンジビンの位相を求める位相算出処理と、
     前記位相算出処理で求められた位相が直線位相であるか否かを判定する直線判定処理と
     を実行させる請求項15記載の合成開口レーダ信号処理プログラム。
  17.  コンピュータに、
     前記直線判定処理で、
     前記位相算出処理で求められた位相の回帰直線を求める回帰直線算出処理と、
     当該位相と前記回帰直線の相関係数を求める相関係数算出処理と、
     前記相関係数をしきい値判定して当該位相が直線位相であるか否かを判定するしきい値判定処理と
     を実行させる請求項16記載の合成開口レーダ信号処理プログラム。
  18.  コンピュータに、
     前記直線判定処理で、
     前記位相算出処理で求められた位相の回帰直線を求める回帰直線算出処理と、
     前記位相算出処理で求められた位相と前記回帰直線との誤差を算出する誤差算出処理と、
     前記誤差をしきい値判定して前記位相が直線位相であるかを判定するしきい値判定処理と
     を実行させる請求項16記載の合成開口レーダ信号処理プログラム。
  19.  コンピュータに、
     前記位相算出処理で、前記算出範囲における前記評価レンジビンの周波数軸上の位相を算出させ、
     前記直線判定処理で、
     前記位相の勾配ベクトルを算出する勾配算出処理と、
     前記勾配ベクトルの標準偏差を算出する標準偏差算出処理と、
     前記標準偏差をしきい値判定して前記位相が直線位相であるか否かを判定するしきい値判定処理と
     を実行させる請求項16記載の合成開口レーダ信号処理プログラム。
  20.  コンピュータに、
     前記位相評価処理で、前記レンジビン選択処理で選択された前記レンジビンから複数のレンジビンを選択させ、
     前記位相誤差補正処理で、前記複数のレンジビンの各々についてアジマス方向の位相が直線位相となる範囲をそれぞれ算出して、前記観測画像を補正する処理を実行させる
     請求項15から請求項19のうちのいずれか1項に記載の合成開口レーダ信号処理プログラム。
  21.  コンピュータに、
     前記レンジビン選択処理で選択されたレンジビンに対して、アジマス方向の振幅値がしきい値より高い範囲を決定する振幅評価処理をさらに実行させ、
     前記振幅評価処理で、前記範囲におけるレンジビンを前記位相評価処理に出力させる
     請求項15から請求項19のうちのいずれか1項に記載の合成開口レーダ信号処理プログラム。
PCT/JP2017/023238 2017-06-23 2017-06-23 合成開口レーダ信号処理装置、方法およびプログラム WO2018235271A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/625,154 US11662459B2 (en) 2017-06-23 2017-06-23 Synthetic-aperture-radar-signal processing device, method, and program
JP2019524833A JP7056655B2 (ja) 2017-06-23 2017-06-23 合成開口レーダ信号処理装置、方法およびプログラム
PCT/JP2017/023238 WO2018235271A1 (ja) 2017-06-23 2017-06-23 合成開口レーダ信号処理装置、方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/023238 WO2018235271A1 (ja) 2017-06-23 2017-06-23 合成開口レーダ信号処理装置、方法およびプログラム

Publications (1)

Publication Number Publication Date
WO2018235271A1 true WO2018235271A1 (ja) 2018-12-27

Family

ID=64737628

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/023238 WO2018235271A1 (ja) 2017-06-23 2017-06-23 合成開口レーダ信号処理装置、方法およびプログラム

Country Status (3)

Country Link
US (1) US11662459B2 (ja)
JP (1) JP7056655B2 (ja)
WO (1) WO2018235271A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113960602B (zh) * 2021-12-22 2022-05-20 中科星睿科技(北京)有限公司 轨道误差信息生成方法、装置、电子设备和可读介质
CN113985404B (zh) * 2021-12-30 2022-03-25 湖南师范大学 一种高分辨率跑道外来物探测系统及其相位漂移校正方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4924229A (en) * 1989-09-14 1990-05-08 The United States Of America As Represented By The United States Department Of Energy Phase correction system for automatic focusing of synthetic aperture radar
JP2003215240A (ja) * 2002-01-29 2003-07-30 Mitsubishi Electric Corp 合成開口レーダ装置及び像再生方法
JP2013253889A (ja) * 2012-06-07 2013-12-19 Furuno Electric Co Ltd 物標識別装置、レーダ装置、物標識別方法およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5248976A (en) 1991-11-27 1993-09-28 Hughes Aircraft Company Multiple discrete autofocus
US6037892A (en) * 1998-05-28 2000-03-14 Multispec Corporation Method for automatic focusing of radar or sonar imaging systems using high-order measurements
JP2004198275A (ja) 2002-12-19 2004-07-15 Mitsubishi Electric Corp 合成開口レーダ装置および画像再生方法
JP6016529B2 (ja) 2012-08-27 2016-10-26 三菱電機株式会社 合成開口レーダ装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4924229A (en) * 1989-09-14 1990-05-08 The United States Of America As Represented By The United States Department Of Energy Phase correction system for automatic focusing of synthetic aperture radar
JP2003215240A (ja) * 2002-01-29 2003-07-30 Mitsubishi Electric Corp 合成開口レーダ装置及び像再生方法
JP2013253889A (ja) * 2012-06-07 2013-12-19 Furuno Electric Co Ltd 物標識別装置、レーダ装置、物標識別方法およびプログラム

Also Published As

Publication number Publication date
US20210333389A1 (en) 2021-10-28
JP7056655B2 (ja) 2022-04-19
US11662459B2 (en) 2023-05-30
JPWO2018235271A1 (ja) 2020-04-16

Similar Documents

Publication Publication Date Title
US7728757B2 (en) Autofocus for minimum entropy through multi-dimensional optimization
Miller et al. Bayesian galaxy shape measurement for weak lensing surveys–I. Methodology and a fast-fitting algorithm
US7999724B2 (en) Estimation and correction of error in synthetic aperture radar
US9110167B2 (en) Correction of spatially variant phase error for synthetic aperture radar
US20200400813A1 (en) Radar image processing device and radar image processing method
JP2018206382A (ja) 画像処理システム及び医用情報処理システム
CN102930506B (zh) 图像处理装置、图像处理方法和图像拾取装置
JP6072240B2 (ja) オートフォーカスデータから導き出されるナビゲーション解を使用するワイドビームsar焦点合わせ方法
US10084616B2 (en) Peak cancellation-crest factor reduction device, peak-to-average power ratio reduction method, and peak value determination device
Repetti et al. Non-convex optimization for self-calibration of direction-dependent effects in radio interferometric imaging
US10495750B1 (en) Spectral replacement to mitigate interference for multi-pass synthetic aperture radar
WO2014103175A1 (ja) 歪み補償装置及び歪み補償方法
JP7056655B2 (ja) 合成開口レーダ信号処理装置、方法およびプログラム
US9947083B2 (en) Image processing method, image processing apparatus, image capturing apparatus, image processing program and non-transitory computer-readable storage medium
JP2010127771A (ja) 合成開口ソーナー、合成開口ソーナーの位相誤差補正方法及びプログラム
JP4793240B2 (ja) 高分解能レーダ装置
Makarov Two-dimensional autofocus technique based on spatial frequency domain fragmentation
JP4763494B2 (ja) レーダ装置及び画像処理方法
US20180218477A1 (en) Data interpolation device, method therefor, and image processing apparatus
CN114217266A (zh) 基于天线数据时域拟合的降低信道误差的处理方法
US8335395B2 (en) Noise reduction apparatus having edge enhancement function and method thereof
US9679355B2 (en) Image processing device
US11100622B2 (en) Image processing device, image processing program and image processing method, and image transmission/reception system and image transmission/reception method
US20100297974A1 (en) Orthogonality compensating device, radio receiving device, orthogonality compensating method, and non-transitory computer readable medium
JP2012013607A (ja) 信号処理装置、レーダ装置、信号処理方法、および信号処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17915124

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019524833

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17915124

Country of ref document: EP

Kind code of ref document: A1