WO2021186557A1 - データ処理装置およびデータ処理方法 - Google Patents

データ処理装置およびデータ処理方法 Download PDF

Info

Publication number
WO2021186557A1
WO2021186557A1 PCT/JP2020/011744 JP2020011744W WO2021186557A1 WO 2021186557 A1 WO2021186557 A1 WO 2021186557A1 JP 2020011744 W JP2020011744 W JP 2020011744W WO 2021186557 A1 WO2021186557 A1 WO 2021186557A1
Authority
WO
WIPO (PCT)
Prior art keywords
correlation
phase difference
data processing
evaluation function
matrix
Prior art date
Application number
PCT/JP2020/011744
Other languages
English (en)
French (fr)
Inventor
大地 田中
宝珠山 治
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2020/011744 priority Critical patent/WO2021186557A1/ja
Priority to JP2022508661A priority patent/JP7396462B2/ja
Priority to US17/909,637 priority patent/US20230351567A1/en
Publication of WO2021186557A1 publication Critical patent/WO2021186557A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9021SAR image post-processing techniques
    • G01S13/9027Pattern recognition for feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9021SAR image post-processing techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Definitions

  • the present invention relates to a data processing device and a data processing method applicable to an image analysis system that performs image analysis based on the phase of received electromagnetic waves of a synthetic aperture radar.
  • Synthetic Aperture Radar (SAR) technology is a technology that transmits and receives electromagnetic waves while flying objects such as artificial satellites and aircraft move, and obtains observation images equivalent to antennas with large apertures.
  • Synthetic aperture radar is used, for example, to process reflected waves from the ground surface and analyze altitude, ground surface displacement, and the like.
  • the analysis device inputs a time-series SAR image (SAR data) obtained by a synthetic aperture radar, and analyzes the input SAR image in a time-series manner.
  • Interference SAR analysis is an effective method for analyzing altitude and surface displacement.
  • the phase difference of the radio wave signals constituting a plurality of (for example, two) SAR images taken at different times is calculated. Then, the change in the distance between the flying object and the ground that occurs during the shooting period is detected based on the phase difference.
  • Patent Document 1 describes an analysis method using a coherence matrix.
  • the coherence matrix represents the correlation of pixels at the same position in multiple complex images.
  • Coherence is calculated by the complex correlation of pixels at the same position in a plurality of SAR images in N (N ⁇ 2) SAR images.
  • the pair of SAR images be (m, n) and the components of the coherence matrix be cm, n .
  • m and n are values of N or less, respectively, and indicate any of N SAR images.
  • the phases ⁇ m and n are calculated.
  • the absolute value of the value obtained by averaging exp ( ⁇ j ⁇ m, n ) for a plurality of pixels in a predetermined region including the pixel to be calculated for coherence is the component cm, n of the coherence matrix.
  • the intensity of the SAR image m A m the strength in the SAR image n as A n, A m ⁇ A n ⁇ exp (-j ⁇ m, n) and may be averaged.
  • the coherence matrix contains information such as dispersion that can estimate the degree of phase noise.
  • the phases ⁇ m and n correlate with the displacement velocity and the difference in shooting time.
  • the displacement is estimated based on the average value of the phase differences. It is possible to verify the accuracy of displacement analysis using the amount of phase noise. Therefore, the coherence matrix can be used for displacement analysis.
  • the phases ⁇ m, n correlate with the elevation of the object to be analyzed and the distance between the projectiles (for example, the distance between two imaging positions of the projectile).
  • the altitude is estimated based on the average value of the phase differences. It is possible to verify the accuracy of elevation analysis using the amount of phase noise. Therefore, the coherence matrix can be used for elevation analysis.
  • Patent Document 1 describes a method of fitting a model such as displacement to a coherence matrix and restoring a phase excluding the influence of noise. Further, Non-Patent Document 1 also discloses a similar method.
  • noise included in the phase difference can be reduced.
  • the noise included in the phase difference is as small as possible, so that more noise is desired to be removed.
  • An object of the present invention is to provide a data processing apparatus and a data processing method capable of increasing the degree of phase noise reduction.
  • the data processing apparatus provides coherence matrix calculation means for calculating a coherence matrix representing the correlation of pixels corresponding to the same positions of a plurality of complex images, and prior information regarding spatial correlation which is the correlation of pixels in each of the plurality of complex images.
  • the spatial correlation generating means that generates the data to be represented and the pixel correlation and spatial correlation related to the coherence matrix are integrated, and based on the integrated correlation, statistically plausible and consistent phase difference is removed from noise. It includes a phase difference estimation means calculated as the calculated phase difference.
  • the data processing method calculates a coherence matrix representing the correlation of pixels corresponding to the same position in a plurality of complex images, and generates data representing prior information regarding the spatial correlation which is the correlation of the pixels in each of the plurality of complex images.
  • the pixel correlation and the spatial correlation for the coherence matrix are integrated, and based on the integrated correlation, a statistically plausible and consistent phase difference is calculated as the noise-removed phase difference.
  • the data processing program provides a computer with prior information regarding a process of calculating a coherence matrix representing the correlation of pixels corresponding to the same positions of a plurality of complex images and a spatial correlation which is the correlation of the pixels in each of the plurality of complex images.
  • the process of generating the data to be represented is integrated with the pixel correlation and spatial correlation related to the coherence matrix, and the statistically plausible and consistent phase difference is noise-removed based on the integrated correlation.
  • the process of calculating as a phase difference is executed.
  • the degree of phase noise reduction can be further increased.
  • FIG. 1 is a block diagram showing a configuration example of the data processing device of the first embodiment.
  • the data processing device 10 shown in FIG. 1 includes a coherence matrix calculation unit 120, a spatial correlation prediction unit 140, and a phase estimation unit 160.
  • the data processing device 10 can obtain a phase (specifically, a phase difference) in which phase noise is reduced.
  • N N ⁇ 3 SAR images (complex image: including amplitude and phase information) are stored in the SAR image storage unit (not shown). ..
  • the coherence matrix calculation unit 120 calculates the coherence matrix using the phase of the pixels.
  • the spatial correlation prediction unit 140 predicts the correlation coefficient of pixels in an image and generates a spatial correlation matrix which is a matrix having the correlation coefficient as an element.
  • the phase estimation unit 160 estimates a consistent phase (specifically, a phase difference) based on the coherence matrix and considering the spatial correlation matrix.
  • the coherence matrix calculation unit 120 calculates the coherence matrix from the SAR image stored in the SAR image storage unit is taken as an example, but as will be described later, the coherence matrix calculation unit 120
  • the calculation of the coherence matrix from the SAR image stored in the SAR image storage unit is an example.
  • the coherence matrix calculation unit 120 can also calculate the coherence matrix using other information (data).
  • FIG. 2 is an explanatory diagram for explaining a consistent phase.
  • FIG. 2 illustrates three SAR images.
  • the number inside the rectangle showing the SAR image indicates the image number.
  • the phase difference between the image 3 and the image 1 is equal to the sum of the phase difference between the image 1 and the image 2 and the phase difference between the image 2 and the image 3, that is, when the following equation is satisfied.
  • images 1 to 3 the state of "consistent phase" is achieved.
  • ⁇ ab indicates the phase difference between the image a and the image b.
  • the phase difference between the two SAR images means the phase difference of the corresponding pixels in each image.
  • the phase in the SAR image is in the state of "consistent phase".
  • satisfying the above equation may mean satisfying the constraint.
  • Coherence matrix calculator 120 calculates the coherence matrix C p as target N pieces of SAR images stored for example in the SAR image storage unit (step S110). As described above, for example, let the pair of SAR images be (m, n), and let the components of the coherence matrix C p be cm, n . m and n are values of N or less, respectively, and indicate any of N SAR images. The coherence matrix calculation unit 120 calculates the phases ⁇ m and n (specifically, the phase difference) for the pair of SAR images.
  • the coherence matrix calculation unit 120 sets the average value of exp ( ⁇ j ⁇ m, n ) of a plurality of pixels in a predetermined region including the pixel to be coherence calculation as the components c m, n of the coherence matrix C p. do.
  • the intensity A m, A in lump A n m, A n exp ( -j ⁇ m, n) may be obtained coherence matrix by averaging. Further, the coherence matrix calculation unit 120, assuming that the coherence matrix obtained including the intensity is ⁇ , multiplies all the elements of the matrix by a constant so that the average of the diagonal components becomes 1. The coherence matrix may be recalculated in a way that is not affected by the average intensity. Further, the coherence matrix calculation unit 120 may multiply the coherence matrix ⁇ obtained in this way including the intensity by the diagonal matrix from the left and right of ⁇ so that the diagonal components are all 1.
  • the coherence matrix calculation unit 120 provides information other than SAR, such as whether vegetation is included or an artificial structure made of concrete is included, for the area to be analyzed, and under what shooting conditions the input SAR image is input. Based on information such as whether each image was photographed, it is possible to estimate how much noise is added to which pair of imaging conditions and use it as a coherence matrix.
  • the spatial correlation prediction unit 140 creates (calculates) spatial correlation (correlation of pixels in the analysis target region) based on prior information (known data) regarding the analysis target region (may be the entire region) in the SAR image (calculation).
  • Step S120 The execution order of the process of step S110 and the process of step S120 is not limited to the order shown in FIG. For example, the process of step S120 may be executed before the process of step S110, or both processes may be executed at the same time.
  • Spatial correlation is given to the data processing device 10 in advance, and is represented by, for example, a spatial correlation matrix K having a correlation coefficient as an element.
  • the spatial correlation matrix K is an example of the representation of the spatial correlation, and other representations may be used.
  • the prior information for example, the following information is exemplified.
  • -Rough shape of the analysis target for example, the structure to be the target of displacement analysis
  • the analysis target for example, the structure to be the target of displacement analysis
  • the image analysis system to which the data processing device 10 is applied.
  • a spatial correlation is created so that the pixels have a smooth correlation in the stretching direction of the structure.
  • -Weights in graphs with known correlations nodes: pixels, edges (weights): correlations).
  • a spatial correlation matrix K having a value based on the weight as an element is created.
  • the prior information is not limited to the above example, and may be other types of information as long as the spatial correlation of the analysis target can be predicted.
  • the phase estimation unit 160 integrates the correlations of both and calculates a statistically plausible and consistent phase (specifically, a phase difference) (step S130).
  • the phase noise can be reduced more effectively.
  • FIG. 4 is a block diagram showing a configuration example of the data processing device of the second embodiment.
  • the data processing device 20 shown in FIG. 4 includes a coherence matrix calculation unit 120, a spatial correlation prediction unit 140, and a phase estimation unit 170.
  • the phase estimation unit 170 includes a first evaluation function generation unit 171, a second evaluation function generation unit 172, and a phase calculation unit 173.
  • the data processing device 20 of the second embodiment corresponds to a data processing device in which the data processing device 10 of the first embodiment shown in FIG. 1 is embodied.
  • the coherence matrix calculation unit 120 calculates the coherence matrix from the SAR image stored in the SAR image storage unit (not shown) is taken as an example.
  • the coherence matrix may be calculated using other information (data).
  • First evaluation function generation unit 171 inputs the coherence matrix C p, to produce a first evaluation function (observation signal evaluation function).
  • Observed signal evaluation function is the observed signal and evaluation function based on the noise-free phase corresponding to the coherence matrix C p.
  • the second evaluation function generation unit 172 inputs a spatial correlation (for example, a spatial correlation matrix K) and generates a second evaluation function (spatial correlation evaluation function) indicating that the phase difference is smoothly distributed in the image. do.
  • the second evaluation function generation unit 172 generates a spatial correlation evaluation function that includes information (data) indicating how smooth the phase should be calculated spatially.
  • the phase calculation unit 173 calculates the phase estimated to be noise-free by using the observation signal evaluation function and the spatial correlation evaluation function.
  • Coherence matrix calculation unit 120 calculates a coherence matrix C p as target N pieces of SAR images stored in the SAR image storage unit (step S110).
  • the first evaluation function generation unit 171 generates an observation signal evaluation function (step S111). That is, the first evaluation function generation unit 171 generates an evaluation function for evaluating the correlation with the observation function for the phase difference from which noise has been removed.
  • the spatial correlation prediction unit 140 creates (calculates) the spatial correlation based on the prior information regarding the analysis target region in the SAR image, as in the case of the first embodiment (step S120).
  • the case where the spatial correlation prediction unit 140 generates the spatial correlation matrix K is taken as an example.
  • the second evaluation function generation unit 172 generates a spatial correlation evaluation function (step S121). That is, the second evaluation function generation unit 172 generates an evaluation function for evaluating the degree of matching between the spatial correlation of the phase difference from which noise has been removed and the spatial correlation matrix K.
  • the phase calculation unit 173 estimates a consistent phase difference by maximizing both the observation signal evaluation function and the spatial correlation evaluation function (step S131).
  • the phase noise is removed by using the spatial correlation evaluation function of the pixels in the SAR image, so that the phase noise can be reduced more effectively.
  • FIG. 6 is a block diagram showing a configuration example of the data processing device of the third embodiment.
  • the data processing device 30 shown in FIG. 6 includes a coherence matrix calculation unit 120, a spatial correlation prediction unit 140, and a phase estimation unit 180.
  • the phase estimation unit 180 includes a first evaluation function generation unit 181, a second evaluation function generation unit 182, an evaluation function integration unit 183, a pixel value estimation unit 184, and a phase acquisition unit 185.
  • the data processing device 30 of the third embodiment corresponds to a data processing device in which the data processing device 20 of the second embodiment shown in FIG. 4 is more embodied.
  • the coherence matrix calculation unit 120 calculates the coherence matrix from the SAR image stored in the SAR image storage unit (not shown) is taken as an example.
  • the coherence matrix may be calculated using other information (data).
  • First evaluation function generation unit 181 inputs the coherence matrix C p, to produce a first evaluation function (observation signal evaluation function).
  • the evaluation function of Eq. (1) is used as the observation signal evaluation function.
  • the operation using the inverse matrix of C is executed.
  • the inverse matrix of C corresponds to the weights based on the coherence matrix.
  • the second evaluation function generation unit 182 inputs the spatial correlation matrix K and generates a second evaluation function (spatial correlation evaluation function) indicating that the phase difference is smoothly distributed in the image.
  • the evaluation function of Eq. (2) is used as the spatial correlation evaluation function.
  • the operation using the inverse matrix of the spatial correlation matrix K is executed.
  • the inverse matrix of the spatial correlation matrix K corresponds to the weights based on prior information.
  • the evaluation function integration unit 183 integrates the observation signal evaluation function and the spatial correlation evaluation function.
  • the evaluation function of Eq. (3) is used as the integrated evaluation function.
  • y n and p indicate the observed pixel values at the position P (pixel p) in the n (n: 1 to N) th image.
  • x n and p indicate noise-free pixel values (pixel values from which noise has been removed) at the position p (pixel p) in the nth image.
  • "H” represents a complex conjugate transpose.
  • C p is a coherence matrix at pixel p.
  • N on the right side is the probability density function in the complex normal distribution.
  • "0" is an average value.
  • the x ⁇ , px ⁇ H , and p on the right side of the “ ⁇ ” indicating the Hadamard product correspond to the phase difference in the pixel p of the observed image.
  • the result of the Hadamard product corresponds to the variance-covariance matrix.
  • each image n represents the value of each pixel of each (n 1 ⁇ N) (in the case where noise is removed). Since the spatial correlation (specifically, the spatial correlation matrix K) is set on the right side of the vertical line indicating the condition (constraint), x Hn , . follows the spatial correlation.
  • Equation (3) ⁇ indicates the infinite product. Therefore, the evaluation function of Eq. (3) corresponds to the product of the observation signal evaluation function and the spatial correlation evaluation function for all the pixels in all the images (N images). Then, the pixel value estimation unit 184 finds x that maximizes the evaluation function of the equation (3). To find x that maximizes the evaluation function, the correlation between the phase based on the observed pixel value and the noise-removed phase difference and the correlation between the noise-removed pixels are based on the coherence matrix. Corresponds to increasing under weights and prior information-based weights.
  • phase difference between the image m and the image n is obtained as shown in (4). That is, the phase acquisition unit 185 obtains the phase difference based on the product of the pixel value in the image m and the complex conjugate of the pixel value of the corresponding pixel in the image n.
  • Coherence matrix calculation unit 120 as in the second embodiment, to calculate the coherence matrix C p as target N pieces of SAR images stored in the SAR image storage unit (step S110).
  • the first evaluation function generation unit 181 generates an observation signal evaluation function (step S111). That is, the first evaluation function generation unit 181 generates the evaluation function of the equation (1).
  • the spatial correlation prediction unit 140 creates (calculates) the spatial correlation (in this example, the spatial correlation matrix K) based on the prior information regarding the analysis target region in the SAR image (in this example). Step S120).
  • the second evaluation function generation unit 182 generates a spatial correlation evaluation function (step S121). That is, the second evaluation function generation unit 182 generates the evaluation function of the equation (2).
  • the evaluation function integration unit 183 integrates the observation signal evaluation function and the spatial correlation evaluation function (step S132). That is, the evaluation function integration unit 183 generates the evaluation function of the equation (3).
  • the pixel value estimation unit 184 finds x that maximizes the evaluation function of the equation (3) (step S133).
  • the phase acquisition unit 185 obtains the product of the pixel value in the image m and the complex conjugate of the pixel value of the corresponding pixel in the image n (see (4)), and obtains the phase difference based on the obtained product (step S134). .. Specifically, the phase acquisition unit 185 obtains the argument of the product (complex number) as the phase difference.
  • the constraint on "consistent phase” is satisfied by estimating the phase difference based on the pixel value x after calculating the pixel value x. Specifically, after a certain phase value is assigned to each image, the phase difference is calculated again, so that the constraint is satisfied.
  • FIG. 8 is a block diagram showing a configuration example of the data processing device of the fourth embodiment.
  • the data processing device 40 shown in FIG. 8 includes a coherence matrix calculation unit 120, a spatial correlation prediction unit 140, and a phase estimation unit 190.
  • the phase estimation unit 190 includes a first evaluation function component generation unit 191, a second evaluation function component generation unit 192, an evaluation function integration unit 193, a pixel value estimation unit 194, and a phase acquisition unit 195.
  • the coherence matrix calculation unit 120 calculates the coherence matrix from the SAR image stored in the SAR image storage unit (not shown) is taken as an example.
  • the coherence matrix may be calculated using other information (data).
  • the first evaluation function component generation unit 191 and the second evaluation function component generation unit 192 are the first evaluation function generation unit 181 and the second evaluation function in the third embodiment. A process different from that of the generation unit 182 is executed. That is, the first evaluation function component generation unit 191 generates a matrix for evaluating the observation signal of the second term on the right side of the equation (5). The second evaluation function component generation unit 192 generates a matrix for evaluating the spatial correlation of the first term on the right side of the equation (5). Note that in (5), the inverse matrix of C p is equivalent to a weight-based coherence matrix. Further, the inverse matrix of the spatial correlation matrix K corresponds to the weight based on the prior information.
  • y n and p indicate the observed pixel values at the position P (pixel p) in the n (n: 1 to N) th image.
  • the observed pixel value may be multiplied by a real number in each image and each pixel so that the absolute value becomes 1 in all the pixels in all the images.
  • each pixel may be multiplied by a real number common to all images so that the average of the absolute values for each pixel or the average of the squares of the absolute values among all the images is 1.
  • x n and p indicate pixel values without noise at the position P (pixel p) in the nth image.
  • IN is an N ⁇ N identity matrix.
  • e p is, p-th row are other rows 1 is a column vector of 0.
  • T represents transpose.
  • the matrix generated by Eq. (5) is integrated by taking the product with vc (x) in the form of (6) below, and becomes an evaluation function for x.
  • Such an evaluation function takes a logarithm with respect to the evaluation function of Eq. (3) in the third embodiment and adds a negative sign, that is, the part of the negative log likelihood that depends on x is in the form of a matrix.
  • maximizing the equation (3) is equivalent to minimizing the equation (6).
  • the evaluation function integration unit 193 creates an evaluation function based on the matrix according to equation (5).
  • the pixel value estimation unit 194 finds x that minimizes the evaluation function.
  • the phase acquisition unit 195 obtains the phase difference based on x.
  • Coherence matrix calculation unit 120 calculates a coherence matrix C p as target N pieces of SAR images stored in the SAR image storage unit (step S110).
  • the first evaluation function component generation unit 191 generates a matrix for evaluating the observed signal (step S112).
  • the first evaluation function component generation unit 191 generates the matrix of the second term on the right side of the equation (5) in the process of step S112.
  • the spatial correlation prediction unit 140 creates (calculates) the spatial correlation (in this example, the spatial correlation matrix K) based on the prior information regarding the analysis target region in the SAR image (in this example). Step S120).
  • the second evaluation function component generation unit 192 generates a matrix for evaluating the spatial correlation (step S122).
  • the second evaluation function component generation unit 192 generates the matrix of the first term on the right side of the equation (5) in the process of step S122.
  • the evaluation function integration unit 193 creates an evaluation function based on the generated matrix (step S135).
  • the evaluation function integration unit 193 generates the evaluation function according to (6) in the process of step S135.
  • the pixel value estimation unit 194 finds x that minimizes the evaluation function according to (6) (step S136).
  • vc (x) is a vector in which x is converted into a column vector. It should be noted that finding x that minimizes (6) below is a coherence of the correlation between the phase based on the observed pixel value and the noise-removed phase difference, and the correlation between the noise-removed pixels. Corresponds to increasing under matrix-based weights and prior information-based weights.
  • the phase acquisition unit 195 obtains the product of the pixel value in the image m and the complex conjugate of the pixel value of the corresponding pixel in the image n (see (4)), and obtains the phase difference based on the obtained product (step S137). .. Specifically, the phase acquisition unit 195 obtains the argument of the product (complex number) as the phase difference.
  • the constraint on "consistent phase” is satisfied by estimating the phase difference based on the pixel value x after calculating the pixel value x. Specifically, after a certain phase value is assigned to each image, the phase difference is calculated again, so that the constraint is satisfied.
  • Embodiment 5 The configuration of the data processing device of the fifth embodiment may be the same as the configuration of the data processing device 40 of the fourth embodiment shown in FIG. Further, the operation of the data processing device of the fifth embodiment may be the same as the operation shown in the flowchart of FIG. However, in the fifth embodiment, the second evaluation function component generation unit 192 generates an evaluation function different from the evaluation function in the fourth embodiment. That is, in the fifth embodiment, assuming that the spatial correlation matrix is K n (n: 1 to N), the second evaluation function component generation unit 192 has K n as an element as shown in Eq. (7). Generate a diagonal matrix.
  • the coherence matrix calculation unit 120 calculates the coherence matrix from the SAR image stored in the SAR image storage unit (not shown) is taken as an example.
  • the coherence matrix may be calculated using other information (data).
  • the spatial correlation is the same for all N images.
  • the fifth embodiment is useful when it is desired to make the spatial correlation (in this example, the spatial correlation matrix Kn (n: 1 to N)) of each of the N images different. That is, the fifth embodiment can deal with the case where the spatial correlation of each of the N images is different.
  • Coherence matrix calculation unit 120 as in the fourth embodiment, to calculate the coherence matrix C p as target N pieces of SAR images stored in the SAR image storage unit (step S110).
  • the first evaluation function component generation unit 191 generates a matrix for evaluating the observed signal (step S112).
  • the first evaluation function component generation unit 191 generates a matrix for evaluating the observation signal of the second term on the right side of the equation (8) in the process of step S112.
  • the inverse matrix of C p corresponds to the weight based on the coherence matrix in pixel p.
  • the inverse matrix of the spatial correlation matrix K n corresponds to the weight based on the prior information.
  • the spatial correlation prediction unit 140 creates (calculates) the spatial correlation (in this example, the spatial correlation matrix Kn) based on the prior information regarding the analysis target region in the SAR image. (Step S120).
  • the second evaluation function component generation unit 192 generates a matrix for evaluating the spatial correlation (step S122).
  • the second evaluation function component generation unit 192 generates a block diagonal matrix having the spatial correlation matrix Kn as an element (diagonal component) in the process of step S122, and (8) A matrix for evaluating the spatial correlation of the first term on the right side of the equation is generated.
  • the evaluation function integration unit 193 creates an evaluation function based on the generated matrix (step S135). Also in the fifth embodiment, the evaluation function integration unit 193 generates the evaluation function according to (6). The pixel value estimation unit 194 obtains x that minimizes the above (6) (step S136).
  • the phase acquisition unit 195 obtains the product of the pixel value in the image m and the complex conjugate of the pixel value of the corresponding pixel in the image n (see (4)), and obtains the phase difference based on the obtained product (step S137). .. Specifically, the phase acquisition unit 195 obtains the argument of the product (complex number) as the phase difference.
  • the constraint on "consistent phase” is satisfied by estimating the phase difference based on the pixel value x after calculating the pixel value x. Specifically, after a certain phase value is assigned to each image, the phase difference is calculated again, so that the constraint is satisfied.
  • FIG. 10 is a block diagram showing a configuration example of the data processing device of the sixth embodiment.
  • the data processing device 50 shown in FIG. 10 includes a coherence matrix calculation unit 120, a spatial correlation prediction unit 140, and a phase estimation unit 200.
  • the phase estimation unit 200 includes a first evaluation function component generation unit 201, a second evaluation function component generation unit 202, an evaluation function integration unit 203, a pixel value estimation unit 204, and a phase acquisition unit 205.
  • the coherence matrix calculation unit 120 calculates the coherence matrix from the SAR image stored in the SAR image storage unit (not shown) is taken as an example.
  • the coherence matrix may be calculated using other information (data).
  • the first evaluation function component generation unit 201 generates a matrix for evaluating the observation signal of the second term on the right side of the above equation (5).
  • the second evaluation function component generation unit 202 generates a matrix for evaluating the spatial correlation of the first term on the right side of the equation (5).
  • the equation (5) is used as in the case of the fourth embodiment, but in the sixth embodiment, the idea of the fifth embodiment is applied and the equation (8) is applied. May be used.
  • the evaluation function integration unit 203 integrates the matrix for evaluating the observed signal and the matrix for evaluating the spatial correlation to obtain tr ( ⁇ X H). “Tr” is a trace (sum of the diagonal components of the matrix).
  • the pixel value estimation unit 204 finds X that minimizes the value of the predetermined evaluation formula.
  • the phase acquisition unit 205 obtains a phase difference based on X.
  • the matrix X is a matrix corresponding to (9) below. However, while the matrix X calculated in (9) always has a rank of 1, in the present embodiment, the matrix X may be a matrix having a small rank, which will be described later.
  • Coherence matrix calculation section 120 as in the case of a fourth embodiment, to calculate the coherence matrix C p as target N pieces of SAR images stored in the SAR image storage unit (step S110).
  • the first evaluation function component generation unit 201 generates a matrix for evaluating the observed signal (step S112).
  • the first evaluation function component generation unit 201 generates a matrix for evaluating the observation signal of the second term on the right side of the equation (5) in the process of step S112.
  • the spatial correlation prediction unit 140 creates (calculates) the spatial correlation (in this example, the spatial correlation matrix K) based on the prior information regarding the analysis target region in the SAR image, as in the case of the fourth embodiment or the like. (Step S120).
  • the second evaluation function component generation unit 202 generates a matrix for evaluating the spatial correlation (step S122).
  • the second evaluation function component generation unit 202 generates a matrix for evaluating the spatial correlation of the first term on the right side of the equation (5) in the process of step S122.
  • Evaluation function integration unit 203 integrates the generated matrices to obtain tr ( ⁇ X H) (step S138).
  • Pixel value estimating unit 204 calculates the X that minimizes and tr ( ⁇ X H) and rank (X) (step S139). "Rank" is the rank of the matrix. It should be noted that finding X that minimizes tr ( ⁇ X H ) and rank (X) is the correlation between the phase based on the observed pixel value and the noise-removed phase difference, and the pixel after noise removal. It corresponds to increasing the correlation between them under the weights based on the coherence matrix and the weights based on the prior information.
  • the phase acquisition unit 205 obtains a phase difference based on the obtained X, that is, the estimated X and the value obtained by using the following (10) (step S140). Specifically, the phase acquisition unit 195 obtains the declination of the obtained value (complex number) as the phase difference.
  • Consistent phase is meant to mean that the values match when the phase difference is recalculated from any other combination of phase differences. That is, the constraint of "consistent phase” is that the calculation results match regardless of the combination of phase differences.
  • the constraint of "consistent phase” is relaxed.
  • FIG. 12 is a block diagram showing a configuration example of the data processing device according to the seventh embodiment.
  • the data processing device 60 shown in FIG. 12 includes a coherence matrix calculation unit 120, a spatial correlation prediction unit 140, and a phase estimation unit 210.
  • the phase estimation unit 210 includes a first evaluation function component generation unit 211, a second evaluation function component generation unit 212, an evaluation function integration unit 213, a pixel value estimation unit 214, and a phase acquisition unit 215.
  • the coherence matrix calculation unit 120 calculates the coherence matrix from the SAR image stored in the SAR image storage unit (not shown) is taken as an example.
  • the coherence matrix may be calculated using other information (data).
  • the first evaluation function component generation unit 211 generates a matrix for evaluating the observation signal of the second term on the right side of the equation (11).
  • the second evaluation function component generation unit 212 generates a matrix for evaluating the spatial correlation of the first term on the right side of the equation (11).
  • the spatial correlation matrix K is first generated.
  • , (12) is used for low-dimensional decomposition.
  • a method called Nystrom approximation may be used. That is, a non-overlapping random integer column having the maximum number of rows of K is generated, and a matrix obtained by extracting and arranging only the vectors of the columns corresponding to the integer columns is U, and the rows corresponding to the integer columns from U.
  • the inverse matrix of the matrix obtained by extracting and arranging the vectors of may be set as D.
  • K may be decomposed into singular values, and the singular vector of the upper singular value may be arranged as U, and the diagonal matrix in which the upper singular value is arranged as the diagonal component may be D.
  • D is a matrix of d ⁇ d (d ⁇ N).
  • the evaluation function integration unit 213 creates an evaluation function based on the generated matrix.
  • the pixel value estimation unit 214 finds x that minimizes the value of the evaluation function.
  • the phase acquisition unit 215 obtains the phase difference based on x.
  • Coherence matrix calculation section 120 as in the case of a fourth embodiment, to calculate the coherence matrix C p as target N pieces of SAR images stored in the SAR image storage unit (step S110).
  • the first evaluation function component generation unit 211 generates a matrix for evaluating the observed signal (step S112).
  • the first evaluation function component generation unit 211 generates a matrix for evaluating the observation signal of the second term on the right side of the equation (11) in the process of step S112.
  • the spatial correlation prediction unit 140 creates (calculates) the spatial correlation (in this example, the spatial correlation matrix K) based on the prior information regarding the analysis target region in the SAR image, as in the case of the fourth embodiment or the like. (Step S120).
  • the second evaluation function component generation unit 212 generates a matrix for evaluating the spatial correlation after low-dimensional decomposition of the spatial correlation matrix K (step S122).
  • the second evaluation function component generation unit 212 generates a matrix for evaluating the spatial correlation of the first term on the right side of the equation (11) in the process of step S122.
  • the evaluation function integration unit 213 creates an evaluation function based on the generated matrix (step S141). In the seventh embodiment, the evaluation function integration unit 213 generates the evaluation function according to (13).
  • the pixel value estimation unit 214 finds x that minimizes the evaluation function (step S142).
  • the phase acquisition unit 215 obtains a phase difference based on the obtained x, that is, the estimated x and the value obtained by using the above (4) (step S143). Specifically, the phase acquisition unit 215 obtains the declination of the obtained value (complex number) as the phase difference.
  • the constraint on "consistent phase” is satisfied by estimating the phase difference based on the pixel value x after calculating the pixel value x. Specifically, after a certain phase value is assigned to each image, the phase difference is calculated again, so that the constraint is satisfied.
  • the second evaluation function component generation unit 212 reduces the number of dimensions of the spatial correlation matrix K, it is possible to reduce the amount of calculation for the spatial correlation matrix, which has a particularly large amount of calculation. .. As a result, for example, when the data processing device is realized by a computer (processor), the time required for processing is shortened.
  • the spatial correlation matrix K is defined by the Kronecker product of the vertical correlation and the horizontal correlation.
  • the spatial correlation matrix K is defined as such, the low-dimensional decomposition of the spatial correlation matrix K can be efficiently calculated by the combination of the low-dimensional decompositions in the x-direction and the y-direction.
  • the spatial correlation matrix K is defined by a function such as the Gaussian function whose analytical Fourier transform is known.
  • the correlation matrix K is defined as such, when performing the low-dimensional decomposition of the correlation matrix K, the number of dimensions to be compressed is determined by utilizing the prior knowledge about the band, and the phase difference after the dimension reduction is determined. Accuracy can be guaranteed.
  • the spatial correlation matrix K can be calculated by efficient calculation by the FFT (Fast Fourier Transform).
  • the "circling shape” means a shape in which the top and bottom of the image are connected.
  • each component in each of the above embodiments can be configured with one piece of hardware, but can also be configured with one piece of software.
  • each component can be configured by a plurality of hardware and can be configured by a plurality of software. It is also possible to configure a part of each component with hardware and the other part with software.
  • Each function (each processing) in the above embodiment can be realized by a computer having a processor such as a CPU (Central Processing Unit) or a memory.
  • a program for carrying out the method (processing) in the above embodiment may be stored in a storage device (storage medium), and each function may be realized by executing the program stored in the storage device on the CPU. good.
  • FIG. 14 is a block diagram showing an example of a computer having a CPU.
  • the computer is implemented in a data processing device.
  • the CPU 1000 realizes each function in the above embodiment by executing a process according to a program (software element: code) stored in the storage device 1001. That is, in the data processing apparatus shown in FIGS. 1, 4, 6, 6, 10, and 12, the coherence matrix calculation unit 120, the spatial correlation prediction unit 140, and the phase estimation unit 160, 170, 180, 190 , 200, 210 functions are realized.
  • a program software element: code
  • the storage device 1001 is, for example, a non-transitory computer readable medium.
  • Non-temporary computer-readable media include various types of tangible storage media (tangible storage medium). Specific examples of non-temporary computer-readable media include magnetic recording media (for example, hard disks), optical magnetic recording media (for example, optical magnetic disks), CD-ROMs (Compact Disc-Read Only Memory), and CD-Rs (Compact). Disc-Recordable), CD-R / W (Compact Disc-ReWritable), semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM).
  • the storage device 1001 can also be used as a SAR image storage unit.
  • the program may also be stored on various types of temporary computer-readable media (transitory computer readable medium).
  • the program is supplied to the temporary computer-readable medium, for example, via a wired or wireless communication path, that is, via an electrical signal, an optical signal, or an electromagnetic wave.
  • the memory 1002 is realized by, for example, a RAM (Random Access Memory), and is a storage means for temporarily storing data when the CPU 1000 executes a process.
  • a mode in which a program held by the storage device 1001 or a temporary computer-readable medium is transferred to the memory 1002 and the CPU 1000 executes processing based on the program in the memory 1002 can be assumed.
  • FIG. 15 is a block diagram showing a main part of the data processing device.
  • the data processing device 1 shown in FIG. 15 is a coherence matrix calculation unit (coherence matrix calculation means) 2 (in the embodiment, a coherence matrix calculation unit 120) for calculating a coherence matrix representing the correlation of pixels corresponding to the same positions of a plurality of complex images. (Realized) and a spatial correlation generation unit (spatial correlation generation means) 3 (in the embodiment, a spatial correlation prediction unit 140) that generates data representing prior information regarding spatial correlation, which is the correlation of pixels in each of a plurality of complex images.
  • phase difference estimation unit 4 (phase difference estimation means) 4 (in the embodiment, realized by the phase estimation units 160, 170, 180, 190, 200, 210) calculated as a phase difference.
  • FIG. 16 is a block diagram showing a main part of a data processing device of another aspect.
  • the phase difference estimation unit 4 determines the correlation between the phase based on the observed pixel value and the noise-removed phase difference, and the correlation between the noise-removed pixels. It is realized by the calculation unit (calculation means) 41 (in the embodiment, the phase calculation unit 173 and the pixel value estimation unit 184, 194, 204, 214) which increase the weight based on the coherence matrix and the weight based on the prior information.
  • the phase difference calculation unit (phase difference calculation means) 42 (in the embodiment, the phase calculation unit 173 and the phase acquisition unit 185, 195, 205, 215) calculate the phase difference from the calculation result of the calculation unit 41. It will be realized.) And.
  • a coherence matrix calculation means for calculating a coherence matrix representing the correlation of pixels corresponding to the same positions in a plurality of complex images, and a coherence matrix calculation means.
  • Spatial correlation generating means that generates data representing prior information about spatial correlation, which is the correlation of pixels in each of a plurality of complex images.
  • a phase difference that integrates the pixel correlation with respect to the coherence matrix and the spatial correlation, and calculates a statistically plausible and consistent phase difference as a noise-removed phase difference based on the integrated correlation.
  • a data processing device with an estimation means is a data processing device with an estimation means.
  • the consistent phase difference is a phase difference in which all the calculation results match when the phase difference is calculated from an arbitrary combination of phase differences.
  • the phase difference estimation means determines the correlation between the phase based on the observed pixel value and the noise-removed phase difference, and the correlation between the noise-removed pixels with a weight based on the coherence matrix. And the arithmetic means to increase under the weight based on the prior information,
  • the data processing apparatus according to Appendix 1 or Appendix 2, which includes a phase difference calculating means for calculating a phase difference from the calculation result of the calculation means.
  • the phase difference estimation means generates an evaluation function representing the integrated correlation, and generates an evaluation function. As the calculation result, the calculation means obtains the pixel value that maximizes the evaluation function as the noise-removed pixel value.
  • the phase difference calculating means is a data processing device according to Appendix 3, which calculates a phase difference from the pixel values.
  • the spatial correlation generating means is a data processing apparatus according to any one of Supplementary note 1 to Supplementary note 4, which generates a spatial correlation matrix as data representing the prior information.
  • phase difference estimation means includes means for low-dimensional decomposition of the spatial correlation matrix.
  • Appendix 7 Memory for storing software elements (codes) and Data processing according to any one of Appendix 1 to Appendix 6 including the coherence matrix calculating means, the spatial correlation generating means, and a processor that realizes the functions of the phase difference estimating means according to the software elements stored in the memory.
  • Appendix 7 Memory for storing software elements (codes) and Data processing according to any one of Appendix 1 to Appendix 6 including the coherence matrix calculating means, the spatial correlation generating means, and a processor that realizes the functions of the phase difference estimating means according to the software elements stored in the memory.
  • a coherence matrix representing the correlation of pixels corresponding to the same position in a plurality of complex images is calculated. Generates data that represents prior information about spatial correlation, which is the correlation of pixels in each of multiple complex images. Data processing that integrates the pixel correlation with respect to the coherence matrix and the spatial correlation, and calculates a statistically plausible and consistent phase difference as a noise-removed phase difference based on the integrated correlation. Method.
  • the consistent phase difference is a phase difference in which all the calculation results match when the phase difference is calculated from an arbitrary combination of phase differences.
  • Appendix 11 An evaluation function representing the integrated correlation is generated. As the calculation result, the pixel value that maximizes the evaluation function is obtained as the noise-removed pixel value.
  • Appendix 12 A data processing method according to any one of Appendix 8 to Appendix 11 realized by a processor.
  • Appendix 15 To the computer The process of generating the evaluation function representing the integrated correlation and As a result of the calculation, a process of obtaining a pixel value that maximizes the evaluation function as a noise-removed pixel value, and The data processing program of Appendix 14 for executing the process of calculating the phase difference from the pixel value.
  • Appendix 16 A computer-readable recording medium in which a data processing program is stored.
  • the data processing program is installed in a computer.
  • the data processing program is installed in a computer.
  • the correlation between the phase based on the observed pixel value and the noise-removed phase difference, and the correlation between the noise-removed pixels are under the weights based on the coherence matrix and the weights based on the prior information. And the calculation to increase with The recording medium of Appendix 16 for executing the process of calculating the phase difference from the calculation result.
  • the data processing program is installed in a computer.
  • the recording medium of Appendix 17 for executing the process of calculating the phase difference from the pixel value.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Artificial Intelligence (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

データ処理装置1は、複数の複素画像の同じ位置にあたる画素の相関を表すコヒーレンス行列を算出するコヒーレンス行列算出部2と、複数の複素画像の各々における画素の相関である空間相関に関する事前情報を表すデータを生成する空間相関生成部3と、コヒーレンス行列に関する画素の相関と空間相関とを統合し、統合された相関に基づいて、統計的に尤もらしく、かつ、矛盾のない位相差を、ノイズ除去された位相差として算出する位相差推定部4とを備えている。

Description

データ処理装置およびデータ処理方法
 本発明は、合成開口レーダの受信電磁波の位相に基づいて画像解析を行う画像解析システムに適用可能なデータ処理装置およびデータ処理方法に関する。
 合成開口レーダ(SAR:Synthetic Aperture Radar)技術は、人工衛星や航空機などの飛翔体が移動しながら電磁波を送受信し、大きな開口を持つアンテナと等価な観測画像が得られる技術である。合成開口レーダは、例えば、地表からの反射波を信号処理して、標高や地表変位等を解析するために利用される。特に、精度が必要である場合等に、解析装置は、合成開口レーダによって得られる時系列のSAR画像(SARデータ)を入力とし、入力されたSAR画像を時系列解析する。
 標高や地表変位を解析するための有効な手法として、干渉SAR解析がある。干渉SAR解析では、違う時期に撮影された複数(例えば、2枚)のSAR画像を構成する電波信号の位相差が計算される。そして、位相差に基づいて撮影時期間で生じた飛翔体と地面間の距離の変化が検出される。
 特許文献1には、コヒーレンス行列を用いる解析手法が記載されている。コヒーレンス行列は、複数の複素画像の同じ位置にあたる画素の相関を表す。
 コヒーレンスは、N(N≧2)枚のSAR画像における複数のSAR画像の同じ位置にあたる画素の複素相関で計算される。SAR画像のペアを(m,n)とし、コヒーレンス行列の成分をcm,nとする。m,nは、それぞれ、N以下の値であり、N枚のSAR画像のいずれかを示す。SAR画像のペアについて、位相θm,n(具体的には、位相差)が算出される。そして、コヒーレンス算出対象の画素を含む所定領域内の複数の画素についてexp(-jθm,n)が平均化された値の絶対値が、コヒーレンス行列の成分cm,nとなる。また、SAR画像m における強度をA、SAR画像n における強度をAとして、Am・n・exp(-jθm,n)を平均化してもよい。
 cm,nの絶対値||cm,n||から、位相θm,nの分散の大きさを把握可能である。
 コヒーレンス行列は、分散のように位相ノイズ量の程度を推測可能な情報を含む。
 地表等の変位解析のために、位相θm,nが変位速度および撮影時刻差に相関することが利用される。例えば、位相差の平均値に基づいて変位が推定される。なお、位相ノイズ量を使用して変位解析の精度を検証することが可能である。したがって、コヒーレンス行列は、変位解析のために使用可能である。
 標高解析のために、位相θm,nが解析対象物の標高および飛翔体間距離(例えば、飛翔体の2つの撮影位置の間の距離)に相関することが利用される。例えば、位相差の平均値に基づいて標高が推定される。なお、位相ノイズ量を使用して標高解析の精度を検証することが可能である。したがって、コヒーレンス行列は、標高解析のために使用可能である。
 特許文献1には、コヒーレンス行列に対して変位等のモデルをフィッティングし、ノイズの影響を除外した位相を復元する手法が記載されている。また、非特許文献1にも、類似の手法が開示されている。
国際公開第2011/003836号
A. M. Guarnieri et.al., "On the Exploitation of Target Statistics for SAR Interferometry Applications", IEEE Transactions on Geoscience and Remote Sensing, Vol. 46, No. 11, pp.3436-3443, November 2008
 特許文献1に記載された手法および非特許文献1に記載された手法によれば、位相差に含まれるノイズを減らすことができる。しかし、変位解析および標高解析が実行されるときに、位相差に含まれるノイズはできるだけ少ないことが好ましいので、より多くのノイズが除去されることが要望される。
 本発明は、位相ノイズ低減の程度をより大きくすることができるデータ処理装置およびデータ処理方法を提供することを目的とする。
 本発明によるデータ処理装置は、複数の複素画像の同じ位置にあたる画素の相関を表すコヒーレンス行列を算出するコヒーレンス行列算出手段と、複数の複素画像の各々における画素の相関である空間相関に関する事前情報を表すデータを生成する空間相関生成手段と、コヒーレンス行列に関する画素の相関と空間相関とを統合し、統合された相関に基づいて、統計的に尤もらしく、かつ、矛盾のない位相差を、ノイズ除去された位相差として算出する位相差推定手段とを含む。
 本発明によるデータ処理方法は、複数の複素画像の同じ位置にあたる画素の相関を表すコヒーレンス行列を算出し、複数の複素画像の各々における画素の相関である空間相関に関する事前情報を表すデータを生成し、コヒーレンス行列に関する画素の相関と空間相関とを統合し、統合された相関に基づいて、統計的に尤もらしく、かつ、矛盾のない位相差を、ノイズ除去された位相差として算出する。
 本発明によるデータ処理プログラムは、コンピュータに、複数の複素画像の同じ位置にあたる画素の相関を表すコヒーレンス行列を算出する処理と、複数の複素画像の各々における画素の相関である空間相関に関する事前情報を表すデータを生成する処理と、コヒーレンス行列に関する画素の相関と空間相関とを統合し、統合された相関に基づいて、統計的に尤もらしく、かつ、矛盾のない位相差を、ノイズ除去された位相差として算出する処理とを実行させる。
 本発明によれば、位相ノイズ低減の程度をより大きくすることができる。
第1の実施形態のデータ処理装置の構成例を示すブロック図である。 矛盾のない位相を説明するための説明図である。 第1の実施形態のデータ処理装置の動作を示すフローチャートである。 第2の実施形態のデータ処理装置の構成例を示すブロック図である。 第2の実施形態のデータ処理装置の動作を示すフローチャートである。 第3の実施形態のデータ処理装置の構成例を示すブロック図である。 第3の実施形態のデータ処理装置の動作を示すフローチャートである。 第4の実施形態および第5の実施形態のデータ処理装置の構成例を示すブロック図である。 第4の実施形態および第5の実施形態のデータ処理装置の動作を示すフローチャートである。 第6の実施形態のデータ処理装置の構成例を示すブロック図である。 第6の実施形態のデータ処理装置の動作を示すフローチャートである。 第7の実施形態のデータ処理装置の構成例を示すブロック図である。 第7の実施形態のデータ処理装置の動作を示すフローチャートである。 CPUを有するコンピュータの一例を示すブロック図である。 データ処理装置の主要部を示すブロック図である。 他の態様のデータ処理装置の主要部を示すブロック図である。
 以下、本発明の実施形態を図面を参照して説明する。
 実施形態1.
 図1は、第1の実施形態のデータ処理装置の構成例を示すブロック図である。図1に示すデータ処理装置10は、コヒーレンス行列算出部120、空間相関予測部140および位相推定部160を含む。データ処理装置10は、位相ノイズが低減された位相(具体的には、位相差)を得ることができる。
 例えば、SAR画像からコヒーレンス行列が算出される場合、SAR画像格納部(図示せず)に、N(N≧3)枚のSAR画像(複素画像:振幅および位相情報を含む。)が格納される。コヒーレンス行列算出部120は、画素の位相を用いてコヒーレンス行列を算出する。空間相関予測部140は、画像における画素の相関係数を予測し、相関係数を要素とする行列である空間相関行列を生成する。位相推定部160は、コヒーレンス行列に基づき、空間相関行列を考慮して、矛盾のない位相(具体的には、位相差)を推定する。
 なお、第1の実施形態では、コヒーレンス行列算出部120がSAR画像格納部に格納されているSAR画像からコヒーレンス行列を算出する場合を例にするが、後述するように、コヒーレンス行列算出部120がSAR画像格納部に格納されているSAR画像からコヒーレンス行列を算出することは一例である。コヒーレンス行列算出部120は、他の情報(データ)を用いてコヒーレンス行列を算出することもできる。
 なお、「矛盾のない位相」は、位相差を、他のどのような位相差の組み合わせ(任意の位相差の組み合わせ)から再計算しても、計算結果の値が一致することを意味する。
 図2は、矛盾のない位相を説明するための説明図である。図2には、3枚のSAR画像が例示されている。SAR画像を示す矩形の内部の数字は、画像番号を示す。例えば、画像3と画像1との位相差が、画像1と画像2との位相差と、画像2と画像3の位相差との和に等しい場合、すなわち、下式が満たされる場合には、画像1~3では「矛盾のない位相」の状態が達成されている。下式において、例えば、φa-bは、画像aと画像bとの位相差を示す。図2に示す例では、下式において、a=1、b=2、c=3である。なお、2枚のSAR画像の位相差は、各々の画像における対応画素の位相差を意味する。
 φa-b+φb-c=φc-a
 位相の特性上2πの整数倍の差があっても同一の位相であるため、下記の式が満たされる場合にも矛盾のない位相が達成されているとみなせる。下式において、kは任意の整数である。
 φa-b+φb-c=φc-a+2kπ
 N枚の画像の全てについて、上式が満たされる場合には、SAR画像における位相は、「矛盾のない位相」の状態にある。以下、上式が満たされることを、制約を満たすということがある。
 次に、図1に示されたデータ処理装置10の動作を、図3のフローチャートを参照して説明する。
 コヒーレンス行列算出部120は、例えばSAR画像格納部に格納されているN枚のSAR画像を対象としてコヒーレンス行列Cを算出する(ステップS110)。上述したように、例えば、SAR画像のペアを(m,n)とし、コヒーレンス行列Cの成分をcm,nとする。m,nは、それぞれ、N以下の値であり、N枚のSAR画像のいずれかを示す。コヒーレンス行列算出部120は、SAR画像のペアについて、位相θm,n(具体的には、位相差)を算出する。そして、コヒーレンス行列算出部120は、コヒーレンス算出対象の画素を含む所定領域内の複数の画素についてexp(-jθm,n)を平均化した値を、コヒーレンス行列Cの成分cm,nとする。
 コヒーレンス行列算出部120は、強度A,A込みで A,Aexp(-jθm,n)を平均化することによってコヒーレンス行列を得てもよい。また、コヒーレンス行列算出部120は、このように強度込みで得たコヒーレンス行列を仮にΓとしたときに、この対角成分の平均が1になるように行列の全要素を定数倍することによって、平均的な強度に影響されない形でコヒーレンス行列を計算しなおしてもよい。また、コヒーレンス行列算出部120は、このように強度込みで得たコヒーレンス行列Γに対して、その対角成分がすべて1になるように、Γの左右から対角行列を乗算してもよい。また、コヒーレンス行列算出部120は、解析対象の地域に対して、例えば植生が含まれるかコンクリート製の人工構造物が含まれるのかといったSAR以外の情報や、どのような撮影条件で入力SAR画像の各々を撮影したのかといった情報などに基づいて、どの撮影条件のペアでどの程度のノイズが乗るかを推測し、コヒーレンス行列として用いてもよい。
 空間相関予測部140は、SAR画像における解析対象領域(全領域でもよい。)に関する事前情報(既知のデータ)に基づいて、空間相関(解析対象領域における画素の相関)を作成(算出)する(ステップS120)。なお、ステップS110の処理とステップS120の処理との実行順序は、図3に示された順序に限定されない。例えば、ステップS120の処理がステップS110の処理よりも先に実行されてもよいし、双方の処理が同時に実行されてもよい。
 空間相関は、事前にデータ処理装置10に与えられるが、例えば、相関係数を要素とする空間相関行列Kで表現される。ただし、空間相関行列Kは空間相関の表現の一例であって、他の表現が用いられてもよい。事前情報として、例えば、以下のような情報が例示される。
・データ処理装置10が適用された画像解析システムの解析対象物(例えば、変位解析の対象である構造物)の概略形状。一例として、鉄塔などの細長い形状の構造物が対象物である場合には、構造物の延伸方向に画素が滑らかな相関を持つように空間相関を作成する。
・相関が既知であるグラフ(ノード:画素、エッジ(重み):相関)における重み。この事前情報を使用する場合、重みに基づく値を要素とする空間相関行列Kを作成する。
・過去に得られたSAR画像から得られる情報。すなわち、解析対象領域の既知画像における画素の相関。
 事前情報は、上記の例示に限られず、解析対象物の空間相関を予測可能であれば、他の類いの情報でもよい。
 位相推定部160は、双方の相関を統合し、統計的に尤もらしく、かつ、矛盾のない位相(具体的に、位相差)を算出する(ステップS130)。
 第1の実施形態では、SAR画像における画素の相関を考慮して位相ノイズを除去する処理が行われるので、より効果的に位相ノイズを低減できる。
実施形態2.
 図4は、第2の実施形態のデータ処理装置の構成例を示すブロック図である。図4に示すデータ処理装置20は、コヒーレンス行列算出部120、空間相関予測部140および位相推定部170を含む。位相推定部170は、第1の評価関数生成部171、第2の評価関数生成部172、および位相算出部173を含む。
 第2の実施形態のデータ処理装置20は、図1に示された第1の実施形態のデータ処理装置10が具体化されたデータ処理装置に相当する。
 なお、第2の実施形態でも、コヒーレンス行列算出部120がSAR画像格納部(図示せず)に格納されているSAR画像からコヒーレンス行列を算出する場合を例にする。しかし、コヒーレンス行列算出部120がSAR画像格納部に格納されているSAR画像からコヒーレンス行列を算出するのではなく、他の情報(データ)を用いてコヒーレンス行列を算出してもよい。
 第1の評価関数生成部171は、コヒーレンス行列Cを入力し、第1の評価関数(観測信号評価関数)を生成する。観測信号評価関数は、コヒーレンス行列Cに応じた観測信号とノイズのない位相とに基づく評価関数である。
 第2の評価関数生成部172は、空間相関(例えば、空間相関行列K)を入力し、画像内で位相差が滑らかに分布することを表す第2の評価関数(空間相関評価関数)を生成する。換言すれば、第2の評価関数生成部172は、空間的にどの程度滑らかな位相が算出されるべきかを表す情報(データ)が含まれる空間相関評価関数を生成する。
 位相算出部173は、観測信号評価関数および空間相関評価関数を使用して、ノイズがないと推定される位相を算出する。
 次に、図4に示されたデータ処理装置20の動作を、図5のフローチャートを参照して説明する。
 コヒーレンス行列算出部120は、第1の実施形態の場合と同様に、SAR画像格納部に格納されているN枚のSAR画像を対象としてコヒーレンス行列Cを算出する(ステップS110)。
 位相推定部170において、第1の評価関数生成部171は、観測信号評価関数を生成する(ステップS111)。すなわち、第1の評価関数生成部171は、ノイズが除去された位相差について、観測関数との相関を評価するための評価関数を生成する。
 空間相関予測部140は、第1の実施形態の場合と同様に、SAR画像における解析対象領域に関する事前情報に基づいて、空間相関を作成(算出)する(ステップS120)。第2の実施形態では、空間相関予測部140が空間相関行列Kを生成する場合を例にする。
 位相推定部170において、第2の評価関数生成部172は、空間相関評価関数を生成する(ステップS121)。すなわち、第2の評価関数生成部172は、ノイズが除去された位相差の空間相関と空間相関行列Kとの合致度を評価するための評価関数を生成する。
 位相推定部170において、位相算出部173は、観測信号評価関数と空間相関評価関数との双方を最大化することによって、矛盾のない位相差を推定する(ステップS131)。
 第2の実施形態では、SAR画像における画素の空間相関評価関数も使用して位相ノイズを除去する処理が行われるので、より効果的に位相ノイズを低減できる。
実施形態3.
 図6は、第3の実施形態のデータ処理装置の構成例を示すブロック図である。図6に示すデータ処理装置30は、コヒーレンス行列算出部120、空間相関予測部140および位相推定部180を含む。位相推定部180は、第1の評価関数生成部181、第2の評価関数生成部182、評価関数統合部183、画素値推定部184、および位相取得部185を含む。
 第3の実施形態のデータ処理装置30は、図4に示された第2の実施形態のデータ処理装置20がより具体化されたデータ処理装置に相当する。
 なお、第3の実施形態でも、コヒーレンス行列算出部120がSAR画像格納部(図示せず)に格納されているSAR画像からコヒーレンス行列を算出する場合を例にする。しかし、コヒーレンス行列算出部120がSAR画像格納部に格納されているSAR画像からコヒーレンス行列を算出するのではなく、他の情報(データ)を用いてコヒーレンス行列を算出してもよい。
 第1の評価関数生成部181は、コヒーレンス行列Cを入力し、第1の評価関数(観測信号評価関数)を生成する。第3の実施形態では、観測信号評価関数として、(1)式の評価関数が用いられる。なお、(1)式の右辺の演算が実行されるときに、C(コヒーレンス行列に相当)の逆行列を用いる演算が実行される。Cの逆行列は、コヒーレンス行列に基づく重みに相当する。
Figure JPOXMLDOC01-appb-M000001
 第2の評価関数生成部182は、空間相関行列Kを入力し、画像内で位相差が滑らかに分布することを表す第2の評価関数(空間相関評価関数)を生成する。第3の実施形態では、空間相関評価関数として、(2)式の評価関数が用いられる。なお、(2)式の右辺の演算が実行されるときに、空間相関行列Kの逆行列を用いる演算が実行される。空間相関行列Kの逆行列は、事前情報に基づく重みに相当する。
Figure JPOXMLDOC01-appb-M000002
 評価関数統合部183は、観測信号評価関数と空間相関評価関数とを統合する。第3の実施形態では、統合された評価関数として、(3)式の評価関数が用いられる。
Figure JPOXMLDOC01-appb-M000003
 (1)~(3)式において、yn,pは、n(n:1~N)枚目の画像における位置P(画素p)での観測画素値を示す。xn,pは、n枚目の画像における位置p(画素p)でのノイズがない画素値(ノイズが除去された画素値)を示す。なお、「H」は複素共役転置を表す。
 「・」(例えば、y・,pにおける「・」)は、全ての要素(例えば、yは、y~yを要素とするベクトル)を示す。したがって、例えばp=1の場合、y・,pは、y11,y21,・・・,yN1を要素とする行ベクトルである。
 (1)式の観測信号評価関数において、Cは、画素pにおけるコヒーレンス行列である。右辺のNは、複素正規分布における確率密度関数である。条件(制約)を示す縦線の右側において、「0」は平均値である。アダマール積を示す「○」の右側のx・,px・ ,pは、観測された画像の画素pにおける位相差に相当する。アダマール積の結果は、分散共分散行列に相当する。
 (2)式の空間相関評価関数において、x n,・は、各画像n(n:1~N)毎の各画素の値(ノイズが除去された場合の)を表す。条件(制約)を示す縦線の右側に空間相関(具体的には、空間相関行列K)が設定されているので、x n,・は、空間相関に従うことになる。
 (3)式において、Πは総乗を示す。よって、(3)式の評価関数は、全ての画像(N枚の画像)における全ての画素についての、観測信号評価関数と空間相関評価関数との積に相当する。そして、画素値推定部184は、(3)式の評価関数を最大にするxを求める。なお、評価関数を最大にするxを求めることは、観測された画素の値に基づく位相とノイズ除去された位相差との相関、および、ノイズ除去後の画素間の相関を、コヒーレンス行列に基づく重み、および、事前情報に基づく重みの下で大きくすることに相当する。
 さらに、画像mと画像nとの位相差が、(4)に示すように求められる。すなわち、位相取得部185は、画像mにおける画素値と画像nにおける対応画素の画素値の複素共役との積に基づいて位相差を得る。
Figure JPOXMLDOC01-appb-M000004
 次に、図6に示されたデータ処理装置30の動作を、図7のフローチャートを参照して説明する。
 コヒーレンス行列算出部120は、第2の実施形態の場合と同様に、SAR画像格納部に格納されているN枚のSAR画像を対象としてコヒーレンス行列Cを算出する(ステップS110)。
 位相推定部180において、第1の評価関数生成部181は、観測信号評価関数を生成する(ステップS111)。すなわち、第1の評価関数生成部181は、(1)式の評価関数を生成する。
 空間相関予測部140は、第2の実施形態の場合と同様に、SAR画像における解析対象領域に関する事前情報に基づいて、空間相関(この例では、空間相関行列K)を作成(算出)する(ステップS120)。
 位相推定部180において、第2の評価関数生成部182は、空間相関評価関数を生成する(ステップS121)。すなわち、第2の評価関数生成部182は、(2)式の評価関数を生成する。
 評価関数統合部183は、観測信号評価関数と空間相関評価関数とを統合する(ステップS132)。すなわち、評価関数統合部183は、(3)式の評価関数を生成する。画素値推定部184は、(3)式の評価関数を最大にするxを求める(ステップS133)。
 位相取得部185は、画像mにおける画素値と画像nにおける対応画素の画素値の複素共役との積を求め((4)参照)、求められた積に基づいて位相差を得る(ステップS134)。具体的には、位相取得部185は、積(複素数)の偏角を位相差として得る。
 第3の実施形態では、画素値xを算出した後に、画素値xに基づいて位相差を推定することによって、「矛盾のない位相」に関する制約が満たされる。具体的には、各画像に対してある位相値が割り当てられた後、再度位相差が計算されるので、制約が満たされることになる。
実施形態4.
 図8は、第4の実施形態のデータ処理装置の構成例を示すブロック図である。図8に示すデータ処理装置40は、コヒーレンス行列算出部120、空間相関予測部140および位相推定部190を含む。位相推定部190は、第1の評価関数構成要素生成部191、第2の評価関数構成要素生成部192、評価関数統合部193、画素値推定部194、および位相取得部195を含む。
 なお、第4の実施形態でも、コヒーレンス行列算出部120がSAR画像格納部(図示せず)に格納されているSAR画像からコヒーレンス行列を算出する場合を例にする。しかし、コヒーレンス行列算出部120がSAR画像格納部に格納されているSAR画像からコヒーレンス行列を算出するのではなく、他の情報(データ)を用いてコヒーレンス行列を算出してもよい。
 位相推定部190において、第1の評価関数構成要素生成部191と第2の評価関数構成要素生成部192とは、第3の実施形態における第1の評価関数生成部181と第2の評価関数生成部182とは異なる処理を実行する。すなわち、第1の評価関数構成要素生成部191は、(5)式の右辺第2項の観測信号に関する評価を行うための行列を生成する。第2の評価関数構成要素生成部192は、(5)式の右辺第1項の空間相関を評価するための行列を生成する。なお、(5)式において、Cの逆行列は、コヒーレンス行列に基づく重みに相当する。また、空間相関行列Kの逆行列は、事前情報に基づく重みに相当する。
Figure JPOXMLDOC01-appb-M000005
 (5)式において、yn,pは、n(n:1~N)枚目の画像における位置P(画素p)での観測画素値を示す。ただし、観測画素値は、すべての画像におけるすべての画素において絶対値が1になるように、各画像および各画素で実数倍されていてもよい。また、すべての画像間での画素ごとの絶対値平均または絶対値の2乗の平均が1になるように、各画素に対して全画像で共通した実数が乗算されてもよい。また、(5)式において、xn,pは、n枚目の画像における位置P(画素p)でのノイズがない画素値を示す。
 「・」(例えば、「y・,p」における「・」)は、全ての要素(例えば、yは、y~yを要素とするベクトル)を示す。したがって、例えばp=1の場合、y・,pは、y11,y21,・・・,yN1を要素とする列ベクトルである。なお、「x,・」は、画像nに対して、全ての画素pに対応する値をxから取り出して列方向に並べたベクトルである。
 Iは、N×Nの単位行列である。eは、p行目が1で他の行が0の列ベクトルである。丸印の中に×が付された記号は、クロネッカー積を示す。「T」は転置を表す。
 なお、(5)式で生成される行列は、下記の(6)の形でvec(x)との積がとられることによって統合されて、xに対する評価関数になる。そのような評価関数は、第3の実施形態における(3)式の評価関数に対して対数をとり、負の符号を付加したもの、すなわちnegative log likelihood のうちでxに依存する部分を行列形式で表記した評価関数に相当する。すなわち、(3)式に対して最大化を行うことは、(6)の評価式において最小化を行うことと等価である。
Figure JPOXMLDOC01-appb-M000006
 評価関数統合部193は、(5)式による行列に基づいて評価関数を作成する。画素値推定部194は、評価関数を最小にするxを求める。位相取得部195は、xに基づいて位相差を得る。
 次に、第4の実施形態のデータ処理装置の動作を、図9のフローチャートを参照して説明する。
 コヒーレンス行列算出部120は、第3の実施形態の場合と同様に、SAR画像格納部に格納されているN枚のSAR画像を対象としてコヒーレンス行列Cを算出する(ステップS110)。
 位相推定部180において、第1の評価関数構成要素生成部191は、観測信号に関する評価を行うための行列を生成する(ステップS112)。第1の評価関数構成要素生成部191は、ステップS112の処理で、(5)式の右辺第2項の行列を生成する。
 空間相関予測部140は、第3の実施形態の場合と同様に、SAR画像における解析対象領域に関する事前情報に基づいて、空間相関(この例では、空間相関行列K)を作成(算出)する(ステップS120)。
 位相推定部180において、第2の評価関数構成要素生成部192は、空間相関を評価するための行列を生成する(ステップS122)。第2の評価関数構成要素生成部192は、ステップS122の処理で、(5)式の右辺第1項の行列を生成する。
 評価関数統合部193は、生成された行列に基づいて評価関数を作成する(ステップS135)。第4の実施形態では、評価関数統合部193は、ステップS135の処理で、(6)によって評価関数を生成する。画素値推定部194は、(6)による評価関数を最小にするxを求める(ステップS136)。(6)において、vec(x)は、xが列ベクトルに変換されたベクトルである。なお、下記の(6)を最小にするxを求めることは、観測された画素の値に基づく位相とノイズ除去された位相差との相関、および、ノイズ除去後の画素間の相関を、コヒーレンス行列に基づく重み、および、事前情報に基づく重みの下で大きくすることに相当する。
 位相取得部195は、画像mにおける画素値と画像nにおける対応画素の画素値の複素共役との積を求め((4)参照)、求められた積に基づいて位相差を得る(ステップS137)。具体的には、位相取得部195は、積(複素数)の偏角を位相差として得る。
 第4の実施形態では、画素値xを算出した後に、画素値xに基づいて位相差を推定することによって、「矛盾のない位相」に関する制約が満たされる。具体的には、各画像に対してある位相値が割り当てられた後、再度位相差が計算されるので、制約が満たされることになる。
実施形態5.
 第5の実施形態のデータ処理装置の構成は、図8に示された第4の実施形態のデータ処理装置40の構成と同じでよい。また、第5の実施形態のデータ処理装置の動作は、図9のフローチャートに示された動作と同じでよい。ただし、第5の実施形態では、第2の評価関数構成要素生成部192は、第4の実施形態における評価関数とは異なる評価関数を生成する。すなわち、第5の実施形態では、第2の評価関数構成要素生成部192は、空間相関行列をK(n:1~N)とすると、(7)式に示すように、Kを要素とする対角行列を生成する。
Figure JPOXMLDOC01-appb-M000007
 なお、第5の実施形態でも、コヒーレンス行列算出部120がSAR画像格納部(図示せず)に格納されているSAR画像からコヒーレンス行列を算出する場合を例にする。しかし、コヒーレンス行列算出部120がSAR画像格納部に格納されているSAR画像からコヒーレンス行列を算出するのではなく、他の情報(データ)を用いてコヒーレンス行列を算出してもよい。
 第4の実施形態では、N枚の画像の全てにおいて空間相関は同じであるとされている。第5の実施形態は、N枚の各々の画像の空間相関(この例では、空間相関行列K(n:1~N))を異ならせたい場合に有用である。すなわち、第5の実施形態は、N枚の各々の画像の空間相関が異なる場合にも対応できる。
 次に、第5の実施形態のデータ処理装置の動作を、図9のフローチャートを参照して説明する。
 コヒーレンス行列算出部120は、第4の実施形態の場合と同様に、SAR画像格納部に格納されているN枚のSAR画像を対象としてコヒーレンス行列Cを算出する(ステップS110)。
 位相推定部190において、第1の評価関数構成要素生成部191は、観測信号に関する評価を行うための行列を生成する(ステップS112)。第5の実施形態では、第1の評価関数構成要素生成部191は、ステップS112の処理で、(8)式の右辺第2項の観測信号に関する評価を行うための行列を生成する。なお、(7),(8)式において、Cpの逆行列は、画素pにおけるコヒーレンス行列に基づく重みに相当する。また、空間相関行列Knの逆行列は、事前情報に基づく重みに相当する。
Figure JPOXMLDOC01-appb-M000008
 空間相関予測部140は、第4の実施形態の場合と同様に、SAR画像における解析対象領域に関する事前情報に基づいて、空間相関(この例では、空間相関行列K)を作成(算出)する(ステップS120)。
 位相推定部190において、第2の評価関数構成要素生成部192は、空間相関を評価するための行列を生成する(ステップS122)。第5の実施形態では、第2の評価関数構成要素生成部192は、ステップS122の処理で、空間相関行列Kを要素(対角成分)とするブロック対角行列を生成し、(8)式の右辺第1項の空間相関を評価するための行列を生成する。
 評価関数統合部193は、生成された行列に基づいて評価関数を作成する(ステップS135)。第5の実施形態でも、評価関数統合部193は、(6)によって評価関数を生成する。画素値推定部194は、上記の(6)を最小にするxを求める(ステップS136)。
 位相取得部195は、画像mにおける画素値と画像nにおける対応画素の画素値の複素共役との積を求め((4)参照)、求められた積に基づいて位相差を得る(ステップS137)。具体的には、位相取得部195は、積(複素数)の偏角を位相差として得る。
 第5の実施形態では、画素値xを算出した後に、画素値xに基づいて位相差を推定することによって、「矛盾のない位相」に関する制約が満たされる。具体的には、各画像に対してある位相値が割り当てられた後、再度位相差が計算されるので、制約が満たされることになる。
実施形態6.
 図10は、第6の実施形態のデータ処理装置の構成例を示すブロック図である。図10に示すデータ処理装置50は、コヒーレンス行列算出部120、空間相関予測部140および位相推定部200を含む。位相推定部200は、第1の評価関数構成要素生成部201、第2の評価関数構成要素生成部202、評価関数統合部203、画素値推定部204、および位相取得部205を含む。
 なお、第6の実施形態でも、コヒーレンス行列算出部120がSAR画像格納部(図示せず)に格納されているSAR画像からコヒーレンス行列を算出する場合を例にする。しかし、コヒーレンス行列算出部120がSAR画像格納部に格納されているSAR画像からコヒーレンス行列を算出するのではなく、他の情報(データ)を用いてコヒーレンス行列を算出してもよい。
 位相推定部200において、第1の評価関数構成要素生成部201は、上記の(5)式の右辺第2項の観測信号に関する評価を行うための行列を生成する。第2の評価関数構成要素生成部202は、(5)式の右辺第1項の空間相関を評価するための行列を生成する。
 なお、第6の実施形態では、第4の実施形態の場合と同様に(5)式が用いられるが、第6の実施形態において、第5の実施形態の考え方を適用し、(8)式が用いられてもよい。
 評価関数統合部203は、観測信号に関する評価を行うための行列と空間相関を評価するための行列とを統合し、tr(ΛX)を得る。「tr」は、トレース(行列の対角成分の総和)である。画素値推定部204は、所定の評価式の値を最小にするXを求める。位相取得部205は、Xに基づいて位相差を得る。
 Xは、下記の(9)に相当する行列である。ただし、(9)で計算される行列Xは必ずランクが1になるのに対して、本実施形態において、行列Xとして、後述するランクが少ない行列としてもよい。
Figure JPOXMLDOC01-appb-M000009
 次に、第6の実施形態のデータ処理装置の動作を、図11のフローチャートを参照して説明する。
 コヒーレンス行列算出部120は、第4の実施形態等の場合と同様に、SAR画像格納部に格納されているN枚のSAR画像を対象としてコヒーレンス行列Cを算出する(ステップS110)。
 位相推定部200において、第1の評価関数構成要素生成部201は、観測信号に関する評価を行うための行列を生成する(ステップS112)。第1の評価関数構成要素生成部201は、ステップS112の処理で、(5)式の右辺第2項の観測信号に関する評価を行うための行列を生成する。
 空間相関予測部140は、第4の実施形態等の場合と同様に、SAR画像における解析対象領域に関する事前情報に基づいて、空間相関(この例では、空間相関行列K)を作成(算出)する(ステップS120)。
 位相推定部200において、第2の評価関数構成要素生成部202は、空間相関を評価するための行列を生成する(ステップS122)。第2の評価関数構成要素生成部202は、ステップS122の処理で、(5)式の右辺第1項の空間相関を評価するための行列を生成する。
 評価関数統合部203は、生成した行列とを統合して、tr(ΛX)を得る(ステップS138)。
 画素値推定部204は、tr(ΛX)とrank(X)とを最小化するXを求める(ステップS139)。「rank」は、行列のランクである。なお、tr(ΛX)とrank(X)とを最小化するXを求めることは、観測された画素の値に基づく位相とノイズ除去された位相差との相関、および、ノイズ除去後の画素間の相関を、コヒーレンス行列に基づく重み、および、事前情報に基づく重みの下で大きくすることに相当する。
 位相取得部205は、求められたXすなわち推定されたXと下記の(10)とを用いて得られる値に基づいて位相差を得る(ステップS140)。具体的には、位相取得部195は、得られた値(複素数)の偏角を位相差として得る。
Figure JPOXMLDOC01-appb-M000010
 上述したように、「矛盾のない位相」は、位相差を、他のどのような位相差の組み合わせから再計算しても、その値が一致することを意味するとされた。すなわち、どのような位相差の組み合わせから計算しても計算結果が一致することが、「矛盾のない位相」の制約とされた。第6の実施形態では、tr(ΛX)とrank(X)とを最小化するようなXを推定することによって、結果として、「矛盾のない位相」の制約が緩和されている。
実施形態7.
 図12は、第7の実施形態のデータ処理装置の構成例を示すブロック図である。図12に示すデータ処理装置60は、コヒーレンス行列算出部120、空間相関予測部140および位相推定部210を含む。位相推定部210は、第1の評価関数構成要素生成部211、第2の評価関数構成要素生成部212、評価関数統合部213、画素値推定部214、および位相取得部215を含む。
 なお、第7の実施形態でも、コヒーレンス行列算出部120がSAR画像格納部(図示せず)に格納されているSAR画像からコヒーレンス行列を算出する場合を例にする。しかし、コヒーレンス行列算出部120がSAR画像格納部に格納されているSAR画像からコヒーレンス行列を算出するのではなく、他の情報(データ)を用いてコヒーレンス行列を算出してもよい。
 第7の実施形態では、位相推定部210において、第1の評価関数構成要素生成部211は、(11)式の右辺第2項の観測信号に関する評価を行うための行列を生成する。第2の評価関数構成要素生成部212は、(11)式の右辺第1項の空間相関を評価するための行列を生成する。
Figure JPOXMLDOC01-appb-M000011
 第7の実施形態では、第2の評価関数構成要素生成部212は、(11)式の右辺第1項の空間相関を評価するための行列を生成するときに、まず、空間相関行列Kを、(12)式を用いて低次元分解する。このような近似として、例えばNystrom 近似と呼ばれる手法を用いてもよい。すなわち、Kの行数を最大値とする重複なしのランダムな整数列を生成し、その整数列に該当する列のベクトルのみを取り出して並べた行列をU、さらにUから整数列に該当する行のベクトルを取り出して並べた行列の逆行列をDとしてもよい。または、Kに対して特異値分解を行い、上位特異値の特異ベクトルを並べたものをU、上位特異値を対角成分に並べた対角行列をDとしてもよい。
Figure JPOXMLDOC01-appb-M000012
 (11)式および(12)式において、Dは、d×dの行列である(d<N)。Uは、N×dの行列(U=u,u,・・・,u)である。
 評価関数統合部213は、生成された行列に基づいて評価関数を作成する。画素値推定部214は、評価関数の値を最小にするxを求める。位相取得部215は、xに基づいて位相差を得る。
 次に、第7の実施形態のデータ処理装置の動作を、図13のフローチャートを参照して説明する。
 コヒーレンス行列算出部120は、第4の実施形態等の場合と同様に、SAR画像格納部に格納されているN枚のSAR画像を対象としてコヒーレンス行列Cを算出する(ステップS110)。
 位相推定部210において、第1の評価関数構成要素生成部211は、観測信号に関する評価を行うための行列を生成する(ステップS112)。第7の実施形態では、第1の評価関数構成要素生成部211は、ステップS112の処理で、(11)式の右辺第2項の観測信号に関する評価を行うための行列を生成する。
 空間相関予測部140は、第4の実施形態等の場合と同様に、SAR画像における解析対象領域に関する事前情報に基づいて、空間相関(この例では、空間相関行列K)を作成(算出)する(ステップS120)。
 位相推定部210において、第2の評価関数構成要素生成部212は、空間相関行列Kを低次元分解した後、空間相関を評価するための行列を生成する(ステップS122)。第7の実施形態では、第2の評価関数構成要素生成部212は、ステップS122の処理で、(11)式の右辺第1項の空間相関を評価するための行列を生成する。
 評価関数統合部213は、生成された行列に基づいて評価関数を作成する(ステップS141)。第7の実施形態では、評価関数統合部213は、(13)によって評価関数を生成する。
Figure JPOXMLDOC01-appb-M000013
 画素値推定部214は、評価関数を最小化するxを求める(ステップS142)。
 位相取得部215は、求められたxすなわち推定されたxと上記の(4)とを用いて得られる値に基づいて位相差を得る(ステップS143)。具体的には、位相取得部215は、得られた値(複素数)の偏角を位相差として得る。
 第7の実施形態では、画素値xを算出した後に、画素値xに基づいて位相差を推定することによって、「矛盾のない位相」に関する制約が満たされる。具体的には、各画像に対してある位相値が割り当てられた後、再度位相差が計算されるので、制約が満たされることになる。
 また、第7の実施形態では、第2の評価関数構成要素生成部212が空間相関行列Kの次元数を少なくするので、特に演算量が多い空間相関行列に関する演算の演算量を減らすことができる。その結果、例えば、データ処理装置がコンピュータ(プロセッサ)で実現される場合に、処理に要する時間が短縮される。
 以下のような変形例も想定しうる。
 空間相関行列Kを、縦方向の相関と横方向の相関のクロネッカー積で定義する。空間相関行列Kをそのように定義した場合には、空間相関行列Kの低次元分解をx方向とy方向の低次元分解の組み合わせで効率的に算出できるようになる。
 空間相関行列Kをガウス関数等の解析的なフーリエ変換が分かっている関数で定義する。相関行列Kをそのように定義した場合には、相関行列Kの低次元分解を実行するときに、帯域に関する事前知識を活用して圧縮する次元数を決めることによって、次元削減後の位相差の精度を保証できる。
 空間相関行列Kを巡回するような形で定義する。空間相関行列Kをそのように定義した場合には、FFT(Fast Fourier Transform)による効率的な計算で空間相関行列Kを算出できるようになる。なお、「巡回するような形」は、画像の最上と最下とが接続されるような形を意味する。
 上記の各実施形態における各構成要素は、1つのハードウェアで構成可能であるが、1つのソフトウェアでも構成可能である。また、各構成要素は、複数のハードウェアでも構成可能であり、複数のソフトウェアでも構成可能である。また、各構成要素のうちの一部をハードウェアで構成し、他部をソフトウェアで構成することもできる。
 上記の実施形態における各機能(各処理)を、CPU(Central Processing Unit )等のプロセッサやメモリ等を有するコンピュータで実現可能である。例えば、記憶装置(記憶媒体)に上記の実施形態における方法(処理)を実施するためのプログラムを格納し、各機能を、記憶装置に格納されたプログラムをCPUで実行することによって実現してもよい。
 図14は、CPUを有するコンピュータの一例を示すブロック図である。コンピュータは、データ処理装置に実装される。CPU1000は、記憶装置1001に格納されたプログラム(ソフトウェア要素:コード)に従って処理を実行することによって、上記の実施形態における各機能を実現する。すなわち、図1,図4,図6,図8,図10,図12に示されたデータ処理装置における、コヒーレンス行列算出部120、空間相関予測部140、位相推定部160,170,180,190,200,210の機能を実現する。
 記憶装置1001は、例えば、非一時的なコンピュータ可読媒体(non-transitory computer readable medium )である。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium )を含む。非一時的なコンピュータ可読媒体の具体例として、磁気記録媒体(例えば、ハードディスク)、光磁気記録媒体(例えば、光磁気ディスク)、CD-ROM(Compact Disc-Read Only Memory )、CD-R(Compact Disc-Recordable )、CD-R/W(Compact Disc-ReWritable )、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM )、フラッシュROM)がある。また、記憶装置1001は、SAR画像格納部としても使用可能である。
 また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium )に格納されてもよい。一時的なコンピュータ可読媒体には、例えば、有線通信路または無線通信路を介して、すなわち、電気信号、光信号または電磁波を介して、プログラムが供給される。
 メモリ1002は、例えばRAM(Random Access Memory)で実現され、CPU1000が処理を実行するときに一時的にデータを格納する記憶手段である。メモリ1002に、記憶装置1001または一時的なコンピュータ可読媒体が保持するプログラムが転送され、CPU1000がメモリ1002内のプログラムに基づいて処理を実行するような形態も想定しうる。
 図15は、データ処理装置の主要部を示すブロック図である。図15に示すデータ処理装置1は、複数の複素画像の同じ位置にあたる画素の相関を表すコヒーレンス行列を算出するコヒーレンス行列算出部(コヒーレンス行列算出手段)2(実施形態では、コヒーレンス行列算出部120で実現される)と、複数の複素画像の各々における画素の相関である空間相関に関する事前情報を表すデータを生成する空間相関生成部(空間相関生成手段)3(実施形態では、空間相関予測部140で実現される。)と、コヒーレンス行列に関する画素の相関と空間相関とを統合し、統合された相関に基づいて、統計的に尤もらしく、かつ、矛盾のない位相差を、ノイズ除去された位相差として算出する位相差推定部(位相差推定手段)4(実施形態では、位相推定部160,170,180,190,200,210で実現される)とを備えている。
 図16は、他の態様のデータ処理装置の主要部を示すブロック図である。図16に示すデータ処理装置1において、位相差推定部4は、観測された画素の値に基づく位相とノイズ除去された位相差との相関、および、ノイズ除去後の画素間の相関を、前記コヒーレンス行列に基づく重み、および、前記事前情報に基づく重みの下で大きくする演算部(演算手段)41(実施形態では、位相算出部173、画素値推定部184,194,204,214で実現される。)と、演算部41の演算結果から位相差を算出する位相差算出部(位相差算出手段)42(実施形態では、位相算出部173、位相取得部185,195,205,215で実現される。)とを含む。
 上記の実施形態の一部または全部は、以下の付記のようにも記載され得るが、以下に限定されるわけではない。
(付記1)複数の複素画像の同じ位置にあたる画素の相関を表すコヒーレンス行列を算出するコヒーレンス行列算出手段と、
 複数の複素画像の各々における画素の相関である空間相関に関する事前情報を表すデータを生成する空間相関生成手段と、
 前記コヒーレンス行列に関する画素の相関と前記空間相関とを統合し、統合された相関に基づいて、統計的に尤もらしく、かつ、矛盾のない位相差を、ノイズ除去された位相差として算出する位相差推定手段と
 を備えたデータ処理装置。
(付記2)前記矛盾のない位相差は、位相差を任意の位相差の組み合わせから計算したときに、いずれの計算結果も一致することになる位相差である
 付記1のデータ処理装置。
(付記3)前記位相差推定手段は、観測された画素の値に基づく位相とノイズ除去された位相差との相関、および、ノイズ除去後の画素間の相関を、前記コヒーレンス行列に基づく重み、および、前記事前情報に基づく重みの下で大きくする演算手段と、
 前記演算手段の演算結果から位相差を算出する位相差算出手段と
 を含む
 付記1または付記2のデータ処理装置。
(付記4)前記位相差推定手段は、前記統合された相関を表す評価関数を生成し、
 前記演算手段は、前記演算結果として、前記評価関数を最大にする画素値をノイズ除去された画素値として求め、
 前記位相差算出手段は、前記画素値から位相差を算出する
 付記3のデータ処理装置。
(付記5)前記空間相関生成手段は、前記事前情報を表すデータとして空間相関行列を生成する
 付記1から付記4のいずれかのデータ処理装置。
(付記6)前記位相差推定手段は、前記空間相関行列を低次元分解する手段を含む
 付記5のデータ処理装置。
(付記7)ソフトウェア要素(コード)を格納するメモリと、
 前記メモリに格納されているソフトウェア要素に従って、前記コヒーレンス行列算出手段、前記空間相関生成手段、および前記位相差推定手段の機能を実現するプロセッサとを備えた
 付記1から付記6のいずれかのデータ処理装置。
(付記8)複数の複素画像の同じ位置にあたる画素の相関を表すコヒーレンス行列を算出し、
 複数の複素画像の各々における画素の相関である空間相関に関する事前情報を表すデータを生成し、
 前記コヒーレンス行列に関する画素の相関と前記空間相関とを統合し、統合された相関に基づいて、統計的に尤もらしく、かつ、矛盾のない位相差を、ノイズ除去された位相差として算出する
 データ処理方法。
(付記9)前記矛盾のない位相差は、位相差を任意の位相差の組み合わせから計算したときに、いずれの計算結果も一致することになる位相差である
 付記8のデータ処理方法。
(付記10)観測された画素の値に基づく位相とノイズ除去された位相差との相関、および、ノイズ除去後の画素間の相関を、前記コヒーレンス行列に基づく重み、および、前記事前情報に基づく重みの下で大きくする演算を行い、
 演算結果から位相差を算出する
 付記8または付記9のデータ処理方法。
(付記11)前記統合された相関を表す評価関数を生成し、
 前記演算結果として、前記評価関数を最大にする画素値をノイズ除去された画素値として求め、
 前記画素値から位相差を算出する
 付記10のデータ処理方法。
(付記12)プロセッサで実現される
 付記8から付記11のいずれかのデータ処理方法。
(付記13)コンピュータに、
 複数の複素画像の同じ位置にあたる画素の相関を表すコヒーレンス行列を算出する処理と、
 複数の複素画像の各々における画素の相関である空間相関に関する事前情報を表すデータを生成する処理と、
 前記コヒーレンス行列に関する画素の相関と前記空間相関とを統合し、統合された相関に基づいて、統計的に尤もらしく、かつ、矛盾のない位相差を、ノイズ除去された位相差として算出する処理と
 を実行させるためのデータ処理プログラム。
(付記14)コンピュータに、
 観測された画素の値に基づく位相とノイズ除去された位相差との相関、および、ノイズ除去後の画素間の相関を、前記コヒーレンス行列に基づく重み、および、前記事前情報に基づく重みの下で大きくする演算と、
 演算結果から位相差を算出する処理と
 を実行させる付記13のデータ処理プログラム。
(付記15)コンピュータに、
 前記統合された相関を表す評価関数を生成する処理と、
 前記演算結果として、前記評価関数を最大にする画素値をノイズ除去された画素値として求める処理と、
 前記画素値から位相差を算出する処理と
 を実行させる付記14のデータ処理プログラム。
(付記16)データ処理プログラムが格納されたコンピュータ読み取り可能な記録媒体であって、
 前記データ処理プログラムは、コンピュータに、
 複数の複素画像の同じ位置にあたる画素の相関を表すコヒーレンス行列を算出する処理と、
 複数の複素画像の各々における画素の相関である空間相関に関する事前情報を表すデータを生成する処理と、
 前記コヒーレンス行列に関する画素の相関と前記空間相関とを統合し、統合された相関に基づいて、統計的に尤もらしく、かつ、矛盾のない位相差を、ノイズ除去された位相差として算出する処理と
 を実行させる記録媒体。
(付記17)前記データ処理プログラムは、コンピュータに、
 観測された画素の値に基づく位相とノイズ除去された位相差との相関、および、ノイズ除去後の画素間の相関を、前記コヒーレンス行列に基づく重み、および、前記事前情報に基づく重みの下で大きくする演算と、
 演算結果から位相差を算出する処理と
 を実行させる付記16の記録媒体。
(付記18)前記データ処理プログラムは、コンピュータに、
 前記統合された相関を表す評価関数を生成する処理と、
 前記演算結果として、前記評価関数を最大にする画素値をノイズ除去された画素値として求める処理と、
 前記画素値から位相差を算出する処理と
 を実行させる付記17の記録媒体。
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記の実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 1    データ処理装置
 2    コヒーレンス行列算出部
 3    空間相関生成部
 4    位相差推定部
 10,20,30,40,50,60 データ処理装置
 41   演算部
 42   位相差算出部
 120  コヒーレンス行列算出部
 140  空間相関予測部
 160,170,180,190,200,210 位相推定部
 171,181 第1の評価関数生成部
 191,201,211 第1の評価関数構成要素生成部
 172,182 第2の評価関数生成部
 192,202,212 第2の評価関数構成要素生成部
 173  位相算出部
 183,193,203,213 評価関数統合部
 184,194,204,214 画素値推定部
 185,195,205,215 位相取得部
 1000 CPU
 1001 記憶装置
 1002 メモリ

Claims (13)

  1.  複数の複素画像の同じ位置にあたる画素の相関を表すコヒーレンス行列を算出するコヒーレンス行列算出手段と、
     複数の複素画像の各々における画素の相関である空間相関に関する事前情報を表すデータを生成する空間相関生成手段と、
     前記コヒーレンス行列に関する画素の相関と前記空間相関とを統合し、統合された相関に基づいて、統計的に尤もらしく、かつ、矛盾のない位相差を、ノイズ除去された位相差として算出する位相差推定手段と
     を備えたデータ処理装置。
  2.  前記矛盾のない位相差は、位相差を任意の位相差の組み合わせから計算したときに、いずれの計算結果も一致することになる位相差である
     請求項1記載のデータ処理装置。
  3.  前記位相差推定手段は、観測された画素の値に基づく位相とノイズ除去された位相差との相関、および、ノイズ除去後の画素間の相関を、前記コヒーレンス行列に基づく重み、および、前記事前情報に基づく重みの下で大きくする演算手段と、
     前記演算手段の演算結果から位相差を算出する位相差算出手段と
     を含む
     請求項1または請求項2記載のデータ処理装置。
  4.  前記位相差推定手段は、前記統合された相関を表す評価関数を生成し、
     前記演算手段は、前記演算結果として、前記評価関数を最大にする画素値をノイズ除去された画素値として求め、
     前記位相差算出手段は、前記画素値から位相差を算出する
     請求項3記載のデータ処理装置。
  5.  前記空間相関生成手段は、前記事前情報を表すデータとして空間相関行列を生成する
     請求項1から請求項4のうちのいずれか1項に記載のデータ処理装置。
  6.  前記位相差推定手段は、前記空間相関行列を低次元分解する手段を含む
     請求項5記載のデータ処理装置。
  7.  複数の複素画像の同じ位置にあたる画素の相関を表すコヒーレンス行列を算出し、
     複数の複素画像の各々における画素の相関である空間相関に関する事前情報を表すデータを生成し、
     前記コヒーレンス行列に関する画素の相関と前記空間相関とを統合し、統合された相関に基づいて、統計的に尤もらしく、かつ、矛盾のない位相差を、ノイズ除去された位相差として算出する
     データ処理方法。
  8.  前記矛盾のない位相差は、位相差を任意の位相差の組み合わせから計算したときに、いずれの計算結果も一致することになる位相差である
     請求項7記載のデータ処理方法。
  9.  観測された画素の値に基づく位相とノイズ除去された位相差との相関、および、ノイズ除去後の画素間の相関を、前記コヒーレンス行列に基づく重み、および、前記事前情報に基づく重みの下で大きくする演算を行い、
     演算結果から位相差を算出する
     請求項7または請求項8記載のデータ処理方法。
  10.  前記統合された相関を表す評価関数を生成し、
     前記演算結果として、前記評価関数を最大にする画素値をノイズ除去された画素値として求め、
     前記画素値から位相差を算出する
     請求項9記載のデータ処理方法。
  11.  データ処理プログラムが格納されたコンピュータ読み取り可能な記録媒体であって、
     前記データ処理プログラムは、コンピュータに、
     複数の複素画像の同じ位置にあたる画素の相関を表すコヒーレンス行列を算出する処理と、
     複数の複素画像の各々における画素の相関である空間相関に関する事前情報を表すデータを生成する処理と、
     前記コヒーレンス行列に関する画素の相関と前記空間相関とを統合し、統合された相関に基づいて、統計的に尤もらしく、かつ、矛盾のない位相差を、ノイズ除去された位相差として算出する処理と
     を実行させる記録媒体。
  12.  前記データ処理プログラムは、コンピュータに、
     観測された画素の値に基づく位相とノイズ除去された位相差との相関、および、ノイズ除去後の画素間の相関を、前記コヒーレンス行列に基づく重み、および、前記事前情報に基づく重みの下で大きくする演算と、
     演算結果から位相差を算出する処理と
     を実行させる請求項11記載の記録媒体。
  13.  前記データ処理プログラムは、コンピュータに、
     前記統合された相関を表す評価関数を生成する処理と、
     前記演算結果として、前記評価関数を最大にする画素値をノイズ除去された画素値として求める処理と、
     前記画素値から位相差を算出する処理と
     を実行させる請求項12記載の記録媒体。
PCT/JP2020/011744 2020-03-17 2020-03-17 データ処理装置およびデータ処理方法 WO2021186557A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2020/011744 WO2021186557A1 (ja) 2020-03-17 2020-03-17 データ処理装置およびデータ処理方法
JP2022508661A JP7396462B2 (ja) 2020-03-17 2020-03-17 データ処理装置およびデータ処理方法
US17/909,637 US20230351567A1 (en) 2020-03-17 2020-03-17 Data processing device and data processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/011744 WO2021186557A1 (ja) 2020-03-17 2020-03-17 データ処理装置およびデータ処理方法

Publications (1)

Publication Number Publication Date
WO2021186557A1 true WO2021186557A1 (ja) 2021-09-23

Family

ID=77770859

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/011744 WO2021186557A1 (ja) 2020-03-17 2020-03-17 データ処理装置およびデータ処理方法

Country Status (3)

Country Link
US (1) US20230351567A1 (ja)
JP (1) JP7396462B2 (ja)
WO (1) WO2021186557A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010522401A (ja) * 2007-03-22 2010-07-01 ハリス コーポレイション Sar画像を圧縮解除する方法および装置
JP2010230462A (ja) * 2009-03-26 2010-10-14 Nec Corp ポラリメトリsar装置及びポラリメトリsarデータを用いる目標物同定方法
JP2012533051A (ja) * 2009-07-08 2012-12-20 テレ−リレヴァメント エウローパ−ティ.エルレ.エ. エッセ.エルレ.エルレ. 同一領域上で取得されたsar画像から得られるインターフェログラムのフィルタリング処理方法
CN103675818A (zh) * 2013-12-03 2014-03-26 中国科学院深圳先进技术研究院 极化合成孔径雷达数据地物三维距离度量方法及系统
JP2016057092A (ja) * 2014-09-05 2016-04-21 国立研究開発法人情報通信研究機構 Sar図からの立体地形図形成方法
WO2016125206A1 (ja) * 2015-02-06 2016-08-11 三菱電機株式会社 合成開口レーダ信号処理装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010522401A (ja) * 2007-03-22 2010-07-01 ハリス コーポレイション Sar画像を圧縮解除する方法および装置
JP2010230462A (ja) * 2009-03-26 2010-10-14 Nec Corp ポラリメトリsar装置及びポラリメトリsarデータを用いる目標物同定方法
JP2012533051A (ja) * 2009-07-08 2012-12-20 テレ−リレヴァメント エウローパ−ティ.エルレ.エ. エッセ.エルレ.エルレ. 同一領域上で取得されたsar画像から得られるインターフェログラムのフィルタリング処理方法
CN103675818A (zh) * 2013-12-03 2014-03-26 中国科学院深圳先进技术研究院 极化合成孔径雷达数据地物三维距离度量方法及系统
JP2016057092A (ja) * 2014-09-05 2016-04-21 国立研究開発法人情報通信研究機構 Sar図からの立体地形図形成方法
WO2016125206A1 (ja) * 2015-02-06 2016-08-11 三菱電機株式会社 合成開口レーダ信号処理装置

Also Published As

Publication number Publication date
JPWO2021186557A1 (ja) 2021-09-23
JP7396462B2 (ja) 2023-12-12
US20230351567A1 (en) 2023-11-02

Similar Documents

Publication Publication Date Title
Candy Bootstrap particle filtering
RU2503938C2 (ru) Способ и устройство частотного анализа данных
Datteo et al. On the use of AR models for SHM: a global sensitivity and uncertainty analysis framework
US8620082B1 (en) Sonar image texture segmentation
US11709254B2 (en) SAR image analysis system, image processing apparatus, image processing method, and image processing program
JP7248109B2 (ja) 合成開口レーダの信号処理装置および信号処理方法
EP2616838B1 (en) Processing sar imagery
Nelson et al. Dual-tree wavelets for estimation of locally varying and anisotropic fractal dimension
Park et al. Efficient mean shift belief propagation for vision tracking
CN110378896B (zh) 基于极化相干性的TomoSAR植被病虫害监测方法及装置
WO2021186557A1 (ja) データ処理装置およびデータ処理方法
Belov et al. A method of finding optimal parameters of speckle noise reduction filters
US20240280689A1 (en) Image analysis device and image analysis method
CN111681266A (zh) 船舶跟踪方法、系统、设备及存储介质
CN107871123B (zh) 一种逆合成孔径雷达空间目标分类方法及系统
Ammanouil et al. Multi-frequency image reconstruction for radio-interferometry with self-tuned regularization parameters
JP7188594B2 (ja) 画像処理装置および画像処理方法
US20230341544A1 (en) Image analysis device and image analysis method
Silva et al. A branch-and-bound inspired technique to improve the computational efficiency of DOA estimation
Naghibzadeh et al. Radioastronomical least squares image reconstruction with iteration regularized krylov subspaces and beamforming-based prior conditioning
US20230377201A1 (en) Image analysis device and image analysis method
Sagnol et al. Using sparse kernels to design computer experiments with tunable precision
CN110519704B (zh) 一种基于时间约束的信号稀疏表示模型的定位方法及系统
CN117970330B (zh) 基于聚合像素的时序干涉sar滤波方法和装置
Kokoshkin Estimation of spectral similarity of digital images

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20925645

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022508661

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20925645

Country of ref document: EP

Kind code of ref document: A1