WO2023233641A1 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
WO2023233641A1
WO2023233641A1 PCT/JP2022/022572 JP2022022572W WO2023233641A1 WO 2023233641 A1 WO2023233641 A1 WO 2023233641A1 JP 2022022572 W JP2022022572 W JP 2022022572W WO 2023233641 A1 WO2023233641 A1 WO 2023233641A1
Authority
WO
WIPO (PCT)
Prior art keywords
coherence
threshold
image
processing unit
image processing
Prior art date
Application number
PCT/JP2022/022572
Other languages
English (en)
French (fr)
Inventor
万莉絵 川合
正芳 土田
聡 影目
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2022/022572 priority Critical patent/WO2023233641A1/ja
Priority to JP2022552406A priority patent/JP7205005B1/ja
Publication of WO2023233641A1 publication Critical patent/WO2023233641A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing

Definitions

  • the disclosed technology relates to an image processing device.
  • image processing techniques related to radar images are known. More specifically, image processing apparatuses are known that process radar images of the ground surface obtained through observations using synthetic aperture radar that performs periodic observations.
  • Patent Document 1 discloses an image processing device that calculates multiple complex correlation distributions (coherence maps) from multiple radar images and extracts physical changes on the ground surface.
  • the conventional image processing device exemplified in Patent Document 1 only sees the coherence of two adjacent radar images when radar images are arranged in chronological order, so the information that can be obtained is limited. Therefore, the disclosed technology utilizes information obtained from the coherence of three radar images for the purpose of obtaining more information.
  • the disclosed technology improves the conventional image processing device exemplified in Patent Document 1, and achieves the extraction of physical changes that occur on the ground surface shown in radar images with higher precision than before. With the goal.
  • the image processing device includes a coherence calculation processing unit that calculates a coherence map, a threshold calculation processing unit that sets a threshold used for extracting a changed region, and a threshold processing unit that performs threshold processing using the threshold. , a change identification processing unit that identifies the type of change when it is determined that a change has occurred in the pixel of interest through threshold processing based on coherence maps for at least three images.
  • the image processing device Since the image processing device according to the disclosed technology has the above configuration, it utilizes information obtained from the coherence of three radar images to detect physical changes occurring on the ground surface shown in the radar image at a higher level than before. Can be extracted with precision.
  • FIG. 1 is a block diagram showing the functional configuration of an image processing apparatus according to the first embodiment.
  • FIG. 2 is a block diagram showing the functional configuration of the threshold calculation processing section 110a that constitutes the image processing apparatus according to the first embodiment.
  • FIG. 3 is a block diagram showing the functional configuration of the image processing device according to the second embodiment.
  • FIG. 4 is a block diagram showing the functional configuration of the threshold calculation processing section 110b that constitutes the image processing apparatus according to the second embodiment.
  • FIG. 5 is a block diagram showing the functional configuration of an image processing apparatus according to the third embodiment.
  • FIG. 6 is a block diagram showing the functional configuration of an image processing apparatus according to Embodiment 4.
  • FIG. 7 is a block diagram showing the functional configuration of a threshold calculation processing section 110d that constitutes the image processing apparatus according to the fourth embodiment.
  • FIG. 1 is a block diagram showing the functional configuration of an image processing apparatus according to the first embodiment.
  • the image processing apparatus according to the first embodiment includes a data storage section 1, a coherence calculation processing section 2, a threshold calculation processing section 110a, a threshold processing section 200a, a change identification processing section 3a, and an output data storage section 4.
  • Components with a suffix "a”, such as the threshold calculation processing section 110a, the threshold processing section 200a, and the change identification processing section 3a indicate aspects in Embodiment 1, and will be described later.
  • a modification is shown in the embodiment. Components whose symbols are not followed by an alphabet are commonly used in the technology disclosed herein, regardless of which embodiment they are used in.
  • the data storage unit 1 is a component that stores images handled by the image processing device. Specifically, the data storage unit 1 stores data related to N images (hereinafter referred to as "image data") obtained through N observations and distorted at different times.
  • image data data related to N images (hereinafter referred to as "image data") obtained through N observations and distorted at different times.
  • the image handled by the image processing device according to the disclosed technique is, for example, a radar image.
  • the image data stored in the data storage section 1 can be read from other functional blocks of the image processing apparatus, such as the coherence calculation processing section 2.
  • the coherence calculation processing unit 2 is a component that calculates a coherence distribution between images. As a first step, the coherence calculation processing unit 2 calculates a complex radar image for each of the read N radar images. As a second step, the coherence calculation processing unit 2 calculates the coherence distribution between complex radar images (hereinafter referred to as a "coherence map") for all combinations ( N C 2 ways) of extracting two images from the calculated N complex radar images. ). A coherence map is sometimes referred to as a complex correlation distribution. The coherence map generation performed by the coherence calculation processing unit 2 is performed based on each pixel information of the complex radar image.
  • the threshold value calculation processing unit 110 is a component that sets a threshold value used for extracting a "change area" which will be described later. Details of the threshold value calculation processing unit 110 will become clear from the explanation regarding FIG. 2, which will be described later.
  • the threshold processing unit 200 is a component that performs threshold processing using the threshold set by the threshold calculation processing unit 110.
  • the purpose of the threshold processing performed by the threshold processing unit 200 is to determine whether a change has occurred in the pixel of interest.
  • the change identification processing unit 3 is a component that identifies the type of change when it is determined that a change has occurred in the pixel of interest.
  • the type of change identified by the change identification processing section 3 is sent to the output data storage section 4.
  • the type of change identified by the change identification processing unit 3 may be programmed to be displayed on a display unit of an image processing device (not shown).
  • the output data storage unit 4 is a component that stores the type of change identified by the change identification processing unit 3.
  • the coherence calculation processing unit 2 constituting the image processing device calculates each complex radar image for the N radar images read.
  • the coherence calculation processing unit 2 then generates coherence maps between complex radar images for all combinations ( N C 2 ways) in which two images are extracted from the calculated N complex radar images.
  • n and m represent sampling numbers regarding images. That is, both n and m are natural numbers from 1 to N.
  • the sampling numbers (n and m) regarding the image may be rephrased as the frame number regarding the image.
  • the radar images assumed by the technology of the present disclosure are a plurality of radar images obtained by observing the same area at different acquisition times.
  • the disclosed technology assumes a radar image related to a synthetic aperture radar mounted on a flying object (artificial satellite or aircraft) that performs regular observations multiple times. Considering this, the sampling period is on the order of one week or one month. Therefore, although the sampling numbers (n and m) related to images can be considered as frame numbers related to images, a moving image created by arranging the images will be played back much faster than in real time.
  • the sampling period of radar images handled by the image processing device may be short, such as daily or hourly. In such a case, even if two images with adjacent sampling numbers are compared, for example, the n-th radar image and the n+1-th radar image, there is not much difference. In this case, when conventional image processing is performed to calculate the coherence of the (n+1)th radar image seen from the nth radar image, only a coherence close to 1 is uniformly calculated for every pixel. The disclosed technology is effective in cases where the sampling period is short as described above.
  • the image processing device calculates coherence (C n ) not only for two images with adjacent sampling numbers but also for two images with different sampling numbers.
  • n-th radar image The coherence between the radar image at the n-th sampling (hereinafter simply referred to as the "n-th radar image”) and the radar image at the m-th sampling (hereinafter simply referred to as the "m-th radar image”) C n ) is given by the following formula.
  • Z n (y, x) in Equation (1) indicates the value of data (referred to as “data value”) at the position (y, x) in the n-th radar image.
  • Z m (y, x) in Equation (1) is the data value at the position (y, x) in the m-th radar image.
  • L appearing in equation (1) represents the number of pixels used to calculate the coherence of the pixel of interest located at (y, x).
  • Equation (1) indicates complex common benefit.
  • the coherence (C n ) given by equation (1) is based on the premise that the n-th radar image and the m-th radar image are acquired in the same satellite orbit. Coherence (C n ) has a property that the smaller the change in the ground surface, the closer the value is to "1", and conversely, the more the change in the ground surface, the smaller the value.
  • an operation for calculating the sum of L pixels is used in the denominator and numerator.
  • the disclosed technique may use the result of performing spatial filtering on the L pixels instead of the sum of the L pixels.
  • the disclosed technology calculates the data value (Z n (y, x)) at the position (y, x) in the n-th radar image by It may also be defined as "the result of spatially (for example, in the y direction or x direction) Fourier transform of the L pixels given above". In this case, the sum calculation in equation (1) is not performed.
  • Z n (y, x) is a complex number. It can also be understood that coherence (C n ) is a complex number on a unit circumference on a complex plane. Details of the method for calculating coherence (C n ) will become clear from the description of the sixth embodiment.
  • the threshold value calculation processing unit 110 that constitutes the image processing apparatus sets the threshold value used for extracting the "change area".
  • the threshold values set by the threshold calculation processing unit 110 are expressed as P thd and P thu .
  • the subscripts used for P thd and P thu are derived from th of Threshold meaning threshold, d of down meaning below, and u of up meaning above.
  • the threshold value processing unit 200 configuring the image processing apparatus performs threshold value processing using the threshold values (P thd and P thu ).
  • the threshold processing performed by the threshold processing unit 200 is based on the conditional expression shown below.
  • the term "pixel of interest” listed in Table 1 means the pixel of interest located at (y, x) of the coherence map formed by the set of the n-th radar image and the m-th radar image.
  • coherence (C n ) is originally a complex number, but as seen in the prior art exemplified in Patent Document 1, it is sometimes discussed focusing only on the real part of the complex number.
  • conditional expression shown in Table 1 means focusing on the real part of a complex number for coherence and comparing it with a threshold value which is a real number.
  • the threshold processing unit 200 performs the threshold processing shown in Table 1 on all combinations ( NC 2 ) of coherence maps.
  • coherence (C n ) is a complex number on the unit circumference on the complex plane. Moreover, the coherence (C n ) becomes a value closer to "1" as there are fewer changes on the ground surface. In other words, the real part of coherence (C n ) approaches 1 as there are fewer changes on the earth's surface.
  • the conditional expression shown in the upper part of Table 1 when the real part of coherence (C n ) is less than or equal to the lower threshold value (P thd ), it seems strange that the pixel of interest is determined to be in a changing region. There isn't.
  • the conditional expressions shown in the lower part of Table 1 take into consideration areas such as forests and water areas.
  • FIG. 2 is a block diagram showing the functional configuration of the threshold calculation processing section 110a that constitutes the image processing apparatus according to the first embodiment.
  • the threshold calculation processing section 110a includes a pixel of interest setting section 120a, an average calculation processing section 130a, a threshold storage section 140a, and a threshold setting section 150a.
  • the pixel of interest setting section 120a in the threshold value calculation processing section 110a carries out a process of selecting a pixel to be used for setting a threshold value.
  • the pixel of interest setting unit 120a acquires the coherence (C n ) given by equation (1) in chronological order.
  • the average calculation processing unit 130a in the threshold calculation processing unit 110a calculates the coherence of each pixel set by the pixel of interest setting unit 120a, and further calculates the average value.
  • Parameters used for threshold calculation are stored in advance in the threshold storage unit 140a of the threshold calculation processing unit 110a.
  • the parameters used to calculate the threshold are, for example, offset values ( ⁇ d and ⁇ u ).
  • the threshold value setting unit 150a in the threshold value calculation processing unit 110a sets the threshold values (P thd , P thu ) to determine.
  • the threshold values (P thd , P thu ) determined by the threshold value setting unit 150a are given by, for example, the following formula.
  • the image processing device according to the first embodiment uses a preset offset value ( ⁇ A region having a width of d and ⁇ u ) is set as a "region that is not a change region.”
  • ⁇ A region having a width of d and ⁇ u is set as a "region that is not a change region.”
  • the purpose of using an average value when setting a threshold value is shown in, for example, Patent Document 1.
  • regions such as forests and water bodies have low coherence to begin with.
  • the image processing device sets a threshold based on the average value of coherence.
  • forests are lost due to logging, coherence is thought to change from low to high coherence. For this reason, not only the lower threshold (P thd ) but also the higher threshold (P thu ) is set.
  • the change identification processing unit 3 identifies the type of change. This process performed by the change identification processing unit 3 is referred to as "change identification" in this specification.
  • the change identification processing unit 3 may perform the change identification based on the coherence calculated from three arbitrary images, that is, the rate of change in coherence.
  • the change identification processing unit 3a compares the coherence (C n (m 2 )) of the m 2 -th image viewed from the n-th image with a threshold value.
  • Case 1 shown in Table 2 is a situation in which there is no change from the nth to the m1th and from the m1th to the m2th .
  • Table 3 shows the changes from the nth to the m2th at once. The top row of Table 3 shows that there has been a change from the nth to the m2th .
  • the judgment result in this case is "gradual change throughout the period.”
  • the middle row of Table 3 shows that there was no change even when looking at the changes from the nth to the m2th . Therefore, the determination result in this case is "no change.”
  • the bottom row of Table 3 shows that the coherence when looking from the nth to the m2th at once is higher than other combinations. That is, in this case, there is almost no change between the nth image and the m2th image. This phenomenon can occur when a slight change occurs at m 1 th. Furthermore, this phenomenon is a situation in which a slight change that occurred at the m -th point has been restored by the m -th point. Therefore, the determination result in this case is "a slight change in the m 1st ".
  • the change identification processing unit 3a processes a total of 11 types of situations (case 1A, case 1B, case 1C, case 2, case 3, case 4, case 5, case 6, case 7, In case 8 and case 9), change identification is performed for the pixel of interest.
  • the image processing device can extract a change even when both C n (m 1 ) and C m1 (m 2 ) are change regions.
  • the change identification processing unit 3 performs change identification for each pixel of interest.
  • the results of the processing performed by the change identification processing section 3 are stored in the output data storage section 4.
  • the data stored in the output data storage section 4 may be a structure.
  • the structure stored in the output data storage unit 4 may include a field for specifying the pixel of interest and a field indicating the identification of the change obtained by the process of the change identification processing unit 3.
  • the field for specifying the pixel of interest may be the position (y, x) of the pixel of interest.
  • the field indicating change identification obtained by the process of the change identification processing unit 3a includes 11 types of situations (case 1A, case 1B, case 1C, case 2, case 3, case 4, case 5, case 6, case 7). , Case 8, and Case 9).
  • the image processing device since the image processing device according to the first embodiment has the above configuration, even if only three to ten-odd radar images are available, the physical changes can be extracted with higher precision than before.
  • Embodiment 2 is a modification of the image processing device according to the disclosed technique. Unless otherwise specified, the same symbols used in the first embodiment are used in the second embodiment. In the second embodiment, explanations that overlap with those in the first embodiment are omitted as appropriate.
  • FIG. 3 is a block diagram showing the functional configuration of the image processing device according to the second embodiment.
  • the image processing apparatus according to the second embodiment includes a data storage section 1, a coherence calculation processing section 2, a threshold calculation processing section 110b, a threshold processing section 200a, and a change identification processing section 3a. , and an output data storage section 4.
  • the configuration of the image processing apparatus according to the second embodiment is basically the same as that shown in the first embodiment.
  • Components with a suffix "b" such as the threshold value calculation processing unit 110b, indicate aspects in the second embodiment.
  • FIG. 4 is a block diagram showing the functional configuration of the threshold calculation processing section 110b that constitutes the image processing device according to the second embodiment.
  • the threshold calculation processing section 110b includes a pixel of interest setting section 120b, an average calculation processing section 130b, a threshold storage section 140b, and a threshold setting section 150b.
  • the average calculation processing unit 130a according to the first embodiment calculates the value given by equation (2), that is, the average value using only adjacent images
  • the technology of the present disclosure is not limited to this.
  • the image processing device according to the present disclosure may use a value given by the following formula in the average calculation processing section 130b.
  • the denominator N C 2 on the right side of equation (4) is the number of combinations for extracting 2 sheets from N sheets. That is, the average calculation processing unit 130b according to the second embodiment calculates the average value of coherence for all combinations.
  • the threshold values (P thd_2 , P thu_2 ) determined by the threshold value setting unit 150b are given by, for example, the following formula. As shown in equations (4) and (5), the image processing device according to the second embodiment uses preset offset values ( ⁇ d and ⁇ A region having a width of u ) is set as a "region that is not a change region.”
  • the image processing device according to the second embodiment since the image processing device according to the second embodiment has the above configuration, it has the same effects as the image processing device according to the first embodiment.
  • Embodiment 3 The image processing device according to Embodiment 3 is a modification of the image processing device according to the disclosed technique. Unless otherwise specified, in the third embodiment, the same symbols as those used in the previous embodiments are used. In the third embodiment, descriptions that overlap with those of the previously described embodiments will be omitted as appropriate.
  • FIG. 5 is a block diagram showing the functional configuration of the image processing device according to the third embodiment.
  • the image processing apparatus according to the third embodiment includes a data storage section 1, a coherence calculation processing section 2, a threshold calculation processing section 110a, a threshold processing section 200a, and a change identification processing section 3c. , and an output data storage section 4.
  • the configuration of the image processing apparatus according to the third embodiment is basically the same as that shown in the first embodiment.
  • Components with a suffix "c" such as the change identification processing section 3c, indicate aspects in the third embodiment.
  • the change identification processing unit 3a according to the first embodiment first calculates the coherence (C n (m 1 )) of the m - th image seen from the n - th image, and the coherence (C m1 ( m2 )), nine cases (case 1, case 2, case 3, case 4, case 5, case 6, case 7, case 8, and case 9) shown in Table 2 were defined. Then, the change identification processing unit 3a according to the first embodiment further converts Case 1 into three cases (Case 1A , Case 1B, and Case 1C) was defined.
  • the change identification processing unit 3 performs change identification for each pixel of interest.
  • the results of the processing performed by the change identification processing section 3 are stored in the output data storage section 4.
  • the data stored in the output data storage section 4 may be a structure.
  • the structure stored in the output data storage unit 4 may include a field for specifying the pixel of interest and a field indicating the identification of the change obtained by the process of the change identification processing unit 3.
  • the field for specifying the pixel of interest may be the position (y, x) of the pixel of interest.
  • the field indicating the identification of the change obtained by the process of the change identification processing unit 3c may be any field that can identify any of the 27 types of situations.
  • the image processing apparatus according to the third embodiment since the image processing apparatus according to the third embodiment has the above configuration, it has the same effects as the image processing apparatus according to the previously described embodiments.
  • Embodiment 4 is a modification of the image processing device according to the disclosed technology. Unless otherwise specified, in the fourth embodiment, the same symbols as those used in the previously described embodiments are used. In the fourth embodiment, descriptions that overlap with those of the previously described embodiments will be omitted as appropriate.
  • FIG. 6 is a block diagram showing the functional configuration of an image processing device according to Embodiment 4.
  • the image processing apparatus according to the fourth embodiment includes a data storage section 1, a coherence calculation processing section 2, a threshold calculation processing section 110d, a threshold processing section 200d, and a change identification processing section 3d. , and an output data storage section 4.
  • the configuration of the image processing apparatus according to the third embodiment is basically the same as that shown in the first embodiment.
  • Components with a suffix "d" such as the change identification processing unit 3d, indicate aspects in the fourth embodiment.
  • FIG. 7 is a block diagram showing the functional configuration of a threshold calculation processing section 110d that constitutes the image processing apparatus according to the fourth embodiment.
  • the threshold calculation processing section 110d includes a pixel of interest setting section 120d, an average calculation processing section 130d, a threshold storage section 140d, and a threshold setting section 150d.
  • the image processing device may simultaneously include the aspect shown in Embodiment 2 and the aspect shown in Embodiment 3.
  • the average calculation processing unit 130d performs the processing given by equation (4) and calculates the average value of coherence for all combinations.
  • the image processing device is not limited to the aspects illustrated in each embodiment, but can be implemented by combining the embodiments, modifying any component of each of the embodiments, or implementing the Any component can be omitted in each of the forms.
  • the image processing apparatus according to the fourth embodiment since the image processing apparatus according to the fourth embodiment has the above configuration, it has the same effects as the image processing apparatus according to the previously described embodiments.
  • Embodiment 5 is a modification of the image processing device according to the disclosed technology. Unless otherwise specified, in the fifth embodiment, the same symbols as those used in the previously described embodiments are used. In the fifth embodiment, descriptions that overlap with those of the previously described embodiments will be omitted as appropriate.
  • the average value of coherence is calculated in the average calculation processing unit 130, and the average value calculated in the threshold value setting unit 150 is used as the center.
  • a region having a width of the set offset values ( ⁇ d and ⁇ u ) was set as a “region that is not a change region”.
  • the image processing device according to the disclosed technology is not limited to one that uses offset values ( ⁇ d and ⁇ u ) that are set in advance.
  • the image processing device according to Embodiment 5 refers to the theoretical dispersion value or the false alarm probability when setting the "area that is not a changing area" instead of the offset values ( ⁇ d and ⁇ u ) set in advance. It's okay.
  • the image processing apparatus according to the fifth embodiment has the above configuration, in addition to the same effects as the image processing apparatus according to the previously described embodiments, the degree of freedom regarding setting of "areas that are not change areas" is increased. It has the effect of being able to do things.
  • Embodiment 6 The image processing device according to Embodiment 6 is a modification of the image processing device according to the disclosed technique. Unless otherwise specified, in the sixth embodiment, the same symbols as those used in the previously described embodiments are used. In the sixth embodiment, descriptions that overlap with those of the previously described embodiments will be omitted as appropriate.
  • the radar image to be processed may be processed in advance or may be unprocessed.
  • the image processing device according to Embodiment 6 is an embodiment in which pre-processing is performed on a radar image.
  • the technology of the present disclosure converts the data value (Z n (y, x)) at the position (y, x) in the n-th radar image into "position (y, x) may be defined as "the result of spatially (for example, in the y direction or x direction) Fourier transform of L pixels centered on .
  • Z n (y, x) may be, for example, a value given by the following formula.
  • L 2 appearing in equation (6) corresponds to L appearing in equation (1).
  • Equation (6) is the result of Fourier transformation of L 2 +1 pixels centered at the position (y, x) in the y direction, or more precisely, the result of transformation using a descriptive function.
  • b(y, x) in equation (6) represents the brightness of the pixel at position (y, x).
  • the coherence (C n ) between images that do not change at all can be derived.
  • the coherence (C n ) between images with no change at all can be calculated as the coherence (C n ) of the n-th radar image viewed from the n-th radar image as follows.
  • Equation (6) related to spatial Fourier transform is shown as an example of pre-processing, the technology of the present disclosure is not limited thereto.
  • the image processing device according to the present disclosure may perform temporal Fourier transformation instead of using equation (6). More specifically, the image processing device according to the present disclosure, for example, divides radar images according to the observed seasons, performs temporal Fourier transform on the radar images for each season, and performs a comparison between seasons. You may go.
  • the image processing device may be applied to processed images that have been subjected to semantic segmentation, which is a deep learning algorithm.
  • semantic segmentation which is a deep learning algorithm.
  • the image processing according to the disclosed technology can also be used in conjunction with semantic segmentation.
  • the image processing device is not limited to semantic segmentation, and may be applied to intermediate products of learning models related to artificial intelligence such as neural networks, for example, feature amount maps.
  • the image processing according to the disclosed technology can also be used in conjunction with artificial intelligence.
  • the image processing apparatus according to the sixth embodiment since the image processing apparatus according to the sixth embodiment has the above configuration, it has the same effects as the image processing apparatus according to the previously described embodiments.
  • the technology disclosed herein can be applied, for example, to an image processing device that processes radar images of the ground surface obtained through observation using synthetic aperture radar that performs periodic observations, and has industrial applicability.
  • 1 Data storage section 2 Coherence calculation processing section, 3 Change identification processing section, 4 Output data storage section, 110 Threshold calculation processing section, 120 Pixel of interest setting section, 130 Average calculation processing section, 140 Threshold storage section, 150 Threshold setting section , 200 threshold processing unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本開示技術に係る画像処理装置は、コヒーレンスマップを算出するコヒーレンス算出処理部(2)と、変化領域の抽出に用いられる閾値を設定する閾値算出処理部(110)と、閾値を用いて閾値処理をする閾値処理部(200)と、少なくとも3枚の画像についてのコヒーレンスマップに基づいて、閾値処理により注目画素に変化が生じたと判断された場合に、その変化の種類を識別する変化識別処理部(3)と、を備える。

Description

画像処理装置
 本開示技術は画像処理装置に関する。
 一般に、レーダ画像に関する画像処理技術が知られている。より詳細には、定期観測を行う合成開口レーダの観測により得られる地表面のレーダ画像を処理する画像処理装置が知られている。
 例えば、特許文献1には、複数枚のレーダ画像から複数枚の複素相関分布(コヒーレンスマップ)を計算し、地表の物理的な変化を抽出する画像処理装置が開示されている。
特開2009-289111号公報
 特許文献1に例示される従来の画像処理装置は、レーダ画像を時系列にならべたとき、隣接する2枚のレーダ画像のコヒーレンスしか見ていなかったため、得られる情報にかぎりがあった。そこで、本開示技術は、より多くの情報を得ることを目的として、3枚のレーダ画像のコヒーレンスから得られる情報を活用する。本開示技術は、特許文献1に例示される従来の画像処理装置を改良し、レーダ画像に写っている地表面に生じた物理的な変化を従来よりも高い精度で抽出することを実現することを目的とする。
 本開示技術に係る画像処理装置は、コヒーレンスマップを算出するコヒーレンス算出処理部と、変化領域の抽出に用いられる閾値を設定する閾値算出処理部と、閾値を用いて閾値処理をする閾値処理部と、少なくとも3枚の画像についてのコヒーレンスマップに基づいて、閾値処理により注目画素に変化が生じたと判断された場合に、その変化の種類を識別する変化識別処理部と、を備える。
 本開示技術に係る画像処理装置は上記構成を備えるため、3枚のレーダ画像のコヒーレンスから得られる情報を活用し、レーダ画像に写っている地表面に生じた物理的な変化を従来よりも高い精度で抽出することができる。
図1は、実施の形態1に係る画像処理装置の機能構成を示すブロック図である。 図2は、実施の形態1に係る画像処理装置を構成する閾値算出処理部110aの機能構成を示すブロック図である。 図3は、実施の形態2に係る画像処理装置の機能構成を示すブロック図である。 図4は、実施の形態2に係る画像処理装置を構成する閾値算出処理部110bの機能構成を示すブロック図である。 図5は、実施の形態3に係る画像処理装置の機能構成を示すブロック図である。 図6は、実施の形態4に係る画像処理装置の機能構成を示すブロック図である。 図7は、実施の形態4に係る画像処理装置を構成する閾値算出処理部110dの機能構成を示すブロック図である。
実施の形態1.
 図1は、実施の形態1に係る画像処理装置の機能構成を示すブロック図である。図1に示されるとおり実施の形態1に係る画像処理装置は、データ格納部1と、コヒーレンス算出処理部2と、閾値算出処理部110aと、閾値処理部200aと、変化識別処理部3aと、出力データ格納部4と、を含む。
 閾値算出処理部110a、閾値処理部200a、及び変化識別処理部3a、のように符号の後ろに「a」が付された構成要素は、実施の形態1における態様を示したものであり、後述の実施の形態において変形例が示される。符号の後ろにアルファベットが付かない構成要素は、どの実施の形態のものかを問わず、本開示技術において共通に使われるものである。
《データ格納部1》
 データ格納部1は、画像処理装置が扱う画像を格納する構成要素である。データ格納部1は、具体的には、N回の観測により得られた、異なる時刻に雑像された、N枚の画像に係るデータ(以降、「画像データ」と称する)を格納する。本開示技術に係る画像処理装置が扱う画像は、例えば、レーダ画像が想定される。
 データ格納部1に格納された画像データは、画像処理装置の他の機能ブロック、例えばコヒーレンス算出処理部2から、読み込むことができる。
《コヒーレンス算出処理部2》
 コヒーレンス算出処理部2は、画像間のコヒーレンス分布を算出する構成要素である。
 コヒーレンス算出処理部2は、第1ステップとして、読み込んだN枚のレーダ画像に対し、それぞれの複素レーダ画像を算出する。コヒーレンス算出処理部2は、第2ステップとして、算出したN枚の複素レーダ画像から2枚を抽出する全ての組合せ(N通り)について、複素レーダ画像間のコヒーレンス分布(以降、「コヒーレンスマップ」と称する)を生成する。コヒーレンスマップは、複素相関分布と称されることもある。コヒーレンス算出処理部2が行うコヒーレンスマップの生成は、複素レーダ画像の各画素情報に基づいて、実施される。
《閾値算出処理部110》
 閾値算出処理部110は、後述の「変化領域」の抽出に用いられる閾値を設定する構成要素である。閾値算出処理部110の詳細は、後述の図2についての説明により明らかとなる。
《閾値処理部200》
 閾値処理部200は、閾値算出処理部110が設定する閾値を用いて、閾値処理をする構成要素である。閾値処理部200が行う閾値処理の目的は、注目画素に変化が生じたか否かを判断することにある。
《変化識別処理部3》
 変化識別処理部3は、注目画素に変化が生じたと判断された場合に、その変化の種類を識別する構成要素である。変化識別処理部3において識別された変化の種類は、出力データ格納部4へと送られる。変化識別処理部3において識別された変化の種類は、図示しない画像処理装置の表示部に表示されるようプログラムされてもよい。
《出力データ格納部4》
 出力データ格納部4は、変化識別処理部3において識別された変化の種類を格納する構成要素である。
《画像処理装置の処理内容について》
 画像処理装置を構成するコヒーレンス算出処理部2は、前述のとおり、読み込んだN枚のレーダ画像に対し、それぞれの複素レーダ画像を算出する。コヒーレンス算出処理部2は、その後、算出したN枚の複素レーダ画像から2枚を抽出する全ての組合せ(N通り)について、複素レーダ画像間のコヒーレンスマップを生成する。
 本明細書において、n及びmは、画像に関するサンプリング番号を表すものとする。すなわちnもmも、1からNまでの自然数をとるものである。画像に関するサンプリング番号(n、及びm)は、画像に関するフレーム番号と言い換えてもよい。ただし、本開示技術が想定するレーダ画像は、取得時期の異なる同一領域を観測した複数枚のレーダ画像である。すなわち、本開示技術は、複数回の定期観測を行う飛翔体(人工衛星、又は航空機)に搭載された合成開口レーダに係るレーダ画像を想定している。このように考えると、サンプリング周期は、1週間単位、又は月単位、といったオーダのものである。したがって、画像に関するサンプリング番号(n、及びm)を画像に関するフレーム番号と考えることもできるが、当該画像を連ねて作られた動画は、実時間よりもかなり早回しで再生されることになる。
 画像処理装置が扱うレーダ画像のサンプリング周期は、例えば、日単位、又は時間単位、といったように短い場合もある。このような場合に、サンプリング番号が隣接する2つの画像、例えば、n番目のレーダ画像とn+1番目のレーダ画像とを見比べても、変化はあまりない。この場合、従来の画像処理を施し、n番目のレーダ画像から見たn+1番目のレーダ画像のコヒーレンスを計算したところで、どの画素についても一様に1に近いコヒーレンスが算出されるのみである。
 本開示技術は、このようにサンプリング周期が短い場合に対して、有効である。本開示技術に係る画像処理装置は、サンプリング番号が隣接する2枚の画像のみならず、サンプリング番号が離れた2枚の画像に対しても、コヒーレンス(C)を算出する。
 n番目のサンプリングにおけるレーダ画像(以降、単に「n番目レーダ画像」と称する)からみて、m番目のサンプリングにおけるレーダ画像(以降、単に、「m番目レーダ画像」と称する)との間のコヒーレンス(C)は、以下の式で与えられる。

Figure JPOXMLDOC01-appb-I000001

ここで、式(1)におけるZ(y,x)は、n番目レーダ画像における位置(y,x)におけるデータの値(「データ値」と称する)を示す。同様に、式(1)におけるZ(y,x)は、m番目レーダ画像における位置(y,x)におけるデータ値である。式(1)に登場するLは、(y、x)に位置する注目画素のコヒーレンスを算出するために用いられる画素の個数を表す。また、式(1)に登場する上付添え字のアスタリスク(*)は、複素共益を示す。式(1)においてmは、nよりも大きい自然数である。なお、m=n+1とおけば、式(1)は、特許文献1に例示される従来技術に係るコヒーレンスの式と同じものになる。
 式(1)により与えられるコヒーレンス(C)は、n番目レーダ画像とm番目レーダ画像とが同一の衛星軌道において取得されたものである、という前提に基づく。コヒーレンス(C)は、地表面における変化が少ないほど「1」に近い値をとり、逆に、地表面における変化が多いほど小さな値をとる、という性質を有する。
 式(1)で与えられるコヒーレンス(C)の式には、分母分子に、L個の画素について総和を求める演算が使用されている。本開示技術は、このL個の画素の総和に代えて、L個の画素に対して空間フィルタリング(Spatial Filtering)を施した結果を用いてもよい。
 また、本開示技術は、コヒーレンス(C)の算出に際し、n番目レーダ画像における位置(y,x)におけるデータ値(Z(y,x))を、『位置(y,x)を中心としたL個の画素を、空間的に(例えばy方向又はx方向に)フーリエ変換した結果』と定義してもよい。この場合、式(1)における総和の演算は行わない。このように考えれば、Z(y,x)が複素数であることをより理解できる。また、コヒーレンス(C)が、複素平面上における単位円周上の複素数であることを理解できる。コヒーレンス(C)の算出方法の詳細は、実施の形態6の説明により明らかとなる。
 前述のとおり、画像処理装置が扱うレーダ画像のサンプリング周期が短い場合に、サンプリング番号が隣接する2つの画像、例えば、n番目のレーダ画像とn+1番目のレーダ画像とを見比べても、変化はあまりない。変化を抽出するのに効果的な方法は、時系列にならべた画像において、最初と最後とを比較することである。したがって、式(1)に基づいて算出されるコヒーレンス(C)において重要なのは、最初のフレームから見た最後のフレームについてのコヒーレンス(C(N,y,x))である。また、最初のフレームに係る画像を基準画像として、残りのN-1枚の画像についてのコヒーレンス(C)を追っていく、という手法も効果的である。この方法は、変化が生じたフレームを、すなわち変化が生じた時期を、特定する上で効果的である。
 画像処理装置を構成する閾値算出処理部110は、前述のとおり、「変化領域」の抽出に用いられる閾値を設定する。閾値算出処理部110が設定する閾値は、本明細書では、Pthd及びPthuと表すものとする。Pthd及びPthuに用いられる下付き添え字は、閾値を意味するThresholdのth、下を意味するdownのd、上を意味するupのu、を由来とする。
 閾値算出処理部110は、コヒーレンス算出処理部2により算出された注目画素(位置(y,x))に関するコヒーレンスのうち、隣接するN-1個のコヒーレンス、すなわちm=n+1としたときのコヒーレンスに基づいて、Pthd及びPthuを設定してよい。
 画像処理装置を構成する閾値処理部200は、前述のとおり、閾値(Pthd、及びPthu)を用いて、閾値処理をする。閾値処理部200が実施する閾値処理は、具体的には、以下に示される条件式に基づく。

Figure JPOXMLDOC01-appb-I000002

ここで、表1に記載されている「注目画素」の用語は、n番目レーダ画像とm番目レーダ画像との組によるコヒーレンスマップの(y,x)に位置する注目画素を意味するものである。
 前述のとおり、本来、コヒーレンス(C)は複素数であるが、特許文献1に例示される従来技術に見られるよう、複素数の実部のみに着目して議論されることがある。本開示技術においても、表1に示した条件式は、コヒーレンスについて複素数の実部に着目し、実数である閾値と比較することを意味する。
 閾値処理部200は、表1に示した閾値処理を、全ての組合せ(N通り)のコヒーレンスマップについて実施する。
 前述のとおり、コヒーレンス(C)は、複素平面上における単位円周上の複素数である。またコヒーレンス(C)は、地表面における変化が少ないほど「1」に近い値となる。別の言い方をすれば、コヒーレンス(C)は、地表面における変化が少ないほど、実部が1に近づく。
 表1上段に示される条件式において、コヒーレンス(C)の実部が下側閾値(Pthd)以下であるときに、「注目画素が、変化領域である」と判断されることに、違和感はない。
 表1下段に示される条件式は、森林、及び水域といった領域を考慮したものである。森林、及び水域といった領域は、風により枝葉が揺れる、風により波が生じる、といった理由より、通常からコヒーレンス(C)が低い。森林については、伐採などにより消失した場合、コヒーレンスが低い状態から高い状態へと遷移する。水域については、温暖化などにより陸化した場合、コヒーレンスが低い状態から高い状態へと遷移する。森林、及び水域といった低コヒーレンス領域に関しては、コヒーレンス(C)が低い状態から高い状態に遷移したときに、すなわち消失があったときに、「変化領域である」と結論づける。表1下段に示される条件式は、一見すると違和感があるが、森林、及び水域といった低コヒーレンス領域を考慮すれば、違和感はない。表1下段に示される条件式に登場する上側閾値(Pthu)も、森林、及び水域といった低コヒーレンス領域を考慮して設定されるものである。
 図2は、実施の形態1に係る画像処理装置を構成する閾値算出処理部110aの機能構成を示すブロック図である。図2に示されるとおり閾値算出処理部110aは、注目画素設定部120aと、平均算出処理部130aと、閾値格納部140aと、閾値設定部150aと、を含む。
 閾値算出処理部110aにおける注目画素設定部120aは、閾値の設定に用いる画素を選択する処理を実施する。注目画素設定部120aは、式(1)で与えられるコヒーレンス(C)を、時系列順に取得する。
 閾値算出処理部110aにおける平均算出処理部130aは、注目画素設定部120aで設定される画素について、それぞれのコヒーレンスを算出し、さらに平均値を算出する処理を実施する。
 閾値算出処理部110aにおける閾値格納部140aには、あらかじめ、閾値の算出に用いられるパラメータが保存されている。閾値の算出に用いられるパラメータは、例えば、オフセット値(β及びβ)である。
 閾値算出処理部110aにおける閾値設定部150aは、平均算出処理部130aにおいて計算された平均値と、閾値格納部140aに格納されたパラメータと、に基づいて、検出に用いる閾値(Pthd、Pthu)を決定する。
 平均算出処理部130aが算出する平均値(M)は、以下の式で与えられる。

Figure JPOXMLDOC01-appb-I000003

式(2)は、具体的には、注目画素(位置(y,x))に関するコヒーレンスのうち、隣接するN-1個のコヒーレンスの平均値、すなわちm=n+1としたときのコヒーレンスの平均値、を与えるものである。
 閾値設定部150aが決定する閾値(Pthd、Pthu)は、例えば、以下の式で与えられるものである。

Figure JPOXMLDOC01-appb-I000004

 式(2)及び式(3)に示されるとおり、実施の形態1に係る画像処理装置は、実測した隣接するN-1個のコヒーレンスの平均値を中心として、あらかじめ設定されるオフセット値(β及びβ)の幅を有する領域を、「変化領域ではない領域」として設定する。
 閾値の設定に際し、平均値が用いられる趣旨は、例えば、特許文献1に示されている。特許文献1に開示されているように、森林、及び水域といった領域は、コヒーレンスがそもそも低い。コヒーレンスがそもそも低い領域について、変化を抽出するために、画像処理装置は、コヒーレンスの平均値に基づいて閾値を設定している。
 さらに、森林については、伐採などにより消失した場合、コヒーレンスが低い領域から高い領域へと変化すると考えられる。このため、低い側の閾値(Pthd)のみならず、高い側の閾値(Pthu)が設定される。
 前述のとおり、変化識別処理部3は、注目画素に変化が生じたと判断された場合に、その変化の種類を識別する。変化識別処理部3が実施するこの処理は、本明細書では、「変化の識別」と呼ぶものとする。変化識別処理部3が実施する変化の識別は、任意の3枚の画像によって算出されるコヒーレンス、すなわちコヒーレンスの変化率に基づいて、実施されてもよい。
 サンプリング時刻をn、m、m、としたときに、n番目画像からみたm番目画像のコヒーレンス(C(m))、及びm番目画像からみたm番目画像のコヒーレンス(Cm1(m))から、コヒーレンスが変化する態様は、以下の表による9通りのケースが考えられる。

Figure JPOXMLDOC01-appb-I000005

ただし、表2において、コヒーレンスを表す関数(C、Cm1)の引数において、y及びxは省略されている。表2に登場するm及びmは、式(1)に登場するmと同様、画像に関するサンプリング番号を表すものとする。n、m及びmの大小関係は、1≦n<m<m≦Nとする。
 表2に示されるケース1の場合、実施の形態1に係る変化識別処理部3aは、n番目画像からみたm番目画像のコヒーレンス(C(m))を、閾値と比較する。

Figure JPOXMLDOC01-appb-I000006

 表2に示されるケース1は、n番目からm番目も、m番目からm番目も、変化がない、という状況である。このときにn番目からいっきにm番目までの変化を見たものが、表3である。
 表3の最上行は、n番目からいっきにm番目までの変化を見ると、変化があったことを示している。したがってこの場合の判断結果は、「期間を通して徐々に変化」である。
 表3の真ん中行は、n番目からいっきにm番目までの変化を見ても、変化がなかったことを示している。したがってこの場合の判断結果は、「変化なし」である。
 表3の最下行は、n番目からいっきにm番目までをみたときのコヒーレンスが、他の組合せよりも高いことを示している。すなわち、このケースは、n番目の画像とm番目の画像との間に、変化がほとんどないというケースである。この現象は、m番目で若干の変化が発生したときに生じ得るものである。さらに言えば、この現象は、m番目で生じた若干の変化が、m番目までには復元した、という状況である。したがってこの場合の判断結果は、「m番目に若干の変化」である。
 変化識別処理部3aは、表2及び表3に示された、合計11種類の状況(ケース1A、ケース1B、ケース1C、ケース2、ケース3、ケース4、ケース5、ケース6、ケース7、ケース8、及びケース9)に、注目画素について、変化の識別を実施する。
 以上のように、本開示技術に係る画像処理装置は、C(m)及びCm1(m)が共に変化領域である場合においても、変化を抽出できる。
 変化識別処理部3は、注目画素のそれぞれに対し変化の識別を実施する。変化識別処理部3が実施した処理の結果は、出力データ格納部4に格納される。出力データ格納部4に格納されるデータは、構造体であってよい。出力データ格納部4に格納される構造体は、注目画素を特定できるためのフィールドと、変化識別処理部3の処理により得られた変化の識別を示すフィールドと、を含むようにしてよい。注目画素を特定できるためのフィールドは、具体的には、注目画素の位置(y,x)であってよい。変化識別処理部3aの処理により得られた変化の識別を示すフィールドは、11種類の状況(ケース1A、ケース1B、ケース1C、ケース2、ケース3、ケース4、ケース5、ケース6、ケース7、ケース8、及びケース9)のどれかを識別できるものであればよい。
 以上のとおり実施の形態1に係る画像処理装置は上記構成を備えるため、3枚から10数枚程度のレーダ画像しか入手できない場合であっても、レーダ画像に写っている地表面に生じた物理的な変化を従来よりも高い精度で抽出することができる。
実施の形態2.
 実施の形態2に係る画像処理装置は、本開示技術に係る画像処理装置の変形例である。特に明記する場合を除き、実施の形態2では、実施の形態1で用いられた符号と同じものが用いられる。実施の形態2では、実施の形態1と重複する説明が、適宜、省略される。
 図3は、実施の形態2に係る画像処理装置の機能構成を示すブロック図である。図3に示されるとおり、実施の形態2に係る画像処理装置は、データ格納部1と、コヒーレンス算出処理部2と、閾値算出処理部110bと、閾値処理部200aと、変化識別処理部3aと、出力データ格納部4と、を含む。このように、実施の形態2に係る画像処理装置の構成は、実施の形態1で示したものと基本的に同じである。閾値算出処理部110bのように符号の後ろに「b」が付された構成要素は、実施の形態2における態様を示したものである。
 図4は、実施の形態2に係る画像処理装置を構成する閾値算出処理部110bの機能構成を示すブロック図である。図4に示されるとおり閾値算出処理部110bは、注目画素設定部120bと、平均算出処理部130bと、閾値格納部140bと、閾値設定部150bと、を含む。
《実施の形態2に係る平均算出処理部130b》
 実施の形態1に係る平均算出処理部130aは、式(2)で与えられる値を、すなわち、隣接する画像のみを使用した平均値を求めるものであったが、本開示技術はこれに限定されない。
 本開示技術に係る画像処理装置は、平均算出処理部130bにおいて、以下の式で与えられる値を用いてもよい。

Figure JPOXMLDOC01-appb-I000007

ここで、式(4)右辺の分母のは、N枚から2枚を抽出する組合せ(Combination)の数である。すなわち、実施の形態2に係る平均算出処理部130bは、コヒーレンスの平均値を、すべての組合せについて算出する。
《実施の形態2に係る閾値設定部150b》
 閾値設定部150bが決定する閾値(Pthd_2、Pthu_2)は、例えば、以下の式で与えられるものである。

Figure JPOXMLDOC01-appb-I000008

 式(4)及び式(5)に示されるとおり、実施の形態2に係る画像処理装置は、すべての組合せで計算したコヒーレンスの平均値を中心として、あらかじめ設定されるオフセット値(β及びβ)の幅を有する領域を、「変化領域ではない領域」として設定する。
 以上のとおり実施の形態2に係る画像処理装置は上記構成を備えるため、実施の形態1に係る画像処理装置と同様の効果を奏する。
実施の形態3.
 実施の形態3に係る画像処理装置は、本開示技術に係る画像処理装置の変形例である。特に明記する場合を除き、実施の形態3では、既出の実施の形態で用いられた符号と同じものが用いられる。実施の形態3では、既出の実施の形態と重複する説明が、適宜、省略される。
 図5は、実施の形態3に係る画像処理装置の機能構成を示すブロック図である。図5に示されるとおり、実施の形態3に係る画像処理装置は、データ格納部1と、コヒーレンス算出処理部2と、閾値算出処理部110aと、閾値処理部200aと、変化識別処理部3cと、出力データ格納部4と、を含む。このように、実施の形態3に係る画像処理装置の構成は、実施の形態1で示したものと基本的に同じである。変化識別処理部3cのように符号の後ろに「c」が付された構成要素は、実施の形態3における態様を示したものである。
《実施の形態3に係る変化識別処理部3c》
 実施の形態1に係る変化識別処理部3aは、まず、n番目画像からみたm番目画像のコヒーレンス(C(m))、及びm番目画像からみたm番目画像のコヒーレンス(Cm1(m))から、表2に示す9通りのケース(ケース1、ケース2、ケース3、ケース4、ケース5、ケース6、ケース7、ケース8、及びケース9)を定義した。そして、実施の形態1に係る変化識別処理部3aは、n番目画像からみたm番目画像のコヒーレンス(C(m))から、ケース1をさらに3通り(ケース1A、ケース1B、及びケース1C)に定義した。
 実施の形態3に係る変化識別処理部3cは、表2に示す9通りのケース(ケース1、ケース2、ケース3、ケース4、ケース5、ケース6、ケース7、ケース8、及びケース9)のすべてに対し、n番目画像からみたm番目画像のコヒーレンス(C(m))を閾値と比較し、それぞれをさらに3通り、すなわち合計で9×3=27通りに定義する。
 前述のとおり、変化識別処理部3は、注目画素のそれぞれに対し変化の識別を実施する。変化識別処理部3が実施した処理の結果は、出力データ格納部4に格納される。出力データ格納部4に格納されるデータは、構造体であってよい。出力データ格納部4に格納される構造体は、注目画素を特定できるためのフィールドと、変化識別処理部3の処理により得られた変化の識別を示すフィールドと、を含むようにしてよい。注目画素を特定できるためのフィールドは、具体的には、注目画素の位置(y,x)であってよい。
 変化識別処理部3cの処理により得られた変化の識別を示すフィールドは、27種類の状況のどれかを識別できるものであればよい。
 以上のとおり実施の形態3に係る画像処理装置は上記構成を備えるため、既出の実施の形態に係る画像処理装置と同様の効果を奏する。
実施の形態4.
 実施の形態4に係る画像処理装置は、本開示技術に係る画像処理装置の変形例である。特に明記する場合を除き、実施の形態4では、既出の実施の形態で用いられた符号と同じものが用いられる。実施の形態4では、既出の実施の形態と重複する説明が、適宜、省略される。
 図6は、実施の形態4に係る画像処理装置の機能構成を示すブロック図である。図6に示されるとおり、実施の形態4に係る画像処理装置は、データ格納部1と、コヒーレンス算出処理部2と、閾値算出処理部110dと、閾値処理部200dと、変化識別処理部3dと、出力データ格納部4と、を含む。このように、実施の形態3に係る画像処理装置の構成は、実施の形態1で示したものと基本的に同じである。変化識別処理部3dのように符号の後ろに「d」が付された構成要素は、実施の形態4における態様を示したものである。
 図7は、実施の形態4に係る画像処理装置を構成する閾値算出処理部110dの機能構成を示すブロック図である。図7に示されるとおり閾値算出処理部110dは、注目画素設定部120dと、平均算出処理部130dと、閾値格納部140dと、閾値設定部150dと、を含む。
 本開示技術に係る画像処理装置は、実施の形態2で示した態様と、実施の形態3で示した態様とを、同時に備えてもよい。実施の形態4に係る画像処理装置は、平均算出処理部130dが、式(4)により与えられた処理を実施し、コヒーレンスの平均値をすべての組合せについて算出する。また実施の形態4に係る画像処理装置は、変化識別処理部3dが、表2に示す9通りのケース(ケース1、ケース2、ケース3、ケース4、ケース5、ケース6、ケース7、ケース8、及びケース9)のすべてに対し、n番目画像からみたm番目画像のコヒーレンス(C(m))を閾値と比較し、それぞれをさらに3通り、すなわち合計で9×3=27通りに定義する。
 このように本開示技術に係る画像処理装置は、各実施の形態に例示した態様に限定されず、各実施の形態を組み合わせし、実施の形態のそれぞれの任意の構成要素を変形し、又は実施の形態のそれぞれにおいて任意の構成要素を省略することができる。
 以上のとおり実施の形態4に係る画像処理装置は上記構成を備えるため、既出の実施の形態に係る画像処理装置と同様の効果を奏する。
実施の形態5.
 実施の形態5に係る画像処理装置は、本開示技術に係る画像処理装置の変形例である。特に明記する場合を除き、実施の形態5では、既出の実施の形態で用いられた符号と同じものが用いられる。実施の形態5では、既出の実施の形態と重複する説明が、適宜、省略される。
 実施の形態1から実施の形態4までに示された画像処理装置は、いずれも、平均算出処理部130においてコヒーレンスの平均値を算出し、閾値設定部150において算出した平均値を中心として、あらかじめ設定されるオフセット値(β及びβ)の幅を有する領域を「変化領域ではない領域」として設定するものであった。
 本開示技術に係る画像処理装置は、あらかじめ設定されるオフセット値(β及びβ)を利用するものに限定されない。
 実施の形態5に係る画像処理装置は、「変化領域ではない領域」の設定に際し、あらかじめ設定されるオフセット値(β及びβ)に代えて、理論分散値、又は誤警報確率を参照してもよい。
 以上のとおり実施の形態5に係る画像処理装置は上記構成を備えるため、既出の実施の形態に係る画像処理装置と同様の効果に加え、「変化領域ではない領域」の設定に関する自由度を上げることができる、という効果を奏する。
実施の形態6.
 実施の形態6に係る画像処理装置は、本開示技術に係る画像処理装置の変形例である。特に明記する場合を除き、実施の形態6では、既出の実施の形態で用いられた符号と同じものが用いられる。実施の形態6では、既出の実施の形態と重複する説明が、適宜、省略される。
 本開示技術に係る画像処理装置は、処理対象のレーダ画像が、あらかじめ加工されていても未加工であってもよい。実施の形態6に係る画像処理装置は、レーダ画像に対し処理前加工を行う態様のものである。
 前述のとおり、本開示技術は、コヒーレンス(C)の算出に際し、n番目レーダ画像における位置(y,x)におけるデータ値(Z(y,x))を、『位置(y,x)を中心としたL個の画素を、空間的に(例えばy方向又はx方向に)フーリエ変換した結果』と定義してもよい。Z(y,x)は、例えば、以下の式で与えられる値であってもよい。

Figure JPOXMLDOC01-appb-I000009

ここで、式(6)に登場するLは、式(1)に登場するLに対応したものである。式(6)は、位置(y,x)を中心としたL+1個の画素を、y方向に、フーリエ変換した結果、正確には記述関数による変換をした結果、である。式(6)におけるb(y、x)は、位置(y、x)の画素の輝度を表したものである。式(6)におけるjは、虚数を表す。なお、式(6)にはy方向へのフーリエ変換が示されているが、x方向へのフーリエ変換であってもよい。
 或る1枚のレーダ画像を見ると、森林等の特定の領域は、空間的に見て、画素の濃淡が周期的に現れることがある。例えば、レーダ画像における森林の領域は、画素の輝度が5個の画素の間隔で明るいとする。このような場合、レーダ画像に対して式(6)の変換を、L=4で行えば、輝度が5個の画素の間隔で明るくなっている領域は、Z(y,x)の絶対値(複素平面における原点からの距離)が大きい。このようにして、本開示技術は、関心のある領域(以降、「関心領域」と称する)を抽出してもよい。
 式(6)は、レーダ画像についての処理前加工の一例である。式(6)においてL=0とおけば、Z(y,x)はb(y、x)にπ/2をかけたものと等しくなり、処理前加工をしていないことと同じ意味になる。
 Z(y,x)が式(6)で与えられる場合、コヒーレンス(C)は、以下のように与えられる。

Figure JPOXMLDOC01-appb-I000010
 式(6)及び式(7)から、全く変化がない画像同士のコヒーレンス(C)を導くことができる。全く変化がない画像同士のコヒーレンス(C)は、n番目レーダ画像からみたn番目レーダ画像のコヒーレンス(C)として、以下のように算出できる。

Figure JPOXMLDOC01-appb-I000011
 n番目レーダ画像からみたm番目レーダ画像のコヒーレンス(C)と、m番目レーダ画像からみたm番目レーダ画像のコヒーレンス(C)と、が与えられている場合、n番目レーダ画像からみたm番目レーダ画像のコヒーレンス(C)は、以下のように与えられる。

Figure JPOXMLDOC01-appb-I000012
 処理前加工の一例として、空間的なフーリエ変換に係る式(6)が示されたが、本開示技術はこれに限定されない。本開示技術に係る画像処理装置は、式(6)にかえて、時間的なフーリエ変換を実施してもよい。より具体的に言えば、本開示技術に係る画像処理装置は、例えば、観測する季節ごとにレーダ画像を分け、季節ごとのレーダ画像について時間的なフーリエ変換を実施し、季節間での比較を行ってもよい。
 本開示技術に係る画像処理装置は、ディープラーニングのアルゴリズムであるセマンティックセグメンテーションを施した加工画像に適用してもよい。本開示技術に係る画像処理は、セマンティックセグメンテーションと併せて利用することもできる。
 セマンティックセグメンテーションに限らず、本開示技術に係る画像処理装置は、ニューラルネットワーク等の人工知能に係る学習モデルの中間生成物、例えば特徴量マップに適用してもよい。本開示技術に係る画像処理は、人工知能と併せて利用することもできる。
 以上のとおり実施の形態6に係る画像処理装置は上記構成を備えるため、既出の実施の形態に係る画像処理装置と同様の効果を奏する。
 本開示技術は、例えば、定期観測を行う合成開口レーダの観測により得られる地表面のレーダ画像を処理する画像処理装置に応用でき、産業上の利用可能性を有する。
 1 データ格納部、2 コヒーレンス算出処理部、3 変化識別処理部、4 出力データ格納部、110 閾値算出処理部、120 注目画素設定部、130 平均算出処理部、140 閾値格納部、150 閾値設定部、200 閾値処理部。

Claims (4)

  1.  コヒーレンスマップを算出するコヒーレンス算出処理部と、
     変化領域の抽出に用いられる閾値を設定する閾値算出処理部と、
     前記閾値を用いて前記コヒーレンスマップに閾値処理をする閾値処理部と、
     少なくとも3枚の画像についての前記コヒーレンスマップに基づいて、前記閾値処理により注目画素に変化が生じたと判断された場合に、その変化の種類を識別する変化識別処理部と、を備える、
    画像処理装置。
  2.  前記閾値算出処理部は、
     前記注目画素を設定する注目画素設定部と、
     前記注目画素について、それぞれのコヒーレンスを算出し、平均値を算出する平均算出処理部と、
     前記平均算出処理部で算出された前記平均値に基づいて、前記閾値を設定する閾値設定部と、を含む、
    請求項1に記載の画像処理装置。
  3.  前記平均算出処理部が算出する前記平均値は、サンプリング番号が隣接する画像同士のコヒーレンスについてか、又は2枚を抽出するすべての組合せの画像同士のコヒーレンスについてか、のいずれかである、
    請求項2に記載の画像処理装置。
  4.  前記注目画素が、レーダ画像、又は前記レーダ画像に対して処理前加工がなされたもの、に関するものである、
    請求項1から3のいずれか1項に記載の画像処理装置。
PCT/JP2022/022572 2022-06-03 2022-06-03 画像処理装置 WO2023233641A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2022/022572 WO2023233641A1 (ja) 2022-06-03 2022-06-03 画像処理装置
JP2022552406A JP7205005B1 (ja) 2022-06-03 2022-06-03 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/022572 WO2023233641A1 (ja) 2022-06-03 2022-06-03 画像処理装置

Publications (1)

Publication Number Publication Date
WO2023233641A1 true WO2023233641A1 (ja) 2023-12-07

Family

ID=84901078

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/022572 WO2023233641A1 (ja) 2022-06-03 2022-06-03 画像処理装置

Country Status (2)

Country Link
JP (1) JP7205005B1 (ja)
WO (1) WO2023233641A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009289111A (ja) * 2008-05-30 2009-12-10 Mitsubishi Electric Corp 画像処理装置
JP2010175381A (ja) * 2009-01-29 2010-08-12 Mitsubishi Electric Corp 画像変化抽出装置
JP2011174750A (ja) * 2010-02-23 2011-09-08 Mitsubishi Electric Corp レーダ装置
US8692704B1 (en) * 2011-09-23 2014-04-08 Sandia Corporation Registering coherent change detection products associated with large image sets and long capture intervals
JP2016142714A (ja) * 2015-02-05 2016-08-08 三菱電機株式会社 レーダ画像処理装置及びレーダ画像処理方法
JP2018169334A (ja) * 2017-03-30 2018-11-01 日本電気株式会社 レーダ画像解析システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009289111A (ja) * 2008-05-30 2009-12-10 Mitsubishi Electric Corp 画像処理装置
JP2010175381A (ja) * 2009-01-29 2010-08-12 Mitsubishi Electric Corp 画像変化抽出装置
JP2011174750A (ja) * 2010-02-23 2011-09-08 Mitsubishi Electric Corp レーダ装置
US8692704B1 (en) * 2011-09-23 2014-04-08 Sandia Corporation Registering coherent change detection products associated with large image sets and long capture intervals
JP2016142714A (ja) * 2015-02-05 2016-08-08 三菱電機株式会社 レーダ画像処理装置及びレーダ画像処理方法
JP2018169334A (ja) * 2017-03-30 2018-11-01 日本電気株式会社 レーダ画像解析システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TZOUVARAS MARIOS, DANEZIS CHRIS, HADJIMITSIS DIOFANTOS G.: "Small Scale Landslide Detection Using Sentinel-1 Interferometric SAR Coherence", REMOTE SENSING, MOLECULAR DIVERSITY PRESERVATION INTERNATIONAL (MDPI), CH, vol. 12, no. 10, CH , pages 1560, XP093116049, ISSN: 2072-4292, DOI: 10.3390/rs12101560 *

Also Published As

Publication number Publication date
JPWO2023233641A1 (ja) 2023-12-07
JP7205005B1 (ja) 2023-01-16

Similar Documents

Publication Publication Date Title
Anantrasirichai et al. A deep learning approach to detecting volcano deformation from satellite imagery using synthetic datasets
Ma et al. Deep learning for geological hazards analysis: Data, models, applications, and opportunities
Olmedo et al. Automatic detection and tracking of coronal mass ejections in coronagraph time series
Bentes et al. Ship-iceberg discrimination with convolutional neural networks in high resolution SAR images
EP2758915B1 (de) Verfahren zur automatisierten echtzeit-erfassung von marinen säugern
CN109359661B (zh) 一种基于卷积神经网络的Sentinel-1雷达图像分类方法
CN109635789B (zh) 基于强度比和空间结构特征提取的高分辨sar图像分类方法
CN103729854A (zh) 一种基于张量模型的红外弱小目标检测方法
CN103198480A (zh) 基于区域和Kmeans聚类的遥感图像变化检测方法
CN106951909A (zh) 一种gf‑4卫星遥感影像的积雪识别方法
Andriyanov et al. Pattern recognition on radar images using augmentation
Williams Exploiting phase information in synthetic aperture sonar images for target classification
Marmanis et al. Deep neural networks for above-ground detection in very high spatial resolution digital elevation models
CN114332053A (zh) 一种多模态两阶段无监督视频异常检测方法
Shang et al. PolSAR land classification by using quaternion-valued neural networks
WO2023233641A1 (ja) 画像処理装置
Guillon et al. Reducing training dataset bias for automatic fault detection
CN109993744A (zh) 一种海上逆光环境下的红外目标检测方法
CN113129214A (zh) 一种基于生成对抗网络的超分辨率重建方法
Vasyukov et al. An adaptive procedure of smoke and background discrimination in the early fire detection video system
Berghmans et al. Automated detection of CMEs in LASCO data
Herzfeld et al. A connectionist-geostatistical approach to automated image classification, applied to the analysis of crevasse patterns in surging ice
Utama et al. Young lunar crescent detection based on video data with computer vision techniques
Lee et al. Extracting hurricane eye morphology from spaceborne SAR images using morphological analysis
Pacifici et al. Pulse coupled neural networks for automatic urban change detection at very high spatial resolution

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2022552406

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22944922

Country of ref document: EP

Kind code of ref document: A1