JP2010175381A - Image change extraction apparatus - Google Patents

Image change extraction apparatus Download PDF

Info

Publication number
JP2010175381A
JP2010175381A JP2009018149A JP2009018149A JP2010175381A JP 2010175381 A JP2010175381 A JP 2010175381A JP 2009018149 A JP2009018149 A JP 2009018149A JP 2009018149 A JP2009018149 A JP 2009018149A JP 2010175381 A JP2010175381 A JP 2010175381A
Authority
JP
Japan
Prior art keywords
change
data
extraction
definition
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009018149A
Other languages
Japanese (ja)
Other versions
JP5183512B2 (en
Inventor
Kaori Kawakami
かおり 川上
Atsuo Ozaki
敦夫 尾崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2009018149A priority Critical patent/JP5183512B2/en
Publication of JP2010175381A publication Critical patent/JP2010175381A/en
Application granted granted Critical
Publication of JP5183512B2 publication Critical patent/JP5183512B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image change extraction apparatus for extracting a physical change occurring on the surface of the earth with a higher accuracy and for correctly displaying the spacial continuity of the change. <P>SOLUTION: The image change extraction apparatus includes, a noise removal unit 2 for removing the noise targeting a coherence map, a characteristic amount extraction unit 6 for extracting the characteristic amount from the image after the noise removal, a coherence average calculation unit 3 for calculating the temporal and spacial average of pixels composing the coherence map, a change extraction unit 4 for extracting the change using time-series change information of the coherence map, a change time adjustment unit 5 for detecting the discrepancy of the occurrence time of the change and for making the time adjustment, and a change sorting unit 7 for sorting the change and outputting the change sorted image data after the change sorting as an overall output. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、複数回の定期観測による複数枚のレーダ画像から得られた複数枚の複素相関分布(コヒーレンスマップ)から物理的な変化を抽出する画像変化抽出装置に関する。   The present invention relates to an image change extraction apparatus that extracts physical changes from a plurality of complex correlation distributions (coherence maps) obtained from a plurality of radar images obtained by a plurality of periodic observations.

撮像がほぼ同一の条件で得られた、同一エリアに対する、取得時刻の異なる2枚のレーダ画像から、1枚目の画像取得時と2枚目の画像取得時との間で地表面に生じた変化を抽出する技術の一つにCCD(Coherent Change Detection)がある。CCDでは、SAR(Synthetic Aperture Radar)画像の輝度情報に加えて位相情報をも利用して変化検出を実施するため、輝度変化による変化抽出技術と比較して変化に対する感度が高いという特長がある。   It occurred on the ground surface between the time when the first image was acquired and the time when the second image was acquired from two radar images with different acquisition times for the same area obtained under almost the same conditions. One technique for extracting changes is CCD (Coherent Change Detection). In CCD, since change detection is performed using phase information in addition to luminance information of a SAR (Synthetic Aperture Radar) image, there is a feature that sensitivity to the change is higher than a change extraction technique based on luminance change.

CCDでは2枚のSAR画像間の複素相関値(コヒーレンス)を地表面に生じた変化を表す指標として用いる。このコヒーレンスは、変化のない領域では1に近い値をとり、変化のあった領域については0に近い値をとる性質がある。従って、地表面の変化は2枚のSAR画像間のコヒーレンスの低い領域を閾値処理する、すなわち、閾値以下の領域を抽出することで変化領域を抽出することが可能となる。例えば従来技術では、2枚のSAR画像から算出したコヒーレンスの分布(コヒーレンスマップ)から設定した誤警報確率に基づいた閾値処理を実施している(例えば、非特許文献1〜3参照)。   In a CCD, a complex correlation value (coherence) between two SAR images is used as an index representing a change occurring on the ground surface. This coherence has a property of taking a value close to 1 in a region where there is no change and taking a value close to 0 in a region where there has been a change. Therefore, as for the change in the ground surface, it is possible to extract a change area by performing threshold processing on an area with low coherence between two SAR images, that is, extracting an area below the threshold. For example, in the prior art, threshold processing based on a false alarm probability set from a coherence distribution (coherence map) calculated from two SAR images is performed (for example, see Non-Patent Documents 1 to 3).

Mark Preiss, Doug Gray, and Nick Stacy, "A Change Detection Technique for Repeat Pass Interferometric SAR," IEEE Geoscience and Remote Sensing Symposium Proceedings, 2003. IGARSS' 03. 2003, 2, 21-25Mark Preiss, Doug Gray, and Nick Stacy, "A Change Detection Technique for Repeat Pass Interferometric SAR," IEEE Geoscience and Remote Sensing Symposium Proceedings, 2003. IGARSS '03. 2003, 2, 21-25 Jong-Sen Lee, Karl W. Hoppel, Stephen A. Mango and Allen R. Miller, "Intensity and Phase Statistics of Multilook Polarimetric and Interferometric SAR Imagery", IEEE Transaction On Geoscience and Remote Sensing, vol.32, No.5, 1994Jong-Sen Lee, Karl W. Hoppel, Stephen A. Mango and Allen R. Miller, "Intensity and Phase Statistics of Multilook Polarimetric and Interferometric SAR Imagery", IEEE Transaction On Geoscience and Remote Sensing, vol.32, No.5, 1994 Howard. A. Zebker, J. Villasenor, "Decorrelation in interferometric Radar Echoes," IEEE Transaction On Geoscience And Remote Sensing, Vol.30, pp.950-959, 1992.Howard. A. Zebker, J. Villasenor, "Decorrelation in interferometric Radar Echoes," IEEE Transaction On Geoscience And Remote Sensing, Vol.30, pp.950-959, 1992.

従来の画像変化抽出装置では、2枚のSAR画像間のコヒーレンスマップから、変化領域を閾値処理により抽出するものであった。しかし、抽出された変化には、草木のゆらぎ等、オペレータ(判読技術者)にとって不要な変化も含まれており、分析対象となる変化の選別を、オペレータが人手で行う必要があった。また、水域や草原等、微小な変化が継続的に発生している領域については、2枚のSAR画像間のコヒーレンスが定常的に低い値になることが知られている。このため、定常的変化領域上に重複して変化が発生した場合、コヒーレンスの分布自体には差異があったとしても、従来の画像変化抽出装置における閾値の下限値による処理では、変化抽出が難しく、また仮にオペレータ等により、重複変化の抽出がなされたとしても、変化抽出タイミングにずれが生じ、変化の空間的連続性が正しく抽出できない、という課題があった。   In the conventional image change extraction apparatus, a change region is extracted by threshold processing from a coherence map between two SAR images. However, the extracted changes include changes that are unnecessary for the operator (interpretation engineer), such as fluctuations in plants, and it is necessary for the operator to manually select the changes to be analyzed. Further, it is known that the coherence between two SAR images is constantly low in a region where minute changes continuously occur, such as a water area and a grassland. For this reason, when a change occurs repeatedly in the steady change region, even if there is a difference in the coherence distribution itself, it is difficult to extract the change in the process using the lower limit value of the threshold in the conventional image change extraction device. Further, even if an overlap change is extracted by an operator or the like, there is a problem that the change extraction timing is shifted and the spatial continuity of the change cannot be extracted correctly.

この発明は、上記のような問題を解決するためになされたものであり、地表面に生じた物理的な変化を、より高精度に抽出し、変化の空間的連続性を正しく表示することが可能な、画像変化抽出装置を提供することを目的とする。   The present invention has been made to solve the above problems, and can extract physical changes occurring on the ground surface with higher accuracy and correctly display the spatial continuity of the changes. An object is to provide a possible image change extraction device.

この発明に係る画像変化抽出装置は、同一の領域に対する、N回の異なる時刻の観測により得られた画像に基づき、2画像間のコヒーレンスの分布であるコヒーレンスマップをN−1個格納しているコヒーレンスマップファイルと、前記コヒーレンスマップファイルに格納されている2枚の画像間の複素相関分布であるコヒーレンスマップを入力とし、コヒーレンスマップを対象に、ノイズ除去を行い、ノイズ除去後の画像であるノイズ除去画像データを出力するノイズ除去部と、前記コヒーレンスマップファイルに格納されている2枚の画像間のコヒーレンスマップの集まりであるコヒーレンスマップ群を入力とし、コヒーレンスマップを構成する画素の時間的、空間的平均値を算出し、コヒーレンス平均データとしてコヒーレンスマップファイルに出力するコヒーレンス平均算出部と、前記コヒーレンスマップファイルに格納されている2枚の画像間のコヒーレンスマップと、複数のコヒーレンスマップから算出されたコヒーレンス平均データとを入力とし、コヒーレンス平均データと、コヒーレンスマップの時系列変化情報を用いて、変化抽出を行い、変化発生領域の変化発生時刻を示す変化発生時刻データと、変化発生が定常的に起きているかどうかの情報である変化継続状況データと、変化抽出に用いた判定値の情報である上下限情報データと、変化抽出領域を表す変化抽出画素データとからなる変化抽出データを出力する変化抽出部と、前記変化抽出部から出力される変化抽出データを入力とし、変化発生時刻データと変化継続状況データと上下限情報データから、変化の発生時刻のずれを検出し、時刻調整後の変化抽出データである時刻調整後変化抽出データを出力する変化時刻調整部と、選別対象となる変化の仕方や、選別対象変化領域に関するパラメータである変化定義パラメータを格納している変化定義パラメータファイルと、前記ノイズ除去部から出力されるノイズ除去画像データと、前記変化時刻調整部から出力される時刻調整後変化抽出データと、前記変化定義パラメータファイルに格納されている変化定義パラメータとを入力とし、変化定義パラメータに基づき特徴量抽出方法を決定し、特徴量抽出を行い、特徴量抽出結果である特徴量抽出データと、時刻調整後変化抽出データと、変化定義パラメータとを出力する特徴量抽出部と、前記特徴量抽出部から出力される特徴量抽出データと時刻調整後変化抽出データと変化定義パラメータとを入力とし、特徴量抽出データと変化定義パラメータに基づき、変化選別方法を決定し、特徴量抽出データと時刻調整後変化抽出データとから変化を選別し、変化の発生時刻を示す変化発生時刻データと、変化の時系列的継続状況を示す変化継続状況データと、変化選別領域と変化選別領域を一意に表すIDからなる変化選別画素データとからなる変化選別データを、全体の出力として変化選別データファイルに格納する変化選別部とを備える。   The image change extraction apparatus according to the present invention stores N-1 coherence maps, which are distributions of coherence between two images, based on images obtained by observing N different times for the same region. Noise that is a coherence map file and a coherence map that is a complex correlation distribution between two images stored in the coherence map file is input and noise is removed from the coherence map. A noise removal unit that outputs removed image data, and a coherence map group that is a collection of coherence maps between two images stored in the coherence map file, and a temporal and space of pixels constituting the coherence map Average value is calculated and coherence map is used as coherence average data A coherence average calculation unit for outputting to a file, a coherence map between two images stored in the coherence map file, and coherence average data calculated from a plurality of coherence maps, and coherence average data; Using the time-series change information of the coherence map, change extraction is performed, change occurrence time data indicating the change occurrence time of the change occurrence area, change continuation status data that is information on whether or not the change occurrence is constantly occurring, and A change extraction unit that outputs change extraction data composed of upper and lower limit information data that is information of a determination value used for change extraction and change extraction pixel data that represents a change extraction region; and a change output from the change extraction unit Using the extracted data as input, change from the change occurrence time data, change continuation status data, and upper / lower limit information data. Is a change time adjustment unit that detects a shift in the occurrence time of the error and outputs post-time adjustment change extraction data that is change extraction data after the time adjustment, and a parameter relating to a change method to be selected and a selection target change region Change definition parameter file storing change definition parameters, noise-removed image data output from the noise removal unit, post-time adjustment change extraction data output from the change time adjustment unit, and change definition parameter file The change definition parameter stored in is input, the feature quantity extraction method is determined based on the change definition parameter, the feature quantity is extracted, and the feature quantity extraction result and the time-adjusted change extraction data are extracted. A feature amount extraction unit that outputs change definition parameters, feature amount extraction data output from the feature amount extraction unit, and time Input the adjusted change extraction data and change definition parameters, determine the change selection method based on the feature extraction data and change definition parameters, select the changes from the feature extraction data and the time-adjusted change extraction data, Change selection comprising change occurrence time data indicating the change occurrence time, change continuation status data indicating the chronological continuation status of the change, and change selection pixel data consisting of a change selection area and an ID uniquely representing the change selection area A change selection unit that stores data as a whole output in a change selection data file.

この発明によれば、複数回の定期観測による複数枚のレーダ画像から得られた複数枚の複素相関分布(コヒーレンスマップ)から物理的な変化を、より高精度に抽出し、変化の空間的連続性を正しく表示することが可能になる。   According to the present invention, a physical change is extracted with higher accuracy from a plurality of complex correlation distributions (coherence maps) obtained from a plurality of radar images obtained by a plurality of periodic observations, and the spatial continuity of the changes is extracted. It becomes possible to display the sex correctly.

この発明の実施の形態1による画像変化抽出装置を示すブロック構成図である。It is a block block diagram which shows the image change extraction apparatus by Embodiment 1 of this invention. この発明の実施の形態1による、非定常変化領域の変化状況例の図である。It is a figure of the example of a change condition of the unsteady change area | region by Embodiment 1 of this invention. この発明の実施の形態1による、非定常変化領域上の一過性変化が発生した領域に位置する注目画素のコヒーレンスの変化例の図である。It is a figure of the example of a change of the coherence of the pixel of interest located in the area | region where the transient change on the non-stationary change area | region occurred by Embodiment 1 of this invention. この発明の実施の形態1による、定常変化領域の変化状況例の図である。It is a figure of the example of a change condition of the steady change area | region by Embodiment 1 of this invention. この発明の実施の形態1による、定常変化領域上の一過性変化が発生した領域に位置する注目画素のコヒーレンスの変化例の図である。It is a figure of the example of a change of the coherence of the focused pixel located in the area | region where the transient change on the steady change area | region generate | occur | produced according to Embodiment 1 of this invention. この発明の実施の形態1による、時刻調整前の変化検出結果例の図である。It is a figure of the example of a change detection result before the time adjustment by Embodiment 1 of this invention. この発明の実施の形態1による、時刻調整後の変化検出結果例の図である。It is a figure of the example of a change detection result after time adjustment by Embodiment 1 of this invention. この発明の実施の形態2による画像変化抽出装置を示すブロック構成図である。It is a block block diagram which shows the image change extraction apparatus by Embodiment 2 of this invention. この発明の実施の形態3による画像変化抽出装置を示すブロック構成図である。It is a block block diagram which shows the image change extraction apparatus by Embodiment 3 of this invention. この発明の実施の形態4による画像変化抽出装置を示すブロック構成図である。It is a block block diagram which shows the image change extraction apparatus by Embodiment 4 of this invention. この発明の実施の形態5による画像変化抽出装置を示すブロック構成図である。It is a block block diagram which shows the image change extraction apparatus by Embodiment 5 of this invention. この発明の実施の形態6による画像変化抽出装置を示すブロック構成図である。It is a block block diagram which shows the image change extraction apparatus by Embodiment 6 of this invention.

実施の形態1.(基本構成)
図1は、この発明の実施の形態1による画像変化抽出装置を示すブロック構成図である。図1に示す画像変化抽出装置は、同一の領域に対する、N回の異なる時刻の観測により得られた画像に基づき、2画像間のコヒーレンスの分布であるコヒーレンスマップをN−1個格納しているコヒーレンスマップファイル1と、コヒーレンスマップファイル1に格納されている2枚の画像間の複素相関分布であるコヒーレンスマップを入力とし、コヒーレンスマップを対象に、ノイズ除去を行い、ノイズ除去後の画像であるノイズ除去画像データを出力するノイズ除去部2と、コヒーレンスマップファイル1に格納されている2枚の画像間のコヒーレンスマップの集まりであるコヒーレンスマップ群を入力とし、コヒーレンスマップを構成する画素の時間的、空間的平均値を算出し、コヒーレンス平均データとしてコヒーレンスマップファイルに出力するコヒーレンス平均算出部3と、コヒーレンスマップファイル1に格納されている2枚の画像間のコヒーレンスマップと、複数のコヒーレンスマップから算出されたコヒーレンス平均データとを入力とし、コヒーレンス平均データと、コヒーレンスマップの時系列変化情報を用いて、変化抽出を行い、変化発生領域の変化発生時刻を示す変化発生時刻データと、変化発生が定常的に起きているかどうかの情報である変化継続状況データと、変化抽出に用いた判定値の情報である上下限情報データと、変化抽出領域を表す変化抽出画素データと、からなる変化抽出データを出力する変化抽出部4とを備える。
Embodiment 1 FIG. (Basic configuration)
1 is a block diagram showing an image change extraction apparatus according to Embodiment 1 of the present invention. The image change extraction apparatus shown in FIG. 1 stores N-1 coherence maps, which are distributions of coherence between two images, based on images obtained by observing N different times for the same region. A coherence map file 1 and a coherence map that is a complex correlation distribution between two images stored in the coherence map file 1 are input, noise is removed from the coherence map, and the image is after noise removal. The noise removal unit 2 that outputs noise-removed image data and a coherence map group that is a collection of coherence maps between two images stored in the coherence map file 1 are used as inputs, and the temporal relationship of pixels constituting the coherence map The spatial average is calculated and the coherence map data is used as the coherence average data. The coherence average calculation unit 3 that outputs to the image, the coherence map between the two images stored in the coherence map file 1, and the coherence average data calculated from a plurality of coherence maps are input. Using the time series change information of the coherence map, change extraction is performed, change occurrence time data indicating the change occurrence time of the change occurrence area, and change continuation status data indicating whether the change occurrence is constantly occurring And a change extraction unit 4 that outputs change extraction data composed of upper and lower limit information data, which is information of determination values used for change extraction, and change extraction pixel data representing a change extraction region.

また、変化抽出部4から出力される変化抽出データを入力とし、変化発生時刻データと変化継続状況データと上下限情報データから、変化の発生時刻のずれを検出し、時刻調整後の変化抽出データである時刻調整後変化抽出データを出力する変化時刻調整部5と、選別対象となる変化の仕方や、選別対象変化領域に関するパラメータである変化定義パラメータを格納している変化定義パラメータファイル8と、ノイズ除去部2から出力されるノイズ除去画像データと、変化時刻調整部5から出力される時刻調整後変化抽出データと、変化定義パラメータファイル8に格納されている変化定義パラメータとを入力とし、変化定義パラメータに基づき特徴量抽出方法を決定し、特徴量抽出を行い、特徴量抽出結果である特徴量抽出データと、時刻調整後変化抽出データと、変化定義パラメータとを出力する特徴量抽出部6と、特徴量抽出部6から出力される特徴量抽出データと時刻調整後変化抽出データと変化定義パラメータとを入力とし、特徴量抽出データと変化定義パラメータに基づき、変化選別方法を決定し、特徴量抽出データと時刻調整後変化抽出データとから変化を選別し、変化の発生時刻を示す変化発生時刻データと、変化の時系列的継続状況を示す変化継続状況データと、変化選別領域と変化選別領域を一意に表すIDからなる変化選別画素データとからなる変化選別データを、全体の出力として変化選別データファイル9に格納する変化選別部7とを備えている。   In addition, the change extraction data output from the change extraction unit 4 is input, the change occurrence data is detected from the change occurrence time data, the change continuation status data, and the upper / lower limit information data, and the change extraction data after the time adjustment is detected. A change time adjustment unit 5 that outputs time-adjusted change extraction data, a change definition parameter file 8 that stores a change definition parameter that is a parameter related to a selection target change method and a selection target change region, The noise-removed image data output from the noise removing unit 2, the time-adjusted change extraction data output from the change time adjusting unit 5, and the change definition parameter stored in the change definition parameter file 8 are input. The feature quantity extraction method is determined based on the definition parameter, the feature quantity is extracted, the feature quantity extraction data as the feature quantity extraction result, and the time The feature amount extraction unit 6 that outputs the modified change extraction data and the change definition parameter, the feature amount extraction data output from the feature amount extraction unit 6, the time-adjusted change extraction data, and the change definition parameter are input. Based on the feature extraction data and the change definition parameter, the change selection method is determined, the change is selected from the feature extraction data and the time-adjusted change extraction data, the change occurrence time data indicating the change occurrence time, The change selection data including the change continuation status data indicating the chronological continuation status and the change selection pixel data including the change selection area and the ID uniquely indicating the change selection area is stored in the change selection data file 9 as an overall output. And a change sorting unit 7 for performing the above.

次に、動作について説明する。なお、コヒーレンスマップデータファイル1において、コヒーレンスを算出する2画像は、必ずしも観測時刻が隣接する必要はないが、以下においては、観測時刻が隣接する2枚のレーダ画像間で算出されたコヒーレンスマップを格納している場合の例で説明する。   Next, the operation will be described. In the coherence map data file 1, the two images for calculating the coherence do not necessarily have adjacent observation times, but in the following, a coherence map calculated between two radar images having the adjacent observation times is used. An example in the case of storing will be described.

ノイズ除去部2では、コヒーレンスマップファイル1に格納されている2枚の画像間の複素相関分布であるコヒーレンスマップを入力として、ノイズ除去後の画像であるノイズ除去画像データを出力する。ノイズ除去部2は、コヒーレンスマップを対象に変化抽出/選別に不要な画素情報をノイズとして除去する。ここでは、ノイズ除去手法として、移動平均処理を行う例を示す。移動平均処理では、ある画素の値を、周辺の値の平均値に設定する。平均値に置き換えることにより、ノイズをぼかす効果があるが、その反面、輪郭もぼかしてしまう。   The noise removal unit 2 receives a coherence map that is a complex correlation distribution between two images stored in the coherence map file 1 and outputs noise-removed image data that is an image after noise removal. The noise removing unit 2 removes pixel information unnecessary for change extraction / selection as noise from the coherence map. Here, an example in which moving average processing is performed as a noise removal method is shown. In the moving average process, the value of a certain pixel is set to the average value of surrounding values. Replacing with an average value has the effect of blurring noise, but on the other hand, the outline is also blurred.

移動平均処理の代わりに、メディアンフィルタによるノイズ除去処理を行ってもよい。メディアンフィルタでは、ある画素の周辺の値をソートし、その中央値に設定する。輪郭はぼけずに、ノイズのみぼかすという利点がある。   Instead of the moving average process, a noise removal process using a median filter may be performed. In the median filter, the values around a certain pixel are sorted and set to the median value. There is an advantage that only the noise is blurred without blurring the outline.

また、ノイズ除去アルゴリズムとしては、平均化処理の他に、図形を1画素分細くする収縮処理や、図形を外側に1画素分広げる膨張処理がある。膨張/収縮処理により、ノイズの影響で図形にできた1画素分の穴や、ひげのような突起物を除去することが可能になる。   In addition to the averaging process, the noise removal algorithm includes a contraction process for thinning the figure by one pixel and an expansion process for expanding the figure to the outside by one pixel. By the expansion / contraction process, it is possible to remove a hole corresponding to one pixel formed in a figure due to the influence of noise and a protrusion such as a whiskers.

次に、コヒーレンス平均算出部3では、コヒーレンスマップファイル1に格納されている2枚の画像間のコヒーレンスマップの集まりであるコヒーレンスマップ群を入力として、コヒーレンスマップを構成する全画素の、コヒーレンスの平均値をコヒーレンスマップ平均データとして出力し、コヒーレンスマップファイル1に格納する。コヒーレンス平均算出部3では、コヒーレンスマップを構成する全画素を対象に、時間及び空間方向の平均値である時間及び空間平均値を算出し、コヒーレンス平均データとする。   Next, the coherence average calculation unit 3 receives a coherence map group that is a collection of coherence maps between two images stored in the coherence map file 1 as an input, and averages the coherence of all the pixels constituting the coherence map. The value is output as coherence map average data and stored in the coherence map file 1. The coherence average calculation unit 3 calculates the time and space average values, which are the average values in the time and space directions, for all the pixels constituting the coherence map, and sets them as coherence average data.

まず、コヒーレンスマップ格納部に格納されている全コヒーレンスマップを対象とし、マップ上の注目画素のコヒーレンスの平均値Mを算出して、時間方向の平均値である時間平均を求める。さらに、注目画素とその近傍画素からなる複数画素を対象とした平均値算出を行うことにより、時間及び空間平均値が求まる。時間平均と空間平均の組み合わせに限定せずに、時間平均のみとしても良い。近傍の例としては、4近傍、8近傍が考えられる。   First, with respect to all the coherence maps stored in the coherence map storage unit, the average value M of the coherence of the target pixel on the map is calculated, and the time average which is the average value in the time direction is obtained. Further, by calculating an average value for a plurality of pixels including the target pixel and its neighboring pixels, the time and space average values are obtained. It is good also as only a time average, without being limited to the combination of a time average and a space average. As examples of the neighborhood, 4 neighborhoods and 8 neighborhoods are conceivable.

次に、変化抽出部4では、コヒーレンスマップファイル1に格納されている2枚の画像間のコヒーレンスマップと、コヒーレンス平均データとを入力として、変化抽出領域の変化発生時刻を示す変化発生時刻データと、変化発生が定常的に起きているかどうかの情報である変化継続状況データと、変化抽出に用いたしきい値が、上下限のいずれであるかを示す上下限情報データと、変化抽出領域を表す変化抽出画素データとからなる変化抽出データを出力する。   Next, the change extraction unit 4 receives, as input, a coherence map between two images stored in the coherence map file 1 and coherence average data, , Change continuation status data that is information as to whether or not a change has occurred steadily, upper and lower limit information data indicating whether the threshold used for change extraction is an upper or lower limit, and a change extraction area Change extraction data consisting of change extraction pixel data is output.

変化抽出部4では、まず、コヒーレンス平均データに基づき、定常変化領域判定を行う。具体的には、注目画素の時間及び空間方向のコヒーレンスの平均値である時間及び空間平均Mと、事前に設定済みの値である定常変化画素判定値Tとの比較を行い、MがTより低い場合に定常変化画素と定義し、定常変化画素であるかどうかの定常変化判定結果を、たとえば1もしくは0の二値で表し、定常変化判定結果と注目画素の画素IDとの組み合わせを変化継続状況データとする。また、定常変化画素からなる連結成分を定常変化領域と定義する。   First, the change extraction unit 4 performs the steady change region determination based on the coherence average data. Specifically, the time and space average M, which is the average value of the time and space coherence of the pixel of interest, and the steady change pixel determination value T, which is a preset value, are compared. When it is low, it is defined as a steady change pixel, and the steady change determination result as to whether it is a steady change pixel is represented by a binary value of 1 or 0, for example, and the combination of the steady change determination result and the pixel ID of the pixel of interest continues to change Use situation data. In addition, a connected component composed of steady change pixels is defined as a steady change region.

次に、コヒーレンスマップに対するしきい値処理を行い、各画素の変化有/無の判定を行い、変化有と判定された画素を変化抽出領域構成画素とし、変化抽出領域構成画素の連結成分から変化抽出領域を定義し、変化抽出領域毎に一意に決められたIDを割り振り、ラベリング値とし、変化抽出領域構成画素とラべリング値のペアを変化抽出画素データとする。   Next, threshold processing is performed on the coherence map, whether each pixel is changed or not is determined, a pixel determined to be changed is set as a change extraction region constituting pixel, and changes are made from a connected component of the change extraction region constituting pixel. An extraction area is defined, an ID uniquely determined for each change extraction area is assigned as a labeling value, and a pair of change extraction area constituting pixel and labeling value is set as change extraction pixel data.

しきい値処理の第一の例として、定常変化領域ではない領域、すなわち非定常変化領域上に、変化が起きる場合を示す。コヒーレンスが事前に設定したしきい値S以下となる場合に、変化発生と判定する。図2は非定常変化領域上での変化状況例、図3は非定常変化領域上の、変化が発生した領域に位置する注目画素のコヒーレンスの値の変化例である。図2において、正方形の領域が非定常変化領域、黒丸が注目画素、網掛けの領域が変化発生領域、T1〜Tn+1は時刻を表す。   As a first example of threshold processing, a case where a change occurs in a region that is not a steady change region, that is, an unsteady change region is shown. When the coherence is equal to or less than a preset threshold value S, it is determined that a change has occurred. FIG. 2 shows an example of a change state on the non-stationary change region, and FIG. 3 shows an example of a change in the coherence value of the pixel of interest located in the region where the change has occurred on the non-stationary change region. In FIG. 2, a square area represents a non-steady change area, a black circle represents a pixel of interest, a shaded area represents a change occurrence area, and T1 to Tn + 1 represent time.

しきい値の設定方法の例としては、非定常変化画素である注目画素のコヒーレンスの平均値Mと、事前に指定されている差分値であるΔSから、式(1)により決定する。
S=M−ΔS (1)
As an example of the threshold value setting method, the threshold value is determined by Expression (1) from the average value M of the coherence of the target pixel which is a non-stationary change pixel and ΔS which is a difference value specified in advance.
S = M−ΔS (1)

しきい値の設定は、差分値による方法でなく、注目画素のコヒーレンスの平均値Mからの分散の理論値で決定してもよい。   The setting of the threshold value may be determined by a theoretical value of variance from the average value M of the coherence of the target pixel, not by the method using the difference value.

しきい値処理の第二の例としては、定常変化領域上に「一度変化が起きてから、しばらく変化がおきない、もしくは抽出不要な程度のわずかな変化しかおきない変化」を一過性変化と定義し、一過性変化の抽出を行う例を示す。具体例としては、草原上の轍跡の抽出などがある。   As a second example of threshold processing, a transient change is made on the steady change region, “changes that do not change for a while after the change has occurred, or slight changes that do not require extraction”. An example of extracting transient changes is shown. A specific example is the extraction of traces on a meadow.

第一ステップとして、定常変化画素である注目画素のコヒーレンスの平均値Mから、定常変化画素のコヒーレンスのしきい値(上限Suと下限Sd)を決定する。   As a first step, the coherence threshold value (upper limit Su and lower limit Sd) of the steady change pixel is determined from the average value M of the coherence of the pixel of interest which is the steady change pixel.

しきい値の設定方法例としては、非定常変化領域上の変化抽出の場合と同様に、事前に指定されている差分値ΔSから式(2)のように決定する。
Sd=M−ΔS,Su=M+ΔS (2)
As an example of the threshold value setting method, the threshold value is determined as shown in Expression (2) from the difference value ΔS specified in advance, as in the case of change extraction on the unsteady change region.
Sd = M−ΔS, Su = M + ΔS (2)

または、非定常変化領域上の変化抽出の場合と同様に、注目画素のコヒーレンスの平均値Mからの分散の理論値で決定してもよい。   Alternatively, similarly to the case of change extraction on the non-stationary change region, it may be determined by the theoretical value of variance from the average value M of the coherence of the target pixel.

次に、第二のステップでは、一過性変化の発生により、一過性変化領域を構成する注目画素のコヒーレンスが下限値Sd以下もしくは上限値Su以上となったら、変化発生と判断する。図4は定常変化領域上での変化状況例、図5は定常変化領域上の、一過性変化が発生した領域に位置する注目画素のコヒーレンスの値の変化例である。図4において、正方形の領域が定常変化領域、黒丸が注目画素、網掛けの領域が一過性変化領域、T1〜Tn+1は時刻を表す。   Next, in the second step, it is determined that a change has occurred when the coherence of the pixel of interest constituting the transient change region becomes equal to or lower than the lower limit value Sd or equal to or higher than the upper limit value Su due to the occurrence of the temporary change. FIG. 4 shows an example of a change situation on the steady change region, and FIG. 5 shows an example of a change in the coherence value of the pixel of interest located in the region where the transient change has occurred on the steady change region. In FIG. 4, a square area represents a steady change area, a black circle represents a pixel of interest, a shaded area represents a transient change area, and T1 to Tn + 1 represent time.

ただし、Su以上の状況が連続する場合は、一時的に非定常変化領域となっている領域である一過性非定常変化領域とみなし、Su以上が連続している間の最初の一回のみを変化発生と判定し、それ以降は変化なしとする。再びコヒーレンスが低下した段階で、一過性非定常変化領域を解除し、定常変化領域の再判定を行う。   However, if the situation of Su or higher continues, it is regarded as a transient non-stationary change area that is a temporary non-steady change area, and only the first time while Su or higher is continuous. Is determined to have occurred, and thereafter no change is assumed. When the coherence decreases again, the transient unsteady change region is canceled and the steady change region is re-determined.

また、下限値以下もしくは上限値以上のどちらであったかを示す情報を示すフラグである上下限情報フラグに、たとえば、上限値以上であれば1、下限値以下であれば−1を設定し、上下限情報フラグと注目画素の画素IDと合わせて、上下限情報データとする。   In addition, in the upper / lower limit information flag, which is a flag indicating whether the value is lower limit value or less or upper limit value or more, for example, 1 is set if the value is not less than the upper limit value, and -1 is set if the value is not more than the lower limit value. Together with the lower limit information flag and the pixel ID of the target pixel, the upper / lower limit information data is obtained.

なお、変化発生時刻としては、注目画素のコヒーレンスがしきい値の範囲外となったタイミングを、変化発生時刻初期値として変化発生時刻データに設定する。   As the change occurrence time, the timing at which the coherence of the pixel of interest falls outside the range of the threshold is set as the change occurrence time initial value in the change occurrence time data.

また、しきい値処理の第二の例では、定常変化領域上の変化という、変化の重複が起きている場合の変化抽出例を示したが、変化の重複が起きていない場合の、定常変化領域自体の変化も、しきい値処理の第二の例で示した、上限/下限の2種類のしきい値による抽出方法により、変化抽出が可能となる。定常変化領域自体の変化とは、定常変化領域となる要因の解消、具体例で示すと、植生領域における森林の伐採等を示している。   In addition, in the second example of threshold processing, a change extraction example in the case where there is an overlapping change, i.e., a change in the steady change region, is shown. The change of the region itself can be extracted by the extraction method using two threshold values of the upper limit / lower limit shown in the second example of threshold processing. The change in the steady change region itself means the elimination of the factor that becomes the steady change region, specifically, the cutting of forest in the vegetation region, and the like.

次に、変化時刻調整部5では、変化抽出部から出力される変化抽出データを入力として、時刻調整後の変化抽出データである時刻調整後変化抽出データを出力する。変化時刻調整部5では、変化抽出データとして入力された変化発生時刻データと、変化継続状況データと、上下限情報データから、変化の発生時刻のずれを検出し、時刻調整を行う。具体的には、変化継続状況データから定常変化画素を選択し、さらに、上下限情報データから、しきい値上限を判定に用いている場合を選択し、時刻調整対象画素とする。具体的には、変化発生時刻データとして与えられた変化発生時刻の1タイムスタンプ前の時刻を、調整後の変化発生時刻である時刻調整後変化発生時刻データとし、変化抽出画素データと、変化継続状況データと、時刻調整後変化発生時刻データとを合わせて時刻調整後変化抽出データとする。   Next, the change time adjustment unit 5 receives the change extraction data output from the change extraction unit, and outputs post-time adjustment change extraction data that is change extraction data after time adjustment. The change time adjustment unit 5 detects a deviation of the change occurrence time from the change occurrence time data, change continuation status data, and upper / lower limit information data input as change extraction data, and performs time adjustment. Specifically, a steady change pixel is selected from the change continuation status data, and further, a case where the threshold upper limit is used for determination is selected from the upper and lower limit information data, and is set as a time adjustment target pixel. Specifically, the time one time stamp before the change occurrence time given as the change occurrence time data is used as the adjusted change occurrence time data that is the adjusted change occurrence time, and the change extraction pixel data and the change continuation The situation data and the change occurrence time data after the time adjustment are combined to obtain the change extraction data after the time adjustment.

図6は時刻調整前、図7は時刻調整後の変化抽出結果例である。連続して位置する2つの矩形領域のうち、左側が非定常変化領域、右側が定常変化領域であり、網掛けの領域が一過性変化領域、T2,T3が時刻を示している。非定常変化領域が土もしくは泥地、定常変化領域が草原、一過性変化として轍跡を想定している。図7の2つの小さな正方形領域が、それぞれ図2,8で変化状況に着目した正方形領域と一致する。時刻調整前の図6では、本来同時に検出されるべき変化が、T2とT3と別々の時刻に検出されて、あたかも2つの時刻に異なる変化が発生したかのような結果となっている。それに対し、時刻調整後の図7では、非定常変化領域及び定常変化領域上での変化が、連続した形で表され、変化の空間的連続性が正しく表示されている。   FIG. 6 shows an example of a change extraction result before time adjustment, and FIG. 7 shows an example of a change extraction result after time adjustment. Of the two consecutive rectangular regions, the left side is an unsteady change region, the right side is a steady change region, the shaded region is a transient change region, and T2 and T3 indicate time. The unsteady change region is assumed to be soil or mud, the steady change region is assumed to be grassland, and the trace is assumed to be a temporary change. The two small square areas in FIG. 7 are the same as the square areas in FIGS. In FIG. 6 before the time adjustment, changes that should be detected at the same time are detected at different times T2 and T3, and the result is as if different changes occurred at the two times. On the other hand, in FIG. 7 after the time adjustment, changes in the non-steady change region and the steady change region are represented in a continuous form, and the spatial continuity of the change is correctly displayed.

時刻調整対象外となった画素に関しては、変化発生時刻データを、そのまま時刻調整後変化発生時刻データとし、時刻調整対象となった画素と同様に、変化抽出画素データと、変化継続状況データと、時刻調整後変化発生時刻データとを合わせて時刻調整後変化抽出データとする。   For pixels that are not subject to time adjustment, change occurrence time data is used as change occurrence time data after time adjustment as it is, and change extraction pixel data, change continuation status data, The change occurrence time data after time adjustment is combined with the change extraction data after time adjustment.

次に、特徴量抽出部6では、ノイズ除去部2から出力されるノイズ除去画像データと、変化時刻調整部5から出力される時刻調整後変化抽出データと、変化定義パラメータファイル8に格納されている、選別対象となる変化の仕方や、選別対象変化領域に関するパラメータである変化定義パラメータとを入力として、特徴量抽出の結果である特徴量抽出データと、時刻調整後変化抽出データと、変化定義パラメータとを出力する。   Next, the feature amount extraction unit 6 stores the noise-removed image data output from the noise removal unit 2, the post-time adjustment change extraction data output from the change time adjustment unit 5, and the change definition parameter file 8. The change definition parameter, which is a parameter related to the selection target change area, and the change definition parameter that is a parameter related to the selection target change, are input as feature value extraction data, time-adjusted change extraction data, and change definition. Parameter.

変化定義パラメータとしては、「変化パターン(回転、振動、同一パターンの繰り返し、不規則)」等の変化の仕方に関するパラメータと、「面積、長さ、幅」「アウトライン/形状(直線、曲線、円、矩形、不規則 等)」等の変化領域に関するパラメータがある。   The change definition parameters include “change pattern (rotation, vibration, repetition of the same pattern, irregular)” and other parameters related to the change method, “area, length, width”, “outline / shape (straight line, curve, circle) , Rectangle, irregular, etc.) ”.

特徴量抽出部6では、変化定義パラメータに基づき、特徴量抽出方法を選択し、特徴量抽出を行う。変化定義パラメータごとに特徴量抽出方法案が事前に設定されており、本実施の形態では、まず、複数の特徴量抽出方法案の中から、変化領域候補の面積算出及び縦横比算出を特徴量抽出方法として選択する場合を示す。   The feature quantity extraction unit 6 selects a feature quantity extraction method based on the change definition parameter and performs feature quantity extraction. A feature amount extraction method plan is set in advance for each change definition parameter. In this embodiment, first, the area calculation and aspect ratio calculation of a change area candidate are performed from among a plurality of feature amount extraction method plans. The case where it selects as an extraction method is shown.

変化抽出部4から出力された変化抽出データに基づき、変化抽出領域を構成する変化抽出画素の画素数から、面積及び縦横比を算出する。1画素あたりの大きさは、分解能などの撮像情報に基づき概算する。   Based on the change extraction data output from the change extraction unit 4, the area and aspect ratio are calculated from the number of change extraction pixels constituting the change extraction region. The size per pixel is estimated based on imaging information such as resolution.

なお、特徴量抽出方法の選択は、特徴量抽出方法案の中から、変化定義パラメータ毎に事前に設定されている推奨順位にしたがって選択する方法や、ユーザに方法案を提示して、ユーザが選択してもよい。   Note that the feature quantity extraction method can be selected from a feature quantity extraction method proposal according to a recommended order set in advance for each change definition parameter, or by presenting a method proposal to the user, You may choose.

次に、面積と縦横比算出を特徴量抽出方法とする代わりに、細線化処理を行う例を示す。細線化処理は、図形のトポロジーを変えずに、すなわち線が途中でとぎれたり、孔があいたりすることなく、図形の連続性を保持しながら、幅1ピクセルの線画像に変換する処理である。細線化により図形の中心線が特徴として抽出される。変化領域の中心線の形状に特徴のある場合に有効と考えられる。   Next, an example in which thinning processing is performed instead of using area and aspect ratio calculation as a feature amount extraction method will be described. The thinning process is a process of converting to a line image having a width of 1 pixel while maintaining the continuity of the figure without changing the topology of the figure, i.e., without breaking the line in the middle or without a hole. . The center line of the figure is extracted as a feature by thinning. This is considered effective when the shape of the center line of the change region is characteristic.

細線化処理の代わりに、変化候補領域の輪郭を抽出する処理である輪郭抽出処理を行っても良い。輪郭抽出方法例としては、2次微分フィルタであるラプラシアンフィルタ等がある。   Instead of the thinning process, a contour extraction process that is a process of extracting the contour of the change candidate region may be performed. As an example of the contour extraction method, there is a Laplacian filter which is a secondary differential filter.

次に、変化選別部7では、特徴量抽出部6から出力される特徴量抽出データと、時刻調整後変化抽出データと、変化定義パラメータとを入力として、変化選別データを出力し、変化選別データファイル9に格納する。変化選別データは、時刻調整後変化発生時刻データと、変化継続状況データと、変化選別画素データとからなる。さらに、変化選別画素データは、変化選別領域を構成する画素の番号である変化選別領域構成画素と、変化選別領域を一意に表すIDであるラベリング値とからなる。   Next, the change selection unit 7 receives the feature amount extraction data output from the feature amount extraction unit 6, the change extraction data after time adjustment, and the change definition parameter, and outputs change selection data. Store in file 9. The change selection data includes time adjustment change occurrence time data, change continuation status data, and change selection pixel data. Furthermore, the change selection pixel data includes a change selection region constituent pixel that is the number of a pixel that forms the change selection region, and a labeling value that is an ID that uniquely represents the change selection region.

変化定義パラメータとしては、「変化パターン(回転、振動、同一パターンの繰り返し、不規則)」等の変化の仕方に関するパラメータと、「面積、長さ、幅」「アウトライン/形状(直線、曲線、円、矩形、不規則 等)」等の変化領域に関するパラメータがある。   The change definition parameters include “change pattern (rotation, vibration, repetition of the same pattern, irregular)” and other parameters related to the change method, “area, length, width”, “outline / shape (straight line, curve, circle) , Rectangle, irregular, etc.) ”.

変化選別部7では、変化定義パラメータと特徴量抽出部6で抽出した特徴量に基づき、変化選別方法を選択し、特徴量抽出データと時刻調整後変化抽出データとから、変化を選別する。変化定義パラメータごとに変化選別方法案が事前に設定されており、本実施の形態では、まず、複数の変化選別方法案の中から、変化領域候補の面積及び縦横比に対するしきい値処理を、変化選別方法として選択する場合を示す。   The change selection unit 7 selects a change selection method based on the change definition parameter and the feature amount extracted by the feature amount extraction unit 6, and selects changes from the feature amount extraction data and the time-adjusted change extraction data. A change selection method proposal is set in advance for each change definition parameter, and in the present embodiment, first, a threshold processing for the area and aspect ratio of the change area candidate is selected from a plurality of change selection method proposals. The case where it selects as a change selection method is shown.

特徴量抽出部6から特徴量抽出データとして出力された、変化抽出領域の面積A及び縦横比Rと、事前に設定されているしきい値Sf1およびSf2との比較を行う。たとえば、Sf1<A,Sf2<Rの条件を満たす場合に、変化抽出領域を選別して、変化選別領域とする。   The area A and the aspect ratio R of the change extraction region output as the feature amount extraction data from the feature amount extraction unit 6 are compared with preset threshold values Sf1 and Sf2. For example, when the conditions of Sf1 <A and Sf2 <R are satisfied, the change extraction area is selected as a change selection area.

変化選別領域を構成する画素の番号である変化選別領域構成画素と対応ラベリング値を変化選別画素データとして決定する。   The change selection region constituting pixels which are the numbers of the pixels constituting the change selection region and the corresponding labeling values are determined as change selection pixel data.

変化選別後は、時刻調整後変化発生時刻データと、変化継続状況データと、変化選別領域画素番号とラベリング値の組合わせである変化選別画素データとを合わせて、変化選別データとして出力する。   After the change selection, the change occurrence time data after the time adjustment, the change continuation status data, and the change selection pixel data that is a combination of the change selection region pixel number and the labeling value are combined and output as change selection data.

変化選別方法としては、境界線を決定する手法である線形判別法を適用してもよい。線形判別法には、共分散行列に基づく線形判別法や、サポートベクターマシン(SVM:Support Vector Machine)等がある。共分散行列に基づく線形判別法は、異なる種類のデータ同士はできるだけ離れ、同一種類のデータ同士はなるべく近くに分布するように、全データの中心を表すクラスタ中心を通るベクトルwにデータを射影して判別分析を行う方法である。またサポートベクターマシンは、全教師データからの距離と方向に基づき境界となる直線を求める方法で、距離を最大にし、かつそれぞれの種類ごとに、教師データからみた直線の方向が同じになるような直線を決定する方法である。属性数がN次元の場合、境界は超平面となる。サポートベクターマシンでは、カーネル関数とよばれる関数の線形和で学習に必要な関数を表すことにより、非線形境界も定義可能である。   As the change selection method, a linear discriminant method that is a method for determining a boundary line may be applied. Examples of the linear discriminant include a linear discriminant based on a covariance matrix and a support vector machine (SVM). The linear discriminant method based on the covariance matrix projects data onto a vector w that passes through the cluster center representing the center of all data so that different types of data are separated as much as possible and the same type of data is distributed as close as possible. This is a method for discriminant analysis. In addition, the support vector machine is a method of obtaining a straight line that is a boundary based on the distance and direction from all the teacher data, and the distance is maximized and the direction of the straight line seen from the teacher data is the same for each type. This is a method for determining a straight line. When the number of attributes is N-dimensional, the boundary is a hyperplane. In the support vector machine, a nonlinear boundary can be defined by expressing a function necessary for learning by a linear sum of functions called a kernel function.

サポートベクターマシンを適用した例を考える。サポートベクターマシンでは、選別対象となる変化と、非選別対象変化のサンプルデータを学習し、判別のための超平面算出により、選別対象変化と非選別対象変化を判別する。選別対象変化と非選別対象変化で超平面を算出する以外にも、抽出変化が複数のクラスタに分かれる場合は、マルチクラス分類問題として、トーナメント方式などにより判別を行ってもよい。   Consider an example using a support vector machine. The support vector machine learns changes to be selected and sample data of non-selection target changes, and determines a selection target change and a non-selection target change by hyperplane calculation for discrimination. In addition to calculating the hyperplane based on the selection target change and the non-selection target change, when the extraction change is divided into a plurality of clusters, the multi-class classification problem may be determined by a tournament method or the like.

線形判別法の他、決定木、ニューラルネットワーク、ベイズ分類器、K最近傍法による選別を行ってもよい。決定木は、教師データを、各属性の値に基づいて部分集合に分割する学習方法であり、木構造をとり、葉が分類を、枝がその分類に至るまでの特徴の集まりを表す。ニューラルネットワークは、生命の神経回路網を模倣した学習手法で、教師データに基づき、最終的に最適な種類間の境界を決定する。ベイズ分類器は、各クラスの特徴ベクトルが正規分布であることを仮定した分類モデルである。K最近傍法は、学習データのK個の近傍点からクラスを決定する方法である。   In addition to the linear discriminant method, selection by a decision tree, a neural network, a Bayes classifier, or a K nearest neighbor method may be performed. The decision tree is a learning method that divides teacher data into subsets based on the value of each attribute, takes a tree structure, and represents a collection of features from leaves to classifications and branches to the classifications. A neural network is a learning method that imitates the neural network of life, and finally determines the optimum boundary between types based on teacher data. The Bayes classifier is a classification model that assumes that the feature vectors of each class have a normal distribution. The K nearest neighbor method is a method of determining a class from K neighborhood points of learning data.

以上のように、実施の形態1によれば、変化の時系列情報を利用して変化抽出を行い、抽出タイミングのずれによって発生する変化の空間的連続性を補正することにより、定常的に変化が起きている領域上に重複して発生した変化を抽出し、変化の空間的連続性を正しく表示することが可能となる。   As described above, according to the first embodiment, change extraction is performed using time series information of change, and the change is steadily performed by correcting the spatial continuity of the change caused by the deviation of the extraction timing. It is possible to extract a change that occurs in an overlapping manner on the region where the occurrence of the error occurs and to correctly display the spatial continuity of the change.

また、変化選別機能を付加することにより、分析対象となる変化の選別を自動的に行う、もしくはユーザによる変化の選別を支援することが可能となる。   Further, by adding a change selection function, it is possible to automatically select changes to be analyzed, or to support change selection by the user.

実施の形態2.(グランドトゥルース情報利用)
実施の形態1では、ノイズ除去部2において、ノイズ除去アルゴリズムによりノイズを除去する場合を示したが、事前に対象領域の地形情報がある程度わかっている時に、撮像領域の地形情報であるグランドトゥルース情報を用いて、変化選別の前処理を行う場合を示す。
Embodiment 2. FIG. (Use of ground truth information)
In the first embodiment, the noise removal unit 2 has shown the case of removing noise by the noise removal algorithm. However, when the terrain information of the target area is known to some extent in advance, the ground truth information that is the terrain information of the imaging area is shown. The case where pre-processing of change selection is performed using is shown.

図8は、この発明の実施の形態2による画像変化抽出装置を示すブロック構成図である。図8において、図1に示す構成と同一部分は同一符号を付してその説明は省略する。図8に示す実施の形態2では、実施の形態1の構成に対し、グランドトゥルース情報を格納しているグランドトゥルース情報ファイル10をさらに備え、変化選別部7では、特徴量抽出部6から出力される特徴量抽出データと、時刻調整後変化抽出データと、変化定義パラメータと、グランドトゥルース情報ファイル10に格納されているグランドトゥルース情報とを入力とし、撮像領域のグランドトゥルース情報から、選別対象外となる変化の位置情報、形状/面積等の情報を入手し、これらの情報と、時刻調整後変化抽出画素データの位置情報、特徴量抽出データの面積等の情報との照合を行い、照合結果が一致する場合は、選別対象外の変化として除去する。   FIG. 8 is a block diagram showing an image change extraction apparatus according to Embodiment 2 of the present invention. In FIG. 8, the same parts as those shown in FIG. In the second embodiment shown in FIG. 8, a ground truth information file 10 storing ground truth information is further provided to the configuration of the first embodiment, and the change selection unit 7 outputs the feature value extraction unit 6. Feature extraction data, time-adjusted change extraction data, change definition parameters, and ground truth information stored in the ground truth information file 10 are input. Position information of the change, information such as shape / area, etc., and collating these information with information such as the position information of the time-adjusted change extraction pixel data and the area of the feature amount extraction data, and the comparison result is If they match, it is removed as a change outside the selection target.

照合方法としては、例えば、位置情報に基づく縦横位置のずれ幅、面積差等を算出し、事前に設定したしきい値以下となっている場合は、照合結果の一致と判定する。   As a collation method, for example, a deviation width and an area difference between vertical and horizontal positions based on position information are calculated.

なお、コヒーレンスマップデータと、グランドトゥルース情報が得られている画像データとの位置合わせであるレジストレーション処理は、既に行われていることを前提とする。   It is assumed that the registration process that is the alignment between the coherence map data and the image data for which ground truth information is obtained has already been performed.

以上のように、実施の形態2によれば、変化選別の前処理として、グランドトゥルース情報に基づく、選別対象外変化を除去することにより、実際の地形情報に即した、効率の良い変化選別処理が可能となる。   As described above, according to the second embodiment, as a pre-process for change selection, an efficient change selection process based on actual terrain information is performed by removing non-selection changes based on ground truth information. Is possible.

実施の形態3.(変化定義パラメータ分類格納)
実施の形態1では、変化定義パラメータをそのまま用いて変化抽出や、特徴量抽出、変化選別を行う例示したが、本実施の形態では、変化定義パラメータを変化分類クラスごとに分けて、データベースに格納する例を示す。
Embodiment 3 FIG. (Change definition parameter classification storage)
In the first embodiment, the change definition parameter is used as it is, and change extraction, feature amount extraction, and change selection are exemplified. However, in this embodiment, the change definition parameter is divided into change classification classes and stored in the database. An example is shown.

図9は、この発明の実施の形態3による画像変化抽出装置を示すブロック構成図である。図9において、図1に示す構成と同一部分は同一符号を付してその説明は省略する。図9に示す実施の形態3では、実施の形態1の構成に対し、変化選別対象物の分類である変化分類クラスを表すパラメータを格納する変化分類クラスファイル11と、前記変化分類クラスファイル11に格納されている、変化分類クラスパラメータを第一の入力とし、前記変化定義パラメータファイル8に格納されている変化定義パラメータを第二の入力とし、変化分類クラスごとに変化定義パラメータを分けて出力し、変化分類クラス別変化定義パラメータである変化定義サンプルデータとして変化定義パラメータ分類データベース12に格納する変化定義パラメータ分類格納部13とをさらに備える。   FIG. 9 is a block diagram showing an image change extraction apparatus according to Embodiment 3 of the present invention. In FIG. 9, the same parts as those shown in FIG. In the third embodiment shown in FIG. 9, in the configuration of the first embodiment, a change classification class file 11 that stores parameters representing a change classification class that is a classification of a change selection object, and the change classification class file 11 The stored change classification class parameter is used as the first input, the change definition parameter stored in the change definition parameter file 8 is used as the second input, and the change definition parameter is output separately for each change classification class. And a change definition parameter classification storage unit 13 that stores the change definition parameter data for each change classification class as change definition sample data in the change definition parameter classification database 12.

変化分類クラスパラメータは、変化定義パラメータと合わせてユーザにより設定され、「川」、「轍」といった一般的な名称で良い。   The change classification class parameter is set by the user together with the change definition parameter, and may be a general name such as “river” or “轍”.

以上のように、実施の形態3によれば、変化定義パラメータを変化分類クラスごとに分けてデータベースに格納することにより、変化定義パラメータと変化分類クラスとの対応事例が蓄積され、対応関係の解析に利用することが可能となる。   As described above, according to the third embodiment, the change definition parameters are divided into change classification classes and stored in the database, so that correspondence cases between the change definition parameters and the change classification classes are accumulated, and the correspondence analysis is performed. It becomes possible to use it.

実施の形態4.(変化分類クラス更新)
実施の形態3では、変化定義パラメータを事前に設定されている変化分類クラスごとにわける例を示したが、本実施の形態では、変化分類クラスを学習により決定する例を示す。
Embodiment 4 FIG. (Change classification class update)
In the third embodiment, an example in which the change definition parameter is divided for each change classification class set in advance is shown. However, in this embodiment, an example in which a change classification class is determined by learning is shown.

図10は、この発明の実施の形態4による画像変化抽出装置を示すブロック構成図である。図10において、図1に示す構成と同一部分は同一符号を付してその説明は省略する。図10に示す実施の形態4では、実施の形態1の構成に対し、変化分類クラスごとの変化定義サンプルデータを格納する変化定義パラメータ分類データベース12と、変化定義パラメータファイル8に格納されている変化定義パラメータを第一の入力とし、変化定義パラメータ分類データベース12に格納されている変化分類クラスごとの変化定義サンプルデータを第二の入力とし、変化定義サンプルパラメータから変化分類クラスを学習し、新たな変化分類クラスを決定し、変化定義パラメータ分類データベース12のクラス分類を更新し、変化定義パラメータ分類データベース12に出力する変化分類クラス更新部14とをさらに備える。   FIG. 10 is a block diagram showing an image change extraction apparatus according to Embodiment 4 of the present invention. 10, parts that are the same as the parts shown in FIG. 1 are given the same reference numerals, and explanation thereof is omitted. In the fourth embodiment shown in FIG. 10, in contrast to the configuration of the first embodiment, the change definition parameter classification database 12 that stores change definition sample data for each change classification class and the changes stored in the change definition parameter file 8 are used. The definition parameter is the first input, the change definition sample data for each change classification class stored in the change definition parameter classification database 12 is the second input, the change classification class is learned from the change definition sample parameter, and a new A change classification class updating unit 14 that further determines a change classification class, updates the class classification of the change definition parameter classification database 12, and outputs the change classification parameter classification database 12 to the change definition parameter classification database 12.

変化分類クラス更新部14では、変化定義パラメータ分類データベース12に格納されている変化定義サンプルデータと、変化定義パラメータファイル8に格納されている変化定義パラメータとを入力として、変化定義サンプルデータを学習データとして、変化分類クラスの再分類を行う。新たな変化分類クラスごとに変化定義パラメータを分けて、変化定義サンプルデータを更新し、変化定義パラメータ分類データベース12に出力する。   The change classification class update unit 14 receives the change definition sample data stored in the change definition parameter classification database 12 and the change definition parameter stored in the change definition parameter file 8 as input, and uses the change definition sample data as learning data. Reclassify the change classification class. The change definition parameters are divided for each new change classification class, the change definition sample data is updated, and is output to the change definition parameter classification database 12.

分類方法としては、一般的な分類手法として知られている期待値最大化法や、K-means法を適用してもよい。   As a classification method, an expected value maximization method known as a general classification method or a K-means method may be applied.

以上のように、実施の形態4によれば、変化定義パラメータに基づき、変化分類クラスを学習して更新することにより、変化名称等の分類に限定されることなく、分析内容に即した変化分類と、それに基づく変化抽出が可能となる。   As described above, according to the fourth embodiment, by learning and updating the change classification class based on the change definition parameter, the change classification according to the analysis content is not limited to the classification of the change name or the like. And change extraction based on it becomes possible.

実施の形態5.(変化定義パラメータ自動決定)
実施の形態1では、変化定義パラメータを事前にユーザが指定する場合を示したが、本実施の形態では、選別対象物の分類を表す変化分類クラス名から、事前に設定したデータベースの情報を用いて、変化定義パラメータを決定する場合を示す。
Embodiment 5 FIG. (Automatic determination of change definition parameters)
In the first embodiment, the case where the user designates the change definition parameter in advance has been shown. However, in this embodiment, the database information set in advance is used from the change classification class name representing the classification of the selection target. The change definition parameter is determined.

図11は、この発明の実施の形態5による画像変化抽出装置を示すブロック構成図である。図11において、図1に示す構成と同一部分は同一符号を付してその説明は省略する。図11に示す実施の形態5では、実施の形態1の構成に対し、変化選別対象物の分類である変化分類クラスを表す変化分類クラスパラメータを格納する変化分類クラスファイル11と、変化分類クラス別変化定義パラメータを変化定義サンプルデータとして格納する変化定義パラメータ分類データベース12と、前記変化定義パラメータ分類データベース12に格納されている変化定義サンプルデータを第一の入力とし、前記変化分類クラスファイル11に格納されている、変化分類クラスパラメータを第二の入力とし、変化選別対象物の変化定義パラメータを決定して、前記変化定義パラメータファイル8に出力する変化定義パラメータ決定部15とをさらに備える。   FIG. 11 is a block diagram showing an image change extraction apparatus according to Embodiment 5 of the present invention. In FIG. 11, the same parts as those shown in FIG. In the fifth embodiment shown in FIG. 11, a change classification class file 11 that stores a change classification class parameter that represents a change classification class that is a classification of a change selection object, and a change classification class-by-class comparison with the configuration of the first embodiment. Change definition parameter classification database 12 for storing change definition parameters as change definition sample data, and change definition sample data stored in change definition parameter classification database 12 as a first input and stored in change classification class file 11 A change definition parameter determination unit 15 is further provided that uses the change classification class parameter as a second input, determines a change definition parameter of the change selection object, and outputs the change definition parameter to the change definition parameter file 8.

変化定義パラメータ決定部15では、変化分類クラスファイルに格納されている変化分類クラスパラメータと、変化定義パラメータ分類データベース12に格納されている変化定義パラメータとを入力とし、変化定義パラメータを決定し、変化定義パラメータファイル8に出力する。   The change definition parameter determination unit 15 receives the change classification class parameters stored in the change classification class file and the change definition parameters stored in the change definition parameter classification database 12 as input, determines the change definition parameters, Output to the definition parameter file 8.

選別対象物の変化分類クラスパラメータとしては、湖、轍等の対象物の一般的な名称を指定し、クラスごとに事前に変化定義パラメータ分類データベース12に格納されている、過去に入力された変化定義パラメータである変化定義サンプルデータを用いて、変化定義パラメータを自動決定する。たとえば、湖の場合は「面積Am2(平方メートル)以上(Aは事前に設定された定数)で、ランダム運動」、轍の場合は「直線/曲線形状で、領域の縦横比が大きく、同一運動パターンの繰り返し」等の変化定義サンプルデータを変化定義パラメータとして設定する。 As the change classification class parameter of the selection target object, a general name of the target object such as a lake or a lake is designated, and the change inputted in the past is stored in the change definition parameter classification database 12 in advance for each class. The change definition parameter is automatically determined using the change definition sample data that is the definition parameter. For example, in the case of a lake, “area Am 2 (square meter) or more (A is a preset constant), random motion”, and in the case of coral, “straight / curved shape, the area has a large aspect ratio and the same motion Change definition sample data such as “repeat pattern” is set as a change definition parameter.

変化定義サンプルパラメータが複数存在する場合は、変化定義サンプルデータの平均値、最大値、最小値をとる方法や、サンプル数の多い定義を選択する方法が考えられる。具体的には、面積範囲を定義する必要がある場合には、面積の上限もしくは下限の平均値、最大値、最小値のいずれかを算出して変化定義パラメータとする方法や、運動方法を一意に決める必要があれば、複数サンプルの運動方法のうち、サンプル数の多い運動方法を選ぶ、複数指定可能であれば、そのまま複数の運動方法を変化定義パラメータとして指定する。   When there are a plurality of change definition sample parameters, a method of taking an average value, a maximum value, and a minimum value of change definition sample data, and a method of selecting a definition having a large number of samples are conceivable. Specifically, when it is necessary to define the area range, a method for calculating the average value, maximum value, or minimum value of the upper limit or lower limit of the area and using it as a change definition parameter, or a unique exercise method is used. If there is a need to decide, a motion method with a large number of samples is selected from among a plurality of sample motion methods. If a plurality of motion methods can be specified, a plurality of motion methods are directly designated as change definition parameters.

以上のように、実施の形態5によれば、ユーザは選別対象物の変化分類クラス名を入力するだけで、変化定義パラメータが自動的に設定されることにより、多くの事例に基づいて設定されたパラメータでの選別処理が可能となる。   As described above, according to the fifth embodiment, the user can input the change classification class name of the selection target object, and the change definition parameter is automatically set, so that it is set based on many cases. It is possible to sort with the selected parameters.

実施の形態6.(変化定義パラメータ調整)
実施の形態5では、変化定義パラメータを自動決定する例を示したが、本実施の形態では、自動的に決定した変化定義パラメータを仮決め後、ユーザに提示し、ユーザの調整指示にしたがって、変化定義パラメータを変更する例を示す。
Embodiment 6 FIG. (Change definition parameter adjustment)
In the fifth embodiment, the example in which the change definition parameter is automatically determined has been shown. However, in the present embodiment, after the change definition parameter automatically determined is provisionally determined, the change definition parameter is presented to the user, and according to the user's adjustment instruction, An example of changing the change definition parameter is shown.

図12は、この発明の実施の形態6による画像変化抽出装置を示すブロック構成図である。図12において、図1に示す構成と同一部分は同一符号を付してその説明は省略する。図12に示す実施の形態6では、実施の形態1の構成に対し、変化選別対象物の分類である変化分類クラスを表す変化分類クラスパラメータを格納する変化分類クラスファイル11と、変化分類クラス別変化定義パラメータを変化定義サンプルデータとして格納する変化定義パラメータ分類データベース12と、変化定義パラメータ分類データベース12に格納されている、変化定義サンプルデータと、変化分類クラスファイルに格納されている、変化分類クラスパラメータとを入力とし、変化定義パラメータを仮決めして、変化定義パラメータ仮決め値として出力する変化定義パラメータ仮決め部16と、変化定義パラメータ仮決め部16からの変化定義パラメータ仮決め値を入力としてユーザに提示し、提示された変化定義パラメータ仮決め値をユーザの指示に基づき調整して変化定義パラメータ変更値を決定し、変化定義パラメータファイル8に出力する変化定義パラメータ調整部17とをさらに備える。   FIG. 12 is a block diagram showing an image change extraction apparatus according to Embodiment 6 of the present invention. In FIG. 12, the same parts as those shown in FIG. In the sixth embodiment shown in FIG. 12, a change classification class file 11 that stores a change classification class parameter that represents a change classification class that is a classification of a change selection object, and a change classification class-by-class comparison with the configuration of the first embodiment. Change definition parameter classification database 12 for storing change definition parameters as change definition sample data, change definition sample data stored in change definition parameter classification database 12, and change classification class stored in change classification class file The parameter is input, the change definition parameter is tentatively determined, the change definition parameter tentative determination unit 16 outputs the change definition parameter tentative value, and the change definition parameter tentative value is input from the change definition parameter tentative determination unit 16 To the user as a change definition parameter The order value is adjusted based on the user instruction to determine changes defined parameter change value, further comprising a change definition parameter adjustment unit 17 outputs the change definition parameter file 8.

変化定義パラメータ仮決め部16では、変化分類クラスファイルに格納されている変化分類クラスパラメータと、変化定義パラメータ分類データベース12に格納されている変化定義サンプルデータとを入力とし、変化定義パラメータを仮決めして、変化定義パラメータ仮決め値として出力する。   The change definition parameter tentative determination unit 16 receives the change classification class parameters stored in the change classification class file and the change definition sample data stored in the change definition parameter classification database 12 as input, and temporarily determines the change definition parameters. Then, it is output as a change definition parameter provisionally determined value.

次に、変化調整部17では、変化定義パラメータ仮決め部から出力された変化定義パラメータ仮決め値を入力として、ユーザに提示し、ユーザの指示に従って、変化定義パラメータ仮決め値を調整し、変化定義パラメータ変更値を変化定義パラメータファイル8に出力する。   Next, the change adjustment unit 17 inputs the change definition parameter tentative value output from the change definition parameter tentative determination unit, presents it to the user, adjusts the change definition parameter tentative value in accordance with the user instruction, The definition parameter change value is output to the change definition parameter file 8.

変化分類クラスとして「川」が指定された場合の例を示す。分析対象として抽出したい川の幅が極端に大きい場合を考える。変化定義パラメータとして仮決めされた、川の縦横比を、ユーザが調整し、新たな縦横比を変化定義パラメータとして設定し、変化選別処理を行う。   An example in which “river” is designated as the change classification class is shown. Consider a case where the width of a river to be extracted as an analysis target is extremely large. The user adjusts the aspect ratio of the river provisionally determined as the change definition parameter, sets a new aspect ratio as the change definition parameter, and performs change selection processing.

以上のように、実施の形態6によれば、自動決定した変化定義パラメータをユーザが調整可能とすることにより、極端に幅の広い川や、面積が非常に小さい湖の抽出といった、例外的な変化定義パラメータ値を持つ事例に対しても対応可能となる。   As described above, according to the sixth embodiment, by allowing the user to adjust automatically determined change definition parameters, exceptionally wide rivers or exceptionally small lakes can be extracted. Cases with change definition parameter values can also be handled.

また、この発明は、上記各実施の形態に限定されるものではなく、これらの各実施の形態の可能な組み合わせをすべて含むことは云うまでもない。   Further, the present invention is not limited to the above-described embodiments, and it is needless to say that all possible combinations of these embodiments are included.

1 コヒーレンスマップファイル、2 ノイズ除去部、3 コヒーレンス平均算出部、4 変化抽出部、5 変化時刻調整部、6 特徴量抽出部、7 変化選別部、8 変化定義パラメータファイル、9 変化選別データファイル、10 グランドトゥルース情報ファイル、11 変化分類クラスファイル、12 変化定義パラメータ分類データベース、13 変化定義パラメータ分類格納部、14 変化分類クラス更新部、15 変化定義パラメータ決定部、16 変化定義パラメータ仮決め部、17 変化定義パラメータ調整部。   1 Coherence map file, 2 noise removal unit, 3 coherence average calculation unit, 4 change extraction unit, 5 change time adjustment unit, 6 feature quantity extraction unit, 7 change selection unit, 8 change definition parameter file, 9 change selection data file, DESCRIPTION OF SYMBOLS 10 Ground truth information file, 11 Change classification class file, 12 Change definition parameter classification database, 13 Change definition parameter classification storage part, 14 Change classification class update part, 15 Change definition parameter determination part, 16 Change definition parameter provisional determination part, 17 Change definition parameter adjustment unit.

Claims (6)

同一の領域に対する、N回の異なる時刻の観測により得られた画像に基づき、2画像間のコヒーレンスの分布であるコヒーレンスマップをN−1個格納しているコヒーレンスマップファイルと、
前記コヒーレンスマップファイルに格納されている2枚の画像間の複素相関分布であるコヒーレンスマップを入力とし、コヒーレンスマップを対象に、ノイズ除去を行い、ノイズ除去後の画像であるノイズ除去画像データを出力するノイズ除去部と、
前記コヒーレンスマップファイルに格納されている2枚の画像間のコヒーレンスマップの集まりであるコヒーレンスマップ群を入力とし、コヒーレンスマップを構成する画素の時間的、空間的平均値を算出し、コヒーレンス平均データとしてコヒーレンスマップファイルに出力するコヒーレンス平均算出部と、
前記コヒーレンスマップファイルに格納されている2枚の画像間のコヒーレンスマップと、複数のコヒーレンスマップから算出されたコヒーレンス平均データとを入力とし、コヒーレンス平均データと、コヒーレンスマップの時系列変化情報を用いて、変化抽出を行い、変化発生領域の変化発生時刻を示す変化発生時刻データと、変化発生が定常的に起きているかどうかの情報である変化継続状況データと、変化抽出に用いた判定値の情報である上下限情報データと、変化抽出領域を表す変化抽出画素データとからなる変化抽出データを出力する変化抽出部と、
前記変化抽出部から出力される変化抽出データを入力とし、変化発生時刻データと変化継続状況データと上下限情報データから、変化の発生時刻のずれを検出し、時刻調整後の変化抽出データである時刻調整後変化抽出データを出力する変化時刻調整部と、
選別対象となる変化の仕方や、選別対象変化領域に関するパラメータである変化定義パラメータを格納している変化定義パラメータファイルと、
前記ノイズ除去部から出力されるノイズ除去画像データと、前記変化時刻調整部から出力される時刻調整後変化抽出データと、前記変化定義パラメータファイルに格納されている変化定義パラメータとを入力とし、変化定義パラメータに基づき特徴量抽出方法を決定し、特徴量抽出を行い、特徴量抽出結果である特徴量抽出データと、時刻調整後変化抽出データと、変化定義パラメータとを出力する特徴量抽出部と、
前記特徴量抽出部から出力される特徴量抽出データと時刻調整後変化抽出データと変化定義パラメータとを入力とし、特徴量抽出データと変化定義パラメータに基づき、変化選別方法を決定し、特徴量抽出データと時刻調整後変化抽出データとから変化を選別し、変化の発生時刻を示す変化発生時刻データと、変化の時系列的継続状況を示す変化継続状況データと、変化選別領域と変化選別領域を一意に表すIDからなる変化選別画素データとからなる変化選別データを、全体の出力として変化選別データファイルに格納する変化選別部と
を備えた画像変化抽出装置。
A coherence map file storing N-1 coherence maps, which are distributions of coherence between two images, based on images obtained by N observations at different times for the same region;
The coherence map that is the complex correlation distribution between the two images stored in the coherence map file is input, noise is removed from the coherence map, and noise-removed image data that is the image after noise removal is output. A noise removal unit to perform,
Coherence map group that is a collection of coherence maps between two images stored in the coherence map file is used as input, and temporal and spatial average values of pixels constituting the coherence map are calculated, and as coherence average data A coherence average calculator for outputting to a coherence map file;
Using a coherence map between two images stored in the coherence map file and coherence average data calculated from a plurality of coherence maps as input, using the coherence average data and time-series change information of the coherence map The change occurrence time data indicating the change occurrence time of the change occurrence area, the change continuation status data that is information as to whether or not the change occurrence has occurred steadily, and the judgment value information used for the change extraction A change extraction unit that outputs change extraction data composed of upper and lower limit information data and change extraction pixel data representing a change extraction region;
The change extraction data output from the change extraction unit is input after the time adjustment is performed by detecting the shift of the change occurrence time from the change occurrence time data, the change continuation status data, and the upper / lower limit information data. A change time adjustment unit that outputs change extraction data after time adjustment; and
A change definition parameter file that stores change definition parameters that are parameters related to a selection target change method and a selection target change area;
The noise removal image data output from the noise removal unit, the time-adjusted change extraction data output from the change time adjustment unit, and the change definition parameter stored in the change definition parameter file are input, and the change A feature amount extraction unit that determines a feature amount extraction method based on the definition parameter, performs feature amount extraction, outputs feature amount extraction data that is a feature amount extraction result, time-adjusted change extraction data, and change definition parameters; ,
The feature quantity extraction data, the time-adjusted change extraction data and the change definition parameter output from the feature quantity extraction unit are input, and a change selection method is determined based on the feature quantity extraction data and the change definition parameter, and feature quantity extraction is performed. The change is selected from the data and the time-adjusted change extraction data, the change occurrence time data indicating the change occurrence time, the change continuation status data indicating the time series continuation status of the change, and the change selection area and the change selection area. An image change extraction apparatus comprising: a change selection unit that stores change selection data including change selection pixel data including an ID that is uniquely expressed in a change selection data file as an overall output.
請求項1に記載の画像変化抽出装置において、
グランドトゥルース情報を格納するグランドトゥルース情報ファイルをさらに備え、
前記変化選別部は、変化選別の前処理として、前記グランドトゥルース情報ファイルに格納されている撮像領域の地形情報であるグランドトゥルース情報に基づき選別対象外の変化を除去する
ことを特徴とする画像変化抽出装置。
The image change extraction device according to claim 1,
A ground truth information file for storing ground truth information is further provided.
The change selection unit, as pre-processing for change selection, removes an unselected change based on ground truth information that is terrain information of an imaging region stored in the ground truth information file. Extraction device.
請求項1に記載の画像変化抽出装置において、
変化選別対象物の分類である変化分類クラスを表すパラメータを格納する変化分類クラスファイルと、
前記変化分類クラスファイルに格納されている変化分類クラスパラメータを第一の入力とし、前記変化定義パラメータファイル8に格納されている変化定義パラメータを第二の入力とし、変化分類クラスごとに変化定義パラメータを分けて出力し、変化分類クラス別変化定義パラメータである変化定義サンプルデータとして変化定義パラメータ分類データベースに格納する変化定義パラメータ分類格納部と
をさらに備えることを特徴とする画像変化抽出装置。
The image change extraction device according to claim 1,
A change classification class file that stores parameters representing a change classification class that is a classification of a change selection object;
The change classification parameter stored in the change classification class file is a first input, the change definition parameter stored in the change definition parameter file 8 is a second input, and the change definition parameter for each change classification class And a change definition parameter classification storage unit for storing in a change definition parameter classification database as change definition sample data which is a change definition parameter for each change classification class.
請求項1に記載の画像変化抽出装置において、
変化分類クラスごとの変化定義サンプルデータを格納する変化定義パラメータ分類データベースと、
前記変化定義パラメータファイルに格納されている変化定義パラメータを第一の入力とし、前記変化定義パラメータ分類データベースに格納されている変化分類クラスごとの変化定義サンプルデータを第二の入力とし、変化定義サンプルパラメータから変化分類クラスを学習し、新たな変化分類クラスを決定し、前記変化定義パラメータ分類データベースのクラス分類を更新し、変化定義パラメータ分類データベースに出力する変化分類クラス更新部と
をさらに備えることを特徴とする画像変化抽出装置。
The image change extraction device according to claim 1,
A change definition parameter classification database for storing change definition sample data for each change classification class;
The change definition parameter stored in the change definition parameter file is used as a first input, and the change definition sample data for each change classification class stored in the change definition parameter classification database is used as a second input. A change classification class updating unit that learns a change classification class from parameters, determines a new change classification class, updates a class classification of the change definition parameter classification database, and outputs to the change definition parameter classification database; A featured image change extraction device.
請求項1に記載の画像変化抽出装置において、
変化選別対象物の分類である変化分類クラスを表す変化分類クラスパラメータを格納する変化分類クラスファイルと、
変化分類クラス別変化定義パラメータを変化定義サンプルデータとして格納する変化定義パラメータ分類データベースと、
前記変化定義パラメータ分類データベースに格納されている変化定義サンプルデータを第一の入力とし、前記変化分類クラスファイルに格納されている、変化分類クラスパラメータを第二の入力とし、変化選別対象物の変化定義パラメータを決定して、前記変化定義パラメータファイルに出力する変化定義パラメータ決定部と
をさらに備えることを特徴とする画像変化抽出装置。
The image change extraction device according to claim 1,
A change classification class file that stores a change classification class parameter representing a change classification class that is a classification of a change selection object;
Change definition parameter classification database that stores change definition class-specific change definition parameters as change definition sample data;
Change definition sample data stored in the change definition parameter classification database as a first input, change classification class parameter stored in the change classification class file as a second input, and change of a change selection object An image change extraction apparatus further comprising: a change definition parameter determination unit that determines a definition parameter and outputs the change parameter to the change definition parameter file.
請求項1に記載の画像変化抽出装置において、
変化選別対象物の分類である変化分類クラスを表す変化分類クラスパラメータを格納する変化分類クラスファイルと、
変化分類クラス別変化定義パラメータを変化定義サンプルデータとして格納する変化定義パラメータ分類データベースと、
前記変化定義パラメータ分類データベースに格納されている、変化定義サンプルデータと、前記変化分類クラスファイルに格納されている、変化分類クラスパラメータとを入力とし、変化定義パラメータを仮決めして、変化定義パラメータ仮決め値として出力する変化定義パラメータ仮決め部と、
前記変化定義パラメータ仮決め部からの変化定義パラメータ仮決め値を入力としてユーザに提示し、提示された変化定義パラメータ仮決め値をユーザの指示に基づき調整して変化定義パラメータ変更値を決定し、前記変化定義パラメータファイルに出力する変化定義パラメータ調整部と
をさらに備えることを特徴とする画像変化抽出装置。
The image change extraction device according to claim 1,
A change classification class file that stores a change classification class parameter representing a change classification class that is a classification of a change selection object;
Change definition parameter classification database that stores change definition class-specific change definition parameters as change definition sample data;
Using the change definition sample data stored in the change definition parameter classification database and the change classification class parameter stored in the change classification class file as input, the change definition parameter is provisionally determined, and the change definition parameter is determined. A change definition parameter tentative determination part to output as a tentative value;
Presenting the change definition parameter tentative value from the change definition parameter tentative determination unit to the user as an input, and adjusting the presented change definition parameter tentative value based on the user's instruction to determine the change definition parameter change value; An image change extraction apparatus, further comprising: a change definition parameter adjustment unit that outputs the change definition parameter file.
JP2009018149A 2009-01-29 2009-01-29 Image change extraction device Active JP5183512B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009018149A JP5183512B2 (en) 2009-01-29 2009-01-29 Image change extraction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009018149A JP5183512B2 (en) 2009-01-29 2009-01-29 Image change extraction device

Publications (2)

Publication Number Publication Date
JP2010175381A true JP2010175381A (en) 2010-08-12
JP5183512B2 JP5183512B2 (en) 2013-04-17

Family

ID=42706505

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009018149A Active JP5183512B2 (en) 2009-01-29 2009-01-29 Image change extraction device

Country Status (1)

Country Link
JP (1) JP5183512B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017179171A1 (en) * 2016-04-14 2017-10-19 三菱電機株式会社 Image processing device and image processing method
JP2018040728A (en) * 2016-09-08 2018-03-15 株式会社パスコ Ground surface deformation visualization device and ground surface deformation visualization program
JP2018048862A (en) * 2016-09-20 2018-03-29 株式会社東芝 Radar signal processor, radar signal processing method, and radar signal processing program
JP2018194404A (en) * 2017-05-16 2018-12-06 株式会社パスコ Machine learning method, and surface deformation determination method
CN110188830A (en) * 2019-06-01 2019-08-30 合肥工业大学 The SAR image change detection cut based on multicore figure
JP7205005B1 (en) * 2022-06-03 2023-01-16 三菱電機株式会社 Image processing device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006003302A (en) * 2004-06-21 2006-01-05 Mitsubishi Electric Corp Radar image processor
JP2008046107A (en) * 2006-07-21 2008-02-28 Pasuko:Kk Method and apparatus for radar image processing
JP2008157764A (en) * 2006-12-25 2008-07-10 Mitsubishi Electric Corp Radar image processing device
JP2008215935A (en) * 2007-03-01 2008-09-18 Mitsubishi Electric Corp Radar image processing device
JP2009289111A (en) * 2008-05-30 2009-12-10 Mitsubishi Electric Corp Image processor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006003302A (en) * 2004-06-21 2006-01-05 Mitsubishi Electric Corp Radar image processor
JP2008046107A (en) * 2006-07-21 2008-02-28 Pasuko:Kk Method and apparatus for radar image processing
JP2008157764A (en) * 2006-12-25 2008-07-10 Mitsubishi Electric Corp Radar image processing device
JP2008215935A (en) * 2007-03-01 2008-09-18 Mitsubishi Electric Corp Radar image processing device
JP2009289111A (en) * 2008-05-30 2009-12-10 Mitsubishi Electric Corp Image processor

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017179171A1 (en) * 2016-04-14 2017-10-19 三菱電機株式会社 Image processing device and image processing method
JPWO2017179171A1 (en) * 2016-04-14 2018-04-19 三菱電機株式会社 Image processing apparatus and image processing method
JP2018040728A (en) * 2016-09-08 2018-03-15 株式会社パスコ Ground surface deformation visualization device and ground surface deformation visualization program
JP2018048862A (en) * 2016-09-20 2018-03-29 株式会社東芝 Radar signal processor, radar signal processing method, and radar signal processing program
JP2018194404A (en) * 2017-05-16 2018-12-06 株式会社パスコ Machine learning method, and surface deformation determination method
JP7102106B2 (en) 2017-05-16 2022-07-19 株式会社パスコ Machine learning method and surface change judgment method
CN110188830A (en) * 2019-06-01 2019-08-30 合肥工业大学 The SAR image change detection cut based on multicore figure
CN110188830B (en) * 2019-06-01 2022-09-06 合肥工业大学 SAR image change detection method based on multi-core graph cut
JP7205005B1 (en) * 2022-06-03 2023-01-16 三菱電機株式会社 Image processing device
WO2023233641A1 (en) * 2022-06-03 2023-12-07 三菱電機株式会社 Image processing device

Also Published As

Publication number Publication date
JP5183512B2 (en) 2013-04-17

Similar Documents

Publication Publication Date Title
Lv et al. Novel adaptive histogram trend similarity approach for land cover change detection by using bitemporal very-high-resolution remote sensing images
Sun et al. Classification mapping of salt marsh vegetation by flexible monthly NDVI time-series using Landsat imagery
Du et al. An improved change detection approach using tri-temporal logic-verified change vector analysis
Hall et al. A multiscale object-specific approach to digital change detection
Nath et al. A survey of image classification methods and techniques
Balaguer et al. Definition of a comprehensive set of texture semivariogram features and their evaluation for object-oriented image classification
Brenning Benchmarking classifiers to optimally integrate terrain analysis and multispectral remote sensing in automatic rock glacier detection
Marchesi et al. A context-sensitive technique robust to registration noise for change detection in VHR multispectral images
Colditz et al. Influence of image fusion approaches on classification accuracy: a case study
TAATI et al. Land use classification using support vector machine and maximum likelihood algorithms by Landsat 5 TM images
JP5183512B2 (en) Image change extraction device
CN103198480B (en) Based on the method for detecting change of remote sensing image of region and Kmeans cluster
Zeng et al. Image fusion for land cover change detection
Yang et al. River delineation from remotely sensed imagery using a multi-scale classification approach
Zheng et al. Remote sensing techniques in the investigation of aeolian sand dunes: A review of recent advances
Ouma et al. Comparison of machine learning classifiers for multitemporal and multisensor mapping of urban LULC features
Ouma et al. Multiscale remote sensing data segmentation and post-segmentation change detection based on logical modeling: Theoretical exposition and experimental results for forestland cover change analysis
Li et al. Iterative Deep Learning (IDL) for agricultural landscape classification using fine spatial resolution remotely sensed imagery
Liu et al. Contour-oriented cropland extraction from high resolution remote sensing imagery using richer convolution features network
Mohammadi et al. Land cover mapping using a novel combination model of satellite imageries: case study of a part of the Cameron Highlands, Pahang, Malaysia.
CN106971402A (en) A kind of SAR image change detection aided in based on optics
Vukadinov et al. An algorithm for coastline extraction from satellite imagery
Qiu et al. Object oriented land cover classification combining scale parameter preestimation and mean-shift segmentation
Su et al. Discrimination of land use patterns in remote sensing image data using minimum distance algorithm and watershed algorithm
Bikkasani et al. Analysis of long-term changes for land use and land cover using machine learning: A case study

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130115

R150 Certificate of patent or registration of utility model

Ref document number: 5183512

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160125

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250