WO2015151553A1 - 異動検出支援装置、異動検出支援方法、及びコンピュータ読み取り可能な記録媒体 - Google Patents

異動検出支援装置、異動検出支援方法、及びコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
WO2015151553A1
WO2015151553A1 PCT/JP2015/051484 JP2015051484W WO2015151553A1 WO 2015151553 A1 WO2015151553 A1 WO 2015151553A1 JP 2015051484 W JP2015051484 W JP 2015051484W WO 2015151553 A1 WO2015151553 A1 WO 2015151553A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
change
image
images
rooftop
Prior art date
Application number
PCT/JP2015/051484
Other languages
English (en)
French (fr)
Inventor
王晶
小泉博一
Original Assignee
Necソリューションイノベータ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necソリューションイノベータ株式会社 filed Critical Necソリューションイノベータ株式会社
Priority to JP2016511409A priority Critical patent/JP6249508B2/ja
Publication of WO2015151553A1 publication Critical patent/WO2015151553A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • G09B29/106Map spot or coordinate position indicators; Map reading aids using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation

Definitions

  • the present invention realizes a change detection support device, a change detection support method, and a method for supporting detection of a location (change) that has changed in the target using two images of the same target with different shooting dates and times.
  • the present invention relates to a computer-readable recording medium on which a program for recording is recorded.
  • Non-Patent Document 1 proposes a method of detecting a change location after correcting the brightness of images with different shooting dates and times. ing. Specifically, in the method disclosed in Non-Patent Document 1, first, the brightness of one of two images with different shooting dates and times is corrected based on the other. At this time, the same correction is performed on the entire image. Next, one image whose brightness has been corrected is compared with the other image which is the reference for correction, and a change point is detected.
  • Non-Patent Document 1 has the following problems. First, when correcting the brightness of an image, it is necessary to set parameters necessary for correction. However, since parameters are set based on experience, if practical information is not accumulated, appropriate correction is required. The problem that cannot be executed.
  • Non-Patent Document 1 the brightness correction by the method disclosed in Non-Patent Document 1 is performed on the entire image, and the influence of the brightness under different environments is only reduced to a certain extent.
  • information such as information about the light source (for example, the altitude and azimuth angle of the sun), the material of the subject (for example, a building), the direction of the subject, the position of the camera, etc. It is necessary to analyze in detail the factors that determine However, it is usually difficult to acquire all of these pieces of information. Furthermore, in reality, there are various other effects, and it is difficult to perform strict brightness correction.
  • An example of an object of the present invention is to provide a change detection support device and a change that can contribute to improving the detection accuracy of a change point when the above-described problems are solved and each image to be determined is taken in a different environment. It is an object to provide a detection support method and a computer-readable recording medium.
  • the change detection support device uses two images with different shooting dates and times for the same object, and detects locations that have changed between the old shooting date and the new shooting date and time.
  • a device for assisting in detection An image dividing unit that divides each of the two images into a plurality of regions based on color information and texture information of each of the two images; A feature vector is extracted for each of the plurality of regions obtained by the division by the image dividing unit, and a change feature vector representing a difference in the feature vectors between the regions corresponding to each other in the two images is obtained.
  • a change feature calculation unit to calculate, A clustering unit that performs clustering on all the change feature vectors calculated by the change feature calculation unit, thereby generating a cluster; A determination unit that determines the possibility that the change has occurred for each of the plurality of regions based on the cluster generated by the clustering unit; It is characterized by providing.
  • the change detection support method changes between an old shooting date and a new shooting date and time using two images with different shooting dates and times for the same object.
  • a method for assisting in detecting a location (A) dividing each of the two images into a plurality of regions based on color information and texture information of each of the two images; and (B) A feature vector is extracted for each of the plurality of regions obtained by the division in the step (a), and a difference between the feature vectors is determined between the regions corresponding to each other in the two images.
  • a computer-readable recording medium provides an image from an old shooting date to a new shooting date by using two images with different shooting dates and times for the same object.
  • FIG. 1 is a block diagram showing a schematic configuration of a change detection support apparatus according to Embodiment 1 of the present invention.
  • FIG. 2 is a block diagram specifically showing the configuration of the change detection support apparatus according to Embodiment 1 of the present invention.
  • FIG. 3 is a diagram for explaining smooth region merging processing by the image dividing unit shown in FIGS. 1 and 2, and FIGS. 3A and 3B show different cases.
  • FIG. 4 is a diagram for explaining a process for determining the correspondence between smooth regions, and FIGS. 4A and 4B show different cases.
  • FIG. 5 is a flowchart showing the operation of the change detection support apparatus according to the first embodiment of the present invention.
  • FIG. 6 is a flowchart specifically showing the calculation process of the change feature vector shown in FIG. FIG.
  • FIG. 7 is a flowchart specifically showing the determination process shown in FIG.
  • FIG. 8 is a block diagram specifically showing the configuration of the change detection support apparatus according to Embodiment 2 of the present invention.
  • FIG. 9 is a diagram for explaining the determination process of the roof area performed in the second embodiment of the present invention, and FIGS. 9A to 9C show different cases.
  • FIG. 10 is a flowchart showing the operation of the change detection support apparatus in the second embodiment of the present invention.
  • FIG. 11 is a flowchart specifically illustrating the roof area extraction process illustrated in FIG. 10.
  • FIG. 12 is a flowchart specifically showing the roof area determination process shown in FIG.
  • FIG. 13 is a flowchart specifically showing the determination process of the rooftop structure shown in FIG.
  • FIG. 14 is a block diagram illustrating an example of a computer that implements the change detection support apparatus according to the first and second embodiments of the present invention.
  • the influence of the difference in brightness is not reduced by correcting the difference in brightness due to the environment between images having different shooting dates and times as in the prior art.
  • the influence due to the difference in brightness between images with different shooting dates and times can be reduced, and the changed portion between images can be identified. To detect.
  • the changed part between the images is also referred to as “changed part”.
  • the target images are, for example, two images taken from the sky at different dates and times.
  • the information of the light source such as the altitude and azimuth angle of the sun is the same for the subject within a certain range, and the direction of the camera with respect to the feature within the certain range is also approximately the same.
  • the colors of features within a certain range in which the surface orientation is similar and the surface material is the same are approximated.
  • the present invention uses this fact to support detection of a changed portion between images, that is, a changed portion. As a result, according to the present invention, there is no need to analyze the color formation of each image or correct the color of each image based on the analysis result, and there is a problem with the parameters necessary for brightness correction. There is no room for it to occur.
  • an area representing the roof of the building (hereinafter referred to as a “roof area”) is extracted, and the roof area is A determination process described later can be performed.
  • the change of a color does not change, it can respond also when the building is actually rebuilt.
  • Embodiment 1 a change detection support apparatus, a change detection support method, and a program according to Embodiment 1 of the present invention will be described with reference to FIGS.
  • the following first embodiment is for explanation, and does not limit the scope of the present invention. Therefore, those skilled in the art can adopt Embodiment 1 in which each of these elements or all of the elements are replaced with equivalent elements, and these embodiments are also included in the scope of the present invention.
  • FIG. 1 is a block diagram showing a schematic configuration of a change detection support apparatus according to Embodiment 1 of the present invention.
  • the change detection support apparatus 100 uses two images with different shooting dates and times for the same object, and changes between the old shooting date and the new shooting date and time. It is an apparatus for providing support when detecting (change location).
  • the change detection support apparatus 100 includes an image dividing unit 30, a change feature calculating unit 60, a clustering unit 70, and a determining unit 80.
  • the image dividing unit 30 divides each of the two images into a plurality of regions based on the color information and texture information of the two images having different shooting dates and times inputted.
  • the change feature calculation unit 60 extracts a feature vector for each region obtained by the division by the image dividing unit 30, and further, a feature vector difference between regions corresponding to each other in two images having different shooting dates and times. Is calculated.
  • the clustering unit 70 performs clustering on all the change feature vectors calculated by the change feature calculation unit 60, thereby generating a cluster.
  • the determination unit 80 determines the possibility that a change (change) has occurred in each region based on the generated cluster.
  • the determination unit 80 outputs the determination result to the outside.
  • a change feature vector representing a difference between feature vectors of two images having different shooting dates and times is calculated, and clustering is performed on the calculated change feature vector. Is done. For this reason, the change feature vector of each region has an approximate change pattern in each region where the surface direction and the material are close to each other within a certain range and the surface direction and the material are approximate to each other. And it will be included in the same cluster. For this reason, if the cluster is analyzed, it is possible to identify a portion that does not change between images (a portion that does not change) without being affected by the brightness due to the environment. Therefore, according to the first embodiment, it is possible to contribute to an improvement in detection accuracy of a changing portion when each image to be determined is taken in a different environment.
  • FIG. 2 is a block diagram specifically showing the configuration of the change detection support apparatus according to Embodiment 1 of the present invention.
  • the images that are the detection targets of the changed portion are two images obtained by photographing from the sky. Furthermore, it is assumed that one of the images is taken in a certain year and the other image is taken in a later year. Then, an image with a new shooting date and time is referred to as “an image of the new year”, and an image with an old shooting date and time is referred to as an “image of the old year”.
  • the change detection support apparatus 100 includes an image input unit 10 in addition to the image dividing unit 30, the change feature calculating unit 60, the clustering unit 70, and the determining unit 80 described above.
  • the processing parameter input unit 20 and the processing parameter storage unit 21 are further provided.
  • the change detection support apparatus 100 can analyze the region obtained by the division for the images of the new and old years, and specify the change between the images as a change feature. Then, the change detection support apparatus 100 enables the change detection that is not affected by the brightness due to the environment by using the distribution pattern of the specified change feature pattern.
  • each part will be described.
  • the image input unit 10 receives externally input image data and inputs it to the image dividing unit 30. Input of image data from the outside to the image input unit 10 is performed by a user via a network or a recording medium.
  • the image data of the image for the new year and the image data of the image for the old year are input from the outside. Further, these image data may be image data of an ortho image.
  • the ortho image generation method is not particularly limited. The ortho image is generated based on, for example, DEM (Digital Elevation Model) acquired by stereo processing of aerial photographs or satellite photographs.
  • the processing parameter input unit 20 receives all parameters relating to change detection input from the outside, and inputs them to the processing parameter storage unit 21. Input of parameters to the processing parameter input unit 20 from the outside may be performed by a user via a network or a recording medium, or may be performed by a user directly inputting with an input device.
  • image division parameters parameters required for processing in the image division unit 30 (to be described later)
  • determination parameters parameters required for processing in the determination unit 80
  • image division parameters parameters required for processing in the image division unit 30
  • determination parameters parameters required for processing in the determination unit 80
  • image division parameters parameters required for processing in the image division unit 30
  • image division parameters parameters required for processing in the determination unit 80
  • determination parameters a threshold value (described as “area threshold value” in the following) used for the merge processing of regions having a small area, which will be described later, is given. It is done.
  • area threshold value a threshold set for a cluster size described later
  • the parameters input from the outside to the processing parameter input unit 20 are stored in the processing parameter storage unit 21. Then, when executing each process such as the image division process and the determination process, parameters necessary for each process are acquired from the process parameter storage unit 21 in a timely manner.
  • the image dividing unit 30 targets the images of the old and new years input from the image input unit 10. Further, the image dividing unit 30 divides each image into a plurality of regions so that the color distribution or the texture distribution is approximated in each region obtained by the division based on the color information and the texture information included in each image data. To do. Therefore, the region obtained by the division (hereinafter referred to as “smooth region”) has an approximate color distribution or an approximate texture distribution as a feature. By this division processing, one image is divided into a plurality of smooth regions having different sizes and shapes.
  • an existing region division method or contour extraction method can be used.
  • the processing result directly becomes each smooth area.
  • the contour extraction method is used, a region inside each obtained closed contour is a smooth region.
  • area threshold value a set threshold value
  • the image dividing unit 30 moves another smooth region around it. This another smooth region is removed by merging with another smooth region.
  • the area threshold value is input as an image division parameter via the processing parameter input unit 20 and stored in the processing parameter storage unit 21, so the image division unit 30 acquires the area threshold value from the processing parameter storage unit 21. To do.
  • FIG. 3 is a diagram for explaining smooth region merging processing by the image dividing unit shown in FIGS. 1 and 2, and FIGS. 3A and 3B show different cases.
  • the smooth region 31B and the smooth region 31C exist inside the smooth region 31A. In this case, if the smooth region 31B and the smooth region 31C are equal to or smaller than the area threshold, these smooth regions are merged into the smooth region 31A.
  • smooth regions 31E and 31F exist inside the smooth region 31D.
  • the smooth region 31F is equal to or smaller than the area threshold, only the smooth region 31F is merged with the smooth region 31D, and the smooth region 31E is not merged.
  • the smooth region 31D unlike the smooth region 31A, a hole is present inside after the smooth region merging processing.
  • each smooth region is not only composed of a set of neighboring pixels having approximate colors, but also the region itself in a three-dimensional space for processing described later.
  • a flat surface is preferred. Therefore, the image division is preferably performed so as to be a little “overdivision”, that is, a little finer.
  • the image dividing unit 30 may perform image division using a region-growing method, for example.
  • the change feature calculation unit 60 extracts a feature vector for each smooth region acquired by the image dividing unit 30 from the image of the new year and the image of the old year, and the correspondence between the images of the new and old years The difference between the feature vectors from each of the related smooth regions is calculated as a change feature vector.
  • the change feature vector is extracted from the image of the new year and the image of the old year, and the entire image is analyzed.
  • the change feature vector is calculated by calculating the feature vector from each of the smooth area of the image of the new year and the corresponding smooth area of the image of the old year. That is, a difference between two feature vectors is calculated as a change feature vector.
  • the change feature calculation unit 60 first determines the correspondence between the smooth area of the image of the new year and the smooth area of the image of the old year.
  • the process of determining the correspondence between the smooth area of the image for the new year and the smooth area of the image for the previous year is based on the smooth area of the image for the new year, and the smooth area of the corresponding image for the previous year is searched.
  • the smooth area of the image of the corresponding new year may be searched with reference to the smooth area of the image of the old year.
  • a specific example of the correspondence determination process in the change feature calculation unit 60 will be described with reference to a case where the smooth area of the image of the new year is used as a reference.
  • the change feature calculation unit 60 sets the largest smooth area among the smooth areas of the image of the previous year overlapping the smooth area of the image of the new year to the smooth area of the new year. Determine that it is compatible. Then, the change feature calculation unit 60 extracts a feature vector for each overlapping portion of the smooth region of the image of the new year and the smooth region of the image of the old year, and further calculates the change feature vector from these. To do.
  • FIG. 4 is a diagram for explaining a process for determining the correspondence between smooth regions, and FIGS. 4A and 4B show different cases.
  • the change feature calculation unit 60 determines the smooth region 41B having a large overlapping area as a smooth region corresponding to the smooth region 41A. Therefore, the change feature calculation unit 60 calculates a change feature vector in a portion where the smooth region 41A and the smooth region 41B overlap, that is, the range of the smooth region 41B.
  • the change feature calculation unit 60 determines that the smooth area 42B is a smooth area corresponding to the smooth area 42A. Therefore, the change feature calculation unit 60 calculates a change feature vector in a portion where the smooth region 42A and the smooth region 42B overlap, that is, the range of the smooth region 42A.
  • the change feature calculation unit 60 extracts a feature vector before calculating the change feature vector. At that time, the change feature calculation unit 60 extracts only one feature vector representing the color distribution of the region from each smooth region. Also good. Furthermore, the change feature calculation unit 60 extracts a feature vector from each of all pixels in the smooth region to be extracted, obtains an average vector over the entire region, and calculates the obtained average vector as a color distribution of this region. A representative feature vector may be used to calculate a change feature vector.
  • the feature vector When extracting only one feature vector that represents the color distribution of each region from each smooth region, the feature vector is a set of all the pixels in the smooth region to be extracted and represents the overall feature.
  • the coefficient is also mentioned. Specifically, for example, if the entire color distribution in the region is expressed by a mathematical model, coefficients used in the mathematical model are listed as feature vectors.
  • the feature vectors representing the color distribution of an area are extracted by averaging the feature vectors of each pixel in the smooth area to be extracted, the feature vector extracted for each pixel is a color information vector representing the color of each pixel.
  • a feature vector reflecting the color distribution of the neighboring area of each pixel, and the like can be mentioned.
  • the change feature calculation unit 60 obtains a difference between the feature vector extracted from the image of the new year and the feature vector extracted from the image of the old year, and uses the obtained difference as the change feature vector. Also good.
  • the change feature calculation unit 60 may calculate the difference between the feature vector extracted from the image of the new year and the feature vector extracted from the image of the old year using another calculation formula, and use it as the change feature vector. .
  • the clustering unit 70 performs clustering on the change feature vectors calculated for all the smooth regions by the change feature calculation unit 60 to generate a plurality of clusters.
  • the brightness of the environment is the same
  • the material of the subject is the same
  • the portion where the orientation of the surface of the subject is approximate is expressed in the same color Is done. This phenomenon is established in each of two images having different shooting dates and times. Because of this premise, even if two images have different brightness depending on the environment at the time of shooting, the subject material is the same. Since the color change at is approximated, the change feature vector is also approximated.
  • the clustering unit 70 clusters the change feature vector using this feature.
  • a specific clustering method by the clustering unit 70 includes a general clustering method, for example, a K-Means method.
  • the determination unit 80 analyzes a plurality of clusters generated by the clustering unit 70, and determines that there is no change for a smooth region in which a color change occurs due to a change in brightness due to the environment. On the other hand, the determination unit 80 determines that “change cannot be determined” for a smooth area that has not been determined to have no change.
  • the determination unit 80 may compare the size of the cluster, for example, the number of change feature vectors included in one cluster with a threshold value set in advance with respect to the size of the cluster, and perform determination based on the comparison result. it can. Since the threshold for the cluster size is recorded in advance as a determination parameter in the processing parameter storage unit 21 via the processing parameter input unit 20, the determination unit 80 determines the threshold from the processing parameter storage unit 21. get.
  • the determination unit 80 when the cluster size is equal to or larger than the threshold, the determination unit 80 has many smooth regions in which the color change is approximate, and the color change on these smooth regions is due to a change in brightness in the environment. it is conceivable that. Therefore, the determination unit 80 determines “no change” for the smooth region from which the change feature vector belonging to this cluster is calculated. Conversely, when the size of the cluster is smaller than the threshold value, the determination unit 80 is considered that the color change in the smooth region from which the change feature vector belonging to the cluster is calculated is caused by another cause. Since the final determination cannot be made, it is determined that “the transfer cannot be determined” for this smooth region.
  • the determination unit 80 After completion of the above determination processing, the determination unit 80 outputs a determination result. As a result of the determination, some of the smooth areas acquired by the image dividing unit 30 are determined as “no change”, and the rest are determined as “no change can be determined”. Therefore, since the user only needs to make a final confirmation visually only for the smooth region in which “change cannot be determined”, the overall efficiency of the change detection process can be improved.
  • FIG. 5 is a flowchart showing the operation of the change detection support apparatus according to the first embodiment of the present invention.
  • FIGS. 1 to 4 are referred to as appropriate.
  • the change detection support method is implemented by operating the change detection support apparatus 100. Therefore, the description of the change detection support method in the first embodiment is replaced with the following description of the operation of the change detection support apparatus 100.
  • image data of a new year image and an old year image is input from the user to the change detection support apparatus 100 via the image input unit 10, and via the processing parameter input unit 20. , Necessary parameters are entered. Thereafter, as shown in FIG. 5, the change detection support apparatus 100 starts a process for support of change detection.
  • the image division unit 30 performs image division processing on the input image based on color information and texture information, and performs a plurality of smooth operations.
  • a region is generated (step S110). That is, the image dividing unit 30 performs image division processing on each of the input images of the new year and the old year, and acquires smooth regions of the images of the new year and the images of the old year. Further, in step S110, the image dividing unit 30 performs smooth region merging processing using image division parameters as necessary.
  • the change feature calculation unit 60 extracts a feature vector for each smooth region obtained in step S110, and further calculates a difference in feature vectors between corresponding smooth regions in two images having different shooting dates and times.
  • a change feature vector to be represented is calculated (step S120). That is, the change feature calculation unit 60 extracts a change between the image of the new year and the image of the old year as a change feature vector in each smooth region.
  • the clustering unit 70 performs clustering on all the change feature vectors calculated in step S120, thereby generating a cluster (step S130). That is, the clustering unit 70 performs clustering on the change feature vectors calculated between corresponding smooth regions in the image of the new year and the image of the old year, and acquires a large number of clusters.
  • the determination unit 80 determines the possibility that a change has occurred in each smooth region based on the cluster generated in step S130 (step S140). That is, the determination unit 80 performs determination based on the size of each cluster. Then, the determination unit 80 determines “no change” for a smooth area in which a color change occurs due to a change in brightness due to the environment, and “no change is determined” for a smooth area that is not determined to have no change. Is determined.
  • the determination unit 80 outputs the determination result to a user terminal (not shown) or the like. As a result, the user only has to make a final confirmation visually only for the smooth region in which the change cannot be confirmed. After execution of step S140, the process in the change detection support apparatus 100 ends.
  • step S120 shown in FIG. 5 will be described more specifically with reference to FIG.
  • FIG. 6 is a flowchart specifically showing the calculation process of the change feature vector shown in FIG.
  • the change feature calculation unit 60 extracts the change feature vector of each smooth region on the basis of the smooth region of the image of the new year.
  • the change feature calculation unit 60 selects one smooth area of the image for the new year, and determines the corresponding smooth area of the image for the old year (step S121). Next, the change feature calculation unit 60 extracts a feature vector from each of the two corresponding smooth regions (step S122).
  • the change feature calculation unit 60 calculates the difference between the extracted feature vector of the new year and the feature vector of the old year, and sets the calculated difference as the change feature vector (step S123). Thereby, the calculation process of the change feature vector for the smooth region selected in step S121 is completed.
  • step S124 determines whether or not the processing has been completed for all the smooth regions of the new year image.
  • step S124 determines whether or not the processing has been completed for all the smooth regions of the new year image.
  • step S124 determines whether or not the processing has been completed for all the smooth regions of the new year image.
  • step S140 shown in FIG. 5 will be described more specifically with reference to FIG.
  • FIG. 7 is a flowchart specifically showing the determination process shown in FIG.
  • the determination unit 80 first acquires a determination parameter necessary for determination processing, for example, a threshold value from the processing parameter storage unit 21 (step S ⁇ b> 141). Next, the determination unit 80 selects one of the plurality of clusters generated in Step S130, and determines whether the size of the selected cluster is equal to or larger than the threshold acquired in Step S141 (Step S130). S142).
  • a determination parameter necessary for determination processing for example, a threshold value from the processing parameter storage unit 21.
  • step S142 when the size of the cluster is equal to or larger than the threshold (step S142; Yes), the determination unit 80 determines the smooth region from which the change feature vector belonging to the determination target cluster is calculated. It is determined that “no change” (step S143).
  • step S142 determines whether the cluster size is less than the threshold value (step S142; No). If the result of determination in step S142 is that the cluster size is less than the threshold value (step S142; No), the smooth region from which the change feature vector belonging to the determination target cluster is calculated is “change It is determined that “determination is impossible” (step S144). Thus, the process for the cluster that is the determination target is completed.
  • step S145 determines whether the process is completed about all the clusters after completion of step S143 or S144 (step S145). As a result of the determination in step S145, if there is a cluster that has not been processed yet (step S145; No), the determination unit 80 selects a cluster to be processed next (step S146), and again executes step S142. Execute. On the other hand, if the result of determination in step S145 is that processing has been completed for all clusters (step S145; Yes), the processing in step S140 ends.
  • the program according to Embodiment 1 of the present invention may be a program that causes a computer to execute steps S110 to S140 shown in FIG.
  • the CPU Central Processing Unit
  • the CPU functions as the image input unit 10
  • the processing parameter input unit 20 the image dividing unit 30, the change feature calculation unit 60, the clustering unit 70, and the determination unit 80, and performs processing.
  • a storage device such as a hard disk provided in the computer functions as the processing parameter storage unit 21.
  • Embodiment 2 a change detection support apparatus, a change detection support method, and a program according to Embodiment 2 of the present invention will be described with reference to FIGS.
  • the following Embodiment 2 is for explanation, and does not limit the scope of the present invention. Therefore, those skilled in the art can adopt Embodiment 2 in which each of these elements or all of the elements are replaced with equivalent elements, and these embodiments are also included in the scope of the present invention.
  • FIG. 8 is a block diagram specifically showing the configuration of the change detection support apparatus according to Embodiment 2 of the present invention.
  • the images that are the detection targets of the changed part are two images obtained by photographing from the sky, and one of these images is photographed in a certain year. It is assumed that the other image is taken in a subsequent year. Further, it is assumed that the rooftop of the building is reflected in each image. Based on such a premise, the change detection support apparatus 200 performs a change location determination process on an area representing the rooftop of a building in the image (hereinafter referred to as “roof area”).
  • the difference from the first embodiment will be mainly described.
  • the change detection support apparatus 200 is similar to the first embodiment in that the image input unit 10, the processing parameter input unit 20, the processing parameter storage unit 21, the image dividing unit 30, A change feature calculation unit 60, a clustering unit 70, and a determination unit 80 are provided.
  • the change detection support apparatus 200 further includes a roof area extraction unit 40 and a roof area determination unit 50.
  • the rooftop area extraction unit 40 extracts only the area representing the rooftop of the building from among the plurality of smooth areas obtained by the division by the image dividing unit 30 as the rooftop area. This point will be specifically described.
  • the rooftop area extraction unit 40 extracts only the rooftop area of the building from the smooth area based on the unique characteristics of the rooftop of the building. Specifically, the roof area extraction unit 40 determines whether the roof area corresponds to the roof area based on the area of the smooth area, the shape of the smooth area, the uniformity of the color in the smooth area, the uniformity of the texture, and the like. .
  • the roof area extraction unit 40 determines that it does not correspond to the roof area of the building.
  • a certain range that is a criterion is defined by an upper limit value and a lower limit value of the area of the rooftop area.
  • the upper limit value and the lower limit value are previously input as a roof area extraction parameter from the user via the processing parameter input unit 20 and stored in the processing parameter storage unit 21.
  • the roof area extraction unit 40 acquires these values from the processing parameter storage unit 21.
  • the roof area extraction unit 40 determines that the shape does not correspond to the roof area of the building when the shape of the smooth area does not satisfy a certain rule.
  • a certain rule first, there is no hole in the smooth area, the ratio of both sides of the rectangle circumscribing the area is equal to or less than the set threshold, and the area of the area and the area of the circumscribed rectangle are The ratio is equal to or greater than a set threshold value.
  • the threshold value set for the ratio of both sides is hereinafter referred to as “both side ratio threshold value”, and the threshold value set for the area ratio is hereinafter referred to as “area ratio threshold value”.
  • both sides of the rectangle circumscribing the region is equal to or less than the threshold value of both sides and the condition that the ratio of the area of the region and the area of the rectangle circumscribing is equal to or greater than the area ratio threshold, Smooth areas can be removed.
  • Both side ratio threshold value and area ratio threshold value are also inputted in advance as a roof area extraction parameter from the user via the processing parameter input unit 20 and stored in the processing parameter storage unit 21.
  • the rooftop area extraction unit 40 acquires these threshold values from the processing parameter storage unit 21.
  • the roof area extraction unit 40 determines that the uniformity of the color and the uniformity of the texture in the smooth area are equal to or greater than a threshold (hereinafter referred to as “uniformity threshold”) set for each. It is determined that the smooth area is the rooftop area of the building.
  • a threshold hereinafter referred to as “uniformity threshold” set for each. It is determined that the smooth area is the rooftop area of the building.
  • Each uniformity threshold value is also input in advance as a roof area extraction parameter from the user via the processing parameter input unit 20 and stored in the processing parameter storage unit 21.
  • the rooftop area extraction unit 40 acquires these uniformity threshold values from the processing parameter storage unit 21.
  • the definition of uniformity is as follows.
  • the rooftop area extraction unit 40 calculates the variance of the color distribution in the neighboring area for each of all the pixels in the smooth area, further averages all the calculated variances, and calculates the reciprocal of the obtained average value, It can be used as the color uniformity within the smooth region.
  • the roof area extraction unit 40 calculates a feature value that expresses the smoothness of the texture in the neighboring area for each of all pixels in the smooth area, and averages all the calculated feature values. The average value can be used as the uniformity of the texture within the smooth region.
  • each roof area extracted by the roof area extraction unit 40 is also a plane.
  • the rooftop of one building may be comprised by one rooftop area
  • the roof of a building is composed of one roof area, for example, a case where the building is a flat roof and the roof is flat can be cited.
  • the rooftop of a building is composed of a number of rooftop areas, for example, the case where the roof of the building is Y-shaped can be mentioned.
  • the rooftop area determination unit 50 compares the rooftop areas with each other between two images having different shooting dates and times, and whether there is a changed part between the old shooting date and the new shooting date and time in the rooftop area. Determine if.
  • the roof area determination unit 50 uses the roof area of the image of the new year extracted by the roof area extraction unit 40 and the roof area of the image of the old year as determination targets.
  • the determination of the roof area is performed in two stages. The roof area determination unit 50 first determines, as the first stage determination in the change detection support apparatus 200, that “there is a change” or “the change cannot be determined” for each roof area.
  • the rooftop area determination unit 50 outputs the determination result of the rooftop area determined as “changed” to the user's terminal or the like.
  • the roof area determination unit 50 outputs, to the change feature calculation unit 60, information specifying the corresponding roof area for the roof area determined to be “unchangeable”.
  • the roof area determination unit 50 may perform the above-described determination on the roof area of the image of the previous year with reference to the roof area of the image of the new year. You may perform the above-mentioned determination with respect to the area
  • a specific example of the determination process in the roof area determination unit 50 will be described with reference to the case where the roof area of the image of the new year is used as a reference.
  • the roof area determination unit 50 uses the information specifying the position and range of each roof area of the image of the new year to use the smooth area (hereinafter referred to as “overlap”) that overlaps the roof area of the image of the new year. Specify "range”.) Then, as shown in the following (1) to (3), the rooftop area determination unit 50 analyzes the overlapping range.
  • the roof area determination unit 50 When the roof area does not exist in the overlapping range of the previous year that overlaps the roof area of the image of the new year, the roof area determination unit 50 has a building in the new year. Since there is no building in the previous year, it is determined that there is a change.
  • the roof area determination unit 50 overlaps the roof area of the new year of the largest roof area in the overlapping range of the previous year. And the ratio of the area of the rooftop area in the new year.
  • area ratio threshold value a preset threshold value (hereinafter referred to as “area ratio threshold value”), the roof area changes between the new year and the old year. Therefore, it is determined that “There is a change”.
  • the area ratio threshold is set to about 80%, for example.
  • the roof area determination unit 50 determines whether the roof structure that appears in the roof area of the image of the new year is the same as the roof structure that appears in the roof area of the previous year. . If the result of determination is that they are different, the rooftop area determination unit 50 determines that “there is a change”. On the other hand, if the result of determination is that both have the same structure, the rooftop area determination unit 50 determines that there is a transfer location, and therefore determines that “change cannot be determined”.
  • the area ratio threshold for example, 80% or more
  • FIG. 9 is a diagram for explaining the determination process of the roof area performed in the second embodiment of the present invention, and FIGS. 9A to 9C show different cases. Further, in FIGS. 9A to 9C, the roof area A on the left side shows one roof area of the image of the new year, and the right side shows the overlapping range of the old year overlapping the roof area A. Show.
  • the rooftop area determination unit 50 determines that “there is a change” for the rooftop area A in the new year.
  • the smooth area 92B is the roof area, but the smooth area 92C is not the roof area.
  • the ratio between the area of the smooth region 92B that overlaps the rooftop region A and the area of the rooftop region A is assumed to be smaller than the area ratio threshold (80%).
  • the roof area determination unit 50 determines that “there is a change” for the roof area A in the new year.
  • the smooth area 93B is the roof area, but the smooth area 93C is not the roof area.
  • region A shall be an area ratio threshold value (80%) or more.
  • the rooftop area determination unit 50 determines whether the rooftop structure that appears in the rooftop area A in the new year and the rooftop structure that appears in the rooftop area 93B in the previous year are the same.
  • the roof area determination unit 50 first extracts a straight line from the roof area in the new year and the roof area in the old year for determining whether the roof structures in the new and old years have the same roof structure. At this time, the rooftop area determination unit 50 extracts a contour line portion of the rooftop area by setting a region that is slightly expanded with the rooftop area to be determined as the center as a target area for straight line extraction. You can also. By expanding this area, the rooftop area determination unit 50 determines the structure of the rooftop on the basis of the shape of the external contour even when there is no straight line inside the rooftop area to be determined. Can be judged.
  • the straight line here includes not only a complete straight line but also a linear part.
  • the rooftop area determination unit 50 identifies the one having a larger number of extracted straight lines among the rooftop areas in the new and old years, and the roof having the smaller number of straight lines from the roof area having the larger number of straight lines.
  • a matching process matching straight line search process
  • the roof area determination unit 50 collates each straight line of the new year with each straight line of the old year, and extracts a matching straight line.
  • the matching result of the straight line more than the set threshold value for example, 70% of the total number
  • matching ratio threshold the threshold used here is hereinafter referred to as “matching ratio threshold”.
  • the rooftop area determination unit 50 executes, for example, the following processing. First, the rooftop area determination unit 50 acquires a neighboring area of a straight line extracted from the image of the new year, and determines whether or not a straight line extracted from the image of the previous year exists within the range of the neighboring area.
  • the rooftop area determination unit 50 is equal to or less than a threshold value (hereinafter referred to as “angle threshold value”) at which the angle intersecting the straight line for the new year is set. And whether the distance between the straight line and the straight line for the new year is equal to or less than a set threshold (hereinafter referred to as “distance threshold”). And as a result of determination, when it is below an angle threshold value and it is below a distance threshold value, the roof area
  • angle threshold value a threshold value at which the angle intersecting the straight line for the new year is set.
  • distance threshold a set threshold
  • the roof area determination unit 50 determines the distance from the straight line of the new year among these straight lines. A straight line below the distance threshold is specified. Further, the rooftop area determination unit 50 identifies the straight line having the smallest angle that intersects with the line for the new year from the identified straight lines, and the angle that intersects with the straight line for the new year in the line identified last is the angle threshold It is determined that the last specified straight line matches the straight line of the image of the new year on condition that the following is true.
  • the straight line to be determined is limited to one-to-one in the determination as to whether or not the straight line of the new year matches the straight line of the old year. Therefore, it is not determined that multiple straight lines from the previous year match one straight line in the new year, and multiple straight lines from the new year match the same straight line from the previous year. It is never done.
  • the area ratio threshold value, the matching ratio threshold value, the angle threshold value, and the distance threshold value used by the roof area determination unit 50 are previously input as a roof area determination parameter from the user via the process parameter input unit 20 and stored in the process parameter storage. Stored in the unit 21. The roof area determination unit 50 acquires these threshold values from the processing parameter storage unit 21.
  • the processing parameter input unit 20 receives a roof area extraction parameter and a roof area determination parameter from the user in addition to the parameters described in the first embodiment. Input to the processing parameter storage unit 21.
  • the change feature calculation unit 60 is a roof area that has not been determined by the roof area determination unit 50 that there is a change location, that is, a roof area that has been determined that “change cannot be determined”.
  • a feature vector is extracted for the target, and a change feature vector is calculated.
  • the target areas of the new year and the old year are both rooftop areas.
  • the ratio of the area of the roof area in the old year that overlaps the roof area in the new year and the area of the roof area in the new year is equal to or greater than the area ratio threshold.
  • the roof structure that appears in the roof area of the image of the new year is the same as the roof structure that appears in the roof area of the old year.
  • the second stage determination is performed for the roof area.
  • the clustering unit 70 performs clustering on the change feature vector calculated by the change feature calculation unit 60 and generates a plurality of clusters, as in the first embodiment.
  • the change feature vector is calculated from the roof area determined by the roof area determination unit 50 as “change cannot be determined”.
  • the determination unit 80 may cause a change in a roof area where the transfer area is not determined to be present by the roof area determination unit 50 based on the generated cluster. Determine gender. Specifically, the determination unit 80 performs the determination on the roof area determined by the roof area determination unit 50 as “change cannot be determined”. And the determination part 80 determines with "no change” about the roof area
  • the second embodiment it is possible to further determine “no change” for a part of the roof area determined by the roof area determination unit 50 as “change cannot be determined”. Therefore, the area to be finally determined by the user is only the roof area where it is finally determined that “change cannot be determined”. Therefore, the user only needs to make a final confirmation visually only with respect to these rooftop areas, so that the overall efficiency of the change detection process can be improved.
  • FIG. 10 is a flowchart showing the operation of the change detection support apparatus in the second embodiment of the present invention.
  • FIGS. 8 and 9 are referred to as appropriate.
  • the change detection support method is implemented by operating the change detection support apparatus 200. Therefore, the description of the change detection support method according to the second embodiment is replaced with the following description of the operation of the change detection support apparatus 200.
  • the image data of the new year image and the old year image is input from the user to the change detection support apparatus 200 via the image input unit 10. Necessary parameters are input via the processing parameter input unit 20. Thereafter, as illustrated in FIG. 10, the change detection support apparatus 200 starts a process for supporting the change detection.
  • the image division unit 30 performs image division processing on the input image based on color information and texture information, and performs a plurality of smooth operations.
  • a region is generated (step S210). Step S210 is the same as step S110 shown in FIG.
  • the roof area extraction unit 40 extracts, as the roof area, only the area representing the roof of the building among the plurality of smooth areas of the new year image and the old year image obtained in step S210. (Step S220). That is, the rooftop area extraction unit 40 extracts only the smooth area representing the rooftop of the building from the plurality of smooth areas obtained in step S210.
  • the roof area determination unit 50 first searches for the roof area of the image of the old year corresponding to the roof area of the image of the new year, and if found, the roof area of the image of the corresponding new year and the image of the old year are found.
  • the rooftop area is compared with each other, and it is determined whether or not there is a transfer location in the rooftop area (step S230). That is, the roof area determination unit 50 determines whether the roof area is “changed” or “change cannot be determined” by analyzing the roof areas of the images of the new and old years together.
  • the change feature calculation unit 60 extracts a feature vector from each of the corresponding rooftop regions in the new and old years for the rooftop region determined as “impossible to confirm the change” in step S220, and further changes the change feature.
  • a vector is calculated (step S240). Step S240 is performed according to step S120 shown in FIG.
  • Step S250 is performed according to step S130 shown in FIG.
  • the determination unit 80 may cause a change in the roof area where the transfer area has not been determined to be present by the roof area determination unit 50 based on the cluster generated in step S250. Is determined (step S260). Step S260 is performed according to step S140 shown in FIG.
  • the determination unit 80 outputs the determination result to a user terminal (not shown) or the like. As a result, the user only has to make a final visual check only for the roof area where it is determined that “change cannot be confirmed”. After execution of step S260, the process in the change detection support apparatus 200 ends.
  • step S220 shown in FIG. 10 will be described more specifically with reference to FIG.
  • FIG. 11 is a flowchart specifically illustrating the roof area extraction process illustrated in FIG. 10.
  • the roof area extraction unit 40 acquires all the roof area extraction parameters necessary for the extraction of the roof area from the processing parameter storage unit 21 (step S221).
  • the roof area extraction unit 40 selects a smooth area to be determined, performs the following determination on the selected smooth area, and determines whether the selected smooth area corresponds to the roof area.
  • the roof area extraction unit 40 determines whether the area of the smooth area to be determined is within a certain range, that is, whether the area is within the range defined by the upper limit value and the lower limit value. Determination is made (step S222). If the result of determination in step S222 is not within a certain range (step S222; No), the roof area extraction unit 40 determines that this smooth area is not a roof area (step S223), and then performs step S227. Execute.
  • step S222 determines whether the shape of the smooth area to be determined satisfies a certain rule.
  • a certain rule there are no holes in the target smooth area, the ratio of both sides of the rectangle circumscribing the area is equal to or less than the both-side ratio threshold, the area of the area and the area of the rectangle circumscribing And the ratio is greater than or equal to the area ratio threshold.
  • step S224 if the certain rule is not satisfied (step S224; No), the roof area extraction unit 40 determines that this smooth area is not the roof area (step S223), and then step S227. Execute.
  • step S224 determines the color uniformity and texture uniformity in the smooth area to be determined. Are both equal to or greater than the uniformity threshold value set for each (step S225). That is, it is determined whether the color uniformity is equal to or greater than the uniformity threshold for the color, and at the same time whether the texture uniformity is equal to or greater than the uniformity threshold for the color.
  • step S225 if the color uniformity and the texture uniformity are not equal to or greater than the respective uniformity threshold values (step S225; No), the roof area extraction unit 40 determines that the smooth area is the roof area. (Step S223), and then step S227 is executed.
  • step S225 if the color uniformity and the texture uniformity are both equal to or greater than the respective uniformity threshold values (step S225; Yes), the roof area extraction unit 40 determines that the smooth area is It determines with it being a roof area
  • step S223 or S226 the rooftop area extraction unit 40 determines whether or not processing has been completed for all smooth areas (step S227). If the result of determination in step S227 is that there is a smooth area that has not yet been processed (step S227; No), the rooftop area extraction unit 40 selects the next smooth area to be processed (step S228). Step S222 is executed again. On the other hand, if the result of determination in step S227 is that processing has been completed for all smooth regions (step S227; Yes), processing in step 220 is terminated, and then step S230 is executed.
  • FIG. 12 is a flowchart specifically showing the roof area determination process shown in FIG.
  • the roof area determination unit 50 performs the determination process on the roof area of the image of the old year with the roof area of the image of the new year as a reference.
  • the roof area determination unit 50 acquires all the roof area determination parameters necessary for determining the roof area from the processing parameter storage unit 21 (step S231).
  • the roof area determination unit 50 first selects the roof area of the new year to be determined, and the roof area is overlapped with the smooth area (overlap range) of the old year that overlaps the selected roof area of the new year. Is determined (step S232).
  • step S232 if the roof area does not exist in the overlapping range of the previous year (step S232; No), the roof area determination unit 50 determines that “there is a change” for the roof area in the new year (step S233). Then, step S238 is executed.
  • step S232 when the rooftop area exists in the overlapping range of the previous year (step S232; Yes), the rooftop area determination unit 50 determines that the largest rooftop area in the overlapping range of the previous year Is determined as a roof area corresponding to the roof area of the new year (step S234).
  • the ratio between the area of the determined roof area in the previous year and the roof area in the new year and the area of the roof area in the new year is calculated. Then, the rooftop area determination unit 50 determines whether or not the calculated ratio is greater than or equal to the area ratio threshold (step S235).
  • step S235 if the calculated ratio is not equal to or greater than the area ratio threshold (step S235; No), the rooftop area determination unit 50 determines that “there is a change” for the rooftop area in the new year (step S233). Thereafter, step S238 is executed.
  • step S235 when the calculated ratio is greater than or equal to the area ratio threshold (step S235; Yes), the rooftop area determination unit 50 determines the rooftop structure that appears in the rooftop area of the image for the new year. Then, it is determined whether or not the rooftop structure appearing in the rooftop area of the previous year is the same (step S236).
  • step S236 if the structures are not the same (step S236; No), the roof area determination unit 50 determines that “there is a change” for the roof area in the new year (step S233), and then performs step S238. Execute.
  • step S236 if the structures are the same (step S236; Yes), the rooftop area determination unit 50 determines that the change is currently not possible for the rooftop area in the new year ( Step S237). By executing step S237, the processing for the roof area in the new year that is the determination target is completed.
  • step S233 or S237 the rooftop area determination unit 50 determines whether or not the processing has been completed for the rooftop areas of all new years (step S238). If the result of determination in step S238 is that there is a roof area for the new year that has not yet been processed (step S238; No), the roof area determination unit 50 selects the roof area to be processed next ( Step S239), Step S232 is executed again. On the other hand, if the result of determination in step S238 is that processing has been completed for all roof areas in the new year (step S238; Yes), processing in step S230 is terminated, and then step S240 is executed.
  • FIG. 13 is a flowchart specifically showing the determination process of the rooftop structure shown in FIG.
  • the roof area determination unit 50 first extracts a straight line from the extended area centered on the roof area in the new year and the extended area centered on the roof area in the previous year (step S236-). 1).
  • the rooftop area determination unit 50 determines whether or not the number of straight lines extracted from the expansion area in the new year is larger than the number of straight lines extracted from the expansion area in the previous year (step S236-2). .
  • step S236-2 when the number of straight lines extracted from the expanded area in the new year is larger than that in the old year (step S236-2; Yes), the rooftop area determination unit 50 determines the new year.
  • the matching line search execution side is set, and the old year is set as the matching line search target side (step S236-3).
  • step S236-2 when the number of straight lines extracted from the expanded area in the new year is not larger than that in the old year (step S236-2; No), the roof area determination unit 50 Is set to the matching line search execution side, and the new year is set to the search side of the matching line search (step S236-4).
  • step S236-3 or S236-4 the roof area determination unit 50 searches for a matching straight line from each straight line on the matching line search execution side to the search target side (step S236-5). .
  • the roof area determination unit 50 determines whether or not the ratio between the number of straight lines that can be matched on the implementation side and the total number of straight lines on the implementation side is equal to or greater than the matching ratio threshold (step S236-6).
  • step S236-6 when the ratio is equal to or greater than the matching ratio threshold (step S236-6; Yes), the roof area determination unit 50 determines that the roof areas in the new and old years have the same structure (step S236-6). S236-7). On the other hand, if the result of determination in step S236-6 is that the ratio is not equal to or greater than the matching ratio threshold (step S236-6; No), the roof area determination unit 50 determines that the roof areas in the new and old years have different structures ( Step S236-8). With the above processing, the rooftop structure determination processing in step S236 ends.
  • the program according to the second embodiment of the present invention may be a program that causes a computer to execute steps S210 to S260 shown in FIG.
  • the CPU Central Processing Unit
  • the CPU includes an image input unit 10, a processing parameter input unit 20, an image division unit 30, a roof area extraction unit 40, a roof area determination unit 50, a change feature calculation unit 60, and a clustering unit 70.
  • the determination unit 80 functions as the determination unit 80 to perform processing.
  • a storage device such as a hard disk provided in the computer functions as the processing parameter storage unit 21.
  • FIG. 14 is a block diagram illustrating an example of a computer that implements the change detection support apparatus according to the first and second embodiments of the present invention.
  • the computer 110 includes a CPU 111, a main memory 112, a storage device 113, an input interface 114, a display controller 115, a data reader / writer 116, and a communication interface 117. These units are connected to each other via a bus 121 so that data communication is possible.
  • the CPU 111 performs various operations by developing the program (code) in the present embodiment stored in the storage device 113 in the main memory 112 and executing them in a predetermined order.
  • the main memory 112 is typically a volatile storage device such as a DRAM (Dynamic Random Access Memory).
  • the program in the present embodiment is provided in a state of being stored in a computer-readable recording medium 120. Note that the program in the present embodiment may be distributed on the Internet connected via the communication interface 117.
  • the storage device 113 includes a semiconductor storage device such as a flash memory in addition to a hard disk.
  • the input interface 114 mediates data transmission between the CPU 111 and an input device 118 such as a keyboard and a mouse.
  • the display controller 115 is connected to a display device 119 such as a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal Display), and controls display on the display device 119.
  • the data reader / writer 116 mediates data transmission between the CPU 111 and the recording medium 120, and reads a program from the recording medium 120 and writes a processing result in the computer 110 to the recording medium 120.
  • the communication interface 117 is a serial interface or a LAN (Local Area Network) interface, and is connected to, for example, a wireless transceiver, a wireless modem, a network terminator (not shown), and the like.
  • the communication interface 117 mediates data transmission between the CPU 111 and another computer.
  • the recording medium 120 include general-purpose semiconductor storage devices such as CF (Compact Flash (registered trademark)) and SD (Secure Digital), magnetic storage media such as a flexible disk, or CD- Optical storage media such as ROM (Compact Disk Read Only Memory) are listed.
  • CF Compact Flash
  • SD Secure Digital
  • magnetic storage media such as a flexible disk
  • CD- Optical storage media such as ROM (Compact Disk Read Only Memory) are listed.
  • the change detection support apparatus may be realized by introducing a program into a general-purpose computer, or implements the processing described in the present embodiment. It may be realized by a hardware component such as an LSI (Large Scale Integration) in which a circuit is incorporated. That is, the change detection device according to the first and second embodiments can be configured by an electronic circuit.
  • LSI Large Scale Integration
  • Appendix 1 A device for assisting in detecting a location changed between an old shooting date and a new shooting date and time using two images with different shooting dates and times for the same object, An image dividing unit that divides each of the two images into a plurality of regions based on color information and texture information of each of the two images; A feature vector is extracted for each of the plurality of regions obtained by the division by the image dividing unit, and a change feature vector representing a difference in the feature vectors between the regions corresponding to each other in the two images is obtained.
  • a change feature calculation unit to calculate, A clustering unit that performs clustering on all the change feature vectors calculated by the change feature calculation unit, thereby generating a cluster;
  • a determination unit that determines the possibility that the change has occurred for each of the plurality of regions based on the cluster generated by the clustering unit;
  • a change detection support apparatus comprising:
  • the determination unit identifies the size of the cluster, If the identified size is greater than or equal to a preset threshold, the region associated with the identified cluster is determined not to have the possibility that the change has occurred and the identified If the size is less than a threshold, determine that the region associated with the cluster whose size has been identified has the possibility that the change has occurred;
  • the change detection support apparatus according to appendix 1.
  • the roof area extraction unit has an area within a range defined by a preset upper limit value and a lower limit value among the plurality of areas obtained by the division by the image dividing unit, and a shape is preset. A region where the color and texture distribution satisfies a preset condition is extracted as the rooftop region.
  • Pre-set conditions for the shape are: That there are no holes inside the area, The ratio of the sides of the rectangle circumscribing the area is less than or equal to the threshold set for it, The ratio between the area of the region and the area of the rectangle is equal to or greater than a threshold set for the area;
  • the change detection support apparatus according to appendix 4 which includes:
  • the rooftop area determination unit compares an image with a new shooting date and an image with an older shooting date and time with each other in an overlapping range, and compares Result in If the rooftop area is extracted from one of the images, but the rooftop area is not extracted from the other image in the overlapping range, the changed location exists in the rooftop area. It is determined that Further, when the roof area is extracted from both the new image and the old image in the overlapping range, the roof of the new image and the old image with respect to the area of the roof area of the new image. It is determined whether the ratio of the area of the overlapping part in the region is smaller than a threshold value for the set area.
  • the changed portion exists in the rooftop region. And on the other hand, if it is not small, it is determined whether the building existing in the roof area of the new image and the building existing in the roof area of the old image are structurally identical. If it is not the same, it is determined that the changed part exists in the roof area.
  • the change detection support device according to any one of appendices 4 to 6.
  • the roof area determination unit In the determination of whether the building existing in the roof area of the new image and the building existing in the roof area of the old image are structurally identical, the roof area determination unit, For each of the roof area of the new image and the roof area of the old image to be determined, a linear portion is extracted, and among the linear portions extracted from each, the new image and Obtain the number of the linear parts that match the old image, and then obtain and obtain the ratio of the obtained number to the number of the linear parts extracted from the roof area of one image If the ratio is smaller than the set threshold value, it is determined that they are not structurally identical.
  • the change detection support apparatus according to appendix 7.
  • (Appendix 9) A method for assisting in detecting a change between an old shooting date and a new shooting date using two images with different shooting dates and times for the same object, (A) dividing each of the two images into a plurality of regions based on color information and texture information of each of the two images; and (B) A feature vector is extracted for each of the plurality of regions obtained by the division in the step (a), and a difference between the feature vectors is determined between the regions corresponding to each other in the two images.
  • a change detection support method characterized by comprising:
  • the size of the cluster is specified, If the identified size is greater than or equal to a preset threshold, determine that the region associated with the identified cluster is not likely to have the change; If the identified size is less than a threshold, determine that the region associated with the cluster whose size has been identified has the potential for the change;
  • the change feature vector is calculated, In the step (d), based on the cluster, the possibility that the change has occurred is determined with respect to the roof area where the changed portion is not determined to exist by the step (f).
  • the area is within a range defined by a preset upper limit value and lower limit value, and the shape is An area that satisfies a preset condition and further satisfies a preset condition of color and texture distribution is extracted as the rooftop area.
  • Pre-set conditions for the shape are: That there are no holes inside the area, The ratio of the sides of the rectangle circumscribing the area is less than or equal to the threshold set for it, The ratio between the area of the region and the area of the rectangle is equal to or greater than a threshold set for the area;
  • step (f) when the determination target images are two images having different shooting dates and times, an image with a new shooting date and an image with an older shooting date and time are compared with each other in an overlapping range, As a result of the comparison, If the rooftop area is extracted from one of the images, but the rooftop area is not extracted from the other image in the overlapping range, the changed location exists in the rooftop area. It is determined that Further, when the roof area is extracted from both the new image and the old image in the overlapping range, the roof of the new image and the old image with respect to the area of the roof area of the new image. It is determined whether the ratio of the area of the overlapping part in the region is smaller than a threshold value for the set area.
  • step (f) in determining whether the building existing in the roof area of the new image and the building existing in the roof area of the old image are structurally identical, For each of the roof area of the new image and the roof area of the old image to be determined, a linear portion is extracted, and among the linear portions extracted from each, the new image and Obtain the number of the linear parts that match the old image, and then obtain and obtain the ratio of the obtained number to the number of the linear parts extracted from the roof area of one image If the ratio is smaller than the set threshold value, it is determined that they are not structurally identical.
  • a computer-readable recording medium that records a program for assisting in detecting a change between an old shooting date and a new shooting date, In the computer, (A) dividing each of the two images into a plurality of regions based on color information and texture information of each of the two images; and (B) A feature vector is extracted for each of the plurality of regions obtained by the division in the step (a), and a difference between the feature vectors is determined between the regions corresponding to each other in the two images.
  • the size of the cluster is specified, If the identified size is greater than or equal to a preset threshold, determine that the region associated with the identified cluster is not likely to have the change; If the identified size is less than a threshold, determine that the region associated with the cluster whose size has been identified has the potential for the change;
  • the computer-readable recording medium according to appendix 17.
  • the program is (E) When the two images are obtained by shooting from the sky, an area representing the rooftop of a building among the plurality of areas obtained by the division in the step (a). Extracting as a rooftop area, (F) By comparing the respective rooftop areas with each other between the two images, it is determined whether or not there is a portion that has changed between the old shooting date and time and the new shooting date and time in the rooftop area. And further comprising instructions for causing the computer to execute In the step (b), the feature vector is extracted with respect to the roof area where it is not determined that the changed portion is present in the step (f).
  • the change feature vector is calculated, In the step (d), based on the cluster, the possibility that the change has occurred is determined with respect to the roof area where the changed portion is not determined to exist by the step (f).
  • the computer-readable recording medium according to appendix 17 or 18.
  • the area is within a range defined by a preset upper limit value and lower limit value, and the shape is An area that satisfies a preset condition and further satisfies a preset condition of color and texture distribution is extracted as the rooftop area.
  • Pre-set conditions for the shape are: That there are no holes inside the area, The ratio of the sides of the rectangle circumscribing the area is less than or equal to the threshold set for it, The ratio between the area of the region and the area of the rectangle is equal to or greater than a threshold set for the area;
  • Pre-set conditions for the color and texture distribution are: The uniformity of the color within the area is greater than or equal to the threshold set for it, The uniformity of the texture in the region is greater than or equal to the threshold set for it,
  • step (f) when the determination target images are two images having different shooting dates and times, an image with a new shooting date and an image with an older shooting date and time are compared with each other in an overlapping range, As a result of the comparison, If the rooftop area is extracted from one of the images, but the rooftop area is not extracted from the other image in the overlapping range, the changed location exists in the rooftop area. It is determined that Further, when the roof area is extracted from both the new image and the old image in the overlapping range, the roof of the new image and the old image with respect to the area of the roof area of the new image. It is determined whether the ratio of the area of the overlapping part in the region is smaller than a threshold value for the set area.
  • the changed portion exists in the rooftop region. And on the other hand, if it is not small, it is determined whether the building existing in the roof area of the new image and the building existing in the roof area of the old image are structurally identical. If it is not the same, it is determined that the changed part exists in the roof area.
  • the computer-readable recording medium according to any one of appendices 20 to 22.
  • step (f) in determining whether the building existing in the roof area of the new image and the building existing in the roof area of the old image are structurally identical, For each of the roof area of the new image and the roof area of the old image to be determined, a linear portion is extracted, and among the linear portions extracted from each, the new image and Obtain the number of the linear parts that match the old image, and then obtain and obtain the ratio of the obtained number to the number of the linear parts extracted from the roof area of one image If the ratio is smaller than the set threshold value, it is determined that they are not structurally identical.
  • the computer-readable recording medium according to attachment 23 in determining whether the building existing in the roof area of the new image and the building existing in the roof area of the old image are structurally identical.
  • the present invention it is possible to contribute to the improvement of the detection accuracy of the change location when each image to be determined is taken in a different environment.
  • the present invention is particularly useful for applications in which it is required to detect a change location using images of aerial photographs or satellite photographs with different shooting dates and times, for example, creation of a map, calculation of property tax, and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

 異動検出支援装置100は、同一対象物についての撮影日時の異なる各画像のカラー情報及びテクスチャー情報に基づいて、各画像を複数の領域に分割する、画像分割部30と、分割によって得られた領域毎に、特徴ベクトルを抽出し、互いに対応する領域間について、特徴ベクトルの相違を表す変化特徴ベクトルを算出する、変化特徴算出部60と、全変化特徴ベクトルに対してクラスタリングを行ってクラスターを生成する、クラスタリング部70と、生成されたクラスターに基づいて、各領域について、古い撮影日時から新しい撮影日時までの間に変化が生じている可能性を判定する、判定部80とを備えている。

Description

異動検出支援装置、異動検出支援方法、及びコンピュータ読み取り可能な記録媒体
 本発明は、撮影日時の異なる同一対象についての二つの画像を用いて、この対象において変化した箇所(異動)の検出を支援する、異動検出支援装置、異動検出支援方法、及び、これらを実現するためのプログラムを記録したコンピュータ読み取り可能な記録媒体に関する。
 従来から、地図の更新、及び固定資産税の見直し等のために、一定期間をおいて同一対象について撮影された2つの画像(航空機からの撮影画像、衛星からの撮影画像等)同士を比較して、変化した箇所を特定する処理が行われることがある。このような処理は、作業者が、撮影日時の異なる画像を並べて眺め、目視で変化した箇所を抽出することによっても行うことはできるが、この場合、膨大な作業時間と人力とが必要となり、全体の作業コストは非常に高くなってしまう。
 このため、同一対象についての撮影日時の異なる2つの画像から、自動又は半自動で変化した箇所(以下「異動箇所」と表記する。)を検出する様々な方法が提案されている(例えば、特許文献1参照)。但し、従来からの方法には、以下のような問題がある。例えば、同じ対象を違う日時で撮影する場合、撮影対象が同じであっても、撮影時に環境等の様々の影響によって環境の明るさが異なり、そのため、各撮影画像の色が異なることがある。このことから、従来からの方法では、異動が生じていない撮影対象に対しても、環境の明るさに起因する画像の色の違いが、変化した箇所、即ち、異動箇所であると判断されてしまうことがある。
 そして、このような明るさの違いによる異動箇所の誤検出を抑制するため、例えば、非特許文献1は、撮影日時の異なる画像の明るさを補正した上で異動箇所を検出する方法を提案している。具体的には、非特許文献1に開示された手法では、まず、撮影日時の異なる2つの画像の一方の明るさが、他方に基づいて、補正される。また、このとき、画像全体に同じ補正が行われる。次に、明るさが補正された一方の画像と、補正の基準となった他方の画像とが対比され、異動箇所の検出が行われる。
特開2005-241886号公報
Satoshi Nakamura, Yoshimitu Aoki, "Automatic Change Detection of Buildings from Aerial Images", Proceedings of SICE Annual Conference 2010, pp. 92-95, Aug. 2010.
 しかしながら、上記の非特許文献1に開示された方法には、以下のような問題点がある。まず、画像の明るさを補正する場合は、補正に必要なパラメータを設定する必要があるが、パラメータは経験に基づいて設定されるため、実用の情報が蓄積されていない場合は、適切な補正を実行できないという問題が生じてしまう。
 また、上記の非特許文献1に開示された方法での明るさの補正は、画像全体に対して行われており、異なる環境下での明るさの影響を一定程度だけ小さくしているに過ぎないという問題もある。つまり、厳密な明るさ補正を行うためには、光源についての情報(例えば、太陽の高度及び方位角等)、被写体(例えば、建築物等)の材質、被写体の向き、カメラの位置、といった色を決定する要因を細かく分析する必要がある。しかし、通常、これらの情報を全部取得することは難しく、更に、現実には、他の様々な影響も存在するため、厳密な明るさ補正を行うことは困難である。
 本発明の目的の一例は、上記問題を解消し、判定対象となる各画像が異なる環境下で撮影されていた場合における、異動箇所の検出精度の向上に貢献し得る、異動検出支援装置、異動検出支援方法、及びコンピュータ読み取り可能な記録媒体を提供することにある。
 上記目的を達成するため、本発明の一側面における異動検出支援装置は、同一対象物についての撮影日時の異なる二つの画像を用いて、古い撮影日時から新しい撮影日時までの間に変化した箇所を検出する際の、支援を行うための装置であって、
 前記二つの画像それぞれのカラー情報及びテクスチャー情報に基づいて、前記二つの画像それぞれを複数の領域に分割する、画像分割部と、
 前記画像分割部による分割によって得られた前記複数の領域それぞれ毎に、特徴ベクトルを抽出し、更に、前記二つの画像における互いに対応する前記領域間について、前記特徴ベクトルの相違を表す変化特徴ベクトルを算出する、変化特徴算出部と、
 前記変化特徴算出部によって算出された全ての変化特徴ベクトルに対して、クラスタリングを行い、それによってクラスターを生成する、クラスタリング部と、
 前記クラスタリング部によって生成されたクラスターに基づいて、前記複数の領域それぞれについて、前記変化が生じている可能性を判定する、判定部と、
を備えることを特徴とする。
 また、上記目的を達成するため、本発明の一側面における異動検出支援方法は、同一対象物についての撮影日時の異なる二つの画像を用いて、古い撮影日時から新しい撮影日時までの間に変化した箇所を検出する際の、支援を行う方法であって、
(a)前記二つの画像それぞれのカラー情報及びテクスチャー情報に基づいて、前記二つの画像それぞれを複数の領域に分割する、ステップと、
(b)前記(a)のステップによる分割によって得られた前記複数の領域それぞれ毎に、特徴ベクトルを抽出し、更に、前記二つの画像における互いに対応する前記領域間について、前記特徴ベクトルの相違を表す変化特徴ベクトルを算出する、ステップと、
(c)前記(b)のステップによって算出された全ての変化特徴ベクトルに対して、クラスタリングを行い、それによってクラスターを生成する、ステップと、
(d)前記(c)のステップによって生成されたクラスターに基づいて、前記複数の領域それぞれについて、前記変化が生じている可能性を判定する、ステップと、
を有することを特徴とする。
 更に、上記目的を達成するため、本発明の一側面におけるコンピュータ読み取り可能な記録媒体は、コンピュータによって、同一対象物についての撮影日時の異なる二つの画像を用いて、古い撮影日時から新しい撮影日時までの間に変化した箇所を検出する際の、支援を行うためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記コンピュータに、
(a)前記二つの画像それぞれのカラー情報及びテクスチャー情報に基づいて、前記二つの画像それぞれを複数の領域に分割する、ステップと、
(b)前記(a)のステップによる分割によって得られた前記複数の領域それぞれ毎に、特徴ベクトルを抽出し、更に、前記二つの画像における互いに対応する前記領域間について、前記特徴ベクトルの相違を表す変化特徴ベクトルを算出する、ステップと、
(c)前記(b)のステップによって算出された全ての変化特徴ベクトルに対して、クラスタリングを行い、それによってクラスターを生成する、ステップと、
(d)前記(c)のステップによって生成されたクラスターに基づいて、前記複数の領域それぞれについて、前記変化が生じている可能性を判定する、ステップと、
を実行させる命令を含む、プログラムを記録していることを特徴とする。
 以上のように本発明によれば、判定対象となる各画像が異なる環境下で撮影されていた場合における、異動箇所の検出精度の向上に貢献することができる。
図1は、本発明の実施の形態1における異動検出支援装置の概略構成を示すブロック図である。 図2は、本発明の実施の形態1における異動検出支援装置の構成を具体的に示すブロック図である。 図3は、図1及び図2に示した画像分割部によるスムーズ領域の併合処理を説明するための図であり、図3(a)及び(b)はそれぞれ異なるケースを示している。 図4は、スムーズ領域間の対応関係の決定処理を説明するための図であり、図4(a)及び図4(b)はそれぞれ異なるケースを示している。 図5は、本発明の実施の形態1における異動検出支援装置の動作を示すフロー図である。 図6は、図5に示した変化特徴ベクトルの算出処理を具体的に示すフロー図である。 図7は、図5に示した判定処理を具体的に示すフロー図である。 図8は、本発明の実施の形態2における異動検出支援装置の構成を具体的に示すブロック図である。 図9は、本発明の実施の形態2において行われる屋上領域の判定処理を説明するための図であり、図9(a)~(c)それぞれは異なるケースを示している。 図10は、本発明の実施の形態2における異動検出支援装置の動作を示すフロー図である。 図11は、図10に示した屋上領域の抽出処理を具体的に示すフロー図である。 図12は、図10に示した屋上領域の判定処理を具体的に示すフロー図である。 図13は、図12に示した屋上の構造の判定処理を具体的に示すフロー図である。 図14は、本発明の実施の形態1及び2における異動検出支援装置を実現するコンピュータの一例を示すブロック図である。
(発明の概要)
 本発明では、従来のように、撮影日時の異なる画像間の環境による明るさの違いを補正することによって、明るさの違いの影響を軽減するのではない。本発明では、環境による明るさの違いによって発生した各画像の色変化そのものを利用することで、撮影日時の異なる画像間の明るさの違いによる影響を軽減して、画像間の変化した箇所を検出する。なお、以降においては、画像間の変化した箇所を「異動箇所」とも表記する。
 ここで、対象となる画像が、例えば、異なる日時に上空から撮影された二つの画像であるとする。まず、一つの画像において、一定の範囲内の被写体に対し、太陽の高度及び方位角といった光源の情報が同じであり、一定の範囲内の地物に対するカメラの方向も近似的に同じであるとする。この場合、表面の向きが近似し、かつ表面の材質が同じである一定範囲内の地物たちの色は、近似することになる。
 一方、異なる撮影日時に撮影した両画像において、光源の情報が異なり、更に、カメラの方向も異なったとする。この場合、環境の明るさの相違によって両画像間で変化していない地物たちであっても、両画像間でその色は異なってしまう。しかし、一定の範囲内にある表面の向きと材質とが同じである、変化していない地物たちについて、それらの地物における色の変化は近似している。本発明は、このことを利用して、画像間の変化した箇所、即ち、異動箇所の検出を支援する。また、この結果、本発明では、各画像の色形成を分析したり、分析の結果に基づいて各画像の色を補正したりする必要もなく、明るさの補正に必要なパラメータについての問題が生じる余地もなくなる。
 また、本発明では、対象となる画像に建築物の屋上が写っている場合においては、建築物の屋上を表している領域(以下「屋上領域」という。)を抽出し、この屋上領域については後述の判定処理を行うことができる。これにより、色の変化には変わりがないが、実際には建築物が建て替えられている場合にも対応することができる。
(実施の形態1)
 以下、本発明の実施の形態1における、異動検出支援装置、異動検出支援方法、及びプログラムについて、図1~7を参照しながら説明する。なお、以下の実施の形態1は説明のためのものであり、本願発明の範囲を制限するものではない。従って、当業者であればこれらの各要素または全要素をこれと均等なものに置換した実施の形態1を採用することが可能であり、それらの実施の形態も本発明の範囲に含まれる。
[装置構成]
 最初に、図1を用いて、本実施の形態1における異動検出支援装置100の構成について説明する。図1は、本発明の実施の形態1における異動検出支援装置の概略構成を示すブロック図である。
 図1に示すように、本実施の形態1における異動検出支援装置100は、同一対象物についての撮影日時の異なる二つの画像を用いて、古い撮影日時から新しい撮影日時までの間に変化した箇所(異動箇所)を検出する際の、支援を行うための装置である。
 また、図1に示すように、異動検出支援装置100は、画像分割部30と、変化特徴算出部60と、クラスタリング部70と、判定部80とを備えている。このうち、画像分割部30は、入力した撮影日時の異なる二つの画像それぞれのカラー情報及びテクスチャー情報に基づいて、二つの画像それぞれを複数の領域に分割する。
 また、変化特徴算出部60は、画像分割部30による分割によって得られた領域毎に、特徴ベクトルを抽出し、更に、撮影日時が異なる二つの画像における互いに対応する領域間について、特徴ベクトルの相違を表す変化特徴ベクトルを算出する。
 クラスタリング部70は、変化特徴算出部60によって算出された全ての変化特徴ベクトルに対して、クラスタリングを行い、それによってクラスターを生成する。
 判定部80は、クラスタリング部70によってクラスターが生成されると、この生成されたクラスターに基づいて、各領域について、変化(異動)が生じている可能性を判定する。また、判定部80は、判定結果を、外部へと出力する。
 以上のように本実施の形態1では、撮影日時が異なる画像同士の対応する領域について、両者の特徴ベクトルの相違を表す変化特徴ベクトルが算出され、更に、算出された変化特徴ベクトルに対してクラスタリングが行われる。このため、一定範囲内にあって変化しておらず、且つ、表面の向きと材質とが互いに近似している、領域それぞれにおいては、各領域の変化特徴ベクトルは、近似の変化パターンを持ち、そして、同じクラスターに含まれることになる。このため、クラスターを分析すれば、環境による明るさの影響を受けることなく、画像間で変化していない箇所(異動がない箇所)を特定することができる。従って、本実施の形態1によれば、判定対象となる各画像が異なる環境下で撮影されていた場合における、変化している箇所の検出精度の向上に貢献できる。
 続いて、図2を用いて、本実施の形態1における異動検出支援装置の構成について更に具体的に説明する。図2は、本発明の実施の形態1における異動検出支援装置の構成を具体的に示すブロック図である。
 また、以下の説明では、変化した箇所(異動箇所)の検出対象となる画像は、上空からの撮影によって得られた2つの画像であるとする。更に、このうちの一方の画像は、ある年に撮影され、他方の画像は、それ以後の年に撮影されているとする。そして、撮影日時が新しい画像を「新年度の画像」と表記し、撮影日時が古い画像を「旧年度の画像」と表記する。
 図2に示すように、本実施の形態1に係る異動検出支援装置100は、上述した画像分割部30、変化特徴算出部60、クラスタリング部70、及び判定部80に加え、画像入力部10と、処理パラメータ入力部20と、処理パラメータ記憶部21とを更に備えている。異動検出支援装置100は、これらの構成により、新旧年度の画像を対象にして、分割によって得られた領域を分析し、画像間での変化を変化特徴として特定することができる。そして、異動検出支援装置100は、特定した変化特徴のパターンの分布状況を用いることで、環境による明るさの影響を受けない異動検出を可能にする。以下、各部について説明する。
 画像入力部10は、外部から入力された画像データを受け取り、これを画像分割部30に入力する。外部から画像入力部10への画像データの入力は、ユーザーによって、ネットワーク又は記録媒体を経由して行われる。本実施の形態1では、新年度の画像の画像データと、旧年度の画像の画像データとが、外部から入力される。更に、これらの画像データは、オルソ画像の画像データであっても良い。なお、本実施の形態1において、オルソ画像の生成方法は、特に限定されない。オルソ画像は、例えば、航空写真又は衛星写真のステレオ処理によって取得されたDEM(Digital Elevation Model)に基づいて、生成される。
 処理パラメータ入力部20は、外部から入力された、異動検出に関する全てのパラメータを受け取り、これらを処理パラメータ記憶部21に入力する。外部から処理パラメータ入力部20へのパラメータの入力は、ユーザーによって、ネットワーク又は記録媒体を経由して行われても良いし、ユーザーが入力機器によって直接入力することによって行われても良い。
 パラメータとしては、後述する画像分割部30での処理に必要となるパラメータ(以下「画像分割パラメータ」と表記する。)、判定部80での処理に必要となるパラメータ(以下「判定パラメータ」と表記する。)が挙げられる。具体的には、画像分割部30での処理に必要となる画像分割パラメータとしては、後述の面積の小さい領域の併合処理に用いる閾値(後述において「面積閾値」と表記されている。)が挙げられる。判定部80での処理に必要な判定パラメータとしては、後述のクラスターサイズについて設定された閾値が挙げられる。
 処理パラメータ入力部20に外部から入力されたパラメータは、処理パラメータ記憶部21に保存される。そして、画像分割処理、判定処理といった各処理の実行時に、それぞれの処理に必要なパラメータが、処理パラメータ記憶部21より適時取得される。
 画像分割部30は、本実施の形態1では、画像入力部10から入力された新旧年度の画像を対象とする。また、画像分割部30は、各画像データに含まれるカラー情報及びテクスチャー情報に基づいて、分割によって得られる各領域において、カラー分布又はテクスチャー分布が近似するように、各画像を複数の領域に分割する。よって、分割によって得られた領域(以下、「スムーズ領域」と表記する。)は、近似のカラー分布、又は近似のテクスチャー分布を特徴として有している。この分割処理により、一つの画像は、サイズ及び形状が異なる複数のスムーズ領域に分割されることになる。
 また、画像の分割処理方法としては、例えば、既存の領域分割方法又は輪郭抽出方法を用いることもできる。領域分割方法を利用する場合、処理結果は直接に各スムーズ領域となる。輪郭抽出方法を利用する場合、得られた各閉輪郭の内部の領域が、スムーズ領域となる。
 ところで、取得された各スムーズ領域の内部には、他のスムーズ領域が存在する場合がある。このため、画像分割部30は、スムーズ領域の内部に存在する別のスムーズ領域の面積が、設定された閾値(以下「面積閾値」と表記する。)以下の場合、別のスムーズ領域をその周りのスムーズ領域に併合させて、この別のスムーズ領域を除去する。なお、面積閾値は、画像分割パラメータとして、処理パラメータ入力部20を介して入力され、処理パラメータ記憶部21に記憶されているので、画像分割部30は、処理パラメータ記憶部21から面積閾値を取得する。
 ここで、スムーズ領域の併合処理について図3を用いて説明する。図3は、図1及び図2に示した画像分割部によるスムーズ領域の併合処理を説明するための図であり、図3(a)及び(b)はそれぞれ異なるケースを示している。
 図3(a)に示すケースでは、スムーズ領域31Aの内部に、スムーズ領域31Bとスムーズ領域31Cとが存在している。そして、このケースにおいて、スムーズ領域31Bとスムーズ領域31Cとが面積閾値以下であるとすると、これらのスムーズ領域はスムーズ領域31Aに併合される。
 また、図3(b)に示すケースでは、スムーズ領域31Dの内部に、スムーズ領域31Eと31Fとが存在している。そして、このケースにおいては、スムーズ領域31Fのみが面積閾値以下であるとすると、スムーズ領域31Fのみがスムーズ領域31Dに併合され、スムーズ領域31Eは併合されない。このため、スムーズ領域31Dでは、スムーズ領域31Aと異なり、スムーズ領域の併合処理後に内部に穴が存在している状態となる。
 また、表面の向きが色形成に影響するので、後述の処理のため、各スムーズ領域は、近似のカラーを有する近隣ピクセルの集合で構成されているだけではなく、三次元空間的に領域自体が平面であるのが好ましい。従って、画像分割は、少し「過分割」となるように、つまり少し細かくなるように行われているのがよい。画像分割のため、画像分割部30は、例えば、region growing方法を利用して画像分割を行っても良い。
 変化特徴算出部60は、本実施の形態1では、新年度の画像及び旧年度の画像それぞれから、画像分割部30で取得したスムーズ領域毎に、特徴ベクトルを抽出し、新旧年度の画像の対応関係にある各スムーズ領域からの特徴ベクトルの相違を変化特徴ベクトルとして計算する。
 ここで、新年度の画像から得られたスムーズ領域と旧年度の画像から得られたスムーズ領域との互いに対応する部分、即ち、両スムーズ領域を互いに重ね合わせた場合の重なり合う部分を想定する。このような部分において、単純に両スムーズ領域の差分のみを抽出したのでは、画像間の色の変化が、本当の異動によって生じているのか、新旧年度の環境による明るさの違いによって生じているのかを区別することは困難である。
 このため、本実施の形態1では、この2つを区別するために、新年度の画像と旧年度の画像とから変化特徴ベクトルが抽出され、画像全体についての分析が行われる。また、本実施の形態1では、変化特徴ベクトルは、新年度の画像のスムーズ領域と、旧年度の画像の対応するスムーズ領域とのそれぞれから、特徴ベクトルを計算することによって算出される。即ち、2つの特徴ベクトルの相違が、変化特徴ベクトルとして算出される。
 ところで、画像分割の結果として、新年度の画像データから取得したスムーズ領域と、旧年度の画像データから取得したスムーズ領域とは、必ずしも同じ範囲とはなっておらず、画像空間の座標関係だけで両者が互いに対応する関係にあるとは限らない。従って、本実施の形態1では、変化特徴算出部60は、変化特徴ベクトルの算出の前に、まず、新年度の画像のスムーズ領域と旧年度の画像のスムーズ領域との対応関係を決定する。
 新年度の画像のスムーズ領域と旧年度の画像のスムーズ領域との対応関係の決定処理は、新年度の画像のスムーズ領域を基準にして、対応する旧年度の画像のスムーズ領域を探索しても良いし、逆に旧年度の画像のスムーズ領域を基準にして、対応する新年度の画像のスムーズ領域を探索しても良い。ここで、変化特徴算出部60における対応関係の決定処理の具体例について、新年度の画像のスムーズ領域を基準にする場合を例として挙げて、その過程を説明する。
 本実施の形態1では、変化特徴算出部60は、新年度の画像のスムーズ領域に対して重なっている旧年度の画像のスムーズ領域のうち、最も大きなスムーズ領域は、この新年度のスムーズ領域に対応していると決定する。そして、変化特徴算出部60は、新年度の画像のスムーズ領域と旧年度の画像のスムーズ領域との互いに重なっている部分について、それぞれ、特徴ベクトルを抽出し、更に、これらから変化特徴ベクトルを計算する。
 図4を用いて更に具体的に説明する。図4は、スムーズ領域間の対応関係の決定処理を説明するための図であり、図4(a)及び図4(b)はそれぞれ異なるケースを示している。
 図4(a)に示すケースでは、旧年度の画像において、新年度の画像のスムーズ領域41Aに対して重なる領域には、スムーズ領域41Bとスムーズ領域41Cとが存在している。従って、このケースでは、変化特徴算出部60は、重なっている面積が大きいスムーズ領域41Bを、スムーズ領域41Aに対応するスムーズ領域と判定する。よって、変化特徴算出部60は、スムーズ領域41Aとスムーズ領域41Bとの重なっている部分、つまり、スムーズ領域41Bの範囲で、変化特徴ベクトルを算出する。
 また、図4(b)に示すケースでは、新年度の画像のスムーズ領域42A及びスムーズ領域42Cに対して、旧年度の画像のスムーズ領域42Bが重なっている。よって、新年度の画像のスムーズ領域42Aに対して重なる領域には、スムーズ領域42Bだけが存在している。従って、このケースでは、変化特徴算出部60は、スムーズ領域42Bを、スムーズ領域42Aに対応するスムーズ領域と判定する。よって、変化特徴計算部60は、スムーズ領域42Aとスムーズ領域42Bとの重なっている部分、つまりスムーズ領域42Aの範囲で、変化特徴ベクトルを算出する。
 また、変化特徴算出部60は、変化特徴ベクトルの算出の前に、特徴ベクトルを抽出するが、その際、各スムーズ領域から、その領域の色分布を代表する特徴ベクトルを1つだけ抽出しても良い。更に、変化特徴算出部60は、抽出対象となるスムーズ領域内の全てのピクセルそれぞれから、特徴ベクトルを抽出し、そして、領域全体で平均ベクトルを求め、求めた平均ベクトルをこの領域の色分布を代表する特徴ベクトルとして変化特徴ベクトルの算出に用いても良い。
 各スムーズ領域から、その領域の色分布を代表する特徴ベクトルを1つだけ抽出する際に、特徴ベクトルとしては、抽出対象となるスムーズ領域内の全ピクセルを一つの集合とし、全体の特徴を表している係数も挙げられる。具体的には、例えば、領域内の全体の色分布を数学モデルで表現した場合であれば、その数学モデルに用いられる係数が、特徴ベクトルとして挙げられる。抽出対象となるスムーズ領域内の各ピクセルの特徴ベクトルを平均し、領域の色分布を代表する特徴ベクトを抽出する場合、各ピクセルにおいて抽出した特徴ベクトルとしては、各ピクセルの色を表す色情報ベクトル、各ピクセルの近隣領域の色分布を反映する特徴ベクトル、等も挙げられる。
 更に、変化特徴算出部60は、本実施の形態1では、新年度の画像から抽出した特徴ベクトルと、旧年度の画像から抽出した特徴ベクトルとの差を求め、求めた差を変化特徴ベクトルとしても良い。また、変化特徴算出部60は、新年度の画像から抽出した特徴ベクトルと、旧年度の画像から抽出した特徴ベクトルとの違いを、他の計算式によって計算し、それを変化特徴ベクトルとしても良い。
 クラスタリング部70は、本実施の形態1では、変化特徴算出部60によって全てのスムーズ領域について算出された変化特徴ベクトルに対して、クラスタリングを行い、複数のクラスターを生成する。
 一般に、一つの画像内にある一定範囲内被写体たちにおいて、環境による明るさが同一で、被写体の材質が同じであり、更に、被写体の表面の向きが近似している部分は、同じ色で表現される。この現象は、撮影日時が異なる2つの画像それぞれの画像内において成立する。この前提があるからこそ、撮影時の環境による明るさが異なる2つの画像であっても、被写体の材質が同じであり、更に、被写体の表面の向きが近似している部分では、両画像間での色変化は近似するので、変化特徴ベクトルも近似する。
 このため、本実施の形態1では、クラスタリング部70は、この特徴を利用して、変化特徴ベクタルをクラスタリングする。この結果、1つのクラスターは、近似している変化特徴ベクトルの集合で構成されるので、新旧年度の画像間の変化が近似しているスムーズ領域は、それらの領域の変化特徴ベクトルが同じクラスターに振分けられる。なお、クラスタリング部70によるクラスタリングの具体的な手法としては、一般的なクラスタリング手法、例えば、K-Means法が挙げられる。
 そして、1つのクラスター内に多数の変化特徴ベクトルが存在している場合、言い換えると、新旧の画像データ間で、多数のスムーズ領域の色変化が近似している場合は、これらのスムーズ領域の色変化は、単純に環境による明るさの影響で発生したものと考えられる。一方、1つのクラスター内に存在している変化特徴ベクトルが少ない場合は、このクラスターに振分けられたスムーズ領域と色変化が近似している他のスムーズ領域も少ないと考えられる。よって、このクラスターに振分けられたスムーズ領域での色変化は、環境による明るさの影響を受けて発生しておらず、他の原因によって発生したものと考えら得る。判定部80は、これらの考えの元で、後述する判定を実行する。
 判定部80は、本実施の形態1では、クラスタリング部70によって生成された複数のクラスターを分析し、環境による明るさの変化で色変化が発生したスムーズ領域については「異動なし」と判定する。一方、判定部80は、異動なしと判定しなかったスムーズ領域については、「異動の確定は不可」と判定する。
 また、判定部80は、クラスターのサイズ、例えば、1つのクラスターに含まれる変化特徴ベクトルの数と、クラスターのサイズについて予め設定された閾値とを対比し、対比結果に基づいて判定を行うこともできる。なお、クラスターサイズについての閾値は、予め、判定パラメータとして、処理パラメータ入力部20を介して、処理パラメータ記憶部21に記録されているので、判定部80は、閾値を、処理パラメータ記憶部21から取得する。
 例えば、判定部80は、クラスターのサイズが閾値以上である場合は、色変化が近似しているスムーズ領域が多数存在し、これらのスムーズ領域上での色変化は環境における明るさの変化によるものと考えられる。よって、判定部80は、このクラスターに属する変化特徴ベクトルの算出元のスムーズ領域については「異動なし」と判定する。逆に、判定部80は、クラスターのサイズが閾値より小さい場合は、そのクラスターに属している変化特徴ベクトルの算出元のスムーズ領域での色変化は、他の原因で発生していると考えられ、最終判断はできないので、このスムーズ領域については「異動の確定は不可」と判定する。
 以上の判定処理の終了後、判定部80は、判定結果を出力する。判定結果では、画像分割部30によって取得されたスムーズ領域のうち、一部については「異動なし」と判定され、残りについて「異動の確定は不可」と判定されている。よって、ユーザーは、「異動の確定が不可」とされたスムーズ領域についてのみ、目視で最終の確認を行えばよいので、異動検出処理の全体の効率を向上できる。
[装置動作]
 次に、本発明の実施の形態1における異動検出支援装置100の動作の全体の流れについて図5を用いて説明する。図5は、本発明の実施の形態1における異動検出支援装置の動作を示すフロー図である。以下の説明においては、適宜図1~図4を参酌する。また、本実施の形態1では、異動検出支援装置100を動作させることによって、異動検出支援方法が実施される。よって、本実施の形態1における異動検出支援方法の説明は、以下の異動検出支援装置100の動作説明に代える。
 まず、前提として、異動検出支援装置100に対して、ユーザーから、画像入力部10を介して、新年度の画像と旧年度の画像との画像データが入力され、処理パラメータ入力部20を介して、必要なパラメータが入力される。この後、図5に示すように、異動検出支援装置100は、異動検出の支援のための処理を開始する。
 次に、図5に示すように、異動検出支援装置100において、画像分割部30は、入力された画像に対して、カラー情報及びテクスチャー情報に基づいて、画像分割処理を実行し、複数のスムーズ領域を生成する(ステップS110)。つまり、画像分割部30は、入力された新年度の画像と旧年度の画像それぞれに対して画像分割処理を実行し、新年度の画像及び旧年度の画像それぞれのスムーズ領域を取得する。また、画像分割部30は、ステップS110において、必要に応じて、画像分割パラメータを用いてスムーズ領域の併合処理を実行する。
 次に、変化特徴算出部60は、ステップS110によって得られたスムーズ領域毎に、特徴ベクトルを抽出し、更に、撮影日時が異なる二つの画像における互いに対応するスムーズ領域間について、特徴ベクトルの相違を表す変化特徴ベクトルを算出する(ステップS120)。つまり、変化特徴算出部60は、各スムーズ領域において、新年度の画像と旧年度の画像との変化を変化特徴ベクタルとして抽出する。
 次に、クラスタリング部70は、ステップS120で算出された全ての変化特徴ベクトルに対して、クラスタリングを行い、それによってクラスターを生成する(ステップS130)。つまり、クラスタリング部70は、新年度の画像と旧年度の画像とにおける、対応するスムーズ領域間について算出された変化特徴ベクトルに対して、クラスタリングを実行し、多数のクラスターを取得する。
 最後に、判定部80は、ステップS130で生成されたクラスターに基づいて、各スムーズ領域について、異動が生じている可能性を判定する(ステップS140)。つまり、判定部80は、各クラスターのサイズに基づいて、判定を行う。そして、判定部80は、環境による明るさの変化で色変化が発生したスムーズ領域については「異動なし」と判定し、異動なしと判定しなかったスムーズ領域については、「異動の確定は不可」と判定する。
 その後、判定部80は、判定結果を、ユーザーの端末(図示せず)等に出力する。これにより、ユーザーは、異動の確定が不可とされたスムーズ領域についてのみ、目視で最終の確認を行えばよい。ステップS140の実行後、異動検出支援装置100での処理は終了する。
[ステップS120]
 続いて、図5に示したステップS120について、図6を用いて更に具体的に説明する。図6は、図5に示した変化特徴ベクトルの算出処理を具体的に示すフロー図である。図6の例では、上述したように、変化特徴算出部60は、新年度の画像のスムーズ領域を基準にして、各スムーズ領域の変化特徴ベクトルの抽出を行うものとする。
 図6に示すように、まず、変化特徴算出部60は、新年度の画像の1つのスムーズ領域を選択し、それに対応する旧年度の画像のスムーズ領域を決定する(ステップS121)。次に、変化特徴算出部60は、この対応する2つのスムーズ領域それぞれから、特徴ベクトルを抽出する(ステップS122)。
 次に、変化特徴算出部60は、抽出した新年度の特徴ベクトルと旧年度の特徴ベクトルとの相違を算出し、算出した相違を変化特徴ベクトルとする(ステップS123)。これにより、ステップS121で選択されたスムーズ領域についての変化特徴ベクトルの算出処理が完了する。
 次に、変化特徴算出部60は、ステップS123の完了後、全ての新年度画像のスムーズ領域について処理が完了しているどうかを判定する(ステップS124)。ステップS124の判定の結果、未だ処理されていない新年度画像のスムーズ領域が存在する場合(ステップS124;No)は、変化特徴算出部60は、次に処理対象となる新年度画像のスムーズ領域を選択し(ステップS125)、再度ステップS121を実行する。一方、ステップS124の判定の結果、全ての新年度画像のスムーズ領域について処理が終了している場合(ステップS124;Yes)は、ステップS120での処理は終了し、ステップS130が実行される。
[ステップS140]
 続いて、図5に示したステップS140について、図7を用いて更に具体的に説明する。図7は、図5に示した判定処理を具体的に示すフロー図である。
 図7に示すように、判定部80は、まず、判定処理に必要な判定パラメータ、例えば閾値を処理パラメータ記憶部21から取得
する(ステップS141)。次に、判定部80は、ステップS130で生成された複数のクラスターのうち、1つを選択し、選択したクラスターのサイズが、ステップS141で取得された閾値以上であるかどうかを判定する(ステップS142)。
 ステップS142の判定の結果、クラスターのサイズが閾値以上である場合は(ステップS142;Yes)、判定部80は、判定対象となったクラスターに属している変化特徴ベクトルの算出元のスムーズ領域については「異動なし」と判定する(ステップS143)。
 一方、ステップS142の判定の結果、クラスターのサイズが閾値未満である場合は(ステップS142;No)、判定対象となったクラスターに属している変化特徴ベクトルの算出元のスムーズ領域については「異動の確定は不可」と判定する(ステップS144)。以上により、判定対象となったクラスターについての処理が完了する。
 そして、判定部80は、ステップS143又はS144の完了後、全てのクラスターについて処理が完了しているかどうかを判定する(ステップS145)。ステップS145の判定の結果、未だ処理されていないクラスターが存在する場合は(ステップS145;No)、判定部80は、次に処理対象となるクラスターを選択し(ステップS146)、再度、ステップS142を実行する。一方、ステップS145の判定の結果、全てのクラスターについて処理が完了している場合は(ステップS145;Yes)、ステップS140での処理は終了する。
[プログラム]
 また、本発明の実施の形態1におけるプログラムは、コンピュータに、図5に示すステップS110~S140を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態1における異動検出支援装置と異動検出支援方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、画像入力部10、処理パラメータ入力部20、画像分割部30、変化特徴算出部60、クラスタリング部70、及び判定部80として機能し、処理を行う。また、コンピュータに備えられたハードディスク等の記憶装置が、処理パラメータ記憶部21として機能する。
[実施の形態1による効果]
 以上のように、本実施の形態1では、撮影日時が異なる画像同士の対応する領域間の変化特徴ベクトルがクラスタリングされ、その結果から、異動箇所のない領域が特定される。従って、ユーザーは、残りの領域についてのみ最終的な異動検出を行えば良いため、本実施の形態1によれば、判定対象となる各画像が異なる環境下で撮影されていた場合において、異動検出に対して適切な支援を行うことができる。
(実施の形態2)
 以下、本発明の実施の形態2における、異動検出支援装置、異動検出支援方法、及びプログラムについて、図8~13を参照しながら説明する。なお、以下の実施の形態2は説明のためのものであり、本願発明の範囲を制限するものではない。従って、当業者であればこれらの各要素または全要素をこれと均等なものに置換した実施の形態2を採用することが可能であり、それらの実施の形態も本発明の範囲に含まれる。
[装置構成]
 最初に、図8を用いて、本実施の形態2における異動検出支援装置200の構成について説明する。図8は、本発明の実施の形態2における異動検出支援装置の構成を具体的に示すブロック図である。
 まず、本実施の形態2でも、変化した箇所(異動箇所)の検出対象となる画像は、上空からの撮影によって得られた2つの画像であり、このうちの一方の画像は、ある年に撮影され、他方の画像は、それ以後の年に撮影されているとする。また、各画像には、建築物の屋上が写っているとする。このような前提の元、異動検出支援装置200は、画像中の建築の屋上を表している領域(以下「屋上領域」と表記する。)に対して、異動箇所の判定処理を実行する。以下、実施の形態1との相違を中心に説明する。
 図8に示すように、本実施の形態2における異動検出支援装置200は、実施の形態1と同様に、画像入力部10、処理パラメータ入力部20、処理パラメータ記憶部21、画像分割部30、変化特徴算出部60、クラスタリング部70、及び判定部80を備えている。また、異動検出支援装置200は、これらの構成に加えて、更に、屋上領域抽出部40と、屋上領域判定部50とを備えている。
 屋上領域抽出部40は、画像分割部30による分割によって得られた複数のスムーズ領域のうち、建築物の屋上を表している領域だけを、屋上領域として抽出する。この点について具体的に説明する。
 まず、実際の都市地域の上空から撮影した画像には、多くの家屋で構成された住宅地、空地、緑地、駐車場、道路、樹木、池など様々なものが存在している。従って、カラー分布の近似性、又はテクスチャー分布の近似性を基準にしてスムーズ領域が生成された場合、建築物の屋上部分と、路面及び空地といった地面の部分とが区別されずに、それぞれスムーズ領域として取得される。
 このため、本実施の形態2では、屋上領域抽出部40は、建築物の屋上の独特な特徴に基づき、スムーズ領域の中から建築物の屋上領域だけを抽出する。具体的には、屋上領域抽出部40は、スムーズ領域の面積、スムーズ領域の形状、スムーズ領域内のカラーの均一度、テクスチャーの均一度等に基づいて、屋上領域に該当するかどうかを判定する。
 例えば、屋上領域抽出部40は、スムーズ領域の面積が一定の範囲内にない場合は、建築物の屋上領域に該当しないと判断する。判断基準となる一定の範囲は、屋上領域の面積の上限値と下限値とで定義される。また、これらの上限値及び下限値は、屋上領域抽出パラメータとして、予め、ユーザーから、処理パラメータ入力部20を介して入力され、処理パラメータ記憶部21に記憶されている。屋上領域抽出部40は、これらの値を、処理パラメータ記憶部21から取得する。
 また、屋上領域抽出部40は、スムーズ領域の形状が一定の規則を満たさない場合は、建築物の屋上領域には該当しないと判定する。一定の規則としては、まずスムーズ領域内部に穴が存在しておらず、領域に外接する矩形の両辺の比が、設定された閾値以下であり、更に、領域の面積と外接する矩形の面積との割合が、設定された閾値以上であることが挙げられる。なお、両辺の比について設定された閾値を、以下「両辺比閾値」と表記し、面積の割合について設定された閾値を、以下「面積割合閾値」と表記する。
 通常、スムーズ領域の形状が長細い形状などである場合は、このスムーズ領域が、屋上領域である可能性は低いと考えられる。従って、領域に外接する矩形の両辺の比が両辺比閾値以下であるという条件と、領域の面積と外接する矩形の面積との割合が面積割合閾値以上であるという条件とによれば、細長い形状のスムーズ領域を除くことができる。両辺比閾値及び面積割合閾値も、屋上領域抽出パラメータとして、予め、ユーザーから、処理パラメータ入力部20を介して入力され、処理パラメータ記憶部21に記憶されている。屋上領域抽出部40は、これらの閾値を、処理パラメータ記憶部21から取得する。
 更に、屋上領域抽出部40は、スムーズ領域内のカラーの均一度及びテクスチャーの均一度それぞれが、各々について設定された閾値(以下「均一度閾値」と表記する。)以上である場合は、このスムーズ領域が建築物の屋上領域であると判定する。また、各均一度閾値も、屋上領域抽出パラメータとして、予め、ユーザーから、処理パラメータ入力部20を介して入力され、処理パラメータ記憶部21に記憶されている。屋上領域抽出部40は、これらの均一度閾値を、処理パラメータ記憶部21から取得する。なお、均一度の定義は、以下の通りである。
 まず、スムーズ領域内の各ピクセルの近隣領域におけるカラー分布及びテクスチャー分布を表す特徴量がお互い近似すると、このスムーズ領域内のカラー分布の変化とテクスチャー分布の変化とが少なくなる、又はこれらの変化が滑らかになる。従って、この場合は、スムーズ領域内の均一度が高いと考えられる。その反対に、スムーズ領域内に様々なカラー分布又はテクスチャー分布が存在している場合、又はノイズが多い場合は、均一度は低いと考えられる。これらの点から、以上の状態を表現することができる画像特徴の値は、均一度として利用することができる。
 例えば、屋上領域抽出部40は、スムーズ領域内の全てのピクセル各々にその近隣領域におけるカラー分布の分散を計算し、更に、計算した全部の分散を平均し、得られた平均値の逆数を、スムーズ領域内のカラーの均一度として使用することができる。また、屋上領域抽出部40は、スムーズ領域内の全てのピクセル各々にその近隣領域におけるテクスチャーのスムーズさを表現する特徴値を計算し、更に、計算した全部の特徴値を平均し、得られた平均値を、スムーズ領域内のテクスチャーの均一度として使用することができる。
 なお、各スムーズ領域は平面であるため、屋上領域抽出部40によって抽出された各屋上領域も平面である。また、一つの建築物の屋上は、一つの屋上領域で構成されている場合もあるし、多数の屋上領域で構成されている場合もある。建築物の屋上が一つの屋上領域で構成されているケースとしては、例えば、建物が平屋であり、屋根が平らな場合が挙げられる。建築物の屋上が多数の屋上領域で構成されているケースとしては、例えば、建物の屋根がY形になっている場合が挙げられる。
 屋上領域判定部50は、異なる撮影日時の二つの画像間で、それぞれの屋上領域を互いに対比して、屋上領域において、古い撮影日時から新しい撮影日時までの間に変化した箇所が存在しているかどうかを判定する。本実施の形態2では、屋上領域判定部50は、屋上領域抽出部40によって抽出された新年度の画像の屋上領域と、旧年度の画像の屋上領域とを判定対象とする。本実施の形態2では、屋上領域についての判定の実施は、2段階に分けて実行する。屋上領域判定部50は、まず異動検出支援装置200における第一段階の判定として、各屋上領域について、「異動あり」又は「異動の確定は不可」と判定する。
 また、屋上領域判定部50は、「異動あり」と判定した屋上領域については、判定結果として、ユーザーの端末等に出力する。一方、屋上領域判定部50は、「異動の確定は不可」と判定した屋上領域については、該当する屋上領域を特定する情報を、変化特徴算出部60に出力する。
 また、屋上領域判定部50は、新年度の画像の屋上領域を基準にして、旧年度の画像の屋上領域に対して上述の判定を行っても良いし、逆に、旧年度の画像の屋上領域を基準にして、新年度の画像の屋上領域に対して上述の判定を行っても良い。ここで、屋上領域判定部50における判定処理の具体例について、新年度の画像の屋上領域を基準にする場合を例として挙げて、その過程を説明する。
 まず、屋上領域判定部50は、新年度の画像の各屋上領域の位置と範囲とを特定する情報を用いて、新年度の画像の屋上領域に重なっている旧年度のスムーズ領域(以下「重なり範囲」と表記する。)を特定する。そして、屋上領域判定部50は、以下の(1)~(3)に示すように、その重なり範囲を分析する。
 (1)新年度の画像の屋上領域に重なっている旧年度の重なり範囲内に、屋上領域が存在していない場合は、屋上領域判定部50は、新年度では建築物が存在しているが、旧年度では建築物が存在していないので、「異動あり」と判定する。
(2)旧年度の重なり範囲内に屋上領域が存在している場合は、屋上領域判定部50は、旧年度の重なり範囲にある一番大きな屋上領域の新年度の屋上領域に重なっている部分の面積と、新年度の屋上領域の面積との比率を算出する。そして、屋上領域判定部50は、算出した比率の値が、予め設定された閾値(以下「面積比率閾値」と表記する。)より小さい場合は、新年度と旧年度とでは屋上領域が変化しているので、「異動あり」と判定する。なお、この場合の面積比率閾値は、例えば80%程度に設定される。
(3)上記(2)において、算出した比率の値が面積比率閾値以上である場合(例えば、80%以上である場合)は、新年度の画像の屋上領域と旧年度の画像の屋上領域とが同じである可能性がある。よって、この場合、屋上領域判定部50は、新年度の画像の屋上領域に現れている屋上の構造と、旧年度の屋上領域に現れている屋上の構造とが同じであるかどうかを判定する。そして、屋上領域判定部50は、判定の結果、両者が異なる場合は、「異動あり」と判定する。一方、屋上領域判定部50は、判定の結果、両者が同じ構造である場合は、異動箇所が存在しているかどうは確定できないので、「異動の確定は不可」と判定する。
 ここで、上記(1)~(3)の判定について図9を用いて説明する。図9は、本発明の実施の形態2において行われる屋上領域の判定処理を説明するための図であり、図9(a)~(c)それぞれは異なるケースを示している。また、図9(a)~(c)において、左側の屋上領域Aは、新年度の画像の1つの屋上領域を示しており、右側は、屋上領域Aに重なっている旧年度の重なり範囲を示している。
 図9(a)のケースでは、重なり範囲にある旧年度の画像の2つのスムーズ領域91B及び91Cは、屋上領域ではない。このため、屋上領域判定部50は、新年度の屋上領域Aについて、「異動あり」と判定する。
 図9(b)のケースでは、重なり範囲にある旧年度の画像の2つのスムーズ領域92B及び92Cのうち、スムーズ領域92Bは屋上領域であるが、スムーズ領域92Cは屋上領域ではない。そして、スムーズ領域92Bの屋上領域Aに重なっている部分の面積と、屋上領域Aの面積との割合は、面積比率閾値(80%)より小さいとする。この場合、屋上領域判定部50は、新年度の屋上領域Aについて、「異動あり」と判定する。
 図9(c)のケースでは、重なり範囲にある旧年度の画像の2つのスムーズ領域93B及び93Cのうち、スムーズ領域93Bは屋上領域であるが、スムーズ領域93Cは屋上領域ではない。そして、スムーズ領域93Bの屋上領域Aに重なっている部分の面積と、屋上領域Aの面積との割合は、面積比率閾値(80%)以上であるとする。この場合、屋上領域判定部50は、新年度の屋上領域Aに現れている屋上の構造と、旧年度の屋上領域93Bに現れている屋上の構造とが同じであるかどうかを判定する。
 屋上領域判定部50は、新旧年度の屋上領域において屋上の構造が同じであるかどうかの判定について、まず、新年度の屋上領域と旧年度の屋上領域とから、直線を抽出する。このとき、屋上領域判定部50は、判断対象となる屋上領域を中心として、それよりも少し拡張した領域を、直線抽出の対象領域とすることで、屋上領域の輪郭線の部分を抽出することもできる。この領域の拡張を行うことにより、屋上領域判定部50は、判断対象となる屋上領域の内部に直線が存在していない場合であっても、外部の輪郭の形状に基づいて、屋上の構造を判定できる。なお、ここでいう直線には、完全な直線だけでなく、直線状の部分も含まれる。
 次に、屋上領域判定部50は、新旧年度の屋上領域のうち、抽出できた直線の数が多い方を特定し、直線の数が多い方の屋上領域から、直線の数が少ない方の屋上領域に対して、マッチング処理(マッチング直線の探索処理)を行う。例えば、抽出できた直線の数の多い方が新年度の屋上領域であるとする。この場合、屋上領域判定部50は、新年度の各直線を、旧年度の各直線に照合して、マッチングしている直線を抽出する。そして、旧年度の直線のうち、設定された閾値(例えば、総数の70%)以上の直線のマッチング結果が取得できた場合は、屋上領域判定部50は、新年度の屋上領域に現れている屋上の構造と、旧年度の屋上領域に現れている屋上の構造とは、同じであると判定する。一方、旧年度の直線のうち、設定された閾値(例えば、総数の70%)以上の直線のマッチング結果が取得できていない場合は、両者は同じではないと判定する。なお、ここで用いられる閾値は、以下、「マッチング割合閾値」と表記する。
 また、マッチング直線を抽出するため、屋上領域判定部50は、例えば、以下の処理を実行する。まず、屋上領域判定部50は、新年度の画像から抽出した直線の近隣領域を取得し、その近隣領域の範囲内に、旧年度の画像から抽出した直線が存在しているかどうかを判定する。
 判定の結果、一つの直線だけが存在する場合、屋上領域判定部50は、この直線について、新年度の直線と交わる角度が設定された閾値(以下「角度閾値」と表記する。)以下であるかどうかと、この直線と新年度の直線との距離が設定された閾値(以下「距離閾値」と表記する。)以下であるかどうかを判定する。そして、判定の結果、角度閾値以下であり、且つ、距離閾値以下である場合は、屋上領域判定部50は、旧年度の画像から抽出した直線は、新年度の画像の直線とマッチングしていると判定する。
 また、上述した判定で、近隣領域の範囲内で、旧年度の画像から抽出した直線が複数存在する場合は、屋上領域判定部50は、これらの直線のうち、新年度の直線との距離が距離閾値以下の直線を特定する。更に、屋上領域判定部50は、この特定した直線の中から、新年度の直線と交わる角度が最も小さい直線を特定し、そして、最後に特定した直線における新年度の直線と交わる角度が角度閾値以下であることを条件に、最後に特定した直線は、新年度の画像の直線とマッチングしていると判定する。
 なお、上述の新年度の直線と旧年度の直線とがマッチングしているかどうかの判定においては、判定対象となる直線は、一対一に限定される。よって、新年度の一つの直線に対して、複数の旧年度の直線がマッチングしていると判定されることはないし、新年度の複数の直線が旧年度の同じ直線にマッチングしていると判定されることもない。
 また、屋上領域判定部50が用いる、面積比率閾値、マッチング割合閾値、角度閾値及び距離閾値は、屋上領域判定パラメータとして、予め、ユーザーから、処理パラメータ入力部20を介して入力され、処理パラメータ記憶部21に記憶されている。屋上領域判定部50は、これらの閾値を、処理パラメータ記憶部21から取得する。
 また、処理パラメータ入力部20は、本実施の形態2においては、実施の形態1に記述されたパラメータに加えて、ユーザーから、屋上領域抽出パラメータと屋上領域判定パラメータも受け取り、これらのパラメータも、処理パラメータ記憶部21に入力する。
 変化特徴算出部60は、本実施の形態2では、屋上領域判定部50によって異動箇所が存在していると判定されなかった屋上領域、即ち、「異動の確定は不可」と判定された屋上領域を対象として、特徴ベクトルを抽出し、更に、変化特徴ベクトルを算出する。また、この対象となる新年度及び旧年度の領域は、共に屋上領域である。更に、旧年度の屋上領域の新年度の屋上領域に重なっている部分の面積と、新年度の屋上領域の面積との比率は面積比率閾値以上である。加えて、新年度の画像の屋上領域に現れている屋上の構造と、旧年度の屋上領域に現れている屋上の構造とは同じである。これで、屋上領域について第二段階の判定が行われる。
 クラスタリング部70は、本実施の形態2においても、実施の形態1と同様に、変化特徴算出部60によって算出された変化特徴ベクトルに対して、クラスタリングを行い、複数のクラスターを生成する。但し、本実施の形態2では、上述したように、変化特徴ベクトルは、屋上領域判定部50によって「異動の確定は不可」と判断された屋上領域から算出されている。
 判定部80は、本実施の形態2では、生成されたクラスターに基づいて、屋上領域判定部50によって異動箇所が存在していると判定されなかった屋上領域を対象として、異動が生じている可能性を判定する。具体的には、判定部80は、屋上領域判定部50によって「異動の確定は不可」と判定された屋上領域を対象として判定を行う。そして、判定部80は、対象となる屋上領域のうち、環境による明るさの変化で色変化が発生した屋上領域については「異動なし」と判定する。一方、判定部80は、異動なしと判定しなかった屋上領域については、「異動の確定は不可」と判定する。
 このように、本実施の形態2によれば、屋上領域判定部50で「異動の確定は不可」と判定された屋上領域のうち、一部については更に「異動なし」と判定できる。従って、ユーザーが最終的に判断すべき領域は、最後に「異動の確定は不可」と判断された屋上領域のみとなる。よって、ユーザーは、これらの屋上領域のみに対して、目視で最終の確認を行えばよいので、異動検出処理の全体の効率を向上できる。
[装置動作]
 次に、本発明の実施の形態2における異動検出支援装置200の動作の全体の流れについて図10を用いて説明する。図10は、本発明の実施の形態2における異動検出支援装置の動作を示すフロー図である。以下の説明においては、適宜図8及び図9を参酌する。また、本実施の形態2では、異動検出支援装置200を動作させることによって、異動検出支援方法が実施される。よって、本実施の形態2における異動検出支援方法の説明は、以下の異動検出支援装置200の動作説明に代える。
 まず、本実施の形態2においても、前提として、異動検出支援装置200に対して、ユーザーから、画像入力部10を介して、新年度の画像と旧年度の画像との画像データが入力され、処理パラメータ入力部20を介して、必要なパラメータが入力される。この後、図10に示すように、異動検出支援装置200は、異動検出の支援のための処理を開始する。
 次に、図10に示すように、異動検出支援装置200において、画像分割部30は、入力された画像に対して、カラー情報及びテクスチャー情報に基づいて、画像分割処理を実行し、複数のスムーズ領域を生成する(ステップS210)。ステップS210は、図5に示したステップS110と同様のステップである。
 次に、屋上領域抽出部40は、ステップS210で得られた、新年度の画像及び旧年度の画像の複数のスムーズ領域のうち、建築物の屋上を表している領域だけを、屋上領域として抽出する(ステップS220)。つまり、屋上領域抽出部40は、ステップS210で得られた複数のスムーズ領域のうち、建築物の屋上を表現しているスムーズ領域だけを抽出する。
 次に、屋上領域判定部50は、新年度の画像の屋上領域と対応する旧年度の画像の屋上領域をまず探索し、見つけたら対応している新年度の画像の屋上領域と旧年度の画像の屋上領域とを互いに対比して、屋上領域に、異動箇所が存在しているかどうかを判定する(ステップS230)。つまり、屋上領域判定部50は、新旧年度それぞれの画像の屋上領域を合わせて分析することで、屋上領域について「異動あり」及び「異動の確定は不可」のうちいずれであるかを判定する。
 次に、変化特徴算出部60は、ステップS220で「異動の確定は不可」と判定された屋上領域を対象として、新旧年度における対応する屋上領域のそれぞれから特徴ベクトルを抽出し、更に、変化特徴ベクトルを算出する(ステップS240)。ステップS240は、図5に示したステップS120に準じて行われる。
 次に、クラスタリング部70は、ステップS240で算出された変化特徴ベクトルに対して、クラスタリングを行い、複数のクラスターを生成する(ステップS250)。ステップS250は、図5に示したステップS130に準じて行われる。
 最後に、判定部80は、ステップS250で生成されたクラスターに基づいて、屋上領域判定部50によって異動箇所が存在していると判定されなかった屋上領域を対象として、異動が生じている可能性を判定する(ステップS260)。ステップS260は、図5に示したステップS140に準じて行われる。
 その後、判定部80は、判定結果を、ユーザーの端末(図示せず)等に出力する。これにより、ユーザーは、「異動の確定は不可」と判断された屋上領域についてのみ、目視で最終の確認を行えばよい。ステップS260の実行後、異動検出支援装置200での処理は終了する。
[ステップS220]
 続いて、図10に示したステップS220について、図11を用いて更に具体的に説明する。図11は、図10に示した屋上領域の抽出処理を具体的に示すフロー図である。
 図11に示すように、まず、屋上領域抽出部40は、屋上領域の抽出に必要となる全ての屋上領域抽出パラメータを処理パラメータ記憶部21から取得する(ステップS221)。
 次に、屋上領域抽出部40は、判定対象となるスムーズ領域を選択し、選択したスムーズ領域について以下の判定を行い、選択したスムーズ領域が屋上領域に該当するかどうかを判定する。
 具体的には、屋上領域抽出部40は、判定対象となるスムーズ領域の面積が、一定の範囲内にあるかどうか、即ち、上限値と下限値とで定義される範囲内にあるかどうかを判定する(ステップS222)。ステップS222の判定の結果、一定の範囲内にない場合(ステップS222;No)は、屋上領域抽出部40は、このスムーズ領域は、屋上領域でないと判定し(ステップS223)、その後、ステップS227を実行する。
 一方、ステップS222の判定の結果、一定の範囲内にある場合(ステップS222;Yes)は、屋上領域抽出部40は、判定対象となるスムーズ領域の形状が一定の規則を満たしているかどうかを判定する(ステップS224)。一定の規則としては、対象となるスムーズ領域の内部に穴が存在していないこと、領域に外接する矩形の両辺の比が、両辺比閾値以下であること、領域の面積と外接する矩形の面積との割合が、面積割合閾値以上であること、が挙げられる。
 ステップS224の判定の結果、一定の規則を満たしていない場合(ステップS224; No)は、屋上領域抽出部40は、このスムーズ領域は、屋上領域でないと判定し(ステップS223)、その後、ステップS227を実行する。
 一方、ステップS224の判定の結果、一定の規則を満たしている場合(ステップS224;Yes)は、屋上領域抽出部40は、判定対象となるスムーズ領域内のカラーの均一度及びテクスチャーの均一度それぞれが、共に、それぞれについて設定された均一度閾値以上であるかどうかを判定する(ステップS225)。つまり、カラーの均一度がそれについての均一度閾値以上であり、同時に、テクスチャーの均一度もそれについての均一度閾値以上であるかどうかが判定される。
 ステップS225の判定の結果、カラーの均一度及びテクスチャーの均一度が、共に、それぞれの均一度閾値以上でない場合(ステップS225; No)は、屋上領域抽出部40は、このスムーズ領域は、屋上領域でないと判定し(ステップS223)、その後、ステップS227を実行する。
 一方、ステップS225の判定の結果、カラーの均一度及びテクスチャーの均一度が、共に、それぞれの均一度閾値以上である場合(ステップS225;Yes)は、屋上領域抽出部40は、このスムーズ領域は屋上領域であると判定する(ステップS226)。これにより、判定対象となったスムーズ領域についての、屋上領域かどうかの判定処理が完了する。
 次に、ステップS223又はS226が実行されると、屋上領域抽出部40は、全てのスムーズ領域について処理が終了しているかどうかを判定する(ステップS227)。そして、ステップS227の判定の結果、未だ処理されていないスムーズ領域が存在する場合(ステップS227;No)は、屋上領域抽出部40は、次に処理対象となるスムーズ領域を選択し(ステップS228)、再度ステップS222を実行する。一方、ステップS227の判定の結果、全てのスムーズ領域について処理が終了している場合(ステップS227;Yes)は、ステップ220での処理は終了し、その後、ステップS230が実行される。
[ステップS230]
 続いて、図10に示したステップS230について、図12を用いて更に具体的に説明する。図12は、図10に示した屋上領域の判定処理を具体的に示すフロー図である。また、図12の例では、上述したように、屋上領域判定部50は、新年度の画像の屋上領域を基準にして、旧年度の画像の屋上領域に対して判定処理を行うものとする。
 図12に示すように、まず、屋上領域判定部50は、屋上領域の判定に必要となる全ての屋上領域判定パラメータを処理パラメータ記憶部21から取得する(ステップS231)。
 次に、屋上領域判定部50は、まず、判定対象となる新年度の屋上領域を選択し、選択した新年度の屋上領域に重なっている、旧年度のスムーズ領域(重なり範囲)に、屋上領域が存在しているかどうかを判定する(ステップS232)。
 ステップS232の判定の結果、旧年度の重なり範囲に屋上領域が存在しない場合(ステップS232;No)は、屋上領域判定部50は、新年度の屋上領域について「異動あり」と判定し(ステップS233)、その後、ステップS238を実行する。
 一方、ステップS232の判定の結果、旧年度の重なり範囲に屋上領域が存在している場合(ステップS232;Yes)は、屋上領域判定部50は、旧年度の重なり範囲にある一番大きな屋上領域を、新年度の屋上領域と対応している屋上領域と判定する(ステップS234)。
決定した旧年度の屋上領域と新年度の屋上領域に重なっている部分の面積と、新年度の屋上領域の面積との比率を算出する。そして、屋上領域判定部50は、算出した比率が面積比率閾値以上であるかどうかを判定する(ステップS235)。
 ステップS235の判定の結果、算出した比率が面積比率閾値以上でない場合(ステップS235;No)は、屋上領域判定部50は、新年度の屋上領域について「異動あり」と判定し(ステップS233)、その後、ステップS238を実行する。
 一方、ステップS235の判定の結果、算出した比率が面積比率閾値以上である場合(ステップS235;Yes)は、屋上領域判定部50は、新年度の画像の屋上領域に現れている屋上の構造と、旧年度の屋上領域に現れている屋上の構造とが同じであるかどうかを判定する(ステップS236)。
 ステップS236の判定の結果、構造が同じでない場合(ステップS236;No)は、屋上領域判定部50は、新年度の屋上領域について「異動あり」と判定し(ステップS233)、その後、ステップS238を実行する。
 一方、ステップS236の判定の結果、構造が同じである場合(ステップS236;Yes)は、屋上領域判定部50は、新年度の屋上領域について、現在は「異動の確定は不可」と判定する(ステップS237)。ステップS237の実行により、判定対象となっている新年度の屋上領域についての処理が完了する。
 次に、ステップS233又はS237が実行されると、屋上領域判定部50は、全ての新年度の屋上領域について処理が終了しているかどうかを判定する(ステップS238)。そして、ステップS238の判定の結果、未だ処理されていない新年度の屋上領域が存在する場合(ステップS238;No)は、屋上領域判定部50は、次に処理対象となる屋上領域を選択し(ステップS239)、再度、ステップS232を実行する。一方、ステップS238の判定の結果、全ての新年度の屋上領域について処理が終了している場合(ステップS238;Yes)は、ステップS230での処理は終了し、その後、ステップS240が実行される。
[ステップS236]
 ここで、図13を参照して、上述したステップS236における屋上の構造の判定処理について説明する。図13は、図12に示した屋上の構造の判定処理を具体的に示すフロー図である。
 図13に示すように、まず、屋上領域判定部50は、新年度の屋上領域を中心とした拡張領域と旧年度の屋上領域を中心とした拡張領域とから、直線を抽出する(ステップS236-1)。
 次に、屋上領域判定部50は、新年度の拡張領域から抽出された直線の数が、旧年度の拡張領域から抽出された直線の数よりも多いかどうかを判定する(ステップS236-2)。
 ステップS236-2の判定の結果、新年度の拡張領域から抽出された直線の数が旧年度のそれよりも多い場合(ステップS236-2;Yes)は、屋上領域判定部50は、新年度をマッチング直線探索の実施側に設定し、旧年度をマッチング直線探索の被探索側に設定する(ステップS236-3)。
 ステップS236-2の判定の結果、新年度の拡張領域から抽出された直線の数が旧年度のそれよりも多くない場合(ステップS236-2;No)は、屋上領域判定部50は、旧年度をマッチング直線探索の実施側に設定し、新年度をマッチング直線探索の被探索側に設定する(ステップS236-4)。
 次に、ステップS236-3又はS236-4が実行されると、屋上領域判定部50は、マッチング直線探索の実施側の各直線から被探索側へマッチング直線の探索を行う(ステップS236-5)。
 次に、屋上領域判定部50は、実施側のマッチングできた直線の数と実施側の直線の総
数との割合が、マッチング割合閾値以上かどうかを判定する(ステップS236-6)。
 ステップS236-6の判定の結果、割合がマッチング割合閾値以上である場合(ステップS236-6;Yes)は、屋上領域判定部50は、新旧年度の屋上領域は同じ構造であると判定する(ステップS236-7)。一方、ステップS236-6の判定の結果、割合がマッチング割合閾値以上でない場合(ステップS236-6;No)は、屋上領域判定部50は、新旧年度の屋上領域は異なる構造であると判定する(ステップS236-8)。以上の処理により、ステップS236における屋上の構造の判定処理が終了する。
[プログラム]
 また、本発明の実施の形態2におけるプログラムは、コンピュータに、図10に示すステップS210~S260を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態2における異動検出支援装置と異動検出支援方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、画像入力部10、処理パラメータ入力部20、画像分割部30、屋上領域抽出部40、屋上領域判定部50、変化特徴算出部60、クラスタリング部70、及び判定部80として機能し、処理を行う。また、コンピュータに備えられたハードディスク等の記憶装置が、処理パラメータ記憶部21として機能する。
[実施の形態2による効果]
 以上のように、本実施の形態2によれば、特に、新年度及び旧年度の画像に、多数の建築物が写っている場合において、環境による明るさの変化の影響を受けることなく、異動の検出に対して適切な支援を行うことができる。
(物理構成)
 ここで、実施の形態1及び2におけるプログラムを実行することによって、異動検出支援装置を実現するコンピュータについて図14を用いて説明する。図14は、本発明の実施の形態1及び2における異動検出支援装置を実現するコンピュータの一例を示すブロック図である。
図14に示すように、コンピュータ110は、CPU111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。
 CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
 また、記憶装置113の具体例としては、ハードディスクの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。
 表示コントローラ115は、CRT(Cathode Ray Tube)またはLCD(Liquid Crystal Display)などのディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。
 通信インターフェイス117は、シリアル・インターフェイス又はLAN(Local Area Network)インターフェイスなどであり、例えば、無線送受信機、無線モデム、網終端装置等(図示せず)に接続される。そして、通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
 また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記憶媒体、又はCD-ROM(Compact Disk Read Only Memory)などの光学記憶媒体が挙げられる。
 また、本実施の形態1及び2における異動検出支援装置は、上述のように、汎用のコンピュータにプログラムを導入することによって実現されていても良いし、本実施の形態で述べた処理を実現する回路が組み込まれたLSI(Large Scale Integration)などのハードウェア部品によって実現されていても良い。つまり、本実施の形態1及び2における異動検出装置は、電子回路で構成することもできる。
 本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施形態及び変形が可能とされるものである。また、上述した実施形態は、本発明を説明するためのものであり、本発明の範囲を限定するものではない。つまり、本発明の範囲は、実施形態だけではなく、請求の範囲によって示される。そして、請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、本発明の範囲内とみなされる。
 上述した実施の形態の一部又は全部は、以下に記載する(付記1)~(付記21)によって表現することができるが、以下の記載に限定されるものではない。
(付記1)
 同一対象物についての撮影日時の異なる二つの画像を用いて、古い撮影日時から新しい撮影日時までの間に変化した箇所を検出する際の、支援を行うための装置であって、
 前記二つの画像それぞれのカラー情報及びテクスチャー情報に基づいて、前記二つの画像それぞれを複数の領域に分割する、画像分割部と、
 前記画像分割部による分割によって得られた前記複数の領域それぞれ毎に、特徴ベクトルを抽出し、更に、前記二つの画像における互いに対応する前記領域間について、前記特徴ベクトルの相違を表す変化特徴ベクトルを算出する、変化特徴算出部と、
 前記変化特徴算出部によって算出された全ての変化特徴ベクトルに対して、クラスタリングを行い、それによってクラスターを生成する、クラスタリング部と、
 前記クラスタリング部によって生成されたクラスターに基づいて、前記複数の領域それぞれについて、前記変化が生じている可能性を判定する、判定部と、
を備えることを特徴とする異動検出支援装置。
(付記2)
 前記判定部は、前記クラスターのサイズを特定し、
特定した前記サイズが予め設定された閾値以上となる場合は、前記サイズが特定されたクラスターに関連する前記領域は、前記変化が生じている可能性を有していないと判定し、特定した前記サイズが閾値未満となる場合は、前記サイズが特定されたクラスターに関連する前記領域は、前記変化が生じている可能性を有していると判定する、
付記1に記載の異動検出支援装置。
(付記3)
 前記二つの画像が上空からの撮影によって得られている場合に、前記画像分割部による分割によって得られた前記複数の領域のうち、建築物の屋上を表している領域を、屋上領域として抽出する、屋上領域抽出部と、
 前記二つの画像間で、それぞれの前記屋上領域を互いに対比して、前記屋上領域において、前記古い撮影日時から前記新しい撮影日時までの間に変化した箇所が存在しているかどうかを判定する、屋上領域判定部と、を更に備え、
 前記変化特徴算出部は、前記屋上領域判定部によって前記変化した箇所が存在していると判定されなかった前記屋上領域を対象として、前記特徴ベクトルを抽出し、更に、前記変化特徴ベクトルを算出し、
 前記判定部は、前記クラスターに基づいて、前記屋上領域判定部によって前記変化した箇所が存在していると判定されなかった前記屋上領域について、前記変化が生じている可能性を判定する、
付記1または2に記載の異動検出支援装置。
(付記4)
 前記屋上領域抽出部は、前記画像分割部による分割によって得られた前記複数の領域のうち、面積が予め設定された上限値と下限値とで定義された範囲内にあり、形状が予め設定された条件を満たし、更に、色とテクスチャーとの分布が予め設定された条件を満たす、領域を、前記屋上領域として抽出する、
付記3に記載の異動検出支援装置。
(付記5)
 前記形状について予め設定された条件が、
当該領域の内部に穴が存在していないこと、
当該領域に外接する矩形の両辺の比が、それについて設定された閾値以下であること、
当該領域の面積と前記矩形の面積との割合が、それについて設定された閾値以上であること、
を含んでいる、付記4に記載の異動検出支援装置。
(付記6)
 前記色とテクスチャーの分布について予め設定された条件が、
当該領域内の色の均一度がそれについて設定された閾値以上であること、
当該領域内のテクスチャーの均一度がそれについて設定された閾値以上であること、
を含んでいる、付記4に記載の異動検出支援装置。
(付記7)
 前記屋上領域判定部は、判定対象となる画像が、撮影日時の異なる2つの画像である場合に、撮影日時が新しい画像とそれよりも撮影日時が古い画像とを重なり範囲で互いに対比し、対比の結果、
 一方の前記画像からは前記屋上領域が抽出されているが、前記重なり範囲で他方の前記画像からは前記屋上領域が抽出されていない場合は、前記屋上領域において、前記変化した箇所が存在していると判定し、
 更に、前記重なり範囲で前記新しい画像と前記古い画像との両方から前記屋上領域が抽出されている場合は、前記新しい画像の前記屋上領域の面積に対する、前記新しい画像と前記古い画像との前記屋上領域において重なっている部分の面積の割合が、設定された面積についての閾値よりも小さいかどうかを判定し、判定の結果、小さい場合は、前記屋上領域において、前記変化した箇所が存在していると判定し、
 一方、小さくない場合は、前記新しい画像の前記屋上領域に存在する建築物と、前記古い画像の前記屋上領域に存在する建築物とが、構造的に同一かどうかを判定し、判定の結果、同一でない場合は、前記屋上領域において、前記変化した箇所が存在していると判定する、
付記4~6のいずれかに記載の異動検出支援装置。
(付記8)
 前記屋上領域判定部は、前記新しい画像の前記屋上領域に存在する建築物と、前記古い画像の前記屋上領域に存在する建築物とが、構造的に同一かどうかの判定において、
判定対象となる、前記新しい画像の前記屋上領域及び前記古い画像の前記屋上領域それぞれについて、直線状の部分を抽出し、更に、それぞれから抽出された前記直線状の部分のうち、前記新しい画像と前記古い画像とにおいてマッチングしている前記直線状の部分の数を求め、次いで、求めた数の、一方の画像の前記屋上領域から抽出された前記直線状の部分の数に対する割合を求め、求めた割合が、設定された閾値より小さい場合に、構造的に同一でないと判定する、
付記7に記載の異動検出支援装置。
(付記9)
 同一対象物についての撮影日時の異なる二つの画像を用いて、古い撮影日時から新しい撮影日時までの間に変化した箇所を検出する際の、支援を行う方法であって、
(a)前記二つの画像それぞれのカラー情報及びテクスチャー情報に基づいて、前記二つの画像それぞれを複数の領域に分割する、ステップと、
(b)前記(a)のステップによる分割によって得られた前記複数の領域それぞれ毎に、特徴ベクトルを抽出し、更に、前記二つの画像における互いに対応する前記領域間について、前記特徴ベクトルの相違を表す変化特徴ベクトルを算出する、ステップと、
(c)前記(b)のステップによって算出された全ての変化特徴ベクトルに対して、クラスタリングを行い、それによってクラスターを生成する、ステップと、
(d)前記(c)のステップによって生成されたクラスターに基づいて、前記複数の領域それぞれについて、前記変化が生じている可能性を判定する、ステップと、
を有することを特徴とする異動検出支援方法。
(付記10)
 前記(c)のステップにおいて、前記クラスターのサイズを特定し、
特定した前記サイズが予め設定された閾値以上となる場合は、前記サイズが特定されたクラスターに関連する前記領域は、前記変化が生じている可能性を有していないと判定し、
特定した前記サイズが閾値未満となる場合は、前記サイズが特定されたクラスターに関連する前記領域は、前記変化が生じている可能性を有していると判定する、
付記9に記載の異動検出支援方法。
(付記11)
(e)前記二つの画像が上空からの撮影によって得られている場合に、前記(a)のステップによる分割によって得られた前記複数の領域のうち、建築物の屋上を表している領域を、屋上領域として抽出する、ステップと、
(f)前記二つの画像間で、それぞれの前記屋上領域を互いに対比して、前記屋上領域において、前記古い撮影日時から前記新しい撮影日時までの間に変化した箇所が存在しているかどうかを判定する、ステップと、を更に有し、
 前記(b)のステップにおいて、前記(f)のステップによって前記変化した箇所が存在していると判定されなかった前記屋上領域を対象として、前記特徴ベクトルを抽出し、
更に、前記変化特徴ベクトルを算出し、
 前記(d)のステップにおいて、前記クラスターに基づいて、前記(f)のステップによって前記変化した箇所が存在していると判定されなかった前記屋上領域について、前記変化が生じている可能性を判定する、
付記9または10に記載の異動検出支援方法。
(付記12)
 前記(e)のステップにおいて、前記(a)のステップによる分割によって得られた前記複数の領域のうち、面積が予め設定された上限値と下限値とで定義された範囲内にあり、形状が予め設定された条件を満たし、更に、色とテクスチャーとの分布が予め設定された条件を満たす、領域を、前記屋上領域として抽出する、
付記11に記載の異動検出支援方法。
(付記13)
 前記形状について予め設定された条件が、
当該領域の内部に穴が存在していないこと、
当該領域に外接する矩形の両辺の比が、それについて設定された閾値以下であること、
当該領域の面積と前記矩形の面積との割合が、それについて設定された閾値以上であること、
を含んでいる、付記12に記載の異動検出支援方法。
(付記14)
 前記色とテクスチャーの分布について予め設定された条件が、
当該領域内の色の均一度がそれについて設定された閾値以上であること、
当該領域内のテクスチャーの均一度がそれについて設定された閾値以上であること、
を含んでいる、付記12に記載の異動検出支援方法。
(付記15)
 前記(f)のステップにおいて、判定対象となる画像が、撮影日時の異なる2つの画像である場合に、撮影日時が新しい画像とそれよりも撮影日時が古い画像とを重なり範囲で互いに対比し、対比の結果、
 一方の前記画像からは前記屋上領域が抽出されているが、前記重なり範囲で他方の前記画像からは前記屋上領域が抽出されていない場合は、前記屋上領域において、前記変化した箇所が存在していると判定し、
 更に、前記重なり範囲で前記新しい画像と前記古い画像との両方から前記屋上領域が抽出されている場合は、前記新しい画像の前記屋上領域の面積に対する、前記新しい画像と前記古い画像との前記屋上領域において重なっている部分の面積の割合が、設定された面積についての閾値よりも小さいかどうかを判定し、判定の結果、小さい場合は、前記屋上領域において、前記変化した箇所が存在していると判定し、
 一方、小さくない場合は、前記新しい画像の前記屋上領域に存在する建築物と、前記古い画像の前記屋上領域に存在する建築物とが、構造的に同一かどうかを判定し、判定の結果、同一でない場合は、前記屋上領域において、前記変化した箇所が存在していると判定する、
付記12~14のいずれかに記載の異動検出支援方法。
(付記16)
 前記(f)のステップにおいて、前記新しい画像の前記屋上領域に存在する建築物と、前記古い画像の前記屋上領域に存在する建築物とが、構造的に同一かどうかの判定において、
判定対象となる、前記新しい画像の前記屋上領域及び前記古い画像の前記屋上領域それぞれについて、直線状の部分を抽出し、更に、それぞれから抽出された前記直線状の部分のうち、前記新しい画像と前記古い画像とにおいてマッチングしている前記直線状の部分の数を求め、次いで、求めた数の、一方の画像の前記屋上領域から抽出された前記直線状の部分の数に対する割合を求め、求めた割合が、設定された閾値より小さい場合に、構造的に同一でないと判定する、
付記15に記載の異動検出支援方法。
(付記17)
 コンピュータによって、同一対象物についての撮影日時の異なる二つの画像を用いて、
古い撮影日時から新しい撮影日時までの間に変化した箇所を検出する際の、支援を行うためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記コンピュータに、
(a)前記二つの画像それぞれのカラー情報及びテクスチャー情報に基づいて、前記二つの画像それぞれを複数の領域に分割する、ステップと、
(b)前記(a)のステップによる分割によって得られた前記複数の領域それぞれ毎に、特徴ベクトルを抽出し、更に、前記二つの画像における互いに対応する前記領域間について、前記特徴ベクトルの相違を表す変化特徴ベクトルを算出する、ステップと、
(c)前記(b)のステップによって算出された全ての変化特徴ベクトルに対して、クラスタリングを行い、それによってクラスターを生成する、ステップと、
(d)前記(c)のステップによって生成されたクラスターに基づいて、前記複数の領域それぞれについて、前記変化が生じている可能性を判定する、ステップと、
を実行させる命令を含む、プログラムを記録しているコンピュータ読み取り可能な記録媒体。
(付記18)
 前記(c)のステップにおいて、前記クラスターのサイズを特定し、
特定した前記サイズが予め設定された閾値以上となる場合は、前記サイズが特定されたクラスターに関連する前記領域は、前記変化が生じている可能性を有していないと判定し、
特定した前記サイズが閾値未満となる場合は、前記サイズが特定されたクラスターに関連する前記領域は、前記変化が生じている可能性を有していると判定する、
付記17に記載のコンピュータ読み取り可能な記録媒体。
(付記19)
前記プログラムが、
(e)前記二つの画像が上空からの撮影によって得られている場合に、前記(a)のステップによる分割によって得られた前記複数の領域のうち、建築物の屋上を表している領域を、屋上領域として抽出する、ステップと、
(f)前記二つの画像間で、それぞれの前記屋上領域を互いに対比して、前記屋上領域において、前記古い撮影日時から前記新しい撮影日時までの間に変化した箇所が存在しているかどうかを判定する、ステップと、を更に前記コンピュータに実行させる命令を含み、
 前記(b)のステップにおいて、前記(f)のステップによって前記変化した箇所が存在していると判定されなかった前記屋上領域を対象として、前記特徴ベクトルを抽出し、
更に、前記変化特徴ベクトルを算出し、
 前記(d)のステップにおいて、前記クラスターに基づいて、前記(f)のステップによって前記変化した箇所が存在していると判定されなかった前記屋上領域について、前記変化が生じている可能性を判定する、
付記17または18に記載のコンピュータ読み取り可能な記録媒体。
(付記20)
 前記(e)のステップにおいて、前記(a)のステップによる分割によって得られた前記複数の領域のうち、面積が予め設定された上限値と下限値とで定義された範囲内にあり、形状が予め設定された条件を満たし、更に、色とテクスチャーとの分布が予め設定された条件を満たす、領域を、前記屋上領域として抽出する、
付記19に記載のコンピュータ読み取り可能な記録媒体。
(付記21)
 前記形状について予め設定された条件が、
当該領域の内部に穴が存在していないこと、
当該領域に外接する矩形の両辺の比が、それについて設定された閾値以下であること、
当該領域の面積と前記矩形の面積との割合が、それについて設定された閾値以上であること、
を含んでいる、付記20に記載のコンピュータ読み取り可能な記録媒体。
(付記22)
 前記色とテクスチャーの分布について予め設定された条件が、
当該領域内の色の均一度がそれについて設定された閾値以上であること、
当該領域内のテクスチャーの均一度がそれについて設定された閾値以上であること、
を含んでいる、付記20に記載のコンピュータ読み取り可能な記録媒体。
(付記23)
 前記(f)のステップにおいて、判定対象となる画像が、撮影日時の異なる2つの画像である場合に、撮影日時が新しい画像とそれよりも撮影日時が古い画像とを重なり範囲で互いに対比し、対比の結果、
 一方の前記画像からは前記屋上領域が抽出されているが、前記重なり範囲で他方の前記画像からは前記屋上領域が抽出されていない場合は、前記屋上領域において、前記変化した箇所が存在していると判定し、
 更に、前記重なり範囲で前記新しい画像と前記古い画像との両方から前記屋上領域が抽出されている場合は、前記新しい画像の前記屋上領域の面積に対する、前記新しい画像と前記古い画像との前記屋上領域において重なっている部分の面積の割合が、設定された面積についての閾値よりも小さいかどうかを判定し、判定の結果、小さい場合は、前記屋上領域において、前記変化した箇所が存在していると判定し、
 一方、小さくない場合は、前記新しい画像の前記屋上領域に存在する建築物と、前記古い画像の前記屋上領域に存在する建築物とが、構造的に同一かどうかを判定し、判定の結果、同一でない場合は、前記屋上領域において、前記変化した箇所が存在していると判定する、
付記20~22のいずれかに記載のコンピュータ読み取り可能な記録媒体。
(付記24)
 前記(f)のステップにおいて、前記新しい画像の前記屋上領域に存在する建築物と、前記古い画像の前記屋上領域に存在する建築物とが、構造的に同一かどうかの判定において、
判定対象となる、前記新しい画像の前記屋上領域及び前記古い画像の前記屋上領域それぞれについて、直線状の部分を抽出し、更に、それぞれから抽出された前記直線状の部分のうち、前記新しい画像と前記古い画像とにおいてマッチングしている前記直線状の部分の数を求め、次いで、求めた数の、一方の画像の前記屋上領域から抽出された前記直線状の部分の数に対する割合を求め、求めた割合が、設定された閾値より小さい場合に、構造的に同一でないと判定する、
付記23に記載のコンピュータ読み取り可能な記録媒体。
この出願は、2014年3月31日に出願された日本出願特願2014-073546を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 以上のように、本発明によれば、判定対象となる各画像が異なる環境下で撮影されていた場合における、異動箇所の検出精度の向上に貢献することができる。本発明は、特に、撮影日時の異なる航空写真又は衛星写真の画像を用いて、異動箇所を検出することが求められる用途、例えば、地図の作成、固定資産税の算出等に有用である。
 10 画像入力部
 20 処理パラメータ入力部
 21 処理パラメータ記憶部
 30 画像分割部
 40 屋上領域抽出部
 50 屋上領域判定部
 60 変化特徴算出部
 70 クラスタリング部
 80 判定部
 100 異動検出支援装置(実施の形態1)
 110 コンピュータ
 111 CPU
 112 メインメモリ
 113 記憶装置
 114 入力インターフェイス
 115 表示コントローラ
 116 データリーダ/ライタ
 117 通信インターフェイス
 118 入力機器
 119 ディスプレイ装置
 120 記録媒体
 121 バス
 200 異動検出支援装置(実施の形態2) 

Claims (10)

  1.  同一対象物についての撮影日時の異なる二つの画像を用いて、古い撮影日時から新しい撮影日時までの間に変化した箇所を検出する際の、支援を行うための装置であって、
     前記二つの画像それぞれのカラー情報及びテクスチャー情報に基づいて、前記二つの画像それぞれを複数の領域に分割する、画像分割部と、
     前記画像分割部による分割によって得られた前記複数の領域それぞれ毎に、特徴ベクトルを抽出し、更に、前記二つの画像における互いに対応する前記領域間について、前記特徴ベクトルの相違を表す変化特徴ベクトルを算出する、変化特徴算出部と、
     前記変化特徴算出部によって算出された全ての変化特徴ベクトルに対して、クラスタリングを行い、それによってクラスターを生成する、クラスタリング部と、
     前記クラスタリング部によって生成されたクラスターに基づいて、前記複数の領域それぞれについて、前記変化が生じている可能性を判定する、判定部と、
    を備えることを特徴とする異動検出支援装置。
  2.  前記判定部は、前記クラスターのサイズを特定し、
    特定した前記サイズが予め設定された閾値以上となる場合は、前記サイズが特定されたクラスターに関連する前記領域は、前記変化が生じている可能性を有していないと判定し、
    特定した前記サイズが閾値未満となる場合は、前記サイズが特定されたクラスターに関連する前記領域は、前記変化が生じている可能性を有していると判定する、
    請求項1に記載の異動検出支援装置。
  3.  前記二つの画像が上空からの撮影によって得られている場合に、前記画像分割部による分割によって得られた前記複数の領域のうち、建築物の屋上を表している領域を、屋上領域として抽出する、屋上領域抽出部と、
     前記二つの画像間で、それぞれの前記屋上領域を互いに対比して、前記屋上領域において、前記古い撮影日時から前記新しい撮影日時までの間に変化した箇所が存在しているかどうかを判定する、屋上領域判定部と、を更に備え、
     前記変化特徴算出部は、前記屋上領域判定部によって前記変化した箇所が存在していると判定されなかった前記屋上領域を対象として、前記特徴ベクトルを抽出し、更に、前記変化特徴ベクトルを算出し、
     前記判定部は、前記クラスターに基づいて、前記屋上領域判定部によって前記変化した箇所が存在していると判定されなかった前記屋上領域について、前記変化が生じている可能性を判定する、
    請求項1または2に記載の異動検出支援装置。
  4.  前記屋上領域抽出部は、前記画像分割部による分割によって得られた前記複数の領域のうち、面積が予め設定された上限値と下限値とで定義された範囲内にあり、形状が予め設定された条件を満たし、更に、色とテクスチャーとの分布が予め設定された条件を満たす、領域を、前記屋上領域として抽出する、
    請求項3に記載の異動検出支援装置。
  5.  前記形状について予め設定された条件が、
    当該領域の内部に穴が存在していないこと、
    当該領域に外接する矩形の両辺の比が、それについて設定された閾値以下であること、
    当該領域の面積と前記矩形の面積との割合が、それについて設定された閾値以上であること、
    を含んでいる、請求項4に記載の異動検出支援装置。
  6.  前記色とテクスチャーの分布について予め設定された条件が、
    当該領域内の色の均一度がそれについて設定された閾値以上であること、
    当該領域内のテクスチャーの均一度がそれについて設定された閾値以上であること、
    を含んでいる、請求項4に記載の異動検出支援装置。
  7.  前記屋上領域判定部は、判定対象となる画像が、撮影日時の異なる2つの画像である場合に、撮影日時が新しい画像とそれよりも撮影日時が古い画像とを重なり範囲で互いに対比し、対比の結果、
     一方の前記画像からは前記屋上領域が抽出されているが、前記重なり範囲で他方の前記画像からは前記屋上領域が抽出されていない場合は、前記屋上領域において、前記変化した箇所が存在していると判定し、
     更に、前記重なり範囲で前記新しい画像と前記古い画像との両方から前記屋上領域が抽出されている場合は、前記新しい画像の前記屋上領域の面積に対する、前記新しい画像と前記古い画像との前記屋上領域において重なっている部分の面積の割合が、設定された面積についての閾値よりも小さいかどうかを判定し、判定の結果、小さい場合は、前記屋上領域において、前記変化した箇所が存在していると判定し、
     一方、小さくない場合は、前記新しい画像の前記屋上領域に存在する建築物と、前記古い画像の前記屋上領域に存在する建築物とが、構造的に同一かどうかを判定し、判定の結果、同一でない場合は、前記屋上領域において、前記変化した箇所が存在していると判定する、
    請求項4~6のいずれかに記載の異動検出支援装置。
  8.  前記屋上領域判定部は、前記新しい画像の前記屋上領域に存在する建築物と、前記古い画像の前記屋上領域に存在する建築物とが、構造的に同一かどうかの判定において、
    判定対象となる、前記新しい画像の前記屋上領域及び前記古い画像の前記屋上領域それぞれについて、直線状の部分を抽出し、更に、それぞれから抽出された前記直線状の部分のうち、前記新しい画像と前記古い画像とにおいてマッチングしている前記直線状の部分の数を求め、次いで、求めた数の、一方の画像の前記屋上領域から抽出された前記直線状の部分の数に対する割合を求め、求めた割合が、設定された閾値より小さい場合に、構造的に同一でないと判定する、
    請求項7に記載の異動検出支援装置。
  9.  同一対象物についての撮影日時の異なる二つの画像を用いて、古い撮影日時から新しい撮影日時までの間に変化した箇所を検出する際の、支援を行う方法であって、
    (a)前記二つの画像それぞれのカラー情報及びテクスチャー情報に基づいて、前記二つの画像それぞれを複数の領域に分割する、ステップと、
    (b)前記(a)のステップによる分割によって得られた前記複数の領域それぞれ毎に、特徴ベクトルを抽出し、更に、前記二つの画像における互いに対応する前記領域間について、前記特徴ベクトルの相違を表す変化特徴ベクトルを算出する、ステップと、
    (c)前記(b)のステップによって算出された全ての変化特徴ベクトルに対して、クラスタリングを行い、それによってクラスターを生成する、ステップと、
    (d)前記(c)のステップによって生成されたクラスターに基づいて、前記複数の領域それぞれについて、前記変化が生じている可能性を判定する、ステップと、
    を有することを特徴とする異動検出支援方法。
  10.  コンピュータによって、同一対象物についての撮影日時の異なる二つの画像を用いて、古い撮影日時から新しい撮影日時までの間に変化した箇所を検出する際の、支援を行うためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
    前記コンピュータに、
    (a)前記二つの画像それぞれのカラー情報及びテクスチャー情報に基づいて、前記二つの画像それぞれを複数の領域に分割する、ステップと、
    (b)前記(a)のステップによる分割によって得られた前記複数の領域それぞれ毎に、特徴ベクトルを抽出し、更に、前記二つの画像における互いに対応する前記領域間について、前記特徴ベクトルの相違を表す変化特徴ベクトルを算出する、ステップと、
    (c)前記(b)のステップによって算出された全ての変化特徴ベクトルに対して、クラスタリングを行い、それによってクラスターを生成する、ステップと、
    (d)前記(c)のステップによって生成されたクラスターに基づいて、前記複数の領域それぞれについて、前記変化が生じている可能性を判定する、ステップと、
    を実行させる命令を含む、プログラムを記録しているコンピュータ読み取り可能な記録媒体。 
PCT/JP2015/051484 2014-03-31 2015-01-21 異動検出支援装置、異動検出支援方法、及びコンピュータ読み取り可能な記録媒体 WO2015151553A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016511409A JP6249508B2 (ja) 2014-03-31 2015-01-21 異動検出支援装置、異動検出支援方法、及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-073546 2014-03-31
JP2014073546 2014-03-31

Publications (1)

Publication Number Publication Date
WO2015151553A1 true WO2015151553A1 (ja) 2015-10-08

Family

ID=54239896

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/051484 WO2015151553A1 (ja) 2014-03-31 2015-01-21 異動検出支援装置、異動検出支援方法、及びコンピュータ読み取り可能な記録媒体

Country Status (2)

Country Link
JP (1) JP6249508B2 (ja)
WO (1) WO2015151553A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019187494A1 (ja) * 2018-03-26 2019-10-03 三菱重工業株式会社 領域検出装置および領域検出方法
CN111368615A (zh) * 2019-06-26 2020-07-03 杭州海康威视系统技术有限公司 一种违章建筑预警方法、装置及电子设备
CN111967473A (zh) * 2020-06-29 2020-11-20 山东浪潮通软信息科技有限公司 基于图像分割和模板匹配的粮库仓储情况监测方法
JP7498843B1 (ja) 2023-12-19 2024-06-12 朝日航洋株式会社 異動判読システム、異動判読方法及び異動判読プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001109872A (ja) * 1999-10-05 2001-04-20 Pasuko:Kk 画像処理方法及び画像処理プログラムを記録した記憶媒体
JP2007034808A (ja) * 2005-07-28 2007-02-08 Nec System Technologies Ltd 変化判定装置、変化判定方法および変化判定プログラム
JP2010015448A (ja) * 2008-07-04 2010-01-21 Hitachi Software Eng Co Ltd 地物形状変化検出プログラム、及び、地物形状変化検出システム
JP2010211714A (ja) * 2009-03-12 2010-09-24 Toyota Motor Corp 物体検出装置
JP2013101428A (ja) * 2011-11-07 2013-05-23 Pasuko:Kk 建物輪郭抽出装置、建物輪郭抽出方法及び建物輪郭抽出プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001109872A (ja) * 1999-10-05 2001-04-20 Pasuko:Kk 画像処理方法及び画像処理プログラムを記録した記憶媒体
JP2007034808A (ja) * 2005-07-28 2007-02-08 Nec System Technologies Ltd 変化判定装置、変化判定方法および変化判定プログラム
JP2010015448A (ja) * 2008-07-04 2010-01-21 Hitachi Software Eng Co Ltd 地物形状変化検出プログラム、及び、地物形状変化検出システム
JP2010211714A (ja) * 2009-03-12 2010-09-24 Toyota Motor Corp 物体検出装置
JP2013101428A (ja) * 2011-11-07 2013-05-23 Pasuko:Kk 建物輪郭抽出装置、建物輪郭抽出方法及び建物輪郭抽出プログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019187494A1 (ja) * 2018-03-26 2019-10-03 三菱重工業株式会社 領域検出装置および領域検出方法
JP2019169060A (ja) * 2018-03-26 2019-10-03 三菱重工業株式会社 領域検出装置、領域検出方法及びそのプログラム
US11216952B2 (en) 2018-03-26 2022-01-04 Mitsubishi Heavy Industries, Ltd. Region extraction apparatus and region extraction method
AU2019244533B2 (en) * 2018-03-26 2022-01-27 Mitsubishi Heavy Industries, Ltd. Region extraction apparatus and region extraction method
JP7077093B2 (ja) 2018-03-26 2022-05-30 三菱重工業株式会社 領域検出装置、領域検出方法及びそのプログラム
CN111368615A (zh) * 2019-06-26 2020-07-03 杭州海康威视系统技术有限公司 一种违章建筑预警方法、装置及电子设备
CN111368615B (zh) * 2019-06-26 2024-04-05 杭州海康威视系统技术有限公司 一种违章建筑预警方法、装置及电子设备
CN111967473A (zh) * 2020-06-29 2020-11-20 山东浪潮通软信息科技有限公司 基于图像分割和模板匹配的粮库仓储情况监测方法
JP7498843B1 (ja) 2023-12-19 2024-06-12 朝日航洋株式会社 異動判読システム、異動判読方法及び異動判読プログラム

Also Published As

Publication number Publication date
JP6249508B2 (ja) 2017-12-20
JPWO2015151553A1 (ja) 2017-04-13

Similar Documents

Publication Publication Date Title
US10909682B2 (en) Method and device for detecting pulmonary nodule in computed tomography image, and computer-readable storage medium
US10593043B2 (en) Utilizing deep learning for boundary-aware image segmentation
US11209837B2 (en) Method and device for generating a model of a to-be reconstructed area and an unmanned aerial vehicle flight trajectory
WO2018108129A1 (zh) 用于识别物体类别的方法及装置、电子设备
US20150379371A1 (en) Object Detection Utilizing Geometric Information Fused With Image Data
US11238647B2 (en) Apparatus for building map using machine learning and image processing
US10062007B2 (en) Apparatus and method for creating an image recognizing program having high positional recognition accuracy
US20140064558A1 (en) Object tracking apparatus and method and camera
JP6249508B2 (ja) 異動検出支援装置、異動検出支援方法、及びプログラム
US20220277514A1 (en) Reconstructing three-dimensional scenes portrayed in digital images utilizing point cloud machine-learning models
WO2020107326A1 (zh) 车道线检测方法、设备、计算机可读存储介质
US20210312632A1 (en) Method and apparatus for extracting a satellite image-based building footprint
CN110910445B (zh) 一种物件尺寸检测方法、装置、检测设备及存储介质
US11804025B2 (en) Methods and systems for identifying topographic features
CN110852207A (zh) 基于面向对象影像分类技术的蓝色屋顶建筑物提取方法
CN116052094A (zh) 一种船舶检测方法、系统及计算机存储介质
CN113793356A (zh) 车道线检测方法和装置
US10089764B2 (en) Variable patch shape synthesis
CN111462098A (zh) 待侦测物体阴影面积重叠的检测方法、装置、设备及介质
CN117095300B (zh) 建筑图像处理方法、装置、计算机设备和存储介质
CN110874170A (zh) 一种图像区域修正方法、图像分割方法及装置
US20200394808A1 (en) Aligning digital images by selectively applying pixel-adjusted-gyroscope alignment and feature-based alignment models
CN116363319B (zh) 一种建筑物屋顶的建模方法、建模装置、设备及介质
JP4030318B2 (ja) 地図データ更新装置および地図データ更新方法
CN113514053B (zh) 生成样本图像对的方法、装置和更新高精地图的方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15773394

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016511409

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase
122 Ep: pct application non-entry in european phase

Ref document number: 15773394

Country of ref document: EP

Kind code of ref document: A1