JP2019046416A - Premises change estimation apparatus, premises change learning apparatus, premises change estimation method, parameter generation method for discriminator, and program - Google Patents

Premises change estimation apparatus, premises change learning apparatus, premises change estimation method, parameter generation method for discriminator, and program Download PDF

Info

Publication number
JP2019046416A
JP2019046416A JP2017172187A JP2017172187A JP2019046416A JP 2019046416 A JP2019046416 A JP 2019046416A JP 2017172187 A JP2017172187 A JP 2017172187A JP 2017172187 A JP2017172187 A JP 2017172187A JP 2019046416 A JP2019046416 A JP 2019046416A
Authority
JP
Japan
Prior art keywords
image
learning
change
estimated
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017172187A
Other languages
Japanese (ja)
Other versions
JP7053195B2 (en
Inventor
佳介 根本
Keisuke Nemoto
佳介 根本
竜平 濱口
Ryuhei Hamaguchi
竜平 濱口
佐藤 正和
Masakazu Sato
正和 佐藤
友之 今泉
tomoyuki Imaizumi
友之 今泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pasco Corp
Original Assignee
Pasco Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pasco Corp filed Critical Pasco Corp
Priority to JP2017172187A priority Critical patent/JP7053195B2/en
Publication of JP2019046416A publication Critical patent/JP2019046416A/en
Application granted granted Critical
Publication of JP7053195B2 publication Critical patent/JP7053195B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To provide a premises change estimation apparatus capable of improving estimation accuracy of premises change on the basis of images of a land, premises change learning apparatus, premises change estimation method, parameter generation method of a discriminator, and program.SOLUTION: An estimation processing execution unit 76 inputs estimation input data in a learned change discriminator 34, the estimation input data representing a difference in a pair of estimation images of a land captured at different time points and representing whether or not a building is shown at a prescribed position in an at least one estimation image. The estimation processing execution unit 76 estimates premises change between the prescribed position in the at least one estimation image, and a position associated with the prescribed position in the other estimation image on the basis of the output when the estimation input data are input in the learned change discriminator 34.SELECTED DRAWING: Figure 8

Description

本発明は、家屋異動推定装置、家屋異動学習装置、家屋異動推定方法、識別器のパラメータ生成方法及びプログラムに関する。   The present invention relates to a house change estimation device, a house change learning device, a house change estimation method, a classifier parameter generation method, and a program.

特許文献1には、構造物の外観検査等に用いられる構造物の形状変化の検出方法が記載されている。特許文献1に記載の方法では、地上のカメラによって異なる時点で撮影されたトンネル等の構造物の一対の画像を畳み込みニューラルネットワーク(CNN)に入力することで、当該構造物の形状変化を検出している。   Patent Document 1 describes a method of detecting a change in the shape of a structure used for an appearance inspection or the like of the structure. In the method described in Patent Document 1, a shape change of a structure is detected by inputting a pair of images of a structure such as a tunnel captured at different times by a camera on the ground into a convolutional neural network (CNN). ing.

特開2017−62776号公報JP 2017-62776 A

発明者らは、異なる時点に撮影された航空機画像や衛星画像などといった一対の土地の画像をCNN等の機械学習モデルに入力した際の出力に基づいて、例えば、新築、滅失、建替などといった、当該画像に示されている家屋異動を推定する方法を検討している。例えば検討している方法を用いて固定資産税業務等のための家屋異動の推定を行う際には高い精度が要求される。   Based on the output when a pair of land images such as aircraft images and satellite images captured at different times are input to a machine learning model such as CNN, for example, new construction, loss, rebuilding, etc. , We are examining a method to estimate the house change shown in the image. For example, high accuracy is required when estimating house changes for fixed asset tax services etc. using the method under consideration.

この点、特許文献1に記載の技術では、CNNに入力される一対の画像はいずれも構造物の同じ部分が表れていることが前提となっている。そのため一対の画像のいずれかにしか家屋が示されていないような新築や滅失の推定では、特許文献1に記載の技術は充分な精度を発揮できない。   In this respect, in the technique described in Patent Document 1, it is premised that the same part of the structure appears in both of the pair of images input to the CNN. Therefore, the technique described in Patent Document 1 can not exhibit sufficient accuracy in estimation of new construction and loss such as a house being shown only in one of a pair of images.

本発明は上記課題に鑑みてなされたものであって、その目的の1つは、土地の画像に基づく家屋異動の推定精度を向上できる家屋異動推定装置、家屋異動学習装置、家屋異動推定方法、識別器のパラメータ生成方法及びプログラムを提供することにある。   The present invention has been made in view of the above problems, and one of its purposes is a house change estimation device, a house change learning device, and a house change estimation method capable of improving the estimation accuracy of house changes based on an image of land. It is providing the parameter generation method and program of a discriminator.

(1)本発明に係る家屋異動推定装置は、異なる時点に撮影された一対の土地の学習画像の違い、及び、少なくとも一方の前記学習画像についての当該学習画像内における所定の位置に建物が示されているか否かを示す学習入力データと、一方の前記学習画像内における前記所定の位置と他方の前記学習画像内における前記所定の位置に対応付けられる位置との間における家屋異動を示す教師データと、を含む学習データを複数学習させた変化識別器と、異なる時点に撮影された一対の土地の推定画像の違い、及び、少なくとも一方の前記推定画像内における所定の位置に建物が示されているか否かを示す推定入力データを前記変化識別器に入力する変化識別器入力手段と、前記変化識別器に前記推定入力データを入力した際の出力に基づいて、一方の前記推定画像内における前記所定の位置と他方の前記推定画像内における前記所定の位置に対応付けられる位置との間における家屋異動を推定する家屋異動推定手段と、を含む。   (1) In the house change estimation device according to the present invention, a building is displayed at a predetermined position in the learning image of at least one of the learning images of a pair of lands photographed at different time points. Teaching data indicating house change between the learning input data indicating whether or not the predetermined position in one learning image and the position corresponding to the predetermined position in the other learning image And a difference between estimated data of a pair of lands captured at different points in time, and a building being indicated at a predetermined position in at least one of the estimated images. Based on a change discriminator input unit that inputs estimated input data indicating whether or not to the change discriminator, and an output when the estimated input data is input to the change discriminator , Including a house change estimating means for estimating a house change between the position associated with the said predetermined position in the predetermined position and the other of said estimated image in one of the estimated image.

(2)上記(1)に記載の家屋異動推定装置において、土地の画像の入力に応じて当該画像内における所定の位置に建物が示されているか否かを示す特徴情報を出力する有無特徴抽出器と、前記一対の推定画像を前記有無特徴抽出器に入力した際の出力である特徴情報を特定する有無特徴情報特定手段と、をさらに含み、前記変化識別器入力手段は、前記有無特徴情報特定手段が特定する特徴情報を含む前記推定入力データを前記変化識別器に入力する構成とすることができる。   (2) In the house change estimation apparatus according to (1), presence or absence feature extraction is performed to output feature information indicating whether a building is shown at a predetermined position in the image according to the input of the image of the land. And change feature input means for specifying feature information which is output when the pair of estimated images is input to the presence feature extractor, the change discriminator input means including the presence feature information The estimated input data including the feature information identified by the identifying means may be input to the change discriminator.

(3)上記(1)又は(2)に記載の家屋異動推定装置において、異なる時点に撮影された一対の土地の画像、及び、少なくとも一方の前記画像についての当該画像内の所定の位置に建物が示されているか否かを示す画像の入力に応じて、前記一対の土地の画像の違いを示す特徴情報を出力する変化特徴抽出器と、前記一対の推定画像、及び、少なくとも一方の前記推定画像について当該推定画像内における所定の位置に建物が示されているか否かを示す画像を前記変化特徴抽出器に入力した際の出力である特徴情報を特定する変化特徴情報特定手段と、をさらに含み、前記変化識別器入力手段は、前記変化特徴情報特定手段が特定する特徴情報を含む前記推定入力データを前記変化識別器に入力する構成とすることができる。   (3) In the house movement estimation apparatus according to (1) or (2), an image of a pair of lands photographed at different times and a building at a predetermined position in the image of at least one of the images A change feature extractor that outputs feature information indicating a difference between the pair of land images according to an input of an image indicating whether or not the symbol is indicated, the pair of estimated images, and at least one of the estimates Change feature information specifying means for specifying feature information which is an output when an image indicating whether a building is shown at a predetermined position in the estimated image for an image is input to the change feature extractor; The change discriminator input means may be configured to input the estimated input data including the feature information identified by the change feature information identifying means to the change discriminator.

(4)上記(3)に記載の家屋異動推定装置において、前記変化特徴抽出器は、異なる時点に撮影された一対の土地の画像、及び、少なくとも一方の前記画像についての当該画像内の所定の位置に示されている建物の形状を示す画像の入力に応じて、前記一対の土地の画像の違いを示す特徴情報を出力し、前記変化特徴情報特定手段は、前記一対の推定画像、及び、少なくとも一方の前記推定画像についての当該推定画像内の前記所定の位置に示されている建物の形状を示す画像を前記変化特徴抽出器に入力した際の出力である特徴情報を特定する構成とすることができる。   (4) In the house movement estimation apparatus according to (3), the change feature extraction unit is configured to generate an image of a pair of lands captured at different points in time and a predetermined one of the images of at least one of the images. The characteristic information indicating the difference between the pair of land images is output according to the input of the image indicating the shape of the building indicated in the position, and the change characteristic information identification unit determines the pair of estimated images; A feature information is specified, which is an output when an image indicating a shape of a building shown at the predetermined position in the estimated image of at least one of the estimated images is input to the change feature extractor. be able to.

(5)上記(1)に記載の家屋異動推定装置において、土地の画像の入力に応じて当該画像内における所定の位置に建物が示されているか否かを示す特徴情報を出力する有無特徴抽出器と、前記一対の推定画像を前記有無特徴抽出器に入力した際の出力である特徴情報を特定する有無特徴情報特定手段と、異なる時点に撮影された一対の土地の画像、及び、少なくとも一方の前記画像についての当該画像内の所定の位置に建物が示されているか否かを示す画像の入力に応じて、前記一対の土地の画像の違いを示す特徴情報を出力する変化特徴抽出器と、前記一対の推定画像、及び、少なくとも一方の前記推定画像についての当該推定画像内における所定の位置に建物が示されているか否かを示す画像を前記変化特徴抽出器に入力した際の出力である特徴情報を特定する変化特徴情報特定手段と、前記有無特徴情報特定手段が特定する特徴情報と前記変化特徴情報特定手段が特定する特徴情報とを結合する結合手段と、をさらに含み、前記変化識別器入力手段は、前記結合手段により結合された特徴情報を含む前記推定入力データを前記変化識別器に入力する構成とすることができる。   (5) In the house movement estimation apparatus according to (1), presence or absence feature extraction is performed to output feature information indicating whether a building is shown at a predetermined position in the image according to the input of the image of the land. , Presence / absence feature specifying means for specifying feature information which is an output when the pair of estimated images is inputted to the presence / absence feature extractor, an image of a pair of lands photographed at different points in time, and A change feature extractor that outputs feature information indicating a difference between the pair of land images according to an input of an image indicating whether a building is shown at a predetermined position in the image for the image of An output when the pair of estimated images and an image indicating whether a building is shown at a predetermined position in at least one of the estimated images are input to the change feature extractor The apparatus further includes: change feature information specifying means for specifying certain feature information; and combining means for combining the feature information specified by the presence / absence feature information specifying means with the feature information specified by the change feature information specifying means The discriminator input means may be configured to input the estimated input data including the feature information combined by the combining means to the change discriminator.

(6)上記(1)〜(5)に記載の家屋異動推定装置において、前記家屋異動推定手段が推定する家屋異動を表す情報が配置された画面を生成する画面生成手段と、前記画面生成手段が生成する画面が表示されるよう制御する表示制御手段と、をさらに含む構成とすることができる。   (6) In the house change estimation device according to (1) to (5), a screen generation means for generating a screen on which information representing a house change estimated by the house change estimation means is arranged, and the screen generation means And a display control unit configured to control a screen generated by the control unit to be displayed.

(7)本発明に係る家屋異動学習装置は、異なる時点に撮影された一対の土地の学習画像の違い、及び、少なくとも一方の前記学習画像についての当該学習画像内における所定の位置に建物が示されているか否かを示す学習入力データを変化識別器に入力する入力手段と、前記変化識別器に前記学習入力データを入力した際の出力と、一方の前記学習画像内における前記所定の位置と他方の前記学習画像内における前記所定の位置に対応付けられる位置との間における家屋異動を示す教師データと、を比較する比較手段と、前記比較の結果に基づいて、前記変化識別器のパラメータを変更するパラメータ変更手段と、を含む。   (7) In the house change learning apparatus according to the present invention, a building is displayed at a predetermined position in the learning image of at least one of the learning images of a pair of lands photographed at different time points. Input means for inputting, to the change discriminator, learning input data indicating whether or not it has been input, an output when the learning input data is inputted to the change discriminator, the predetermined position in one of the learning images A comparison means for comparing teacher data indicating house change between a position corresponding to the predetermined position in the other learning image, and a parameter of the change discriminator based on a result of the comparison And parameter changing means for changing.

(8)本発明に係る家屋異動推定方法は、異なる時点に撮影された一対の土地の学習画像の違い、及び、少なくとも一方の前記学習画像についての当該学習画像内における所定の位置に建物が示されているか否かを示す学習入力データと、一方の前記学習画像内における前記所定の位置と他方の前記学習画像内における前記所定の位置に対応付けられる位置との間における家屋異動を示す教師データと、を含む学習データを複数学習させた変化識別器に、異なる時点に撮影された一対の土地の推定画像の違い、及び、少なくとも一方の前記推定画像内における所定の位置に建物が示されているか否かを示す推定入力データを前記変化識別器に入力するステップと、前記変化識別器に前記推定入力データを入力した際の出力に基づいて、一方の前記推定画像内における前記所定の位置と他方の前記推定画像内における前記所定の位置に対応付けられる位置との間における家屋異動を推定するステップと、を含む。   (8) In the house change estimation method according to the present invention, the difference between the learning images of a pair of lands taken at different points in time, and the building is displayed at a predetermined position in the learning image for at least one of the learning images. Teaching data indicating house change between the learning input data indicating whether or not the predetermined position in one learning image and the position corresponding to the predetermined position in the other learning image And a change discriminator obtained by learning a plurality of learning data, the difference between estimated images of a pair of lands photographed at different time points, and a building being indicated at a predetermined position in at least one of the estimated images One of the steps of inputting estimated input data indicating whether or not to the change discriminator, and an output when the estimated input data is input to the change discriminator; Comprising the steps of: estimating a house change between the position associated with the said predetermined position in the predetermined position and the other of said estimated image in serial estimation image.

(9)本発明に係る識別器のパラメータ生成方法は、異なる時点に撮影された一対の土地の学習画像の違い、及び、少なくとも一方の前記学習画像についての当該学習画像内における所定の位置に建物が示されているか否かを示す学習入力データを変化識別器に入力するステップと、前記変化識別器に前記学習入力データを入力した際の出力と、一方の前記学習画像内における前記所定の位置と他方の前記学習画像内における前記所定の位置に対応付けられる位置との間における家屋異動を示す教師データと、を比較するステップと、前記比較の結果に基づいて、前記変化識別器のパラメータを変更するステップと、を含む。   (9) The parameter generation method for a classifier according to the present invention is a method for generating a difference between learning images of a pair of lands photographed at different points in time and at a predetermined position in the learning image for at least one of the learning images. Inputting, to the change discriminator, learning input data indicating whether or not is indicated, an output when the learning input data is input to the change discriminator, and the predetermined position in one of the learning images Comparing the parameter of the change discriminator with the step of comparing teacher data indicating house change between the other and the position corresponding to the predetermined position in the other learning image, and the result of the comparison. And changing.

(10)本発明に係るプログラムは、異なる時点に撮影された一対の土地の学習画像の違い、及び、少なくとも一方の前記学習画像についての当該学習画像内における所定の位置に建物が示されているか否かを示す学習入力データと、一方の前記学習画像内における前記所定の位置と他方の前記学習画像内における前記所定の位置に対応付けられる位置との間における家屋異動を示す教師データと、を含む学習データを複数学習させた変化識別器に、異なる時点に撮影された一対の土地の推定画像の違い、及び、少なくとも一方の前記推定画像内における所定の位置に建物が示されているか否かを示す推定入力データを前記変化識別器に入力する手順、前記変化識別器に前記推定入力データを入力した際の出力に基づいて、一方の前記推定画像内における前記所定の位置と他方の前記推定画像内における前記所定の位置に対応付けられる位置との間における家屋異動を推定する手順、をコンピュータに実行させる。   (10) In the program according to the present invention, is the difference between the learning images of a pair of lands taken at different times, and whether a building is shown at a predetermined position in the learning image for at least one of the learning images? Learning input data indicating whether or not there is teaching data indicating house change between the predetermined position in one of the learning images and a position corresponding to the predetermined position in the other learning image; The change discriminator, which has learned a plurality of learning data, includes a difference between estimated images of a pair of lands captured at different time points, and whether a building is shown at a predetermined position in at least one of the estimated images A step of inputting estimated input data indicating the input to the change discriminator, and based on an output when the estimated input data is input to the change discriminator, Procedure for estimating the house change between the position associated with the said predetermined position in the predetermined position and the other of said estimated image of the inner, causing the computer to execute.

(11)本発明に係る別のプログラムは、異なる時点に撮影された一対の土地の学習画像の違い、及び、少なくとも一方の前記学習画像についての当該学習画像内における所定の位置に建物が示されているか否かを示す学習入力データを変化識別器に入力する手順、前記変化識別器に前記学習入力データを入力した際の出力と、一方の前記学習画像内における前記所定の位置と他方の前記学習画像内における前記所定の位置に対応付けられる位置との間における家屋異動を示す教師データと、を比較する手順、前記比較の結果に基づいて、前記変化識別器のパラメータを変更する手順、をコンピュータに実行させる。   (11) In another program according to the present invention, a building is shown at a predetermined position in the learning image of at least one of the learning images of a pair of lands photographed at different time points. Procedure for inputting learning input data indicating whether or not to the change discriminator, an output when the learning input data is input to the change discriminator, the predetermined position in one of the learning images, and the other A procedure of comparing with teacher data indicating house change between a position corresponding to the predetermined position in the learning image, and a procedure of changing a parameter of the change discriminator based on a result of the comparison Make it run on a computer.

本発明によれば、土地の画像に基づく家屋異動の推定精度が向上する。   According to the present invention, estimation accuracy of house change based on an image of a land is improved.

本発明の一実施形態に係る家屋異動推定装置の構成図である。It is a block diagram of the house change estimation apparatus which concerns on one Embodiment of this invention. 推定ターゲット画像の一例を示す図である。It is a figure which shows an example of a presumed target image. 推定ターゲット画像の一例を示す図である。It is a figure which shows an example of a presumed target image. 推定結果画面の一例を示す図である。It is a figure which shows an example of a presumed result screen. 推定建物検出画像の一例を示す図である。It is a figure which shows an example of a presumed building detection image. 推定建物検出画像の一例を示す図である。It is a figure which shows an example of a presumed building detection image. 2時点における変化があったと推定される建物についてのチップ画像の例を示す図である。It is a figure which shows the example of the chip | tip image about the building estimated that there existed a change in two time points. 推定に用いられる学習済の機械学習モデルの一例を示す図である。It is a figure which shows an example of the learned machine learning model used for estimation. 学習データを用いた学習が実行される際の機械学習モデルの一例を示す図である。It is a figure which shows an example of the machine learning model at the time of learning using learning data being performed. 本発明の一実施形態に係る家屋異動推定装置の機能の一例を示す機能ブロック図である。It is a functional block diagram showing an example of a function of a house change estimating device concerning one embodiment of the present invention. 本発明の一実施形態に係る機械学習モデルの学習処理の流れの一例を示すフロー図である。It is a flow figure showing an example of a flow of study processing of a machine learning model concerning one embodiment of the present invention. 本発明の一実施形態に係る機械学習モデルの学習処理の流れの一例を示すフロー図である。It is a flow figure showing an example of a flow of study processing of a machine learning model concerning one embodiment of the present invention. 本発明の一実施形態に係る家屋異動推定装置で行われる推定処理の流れの一例を示すフロー図である。It is a flow figure showing an example of the flow of presumption processing performed with the house change estimation device concerning one embodiment of the present invention. 本発明の一実施形態に係る家屋異動推定装置で行われる推定処理の流れの一例を示すフロー図である。It is a flow figure showing an example of the flow of presumption processing performed with the house change estimation device concerning one embodiment of the present invention. 推定チップ画像の一例を示す図である。It is a figure which shows an example of a presumed chip | tip image. 機械学習モデルの一例を示す図である。It is a figure which shows an example of a machine learning model. 機械学習モデルの一例を示す図である。It is a figure which shows an example of a machine learning model. 機械学習モデルの一例を示す図である。It is a figure which shows an example of a machine learning model. 機械学習モデルの一例を示す図である。It is a figure which shows an example of a machine learning model.

以下、本発明の一実施形態について図面に基づき詳細に説明する。   Hereinafter, an embodiment of the present invention will be described in detail based on the drawings.

図1は、本発明の一実施形態に係る家屋異動推定装置10の構成図である。本実施形態に係る家屋異動推定装置10は、パーソナルコンピュータなどのコンピュータである。図1に示すように家屋異動推定装置10は、例えば、プロセッサ12、記憶部14、表示部16、操作部18を含んでいる。   FIG. 1 is a block diagram of a house change estimation apparatus 10 according to an embodiment of the present invention. The house change estimation device 10 according to the present embodiment is a computer such as a personal computer. As shown in FIG. 1, the house change estimation device 10 includes, for example, a processor 12, a storage unit 14, a display unit 16, and an operation unit 18.

プロセッサ12は、例えば家屋異動推定装置10にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。   The processor 12 is a program control device such as a CPU that operates according to a program installed in the house change estimation device 10, for example.

記憶部14は、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部14には、プロセッサ12によって実行されるプログラムなどが記憶される。   The storage unit 14 is a storage element such as a ROM or a RAM, a hard disk drive, or the like. The storage unit 14 stores programs executed by the processor 12 and the like.

表示部16は、液晶ディスプレイ等の表示デバイスであって、プロセッサ12の指示に従って各種の画像を表示する。   The display unit 16 is a display device such as a liquid crystal display, and displays various images according to an instruction of the processor 12.

操作部18は、キーボードやマウスなどといったユーザインタフェースであって、ユーザの操作入力を受け付けて、その内容を示す信号をプロセッサ12に出力する。   The operation unit 18 is a user interface such as a keyboard and a mouse, and receives a user's operation input and outputs a signal indicating the content to the processor 12.

なお、家屋異動推定装置10は、ネットワークボードなどの通信インタフェース、DVD−ROMやBlu−ray(登録商標)ディスクなどの光ディスクを読み取る光ディスクドライブ、USB(Universal Serial Bus)ポートなどを含んでいてもよい。   The house change estimation device 10 may include a communication interface such as a network board, an optical disk drive for reading an optical disk such as a DVD-ROM or Blu-ray (registered trademark) disk, a USB (Universal Serial Bus) port, etc. .

本実施形態に係る家屋異動推定装置10では、異なる時点に撮影された一対の土地の画像に基づいて、例えば新築、滅失、建替などといった家屋異動が推定される。図2Aは、第1の時点に撮影された画像である推定ターゲット画像20aの一例を模式的に示す図である。図2Bは、第1の時点よりも後である第2の時点に撮影された画像である推定ターゲット画像20bの一例を模式的に示す図である。本実施形態では例えば、推定ターゲット画像20aと推定ターゲット画像20bとに基づいて、推定ターゲット画像20aが撮影された時点と推定ターゲット画像20bが撮影された時点との間での家屋異動が推定される。なお推定ターゲット画像20a及び推定ターゲット画像20bは航空機により撮影された航空機画像である必要はなく、人工衛星によって撮影された衛星画像であっても構わない。   In the house change estimation device 10 according to the present embodiment, a house change such as new construction, loss, rebuilding, etc. is estimated based on the images of a pair of lands photographed at different points in time. FIG. 2A is a view schematically showing an example of an estimated target image 20a which is an image captured at a first time point. FIG. 2B is a view schematically showing an example of an estimated target image 20b which is an image captured at a second time point after the first time point. In the present embodiment, for example, based on the estimated target image 20a and the estimated target image 20b, house change is estimated between the time when the estimated target image 20a is photographed and the time when the estimated target image 20b is photographed. . The estimated target image 20a and the estimated target image 20b do not have to be an aircraft image captured by an aircraft, and may be satellite images captured by artificial satellites.

図3は、異なる時点に撮影された一対の画像に基づいて推定される家屋異動が表現された推定結果画面22の一例を示す図である。本実施形態では例えば推定ターゲット画像20a及び推定ターゲット画像20bを選択する操作に応じて、図3に例示する推定結果画面22が表示部16に表示される。   FIG. 3 is a diagram showing an example of an estimation result screen 22 expressing house changes estimated based on a pair of images captured at different points in time. In the present embodiment, for example, the estimation result screen 22 illustrated in FIG. 3 is displayed on the display unit 16 according to an operation of selecting the estimated target image 20 a and the estimated target image 20 b.

図3に示す推定結果画面22には、新築、滅失、建替などといった、家屋異動に対応付けられる家屋異動対応画像24が重畳された推定ターゲット画像20bが配置されている。図3の例では、新築と推定された建物を囲む実線の画像が家屋異動対応画像24aとして示されている。また図3の例では、滅失と推定された建物(図3には図示されない)を囲む点線の画像が家屋異動対応画像24bとして示されている。また図3の例では、建替と推定された建物を囲む一点鎖線の画像が家屋異動対応画像24cとして示されている。   On the estimation result screen 22 shown in FIG. 3, an estimated target image 20b on which a house change corresponding image 24 associated with a house change, such as new construction, loss, rebuilding, etc., is superimposed is arranged. In the example of FIG. 3, an image of a solid line surrounding a building estimated to be a new building is shown as a house change corresponding image 24 a. Moreover, in the example of FIG. 3, the image of the dotted line surrounding the building (not shown in FIG. 3) estimated to be lost is shown as the house change corresponding | compatible image 24b. Moreover, in the example of FIG. 3, the image of the dashed-dotted line surrounding the building estimated to be rebuilding is shown as a house change corresponding | compatible image 24c.

このようにして本実施形態では家屋異動の推定結果をユーザが目視できる。   Thus, in the present embodiment, the user can view the estimation result of house change.

家屋異動の推定において、本実施形態では例えば、まず、公知の手法によって推定ターゲット画像20a及び推定ターゲット画像20bに示されている建物の位置及び形状が検出される。図4Aは、図2Aに示す推定ターゲット画像20aに示されている建物の位置及び形状の検出結果の一例である推定建物検出画像26aを示す図である。図4Bは、図2Bに示す推定ターゲット画像20bに示されている建物の位置及び形状の検出結果の一例である推定建物検出画像26bを示す図である。図4Aに示す推定建物検出画像26a及び図4Bに示す推定建物検出画像26bでは、検出された建物の位置及び形状が、白色で表現されたポリゴンによって示されている。   In the estimation of a house change, in the present embodiment, for example, first, the position and the shape of a building shown in the estimated target image 20a and the estimated target image 20b are detected by a known method. FIG. 4A is a view showing an estimated building detection image 26a which is an example of the detection result of the position and shape of the building shown in the estimated target image 20a shown in FIG. 2A. FIG. 4B is a view showing an estimated building detection image 26b which is an example of the detection result of the position and shape of the building shown in the estimated target image 20b shown in FIG. 2B. In the estimated building detection image 26a shown in FIG. 4A and the estimated building detection image 26b shown in FIG. 4B, the position and shape of the detected building are indicated by polygons expressed in white.

本実施形態では推定ターゲット画像20a及び推定ターゲット画像20bによって同じ場所が示されていることとする。例えば、推定ターゲット画像20a内のある座標値の画素と推定ターゲット画像20b内の当該座標値の画素は、同じ場所を示す画素として互いに対応付けられることとする。また本実施形態では、推定ターゲット画像20a内や推定ターゲット画像20b内のある座標値の画素は、推定建物検出画像26a内や推定建物検出画像26b内の当該座標値の画素とも、同じ場所を示す画素として互いに対応付けられることとする。なお推定ターゲット画像20aと推定ターゲット画像20bとが厳密に同じ場所を示している必要はない。推定ターゲット画像20a内のある座標値の画素と推定ターゲット画像20b内の当該座標値の画素とが、厳密に同じ場所を示していなくてもよい。   In the present embodiment, it is assumed that the same place is indicated by the estimated target image 20a and the estimated target image 20b. For example, a pixel of a coordinate value in the estimated target image 20a and a pixel of the coordinate value in the estimated target image 20b are associated with each other as pixels indicating the same place. Further, in the present embodiment, the pixel of a certain coordinate value in the estimated target image 20a or in the estimated target image 20b indicates the same place in the pixel of the coordinate value in the estimated building detection image 26a or in the estimated building detection image 26b. It is assumed that they correspond to each other as pixels. The estimated target image 20a and the estimated target image 20b do not have to indicate exactly the same place. The pixel of a certain coordinate value in the estimated target image 20a and the pixel of the corresponding coordinate value in the estimated target image 20b may not indicate exactly the same place.

そして図4Aに示す推定建物検出画像26a及び図4Bに示す推定建物検出画像26bに示されている複数のポリゴンのそれぞれについて、当該ポリゴン内の所定の位置が特定される。ここでは例えば、推定建物検出画像26aに示されているすべてのポリゴン及び推定建物検出画像26bに示されているすべてのポリゴンについて、当該ポリゴンの中心の位置が特定されることとする。   Then, for each of the plurality of polygons shown in the estimated building detection image 26a shown in FIG. 4A and the estimated building detection image 26b shown in FIG. 4B, a predetermined position in the polygon is specified. Here, for example, for all polygons shown in the estimated building detection image 26a and all polygons shown in the estimated building detection image 26b, the position of the center of the polygon is specified.

そして、特定される位置を中心とする所定の縦横の長さの推定チップ画像28が生成される。ここで例えば図5に示すように、特定される複数の位置のそれぞれについて、当該位置を中心とする矩形領域を占める推定チップ画像28が、推定ターゲット画像20a、推定ターゲット画像20b、及び、推定建物検出画像26bのそれぞれから抽出されてもよい。この場合は、特定される1つの位置に基づいて、3つの推定チップ画像28が生成されることとなる。例えば、推定ターゲット画像20aから推定チップ画像28aが抽出され、推定ターゲット画像20bから推定チップ画像28bが抽出され、推定建物検出画像26bから推定チップ画像28cが抽出される。   Then, an estimated chip image 28 of predetermined vertical and horizontal lengths centering on the specified position is generated. Here, for example, as shown in FIG. 5, for each of a plurality of specified positions, an estimated chip image 28 occupying a rectangular area centered on the positions is an estimated target image 20 a, an estimated target image 20 b, and an estimated building It may be extracted from each of the detection images 26b. In this case, three estimated chip images 28 will be generated based on one position to be identified. For example, the estimated chip image 28a is extracted from the estimated target image 20a, the estimated chip image 28b is extracted from the estimated target image 20b, and the estimated chip image 28c is extracted from the estimated building detection image 26b.

図5には、本実施形態において、家屋異動があったと推定される建物についての推定チップ画像28の例が示されている。図5の上段には、新築と推定される建物に対応付けられる3つの推定チップ画像28が示されている。これらの3つの推定チップ画像28は、推定建物検出画像26bに示されているポリゴンの中心の位置に基づいて生成されるものである。図5の中段には、滅失と推定される建物に対応付けられる3つの推定チップ画像28が示されている。これらの3つの推定チップ画像28は、推定建物検出画像26aに示されているポリゴンの中心の位置に基づいて生成される。図5の下段には、建替と推定される建物に対応付けられる3個の推定チップ画像28が示されている。これらの3個の推定チップ画像28は、推定建物検出画像26bに示されているポリゴンの中心の位置に基づいて生成される。   FIG. 5 shows an example of an estimated chip image 28 of a building estimated to have a house change in the present embodiment. The upper part of FIG. 5 shows three estimated chip images 28 associated with a building estimated to be a new building. These three estimated chip images 28 are generated based on the position of the center of the polygon shown in the estimated building detection image 26b. In the middle part of FIG. 5, three estimated chip images 28 associated with the buildings estimated to be lost are shown. These three estimated chip images 28 are generated based on the position of the center of the polygon shown in the estimated building detection image 26a. In the lower part of FIG. 5, three estimated chip images 28 associated with a building estimated to be a rebuild are shown. These three estimated chip images 28 are generated based on the position of the center of the polygon shown in the estimated building detection image 26b.

そして本実施形態では例えば、生成された推定チップ画像28を図6に例示する学習済の機械学習モデル30に入力した結果に基づいて、家屋異動の推定結果が特定される。   And in this embodiment, the presumed result of house change is specified based on the result of having inputted the generated presumed chip picture 28 into the learned machine learning model 30 illustrated in Drawing 6, for example.

図6に示す機械学習モデル30には、加工部32と変化識別器34とが含まれている。加工部32には、上述の推定チップ画像28に相当するオリジナル推定入力データが入力される。そして加工部32は、当該オリジナル推定入力データを加工することで加工推定入力データを生成する。変化識別器34は、加工部32が生成する加工推定入力データの入力に応じて、家屋異動の推定結果を出力する。   The machine learning model 30 shown in FIG. 6 includes a processing unit 32 and a change discriminator 34. The original estimated input data corresponding to the estimated chip image 28 described above is input to the processing unit 32. Then, the processing unit 32 generates processed estimated input data by processing the original estimated input data. The change discriminator 34 outputs the estimation result of the house change according to the input of the processing estimation input data generated by the processing unit 32.

本実施形態に係る加工部32は、機械学習モデルとして実装されている。本実施形態に係る加工部32には、2つの有無特徴抽出器32a(32aa及び32ab)と、1つの変化特徴抽出器32bとが含まれている。なお図6に示す機械学習モデルには、後述する機械学習モデル30の学習では用いられるが家屋異動の推定には用いられない2つの有無識別器32c(32ca及び32cb)が破線で示されている。本実施形態では、2つの有無特徴抽出器32aに、重み等のパラメータの値として同じ値が設定される。また本実施形態では、2つの有無識別器32cに、重み等のパラメータの値として同じ値が設定される。   The processing unit 32 according to the present embodiment is implemented as a machine learning model. The processing unit 32 according to the present embodiment includes two presence feature extractors 32a (32aa and 32ab) and one variation feature extractor 32b. In the machine learning model shown in FIG. 6, two presence / absence identification devices 32c (32ca and 32cb) which are used for learning of the machine learning model 30 described later but not used for estimation of house change are shown by broken lines. . In the present embodiment, the same values are set as values of parameters such as weights in the two presence / absence feature extractors 32a. Further, in the present embodiment, the same value is set in the two presence / absence identification devices 32c as the value of the parameter such as weight.

本実施形態では例えば、有無特徴抽出器32aと有無識別器32cとが全体として畳み込みニューラルネットワーク(CNN)として実装される。そして有無特徴抽出器32aは、例えばCNNにおける畳み込み層及びプーリング層に相当し、有無識別器32cは、例えばCNNにおける全結合層に相当する。   In the present embodiment, for example, the presence feature extractor 32a and the presence identifier 32c are implemented as a convolutional neural network (CNN) as a whole. The presence / absence feature extractor 32a corresponds to, for example, a convolution layer and a pooling layer in CNN, and the presence / absence identifier 32c corresponds to, for example, a total combined layer in CNN.

また本実施形態では例えば、変化特徴抽出器32bと変化識別器34とが全体としてCNNとして実装される。そして変化特徴抽出器32bは、例えばCNNにおける畳み込み層及びプーリング層に相当し、変化識別器34は、例えばCNNにおける全結合層に相当する。   Further, in the present embodiment, for example, the change feature extractor 32 b and the change discriminator 34 are implemented as a CNN as a whole. The variation feature extractor 32b corresponds to, for example, the convolution layer and the pooling layer in CNN, and the variation discriminator 34 corresponds to, for example, the total combination layer in CNN.

本実施形態では例えば、推定建物検出画像26a又は推定建物検出画像26bに示されている1つのポリゴンの位置に基づいて生成される3個の推定チップ画像28が、オリジナル推定入力データとして機械学習モデル30に入力される。   In the present embodiment, for example, three estimated chip images 28 generated based on the position of one polygon shown in the estimated building detection image 26 a or the estimated building detection image 26 b are machine learning models as original estimated input data. It is input to 30.

例えば、推定チップ画像28aが入力40として有無特徴抽出器32aaに入力される。すると有無特徴抽出器32aaは当該入力に応じて、推定チップ画像28aの中心に建物が示されているか否かを示す特徴情報を出力42として出力する。   For example, the estimated chip image 28a is input to the presence / absence feature extractor 32aa as the input 40. Then, in response to the input, the presence / absence feature extractor 32aa outputs, as an output 42, feature information indicating whether a building is shown at the center of the estimated chip image 28a.

また推定チップ画像28bが入力44として有無特徴抽出器32abに入力される。すると有無特徴抽出器32abは当該入力に応じて、推定チップ画像28bの中心に建物が示されているか否かを示す特徴情報を出力46として出力する。   Further, the estimated chip image 28 b is input as the input 44 to the presence / absence feature extractor 32 ab. Then, according to the input, the presence / absence feature extractor 32ab outputs, as an output 46, feature information indicating whether a building is shown at the center of the estimated chip image 28b.

また入力40として入力される推定チップ画像28aと、入力44として入力される推定チップ画像28bと、入力48として入力される推定チップ画像28cを結合したデータ(多チャンネル画像)が生成される。図6には、推定チップ画像28aの結合が矢印A1として、推定チップ画像28bの結合が矢印A2として、推定チップ画像28cの結合が矢印A3として示されている。そして結合されたデータ(多チャンネル画像)が入力50として変化特徴抽出器32bに入力される。すると変化特徴抽出器32bは当該入力に応じて、推定チップ画像28aと推定チップ画像28bとの違いを示す特徴情報を出力52として出力する。   Further, data (multi-channel image) is generated by combining the estimated chip image 28 a input as the input 40, the estimated chip image 28 b input as the input 44, and the estimated chip image 28 c input as the input 48. In FIG. 6, the combination of estimated chip images 28a is shown as arrow A1, the combination of estimated chip images 28b is shown as arrow A2, and the combination of estimated chip images 28c is shown as arrow A3. The combined data (multi-channel image) is then input as the input 50 to the variation feature extractor 32b. Then, the variation feature extractor 32b outputs, as an output 52, feature information indicating the difference between the estimated chip image 28a and the estimated chip image 28b according to the input.

例えばCNNの中間層の出力である、縦横の画素数がそれぞれLである512個の画像(マップ)から構成される特徴マップが上述の特徴情報に相当する。なお当該特徴マップに含まれる画像の数(マップ数)は512に限定されない。   For example, a feature map composed of 512 images (maps) in which the number of vertical and horizontal pixels is L, which is the output of the CNN intermediate layer, corresponds to the above-described feature information. The number of images (the number of maps) included in the feature map is not limited to 512.

そして出力42として出力される特徴情報、出力46として出力される特徴情報、及び、出力52として出力される特徴情報を結合したデータが生成される。図6には、出力42として出力される特徴情報の結合が矢印A4として、出力46として出力される特徴情報の結合が矢印A5として、出力52として出力される特徴情報の結合が矢印A6として示されている。例えばこの結合されたデータが上述の加工推定入力データに相当する。例えば出力42として出力される特徴情報、出力46として出力される特徴情報、出力52として出力される特徴情報が、それぞれマップ数が512である特徴マップである場合は、加工推定入力データはマップ数が1536である特徴マップとなる。   Then, data combining the feature information output as the output 42, the feature information output as the output 46, and the feature information output as the output 52 is generated. In FIG. 6, the combination of feature information output as output 42 is shown as arrow A4, the combination of feature information output as output 46 is shown as arrow A5, and the combination of feature information output as output 52 is shown as arrow A6. It is done. For example, this combined data corresponds to the above-mentioned processing estimation input data. For example, if the feature information output as the output 42, the feature information output as the output 46, and the feature information output as the output 52 are feature maps each having 512 maps, the processing estimation input data is the number of maps The feature map is 1536.

そしてこのようにして生成される加工推定入力データが入力54として変化識別器34に入力される。すると変化識別器34は、推定チップ画像28aの中心と推定チップ画像28bの中心との間における家屋異動を示す推定結果データを出力56として出力する。   Then, the processing estimation input data generated in this manner is input to the change discriminator 34 as the input 54. Then, the change discriminator 34 outputs, as an output 56, estimation result data indicating a house change between the center of the estimated chip image 28a and the center of the estimated chip image 28b.

当該推定結果データは、例えば、新築、滅失、建替、変化なしなどといった、家屋異動の種類のそれぞれについての確率を示すデータであってもよい。この場合、最大値をとる確率に対応付けられる家屋異動の種類が、推定チップ画像28aの中心と推定チップ画像28bの中心との間における家屋異動の推定結果として特定されてもよい。また当該推定結果データは、例えば、新築、滅失、建替、変化なしなどといった、家屋異動の種類に対応付けられる多値のうちのいずれかの値をとるデータであってもよい。この場合、当該推定結果データが示す値が、推定チップ画像28aの中心と推定チップ画像28bの中心との間における家屋異動の推定結果として特定されてもよい。   The said estimation result data may be data which show the probability about each of the kind of house change, such as new construction, loss, rebuilding, no change, etc., for example. In this case, the type of house change associated with the probability of taking the maximum value may be specified as an estimation result of a house change between the center of the estimated chip image 28a and the center of the estimated chip image 28b. Further, the estimation result data may be, for example, data taking any value among multiple values associated with the type of house change, such as new construction, loss, rebuilding, no change, and the like. In this case, the value indicated by the estimation result data may be specified as an estimation result of house movement between the center of the estimated chip image 28a and the center of the estimated chip image 28b.

本実施形態では例えば、推定建物検出画像26a、及び、推定建物検出画像26bに示されているそれぞれのポリゴンについて、当該ポリゴンの中心の位置に基づいて生成される3個の推定チップ画像28を用いた家屋異動の推定が実行される。そして当該推定の結果に基づいて、推定結果画面22が生成され、表示部16に表示される。   In this embodiment, for example, for each polygon shown in the estimated building detection image 26a and the estimated building detection image 26b, three estimated chip images 28 generated based on the position of the center of the polygon are used. Estimates of house changes were made. Then, based on the result of the estimation, the estimation result screen 22 is generated and displayed on the display unit 16.

以下、図7を参照しながら機械学習モデル30の学習について説明する。   Hereinafter, learning of the machine learning model 30 will be described with reference to FIG.

本実施形態では例えば、オリジナル学習入力データとオリジナル教師データとを含むオリジナル学習データを用いた教師あり学習によって、機械学習モデル30の学習が実行される。また本実施形態における機械学習モデル30の学習では、加工部32がオリジナル学習入力データを加工することで加工学習入力データを生成する。そして加工部32が生成する加工学習入力データと、オリジナル教師データの少なくとも一部である加工教師データと、を含む加工学習データを用いた教師あり学習によって、変化識別器34の学習が実行される。変化識別器34は機械学習モデル30の一部であるが、変化識別器34自体も機械学習モデルであるので、上述のように加工学習データを用いた教師あり学習によって、機械学習モデル30の学習の一部として変化識別器34の学習が実行されることとなる。   In the present embodiment, for example, learning of the machine learning model 30 is performed by supervised learning using original learning data including original learning input data and original teacher data. Further, in the learning of the machine learning model 30 in the present embodiment, the processing unit 32 generates processing learning input data by processing the original learning input data. Then, the learning of the change discriminator 34 is executed by supervised learning using the process learning data including the process learning input data generated by the process unit 32 and the process teacher data which is at least a part of the original teacher data. . Although the change discriminator 34 is a part of the machine learning model 30, since the change discriminator 34 itself is also a machine learning model, learning of the machine learning model 30 is performed by supervised learning using processing learning data as described above. The learning of the change discriminator 34 is performed as a part of.

オリジナル学習入力データには、例えば、異なる時点に撮影された一対の土地の学習画像、及び、いずれかの学習画像に示されている建物の位置及び形状を示す学習建物検出画像が含まれている。以下、一対の学習画像のそれぞれを第1学習画像、第2学習画像と呼ぶこととする。ここで学習建物検出画像は、例えば、推定建物検出画像26と同様の、学習画像に示されている建物の位置及び形状の検出結果に基づいて生成される画像であってもよい。   The original learning input data includes, for example, a learning image of a pair of lands photographed at different points in time, and a learning building detection image indicating the position and shape of a building shown in any of the learning images. . Hereinafter, each of the pair of learning images is referred to as a first learning image and a second learning image. Here, the learning building detection image may be, for example, an image generated based on the detection result of the position and shape of the building shown in the learning image, similar to the estimated building detection image 26.

オリジナル教師データには、例えば、学習画像の中心に建物が示されているか否かを示す有無データ、及び、第1学習画像の中心と第2学習画像の中心との間における家屋異動を示す変化データが含まれている。以下、第1学習画像の中心に建物が示されているか否かを示す有無データを第1有無データと呼び、第2学習画像の中心に建物が示されているか否かを示す有無データを第2有無データと呼ぶこととする。   In the original teacher data, for example, presence / absence data indicating whether a building is shown at the center of the learning image, and a change indicating a house change between the center of the first learning image and the center of the second learning image Data is included. Hereinafter, presence / absence data indicating whether a building is indicated at the center of the first learning image is referred to as first presence / absence data, and presence / absence data indicating whether a building is indicated at the center of the second learning image is We call it 2 presence data.

有無データは例えば、中心に建物が示されている場合は値として1をとり、中心に建物が示されていない場合は値として0をとる二値データである。変化データは、例えば、新築、滅失、建替、変化なしなどといった、家屋異動の種類に対応付けられる多値のうちのいずれかの値をとるデータである。   The presence / absence data is, for example, binary data which takes 1 as a value when a building is shown at the center, and takes 0 as a value when a building is not shown at the center. The change data is, for example, data taking any value of multiple values associated with the type of house change, such as new construction, loss, rebuilding, no change, and the like.

機械学習モデル30の学習においては、例えば、オリジナル学習入力データに含まれる第1学習画像が入力40として有無特徴抽出器32aaに入力される。また、当該オリジナル学習入力データに含まれる第2学習画像が入力44として有無特徴抽出器32abに入力される。   In learning of the machine learning model 30, for example, the first learning image included in the original learning input data is input as the input 40 to the presence / absence feature extractor 32aa. Further, the second learning image included in the original learning input data is input as the input 44 to the presence / absence feature extractor 32ab.

また入力40及び入力44として入力される、オリジナル学習入力データに含まれる学習画像と、入力48として入力される、当該オリジナル学習入力データに含まれる学習建物検出画像と、を結合したデータ(多チャンネル画像)が生成される。図7には、第1学習画像の結合が矢印A7として、第2学習画像の結合が矢印A8として、学習建物検出画像の結合が矢印A9として示されている。そして結合されたデータ(多チャンネル画像)が入力50として変化特徴抽出器32bに入力される。   Also, data obtained by combining the learning image included in the original learning input data input as the input 40 and the input 44 and the learning building detection image included in the original learning input data input as the input 48 (multichannel Image) is generated. In FIG. 7, the combination of the first learning images is shown as arrow A7, the combination of the second learning images is shown as arrow A8, and the combination of the learning building detection images is shown as arrow A9. The combined data (multi-channel image) is then input as the input 50 to the variation feature extractor 32b.

そして有無特徴抽出器32aaの出力42は有無識別器32caに入力され、有無特徴抽出器32abの出力46は有無識別器32cbに入力される。   The output 42 of the presence feature extractor 32aa is input to the presence identifier 32ca, and the output 46 of the presence feature extractor 32ab is input to the presence identifier 32cb.

また有無特徴抽出器32aaの出力42と、有無特徴抽出器32abの出力46と、変化特徴抽出器32bの出力52と、を結合したデータが生成される。図7には、有無特徴抽出器32aaの出力42の結合が矢印A10として、有無特徴抽出器32abの出力46の結合が矢印A11として、変化特徴抽出器32bの出力52の結合が矢印A12として示されている。例えばこの結合されたデータが上述の加工学習入力データに相当する。   Also, data is generated by combining the output 42 of the presence / absence feature extractor 32 aa, the output 46 of the presence / absence feature extractor 32 ab, and the output 52 of the variation feature extractor 32 b. In FIG. 7, the combination of the output 42 of the presence / absence feature extractor 32aa is shown as arrow A10, the combination of the output 46 of the presence / absence feature extractor 32ab is shown as arrow A11, and the combination of the output 52 of the variation feature extractor 32b is shown as arrow A12. It is done. For example, this combined data corresponds to the above-mentioned processing learning input data.

そしてこのようにして生成される加工学習入力データが、入力54として変化識別器34に入力される。   Then, the process learning input data generated in this manner is input to the change discriminator 34 as the input 54.

そして本実施形態では例えば、有無識別器32caの出力58が、機械学習モデル30に入力された学習入力データに対応付けられる教師データに含まれる第1有無データの値と比較される。そして誤差逆伝播法(バックプロパゲーション)などにより、比較結果(例えば誤差)に基づいて、有無特徴抽出器32aa及び有無識別器32caの重み等のパラメータの値が変更される。   Then, in the present embodiment, for example, the output 58 of the presence / absence identifier 32 ca is compared with the value of the first presence / absence data included in the teacher data associated with the learning input data input to the machine learning model 30. Then, values of parameters such as weights of the presence / absence feature extractor 32aa and the presence / absence identification device 32ca are changed based on a comparison result (for example, an error) by an error back propagation method (back propagation).

また本実施形態では例えば、有無識別器32cbの出力60が、機械学習モデル30に入力された学習入力データに対応付けられる教師データに含まれる第2有無データの値と比較される。そして誤差逆伝播法(バックプロパゲーション)などにより、比較結果(例えば誤差)に基づいて、有無特徴抽出器32ab及び有無識別器32cbの重み等のパラメータの値が変更される。   Further, in the present embodiment, for example, the output 60 of the presence / absence identifier 32cb is compared with the value of the second presence / absence data included in the teacher data associated with the learning input data input to the machine learning model 30. Then, values of parameters such as weights of the presence / absence feature extractor 32ab and the presence / absence identification device 32cb are changed based on a comparison result (for example, an error) by an error back propagation method (back propagation).

また本実施形態では有無特徴抽出器32aaのパラメータの値と有無特徴抽出器32abのパラメータの値が同じになるよう、一方のパラメータの値の変更に連動して他方のパラメータの値も更新される。また本実施形態では有無識別器32caのパラメータの値と有無識別器32cbのパラメータの値が同じになるよう、一方のパラメータの値の変更に連動して他方のパラメータの値も更新される。   Further, in the present embodiment, the value of the other parameter is also updated in conjunction with the change of the value of one of the parameters so that the value of the parameter of the presence / absence feature extractor 32aa and the value of the parameter of the presence / absence feature extractor 32ab become the same. . Further, in the present embodiment, the value of the other parameter is also updated in conjunction with the change of the value of one of the parameters so that the value of the parameter of the presence / absence identifier 32ca and the value of the parameter of the presence / absence identifier 32cb become the same.

また本実施形態では例えば、変化識別器34の出力56が、機械学習モデル30に入力されたオリジナル学習入力データに対応付けられるオリジナル教師データに含まれる加工教師データの値(例えば変化データの値)と比較される。そして誤差逆伝播法(バックプロパゲーション)などにより、比較結果(例えば誤差)に基づいて、変化特徴抽出器32b及び変化識別器34の重み等のパラメータの値が変更される。また本実施形態では、誤差逆伝播法(バックプロパゲーション)などにより、当該比較結果(誤差)に基づいて、有無特徴抽出器32aaのパラメータの値及び有無特徴抽出器32abのパラメータの値も変更されるようになっている。   Further, in the present embodiment, for example, the value (for example, the value of change data) of the processed teacher data included in the original teacher data associated with the original learning input data input to the machine learning model 30 by the output 56 of the change discriminator 34 Compared with. Then, values of parameters such as the weight of the change feature extractor 32 b and the change discriminator 34 are changed based on a comparison result (for example, an error) by an error back propagation method (back propagation) or the like. Further, in the present embodiment, the values of the parameters of the presence / absence feature extractor 32aa and the values of the parameters of the presence / absence feature extractor 32ab are also changed based on the comparison result (error) by an error back propagation method (back propagation). It has become so.

本実施形態では例えば、複数の学習データを機械学習モデル30に学習させる学習処理が実行される。そしてこのような学習処理が実行された学習済の機械学習モデル30を用いて家屋異動の推定が実行される。   In the present embodiment, for example, a learning process of causing the machine learning model 30 to learn a plurality of learning data is executed. Then, estimation of a house change is performed using the learned machine learning model 30 in which such a learning process is performed.

本実施形態では変化識別器34に入力される加工推定入力データには、異なる時点に撮影された一対の土地の画像の違いに対応付けられる特徴情報だけでなく、少なくとも一方の画像内における所定の位置(例えば中心)に建物が示されているか否かも示されている。例えば図6の矢印A4〜A6に示すように、推定チップ画像28aと推定チップ画像28bとの違いを示す特徴情報に、推定チップ画像28aや推定チップ画像28bの中心に建物が示されているか否かを示す特徴情報が結合された加工推定入力データが生成される。そしてこのようにして建物が示されているか否かに関する情報について補強された、多くの次元数(マップ数)の加工推定入力データに基づいて家屋異動の推定が実行される。そのため本実施形態によれば、土地の画像に基づく家屋異動の推定精度が向上することとなる。   In the present embodiment, the processing estimation input data input to the change discriminator 34 includes not only feature information associated with the difference between the pair of land images captured at different points in time, but also predetermined ones in at least one of the images. It is also shown whether the building is shown at a position (e.g. center). For example, as indicated by arrows A4 to A6 in FIG. 6, whether or not a building is shown at the center of the estimated chip image 28a or the estimated chip image 28b in the feature information indicating the difference between the estimated chip image 28a and the estimated chip image 28b Process estimation input data is generated in which feature information indicating. Then, estimation of house movement is performed based on the processing estimation input data of many dimensions (number of maps), which is reinforced in this way as to whether or not a building is shown. Therefore, according to this embodiment, the estimation accuracy of the house change based on the image of the land is improved.

以下、本実施形態に係る家屋異動推定装置10の機能並びに本実施形態に係る家屋異動推定装置10で実行される処理についてさらに説明する。   Hereinafter, the function of the house change estimation device 10 according to the present embodiment and the process performed by the house change estimation device 10 according to the present embodiment will be further described.

図8は、本実施形態に係る家屋異動推定装置10で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係る家屋異動推定装置10で、図8に示す機能のすべてが実装される必要はなく、また、図8に示す機能以外の機能が実装されていても構わない。   FIG. 8 is a functional block diagram showing an example of functions implemented by the house change estimation device 10 according to the present embodiment. In addition, in the house change estimation apparatus 10 which concerns on this embodiment, all the functions shown in FIG. 8 do not need to be mounted, and functions other than the function shown in FIG. 8 may be mounted.

図8に示すように、本実施形態に係る家屋異動推定装置10には、機能的には例えば、機械学習モデル30、学習データ取得部70、学習処理実行部72、推定対象データ取得部74、推定処理実行部76、推定結果特定部78、画面生成部80、表示制御部82、が含まれる。そして機械学習モデル30には、加工部32と、変化識別器34と、が含まれる。また加工部32には、有無特徴抽出器32a、変化特徴抽出器32b、有無識別器32cが含まれる。機械学習モデル30は、プロセッサ12及び記憶部14を主として実装される。学習データ取得部70、学習処理実行部72、推定対象データ取得部74、推定処理実行部76、推定結果特定部78、画面生成部80は、プロセッサ12を主として実装される。表示制御部82は、プロセッサ12及び表示部16を主として実装される。   As shown in FIG. 8, the house change estimation apparatus 10 according to the present embodiment functionally includes, for example, a machine learning model 30, a learning data acquisition unit 70, a learning process execution unit 72, and an estimation target data acquisition unit 74. An estimation process execution unit 76, an estimation result identification unit 78, a screen generation unit 80, and a display control unit 82 are included. The machine learning model 30 includes a processing unit 32 and a change discriminator 34. The processing unit 32 further includes a presence feature extractor 32a, a change feature extractor 32b, and a presence identifier 32c. The machine learning model 30 is implemented mainly by the processor 12 and the storage unit 14. The learning data acquisition unit 70, the learning process execution unit 72, the estimation target data acquisition unit 74, the estimation process execution unit 76, the estimation result identification unit 78, and the screen generation unit 80 are mainly implemented with the processor 12. The display control unit 82 mainly includes the processor 12 and the display unit 16.

機械学習モデル30、学習データ取得部70、学習処理実行部72は、例えば、機械学習モデル30の学習処理を実行する家屋異動学習装置としての役割を担っている。機械学習モデル30、推定対象データ取得部74、推定処理実行部76、推定結果特定部78、画面生成部80、表示制御部82は、例えば、家屋異動を推定する家屋異動推定装置としての役割を担っている。   The machine learning model 30, the learning data acquisition unit 70, and the learning process execution unit 72 play a role as, for example, a house change learning device that executes a learning process of the machine learning model 30. The machine learning model 30, the estimation target data acquisition unit 74, the estimation process execution unit 76, the estimation result specification unit 78, the screen generation unit 80, and the display control unit 82 have, for example, a role as a house movement estimation device for estimating house movement. I am responsible.

以上の機能は、コンピュータである家屋異動推定装置10にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ12で実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介して家屋異動推定装置10に供給されてもよい。   The above functions may be implemented by causing the processor 12 to execute a program including a command corresponding to the above functions installed in the house change estimation device 10 that is a computer. For example, this program may be supplied to the house movement estimation apparatus 10 via a computer readable information storage medium such as an optical disk, a magnetic disk, a magnetic tape, a magneto-optical disk, a flash memory, or the Internet. Good.

加工部32は、本実施形態では例えば、学習においては、上述のオリジナル学習入力データに基づいて、加工学習入力データを生成し、推定においては、上述のオリジナル推定入力データに基づいて、加工推定入力データを生成する。   In the embodiment, the processing unit 32 generates, for example, processing learning input data based on the above-described original learning input data in learning, and processing estimation input based on the above-described original estimation input data in estimation Generate data.

加工部32に含まれる有無特徴抽出器32aは、本実施形態では例えば、土地の画像の入力に応じて当該画像内における所定の位置に建物が示されているか否かを示す特徴情報を出力する。ここで例えば、有無特徴抽出器32aは、画像の入力に応じて当該画像の中心に建物が示されているか否かを示す特徴情報を出力してもよい。また有無特徴抽出器32aは、上述のように、有無特徴抽出器32aaと有無特徴抽出器32abとを含んでいてもよい。   In the present embodiment, for example, the presence / absence feature extractor 32a included in the processing unit 32 outputs feature information indicating whether a building is indicated at a predetermined position in the image according to the input of the image of the land. . Here, for example, the presence / absence feature extractor 32a may output feature information indicating whether a building is shown at the center of the image according to the input of the image. Also, as described above, the presence / absence feature extractor 32a may include the presence / absence feature extractor 32aa and the presence / absence feature extractor 32ab.

加工部32に含まれる変化特徴抽出器32bには、本実施形態では例えば、異なる時点に撮影された一対の土地の画像、及び、少なくとも一方の当該画像についての当該画像内の所定の位置に建物が示されているか否かを示す画像が入力される。そして変化特徴抽出器32bは、本実施形態では例えば、当該入力に応じて、一対の土地の画像の違いを示す特徴情報を出力する。   In the variation feature extractor 32 b included in the processing unit 32, in the present embodiment, for example, an image of a pair of lands captured at different time points, and a building at a predetermined position in the image of at least one of the images An image is input indicating whether or not is indicated. Then, in the present embodiment, for example, the change feature extractor 32b outputs feature information indicating the difference between the pair of land images according to the input.

加工部32に含まれる有無識別器32cは、本実施形態では例えば、画像内における所定の位置(例えば中心)に建物が示されているか否かを学習する機械学習モデルである。有無識別器32cは、上述のように、有無識別器32caと有無識別器32cbとを含んでいてもよい。   In the present embodiment, for example, the presence / absence identifier 32c included in the processing unit 32 is a machine learning model that learns whether or not a building is shown at a predetermined position (for example, the center) in an image. As described above, the presence or absence identifier 32c may include the presence or absence identifier 32ca and the presence or absence identifier 32cb.

有無識別器32cには、例えば、学習画像内の所定の位置に建物が示されているか否かを示す特徴情報が入力される。上述の例では、有無特徴抽出器32aが出力する特徴情報が有無識別器32cに入力される。   For example, feature information indicating whether or not a building is shown at a predetermined position in the learning image is input to the presence / absence identifier 32c. In the above-described example, the feature information output from the presence / absence feature extractor 32a is input to the presence / absence identifier 32c.

有無識別器32cの学習に用いられる教師データは、例えば、学習画像内の所定の位置に建物が示されているか否かを示すデータである。例えば上述の有無データが、有無識別器32cの学習に用いられる教師データに相当する。   The teacher data used for the learning of the presence / absence discriminator 32c is, for example, data indicating whether or not a building is indicated at a predetermined position in the learning image. For example, the presence / absence data described above corresponds to teacher data used for learning of the presence / absence identifier 32c.

変化識別器34は、本実施形態では例えば、家屋異動の種類を学習する機械学習モデルである。変化識別器34には、上述の加工学習入力データが入力される。加工学習入力データは、例えば、異なる時点に撮影された一対の学習画像の違い、及び、少なくとも一方の学習画像についての当該学習画像内における所定の位置に建物が示されているか否かを示すデータである。上述の例では、有無特徴抽出器32aが出力する特徴情報と変化特徴抽出器32bが出力する特徴情報とを結合したデータが加工学習入力データに相当する。   The change discriminator 34 is, for example, a machine learning model that learns the type of house change in the present embodiment. The aforementioned change learning input data is input to the change discriminator 34. The process learning input data indicates, for example, the difference between a pair of learning images captured at different points in time, and data indicating whether a building is indicated at a predetermined position in the learning image for at least one of the learning images. It is. In the above-described example, data obtained by combining the feature information output from the presence / absence feature extractor 32a and the feature information output from the variation feature extractor 32b corresponds to processing learning input data.

また変化識別器34の学習に用いられる教師データである加工教師データは、例えば、一方の学習画像内における所定の位置と他方の学習画像内における当該所定の位置に対応付けられる位置との間における家屋異動を示すデータである。ここで加工教師データが、一方の学習画像内における中心と他方の学習画像内における中心との間における家屋異動を示すデータであってもよい。上述の例では、例えば、新築、滅失、建替、変化なしなどといった、家屋異動の種類に対応付けられる多値のうちのいずれかの値をとる変化データが、加工教師データに相当する。   In addition, for example, processing teacher data which is teacher data used for learning of the change discriminator 34 is between a predetermined position in one learning image and a position associated with the predetermined position in the other learning image. It is data showing house change. Here, the processing teacher data may be data indicating a house change between the center in one learning image and the center in the other learning image. In the above-mentioned example, for example, change data taking any value of multiple values associated with the type of house change, such as new construction, loss, rebuilding, no change, etc. corresponds to processing teacher data.

学習データ取得部70は、本実施形態では例えば、機械学習モデル30に入力されるオリジナル学習入力データとオリジナル教師データとの組合せを含むオリジナル学習データを取得する。   The learning data acquisition unit 70 acquires, for example, original learning data including a combination of original learning input data and original teacher data input to the machine learning model 30 in the present embodiment.

オリジナル学習入力データは、異なる時点に撮影された一対の学習画像の違い、及び、少なくとも一方の学習画像についての当該学習画像内における所定の位置(例えば中心)に建物が示されているか否かを示すデータを含んでいてもよい。上述の例では、第1学習画像、第2学習画像、及び、学習建物検出画像の組合せがオリジナル学習入力データに相当する。   The original learning input data is the difference between a pair of learning images taken at different points in time, and whether or not a building is indicated at a predetermined position (for example, the center) in the learning image for at least one of the learning images. It may include the data shown. In the above-mentioned example, the combination of the first learning image, the second learning image, and the learning building detection image corresponds to the original learning input data.

またオリジナル教師データは、一方の学習画像内における所定の位置と他方の学習画像内における当該所定の位置に対応付けられる位置との間における家屋異動を示すデータを含んでいてもよい。ここでオリジナル教師データが、一方の学習画像内における中心と他方の学習画像内における中心との間における家屋異動を示すデータであってもよい。上述の例では、第1有無データ、第2有無データ、及び、変化データの組合せがオリジナル教師データに相当する。   The original teacher data may also include data indicating house change between a predetermined position in one learning image and a position associated with the predetermined position in the other learning image. Here, the original teacher data may be data indicating a house change between the center in one learning image and the center in the other learning image. In the above-described example, the combination of the first presence data, the second presence data, and the change data corresponds to the original teacher data.

学習処理実行部72は、本実施形態では例えば、学習データ取得部70が取得する複数のオリジナル学習データを有無特徴抽出器32a、変化特徴抽出器32b、変化識別器34、及び、有無識別器32cを含む機械学習モデル30に学習させる。ここで上述のように学習処理実行部72が、加工学習入力データを変化識別器34に入力した際の出力と、加工教師データの値との比較結果に基づいて、有無特徴抽出器32a、変化特徴抽出器32b、及び、変化識別器34の学習を実行してもよい。   In the present embodiment, for example, the learning process execution unit 72 has a plurality of original learning data acquired by the learning data acquisition unit 70 as the presence / absence feature extractor 32a, the change feature extractor 32b, the change identifier 34, and the presence / absence identifier 32c. The learning is performed by the machine learning model 30 including. Here, as described above, the presence / absence feature extractor 32a changes, based on the comparison result of the output when the learning process execution unit 72 inputs the processing learning input data to the change discriminator 34, and the value of the processing teacher data. The learning of the feature extractor 32 b and the change discriminator 34 may be performed.

推定対象データ取得部74は、本実施形態では例えば、家屋異動の推定対象となるデータを取得する。ここで例えば、推定ターゲット画像20a及び推定ターゲット画像20bが取得されてもよい。   In the present embodiment, the estimation target data acquisition unit 74 acquires, for example, data to be estimated for house change. Here, for example, the estimated target image 20a and the estimated target image 20b may be acquired.

推定処理実行部76は、本実施形態では例えば、家屋異動を推定する処理を実行する。この推定する処理において、推定処理実行部76は、異なる時点に撮影された一対の推定画像の違い、及び、少なくとも一方の推定画像内における所定の位置に建物が示されているか否かを示す加工推定入力データを変化識別器34に入力してもよい。ここで当該推定画像には、例えば上述の例における推定チップ画像28が相当する。そして推定処理実行部76が、変化識別器34に加工推定入力データを入力した際の出力に基づいて、一方の推定画像内における所定の位置と他方の推定画像内における当該所定の位置に対応付けられる位置との間における家屋異動を推定してもよい。   The estimation process execution unit 76 executes, for example, a process of estimating a house change in the present embodiment. In this estimation process, the estimation process execution unit 76 indicates whether the difference between a pair of estimated images captured at different points in time and whether a building is shown at a predetermined position in at least one of the estimated images. The estimated input data may be input to the change discriminator 34. Here, for example, the estimated chip image 28 in the above-described example corresponds to the estimated image. Then, based on the output when the processing estimation input data is input to the change discriminator 34, the estimation processing execution unit 76 associates the predetermined position in one estimated image with the predetermined position in the other estimated image. It is possible to estimate the house change between the location where the

また推定処理実行部76は、一対の推定画像を有無特徴抽出器32aに入力した際の出力である特徴情報を特定してもよい。そして推定処理実行部76は、特定される当該特徴情報を含む加工推定入力データを変化識別器34に入力してもよい。   The estimation process execution unit 76 may also specify feature information that is an output when a pair of estimated images is input to the presence / absence feature extractor 32a. Then, the estimation process execution unit 76 may input, to the change discriminator 34, the processing estimation input data including the specified feature information.

また推定処理実行部76は、一対の推定画像、及び、少なくとも一方の推定画像について当該推定画像内における所定の位置に建物が示されているか否かを示す画像を変化特徴抽出器32bに入力した際の出力である特徴情報を特定してもよい。ここで推定画像内における所定の位置に建物が示されているか否かを示す画像は、例えば上述の推定チップ画像28cのような、推定画像内の所定の位置に示されている建物の形状を示す画像であってもよい。そして推定処理実行部76は、特定される当該特徴情報を含む加工推定入力データを変化識別器34に入力してもよい。   Further, the estimation process execution unit 76 inputs, to the change feature extractor 32b, a pair of estimated images and an image indicating whether or not a building is shown at a predetermined position in the estimated image of at least one of the estimated images. Feature information that is an output of the event may be identified. Here, an image showing whether a building is shown at a predetermined position in the estimated image is, for example, a shape of the building shown at a predetermined position in the estimated image, such as the above-described estimated chip image 28c. It may be an image shown. Then, the estimation process execution unit 76 may input, to the change discriminator 34, the processing estimation input data including the specified feature information.

また推定処理実行部76は、上述のように、有無特徴抽出器32aの出力である特徴情報と変化特徴抽出器32bの出力である特徴情報とを結合してもよい。そして推定処理実行部76は、結合された特徴情報を含む加工推定入力データを変化識別器34に入力してもよい。   Further, as described above, the estimation process execution unit 76 may combine the feature information that is the output of the presence / absence feature extractor 32a with the feature information that is the output of the variation feature extractor 32b. Then, the estimation processing execution unit 76 may input the processing estimation input data including the combined feature information to the change discriminator 34.

また例えば推定処理実行部76が、推定建物検出画像26の生成や、推定チップ画像28の生成を行ってもよい。そして、推定チップ画像28が機械学習モデル30に入力された際の出力に基づいて、当該推定チップ画像28に示されている家屋異動が推定されてもよい。   Further, for example, the estimation process execution unit 76 may generate the estimated building detection image 26 or generate the estimated chip image 28. Then, based on the output when the estimated chip image 28 is input to the machine learning model 30, the house change shown in the estimated chip image 28 may be estimated.

推定結果特定部78は、本実施形態では例えば、推定処理実行部76による推定処理の実行結果を特定する。ここで例えば、推定ターゲット画像20a又は推定ターゲット画像20bに示されている建物のそれぞれについての家屋異動の種類(例えば、新築、滅失、建替、又は、変化なし)が特定されてもよい。   In the present embodiment, for example, the estimation result specifying unit 78 specifies the execution result of the estimation process by the estimation process execution unit 76. Here, for example, the type of house change (for example, new construction, loss, rebuilding, or no change) for each of the buildings shown in the estimated target image 20a or the estimated target image 20b may be identified.

画面生成部80は、本実施形態では例えば、推定結果特定部78が特定する推定処理の実行結果に基づいて、図3に例示する推定結果画面22のような、推定される家屋異動を表す情報が配置された画面を生成する。   In the present embodiment, the screen generation unit 80 is, for example, information indicating an estimated house change such as the estimation result screen 22 illustrated in FIG. 3 based on the execution result of the estimation process specified by the estimation result identification unit 78. To create a screen where is placed.

表示制御部82は、本実施形態では例えば、画面生成部80が生成する推定結果画面22等の画面を表示部16に表示させる。   In the present embodiment, the display control unit 82 causes the display unit 16 to display a screen such as the estimation result screen 22 generated by the screen generation unit 80, for example.

以下、本実施形態に係る家屋異動推定装置10において行われる、機械学習モデル30の学習処理の流れの一例を、図9A及び図9Bに例示するフロー図を参照しながら説明する。   Hereinafter, an example of the flow of the learning process of the machine learning model 30 performed in the house change estimation apparatus 10 according to the present embodiment will be described with reference to the flow diagrams illustrated in FIGS. 9A and 9B.

まず、学習データ取得部70が、複数のオリジナル学習データを取得する(S101)。当該オリジナル学習データには、オリジナル学習入力データと、オリジナル教師データと、が含まれている。   First, the learning data acquisition unit 70 acquires a plurality of original learning data (S101). The original learning data includes original learning input data and original teacher data.

そして学習処理実行部72が、S101に示す処理で取得されたオリジナル学習データのうちから、以下の処理がまだ実行されていないものを1つ選択する(S102)。   Then, the learning process execution unit 72 selects one of the original learning data acquired in the process shown in S101 for which the following process has not been performed yet (S102).

そして学習処理実行部72が、S102に示す処理で選択されたオリジナル学習データのオリジナル学習入力データに含まれる第1学習画像を有無特徴抽出器32aaに入力する(S103)。   Then, the learning process execution unit 72 inputs the first learning image included in the original learning input data of the original learning data selected in the process shown in S102 to the presence / absence feature extractor 32aa (S103).

そして学習処理実行部72は、S103に示す処理における入力に応じて有無特徴抽出器32aaが出力する特徴情報を特定する(S104)。   Then, the learning process execution unit 72 specifies the feature information output by the presence / absence feature extractor 32aa according to the input in the process shown in S103 (S104).

そして学習処理実行部72が、S102に示す処理で選択されたオリジナル学習データのオリジナル学習入力データに含まれる第2学習画像を有無特徴抽出器32abに入力する(S105)。   Then, the learning process execution unit 72 inputs the second learning image included in the original learning input data of the original learning data selected in the process shown in S102 to the presence / absence feature extractor 32ab (S105).

そして学習処理実行部72は、S105に示す処理における入力に応じて有無特徴抽出器32abが出力する特徴情報を特定する(S106)。   Then, the learning process execution unit 72 specifies the feature information output by the presence / absence feature extractor 32ab according to the input in the process shown in S105 (S106).

そして学習処理実行部72が、S102に示す処理で選択されたオリジナル学習データのオリジナル学習入力データに含まれる第1学習画像及び第2学習画像と、学習建物検出画像と、を結合したデータである多チャンネル画像を生成する(S107)。   The learning process execution unit 72 is data obtained by combining the first learning image and the second learning image included in the original learning input data of the original learning data selected in the process shown in S102 and the learning building detection image. A multi-channel image is generated (S107).

そして学習処理実行部72が、S107に示す処理で生成された多チャンネル画像を変化特徴抽出器32bに入力する(S108)。   Then, the learning process execution unit 72 inputs the multi-channel image generated in the process shown in S107 to the variation feature extractor 32b (S108).

そして学習処理実行部72は、S108に示す処理における入力に応じて変化特徴抽出器32bが出力する特徴情報を特定する(S109)。   Then, the learning process execution unit 72 specifies the feature information output from the change feature extractor 32b according to the input in the process shown in S108 (S109).

そして学習処理実行部72は、S104に示す処理で特定された特徴情報を有無識別器32caに入力する(S110)。   Then, the learning process execution unit 72 inputs the feature information identified in the process shown in S104 to the presence / absence identification device 32ca (S110).

そして学習処理実行部72は、S110に示す処理における入力に応じた有無識別器32caの出力を特定する(S111)。   Then, the learning process execution unit 72 specifies the output of the presence / absence identification device 32ca according to the input in the process shown in S110 (S111).

そして学習処理実行部72は、S111に示す処理で特定された出力とオリジナル学習データのオリジナル教師データに含まれる第1有無データの値とを比較する(S112)。   Then, the learning process execution unit 72 compares the output specified in the process shown in S111 with the value of the first presence / absence data included in the original teacher data of the original learning data (S112).

そして学習処理実行部72は、S112に示す処理における比較結果である誤差に基づいて、有無特徴抽出器32aa、有無特徴抽出器32ab、有無識別器32ca、及び、有無識別器32cbのパラメータの値を変更する(S113)。   Then, the learning process execution unit 72 determines the values of the parameters of the presence / absence feature extractor 32 aa, the presence / absence feature extractor 32 ab, the presence / absence identification device 32 ca, and the presence / absence identification device 32 cb based on the error that is the comparison result in the processing shown in S112. Change (S113).

そして学習処理実行部72は、S106に示す処理で特定された特徴情報を有無識別器32cbに入力する(S114)。   Then, the learning process execution unit 72 inputs the feature information identified in the process shown in S106 to the presence / absence identification device 32cb (S114).

そして学習処理実行部72は、S114に示す処理における入力に応じた有無識別器32cbの出力を特定する(S115)。   Then, the learning process execution unit 72 specifies the output of the presence / absence identifier 32cb according to the input in the process shown in S114 (S115).

そして学習処理実行部72は、S115に示す処理で特定された出力とオリジナル学習データのオリジナル教師データに含まれる第2有無データの値とを比較する(S116)。   Then, the learning process execution unit 72 compares the output specified in the process shown in S115 with the value of the second presence / absence data included in the original teacher data of the original learning data (S116).

そして学習処理実行部72は、S116に示す処理における比較結果である誤差に基づいて、有無特徴抽出器32aa、有無特徴抽出器32ab、有無識別器32ca、及び、有無識別器32cbのパラメータの値を変更する(S117)。   Then, the learning process execution unit 72 determines the values of the parameters of the presence / absence feature extractor 32 aa, the presence / absence feature extractor 32 ab, the presence / absence identification device 32 ca, and the presence / absence identification device 32 cb based on the error that is the comparison result in the processing shown in S116. Change (S117).

そして学習処理実行部72は、S104に示す処理で特定された特徴情報、S106に示す処理で特定された特徴情報、及び、S109に示す処理で特定された特徴情報、を結合した加工学習入力データを生成する(S118)。   Then, the learning process execution unit 72 combines the feature information identified in the process shown in S104, the feature information identified in the process shown in S106, and the feature information identified in the process shown in S109. Are generated (S118).

そして学習処理実行部72は、S118に示す処理で生成された加工学習入力データを変化識別器34に入力する(S119)。   Then, the learning process execution unit 72 inputs the process learning input data generated in the process shown in S118 to the change discriminator 34 (S119).

そして学習処理実行部72は、S119に示す処理における入力に応じた変化識別器34の出力を特定する(S120)。   Then, the learning process execution unit 72 identifies the output of the change discriminator 34 according to the input in the process shown in S119 (S120).

そして学習処理実行部72は、S120に示す処理で特定された出力と、加工教師データに相当する、オリジナル学習データのオリジナル教師データに含まれる変化データの値とを比較する(S121)。   Then, the learning process execution unit 72 compares the output specified in the process shown in S120 with the value of the change data included in the original teacher data of the original learning data, which corresponds to the processing teacher data (S121).

そして学習処理実行部72は、S121に示す処理における比較結果である誤差に基づいて、有無特徴抽出器32aa、有無特徴抽出器32ab、変化特徴抽出器32b、及び、変化識別器34のパラメータの値を変更する(S122)。   The learning process execution unit 72 then determines the values of the parameters of the presence / absence feature extractor 32 aa, the presence / absence feature extractor 32 ab, the change feature extractor 32 b, and the change discriminator 34 based on the error that is the comparison result in the process shown in S121. Is changed (S122).

そして学習処理実行部72は、S102に示す処理で未選択であるオリジナル学習データが存在するか否かを確認する(S123)。   Then, the learning process execution unit 72 checks whether or not the original learning data that is not selected in the process shown in S102 exists (S123).

ここで存在することが確認された場合は(S123:Y)、S102に示す処理に戻る。   If the existence is confirmed here (S123: Y), the process returns to the process shown in S102.

存在しないことが確認された場合は(S123:N)、本処理例に示す処理は終了される。   If it is confirmed that there is not (S123: N), the processing shown in this processing example is ended.

なおS101〜S123に示す処理の実行順序は上述のものに限定されず、上述に示す順序とは異なる実行順序でこれらの処理が実行されてもよい。   The execution order of the processes shown in S101 to S123 is not limited to the above-described one, and these processes may be performed in an execution order different from the order shown above.

以下、本実施形態に係る家屋異動推定装置10において行われる、家屋異動の推定処理の流れの一例を、図10A及び図10Bに例示するフロー図を参照しながら説明する。   Hereinafter, an example of a flow of a house change estimation process performed in the house change estimation apparatus 10 according to the present embodiment will be described with reference to flowcharts illustrated in FIGS. 10A and 10B.

まず、推定対象データ取得部74は、ユーザによって選択された推定ターゲット画像20a及び推定ターゲット画像20bを取得する(S201)。   First, the estimation target data acquisition unit 74 acquires the estimation target image 20a and the estimation target image 20b selected by the user (S201).

そして推定処理実行部76は、S201に示す処理で取得した推定ターゲット画像20aに基づいて、推定建物検出画像26aを生成し、S201に示す処理で取得した推定ターゲット画像20bに基づいて、推定建物検出画像26bを生成する(S202)。   Then, the estimation process execution unit 76 generates an estimated building detection image 26a based on the estimated target image 20a obtained in the process shown in S201, and detects an estimated building based on the estimated target image 20b obtained in the process shown in S201. An image 26b is generated (S202).

そして推定処理実行部76は、S202に示す処理で生成された推定建物検出画像26aに示されているすべてのポリゴン及び推定建物検出画像26bに示されているすべてのポリゴンについての当該ポリゴンの中心の位置を特定する(S203)。   The estimation process execution unit 76 then calculates the centers of the polygons for all polygons shown in the estimated building detection image 26a generated in the process shown in S202 and all polygons shown in the estimated building detection image 26b. The position is specified (S203).

そして推定処理実行部76は、S203に示す処理で特定された中心の位置のうち、S205〜S214に示す処理がまだ実行されていないものを1つ選択する(S204)。   Then, the estimation process execution unit 76 selects one of the positions of the centers specified in the process shown in S203 that has not yet been subjected to the processes shown in S205 to S214 (S204).

そして推定処理実行部76は、S204に示す処理で選択された位置に基づいて、推定チップ画像28a、推定チップ画像28b、及び、推定チップ画像28cを生成する(S205)。ここで推定チップ画像28aは例えば推定ターゲット画像20aの一部を抽出することで生成される。また推定チップ画像28bは例えば推定ターゲット画像20bの一部を抽出することで生成される。推定チップ画像28cは例えば推定建物検出画像26bの一部を抽出することで生成される。   Then, the estimation process execution unit 76 generates an estimation chip image 28a, an estimation chip image 28b, and an estimation chip image 28c based on the position selected in the process shown in S204 (S205). Here, the estimated chip image 28a is generated, for example, by extracting a part of the estimated target image 20a. The estimated chip image 28b is generated by, for example, extracting a part of the estimated target image 20b. The estimated chip image 28c is generated, for example, by extracting a part of the estimated building detection image 26b.

そして推定処理実行部76は、S205に示す処理で生成された推定チップ画像28aを有無特徴抽出器32aaに入力する(S206)。   Then, the estimation process execution unit 76 inputs the estimated chip image 28a generated in the process shown in S205 to the presence / absence feature extractor 32aa (S206).

そして推定処理実行部76は、S206に示す処理における入力に応じて有無特徴抽出器32aaが出力する特徴情報を特定する(S207)。   Then, the estimation process execution unit 76 specifies the feature information output by the presence / absence feature extractor 32aa according to the input in the process shown in S206 (S207).

そして推定処理実行部76は、S206に示す処理で生成された推定チップ画像28bを有無特徴抽出器32abに入力する(S208)。   Then, the estimation process execution unit 76 inputs the estimated chip image 28b generated in the process shown in S206 to the presence / absence feature extractor 32ab (S208).

そして推定処理実行部76は、S208に示す処理における入力に応じて有無特徴抽出器32abが出力する特徴情報を特定する(S209)。   Then, the estimation process execution unit 76 specifies the feature information output by the presence / absence feature extractor 32ab according to the input in the process shown in S208 (S209).

そして推定処理実行部76は、S205に示す処理で生成された推定チップ画像28a、推定チップ画像28b、及び、推定チップ画像28を結合したデータである多チャンネル画像を生成する(S210)。   Then, the estimation process execution unit 76 generates a multi-channel image which is data obtained by combining the estimation chip image 28a generated in the process shown in S205, the estimation chip image 28b, and the estimation chip image 28 (S210).

そして推定処理実行部76は、S210に示す処理で生成された多チャンネル画像を変化特徴抽出器32bに入力する(S211)。   Then, the estimation process execution unit 76 inputs the multi-channel image generated in the process shown in S210 to the variation feature extractor 32b (S211).

そして推定処理実行部76は、S211に示す処理における入力に応じて変化特徴抽出器32bが出力する特徴情報を特定する(S212)。   Then, the estimation process execution unit 76 specifies the feature information output from the variation feature extractor 32b according to the input in the process shown in S211 (S212).

そして推定処理実行部76は、S207に示す処理で特定された特徴情報、S209に示す処理で特定された特徴情報、及び、S212に示す処理で特定された特徴情報、を結合した加工推定入力データを生成する(S213)。   Then, the estimation process execution unit 76 combines the feature information identified in the process shown in S207, the feature information identified in the process shown in S209, and the feature information identified in the process shown in S212, and then the processing estimation input data Are generated (S213).

そして推定処理実行部76は、S213に示す処理で生成された加工推定入力データを変化識別器34に入力する(S214)。   Then, the estimation process execution unit 76 inputs the process estimation input data generated in the process shown in S213 to the change discriminator 34 (S214).

そして推定結果特定部78は、S214に示す処理における加工推定入力データの入力に応じた変化識別器34の出力を、S204に示す処理で特定された位置に対応付けられる推定結果データとして特定する(S215)。   Then, the estimation result specifying unit 78 specifies the output of the change discriminator 34 according to the input of the processing estimation input data in the process shown in S214 as estimation result data associated with the position specified in the process shown in S204 ( S215).

そして推定処理実行部76は、S204に示す処理で未選択である位置が存在するか否かを確認する(S216)。   Then, the estimation process execution unit 76 confirms whether or not there is a position that has not been selected in the process shown in S204 (S216).

ここで存在することが確認された場合は(S216:Y)、S204に示す処理に戻る。   If the existence is confirmed here (S216: Y), the process returns to the process shown in S204.

存在しないことが確認された場合は(S216:N)、画面生成部80が、S215に示す処理で特定された推定結果データに基づいて、推定結果画面22を生成する(S217)。S217に示す処理では、画面生成部80は、例えば、推定結果データに対応付けられる位置を中心とするポリゴンを囲む、当該推定結果データの値に応じた家屋異動対応画像24を描画してもよい。そして画面生成部80は、家屋異動対応画像24が重畳された推定ターゲット画像20bが配置された推定結果画面22を生成してもよい。   If it is confirmed that there is not (S216: N), the screen generation unit 80 generates the estimation result screen 22 based on the estimation result data specified in the process shown in S215 (S217). In the process shown in S217, the screen generation unit 80 may draw, for example, a house change-corresponding image 24 according to the value of the estimation result data, surrounding a polygon centered on the position associated with the estimation result data. . Then, the screen generation unit 80 may generate the estimation result screen 22 in which the estimated target image 20b on which the house change corresponding image 24 is superimposed is arranged.

そして表示制御部82が、S217に示す処理で生成された推定結果画面22を表示部16に表示させて(S218)、本処理例に示す処理は終了される。   Then, the display control unit 82 causes the display unit 16 to display the estimation result screen 22 generated in the process shown in S217 (S218), and the process shown in this process example is ended.

なおS201〜S218に示す処理の実行順序は上述のものに限定されず、上述に示す順序とは異なる実行順序でこれらの処理が実行されてもよい。   The execution order of the processes shown in S201 to S218 is not limited to the above, and these processes may be executed in an execution order different from the order shown above.

なお、本発明は上述の実施形態に限定されるものではない。   The present invention is not limited to the above-described embodiment.

例えばオリジナル学習入力データに、第1学習画像に示されている建物の位置及び形状を示す学習建物検出画像と第2学習画像に示されている建物の位置及び形状を示す学習建物検出画像の両方が含まれてもよい。そしてこれら2個の学習建物検出画像の両方が入力48として機械学習モデル30に入力されてもよい。この場合は推定において、推定建物検出画像26bから抽出される推定チップ画像28(推定チップ画像28c)だけでなく、推定建物検出画像26aから抽出される推定チップ画像28も入力48として機械学習モデル30に入力されることとなる。   For example, in the original learning input data, both a learning building detection image showing the position and shape of the building shown in the first learning image and a learning building detection image showing the position and shape of the building shown in the second learning image May be included. Then, both of these two learning building detection images may be input to the machine learning model 30 as the input 48. In this case, in the estimation, not only the estimated chip image 28 (estimated chip image 28 c) extracted from the estimated building detection image 26 b but also the estimated chip image 28 extracted from the estimated building detection image 26 a is input as the machine learning model 30. Will be input to

また例えば学習に用いられる学習建物検出画像として、中心に示されている建物のみについての位置及び形状を示す画像が用いられてもよい。また例えば推定において、推定チップ画像28cの代わりに、中心に示されている建物のみについての位置及び形状を示す図11に例示する推定チップ画像28dが用いられてもよい。図11に示す推定チップ画像28dは例えば中心に示されている建物以外の建物のポリゴンが推定チップ画像28cから削除されることにより生成される。   Further, for example, as a learning building detection image used for learning, an image indicating the position and shape of only the building shown at the center may be used. Also, for example, in estimation, instead of the estimated chip image 28c, an estimated chip image 28d illustrated in FIG. 11 may be used which shows the position and shape of only the building shown at the center. The estimated chip image 28d shown in FIG. 11 is generated, for example, by deleting polygons of buildings other than the building shown at the center from the estimated chip image 28c.

また例えば、機械学習モデル30の学習において、学習画像の代わりに、学習建物検出画像が、有無特徴抽出器32aに入力されてもよい。この場合、推定において、推定ターゲット画像20aから抽出される推定チップ画像28(推定チップ画像28a)の代わりに、推定建物検出画像26aから抽出される推定チップ画像28が入力40として有無特徴抽出器32aaに入力されることとなる。また推定ターゲット画像20bから抽出される推定チップ画像28(推定チップ画像28b)の代わりに、推定建物検出画像26bから抽出される推定チップ画像28(推定チップ画像28c)が入力44として有無特徴抽出器32abに入力されることとなる。   Also, for example, in learning of the machine learning model 30, a learning building detection image may be input to the presence / absence feature extractor 32a instead of the learning image. In this case, instead of the estimated chip image 28 (estimated chip image 28a) extracted from the estimated target image 20a in estimation, the estimated chip image 28 extracted from the estimated building detection image 26a is used as the input 40 as the presence / absence feature extractor 32aa Will be input to Also, instead of the estimated chip image 28 (estimated chip image 28b) extracted from the estimated target image 20b, the estimated chip image 28 (estimated chip image 28c) extracted from the estimated building detection image 26b is used as the input 44 as a presence / absence feature extractor It will be input to 32ab.

また例えば機械学習モデル30の学習において、全体教師データに含まれる二値データである有無データの代わりに、学習画像に基づいて生成される学習建物検出画像が用いられてもよい。   Also, for example, in learning of the machine learning model 30, a learning building detection image generated based on a learning image may be used instead of presence / absence data which is binary data included in the entire teacher data.

また例えば、学習において、一対の学習画像の代わりに一対の学習画像の差分を示す差分画像が用いられてもよい。この場合、推定において、推定チップ画像28a及び推定チップ画像28bの代わりに推定チップ画像28a及び推定チップ画像28bとの差分を示す差分画像が用いられてもよい。ここで差分画像に含まれるある座標値の画素の画素値として、例えば、第2学習画像に含まれる当該座標値の画素の画素値から第1学習画像に含まれる当該座標値の画素の画素値を引いた値が設定されてもよい。   Also, for example, in learning, a difference image indicating the difference between a pair of learning images may be used instead of the pair of learning images. In this case, in the estimation, instead of the estimated chip image 28a and the estimated chip image 28b, a difference image indicating the difference between the estimated chip image 28a and the estimated chip image 28b may be used. Here, for example, from the pixel value of the pixel of the coordinate value included in the second learning image as the pixel value of the pixel of the coordinate value included in the difference image, the pixel value of the pixel of the coordinate value included in the first learning image A value obtained by subtracting may be set.

また例えば、学習において、学習入力データに含まれる学習建物検出画像の代わりに、第1学習画像に基づいて生成される学習建物検出画像と第2学習画像に基づいて生成される学習建物検出画像との差分を示す差分画像が用いられてもよい。この場合、推定において、推定チップ画像28cの代わりに、推定建物検出画像26aから抽出される推定チップ画像28と推定建物検出画像26bから抽出される推定チップ画像28cとの差分を示す差分画像が用いられてもよい。   Also, for example, in learning, instead of the learning building detection image included in the learning input data, a learning building detection image generated based on the first learning image and a learning building detection image generated based on the second learning image A difference image may be used that indicates the difference between In this case, in the estimation, instead of the estimated chip image 28c, a difference image indicating the difference between the estimated chip image 28 extracted from the estimated building detection image 26a and the estimated chip image 28c extracted from the estimated building detection image 26b is used It may be done.

また例えば、図12に示すように、機械学習モデル30が有無特徴抽出器32aを含んでいなくてもよい。この場合、学習において、変化特徴抽出器32bの出力52が変化識別器34だけではなく、有無識別器32c(32ca及び32cb)に入力されてもよい。そして誤差逆伝播法(バックプロパゲーション)などにより、有無識別器32caの出力58と第1有無データとの比較結果(誤差)に基づいて、変化特徴抽出器32b及び有無識別器32caの重み等のパラメータの値が変更されてもよい。また誤差逆伝播法(バックプロパゲーション)などにより、有無識別器32cbの出力60と第2有無データとの比較結果(誤差)に基づいて、変化特徴抽出器32b及び有無識別器32cbの重み等のパラメータの値が変更されてもよい。   For example, as shown in FIG. 12, the machine learning model 30 may not include the presence / absence feature extractor 32a. In this case, in learning, the output 52 of the change feature extractor 32b may be input not only to the change identifier 34 but also to the presence / absence identifier 32c (32ca and 32cb). Then, based on a comparison result (error) between the output 58 of the presence / absence identifier 32ca and the first presence / absence data by an error back propagation method or the like, the weight of the change feature extractor 32b and the presence / absence identifier 32ca Parameter values may be changed. Further, based on a comparison result (error) between the output 60 of the presence / absence identifier 32cb and the second presence / absence data by an error back propagation method or the like, weights of the change feature extractor 32b and the presence / absence identifier 32cb, etc. Parameter values may be changed.

また例えば、図13に示すように、機械学習モデル30が有無特徴抽出器32a及び有無識別器32cを含んでいなくてもよい。この場合、学習及び推定において、第1学習画像内の所定の位置(例えば中心)に建物が示されているか否かを示す画像が入力84として入力されてもよい。また、第2学習画像内の所定の位置(例えば中心)に建物が示されているか否かを示す画像が入力86として入力されてもよい。入力84や入力86として入力される画像は、例えば、変化特徴抽出器32bの出力52である特徴マップと同じサイズの(例えば縦横の画素数がそれぞれLである)単色の画像であってもよい。ここで例えば、建物が示されている場合には白色の画像が、建物が示されていない場合は黒色の画像が、建物が示されているか否かを示す画像として用いられてもよい。そして有無特徴抽出器32aから出力される特徴情報の代わりに、入力84や入力86として入力される画像が、変化特徴抽出器32bの出力52と結合された上で、入力54として変化識別器34に入力されるようにしてもよい。ここで出力52として出力される特徴情報が、例えばマップ数が512である特徴マップである場合は、入力54として変化識別器34に入力されるデータは、マップ数が514である特徴マップとなる。   For example, as shown in FIG. 13, the machine learning model 30 may not include the presence / absence feature extractor 32a and the presence / absence identifier 32c. In this case, in learning and estimation, an image indicating whether or not a building is shown at a predetermined position (for example, the center) in the first learning image may be input as the input 84. Further, an image indicating whether a building is shown at a predetermined position (for example, the center) in the second learning image may be input as the input 86. The image input as the input 84 or the input 86 may be, for example, a monochrome image of the same size (for example, the number of vertical and horizontal pixels is L) as the feature map which is the output 52 of the variation feature extractor 32b. . Here, for example, a white image may be used when a building is shown, and a black image may be used as an image showing whether a building is shown if a building is not shown. Then, instead of the feature information output from the presence / absence feature extractor 32a, the image input as the input 84 or the input 86 is combined with the output 52 of the variation feature extractor 32b, and then the change discriminator 34 is input as the input 54. May be input. Here, if the feature information output as the output 52 is, for example, a feature map having 512 maps, the data input to the change discriminator 34 as the input 54 is a feature map having 514 maps. .

また例えば、図14に示すように、学習及び推定において、入力84や入力86として入力される画像も結合された多チャンネル画像が変化特徴抽出器32bに入力されるようにしてもよい。またこの場合、変化特徴抽出器32bの出力52がそのまま変化識別器34に入力されるようにしてもよい。   For example, as shown in FIG. 14, in learning and estimation, a multi-channel image combined with an image input as the input 84 and the input 86 may be input to the change feature extractor 32 b. In this case, the output 52 of the variation feature extractor 32b may be input to the variation discriminator 34 as it is.

また例えば、学習において、学習建物検出画像が変化特徴抽出器32bに入力されず、第1学習画像及び第2学習画像のみが変化特徴抽出器32bに入力されるようにしてもよい。またこの場合推定において、推定建物検出画像26から抽出される推定チップ画像28が変化特徴抽出器32bに入力されず、推定ターゲット画像20a、20bから抽出される推定チップ画像28のみが変化特徴抽出器32bに入力されるようにしてもよい。   For example, in learning, a learning building detection image may not be input to the change feature extractor 32b, and only the first learning image and the second learning image may be input to the change feature extractor 32b. Further, in this case, in the estimation, the estimated chip image 28 extracted from the estimated building detection image 26 is not input to the change feature extractor 32b, and only the estimated chip image 28 extracted from the estimated target images 20a and 20b is a change feature extractor It may be input to 32b.

また例えば、図15に示すように、機械学習モデル30が備える有無特徴抽出器32aが1つであってもよい。また、機械学習モデル30が備える有無識別器32cが1つであってもよい。この場合、学習においては、第1学習画像の有無特徴抽出器32aへの入力及び当該入力に応じた出力の特定と第2学習画像の有無特徴抽出器32aへの入力及び当該入力に応じた出力の特定が順次実行される。そして第1学習画像を有無特徴抽出器32aに入力した際の出力と、第2学習画像を有無特徴抽出器32aに入力した際の出力と、変化特徴抽出器32bの出力とを結合したデータが変化識別器34に入力されてもよい。この場合推定において、推定チップ画像28aの有無特徴抽出器32aへの入力及び当該入力に応じた出力の特定と推定チップ画像28bの有無特徴抽出器32aへの入力及び当該入力に応じた出力の特定が順次実行されてもよい。そして推定チップ画像28aを有無特徴抽出器32aに入力した際の出力と、推定チップ画像28bを有無特徴抽出器32aに入力した際の出力と、変化特徴抽出器32bの出力とを結合したデータが変化識別器34に入力されてもよい。   For example, as shown in FIG. 15, the machine learning model 30 may have only one presence / absence feature extractor 32a. Moreover, the machine learning model 30 may have only one presence / absence identifier 32c. In this case, in learning, the input to the presence / absence feature extractor 32a of the first learning image, the specification of the output according to the input, the input to the presence / absence feature extractor 32a of the second learning image, and the output according to the input The identification of is performed sequentially. The data obtained by combining the output when the first learning image is input to the presence / absence feature extractor 32a, the output when the second learning image is input to the presence / absence feature extractor 32a, and the output of the change feature extractor 32b are It may be input to the change discriminator 34. In this case, in the estimation, the input to the presence / absence feature extractor 32a of the estimated chip image 28a and the specification of the output according to the input, and the input to the presence / absence feature extractor 32a of the estimated chip image 28b and the specification of the output according to the input May be sequentially executed. Then, data obtained by combining the output when the estimated chip image 28a is input to the presence / absence feature extractor 32a, the output when the estimated chip image 28b is input to the presence / absence feature extractor 32a, and the output of the variation feature extractor 32b is It may be input to the change discriminator 34.

また例えば、機械学習モデル30に含まれるプーリング層の代わりに、Dilated Convolution層が用いられてもよい。こうすればプーリング層を用いた場合に発生する情報量の圧縮を廃した特徴抽出が可能となる。また機械学習モデル30に含まれる全結合層の代わりに、畳み込み層が用いられてもよい。こうすれば計算コストの低減や入力の画像サイズに非依存な機械学習モデル30が実現可能な場合がある。   Also, for example, a Dilated Convolution layer may be used instead of the pooling layer included in the machine learning model 30. This enables feature extraction without compression of the amount of information generated when the pooling layer is used. Also, instead of all the joint layers included in the machine learning model 30, a convolutional layer may be used. In this case, it may be possible to realize a machine learning model 30 which is independent of the reduction of calculation cost and the input image size.

また推定ターゲット画像20bが、第1の時点よりも前である第2の時点に撮影された画像であってもよい。この場合は、上述の例において新築と推定される建物は滅失と推定され、滅失と推定される建物は新築と推定されるようにする必要がある。   Further, the estimated target image 20b may be an image captured at a second time point before the first time point. In this case, it is necessary to make it possible to estimate that a building that is presumed to be a new building in the above example is a loss and a building that is assumed to be a loss is a new building.

また推定建物検出画像26a、26bの代わりに、建物の位置や輪郭が記載された画像が用いられてもよい。   Further, instead of the estimated building detection images 26a and 26b, an image in which the position and the outline of the building are described may be used.

また、上述の具体的な文字列や数値、並びに、図面中の具体的な文字列は例示であり、これらの文字列や数値には限定されない。   Further, the above-described specific character strings and numerical values, and the specific character strings in the drawings are merely examples, and the present invention is not limited to these character strings and numerical values.

10 家屋異動推定装置、12 プロセッサ、14 記憶部、16 表示部、18 操作部、20a,20b 推定ターゲット画像、22 推定結果画面、24,24a,24b,24c 家屋異動対応画像、26,26a,26b 推定建物検出画像、28,28a,28b,28c,28d 推定チップ画像、30 機械学習モデル、32 加工部、32a,32aa,32ab有無特徴抽出器、32b 変化特徴抽出器、32c,32ca,32cb 有無識別器、34 変化識別器、40,44,48,50,54,84,86 入力、42,46,52,56,58,60 出力、70 学習データ取得部、72 学習処理実行部、74 推定対象データ取得部、76 推定処理実行部、78 推定結果特定部、80 画面生成部、82 表示制御部。   DESCRIPTION OF SYMBOLS 10 house change estimation apparatus, 12 processors, 14 memory | storage parts, 16 display parts, 18 operation parts, 20a, 20b estimated target image, 22 estimated result screen, 24, 24a, 24b, 24c house change corresponding | compatible image 26, 26, 26a, 26b Estimated building detection image 28, 28a, 28b, 28c, 28d Estimated chip image, 30 machine learning model, 32 processing units, 32a, 32aa, 32ab presence feature extractor, 32b change feature extractor, 32c, 32ca, 32cb presence distinction , 34 change discriminators, 40, 44, 48, 50, 54, 84, 86 inputs, 42, 46, 52, 56, 58, 60 outputs, 70 learning data acquisition unit, 72 learning process execution unit, 74 estimation target Data acquisition unit, 76 estimation processing execution unit, 78 estimation result identification unit, 80 screen generation unit, 82 display control .

Claims (11)

異なる時点に撮影された一対の土地の学習画像の違い、及び、少なくとも一方の前記学習画像についての当該学習画像内における所定の位置に建物が示されているか否かを示す学習入力データと、一方の前記学習画像内における前記所定の位置と他方の前記学習画像内における前記所定の位置に対応付けられる位置との間における家屋異動を示す教師データと、を含む学習データを複数学習させた変化識別器と、
異なる時点に撮影された一対の土地の推定画像の違い、及び、少なくとも一方の前記推定画像内における所定の位置に建物が示されているか否かを示す推定入力データを前記変化識別器に入力する変化識別器入力手段と、
前記変化識別器に前記推定入力データを入力した際の出力に基づいて、一方の前記推定画像内における前記所定の位置と他方の前記推定画像内における前記所定の位置に対応付けられる位置との間における家屋異動を推定する家屋異動推定手段と、
を含むことを特徴とする家屋異動推定装置。
Learning input data indicating a difference between learning images of a pair of lands photographed at different points in time, and whether or not a building is indicated at a predetermined position in the learning image for at least one of the learning images; Change identification in which learning data including a plurality of teacher data indicating house change between the predetermined position in the learning image and the position corresponding to the predetermined position in the other learning image is learned And the
Estimated input data indicating differences between estimated images of a pair of lands taken at different times and whether a building is shown at a predetermined position in at least one of the estimated images is input to the change discriminator Change discriminator input means,
Between the predetermined position in one of the estimated images and the position associated with the predetermined position in the other estimated image, based on the output when the estimated input data is input to the change discriminator House change estimation means for estimating house changes in
House movement estimation device characterized by including.
土地の画像の入力に応じて当該画像内における所定の位置に建物が示されているか否かを示す特徴情報を出力する有無特徴抽出器と、
前記一対の推定画像を前記有無特徴抽出器に入力した際の出力である特徴情報を特定する有無特徴情報特定手段と、をさらに含み、
前記変化識別器入力手段は、前記有無特徴情報特定手段が特定する特徴情報を含む前記推定入力データを前記変化識別器に入力する、
ことを特徴とする請求項1に記載の家屋異動推定装置。
A presence / absence feature extractor that outputs feature information indicating whether a building is shown at a predetermined position in the image according to an input of the image of the land;
Further including presence / absence feature information specifying means for specifying feature information which is an output when the pair of estimated images is input to the presence / absence feature extractor;
The change discriminator input means inputs the estimated input data including the feature information specified by the presence / absence feature information specifying means to the change discriminator.
The house change estimation device according to claim 1, characterized in that:
異なる時点に撮影された一対の土地の画像、及び、少なくとも一方の前記画像についての当該画像内の所定の位置に建物が示されているか否かを示す画像の入力に応じて、前記一対の土地の画像の違いを示す特徴情報を出力する変化特徴抽出器と、
前記一対の推定画像、及び、少なくとも一方の前記推定画像について当該推定画像内における所定の位置に建物が示されているか否かを示す画像を前記変化特徴抽出器に入力した際の出力である特徴情報を特定する変化特徴情報特定手段と、をさらに含み、
前記変化識別器入力手段は、前記変化特徴情報特定手段が特定する特徴情報を含む前記推定入力データを前記変化識別器に入力する、
ことを特徴とする請求項1又は2に記載の家屋異動推定装置。
The pair of lands is input according to an image of a pair of lands taken at different points in time and an image indicating whether a building is shown at a predetermined position in the image for at least one of the images. A change feature extractor that outputs feature information indicating differences in images of
A feature that is an output when the pair of estimated images and an image indicating whether or not a building is shown at a predetermined position in the estimated image of at least one of the estimated images is input to the change feature extractor A change feature information identification means for identifying information;
The change discriminator input means inputs the estimated input data including the feature information specified by the change feature information specifying means to the change discriminator.
The house change estimation device according to claim 1 or 2, characterized in that
前記変化特徴抽出器は、異なる時点に撮影された一対の土地の画像、及び、少なくとも一方の前記画像についての当該画像内の所定の位置に示されている建物の形状を示す画像の入力に応じて、前記一対の土地の画像の違いを示す特徴情報を出力し、
前記変化特徴情報特定手段は、前記一対の推定画像、及び、少なくとも一方の前記推定画像についての当該推定画像内の前記所定の位置に示されている建物の形状を示す画像を前記変化特徴抽出器に入力した際の出力である特徴情報を特定する、
ことを特徴とする請求項3に記載の家屋異動推定装置。
The variation feature extractor is responsive to input of an image of a pair of lands taken at different points in time and an image showing a shape of a building shown at a predetermined position in the image of at least one of the images. Output feature information indicating the difference between the pair of land images,
The change feature information specifying means may be an image showing the shape of a building shown at the predetermined position in the estimated image of the pair of estimated images and the estimated image of the at least one of the estimated images. Identify the feature information that is the output when input to
The house change estimation device according to claim 3, wherein
土地の画像の入力に応じて当該画像内における所定の位置に建物が示されているか否かを示す特徴情報を出力する有無特徴抽出器と、
前記一対の推定画像を前記有無特徴抽出器に入力した際の出力である特徴情報を特定する有無特徴情報特定手段と、
異なる時点に撮影された一対の土地の画像、及び、少なくとも一方の前記画像についての当該画像内の所定の位置に建物が示されているか否かを示す画像の入力に応じて、前記一対の土地の画像の違いを示す特徴情報を出力する変化特徴抽出器と、
前記一対の推定画像、及び、少なくとも一方の前記推定画像についての当該推定画像内における所定の位置に建物が示されているか否かを示す画像を前記変化特徴抽出器に入力した際の出力である特徴情報を特定する変化特徴情報特定手段と、
前記有無特徴情報特定手段が特定する特徴情報と前記変化特徴情報特定手段が特定する特徴情報とを結合する結合手段と、をさらに含み、
前記変化識別器入力手段は、前記結合手段により結合された特徴情報を含む前記推定入力データを前記変化識別器に入力する、
ことを特徴とする請求項1に記載の家屋異動推定装置。
A presence / absence feature extractor that outputs feature information indicating whether a building is shown at a predetermined position in the image according to an input of the image of the land;
Presence / absence feature information specifying means for specifying feature information which is an output when the pair of estimated images is input to the presence / absence feature extractor;
The pair of lands is input according to an image of a pair of lands taken at different points in time and an image indicating whether a building is shown at a predetermined position in the image for at least one of the images. A change feature extractor that outputs feature information indicating differences in images of
It is an output at the time of inputting into the change feature extractor an image indicating whether the building is indicated at a predetermined position in the estimated image of the pair of estimated images and at least one of the estimated images. Variation feature information specifying means for specifying feature information;
The information processing apparatus further includes combining means for combining the feature information specified by the presence / absence feature information specifying means with the feature information specified by the change feature information specifying means.
The change discriminator input means inputs the estimated input data including the feature information combined by the combining means to the change discriminator.
The house change estimation device according to claim 1, characterized in that:
前記家屋異動推定手段が推定する家屋異動を表す情報が配置された画面を生成する画面生成手段と、
前記画面生成手段が生成する画面が表示されるよう制御する表示制御手段と、をさらに含む、
ことを特徴とする請求項1から5のいずれか一項に記載の家屋異動推定装置。
Screen generation means for generating a screen on which information representing house changes estimated by the house change estimation means is arranged;
And a display control unit configured to control to display a screen generated by the screen generation unit.
The house movement estimation apparatus according to any one of claims 1 to 5, characterized in that:
異なる時点に撮影された一対の土地の学習画像の違い、及び、少なくとも一方の前記学習画像についての当該学習画像内における所定の位置に建物が示されているか否かを示す学習入力データを変化識別器に入力する入力手段と、
前記変化識別器に前記学習入力データを入力した際の出力と、一方の前記学習画像内における前記所定の位置と他方の前記学習画像内における前記所定の位置に対応付けられる位置との間における家屋異動を示す教師データと、を比較する比較手段と、
前記比較の結果に基づいて、前記変化識別器のパラメータを変更するパラメータ変更手段と、
を含むことを特徴とする家屋異動学習装置。
Change identification of learning input data indicating differences between learning images of a pair of lands taken at different times and whether or not a building is shown at a predetermined position in at least one of the learning images. Input means for input to the
A house between the output when the learning input data is input to the change discriminator and the position corresponding to the predetermined position in the other learning image in the one learning image A comparison means for comparing teacher data indicating a transfer;
Parameter changing means for changing the parameter of the change discriminator based on the result of the comparison;
House change learning device characterized by including.
異なる時点に撮影された一対の土地の学習画像の違い、及び、少なくとも一方の前記学習画像についての当該学習画像内における所定の位置に建物が示されているか否かを示す学習入力データと、一方の前記学習画像内における前記所定の位置と他方の前記学習画像内における前記所定の位置に対応付けられる位置との間における家屋異動を示す教師データと、を含む学習データを複数学習させた変化識別器に、異なる時点に撮影された一対の土地の推定画像の違い、及び、少なくとも一方の前記推定画像内における所定の位置に建物が示されているか否かを示す推定入力データを前記変化識別器に入力するステップと、
前記変化識別器に前記推定入力データを入力した際の出力に基づいて、一方の前記推定画像内における前記所定の位置と他方の前記推定画像内における前記所定の位置に対応付けられる位置との間における家屋異動を推定するステップと、
を含むことを特徴とする家屋異動推定方法。
Learning input data indicating a difference between learning images of a pair of lands photographed at different points in time, and whether or not a building is indicated at a predetermined position in the learning image for at least one of the learning images; Change identification in which learning data including a plurality of teacher data indicating house change between the predetermined position in the learning image and the position corresponding to the predetermined position in the other learning image is learned Said change discriminator showing estimated input data indicating the difference between estimated images of a pair of lands taken at different times and whether a building is shown at a predetermined position in at least one of said estimated images Step to
Between the predetermined position in one of the estimated images and the position associated with the predetermined position in the other estimated image, based on the output when the estimated input data is input to the change discriminator Estimating house changes in
The house movement estimation method characterized by including.
異なる時点に撮影された一対の土地の学習画像の違い、及び、少なくとも一方の前記学習画像についての当該学習画像内における所定の位置に建物が示されているか否かを示す学習入力データを変化識別器に入力するステップと、
前記変化識別器に前記学習入力データを入力した際の出力と、一方の前記学習画像内における前記所定の位置と他方の前記学習画像内における前記所定の位置に対応付けられる位置との間における家屋異動を示す教師データと、を比較するステップと、
前記比較の結果に基づいて、前記変化識別器のパラメータを変更するステップと、
を含むことを特徴とする識別器のパラメータ生成方法。
Change identification of learning input data indicating differences between learning images of a pair of lands taken at different times and whether or not a building is shown at a predetermined position in at least one of the learning images. Input to the
A house between the output when the learning input data is input to the change discriminator and the position corresponding to the predetermined position in the other learning image in the one learning image Comparing with teacher data indicating a transfer;
Changing parameters of the change discriminator based on a result of the comparison;
A method of generating a parameter of a discriminator, comprising:
異なる時点に撮影された一対の土地の学習画像の違い、及び、少なくとも一方の前記学習画像についての当該学習画像内における所定の位置に建物が示されているか否かを示す学習入力データと、一方の前記学習画像内における前記所定の位置と他方の前記学習画像内における前記所定の位置に対応付けられる位置との間における家屋異動を示す教師データと、を含む学習データを複数学習させた変化識別器に、異なる時点に撮影された一対の土地の推定画像の違い、及び、少なくとも一方の前記推定画像内における所定の位置に建物が示されているか否かを示す推定入力データを前記変化識別器に入力する手順、
前記変化識別器に前記推定入力データを入力した際の出力に基づいて、一方の前記推定画像内における前記所定の位置と他方の前記推定画像内における前記所定の位置に対応付けられる位置との間における家屋異動を推定する手順、
をコンピュータに実行させることを特徴とするプログラム。
Learning input data indicating a difference between learning images of a pair of lands photographed at different points in time, and whether or not a building is indicated at a predetermined position in the learning image for at least one of the learning images; Change identification in which learning data including a plurality of teacher data indicating house change between the predetermined position in the learning image and the position corresponding to the predetermined position in the other learning image is learned Said change discriminator showing estimated input data indicating the difference between estimated images of a pair of lands taken at different times and whether a building is shown at a predetermined position in at least one of said estimated images Steps to enter in
Between the predetermined position in one of the estimated images and the position associated with the predetermined position in the other estimated image, based on the output when the estimated input data is input to the change discriminator Procedure to estimate house change in
A program characterized by causing a computer to execute.
異なる時点に撮影された一対の土地の学習画像の違い、及び、少なくとも一方の前記学習画像についての当該学習画像内における所定の位置に建物が示されているか否かを示す学習入力データを変化識別器に入力する手順、
前記変化識別器に前記学習入力データを入力した際の出力と、一方の前記学習画像内における前記所定の位置と他方の前記学習画像内における前記所定の位置に対応付けられる位置との間における家屋異動を示す教師データと、を比較する手順、
前記比較の結果に基づいて、前記変化識別器のパラメータを変更する手順、
をコンピュータに実行させることを特徴とするプログラム。
Change identification of learning input data indicating differences between learning images of a pair of lands taken at different times and whether or not a building is shown at a predetermined position in at least one of the learning images. Procedure to input to the
A house between the output when the learning input data is input to the change discriminator and the position corresponding to the predetermined position in the other learning image in the one learning image Procedure to compare with the teacher data showing the transfer,
Changing the parameter of the change discriminator based on the result of the comparison;
A program characterized by causing a computer to execute.
JP2017172187A 2017-09-07 2017-09-07 House change estimation device, house change learning device, house change estimation method, parameter generation method and program of classifier Active JP7053195B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017172187A JP7053195B2 (en) 2017-09-07 2017-09-07 House change estimation device, house change learning device, house change estimation method, parameter generation method and program of classifier

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017172187A JP7053195B2 (en) 2017-09-07 2017-09-07 House change estimation device, house change learning device, house change estimation method, parameter generation method and program of classifier

Publications (2)

Publication Number Publication Date
JP2019046416A true JP2019046416A (en) 2019-03-22
JP7053195B2 JP7053195B2 (en) 2022-04-12

Family

ID=65814498

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017172187A Active JP7053195B2 (en) 2017-09-07 2017-09-07 House change estimation device, house change learning device, house change estimation method, parameter generation method and program of classifier

Country Status (1)

Country Link
JP (1) JP7053195B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021033584A (en) * 2019-08-22 2021-03-01 株式会社パスコ Building change identification device and program
JP7466165B1 (en) 2023-10-20 2024-04-12 株式会社Ridge-i Information processing device, information processing method, and information processing program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004198530A (en) * 2002-12-16 2004-07-15 Hitachi Ltd Map updating system, map updating method and computer program
US20100128977A1 (en) * 2008-11-25 2010-05-27 Nec System Technologies, Ltd. Building change detection apparatus, Building change detection method and program
JP2017033197A (en) * 2015-07-30 2017-02-09 日本電信電話株式会社 Change area detection device, method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004198530A (en) * 2002-12-16 2004-07-15 Hitachi Ltd Map updating system, map updating method and computer program
US20100128977A1 (en) * 2008-11-25 2010-05-27 Nec System Technologies, Ltd. Building change detection apparatus, Building change detection method and program
JP2017033197A (en) * 2015-07-30 2017-02-09 日本電信電話株式会社 Change area detection device, method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021033584A (en) * 2019-08-22 2021-03-01 株式会社パスコ Building change identification device and program
JP7466165B1 (en) 2023-10-20 2024-04-12 株式会社Ridge-i Information processing device, information processing method, and information processing program

Also Published As

Publication number Publication date
JP7053195B2 (en) 2022-04-12

Similar Documents

Publication Publication Date Title
US10885365B2 (en) Method and apparatus for detecting object keypoint, and electronic device
CN111986178A (en) Product defect detection method and device, electronic equipment and storage medium
CN108229504B (en) Image analysis method and device
CN112434721A (en) Image classification method, system, storage medium and terminal based on small sample learning
CN108280455B (en) Human body key point detection method and apparatus, electronic device, program, and medium
CN111598164B (en) Method, device, electronic equipment and storage medium for identifying attribute of target object
CN108416902A (en) Real-time object identification method based on difference identification and device
CN108229418B (en) Human body key point detection method and apparatus, electronic device, storage medium, and program
CN106462572A (en) Techniques for distributed optical character recognition and distributed machine language translation
CN111444744A (en) Living body detection method, living body detection device, and storage medium
CN112857268B (en) Object area measuring method, device, electronic equipment and storage medium
CN112381104A (en) Image identification method and device, computer equipment and storage medium
US10748000B2 (en) Method, electronic device, and recording medium for notifying of surrounding situation information
CN112749685B (en) Video classification method, apparatus and medium
CN108229494B (en) Network training method, processing method, device, storage medium and electronic equipment
CN116168351B (en) Inspection method and device for power equipment
CN111652181B (en) Target tracking method and device and electronic equipment
CN111369524B (en) Nodule recognition model training method, nodule recognition method and device
CN114511661A (en) Image rendering method and device, electronic equipment and storage medium
US10295403B2 (en) Display a virtual object within an augmented reality influenced by a real-world environmental parameter
JP2019046416A (en) Premises change estimation apparatus, premises change learning apparatus, premises change estimation method, parameter generation method for discriminator, and program
US20220351486A1 (en) Object detection device, object detection method, and program
CN117274370A (en) Three-dimensional pose determining method, three-dimensional pose determining device, electronic equipment and medium
CN116977260A (en) Target defect detection method and device, electronic equipment and storage medium
CN114140852B (en) Image detection method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220331

R150 Certificate of patent or registration of utility model

Ref document number: 7053195

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150