JP2019046416A - Premises change estimation apparatus, premises change learning apparatus, premises change estimation method, parameter generation method for discriminator, and program - Google Patents
Premises change estimation apparatus, premises change learning apparatus, premises change estimation method, parameter generation method for discriminator, and program Download PDFInfo
- Publication number
- JP2019046416A JP2019046416A JP2017172187A JP2017172187A JP2019046416A JP 2019046416 A JP2019046416 A JP 2019046416A JP 2017172187 A JP2017172187 A JP 2017172187A JP 2017172187 A JP2017172187 A JP 2017172187A JP 2019046416 A JP2019046416 A JP 2019046416A
- Authority
- JP
- Japan
- Prior art keywords
- image
- learning
- change
- estimated
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、家屋異動推定装置、家屋異動学習装置、家屋異動推定方法、識別器のパラメータ生成方法及びプログラムに関する。 The present invention relates to a house change estimation device, a house change learning device, a house change estimation method, a classifier parameter generation method, and a program.
特許文献1には、構造物の外観検査等に用いられる構造物の形状変化の検出方法が記載されている。特許文献1に記載の方法では、地上のカメラによって異なる時点で撮影されたトンネル等の構造物の一対の画像を畳み込みニューラルネットワーク(CNN)に入力することで、当該構造物の形状変化を検出している。
発明者らは、異なる時点に撮影された航空機画像や衛星画像などといった一対の土地の画像をCNN等の機械学習モデルに入力した際の出力に基づいて、例えば、新築、滅失、建替などといった、当該画像に示されている家屋異動を推定する方法を検討している。例えば検討している方法を用いて固定資産税業務等のための家屋異動の推定を行う際には高い精度が要求される。 Based on the output when a pair of land images such as aircraft images and satellite images captured at different times are input to a machine learning model such as CNN, for example, new construction, loss, rebuilding, etc. , We are examining a method to estimate the house change shown in the image. For example, high accuracy is required when estimating house changes for fixed asset tax services etc. using the method under consideration.
この点、特許文献1に記載の技術では、CNNに入力される一対の画像はいずれも構造物の同じ部分が表れていることが前提となっている。そのため一対の画像のいずれかにしか家屋が示されていないような新築や滅失の推定では、特許文献1に記載の技術は充分な精度を発揮できない。
In this respect, in the technique described in
本発明は上記課題に鑑みてなされたものであって、その目的の1つは、土地の画像に基づく家屋異動の推定精度を向上できる家屋異動推定装置、家屋異動学習装置、家屋異動推定方法、識別器のパラメータ生成方法及びプログラムを提供することにある。 The present invention has been made in view of the above problems, and one of its purposes is a house change estimation device, a house change learning device, and a house change estimation method capable of improving the estimation accuracy of house changes based on an image of land. It is providing the parameter generation method and program of a discriminator.
(1)本発明に係る家屋異動推定装置は、異なる時点に撮影された一対の土地の学習画像の違い、及び、少なくとも一方の前記学習画像についての当該学習画像内における所定の位置に建物が示されているか否かを示す学習入力データと、一方の前記学習画像内における前記所定の位置と他方の前記学習画像内における前記所定の位置に対応付けられる位置との間における家屋異動を示す教師データと、を含む学習データを複数学習させた変化識別器と、異なる時点に撮影された一対の土地の推定画像の違い、及び、少なくとも一方の前記推定画像内における所定の位置に建物が示されているか否かを示す推定入力データを前記変化識別器に入力する変化識別器入力手段と、前記変化識別器に前記推定入力データを入力した際の出力に基づいて、一方の前記推定画像内における前記所定の位置と他方の前記推定画像内における前記所定の位置に対応付けられる位置との間における家屋異動を推定する家屋異動推定手段と、を含む。 (1) In the house change estimation device according to the present invention, a building is displayed at a predetermined position in the learning image of at least one of the learning images of a pair of lands photographed at different time points. Teaching data indicating house change between the learning input data indicating whether or not the predetermined position in one learning image and the position corresponding to the predetermined position in the other learning image And a difference between estimated data of a pair of lands captured at different points in time, and a building being indicated at a predetermined position in at least one of the estimated images. Based on a change discriminator input unit that inputs estimated input data indicating whether or not to the change discriminator, and an output when the estimated input data is input to the change discriminator , Including a house change estimating means for estimating a house change between the position associated with the said predetermined position in the predetermined position and the other of said estimated image in one of the estimated image.
(2)上記(1)に記載の家屋異動推定装置において、土地の画像の入力に応じて当該画像内における所定の位置に建物が示されているか否かを示す特徴情報を出力する有無特徴抽出器と、前記一対の推定画像を前記有無特徴抽出器に入力した際の出力である特徴情報を特定する有無特徴情報特定手段と、をさらに含み、前記変化識別器入力手段は、前記有無特徴情報特定手段が特定する特徴情報を含む前記推定入力データを前記変化識別器に入力する構成とすることができる。 (2) In the house change estimation apparatus according to (1), presence or absence feature extraction is performed to output feature information indicating whether a building is shown at a predetermined position in the image according to the input of the image of the land. And change feature input means for specifying feature information which is output when the pair of estimated images is input to the presence feature extractor, the change discriminator input means including the presence feature information The estimated input data including the feature information identified by the identifying means may be input to the change discriminator.
(3)上記(1)又は(2)に記載の家屋異動推定装置において、異なる時点に撮影された一対の土地の画像、及び、少なくとも一方の前記画像についての当該画像内の所定の位置に建物が示されているか否かを示す画像の入力に応じて、前記一対の土地の画像の違いを示す特徴情報を出力する変化特徴抽出器と、前記一対の推定画像、及び、少なくとも一方の前記推定画像について当該推定画像内における所定の位置に建物が示されているか否かを示す画像を前記変化特徴抽出器に入力した際の出力である特徴情報を特定する変化特徴情報特定手段と、をさらに含み、前記変化識別器入力手段は、前記変化特徴情報特定手段が特定する特徴情報を含む前記推定入力データを前記変化識別器に入力する構成とすることができる。 (3) In the house movement estimation apparatus according to (1) or (2), an image of a pair of lands photographed at different times and a building at a predetermined position in the image of at least one of the images A change feature extractor that outputs feature information indicating a difference between the pair of land images according to an input of an image indicating whether or not the symbol is indicated, the pair of estimated images, and at least one of the estimates Change feature information specifying means for specifying feature information which is an output when an image indicating whether a building is shown at a predetermined position in the estimated image for an image is input to the change feature extractor; The change discriminator input means may be configured to input the estimated input data including the feature information identified by the change feature information identifying means to the change discriminator.
(4)上記(3)に記載の家屋異動推定装置において、前記変化特徴抽出器は、異なる時点に撮影された一対の土地の画像、及び、少なくとも一方の前記画像についての当該画像内の所定の位置に示されている建物の形状を示す画像の入力に応じて、前記一対の土地の画像の違いを示す特徴情報を出力し、前記変化特徴情報特定手段は、前記一対の推定画像、及び、少なくとも一方の前記推定画像についての当該推定画像内の前記所定の位置に示されている建物の形状を示す画像を前記変化特徴抽出器に入力した際の出力である特徴情報を特定する構成とすることができる。 (4) In the house movement estimation apparatus according to (3), the change feature extraction unit is configured to generate an image of a pair of lands captured at different points in time and a predetermined one of the images of at least one of the images. The characteristic information indicating the difference between the pair of land images is output according to the input of the image indicating the shape of the building indicated in the position, and the change characteristic information identification unit determines the pair of estimated images; A feature information is specified, which is an output when an image indicating a shape of a building shown at the predetermined position in the estimated image of at least one of the estimated images is input to the change feature extractor. be able to.
(5)上記(1)に記載の家屋異動推定装置において、土地の画像の入力に応じて当該画像内における所定の位置に建物が示されているか否かを示す特徴情報を出力する有無特徴抽出器と、前記一対の推定画像を前記有無特徴抽出器に入力した際の出力である特徴情報を特定する有無特徴情報特定手段と、異なる時点に撮影された一対の土地の画像、及び、少なくとも一方の前記画像についての当該画像内の所定の位置に建物が示されているか否かを示す画像の入力に応じて、前記一対の土地の画像の違いを示す特徴情報を出力する変化特徴抽出器と、前記一対の推定画像、及び、少なくとも一方の前記推定画像についての当該推定画像内における所定の位置に建物が示されているか否かを示す画像を前記変化特徴抽出器に入力した際の出力である特徴情報を特定する変化特徴情報特定手段と、前記有無特徴情報特定手段が特定する特徴情報と前記変化特徴情報特定手段が特定する特徴情報とを結合する結合手段と、をさらに含み、前記変化識別器入力手段は、前記結合手段により結合された特徴情報を含む前記推定入力データを前記変化識別器に入力する構成とすることができる。 (5) In the house movement estimation apparatus according to (1), presence or absence feature extraction is performed to output feature information indicating whether a building is shown at a predetermined position in the image according to the input of the image of the land. , Presence / absence feature specifying means for specifying feature information which is an output when the pair of estimated images is inputted to the presence / absence feature extractor, an image of a pair of lands photographed at different points in time, and A change feature extractor that outputs feature information indicating a difference between the pair of land images according to an input of an image indicating whether a building is shown at a predetermined position in the image for the image of An output when the pair of estimated images and an image indicating whether a building is shown at a predetermined position in at least one of the estimated images are input to the change feature extractor The apparatus further includes: change feature information specifying means for specifying certain feature information; and combining means for combining the feature information specified by the presence / absence feature information specifying means with the feature information specified by the change feature information specifying means The discriminator input means may be configured to input the estimated input data including the feature information combined by the combining means to the change discriminator.
(6)上記(1)〜(5)に記載の家屋異動推定装置において、前記家屋異動推定手段が推定する家屋異動を表す情報が配置された画面を生成する画面生成手段と、前記画面生成手段が生成する画面が表示されるよう制御する表示制御手段と、をさらに含む構成とすることができる。 (6) In the house change estimation device according to (1) to (5), a screen generation means for generating a screen on which information representing a house change estimated by the house change estimation means is arranged, and the screen generation means And a display control unit configured to control a screen generated by the control unit to be displayed.
(7)本発明に係る家屋異動学習装置は、異なる時点に撮影された一対の土地の学習画像の違い、及び、少なくとも一方の前記学習画像についての当該学習画像内における所定の位置に建物が示されているか否かを示す学習入力データを変化識別器に入力する入力手段と、前記変化識別器に前記学習入力データを入力した際の出力と、一方の前記学習画像内における前記所定の位置と他方の前記学習画像内における前記所定の位置に対応付けられる位置との間における家屋異動を示す教師データと、を比較する比較手段と、前記比較の結果に基づいて、前記変化識別器のパラメータを変更するパラメータ変更手段と、を含む。 (7) In the house change learning apparatus according to the present invention, a building is displayed at a predetermined position in the learning image of at least one of the learning images of a pair of lands photographed at different time points. Input means for inputting, to the change discriminator, learning input data indicating whether or not it has been input, an output when the learning input data is inputted to the change discriminator, the predetermined position in one of the learning images A comparison means for comparing teacher data indicating house change between a position corresponding to the predetermined position in the other learning image, and a parameter of the change discriminator based on a result of the comparison And parameter changing means for changing.
(8)本発明に係る家屋異動推定方法は、異なる時点に撮影された一対の土地の学習画像の違い、及び、少なくとも一方の前記学習画像についての当該学習画像内における所定の位置に建物が示されているか否かを示す学習入力データと、一方の前記学習画像内における前記所定の位置と他方の前記学習画像内における前記所定の位置に対応付けられる位置との間における家屋異動を示す教師データと、を含む学習データを複数学習させた変化識別器に、異なる時点に撮影された一対の土地の推定画像の違い、及び、少なくとも一方の前記推定画像内における所定の位置に建物が示されているか否かを示す推定入力データを前記変化識別器に入力するステップと、前記変化識別器に前記推定入力データを入力した際の出力に基づいて、一方の前記推定画像内における前記所定の位置と他方の前記推定画像内における前記所定の位置に対応付けられる位置との間における家屋異動を推定するステップと、を含む。 (8) In the house change estimation method according to the present invention, the difference between the learning images of a pair of lands taken at different points in time, and the building is displayed at a predetermined position in the learning image for at least one of the learning images. Teaching data indicating house change between the learning input data indicating whether or not the predetermined position in one learning image and the position corresponding to the predetermined position in the other learning image And a change discriminator obtained by learning a plurality of learning data, the difference between estimated images of a pair of lands photographed at different time points, and a building being indicated at a predetermined position in at least one of the estimated images One of the steps of inputting estimated input data indicating whether or not to the change discriminator, and an output when the estimated input data is input to the change discriminator; Comprising the steps of: estimating a house change between the position associated with the said predetermined position in the predetermined position and the other of said estimated image in serial estimation image.
(9)本発明に係る識別器のパラメータ生成方法は、異なる時点に撮影された一対の土地の学習画像の違い、及び、少なくとも一方の前記学習画像についての当該学習画像内における所定の位置に建物が示されているか否かを示す学習入力データを変化識別器に入力するステップと、前記変化識別器に前記学習入力データを入力した際の出力と、一方の前記学習画像内における前記所定の位置と他方の前記学習画像内における前記所定の位置に対応付けられる位置との間における家屋異動を示す教師データと、を比較するステップと、前記比較の結果に基づいて、前記変化識別器のパラメータを変更するステップと、を含む。 (9) The parameter generation method for a classifier according to the present invention is a method for generating a difference between learning images of a pair of lands photographed at different points in time and at a predetermined position in the learning image for at least one of the learning images. Inputting, to the change discriminator, learning input data indicating whether or not is indicated, an output when the learning input data is input to the change discriminator, and the predetermined position in one of the learning images Comparing the parameter of the change discriminator with the step of comparing teacher data indicating house change between the other and the position corresponding to the predetermined position in the other learning image, and the result of the comparison. And changing.
(10)本発明に係るプログラムは、異なる時点に撮影された一対の土地の学習画像の違い、及び、少なくとも一方の前記学習画像についての当該学習画像内における所定の位置に建物が示されているか否かを示す学習入力データと、一方の前記学習画像内における前記所定の位置と他方の前記学習画像内における前記所定の位置に対応付けられる位置との間における家屋異動を示す教師データと、を含む学習データを複数学習させた変化識別器に、異なる時点に撮影された一対の土地の推定画像の違い、及び、少なくとも一方の前記推定画像内における所定の位置に建物が示されているか否かを示す推定入力データを前記変化識別器に入力する手順、前記変化識別器に前記推定入力データを入力した際の出力に基づいて、一方の前記推定画像内における前記所定の位置と他方の前記推定画像内における前記所定の位置に対応付けられる位置との間における家屋異動を推定する手順、をコンピュータに実行させる。 (10) In the program according to the present invention, is the difference between the learning images of a pair of lands taken at different times, and whether a building is shown at a predetermined position in the learning image for at least one of the learning images? Learning input data indicating whether or not there is teaching data indicating house change between the predetermined position in one of the learning images and a position corresponding to the predetermined position in the other learning image; The change discriminator, which has learned a plurality of learning data, includes a difference between estimated images of a pair of lands captured at different time points, and whether a building is shown at a predetermined position in at least one of the estimated images A step of inputting estimated input data indicating the input to the change discriminator, and based on an output when the estimated input data is input to the change discriminator, Procedure for estimating the house change between the position associated with the said predetermined position in the predetermined position and the other of said estimated image of the inner, causing the computer to execute.
(11)本発明に係る別のプログラムは、異なる時点に撮影された一対の土地の学習画像の違い、及び、少なくとも一方の前記学習画像についての当該学習画像内における所定の位置に建物が示されているか否かを示す学習入力データを変化識別器に入力する手順、前記変化識別器に前記学習入力データを入力した際の出力と、一方の前記学習画像内における前記所定の位置と他方の前記学習画像内における前記所定の位置に対応付けられる位置との間における家屋異動を示す教師データと、を比較する手順、前記比較の結果に基づいて、前記変化識別器のパラメータを変更する手順、をコンピュータに実行させる。 (11) In another program according to the present invention, a building is shown at a predetermined position in the learning image of at least one of the learning images of a pair of lands photographed at different time points. Procedure for inputting learning input data indicating whether or not to the change discriminator, an output when the learning input data is input to the change discriminator, the predetermined position in one of the learning images, and the other A procedure of comparing with teacher data indicating house change between a position corresponding to the predetermined position in the learning image, and a procedure of changing a parameter of the change discriminator based on a result of the comparison Make it run on a computer.
本発明によれば、土地の画像に基づく家屋異動の推定精度が向上する。 According to the present invention, estimation accuracy of house change based on an image of a land is improved.
以下、本発明の一実施形態について図面に基づき詳細に説明する。 Hereinafter, an embodiment of the present invention will be described in detail based on the drawings.
図1は、本発明の一実施形態に係る家屋異動推定装置10の構成図である。本実施形態に係る家屋異動推定装置10は、パーソナルコンピュータなどのコンピュータである。図1に示すように家屋異動推定装置10は、例えば、プロセッサ12、記憶部14、表示部16、操作部18を含んでいる。
FIG. 1 is a block diagram of a house
プロセッサ12は、例えば家屋異動推定装置10にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。
The
記憶部14は、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部14には、プロセッサ12によって実行されるプログラムなどが記憶される。
The
表示部16は、液晶ディスプレイ等の表示デバイスであって、プロセッサ12の指示に従って各種の画像を表示する。
The
操作部18は、キーボードやマウスなどといったユーザインタフェースであって、ユーザの操作入力を受け付けて、その内容を示す信号をプロセッサ12に出力する。
The
なお、家屋異動推定装置10は、ネットワークボードなどの通信インタフェース、DVD−ROMやBlu−ray(登録商標)ディスクなどの光ディスクを読み取る光ディスクドライブ、USB(Universal Serial Bus)ポートなどを含んでいてもよい。
The house
本実施形態に係る家屋異動推定装置10では、異なる時点に撮影された一対の土地の画像に基づいて、例えば新築、滅失、建替などといった家屋異動が推定される。図2Aは、第1の時点に撮影された画像である推定ターゲット画像20aの一例を模式的に示す図である。図2Bは、第1の時点よりも後である第2の時点に撮影された画像である推定ターゲット画像20bの一例を模式的に示す図である。本実施形態では例えば、推定ターゲット画像20aと推定ターゲット画像20bとに基づいて、推定ターゲット画像20aが撮影された時点と推定ターゲット画像20bが撮影された時点との間での家屋異動が推定される。なお推定ターゲット画像20a及び推定ターゲット画像20bは航空機により撮影された航空機画像である必要はなく、人工衛星によって撮影された衛星画像であっても構わない。
In the house
図3は、異なる時点に撮影された一対の画像に基づいて推定される家屋異動が表現された推定結果画面22の一例を示す図である。本実施形態では例えば推定ターゲット画像20a及び推定ターゲット画像20bを選択する操作に応じて、図3に例示する推定結果画面22が表示部16に表示される。
FIG. 3 is a diagram showing an example of an estimation result screen 22 expressing house changes estimated based on a pair of images captured at different points in time. In the present embodiment, for example, the estimation result screen 22 illustrated in FIG. 3 is displayed on the
図3に示す推定結果画面22には、新築、滅失、建替などといった、家屋異動に対応付けられる家屋異動対応画像24が重畳された推定ターゲット画像20bが配置されている。図3の例では、新築と推定された建物を囲む実線の画像が家屋異動対応画像24aとして示されている。また図3の例では、滅失と推定された建物(図3には図示されない)を囲む点線の画像が家屋異動対応画像24bとして示されている。また図3の例では、建替と推定された建物を囲む一点鎖線の画像が家屋異動対応画像24cとして示されている。
On the estimation result screen 22 shown in FIG. 3, an estimated
このようにして本実施形態では家屋異動の推定結果をユーザが目視できる。 Thus, in the present embodiment, the user can view the estimation result of house change.
家屋異動の推定において、本実施形態では例えば、まず、公知の手法によって推定ターゲット画像20a及び推定ターゲット画像20bに示されている建物の位置及び形状が検出される。図4Aは、図2Aに示す推定ターゲット画像20aに示されている建物の位置及び形状の検出結果の一例である推定建物検出画像26aを示す図である。図4Bは、図2Bに示す推定ターゲット画像20bに示されている建物の位置及び形状の検出結果の一例である推定建物検出画像26bを示す図である。図4Aに示す推定建物検出画像26a及び図4Bに示す推定建物検出画像26bでは、検出された建物の位置及び形状が、白色で表現されたポリゴンによって示されている。
In the estimation of a house change, in the present embodiment, for example, first, the position and the shape of a building shown in the estimated
本実施形態では推定ターゲット画像20a及び推定ターゲット画像20bによって同じ場所が示されていることとする。例えば、推定ターゲット画像20a内のある座標値の画素と推定ターゲット画像20b内の当該座標値の画素は、同じ場所を示す画素として互いに対応付けられることとする。また本実施形態では、推定ターゲット画像20a内や推定ターゲット画像20b内のある座標値の画素は、推定建物検出画像26a内や推定建物検出画像26b内の当該座標値の画素とも、同じ場所を示す画素として互いに対応付けられることとする。なお推定ターゲット画像20aと推定ターゲット画像20bとが厳密に同じ場所を示している必要はない。推定ターゲット画像20a内のある座標値の画素と推定ターゲット画像20b内の当該座標値の画素とが、厳密に同じ場所を示していなくてもよい。
In the present embodiment, it is assumed that the same place is indicated by the estimated
そして図4Aに示す推定建物検出画像26a及び図4Bに示す推定建物検出画像26bに示されている複数のポリゴンのそれぞれについて、当該ポリゴン内の所定の位置が特定される。ここでは例えば、推定建物検出画像26aに示されているすべてのポリゴン及び推定建物検出画像26bに示されているすべてのポリゴンについて、当該ポリゴンの中心の位置が特定されることとする。
Then, for each of the plurality of polygons shown in the estimated
そして、特定される位置を中心とする所定の縦横の長さの推定チップ画像28が生成される。ここで例えば図5に示すように、特定される複数の位置のそれぞれについて、当該位置を中心とする矩形領域を占める推定チップ画像28が、推定ターゲット画像20a、推定ターゲット画像20b、及び、推定建物検出画像26bのそれぞれから抽出されてもよい。この場合は、特定される1つの位置に基づいて、3つの推定チップ画像28が生成されることとなる。例えば、推定ターゲット画像20aから推定チップ画像28aが抽出され、推定ターゲット画像20bから推定チップ画像28bが抽出され、推定建物検出画像26bから推定チップ画像28cが抽出される。
Then, an estimated chip image 28 of predetermined vertical and horizontal lengths centering on the specified position is generated. Here, for example, as shown in FIG. 5, for each of a plurality of specified positions, an estimated chip image 28 occupying a rectangular area centered on the positions is an estimated
図5には、本実施形態において、家屋異動があったと推定される建物についての推定チップ画像28の例が示されている。図5の上段には、新築と推定される建物に対応付けられる3つの推定チップ画像28が示されている。これらの3つの推定チップ画像28は、推定建物検出画像26bに示されているポリゴンの中心の位置に基づいて生成されるものである。図5の中段には、滅失と推定される建物に対応付けられる3つの推定チップ画像28が示されている。これらの3つの推定チップ画像28は、推定建物検出画像26aに示されているポリゴンの中心の位置に基づいて生成される。図5の下段には、建替と推定される建物に対応付けられる3個の推定チップ画像28が示されている。これらの3個の推定チップ画像28は、推定建物検出画像26bに示されているポリゴンの中心の位置に基づいて生成される。
FIG. 5 shows an example of an estimated chip image 28 of a building estimated to have a house change in the present embodiment. The upper part of FIG. 5 shows three estimated chip images 28 associated with a building estimated to be a new building. These three estimated chip images 28 are generated based on the position of the center of the polygon shown in the estimated
そして本実施形態では例えば、生成された推定チップ画像28を図6に例示する学習済の機械学習モデル30に入力した結果に基づいて、家屋異動の推定結果が特定される。
And in this embodiment, the presumed result of house change is specified based on the result of having inputted the generated presumed chip picture 28 into the learned
図6に示す機械学習モデル30には、加工部32と変化識別器34とが含まれている。加工部32には、上述の推定チップ画像28に相当するオリジナル推定入力データが入力される。そして加工部32は、当該オリジナル推定入力データを加工することで加工推定入力データを生成する。変化識別器34は、加工部32が生成する加工推定入力データの入力に応じて、家屋異動の推定結果を出力する。
The
本実施形態に係る加工部32は、機械学習モデルとして実装されている。本実施形態に係る加工部32には、2つの有無特徴抽出器32a(32aa及び32ab)と、1つの変化特徴抽出器32bとが含まれている。なお図6に示す機械学習モデルには、後述する機械学習モデル30の学習では用いられるが家屋異動の推定には用いられない2つの有無識別器32c(32ca及び32cb)が破線で示されている。本実施形態では、2つの有無特徴抽出器32aに、重み等のパラメータの値として同じ値が設定される。また本実施形態では、2つの有無識別器32cに、重み等のパラメータの値として同じ値が設定される。
The
本実施形態では例えば、有無特徴抽出器32aと有無識別器32cとが全体として畳み込みニューラルネットワーク(CNN)として実装される。そして有無特徴抽出器32aは、例えばCNNにおける畳み込み層及びプーリング層に相当し、有無識別器32cは、例えばCNNにおける全結合層に相当する。
In the present embodiment, for example, the
また本実施形態では例えば、変化特徴抽出器32bと変化識別器34とが全体としてCNNとして実装される。そして変化特徴抽出器32bは、例えばCNNにおける畳み込み層及びプーリング層に相当し、変化識別器34は、例えばCNNにおける全結合層に相当する。
Further, in the present embodiment, for example, the
本実施形態では例えば、推定建物検出画像26a又は推定建物検出画像26bに示されている1つのポリゴンの位置に基づいて生成される3個の推定チップ画像28が、オリジナル推定入力データとして機械学習モデル30に入力される。
In the present embodiment, for example, three estimated chip images 28 generated based on the position of one polygon shown in the estimated
例えば、推定チップ画像28aが入力40として有無特徴抽出器32aaに入力される。すると有無特徴抽出器32aaは当該入力に応じて、推定チップ画像28aの中心に建物が示されているか否かを示す特徴情報を出力42として出力する。
For example, the estimated chip image 28a is input to the presence / absence feature extractor 32aa as the
また推定チップ画像28bが入力44として有無特徴抽出器32abに入力される。すると有無特徴抽出器32abは当該入力に応じて、推定チップ画像28bの中心に建物が示されているか否かを示す特徴情報を出力46として出力する。
Further, the estimated chip image 28 b is input as the
また入力40として入力される推定チップ画像28aと、入力44として入力される推定チップ画像28bと、入力48として入力される推定チップ画像28cを結合したデータ(多チャンネル画像)が生成される。図6には、推定チップ画像28aの結合が矢印A1として、推定チップ画像28bの結合が矢印A2として、推定チップ画像28cの結合が矢印A3として示されている。そして結合されたデータ(多チャンネル画像)が入力50として変化特徴抽出器32bに入力される。すると変化特徴抽出器32bは当該入力に応じて、推定チップ画像28aと推定チップ画像28bとの違いを示す特徴情報を出力52として出力する。
Further, data (multi-channel image) is generated by combining the estimated chip image 28 a input as the
例えばCNNの中間層の出力である、縦横の画素数がそれぞれLである512個の画像(マップ)から構成される特徴マップが上述の特徴情報に相当する。なお当該特徴マップに含まれる画像の数(マップ数)は512に限定されない。 For example, a feature map composed of 512 images (maps) in which the number of vertical and horizontal pixels is L, which is the output of the CNN intermediate layer, corresponds to the above-described feature information. The number of images (the number of maps) included in the feature map is not limited to 512.
そして出力42として出力される特徴情報、出力46として出力される特徴情報、及び、出力52として出力される特徴情報を結合したデータが生成される。図6には、出力42として出力される特徴情報の結合が矢印A4として、出力46として出力される特徴情報の結合が矢印A5として、出力52として出力される特徴情報の結合が矢印A6として示されている。例えばこの結合されたデータが上述の加工推定入力データに相当する。例えば出力42として出力される特徴情報、出力46として出力される特徴情報、出力52として出力される特徴情報が、それぞれマップ数が512である特徴マップである場合は、加工推定入力データはマップ数が1536である特徴マップとなる。
Then, data combining the feature information output as the
そしてこのようにして生成される加工推定入力データが入力54として変化識別器34に入力される。すると変化識別器34は、推定チップ画像28aの中心と推定チップ画像28bの中心との間における家屋異動を示す推定結果データを出力56として出力する。
Then, the processing estimation input data generated in this manner is input to the
当該推定結果データは、例えば、新築、滅失、建替、変化なしなどといった、家屋異動の種類のそれぞれについての確率を示すデータであってもよい。この場合、最大値をとる確率に対応付けられる家屋異動の種類が、推定チップ画像28aの中心と推定チップ画像28bの中心との間における家屋異動の推定結果として特定されてもよい。また当該推定結果データは、例えば、新築、滅失、建替、変化なしなどといった、家屋異動の種類に対応付けられる多値のうちのいずれかの値をとるデータであってもよい。この場合、当該推定結果データが示す値が、推定チップ画像28aの中心と推定チップ画像28bの中心との間における家屋異動の推定結果として特定されてもよい。 The said estimation result data may be data which show the probability about each of the kind of house change, such as new construction, loss, rebuilding, no change, etc., for example. In this case, the type of house change associated with the probability of taking the maximum value may be specified as an estimation result of a house change between the center of the estimated chip image 28a and the center of the estimated chip image 28b. Further, the estimation result data may be, for example, data taking any value among multiple values associated with the type of house change, such as new construction, loss, rebuilding, no change, and the like. In this case, the value indicated by the estimation result data may be specified as an estimation result of house movement between the center of the estimated chip image 28a and the center of the estimated chip image 28b.
本実施形態では例えば、推定建物検出画像26a、及び、推定建物検出画像26bに示されているそれぞれのポリゴンについて、当該ポリゴンの中心の位置に基づいて生成される3個の推定チップ画像28を用いた家屋異動の推定が実行される。そして当該推定の結果に基づいて、推定結果画面22が生成され、表示部16に表示される。
In this embodiment, for example, for each polygon shown in the estimated
以下、図7を参照しながら機械学習モデル30の学習について説明する。
Hereinafter, learning of the
本実施形態では例えば、オリジナル学習入力データとオリジナル教師データとを含むオリジナル学習データを用いた教師あり学習によって、機械学習モデル30の学習が実行される。また本実施形態における機械学習モデル30の学習では、加工部32がオリジナル学習入力データを加工することで加工学習入力データを生成する。そして加工部32が生成する加工学習入力データと、オリジナル教師データの少なくとも一部である加工教師データと、を含む加工学習データを用いた教師あり学習によって、変化識別器34の学習が実行される。変化識別器34は機械学習モデル30の一部であるが、変化識別器34自体も機械学習モデルであるので、上述のように加工学習データを用いた教師あり学習によって、機械学習モデル30の学習の一部として変化識別器34の学習が実行されることとなる。
In the present embodiment, for example, learning of the
オリジナル学習入力データには、例えば、異なる時点に撮影された一対の土地の学習画像、及び、いずれかの学習画像に示されている建物の位置及び形状を示す学習建物検出画像が含まれている。以下、一対の学習画像のそれぞれを第1学習画像、第2学習画像と呼ぶこととする。ここで学習建物検出画像は、例えば、推定建物検出画像26と同様の、学習画像に示されている建物の位置及び形状の検出結果に基づいて生成される画像であってもよい。 The original learning input data includes, for example, a learning image of a pair of lands photographed at different points in time, and a learning building detection image indicating the position and shape of a building shown in any of the learning images. . Hereinafter, each of the pair of learning images is referred to as a first learning image and a second learning image. Here, the learning building detection image may be, for example, an image generated based on the detection result of the position and shape of the building shown in the learning image, similar to the estimated building detection image 26.
オリジナル教師データには、例えば、学習画像の中心に建物が示されているか否かを示す有無データ、及び、第1学習画像の中心と第2学習画像の中心との間における家屋異動を示す変化データが含まれている。以下、第1学習画像の中心に建物が示されているか否かを示す有無データを第1有無データと呼び、第2学習画像の中心に建物が示されているか否かを示す有無データを第2有無データと呼ぶこととする。 In the original teacher data, for example, presence / absence data indicating whether a building is shown at the center of the learning image, and a change indicating a house change between the center of the first learning image and the center of the second learning image Data is included. Hereinafter, presence / absence data indicating whether a building is indicated at the center of the first learning image is referred to as first presence / absence data, and presence / absence data indicating whether a building is indicated at the center of the second learning image is We call it 2 presence data.
有無データは例えば、中心に建物が示されている場合は値として1をとり、中心に建物が示されていない場合は値として0をとる二値データである。変化データは、例えば、新築、滅失、建替、変化なしなどといった、家屋異動の種類に対応付けられる多値のうちのいずれかの値をとるデータである。 The presence / absence data is, for example, binary data which takes 1 as a value when a building is shown at the center, and takes 0 as a value when a building is not shown at the center. The change data is, for example, data taking any value of multiple values associated with the type of house change, such as new construction, loss, rebuilding, no change, and the like.
機械学習モデル30の学習においては、例えば、オリジナル学習入力データに含まれる第1学習画像が入力40として有無特徴抽出器32aaに入力される。また、当該オリジナル学習入力データに含まれる第2学習画像が入力44として有無特徴抽出器32abに入力される。
In learning of the
また入力40及び入力44として入力される、オリジナル学習入力データに含まれる学習画像と、入力48として入力される、当該オリジナル学習入力データに含まれる学習建物検出画像と、を結合したデータ(多チャンネル画像)が生成される。図7には、第1学習画像の結合が矢印A7として、第2学習画像の結合が矢印A8として、学習建物検出画像の結合が矢印A9として示されている。そして結合されたデータ(多チャンネル画像)が入力50として変化特徴抽出器32bに入力される。
Also, data obtained by combining the learning image included in the original learning input data input as the
そして有無特徴抽出器32aaの出力42は有無識別器32caに入力され、有無特徴抽出器32abの出力46は有無識別器32cbに入力される。
The
また有無特徴抽出器32aaの出力42と、有無特徴抽出器32abの出力46と、変化特徴抽出器32bの出力52と、を結合したデータが生成される。図7には、有無特徴抽出器32aaの出力42の結合が矢印A10として、有無特徴抽出器32abの出力46の結合が矢印A11として、変化特徴抽出器32bの出力52の結合が矢印A12として示されている。例えばこの結合されたデータが上述の加工学習入力データに相当する。
Also, data is generated by combining the
そしてこのようにして生成される加工学習入力データが、入力54として変化識別器34に入力される。
Then, the process learning input data generated in this manner is input to the
そして本実施形態では例えば、有無識別器32caの出力58が、機械学習モデル30に入力された学習入力データに対応付けられる教師データに含まれる第1有無データの値と比較される。そして誤差逆伝播法(バックプロパゲーション)などにより、比較結果(例えば誤差)に基づいて、有無特徴抽出器32aa及び有無識別器32caの重み等のパラメータの値が変更される。
Then, in the present embodiment, for example, the
また本実施形態では例えば、有無識別器32cbの出力60が、機械学習モデル30に入力された学習入力データに対応付けられる教師データに含まれる第2有無データの値と比較される。そして誤差逆伝播法(バックプロパゲーション)などにより、比較結果(例えば誤差)に基づいて、有無特徴抽出器32ab及び有無識別器32cbの重み等のパラメータの値が変更される。
Further, in the present embodiment, for example, the
また本実施形態では有無特徴抽出器32aaのパラメータの値と有無特徴抽出器32abのパラメータの値が同じになるよう、一方のパラメータの値の変更に連動して他方のパラメータの値も更新される。また本実施形態では有無識別器32caのパラメータの値と有無識別器32cbのパラメータの値が同じになるよう、一方のパラメータの値の変更に連動して他方のパラメータの値も更新される。 Further, in the present embodiment, the value of the other parameter is also updated in conjunction with the change of the value of one of the parameters so that the value of the parameter of the presence / absence feature extractor 32aa and the value of the parameter of the presence / absence feature extractor 32ab become the same. . Further, in the present embodiment, the value of the other parameter is also updated in conjunction with the change of the value of one of the parameters so that the value of the parameter of the presence / absence identifier 32ca and the value of the parameter of the presence / absence identifier 32cb become the same.
また本実施形態では例えば、変化識別器34の出力56が、機械学習モデル30に入力されたオリジナル学習入力データに対応付けられるオリジナル教師データに含まれる加工教師データの値(例えば変化データの値)と比較される。そして誤差逆伝播法(バックプロパゲーション)などにより、比較結果(例えば誤差)に基づいて、変化特徴抽出器32b及び変化識別器34の重み等のパラメータの値が変更される。また本実施形態では、誤差逆伝播法(バックプロパゲーション)などにより、当該比較結果(誤差)に基づいて、有無特徴抽出器32aaのパラメータの値及び有無特徴抽出器32abのパラメータの値も変更されるようになっている。
Further, in the present embodiment, for example, the value (for example, the value of change data) of the processed teacher data included in the original teacher data associated with the original learning input data input to the
本実施形態では例えば、複数の学習データを機械学習モデル30に学習させる学習処理が実行される。そしてこのような学習処理が実行された学習済の機械学習モデル30を用いて家屋異動の推定が実行される。
In the present embodiment, for example, a learning process of causing the
本実施形態では変化識別器34に入力される加工推定入力データには、異なる時点に撮影された一対の土地の画像の違いに対応付けられる特徴情報だけでなく、少なくとも一方の画像内における所定の位置(例えば中心)に建物が示されているか否かも示されている。例えば図6の矢印A4〜A6に示すように、推定チップ画像28aと推定チップ画像28bとの違いを示す特徴情報に、推定チップ画像28aや推定チップ画像28bの中心に建物が示されているか否かを示す特徴情報が結合された加工推定入力データが生成される。そしてこのようにして建物が示されているか否かに関する情報について補強された、多くの次元数(マップ数)の加工推定入力データに基づいて家屋異動の推定が実行される。そのため本実施形態によれば、土地の画像に基づく家屋異動の推定精度が向上することとなる。
In the present embodiment, the processing estimation input data input to the
以下、本実施形態に係る家屋異動推定装置10の機能並びに本実施形態に係る家屋異動推定装置10で実行される処理についてさらに説明する。
Hereinafter, the function of the house
図8は、本実施形態に係る家屋異動推定装置10で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係る家屋異動推定装置10で、図8に示す機能のすべてが実装される必要はなく、また、図8に示す機能以外の機能が実装されていても構わない。
FIG. 8 is a functional block diagram showing an example of functions implemented by the house
図8に示すように、本実施形態に係る家屋異動推定装置10には、機能的には例えば、機械学習モデル30、学習データ取得部70、学習処理実行部72、推定対象データ取得部74、推定処理実行部76、推定結果特定部78、画面生成部80、表示制御部82、が含まれる。そして機械学習モデル30には、加工部32と、変化識別器34と、が含まれる。また加工部32には、有無特徴抽出器32a、変化特徴抽出器32b、有無識別器32cが含まれる。機械学習モデル30は、プロセッサ12及び記憶部14を主として実装される。学習データ取得部70、学習処理実行部72、推定対象データ取得部74、推定処理実行部76、推定結果特定部78、画面生成部80は、プロセッサ12を主として実装される。表示制御部82は、プロセッサ12及び表示部16を主として実装される。
As shown in FIG. 8, the house
機械学習モデル30、学習データ取得部70、学習処理実行部72は、例えば、機械学習モデル30の学習処理を実行する家屋異動学習装置としての役割を担っている。機械学習モデル30、推定対象データ取得部74、推定処理実行部76、推定結果特定部78、画面生成部80、表示制御部82は、例えば、家屋異動を推定する家屋異動推定装置としての役割を担っている。
The
以上の機能は、コンピュータである家屋異動推定装置10にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ12で実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介して家屋異動推定装置10に供給されてもよい。
The above functions may be implemented by causing the
加工部32は、本実施形態では例えば、学習においては、上述のオリジナル学習入力データに基づいて、加工学習入力データを生成し、推定においては、上述のオリジナル推定入力データに基づいて、加工推定入力データを生成する。
In the embodiment, the
加工部32に含まれる有無特徴抽出器32aは、本実施形態では例えば、土地の画像の入力に応じて当該画像内における所定の位置に建物が示されているか否かを示す特徴情報を出力する。ここで例えば、有無特徴抽出器32aは、画像の入力に応じて当該画像の中心に建物が示されているか否かを示す特徴情報を出力してもよい。また有無特徴抽出器32aは、上述のように、有無特徴抽出器32aaと有無特徴抽出器32abとを含んでいてもよい。
In the present embodiment, for example, the presence /
加工部32に含まれる変化特徴抽出器32bには、本実施形態では例えば、異なる時点に撮影された一対の土地の画像、及び、少なくとも一方の当該画像についての当該画像内の所定の位置に建物が示されているか否かを示す画像が入力される。そして変化特徴抽出器32bは、本実施形態では例えば、当該入力に応じて、一対の土地の画像の違いを示す特徴情報を出力する。
In the
加工部32に含まれる有無識別器32cは、本実施形態では例えば、画像内における所定の位置(例えば中心)に建物が示されているか否かを学習する機械学習モデルである。有無識別器32cは、上述のように、有無識別器32caと有無識別器32cbとを含んでいてもよい。
In the present embodiment, for example, the presence /
有無識別器32cには、例えば、学習画像内の所定の位置に建物が示されているか否かを示す特徴情報が入力される。上述の例では、有無特徴抽出器32aが出力する特徴情報が有無識別器32cに入力される。
For example, feature information indicating whether or not a building is shown at a predetermined position in the learning image is input to the presence /
有無識別器32cの学習に用いられる教師データは、例えば、学習画像内の所定の位置に建物が示されているか否かを示すデータである。例えば上述の有無データが、有無識別器32cの学習に用いられる教師データに相当する。
The teacher data used for the learning of the presence /
変化識別器34は、本実施形態では例えば、家屋異動の種類を学習する機械学習モデルである。変化識別器34には、上述の加工学習入力データが入力される。加工学習入力データは、例えば、異なる時点に撮影された一対の学習画像の違い、及び、少なくとも一方の学習画像についての当該学習画像内における所定の位置に建物が示されているか否かを示すデータである。上述の例では、有無特徴抽出器32aが出力する特徴情報と変化特徴抽出器32bが出力する特徴情報とを結合したデータが加工学習入力データに相当する。
The
また変化識別器34の学習に用いられる教師データである加工教師データは、例えば、一方の学習画像内における所定の位置と他方の学習画像内における当該所定の位置に対応付けられる位置との間における家屋異動を示すデータである。ここで加工教師データが、一方の学習画像内における中心と他方の学習画像内における中心との間における家屋異動を示すデータであってもよい。上述の例では、例えば、新築、滅失、建替、変化なしなどといった、家屋異動の種類に対応付けられる多値のうちのいずれかの値をとる変化データが、加工教師データに相当する。
In addition, for example, processing teacher data which is teacher data used for learning of the
学習データ取得部70は、本実施形態では例えば、機械学習モデル30に入力されるオリジナル学習入力データとオリジナル教師データとの組合せを含むオリジナル学習データを取得する。
The learning
オリジナル学習入力データは、異なる時点に撮影された一対の学習画像の違い、及び、少なくとも一方の学習画像についての当該学習画像内における所定の位置(例えば中心)に建物が示されているか否かを示すデータを含んでいてもよい。上述の例では、第1学習画像、第2学習画像、及び、学習建物検出画像の組合せがオリジナル学習入力データに相当する。 The original learning input data is the difference between a pair of learning images taken at different points in time, and whether or not a building is indicated at a predetermined position (for example, the center) in the learning image for at least one of the learning images. It may include the data shown. In the above-mentioned example, the combination of the first learning image, the second learning image, and the learning building detection image corresponds to the original learning input data.
またオリジナル教師データは、一方の学習画像内における所定の位置と他方の学習画像内における当該所定の位置に対応付けられる位置との間における家屋異動を示すデータを含んでいてもよい。ここでオリジナル教師データが、一方の学習画像内における中心と他方の学習画像内における中心との間における家屋異動を示すデータであってもよい。上述の例では、第1有無データ、第2有無データ、及び、変化データの組合せがオリジナル教師データに相当する。 The original teacher data may also include data indicating house change between a predetermined position in one learning image and a position associated with the predetermined position in the other learning image. Here, the original teacher data may be data indicating a house change between the center in one learning image and the center in the other learning image. In the above-described example, the combination of the first presence data, the second presence data, and the change data corresponds to the original teacher data.
学習処理実行部72は、本実施形態では例えば、学習データ取得部70が取得する複数のオリジナル学習データを有無特徴抽出器32a、変化特徴抽出器32b、変化識別器34、及び、有無識別器32cを含む機械学習モデル30に学習させる。ここで上述のように学習処理実行部72が、加工学習入力データを変化識別器34に入力した際の出力と、加工教師データの値との比較結果に基づいて、有無特徴抽出器32a、変化特徴抽出器32b、及び、変化識別器34の学習を実行してもよい。
In the present embodiment, for example, the learning
推定対象データ取得部74は、本実施形態では例えば、家屋異動の推定対象となるデータを取得する。ここで例えば、推定ターゲット画像20a及び推定ターゲット画像20bが取得されてもよい。
In the present embodiment, the estimation target
推定処理実行部76は、本実施形態では例えば、家屋異動を推定する処理を実行する。この推定する処理において、推定処理実行部76は、異なる時点に撮影された一対の推定画像の違い、及び、少なくとも一方の推定画像内における所定の位置に建物が示されているか否かを示す加工推定入力データを変化識別器34に入力してもよい。ここで当該推定画像には、例えば上述の例における推定チップ画像28が相当する。そして推定処理実行部76が、変化識別器34に加工推定入力データを入力した際の出力に基づいて、一方の推定画像内における所定の位置と他方の推定画像内における当該所定の位置に対応付けられる位置との間における家屋異動を推定してもよい。
The estimation
また推定処理実行部76は、一対の推定画像を有無特徴抽出器32aに入力した際の出力である特徴情報を特定してもよい。そして推定処理実行部76は、特定される当該特徴情報を含む加工推定入力データを変化識別器34に入力してもよい。
The estimation
また推定処理実行部76は、一対の推定画像、及び、少なくとも一方の推定画像について当該推定画像内における所定の位置に建物が示されているか否かを示す画像を変化特徴抽出器32bに入力した際の出力である特徴情報を特定してもよい。ここで推定画像内における所定の位置に建物が示されているか否かを示す画像は、例えば上述の推定チップ画像28cのような、推定画像内の所定の位置に示されている建物の形状を示す画像であってもよい。そして推定処理実行部76は、特定される当該特徴情報を含む加工推定入力データを変化識別器34に入力してもよい。
Further, the estimation
また推定処理実行部76は、上述のように、有無特徴抽出器32aの出力である特徴情報と変化特徴抽出器32bの出力である特徴情報とを結合してもよい。そして推定処理実行部76は、結合された特徴情報を含む加工推定入力データを変化識別器34に入力してもよい。
Further, as described above, the estimation
また例えば推定処理実行部76が、推定建物検出画像26の生成や、推定チップ画像28の生成を行ってもよい。そして、推定チップ画像28が機械学習モデル30に入力された際の出力に基づいて、当該推定チップ画像28に示されている家屋異動が推定されてもよい。
Further, for example, the estimation
推定結果特定部78は、本実施形態では例えば、推定処理実行部76による推定処理の実行結果を特定する。ここで例えば、推定ターゲット画像20a又は推定ターゲット画像20bに示されている建物のそれぞれについての家屋異動の種類(例えば、新築、滅失、建替、又は、変化なし)が特定されてもよい。
In the present embodiment, for example, the estimation
画面生成部80は、本実施形態では例えば、推定結果特定部78が特定する推定処理の実行結果に基づいて、図3に例示する推定結果画面22のような、推定される家屋異動を表す情報が配置された画面を生成する。
In the present embodiment, the
表示制御部82は、本実施形態では例えば、画面生成部80が生成する推定結果画面22等の画面を表示部16に表示させる。
In the present embodiment, the
以下、本実施形態に係る家屋異動推定装置10において行われる、機械学習モデル30の学習処理の流れの一例を、図9A及び図9Bに例示するフロー図を参照しながら説明する。
Hereinafter, an example of the flow of the learning process of the
まず、学習データ取得部70が、複数のオリジナル学習データを取得する(S101)。当該オリジナル学習データには、オリジナル学習入力データと、オリジナル教師データと、が含まれている。
First, the learning
そして学習処理実行部72が、S101に示す処理で取得されたオリジナル学習データのうちから、以下の処理がまだ実行されていないものを1つ選択する(S102)。
Then, the learning
そして学習処理実行部72が、S102に示す処理で選択されたオリジナル学習データのオリジナル学習入力データに含まれる第1学習画像を有無特徴抽出器32aaに入力する(S103)。
Then, the learning
そして学習処理実行部72は、S103に示す処理における入力に応じて有無特徴抽出器32aaが出力する特徴情報を特定する(S104)。
Then, the learning
そして学習処理実行部72が、S102に示す処理で選択されたオリジナル学習データのオリジナル学習入力データに含まれる第2学習画像を有無特徴抽出器32abに入力する(S105)。
Then, the learning
そして学習処理実行部72は、S105に示す処理における入力に応じて有無特徴抽出器32abが出力する特徴情報を特定する(S106)。
Then, the learning
そして学習処理実行部72が、S102に示す処理で選択されたオリジナル学習データのオリジナル学習入力データに含まれる第1学習画像及び第2学習画像と、学習建物検出画像と、を結合したデータである多チャンネル画像を生成する(S107)。
The learning
そして学習処理実行部72が、S107に示す処理で生成された多チャンネル画像を変化特徴抽出器32bに入力する(S108)。
Then, the learning
そして学習処理実行部72は、S108に示す処理における入力に応じて変化特徴抽出器32bが出力する特徴情報を特定する(S109)。
Then, the learning
そして学習処理実行部72は、S104に示す処理で特定された特徴情報を有無識別器32caに入力する(S110)。
Then, the learning
そして学習処理実行部72は、S110に示す処理における入力に応じた有無識別器32caの出力を特定する(S111)。
Then, the learning
そして学習処理実行部72は、S111に示す処理で特定された出力とオリジナル学習データのオリジナル教師データに含まれる第1有無データの値とを比較する(S112)。
Then, the learning
そして学習処理実行部72は、S112に示す処理における比較結果である誤差に基づいて、有無特徴抽出器32aa、有無特徴抽出器32ab、有無識別器32ca、及び、有無識別器32cbのパラメータの値を変更する(S113)。
Then, the learning
そして学習処理実行部72は、S106に示す処理で特定された特徴情報を有無識別器32cbに入力する(S114)。
Then, the learning
そして学習処理実行部72は、S114に示す処理における入力に応じた有無識別器32cbの出力を特定する(S115)。
Then, the learning
そして学習処理実行部72は、S115に示す処理で特定された出力とオリジナル学習データのオリジナル教師データに含まれる第2有無データの値とを比較する(S116)。
Then, the learning
そして学習処理実行部72は、S116に示す処理における比較結果である誤差に基づいて、有無特徴抽出器32aa、有無特徴抽出器32ab、有無識別器32ca、及び、有無識別器32cbのパラメータの値を変更する(S117)。
Then, the learning
そして学習処理実行部72は、S104に示す処理で特定された特徴情報、S106に示す処理で特定された特徴情報、及び、S109に示す処理で特定された特徴情報、を結合した加工学習入力データを生成する(S118)。
Then, the learning
そして学習処理実行部72は、S118に示す処理で生成された加工学習入力データを変化識別器34に入力する(S119)。
Then, the learning
そして学習処理実行部72は、S119に示す処理における入力に応じた変化識別器34の出力を特定する(S120)。
Then, the learning
そして学習処理実行部72は、S120に示す処理で特定された出力と、加工教師データに相当する、オリジナル学習データのオリジナル教師データに含まれる変化データの値とを比較する(S121)。
Then, the learning
そして学習処理実行部72は、S121に示す処理における比較結果である誤差に基づいて、有無特徴抽出器32aa、有無特徴抽出器32ab、変化特徴抽出器32b、及び、変化識別器34のパラメータの値を変更する(S122)。
The learning
そして学習処理実行部72は、S102に示す処理で未選択であるオリジナル学習データが存在するか否かを確認する(S123)。
Then, the learning
ここで存在することが確認された場合は(S123:Y)、S102に示す処理に戻る。 If the existence is confirmed here (S123: Y), the process returns to the process shown in S102.
存在しないことが確認された場合は(S123:N)、本処理例に示す処理は終了される。 If it is confirmed that there is not (S123: N), the processing shown in this processing example is ended.
なおS101〜S123に示す処理の実行順序は上述のものに限定されず、上述に示す順序とは異なる実行順序でこれらの処理が実行されてもよい。 The execution order of the processes shown in S101 to S123 is not limited to the above-described one, and these processes may be performed in an execution order different from the order shown above.
以下、本実施形態に係る家屋異動推定装置10において行われる、家屋異動の推定処理の流れの一例を、図10A及び図10Bに例示するフロー図を参照しながら説明する。
Hereinafter, an example of a flow of a house change estimation process performed in the house
まず、推定対象データ取得部74は、ユーザによって選択された推定ターゲット画像20a及び推定ターゲット画像20bを取得する(S201)。
First, the estimation target
そして推定処理実行部76は、S201に示す処理で取得した推定ターゲット画像20aに基づいて、推定建物検出画像26aを生成し、S201に示す処理で取得した推定ターゲット画像20bに基づいて、推定建物検出画像26bを生成する(S202)。
Then, the estimation
そして推定処理実行部76は、S202に示す処理で生成された推定建物検出画像26aに示されているすべてのポリゴン及び推定建物検出画像26bに示されているすべてのポリゴンについての当該ポリゴンの中心の位置を特定する(S203)。
The estimation
そして推定処理実行部76は、S203に示す処理で特定された中心の位置のうち、S205〜S214に示す処理がまだ実行されていないものを1つ選択する(S204)。
Then, the estimation
そして推定処理実行部76は、S204に示す処理で選択された位置に基づいて、推定チップ画像28a、推定チップ画像28b、及び、推定チップ画像28cを生成する(S205)。ここで推定チップ画像28aは例えば推定ターゲット画像20aの一部を抽出することで生成される。また推定チップ画像28bは例えば推定ターゲット画像20bの一部を抽出することで生成される。推定チップ画像28cは例えば推定建物検出画像26bの一部を抽出することで生成される。
Then, the estimation
そして推定処理実行部76は、S205に示す処理で生成された推定チップ画像28aを有無特徴抽出器32aaに入力する(S206)。
Then, the estimation
そして推定処理実行部76は、S206に示す処理における入力に応じて有無特徴抽出器32aaが出力する特徴情報を特定する(S207)。
Then, the estimation
そして推定処理実行部76は、S206に示す処理で生成された推定チップ画像28bを有無特徴抽出器32abに入力する(S208)。
Then, the estimation
そして推定処理実行部76は、S208に示す処理における入力に応じて有無特徴抽出器32abが出力する特徴情報を特定する(S209)。
Then, the estimation
そして推定処理実行部76は、S205に示す処理で生成された推定チップ画像28a、推定チップ画像28b、及び、推定チップ画像28を結合したデータである多チャンネル画像を生成する(S210)。
Then, the estimation
そして推定処理実行部76は、S210に示す処理で生成された多チャンネル画像を変化特徴抽出器32bに入力する(S211)。
Then, the estimation
そして推定処理実行部76は、S211に示す処理における入力に応じて変化特徴抽出器32bが出力する特徴情報を特定する(S212)。
Then, the estimation
そして推定処理実行部76は、S207に示す処理で特定された特徴情報、S209に示す処理で特定された特徴情報、及び、S212に示す処理で特定された特徴情報、を結合した加工推定入力データを生成する(S213)。
Then, the estimation
そして推定処理実行部76は、S213に示す処理で生成された加工推定入力データを変化識別器34に入力する(S214)。
Then, the estimation
そして推定結果特定部78は、S214に示す処理における加工推定入力データの入力に応じた変化識別器34の出力を、S204に示す処理で特定された位置に対応付けられる推定結果データとして特定する(S215)。
Then, the estimation
そして推定処理実行部76は、S204に示す処理で未選択である位置が存在するか否かを確認する(S216)。
Then, the estimation
ここで存在することが確認された場合は(S216:Y)、S204に示す処理に戻る。 If the existence is confirmed here (S216: Y), the process returns to the process shown in S204.
存在しないことが確認された場合は(S216:N)、画面生成部80が、S215に示す処理で特定された推定結果データに基づいて、推定結果画面22を生成する(S217)。S217に示す処理では、画面生成部80は、例えば、推定結果データに対応付けられる位置を中心とするポリゴンを囲む、当該推定結果データの値に応じた家屋異動対応画像24を描画してもよい。そして画面生成部80は、家屋異動対応画像24が重畳された推定ターゲット画像20bが配置された推定結果画面22を生成してもよい。
If it is confirmed that there is not (S216: N), the
そして表示制御部82が、S217に示す処理で生成された推定結果画面22を表示部16に表示させて(S218)、本処理例に示す処理は終了される。
Then, the
なおS201〜S218に示す処理の実行順序は上述のものに限定されず、上述に示す順序とは異なる実行順序でこれらの処理が実行されてもよい。 The execution order of the processes shown in S201 to S218 is not limited to the above, and these processes may be executed in an execution order different from the order shown above.
なお、本発明は上述の実施形態に限定されるものではない。 The present invention is not limited to the above-described embodiment.
例えばオリジナル学習入力データに、第1学習画像に示されている建物の位置及び形状を示す学習建物検出画像と第2学習画像に示されている建物の位置及び形状を示す学習建物検出画像の両方が含まれてもよい。そしてこれら2個の学習建物検出画像の両方が入力48として機械学習モデル30に入力されてもよい。この場合は推定において、推定建物検出画像26bから抽出される推定チップ画像28(推定チップ画像28c)だけでなく、推定建物検出画像26aから抽出される推定チップ画像28も入力48として機械学習モデル30に入力されることとなる。
For example, in the original learning input data, both a learning building detection image showing the position and shape of the building shown in the first learning image and a learning building detection image showing the position and shape of the building shown in the second learning image May be included. Then, both of these two learning building detection images may be input to the
また例えば学習に用いられる学習建物検出画像として、中心に示されている建物のみについての位置及び形状を示す画像が用いられてもよい。また例えば推定において、推定チップ画像28cの代わりに、中心に示されている建物のみについての位置及び形状を示す図11に例示する推定チップ画像28dが用いられてもよい。図11に示す推定チップ画像28dは例えば中心に示されている建物以外の建物のポリゴンが推定チップ画像28cから削除されることにより生成される。
Further, for example, as a learning building detection image used for learning, an image indicating the position and shape of only the building shown at the center may be used. Also, for example, in estimation, instead of the estimated chip image 28c, an estimated
また例えば、機械学習モデル30の学習において、学習画像の代わりに、学習建物検出画像が、有無特徴抽出器32aに入力されてもよい。この場合、推定において、推定ターゲット画像20aから抽出される推定チップ画像28(推定チップ画像28a)の代わりに、推定建物検出画像26aから抽出される推定チップ画像28が入力40として有無特徴抽出器32aaに入力されることとなる。また推定ターゲット画像20bから抽出される推定チップ画像28(推定チップ画像28b)の代わりに、推定建物検出画像26bから抽出される推定チップ画像28(推定チップ画像28c)が入力44として有無特徴抽出器32abに入力されることとなる。
Also, for example, in learning of the
また例えば機械学習モデル30の学習において、全体教師データに含まれる二値データである有無データの代わりに、学習画像に基づいて生成される学習建物検出画像が用いられてもよい。
Also, for example, in learning of the
また例えば、学習において、一対の学習画像の代わりに一対の学習画像の差分を示す差分画像が用いられてもよい。この場合、推定において、推定チップ画像28a及び推定チップ画像28bの代わりに推定チップ画像28a及び推定チップ画像28bとの差分を示す差分画像が用いられてもよい。ここで差分画像に含まれるある座標値の画素の画素値として、例えば、第2学習画像に含まれる当該座標値の画素の画素値から第1学習画像に含まれる当該座標値の画素の画素値を引いた値が設定されてもよい。 Also, for example, in learning, a difference image indicating the difference between a pair of learning images may be used instead of the pair of learning images. In this case, in the estimation, instead of the estimated chip image 28a and the estimated chip image 28b, a difference image indicating the difference between the estimated chip image 28a and the estimated chip image 28b may be used. Here, for example, from the pixel value of the pixel of the coordinate value included in the second learning image as the pixel value of the pixel of the coordinate value included in the difference image, the pixel value of the pixel of the coordinate value included in the first learning image A value obtained by subtracting may be set.
また例えば、学習において、学習入力データに含まれる学習建物検出画像の代わりに、第1学習画像に基づいて生成される学習建物検出画像と第2学習画像に基づいて生成される学習建物検出画像との差分を示す差分画像が用いられてもよい。この場合、推定において、推定チップ画像28cの代わりに、推定建物検出画像26aから抽出される推定チップ画像28と推定建物検出画像26bから抽出される推定チップ画像28cとの差分を示す差分画像が用いられてもよい。
Also, for example, in learning, instead of the learning building detection image included in the learning input data, a learning building detection image generated based on the first learning image and a learning building detection image generated based on the second learning image A difference image may be used that indicates the difference between In this case, in the estimation, instead of the estimated chip image 28c, a difference image indicating the difference between the estimated chip image 28 extracted from the estimated
また例えば、図12に示すように、機械学習モデル30が有無特徴抽出器32aを含んでいなくてもよい。この場合、学習において、変化特徴抽出器32bの出力52が変化識別器34だけではなく、有無識別器32c(32ca及び32cb)に入力されてもよい。そして誤差逆伝播法(バックプロパゲーション)などにより、有無識別器32caの出力58と第1有無データとの比較結果(誤差)に基づいて、変化特徴抽出器32b及び有無識別器32caの重み等のパラメータの値が変更されてもよい。また誤差逆伝播法(バックプロパゲーション)などにより、有無識別器32cbの出力60と第2有無データとの比較結果(誤差)に基づいて、変化特徴抽出器32b及び有無識別器32cbの重み等のパラメータの値が変更されてもよい。
For example, as shown in FIG. 12, the
また例えば、図13に示すように、機械学習モデル30が有無特徴抽出器32a及び有無識別器32cを含んでいなくてもよい。この場合、学習及び推定において、第1学習画像内の所定の位置(例えば中心)に建物が示されているか否かを示す画像が入力84として入力されてもよい。また、第2学習画像内の所定の位置(例えば中心)に建物が示されているか否かを示す画像が入力86として入力されてもよい。入力84や入力86として入力される画像は、例えば、変化特徴抽出器32bの出力52である特徴マップと同じサイズの(例えば縦横の画素数がそれぞれLである)単色の画像であってもよい。ここで例えば、建物が示されている場合には白色の画像が、建物が示されていない場合は黒色の画像が、建物が示されているか否かを示す画像として用いられてもよい。そして有無特徴抽出器32aから出力される特徴情報の代わりに、入力84や入力86として入力される画像が、変化特徴抽出器32bの出力52と結合された上で、入力54として変化識別器34に入力されるようにしてもよい。ここで出力52として出力される特徴情報が、例えばマップ数が512である特徴マップである場合は、入力54として変化識別器34に入力されるデータは、マップ数が514である特徴マップとなる。
For example, as shown in FIG. 13, the
また例えば、図14に示すように、学習及び推定において、入力84や入力86として入力される画像も結合された多チャンネル画像が変化特徴抽出器32bに入力されるようにしてもよい。またこの場合、変化特徴抽出器32bの出力52がそのまま変化識別器34に入力されるようにしてもよい。
For example, as shown in FIG. 14, in learning and estimation, a multi-channel image combined with an image input as the
また例えば、学習において、学習建物検出画像が変化特徴抽出器32bに入力されず、第1学習画像及び第2学習画像のみが変化特徴抽出器32bに入力されるようにしてもよい。またこの場合推定において、推定建物検出画像26から抽出される推定チップ画像28が変化特徴抽出器32bに入力されず、推定ターゲット画像20a、20bから抽出される推定チップ画像28のみが変化特徴抽出器32bに入力されるようにしてもよい。
For example, in learning, a learning building detection image may not be input to the
また例えば、図15に示すように、機械学習モデル30が備える有無特徴抽出器32aが1つであってもよい。また、機械学習モデル30が備える有無識別器32cが1つであってもよい。この場合、学習においては、第1学習画像の有無特徴抽出器32aへの入力及び当該入力に応じた出力の特定と第2学習画像の有無特徴抽出器32aへの入力及び当該入力に応じた出力の特定が順次実行される。そして第1学習画像を有無特徴抽出器32aに入力した際の出力と、第2学習画像を有無特徴抽出器32aに入力した際の出力と、変化特徴抽出器32bの出力とを結合したデータが変化識別器34に入力されてもよい。この場合推定において、推定チップ画像28aの有無特徴抽出器32aへの入力及び当該入力に応じた出力の特定と推定チップ画像28bの有無特徴抽出器32aへの入力及び当該入力に応じた出力の特定が順次実行されてもよい。そして推定チップ画像28aを有無特徴抽出器32aに入力した際の出力と、推定チップ画像28bを有無特徴抽出器32aに入力した際の出力と、変化特徴抽出器32bの出力とを結合したデータが変化識別器34に入力されてもよい。
For example, as shown in FIG. 15, the
また例えば、機械学習モデル30に含まれるプーリング層の代わりに、Dilated Convolution層が用いられてもよい。こうすればプーリング層を用いた場合に発生する情報量の圧縮を廃した特徴抽出が可能となる。また機械学習モデル30に含まれる全結合層の代わりに、畳み込み層が用いられてもよい。こうすれば計算コストの低減や入力の画像サイズに非依存な機械学習モデル30が実現可能な場合がある。
Also, for example, a Dilated Convolution layer may be used instead of the pooling layer included in the
また推定ターゲット画像20bが、第1の時点よりも前である第2の時点に撮影された画像であってもよい。この場合は、上述の例において新築と推定される建物は滅失と推定され、滅失と推定される建物は新築と推定されるようにする必要がある。
Further, the estimated
また推定建物検出画像26a、26bの代わりに、建物の位置や輪郭が記載された画像が用いられてもよい。
Further, instead of the estimated
また、上述の具体的な文字列や数値、並びに、図面中の具体的な文字列は例示であり、これらの文字列や数値には限定されない。 Further, the above-described specific character strings and numerical values, and the specific character strings in the drawings are merely examples, and the present invention is not limited to these character strings and numerical values.
10 家屋異動推定装置、12 プロセッサ、14 記憶部、16 表示部、18 操作部、20a,20b 推定ターゲット画像、22 推定結果画面、24,24a,24b,24c 家屋異動対応画像、26,26a,26b 推定建物検出画像、28,28a,28b,28c,28d 推定チップ画像、30 機械学習モデル、32 加工部、32a,32aa,32ab有無特徴抽出器、32b 変化特徴抽出器、32c,32ca,32cb 有無識別器、34 変化識別器、40,44,48,50,54,84,86 入力、42,46,52,56,58,60 出力、70 学習データ取得部、72 学習処理実行部、74 推定対象データ取得部、76 推定処理実行部、78 推定結果特定部、80 画面生成部、82 表示制御部。
DESCRIPTION OF
Claims (11)
異なる時点に撮影された一対の土地の推定画像の違い、及び、少なくとも一方の前記推定画像内における所定の位置に建物が示されているか否かを示す推定入力データを前記変化識別器に入力する変化識別器入力手段と、
前記変化識別器に前記推定入力データを入力した際の出力に基づいて、一方の前記推定画像内における前記所定の位置と他方の前記推定画像内における前記所定の位置に対応付けられる位置との間における家屋異動を推定する家屋異動推定手段と、
を含むことを特徴とする家屋異動推定装置。 Learning input data indicating a difference between learning images of a pair of lands photographed at different points in time, and whether or not a building is indicated at a predetermined position in the learning image for at least one of the learning images; Change identification in which learning data including a plurality of teacher data indicating house change between the predetermined position in the learning image and the position corresponding to the predetermined position in the other learning image is learned And the
Estimated input data indicating differences between estimated images of a pair of lands taken at different times and whether a building is shown at a predetermined position in at least one of the estimated images is input to the change discriminator Change discriminator input means,
Between the predetermined position in one of the estimated images and the position associated with the predetermined position in the other estimated image, based on the output when the estimated input data is input to the change discriminator House change estimation means for estimating house changes in
House movement estimation device characterized by including.
前記一対の推定画像を前記有無特徴抽出器に入力した際の出力である特徴情報を特定する有無特徴情報特定手段と、をさらに含み、
前記変化識別器入力手段は、前記有無特徴情報特定手段が特定する特徴情報を含む前記推定入力データを前記変化識別器に入力する、
ことを特徴とする請求項1に記載の家屋異動推定装置。 A presence / absence feature extractor that outputs feature information indicating whether a building is shown at a predetermined position in the image according to an input of the image of the land;
Further including presence / absence feature information specifying means for specifying feature information which is an output when the pair of estimated images is input to the presence / absence feature extractor;
The change discriminator input means inputs the estimated input data including the feature information specified by the presence / absence feature information specifying means to the change discriminator.
The house change estimation device according to claim 1, characterized in that:
前記一対の推定画像、及び、少なくとも一方の前記推定画像について当該推定画像内における所定の位置に建物が示されているか否かを示す画像を前記変化特徴抽出器に入力した際の出力である特徴情報を特定する変化特徴情報特定手段と、をさらに含み、
前記変化識別器入力手段は、前記変化特徴情報特定手段が特定する特徴情報を含む前記推定入力データを前記変化識別器に入力する、
ことを特徴とする請求項1又は2に記載の家屋異動推定装置。 The pair of lands is input according to an image of a pair of lands taken at different points in time and an image indicating whether a building is shown at a predetermined position in the image for at least one of the images. A change feature extractor that outputs feature information indicating differences in images of
A feature that is an output when the pair of estimated images and an image indicating whether or not a building is shown at a predetermined position in the estimated image of at least one of the estimated images is input to the change feature extractor A change feature information identification means for identifying information;
The change discriminator input means inputs the estimated input data including the feature information specified by the change feature information specifying means to the change discriminator.
The house change estimation device according to claim 1 or 2, characterized in that
前記変化特徴情報特定手段は、前記一対の推定画像、及び、少なくとも一方の前記推定画像についての当該推定画像内の前記所定の位置に示されている建物の形状を示す画像を前記変化特徴抽出器に入力した際の出力である特徴情報を特定する、
ことを特徴とする請求項3に記載の家屋異動推定装置。 The variation feature extractor is responsive to input of an image of a pair of lands taken at different points in time and an image showing a shape of a building shown at a predetermined position in the image of at least one of the images. Output feature information indicating the difference between the pair of land images,
The change feature information specifying means may be an image showing the shape of a building shown at the predetermined position in the estimated image of the pair of estimated images and the estimated image of the at least one of the estimated images. Identify the feature information that is the output when input to
The house change estimation device according to claim 3, wherein
前記一対の推定画像を前記有無特徴抽出器に入力した際の出力である特徴情報を特定する有無特徴情報特定手段と、
異なる時点に撮影された一対の土地の画像、及び、少なくとも一方の前記画像についての当該画像内の所定の位置に建物が示されているか否かを示す画像の入力に応じて、前記一対の土地の画像の違いを示す特徴情報を出力する変化特徴抽出器と、
前記一対の推定画像、及び、少なくとも一方の前記推定画像についての当該推定画像内における所定の位置に建物が示されているか否かを示す画像を前記変化特徴抽出器に入力した際の出力である特徴情報を特定する変化特徴情報特定手段と、
前記有無特徴情報特定手段が特定する特徴情報と前記変化特徴情報特定手段が特定する特徴情報とを結合する結合手段と、をさらに含み、
前記変化識別器入力手段は、前記結合手段により結合された特徴情報を含む前記推定入力データを前記変化識別器に入力する、
ことを特徴とする請求項1に記載の家屋異動推定装置。 A presence / absence feature extractor that outputs feature information indicating whether a building is shown at a predetermined position in the image according to an input of the image of the land;
Presence / absence feature information specifying means for specifying feature information which is an output when the pair of estimated images is input to the presence / absence feature extractor;
The pair of lands is input according to an image of a pair of lands taken at different points in time and an image indicating whether a building is shown at a predetermined position in the image for at least one of the images. A change feature extractor that outputs feature information indicating differences in images of
It is an output at the time of inputting into the change feature extractor an image indicating whether the building is indicated at a predetermined position in the estimated image of the pair of estimated images and at least one of the estimated images. Variation feature information specifying means for specifying feature information;
The information processing apparatus further includes combining means for combining the feature information specified by the presence / absence feature information specifying means with the feature information specified by the change feature information specifying means.
The change discriminator input means inputs the estimated input data including the feature information combined by the combining means to the change discriminator.
The house change estimation device according to claim 1, characterized in that:
前記画面生成手段が生成する画面が表示されるよう制御する表示制御手段と、をさらに含む、
ことを特徴とする請求項1から5のいずれか一項に記載の家屋異動推定装置。 Screen generation means for generating a screen on which information representing house changes estimated by the house change estimation means is arranged;
And a display control unit configured to control to display a screen generated by the screen generation unit.
The house movement estimation apparatus according to any one of claims 1 to 5, characterized in that:
前記変化識別器に前記学習入力データを入力した際の出力と、一方の前記学習画像内における前記所定の位置と他方の前記学習画像内における前記所定の位置に対応付けられる位置との間における家屋異動を示す教師データと、を比較する比較手段と、
前記比較の結果に基づいて、前記変化識別器のパラメータを変更するパラメータ変更手段と、
を含むことを特徴とする家屋異動学習装置。 Change identification of learning input data indicating differences between learning images of a pair of lands taken at different times and whether or not a building is shown at a predetermined position in at least one of the learning images. Input means for input to the
A house between the output when the learning input data is input to the change discriminator and the position corresponding to the predetermined position in the other learning image in the one learning image A comparison means for comparing teacher data indicating a transfer;
Parameter changing means for changing the parameter of the change discriminator based on the result of the comparison;
House change learning device characterized by including.
前記変化識別器に前記推定入力データを入力した際の出力に基づいて、一方の前記推定画像内における前記所定の位置と他方の前記推定画像内における前記所定の位置に対応付けられる位置との間における家屋異動を推定するステップと、
を含むことを特徴とする家屋異動推定方法。 Learning input data indicating a difference between learning images of a pair of lands photographed at different points in time, and whether or not a building is indicated at a predetermined position in the learning image for at least one of the learning images; Change identification in which learning data including a plurality of teacher data indicating house change between the predetermined position in the learning image and the position corresponding to the predetermined position in the other learning image is learned Said change discriminator showing estimated input data indicating the difference between estimated images of a pair of lands taken at different times and whether a building is shown at a predetermined position in at least one of said estimated images Step to
Between the predetermined position in one of the estimated images and the position associated with the predetermined position in the other estimated image, based on the output when the estimated input data is input to the change discriminator Estimating house changes in
The house movement estimation method characterized by including.
前記変化識別器に前記学習入力データを入力した際の出力と、一方の前記学習画像内における前記所定の位置と他方の前記学習画像内における前記所定の位置に対応付けられる位置との間における家屋異動を示す教師データと、を比較するステップと、
前記比較の結果に基づいて、前記変化識別器のパラメータを変更するステップと、
を含むことを特徴とする識別器のパラメータ生成方法。 Change identification of learning input data indicating differences between learning images of a pair of lands taken at different times and whether or not a building is shown at a predetermined position in at least one of the learning images. Input to the
A house between the output when the learning input data is input to the change discriminator and the position corresponding to the predetermined position in the other learning image in the one learning image Comparing with teacher data indicating a transfer;
Changing parameters of the change discriminator based on a result of the comparison;
A method of generating a parameter of a discriminator, comprising:
前記変化識別器に前記推定入力データを入力した際の出力に基づいて、一方の前記推定画像内における前記所定の位置と他方の前記推定画像内における前記所定の位置に対応付けられる位置との間における家屋異動を推定する手順、
をコンピュータに実行させることを特徴とするプログラム。 Learning input data indicating a difference between learning images of a pair of lands photographed at different points in time, and whether or not a building is indicated at a predetermined position in the learning image for at least one of the learning images; Change identification in which learning data including a plurality of teacher data indicating house change between the predetermined position in the learning image and the position corresponding to the predetermined position in the other learning image is learned Said change discriminator showing estimated input data indicating the difference between estimated images of a pair of lands taken at different times and whether a building is shown at a predetermined position in at least one of said estimated images Steps to enter in
Between the predetermined position in one of the estimated images and the position associated with the predetermined position in the other estimated image, based on the output when the estimated input data is input to the change discriminator Procedure to estimate house change in
A program characterized by causing a computer to execute.
前記変化識別器に前記学習入力データを入力した際の出力と、一方の前記学習画像内における前記所定の位置と他方の前記学習画像内における前記所定の位置に対応付けられる位置との間における家屋異動を示す教師データと、を比較する手順、
前記比較の結果に基づいて、前記変化識別器のパラメータを変更する手順、
をコンピュータに実行させることを特徴とするプログラム。 Change identification of learning input data indicating differences between learning images of a pair of lands taken at different times and whether or not a building is shown at a predetermined position in at least one of the learning images. Procedure to input to the
A house between the output when the learning input data is input to the change discriminator and the position corresponding to the predetermined position in the other learning image in the one learning image Procedure to compare with the teacher data showing the transfer,
Changing the parameter of the change discriminator based on the result of the comparison;
A program characterized by causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017172187A JP7053195B2 (en) | 2017-09-07 | 2017-09-07 | House change estimation device, house change learning device, house change estimation method, parameter generation method and program of classifier |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017172187A JP7053195B2 (en) | 2017-09-07 | 2017-09-07 | House change estimation device, house change learning device, house change estimation method, parameter generation method and program of classifier |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019046416A true JP2019046416A (en) | 2019-03-22 |
JP7053195B2 JP7053195B2 (en) | 2022-04-12 |
Family
ID=65814498
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017172187A Active JP7053195B2 (en) | 2017-09-07 | 2017-09-07 | House change estimation device, house change learning device, house change estimation method, parameter generation method and program of classifier |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7053195B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021033584A (en) * | 2019-08-22 | 2021-03-01 | 株式会社パスコ | Building change identification device and program |
JP7466165B1 (en) | 2023-10-20 | 2024-04-12 | 株式会社Ridge-i | Information processing device, information processing method, and information processing program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004198530A (en) * | 2002-12-16 | 2004-07-15 | Hitachi Ltd | Map updating system, map updating method and computer program |
US20100128977A1 (en) * | 2008-11-25 | 2010-05-27 | Nec System Technologies, Ltd. | Building change detection apparatus, Building change detection method and program |
JP2017033197A (en) * | 2015-07-30 | 2017-02-09 | 日本電信電話株式会社 | Change area detection device, method, and program |
-
2017
- 2017-09-07 JP JP2017172187A patent/JP7053195B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004198530A (en) * | 2002-12-16 | 2004-07-15 | Hitachi Ltd | Map updating system, map updating method and computer program |
US20100128977A1 (en) * | 2008-11-25 | 2010-05-27 | Nec System Technologies, Ltd. | Building change detection apparatus, Building change detection method and program |
JP2017033197A (en) * | 2015-07-30 | 2017-02-09 | 日本電信電話株式会社 | Change area detection device, method, and program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021033584A (en) * | 2019-08-22 | 2021-03-01 | 株式会社パスコ | Building change identification device and program |
JP7466165B1 (en) | 2023-10-20 | 2024-04-12 | 株式会社Ridge-i | Information processing device, information processing method, and information processing program |
Also Published As
Publication number | Publication date |
---|---|
JP7053195B2 (en) | 2022-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10885365B2 (en) | Method and apparatus for detecting object keypoint, and electronic device | |
CN111986178A (en) | Product defect detection method and device, electronic equipment and storage medium | |
CN108229504B (en) | Image analysis method and device | |
CN112434721A (en) | Image classification method, system, storage medium and terminal based on small sample learning | |
CN108280455B (en) | Human body key point detection method and apparatus, electronic device, program, and medium | |
CN111598164B (en) | Method, device, electronic equipment and storage medium for identifying attribute of target object | |
CN108416902A (en) | Real-time object identification method based on difference identification and device | |
CN108229418B (en) | Human body key point detection method and apparatus, electronic device, storage medium, and program | |
CN106462572A (en) | Techniques for distributed optical character recognition and distributed machine language translation | |
CN111444744A (en) | Living body detection method, living body detection device, and storage medium | |
CN112857268B (en) | Object area measuring method, device, electronic equipment and storage medium | |
CN112381104A (en) | Image identification method and device, computer equipment and storage medium | |
US10748000B2 (en) | Method, electronic device, and recording medium for notifying of surrounding situation information | |
CN112749685B (en) | Video classification method, apparatus and medium | |
CN108229494B (en) | Network training method, processing method, device, storage medium and electronic equipment | |
CN116168351B (en) | Inspection method and device for power equipment | |
CN111652181B (en) | Target tracking method and device and electronic equipment | |
CN111369524B (en) | Nodule recognition model training method, nodule recognition method and device | |
CN114511661A (en) | Image rendering method and device, electronic equipment and storage medium | |
US10295403B2 (en) | Display a virtual object within an augmented reality influenced by a real-world environmental parameter | |
JP2019046416A (en) | Premises change estimation apparatus, premises change learning apparatus, premises change estimation method, parameter generation method for discriminator, and program | |
US20220351486A1 (en) | Object detection device, object detection method, and program | |
CN117274370A (en) | Three-dimensional pose determining method, three-dimensional pose determining device, electronic equipment and medium | |
CN116977260A (en) | Target defect detection method and device, electronic equipment and storage medium | |
CN114140852B (en) | Image detection method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200727 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210827 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210914 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211022 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220322 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220331 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7053195 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |