JP2020030730A - House movement reading system, house movement reading method, house movement reading program, and house loss reading model - Google Patents

House movement reading system, house movement reading method, house movement reading program, and house loss reading model Download PDF

Info

Publication number
JP2020030730A
JP2020030730A JP2018157095A JP2018157095A JP2020030730A JP 2020030730 A JP2020030730 A JP 2020030730A JP 2018157095 A JP2018157095 A JP 2018157095A JP 2018157095 A JP2018157095 A JP 2018157095A JP 2020030730 A JP2020030730 A JP 2020030730A
Authority
JP
Japan
Prior art keywords
house
data
loss
time
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018157095A
Other languages
Japanese (ja)
Other versions
JP7018371B2 (en
Inventor
孝彦 縄田
Takahiko Nawata
孝彦 縄田
▲しゅう▼ 蘇
Xu Su
▲しゅう▼ 蘇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aero Asahi Corp
Original Assignee
Aero Asahi Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aero Asahi Corp filed Critical Aero Asahi Corp
Priority to JP2018157095A priority Critical patent/JP7018371B2/en
Publication of JP2020030730A publication Critical patent/JP2020030730A/en
Application granted granted Critical
Publication of JP7018371B2 publication Critical patent/JP7018371B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

To accurately read the loss of a house on the basis of aerial photographs taken in two periods of time.SOLUTION: A house movement reading device 1 comprises: an acquisition unit for acquiring a first aerial photograph taken in a first period, a second aerial photograph taken in a second period, and house diagram data in the first period; an extraction unit for extracting a first house area image and a second house area image from the first aerial photograph and the second aerial photograph respectively, based on a position and a planar shape of a house shown by the house diagram data; a learning data generation unit for generating learning data including the first house area image and the second house area image having shape information of the house and correct data showing whether the house has been lost or not; a model generation unit for generating a loss reading model that performs machine learning on the basis of the learning data and makes the first and second house area images used as inputs and house loss information, showing whether the house has been lost or not, used as outputs; and a model output unit for outputting the generated loss reading model.SELECTED DRAWING: Figure 1

Description

本発明は、家屋異動判読システム、家屋異動判読方法及び家屋異動判読プログラム、滅失判読モデルに関する。   The present invention relates to a house change interpretation system, a house change interpretation method, a house change interpretation program, and a loss interpretation model.

例えば課税対象の調査等を目的として、2時期の航空写真を対比して、家屋の異動(滅失、新築及び増改築)を判別することが行われている。例えば、前年度の航空写真データに基づく画像データと今年度航空写真データに基づく画像データとを比較するためにそれらを画面に表示するための技術が知られている(例えば、特許文献1参照)。   For example, for the purpose of investigating taxation, etc., it has been practiced to compare the aerial photographs of the two periods to determine a change in a house (lost, new construction, and renovation). For example, a technique for displaying image data based on the aerial photograph data of the previous year and image data based on the aerial photograph data of the current year on a screen in order to compare them is known (for example, see Patent Document 1). .

特開2018−4389号公報JP 2018-4389 A

従来、2時期の航空写真の対比による家屋の異動の判読は、それらを表示した画面を人が目視することにより行われていた。しかしながら、目視による判読は、非常に手間がかかっていた。また、機械による画像処理により、2時期の画像から色、テクスチャ及び高さ情報等の差分の情報を抽出して、家屋の異動を判読することも行われていたが、抽出される差分の情報には、画像の撮影条件の差異等に起因するノイズが多く含まれ、判読の精度が低かった。   Conventionally, the interpretation of a change in a house based on comparison of aerial photographs in two periods has been performed by a person viewing the screen displaying the changes. However, visual interpretation was very troublesome. In addition, the image processing by a machine extracts difference information such as color, texture, and height information from images of two periods, and interprets a change in a house. Contains many noises due to differences in image capturing conditions and the like, resulting in low interpretation accuracy.

そこで本発明は、2時期の航空写真に基づいて、家屋の異動のうちの滅失を精度良く且つ高速に判読することを目的とする。   Accordingly, an object of the present invention is to accurately and quickly read the loss of a change in a house based on two aerial photographs.

本発明の一形態に係る家屋異動判読システムは、第1の時期と第1の時期より後の時期である第2の時期との間における家屋の滅失を航空写真に基づいて判読するための滅失判読モデルを生成する家屋異動判読システムであって、第1の時期に撮影された第1の航空写真、第2の時期に撮影された第2の航空写真、及び第1の時期における、第1及び第2の航空写真に表された領域に対応する家屋図データを取得する取得部であって、家屋図データは、一以上の家屋データを含み、家屋データは、一の家屋に関しての少なくとも平面形状を表す形状情報及び位置を示す位置情報を含む、取得部と、家屋データにより示される家屋の位置及び平面形状に基づいて、第1の航空写真及び第2の航空写真のそれぞれから、一の家屋の位置及び範囲に対応する領域の画像である第1の家屋領域画像及び第2の家屋領域画像を抽出する抽出部と、少なくとも形状情報を伴う第1の家屋領域画像及び第2の家屋領域画像、並びに、第1及び第2の家屋領域画像に示される領域における家屋の滅失の有無を示す正解データを含む学習データを生成する学習データ生成部と、学習データに基づいて機械学習を行い、形状情報を伴う第1及び第2の家屋領域画像を入力として当該第1の家屋領域画像に示される家屋の滅失の有無を示す家屋滅失情報を出力とする滅失判読モデルを生成するモデル生成部と、生成された滅失判読モデルを出力するモデル出力部と、を備える。   A house transfer interpretation system according to one embodiment of the present invention provides a system for interpreting a house loss between a first time and a second time after the first time based on an aerial photograph. A house transfer interpretation system for generating an interpretation model, comprising: a first aerial photograph taken at a first time, a second aerial photograph taken at a second time, and a first aerial photograph at a first time. And an acquisition unit that acquires house diagram data corresponding to the area represented in the second aerial photograph, wherein the house diagram data includes one or more house data, and the house data includes at least a plane related to one house. Based on the acquisition unit including the shape information indicating the shape and the position information indicating the position, and the position and the planar shape of the house indicated by the house data, one of the first aerial photograph and the second aerial photograph is used. To the location and range of the house An extraction unit that extracts a first house area image and a second house area image that are images of corresponding areas, and a first house area image and a second house area image that include at least shape information; A learning data generation unit that generates learning data including correct data indicating whether or not a house has been lost in an area indicated by the second house area image; and a first learning apparatus that performs machine learning based on the learning data and includes shape information. And a model generation unit that generates a loss interpretation model that outputs the house loss information indicating whether or not the house shown in the first house area image has been lost as an input of the second house area image and the generated loss interpretation. A model output unit for outputting a model.

本発明の一形態に係る家屋異動判読方法は、第1の時期と第1の時期より後の時期である第2の時期との間における家屋の滅失を航空写真に基づいて判読するための滅失判読モデルを生成する家屋異動判読システムにおける家屋異動判読方法であって、第1の時期に撮影された第1の航空写真、第2の時期に撮影された第2の航空写真、及び第1の時期における、第1及び第2の航空写真に表された領域に対応する家屋図データを取得する取得ステップであって、家屋図データは、一以上の家屋データを含み、家屋データは、一の家屋に関しての少なくとも平面形状を表す形状情報及び位置を示す位置情報を含む、取得ステップと、家屋データにより示される家屋の位置及び平面形状に基づいて、第1の航空写真及び第2の航空写真のそれぞれから、一の家屋の位置及び範囲に対応する領域の画像である第1の家屋領域画像及び第2の家屋領域画像を抽出する抽出ステップと、少なくとも形状情報を伴う第1の家屋領域画像及び第2の家屋領域画像、並びに、第1及び第2の家屋領域画像に示される領域における家屋の滅失の有無を示す正解データを含む学習データを生成する学習データ生成ステップと、学習データに基づいて機械学習を行い、形状情報を伴う第1及び第2の家屋領域画像を入力として当該第1の家屋領域画像に示される家屋の滅失の有無を示す滅失情報を出力とする滅失判読モデルを生成するモデル生成ステップと、生成された滅失判読モデルを出力する出力ステップと、を有する。   The method for interpreting house transfer according to one aspect of the present invention includes a method for interpreting loss of a house between a first time and a second time after the first time based on an aerial photograph. A house change interpretation method in a house change interpretation system that generates a interpretation model, comprising: a first aerial photograph taken at a first time, a second aerial photograph taken at a second time, and a first aerial photograph. An acquisition step of acquiring house diagram data corresponding to an area represented in the first and second aerial photographs at a time, wherein the house diagram data includes one or more house data, and the house data includes one or more house data. An acquisition step including at least shape information indicating a planar shape and position information indicating a position of the house, and a first aerial photograph and a second aerial photograph based on the position and the planar shape of the house indicated by the house data; Each An extraction step of extracting a first house area image and a second house area image which are images of an area corresponding to the position and range of one house, and a first house area image and a second house area image including at least shape information. A learning data generating step of generating learning data including a second house area image, and learning data including correct data indicating presence or absence of a house in the areas indicated by the first and second house area images; and a machine based on the learning data. A model that performs learning, and generates a loss interpretation model that outputs first and second house area images accompanied by shape information and outputs loss information indicating the presence or absence of loss of the house indicated in the first house area image. A generating step; and an output step of outputting the generated loss interpretation model.

本発明の一形態に係る家屋異動判読プログラムは、コンピュータを、第1の時期と第1の時期より後の時期である第2の時期との間における家屋の滅失を航空写真に基づいて判読するための滅失判読モデルを生成する家屋異動判読システムとして機能させるための家屋異動判読プログラムであって、コンピュータに、第1の時期に撮影された第1の航空写真、第2の時期に撮影された第2の航空写真、及び第1の時期における、第1及び第2の航空写真に表された領域に対応する家屋図データを取得する取得機能であって、家屋図データは、一以上の家屋データを含み、家屋データは、一の家屋に関しての少なくとも平面形状を表す形状情報及び位置を示す位置情報を含む、取得機能と、家屋データにより示される家屋の位置及び平面形状に基づいて、第1の航空写真及び第2の航空写真のそれぞれから、一の家屋の位置及び範囲に対応する領域の画像である第1の家屋領域画像及び第2の家屋領域画像を抽出する抽出機能と、少なくとも形状情報を伴う第1の家屋領域画像及び第2の家屋領域画像、並びに、第1及び第2の家屋領域画像に示される領域における家屋の滅失の有無を示す正解データを含む学習データを生成する学習データ生成機能と、学習データに基づいて機械学習を行い、形状情報を伴う第1及び第2の家屋領域画像を入力として当該第1の家屋領域画像に示される家屋の滅失の有無を示す滅失情報を出力とする滅失判読モデルを生成するモデル生成機能と、生成された滅失判読モデルを出力する出力機能と、を実現させる。   A house change interpretation program according to one embodiment of the present invention interprets a computer based on an aerial photograph of loss of a house between a first time and a second time that is a time later than the first time. A house change interpretation program for functioning as a house change interpretation system for generating a loss interpretation model for a first aerial photograph taken at a first time and taken at a second time by a computer A second aerial photograph, and an acquisition function for acquiring house map data corresponding to an area represented in the first and second aerial photographs at the first time, wherein the house map data includes one or more houses. Including the data, the house data includes at least the shape information representing one house and the position information indicating the position indicating the position, an acquisition function, and the position and the plane shape of the house indicated by the house data. Then, extraction is performed to extract a first house area image and a second house area image, which are images of an area corresponding to the position and range of one house, from each of the first aerial photograph and the second aerial photograph. Learning including the function and the first house area image and the second house area image with at least the shape information, and the correct answer data indicating the presence or absence of the house in the areas shown in the first and second house area images. A learning data generation function of generating data, and performing machine learning based on the learning data, and inputting the first and second house area images accompanied by the shape information as inputs to determine the loss of the house shown in the first house area image. A model generation function for generating a loss interpretation model that outputs loss information indicating presence / absence and an output function for outputting the generated loss interpretation model are realized.

本発明の一形態に係る滅失判読モデルは、第1の時期と第1の時期より後の時期である第2の時期との間における家屋の滅失を航空写真に基づいて判読するための、機械学習により生成されるニューラルネットワークを含む学習済みモデルである滅失判読モデルであって、家屋の平面形状を表す形状情報を伴う第1の家屋領域画像及び第2の家屋領域画像を入力値として、第1及び第2の家屋領域画像に示される領域における家屋の滅失の有無を示す正解データを出力値とする学習データに基づく機械学習により構成され、第1の家屋領域画像及び第2の家屋領域画像のそれぞれは、一の家屋に関しての平面形状を表す形状情報及び位置を示す位置情報を含む家屋データに基づいて、第1の時期に撮影された第1の航空写真及び第2の時期に撮影された第2の航空写真のそれぞれから抽出された、一の家屋の位置及び範囲に対応する領域の画像である。   A loss interpretation model according to one embodiment of the present invention is a machine for interpreting loss of a house between a first time and a second time later than the first time based on an aerial photograph. A loss-reading model, which is a learned model including a neural network generated by learning, wherein a first house area image and a second house area image accompanying shape information representing a planar shape of a house are input values, and The first and second house area images are configured by machine learning based on learning data having output values of correct data indicating the presence or absence of a house in the areas shown in the first and second house area images. Are based on the house data including the shape information indicating the planar shape and the position information indicating the position of one house, based on the first aerial photograph taken at the first time and the second time at the second time. Extracted from each of the second aerial photographs that are shaded, it is an image of the region corresponding to the position and extent of one house.

上記の形態によれば、第1の時期における家屋図データに基づいて、第1及び第2の航空写真のそれぞれから、一の家屋の位置及び範囲に対応する領域の画像である、第1及び第2の家屋領域画像が抽出される。このように抽出された第1及び第2の家屋領域画像は、第1及び第2の時期のそれぞれにおける一の家屋の有無を示す画像的特徴を含むこととなる。また、第1の家屋領域画像に表されている家屋であって第1の時期における家屋図データに含まれている家屋の平面形状を表す形状情報を伴わせた第1及び第2の家屋領域画像が機械学習の学習データに用いられるので、第1及び第2の家屋領域画像に家屋の平面形状が適切に関連付けられて学習される。そして、家屋の滅失の有無を示す正解データがさらに関連付けられて学習されることにより滅失判読モデルが生成されるので、第1及び第2の時期のそれぞれにおける家屋の領域の画像に基づいて、家屋の滅失の発生の可能性を精度良く示す情報を高速に出力可能なモデルを得ることが可能となる。   According to the above aspect, based on the house map data at the first time, from the first and second aerial photographs, the first and second aerial photographs are images of the area corresponding to the position and range of one house. A second house area image is extracted. The first and second house area images extracted in this manner include image features indicating the presence or absence of one house at each of the first and second periods. In addition, the first and second house areas which are the houses shown in the first house area image and which include shape information indicating the planar shape of the house included in the house diagram data at the first time. Since the image is used for the learning data of the machine learning, the first and second house area images are appropriately associated with the planar shape of the house and learned. Then, the correctness data indicating the presence or absence of loss of the house is further associated and learned to generate the loss interpretation model. Therefore, based on the image of the area of the house at each of the first and second times, the house is determined based on the image of the house. It is possible to obtain a model capable of outputting information indicating the possibility of occurrence of the loss with high accuracy at high speed.

別の形態に係る家屋異動判読システムは、抽出部は、家屋データにより示される家屋の形状情報に基づいて、当該家屋の平面形状を表す図形データ含む方形状の領域からなる家屋領域データを生成し、第1の航空写真及び第2の航空写真のそれぞれにおける、家屋領域データに対応する領域を、第1の家屋領域画像及び第2の家屋領域画像として抽出し、学習データ生成部は、第1の家屋領域画像、第2の家屋領域画像及び家屋領域データ、並びに、正解データを含む学習データを生成することとしてもよい。   In the house change interpretation system according to another aspect, the extraction unit generates house area data including a square area including graphic data representing a planar shape of the house, based on the shape information of the house indicated by the house data. , An area corresponding to the house area data in each of the first aerial photograph and the second aerial photograph is extracted as a first house area image and a second house area image, and the learning data generation unit The learning data including the house area image, the second house area image, the house area data, and the correct answer data may be generated.

上記の形態によれば、家屋の平面形状を表す図形データ含む方形状の領域からなる家屋領域データが生成されると共に、家屋領域と同様の形状の領域からなる第1及び第2の家屋領域画像が生成される。このように生成された家屋領域データ並びに第1及び第2の家屋領域画像が学習データとして用いられる。このように生成された家屋領域データは、第1の時期における家屋の平面形状の情報を確実に含むこととなるので、第1及び第2の家屋領域画像に家屋の平面形状の情報を適切に関連付けて機械学習を実施できる。   According to the above aspect, the house area data including the rectangular area including the graphic data representing the planar shape of the house is generated, and the first and second house area images including the area having the same shape as the house area are generated. Is generated. The thus generated house area data and the first and second house area images are used as learning data. Since the house area data generated in this manner surely includes the information on the plane shape of the house at the first time, the information on the plane shape of the house is appropriately included in the first and second house area images. Machine learning can be performed in association with it.

別の形態に係る家屋異動判読システムは、抽出部は、家屋データにより示される家屋の形状情報に基づいて、第1の航空写真及び第2の航空写真のそれぞれから、形状情報に示される家屋の平面形状に対応する形状の領域を、第1の家屋領域画像及び第2の家屋領域画像として抽出し、学習データ生成部は、家屋の平面形状に対応する形状を有する第1の家屋領域画像及び第2の家屋領域画像並びに正解データを含む学習データを生成することとしてもよい。   In the house change interpretation system according to another aspect, the extraction unit is configured to extract the house indicated in the shape information from each of the first aerial photograph and the second aerial photograph based on the house shape information indicated by the house data. A region having a shape corresponding to the planar shape is extracted as a first house region image and a second house region image, and the learning data generation unit outputs a first house region image having a shape corresponding to the planar shape of the house and The learning data including the second house area image and the correct answer data may be generated.

上記の形態によれば、第1の時期における家屋の平面形状に対応する形状の領域が、第1及び第2の家屋領域画像として、第1及び第2の航空写真から抽出されるので、第1及び第2の家屋領域画像には、第1の時期における家屋の平面形状の情報が含まれることとなる。従って、このように抽出された第1及び第2の家屋領域画像を、別途の家屋の平面形状を表すデータを加えることなく、学習データとして機械学習に用いることにより、家屋の平面形状の情報を適切に関連付けた機械学習を実施できると共に、機械学習に供するデータの容量の削減が可能となる。   According to the above aspect, the region having the shape corresponding to the planar shape of the house at the first time is extracted from the first and second aerial photographs as the first and second house region images. The first and second house area images include information on the planar shape of the house at the first time. Therefore, the first and second house region images extracted in this manner are used as learning data for machine learning without adding data representing a separate house plane shape, thereby enabling information on the house plane shape to be obtained. Appropriate machine learning can be performed, and the amount of data provided for machine learning can be reduced.

別の形態に係る家屋異動判読システムは、正解データは、所定の形状を有する画像データであって、家屋が滅失したことを示す正解データの全ての画素は、第1の色及び第2の色の一方を有し、家屋が滅失していないことを示す正解データの全ての画素は、第1の色及び第2の色の他方を有することとしてもよい。   In the house change interpretation system according to another aspect, the correct answer data is image data having a predetermined shape, and all pixels of the correct answer data indicating that the house has been lost have the first color and the second color. , And all pixels of the correct answer data indicating that the house has not been lost may have the other of the first color and the second color.

上記の形態によれば、所定の形状を有し第1または第2の色の画素からなる画像データを、家屋の滅失の有無を示す家屋滅失情報として出力する滅失判読モデルを得ることが可能となる。また、家屋滅失情報において、家屋の滅失の有無の分類結果が各画素における2値の色のうちのいずれかの色として示されるので、第1の色の画素及び第2の色の画素の割合に、家屋の滅失の発生の可能性が反映されるので、家屋の滅失の有無を容易に判読できる。   According to the above aspect, it is possible to obtain a loss interpretation model that outputs image data having a predetermined shape and composed of pixels of the first or second color as house loss information indicating whether a house has been lost. Become. In addition, in the house loss information, the classification result of whether or not the house has been lost is indicated as one of the binary colors of each pixel. Therefore, the ratio of the pixels of the first color and the pixels of the second color Since the possibility of the loss of the house is reflected on this, the presence or absence of the loss of the house can be easily read.

また、本発明の一形態に係る家屋異動判読システムは、上記の滅失判読モデルを用いて、第1の時期と第1の時期より後の時期である第2の時期との間における家屋の滅失を航空写真に基づいて判読する家屋の滅失を判読する家屋異動判読システムであって、第1の時期に撮影された第1の航空写真、第2の時期に撮影された第2の航空写真、及び第1の時期における、第1及び第2の航空写真に表された領域に対応する家屋図データを取得する取得部であって、家屋図データは、一以上の家屋データを含み、家屋データは、一の家屋に関しての少なくとも平面形状を表す形状情報及び位置を示す位置情報を含む、取得部と、家屋データにより示される家屋の位置及び平面形状に基づいて、第1の航空写真及び第2の航空写真のそれぞれから、一の家屋の位置及び範囲に対応する領域の画像である第1の家屋領域画像及び第2の家屋領域画像を抽出する抽出部と、少なくとも形状情報を伴う第1の家屋領域画像及び第2の家屋領域画像を滅失判読モデルに入力して、滅失判読モデルの出力値を家屋滅失情報として取得する判読部と、判読部により取得された家屋滅失情報を出力する滅失情報出力部と、を備える。   In addition, the house change interpretation system according to one aspect of the present invention uses the above-described loss interpretation model to determine whether a house has been lost between a first time and a second time that is a time later than the first time. Is a house transfer interpretation system that interprets the loss of a house based on an aerial photograph, wherein the first aerial photograph taken at the first time, the second aerial photograph taken at the second time, And an acquisition unit for acquiring house diagram data corresponding to the areas represented in the first and second aerial photographs at the first time, wherein the house diagram data includes one or more house data, A first aerial photograph and a second aerial photograph based on an acquisition unit including at least shape information representing a planar shape and position information indicating a position with respect to one house, and a position and a planar shape of the house indicated by the house data. From each of the aerial photographs An extraction unit that extracts a first house area image and a second house area image that are images of an area corresponding to the position and range of one house, and a first house area image and a second house image that include at least shape information. The system includes a reading unit that inputs a house area image to a loss interpretation model and acquires an output value of the loss interpretation model as house loss information, and a loss information output unit that outputs house loss information acquired by the interpretation unit.

また、本発明の一形態に係る家屋異動判読方法は、上記の滅失判読モデルを用いて、第1の時期と第1の時期より後の時期である第2の時期との間における家屋の滅失を航空写真に基づいて判読する家屋異動判読システムにおける家屋異動判読方法であって、第1の時期に撮影された第1の航空写真、第2の時期に撮影された第2の航空写真、及び第1の時期における、第1及び第2の航空写真に表された領域に対応する家屋図データを取得する取得ステップであって、家屋図データは、一以上の家屋データを含み、家屋データは、一の家屋に関しての少なくとも平面形状を表す形状情報及び位置を示す位置情報を含む、取得ステップと、家屋データにより示される家屋の位置及び平面形状に基づいて、第1の航空写真及び第2の航空写真のそれぞれから、一の家屋の位置及び範囲に対応する領域の画像である第1の家屋領域画像及び第2の家屋領域画像を抽出する抽出ステップと、少なくとも形状情報を伴う第1の家屋領域画像及び第2の家屋領域画像を滅失判読モデルに入力して、滅失判読モデルの出力値を家屋滅失情報として取得する判読ステップと、判読ステップにおいて取得された家屋滅失情報を出力する滅失情報出力ステップと、を有する。   In addition, the method for interpreting house transfer according to one aspect of the present invention uses the above-described model for judging loss and eliminates loss of a house between a first time and a second time after the first time. A house change interpretation method in a house change interpretation system that interprets the aerial photograph based on an aerial photograph, wherein a first aerial photograph taken at a first time, a second aerial photograph taken at a second time, and In an acquisition step of acquiring house map data corresponding to an area represented in the first and second aerial photographs at a first time, the house map data includes one or more house data, and the house data includes: The first aerial photograph and the second aerial photograph based on the acquisition step and the position and the planar shape of the house indicated by the house data, the information including at least the shape information indicating the planar shape and the position information indicating the position of the one house. Aerial photography An extraction step of extracting a first house area image and a second house area image that are images of an area corresponding to the position and range of one house, and a first house area including at least shape information. A reading step of inputting the image and the second house area image to the loss interpretation model and acquiring an output value of the loss interpretation model as house loss information; and a loss information output step of outputting the house loss information acquired in the interpretation step. And

また、本発明の一形態に係る家屋異動判読プログラムはコンピュータを、請求項7に記載の滅失判読モデルを用いて、第1の時期と第1の時期より後の時期である第2の時期との間における家屋の滅失を航空写真に基づいて判読する家屋異動判読システムとして機能させるための家屋異動判読プログラムであって、コンピュータに、第1の時期に撮影された第1の航空写真、第2の時期に撮影された第2の航空写真、及び第1の時期における、第1及び第2の航空写真に表された領域に対応する家屋図データを取得する取得機能であって、家屋図データは、一以上の家屋データを含み、家屋データは、一の家屋に関しての少なくとも平面形状を表す形状情報及び位置を示す位置情報を含む、取得機能と、家屋データにより示される家屋の位置及び平面形状に基づいて、第1の航空写真及び第2の航空写真のそれぞれから、一の家屋の位置及び範囲に対応する領域の画像である第1の家屋領域画像及び第2の家屋領域画像を抽出する抽出機能と、少なくとも形状情報を伴う第1の家屋領域画像及び第2の家屋領域画像を滅失判読モデルに入力して、滅失判読モデルの出力値を家屋滅失情報として取得する判読機能と、判読機能により取得された家屋滅失情報を出力する滅失情報出力機能と、を実現させる。   In addition, the house change interpretation program according to one embodiment of the present invention uses a computer to execute the loss interpretation model according to claim 7 in a first period and a second period that is a period later than the first period. A house change interpretation program for functioning as a house change interpretation system for interpreting the loss of a house during a period based on an aerial photograph, wherein the first aerial photograph taken at a first time, An acquisition function for acquiring the second aerial photograph taken at the time of and the house map data corresponding to the area represented by the first and second aerial photographs at the first time, Includes one or more house data, the house data includes at least shape information representing a planar shape and position information indicating a position regarding one house, an acquisition function, and a position of the house indicated by the house data. A first house area image and a second house area image, which are images of an area corresponding to the position and range of one house, from each of the first aerial photograph and the second aerial photograph based on the first and second aerial photographs. And a reading function of inputting at least the first house area image and the second house area image accompanying the shape information to the loss interpretation model, and acquiring the output value of the loss interpretation model as house loss information. And a loss information output function of outputting house loss information acquired by the reading function.

上記の形態によれば、第1の時期における家屋図データに基づいて、第1及び第2の航空写真のそれぞれから、一の家屋の位置及び範囲に対応する領域の画像である、第1及び第2の家屋領域画像が抽出される。このように抽出された第1及び第2の家屋領域画像は、第1及び第2の時期のそれぞれにおける一の家屋の有無を示す画像的特徴を含むこととなる。このように抽出された第1及び第2の家屋領域画像が家屋の平面形状を表す形状情報を伴って滅失判読モデルに入力されるので、第1の時期と第2の時期との間における家屋の滅失の有無が精度良く判読される。   According to the above aspect, based on the house map data at the first time, from the first and second aerial photographs, the first and second aerial photographs are images of the area corresponding to the position and range of one house. A second house area image is extracted. The first and second house area images extracted in this manner include image features indicating the presence or absence of one house at each of the first and second periods. Since the first and second house region images extracted in this way are input to the loss interpretation model together with the shape information representing the planar shape of the house, the house between the first time and the second time is The presence or absence of loss is accurately read.

別の形態に係る家屋異動判読システムは、家屋滅失情報は、第1及び第2の家屋領域画像の形状に対応する形状を有する画像であって、家屋滅失情報の各画素は、第1の色及び第1の色とは異なる第2の色のいずれかを有し、家屋滅失情報における第1の色の画素及び第2の色の画素の割合は、第1及び第2の家屋領域画像に示される領域における家屋の滅失の可能性を示すこととしてもよい。   In the house change interpretation system according to another aspect, the house loss information is an image having a shape corresponding to the shapes of the first and second house region images, and each pixel of the house loss information has a first color. And the second color different from the first color, and the ratio of the pixel of the first color and the pixel of the second color in the house loss information is represented by the first and second house area images. The possibility of loss of a house in the indicated area may be indicated.

上記の形態によれば、家屋滅失情報において、第1の色の画素及び第2の色の画素の割合に、家屋の滅失の発生の可能性が反映されるので、家屋の滅失の有無を容易に判読できる。   According to the above aspect, in the house loss information, the ratio of the pixels of the first color and the pixels of the second color reflects the possibility of the loss of the house. Can be read.

本発明の一側面によれば、2時期の航空写真に基づいて、家屋の異動のうちの滅失を精度良く且つ高速に判読することが可能となる。   According to an aspect of the present invention, it is possible to accurately and quickly read the loss of a change in a house based on the aerial photographs of two periods.

本実施形態に係る家屋異動判読システムの機能的構成を示すブロック図である。It is a block diagram showing the functional composition of the house change interpretation system concerning this embodiment. 家屋異動判読装置のハードウェア構成を示す図である。It is a figure showing the hardware constitutions of a house change interpretation device. 図3(a)は、航空写真の例を模式的に示す図である。図3(b)は、家屋図データの例を模式的に示す図である。FIG. 3A is a diagram schematically illustrating an example of an aerial photograph. FIG. 3B is a diagram schematically illustrating an example of house diagram data. 家屋領域データの生成を示す図である。It is a figure showing generation of house area data. 家屋図データに関する前処理であるポリゴン統合処理を説明する図である。It is a figure explaining polygon integration processing which is pre-processing about house figure data. 家屋領域画像の抽出の例を示す図である。It is a figure which shows the example of extraction of a house area image. 図7(a)及び図7(b)はそれぞれ、学習データの例を示す図である。FIGS. 7A and 7B are diagrams each showing an example of learning data. 家屋領域画像の抽出及び学習データの生成の他の例を説明する図であって、図7(a)及び図7(b)はそれぞれ、学習データの他の例を示す図である。FIGS. 7A and 7B are diagrams illustrating another example of extraction of a house area image and generation of learning data. FIGS. 7A and 7B are diagrams illustrating other examples of learning data. 滅失判読モデルに入力するデータセット及びモデルから出力された家屋滅失情報の例を模式的に示す図である。It is a figure which shows typically the data set input into a loss interpretation model, and the example of the house loss information output from the model. 滅失判読モデルから出力される家屋滅失情報の例を示す図である。It is a figure showing an example of house loss information outputted from a loss interpretation model. 機械学習によるモデル生成の局面における、家屋異動判読装置において実施される家屋異動判読方法の処理内容を示すフローチャートである。It is a flowchart which shows the process content of the house change interpretation method implemented in the house change interpretation apparatus in the aspect of model generation by machine learning. 学習済みのモデルを用いた家屋の滅失判読の局面における、家屋異動判読装置において実施される家屋異動判読方法の処理内容を示すフローチャートである。It is a flowchart which shows the process content of the house change interpretation method implemented in a house change interpretation apparatus in the phase of house loss interpretation using the learned model. 図13(a)及び図13(b)はそれぞれ、家屋異動判読プログラムの構成を示す図である。FIGS. 13A and 13B are diagrams each showing a configuration of a house change interpretation program.

以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。なお、図面の説明において同一又は同等の要素には同一の符号を付し、重複する説明を省略する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same or equivalent elements will be denoted by the same reference symbols, without redundant description.

図1は、本実施形態に係る家屋異動判読システムの装置構成及び家屋異動判読装置の機能的構成を示す図である。図1に示すように、家屋異動判読装置1Aは、機械学習によるモデル生成の局面における家屋異動判読システムを構成する。具体的には、家屋異動判読装置1Aは、第1の時期と第1の時期より後の時期である第2の時期との間における家屋の滅失を航空写真に基づいて判読するための滅失判読モデルを生成する。   FIG. 1 is a diagram showing a device configuration of a house change reading system according to the present embodiment and a functional configuration of a house change reading device. As shown in FIG. 1, the house change interpretation device 1A constitutes a house change interpretation system in a model generation phase by machine learning. Specifically, the house change interpretation device 1A reads the loss of the house between the first time and the second time after the first time based on the aerial photograph. Generate a model.

また、家屋異動判読装置1Bは、家屋の滅失判読の局面における家屋異動判読システムを構成する。具体的には、家屋異動判読装置1Bは、滅失判読モデルを用いて第1の時期と第2の時期との間における家屋の滅失を航空写真に基づいて判読する。   In addition, the house change interpretation device 1B constitutes a house change interpretation system in the phase of house loss interpretation. Specifically, the house change interpretation device 1B interprets the loss of the house between the first time and the second time based on the aerial photograph using the loss interpretation model.

図1に示すように、家屋異動判読装置1Aは、取得部11、抽出部12、学習データ生成部13、モデル生成部14及びモデル出力部15を備える。家屋異動判読装置1Bは、取得部11B、抽出部12B、判読部16及び滅失情報出力部17を備える。   As illustrated in FIG. 1, the house change interpretation device 1A includes an acquisition unit 11, an extraction unit 12, a learning data generation unit 13, a model generation unit 14, and a model output unit 15. The house change interpretation device 1B includes an acquisition unit 11B, an extraction unit 12B, an interpretation unit 16, and a loss information output unit 17.

本実施形態の家屋異動判読装置1A及び家屋異動判読装置1Bは、各々が別の装置として構成されているが、一体に構成されてもよい。また、家屋異動判読装置1A及び家屋異動判読装置1Bに含まれる各機能部は、複数の装置に分散されて構成されてもよい。また、家屋異動判読装置1A及び家屋異動判読装置1Bに含まれる各機能部は、ハードウェア及びソフトウェアのいずれか、または任意の組み合わせによって実現される。   Although the house change reading device 1A and the house change reading device 1B of the present embodiment are each configured as separate devices, they may be formed integrally. Further, each functional unit included in the house change reading device 1A and the house change reading device 1B may be configured to be distributed to a plurality of devices. Each functional unit included in the house change reading device 1A and the house change reading device 1B is realized by any one of hardware and software, or any combination.

図1に示すように、家屋異動判読システムは、航空写真記憶部21、家屋図データ記憶部22及びモデル記憶部23といった記憶手段を含むことができる。これらの記憶手段21〜23は、家屋異動判読装置1A及び家屋異動判読装置1Bからネットワークまたは所定の通信手段を介してアクセス可能に構成されている。また、記憶手段21〜23は、家屋異動判読装置1に設けられてもよい。   As shown in FIG. 1, the house change interpretation system can include storage means such as an aerial photograph storage unit 21, a house map data storage unit 22, and a model storage unit 23. These storage units 21 to 23 are configured to be accessible from the house change reading device 1A and the house change reading device 1B via a network or predetermined communication means. Further, the storage units 21 to 23 may be provided in the house change interpretation device 1.

家屋異動判読装置1A及び家屋異動判読装置1Bの各機能部の説明に先立って、記憶手段21〜23を説明する。航空写真記憶部21は、所定時期に撮影された航空写真のデータを記憶している記憶手段である。本実施形態では、第1の時期と第1の時期より後の時期である第2の時期との間における家屋の滅失を航空写真に基づいて判読するために、航空写真記憶部21は、第1の時期に撮影された第1の航空写真及び第2の時期に撮影された第2の航空写真を記憶している。具体的には、例えば、課税対象となる家屋の調査を目的とする場合には、第1の時期は、ある年の1月1日であり、第2の時期は、その翌年の1月1日である。   Prior to the description of the functional units of the house change reading device 1A and the house change reading device 1B, the storage units 21 to 23 will be described. The aerial photograph storage unit 21 is storage means for storing data of aerial photographs taken at a predetermined time. In the present embodiment, in order to interpret the loss of the house between the first time and the second time, which is a time after the first time, based on the aerial photograph, the aerial photograph storage unit 21 stores A first aerial photograph taken at a first time and a second aerial photograph taken at a second time are stored. Specifically, for the purpose of investigating a taxable house, for example, the first time is January 1 of a certain year, and the second time is January 1 of the next year. Day.

家屋図データ記憶部22は、家屋図データを記憶している記憶手段である。家屋図データは、ある一時期において、所定の地理的領域に存在する各家屋の家屋データを含む。家屋データは、一の家屋に関しての平面形状を表す形状情報及び位置を示す位置情報を含む。また、家屋データは、家屋の大きさ(面積)に関する情報を含んでもよい。また、家屋データは、各家屋を一意に識別する識別情報に各情報を関連付けたデータであってもよい。家屋図データが2次元の地図上に表現される場合には、家屋データは、家屋の位置、形状及び大きさを表すポリゴンとして表されてもよい。家屋図データ及び家屋データは、例えばベクトルデータであることができる。家屋図データは、例えば、ある一時期における調査に基づいて、自治体等により作成される。本実施形態では、家屋図データ記憶部22は、第1の時期における家屋図データを記憶している。   The house diagram data storage unit 22 is a storage unit that stores house diagram data. The house diagram data includes house data of each house existing in a predetermined geographical area at one time. The house data includes shape information indicating a planar shape of one house and position information indicating a position. The house data may include information on the size (area) of the house. Further, the house data may be data in which each information is associated with identification information for uniquely identifying each house. When the house diagram data is represented on a two-dimensional map, the house data may be represented as a polygon representing the position, shape, and size of the house. The house diagram data and the house data can be, for example, vector data. The house map data is created by a local government or the like based on, for example, a survey in a certain period. In the present embodiment, the house diagram data storage unit 22 stores house diagram data at the first time.

モデル記憶部23は、家屋異動判読装置1Aにより作成及び出力された滅失判読モデルを記憶する記憶手段である。家屋異動判読装置1Bは、モデル記憶部23に記憶された滅失判読モデルを用いて、2時期の航空写真に基づいて、2時期間における家屋の滅失を判読する処理を実施できる。   The model storage unit 23 is a storage unit that stores the loss interpretation model created and output by the house change interpretation device 1A. The house change interpretation device 1B can use the loss interpretation model stored in the model storage unit 23 to perform a process of interpreting the loss of the house during the two o'clock period based on the aerial photographs of the two periods.

図2は、家屋異動判読装置1のハードウェア構成図である。家屋異動判読装置1は、物理的には、図2に示すように、CPU101、RAM及びROMといったメモリにより構成される主記憶装置102、ハードディスク及びメモリ等で構成される補助記憶装置103、通信制御装置104などを含むコンピュータシステムとして構成されている。家屋異動判読装置1は、入力デバイスであるキーボード、タッチパネル、マウス等の入力装置105及びディスプレイ等の出力装置106をさらに含むこととしてもよい。なお、家屋異動判読装置1は、GPUを含んで構成されてもよい。   FIG. 2 is a hardware configuration diagram of the house change interpretation device 1. As shown in FIG. 2, the house change reading device 1 physically includes a CPU 101, a main storage device 102 including a memory such as a RAM and a ROM, an auxiliary storage device 103 including a hard disk and a memory, and a communication control device. It is configured as a computer system including the device 104 and the like. The house change interpretation device 1 may further include an input device 105 such as a keyboard, a touch panel, and a mouse, which are input devices, and an output device 106 such as a display. Note that the house change interpretation device 1 may be configured to include a GPU.

図1に示した各機能は、図2に示すCPU101、主記憶装置102等のハードウェア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU101の制御のもとで通信制御装置104等を動作させるとともに、主記憶装置102や補助記憶装置103におけるデータの読み出し及び書き込みを行うことで実現される。処理に必要なデータやデータベースは主記憶装置102や補助記憶装置103内に格納される。   Each function shown in FIG. 1 operates the communication control device 104 and the like under the control of the CPU 101 by reading predetermined computer software on hardware such as the CPU 101 and the main storage device 102 shown in FIG. At the same time, it is realized by reading and writing data in the main storage device 102 and the auxiliary storage device 103. Data and databases required for processing are stored in the main storage device 102 and the auxiliary storage device 103.

再び図1を参照して、家屋異動判読装置1Aの機能部を説明する。取得部11は、第1の時期に撮影された第1の航空写真、第1の時期より後の時期である第2の時期に撮影された第2の航空写真、及び第1の時期における家屋図データを取得する。本実施形態では、第1の時期に存在した家屋の第2の時期における滅失の有無が判読される。具体的には、取得部11は、家屋の滅失の判読の対象の地域が表された第1及び第2の航空写真を、航空写真記憶部21から取得する。また、取得部11は、第1及び第2の航空写真に表された地域に対応する家屋図データを、家屋図データ記憶部22から取得する。   With reference to FIG. 1 again, the functional unit of the house change reading device 1A will be described. The acquisition unit 11 includes a first aerial photograph taken at the first time, a second aerial photograph taken at a second time after the first time, and a house at the first time. Get figure data. In the present embodiment, the presence or absence of the house existing at the first time in the second time is read. Specifically, the acquiring unit 11 acquires, from the aerial photograph storage unit 21, the first and second aerial photographs in which the area to be interpreted as the loss of the house is indicated. In addition, the acquisition unit 11 acquires, from the house diagram data storage unit 22, house diagram data corresponding to the areas represented in the first and second aerial photographs.

図3(a)は、航空写真の例を模式的に示す図である。図3(a)に示されるように、航空写真A1は、家屋の滅失の判読となる対象の地域を上空から撮影した写真であって、複数の家屋が表されている。   FIG. 3A is a diagram schematically illustrating an example of an aerial photograph. As shown in FIG. 3A, the aerial photograph A1 is a photograph taken from the sky of a target area where the loss of a house is to be interpreted, and shows a plurality of houses.

図3(b)は、家屋図データの例を模式的に示す図である。図3(b)に示される例は、家屋図データを2次元の地図上に表現した例である。図3(b)に示されるように、家屋図データB1は、図3(a)に示した航空写真A1に表された地域に対応しており、家屋データb11〜b18を含む。家屋データb11〜b18はそれぞれ、各家屋の位置を示す位置情報及び平面形状を表す形状情報を含む。家屋データにおける位置情報は、例えば、座標値により表される。形状情報は、図3(b)に示されるような、図形データであるポリゴンデータにより表される。   FIG. 3B is a diagram schematically illustrating an example of house diagram data. The example shown in FIG. 3B is an example in which house diagram data is represented on a two-dimensional map. As shown in FIG. 3B, the house map data B1 corresponds to the area shown in the aerial photograph A1 shown in FIG. 3A and includes house data b11 to b18. Each of the house data b11 to b18 includes position information indicating the position of each house and shape information indicating a planar shape. The position information in the house data is represented by, for example, coordinate values. The shape information is represented by polygon data, which is graphic data, as shown in FIG.

なお、取得部11は、航空写真の撮影条件の差異等に起因する色調の差を補正するために、周知の手法により、取得した航空写真の画素値を正規化してもよい。また、取得部11は、陰影除去のための周知の画像処理技術により、取得した航空写真中の陰影を除去してもよい。   Note that the acquisition unit 11 may normalize the pixel values of the acquired aerial photograph by a well-known method in order to correct a difference in color tone caused by a difference in photographing conditions of the aerial photograph. Further, the acquisition unit 11 may remove the shadow in the acquired aerial photograph by using a known image processing technique for removing the shadow.

抽出部12は、家屋データにより示される家屋の位置及び平面形状に基づいて、第1の航空写真及び第2の航空写真のそれぞれから、一の家屋の位置及び範囲に対応する領域の画像である第1の家屋領域画像及び第2の家屋領域画像を抽出する。図4〜図6を参照して、家屋領域画像の抽出処理を説明する。   The extraction unit 12 is an image of an area corresponding to the position and range of one house from each of the first aerial photograph and the second aerial photograph based on the house position and the planar shape indicated by the house data. A first house area image and a second house area image are extracted. The extraction process of the house area image will be described with reference to FIGS.

抽出部12は、家屋領域画像の抽出に先立って、家屋図データの家屋データに基づいて、家屋領域データを生成する。図4は、家屋領域データの生成を示す図である。図4には、家屋図データの一部である部分家屋図データB2が示されている。部分家屋図データB2は、家屋データb21を含む。   The extraction unit 12 generates house area data based on house data of the house drawing data before extracting the house area image. FIG. 4 is a diagram illustrating generation of house area data. FIG. 4 shows partial house drawing data B2 which is a part of the house drawing data. The partial house diagram data B2 includes house data b21.

抽出部12は、家屋データb21に示される家屋の形状を示すポリゴンの中心点CP(例えば重心点)の座標及びポリゴンの面積を算出する。続いて、抽出部12は、家屋データb21のポリゴンの面積に応じて、ポリゴンの中心点CPを中心としてポリゴンの外形を囲うことが可能なサイズを有する方形状領域rを設定する。本実施形態では、方形状領域rは、正方形状を有するが、正方形状には限定されない。方形状領域rのサイズは、例えば、ポリゴンのサイズに一定のマージンを加えたサイズであってもよいし、予め設定された複数の所定サイズのうちの一のサイズが適用されることとしてもよい。   The extraction unit 12 calculates the coordinates of the center point CP (for example, the center of gravity) of the polygon indicating the shape of the house indicated by the house data b21 and the area of the polygon. Subsequently, the extraction unit 12 sets a rectangular area r having a size capable of surrounding the outer shape of the polygon with the center point CP of the polygon as the center according to the area of the polygon in the house data b21. In the present embodiment, the square region r has a square shape, but is not limited to a square shape. The size of the rectangular area r may be, for example, a size obtained by adding a fixed margin to the size of the polygon, or one of a plurality of predetermined sizes set in advance may be applied. .

そして、抽出部12は、部分家屋図データB2から、家屋データb21のポリゴンを含む方形状の領域である方形状領域rを抽出して、家屋領域データc21を生成する。   Then, the extracting unit 12 extracts a square region r which is a square region including the polygon of the house data b21 from the partial house diagram data B2, and generates house region data c21.

図5は、家屋図データに関する前処理であるポリゴン統合処理を説明する図である。家屋図データにおいて、家屋図データの作成上の取り決め等に起因して、一の家屋が複数のポリゴンに分割されて表されている場合がある。このような場合に、抽出部12は、家屋領域データの生成に先立って、ポリゴンの統合処理を実施してもよい。   FIG. 5 is a diagram for explaining polygon integration processing, which is preprocessing for house diagram data. In the house diagram data, one house may be represented by being divided into a plurality of polygons due to a rule in creating the house diagram data. In such a case, the extraction unit 12 may execute a polygon integration process before generating the house area data.

例えば、抽出部12は、1つの位置情報に関連付けられた複数のポリゴン(形状情報)を家屋図データから抽出する。図5の矢印左側は、一の家屋が複数のポリゴンにより表されている例を示しており、一の家屋の形状が、ポリゴンb31及びポリゴンb32の2つのポリゴンにより表されている。抽出部12は、ポリゴンb31及びポリゴンb32に対して統合処理を行い、一の家屋を表す1つのポリゴンとしてポリゴンb33を生成する。   For example, the extraction unit 12 extracts a plurality of polygons (shape information) associated with one piece of position information from the house map data. The left side of the arrow in FIG. 5 illustrates an example in which one house is represented by a plurality of polygons, and the shape of one house is represented by two polygons, polygon b31 and polygon b32. The extraction unit 12 performs an integration process on the polygons b31 and b32, and generates a polygon b33 as one polygon representing one house.

図6は、家屋領域画像の抽出の例を示す図である。図6には、家屋領域データc41が示されている。家屋領域データc41は、一の家屋の平面形状を示すポリゴンである家屋データb41を含む。抽出部12は、第1の時期に撮影された第1の航空写真及び第2の時期に撮影された第2の航空写真のそれぞれにおける家屋領域データに対応する領域を、第1の家屋領域画像及び第2の家屋領域画像として抽出する。   FIG. 6 is a diagram illustrating an example of extracting a house area image. FIG. 6 shows house area data c41. The house area data c41 includes house data b41 which is a polygon indicating the planar shape of one house. The extraction unit 12 converts the area corresponding to the house area data in each of the first aerial photograph taken at the first time and the second aerial photograph taken at the second time into a first house area image. And a second house area image.

図6に示す例では、抽出部12は、第1の航空写真における、家屋領域データc41に対応する領域を抽出して、第1の家屋領域画像a41を生成する。また、抽出部12は、第2の航空写真における、家屋領域データc41に対応する領域を抽出して、第2の家屋領域画像a42を生成する。   In the example illustrated in FIG. 6, the extraction unit 12 extracts a region corresponding to the house region data c41 in the first aerial photograph, and generates a first house region image a41. Further, the extraction unit 12 extracts a region corresponding to the house region data c41 in the second aerial photograph, and generates a second house region image a42.

学習データ生成部13は、少なくとも家屋の形状情報を伴う第1の家屋領域画像及び第2の家屋領域画像並びに第1及び第2の家屋領域画像に示される領域における家屋の滅失の有無を示す正解データを含む学習データを生成する。   The learning data generation unit 13 corrects the presence or absence of a house in at least the first house area image and the second house area image accompanying the house shape information and the area shown in the first and second house area images. Generate learning data including data.

本実施形態では、一例として、第1の家屋領域画像、第2の家屋領域画像及び家屋領域データ、並びに、正解データを含む学習データを生成する。図7は、学習データの例を示す図である。   In the present embodiment, as an example, learning data including a first house area image, a second house area image, house area data, and correct answer data is generated. FIG. 7 is a diagram illustrating an example of learning data.

図7(a)に示す例においては、学習データ生成部13は、抽出部12により抽出された第1の家屋領域画像a51及び第2の家屋領域画像a52を取得する。また、学習データ生成部13は、第1及び第2の家屋領域画像a51,a52の抽出に際して参照された家屋領域データc5を取得する。   In the example illustrated in FIG. 7A, the learning data generation unit 13 acquires the first house area image a51 and the second house area image a52 extracted by the extraction unit 12. Further, the learning data generation unit 13 acquires the house area data c5 referred to when the first and second house area images a51 and a52 are extracted.

さらに、学習データ生成部13は、第1及び第2の家屋領域画像a51,a52に示される領域における家屋の滅失の有無を示す正解データe5を、第1及び第2の家屋領域画像a51,a52並びに家屋領域データc5に関連付ける。   Further, the learning data generation unit 13 converts the correct answer data e5 indicating the presence or absence of the house in the areas shown in the first and second house area images a51 and a52 into the first and second house area images a51 and a52. In addition, it is associated with the house area data c5.

正解データは、所定の形状を有する画像データであって、家屋が滅失したことを示す正解データの全ての画素は、第1の色及び第2の色の一方を有し、家屋が滅失していないことを示す正解データの全ての画素は、第1の色及び第2の色の他方を有する、   The correct answer data is image data having a predetermined shape, and all pixels of the correct answer data indicating that the house has been lost have one of the first color and the second color, and the house has been lost. All pixels of the correct answer data indicating that there is no other of the first color and the second color;

具体的には、正解データe5は、第1の家屋領域画像a51に表された家屋が、第2の家屋領域画像a52において滅失したことを示す画像データである。正解データe5は、所定の形状を有する画像データであって、例えば第1及び第2の家屋領域画像a51,a52の形状に対応する形状を有することとしてもよいが、その形状に限定されない。また、本実施形態では、滅失があったことを白色で示すこととするので、正解データe5の全ての画素は、白色及び黒色の2色のうちの白色を有する。第1及び第2の家屋領域画像a51,a52並びに家屋領域データc5に対する正解データe5の関連付けは、第1及び第2の家屋領域画像a51,a52の目視により滅失の有無を判断したユーザにより行われることとしてもよい。   Specifically, the correct answer data e5 is image data indicating that the house represented in the first house area image a51 has been lost in the second house area image a52. The correct answer data e5 is image data having a predetermined shape. For example, the correct answer data e5 may have a shape corresponding to the shapes of the first and second house area images a51 and a52, but is not limited thereto. Further, in the present embodiment, since the loss has been indicated by white, all the pixels of the correct answer data e5 have white of two colors of white and black. The association of the correct answer data e5 with the first and second house area images a51 and a52 and the house area data c5 is performed by the user who has visually determined whether or not the first and second house area images a51 and a52 have been lost. It may be that.

そして、学習データ生成部13は、第1の家屋領域画像a51、第2の家屋領域画像a52及び家屋領域データc5並びに正解データe5のセットからなる学習データd5を生成する。このように、学習データd5は、家屋データb5を含む家屋領域データc5を含むことにより、家屋データb5により示される家屋の平面形状(ポリゴンの形状)の情報を含むことになる。従って、このような学習データd5により、第1及び第2の家屋領域画像a51,a52に家屋の平面形状の情報を適切に関連付けた機械学習が実現される。   Then, the learning data generation unit 13 generates learning data d5 including a set of the first house area image a51, the second house area image a52, the house area data c5, and the correct answer data e5. As described above, the learning data d5 includes the house area data c5 including the house data b5, and thus includes information on the planar shape (polygon shape) of the house indicated by the house data b5. Therefore, by such learning data d5, machine learning in which information on the planar shape of the house is appropriately associated with the first and second house area images a51 and a52 is realized.

図7(b)に示す例においては、学習データ生成部13は、抽出部12により抽出された第1の家屋領域画像a61及び第2の家屋領域画像a62を取得する。また、学習データ生成部13は、第1及び第2の家屋領域画像a61,a62の抽出に際して参照された家屋領域データc6を取得する。   In the example illustrated in FIG. 7B, the learning data generation unit 13 acquires the first house area image a61 and the second house area image a62 extracted by the extraction unit 12. Further, the learning data generation unit 13 acquires the house area data c6 referred to when extracting the first and second house area images a61 and a62.

さらに、学習データ生成部13は、第1及び第2の家屋領域画像a61,a62に示される領域における家屋の滅失の有無を示す正解データe6を、第1及び第2の家屋領域画像a61,a62並びに家屋領域データc6に関連付ける。   Further, the learning data generation unit 13 converts the correct answer data e6 indicating the presence or absence of the house in the areas shown in the first and second house area images a61 and a62 into the first and second house area images a61 and a62. In addition, it is associated with the house area data c6.

具体的には、正解データe6は、第1の家屋領域画像a61に表された家屋が、第2の家屋領域画像a62において滅失していないことを示す画像データである。正解データe6は、所定の形状を有する画像データであって、例えば第1及び第2の家屋領域画像a61,a62の形状に対応する形状を有することとしてもよいが、その形状に限定されない。また、本実施形態では、滅失がなかったことを黒色で示すこととするので、正解データe6の全ての画素は、白色及び黒色の2色のうちの黒色を有する。第1及び第2の家屋領域画像a61,a62並びに家屋領域データc6に対する正解データe6の関連付けは、第1及び第2の家屋領域画像a61,a62の目視により滅失の有無を判断したユーザにより行われることとしてもよい。   Specifically, the correct answer data e6 is image data indicating that the house represented in the first house area image a61 has not been lost in the second house area image a62. The correct answer data e6 is image data having a predetermined shape. For example, the correct answer data e6 may have a shape corresponding to the shapes of the first and second house area images a61 and a62, but is not limited thereto. In this embodiment, since no loss is indicated by black, all the pixels of the correct answer data e6 have black of two colors of white and black. The association of the correct answer data e6 with the first and second house area images a61 and a62 and the house area data c6 is performed by the user who has visually determined whether or not the first and second house area images a61 and a62 have been lost. It may be that.

そして、学習データ生成部13は、第1の家屋領域画像a61、第2の家屋領域画像a62及び家屋領域データc6並びに正解データe6のセットからなる学習データd6を生成する。このように、学習データd6は、家屋データb6を含む家屋領域データc6を含むことにより、家屋データb6により示される家屋の平面形状(ポリゴンの形状)の情報を含むことになる。従って、このような学習データd6により、第1及び第2の家屋領域画像a61,a62に家屋の平面形状の情報を適切に関連付けた機械学習が実現される。   Then, the learning data generation unit 13 generates learning data d6 including a set of the first house area image a61, the second house area image a62, the house area data c6, and the correct answer data e6. As described above, the learning data d6 includes the house area data c6 including the house data b6, so that the learning data d6 includes information on the planar shape (polygon shape) of the house indicated by the house data b6. Accordingly, such learning data d6 implements machine learning in which the information on the planar shape of the house is appropriately associated with the first and second house area images a61 and a62.

図8は、家屋領域画像の抽出及び学習データの生成の他の例を説明する図である。ここで説明する他の例では、抽出部12は、家屋データにより示される家屋の形状情報に基づいて、第1の航空写真及び第2の航空写真のそれぞれから、形状情報に示される家屋の平面形状に対応する形状の領域を、第1の家屋領域画像及び第2の家屋領域画像として抽出する。   FIG. 8 is a diagram illustrating another example of extracting a house area image and generating learning data. In another example described here, the extraction unit 12 outputs the plane of the house indicated by the shape information from each of the first aerial photograph and the second aerial photograph based on the shape information of the house indicated by the house data. A region having a shape corresponding to the shape is extracted as a first house region image and a second house region image.

図8(a)に示す例では、家屋図データに含まれる一の家屋の情報の一例として、家屋データb7が示されている。家屋データb7は、家屋の平面形状を示す形状情報として、ポリゴンデータを有している。抽出部12は、第1の航空写真における、家屋データb7に対応する形状の領域を抽出して、第1の家屋領域画像a71を生成する。また、抽出部12は、第2の航空写真における、家屋データb7に対応する形状の領域を抽出して、第2の家屋領域画像a72を生成する。なお、抽出部12は、家屋データb7に示されるポリゴンの外形線の外側に一定のマージン領域を付した当該ポリゴンと略相似形の領域を、第1及び第2の航空写真から抽出して、第1及び第2の家屋領域画像を生成してもよい。   In the example illustrated in FIG. 8A, house data b7 is shown as an example of information of one house included in the house diagram data. The house data b7 has polygon data as shape information indicating the planar shape of the house. The extraction unit 12 extracts a region having a shape corresponding to the house data b7 in the first aerial photograph, and generates a first house region image a71. Further, the extraction unit 12 extracts a region having a shape corresponding to the house data b7 in the second aerial photograph, and generates a second house region image a72. Note that the extraction unit 12 extracts, from the first and second aerial photographs, an area substantially similar to the polygon with a fixed margin area added outside the outline of the polygon shown in the house data b7, The first and second house area images may be generated.

第1の家屋領域画像a71に表されていた家屋が、第2の家屋領域画像a72においては滅失しているので、第1及び第2の家屋領域画像a71、a72には、家屋の滅失を示す正解データe7を、例えば人手により関連付けることができる。   Since the house shown in the first house area image a71 is lost in the second house area image a72, the first and second house area images a71 and a72 indicate the loss of the house. The correct answer data e7 can be associated manually, for example.

学習データ生成部13は、第1の家屋領域画像a71及び第2の家屋領域画像a72並びに正解データe7を含む学習データd7を生成する。このように、第1及び第2の家屋領域画像a71,a72は、家屋の平面形状に基づいて抽出されることにより、家屋の平面形状と同様の平面形状を有することとなる。これにより、第1及び第2の家屋領域画像a71,a72には、家屋の平面形状の情報が含まれることとなる。   The learning data generation unit 13 generates learning data d7 including a first house area image a71, a second house area image a72, and correct answer data e7. As described above, the first and second house area images a71 and a72 have the same plane shape as the house by being extracted based on the plane shape of the house. As a result, the first and second house area images a71 and a72 include information on the planar shape of the house.

図8(b)に示す例では、家屋図データに含まれる一の家屋の情報の一例として、家屋データb8が示されている。家屋データb8は、家屋の平面形状を示す形状情報として、ポリゴンデータを有している。抽出部12は、第1の航空写真における、家屋データb8に対応する形状の領域を抽出して、第1の家屋領域画像a81を生成する。また、抽出部12は、第2の航空写真における、家屋データb8に対応する形状の領域を抽出して、第2の家屋領域画像a82を生成する。なお、抽出部12は、家屋データb8に示されるポリゴンの外形線の外側に一定のマージン領域を付した当該ポリゴンと略相似形の領域を、第1及び第2の航空写真から抽出して、第1及び第2の家屋領域画像を生成してもよい。   In the example shown in FIG. 8B, house data b8 is shown as an example of information of one house included in the house diagram data. The house data b8 has polygon data as shape information indicating the planar shape of the house. The extraction unit 12 extracts a region having a shape corresponding to the house data b8 in the first aerial photograph, and generates a first house region image a81. Further, the extraction unit 12 extracts a region having a shape corresponding to the house data b8 in the second aerial photograph, and generates a second house region image a82. Note that the extraction unit 12 extracts, from the first and second aerial photographs, an area substantially similar in shape to the polygon with a fixed margin area added to the outside of the outline of the polygon shown in the house data b8, The first and second house area images may be generated.

第1の家屋領域画像a81に表されていた家屋が、第2の家屋領域画像a82において滅失していないので、第1及び第2の家屋領域画像a81、a82には、家屋が滅失していないことを示す正解データe8を、例えば人手により関連付けることができる。   Since the house represented in the first house area image a81 has not been lost in the second house area image a82, no house has been lost in the first and second house area images a81 and a82. Correct data e8 indicating the fact can be associated manually, for example.

学習データ生成部13は、第1の家屋領域画像a81及び第2の家屋領域画像a82並びに正解データe8を含む学習データd8を生成する。このように、第1及び第2の家屋領域画像a81,a82は、家屋の平面形状に基づいて抽出されることにより、家屋の平面形状と同様の平面形状を有することとなる。これにより、第1及び第2の家屋領域画像a81,a82には、家屋の平面形状の情報が含まれることとなる。   The learning data generation unit 13 generates learning data d8 including the first house area image a81, the second house area image a82, and the correct answer data e8. As described above, the first and second house area images a81 and a82 have the same plane shape as the house by being extracted based on the plane shape of the house. As a result, the first and second house area images a81 and a82 include information on the planar shape of the house.

図8(a)及び図8(b)に示すような学習データd7,d8を機械学習に用いることにより、別途の家屋の平面形状を表すデータを加えることなく、家屋の平面形状の情報を適切に関連付けた機械学習を実施できると共に、機械学習に供するデータの容量の削減が可能となる。   By using the learning data d7 and d8 as shown in FIGS. 8A and 8B for machine learning, the information on the planar shape of the house can be appropriately adjusted without adding data representing the separate planar shape of the house. In addition to performing the machine learning associated with, the amount of data provided for the machine learning can be reduced.

再び図1を参照して、モデル生成部14は、学習データ生成部13により生成された学習データに基づいて機械学習を行い、家屋の形状情報を伴う第1及び第2の家屋領域画像を入力として、第1の家屋領域画像に示される家屋の、第2の家屋領域画像における滅失の有無を示す家屋滅失情報を出力とする滅失判読モデルを生成する。   Referring again to FIG. 1, model generation unit 14 performs machine learning based on the learning data generated by learning data generation unit 13 and inputs first and second house area images accompanied by house shape information. A loss interpretation model that outputs house loss information indicating the presence or absence of loss of the house shown in the first house region image in the second house region image is generated.

本実施形態では、例えば、CNN(Convolution Neural Network)により構成される滅失判読モデルが生成されるが、モデルの構成は、機械学習及びディープラーニングの分野において適用可能なものであれば、この例に限定されない。モデル生成部14は、学習データ生成部13により生成された学習データに基づいて、家屋の滅失の有無の判読を画像分類問題として機械学習させることにより、滅失判読モデルを生成する。   In the present embodiment, for example, a loss reading model composed of a CNN (Convolution Neutral Network) is generated. However, if the model configuration is applicable in the field of machine learning and deep learning, this example is used. Not limited. The model generation unit 14 generates a loss interpretation model by machine learning based on the learning data generated by the learning data generation unit 13 to determine whether a house has been lost as an image classification problem.

本実施形態の滅失判読モデルは、ニューラルネットワークを含んで構成される。学習済みのニューラルネットワークを含むモデルである滅失判読モデルは、コンピュータにより読み込まれ又は参照され、コンピュータに所定の処理を実行させ及びコンピュータに所定の機能を実現させるプログラムとして捉えることができる。   The loss interpretation model of the present embodiment is configured to include a neural network. The loss interpretation model, which is a model including a learned neural network, is read or referred to by a computer, and can be regarded as a program that causes a computer to execute a predetermined process and realize a predetermined function.

即ち、本実施形態の滅失判読モデルは、CPU(又は/及びGPU)及びメモリを備えるコンピュータにおいて用いられる。具体的には、コンピュータのCPU(又は/及びGPU)が、メモリに記憶された滅失判読モデルからの指令に従って、ニューラルネットワークの入力層に入力された入力データに対し、各層に対応する学習済みの重み付け係数と応答関数等に基づく演算を行い、出力層から結果を出力するよう動作する。   That is, the loss interpretation model of the present embodiment is used in a computer including a CPU (or / and a GPU) and a memory. Specifically, the CPU (or / and GPU) of the computer responds to input from the input layer of the neural network in accordance with instructions from the loss-and-decided model stored in the memory, by using the learned data corresponding to each layer. An operation is performed based on a weighting coefficient and a response function, and the result is output from the output layer.

本実施形態におけるニューラルネットワークに対する入力データは、例えば、家屋の形状情報を伴う第1及び第2の家屋領域画像である。具体的には、第1及び第2の家屋領域画像の画素値を、入力データとしてのデータ形式に適宜変換したものである。ニューラルネットワークからの出力の結果は、学習データに含まれる正解データに対応する形式で出力される家屋滅失情報である。後述するように、家屋滅失情報は、家屋の滅失が発生した可能性を示す。   The input data to the neural network in the present embodiment is, for example, first and second house area images accompanied by house shape information. Specifically, the pixel values of the first and second house area images are appropriately converted into a data format as input data. The result of the output from the neural network is the house loss information output in a format corresponding to the correct answer data included in the learning data. As will be described later, the house loss information indicates a possibility that house loss has occurred.

モデル出力部15は、モデル生成部14により生成された滅失判読モデルを出力する。具体的には、モデル出力部15は、例えば、生成された滅失判読モデルをモデル記憶部23に記憶させる。   The model output unit 15 outputs the loss interpretation model generated by the model generation unit 14. Specifically, the model output unit 15 causes the model storage unit 23 to store the generated loss interpretation model, for example.

このように、本実施形態の家屋異動判読装置1Aによれば、第1の時期における家屋図データに基づいて、第1及び第2の航空写真のそれぞれから、一の家屋の位置及び範囲に対応する領域の画像である、第1及び第2の家屋領域画像が抽出される。このように抽出された第1及び第2の家屋領域画像は、第1及び第2の時期のそれぞれにおける一の家屋の有無を示す画像的特徴を含むこととなる。また、第1の家屋領域画像に表されていると共に第1の時期における家屋図データに含まれている家屋の平面形状を表す形状情報を伴わせた第1及び第2の家屋領域画像が機械学習の学習データに用いられるので、第1及び第2の家屋領域画像に家屋の平面形状が適切に関連付けられて学習される。そして、家屋の滅失の有無を示す正解データがさらに関連付けられて学習されることにより滅失判読モデルが生成されるので、第1及び第2の時期のそれぞれにおける家屋の領域の画像に基づいて、家屋の滅失の発生の可能性を精度良く示す情報を出力可能なモデルを得ることが可能となる。   As described above, according to the house change interpretation device 1A of the present embodiment, based on the house map data at the first time, the position and the range of one house correspond to each of the first and second aerial photographs. First and second house region images, which are images of the region to be moved, are extracted. The first and second house area images extracted in this manner include image features indicating the presence or absence of one house at each of the first and second periods. In addition, the first and second house area images represented by the first house area image and accompanied by the shape information indicating the planar shape of the house included in the house plan data at the first time are used as the machine images. Since it is used for the learning data of the learning, the first and second house area images are appropriately associated with the planar shape of the house and learned. Then, the correctness data indicating the presence or absence of loss of the house is further associated and learned to generate the loss interpretation model. Therefore, based on the image of the area of the house at each of the first and second times, the house is determined based on the image of the house. It is possible to obtain a model capable of outputting information indicating the possibility of occurrence of the loss with high accuracy.

次に、再び図1を参照して、家屋の滅失判読の局面における家屋異動判読システムを構成する家屋異動判読装置1Bの機能を説明する。取得部11Bは、取得部11と同様の機能を有する。即ち、取得部11Bは、家屋の滅失の判読の対象となる、第1の航空写真、第2の航空写真及び第1の時期における家屋図データを取得する。   Next, with reference to FIG. 1 again, the function of the house change reading apparatus 1B constituting the house change reading system in the house loss judgment phase will be described. The acquisition unit 11B has the same function as the acquisition unit 11. That is, the obtaining unit 11B obtains the first aerial photograph, the second aerial photograph, and the house map data at the first time, which are to be interpreted as the loss of the house.

抽出部12Bは、抽出部12と同様の機能を有する。即ち、抽出部12Bは、家屋データにより示される家屋の位置及び平面形状に基づいて、取得部11Bにより取得された第1の航空写真及び第2の航空写真のそれぞれから、一の家屋の位置及び範囲に対応する領域の画像である第1の家屋領域画像及び第2の家屋領域画像を抽出する。   The extraction unit 12B has the same function as the extraction unit 12. That is, the extraction unit 12B determines the position and the position of one house from each of the first aerial photograph and the second aerial photograph acquired by the acquiring unit 11B based on the position and the planar shape of the house indicated by the house data. A first house area image and a second house area image, which are images of an area corresponding to the range, are extracted.

判読部16は、家屋の平面形状に関する形状情報を伴う第1の家屋領域画像及び第2の家屋領域画像を滅失判読モデルに入力して、滅失判読モデルの出力値を家屋滅失情報として取得する。図9は、滅失判読モデルに入力するデータセット及びモデルから出力された家屋滅失情報の例を模式的に示す図である。   The interpretation unit 16 inputs the first house area image and the second house area image accompanied by the shape information on the planar shape of the house to the loss interpretation model, and acquires the output value of the loss interpretation model as house loss information. FIG. 9 is a diagram schematically illustrating an example of a data set input to the loss interpretation model and house loss information output from the model.

滅失判読モデルに入力するデータセットd9は、第1の家屋領域画像a91、第2の家屋領域画像a92及び家屋領域データc9を含む。家屋領域データc9は、滅失の判読の対象である家屋に関する家屋データに基づいて抽出されたデータであって、当該家屋の平面形状を表すポリゴンの情報を含んでいる。第1の家屋領域画像a91は、第1の時期に撮影された第1の航空写真から抽出された画像であって、滅失の判読の対象である家屋が表されている。第2の家屋領域画像a92は、第2の時期に撮影された第2の航空写真から抽出された画像であって、第1の家屋領域画像a91に表された地理的領域と同じ領域を表している。   The data set d9 to be input to the loss interpretation model includes a first house area image a91, a second house area image a92, and house area data c9. The house area data c9 is data extracted based on house data relating to a house to be interpreted as being lost, and includes polygon information representing the planar shape of the house. The first house area image a91 is an image extracted from the first aerial photograph taken at the first time, and represents a house to be interpreted as being lost. The second house area image a92 is an image extracted from the second aerial photograph taken at the second time, and represents the same area as the geographical area shown in the first house area image a91. ing.

判読部16は、データセットd9を滅失判読モデルに入力することにより、その出力値として、家屋滅失情報f9を取得する。家屋滅失情報においては、家屋の滅失の可能性の高さが、白色の画素と黒色の画素との割合に反映されている。具体的には、学習データにおいて、家屋が滅失したことを示す正解データを、白色の画素からなる画像データとして、家屋が滅失していないことを示す正解データを、黒色の画素からなる画像データとしているので、家屋滅失情報において白色の画素の割合が高いほど、家屋が滅失した可能性が高いことを示す。図9に示す家屋滅失情報f9は、白色の画素の割合が極めて高いので、家屋が滅失した可能性が高いことを示している。   The interpretation unit 16 inputs the data set d9 into the loss interpretation model, and acquires the house loss information f9 as an output value. In the house loss information, the high possibility of house loss is reflected in the ratio of white pixels to black pixels. Specifically, in the learning data, the correct data indicating that the house has been lost is defined as image data composed of white pixels, and the correct data indicating that the house is not lost is defined as image data composed of black pixels. Therefore, the higher the ratio of white pixels in the house loss information, the higher the possibility that the house has been lost. The house loss information f9 shown in FIG. 9 indicates that there is a high possibility that the house has been lost because the ratio of white pixels is extremely high.

図10は、滅失判読モデルから出力される家屋滅失情報の例を示す図である。図10に示される家屋滅失情報f11〜f16のうちの家屋滅失情報f11では、白色の画素の割合が極めて高い。従って、家屋滅失情報f11は、家屋が滅失した可能性が高いことを示している。一方、家屋滅失情報f16では、白色の画素の割合が極めて低い。従って、家屋滅失情報f16は、家屋が滅失した可能性が低いことを示している。このように、家屋滅失情報が複数の画素により構成され、家屋の滅失の有無の分類結果が各画素における2値の色のうちのいずれかの色として示されるので、第1の色の画素及び第2の色の画素の割合に、家屋の滅失の発生の可能性が反映されることとなり、家屋の滅失の有無を容易に判読できる。   FIG. 10 is a diagram illustrating an example of house loss information output from the loss interpretation model. In the house loss information f11 of the house loss information f11 to f16 shown in FIG. 10, the ratio of white pixels is extremely high. Therefore, the house loss information f11 indicates that there is a high possibility that the house has been lost. On the other hand, in the house loss information f16, the ratio of white pixels is extremely low. Therefore, the house loss information f16 indicates that the possibility that the house has been lost is low. As described above, the house loss information is composed of a plurality of pixels, and the classification result of the presence or absence of the house is indicated as one of the binary colors of each pixel. The possibility of the loss of the house is reflected in the ratio of the pixels of the second color, and the presence or absence of the loss of the house can be easily read.

滅失情報出力部17は、判読部16により取得された家屋滅失情報を出力する。具体的には、滅失情報出力部17は、家屋滅失情報を所定の記憶手段に出力して記憶させる。また、滅失情報出力部17は、家屋滅失情報を所定の表示装置に表示させてもよい。   The loss information output unit 17 outputs the house loss information acquired by the reading unit 16. Specifically, the loss information output unit 17 outputs and stores the house loss information to a predetermined storage unit. Further, the loss information output unit 17 may display the house loss information on a predetermined display device.

このように、本実施形態の家屋異動判読装置1Bによれば、第1の時期における家屋図データに基づいて、第1及び第2の航空写真のそれぞれから、一の家屋の位置及び範囲に対応する領域の画像である、第1及び第2の家屋領域画像が抽出される。このように抽出された第1及び第2の家屋領域画像は、第1及び第2の時期のそれぞれにおける一の家屋の有無を示す画像的特徴を含むこととなる。このように抽出された第1及び第2の家屋領域画像が家屋の平面形状を表す形状情報を伴って滅失判読モデルに入力されるので、第1の時期と第2の時期との間における家屋の滅失の有無が精度良く判読される。   As described above, according to the house transfer interpretation device 1B of the present embodiment, based on the house map data at the first time, each of the first and second aerial photographs corresponds to the position and range of one house. First and second house region images, which are images of the region to be moved, are extracted. The first and second house area images extracted in this manner include image features indicating the presence or absence of one house at each of the first and second periods. Since the first and second house region images extracted in this way are input to the loss interpretation model together with the shape information representing the planar shape of the house, the house between the first time and the second time is The presence or absence of loss is accurately read.

次に、図11及び図12を参照して、本実施形態の家屋異動判読システムの動作について説明する。図11は、機械学習によるモデル生成の局面における、家屋異動判読装置1Aにおいて実施される家屋異動判読方法の処理内容を示すフローチャートである。   Next, with reference to FIG. 11 and FIG. 12, an operation of the house change interpretation system of the present embodiment will be described. FIG. 11 is a flowchart showing the processing contents of the house change reading method performed in the house change reading apparatus 1A in the phase of model generation by machine learning.

ステップS1において、取得部11は、第1の時期に撮影された第1の航空写真、第2の時期に撮影された第2の航空写真及び第1の時期における家屋図データを取得する。   In step S1, the acquisition unit 11 acquires a first aerial photograph taken at a first time, a second aerial photograph taken at a second time, and house map data at the first time.

ステップS2において、抽出部12は、家屋データにより示される家屋の位置及び平面形状に基づいて、第1の航空写真及び第2の航空写真のそれぞれから、第1の家屋領域画像及び第2の家屋領域画像を抽出する。   In step S2, the extraction unit 12 extracts the first house area image and the second house from each of the first aerial photograph and the second aerial photograph based on the position and the planar shape of the house indicated by the house data. Extract the region image.

ステップS3において、学習データ生成部13は、家屋の形状情報を伴う第1の家屋領域画像及び第2の家屋領域画像並びに第1及び第2の家屋領域画像に示される領域における家屋の滅失の有無を示す正解データを含む学習データを生成する。   In step S3, the learning data generation unit 13 determines whether or not a house has been lost in the first and second house area images accompanying the house shape information and the areas shown in the first and second house area images. The learning data including the correct answer data is generated.

ステップS4において、モデル生成部14は、学習データ生成部13により生成された学習データに基づいて機械学習を行い、家屋の形状情報を伴う第1及び第2の家屋領域画像を入力として、第1の家屋領域画像に示される家屋の、第2の家屋領域画像における滅失の有無を示す家屋滅失情報を出力とする滅失判読モデルを生成する。   In step S4, the model generation unit 14 performs machine learning based on the learning data generated by the learning data generation unit 13, receives the first and second house area images accompanying the house shape information, A loss interpretation model that outputs house loss information indicating the presence or absence of loss in the second house region image of the house shown in the house region image is generated.

ステップS5において、モデル出力部15は、ステップS4においてモデル生成部14により生成された滅失判読モデルを出力する。   In step S5, the model output unit 15 outputs the loss interpretation model generated by the model generation unit 14 in step S4.

図12は、学習済みのモデルを用いた家屋の滅失判読の局面における、家屋異動判読装置1Bにおいて実施される家屋異動判読方法の処理内容を示すフローチャートである。   FIG. 12 is a flowchart showing the processing contents of the house change interpretation method performed in the house change interpretation apparatus 1B in the phase of house loss judgment using the trained model.

ステップS11において、取得部11Bは、家屋の滅失の判読の対象となる、第1の航空写真、第2の航空写真及び第1の時期における家屋図データを取得する。   In step S11, the acquisition unit 11B acquires the first aerial photograph, the second aerial photograph, and the house map data at the first time, which are to be interpreted as the loss of the house.

ステップS12において、抽出部12Bは、家屋データにより示される家屋の位置及び平面形状に基づいて、ステップS11において取得部11Bにより取得された第1の航空写真及び第2の航空写真のそれぞれから、第1の家屋領域画像及び第2の家屋領域画像を抽出する。   In step S12, the extraction unit 12B extracts a first aerial photograph and a second aerial photograph acquired by the acquisition unit 11B in step S11 based on the position and the planar shape of the house indicated by the house data. The first house area image and the second house area image are extracted.

ステップS13において、判読部16は、家屋の平面形状に関する形状情報を伴う第1の家屋領域画像及び第2の家屋領域画像を滅失判読モデルに入力する。   In step S13, the interpretation unit 16 inputs the first house area image and the second house area image accompanying the shape information on the planar shape of the house to the loss interpretation model.

ステップS14において、判読部16は、滅失判読モデルからの出力値を家屋滅失情報として取得する。   In step S14, the interpretation unit 16 acquires the output value from the loss interpretation model as house loss information.

ステップS16において、滅失情報出力部17は、判読部16により取得された家屋滅失情報を出力する。   In step S16, the loss information output unit 17 outputs the house loss information acquired by the reading unit 16.

次に、図13を参照して、コンピュータを家屋異動判読装置として機能させるための家屋異動判読プログラムを説明する。図13(a)に示される家屋異動判読プログラムP1Aは、モデル生成の局面の家屋異動判読装置1Aとしてコンピュータを機能させるためのプログラムであって、メインモジュールm10、取得モジュールm11、抽出モジュールm12、学習データ生成モジュールm13、モデル生成モジュールm14及びモデル出力モジュールm15を含む。   Next, a house change interpretation program for causing a computer to function as a house change interpretation device will be described with reference to FIG. The house change interpretation program P1A shown in FIG. 13A is a program for causing a computer to function as the house change interpretation device 1A in the model generation aspect, and includes a main module m10, an acquisition module m11, an extraction module m12, and learning. It includes a data generation module m13, a model generation module m14, and a model output module m15.

図13(b)に示される家屋異動判読プログラムP1Bは、学習済みのモデルを用いた家屋の滅失判読の局面の家屋異動判読装置1Bとしてコンピュータを機能させるためのプログラムであって、メインモジュールm10B、取得モジュールm11B、抽出モジュールm12B、判読モジュールm16及び滅失情報出力モジュールm17を含む。   The house change reading program P1B shown in FIG. 13B is a program for causing a computer to function as the house change reading device 1B in the house loss reading phase using a trained model, and includes a main module m10B, An acquisition module m11B, an extraction module m12B, a reading module m16, and a loss information output module m17 are included.

メインモジュールm10,m10Bは、家屋異動判読処理を統括的に制御する部分である。取得モジュールm11、抽出モジュールm12、学習データ生成モジュールm13、モデル生成モジュールm14及びモデル出力モジュールm15を実行することにより実現される機能はそれぞれ、図1に示される家屋異動判読装置1Aの取得部11、抽出部12、学習データ生成部13、モデル生成部14及びモデル出力部15の機能と同様である。   The main modules m10 and m10B are parts that comprehensively control the house transfer interpretation processing. The functions realized by executing the acquisition module m11, the extraction module m12, the learning data generation module m13, the model generation module m14, and the model output module m15 are respectively the acquisition unit 11 of the house transfer interpretation device 1A shown in FIG. The functions are the same as those of the extraction unit 12, the learning data generation unit 13, the model generation unit 14, and the model output unit 15.

取得モジュールm11B、抽出モジュールm12B、判読モジュールm16及び滅失情報出力モジュールm17を実行することにより実現される機能はそれぞれ、図1に示される家屋異動判読装置1Bの取得部11B、抽出部12B、判読部16及び滅失情報出力部17の機能と同様である。   The functions realized by executing the acquisition module m11B, the extraction module m12B, the interpretation module m16, and the loss information output module m17 are respectively the acquisition unit 11B, the extraction unit 12B, and the interpretation unit of the house change interpretation device 1B shown in FIG. 16 and the function of the loss information output unit 17.

家屋異動判読プログラムP1A,P1Bは、例えば、磁気ディスクや光ディスクまたは半導体メモリ等の記憶媒体M1A,M1Bによって提供される。また、家屋異動判読プログラムP1A,P1Bは、搬送波に重畳されたコンピュータデータ信号として通信ネットワークを介して提供されてもよい。   The house transfer interpretation programs P1A and P1B are provided by storage media M1A and M1B such as a magnetic disk, an optical disk, or a semiconductor memory. Further, the house change interpretation programs P1A and P1B may be provided as a computer data signal superimposed on a carrier wave via a communication network.

以上、本発明をその実施形態に基づいて詳細に説明した。しかし、本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。   The present invention has been described in detail based on the embodiments. However, the present invention is not limited to the above embodiment. The present invention can be variously modified without departing from the gist thereof.

1,1A,1B…家屋異動判読装置、11,11B…取得部、12,12B…抽出部、13…学習データ生成部、14…モデル生成部、15…モデル出力部、16…判読部、17…滅失情報出力部、21…航空写真記憶部、22…家屋図データ記憶部、23…モデル記憶部、m10,m10B…メインモジュール、m11,m11B…取得モジュール、m12,m12B…抽出モジュール、m13…学習データ生成モジュール、m14…モデル生成モジュール、m15…モデル出力モジュール、m16…判読モジュール、m17…滅失情報出力モジュール、M1A,M1B…記憶媒体、P1A,P1B…家屋異動判読プログラム。   1, 1A, 1B ... house transfer reading device, 11, 11B ... acquisition unit, 12, 12B ... extraction unit, 13 ... learning data generation unit, 14 ... model generation unit, 15 ... model output unit, 16 ... reading unit, 17 ... Loss information output unit, 21 ... Aerial photograph storage unit, 22 ... House map data storage unit, 23 ... Model storage unit, m10, m10B ... Main module, m11, m11B ... Acquisition module, m12, m12B ... Extraction module, m13 ... Learning data generation module, m14: model generation module, m15: model output module, m16: interpretation module, m17: loss information output module, M1A, M1B: storage medium, P1A, P1B: house transfer interpretation program.

Claims (11)

第1の時期と前記第1の時期より後の時期である第2の時期との間における家屋の滅失を航空写真に基づいて判読するための滅失判読モデルを生成する家屋異動判読システムであって、
前記第1の時期に撮影された第1の航空写真、前記第2の時期に撮影された第2の航空写真、及び前記第1の時期における、前記第1及び第2の航空写真に表された領域に対応する家屋図データを取得する取得部であって、前記家屋図データは、一以上の家屋データを含み、前記家屋データは、一の家屋に関しての少なくとも平面形状を表す形状情報及び位置を示す位置情報を含む、取得部と、
前記家屋データにより示される家屋の位置及び平面形状に基づいて、前記第1の航空写真及び前記第2の航空写真のそれぞれから、一の家屋の位置及び範囲に対応する領域の画像である第1の家屋領域画像及び第2の家屋領域画像を抽出する抽出部と、
少なくとも前記形状情報を伴う前記第1の家屋領域画像及び前記第2の家屋領域画像、並びに、前記第1及び第2の家屋領域画像に示される領域における家屋の滅失の有無を示す正解データを含む学習データを生成する学習データ生成部と、
前記学習データに基づいて機械学習を行い、前記形状情報を伴う第1及び第2の家屋領域画像を入力として当該第1の家屋領域画像に示される家屋の滅失の有無を示す家屋滅失情報を出力とする前記滅失判読モデルを生成するモデル生成部と、
生成された前記滅失判読モデルを出力するモデル出力部と、
を備える家屋異動判読システム。
A house transfer interpretation system that generates a loss interpretation model for interpreting loss of a house between a first time and a second time after the first time based on an aerial photograph. ,
Represented in a first aerial photograph taken at the first time, a second aerial photograph taken at the second time, and the first and second aerial photographs at the first time; An acquisition unit for acquiring house map data corresponding to an area, wherein the house map data includes one or more house data, and the house data includes shape information and a position representing at least a planar shape of one house. An acquisition unit including location information indicating
A first image which is an image of an area corresponding to a position and a range of one house from each of the first aerial photograph and the second aerial photograph based on the position and planar shape of the house indicated by the house data. An extraction unit for extracting a house area image and a second house area image of
At least the first house area image and the second house area image accompanying the shape information, and correct data indicating whether or not a house has been lost in the areas shown in the first and second house area images. A learning data generation unit that generates learning data;
Machine learning is performed based on the learning data, and house loss information indicating whether or not the house shown in the first house area image has been lost is output using the first and second house area images accompanying the shape information as input. A model generation unit that generates the loss interpretation model,
A model output unit that outputs the generated loss interpretation model,
House transfer interpretation system equipped with.
前記抽出部は、前記家屋データにより示される家屋の形状情報に基づいて、当該家屋の平面形状を表す図形データ含む方形状の領域からなる家屋領域データを生成し、前記第1の航空写真及び前記第2の航空写真のそれぞれにおける、前記家屋領域データに対応する領域を、前記第1の家屋領域画像及び前記第2の家屋領域画像として抽出し、
前記学習データ生成部は、前記第1の家屋領域画像、前記第2の家屋領域画像及び前記家屋領域データ、並びに、前記正解データを含む前記学習データを生成する、
請求項1に記載の家屋異動判読システム。
The extraction unit generates, based on the shape information of the house indicated by the house data, house area data including a rectangular area including graphic data representing a planar shape of the house, and generates the first aerial photograph and the house area data. In each of the second aerial photographs, an area corresponding to the house area data is extracted as the first house area image and the second house area image,
The learning data generation unit generates the learning data including the first house area image, the second house area image and the house area data, and the correct answer data.
The house transfer interpretation system according to claim 1.
前記抽出部は、前記家屋データにより示される家屋の形状情報に基づいて、前記第1の航空写真及び前記第2の航空写真のそれぞれから、前記形状情報に示される家屋の平面形状に対応する形状の領域を、前記第1の家屋領域画像及び前記第2の家屋領域画像として抽出し、
前記学習データ生成部は、前記家屋の平面形状に対応する形状を有する前記第1の家屋領域画像及び前記第2の家屋領域画像並びに前記正解データを含む前記学習データを生成する、
請求項1に記載の家屋異動判読システム。
The extracting unit is configured to determine, based on the shape information of the house indicated by the house data, a shape corresponding to the planar shape of the house indicated by the shape information from each of the first aerial photograph and the second aerial photograph. Are extracted as the first house area image and the second house area image,
The learning data generation unit generates the learning data including the first house area image and the second house area image having a shape corresponding to the planar shape of the house and the correct answer data,
The house transfer interpretation system according to claim 1.
前記正解データは、所定の形状を有する画像データであって、家屋が滅失したことを示す正解データの全ての画素は、第1の色及び第2の色の一方を有し、家屋が滅失していないことを示す正解データの全ての画素は、第1の色及び第2の色の他方を有する、
請求項1〜3のいずれか一項に記載の家屋異動判読システム。
The correct answer data is image data having a predetermined shape, and all pixels of the correct answer data indicating that the house has been lost have one of the first color and the second color, and the house has been lost. All the pixels of the correct data indicating that they do not have the other of the first color and the second color,
The house change interpretation system according to any one of claims 1 to 3.
第1の時期と前記第1の時期より後の時期である第2の時期との間における家屋の滅失を航空写真に基づいて判読するための滅失判読モデルを生成する家屋異動判読システムにおける家屋異動判読方法であって、
前記第1の時期に撮影された第1の航空写真、前記第2の時期に撮影された第2の航空写真、及び前記第1の時期における、前記第1及び第2の航空写真に表された領域に対応する家屋図データを取得する取得ステップであって、前記家屋図データは、一以上の家屋データを含み、前記家屋データは、一の家屋に関しての少なくとも平面形状を表す形状情報及び位置を示す位置情報を含む、取得ステップと、
前記家屋データにより示される家屋の位置及び平面形状に基づいて、前記第1の航空写真及び前記第2の航空写真のそれぞれから、一の家屋の位置及び範囲に対応する領域の画像である第1の家屋領域画像及び第2の家屋領域画像を抽出する抽出ステップと、
少なくとも前記形状情報を伴う前記第1の家屋領域画像及び前記第2の家屋領域画像、並びに、前記第1及び第2の家屋領域画像に示される領域における家屋の滅失の有無を示す正解データを含む学習データを生成する学習データ生成ステップと、
前記学習データに基づいて機械学習を行い、前記形状情報を伴う第1及び第2の家屋領域画像を入力として当該第1の家屋領域画像に示される家屋の滅失の有無を示す滅失情報を出力とする前記滅失判読モデルを生成するモデル生成ステップと、
生成された前記滅失判読モデルを出力する出力ステップと、
を有する家屋異動判読方法。
House change in a house change interpretation system that generates a loss interpretation model for interpreting loss of a house between a first time and a second time after the first time based on an aerial photograph. The interpretation method,
Represented in a first aerial photograph taken at the first time, a second aerial photograph taken at the second time, and the first and second aerial photographs at the first time; Acquiring house map data corresponding to the region, wherein the house map data includes one or more house data, and the house data includes shape information and a position representing at least a planar shape of one house. An acquisition step including location information indicating
A first image which is an image of an area corresponding to a position and a range of one house from each of the first aerial photograph and the second aerial photograph based on the position and planar shape of the house indicated by the house data. An extraction step of extracting a house area image and a second house area image of
At least the first house area image and the second house area image accompanying the shape information, and correct data indicating whether or not a house has been lost in the areas shown in the first and second house area images. A learning data generating step of generating learning data;
Machine learning is performed based on the learning data, and the first and second house area images accompanying the shape information are input and loss information indicating the presence or absence of the house shown in the first house area image is output. A model generation step of generating the loss interpretation model,
An output step of outputting the generated loss interpretation model;
House transfer interpretation method having a.
コンピュータを、第1の時期と前記第1の時期より後の時期である第2の時期との間における家屋の滅失を航空写真に基づいて判読するための滅失判読モデルを生成する家屋異動判読システムとして機能させるための家屋異動判読プログラムであって、
前記コンピュータに、
前記第1の時期に撮影された第1の航空写真、前記第2の時期に撮影された第2の航空写真、及び前記第1の時期における、前記第1及び第2の航空写真に表された領域に対応する家屋図データを取得する取得機能であって、前記家屋図データは、一以上の家屋データを含み、前記家屋データは、一の家屋に関しての少なくとも平面形状を表す形状情報及び位置を示す位置情報を含む、取得機能と、
前記家屋データにより示される家屋の位置及び平面形状に基づいて、前記第1の航空写真及び前記第2の航空写真のそれぞれから、一の家屋の位置及び範囲に対応する領域の画像である第1の家屋領域画像及び第2の家屋領域画像を抽出する抽出機能と、
少なくとも前記形状情報を伴う前記第1の家屋領域画像及び前記第2の家屋領域画像、並びに、前記第1及び第2の家屋領域画像に示される領域における家屋の滅失の有無を示す正解データを含む学習データを生成する学習データ生成機能と、
前記学習データに基づいて機械学習を行い、前記形状情報を伴う第1及び第2の家屋領域画像を入力として当該第1の家屋領域画像に示される家屋の滅失の有無を示す滅失情報を出力とする前記滅失判読モデルを生成するモデル生成機能と、
生成された前記滅失判読モデルを出力する出力機能と、
を実現させる家屋異動判読プログラム。
A house transfer interpretation system that generates a loss interpretation model for interpreting a loss of a house between a first time and a second time after the first time based on an aerial photograph. A house transfer reading program to function as a
On the computer,
Represented in a first aerial photograph taken at the first time, a second aerial photograph taken at the second time, and the first and second aerial photographs at the first time; An acquisition function for acquiring house map data corresponding to an area, wherein the house map data includes one or more house data, and the house data includes at least a shape information and a position representing a planar shape of one house. An acquisition function including location information indicating
A first image which is an image of an area corresponding to a position and a range of one house from each of the first aerial photograph and the second aerial photograph based on the position and planar shape of the house indicated by the house data. An extraction function for extracting a house area image and a second house area image of
At least the first house area image and the second house area image accompanying the shape information, and correct data indicating whether or not a house has been lost in the areas shown in the first and second house area images. A learning data generation function for generating learning data;
Machine learning is performed based on the learning data, and the first and second house area images accompanying the shape information are input and loss information indicating the presence or absence of the house shown in the first house area image is output. A model generation function for generating the lost interpretation model,
An output function of outputting the generated loss interpretation model,
A house transfer reading program that realizes.
第1の時期と前記第1の時期より後の時期である第2の時期との間における家屋の滅失を航空写真に基づいて判読するための、機械学習により生成されるニューラルネットワークを含む学習済みモデルである滅失判読モデルであって、
家屋の平面形状を表す形状情報を伴う第1の家屋領域画像及び第2の家屋領域画像を入力値として、前記第1及び第2の家屋領域画像に示される領域における家屋の滅失の有無を示す正解データを出力値とする学習データに基づく機械学習により構成され、
前記第1の家屋領域画像及び前記第2の家屋領域画像のそれぞれは、一の家屋に関しての平面形状を表す形状情報及び位置を示す位置情報を含む家屋データに基づいて、前記第1の時期に撮影された第1の航空写真及び前記第2の時期に撮影された第2の航空写真のそれぞれから抽出された、一の家屋の位置及び範囲に対応する領域の画像である、
滅失判読モデル。
A trained machine learning generated neural network for interpreting, based on aerial photographs, the loss of a house between a first time and a second time later than the first time. The model, which is a model of loss interpretation,
The first house area image and the second house area image accompanying the shape information representing the planar shape of the house are used as input values, and the presence or absence of houses in the areas shown in the first and second house area images is indicated. It is configured by machine learning based on learning data with correct answer data as an output value,
Each of the first house area image and the second house area image is based on house data including shape information indicating a planar shape and position information indicating a position with respect to one house, at the first time. It is an image of an area corresponding to the position and range of one house extracted from each of the first aerial photograph taken and the second aerial photograph taken at the second time.
Lost interpretation model.
請求項7に記載の滅失判読モデルを用いて、第1の時期と前記第1の時期より後の時期である第2の時期との間における家屋の滅失を航空写真に基づいて判読する家屋の滅失を判読する家屋異動判読システムであって、
前記第1の時期に撮影された第1の航空写真、前記第2の時期に撮影された第2の航空写真、及び前記第1の時期における、前記第1及び第2の航空写真に表された領域に対応する家屋図データを取得する取得部であって、前記家屋図データは、一以上の家屋データを含み、前記家屋データは、一の家屋に関しての少なくとも平面形状を表す形状情報及び位置を示す位置情報を含む、取得部と、
前記家屋データにより示される家屋の位置及び平面形状に基づいて、前記第1の航空写真及び前記第2の航空写真のそれぞれから、一の家屋の位置及び範囲に対応する領域の画像である第1の家屋領域画像及び第2の家屋領域画像を抽出する抽出部と、
少なくとも前記形状情報を伴う前記第1の家屋領域画像及び前記第2の家屋領域画像を前記滅失判読モデルに入力して、前記滅失判読モデルの出力値を家屋滅失情報として取得する判読部と、
前記判読部により取得された家屋滅失情報を出力する滅失情報出力部と、
を備える家屋異動判読システム。
A house that reads the loss of a house between a first time and a second time that is a time after the first time based on the aerial photograph using the loss reading model according to claim 7. A house transfer interpretation system for interpreting loss,
Represented in a first aerial photograph taken at the first time, a second aerial photograph taken at the second time, and the first and second aerial photographs at the first time; An acquisition unit for acquiring house map data corresponding to an area, wherein the house map data includes one or more house data, and the house data includes shape information and a position representing at least a planar shape of one house. An acquisition unit including location information indicating
A first image which is an image of an area corresponding to a position and a range of one house from each of the first aerial photograph and the second aerial photograph based on the position and planar shape of the house indicated by the house data. An extraction unit for extracting a house area image and a second house area image of
A reading unit that inputs at least the first house area image and the second house area image with the shape information to the loss interpretation model, and acquires an output value of the loss interpretation model as house loss information;
A loss information output unit that outputs the house loss information acquired by the reading unit,
House transfer interpretation system equipped with.
前記家屋滅失情報は、前記第1及び第2の家屋領域画像の形状に対応する形状を有する画像であって、
前記家屋滅失情報の各画素は、第1の色及び前記第1の色とは異なる第2の色のいずれかを有し、
前記家屋滅失情報における第1の色の画素及び第2の色の画素の割合は、前記第1及び第2の家屋領域画像に示される領域における家屋の滅失の可能性を示す、
請求項8に記載の家屋異動判読システム。
The house loss information is an image having a shape corresponding to the shape of the first and second house area images,
Each pixel of the house loss information has one of a first color and a second color different from the first color,
The ratio of the pixel of the first color and the pixel of the second color in the house loss information indicates a possibility of house loss in the area shown in the first and second house area images.
The house change interpretation system according to claim 8.
請求項7に記載の滅失判読モデルを用いて、第1の時期と前記第1の時期より後の時期である第2の時期との間における家屋の滅失を航空写真に基づいて判読する家屋異動判読システムにおける家屋異動判読方法であって、
前記第1の時期に撮影された第1の航空写真、前記第2の時期に撮影された第2の航空写真、及び前記第1の時期における、前記第1及び第2の航空写真に表された領域に対応する家屋図データを取得する取得ステップであって、前記家屋図データは、一以上の家屋データを含み、前記家屋データは、一の家屋に関しての少なくとも平面形状を表す形状情報及び位置を示す位置情報を含む、取得ステップと、
前記家屋データにより示される家屋の位置及び平面形状に基づいて、前記第1の航空写真及び前記第2の航空写真のそれぞれから、一の家屋の位置及び範囲に対応する領域の画像である第1の家屋領域画像及び第2の家屋領域画像を抽出する抽出ステップと、
少なくとも前記形状情報を伴う前記第1の家屋領域画像及び前記第2の家屋領域画像を前記滅失判読モデルに入力して、前記滅失判読モデルの出力値を家屋滅失情報として取得する判読ステップと、
前記判読ステップにおいて取得された家屋滅失情報を出力する滅失情報出力ステップと、
を有する家屋異動判読方法。
A house transfer that uses the aerial photograph to interpret the loss of a house between a first time and a second time that is a time later than the first time, using the loss reading model according to claim 7. A method of interpreting house transfer in the interpretation system,
Represented in a first aerial photograph taken at the first time, a second aerial photograph taken at the second time, and the first and second aerial photographs at the first time; Acquiring house map data corresponding to the region, wherein the house map data includes one or more house data, and the house data includes shape information and a position representing at least a planar shape of one house. An acquisition step including location information indicating
A first image which is an image of an area corresponding to a position and a range of one house from each of the first aerial photograph and the second aerial photograph based on the position and planar shape of the house indicated by the house data. An extraction step of extracting a house area image and a second house area image of
A reading step of inputting at least the first house area image and the second house area image with the shape information to the loss interpretation model, and acquiring an output value of the loss interpretation model as house loss information;
A loss information output step of outputting the house loss information obtained in the reading step,
House transfer interpretation method having a.
コンピュータを、請求項7に記載の滅失判読モデルを用いて、第1の時期と前記第1の時期より後の時期である第2の時期との間における家屋の滅失を航空写真に基づいて判読する家屋異動判読システムとして機能させるための家屋異動判読プログラムであって、
前記コンピュータに、
前記第1の時期に撮影された第1の航空写真、前記第2の時期に撮影された第2の航空写真、及び前記第1の時期における、前記第1及び第2の航空写真に表された領域に対応する家屋図データを取得する取得機能であって、前記家屋図データは、一以上の家屋データを含み、前記家屋データは、一の家屋に関しての少なくとも平面形状を表す形状情報及び位置を示す位置情報を含む、取得機能と、
前記家屋データにより示される家屋の位置及び平面形状に基づいて、前記第1の航空写真及び前記第2の航空写真のそれぞれから、一の家屋の位置及び範囲に対応する領域の画像である第1の家屋領域画像及び第2の家屋領域画像を抽出する抽出機能と、
少なくとも前記形状情報を伴う前記第1の家屋領域画像及び前記第2の家屋領域画像を前記滅失判読モデルに入力して、前記滅失判読モデルの出力値を家屋滅失情報として取得する判読機能と、
前記判読機能により取得された家屋滅失情報を出力する滅失情報出力機能と、
を実現させる家屋異動判読プログラム。
A computer, using the loss interpretation model according to claim 7, interprets the loss of the house between the first time and the second time after the first time based on the aerial photograph. A house transfer interpretation program for functioning as a house transfer interpretation system,
On the computer,
Represented in a first aerial photograph taken at the first time, a second aerial photograph taken at the second time, and the first and second aerial photographs at the first time; An acquisition function for acquiring house map data corresponding to an area, wherein the house map data includes one or more house data, and the house data includes at least a shape information and a position representing a planar shape of one house. An acquisition function including location information indicating
A first image which is an image of an area corresponding to a position and a range of one house from each of the first aerial photograph and the second aerial photograph based on the position and planar shape of the house indicated by the house data. An extraction function for extracting a house area image and a second house area image of
A reading function of inputting at least the first house area image and the second house area image with the shape information to the loss interpretation model, and acquiring an output value of the loss interpretation model as house loss information;
A loss information output function for outputting house loss information obtained by the reading function,
House transfer reading program that realizes.
JP2018157095A 2018-08-24 2018-08-24 House transfer interpretation system, house transfer interpretation method, house transfer interpretation program and loss interpretation model Active JP7018371B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018157095A JP7018371B2 (en) 2018-08-24 2018-08-24 House transfer interpretation system, house transfer interpretation method, house transfer interpretation program and loss interpretation model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018157095A JP7018371B2 (en) 2018-08-24 2018-08-24 House transfer interpretation system, house transfer interpretation method, house transfer interpretation program and loss interpretation model

Publications (2)

Publication Number Publication Date
JP2020030730A true JP2020030730A (en) 2020-02-27
JP7018371B2 JP7018371B2 (en) 2022-02-10

Family

ID=69622623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018157095A Active JP7018371B2 (en) 2018-08-24 2018-08-24 House transfer interpretation system, house transfer interpretation method, house transfer interpretation program and loss interpretation model

Country Status (1)

Country Link
JP (1) JP7018371B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021172109A1 (en) 2020-02-26 2021-09-02 国立研究開発法人科学技術振興機構 Oxynitride-hydride, metal carrier containing oxynitride-hydride, and ammonia synthesis catalyst
CN117975281A (en) * 2024-03-29 2024-05-03 广东先知大数据股份有限公司 Method for detecting damage source, electronic equipment and storage medium
JP7498843B1 (en) 2023-12-19 2024-06-12 朝日航洋株式会社 Change interpretation system, change interpretation method, and change interpretation program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11312233A (en) * 1998-04-27 1999-11-09 Hitachi Ltd Graphic data managing method
JP2002206925A (en) * 2000-11-09 2002-07-26 Hitachi Software Eng Co Ltd Detector and method for detecting variation, storage medium stored with program concerned in the method, and system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11312233A (en) * 1998-04-27 1999-11-09 Hitachi Ltd Graphic data managing method
JP2002206925A (en) * 2000-11-09 2002-07-26 Hitachi Software Eng Co Ltd Detector and method for detecting variation, storage medium stored with program concerned in the method, and system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
AITO FUJITA ET AL: "Damage detection from aerial images via convolutional neural networks", 2017 FIFTEENTH IAPR INTERNATIONAL CONFERENCE ON MACHINE VISION APPLICATIONS (MVA), JPN6021023505, 12 May 2017 (2017-05-12), US, pages 5 - 8, XP033126563, ISSN: 0004532971, DOI: 10.23919/MVA.2017.7986759 *
RODRIGO CAYE DAUDT ET AL: "Urban Change Detection for Multispectral Earth Observation Using Convolutional Neural Networks", IGARSS 2018 - 2018 IEEE INTERNATIONAL GEOSCIENCE AND REMOTE SENSING SYMPOSIUM, JPN6021023504, 27 July 2018 (2018-07-27), US, pages 2115 - 2118, XP033437232, ISSN: 0004532972, DOI: 10.1109/IGARSS.2018.8518015 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021172109A1 (en) 2020-02-26 2021-09-02 国立研究開発法人科学技術振興機構 Oxynitride-hydride, metal carrier containing oxynitride-hydride, and ammonia synthesis catalyst
JP7498843B1 (en) 2023-12-19 2024-06-12 朝日航洋株式会社 Change interpretation system, change interpretation method, and change interpretation program
CN117975281A (en) * 2024-03-29 2024-05-03 广东先知大数据股份有限公司 Method for detecting damage source, electronic equipment and storage medium
CN117975281B (en) * 2024-03-29 2024-05-28 广东先知大数据股份有限公司 Method for detecting damage source, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP7018371B2 (en) 2022-02-10

Similar Documents

Publication Publication Date Title
CN101601287B (en) Apparatus and methods of producing photorealistic image thumbnails
US9412164B2 (en) Apparatus and methods for imaging system calibration
JP6716996B2 (en) Image processing program, image processing apparatus, and image processing method
JP2017130929A (en) Correction method and correction device for document image acquired by imaging apparatus
US9792732B2 (en) Systems and methods for activities solver development in augmented reality applications
JP2020030730A (en) House movement reading system, house movement reading method, house movement reading program, and house loss reading model
US20170076428A1 (en) Information processing apparatus
US20210166393A1 (en) Pixel-wise Hand Segmentation of Multi-modal Hand Activity Video Dataset
CN113222921A (en) Image processing method and system
CN111612004A (en) Image clipping method and device based on semantic content
EP3327662B1 (en) Image processing device, image processing method, and program
CN112102207A (en) Method and device for determining temperature, electronic equipment and readable storage medium
CN114742722A (en) Document correction method, device, electronic equipment and storage medium
CN114758145A (en) Image desensitization method and device, electronic equipment and storage medium
US20200387730A1 (en) Image Processing Apparatus, Image Forming Apparatus, Display Apparatus, Image Processing Method, and Storage Medium
CN111192214A (en) Image processing method and device, electronic equipment and storage medium
JP2015125543A (en) Line-of-sight prediction system, line-of-sight prediction method, and line-of-sight prediction program
CN111325194B (en) Character recognition method, device and equipment and storage medium
JP2017058657A (en) Information processing device, control method, computer program and storage medium
EP4379677A1 (en) Image processing system, image processing method, and program
EP4379678A1 (en) Image processing system, image processing method, and program
US20220277473A1 (en) Pose estimation apparatus, learning apparatus, pose estimation method, and non-transitory computer-readable recording medium
US11727700B2 (en) Line removal from an image
CN111681161B (en) Restoration method and device for folded two-dimensional code image and computer readable storage medium
CN112115941B (en) Fire detection method, device, equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200408

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220131

R150 Certificate of patent or registration of utility model

Ref document number: 7018371

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150