以下、本発明の一実施形態について図面に基づき詳細に説明する。
図1は、本発明の一実施形態に係る家屋異動推定装置10の構成図である。本実施形態に係る家屋異動推定装置10は、パーソナルコンピュータなどのコンピュータである。図1に示すように家屋異動推定装置10は、例えば、プロセッサ12、記憶部14、表示部16、操作部18を含んでいる。
プロセッサ12は、例えば家屋異動推定装置10にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。
記憶部14は、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部14には、プロセッサ12によって実行されるプログラムなどが記憶される。
表示部16は、液晶ディスプレイ等の表示デバイスであって、プロセッサ12の指示に従って各種の画像を表示する。
操作部18は、キーボードやマウスなどといったユーザインタフェースであって、ユーザの操作入力を受け付けて、その内容を示す信号をプロセッサ12に出力する。
なお、家屋異動推定装置10は、ネットワークボードなどの通信インタフェース、DVD-ROMやBlu-ray(登録商標)ディスクなどの光ディスクを読み取る光ディスクドライブ、USB(Universal Serial Bus)ポートなどを含んでいてもよい。
本実施形態に係る家屋異動推定装置10では、異なる時点に撮影された一対の土地の画像に基づいて、例えば新築、滅失、建替などといった家屋異動が推定される。図2Aは、第1の時点に撮影された画像である推定ターゲット画像20aの一例を模式的に示す図である。図2Bは、第1の時点よりも後である第2の時点に撮影された画像である推定ターゲット画像20bの一例を模式的に示す図である。本実施形態では例えば、推定ターゲット画像20aと推定ターゲット画像20bとに基づいて、推定ターゲット画像20aが撮影された時点と推定ターゲット画像20bが撮影された時点との間での家屋異動が推定される。なお推定ターゲット画像20a及び推定ターゲット画像20bは航空機により撮影された航空機画像である必要はなく、人工衛星によって撮影された衛星画像であっても構わない。
図3は、異なる時点に撮影された一対の画像に基づいて推定される家屋異動が表現された推定結果画面22の一例を示す図である。本実施形態では例えば推定ターゲット画像20a及び推定ターゲット画像20bを選択する操作に応じて、図3に例示する推定結果画面22が表示部16に表示される。
図3に示す推定結果画面22には、新築、滅失、建替などといった、家屋異動に対応付けられる家屋異動対応画像24が重畳された推定ターゲット画像20bが配置されている。図3の例では、新築と推定された建物を囲む実線の画像が家屋異動対応画像24aとして示されている。また図3の例では、滅失と推定された建物(図3には図示されない)を囲む点線の画像が家屋異動対応画像24bとして示されている。また図3の例では、建替と推定された建物を囲む一点鎖線の画像が家屋異動対応画像24cとして示されている。
このようにして本実施形態では家屋異動の推定結果をユーザが目視できる。
家屋異動の推定において、本実施形態では例えば、まず、公知の手法によって推定ターゲット画像20a及び推定ターゲット画像20bに示されている建物の位置及び形状が検出される。図4Aは、図2Aに示す推定ターゲット画像20aに示されている建物の位置及び形状の検出結果の一例である推定建物検出画像26aを示す図である。図4Bは、図2Bに示す推定ターゲット画像20bに示されている建物の位置及び形状の検出結果の一例である推定建物検出画像26bを示す図である。図4Aに示す推定建物検出画像26a及び図4Bに示す推定建物検出画像26bでは、検出された建物の位置及び形状が、白色で表現されたポリゴンによって示されている。
本実施形態では推定ターゲット画像20a及び推定ターゲット画像20bによって同じ場所が示されていることとする。例えば、推定ターゲット画像20a内のある座標値の画素と推定ターゲット画像20b内の当該座標値の画素は、同じ場所を示す画素として互いに対応付けられることとする。また本実施形態では、推定ターゲット画像20a内や推定ターゲット画像20b内のある座標値の画素は、推定建物検出画像26a内や推定建物検出画像26b内の当該座標値の画素とも、同じ場所を示す画素として互いに対応付けられることとする。なお推定ターゲット画像20aと推定ターゲット画像20bとが厳密に同じ場所を示している必要はない。推定ターゲット画像20a内のある座標値の画素と推定ターゲット画像20b内の当該座標値の画素とが、厳密に同じ場所を示していなくてもよい。
そして図4Aに示す推定建物検出画像26a及び図4Bに示す推定建物検出画像26bに示されている複数のポリゴンのそれぞれについて、当該ポリゴン内の所定の位置が特定される。ここでは例えば、推定建物検出画像26aに示されているすべてのポリゴン及び推定建物検出画像26bに示されているすべてのポリゴンについて、当該ポリゴンの中心の位置が特定されることとする。
そして、特定される位置を中心とする所定の縦横の長さの推定チップ画像28が生成される。ここで例えば図5に示すように、特定される複数の位置のそれぞれについて、当該位置を中心とする矩形領域を占める推定チップ画像28が、推定ターゲット画像20a、推定ターゲット画像20b、及び、推定建物検出画像26bのそれぞれから抽出されてもよい。この場合は、特定される1つの位置に基づいて、3つの推定チップ画像28が生成されることとなる。例えば、推定ターゲット画像20aから推定チップ画像28aが抽出され、推定ターゲット画像20bから推定チップ画像28bが抽出され、推定建物検出画像26bから推定チップ画像28cが抽出される。
図5には、本実施形態において、家屋異動があったと推定される建物についての推定チップ画像28の例が示されている。図5の上段には、新築と推定される建物に対応付けられる3つの推定チップ画像28が示されている。これらの3つの推定チップ画像28は、推定建物検出画像26bに示されているポリゴンの中心の位置に基づいて生成されるものである。図5の中段には、滅失と推定される建物に対応付けられる3つの推定チップ画像28が示されている。これらの3つの推定チップ画像28は、推定建物検出画像26aに示されているポリゴンの中心の位置に基づいて生成される。図5の下段には、建替と推定される建物に対応付けられる3個の推定チップ画像28が示されている。これらの3個の推定チップ画像28は、推定建物検出画像26bに示されているポリゴンの中心の位置に基づいて生成される。
そして本実施形態では例えば、生成された推定チップ画像28を図6に例示する学習済の機械学習モデル30に入力した結果に基づいて、家屋異動の推定結果が特定される。
図6に示す機械学習モデル30には、加工部32と変化識別器34とが含まれている。加工部32には、上述の推定チップ画像28に相当するオリジナル推定入力データが入力される。そして加工部32は、当該オリジナル推定入力データを加工することで加工推定入力データを生成する。変化識別器34は、加工部32が生成する加工推定入力データの入力に応じて、家屋異動の推定結果を出力する。
本実施形態に係る加工部32は、機械学習モデルとして実装されている。本実施形態に係る加工部32には、2つの有無特徴抽出器32a(32aa及び32ab)と、1つの変化特徴抽出器32bとが含まれている。なお図6に示す機械学習モデルには、後述する機械学習モデル30の学習では用いられるが家屋異動の推定には用いられない2つの有無識別器32c(32ca及び32cb)が破線で示されている。本実施形態では、2つの有無特徴抽出器32aに、重み等のパラメータの値として同じ値が設定される。また本実施形態では、2つの有無識別器32cに、重み等のパラメータの値として同じ値が設定される。
本実施形態では例えば、有無特徴抽出器32aと有無識別器32cとが全体として畳み込みニューラルネットワーク(CNN)として実装される。そして有無特徴抽出器32aは、例えばCNNにおける畳み込み層及びプーリング層に相当し、有無識別器32cは、例えばCNNにおける全結合層に相当する。
また本実施形態では例えば、変化特徴抽出器32bと変化識別器34とが全体としてCNNとして実装される。そして変化特徴抽出器32bは、例えばCNNにおける畳み込み層及びプーリング層に相当し、変化識別器34は、例えばCNNにおける全結合層に相当する。
本実施形態では例えば、推定建物検出画像26a又は推定建物検出画像26bに示されている1つのポリゴンの位置に基づいて生成される3個の推定チップ画像28が、オリジナル推定入力データとして機械学習モデル30に入力される。
例えば、推定チップ画像28aが入力40として有無特徴抽出器32aaに入力される。すると有無特徴抽出器32aaは当該入力に応じて、推定チップ画像28aの中心に建物が示されているか否かを示す特徴情報を出力42として出力する。
また推定チップ画像28bが入力44として有無特徴抽出器32abに入力される。すると有無特徴抽出器32abは当該入力に応じて、推定チップ画像28bの中心に建物が示されているか否かを示す特徴情報を出力46として出力する。
また入力40として入力される推定チップ画像28aと、入力44として入力される推定チップ画像28bと、入力48として入力される推定チップ画像28cを結合したデータ(多チャンネル画像)が生成される。図6には、推定チップ画像28aの結合が矢印A1として、推定チップ画像28bの結合が矢印A2として、推定チップ画像28cの結合が矢印A3として示されている。そして結合されたデータ(多チャンネル画像)が入力50として変化特徴抽出器32bに入力される。すると変化特徴抽出器32bは当該入力に応じて、推定チップ画像28aと推定チップ画像28bとの違いを示す特徴情報を出力52として出力する。
例えばCNNの中間層の出力である、縦横の画素数がそれぞれLである512個の画像(マップ)から構成される特徴マップが上述の特徴情報に相当する。なお当該特徴マップに含まれる画像の数(マップ数)は512に限定されない。
そして出力42として出力される特徴情報、出力46として出力される特徴情報、及び、出力52として出力される特徴情報を結合したデータが生成される。図6には、出力42として出力される特徴情報の結合が矢印A4として、出力46として出力される特徴情報の結合が矢印A5として、出力52として出力される特徴情報の結合が矢印A6として示されている。例えばこの結合されたデータが上述の加工推定入力データに相当する。例えば出力42として出力される特徴情報、出力46として出力される特徴情報、出力52として出力される特徴情報が、それぞれマップ数が512である特徴マップである場合は、加工推定入力データはマップ数が1536である特徴マップとなる。
そしてこのようにして生成される加工推定入力データが入力54として変化識別器34に入力される。すると変化識別器34は、推定チップ画像28aの中心と推定チップ画像28bの中心との間における家屋異動を示す推定結果データを出力56として出力する。
当該推定結果データは、例えば、新築、滅失、建替、変化なしなどといった、家屋異動の種類のそれぞれについての確率を示すデータであってもよい。この場合、最大値をとる確率に対応付けられる家屋異動の種類が、推定チップ画像28aの中心と推定チップ画像28bの中心との間における家屋異動の推定結果として特定されてもよい。また当該推定結果データは、例えば、新築、滅失、建替、変化なしなどといった、家屋異動の種類に対応付けられる多値のうちのいずれかの値をとるデータであってもよい。この場合、当該推定結果データが示す値が、推定チップ画像28aの中心と推定チップ画像28bの中心との間における家屋異動の推定結果として特定されてもよい。
本実施形態では例えば、推定建物検出画像26a、及び、推定建物検出画像26bに示されているそれぞれのポリゴンについて、当該ポリゴンの中心の位置に基づいて生成される3個の推定チップ画像28を用いた家屋異動の推定が実行される。そして当該推定の結果に基づいて、推定結果画面22が生成され、表示部16に表示される。
以下、図7を参照しながら機械学習モデル30の学習について説明する。
本実施形態では例えば、オリジナル学習入力データとオリジナル教師データとを含むオリジナル学習データを用いた教師あり学習によって、機械学習モデル30の学習が実行される。また本実施形態における機械学習モデル30の学習では、加工部32がオリジナル学習入力データを加工することで加工学習入力データを生成する。そして加工部32が生成する加工学習入力データと、オリジナル教師データの少なくとも一部である加工教師データと、を含む加工学習データを用いた教師あり学習によって、変化識別器34の学習が実行される。変化識別器34は機械学習モデル30の一部であるが、変化識別器34自体も機械学習モデルであるので、上述のように加工学習データを用いた教師あり学習によって、機械学習モデル30の学習の一部として変化識別器34の学習が実行されることとなる。
オリジナル学習入力データには、例えば、異なる時点に撮影された一対の土地の学習画像、及び、いずれかの学習画像に示されている建物の位置及び形状を示す学習建物検出画像が含まれている。以下、一対の学習画像のそれぞれを第1学習画像、第2学習画像と呼ぶこととする。ここで学習建物検出画像は、例えば、推定建物検出画像26と同様の、学習画像に示されている建物の位置及び形状の検出結果に基づいて生成される画像であってもよい。
オリジナル教師データには、例えば、学習画像の中心に建物が示されているか否かを示す有無データ、及び、第1学習画像の中心と第2学習画像の中心との間における家屋異動を示す変化データが含まれている。以下、第1学習画像の中心に建物が示されているか否かを示す有無データを第1有無データと呼び、第2学習画像の中心に建物が示されているか否かを示す有無データを第2有無データと呼ぶこととする。
有無データは例えば、中心に建物が示されている場合は値として1をとり、中心に建物が示されていない場合は値として0をとる二値データである。変化データは、例えば、新築、滅失、建替、変化なしなどといった、家屋異動の種類に対応付けられる多値のうちのいずれかの値をとるデータである。
機械学習モデル30の学習においては、例えば、オリジナル学習入力データに含まれる第1学習画像が入力40として有無特徴抽出器32aaに入力される。また、当該オリジナル学習入力データに含まれる第2学習画像が入力44として有無特徴抽出器32abに入力される。
また入力40及び入力44として入力される、オリジナル学習入力データに含まれる学習画像と、入力48として入力される、当該オリジナル学習入力データに含まれる学習建物検出画像と、を結合したデータ(多チャンネル画像)が生成される。図7には、第1学習画像の結合が矢印A7として、第2学習画像の結合が矢印A8として、学習建物検出画像の結合が矢印A9として示されている。そして結合されたデータ(多チャンネル画像)が入力50として変化特徴抽出器32bに入力される。
そして有無特徴抽出器32aaの出力42は有無識別器32caに入力され、有無特徴抽出器32abの出力46は有無識別器32cbに入力される。
また有無特徴抽出器32aaの出力42と、有無特徴抽出器32abの出力46と、変化特徴抽出器32bの出力52と、を結合したデータが生成される。図7には、有無特徴抽出器32aaの出力42の結合が矢印A10として、有無特徴抽出器32abの出力46の結合が矢印A11として、変化特徴抽出器32bの出力52の結合が矢印A12として示されている。例えばこの結合されたデータが上述の加工学習入力データに相当する。
そしてこのようにして生成される加工学習入力データが、入力54として変化識別器34に入力される。
そして本実施形態では例えば、有無識別器32caの出力58が、機械学習モデル30に入力された学習入力データに対応付けられる教師データに含まれる第1有無データの値と比較される。そして誤差逆伝播法(バックプロパゲーション)などにより、比較結果(例えば誤差)に基づいて、有無特徴抽出器32aa及び有無識別器32caの重み等のパラメータの値が変更される。
また本実施形態では例えば、有無識別器32cbの出力60が、機械学習モデル30に入力された学習入力データに対応付けられる教師データに含まれる第2有無データの値と比較される。そして誤差逆伝播法(バックプロパゲーション)などにより、比較結果(例えば誤差)に基づいて、有無特徴抽出器32ab及び有無識別器32cbの重み等のパラメータの値が変更される。
また本実施形態では有無特徴抽出器32aaのパラメータの値と有無特徴抽出器32abのパラメータの値が同じになるよう、一方のパラメータの値の変更に連動して他方のパラメータの値も更新される。また本実施形態では有無識別器32caのパラメータの値と有無識別器32cbのパラメータの値が同じになるよう、一方のパラメータの値の変更に連動して他方のパラメータの値も更新される。
また本実施形態では例えば、変化識別器34の出力56が、機械学習モデル30に入力されたオリジナル学習入力データに対応付けられるオリジナル教師データに含まれる加工教師データの値(例えば変化データの値)と比較される。そして誤差逆伝播法(バックプロパゲーション)などにより、比較結果(例えば誤差)に基づいて、変化特徴抽出器32b及び変化識別器34の重み等のパラメータの値が変更される。また本実施形態では、誤差逆伝播法(バックプロパゲーション)などにより、当該比較結果(誤差)に基づいて、有無特徴抽出器32aaのパラメータの値及び有無特徴抽出器32abのパラメータの値も変更されるようになっている。
本実施形態では例えば、複数の学習データを機械学習モデル30に学習させる学習処理が実行される。そしてこのような学習処理が実行された学習済の機械学習モデル30を用いて家屋異動の推定が実行される。
本実施形態では変化識別器34に入力される加工推定入力データには、異なる時点に撮影された一対の土地の画像の違いに対応付けられる特徴情報だけでなく、少なくとも一方の画像内における所定の位置(例えば中心)に建物が示されているか否かも示されている。例えば図6の矢印A4~A6に示すように、推定チップ画像28aと推定チップ画像28bとの違いを示す特徴情報に、推定チップ画像28aや推定チップ画像28bの中心に建物が示されているか否かを示す特徴情報が結合された加工推定入力データが生成される。そしてこのようにして建物が示されているか否かに関する情報について補強された、多くの次元数(マップ数)の加工推定入力データに基づいて家屋異動の推定が実行される。そのため本実施形態によれば、土地の画像に基づく家屋異動の推定精度が向上することとなる。
以下、本実施形態に係る家屋異動推定装置10の機能並びに本実施形態に係る家屋異動推定装置10で実行される処理についてさらに説明する。
図8は、本実施形態に係る家屋異動推定装置10で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係る家屋異動推定装置10で、図8に示す機能のすべてが実装される必要はなく、また、図8に示す機能以外の機能が実装されていても構わない。
図8に示すように、本実施形態に係る家屋異動推定装置10には、機能的には例えば、機械学習モデル30、学習データ取得部70、学習処理実行部72、推定対象データ取得部74、推定処理実行部76、推定結果特定部78、画面生成部80、表示制御部82、が含まれる。そして機械学習モデル30には、加工部32と、変化識別器34と、が含まれる。また加工部32には、有無特徴抽出器32a、変化特徴抽出器32b、有無識別器32cが含まれる。機械学習モデル30は、プロセッサ12及び記憶部14を主として実装される。学習データ取得部70、学習処理実行部72、推定対象データ取得部74、推定処理実行部76、推定結果特定部78、画面生成部80は、プロセッサ12を主として実装される。表示制御部82は、プロセッサ12及び表示部16を主として実装される。
機械学習モデル30、学習データ取得部70、学習処理実行部72は、例えば、機械学習モデル30の学習処理を実行する家屋異動学習装置としての役割を担っている。機械学習モデル30、推定対象データ取得部74、推定処理実行部76、推定結果特定部78、画面生成部80、表示制御部82は、例えば、家屋異動を推定する家屋異動推定装置としての役割を担っている。
以上の機能は、コンピュータである家屋異動推定装置10にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ12で実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介して家屋異動推定装置10に供給されてもよい。
加工部32は、本実施形態では例えば、学習においては、上述のオリジナル学習入力データに基づいて、加工学習入力データを生成し、推定においては、上述のオリジナル推定入力データに基づいて、加工推定入力データを生成する。
加工部32に含まれる有無特徴抽出器32aは、本実施形態では例えば、土地の画像の入力に応じて当該画像内における所定の位置に建物が示されているか否かを示す特徴情報を出力する。ここで例えば、有無特徴抽出器32aは、画像の入力に応じて当該画像の中心に建物が示されているか否かを示す特徴情報を出力してもよい。また有無特徴抽出器32aは、上述のように、有無特徴抽出器32aaと有無特徴抽出器32abとを含んでいてもよい。
加工部32に含まれる変化特徴抽出器32bには、本実施形態では例えば、異なる時点に撮影された一対の土地の画像、及び、少なくとも一方の当該画像についての当該画像内の所定の位置に建物が示されているか否かを示す画像が入力される。そして変化特徴抽出器32bは、本実施形態では例えば、当該入力に応じて、一対の土地の画像の違いを示す特徴情報を出力する。
加工部32に含まれる有無識別器32cは、本実施形態では例えば、画像内における所定の位置(例えば中心)に建物が示されているか否かを学習する機械学習モデルである。有無識別器32cは、上述のように、有無識別器32caと有無識別器32cbとを含んでいてもよい。
有無識別器32cには、例えば、学習画像内の所定の位置に建物が示されているか否かを示す特徴情報が入力される。上述の例では、有無特徴抽出器32aが出力する特徴情報が有無識別器32cに入力される。
有無識別器32cの学習に用いられる教師データは、例えば、学習画像内の所定の位置に建物が示されているか否かを示すデータである。例えば上述の有無データが、有無識別器32cの学習に用いられる教師データに相当する。
変化識別器34は、本実施形態では例えば、家屋異動の種類を学習する機械学習モデルである。変化識別器34には、上述の加工学習入力データが入力される。加工学習入力データは、例えば、異なる時点に撮影された一対の学習画像の違い、及び、少なくとも一方の学習画像についての当該学習画像内における所定の位置に建物が示されているか否かを示すデータである。上述の例では、有無特徴抽出器32aが出力する特徴情報と変化特徴抽出器32bが出力する特徴情報とを結合したデータが加工学習入力データに相当する。
また変化識別器34の学習に用いられる教師データである加工教師データは、例えば、一方の学習画像内における所定の位置と他方の学習画像内における当該所定の位置に対応付けられる位置との間における家屋異動を示すデータである。ここで加工教師データが、一方の学習画像内における中心と他方の学習画像内における中心との間における家屋異動を示すデータであってもよい。上述の例では、例えば、新築、滅失、建替、変化なしなどといった、家屋異動の種類に対応付けられる多値のうちのいずれかの値をとる変化データが、加工教師データに相当する。
学習データ取得部70は、本実施形態では例えば、機械学習モデル30に入力されるオリジナル学習入力データとオリジナル教師データとの組合せを含むオリジナル学習データを取得する。
オリジナル学習入力データは、異なる時点に撮影された一対の学習画像の違い、及び、少なくとも一方の学習画像についての当該学習画像内における所定の位置(例えば中心)に建物が示されているか否かを示すデータを含んでいてもよい。上述の例では、第1学習画像、第2学習画像、及び、学習建物検出画像の組合せがオリジナル学習入力データに相当する。
またオリジナル教師データは、一方の学習画像内における所定の位置と他方の学習画像内における当該所定の位置に対応付けられる位置との間における家屋異動を示すデータを含んでいてもよい。ここでオリジナル教師データが、一方の学習画像内における中心と他方の学習画像内における中心との間における家屋異動を示すデータであってもよい。上述の例では、第1有無データ、第2有無データ、及び、変化データの組合せがオリジナル教師データに相当する。
学習処理実行部72は、本実施形態では例えば、学習データ取得部70が取得する複数のオリジナル学習データを有無特徴抽出器32a、変化特徴抽出器32b、変化識別器34、及び、有無識別器32cを含む機械学習モデル30に学習させる。ここで上述のように学習処理実行部72が、加工学習入力データを変化識別器34に入力した際の出力と、加工教師データの値との比較結果に基づいて、有無特徴抽出器32a、変化特徴抽出器32b、及び、変化識別器34の学習を実行してもよい。
推定対象データ取得部74は、本実施形態では例えば、家屋異動の推定対象となるデータを取得する。ここで例えば、推定ターゲット画像20a及び推定ターゲット画像20bが取得されてもよい。
推定処理実行部76は、本実施形態では例えば、家屋異動を推定する処理を実行する。この推定する処理において、推定処理実行部76は、異なる時点に撮影された一対の推定画像の違い、及び、少なくとも一方の推定画像内における所定の位置に建物が示されているか否かを示す加工推定入力データを変化識別器34に入力してもよい。ここで当該推定画像には、例えば上述の例における推定チップ画像28が相当する。そして推定処理実行部76が、変化識別器34に加工推定入力データを入力した際の出力に基づいて、一方の推定画像内における所定の位置と他方の推定画像内における当該所定の位置に対応付けられる位置との間における家屋異動を推定してもよい。
また推定処理実行部76は、一対の推定画像を有無特徴抽出器32aに入力した際の出力である特徴情報を特定してもよい。そして推定処理実行部76は、特定される当該特徴情報を含む加工推定入力データを変化識別器34に入力してもよい。
また推定処理実行部76は、一対の推定画像、及び、少なくとも一方の推定画像について当該推定画像内における所定の位置に建物が示されているか否かを示す画像を変化特徴抽出器32bに入力した際の出力である特徴情報を特定してもよい。ここで推定画像内における所定の位置に建物が示されているか否かを示す画像は、例えば上述の推定チップ画像28cのような、推定画像内の所定の位置に示されている建物の形状を示す画像であってもよい。そして推定処理実行部76は、特定される当該特徴情報を含む加工推定入力データを変化識別器34に入力してもよい。
また推定処理実行部76は、上述のように、有無特徴抽出器32aの出力である特徴情報と変化特徴抽出器32bの出力である特徴情報とを結合してもよい。そして推定処理実行部76は、結合された特徴情報を含む加工推定入力データを変化識別器34に入力してもよい。
また例えば推定処理実行部76が、推定建物検出画像26の生成や、推定チップ画像28の生成を行ってもよい。そして、推定チップ画像28が機械学習モデル30に入力された際の出力に基づいて、当該推定チップ画像28に示されている家屋異動が推定されてもよい。
推定結果特定部78は、本実施形態では例えば、推定処理実行部76による推定処理の実行結果を特定する。ここで例えば、推定ターゲット画像20a又は推定ターゲット画像20bに示されている建物のそれぞれについての家屋異動の種類(例えば、新築、滅失、建替、又は、変化なし)が特定されてもよい。
画面生成部80は、本実施形態では例えば、推定結果特定部78が特定する推定処理の実行結果に基づいて、図3に例示する推定結果画面22のような、推定される家屋異動を表す情報が配置された画面を生成する。
表示制御部82は、本実施形態では例えば、画面生成部80が生成する推定結果画面22等の画面を表示部16に表示させる。
以下、本実施形態に係る家屋異動推定装置10において行われる、機械学習モデル30の学習処理の流れの一例を、図9A及び図9Bに例示するフロー図を参照しながら説明する。
まず、学習データ取得部70が、複数のオリジナル学習データを取得する(S101)。当該オリジナル学習データには、オリジナル学習入力データと、オリジナル教師データと、が含まれている。
そして学習処理実行部72が、S101に示す処理で取得されたオリジナル学習データのうちから、以下の処理がまだ実行されていないものを1つ選択する(S102)。
そして学習処理実行部72が、S102に示す処理で選択されたオリジナル学習データのオリジナル学習入力データに含まれる第1学習画像を有無特徴抽出器32aaに入力する(S103)。
そして学習処理実行部72は、S103に示す処理における入力に応じて有無特徴抽出器32aaが出力する特徴情報を特定する(S104)。
そして学習処理実行部72が、S102に示す処理で選択されたオリジナル学習データのオリジナル学習入力データに含まれる第2学習画像を有無特徴抽出器32abに入力する(S105)。
そして学習処理実行部72は、S105に示す処理における入力に応じて有無特徴抽出器32abが出力する特徴情報を特定する(S106)。
そして学習処理実行部72が、S102に示す処理で選択されたオリジナル学習データのオリジナル学習入力データに含まれる第1学習画像及び第2学習画像と、学習建物検出画像と、を結合したデータである多チャンネル画像を生成する(S107)。
そして学習処理実行部72が、S107に示す処理で生成された多チャンネル画像を変化特徴抽出器32bに入力する(S108)。
そして学習処理実行部72は、S108に示す処理における入力に応じて変化特徴抽出器32bが出力する特徴情報を特定する(S109)。
そして学習処理実行部72は、S104に示す処理で特定された特徴情報を有無識別器32caに入力する(S110)。
そして学習処理実行部72は、S110に示す処理における入力に応じた有無識別器32caの出力を特定する(S111)。
そして学習処理実行部72は、S111に示す処理で特定された出力とオリジナル学習データのオリジナル教師データに含まれる第1有無データの値とを比較する(S112)。
そして学習処理実行部72は、S112に示す処理における比較結果である誤差に基づいて、有無特徴抽出器32aa、有無特徴抽出器32ab、有無識別器32ca、及び、有無識別器32cbのパラメータの値を変更する(S113)。
そして学習処理実行部72は、S106に示す処理で特定された特徴情報を有無識別器32cbに入力する(S114)。
そして学習処理実行部72は、S114に示す処理における入力に応じた有無識別器32cbの出力を特定する(S115)。
そして学習処理実行部72は、S115に示す処理で特定された出力とオリジナル学習データのオリジナル教師データに含まれる第2有無データの値とを比較する(S116)。
そして学習処理実行部72は、S116に示す処理における比較結果である誤差に基づいて、有無特徴抽出器32aa、有無特徴抽出器32ab、有無識別器32ca、及び、有無識別器32cbのパラメータの値を変更する(S117)。
そして学習処理実行部72は、S104に示す処理で特定された特徴情報、S106に示す処理で特定された特徴情報、及び、S109に示す処理で特定された特徴情報、を結合した加工学習入力データを生成する(S118)。
そして学習処理実行部72は、S118に示す処理で生成された加工学習入力データを変化識別器34に入力する(S119)。
そして学習処理実行部72は、S119に示す処理における入力に応じた変化識別器34の出力を特定する(S120)。
そして学習処理実行部72は、S120に示す処理で特定された出力と、加工教師データに相当する、オリジナル学習データのオリジナル教師データに含まれる変化データの値とを比較する(S121)。
そして学習処理実行部72は、S121に示す処理における比較結果である誤差に基づいて、有無特徴抽出器32aa、有無特徴抽出器32ab、変化特徴抽出器32b、及び、変化識別器34のパラメータの値を変更する(S122)。
そして学習処理実行部72は、S102に示す処理で未選択であるオリジナル学習データが存在するか否かを確認する(S123)。
ここで存在することが確認された場合は(S123:Y)、S102に示す処理に戻る。
存在しないことが確認された場合は(S123:N)、本処理例に示す処理は終了される。
なおS101~S123に示す処理の実行順序は上述のものに限定されず、上述に示す順序とは異なる実行順序でこれらの処理が実行されてもよい。
以下、本実施形態に係る家屋異動推定装置10において行われる、家屋異動の推定処理の流れの一例を、図10A及び図10Bに例示するフロー図を参照しながら説明する。
まず、推定対象データ取得部74は、ユーザによって選択された推定ターゲット画像20a及び推定ターゲット画像20bを取得する(S201)。
そして推定処理実行部76は、S201に示す処理で取得した推定ターゲット画像20aに基づいて、推定建物検出画像26aを生成し、S201に示す処理で取得した推定ターゲット画像20bに基づいて、推定建物検出画像26bを生成する(S202)。
そして推定処理実行部76は、S202に示す処理で生成された推定建物検出画像26aに示されているすべてのポリゴン及び推定建物検出画像26bに示されているすべてのポリゴンについての当該ポリゴンの中心の位置を特定する(S203)。
そして推定処理実行部76は、S203に示す処理で特定された中心の位置のうち、S205~S214に示す処理がまだ実行されていないものを1つ選択する(S204)。
そして推定処理実行部76は、S204に示す処理で選択された位置に基づいて、推定チップ画像28a、推定チップ画像28b、及び、推定チップ画像28cを生成する(S205)。ここで推定チップ画像28aは例えば推定ターゲット画像20aの一部を抽出することで生成される。また推定チップ画像28bは例えば推定ターゲット画像20bの一部を抽出することで生成される。推定チップ画像28cは例えば推定建物検出画像26bの一部を抽出することで生成される。
そして推定処理実行部76は、S205に示す処理で生成された推定チップ画像28aを有無特徴抽出器32aaに入力する(S206)。
そして推定処理実行部76は、S206に示す処理における入力に応じて有無特徴抽出器32aaが出力する特徴情報を特定する(S207)。
そして推定処理実行部76は、S206に示す処理で生成された推定チップ画像28bを有無特徴抽出器32abに入力する(S208)。
そして推定処理実行部76は、S208に示す処理における入力に応じて有無特徴抽出器32abが出力する特徴情報を特定する(S209)。
そして推定処理実行部76は、S205に示す処理で生成された推定チップ画像28a、推定チップ画像28b、及び、推定チップ画像28を結合したデータである多チャンネル画像を生成する(S210)。
そして推定処理実行部76は、S210に示す処理で生成された多チャンネル画像を変化特徴抽出器32bに入力する(S211)。
そして推定処理実行部76は、S211に示す処理における入力に応じて変化特徴抽出器32bが出力する特徴情報を特定する(S212)。
そして推定処理実行部76は、S207に示す処理で特定された特徴情報、S209に示す処理で特定された特徴情報、及び、S212に示す処理で特定された特徴情報、を結合した加工推定入力データを生成する(S213)。
そして推定処理実行部76は、S213に示す処理で生成された加工推定入力データを変化識別器34に入力する(S214)。
そして推定結果特定部78は、S214に示す処理における加工推定入力データの入力に応じた変化識別器34の出力を、S204に示す処理で特定された位置に対応付けられる推定結果データとして特定する(S215)。
そして推定処理実行部76は、S204に示す処理で未選択である位置が存在するか否かを確認する(S216)。
ここで存在することが確認された場合は(S216:Y)、S204に示す処理に戻る。
存在しないことが確認された場合は(S216:N)、画面生成部80が、S215に示す処理で特定された推定結果データに基づいて、推定結果画面22を生成する(S217)。S217に示す処理では、画面生成部80は、例えば、推定結果データに対応付けられる位置を中心とするポリゴンを囲む、当該推定結果データの値に応じた家屋異動対応画像24を描画してもよい。そして画面生成部80は、家屋異動対応画像24が重畳された推定ターゲット画像20bが配置された推定結果画面22を生成してもよい。
そして表示制御部82が、S217に示す処理で生成された推定結果画面22を表示部16に表示させて(S218)、本処理例に示す処理は終了される。
なおS201~S218に示す処理の実行順序は上述のものに限定されず、上述に示す順序とは異なる実行順序でこれらの処理が実行されてもよい。
なお、本発明は上述の実施形態に限定されるものではない。
例えばオリジナル学習入力データに、第1学習画像に示されている建物の位置及び形状を示す学習建物検出画像と第2学習画像に示されている建物の位置及び形状を示す学習建物検出画像の両方が含まれてもよい。そしてこれら2個の学習建物検出画像の両方が入力48として機械学習モデル30に入力されてもよい。この場合は推定において、推定建物検出画像26bから抽出される推定チップ画像28(推定チップ画像28c)だけでなく、推定建物検出画像26aから抽出される推定チップ画像28も入力48として機械学習モデル30に入力されることとなる。
また例えば学習に用いられる学習建物検出画像として、中心に示されている建物のみについての位置及び形状を示す画像が用いられてもよい。また例えば推定において、推定チップ画像28cの代わりに、中心に示されている建物のみについての位置及び形状を示す図11に例示する推定チップ画像28dが用いられてもよい。図11に示す推定チップ画像28dは例えば中心に示されている建物以外の建物のポリゴンが推定チップ画像28cから削除されることにより生成される。
また例えば、機械学習モデル30の学習において、学習画像の代わりに、学習建物検出画像が、有無特徴抽出器32aに入力されてもよい。この場合、推定において、推定ターゲット画像20aから抽出される推定チップ画像28(推定チップ画像28a)の代わりに、推定建物検出画像26aから抽出される推定チップ画像28が入力40として有無特徴抽出器32aaに入力されることとなる。また推定ターゲット画像20bから抽出される推定チップ画像28(推定チップ画像28b)の代わりに、推定建物検出画像26bから抽出される推定チップ画像28(推定チップ画像28c)が入力44として有無特徴抽出器32abに入力されることとなる。
また例えば機械学習モデル30の学習において、全体教師データに含まれる二値データである有無データの代わりに、学習画像に基づいて生成される学習建物検出画像が用いられてもよい。
また例えば、学習において、一対の学習画像の代わりに一対の学習画像の差分を示す差分画像が用いられてもよい。この場合、推定において、推定チップ画像28a及び推定チップ画像28bの代わりに推定チップ画像28a及び推定チップ画像28bとの差分を示す差分画像が用いられてもよい。ここで差分画像に含まれるある座標値の画素の画素値として、例えば、第2学習画像に含まれる当該座標値の画素の画素値から第1学習画像に含まれる当該座標値の画素の画素値を引いた値が設定されてもよい。
また例えば、学習において、学習入力データに含まれる学習建物検出画像の代わりに、第1学習画像に基づいて生成される学習建物検出画像と第2学習画像に基づいて生成される学習建物検出画像との差分を示す差分画像が用いられてもよい。この場合、推定において、推定チップ画像28cの代わりに、推定建物検出画像26aから抽出される推定チップ画像28と推定建物検出画像26bから抽出される推定チップ画像28cとの差分を示す差分画像が用いられてもよい。
また例えば、図12に示すように、機械学習モデル30が有無特徴抽出器32aを含んでいなくてもよい。この場合、学習において、変化特徴抽出器32bの出力52が変化識別器34だけではなく、有無識別器32c(32ca及び32cb)に入力されてもよい。そして誤差逆伝播法(バックプロパゲーション)などにより、有無識別器32caの出力58と第1有無データとの比較結果(誤差)に基づいて、変化特徴抽出器32b及び有無識別器32caの重み等のパラメータの値が変更されてもよい。また誤差逆伝播法(バックプロパゲーション)などにより、有無識別器32cbの出力60と第2有無データとの比較結果(誤差)に基づいて、変化特徴抽出器32b及び有無識別器32cbの重み等のパラメータの値が変更されてもよい。
また例えば、図13に示すように、機械学習モデル30が有無特徴抽出器32a及び有無識別器32cを含んでいなくてもよい。この場合、学習及び推定において、第1学習画像内の所定の位置(例えば中心)に建物が示されているか否かを示す画像が入力84として入力されてもよい。また、第2学習画像内の所定の位置(例えば中心)に建物が示されているか否かを示す画像が入力86として入力されてもよい。入力84や入力86として入力される画像は、例えば、変化特徴抽出器32bの出力52である特徴マップと同じサイズの(例えば縦横の画素数がそれぞれLである)単色の画像であってもよい。ここで例えば、建物が示されている場合には白色の画像が、建物が示されていない場合は黒色の画像が、建物が示されているか否かを示す画像として用いられてもよい。そして有無特徴抽出器32aから出力される特徴情報の代わりに、入力84や入力86として入力される画像が、変化特徴抽出器32bの出力52と結合された上で、入力54として変化識別器34に入力されるようにしてもよい。ここで出力52として出力される特徴情報が、例えばマップ数が512である特徴マップである場合は、入力54として変化識別器34に入力されるデータは、マップ数が514である特徴マップとなる。
また例えば、図14に示すように、学習及び推定において、入力84や入力86として入力される画像も結合された多チャンネル画像が変化特徴抽出器32bに入力されるようにしてもよい。またこの場合、変化特徴抽出器32bの出力52がそのまま変化識別器34に入力されるようにしてもよい。
また例えば、学習において、学習建物検出画像が変化特徴抽出器32bに入力されず、第1学習画像及び第2学習画像のみが変化特徴抽出器32bに入力されるようにしてもよい。またこの場合推定において、推定建物検出画像26から抽出される推定チップ画像28が変化特徴抽出器32bに入力されず、推定ターゲット画像20a、20bから抽出される推定チップ画像28のみが変化特徴抽出器32bに入力されるようにしてもよい。
また例えば、図15に示すように、機械学習モデル30が備える有無特徴抽出器32aが1つであってもよい。また、機械学習モデル30が備える有無識別器32cが1つであってもよい。この場合、学習においては、第1学習画像の有無特徴抽出器32aへの入力及び当該入力に応じた出力の特定と第2学習画像の有無特徴抽出器32aへの入力及び当該入力に応じた出力の特定が順次実行される。そして第1学習画像を有無特徴抽出器32aに入力した際の出力と、第2学習画像を有無特徴抽出器32aに入力した際の出力と、変化特徴抽出器32bの出力とを結合したデータが変化識別器34に入力されてもよい。この場合推定において、推定チップ画像28aの有無特徴抽出器32aへの入力及び当該入力に応じた出力の特定と推定チップ画像28bの有無特徴抽出器32aへの入力及び当該入力に応じた出力の特定が順次実行されてもよい。そして推定チップ画像28aを有無特徴抽出器32aに入力した際の出力と、推定チップ画像28bを有無特徴抽出器32aに入力した際の出力と、変化特徴抽出器32bの出力とを結合したデータが変化識別器34に入力されてもよい。
また例えば、機械学習モデル30に含まれるプーリング層の代わりに、Dilated Convolution層が用いられてもよい。こうすればプーリング層を用いた場合に発生する情報量の圧縮を廃した特徴抽出が可能となる。また機械学習モデル30に含まれる全結合層の代わりに、畳み込み層が用いられてもよい。こうすれば計算コストの低減や入力の画像サイズに非依存な機械学習モデル30が実現可能な場合がある。
また推定ターゲット画像20bが、第1の時点よりも前である第2の時点に撮影された画像であってもよい。この場合は、上述の例において新築と推定される建物は滅失と推定され、滅失と推定される建物は新築と推定されるようにする必要がある。
また推定建物検出画像26a、26bの代わりに、建物の位置や輪郭が記載された画像が用いられてもよい。
また、上述の具体的な文字列や数値、並びに、図面中の具体的な文字列は例示であり、これらの文字列や数値には限定されない。