JP7048225B2 - 建物領域抽出用の学習済みモデル - Google Patents

建物領域抽出用の学習済みモデル Download PDF

Info

Publication number
JP7048225B2
JP7048225B2 JP2017146451A JP2017146451A JP7048225B2 JP 7048225 B2 JP7048225 B2 JP 7048225B2 JP 2017146451 A JP2017146451 A JP 2017146451A JP 2017146451 A JP2017146451 A JP 2017146451A JP 7048225 B2 JP7048225 B2 JP 7048225B2
Authority
JP
Japan
Prior art keywords
layer
building
image
convolution
feature extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017146451A
Other languages
English (en)
Other versions
JP2019028657A (ja
Inventor
竜平 濱口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pasco Corp
Original Assignee
Pasco Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pasco Corp filed Critical Pasco Corp
Priority to JP2017146451A priority Critical patent/JP7048225B2/ja
Publication of JP2019028657A publication Critical patent/JP2019028657A/ja
Application granted granted Critical
Publication of JP7048225B2 publication Critical patent/JP7048225B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、地表上の処理対象領域を上空から撮影した画像を基に、建物を識別し、識別した建物から建物領域を抽出するよう、コンピュータを機能させるための学習済みモデルに関する。
従来、航空写真または衛星画像など上空から取得した画像等のデータから建物を抽出する技術として、下記特許文献1には、航空写真等の画像上にて作業者が抽出したい建物を含む作業領域を指定し、当該作業領域にて建物の輪郭を自動的に抽出するシステムが開示されており、また下記特許文献2には、上空からレーザスキャナなどを用いて取得したDSM(Digital Surface Model:数値表層モデル)を使用して建物の輪郭を抽出する装置が開示されている。
ここで、特許文献1に示されるような技術では、作業コストが大きくなるため、大量の建物領域を抽出することは現実的ではない。また特許文献2に示されるような技術では、DSMの整備年度と航空写真や衛星画像の撮影年度とが相違すると、相違する期間での経年変化による誤差が生じ得る。
そこで新たな技術として、航空写真等の画像に畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)を適用して建物領域を抽出する手法が提案されている。
特開2011-76178号公報 特開2013-101428号公報
Fisher Yu, Vladlen Koltun, "Multi-scale Context Aggregation by Dilated Convolutions", In ICLR 2016.
しかし、CNNを用いた建物領域の抽出手法では、畳み込み層(Convolution layer)だけでなくプーリング層(Pooling layer)も含んで構成され、プーリング層では低解像度処理が行われる。そのため、出力データの解像度が低下し、建物領域が不明瞭になるという問題が存在する。つまり、航空写真や衛星画像に写る建物のように、画像上で抽出対象のオブジェクトが小さなサイズを有し、また密集して存在し得る場合に、抽出精度が低下し易い。
この従来のCNNの問題の解決策として、プーリング層内の改良やDilated Convolutions(拡張畳み込み演算と称することにする。) を組み込むこと等が検討されている。これらのうち、拡張畳み込み演算は、解像度を下げずに受容野を広げる方法である(非特許文献1参照)。しかし、拡張畳み込み演算は、受容野を広げて処理する際、隣り合う情報を考慮しないため、建物領域の境界が不明瞭になり易いという問題があった。
本発明は上記問題点を解決するためになされたものであり、航空写真や衛星画像等の上空から撮影した画像に、拡張畳み込み演算を用いた畳み込みニューラルネットワークを適用して建物領域を好適な精度で抽出することを目的とする。
(1)本発明に係る学習済みモデルは、地表上の処理対象領域を上空から撮影した画像に基づいて、前記処理対象領域における建物が存在する建物領域を抽出するよう、コンピュータを機能させるための学習済みモデルであって、前記画像を入力層とし、それぞれ拡張畳み込み演算(dilated convolution)を行う畳み込み層であって、拡張係数(dilation factor)が異なる複数種類の畳み込み層を積み重ねた特徴抽出層を有し、前記建物の存在確率を画素値とする建物確率画像を出力するニューラルネットワークで構成され、前記特徴抽出層は、前記入力層に続く複数の前記畳み込み層であって、当該畳み込み層の並び順に従って前記拡張係数が当該特徴抽出層における最大値まで増加するフロントエンド部と、前記フロントエンド部に続く複数の前記畳み込み層であって、当該畳み込み層の並び順に従って前記拡張係数が減少する局所特徴抽出部とを含み、前記画像に関する訓練用画像データと当該訓練用画像データに対する前記建物確率画像の正解データとを用いて、前記各畳み込み層の畳み込み演算の重みパラメータが学習された、建物領域抽出用の学習済みモデルである。
(2)上記(1)に記載の学習済みモデルにおいて、前記最大値をj(jは3以上の自然数である。)として、前記フロントエンド部は、1乃至jそれぞれを前記拡張係数とするj種類の前記畳み込み層を含み、前記局所特徴抽出部は、1乃至j-1それぞれを前記拡張係数とするj-1種類の前記畳み込み層を含む構成とすることができる。
本発明によれば、航空写真や衛星画像等の上空から撮影した画像から建物領域を好適な精度で抽出することが可能となる。
本発明の実施形態に係る学習装置の概略の構成を示すブロック図である。 CNNの設計パラメータの例を示す模式図である。 拡張畳み込み演算を用いたCNNを説明する模式図である。 拡張畳み込み演算を用いたCNNにおいて最上層における近傍ユニット間の相関が弱まるという問題を説明する模式図である。 拡張畳み込み演算を用いたCNNにおいて入力データのローカルな特徴を拾いにくくなるという問題を説明する模式図である。 拡張畳み込み演算を行う層としてフロントエンド部の後に局所特徴抽出部を設けたCNNを説明する模式図である。 最上層における近傍ユニット間の相関が弱まるという問題に対しての局所特徴抽出部を設けたCNNの効果を説明する模式図である。 入力データのローカルな特徴を拾いにくくなるという問題に対しての局所特徴抽出部を設けたCNNの効果を説明する模式図である。 2次元の拡張畳み込み演算に用いるカーネルの模式図である。 本発明の実施形態に係る建物領域抽出装置の概略の構成を示すブロック図である。 本発明の実施形態に係る建物領域抽出装置の処理を模式的に表した説明図である。 建物確率画像の模式図である。
以下、本発明の実施の形態(以下実施形態という)である学習装置1及び建物領域抽出装置2について図面に基づいて説明する。学習装置1は本発明に係る学習済みモデルを生成する装置であり、具体的には、学習済みモデルとして、地表上の処理対象領域を上空から撮影した航空写真や衛星画像などに基づいて処理対象領域における建物が存在する建物領域を抽出するよう、コンピュータを機能させるための建物判定モデルを生成する。一方、建物領域抽出装置2は、本発明に係る建物判定モデルを用いて、航空写真や衛星画像などから、処理対象領域における建物領域を判定・抽出する装置である。
[学習装置]
図1は実施形態に係る学習装置1の概略の構成を示すブロック図である。学習装置1は、入力部10、記憶部11、処理部12及び出力部13を含んで構成される。入力部10、記憶部11及び出力部13は処理部12と接続される。
入力部10は処理部12への入力を行うためのユーザインターフェース装置であり、キーボード、マウス等からなる。入力部10は、学習装置1にて学習データを指定したり、学習処理を起動したりする際にユーザにより操作される。
記憶部11はROM、RAM、ハードディスク等の記憶装置であり、処理部12で使用されるプログラムやデータを記憶する。記憶部11はこれらプログラム、データを処理部12との間で入出力する。本実施形態では記憶部11に記憶されるデータには、設計パラメータ110、学習データ111及び建物判定モデル112が含まれる。
設計パラメータ110は、建物判定モデル112を構成するCNNのネットワーク構造を規定するパラメータや、学習動作に関するパラメータであり、学習動作に際して予めユーザにより記憶部11に記憶される。
図2は設計パラメータ110の例を示す模式図である。図2(a)はネットワーク構造を規定するパラメータの例を表形式で表している。「層」はCNNの層構造における層の順序であり、この例ではネットワークは第1層~第17層で構成される。「処理」は当該層で行われる処理の種類を表している。一般的なCNNで用いられる処理には、畳み込み(convolution)とプーリング(pooling)とが存在するが、学習装置1では、畳み込み処理として拡張畳み込み演算を用いることに対応して、プーリング層を省略して、全ての層は畳み込み層で構成される。また、各層が拡張畳み込み層であることに対応して、それぞれの層について拡張係数が設定される。カーネルサイズは、畳み込みフィルタのサイズを表すパラメータである。ここでは処理対象が画像であることに対応して、カーネルは2次元であり、図2(a)におけるカーネルサイズの値“k”は“k×k”フィルタであることを意味する。拡張畳み込み演算で用いる具体的なカーネルについては後述する。各層の「特徴マップ数」は、当該層にて抽出される特徴マップの数である。なお、ストライド(カーネルの適用間隔)は各層について1に固定し、層ごとの設定を省略している。
図2(b)は学習動作に関するパラメータの例を表形式で表している。最適化アルゴリズムは、モデルの予測値と実際の値との誤差から畳み込みの重みパラメータを更新し最適化する手法の種類であり、ここでは勾配降下法である“Adam”(adaptive moment estimation)を用い、初期学習率を1.0×10-3~1.0×10-5の範囲で設定し、モーメンタム(1次,2次)を0.9,0.99、荷重減衰係数を1.0×10-4にそれぞれ設定し、また学習率制御を線形減衰としている。また、バッチサイズを32~128の範囲で設定したデータとしたバッチ学習を行い、訓練イタレーション数は30000回としている。
学習データ111は、訓練用画像データ及び、当該訓練用画像データに対する建物確率画像の正解データであり、学習データ111には訓練用画像データと正解データとの組が格納される。訓練用画像データは地表を撮影した航空写真や衛星画像であり、当該データには建物が写った画像が基本的に多数含まれ、また建物が写らない画像も含まれ得る。なお、当該画像データはカラー画像及びモノクロ画像のいずれであってもよい。正解データは、訓練用画像データにおける建物が写る領域とそれ以外の領域とに異なる画素値を付与した2値化画像であり、例えば、建物領域における画素値を“1”(白)、非建物領域における画素値を“0”(黒)と定義することができる。
例えば、訓練用画像データは、建物が比較的に密に存在する広範囲の航空写真等から、比較的小領域の画像を切り出して生成することができる。但し、当該小領域は、少なくとも1つの建物の全体を包含する必要があり、好適には、建物を複数個含み得る程度の大きさを有するように設定される。正解データは訓練用画像データに基づいて生成され、例えば、作業者の判読により作成することができる。
ここで、一群の訓練用画像データを、当該画像の撮影面積に占める建物領域の面積の割合Rの分布が広範囲に亘り、かつ偏りが少ない分布となるように用意することが建物領域の抽出精度を向上させる上で好適である。そこで、当該割合Rを訓練用画像データのピクセル数に対する建物領域のピクセル数の比の値に基づいて求め、例えば、Rが0%であるクラス、0%より大きく25%以下であるクラス、25%より大きく50%以下であるクラス、50%より大きく75%以下であるクラス、75%より大きく100%以下であるクラスの5クラスを設定し、各クラスに同数ずつの訓練用画像データが含まれるように学習データ111を整備する。
なお、学習データ111の訓練用画像データとする航空写真や衛星画像にはオルソ画像を用いるのが好適である。
建物判定モデル112は、学習装置1により生成される学習モデルであり、処理部12が機械学習にて学習データ111から複数の訓練用画像データと正解データとの組を順次読み出して処理するのに合わせて更新され、学習処理が完了すると学習済みモデルとして、建物領域抽出装置2での利用に供される。
処理部12は、例えば、CPU(Central Processing Unit)等の演算装置を用いて構成される。また、処理部12を構成する演算装置はCPUに代えて、MPU(Micro-Processing Unit)や、画像処理を高速に実行するGPU(Graphics Processing Unit)等を用いてもよい。例えばGPUの機能を画像処理以外の用途に転用する技術であるGPGPU(General-Purpose computing on Graphics Processing Units)を利用して、本実施形態に係る各機能を実現してもよい。具体的には処理部12はコンピュータであり、当該コンピュータは記憶部11からプログラムを読み出して実行し、パラメータ設定手段120、モデル学習手段121として機能する。
パラメータ設定手段120は、記憶部11から設計パラメータ110を読み出して、モデル学習手段121に設定する。
モデル学習手段121は、設計パラメータ110に基づく学習処理により学習データ111から建物判定モデル112を生成する。すなわち、モデル学習手段121は、設計パラメータ110に基づいて多層構造のニューラルネットワークを設定する。具体的には、モデル学習手段121は、拡張畳み込み演算を行う畳み込み層であって拡張係数が異なる複数種類の畳み込み層を積み重ねた特徴抽出層を有するCNNを設定する。そして、建物の存在確率を画素値とする建物確率画像が出力されるように、学習データ111を用いて当該CNNを訓練する。訓練にてモデル学習手段121は、訓練用画像データをCNNに入力し、CNNの出力層に得られる建物の存在確率を正解データの2値化画像の画素値と比較して建物存在確率の誤差を評価する。そして、当該誤差が小さくなるように、CNNの各層に適用される畳み込みフィルタを構成する重みパラメータを調整する。この学習の基本的な手法は周知の技術に基づく。
出力部13は、学習により生成された建物判定モデル112を学習装置1の外部へ出力するUSB端子、CDドライブ、ネットワークアダプタ等のインターフェース回路、及びそれぞれのドライバ・プログラムからなる。本実施形態では、建物判定モデル112は出力部13を介して建物領域抽出装置2へ渡される。また、出力部13は、ディスプレイ、プリンタなど、ユーザが処理部12の動作及びその結果を把握することを可能とするユーザインターフェース装置を含み得る。
図3は拡張畳み込み演算を説明する模式図である。学習装置1にて生成するCNNが対象とするデータは画像データであり空間的に2次元のデータであるが、ここでは図示及び説明の簡素化のため、CNNの入力データを1次元データに単純化する。具体的には、図3にて一番下に位置する入力層にて水平方向に並ぶ複数の“○”印が入力データを構成する。“○”印で表す入力データの要素30は、画像における画素(又は画素値)に相当する。
ここで、一般的なCNNは、入力データからなる入力層と、畳み込み層とプーリング層とが積層された特徴抽出層と、特徴抽出層に接続される識別層と、出力データからなる出力層とを含む。図3に示すCNNの構造は、このうち入力層及び特徴抽出層に対応し、特徴抽出層に続く構造は図示を省略している。
図3に示すCNNは特徴抽出層として4層の畳み込み層を有し、各畳み込み層が拡張畳み込み演算を行う。入力層の上に位置する第1層の畳み込み層は拡張係数d=1の拡張畳み込み演算を行う。具体的には第1層にて“○”印で表す複数のユニット31それぞれにて畳み込み演算が行われ、各ユニット31は入力層の隣り合う2つの要素30の値に重みを乗じて足し合わせた値を出力する。
第2層の畳み込み層は拡張係数d=2の拡張畳み込み演算を行う。具体的には第2層にて“○”印で表す複数のユニット32それぞれにて畳み込み演算が行われ、各ユニット32は第1層にて1つ置きのユニット31の出力値に重みを乗じて足し合わせた値を出力する。
また、第3層の畳み込み層は拡張係数d=3の拡張畳み込み演算を行い、第3層の“○”印で表す各ユニット33は第2層にて3つ置きのユニット32の出力値に重みを乗じて足し合わせた値を出力し、第4層の畳み込み層は拡張係数d=4の拡張畳み込み演算を行い、第4層の“○”印で表す各ユニット34は第3層にて7つ置きのユニット33の出力値に重みを乗じて足し合わせた値を出力する。
図3には、第4層の或る1つのユニット34の出力に畳み込まれる第1層乃至第3層のユニット及び入力層についてそれらの接続関係を線(エッジ)で例示している。拡張畳み込み演算では、拡張係数dに応じて指数関数的にカーネルの適用範囲が拡張される。例えば、図3のd=1~4の畳み込み演算のカーネルは、いずれも2つの入力を畳み込むフィルタ、つまりサイズが2のフィルタであるが、d=1のカーネルにより畳み込まれる2つの入力の1次元データの並びでの間隔は1であるのに対して、d=2のカーネルにより畳み込まれる2つの入力の間隔は2であり、またd=3では当該間隔は4、d=4では当該間隔は8となる。つまり、間隔は2d-1に設定される。
このように拡張畳み込み演算では、カーネルの適用範囲を拡張することで、少ない層数で受容野を広げることができる。そして、畳み込みだけで受容野を広げるので、一般的なCNNで用いるプーリング層が不要となり、プーリング層による解像度低下を回避できる。また、適用範囲を拡大する一方で、当該範囲内の要素を間引いて残った一部の要素しか畳み込まないことで、重みパラメータの増大が抑制される。
一方、拡張畳み込み演算を導入したCNNに関し、図3の例のように順に拡張係数dが増加するように層を積み重ねる構造は、最上層における近傍ユニット間の相関が弱まるという問題や、入力データのローカルな特徴を拾いにくくなるという問題を有する。図4及び図5はこれらの問題を説明する模式図であり、それぞれのCNNの構造は図3と同じであり、1次元データの入力層に対し、d=1,2,3,4の拡張畳み込み演算を行う層を順番に積み重ねた構造を有する。
図4は、最上層における近傍ユニット間の相関が弱まるという問題を説明する模式図である。図4には、最上層である第4層にて隣接するユニット40a,40bの出力に関与するユニットの接続関係を、ユニット40aに関して実線のエッジで、またユニット40bに関して点線のエッジで示している。図4の例では、隣接するユニット40a,40bそれぞれに関する受容野が、最下層である入力層まで辿らないと互いにオーバーラップしない。つまり、或る層から上において、ユニット40aにつながるエッジ及びユニットと、ユニット40aにつながるエッジ及びユニットとが別々となり、上述した近傍ユニット間の相関が弱まるという問題を生じる。
図5は、入力データのローカルな特徴を拾いにくくなるという問題を説明する模式図である。図5には、第1層にて隣接するユニット41a,41bに関係する接続関係を、ユニット41aに関して実線のエッジで、またユニット41bに関して点線のエッジで示している。図5の例では、第1層にて隣接するユニット41a,41bそれぞれからの情報を同時に受けるユニットが第2層~第4層に存在しない。つまり、最上層にてユニット41a,41bが隣り合っているというローカルな情報を把握できないという問題を生じる。
図6は、拡張畳み込み演算を導入したCNNにおいて上述の問題に対処する構造を説明する模式図である。図6に示すCNNの構造は、図3と同様、入力層及び特徴抽出層に対応し、特徴抽出層に続く構造は図示を省略している。
図6のCNNの特徴抽出層は、7層の畳み込み層からなり、図3の第4層の上にさらに第5層~第7層を積み重ねた構造を有する。第5層は、d=3の拡張畳み込み演算を行い、また、第6層、第7層は、それぞれd=2,d=1の拡張畳み込み演算を行う。ここで、図6に示す特徴抽出層の構造において、図3と同じ第1層~第4層からなる部分をフロントエンド部と称し、これに続く第5層~第7層からなる部分を局所特徴抽出部と称することにする。フロントエンド部は、入力層に続く複数の畳み込み層であり、フロントエンド部では、当該畳み込み層の並び順に従って拡張係数dが特徴抽出層における最大値まで増加する。一方、局所特徴抽出部は、フロントエンド部に続く複数の畳み込み層であり、局所特徴抽出部では当該畳み込み層の並び順に従って拡張係数が減少する。
図6は、第7層の或る1つのユニット37の出力に畳み込まれる第1層乃至第6層のユニット及び入力層の接続関係を線で例示している。
図7及び図8は、局所特徴抽出部を設けたCNNに関し、図4及び図5を用いて説明した問題に対する効果を説明する模式図であり、それぞれのCNNの構造は、図6と同じであり、1次元データの入力層に対し、d=1,2,3,4,3,2,1の拡張畳み込み演算を行う層を順番に積み重ねた構造を有する。
図7は、最上層における近傍ユニット間の相関が弱まるという問題に対する効果を説明する模式図である。図7には、最上層である第7層にて隣接するユニット50a,50bの出力に関与するユニットの接続関係を、ユニット50aに関して実線のエッジで、またユニット50bに関して点線のエッジで示している。図7の例では、隣接するユニット50a,50bそれぞれに関する受容野は、第6層以下の太線の“○”印で示すユニット及び太線で示すエッジの部分でオーバーラップする。よって、上述した近傍ユニット間の相関が弱まるという問題が解決される。
図8は、入力データのローカルな特徴を拾いにくくなるという問題に対する効果を説明する模式図である。図8には、第1層にて隣接するユニット51a,51bに関係する接続関係を、ユニット51aに関して実線のエッジで、またユニット51bに関して点線のエッジで示している。図8の例では、最上層である第7層の太線の“○”印で示すユニットが第1層にて隣接するユニット51a,51bそれぞれからの情報を同時に受ける。よって、最上層にてユニット51a,51bが隣り合っているというローカルな情報を把握できないという問題が解決される。
すなわち、拡張畳み込み演算を用いたCNNにおいて、フロントエンド部の後に局所特徴抽出部を設けた構成とすることで、フロントエンド部にて拡張畳み込み演算を積極的に利用し解像度を一切落とさずにコンテキストを得ると共に、局所特徴抽出部ではフロントエンド部により分散された局所特徴を集約する。これにより、コンテキストの情報と局所特徴の情報を有効活用でき、小さく密集したオブジェクトも認識可能となる。
以上、拡張畳み込み演算について1次元データへの適用例を用いて説明してきたが、既に述べたように、学習装置1にて対象とするデータは、画像データであり空間的に2次元のデータである。図9は、2次元の拡張畳み込み演算に用いるカーネルの模式図である。図において、格子の配列がCNNの各層におけるユニットの2次元配列を表しており、畳み込まれるユニットに対応する格子に斜線を施している。
具体的には、図9に示すカーネルは3×3フィルタであり、図9(a)が拡張係数d=1の場合、また図9(b),(c)がそれぞれd=2,d=3の場合のカーネルを示している。
図9の水平方向をx軸、垂直方向をy軸として第j層のx軸方向にi番目、y軸方向にi番目のユニットをU(i,i)と表すと、U(i,i)での図9のカーネルを用いた畳み込み演算では、例えば、カーネルの中心を(i,i)に配置し、第(j-1)層のユニットのうち、Uj-1(i,i),Uj-1(i+δ,i),Uj-1(i-δ,i),Uj-1(i,i+δ),Uj-1(i,i-δ),Uj-1(i+δ,i+δ),Uj-1(i+δ,i-δ),Uj-1(i-δ,i+δ),Uj-1(i-δ,i-δ)の9つの出力に重みパラメータを乗じて足し合わせる。ここで重みパラメータが定義されるユニットの間隔δは、拡張係数dに対してδ=2d-1に設定される。
CNNのネットワーク構造は上述したように設計パラメータ110により定義される。ネットワーク構造は例えば、入力画像の解像度などに応じて変更することができる。
例えば、50cmの分解能を有する衛星画像に対しては、図2(a)に示したパラメータで構成されるCNNを用いることが好適である。すなわち、第1層~第10層からなるフロントエンド部にて、拡張係数dを順に1,1,2,2,3,3,3,3,3,3に設定し、第11層~第14層からなる局所特徴抽出部にて、拡張係数dを順に2,2,1,1に設定する。
ここで、解像度が高い画像ほど詳細が見える一方で、周囲のコンテキストを確保するためにより多くのピクセルをカバーすることが好適となる。そこで、CNNにおける最大の拡張係数dを入力画像の解像度に応じて設定し、解像度が高いほど畳み込み演算の受容野を広げるように構成する。例えば、上述の50cmの分解能の入力画像に対してはdの最大値が3であったところ、例えば16cm分解能を有する航空写真に対しては、dの最大値を4としたネットワーク構造を採用することができる。具体的には、フロントエンド部として、図2(a)の第1層~第7層に続けて、拡張係数d=4の第8層~第10層を追加することができる。なお、これら第8層~第10層は、カーネルを他の層と同様の3×3フィルタとし、また特徴マップ数を512とする。局所特徴抽出部については、拡張係数dが順に3,3,2,2,1,1に設定される第11層~第16層が設けられる。なお、第11層~第16層のカーネルは3×3フィルタ、特徴マップ数は512とする。ちなみに、第17層~第19層に識別層として、図2(a)の第15層~第17層と同じ構成を設けることができる。
[建物領域抽出装置]
図10は、実施形態に係る建物領域抽出装置2の概略の構成を示すブロック図である。建物領域抽出装置2は、入力部20、記憶部21、処理部22及び出力部23を含んで構成される。入力部20、記憶部21及び出力部23は処理部22と接続される。
入力部20は処理部22への入力を行うためのユーザインターフェース装置であり、キーボード、マウス等からなる。入力部20は、建物領域抽出装置2にて建物領域抽出処理を起動したり、処理する画像や処理対象領域を指定したりする際にユーザにより操作される。また、入力部20は建物判定モデル112を学習装置1から入力するUSB端子、CDドライブ、ネットワークアダプタ等のインターフェース回路、及びそれぞれのドライバ・プログラムを含む。
記憶部21はROM、RAM、ハードディスク等の記憶装置であり、処理部22で使用されるプログラムやデータを記憶する。記憶部21はこれらプログラム、データを処理部22との間で入出力する。本実施形態では記憶部21に記憶されるデータには、処理対象画像データ210及び建物判定モデル211が含まれる。
処理対象画像データ210は、建物を抽出する処理の対象領域とする地表を撮影した航空写真や衛星画像等である。なお、処理対象画像データ210には予めオルソ変換した航空写真や衛星画像等を格納することができる。一方、建物領域抽出装置2は、処理対象画像データ210にオルソ変換前の画像を格納し、処理部22にてオルソ変換を行う構成としてもよい。
建物判定モデル211は、学習装置1により生成される学習済みモデルであり、学習装置1の記憶部11に記憶される建物判定モデル112を導入して用いる。
処理部22は、例えば、CPU等の演算装置を用いて構成される。また、処理部22を構成する演算装置は、上述した学習装置1の処理部12と同様、CPUに代えて、MPUや、画像処理を高速に実行するGPU等を用いてもよい。具体的には処理部22はコンピュータであり、当該コンピュータは記憶部21からプログラムを読み出して実行し、判定手段220として機能する。
判定手段220は、処理対象画像データ210における建物領域を判定、抽出する。図11は建物領域抽出装置2の処理を模式的に表した説明図である。建物領域抽出装置2は判定手段220により、処理対象画像データ210から、学習データ111の訓練用画像データに応じたサイズでパッチ画像60を切り出して建物判定モデル211に入力し、画像61に示すように、個々の建物を分離された領域として抽出する。ちなみに、画像61において白で示す領域が建物の領域である。
具体的には、判定手段220はパッチ画像60を建物判定モデル211に入力し、建物判定モデル211は、入力画像に対応する建物確率画像を生成する。図12は、建物確率画像の模式図である。図において2次元配列される格子が建物確率画像の画素であり、例えば、入力画像の各画素に対応して設定される。建物確率画像の各画素には、対応する入力画像の位置での建物の存在確率が画素値として付与され、図において格子内の数値が当該確率を表している。
さらに、判定手段220は、建物確率画像を所定の閾値で2値化して、図11に示す画像61に相当する出力を得る。判定手段220は当該出力から例えば、建物の領域を特定したり、建物の個数や面積を算出したりすることができる。この領域抽出や個数・面積の算出は周知の画像処理技術を用いて行うことができる。
本発明の学習済みモデルである建物判定モデルを用いることで、航空写真や衛星画像といったリモートセンシング画像から小さい構造物や建築物等を認識できるようになる。つまり、本発明の建物判定モデルは、建物の新築や滅失などの把握に利用することができ、家屋異動に関する統計の基礎情報の取得を可能とする。さらに、建物領域を精度良く抽出可能となることで、個々の建物の時間的変移を把握でき、また、抽出された建物領域の大きさや形状から建物の詳細属性(例えば、戸建、マンション、工場といった建物の種類)を判別することも可能になる。
そして、画像からの建物に関するこれらの情報抽出作業の自動化が図られることで、広範囲の地表を処理対象とした当該作業を低コストで高速に行うことが可能となる。
なお、上記実施形態では、建物抽出を行う画像として航空写真や衛星画像を挙げて説明したが、本発明の建物判定モデルは、建物が小さいサイズで密集して存在する画像から建物を高精度で認識でき、そのような画像であれば航空写真や衛星画像ではなくても本発明の建物判定モデルを適用可能である。さらに、本発明の学習済みモデルは、建物以外のオブジェクトについて生成して、画像内の小さいサイズで密集して存在する当該オブジェクトを好適に判定することができる。
1 学習装置、2 建物領域抽出装置、10,20 入力部、11,21 記憶部、12,22 処理部、13,23 出力部、110 設計パラメータ、111 学習データ、112 建物判定モデル、120 パラメータ設定手段、121 モデル学習手段、210 処理対象画像データ、211 建物判定モデル、220 判定手段。

Claims (2)

  1. 地表上の処理対象領域を上空から撮影した画像に基づいて、前記処理対象領域における建物が存在する建物領域を抽出するよう、コンピュータを機能させるための学習済みモデルであって、
    前記画像を入力層とし、それぞれ拡張畳み込み演算(dilated convolution)を行う畳み込み層であって拡張係数(dilation factor)が異なる複数種類の畳み込み層を積み重ねた特徴抽出層を有し、前記建物の存在確率を画素値とする建物確率画像を出力するニューラルネットワークで構成され、
    前記特徴抽出層における前記各畳み込み層のストライドはそれぞれ1であり、
    前記特徴抽出層は、前記入力層に続く複数の前記畳み込み層であって、当該畳み込み層の並び順に従って前記拡張係数が当該特徴抽出層における最大値まで増加するフロントエンド部と、前記フロントエンド部に続く複数の前記畳み込み層であって当該畳み込み層の並び順に従って前記拡張係数が減少する局所特徴抽出部とを含み、
    前記画像に関する訓練用画像データと当該訓練用画像データに対する前記建物確率画像の正解データとを用いて前記各畳み込み層の畳み込み演算の重みパラメータが学習された、建物領域抽出用の学習済みモデル。
  2. 請求項1に記載の学習済みモデルにおいて、
    前記最大値をj(jは3以上の自然数である。) として、
    前記フロントエンド部は、1乃至jそれぞれを前記拡張係数とするj種類の前記畳み込み層を含み、
    前記局所特徴抽出部は、1乃至j-1それぞれを前記拡張係数とするj-1種類の前記畳み込み層を含むこと、
    を特徴とする学習済みモデル。
JP2017146451A 2017-07-28 2017-07-28 建物領域抽出用の学習済みモデル Active JP7048225B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017146451A JP7048225B2 (ja) 2017-07-28 2017-07-28 建物領域抽出用の学習済みモデル

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017146451A JP7048225B2 (ja) 2017-07-28 2017-07-28 建物領域抽出用の学習済みモデル

Publications (2)

Publication Number Publication Date
JP2019028657A JP2019028657A (ja) 2019-02-21
JP7048225B2 true JP7048225B2 (ja) 2022-04-05

Family

ID=65478452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017146451A Active JP7048225B2 (ja) 2017-07-28 2017-07-28 建物領域抽出用の学習済みモデル

Country Status (1)

Country Link
JP (1) JP7048225B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7320972B2 (ja) * 2019-04-08 2023-08-04 株式会社日立ハイテク 画像処理装置、自動分析システム及び画像処理方法
KR102040702B1 (ko) * 2019-05-07 2019-11-05 (주)컨텍 위성영상을 이용한 활용서비스 제공 장치 및 방법
JP2021005301A (ja) * 2019-06-27 2021-01-14 株式会社パスコ 建物抽出処理装置及びプログラム
CN112241659B (zh) * 2019-07-17 2024-05-17 杭州海康威视数字技术股份有限公司 违章建筑的检测装置和检测方法以及终端设备
CN110516539A (zh) * 2019-07-17 2019-11-29 苏州中科天启遥感科技有限公司 基于对抗网络的遥感影像建筑物提取方法、系统、存储介质及设备
JP7321953B2 (ja) * 2020-02-17 2023-08-07 株式会社神戸製鋼所 自動溶接システム、溶接方法、学習装置、学習済みモデルの生成方法、学習済みモデル、推定装置、推定方法、及びプログラム
JP7555734B2 (ja) 2020-06-16 2024-09-25 株式会社インテック 家屋異動検出システム、家屋異動検出方法及び家屋異動検出プログラム
CN112052783B (zh) * 2020-09-02 2024-04-09 中南大学 一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法
CN112800915B (zh) * 2021-01-20 2023-06-27 北京百度网讯科技有限公司 建筑物变化检测方法、装置、电子设备以及存储介质
CN113808192B (zh) * 2021-09-23 2024-04-09 深圳须弥云图空间科技有限公司 一种户型图生成方法、装置、设备及存储介质
CN113807301B (zh) * 2021-09-26 2024-06-07 武汉汉达瑞科技有限公司 一种新增建设用地自动提取方法及自动提取系统
CN113963177A (zh) * 2021-11-11 2022-01-21 电子科技大学 一种基于cnn的建筑物掩膜轮廓矢量化的方法
CN114897752B (zh) * 2022-05-09 2023-04-25 四川大学 一种基于深度学习的单透镜大景深计算成像系统及方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013012034A (ja) 2011-06-29 2013-01-17 Kyoto Univ 領域抽出方法、領域抽出プログラム及び領域抽出装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013012034A (ja) 2011-06-29 2013-01-17 Kyoto Univ 領域抽出方法、領域抽出プログラム及び領域抽出装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Fisher Yu, Vladlen Koltun, Thomas Funkhouser,Dilated Residual Networks,2017 IEEE Conference on Computer Vision and Pattern Recognition,米国,IEEE,2017年07月26日,<URL>http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8099558
藤田 藍斗、今泉 友之、彦坂 修平,CNNを用いた高空間解像度衛星画像からの地物抽出,一般社団法人 人工知能学会 第30回全国大会論文集CD-ROM [CD-ROM] 2016年度 人工知能学会全国大会(第30回)論文集 The 30th Annual Conference of the Japan Society of Artificial Intelligence,日本,社団法人人工知能学会,2016年06月09日

Also Published As

Publication number Publication date
JP2019028657A (ja) 2019-02-21

Similar Documents

Publication Publication Date Title
JP7048225B2 (ja) 建物領域抽出用の学習済みモデル
CN109903331B (zh) 一种基于rgb-d相机的卷积神经网络目标检测方法
CN108038846A (zh) 基于多层卷积神经网络的输电线路设备图像缺陷检测方法及系统
CN109376681A (zh) 一种多人姿态估计方法及系统
CN107749052A (zh) 基于深度学习神经网络的图像去雾方法及系统
CN105574534A (zh) 基于稀疏子空间聚类和低秩表示的显著性目标检测方法
CN108009554A (zh) 一种图像处理方法以及装置
CN109215034A (zh) 一种基于空间金字塔掩盖池化的弱监督图像语义分割方法
CN109919085B (zh) 基于轻量型卷积神经网络的人人交互行为识别方法
CN115147488B (zh) 一种基于密集预测的工件位姿估计方法与抓取系统
CN111368637B (zh) 一种基于多掩模卷积神经网络的搬运机器人识别目标方法
CN112906794A (zh) 一种目标检测方法、装置、存储介质及终端
CN112580662A (zh) 一种基于图像特征识别鱼体方向的方法及系统
JP7096034B2 (ja) 建築物抽出システム
CN111652297B (zh) 用于图像检测模型训练的故障图片生成方法
CN113887649B (zh) 一种基于深层特征和浅层特征融合的目标检测方法
CN111612886A (zh) 室内三维模型生成方法及系统
CN111160372B (zh) 一种基于高速卷积神经网络的大目标识别方法
CN116386089B (zh) 运动场景下人体姿态估计方法、装置、设备及存储介质
JP7096033B2 (ja) 建築物抽出システム
CN109493279B (zh) 一种大规模无人机图像并行拼接方法
CN116129039A (zh) 一种输电线路的三维点云生成方法、装置及存储介质
CN116460851A (zh) 一种视觉迁移的机械臂装配控制方法
CN110889460A (zh) 一种基于协同注意力机制的机械臂指定物体抓取方法
US12112499B2 (en) Algorithm for mix-size depalletizing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220324

R150 Certificate of patent or registration of utility model

Ref document number: 7048225

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150