JP2019095886A - 建物被害推定装置 - Google Patents

建物被害推定装置 Download PDF

Info

Publication number
JP2019095886A
JP2019095886A JP2017222555A JP2017222555A JP2019095886A JP 2019095886 A JP2019095886 A JP 2019095886A JP 2017222555 A JP2017222555 A JP 2017222555A JP 2017222555 A JP2017222555 A JP 2017222555A JP 2019095886 A JP2019095886 A JP 2019095886A
Authority
JP
Japan
Prior art keywords
damage
image
building
state
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017222555A
Other languages
English (en)
Other versions
JP6993852B2 (ja
Inventor
禎人 本田
Sadahito Honda
禎人 本田
榊原 庸貴
Nobutaka Sakakibara
庸貴 榊原
貫一郎 望月
Kanichiro Mochizuki
貫一郎 望月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pasco Corp
Original Assignee
Pasco Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pasco Corp filed Critical Pasco Corp
Priority to JP2017222555A priority Critical patent/JP6993852B2/ja
Publication of JP2019095886A publication Critical patent/JP2019095886A/ja
Application granted granted Critical
Publication of JP6993852B2 publication Critical patent/JP6993852B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

【課題】建物の災害被害を迅速かつ良好な精度で推定する。【解決手段】上空からのカラーの光学画像及び建物ポリゴンを用いる。特徴画像生成手段111は光学画像から赤系特徴画像を含む複数の特徴画像を生成する。説明変数データ生成手段112は建物ポリゴンにおける特徴画像から説明変数を算出する。予め学習された建物被害推定モデル224を用いて説明変数から被害状況を求める。赤系特徴画像は二値化画像であり、その二値の一方の値を有する画素が、光学画像にてRGB値のうちR値が最も大きい画素であるという条件を少なくとも満たす画像である。【選択図】図5

Description

本発明は、注目地域に関し、上空から撮影したカラーの光学画像及び災害発生前に取得されている建物ポリゴンから、建物の災害被害を推定する建物被害推定装置に関する。
航空機などによる上空からのリモートセンシングは、広範囲での地上の状況把握が可能であり、地震災害等の状況把握に利用されている。
災害発生時には被害状況をいち早く把握することが非常に重要であり、被災概況として被災家屋棟数の概算数値が調べられる。
例えば、地震災害時、上空からの高分解能の画像を利用して家屋の被害状況を把握する従来の方法として、地震発生後の単画像、又は地震発生前後の2時期の画像を用いた目視判読による方法や、地震発生前後2時期の画像やDSM(Digital Surface Model:数値表層モデル)データを用いる自動判読方法、地震発生前の2次元(2D)・3次元(3D)の家屋データと地震発生後の画像とを用いる自動判読方法がある。
特開2011−113237号公報
目視判読による方法は、判読者のスキルにより精度が左右され、特に軽微な被害の判読が難しいという問題があり、また被災地域が広範囲の場合には判読に多くの日数を要するため家屋被害情報を迅速に取得することが困難であるという問題があった。
地震発生前後の2時期の画像やDSMデータによる自動判読の場合は、地震発生前のアーカイブデータの取得や整備が必要であるという問題が存在する。
一方、地震発生後の単画像のみによる自動判読においては、画像中の倒壊家屋の領域と非倒壊家屋の領域とを弁別するための好適な指標の設定や閾値設定が難しく、家屋倒壊領域の誤抽出や抽出漏れが生じやすく、精度の確保が難しいという問題があった。
本発明は上記問題点を解決するためになされたものであり、災害発生後のカラー画像と災害発生前の2次元の家屋データである建物ポリゴンとを用いた自動判読により、建物の災害被害を迅速かつ良好な精度で推定することができる建物被害推定装置を提供することを目的とする。
(1)本発明に係る建物被害推定装置は、注目地域に関し、上空から撮影したカラーの光学画像及び災害発生前に取得されている建物ポリゴンから、建物の災害被害を推定する装置であって、前記光学画像から、予め定められた複数種類の特徴画像を生成する特徴画像生成手段と、前記建物ポリゴンごとに、前記各特徴画像にて当該建物ポリゴンに対応する領域の前記画素値から、当該特徴画像について予め定められた種類の説明変数を算出し、前記複数種類の特徴画像に対応する一群の前記説明変数からなる説明変数データを生成する説明変数データ生成手段と、前記建物ポリゴンに対応する前記説明変数データから当該建物ポリゴンに対応する建物の被害状況を出力するように、前記光学画像及び前記建物ポリゴンに関する訓練用データと、当該訓練用データに対する前記被害状況の正解データとを用いて学習された識別器と、を備え、前記複数種類のうちの少なくとも一つの特徴画像は、二値化画像でありその二値の一方の値を有する画素が、前記光学画像にてRGB値のうちR値が最も大きい画素であるという条件を少なくとも満たす赤系特徴画像である。
(2)上記(1)に記載の建物被害推定装置において、前記赤系特徴画像として、前記二値の一方の値を有する画素が、更に、前記光学画像のグレースケールに対しエッジ抽出処理を行った画像にてエッジ強度が所定の上限と下限との間にある画素であり、かつ、前記光学画像をHSV色空間で表現した際のH値を画素値とする色相値画像に対しエッジ抽出処理を行った画像にてエッジ強度が所定の閾値を超える画素であるという条件を満たす小被害画像を含む構成とすることができる。
(3)上記(2)に記載の建物被害推定装置において、前記光学画像のグレースケールに対する前記エッジ抽出処理はラプラシアンオペレータを作用させる処理及びキャニーオペレータを作用させる処理であり、前記上限に対応して前記キャニーオペレータによるエッジ抽出処理が設定され、前記下限に対応して前記ラプラシアンオペレータによるエッジ抽出処理が設定され、前記光学画像のグレースケールに対し前記ラプラシアンオペレータを作用させた画像にて所定の閾値を超え、かつ、前記グレースケールに対し前記キャニーオペレータを作用させた画像にて所定の閾値未満である画素をエッジ強度が前記上限と前記下限との間にある画素とし、前記色相値画像に対するエッジ抽出処理はラプラシアンオペレータを作用させる処理である構成とすることができる。
(4)上記(1)から(3)に記載の建物被害推定装置において、前記被害状況として、前記災害被害がある状態についての被害の程度が異なる被害大状態及び被害小状態と、前記災害被害がない被害なし状態との3つの状態を設定され、前記識別器は、前記建物ポリゴンにおける前記被害大状態を前記被害小状態及び前記被害なし状態と区別する被害大識別器と、前記被害大識別器により前記被害大状態以外とされた前記建物ポリゴンにおいて、前記被害小状態を前記被害なし状態と区別する被害小識別器と、を有する構成とすることができる。
(5)上記(4)に記載の建物被害推定装置において、前記被害状況として、さらに青色の不透水性のシートで被覆されたブルーシート被覆状態を設定され、前記識別器は、さらに、前記建物ポリゴンにおける前記ブルーシート被覆状態を前記被害大状態、前記被害小状態及び前記被害なし状態と区別するブルーシート識別器を有し、前記ブルーシート識別器により前記ブルーシート被覆状態以外とされた前記建物ポリゴンに対し前記被害大識別器を適用し、前記ブルーシート識別器にて用いる前記説明変数に対応する前記特徴画像は、前記光学画像にてRGB値のうちR値が最も大きい画素と、それ以外の画素とを二値で区別した赤画素画像を含む一方、前記小被害画像を含まず、前記被害大識別器にて用いる前記説明変数に対応する前記特徴画像は、前記小被害画像を含む一方、前記赤画素画像を含まず、前記被害小識別器にて用いる前記説明変数に対応する前記特徴画像は、前記小被害画像と共に前記赤画素画像を含む構成とすることができる。
(6)上記(1)〜(5)に記載の建物被害推定装置において、前記災害被害の推定対象とする前記建物は木造とすることができる。
本発明によれば、災害発生後のカラー画像と災害発生前の2次元の家屋データである建物ポリゴンとを用いた自動判読により、建物の災害被害を迅速かつ良好な精度で推定することができる。
本発明の実施形態に係る建物被害推定装置の概略の構成図である。 本発明の実施形態に係る建物被害推定装置が学習装置として動作する場合の概略のブロック図である。 建物被害推定モデルの機械学習の概略の流れを示す模式図である。 ブルーシート識別器、被害大識別器及び被害小識別器それぞれにて用いる特徴画像及び説明変数の一例を表形式で表した図である。 本発明の実施形態に係る建物被害推定装置が建物被害推定モデルを用いて被害推定を行う場合の概略のブロック図である。 本発明の実施形態に係る建物被害推定装置を用いた建物被害の推定処理の概略の流れを示す模式図である。
以下、本発明の実施の形態(以下実施形態という)である建物被害推定装置10について、図面に基づいて説明する。
図1は、本発明の一実施形態に係る建物被害推定装置10の概略の構成図である。建物被害推定装置10は、パーソナルコンピュータなどのコンピュータである。図1に示すように建物被害推定装置10は例えば、制御部11、記憶部12、入力部13及び出力部14を含んでいる。
制御部11は、例えば建物被害推定装置10にインストールされるプログラムに従って動作するCPU(Central Processing Unit)等のプログラム制御デバイスである。
記憶部12は、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部12には、制御部11によって実行されるプログラムなどが記憶される。
入力部13は、制御部11への入力を行うためのユーザインターフェース装置であり、キーボード、マウス等からなる。入力部13はユーザの操作入力を受け付けて、その内容を示す信号を制御部11に出力する。
出力部14は、液晶ディスプレイ等の表示デバイスであって、制御部11の指示に従って各種の画像を表示する。
なお、建物被害推定装置10は、ネットワークボードなどの通信インタフェース、DVD−ROMやBlu−ray(登録商標)ディスクなどの光ディスクを読み取る光ディスクドライブ、USB(Universal Serial Bus)ポートなどを含んでいてもよい。
建物被害推定装置10は、地上の注目地域に関し、上空から撮影したカラーの光学画像及び災害発生前に取得されている建物ポリゴンから、建物被害推定モデルを用いて建物の災害被害を推定する装置である。具体的には、建物被害推定装置10は、光学画像から予め定められた複数種類の特徴画像を生成し、各特徴画像にて建物ポリゴンに対応する領域の画素値から、当該特徴画像について予め定められた種類の説明変数を算出し、複数種類の特徴画像に対応する一群の説明変数からなる説明変数データを生成する。建物被害推定モデルは、建物ポリゴンに対応する説明変数データから当該建物ポリゴンに対応する建物の被害状況を出力する識別器を構成する。建物被害推定モデルは、光学画像及び建物ポリゴンに関する訓練用データと、当該訓練用データに対する被害状況の正解データとを用いて、機械学習により生成することができ、本実施形態では建物被害推定装置10として、当該モデルを生成する学習装置の機能も備えている構成例を説明する。
図2は建物被害推定装置10が学習装置として動作する場合の概略のブロック図である。建物被害推定装置10の制御部11、記憶部12、入力部13、出力部14がそれぞれ学習制御部21、学習記憶部22、学習入力部23、学習出力部24として機能する。
学習制御部21は学習記憶部22からプログラムを読み出して実行し、後述する特徴画像生成手段211、説明変数データ生成手段212、モデル生成手段213として機能する。
学習記憶部22に記憶されるデータには、光学画像データ221、建物ポリゴンデータ222、判読結果223及び建物被害推定モデル224が含まれる。
光学画像データ221はカラーの航空写真や衛星画像のデータであり、例えばオルソ画像である。
建物ポリゴンデータ222は地表面での2次元の建物形状を表すデータであり、災害発生前に予め測量等により取得されている。
判読結果223は正解データであり、例えば、ユーザが学習用データの光学画像を判読して生成される。
建物被害推定モデル224は、学習システム2により生成される学習モデルであり、学習制御部21が機械学習にて複数の学習用データを順次処理するのに合わせて更新される。学習記憶部22は、建物被害を識別・分類する識別器を表す情報、具体的には当該識別器に相当する識別関数の係数等のパラメータを建物被害推定モデル224として記憶する。
ここで、建物被害推定モデルを構成する識別器は分類しようとする被害の程度等に応じて複数種類作成することができる。本実施形態では、2クラスの分類を行う複数種類の識別器を組み合わせて3種類以上の被害状況を分類する。
例えば、被害状況として、災害被害がある状態とない状態とを分類し、さらに災害被害がある状態を被害大状態及び被害小状態という被害の程度が異なる2つの状態に分類する3クラスの分類を行う構成とすることができる。この場合、識別器は、建物ポリゴンにおける被害大状態を被害小状態及び被害なし状態と区別する被害大識別器と、被害大識別器により被害大状態以外とされた建物ポリゴンにおいて、被害小状態を被害なし状態と区別する被害小識別器との2種類で構成することができる。
本実施形態では、被害状況として、さらに、建物を雨水などから保護する際に通常用いられる青色の不透水性のシートで被覆されたブルーシート被覆状態を設定し、4クラスの分類を行う。この場合、識別器は、さらに、建物ポリゴンにおけるブルーシート被覆状態を被害大状態、被害小状態及び被害なし状態と区別するブルーシート識別器を含む3種類で構成することができる。
図3は、建物被害推定モデルの機械学習の概略の流れを示す模式図である。
学習制御部21は特徴画像生成手段211として機能する。特徴画像生成手段211は、光学画像データ221から特徴画像を生成する画像処理250を行う。具体的には、当該画像処理250では、予め定められた複数種類の特徴画像252を生成する。
本実施形態では建物被害推定モデル224は複数の識別器で構成され、特徴画像の種類は識別器ごとに異なり得る。この点に関し、本実施形態では上述のブルーシート識別器、被害大識別器及び被害小識別器のそれぞれの複数種類の特徴画像は互いに重複する種類を含むので、画像処理250では3つの識別器に対応する特徴画像の和集合を含む複数種類の特徴画像252を生成する。
特徴画像252は例えば、R画像、G画像、B画像、H画像、SHSV画像、V画像、SHSL画像、L画像、RMAX画像、GMAX画像、BMAX画像、RMIN画像、GMIN画像、BMIN画像、SD画像を含む。
R画像、G画像、B画像はそれぞれ、光学画像データ221で与えられるカラー画像のRGB表示における各画素のR(赤)成分、G(緑)成分、B(青)成分の値を画素値として定義されるモノクロ画像である。
H画像、SHSV画像、V画像、SHSL画像、L画像は光学画像データ221で与えられるカラー画像のHSV色空間又はHSL色空間での成分値を画素値として定義されるモノクロ画像である。具体的には、H画像(色相値画像)は光学画像の各画素のHSV色空間又はHSL色空間でのH成分(色相値)を画素値とする。同様に、SHSV画像、V画像はそれぞれ光学画像の各画素のHSV色空間でのS成分(彩度値)、V成分(明度値)を画素値とする画像である。また、SHSL画像、L画像は光学画像の各画素のHSL色空間でのS成分(彩度値)、L成分(輝度値)を画素値とする画像である。
MAX画像(赤画素画像)は光学画像にてRGB成分のうちR成分が最も大きい画素とそれ以外の画素とを二値で区別した画像であり、例えば、R成分が最も大きい画素を画素値“1”とし、それ以外の画素を画素値“0”とする。ここで、二値化画像である特徴画像であって、その二値の一方の値を有する画素が、光学画像にてRGB値のうちR値が最も大きい画素であるという条件を少なくとも満たすものを赤系特徴画像とすると、RMAX画像は当該赤系特徴画像である。GMAX画像、BMAX画像はG成分、B成分についての同様の二値画像であり、それぞれG成分、B成分が最大成分である画素を画素値“1”とする。
一方、RMIN画像は光学画像にてRGB成分のうちR成分が最も小さい画素とそれ以外の画素とを二値で区別した画像であり、例えば、R成分が最も小さい画素を画素値“1”とし、それ以外の画素を画素値“0”とする。また、GMIN画像、BMIN画像はG成分、B成分についての同様の二値画像であり、それぞれG成分、B成分が最小成分である画素を画素値“1”とする。
SD画像(小被害画像)は、光学画像にてRGB値のうちR値が最も大きい画素であり、かつ、光学画像のグレースケールに対しラプラシアンオペレータを作用させた画像にて所定の閾値を超える画素であり、かつ、当該グレースケールに対しキャニーオペレータを作用させた画像にて所定の閾値未満である画素であり、かつ、上述のH画像に対しラプラシアンオペレータを作用させた画像にて所定の閾値を超える画素であるものと、それ以外の画素とを二値で区別した画像である。本発明の発明者はこのように生成したSD画像が災害における建物の比較的小さな又は軽度の被害箇所(小被害箇所)の判別に有効であることを発見した。具体的には、小被害箇所では上述の複数の要件を満たす画素が他の箇所よりも多く現れる傾向がある。なお、SD画像は赤系特徴画像の一種である。
ここでラプラシアンオペレータ、キャニーオペレータは周知のエッジ検出フィルタであり、光学画像をグレースケールに変換した画像にラプラシアンオペレータを作用させた画像から生成した二値画像、及びキャニーオペレータを作用させた画像から生成した二値画像をそれぞれ第1エッジ画像、第2エッジ画像と呼ぶことにする。また、H画像に対しラプラシアンオペレータを作用させた画像から生成した二値画像を第3エッジ画像とする。
閾値処理による二値化に際し、閾値以上の画素を画素値“1”とし、それ以外の画素を画素値“0”として第1〜第3エッジ画像を定義し、またRMAX画像の画素値を上述の定義とすると、SD画像は、RMAX画像と、第1エッジ画像と、第2エッジ画像の画素値を反転させた反転画像と、第3エッジ画像との論理積で与えられる。
キャニーオペレータにて用いるCanny法は、弱い輝度変化をエッジとして検出することを抑制しつつ、建物と地面との境界のように比較的に大きな輝度変化をエッジとして検出することに適したアルゴリズムである。そこで、第2エッジ画像に関し、キャニーオペレータ及び当該オペレータの出力値に対する二値化の閾値を、建物と地面との境界にて想定される輝度変化以上を選択的にエッジとして検出するように設定する。一方、第1エッジ画像に関しては、ラプラシアンオペレータにて、建物と地面との境界にて想定されるような強い輝度変化でなくてもエッジとして検出し、また、二値化の閾値を小被害箇所に想定される強度程度に設定する。第1〜第3エッジ画像を生成する閾値は小被害箇所が好適に抽出されるように実験等により設定することができる。
ちなみに、第1エッジ画像と、第2エッジ画像の反転画像との論理積は、光学画像のグレースケールにてエッジ強度が所定の上限と下限との間にあるエッジを抽出する処理に相当する。ここで、エッジ強度の当該上限に対応して第2エッジ画像におけるキャニーオペレータによるエッジ抽出処理が設定され、当該下限に対応して第1エッジ画像におけるラプラシアンオペレータによるエッジ抽出処理が設定される。すなわち、第1エッジ画像により、下限を超えるエッジ強度を有する画素を抽出し、第2エッジ画像の反転画像により、上限未満のエッジ強度を有する画素を抽出する。
なお、第1〜第3エッジ画像を生成するエッジ抽出処理は、上述したラプラシアンオペレータやキャニーオペレータ以外の演算で行っても良い。
生成された特徴画像252に対し、学習制御部21は説明変数データ生成手段212として機能し、説明変数データ生成処理254を行う。当該処理254では、特徴画像252と建物ポリゴンデータ222とを入力データとし、特徴画像にて建物ポリゴンに対応する領域の画素値から、当該特徴画像について予め定められた種類の説明変数を算出し、複数種類の特徴画像に対応する一群の説明変数からなる説明変数データ256を生成する。
本実施形態の3つの識別器に対応する特徴画像は共通する種類を含むことは上述したが、特徴画像から生成する説明変数も共通の種類を含む。そこで、説明変数データ生成処理254では、複数種類の特徴画像252について、3つの識別器で用いる全種類の説明変数を一括して生成し、説明変数データ256として学習記憶部22に記憶する。そして後の識別器の学習処理258では、説明変数データ256に含まれる複数種類の説明変数のうち、識別器ごとに選択した種類からなる説明変数データを用いる。
図4は、ブルーシート識別器、被害大識別器及び被害小識別器それぞれにて用いる特徴画像及び説明変数の一例を表形式で表した図である。本実施形態では説明変数として、建物ポリゴンに対応する領域内の画素値の平均値と変動係数が用いる。変動係数は当該領域内での画素値のばらつき具合を示す値であり、例えば、分散を用いることができる。説明変数データ生成手段212は説明変数として例えば、R画像、G画像、B画像、H画像、SHSV画像、V画像、SHSL画像、L画像については各建物ポリゴンにおける平均と変動係数を算出し、一方、RMAX画像、GMAX画像、BMAX画像、RMIN画像、GMIN画像、BMIN画像、SD画像については各建物ポリゴンにおける平均を算出する。
説明変数データ生成処理254で生成された説明変数データ256はモデル生成手段213に渡される。
学習制御部21はモデル生成手段213としてブルーシート識別器、被害大識別器及び被害小識別器それぞれの学習処理258を行い、建物被害推定モデル224を生成する。つまり、学習処理258により、上述したように、建物ポリゴンに対応する説明変数データから当該建物ポリゴンに対応する建物の被害状況を出力するように各識別器が機械学習される。
当該学習は光学画像及び建物ポリゴンに関する訓練用データと、当該訓練用データに対する被害状況の正解データとを用いて行われる。そのために、学習制御部21は正解データとしてユーザの判読結果を取得する処理260を行う。具体的には、ユーザ判読処理260として、例えば、学習に用いる地表領域の光学画像データ221と建物ポリゴンデータ222とを用い、建物ポリゴンが表す建物の輪郭を光学画像にオーバーレイ表示した画像を学習出力部24のディスプレイに表示させて、ユーザに建物ポリゴンに対応する領域の光学画像から被害状況を判読させ、学習入力部23から判読結果を取得する。本実施形態では、ユーザは被害状況として、被害大状態、被害小状態、及び被害なし状態の3段階の被害の程度にさらに、建物がブルーシートで被覆された領域を含むブルーシート被覆状態を加えた4種類の状態のいずれであるかを判読する。生成された判読結果は学習記憶部22に判読結果223として記憶される。
モデル生成手段213は、建物ポリゴンごとに判読結果223と説明変数データ256とを対応付けて学習用データとし、多数の建物ポリゴンについて生成された学習用データを用いて機械学習により建物被害推定モデル224を生成する。
具体的には、ブルーシート識別器の学習では、ブルーシート被覆状態、被害大状態、被害小状態、及び被害なし状態の判読結果に対応する学習用データを用いる。そして、ブルーシート被覆状態とそれ以外との2クラスの分類を行うようにブルーシート識別器が学習される。また、被害大識別器の学習では、被害大状態、被害小状態、及び被害なし状態の判読結果に対応する学習用データを用いる。そして、被害大状態と被害小状態及び被害なし状態との2クラスの分類を行うように被害大識別器が学習される。被害小識別器の学習では、被害小状態及び被害なし状態の判読結果に対応する学習用データを用いる。そして、被害小状態と被害なし状態との2クラスの分類を行うように被害小識別器が学習される。
図5は建物被害推定装置10が、上述した学習装置により生成された建物被害推定モデル224を用いて被害推定を行う場合の概略のブロック図である。制御部11は記憶部12からプログラムを読み出して実行し、後述する特徴画像生成手段111、説明変数データ生成手段112、判定手段113として機能する。
記憶部12に記憶されるデータには、光学画像データ121、建物ポリゴンデータ122、上述の学習で生成された建物被害推定モデル224、及び判定結果データ123が含まれる。
光学画像データ121は上述の光学画像データ221と同様、カラーの航空写真や衛星画像のデータであるが、その撮影範囲は建物被害推定処理の対象とする注目地域である。
建物ポリゴンデータ122は、建物ポリゴンデータ222と同様、災害発生前に予め測量等により取得されている建物形状を表すデータであり、注目地域についてのデータである。
判定結果データ123は、建物被害推定装置10による建物の被害状況の判定結果である。
図6は、建物被害推定装置10を用いた建物被害の推定処理の概略の流れを示す模式図である。
制御部11は特徴画像生成手段111として機能し、光学画像データ121に対する画像処理150を行い特徴画像152を生成する。画像処理150は学習装置としての動作にて説明した画像処理250と同じとすることができる。
制御部11は、生成された特徴画像152に対し、説明変数データ生成手段112として機能し、説明変数データ生成処理154を行う。当該処理154では、特徴画像152と建物ポリゴンデータ122とを入力データとし、建物ポリゴンごとに特徴画像の画素値から説明変数データ156が生成される。この説明変数データ生成処理154は学習装置としての動作にて説明した説明変数データ生成処理254と同じとすることができる。
制御部11は判定手段113として機能し、建物被害推定モデル224を用いて注目地域における建物の災害被害を推定する推定処理158を行う。推定処理158では、建物被害推定モデル224により構成される3種類の識別器を用いて、注目地域の建物ポリゴンについて順次、4種類の被害状況が段階的に分類される。具体的には、判定手段113は最初にブルーシート識別器を用いた分類処理158Aを行い、次に被害大識別器を用いた分類処理158Bを行い、最後に被害小識別器を用いた分類処理158Cを行う。
ブルーシート識別器を用いた分類処理158Aでは、判定手段113はブルーシート識別器に、分類対象とする建物ポリゴンの説明変数データを入力し、当該建物ポリゴンに対応する建物がブルーシート被覆状態であるか、それ以外の被害状況であるかを識別する。そして、判定手段113は、ブルーシート被覆状態であると判定された建物については、建物ポリゴンと判定結果とを対応付けて記憶部12に判定結果データ123として記憶する。
ブルーシート識別器により、ブルーシート被覆状態以外の被害状況であるとされた建物については、判定手段113は当該建物の説明変数データを被害大識別器に入力して分類処理158Bを行い、当該建物が被害大状態であるか、被害小状態又は被害なし状態であるかを識別する。そして、被害大状態であると判定された建物については、建物ポリゴンと判定結果とを対応付けて記憶部12に判定結果データ123として記憶する。
被害大識別器により、被害大状態ではないとされた建物については、判定手段113は当該建物の説明変数データを被害小識別器に入力して分類処理158Cを行い、当該建物が被害小状態であるか否かを識別する。そして、被害小状態であると判定された建物については、建物ポリゴンと当該判定結果とを対応付けて記憶部12に判定結果データ123として記憶する。また、被害小状態でないとされた建物については、判定結果を被害なし状態であるとして、建物ポリゴンと当該判定結果とを対応付けて記憶部12に判定結果データ123として記憶する。
各識別器が用いる特徴画像、説明変数の種類は学習時と同じであり、その一例は図4に示している。具体的には、図4に示す例では、説明変数のうち、H画像、SHSV画像及びV画像の平均及び変動係数、並びにSHSL画像、BMAX画像、RMIN画像及びGMIN画像の平均を、ブルーシート識別器、被害大識別器、被害小識別器で共通に使用する。
逆に相違点に関しては例えば、ブルーシート識別器ではRMAX画像による説明変数を用いる一方、SD画像によるものを用いないのに対し、被害大識別器ではSD画像によるものを用いる一方、RMAX画像によるものを用いない。また、被害小識別器で用いる説明変数はSD画像によるものとRMAX画像によるものとを共に含む点で、ブルーシート識別器及び被害大識別器と相違する。具体的には、ブルーシート識別器及び被害小識別器ではRMAX画像の平均を説明変数として使用し、被害大識別器及び被害小識別器ではSD画像の平均を説明変数として使用する。
この相違点について説明する。まず、RMAX画像及びSD画像は共に赤系特徴画像である点で共通する。地震等による建物の損壊は、例えば、昭和56年以降の新耐震基準を満たしていないような古い木造家屋で起こり易い。木造家屋の損壊の検出には、損壊により露出する木材の色に関する説明変数を用いることが有効であると考えられる。この点に関し、本発明の発明者はRMAX画像に代表される赤系特徴画像が木材の露出量の多寡の分類に有効であるとの知見を得た。よって、RMAX画像とSD画像とは共に木造家屋の損壊の検出に有効であるが、SD画像は、RMAX画像の値“1”の画素に、条件を追加して生成され、小被害箇所の判別に有効であるという特徴を備えている。
そこで、損壊により木材が露出し得る被害小状態と損壊箇所がない被害なし状態とを分類する被害小識別器、並びに木材が露出し得る被害大状態及び被害小状態を含むクラスと損壊箇所がブルーシートで覆われて露出しにくい状態を含むクラスとを分類するブルーシート識別器にて、RMAX画像を使用する。一方、SD画像は被害小状態を含むクラスと含まないクラスとの分類に有効であることから、当該分類を行う被害大識別器及び被害小識別器にて使用する。
なお、識別器それぞれが使用するその他の説明変数は図4に示す通りであるが、念のため説明すると、ブルーシート識別器及び被害小識別器は、B画像及びBMIN画像の平均、並びにSHSL画像の変動係数を使用し、被害大識別器は、GMAX画像の平均、並びにG画像、B画像及びL画像の変動係数を使用する。
10 建物被害推定装置、11 制御部、12 記憶部、13 入力部、14 出力部、21 学習制御部、22 学習記憶部、23 学習入力部、24 学習出力部、111,211 特徴画像生成手段、112,212 説明変数データ生成手段、113 判定手段、213 モデル生成手段、121,221 光学画像データ、122,222 建物ポリゴンデータ、123 判定結果データ、224 建物被害推定モデル、223 判読結果、152,252 特徴画像、156,256 説明変数データ。

Claims (6)

  1. 注目地域に関し、上空から撮影したカラーの光学画像及び災害発生前に取得されている建物ポリゴンから、建物の災害被害を推定する建物被害推定装置であって、
    前記光学画像から、予め定められた複数種類の特徴画像を生成する特徴画像生成手段と、
    前記建物ポリゴンごとに、前記各特徴画像にて当該建物ポリゴンに対応する領域の前記画素値から、当該特徴画像について予め定められた種類の説明変数を算出し、前記複数種類の特徴画像に対応する一群の前記説明変数からなる説明変数データを生成する説明変数データ生成手段と、
    前記建物ポリゴンに対応する前記説明変数データから当該建物ポリゴンに対応する建物の被害状況を出力するように、前記光学画像及び前記建物ポリゴンに関する訓練用データと、当該訓練用データに対する前記被害状況の正解データとを用いて学習された識別器と、を備え、
    前記複数種類のうちの少なくとも一つの特徴画像は、二値化画像でありその二値の一方の値を有する画素が、前記光学画像にてRGB値のうちR値が最も大きい画素であるという条件を少なくとも満たす赤系特徴画像であること、
    を特徴とする建物被害推定装置。
  2. 請求項1に記載の建物被害推定装置において、
    前記赤系特徴画像として、前記二値の一方の値を有する画素が、更に、前記光学画像のグレースケールに対しエッジ抽出処理を行った画像にてエッジ強度が所定の上限と下限との間にある画素であり、かつ、前記光学画像をHSV色空間で表現した際のH値を画素値とする色相値画像に対しエッジ抽出処理を行った画像にてエッジ強度が所定の閾値を超える画素であるという条件を満たす小被害画像を含むこと、を特徴とする建物被害推定装置。
  3. 請求項2に記載の建物被害推定装置において、
    前記光学画像のグレースケールに対する前記エッジ抽出処理はラプラシアンオペレータを作用させる処理及びキャニーオペレータを作用させる処理であり、前記上限に対応して前記キャニーオペレータによるエッジ抽出処理が設定され、前記下限に対応して前記ラプラシアンオペレータによるエッジ抽出処理が設定され、前記光学画像のグレースケールに対し前記ラプラシアンオペレータを作用させた画像にて所定の閾値を超え、かつ、前記グレースケールに対し前記キャニーオペレータを作用させた画像にて所定の閾値未満である画素をエッジ強度が前記上限と前記下限との間にある画素とし、
    前記色相値画像に対するエッジ抽出処理はラプラシアンオペレータを作用させる処理であること、
    を特徴とする建物被害推定装置。
  4. 請求項1から請求項3のいずれか1つに記載の建物被害推定装置において、
    前記被害状況として、前記災害被害がある状態についての被害の程度が異なる被害大状態及び被害小状態と、前記災害被害がない被害なし状態との3つの状態を設定され、
    前記識別器は、
    前記建物ポリゴンにおける前記被害大状態を前記被害小状態及び前記被害なし状態と区別する被害大識別器と、
    前記被害大識別器により前記被害大状態以外とされた前記建物ポリゴンにおいて、前記被害小状態を前記被害なし状態と区別する被害小識別器と、
    を有することを特徴とする建物被害推定装置。
  5. 請求項4に記載の建物被害推定装置において、
    前記被害状況として、さらに青色の不透水性のシートで被覆されたブルーシート被覆状態を設定され、
    前記識別器は、さらに、前記建物ポリゴンにおける前記ブルーシート被覆状態を前記被害大状態、前記被害小状態及び前記被害なし状態と区別するブルーシート識別器を有し、前記ブルーシート識別器により前記ブルーシート被覆状態以外とされた前記建物ポリゴンに対し前記被害大識別器を適用し、
    前記ブルーシート識別器にて用いる前記説明変数に対応する前記特徴画像は、前記光学画像にてRGB値のうちR値が最も大きい画素と、それ以外の画素とを二値で区別した赤画素画像を含む一方、前記小被害画像を含まず、
    前記被害大識別器にて用いる前記説明変数に対応する前記特徴画像は、前記小被害画像を含む一方、前記赤画素画像を含まず、
    前記被害小識別器にて用いる前記説明変数に対応する前記特徴画像は、前記小被害画像と共に前記赤画素画像を含むこと、
    を特徴とする建物被害推定装置。
  6. 請求項1から請求項5のいずれか1つに記載の建物被害推定装置において、
    前記災害被害の推定対象とする前記建物は木造であること、を特徴とする建物被害推定装置。
JP2017222555A 2017-11-20 2017-11-20 建物被害推定装置 Active JP6993852B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017222555A JP6993852B2 (ja) 2017-11-20 2017-11-20 建物被害推定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017222555A JP6993852B2 (ja) 2017-11-20 2017-11-20 建物被害推定装置

Publications (2)

Publication Number Publication Date
JP2019095886A true JP2019095886A (ja) 2019-06-20
JP6993852B2 JP6993852B2 (ja) 2022-01-14

Family

ID=66971604

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017222555A Active JP6993852B2 (ja) 2017-11-20 2017-11-20 建物被害推定装置

Country Status (1)

Country Link
JP (1) JP6993852B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112037211A (zh) * 2020-09-04 2020-12-04 中国空气动力研究与发展中心超高速空气动力研究所 一种用于微小空间碎片撞击事件动态监测的损伤特征识别方法
JP7113590B1 (ja) 2021-12-07 2022-08-05 株式会社オプティム 情報処理装置、方法、プログラム、およびシステム
WO2022196474A1 (ja) * 2021-03-19 2022-09-22 富士フイルム株式会社 被災情報処理装置、被災情報処理システム、被災情報処理方法及びプログラム
CN116630814A (zh) * 2023-07-24 2023-08-22 中国建筑科学研究院有限公司 一种基于机器学习的建筑灾害快速定位评估方法
WO2023167017A1 (ja) * 2022-03-04 2023-09-07 富士フイルム株式会社 家屋状況提供装置及び方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007248364A (ja) * 2006-03-17 2007-09-27 Pasuko:Kk 建物形状変化検出方法及び建物形状変化検出システム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007248364A (ja) * 2006-03-17 2007-09-27 Pasuko:Kk 建物形状変化検出方法及び建物形状変化検出システム

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
XIN YE, QIMING QIN, MINGCHAO LIU, JUN WANG, JIANHUA WANG: "Building Damage Detection from Post-quake Remote Sensing Image based on Fuzzy Reasoning", 2014 IEEE GEOSCIENCE AND REMOTE SENSING SYMPOSIUM, JPN6021039685, 13 July 2014 (2014-07-13), US, pages 529 - 532, XP032673546, ISSN: 0004612749, DOI: 10.1109/IGARSS.2014.6946476 *
利根川 凛, 飯塚 博幸, 山本 雅人, 古川 正志, 大内 東: "被災がれき量推定に向けた畳み込みニューラルネットワークを用いた倒壊建造物の自動抽出", 情報処理学会論文誌, vol. Vol.57, No.6 (June 2016), JPN6021039686, 15 June 2016 (2016-06-15), JP, pages 1565 - 1575, ISSN: 0004612748 *
國武 千人, 溝田 平, 岩切 宗利, 榊原 庸貴, 望月 貫一郎: "熊本地震による被害家屋検出のための空撮画像処理手法", 第16回情報科学技術フォーラム(FIT2017), vol. 第4分冊, O-003, JPN6021039688, 5 September 2017 (2017-09-05), JP, pages 333 - 334, ISSN: 0004612746 *
小川 祐紀雄, 角本 繁, 岩村 一昭: "立体地図を用いた航空写真画像理解による地域の特徴抽出", 電子情報通信学会論文誌D-II, vol. Vol. J81-D-II, No.6 (1998年6月), JPN6021039687, 25 June 1998 (1998-06-25), JP, pages 1242 - 1250, ISSN: 0004612747 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112037211A (zh) * 2020-09-04 2020-12-04 中国空气动力研究与发展中心超高速空气动力研究所 一种用于微小空间碎片撞击事件动态监测的损伤特征识别方法
CN112037211B (zh) * 2020-09-04 2022-03-25 中国空气动力研究与发展中心超高速空气动力研究所 一种用于微小空间碎片撞击事件动态监测的损伤特征识别方法
WO2022196474A1 (ja) * 2021-03-19 2022-09-22 富士フイルム株式会社 被災情報処理装置、被災情報処理システム、被災情報処理方法及びプログラム
JP7113590B1 (ja) 2021-12-07 2022-08-05 株式会社オプティム 情報処理装置、方法、プログラム、およびシステム
JP2023084562A (ja) * 2021-12-07 2023-06-19 株式会社オプティム 情報処理装置、方法、プログラム、およびシステム
WO2023167017A1 (ja) * 2022-03-04 2023-09-07 富士フイルム株式会社 家屋状況提供装置及び方法
CN116630814A (zh) * 2023-07-24 2023-08-22 中国建筑科学研究院有限公司 一种基于机器学习的建筑灾害快速定位评估方法
CN116630814B (zh) * 2023-07-24 2023-09-29 中国建筑科学研究院有限公司 一种基于机器学习的建筑灾害快速定位评估方法

Also Published As

Publication number Publication date
JP6993852B2 (ja) 2022-01-14

Similar Documents

Publication Publication Date Title
JP2019095886A (ja) 建物被害推定装置
Zhao et al. Multi-scale optimal fusion model for single image dehazing
Ganesan et al. Segmentation and edge detection of color images using CIELAB color space and edge detectors
CA2249140C (en) Method and apparatus for object detection and background removal
Park et al. Single image dehazing with image entropy and information fidelity
Tsai A comparative study on shadow compensation of color aerial images in invariant color models
WO2019188040A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US8385638B2 (en) Detecting skin tone in images
US8577170B2 (en) Shadow detection in a single image
US9317784B2 (en) Image processing apparatus, image processing method, and program
CN105865329B (zh) 基于视觉的成捆圆钢端面中心坐标的获取系统和方法
JP5409910B2 (ja) 非製品画像識別
CN110022674B (zh) 用于在作物图像中检测马铃薯病毒的方法、介质和系统
Zakaria et al. Object shape recognition in image for machine vision application
CN108830184B (zh) 黑眼圈识别方法及装置
CN111882568B (zh) 火灾图像边缘提取处理方法、终端及系统
JP2018152055A (ja) ビジョンシステムにおいてカラー画像と対照してカラーの候補ポーズをスコアリングするためのシステム及び方法
CN109903265B (zh) 一种图像变化区域侦测阀值设定方法、系统及其电子装置
JP2015197376A (ja) 摩耗検出装置、方法、及びプログラム
CN109255792A (zh) 一种视频图像的分割方法、装置、终端设备及存储介质
CN114998290A (zh) 基于有监督模式的织物瑕疵检测方法、装置、设备及介质
JP2010008159A (ja) 外観検査処理方法
CN114267002B (zh) 卷烟厂制丝车间工况监测方法、装置、设备及存储介质
CN104346599B (zh) 一种色彩边缘的检测方法及图像处理设备
JP7005477B2 (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200918

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211210

R150 Certificate of patent or registration of utility model

Ref document number: 6993852

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150