JP2019175015A - 被災情報処理装置、及び被災情報処理モデル学習装置 - Google Patents

被災情報処理装置、及び被災情報処理モデル学習装置 Download PDF

Info

Publication number
JP2019175015A
JP2019175015A JP2018060865A JP2018060865A JP2019175015A JP 2019175015 A JP2019175015 A JP 2019175015A JP 2018060865 A JP2018060865 A JP 2018060865A JP 2018060865 A JP2018060865 A JP 2018060865A JP 2019175015 A JP2019175015 A JP 2019175015A
Authority
JP
Japan
Prior art keywords
building
learning
damage
image
damaged
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018060865A
Other languages
English (en)
Inventor
楓子 小林
Fuko Kobayashi
楓子 小林
奈緒美 魚住
Naomi Uozumi
奈緒美 魚住
和宏 佐分利
Kazuhiro Saburi
和宏 佐分利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Takenaka Komuten Co Ltd
Original Assignee
Takenaka Komuten Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Takenaka Komuten Co Ltd filed Critical Takenaka Komuten Co Ltd
Priority to JP2018060865A priority Critical patent/JP2019175015A/ja
Publication of JP2019175015A publication Critical patent/JP2019175015A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

【課題】過去に被災した建物の画像データに基づき、被災した対象建物の損傷度を適切に判定することができるようにする。【解決手段】取得部221が、対象建物の一例である被災建物を表す画像を取得する。そして、損傷度合出力部224は、取得部221によって取得された画像と、学習用の被災した建物の画像と該建物の損傷度とを表す学習用データから予め学習された損傷度判定用学習済みモデルとに基づいて、被災建物の損傷度を出力する。【選択図】図9

Description

本発明は、被災情報処理装置、及び被災情報処理モデル学習装置に関する。
従来、被害情報の効率的収集を行う、情報の収集表示システムが知られている(例えば、特許文献1)。また、構造物の損傷の抽出結果について提供を受ける側の端末の情報処理能力や通信環境を考慮して、損傷の抽出結果を適切なデータ内容で提供する損傷抽出システムが知られている(例えば、特許文献2)。
特開2001-167133号公報 特開2017-167969号公報
上記特許文献1に記載の収集表示システムでは、現地の作業員が、デジタルカメラやビデオカメラ等の画像入力装置を用いて対象となる構造物の写真を撮る(例えば、上記特許文献1の段落[0016])。また、上記特許文献2の損傷抽出システムでは、構造物の点検作業を行う作業員によりユーザ端末が操作され、ユーザ端末は、構造物の撮影画像を損傷抽出サーバへ送信する(上記特許文献2の段落[0007])。
上記特許文献1に記載の技術及び上記特許文献2に記載の技術においては、現場における人手による操作が必要である。また、被災した建物の情報から損傷度を判定する作業も人手によって行われるが、その判定結果は人によってばらつきがある。例えば、被災した建物の損傷度の判定は、所定のマニュアルに従って行われるが、マニュアルの解釈が人によってばらつくことがある。
本発明は上記事実を考慮して、過去に被災した建物の画像データに基づき、被災した対象建物の損傷度を適切に判定することを目的とする。
上記目的を達成するために、本発明の被災情報処理装置は、対象建物を表す画像を取得する取得部と、前記取得部によって取得された前記画像と、学習用の被災した建物の画像と該建物の損傷度とを表す学習用データから予め学習された学習済みモデルとに基づいて、前記対象建物の損傷度を出力する損傷度合出力部と、を含んで構成される。これにより、過去に被災した建物の画像データに基づき、被災した対象建物の損傷度合いを適切に判定することができる。
本発明の被災情報処理装置は、前記取得部によって取得された前記画像と、学習用の建物を表す画像と該画像の各部位の種別を表す建物学習用データから予め学習された建物認識用学習済みモデルとに基づいて、前記画像が表す前記対象建物の各部位の種別を認識する建物部位認識部と、前記対象建物を表す図面データと、学習用の建物を表す図面データと該図面データの各部位の種別を表す図面学習用データから予め学習された図面認識用学習済みモデルとに基づいて、前記対象建物の前記図面データの各部位の種別を認識する図面認識部と、前記建物部位認識部によって得られた前記画像が表す前記対象建物の各部位の認識結果と、前記図面認識部によって得られた前記対象建物の図面データの各部位の認識結果とを照合して、前記対象建物の前記図面データにおける、前記対象建物の画像が撮像された位置を認識する位置認識部と、前記位置認識部によって得られた前記図面データにおける前記位置に対して、前記損傷度合出力部によって得られた前記損傷度を前記図面データに付与して、前記対象建物の損傷度マップを生成する損傷度情報生成部と、を更に含むようにすることができる。これにより、被災した建物の図面データと被災した建物を表す画像とに基づき、対象建物の各部位の損傷度を表す損傷度マップを生成することができる。
本発明の被災情報処理装置は、前記損傷度情報生成部によって生成された前記対象建物の前記損傷度マップに基づいて、人の歩行経路を生成する経路生成部を更に含むようにすることができる。これにより、対象建物の各部位の損傷度に応じて、人が通る歩行経路を適切に生成することができる。
本発明の前記対象建物を表す画像は、空中飛行又は陸上走行によって移動する移動体に搭載されたカメラによって撮像された画像であるようにすることができる。これにより、被災した建物に人が立ち入ることなく、対象建物の被災度が収集される。
本発明の被災情報処理モデル学習装置は、学習用の建物の画像と該建物の損傷度とを表す学習用データに基づいて、建物を表す画像から該建物の損傷度を出力するためのモデルを学習させて、建物を表す画像から該建物の損傷度を出力する学習済みモデルを得る学習部を含んで構成される。これにより、過去の被災建物の画像データから得られる学習用データに基づき、建物の損傷度を出力する学習済みモデルを得ることができる。
本発明によれば、過去に被災した建物の画像データに基づき、被災した対象建物の損傷度を適切に判定することができる、という効果が得られる。
本実施形態の概要を説明するための説明図である。 本実施形態に係る被災情報処理モデル学習装置の概略構成を示すブロック図である。 被災建物の損傷度を説明するための説明図である。 図面データを説明するための説明図である。 学習用データセットの一例を示す図である。 本実施形態で用いる損傷度判定用学習済みモデルの一例を示す図である。 本実施形態で用いる建物認識用学習済みモデルの一例を示す図である。 本実施形態で用いる図面認識用学習済みモデルの一例を示す図である。 本実施形態に係るドローンの概略構成を示すブロック図である。 本実施形態に係るドローンの具体的な構成例を示す図である。 建物の各部位の認識処理と損傷度マップとを説明するための説明図である。 損傷度マップと人の歩行経路とを説明するための説明図である。 本実施形態の第1の学習処理ルーチンの一例を示す図である。 本実施形態の第2の学習処理ルーチンの一例を示す図である。 本実施形態の第3の学習処理ルーチンの一例を示す図である。 本実施形態の被災情報処理ルーチンの一例を示す図である。
<本発明の実施形態の概要>
本発明の実施形態では、被災した建物の損傷度を自動的に判定する。具体的には、図1に示されるように、被災建物の周辺及び内部に、移動体の一例であるドローンを飛行させ、ドローンに搭載されたカメラによって撮像される被災建物の画像を取得する。そして、被災建物の画像に基づき、被災建物の各箇所の損傷度を判定する。
本実施形態において損傷度を判定する際には、機械学習によって得られる学習済みモデルを用いて、被災建物の損傷度を判定する。また、図1に示されるように、被災建物の各箇所の損傷度を、被災建物を表す図面データに付与して、損傷度マップを作成する。そして、損傷度マップに応じて人の歩行経路を生成する。これにより、被災建物の損傷度を自動的に判定することができ、かつ被災建物の損傷度マップを自動的に生成することができる。
<本発明の実施形態に係る被災情報処理モデル学習装置のシステム構成>
図2は、本発明の実施形態に係る被災情報処理モデル学習装置100の構成の一例を示すブロック図である。被災情報処理モデル学習装置100は、機能的には、図2に示されるように、データ受付部10及びコンピュータ20を含んだ構成で表すことができる。
データ受付部10は、学習用の被災した建物(以下、被災建物と称する。)の画像と当該建物の損傷度とを表す学習用データ(以下、損傷度学習用データと称する。)を受け付ける。
図3に損傷度学習用データを説明するための説明図を示す。建物が被災した場合、被災建物の各部位は損傷する。この場合、被災建物の各部位の損傷度を適切に判定する必要がある。例えば、図3に示されるように、被災建物の各部位の損傷度は、1〜5のようにランク付けがされる。
本実施形態では、被災建物の画像とその被災建物の損傷度(1〜5)との組み合わせを表す損傷度学習用データを予め用意する。損傷度学習用データの被災建物の損傷度(1〜5)については、例えば、「震災建築物の被災度区分判定基準および復旧技術指針(一般財団法人日本建築防災協会)」に基づき、人手によって予め判定しておく。過去の被災建物の学習用データを用いることにより、損傷度に関する一貫性のある規則性が見つけ出され、経験的に習得される上記被災度区分判定基準の曖昧な部分が補われる。損傷度学習用データは、後述する学習部25において用いられる。
また、データ受付部10は、学習用の建物を表す画像と該画像の各部位の種別を表す建物学習用データを受け付ける。本実施形態では、被災建物の所定の部位の損傷度を判定した後に、所定の部位に対して損傷度を付与して、被災建物の損傷度マップを作成する。このため、画像内に映る建物の各部位が、何を表しているのかを認識する必要がある。
そこで、本実施形態では、建物学習用データを用いることにより、撮像された画像に写る各部分が、建物のどの部材であるかを認識する建物認識用学習済みモデルを生成する。建物学習用データは、後述する学習部25において用いられる。
また、データ受付部10は、学習用の建物を表す図面データと該図面データの各部位の種別を表す図面学習用データを受け付ける。
被災建物の損傷度マップを作成する際には、被災建物の図面データのうち、どの部分に損傷度の高い損傷が発生しているのかを特定する必要がある。図面データは、例えば、図4に示されるような形式である。図面データを学習用データとして用いる場合には、図4に示されるように、図面データ上のどの部分が柱Pに該当し、どの部分が壁Wに該当するのかを予め設定しておく必要がある。そのため、本実施形態では、学習用の図面データと当該図面データの各部位の種別を表す図面学習用データを予め用意する。そして、本実施形態では、図面学習用データを用いることにより、被災建物の図面データを認識し、図面データ上に存在する建物の各部位(例えば、柱、壁、及び窓等)を認識する図面認識用学習済みモデルを生成する。
データ受付部10は、例えばキーボード、マウス、又は外部装置からの入力を受け付ける入出力装置等によって実現される。
コンピュータ20は、CPU(Central Processing Unit)、各処理ルーチンを実現するためのプログラム等を記憶したROM(Read Only Memory)、データを一時的に記憶するRAM(Random Access Memory)、記憶手段としてのメモリ、ネットワークインタフェース等を含んで構成されている。コンピュータ20は、機能的には、図2に示されるように、学習用データ取得部21と、損傷度学習用データ記憶部22と、図面学習用データ記憶部23と、建物学習用データ記憶部24と、学習部25と、学習済みモデル記憶部26とを備えている。
学習用データ取得部21は、データ受付部10によって受け付けられた、損傷度学習用データと、図面学習用データと、建物学習用データとを取得する。そして、学習用データ取得部21は、損傷度学習用データを損傷度学習用データ記憶部22へ格納する。また、学習用データ取得部21は、図面学習用データを図面学習用データ記憶部23へ格納する。また、学習用データ取得部21は、建物学習用データを建物学習用データ記憶部24へ格納する。
損傷度学習用データ記憶部22には、損傷度学習用データが格納される。図5(A)に、損傷度学習用データを説明するための説明図を示す。図5(A)に示されるように、学習用の被災建物の画像情報と当該学習用の被災建物の損傷度とが対応付けられて格納される。図5(A)に示されるデータID「00001」の損傷度学習用データでは、被災建物の画像情報が「XX1」であった場合に、当該被災建物の損傷度は「3」であったことが表されている。なお、1つの画像上に、1つの損傷度が付与されている場合を例に挙げているが、1つの画像上に複数の損傷度が付与されていてもよい。
建物学習用データ記憶部24には、建物学習用データが格納される。図5(B)に、建物学習用データを説明するための説明図を示す。図5(B)に示されるように、学習用の建物の図面データと当該学習用の図面データに表現されている建物の部位を表すラベルとが対応付けられて格納される。図5(B)に示されるデータID「00001」の建物学習用データでは、建物の図面データが「YY1」であった場合に、当該図面データ上に表現されている建物の部位は「柱」であったことが表されている。なお、1つの図面データ上に、1つの部位(例えば、柱、壁、及び窓等)が表現されている場合を例に挙げているが、1つの図面データ上に複数のラベルが付与されていてもよい。
図面学習用データ記憶部23には、図面学習用データが格納される。図5(C)に、図面学習用データを説明するための説明図を示す。図5(C)に示されるように、学習用の建物の画像情報と、当該学習用の画像情報に写っている建物の部位を表すラベルとが対応付けられて格納される。図5(C)に示されるデータID「00001」の図面学習用データでは、建物の画像情報が「ZZ1」であった場合に、当該画像情報に映っている建物の部位は「窓」であることが表されている。なお、1つの画像に、1つの部位(例えば、柱、壁、及び窓等)が映っている場合を例に挙げているが、1つの画像上に複数のラベルが付与されていてもよい。
学習部25は、損傷度学習用データ記憶部22に格納された複数の損傷度学習用データに基づいて、被災建物を表す画像から当該被災建物の損傷度を出力するためのモデルを学習させて、被災建物を表す画像から当該建物の損傷度を出力する損傷度判定用学習済みモデルを得る。損傷度学習用データは、過去に被災した被災建物に関するデータであるため、それらの被災建物の損傷度の判定結果が、損傷度判定用学習済みモデルへ反映される。
本実施形態では、図6に示されるような損傷度判定用学習済みモデルを生成する。例えば、図6に示されるように、モデルの一例としてニューラルネットワークを用いることができ、学習アルゴリズムの一例としてディープラーニングを用いることができる。
また、学習部25は、建物学習用データ記憶部24に格納された複数の建物学習用データに基づいて、建物を表す画像から当該建物の各部位の種別を出力するためのモデルを学習させて、建物を表す画像から当該建物の各部位の種別を出力する建物認識用学習済みモデルを得る。
本実施形態では、例えば、図7に示されるような建物認識用学習済みモデルを生成する。例えば、図7に示されるように、モデルの一例としてニューラルネットワークを用いることができ、学習アルゴリズムの一例としてディープラーニングを用いることができる。
また、学習部25は、図面学習用データ記憶部23に格納された複数の図面学習用データに基づいて、建物を表す図面データから当該図面データの各部位の種別を出力するためのモデルを学習させて、建物を表す図面データから当該図面データの各部位の種別を出力する図面認識用学習済みモデルを得る。
本実施形態では、例えば、図8に示されるような図面認識用学習済みモデルを生成する。例えば、図8に示されるように、モデルの一例としてニューラルネットワークを用いることができ、学習アルゴリズムの一例としてディープラーニングを用いることができる。
学習済みモデル記憶部26には、学習部25によって得られた、損傷度判定用学習済みモデル、建物認識用学習済みモデル、及び図面認識用学習済みモデルが格納される。
<本発明の実施形態に係るドローンのシステム構成>
図9は、本発明の実施形態に係るドローン200の構成の一例を示すブロック図である。ドローン200は、機能的には、図9に示されるように、カメラ210、及び被災情報処理装置220を含んだ構成で表すことができる。
本実施形態のドローン200は、図10に示されるように、プロペラ200Aとキャタピラ(登録商標)200Bとを備えており、陸上走行又は空中飛行による移動が可能である。ドローン200にはキャタピラ(登録商標)200Bが搭載されているため、陸上走行をする際には障害物を乗り越えることができる。
なお、障害物を乗り越える際には、障害物の大きさも記録するようにしてもよい。また、陸上を走行する際には走行距離を併せて記録するようにしてもよい。また、陸上走行をする際のカメラ210による撮影にあたってのブレ対策としては、エアサスペンションなどの工夫を施すようにしてもよい。
ドローン200による陸上走行又は空中飛行により、被災建物の内部及び周辺において、被災建物に関する情報を効率的に収集することができる。ドローン200は、自律的に移動又は外部信号に応じて移動する。
カメラ210は、ドローン200に搭載され、ドローン200の周辺の画像を逐次撮像する。具体的には、ドローン200が被災建物の内部又は被災建物の外部を移動する際に、カメラ210によって被災建物の各部位の画像が逐次撮像される。
被災情報処理装置220は、CPU(Central Processing Unit)、各処理ルーチンを実現するためのプログラム等を記憶したROM(Read Only Memory)、データを一時的に記憶するRAM(Random Access Memory)、記憶手段としてのメモリ、ネットワークインタフェース等を含んだコンピュータによって構成されている。被災情報処理装置220は、機能的には、図9に示されるように、取得部221と、学習済みモデル記憶部222と、図面データ記憶部223と、損傷度合出力部224と、建物部位認識部225と、図面認識部226と、位置認識部227と、損傷度情報生成部228と、被災情報記憶部229と、経路生成部230と、出力部231とを備えている。
取得部221は、カメラ210によって撮像された、対象建物の一例である被災建物を表す画像を逐次取得する。
学習済みモデル記憶部222には、被災情報処理モデル学習装置100によって学習された、損傷度判定用学習済みモデル、建物認識用学習済みモデル、及び図面認識用学習済みモデルが格納される。
図面データ記憶部223には、被災建物の図面データが格納される。なお、図面データは、例えば、CAD(computer-aided design)データであってもよいし、紙媒体をスキャナによって電子データへ変換したものであってもよい。また、BIM(Building Information Modeling)データであってもよい。
損傷度合出力部224は、取得部221によって取得された被災建物を表す画像と、学習済みモデル記憶部222に格納された損傷度判定用学習済みモデルとに基づいて、被災建物の損傷度を出力する。
図6に示されるように、被災建物の画像が損傷度判定用学習済みモデルへ入力されると、損傷度判定用学習済みモデルによって演算処理が行われ、被災建物の損傷度が出力される。これにより、損傷度判定用学習済みモデルに入力された被災建物の画像が、どの程度の損傷度であるのかを自動的に得ることができる。
損傷度判定用学習済みモデルからは、例えば、図6に示されるように、被災建物の損傷度が、「1」である確率、「2」である確率、「3」である確率、「4」である確率、及び「5」である確率が出力され、最も高い確率に対応する損傷度が当該被災建物の画像に映る部位の損傷度であることが判明する。
建物部位認識部225は、取得部221によって取得された被災建物を表す画像と、学習済みモデル記憶部222に格納された建物認識用学習済みモデルとに基づいて、被災建物の画像が表す当該建物の各部位の種別を認識する。
図7に示されるように、被災建物の画像が建物認識用学習済みモデルへ入力されると、建物認識用学習済みモデルによって演算処理が行われ、被災建物の画像に映る各部位の種別の確率が出力される。これにより、建物認識用学習済みモデルに入力された被災建物の画像の各部分領域が、建物のどの部位に相当するかを自動的に得ることができる。
建物認識用学習済みモデルからは、例えば、図7に示されるように、被災建物の画像について、その画像が、柱である確率、窓である確率、及び壁である確率等が出力され、最も高い確率に対応する部位が当該被災建物の画像に映っていることが判明する。
図面認識部226は、図面データ記憶部223に格納された被災建物の図面データと、学習済みモデル記憶部222に格納された図面認識用学習済みモデルとに基づいて、被災建物の図面データの各部位の種別を認識する。
図8に示されるように、被災建物の図面データが図面認識用学習済みモデルへ入力されると、図面認識用学習済みモデルによって演算処理が行われ、被災建物の図面データの各部位の種別に相当する確率が出力される。これにより、図面認識用学習済みモデルに入力された被災建物の図面データの各領域が、建物のどの種別の部位に相当するかを自動的に得ることができる。
図面認識用学習済みモデルからは、例えば、図8に示されるように、被災建物の図面データの各部位について、当該部位が、柱である確率、窓である確率、及び壁である確率等が出力され、最も高い確率の種別が当該被災建物の図面データの部位であることが判明する。
位置認識部227は、建物部位認識部225によって得られた、画像が表す被災建物の各部位の認識結果と、図面認識部226によって得られた被災建物の図面データの各部位の認識結果とを照合して、被災建物の当該図面データにおける、被災建物の画像が撮像された位置を認識する。
例えば、図11に示されるように、被災建物の各部位の認識結果Iとして、柱P1、柱P2、及び窓Wが得られたとする。また、被災建物の図面データの各部位の認識結果Zとして、柱P1、柱P2、及び窓Wが得られたとする。この場合、認識結果Iの柱P1、柱P2、及び窓Wと認識結果Zの柱P1、柱P2、及び窓Wとを照合することにより、被災建物の画像が撮像された図面データ上の位置を認識することができる。
損傷度情報生成部228は、位置認識部227によって得られた図面データにおける位置に対して、損傷度合出力部224により得られた損傷度を図面データ記憶部223に記憶された図面データに付与して、被災建物の損傷度マップを生成する。そして、損傷度情報生成部228は、被災建物の損傷度マップを被災情報記憶部229へ格納する。
例えば、損傷度情報生成部228は、図12に示されるような損傷度マップMを生成する。図12において、損傷度マップMは、被災建物の平面図の図面データ(Rは部屋を示し、Aは通路を示す。)に基づき作成されたものが例に示されている。
経路生成部230は、被災情報記憶部229に格納された被災建物の損傷度マップに基づいて、人の歩行経路を生成する。そして、経路生成部230は、生成した人の歩行ルートを損傷度マップへ付与し、被災情報として被災情報記憶部229へ格納する。
例えば、経路生成部230は、図12に示されるように、損傷度が付与された箇所を避けるように、人の歩行経路HKを生成する。なお、経路生成部230は、各箇所に付与された損傷度の合計が最小となるように、人の歩行経路HKを生成してもよい。
出力部231は、被災情報記憶部229によって格納された、被災建物の損傷度マップと人の歩行経路とを表す被災情報を、結果として出力する。出力部231は、例えば、所定の通信手段によって構成される。この場合には、例えば、出力部231から出力された被災情報が、所定のサーバ(図示省略)へ送信される。そして、そのサーバを管理する管理者は、被災情報のうちの、被災建物の損傷度マップ及び人の歩行経路を確認する。これにより、ドローン200が移動する際に自動的に撮像された被災建物の画像によって、被災建物の損傷度マップ及び人の歩行経路を自動的に得ることができる。
<被災情報処理モデル学習装置の作用>
次に、被災情報処理モデル学習装置100の作用を説明する。被災情報処理モデル学習装置100は、損傷度判定用学習済みモデルを学習させる第1の学習処理ルーチンと、建物認識用学習済みモデルを学習させる第2の学習処理ルーチンと、図面認識用学習済みモデルを学習させる第3の学習処理ルーチンとを実行する。
<第1の学習処理ルーチン>
被災情報処理モデル学習装置100のデータ受付部10が、複数の損傷度学習用データを受け付けると、複数の損傷度学習用データを損傷度学習用データ記憶部22へ格納する。そして、被災情報処理モデル学習装置100のコンピュータ20は、第1の学習処理の指示信号を受け付けると、図13に示す第1の学習処理ルーチンを実行する。
ステップS100において、学習部25は、損傷度学習用データ記憶部22に格納された複数の損傷度学習用データを取得する。
ステップS102において、学習部25は、上記ステップS100で取得された複数の損傷度学習用データに基づいて、被災建物を表す画像から当該被災建物の損傷度を出力するためのモデルを学習させて、損傷度判定用学習済みモデルを生成する。
ステップS104において、学習部25は、上記ステップS102で生成された損傷度判定用学習済みモデルを学習済みモデル記憶部26へ格納して、第1の学習処理ルーチンを終了する。
<第2の学習処理ルーチン>
被災情報処理モデル学習装置100のデータ受付部10が、複数の建物学習用データを受け付けると、複数の建物学習用データを建物学習用データ記憶部24へ格納する。そして、被災情報処理モデル学習装置100のコンピュータ20は、第2の学習処理の指示信号を受け付けると、図14に示す第2の学習処理ルーチンを実行する。
ステップS200において、学習部25は、建物学習用データ記憶部24に格納された複数の建物学習用データを取得する。
ステップS202において、学習部25は、上記ステップS200で取得された複数の建物学習用データに基づいて、建物を表す画像から当該建物の各部位の種別を出力するためのモデルを学習させて、建物認識用学習済みモデルを生成する。
ステップS204において、学習部25は、上記ステップS202で生成された建物認識用学習済みモデルを学習済みモデル記憶部26へ格納して、第2の学習処理ルーチンを終了する。
<第3の学習処理ルーチン>
被災情報処理モデル学習装置100のデータ受付部10が、複数の図面学習用データを受け付けると、複数の図面学習用データを図面学習用データ記憶部23へ格納する。そして、被災情報処理モデル学習装置100のコンピュータ20は、第3の学習処理の指示信号を受け付けると、図15に示す第3の学習処理ルーチンを実行する。
ステップS300において、学習部25は、図面学習用データ記憶部23に格納された複数の図面学習用データを取得する。
ステップS302において、学習部25は、上記ステップS300で取得された複数の図面学習用データに基づいて、建物を表す図面データから当該図面データの各部位の種別を出力するためのモデルを学習させて、図面認識用学習済みモデルを得る。
ステップS304において、学習部25は、上記ステップS302で生成された図面認識用学習済みモデルを学習済みモデル記憶部26へ格納して、第3の学習処理ルーチンを終了する。
<ドローン200の作用>
次に、ドローン200の作用を説明する。被災情報処理モデル学習装置100の学習済みモデル記憶部26に格納された、損傷度判定用学習済みモデル、建物認識用学習済みモデル、及び図面認識用学習済みモデルがドローン200の被災情報処理装置220へ入力されると、学習済みモデル記憶部222へ格納される。そして、ドローン200が被災建物の内部又は外部での移動を開始し、カメラ210によって被災建物の各箇所の撮像が開始されると、ドローン200に備えられた被災情報処理装置220は、図16に示す被災情報処理ルーチンを実行する。なお、図16に示す被災情報処理ルーチンは、カメラ210によって画像が撮像される毎に繰り返し実行される。
ステップS400において、取得部221は、カメラ210によって撮像された被災建物を表す画像を取得する。
ステップS402において、損傷度合出力部224は、上記ステップS400で取得された被災建物を表す画像と、学習済みモデル記憶部222に格納された損傷度判定用学習済みモデルとに基づいて、被災建物を表す画像に映る各箇所の損傷度を出力する。
ステップS404において、建物部位認識部225は、上記ステップS400で取得された被災建物を表す画像と、学習済みモデル記憶部222に格納された建物認識用学習済みモデルとに基づいて、被災建物の画像に映る当該建物の各部位の種別を認識する。
ステップS406において、図面認識部226は、図面データ記憶部223に格納された被災建物の図面データと、学習済みモデル記憶部222に格納された図面認識用学習済みモデルとに基づいて、被災建物の図面データの各部位の種別を認識する。
ステップS408において、位置認識部227は、上記ステップS404で得られた被災建物の各部位の認識結果と、上記ステップS406で得られた被災建物の図面データの各部位の認識結果とを照合して、被災建物の当該図面データにおける、被災建物の画像が撮像された位置を認識する。
ステップS410において、損傷度情報生成部228は、上記ステップS408で得られた図面データにおける位置に対して、上記ステップS402で得られた損傷度を図面データ記憶部223に記憶された図面データに付与して、被災建物の損傷度マップを生成する。そして、損傷度情報生成部228は、損傷度マップを被災情報記憶部229へ格納する。なお、損傷度情報生成部228は、被災情報処理ルーチンの実行が2回目以降である場合には、被災情報記憶部229に格納された損傷度マップに対して新たに損傷度を付与して、損傷度マップを更新する。
ステップS412において、経路生成部230は、被災情報記憶部229に格納された被災建物の損傷度マップに基づいて、人の歩行経路を生成する。そして、経路生成部230は、生成した人の歩行ルートを損傷度マップへ付与し、被災情報として被災情報記憶部229へ格納して、被災情報処理ルーチンを終了する。なお、経路生成部230は、被災情報処理ルーチンの実行が2回目以降である場合には、被災情報記憶部229に格納された被災度情報のうちの歩行経路を更新する。
出力部231は、被災建物の内部又は外部におけるドローン200の移動が終了し、被災建物の損傷度マップと人の歩行経路とを含む被災情報の生成が終了した場合に、被災情報記憶部229によって格納された被災情報を、外部のサーバへ送信する。
サーバを管理する管理者は、ドローン200から送信された被災情報のうちの、被災建物の損傷度マップ及び人の歩行経路を確認する。
以上詳細に説明したように、本実施形態では、被災建物を表す画像と、学習用の被災建物の画像と該被災建物の損傷度とを表す学習用データから予め学習された損傷度判定用学習済みモデルとに基づいて、被災建物の損傷度を出力する。これにより、被災建物の損傷度を適切に取得することができる。また、被災建物の損傷度を表す損傷度マップを自動的に作成することができ、損傷度が付与された損傷度マップに応じて、安全な歩行経路を自動的に作成することができる。
従来の被災度区分判定は、被災度区分判定基準に基づき行われているものの人によってばらつきがあったのに対し、本実施形態によれば、学習用データが反映された学習済みモデルを用いることにより被災建物の損傷度が判定される。これにより、判定基準の均一化を図ることができる。また、見落としなど人的ミス防止、映像記録化、及び時間削減を図ることができる。
これにより、専門家は、被災建物のうちの特別な損傷観察に関する時間を増加させることができる。また、専門家は、未来の震災被害の最小化のための情報収集に貢献したり、知的生産性の向上を図ることができる。
また、本実施形態では、学習済みモデルによって判定された損傷度に基づき、安全な歩行経路が生成される。これにより、被災建物に立ち入る前の安全確保、及びパニック時の避難経路の探索等を行うことができる。
また、建物認識用学習済みモデル及び図面認識用学習済みモデルをドローン200に搭載することにより、ドローン200は、位置関係を把握しながら、必要最大限の情報を得られるように走行することができる。また、状況確認不可能な立ち入り禁止区域を走行することもできる。
また、本実施形態では、損傷度学習用データに基づいて、損傷度判定用学習済みモデルを生成する。これにより、被災建物を表す画像から当該被災建物の損傷度を出力する学習済みモデルを得ることができる。
また、本実施形態では、建物学習用データに基づいて、建物認識用学習済みモデルを得る。これにより、建物を表す画像から当該建物の各部位の種別を出力する学習済みモデルを得ることができる。
また、本実施形態では、図面学習用データに基づいて、図面認識用学習済みモデルを生成する。これにより、建物を表す図面データから当該図面データの各部位の種別を出力する学習済みモデルを得ることができる。
なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、上記実施形態では、モデルの一例としてのニューラルネットワークモデルをディープラーニングによって学習させる場合を例に説明したが、これに限定されるものではない。例えば、ニューラルネットワークモデルとは異なる他のモデルを、ディープラーニングとは異なる他の学習方法によって学習させてもよい。
また、本実施形態のドローン200は、図面認識用学習済みモデルにより得られた図面データの各部位の認識結果と、建物認識用学習済みモデルにより得られた建物の各部位の認識結果との間の照合結果に基づき、画像が撮像された位置(又は、移動の際のドローン200の位置)を認識する場合を例に説明したがこれに限定されるものではない。例えば、GPS等の位置センサにより得られるドローン200の位置情報(緯度経度情報)と、図面データ上の各点に予め付与された位置情報(緯度経度情報)とを照合して、画像が撮像された図面データ上の位置を認識するようにしてもよい。また、ドローン200の移動開始箇所を、図面データ上の予め定められた箇所(0点)として設定し、ドローン200の移動距離及び移動方向に応じて、自らの位置を認識するようにしてもよい。また、これらの認識方法を組み合わせて用いてもよい。
なお、被災建物の図面データが存在しない場合には、ドローン200の移動と同時に簡単な図面データを生成するようにしてもよい。例えば、建物認識用学習済みモデルにより得られた認識結果(画像内のこの部分領域は柱、この部分領域は壁等)に基づき、被災建物の図面データを生成するようにしてもよい。
また、ドローン200には、様々なセンサを搭載させることができる。例えば、ドローン200には、360度カメラ、赤外線カメラ、暗視カメラ、X線カメラ、その他のセンサ等を搭載させることができる。この場合、損傷度認識用学習済みモデルを用いて建物の損傷度を認識する際に、更に詳細な損傷度を取得するようにしてもよい。具体的には、ドローンに搭載された各種センサによって、ひび割れ、コンクリートの剥落、露筋・鉄筋の破断・タイルの浮き、及び鉛直部材の傾き等を更に取得して、損傷度マップを生成するようにしてもよい。
また、上記ではプログラムが記憶部(図示省略)に予め記憶(インストール)されている態様を説明したが、プログラムは、CD−ROM、DVD−ROM及びマイクロSDカード等の記録媒体の何れかに記録されている形態で提供することも可能である。
10 データ受付部
20 コンピュータ
21 学習用データ取得部
22 損傷度学習用データ記憶部
23 図面学習用データ記憶部
24 建物学習用データ記憶部
25 学習部
26,222 学習済みモデル記憶部
100 被災情報処理モデル学習装置
200 ドローン
210 カメラ
220 被災情報処理装置
221 取得部
223 図面データ記憶部
224 損傷度合出力部
225 建物部位認識部
226 図面認識部
227 位置認識部
228 損傷度情報生成部
229 被災情報記憶部
230 経路生成部
231 出力部

Claims (5)

  1. 対象建物を表す画像を取得する取得部と、
    前記取得部によって取得された前記画像と、学習用の被災した建物の画像と該建物の損傷度とを表す学習用データから予め学習された学習済みモデルとに基づいて、前記対象建物の損傷度を出力する損傷度合出力部と、
    を含む被災情報処理装置。
  2. 前記取得部によって取得された前記画像と、学習用の建物を表す画像と該画像の各部位の種別を表す建物学習用データから予め学習された建物認識用学習済みモデルとに基づいて、前記画像が表す前記対象建物の各部位の種別を認識する建物部位認識部と、
    前記対象建物を表す図面データと、学習用の建物を表す図面データと該図面データの各部位の種別を表す図面学習用データから予め学習された図面認識用学習済みモデルとに基づいて、前記対象建物の前記図面データの各部位の種別を認識する図面認識部と、
    前記建物部位認識部によって得られた前記画像が表す前記対象建物の各部位の認識結果と、前記図面認識部によって得られた前記対象建物の図面データの各部位の認識結果とを照合して、前記対象建物の前記図面データにおける、前記対象建物の画像が撮像された位置を認識する位置認識部と、
    前記位置認識部によって得られた前記図面データにおける前記位置に対して、前記損傷度合出力部によって得られた前記損傷度を前記図面データに付与して、前記対象建物の損傷度マップを生成する損傷度情報生成部と、を更に含む、
    請求項1に記載の被災情報処理装置。
  3. 前記損傷度情報生成部によって生成された前記対象建物の前記損傷度マップに基づいて、人の歩行経路を生成する経路生成部を更に含む、
    請求項2に記載の被災情報処理装置。
  4. 対象建物を表す画像は、空中飛行又は陸上走行によって移動する移動体に搭載されたカメラによって撮像された画像である、
    請求項1〜請求項3の何れか1項に記載の被災情報処理装置。
  5. 学習用の建物の画像と該建物の損傷度とを表す学習用データに基づいて、建物を表す画像から該建物の損傷度を出力するためのモデルを学習させて、建物を表す画像から該建物の損傷度を出力する学習済みモデルを得る学習部
    を含む被災情報処理モデル学習装置。
JP2018060865A 2018-03-27 2018-03-27 被災情報処理装置、及び被災情報処理モデル学習装置 Pending JP2019175015A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018060865A JP2019175015A (ja) 2018-03-27 2018-03-27 被災情報処理装置、及び被災情報処理モデル学習装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018060865A JP2019175015A (ja) 2018-03-27 2018-03-27 被災情報処理装置、及び被災情報処理モデル学習装置

Publications (1)

Publication Number Publication Date
JP2019175015A true JP2019175015A (ja) 2019-10-10

Family

ID=68168888

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018060865A Pending JP2019175015A (ja) 2018-03-27 2018-03-27 被災情報処理装置、及び被災情報処理モデル学習装置

Country Status (1)

Country Link
JP (1) JP2019175015A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022055795A1 (en) * 2020-09-11 2022-03-17 Spark Insights, Inc. Damage detection based on images with varying resolutions
WO2022065219A1 (ja) * 2020-09-23 2022-03-31 富士フイルム株式会社 被害判定情報システム、サーバ装置、端末装置およびプログラム
JP2022064525A (ja) * 2020-10-14 2022-04-26 シンメトリー・ディメンションズ・インク 電力供給制御システム、災害分析装置、及び、電力供給制御方法
CN114596313A (zh) * 2022-05-09 2022-06-07 深圳大学 一种基于室内点云的建筑物构件损伤检测方法及相关设备
JP2022084975A (ja) * 2020-11-27 2022-06-08 忠男 西川 情報処理装置及び情報処理プログラム
JP7113590B1 (ja) 2021-12-07 2022-08-05 株式会社オプティム 情報処理装置、方法、プログラム、およびシステム
WO2023053705A1 (ja) * 2021-09-30 2023-04-06 富士フイルム株式会社 点検支援装置、点検支援方法、及びプログラム
WO2023053781A1 (ja) * 2021-09-28 2023-04-06 富士フイルム株式会社 画像処理装置、方法及びプログラム
WO2023171481A1 (ja) * 2022-03-11 2023-09-14 富士フイルム株式会社 被害調査支援システム、被害調査支援サーバ、携帯端末、被害調査支援方法、及び被害調査支援プログラム
JP7414212B2 (ja) 2021-11-22 2024-01-16 コリア プラットフォーム サービステクノロジー株式会社 伝統家屋図面の構造名称を分類するディープラーニングフレームワーク応用データベースサーバ及びその方法

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022055795A1 (en) * 2020-09-11 2022-03-17 Spark Insights, Inc. Damage detection based on images with varying resolutions
WO2022065219A1 (ja) * 2020-09-23 2022-03-31 富士フイルム株式会社 被害判定情報システム、サーバ装置、端末装置およびプログラム
JP2022064525A (ja) * 2020-10-14 2022-04-26 シンメトリー・ディメンションズ・インク 電力供給制御システム、災害分析装置、及び、電力供給制御方法
JP2022084975A (ja) * 2020-11-27 2022-06-08 忠男 西川 情報処理装置及び情報処理プログラム
JP7486808B2 (ja) 2020-11-27 2024-05-20 忠男 西川 情報処理装置
WO2023053781A1 (ja) * 2021-09-28 2023-04-06 富士フイルム株式会社 画像処理装置、方法及びプログラム
WO2023053705A1 (ja) * 2021-09-30 2023-04-06 富士フイルム株式会社 点検支援装置、点検支援方法、及びプログラム
JP7414212B2 (ja) 2021-11-22 2024-01-16 コリア プラットフォーム サービステクノロジー株式会社 伝統家屋図面の構造名称を分類するディープラーニングフレームワーク応用データベースサーバ及びその方法
JP7113590B1 (ja) 2021-12-07 2022-08-05 株式会社オプティム 情報処理装置、方法、プログラム、およびシステム
JP2023084562A (ja) * 2021-12-07 2023-06-19 株式会社オプティム 情報処理装置、方法、プログラム、およびシステム
WO2023171481A1 (ja) * 2022-03-11 2023-09-14 富士フイルム株式会社 被害調査支援システム、被害調査支援サーバ、携帯端末、被害調査支援方法、及び被害調査支援プログラム
CN114596313A (zh) * 2022-05-09 2022-06-07 深圳大学 一种基于室内点云的建筑物构件损伤检测方法及相关设备

Similar Documents

Publication Publication Date Title
JP2019175015A (ja) 被災情報処理装置、及び被災情報処理モデル学習装置
US11386616B2 (en) Automated spatial indexing of images based on floorplan features
US8990049B2 (en) Building structure discovery and display from various data artifacts at scene
CN102620737B (zh) 用于生成建筑物地图的便携式外壳
EP3438953A1 (en) Information processing device
JP3994950B2 (ja) 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置
US11880943B2 (en) Photogrammetry of building using machine learning based inference
KR102203135B1 (ko) 드론을 이용한 인공지능 기반 재난 피해정보 탐지 방법 및 시스템
JP2020035456A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
CN110275540A (zh) 用于扫地机器人的语义导航方法及其系统
KR101771492B1 (ko) 복수의 센서를 탑재한 무인 비행체를 이용하는 매핑 방법 및 시스템
Mosterman et al. Automating humanitarian missions with a heterogeneous fleet of vehicles
JPWO2018131165A1 (ja) 情報処理プログラム、情報処理方法および情報処理装置
JP2020042447A (ja) 不動物体情報から端末位置を推定する装置、プログラム及び方法
KR102189926B1 (ko) 관심 영역 변화를 검출하는 방법 및 시스템
KR20200065316A (ko) 스마트 드론을 사용한 재난 상황 대응 시스템 및 방법
TW202104929A (zh) 計測裝置及計測系統
KR102106029B1 (ko) 간판 검출 성능 향상을 위한 방법 및 시스템
CN112418096A (zh) 检测跌的方法、装置和机器人
Baeck et al. Drone based near real-time human detection with geographic localization
Hu et al. The Use of Unmanned Ground Vehicles and Unmanned Aerial Vehicles in the Civil Infrastructure Sector: Applications, Robotic Platforms, Sensors, and Algorithms
CN110366189B (zh) 无线自组网通信节点部署方法和装置
JP7468543B2 (ja) 情報処理装置、情報処理方法、プログラムおよび飛行体
US11720117B1 (en) System to facilitate autonomous mobile device movement
CN114581603A (zh) 一种无人机建模方法及装置