JPWO2019235415A1 - 災害状況判定システムおよび災害判定飛行システム - Google Patents

災害状況判定システムおよび災害判定飛行システム Download PDF

Info

Publication number
JPWO2019235415A1
JPWO2019235415A1 JP2020523087A JP2020523087A JPWO2019235415A1 JP WO2019235415 A1 JPWO2019235415 A1 JP WO2019235415A1 JP 2020523087 A JP2020523087 A JP 2020523087A JP 2020523087 A JP2020523087 A JP 2020523087A JP WO2019235415 A1 JPWO2019235415 A1 JP WO2019235415A1
Authority
JP
Japan
Prior art keywords
disaster
image
unit
deep learning
determination system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020523087A
Other languages
English (en)
Other versions
JP7065477B2 (ja
Inventor
山本 慎也
慎也 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZENRYOKUKIKAI CO., LTD.
Original Assignee
ZENRYOKUKIKAI CO., LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZENRYOKUKIKAI CO., LTD. filed Critical ZENRYOKUKIKAI CO., LTD.
Publication of JPWO2019235415A1 publication Critical patent/JPWO2019235415A1/ja
Application granted granted Critical
Publication of JP7065477B2 publication Critical patent/JP7065477B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/20UAVs specially adapted for particular uses or applications for use as communications relays, e.g. high-altitude platforms
    • B64U2101/24UAVs specially adapted for particular uses or applications for use as communications relays, e.g. high-altitude platforms for use as flying displays, e.g. advertising or billboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Alarm Systems (AREA)

Abstract

【課題】リアルタイムに災害後の災害映像から災害状態を判定する災害状況判定システムおよび災害判定飛行システムを提供することである。【解決手段】本発明にかかる災害状況判定システム100は、人工的に作成した災害状態を示す教師データ140を記録する記録部110と、記録部110に記録された教師データ140を用いて災害状態を学習するディープラーニング部120と、ディープラーニング部120により災害後の災害映像300の災害状態を判定し、災害地図データ240を表示する表示部130と、を含む。また、災害判定飛行システム700は、災害状況判定システム100と、撮像装置510を搭載し、災害映像を送信することができる飛行体520と、を含む。

Description

本発明は、災害状況判定システムおよび災害判定飛行システムに関する。
従来、災害に関して種々の研究開発が実施されている。例えば、特許文献1(特許第5760155号公報)には、72時間以内の救助を実現するべく、捜索効率を向上させる捜索支援システムについて開示されている。
特許文献1記載の捜索活動支援システムにおいては、捜索活動を支援するシステムであって、それぞれネットワークに接続される、災害対策本部に設置された第1端末と、データセンタに設置された管理装置と、捜索指揮者が携帯する第2端末と、捜索員が携帯する第3端末とを有し、第1端末は、災害発生に基づいて管理装置に対し災害発生地を含む地図データを第1端末に送信することを要求する信号を送信する送信手段と、管理装置から送られる地図データを受信する受信手段と、受信した地図データを基に地図を表示する表示手段と、表示された地図に捜索範囲を指定して捜索用マップを作成する入力手段と、その捜索用マップを管理装置に送信する送信手段と、管理装置が送信する捜索に必要な時間的・人的要件である捜索要件を受信する受信手段と、受信した捜索要件を表示する表示手段と、管理装置が第3端末から受信した各捜索員の位置情報に基づき、捜索用マップに各捜索員の位置を表示した後に送信する捜索用マップを受信する受信手段と、受信した捜索用マップを表示する表示手段とを有し、管理装置は、第1端末から受信した地図データ送信要求信号に基づき、特定の地図データを取得する処理手段と、取得した地図データを第1端末に送信する送信手段と、第1端末から受信した捜索用マップを記憶する記憶手段と、記憶した捜索用マップに基づき指定された捜索範囲での捜索要件を求める処理手段と、求めた捜索要件を第1端末または第1端末と第2端末に送信する送信手段と、第3端末から受信した各捜索員の位置情報に基づき、記憶手段に記憶されている捜索用マップに各捜索員の位置を示すシンボルを付加する処理手段と、捜索用マップまたはシンボルが付加された後の捜索用マップを少なくとも第1端末及び第2端末に送信する送信手段と、を有し、第2端末は、管理装置が送信する捜索用マップを受信する受信手段と、受信した捜索用マップを表示する表示手段と、管理装置が送信する捜索要件を受信する受信手段と、受信した捜索要件を表示する表示手段と、第3端末との間で捜索指揮者と捜索員が通話するための通信手段とを有し、第3端末は、GPS等の測位手段と、その測位手段が得た位置情報を管理装置に送信する送信手段と、第2端末との間で捜索指揮者と捜索員とが通話するための通信手段とを有するものである。
また、特許文献2(特開2018−63707号公報)には、歯科情報を活用した身元確認作業の一助として、例えば発見された遺体の歯科パノラマX線画像と身元確定対象者の生前の歯科に関する情報とを照合することにより容易に身元確認情報を得ることを可能とする画像分析システムを提供し、さらに、画像分析処理の精度向上のために、歯番情報に関し高い信頼性を有する画像分析システムについて開示されている。
特許文献2記載の画像分析システムにおいては、少なくとも管理装置サーバ及び管理装置データベースを有する管理システム並びに分析装置プロセッサ及び分析装置データベースを有する分析システムを備えてなる画像分析システムにおいて、管理装置サーバ及び/もしくは分析装置プロセッサによって画像分析処理の対象となる画像種別に係る第1の情報を入力する手段と、第1の情報を管理装置サーバと管理装置データベースとによる及び/もしくは分析装置プロセッサと分析装置データベースとによって管理装置サーバ及び/もしくは分析装置データベース上に第1の記憶として格納する手段と、管理装置サーバ及び/もしくは分析装置プロセッサによって画像種別による画像へ附番した歯番に係る第2の情報を入力する手段と、第2の情報を管理装置サーバと管理装置データベースとによる及び/もしくは分析装置プロセッサと分析装置データベースとによって管理装置サーバ及び/もしくは分析装置データベース上に第2の記憶として格納する手段と、管理装置サーバ及び/もしくは分析装置プロセッサによって歯番ごとの歯状態に係る第3の情報を入力する手段と、第3の情報を管理装置サーバと管理装置データベースとによる及び/もしくは分析装置プロセッサと分析装置データベースとによって管理装置サーバ及び/もしくは分析装置データベース上に第3の記憶として格納する手段とを備えたものである。
さらに、特許文献3(特開2017−216757号公報)は対象システムの外部から得られる情報を反映して、対象システムの次の状態を予測するシステム監視装置およびプログラムについて開示されている。
特許文献3記載のシステム監視装置は、対象システムの複数の状態と、複数の状態の中の一の状態から他の状態への状態遷移の経路とを含む状態遷移情報を記憶する記憶部と、対象システムに設けられたセンサで計測された情報である計測情報、及び対象システムに関わりを持つ周辺情報の入力を受け付ける入力部と、入力部で受け付けた計測情報から、対象システムの現在の状態を検知する状態検知部と、状態検知部で検知された対象システムの現在の状態と、記憶部に記憶された状態遷移情報と、入力部で受け付けた周辺情報とを元に、現在の状態から他の状態への遷移確率を算出する遷移確率算出部と、遷移確率に基づいて現在の状態から遷移する次の状態を判定する遷移状態判定部と、遷移状態判定部の判定結果を出力する出力部と、を備えるものである。
また、特許文献4(特開2017−181870号公報)には、実世界の変化に応じた地図情報の動的更新をより精度高く実現する情報処理装置について開示されている。
特許文献4記載の情報処理装置には、一または複数のセンサから実世界の単位空間に係る観測情報を取得する取得部と、リファレンス地図と実世界の単位空間との不整合に係る情報に基づいて、単位空間において取得した観測情報を送信する通信部と、を備えるものである。
最後に、特許文献5(特開2017−135545号公報)には、統合管理システムへのネットワークを別途用意することなく迅速にサービスを利用できるネットワーク管理システム及びネットワーク管理方法について開示されている。
特許文献5記載のネットワーク管理システムは、ユーザ端末がアクセスするアクセスノード及びサービスを提供するサービスノードを管理する管理システムと、管理システムと接続しており、アクセスノードとサービスノードとのネットワークを構築する統合管理システムと、を備えるネットワーク管理システムであって、サービスを利用するための認証キーを保持し、アクセスノードがユーザ端末から認証キーを含むサービス設定要求を受けたときにユーザ端末を認証する認証部と、アクセスノードに配置され、認証部がユーザ端末を認証した後、サービス用セッションとは別である制御用セッションをアクセスノードに設定する通信管理部と、認証部が認証したユーザ端末のサービス設定要求を通信管理部が形成した制御用セッションでアクセスノードから統合管理システムまたは管理システムのいずれか一方に送信する設定要求部と、設定要求部が送信したサービス設定要求を受信し、ユーザ端末とサービスノードとの通信を可能とするサービス用セッションをアクセスノードに形成するサービス構築を行う内部要求受付部と、を有するものである。
特許文献6(特開2018−17103号公報)には、建物などの面の状態を網羅的に判定する情報処理装置、情報処理方法、およびプログラムについて開示されている。
特許文献6記載の情報処理装置は、面を撮像した画像について、当該面の状態を示す教示データに基づいて、深層学習を行う学習部と、面を含む領域が撮像された画像であって、撮像された位置を示す位置情報と対応付けられた画像を取得する画像取得部と、前記学習部の学習結果に基づいて、前記画像取得部が取得した画像中の面の状態を判定する状態判定部と、を備えるものである。
特許第5760155号公報 特開2018−63707号公報 特開2017−216757号公報 特開2017−181870号公報 特開2017−135545号公報 特開2018−17103号公報
しかしながら、特許文献1から特許文献6の技術においては、ディープラーニング(深層学習)技術および災害マップの作成技術の記載があるものの、ディープラーニングには、数多くのデータが必要となり、災害が多数頻発しないと対応できないという問題があった。
すなわち、災害の種類と発生直後のデータとの両者を多数収集するには、多数の時間(数十年から数百年の時間における災害)と、多数の労力とが必要となるという問題があり、実現することが困難であった。
本発明の主な目的は、リアルタイムに災害後の災害映像から災害状態を判定する災害状況判定システムおよび災害判定飛行システムを提供することである。
(1)
一局面に従う災害状況判定システムは、人工的に作成した災害状態を示す災害映像を記録する記録部と、前記記録部に記録された災害映像を用いて災害状態を学習するディープラーニング部と、ディープラーニング部により災害後の災害映像の災害状態を判定し、災害状況地図を表示する表示部と、を含むものである。
この場合、リアルタイムで災害状況を分析し、災害状況地図を表示することができる。すなわち、従来のディープラーニング(深層学習)では、教師データとなる実際の災害の災害映像が必要であったが、災害の災害映像は数多く得ることができない。そこで、本発明者は、人工的に災害状態を示す災害映像を作成し、その災害映像を教師データとして用いることで、リアルタイムに災害後の災害映像から災害状態を判定することができることを見出した。
(2)
第2の発明にかかる災害状況判定システムは、一局面にかかる災害状況判定システムにおいて、人工的に作成した災害状態を示す災害映像は、三次元により形成されてもよい。
この場合、人工的に作成した災害状態を示す災害映像は、三次元からなるので、現実の災害後の災害映像に対して正確に判定を行うことができる。
(3)
第3の発明にかかる災害状況判定システムは、一局面または第2の発明にかかる災害状況判定システムにおいて、経路案内指示部をさらに含み、経路案内指示部は、災害状況地図に基づいて、通行可能な経路を表示部に表示してもよい。
この場合、経路案内指示部は、災害状況地図に基づいて、通行可能な経路を表示することができるため、救援物資、救助などの移動を安全に行わせることができる。
(4)
第4の発明にかかる災害状況判定システムは、一局面から第3の発明にかかる災害状況判定システムにおいて、人工的に作成した災害状態を示す災害映像は、崩壊した建物、崩壊した橋、崩壊した山、崩壊した堤、崩壊した道、崩壊したトンネル、地震、津波、火災、水害、地割れ、電線路の不具合、のうち少なくとも1または複数を含んでもよい。
この場合、人工的に作成した災害状態を示す災害映像は、具体的な崩壊した建物、崩壊した橋、崩壊した山、崩壊した堤、崩壊した道、崩壊したトンネル、地震、津波、火災、水害、地割れ、電線路の不具合、のうち少なくとも1または複数を含むので、災害状況を容易にかつ正確に判定することができる。
(5)
第5の発明にかかる災害状況判定システムは、一局面から第4の発明にかかる災害状況判定システムにおいて、ディープラーニング部は、表示部に災害状況の確率を表示してもよい。
この場合、ディープラーニング部は、災害状況の確率を表示することができるため、建物が完全に倒壊しているのか、または今後の二次災害によりさらに倒壊する可能性があるのか、を表示させることができる。すなわち、二次災害とは、地震、火災、水害、津波、等の場合、再度発生する可能性があるためである。当然のことながら、二次災害、三次災害等が含まれる。
(6)
第6の発明にかかる災害状況判定システムは、一局面から第5の発明にかかる災害状況判定システムにおいて、天候表示部をさらに含み、ディープラーニング部は、天候表示部からの天気予報情報に応じて、表示部に災害状況地図の天候情報を表示してもよい。
この場合、表示部に天候情報も表示されるため、災害状況の悪化を予測することができる。
(7)
第7の発明にかかる災害状況判定システムは、一局面から第6の発明にかかる災害状況判定システムにおいて、ディープラーニング部は、災害後の災害映像を一の画像として分割するとともに、当該画像を複数に分割し、個々の画像の災害状態を判定した後、合成してもよい。
この場合、災害映像を個々の画像に分割するので、画像処理速度を高めることができるとともに、災害状況の判定精度を高めることができる。
(8)
他の局面に従う災害判定飛行システムは、一局面から第7の発明にかかる災害状況判定システムと、撮影装置を搭載し、災害映像を送信することができる飛行物と、を含むものである。
この場合、災害判定飛行システムにより、災害映像の災害状況を飛行物から送信し、災害状況判定システムにより、災害状況地図を容易に表示させることができる。
本発明にかかる災害状況判定システムの全体の構成の一例を示す模式図である。 教師データの一例を示す模式図である。 災害モデルを作成する一例を示す模式図である。 災害地図データの一例を示す模式図である。 経路図の一例を示す模式図である。 本発明にかかる災害判定飛行システムの全体の構成の一例を示す模式図である。
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明においては、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
<実施の形態>
(災害状況判定システム100)
図1は、本発明にかかる災害状況判定システム100の全体の構成の一例を示す模式図である。
図1に示すように、災害状況判定システム100は、記録部110、ディープラーニング部120、および表示部130を含む。
本発明にかかる災害情報判定システム100は、災害が発生した場合に、後述する深層学習の災害モデル150から現実の災害のレベルSLを判定し、災害地図データ240を作成するものである。
なお、本発明における災害とは、自然災害、および人為的災害を含むものである。具体的には、気象災害、雨、集中豪雨、洪水、河川の氾濫、土砂災害、斜面崩壊、がけ崩れ、土石流、地滑り、竜巻、高潮、雪崩、吹雪、落雷、雹、地震、津波、地震火災、噴火、噴石、溶岩流、火砕流、泥流、大規模事故、火災、列車事故、航空事故、海難事故、交通事故、爆発事故、炭鉱事故、石油流出事故、化学物質汚染事故、原子力事故、テロ、戦争、戦災、等、その他任意の災害を含むものである。
また、一般的に深層学習の災害モデル150を構築するためには、災害モデル150のための教師データ140は、少なくとも数万以上必要であることがわかっている。そのため、精度の高い災害モデル150を作成するには、今後何十年のみならず、何百年の時間が必要であるのが常識である。
本実施の形態においては、災害モデル150は、判定する災害ごとに500種類以上100000種類以下の教師データ140を用いて学習し、2000種類以上25000種類以下の教師データ140を用いて学習することが好ましく、8000種類以上12500種類以下の教師データ140を用いて学習することがさらに好ましい。このように下限値以上の学習をすることで、災害の判定を高精度で実施することができる。一方で、上記上限値を超えると学習の効果が飽和する。
(記録部110)
本実施の形態において、記録部110は、一般的な記録装置からなる。なお、本実施の形態においては、記録装置からなることとしているが、これに限定されず、クラウド等の記録装置を用いてもよい。
また、記録部110は、人工的に作成された複数の災害データ200を記録する。さらに、記録部110は、ディープラーニング部120において深層学習された災害モデル150を記録する。
また、記録部110は、災害地図を作成するための基礎となる地図データ230を記録する。さらに、ディープラーニング部120で作成された災害地図データ240または/および経路図250を記録する。
(ディープラーニング部120)
ディープラーニング部120は、多層ニューラルネットワークにより記録部110に記録された教師データ140に基づいてディープラーニング(深層学習)を実施する。すなわち、ディープラーニング部120は、記録部110に記録された教師データ140として、予め災害モデル150を災害の種別毎に作成する。
本実施の形態におけるディープラーニング部120は、YOLO(Redmon, Joseph, et al.“YOLOv3: An Incremental Improvement” arXiv preprint arXiv:1804.02767)を用いることができる。YOLOは、あらかじめ画像全体をグリッド分割しておき領域ごとに物体のクラス分類(Classification)とバウンディングボックスとの計算を行い(Bounding Box Regression)、また1つのネットワークで構築されるため、高精度かつ高速の処理をすることができる。
また、YOLOの入力する災害映像の幅は320ピクセル以上10000ピクセル以下、高さは240ピクセル以上5000ピクセル以下に設定し、畳み込み前の画像サイズの幅、高さは共に、104ピクセル以上1664ピクセル以下で設定し、208ピクセル以上832ピクセル以下で設定することがより好ましい。
これにより、後述するように、現実の災害映像に対して、災害モデル150を用いた判定を高い精度で実施することができる。
なお、本実施の形態においては、ディープラーニング部120としてYOLOを用いることとしているが、これに限定されず、R-CNN、SPPnet、その他の任意のエンジン(コンピュータプログラム)を用いても良い。
また、本実施の形態においては、災害モデル150を記録部110に記録することとしたが、これに限定されず、ディープラーニング部120に記録してもよい。
(表示部130)
表示部130は、液晶表示部またはプラズマディスプレイからなる。また、表示部130は、通信部131を有し、ディープラーニング部120と通信可能な装置である。
表示部130は、ディープラーニング部120から得られた災害地図データ240を表示することができる。また、表示部130は、ディープラーニング部120から得られた経路図250を表示することができる。
なお、本実施の形態においては、表示部130を液晶表示部またはプラズマディスプレイからなることとしているが、これに限定されず、携帯端末、携帯電話、スマートフォン、タブレット端末、ヘッドマウントディスプレイ等の任意の表示部130を含む。
(教師データ140)
次に、図2は、教師データ140の一例を示す模式図である。
図2に示すように、教師データ140は、人工的に作成された複数の教師データ140からなる。すなわち、災害毎の状態に応じて教師データ140が種々形成される。本実施の形態においては、教師データ140は、三次元映像からなる。そのため、二次元画像と異なり、情報量を増加させることができる。
例えば、教師データ140は、人工的にOpenGL等のソフトウェアを用いて作成することができる。
さらに、本実施の形態においては、教師データ140は人工的に作成されたものを利用しているが、過去に現実に災害が生じ、当該災害の映像データがある場合には、当該過去の映像データを付加して教師データ140としてもよい。
また、教師データ140は、人工的に作成された複数の教師データ140からなるが、個々の教師データ140は、災害の映像データが短時間で区切られていてもよく、二次元画像であってもよい。例えば、教師データ140の映像時間が30秒の教師データ140の場合には、5秒毎に教師データ140を分割してもよい。
(災害モデル150)
図3は、災害モデル150を作成する一例を示す模式図である。
図3に示すように、多層構造のニューラルネットワーク(深層ニューラルネットワーク)を用いた学習である。また、深層学習モデルとは、その深層ニューラルネットワークの構造を示す表現である。ディープラーニング部120は、教師データ140を用いて、深層学習モデル(深層ニューラルネットワークの構造)の少なくとも一部の構成要素について、人手を介することなく生成し、生成された構成要素を含む深層学習モデルとなる災害モデル150を出力する。
したがって、深層学習モデルは自動的に構築される。本発明では、このようにして得られたニューラルネットワークを用いて現実の災害映像の分析を行う。したがって、従来の機械学習の手法とは異なり、領域探索、特徴抽出などの工程を必要としないため、より高速に処理をすることができる。
また、災害モデル150は、災害のレベルに応じてランク分けがなされても良い。具体的には、災害モデル150は、災害のレベルSL1から災害のレベルSL5のように複数にランクで分けられていてもよい。
具体的には、地震による災害で、一つのビルの災害レベルSL1は、壁にひびが入った状態であり、災害レベルSL2は、窓ガラスが割れた状態であり、災害レベルSL3は、倒壊の可能性が50%未満の状態であり、災害レベルSL4は、倒壊の可能性が70%以上の状態であり、災害レベルSL5は、倒壊している状態である。
なお、災害レベルSL1から災害レベルSL5で説明を行ったが、これに限定されず、災害レベルの数は、2、3、4、10、100等の任意のランクに分けても良い。例えば、災害レベルを100に分けた場合には、パーセントでの確率で表示することができ、災害レベルを10に分けた場合には、割合で表示することができる。
(災害地図データ240)
次に、図4は、災害地図データ240の一例を示す模式図である。
図1に示す現実の災害映像300を災害状況判定システム100に与えた場合、ディープラーニング部120により、地図データ230に基づいて、災害地図データ240が作成され、表示部130に表示される。
図4に示すように、現実の災害が、河川の氾濫の場合、橋B1は、流されていることを示し、橋B2は、被害がないことを示す。また、ビルB3は、1Fまで水没していることを示し、家B4は、火災が発生していることを示す。また、広場B5は、被害がないことを示す。
また、当該災害地図データ240は、図4に示すように、平面地図であってもよく、三次元の映像からなる地図データでもよい。
また、図4に示すように、災害地図データ240は、今後の天気予報情報を追加して表示されてもよい。この場合、災害地図データ240は、現時点の情報であるため、例えば洪水災害、地震災害、大雨災害の場合等においては、天気予報情報、特に天気予報、アメダス予報などが重要となる。
また、災害地図データ240は、時系列による予測変化を表示させてもよい。その結果、現時点から数時間、数日後の災害状況予測を行うことができる。
(経路図250)
続いて、図5は、経路図250の一例を示す模式図である。
ディープラーニング部120は、表示部130に対して、災害地図データ240に基づいて、広場B5までの経路図を示した経路部250が表示される。すなわち、ディープラーニング部120は、ビルB3周辺、家B4周辺を避けつつ、橋B2を経由して広場5までの道筋を経路図250として表示部130に示す。
(他の実施の形態)
図6は、本発明にかかる災害判定飛行システム700の全体の構成の一例を示す模式図である。
図6に示すように、災害判定飛行システム700は、飛行移動体500および災害状況判定システム100を含む。
災害状況判定システム100については、図1に示したものと同一である。
飛行移動体500は、現実の災害映像300を撮像し、災害状況判定システム100のディープラーニング部120に送信する送信部を含む撮像装置510、当該撮像装置510を装備して飛行移動する飛行体520を含む。
ここで撮像装置510は、カメラ、ビデオカメラ、その他の映像を取得するものであればよく、画像であってもよい。また、飛行体520は、飛行機、無人飛行機、ドローン、ヘリコプター、凧等であってもよい。
本発明にかかる災害判定飛行システム700は、現実の災害が発生した場合、即座に、災害映像300を取得し、災害状況判定システム100に与えることができるため、市町村、住人、警察、消防、自衛隊等に適切に情報を与えることができる。
以上のように、災害判定飛行システム700により、災害映像300を飛行体520から送信し、災害状況判定システム100により、リアルタイムで災害地図データ240を容易に表示部130に表示させることができる。
[実施形態における各部と請求項の各構成要素との対応関係]
本明細書における災害状況判定システム100が「災害状況判定システム」に相当し、災害判定飛行システム700が「災害判定飛行システム」に相当し、教師データ140が「人工的に作成した災害状態を示す災害映像」に相当し、記録部110が「記録部」に相当し、災害地図データ240が「災害状況地図」に相当し、経路図250が「通行可能な経路」に相当し、ディープラーニング部120が「経路案内指示部、天候表示部、ディープラーニング部」に相当し、表示部130が「表示部」に相当し、撮像装置510が「撮影装置」に相当し、飛行体520が「飛行物」に相当し、災害映像300が「災害映像」に相当する。
100 災害状況判定システム
110 記録部
120 ディープラーニング部
130 表示部
140 教師データ
240 災害地図データ
250 経路図
300 災害映像
510 撮像装置(撮影装置)
520 飛行体
700 災害判定飛行システム


Claims (8)

  1. 人工的に作成した災害状態を示す災害映像を記録する記録部と、
    前記記録部に記録された災害映像を用いて災害状態を学習するディープラーニング部と、
    前記ディープラーニング部により災害後の災害映像の災害状態を判定し、災害状況地図を表示する表示部と、を含む、災害状況判定システム。
  2. 前記人工的に作成した災害状態を示す災害映像は、三次元により形成される、請求項1に記載の災害状況判定システム。
  3. 経路案内指示部をさらに含み、
    前記経路案内指示部は、前記災害状況地図に基づいて、通行可能な経路を前記表示部に表示する、請求項1または2に記載の災害状況判定システム。
  4. 前記人工的に作成した災害状態を示す災害映像は、崩壊した建物、崩壊した橋、崩壊した山、崩壊した堤、崩壊した道、崩壊したトンネル、地震、津波、火災、水害、地割れ、電線路の不具合、のうち少なくとも1または複数を含む、請求項1から3のいずれか1項に記載の災害状況判定システム。
  5. 前記ディープラーニング部は、前記表示部に災害状況の確率を表示する、請求項1から4のいずれか1項に記載の災害状況判定システム。
  6. 天候表示部をさらに含み、
    前記ディープラーニング部は、前記天候表示部からの天気予報情報に応じて、前記表示部に災害状況地図の天候情報を表示する、請求項1から5のいずれか1項に記載の災害状況判定システム。
  7. 前記ディープラーニング部は、災害後の災害映像を一の画像として分割するとともに、当該画像を複数に分割し、個々の画像の災害状態を判定した後、合成する、請求項1から6のいずれか1項に記載の災害状況判定システム。
  8. 請求項1から請求項7の少なくとも1つの災害状況判定システムと、
    撮影装置を搭載し、災害映像を送信することができる飛行物と、を含む、災害判定飛行システム。
JP2020523087A 2018-06-04 2019-06-03 災害状況判定システムおよび災害判定飛行システム Active JP7065477B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018106648 2018-06-04
JP2018106648 2018-06-04
PCT/JP2019/021955 WO2019235415A1 (ja) 2018-06-04 2019-06-03 災害状況判定システムおよび災害判定飛行システム

Publications (2)

Publication Number Publication Date
JPWO2019235415A1 true JPWO2019235415A1 (ja) 2021-05-13
JP7065477B2 JP7065477B2 (ja) 2022-05-12

Family

ID=68770375

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020523087A Active JP7065477B2 (ja) 2018-06-04 2019-06-03 災害状況判定システムおよび災害判定飛行システム

Country Status (2)

Country Link
JP (1) JP7065477B2 (ja)
WO (1) WO2019235415A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7382859B2 (ja) * 2020-03-09 2023-11-17 株式会社Nttドコモ 災害規模推定装置
CN115697877B (zh) * 2020-06-02 2023-10-03 三菱电机楼宇解决方案株式会社 电梯系统
CN111985355B (zh) * 2020-08-01 2022-09-27 桂林理工大学 基于深度学习和云计算的遥感建筑物震害评估方法和系统
WO2022070808A1 (ja) * 2020-10-01 2022-04-07 富士フイルム株式会社 災害情報処理装置、災害情報処理装置の作動方法、災害情報処理装置の作動プログラム、並びに災害情報処理システム
CN112883907B (zh) * 2021-03-16 2022-07-05 云南师范大学 小体积模型的滑坡检测方法及装置
CN113296072B (zh) * 2021-05-24 2022-10-25 伍志方 一种基于YOLOv3模型的雷暴大风自动识别方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08124064A (ja) * 1994-10-24 1996-05-17 Fuji Facom Corp 画像を利用した火災検出および火災時避難誘導装置
JPH10257458A (ja) * 1997-03-12 1998-09-25 Hochiki Corp 集合住宅管理システム
JP2004346653A (ja) * 2003-05-23 2004-12-09 Kyushu Univ 土砂災害予測システム、方法、およびプログラム
JP2010097430A (ja) * 2008-10-16 2010-04-30 Tokyo Univ Of Agriculture & Technology 煙検出装置及び煙検出方法
WO2018079400A1 (ja) * 2016-10-24 2018-05-03 ホーチキ株式会社 火災監視システム
WO2018083798A1 (ja) * 2016-11-07 2018-05-11 株式会社ラムロック 監視システム及び移動ロボット装置
JP2018084955A (ja) * 2016-11-24 2018-05-31 株式会社小糸製作所 無人航空機

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08124064A (ja) * 1994-10-24 1996-05-17 Fuji Facom Corp 画像を利用した火災検出および火災時避難誘導装置
JPH10257458A (ja) * 1997-03-12 1998-09-25 Hochiki Corp 集合住宅管理システム
JP2004346653A (ja) * 2003-05-23 2004-12-09 Kyushu Univ 土砂災害予測システム、方法、およびプログラム
JP2010097430A (ja) * 2008-10-16 2010-04-30 Tokyo Univ Of Agriculture & Technology 煙検出装置及び煙検出方法
WO2018079400A1 (ja) * 2016-10-24 2018-05-03 ホーチキ株式会社 火災監視システム
WO2018083798A1 (ja) * 2016-11-07 2018-05-11 株式会社ラムロック 監視システム及び移動ロボット装置
JP2018084955A (ja) * 2016-11-24 2018-05-31 株式会社小糸製作所 無人航空機

Also Published As

Publication number Publication date
JP7065477B2 (ja) 2022-05-12
WO2019235415A1 (ja) 2019-12-12

Similar Documents

Publication Publication Date Title
JP7065477B2 (ja) 災害状況判定システムおよび災害判定飛行システム
US10489976B2 (en) Incident site investigation and management support system based on unmanned aerial vehicles
KR102203135B1 (ko) 드론을 이용한 인공지능 기반 재난 피해정보 탐지 방법 및 시스템
Adams et al. Unmanned aerial vehicle data acquisition for damage assessment in hurricane events
CN109117749A (zh) 一种基于无人机巡检影像的异常目标监管方法及系统
van Aardt et al. Geospatial disaster response during the Haiti earthquake: A case study spanning airborne deployment, data collection, transfer, processing, and dissemination
Contreras et al. Earthquake reconnaissance data sources, a literature review
WO2013051300A1 (ja) 被災状況把握システム
Federman et al. UAV photgrammetric workflows: A best practice guideline
Franke et al. Phased reconnaissance approach to documenting landslides following the 2016 Central Italy Earthquakes
Huang et al. A method for using unmanned aerial vehicles for emergency investigation of single geo-hazards and sample applications of this method
Meyer et al. UAV-based post disaster assessment of cultural heritage sites following the 2014 South Napa Earthquake
Kemper et al. Sensor fusion, GIS and AI technologies for disaster management
Cerreta et al. UAS for public safety operations: A comparison of UAS point clouds to terrestrial LIDAR point cloud data using a FARO scanner
Huyck et al. Remote sensing for disaster response: A rapid, image-based perspective
Perez Jimeno et al. An integrated framework for non-destructive evaluation of bridges using UAS: A case study
D’Urso et al. Rescue Management and Assessment of Structural Damage by Uav in Post-Seismic Emergency
Gillins Unmanned aircraft systems for bridge inspection: Testing and developing end-to-end operational workflow
JP5076190B1 (ja) 被災状況把握システム
Huang et al. Method and application of using unmanned aerial vehicle for emergency investigation of single geo-hazard
Kong et al. Information Acquisition and Seismic Damage Prediction of Masonry Structures in Rural Areas Based on UAV Inclined Photogrammetry
Sullivan et al. Using remote data collection to identify bridges and culverts susceptible to blockage during flooding events
Soulakellis et al. Synergistic Exploitation of Geoinformation Methods for Post-earthquake 3D Mapping and Damage Assessment
WO2022149328A1 (ja) 情報処理装置、情報処理方法、及びコンピュータ読み取り可能な記憶媒体
Brooks et al. Evaluating the use of unmanned aerial vehicles for transportation purposes

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220415

R150 Certificate of patent or registration of utility model

Ref document number: 7065477

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150