JP7387911B2 - 浸水被害判定装置、浸水被害判定方法及びプログラム - Google Patents

浸水被害判定装置、浸水被害判定方法及びプログラム Download PDF

Info

Publication number
JP7387911B2
JP7387911B2 JP2022550518A JP2022550518A JP7387911B2 JP 7387911 B2 JP7387911 B2 JP 7387911B2 JP 2022550518 A JP2022550518 A JP 2022550518A JP 2022550518 A JP2022550518 A JP 2022550518A JP 7387911 B2 JP7387911 B2 JP 7387911B2
Authority
JP
Japan
Prior art keywords
house
reference object
water level
image
flood
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022550518A
Other languages
English (en)
Other versions
JPWO2022059603A1 (ja
Inventor
郷太 渡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2022059603A1 publication Critical patent/JPWO2022059603A1/ja
Application granted granted Critical
Publication of JP7387911B2 publication Critical patent/JP7387911B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01FMEASURING VOLUME, VOLUME FLOW, MASS FLOW OR LIQUID LEVEL; METERING BY VOLUME
    • G01F23/00Indicating or measuring liquid level or level of fluent solid material, e.g. indicating in terms of volume or indicating by means of an alarm
    • G01F23/80Arrangements for signal processing
    • G01F23/802Particular electronic circuits for digital processing equipment
    • G01F23/804Particular electronic circuits for digital processing equipment containing circuits handling parameters other than liquid level
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01FMEASURING VOLUME, VOLUME FLOW, MASS FLOW OR LIQUID LEVEL; METERING BY VOLUME
    • G01F23/00Indicating or measuring liquid level or level of fluent solid material, e.g. indicating in terms of volume or indicating by means of an alarm
    • G01F23/0007Indicating or measuring liquid level or level of fluent solid material, e.g. indicating in terms of volume or indicating by means of an alarm for discrete indicating and measuring
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01FMEASURING VOLUME, VOLUME FLOW, MASS FLOW OR LIQUID LEVEL; METERING BY VOLUME
    • G01F23/00Indicating or measuring liquid level or level of fluent solid material, e.g. indicating in terms of volume or indicating by means of an alarm
    • G01F23/22Indicating or measuring liquid level or level of fluent solid material, e.g. indicating in terms of volume or indicating by means of an alarm by measuring physical variables, other than linear dimensions, pressure or weight, dependent on the level to be measured, e.g. by difference of heat transfer of steam or water
    • G01F23/28Indicating or measuring liquid level or level of fluent solid material, e.g. indicating in terms of volume or indicating by means of an alarm by measuring physical variables, other than linear dimensions, pressure or weight, dependent on the level to be measured, e.g. by difference of heat transfer of steam or water by measuring the variations of parameters of electromagnetic or acoustic waves applied directly to the liquid or fluent solid material
    • G01F23/284Electromagnetic waves
    • G01F23/292Light, e.g. infrared or ultraviolet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30184Infrastructure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A10/00TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
    • Y02A10/40Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Fluid Mechanics (AREA)
  • Business, Economics & Management (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Electromagnetism (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Thermal Sciences (AREA)
  • Alarm Systems (AREA)
  • Image Processing (AREA)

Description

本発明は浸水被害判定装置、浸水被害判定方法及びプログラムに係り、特に家屋の浸水被害を判定する技術に関する。
近年、集中豪雨が多発しており、水害被害のリスクが増大している。特許文献1には、豪雨時に適切な情報提供を行うために、ネットワーク接続されたセンサーによって浸水の有無及び水位を検知し、サーバーへ通知する技術が記載されている。
特開2019-87251号公報
水害によって被害を受けた住宅に対して、被害の程度を認定した罹災証明書が発行される。水害の被害の程度は住宅が浸水した深さによって区分が決まるが、広範囲な災害の場合は浸水する家屋数が膨大になり、人手での調査は多くの時間がかかる。また、水害から時間が経つにつれて水が引くため、浸水判定が難しくなる。
特許文献1では、街中に浸水検知センサーを設置することで水位計測を自動化しているが、事前のセンサー設置が必須であり、災害時にはセンサー自体が破損するなどで機能しない可能性がある。
本発明はこのような事情に鑑みてなされたもので、事前にセンサーを配置したり、浸水現場への訪問をしたりすることなく家屋の浸水被害を判定する浸水被害判定装置、浸水被害判定方法及びプログラムを提供することを目的とする。
上記目的を達成するための浸水被害判定装置の一の態様は、プロセッサに実行させるための命令を記憶するメモリと、メモリに記憶された命令を実行するプロセッサと、を備え、プロセッサは、水面を含む画像を取得し、画像から高さの基準となる基準物体を検出し、基準物体の全長及び位置を取得し、画像の基準物体の水面より上側の長さを計測し、基準物体の全長と基準物体の水面より上側の長さとの差分から水面の水位を計測し、水面の水位を基準物体の位置と紐づけて記憶し、浸水被害判定の対象となる家屋の位置を取得し、水面の水位に紐づけられた位置と家屋の位置とから、家屋の浸水水位を決定し、浸水水位から家屋の被害程度を判定する、浸水被害判定装置である。
本態様によれば、水面と基準物体とを含む画像から水面の水位を計測するようにしたので、事前にセンサーを配置したり、浸水現場への訪問をしたりすることなく家屋の浸水被害を判定することができる。
プロセッサは、画像を撮影したカメラの高さ及び画角を取得し、カメラの高さ及び画角に基づいて画像の基準物体の水面より上側の長さを算出することが好ましい。これにより、画像の基準物体の水面より上側の長さを適切に計測することができる。
プロセッサは、カメラのレンズの情報を取得し、画像に対してレンズの歪み補正処理を行うことが好ましい。これにより、画像の基準物体の水面より上側の長さを適切に計測することができる。
プロセッサは、基準物体の緯度、経度、及び標高を取得し、家屋の緯度、経度、及び標高を取得することが好ましい。これにより、家屋の浸水水位を適切に決定することができる。
プロセッサは、家屋の位置から一定距離以内にある複数の基準物体の位置の水面の水位のうち、最も高い水位を家屋の浸水水位とすることが好ましい。これにより、家屋の浸水水位を適切に決定することができる。
プロセッサは、画像が平野の地域の画像である場合に、地域を複数の領域に分割し、家屋と同じ領域内にある基準物体のうち、家屋に最も近い基準物体の位置の水面の水位を、家屋の浸水水位とすることが好ましい。これにより、画像が平野の地域の画像である場合に、家屋の浸水水位を適切に決定することができる。
プロセッサは、画像が起伏のある地域の画像である場合に、家屋の標高と同じ標高にある基準物体のうち、家屋に最も近い基準物体の位置の水面の水位を、家屋の浸水水位とすることが好ましい。これにより、画像が起伏のある地域の画像である場合に、家屋の浸水水位を適切に決定することができる。
基準物体と水面との境界が画像に映っていない場合に、深度マップを用いて基準物体の位置における水面の水位を計測することが好ましい。これにより、基準物体と水面との境界が画像に映っていない場合であっても、水面の水位を適切に計測することができる。
画像は暗視カメラの画像であることが好ましい。これにより、光がない夜間等であっても家屋の被害程度を判定することができる。
画像は、飛行体に搭載されたカメラによって撮影された画像であることが好ましい。これにより、浸水現場の画像を適切に取得することができる。
上記目的を達成するための浸水被害判定方法の一の態様は、水面を含む画像を取得する画像取得工程と、画像から高さの基準となる基準物体を検出する基準物体検出工程と、基準物体の全長及び位置を取得する基準物体情報取得工程と、画像の基準物体の水面より上側の長さを計測し、基準物体の全長と基準物体の水面より上側の長さとの差分から水面の水位を計測する計測工程と、水面の水位を基準物体の位置と紐づけて記憶する記憶工程と、浸水被害判定の対象となる家屋の位置を取得する家屋情報取得工程と、水面の水位に紐づけられた位置と家屋の位置とから、家屋の浸水水位を決定する浸水水位決定工程と、浸水水位から家屋の被害程度を判定する被害判定工程と、を備える浸水被害判定方法である。
本態様によれば、水面と基準物体とを含む画像から水面の水位を計測するようにしたので、事前にセンサーを配置したり、浸水現場への訪問をしたりすることなく家屋の浸水被害を判定することができる。
上記目的を達成するためのプログラムの一の態様は、上記の浸水被害判定方法をコンピュータに実行させるためのプログラムである。このプログラムが記録された、コンピュータが読み取り可能な非一時的記憶媒体も本態様に含んでよい。
本態様によれば、水面と基準物体とを含む画像から水面の水位を計測するようにしたので、事前にセンサーを配置したり、浸水現場への訪問をしたりすることなく家屋の浸水被害を判定することができる。
本発明によれば、事前にセンサーを配置したり、浸水現場への訪問をしたりすることなく家屋の浸水被害を判定することができる。
図1は、浸水被害判定システムの概略図である。 図2は、ドローンの構成を示すブロック図である。 図3は、サーバーの構成を示すブロック図である。 図4は、浸水被害判定システムの機能ブロック図である。 図5は、基準物体の一例としての信号機の高さを示す図である。 図6は、基準物体の他の例としての郵便ポスト(郵便差出箱)の高さを示す図である。 図7は、浸水の高さ(水位)と被害の程度との関係の一例を示す図である。 図8は、浸水被害判定方法の各工程を示すフローチャートである。 図9は、基準物体の高さの射角θによる影響を説明するための図である。 図10は、暗視カメラで撮影した画像の一例である。 図11は、地図上における対象家屋である家屋と、2つの基準物体との位置関係を示す図である。 図12は、地図上における対象家屋である家屋と、2つの基準物体との位置関係を示す図である。 図13は、基準物体と水面との境界が画像内に映っていない画像の一例である。 図14は、標識の直下の水面位置を説明するための図である。 図15は、撮影部によって撮影される画像と、その画像から生成される深度マップとの一例である。
以下、添付図面に従って本発明の好ましい実施形態について詳説する。
〔浸水被害判定システムの全体構成〕
図1は、本実施形態に係る浸水被害判定システム10の概略図である。図1に示すように、浸水被害判定システム10は、ドローン12と、サーバー16と、から構成される。
ドローン12は、サーバー16又は不図示のコントローラによって遠隔操作される無人航空機(UAV:unmanned aerial vehicle、飛行体の一例)である。ドローン12は、予め定められたプログラムに従って飛行するオートパイロット機能を有していてもよい。
ドローン12は、撮影部14を備える。撮影部14は、不図示のレンズ及び不図示の撮像素子を備えるカメラである。撮影部14は、不図示のジンバルを介してドローン12に支持される。撮影部14のレンズは、受光した被写体光を撮像素子の結像面に結像させる。撮影部14の撮像素子は、結像面に結像した被写体光を受光して被写体の画像信号を出力する。
サーバー16は、少なくとも1つのコンピュータで実現され、浸水被害判定装置を構成する。ドローン12とサーバー16とは、2.4GHz帯無線LAN(Local Area Network)等の通信ネットワーク18を介して、データを送受信可能に接続される。
〔ドローンの構成〕
図2は、ドローン12の構成を示すブロック図である。図2に示すように、ドローン12は、撮影部14の他、GPS(Global Positioning System)受信機20、気圧センサー22、方位センサー24、ジャイロセンサー26、及び通信インターフェース28を備える。
GPS受信機20は、ドローン12の緯度及び経度の位置情報を取得する。気圧センサー22は、検知した気圧からドローン12の高度情報を取得する。方位センサー24は、検知した方位からドローン12の向きを取得する。ジャイロセンサー26は、検知したロール軸、ピッチ軸、及びヨー軸の角度からドローン12の姿勢情報を取得する。通信インターフェース28は、通信ネットワーク18を介した通信を制御する。
ドローン12は、不図示のバッテリの残量情報を取得してもよい。また、撮影部14は、撮影部14に設けられた不図示のジャイロセンサーによってレンズの光軸のロール軸、ピッチ軸、及びヨー軸の角度を取得してもよい。
〔サーバーの構成〕
図3は、サーバー16の構成を示すブロック図である。サーバー16は、プロセッサ16Aと、メモリ16Bと、通信インターフェース16Cと、を備える。
プロセッサ16Aは、メモリ16Bに記憶された命令を実行する。プロセッサ16Aのハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の機能部として作用する汎用的なプロセッサであるCPU(Central Processing Unit)、画像処理に特化したプロセッサであるGPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるPLD(Programmable Logic Device)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、又はCPUとFPGAの組み合わせ、あるいはCPUとGPUの組み合わせ)で構成されてもよい。また、複数の機能部を1つのプロセッサで構成してもよい。複数の機能部を1つのプロセッサで構成する例としては、第1に、クライアント又はサーバー等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の機能部として作用させる形態がある。第2に、SoC(System On Chip)等に代表されるように、複数の機能部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の機能部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)である。
メモリ16Bは、プロセッサ16Aに実行させるための命令を記憶する。メモリ16Bは、不図示のRAM(Random Access Memory)、及びROM(Read Only Memory)を含む。プロセッサ16Aは、RAMを作業領域とし、ROMに記憶された浸水被害判定プログラムを含む各種のプログラム及びパラメータを使用してソフトウェアを実行し、かつROM等に記憶されたパラメータを使用することで、サーバー16の各種の処理を実行する。
通信インターフェース16Cは、通信ネットワーク18を介した通信を制御する。
〔浸水被害判定システムの機能構成〕
図4は、浸水被害判定システム10の機能ブロック図である。図4に示すように、浸水被害判定システム10は、撮影部14と、前処理部30と、基準物体検出部32と、基準位置計算部34と、水位計測部36と、水位記憶部38と、家屋取得部40と、家屋水位決定部42と、浸水被害判定部44と、を備える。前処理部30と、基準物体検出部32と、基準位置計算部34と、水位計測部36と、水位記憶部38と、家屋取得部40と、家屋水位決定部42と、浸水被害判定部44との機能は、サーバー16によって実現される。
前処理部30は、撮影部14から取得した画像に前処理を施す画像処理装置である。前処理部30は、撮影部14のレンズの歪み情報を含むレンズ情報を取得し、前処理として公知の技術によりレンズの歪みを補正する歪み補正処理を行う。
基準物体検出部32は、前処理部30において前処理された画像から、深層学習等の公知の技術により、高さの基準となる基準物体であって、一部が水面下にある基準物体を検出する。基準物体は、全長等の規格が予め定められている物体であり、例えば電柱、信号機、郵便ポスト、及び道路標識である。基準物体は、その高さを用いて、長さを測る際の物差しとして使用することができる。
基準物体検出部32は、画像から検出した基準物体の高さを取得する。各基準物体の高さのデータは、サーバー16のメモリ16Bに予め記憶されている。基準物体検出部32は、基準物体の高さをサーバー16の通信インターフェース16Cを介して不図示のデータベース等から取得してもよい。
基準位置計算部34は、基準物体検出部32において検出された基準物体を地図データと照合し、基準物体の緯度及び経度を含む位置と標高とを特定する。地図データは、メモリ16Bに予め記憶されていてもよいし、通信インターフェース16Cを介して不図示のデータベース等から取得されてもよい。電柱、信号機、及び郵便ポストの地理的な位置は、電力会社、所管の警察、及び郵便局等が保有する有償・無償のデータから予め取得しておく。
水位計測部36は、前処理部30において前処理された画像から、基準物体の位置における水面を検知し、基準物体の水面より上側の長さを計測する。また、水位計測部36は、基準物体の高さと基準物体の水面より上側の長さとの差分から、基準物体の位置の水位を計測する。
水位記憶部38は、水位計測部36が計測した水位を、基準位置計算部34において特定した基準物体の位置及び標高と紐づけて水位履歴データとして記憶する。
家屋取得部40は、浸水被害の判定対象となる家屋の情報を取得する。家屋情報には、家屋の緯度及び経度を含む位置と標高とが含まれる。家屋情報は、メモリ16Bに予め記憶されていてもよいし、通信インターフェース16Cを介して不図示のデータベース等から取得されてもよい。
家屋水位決定部42は、浸水被害の判定対象となる家屋の浸水水位を決定する。家屋水位決定部42は、対象家屋の浸水水位を決定するため、家屋に対応する水位データを水位記憶部38が記憶した水位履歴データから検索する。
浸水被害判定部44は、家屋水位決定部42が決定した家屋の浸水水位から、被害程度の判定を行う。判定の基準は、浸水水位の値に対して予め定められたものを使用する。家屋水位決定部42において決定した浸水水位に誤差が含まれており、かつ誤差の考慮により被害判定の結果が変わる場合は、より被害程度の大きい方(住民に有利な方)の判定結果を採用する。
浸水被害判定システム10は、通信インターフェース16Cを介してユーザーのコンピュータ及び情報携帯端末等に浸水被害判定部44の判定結果を送信する不図示の判定結果送信部を備えてもよい。浸水被害判定システム10は、浸水被害判定部44の判定結果を不図示のディスプレイに表示する判定結果表示部を備えてもよい。
〔基準物体の高さ〕
図5は、基準物体の一例としての信号機の高さを示す図である。図5のF5Aは車両用の片持式の縦型信号機を示しており、図5のF5Bは、車両用の片持式の横型信号機を示している。F5A及びF5Bに示すように、車両用の信号機の高さは、地面から灯器底部までが4.5m以上と定められており、一般的に多いのは5.0m~5.6mである。
図5のF5Cは、車両用の中央柱式の縦型信号機を示している。F5Cに示すように、中央柱式の信号機の高さは、3.5m以上である。また、図5のF5Dは、歩行者用の信号機を示している。F5Dに示すように、歩行者用の信号機の高さは、地面から灯器底部までが2.5m以上と定められており、一般的に多いのは2.7m~3.2mである。
なお、F5Aに示すように、信号機が取り付けられる信号柱の標準的な長さは9mであり、地面下が1.5m、地上7.5mである。また、信号柱の標準的な直径は、末口径が190mm、地際径が290mm、元口径が310mmである。浸水被害判定システム10は、信号柱を含めた信号機を基準物体として扱ってもよいし、信号柱を基準物体として扱ってもよい。
図6は、基準物体の他の例としての郵便ポスト(郵便差出箱)の高さを示す図である。図6は、2箇所の差し入れ口と角柱の脚とが特徴的な郵便差出箱13号を示している。郵便差出箱13号の地面から頂部までの高さは、0.83mである。
〔浸水被害の判定〕
浸水被害判定部44において行う浸水被害の判定の基準は、浸水水位の値に対しあらかじめ定められたものを使用する。図7は、浸水の高さ(水位)と被害の程度との関係の一例を示す図である。浸水被害は、「全壊」、「大規模半壊」、「半壊」、及び「半壊に至らない(一部損壊)」の4段階に分類される。
浸水の高さによる判定の場合、住家流失又は床上1.8m以上の浸水が「全壊」、床上1m以上かつ1.8m未満の浸水が「大規模半壊」、床上1m未満の浸水が「半壊」、床下浸水が「半壊に至らない」に分類される。なお、ここでの浸水の高さは、浸水域の最も深い部分で測定した値である。
また、住家の損害割合による判定の場合、損害割合が50%以上の場合が「全壊」、40%以上かつ50%未満の場合が「大規模半壊」、20%以上かつ40%未満の場合が「半壊」、20%未満の場合が「半壊に至らない」に分類される。
〔浸水被害判定方法:第1の実施形態〕
図8は、浸水被害判定システム10による浸水被害判定方法の各工程を示すフローチャートである。浸水被害判定方法は、プロセッサ16Aがメモリ16Bに記憶された浸水被害判定プログラムを実行することで実現される。浸水被害判定プログラムは、コンピュータが読み取り可能な非一時的記憶媒体によって提供されてもよい。この場合、サーバー16は、非一時的記憶媒体から浸水被害判定プログラムを読み取り、メモリ16Bに記憶させてもよい。
ステップS1(画像取得工程の一例)では、ドローン12は、サーバー16の指示に従って洪水発生直後に街の上空を飛行し、撮影部14において街の上空から浸水状況を撮影する。撮影部14は、撮影した画像をサーバー16へ送信する。サーバー16は、この画像を受信する。
ステップS2では、前処理部30は、撮影部14から受信した画像に対し、撮影部14のレンズの歪みを補正する前処理を行う。
ステップS3(基準物体検出工程の一例)では、基準物体検出部32は、ステップS2で前処理された画像から高さの基準となる基準物体を検出する。なお、検出した基準物体の中には、被災により倒壊したものが含まれる可能性がある。このため、検出した基準物体の垂直方向に対する傾きを調べ、垂直方向に対して傾きがあるものは除外する。また、複数の基準物体が検出された場合は、レンズ歪みの影響を回避するために、最も画像の中央に近い物体を基準物体として採用する。
ステップS4(基準物体情報取得工程の一例)では、基準位置計算部34は、ステップS3において検出された基準物体を地図データと照合し、基準物体の緯度、経度、及び標高を特定する。基準位置計算部34は、ドローン12のGPS受信機20から取得したドローン12の位置情報を用いて基準物体の緯度、経度、及び標高を特定してもよい。
また、基準物体検出部32は、緯度、経度、及び標高が特定された基準物体の高さをメモリ16Bから取得する(基準物体情報取得工程の一例)。例えば、基準物体が郵便差出箱13号であれば、図6に示したように、基準物体の高さとして0.83mを取得する。
ステップS5(計測工程の一例)では、水位計測部36は、ステップS2において前処理された画像から、水面から出ている基準物体の長さ(水面より上側の長さの一例)を計測する。基準物体の長さは、以下の式1を用いて計測する。
(水面から出ている基準物体の長さ)=(水面から出ている基準物体の画素数)×(1画素あたりの画像内での長さ) …(式1)
ここで、1画素あたりの画像内での長さは、撮影部14の撮像素子の解像度とレンズの画角とから決まる値である。したがって、水位計測部36は、撮影部14の解像度とレンズの画角との情報を事前に取得しておく。
また、撮影部14が射角(ピッチ角)θを持って基準物体を撮影した場合は、水面から出ている基準物体の画素数の射角θによる影響を補正する必要がある。
図9は、基準物体の水面Wから出ている高さの射角θによる影響を説明するための図である。図9に示すように、水面Wから出ている実際の高さがyの基準物体OBを射角θの撮影部14から撮影した場合、基準物体OBの水面Wから出ている画像内における高さyは、下記の式2で表される。
=y×cosθ …(式2)
射角θは、ドローン12及び撮影部14に設けられたジャイロセンサーから取得することができる。
また、水位計測部36は、基準物体の高さと水面から出ている基準物体の長さとの差分から、基準物体の位置の水位を計測する。基準物体の高さに規格上の誤差が含まれる場合は、浸水の高さの値も同様の誤差を含んだ形で保持する。
図8の説明に戻り、ステップS6(記憶工程の一例)では、水位記憶部38は、ステップS5において計測した水位を、ステップS4において取得した基準物体の緯度、経度及び標高と紐づけて水位履歴データとして記憶する。浸水被害判定システム10は、ステップS1~ステップS6の処理を、洪水が発生した街(災害地域)の範囲で繰り返す。
ステップS7(家屋情報取得工程の一例)では、家屋取得部40は、浸水被害の判定対象となる家屋の緯度、経度、及び標高を含む家屋の情報を取得する。
ステップS8(浸水水位決定工程の一例)では、家屋水位決定部42は、家屋の浸水水位を決定する。家屋水位決定部42は、対象家屋の浸水水位を決定するため、家屋に対応する水位データを水位記憶部38が記憶した水位履歴データから検索する。
検索方法として、家屋水位決定部42は、家屋の位置から一定距離以内にある水位履歴データを取得する。検索結果が0件であり水位履歴データが取得できない場合は、家屋水位決定部42は、家屋の水位が判定不可として本フローチャートの処理を終了する。
次に、家屋水位決定部42は、検索により取得した水位履歴データのうち、家屋の標高と一定値以上異なる標高にある水位履歴データを除外する。家屋水位決定部42は、残った水位履歴データが0件の場合は、家屋の水位が判定不可として本フローチャートの処理を終了する。家屋水位決定部42は、残った水位履歴データのうち、家屋の住民に有利な最も水位の高いデータを家屋の浸水水位として採用する。家屋水位決定部42は、残った水位履歴データのうち、対象家屋に最も近い基準物体と紐づけられた水位履歴データを家屋の浸水水位として採用してもよい。
ステップS9(被害判定工程の一例)では、浸水被害判定部44は、ステップS8で決定した家屋の浸水水位から、家屋の被害程度の判定を行う。浸水被害判定部44は、例えば図7に示した判定基準を用いて被害を判定する。
以上のように、浸水被害判定方法によれば、事前にセンサーを配置したり、浸水現場への訪問をしたりすることなく家屋の浸水被害を判定することができる。
〔第2の実施形態〕
ドローン12による撮影が夜間の場合は、撮影部14として赤外線カメラ等の暗視カメラを使用する。赤外線カメラは、検知した赤外線の強度に応じた画像を撮影するカメラである。赤外光を透過して可視光をカットする可視光カットフィルタを撮影部14に配置することで、撮影部14を赤外線カメラとして使用してもよい。図10は、暗視カメラで撮影した画像の一例である。
〔第3の実施形態〕
災害地域が平野の場合(画像が平野の地域の画像である場合の一例)は、家屋水位決定部42は、地域を例えば100mメッシュ(複数の領域の一例)に分割し、浸水被害の判定対象となる家屋と同じメッシュ内にある基準物体のうち、家屋に最も近い基準物体の水位を、家屋の浸水水位として使用する。
図11は、地図上における対象家屋である家屋Hと、基準物体OB及び基準物体OBとの位置関係を示す図である。ここでは、家屋Hと基準物体OBとが同じメッシュ内に位置しており、家屋Hと基準物体OBとは異なるメッシュ内に位置している。したがって、家屋水位決定部42は、基準物体OBの位置における水位履歴データを使用して家屋Hの浸水水位を決定する。
〔第4の実施形態〕
災害地域が起伏のある土地の場合(画像が起伏のある地域の画像である場合の一例)は、家屋水位決定部42は、浸水被害の判定対象となる家屋の標高と等高線上で同じ標高にある基準物体のうち、家屋に最も近い基準物体の水面の水位を、家屋の浸水水位として使用する。
図12は、地図上における対象家屋である家屋Hと、基準物体OB及び基準物体OBとの位置関係を示す図である。ここでは、家屋Hと基準物体OBとが等高線上で同じ標高に位置しており、家屋Hと基準物体OBとは異なる標高に位置している。したがって、家屋水位決定部42は、基準物体OBの位置における水位履歴データを使用して家屋Hの浸水水位を決定する。
〔第5の実施形態〕
図13は、基準物体と水面との境界が画像内に映っていない画像の一例である。図13では、基準物体OBである交通標識の支柱が画像内に映っていない。このため、基準物体OBと基準物体OBの直下の水面との間の距離yを計測するためには、基準物体OBの直下の水面位置Pを特定する必要がある。
ここで、基準物体OBの直下の水面位置Pとは、撮影部14からの距離が基準物体OBと同じ距離にある水面位置のことである。図14は、基準物体OBの直下の水面位置を説明するための図である。図14に示すように、撮影部14と基準物体OBとの距離をdとすると、基準物体OBの直下の水面位置Pは、撮影部14との距離がdとなる位置である。
ここでは、撮影部14として複眼カメラを使用し、複眼カメラから取得される深度マップを使用して水面位置Pを特定する。
複眼カメラは、例えば第1のカメラと第1のカメラとは異なる第2のカメラとが水平方向に一定の距離を離して並べて配置される。水位計測部36は、第1のカメラと第2のカメラとから撮影される視差を有する画像に基づいて、三角測量の原理で複眼カメラと基準物体OBとの距離を算出し、深度マップを生成する。深度マップとは、画像の持つ奥行きを色で表現したものである。すなわち、深度マップは、画像内の複眼カメラとの距離を示す情報である。
図15は、撮影部14によって撮影される画像と、その画像から生成される深度マップとの一例である。図15に示すF15Aは、撮影部14によって撮影された画像であり、ここでは複眼カメラのうちの一方のカメラによって撮影された画像を示している。また、図15に示すF15Bは、F15Aの画像から生成された深度マップである。F15Bに示すように、深度マップ内では撮影部14からの距離が同じ位置にある画素は同じ色で表現される。
したがって、水位計測部36は、図13に示す画像に対応する深度マップを取得し、この深度マップにおいて基準物体OBの下端にあたる画素の色を取得する。さらに、水位計測部36は、基準物体OBの直下の領域から取得した色と同じ色の画素の位置を特定することで、基準物体OBの直下の水面位置Pを取得することができる。
〔その他〕
ここでは、ドローン12に搭載された撮影部14によって街の上空から浸水状況を撮影する例を用いて説明したが、撮影部14は街中に設置された定点カメラ、又は監視カメラであってもよい。
本発明の技術的範囲は、上記の実施形態に記載の範囲には限定されない。各実施形態における構成等は、本発明の趣旨を逸脱しない範囲で、各実施形態間で適宜組み合わせることができる。
10…浸水被害判定システム
12…ドローン
14…撮影部
16…サーバー
16A…プロセッサ
16B…メモリ
16C…通信インターフェース
18…通信ネットワーク
20…GPS受信機
22…気圧センサー
24…方位センサー
26…ジャイロセンサー
28…通信インターフェース
30…前処理部
32…基準物体検出部
34…基準位置計算部
36…水位計測部
38…水位記憶部
40…家屋取得部
42…家屋水位決定部
44…浸水被害判定部
、H…家屋
OB~OB…基準物体
…水面位置
W…水面
S1~S9…浸水被害判定方法の各工程

Claims (13)

  1. プロセッサに実行させるための命令を記憶するメモリと、
    メモリに記憶された命令を実行するプロセッサと、
    を備え、
    前記プロセッサは、
    水面を含む画像を取得し、
    前記画像から高さの基準となる基準物体を検出し、
    前記基準物体の全長及び位置を取得し、
    前記画像の前記基準物体の前記水面より上側の長さを計測し、前記基準物体の全長と前記基準物体の前記水面より上側の長さとの差分から前記水面の水位を計測し、
    前記水面の水位を前記基準物体の位置と紐づけて記憶し、
    浸水被害判定の対象となる家屋の位置を取得し、
    前記水面の水位に紐づけられた位置と前記家屋の位置とから、前記家屋の浸水水位を決定し、
    前記浸水水位から前記家屋の被害程度を判定する、
    浸水被害判定装置。
  2. 前記プロセッサは、
    前記画像を撮影したカメラの高さ及び画角を取得し、
    前記カメラの高さ及び画角に基づいて前記画像の前記基準物体の前記水面より上側の長さを算出する、
    請求項1に記載の浸水被害判定装置。
  3. 前記プロセッサは、
    前記カメラのレンズの情報を取得し、
    前記画像に対して前記レンズの歪み補正処理を行う、
    請求項2に記載の浸水被害判定装置。
  4. 前記プロセッサは、
    前記基準物体の緯度、経度、及び標高を取得し、
    前記家屋の緯度、経度、及び標高を取得する、
    請求項1から3のいずれか1項に記載の浸水被害判定装置。
  5. 前記プロセッサは、前記家屋の位置から一定距離以内にある複数の前記基準物体の位置の前記水面の水位のうち、最も高い水位を前記家屋の前記浸水水位とする請求項1から4のいずれか1項に記載の浸水被害判定装置。
  6. 前記プロセッサは、前記画像が平野の地域の画像である場合に、前記地域を複数の領域に分割し、前記家屋と同じ領域内にある前記基準物体のうち、前記家屋に最も近い前記基準物体の位置の前記水面の水位を、前記家屋の前記浸水水位とする請求項1から5のいずれか1項に記載の浸水被害判定装置。
  7. 前記プロセッサは、前記画像が起伏のある地域の画像である場合に、前記家屋の標高と同じ標高にある前記基準物体のうち、前記家屋に最も近い前記基準物体の位置の前記水面の水位を、前記家屋の前記浸水水位とする請求項1から6のいずれか1項に記載の浸水被害判定装置。
  8. 前記基準物体と前記水面との境界が前記画像に映っていない場合に、深度マップを用いて前記基準物体の位置における前記水面の水位を計測する請求項1から7のいずれか1項
    に記載の浸水被害判定装置。
  9. 前記画像は暗視カメラの画像である請求項1から8のいずれか1項に記載の浸水被害判定装置。
  10. 前記画像は、飛行体に搭載されたカメラによって撮影された画像である請求項1から9のいずれか1項に記載の浸水被害判定装置。
  11. 水面を含む画像を取得する画像取得工程と、
    前記画像から高さの基準となる基準物体を検出する基準物体検出工程と、
    前記基準物体の全長及び位置を取得する基準物体情報取得工程と、
    前記画像の前記基準物体の前記水面より上側の長さを計測し、前記基準物体の全長と前記基準物体の前記水面より上側の長さとの差分から前記水面の水位を計測する計測工程と、
    前記水面の水位を前記基準物体の位置と紐づけて記憶する記憶工程と、
    浸水被害判定の対象となる家屋の位置を取得する家屋情報取得工程と、
    前記水面の水位に紐づけられた位置と前記家屋の位置とから、前記家屋の浸水水位を決定する浸水水位決定工程と、
    前記浸水水位から前記家屋の被害程度を判定する被害判定工程と、
    を備える浸水被害判定方法。
  12. 請求項11に記載の浸水被害判定方法をコンピュータに実行させるためのプログラム。
  13. 非一時的かつコンピュータ読取可能な記録媒体であって、請求項12に記載のプログラムが記録された記録媒体。
JP2022550518A 2020-09-18 2021-09-10 浸水被害判定装置、浸水被害判定方法及びプログラム Active JP7387911B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020157126 2020-09-18
JP2020157126 2020-09-18
PCT/JP2021/033248 WO2022059603A1 (ja) 2020-09-18 2021-09-10 浸水被害判定装置、浸水被害判定方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2022059603A1 JPWO2022059603A1 (ja) 2022-03-24
JP7387911B2 true JP7387911B2 (ja) 2023-11-28

Family

ID=80777019

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022550518A Active JP7387911B2 (ja) 2020-09-18 2021-09-10 浸水被害判定装置、浸水被害判定方法及びプログラム

Country Status (3)

Country Link
US (1) US20230222642A1 (ja)
JP (1) JP7387911B2 (ja)
WO (1) WO2022059603A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7095046B2 (ja) * 2020-09-30 2022-07-04 楽天グループ株式会社 情報処理システム、情報処理装置、及び情報処理方法
CN117975281B (zh) * 2024-03-29 2024-05-28 广东先知大数据股份有限公司 一种伤损源头检测方法、电子设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002269656A (ja) 2001-03-12 2002-09-20 Foundation Of River & Basin Integrated Communications Japan 河川情報提供システム
JP2018040732A (ja) 2016-09-08 2018-03-15 株式会社東芝 河川監視装置、河川監視方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002269656A (ja) 2001-03-12 2002-09-20 Foundation Of River & Basin Integrated Communications Japan 河川情報提供システム
JP2018040732A (ja) 2016-09-08 2018-03-15 株式会社東芝 河川監視装置、河川監視方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
土居 正浩,マルチメディア応用河川管理システム-四次元GISと画像処理技術による広域管理業務の負荷軽減-,日立評論,日本,日立評論社,2000年03月01日,Vol.82 No.3 (2000-3),P.23-26

Also Published As

Publication number Publication date
JPWO2022059603A1 (ja) 2022-03-24
US20230222642A1 (en) 2023-07-13
WO2022059603A1 (ja) 2022-03-24

Similar Documents

Publication Publication Date Title
KR101933216B1 (ko) 드론과 공간정보를 이용한 하천지형정보 생성 방법
JP7387911B2 (ja) 浸水被害判定装置、浸水被害判定方法及びプログラム
KR102007567B1 (ko) 스테레오 드론 및 이를 이용하는 무기준점 토공량 산출 방법과 시스템
JP4647514B2 (ja) 航空画像処理装置および航空画像処理方法
CN105512646B (zh) 一种数据处理方法、装置及终端
US7982665B2 (en) GPS-installed all-azimuth camera and spatial data collecting device
JP2009068951A (ja) 空中架線の管理システム
KR20190051704A (ko) 스테레오 카메라 드론을 활용한 무기준점 3차원 위치좌표 취득 방법 및 시스템
JP6736931B2 (ja) 立体物検出方法及び立体物検出装置
KR20200110120A (ko) 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법
CN112749584B (zh) 一种基于图像检测的车辆定位方法及车载终端
WO2021212477A1 (zh) 校正点云数据的方法和相关装置
CN112862966B (zh) 地表三维模型构建方法、装置、设备及存储介质
CN107221006A (zh) 一种基于无人机成像平台的通信单管塔倾斜检测方法
CN104599281A (zh) 一种基于水平直线方位一致性的全景图与遥感图配准方法
EP3550263B1 (en) Locating method and apparatus
CN113744393B (zh) 一种多层级边坡滑坡变化监测方法
KR20170015754A (ko) 스카이라인을 이용한 차량의 측위 방법
CN108195359B (zh) 空间数据的采集方法及系统
CN109978997A (zh) 一种基于倾斜影像的输电线路三维建模方法和系统
KR101409802B1 (ko) 3차원 3d 스캐너를 활용한 최적의 공간정보 분석 시스템
KR101720761B1 (ko) 엠엠에스 및 다방향 경사 항공사진을 이용한 3차원 공간정보 구축시스템
CN113340272A (zh) 一种基于无人机微群的地面目标实时定位方法
US20220103762A1 (en) Imaging apparatus, imaging system, and imaging method
JP2011185777A (ja) 地物検出システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231115

R150 Certificate of patent or registration of utility model

Ref document number: 7387911

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150