WO2023021721A1 - 浸水深推定装置、浸水深推定方法、浸水深推定プログラム及び学習装置 - Google Patents

浸水深推定装置、浸水深推定方法、浸水深推定プログラム及び学習装置 Download PDF

Info

Publication number
WO2023021721A1
WO2023021721A1 PCT/JP2022/003705 JP2022003705W WO2023021721A1 WO 2023021721 A1 WO2023021721 A1 WO 2023021721A1 JP 2022003705 W JP2022003705 W JP 2022003705W WO 2023021721 A1 WO2023021721 A1 WO 2023021721A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
inundation
target
data
altitude
Prior art date
Application number
PCT/JP2022/003705
Other languages
English (en)
French (fr)
Inventor
康平 栗原
善隆 豊田
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2023542183A priority Critical patent/JP7483149B2/ja
Publication of WO2023021721A1 publication Critical patent/WO2023021721A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W1/00Meteorology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services

Definitions

  • This disclosure relates to technology for estimating the depth of flooding when flood damage occurs.
  • ground sensors were used as a method of understanding flood damage during floods, heavy rains, and typhoons.
  • a method of grasping flooding using ground sensors is useful for grasping the state of flooding at a specific spot such as an elevator or a power plant.
  • the method of inundation detection using ground sensors is not suitable for acquiring information that spreads in the plane direction, such as which area is more damaged in a situation where damage occurs over a wide area.
  • Non-Patent Document 1 A method for estimating flood depth using remote sensing data has been proposed as a method for understanding flood damage in a wide area (see Non-Patent Document 1).
  • a flooded range (flooded area) is estimated using a SAR satellite image, and the depth of flooded is calculated from altitude information within the flooded area.
  • Non-Patent Document 1 the inundation depth is represented by the difference between the water level and the absolute value of the altitude information. Therefore, according to Non-Patent Document 1, in the case of large-scale flood damage with a wide flooded area, a large amount of flooding occurs in a low altitude area. However, the actual inundation situation is affected by factors such as the direction of flood water flow and the catchment area, which is an area with a small elevation gradient and where water gathers, and cannot be expressed only by the absolute value of elevation. An object of the present disclosure is to make it possible to accurately estimate the flood depth during flood damage.
  • the inundation depth estimation device is Data acquisition for acquiring inundation area data indicating a flooded area in a target area, inundation estimation data indicating a boundary where a water level changes when flooding occurs in the target area, and elevation data indicating an elevation of each point in the target area.
  • Department and a flooded area dividing unit that divides the flooded area indicated by the flooded area data acquired by the data acquisition unit into one or more divided areas according to the boundary indicated by the estimated flooded data; For each of the one or more divided areas obtained by dividing by the flooded area division unit, a water level in the target divided area is calculated from the altitude indicated by the altitude data for the boundary area of the target divided area.
  • a flood depth estimation device comprising a depth calculation unit for calculating. Prepare.
  • the inundation depth is estimated using inundation estimation data that indicates the boundary where the water level changes when inundation occurs in the target area.
  • the inundation depth can be estimated with high accuracy.
  • FIG. 1 is a configuration diagram of a flood depth estimation device 10 according to Embodiment 1.
  • FIG. 4 is a flowchart of overall processing of the inundation depth estimation device 10 according to Embodiment 1; 4 is a flowchart of inundation depth estimation processing according to Embodiment 1; FIG. 4 is an explanatory diagram of submerged area division processing according to the first embodiment; FIG. 4 is an explanatory diagram of the effect of the first embodiment;
  • the block diagram of the inundation depth estimation apparatus 10 which concerns on the modified example 2.
  • FIG. FIG. 10 is a configuration diagram of a flood depth estimation device 10 according to Embodiment 3; The block diagram of the inundation depth estimation apparatus 10 which concerns on the modification 4.
  • FIG. FIG. 11 is a configuration diagram of a learning device 60 according to Embodiment 4;
  • Embodiment 1 *** Configuration description *** A configuration of a flood depth estimation device 10 according to Embodiment 1 will be described with reference to FIG.
  • the inundation depth estimation device 10 is a computer.
  • the inundation depth estimation device 10 includes hardware including a processor 11 , a memory 12 , a storage 13 and a communication interface 14 .
  • the processor 11 is connected to other hardware via signal lines and controls these other hardware.
  • the processor 11 is an IC (Integrated Circuit) that performs processing. Specific examples of the processor 11 are a CPU (Central Processing Unit), a DSP (Digital Signal Processor), and a GPU (Graphics Processing Unit).
  • a CPU Central Processing Unit
  • DSP Digital Signal Processor
  • GPU Graphics Processing Unit
  • the memory 12 is a storage device that temporarily stores data. Specific examples of the memory 12 include SRAM (Static Random Access Memory) and DRAM (Dynamic Random Access Memory).
  • the storage 13 is a storage device that stores data.
  • a specific example of the storage 13 is an HDD (Hard Disk Drive).
  • the storage 13 includes SD (registered trademark, Secure Digital) memory card, CF (Compact Flash, registered trademark), NAND flash, flexible disk, optical disk, compact disk, Blu-ray (registered trademark) disk, DVD (Digital Versatile Disk), etc. It may be a portable recording medium.
  • the communication interface 14 is an interface for communicating with external devices.
  • the communication interface 14 is, for example, an Ethernet (registered trademark), USB (Universal Serial Bus), HDMI (registered trademark, High-Definition Multimedia Interface) port.
  • the inundation depth estimation device 10 includes a inundation area estimation unit 21 and a inundation depth estimation unit 22 as functional components.
  • the flood depth estimation unit 22 includes a data acquisition unit 23 , a flood area division unit 24 , a water level calculation unit 25 and a depth calculation unit 26 .
  • the function of each functional component of the inundation depth estimation device 10 is implemented by software.
  • the storage 13 stores a program that implements the function of each functional component of the inundation depth estimation device 10 . This program is read into the memory 12 by the processor 11 and executed by the processor 11 . Thereby, the function of each functional component of the inundation depth estimation device 10 is realized.
  • processor 11 Only one processor 11 is shown in FIG. However, there may be a plurality of processors 11, and the plurality of processors 11 may cooperate to execute programs that implement each function.
  • FIG. 1 The operation procedure of the inundation depth estimation device 10 according to the first embodiment corresponds to the inundation depth estimation method according to the first embodiment.
  • a program that realizes the operation of the inundation depth estimation device 10 according to the first embodiment corresponds to the inundation depth estimation program according to the first embodiment.
  • Step S11 flooded area estimation process
  • the flooded area estimation unit 21 estimates a flooded area 41 in the target area 40 from the input image 31 and generates flooded area data 32 indicating the flooded area 41 .
  • the input image 31 is remote sensing data obtained by performing detection on the target area 40 .
  • Remote sensing may be performed using an aircraft or UAV (Unmanned Aerial Vehicle, drone), an optical satellite, an SAR (Synthetic Aperture Radar) satellite, or the like.
  • UAV Unmanned Aerial Vehicle, drone
  • optical satellite an optical satellite
  • SAR Synthetic Aperture Radar
  • the flooded area estimation unit 21 uses, for example, a normalized difference water index (NDWI), which is a water index using a near-infrared band image. can be considered.
  • NDWI normalized difference water index
  • ⁇ NIR and ⁇ SWIR are measured values in NIR (Near Inreared) and SWIR (Short-Wave Infrared) bands at a certain point, respectively, NDWI is expressed by Equation (1).
  • NDWI normalized difference water index
  • the flooded area estimation unit 21 compares the SAR images before and after the occurrence of flood damage, as described in Non-Patent Document 1, for example, It is conceivable to extract an area where the altitude has decreased as an inundation range.
  • the flooded area 41 can be identified using various remote sensing data obtained by combining sensors and measuring devices, without being limited to the method described above.
  • Step S12 Inundation depth estimation process
  • the inundation depth estimation unit 22 receives the inundation area data 32 generated in step S11, the inundation estimation data 33, and the altitude data 34, and estimates the inundation depth at each point in the target area 40.
  • the inundation estimation data 33 indicates boundaries of the target area 40 where the water level changes when inundation occurs.
  • the inundation estimation data 33 indicates rivers and tributaries (hereinafter referred to as rivers, etc.) in the target area 40 .
  • the inundation estimation data 33 is, as a specific example, a hazard map created by a flood simulation or the like when a river embankment breaks. In the hazard map, areas are divided or labeled according to the level of inundation water level at the time of flood damage.
  • the estimated inundation data 33 in Japan is, for example, a hazard map published by the Geospatial Information Authority of Japan (https://disaportal.gsi.go.jp/hazardmap/copyright/opendata.html). Not limited to this, it is also possible to use a hazard map created by a local government or the like as the inundation estimation data 33 .
  • Elevation data 34 indicates the elevation of each point in target area 40 .
  • the elevation data 34 is a DEM (Digital Elevation Model) created by a technique such as laser surveying or photogrammetry.
  • DEM Digital Elevation Model
  • 5m mesh DEM5A or the like published by the Geospatial Information Authority of Japan can be used as the elevation data 34 .
  • SRTM-3 Stem Rador Topography Mission
  • DEM data with high vertical resolution as the altitude data 34 .
  • Step S12 in FIG. 2 The inundation depth estimation process (step S12 in FIG. 2) according to the first embodiment will be described with reference to FIG. (Step S21: data acquisition process)
  • the data acquisition unit 23 acquires the inundation area data 32, the inundation estimation data 33, and the altitude data 34 generated in step S11.
  • Step S22 Submerged area dividing process
  • the flooded area dividing unit 24 divides the flooded area 41 indicated by the flooded area data 32 acquired in step S21 into one or more divided areas 42 based on the boundaries and rivers indicated by the flooded estimation data 33 .
  • the inundation area dividing unit 24 refers to the divisions or labels in the inundation estimation data 33 and extracts boundary information indicating the positions of the boundaries and rivers, etc., thereby dividing the inundation area 41 into one or more divided areas. Divide into 42.
  • FIG. 4 shows flooded area data 32 .
  • (B) is a schematic diagram of inundation estimation data 33.
  • FIG. (C) shows boundary information extracted from the inundation estimation data 33 .
  • (D) is a schematic diagram showing a state in which the flooded area 41 shown in (A) is divided into one or more divided areas 42 by the boundaries indicated by the boundary information shown in (C) and rivers and the like.
  • the inundation estimation data 33 are labeled for each level of inundation water level at the time of flood damage, and the positions of rivers and the like are indicated. As such, it is possible to identify the boundaries of differently labeled regions.
  • the boundary information shown in (C) from the specified boundary and the river or the like indicated by the inundation estimation data 33 .
  • the flooded area 41 shown in (A) is divided into one or more submerged areas 41 by overlapping the boundaries indicated by the boundary information shown in (C) with rivers and the like.
  • a division into regions 42 is possible. Note that when one flooded area 41 includes a boundary, a river, or the like, the flooded area 41 is divided into a plurality of divided areas 42 .
  • Step S23 water level calculation process
  • the water level calculation unit 25 calculates the boundary area 43 of the target divided area 42 from the altitude indicated by the altitude data 34 Calculate the water level.
  • the boundary region 43 is a boundary portion region between the target divided region 42 and other regions.
  • the area on the line surrounding the divided area 42A is the boundary area 43 for the divided area 42A
  • the area on the line surrounding the divided area 42B is the boundary area 43 for the divided area 42B
  • the area on the line surrounding the divided area 42C is the boundary area 43 for the divided area 42C.
  • the water level calculation unit 25 calculates the water level of the entire target divided area from the statistic of altitude indicated by the altitude data for a plurality of points in the boundary area 43 of the target divided area 42 .
  • the statistic include an average value, a median value, a mode value, and combinations of these values.
  • the water level calculation unit 25 calculates the water level directly from the statistic, or calculates the water level by adding a correction value to the statistic.
  • Step S24 depth calculation processing
  • the depth calculation unit 26 calculates the depth of each point in the target area 40 based on the altitude indicated by the altitude data 34 for the target point and the water level calculated in step S23 for the divided area 42 including the target point. Calculate the inundation depth for the point. Specifically, the depth calculator 26 calculates the flood depth by subtracting the altitude indicated by the altitude data 34 for the target point from the water level calculated in step S23 for the divided area 42 including the target point.
  • the inundation depth estimation apparatus 10 estimates the inundation depth using the inundation estimation data 33 that indicates the boundary where the water level changes when inundation occurs in the target area.
  • the inundation estimation data 33 it is possible to estimate the inundation depth considering the influence of factors such as the direction of flood water flow and the catchment area, which is an area with a small elevation gradient and where water gathers. can be estimated.
  • the depth of flooding it is possible to estimate the depth of flooding with high accuracy even in the event of a large-scale flood that covers a wide area of flooding.
  • FIGS. 5(a), 5(b) and 5(c) respectively show histograms of sets of elevation information values for flat regions, gradient regions and non-flat regions.
  • the base of the set is narrow, and the divergence between the altitude and water level in the map is small regardless of which statistic is selected.
  • the slope region (b) the water level is approximately in the middle of the altitude regardless of which statistic is selected.
  • the inundation depth estimation apparatus 10 divides the inundation area 41 into one or more divided areas 42 using the boundary where the water level changes when the inundation occurs, which is indicated by the inundation estimation data 33, and rivers, etc. A water level is calculated from the statistics of the boundary area 43 for each divided area 42 . Since the inundation area 41 is divided using the inundation estimation data 33, the division area 42 has a small height difference within the area.
  • the inundation depth at the time of inundation cannot be estimated only with the inundation estimation data 33.
  • the inundation estimation data 33 it becomes possible to accurately grasp the boundary where the water level changes when inundation occurs.
  • the flooded area estimation unit 21 estimated the flooded area 41 and generated the flooded area data 32 .
  • the inundation depth estimation unit 22 may acquire the inundation area data 32 generated outside the inundation depth estimation device 10 .
  • each functional component is realized by software.
  • each functional component may be implemented by hardware.
  • this modification 2 the points different from the first embodiment will be described.
  • the inundation depth estimation device 10 includes an electronic circuit 15 instead of the processor 11 , memory 12 and storage 13 .
  • the electronic circuit 15 is a dedicated circuit that realizes the functions of each functional component, memory 12 and storage 13 .
  • the electronic circuit 15 includes a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, a logic IC, a GA (Gate Array), an ASIC (Application Specific Integrated Circuit), and an FPGA (Field-Programmable Gate Array). is assumed. Each functional component may be implemented by one electronic circuit 15, or each functional component may be implemented by being distributed among a plurality of electronic circuits 15. FIG.
  • the processor 11, memory 12, storage 13 and electronic circuit 15 are called a processing circuit. That is, the function of each functional component is realized by the processing circuit.
  • Embodiment 2 the altitude at each point inside the divided area 42 is estimated by filling the boundary area 43 with the altitude toward the inside of the divided area 42, and the internal altitude is calculated from the estimated altitude at each point inside the divided area 42.
  • step S23 the water level calculation unit 25 fills the target divided region 42 with the altitude indicated by the altitude data 34 for each position of the boundary region 43 of the target divided region 42, so that the inside of the target divided region 42 Estimate the elevation at each point in .
  • a filling method for example, dilation processing by morphological operation and processing such as patch-based inpainting processing are conceivable.
  • the water level calculator 25 calculates the water level for each point from the estimated altitude for that point.
  • step S24 the depth calculation unit 26, for each point in the target area 40, calculates the altitude indicated by the altitude data 34 for the target point and the water level calculated for the target point in step S23. Calculate the inundation depth of Specifically, the depth calculator 2 6 calculates the flood depth by subtracting the altitude indicated by the altitude data 34 for the target point from the water level calculated in step S23 for the target point.
  • Embodiment 3 differs from Embodiment 1 in that the learned model 51 is used to estimate the flood depth. In the third embodiment, this different point will be explained, and the explanation of the same point will be omitted.
  • the configuration of the inundation depth estimation device 10 according to Embodiment 3 will be described with reference to FIG.
  • the inundation depth estimation device 10 does not include the inundation area estimation unit 21, and the inundation depth estimation unit 22 replaces the inundation area division unit 24, the water level calculation unit 25, and the depth calculation unit 26 with an inference execution unit. 27 is different from the first embodiment.
  • the functions of the inference execution unit 27 are implemented by software or hardware, like other functional components.
  • Inundation depth estimation device 10 also stores learned model 51 in storage 13 .
  • the trained model 51 is a model that has been given learning data and has completed learning according to a neural network model or the like.
  • the learned model 51 is a model that receives the input image 31 of the target area 40 , the inundation estimation data 33 , and the altitude data 34 and outputs the inundation depth at each point of the target area 40 .
  • the trained model 51 has a U-Net structure in which the layers of the decoder part and the layers of the encoder part have a symmetrical structure and are connected by skip connections.
  • the inundation depth estimation unit 22 estimates the inundation depth at each point in the target area 40 using the learned model 51 stored in the storage 13 . Specifically, the inundation depth estimation unit 22 inputs the input image 31, the inundation estimation data 33, and the altitude data 34 to the learned model 51, thereby obtaining the inundation depth at each point in the target area 40. do.
  • the inundation depth estimation device 10 uses the learned model 51 to estimate the inundation depth. Since the learned model 51 uses the inundation estimation data 33 as input, it is possible to infer the inundation depth with high accuracy.
  • the learned model 51 is a model that receives the input image 31 and outputs the flood depth.
  • the learned model 51 may be a model that receives the inundation area data 32 and outputs the inundation depth.
  • the learned model 51 is a model that outputs the flood depth by using the flooded area data 32 instead of the input image 31 as an input, as shown in FIG. Prepare.
  • the inference execution unit 27 learns the inundation area data 32, the inundation estimation data 33, and the altitude data 34. By inputting to the finished model 51, the inundation depth at each point in the target area 40 is acquired.
  • the inundation depth estimation unit 22 may acquire the inundation area data 32 generated outside the inundation depth estimation device 10 .
  • the inference execution unit 27 acquires the flood depth at each point in the target area 40 by inputting the flooded area data 32 generated outside to the learned model 51 .
  • Embodiment 4 describes a learning device 60 that generates the trained model 51 used in Embodiment 3.
  • FIG. 4 is a learning device 60 that generates the trained model 51 used in Embodiment 3.
  • the configuration of a learning device 60 according to Embodiment 4 will be described with reference to FIG.
  • Learning device 60 is a computer.
  • the learning device 60 includes hardware including a processor 61 , a memory 62 , a storage 63 and a communication interface 64 .
  • the processor 61 is connected to other hardware via signal lines and controls these other hardware.
  • the processor 61, memory 62, storage 63, and communication interface 64 are similar to the processor 11, memory 12, storage 13, and communication interface 14, respectively.
  • the learning device 60 includes a model generator 71 as a functional component.
  • the function of the model generator 71 is implemented by software.
  • the storage 63 stores a program that implements the function of each functional component of the learning device 60 . This program is read into the memory 62 by the processor 61 and executed by the processor 61 . Thereby, the function of each functional component of the learning device 60 is realized.
  • processor 61 Only one processor 61 is shown in FIG. However, there may be a plurality of processors 61, and the plurality of processors 61 may cooperate to execute programs that implement each function.
  • supervised learning is a method of generating a model that gives a set of input and result data as learning data, learns features in the learning data, and infers the result from the input.
  • a neural network is applied.
  • a neural network is composed of an input layer made up of multiple neurons, an intermediate layer (hidden layer) made up of multiple neurons, and an output layer made up of multiple neurons.
  • the intermediate layer is one layer or two or more layers.
  • the model generation unit 71 accepts input of a plurality of learning data, with each set of the input image 31, the inundation estimation data 33, the altitude data 34, and the inundation depth at each point as one learning data.
  • the inundation depth at each point it is conceivable to use a value measured manually and a value measured using a green laser scanner capable of simultaneously measuring the topography of the water surface and the bottom of the water.
  • the input image 31, the inundation estimation data 33, the altitude data 34, and the inundation depth at each point must be paired data containing the same subject. In other words, the input image 31, the inundation estimation data 33, the altitude data 34, and the inundation depth at each point need to correspond appropriately.
  • the model generator 71 learns the inundation depth at each point corresponding to the input image 31, inundation estimation data 33, and altitude data 34 according to the neural network model. As a result, the model generation unit 71 generates the learned model 51 for inferring the flood depth at each point from the input image 31, the flood estimation data 33, and the altitude data . The model generation unit 71 writes the generated learned model 51 to the storage 63 .
  • the learned model 51 generated by the model generating unit 71 is transferred to the inundation depth estimation device 10 by a method such as being transmitted via a transmission line, and stored in the storage 13 of the inundation depth estimation device 10.
  • the learning device 60 according to the fourth embodiment can generate the learned model 51 used by the inundation depth estimation device 10 according to the third embodiment.
  • the learning device 60 that generates the trained model 51 corresponding to the third embodiment has been described.
  • the learning data includes the flooded area data 32 instead of the input image 31 .
  • ⁇ Modification 6> It is assumed that the function of the model generation unit 71, which is the function of the learning device 60, is realized by software. However, similar to the function of the inundation depth estimation device 10, the function of the model generator 71 may be implemented by hardware.
  • Inundation depth estimation device 11 Processor, 12 Memory, 13 Storage, 14 Communication interface, 15 Electronic circuit, 21 Inundation area estimation unit, 22 Inundation depth estimation unit, 23 Data acquisition unit, 24 Inundation area division unit, 25 Water level calculation unit , 26 depth calculation unit, 27 inference execution unit, 31 input image, 32 inundation area data, 33 inundation estimation data, 34 altitude data, 40 target area, 41 inundation area, 42 division area, 43 boundary area, 51 learned model , 60 learning device, 61 processor, 62 memory, 63 storage, 64 communication interface, 71 model generator.

Landscapes

  • Business, Economics & Management (AREA)
  • Environmental & Geological Engineering (AREA)
  • Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Environmental Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Atmospheric Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Ecology (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Alarm Systems (AREA)
  • Image Processing (AREA)

Abstract

浸水域分割部(24)は、浸水発生時における水位が変化する境界を示す浸水推定データ(33)が示す境界により浸水域を1つ以上の分割領域に分割する。水位算出部(25)は、1つ以上の分割領域それぞれを対象として、対象の分割領域の境界領域についての標高から対象の分割領域における水位を算出する。深さ算出部(26)は、対象の地点についての標高と、対象の地点を含む分割領域についての水位とから、対象の地点についての浸水深を算出する。

Description

浸水深推定装置、浸水深推定方法、浸水深推定プログラム及び学習装置
 本開示は、水害発生時における浸水深を推定する技術に関する。
 洪水と大雨と台風といった水害発生時に、浸水被害を把握する手法として、従来は地上センサが使用されていた。地上センサを用いた浸水把握の手法は、エレベータ又は発電所といった特定のスポットの浸水状況把握には有用である。しかし、地上センサを用いた浸水把握の手法は、被害が広域に発生する状況において、どの地域がより被害が大きいかといった面方向の広がりを持った情報を取得することには向いていない。
 広域の浸水被害を把握する手法として、リモートセンシングデータを活用した浸水深推定手法が提案されている(非特許文献1参照)。非特許文献1では、SAR衛星画像を用いて浸水の範囲(浸水域)を推定し、浸水域内の標高情報から浸水の深さを算出している。
"衛星SARを用いた豪雨災害時の迅速な浸水範囲および浸水深抽出の試み."本田謙一ら, Journal of Remote Sensing Society of Japan,Vol.40 No.3(2020),pp.158-162.
 非特許文献1では、浸水深は、水位と標高情報の絶対値との差分で表現される。そのため、非特許文献1では、浸水域が広域となるような大規模な水害の場合、標高が低い領域に大きな浸水が発生するという結果が得られる。しかし、実際の浸水状況は、氾濫した水が流れる方向と、標高の勾配が少なく水が集まる領域である集水域といった要因の影響があり、標高の絶対値のみでは表現できない。
 本開示は、水害時における浸水深を精度よく推定可能にすることを目的とする。
 本開示に係る浸水深推定装置は、
 対象領域における浸水域を示す浸水域データと、前記対象領域について浸水発生時における水位が変化する境界を示す浸水推定データと、前記対象領域の各地点の標高を示す標高データとを取得するデータ取得部と、
 前記データ取得部によって取得された前記浸水域データが示す前記浸水域を前記浸水推定データが示す前記境界により1つ以上の分割領域に分割する浸水域分割部と、
 前記浸水域分割部によって分割されて得られた前記1つ以上の分割領域それぞれを対象として、対象の分割領域の境界領域について前記標高データが示す前記標高から前記対象の分割領域における水位を算出する水位算出部と、
 前記各地点を対象として、対象の地点について前記標高データが示す標高と、前記対象の地点を含む分割領域について前記水位算出部によって算出された水位とから、前記対象の地点についての前記浸水深を算出する深さ算出部と
を備える浸水深推定装置。
を備える。
 本開示では、対象領域について浸水発生時における水位が変化する境界を示す浸水推定データを用いて浸水深を推定する。浸水推定データを用いることにより、浸水深を精度よく推定可能である。
実施の形態1に係る浸水深推定装置10の構成図。 実施の形態1に係る浸水深推定装置10の全体的な処理のフローチャート。 実施の形態1に係る浸水深推定処理のフローチャート。 実施の形態1に係る浸水域分割処理の説明図。 実施の形態1の効果の説明図。 変形例2に係る浸水深推定装置10の構成図。 実施の形態3に係る浸水深推定装置10の構成図。 変形例4に係る浸水深推定装置10の構成図。 実施の形態4に係る学習装置60の構成図。
 実施の形態1.
 ***構成の説明***
 図1を参照して、実施の形態1に係る浸水深推定装置10の構成を説明する。
 浸水深推定装置10は、コンピュータである。
 浸水深推定装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
 プロセッサ11は、プロセッシングを行うIC(Integrated Circuit)である。プロセッサ11は、具体例としては、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)である。
 メモリ12は、データを一時的に記憶する記憶装置である。メモリ12は、具体例としては、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)である。
 ストレージ13は、データを保管する記憶装置である。ストレージ13は、具体例としては、HDD(Hard Disk Drive)である。また、ストレージ13は、SD(登録商標,Secure Digital)メモリカード、CF(CompactFlash,登録商標)、NANDフラッシュ、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD(Digital Versatile Disk)といった可搬記録媒体であってもよい。
 通信インタフェース14は、外部の装置と通信するためのインタフェースである。通信インタフェース14は、具体例としては、Ethernet(登録商標)、USB(Universal Serial Bus)、HDMI(登録商標,High-Definition Multimedia Interface)のポートである。
 浸水深推定装置10は、機能構成要素として、浸水域推定部21と、浸水深推定部22とを備える。浸水深推定部22は、データ取得部23と、浸水域分割部24と、水位算出部25と、深さ算出部26とを備える。浸水深推定装置10の各機能構成要素の機能はソフトウェアにより実現される。
 ストレージ13には、浸水深推定装置10の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。これにより、浸水深推定装置10の各機能構成要素の機能が実現される。
 図1では、プロセッサ11は、1つだけ示されていた。しかし、プロセッサ11は、複数であってもよく、複数のプロセッサ11が、各機能を実現するプログラムを連携して実行してもよい。
 ***動作の説明***
 図2から図4を参照して、実施の形態1に係る浸水深推定装置10の動作を説明する。
 実施の形態1に係る浸水深推定装置10の動作手順は、実施の形態1に係る浸水深推定方法に相当する。また、実施の形態1に係る浸水深推定装置10の動作を実現するプログラムは、実施の形態1に係る浸水深推定プログラムに相当する。
 図2を参照して、実施の形態1に係る浸水深推定装置10の全体的な処理を説明する。
 (ステップS11:浸水域推定処理)
 浸水域推定部21は、入力画像31から対象領域40における浸水域41を推定して、浸水域41を示す浸水域データ32を生成する。
 入力画像31は、対象領域40に対する検出を行い得られたリモートセンシングデータである。リモートセンシングは、航空機又はUAV(Unmanned Aerial Vehicle,ドローン)の他、光学衛星、SAR(Synthetic Aperture Radar)衛星等を用いて行うことが考えられる。
 リモートセンシングデータとして光学画像を用いて浸水域41を推定する場合には、浸水域推定部21は、例えば近赤外帯域の画像を利用した水指標であるNDWI(Normalized Difference Water Index)を用いることが考えられる。ρNIR、ρSWIRをそれぞれある地点のNIR(Near Inreared)、SWIR(Short―Wave Infrared)帯域の計測値とした場合、NDWIは数1で表される。
Figure JPOXMLDOC01-appb-M000001
 また、赤外帯域の代わりに可視帯域を利用した浸水域推定手法も存在する。
 リモートセンシングデータとしてSAR画像を用いて浸水域41を推定する場合には、浸水域推定部21は、例えば非特許文献1に記載されたように、水害発生前後のSAR画像を比較し、後方散乱高度が低下した領域を浸水範囲として抽出することが考えられる。
 なお、上述した方法に限らず、センサと計測装置との組み合わせにより得られる、様々なリモートセンシングデータを用いて浸水域41を特定することができる。
 (ステップS12:浸水深推定処理)
 浸水深推定部22は、ステップS11で生成された浸水域データ32と、浸水推定データ33及び標高データ34とを入力として、対象領域40の各地点の浸水深を推定する。
 浸水推定データ33は、対象領域40について浸水発生時における水位が変化する境界
を示す。また、浸水推定データ33は、対象領域40における河川と支川(以下、河川等)を示す。
 浸水推定データ33は、具体例としては、河川堤防決壊時の氾濫シミュレーション等によって作成されるハザードマップである。ハザードマップでは、水害発生時の浸水水位のレベルに応じて、領域毎に区分けあるいはラベル付けされている。浸水推定データ33は、日本国内であれば、例えば、国土地理院によって公開されるハザードマップである(https://disaportal.gsi.go.jp/hazardmap/copyright/opendata.html)。これに限らず、地方自治体等が作成したハザードマップを浸水推定データ33として利用することも可能である。
 標高データ34は、対象領域40の各地点の標高を示す。
 標高データ34は、レーザ測量又は写真測量といった手法で作成されたDEM(Digital Elevation Model)である。日本国内であれば、国土地理院が公開している5mメッシュDEM5A等を標高データ34として利用可能である。全世界であれば、SRTM-3(Shuttle Rador Topography Mission)を標高データ34として利用可能である。また、垂直分解能の高いDEMデータを標高データ34として利用することも可能である。
 図3を参照して、実施の形態1に係る浸水深推定処理(図2のステップS12)を説明する。
 (ステップS21:データ取得処理)
 データ取得部23は、ステップS11で生成された浸水域データ32と、浸水推定データ33及び標高データ34とを取得する。
 (ステップS22:浸水域分割処理)
 浸水域分割部24は、ステップS21で取得された浸水域データ32が示す浸水域41を、浸水推定データ33が示す境界と河川等とにより、1つ以上の分割領域42に分割する。この際、浸水域分割部24は、浸水推定データ33の区分け又はラベルを参照して、境界と河川等との位置を示す境界情報を抽出することにより、浸水域41を1つ以上の分割領域42に分割する。
 図4を参照して具体的に説明する。図4において(A)は浸水域データ32を示す。(B)は浸水推定データ33の模式図である。(C)は浸水推定データ33から抽出された境界情報を示す。(D)は(A)に示す浸水域41を(C)に示す境界情報が示す境界と河川等とにより1つ以上の分割領域42に分割した状態を示す模式図である。
 (B)では、浸水推定データ33は水害発生時の浸水水位のレベル毎にラベル付けされるとともに、河川等の位置が示されている。そのため、異なるラベルが付された領域の境界を特定することが可能である。したがって、特定された境界と、浸水推定データ33が示す河川等とから、(C)に示す境界情報を得ることが可能である。そして、(D)に示すように、(A)に示す浸水域41に対して、(C)に示す境界情報が示す境界と河川等とを重ねることにより、浸水域41を1つ以上の分割領域42に分割することが可能である。なお、1つの浸水域41に境界又は河川等が含まれる場合に、浸水域41が複数の分割領域42に分割される。
 (ステップS23:水位算出処理)
 水位算出部25は、ステップS22で分割されて得られた1つ以上の分割領域42それぞれを対象として、対象の分割領域42の境界領域43について標高データ34が示す標高から対象の分割領域42における水位を算出する。
 境界領域43は、対象の分割領域42におけるその他の領域との境界部分の領域である。例えば、図4の(D)であれば、分割領域42Aを囲む線上の領域が分割領域42Aに
ついての境界領域43であり、分割領域42Bを囲む線上の領域が分割領域42Bについての境界領域43であり、分割領域42Cを囲む線上の領域が分割領域42Cについての境界領域43である。
 具体的には、水位算出部25は、対象の分割領域42の境界領域43における複数の地点について標高データが示す標高の統計量から、対象の分割領域全体の水位を算出する。統計量は、具体例としては、平均値と中央値と最頻値とこれらの値の組合せといったものが考えられる。ここでは、水位算出部25は、統計量をそのまま水位として計算する、あるいは、統計量に補正値を加えて水位を計算する。
 (ステップS24:深さ算出処理)
 深さ算出部26は、対象領域40における各地点を対象として、対象の地点について標高データ34が示す標高と、対象の地点を含む分割領域42についてステップS23で算出された水位とから、対象の地点についての浸水深を算出する。具体的には、深さ算出部26は、対象の地点を含む分割領域42についてステップS23で算出された水位から、対象の地点について標高データ34が示す標高を減じて、浸水深を算出する。
 ***実施の形態1の効果***
 以上のように、実施の形態1に係る浸水深推定装置10は、対象領域について浸水発生時における水位が変化する境界を示す浸水推定データ33を用いて浸水深を推定する。浸水推定データ33を用いることにより、氾濫した水が流れる方向と、標高の勾配が少なく水が集まる領域である集水域といった要因の影響を考慮した浸水深の推定が可能となり、浸水深を精度よく推定可能である。
 その結果、広範な浸水域が発生する大規模な水害発生時においても、浸水深を高精度に推定可能である。
 図5を参照して具体的に説明する。図5の(a)(b)(c)は、それぞれ、平坦領域、勾配領域、非平坦領域について、標高情報の値の集合のヒストグラムを示している。(a)の平坦領域の場合、集合の裾野が狭く、上述したいずれの統計量を選択しても、マップ中の標高と水位との間の乖離は少ない。(b)の勾配領域の場合、上述したいずれの統計量を選択しても、水位はおおよそ標高の中間付近の値となる。ここで標高の高い領域に局所的に標高の低い領域(図5の(b)における領域X)が存在する場合、標高の高低差から、深い浸水が発生すると想定されるが、(b)では標高の高い領域に対して水位が過小評価されるため、浸水深さが実際よりも小さく見積もられる可能性がある。(c)の非平坦領域の場合も(b)の勾配領域の場合と同様の現象が発生する可能性がある。
 実施の形態1に係る浸水深推定装置10は、浸水推定データ33が示す浸水発生時における水位が変化する境界と河川等とを用いて浸水域41を1つ以上の分割領域42に分割し、各分割領域42について境界領域43の統計量から水位を算出する。分割領域42は、浸水推定データ33を用いて浸水域41が分割されるため、領域内における高低差が小さい。
 そのため、1つの分割領域42が、過度な勾配がある勾配領域になること、及び、過度な凹凸がある非平坦領域になることが防がれる。つまり、図5の(b)(c)のような状態は発生しづらくなる。その結果、分割領域42について境界領域43の統計量から水位を算出することにより、分割領域42についての水位を精度よく算出することが可能である。水位が精度よく算出されれば、浸水深も精度よく推定されることになる。
 なお、浸水推定データ33だけでは、浸水発生時における浸水深を推定することはできない。しかし、浸水推定データ33を用いることにより、浸水発生時における水位が変化する境界を正確に把握することが可能になる。
 ***他の構成***
 <変形例1>
 実施の形態1では、浸水域推定部21が浸水域41を推定し、浸水域データ32を生成した。しかし、浸水深推定部22は、浸水深推定装置10の外部で生成された浸水域データ32を取得してもよい。
 <変形例2>
 実施の形態1では、各機能構成要素がソフトウェアで実現された。しかし、変形例2として、各機能構成要素はハードウェアで実現されてもよい。この変形例2について、実施の形態1と異なる点を説明する。
 図6を参照して、変形例2に係る浸水深推定装置10の構成を説明する。
 各機能構成要素がハードウェアで実現される場合には、浸水深推定装置10は、プロセッサ11とメモリ12とストレージ13とに代えて、電子回路15を備える。電子回路15は、各機能構成要素と、メモリ12と、ストレージ13との機能とを実現する専用の回路である。
 電子回路15としては、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)が想定される。
 各機能構成要素を1つの電子回路15で実現してもよいし、各機能構成要素を複数の電子回路15に分散させて実現してもよい。
 <変形例3>
 変形例3として、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
 プロセッサ11とメモリ12とストレージ13と電子回路15とを処理回路という。つまり、各機能構成要素の機能は、処理回路により実現される。
 実施の形態2.
 実施の形態2は、境界領域43について標高を分割領域42の内部方向に充填することにより、分割領域42の内部の各地点における標高を推定し、推定された内部の各地点における標高から内部の各地点の水位を算出する点が実施の形態1と異なる。実施の形態2では、この異なる点を説明し、同一の点については説明を省略する。
 ***動作の説明***
 図3のステップS23及びステップS24の処理が実施の形態1と異なる。
 ステップS23で水位算出部25は、対象の分割領域42の境界領域43の各位置について標高データ34が示す標高を対象の分割領域42の内部方向に充填することにより、対象の分割領域42の内部の各地点における標高を推定する。充填する方法としては、例えば、モルフォロジー演算による膨張処理と、パッチベースのインペインティング処理といった処理が考えられる。水位算出部25は、各地点について推定された標高からその地点についての水位を算出する。
 ステップS24で深さ算出部26は、対象領域40における各地点を対象として、対象の地点について標高データ34が示す標高と、対象の地点についてステップS23で算出された水位とから、対象の地点についての浸水深を算出する。具体的には、深さ算出部2
6は、対象の地点についてステップS23で算出された水位から、対象の地点について標高データ34が示す標高を減じて、浸水深を算出する。
 ***実施の形態2の効果***
 これにより、1つの分割領域42内で、異なる複数の水位が算出されることになる。例えば、分割領域42に若干の勾配がある場合には、標高が高い側と低い側とで異なる水位が適切に算出されることになる。その結果、浸水深がより精度よく推定されることになる。
 実施の形態3.
 実施の形態3は、学習済モデル51を用いて浸水深を推定する点が実施の形態1と異なる。実施の形態3では、この異なる点を説明し、同一の点については説明を省略する。
 ***構成の説明***
 図7を参照して、実施の形態3に係る浸水深推定装置10の構成を説明する。
 浸水深推定装置10は、浸水域推定部21を備えていない点と、浸水深推定部22が、浸水域分割部24と水位算出部25と深さ算出部26とに代えて、推論実行部27を備える点とが実施の形態1と異なる。推論実行部27の機能は、他の機能構成要素と同様に、ソフトウェア又はハードウェアによって実現される。
 また、浸水深推定装置10は、ストレージ13に、学習済モデル51が記憶される。学習済モデル51は、ニューラルネットワークモデル等に従って、学習データを与えられ学習を済ませたモデルである。学習済モデル51は、対象領域40についての入力画像31と、浸水推定データ33と、標高データ34とを入力として、対象領域40の各地点の浸水深を出力するモデルである。学習済モデル51は、デコーダー部分のレイヤーと、エンコーダー部分のレイヤーとが対称構造となり、スキップコネクションで接続されたU-Net構造を有している。
 ***動作の説明***
 浸水深推定部22は、ストレージ13に記憶された学習済モデル51を用いて対象領域40の各地点の浸水深を推定する。具体的には、浸水深推定部22は、入力画像31と、浸水推定データ33及び標高データ34とを学習済モデル51に対して入力することにより、対象領域40の各地点の浸水深を取得する。
 ***実施の形態3の効果***
 以上のように、実施の形態3に係る浸水深推定装置10は、学習済モデル51を用いて浸水深を推定する。学習済モデル51は入力として浸水推定データ33を用いるため、精度よく浸水深を推論することが可能である。
 ***他の構成***
 <変形例4>
 実施の形態3では、学習済モデル51は、入力画像31を入力として浸水深を出力するモデルであるとして説明した。学習済モデル51は、浸水域データ32を入力として浸水深を出力するモデルであっても構わない。
 学習済モデル51が入力画像31に代えて浸水域データ32を入力として浸水深を出力するモデルである場合には、図8に示すように、浸水深推定装置10は、浸水域推定部21を備える。そして、浸水域推定部21が図3のステップS11を実行して浸水域データ32が生成された後に、推論実行部27は、浸水域データ32と、浸水推定データ33及び標高データ34とを学習済モデル51に対して入力することにより、対象領域40の各地点の浸水深を取得する。
 なお、変形例1で説明したように、浸水深推定部22は、浸水深推定装置10の外部で生成された浸水域データ32を取得してもよい。この場合には、推論実行部27は、外部で生成された浸水域データ32を学習済モデル51に対して入力することにより、対象領域40の各地点の浸水深を取得する。
 実施の形態4.
 実施の形態4では、実施の形態3で用いられた学習済モデル51を生成する学習装置60について説明する。
 ***構成の説明***
 図9を参照して、実施の形態4に係る学習装置60の構成を説明する。
 学習装置60は、コンピュータである。
 学習装置60は、プロセッサ61と、メモリ62と、ストレージ63と、通信インタフェース64とのハードウェアを備える。プロセッサ61は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。プロセッサ61と、メモリ62と、ストレージ63と、通信インタフェース64とは、それぞれプロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14と同様である。
 学習装置60は、機能構成要素として、モデル生成部71を備える。モデル生成部71の機能はソフトウェアにより実現される。
 ストレージ63には、学習装置60の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ61によりメモリ62に読み込まれ、プロセッサ61によって実行される。これにより、学習装置60の各機能構成要素の機能が実現される。
 図9では、プロセッサ61は、1つだけ示されていた。しかし、プロセッサ61は、複数であってもよく、複数のプロセッサ61が、各機能を実現するプログラムを連携して実行してもよい。
 ***動作の説明***
 モデル生成部71が学習済モデル51を生成するために用いる学習アルゴリズムとしては、教師あり学習と、教師なし学習と、強化学習と等の公知のアルゴリズムを用いることができる。ここでは、一例として、教師あり学習のアルゴリズムを用いた場合について説明する。教師あり学習とは、入力と結果とのデータの組を学習データとして与え、学習データにある特徴を学習して、入力から結果を推論するモデルを生成する手法である。
 また、ここでは、ニューラルネットワークを適用した場合について説明する。ニューラルネットワークは、複数のニューロンからなる入力層と、複数のニューロンからなる中間層(隠れ層)と、複数のニューロンからなる出力層とで構成される。中間層は、1層又は2層以上である。
 モデル生成部71は、入力画像31と、浸水推定データ33と、標高データ34と、各地点の浸水深との組を1つの学習データとして、複数の学習データの入力を受け付ける。ここで、各地点の浸水深は、人手によって計測された値と、水面と水底の地形とを同時計測可能なグリーンレーザースキャナーを用いて計測された値といった値を用いることが考えられる。
 ここで、教師あり学習では、入力画像31と、浸水推定データ33と、標高データ34と、各地点の浸水深とは、同一被写体を収めたペアのデータである必要がある。つまり、入力画像31と、浸水推定データ33と、標高データ34と、各地点の浸水深とが適切に対応したデータである必要がある。なお、教師なし学習の場合には、この必要はない。
 モデル生成部71は、ニューラルネットワークモデルに従い、入力画像31と、浸水推
定データ33と、標高データ34とに対応する、各地点の浸水深を学習する。
 これにより、モデル生成部71は、入力画像31と、浸水推定データ33と、標高データ34とから、各地点の浸水深を推論する学習済モデル51を生成する。モデル生成部71は、生成された学習済モデル51をストレージ63に書き込む。
 モデル生成部71によって生成された学習済モデル51が伝送路を介して送信されるといった方法により浸水深推定装置10に受け渡しされ、浸水深推定装置10のストレージ13に記憶される。
 ***実施の形態4の効果***
 以上のように、実施の形態4に係る学習装置60は、実施の形態3に係る浸水深推定装置10が用いる学習済モデル51を生成可能である。
 ***他の構成***
 <変形例5>
 実施の形態4では、実施の形態3に対応する学習済モデル51を生成する学習装置60を説明した。変形例4に対応する学習済モデル51を生成する場合には、学習データは、入力画像31に代えて、浸水域データ32が含まれることになる。
 <変形例6>
 学習装置60の機能であるモデル生成部71の機能は、ソフトウェアによって実現されるとした。しかし、浸水深推定装置10の機能と同様に、モデル生成部71の機能は、ハードウェアによって実現されてもよい。
 なお、以上の説明における「部」を、「回路」、「工程」、「手順」、「処理」又は「処理回路」に読み替えてもよい。
 以上、本開示の実施の形態及び変形例について説明した。これらの実施の形態及び変形例のうち、いくつかを組み合わせて実施してもよい。また、いずれか1つ又はいくつかを部分的に実施してもよい。なお、本開示は、以上の実施の形態及び変形例に限定されるものではなく、必要に応じて種々の変更が可能である。
 10 浸水深推定装置、11 プロセッサ、12 メモリ、13 ストレージ、14 通信インタフェース、15 電子回路、21 浸水域推定部、22 浸水深推定部、23 データ取得部、24 浸水域分割部、25 水位算出部、26 深さ算出部、27 推論実行部、31 入力画像、32 浸水域データ、33 浸水推定データ、34 標高データ、40 対象領域、41 浸水域、42 分割領域、43 境界領域、51 学習済モデル、60 学習装置、61 プロセッサ、62 メモリ、63 ストレージ、64 通信インタフェース、71 モデル生成部。

Claims (8)

  1.  対象領域における浸水域を示す浸水域データと、前記対象領域について浸水発生時における水位が変化する境界を示す浸水推定データと、前記対象領域の各地点の標高を示す標高データとを取得するデータ取得部と、
     前記データ取得部によって取得された前記浸水域データが示す前記浸水域を前記浸水推定データが示す前記境界により1つ以上の分割領域に分割する浸水域分割部と、
     前記浸水域分割部によって分割されて得られた前記1つ以上の分割領域それぞれを対象として、対象の分割領域の境界領域について前記標高データが示す前記標高から前記対象の分割領域における水位を算出する水位算出部と、
     前記各地点を対象として、対象の地点について前記標高データが示す標高と、前記対象の地点を含む分割領域について前記水位算出部によって算出された水位とから、前記対象の地点についての浸水深を算出する深さ算出部と
    を備える浸水深推定装置。
  2.  前記水位算出部は、前記対象の分割領域の境界領域における複数の地点について前記標高データが示す前記標高の統計量から、前記対象の分割領域全体の水位を算出する
    請求項1に記載の浸水深推定装置。
  3.  前記水位算出部は、前記対象の分割領域の境界領域について前記標高データが示す前記標高を前記対象の分割領域の内部方向に充填することにより、前記対象の分割領域の内部の各地点における標高を推定し、推定された前記内部の各地点における標高から前記内部の各地点の水位を算出し、
     前記深さ算出部は、前記対象の地点について前記標高データが示す標高と、前記対象の地点についての水位とから前記対象の地点についての前記浸水深を算出する
    請求項1に記載の浸水深推定装置。
  4.  前記浸水深推定装置は、さらに、
     前記対象領域に対する検出を行い得られたリモートセンシングデータである入力画像から前記浸水域データを生成する浸水域推定部
    を備える請求項1から3までのいずれか1項に記載の浸水深推定装置。
  5.  コンピュータが、対象領域における浸水域を示す浸水域データと、前記対象領域について浸水発生時における水位が変化する境界を示す浸水推定データと、前記対象領域の各地点の標高を示す標高データとを取得し、
     コンピュータが、前記浸水域データが示す前記浸水域を前記浸水推定データが示す前記境界により1つ以上の分割領域に分割し、
     コンピュータが、前記1つ以上の分割領域それぞれを対象として、対象の分割領域の境界領域について前記標高データが示す前記標高から前記対象の分割領域における水位を算出し、
     コンピュータが、前記各地点を対象として、対象の地点について前記標高データが示す標高と、前記対象の地点を含む分割領域について算出された水位とから、前記対象の地点についての浸水深を算出する浸水深推定方法。
  6.  対象領域における浸水域を示す浸水域データと、前記対象領域について浸水発生時における水位が変化する境界を示す浸水推定データと、前記対象領域の各地点の標高を示す標高データとを取得するデータ取得処理と、
     前記データ取得処理によって取得された前記浸水域データが示す前記浸水域を前記浸水推定データが示す前記境界により1つ以上の分割領域に分割する浸水域分割処理と、
     前記浸水域分割処理によって分割されて得られた前記1つ以上の分割領域それぞれを対
    象として、対象の分割領域の境界領域について前記標高データが示す前記標高から前記対象の分割領域における水位を算出する水位算出処理と、
     前記各地点を対象として、対象の地点について前記標高データが示す標高と、前記対象の地点を含む分割領域について前記水位算出処理によって算出された水位とから、前記対象の地点についての浸水深を算出する深さ算出処理と
    を行う浸水深推定装置としてコンピュータを機能させる浸水深推定プログラム。
  7.  対象領域に対する検出を行い得られたリモートセンシングデータである入力画像又は前記対象領域における浸水域を示す浸水域データと、前記対象領域の各地点の標高を示す標高データと、前記対象領域について浸水発生時における水位が変化する境界を示す浸水推定データとを入力として、前記各地点の浸水深を出力する学習済モデルを用いて、前記各地点の浸水深を推定する浸水深推定部
    を備える浸水深推定装置。
  8.  対象領域に対する検出を行い得られたリモートセンシングデータである入力画像又は前記対象領域における浸水域を示す浸水域データと、前記対象領域の各地点の標高を示す標高データと、前記対象領域について浸水発生時における水位が変化する境界を示す浸水推定データと、前記各地点の浸水深とを学習データとして、前記各地点の浸水深を出力する学習済モデルを生成するモデル生成部
    を備える学習装置。
PCT/JP2022/003705 2021-08-17 2022-02-01 浸水深推定装置、浸水深推定方法、浸水深推定プログラム及び学習装置 WO2023021721A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023542183A JP7483149B2 (ja) 2021-08-17 2022-02-01 浸水深推定装置、浸水深推定方法、浸水深推定プログラム及び学習装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-132996 2021-08-17
JP2021132996 2021-08-17

Publications (1)

Publication Number Publication Date
WO2023021721A1 true WO2023021721A1 (ja) 2023-02-23

Family

ID=85240461

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/003705 WO2023021721A1 (ja) 2021-08-17 2022-02-01 浸水深推定装置、浸水深推定方法、浸水深推定プログラム及び学習装置

Country Status (2)

Country Link
JP (1) JP7483149B2 (ja)
WO (1) WO2023021721A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2623827A (en) * 2022-10-31 2024-05-01 Iceye Oy Determining flood depth of an area object

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018132504A (ja) * 2017-02-17 2018-08-23 富士通株式会社 浸水状況推定システム、浸水状況推定プログラム、浸水状況推定方法
WO2021084697A1 (ja) * 2019-10-31 2021-05-06 三菱電機株式会社 災害対応支援装置および災害対応支援方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018132504A (ja) * 2017-02-17 2018-08-23 富士通株式会社 浸水状況推定システム、浸水状況推定プログラム、浸水状況推定方法
WO2021084697A1 (ja) * 2019-10-31 2021-05-06 三菱電機株式会社 災害対応支援装置および災害対応支援方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HONDA, KENICHI ET AL.: "A Study on Rapid Estimation of Inundation Area and Flood Depth during Heavy Rain Disaster Using Satellite SAR", JOURNAL OF REMOTE SENSING SOCIETY OF JAPAN, vol. 40, no. 3, 2020, pages 158 - 162

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2623827A (en) * 2022-10-31 2024-05-01 Iceye Oy Determining flood depth of an area object

Also Published As

Publication number Publication date
JPWO2023021721A1 (ja) 2023-02-23
JP7483149B2 (ja) 2024-05-14

Similar Documents

Publication Publication Date Title
CN107145874B (zh) 复杂背景sar图像中的舰船目标检测与鉴别方法
WO2017071160A1 (zh) 一种大幅面遥感图像海陆分割的方法及系统
Shu et al. Shoreline extraction from RADARSAT-2 intensity imagery using a narrow band level set segmentation approach
Park et al. Single image haze removal with WLS-based edge-preserving smoothing filter
CN107507193A (zh) 高分三号合成孔径雷达影像围填海信息自动提取方法
CN114563378B (zh) 湖库蓝藻水华空间分布定量描述方法、装置、介质和设备
CN111275633A (zh) 基于图像分割的点云去噪方法、系统、装置和存储介质
WO2023021721A1 (ja) 浸水深推定装置、浸水深推定方法、浸水深推定プログラム及び学習装置
Wiehle et al. Automated waterline detection in the Wadden Sea using high-resolution TerraSAR-X images
CN114648547B (zh) 用于反无人机红外探测系统的弱小目标检测方法和装置
Wang et al. Multiscale single image dehazing based on adaptive wavelet fusion
CN113570554A (zh) 一种基于场景深度的单幅图像能见度检测方法
Kim et al. Learning Structure for Concrete Crack Detection Using Robust Super‐Resolution with Generative Adversarial Network
CN107274424A (zh) 一种彩色图像的分割方法及装置
CN110533663B (zh) 一种图像视差确定方法、装置、设备及系统
Arai et al. Method for Frequent High Resolution of Optical Sensor Image Acquisition using Satellite-Based SAR Image for Disaster Mitigation
Nazir et al. Flood detection/monitoring using adjustable histogram equalization technique
DE112019007064B4 (de) Bewegungsbetrag-schätzeinrichtung, bewegungsbetrag-schätzverfahren und bewegungsbetrag-schätzprogramm
Fu et al. Image noise level estimation based on a new adaptive superpixel classification
Qiao et al. Visibility enhancement for underwater robots based on an improved underwater light model
Ali et al. A comparative study of various image dehazing techniques
US10896333B2 (en) Method and device for aiding the navigation of a vehicle
Qayyum et al. Monitoring of vegetation near power lines based on dynamic programming using satellite stereo images
JP2023122016A (ja) 情報処理装置、情報処理プログラム及び情報処理方法
Rautenbach et al. Bay of Plenty coastal flood modelling and mapping

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22858046

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023542183

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2022858046

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022858046

Country of ref document: EP

Effective date: 20240318