WO2023021721A1 - 浸水深推定装置、浸水深推定方法、浸水深推定プログラム及び学習装置 - Google Patents
浸水深推定装置、浸水深推定方法、浸水深推定プログラム及び学習装置 Download PDFInfo
- Publication number
- WO2023021721A1 WO2023021721A1 PCT/JP2022/003705 JP2022003705W WO2023021721A1 WO 2023021721 A1 WO2023021721 A1 WO 2023021721A1 JP 2022003705 W JP2022003705 W JP 2022003705W WO 2023021721 A1 WO2023021721 A1 WO 2023021721A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- area
- inundation
- target
- data
- altitude
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 27
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims abstract description 73
- 238000004364 calculation method Methods 0.000 claims abstract description 26
- 238000012545 processing Methods 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 16
- 238000001514 detection method Methods 0.000 claims description 3
- 230000008685 targeting Effects 0.000 claims 1
- 238000012986 modification Methods 0.000 description 16
- 230000004048 modification Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000012876 topography Methods 0.000 description 2
- 238000006424 Flood reaction Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01W—METEOROLOGY
- G01W1/00—Meteorology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
Definitions
- This disclosure relates to technology for estimating the depth of flooding when flood damage occurs.
- ground sensors were used as a method of understanding flood damage during floods, heavy rains, and typhoons.
- a method of grasping flooding using ground sensors is useful for grasping the state of flooding at a specific spot such as an elevator or a power plant.
- the method of inundation detection using ground sensors is not suitable for acquiring information that spreads in the plane direction, such as which area is more damaged in a situation where damage occurs over a wide area.
- Non-Patent Document 1 A method for estimating flood depth using remote sensing data has been proposed as a method for understanding flood damage in a wide area (see Non-Patent Document 1).
- a flooded range (flooded area) is estimated using a SAR satellite image, and the depth of flooded is calculated from altitude information within the flooded area.
- Non-Patent Document 1 the inundation depth is represented by the difference between the water level and the absolute value of the altitude information. Therefore, according to Non-Patent Document 1, in the case of large-scale flood damage with a wide flooded area, a large amount of flooding occurs in a low altitude area. However, the actual inundation situation is affected by factors such as the direction of flood water flow and the catchment area, which is an area with a small elevation gradient and where water gathers, and cannot be expressed only by the absolute value of elevation. An object of the present disclosure is to make it possible to accurately estimate the flood depth during flood damage.
- the inundation depth estimation device is Data acquisition for acquiring inundation area data indicating a flooded area in a target area, inundation estimation data indicating a boundary where a water level changes when flooding occurs in the target area, and elevation data indicating an elevation of each point in the target area.
- Department and a flooded area dividing unit that divides the flooded area indicated by the flooded area data acquired by the data acquisition unit into one or more divided areas according to the boundary indicated by the estimated flooded data; For each of the one or more divided areas obtained by dividing by the flooded area division unit, a water level in the target divided area is calculated from the altitude indicated by the altitude data for the boundary area of the target divided area.
- a flood depth estimation device comprising a depth calculation unit for calculating. Prepare.
- the inundation depth is estimated using inundation estimation data that indicates the boundary where the water level changes when inundation occurs in the target area.
- the inundation depth can be estimated with high accuracy.
- FIG. 1 is a configuration diagram of a flood depth estimation device 10 according to Embodiment 1.
- FIG. 4 is a flowchart of overall processing of the inundation depth estimation device 10 according to Embodiment 1; 4 is a flowchart of inundation depth estimation processing according to Embodiment 1; FIG. 4 is an explanatory diagram of submerged area division processing according to the first embodiment; FIG. 4 is an explanatory diagram of the effect of the first embodiment;
- the block diagram of the inundation depth estimation apparatus 10 which concerns on the modified example 2.
- FIG. FIG. 10 is a configuration diagram of a flood depth estimation device 10 according to Embodiment 3; The block diagram of the inundation depth estimation apparatus 10 which concerns on the modification 4.
- FIG. FIG. 11 is a configuration diagram of a learning device 60 according to Embodiment 4;
- Embodiment 1 *** Configuration description *** A configuration of a flood depth estimation device 10 according to Embodiment 1 will be described with reference to FIG.
- the inundation depth estimation device 10 is a computer.
- the inundation depth estimation device 10 includes hardware including a processor 11 , a memory 12 , a storage 13 and a communication interface 14 .
- the processor 11 is connected to other hardware via signal lines and controls these other hardware.
- the processor 11 is an IC (Integrated Circuit) that performs processing. Specific examples of the processor 11 are a CPU (Central Processing Unit), a DSP (Digital Signal Processor), and a GPU (Graphics Processing Unit).
- a CPU Central Processing Unit
- DSP Digital Signal Processor
- GPU Graphics Processing Unit
- the memory 12 is a storage device that temporarily stores data. Specific examples of the memory 12 include SRAM (Static Random Access Memory) and DRAM (Dynamic Random Access Memory).
- the storage 13 is a storage device that stores data.
- a specific example of the storage 13 is an HDD (Hard Disk Drive).
- the storage 13 includes SD (registered trademark, Secure Digital) memory card, CF (Compact Flash, registered trademark), NAND flash, flexible disk, optical disk, compact disk, Blu-ray (registered trademark) disk, DVD (Digital Versatile Disk), etc. It may be a portable recording medium.
- the communication interface 14 is an interface for communicating with external devices.
- the communication interface 14 is, for example, an Ethernet (registered trademark), USB (Universal Serial Bus), HDMI (registered trademark, High-Definition Multimedia Interface) port.
- the inundation depth estimation device 10 includes a inundation area estimation unit 21 and a inundation depth estimation unit 22 as functional components.
- the flood depth estimation unit 22 includes a data acquisition unit 23 , a flood area division unit 24 , a water level calculation unit 25 and a depth calculation unit 26 .
- the function of each functional component of the inundation depth estimation device 10 is implemented by software.
- the storage 13 stores a program that implements the function of each functional component of the inundation depth estimation device 10 . This program is read into the memory 12 by the processor 11 and executed by the processor 11 . Thereby, the function of each functional component of the inundation depth estimation device 10 is realized.
- processor 11 Only one processor 11 is shown in FIG. However, there may be a plurality of processors 11, and the plurality of processors 11 may cooperate to execute programs that implement each function.
- FIG. 1 The operation procedure of the inundation depth estimation device 10 according to the first embodiment corresponds to the inundation depth estimation method according to the first embodiment.
- a program that realizes the operation of the inundation depth estimation device 10 according to the first embodiment corresponds to the inundation depth estimation program according to the first embodiment.
- Step S11 flooded area estimation process
- the flooded area estimation unit 21 estimates a flooded area 41 in the target area 40 from the input image 31 and generates flooded area data 32 indicating the flooded area 41 .
- the input image 31 is remote sensing data obtained by performing detection on the target area 40 .
- Remote sensing may be performed using an aircraft or UAV (Unmanned Aerial Vehicle, drone), an optical satellite, an SAR (Synthetic Aperture Radar) satellite, or the like.
- UAV Unmanned Aerial Vehicle, drone
- optical satellite an optical satellite
- SAR Synthetic Aperture Radar
- the flooded area estimation unit 21 uses, for example, a normalized difference water index (NDWI), which is a water index using a near-infrared band image. can be considered.
- NDWI normalized difference water index
- ⁇ NIR and ⁇ SWIR are measured values in NIR (Near Inreared) and SWIR (Short-Wave Infrared) bands at a certain point, respectively, NDWI is expressed by Equation (1).
- NDWI normalized difference water index
- the flooded area estimation unit 21 compares the SAR images before and after the occurrence of flood damage, as described in Non-Patent Document 1, for example, It is conceivable to extract an area where the altitude has decreased as an inundation range.
- the flooded area 41 can be identified using various remote sensing data obtained by combining sensors and measuring devices, without being limited to the method described above.
- Step S12 Inundation depth estimation process
- the inundation depth estimation unit 22 receives the inundation area data 32 generated in step S11, the inundation estimation data 33, and the altitude data 34, and estimates the inundation depth at each point in the target area 40.
- the inundation estimation data 33 indicates boundaries of the target area 40 where the water level changes when inundation occurs.
- the inundation estimation data 33 indicates rivers and tributaries (hereinafter referred to as rivers, etc.) in the target area 40 .
- the inundation estimation data 33 is, as a specific example, a hazard map created by a flood simulation or the like when a river embankment breaks. In the hazard map, areas are divided or labeled according to the level of inundation water level at the time of flood damage.
- the estimated inundation data 33 in Japan is, for example, a hazard map published by the Geospatial Information Authority of Japan (https://disaportal.gsi.go.jp/hazardmap/copyright/opendata.html). Not limited to this, it is also possible to use a hazard map created by a local government or the like as the inundation estimation data 33 .
- Elevation data 34 indicates the elevation of each point in target area 40 .
- the elevation data 34 is a DEM (Digital Elevation Model) created by a technique such as laser surveying or photogrammetry.
- DEM Digital Elevation Model
- 5m mesh DEM5A or the like published by the Geospatial Information Authority of Japan can be used as the elevation data 34 .
- SRTM-3 Stem Rador Topography Mission
- DEM data with high vertical resolution as the altitude data 34 .
- Step S12 in FIG. 2 The inundation depth estimation process (step S12 in FIG. 2) according to the first embodiment will be described with reference to FIG. (Step S21: data acquisition process)
- the data acquisition unit 23 acquires the inundation area data 32, the inundation estimation data 33, and the altitude data 34 generated in step S11.
- Step S22 Submerged area dividing process
- the flooded area dividing unit 24 divides the flooded area 41 indicated by the flooded area data 32 acquired in step S21 into one or more divided areas 42 based on the boundaries and rivers indicated by the flooded estimation data 33 .
- the inundation area dividing unit 24 refers to the divisions or labels in the inundation estimation data 33 and extracts boundary information indicating the positions of the boundaries and rivers, etc., thereby dividing the inundation area 41 into one or more divided areas. Divide into 42.
- FIG. 4 shows flooded area data 32 .
- (B) is a schematic diagram of inundation estimation data 33.
- FIG. (C) shows boundary information extracted from the inundation estimation data 33 .
- (D) is a schematic diagram showing a state in which the flooded area 41 shown in (A) is divided into one or more divided areas 42 by the boundaries indicated by the boundary information shown in (C) and rivers and the like.
- the inundation estimation data 33 are labeled for each level of inundation water level at the time of flood damage, and the positions of rivers and the like are indicated. As such, it is possible to identify the boundaries of differently labeled regions.
- the boundary information shown in (C) from the specified boundary and the river or the like indicated by the inundation estimation data 33 .
- the flooded area 41 shown in (A) is divided into one or more submerged areas 41 by overlapping the boundaries indicated by the boundary information shown in (C) with rivers and the like.
- a division into regions 42 is possible. Note that when one flooded area 41 includes a boundary, a river, or the like, the flooded area 41 is divided into a plurality of divided areas 42 .
- Step S23 water level calculation process
- the water level calculation unit 25 calculates the boundary area 43 of the target divided area 42 from the altitude indicated by the altitude data 34 Calculate the water level.
- the boundary region 43 is a boundary portion region between the target divided region 42 and other regions.
- the area on the line surrounding the divided area 42A is the boundary area 43 for the divided area 42A
- the area on the line surrounding the divided area 42B is the boundary area 43 for the divided area 42B
- the area on the line surrounding the divided area 42C is the boundary area 43 for the divided area 42C.
- the water level calculation unit 25 calculates the water level of the entire target divided area from the statistic of altitude indicated by the altitude data for a plurality of points in the boundary area 43 of the target divided area 42 .
- the statistic include an average value, a median value, a mode value, and combinations of these values.
- the water level calculation unit 25 calculates the water level directly from the statistic, or calculates the water level by adding a correction value to the statistic.
- Step S24 depth calculation processing
- the depth calculation unit 26 calculates the depth of each point in the target area 40 based on the altitude indicated by the altitude data 34 for the target point and the water level calculated in step S23 for the divided area 42 including the target point. Calculate the inundation depth for the point. Specifically, the depth calculator 26 calculates the flood depth by subtracting the altitude indicated by the altitude data 34 for the target point from the water level calculated in step S23 for the divided area 42 including the target point.
- the inundation depth estimation apparatus 10 estimates the inundation depth using the inundation estimation data 33 that indicates the boundary where the water level changes when inundation occurs in the target area.
- the inundation estimation data 33 it is possible to estimate the inundation depth considering the influence of factors such as the direction of flood water flow and the catchment area, which is an area with a small elevation gradient and where water gathers. can be estimated.
- the depth of flooding it is possible to estimate the depth of flooding with high accuracy even in the event of a large-scale flood that covers a wide area of flooding.
- FIGS. 5(a), 5(b) and 5(c) respectively show histograms of sets of elevation information values for flat regions, gradient regions and non-flat regions.
- the base of the set is narrow, and the divergence between the altitude and water level in the map is small regardless of which statistic is selected.
- the slope region (b) the water level is approximately in the middle of the altitude regardless of which statistic is selected.
- the inundation depth estimation apparatus 10 divides the inundation area 41 into one or more divided areas 42 using the boundary where the water level changes when the inundation occurs, which is indicated by the inundation estimation data 33, and rivers, etc. A water level is calculated from the statistics of the boundary area 43 for each divided area 42 . Since the inundation area 41 is divided using the inundation estimation data 33, the division area 42 has a small height difference within the area.
- the inundation depth at the time of inundation cannot be estimated only with the inundation estimation data 33.
- the inundation estimation data 33 it becomes possible to accurately grasp the boundary where the water level changes when inundation occurs.
- the flooded area estimation unit 21 estimated the flooded area 41 and generated the flooded area data 32 .
- the inundation depth estimation unit 22 may acquire the inundation area data 32 generated outside the inundation depth estimation device 10 .
- each functional component is realized by software.
- each functional component may be implemented by hardware.
- this modification 2 the points different from the first embodiment will be described.
- the inundation depth estimation device 10 includes an electronic circuit 15 instead of the processor 11 , memory 12 and storage 13 .
- the electronic circuit 15 is a dedicated circuit that realizes the functions of each functional component, memory 12 and storage 13 .
- the electronic circuit 15 includes a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, a logic IC, a GA (Gate Array), an ASIC (Application Specific Integrated Circuit), and an FPGA (Field-Programmable Gate Array). is assumed. Each functional component may be implemented by one electronic circuit 15, or each functional component may be implemented by being distributed among a plurality of electronic circuits 15. FIG.
- the processor 11, memory 12, storage 13 and electronic circuit 15 are called a processing circuit. That is, the function of each functional component is realized by the processing circuit.
- Embodiment 2 the altitude at each point inside the divided area 42 is estimated by filling the boundary area 43 with the altitude toward the inside of the divided area 42, and the internal altitude is calculated from the estimated altitude at each point inside the divided area 42.
- step S23 the water level calculation unit 25 fills the target divided region 42 with the altitude indicated by the altitude data 34 for each position of the boundary region 43 of the target divided region 42, so that the inside of the target divided region 42 Estimate the elevation at each point in .
- a filling method for example, dilation processing by morphological operation and processing such as patch-based inpainting processing are conceivable.
- the water level calculator 25 calculates the water level for each point from the estimated altitude for that point.
- step S24 the depth calculation unit 26, for each point in the target area 40, calculates the altitude indicated by the altitude data 34 for the target point and the water level calculated for the target point in step S23. Calculate the inundation depth of Specifically, the depth calculator 2 6 calculates the flood depth by subtracting the altitude indicated by the altitude data 34 for the target point from the water level calculated in step S23 for the target point.
- Embodiment 3 differs from Embodiment 1 in that the learned model 51 is used to estimate the flood depth. In the third embodiment, this different point will be explained, and the explanation of the same point will be omitted.
- the configuration of the inundation depth estimation device 10 according to Embodiment 3 will be described with reference to FIG.
- the inundation depth estimation device 10 does not include the inundation area estimation unit 21, and the inundation depth estimation unit 22 replaces the inundation area division unit 24, the water level calculation unit 25, and the depth calculation unit 26 with an inference execution unit. 27 is different from the first embodiment.
- the functions of the inference execution unit 27 are implemented by software or hardware, like other functional components.
- Inundation depth estimation device 10 also stores learned model 51 in storage 13 .
- the trained model 51 is a model that has been given learning data and has completed learning according to a neural network model or the like.
- the learned model 51 is a model that receives the input image 31 of the target area 40 , the inundation estimation data 33 , and the altitude data 34 and outputs the inundation depth at each point of the target area 40 .
- the trained model 51 has a U-Net structure in which the layers of the decoder part and the layers of the encoder part have a symmetrical structure and are connected by skip connections.
- the inundation depth estimation unit 22 estimates the inundation depth at each point in the target area 40 using the learned model 51 stored in the storage 13 . Specifically, the inundation depth estimation unit 22 inputs the input image 31, the inundation estimation data 33, and the altitude data 34 to the learned model 51, thereby obtaining the inundation depth at each point in the target area 40. do.
- the inundation depth estimation device 10 uses the learned model 51 to estimate the inundation depth. Since the learned model 51 uses the inundation estimation data 33 as input, it is possible to infer the inundation depth with high accuracy.
- the learned model 51 is a model that receives the input image 31 and outputs the flood depth.
- the learned model 51 may be a model that receives the inundation area data 32 and outputs the inundation depth.
- the learned model 51 is a model that outputs the flood depth by using the flooded area data 32 instead of the input image 31 as an input, as shown in FIG. Prepare.
- the inference execution unit 27 learns the inundation area data 32, the inundation estimation data 33, and the altitude data 34. By inputting to the finished model 51, the inundation depth at each point in the target area 40 is acquired.
- the inundation depth estimation unit 22 may acquire the inundation area data 32 generated outside the inundation depth estimation device 10 .
- the inference execution unit 27 acquires the flood depth at each point in the target area 40 by inputting the flooded area data 32 generated outside to the learned model 51 .
- Embodiment 4 describes a learning device 60 that generates the trained model 51 used in Embodiment 3.
- FIG. 4 is a learning device 60 that generates the trained model 51 used in Embodiment 3.
- the configuration of a learning device 60 according to Embodiment 4 will be described with reference to FIG.
- Learning device 60 is a computer.
- the learning device 60 includes hardware including a processor 61 , a memory 62 , a storage 63 and a communication interface 64 .
- the processor 61 is connected to other hardware via signal lines and controls these other hardware.
- the processor 61, memory 62, storage 63, and communication interface 64 are similar to the processor 11, memory 12, storage 13, and communication interface 14, respectively.
- the learning device 60 includes a model generator 71 as a functional component.
- the function of the model generator 71 is implemented by software.
- the storage 63 stores a program that implements the function of each functional component of the learning device 60 . This program is read into the memory 62 by the processor 61 and executed by the processor 61 . Thereby, the function of each functional component of the learning device 60 is realized.
- processor 61 Only one processor 61 is shown in FIG. However, there may be a plurality of processors 61, and the plurality of processors 61 may cooperate to execute programs that implement each function.
- supervised learning is a method of generating a model that gives a set of input and result data as learning data, learns features in the learning data, and infers the result from the input.
- a neural network is applied.
- a neural network is composed of an input layer made up of multiple neurons, an intermediate layer (hidden layer) made up of multiple neurons, and an output layer made up of multiple neurons.
- the intermediate layer is one layer or two or more layers.
- the model generation unit 71 accepts input of a plurality of learning data, with each set of the input image 31, the inundation estimation data 33, the altitude data 34, and the inundation depth at each point as one learning data.
- the inundation depth at each point it is conceivable to use a value measured manually and a value measured using a green laser scanner capable of simultaneously measuring the topography of the water surface and the bottom of the water.
- the input image 31, the inundation estimation data 33, the altitude data 34, and the inundation depth at each point must be paired data containing the same subject. In other words, the input image 31, the inundation estimation data 33, the altitude data 34, and the inundation depth at each point need to correspond appropriately.
- the model generator 71 learns the inundation depth at each point corresponding to the input image 31, inundation estimation data 33, and altitude data 34 according to the neural network model. As a result, the model generation unit 71 generates the learned model 51 for inferring the flood depth at each point from the input image 31, the flood estimation data 33, and the altitude data . The model generation unit 71 writes the generated learned model 51 to the storage 63 .
- the learned model 51 generated by the model generating unit 71 is transferred to the inundation depth estimation device 10 by a method such as being transmitted via a transmission line, and stored in the storage 13 of the inundation depth estimation device 10.
- the learning device 60 according to the fourth embodiment can generate the learned model 51 used by the inundation depth estimation device 10 according to the third embodiment.
- the learning device 60 that generates the trained model 51 corresponding to the third embodiment has been described.
- the learning data includes the flooded area data 32 instead of the input image 31 .
- ⁇ Modification 6> It is assumed that the function of the model generation unit 71, which is the function of the learning device 60, is realized by software. However, similar to the function of the inundation depth estimation device 10, the function of the model generator 71 may be implemented by hardware.
- Inundation depth estimation device 11 Processor, 12 Memory, 13 Storage, 14 Communication interface, 15 Electronic circuit, 21 Inundation area estimation unit, 22 Inundation depth estimation unit, 23 Data acquisition unit, 24 Inundation area division unit, 25 Water level calculation unit , 26 depth calculation unit, 27 inference execution unit, 31 input image, 32 inundation area data, 33 inundation estimation data, 34 altitude data, 40 target area, 41 inundation area, 42 division area, 43 boundary area, 51 learned model , 60 learning device, 61 processor, 62 memory, 63 storage, 64 communication interface, 71 model generator.
Landscapes
- Business, Economics & Management (AREA)
- Environmental & Geological Engineering (AREA)
- Engineering & Computer Science (AREA)
- Tourism & Hospitality (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Environmental Sciences (AREA)
- Biodiversity & Conservation Biology (AREA)
- Development Economics (AREA)
- Educational Administration (AREA)
- Atmospheric Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Ecology (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Alarm Systems (AREA)
- Image Processing (AREA)
Abstract
Description
本開示は、水害時における浸水深を精度よく推定可能にすることを目的とする。
対象領域における浸水域を示す浸水域データと、前記対象領域について浸水発生時における水位が変化する境界を示す浸水推定データと、前記対象領域の各地点の標高を示す標高データとを取得するデータ取得部と、
前記データ取得部によって取得された前記浸水域データが示す前記浸水域を前記浸水推定データが示す前記境界により1つ以上の分割領域に分割する浸水域分割部と、
前記浸水域分割部によって分割されて得られた前記1つ以上の分割領域それぞれを対象として、対象の分割領域の境界領域について前記標高データが示す前記標高から前記対象の分割領域における水位を算出する水位算出部と、
前記各地点を対象として、対象の地点について前記標高データが示す標高と、前記対象の地点を含む分割領域について前記水位算出部によって算出された水位とから、前記対象の地点についての前記浸水深を算出する深さ算出部と
を備える浸水深推定装置。
を備える。
***構成の説明***
図1を参照して、実施の形態1に係る浸水深推定装置10の構成を説明する。
浸水深推定装置10は、コンピュータである。
浸水深推定装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
ストレージ13には、浸水深推定装置10の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。これにより、浸水深推定装置10の各機能構成要素の機能が実現される。
図2から図4を参照して、実施の形態1に係る浸水深推定装置10の動作を説明する。
実施の形態1に係る浸水深推定装置10の動作手順は、実施の形態1に係る浸水深推定方法に相当する。また、実施の形態1に係る浸水深推定装置10の動作を実現するプログラムは、実施の形態1に係る浸水深推定プログラムに相当する。
(ステップS11:浸水域推定処理)
浸水域推定部21は、入力画像31から対象領域40における浸水域41を推定して、浸水域41を示す浸水域データ32を生成する。
浸水深推定部22は、ステップS11で生成された浸水域データ32と、浸水推定データ33及び標高データ34とを入力として、対象領域40の各地点の浸水深を推定する。
を示す。また、浸水推定データ33は、対象領域40における河川と支川(以下、河川等)を示す。
浸水推定データ33は、具体例としては、河川堤防決壊時の氾濫シミュレーション等によって作成されるハザードマップである。ハザードマップでは、水害発生時の浸水水位のレベルに応じて、領域毎に区分けあるいはラベル付けされている。浸水推定データ33は、日本国内であれば、例えば、国土地理院によって公開されるハザードマップである(https://disaportal.gsi.go.jp/hazardmap/copyright/opendata.html)。これに限らず、地方自治体等が作成したハザードマップを浸水推定データ33として利用することも可能である。
標高データ34は、レーザ測量又は写真測量といった手法で作成されたDEM(Digital Elevation Model)である。日本国内であれば、国土地理院が公開している5mメッシュDEM5A等を標高データ34として利用可能である。全世界であれば、SRTM-3(Shuttle Rador Topography Mission)を標高データ34として利用可能である。また、垂直分解能の高いDEMデータを標高データ34として利用することも可能である。
(ステップS21:データ取得処理)
データ取得部23は、ステップS11で生成された浸水域データ32と、浸水推定データ33及び標高データ34とを取得する。
浸水域分割部24は、ステップS21で取得された浸水域データ32が示す浸水域41を、浸水推定データ33が示す境界と河川等とにより、1つ以上の分割領域42に分割する。この際、浸水域分割部24は、浸水推定データ33の区分け又はラベルを参照して、境界と河川等との位置を示す境界情報を抽出することにより、浸水域41を1つ以上の分割領域42に分割する。
(B)では、浸水推定データ33は水害発生時の浸水水位のレベル毎にラベル付けされるとともに、河川等の位置が示されている。そのため、異なるラベルが付された領域の境界を特定することが可能である。したがって、特定された境界と、浸水推定データ33が示す河川等とから、(C)に示す境界情報を得ることが可能である。そして、(D)に示すように、(A)に示す浸水域41に対して、(C)に示す境界情報が示す境界と河川等とを重ねることにより、浸水域41を1つ以上の分割領域42に分割することが可能である。なお、1つの浸水域41に境界又は河川等が含まれる場合に、浸水域41が複数の分割領域42に分割される。
水位算出部25は、ステップS22で分割されて得られた1つ以上の分割領域42それぞれを対象として、対象の分割領域42の境界領域43について標高データ34が示す標高から対象の分割領域42における水位を算出する。
境界領域43は、対象の分割領域42におけるその他の領域との境界部分の領域である。例えば、図4の(D)であれば、分割領域42Aを囲む線上の領域が分割領域42Aに
ついての境界領域43であり、分割領域42Bを囲む線上の領域が分割領域42Bについての境界領域43であり、分割領域42Cを囲む線上の領域が分割領域42Cについての境界領域43である。
深さ算出部26は、対象領域40における各地点を対象として、対象の地点について標高データ34が示す標高と、対象の地点を含む分割領域42についてステップS23で算出された水位とから、対象の地点についての浸水深を算出する。具体的には、深さ算出部26は、対象の地点を含む分割領域42についてステップS23で算出された水位から、対象の地点について標高データ34が示す標高を減じて、浸水深を算出する。
以上のように、実施の形態1に係る浸水深推定装置10は、対象領域について浸水発生時における水位が変化する境界を示す浸水推定データ33を用いて浸水深を推定する。浸水推定データ33を用いることにより、氾濫した水が流れる方向と、標高の勾配が少なく水が集まる領域である集水域といった要因の影響を考慮した浸水深の推定が可能となり、浸水深を精度よく推定可能である。
その結果、広範な浸水域が発生する大規模な水害発生時においても、浸水深を高精度に推定可能である。
実施の形態1に係る浸水深推定装置10は、浸水推定データ33が示す浸水発生時における水位が変化する境界と河川等とを用いて浸水域41を1つ以上の分割領域42に分割し、各分割領域42について境界領域43の統計量から水位を算出する。分割領域42は、浸水推定データ33を用いて浸水域41が分割されるため、領域内における高低差が小さい。
そのため、1つの分割領域42が、過度な勾配がある勾配領域になること、及び、過度な凹凸がある非平坦領域になることが防がれる。つまり、図5の(b)(c)のような状態は発生しづらくなる。その結果、分割領域42について境界領域43の統計量から水位を算出することにより、分割領域42についての水位を精度よく算出することが可能である。水位が精度よく算出されれば、浸水深も精度よく推定されることになる。
<変形例1>
実施の形態1では、浸水域推定部21が浸水域41を推定し、浸水域データ32を生成した。しかし、浸水深推定部22は、浸水深推定装置10の外部で生成された浸水域データ32を取得してもよい。
実施の形態1では、各機能構成要素がソフトウェアで実現された。しかし、変形例2として、各機能構成要素はハードウェアで実現されてもよい。この変形例2について、実施の形態1と異なる点を説明する。
各機能構成要素がハードウェアで実現される場合には、浸水深推定装置10は、プロセッサ11とメモリ12とストレージ13とに代えて、電子回路15を備える。電子回路15は、各機能構成要素と、メモリ12と、ストレージ13との機能とを実現する専用の回路である。
各機能構成要素を1つの電子回路15で実現してもよいし、各機能構成要素を複数の電子回路15に分散させて実現してもよい。
変形例3として、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
実施の形態2は、境界領域43について標高を分割領域42の内部方向に充填することにより、分割領域42の内部の各地点における標高を推定し、推定された内部の各地点における標高から内部の各地点の水位を算出する点が実施の形態1と異なる。実施の形態2では、この異なる点を説明し、同一の点については説明を省略する。
図3のステップS23及びステップS24の処理が実施の形態1と異なる。
ステップS23で水位算出部25は、対象の分割領域42の境界領域43の各位置について標高データ34が示す標高を対象の分割領域42の内部方向に充填することにより、対象の分割領域42の内部の各地点における標高を推定する。充填する方法としては、例えば、モルフォロジー演算による膨張処理と、パッチベースのインペインティング処理といった処理が考えられる。水位算出部25は、各地点について推定された標高からその地点についての水位を算出する。
6は、対象の地点についてステップS23で算出された水位から、対象の地点について標高データ34が示す標高を減じて、浸水深を算出する。
これにより、1つの分割領域42内で、異なる複数の水位が算出されることになる。例えば、分割領域42に若干の勾配がある場合には、標高が高い側と低い側とで異なる水位が適切に算出されることになる。その結果、浸水深がより精度よく推定されることになる。
実施の形態3は、学習済モデル51を用いて浸水深を推定する点が実施の形態1と異なる。実施の形態3では、この異なる点を説明し、同一の点については説明を省略する。
図7を参照して、実施の形態3に係る浸水深推定装置10の構成を説明する。
浸水深推定装置10は、浸水域推定部21を備えていない点と、浸水深推定部22が、浸水域分割部24と水位算出部25と深さ算出部26とに代えて、推論実行部27を備える点とが実施の形態1と異なる。推論実行部27の機能は、他の機能構成要素と同様に、ソフトウェア又はハードウェアによって実現される。
また、浸水深推定装置10は、ストレージ13に、学習済モデル51が記憶される。学習済モデル51は、ニューラルネットワークモデル等に従って、学習データを与えられ学習を済ませたモデルである。学習済モデル51は、対象領域40についての入力画像31と、浸水推定データ33と、標高データ34とを入力として、対象領域40の各地点の浸水深を出力するモデルである。学習済モデル51は、デコーダー部分のレイヤーと、エンコーダー部分のレイヤーとが対称構造となり、スキップコネクションで接続されたU-Net構造を有している。
浸水深推定部22は、ストレージ13に記憶された学習済モデル51を用いて対象領域40の各地点の浸水深を推定する。具体的には、浸水深推定部22は、入力画像31と、浸水推定データ33及び標高データ34とを学習済モデル51に対して入力することにより、対象領域40の各地点の浸水深を取得する。
以上のように、実施の形態3に係る浸水深推定装置10は、学習済モデル51を用いて浸水深を推定する。学習済モデル51は入力として浸水推定データ33を用いるため、精度よく浸水深を推論することが可能である。
<変形例4>
実施の形態3では、学習済モデル51は、入力画像31を入力として浸水深を出力するモデルであるとして説明した。学習済モデル51は、浸水域データ32を入力として浸水深を出力するモデルであっても構わない。
学習済モデル51が入力画像31に代えて浸水域データ32を入力として浸水深を出力するモデルである場合には、図8に示すように、浸水深推定装置10は、浸水域推定部21を備える。そして、浸水域推定部21が図3のステップS11を実行して浸水域データ32が生成された後に、推論実行部27は、浸水域データ32と、浸水推定データ33及び標高データ34とを学習済モデル51に対して入力することにより、対象領域40の各地点の浸水深を取得する。
実施の形態4では、実施の形態3で用いられた学習済モデル51を生成する学習装置60について説明する。
図9を参照して、実施の形態4に係る学習装置60の構成を説明する。
学習装置60は、コンピュータである。
学習装置60は、プロセッサ61と、メモリ62と、ストレージ63と、通信インタフェース64とのハードウェアを備える。プロセッサ61は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。プロセッサ61と、メモリ62と、ストレージ63と、通信インタフェース64とは、それぞれプロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14と同様である。
ストレージ63には、学習装置60の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ61によりメモリ62に読み込まれ、プロセッサ61によって実行される。これにより、学習装置60の各機能構成要素の機能が実現される。
モデル生成部71が学習済モデル51を生成するために用いる学習アルゴリズムとしては、教師あり学習と、教師なし学習と、強化学習と等の公知のアルゴリズムを用いることができる。ここでは、一例として、教師あり学習のアルゴリズムを用いた場合について説明する。教師あり学習とは、入力と結果とのデータの組を学習データとして与え、学習データにある特徴を学習して、入力から結果を推論するモデルを生成する手法である。
また、ここでは、ニューラルネットワークを適用した場合について説明する。ニューラルネットワークは、複数のニューロンからなる入力層と、複数のニューロンからなる中間層(隠れ層)と、複数のニューロンからなる出力層とで構成される。中間層は、1層又は2層以上である。
ここで、教師あり学習では、入力画像31と、浸水推定データ33と、標高データ34と、各地点の浸水深とは、同一被写体を収めたペアのデータである必要がある。つまり、入力画像31と、浸水推定データ33と、標高データ34と、各地点の浸水深とが適切に対応したデータである必要がある。なお、教師なし学習の場合には、この必要はない。
モデル生成部71は、ニューラルネットワークモデルに従い、入力画像31と、浸水推
定データ33と、標高データ34とに対応する、各地点の浸水深を学習する。
これにより、モデル生成部71は、入力画像31と、浸水推定データ33と、標高データ34とから、各地点の浸水深を推論する学習済モデル51を生成する。モデル生成部71は、生成された学習済モデル51をストレージ63に書き込む。
以上のように、実施の形態4に係る学習装置60は、実施の形態3に係る浸水深推定装置10が用いる学習済モデル51を生成可能である。
<変形例5>
実施の形態4では、実施の形態3に対応する学習済モデル51を生成する学習装置60を説明した。変形例4に対応する学習済モデル51を生成する場合には、学習データは、入力画像31に代えて、浸水域データ32が含まれることになる。
学習装置60の機能であるモデル生成部71の機能は、ソフトウェアによって実現されるとした。しかし、浸水深推定装置10の機能と同様に、モデル生成部71の機能は、ハードウェアによって実現されてもよい。
Claims (8)
- 対象領域における浸水域を示す浸水域データと、前記対象領域について浸水発生時における水位が変化する境界を示す浸水推定データと、前記対象領域の各地点の標高を示す標高データとを取得するデータ取得部と、
前記データ取得部によって取得された前記浸水域データが示す前記浸水域を前記浸水推定データが示す前記境界により1つ以上の分割領域に分割する浸水域分割部と、
前記浸水域分割部によって分割されて得られた前記1つ以上の分割領域それぞれを対象として、対象の分割領域の境界領域について前記標高データが示す前記標高から前記対象の分割領域における水位を算出する水位算出部と、
前記各地点を対象として、対象の地点について前記標高データが示す標高と、前記対象の地点を含む分割領域について前記水位算出部によって算出された水位とから、前記対象の地点についての浸水深を算出する深さ算出部と
を備える浸水深推定装置。 - 前記水位算出部は、前記対象の分割領域の境界領域における複数の地点について前記標高データが示す前記標高の統計量から、前記対象の分割領域全体の水位を算出する
請求項1に記載の浸水深推定装置。 - 前記水位算出部は、前記対象の分割領域の境界領域について前記標高データが示す前記標高を前記対象の分割領域の内部方向に充填することにより、前記対象の分割領域の内部の各地点における標高を推定し、推定された前記内部の各地点における標高から前記内部の各地点の水位を算出し、
前記深さ算出部は、前記対象の地点について前記標高データが示す標高と、前記対象の地点についての水位とから前記対象の地点についての前記浸水深を算出する
請求項1に記載の浸水深推定装置。 - 前記浸水深推定装置は、さらに、
前記対象領域に対する検出を行い得られたリモートセンシングデータである入力画像から前記浸水域データを生成する浸水域推定部
を備える請求項1から3までのいずれか1項に記載の浸水深推定装置。 - コンピュータが、対象領域における浸水域を示す浸水域データと、前記対象領域について浸水発生時における水位が変化する境界を示す浸水推定データと、前記対象領域の各地点の標高を示す標高データとを取得し、
コンピュータが、前記浸水域データが示す前記浸水域を前記浸水推定データが示す前記境界により1つ以上の分割領域に分割し、
コンピュータが、前記1つ以上の分割領域それぞれを対象として、対象の分割領域の境界領域について前記標高データが示す前記標高から前記対象の分割領域における水位を算出し、
コンピュータが、前記各地点を対象として、対象の地点について前記標高データが示す標高と、前記対象の地点を含む分割領域について算出された水位とから、前記対象の地点についての浸水深を算出する浸水深推定方法。 - 対象領域における浸水域を示す浸水域データと、前記対象領域について浸水発生時における水位が変化する境界を示す浸水推定データと、前記対象領域の各地点の標高を示す標高データとを取得するデータ取得処理と、
前記データ取得処理によって取得された前記浸水域データが示す前記浸水域を前記浸水推定データが示す前記境界により1つ以上の分割領域に分割する浸水域分割処理と、
前記浸水域分割処理によって分割されて得られた前記1つ以上の分割領域それぞれを対
象として、対象の分割領域の境界領域について前記標高データが示す前記標高から前記対象の分割領域における水位を算出する水位算出処理と、
前記各地点を対象として、対象の地点について前記標高データが示す標高と、前記対象の地点を含む分割領域について前記水位算出処理によって算出された水位とから、前記対象の地点についての浸水深を算出する深さ算出処理と
を行う浸水深推定装置としてコンピュータを機能させる浸水深推定プログラム。 - 対象領域に対する検出を行い得られたリモートセンシングデータである入力画像又は前記対象領域における浸水域を示す浸水域データと、前記対象領域の各地点の標高を示す標高データと、前記対象領域について浸水発生時における水位が変化する境界を示す浸水推定データとを入力として、前記各地点の浸水深を出力する学習済モデルを用いて、前記各地点の浸水深を推定する浸水深推定部
を備える浸水深推定装置。 - 対象領域に対する検出を行い得られたリモートセンシングデータである入力画像又は前記対象領域における浸水域を示す浸水域データと、前記対象領域の各地点の標高を示す標高データと、前記対象領域について浸水発生時における水位が変化する境界を示す浸水推定データと、前記各地点の浸水深とを学習データとして、前記各地点の浸水深を出力する学習済モデルを生成するモデル生成部
を備える学習装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023542183A JP7483149B2 (ja) | 2021-08-17 | 2022-02-01 | 浸水深推定装置、浸水深推定方法、浸水深推定プログラム及び学習装置 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021-132996 | 2021-08-17 | ||
JP2021132996 | 2021-08-17 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2023021721A1 true WO2023021721A1 (ja) | 2023-02-23 |
Family
ID=85240461
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2022/003705 WO2023021721A1 (ja) | 2021-08-17 | 2022-02-01 | 浸水深推定装置、浸水深推定方法、浸水深推定プログラム及び学習装置 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7483149B2 (ja) |
WO (1) | WO2023021721A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2623827A (en) * | 2022-10-31 | 2024-05-01 | Iceye Oy | Determining flood depth of an area object |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018132504A (ja) * | 2017-02-17 | 2018-08-23 | 富士通株式会社 | 浸水状況推定システム、浸水状況推定プログラム、浸水状況推定方法 |
WO2021084697A1 (ja) * | 2019-10-31 | 2021-05-06 | 三菱電機株式会社 | 災害対応支援装置および災害対応支援方法 |
-
2022
- 2022-02-01 JP JP2023542183A patent/JP7483149B2/ja active Active
- 2022-02-01 WO PCT/JP2022/003705 patent/WO2023021721A1/ja active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018132504A (ja) * | 2017-02-17 | 2018-08-23 | 富士通株式会社 | 浸水状況推定システム、浸水状況推定プログラム、浸水状況推定方法 |
WO2021084697A1 (ja) * | 2019-10-31 | 2021-05-06 | 三菱電機株式会社 | 災害対応支援装置および災害対応支援方法 |
Non-Patent Citations (1)
Title |
---|
HONDA, KENICHI ET AL.: "A Study on Rapid Estimation of Inundation Area and Flood Depth during Heavy Rain Disaster Using Satellite SAR", JOURNAL OF REMOTE SENSING SOCIETY OF JAPAN, vol. 40, no. 3, 2020, pages 158 - 162 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2623827A (en) * | 2022-10-31 | 2024-05-01 | Iceye Oy | Determining flood depth of an area object |
Also Published As
Publication number | Publication date |
---|---|
JPWO2023021721A1 (ja) | 2023-02-23 |
JP7483149B2 (ja) | 2024-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107145874B (zh) | 复杂背景sar图像中的舰船目标检测与鉴别方法 | |
WO2017071160A1 (zh) | 一种大幅面遥感图像海陆分割的方法及系统 | |
Shu et al. | Shoreline extraction from RADARSAT-2 intensity imagery using a narrow band level set segmentation approach | |
Park et al. | Single image haze removal with WLS-based edge-preserving smoothing filter | |
CN107507193A (zh) | 高分三号合成孔径雷达影像围填海信息自动提取方法 | |
CN114563378B (zh) | 湖库蓝藻水华空间分布定量描述方法、装置、介质和设备 | |
CN111275633A (zh) | 基于图像分割的点云去噪方法、系统、装置和存储介质 | |
WO2023021721A1 (ja) | 浸水深推定装置、浸水深推定方法、浸水深推定プログラム及び学習装置 | |
Wiehle et al. | Automated waterline detection in the Wadden Sea using high-resolution TerraSAR-X images | |
CN114648547B (zh) | 用于反无人机红外探测系统的弱小目标检测方法和装置 | |
Wang et al. | Multiscale single image dehazing based on adaptive wavelet fusion | |
CN113570554A (zh) | 一种基于场景深度的单幅图像能见度检测方法 | |
Kim et al. | Learning Structure for Concrete Crack Detection Using Robust Super‐Resolution with Generative Adversarial Network | |
CN107274424A (zh) | 一种彩色图像的分割方法及装置 | |
CN110533663B (zh) | 一种图像视差确定方法、装置、设备及系统 | |
Arai et al. | Method for Frequent High Resolution of Optical Sensor Image Acquisition using Satellite-Based SAR Image for Disaster Mitigation | |
Nazir et al. | Flood detection/monitoring using adjustable histogram equalization technique | |
DE112019007064B4 (de) | Bewegungsbetrag-schätzeinrichtung, bewegungsbetrag-schätzverfahren und bewegungsbetrag-schätzprogramm | |
Fu et al. | Image noise level estimation based on a new adaptive superpixel classification | |
Qiao et al. | Visibility enhancement for underwater robots based on an improved underwater light model | |
Ali et al. | A comparative study of various image dehazing techniques | |
US10896333B2 (en) | Method and device for aiding the navigation of a vehicle | |
Qayyum et al. | Monitoring of vegetation near power lines based on dynamic programming using satellite stereo images | |
JP2023122016A (ja) | 情報処理装置、情報処理プログラム及び情報処理方法 | |
Rautenbach et al. | Bay of Plenty coastal flood modelling and mapping |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22858046 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2023542183 Country of ref document: JP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2022858046 Country of ref document: EP |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
ENP | Entry into the national phase |
Ref document number: 2022858046 Country of ref document: EP Effective date: 20240318 |