WO2022059603A1 - 浸水被害判定装置、浸水被害判定方法及びプログラム - Google Patents

浸水被害判定装置、浸水被害判定方法及びプログラム Download PDF

Info

Publication number
WO2022059603A1
WO2022059603A1 PCT/JP2021/033248 JP2021033248W WO2022059603A1 WO 2022059603 A1 WO2022059603 A1 WO 2022059603A1 JP 2021033248 W JP2021033248 W JP 2021033248W WO 2022059603 A1 WO2022059603 A1 WO 2022059603A1
Authority
WO
WIPO (PCT)
Prior art keywords
house
reference object
image
water level
inundation
Prior art date
Application number
PCT/JP2021/033248
Other languages
English (en)
French (fr)
Inventor
郷太 渡部
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2022550518A priority Critical patent/JP7387911B2/ja
Publication of WO2022059603A1 publication Critical patent/WO2022059603A1/ja
Priority to US18/180,605 priority patent/US20230222642A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01FMEASURING VOLUME, VOLUME FLOW, MASS FLOW OR LIQUID LEVEL; METERING BY VOLUME
    • G01F23/00Indicating or measuring liquid level or level of fluent solid material, e.g. indicating in terms of volume or indicating by means of an alarm
    • G01F23/80Arrangements for signal processing
    • G01F23/802Particular electronic circuits for digital processing equipment
    • G01F23/804Particular electronic circuits for digital processing equipment containing circuits handling parameters other than liquid level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01FMEASURING VOLUME, VOLUME FLOW, MASS FLOW OR LIQUID LEVEL; METERING BY VOLUME
    • G01F23/00Indicating or measuring liquid level or level of fluent solid material, e.g. indicating in terms of volume or indicating by means of an alarm
    • G01F23/0007Indicating or measuring liquid level or level of fluent solid material, e.g. indicating in terms of volume or indicating by means of an alarm for discrete indicating and measuring
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01FMEASURING VOLUME, VOLUME FLOW, MASS FLOW OR LIQUID LEVEL; METERING BY VOLUME
    • G01F23/00Indicating or measuring liquid level or level of fluent solid material, e.g. indicating in terms of volume or indicating by means of an alarm
    • G01F23/22Indicating or measuring liquid level or level of fluent solid material, e.g. indicating in terms of volume or indicating by means of an alarm by measuring physical variables, other than linear dimensions, pressure or weight, dependent on the level to be measured, e.g. by difference of heat transfer of steam or water
    • G01F23/28Indicating or measuring liquid level or level of fluent solid material, e.g. indicating in terms of volume or indicating by means of an alarm by measuring physical variables, other than linear dimensions, pressure or weight, dependent on the level to be measured, e.g. by difference of heat transfer of steam or water by measuring the variations of parameters of electromagnetic or acoustic waves applied directly to the liquid or fluent solid material
    • G01F23/284Electromagnetic waves
    • G01F23/292Light, e.g. infrared or ultraviolet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30184Infrastructure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A10/00TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
    • Y02A10/40Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping

Definitions

  • the present invention relates to an inundation damage determination device, an inundation damage determination method and a program, and particularly relates to a technique for determining inundation damage in a house.
  • Patent Document 1 describes a technique of detecting the presence or absence of flooding and the water level by a network-connected sensor and notifying the server in order to provide appropriate information during heavy rain.
  • a damage certificate certifying the degree of damage will be issued to houses damaged by floods.
  • the degree of flood damage is determined by the depth of flooding of houses, but in the case of a widespread disaster, the number of flooded houses becomes enormous, and manual investigation takes a lot of time. In addition, it becomes difficult to determine inundation because water is drawn as time passes after flood damage.
  • Patent Document 1 water level measurement is automated by installing an inundation detection sensor in the city, but it is essential to install the sensor in advance, and there is a possibility that the sensor itself will not function in the event of a disaster.
  • the present invention has been made in view of such circumstances, and is an inundation damage determination device and an inundation damage determination method for determining inundation damage of a house without arranging sensors in advance or visiting an inundation site. And to provide the program.
  • One aspect of the inundation damage determination device for achieving the above object includes a memory for storing an instruction to be executed by the processor and a processor for executing the instruction stored in the memory, and the processor is provided with a water surface.
  • Acquire the image including, detect the reference object that is the reference of the height from the image, acquire the total length and position of the reference object, measure the length above the water surface of the reference object in the image, and calculate the total length of the reference object.
  • the water level of the water surface is measured from the difference from the length above the water surface of the reference object, the water level of the water surface is associated with the position of the reference object and stored, the position of the house to be judged for inundation damage is obtained, and the position of the water surface is obtained.
  • It is an inundation damage determination device that determines the inundation water level of a house from the position associated with the water level and the position of the house, and determines the degree of damage to the house from the inundation water level.
  • the inundation damage of the house can be prevented without arranging the sensor in advance or visiting the inundation site. It can be determined.
  • the processor acquires the height and angle of view of the camera that captured the image, and calculates the length above the water surface of the reference object of the image based on the height and angle of view of the camera. As a result, the length above the water surface of the reference object in the image can be appropriately measured.
  • the processor acquires information on the lens of the camera and performs lens distortion correction processing on the image. As a result, the length above the water surface of the reference object in the image can be appropriately measured.
  • the processor acquires the latitude, longitude, and altitude of the reference object, and acquires the latitude, longitude, and altitude of the house. This makes it possible to appropriately determine the inundation water level of the house.
  • the processor preferably sets the highest water level among the water levels of the positions of a plurality of reference objects within a certain distance from the position of the house as the inundation water level of the house. This makes it possible to appropriately determine the inundation water level of the house.
  • the processor divides the area into multiple areas and sets the water level at the position of the reference object closest to the house among the reference objects in the same area as the house. It is preferable to set the inundation water level of the house. This makes it possible to appropriately determine the inundation water level of a house when the image is an image of a plain area.
  • the processor sets the water level of the water surface at the position of the reference object closest to the house among the reference objects at the same altitude as the house as the inundation water level of the house. Is preferable. This makes it possible to appropriately determine the inundation water level of a house when the image is an image of an undulating area.
  • the boundary between the reference object and the water surface is not shown in the image, it is preferable to measure the water level of the water surface at the position of the reference object using a depth map. This makes it possible to appropriately measure the water level on the water surface even when the boundary between the reference object and the water surface is not shown in the image.
  • the image is preferably an image of a night-vision camera. This makes it possible to determine the degree of damage to the house even at night when there is no light.
  • the image is preferably an image taken by a camera mounted on the flying object. This makes it possible to appropriately acquire an image of the flooded site.
  • One aspect of the inundation damage determination method for achieving the above object is an image acquisition step of acquiring an image including the water surface, a reference object detection step of detecting a reference object as a reference of height from the image, and a reference object.
  • the water level of the water surface is calculated from the difference between the total length of the reference object and the length above the water surface of the reference object by measuring the length above the water surface of the reference object in the image and the reference object information acquisition process that acquires the total length and position of the reference object. It is linked to the measurement process to measure, the storage process to store the water level of the water surface in association with the position of the reference object, the house information acquisition process to acquire the position of the house to be inundated damage judgment, and the water level of the water surface.
  • It is an inundation damage determination method including an inundation water level determination step of determining the inundation water level of the house from the position and the position of the house, and a damage determination step of determining the degree of damage to the house from the inundation water level.
  • the inundation damage of the house can be prevented without arranging the sensor in advance or visiting the inundation site. It can be determined.
  • One aspect of the program for achieving the above object is a program for causing a computer to execute the above inundation damage determination method.
  • a computer-readable non-temporary storage medium on which this program is recorded may also be included in this embodiment.
  • the inundation damage of the house can be prevented without arranging the sensor in advance or visiting the inundation site. It can be determined.
  • the present invention it is possible to determine the inundation damage of a house without arranging a sensor in advance or visiting an inundation site.
  • FIG. 1 is a schematic diagram of an inundation damage determination system.
  • FIG. 2 is a block diagram showing the configuration of the drone.
  • FIG. 3 is a block diagram showing a server configuration.
  • FIG. 4 is a functional block diagram of the inundation damage determination system.
  • FIG. 5 is a diagram showing the height of a traffic light as an example of a reference object.
  • FIG. 6 is a diagram showing the height of a mailbox (post box) as another example of a reference object.
  • FIG. 7 is a diagram showing an example of the relationship between the inundation height (water level) and the degree of damage.
  • FIG. 8 is a flowchart showing each step of the inundation damage determination method.
  • FIG. 9 is a diagram for explaining the influence of the elevation angle ⁇ of the reference object.
  • FIG. 9 is a diagram for explaining the influence of the elevation angle ⁇ of the reference object.
  • FIG. 10 is an example of an image taken by a night-vision camera.
  • FIG. 11 is a diagram showing a positional relationship between a house that is a target house on a map and two reference objects.
  • FIG. 12 is a diagram showing the positional relationship between the house, which is the target house, and the two reference objects on the map.
  • FIG. 13 is an example of an image in which the boundary between the reference object and the water surface is not reflected in the image.
  • FIG. 14 is a diagram for explaining the position of the water surface directly below the sign.
  • FIG. 15 is an example of an image captured by the photographing unit and a depth map generated from the image.
  • FIG. 1 is a schematic view of the inundation damage determination system 10 according to the present embodiment.
  • the inundation damage determination system 10 includes a drone 12 and a server 16.
  • the drone 12 is an unmanned aerial vehicle (UAV: unmanned aerial vehicle, an example of an air vehicle) remotely controlled by a server 16 or a controller (not shown).
  • UAV unmanned aerial vehicle
  • the drone 12 may have an autopilot function to fly according to a predetermined program.
  • the drone 12 includes a shooting unit 14.
  • the photographing unit 14 is a camera including a lens (not shown) and an image sensor (not shown).
  • the photographing unit 14 is supported by the drone 12 via a gimbal (not shown).
  • the lens of the photographing unit 14 forms an image of the received subject light on the image plane of the image pickup device.
  • the image sensor of the photographing unit 14 receives the subject light imaged on the image forming surface and outputs the image signal of the subject.
  • the server 16 is realized by at least one computer and constitutes a flood damage determination device.
  • the drone 12 and the server 16 are connected so as to be able to transmit and receive data via a communication network 18 such as a 2.4 GHz band wireless LAN (Local Area Network).
  • a communication network 18 such as a 2.4 GHz band wireless LAN (Local Area Network).
  • FIG. 2 is a block diagram showing the configuration of the drone 12. As shown in FIG. 2, the drone 12 includes a GPS (Global Positioning System) receiver 20, a barometric pressure sensor 22, a direction sensor 24, a gyro sensor 26, and a communication interface 28, in addition to the photographing unit 14.
  • GPS Global Positioning System
  • the GPS receiver 20 acquires the position information of the latitude and longitude of the drone 12.
  • the barometric pressure sensor 22 acquires altitude information of the drone 12 from the detected barometric pressure.
  • the direction sensor 24 acquires the direction of the drone 12 from the detected direction.
  • the gyro sensor 26 acquires the attitude information of the drone 12 from the detected angles of the roll axis, the pitch axis, and the yaw axis.
  • the communication interface 28 controls communication via the communication network 18.
  • the drone 12 may acquire the remaining battery level information (not shown). Further, the photographing unit 14 may acquire the angles of the roll axis, the pitch axis, and the yaw axis of the optical axis of the lens by a gyro sensor (not shown) provided in the photographing unit 14.
  • FIG. 3 is a block diagram showing the configuration of the server 16.
  • the server 16 includes a processor 16A, a memory 16B, and a communication interface 16C.
  • the processor 16A executes the instruction stored in the memory 16B.
  • the hardware structure of the processor 16A is various processors (processors) as shown below.
  • the various processors include a CPU (Central Processing Unit), which is a general-purpose processor that executes software (programs) and acts as various functional units, and a GPU (Graphics Processing Unit), which is a processor specialized in image processing.
  • a circuit specially designed to execute specific processing such as PLD (Programmable Logic Device), ASIC (Application Specific Integrated Circuit), which is a processor whose circuit configuration can be changed after manufacturing FPGA (Field Programmable Gate Array), etc.
  • One processing unit may be composed of one of these various processors, or may be composed of two or more processors of the same type or different types (for example, a plurality of FPGAs, or a combination of CPU and FPGA, or with a CPU. It may be composed of a combination of GPUs).
  • a plurality of functional units may be configured by one processor.
  • one processor is configured by a combination of one or more CPUs and software, as represented by a computer such as a client or a server. There is a form in which the processor acts as a plurality of functional parts.
  • SoC System On Chip
  • IC Integrated Circuit
  • the hardware-like structure of these various processors is, more specifically, an electric circuit (circuitry) in which circuit elements such as semiconductor elements are combined.
  • the memory 16B stores an instruction for the processor 16A to execute.
  • the memory 16B includes a RAM (RandomAccessMemory) and a ROM (ReadOnlyMemory) (not shown).
  • the processor 16A uses RAM as a work area, executes software using various programs and parameters including a flood damage determination program stored in ROM, and uses parameters stored in ROM or the like to execute a server. 16 various processes are executed.
  • the communication interface 16C controls communication via the communication network 18.
  • FIG. 4 is a functional block diagram of the flood damage determination system 10.
  • the inundation damage determination system 10 includes a photographing unit 14, a pretreatment unit 30, a reference object detection unit 32, a reference position calculation unit 34, a water level measurement unit 36, and a water level storage unit 38.
  • the function of and is realized by the server 16.
  • the preprocessing unit 30 is an image processing device that preprocesses the image acquired from the photographing unit 14.
  • the preprocessing unit 30 acquires lens information including distortion information of the lens of the photographing unit 14, and performs distortion correction processing for correcting the distortion of the lens by a technique known as preprocessing.
  • the reference object detection unit 32 uses a known technique such as deep learning to obtain a reference object that serves as a reference for height and is partially below the water surface. To detect.
  • the reference object is an object having a predetermined standard such as the total length, and is, for example, a utility pole, a traffic light, a mailbox, and a road sign.
  • the reference object can be used as a ruler when measuring the length by using its height.
  • the reference object detection unit 32 acquires the height of the reference object detected from the image.
  • the height data of each reference object is stored in advance in the memory 16B of the server 16.
  • the reference object detection unit 32 may acquire the height of the reference object from a database or the like (not shown) via the communication interface 16C of the server 16.
  • the reference position calculation unit 34 collates the reference object detected by the reference object detection unit 32 with the map data, and identifies the position and altitude including the latitude and longitude of the reference object.
  • the map data may be stored in the memory 16B in advance, or may be acquired from a database (not shown) or the like via the communication interface 16C.
  • the geographical location of utility poles, traffic lights, and mailboxes should be obtained in advance from paid and free data held by electric power companies, police in charge, and post offices.
  • the water level measuring unit 36 detects the water surface at the position of the reference object from the image preprocessed by the pretreatment unit 30, and measures the length above the water surface of the reference object. Further, the water level measuring unit 36 measures the water level at the position of the reference object from the difference between the height of the reference object and the length above the water surface of the reference object.
  • the water level storage unit 38 stores the water level measured by the water level measurement unit 36 as water level history data in association with the position and altitude of the reference object specified by the reference position calculation unit 34.
  • the house acquisition unit 40 acquires information on the house to be determined for flood damage.
  • the house information includes the position and altitude including the latitude and longitude of the house.
  • the house information may be stored in the memory 16B in advance, or may be acquired from a database (not shown) or the like via the communication interface 16C.
  • the house water level determination unit 42 determines the inundation water level of the house to be determined for inundation damage.
  • the house water level determination unit 42 searches for water level data corresponding to the house from the water level history data stored in the water level storage unit 38 in order to determine the inundation water level of the target house.
  • the inundation damage determination unit 44 determines the degree of damage from the inundation water level of the house determined by the house water level determination unit 42. As the criterion for judgment, the one predetermined for the value of the inundation water level is used. If the inundation water level determined by the house water level determination unit 42 contains an error and the damage determination result changes due to the consideration of the error, the determination result of the one with the larger degree of damage (the one that is advantageous to the residents) is adopted. do.
  • the inundation damage determination system 10 may include a determination result transmission unit (not shown) that transmits the determination result of the inundation damage determination unit 44 to the user's computer, information mobile terminal, or the like via the communication interface 16C.
  • the inundation damage determination system 10 may include a determination result display unit that displays the determination result of the inundation damage determination unit 44 on a display (not shown).
  • FIG. 5 is a diagram showing the height of a traffic light as an example of a reference object.
  • F5A in FIG. 5 shows a cantilever vertical traffic light for a vehicle
  • F5B in FIG. 5 shows a cantilever horizontal traffic light for a vehicle.
  • the height of the traffic light for a vehicle is set to be 4.5 m or more from the ground to the bottom of the lamp, and generally, the height is 5.0 m to 5.6 m.
  • F5C in FIG. 5 shows a central pillar type vertical traffic light for a vehicle. As shown in F5C, the height of the central pillar type traffic light is 3.5 m or more. Further, F5D in FIG. 5 shows a traffic light for pedestrians. As shown in F5D, the height of the pedestrian traffic light is set to be 2.5 m or more from the ground to the bottom of the lamp, and is generally 2.7 m to 3.2 m.
  • the standard length of the signal pole to which the traffic light is attached is 9 m, 1.5 m below the ground, and 7.5 m above the ground.
  • the standard diameter of the signal column is 190 mm at the end diameter, 290 mm at the ground edge diameter, and 310 mm at the original diameter.
  • the flood damage determination system 10 may treat a traffic light including a signal pole as a reference object, or may treat the signal pole as a reference object.
  • FIG. 6 is a diagram showing the height of a mailbox (post box) as another example of a reference object.
  • FIG. 6 shows the post box No. 13, which is characterized by two insertion holes and the legs of a prism.
  • the height from the ground to the top of the mailbox No. 13 is 0.83 m.
  • FIG. 7 is a diagram showing an example of the relationship between the inundation height (water level) and the degree of damage.
  • Flood damage is classified into four stages: “total destruction”, “large-scale partial destruction”, “half destruction”, and “not half destruction (partially damaged)".
  • the loss of a house or the inundation of 1.8 m or more above the floor is “totally destroyed”
  • the inundation of 1 m or more and less than 1.8 m above the floor is “large-scale half-destroyed”
  • the inundation of less than 1 m above the floor is “half-destroyed”.
  • Underfloor flooding is classified as “not half-destroyed”.
  • the inundation height here is a value measured in the deepest part of the inundation area.
  • FIG. 8 is a flowchart showing each process of the inundation damage determination method by the inundation damage determination system 10.
  • the inundation damage determination method is realized by the processor 16A executing the inundation damage determination program stored in the memory 16B.
  • the inundation damage determination program may be provided by a computer-readable non-temporary storage medium.
  • the server 16 may read the inundation damage determination program from the non-temporary storage medium and store it in the memory 16B.
  • step S1 an example of the image acquisition process
  • the drone 12 flies over the city immediately after the flood occurs according to the instruction of the server 16, and the photographing unit 14 photographs the inundation situation from the sky above the city.
  • the photographing unit 14 transmits the captured image to the server 16.
  • the server 16 receives this image.
  • step S2 the preprocessing unit 30 performs preprocessing for correcting the distortion of the lens of the photographing unit 14 with respect to the image received from the photographing unit 14.
  • step S3 an example of the reference object detection step
  • the reference object detection unit 32 detects a reference object as a height reference from the image preprocessed in step S2. It should be noted that some of the detected reference objects may have collapsed due to the disaster. Therefore, the inclination of the detected reference object with respect to the vertical direction is examined, and the object having an inclination with respect to the vertical direction is excluded. When a plurality of reference objects are detected, the object closest to the center of the image is adopted as the reference object in order to avoid the influence of lens distortion.
  • the reference position calculation unit 34 collates the reference object detected in step S3 with the map data, and specifies the latitude, longitude, and altitude of the reference object.
  • the reference position calculation unit 34 may specify the latitude, longitude, and altitude of the reference object by using the position information of the drone 12 acquired from the GPS receiver 20 of the drone 12.
  • the reference object detection unit 32 acquires the height of the reference object whose latitude, longitude, and altitude are specified from the memory 16B (an example of the reference object information acquisition process). For example, if the reference object is the post box No. 13, the height of the reference object is 0.83 m as shown in FIG.
  • step S5 the water level measuring unit 36 measures the length of the reference object protruding from the water surface (an example of the length above the water surface) from the image preprocessed in step S2.
  • the length of the reference object is measured using the following equation 1.
  • the length in the image per pixel is a value determined by the resolution of the image pickup device of the photographing unit 14 and the angle of view of the lens. Therefore, the water level measuring unit 36 acquires information on the resolution of the photographing unit 14 and the angle of view of the lens in advance.
  • the photographing unit 14 photographs a reference object with a firing angle (pitch angle) ⁇ , it is necessary to correct the influence of the firing angle ⁇ of the number of pixels of the reference object protruding from the water surface.
  • FIG. 9 is a diagram for explaining the influence of the angle of incidence ⁇ of the height of the reference object protruding from the water surface W.
  • the reference object OB 1 having an actual height of y0 coming out of the water surface W is photographed from the photographing unit 14 having an angle of incidence ⁇ , the image coming out of the water surface W of the reference object OB 1 is taken.
  • the height y 1 in the inside is expressed by the following equation 2.
  • Equation 2 The angle of incidence ⁇ can be obtained from the gyro sensor provided in the drone 12 and the photographing unit 14.
  • the water level measuring unit 36 measures the water level at the position of the reference object from the difference between the height of the reference object and the length of the reference object protruding from the water surface. If the height of the reference object contains a standard error, the inundation height value should be retained with the same error.
  • step S6 the water level storage unit 38 associates the water level measured in step S5 with the latitude, longitude and altitude of the reference object acquired in step S4, and the water level history. Store as data.
  • the inundation damage determination system 10 repeats the processes of steps S1 to S6 within the range of the city (disaster area) where the flood occurred.
  • step S7 an example of the house information acquisition process
  • the house acquisition unit 40 acquires information on the house including the latitude, longitude, and altitude of the house to be determined for flood damage.
  • step S8 the house water level determination unit 42 determines the inundation water level of the house.
  • the house water level determination unit 42 searches for water level data corresponding to the house from the water level history data stored in the water level storage unit 38 in order to determine the inundation water level of the target house.
  • the house water level determination unit 42 acquires water level history data within a certain distance from the position of the house. If the search result is 0 and the water level history data cannot be acquired, the house water level determination unit 42 considers that the water level of the house cannot be determined and ends the process of this flowchart.
  • the house water level determination unit 42 excludes the water level history data at an altitude different from the altitude of the house by a certain value or more from the water level history data acquired by the search. If the remaining water level history data is 0, the house water level determination unit 42 considers that the water level of the house cannot be determined and ends the process of this flowchart.
  • the house water level determination unit 42 adopts the data with the highest water level, which is advantageous to the residents of the house, as the inundation water level of the house among the remaining water level history data.
  • the house water level determination unit 42 may adopt the water level history data associated with the reference object closest to the target house among the remaining water level history data as the inundation water level of the house.
  • step S9 the inundation damage determination unit 44 determines the degree of damage to the house from the inundation water level of the house determined in step S8.
  • the flood damage determination unit 44 determines the damage using, for example, the determination criteria shown in FIG. 7.
  • the inundation damage determination method it is possible to determine the inundation damage of a house without arranging sensors or visiting the inundation site in advance.
  • a night-vision camera such as an infrared camera is used as the shooting unit 14.
  • An infrared camera is a camera that captures an image according to the intensity of the detected infrared rays.
  • the photographing unit 14 may be used as an infrared camera.
  • FIG. 10 is an example of an image taken by a night-vision camera.
  • the house water level determination unit 42 divides the area into, for example, a 100 m mesh (an example of a plurality of areas) and determines the inundation damage.
  • a 100 m mesh an example of a plurality of areas
  • the water level of the reference object closest to the house is used as the inundation water level of the house.
  • FIG. 11 is a diagram showing the positional relationship between the target house H1 on the map and the reference object OB 2 and the reference object OB 3 .
  • the house H 1 and the reference object OB 2 are located in the same mesh, and the house H 1 and the reference object OB 3 are located in different meshes. Therefore, the house water level determination unit 42 determines the inundation water level of the house H1 by using the water level history data at the position of the reference object OB 2 .
  • the house water level determination unit 42 has the same elevation line as the elevation of the house to be determined for inundation damage.
  • the water level of the water surface of the reference object closest to the house among a certain reference object is used as the inundation water level of the house.
  • FIG. 12 is a diagram showing the positional relationship between the target house H2 on the map and the reference object OB 4 and the reference object OB 5 .
  • the house H 2 and the reference object OB 4 are located at the same altitude on the contour line, and the house H 2 and the reference object OB 5 are located at different altitudes. Therefore, the house water level determination unit 42 determines the inundation water level of the house H2 by using the water level history data at the position of the reference object OB 4 .
  • FIG. 13 is an example of an image in which the boundary between the reference object and the water surface is not reflected in the image.
  • the pillar of the traffic sign which is the reference object OB 6
  • the water surface position P 1 directly under the reference object OB 6 it is necessary to specify the water surface position P 1 directly under the reference object OB 6 .
  • the water surface position P 1 directly below the reference object OB 6 is a water surface position where the distance from the photographing unit 14 is the same as the reference object OB 6 .
  • FIG. 14 is a diagram for explaining the position of the water surface directly below the reference object OB 6 . As shown in FIG. 14, assuming that the distance between the photographing unit 14 and the reference object OB 6 is d 1 , the water surface position P 1 directly below the reference object OB 6 is at a position where the distance from the photographing unit 14 is d 1 . be.
  • a compound-eye camera is used as the photographing unit 14, and the water surface position P1 is specified by using the depth map acquired from the compound - eye camera.
  • the water level measuring unit 36 calculates the distance between the compound eye camera and the reference object OB 6 based on the image having the parallax taken from the first camera and the second camera by the principle of triangulation, and obtains a depth map. Generate.
  • the depth map is a color representation of the depth of an image. That is, the depth map is information indicating the distance to the compound eye camera in the image.
  • FIG. 15 is an example of an image taken by the photographing unit 14 and a depth map generated from the image.
  • F15A shown in FIG. 15 is an image taken by the photographing unit 14, and here shows an image taken by one of the compound eye cameras.
  • F15B shown in FIG. 15 is a depth map generated from the image of F15A. As shown in F15B, pixels at the same distance from the photographing unit 14 in the depth map are represented by the same color.
  • the water level measuring unit 36 acquires the depth map corresponding to the image shown in FIG. 13, and acquires the color of the pixel corresponding to the lower end of the reference object OB 6 in this depth map. Further, the water level measuring unit 36 can acquire the water surface position P1 directly under the reference object OB 6 by specifying the position of the pixel of the same color as the color acquired from the region directly under the reference object OB 6 . ..
  • the photographing unit 14 may be a fixed point camera or a surveillance camera installed in the city. ..

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Fluid Mechanics (AREA)
  • Business, Economics & Management (AREA)
  • Quality & Reliability (AREA)
  • Electromagnetism (AREA)
  • Signal Processing (AREA)
  • Tourism & Hospitality (AREA)
  • Geometry (AREA)
  • Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Thermal Sciences (AREA)
  • Economics (AREA)
  • Alarm Systems (AREA)
  • Image Processing (AREA)

Abstract

事前にセンサーを配置したり、浸水現場への訪問をしたりすることなく家屋の浸水被害を判定する浸水被害判定装置、浸水被害判定方法及びプログラムを提供する。水面を含む画像を取得し、画像から高さの基準となる基準物体を検出し、基準物体の全長及び位置を取得し、画像の基準物体の水面より上側の長さを計測し、基準物体の全長と基準物体の水面より上側の長さとの差分から水面の水位を計測し、水面の水位を基準物体の位置と紐づけて記憶し、浸水被害判定の対象となる家屋の位置を取得し、水面の水位に紐づけられた位置と家屋の位置とから、家屋の浸水水位を決定し、浸水水位から家屋の被害程度を判定する。

Description

浸水被害判定装置、浸水被害判定方法及びプログラム
 本発明は浸水被害判定装置、浸水被害判定方法及びプログラムに係り、特に家屋の浸水被害を判定する技術に関する。
 近年、集中豪雨が多発しており、水害被害のリスクが増大している。特許文献1には、豪雨時に適切な情報提供を行うために、ネットワーク接続されたセンサーによって浸水の有無及び水位を検知し、サーバーへ通知する技術が記載されている。
特開2019-87251号公報
 水害によって被害を受けた住宅に対して、被害の程度を認定した罹災証明書が発行される。水害の被害の程度は住宅が浸水した深さによって区分が決まるが、広範囲な災害の場合は浸水する家屋数が膨大になり、人手での調査は多くの時間がかかる。また、水害から時間が経つにつれて水が引くため、浸水判定が難しくなる。
 特許文献1では、街中に浸水検知センサーを設置することで水位計測を自動化しているが、事前のセンサー設置が必須であり、災害時にはセンサー自体が破損するなどで機能しない可能性がある。
 本発明はこのような事情に鑑みてなされたもので、事前にセンサーを配置したり、浸水現場への訪問をしたりすることなく家屋の浸水被害を判定する浸水被害判定装置、浸水被害判定方法及びプログラムを提供することを目的とする。
 上記目的を達成するための浸水被害判定装置の一の態様は、プロセッサに実行させるための命令を記憶するメモリと、メモリに記憶された命令を実行するプロセッサと、を備え、プロセッサは、水面を含む画像を取得し、画像から高さの基準となる基準物体を検出し、基準物体の全長及び位置を取得し、画像の基準物体の水面より上側の長さを計測し、基準物体の全長と基準物体の水面より上側の長さとの差分から水面の水位を計測し、水面の水位を基準物体の位置と紐づけて記憶し、浸水被害判定の対象となる家屋の位置を取得し、水面の水位に紐づけられた位置と家屋の位置とから、家屋の浸水水位を決定し、浸水水位から家屋の被害程度を判定する、浸水被害判定装置である。
 本態様によれば、水面と基準物体とを含む画像から水面の水位を計測するようにしたので、事前にセンサーを配置したり、浸水現場への訪問をしたりすることなく家屋の浸水被害を判定することができる。
 プロセッサは、画像を撮影したカメラの高さ及び画角を取得し、カメラの高さ及び画角に基づいて画像の基準物体の水面より上側の長さを算出することが好ましい。これにより、画像の基準物体の水面より上側の長さを適切に計測することができる。
 プロセッサは、カメラのレンズの情報を取得し、画像に対してレンズの歪み補正処理を行うことが好ましい。これにより、画像の基準物体の水面より上側の長さを適切に計測することができる。
 プロセッサは、基準物体の緯度、経度、及び標高を取得し、家屋の緯度、経度、及び標高を取得することが好ましい。これにより、家屋の浸水水位を適切に決定することができる。
 プロセッサは、家屋の位置から一定距離以内にある複数の基準物体の位置の水面の水位のうち、最も高い水位を家屋の浸水水位とすることが好ましい。これにより、家屋の浸水水位を適切に決定することができる。
 プロセッサは、画像が平野の地域の画像である場合に、地域を複数の領域に分割し、家屋と同じ領域内にある基準物体のうち、家屋に最も近い基準物体の位置の水面の水位を、家屋の浸水水位とすることが好ましい。これにより、画像が平野の地域の画像である場合に、家屋の浸水水位を適切に決定することができる。
 プロセッサは、画像が起伏のある地域の画像である場合に、家屋の標高と同じ標高にある基準物体のうち、家屋に最も近い基準物体の位置の水面の水位を、家屋の浸水水位とすることが好ましい。これにより、画像が起伏のある地域の画像である場合に、家屋の浸水水位を適切に決定することができる。
 基準物体と水面との境界が画像に映っていない場合に、深度マップを用いて基準物体の位置における水面の水位を計測することが好ましい。これにより、基準物体と水面との境界が画像に映っていない場合であっても、水面の水位を適切に計測することができる。
 画像は暗視カメラの画像であることが好ましい。これにより、光がない夜間等であっても家屋の被害程度を判定することができる。
 画像は、飛行体に搭載されたカメラによって撮影された画像であることが好ましい。これにより、浸水現場の画像を適切に取得することができる。
 上記目的を達成するための浸水被害判定方法の一の態様は、水面を含む画像を取得する画像取得工程と、画像から高さの基準となる基準物体を検出する基準物体検出工程と、基準物体の全長及び位置を取得する基準物体情報取得工程と、画像の基準物体の水面より上側の長さを計測し、基準物体の全長と基準物体の水面より上側の長さとの差分から水面の水位を計測する計測工程と、水面の水位を基準物体の位置と紐づけて記憶する記憶工程と、浸水被害判定の対象となる家屋の位置を取得する家屋情報取得工程と、水面の水位に紐づけられた位置と家屋の位置とから、家屋の浸水水位を決定する浸水水位決定工程と、浸水水位から家屋の被害程度を判定する被害判定工程と、を備える浸水被害判定方法である。
 本態様によれば、水面と基準物体とを含む画像から水面の水位を計測するようにしたので、事前にセンサーを配置したり、浸水現場への訪問をしたりすることなく家屋の浸水被害を判定することができる。
 上記目的を達成するためのプログラムの一の態様は、上記の浸水被害判定方法をコンピュータに実行させるためのプログラムである。このプログラムが記録された、コンピュータが読み取り可能な非一時的記憶媒体も本態様に含んでよい。
 本態様によれば、水面と基準物体とを含む画像から水面の水位を計測するようにしたので、事前にセンサーを配置したり、浸水現場への訪問をしたりすることなく家屋の浸水被害を判定することができる。
 本発明によれば、事前にセンサーを配置したり、浸水現場への訪問をしたりすることなく家屋の浸水被害を判定することができる。
図1は、浸水被害判定システムの概略図である。 図2は、ドローンの構成を示すブロック図である。 図3は、サーバーの構成を示すブロック図である。 図4は、浸水被害判定システムの機能ブロック図である。 図5は、基準物体の一例としての信号機の高さを示す図である。 図6は、基準物体の他の例としての郵便ポスト(郵便差出箱)の高さを示す図である。 図7は、浸水の高さ(水位)と被害の程度との関係の一例を示す図である。 図8は、浸水被害判定方法の各工程を示すフローチャートである。 図9は、基準物体の高さの射角θによる影響を説明するための図である。 図10は、暗視カメラで撮影した画像の一例である。 図11は、地図上における対象家屋である家屋と、2つの基準物体との位置関係を示す図である。 図12は、地図上における対象家屋である家屋と、2つの基準物体との位置関係を示す図である。 図13は、基準物体と水面との境界が画像内に映っていない画像の一例である。 図14は、標識の直下の水面位置を説明するための図である。 図15は、撮影部によって撮影される画像と、その画像から生成される深度マップとの一例である。
 以下、添付図面に従って本発明の好ましい実施形態について詳説する。
 〔浸水被害判定システムの全体構成〕
 図1は、本実施形態に係る浸水被害判定システム10の概略図である。図1に示すように、浸水被害判定システム10は、ドローン12と、サーバー16と、から構成される。
 ドローン12は、サーバー16又は不図示のコントローラによって遠隔操作される無人航空機(UAV:unmanned aerial vehicle、飛行体の一例)である。ドローン12は、予め定められたプログラムに従って飛行するオートパイロット機能を有していてもよい。
 ドローン12は、撮影部14を備える。撮影部14は、不図示のレンズ及び不図示の撮像素子を備えるカメラである。撮影部14は、不図示のジンバルを介してドローン12に支持される。撮影部14のレンズは、受光した被写体光を撮像素子の結像面に結像させる。撮影部14の撮像素子は、結像面に結像した被写体光を受光して被写体の画像信号を出力する。
 サーバー16は、少なくとも1つのコンピュータで実現され、浸水被害判定装置を構成する。ドローン12とサーバー16とは、2.4GHz帯無線LAN(Local Area Network)等の通信ネットワーク18を介して、データを送受信可能に接続される。
 〔ドローンの構成〕
 図2は、ドローン12の構成を示すブロック図である。図2に示すように、ドローン12は、撮影部14の他、GPS(Global Positioning System)受信機20、気圧センサー22、方位センサー24、ジャイロセンサー26、及び通信インターフェース28を備える。
 GPS受信機20は、ドローン12の緯度及び経度の位置情報を取得する。気圧センサー22は、検知した気圧からドローン12の高度情報を取得する。方位センサー24は、検知した方位からドローン12の向きを取得する。ジャイロセンサー26は、検知したロール軸、ピッチ軸、及びヨー軸の角度からドローン12の姿勢情報を取得する。通信インターフェース28は、通信ネットワーク18を介した通信を制御する。
 ドローン12は、不図示のバッテリの残量情報を取得してもよい。また、撮影部14は、撮影部14に設けられた不図示のジャイロセンサーによってレンズの光軸のロール軸、ピッチ軸、及びヨー軸の角度を取得してもよい。
 〔サーバーの構成〕
 図3は、サーバー16の構成を示すブロック図である。サーバー16は、プロセッサ16Aと、メモリ16Bと、通信インターフェース16Cと、を備える。
 プロセッサ16Aは、メモリ16Bに記憶された命令を実行する。プロセッサ16Aのハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の機能部として作用する汎用的なプロセッサであるCPU(Central Processing Unit)、画像処理に特化したプロセッサであるGPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるPLD(Programmable Logic Device)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、又はCPUとFPGAの組み合わせ、あるいはCPUとGPUの組み合わせ)で構成されてもよい。また、複数の機能部を1つのプロセッサで構成してもよい。複数の機能部を1つのプロセッサで構成する例としては、第1に、クライアント又はサーバー等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の機能部として作用させる形態がある。第2に、SoC(System On Chip)等に代表されるように、複数の機能部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の機能部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)である。
 メモリ16Bは、プロセッサ16Aに実行させるための命令を記憶する。メモリ16Bは、不図示のRAM(Random Access Memory)、及びROM(Read Only Memory)を含む。プロセッサ16Aは、RAMを作業領域とし、ROMに記憶された浸水被害判定プログラムを含む各種のプログラム及びパラメータを使用してソフトウェアを実行し、かつROM等に記憶されたパラメータを使用することで、サーバー16の各種の処理を実行する。
 通信インターフェース16Cは、通信ネットワーク18を介した通信を制御する。
 〔浸水被害判定システムの機能構成〕
 図4は、浸水被害判定システム10の機能ブロック図である。図4に示すように、浸水被害判定システム10は、撮影部14と、前処理部30と、基準物体検出部32と、基準位置計算部34と、水位計測部36と、水位記憶部38と、家屋取得部40と、家屋水位決定部42と、浸水被害判定部44と、を備える。前処理部30と、基準物体検出部32と、基準位置計算部34と、水位計測部36と、水位記憶部38と、家屋取得部40と、家屋水位決定部42と、浸水被害判定部44との機能は、サーバー16によって実現される。
 前処理部30は、撮影部14から取得した画像に前処理を施す画像処理装置である。前処理部30は、撮影部14のレンズの歪み情報を含むレンズ情報を取得し、前処理として公知の技術によりレンズの歪みを補正する歪み補正処理を行う。
 基準物体検出部32は、前処理部30において前処理された画像から、深層学習等の公知の技術により、高さの基準となる基準物体であって、一部が水面下にある基準物体を検出する。基準物体は、全長等の規格が予め定められている物体であり、例えば電柱、信号機、郵便ポスト、及び道路標識である。基準物体は、その高さを用いて、長さを測る際の物差しとして使用することができる。
 基準物体検出部32は、画像から検出した基準物体の高さを取得する。各基準物体の高さのデータは、サーバー16のメモリ16Bに予め記憶されている。基準物体検出部32は、基準物体の高さをサーバー16の通信インターフェース16Cを介して不図示のデータベース等から取得してもよい。
 基準位置計算部34は、基準物体検出部32において検出された基準物体を地図データと照合し、基準物体の緯度及び経度を含む位置と標高とを特定する。地図データは、メモリ16Bに予め記憶されていてもよいし、通信インターフェース16Cを介して不図示のデータベース等から取得されてもよい。電柱、信号機、及び郵便ポストの地理的な位置は、電力会社、所管の警察、及び郵便局等が保有する有償・無償のデータから予め取得しておく。
 水位計測部36は、前処理部30において前処理された画像から、基準物体の位置における水面を検知し、基準物体の水面より上側の長さを計測する。また、水位計測部36は、基準物体の高さと基準物体の水面より上側の長さとの差分から、基準物体の位置の水位を計測する。
 水位記憶部38は、水位計測部36が計測した水位を、基準位置計算部34において特定した基準物体の位置及び標高と紐づけて水位履歴データとして記憶する。
 家屋取得部40は、浸水被害の判定対象となる家屋の情報を取得する。家屋情報には、家屋の緯度及び経度を含む位置と標高とが含まれる。家屋情報は、メモリ16Bに予め記憶されていてもよいし、通信インターフェース16Cを介して不図示のデータベース等から取得されてもよい。
 家屋水位決定部42は、浸水被害の判定対象となる家屋の浸水水位を決定する。家屋水位決定部42は、対象家屋の浸水水位を決定するため、家屋に対応する水位データを水位記憶部38が記憶した水位履歴データから検索する。
 浸水被害判定部44は、家屋水位決定部42が決定した家屋の浸水水位から、被害程度の判定を行う。判定の基準は、浸水水位の値に対して予め定められたものを使用する。家屋水位決定部42において決定した浸水水位に誤差が含まれており、かつ誤差の考慮により被害判定の結果が変わる場合は、より被害程度の大きい方(住民に有利な方)の判定結果を採用する。
 浸水被害判定システム10は、通信インターフェース16Cを介してユーザーのコンピュータ及び情報携帯端末等に浸水被害判定部44の判定結果を送信する不図示の判定結果送信部を備えてもよい。浸水被害判定システム10は、浸水被害判定部44の判定結果を不図示のディスプレイに表示する判定結果表示部を備えてもよい。
 〔基準物体の高さ〕
 図5は、基準物体の一例としての信号機の高さを示す図である。図5のF5Aは車両用の片持式の縦型信号機を示しており、図5のF5Bは、車両用の片持式の横型信号機を示している。F5A及びF5Bに示すように、車両用の信号機の高さは、地面から灯器底部までが4.5m以上と定められており、一般的に多いのは5.0m~5.6mである。
 図5のF5Cは、車両用の中央柱式の縦型信号機を示している。F5Cに示すように、中央柱式の信号機の高さは、3.5m以上である。また、図5のF5Dは、歩行者用の信号機を示している。F5Dに示すように、歩行者用の信号機の高さは、地面から灯器底部までが2.5m以上と定められており、一般的に多いのは2.7m~3.2mである。
 なお、F5Aに示すように、信号機が取り付けられる信号柱の標準的な長さは9mであり、地面下が1.5m、地上7.5mである。また、信号柱の標準的な直径は、末口径が190mm、地際径が290mm、元口径が310mmである。浸水被害判定システム10は、信号柱を含めた信号機を基準物体として扱ってもよいし、信号柱を基準物体として扱ってもよい。
 図6は、基準物体の他の例としての郵便ポスト(郵便差出箱)の高さを示す図である。図6は、2箇所の差し入れ口と角柱の脚とが特徴的な郵便差出箱13号を示している。郵便差出箱13号の地面から頂部までの高さは、0.83mである。
 〔浸水被害の判定〕
 浸水被害判定部44において行う浸水被害の判定の基準は、浸水水位の値に対しあらかじめ定められたものを使用する。図7は、浸水の高さ(水位)と被害の程度との関係の一例を示す図である。浸水被害は、「全壊」、「大規模半壊」、「半壊」、及び「半壊に至らない(一部損壊)」の4段階に分類される。
 浸水の高さによる判定の場合、住家流失又は床上1.8m以上の浸水が「全壊」、床上1m以上かつ1.8m未満の浸水が「大規模半壊」、床上1m未満の浸水が「半壊」、床下浸水が「半壊に至らない」に分類される。なお、ここでの浸水の高さは、浸水域の最も深い部分で測定した値である。
 また、住家の損害割合による判定の場合、損害割合が50%以上の場合が「全壊」、40%以上かつ50%未満の場合が「大規模半壊」、20%以上かつ40%未満の場合が「半壊」、20%未満の場合が「半壊に至らない」に分類される。
 〔浸水被害判定方法:第1の実施形態〕
 図8は、浸水被害判定システム10による浸水被害判定方法の各工程を示すフローチャートである。浸水被害判定方法は、プロセッサ16Aがメモリ16Bに記憶された浸水被害判定プログラムを実行することで実現される。浸水被害判定プログラムは、コンピュータが読み取り可能な非一時的記憶媒体によって提供されてもよい。この場合、サーバー16は、非一時的記憶媒体から浸水被害判定プログラムを読み取り、メモリ16Bに記憶させてもよい。
 ステップS1(画像取得工程の一例)では、ドローン12は、サーバー16の指示に従って洪水発生直後に街の上空を飛行し、撮影部14において街の上空から浸水状況を撮影する。撮影部14は、撮影した画像をサーバー16へ送信する。サーバー16は、この画像を受信する。
 ステップS2では、前処理部30は、撮影部14から受信した画像に対し、撮影部14のレンズの歪みを補正する前処理を行う。
 ステップS3(基準物体検出工程の一例)では、基準物体検出部32は、ステップS2で前処理された画像から高さの基準となる基準物体を検出する。なお、検出した基準物体の中には、被災により倒壊したものが含まれる可能性がある。このため、検出した基準物体の垂直方向に対する傾きを調べ、垂直方向に対して傾きがあるものは除外する。また、複数の基準物体が検出された場合は、レンズ歪みの影響を回避するために、最も画像の中央に近い物体を基準物体として採用する。
 ステップS4(基準物体情報取得工程の一例)では、基準位置計算部34は、ステップS3において検出された基準物体を地図データと照合し、基準物体の緯度、経度、及び標高を特定する。基準位置計算部34は、ドローン12のGPS受信機20から取得したドローン12の位置情報を用いて基準物体の緯度、経度、及び標高を特定してもよい。
 また、基準物体検出部32は、緯度、経度、及び標高が特定された基準物体の高さをメモリ16Bから取得する(基準物体情報取得工程の一例)。例えば、基準物体が郵便差出箱13号であれば、図6に示したように、基準物体の高さとして0.83mを取得する。
 ステップS5(計測工程の一例)では、水位計測部36は、ステップS2において前処理された画像から、水面から出ている基準物体の長さ(水面より上側の長さの一例)を計測する。基準物体の長さは、以下の式1を用いて計測する。
 (水面から出ている基準物体の長さ)=(水面から出ている基準物体の画素数)×(1画素あたりの画像内での長さ) …(式1)
 ここで、1画素あたりの画像内での長さは、撮影部14の撮像素子の解像度とレンズの画角とから決まる値である。したがって、水位計測部36は、撮影部14の解像度とレンズの画角との情報を事前に取得しておく。
 また、撮影部14が射角(ピッチ角)θを持って基準物体を撮影した場合は、水面から出ている基準物体の画素数の射角θによる影響を補正する必要がある。
 図9は、基準物体の水面Wから出ている高さの射角θによる影響を説明するための図である。図9に示すように、水面Wから出ている実際の高さがyの基準物体OBを射角θの撮影部14から撮影した場合、基準物体OBの水面Wから出ている画像内における高さyは、下記の式2で表される。
 y=y×cosθ …(式2)
 射角θは、ドローン12及び撮影部14に設けられたジャイロセンサーから取得することができる。
 また、水位計測部36は、基準物体の高さと水面から出ている基準物体の長さとの差分から、基準物体の位置の水位を計測する。基準物体の高さに規格上の誤差が含まれる場合は、浸水の高さの値も同様の誤差を含んだ形で保持する。
 図8の説明に戻り、ステップS6(記憶工程の一例)では、水位記憶部38は、ステップS5において計測した水位を、ステップS4において取得した基準物体の緯度、経度及び標高と紐づけて水位履歴データとして記憶する。浸水被害判定システム10は、ステップS1~ステップS6の処理を、洪水が発生した街(災害地域)の範囲で繰り返す。
 ステップS7(家屋情報取得工程の一例)では、家屋取得部40は、浸水被害の判定対象となる家屋の緯度、経度、及び標高を含む家屋の情報を取得する。
 ステップS8(浸水水位決定工程の一例)では、家屋水位決定部42は、家屋の浸水水位を決定する。家屋水位決定部42は、対象家屋の浸水水位を決定するため、家屋に対応する水位データを水位記憶部38が記憶した水位履歴データから検索する。
 検索方法として、家屋水位決定部42は、家屋の位置から一定距離以内にある水位履歴データを取得する。検索結果が0件であり水位履歴データが取得できない場合は、家屋水位決定部42は、家屋の水位が判定不可として本フローチャートの処理を終了する。
 次に、家屋水位決定部42は、検索により取得した水位履歴データのうち、家屋の標高と一定値以上異なる標高にある水位履歴データを除外する。家屋水位決定部42は、残った水位履歴データが0件の場合は、家屋の水位が判定不可として本フローチャートの処理を終了する。家屋水位決定部42は、残った水位履歴データのうち、家屋の住民に有利な最も水位の高いデータを家屋の浸水水位として採用する。家屋水位決定部42は、残った水位履歴データのうち、対象家屋に最も近い基準物体と紐づけられた水位履歴データを家屋の浸水水位として採用してもよい。
 ステップS9(被害判定工程の一例)では、浸水被害判定部44は、ステップS8で決定した家屋の浸水水位から、家屋の被害程度の判定を行う。浸水被害判定部44は、例えば図7に示した判定基準を用いて被害を判定する。
 以上のように、浸水被害判定方法によれば、事前にセンサーを配置したり、浸水現場への訪問をしたりすることなく家屋の浸水被害を判定することができる。
 〔第2の実施形態〕
 ドローン12による撮影が夜間の場合は、撮影部14として赤外線カメラ等の暗視カメラを使用する。赤外線カメラは、検知した赤外線の強度に応じた画像を撮影するカメラである。赤外光を透過して可視光をカットする可視光カットフィルタを撮影部14に配置することで、撮影部14を赤外線カメラとして使用してもよい。図10は、暗視カメラで撮影した画像の一例である。
 〔第3の実施形態〕
 災害地域が平野の場合(画像が平野の地域の画像である場合の一例)は、家屋水位決定部42は、地域を例えば100mメッシュ(複数の領域の一例)に分割し、浸水被害の判定対象となる家屋と同じメッシュ内にある基準物体のうち、家屋に最も近い基準物体の水位を、家屋の浸水水位として使用する。
 図11は、地図上における対象家屋である家屋Hと、基準物体OB及び基準物体OBとの位置関係を示す図である。ここでは、家屋Hと基準物体OBとが同じメッシュ内に位置しており、家屋Hと基準物体OBとは異なるメッシュ内に位置している。したがって、家屋水位決定部42は、基準物体OBの位置における水位履歴データを使用して家屋Hの浸水水位を決定する。
 〔第4の実施形態〕
 災害地域が起伏のある土地の場合(画像が起伏のある地域の画像である場合の一例)は、家屋水位決定部42は、浸水被害の判定対象となる家屋の標高と等高線上で同じ標高にある基準物体のうち、家屋に最も近い基準物体の水面の水位を、家屋の浸水水位として使用する。
 図12は、地図上における対象家屋である家屋Hと、基準物体OB及び基準物体OBとの位置関係を示す図である。ここでは、家屋Hと基準物体OBとが等高線上で同じ標高に位置しており、家屋Hと基準物体OBとは異なる標高に位置している。したがって、家屋水位決定部42は、基準物体OBの位置における水位履歴データを使用して家屋Hの浸水水位を決定する。
 〔第5の実施形態〕
 図13は、基準物体と水面との境界が画像内に映っていない画像の一例である。図13では、基準物体OBである交通標識の支柱が画像内に映っていない。このため、基準物体OBと基準物体OBの直下の水面との間の距離yを計測するためには、基準物体OBの直下の水面位置Pを特定する必要がある。
 ここで、基準物体OBの直下の水面位置Pとは、撮影部14からの距離が基準物体OBと同じ距離にある水面位置のことである。図14は、基準物体OBの直下の水面位置を説明するための図である。図14に示すように、撮影部14と基準物体OBとの距離をdとすると、基準物体OBの直下の水面位置Pは、撮影部14との距離がdとなる位置である。
 ここでは、撮影部14として複眼カメラを使用し、複眼カメラから取得される深度マップを使用して水面位置Pを特定する。
 複眼カメラは、例えば第1のカメラと第1のカメラとは異なる第2のカメラとが水平方向に一定の距離を離して並べて配置される。水位計測部36は、第1のカメラと第2のカメラとから撮影される視差を有する画像に基づいて、三角測量の原理で複眼カメラと基準物体OBとの距離を算出し、深度マップを生成する。深度マップとは、画像の持つ奥行きを色で表現したものである。すなわち、深度マップは、画像内の複眼カメラとの距離を示す情報である。
 図15は、撮影部14によって撮影される画像と、その画像から生成される深度マップとの一例である。図15に示すF15Aは、撮影部14によって撮影された画像であり、ここでは複眼カメラのうちの一方のカメラによって撮影された画像を示している。また、図15に示すF15Bは、F15Aの画像から生成された深度マップである。F15Bに示すように、深度マップ内では撮影部14からの距離が同じ位置にある画素は同じ色で表現される。
 したがって、水位計測部36は、図13に示す画像に対応する深度マップを取得し、この深度マップにおいて基準物体OBの下端にあたる画素の色を取得する。さらに、水位計測部36は、基準物体OBの直下の領域から取得した色と同じ色の画素の位置を特定することで、基準物体OBの直下の水面位置Pを取得することができる。
 〔その他〕
 ここでは、ドローン12に搭載された撮影部14によって街の上空から浸水状況を撮影する例を用いて説明したが、撮影部14は街中に設置された定点カメラ、又は監視カメラであってもよい。
 本発明の技術的範囲は、上記の実施形態に記載の範囲には限定されない。各実施形態における構成等は、本発明の趣旨を逸脱しない範囲で、各実施形態間で適宜組み合わせることができる。
10…浸水被害判定システム
12…ドローン
14…撮影部
16…サーバー
16A…プロセッサ
16B…メモリ
16C…通信インターフェース
18…通信ネットワーク
20…GPS受信機
22…気圧センサー
24…方位センサー
26…ジャイロセンサー
28…通信インターフェース
30…前処理部
32…基準物体検出部
34…基準位置計算部
36…水位計測部
38…水位記憶部
40…家屋取得部
42…家屋水位決定部
44…浸水被害判定部
、H…家屋
OB~OB…基準物体
…水面位置
W…水面
S1~S9…浸水被害判定方法の各工程

Claims (13)

  1.  プロセッサに実行させるための命令を記憶するメモリと、
     メモリに記憶された命令を実行するプロセッサと、
     を備え、
     前記プロセッサは、
     水面を含む画像を取得し、
     前記画像から高さの基準となる基準物体を検出し、
     前記基準物体の全長及び位置を取得し、
     前記画像の前記基準物体の前記水面より上側の長さを計測し、前記基準物体の全長と前記基準物体の前記水面より上側の長さとの差分から前記水面の水位を計測し、
     前記水面の水位を前記基準物体の位置と紐づけて記憶し、
     浸水被害判定の対象となる家屋の位置を取得し、
     前記水面の水位に紐づけられた位置と前記家屋の位置とから、前記家屋の浸水水位を決定し、
     前記浸水水位から前記家屋の被害程度を判定する、
     浸水被害判定装置。
  2.  前記プロセッサは、
     前記画像を撮影したカメラの高さ及び画角を取得し、
     前記カメラの高さ及び画角に基づいて前記画像の前記基準物体の前記水面より上側の長さを算出する、
     請求項1に記載の浸水被害判定装置。
  3.  前記プロセッサは、
     前記カメラのレンズの情報を取得し、
     前記画像に対して前記レンズの歪み補正処理を行う、
     請求項2に記載の浸水被害判定装置。
  4.  前記プロセッサは、
     前記基準物体の緯度、経度、及び標高を取得し、
     前記家屋の緯度、経度、及び標高を取得する、
     請求項1から3のいずれか1項に記載の浸水被害判定装置。
  5.  前記プロセッサは、前記家屋の位置から一定距離以内にある複数の前記基準物体の位置の前記水面の水位のうち、最も高い水位を前記家屋の前記浸水水位とする請求項1から4のいずれか1項に記載の浸水被害判定装置。
  6.  前記プロセッサは、前記画像が平野の地域の画像である場合に、前記地域を複数の領域に分割し、前記家屋と同じ領域内にある前記基準物体のうち、前記家屋に最も近い前記基準物体の位置の前記水面の水位を、前記家屋の前記浸水水位とする請求項1から5のいずれか1項に記載の浸水被害判定装置。
  7.  前記プロセッサは、前記画像が起伏のある地域の画像である場合に、前記家屋の標高と同じ標高にある前記基準物体のうち、前記家屋に最も近い前記基準物体の位置の前記水面の水位を、前記家屋の前記浸水水位とする請求項1から6のいずれか1項に記載の浸水被害判定装置。
  8.  前記基準物体と前記水面との境界が前記画像に映っていない場合に、深度マップを用いて前記基準物体の位置における前記水面の水位を計測する請求項1から7のいずれか1項
    に記載の浸水被害判定装置。
  9.  前記画像は暗視カメラの画像である請求項1から8のいずれか1項に記載の浸水被害判定装置。
  10.  前記画像は、飛行体に搭載されたカメラによって撮影された画像である請求項1から9のいずれか1項に記載の浸水被害判定装置。
  11.  水面を含む画像を取得する画像取得工程と、
     前記画像から高さの基準となる基準物体を検出する基準物体検出工程と、
     前記基準物体の全長及び位置を取得する基準物体情報取得工程と、
     前記画像の前記基準物体の前記水面より上側の長さを計測し、前記基準物体の全長と前記基準物体の前記水面より上側の長さとの差分から前記水面の水位を計測する計測工程と、
     前記水面の水位を前記基準物体の位置と紐づけて記憶する記憶工程と、
     浸水被害判定の対象となる家屋の位置を取得する家屋情報取得工程と、
     前記水面の水位に紐づけられた位置と前記家屋の位置とから、前記家屋の浸水水位を決定する浸水水位決定工程と、
     前記浸水水位から前記家屋の被害程度を判定する被害判定工程と、
     を備える浸水被害判定方法。
  12.  請求項11に記載の浸水被害判定方法をコンピュータに実行させるためのプログラム。
  13.  非一時的かつコンピュータ読取可能な記録媒体であって、請求項12に記載のプログラムが記録された記録媒体。
PCT/JP2021/033248 2020-09-18 2021-09-10 浸水被害判定装置、浸水被害判定方法及びプログラム WO2022059603A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022550518A JP7387911B2 (ja) 2020-09-18 2021-09-10 浸水被害判定装置、浸水被害判定方法及びプログラム
US18/180,605 US20230222642A1 (en) 2020-09-18 2023-03-08 Inundation damage determination device, inundation damage determination method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-157126 2020-09-18
JP2020157126 2020-09-18

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/180,605 Continuation US20230222642A1 (en) 2020-09-18 2023-03-08 Inundation damage determination device, inundation damage determination method, and program

Publications (1)

Publication Number Publication Date
WO2022059603A1 true WO2022059603A1 (ja) 2022-03-24

Family

ID=80777019

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/033248 WO2022059603A1 (ja) 2020-09-18 2021-09-10 浸水被害判定装置、浸水被害判定方法及びプログラム

Country Status (3)

Country Link
US (1) US20230222642A1 (ja)
JP (1) JP7387911B2 (ja)
WO (1) WO2022059603A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7095046B2 (ja) * 2020-09-30 2022-07-04 楽天グループ株式会社 情報処理システム、情報処理装置、及び情報処理方法
CN117975281B (zh) * 2024-03-29 2024-05-28 广东先知大数据股份有限公司 一种伤损源头检测方法、电子设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002269656A (ja) * 2001-03-12 2002-09-20 Foundation Of River & Basin Integrated Communications Japan 河川情報提供システム
JP2018040732A (ja) * 2016-09-08 2018-03-15 株式会社東芝 河川監視装置、河川監視方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002269656A (ja) * 2001-03-12 2002-09-20 Foundation Of River & Basin Integrated Communications Japan 河川情報提供システム
JP2018040732A (ja) * 2016-09-08 2018-03-15 株式会社東芝 河川監視装置、河川監視方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MASAHIRO DOI: "River management system with applying multimedia-Reduction of load on wide area management work by 4D GIS and image processing technology.", HITACHI REVIEW, vol. 82, no. 3, 1 March 2000 (2000-03-01), JP , pages 23 - 26, XP009535121, ISSN: 0367-5874 *

Also Published As

Publication number Publication date
US20230222642A1 (en) 2023-07-13
JPWO2022059603A1 (ja) 2022-03-24
JP7387911B2 (ja) 2023-11-28

Similar Documents

Publication Publication Date Title
KR101933216B1 (ko) 드론과 공간정보를 이용한 하천지형정보 생성 방법
KR102001728B1 (ko) 스테레오 카메라 드론을 활용한 무기준점 3차원 위치좌표 취득 방법 및 시스템
JP4647514B2 (ja) 航空画像処理装置および航空画像処理方法
JP6658532B2 (ja) 制御装置、制御方法および飛行体デバイス
US7982665B2 (en) GPS-installed all-azimuth camera and spatial data collecting device
KR102007567B1 (ko) 스테레오 드론 및 이를 이용하는 무기준점 토공량 산출 방법과 시스템
WO2020000137A1 (en) Integrated sensor calibration in natural scenes
US20230222642A1 (en) Inundation damage determination device, inundation damage determination method, and program
KR102200299B1 (ko) 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법
ES2854944T3 (es) Procedimiento y dispositivo para georreferenciar datos de imágenes aéreas utilizando datos de imágenes SAR
JP2009068951A (ja) 空中架線の管理システム
Sánchez-García et al. C-Pro: A coastal projector monitoring system using terrestrial photogrammetry with a geometric horizon constraint
JP6736931B2 (ja) 立体物検出方法及び立体物検出装置
CN107221006A (zh) 一种基于无人机成像平台的通信单管塔倾斜检测方法
CN112489032A (zh) 一种复杂背景下无人机载小目标检测定位方法及系统
CN112749584B (zh) 一种基于图像检测的车辆定位方法及车载终端
US20170132808A1 (en) Method and system for inertial measurement
KR102336778B1 (ko) 스카이라인을 이용한 차량의 측위 방법
CN104599281A (zh) 一种基于水平直线方位一致性的全景图与遥感图配准方法
AU2019353165B2 (en) Optics based multi-dimensional target and multiple object detection and tracking method
CN108195359B (zh) 空间数据的采集方法及系统
CN113340272A (zh) 一种基于无人机微群的地面目标实时定位方法
KR101720761B1 (ko) 엠엠에스 및 다방향 경사 항공사진을 이용한 3차원 공간정보 구축시스템
JP2013024686A (ja) モバイルマッピングシステム、及びこれを用いた沿道対象物の計測方法と、位置特定プログラム
Teppati Losè et al. New developments in lidar UAS surveys. Performance analyses and validation of the DJI Zenmuse L1

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21869290

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022550518

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21869290

Country of ref document: EP

Kind code of ref document: A1