WO2021084699A1 - 作業支援装置、作業支援システム、作業支援方法 - Google Patents

作業支援装置、作業支援システム、作業支援方法 Download PDF

Info

Publication number
WO2021084699A1
WO2021084699A1 PCT/JP2019/042837 JP2019042837W WO2021084699A1 WO 2021084699 A1 WO2021084699 A1 WO 2021084699A1 JP 2019042837 W JP2019042837 W JP 2019042837W WO 2021084699 A1 WO2021084699 A1 WO 2021084699A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
sensor
priority
displacement
work support
Prior art date
Application number
PCT/JP2019/042837
Other languages
English (en)
French (fr)
Inventor
森田 健司
山下 孝一
谷村 泰宏
敏洋 柴
智成 今津
小林 弘幸
猪又 憲治
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2019/042837 priority Critical patent/WO2021084699A1/ja
Priority to JP2021506596A priority patent/JP6976481B2/ja
Publication of WO2021084699A1 publication Critical patent/WO2021084699A1/ja
Priority to JP2021182475A priority patent/JP7262552B2/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services

Definitions

  • the present invention relates to a work support device, a work support system, and a work support method that support the work of confirming the damage status of an object.
  • the victim When a disaster occurs, the victim needs a disaster certificate when applying the disaster victim support system or making a claim for non-life insurance for the affected object.
  • the disaster certificate is issued after the person in charge of the local government such as the municipality conducts a field survey and confirms the degree of damage to the damaged object.
  • the insurance company pays out the insurance money to the non-life insurance policyholder, the person in charge of the insurance company conducts a field survey on the subject of compensation for which the damage certificate has been received, and the subject of compensation. It is supposed to confirm the damage situation of. In the work of confirming the damage status of such a damaged object, it is necessary to confirm the state before and after the disaster, and it is necessary to go to the site where the disaster occurred and confirm the object. Has occurred, and it is a time-consuming work.
  • Patent Document 1 when an insured person who was not subject to automatic withdrawal of insurance money requests the withdrawal of insurance money, as the work of paying out the insurance money, a photograph before the occurrence of a disaster and an insured after the occurrence of a disaster occur.
  • the accident insurance management system displays that the location information matches the photo taken by the insurer, indicating that a person confirms and approves the photo.
  • Patent Document 1 when the policyholder requests the withdrawal of insurance money, the person in charge of the insurance company uniformly confirms the damage status of a plurality of objects, which is efficient. There was a problem that the insurance money withdrawal business could not be carried out. In addition, such a problem also occurs when a large number of applications for issuance of a disaster certificate are applied. That is, there is a problem that the person in charge of the municipality cannot efficiently carry out the work of issuing the disaster certificate when a large number of applications for issuance of the disaster certificate are applied.
  • the present invention has been made in view of the above, and an object of the present invention is to obtain a work support device for supporting improvement of work efficiency of work for confirming the damage status of an object.
  • the work support device acquires sensor information obtained by sensor observation or prediction information which is information indicating that a disaster is predicted to occur.
  • Target to acquire object information which is information on the object including the position information of the object indicating the geographical position of the object, for the information acquisition unit to be performed and a plurality of objects for which confirmation work of the damage status is required.
  • It is equipped with a physical information acquisition unit.
  • the work support device includes an information extraction unit that extracts sensor information of a position corresponding to the position information of the object or prediction information of a position corresponding to the position information of the object based on the position information of the object, and information. It is provided with a priority determination unit that determines the priority of the work of confirming the damage status of each of a plurality of objects by using the sensor information extracted by the extraction unit or the prediction information extracted by the information extraction unit.
  • the work support device has the effect of being able to support the improvement of work efficiency in the work of confirming the damage status of the object.
  • the figure which shows an example of the priority information when the magnitude and the epicenter are used as the sensor information in Embodiment 1.
  • the figure which shows an example of the priority information when the special warning, the warning and the warning are used as prediction information in Embodiment 1.
  • the figure which shows the apparatus configuration example in the case where the work support system of the 2nd modification which concerns on Embodiment 1 is configured by two apparatus The figure which shows the structural example of the work support system which concerns on Embodiment 2 of this invention.
  • FIG. 1 is a diagram showing a configuration example of a work support system 1 according to a first embodiment of the present invention.
  • the work support system 1 of the present embodiment is a system that supports the efficiency of the confirmation work of the damage status of the object in the event of a disaster, and determines and displays the status confirmation priority which is the priority of the damage status confirmation work. To do.
  • the work support system 1 includes a sensor information providing device 201 that provides sensor information, a prediction information providing device 202 that provides prediction information indicating that a disaster is predicted to occur, and object information that is information about an object.
  • the object information providing device 203 is connected to the object information providing device 203 by a communication line. These communication lines may be a wired line or a wireless line, and a wireless line and a wired line may be mixed.
  • a communication lines may be a wired line or a wireless line, and a wireless line and a wired line.
  • the method of acquiring information from the sensor information providing device 201, the prediction information providing device 202, and the object information providing device 203 is not limited to the example via the communication line.
  • the sensor information providing device 201 may record the sensor information on the recording medium, and the work support system 1 may read the information from the recording medium.
  • the prediction information may be provided from the prediction information providing device 202 to the work support system 1 via the recording medium.
  • the object information may also be similarly provided from the object information providing device 203 to the work support system 1 via the recording medium.
  • the sensor information providing device 201, the prediction information providing device 202, and the object information providing device 203 may be external devices managed by an administrator other than the organization that operates and manages the work support system 1. It may be a device managed by an organization that operates and manages the work support system 1. For example, when the work support system 1 supports the efficiency of the damage status confirmation work of a plurality of insurance companies, the sensor information providing device 201 and the prediction information providing device 202 are operated by the organization that operates and manages the work support system 1. It is managed and acquires sensor information and prediction information over a wide area such as the entire country from an external device.
  • the object information providing device 203 is managed by an organization that operates and manages the work support system 1, and acquires the object information from an external device managed by a plurality of insurance companies. Then, the work support system 1 may acquire the corresponding information for each insurance company to be supported from the sensor information providing device 201, the prediction information providing device 202, and the object information providing device 203.
  • the work support system 1 acquires object information and determines the status confirmation priority of each of the plurality of objects using sensor information or prediction information for a plurality of damaged objects that require confirmation work of the damage status. To do.
  • the status confirmation priority is the priority of the work of confirming the damage status of the object to be compensated, which is performed by the person in charge of the insurance company or the person in charge of the local government such as a municipality.
  • all the objects corresponding to the object information acquired by the work support system 1 are the objects for which the person in charge needs to confirm the damage status. Therefore, in the first embodiment, the work support system 1 determines the status confirmation priority of a plurality of objects for which the damage status confirmation work is required.
  • the sensor information is information obtained by observing the sensor, and is data acquired by the sensor or data processed by the data.
  • the sensor information includes information indicating the position of the observation location observed by the sensor.
  • the sensor may be a sensor mounted on an artificial satellite, an aircraft, a drone, or the like, a sensor mounted on a vehicle or the like, or a sensor fixed to the ground surface, a building, or the like.
  • the sensor may be a passive sensor or an active sensor.
  • the passive sensor include an image sensor that observes visible light, infrared light, ultraviolet light, and the like.
  • the active sensor include a synthetic aperture radar (SAR: Synthetic Aperture Radar) and a laser scanner that acquires three-dimensional point cloud data.
  • the sensor may be a sensor other than these.
  • the sensor information is exemplified by seismic information such as seismic intensity, epicenter, and magnitude acquired by the seismic sensor.
  • the weather sensor information acquired by the weather sensor is exemplified.
  • information on precipitation and wind speed acquired by a rain gauge sensor and information on a linear precipitation zone acquired by various weather radars are exemplified.
  • water level information such as river water level information and pond water level information acquired by the water level sensor is exemplified. That is, the sensor information is exemplified by information on an earthquake, weather, or water level.
  • Prediction information is information indicating that the occurrence of a disaster is predicted in order to protect people from disasters, and examples thereof include prediction information on weather, various warnings, prediction information on water levels of rivers or ponds, and tsunami information. Will be done. That is, the forecast information is exemplified by information on weather, warning, water level or tsunami.
  • the object is an object of compensation for which the insurance company pays the insurance money when the work support system 1 is used when the insurance company pays out the insurance money to the policyholder of the non-life insurance.
  • the object is an object for which the disaster certificate is issued when the work support system 1 is used when the municipality issues the disaster certificate. Therefore, the work support system 1 is the target of compensation provided by the person in charge of the insurance company for the object of compensation for which the damage certificate has been received when the insurance company pays out the insurance money to the policyholder of the non-life insurance company. Support the efficiency of work to check the damage status of objects.
  • the object information is information about the object, and includes the position information of the object, which is information indicating the geographical position of the object.
  • the object information is information about an object for which the insurance company pays the insurance money and the policyholder has requested the payment of the insurance money.
  • the object information is acquired from an external device managed by an administrator other than the organization that operates and manages the object information, and is stored in the object information providing device 203.
  • the object information is acquired from the insurance company and stored in the object information providing device 203.
  • the position information of the object may be the latitude / longitude information of the geographical position where the object exists, or the address information.
  • the position information of the object acquired by the object information acquisition unit 13 is an address as described later, the address may be converted into latitude and longitude by the object information acquisition unit 13.
  • the position information of the object may be indicated by the XYZ coordinate values of the 3-axis Cartesian coordinate system with the center of gravity of the earth as the origin, and the format is not particularly limited.
  • the coordinate system of the information indicating the position may be the world geodetic system or the Japanese geodetic system, and the coordinate system is not particularly limited.
  • the sensor information, the prediction information, and the object information are associated with the position information indicating the position, respectively. Therefore, if some of the position information handled by the work support system 1 is indicated by coordinate values having different definitions, the work support system 1 converts the position information into coordinate values in a predetermined reference coordinate system. And process. There are no particular restrictions on the coordinate system that serves as a predetermined reference.
  • the work support system 1 uses the sensor information of the position close to the position corresponding to the position information of the object.
  • the sensor information of the position corresponding to the position information of the object is the sensor information of the latitude and longitude corresponding to the latitude and longitude of the object, which is a position close to the latitude and longitude of the object.
  • the position corresponding to the position information of the object includes a position corresponding to the position information of the object and a position close to the position corresponding to the position information of the object.
  • the position corresponding to the position information of the object and the position corresponding to the position of the object are in agreement.
  • the objects are the objects covered by the insurance company's non-life insurance contract and the objects for which the damage certificate is issued.
  • the object information includes information about the non-life insurance contract, in addition to the location information of the object, which is information indicating the geographical location of the object. Is included.
  • the object information is the information regarding the application for the issuance of the disaster certificate in addition to the location information of the object which is the information indicating the geographical position of the object. Is included.
  • the work support system 1 includes an information acquisition unit 11, an object information acquisition unit 13, a processing information storage unit 14, a processing unit 15, a priority information storage unit 16, and a display unit 17.
  • an information acquisition unit 11 an object information acquisition unit 13
  • a processing information storage unit 14 a processing unit 15
  • a priority information storage unit 16 a display unit 17.
  • the information acquisition unit 11 acquires sensor information from the sensor information providing device 201, or acquires prediction information from the prediction information providing device 202.
  • the information acquisition unit 11 stores the acquired information in the processing information storage unit 14.
  • the object information acquisition unit 13 acquires the object information from the object information providing device 203.
  • the object information acquisition unit 13 stores the acquired object information in the processing information storage unit 14.
  • the processing information storage unit 14 stores the sensor information acquired by the information acquisition unit 11, the prediction information acquired by the information acquisition unit 11, and the object information acquired by the object information acquisition unit 13.
  • the priority information storage unit 16 holds priority information indicating the correspondence between the value of the sensor information or the type of prediction information and the status confirmation priority. Specific examples of priority information will be described later.
  • the processing unit 15 extracts sensor information or prediction information corresponding to the position information of each of the plurality of objects for the plurality of objects specified by the plurality of object information using the position information of the objects. Then, the processing unit 15 determines the status confirmation priority of each of the plurality of objects using the extracted sensor information or prediction information. Specifically, the processing unit 15 includes an information extraction unit 151 and a priority order determination unit 152.
  • the information extraction unit 151 acquires sensor information, prediction information, and object information from the processing information storage unit 14.
  • the information extraction unit 151 extracts the sensor information of the position corresponding to the position information of the object specified by the object information from the sensor information acquired from the processing information storage unit 14. Further, the information extraction unit 151 extracts the prediction information of the position corresponding to the position information of the object specified by the object information from the prediction information acquired from the processing information storage unit 14. That is, the information extraction unit 151 extracts sensor information or prediction information for each of the plurality of objects by using the position information of the object included in the object information.
  • the priority order determination unit 152 determines the status confirmation priority of each of the plurality of objects based on the sensor information extracted by the information extraction unit 151 and the priority information stored in the priority information storage unit 16. .. The priority order determination unit 152 associates the determined status confirmation priority of each object with the corresponding object information, and outputs the determined object information to the display unit 17 together with the object information.
  • the display unit 17 displays the status confirmation priority of each object output from the priority priority determination unit 152 and the identification information which is the object information of the object corresponding to the status confirmation priority.
  • FIG. 2 is a diagram showing a configuration example of a computer system that realizes the work support system 1 according to the first embodiment.
  • this computer system includes a control unit 101, an input unit 102, a storage unit 103, a display unit 104, a communication unit 105, and an output unit 106, and these include a system bus 107. Connected via.
  • the control unit 101 is, for example, a CPU (Central Processing Unit) or the like.
  • the control unit 101 executes a work support program in which the work support method of the present embodiment is described.
  • the input unit 102 is composed of, for example, a keyboard, a mouse, and the like, and is used by a user of a computer system to input various information.
  • the storage unit 103 includes various memories such as RAM (Random Access Memory) and ROM (Read Only Memory) and a storage device such as a hard disk, and is a necessary program obtained in the process of a program and processing to be executed by the control unit 101. Store data etc.
  • the storage unit 103 is also used as a temporary storage area for the program.
  • the display unit 104 is composed of an LCD (Liquid Crystal Display: liquid crystal display panel) or the like, and displays various screens to a user of a computer system.
  • the communication unit 105 is a communication circuit or the like that performs communication processing.
  • the communication unit 105 may be composed of a plurality of communication circuits corresponding to a plurality of communication methods.
  • the output unit 106 is an output interface that outputs data to an external device such as a printer or an external storage device. Note that FIG. 2 is an example, and the configuration of the computer system is not limited to the example of FIG.
  • the first program is stored from a CD-ROM or DVD-ROM set in a CD (Compact Disc) -ROM drive or DVD (Digital Versatile Disc) -ROM drive (not shown). It is installed in part 103. Then, when the first program is executed, the first program read from the storage unit 103 is stored in the area serving as the main storage device of the storage unit 103. In this state, the control unit 101 executes the process as the work support system 1 of the present embodiment according to the first program stored in the storage unit 103.
  • a program describing the processing in the work support system 1 is provided using a CD-ROM or a DVD-ROM as a recording medium, but the present invention is not limited to this, and the configuration of the computer system and the provided program are provided.
  • a program provided by a transmission medium such as the Internet via the communication unit 105 may be used.
  • the information acquisition unit 11 and the object information acquisition unit 13 shown in FIG. 1 are realized by the control unit 101 and the communication unit 105 shown in FIG.
  • the information extraction unit 151 and the priority order determination unit 152 shown in FIG. 1 are realized by the control unit 101 shown in FIG.
  • the processing information storage unit 14 and the priority information storage unit 16 shown in FIG. 1 are a part of the storage unit 103 shown in FIG.
  • the display unit 17 shown in FIG. 1 is realized by the display unit 104 shown in FIG.
  • the hardware that realizes the work support system 1 of the present embodiment is not limited to terminals such as personal computers (PCs), and may be mobile information terminals such as tablets and smartphones. There is no problem.
  • system configuration of the work support system 1 may be a stand-alone format in which all the processes are executed by one terminal, or a client-server format in which the result of analysis by the server is sent to the client.
  • client-server model for example, the input unit 102, the display unit 104, and the output unit 106 may be provided on the client side, and other functions may be provided on the server side.
  • FIG. 3 is a flowchart showing an example of work support processing in the work support system 1 according to the first embodiment.
  • the work support process shown in FIG. 3 is carried out after a disaster occurs.
  • the work support process shown in FIG. 3 may be carried out after a work request for confirming the damage status of the object has been made, and specifically after an application for a disaster certificate or a request for withdrawal of insurance money has been made. ..
  • step S110 the work support system 1 acquires sensor information and prediction information.
  • the information acquisition unit 11 acquires sensor information from the sensor information providing device 201, and stores the acquired sensor information in the processing information storage unit 14. Further, the information acquisition unit 11 acquires the prediction information from the prediction information providing device 202, and stores the acquired prediction information in the processing information storage unit 14. That is, step S110 includes a sensor information acquisition step for acquiring sensor information and a prediction information acquisition step for acquiring prediction information. Whether the information acquisition unit 11 acquires the sensor information, the prediction information, or both the sensor information and the prediction information changes the setting information preset in the information acquisition unit 11. It can be changed by doing. The user can change the setting information by using the input unit 102 shown in FIG.
  • step S120 the work support system 1 acquires the object information including the position information of the object.
  • the object information acquisition unit 13 acquires the object information from the object information providing device 203, and stores the acquired object information in the processing information storage unit 14.
  • the object information acquisition unit 13 acquires a plurality of object information from the object information providing device 203. Note that step S120 may be performed before step S110.
  • the work support system 1 extracts sensor information or prediction information at a position corresponding to the position information of the object included in the object information.
  • the information extraction unit 151 acquires sensor information and object information from the processing information storage unit 14, and corresponds to a position corresponding to the position information of the object included in the object information from the acquired sensor information. Extract the sensor information to be used. Further, the information extraction unit 151 acquires the prediction information and the object information from the processing information storage unit 14, and from the acquired prediction information, the prediction information corresponding to the position corresponding to the position information of the object included in the object information. Is extracted.
  • the information extraction unit 151 processes the sensor information or the prediction information of the value such as the maximum value or the worst value which is the value at which the occurrence of the disaster is most predicted in the designated period input from the input unit 102, and the processing information storage unit 14 Extract from.
  • the information extraction unit 151 processes sensor information or prediction information having a value such as the maximum value or the worst value, which is the value at which the occurrence of the disaster is most predicted, in a predetermined period before the occurrence of the disaster. Extract from 14.
  • the designated period and the predetermined period can be changed.
  • the designated period is a period targeted by the work support system 1 for work support processing.
  • the information extraction unit 151 outputs the information extracted from the sensor information and the prediction information to the priority determination unit 152.
  • the information extraction unit 151 When the information extraction unit 151 has the sensor information of the position corresponding to the position information of the object, the information extraction unit 151 extracts the sensor information of the position corresponding to the position information of the object and corresponds to the position information of the object. It is the sensor information at the position. When the sensor information of the position corresponding to the position information of the object does not exist, the information extraction unit 151 relatively corresponds to the position information of the object in the area including the position corresponding to the position information of the object. The sensor information at a position close to the object is extracted and used as the sensor information at a position corresponding to the position information of the object.
  • the information extraction unit 151 When the information extraction unit 151 has the position prediction information corresponding to the position information of the object, the information extraction unit 151 extracts the position prediction information corresponding to the position information of the object and corresponds to the position information of the object. It is the prediction information at the position. When the information extraction unit 151 does not have the prediction information of the position corresponding to the position information of the object, the information extraction unit 151 relatively corresponds to the position information of the object in the area including the position corresponding to the position information of the object. The prediction information of the position close to the object is extracted and used as the prediction information at the position corresponding to the position information of the object.
  • Whether the information extraction unit 151 extracts the sensor information, the prediction information, or both the sensor information and the prediction information is to change the setting information preset in the information extraction unit 151. Can be changed by. The user can change the setting information by using the input unit 102 shown in FIG.
  • step S140 the work support system 1 determines the status confirmation priority, which is the priority of the damage status confirmation work, for each object based on the extracted sensor information or the extracted prediction information.
  • the priority order determination unit 152 corresponds to the sensor information extracted by the information extraction unit 151 or the prediction information extracted by the information extraction unit 151 from the priority information stored in the priority information storage unit 16.
  • the status confirmation priority of the object is determined for each object by extracting the priority corresponding to the extracted sensor information or the priority corresponding to the extracted prediction information.
  • the priority determination unit 152 compares a predetermined threshold value in the priority information with the extracted sensor information, and extracts the priority corresponding to the extracted sensor information from the priority information. Determines the status confirmation priority of each object. In addition, the priority determination unit 152 determines the status confirmation priority of each object by extracting the priority corresponding to the extracted prediction information from the priority information. The priority order determination unit 152 associates the determined status confirmation priority with the corresponding object information, and outputs the determined status confirmation priority to the display unit 17 together with the object information.
  • the threshold value in the priority information can be changed by the user to any value. Further, the threshold value may be a range of sensor values at each level.
  • FIGS. 4 to 7 are diagrams showing an example of priority information of the first embodiment.
  • the smaller the numerical value of the priority the higher the priority.
  • the priorities, sensor information, and prediction information classifications shown in FIGS. 4 to 7 are examples of schematically showing priority information, and the specific contents of the priority, sensor information, and prediction information are shown in FIGS. 4 to 7. It is not limited to the example shown in 7.
  • FIG. 4 is a diagram showing an example of priority information when seismic intensity is used as sensor information in the first embodiment.
  • the corresponding priority is shown for each stage of seismic intensity.
  • priority 1 is a case where the seismic intensity, which is sensor information extracted by the information extraction unit 151, is 6 or more
  • priority 2 is a sensor extracted by the information extraction unit 151.
  • the seismic intensity which is the information is 5
  • the priority 3 is the case where the seismic intensity which is the sensor information extracted by the information extraction unit 151 is 4 or less.
  • the priority is set so that the higher the seismic intensity, the higher the priority of the damage status confirmation work. That is, when the seismic intensity is large, the degree of damage to the object is expected to be relatively large, so that the priority of the damage status confirmation work is high. In addition, when the seismic intensity is small, the degree of damage to the object is expected to be relatively small, so the priority of the damage status confirmation work is lowered.
  • the priority determination unit 152 is based on the seismic intensity at the position corresponding to the position information of the object, that is, the seismic intensity at the position of the object or the relative target in the area including the object. Prioritize based on the seismic intensity near the object. Specifically, the priority determination unit 152 compares a predetermined threshold value in the priority information with the seismic intensity which is the extracted sensor information, and extracts the priority corresponding to the extracted seismic intensity from the priority information. Determines the status confirmation priority of the object. In the priority information shown in FIG. 4, seismic intensity 6 and seismic intensity 4 are threshold values.
  • FIG. 5 is a diagram showing an example of priority information when the magnitude and the epicenter are used as sensor information in the first embodiment.
  • the distance from the epicenter is described as “distance”.
  • the priority information shown in FIG. 5 the corresponding priority is shown for each combination of magnitude and distance from the epicenter.
  • the magnitude extracted by the information extraction unit 151 when the magnitude extracted by the information extraction unit 151 is 6 or more and the distance from the epicenter is 10 km or less, the magnitude extracted by the information extraction unit 151 is It is a case where it is 5 or more and less than 6 and the distance from the epicenter is 5 km or less, and a case where the magnitude extracted by the information extraction unit 151 is less than 5 and the distance from the epicenter is 1 km or less.
  • Priority 2 is that when the magnitude extracted by the information extraction unit 151 is 6 or more and the distance from the epicenter is 50 km or less, the magnitude extracted by the information extraction unit 151 is 5 or more and less than 6 and the epicenter. When the distance from the earthquake is 10 km or less, and when the magnitude extracted by the information extraction unit 151 is less than 5, and the distance from the epicenter is 5 km or less.
  • Priority 3 is that when the magnitude extracted by the information extraction unit 151 is 6 or more and the distance from the epicenter is 100 km or less, the magnitude extracted by the information extraction unit 151 is 5 or more and less than 6 and the epicenter. When the distance from the earthquake is 50 km or less, and when the magnitude extracted by the information extraction unit 151 is less than 5, and the distance from the epicenter is 10 km or less.
  • the priority information when the magnitude and the epicenter are used as sensor information when the magnitude is the same, the shorter the distance from the epicenter to the object, the higher the priority of the damage status confirmation work.
  • the priority is set in. That is, when the magnitude is the same and the distance from the epicenter to the object is relatively short, the degree of damage to the object is expected to be relatively large, so the priority of the damage status confirmation work is high. Be crushed. In addition, when the magnitude is the same and the distance from the epicenter to the object is relatively long, the degree of damage to the object is expected to be relatively small, so the priority of the damage status confirmation work is low. Be crushed.
  • the priority determination unit 152 determines the priority based on the magnitude at the position corresponding to the position information of the object and the distance from the epicenter to the position of the object. decide.
  • the magnitude at the position corresponding to the position information of the object is extracted by the information extraction unit 151.
  • the magnitude is extracted when the magnitude information exists, and when the magnitude information does not exist, the magnitude is relatively the object in the area containing the object. The magnitude close to is extracted.
  • the priority determination unit 152 calculates the distance from the epicenter extracted by the information extraction unit 151 to the position of the object in step S140. Since the information on the epicenter is not information that can be extracted depending on the position of the object, the information extraction unit 151 adopts the information on the epicenter acquired from the processing information storage unit 14 as it is as the extracted sensor information in step S130. To do.
  • the priority determination unit 152 compares the magnitude at the position corresponding to the position information of the object and the distance from the epicenter to the position of the object with the threshold value predetermined in the priority information. Then, the priority determination unit 152 confirms the status of the object by extracting the priority corresponding to the magnitude at the position corresponding to the position information of the object and the distance from the epicenter to the position of the object from the priority information. Determine priorities.
  • the threshold values are magnitude 5, magnitude 6, distance 1 km, distance 5 km, distance 10 km, distance 50 km, and distance 100 km.
  • the distance from the epicenter to the position of the object may be a fixed value corresponding to the magnitude value.
  • FIG. 6 is a diagram showing an example of priority information when precipitation is used as sensor information in the first embodiment.
  • the corresponding priority is shown for each stage of 24-hour precipitation.
  • priority 1 is a case where the 24-hour precipitation extracted by the information extraction unit 151 is 200 mm or more
  • priority 2 is a 24-hour precipitation extracted by the information extraction unit 151.
  • the amount is 100 mm or more and less than 200 mm
  • priority 3 is the case where the 24-hour precipitation extracted by the information extraction unit 151 is less than 100 mm.
  • the priority is set so that the larger the 24-hour precipitation, the higher the priority of the damage status confirmation work. That is, when the amount of precipitation for 24 hours is large, the degree of damage to the object is expected to be relatively large, so that the priority of the damage status confirmation work is high. In addition, when the 24-hour precipitation is small, the degree of damage to the object is expected to be relatively small, so that the priority of the damage status confirmation work is lowered.
  • the priority determination unit 152 determines the 24-hour precipitation at the position of the object or the object is based on the 24-hour precipitation at the position corresponding to the position information of the object. Priorities are determined based on 24-hour precipitation relatively close to the object in the included area. Specifically, the priority determination unit 152 compares a predetermined threshold value in the priority information with the extracted 24-hour precipitation, and prioritizes the priority corresponding to the extracted 24-hour precipitation. By extracting from the information, the status confirmation priority of the object is determined. In the priority information shown in FIG. 6, 100 mm and 200 mm are threshold values.
  • FIG. 7 is a diagram showing an example of priority information when a special warning, a warning, and a warning are used as prediction information in the first embodiment.
  • the priority information shown in FIG. 7 the corresponding priority order is shown for each type of prediction information.
  • the heavy rain special warning is given priority 1
  • the sediment disaster warning warning is given priority 2
  • the heavy rain warning and the flood warning are given priority 3
  • the heavy rain warning and the flood warning are given. It has a priority of 4.
  • the damage status confirmation work of the section where the heavy rain special warning was announced will be performed earliest.
  • the priority is set so that the higher the alert level of the prediction information, the higher the priority of the damage status confirmation work. That is, when the alert level of the prediction information is high, the degree of damage to the object is expected to be relatively large, so that the priority of the damage status confirmation work is high. In addition, when the alert level of the prediction information is low, the degree of damage to the object is expected to be relatively small, so that the priority of the damage status confirmation work is lowered.
  • the priority determination unit 152 is based on the prediction information at the position corresponding to the position information of the object, that is, the prediction information of the position of the object or the area including the object. The priority is determined based on the prediction information of the position relatively close to the object. Specifically, the priority determination unit 152 compares a predetermined type of prediction information in the priority information with the extracted prediction information, and extracts the priority corresponding to the extracted prediction information from the priority information. By doing so, the status confirmation priority of the object is determined.
  • the priority information is set in advance before the start of the work support process shown in FIG. 3, it may be changed by the operator's input or the like at the start of the work support process. Alternatively, the priority information may be changed by an operator's input or the like before the process of step S140 after the start of the work support process.
  • step S150 the work support system 1 displays the determined status confirmation priority of each object. Specifically, the display unit 17 displays the status confirmation priority of each object determined by the priority order determination unit 152.
  • FIGS. 8 and 9 are diagrams showing an example of displaying the status confirmation priority in the display unit 17 of the first embodiment.
  • the display unit 17 displays the identification information of the object for each priority.
  • the identification information of the object whose priority is determined to be priority 1 is identification information A, identification information B, identification information C, etc.
  • the object whose priority is determined to be priority 2 The identification information of the object is identification information D, identification information F, etc.
  • the identification information of the object whose priority is determined to be priority 3 is identification information E, identification information G, identification information H, or the like.
  • the identification information in the priority order is displayed by dividing it into areas such as cities. For example, by displaying the identification information of the same priority separately for each area in charge of the person in charge of confirming the damage status of the object, the person in charge can easily recognize the information necessary for himself / herself. Efficiency is improved.
  • the area in which the identification information of the same priority is divided and displayed can be arbitrarily set by the user.
  • the identification information of the object is exemplified by the address where the object is located, the name of the contractor who owns the object, and the like. Further, the identification information of the object may be the contract number of the insurance contract or the identification number of the insurance contract when the object is the object to be covered by the non-life insurance contract.
  • the object information acquisition unit 13 includes the position information of the object indicating the geographical position of the object for a plurality of objects for which the damage status confirmation work is required. Acquire object information which is information. Further, the information extraction unit 151 extracts the sensor information of the position corresponding to the position information of the object or the prediction information of the position corresponding to the position information of the object based on the position information of the object. Then, the priority determination unit 152 uses the sensor information extracted by the information extraction unit 151 or the prediction information extracted by the information extraction unit 151 to give priority to the confirmation work of the damage status of each of the plurality of objects. Determine the confirmation priority.
  • the work support system 1 can automatically determine the status confirmation priority of a plurality of objects for a plurality of objects that require the damage status confirmation work, and the efficient damage status of the person in charge. It is possible to support the confirmation work of. By carrying out the damage status confirmation work according to the status confirmation priority determined in this way, the person in charge of the damage status confirmation work can quickly determine the damage status from the object that is expected to have a large degree of damage. Confirmation work can be performed.
  • the degree of damage can be confirmed by the quick confirmation work of the damage situation, if the object is covered by non-life insurance, the procedure for promptly paying out the insurance money becomes possible.
  • the degree of damage can be confirmed by the quick confirmation work of the damage situation, if the object is the object of issuance of the damage certificate, it is possible to carry out the procedure for issuing the damage certificate, reconstruction support, etc. It becomes.
  • the work support system 1 described above has the effect of being able to support the improvement of work efficiency in the work of confirming the damage status of the object. Then, by improving the efficiency of the confirmation work of the damage status of the object, the person in charge of the municipality can efficiently issue the damage certificate. In addition, by improving the efficiency of the work of confirming the damage status of the object, the person in charge of the insurance company can efficiently pay out the insurance money.
  • FIG. 10 is a diagram showing an example of device configuration when the work support system 1 of the first embodiment is configured by two devices.
  • the work support system 1 can be configured by the analysis device 10 and the management device 30 by dividing the functions of the work support system 1.
  • the analysis device 10 and the management device 30 are work support devices that support the efficiency of confirmation work of the damage status of the object in the event of a disaster. The same applies to the analysis device and management device described below.
  • the analysis device 10 includes an information acquisition unit 11, an object information acquisition unit 13, a processing information storage unit 14, a processing unit 15, a priority information storage unit 16, and an output unit 18.
  • the management device 30 includes a display information acquisition unit 31, a display information storage unit 32, and a display unit 33.
  • the same members as those in FIG. 1 are assigned the same numbers. Hereinafter, the differences from FIG. 1 will be mainly described.
  • the output unit 18 outputs the status confirmation priority determined by the priority determination unit 152 to the display information acquisition unit 31 together with the object information associated with the status confirmation priority.
  • the display information acquisition unit 31 acquires the status confirmation priority and the target information corresponding to the status confirmation priority of each object determined by the priority determination unit 152 from the analysis device 10.
  • the display information acquisition unit 31 stores the acquired status confirmation priority and the object information in the display information storage unit 32.
  • the display information storage unit 32 stores the status confirmation priority and the target information corresponding to the status confirmation priority of each object determined by the priority determination unit 152.
  • the display unit 33 displays the status confirmation priority stored in the display information storage unit 32 and the identification information of the object corresponding to the status confirmation priority.
  • the display unit 33 can also acquire the status confirmation priority and the identification information of the object corresponding to the status confirmation priority from the display information acquisition unit 31.
  • Each of the analysis device 10 and the management device 30 is individually realized by the computer system shown in FIG.
  • the computer system that realizes the analysis device 10 and the computer system that realizes the management device 30 are connected by a communication line.
  • This communication line may be a wired line or a wireless line, and a wireless line and a wired line may be mixed.
  • the output unit 18 shown in FIG. 10 is realized by the output unit 106 shown in FIG. 2 in the computer system that realizes the analysis device 10.
  • the display information acquisition unit 31 shown in FIG. 10 is realized by the control unit 101 and the communication unit 105 in the computer system that realizes the management device 30.
  • the display information storage unit 32 shown in FIG. 10 is a part of the storage unit 103 shown in FIG. 2 in the computer system that realizes the management device 30.
  • the display unit 33 shown in FIG. 10 is realized by the display unit 104 shown in FIG. 2 in the computer system that realizes the management device 30.
  • the management device 30 is relatively made by using the processing information storage unit 14 that requires a large capacity and the processing unit 15 that requires high-load processing as the configuration requirements of the analysis device 10. It can be realized at low cost. Therefore, the device configuration example shown in FIG. 10 is an effective configuration example when a plurality of management devices 30 are required, such as when the management device 30 is distributed to a plurality of persons in charge.
  • FIG. 11 is a diagram showing a configuration of a work support system 1a which is a first modification of the work support system 1 according to the first embodiment.
  • the area designation information input unit 19 is added to the work support system 1.
  • the area designation information input unit 19 receives the area designation information for designating the area where the object is located.
  • the area designation information input unit 19 outputs the received area designation information to the object information acquisition unit 13. Any method can be used as the method of inputting the area designation information into the area designation information input unit 19.
  • the area designation information may be input to the area designation information input unit 19 by the user. Further, the area designation information may be recorded on the recording medium, and the area designation information input unit 19 may read the information from the recording medium.
  • FIG. 12 is a flowchart showing an example of work support processing in the work support system 1a of the first modification according to the first embodiment.
  • points different from the flowchart shown in FIG. 3 will be described.
  • step S121 the work support system 1a acquires the area designation information.
  • the area designation information input unit 19 receives the area designation information and outputs the received area designation information to the object information acquisition unit 13.
  • step S122 the work support system 1a acquires the object information of the object located in the area designated by the area designation information. Specifically, when the object information acquisition unit 13 acquires the area designation information, it acquires the object information of the object located in the area designated by the area designation information, and stores the acquired object information as processing information. Store in unit 14. The object information acquisition unit 13 acquires a plurality of object information from the object information providing device 203.
  • the work support system 1a may acquire the sensor information of the area designated by the area designation information, or may acquire the prediction information of the area designated by the area designation information.
  • Step S130 and subsequent steps are the same as in the case of the flowchart shown in FIG.
  • the object information acquisition unit 13 acquires the object information of the object located in the area designated by the area designation information.
  • the object information acquired by the object information acquisition unit 13 is limited to the object information in a specific area. Therefore, the processing load of the object information acquisition unit 13 is reduced, and the object information providing device 203 and the target.
  • FIG. 13 is a diagram showing a device configuration example in the case where the work support system 1a, which is the first modification of the work support system 1 according to the first embodiment, is configured by two devices. As shown in FIG. 13, the work support system 1a can be configured by the analysis device 10a and the management device 30a by dividing the functions of the work support system 1a.
  • an area designation information input unit 19 is added to the management device 30.
  • the area designation information input unit 19 outputs the received area designation information to the object information acquisition unit 13 via an output unit (not shown) in the management device 30a.
  • the object information acquisition unit 13 acquires the area designation information via an input unit (not shown), and acquires and acquires the object information of the object located in the area designated by the area designation information.
  • the generated object information is stored in the processing information storage unit 14.
  • the management device 30a is relatively made by using the processing information storage unit 14 that requires a large capacity and the processing unit 15 that requires high-load processing as the constituent requirements of the analysis device 10a. It can be realized at low cost. Therefore, the device configuration example shown in FIG. 13 is an effective configuration example when a plurality of management devices 30a are required, such as when the management device 30a is distributed to a plurality of persons in charge.
  • FIG. 14 is a diagram showing a configuration of a work support system 1b which is a second modification of the work support system 1 according to the first embodiment.
  • the geographic information acquisition unit 20 is added to the work support system 1.
  • the geographic information acquisition unit 20 acquires geographic information from the geographic information providing device 204.
  • the geographic information acquisition unit 20 stores the acquired geographic information in the processing information storage unit 14.
  • FIG. 15 is a flowchart showing an example of work support processing in the work support system 1b of the second modification according to the first embodiment.
  • points different from the flowchart shown in FIG. 3 will be described.
  • step S124 the work support system 1b acquires geographic information. Specifically, the geographic information acquisition unit 20 acquires geographic information from the geographic information providing device 204. The geographic information acquisition unit 20 stores the acquired geographic information in the processing information storage unit 14.
  • step S141 the work support system 1b creates an object map which is a map displaying the position of the object and the status confirmation priority determined for the object, and displays the created object map in the display unit 17 Output to.
  • the priority determination unit 152 acquires geographic information from the processing information storage unit 14, and obtains the position information of each object and the information of the status confirmation priority determined for each object as geographic information. Create the object map information to display the object map in association with the map information included in.
  • the priority order determination unit 152 outputs the created object map information to the display unit 17.
  • step S151 the work support system 1b displays an object map.
  • the display unit 17 displays an object map in which the position of the object and the status confirmation priority determined for the object are displayed by using the object map information.
  • the display unit 17 displays an object map in which the position of the object and the status confirmation priority determined for the object are displayed by using the object map information.
  • the person in charge of confirming the damage status of the object can grasp the position of the object and the status confirmation priority determined for the object on the object map. It is possible to make a plan for efficient damage status confirmation work without waste when going to the field survey at the location of the object, and the efficiency of the damage status confirmation work is improved.
  • FIG. 16 is a diagram showing a device configuration example in the case where the work support system 1b of the second modification according to the first embodiment is configured by two devices. As shown in FIG. 16, the work support system 1b can be configured by the analysis device 10b and the management device 30b by dividing the functions of the work support system 1b.
  • the geographic information acquisition unit 20 is added to the analysis device 10.
  • the output unit 18 outputs the object map information output from the priority determination unit 152 to the management device 30b in addition to the status confirmation priority and the object information associated with the status confirmation priority. To do.
  • the display information acquisition unit 31 acquires the object map information and stores it in the display information storage unit 32.
  • the display unit 33 displays the object map.
  • the management device 30b is relatively made by using the processing information storage unit 14 that requires a large capacity and the processing unit 15 that requires high-load processing as the constituent requirements of the analysis device 10b. It can be realized at low cost. Therefore, the device configuration example shown in FIG. 16 is an effective configuration example when a plurality of management devices 30b are required, such as when the management device 30b is distributed to a plurality of persons in charge.
  • the work support system 1 may be installed in a local government such as a prefecture or a municipality, or may be installed in a company or a service center that supports the local government. It may also be installed in a company that is outsourced to respond to disasters. In addition, by installing a work support device equipped with a priority determination department at an insurance company, a company that supports a local government, a service center, etc., the work support device equipped with a priority determination department has priority over the corresponding organization such as the local government. Ranking can be provided.
  • the work support system 1 can automatically determine the status confirmation priority of a plurality of objects for a plurality of objects that require the damage status confirmation work, which is efficient for the person in charge. It is possible to support the work of confirming the damage situation. That is, the work support system 1 described above has the effect of being able to support the improvement of work efficiency in the work of confirming the damage status of the object. Then, by improving the efficiency of the confirmation work of the damage status of the object, the person in charge of the municipality can efficiently issue the damage certificate. In addition, by improving the efficiency of the work of confirming the damage status of the object, the person in charge of the insurance company can efficiently pay out the insurance money.
  • FIG. 17 is a diagram showing a configuration example of the work support system 2 according to the second embodiment of the present invention.
  • the work support system 2 of the present embodiment is a system that supports the efficiency of the confirmation work of the damage status of the object in the event of a disaster, and determines and displays the status confirmation priority which is the priority of the damage status confirmation work. To do.
  • the same members as those in the first embodiment are assigned the same numbers.
  • the object is compensation for which the insurance company pays the insurance money when the work support system 2 is used when the insurance company pays the insurance money to the policyholder of the non-life insurance. Is the object of.
  • the object is an object for which the disaster certificate is issued when the work support system 2 is used when the municipality issues the disaster certificate.
  • the work support system 2 acquires object information and determines the status confirmation priority of each of the plurality of objects using the sensor information for the plurality of objects that require the damage status confirmation work.
  • the objects corresponding to the object information acquired by the work support system 2 are all objects that require confirmation work of the damage status. Therefore, in the second embodiment, the work support system 2 determines the status confirmation priority of a plurality of objects for which the damage status confirmation work is required.
  • the position information of the object is the same as in the case of the first embodiment described above, and may be the latitude / longitude information of the geographical position where the object exists, or the address information. There may be. Further, the address may be converted into latitude and longitude by the sensor information analysis unit 411 described later.
  • the position is close to the position corresponding to the position information of the object. It is possible to use the sensor information of the position close to the position corresponding to the position information of the object, which is the position.
  • the work support system 2 includes a sensor information acquisition unit 12, an object information acquisition unit 13, a processing information storage unit 14, a processing unit 41, a priority information storage unit 42, and a display unit 17.
  • a sensor information acquisition unit 12 an object information acquisition unit 13
  • a processing information storage unit 14 a processing unit 41, a priority information storage unit 42, and a display unit 17.
  • the sensor information acquisition unit 12 acquires sensor information from the sensor information providing device 201.
  • the sensor information acquisition unit 12 stores the acquired sensor information in the processing information storage unit 14.
  • the processing information storage unit 14 stores the sensor information acquired by the sensor information acquisition unit 12 and the object information acquired by the object information acquisition unit 13.
  • the sensor information in the second embodiment is the information obtained by the observation of the sensor as in the case of the first embodiment, and is the data acquired by the sensor or the data processed by the sensor.
  • the sensor information includes information indicating the position of the observation location observed by the sensor.
  • the sensor may be a sensor mounted on an artificial satellite, an aircraft, a drone, or the like, a sensor mounted on a vehicle or the like, or a sensor fixed to the ground surface, a building, or the like.
  • the sensor information providing device 201 calculates the position observed by the sensor based on the orbital position of the artificial satellite, the operating conditions of the sensor, etc., and together with the information indicating the position. , The data observed by the sensor or the data is processed to provide the data.
  • the sensor information acquisition unit 12 acquires sensor information including the target area from the sensor information providing device 201. As will be described later, when calculating the change region by using the difference between the sensor information before and after the occurrence of the disaster, the sensor information acquisition unit 12 targets at least once in normal times when no disaster occurs. Acquire sensor information corresponding to the area.
  • the sensor information acquisition unit 12 determines the priority of the response after the occurrence of the disaster, and the sensor information after the occurrence of the disaster. At the same time, the sensor information in the past, that is, before the occurrence of the disaster may be acquired.
  • Artificial satellite observation data is generally provided as various levels of data, from raw data to higher-order products.
  • image data for calculating the change region is required, it is desirable to acquire the image data after calibration and geometric correction peculiar to the sensor have been performed.
  • the image data is, for example, brightness, scattering intensity, altitude, etc. for each pixel.
  • the sensor information acquisition unit 12 may acquire any level of data from the sensor information providing device 201.
  • the sensor information analysis unit 411 may perform sensor-specific calibration and geometric correction to generate image data.
  • the sensor information of the sensor mounted on the aircraft, vehicle, etc. is also acquired from the sensor information providing device 201 together with the position information.
  • satellite observation data is acquired regardless of whether or not a disaster has occurred, but sensors mounted on aircraft, vehicles, etc. are in areas where a disaster is assumed to have occurred after the disaster. May be observed. In this case, the sensor information before the disaster may not be obtained. If the sensor information before the disaster occurs, the sensor information of a similar sensor mounted on the artificial satellite may be used as the sensor information before the disaster.
  • the sensor information acquisition unit 12 may acquire the sensor information in normal times from the sensor information providing device 201. ..
  • the sensor information providing device 201 may be the sensor itself, a processing device connected to the sensor, or the like.
  • the sensor information acquisition unit 12 may acquire sensor information from a sensor that observes a target area.
  • this server or the like becomes the sensor information providing device 201.
  • sensor information such as SAR sensor information acquired by SAR, laser scanner sensor information acquired by a laser scanner, and image sensor information acquired by an image sensor is used as sensor information.
  • a SAR image is generated by signal processing the SAR sensor information.
  • a three-dimensional point cloud image is generated by signal processing the laser scanner sensor information.
  • a visible image or an infrared image is generated by signal processing the image sensor information.
  • the sensor information providing device 201 may generate images such as a SAR image, a three-dimensional point group image, a visible image, and an infrared image by signal processing of the sensor information acquired from the sensor, and the sensor information analysis unit. It may be done at 411. When the sensor information providing device 201 generates an image by signal processing of the sensor information acquired from the sensor, the sensor information providing device 201 may output the generated image as sensor information to the sensor information acquiring unit 12. Good.
  • the processing unit 41 analyzes the sensor information obtained before the occurrence of the disaster and the sensor information obtained during or after the occurrence of the disaster, and obtains the geographical change area of the change area where the state has changed. Displacement information including information indicating the position of the change region, which is information indicating the position, and information indicating the displacement state of the change region is extracted. Then, the processing unit 41 uses the object information to displace the object displacement information, which is the displacement information of the position corresponding to the position information of the object, for the plurality of objects specified by the plurality of object information. Extract from. Further, the processing unit 41 determines the status confirmation priority, which is the priority of the confirmation work of the damage status of a plurality of objects, by using the object displacement information. Specifically, the processing unit 41 includes a sensor information analysis unit 411, a displacement information extraction unit 412, and a priority order determination unit 413.
  • the sensor information analysis unit 411 acquires the sensor information obtained before the occurrence of the disaster and the sensor information obtained during or after the occurrence of the disaster from the processing information storage unit 14. Then, the sensor information analysis unit 411 analyzes the sensor information obtained before the occurrence of the disaster and the sensor information obtained during or after the occurrence of the disaster, and changes the change region in which the state has changed. Displacement information including information indicating the position of the region and information indicating the displacement state of the changing region is extracted. Therefore, the sensor information acquisition unit 12 acquires the sensor information corresponding to the target area at least once in normal times when a disaster does not occur. Alternatively, if the sensor information providing device 201 also provides past sensor information, the sensor information acquisition unit 12 determines the priority of status confirmation during or after a disaster. The sensor information in the past, that is, before the occurrence of the disaster may be acquired together with the sensor information during the occurrence or after the occurrence of the disaster.
  • the displacement information extraction unit 412 acquires displacement information from the sensor information analysis unit 411, and acquires a plurality of object information stored in the processing information storage unit 14. Then, the displacement information extraction unit 412 obtains the object displacement information, which is the displacement information of the position corresponding to the position information of the object, for each of the plurality of objects specified by the acquired plurality of object information. Extract from displacement information using information.
  • the priority order determination unit 413 acquires the object displacement information from the displacement information extraction unit 412, and acquires a plurality of object information stored in the processing information storage unit 14. Then, the priority order determination unit 413 determines the status confirmation priority for each of the plurality of objects specified by the acquired plurality of object information by using the object displacement information and the priority information.
  • the priority information storage unit 42 has a threshold value indicating the degree of displacement of the change region determined by the priority order determination unit 413 based on the object displacement information, and a status confirmation priority which is a priority of confirmation work of the damage status of the object. Stores priority information indicating the correspondence with the ranking.
  • the sensor information analysis unit 411, the displacement information extraction unit 412, and the priority order determination unit 413 shown in FIG. 17 are realized by the control unit 101 shown in FIG.
  • the priority information storage unit 42 shown in FIG. 17 is a part of the storage unit 103 shown in FIG.
  • FIG. 18 is a flowchart showing an example of work support processing in the work support system 2 according to the second embodiment.
  • the work support process shown in FIG. 18 is carried out during or after a disaster has occurred.
  • the work support process shown in FIG. 18 may be carried out after a work request for confirming the damage status of the object has been made, and specifically after an application for a disaster certificate or a request for withdrawal of insurance money has been made. ..
  • the sensor information in normal times is acquired in order to extract the change region, the sensor information is acquired and processed even before the disaster occurs before the processing shown in FIG. It is stored in the information storage unit 14.
  • step S210 the work support system 2 acquires sensor information.
  • the sensor information acquisition unit 12 acquires sensor information from the sensor information providing device 201, and stores the acquired sensor information in the processing information storage unit 14.
  • step S220 the work support system 2 acquires the object information including the position information of the object.
  • the object information acquisition unit 13 acquires the object information from the object information providing device 203, and stores the acquired object information in the processing information storage unit 14.
  • the object information acquisition unit 13 acquires a plurality of object information from the object information providing device 203. Note that step S220 may be performed before step S210.
  • step S230 the work support system 2 analyzes the sensor information obtained before the occurrence of the disaster and the sensor information obtained during or after the occurrence of the disaster, and changes the state.
  • displacement information including information indicating the position of the change region and information indicating the displacement state of the change region is extracted.
  • the sensor information analysis unit 411 acquires the sensor information obtained before the occurrence of the disaster and the sensor information obtained during or after the occurrence of the disaster. Then, the sensor information analysis unit 411 analyzes the sensor information obtained before the occurrence of the disaster and the sensor information obtained during or after the occurrence of the disaster, and changes the change region in which the state has changed.
  • Displacement information including information indicating the position of the region and information indicating the displacement state of the changing region is extracted.
  • the sensor information analysis unit 411 outputs the extracted displacement information to the displacement information extraction unit 412.
  • the work support system 2 uses the object displacement information, which is the displacement information of the position corresponding to the position information of the object, for the plurality of objects specified by the plurality of object information. Extract from displacement information using information.
  • the displacement information extraction unit 412 acquires the displacement information from the sensor information analysis unit 411, and acquires a plurality of object information stored in the processing information storage unit 14. Then, the displacement information extraction unit 412 obtains the object displacement information, which is the displacement information of the position corresponding to the position information of the object, for each of the plurality of objects specified by the acquired plurality of object information. Extract from displacement information using information.
  • the displacement information extraction unit 412 outputs the extracted object displacement information to the priority order determination unit 413.
  • the work support system 2 determines the priority of the work of confirming the damage status of a plurality of objects by using the object displacement information. Specifically, the priority order determination unit 413 acquires the object displacement information from the displacement information extraction unit 412, and acquires a plurality of object information stored in the processing information storage unit 14. Then, the priority order determination unit 413 determines the status confirmation priority for each of the plurality of objects specified by the acquired plurality of object information by using the object displacement information. The priority order determination unit 413 associates the status confirmation priority with the corresponding object information and outputs the status confirmation priority to the display unit 17 together with the object information.
  • the priority determination unit 413 acquires priority information from the priority information storage unit 42. Then, the priority order determination unit 413 determines the situation confirmation priority based on the object displacement information and the priority information, which are the displacement information of the object. That is, the priority determination unit 413 compares the degree of displacement of the change region determined by the priority determination unit 413 based on the object displacement information with the priority information, and gives priority corresponding to the degree of displacement of the change region. By extracting the order from the priority information, the status confirmation priority of each object is determined.
  • FIG. 19 is a diagram showing an example of priority information according to the second embodiment.
  • priority information (a) and priority information (b) are shown as examples of priority information.
  • the numerical value of the priority indicates that the smaller the numerical value, the higher the priority.
  • the priority when it is determined that "the displaced part of the building is 50% or more of the total area", the priority is set to priority 1, and "the displaced part of the building is the total area".
  • the priority when it is determined to be "less than 50%” is set to priority 2.
  • the area of the roof before the occurrence of a disaster is taken as the total area of the building. That is, in the priority information (a) shown in FIG. 19, when "the displaced part of the building is 50% or more of the total area", the degree of damage to the object is expected to be relatively large. The priority of damage status confirmation work is raised.
  • the displaced part of the building is less than 50% of the total area
  • the degree of damage to the object is expected to be relatively small, so that the priority of the damage status confirmation work is lowered.
  • 50% of the total area is the threshold value.
  • the threshold can be changed by the user to any value.
  • the priority when it is determined that "the displacement of the inclination of the pillar or the outer wall of the building is 3 degrees or more" is set as the priority 1, and "the inclination of the pillar or the outer wall of the building".
  • the priority is set to priority 2. That is, in the priority information (b) shown in FIG. 19, when "the displacement of the inclination of the pillar or the outer wall of the building is 3 degrees or more", the degree of damage to the object is expected to be relatively large. , The priority of damage status confirmation work is raised.
  • the tilt displacement of 3 degrees is the threshold value.
  • the threshold can be changed by the user to any value.
  • the work support system 2 determines the degree of damage to the object based on, for example, the displacement information of the object.
  • the "displaced part of the building" can be obtained as follows.
  • the work support system 2 uses a SAR image generated from the SAR sensor information or a three-dimensional point group image generated from the laser scanner sensor information, and uses the signal reflected and returned from the object before the disaster. , Compare with the signal reflected and returned from the object during or after the disaster.
  • the region where there is a difference between the signal reflected and returned from the object before the disaster and the signal reflected and returned from the object during or after the disaster is ". It is the part of the building with displacement.
  • the work support system 2 is an area where there is a difference between the signal reflected and returned from the object before the disaster and the signal reflected and returned from the object during or after the disaster. However, the ratio of the entire object to the area is calculated.
  • the work support system 2 uses, for example, a three-dimensional point cloud image generated from laser scanner sensor information.
  • the sensor information acquisition unit 12 acquires the laser scanner sensor information obtained before the disaster occurs and the laser scanner sensor information obtained during or after the disaster.
  • the sensor information analysis unit 411 generates a three-dimensional point cloud image from the laser scanner sensor information obtained before the occurrence of the disaster, and three-dimensional points from the laser scanner sensor information obtained during or after the disaster. Generate a point cloud image. Then, the sensor information analysis unit 411 extracts the difference between the three-dimensional point cloud image before the disaster and the three-dimensional point cloud image during or after the disaster as displacement information. In addition, the sensor information analysis unit 411 performs signal processing on the visible image before the occurrence of a disaster to calculate the area of the roof of the building. In addition, the sensor information analysis unit 411 performs signal processing on the visible image during or after the disaster to calculate the area of the roof of the building. The sensor information analysis unit 411 extracts the difference between the roof area before the disaster and the roof area during or after the disaster, and extracts the difference as displacement information.
  • step S250 the priority determination unit 413 determines the area of the roof before the disaster and the area of the roof during or after the disaster based on the object displacement information extracted from the displacement information in step S240. The ratio of the difference between the above and the roof area before the disaster occurs is calculated, and the degree of damage to the building is determined.
  • the "displacement of the inclination of the pillar or outer wall of the building” can be obtained, for example, as follows.
  • SAR irradiates an object with electromagnetic waves from an oblique direction with respect to the vertical direction, analyzes the reflected signal to observe the object, and therefore observes the outer wall on the side where the electromagnetic waves are irradiated. It is possible. Further, depending on the construction conditions of the pillars, such as when the pillars are exposed on the outer surface when viewed from the outside of the building, it is possible to observe the pillars on the side where the electromagnetic waves are irradiated in the same manner.
  • the sensor is a sensor mounted on an artificial satellite, an aircraft, a drone, etc.
  • the sensor information obtained before the disaster occurs is the sensor information acquired by the sensor mounted on the artificial satellite
  • the sensor information obtained during or after the disaster is an aircraft or drone. It is possible to use the sensor information acquired from the sensor mounted on the vehicle.
  • the status of the object can be acquired in detail by acquiring the sensor information from the on-board sensor of an aircraft or drone based on the position information of the object during or after the disaster. , The effect can be obtained.
  • the priority order determination unit 413 determines the damage caused by the flood of the object based on, for example, the displacement information of the object. For example, SAR can measure the height of the earth's surface in millimeters. Therefore, the priority determination unit 413 uses the SAR sensor information obtained before the occurrence of the disaster and the SAR sensor information obtained during or after the occurrence of the disaster as the sensor information around the house. It is possible to analyze the water level of. In addition, the laser emitted from the laser scanner is reflected by the flooded water. Therefore, the priority order determination unit 413 can analyze the water level around the house by using the laser scanner sensor information as the sensor information. The priority order determination unit 413 can compare the analyzed water level with a threshold value of the inundation depth predetermined in the priority information to determine the presence or absence of inundation.
  • SAR can measure the height of the earth's surface in millimeters. Therefore, the priority determination unit 413 uses the SAR sensor information obtained before the occurrence of the disaster and the SAR sensor information obtained during or after the
  • the priority order determination unit 413 can determine that the surroundings of the house are not flooded by analyzing the visible image using the image sensor information as the sensor information.
  • the priority order determination unit 413 analyzes, for example, a visible image, and can determine that there is inundation when water is accumulated in a range equal to or larger than a threshold area predetermined in the priority information around the house. Therefore, when the object displacement information is the information obtained by using the image sensor information acquired by the image sensor, the priority determination unit 413 is flooded or not flooded around the house. It is possible to determine whether or not.
  • the priority order determination unit 413 analyzes the visible image and can determine that there is inundation when water is accumulated in a range equal to or larger than a predetermined threshold area around the house.
  • FIG. 20 is a diagram showing an example of priority information of the second embodiment, and is a diagram showing an example of priority information when damage due to flood damage has occurred.
  • the numerical value of the priority indicates that the smaller the numerical value, the higher the priority.
  • the priority when the degree of damage due to flood damage is determined to be "inundated” is set to priority 1
  • the order is priority 2.
  • the priority determination unit 413 uses the object displacement information extracted from the sensor information before the water is drawn during and after the disaster, and whether or not it corresponds to the condition of "inundation". To judge. As a result, the priority order determination unit 413 can determine the status confirmation priority according to the priority information shown in FIG.
  • the priority order determination unit 413 is based on the SAR sensor information obtained by the SAR, the information obtained by using the laser scanner sensor information acquired by the laser scanner, or the image sensor information acquired by the image sensor. In a certain case, it is determined whether or not there is a region where water is accumulated based on the object displacement information. Then, the priority determination unit 413 can determine "inundation" when, for example, water is accumulated in a predetermined inundation depth or more, or in a predetermined area or more around the house. ..
  • the priority order determination unit 413 can also use the topographical information to determine that the area located on the same contour line whose altitude is lower than the surrounding area is "inundated". Since the terrain information can be acquired from the geographic information, the work support system 2 includes the geographic information acquisition unit 20 as in the work support system 1b which is the second modification of the work support system 1 according to the above-described first embodiment. It is feasible to have a similar configuration. Since this determination method is not a method of determining the situation confirmation priority using the object displacement information, it can be used as an auxiliary.
  • step S260 the work support system 2 displays the determined status confirmation priority of each object. Specifically, as shown in FIGS. 8 and 9, for example, the display unit 17 displays the status confirmation priority of each object determined by the priority order determination unit 413.
  • the priority order determination unit 413 may output to the display unit 17 the grounds for determining the situation confirmation priority, that is, the information used for determining the situation confirmation priority.
  • the display unit 17 displays the information used for determining the status confirmation priority.
  • the sensor information may be the sensor information of one sensor, or may be a plurality of sensor information corresponding to each of the plurality of sensors.
  • the change area is determined by using the data obtained by the plurality of sensors in an aligned manner to improve the accuracy. It may be extracted and the displacement information may be obtained.
  • the work support system 2 may acquire from the sensor information providing device 201 that the data obtained by the plurality of sensors are aligned and the accuracy is improved.
  • the object information acquisition unit 13 includes the position information of the object indicating the geographical position of the object for a plurality of objects for which the damage status confirmation work is required. Acquire object information which is information. Further, the sensor information analysis unit 411 analyzes the sensor information before the occurrence of the disaster and the sensor information after the occurrence of the disaster, and regarding the change region where the state has changed, the information indicating the position of the change region and the change region. Displacement information including information indicating the displacement state of is extracted. Further, the displacement information extraction unit 412 extracts the object displacement information, which is the displacement information of the position corresponding to the position information of the object, from the displacement information by using the object information for a plurality of objects. Then, the priority order determination unit 413 determines the priority of the work of confirming the damage status of a plurality of objects by using the object displacement information.
  • the work support system 2 has the effect of being able to support the improvement of the work efficiency of the work of confirming the damage status of the object, as in the work support system 1 described above.
  • the work support system 2 can determine the priority of the work of confirming the damage status of the object from the degree of damage to the object, and has the effect of improving the accuracy of the prioritization. Therefore, the work support system 2 has an effect that it can support the improvement of the work efficiency of the work of confirming the damage status of the object with higher accuracy.
  • FIG. 21 is a diagram showing a first device configuration example in the case where the work support system 2 of the second embodiment is configured by two devices. As shown in FIG. 21, the work support system 2 can be configured by the analysis device 50 and the management device 60 by dividing the functions of the work support system 2.
  • the analysis device 50 includes a sensor information acquisition unit 12, an object information acquisition unit 13, a processing information storage unit 14, a sensor information analysis unit 411, a displacement information extraction unit 412, a priority order determination unit 413, a priority information storage unit 42, and an output unit. 18 is provided.
  • the sensor information analysis unit 411, the displacement information extraction unit 412, and the priority order determination unit 413 constitute the processing unit 41.
  • the management device 60 includes a display information acquisition unit 61, a display information storage unit 62, and a display unit 63.
  • the management device 60 corresponds to the management device 30 described above.
  • Each of the display information acquisition unit 61, the display information storage unit 62, and the display unit 63 corresponds to the display information acquisition unit 31, the display information storage unit 32, and the display unit 33 described above.
  • Each of the analysis device 50 and the management device 60 is individually realized by the computer system shown in FIG.
  • the computer system that realizes the analysis device 50 and the computer system that realizes the management device 60 are connected by a communication line.
  • This communication line may be a wired line or a wireless line, and a wireless line and a wired line may be mixed.
  • the output unit 18 shown in FIG. 21 is realized by the output unit 106 shown in FIG. 2 in the computer system that realizes the analysis device 50.
  • the management device 60 is relatively made by using the processing information storage unit 14 that requires a large capacity and the processing unit 41 that requires high-load processing as the configuration requirements of the analysis device 50. It can be realized at low cost. Therefore, the device configuration example shown in FIG. 21 is an effective configuration example when a plurality of management devices 60 are required, such as when the management device 60 is distributed to a plurality of persons in charge.
  • FIG. 22 is a diagram showing a second device configuration example in the case where the work support system 2 of the second embodiment is configured by two devices. As shown in FIG. 22, the work support system 2 can be configured by the analysis device 50a and the management device 60a by dividing the functions of the work support system 2.
  • the analysis device 50a includes a sensor information acquisition unit 12, an object information acquisition unit 13, a processing information storage unit 14, a sensor information analysis unit 411, a displacement information extraction unit 412, and an output unit 18.
  • the sensor information analysis unit 411 and the displacement information extraction unit 412 constitute a processing unit 41.
  • the management device 60a includes an object displacement information acquisition unit 64, a priority order determination unit 413, a priority information storage unit 42, a display information storage unit 62, and a display unit 63.
  • the object displacement information acquisition unit 64 acquires the object displacement information and the object information extracted by the displacement information extraction unit 412 from the displacement information extraction unit 412.
  • the object displacement information acquisition unit 64 outputs the acquired object displacement information and the object information to the priority order determination unit 413.
  • the priority order determination unit 413 determines the status confirmation priority for each of the plurality of objects specified by the acquired plurality of object information by using the object displacement information and the priority information.
  • the priority order determination unit 413 associates the determined status confirmation priority with the corresponding object information, and outputs the determined status confirmation priority to the display information storage unit 62 together with the object information.
  • the person in charge of the insurance company who is expected to use the management device 60a and the person in charge of the insurance company who are expected to use the management device 60a by setting the priority determination unit 413 and the priority information storage unit 42 as the configuration requirements of the management device 60a.
  • Municipal personnel can easily change priority information.
  • FIG. 23 is a diagram showing a third device configuration example in the case where the work support system 2 of the second embodiment is configured by two devices. As shown in FIG. 23, the work support system 2 can be configured by the analysis device 50b and the management device 60b by dividing the functions of the work support system 2.
  • the analysis device 50b includes a sensor information acquisition unit 12, a processing information storage unit 14, a sensor information analysis unit 411, and an output unit 18.
  • the sensor information analysis unit 411 constitutes a processing unit 41.
  • the management device 60b includes a displacement information acquisition unit 65, an object information acquisition unit 13, a displacement information extraction unit 412, a priority order determination unit 413, a priority information storage unit 42, a display information storage unit 62, and a display unit 63.
  • the displacement information acquisition unit 65 acquires the displacement information extracted by the sensor information analysis unit 411 from the sensor information analysis unit 411.
  • the displacement information acquisition unit 65 outputs the acquired displacement information to the displacement information extraction unit 412.
  • the object information acquisition unit 13 acquires a plurality of object information from the object information providing device 203.
  • the object information acquisition unit 13 outputs the acquired object information to the displacement information extraction unit 412.
  • the displacement information extraction unit 412 acquires displacement information and information on a plurality of objects. Then, the displacement information extraction unit 412 extracts the object displacement information from the displacement information by using the object information for each of the plurality of objects specified by the acquired plurality of object information.
  • the analysis device 50b When the sensor information analysis unit 411 calculates the displacement information of the sensor information at the position corresponding to the position information of the object, the analysis device 50b also acquires the object information from the object information providing device 203 and processes the information.
  • the configuration may be such that it can be stored in the storage unit 14. In this case, the sensor information analysis unit 411 also functions as the displacement information extraction unit 412.
  • the work support system 2 is configured to include the geographic information acquisition unit 20 as in the work support system 1b which is the second modification of the work support system 1 according to the above-described first embodiment, and is a display unit. 63 may display the object map.
  • the work support system 2 is configured to include an area designation information input unit 19 as in the work support system 1a which is the first modification of the work support system 1 according to the above-described first embodiment.
  • the object information acquisition unit 13 may acquire the object information of the object located in the area designated by the area designation information.
  • the work support system 2 may acquire the sensor information of the area designated by the area designation information.
  • the person in charge of the insurance company who is expected to use the management device 60b and the person in charge of the insurance company who are expected to use the management device 60b by setting the priority determination unit 413 and the priority information storage unit 42 as the configuration requirements of the management device 60b.
  • Municipal personnel can easily change priority information.
  • the object information acquisition unit 13 by making the object information acquisition unit 13 a configuration requirement of the management device 60b, it is not necessary for the analysis device 50b to handle the object information, and the security of the object information is improved. It is effective for.
  • the work support system 2 has the effect of being able to support the improvement of the work efficiency of the work of confirming the damage status of the object, as in the work support system 1 of the first embodiment.
  • the work support system 2 can determine the priority of the work of confirming the damage status of the object from the degree of damage to the object, and has the effect of improving the accuracy of the prioritization. Therefore, the work support system 2 has an effect that it can support the improvement of the work efficiency of the work of confirming the damage status of the object with higher accuracy.
  • FIG. 24 is a diagram showing a configuration example of the work support system 3 according to the third embodiment of the present invention.
  • the work support system 3 of the present embodiment is a system that supports the efficiency of the confirmation work of the damage status of the object in the event of a disaster, and determines and displays the status confirmation priority which is the priority of the damage status confirmation work. To do.
  • the same members as those in the second embodiment described above are designated by the same reference numerals.
  • the object is compensation for which the insurance company pays the insurance money when the work support system 3 is used when the insurance company pays the insurance money to the policyholder of the non-life insurance. Is the object of.
  • the object is an object for which the disaster certificate is issued when the work support system 3 is used when the municipality issues the disaster certificate.
  • the work support system 3 acquires object information, and when there are a plurality of objects that require confirmation work of the damage status, the work support system 3 determines the status confirmation priority of each of the plurality of objects using the sensor information.
  • the object corresponding to the object information acquired by the work support system 3 is an object for which the necessity of the damage status confirmation work has not been determined. Therefore, in the third embodiment, the work support system 3 determines the status confirmation priority of a plurality of objects for which the necessity of the damage status confirmation work has not been determined.
  • the position information of the object is the same as in the above-described first and second embodiments.
  • the position corresponding to the position information of the object when the sensor information of the position corresponding to the position information of the object does not exist, the position corresponding to the position information of the object is present. Sensor information at a position close to can be used.
  • the sensor information in the third embodiment is the same as the sensor information in the second embodiment.
  • the sensor information in the third embodiment is the information obtained by the observation of the sensor, as in the case of the first and second embodiments, and is the data acquired by the sensor or the processed data. ..
  • the sensor information includes information indicating the position of the observation location observed by the sensor.
  • the sensor may be a sensor mounted on an artificial satellite, an aircraft, a drone, or the like, a sensor mounted on a vehicle or the like, or a sensor fixed to the ground surface, a building, or the like.
  • the SAR sensor information acquired by the SAR the SAR sensor information acquired by the SAR
  • the laser scanner sensor information acquired by the laser scanner the image sensor information acquired by the image sensor.
  • Such sensor information is used.
  • the work support system 3 includes a sensor information acquisition unit 12, an object information acquisition unit 13, a processing information storage unit 14, a processing unit 41, a priority information storage unit 42, and a display unit 17.
  • a sensor information acquisition unit 12 an object information acquisition unit 13
  • a processing information storage unit 14 a processing unit 41
  • a priority information storage unit 42 a display unit 17.
  • the processing unit 41 analyzes the sensor information obtained before the occurrence of the disaster and the sensor information obtained during or after the occurrence of the disaster, and obtains the geographical change area of the change area where the state has changed. Displacement information including information indicating the position of the change region, which is information indicating the position, and information indicating the displacement state of the change region is extracted. Then, the processing unit 41 uses the object information to displace the object displacement information, which is the displacement information of the position corresponding to the position information of the object, for the plurality of objects specified by the plurality of object information. Extract from. Then, the processing unit 41 determines the degree of damage to the object from the object displacement information.
  • the processing unit 41 determines the status confirmation priority, which is the priority of the confirmation work of the damage status of the plurality of objects, by using the damage degree of the objects.
  • the processing unit 41 includes a sensor information analysis unit 411, a displacement information extraction unit 412, a damage degree determination unit 414, and a priority order determination unit 415.
  • the damage degree determination unit 414 acquires the object displacement information and the object information associated with the object displacement information from the displacement information extraction unit 412 for a plurality of objects. Then, the damage degree determination unit 414 determines the damage degree of the object based on the acquired object displacement information. The damage degree determination unit 414 associates the damage degree of the determined object with the corresponding object information, and outputs the damage degree determination unit 415 together with the object information to the priority determination unit 415.
  • the priority order determination unit 415 acquires the damage degree of the object and the object information from the damage degree determination unit 414 for a plurality of objects. Then, the priority order determination unit 415 determines the status confirmation priority for each of the plurality of objects specified by the acquired plurality of object information by using the damage degree of the object and the priority information.
  • the priority information storage unit 42 corresponds between the degree of damage to the object determined by the priority determination unit 415 based on the displacement information of the object and the status confirmation priority which is the priority of the confirmation work of the damage status of the object. Stores priority information indicating.
  • the damage degree determination unit 414 and the priority order determination unit 415 shown in FIG. 24 are realized by the control unit 101 shown in FIG.
  • FIG. 25 is a flowchart showing an example of work support processing in the work support system 3 according to the third embodiment.
  • the work support process shown in FIG. 25 is performed during or after a disaster has occurred.
  • the work support process shown in FIG. 25 may be carried out after a work request for confirming the damage status of the object is generated, and specifically after an application for a disaster certificate or a request for withdrawal of insurance money is made. ..
  • the sensor information in normal times is acquired in order to extract the change region, the sensor information is acquired and processed even before the disaster occurs before the processing shown in FIG. 25. It is stored in the information storage unit 14.
  • points different from the flowchart shown in FIG. 18 will be described.
  • step S310 the work support system 3 executes a damage degree determination process for determining the damage degree of the object from the object displacement information.
  • the damage degree determination unit 414 acquires the object displacement information and the object information associated with the object displacement information from the displacement information extraction unit 412 for a plurality of objects. Then, the damage degree determination unit 414 determines the damage degree of the object based on the acquired object displacement information. The damage degree determination unit 414 associates the damage degree of the determined object with the corresponding object information, and outputs the damage degree determination unit 415 together with the object information to the priority determination unit 415.
  • step S320 the work support system 3 determines the priority of the work of confirming the damage status of a plurality of objects by using the degree of damage to the objects. Specifically, the priority determination unit 415 acquires the object information associated with the damage degree of the object and the damage degree of the object from the damage degree determination unit 414. Then, the priority order determination unit 415 determines the status confirmation priority for each of the plurality of objects specified by the acquired information on the plurality of objects, using the degree of damage to the objects. The priority order determination unit 415 associates the determined status confirmation priority with the corresponding object information, and outputs the determined status confirmation priority to the display unit 17 together with the object information.
  • the priority determination unit 415 acquires priority information from the priority information storage unit 42. Then, the priority order determination unit 415 determines the situation confirmation priority based on the damage degree of the object and the priority information. That is, the priority determination unit 415 compares the damage degree of the object with the priority information and extracts the priority corresponding to the damage degree of the object from the priority information, thereby confirming the status confirmation priority of each object. To determine.
  • the damage certification standard operation guideline shown below is the damage certification flow for damage caused by earthquakes for wooden and prefabricated houses.
  • the Damage Degree Judgment Department 414 includes the criteria (judgment by appearance) of the damage certification standard operation guideline for houses related to disasters published by the Cabinet Office in March 2018 and the object displacement information. By using, it is possible to determine “total destruction” as the degree of damage to the target dwelling house. Further, the damage degree determination unit 414 can determine "the dwelling is completely destroyed” as the degree of damage to the object by using the above-mentioned (determination by inclination) and the object displacement information.
  • the work support system 3 uses a SAR image generated from the SAR sensor information, a three-dimensional point cloud image generated from the laser scanner sensor information, a visible image generated from the image sensor information, and the like. , Acquire the area of the roof before the occurrence of the disaster, and use the acquired area of the roof before the occurrence of the disaster as the total area of the building. In addition, the difference is extracted using the area of the roof during or after the disaster, and the ratio of the displaced part to the total area of the building before the disaster is calculated. Then, the damage degree determination unit 414 can determine that "the dwelling is completely destroyed" if the ratio of the displaced portion to the total area of the building before the disaster occurs is 100%.
  • the damage degree determination unit 414 is based on the damage recognition flow of the above damage and the object displacement information. Therefore, the degree of damage to the object can be determined.
  • the object displacement information is the information obtained by using the laser scanner sensor information acquired by the laser scanner
  • the damage degree determination unit 414 observes the outer wall from an oblique direction with respect to the vertical direction. If this is the case, the degree of damage to the object can be determined based on the damage recognition flow for the above damage and the displacement information of the object.
  • the damage degree determination unit 414 observes the outer wall from an oblique direction with respect to the vertical direction when the object displacement information is the information obtained by using the image sensor information acquired by the image sensor.
  • the degree of damage to the object can be determined based on the damage recognition flow of the above damage and the displacement information of the object.
  • the work support system 3 can determine the priority of status confirmation even when the building is damaged by flood damage.
  • the damage certification flow for damage caused by floods for wooden and prefabricated dwellings published by the Cabinet Office in March 2018 is shown.
  • the damage degree determination unit 414 uses the above-mentioned damage recognition flow for flood damage published by the Cabinet Office and the object displacement information to determine the degree of damage to the target dwelling house as "total destruction.” Can be determined.
  • the damage degree determination unit 414 uses the SAR image generated from the SAR sensor information, the three-dimensional point cloud image generated from the laser scanner sensor information, the visible image generated from the image sensor information, and the like to carry out the above-described implementation. Similar to the priority determination unit 413 of the second form, the water level around the dwelling house can be analyzed.
  • the damage degree determination unit 414 causes the above-mentioned damage. Based on the damage recognition flow and the object displacement information, it is possible to determine the presence or absence and degree of damage to the object based on the inundation depth.
  • the damage degree determination unit 414 uses the object displacement information extracted from the sensor information before the water is drained during and after the disaster, and determines that the house is completely destroyed. Or, it is determined whether or not the condition of "flooding 1.8 m or more above the floor" is satisfied. As a result, the damage degree determination unit 414 can determine "the dwelling is completely destroyed” as the degree of damage to the object.
  • the sensor information analysis unit 411 extracts the displacement information by the same method as that described in the second embodiment, and the damage degree determination unit 414 extracts the object object based on the object displacement information extracted from the displacement information. The degree of damage may be determined.
  • the damage degree determination unit 414 can determine the degree of damage to the object such as "inundation” or "inundation on the floor” by using, for example, the structural information of the house and the displacement information of the object.
  • the structural information of the dwelling house is included in the object information, for example.
  • the damage degree determination unit 414 can acquire the structural information of the house of the object by acquiring the object information.
  • a configuration may be provided in which the structural information of the dwelling house is individually acquired so that the damage degree determination unit 414 can acquire the structural information of the dwelling house of the object.
  • the determination standard for determining the degree of damage in step S310 is stored in advance in the damage degree determination unit 414.
  • the criterion for determination can be changed by the user to any value.
  • step S310 when the degree of damage cannot be determined by using the object displacement information and the criteria for determining the degree of damage, the damage degree determination unit 414 "determines” as information indicating that the degree of damage cannot be determined.
  • the information of "cannot be done” is associated with the corresponding object information and output to the priority determination unit 415 together with the object information.
  • the priority determination unit 415 raises the priority when the degree of damage to the object has not been determined, and determines the degree of damage to the object. If so, lower the priority.
  • the priority determination unit 415 receives the information "cannot be determined" from the damage degree determination unit 414. That is, the priority order determination unit 415 lowers the status confirmation priority for the object whose degree of damage to the object is determined using the sensor information, and determines the degree of damage to the object using the sensor information. Raise the status confirmation priority of objects that have not been opened.
  • the object for which the degree of damage to the object has not been determined using the sensor information may be further prioritized by using, for example, the first and second embodiments.
  • FIG. 26 is a diagram showing an example of priority information according to the third embodiment.
  • the numerical value of the priority indicates that the smaller the numerical value, the lower the priority.
  • the priority is high when the degree of damage to the object is not determined, or when the degree of damage to the determined object is not determined to the predetermined degree of damage. However, when the degree of damage to the object is determined to be a predetermined degree of damage, the priority is lowered.
  • the priority determination unit 415 determines whether or not the degree of damage is determined to be a predetermined degree of damage. For example, when “total destruction” is set to a predetermined degree of damage in the priority information, the priority determination unit 415 determines that the degree of damage is “total destruction” in the damage degree determination process. In addition, it can be determined that the priority of the object is low priority 1. Then, when the degree of damage is not determined to be “totally destroyed” in the damage degree determination process, the priority order determination unit 415 can determine that the object has a high priority of priority 2.
  • the priority determination unit 415 determines the damage of the object in the damage degree determination process.
  • the degree is determined to be “total destruction”
  • the priority of the object can be determined to be priority 1.
  • the priority order determination unit 415 can determine the priority of the object as priority 1 when the degree of damage of the object is determined to be "large-scale half-destroyed” in the damage degree determination process.
  • the priority determination unit 415 sets the priority 2 of the object as the priority 2 when the degree of damage of the object is determined to be "half-destroyed” or "not half-destroyed” in the damage degree determination process. Can be judged.
  • the priority is high, it is necessary to confirm the damage status of the object. If the priority is low, there is no need to check the damage status of the object. The person in charge of the municipality or the insurance company does not confirm the damage status of the object that is judged to have a low priority of status confirmation. Then, the person in charge of the insurance company starts the withdrawal process of the non-life insurance money corresponding to the determined degree of damage. In addition, the person in charge of the municipality will start the procedure for issuing the damage certificate according to the degree of damage determined.
  • the work support system 3 selects the objects for which the damage status of the objects of the municipality or the insurance company is to be confirmed, and extracts the objects for which the damage status confirmation work is required. However, it is possible to reduce the number of objects for which the damage status is confirmed. That is, the work support system 3 can select an object whose damage status confirmation work can be omitted. As a result, the work support system 3 can support the efficiency of the confirmation work of the damage status of the object.
  • the work support system 3 displays the determined status confirmation priority of each object.
  • the display unit 17 displays the status confirmation priority of each object determined by the priority determination unit 415.
  • 27 and 28 are diagrams showing an example of displaying the status confirmation priority in the display unit 17 of the third embodiment.
  • the display unit 17 displays the identification information of the object for each priority.
  • the identification information of the object As the identification information of the object, the address where the object is located, the name of the contractor who owns the object, and the like are exemplified as in the above-described first and second embodiments. Further, the identification information of the object may be the contract number of the insurance contract or the identification number of the insurance contract when the object is the object to be covered by the non-life insurance contract.
  • the priority order determination unit 415 may output to the display unit 17 the grounds for determining the situation confirmation priority, that is, the information used for determining the situation confirmation priority.
  • the display unit 17 displays the information used for determining the status confirmation priority.
  • the sensor information may be the sensor information of one sensor, or may be a plurality of sensor information corresponding to each of the plurality of sensors.
  • the change area is determined by using the data obtained by the plurality of sensors in an aligned manner to improve the accuracy. It may be extracted and the displacement information may be obtained.
  • the work support system 3 may acquire from the sensor information providing device 201 that the data obtained by the plurality of sensors are aligned and the accuracy is improved.
  • FIG. 29 is a diagram showing a first device configuration example in the case where the work support system 3 of the third embodiment is configured by two devices. As shown in FIG. 29, the work support system 3 can be configured by the analysis device 70 and the management device 80 by dividing the functions of the work support system 3.
  • the analysis device 70 includes a sensor information acquisition unit 12, an object information acquisition unit 13, a processing information storage unit 14, a sensor information analysis unit 411, a displacement information extraction unit 412, a damage degree determination unit 414, a priority order determination unit 415, and priority information.
  • a storage unit 42 and an output unit 18 are provided.
  • the sensor information analysis unit 411, the displacement information extraction unit 412, the damage degree determination unit 414, and the priority order determination unit 415 constitute the processing unit 41.
  • the management device 80 includes a display information acquisition unit 81, a display information storage unit 82, and a display unit 83.
  • the management device 80 corresponds to the management device 30 described above.
  • Each of the display information acquisition unit 81, the display information storage unit 82, and the display unit 83 corresponds to the display information acquisition unit 31, the display information storage unit 32, and the display unit 33 described above.
  • Each of the analysis device 70 and the management device 80 is individually realized by the computer system shown in FIG.
  • the computer system that realizes the analysis device 70 and the computer system that realizes the management device 80 are connected by a communication line.
  • This communication line may be a wired line or a wireless line, and a wireless line and a wired line may be mixed.
  • the output unit 18 shown in FIG. 29 is realized by the output unit 106 shown in FIG. 2 in the computer system that realizes the analysis device 70.
  • the management device 80 is relatively made by using the processing information storage unit 14 that requires a large capacity and the processing unit 41 that requires high-load processing as the configuration requirements of the analysis device 70. It can be realized at low cost. Therefore, the device configuration example shown in FIG. 29 is an effective configuration example when a plurality of management devices 80 are required, such as when the management device 80 is distributed to a plurality of persons in charge.
  • FIG. 30 is a diagram showing a second device configuration example in the case where the work support system 3 of the third embodiment is configured by two devices. As shown in FIG. 30, the work support system 3 can be configured by the analysis device 70a and the management device 80a by dividing the functions of the work support system 3.
  • the analysis device 70a includes a sensor information acquisition unit 12, an object information acquisition unit 13, a processing information storage unit 14, a sensor information analysis unit 411, a displacement information extraction unit 412, a damage degree determination unit 414, and an output unit 18.
  • the sensor information analysis unit 411, the displacement information extraction unit 412, and the damage degree determination unit 414 constitute a processing unit 41.
  • the management device 80a includes a damage degree acquisition unit 84, a priority order determination unit 415, a priority information storage unit 42, a display information storage unit 82, and a display unit 83.
  • the damage degree acquisition unit 84 acquires the damage degree determined by the damage degree determination unit 414 and the object information corresponding to the damage degree from the damage degree determination unit 414.
  • the damage degree acquisition unit 84 outputs the acquired damage degree and the object information to the priority determination unit 415.
  • the priority order determination unit 415 determines the status confirmation priority for each of the plurality of objects specified by the acquired plurality of object information by using the damage degree and the priority information.
  • the priority order determination unit 415 associates the determined status confirmation priority with the corresponding object information, and outputs the determined status confirmation priority to the display information storage unit 82 together with the object information.
  • FIG. 31 is a diagram showing a third device configuration example in the case where the work support system 3 of the third embodiment is configured by two devices. As shown in FIG. 31, the work support system 3 can be configured by the analysis device 70b and the management device 80b by dividing the functions of the work support system 3.
  • the analysis device 70b includes a sensor information acquisition unit 12, an object information acquisition unit 13, a processing information storage unit 14, a sensor information analysis unit 411, a displacement information extraction unit 412, and an output unit 18.
  • the sensor information analysis unit 411 and the displacement information extraction unit 412 constitute a processing unit 41.
  • the management device 80b includes an object displacement information acquisition unit 85, a damage degree determination unit 414, a priority order determination unit 415, a priority information storage unit 42, a display information storage unit 82, and a display unit 83.
  • the object displacement information acquisition unit 85 acquires the object displacement information extracted by the displacement information extraction unit 412 and the object information corresponding to the object displacement information from the displacement information extraction unit 412.
  • the object displacement information acquisition unit 85 outputs the acquired object displacement information and the object information to the damage degree determination unit 414.
  • the priority order determination unit 415 determines the status confirmation priority for each of the plurality of objects specified by the acquired plurality of object information by using the damage degree and the priority information.
  • the priority order determination unit 415 associates the determined status confirmation priority with the corresponding object information, and outputs the determined status confirmation priority to the display information storage unit 82 together with the object information.
  • the person in charge of the insurance company who is expected to use the management device 80b and the person in charge of the insurance company who are expected to use the management device 80b by setting the priority determination unit 415 and the priority information storage unit 42 as the configuration requirements of the management device 80b.
  • Municipal personnel can easily change priority information.
  • FIG. 32 is a diagram showing a fourth device configuration example in the case where the work support system 3 of the third embodiment is configured by two devices. As shown in FIG. 32, the work support system 3 can be configured by the analysis device 70c and the management device 80c by dividing the functions of the work support system 3.
  • the analysis device 70c includes a sensor information acquisition unit 12, a processing information storage unit 14, a sensor information analysis unit 411, and an output unit 18.
  • the sensor information analysis unit 411 constitutes a processing unit 41.
  • the management device 80c includes a displacement information acquisition unit 86, an object information acquisition unit 13, a displacement information extraction unit 412, a damage degree determination unit 414, a priority order determination unit 415, a priority information storage unit 42, a display information storage unit 82, and a display unit. 83 is provided.
  • the displacement information acquisition unit 86 acquires the displacement information extracted by the sensor information analysis unit 411 from the sensor information analysis unit 411.
  • the displacement information acquisition unit 86 outputs the acquired displacement information to the displacement information extraction unit 412.
  • the object information acquisition unit 13 acquires a plurality of object information from the object information providing device 203.
  • the object information acquisition unit 13 outputs the acquired object information to the displacement information extraction unit 412.
  • the displacement information extraction unit 412 acquires displacement information and information on a plurality of objects. Then, the displacement information extraction unit 412 extracts the object displacement information from the displacement information by using the object information for each of the plurality of objects specified by the acquired plurality of object information.
  • the analysis device 70c When the sensor information analysis unit 411 calculates the displacement information of the sensor information at the position corresponding to the position information of the object, the analysis device 70c also acquires the object information from the object information providing device 203 and processes the information.
  • the configuration may be such that it can be stored in the storage unit 14. In this case, the sensor information analysis unit 411 also functions as the displacement information extraction unit 412.
  • the object information acquisition unit 13 includes the position information of the object indicating the geographical position of the object for a plurality of objects for which the damage status confirmation work is required. Acquire object information which is information. Further, the sensor information analysis unit 411 analyzes the sensor information before the occurrence of the disaster and the sensor information after the occurrence of the disaster, and regarding the change region where the state has changed, the information indicating the position of the change region and the change region. Displacement information including information indicating the displacement state of is extracted. Further, the displacement information extraction unit 412 extracts the object displacement information, which is the displacement information of the position corresponding to the position information of the object, from the displacement information by using the object information for a plurality of objects.
  • the damage degree determination unit 414 determines the damage degree of a plurality of objects by using the object displacement information. Then, the priority determination unit 415 determines the priority of the work of confirming the damage status of a plurality of objects by using the degree of damage of the objects.
  • the work support system 3 has the effect of being able to support the improvement of the work efficiency of the work of confirming the damage status of the object, as in the work support systems 1 and 2 described above.
  • the work support system 3 can select an object that can omit the confirmation work of the damage status of the object, and can improve the efficiency of the confirmation work of the damage status of the object.
  • resources such as human resources and equipment required for the damage status confirmation work of the object can be concentrated on the object that requires the damage status confirmation work as a whole. As a result, it is possible to quickly confirm the damage status.
  • 1,1a, 1b, 2,3 work support system 10,10a, 10b, 50, 50a, 50b, 70, 70a, 70b, 70c analyzer, 11 information acquisition unit, 12 sensor information acquisition unit, 13 object information Acquisition unit, 14 processing information storage unit, 15,41 processing unit, 16,42 priority information storage unit, 17,33,63,83 display unit, 18 output unit, 19 area designation information input unit, 20 geographic information acquisition unit, 30, 30a, 30b, 60, 60a, 60b, 80, 80a, 80b, 80c management device, 31,61,81 display information acquisition unit, 32,62,82 display information storage unit, 64 object displacement information acquisition unit, 65 displacement information acquisition unit, 84 damage degree acquisition unit, 85 object displacement information acquisition unit, 86 displacement information acquisition unit, 101 control unit, 102 input unit, 103 storage unit, 104 display unit, 105 communication unit, 106 output unit, 107 system bus, 151 information extraction unit, 152,413,415 priority determination unit, 201 sensor information providing device, 202 prediction information providing device, 203 object information providing device,

Landscapes

  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)

Abstract

作業支援装置は、センサの観測によって得られたセンサ情報または災害の発生が予測されることを示す情報である予測情報を取得する情報取得部(11)と、被害状況の確認作業が必要とされる複数の対象物について、対象物の地理的位置を示す対象物の位置情報を含む対象物の情報である対象物情報を取得する対象物情報取得部(13)と、を備える。また、作業支援装置は、対象物の位置情報に相当する位置のセンサ情報または対象物の位置情報に相当する位置の予測情報を、対象物の位置情報に基づいて抽出する情報抽出部(151)と、情報抽出部で抽出されたセンサ情報または情報抽出部で抽出された予測情報を用いて複数の対象物のそれぞれの被害状況の確認作業の優先順位を決定する優先順位決定部(152)と、を備える。

Description

作業支援装置、作業支援システム、作業支援方法
 本発明は、対象物の被害状況の確認作業を支援する作業支援装置、作業支援システム、作業支援方法に関する。
 災害が発生したとき、被災者は、被災した対象物について、被災者支援制度の適用を受けたり、損害保険の請求などを行う際には、罹災証明書が必要となる。罹災証明書は、市町村といった自治体の担当者が現地調査を行って、被災した対象物の被害の程度が確認されたうえで発行される。また、保険会社が損害保険の契約者に対して保険金の払い出しを行う場合には、罹災証明書を受領した補償の対象物について保険会社の担当者が現地調査を行って、補償の対象物の被害状況を確認することとなっている。このような被災した対象物の被害状況の確認作業は、災害が発生する前と災害が発生した後の状態を確認する必要があり、災害が発生した現地に行って対象物の確認を行う必要が発生し、時間を要する作業となっている。
 特許文献1には、保険金の自動払い出し対象とならなかった被保険者から保険金の払い出しを依頼された場合に、保険金を払い出す作業として、災害発生前の写真と災害発生後の被保険者撮影の写真との位置情報が一致していることを災害保険管理システムが表示し、当該写真を人が確認して承認することが示されている。
特開2018-147014号公報
 しかしながら、上記特許文献1の技術によれば、契約者から保険金の払い出し依頼があった場合、保険会社の担当者は、複数の対象物の被害状況を一様に確認するため、効率的な保険金の払い出し業務を実施できない、という問題があった。また、このような問題は、罹災証明書の発行申請が大量に申請された場合においても同様に発生する。すなわち、罹災証明書の発行申請が大量に申請された場合、市町村の担当者は、効率的な罹災証明書の発行業務を実施できない、という問題があった。
 本発明は、上記に鑑みてなされたものであって、対象物の被害状況の確認作業の作業効率の向上を支援するための作業支援装置を得ることを目的とする。
 上述した課題を解決し、目的を達成するために、本発明にかかる作業支援装置は、センサの観測によって得られたセンサ情報または災害の発生が予測されることを示す情報である予測情報を取得する情報取得部と、被害状況の確認作業が必要とされる複数の対象物について、対象物の地理的位置を示す対象物の位置情報を含む対象物の情報である対象物情報を取得する対象物情報取得部と、を備える。また、作業支援装置は、対象物の位置情報に相当する位置のセンサ情報または対象物の位置情報に相当する位置の予測情報を、対象物の位置情報に基づいて抽出する情報抽出部と、情報抽出部で抽出されたセンサ情報または情報抽出部で抽出された予測情報を用いて複数の対象物のそれぞれの被害状況の確認作業の優先順位を決定する優先順位決定部と、を備える。
 本発明にかかる作業支援装置は、対象物の被害状況の確認作業の作業効率の向上を支援することができる、という効果を奏する。
本発明の実施の形態1にかかる作業支援システムの構成例を示す図 実施の形態1にかかる作業支援システムを実現するコンピュータシステムの構成例を示す図 実施の形態1にかかる作業支援システムにおける作業支援処理の一例を示すフローチャート 実施の形態1において震度をセンサ情報として用いる場合の優先情報の一例を示す図 実施の形態1においてマグニチュードと震源地とをセンサ情報として用いる場合の優先情報の一例を示す図 実施の形態1において降水量をセンサ情報として用いる場合の優先情報の一例を示す図 実施の形態1において予測情報として特別警報、警報および注意報を用いる場合の優先情報の一例を示す図 実施の形態1の表示部における状況確認優先順位の表示の一例を示す図 実施の形態1の表示部における状況確認優先順位の表示の一例を示す図 実施の形態1の作業支援システムを2つの装置によって構成する場合の装置構成例を示す図 実施の形態1にかかる作業支援システムの第1の変形例である作業支援システムの構成を示す図 実施の形態1にかかる第1の変形例の作業支援システムにおける作業支援処理の一例を示すフローチャート 実施の形態1にかかる第1の変形例の作業支援システムを2つの装置によって構成する場合の装置構成例を示す図 実施の形態1にかかる作業支援システムの第2の変形例である作業支援システムの構成を示す図 実施の形態1にかかる第2の変形例の作業支援システムにおける作業支援処理の一例を示すフローチャート 実施の形態1にかかる第2の変形例の作業支援システムを2つの装置によって構成する場合の装置構成例を示す図 本発明の実施の形態2にかかる作業支援システムの構成例を示す図 実施の形態2にかかる作業支援システムにおける作業支援処理の一例を示すフローチャート 実施の形態2の優先情報の一例を示す図 実施の形態2の優先情報の一例を示す図であり、水害による被害が発生している場合の優先情報の一例を示す図 実施の形態2の作業支援システムを2つの装置によって構成する場合の第1の装置構成例を示す図 実施の形態2の作業支援システムを2つの装置によって構成する場合の第2の装置構成例を示す図 実施の形態2の作業支援システムを2つの装置によって構成する場合の第3の装置構成例を示す図 本発明の実施の形態3にかかる作業支援システムの構成例を示す図 実施の形態3にかかる作業支援システムにおける作業支援処理の一例を示すフローチャート 実施の形態3の優先情報の一例を示す図 実施の形態3の表示部における状況確認優先順位の表示の一例を示す図 実施の形態3の表示部における状況確認優先順位の表示の一例を示す図 実施の形態3の作業支援システムを2つの装置によって構成する場合の第1の装置構成例を示す図 実施の形態3の作業支援システムを2つの装置によって構成する場合の第2の装置構成例を示す図 実施の形態3の作業支援システムを2つの装置によって構成する場合の第3の装置構成例を示す図 実施の形態3の作業支援システムを2つの装置によって構成する場合の第4の装置構成例を示す図
 以下に、本発明の実施の形態にかかる作業支援装置、作業支援システム、作業支援方法を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。
実施の形態1.
 図1は、本発明の実施の形態1にかかる作業支援システム1の構成例を示す図である。本実施の形態の作業支援システム1は、災害発生時に対象物の被害状況の確認作業の効率化を支援するシステムであり、被害状況確認作業の優先順位である状況確認優先順位を決定して表示する。
 作業支援システム1は、センサ情報を提供するセンサ情報提供装置201と、災害の発生が予測されることを示す予測情報を提供する予測情報提供装置202と、対象物についての情報である対象物情報を提供する対象物情報提供装置203とに、それぞれ通信回線により接続される。これらの通信回線は、有線回線であっても無線回線であってもよく、無線回線と有線回線とが混在していてもよい。ここでは、作業支援システム1が、センサ情報提供装置201と予測情報提供装置202と対象物情報提供装置203とから、通信回線を介して情報を取得する例を説明するが、作業支援システム1が、センサ情報提供装置201と予測情報提供装置202と対象物情報提供装置203とから情報を取得する方法は通信回線を介する例に限定されない。例えば、センサ情報提供装置201によって記録媒体にセンサ情報が記録され、作業支援システム1が記録媒体から情報を読み出すようにしてもよい。予測情報についても同様に記録媒体を介して予測情報提供装置202から作業支援システム1へ提供されてもよい。また、対象物情報についても同様に記録媒体を介して対象物情報提供装置203から作業支援システム1へ提供されてもよい。
 また、センサ情報提供装置201、予測情報提供装置202および対象物情報提供装置203は、作業支援システム1を運用および管理する組織以外の管理者により管理される外部の装置であってもよいし、作業支援システム1を運用および管理する組織により管理される装置であってもよい。例えば、作業支援システム1が複数の保険会社の被害状況確認作業の効率化を支援する場合には、センサ情報提供装置201および予測情報提供装置202は、作業支援システム1を運用および管理する組織により管理され、国全体など広域のセンサ情報および予測情報を外部の装置から取得する。また、対象物情報提供装置203は、作業支援システム1を運用および管理する組織により管理され、対象物情報を複数の保険会社が管理する外部の装置から取得する。そして、作業支援システム1は、センサ情報提供装置201、予測情報提供装置202および対象物情報提供装置203から、支援対象の保険会社ごとに、対応する情報を取得するようにしてもよい。
 作業支援システム1は、対象物情報を取得し、被害状況の確認作業が必要な被災した複数の対象物について、センサ情報または予測情報を用いて複数の対象物のそれぞれの状況確認優先順位を決定する。状況確認優先順位は、保険会社の担当者または市町村などの自治体の担当者が行う、補償対象物である対象物の被害状況の確認作業の優先順位である。ここでは、作業支援システム1が取得した対象物情報に対応する対象物は、全て担当者による被害状況の確認作業が必要な対象物である。したがって、本実施の形態1においては、作業支援システム1は、被害状況の確認作業が必要である複数の対象物の状況確認優先順位を決める。
 センサ情報は、センサの観測によって得られた情報であり、センサによって取得されたデータ、または当該データが処理されたデータである。また、センサ情報は、センサにより観測された観測場所の位置を示す情報を含む。センサは、人工衛星、航空機、ドローンなどに搭載されたセンサであってもよく、車両などに搭載されたセンサであってもよく、地表、建物などに固定されたセンサであってもよい。
 センサは、パッシブセンサであってもアクティブセンサであってもよい。パッシブセンサとしては、可視光、赤外光、紫外光などを観測するイメージセンサが例示される。アクティブセンサとしては、合成開口レーダ(SAR:Synthetic Aperture Radar)、3次元点群データを取得するレーザスキャナ、が例示される。センサは、これら以外のセンサであってもよい。
 実施の形態1では、センサ情報は、地震センサによって取得される震度、震源地およびマグニチュード等の地震情報が例示される。また、センサ情報は、気象センサによって取得される気象センサ情報が例示される。気象センサ情報は、雨量計センサによって取得される降水量および風速の情報および各種気象レーダによって取得される線状降水帯の情報が例示される。また、センサ情報は、水位センサによって取得される河川の水位情報および池の水位情報といった水位情報が例示される。すなわち、センサ情報は、地震、気象または水位に関する情報が例示される。
 予測情報は、人々が災害から身を守るために災害の発生が予測されることを示す情報であって、気象に関する予測情報、各種警報、河川または池の水位に関する予測情報、津波情報などが例示される。すなわち、予測情報は、気象、警報、水位または津波に関する情報が例示される。
 対象物は、保険会社が損害保険の契約者に対して保険金の払い出しを行う場合に作業支援システム1が使用される場合には、保険会社が保険金を支払う補償の対象物である。また、対象物は、市町村が罹災証明書を発行する場合に作業支援システム1が使用される場合には、罹災証明書の発行の対象となる対象物である。したがって、作業支援システム1は、保険会社が損害保険の契約者に対して保険金の払い出しを行う場合に、罹災証明書を受領した補償の対象物について保険会社の担当者が実施する補償の対象物の被害状況を確認する作業の効率化を支援する。また、作業支援システム1は、市町村等の自治体の担当者が罹災証明書を発行する場合に、罹災証明書の発行申請を受領した対象物について自治体の担当者が実施する対象物の被害状況を確認する作業の効率化を支援する。
 対象物情報は、対象物についての情報であり、対象物の地理的位置を示す情報である対象物の位置情報を含む。ここでは、対象物情報は、保険会社が保険金を支払う補償の対象物であって契約者から保険金の支払いが請求された、対象物についての情報である。対象物情報は、運用および管理する組織以外の管理者により管理される外部の装置から取得されて対象物情報提供装置203に記憶される。作業支援システム1が保険会社の被害状況確認作業の効率化を支援する場合には、対象物情報は、保険会社から取得されて対象物情報提供装置203に記憶される。
 対象物の位置情報は、対象物が存在する地理的位置の緯度経度の情報であってもよいし、住所の情報であってもよい。後述するように対象物情報取得部13が取得した対象物の位置情報が住所である場合は、対象物情報取得部13において住所が緯度経度に変換されてもよい。
 なお、対象物の位置情報は、地球の重心を原点とする3軸直交座標系のXYZ座標値で示されていてもよく、形式に特に制約はない。また、位置を示す情報の座標系も世界測地系であっても日本測地系であってもよく、座標系に特に制約はない。ただし、センサ情報、予測情報および対象物情報は、それぞれ位置を示す位置情報と対応付けられている。したがって、作業支援システム1が扱う位置情報のなかで、定義の異なる座標値で示されているものがある場合には、作業支援システム1は、予め定めた基準となる座標系における座標値に変換して処理を行う。予め定めた基準となる座標系に特に制約はない。
 また、作業支援システム1は、対象物の位置情報に対応する位置のセンサ情報が存在しない場合には、対象物の位置情報に対応する位置に近い位置のセンサ情報を用いる。対象物の位置情報に相当する位置のセンサ情報は、対象物の緯度経度に近い位置である、対象物の緯度経度に相当する緯度経度のセンサ情報である。ここでは、対象物の位置情報に相当する位置は、対象物の位置情報に対応する位置と、対象物の位置情報に対応する位置に近い位置と、を含むものとする。また、対象物の位置情報に相当する位置と対象物の位置に相当する位置とは同意である。
 対象物の具体例は、保険会社の損害保険契約の補償対象物と、罹災証明書の発行の対象物である。対象物が保険会社の損害保険契約の補償対象物である場合は、対象物情報は、対象物の地理的位置を示す情報である対象物の位置情報の他に、損害保険契約の契約に関する情報が含まれる。対象物が罹災証明書の発行の対象物である場合には、対象物情報は、対象物の地理的位置を示す情報である対象物の位置情報の他に、罹災証明書の発行申請に関する情報が含まれる。
 作業支援システム1は、情報取得部11、対象物情報取得部13、処理情報記憶部14、処理部15、優先情報記憶部16および表示部17を備える。以下、作業支援システム1の各部の機能を説明する。
 情報取得部11は、センサ情報提供装置201からセンサ情報を取得し、または予測情報提供装置202から予測情報を取得する。情報取得部11は、取得した情報を処理情報記憶部14へ格納する。
 対象物情報取得部13は、対象物情報提供装置203から対象物情報を取得する。対象物情報取得部13は、取得した対象物情報を処理情報記憶部14へ格納する。
 処理情報記憶部14は、情報取得部11が取得したセンサ情報、情報取得部11が取得した予測情報および対象物情報取得部13が取得した対象物情報を記憶する。
 優先情報記憶部16は、センサ情報の値または予測情報の種類と状況確認優先順位との対応を示す優先情報を保持する。優先情報の具体例については後述する。
 処理部15は、対象物の位置情報を用いて複数の対象物情報によって特定される複数の対象物について、複数の対象物のそれぞれの位置情報に対応するセンサ情報または予測情報を抽出する。そして、処理部15は、抽出したセンサ情報または予測情報を用いて複数の対象物のそれぞれの状況確認優先順位を決定する。具体的に、処理部15は、情報抽出部151と、優先順位決定部152と、を備える。
 情報抽出部151は、センサ情報、予測情報および対象物情報を、処理情報記憶部14から取得する。情報抽出部151は、対象物情報によって特定される対象物の位置情報に相当する位置のセンサ情報を、処理情報記憶部14から取得したセンサ情報から抽出する。また、情報抽出部151は、対象物情報によって特定される対象物の位置情報に相当する位置の予測情報を、処理情報記憶部14から取得した予測情報から抽出する。すなわち、情報抽出部151は、対象物情報に含まれる対象物の位置情報を用いて、複数の対象物の各々について、センサ情報または予測情報を抽出する。
 優先順位決定部152は、情報抽出部151で抽出されたセンサ情報と、優先情報記憶部16に記憶されている優先情報とに基づいて、複数の対象物の各々の状況確認優先順位を決定する。優先順位決定部152は、決定した各対象物の状況確認優先順位を、対応する対象物情報と関連付けて、対象物情報とともに表示部17へ出力する。
 表示部17は、優先順位決定部152から出力された各対象物の状況確認優先順位と、状況確認優先順位に対応する対象物の対象物情報である識別情報を表示する。
 次に、作業支援システム1のハードウェア構成について説明する。作業支援システム1は、コンピュータシステムにより実現される。図2は、本実施の形態1にかかる作業支援システム1を実現するコンピュータシステムの構成例を示す図である。図2に示すように、このコンピュータシステムは、制御部101と、入力部102と、記憶部103と、表示部104と、通信部105と、出力部106とを備え、これらはシステムバス107を介して接続されている。
 図2において、制御部101は、例えば、CPU(Central Processing Unit)等である。制御部101は、本実施の形態の作業支援方法が記述された作業支援プログラムを実行する。入力部102は、たとえばキーボード、マウスなどで構成され、コンピュータシステムのユーザが、各種情報の入力を行うために使用する。記憶部103は、RAM(Random Access Memory),ROM(Read Only Memory)などの各種メモリおよびハードディスクなどのストレージデバイスを含み、上記制御部101が実行すべきプログラム、処理の過程で得られた必要なデータなどを記憶する。また、記憶部103は、プログラムの一時的な記憶領域としても使用される。表示部104は、LCD(Liquid Crystal Display:液晶表示パネル)などで構成され、コンピュータシステムのユーザに対して各種画面を表示する。通信部105は、通信処理を実施する通信回路などである。通信部105は、複数の通信方式にそれぞれ対応する複数の通信回路で構成されていてもよい。出力部106は、プリンタ、外部記憶装置などの外部の装置へデータを出力する出力インタフェイスである。なお、図2は、一例であり、コンピュータシステムの構成は図2の例に限定されない。
 ここで、本実施の形態の作業支援プログラムのうち作業支援システム1の処理が記述されたプログラムが実行可能な状態になるまでのコンピュータシステムの動作例について説明する。上述した構成をとるコンピュータシステムには、たとえば、図示しないCD(Compact Disc)-ROMドライブまたはDVD(Digital Versatile Disc)-ROMドライブにセットされたCD-ROMまたはDVD-ROMから、第1プログラムが記憶部103にインストールされる。そして、第1プログラムの実行時に、記憶部103から読み出された第1プログラムが記憶部103の主記憶装置となる領域に格納される。この状態で、制御部101は、記憶部103に格納された第1プログラムに従って、本実施の形態の作業支援システム1としての処理を実行する。
 なお、上記の説明においては、CD-ROMまたはDVD-ROMを記録媒体として、作業支援システム1における処理を記述したプログラムを提供しているが、これに限らず、コンピュータシステムの構成、提供するプログラムの容量などに応じて、たとえば、通信部105を経由してインターネットなどの伝送媒体により提供されたプログラムを用いることとしてもよい。
 作業支援システム1において、図1に示した情報取得部11および対象物情報取得部13は、図2に示した制御部101および通信部105により実現される。図1に示した情報抽出部151および優先順位決定部152は、図2に示した制御部101により実現される。図1に示した処理情報記憶部14および優先情報記憶部16は、図2に示した記憶部103の一部である。図1に示した表示部17は、図2に示した表示部104により実現される。なお、本実施の形態の作業支援システム1を実現するハードウェアは、パーソナルコンピュータ(PC:Personal Computer)のような端末に限定されるものではなく、タブレット、スマートフォンなどの携帯情報端末であっても差し支えない。また、作業支援システム1のシステム構成は、1台の端末で全ての処理を実行するスタンドアロン形式でもよいし、サーバで解析した結果をクライアントへ送るクライアントサーバ形式であってもよい。クライアントサーバ形式の場合、例えば、入力部102、表示部104、出力部106はクライアント側、その他の機能はサーバ側に設けられてもよい。
 次に、本実施の形態1にかかる作業支援システム1の動作の詳細について説明する。図3は、本実施の形態1にかかる作業支援システム1における作業支援処理の一例を示すフローチャートである。図3に示した作業支援処理は、災害が発生した後に実施される。あるいは、図3に示した作業支援処理は、対象物の被害状況の確認作業依頼が発生した後、具体的には罹災証明書の申請または保険金の払い出し依頼が発生した後に実施されてもよい。
 ステップS110において、作業支援システム1は、センサ情報および予測情報を取得する。具体的には、情報取得部11が、センサ情報提供装置201からセンサ情報を取得し、取得したセンサ情報を処理情報記憶部14に格納する。また、情報取得部11が、予測情報提供装置202から予測情報を取得し、取得した予測情報を処理情報記憶部14へ格納する。すなわち、ステップS110は、センサ情報を取得するセンサ情報取得ステップと、予測情報を取得する予測情報取得ステップとを含む。なお、情報取得部11が、センサ情報を取得するか、予測情報を取得するか、またはセンサ情報と予測情報との両方を取得するかは、情報取得部11にあらかじめ設定される設定情報を変更することによって変更可能である。ユーザは、図2に示した入力部102を使用することによって、設定情報を変更することが可能である。
 次に、ステップS120において、作業支援システム1は、対象物の位置情報を含む対象物情報を取得する。具体的には、対象物情報取得部13が、対象物情報提供装置203から対象物情報を取得し、取得した対象物情報を処理情報記憶部14へ格納する。対象物情報取得部13は、対象物情報提供装置203から、複数の対象物情報を取得する。なお、ステップS120がステップS110よりも先に行われてもよい。
 次に、ステップS130において、作業支援システム1は、対象物情報に含まれる対象物の位置情報に相当する位置における、センサ情報または予測情報を抽出する。具体的には、情報抽出部151が、処理情報記憶部14からセンサ情報および対象物情報を取得し、取得したセンサ情報から、対象物情報に含まれる対象物の位置情報に相当する位置に対応するセンサ情報を抽出する。また、情報抽出部151が、処理情報記憶部14から予測情報および対象物情報を取得し、取得した予測情報から、対象物情報に含まれる対象物の位置情報に相当する位置に対応する予測情報を抽出する。また、情報抽出部151が、入力部102から入力された指定期間の、最も災害の発生が予測される値である最大値または最悪値といった値のセンサ情報または予測情報を、処理情報記憶部14から抽出する。あるいは、情報抽出部151が、災害発生より前の予め決められた期間の、最も災害の発生が予測される値である最大値または最悪値といった値のセンサ情報または予測情報を、処理情報記憶部14から抽出する。なお、指定期間および予め決められた期間は、変更可能である。指定期間は、作業支援システム1が作業支援処理の対象とする期間である。情報抽出部151は、センサ情報と予測情報とから抽出した情報を優先順位決定部152へ出力する。
 情報抽出部151は、対象物の位置情報に対応する位置のセンサ情報が存在する場合には、対象物の位置情報に対応する位置のセンサ情報を抽出して、対象物の位置情報に相当する位置におけるセンサ情報とする。情報抽出部151は、対象物の位置情報に対応する位置のセンサ情報が存在しない場合には、対象物の位置情報に対応する位置を含むエリアにおいて相対的に対象物の位置情報に対応する位置から近い位置のセンサ情報を抽出して、対象物の位置情報に相当する位置におけるセンサ情報とする。
 情報抽出部151は、対象物の位置情報に対応する位置の予測情報が存在する場合には、対象物の位置情報に対応する位置の予測情報を抽出して、対象物の位置情報に相当する位置における予測情報とする。情報抽出部151は、対象物の位置情報に対応する位置の予測情報が存在しない場合には、対象物の位置情報に対応する位置を含むエリアにおいて相対的に対象物の位置情報に対応する位置から近い位置の予測情報を抽出して、対象物の位置情報に相当する位置における予測情報とする。
 情報抽出部151が、センサ情報を抽出するか、予測情報を抽出するか、またはセンサ情報と予測情報との両方を抽出するかは、情報抽出部151にあらかじめ設定される設定情報を変更することによって変更可能である。ユーザは、図2に示した入力部102を使用することによって、設定情報を変更することが可能である。
 次に、ステップS140において、作業支援システム1は、抽出されたセンサ情報または抽出された予測情報に基づいて、被害状況確認作業の優先順位である状況確認優先順位を、対象物ごとに決定する。具体的には、優先順位決定部152が、優先情報記憶部16に記憶されている優先情報から、情報抽出部151で抽出されたセンサ情報または情報抽出部151で抽出された予測情報に対応する、抽出されたセンサ情報に対応する優先順位または抽出された予測情報に対応する優先順位を抽出することにより、対象物の状況確認優先順位を対象物ごとに決定する。
 より具体的には、優先順位決定部152は、優先情報において予め定められた閾値と抽出されたセンサ情報とを比較して、抽出されたセンサ情報に対応する優先順位を優先情報から抽出することによって、各対象物の状況確認優先順位を決定する。また、優先順位決定部152は、抽出された予測情報に対応する優先順位を優先情報から抽出することによって、各対象物の状況確認優先順位を決定する。優先順位決定部152は、決定した状況確認優先順位を、対応する対象物情報と関連付けて、対象物情報とともに表示部17へ出力する。
 なお、優先情報において閾値は、ユーザが任意の値に変更可能である。また、閾値は、各レベルのセンサ値の範囲でもよい。
 ここで、ステップS140の処理である状況確認優先順位の決定処理の具体例について説明する。図4~図7は、本実施の形態1の優先情報の一例を示す図である。図4~図7では、優先順位の数値は、数値が小さいほど優先順位が高いことを示している。なお、図4~図7に示した優先順位、センサ情報および予測情報の区分は、優先情報を模式的に示す例であり、優先順位、センサ情報および予測情報の具体的内容は図4~図7に示した例に限定されない。
 図4は、本実施の形態1において震度をセンサ情報として用いる場合の優先情報の一例を示す図である。図4に示した優先情報では、震度の段階ごとに、対応する優先順位が示されている。図4に示すように、例えば、優先順位1は、情報抽出部151で抽出されたセンサ情報である震度が6以上である場合であり、優先順位2は、情報抽出部151で抽出されたセンサ情報である震度が5である場合であり、優先順位3は、情報抽出部151で抽出されたセンサ情報である震度が4以下である場合である。
 図4に示すように、震度をセンサ情報として用いる場合の優先情報では、震度が大きいほど被害状況確認作業の順位が優先されるように、優先順位が定められている。すなわち、震度が大きい場合は、対象物の被害の程度が相対的に大きいと予想されるため、被害状況確認作業の優先順位が高くされる。また、震度が小さい場合は、対象物の被害の程度が相対的に小さいと予想されるため、被害状況確認作業の優先順位が低くされる。
 震度をセンサ情報として用いる場合、優先順位決定部152は、対象物の位置情報に相当する位置における震度に基づいて、すなわち対象物の位置の震度または対象物が含まれるエリアのうち相対的に対象物の位置から近い位置の震度に基づいて、優先順位を決定する。具体的に、優先順位決定部152は、優先情報において予め定められた閾値と抽出されたセンサ情報である震度とを比較して、抽出された震度に対応する優先順位を優先情報から抽出することによって、対象物の状況確認優先順位を決定する。図4に示した優先情報では、震度6および震度4が閾値である。
 図5は、本実施の形態1においてマグニチュードと震源地とをセンサ情報として用いる場合の優先情報の一例を示す図である。図5では、震源地からの距離を「距離」と記載している。図5に示した優先情報では、マグニチュードと震源地からの距離との組み合わせごとに、対応する優先順位が示されている。
 図5に示すように、例えば、優先順位1は、情報抽出部151で抽出されたマグニチュードが6以上であり且つ震源地からの距離が10km以下の場合、情報抽出部151で抽出されたマグニチュードが5以上6未満であり且つ震源地からの距離が5km以下の場合、および情報抽出部151で抽出されたマグニチュードが5未満であり且つ震源地からの距離が1km以下の場合である。
 優先順位2は、情報抽出部151で抽出されたマグニチュードが6以上であり且つ震源地からの距離が50km以下の場合、情報抽出部151で抽出されたマグニチュードが5以上6未満であり且つ震源地からの距離が10km以下の場合、および情報抽出部151で抽出されたマグニチュードが5未満であり且つ震源地からの距離が5km以下の場合である。
 優先順位3は、情報抽出部151で抽出されたマグニチュードが6以上であり且つ震源地からの距離が100km以下の場合、情報抽出部151で抽出されたマグニチュードが5以上6未満であり且つ震源地からの距離が50km以下の場合、および情報抽出部151で抽出されたマグニチュードが5未満であり且つ震源地からの距離が10km以下の場合である。
 図5に示すように、マグニチュードと震源地とをセンサ情報として用いる場合の優先情報では、マグニチュードが同じ場合、震源地から対象物までの距離が短いほど被害状況確認作業の順位が優先されるように、優先順位が定められている。すなわち、マグニチュードが同じ場合において、震源地から対象物までの距離が相対的に短い場合は、対象物の被害の程度が相対的に大きいと予想されるため、被害状況確認作業の優先順位が高くされる。また、マグニチュードが同じ場合において、震源地から対象物までの距離が相対的に長い場合は、対象物の被害の程度が相対的に小さいと予想されるため、被害状況確認作業の優先順位が低くされる。
 マグニチュードと震源地とをセンサ情報として用いる場合、優先順位決定部152は、対象物の位置情報に相当する位置におけるマグニチュードと、震源地から対象物の位置までの距離とに基づいて、優先順位を決定する。対象物の位置情報に相当する位置におけるマグニチュードは、情報抽出部151で抽出される。対象物の位置情報に相当する位置におけるマグニチュードは、マグニチュードの情報が存在する場合にはマグニチュードが抽出され、またマグニチュードの情報が存在しない場合には対象物が含まれるエリアのうち相対的に対象物から近い位置のマグニチュードが抽出される。
 また、マグニチュードと震源地とをセンサ情報として用いる場合、優先順位決定部152は、情報抽出部151で抽出される震源地から対象物の位置までの距離をステップS140で算出する。なお、震源地の情報は、対象物の位置によって抽出できる情報ではないため、ステップS130において情報抽出部151は、処理情報記憶部14から取得した震源地の情報をそのまま、抽出したセンサ情報として採用する。
 そして、優先順位決定部152は、対象物の位置情報に相当する位置におけるマグニチュードおよび震源地から対象物の位置までの距離を、優先情報において予め定められた閾値と比較する。そして、優先順位決定部152は、対象物の位置情報に相当する位置におけるマグニチュードおよび震源地から対象物の位置までの距離に対応する優先順位を優先情報から抽出することによって、対象物の状況確認優先順位を決定する。図5に示した優先情報では、マグニチュード5、マグニチュード6、距離1km、距離5km、距離10km、距離50kmおよび距離100kmが閾値である。なお、震源地から対象物の位置までの距離は、マグニチュードの値に対応して固定された値とされてもよい。
 図6は、本実施の形態1において降水量をセンサ情報として用いる場合の優先情報の一例を示す図である。図6に示した優先情報では、24時間降水量の段階ごとに、対応する優先順位が示されている。図6に示すように、例えば、優先順位1は、情報抽出部151で抽出された24時間降水量が200mm以上の場合であり、優先順位2は、情報抽出部151で抽出された24時間降水量が100mm以上200mm未満である場合であり、優先順位3は、情報抽出部151で抽出された24時間降水量が100mm未満の場合である。
 図6に示すように、24時間降水量をセンサ情報として用いる場合の優先情報では、24時間降水量が大きいほど被害状況確認作業の順位が優先されるように、優先順位が定められている。すなわち、24時間降水量が多い場合は、対象物の被害の程度が相対的に大きいと予想されるため、被害状況確認作業の優先順位が高くされる。また、24時間降水量が少ない場合は、対象物の被害の程度が相対的に小さいと予想されるため、被害状況確認作業の優先順位が低くされる。
 24時間降水量をセンサ情報として用いる場合、優先順位決定部152は、対象物の位置情報に相当する位置における24時間降水量に基づいて、すなわち対象物の位置の24時間降水量または対象物が含まれるエリアのうち相対的に対象物から近い位置の24時間降水量に基づいて、優先順位を決定する。具体的に、優先順位決定部152は、優先情報において予め定められた閾値と抽出されたセンサ情報である24時間降水量を比較して、抽出された24時間降水量に対応する優先順位を優先情報から抽出することによって、対象物の状況確認優先順位を決定する。図6に示した優先情報では、100mmおよび200mmが閾値である。
 図7は、本実施の形態1において予測情報として特別警報、警報および注意報を用いる場合の優先情報の一例を示す図である。図7に示した優先情報では、予測情報の種類ごとに、対応する優先順位が示されている。図7に示した例では、大雨特別警報を優先順位1とし、以下、順に、土砂災害警戒警報を優先順位2とし、大雨警報、洪水警報を優先順位3とし、大雨注意報、洪水注意報を優先順位4としている。これにより、大雨特別警報が発表されていた区画の被害状況確認作業が最も早く行われることになる。
 図7に示すように、予測情報を優先順位の判定に用いる場合の優先情報では、警戒レベルが高い予測情報ほど被害状況確認作業の順位が優先されるように、優先順位が定められている。すなわち、予測情報の警戒レベルが高い場合は、対象物の被害の程度が相対的に大きいと予想されるため、被害状況確認作業の優先順位が高くされる。また、予測情報の警戒レベルが低い場合は、対象物の被害の程度が相対的に小さいと予想されるため、被害状況確認作業の優先順位が低くされる。
 予測情報を優先順位の判定に用いる場合、優先順位決定部152は、対象物の位置情報に相当する位置における予測情報に基づいて、すなわち対象物の位置の予測情報または対象物が含まれるエリアのうち相対的に対象物から近い位置の予測情報に基づいて、優先順位を決定する。具体的に、優先順位決定部152は、優先情報において予め定められた予測情報の種類と抽出された予測情報とを比較して、抽出された予測情報に対応する優先順位を優先情報から抽出することによって、対象物の状況確認優先順位を決定する。
 なお、優先情報は、図3に示した作業支援処理の開始より前に予め設定されるが、作業支援処理の開始時にオペレータの入力などにより変更されてもよい。または、優先情報は、作業支援処理の開始後のステップS140の処理までの間にオペレータの入力などにより変更されてもよい。
 図3の説明に戻る。ステップS150において、作業支援システム1は、各対象物の決定された状況確認優先順位を表示する。具体的には、表示部17が、優先順位決定部152で決定された各対象物の状況確認優先順位を表示する。
 図8および図9は、本実施の形態1の表示部17における状況確認優先順位の表示の一例を示す図である。図8および図9に示すように、表示部17には、各優先順位ごとに、対象物の識別情報が表示されている。図8に示す例では、優先順位が優先順位1に決定された対象物の識別情報は、識別情報A、識別情報B、識別情報C等であり、優先順位が優先順位2に決定された対象物の識別情報は、識別情報D、識別情報F等であり、優先順位が優先順位3に決定された対象物の識別情報は、識別情報E、識別情報G、識別情報H等である。
 また、図9に示す例では、優先順位における識別情報が、市などのエリアに分けて表示されている。例えば、同じ優先順位の識別情報を、対象物の被害状況の確認作業を実施する担当者の担当エリアごとに分けて表示することにより、担当者が自分に必要な情報を認識しやすくなり、作業効率が向上する。同じ優先順位の識別情報を分割表示するエリアは、ユーザが任意に設定可能である。
 対象物の識別情報は、対象物がある住所、対象物を保有している契約者の氏名などが例示される。また、対象物の識別情報は、対象物が損害保険契約の補償対象物である場合には、保険契約の契約番号、保険契約の識別番号であってもよい。
 以上のステップが実施されることにより、作業支援システム1における状況確認優先順位の決定処理が終了する。
 上述した作業支援システム1は、対象物情報取得部13が、被害状況の確認作業が必要とされる複数の対象物について、対象物の地理的位置を示す対象物の位置情報を含む対象物の情報である対象物情報を取得する。また、情報抽出部151が、対象物の位置情報に相当する位置のセンサ情報または対象物の位置情報に相当する位置の予測情報を、対象物の位置情報に基づいて抽出する。そして、優先順位決定部152が情報抽出部151で抽出されたセンサ情報または情報抽出部151で抽出された予測情報を用いて複数の対象物のそれぞれの被害状況の確認作業の優先順位である状況確認優先順位を決定する。
 これにより、作業支援システム1は、被害状況の確認作業が必要とされる複数の対象物について、複数の対象物の状況確認優先順位を自動で決めることができ、担当者の効率的な被害状況の確認作業を支援することが可能である。このように決定された状況確認優先順位にしたがって被害状況の確認作業を実施することで、被害状況の確認作業の担当者は、被害の程度が大きいと予想される対象物から迅速な被害状況の確認作業を行うことが可能となる。
 また、迅速な被害状況の確認作業により被害の程度が確認できることで、対象物が損害保険の補償の対象物である場合には、迅速な保険金の払い出し手続きが可能となる。また、迅速な被害状況の確認作業により被害の程度が確認できることで、対象物が罹災証明書の発行の対象物である場合には、迅速な罹災証明書の発行手続き、復興支援などが実施可能となる。
 すなわち、上述した作業支援システム1は、対象物の被害状況の確認作業の作業効率の向上を支援することができる、という効果を奏する。そして、対象物の被害状況の確認作業の効率化を図ることにより、市町村の担当者は、効率的な罹災証明書の発行業務を行うことができる。また、対象物の被害状況の確認作業の効率化を図ることにより、保険会社の担当者は、効率的な保険金の払い出し業務を行うことができる。
 図10は、本実施の形態1の作業支援システム1を2つの装置によって構成する場合の装置構成例を示す図である。図10に示すように、作業支援システム1は、作業支援システム1の機能を分割して、解析装置10と、管理装置30とによって構成することができる。解析装置10および管理装置30とは、災害発生時に対象物の被害状況の確認作業の効率化を支援する作業支援装置である。以下における解析装置および管理装置も同様である。
 解析装置10は、情報取得部11、対象物情報取得部13、処理情報記憶部14、処理部15、優先情報記憶部16および出力部18を備える。管理装置30は、表示情報取得部31、表示情報記憶部32および表示部33を備える。なお、図10においては、図1と同様の部材には同じ番号を付している。以下では、図1と異なる点を主に説明する。
 出力部18は、優先順位決定部152で決定された状況確認優先順位を、状況確認優先順位と関連付けられた対象物情報とともに表示情報取得部31へ出力する。
 表示情報取得部31は、優先順位決定部152で決定された各対象物の状況確認優先順位および状況確認優先順位に対応する対象物情報を、解析装置10から取得する。表示情報取得部31は、取得した状況確認優先順位および対象物情報を表示情報記憶部32へ格納する。
 表示情報記憶部32は、優先順位決定部152で決定された各対象物の状況確認優先順位および状況確認優先順位に対応する対象物情報を記憶する。
 表示部33は、表示情報記憶部32に記憶された状況確認優先順位と、状況確認優先順位に対応する対象物の識別情報を表示する。なお、表示部33は、状況確認優先順位と、状況確認優先順位に対応する対象物の識別情報を表示情報取得部31から取得することも可能である。
 解析装置10と管理装置30との各々は、図2に示すコンピュータシステムによって、個別に実現される。解析装置10を実現するコンピュータシステムと、管理装置30を実現するコンピュータシステムとは、通信回線により接続される。この通信回線は、有線回線であっても無線回線であってもよく、無線回線と有線回線とが混在していてもよい。
 図10に示した出力部18は、解析装置10を実現するコンピュータシステムにおいて、図2に示した出力部106により実現される。図10に示した表示情報取得部31は、管理装置30を実現するコンピュータシステムにおいて、制御部101および通信部105により実現される。図10に示した表示情報記憶部32は、管理装置30を実現するコンピュータシステムにおいて、図2に示した記憶部103の一部である。図10に示した表示部33は、管理装置30を実現するコンピュータシステムにおいて、図2に示した表示部104により実現される。
 図10に示す装置構成例は、多くの容量が必要な処理情報記憶部14と高負荷な処理が必要な処理部15とを解析装置10の構成要件とすることで、管理装置30を比較的低コストで実現することが可能となる。このため、図10に示す装置構成例は、管理装置30を複数の担当者に配布するなど、複数の管理装置30が必要な場合などに有効な構成例となる。
 図11は、本実施の形態1にかかる作業支援システム1の第1の変形例である作業支援システム1aの構成を示す図である。第1の変形例の作業支援システム1aは、作業支援システム1にエリア指定情報入力部19が追加されている。
 エリア指定情報入力部19は、対象物が位置するエリアを指定するエリア指定情報を受け付ける。エリア指定情報入力部19は、受け付けたエリア指定情報を対象物情報取得部13に出力する。エリア指定情報入力部19へのエリア指定情報の入力方法は、任意の方法が使用可能である。例えば、エリア指定情報は、ユーザによってエリア指定情報入力部19に入力されてもよい。また、記録媒体にエリア指定情報が記録され、エリア指定情報入力部19が記録媒体から情報を読み出すようにしてもよい。
 次に、本実施の形態1にかかる作業支援システム1aの動作について説明する。図12は、本実施の形態1にかかる第1の変形例の作業支援システム1aにおける作業支援処理の一例を示すフローチャートである。以下では、図3に示したフローチャートと異なる点について説明する。
 ステップS121において、作業支援システム1aは、エリア指定情報を取得する。具体的には、エリア指定情報入力部19が、エリア指定情報を受け付け、受け付けたエリア指定情報を対象物情報取得部13に出力する。
 ステップS122において、作業支援システム1aは、エリア指定情報で指定されたエリアに位置する対象物の対象物情報を取得する。具体的には、対象物情報取得部13は、エリア指定情報を取得すると、エリア指定情報で指定されたエリアに位置する対象物の対象物情報を取得し、取得した対象物情報を処理情報記憶部14へ格納する。対象物情報取得部13は、対象物情報提供装置203から、複数の対象物情報を取得する。
 同様に、作業支援システム1aは、エリア指定情報で指定されたエリアのセンサ情報を取得してもよく、エリア指定情報で指定されたエリアの予測情報を取得してもよい。
 ステップS130以降は、図3に示したフローチャートの場合と同様である。
 上述した作業支援システム1aでは、対象物情報取得部13は、エリア指定情報で指定されたエリアに位置する対象物の対象物情報を取得する。これにより、対象物情報取得部13が取得する対象物情報が、特定のエリアの対象物情報に限定されるため、対象物情報取得部13の処理負荷の軽減、対象物情報提供装置203と対象物情報取得部13との通信量の低減、処理情報記憶部14の使用容量の低減、情報抽出部151の処理負荷の軽減、といった効果が得られる。
 図13は、本実施の形態1にかかる作業支援システム1の第1の変形例である作業支援システム1aを2つの装置によって構成する場合の装置構成例を示す図である。図13に示すように、作業支援システム1aは、作業支援システム1aの機能を分割して、解析装置10aと、管理装置30aとによって構成することができる。
 管理装置30aは、管理装置30にエリア指定情報入力部19が追加されている。エリア指定情報入力部19は、受け付けたエリア指定情報を、管理装置30aにおける不図示の出力部を介して対象物情報取得部13に出力する。
 解析装置10aでは、対象物情報取得部13が、不図示の入力部を介してエリア指定情報を取得し、エリア指定情報で指定されたエリアに位置する対象物の対象物情報を取得し、取得した対象物情報を処理情報記憶部14へ格納する。
 図13に示す装置構成例は、多くの容量が必要な処理情報記憶部14と高負荷な処理が必要な処理部15とを解析装置10aの構成要件とすることで、管理装置30aを比較的低コストで実現することが可能となる。このため、図13に示す装置構成例は、管理装置30aを複数の担当者に配布するなど、複数の管理装置30aが必要な場合などに有効な構成例となる。
 図14は、本実施の形態1にかかる作業支援システム1の第2の変形例である作業支援システム1bの構成を示す図である。第2の変形例の作業支援システム1bは、作業支援システム1に地理情報取得部20が追加されている。
 地理情報取得部20は、地理情報提供装置204から地理情報を取得する。地理情報取得部20は、取得した地理情報を処理情報記憶部14へ格納する。
 次に、本実施の形態1にかかる作業支援システム1bの動作について説明する。図15は、本実施の形態1にかかる第2の変形例の作業支援システム1bにおける作業支援処理の一例を示すフローチャートである。以下では、図3に示したフローチャートと異なる点について説明する。
 ステップS124において、作業支援システム1bは、地理情報を取得する。具体的には、地理情報取得部20が、地理情報提供装置204から地理情報を取得する。地理情報取得部20は、取得した地理情報を処理情報記憶部14へ格納する。
 ステップS141において、作業支援システム1bは、対象物の位置と、対象物に決定された状況確認優先順位とが表示された地図である対象物マップを作成し、作成した対象物マップを表示部17へ出力する。具体的には、優先順位決定部152が、処理情報記憶部14から地理情報を取得し、各対象物の位置情報と、各対象物に決定された状況確認優先順位の情報とを、地理情報に含まれる地図情報に対応付けて、対象物マップを表示する対象物マップ情報を作成する。優先順位決定部152は、作成した対象物マップ情報を表示部17へ出力する。
 ステップS151において、作業支援システム1bは、対象物マップを表示する。具体的には、表示部17が、対象物の位置と、対象物に決定された状況確認優先順位とが表示された対象物マップを、対象物マップ情報を用いて表示する。
 図15における上記のステップ以外のステップは、図3に示したフローチャートの場合と同様である。
 上述した作業支援システム1bでは、表示部17が、対象物の位置と、対象物に決定された状況確認優先順位とが表示された対象物マップを、対象物マップ情報を用いて表示する。これにより、対象物の被害状況の確認作業を実施する担当者は、対象物マップ上で、対象物の位置および対象物に決定された状況確認優先順位とを把握することができるため、複数の対象物の位置に現地調査に出かける際に無駄のない効率的な被害状況の確認作業の計画の立案が可能であり、被害状況の確認作業の効率が向上する。
 図16は、本実施の形態1にかかる第2の変形例の作業支援システム1bを2つの装置によって構成する場合の装置構成例を示す図である。図16に示すように、作業支援システム1bは、作業支援システム1bの機能を分割して、解析装置10bと、管理装置30bとによって構成することができる。
 解析装置10bでは、解析装置10に地理情報取得部20が追加されている。解析装置10bでは、出力部18は、状況確認優先順位および状況確認優先順位と関連付けられた対象物情報の他に、優先順位決定部152から出力された対象物マップ情報を、管理装置30bへ出力する。
 管理装置30bでは、管理装置30と同じ構成および機能を有する他に、表示情報取得部31が対象物マップ情報を取得して表示情報記憶部32へ格納する。また、表示部33が、対象物マップを表示する。
 図16に示す装置構成例は、多くの容量が必要な処理情報記憶部14と高負荷な処理が必要な処理部15とを解析装置10bの構成要件とすることで、管理装置30bを比較的低コストで実現することが可能となる。このため、図16に示す装置構成例は、管理装置30bを複数の担当者に配布するなど、複数の管理装置30bが必要な場合などに有効な構成例となる。
 作業支援システム1は、都道府県、市区町村などの自治体に設置されてもよいし、自治体を支援する企業、サービスセンターなどに設置されてもよい。また、災害の対応を委託されている企業などに設置されてもよい。また、優先順位決定部を備える作業支援装置を保険会社または自治体を支援する企業、サービスセンターなどに設置することで、優先順位決定部を備える作業支援装置は、自治体など、対応を行う組織に優先順位を提供することができる。
 上述したように、作業支援システム1は、被害状況の確認作業が必要とされる複数の対象物について、複数の対象物の状況確認優先順位を自動で決めることができ、担当者の効率的な被害状況の確認作業を支援することが可能である。すなわち、上述した作業支援システム1は、対象物の被害状況の確認作業の作業効率の向上を支援することができる、という効果を奏する。そして、対象物の被害状況の確認作業の効率化を図ることにより、市町村の担当者は、効率的な罹災証明書の発行業務を行うことができる。また、対象物の被害状況の確認作業の効率化を図ることにより、保険会社の担当者は、効率的な保険金の払い出し業務を行うことができる。
実施の形態2.
 図17は、本発明の実施の形態2にかかる作業支援システム2の構成例を示す図である。本実施の形態の作業支援システム2は、災害発生時に対象物の被害状況の確認作業の効率化を支援するシステムであり、被害状況確認作業の優先順位である状況確認優先順位を決定して表示する。なお、図17においては、上述した実施の形態1と同様の部材には同じ番号を付している。
 実施の形態2においても、対象物は、保険会社が損害保険の契約者に対して保険金の払い出しを行う場合に作業支援システム2が使用される場合には、保険会社が保険金を支払う補償の対象物である。また、対象物は、市町村が罹災証明書を発行する場合に作業支援システム2が使用される場合には、罹災証明書の発行の対象となる対象物である。
 作業支援システム2は、対象物情報を取得し、被害状況の確認作業が必要な複数の対象物について、センサ情報を用いて複数の対象物のそれぞれの状況確認優先順位を決定する。作業支援システム2が取得した対象物情報に対応する対象物は、全て被害状況の確認作業が必要な、対象物である。したがって、本実施の形態2においては、作業支援システム2は、被害状況の確認作業が必要である複数の対象物の状況確認優先順位を決める。
 作業支援システム2において、対象物の位置情報は、上述した実施の形態1の場合と同様であり、対象物が存在する地理的位置の緯度経度の情報であってもよいし、住所の情報であってもよい。また、住所は後述するセンサ情報解析部411において緯度経度に変換されてもよい。
 また、作業支援システム2においては、上述した実施の形態1の場合と同様に対象物の位置情報に対応する位置のセンサ情報が存在しない場合には、対象物の位置情報に対応する位置に近い位置である、対象物の位置情報に対応する位置に近い位置のセンサ情報を用いることができる。
 作業支援システム2は、センサ情報取得部12、対象物情報取得部13、処理情報記憶部14、処理部41、優先情報記憶部42および表示部17を備える。以下、作業支援システム2において作業支援システム1と異なる点について説明する。
 センサ情報取得部12は、センサ情報提供装置201からセンサ情報を取得する。センサ情報取得部12は、取得したセンサ情報を処理情報記憶部14へ格納する。
 処理情報記憶部14は、作業支援システム2では、センサ情報取得部12が取得したセンサ情報および対象物情報取得部13が取得した対象物情報を記憶する。
 本実施の形態2におけるセンサ情報は、実施の形態1の場合と同様に、センサの観測によって得られた情報であり、センサによって取得されたデータ、または当該データが処理されたデータである。また、センサ情報は、センサにより観測された観測場所の位置を示す情報を含む。センサは、人工衛星、航空機、ドローンなどに搭載されたセンサであってもよく、車両などに搭載されたセンサであってもよく、地表、建物などに固定されたセンサであってもよい。
 センサが人工衛星に搭載されている場合には、センサ情報提供装置201は、人工衛星の軌道位置、センサの運用条件などに基づいて、センサにより観測された位置を算出し、位置を示す情報とともに、センサにより観測されたデータまたは当該データに処理を施してデータを提供する。センサが人工衛星である場合には、センサ情報取得部12は、対象地域を含むセンサ情報をセンサ情報提供装置201から取得する。後述するように、災害の発生前後のセンサ情報の差分を用いることで、変化領域を算出する場合には、センサ情報取得部12は、災害の発生していない平時において、少なくも1回は対象地域に対応するセンサ情報を取得しておく。または、センサ情報提供装置201が過去のセンサ情報も提供している場合には、センサ情報取得部12は、災害の発生後に、対応の優先順位を決定する際に、災害の発生後のセンサ情報とともに、過去のすなわち災害の発生前のセンサ情報を取得してもよい。
 人工衛星の観測データは、一般に、生データから高次プロダクトまで様々なレベルのデータとして提供される。本実施の形態では、変化領域を算出するための画像データを必要とするため、センサ特有の校正および幾何補正などが行われた後の画像データとして取得することが望ましい。画像データは、例えば、画素ごとの、輝度、散乱強度、標高などである。センサ情報取得部12は、どのレベルのデータをセンサ情報提供装置201から取得してもよい。生データなどの低次レベルのデータをセンサ情報提供装置201から取得する場合には、センサ情報解析部411が、センサ特有の校正および幾何補正などを行って画像データを生成すればよい。
 航空機、車両などに搭載されるセンサのセンサ情報も、同様に、センサ情報提供装置201から位置情報とともに取得される。ただし、人工衛星の観測データは、災害が生じているか否かに関わらず取得されるが、航空機、車両などに搭載されるセンサは、災害が発生した後に、災害が発生したと想定される地域を観測することもある。この場合、災害発生前のセンサ情報が得られない可能性がある。災害発生前のセンサ情報が得られない場合は、人工衛星に搭載された類似のセンサのセンサ情報を、災害発生前のセンサ情報として用いてもよい。または、平時においても、例えば、定期的に航空機、車両などに搭載されるセンサの観測を行っておき、センサ情報取得部12が、平時のセンサ情報をセンサ情報提供装置201から取得してもよい。
 センサが位置の固定されたセンサである場合、センサ情報提供装置201は、センサ自体またはセンサに接続された処理装置等であってもよい。例えば、センサが、路側センサ、建物に設置されたカメラなどである場合、センサ情報取得部12は、対象領域を観測するセンサからセンサ情報を取得してもよい。または、固定された複数のセンサのセンサ情報がサーバなどにより集約されて管理されている場合には、このサーバなどがセンサ情報提供装置201となる。
 作業支援システム2においては、センサ情報として、SARにより取得されるSARセンサ情報、レーザスキャナにより取得されるレーザスキャナセンサ情報およびイメージセンサにより取得されるイメージセンサ情報といったセンサ情報が用いられる。SARセンサ情報を信号処理することにより、SAR画像が生成される。レーザスキャナセンサ情報を信号処理することにより、3次元点群画像が生成される。イメージセンサ情報を信号処理することにより、可視画像または赤外画像が生成される。
 センサより取得されるセンサ情報の信号処理による、SAR画像、3次元点群画像、可視画像および赤外画像などの画像の生成は、センサ情報提供装置201において行われてもよく、センサ情報解析部411において行われてもよい。センサより取得されるセンサ情報の信号処理による画像の生成がセンサ情報提供装置201において行われる場合は、センサ情報提供装置201は、生成した画像をセンサ情報としてセンサ情報取得部12に出力してもよい。
 処理部41は、災害の発生前に得られたセンサ情報と、災害の発生中または災害の発生後に得られたセンサ情報とを解析して、状態が変化した変化領域について、変化領域の地理的位置を示す情報である変化領域の位置を示す情報と、変化領域の変位状態を示す情報と、を含む変位情報を抽出する。そして、処理部41は、複数の対象物情報によって特定される複数の対象物について、対象物の位置情報に相当する位置の変位情報である対象物変位情報を、対象物情報を用いて変位情報から抽出する。さらに、処理部41は、複数の対象物の被害状況の確認作業の優先順位である状況確認優先順位を、対象物変位情報を用いて決定する。具体的に、処理部41は、センサ情報解析部411と、変位情報抽出部412と、優先順位決定部413と、を備える。
 センサ情報解析部411は、災害の発生前に得られたセンサ情報と、災害の発生中または災害の発生後に得られたセンサ情報とを処理情報記憶部14から取得する。そして、センサ情報解析部411は、災害の発生前に得られたセンサ情報と、災害の発生中または災害の発生後に得られたセンサ情報とを解析して、状態が変化した変化領域について、変化領域の位置を示す情報と、変化領域の変位状態を示す情報とを含む変位情報を抽出する。このため、センサ情報取得部12は、災害の発生していない平時において、少なくも1回は対象地域に対応するセンサ情報を取得しておく。または、センサ情報提供装置201が過去のセンサ情報も提供している場合には、センサ情報取得部12は、災害の発生中または災害の発生後に、状況確認優先順位を決定する際に、災害の発生中または災害の発生後のセンサ情報とともに、過去のすなわち災害の発生前のセンサ情報を取得してもよい。
 変位情報抽出部412は、センサ情報解析部411から変位情報を取得し、処理情報記憶部14に記憶された複数の対象物情報を取得する。そして、変位情報抽出部412は、取得した複数の対象物情報によって特定される複数の対象物の各々について、対象物の位置情報に相当する位置の変位情報である対象物変位情報を、対象物情報を用いて変位情報から抽出する。
 優先順位決定部413は、対象物変位情報を変位情報抽出部412から取得し、処理情報記憶部14に記憶された複数の対象物情報を取得する。そして、優先順位決定部413は、取得した複数の対象物情報によって特定される複数の対象物の各々についての状況確認優先順位を、対象物変位情報と優先情報とを用いて決定する。
 優先情報記憶部42は、対象物変位情報に基づいて優先順位決定部413で判定される変化領域の変位の度合いを示す閾値と、対象物の被害状況の確認作業の優先順位である状況確認優先順位との対応を示す優先情報を記憶する。
 作業支援システム2において、図17に示したセンサ情報解析部411と変位情報抽出部412と優先順位決定部413とは、図2に示した制御部101により実現される。図17に示した優先情報記憶部42は、図2に示した記憶部103の一部である。
 次に、本実施の形態2にかかる作業支援システム2の動作の詳細について説明する。図18は、本実施の形態2にかかる作業支援システム2における作業支援処理の一例を示すフローチャートである。図18に示した作業支援処理は、災害の発生中または災害が発生した後に実施される。あるいは、図18に示した作業支援処理は、対象物の被害状況の確認作業依頼が発生した後、具体的には罹災証明書の申請または保険金の払い出し依頼が発生した後に実施されてもよい。なお、上述したように、変化領域を抽出するために、平時のセンサ情報を取得する場合には、図18に示した処理より前の災害の発生する前にも、センサ情報を取得して処理情報記憶部14に記憶しておく。
 ステップS210において、作業支援システム2は、センサ情報を取得する。具体的には、センサ情報取得部12が、センサ情報提供装置201からセンサ情報を取得し、取得したセンサ情報を処理情報記憶部14に格納する。
 次に、ステップS220において、作業支援システム2は、対象物の位置情報を含む対象物情報を取得する。具体的には、対象物情報取得部13が、対象物情報提供装置203から対象物情報を取得し、取得した対象物情報を処理情報記憶部14へ格納する。対象物情報取得部13は、対象物情報提供装置203から、複数の対象物情報を取得する。なお、ステップS220がステップS210よりも先に行われてもよい。
 次に、ステップS230において、作業支援システム2は、災害の発生前に得られたセンサ情報と、災害の発生中または災害の発生後に得られたセンサ情報とを解析して、状態が変化した変化領域について、変化領域の位置を示す情報と、変化領域の変位状態を示す情報とを含む変位情報を抽出する。具体的には、センサ情報解析部411が、災害の発生前に得られたセンサ情報と、災害の発生中または災害の発生後に得られたセンサ情報とを取得する。そして、センサ情報解析部411が、災害の発生前に得られたセンサ情報と、災害の発生中または災害の発生後に得られたセンサ情報とを解析して、状態が変化した変化領域について、変化領域の位置を示す情報と、変化領域の変位状態を示す情報とを含む変位情報を抽出する。センサ情報解析部411は、抽出した変位情報を変位情報抽出部412に出力する。
 次に、ステップS240において、作業支援システム2は、複数の対象物情報によって特定される複数の対象物について、対象物の位置情報に相当する位置の変位情報である対象物変位情報を、対象物情報を用いて変位情報から抽出する。具体的には、変位情報抽出部412が、センサ情報解析部411から変位情報を取得し、処理情報記憶部14に記憶された複数の対象物情報を取得する。そして、変位情報抽出部412は、取得した複数の対象物情報によって特定される複数の対象物の各々について、対象物の位置情報に相当する位置の変位情報である対象物変位情報を、対象物情報を用いて変位情報から抽出する。変位情報抽出部412は、抽出した対象物変位情報を優先順位決定部413に出力する。
 次に、ステップS250において、作業支援システム2は、複数の対象物の被害状況の確認作業の優先順位を、対象物変位情報を用いて決定する。具体的には、優先順位決定部413が、対象物変位情報を変位情報抽出部412から取得し、処理情報記憶部14に記憶された複数の対象物情報を取得する。そして、優先順位決定部413は、取得した複数の対象物情報によって特定される複数の対象物の各々についての状況確認優先順位を、対象物変位情報を用いて決定する。優先順位決定部413は、状況確認優先順位を、対応する対象物情報と関連付けて、対象物情報とともに表示部17へ出力する。
 より具体的には、優先順位決定部413は、優先情報記憶部42から優先情報を取得する。そして、優先順位決定部413は、対象物の変位情報である対象物変位情報と優先情報とに基づいて状況確認優先順位を決定する。すなわち、優先順位決定部413は、対象物変位情報に基づいて優先順位決定部413で判定される変化領域の変位の度合いと優先情報とを比較して、変化領域の変位の度合いに対応する優先順位を優先情報から抽出することによって、各対象物の状況確認優先順位を決定する。
 ここで、ステップS250の処理である状況確認優先順位の決定処理の具体例について説明する。図19は、本実施の形態2の優先情報の一例を示す図である。図19では、優先情報の例として、優先情報(a)と優先情報(b)とを示している。図19では、優先順位の数値は、数値が小さいほど優先順位が高いことを示している。
 図19に示した優先情報(a)では、「建物の変位有り部分が総面積の50%以上」と判定された場合の優先順位を優先順位1とし、「建物の変位有り部分が総面積の50%未満」と判定された場合の優先順位を優先順位2としている。ここで、例えば災害発生前の屋根の面積を建物の総面積とする。すなわち、図19に示した優先情報(a)では、「建物の変位有り部分が総面積の50%以上」である場合は、対象物の被害の程度が相対的に大きいと予想されるため、被害状況確認作業の優先順位が高くされる。また、「建物の変位有り部分が総面積の50%未満」である場合は、対象物の被害の程度が相対的に小さいと予想されるため、被害状況確認作業の優先順位が低くされる。図19に示した優先情報(a)では、総面積の50%が閾値である。閾値はユーザが任意の値に変更可能である。
 図19に示した優先情報(b)では、「建物の柱あるいは外壁の傾きの変位が3度以上」と判定された場合の優先順位を優先順位1とし、「建物の柱あるいは外壁の傾きの変位が3度未満」と判定された場合の優先順位を優先順位2としている。すなわち、図19に示した優先情報(b)では、「建物の柱あるいは外壁の傾きの変位が3度以上」である場合は、対象物の被害の程度が相対的に大きいと予想されるため、被害状況確認作業の優先順位が高くされる。また、「建物の柱あるいは外壁の傾きの変位が3度未満」である場合は、対象物の被害の程度が相対的に小さいと予想されるため、被害状況確認作業の優先順位が低くされる。図19に示した優先情報(b)では、傾きの変位3度が閾値である。閾値はユーザが任意の値に変更可能である。
 作業支援システム2は、例えば対象物変位情報に基づいて、対象物の被害の程度を判定する。例えば、「建物の変位有り部分」は、以下のように求めることが可能である。例えば、作業支援システム2は、SARセンサ情報より生成されるSAR画像またはレーザスキャナセンサ情報より生成される3次元点群画像を用いて、災害発生前の対象物から反射して返ってきた信号と、災害発生中または災害発生後の対象物から反射して返ってきた信号とを比較する。ここで、災害発生前の対象物から反射して返ってきた信号と、災害発生中または災害発生後の対象物から反射して返ってきた信号との間に差が生じている領域が、「建物の変位有り部分」である。作業支援システム2は、災害発生前の対象物から反射して返ってきた信号と、災害発生中または災害発生後の対象物から反射して返ってきた信号との間に差が生じている領域が、対象物全体の領域に占める割合を求める。
 具体的には、作業支援システム2は、例えばレーザスキャナセンサ情報より生成される3次元点群画像を用いる。ステップS210では、センサ情報取得部12が、災害発生前に得られたレーザスキャナセンサ情報と、災害発生中または災害発生後に得られたレーザスキャナセンサ情報と、を取得する。
 ステップS230では、センサ情報解析部411が、災害発生前に得られたレーザスキャナセンサ情報より3次元点群画像を生成し、災害発生中または災害発生後に得られたレーザスキャナセンサ情報より3次元点群画像を生成する。そして、センサ情報解析部411が、災害発生前の3次元点群画像と、災害発生中または災害発生後の3次元点群画像との差分を、変位情報として抽出する。また、センサ情報解析部411は、災害発生前の可視画像に信号処理を実施して、建物の屋根の面積を算出する。また、センサ情報解析部411は、災害発生中または災害発生後の可視画像に信号処理を実施して、建物の屋根の面積を算出する。センサ情報解析部411は、災害発生前の屋根の面積と、災害発生中または災害発生後の屋根の面積との差分を抽出し、差分を変位情報として抽出する。
 そして、ステップS250では、優先順位決定部413は、ステップS240において変位情報から抽出される対象物変位情報に基づいて、災害発生前の屋根の面積と、災害発生中または災害発生後の屋根の面積との差分が災害発生前の屋根の面積に占める割合を求め、建物の被害の程度を判定する。
 また、「建物の柱あるいは外壁の傾きの変位」は、例えば以下のように求めることが可能である。例えば、SARは、鉛直方向に対して斜め方向から電磁波を対象物に照射し、反射して返ってきた信号を分析して対象物を観測するため、電磁波が照射される側の外壁を観察することが可能である。また、建物の外部から見て外面に柱が露出している場合など、柱の建設条件によっては、同様に電磁波が照射される側の柱を観察することが可能である。
 センサが、人工衛星、航空機、ドローンなどに搭載されたセンサである場合には、一定周期でのセンサ情報の収集が可能であるという利点がある。また、災害の発生前に得られたセンサ情報には、人工衛星に搭載されたセンサで取得されたセンサ情報を使用し、災害発生中または災害発生後に得られたセンサ情報には、航空機またはドローンなどに搭載されたセンサから取得されたセンサ情報を使用することができる。この場合は、災害発生中または災害発生後に対象物の位置情報などに基づいて、航空機またはドローンなどの搭載されたセンサからセンサ情報を取得することで、対象物の状況を詳細に取得可能となる、という効果が得られる。
 優先順位決定部413は、水害による被害が発生している場合には、例えば対象物変位情報に基づいて、対象物の水害の被害を判定する。例えば、SARは、ミリ単位で地表の高さを測定可能である。したがって、優先順位決定部413は、センサ情報として、災害の発生前に得られたSARセンサ情報と、災害の発生中または災害の発生後に得られたSARセンサ情報とを用いることにより、住家の周囲の水位を解析可能である。また、レーザスキャナから照射されたレーザは、浸水の水で反射する。このため、優先順位決定部413は、センサ情報としてレーザスキャナセンサ情報を用いることにより、住家の周囲の水位を解析可能である。優先順位決定部413は、解析した水位を、優先情報において予め決められている浸水深の閾値と比較して、浸水の有無を判定可能である。
 また、住家の周囲の水位の解析は難しいが、浸水時は水が泥等でよどんでいる。このため、優先順位決定部413は、センサ情報として、イメージセンサ情報を用いて、可視画像を解析することにより、住家の周囲が浸水していないことを判定可能である。優先順位決定部413は、例えば可視画像を解析し、住家の周囲の、優先情報において予め決められた閾値の面積以上の範囲に水が溜まっている場合に、浸水有りと判定可能である。したがって、優先順位決定部413は、対象物変位情報がイメージセンサにより取得されるイメージセンサ情報を用いて得られた情報である場合には、住家の周囲が浸水しているか、または浸水していないかを判定可能である。優先順位決定部413は、可視画像を解析し、住家の周囲の、予め決められた閾値面積以上の範囲に水が溜まっている場合に、浸水有りと判定可能である。
 図20は、本実施の形態2の優先情報の一例を示す図であり、水害による被害が発生している場合の優先情報の一例を示す図である。図20では、優先順位の数値は、数値が小さいほど優先順位が高いことを示している。
 図20に示した優先情報では、水害による被害の程度が「浸水有り」と判定された場合の優先順位を優先順位1とし、水害による被害の程度が「浸水無し」と判定された場合の優先順位を優先順位2としている。
 そして、優先順位決定部413は、災害発生中および害発生後における水が引いてしまわない前のセンサ情報から抽出した対象物変位情報を用いて、「浸水有り」の条件に該当するか否かを判定する。これにより、優先順位決定部413は、図20に示した優先情報に従って、状況確認優先順位を決定することが可能である。
 優先順位決定部413は、対象物変位情報がSARにより取得されるSARセンサ情報、レーザスキャナにより取得されるレーザスキャナセンサ情報を用いて得られた情報、またはイメージセンサにより取得されるイメージセンサ情報である場合に、対象物変位情報により水が溜まっている領域の有無を判定する。そして、優先順位決定部413は、例えば予め決められた浸水深以上、または住家の周囲の予め決められた面積の範囲以上に水が溜まっている場合に、「浸水有り」と判定することができる。
 また、本来、地表は勾配があるため、水は標高の低い地域に向かって流れる。そして、水の流れが落ち着いている場合には、周囲に比べて標高が低くなっている、同じ等高線上に位置する地域に水が溜まっている。そこで、優先順位決定部413は、地形情報を用いて、周囲に比べて標高が低くなっている同じ等高線上に位置する地域を、「浸水有り」と判定することも可能である。地形情報は地理情報から取得できるため、作業支援システム2が、上述した実施の形態1にかかる作業支援システム1の第2の変形例である作業支援システム1bと同様に地理情報取得部20を備えた構成とされることで、実現可能である。なお、この判定方法は、対象物変位情報を用いて状況確認優先順位を決定する方法ではないため、補助的に使用することが可能である。
 図18の説明に戻る。ステップS260において、作業支援システム2は、各対象物の決定された状況確認優先順位を表示する。具体的には、表示部17が、例えば図8および図9に示したように、優先順位決定部413で決定された各対象物の状況確認優先順位を表示する。
 なお、優先順位決定部413は、状況確認優先順位を決定した根拠、すなわち状況確認優先順位の判定に用いた情報を表示部17へ出力してもよい。表示部17は、状況確認優先順位の判定に用いた情報を表示する。
 また、本実施の形態2においても、センサ情報は、1つのセンサのセンサ情報であってもよいし、複数のセンサにそれぞれ対応する複数のセンサ情報であってもよい。作業支援システム2は、複数のセンサにそれぞれ対応する複数のセンサ情報を用いる場合、複数のセンサによって得られたデータを位置合わせして用いることにより、精度を向上させたものを用いて変化領域を抽出して変位情報を求めてもよい。または、作業支援システム2は、複数のセンサによって得られたデータが位置合わせされて精度を向上させたものを、センサ情報提供装置201から取得してもよい。
 上述した作業支援システム2は、対象物情報取得部13が、被害状況の確認作業が必要とされる複数の対象物について、対象物の地理的位置を示す対象物の位置情報を含む対象物の情報である対象物情報を取得する。また、センサ情報解析部411が、災害の発生前のセンサ情報と、災害の発生後のセンサ情報とを解析して、状態が変化した変化領域について、変化領域の位置を示す情報と、変化領域の変位状態を示す情報とを含む変位情報を抽出する。また、変位情報抽出部412が、複数の対象物について、対象物情報を用いて対象物の位置情報に相当する位置の変位情報である対象物変位情報を変位情報から抽出する。そして、優先順位決定部413が、対象物変位情報を用いて複数の対象物の被害状況の確認作業の優先順位を決定する。
 これにより、作業支援システム2は、上述した作業支援システム1と同様に、対象物の被害状況の確認作業の作業効率の向上を支援することができる、という効果を奏する。
 また、作業支援システム2は、対象物の被害の程度から対象物の被害状況の確認作業の優先順位を決めることができ、優先順位付けの精度が向上する、という効果を奏する。したがって、作業支援システム2は、より精度良く、対象物の被害状況の確認作業の作業効率の向上を支援することができる、という効果を奏する。
 図21は、本実施の形態2の作業支援システム2を2つの装置によって構成する場合の第1の装置構成例を示す図である。図21に示すように、作業支援システム2は、作業支援システム2の機能を分割して、解析装置50と、管理装置60とによって構成することができる。
 解析装置50は、センサ情報取得部12、対象物情報取得部13、処理情報記憶部14、センサ情報解析部411、変位情報抽出部412、優先順位決定部413、優先情報記憶部42および出力部18を備える。センサ情報解析部411、変位情報抽出部412および優先順位決定部413は、処理部41を構成する。管理装置60は、表示情報取得部61、表示情報記憶部62および表示部63を備える。管理装置60は、上述した管理装置30に対応する。表示情報取得部61、表示情報記憶部62および表示部63の各々は、上述した表示情報取得部31、表示情報記憶部32および表示部33に対応する。
 解析装置50と管理装置60との各々は、図2に示すコンピュータシステムによって、個別に実現される。解析装置50を実現するコンピュータシステムと、管理装置60を実現するコンピュータシステムとは、通信回線により接続される。この通信回線は、有線回線であっても無線回線であってもよく、無線回線と有線回線とが混在していてもよい。
 図21に示した出力部18は、解析装置50を実現するコンピュータシステムにおいて、図2に示した出力部106により実現される。
 図21に示す装置構成例は、多くの容量が必要な処理情報記憶部14と高負荷な処理が必要な処理部41とを解析装置50の構成要件とすることで、管理装置60を比較的低コストで実現することが可能となる。このため、図21に示す装置構成例は、管理装置60を複数の担当者に配布するなど、複数の管理装置60が必要な場合などに有効な構成例となる。
 図22は、本実施の形態2の作業支援システム2を2つの装置によって構成する場合の第2の装置構成例を示す図である。図22に示すように、作業支援システム2は、作業支援システム2の機能を分割して、解析装置50aと、管理装置60aとによって構成することができる。
 解析装置50aは、センサ情報取得部12、対象物情報取得部13、処理情報記憶部14、センサ情報解析部411、変位情報抽出部412、および出力部18を備える。センサ情報解析部411および変位情報抽出部412は、処理部41を構成する。管理装置60aは、対象物変位情報取得部64、優先順位決定部413、優先情報記憶部42、表示情報記憶部62および表示部63を備える。
 対象物変位情報取得部64は、変位情報抽出部412で抽出された対象物変位情報と対象物情報とを変位情報抽出部412から取得する。対象物変位情報取得部64は、取得した対象物変位情報と対象物情報とを優先順位決定部413へ出力する。
 優先順位決定部413は、取得した複数の対象物情報によって特定される複数の対象物の各々についての状況確認優先順位を、対象物変位情報と優先情報とを用いて決定する。優先順位決定部413は、決定した状況確認優先順位を、対応する対象物情報と関連付けて、対象物情報とともに表示情報記憶部62へ出力する。
 図22に示す装置構成例は、優先順位決定部413と優先情報記憶部42とを管理装置60aの構成要件とすることで、管理装置60aを使用することが予想される保険会社の担当者および市町村の担当者が優先情報を容易に変更可能となる。
 図23は、本実施の形態2の作業支援システム2を2つの装置によって構成する場合の第3の装置構成例を示す図である。図23に示すように、作業支援システム2は、作業支援システム2の機能を分割して、解析装置50bと、管理装置60bとによって構成することができる。
 解析装置50bは、センサ情報取得部12、処理情報記憶部14、センサ情報解析部411および出力部18を備える。センサ情報解析部411は、処理部41を構成する。管理装置60bは、変位情報取得部65、対象物情報取得部13、変位情報抽出部412、優先順位決定部413、優先情報記憶部42、表示情報記憶部62および表示部63を備える。
 変位情報取得部65は、センサ情報解析部411で抽出された変位情報をセンサ情報解析部411から取得する。変位情報取得部65は、取得した変位情報を変位情報抽出部412へ出力する。
 対象物情報取得部13は、複数の対象物情報を対象物情報提供装置203から取得する。対象物情報取得部13は、取得した対象物情報を変位情報抽出部412へ出力する。
 変位情報抽出部412は、変位情報および複数の対象物情報を取得する。そして、変位情報抽出部412は、取得した複数の対象物情報によって特定される複数の対象物の各々について、対象物情報を用いて変位情報から対象物変位情報を抽出する。
 なお、センサ情報解析部411が対象物の位置情報に相当する位置のセンサ情報の変位情報を算出する場合は、解析装置50bにおいても対象物情報提供装置203から対象物情報を取得して処理情報記憶部14に記憶できる構成とされればよい。この場合は、センサ情報解析部411が変位情報抽出部412の機能を兼ねることになる。
 また、作業支援システム2は、上述した実施の形態1にかかる作業支援システム1の第2の変形例である作業支援システム1bと同様に地理情報取得部20を備えた構成とされて、表示部63が対象物マップを表示してもよい。
 また、作業支援システム2は、上述した実施の形態1にかかる作業支援システム1の第1の変形例である作業支援システム1aと同様にエリア指定情報入力部19を備えた構成とされて、対象物情報取得部13が、エリア指定情報で指定されたエリアに位置する対象物の対象物情報を取得してもよい。
 同様に、作業支援システム2は、エリア指定情報で指定されたエリアのセンサ情報を取得してもよい。
 図23に示す装置構成例は、優先順位決定部413と優先情報記憶部42とを管理装置60bの構成要件とすることで、管理装置60bを使用することが予想される保険会社の担当者および市町村の担当者が優先情報を容易に変更可能となる。
 また、図23に示す装置構成例は、対象物情報取得部13を管理装置60bの構成要件とすることで、解析装置50bにて対象物情報を取り扱う必要がなくなり、対象物情報のセキュリティの向上に有効である。
 上述したように、作業支援システム2は、実施の形態1の作業支援システム1と同様に、対象物の被害状況の確認作業の作業効率の向上を支援することができる、という効果を奏する。
 また、作業支援システム2は、対象物の被害の程度から対象物の被害状況の確認作業の優先順位を決めることができ、優先順位付けの精度が向上する、という効果を奏する。したがって、作業支援システム2は、より精度良く、対象物の被害状況の確認作業の作業効率の向上を支援することができる、という効果を奏する。
実施の形態3.
 図24は、本発明の実施の形態3にかかる作業支援システム3の構成例を示す図である。本実施の形態の作業支援システム3は、災害発生時に対象物の被害状況の確認作業の効率化を支援するシステムであり、被害状況確認作業の優先順位である状況確認優先順位を決定して表示する。なお、図24においては、上述した実施の形態2と同様の部材には同じ符号を付している。
 実施の形態3においても、対象物は、保険会社が損害保険の契約者に対して保険金の払い出しを行う場合に作業支援システム3が使用される場合には、保険会社が保険金を支払う補償の対象物である。また、対象物は、市町村が罹災証明書を発行する場合に作業支援システム3が使用される場合には、罹災証明書の発行の対象となる対象物である。
 作業支援システム3は、対象物情報を取得し、被害状況の確認作業が必要な対象物が複数存在する場合に、センサ情報を用いて複数の対象物のそれぞれの状況確認優先順位を決定する。作業支援システム3が取得した対象物情報に対応する対象物は、被害状況の確認作業の要否が判定されていない対象物である。したがって、本実施の形態3においては、作業支援システム3は、被害状況の確認作業の要否が判定されていない複数の対象物の状況確認優先順位を決める。
 作業支援システム3において、対象物の位置情報は、上述した実施の形態1,2の場合と同様である。
 また、作業支援システム3においては、上述した実施の形態1,2の場合と同様に対象物の位置情報に対応する位置のセンサ情報が存在しない場合には、対象物の位置情報に対応する位置に近い位置のセンサ情報を用いることができる。
 本実施の形態3におけるセンサ情報は、実施の形態2におけるセンサ情報と同様である。本実施の形態3におけるセンサ情報は、実施の形態1,2の場合と同様に、センサの観測によって得られた情報であり、センサによって取得されたデータ、または当該データが処理されたデータである。また、センサ情報は、センサにより観測された観測場所の位置を示す情報を含む。センサは、人工衛星、航空機、ドローンなどに搭載されたセンサであってもよく、車両などに搭載されたセンサであってもよく、地表、建物などに固定されたセンサであってもよい。
 作業支援システム3においては、センサ情報として、作業支援システム2の場合と同様に、SARにより取得されるSARセンサ情報、レーザスキャナにより取得されるレーザスキャナセンサ情報およびイメージセンサにより取得されるイメージセンサ情報といったセンサ情報が用いられる。
 作業支援システム3は、センサ情報取得部12、対象物情報取得部13、処理情報記憶部14、処理部41、優先情報記憶部42および表示部17を備える。以下、作業支援システム3において作業支援システム2と異なる点について説明する。
 処理部41は、災害の発生前に得られたセンサ情報と、災害の発生中または災害の発生後に得られたセンサ情報とを解析して、状態が変化した変化領域について、変化領域の地理的位置を示す情報である変化領域の位置を示す情報と、変化領域の変位状態を示す情報と、を含む変位情報を抽出する。そして、処理部41は、複数の対象物情報によって特定される複数の対象物について、対象物の位置情報に相当する位置の変位情報である対象物変位情報を、対象物情報を用いて変位情報から抽出する。そして、処理部41は、対象物変位情報から、対象物の被害程度を判定する。さらに、処理部41は、複数の対象物の被害状況の確認作業の優先順位である状況確認優先順位を、対象物の被害程度を用いて決定する。具体的に、処理部41は、センサ情報解析部411と、変位情報抽出部412と、被害程度判定部414と、優先順位決定部415と、を備える。
 被害程度判定部414は、複数の対象物について、対象物変位情報および対象物変位情報に対応して関連付けられた対象物情報を変位情報抽出部412から取得する。そして、被害程度判定部414は、取得した対象物変位情報に基づいて対象物の被害程度を判定する。被害程度判定部414は、判定した対象物の被害程度を、対応する対象物情報と関連付けて、対象物情報とともに優先順位決定部415へ出力する。
 優先順位決定部415は、複数の対象物について、対象物の被害程度および対象物情報を被害程度判定部414から取得する。そして、優先順位決定部415は、取得した複数の対象物情報によって特定される複数の対象物の各々についての状況確認優先順位を、対象物の被害程度と優先情報とを用いて決定する。
 優先情報記憶部42は、対象物変位情報に基づいて優先順位決定部415で判定される対象物の被害程度と、対象物の被害状況の確認作業の優先順位である状況確認優先順位との対応を示す優先情報を記憶する。
 作業支援システム3において、図24に示した被害程度判定部414と優先順位決定部415とは、図2に示した制御部101により実現される。
 次に、本実施の形態3にかかる作業支援システム3の動作の詳細について説明する。図25は、本実施の形態3にかかる作業支援システム3における作業支援処理の一例を示すフローチャートである。図25に示した作業支援処理は、災害の発生中または災害が発生した後に実施される。あるいは、図25に示した作業支援処理は、対象物の被害状況の確認作業依頼が発生した後、具体的には罹災証明書の申請または保険金の払い出し依頼が発生した後に実施されてもよい。なお、上述したように、変化領域を抽出するために、平時のセンサ情報を取得する場合には、図25に示した処理より前の災害の発生する前にも、センサ情報を取得して処理情報記憶部14に記憶しておく。以下では、図18に示したフローチャートと異なる点について説明する。
 ステップS310において、作業支援システム3は、対象物変位情報から対象物の被害程度を判定する被害程度判定処理を実施する。具体的には、被害程度判定部414が、複数の対象物について、対象物変位情報および対象物変位情報に対応して関連付けられた対象物情報を変位情報抽出部412から取得する。そして、被害程度判定部414は、取得した対象物変位情報に基づいて対象物の被害程度を判定する。被害程度判定部414は、判定した対象物の被害程度を、対応する対象物情報と関連付けて、対象物情報とともに優先順位決定部415へ出力する。
 ステップS320において、作業支援システム3は、複数の対象物の被害状況の確認作業の優先順位を、対象物の被害程度を用いて決定する。具体的には、優先順位決定部415が、対象物の被害程度および対象物の被害程度に関連付けられた対象物情報を被害程度判定部414から取得する。そして、優先順位決定部415は、取得した複数の対象物情報によって特定される複数の対象物の各々についての状況確認優先順位を、対象物の被害程度を用いて決定する。優先順位決定部415は、決定した状況確認優先順位を、対応する対象物情報と関連付けて、対象物情報とともに表示部17へ出力する。
 より具体的には、優先順位決定部415は、優先情報記憶部42から優先情報を取得する。そして、優先順位決定部415は、対象物の被害程度と優先情報とに基づいて状況確認優先順位を決定する。すなわち、優先順位決定部415は、対象物の被害程度と優先情報とを比較して、対象物の被害程度に対応する優先順位を優先情報から抽出することによって、各対象物の状況確認優先順位を決定する。
 ここで、ステップS310における処理である被害程度判定処理の具体例について説明する。
 内閣府が公表している平成30年3月改定版の災害に係る住家の被害認定基準運用指針の一例を示す。以下に示す被害認定基準運用指針は、木造およびプレハブの住家についての地震による被害の被害認定フローである。
(外観による判定)
(1)一見して住家全部が倒壊
(2)一見して住家の一部の階が全部倒壊
(3)一見して住家全部が流出またはずり落ち
(4)地盤の液状化等により基礎のいずれかの辺が全部破壊かつ基礎直下の地盤が流出または陥没
(5)地盤面の亀裂が住家直下を縦断または横断
のいずれかの条件に該当する場合は、住家が全壊であると判定する。
(傾斜による判定)
・外壁または柱の傾斜が1/20以上
に該当する場合は、住家が全壊であると判定する。
 被害程度判定部414は、上述したように内閣府が公表している平成30年3月改定版の災害に係る住家の被害認定基準運用指針の(外観による判定)の基準と対象物変位情報とを用いることにより、対象物である住家の被害の程度として「全壊」を判定できる。また、被害程度判定部414は、上述した(傾斜による判定)と対象物変位情報とを用いることにより、対象物の被害の程度として「住家が全壊」を判定できる。
 例えば、上述したように、作業支援システム3は、SARセンサ情報より生成されるSAR画像、レーザスキャナセンサ情報より生成される3次元点群画像、イメージセンサ情報より生成される可視画像等を用いて、災害発生前の屋根の面積を取得して、取得した災害発生前の屋根の面積を建物の総面積とする。また、災害発生中または災害発生後の屋根の面積を用いて、差分を抽出し、変位有り部分の災害発生前の建物の総面積に占める割合を求める。そして、被害程度判定部414は、変位有り部分の災害発生前の建物の総面積に占める割合が100%であれば、「住家が全壊」と判定できる。
 したがって、被害程度判定部414は、対象物変位情報がSARにより取得されるSARセンサ情報を用いて得られた情報である場合には、上記の被害の被害認定フローと対象物変位情報とに基づいて、対象物の被害の程度を判定することができる。また、同様に、被害程度判定部414は、対象物変位情報がレーザスキャナにより取得されるレーザスキャナセンサ情報を用いて得られた情報である場合に、外壁を鉛直方向に対して斜め方向から観察している場合には、上記の被害の被害認定フローと対象物変位情報とに基づいて、対象物の被害の程度を判定することができる。また、被害程度判定部414は、対象物変位情報がイメージセンサにより取得されるイメージセンサ情報を用いて得られた情報である場合に、外壁を鉛直方向に対して斜め方向から観察している場合には、上記の被害の被害認定フローと対象物変位情報とに基づいて、対象物の被害の程度を判定することができる。
 また、作業支援システム3は、建物に水害による被害が発生している場合も、状況確認優先順位を決定することが可能である。住家の被害認定基準運用指針の一例として、内閣府が公表している平成30年3月改定版の木造およびプレハブの住家についての水害による被害の被害認定フローを示す。
(浸水深による判定:戸建ての1~2階建てで外力の作用有り)
・住家流失または床上1.8m以上の浸水:住家が全壊であると判定
・床上1m以上1.8m未満の浸水:住家が大規模半壊であると判定
・床上1m未満の浸水:住家が半壊であると判定
・床下浸水:住家が半壊に至らないと判定
 被害程度判定部414は、上述したように内閣府が公表している上記の水害による被害の被害認定フローと対象物変位情報とを用いることにより、対象物である住家の被害の程度として「全壊」を判定できる。被害程度判定部414は、SARセンサ情報より生成されるSAR画像、レーザスキャナセンサ情報より生成される3次元点群画像、イメージセンサ情報より生成される可視画像等を用いることにより、上述した実施の形態2の優先順位決定部413と同様に、住家の周囲の水位を解析可能である。
 したがって、被害程度判定部414は、対象物変位情報がSARにより取得されるSARセンサ情報またはレーザスキャナにより取得されるレーザスキャナセンサ情報を用いて得られた情報である場合には、上記の被害の被害認定フローと対象物変位情報とに基づいて、浸水深により対象物の被害の有無および程度を判定することができる。
 そして、被害程度判定部414は、災害発生中および害発生後における水が引いてしまわない前のセンサ情報から抽出した対象物変位情報を用いて、「住家が全壊」と判定される「住家流失または床上1.8m以上の浸水」の条件に該当するか否かを判定する。これにより、被害程度判定部414は、対象物の被害の程度として「住家が全壊」を判定できる。
 また、センサ情報解析部411が実施の形態2に記載した方法と同様の方法で変位情報を抽出し、変位情報から抽出される対象物変位情報に基づいて、被害程度判定部414が対象物の被害程度を判定してもよい。
 また、被害程度判定部414は、例えば住家の構造情報と、対象物変位情報とを用いることにより、対象物の被害の程度として「浸水有り」または「床上浸水有り」といった程度を判定できる。住家の構造情報は、例えば、対象物情報の中に含めておく。これにより、被害程度判定部414は、対象物情報を取得することにより、対象物の住家の構造情報を取得できる。また、被害程度判定部414が対象物の住家の構造情報を取得できるように、個別に住家の構造情報を取得する構成を設けてもよい。
 ステップS310において被害の程度を判定する際の判定の基準は、予め被害程度判定部414に記憶されている。判定の基準は、ユーザが任意の値に変更可能である。
 また、ステップS310において被害程度判定部414は、対象物変位情報と被害の程度の判定の基準とを用いて被害の程度が判定できない場合は、被害の程度が判定できない旨を示す情報として「判定できず」の情報を、対応する対象物情報と関連付けて、対象物情報とともに優先順位決定部415に出力する。
 つぎに、ステップS320の処理である状況確認優先順位の決定処理の具体例について説明する。状況確認優先順位の決定処理の第1の具体例では、優先順位決定部415が、対象物の被害の程度が判定されていない場合に優先順位を高くし、対象物の被害の程度が判定されている場合に優先順位を低くする。対象物の被害の程度が判定されていない場合は、優先順位決定部415が被害程度判定部414から「判定できず」の情報を受け取った場合である。すなわち、優先順位決定部415は、センサ情報を用いて対象物の被害の程度が判定されている対象物への状況確認優先順位を下げ、センサ情報を用いて対象物の被害の程度が判定されていない対象物の状況確認優先順位を上げる。なお、センサ情報を用いて対象物の被害の程度が判定されていない対象物に対して、例えば実施の形態1や実施の形態2を用いて、さらに優先順位をつけてもよい。
 図26は、本実施の形態3の優先情報の一例を示す図である。図26では、優先順位の数値は、数値が小さいほど優先順位が低いことを示している。図26に示した優先情報では、対象物の被害の程度が判定されていない、または判定された対象物の被害の程度が予め決められた被害の程度に判定されていない場合の優先順位を高くし、対象物の被害の程度が予め決められた被害の程度に判定されている場合の優先順位を低くしている。
 優先順位決定部415は、被害の程度が予め決められた被害の程度に判定されているか否かを判定する。例えば「全壊」が、優先情報において予め決められた被害の程度に設定されている場合には、優先順位決定部415は、被害程度判定処理において被害の程度が「全壊」と判定されている場合に、対象物の優先順位が低い優先順位1と判定できる。そして、優先順位決定部415は、被害程度判定処理において被害の程度が「全壊」と判定されていない場合に、対象物の優先順位が高い優先順位2と判定できる。
 また、例えば「全壊」および「大規模半壊」が、優先情報において予め決められた被害の程度に設定されている場合には、優先順位決定部415は、被害程度判定処理において対象物の被害の程度が「全壊」と判定されている場合に、対象物の優先順位を優先順位1と判定できる。また、優先順位決定部415は、被害程度判定処理において対象物の被害の程度が「大規模半壊」と判定されている場合に、対象物の優先順位を優先順位1と判定できる。また、優先順位決定部415は、被害程度判定処理において対象物の被害の程度が「半壊」および「半壊に至らない」と判定されている場合に、対象物の優先順位が高い優先順位2と判定できる。
 優先順位が高い場合は、対象物の被害状況の確認作業が必要である。優先順位が低い場合は、対象物の被害状況の確認作業が不要である。市町村または保険会社の担当者は、状況確認優先順位が低いと判定された対象物については、対象物の被害状況の確認作業を行わない。そして、保険会社の担当者は、判定された被害程度に対応した損害保険金の払い出し処理を開始する。また、市町村の担当者は、判定された被害程度に応じた罹災証明の発行手続き処理を開始する。
 すなわち、作業支援システム3は、複数の対象物について、市町村または保険会社の対象物の被害状況の確認作業を行う対象物を選別して、被害状況の確認作業が必要とされる対象物を抽出し、被害状況の確認作業を行う対象物の数量を削減することができる。すなわち、作業支援システム3は、被害状況の確認作業を省略することが可能な対象物を選定可能である。これにより、作業支援システム3は、対象物の被害状況の確認作業の効率化を支援することができる。
 そして、対象物の被害状況の確認作業の効率化を図ることにより、対象物の被害状況の確認作業に要する人材および機器といったリソースを、被害状況の確認作業が必要な対象物へ集中できるため、全体として迅速な被害状況の確認作業が実現可能となる。すなわち、対象物の被害状況の確認作業の効率化を図ることにより、市町村の担当者は、効率的な罹災証明書の発行業務を行うことができる。また、対象物の被害状況の確認作業の効率化を図ることにより、保険会社の担当者は、効率的な保険金の払い出し業務を行うことができる。
 図25の説明に戻る。ステップS330において、作業支援システム3は、各対象物の決定された状況確認優先順位を表示する。具体的には、表示部17が、例えば図27および図28に示したように、優先順位決定部415で決定された各対象物の状況確認優先順位を表示する。図27および図28は、本実施の形態3の表示部17における状況確認優先順位の表示の一例を示す図である。図27および図28に示すように、表示部17には、各優先順位ごとに、対象物の識別情報が表示されている。
 対象物の識別情報は、上述した実施の形態1,2と同様に、対象物がある住所、対象物を保有している契約者の氏名などが例示される。また、対象物の識別情報は、対象物が損害保険契約の補償対象物である場合には、保険契約の契約番号、保険契約の識別番号であってもよい。
 なお、優先順位決定部415は、状況確認優先順位を決定した根拠、すなわち状況確認優先順位の判定に用いた情報を表示部17へ出力してもよい。表示部17は、状況確認優先順位の判定に用いた情報を表示する。
 また、本実施の形態3においても、センサ情報は、1つのセンサのセンサ情報であってもよいし、複数のセンサにそれぞれ対応する複数のセンサ情報であってもよい。作業支援システム3は、複数のセンサにそれぞれ対応する複数のセンサ情報を用いる場合、複数のセンサによって得られたデータを位置合わせして用いることにより、精度を向上させたものを用いて変化領域を抽出して変位情報を求めてもよい。または、作業支援システム3は、複数のセンサによって得られたデータが位置合わせされて精度を向上させたものを、センサ情報提供装置201から取得してもよい。
 図29は、本実施の形態3の作業支援システム3を2つの装置によって構成する場合の第1の装置構成例を示す図である。図29に示すように、作業支援システム3は、作業支援システム3の機能を分割して、解析装置70と、管理装置80とによって構成することができる。
 解析装置70は、センサ情報取得部12、対象物情報取得部13、処理情報記憶部14、センサ情報解析部411、変位情報抽出部412、被害程度判定部414、優先順位決定部415、優先情報記憶部42および出力部18を備える。センサ情報解析部411、変位情報抽出部412、被害程度判定部414および優先順位決定部415は、処理部41を構成する。管理装置80は、表示情報取得部81、表示情報記憶部82および表示部83を備える。管理装置80は、上述した管理装置30に対応する。表示情報取得部81、表示情報記憶部82および表示部83の各々は、上述した表示情報取得部31、表示情報記憶部32および表示部33に対応する。
 解析装置70と管理装置80との各々は、図2に示すコンピュータシステムによって、個別に実現される。解析装置70を実現するコンピュータシステムと、管理装置80を実現するコンピュータシステムとは、通信回線により接続される。この通信回線は、有線回線であっても無線回線であってもよく、無線回線と有線回線とが混在していてもよい。
 図29に示した出力部18は、解析装置70を実現するコンピュータシステムにおいて、図2に示した出力部106により実現される。
 図29に示す装置構成例は、多くの容量が必要な処理情報記憶部14と高負荷な処理が必要な処理部41とを解析装置70の構成要件とすることで、管理装置80を比較的低コストで実現することが可能となる。このため、図29に示す装置構成例は、管理装置80を複数の担当者に配布するなど、複数の管理装置80が必要な場合などに有効な構成例となる。
 図30は、本実施の形態3の作業支援システム3を2つの装置によって構成する場合の第2の装置構成例を示す図である。図30に示すように、作業支援システム3は、作業支援システム3の機能を分割して、解析装置70aと、管理装置80aとによって構成することができる。
 解析装置70aは、センサ情報取得部12、対象物情報取得部13、処理情報記憶部14、センサ情報解析部411、変位情報抽出部412、被害程度判定部414、および出力部18を備える。センサ情報解析部411、変位情報抽出部412および被害程度判定部414は、処理部41を構成する。管理装置80aは、被害程度取得部84、優先順位決定部415、優先情報記憶部42、表示情報記憶部82および表示部83を備える。
 被害程度取得部84は、被害程度判定部414で判定された被害程度と被害程度に対応する対象物情報とを被害程度判定部414から取得する。被害程度取得部84は、取得した被害程度と対象物情報とを優先順位決定部415へ出力する。
 優先順位決定部415は、取得した複数の対象物情報によって特定される複数の対象物の各々についての状況確認優先順位を、被害程度と優先情報とを用いて決定する。優先順位決定部415は、決定した状況確認優先順位を、対応する対象物情報と関連付けて、対象物情報とともに表示情報記憶部82へ出力する。
 図30に示す装置構成例は、優先順位決定部415と優先情報記憶部42とを管理装置80aの構成要件とすることで、管理装置80aを使用することが予想される保険会社の担当者および市町村の担当者が優先情報を容易に変更可能となる。
 図31は、本実施の形態3の作業支援システム3を2つの装置によって構成する場合の第3の装置構成例を示す図である。図31に示すように、作業支援システム3は、作業支援システム3の機能を分割して、解析装置70bと、管理装置80bとによって構成することができる。
 解析装置70bは、センサ情報取得部12、対象物情報取得部13、処理情報記憶部14、センサ情報解析部411、変位情報抽出部412および出力部18を備える。センサ情報解析部411および変位情報抽出部412は、処理部41を構成する。管理装置80bは、対象物変位情報取得部85、被害程度判定部414、優先順位決定部415、優先情報記憶部42、表示情報記憶部82および表示部83を備える。
 対象物変位情報取得部85は、変位情報抽出部412で抽出された対象物変位情報と対象物変位情報に対応する対象物情報とを変位情報抽出部412から取得する。対象物変位情報取得部85は、取得した対象物変位情報と対象物情報とを被害程度判定部414へ出力する。
 優先順位決定部415は、取得した複数の対象物情報によって特定される複数の対象物の各々についての状況確認優先順位を、被害程度と優先情報とを用いて決定する。優先順位決定部415は、決定した状況確認優先順位を、対応する対象物情報と関連付けて、対象物情報とともに表示情報記憶部82へ出力する。
 図31に示す装置構成例は、優先順位決定部415と優先情報記憶部42とを管理装置80bの構成要件とすることで、管理装置80bを使用することが予想される保険会社の担当者および市町村の担当者が優先情報を容易に変更可能となる。
 図32は、本実施の形態3の作業支援システム3を2つの装置によって構成する場合の第4の装置構成例を示す図である。図32に示すように、作業支援システム3は、作業支援システム3の機能を分割して、解析装置70cと、管理装置80cとによって構成することができる。
 解析装置70cは、センサ情報取得部12、処理情報記憶部14、センサ情報解析部411および出力部18を備える。センサ情報解析部411は、処理部41を構成する。管理装置80cは、変位情報取得部86、対象物情報取得部13、変位情報抽出部412、被害程度判定部414、優先順位決定部415、優先情報記憶部42、表示情報記憶部82および表示部83を備える。
 変位情報取得部86は、センサ情報解析部411で抽出された変位情報をセンサ情報解析部411から取得する。変位情報取得部86は、取得した変位情報を変位情報抽出部412へ出力する。
 対象物情報取得部13は、複数の対象物情報を対象物情報提供装置203から取得する。対象物情報取得部13は、取得した対象物情報を変位情報抽出部412へ出力する。
 変位情報抽出部412は、変位情報および複数の対象物情報を取得する。そして、変位情報抽出部412は、取得した複数の対象物情報によって特定される複数の対象物の各々について、対象物情報を用いて変位情報から対象物変位情報を抽出する。
 なお、センサ情報解析部411が対象物の位置情報に相当する位置のセンサ情報の変位情報を算出する場合は、解析装置70cにおいても対象物情報提供装置203から対象物情報を取得して処理情報記憶部14に記憶できる構成とされればよい。この場合は、センサ情報解析部411が変位情報抽出部412の機能を兼ねることになる。
 図32に示す装置構成例は、対象物情報取得部13を管理装置80cの構成要件とすることで、解析装置70cにて対象物情報を取り扱う必要がなくなり、対象物情報のセキュリティの向上に有効である。
 上述した作業支援システム3は、対象物情報取得部13が、被害状況の確認作業が必要とされる複数の対象物について、対象物の地理的位置を示す対象物の位置情報を含む対象物の情報である対象物情報を取得する。また、センサ情報解析部411が、災害の発生前のセンサ情報と、災害の発生後のセンサ情報とを解析して、状態が変化した変化領域について、変化領域の位置を示す情報と、変化領域の変位状態を示す情報とを含む変位情報を抽出する。また、変位情報抽出部412が、複数の対象物について、対象物情報を用いて対象物の位置情報に相当する位置の変位情報である対象物変位情報を変位情報から抽出する。また、被害程度判定部414が、対象物変位情報を用いて複数の対象物の被害程度を判定する。そして、優先順位決定部415が、対象物の被害程度を用いて複数の対象物の被害状況の確認作業の優先順位を決定する。
 これにより、作業支援システム3は、上述した作業支援システム1,2と同様に、対象物の被害状況の確認作業の作業効率の向上を支援することができる、という効果を奏する。
 また、作業支援システム3は、対象物の被害状況の確認作業を省略することが可能な対象物を選定可能となり、対象物の被害状況の確認作業の効率化を図ることが可能となる。また、対象物の被害状況の確認作業の効率化を図ることにより対象物の被害状況の確認作業に要する人材および機器といったリソースを、被害状況の確認作業が必要な対象物へ集中できるため、全体として迅速な被害状況の確認作業が実現可能となる。
 以上の実施の形態に示した構成は、本発明の内容の一例を示すものであり、実施の形態の技術同士を組み合わせることも可能であるし、別の公知の技術と組み合わせることも可能であるし、本発明の要旨を逸脱しない範囲で、構成の一部を省略、変更することも可能である。
 1,1a,1b,2,3 作業支援システム、10,10a,10b,50,50a,50b,70,70a,70b,70c 解析装置、11 情報取得部、12 センサ情報取得部、13 対象物情報取得部、14 処理情報記憶部、15,41 処理部、16,42 優先情報記憶部、17,33,63,83 表示部、18 出力部、19 エリア指定情報入力部、20 地理情報取得部、30,30a,30b,60,60a,60b,80,80a,80b,80c 管理装置、31,61,81 表示情報取得部、32,62,82 表示情報記憶部、64 対象物変位情報取得部、65 変位情報取得部、84 被害程度取得部、85 対象物変位情報取得部、86 変位情報取得部、101 制御部、102 入力部、103 記憶部、104 表示部、105 通信部、106 出力部、107 システムバス、151 情報抽出部、152,413,415 優先順位決定部、201 センサ情報提供装置、202 予測情報提供装置、203 対象物情報提供装置、204 地理情報提供装置、411 センサ情報解析部、412 変位情報抽出部、414 被害程度判定部。

Claims (27)

  1.  センサの観測によって得られたセンサ情報または災害の発生が予測されることを示す情報である予測情報を取得する情報取得部と、
     被害状況の確認作業が必要とされる複数の対象物について、前記対象物の地理的位置を示す対象物の位置情報を含む前記対象物の情報である対象物情報を取得する対象物情報取得部と、
     前記対象物の位置情報に相当する位置の前記センサ情報または前記対象物の位置情報に相当する位置の前記予測情報を、前記対象物の位置情報に基づいて抽出する情報抽出部と、
     前記情報抽出部で抽出された前記センサ情報または前記情報抽出部で抽出された前記予測情報を用いて複数の前記対象物のそれぞれの前記被害状況の確認作業の優先順位を決定する優先順位決定部と、
     を備えることを特徴とする作業支援装置。
  2.  前記センサ情報は、地震、気象または水位に関する情報であり、
     前記予測情報が、気象、警報、水位または津波に関する情報であること、
     を特徴とする請求項1に記載の作業支援装置。
  3.  前記対象物が、損害保険の補償の対象物または罹災証明書の発行の対象物であること、
     を特徴とする請求項1または2に記載の作業支援装置。
  4.  前記センサ情報または前記予測情報と、前記優先順位との対応を示す優先情報を記憶する優先情報記憶部を備え、
     前記優先順位決定部は、前記対象物の位置情報に相当する位置の前記センサ情報または前記対象物の位置情報に相当する位置の前記予測情報と、前記優先情報とを用いて前記優先順位を決定すること、
     を特徴とする請求項1から3のいずれか1つに記載の作業支援装置。
  5.  前記対象物が位置するエリアを指定するエリア指定情報を受け付けるエリア指定情報入力部を備え、
     前記対象物情報取得部は、前記エリア指定情報で指定されたエリアに位置する前記対象物の前記対象物情報を取得すること、
     を特徴とする請求項1から4のいずれか1つに記載の作業支援装置。
  6.  被害状況の確認作業が必要とされる対象物の地理的位置を示す対象物の位置情報に相当する位置の、災害の発生前にセンサの観測によって得られたセンサ情報と災害の発生中または災害の発生後に前記センサの観測によって得られたセンサ情報とを解析して得られて状態が変化した変化領域の変位状態を示す情報を含む変位情報である対象物変位情報を用いて、複数の前記対象物の被害状況の確認作業の優先順位を決定する優先順位決定部を備えること、
     を特徴とする作業支援装置。
  7.  前記センサは、合成開口レーダ、レーザスキャナまたはイメージセンサのいずれかを含むこと、
     を特徴とする請求項6に記載の作業支援装置。
  8.  前記災害の発生前にセンサの観測によって得られたセンサ情報は、人工衛星に搭載されたセンサによって取得されたセンサ情報であり、
     前記災害の発生中または災害の発生後にセンサの観測によって得られたセンサ情報は、航空機またはドローンに搭載されたセンサによって取得されたセンサ情報であること、
     を特徴とする請求項7に記載の作業支援装置。
  9.  前記対象物が、損害保険の補償の対象物または罹災証明書の発行の対象物であること、
     を特徴とする請求項6から8のいずれか1つに記載の作業支援装置。
  10.  前記対象物変位情報に基づいて判定される前記変化領域の変位の度合いと、前記優先順位との対応を示す優先情報を記憶する優先情報記憶部を備え、
     前記優先順位決定部は、前記変化領域の変位の度合いと、前記優先情報とを用いて前記優先順位を決定すること、
     を特徴とする請求項6から9のいずれか1つに記載の作業支援装置。
  11.  災害の発生前に前記センサの観測によって得られたセンサ情報と災害の発生中または災害の発生後に前記センサの観測によって得られたセンサ情報とを解析して前記変位情報を抽出するセンサ情報解析部と、
     複数の前記対象物について、前記対象物の地理的位置を示す対象物の位置情報を含む前記対象物の情報である対象物情報を用いて前記対象物変位情報を前記変位情報から抽出する変位情報抽出部と、
     をさらに備えることを特徴とする請求項6から10のいずれか1つに記載の作業支援装置。
  12.  前記対象物の地理的位置を示す対象物の位置情報を含む前記対象物の情報である対象物情報を取得する対象物情報取得部と、
     複数の前記対象物について、前記対象物情報を用いて前記対象物変位情報を前記変位情報から抽出する変位情報抽出部と、
     をさらに備えることを特徴とする請求項6から10のいずれか1つに記載の作業支援装置。
  13.  被害状況の確認作業が必要とされる対象物の地理的位置を示す対象物の位置情報に相当する位置の、災害の発生前にセンサの観測によって得られたセンサ情報と災害の発生中または災害の発生後に前記センサの観測によって得られたセンサ情報とを解析して得られて状態が変化した変化領域の変位状態を示す情報を含む変位情報である対象物変位情報を用いて決定される、複数の前記対象物の被害程度を用いて複数の前記対象物の被害状況の確認作業の優先順位を決定する優先順位決定部を備えること、
     を特徴とする作業支援装置。
  14.  前記センサは、合成開口レーダ、レーザスキャナまたはイメージセンサのいずれかを含むこと、
     を特徴とする請求項13に記載の作業支援装置。
  15.  前記災害の発生前にセンサの観測によって得られたセンサ情報は、人工衛星に搭載されたセンサによって取得されたセンサ情報であり、
     前記災害の発生中または災害の発生後にセンサの観測によって得られたセンサ情報は、航空機またはドローンに搭載されたセンサによって取得されたセンサ情報であること、
     を特徴とする請求項14に記載の作業支援装置。
  16.  前記対象物が、損害保険の補償の対象物または罹災証明書の発行の対象物であること、
     を特徴とする請求項13から15のいずれか1つに記載の作業支援装置。
  17.  前記対象物の被害程度と、前記優先順位との対応を示す優先情報を記憶する優先情報記憶部を備え、
     前記優先順位決定部は、前記対象物の被害程度と、前記優先情報とを用いて前記優先順位を決定すること、
     を特徴とする請求項13から16のいずれか1つに記載の作業支援装置。
  18.  前記災害の発生前の前記センサ情報と、災害の発生後の前記センサ情報とを解析して、前記変位情報を抽出するセンサ情報解析部と、
     複数の前記対象物について、前記対象物の地理的位置を示す対象物の位置情報を含む前記対象物の情報である対象物情報を用いて前記対象物変位情報を前記変位情報から抽出する変位情報抽出部と、
     前記対象物変位情報を用いて複数の前記対象物の被害程度を判定する被害程度判定部と、
     をさらに備えることを特徴とする請求項13から17のいずれか1つに記載の作業支援装置。
  19.  前記対象物変位情報を取得し、前記対象物変位情報を用いて複数の前記対象物の被害程度を判定する被害程度判定部をさらに備えること、
     を特徴とする請求項13から17のいずれか1つに記載の作業支援装置。
  20.  前記変位情報を取得し、複数の前記対象物について、前記対象物の地理的位置を示す対象物の位置情報を含む前記対象物の情報である対象物情報を用いて前記対象物変位情報を前記変位情報から抽出する変位情報抽出部と、
     前記対象物変位情報を用いて複数の前記対象物の被害程度を判定する被害程度判定部と、
     をさらに備えることを特徴とする請求項13から17のいずれか1つに記載の作業支援装置。
  21.  センサの観測によって得られたセンサ情報を取得するセンサ情報取得部と、
     被害状況の確認作業が必要とされる複数の対象物について、前記対象物の地理的位置を示す対象物の位置情報を含む前記対象物の情報である対象物情報を取得する対象物情報取得部と、
     災害の発生前の前記センサ情報と、災害の発生後の前記センサ情報とを解析して、状態が変化した変化領域について、前記変化領域の位置を示す情報と、前記変化領域の変位状態を示す情報とを含む変位情報を抽出するセンサ情報解析部と、
     複数の前記対象物について、前記対象物情報を用いて前記対象物の位置情報に相当する位置の前記変位情報である対象物変位情報を前記変位情報から抽出する変位情報抽出部と、
     前記対象物変位情報を用いて複数の前記対象物の被害程度を判定する被害程度判定部と、
     請求項13に記載の作業支援装置に対象物の被害程度を出力する出力部と、
     を備えることを特徴とする作業支援装置。
  22.  センサの観測によって得られたセンサ情報または災害の発生が予測されることを示す情報である予測情報を取得する情報取得部と、
     被害状況の確認作業が必要とされる複数の対象物について、前記対象物の地理的位置を示す対象物の位置情報を含む前記対象物の情報である対象物情報を取得する対象物情報取得部と、
     前記対象物の位置情報に相当する位置の前記センサ情報または前記対象物の位置情報に相当する位置の前記予測情報を、前記対象物の位置情報に基づいて抽出する情報抽出部と、
     前記情報抽出部で抽出された前記センサ情報または前記情報抽出部で抽出された前記予測情報を用いて複数の前記対象物のそれぞれの前記被害状況の確認作業の優先順位を決定する優先順位決定部と、
     前記優先順位を表示する表示部と、
     を備えることを特徴とする作業支援システム。
  23.  センサの観測によって得られたセンサ情報を取得するセンサ情報取得部と、
     被害状況の確認作業が必要とされる複数の対象物について、前記対象物の地理的位置を示す対象物の位置情報を含む前記対象物の情報である対象物情報を取得する対象物情報取得部と、
     災害の発生前の前記センサ情報と、災害の発生後の前記センサ情報とを解析して、状態が変化した変化領域について、前記変化領域の位置を示す情報と、前記変化領域の変位状態を示す情報とを含む変位情報を抽出するセンサ情報解析部と、
     複数の前記対象物について、前記対象物情報を用いて前記対象物の位置情報に相当する位置の前記変位情報である対象物変位情報を前記変位情報から抽出する変位情報抽出部と、
     前記対象物変位情報を用いて複数の前記対象物の被害状況の確認作業の優先順位を決定する優先順位決定部と、
     前記優先順位を表示する表示部と、
     を備えることを特徴とする作業支援システム。
  24.  センサの観測によって得られたセンサ情報を取得するセンサ情報取得部と、
     被害状況の確認作業が必要とされる複数の対象物について、前記対象物の地理的位置を示す対象物の位置情報を含む前記対象物の情報である対象物情報を取得する対象物情報取得部と、
     災害の発生前の前記センサ情報と、災害の発生後の前記センサ情報とを解析して、状態が変化した変化領域について、前記変化領域の位置を示す情報と、前記変化領域の変位状態を示す情報とを含む変位情報を抽出するセンサ情報解析部と、
     複数の前記対象物について、前記対象物情報を用いて前記対象物の位置情報に相当する位置の前記変位情報である対象物変位情報を前記変位情報から抽出する変位情報抽出部と、
     前記対象物変位情報を用いて複数の前記対象物の被害程度を判定する被害程度判定部と、
     前記対象物の被害程度を用いて複数の前記対象物の被害状況の確認作業の優先順位を決定する優先順位決定部と、
     前記優先順位を表示する表示部と、
     を備えることを特徴とする作業支援システム。
  25.  対象物の被害状況の確認作業を支援する作業支援装置における作業支援方法であって、
     センサの観測によって得られたセンサ情報または災害の発生が予測されることを示す情報である予測情報を取得するステップと、
     被害状況の確認作業が必要とされる複数の対象物について、前記対象物の地理的位置を示す対象物の位置情報を含む前記対象物の情報である対象物情報を取得するステップと、
     前記対象物の位置情報に相当する位置の前記センサ情報または前記対象物の位置情報に相当する位置の前記予測情報を、前記対象物の位置情報に基づいて抽出するステップと、
     抽出された前記センサ情報または抽出された前記予測情報を用いて複数の前記対象物のそれぞれの前記被害状況の確認作業の優先順位を決定するステップと、
     前記優先順位を表示するステップと、
     を含むことを特徴とする作業支援方法。
  26.  対象物の被害状況の確認作業を支援する作業支援装置における作業支援方法であって、
     センサの観測によって得られたセンサ情報を取得するステップと、
     被害状況の確認作業が必要とされる複数の対象物について、前記対象物の地理的位置を示す対象物の位置情報を含む前記対象物の情報である対象物情報を取得するステップと、
     災害の発生前の前記センサ情報と、災害の発生後の前記センサ情報とを解析して、状態が変化した変化領域について、前記変化領域の位置を示す情報と、前記変化領域の変位状態を示す情報とを含む変位情報を抽出するステップと、
     複数の前記対象物について、前記対象物情報を用いて前記対象物の位置情報に相当する位置の前記変位情報である対象物変位情報を前記変位情報から抽出するステップと、
     前記対象物変位情報を用いて複数の前記対象物の被害状況の確認作業の優先順位を決定するステップと、
     前記優先順位を表示するステップと、
     を含むことを特徴とする作業支援方法。
  27.  対象物の被害状況の確認作業を支援する作業支援装置における作業支援方法であって、
     センサの観測によって得られたセンサ情報を取得するステップと、
     被害状況の確認作業が必要とされる複数の対象物について、前記対象物の地理的位置を示す対象物の位置情報を含む前記対象物の情報である対象物情報を取得するステップと、
     災害の発生前の前記センサ情報と、災害の発生後の前記センサ情報とを解析して、状態が変化した変化領域について、前記変化領域の位置を示す情報と、前記変化領域の変位状態を示す情報とを含む変位情報を抽出するステップと、
     複数の前記対象物について、前記対象物情報を用いて前記対象物の位置情報に相当する位置の前記変位情報である対象物変位情報を前記変位情報から抽出するステップと、
     前記対象物変位情報を用いて複数の前記対象物の被害程度を判定するステップと、
     前記対象物の被害程度を用いて複数の前記対象物の被害状況の確認作業の優先順位を決定するステップと、
     前記優先順位を表示するステップと、
     を含むことを特徴とする作業支援方法。
PCT/JP2019/042837 2019-10-31 2019-10-31 作業支援装置、作業支援システム、作業支援方法 WO2021084699A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2019/042837 WO2021084699A1 (ja) 2019-10-31 2019-10-31 作業支援装置、作業支援システム、作業支援方法
JP2021506596A JP6976481B2 (ja) 2019-10-31 2019-10-31 作業支援装置、作業支援システム、作業支援方法
JP2021182475A JP7262552B2 (ja) 2019-10-31 2021-11-09 作業支援システム、作業支援方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/042837 WO2021084699A1 (ja) 2019-10-31 2019-10-31 作業支援装置、作業支援システム、作業支援方法

Publications (1)

Publication Number Publication Date
WO2021084699A1 true WO2021084699A1 (ja) 2021-05-06

Family

ID=75715004

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/042837 WO2021084699A1 (ja) 2019-10-31 2019-10-31 作業支援装置、作業支援システム、作業支援方法

Country Status (2)

Country Link
JP (1) JP6976481B2 (ja)
WO (1) WO2021084699A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022059604A1 (ja) * 2020-09-18 2022-03-24 富士フイルム株式会社 判定結果推定装置、判定結果推定方法及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008298704A (ja) * 2007-06-04 2008-12-11 Sekisui Chem Co Ltd 建物の被災診断システム
JP2009300312A (ja) * 2008-06-16 2009-12-24 Takenaka Komuten Co Ltd 地震被害予測装置及び地震被害予測プログラム
JP2010020467A (ja) * 2008-07-09 2010-01-28 Japan Radio Co Ltd 総合防災情報システム及び災害情報サーバ
WO2013051300A1 (ja) * 2011-10-03 2013-04-11 Hanabata Mitsuaki 被災状況把握システム
US20170169534A1 (en) * 2015-12-09 2017-06-15 One Concern, Inc. Damage data propagation in predictor of structural damage
JP2018165906A (ja) * 2017-03-28 2018-10-25 国立大学法人 東京大学 被害調査システム及びその使用方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6239168B1 (ja) * 2017-03-01 2017-11-29 株式会社アルム 災害保険管理システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008298704A (ja) * 2007-06-04 2008-12-11 Sekisui Chem Co Ltd 建物の被災診断システム
JP2009300312A (ja) * 2008-06-16 2009-12-24 Takenaka Komuten Co Ltd 地震被害予測装置及び地震被害予測プログラム
JP2010020467A (ja) * 2008-07-09 2010-01-28 Japan Radio Co Ltd 総合防災情報システム及び災害情報サーバ
WO2013051300A1 (ja) * 2011-10-03 2013-04-11 Hanabata Mitsuaki 被災状況把握システム
US20170169534A1 (en) * 2015-12-09 2017-06-15 One Concern, Inc. Damage data propagation in predictor of structural damage
JP2018165906A (ja) * 2017-03-28 2018-10-25 国立大学法人 東京大学 被害調査システム及びその使用方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022059604A1 (ja) * 2020-09-18 2022-03-24 富士フイルム株式会社 判定結果推定装置、判定結果推定方法及びプログラム

Also Published As

Publication number Publication date
JPWO2021084699A1 (ja) 2021-11-25
JP6976481B2 (ja) 2021-12-08

Similar Documents

Publication Publication Date Title
KR101762809B1 (ko) 드론을 사용한 산사태 예측 지형자료 생성 및 산사태 위험지역 선정 방법
Suppasri et al. Building damage characteristics based on surveyed data and fragility curves of the 2011 Great East Japan tsunami
JP2003168179A (ja) リアルタイムハザードマップシステム
WO2019235415A1 (ja) 災害状況判定システムおよび災害判定飛行システム
CN111950994A (zh) 一种地质环境及监测信息管理方法、系统、终端及存储介质
JP6945755B1 (ja) 解析装置および解析方法
JP2005200972A (ja) 災害情報サービスシステム
Pollino et al. An open source GIS system for earthquake early warning and post-event emergency management
JP6976481B2 (ja) 作業支援装置、作業支援システム、作業支援方法
Lozano et al. Data collection tools for post-disaster damage assessment of building and lifeline infrastructure systems
JP6968307B2 (ja) 災害対応支援装置および災害対応支援方法
Shah et al. A review on hazard risk assessment using remote sensing and GIS
KR102143039B1 (ko) 다중 경로식 원격감시제어장치
JP7555700B2 (ja) 情報提供サーバ、情報提供システム、情報提供方法およびプログラム
WO2024074595A1 (en) Drone-based, airborne sensory system for flood elevation and flood occurrence probability measurements and return periods by proxy measurements and method thereof
JP7262552B2 (ja) 作業支援システム、作業支援方法
Ormando et al. Real-time assessment of performance indicators for bridges to support road network management in the aftermaths of earthquake events
JP7505597B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7224133B2 (ja) インフラ設備点検支援システム、インフラ設備点検支援方法及びプログラム
Uchida et al. Countermeasures for sediment-related disasters in Japan using hazard maps
Gong A remote sensing-based approach for assessing and visualizing post-Sandy damage and resiliency rebuilding needs
CN116106987A (zh) 气象预测方法、电子设备和可读存储介质
Sohn et al. Resilient Heritage Using Aerial and Ground-Based Multi-sensor Imagery
Kontoes et al. Mapping seismic vulnerability and risk of cities: the MASSIVE project
JP4704809B2 (ja) 地盤情報提示装置および地盤情報提示システム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2021506596

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19951135

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19951135

Country of ref document: EP

Kind code of ref document: A1