WO2021214929A1 - 災害判定装置、システム、方法、及びプログラム - Google Patents

災害判定装置、システム、方法、及びプログラム Download PDF

Info

Publication number
WO2021214929A1
WO2021214929A1 PCT/JP2020/017446 JP2020017446W WO2021214929A1 WO 2021214929 A1 WO2021214929 A1 WO 2021214929A1 JP 2020017446 W JP2020017446 W JP 2020017446W WO 2021214929 A1 WO2021214929 A1 WO 2021214929A1
Authority
WO
WIPO (PCT)
Prior art keywords
disaster
information
date
determination
unit
Prior art date
Application number
PCT/JP2020/017446
Other languages
English (en)
French (fr)
Inventor
聖崇 加藤
長谷川 雄史
隆文 春日
岡登 洋平
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2022516568A priority Critical patent/JP7123285B2/ja
Priority to PCT/JP2020/017446 priority patent/WO2021214929A1/ja
Publication of WO2021214929A1 publication Critical patent/WO2021214929A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/08Insurance
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A10/00TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
    • Y02A10/40Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping

Definitions

  • This disclosure relates to a disaster judgment device, a disaster judgment system, a disaster judgment method, and a disaster judgment program.
  • a flood such as a storm surge or a landslide, or an earthquake
  • the non-life insurance company dispatches an investigator to the site to check the damage situation and receive damage.
  • Conduct investigations and assessments such as taking photographs of buildings or household goods, and then pay insurance claims to policyholders.
  • a disaster determination system has been proposed that enables accident reception and insurance payment by a photograph of an insured object sent from a damaged policyholder (for example, Patent Document 1).
  • the insured object shown in the application photo is the disaster.
  • the information registered at the time of insurance contract (for example, shooting location) and the information added to the application photo taken after the disaster (for example, shooting date and time) are judged whether it is broken or not without considering the local disaster situation. , The shooting location). For this reason, it is not possible to correctly determine whether the indemnified object was damaged by the disaster (that is, accurate damage determination), and when an investigator is dispatched to the site to make a damage determination. Has the problem that the insurance payment business cannot proceed quickly.
  • This disclosure is made to solve the above-mentioned conventional problems, and is a disaster judgment device, a disaster judgment system, and a disaster judgment method that enable accurate and efficient disaster judgment based on an application photograph. , And to provide a disaster determination program.
  • the disaster determination device includes a communication unit that communicates with a user terminal via a network, a data acquisition unit that acquires contract information indicating the contents of an insurance contract regarding an indemnified object, and disaster information regarding a disaster that has occurred.
  • the photographed image obtained by photographing the damaged object from the user terminal via the communication unit, the date and time when the photographed image was photographed, and the date and time position information including the place where the photographed image was photographed are obtained.
  • Acquire the insurance claim payout application including, and determine whether or not the photographed image is an image corresponding to the disaster estimated by the disaster information based on the photographed image, the date and time position information, and the disaster information. It is characterized by having a authenticity determination unit for performing authenticity determination.
  • the disaster determination method is a method executed by the disaster determination device, which includes a step of communicating with a user terminal via a network, contract information indicating the contents of an insurance contract regarding an indemnified object, and a disaster related to a disaster that has occurred.
  • Date and time position information including a step of acquiring information, a photographed image obtained by photographing a damaged object from the user terminal, a date and time when the photographed image was photographed, and a place where the photographed image was photographed.
  • Obtaining an insurance claim payout application including the above, and based on the photographed image, the date and time position information, and the disaster information, whether or not the photographed image corresponds to a disaster estimated by the disaster information It is characterized by having a step of performing a true / false determination for determination.
  • FIG. It is a functional block diagram which shows schematic structure of the disaster determination system which concerns on Embodiment 1.
  • FIG. It is a flowchart which shows the process of the user authentication in the disaster determination system which concerns on Embodiment 1.
  • step ST112 of photography of the compensation object in FIG.
  • step ST011 shows the damage determination process
  • FIG. (A) to (E) are diagrams showing an example of disaster information (two-dimensional map including a disaster occurrence position) used in the authenticity determination unit of the disaster determination device according to the first embodiment. It is a figure which shows the example of the disaster information used in the authenticity determination part of the disaster determination apparatus which concerns on Embodiment 1. FIG. It is a figure which shows another example of the disaster information used in the authenticity determination part of the disaster determination apparatus which concerns on Embodiment 1. FIG. It is a figure which shows the example which presented the determination result (in the case of a disaster target) of the disaster determination apparatus which concerns on Embodiment 1 as a two-dimensional map on a work terminal.
  • FIG. It is a figure which shows the example of the application contents of a plurality of applicants who apply for payout by the disaster determination system which concerns on Embodiment 2.
  • FIG. It is a flowchart which shows the payout application process of the disaster determination system which concerns on Embodiment 2.
  • step ST031 executed by the disaster determination apparatus in FIG.
  • FIG. It is a figure which shows the application content and judgment result of a plurality of applicants in the disaster judgment system which concerns on Embodiment 2.
  • FIG. It is a functional block diagram which shows the structure of the user terminal of the disaster determination system which concerns on Embodiment 3.
  • the disaster judgment device, the disaster judgment system, the disaster judgment method, and the disaster judgment program according to the embodiment will be described below with reference to the drawings.
  • the following embodiments are merely examples, and it is possible to appropriately combine the embodiments and change the embodiments as appropriate.
  • FIG. 1 is a functional block diagram schematically showing the configuration of the disaster determination system 100 according to the first embodiment.
  • the disaster determination system 100 includes a user terminal 10 and a disaster determination device 20.
  • the user terminal 10 and the disaster determination device 20 can communicate with each other via the network 30.
  • the network 30 is the Internet connected via, for example, a wireless LAN (Local Area Network), a mobile phone communication network, or the like.
  • one user terminal 10 is connected to one disaster determination device 20, but one or more other user terminals other than the user terminal 10 are connected to one disaster determination device 20. May be done.
  • the disaster determination device 20 which is a device managed by the insurance company applies for insurance payment. Is accepted, the authenticity is judged, the damage is judged, and the insurance claim payment process or the insurance claim payment refusal process is executed.
  • the disaster determination device 20 acquires contract information indicating the contents of an insurance contract regarding the indemnified object and disaster information regarding the disaster that has occurred, and photographs the damaged object from the user terminal 10 to obtain an image.
  • an insurance claim payout application including the image, the date and time when the photographed image was taken, and the date and time position information including the place where the photographed image was taken, and based on the photographed image, the date and time position information, and the disaster information.
  • Authenticity determination is performed to determine whether or not the captured image is an image corresponding to a disaster estimated from the disaster information. Further, when the disaster determination device 20 determines that the captured image corresponds to a disaster estimated from the disaster information, the object to be captured in the captured image is based on the contract information, the captured image, the date / time position information, and the disaster information.
  • a disaster determination is performed to determine whether or not the compensation object is damaged by the disaster estimated from the disaster information.
  • the user terminal 10 is a communication device operated by the policyholder.
  • the user terminal 10 is a computer such as a smartphone, a tablet PC (personal computer), a mobile phone, a personal computer, or the like.
  • the user terminal 10 includes an image acquisition unit 11, a date / time position information acquisition unit 12, a terminal control unit 13, a communication unit 14, and an input / output unit 15.
  • the user terminal 10 can execute the process described below by installing the software for the user terminal (hereinafter, also referred to as "user application").
  • the user application is obtained by downloading from a server connected via the Internet and installed on the user terminal 10.
  • the user application may be recorded and provided on a recording medium such as a CD (Compact Disc) -ROM or a DVD (Digital Versaille Disc) -ROM, and may be installed on the user terminal 10 from this recording medium.
  • the user terminal 10 may provide the user application from the cloud, and in this case, the same function as when the user application is installed on the user terminal 10 can be realized.
  • the image acquisition unit 11 is a camera for the policyholder to take a picture of the insured object.
  • a camera is an imaging device that captures a color image or a monochrome image.
  • the camera includes an optical mechanism composed of a lens, a mirror, and the like, and an image sensor which is an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Sensor).
  • the camera may have an infrared sensor and a light emitting element to enable night photography.
  • the camera may have a moving image shooting function as well as a still image shooting function.
  • the date / time position information acquisition unit 12 receives positioning information (for example, radio waves) from a positioning system such as GPS (Global Positioning System), and the date / time position including the current date / time information and the position information of the user terminal 10. Output information.
  • the date / time position information acquisition unit 12 uses a known position information calculation technique for calculating the date / time information and the position information based on the GPS positioning information. Further, the date / time position information acquisition unit 12 may use or use positioning information from a navigation satellite system other than GPS. Further, although the date / time position information acquisition unit 12 uses GPS positioning information for acquiring the date / time position information, the information or radio waves transmitted from the mobile phone base station or the access point of the wireless LAN are used or used in combination. , The current date and time and the position information of the user terminal 10 may be calculated and acquired.
  • GPS Global Positioning System
  • the terminal control unit 13 controls the entire user terminal 10.
  • the terminal control unit 13 is composed of, for example, a CPU (Central Processing Unit) as a processor for information processing, a memory as a storage device, and other peripheral circuits.
  • the memory includes, for example, a volatile memory such as SDRAM (Synchronous Dynamic Random Access Memory) or a non-volatile memory such as a flash memory.
  • the volatile memory is used as a work memory for the CPU to expand the program when the program is executed, or as a buffer memory for temporarily recording data.
  • program data of firmware for operating the user terminal 10 or software for operating various applications is recorded. The above-mentioned user application is recorded in this non-volatile memory.
  • the terminal control unit 13 stores various information acquired from the image acquisition unit 11, the date / time position information acquisition unit 12, and the network 30 via the communication unit 14.
  • the various information is, for example, a photograph (that is, image data), time information such as a date and time, and position information of the positioned user terminal 10.
  • the communication unit 14 is a communication module that transmits and receives information to and from the network 30 wirelessly or by wire.
  • the input / output unit 15 includes, for example, a display unit and an operation unit.
  • the display unit is a display device that displays the operation screen of the user application or various information output from the terminal control unit 13.
  • the display device is, for example, a liquid crystal display (LCD) or an organic EL display (OLED: Organic Electro-Luminence Display Display).
  • the operation unit detects an operation such as touch, slide, or key input by the user, and outputs the detection signal to the terminal control unit 13.
  • the operation unit is, for example, a touch panel, a button, a keyboard, or the like.
  • the policyholder who is a user of the user terminal 10 can operate the user terminal 10 by touching or sliding a display item such as a button or a menu displayed on the input / output unit 15 with a finger or a touch pen. ..
  • the policyholder who is the user of the user terminal 10 can input information or confirm the input data or processing result.
  • the input / output unit 15 may have a display unit and an operation unit integrally configured. Further, the display unit and the operation unit may have a separate configuration.
  • the disaster determination device 20 is a device that stores and manages policyholder information (for example, contract information, insurance claim payment information) or disaster information, and performs disaster determination, application processing, payment processing, etc. regarding application contents.
  • the disaster determination device 20 is composed of, for example, a server PC or a personal computer.
  • the disaster determination device 20 may be constructed as a server environment in the insurance company. Alternatively, the disaster determination device 20 may be constructed using an outsourced cloud server.
  • the disaster determination device 20 is connected to the user terminal 10 via the network 30. As shown in FIG. 1, the disaster determination device 20 pays the data acquisition unit 21, the authenticity determination unit 22, the control unit 23, the communication unit 24, the disaster determination unit 25, the application processing unit 26, and the payment. It includes a processing unit 27.
  • the data acquisition unit 21 stores, for example, information about the insurance contract, a photographed image (that is, image data) as a photograph applied from the user terminal 10, and a storage unit that stores insurance policyholder information such as the date and time of photography and location information. Have. Further, the data acquisition unit 21 stores, for example, disaster information collected by an investigator of an insurance company and disaster information obtained from an external information agency via the network 30. Disaster information includes, for example, disaster location information (that is, disaster area, disaster area, etc.), image data that is a photograph of the disaster area, disaster time information (for example, date and time, period), disaster situation information, and disasters created by each local government. Maps, water level information for each river, rainfall information for each region, flood forecast information, evacuation information, past disaster information, etc. The data acquisition unit 21 is composed of, for example, a plurality of HDDs (Hard Disk Drives) or SSDs (Solid State Drives), and can store a large amount of data.
  • HDDs Hard Disk Drives
  • SSDs Solid State Drives
  • the data acquisition unit 21 may include a contract database (contract DB) for storing user's contract information and a disaster information database (disaster DB) for storing disaster information, and may store various types of information.
  • the contract DB includes user identification information (for example, user ID and password) used for user authentication when the policyholder uses the user terminal 10 to access the disaster determination device 20, and insurance for the user. Stores information related to contracts. The registration of the user identification information is performed, for example, after the operator of the insurance company issues a user ID to the user and obtains the insurance contract details and password from the user.
  • the disaster determination device 20 transmits screen information for accepting input about the user's insurance contract details or password to the user terminal 10, acquires the input response information from the user terminal 10, and then issues the user ID.
  • the disaster information DB stores, for example, the date and time and place of a disaster (for example, position information such as latitude and longitude), and disaster information for that position (for example, a region).
  • the data acquisition unit 21 may be a device that acquires various types of information described above from a storage device that is an external device of the disaster determination device 20 or a storage device connected to the network 30.
  • the authenticity determination unit 22 includes information (for example, captured image, date / time position information) included in the insurance claim withdrawal application transmitted from the user terminal 10 and a disaster stored in the data acquisition unit 21 or obtained from the network 30. Based on the information, it is determined whether or not the captured image is an image corresponding to the disaster indicated by the disaster information (that is, the disaster estimated from the disaster information). For example, the authenticity determination unit 22 determines the shooting date and time when the shooting date and time of the photograph (that is, the shot image) or the moving image of the applied object is within the disaster period specified based on the obtained disaster information. Determine if there is any. In addition, the authenticity determination unit 22 includes the shooting location of the photograph or video of the applied object in the area satisfying the disaster conditions specified based on the obtained disaster information when determining the shooting position. It is determined whether or not it is present.
  • information for example, captured image, date / time position information included in the insurance claim withdrawal application transmitted from the user terminal 10 and a disaster stored in the data acquisition unit 21 or obtained from the network 30. Based on the
  • the control unit 23 controls the entire disaster determination device 20.
  • the control unit 23 is composed of, for example, a CPU as a processor for information processing, a memory as a storage device, and other peripheral circuits.
  • the memory includes, for example, a volatile memory such as SDRAM or a non-volatile memory such as a flash memory.
  • the volatile memory is used as a work memory for the CPU to expand the program when the program is executed, or as a buffer memory for temporarily recording data. Further, in the non-volatile memory, and in the non-volatile memory, the program data of the firmware for operating the disaster determination device 20 or the software for operating various applications is recorded.
  • the communication unit 24 is a communication module that transmits and receives information to and from the network 30 wirelessly or by wire.
  • the disaster determination unit 25 determines that the photographed image of the object sent when receiving the insurance claim withdrawal application from the policyholder is authenticity. Based on the disaster information obtained by the determination unit 22, it is determined whether or not the image is the one damaged by the designated disaster. In addition, the damage determination unit 25 analyzes the application image in order to determine whether or not the indemnified object that is the subject of the photographed image is the object under the insurance contract.
  • the application processing unit 26 performs application processing for the insurance claim withdrawal application made by the policyholder based on the judgment results of the authenticity judgment unit 22 and the damage judgment unit 25, and controls the notification notifying the result of the application processing. It is transmitted to the user terminal 10 via the unit 23.
  • the payment processing unit 27 executes payment processing based on the determination result of the damage determination unit 25.
  • the disaster determination system 100 provides a mechanism capable of promptly paying out insurance money to an insured person who has taken out disaster insurance in the event of a disaster.
  • the disaster insurance in the first embodiment covers insurance in which the insurance company pays out insurance money to the insured in the event of a disaster.
  • the disaster insurance in the first embodiment assumes, for example, fire insurance (for example, home fire insurance, comprehensive housing insurance, earthquake insurance, comprehensive store insurance), automobile insurance, accident insurance (for example, injury due to a disaster such as an earthquake or tsunami). Insurance), income compensation insurance (for example, insurance assuming that the workplace will be lost or it will be difficult to work due to a disaster), etc.
  • the accident insurance contract is completed between the insured person and the insurance company, and the contract information indicating the contract contents for each contract is stored in the disaster determination device 20.
  • the contract information includes, for example, personal contact information of the insured person, basic information of the insured person, contract insurance plan information indicating the contents of the contracted insurance plan, information on the insured object related to the insured object, and the like.
  • the insured person's personal contact information includes information such as the insured person's name, address, email address, and telephone number.
  • the insured's basic information includes gender, date of birth, address, and premium receiving account information.
  • the contract insurance plan information includes information such as the insurance plan name of the contracted insurance plan, the name of the insurance company that provides the insurance plan, the premium, the compensation period, the compensation content (for example, payment conditions), the coverage target, the compensation conditions, and the contract date. including.
  • the indemnified object information includes the address of the indemnified object, the type of indemnified object (for example, a detached house, an apartment), the building structure (for example, reinforced concrete structure, steel reinforced concrete structure, steel frame structure, wooden structure), and the asset value aspect (for example, construction).
  • the contract information may include an image of the compensation target taken with the compensation target as the subject.
  • the policyholder is a person who applies for a contract to an insurance company and pays insurance premiums, and is a party to the contract.
  • the insured is a person who receives insurance coverage or is covered by insurance. Although the case where the policyholder and the insured person are the same person is presented, the policyholder and the insured person may be different persons.
  • ⁇ 1-2 Operation The operation of the disaster determination system 100 will be described below.
  • the case where the policyholder is damaged by a flood due to a typhoon or heavy rain will be described as an example.
  • the policyholder applies to the insurance company for insurance payment of the damaged coverage.
  • the policyholder who applies for withdrawal is also referred to as an "applicant".
  • FIG. 2 is a flowchart showing a user authentication process in the disaster determination system 100 according to the first embodiment.
  • the applicant uses the user application activated on the user terminal 10 to access the application site provided by the disaster determination device 20 via the network 30 (step ST000).
  • the disaster determination device 20 receives access from the user terminal 10 and transmits a login screen to the disaster determination system 100 to the user terminal 10 (step ST001).
  • the applicant inputs the user ID (user identifier) and password on the login screen of the disaster determination system 100 presented on the user terminal 10 and instructs the transmission of these (step ST002).
  • the disaster determination device 20 searches the contract DB based on the received user ID and password, and determines whether or not both the user ID and the password match those registered in the contract DB (step). ST003). If one or both of the user ID and password do not match those registered in advance (NO in step ST003), the user terminal 10 displays a message informing the user that the disaster determination system 100 cannot be accessed, and informs the user. Notify that the user ID and password are to be entered again (step ST004). When both the user ID and the password match the pre-registered ones (YES in step ST003), the disaster determination device 20 acquires the contract information associated with the corresponding user ID and password from the contract DB. (Step ST005).
  • the disaster determination device 20 transmits the contract information and the application menu screen acquired from the contract DB to the user terminal 10 (step ST006).
  • existing authentication technology or method can be used, such as using a user ID and password which are individual numbers associated with the contractor number in advance.
  • FIG. 3 is a flowchart showing the processing of the insurance claim withdrawal application in the disaster determination system 100 according to the first embodiment.
  • the applicant selects an insurance claim withdrawal application from the application menu screen displayed on the user terminal 10 and makes a withdrawal application (for example, inputting the application contents) (step ST010).
  • the applicant submits (that is, sends) the image after the disaster, which is a photographed image for inputting the application contents and confirming the damage status of the indemnified object, to the insurance company, and applies for the insurance claim withdrawal.
  • the post-disaster image As for the post-disaster image, the image taken after the disaster with the subject to be compensated as the subject is submitted to the insurance company, and an insurance claim withdrawal application is made.
  • the post-disaster image is a captured image captured and registered by the user terminal 10.
  • FIG. 4 is a flowchart showing the payout application process (step ST010) in FIG.
  • the terminal control unit 13 receives an operation of the applicant and presents an insurance claim withdrawal application screen (step ST100). Subsequently, the terminal control unit 13 confirms to the applicant "whether to input the application contents" (step ST101). When inputting the application content is selected (YES in step ST101), the terminal control unit 13 prompts the input to the predetermined input field and accepts the input of the application content by the applicant. After the input is completed, the terminal control unit 13 stores the application contents (step ST102).
  • the terminal control unit 13 provides an input completion button on the user terminal 10 to detect the completion of the input work of the applicant, prompts the applicant to operate the input completion button after the input is completed, and prompts the applicant to complete the work by the input completion button. It is done by letting the operation be performed. Further, the terminal control unit 13 may present the input completion confirmation screen to the applicant at the stage when the applicant moves the cursor from the input field to another item field and have the applicant perform the input work completion operation.
  • the terminal control unit 13 confirms the registration of the post-damage image of the next compensation target object (step ST103).
  • the terminal control unit 13 registers the post-damage image of the compensation target (step ST104).
  • FIG. 5 is a flowchart showing a process of registering a photographed image of the compensation object in FIG. 4 (step ST104).
  • the terminal control unit 13 displays a registration screen of a photographed image of the compensation target object (step ST110). Subsequently, the terminal control unit 13 presents a message to the applicant as to whether or not to photograph the compensation target object, and confirms whether or not to photograph (step ST111).
  • the terminal control unit 13 causes the user to execute the shooting process of the compensation target (step ST112).
  • FIG. 6 is a flowchart showing a photographing process (step ST112) of the compensation target in FIG.
  • the terminal control unit 13 activates the image acquisition unit 11 to shoot the compensation target object and displays the shooting menu (step ST120).
  • the terminal control unit 13 determines whether or not "shooting" is selected in the shooting menu by the applicant (step ST121).
  • the applicant selects "shooting” it means an operation such as pressing a shooting button on the operation unit of the input / output unit 15 or touching a shooting icon.
  • Not selecting "shoot” means that an operation such as touching a shooting button or a shooting icon is not performed on the operation unit of the input / output unit 15.
  • the terminal control unit 13 receives shooting information (for example, from the date / time position information acquisition unit 12) from the date / time position information acquisition unit 12.
  • shooting information for example, from the date / time position information acquisition unit 12
  • the date and time and place where "shooting" is selected is acquired (step ST122).
  • the date and time information in the shooting information of the compensation target image is, for example, time information including the date and hour, minute, and second, and the shooting location in the shooting information of the compensation target image is specified by, for example, latitude and longitude. Position information.
  • the terminal control unit 13 controls the image acquisition unit 11 to take a picture of the compensation target object and save it as an image after the disaster. Further, the terminal control unit 13 adds the shooting information acquired from the date / time position information acquisition unit 12 to the header information of the image after the disaster (step ST123).
  • the file format of the image data to be saved is PEG (Joint Photographic Experts Group), Exif (Exif image file format), or TIFF (Tagged Image File) known file format such as TIFF (Tagged Image File). Further, the image data to be saved may be moving image data. If the applicant does not select "shoot" (NO in step ST121), the terminal control unit 13 does not shoot and returns to a state in which shooting is possible again (step ST121).
  • the terminal control unit 13 confirms with the applicant whether to "end shooting” (step ST124), and if "end shooting” is selected (YES in step ST124), the terminal control unit 13 ends the processing of the image acquisition unit 11. do.
  • step ST124 the terminal control unit 13 returns to the state where shooting is possible (step ST121) again. If “shooting” is not selected even after a certain period of time has passed, the terminal control unit 13 controls the applicant to confirm whether to "finish shooting” (step ST124). May be good.
  • the terminal control unit 13 confirms whether or not to register the photographed image of the compensation target to the applicant (step ST113).
  • the terminal control unit 13 confirms the presence or absence of the captured image of the compensation target (step ST114), and when the captured data is "Yes” (Yes).
  • the registration candidates are presented to the display unit of the input / output unit 15.
  • the applicant selects a photographed image to be registered from the presented photographed images (step ST115).
  • the photographed data is "none”.
  • the terminal control unit 13 reconfirms" whether to photograph the compensation object "(step ST111), and then repeats the same process.
  • the terminal control unit 13 confirms whether to end the image registration (step ST116).
  • the terminal control unit 13 ends the processing of the compensation target object.
  • the terminal control unit 13 reconfirms "whether to capture the compensation target" (step ST111), and repeats the same processing thereafter.
  • the terminal control unit 13 confirms with the applicant "whether to apply for insurance payment” (step ST105).
  • the terminal control unit 13 confirms whether or not the application content has been input (step ST106), and confirms whether or not the captured image after the disaster has been registered (step ST106).
  • step ST107 if both are completed (YES in both steps ST106 and ST107), the withdrawal application is executed.
  • the user terminal 10 transmits the application information to the disaster determination device 20 (step ST108). If the application content has not been input at the time of confirming whether or not the application content has been input (NO in step ST106), the terminal control unit 13 proceeds to the application content input (step ST101), and then performs the same processing. .. If the captured image is not registered at the time of confirming that the captured image has been registered after the disaster (NO in step ST107), the terminal control unit 13 proceeds with the process to register the captured image of the compensation target (step ST103). After that, the same processing is performed.
  • the terminal control unit 13 transmits the withdrawal application information including the application amount of the insurance claim withdrawal application and the image after the disaster from the communication unit 14 to the disaster determination device 20 via the network 30.
  • FIG. 7 is a flowchart showing the damage determination process (step ST011) in FIG.
  • the disaster determination device software is operating in the control unit 23 of the disaster determination device 20.
  • the control unit 23 receives the payout application notification from the user terminal 10 via the communication unit 24 (YES in step ST200)
  • the control unit 23 acquires the sent application information (step ST201).
  • the control unit 23 associates the acquired application information with the user ID and saves it in the data acquisition unit 21 (step ST202).
  • the control unit 23 acquires the image of the compensation target object and the shooting information (including the shooting date and time and the shooting location) included in the application target information (step ST203).
  • control unit 23 acquires disaster information (including the disaster area) of the corresponding date and time from the disaster DB of the data acquisition unit 21 based on the shooting date and time (step ST204). Further, the control unit 23 sends the acquired information on the compensation target (including the shooting date and time and the shooting location) and the disaster information on the corresponding date and time to the authenticity determination unit 22, and performs the authenticity determination process.
  • disaster information including the disaster area
  • the control unit 23 sends the acquired information on the compensation target (including the shooting date and time and the shooting location) and the disaster information on the corresponding date and time to the authenticity determination unit 22, and performs the authenticity determination process.
  • the authenticity determination unit 22 determines whether or not the subject (that is, the compensation object) shown in the application photograph is damaged by the disaster estimated from the disaster information from the applied compensation object information and the disaster information. A false determination is made (step ST205). Whether or not the subject in the application photo was damaged by a disaster estimated from the disaster information means, for example, whether the application photo was taken in the disaster area or outside the disaster area. Is.
  • the applied compensation target information is, for example, a photograph (that is, image data) of the compensation target, a shooting date and time, a shooting location, and the like.
  • the authenticity determination unit 22 makes an authenticity determination based on the result of the authenticity determination of the shooting date and time of the compensation object and the authenticity determination of the shooting location of the compensation object.
  • FIG. 8 is a flowchart showing the authenticity determination process (step ST205) in FIG. As shown in FIG. 8, when the authenticity determination unit 22 receives the execution notification of the authenticity determination from the control unit 23 (step ST220), the compensation target information (for example, the shooting location, the date and time) and the disaster information are obtained. Acquire (step ST221).
  • the compensation target information for example, the shooting location, the date and time
  • the disaster information are obtained. Acquire (step ST221).
  • 9 (A) to 9 (E) are diagrams showing an example of disaster information used by the authenticity determination unit 22 of the disaster determination device 20 according to the first embodiment.
  • 9 (A) to 9 (E) show a two-dimensional map including a disaster occurrence position as disaster information.
  • the disaster information includes information on the date and time, position (for example, longitude, latitude), and inundation height [m] of a predetermined area.
  • 9 (A) to 9 (E) are examples of visualizing them with a two-dimensional map of longitude and latitude, and show the inundation height in the area Area_o in shades or colors.
  • the points O LAT_o, LON_o
  • the transition of the time axis of the disaster information is shown before the disaster in FIG. 9 (A), during the disaster in FIG. 9 (B) (initial), during the disaster in FIG. 9 (C) (mid-term), and in FIG. 9 (D). This will be described as during the occurrence of the disaster (late stage) and after the end of the disaster in FIG. 9 (E).
  • the inundation height High_a is 0 m.
  • the inundation height High_b ⁇ 0.5 m.
  • the inundation height High_c ⁇ 0.5 m.
  • the inundation height in the area O is distributed in 0 m, inundation height ⁇ 0.5 m, inundation height ⁇ 0.5 m, and inundation height ⁇ 1.0 m.
  • the heavy rain has subsided and the inundation height at point O has dropped to High_d ⁇ 0.5 m.
  • the disaster has ended and the inundation height is 0.
  • the size and definition of the area may be changed according to the population density and the like.
  • the area should be narrowed and the definition should be fine, and in the case of a depopulated area such as the countryside, the area should be widened and the definition should be coarse. You may create it.
  • FIG. 10 is a diagram showing an example of disaster information used by the authenticity determination unit 22 of the disaster determination device 20 according to the first embodiment.
  • FIG. 10 shows the case where the result of the authenticity determination is “true” for the change of the date and time-the inundation height [m].
  • FIG. 10 an example is shown in which the inundation height at the point O (LAT_o, LON_o) in the area O (Area_o) changes with the passage of time.
  • the shooting date and time of the compensation object applied by the applicant is Time_o
  • the shooting location of the shooting information is the point O (LAT_o, LON_o).
  • the authenticity determination unit 22 calculates the authenticity determination of the shooting date and time and calculates the disaster target valid period TIME_valid (step ST222).
  • the disaster target valid period TIME_valid is calculated from the disaster occurrence date and time TIME_b obtained from the disaster information, the disaster end date and time TIME_e, and the additional period TIME_add set by the insurance company. For example, if the period TIME_eable from the disaster occurrence date and time TIME_b to the date and time TIME_e when the disaster ended and the additional period TIME_add set by the insurance company during that period, the disaster target valid period TIME_valid is the sum of them.
  • the authenticity determination unit 22 determines whether or not the shooting date and time TIME_o is included in the disaster target valid period TIME_valid when determining the authenticity of the shooting date and time (step ST223).
  • the authenticity determination unit 22 When the result of the authenticity determination of the shooting date and time is “false” (NO in step ST223), the authenticity determination unit 22 notifies the control unit 23 that the result of the authenticity determination is “false” (step ST224). Further, when the result of the authenticity determination of the shooting date and time is "true” (YES in step ST223), the authenticity determination unit 22 subsequently determines the authenticity of the imaging location (that is, the imaging position) of the compensation target object. conduct.
  • the authenticity determination unit 22 obtains the inundation height of the shooting location O (LAT_o, LON_o) in the disaster target valid period TIME_valid from the disaster information (step ST225), and whether the inundation height exceeds the insurance payment conditions of the insurance company. Is confirmed (step ST226). For example, when the condition of the payment standard at the time of a flood disaster is "inundation of 0.5 m or more from the ground surface" (step ST225), the authenticity determination unit 22 has a flood height of 0 at the shooting location O within the above-mentioned disaster target period. Check if it exceeds .5 m (step ST226).
  • the authenticity determination unit 22 determines that the result of the authenticity determination of the shooting location (shooting position) of the compensation target object is "true”, and if it does not exceed 0.5 m, "false”. ". Taking FIG. 10 as an example, the authenticity determination unit 22 has a flood height of High_c at the date and time TIME_c within the disaster target valid period TIME_valid, which exceeds 0.5 m. The result of the authenticity determination is determined to be "true”.
  • FIG. 11 shows an example of disaster information (when the result of authenticity determination of date / time-flood height [m] is “false”) used by the authenticity determination unit 22 of the disaster determination device 20 according to the first embodiment. It is a figure which shows. As shown in FIG. 11, it is assumed that the inundation height at the point O (LAT_o, LON_o) in the area O (Area_o) changes with the passage of time. Even at each date and time TIME_b, TIME_c, TIME_d, TIME_e of the disaster target valid period TIME_valid, the inundation height of the shooting location O of the compensation target does not exceed 0.5 m, and the condition of the payment standard at the time of the flood "0. Since the "flooding of 5 m or more" is not satisfied, the authenticity determination unit 22 determines the authenticity determination result of the photographing location of the compensation object in this case as "false”.
  • the authenticity determination unit 22 is the control unit 23. Notifies that the result of the authenticity determination is "true” (step ST227). Further, the authenticity determination unit 22 sends to the control unit 23 when either the result of the authenticity determination of the shooting date and time of the compensation object or the result of the authenticity determination of the shooting location of the compensation object is “false”. Notify that the result of the authenticity determination is "false” (step ST224).
  • control unit 23 notifies the damage determination unit 25 of the result of the authenticity determination from the authenticity determination unit 22.
  • the damage determination unit 25 confirms the result of the authenticity determination (step ST206), and when the result of the authenticity determination is “false” (NO in step ST206), sets the damage determination result as “not subject to damage” and controls the unit. Notify 23 (step ST207).
  • the damage determination unit 25 determines the authenticity of the captured image of the compensation target object.
  • the application image is analyzed in order to determine whether or not the indemnified object that is the subject of the photographed image is the object under the insurance contract (step ST208).
  • the subject in the photograph is identified by image analysis, and it is judged whether or not it corresponds to the indemnified object by comparing it with the contents of the insurance contract of the applicant.
  • the subject in the photograph can be identified by identifying furniture, home appliances, precious metals, jewelry, fine arts, bicycles, motorized bicycles, etc., or in the case of precious metals, jewelry, fine arts, etc.
  • the contents of the insurance contract include whether the insured object is only the building, only the household goods, both the building and the household goods, and the target household goods.
  • image analysis a known image analysis technique utilizing pattern matching, deep learning, or the like is used.
  • the damage determination unit 25 confirms the result of the analysis of the application image (step ST209), and the indemnified object that is the subject is not the object under the insurance contract (that is, the application image analysis result is "false”). In this case, the damage determination result is notified to the control unit 23 as “not subject to damage” (step ST207). Further, if the object is an object under the insurance contract (that is, the application image analysis result is "true"), the damage determination result is set as the "damaged object” and notified to the control unit 23 (step ST210).
  • the control unit 23 notifies the application processing unit 26 of the damage determination result from the damage determination unit 25.
  • the application processing unit 26 confirms the damage determination result (step ST012), and when the damage determination result is "not subject to damage” (NO in step ST012), the application result to the control unit 23 is "denial", and Notify the reason for denial.
  • Reasons for denial include, for example, "Because the payment conditions (that is, the inundation height is 0.5 m or more) are not met, the insurance is not covered.” Or, "The applied object is a product that is not covered by the insurance contract.”
  • the control unit 23 "denies" the application result to the user terminal 10 and notifies the reason for the denial (step ST013). In this case, the insurance money will not be paid out.
  • the application processing unit 26 When the damage determination result is "damaged target" (YES in step ST012), the application processing unit 26 "approves” the application result and notifies the control unit 23 of this.
  • the control unit 23 notifies the payment processing unit 27 of "approval” of the application result.
  • the payment processing unit 27 performs insurance claim withdrawal processing in accordance with the insurance contract coverage conditions (step ST014).
  • the control unit 23 notifies the user terminal 10 that the application has been "approved” as an application result (step ST015).
  • the control unit 23 may also notify related information such as the insurance payment amount.
  • the damage judgment or application processing unit 26 of the damage judgment unit 25 is manually worked by the payment business person of the insurance company, the flood area and the shooting location information of the compensation target can be presented on the work terminal. , It becomes possible to carry out efficient judgment work.
  • FIG. 12 is a diagram showing an example in which a determination result (for example, a disaster target) processed by the disaster determination device 20 according to the first embodiment is presented as a two-dimensional map on a work terminal (for example, a display device).
  • the disaster determination device 20 compares the inundation range (the inundation range exceeding a predetermined inundation height) during the disaster target period with the photographing location of the compensation target, and determines whether or not the disaster target is a disaster target. Is judged.
  • FIG. 12 shows an example of being a disaster target based on the shooting information (for example, date and time, position) of the compensation target that was applied for.
  • FIG. 13 is a diagram showing an example in which a determination result (not subject to disaster) processed by the disaster determination device 20 according to the first embodiment is presented on a work terminal as a two-dimensional map.
  • the disaster determination device 20 compares the inundation range during the disaster target period (the inundation range exceeding a predetermined inundation height) with the photographing location of the compensation target, and determines whether or not the compensation target is a disaster target. Is judged.
  • FIG. 13 shows an example of being excluded from the disaster from the shooting information (for example, date and time, position) of the indemnified object that was applied for.
  • the disaster determination device 20 can visually confirm the positional relationship between the shooting position of the compensation target and the disaster area or the flood area on the user terminal 10 as a determination result of approval or denial of the insurance claim payment application to the applicant. May present map information as shown in FIGS. 12 and 13.
  • the applicant confirms the application result by the user terminal 10 (step ST016).
  • the applicant can make an inquiry to the disaster determination device 20 when there is a question or question about the application result.
  • step ST010 the withdrawal application process
  • FIG. 14 is a flowchart showing inquiry processing in the user terminal 10 according to the first embodiment.
  • the applicant selects an inquiry from the application menu of the disaster determination system by the user terminal 10 and inputs the inquiry content to the disaster determination device 20 (step ST020).
  • FIG. 15 is a flowchart showing the processing of the inquiry by the user terminal (step ST020) in FIG.
  • the terminal control unit 13 displays the inquiry content screen (step ST130). Further, when the applicant completes the input of the inquiry content, the terminal control unit 13 saves the input content (step ST131).
  • an input completion button is provided on the user terminal 10 as in the case of inputting the application contents, and the button operation is presented to the applicant after the input is completed, and the input work completion operation is performed. May be done.
  • the applicant may be presented with a confirmation screen for input completion to perform the input work completion operation.
  • the terminal control unit 13 presents the registration confirmation of the inquiry content to the applicant and confirms whether or not to register (step ST132).
  • registration When "registration" is selected by the applicant, the terminal control unit 13 transmits the inquiry content to the disaster determination device 20 (step ST133), and ends the inquiry content input screen. If “Registration” is not selected when confirming the registration of the inquiry content, confirm with the applicant whether to end the application result confirmation screen (step ST134).
  • End When “End” is not selected (NO in step ST134), the terminal control unit 13 presents the applicant's inquiry input screen again (step ST130), and the subsequent processing is the same as the above-mentioned processing.
  • the inquiry content input screen is terminated.
  • the disaster determination device 20 when the disaster determination device 20 receives the inquiry notification from the user terminal 10, the disaster determination device 20 performs inquiry processing (step ST021).
  • FIG. 16 is a flowchart showing processing of an inquiry (step ST021) by the disaster determination device 20 in FIG.
  • the disaster determination device 20 when the control unit 23 receives an inquiry from the applicant's user terminal 10 (step ST240), the disaster determination device 20 associates the applicant's inquiry information with the contract information and data acquisition unit. It is stored in 21 (step ST241). Next, the disaster determination device 20 creates an answer to the inquiry content (step ST242) and transmits the answer to the inquiry content to the user terminal 10 (step ST243).
  • the answer to the inquiry content may be created by automatically generating the inquiry input content sentence by natural language processing, or by manually creating the answer.
  • the applicant confirms the inquiry result transmitted from the disaster determination device 20 by the user terminal 10.
  • the applicant who receives the inquiry result from the disaster determination device 20 confirms the inquiry result on the inquiry result confirmation screen of the user terminal 10. If there is an "objection" in the inquiry result, select the inquiry content input menu again from the application menu, input the inquiry content, and send it to the disaster determination device 20.
  • the processing of the user terminal 10 is the same as the above-mentioned processing, and the operation of the disaster determination device 20 for the inquiry is also the same as that of the above-mentioned inquiry processing.
  • the applicant logs in to the disaster determination system 100 and authenticates the user each time the user terminal 10 inputs an insurance claim payment application or an inquiry.
  • the login state may be maintained for a certain period of time after login so that operations such as application input, application result confirmation, inquiry input, and inquiry result confirmation can be continued.
  • the condition of the insurance claim payment standard at the time of a flood is explained by one condition of "flooding 0.5 m or more from the ground surface". bottom.
  • the disaster determination device 20 sets the inundation height from the ground surface to 0.5 m or more and less than 1.0 m, 1.0 m or more and less than 2.0 m, 2.0 m or more and less than 3.0 m, and 3.0 m or more. It may be classified into a plurality of items as described above, and the damage of the compensation target may be determined according to each condition.
  • the inundation height of the shooting location is used as disaster information in the disaster determination at the time of a disaster, but even if the inundation height does not satisfy the payment conditions, it is described. If it is included in other payment requirements (for example, if the object is damaged in excess of a predetermined percentage of the replacement price), a disaster will be determined to determine that it was damaged by a typhoon or heavy rainfall.
  • the amount of precipitation at the shooting location may be used as information, and the area where the amount of precipitation is more than a predetermined amount may be set as the disaster area, the damage of the compensation target may be determined, and the payment application may be processed.
  • the "repurchase price" is, for example, the amount required when constructing or purchasing a new item equivalent to the purpose of insurance (for example, a building or household goods), and is the "repurchase price” or "New price” has the same meaning.
  • the inundation height is used as disaster information in the disaster determination in the event of a flood, but in the disaster determination due to a typhoon or heavy rainfall, as disaster information.
  • the amount of precipitation at the shooting location the area where the landslide or landslide occurs and the area where the amount of precipitation is more than a predetermined amount may be set as the disaster area, and the damage determination of the compensation target may be made.
  • the inundation height is used as the disaster information for the damage judgment at the time of a flood disaster.
  • the area where the wind disaster occurs the area where the wind force (or wind speed) is higher than the predetermined wind force may be set as the disaster area, and the damage determination of the compensation target may be performed.
  • the inundation height is used as disaster information for the damage judgment at the time of a flood disaster, but in the damage judgment of a wind disaster caused by a typhoon or a storm, a typhoon, a gust, or a tornado is described.
  • the damage judgment of the compensation target may be made by using the course information of the storm and setting the area within a predetermined distance from the course as the disaster area.
  • the inundation height is used as disaster information in the disaster determination at the time of a flood
  • the seismic intensity of the shooting location is used as the disaster information in the earthquake damage determination.
  • the area where an earthquake occurs the area where an earthquake with a seismic intensity higher than a predetermined seismic intensity has occurred may be set as the disaster area, and the damage determination of the compensation target may be performed.
  • the inundation height of the shooting location is used as disaster information for the disaster determination at the time of a flood is described, but in order to determine that the damage is due to heavy snowfall,
  • the amount of snowfall at the shooting location may be used as disaster information, and the area where the amount of snowfall is greater than or equal to a predetermined amount may be used as the disaster area to determine the damage to the compensation target.
  • the validity period of the disaster information is the target of the disaster in the authenticity determination of the authenticity determination unit 22 in the disaster determination device 20.
  • the area affected by the disaster is determined based on whether or not the inundation height at the location (that is, the location) where the image was taken after the disaster exceeded the inundation height under the insurance contract conditions.
  • the inundation date and time or the inundation height of the disaster area or the place where the image was taken after the disaster May be estimated and used as disaster information to determine whether or not the area is a disaster target area. Further, a known estimation technique may be used for these estimation techniques.
  • the validity period of the disaster information is the target of the disaster in the authenticity determination of the authenticity determination unit 22 in the accident determination device 20.
  • the area affected by the disaster is determined based on whether or not the inundation height at the location where the image was taken after the disaster exceeded the inundation height of the insurance contract conditions.
  • the inundation date and time or the inundation height of the disaster area or the place where the image was taken after the disaster may be estimated and used as disaster information to determine whether or not it is the disaster target area. Further, as these estimation techniques, known estimation techniques may be used.
  • the insurance claim payment process was started in response to the insurance claim payment application from the policyholder after the disaster occurred, but the insurance claim payment application was omitted by the policyholder.
  • the area is the target area for insurance payment application. You may give a notice about the insurance claim payment application such as "is.”
  • the explanation is based on the assumption that the insurance company pays the insurance money, but the national government, prefectures, municipalities, and other local governments pay the damage money related to the disaster such as the earthquake. The same applies to the case.
  • ⁇ 1-3 Effects as described above, by efficiently and accurately determining the damage to the application photo, it is possible to accurately and quickly pay the insurance claim to the policyholder. In addition, by selecting the policyholders to be paid for insurance claims and proceeding with the payment business, it is possible to streamline the damage determination of the application photo and promptly pay the insurance claims to the policyholders.
  • ⁇ 2 >> Embodiment 2.
  • ⁇ 2-1 Configuration
  • the disaster determination system according to the second embodiment applies for processing of the disaster determination device 20 from a plurality of policyholders (that is, a plurality of other applicants) living in the vicinity of the applicant. It differs from the disaster determination system 100 according to the first embodiment in that a process related to a disaster determination using information is added.
  • FIG. 17 is a diagram showing the positional relationship of a plurality of policyholders of the disaster determination system according to the second embodiment. As shown in FIG. 17, there are three applicants, Applicant A, Applicant B, and Applicant C, and the shooting locations of the images taken after the disaster of the three indemnified objects are all damaged by the disaster information. Included in the area.
  • FIG. 18 is a diagram showing an example of application contents of a plurality of applicants who apply for withdrawal by the disaster determination system according to the second embodiment.
  • the applicant A applies for the air conditioner outdoor unit A1
  • the applicant B applies for the air conditioner outdoor unit B1
  • the air conditioner outdoor unit B2 and the motorized bicycle B3
  • the applicant C applies for the air conditioner.
  • FIG. 19 is a flowchart showing a payout application process of the disaster determination system according to the second embodiment.
  • application information from a plurality of policyholders that is, a plurality of other applicants
  • the damage determination result notification is performed (steps ST031, ST032, ST033, ST034).
  • the other processing is the same as the processing in the first embodiment.
  • the applicant selects an insurance claim withdrawal application from the application menu screen displayed on the user terminal 10 and performs the withdrawal application process (input the application contents) (step ST010).
  • the disaster determination device 20 receives the payout application from the user terminal 10 and performs the payout application process (disaster determination) (step ST031).
  • FIG. 20 is a flowchart showing a disaster determination process (step ST031) executed by the disaster determination device 20 in FIG.
  • step ST031 application information from a plurality of policyholders (multiple other applicants) living in the vicinity of the applicant is used to perform the damage determination process and the damage determination result notification ().
  • step ST211 and ST212, ST213) application information from a plurality of policyholders (multiple other applicants) living in the vicinity of the applicant is used to perform the damage determination process and the damage determination result notification ().
  • Steps ST211 and ST212, ST213) The other processing is the same as the processing in the first embodiment.
  • the damage determination unit 25 confirms the result of the analysis of the application image (step ST209), and when the object is within the coverage under the insurance contract (the application image analysis result is “true”) (YES in step ST209). , Acquire application information of applicants other than those in the affected area (step ST211).
  • FIG. 21 is a diagram showing application contents and determination results of a plurality of applicants in the disaster determination system according to the second embodiment.
  • the air conditioner outdoor unit A1 and the air conditioner outdoor unit C1 which are the objects to be compensated are the contract conditions ( Since the inundation height (0.5 m) (0.5 m or more) is satisfied and the date and time judgment is within the valid period of the disaster target, the authenticity judgment of the date and time and the place is judged as "true”.
  • the inundation height of the applied compensation object estimated by the image analysis of the applied post-disaster image is estimated to be 0.5 m for both the air conditioner outdoor unit A1 and the air conditioner outdoor unit C1 in the vicinity.
  • the air conditioner outdoor unit B1, the air conditioner outdoor unit B2, and the motorized bicycle B3, which are the objects to be compensated by the applicant B, are judged to be damaged.
  • the contract conditions (0.5 m or more) satisfy the inundation height (0.5 m) of the disaster information, and the date and time can be determined within the period.
  • the authenticity of the place is determined to be "true”.
  • the air conditioner outdoor unit B1 in the post-disaster image of applicant B, the air conditioner outdoor unit B1 is in the garden, the air conditioner outdoor unit B2 is on the second floor veranda, and the motorized bicycle B3 is in the parking lot.
  • the state of installation is included, and from the installation position of the compensation target calculated from the result of image analysis, the air conditioner outdoor unit B1 is 0.5 m, the air conditioner outdoor unit B2 is 3.0 m, and the motorized bicycle B3 is.
  • the inundation height is estimated to be 1.0 m.
  • the installation height by image analysis is, for example, the size or height of the subject, the background of the subject (the rising part of the window glass or foundation of the building, stairs, fences or walls, parking lots, balconies, roofs, buildings, gardens). It can be estimated from trees, etc.).
  • the damage determination unit 25 determines the inundation height of the object obtained from the image analysis of the post-disaster image of the compensation object applied by the applicant B, and after the disaster of the compensation object applied by the applicant A and the applicant C.
  • the inundation heights of the objects obtained from the image analysis of the images are compared (step ST212).
  • the damage determination unit 25 determines the authenticity of the air conditioner outdoor unit B1 based on the application information in the vicinity after determining the authenticity of the date and time and the place.
  • the damage determination unit 25 determines the estimated value (0.5 m) of the inundation height of the air conditioner outdoor unit B1 and the inundation height of the objects (air conditioner outdoor unit A1 and air conditioner outdoor unit C1) applied by the applicant A and the applicant C.
  • Estimated values (0.5 m) are compared to confirm whether they are equivalent (step ST212). Since the estimated inundation height of the three parties is 0.5 m, the three parties are judged to be equivalent, and the authenticity judgment based on the application information in the vicinity is judged to be "no problem".
  • the damage determination unit 25 notifies the control unit 23 of the damage determination result of the air conditioner outdoor unit B1 as a “damage target” (step ST210).
  • the damage determination unit 25 determines the authenticity of the air conditioner outdoor unit B2 and the motorized bicycle B3.
  • the inundation height of the air conditioner outdoor unit B2 is estimated to be 3.0 m
  • the inundation height of the motorized bicycle B3 is estimated to be 1.0 m.
  • These inundation heights are compared with the estimated inundation heights (0.5 m) of Applicants A and C (step ST212).
  • the inundation height of the air conditioner outdoor unit B2 is 3.0 m
  • the inundation height of the motorized bicycle B3 is 1.0 m, which are far from the neighboring application information (0.5 m). Determines that the authenticity of the air conditioner outdoor unit B2 and the motorized bicycle B3 based on the application information in the vicinity is "problem".
  • the damage determination unit 25 notifies the control unit 23 of the damage determination results of the air conditioner outdoor unit B2 and the motorized bicycle B3 as "deliberation" (step ST213).
  • the inundation height is estimated from the "installation height" of the compensation object applied by the applicant B obtained from the image analysis.
  • the inundation height is estimated from the dirt that shows the water level attached to the subject of the post-disaster image or the dirt on the building or wall reflected in the background, and the inundation height of applicant B is estimated.
  • the authenticity may be determined by comparing the value with the estimated inundation heights of Applicant A and Applicant C.
  • the disaster determination unit 25 determines the authenticity of the applicant B
  • the estimated value of the inundation height of the compensation object applied by the applicant B obtained from the image analysis and the applicant Judgment is made by comparing the estimated inundation heights of the inundation objects approved by A and Applicant C, respectively, but it was obtained when using the application information of a large number of applicants living in the neighborhood.
  • Authenticity may be determined by calculating statistical values such as the average or variance of application information in the area from the estimated value of application information (for example, inundation height) and comparing it with the application information of the applicant (for example).
  • the application information of the applicant is included in the predetermined threshold value of the statistical value, it is determined as "no problem", and if it exceeds the predetermined threshold value, it is determined as "problem, deliberation”).
  • the definition of "neighboring policyholder (applicant)” may be an insurance policyholder in a disaster area with the same inundation height of disaster information, or the applicant's position (address) within the disaster area with the same inundation height. You may be a policyholder within a predetermined distance around you.
  • control unit 23 notifies the application processing unit 26 of the damage determination result from the damage determination unit 25.
  • the application processing unit 26 confirms the damage determination result (step ST032). First, since the damage determination result of the air conditioner outdoor unit B1 is "damaged” (damaged in step ST032), the application processing unit 26 "approves” the application result and notifies the control unit 23. The control unit 23 notifies the payment processing unit 27 of the application result “approval”. The payment processing unit 27 performs insurance claim withdrawal processing in accordance with the insurance contract coverage conditions (step ST014).
  • the control unit 23 notifies the user terminal 10 that the application has been "approved” as an application result (step ST015). In addition, related information such as insurance payment amount may also be notified.
  • the application processing unit 26 tells the control unit 23 that the damage judgment result is "deliberation”. Notify.
  • the control unit 23 Upon receiving the "deliberation” notification, the control unit 23 registers the "deliberation” in the disaster determination system according to the second embodiment (step ST033). In addition, the application result is set to "denial" to the user terminal 10, and the reason for denial is also notified (step ST034). In this case, the insurance claim withdrawal process is not performed.
  • the reason for denial when the damage judgment result is "deliberation” is, for example, "the applied object is not covered by the insurance contract”.
  • the person in charge of payment operations of the insurance company will be notified.
  • the person in charge of payment operations of the insurance company confirms the content of the deliberation, dispatches an investigator to the site, interviews the applicant by telephone or e-mail, explains the reason for denial, and reapplies as necessary.
  • We will respond to requests such as.
  • a message may be sent to inform the user terminal 10 that the application content confirmation procedure is in progress, such as "We will contact you from the person in charge of insurance payment" as the reason for denial.
  • the control unit 23 when the determination result of the disaster determination unit 25 is "deliberation", the control unit 23 notifies the user terminal 10 of the application result as “denial” and the reason for denial.
  • the application result is set to "under investigation”, and after confirming the application contents and re-damage judgment by dispatching an investigator to the site or hearing the applicant by telephone or email, the application result (for example, "approval” or “approval” or " You may notify "denial").
  • the user terminal 10b has a date / time position information correction unit 16, and the date / time position information correction unit 16 determines the shooting date / time and the shooting location of the compensation target object. It differs from the disaster determination system according to the first and second embodiments in that the date and time position information correction process for correcting the indicated date and time position information is performed.
  • the user terminal 10b uses the date and time position information correction process (that is, self-position estimation process) for correcting the date and time position information indicating the shooting date and time and the shooting location of the compensation target object. By doing this, it is possible to determine the damage to the compensation target that exists in a place where radio waves do not reach.
  • FIG. 22 is a functional block diagram schematically showing the configuration of the user terminal 10b of the disaster determination system 100b according to the third embodiment.
  • the date / time position information correction unit 16 estimates its own position from the autonomous positioning sensor 16a (for example, an acceleration sensor, a gyro sensor, a magnetic sensor, a camera, etc.) and the sensor information thereof (self). It is equipped with a locator (self-position estimation unit) 16b for position estimation).
  • the date / time position information correction unit 16 uses the date / time position information acquired from the date / time position information acquisition unit 12 in the radio wave reception area, and the time and movement information obtained from the locator in the non-receivable area, to use the user terminal 10b.
  • the location information and date and time information are calculated and updated at the specified cycle (time interval).
  • the other configurations are the same as the configurations of the disaster determination system 100 according to the first and second embodiments.
  • FIG. 23 is a diagram showing the positional relationship between the radio wave reception area and the applicant by the user terminal of the disaster determination system 100b according to the third embodiment.
  • the indemnified object of the applicant is included in the disaster area of the disaster information, and is located at the point T in the radio wave unreceivable area where the radio wave does not reach.
  • the radio wave unreceivable area is an area where the mobile terminal cannot communicate, such as indoors or basements, behind buildings, between buildings, forests or forest roads, and GPS information cannot be received or GPS information reception status. Is an unstable place.
  • the applicant moves to the point T where the indemnified object is installed in order to take a picture of the insured indemnified object used for insurance payment application.
  • the user terminal 10b acquires the position information by receiving the GPS information.
  • the user terminal 10b moves to the point T, which is an area where radio waves cannot be received, the user terminal 10b cannot acquire the position information by GPS information from the middle.
  • point T which is an area where radio waves cannot be received, for example, when moving from a road where radio waves can be received (for example, above ground) to an underground store, or when entering a building area where GPS reception is unstable. ..
  • FIG. 24 is a flowchart showing the processing of the date / time position information correction unit 16 of the user terminal 10b of the disaster determination system 100b according to the third embodiment.
  • the date / time position information correction unit 16 starts the operation under the control of the terminal control unit 13.
  • the terminal control unit 13 passes the radio wave reception information acquired from the date / time position information acquisition unit 12 to the date / time position information correction unit 16.
  • the date / time position information correction unit 16 acquires radio wave reception information (step ST140).
  • the date / time position information acquisition unit 12 When the date / time position information acquisition unit 12 cannot normally receive the positioning information from the GPS, or when the positioning information can be normally received from the GPS, the current date / time position information obtained and the past (for example, a few seconds ago) If the continuity of the date and time position information is not satisfied, "abnormal" is output as radio wave reception information. Further, the date / time position information acquisition unit 12 outputs "normal” as radio wave reception information when the positioning information can be normally received and the continuity of the date / time position information is satisfied.
  • the presence or absence of "continuity” is determined when past (for example, a few seconds ago) data is statistically processed, compared with the current data, and the difference is within a predetermined reference range. , If it is out of the reference range, it is judged that there is no continuity.
  • a known technique can be used for estimating these radio wave reception information.
  • the date / time position information correction unit 16 acquires radio wave reception information and radio waves from the date / time position information acquisition unit 12 at a predetermined cycle (for example, 0.1 second interval, 0.5 second interval, 1 second interval, etc.). Check the received information.
  • the predetermined period is also referred to as unit time ⁇ t.
  • the date and time information correction unit 16 outputs the date / time position information (Tgps, Pgps) of the user terminal 10b acquired from the date / time position information acquisition unit 12. Further, the movement time and the movement amount of the user terminal 10b output by the locator of the date / time position information correction unit 16 are set to ( ⁇ t, ⁇ p). Further, the current (that is, the latest) date and time position information of the user terminal 10b will be described as (tcur, pcur).
  • the date / time position information correction unit 16 confirms the radio wave reception information obtained from the date / time position information acquisition unit 12 (step ST141).
  • the point S before the movement is a radio wave reception area, and the acquired radio wave reception information is “normal”.
  • the date / time position information correction unit 16 acquires the date / time position information (Tgps, Pgps) from the date / time position information acquisition unit 12 (step ST142), and the current date / time of the user terminal 10b. It is saved as position information (tcur, pcur) (step ST143).
  • the date / time position information correction unit 16 stores the date / time position information (Tgps, Pgps) obtained from the GPS positioning information as the current date / time position information (tcur, pcur).
  • the date / time position information correction unit 16 confirms the radio wave reception information (step ST141).
  • the radio wave reception information obtained from the date / time position information acquisition unit 12 becomes "abnormal".
  • the date / time position information correction unit 16 acquires the movement amount ( ⁇ p) per unit time ( ⁇ t) of the user terminal 10b from the locator (step ST144).
  • the unit time ⁇ t is a time width of a fixed cycle in which the date / time position information correction unit 16 confirms the radio wave reception status.
  • the movement amount ⁇ p may include information on the distance and direction in which the user terminal 10b has moved in the unit time ⁇ t.
  • the date / time position information correction unit 16 calculates the date / time position information (tpre, ppre) one cycle before the user terminal 10b, and the movement time and movement amount ( ⁇ t, ⁇ p) of the user terminal 10b estimated by the locator. , Update and save as the current date and time position (tcur, pcur) (step ST145).
  • the date / time position information correction unit 16 when the date / time position information correction unit 16 enters the area where radio waves cannot be received, the date / time position information (Tgps, Pgps) obtained from the GPS positioning information acquired when the radio wave reception status is normal and the radio wave reception status The current date and time position information (tcur, pcur) is calculated using the movement amount ( ⁇ t, ⁇ p) of the self-position calculated by the locator after the abnormality becomes abnormal. Subsequently, the date / time position information correction unit 16 saves the date / time position information (tcur, pcur) as the date / time position information (tpre, ppre) one cycle before (step ST147).
  • the date / time position information correction unit 16 confirms the end of the user application (step ST150), and ends the operation when the user application main body has shifted to the end process. If the user application has not shifted to the termination process, the process returns to the acquisition of radio wave reception information from the date / time position information acquisition unit 12 (step ST140), and the operation is continued. Therefore, the date / time position information correction unit 16 keeps updating the date / time position information while the user application is running.
  • the movement time is the total ⁇ t of the unit time
  • the movement amount is the total ⁇ p of the movement amount in the unit time.
  • the date and time position information (tcur_last, pcur_last) at the point T is obtained by adding the date and time position information (Tgps, Pgps) and the movement information ( ⁇ t, ⁇ p) acquired when the radio wave reception status is normal, that is, as follows.
  • (Tcur_last, pcur_last) (Tgps + ⁇ t, Pgps + ⁇ p)
  • FIG. 25 is a flowchart showing a process of photographing a compensation target by the user terminal 10b of the disaster determination system 100b according to the third embodiment (step ST112 in FIG. 5).
  • the applicant activates the image acquisition unit 11 when applying for insurance claim payment by the user terminal 10b, and takes a post-disaster image of the compensation target object.
  • Step ST160 When the applicant points the image acquisition unit 11 at the compensation target as a subject and selects “shoot” (YES in step ST121), the terminal control unit 13 acquires shooting information from the date / time position information correction unit 16.
  • the terminal control unit 13 controls the image acquisition unit 11 to take a picture of the compensation target object, and saves the obtained image data as a post-disaster image. Further, the shooting information acquired from the date / time position information correction unit 16, for example, the date / time position information is added to the header information of the image after the disaster (step ST123).
  • the processing related to the insurance claim withdrawal application is the same as the processing of the disaster determination system 100 according to the first and second embodiments.
  • the date and time position information correction unit 16 of the user terminal 10b has a configuration including an autonomous positioning sensor and a locator, but has an autonomous positioning sensor and a locator outside the user terminal 10b and moves information. That is, (movement time, movement amount) may be acquired. Further, a known technique can be used for the calculation method of the movement time and the movement amount performed by the locator from the information from the sensor for autonomous positioning.
  • ⁇ 3-3 Effect As explained above, when acquiring the shooting position information of the compensation target object, by adding the correction processing of the shooting date and time and the location information, the position information can be acquired even in a place where radio waves do not reach. However, since the damage can be determined efficiently, the insurance money can be paid to the policyholder accurately and quickly.
  • FIG. 26 is a diagram showing an example of the hardware configuration of the user terminals 10 and 10b of the disaster determination systems 100 and 100b according to the first to third embodiments.
  • the processing circuit is a processor 82 that executes a program stored in the memory 83.
  • the processor 82 is also referred to as a CPU, a processing device, an arithmetic unit, a microprocessor, a microcomputer, a DSP (Digital Signal Processor), or the like.
  • the processing circuit may have a plurality of processors.
  • the processing circuit may be an FPGA (Field Programmable Gate Array), an ASIC, or the like.
  • Each function of the terminal control unit 13 is realized by software, firmware, or a combination of software and firmware.
  • the software or firmware is described as a program and stored in the memory 83.
  • the processor 82 realizes the functions of each part by reading and executing the program stored in the memory 83.
  • the memory 83 may be, for example, a non-volatile or volatile semiconductor memory such as a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Project ROM), or an EPROM (Electrically EPROM). .. Further, the memory 83 may be a magnetic disk such as a hard disk or a flexible disk. Further, the memory 83 may be an optical disk such as a mini disc, a CD (Compact Disc), or a DVD (Digital Versaille Disc).
  • the input device 81 is an operation unit of the image acquisition unit 11, the date / time position information acquisition unit 12, and the input / output unit 15.
  • the output device 85 is a display unit of the input / output unit 15.
  • the communication device 84 is a communication unit 14.
  • FIG. 27 is a diagram showing an example of the hardware configuration of the disaster determination device 20 of the disaster determination systems 100 and 100b according to the first to third embodiments.
  • the processing circuit is a processor 92 that executes a program stored in the memory 93.
  • the processor 92 is also referred to as a CPU, a processing device, an arithmetic unit, a microprocessor, a microcomputer, a DSP, or the like.
  • the processing circuit may have a plurality of processors. Further, the processing circuit may be FPGA, ASIC, or the like.
  • Each function of the control unit 23 is realized by software, firmware, or a combination of software and firmware.
  • the software or firmware is described as a program and stored in the memory 93.
  • the processor 92 realizes the functions of each part by reading and executing the program stored in the memory 93. That is, when the program is executed by the processor 92, the disaster determination device 20 executes the processes shown in FIGS. 2, 3, 7, 7, 8, 14, 16, 19, and 20. .. Further, these programs cause the computer to execute the processing procedure or method of the control unit 23.
  • the memory 93 is, for example, a non-volatile or volatile semiconductor memory such as a RAM, a flash memory, an EPROM, or an EEPROM.
  • the memory 93 may be a magnetic disk such as a hard disk or a flexible disk, or an optical disk such as a mini disk, a CD, or a DVD.
  • the data acquisition unit 21 is a data storage unit, the data acquisition unit 21 is realized by the memory 93.
  • the communication device 94 is the communication unit 24 in FIG.

Landscapes

  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Engineering & Computer Science (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Technology Law (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)

Abstract

災害判定装置(20)は、ネットワークを介してユーザ端末(10)と通信する通信部(24)と、補償対象物に関する保険契約の内容を示す契約情報及び発生した災害に関する災害情報を取得するデータ取得部(21)と、ユーザ端末(10)から通信部(24)を介して、被害を受けた対象物を撮影して得られた撮影画像と前記撮影画像が撮影された日時及び前記撮影画像が撮影された場所を含む日時位置情報とを含む保険金払出し申請を取得し、前記撮影画像、前記日時位置情報、及び前記災害情報に基づいて、前記撮影画像が前記災害情報によって推定される災害に対応する画像であるか否かを判定する真偽判定を行う真偽判定部(22)とを有する。

Description

災害判定装置、システム、方法、及びプログラム
 本開示は、災害判定装置、災害判定システム、災害判定方法、及び災害判定プログラムに関する。
 損害保険会社は、台風若しくは豪雨などによる洪水、高潮若しくは土砂崩れなどの水害、又は地震など、大規模な自然災害が発生した場合に、調査員を現地に派遣し、被害状況の確認及び被害を受けた建物又は家財の写真撮影などの調査及び査定を行い、その後、保険契約者に対して保険金の支払いを行う。また、被災した保険契約者から送付された補償対象物の写真による事故受付及び保険金支払いを可能とする災害判定システムが提案されている(例えば、特許文献1)。
特許第6239168号公報
 しかしながら、従来の災害判定システムは、被災した保険契約者から送付された補償対象物の写真(すなわち、申請写真)を伴う保険金支払い申請の受付において、申請写真に写る補償対象物がその災害で壊れたものなのかどうかの判定を、現地の被災状況を考慮せずに、保険契約時に登録した情報(例えば、撮影場所)と被災後に撮影された申請写真に付加された情報(例えば、撮影日時、撮影場所)に基づいて行っている。このため、補償対象物がその災害で壊れたものなのかどうかを正しく判定すること(すなわち、正確な被災判定)ができず、また、被災判定を行うために現地へ調査員を派遣する場合には、保険金支払業務を迅速に進めることができないという課題がある。
 本開示は、上記のような従来の課題を解決するためになされたものであり、申請写真に基づく被災判定を正確且つ効率よく行うことを可能にする災害判定装置、災害判定システム、災害判定方法、及び災害判定プログラムを提供することを目的とする。
 本開示に係る災害判定装置は、ネットワークを介してユーザ端末と通信する通信部と、補償対象物に関する保険契約の内容を示す契約情報及び発生した災害に関する災害情報を取得するデータ取得部と、前記ユーザ端末から前記通信部を介して、被害を受けた対象物を撮影して得られた撮影画像と前記撮影画像が撮影された日時及び前記撮影画像が撮影された場所を含む日時位置情報とを含む保険金払出し申請を取得し、前記撮影画像、前記日時位置情報、及び前記災害情報に基づいて、前記撮影画像が前記災害情報によって推定される災害に対応する画像であるか否かを判定する真偽判定を行う真偽判定部と、を有することを特徴とする。
 本開示に係る災害判定方法は、災害判定装置が実行する方法であって、ネットワークを介してユーザ端末と通信するステップと、補償対象物に関する保険契約の内容を示す契約情報及び発生した災害に関する災害情報を取得するステップと、前記ユーザ端末から、被害を受けた対象物を撮影して得られた撮影画像と前記撮影画像が撮影された日時及び前記撮影画像が撮影された場所を含む日時位置情報とを含む保険金払出し申請を取得し、前記撮影画像、前記日時位置情報、及び前記災害情報に基づいて、前記撮影画像が前記災害情報によって推定される災害に対応する画像であるか否かを判定する真偽判定を行うステップと、を有することを特徴とする。
 本開示によれば、申請写真に基づく被災判定を正確且つ効率よく行うことが可能である。
実施の形態1に係る災害判定システムの構成を概略的に示す機能ブロック図である。 実施の形態1に係る災害判定システムにおけるユーザ認証の処理を示すフローチャートである。 実施の形態1に係る災害判定システムにおける払出し申請の処理を示すフローチャートである。 図3における払出し申請処理(ステップST010)を示すフローチャートである。 図4における補償対象物の撮影画像の登録の処理(ステップST104)を示すフローチャートである。 図5における補償対象物の撮影の処理(ステップST112)を示すフローチャートである。 図3における被災判定の処理(ステップST011)を示すフローチャートである。 図7における真偽判定の処理(ステップST205)を示すフローチャートである。 (A)から(E)は、実施の形態1に係る災害判定装置の真偽判定部で使用される災害情報(災害発生位置を含む2次元マップ)の例を示す図である。 実施の形態1に係る災害判定装置の真偽判定部で使用される災害情報の例を示す図である。 実施の形態1に係る災害判定装置の真偽判定部で使用される災害情報の他の例を示す図である。 実施の形態1に係る災害判定装置の判定結果(被災対象の場合)を2次元マップとして作業端末上に提示した例を示す図である。 実施の形態1に係る災害判定装置で処理した判定結果(被災対象外の場合)を2次元マップとして作業端末上に提示した例を示す図である。 実施の形態1に係る災害判定システムにおけるユーザによる問合せ処理を示すフローチャートである。 図14におけるユーザ端末による問合せの処理(ステップST020)を示すフローチャートである。 図14における災害判定装置による問合せの処理(ステップST021)を示すフローチャートである。 実施の形態2に係る災害判定システムによって払出し申請を行う複数の申請者の被災時における位置関係を示す図である。 実施の形態2に係る災害判定システムによって払出し申請を行う複数の申請者の申請内容の例を示す図である。 実施の形態2に係る災害判定システムの払出し申請処理を示すフローチャートである。 図19における災害判定装置によって実行される被災判定の処理(ステップST031)を示すフローチャートである。 実施の形態2に係る災害判定システムにおける複数の申請者の申請内容と判定結果を示す図である。 実施の形態3に係る災害判定システムのユーザ端末の構成を示す機能ブロック図である。 実施の形態3に係る災害判定システムのユーザ端末による電波受信地域及び申請者の位置関係を示す図である。 実施の形態3に係る災害判定システムのユーザ端末の日時位置情報補正部の処理を示すフローチャートである。 実施の形態3に係る災害判定システムのユーザ端末による補償対象物の撮影の処理(図5におけるステップST112)を示すフローチャートである。 実施の形態1から3に係る災害判定システムのユーザ端末のハードウェア構成の例を示す図である。 実施の形態1から3に係る災害判定システムの災害判定装置のハードウェア構成の例を示す図である。
 以下に、実施の形態に係る災害判定装置、災害判定システム、災害判定方法、及び災害判定プログラムを、図面を参照しながら説明する。以下の実施の形態は、例にすぎず、実施の形態を適宜組み合わせること及び各実施の形態を適宜変更することが可能である。
《1》実施の形態1.
《1-1》構成
 図1は、実施の形態1に係る災害判定システム100の構成を概略的に示す機能ブロック図である。図1において、災害判定システム100は、ユーザ端末10と、災害判定装置20とを有している。ユーザ端末10と災害判定装置20とは、ネットワーク30を介して通信可能である。ネットワーク30は、例えば、無線LAN(Local Area Network)、携帯電話通信網、などを介して接続されるインターネットである。なお、図1では、1台の災害判定装置20に1台のユーザ端末10が接続されているが、1台の災害判定装置20にユーザ端末10以外の1台以上の他のユーザ端末が接続されてもよい。
 災害判定システム100では、ユーザとしての保険契約者が、ユーザ端末10を使用して、被災時における保険金払出し申請を行い、保険会社が管理する装置である災害判定装置20が、保険金払出し申請を受理し、真偽判定を行い、被災判定を行い、保険金支払い処理又は保険金支払い拒否の処理を実行する。例えば、災害判定装置20は、補償対象物に関する保険契約の内容を示す契約情報及び発生した災害に関する災害情報を取得し、ユーザ端末10から、被害を受けた対象物を撮影して得られた撮影画像とこの撮影画像が撮影された日時及び撮影画像が撮影された場所を含む日時位置情報とを含む保険金払出し申請を取得し、前記撮影画像、前記日時位置情報、及び前記災害情報に基づいて、前記撮影画像が前記災害情報によって推定される災害に対応する画像であるか否かを判定する真偽判定を行う。また、災害判定装置20は、撮影画像は災害情報によって推定される災害に対応すると判断した場合に、契約情報、撮影画像、日時位置情報、及び災害情報に基づいて、撮影画像に写る対象物が災害情報によって推定される前記災害によって被害を受けた前記補償対象物であるか否かを判定する被災判定を行う。
 ユーザ端末10は、保険契約者によって操作される通信装置である。ユーザ端末10は、例えば、スマートフォン、タブレットPC(パーソナルコンピュータ)、携帯電話、パソコン、などのようなコンピュータである。図1に示されるように、ユーザ端末10は、画像取得部11と、日時位置情報取得部12と、端末制御部13と、通信部14と、入出力部15とを備えている。
 ユーザ端末10は、ユーザ端末用ソフトウェア(以下「ユーザアプリ」とも言う。)がインストールされることにより、以下に説明する処理を実行可能である。なお、ユーザアプリは、インターネットを介して接続されたサーバからのダウンロードにより入手され、ユーザ端末10にインストールされる。或いは、ユーザアプリは、CD(Compact Disc)-ROM又はDVD(Digital Versatile Disc)-ROMなどの記録媒体に記録されて提供され、この記録媒体からユーザ端末10にインストールされてもよい。また、ユーザ端末10は、ユーザアプリをクラウドから提供されてもよく、この場合は、ユーザアプリがユーザ端末10にインストールされた場合と同様の機能を実現することができる。
 画像取得部11は、保険契約者が補償対象物の写真を撮影するためのカメラである。カメラは、カラー画像又はモノクロ画像を撮影する撮像装置である。カメラは、レンズ、ミラー、などから構成される光学機構と、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサである撮像素子とを備えている。カメラは、夜間撮影を可能にするために、赤外線センサ及び発光素子を有してもよい。カメラは、静止画撮影機能だけでなく、動画撮影機能を有してもよい。
 日時位置情報取得部12は、GPS(Global Positioning System、全地球測位システム)などの測位システムからの測位情報(例えば、電波)を受け取り、現在の日時情報及びユーザ端末10の位置情報を含む日時位置情報を出力する。日時位置情報取得部12は、GPSの測位情報に基づく日時情報及び位置情報の計算に、公知の位置情報計算技術を利用する。また、日時位置情報取得部12は、GPS以外の航法衛星システムからの測位情報を使用又は併用してもよい。また、日時位置情報取得部12は、日時位置情報の取得にGPSの測位情報を使用しているが、携帯電話基地局又は無線LANのアクセスポイントから発信される情報又は電波を利用又は併用して、現在の日時及びユーザ端末10の位置情報を計算して取得してもよい。
 端末制御部13は、ユーザ端末10の全体を制御する。端末制御部13は、例えば、情報処理用のプロセッサとしてのCPU(Central Processing Unit)、記憶装置としてのメモリ、及びその他の周辺回路で構成される。メモリは、例えば、SDRAM(Synchronous Dynamic Random Access Memory)などの揮発性のメモリ又はフラッシュメモリなどの不揮発性のメモリを含む。揮発性のメモリは、CPUがプログラム実行時にプログラムを展開するためのワークメモリ、又は、データを一時的に記録するためのバッファメモリとして使用される。また、不揮発性のメモリには、ユーザ端末10を動作させるためのファームウェア又は種々のアプリケーションを動作させるためのソフトウェアのプログラムデータが記録される。この不揮発性のメモリに、上述したユーザアプリが記録されている。また、端末制御部13は、画像取得部11、日時位置情報取得部12、及びネットワーク30から通信部14を介して取得した各種情報を保存する。各種情報は、例えば、写真(すなわち、画像データ)、日時などの時間情報、及び測位されたユーザ端末10の位置情報である。
 通信部14は、無線又は有線により、ネットワーク30との情報の送受信を行う通信モジュールである。
 入出力部15は、例えば、表示部と操作部とを備える。表示部は、端末制御部13から出力されたユーザアプリの操作画面又は各種情報を表示する表示デバイスである。表示デバイスは、例えば、液晶ディスプレイ(LCD)又は有機ELディスプレイ(OLED:Organic Electro-Luminescence Display)などである。操作部は、ユーザによるタッチ又はスライド、キー入力といった操作を検出して、その検出信号を端末制御部13へ出力する。操作部は、例えば、タッチパネル、ボタン、キーボードなどである。ユーザ端末10のユーザである保険契約者は、入出力部15に表示されたボタン又はメニューなどの表示項目を指又はタッチペンを用いてタッチ又はスライドさせることにより、ユーザ端末10を操作することができる。また、ユーザ端末10のユーザである保険契約者は、情報入力又は、入力したデータ又は処理結果などを確認することができる。入出力部15は、表示部と操作部とを一体に構成したものであってもよい。また、表示部と操作部とは、分離された構成であってもよい。
 災害判定装置20は、保険契約者情報(例えば、契約情報、保険金支払い情報)又は災害情報などを格納及び管理し、申請内容に関する災害判定、申請処理、支払処理などを行う装置である。災害判定装置20は、例えば、サーバPC又はパソコンなどで構成される。災害判定装置20は、保険会社内のサーバ環境として構築されてもよい。或いは、災害判定装置20は、外部委託されたクラウドサーバを使用して構築されてもよい。災害判定装置20は、ネットワーク30を介して、ユーザ端末10と接続される。図1に示されるように、災害判定装置20は、データ取得部21と、真偽判定部22と、制御部23と、通信部24と、被災判定部25と、申請処理部26と、支払処理部27とを備えている。
 データ取得部21は、例えば、保険契約に関する情報、ユーザ端末10から申請された写真としての撮影画像(すなわち、画像データ)、及び撮影日時、位置情報などの保険契約者情報を格納する記憶部を有する。また、データ取得部21は、例えば、保険会社の調査員により集められた災害情報、及びネットワーク30を介して外部情報機関から得た災害情報を格納する。災害情報は、例えば、被災位置情報(すなわち、被災地域、被災範囲など)、被災領域の写真である画像データ、被災時間情報(例えば、日時、期間)、被災状況情報、各自治体が作成した災害マップ、各河川の水位情報、各地域の降雨量情報、氾濫予想情報、避難情報、過去の災害情報などである。データ取得部21は、例えば、複数のHDD(Hard Disk Drive)又はSSD(Solid State Drive)などで構成され、大容量のデータを保存することができる。
 また、データ取得部21は、ユーザの契約情報を格納する契約データベース(契約DB)、災害情報を格納する災害情報データベース(災害DB)を備えて、各種情報を格納してもよい。例えば、契約DBは、保険契約者がユーザ端末10を使用して、災害判定装置20にアクセスするときのユーザ認証に使用されるユーザ識別情報(例えば、ユーザID及びパスワード)と、そのユーザの保険契約に係る情報とを格納している。ユーザ識別情報の登録は、例えば、保険会社のオペレータが、ユーザにユーザIDを発行し、ユーザから保険の契約内容及びパスワードを取得してから、行われる。或いは、災害判定装置20が、ユーザ端末10に、ユーザの保険の契約内容又はパスワードについて入力を受け付ける画面情報を送信して、ユーザ端末10から入力済みの応答情報を取得した後に、ユーザIDを発行してもよい。災害情報DBは、例えば、災害発生の日時と場所(例えば、緯度及び経度などの位置情報)、及びその位置(例えば、地域)の災害情報を格納する。ただし、データ取得部21は、災害判定装置20の外部装置である記憶装置又はネットワーク30に接続された記憶装置から、上記した各種の情報を取得する装置であってもよい。
 真偽判定部22は、ユーザ端末10から送信された保険金払出し申請に含まれる情報(例えば、撮影画像、日時位置情報)と、データ取得部21に格納された若しくはネットワーク30から得られた災害情報とに基づいて、撮影画像は、その災害情報が示す災害(すなわち、その災害情報から推定される災害)に対応する画像であるか否かの真偽判定を行う。例えば、真偽判定部22は、撮影日時の判定に際し、申請された対象物の写真(すなわち、撮影画像)又は動画の撮影日時が、得られた災害情報に基づいて指定された被災期間内であるか否かの判定を行う。また、真偽判定部22は、撮影位置の判定に際し、申請された対象物の写真又は動画の撮影場所が、得られた災害情報に基づいて指定された被災条件を満たした地域に含まれているか否かの判定を行う。
 制御部23は、災害判定装置20の全体を制御する。制御部23は、例えば、情報処理用のプロセッサとしてのCPU、記憶装置としてのメモリ、及びその他の周辺回路で構成される。メモリは、例えば、SDRAMなどの揮発性のメモリ又はフラッシュメモリなどの不揮発性のメモリを含む。揮発性のメモリは、CPUがプログラム実行時にプログラムを展開するためのワークメモリ、又は、データを一時的に記録するためのバッファメモリとして使用される。また、不揮発性のメモリには、また、不揮発性のメモリには、災害判定装置20を動作させるためのファームウェア又は種々のアプリケーションを動作させるためのソフトウェアのプログラムデータが記録される。
 通信部24は、無線又は有線により、ネットワーク30との情報の送受信を行う通信モジュールである。
 被災判定部25は、真偽判定部22によって行われた真偽判定の結果に基づいて、保険契約者から保険金払出し申請を受けた際に、送付された対象物の撮影画像が、真偽判定部22によって得られた災害情報に基づいて指定された災害で被災したものの画像であるか否かを判定する。また、被災判定部25は、撮影画像の被写体となっている補償対象物が保険契約上の対象物か否かを判定するために、申請画像の解析を行う。
 申請処理部26は、真偽判定部22及び被災判定部25の判定結果に基づいて、保険契約者によって行われた保険金払出し申請に対する申請処理を行い、申請処理の結果を知らせる通知を、制御部23を介してユーザ端末10に送信する。
 支払処理部27は、被災判定部25の判定結果に基づいて、支払い処理を実行する。実施の形態1に係る災害判定システム100は、災害保険に加入している被保険者に対して、災害発生時に迅速に保険金の払出しを行うことができる仕組みを提供する。なお、実施の形態1における災害保険は、災害が発生した際に保険会社から被保険者に対して保険金が払い出される保険を対象としている。実施の形態1における災害保険は、例えば、火災保険(例えば、住宅火災保険、住宅総合保険、地震保険、店舗総合保険)、自動車保険、傷害保険(例えば、地震、津波などの災害による傷害を想定した保険)、所得補償保険(例えば、災害により職場が失われる、就労困難になることなどを想定した保険)、などを含む。
 実施の形態1では、被保険者と保険会社との間で災害保険の契約が完了しており、契約毎の契約内容を示す契約情報は、災害判定装置20に保存されている。契約情報は、例えば、被保険者の個人連絡先情報、被保険者の基本情報、契約済みの保険プランの内容を示す契約保険プラン情報、補償対象物に関する補償対象物情報、などを含む。
 被保険者の個人連絡先情報は、被保険者の名前、住所、メールアドレス、電話番号などの情報を含む。被保険者の基本情報は、性別、生年月日、住所、保険料受け取り口座の情報を含む。契約保険プラン情報は、契約済み保険プランの保険プラン名、保険プランを提供する保険会社名、掛け金、補償期間、補償内容(例えば、支払い条件)、補償対象物、補償条件、契約日などの情報を含む。補償対象物情報は、補償対象物の住所、補償対象物の種別(例えば、一戸建て、マンション)、建物構造(例えば、鉄筋コンクリート造、鉄骨鉄筋コンクリート造、鉄骨造、木造)、資産価値面(例えば、築年数、経年劣化、骨董的希少価値、過去の災害による損壊など)、家財総額、建物の時価、面積(例えば、建物の延床面積又は区分所有部分の床面積)を含む。また、契約情報は、補償対象物を被写体として撮影された補償対象物の画像を含んでもよい。
 なお、保険契約者は、保険会社に契約の申込みをして保険料を支払う人であり、契約の当事者である。被保険者は、保険の補償を受ける人又は保険の対象になる人である。保険契約者と被保険者とが、同一の人である場合を提示したが、保険契約者と被保険者は別人でもよい。
《1-2》動作
 以下に、災害判定システム100の動作について説明する。保険契約者が台風又は豪雨により、水災の被害にあった場合を例として説明する。保険契約者は、被災時に、保険会社に対し、被災した補償対象物の保険金払出し申請を行う。以下、払出し申請を行う保険契約者を「申請者」とも言う。
 図2は、実施の形態1に係る災害判定システム100におけるユーザ認証の処理を示すフローチャートである。図2に示されるように、申請者は、ユーザ端末10上で起動されたユーザアプリを用いて、災害判定装置20によって提供される申請用サイトにネットワーク30を介してアクセスする(ステップST000)。
 災害判定装置20は、ユーザ端末10からアクセスを受けて、災害判定システム100へのログイン画面をユーザ端末10に送信する(ステップST001)。
 申請者は、ユーザ端末10に提示された災害判定システム100のログイン画面でユーザID(ユーザ識別子)とパスワードを入力し、これらの送信を指示する(ステップST002)。
 災害判定装置20は、受信したユーザIDとパスワードに基づいて、契約DBを検索し、ユーザIDとパスワードとの双方が、契約DBに登録されているものと一致するか否かを判定する(ステップST003)。ユーザID及びパスワードの一方又は両方が予め登録されているものと一致しない場合(ステップST003においてNO)、ユーザ端末10は、災害判定システム100へのアクセスができないことを伝えるメッセージを表示し、ユーザに再度、ユーザID及びパスワードを入力することを通知する(ステップST004)。ユーザIDとパスワードとの双方が予め登録されているものと一致する場合(ステップST003においてYES)、災害判定装置20は、契約DBから、該当するユーザID及びパスワードに関連付けられた契約情報を取得する(ステップST005)。災害判定装置20は、契約DBから取得した契約情報及び申請メニュー画面をユーザ端末10に送信する(ステップST006)。なお、ユーザログイン又はソフトウェアの起動時の認証には、予め契約者番号に紐づけられた個別番号であるユーザID及びパスワードを使用するなど、既存の認証技術又は方法を使用することができる。
 次に、申請者は、ユーザ端末10上に表示された申請メニュー画面を用いて、図3に示される保険金払出し申請を行う。図3は、実施の形態1に係る災害判定システム100における保険金払出し申請の処理を示すフローチャートである。図3に示されるように、申請者は、ユーザ端末10上に表示された申請メニュー画面より、保険金払出し申請を選択し、払出し申請(例えば、申請内容の入力)を行う(ステップST010)。申請者は、申請内容の入力と補償対象物の被害状況を確認するための撮影画像である被災後画像を保険会社へ提出(すなわち、送付)し、保険金払出し申請を行う。被災後画像は、補償対象物を被写体とした被災後の撮影画像を保険会社へ提出し、保険金払出し申請を行う。なお、被災後画像は、ユーザ端末10によって撮影し、登録された撮影画像である。
 次に、ユーザ端末10における払出し申請処理(ステップST010)について説明する。図4は、図3における払出し申請処理(ステップST010)を示すフローチャートである。図4に示されるように、端末制御部13は、申請者の操作を受けて、保険金払出し申請画面を提示する(ステップST100)。続いて、端末制御部13は、申請者に「申請内容を入力するか」を確認する(ステップST101)。申請内容入力するが選択された場合(ステップST101においてYES)、端末制御部13は、予め決められた入力欄への入力を促し、申請者による申請内容の入力を受け付ける。入力完了後、端末制御部13は、申請内容を格納する(ステップST102)。
 端末制御部13は、申請者の入力作業完了の検出は、ユーザ端末10上に入力完了ボタンを設け、申請者に入力完了後に入力完了ボタンの操作を促し、申請者に入力完了ボタンによる作業完了操作を行わせることによって行う。また、端末制御部13は、申請者が入力欄から他の項目欄にカーソル移動した段階で、申請者に入力完了の確認画面を提示し、入力作業完了操作を行わせてもよい。
 申請内容を入力しないが選択された場合(ステップST101においてNO)、端末制御部13は、次の補償対象物の被災後画像の登録確認を行う(ステップST103)。登録を行うが選択された場合(ステップST103においてYES)、端末制御部13は、補償対象物の被災後画像の登録を行う(ステップST104)。
 図5は、図4における補償対象物の撮影画像の登録の処理(ステップST104)を示すフローチャートである。図5に示されるように、端末制御部13は、補償対象物の撮影画像の登録画面を表示する(ステップST110)。続いて、端末制御部13は、申請者に補償対象物を撮影するかのメッセージを提示し、撮影するか否かを確認する(ステップST111)。「撮影する」を選択した場合(ステップST111においてYES)、端末制御部13は、ユーザに補償対象物の撮影処理を実行させる(ステップST112)。
 図6は、図5における補償対象物の撮影処理(ステップST112)を示すフローチャートである。図6に示されるように、端末制御部13は、補償対象物を撮影するために画像取得部11を起動し、撮影メニューを表示する(ステップST120)。次に、端末制御部13は、申請者により撮影メニューにおいて「撮影する」が選択されたか否かを判定する(ステップST121)。なお、申請者が「撮影する」を選択するとは、入出力部15の操作部で撮影ボタンを押す、撮影アイコンをタッチする、などの操作を意味する。「撮影する」を選択しないとは、入出力部15の操作部で撮影ボタン又は撮影アイコンをタッチするなどの操作が行われないことを意味する。
 申請者が被写体として補償対象物に画像取得部11を向けて「撮影する」を選択した場合(ステップST121においてYES)、端末制御部13は、日時位置情報取得部12から、撮影情報(例えば、「撮影する」が選択された日時、場所)を取得する(ステップST122)。補償対象画像の撮影情報のうちの日時情報は、例えば、年月日及び時分秒を含む時間情報であり、補償対象画像の撮影情報のうちの撮影場所は、例えば、緯度及び経度で特定される位置情報である。
 端末制御部13は、画像取得部11を制御して補償対象物の撮影を行い、被災後画像として保存する。また、端末制御部13は、被災後画像のヘッダ情報に日時位置情報取得部12から取得した撮影情報を付加する(ステップST123)。なお、保存する画像データのファイルフォーマットは、JPEG(Joint Photographic Experts Group)、Exif (Exchangeable image file format)、又はTIFF (Tagged Image File Format)、などの公知のファイルフォーマットである。また、保存される画像データは、動画データであってもよい。端末制御部13は、申請者が「撮影する」を選択しない場合(ステップST121においてNO)、撮影を行わず、再度、撮影可能な状態に戻る(ステップST121)。
 端末制御部13は、申請者に「撮影を終了」するかを確認し(ステップST124)、「撮影を終了する」が選択された場合(ステップST124においてYES)、画像取得部11の処理を終了する。「撮影を終了しない」が選択された場合(ステップST124においてNO)、端末制御部13は、再度、撮影可能な状態(ステップST121)に戻る。なお、端末制御部13は、一定時間経過しても「撮影する」が選択されない場合には、申請者に「撮影を終了」するかを確認する(ステップST124)に移行するように制御してもよい。
 図5に戻り、端末制御部13は、申請者に補償対象物の撮影画像を登録するか否かを確認する(ステップST113)。申請者が「登録する」を選択した場合(ステップST113においてYES)、端末制御部13は、補償対象物の撮影画像の有無を確認し(ステップST114)、撮影したデータが「あり」の場合(ステップST114においてYES」、それらの登録候補を入出力部15の表示部に提示する。申請者は、提示された撮影画像から登録する撮影画像を選択する(ステップST115)。撮影したデータが「なし」の場合(ステップST114においてNO)、端末制御部13は、「補償対象物を撮影するか」を再度確認し(ステップST111)、以後、同様の処理を繰り返す。
 申請者が「登録しない」を選択した場合(ステップST113においてNO)、端末制御部13は、画像登録を終了するか確認を行う(ステップST116)。画像登録を「終了する」を選択した場合(ステップST116においてYES)、端末制御部13は、補償対象物の処理を終了する。画像登録を「終了しない」を選択した場合(ステップST116においてNO)、端末制御部13は、「補償対象物を撮影するか」を再度確認し(ステップST111)、以降同様の処理を繰り返す。
 図4に戻り、端末制御部13は、申請者に「保険金払出し申請するか」を確認する(ステップST105)。「申請する」を選択した場合には、端末制御部13は、申請内容が入力済みか否かを確認し(ステップST106)、被災後の撮影画像が登録済みであるか否かを確認し(ステップST107)、両者が完了している場合(ステップST106、ST107の両方においてYES)、払出し申請を実行する。具体的には、ユーザ端末10は、災害判定装置20へ申請情報を送信する(ステップST108)。申請内容が入力済みか否かの確認時に申請内容が入力されていない場合(ステップST106においてNO)、端末制御部13は、処理を申請内容入力へ進め(ステップST101)、以降同様の処理を行う。また、被災後の撮影画像の登録済み確認時に撮影画像が登録されていない場合(ステップST107においてNO)、端末制御部13は、処理を補償対象物の撮影画像の登録へ進め(ステップST103)、以降同様の処理を行う。
 続いて、端末制御部13は、通信部14からネットワーク30を介して、保険金払出し申請の申請金額と被災後画像とを含む払出し申請情報を、災害判定装置20へ送信する。
 図3に戻り、災害判定装置20は、ユーザ端末10から送信された払出し申請を受信し、払出し申請処理における被災判定を行う(ステップST011)災害判定装置20の払出し申請処理における被災判定の動作について説明する。図7は、図3における被災判定の処理(ステップST011)を示すフローチャートである。
 図7に示されるように、災害判定装置20の制御部23では、災害判定装置用ソフトウェアが動作している。制御部23は、通信部24を介して、ユーザ端末10から払出し申請通知を受け取ると(ステップST200においてYES)、送付された申請情報を取得する(ステップST201)。続いて、制御部23は、取得した申請情報をユーザIDと紐づけて、データ取得部21に保存する(ステップST202)。また、制御部23は、申請対象情報に含まれる補償対象物の画像と撮影情報(撮影日時、撮影場所を含む)を取得する(ステップST203)。
 次に、制御部23は、撮影日時に基づいて該当する日時の災害情報(被災エリアを含む)をデータ取得部21の災害DBから取得する(ステップST204)。また、制御部23は、取得した補償対象物の情報(撮影日時、撮影場所を含む)と該当する日時の災害情報を真偽判定部22へ送り、真偽判定の処理を行う。
 真偽判定部22は、申請された補償対象物情報と災害情報とから、申請写真に写る被写体(すなわち、補償対象物)が災害情報によって推定される災害で被災したものであるのかどうかの真偽判定を行う(ステップST205)。申請写真に写る被写体が災害情報によって推定される災害で被災したものであるのかどうかは、例えば、申請写真が被災エリアで撮影されたものであるか又は被災エリア以外で撮影されたものかという意味である。申請された補償対象物情報は、例えば、補償対象物の写真(すなわち、画像データ)、撮影日時、撮影場所などである。
 次に、真偽判定部22の真偽判定の処理について説明する。真偽判定部22は、補償対象物の撮影日時の真偽判定と補償対象物の撮影場所の真偽判定の結果に基づいて、真偽判定を行う。
 図8は、図7における真偽判定の処理(ステップST205)を示すフローチャートである。図8に示されるように、真偽判定部22は、制御部23から真偽判定の実行通知を受け取ると(ステップST220)、補償対象物情報(例えば、撮影場所、日時)と災害情報とを取得する(ステップST221)。
 図9(A)から(E)は、実施の形態1に係る災害判定装置20の真偽判定部22で使用される災害情報の例を示す図である。図9(A)から(E)には、災害情報として、災害発生位置を含む2次元マップが示されている。図9(A)から(E)に示されるように、災害情報には、予め決められたエリアの日時、位置(例えば、経度、緯度)、浸水高[m]の情報が含まれている。図9(A)から(E)は、それらを経度と緯度の2次元マップで可視化した例であり、エリアArea_o内の浸水高を濃淡又はカラーで示したものである。ここで、地点O(LAT_o,LON_o)に注目し、災害発生前から災害終息後までの浸水高の推移を説明する。
 災害情報の時間軸の推移を、図9(A)の災害発生前、図9(B)の災害発生中(初期)、図9(C)の災害発生中(中期)、図9(D)の災害発生中(後期)、図9(E)の災害終息後として説明する。
 まず、図9(A)に示される災害発生前の日時TIME_aでは、浸水高High_aは0mである。その後、豪雨により、日時TIME_bに災害発生し、それ以降、地点Oの浸水高は時間経過とともに変化していく。図9(B)に示される災害発生中(初期)の日時TIME_bでは、浸水高High_b<0.5mである。さらに、図9(C)に示される災害発生中(中期)の日時TIME_cでは、浸水高High_c≧0.5mとなる。日時TIME_cでは、エリアO内の浸水高は、0m、浸水高<0.5m、浸水高≧0.5m、浸水高≧1.0mに分布している。図9(D)に示される災害発生中(後期)の日時TIME_dでは、豪雨も収まり、地点Oの浸水高High_d<0.5mに下がっている。そして、図9(E)に示される災害終息後の日時TIME_eでは、災害が終息し、浸水高は0となっている。なお、災害情報の2次元マップは、人口密度などに応じて、エリアの大きさと精細度を変更してもよい。例えば、2次元マップは、都会などの人口密集地の場合にはエリアを狭くし、精細度を細かくし、田舎などの過疎地の場合には、エリアを広くとり、精細度を粗くするように作成してもよい。
 図10は、実施の形態1に係る災害判定装置20の真偽判定部22で使用される災害情報の例を示す図である。図10は、日時-浸水高[m]の変化を、真偽判定の結果が「真」の場合を示している。図10に示されるように、エリアO(Area_o)内の地点O(LAT_o,LON_o)における浸水高が時間の経過とともに変化した例を示している。
 図8及び図10を使用し、補償対象物の撮影日時の真偽判定処理ついて説明する。ここで、申請者より申請された補償対象物の撮影日時をTime_oとし、撮影情報の撮影場所を地点O(LAT_o,LON_o)とする。
 真偽判定部22は、撮影日時の真偽判定を、被災対象有効期間TIME_validを算出する(ステップST222)。被災対象有効期間TIME_validは、災害情報から得られた災害発生日時TIME_b、災害終息日時TIME_e及び保険会社が定めた追加期間TIME_addより算出する。例えば、災害発生日時TIME_bから災害が終息した日時TIME_eの期間TIME_eableと、その期間に保険会社が定めた追加期間TIME_addとすると、被災対象有効期間TIME_validは、それらを加算したものである。真偽判定部22は、撮影日時の真偽判定に際し、被災対象有効期間TIME_valid内に、撮影日時TIME_oが含まれているかを判定する(ステップST223)。
 真偽判定部22は、撮影日時の真偽判定の結果が「偽」の場合(ステップST223においてNO)、真偽判定の結果が「偽」であることを制御部23へ通知する(ステップST224)。また、真偽判定部22は、撮影日時の真偽判定の結果が「真」の場合(ステップST223においてYES)、続いて、補償対象物の撮影場所(すなわち、撮影位置)の真偽判定を行う。
 真偽判定部22は、災害情報から、被災対象有効期間TIME_validにおける撮影場所O(LAT_o,LON_o)の浸水高を取得し(ステップST225)、その浸水高が保険会社の保険支払い条件を超えているかを確認する(ステップST226)。例えば、真偽判定部22は、水災時の支払い基準の条件が「地盤面から0.5m以上の浸水」の場合(ステップST225)、前述の被災対象期間内の撮影場所Oの浸水高が0.5mを超えているかを確認する(ステップST226)。真偽判定部22は、0.5mを超えている場合には、補償対象物の撮影場所(撮影位置)の真偽判定の結果を「真」と判定し、超えていない場合には「偽」と判定する。図10を例にとると、真偽判定部22は、被災対象有効期間TIME_valid内の日時TIME_cで、浸水高High_cとなり、0.5mを超えているため、この場合の補償対象物の撮影場所の真偽判定の結果を「真」と判定する。
 図11は、実施の形態1に係る災害判定装置20の真偽判定部22で使用される災害情報(日時-浸水高[m]の真偽判定の結果が「偽」の場合)の例を示す図である。図11に示されるように、エリアO(Area_o)内の地点O(LAT_o,LON_o)における浸水高が時間の経過とともに変化したとする。被災対象有効期間TIME_validの各日時TIME_b、TIME_c、TIME_d、TIME_eにおいても補償対象物の撮影場所Oの浸水高が0.5mを超えておらず、水災時の支払い基準の条件「地盤面から0.5m以上の浸水」を満たしていないため、真偽判定部22は、この場合の補償対象物の撮影場所の真偽判定の結果を「偽」と判定する。
 図8に戻り、真偽判定部22は、補償対象物の撮影日時の真偽判定の結果及び補償対象物の撮影場所の真偽判定の結果がともに「真」の場合には、制御部23へ真偽判定の結果が「真」であることを通知する(ステップST227)。また、真偽判定部22は、補償対象物の撮影日時の真偽判定の結果及び補償対象物の撮影場所の真偽判定の結果のいずれかが「偽」の場合には、制御部23へ真偽判定の結果が「偽」であることを通知する(ステップST224)。
 図7に戻り、制御部23は、真偽判定部22からの真偽判定の結果を被災判定部25へ通知する。被災判定部25は、真偽判定の結果を確認し(ステップST206)、真偽判定の結果が「偽」の場合(ステップST206においてNO)、被災判定結果を「被災対象外」として、制御部23へ通知する(ステップST207)。
 被災判定部25は、真偽判定の結果が「真」の場合(ステップST206においてYES)、補償対象物の撮影画像の真偽を判定する。撮影画像の被写体となっている補償対象物が、保険契約上の対象物か否かを判定するため、申請画像の解析を行う(ステップST208)。写真に写る被写体を画像解析により識別し、申請者の保険契約の内容と照らし合わせて補償対象物に該当するか否かを判定する。写真に写る被写体を画像解析により識別は、例えば、家財であれば、家具、家電製品、貴金属、宝石、美術品、自転車、原動機付自転車などの識別又は、貴金属、宝石、美術品などなら1個又は1組の価額が予め決められた金額以下か否かの識別である。また、保険契約の内容は、補償対象物が建物のみか、家財のみか、建物、家財の両方か、対象の家財であるか、などである。なお、画像解析には、パターンマッチング又はディープラーニングなどを活用した公知の画像解析技術を利用する。
 被災判定部25は、申請画像の解析の結果を確認し(ステップST209)、被写体となっている補償対象物が保険契約上の対象物でない(つまり、申請画像解析結果が「偽」である)場合には、被災判定結果を「被災対象外」として、制御部23へ通知する(ステップST207)。また、保険契約上の対象物であれば(つまり、申請画像解析結果が「真」である)、被災判定結果を「被災対象」として、制御部23へ通知する(ステップST210)。
 図3に戻り、制御部23は、被災判定部25からの被災判定結果を申請処理部26へ通知する。申請処理部26は、被災判定結果を確認し(ステップST012)、被災判定結果が「被災対象外」の場合(ステップST012においてNO)、制御部23へ申請結果が「否認」であること、及び否認理由を通知する。否認理由としては、例えば、「支払い条件(すなわち、浸水高が0.5m以上であること)を満たしていないため、補償対象外となります」、「被災対象期間を過ぎているため、補償対象外です」、又は「申請された対象物は、保険契約上の補償対象外の製品です」、などである。
 制御部23は、ユーザ端末10へ申請結果を「否認」し、否認理由を通知する(ステップST013)。この場合、保険金の払出しは行われない。
 申請処理部26は、被災判定結果が「被災対象」の場合(ステップST012においてYES)、申請結果を「承認」し、このことを制御部23へ通知する。制御部23は、支払処理部27へ、申請結果の「承認」を通知する。支払処理部27は、保険契約の補償対象条件に従い、保険金払出し処理を行う(ステップST014)。また、制御部23は、申請結果として、申請が「承認」されたことをユーザ端末10へ通知する(ステップST015)。なお、制御部23は、保険金支払い額などの関連情報を併せて通知してもよい。
 なお、被災判定部25の被災判定又は申請処理部26を保険会社の支払い業務担当者による人手で作業する場合には、作業端末上に水災エリアと補償対象物の撮影場所情報を提示することで、効率的な判定作業を実施することが可能となる。
 図12は、実施の形態1に係る災害判定装置20で処理した判定結果(例えば、被災対象)を2次元マップとして作業端末(例えば、表示装置)上に提示した例を示す図である。図12に示されるように、災害判定装置20は、被災対象期間の浸水範囲(予め決められた浸水高を超えて浸水した範囲)と補償対象物の撮影場所とを比較し、被災対象か否かを判定している。図12は、申請した補償対象物の撮影情報(例えば、日時、位置)から、被災対象となった例である。
 図13は、実施の形態1に係る災害判定装置20で処理した判定結果(被災対象外)を2次元マップとして作業端末上に提示した例を示す図である。図13に示されるように、災害判定装置20は、被災対象期間の浸水範囲(予め決められた浸水高を超えて浸水した範囲)と補償対象物の撮影場所を比較し、被災対象か否かを判定している。図13は、申請した補償対象物の撮影情報(例えば、日時、位置)から、被災対象外となった例である。
 また、災害判定装置20は、申請者へ保険金支払い申請に対する承認、否認の判定結果として、ユーザ端末10上へ、補償対象物の撮影位置と被災範囲又は水災エリアの位置関係が目視確認できるように図12、図13に示すようなマップ情報を提示してもよい。
 図3に戻り、申請者は、ユーザ端末10によって、申請結果を確認する(ステップST016)。申請者は、申請結果に疑問又は質問がある場合には、災害判定装置20へ問合せを行うことができる。
 また、申請者は申請結果が否認された場合、否認理由を確認した上で、再申請を行う場合、払出し申請処理(ステップST010)を再度行う。災害判定システム100は、申請者の保険金払出し申請の結果が承認された場合、保険金払出し申請処理を終了する。
 次に、申請者が申請結果に疑問又は質問がある場合のユーザ端末10における問合せ処理について説明する。図14は、実施の形態1に係るユーザ端末10における問合せ処理を示すフローチャートである。図14に示されるように、申請者は、ユーザ端末10によって災害判定システムの申請メニューから問合せを選択し、災害判定装置20への問合せ内容を入力する(ステップST020)。
 図15は、図14におけるユーザ端末による問合せの処理(ステップST020)を示すフローチャートである。図15に示されるように、端末制御部13は、問い合わせ内容画面を表示する(ステップST130)。また、端末制御部13は、申請者が問い合わせ内容の入力を完了すると、入力内容を保存する(ステップST131)。
 なお、申請者の問合せ入力の入力作業完了の検出は、申請内容入力時と同様に、ユーザ端末10上に入力完了ボタンを設け、申請者に入力完了後にボタン操作を提示し、入力作業完了操作を行わせてもよい。或いは、申請者が入力欄から他の項目欄にカーソル移動した段階で、申請者に入力完了の確認画面を提示し、入力作業完了操作を行わせてもよい。
 端末制御部13は、問い合わせ内容の登録確認を申請者へ提示し、登録するか否かを確認する(ステップST132)。端末制御部13は、申請者により、「登録」が選択されたら、災害判定装置20へ問合せ内容を送信し(ステップST133)、問合せ内容入力画面を終了する。問い合わせ内容の登録確認時に「登録」が選択さない場合には、申請結果確認画面を終了するかを申請者へ確認する(ステップST134)。「終了」が選択されない場合(ステップST134においてNO)、端末制御部13は、再度申請者の問合せ入力画面を提示し(ステップST130)、以降の処理は前述の処理と同様である。「終了」が選択された場合(ステップST134においてYES)、問合せ内容入力画面を終了する。
 図14に戻り、災害判定装置20は、ユーザ端末10からの問合せ通知を受信した場合、問合せ処理を行う(ステップST021)。
 次に、災害判定装置20の問合せ通知を受信した場合の処理について説明する。図16は、図14における災害判定装置20による問合せの処理(ステップST021)を示すフローチャートである。
 図16に示されるように、災害判定装置20は、制御部23は申請者のユーザ端末10から問合せを受信した場合(ステップST240)、申請者の問合せ情報を契約情報に関連付けて、データ取得部21に保存する(ステップST241)。次に、災害判定装置20は、問合せ内容に対する回答作成し(ステップST242)、ユーザ端末10へ問合せ内容に対する回答を送信する(ステップST243)。なお、問合せ内容に対する回答作成は、問合せ入力内容文の自然言語処理による自動生成を行い回答してもよいし、人手による回答作成を行ってもよい。
 図14に戻り、申請者は、ユーザ端末10によって、災害判定装置20から送信された問合せ結果を確認する。災害判定装置20から問合せ結果を受信した申請者はユーザ端末10の問合せ結果確認画面で問合せ結果を確認する。問合せ結果に「異議」ある場合には、申請メニューから再度、問い合わせ内容入力メニューを選択し、問い合わせ内容を入力し、災害判定装置20へ送信する。ユーザ端末10の処理は、前述の処理と同様であり、また問合せに対する災害判定装置20の動作も前述の問合せ処理のものと同様である。
 なお、実施の形態1に係る災害判定システム100では、申請者は、ユーザ端末10によって保険金払出し申請入力又は問合せ入力の際に、災害判定システム100へのログイン及びユーザ認証をその都度行っているが、ログイン後一定時間はログイン状態を維持し、申請入力、申請結果確認、問合せ入力、問合せ結果確認などの作業を継続できるようにしてもよい。
 なお、実施の形態1に係る災害判定システム100では、災害判定装置20の被災判定において、水災時の保険金支払い基準の条件を「地盤面から0.5m以上の浸水」の1つの条件で説明した。しかし、災害判定装置20は、例えば、浸水高を地盤面から0.5m以上~1.0m未満、1.0m以上~2.0m未満、2.0m以上~3.0m未満、3.0m以上のように複数に分類し、それぞれの条件に合わせて、補償対象物の被災判定を行ってもよい。
 なお、実施の形態1に係る災害判定システム100では、被災時の被災判定に災害情報として、撮影場所の浸水高を使用した例ついて記載したが、浸水高が支払い条件を満たしていない場合でも、その他の支払要件に含まれる場合(例えば、対象物が再調達価額の予め決められた割合を超える損害を受けた場合など)には、台風又は豪雨による被災であることを判定するために、災害情報として撮影場所の降水量を使用し、予め決められた量以上の降水量があった地域を被災エリアとして、補償対象物の被災判定を行い、支払申請処理を行ってもよい。なお、「再調達価額」とは、例えば、保険の目的(例えば、建物又は家財)と同等のものを新しく建築し又は購入する際に必要となる金額のことであり、「再取得価額」又は「新価」なども同様の意味である。
 なお、実施の形態1に係る災害判定システム100では、水災時の被災判定に災害情報として浸水高を使用した例ついて記載したが、台風又は豪雨による土砂崩れ、がけ崩れなどによる被災判定において、災害情報として撮影場所の降水量を使用し、土砂崩れ、がけ崩れの発生地域において予め決められた量以上の降水量があった地域を被災エリアとして、補償対象物の被災判定を行ってもよい。
 なお、実施の形態1に係る災害判定システム100では、水災時の被災判定に災害情報として浸水高を使用した例ついて記載したが、台風又は暴風雨などによる風災の被災判定において、災害情報として撮影場所の風力(又は風速)を使用し、風災の発生地域において、予め決められた風力以上の風力(又は風速)のあった地域を被災エリアとして、補償対象物の被災判定を行ってもよい。
 なお、実施の形態1に係る災害判定システム100では、水災時の被災判定に災害情報として浸水高を使用した例ついて記載したが、台風又は暴風雨などによる風災の被災判定において、台風、突風、竜巻、暴風の進路情報を使用し、進路上から予め決められた距離以内の地域を被災エリアとして、補償対象物の被災判定を行ってもよい。
 なお、実施の形態1に係る災害判定システム100では、水災時の被災判定に災害情報として浸水高を使用した例ついて記載したが、地震の被災判定において、災害情報として撮影場所の震度を使用し、地震の発生地域において、予め決められた震度以上の震度の地震があった地域を被災エリアとして、補償対象物の被災判定を行ってもよい。
 なお、実施の形態1に係る災害判定システム100では、水災時の被災判定に災害情報として、撮影場所の浸水高を使用した例ついて記載したが、豪雪による被災であることを判定するために、災害情報として撮影場所の降雪量を使用し、予め決められた量以上の降雪量があった地域を被災エリアとして、補償対象物の被災判定を行ってもよい。
 なお、実施の形態1に係る災害判定システム100では、保険契約者からの保険金支払い申請時に、災害判定装置20における真偽判定部22の真偽判定において、災害情報として被災対象となる有効期間(例えば、災害発生から災害終息まで)に被災後画像の撮影場所(すなわち、位置)の浸水高が保険契約条件の浸水高を超えたか否かで被災対象地域の判定を行っているが、その地域の現在の単位時間当たりの降水量、河川の水位増加量及び浸水想定区域情報(例えば、災害マップ、自治体の浸水マップなど)から、被災地域又は被災後画像の撮影場所の浸水日時又は浸水高を推定して、災害情報として使用し、被災対象地域か否かの判定を行ってもよい。また、これらの推定技術には、公知の推定技術を利用してもよい。
 なお、実施の形態1に係る災害判定システム100では、保険契約者からの保険金支払い申請時に、災害判定装置20における真偽判定部22の真偽判定において、災害情報として被災対象となる有効期間(例えば、災害発生から災害終息まで)に被災後画像の撮影場所の浸水高が保険契約条件の浸水高を超えたか否かで被災対象地域の判定を行っているが、その地域の現在の単位時間当たりの降水量、河川の水位増加量及び浸水想定区域情報(例えば、災害マップ、自治体の浸水マップなど)及び過去の災害情報(例えば、洪水情報、降水量、河川の水位、浸水高、浸水範囲など)から、被災地域又は被災後画像の撮影場所の浸水日時又は浸水高を推定して、災害情報として使用し、被災対象地域か否かの判定を行ってもよい。また、これらの推定技術は、公知の推定技術を利用してもよい。
 なお、実施の形態1に係る災害判定システム100では、災害発生後の保険契約者からの保険金支払い申請を受けて、保険金支払い処理を開始したが、保険契約者による保険金支払い申請漏れを防ぐために、災害判定装置20によって保険契約者の住所と上述の推定した災害情報から災害発生が予想される地域の保険契約者に対して、災害発生前に「当該地域が保険支払い申請の対象地域である」などの保険金支払い申請に関する通知を行ってもよい。
 なお、実施の形態1に係る災害判定システム100では、保険会社の保険金支払いを想定した説明を行っているが、国、都道府県又は市町村などの自治体が震災などの災害に関する被災金を払う場合についても同様である。
《1-3》効果
 以上のように、申請写真の被災判定を効率よく正確に行うことで、保険契約者への保険金支払いを正確かつ迅速に行うことができる。また、保険金支払い対象となる保険契約者を抽出した上で支払業務を進めておくことで、申請写真の被災判定を効率化し、保険契約者への保険金支払いを迅速に行うことができる。
《2》実施の形態2.
《2-1》構成
 実施の形態2に係る災害判定システムは、災害判定装置20の処理に、申請者の近隣に住む、複数の保険契約者(つまり、複数の他の申請者)からの申請情報を使用した被災判定に関する処理が追加されている点において、実施の形態1に係る災害判定システム100と異なる。
 被災判定の際に、申請者の位置真偽判定に加えて、申請者の近隣に住む複数の保険契約者からの申請情報を判定条件に加えることで、より正確な被災判定を行うことができる。
 図17は、実施の形態2に係る災害判定システムの複数の保険契約者の位置関係を示す図である。図17に示されるように、申請者A、申請者B、申請者Cの3名の申請者がおり、3者の補償対象物の被災後撮影画像の撮影場所は、いずれも災害情報の被災エリアに含まれている。
 図18は、実施の形態2に係る災害判定システムによって払出し申請を行う複数の申請者の申請内容の例を示す図である。図18に示されるように、申請者Aは、エアコン室外機A1を申請し、申請者Bは、エアコン室外機B1、エアコン室外機B2、原動機付き自転車B3を申請し、申請者Cは、エアコン室外機C1を申請したとする。
《2-2》動作
 図19は、実施の形態2に係る災害判定システムの払出し申請処理を示すフローチャートである。図19に示されるように、被災判定において、申請者の近隣に住む(申請者以外の)複数の保険契約者(すなわち、複数の他の申請者)からの申請情報を使用し、被災判定処理及び被災判定結果通知を行う(ステップST031、ST032、ST033、ST034)。それ以外の処理は、実施の形態1における処理と同じである。
 申請者は、ユーザ端末10上に表示された申請メニュー画面より、保険金払出し申請を選択し、払出し申請処理(申請内容を入力)を行う(ステップST010)。災害判定装置20は、ユーザ端末10からの払出し申請を受信し、払出し申請処理(被災判定)を行う(ステップST031)。
 災害判定装置20の払出し申請処理における被災判定の動作について説明する。図20は、図19における災害判定装置20によって実行される被災判定の処理(ステップST031)を示すフローチャートである。図20に示されるように、被災判定時に、申請者の近隣に住む複数の保険契約者(複数の他の申請者)からの申請情報を使用し、被災判定処理及び被災判定結果通知を行う(ステップST211、ST212、ST213)。それ以外の処理は、実施の形態1における処理と同じである。
 被災判定部25は、申請画像の解析の結果を確認し(ステップST209)、保険契約上の補償範囲内の対象物(申請画像解析結果が「真」である)の場合(ステップST209においてYES)、被災した地域の申請者以外の申請者の申請情報を取得する(ステップST211)。
 ここで、申請者Bの被災判定を行うとする。この場合、申請者B(の撮影場所)の近隣地域に住む保険契約者である申請者A、申請者Cの申請情報を取得する。
 図21は、実施の形態2に係る災害判定システムにおける複数の申請者の申請内容と判定結果を示す図である。図21に示されるように、既に申請が受理、承認されている申請者A及び申請者Cの申請情報では、申請した補償対象物であるエアコン室外機A1、エアコン室外機C1は、契約条件(0.5m以上)の浸水高(0.5m)を満たしており、また日時判定も被災対象有効期間内のため、日時、場所の真偽判定は「真」と判定されている。また、申請された災害後画像の画像解析(ステップST208)により推定される申請された補償対象物の浸水高は、エアコン室外機A1、エアコン室外機C1ともに、0.5mと推定され、近隣の申請情報による真偽判定の結果、「問題なし」と判定されたとする。また、最終的な被災判定結果は両者ともに承認されているものとする。
 ここで、申請者Bの申請した補償対象物のエアコン室外機B1、エアコン室外機B2、原動機付き自転車B3について被災判定を行うとする。エアコン室外機B1、エアコン室外機B2、原動機付き自転車B3は、契約条件(0.5m以上)が災害情報の浸水高(0.5m)を満たしており、また日時判定も期間内で、日時、場所の真偽判定は、いずれも「真」と判定されている。
 続いて、災害後画像の画像解析(ステップST208)において、申請者Bの被災後画像には、エアコン室外機B1は庭先、エアコン室外機B2は2階ベランダに、原動機付き自転車B3は駐車場に設置されている様子が含まれており、画像解析の結果により算出された補償対象物の設置位置から、エアコン室外機B1は0.5m、エアコン室外機B2は3.0m、原動機付き自転車B3は1.0mの浸水高と推定されている。なお、画像解析による設置高は、例えば、被写体の大きさ又は高さ、被写体の背景(建物の窓ガラス又は基礎の立ち上がり部、階段、柵又は塀、駐車場、ベランダ、屋根、建物、庭の木々など)から推定可能である。
 被災判定部25は、申請者Bから申請された補償対象物の災害後画像の画像解析から求めた対象物の浸水高と、申請者A及び申請者Cから申請された補償対象物の災害後画像の画像解析から求めた対象物の浸水高を比較する(ステップST212)。
 次に、申請者Bが申請したエアコン室外機B1、エアコン室外機B2、原動機付き自転車B3の3つの被災判定について説明する。
 被災判定部25は、エアコン室外機B1について、日時、場所の真偽判定後、近隣の申請情報による真偽判定を行う。被災判定部25は、エアコン室外機B1の浸水高の推定値(0.5m)と、申請者A及び申請者Cの申請した対象物(エアコン室外機A1及びエアコン室外機C1)の浸水高の推定値(0.5m)を比較し、同等か否かを確認する(ステップST212)。三者の浸水高の推定値は0.5mであるため、三者を同等と判断し、近隣の申請情報による真偽判定は「問題なし」と判定する。被災判定部25は、エアコン室外機B1の被災判定結果を「被災対象」として制御部23へ通知する(ステップST210)。
 続いて、被災判定部25は、エアコン室外機B2、原動機付き自転車B3の真偽判定を行う。申請された災害後画像の解析の結果では、エアコン室外機B2の浸水高は3.0m、原動機付き自転車B3の浸水高は1.0mと推定されている。これらの浸水高と申請者A及び申請者Cの浸水高の推定値(0.5m)と比較する(ステップST212)。その結果、エアコン室外機B2の浸水高は3.0m、原動機付き自転車B3の浸水高は1.0mと、近隣の申請情報(0.5m)とはかけ離れた値であるため、被災判定部25は、エアコン室外機B2及び原動機付き自転車B3の近隣の申請情報による真偽判定は、いずれも「問題あり」と判定する。
 続いて、被災判定部25は、エアコン室外機B2及び原動機付き自転車B3の被災判定結果を「審議」として制御部23へ通知する(ステップST213)。
 なお、前述の説明では、被災判定部25は、申請者Bの真偽判定を行う際に、画像解析から得られた申請者Bの申請した補償対象物の「設置高」から浸水高の推定を行っているが、画像解析により、災害後画像の被写体に付着した水位が分かるような汚れ又は背景に写る建物又は壁の汚れなどから浸水高を推定して、申請者Bの浸水高の推定値と申請者A及び申請者Cの浸水高の推定値を比較して、真偽判定を行ってもよい。
 なお、前述の説明では、被災判定部25は、申請者Bの真偽判定を行う際に、画像解析から得られた申請者Bの申請した補償対象物の浸水高の推定値と、申請者A及び申請者Cの申請承認済みの補償対象物の浸水高の推定値をそれぞれ比較して判定しているが、近隣に住む多数の申請者の申請情報を使用する場合には、得られた申請情報(例えば、浸水高)の推定値から、その地域の申請情報の平均又は分散などの統計値を算出し、申請者の申請情報と比較することで、真偽判定を行ってもよい(例えば、申請者の申請情報が、統計値の予め決められた閾値内に含まれる場合には「問題なし」、予め決められた閾値を超える場合には「問題あり、審議」と判定する)。なお、「近隣の保険契約者(申請者)」の定義は、災害情報の浸水高が同じ被災エリアの保険契約者としてもよいし、浸水高が同じ被災エリア内で申請者位置(住所)の周囲で、予め決められた距離内の保険契約者としてもよい。
 図19に戻り、制御部23は、被災判定部25からの被災判定結果を申請処理部26へ通知する。
 申請処理部26は、被災判定結果を確認する(ステップST032)。まず、エアコン室外機B1は、被災判定結果が「被災対象」のため(ステップST032で被災対象)、申請処理部26は、申請結果を「承認」し、制御部23へ通知する。制御部23は、支払処理部27へ申請結果「承認」を通知する。支払処理部27は、保険契約の補償対象条件に従い、保険金払出し処理を行う(ステップST014)。
 制御部23は、申請結果として、申請が「承認」されたことをユーザ端末10へ通知する(ステップST015)。なお、保険金支払い額などの関連情報を併せて通知してもよい。次に、エアコン室外機B2及び原動機付き自転車B3は、被災判定結果が「審議」のため(ステップST032で審議)、申請処理部26は、制御部23へ被災判定結果が「審議」であることを通知する。
 制御部23は、「審議」通知を受けて、実施の形態2に係る災害判定システムへ「審議」を登録する(ステップST033)。また、ユーザ端末10へ申請結果を「否認」とし、併せて否認理由を通知する(ステップST034)。この場合、保険金払出し処理は行われない。
 なお、被災判定結果が「審議」の場合の否認理由には、例えば、「申請された対象物は、保険契約上の補償対象外です」などである。
 申請された補償対象物について、災害判定システムにおいて「審議」が登録された場合、保険会社の支払い業務担当者に通知される。保険会社の支払い業務担当者は、通知を受けて、審議内容を確認し、必要に応じて、現地への調査員派遣、電話又はメールなどによる申請者へのヒアリング、否認理由の説明、再申請の要請などの対応を行う。この場合には、ユーザ端末10へ通知する否認理由として「弊社保険金支払い担当者からご連絡します」など、申請内容確認手続中であることを伝えるメッセージを送付してもよい。
 なお、実施の形態2に係る災害判定システムでは、被災判定部25の判定結果が「審議」の場合、制御部23は、ユーザ端末10へ申請結果を「否認」と、否認理由を通知しているが、申請結果を「調査中」とし、現地への調査員派遣又は電話又はメールなどによる申請者へのヒアリングで申請内容の確認及び再被災判定後に、申請結果(例えば、「承認」若しくは「否認」)を通知してもよい。
《2-3》効果
 以上に説明したように、申請写真の被災判定を効率よく正確に行うことで、保険契約者への保険金支払いを正確かつ迅速に行うことができる。
《3》実施の形態3.
《3-1》構成
 実施の形態3に係る災害判定システム100bは、ユーザ端末10bが日時位置情報補正部16を有し、日時位置情報補正部16が補償対象物の撮影日時と撮影場所とを示す日時位置情報を補正するための日時位置情報補正処理を行う点において、実施の形態1及び2に係る災害判定システムと異なる。実施の形態3に係る災害判定システム100bでは、ユーザ端末10bは、補償対象物の撮影日時と撮影場所とを示す日時位置情報を補正するための日時位置情報補正処理(すなわち、自己位置推定処理)を行うことで、電波の届かない場所に存在する補償対象物の被災判定を行うことができる。
 図22は、実施の形態3に係る災害判定システム100bのユーザ端末10bの構成を概略的に示す機能ブロック図である。図22に示されるように、日時位置情報補正部16は、自律測位用センサ16a(例えば、加速度センサ、ジャイロセンサ、磁気センサ、カメラなど)と、それらのセンサ情報から自分の位置を推定(自己位置推定)するロケータ(自己位置推定部)16bとを備えている。日時位置情報補正部16は、電波受信可能地域で日時位置情報取得部12から取得した日時位置情報と、受信不能地域内でロケータから得られた時間、移動情報を使用して、ユーザ端末10bの位置情報及び日時情報を指定した周期(時間間隔)で計算し、更新を行う。
 なお、それ以外の構成は、実施の形態1及び2に係る災害判定システム100の構成と同じである。
《3-2》動作
 図23は、実施の形態3に係る災害判定システム100bのユーザ端末による電波受信地域及び申請者の位置関係を示す図である。図23に示されるように、申請者の補償対象物は、災害情報の被災エリアに含まれており、また電波の届かない電波受信不能地域内の地点Tにある。なお、電波受信不能地域とは、例えば、屋内又は地下室、建物の陰、ビルの間、森林又は林道などの、携帯端末の通信不能地域であり、GPS情報を受信ができない若しくはGPS情報の受信状況が不安定な場所である。
 地点Sから移動情報分だけ移動すると地点T(tcur_last,pcur_last)に到着する。なお、移動情報である、合計移動時間と合計移動量は、それぞれ移動時間の累計値であるΣΔtと移動量の累計値であるΣΔpである。つまり、(合計移動時間,合計移動量)=(ΣΔt,ΣΔp)である。
 次にユーザ端末10bにおける日時位置情報補正部16の日時位置情報の補正処理について説明する。
 申請者は、保険支払い申請に使用する、被災した補償対象物の写真の撮影を行うために、補償対象物の設置位置である地点Tに移動する。このとき、移動前の地点Sは、電波受信可能地域であるため、ユーザ端末10bは、GPS情報の受信により、位置情報を取得している。その後、電波受信不能地域である地点Tへ移動した場合、ユーザ端末10bは、途中からGPS情報による位置情報の取得ができない状況となっている。電波受信不能地域である地点Tへ移動した場合は、例えば、電波受信可能な道路(例えば、地上)から地下の店舗に移動した場合又はGPS受信が不安定なビル街に入った場合などである。
 図24は、実施の形態3に係る災害判定システム100bのユーザ端末10bの日時位置情報補正部16の処理を示すフローチャートである。図24に示されるように、日時位置情報補正部16は、申請者によりユーザアプリが起動されると、端末制御部13の制御に従い動作を開始する。端末制御部13は、日時位置情報取得部12から取得した電波受信情報を日時位置情報補正部16に渡す。日時位置情報補正部16は、電波受信情報を取得する(ステップST140)。
 日時位置情報取得部12は、GPSから正常に測位情報が受信できない場合、若しくは、GPSから測位情報は正常に受信できたが、得られた現在の日時位置情報と過去(例えば、数秒前)の日時位置情報の連続性が満たされていない場合には、電波受信情報として「異常」を出力する。また、日時位置情報取得部12は、正常に測位情報が受信できかつ日時位置情報の連続性が満たされている場合には、電波受信情報として「正常」を出力する。
 なお、「連続性」の有無は、過去(例えば、数秒前)のデータの統計処理を行い、現在データと比較し、その差が予め決められた基準範囲内に収まっているか場合に連続性あり、基準範囲外である場合に連続性無と判定される。これらの電波受信情報の推定には、公知の技術を利用することができる。
 日時位置情報補正部16は、予め決められた周期(例えば、0.1秒間隔、0.5秒間隔、又は1秒間隔など)で、日時位置情報取得部12から電波受信情報の取得と電波受信情報の確認とを行う。予め決められた周期は、単位時間Δtとも言う。
 ここでは、日時情報と位置情報とをまとめて、(日時情報,位置情報)の形で表記する。日時位置情報補正部16は、日時位置情報取得部12から取得されたユーザ端末10bの日時位置情報(Tgps,Pgps)を出力する。また、日時位置情報補正部16のロケータが出力するユーザ端末10bの移動時間及び移動量を(Δt,Δp)とする。また、ユーザ端末10bの現在の(すなわち、最新の)日時位置情報を(tcur,pcur)として説明する。
 日時位置情報補正部16は、日時位置情報取得部12から得た電波受信情報を確認する(ステップST141)。移動前の地点Sは、電波受信可能地域であり、取得した電波受信情報は、「正常」である。ステップST141の判定が「正常」である場合、日時位置情報補正部16は、日時位置情報取得部12から日時位置情報(Tgps,Pgps)を取得し(ステップST142)、ユーザ端末10bの現在の日時位置情報(tcur,pcur)として保存する(ステップST143)。つまり、電波受信状況が正常な場合には、日時位置情報補正部16は、GPSの測位情報から得た日時位置情報(Tgps,Pgps)を現在の日時位置情報(tcur,pcur)として保存する。
 次に、ユーザ端末10bが電波受信不能地域内に入った場合について説明する。日時位置情報補正部16は、電波受信情報を確認する(ステップST141)。ユーザ端末10bが電波受信不能地域内に入ると、日時位置情報取得部12から得た電波受信情報は、「異常」となる。
 ステップST141の判定が「異常」である場合、日時位置情報補正部16は、ロケータからユーザ端末10bの単位時間(Δt)当たりの移動量(Δp)を取得する(ステップST144)。なお、単位時間Δtは、日時位置情報補正部16が電波受信状況を確認する一定周期の時間幅である。また、移動量Δpは、単位時間Δtでユーザ端末10bが移動した距離及び方向の情報を含んでもよい。
 続いて、日時位置情報補正部16は、ユーザ端末10bの一周期前の日時位置情報(tpre,ppre)と、ロケータで推定したユーザ端末10bの移動時間及び移動量(Δt,Δp)を演算し、現在の日時位置(tcur,pcur)として更新、保存する(ステップST145)。
 つまり、日時位置情報補正部16は、電波受信不能地域内に入った場合には、電波受信状況の正常時に取得したGPSの測位情報から得た日時位置情報(Tgps,Pgps)と、電波受信状況が異常となった後にロケータで算出した自己位置の移動量(Δt,Δp)とを使用し、現在の日時位置情報(tcur,pcur)を算出する。続いて、日時位置情報補正部16は、日時位置情報(tcur,pcur)を一周期前の日時位置情報(tpre,ppre)として保存する(ステップST147)。続いて、日時位置情報補正部16は、ユーザアプリの終了確認を行い(ステップST150)、ユーザアプリ本体が終了処理に移行していた場合には、動作を終了する。ユーザアプリが終了処理に移行していない場合には、日時位置情報取得部12から電波受信情報を取得(ステップST140)に戻り、動作を継続する。よって、日時位置情報補正部16は、ユーザアプリの起動中は、日時位置情報を更新し続ける。
 図23に戻り、ユーザ端末10bが地点Sから撮影場所である地点Tに移動した場合、移動時間は単位時間の合計ΣΔtとなり、移動量は単位時間の移動量の合計ΣΔpとなる。地点Tの日時位置情報(tcur_last,pcur_last)は、電波受信状況が正常の時に取得した日時位置情報(Tgps,Pgps)と移動情報(ΣΔt、ΣΔp)を加算したもの、すなわち以下のようになる。
(tcur_last,pcur_last)
 =(Tgps+ΣΔt,Pgps+ΣΔp)
 図25は、実施の形態3に係る災害判定システム100bのユーザ端末10bによる補償対象物の撮影の処理(図5におけるステップST112)を示すフローチャートである。図25に示されるように、申請者は、ユーザ端末10bによって保険金払出し申請を行う際に、画像取得部11を起動し、補償対象物の災害後画像の撮影を行う。
 端末制御部13は、申請者が被写体として補償対象物に画像取得部11を向けて「撮影する」を選択した場合(ステップST121においてYES)、日時位置情報補正部16から、撮影情報を取得する(ステップST160)。例えば、図23の地点Tで撮影した場合には、撮影情報として日時位置情報、すなわち、(日時,場所)=(tcur_last,pcur_last)を取得する。
 続いて、端末制御部13は、画像取得部11を制御して補償対象物の撮影を行い、得られた画像データを被災後画像として保存する。また、被災後画像のヘッダ情報に、日時位置情報補正部16から取得した撮影情報、例えば、日時位置情報を付加する(ステップST123)。なお、上述のステップST160の動作以外に関し、保険金払出し申請に関する処理は、実施の形態1及び2に係る災害判定システム100の処理と同じである。
 なお、実施の形態3に係るユーザ端末10bの日時位置情報補正部16は、自律測位用センサとロケータを含む構成としているが、ユーザ端末10bの外部に自律測位用センサとロケータを持ち、移動情報、すなわち、(移動時間、移動量)を取得してもよい。また自律測位用センサからの情報からロケータで行う移動時間及び移動量の計算手法は公知の技術を利用可能である。
《3-3》効果
 以上に説明したように、補償対象物の撮影位置情報を取得する際に、撮影日時、場所情報の補正処理を加えることで、電波の届かない場所においても位置情報を取得し、被災判定を効率的に行うことができるため、保険契約者への保険金支払いを正確かつ迅速に行うことができる。
《4》変形例.
 以下に、実施の形態1から3に係る災害判定システム100、100bとハードウェア構成の例を説明する。
 図26は、実施の形態1から3に係る災害判定システム100、100bのユーザ端末10、10bのハードウェア構成の例を示す図である。
 ユーザ端末10、10bにおける端末制御部13(図1、図22)及び日時位置情報補正部16(図22)の各機能は、処理回路により実現可能される。処理回路は、メモリ83に格納されるプログラムを実行するプロセッサ82である。プロセッサ82は、CPU、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、又はDSP(Digital Signal Processor)などともいう。また、処理回路は、複数のプロセッサを有してもよい。また、処理回路は、FPGA(Field Programmable Gate Array)又はASICなどであってもよい。
 端末制御部13の各機能は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェア又はファームウェアは、プログラムとして記述され、メモリ83に格納される。プロセッサ82は、メモリ83に記憶されているプログラムを読み出して実行することにより、各部の機能を実現する。
 すなわち、ユーザ端末10、10bでは、プロセッサ82がメモリ83に格納されているプログラムを実行することによって、図2から図6、図14、図15、図19、図24及び図25に示される処理が実行される。また、これらのプログラムは、端末制御部13による処理手順又は方法をコンピュータに実行させるものである。メモリ83は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)などの不揮発性又は揮発性の半導体メモリであってもよい。また、メモリ83は、ハードディスク、フレキシブルディスクなどの磁気ディスクであってもよい。さらに、メモリ83は、ミニディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)などの光ディスクであってもよい。
 なお、入力装置81は、画像取得部11、日時位置情報取得部12、入出力部15の操作部である。出力装置85は、入出力部15の表示部である。通信装置84は、通信部14である。
 図27は、実施の形態1から3に係る災害判定システム100、100bの災害判定装置20のハードウェア構成の例を示す図である。災害判定装置20における真偽判定部22、制御部23、被災判定部25、申請処理部26、及び支払処理部27の各機能は、処理回路により実現される。処理回路は、メモリ93に格納されるプログラムを実行するプロセッサ92である。プロセッサ92は、CPU、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、又はDSPなどともいう。また、処理回路は、複数のプロセッサを有してもよい。また、処理回路は、FPGA又はASICなどであってもよい。
 制御部23の各機能は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェア又はファームウェアは、プログラムとして記述され、メモリ93に格納される。プロセッサ92は、メモリ93に記憶されているプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、災害判定装置20は、プロセッサ92によりプログラムが実行されるときに、図2、図3、図7、図8、図14、図16、図19及び図20に示した処理が実行される。また、これらのプログラムは、制御部23の処理手順又は方法をコンピュータに実行させるものである。メモリ93は、例えば、RAM、フラッシュメモリ、EPROM、EEPROMなどの不揮発性又は揮発性の半導体メモリである。メモリ93は、ハードディスク、フレキシブルディスクなどの磁気ディスク、又は、ミニディスク、CD、DVDなどの光ディスクでもよい。データ取得部21がデータ保管部である場合、データ取得部21は、メモリ93により実現される。通信装置94は、図1における通信部24である。
 10、10b ユーザ端末、 11 画像取得部、 12 日時位置情報取得部、 13 端末制御部、 14 通信部、 15 入出力部、 16 日時位置情報補正部、 20 災害判定装置、 21 データ取得部、 22 真偽判定部、 23 制御部、 24 通信部、 25 被災判定部、 26 申請処理部、 27 支払処理部、 30 ネットワーク、 100、100b 災害判定システム。

Claims (17)

  1.  ネットワークを介してユーザ端末と通信する通信部と、
     補償対象物に関する保険契約の内容を示す契約情報及び発生した災害に関する災害情報を取得するデータ取得部と、
     前記ユーザ端末から前記通信部を介して、被害を受けた対象物を撮影して得られた撮影画像と前記撮影画像が撮影された日時及び前記撮影画像が撮影された場所を含む日時位置情報とを含む保険金払出し申請を取得し、前記撮影画像、前記日時位置情報、及び前記災害情報に基づいて、前記撮影画像が前記災害情報によって推定される災害に対応する画像であるか否かを判定する真偽判定を行う真偽判定部と、
     を有することを特徴とする災害判定装置。
  2.  前記災害情報は、災害の発生期間を含み、
     前記真偽判定部は、前記災害情報に基づいて推定される前記災害の発生期間に基づいて、前記日時位置情報に含まれる前記日時の真偽判定を行う
     ことを特徴とする請求項1に記載の災害判定装置。
  3.  前記災害情報は、災害による被災状況を含み、
     前記真偽判定部は、前記災害情報に基づいて推定される前記災害の被災状況に基づいて、前記日時位置情報に含まれる前記撮影画像が撮影された前記場所の真偽判定を行う
     ことを特徴とする請求項1又は2に記載の災害判定装置。
  4.  前記災害情報は、災害の発生期間を含み、
     前記真偽判定部は、前記災害情報に基づいて推定される前記災害の発生期間に基づいて、前記撮影画像が前記推定される災害に対応する画像であるか否かを判定する
     ことを特徴とする請求項1から3のいずれか1項に記載の災害判定装置。
  5.  前記災害情報は、降水量に対応する河川の水位及び浸水想定区域を含み、
     前記真偽判定部は、
     前記災害情報に基づいて推定される前記災害の降水量、河川の水位、及び浸水想定区域に基づいて、前記撮影画像が前記推定される災害に対応する画像であるか否かを判定する
     ことを特徴とする請求項1から4のいずれか1項に記載の災害判定装置。
  6.  前記災害情報は、降水量に対応する過去の水災被害情報を含み、
     前記真偽判定部は、前記撮影画像の前記日時位置情報と前記降水量に対応する水災被害情報とに基づいて、前記撮影画像が前記推定される災害に対応する画像であるか否かを判定する
     ことを特徴とする請求項1から4のいずれか1項に記載の災害判定装置。
  7.  前記通信部は、前記ネットワークを介して他のユーザ端末から他の保険金払出し申請を取得し、
     前記真偽判定部は、前記他の保険金払出し申請に含まれる他の撮影画像及び他の日時位置情報に基づいて、前記撮影画像が前記推定される災害に対応する画像であるか否かを判定する
     ことを特徴とする請求項1から6のいずれか1項に記載の災害判定装置。
  8.  前記真偽判定部が前記撮影画像は前記災害情報によって推定される災害に対応すると判断した場合に、前記契約情報、前記撮影画像、前記日時位置情報、及び前記災害情報に基づいて、前記撮影画像に写る前記対象物が前記災害情報によって推定される前記災害によって被害を受けた前記補償対象物であるか否かを判定する被災判定部をさらに有する
     ことを特徴とする請求項1から7のいずれか1項に記載の災害判定装置。
  9.  前記真偽判定部が、前記撮影画像は前記災害情報によって推定される災害に対応する画像ではないと判断した場合に、前記ユーザ端末に、前記保険金払出し申請を却下する旨の通知を送信する申請処理部をさらに有する
     ことを特徴とする請求項1から8のいずれか1項に記載の災害判定装置。
  10.  前記被災判定部が、前記撮影画像に写る前記対象物が前記災害情報によって推定される前記災害によって被害を受けた前記補償対象物でないと判定した場合に、前記ユーザ端末に、前記保険金払出し申請を却下する旨の通知を送信する申請処理部をさらに有する
     ことを特徴とする請求項8に記載の災害判定装置。
  11.  前記被災判定部が、前記撮影画像に写る前記対象物が前記災害情報によって推定される前記災害によって被害を受けた前記補償対象物であると判定した場合に、前記ユーザ端末に、前記保険金払出し申請を承認する旨の通知を送信する申請処理部と前記保険金払出し申請に基づく保険金支払い処理を実行する支払処理部とをさらに有する
     ことを特徴とする請求項8から10のいずれか1項に記載の災害判定装置。
  12.  前記データ取得部は、前記契約情報及び前記災害情報を記憶する記憶部を含むことを特徴とする請求項1から11のいずれか1項に記載の災害判定装置。
  13.  請求項1から12のいずれか1項に記載の災害判定装置と、
     前記ユーザ端末と、
     を有することを特徴とする災害判定システム。
  14.  前記ユーザ端末は、
     前記撮影画像を取得する画像取得部と、
     測位システムが発する電波に基づいて前記日時位置情報を取得する日時位置情報取得部と、
     を有することを特徴とする請求項13に記載の災害判定システム。
  15.  前記測位システムが発する電波を受信できない場所で、前記日時位置情報取得部によって取得された前記日時位置情報に含まれる位置情報を補正する日時位置情報補正部を更に有する
     ことを特徴とする請求項14に記載の災害判定システム。
  16.  災害判定装置が実行する災害判定方法であって、
     ネットワークを介してユーザ端末と通信するステップと、
     補償対象物に関する保険契約の内容を示す契約情報及び発生した災害に関する災害情報を取得するステップと、
     前記ユーザ端末から、被害を受けた対象物を撮影して得られた撮影画像と前記撮影画像が撮影された日時及び前記撮影画像が撮影された場所を含む日時位置情報とを含む保険金払出し申請を取得し、前記撮影画像、前記日時位置情報、及び前記災害情報に基づいて、前記撮影画像が前記災害情報によって推定される災害に対応する画像であるか否かを判定する真偽判定を行うステップと、
     を有することを特徴とする災害判定方法。
  17.  コンピュータに請求項16に記載の災害判定方法を実行させることを特徴とする災害判定プログラム。
PCT/JP2020/017446 2020-04-23 2020-04-23 災害判定装置、システム、方法、及びプログラム WO2021214929A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022516568A JP7123285B2 (ja) 2020-04-23 2020-04-23 災害判定装置、システム、方法、及びプログラム
PCT/JP2020/017446 WO2021214929A1 (ja) 2020-04-23 2020-04-23 災害判定装置、システム、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/017446 WO2021214929A1 (ja) 2020-04-23 2020-04-23 災害判定装置、システム、方法、及びプログラム

Publications (1)

Publication Number Publication Date
WO2021214929A1 true WO2021214929A1 (ja) 2021-10-28

Family

ID=78270513

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/017446 WO2021214929A1 (ja) 2020-04-23 2020-04-23 災害判定装置、システム、方法、及びプログラム

Country Status (2)

Country Link
JP (1) JP7123285B2 (ja)
WO (1) WO2021214929A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7113991B1 (ja) 2022-02-03 2022-08-05 三菱電機インフォメーションシステムズ株式会社 浸水高計算システム、浸水高計算方法及び浸水高計算プログラム
JP7113992B1 (ja) 2022-02-03 2022-08-05 三菱電機インフォメーションシステムズ株式会社 浸水高計算システム、浸水高計算方法及び浸水高計算プログラム
JP2023112932A (ja) * 2022-02-02 2023-08-15 三井住友海上火災保険株式会社 浸水高推定装置およびプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7389537B1 (ja) * 2023-03-09 2023-11-30 東京海上日動火災保険株式会社 プログラム、情報処理装置及び情報処理方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001344285A (ja) * 2000-05-30 2001-12-14 Matsushita Electric Ind Co Ltd 被害情報収集管理装置
JP2010054266A (ja) * 2008-08-27 2010-03-11 Kajima Corp 浸水予測装置
US20160171622A1 (en) * 2014-12-15 2016-06-16 Loss of Use, Inc. Insurance Asset Verification and Claims Processing System
US20170270650A1 (en) * 2016-03-17 2017-09-21 Conduent Business Services, Llc Image analysis system for property damage assessment and verification
JP2018132504A (ja) * 2017-02-17 2018-08-23 富士通株式会社 浸水状況推定システム、浸水状況推定プログラム、浸水状況推定方法
US20200014816A1 (en) * 2018-07-06 2020-01-09 ImageKeeper LLC Secure digital media capture and analysis

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001344285A (ja) * 2000-05-30 2001-12-14 Matsushita Electric Ind Co Ltd 被害情報収集管理装置
JP2010054266A (ja) * 2008-08-27 2010-03-11 Kajima Corp 浸水予測装置
US20160171622A1 (en) * 2014-12-15 2016-06-16 Loss of Use, Inc. Insurance Asset Verification and Claims Processing System
US20170270650A1 (en) * 2016-03-17 2017-09-21 Conduent Business Services, Llc Image analysis system for property damage assessment and verification
JP2018132504A (ja) * 2017-02-17 2018-08-23 富士通株式会社 浸水状況推定システム、浸水状況推定プログラム、浸水状況推定方法
US20200014816A1 (en) * 2018-07-06 2020-01-09 ImageKeeper LLC Secure digital media capture and analysis

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023112932A (ja) * 2022-02-02 2023-08-15 三井住友海上火災保険株式会社 浸水高推定装置およびプログラム
JP7357087B2 (ja) 2022-02-02 2023-10-05 三井住友海上火災保険株式会社 浸水高推定装置およびプログラム
JP7113991B1 (ja) 2022-02-03 2022-08-05 三菱電機インフォメーションシステムズ株式会社 浸水高計算システム、浸水高計算方法及び浸水高計算プログラム
JP7113992B1 (ja) 2022-02-03 2022-08-05 三菱電機インフォメーションシステムズ株式会社 浸水高計算システム、浸水高計算方法及び浸水高計算プログラム
JP2023113150A (ja) * 2022-02-03 2023-08-16 三菱電機インフォメーションシステムズ株式会社 浸水高計算システム、浸水高計算方法及び浸水高計算プログラム
JP2023113145A (ja) * 2022-02-03 2023-08-16 三菱電機インフォメーションシステムズ株式会社 浸水高計算システム、浸水高計算方法及び浸水高計算プログラム

Also Published As

Publication number Publication date
JP7123285B2 (ja) 2022-08-22
JPWO2021214929A1 (ja) 2021-10-28

Similar Documents

Publication Publication Date Title
WO2021214929A1 (ja) 災害判定装置、システム、方法、及びプログラム
US11676258B1 (en) Method and system for assessing damage to infrastructure
US9489696B1 (en) Estimating a cost using a controllable inspection vehicle
KR101937833B1 (ko) 영상처리 기반의 주차관리 시스템 및 방법
CN109891449B (zh) 结算系统、结算方法、及程序
US20200004754A1 (en) System and method for asset recovery
CN113196331B (zh) 利用卫星影像的应用服务提供装置及方法
US11582711B2 (en) Systems, devices, methods, and program products enhancing structure walkthroughs
US20230410232A1 (en) System for Determining Type of Property Inspection Based on Captured Images
US11893538B1 (en) Intelligent system and method for assessing structural damage using aerial imagery
US11341580B1 (en) Image-based processing for products
KR20070045716A (ko) 인터넷을 이용한 원격 조문 시스템
US20160203562A1 (en) System and Method for Notice Posting and Verification
JP2005222129A (ja) 資産管理システム、資産管理方法、資産管理サーバ及びプログラム
JP2005241715A (ja) 地図情報収集システム
US11676225B1 (en) System and method of automated real estate management
JP4157015B2 (ja) セキュリティー巡回サービスシステム
JP2021099607A (ja) 情報処理装置、情報処理方法およびプログラム
KR101838052B1 (ko) 메타 데이터를 이용한 부동산 매물 검증 방법
JP2019095550A (ja) 地図情報更新システム及び方法
CN113222585B (zh) 一种离线支付方法及数字货币圆码生成方法及终端
JP7297327B1 (ja) 原状回復査定システム
KR102673902B1 (ko) 무선주파수인식 태그 기반의 오브젝트 스캐닝 장치 및 이를 이용한 실내 차량관리 시스템 및 그 방법
US20240221101A1 (en) Automated detection of and response to probable unlawful activity at commercial or residential property
JP2013061829A (ja) プローブ情報処理サーバ、プローブ情報処理方法およびプローブ情報処理システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20931743

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022516568

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20931743

Country of ref document: EP

Kind code of ref document: A1