WO2022208586A1 - 通知装置、通知システム、通知方法及び非一時的なコンピュータ可読媒体 - Google Patents

通知装置、通知システム、通知方法及び非一時的なコンピュータ可読媒体 Download PDF

Info

Publication number
WO2022208586A1
WO2022208586A1 PCT/JP2021/013217 JP2021013217W WO2022208586A1 WO 2022208586 A1 WO2022208586 A1 WO 2022208586A1 JP 2021013217 W JP2021013217 W JP 2021013217W WO 2022208586 A1 WO2022208586 A1 WO 2022208586A1
Authority
WO
WIPO (PCT)
Prior art keywords
notification
accident
information
notification target
person
Prior art date
Application number
PCT/JP2021/013217
Other languages
English (en)
French (fr)
Inventor
航生 小林
哲郎 長谷川
洋明 網中
慶 柳澤
一気 尾形
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to EP21934763.0A priority Critical patent/EP4273829A4/en
Priority to US18/274,695 priority patent/US20240127595A1/en
Priority to PCT/JP2021/013217 priority patent/WO2022208586A1/ja
Priority to JP2023509901A priority patent/JPWO2022208586A5/ja
Publication of WO2022208586A1 publication Critical patent/WO2022208586A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0476Cameras to detect unsafe condition, e.g. video cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/10Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using wireless transmission systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/20Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
    • G08G1/202Dispatching vehicles on the basis of a location, e.g. taxi dispatching
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/20Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
    • G08G1/205Indicating the location of the monitored vehicles as destination, e.g. accidents, stolen, rental
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/12Messaging; Mailboxes; Announcements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/90Services for handling of emergency or hazardous situations, e.g. earthquake and tsunami warning systems [ETWS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/006Alarm destination chosen according to type of event, e.g. in case of fire phone the fire service, in case of medical emergency phone the ambulance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/52Network services specially adapted for the location of the user terminal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/55Push-based network services

Definitions

  • the present invention relates to a notification device, notification system, notification method, and non-transitory computer-readable medium.
  • Patent Document 1 when the input sound data is from a traffic accident, the sound data and video data are temporarily recorded in a data recording device, and the traffic accident is detected based on the recorded data.
  • a recording and analysis system for classification and analysis is disclosed.
  • Patent Document 2 when there is an emergency request from the caller's terminal, based on the condition of the patient who is the target of emergency, content candidates to be sent to the caller who made the emergency request are selected.
  • a content generation device is disclosed.
  • Patent Document 3 when a report is received that a specific person has a medical problem, the current location of the specific person is identified, and registered users in the area around the current location are notified of the specific person's A position reporting system is disclosed.
  • An object of the present disclosure is to provide a notification device, a notification system, a notification method, and a non-temporary computer-readable medium that can realize a prompt initial response to an analysis target person such as an injured person or an emergency patient. .
  • a notification device includes accident occurrence detection means for detecting the occurrence of an accident from video captured by one or more cameras, and analyzing the video to obtain detailed information about a person to be analyzed related to the accident. , determination means for determining a coping method for the person to be analyzed based on the detailed information, and notification means for notifying the notification target of the determined coping method.
  • a notification system includes one or more cameras, a notification device connected to the one or more cameras, and one or more terminals that receive notifications from the notification device, wherein the notification device , an accident occurrence detection means for detecting the occurrence of an accident from images captured by one or more cameras; an analysis means for analyzing the images and deriving detailed information about a person to be analyzed related to the accident; and a determining means for determining a coping method for the person to be analyzed, and a notifying means for notifying one or more terminals of the determined coping method.
  • a notification method includes an accident occurrence detection step of detecting the occurrence of an accident from video captured by one or more cameras, and analyzing the video to obtain detailed information about the person to be analyzed related to the accident. , a determination step of determining a coping method for the person to be analyzed based on the detailed information, and a notification step of notifying the notification target of the determined coping method.
  • a non-temporary computer-readable medium includes an accident occurrence detection step of detecting an accident occurrence from video captured by one or more cameras;
  • a computer is caused to execute an analysis step of deriving detailed information of a target person, a determination step of determining a coping method for the analysis target person based on the detailed information, and a notification step of notifying a notification target of the determined coping method. It is where the program is stored.
  • a notification device capable of realizing a prompt initial response to an analysis target person such as an injured person or an emergency patient.
  • FIG. 1 is a block diagram showing an example of a notification device according to Embodiment 1;
  • FIG. 4 is a flow chart showing an example of processing executed by the notification device according to the first exemplary embodiment;
  • 1 is a schematic diagram showing an example of a notification system according to a first exemplary embodiment;
  • FIG. FIG. 11 is a schematic diagram showing an example of a notification system according to a second embodiment;
  • FIG. 11 is a block diagram showing an example of a camera according to a second embodiment;
  • FIG. FIG. 9 is a schematic diagram showing an example of a road provided with cameras according to the second embodiment;
  • FIG. 9 is a block diagram showing an example of an MEC server according to a second embodiment;
  • FIG. 11 is a block diagram showing an example of a notification server according to the second embodiment
  • FIG. FIG. 11 is a block diagram showing an example of a terminal according to a second embodiment
  • FIG. FIG. 11 is a sequence diagram showing an example of typical processing of the notification system according to the second embodiment
  • FIG. 10 is a flow chart showing an example of processing executed by a notification server according to the second embodiment
  • FIG. 9 is a schematic diagram showing an example of a road provided with cameras according to the second embodiment
  • FIG. 11 is a schematic diagram showing an example of a notification system according to a third embodiment
  • FIG. FIG. 11 is a block diagram showing an example of a notification server according to a third embodiment
  • FIG. 11 is a block diagram showing an example of a terminal according to a third embodiment
  • FIG. FIG. 14 is a schematic diagram showing an example of a notification system according to a fourth embodiment
  • FIG. FIG. 13 is a block diagram showing an example of a notification server according to a fourth embodiment
  • FIG. FIG. 13 is a block diagram showing an example of a terminal according to a fourth embodiment
  • FIG. 12 is a schematic diagram showing a configuration example of a cell of a base station according to a fifth embodiment
  • FIG. It is a block diagram showing an example of a hardware configuration of an apparatus according to each embodiment.
  • Embodiment 1 of the present disclosure will be described below with reference to the drawings.
  • (1A) a notification device that detects the occurrence of an accident and notifies a notification target will be described.
  • FIG. 1 is a block diagram showing an example of a notification device.
  • the notification device 10 includes an accident occurrence detection unit 101 , an analysis unit 102 , a determination unit 103 and a notification unit 104 . Each part (each means) of the notification device 10 is controlled by a controller (not shown). Each component will be described below.
  • the accident occurrence detection unit 101 detects the occurrence of an accident from images captured by one or more cameras.
  • the term “accident” means an incident, whether accidental or intentional, in which an injured person or a suddenly ill person occurs. This includes, but is not limited to, car-to-car accidents, sudden deterioration of medical conditions, etc.
  • the accident detection unit 101 may determine the type of accident such as a collision accident, a fire, or aggravation of a chronic disease.
  • the “video” may be either moving image data or still image data.
  • One or more cameras may be installed at any location.
  • the plurality of cameras may photograph a predetermined place from different directions, or the plurality of cameras may photograph different places.
  • the accident occurrence detection unit 101 detects that an accident has occurred at one or more locations by analyzing images captured by one or more cameras. Any combination of one or more types of cameras such as visible light cameras, infrared cameras, and thermo cameras may be used.
  • the accident detection unit 101 identifies the position of the accident site based on at least one of the position of the camera that was determined to have captured the accident and the range of the accident in the video data. Also good.
  • the analysis unit 102 analyzes the video that detects the occurrence of the accident, thereby identifying an injured person or a suddenly ill person caused by the accident (hereinafter referred to as a person to be analyzed). ). Note that the analysis unit 102 analyzes a video including the position of the accident site in the shooting range instead of the video that detects the occurrence of the accident or in addition to the video that detects the occurrence of the accident, and analyzes the video to be analyzed. Detailed information of the person may be derived.
  • the analysis unit 102 analyzes video data captured by the camera during the period from around the timing when the accident detection unit 101 detects the occurrence of an accident until the time analysis processing is performed, or captures video captured by the camera at one or a plurality of timings. Based on this, we derive this detailed information.
  • the detailed information indicates, for example, at least one of information relating to the body condition of the person to be analyzed and personal information of the person to be analyzed of the accident, but is not limited to these.
  • Information about the body state of the person to be analyzed includes, for example, the consciousness state, breathing state, bleeding state, bone fracture state, burn state, impact site, convulsion state, walking state, heartbeat state, pulse state, and body temperature state of the person to be analyzed.
  • the state of consciousness indicates at least one of the presence or absence of consciousness and the degree of turbidity
  • the respiratory state indicates at least one of the presence or absence of breathing and the degree of normality
  • the bleeding state indicates the presence or absence, location and degree of bleeding.
  • the fracture state may indicate at least one of presence/absence, location, and degree of fracture.
  • the state of burns indicates at least one of the presence or absence, location, and degree of burns
  • the severely hit site indicates at least one of the location and degree of the blow
  • the convulsive state indicates at least any of the presence or absence and degree of convulsions.
  • the gait state indicates at least one of the degree of wobble and the degree of normality in walking
  • the heartbeat state indicates at least one of the presence or absence of heartbeat, the number of heartbeats, and the degree of normality.
  • the pulse state indicates the presence or absence of pulse, the number of times. and at least one of the degree of normality.
  • the body temperature state may indicate at least one of presence/absence of fever, temperature, and location.
  • the analysis unit 102 may directly or indirectly derive this detailed information based on the video of the person to be analyzed.
  • the analysis unit 102 can derive detailed information by directly determining the bleeding state from the state of bleeding of the person to be analyzed in the video.
  • the analysis unit 102 determines whether the person to be analyzed has a broken leg or a bruise.
  • Detailed information can be derived by indirectly estimating that the
  • the analysis unit 102 may derive this detailed information by using not only the image of the person to be analyzed, but also other images showing how the accident occurred. For example, when the camera that captured the person to be analyzed or another camera captures the appearance of scattered objects due to an explosion accident, the analysis unit 102 analyzes the occurrence of the accident, It is possible to determine that the person to be analyzed has been hit by a blast or to have been hit by an object thrown by the blast, and to infer that the person to be analyzed has at least one of bleeding, broken bones, and bruises.
  • the analysis unit 102 further uses other information such as information on the type of accident determined by the accident occurrence detection unit 101 and attributes of the pre-registered area in which the camera that captured the accident was installed to obtain this detailed information. can be derived. For example, when the accident occurrence detection unit 101 determines that the accident is a fire, the analysis unit 102 takes this information into consideration in video analysis, and determines whether the person to be analyzed has a burn. can be determined.
  • the analysis unit 102 may control the camera that captures the video in order to derive accurate detailed information.
  • the camera may be controlled to increase the imaging magnification, increase the resolution, increase the frame rate, increase the number of quantization bits, increase the bit rate, and the like. .
  • the camera angle of the camera may be controlled so that the person to be analyzed or a specific part of the person to be analyzed is included in the shooting range.
  • the analysis unit 102 identifies the person to be analyzed from among the registrants based on the face image of the person to be analyzed appearing in the video of the accident and the face information of the registrant.
  • personal information associated with the registrant may be derived as detailed information.
  • Personal information includes, but is not limited to, at least one of medical history, current medical history, pregnancy status, age, sex, blood type, allergy information, personal number, family medical institution, and emergency contact information.
  • the analysis unit 102 may perform face authentication using the face image of the person to be analyzed and the face information of the registrant.
  • the analysis unit 102 may identify the person to be analyzed from among the registrants by acquiring the authentication result of face authentication performed by another device other than the notification device 10 .
  • the personal information stored in another device may be acquired by the analysis unit 102 together with the authentication result.
  • the analysis unit 102 may authenticate using an iris, which is a type of physical feature, or a gait, which is a type of behavioral feature, or use two or more biometric authentication techniques. may be combined arbitrarily for authentication.
  • the determination unit 103 determines how to deal with the person to be analyzed appearing in the video.
  • the coping method includes at least one of first aid, procedure, and other actions for the injury or illness of the person to be analyzed.
  • treatment refers to the concept of lifesaving treatment and first aid for the person to be analyzed that can be performed by ordinary people
  • treatment refers to the analysis target that can be performed by specialists such as doctors and emergency personnel. Indicates a medical procedure for a person.
  • Treatment and “treatment” for a specific injury or illness may be completely different responses, or at least part of the content of the two may overlap.
  • “other actions” include requesting an ambulance, requesting staff to be dispatched to the place where the accident occurred (accident site), requesting acceptance of the person to be analyzed, preparing for treatment, and contacting the designated contact. At least one of them is included, but the invention is not limited to these.
  • “preparation for treatment” means at least one of, for example, preparation for blood transfusion, preparation of necessary medical equipment, and securing medical staff and treatment locations (for example, hospital rooms, operating rooms, examination rooms, etc.) Including but not limited to one.
  • predetermined contact information includes, for example, at least one contact information among relatives such as family members, friends, workplaces and their relationships, specific medical institutions and nursing institutions, medical staff and nursing staff However, it is not limited to these.
  • the determination unit 103 can determine a suitable coping method based on the detailed information of the person to be analyzed obtained by the analysis unit 102 .
  • the determination unit 103 may determine how to deal with the person to be analyzed based on the personal information. For example, the determination unit 103 selects at least one of treatment, treatment, or other action based on at least one of the past history, current medical history, pregnancy status, age, sex, blood type, and allergy information of the person to be analyzed. You may decide as a coping method.
  • the determination unit 103 determines that the person to be analyzed needs a coping method for a heart attack. Then, decide to request an ambulance, request acceptance of the person to be analyzed to a medical institution (especially a medical institution specializing in heart), and designate an AED (Automated External Defibrillator) for heart disease as a medical device to be used for treatment or treatment. . Furthermore, the determination unit 103 may determine the coping method in consideration of the location information of the occurrence of the accident.
  • the determining unit 103 may compare the location information of the location where the accident occurred and the location information of the place where the AED is placed, identify the location of the AED around the accident site, and include it as a coping method.
  • the determination unit 103 may determine, as a coping method, to contact a predetermined contact such as a family medical institution or an emergency contact.
  • the coping method includes at least one content for each notification destination.
  • the coping method for each contact may include any one of treatment, treatment, and other actions, or may include a plurality of them.
  • the coping method determined by the determination unit 103 may be the same regardless of the notification destination, or may be different depending on the attributes of the notification destination. Details of this will be described in a second embodiment.
  • the notification unit 104 notifies one or more notification targets of the coping method determined by the determination unit 103 .
  • the notification target may be a notification destination stored in the notification device 10 in advance. Pre-stored notification destinations include, but are not limited to, public or private emergency services, health facilities.
  • the notification unit 104 may notify each analysis target person to the same notification destination, or based on at least one of the detailed information derived by the analysis unit 102 and the coping method determined by the determination unit 103, the notification target person may be selected from a plurality of registration destinations.
  • the notification unit 104 selects an emergency service, a medical institution (especially a heart attack) as a pre-stored notification destination. specialized medical institutions) can be notified. Further, when the person to be analyzed is a registrant registered in advance, the notification unit 104 may determine the notification target based on the personal information associated with the registrant. For example, the notification unit 104 may notify the family medical institution and the emergency contact information included in the personal information. The notification unit 104 can determine such notification targets in place of or in addition to pre-stored notification destinations.
  • the notification unit 104 may notify a coping method to a notification target existing in a peripheral area (first area) including the accident site.
  • Notification targets existing in the first area may be, for example, medical personnel, non-medical personnel, and medical institutions. Details of this will be described later in the second embodiment.
  • the notification unit 104 may notify the location information of the accident site identified by the accident occurrence detection unit 101 (that is, the location information of the person to be analyzed) along with the coping method. Also, the notification executed by the notification unit 104 can take any form. For example, the notification unit 104 may notify the application of the terminal to be notified, or may notify by message such as SMS (Short Message Service) or MMS (Multimedia Messaging Service), e-mail, telephone, etc. Also good.
  • SMS Short Message Service
  • MMS Multimedia Messaging Service
  • At least one of the accident detection unit 101, the analysis unit 102, and the determination unit 103 uses a machine-learned accident detection model to detect the occurrence of an accident and provide detailed information (for example, information related to the body condition of the person to be analyzed). information) and determination of coping methods.
  • the accident detection unit 101 uses an accident detection model machine-learned so that a video is input as input data and a determination result as to the presence or absence of an accident is generated as output data.
  • the presence or absence of the occurrence of an accident may be detected by inputting an image captured by a camera.
  • the analysis unit 102 uses a detailed information analysis model machine-learned so that a video is input as input data and detailed information is generated as output data. Detailed information may be derived by inputting a video image.
  • the determining unit 103 uses a coping method model that has undergone machine learning so that detailed information is input as input data and a coping method is generated as output data, and the detailed information derived by the analysis unit 102 is added to the model.
  • the detection model described above may be provided inside the notification device 10 or may be provided outside.
  • the model may be provided for each process of the accident occurrence detection unit 101, the analysis unit 102, and the determination unit 103, or a plurality of processes (for example, the accident occurrence detection unit 101 and the analysis unit 102). ), one model may be used in common.
  • the accident occurrence detection unit 101, the analysis unit 102, and the determination unit 103 may execute each process by a method other than this.
  • a table in which detailed information and coping methods are associated with each other is prepared, and after the detailed information is derived by the analysis unit 102, the determination unit 103 refers to the table to determine the appropriate coping method for the detailed information. You can decide how.
  • FIG. 2 is a flowchart showing an example of typical processing of the notification device 10, and the processing of the notification device 10 will be explained with this flowchart.
  • the details of the processing executed by each unit below are as described above.
  • the accident detection unit 101 detects the occurrence of an accident from images captured by one or more cameras (step S11; accident detection step).
  • the analysis unit 102 analyzes the video and derives detailed information about the person to be analyzed involved in the accident detected by the accident occurrence detection unit 101 (step S12; analysis step).
  • the determination unit 13 determines how to deal with the person to be analyzed (step S13; determination step).
  • the notification unit 104 notifies the notification target of the coping method determined in step S12 (step S14; notification step).
  • the notification device 10 can operate as described above.
  • the notification device 10 can analyze the person to be analyzed, determine a coping method, and notify the person, so that a prompt initial response to the person to be analyzed can be realized. .
  • the notification device 10 may be of a centralized configuration composed of a single computer, or of a distributed configuration in which a plurality of computers share the processing of the accident occurrence detection unit 101 to the notification unit 104 and execute them. It may be a configuration. In a distributed configuration, multiple devices may be connected via a communication network such as a LAN (Local Area Network), a WAN (Wide Area Network), the Internet, or the like. An example of this will be described later in a second embodiment.
  • LAN Local Area Network
  • WAN Wide Area Network
  • the Internet or the like. An example of this will be described later in a second embodiment.
  • FIG. 3 is a block diagram showing an example of a notification system.
  • the notification system S1 includes a notification device 10, cameras 11A and 11B, and terminals 12A and 12B. Since the description of the notification device 10 is as shown in (1A), the description is omitted.
  • the cameras 11A and 11B (hereinafter collectively referred to as the cameras 11) shoot an arbitrary location and transmit the shot image data to the notification device 10.
  • the camera 11 transmits video data through a wired line, but the video data may be transmitted through a wireless line.
  • the camera 11 and the notification device 10 may be directly connected, or may be connected via a communication network or the like.
  • Accident occurrence detection unit 101 detects the occurrence of an accident from the video captured by camera 11 . The details are as shown in (1A).
  • the analysis unit 102, the determination unit 103, and the notification unit 104 also perform the processing shown in (1A). Note that the output destinations of the notification from the notification unit 104 are the terminals 12A and 12B.
  • the terminals 12A and 12B receive the coping method from the notification unit 104 of the notification device 10.
  • the coping method is received by the wireless lines RA and RB, but the coping method may be transmitted by a wired line.
  • the terminal 12 may be any information terminal capable of communication, such as a mobile phone such as a smart phone, a personal computer, a personal digital assistant, a car navigation system, an in-vehicle communication terminal, and the like.
  • the camera 11 is provided at least one of a traffic light, a roadside machine, an intersection, and a railroad crossing, and can photograph the location.
  • the signal may target any vehicle such as an automobile, a two-wheeled vehicle, a bicycle, a pedestrian, or a railroad.
  • an intersection means a place where two or more roads intersect.
  • This "road” may be a road for automobiles, or a road for bicycles or pedestrians. Since these locations are locations where accidents related to automobiles, railways, etc. are assumed to occur, even in the event of an accident, the camera 11 can photograph the accident and transmit video data to the notification device 10. , the notification device 10 can notify the injured person of the accident how to deal with it. Therefore, it is possible to realize a prompt response to the injured in the accident.
  • the camera 11 may be installed in any other outdoor location (for example, locations along roads or railroad tracks other than those mentioned above, airports and nearby locations), or in any indoor location. In this way, by installing the camera 11 at a place where it is thought that an accident is likely to occur or where there is some other danger, it is possible to quickly deal with the injured in the accident. can.
  • Embodiment 2 (2A) Embodiment 2 of the present disclosure will be described below with reference to the drawings.
  • (2A) a specific example of the first embodiment (1B) described above will be described.
  • FIG. 4 is a schematic diagram showing an example of a notification system.
  • the notification system S2 includes cameras 20A-20N, an MEC (Mobile Edge Computing or Multi-access Edge Computing) server 21, a notification server 22, and terminals 23A-23D.
  • the cameras 20A to 20N and terminals 23A to 23D are collectively referred to as camera 20 and terminal 23, respectively.
  • the camera 20 and the MEC server 21 may be connected via a wired line, or may be connected via a wireless line such as LTE (Long Term Evolution), 5G (5th Generation), or wireless LAN. and wireless lines.
  • LTE Long Term Evolution
  • 5G Fifth Generation
  • wireless LAN wireless local area network
  • the MEC server 21 and the notification server 22 may be connected by a wired line, may be connected by a wireless line such as LTE, 5G, or wireless LAN, or may be connected by a combination of a wired line and a wireless line. may be connected by The MEC server 21 and the notification server 22 show a configuration in which a plurality of computers share the processing of the accident occurrence detection unit 101 to the notification unit 104 and execute them.
  • the notification server 22 and the terminal 23 receive notifications via wireless lines RA to RD such as LTE, 5G, and wireless LAN, but are not limited to this, and may receive notifications via wired lines. However, notifications may be received via both wired and wireless links.
  • Each unit of each device is controlled by a control unit (controller) in the device (not shown) reading a program. The configuration and processing of each device will be described below.
  • FIG. 5 is a block diagram showing an example of the camera 20.
  • the camera 20 corresponds to the camera 11 of ( 1 B), and includes a photographing unit 201 , a transmitting/receiving unit (transceiver) 202 and a storage unit 203 . Each component of the camera 20 will be described below.
  • the photographing unit 201 has a lens, an image sensor, etc. as a hardware configuration, and photographs an image. However, the images captured and transmitted by the camera 20 may be still images captured at predetermined intervals.
  • the imaging unit 201 may have a function of controlling one or more of imaging magnification, resolution, frame rate, quantization bit number, bit rate, and camera angle. Note that this video data may also include time information at the time of shooting.
  • the transmitting/receiving unit 202 transmits the video data to the MEC server 21 together with identification information of the camera 20 (for example, information such as the ID of the own camera and position information).
  • the self-camera ID may be an arbitrary string of characters or numbers assigned to each camera without duplication, or may be communication address information such as an IP (Internet Protocol) address.
  • the storage unit 203 stores identification information for transmission by the transmission/reception unit 202 . Note that this identification information can be appropriately changed according to the movement of the camera 20 or the like.
  • FIG. 6 is a schematic diagram showing an example of a road on which cameras 20 are provided.
  • cameras 20A and 20B are installed at the traffic light of intersection C1
  • cameras 20C and 20D are installed at the traffic light of intersection C2
  • cameras 20E and 20F are installed at the traffic light of intersection C3.
  • the cameras 20A and 20B are provided at traffic lights at different positions at the same intersection C1. Therefore, both of them transmit to the MEC server 21 video data of the intersection C1 photographed from different positions and angles.
  • the camera 20A includes the intersection C1 and the surroundings of the camera 20B in its photographing range
  • the camera 20B includes the intersection C1 and the surroundings of the camera 20A in its photographing range.
  • cameras 20C and 20D transmit video data of intersection C2 from different positions and angles to the MEC server 21, and cameras 20E and 20F capture video data of intersection C3 from different positions and angles and send video data to the MEC server. 21. Also, since the intersection C2 is adjacent to the intersection C1, the intersection C2 is included in a later-described region R1 including the intersection C1.
  • an accident TR occurs at intersection C1. Therefore, the cameras 20A and 20B transmit video data of the accident TR to the MEC server 21 . Further, the camera 20A photographs the medical personnel NA when the accident occurs, and the camera 20B photographs the non-medical personnel NB when the accident occurs. Furthermore, the cameras 20C and 20D photograph the vehicle NC owned by the hospital C when the accident occurs. In addition, a vehicle NG owned by a medical staff member NE, a non-medical staff member NF, and a vehicle owned by a non-medical staff member G are present around the intersection C3. When the accident occurs, the cameras 20E and 20F photograph the medical personnel NE and the non-medical personnel NF, and the camera 20E photographs the vehicle NG.
  • FIG. 7 is a block diagram showing an example of the MEC server 21.
  • the MEC server 21 corresponds to part of the notification device 10 of (1B), and in this example, includes an accident detection unit 211 , a transmission/reception unit (transceiver) 212 and a storage unit 213 .
  • Each component of the MEC server 21 will be described below.
  • the accident occurrence detection unit 211 corresponds to the accident occurrence detection unit 101 of (1A) and detects the occurrence of an accident from the video data transmitted from each camera 20A to 20N.
  • Accident occurrence detection unit 211 analyzes the images captured by cameras 20A to 20N to detect that an accident has occurred at time t in the area captured by cameras 20A and 20B, that is, intersection C1.
  • the accident occurrence detection unit 211 identifies the position of the accident site based on the positions of the cameras 20A and 20B that are determined to have photographed the occurrence of the accident and the range of the accident occurrence in the video data.
  • Accident occurrence detection unit 211 refers to the position information of cameras 20A and 20B stored in storage unit 213, which will be described later, for the positions of cameras 20A and 20B based on the IDs of the cameras 20A and 20B transmitted by cameras 20A and 20B. You can specify with When the cameras 20A and 20B transmit their own camera position information, the accident detection unit 211 can use the position information as it is.
  • the accident occurrence detection unit 211 uses an accident detection model machine-learned so that a video is input as input data and a determination result as to whether an accident has occurred is generated as output data. input the video data captured by the . Thereby, the accident occurrence detection unit 211 detects whether or not an accident has occurred in each piece of video data. Other processes executed by the accident occurrence detection unit 211 are the same as those of the accident occurrence detection unit 101, and thus description thereof is omitted.
  • the transmission/reception unit 212 receives captured video data and identification information from each of the cameras 20A to 20N. Further, when an accident is detected in the video data of a certain camera 20, the accident occurrence detection unit 211 detects a Video data captured by the camera 20 is extracted. The transmitting/receiving unit 212 transmits the extracted video data and the location information of the accident site together to the notification server 22 . In this example, the transmitting/receiving unit 212 transmits to the notification server 22 together the video data captured by the cameras 20A and 20B from the time t1 when the accident was detected to the present, and the location information of the intersection C. The identification information of the camera 20 that captured the accident may be transmitted as the location information of the accident site.
  • the accident occurrence detection unit 211 determines the area R1 (see FIG. 6) including the intersection C, which is the accident site, as the first area including the accident site. Then, the accident detection unit 211 identifies the camera 20 that captures the area R ⁇ b>1 based on the information on the shooting location of the camera 20 stored in the storage unit 213 . As shown in FIG. 6, the cameras 20 that capture the region R1 are cameras 20A and 20B provided at the intersection C1 and cameras 20C and 20D provided near the intersection C1. Therefore, the accident detection unit 211 determines that not only the video data captured by the cameras 20A and 20B, but also the video data captured by the cameras 20C and 20D are necessary for the notification server 22 to detect notification targets, which will be described later.
  • the accident occurrence detection unit 211 also extracts video data from the time t2 of the cameras 20C and 20D to the present, and the transmission/reception unit 212 transmits the video data to the notification server 22 .
  • the video data captured by the cameras 20E and 20F is not transmitted to the notification server 22 because the area around the intersection C3 is not included in the area R1. Therefore, in this case, medical personnel NE, non-medical personnel NF, and vehicles NG are not considered as notification targets.
  • the "first area” may be a circular area with a predetermined distance from the accident site as a radius, or an area located within a predetermined time at a predetermined walking speed or vehicle speed from the accident site. It may be a predetermined section including the accident site. Predetermined divisions include, by way of example but not limitation, emergency service divisions and administrative divisions such as counties, cities, towns, villages, districts, and states.
  • the accident occurrence detection unit 211 uses, for example, the position information of the detected accident site, the map information around the accident site stored in the storage unit 213, and the criteria for setting the first area, to detect the first area as described above. A region can be set.
  • the times t1 and t2 may be the same timing as the time t, or may be a timing earlier than the time t by a predetermined period so that the details of the accident are clearly clarified in the notification server 22 .
  • the predetermined period is, for example, several seconds to several minutes.
  • a predetermined criterion for determining times t1 and t2 may be defined.
  • the time t1 is the timing when the injured person in the accident is first seen in the video data.
  • the accident occurrence detection unit 211 determines the times t1 and t2 using the predetermined period or reference of the timing stored in the storage unit 213, and extracts the video data as described above.
  • the storage unit 213 stores information necessary for processing executed by the accident detection unit 211 and the transmission/reception unit 212 . Specifically, the following information can be stored.
  • (i) Detection model, map information, and first area setting criteria used by the accident detection unit 211 (ii) Position information of each camera 20 associated with the ID of the camera 20 (iii) Detection by the accident detection unit 211 Target video data captured by the cameras 20A to 20N in a predetermined period (iv) values of timings t1 and t2 for extracting video data or criteria for setting the timings
  • FIG. 8 is a block diagram showing an example of the notification server 22.
  • the notification server 22 corresponds to part of the notification device 10 of (1B), and includes a notification target detection unit 221 , an analysis unit 222 , a determination unit 223 , a transmission/reception unit (transceiver) 224 and a storage unit 225 .
  • Each component of the notification server 22 will be described below.
  • the notification target detection unit 221 detects notification targets existing in a first area (detection area) including the accident site.
  • the notification target includes at least one of a predetermined organization (organization), an individual, and a vehicle.
  • Predetermined institutions that are candidates for notification are, for example, institutions related to medical care or emergency services, which include medical institutions such as hospitals and clinics, regardless of whether they are public or private, and specialized staff such as ambulance crews are dispatched. This includes agencies involved in emergency services.
  • emergency medical institutions include, but are not limited to, fire departments and EMS (Emergency Medical Services).
  • the predetermined organizations that are candidates for notification may include a police station in charge of handling accidents, and a company that deals with accidents on roads, railroads, etc. (for example, a road service company).
  • predetermined individuals who are candidates for notification may include at least one of medical personnel such as doctors, nurses, and paramedics, and non-medical personnel (especially ordinary people).
  • medical personnel such as doctors, nurses, and paramedics
  • non-medical personnel especially ordinary people
  • a person whose duty is to go to the scene of an accident such as a firefighter, a police officer, or a staff member of a company responding to an accident, may be included.
  • a predetermined vehicle that is a candidate for notification is, for example, a vehicle owned (owned or temporarily occupied) by the above-described predetermined organization or individual. An example would be an ambulance or a car owned by a hospital.
  • the information indicating each institution, each individual, and each vehicle, which are candidates for notification, is stored in advance in the storage unit 225 together with the terminal information of each institution, each individual, and each vehicle, which is the actual transmission destination of the notification of the transmitting/receiving unit 224. stored in This terminal is a terminal associated with each institution, each individual, or each vehicle (for example, a terminal owned or temporarily occupied by an institution, etc.), and this terminal information is used by each institution, each individual, or even It can be updated from time to time by an administrator.
  • the notification target detection unit 221 can select, as notification targets, even predetermined organizations, individuals, and vehicles that do not exist in the first area including the accident site.
  • the analysis unit 222 which will be described later, acquires information such as a family medical institution and emergency contact information as personal information
  • the notification target detection unit 221 detects those contact information regardless of the location of the family medical institution and emergency contact information. can be added as notification targets.
  • emergency medical institutions that are one type of predetermined institutions
  • emergency medical institutions that are candidates for notification may be stored in the storage unit 225 .
  • the notification target detection unit 221 determines whether the accident site exists in the first area including the accident site. Regardless, one or more emergency medical institutions may be specified according to the circumstances of the accident and selected for notification.
  • the detailed information used to identify the emergency medical institution includes, for example, information on the state of the body of the person to be analyzed obtained by analyzing the video data by the analysis unit 222 (for example, information on the type or degree of injury or illness), It may be at least one of personal information such as past medical history, current medical history, and whether or not you are pregnant.
  • the notification target detection unit 221 may select one or a plurality of predetermined organizations registered as notification targets in advance as emergency response organizations regardless of the situation as notification targets.
  • the notification target detection unit 221 analyzes the video data captured by each of the cameras 20A to 20D received from the MEC server 21, and detects whether or not notification target candidates appear in the video data.
  • the storage unit 225 stores specific information for specifying a predetermined individual or vehicle for the notification target detection unit 221 to detect a notification target using video data.
  • the specific information is biometric information such as face information for each individual, and information that can identify the vehicle such as license plate number and video data for each vehicle.
  • the notification target detection unit 221 compares the specific information with the video data captured by the cameras 20A to 20D to determine whether or not the notification target candidate appears in each video data in the first area. judge.
  • the notification target detection unit 221 detects that medical personnel NA and non-medical personnel NB, who are candidates for notification targets, are shown in the video data captured by the cameras 20A and 20B. judge. Furthermore, the notification target detection unit 221 detects that the license plate of the vehicle NC, which is a notification target candidate, is shown in the video data captured by the cameras 20C and 20D. Thereby, the notification target detection unit 221 detects the medical personnel NA, the non-medical personnel NB, and the vehicle NC owned by the hospital C as notification targets existing in the first region including the accident site. Coping methods are notified to these notification targets.
  • the analysis unit 222 corresponds to the analysis unit 102 according to Embodiment 1, and derives detailed information about the person to be analyzed related to the accident, which is captured in the video data related to the cameras 20A and 20B. Specifically, the analysis unit 222 performs face authentication using the face image of the person to be analyzed appearing in the video data and the face information of the registrant stored in the storage unit 225 in advance, thereby identifying the person to be analyzed. is specified from among the registrants, and the personal information of the registrants stored in the storage unit 225 is acquired as detailed information.
  • This registrant is a person who has registered his/her personal information in advance by himself, a person who has a chronic disease, or a person who is preliminarily stored as some kind of important person. Furthermore, the analysis unit 222 also acquires information about the body condition of the person to be analyzed as detailed information by analyzing the video data relating to the cameras 20A and 20B. The analysis unit 222 can acquire at least one of the personal information and the information about the state of the body as detailed information. The details of the personal information and the information about the state of the body of the person to be analyzed, and the details of other processes executed by the analysis unit 222 are the same as those described in the first embodiment, so descriptions thereof will be omitted.
  • the analysis unit 222 acquires, as personal information, the fact that the current medical history of the person to be analyzed has heart disease, and the contact information of Hospital D, which is a family medical institution. Furthermore, as the physical condition of the person to be analyzed, the fact that there is an abnormality in the breathing condition and the pulse condition is acquired.
  • the notification target detection unit 221 adds the hospital D as a notification target. This hospital D does not need to be in the first area containing the accident site.
  • the decision unit 223 corresponds to the decision unit 103 according to Embodiment 1, and decides how to deal with the person to be analyzed.
  • the determination unit 223 determines the cases where the notification targets are medical personnel NA and vehicles NC (medical personnel or their vehicles), the cases where the notification targets are non-medical personnel NB (general people), and the notification targets is hospital D (medical institution).
  • the determination unit 223 determines the treatment for the person to be analyzed, and furthermore, the medical equipment used in the treatment, which is a predetermined area including the accident site. Identifies the location of the medical device present in the (third region).
  • the decision unit 223 decides artificial respiration, chest compression (cardiac massage), use of AED, and actions that can be performed by medical personnel as treatments for the person to be analyzed.
  • the determining unit 223 identifies the AED as a medical device used in the treatment, and refers to the list of position information of the AEDs stored in the storage unit 225 and the position information of the accident site, thereby determining the location of the accident.
  • the determination unit 223 includes the information on this treatment and the information on the location of the AED existing in the predetermined area in the coping method for which the medical personnel NA and the vehicle NC are to be notified.
  • the predetermined area (third area) including the accident site where the medical equipment exists may be the same area as the first area, or may be a different area.
  • the setting criteria for this area are stored in the storage unit 225 .
  • the determination unit 223 determines treatment for the person to be analyzed and the medical equipment used in the treatment, which exists in a predetermined area including the accident site. Locate medical equipment. In this example, the determination unit 223 determines the use of artificial respiration, chest compression, and AED as treatments for the person to be analyzed. Further, the determining unit 223 identifies the location of the AED existing in the predetermined area (third area) including the accident site, as described above. The determination unit 223 includes the treatment information and the location information of the AED existing in the predetermined area in the coping method.
  • the determination unit 223 may include only one of the two types of information, ie, the information on the treatment or allowance and the information on the location of the AED existing in the predetermined area, in the coping method.
  • the determination unit 223 determines the coping method so as to include the treatment for the person to be analyzed and the acceptance request for the person to be analyzed.
  • the treatment has the same content as the treatment when the notification targets are the medical personnel NA and the vehicle NC.
  • the coping method is not limited to this example. You can decide. Details of other processes executed by the determination unit 223 are the same as those described in the first embodiment, and thus description thereof is omitted.
  • the transmission/reception unit 224 corresponds to the notification unit 104 according to Embodiment 1, and notifies the notification target detected by the notification target detection unit 221 of the coping method determined by the determination unit 223 .
  • the transmitting/receiving unit 224 notifies the terminals 23A and 23C of treatment information and coping methods including information on the locations of AEDs existing in a predetermined area. Further, the transmitting/receiving unit 224 notifies the terminal 23B of the coping method including the treatment information and the location information of the AED existing in the predetermined area. Further, the transmission/reception unit 224 notifies the terminal 23D of the treatment for the person to be analyzed and the coping method including the request for acceptance of the person to be analyzed.
  • terminals 23A and 23B are smartphones owned by medical personnel NA and non-medical personnel NB, respectively, terminal 23C is a car navigation system mounted on vehicle NC, and terminal 23D is provided by hospital D. This is a terminal for accepting emergency patients.
  • the contact information of the terminals 23A, 23B, and 23C are associated with the medical personnel NA, the non-medical personnel NB, and the vehicle NC, respectively, and stored in the storage unit 225 as information on candidates for notification. uses that information for transmission.
  • the contact information of the terminal 23D is included in the personal information acquired by the analysis unit 222, and the transmission/reception unit 224 uses the information for transmission.
  • Contact information is information including at least one of communication address information (for example, IP address) of each terminal, telephone number, e-mail address, and any other arbitrary user identifier.
  • the transmitting/receiving unit 224 transmits coping methods to the terminals 23A, 23B, and 23D via the radio lines RA, RB, and RD, respectively. Further, the transmitting/receiving unit 224 transmits the coping method to a roadside device (not shown) near the terminal 23C, and the roadside device transmits the coping method to the terminal 23C via the radio circuit RC. In this way, the notification server 22 can transmit the coping method to the terminal onboard the vehicle via the roadside unit. Further, the transmitting/receiving unit 224 may notify each notification target terminal 23 of the location information of the accident site received by the notification server 22 (that is, the location information of the person to be analyzed) together with the coping method.
  • the storage unit 225 stores information necessary for processing executed by the notification target detection unit 221 to the transmission/reception unit 224 . Specifically, the following information can be stored.
  • Information on predetermined organizations, individuals, and vehicles that are candidates for notification targets, and terminal information on the organizations, individuals, and vehicles that are transmission destinations of notifications associated with each information (ii) Notification target detection unit 221 specific information for identifying a predetermined individual or vehicle for detecting a notification target using video data (iii) registrant's face information for the analysis unit 222 to perform face authentication (iv) various medical devices ( For example, a list of location information provided with an AED) and setting criteria for a predetermined area (third area) that is the notification range of the location where various medical devices are present. , one or a plurality of predetermined organizations registered in advance as notification targets may be further stored.
  • the storage unit 225 may also store map information of locations where the cameras 20 managed by the notification server 22 are arranged and setting criteria for the first area. The administrator can update this information, and the notification server 22 sends updated information to the MEC server 21 when updated. Thereby, the MEC server 21 updates the information stored in the storage unit 213 .
  • FIG. 9 is a block diagram showing an example of the terminal 23.
  • the terminal 23 corresponds to the terminal 12 of (1B), and includes an output unit 231 , a transmitting/receiving unit (transceiver) 232 and a storage unit 233 . Each component of the terminal 23 will be described below.
  • the output unit 231 is an interface that notifies the user of the terminal 23 of information by text, image, voice, etc., and is composed of a display, a speaker, and the like.
  • the output unit 231 outputs to the user of the terminal 23 the coping method and the location information of the accident site that have been transmitted from the transmission/reception unit 224 of the notification server 22 to each terminal 23 .
  • the terminal 23 is a smartphone
  • the information may be displayed on its display
  • the terminal 23 is a car navigation system
  • the information may be displayed on the display.
  • the transmitting/receiving unit 232 receives the coping method and the location information of the accident site notified from the notification server 22 .
  • the terminal 23 further includes an input unit, and when the user who visually recognizes the coping method inputs content indicating that the coping method has been confirmed, the transmitting/receiving unit 232 notifies the notification server 22 that the confirmation has been completed. A notification may be sent indicating that the
  • the storage unit 233 stores information such as coping methods transmitted from the notification server 22, and also stores information necessary for operating the terminal 23.
  • FIG. 10 is a sequence diagram showing an example of typical processing of the notification system S2, and this sequence diagram explains the processing of the notification system S2. The details of the processing executed by each device are as described above. Note that FIG. 10 shows the camera 20A and the terminal 23A as examples of the camera 20 and the terminal 23, respectively, but other cameras 20 and terminals 23 also perform processing similar to the following.
  • the photographing unit 201 of the camera 20A photographs the intersection C1 (step S21), and the transmitting/receiving unit 202 transmits the photographed image data to the MEC server 21 (step S22).
  • the transmission/reception unit 212 of the MEC server 21 receives the video data transmitted in step S22.
  • Accident occurrence detection unit 211 detects the occurrence of an accident at intersection C1 based on the image data of camera 20A (step S23).
  • the transmission/reception unit 212 transmits the video data of the camera 20A involved in the accident to the notification server 22 (step S24).
  • the transmission/reception unit 224 of the notification server 22 receives the video data transmitted in step S24.
  • the notification server 22 determines a coping method for the person to be analyzed based on the received video data (step S25). Details of this will be described later.
  • the transmission/reception unit 224 of the notification server 22 transmits the determined coping method and the like to the terminal 23 (step S26).
  • the transmission/reception unit 232 of the terminal 23A receives the video data transmitted in step S26.
  • the output unit 231 of the terminal 23A outputs the coping method and the like to the user (step S27).
  • FIG. 11 is a flowchart showing an example of the processing of step S25, and the processing of the notification server 22 is explained by this flowchart.
  • the notification target detection unit 221 detects a notification target from the video data transmitted from the MEC server 21 (step S251). Also, the analysis unit 222 analyzes the video data and derives detailed information about the person to be analyzed related to the accident detected by the accident occurrence detection unit 211 of the MEC server 21 (step S252).
  • the determination unit 223 determines how to deal with the person to be analyzed (step S253).
  • the transmission/reception unit 224 notifies the notification target detected by the notification target detection unit 221 of the coping method determined in step S253 (step S254).
  • Either step S251 or S252 may be performed first.
  • the notification target may be added based on the personal information, as in the case of Hospital D described above. may be executed first. Further, the details of the processing of steps S251 to S254 are as described in the description of the notification object detection unit 221 to the transmission/reception unit 224.
  • the notification system S2 can analyze the person to be analyzed, determine the coping method, and notify the person. can.
  • the notification target detection unit 221 of the notification server 22 detects a notification target existing in the first area including the place where the accident occurred, and the transmission/reception unit 224 notifies the detected notification target of the coping method. can be done.
  • the notification server 22 detects people and vehicles existing around the accident site instead of the whistleblower, and provides information to them. Therefore, it is possible to obtain the cooperation of non-reporters around the accident site and people who are unaware of the accident (for example, people who are in the blind spot from the accident site) in responding to the injured or suddenly ill. can. Therefore, it becomes possible to increase the survival probability of the injured or the suddenly ill and to suppress the poor prognosis.
  • the notification server 22 can notify at least one of the person and the vehicle of the coping method. Therefore, it is possible for a person in the vicinity of the site or a person in the vehicle to immediately recognize the coping method and take action.
  • the determination unit 223 of the notification server 22 determines the treatment or treatment for the person to be analyzed, and the medical equipment used in the treatment or treatment, which exists in the area including the accident site, as the determination of the coping method. determining the location of the medical device to be performed. By transmitting this coping method to the notification target by the transmitting/receiving unit 224, the notification target person can take a more appropriate response to the injured person or the suddenly ill person.
  • the notification target detection unit 221 of the notification server 22 detects the notification target candidate by determining that the notification target candidate appears in the video, and the transmission/reception unit 224 detects the notification target candidate as the notification target.
  • the coping method can be notified to the associated terminal.
  • the notification server 22 can notify people present around the accident site, so that it is possible to increase the probability that an injured person or an emergency patient will be cared for.
  • the notification target may include institutions related to medical care or emergency services.
  • the determination unit 223 selects at least one of the following: treatment for the person to be analyzed, request for staff to be dispatched to the location where the accident occurred, request for acceptance of the person to be analyzed, and preparation for treatment. can be determined to be included.
  • the notification server 22 can have the injured person or the suddenly sick person treated by a medical or emergency institution, so that the injured person or the suddenly sick person can receive early or appropriate treatment at a specialized institution. Can receive.
  • the analysis unit 222 identifies the person to be analyzed from among the registrants based on the face image of the person to be analyzed appearing in the video and the authentication result of face authentication using the face information of the registrant.
  • the personal information associated with the registrant may be derived as the detailed information.
  • the determination unit 223 can determine a coping method based on the personal information. Therefore, since the notification server 22 can notify a coping method according to individual characteristics, it can be expected that a response according to the situation of the injured person or the suddenly sick person will be made.
  • Personal information may include, for example, at least one of the following: medical history, current medical history, pregnancy status, age, gender, blood type, allergy information, personal number, primary medical institution, and emergency contact information. Based on such medical-related personal information, the notification server 22 can notify detailed and accurate coping methods.
  • the transmitting/receiving unit 224 may determine a notification target based on personal information.
  • the notification server 22 can have a person or organization who knows the circumstances of the person to be analyzed take care of the person to be analyzed, so that an injured person or an emergency patient can be properly cared for.
  • the detailed information may include at least one of consciousness state, breathing state, bleeding state, bone fracture state, burn state, impact site, convulsive state, walking state, heartbeat state, pulse state, and body temperature state.
  • the notification server 22 can notify detailed and accurate coping methods.
  • the determination unit 223 determines whether the notification target is a non-medical person or their vehicle (first type candidate) or a medical person or their vehicle (second type candidate). Different coping methods (treatments or treatments) can be notified for each. Therefore, the notification server 22 can notify the person to be notified of a coping method that takes into account the expertise of the person to be notified. It is also possible to make a notice that considers the
  • the configuration and processing of the notification system S2 shown in (2A) can be changed as follows. For example, even if the notification target is a non-medical personnel vehicle, the determination unit 223 can determine the coping method in the same manner as when the notification target is a non-medical personnel.
  • the notification target detection unit 221 added Hospital D as a notification target according to the personal information acquired by the analysis unit 222, regardless of the distance from the accident site. However, the notification target detection unit 221 does not need to add the hospital D as a notification target if the hospital D is not included in the region R1 or if it is not included within a predetermined region from the accident site. Note that the predetermined area is stored in advance in the storage unit 225 as a threshold value for determination.
  • the notification target detection unit 221 may specify one or more emergency medical institutions according to the circumstances of the accident and set them as notification targets.
  • the coping method notified to the emergency medical institution includes at least one of treatment for the person to be analyzed, a request to dispatch staff to the location where the accident occurred, and a request to accept the person to be analyzed. If, in response to the notification from the transmitting/receiving unit 224, the emergency medical institution replies to the notification server 22 that it cannot be accepted, the notification target detection unit 221 will set the other emergency medical institution as a new notification target. You can reset. The transmitting/receiving unit 224 notifies the new notification target of the coping method.
  • This notification target resetting method may be based on the priority order stored in advance in the storage unit 225 .
  • the notification target detection unit 221 determines the priority based on at least one of the location information of the accident site and the detailed information acquired by the analysis unit 222 and the criteria for determining the priority stored in the storage unit 225 in advance. and may be reset based on the order of priority.
  • the notification system S2 can also be applied to situations other than this.
  • the analysis unit 222 determines that the person to be analyzed hits his/her head at the time of the accident, based on the image data captured by the cameras 20A and 20B, the determination unit 223 determines that "Don't move your head. "Things" may be included in coping methods as treatments or measures.
  • the determination unit 223 may include "requires type O blood transfusion", which is preparation for blood transfusion (preparation for treatment), in the coping method.
  • the MEC server 21 may be provided at any location on the communication path from the camera 20 to the notification server 22.
  • the MEC server 21 and camera 20 may be connected by a wired line, and the MEC server 21 may be connected to the notification server 22 via 5G wireless communication.
  • the camera 20 may be connected via 5G wireless communication to the MEC server 21 installed near the 5G base station, and the MEC server 21 and notification server 22 may be connected via a wired line.
  • the MEC server 21 instead of installing the MEC server 21 near the 5G base station, the MEC server 21 may be installed in a predetermined regional unit or in the core network (5GC) of the 5G system.
  • 5GC core network
  • the MEC server 21 By providing the MEC server 21 closer to the camera 20 on the communication path, the distance over which a series of video data output from each camera 20 flows can be shortened. Therefore, it is possible to suppress the flow of a large amount of data in the network, reduce the network load, and suppress the communication delay.
  • the MEC server 21 may be provided independently, or multiple MEC servers 21 may exist in a geographically dispersed state. Also, the MEC server 21 may include at least one of the notification target detection unit 221 , analysis unit 222 and determination unit 223 included in the notification server 22 .
  • the MEC server 21 may not be provided, the notification server 22 may include the accident occurrence detection unit 211 , and the camera 20 may directly transmit video data to the notification server 22 .
  • the MEC server 21 determines that the cameras 20C and 20D are present in the region R1, thereby determining that the video data captured by the cameras 20C and 20D is also necessary for the processing of the notification server 22. , and transmitted the video data to the notification server 22 .
  • the MEC server 21 may not execute the determination, and only the video data captured by the cameras 20A and 20B that detected the accident may be transmitted to the notification server 22 .
  • the notification target detection unit 221 of the notification server 22 uses the map information around the accident site stored in the storage unit 225 and the first area setting criteria to determine the area R1 as the first area including the accident site. set. The notification target detection unit 221 then identifies the cameras 20A to 20D as the cameras 20 that capture the region R1.
  • the notification target detection unit 221 determines that the video data captured by the cameras 20C and 20D is also necessary for notification target detection, and outputs the video data captured by the cameras 20C and 20D to the MEC server 21. request that The MEC server 21 transmits video data captured by the cameras 20C and 20D to the notification server 22 based on the request.
  • the notification target detection unit 221 performs the above-described processing using this video data.
  • (2B) (2B) describes a variation different from (2A).
  • points different from (2A) will be described, and descriptions of the same points as (2A) will be omitted as appropriate.
  • FIG. 12 is a schematic diagram showing an example of a road on which cameras 20 are installed.
  • FIG. 12 discloses a region R2 that is wider than the region R1 and includes the region R1 and the periphery of the intersection C3. The processing will be described below using this example.
  • the accident occurrence detection unit 211 of the MEC server 21 detects the occurrence of an accident from the video data captured by the cameras 20A and 20B, as shown in (2A). At this time, the accident occurrence detection unit 211 determines the region R1 as the first region including the accident site, and determines the region R2 as the second region including the accident site. Then, the accident occurrence detection unit 211 detects not only the video data captured by the cameras 20A to 20D related to the region R1, but also the video data captured by the cameras 20E and 20F related to the region R2 from time t3 to the present. to the notification server 22 via. Note that the time t3 is set in the same manner as the time t2 described above.
  • the "second area” may be a circular area with a radius of a predetermined distance longer than the "first area” from the accident site, or an area including the "first area”, It may be an area located within a predetermined time at a predetermined walking speed or vehicle speed from the site. Also, the "second area” may be a predetermined section containing the "first area” inside.
  • the accident occurrence detection unit 211 uses, for example, the position information of the detected accident site, the map information around the accident site stored in the storage unit 213, and the criteria for setting the first and second regions to determine the first and second regions. 2 regions can be set.
  • the notification target detection unit 221 detects non-medical personnel and their vehicles (first type candidates) that are notification target candidates existing in the first area, and notification target candidates existing in the second area. Medical personnel and their vehicles (second type candidates) are detected as notification targets.
  • the notification target detection unit 221 analyzes the video data captured by the cameras 20A to 20F and compares the specific information with the video data captured by the cameras 20A to 20F, thereby identifying notification targets in each video data. Determine whether it is visible or not.
  • the notification target detection unit 221 detects medical personnel NA, non-medical personnel NB, and a hospital A vehicle NC owned by C is detected. Furthermore, the notification target detection unit 221 detects the medical personnel NE as a notification target that exists in the second area and does not exist in the first area, based on the video data captured by the cameras 20E to 20F. The notification target detection unit 221 analyzes the video data captured by the cameras 20E to 20F with the specific information of medical personnel, etc., and excludes the specific information of non-medical personnel, etc., from the analysis target. It is also possible to detect the medical personnel NE and not detect the non-medical personnel NF as notification targets that exist in the first region and do not exist in the first region.
  • the notification target detection unit 221 analyzes the specific information of both medical personnel and non-medical personnel regarding the video data captured by the cameras 20E to 20F, the non-medical personnel NF detected as a result of the analysis and vehicle NG may be set as the exclusion of notification.
  • the analysis unit 222 executes the same processing as (2A).
  • the determining unit 223 decides whether the notification targets are medical personnel NA, vehicles NC, and medical personnel NE (medical personnel and their vehicles), when the notification targets are non-medical personnel NB (general people), and when notification is performed.
  • the coping method is determined separately depending on whether the target is Hospital D (medical institution) or not. This determination method is as described in (2A).
  • the transmitting/receiving unit 224 notifies the terminal 23E of the treatment information and the coping method including the information of the location of the AED existing in the predetermined area.
  • the terminal 23E is a smart phone owned by the medical personnel NE, and the contact information thereof is stored in the storage unit 225 in association with the medical personnel NE.
  • the transmitting/receiving unit 224 notifies the terminals 23A to 23C in the same manner as in (2A).
  • the transmitting/receiving unit 224 also notifies each notification target terminal 23 of the location information of the accident site received by the notification server 22 together with the coping method.
  • the notification target detection unit 221 detects that a first type candidate exists in the region R1 and that a second type candidate exists in the region R2 as notification target candidates.
  • the transmitting/receiving unit 224 can notify the first-type candidates existing in the area R1 and the second-type candidates existing in the area R2 as notification targets, and notify the coping method.
  • Medical personnel, etc. can be expected to arrive at the scene of an accident even if they are located slightly away from the scene of the accident, because it can be said that one of their duties is to rescue the injured or the suddenly ill.
  • general volunteers, etc. may not be familiar with rescue and may have other jobs, so it may not be realistic to ask for rescue when they are located slightly away from the accident site.
  • the notification server 22 changes the detection area (that is, the range for which assistance is sought) according to the attributes of the notification target, thereby increasing the possibility of helping the injured or the seriously ill. can be done.
  • the transmitting/receiving unit 224 may notify at least one of the first-type candidate existing in the region R1 and the second-type candidate existing in the region R2.
  • the first type of candidate is "non-medical personnel" and the second type of candidate is "medical personnel", but this example is not limited to this.
  • candidates of the second type may include firefighters, police officers, company staff who respond to accidents, and other persons whose job it is to go to the scene of an accident.
  • the number of candidates to be notified is not limited to two types, and three or more types may be set. More than one type may be set.
  • the predetermined area (third area) to be notified of the locations of various medical devices may be the same area as any of the plurality of detection areas set, or may be an area different from any of the detection areas. good.
  • Embodiment 3 In the third embodiment, an example will be described in which a notification target is detected by a notification server acquiring position information from a terminal possessed by a notification target candidate. In the following description, differences from the second embodiment will be described, and descriptions of the same points as the second embodiment will be omitted as appropriate.
  • FIG. 13 is a schematic diagram showing an example of a notification system.
  • the notification system S3 includes cameras 20A-20N, a MEC server 21, a notification server 32, and terminals 33A-33C, 23D. Terminals 33A to 33C are collectively referred to as terminal 33.
  • the camera 20 transmits video data to the MEC server 21, as in (2A).
  • the accident occurrence detection unit 211 of the MEC server 21 also detects the occurrence of an accident using the video data transmitted from the cameras 20A to 20N, as in (2A).
  • the transmitting/receiving unit 212 transmits to the notification server 22 together the image data of the cameras 20A and 20B that captured the intersection C1 where the accident occurred, and the location information of the accident site.
  • the MEC server 21 does not need to determine the region R1, which is the first region including the accident site, and as a result, does not need to transmit the video data captured by the cameras 20C and 20D to the notification server 22. . Therefore, the storage unit 213 does not need to store the criteria for setting the first area.
  • FIG. 14 is a block diagram showing an example of the notification server 32 according to the third embodiment.
  • the notification server 32 includes a location information acquisition unit 321 in addition to the configuration of the notification server 22 according to the second embodiment.
  • the position information acquisition unit 321 acquires the position information from the terminal 33 possessed by each notification target candidate.
  • Position information acquisition unit 321 for example GPS (Global Positioning System) or the like satellite positioning system, or using positioning technology such as indoor positioning technology terminal 33 to acquire the position information of the own terminal, from the transmission and reception unit 232 of the terminal 33 receive. This position information is updated at a predetermined timing.
  • GPS Global Positioning System
  • This position information is updated at a predetermined timing.
  • the notification target detection unit 221 detects notification target candidates existing in the first area including the accident site based on the latest position information of the terminal 33 acquired by the position information acquisition unit 321 .
  • the accident detection unit 211 sets the first area using, for example, the position information of the detected accident site, the map information around the accident site stored in the storage unit 225, and the first area setting criteria. be able to. The details of this method are as described in the second embodiment. Further, when the notification target detection unit 221 detects that a terminal associated with a notification target candidate (for example, a terminal owned by a candidate) exists in the first area, the notification target candidate exists in the first region.
  • a notification target candidate for example, a terminal owned by a candidate
  • the terminals 33A, 33B, and 33C owned by the medical personnel NA, the non-medical personnel NB, and the vehicle NC, which are candidates for notification, are located in the region R1, which is the first region. positioned.
  • terminals 33E and 33F owned by medical personnel NE and non-medical personnel NF, who are candidates for notification are located outside the region R1.
  • the notification target detection unit 221 analyzes such a positional relationship between the region R ⁇ b>1 and each terminal 33 based on the position information of the terminal 33 acquired by the position information acquisition unit 321 . Based on this analysis, the notification target detection unit 221 detects medical personnel NA, non-medical personnel NB, and vehicles NC as notification targets existing in the region R1.
  • the processing executed by the analysis unit 222 and the determination unit 223 is the same as (2A).
  • the transmitting/receiving unit 224 also notifies the terminals 33A and 33C of treatment information and coping methods including information on the locations of AEDs existing in a predetermined area, , and notifies the terminal 33B of the coping method including the information of the location of the AED existing in the predetermined area.
  • the terminals 33A and 33B are smartphones owned by medical personnel NA and non-medical personnel NB, respectively, and the terminal 33C is a car navigation system mounted on the vehicle NC.
  • the contact information of the terminals 33A, 33B, and 33C is associated with the medical personnel NA, the non-medical personnel NB, and the vehicle NC, respectively, and stored in the storage unit 225 as information of candidates for notification.
  • Other processes executed by the transmitting/receiving unit 224 are the same as (2A), so description thereof will be omitted.
  • the storage unit 225 stores information necessary for the processing executed by the notification target detection unit 221 to the transmission/reception unit 224 . However, since the notification target detection unit 221 does not detect notification target candidates from the video data of the camera, the storage unit 225 stores specific information for face authentication that identifies a predetermined individual or vehicle. No need.
  • FIG. 15 is a block diagram showing an example of the terminal 33. As shown in FIG. The terminal 33 further includes a position detector 331 in addition to the configuration of the terminal 23 according to the second embodiment.
  • the position detection unit 331 updates the position information of the terminal 33 itself at a predetermined timing using some positioning technology such as a satellite positioning system and indoor positioning technology.
  • the location detection unit 331 transmits its own location information to the notification server 32 using the transmission/reception unit 232 .
  • the timing at which the position detection unit 331 transmits the position information to the notification server 32 can be at least one of a predetermined cycle and detection of a predetermined event.
  • the predetermined event may be a change of a connected base station or a cell when the terminal 33 uses cellular radio communication such as LTE or 5G.
  • the predetermined event may be movement of the terminal 33 by a predetermined distance, a predetermined time, a request from the notification server 32, or the like.
  • the position detection unit 331 is implemented by, for example, installing a notification application in the terminal 33 and causing the control unit of the terminal 33 to operate the application. Since the processing executed by the output unit 231 to the storage unit 233 is the same as (2A), the description is omitted. As an example, when a notification application is installed in the terminal 33, the output unit 231 may display the coping method and the location information of the accident site received from the notification server 32 as a push notification on the screen.
  • the location information acquisition unit 321 acquires the location information of the terminal from the terminal 33 of the notification target candidate, and the notification target detection unit 221 detects the location information based on the location information acquired by the location information acquisition unit 321. Notification target can be detected.
  • the notification server 22 can also detect notification target candidates that are not captured by the camera 20 and notify the coping method, so that the number of notification destinations to which the coping method can be notified can be increased. Therefore, it can be expected that more people will cooperate in relief efforts.
  • two or more types of candidates to be notified may be set.
  • Two or more types of areas to be detected may be set.
  • the variations described in the second embodiment can be applied as appropriate.
  • Embodiment 4 In the fourth embodiment, an example will be described in which a terminal notified of a coping method controls whether or not to output the notified coping method. In the following description, differences from the third embodiment will be described, and descriptions of the same points as the third embodiment will be omitted as appropriate.
  • FIG. 16 is a schematic diagram showing an example of a notification system.
  • the notification system S4 includes cameras 20A-20N, an MEC server 21, a notification server 42, and terminals 43A-43C and 23D. Terminals 43A to 43C are collectively referred to as terminal 43.
  • FIG. The camera 20 and MEC server 21 perform the same processing as in the third embodiment.
  • FIG. 17 is a block diagram showing an example of the notification server 42 according to the fourth embodiment.
  • the notification server 42 includes a notification area identification unit 421 instead of the notification target detection unit 221 of the notification server 22 according to the second embodiment.
  • the notification server selects, as a notification target, those existing in a predetermined detection area from among the notification target candidates. Notify the notification target of the countermeasure method. Therefore, the notification server 42 does not need to include the notification target detection unit 221 for detecting the notification target.
  • the notification area specifying unit 421 sets the area R1 to be notified based on the location information of the accident site and the setting criteria for the first area stored in the storage unit 225 .
  • the details of this setting are as described above.
  • the analysis unit 222 of the notification server 42 executes the same processing as in the second embodiment. Further, similarly to the second embodiment, the determination unit 223 also determines when the notification target is the first type (for example, medical personnel or their vehicle) and when the notification target is the second type (for example, ordinary people). and the case of a medical institution.
  • the first type for example, medical personnel or their vehicle
  • the notification target for example, ordinary people
  • the transmitting/receiving unit 224 notifies all notification targets related to people and vehicles stored in the storage unit 225 of the coping method determined by the determination unit 223 . In this manner, the transmitting/receiving unit 224 notifies the first-type notification target including the terminals 43A and 43C of the treatment information and the coping method including the information of the location of the AED existing in the predetermined area. . Further, the transmitting/receiving unit 224 notifies the second-type notification target including the terminal 43B of the coping method including the treatment information and the information of the location of the AED existing in the predetermined area.
  • the transmission/reception unit 224 notifies the terminal 23D of the treatment for the person to be analyzed and the coping method including the request for acceptance of the person to be analyzed.
  • the notification to the first and second types of notification targets may be performed by unicast communication for each terminal, or may be performed by multicast communication for each of the first or second type of notification targets. , or by multicast communication in units of base stations or cells.
  • the transmission/reception unit 224 notifies the terminals 43A to 43C and 23D to be notified of the information on the location of the accident site and the information on the area R1 set by the notification area specifying unit 421, together with the coping method.
  • the storage unit 225 stores information necessary for the processing executed by the notification area specifying unit 421 to the transmitting/receiving unit 224 .
  • the storage unit 225 stores the following information.
  • Analysis unit 222 performs face authentication Face information of the registrant for execution
  • the method of determining the predetermined organization to which the transmitting/receiving unit 224 notifies the coping method based on the setting criteria (iv) of the first area setting criteria (i) is as described in Embodiment 2. . Further, the storage unit 225 does not need to store specific information for specifying a predetermined individual or vehicle.
  • FIG. 18 is a block diagram showing an example of the terminal 43. As shown in FIG. The terminal 43 further includes an output control unit 431 in addition to the configuration of the terminal 33 according to the third embodiment.
  • the transmitting/receiving unit 232 receives the coping method, the location information of the accident site, and the information regarding the area R1 that have been transmitted from the transmitting/receiving unit 224 of the notification server 42 to each terminal 43 .
  • the output control unit 431 compares the latest position information of the own terminal detected by the position detection unit 331 with the received information about the area R1, and determines whether the own terminal is within the area R1.
  • the output control unit 431 controls the output unit 231 to output the coping method and the location information of the accident site received from the notification server 42.
  • the output is, for example, an application push notification.
  • the user of the terminal 43 that is, the target of notification
  • the output control unit 431 controls the output unit 231 not to output the coping method and the position information of the accident site received from the notification server 42. do. Therefore, the user of the terminal 43 does not know information such as coping methods.
  • Other processes executed by the terminal 43 are the same as those in the third embodiment, so description thereof will be omitted.
  • the notification server 42 does not need to specify the notification target, so the notification server 42 can be configured more simply.
  • the coping method and the like are output for the person to be notified who is near the accident site, the coping method and the like are not output to the person to be notified who is far from the accident site. Therefore, it is possible to reduce the burden on the person to be notified who is far from the accident site.
  • two or more types of candidates to be notified may be set.
  • two or more areas to be notified may be set.
  • the notification area identification unit 421 notifies the first type notification target of the coping method based on the location information of the accident site and the setting criteria for the first and second areas stored in the storage unit 225. and a region R2 in which the coping method is notified to the notification target of the second type. If the notification target is the first type, the transmission/reception unit 224 notifies information about the region R1 together with the coping method, etc. If the notification target is the second type, the transmission/reception unit 224 notifies the coping method, etc. to notify the information about the region R2.
  • the transmitting/receiving unit 232 receives information on the coping method, the location information of the accident site, and the area R1 or R2 transmitted from the transmitting/receiving unit 224 of the notification server 42 to each terminal 43 .
  • the output control unit 431 compares the latest location information of the own terminal detected by the location detection unit 331 with the received location information of the region R1 or R2, and determines whether the own terminal is within the region R1 or R2. judge.
  • the output control unit 431 performs the above control according to the determination result.
  • the storage unit 233 of the terminal 43 may store attribute information indicating whether the terminal itself is a notification target of the first type or the second type.
  • the output control unit 431 may determine which of the region R1 and the region R2 is to be used in the above-described determination regarding the position of the own terminal. As a result, for example, coping methods are output to the terminals of medical personnel even if they are some distance from the accident site, while coping methods are not output to the terminals of volunteers, etc., if they are some distance from the accident site. can be made
  • the notification server 42 does not have to include the notification area specifying unit 421.
  • the transmitting/receiving unit 224 notifies each notification target terminal 43 of the location information of the accident site and the criteria for setting the first area together with the coping method.
  • the output control unit 431 sets the notification target area R1 based on the received positional information of the accident site and the criteria for setting the first area. Then, the latest location information of the own terminal detected by the location detection unit 331 is compared with the location information of the area R1 to determine whether or not the own terminal is within the area R1. Even in this way, it is possible to prevent output of coping methods and the like for a person to be notified who is far from the accident site.
  • the setting criteria for the first area may be stored in advance in the storage unit 233 of the terminal 43 .
  • the transmitting/receiving unit 224 does not need to notify the terminal 43 of the setting criteria for the first area together with the coping method and the location information of the accident site.
  • Embodiment 4 For other variations of Embodiment 4, those described in Embodiments 2 and 3 can be applied as appropriate.
  • Embodiment 5 (5A) In Embodiment 5, an example will be described in which a notification server uses a network configuration to notify a notification target near the accident site of a coping method. In the following description, differences from the second embodiment will be described, and descriptions of the same points as the second embodiment will be omitted as appropriate.
  • the notification system according to Embodiment 5 is as shown in FIG. 4, and the configuration of each device according to FIG. 4 is as shown in FIGS.
  • the notification server 22 executes processing different from that of the second embodiment as follows.
  • the notification target detection unit 221 identifies one or more base stations that include the location of the accident site within its own cell.
  • the notification target detection unit 221 performs this identification by comparing the location information covered by the cell of each base station, which is associated with the identification information of each base station, and the location of the accident site.
  • the location information covered by the cell of each base station may be stored in the storage unit 225, or may be stored in another database or the like and may be acquired by the notification target detection unit 221 and used. good. Accordingly, the notification target detection unit 221 detects notification targets by setting all terminals under the specified base station as notification targets.
  • the analysis unit 222 executes the same processing as in the second embodiment.
  • the determining unit 223 determines the coping method for the first type candidate (non-medical personnel) and the second type candidate (medical concerned parties)
  • the determination unit 223 may include either one of the first-type candidate coping method and the second-type candidate coping method in the coping method. The details are as described in the fourth embodiment. Also, when the target of notification is the hospital D, the determination unit 223 determines the coping method as described in the second embodiment.
  • the transmitting/receiving unit 224 notifies all terminals under the control of the base station specified by the notification target detecting unit 221 of the coping method determined by the determining unit 223 and the location information of the accident site by broadcast communication or multicast communication.
  • broadcast communication or multicast communication for example, eMBMS (evolved Multimedia Broadcast Multicast System) or SC-PTM (Single Cell Point To Multipoint) for LTE network, FeMBMS (Further evolved Multimedia Broadcast Multicast Service) for 5G network may As for the hospital D, which is the notification target, as described in the second embodiment, the coping method and the location information of the accident site are notified.
  • the storage unit 225 stores information necessary for processing executed by the notification target detection unit 221 to the transmission/reception unit 224 . Specifically, the following information is stored.
  • Information on a predetermined institution that is a candidate for notification, and terminal information on the institution that is the destination of the associated notification (i) Face information of the registrant for the analysis unit 222 to perform face authentication ( iii) A list of location information where various medical devices (e.g., AEDs) are installed, and criteria for setting a predetermined region (third region) to be notified of locations where various medical devices are present
  • the storage unit 225 may store location information covered by the cell of each base station and map information of locations where the cameras 20 managed by the notification server 22 are arranged.
  • the terminal 23 that has received the coping method and the location information of the accident site from the notification server 22 outputs the information to a display or the like, as described in the second embodiment.
  • the notification server 22 can notify many and unspecified users having terminals under the control of the base station of the countermeasures and the like. Therefore, it is possible to increase the probability that an injured person or an emergency patient will be rescued.
  • one or more base stations specified by the notification target detection unit 221 are macrocell base stations having the largest cell size, and smaller cell sizes (for example, microcells, picocells, femtocells). Either of the base stations or both of them may be included.
  • the notification target detection unit 221 may specify not only the base station containing the location of the accident site within its own cell, but also the nearby base stations such as adjacent base stations. For other variations as well, those described in the previous embodiments can be applied as appropriate.
  • the notification target detection unit 221 does not set all terminals under the specified base station as the notification target, but rather detects the service provided by a specific mobile communication carrier (communication carrier) under the base station. It is also possible to acquire the information of the terminal that provides the information and detect that terminal as a notification target.
  • the HSS Home Subscriber Server
  • the MME Mobility Management Entity
  • the notification target detection unit 221 can acquire information on terminals that are under the control of a specific base station and that are provided with services by a specific communication carrier.
  • UDM Unified Data Management
  • AMF Access and Mobility Management
  • NEF Network Exposure Function
  • the analysis unit 222 and the determination unit 223 execute the same processing as (5A).
  • the transmitting/receiving unit 224 notifies all the terminals specified by the notification target detecting unit 221 of the coping method determined by the determining unit 223 and the location information of the accident site.
  • This notification method may be communication by unicast, or may use an emergency call system or the like in a mobile network.
  • the notification server 22 can notify an unspecified number of users with terminals under the control of the base station of the countermeasures and the like.
  • a first type of notification target is, for example, non-medical personnel
  • a second type of notification target is, for example, medical personnel.
  • FIG. 19 shows a configuration example of a cell of a base station for explaining areas to be notified.
  • the notification target detection unit 221 identifies the base station A that includes the location of the accident site within the cell A of its own station.
  • the notification target detection unit 221 identifies cells B to G adjacent to cell A, and determines base stations B to G (base stations located in the vicinity of base station A) constituting the respective cells. further specify.
  • the notification target detection unit 221 uses the location information covered by the cell of each base station to perform this base station identification process.
  • the storage unit 225 stores identification information of terminals of the first type and second type candidates, and types of notification targets (information indicating whether the notification targets are the first type or the second type). is stored. Furthermore, in the storage unit 225, setting criteria for the first area, which is an area in which the first type of candidate is notified of the coping method, and a second area, which is an area in which the second type of candidate is notified of the coping method, are stored. Region setting criteria are also stored.
  • the notification target detecting unit 221 detects, as a first type of candidate, the terminals that are candidates accommodated in the cell A and stored in the storage unit 225 as notification targets, while the second type of candidates is the cell A to
  • the candidate terminals stored in G and stored in the storage unit 225 are subject to notification.
  • the notification target detection unit 221 uses the setting criteria for each area to identify cell A as the first area and cells A to G as the second area.
  • the notification target detection unit 221 acquires identification information (for example, a telephone number) of a terminal connected to each base station from an LTE or 5G network device.
  • the notification target detection unit 221 uses the acquired identification information of each terminal to determine whether the information of each terminal is stored in the storage unit 225, and if so, what type of notification target the terminal is. identify.
  • the notification target detection unit 221 notifies the first type candidate terminal accommodated in cell A and the second type candidate terminal accommodated in cell B based on the specified notification target type. It can be detected as a target.
  • the method of notifying these notification targets of the coping method is as described above.
  • the notification target detection unit 221 can perform similar processing not only in (5A) but also in (5B).
  • the notification target detection unit 221 acquires identification information of a terminal that is under the control of a specific base station and is provided with a service by a specific communication carrier, and the terminal indicated by the identification information Identify what the target type is. Accordingly, the notification target detection unit 221 can detect each type of candidate terminal as a notification target.
  • those described in the second to fourth embodiments can be appropriately applied.
  • Embodiment 6 (6A) In Embodiments 2 to 4, when a coping method is notified by unicast communication, the notification server 22 determines whether the candidate terminal to be notified is owned by an individual or mounted in a vehicle. The area treated as a notification target may be changed according to.
  • non-medical personnel and their vehicles are detected as notification targets by the notification target detection unit 221 when they are located within the region R1, but are located outside the region R1. In some cases, it was not detected as a notification target. However, even when the non-medical personnel's vehicle is located within a predetermined area wider than the area R1, the notification target detection unit 221 may detect the candidate as a notification target. If the area R2 (see FIG. 12) is set as a detection area for vehicles of non-medical personnel, the notification target detection unit 221 can also detect vehicle NG as a detection target.
  • the notification target detection unit 221 detects the vehicle as a notification target. You can Whether the notification target candidate is an individual or a vehicle is included in the terminal information of the notification target candidate stored in the storage unit 225 .
  • the storage unit 225 also stores detection area setting criteria when the notification target candidate is a vehicle. The notification target detection unit 221 can use these pieces of information to set the detection area and detect the notification target.
  • the notification target detection unit 221 detects a detection area related to the vehicle of the medical personnel, a detection area related to the vehicle of the non-medical personnel, a detection area related to the individual medical personnel, and a detection area related to the individual non-medical personnel.
  • a wide detection area may be set in the order of . In this order, the order of the "detection area related to vehicle of non-medical personnel" and the “detection area related to individual medical personnel" may be reversed, or both may be areas of the same size.
  • the notification server 22 can change and set the detection area depending on whether the notification target candidate is an individual or a vehicle. If the person to be notified is in a vehicle that can move faster than on foot, it is expected that the person will be in time to rescue the injured or the suddenly ill even if the person is some distance away from the accident site. Therefore, by setting the detection area of the terminal installed in the vehicle to be wider than that of the terminal owned by an individual, it is possible to obtain the cooperation of more people.
  • the detection area was changed according to whether the notification target was an individual or a vehicle, but it is also possible to divide the notification target candidates into three or more types and set the detection area for each.
  • the notification target detection unit 221 may divide the detection target candidates into individuals, bicycles, and automobiles, and may set the detection area to be wider toward the end.
  • the same detection region may be set regardless of whether the notification target candidate is a non-medical person or a medical person. The same is true when the notification target candidate is a vehicle.
  • the “first type of candidate” may be an individual
  • the “second type of candidate” may be a vehicle.
  • the location information acquisition unit 321 of the notification server 32 may generate a movement history of the user of the terminal (that is, the notification target candidate) based on the location information acquired at a predetermined timing. Based on this movement history, the notification target detection unit 221 may analyze the means of transportation (walking, automobile, etc.) and average speed of candidates for notification, and set the detection area based on this.
  • the notification target detection unit 221 detects that the terminal NH owned by a certain medical person H has an average speed of 30 km/h during the period from the present (when this process of the notification target detection unit 221 is executed) to a predetermined past timing. based on its movement history.
  • the storage unit 225 stores "15 km/h" as the threshold value of the average speed.
  • the notification target detection unit 221 determines that the average speed of the terminal NH is equal to or higher than the threshold, and thus estimates that the terminal NH (that is, the medical personnel H) is moving by car. Therefore, the notification target detection unit 221 can set the detection area of the terminal NH to a wider area for vehicles than the area R2 for individual medical personnel.
  • the notification target detection unit 221 determines that the terminal NH is moving at an average speed of 5 km/h during the period from the present to the predetermined past timing, the average speed of the terminal NH is less than the threshold. judge. In this case, the notification target detection unit 221 presumes that the terminal NH is moving on foot, and sets the detection region of the terminal NH to the region R2 for individual medical personnel. It should be noted that the notification target detection unit 221 can change the detection area with the same logic for terminals owned by non-medical personnel and terminals provided in vehicles.
  • the notification server 22 can widen and set the detection area when the notification target candidate is in a state in which it is easy to move, that is, in a state in which it can move quickly. Therefore, it is possible to obtain the cooperation of more people for relief.
  • the detection area may be changed in three steps or more instead of in two steps.
  • the same detection area may be set regardless of whether they are non-medical personnel or medical personnel.
  • the notification device 10 according to Embodiment 1 or the notification server according to Embodiments 2 to 6 provides detailed information (information on the body condition of the person to be analyzed, at least part of personal information, etc.) may be notified to the notification target terminal together with the coping method described above. Further, instead of or in addition to the detailed information, the image of the analysis target person captured by the camera may be notified to the notification target terminal together with the coping method as a still image or moving image. As a result, the user who visually recognizes the terminal can know the condition of the person to be analyzed, so that more appropriate relief can be provided.
  • the notification device 10 according to Embodiment 1 or the notification server according to Embodiments 2 to 6 further sends a questionnaire asking detailed information about the accident (for example, eyewitness information) to the terminal that notifies the coping method. You can send it.
  • the notification device 10 or the notification server can store detailed information on the accident by receiving the answers to the questionnaire from the terminals. This information can be shared with various places related to relief, such as the hospital to which the person to be analyzed has been transported, emergency response departments, fire departments, and police.
  • the analysis unit 222 based on at least one of the degree of injury or illness of the person to be analyzed and the number of persons to be analyzed (injured or suddenly ill), The severity of the accident may be determined.
  • the notification target detection unit 221 can change the detection area based on the severity.
  • the storage unit 225 may store "four people" as the threshold for the severity of the accident.
  • the analysis unit 222 determines that there is one person injured in the accident, the number of injured people in the accident is less than the threshold, so the analysis unit 222 determines the severity of the accident to be "low.” .
  • the notification target detection unit 221 leaves the detection region as the region R1.
  • the notification target detection unit 221 sets the detection area as a predetermined area (for example, area R2) wider than area R1.
  • Similar processing can be performed in the third embodiment.
  • the notification target detection unit 221 detects the plurality of detection regions. A similar process can be performed for at least one based on the severity of the accident.
  • the notification target detection unit 221 detects one or more base stations that include the location of the accident site within its own cell. Identify.
  • the notification target detection unit 221 detects not only the base station containing the location of the accident site within its own cell but also the one adjacent to it. Alternatively, nearby base stations, such as multiple base stations (eg, macrocell base stations), are also of particular interest.
  • the notification target detection unit 221 can change the detection area based on the severity of the accident, so the higher the severity of the accident, the more collaborators can be gathered. Therefore, it is possible to increase the probability that an appropriate initial response will be taken even for a serious accident.
  • the severity of the accident may be determined in three or more stages, and the detection area may be changed in three or more stages accordingly.
  • the notification target detection unit 221 widens the detection area from the initial detection area, and detects a new target detection area.
  • a notification target candidate may also be detected as a new notification target.
  • a predetermined threshold used for this determination is stored in the storage unit 225 .
  • the notification target detection unit 221 can continue to repeat the process of expanding the detection area until the number of existing notification targets reaches or exceeds a predetermined threshold.
  • the notification target detection unit 221 performs this processing even when the notification target is specified by any of the methods described in each embodiment, that is, the video data from the camera, the position information from the terminal 23, or the base station information. can be executed.
  • the notification server 22 can reliably secure personnel who can participate in the initial response to the accident.
  • the notification device 10 may notify coping methods to terminals other than individual, vehicle, and institution terminals.
  • the notification server 22 displays the accident site based on the position information of the accident site and the map information indicating the positions of one or more digital signage terminals stored in the storage unit 225.
  • the coping method for the first type of notification target (non-medical personnel) and the location information of the accident site may be notified to the digital signage terminals within a predetermined area including.
  • the digital signage terminal Upon receipt of the notification, the digital signage terminal outputs information on how to deal with the accident and the location of the accident site on the screen or by voice. By recognizing the digital signage terminal, the passerby is expected to take the initial response to the injured or the suddenly ill.
  • the predetermined area may be stored in the storage unit 225 .
  • this notification to the digital signage terminal may be made when the notification targets of individuals and vehicles existing in the detection area initially set by the notification target detection unit 221 are less than a predetermined threshold. Moreover, based on the severity of the accident determined by the analysis unit 222, the predetermined area including the digital signage terminals to be notified can be expanded as the severity increases.
  • the notification server 22 may notify the coping method and the location information of the accident site using the disaster prevention radio speaker in the same manner as the example of the digital signage terminal. From the speaker, information about the coping method and the location of the accident site is output to people in the vicinity by voice.
  • the notification target detection unit 221 may exclude notification target candidates that satisfy a certain condition from the notification targets based on the map information stored in the storage unit 225 .
  • the notification target candidate who exists in the vicinity of the accident site is on a highway or on a train track (i.e., the notification target is on a train). in the vehicle), the person to be notified cannot immediately rush to the scene of the accident.
  • the notification target detection unit 221 detects such a case by referring to the information on the location of the notification target candidate from the map information, and removes the notification target candidate from the notification target selection.
  • the transmission/reception unit 224 stores the information of the parking space near the accident site in the map information stored in the storage unit 225. It may be extracted based on the information and notified to the terminal 23 of the vehicle together with the coping method. As a result, when the user of the vehicle approaches the site of the accident, the user can immediately stop the vehicle and head to the site of the accident, thereby enabling quicker aid.
  • this disclosure has been described as a hardware configuration, but this disclosure is not limited to this.
  • This disclosure implements the processing (steps) of the device (any of the notification device, notification server, MEC server, camera, and terminal) described in the above embodiments by causing a processor in a computer to execute a computer program. It is also possible to
  • FIG. 20 is a block diagram showing a hardware configuration example of an information processing device (signal processing device) in which the processing of each embodiment described above is executed.
  • this information processing device 90 includes a signal processing circuit 91 , a processor 92 and a memory 93 .
  • the signal processing circuit 91 is a circuit for processing signals under the control of the processor 92 .
  • the signal processing circuit 91 may include a communication circuit that receives signals from the transmitting device.
  • the processor 92 reads out software (computer program) from the memory 93 and executes it, thereby performing the processing of the device described in the above embodiment.
  • software computer program
  • the processor 92 one of CPU (Central Processing Unit), MPU (Micro Processing Unit), FPGA (Field-Programmable Gate Array), DSP (Demand-Side Platform), and ASIC (Application Specific Integrated Circuit) is used. may be used, or a plurality of them may be used in parallel.
  • the memory 93 is composed of a volatile memory, a nonvolatile memory, or a combination thereof.
  • the number of memories 93 is not limited to one, and a plurality of memories may be provided.
  • the volatile memory may be RAM (Random Access Memory) such as DRAM (Dynamic Random Access Memory) or SRAM (Static Random Access Memory).
  • the non-volatile memory may be, for example, ROM (Random Only Memory) such as PROM (Programmable Random Only Memory), EPROM (Erasable Programmable Read Only Memory), or SSD (Solid State Drive).
  • the memory 93 is used to store one or more instructions.
  • one or more instructions are stored in memory 93 as a group of software modules.
  • the processor 92 can perform the processing described in the above embodiments by reading out and executing these software module groups from the memory 93 .
  • the memory 93 may include, in addition to being provided outside the processor 92, one built into the processor 92.
  • the memory 93 may include storage located remotely from the processors that make up the processor 92 .
  • the processor 92 can access the memory 93 via an I/O (Input/Output) interface.
  • processors included in each device in the above-described embodiments execute one or more programs containing instructions for causing a computer to execute the algorithms described with reference to the drawings. .
  • the signal processing method described in each embodiment can be realized.
  • Non-transitory computer readable media include various types of tangible storage media.
  • Examples of non-transitory computer-readable media include magnetic recording media (e.g., flexible discs, magnetic tapes, hard disk drives), magneto-optical recording media (e.g., magneto-optical discs), CD-ROMs (Read Only Memory), CD-Rs, CD-R/W, semiconductor memory (eg mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)).
  • the program may also be delivered to the computer on various types of transitory computer readable medium. Examples of transitory computer-readable media include electrical signals, optical signals, and electromagnetic waves. Transitory computer-readable media can deliver the program to the computer via wired channels, such as wires and optical fibers, or wireless channels.
  • the notification device according to appendix 1.
  • the notification target detection means detects that a first type candidate, which is a notification target candidate, exists in the first region, and that a second type candidate, which is a notification target candidate, is in the first region. Detecting the presence in a second area that is wider than the first area and includes the location where the accident occurred; The notification means detects the first type candidate existing in the first area detected by the notification object detection means, and the second type candidate existing in the second area detected by the notification object detection means. Notifying the coping method with at least one of the types of candidates as the notification target, The notification device according to appendix 2. (Appendix 4) The notification target includes at least one of a person and a vehicle, The notification device according to appendix 2 or 3.
  • the determination means determines the treatment or treatment for the person to be analyzed as the determination of the coping method, and the medical device used in the treatment or treatment, which includes the location where the accident occurred. perform at least one of the determination of the location of medical devices present in the area of
  • the notification means includes at least one of the determined treatment or treatment and the location of the identified medical device in the coping method and notifies the notification target. 5.
  • the notification device according to any one of appendices 2 to 4.
  • the notification target detection means detects the notification target candidate as the notification target by determining that the notification target candidate appears in the video, The notification means notifies the terminal associated with the notification target detected by the notification target detection means of the coping method.
  • the notification device according to any one of appendices 2 to 5.
  • (Appendix 7) Further comprising location information acquisition means for acquiring location information of the terminal from the terminal possessed by the notification target candidate, The notification target detection means detects the notification target based on the position information acquired by the position information acquisition means, The notification means notifies the terminal of the notification target detected by the notification target detection means of the coping method.
  • the notification device according to any one of appendices 2 to 5.
  • the notification target detection means detects the notification target by specifying one or a plurality of base stations including the location where the accident occurred within its cell, and The notification means notifies the terminal of the notification target detected by the notification target detection means of the coping method.
  • the notification device according to any one of appendices 2 to 5.
  • the notification target includes at least medical or emergency institutions,
  • the decision means decides the coping method so as to include at least one of a treatment for the person to be analyzed, a request to dispatch staff to the location where the accident occurred, a request to accept the person to be analyzed, and preparation for treatment. decide and
  • the notification means notifies the organization of the coping method,
  • the notification device according to appendix 1 or 2.
  • the analysis means identifies the person to be analyzed from among the registrants based on the face image of the person to be analyzed appearing in the video and the result of face authentication using the face information of the registrant. and derive personal information associated with the registrant as the detailed information,
  • the determining means determines the coping method based on the personal information.
  • the notification device according to any one of appendices 1 to 9.
  • the personal information includes at least one of medical history, current medical history, pregnancy status, age, gender, blood type, allergy information, personal number, family medical institution, and emergency contact information.
  • the notification device according to appendix 10.
  • the notification means determines the notification target based on the personal information, and notifies the determined notification target.
  • the notification device according to appendix 10 or 11.
  • the detailed information includes at least one of consciousness state, respiratory state, bleeding state, fracture state, burn state, impact site, convulsive state, walking state, heartbeat state, pulse state and body temperature state, 13.
  • the notification device according to any one of appendices 1 to 12.
  • the notification device accident occurrence detection means for detecting the occurrence of an accident from images captured by the one or more cameras; analysis means for analyzing the video and deriving detailed information about the person to be analyzed related to the accident; determining means for determining a method of dealing with the person to be analyzed based on the detailed information; a notification means for notifying the one or more terminals of the determined coping method.
  • the one or more cameras are provided at least one of a traffic light, a roadside machine, an intersection and a railroad crossing, 15. The notification system of clause 14.
  • Notification device 101 Accident detection unit 102 Analysis unit 103 Determination unit 104 Notification unit 11 Camera 12 Terminal 20

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Gerontology & Geriatric Medicine (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Environmental & Geological Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Alarm Systems (AREA)

Abstract

本開示の一実施の形態にかかる通知装置(10)は、1又は複数のカメラで撮影された映像から事故の発生を検知する事故発生検知部(101)と、映像を分析して、事故に係る分析対象人物の詳細情報を導出する分析部(102)と、詳細情報に基づいて、分析対象人物への対処方法を決定する決定部(103)と、決定された対処方法を通知対象に通知する通知部(104)を備える。これにより、例えば負傷者や急病人といった分析対象人物に対する迅速な初動対応を実現させることができる。

Description

通知装置、通知システム、通知方法及び非一時的なコンピュータ可読媒体
 本発明は通知装置、通知システム、通知方法及び非一時的なコンピュータ可読媒体に関する。
 事故が発生した場合に、事故の発生を検知してそれに対処する技術が考えられている。
 例えば、特許文献1には、入力された音響データが交通事故によるものである場合に、音響データ及び映像データをデータ記録装置に一時的に記録し、その記録されたデータに基づいて交通事故を分類し、解析する記録・解析システムが開示されている。
 また、特許文献2には、通報者の端末から救急要請があった場合に、救急の対象となる患者の状態に基づいて、救急要請を行った通報者に送信すべきコンテンツの候補を選定するコンテンツ生成装置が開示されている。
 また、特許文献3には、特定の人が医学的問題を有するという通報があった場合に、その特定の人の現在地を特定し、現在地周辺地域にいる登録ユーザに対して、特定の人の位置を通報するシステムが開示されている。
国際公開第2005/101346号 特開2019-101983号公報 特開2016-096574公報
 本開示の目的は、例えば負傷者や急病人といった分析対象人物に対する迅速な初動対応を実現させることが可能な通知装置、通知システム、通知方法及び非一時的なコンピュータ可読媒体を提供することである。
 本実施形態にかかる一態様の通知装置は、1又は複数のカメラで撮影された映像から事故の発生を検知する事故発生検知手段と、映像を分析して、事故に係る分析対象人物の詳細情報を導出する分析手段と、詳細情報に基づいて、分析対象人物への対処方法を決定する決定手段と、決定された前記対処方法を通知対象に通知する通知手段を備える。
 本実施形態にかかる一態様の通知システムは、1又は複数のカメラと、1又は複数のカメラと接続された通知装置と、通知装置から通知を受信する1又は複数の端末を備え、通知装置は、1又は複数のカメラで撮影された映像から事故の発生を検知する事故発生検知手段と、映像を分析して、事故に係る分析対象人物の詳細情報を導出する分析手段と、詳細情報に基づいて、分析対象人物への対処方法を決定する決定手段と、決定された対処方法を1又は複数の端末に通知する通知手段を有する。
 本実施形態にかかる一態様の通知方法は、1又は複数のカメラで撮影された映像から事故の発生を検知する事故発生検知ステップと、映像を分析して、事故に係る分析対象人物の詳細情報を導出する分析ステップと、詳細情報に基づいて、分析対象人物への対処方法を決定する決定ステップと、決定された対処方法を通知対象に通知する通知ステップを通知装置が実行するものである。
 本実施形態にかかる一態様の非一時的なコンピュータ可読媒体は、1又は複数のカメラで撮影された映像から事故の発生を検知する事故発生検知ステップと、映像を分析して、事故に係る分析対象人物の詳細情報を導出する分析ステップと、詳細情報に基づいて、分析対象人物への対処方法を決定する決定ステップと、決定された対処方法を通知対象に通知する通知ステップをコンピュータに実行させるプログラムが格納されているものである。
 本開示によれば、例えば負傷者や急病人といった分析対象人物に対する迅速な初動対応を実現させることが可能な通知装置、通知システム、通知方法及び非一時的なコンピュータ可読媒体を提供することができる。
実施の形態1にかかる通知装置の一例を示すブロック図である。 実施の形態1にかかる通知装置が実行する処理の一例を示すフローチャートである。 実施の形態1にかかる通知システムの一例を示す概略図である。 実施の形態2にかかる通知システムの一例を示す概略図である。 実施の形態2にかかるカメラの一例を示すブロック図である。 実施の形態2にかかるカメラが設けられている道路の例を示す概略図である。 実施の形態2にかかるMECサーバの一例を示すブロック図である。 実施の形態2にかかる通知サーバの一例を示すブロック図である。 実施の形態2にかかる端末の一例を示すブロック図である。 実施の形態2にかかる通知システムの代表的な処理の一例を示したシーケンス図である。 実施の形態2にかかる通知サーバが実行する処理の一例を示すフローチャートである。 実施の形態2にかかるカメラが設けられている道路の例を示す概略図である。 実施の形態3にかかる通知システムの一例を示す概略図である。 実施の形態3にかかる通知サーバの一例を示すブロック図である。 実施の形態3にかかる端末の一例を示すブロック図である。 実施の形態4にかかる通知システムの一例を示す概略図である。 実施の形態4にかかる通知サーバの一例を示すブロック図である。 実施の形態4にかかる端末の一例を示すブロック図である。 実施の形態5にかかる基地局のセルの構成例を示す概略図である。 各実施の形態にかかる装置のハードウェア構成の一例を示すブロック図である。
 実施の形態1
 (1A)
 以下、図面を参照して本開示の実施の形態1について説明する。この(1A)では、事故の発生を検出して、通知対象に通知する通知装置について説明する。
 図1は、通知装置の一例を示すブロック図である。通知装置10は、事故発生検知部101、分析部102、決定部103及び通知部104を備える。通知装置10の各部(各手段)は、不図示の制御部(コントローラ)により制御される。以下、各構成要素について説明する。
 事故発生検知部101は、1又は複数のカメラで撮影された映像から事故の発生を検知する。なお、本開示において「事故」とは、偶発的か意図的かを問わず、負傷者又は急病人が発生した出来事(incident)を意味するものであり、例えば、車と人との事故、人同士の事故、車同士の事故、急激な病状の悪化等を含むが、これらに限られるものではない。事故発生検知部101は、事故を検知した場合に、衝突事故、火事、持病の悪化といった事故の種類を判定しても良い。また、「映像」は、動画、静止画のいずれのデータであっても良い。
 1又は複数のカメラは、任意の場所に設けられても良い。複数のカメラが設けられる場合には、例えば、ある所定の場所を複数のカメラが別方向から撮影しても良いし、複数のカメラが、それぞれ別の場所を撮影しても良い。事故発生検知部101は、1又は複数のカメラで撮影された映像を分析することにより、1又は複数の場所において事故が発生したことを検知する。カメラは、可視光カメラ、赤外線カメラ及びサーモカメラ等の1以上の種類のカメラを任意に組み合わせて用いてもよい。なお、事故発生検知部101は、事故の発生を撮影したと判断されたカメラの位置、及び、映像データ中で事故が発生した範囲の少なくともいずれかに基づいて、事故現場の位置を特定しても良い。
 分析部102は、事故発生検知部101が事故の発生を検知した場合に、事故が発生したことを検知した映像を分析することにより、事故によって生じた負傷者又は急病人(以下、分析対象人物)の詳細情報を導出する。なお、分析部102は、事故が発生したことを検知した映像の代わりに、または事故が発生したことを検知した映像に加えて、事故現場の位置を撮影範囲に含む映像を分析し、分析対象人物の詳細情報を導出してもよい。分析部102は、事故発生検知部101が事故の発生を検知したタイミング周辺から、分析処理を行う時に至るまでの期間中のカメラの映像データ、又は、1若しくは複数のタイミングにおけるカメラの撮影映像に基づいて、この詳細情報を導出する。詳細情報は、例えば、分析対象人物の体の状態に関する情報、事故の分析対象人物の個人情報の少なくともいずれかを示すものであるが、これらに限られない。
 分析対象人物の体の状態に関する情報は、一例として、分析対象人物の意識状態、呼吸状態、出血状態、骨折状態、火傷状態、強打部位、痙攣状態、歩行状態、心拍状態、脈拍状態及び体温状態の少なくともいずれかを含む。具体的には、意識状態は、意識の有無及び混濁度合いの少なくともいずれかを示し、呼吸状態は、呼吸の有無及び正常度合いの少なくともいずれかを示し、出血状態は、出血の有無、箇所及び程度の少なくともいずれかを示し、骨折状態は、骨折の有無、箇所及び程度の少なくともいずれかを示しても良い。また、火傷状態は、火傷の有無、箇所及び程度の少なくともいずれかを示し、強打部位は、強打をした箇所及びその程度の少なくともいずれかを示し、痙攣状態は、痙攣の有無及び程度の少なくともいずれかを示し、歩行状態は、歩行のふらつき度合い及び正常度合いの少なくともいずれかを示し、心拍状態は、心拍の有無、回数及び正常度合いの少なくともいずれかを示し、脈拍状態は、脈拍の有無、回数及び正常度合いの少なくともいずれかを示しても良い。また、体温状態は、発熱の有無、温度及び箇所の少なくともいずれかを示してもよい。
 分析部102は、分析対象人物自体の映像に基づいて、直接的又は間接的にこの詳細情報を導出しても良い。例えば、分析部102は、映像における分析対象人物の出血の様子から出血状態を直接的に判定することで、詳細情報を導出することができる。他の例では、分析対象人物の外傷の様子がなくとも、足をひきずり、分析対象人物の顔に苦痛の表情が浮かんでいる場合に、分析部102は、分析対象人物が足を骨折又は打撲していることを間接的に推定して、詳細情報を導出することができる。
 また、分析部102は、分析対象人物自体の映像だけでなく、事故の発生の様子を示したそれ以外の映像も用いて、この詳細情報を導出しても良い。例えば、分析対象人物を撮影したカメラあるいはそれとは別のカメラで、爆発事故に伴って物体が散乱した様子が捉えられた場合に、分析部102は、その事故の発生の様子を分析して、分析対象人物が爆風を受けた又は爆風によって飛ばされた物体に当たったことを判定し、分析対象人物に出血、骨折、打撲の少なくともいずれかの負傷が生じたことを推定することができる。
 さらに、分析部102は、事故発生検知部101が判定した事故の種類の情報、予め登録された、事故を撮影したカメラが設けられた地域の属性といった他の情報もさらに用いて、この詳細情報を導出しても良い。例えば、事故発生検知部101が、事故が火事であることを判定した場合に、分析部102は、映像の分析にその情報を考慮に入れた上で、分析対象人物が火傷をしていることを判定することができる。
 さらに、分析部102は、正確な詳細情報を導出するために、映像を撮影するカメラを制御してもよい。例えば、空間的または時間的な撮影分解能を高めるために、撮影倍率を高める、解像度を高める、フレームレートを高める、量子化ビット数を高める、ビットレートを高めるなどの制御をカメラに行ってもよい。これにより、カメラは、分析対象人物の状態を、より鮮明に撮影できるようになる。また、分析対象人物または分析対象人物の特定部位を撮影範囲に収めるように、カメラのカメラアングルを制御してもよい。
 また、詳細情報の他の例は、事故の分析対象人物の個人情報でも良い。分析部102は、事故が発生した映像に映っている分析対象人物の顔画像と、登録者の顔情報とを用いた顔認証の認証結果に基づいて、分析対象人物を登録者の中から特定し、登録者に関連付けられた個人情報を詳細情報として導出しても良い。個人情報は、既往歴、現病歴、妊娠の有無、年齢、性別、血液型、アレルギー情報、個人番号、かかりつけ医療機関、及び緊急連絡先の少なくともいずれかを含むものであるが、これらに限定されない。
 なお、上述の処理において、分析部102が、分析対象人物の顔画像と、登録者の顔情報とを用いた顔認証を実行しても良い。又は、分析部102が、通知装置10以外の他の装置が実行した顔認証の認証結果を取得することにより、分析対象人物を登録者の中から特定しても良い。ここで、個人情報は、他の装置に格納されたものを認証結果とともに分析部102が取得しても良いし、認証結果に基づいて、通知装置10の記憶部に格納された個人情報の中から分析部102が特定することにより、取得しても良い。なお、認証に顔を用いるのは一例であって、その他の生体認証技術を用いてもよい。例えば、分析部102は、身体的特徴の一種である虹彩を用いて認証してもよいし、行動的特徴の一種である歩容を用いて認証してもよいし、2以上の生体認証技術を任意に組み合わせて認証してもよい。
 決定部103は、分析部102が導出した詳細情報に基づいて、映像に映っている分析対象人物への対処方法を決定する。対処方法は、分析対象人物の負傷又は病気に対する手当(first aid)、処置(procedure)、その他の行動のうち、少なくともいずれか1つが含まれる。本開示において「手当」とは、一般人でも実施可能な分析対象人物のための救命手当及び応急手当を含む概念を示し、「処置」とは、医者や救急隊員等のスペシャリストが実施可能な分析対象人物のための医療的な処置のことを示す。特定の負傷又は病気に対する「手当」と「処置」は、全く異なる対応であっても良いし、少なくとも両者の一部の内容が重複しても良い。また、「その他の行動」とは、救急車の要請、事故が発生した場所(事故現場)へのスタッフの派遣要請、分析対象人物の受け入れ要請、処置の準備、及び所定の連絡先への連絡のうち少なくともいずれか1つが含まれるが、これらに限定されるものではない。ここで、「処置の準備」とは、例えば、輸血の準備、必要な医療機器の準備、医療スタッフや処置場所(例えば、病室、手術室、検査室等の場所)の確保のうち少なくともいずれか1つが含まれるが、これらに限定されるものではない。また、「所定の連絡先」とは、例えば、家族等の親族、友人、職場やその関連、特定の医療機関や介護機関、医療スタッフや介護スタッフのうち少なくともいずれか1つの連絡先が含まれるが、これらに限定されるものではない。決定部103は、分析部102によって得られた分析対象人物の詳細情報に基づいて、妥当と考えられる対処方法を決定することができる。
 なお、決定部103は、分析部102が詳細情報として上述の個人情報を取得した場合に、その個人情報に基づいて、分析対象人物への対処方法を決定しても良い。例えば、決定部103は、分析対象人物の既往歴、現病歴、妊娠の有無、年齢、性別、血液型、アレルギー情報の少なくともいずれかに基づいて、手当、処置又はその他の行動の少なくともいずれかを対処方法として決定しても良い。
 例えば、分析部102が、分析対象人物の脈拍状態に異常があることを分析して詳細情報として取得し、かつ、当該人物の個人情報として「心臓病」を現病歴として取得した場合には、決定部103は、分析対象人物に対して、心臓病の発作に対する対処方法が必要と判断する。そして、救急車の要請、医療機関(特に心臓専門の医療機関)に対する分析対象人物の受け入れ要請、手当又は処置として用いる医療機器として心臓病用途のAED(Automated External Defibrillator)を指定すること、を決定する。さらに、決定部103は、事故発生の位置情報を考慮して、対処方法を決定しても良い。例えば、決定部103は、事故発生の位置情報と、AEDが配置された場所の位置情報を比較した上で、事故現場周辺にあるAEDの所在地を特定し、対処方法として含めても良い。他の例として、決定部103は、かかりつけ医療機関、緊急連絡先等の所定の連絡先に対して連絡することを、対処方法として決定しても良い。
 通知対象は後述の通り1つ又は複数存在し、対処方法は、通知先毎に少なくとも1つの内容を含む。各通知先への対処方法には、手当、処置、その他の行動のうちいずれか1つが含まれても良いし、そのうちの複数が含まれていても良い。また、決定部103が決定する対処方法は、通知先に関わらず同じ内容であっても良いし、通知先の属性等に応じて異なる内容であっても良い。この詳細については実施の形態2で記載する。
 通知部104は、決定部103により決定された対処方法を、1又は複数の通知対象に通知する。通知対象は、予め通知装置10に記憶された通知先であっても良い。予め記憶された通知先は、例えば公的又は民間の救急サービス、医療機関(health facility)であるが、これらに限られない。通知部104は、各分析対象人物を同一の通知先に通知しても良いし、分析部102が導出した詳細情報、及び決定部103が決定した対処方法の少なくともいずれかに基づいて、通知対象を複数の登録先の中から選択しても良い。例えば、決定部103が、分析対象人物に対して、心臓病の発作に対する対処方法が必要と判断した場合に、通知部104は、予め記憶された通知先として、救急サービス、医療機関(特に心臓専門の医療機関)の少なくともいずれかを通知対象とすることができる。また、通知部104は、分析対象人物が予め登録された登録者であった場合には、その登録者に関連付けられた個人情報に基づいて、通知対象を決定しても良い。例えば、通知部104は、個人情報に含まれたかかりつけ医療機関、緊急連絡先を通知対象としても良い。通知部104は、予め記憶された通知先に代えて、又はそれに加えて、このような通知対象を決定することができる。
 また、通知部104は、事故現場を含む周辺領域(第1の領域)に存在する通知対象に対して対処方法を通知しても良い。第1の領域に存在する通知対象は、例えば医療関係者、非医療関係者、医療機関であっても良い。この詳細については、実施の形態2で後述する。
 通知部104は、対処方法と併せて、事故発生検知部101が特定した事故現場の位置情報(つまり、分析対象人物がいる位置情報)を通知しても良い。また、通知部104が実行する通知は、任意の形態をとることができる。例えば、通知部104は、通知対象の端末のアプリに対して通知しても良いし、SMS (Short Message Service)やMMS(Multimedia Messaging Service)等のメッセージ、Eメール、電話等による通知をしても良い。
 なお、事故発生検知部101、分析部102、決定部103の少なくともいずれかは、機械学習された事故の検知モデルを用いて、事故発生の検知、詳細情報(例えば分析対象人物の体の状態に関する情報)の導出、対処方法の決定を実行しても良い。
 例えば、事故発生検知部101は、入力データとして映像が入力され、出力データとして事故の有無の判定結果が生成されるよう機械学習された事故の検知モデルを用いて、その検知モデルに1又は複数のカメラで撮影された映像を入力させることで、事故の発生の有無を検知しても良い。また、分析部102は、入力データとして映像が入力され、出力データとして詳細情報が生成されるよう機械学習された詳細情報の分析モデルを用いて、その分析モデルに1又は複数のカメラで撮影された映像を入力させることで、詳細情報を導出しても良い。さらに、決定部103は、入力データとして詳細情報が入力され、出力データとして対処方法が生成されるよう機械学習された対処方法のモデルを用いて、そのモデルに分析部102が導出した詳細情報を入力させることで、対処方法を導出しても良い。以上に示された検知モデルは、通知装置10の内部に設けられても良いし、外部に設けられても良い。また、モデルは、事故発生検知部101、分析部102、決定部103の各処理に応じて個別のモデルが設けられても良いし、複数の処理(例えば、事故発生検知部101と分析部102の処理)において1つのモデルが兼用されても良い。ただし、事故発生検知部101、分析部102、決定部103は、これ以外の方法により、各処理を実行しても良い。例えば、詳細情報と対処方法とを対応付けた表を用意しておき、分析部102により詳細情報が導出された後、決定部103が当該表を参照することで、当該詳細情報に適した対処方法を決定してもよい。
 図2は、通知装置10の代表的な処理の一例を示したフローチャートであり、このフローチャートによって、通知装置10の処理が説明される。以下で各部が実行する処理の詳細は、上述の通りである。まず、事故発生検知部101は、1又は複数のカメラで撮影された映像から事故の発生を検知する(ステップS11;事故発生検知ステップ)。分析部102は、映像を分析して、事故発生検知部101が検知した事故に係る分析対象人物の詳細情報を導出する(ステップS12;分析ステップ)。
 決定部13は、分析部102が導出した詳細情報に基づいて、分析対象人物への対処方法を決定する(ステップS13;決定ステップ)。通知部104は、ステップS12で決定された対処方法を通知対象に通知する(ステップS14;通知ステップ)。通知装置10は、以上のように動作することができる。
 このように、通知装置10は、事故が発生した場合に、分析対象人物を分析して対処方法を決定し、通知することができるため、分析対象人物に対する迅速な初動対応を実現させることができる。
 なお、通知装置10は、単独のコンピュータで構成されている集中型の構成であっても良いし、複数のコンピュータが事故発生検知部101~通知部104の処理を分担して実行する分散型の構成であっても良い。分散型の構成において、複数の機器は、例えばLAN(Local Area Network)、WAN(Wide Area Network)、インターネット等の通信ネットワークを介して接続されても良い。この例については実施の形態2で後述する。
 (1B)
 次に、(1B)では、通知装置10を備えた通知システムについて説明する。
 図3は、通知システムの一例を示すブロック図である。通知システムS1は、通知装置10、カメラ11A、11B及び端末12A、12Bを備える。通知装置10の説明は、(1A)で示した通りであるため、説明を省略する。
 カメラ11A、11B(以下、総称してカメラ11と記載)は、任意の場所を撮影し、撮影された映像データを通知装置10に送信する。図3では、カメラ11は有線回線により映像データを送信しているが、無線回線により映像データを送信しても良い。また、カメラ11と通知装置10は、直接接続されても良いし、通信ネットワーク等を介して接続されても良い。事故発生検知部101は、カメラ11で撮影された映像から事故の発生を検知する。この詳細については、(1A)で示した通りである。分析部102、決定部103及び通知部104も、(1A)に示した処理を実行する。なお、通知部104の通知の出力先は、端末12A、12Bである。
 端末12A、12B(以下、総称して端末12と記載)は、通知装置10の通知部104から対処方法を受信する。図3では、無線回線RA、RBにより対処方法を受信しているが、有線回線により対処方法を送信しても良い。端末12は、スマートフォン等の携帯電話、パーソナルコンピューター、携帯情報端末(Personal digital assistant)、カーナビゲーション、車載通信端末等の、通信可能な任意の情報端末であって良い。
 なお、カメラ11、端末12は、(1B)ではそれぞれ2個設けられているとしたが、それぞれ3個以上設けられても良いし、1個だけが設けられても良い。
 また、カメラ11は、一例として、信号機、路側機、交差点及び踏切の少なくともいずれかに設けられ、その場所を撮影することができる。なお、信号機は、自動車、二輪車、自転車等の車両、歩行者及び鉄道のいずれを対象としても良い。また、交差点は、2つ以上の道路が交差する場所を意味する。この「道路」は、自動車用道路であっても良いし、自転車若しくは歩行者道路であっても良い。これらの箇所は、自動車や鉄道等に関する事故が起こることが想定される場所であるため、事故があった場合でも、カメラ11がその事故を撮影し、映像データを通知装置10に送信することで、通知装置10が事故の負傷者に対する対処方法を通知することができる。したがって、事故の負傷者に対する迅速な対処を実現させることができる。
 ただし、カメラ11は、その他の屋外の任意の場所(例えば上述以外の道路沿い又は線路沿いの場所や、空港及びその近隣の場所)や、屋内の任意の場所に設けられても良い。このように、カメラ11が、事故が発生する可能性があると考えられる場所、その他何らかの危険があると考えられる場所に設けられることによっても、事故の負傷者に対する迅速な対処を実現させることができる。
 実施の形態2
 (2A)
 以下、図面を参照して本開示の実施の形態2について説明する。この(2A)では、上述の実施の形態1(1B)の具体例について説明する。
 図4は、通知システムの一例を示す概略図である。通知システムS2は、カメラ20A~20N、MEC(Mobile Edge Computing又はMulti-access Edge Computing)サーバ21、通知サーバ22、端末23A~23Dを備える。なお、カメラ20A~20N、端末23A~23Dをそれぞれ総称してカメラ20、端末23と呼称する。カメラ20とMECサーバ21とは、有線回線で接続されていてもよいし、LTE(Long Term Evolution)、5G(5th Generation)、無線LAN等の無線回線で接続されていてもよいし、有線回線と無線回線の組み合わせによって接続されていてもよい。同様に、MECサーバ21と通知サーバ22とは、有線回線で接続されていてもよいし、LTE、5G、無線LAN等の無線回線で接続されていてもよいし、有線回線と無線回線の組み合わせによって接続されていてもよい。MECサーバ21と通知サーバ22は、複数のコンピュータが事故発生検知部101~通知部104の処理を分担して実行する構成を示す。また、通知サーバ22と端末23は、LTE、5G、無線LAN等の無線回線RA~RD経由で通知を受信しているが、これに限定されず、有線回線経由で通知を受信してもよいし、有線回線と無線回線の両者を経由して通知を受信してもよい。また、各装置の各ユニットは、不図示の装置内の制御部(コントローラ)がプログラムを読み込むことにより、制御される。以下、各装置の構成及び処理について説明する。
 図5は、カメラ20の一例を示すブロック図である。カメラ20は、(1B)のカメラ11に対応するものであり、撮影部201、送受信部(トランシーバ)202及び記憶部203を備える。以下、カメラ20の各構成要素について説明する。
 撮影部201は、ハード構成としてレンズ、撮像素子等を備えており、映像を撮影する。ただし、カメラ20が撮影して送信するのは、所定の間隔を空けて撮影された静止画であっても良い。撮影部201は、撮影倍率、解像度、フレームレート、量子化ビット数、ビットレート、カメラアングルのうち1以上を制御する機能を有していてもよい。なお、この映像データには、撮影時の時刻情報も含まれていてもよい。送受信部202は、映像データを、カメラ20の識別情報(例えば自カメラのID、位置情報といった情報)と併せてMECサーバ21に送信する。自カメラのIDは、各カメラに重複なく割り当てられた任意の文字列や数列であってもよいし、IP(Internet Protocol)アドレスのような通信アドレス情報であってもよい。記憶部203には、送受信部202が送信するための識別情報が記憶されている。なお、この識別情報は、カメラ20の移動等に応じて、適宜変更することができる。
 図6は、カメラ20が設けられている道路の例を示す概略図である。この例では、カメラ20A、20Bは、交差点C1の信号機に設けられ、カメラ20C、20Dは、交差点C2の信号機に設けられ、カメラ20E、20Fは、交差点C3の信号機に設けられている。例えば、カメラ20A、20Bは、同じ交差点C1において異なる位置の信号機に設けられている。そのため、両者は交差点C1を異なる位置及び角度から撮影した映像データをMECサーバ21に送信する。具体的には、カメラ20Aは、交差点C1及びカメラ20B周辺をその撮影範囲に含む一方で、カメラ20Bは、交差点C1及びカメラ20A周辺をその撮影範囲に含む。同様の理由で、カメラ20C、20Dは交差点C2を異なる位置及び角度から撮影した映像データをMECサーバ21に送信し、カメラ20E、20Fは交差点C3を異なる位置及び角度から撮影した映像データをMECサーバ21に送信する。また、交差点C2は交差点C1と隣接しているため、交差点C2は、交差点C1を含む後述の領域R1に含まれる。
 図6の例では、交差点C1で事故TRが発生する。したがって、カメラ20A、20Bは、事故TRを撮影した映像データをMECサーバ21に送信する。また、カメラ20Aは、事故発生時に医療関係者NAを撮影しており、カメラ20Bは、事故発生時に非医療関係者NBを撮影している。さらに、事故発生時にカメラ20C、20Dは、病院C保有の自動車である車両NCを撮影している。また、交差点C3周辺には、医療関係者NE、非医療関係者NF、及び、非医療関係者G保有の自動車である車両NGが存在している。事故発生時に、カメラ20E及び20Fは医療関係者NE及び非医療関係者NFを撮影し、カメラ20Eは車両NGを撮影している。
 図7は、MECサーバ21の一例を示すブロック図である。MECサーバ21は、(1B)の通知装置10の一部に対応するものであり、この例では、事故発生検知部211、送受信部(トランシーバ)212及び記憶部213を備える。以下、MECサーバ21の各構成要素について説明する。
 事故発生検知部211は、(1A)の事故発生検知部101に対応し、各カメラ20A~20Nから送信された映像データから事故の発生を検知する。事故発生検知部211は、カメラ20A~20Nで撮影された映像を分析することにより、カメラ20A、20Bの撮影領域、すなわち交差点C1で、ある時刻tにおいて事故が発生したことを検知する。ここで、事故発生検知部211は、事故の発生を撮影したと判断されたカメラ20A、20Bの位置、及び、映像データ中で事故が発生した範囲に基づいて、事故現場の位置を特定する。事故発生検知部211は、カメラ20A、20Bの位置を、カメラ20A、20Bが送信した自カメラのIDに基づいて、後述の記憶部213に格納されたカメラ20A、20Bの位置情報を参照することで特定しても良い。カメラ20A、20Bが自カメラの位置情報を送信する場合には、事故発生検知部211は、その位置情報をそのまま用いることができる。
 事故発生検知部211は、入力データとして映像が入力され、出力データとして事故の有無の判定結果が生成されるよう機械学習された事故の検知モデルを用いて、その検知モデルに各カメラ20A~20Nで撮影された映像データを入力させる。これによって、事故発生検知部211は、各映像データにおける事故の発生の有無を検知する。その他の事故発生検知部211が実行する処理については、事故発生検知部101と同様であるため、説明を省略する。
 送受信部212は、各カメラ20A~20Nから、撮影された映像データ及び識別情報を受信する。また、事故発生検知部211は、あるカメラ20の映像データにおいて事故を検出した場合に、事故を検出した時刻t周辺の時刻t1から現在(事故発生検知部211のこの処理の実行時)までにそのカメラ20が撮影した映像データを抽出する。送受信部212は、抽出した映像データと、事故現場の位置情報を併せて通知サーバ22に送信する。この例では、送受信部212は、事故を検出した時刻t1から現在までのカメラ20A及び20Bが撮影した映像データと、交差点Cの位置情報とを併せて通知サーバ22に送信することになる。なお、事故現場の位置情報として、事故を撮影したカメラ20の識別情報が送信されても良い。
 また、事故発生検知部211は、事故現場を含む第1の領域として、事故現場である交差点Cを含む領域R1(図6参照)を判定する。そして、事故発生検知部211は、その領域R1を撮影するカメラ20を、記憶部213に格納されたカメラ20の撮影場所の情報に基づいて特定する。図6に示す通り、領域R1を撮影するカメラ20は、交差点C1に設けられたカメラ20A、20B及び、交差点C1近傍に設けられたカメラ20C、20Dである。そのため、事故発生検知部211は、カメラ20A、20Bだけでなく、カメラ20C、20Dが撮影した映像データについても、通知サーバ22における後述の通知対象検出に必要と判断する。事故発生検知部211は、カメラ20C、20Dの時刻t2から現在までの映像データも抽出し、送受信部212はその映像データを通知サーバ22に送信する。ただし、交差点C3周辺は、領域R1に入っていないため、カメラ20E及び20Fが撮影した映像データは、通知サーバ22に送信されない。したがって、この場合、医療関係者NE、非医療関係者NF及び車両NGは、通知対象としては考慮されないことになる。
 「第1の領域」は、任意の範囲が設定されることができる。例えば、「第1の領域」は、事故現場から所定の距離を半径とした円領域であっても良いし、事故現場から所定の徒歩の速さ又は車速において所定の時間以内に位置する領域であっても良いし、事故現場を含む所定の区画であっても良い。所定の区画として、救急サービス上の区画や、県、市、町、村、区や州のような行政上の区画が一例として挙げられるが、これらに限られない。事故発生検知部211は、例えば、検出した事故現場の位置情報と、記憶部213に格納された事故現場周辺の地図情報及び第1の領域の設定基準を用いて、上述のような第1の領域を設定することができる。
 また、時刻t1、t2は、時刻tと同じタイミングでも良いし、通知サーバ22において事故の詳細が確実に明確になるように、時刻tよりも所定の期間だけ前のタイミングであっても良い。所定の期間は、例えば数秒~数分程度といったものである。あるいは、時刻t1、t2を決定する所定の基準が定められても良い。例えば、時刻t1を、事故の負傷者が映像データ中に初めて映ったタイミングにするという基準が考えられる。事故発生検知部211は、記憶部213に格納されたタイミングの所定の期間又は基準を用いて時刻t1、t2を決定し、上述の通り、映像データを抽出する。
 記憶部213には、事故発生検知部211及び送受信部212が実行する処理に必要な情報が格納されている。具体的には、次の情報を格納することができる。
(i)事故発生検知部211が用いる検知モデル、地図情報及び第1の領域の設定基準
(ii)カメラ20のIDに関連付けられた各カメラ20の位置情報
(iii)事故発生検知部211の検知対象となる、所定の期間におけるカメラ20A~20Nが撮影した映像データ
(iv)映像データを抽出するためのタイミングt1、t2の値又はそのタイミングを設定するための基準
 図8は、通知サーバ22の一例を示すブロック図である。通知サーバ22は、(1B)の通知装置10の一部に対応するものであり、通知対象検知部221、分析部222、決定部223、送受信部(トランシーバ)224及び記憶部225を備える。以下、通知サーバ22の各構成要素について説明する。
 通知対象検知部221は、事故現場を含む第1の領域(検知領域)に存在する通知対象を検知する。ここで、通知対象は、所定の機関(organization)、個人及び車両の少なくともいずれかを含む。通知対象の候補となる所定の機関は、例えば、医療又は救急に係る機関であり、これは、公営、民間を問わず、病院、診療所等の医療機関や、救急隊員等の専門スタッフを派遣する救急に係る機関が含まれる。救急に係る機関は、例えば、消防署や、EMS(Emergency Medical Services)といった機関であるが、これらに限られない。さらに、通知対象の候補となる所定の機関として、事故処理を担当する警察署や、道路、鉄道等の事故に対応する会社(例えばロードサービスの会社)が含まれても良い。
 また、通知対象の候補となる所定の個人としては、医者、看護師、救急救命士等の医療関係者及び非医療関係者(特に一般人)の少なくともいずれかが含まれていても良い。また、消防士、警察官、事故に対応する会社のスタッフ等、事故現場に向かうことが職務である人物が含まれていても良い。通知対象の候補となる所定の車両は、例えば、上述の所定の機関又は個人が有する(保有又は一時的に占有している)車両である。一例としては、救急車や、病院が保有している自動車が挙げられる。
 なお、通知対象の候補となる各機関、各個人や各車両を示す情報は、実際の送受信部224の通知の送信先となる各機関、各個人や各車両の端末情報とともに、予め記憶部225に記憶されている。この端末は、各機関、各個人や各車両と関連付けられた端末(例えば、機関等が保有又は一時的に占有している端末)であり、この端末情報は、各機関又は各個人、さらには管理者によって適宜更新されることができる。
 ただし、通知対象検知部221は、事故現場を含む第1の領域に存在しない所定の機関、個人及び車両であっても、通知対象として選択することができる。後述の分析部222が、個人情報として、かかりつけ医療機関、緊急連絡先といった情報を取得した場合に、通知対象検知部221は、かかりつけ医療機関、緊急連絡先の場所に関わらず、それらの連絡先を通知対象として追加することができる。
 また、所定の機関の一種である救急医療機関については、通知対象の候補となる救急医療機関が記憶部225に格納されていても良い。MECサーバ21から受信した事故現場の位置情報、及び分析部222が取得した詳細情報の少なくともいずれかに基づき、通知対象検知部221は、事故現場を含む第1の領域に存在するか否かとは無関係に、事故の状況に応じた1又は複数の救急医療機関を特定し、通知対象として選択しても良い。救急医療機関を特定するために用いられる詳細情報は、例えば、分析部222が映像データの分析により取得した分析対象人物の体の状態に関する情報(例えば、負傷又は病気の種類あるいは度合いに関する情報)、既往歴、現病歴、妊娠の有無といった個人情報の少なくともいずれかであって良い。ただし、通知対象検知部221は、救急対応の機関として状況に関わらず予め通知対象として登録された1又は複数の所定の機関を、通知対象として選択しても良い。
 通知対象検知部221が通知対象を検知する方法は、様々な方法が想定されるが、(2A)では、その一例を示す。通知対象検知部221は、MECサーバ21から受信した、各カメラ20A~20Dが撮影した映像データを解析して、通知対象の候補が映像データに映っているか否かを検知する。
 ここで、記憶部225には、映像データを用いて通知対象検知部221が通知対象を検知するための、所定の個人又は車両を特定する特定情報が格納されている。特定情報は、各個人であれば、顔情報等の生体情報であり、各車両であれば、ナンバープレートの番号や映像データ等、車両を特定可能な情報である。通知対象検知部221は、この特定情報と、カメラ20A~20Dが撮影した映像データとを比較することにより、第1の領域内の各映像データ中に通知対象の候補が映っているか否かを判定する。
 この例では、通知対象検知部221は、カメラ20A、20Bのそれぞれが撮影した映像データに、通知対象の候補となる候補者である医療関係者NA、非医療関係者NBが映っていることを判定する。さらに、通知対象検知部221は、カメラ20C及び20Dが撮影した映像データに、通知対象の候補となる車両NCのナンバープレートが映っていたことを検知する。これにより、通知対象検知部221は、事故現場を含む第1の領域に存在する通知対象として、医療関係者NA、非医療関係者NB及び病院Cが保有する車両NCを検知する。これらの通知対象に、対処方法が通知されることになる。
 分析部222は、実施の形態1に係る分析部102に対応するものであり、カメラ20A、20Bに係る映像データに映っている、事故に係る分析対象人物の詳細情報を導出する。具体的には、分析部222は、映像データに映る分析対象人物の顔画像と、予め記憶部225に格納された登録者の顔情報とを用いた顔認証を実行することにより、分析対象人物を登録者の中から特定し、記憶部225に格納された登録者の個人情報を詳細情報として取得する。この登録者は、本人情報を事前に自身で登録した人物、持病を有する人物、あるいは何らかの重要人物として事前に記憶された人物である。さらに、分析部222は、カメラ20A、20Bに係る映像データを分析することにより、分析対象人物の体の状態に関する情報も、詳細情報として取得する。分析部222は、個人情報と体の状態に関する情報の少なくともいずれか一方を詳細情報として取得することができる。個人情報及び分析対象人物の体の状態に関する情報の詳細や、分析部222が実行するその他の処理の詳細は、実施の形態1に記載した通りであるため、説明を省略する。
 この例では、分析部222は、個人情報として、分析対象人物の現病歴に心臓病があること、及び、かかりつけ医療機関である病院Dの連絡先の情報を取得する。さらに、分析対象人物の体の状態として、呼吸状態及び脈拍状態に異常があることを取得する。
 分析部222が、個人情報として病院Dの連絡先の情報を取得したことに応じて、通知対象検知部221は、病院Dを通知対象として追加する。この病院Dは、事故現場を含む第1の領域に存在する必要はない。
 決定部223は、実施の形態1に係る決定部103に対応するものであり、分析対象人物に対する対処方法を決定する。この例において、決定部223は、通知対象が医療関係者NA及び車両NC(医療関係者又はその車両)である場合と、通知対象が非医療関係者NB(一般人)である場合と、通知対象が病院D(医療機関)である場合とで、対処方法を分けて決定することができる。
 通知対象が医療関係者NA及び車両NCである場合に、決定部223は、分析対象人物への処置を決定し、さらに、処置において使用される医療機器であって、事故現場を含む所定の領域(第3の領域)に存在する医療機器の場所を特定する。この例では、決定部223は、分析対象人物への処置として、人工呼吸、胸骨圧迫(心臓マッサージ)、AEDの使用及び医療関係者が実施可能な処置を決定する。また、決定部223は、処置において使用される医療機器としてAEDを特定し、記憶部225に格納されたAEDが設けられた位置情報の一覧と、事故現場の位置情報を参照することで、事故現場を含む所定の領域に存在するAEDの場所を特定する。決定部223は、この処置の情報と、所定の領域に存在するAEDの場所の情報とを、医療関係者NA及び車両NCを通知対象とした対処方法に含める。なお、医療機器が存在する、事故現場を含む所定の領域(第3の領域)は、第1の領域と同じ領域でも良いし、異なる領域であっても良い。この領域の設定基準は、記憶部225に格納されている。
 通知対象が非医療関係者NBである場合に、決定部223は、分析対象人物への手当の決定、及び、手当において使用される医療機器であって、事故現場を含む所定の領域に存在する医療機器の場所を特定する。この例では、決定部223は、分析対象人物への手当として、人工呼吸、胸骨圧迫及びAEDの使用を決定する。また、決定部223は、上述の通りに、事故現場を含む所定の領域(第3の領域)に存在するAEDの場所を特定する。決定部223は、この手当の情報と、所定の領域に存在するAEDの場所の情報とを対処方法に含める。
 ただし、決定部223は、処置又は手当の情報と、所定の領域に存在するAEDの場所の情報の2つの情報のうち、1つだけを対処方法に含めても良い。
 通知対象が病院Dである場合に、決定部223は、分析対象人物への処置及び分析対象人物の受け入れ要請が含まれるように対処方法を決定する。処置は、通知対象が医療関係者NA及び車両NCである場合の処置と同内容である。ただし、対処方法はこの例に限られず、決定部223は、分析対象人物への処置、事故現場へのスタッフの派遣要請及び分析対象人物の受け入れ要請の少なくともいずれかが含まれるように対処方法を決定しても良い。なお、決定部223が実行するその他の処理の詳細は、実施の形態1に記載した通りであるため、説明を省略する。
 送受信部224は、実施の形態1に係る通知部104に対応するものであり、通知対象検知部221が検知した通知対象に対して、決定部223が決定した対処方法を通知する。この例では、送受信部224は、処置の情報と、所定の領域に存在するAEDの場所の情報を含めた対処方法を、端末23A、23Cに通知する。また、送受信部224は、手当の情報と、所定の領域に存在するAEDの場所の情報を含めた対処方法を、端末23Bに通知する。さらに、送受信部224は、分析対象人物への処置及び分析対象人物の受け入れ要請を含めた対処方法を、端末23Dに通知する。ここで、端末23A、23Bは、それぞれ医療関係者NA、非医療関係者NBが保有するスマートフォンであり、端末23Cは、車両NCに搭載されたカーナビゲーションであり、端末23Dは、病院Dが備える救急患者受け入れ用の端末である。端末23A、23B、23Cの連絡先情報は、それぞれ医療関係者NA、非医療関係者NB及び車両NCに関連付けられて、通知対象の候補の情報として記憶部225に格納されており、送受信部224はそれらの情報を送信に用いる。また、端末23Dの連絡先情報は、上述の通り、分析部222が取得した個人情報に含まれており、送受信部224はその情報を送信に用いる。なお、「連絡先情報」とは、各端末の通信アドレス情報(例えばIPアドレス)、電話番号、Eメールアドレス、その他任意のユーザ識別子などの少なくともいずれかを含む情報である。
 送受信部224は、それぞれ無線回線RA、RB、RDにより、端末23A、23B、23Dに対処方法を送信する。また、送受信部224は、図示しない端末23C近傍の路側機に対して対処方法を送信し、その路側機は、対処方法を無線回線RCにより端末23Cに送信する。このようにして、通知サーバ22は、路側機を介して対処方法を自動車搭載の端末に送信することができる。また、送受信部224は、対処方法と併せて、通知サーバ22が受信した事故現場の位置情報(つまり、分析対象人物がいる位置情報)を、各通知対象の端末23に通知してもよい。
 記憶部225には、通知対象検知部221~送受信部224が実行する処理に必要な情報が格納されている。具体的には、次の情報を格納することができる。
(i)通知対象の候補となる所定の機関、個人並びに車両の情報、及びその各々の情報に関連付けられた通知の送信先となる機関、個人及び車両の端末情報
(ii)通知対象検知部221が映像データを用いて通知対象を検知するための、所定の個人又は車両を特定する特定情報
(iii)分析部222が顔認証を実行するための登録者の顔情報
(iv)各種医療機器(例えばAED)が設けられた位置情報の一覧、及び、各種医療機器が存在する場所の通知範囲となる所定の領域(第3の領域)の設定基準
ただし、記憶部225には、救急対応の機関として、予め通知対象として登録された1又は複数の所定の機関が、さらに格納されていても良い。
 また、記憶部225には、通知サーバ22が管轄するカメラ20が配置された場所の地図情報及び第1の領域の設定基準も格納されていても良い。管理者は、これらの情報を更新可能であり、通知サーバ22は、更新された場合に、MECサーバ21に更新情報を送信する。これにより、MECサーバ21は、記憶部213に格納されたそれらの情報を更新する。
 図9は、端末23の一例を示すブロック図である。端末23は、(1B)の端末12に対応するものであり、出力部231、送受信部(トランシーバ)232及び記憶部233を備える。以下、端末23の各構成要素について説明する。
 出力部231は、端末23のユーザに対して、テキスト、画像、音声等で情報を通知するインタフェースであり、ディスプレイ、スピーカ等で構成されている。出力部231は、通知サーバ22の送受信部224から各端末23に送信された対処方法及び事故現場の位置情報を、端末23のユーザに対して出力する。例えば、端末23がスマートフォンであれば、そのディスプレイにそれらの情報が表示されても良いし、端末23がカーナビゲーションであれば、そのディスプレイにそれらの情報が表示されても良い。
 送受信部232は、通知サーバ22から通知された対処方法及び事故現場の位置情報を受信する。また、端末23が入力部をさらに備えており、対処方法を視認したユーザが、対処方法を確認したことを示す内容を入力した場合には、送受信部232は、通知サーバ22に対して確認済であることを示す通知を送信してもよい。
 記憶部233は、通知サーバ22から送信された対処方法等の情報を記憶するほか、端末23の操作に必要な情報が格納されている。
 図10は、通知システムS2の代表的な処理の一例を示したシーケンス図であり、このシーケンス図によって、通知システムS2の処理が説明される。以下で各装置が実行する処理の詳細は、上述の通りである。なお、図10では、カメラ20、端末23のそれぞれの一例としてカメラ20A、端末23Aを示しているが、他のカメラ20、端末23でも、以下と類似の処理がなされる。
 まず、カメラ20Aの撮影部201は、交差点C1を撮影し(ステップS21)、送受信部202は、撮影された映像データをMECサーバ21に送信する(ステップS22)。
 MECサーバ21の送受信部212は、ステップS22で送信された映像データを受信する。事故発生検知部211は、カメラ20Aの映像データに基づいて、交差点C1における事故の発生を検知する(ステップS23)。送受信部212は、上述の通り、その事故に係るカメラ20Aの映像データを、通知サーバ22に送信する(ステップS24)。
 通知サーバ22の送受信部224は、ステップS24で送信された映像データを受信する。通知サーバ22は、受信した映像データに基づいて、分析対象人物に係る対処方法を決定する(ステップS25)。この詳細については後述する。通知サーバ22の送受信部224は、決定された対処方法等を端末23に送信する(ステップS26)。
 端末23Aの送受信部232は、ステップS26で送信された映像データを受信する。端末23Aの出力部231は、対処方法等をユーザに出力する(ステップS27)。
 図11は、ステップS25の処理の一例を示したフローチャートであり、このフローチャートによって、通知サーバ22の処理が説明される。まず、通知対象検知部221は、MECサーバ21から送信された映像データから、通知対象を検知する(ステップS251)。また、分析部222は、映像データを分析して、MECサーバ21の事故発生検知部211が検知した事故に係る分析対象人物の詳細情報を導出する(ステップS252)。
 決定部223は、分析部222が導出した詳細情報に基づいて、分析対象人物への対処方法を決定する(ステップS253)。送受信部224は、ステップS253で決定された対処方法を、通知対象検知部221が検知した通知対象に通知する(ステップS254)。なお、ステップS251とS252は、どちらの順番が先でも良い。ただし、ステップS252において、詳細情報として分析対象人物の個人情報が取得される場合には、上述の病院Dのように、個人情報に基づいて通知対象が追加される場合もあり得るため、ステップS252が先に実行されても良い。また、ステップS251~S254の処理の詳細は、通知対象検知部221~送受信部224についての説明で記載した通りである。
 以上のように、通知システムS2は、事故が発生した場合に、分析対象人物を分析して対処方法を決定し、通知することができるため、分析対象人物に対する迅速な初動対応を実現させることができる。
 また、通知サーバ22の通知対象検知部221は、事故が発生した場所を含む第1の領域に存在する通知対象を検知し、送受信部224は、検知された通知対象に対処方法を通知することができる。このように、通知サーバ22は、通報者ではなく、事故現場の周囲に存在する人や車両を検知し、それらに対して情報を提供している。そのため、事故現場の周囲に存在する非通報者や、事故を認識していない人(例えば、事故現場から死角の場所にいる人)等から、負傷者又は急病人の対応に関する協力を得ることができる。したがって、負傷者又は急病人の生存確率の増加や、予後不良の抑制が可能となる。
 また、通知サーバ22は、人物、車両の少なくともいずれかに対処方法を通知することができる。そのため、現場周辺にいる人物又は車両に乗っている人物が対処方法をすぐに認識し、行動に移すことが可能となる。
 また、通知サーバ22の決定部223は、対処方法の決定として、分析対象人物への手当又は処置の決定、及び、手当又は処置において使用される医療機器であって、事故現場を含む領域に存在する医療機器の場所の特定の少なくともいずれか一方を実行することができる。この対処方法を送受信部224が通知対象に送信することで、通知対象の人物が、負傷者又は急病人に対してより適切な対応をとることができる。
 また、通知サーバ22の通知対象検知部221は、通知対象の候補が映像に映っていることを判定することで、その候補を通知対象として検知し、送受信部224は、検知された通知対象と関連付けられた端末に対して対処方法を通知することができる。これにより、通知サーバ22は、事故現場周辺に存在する人物に対して通知することができるため、負傷者又は急病人に対してケアがなされる確率を増加させることができる。
 また、通知対象には、医療又は救急に係る機関が含まれても良い。決定部223は、このような機関に通知する対処方法の内容を、分析対象人物への処置、事故が発生した場所へのスタッフの派遣要請、分析対象人物の受け入れ要請及び処置の準備の少なくともいずれかが含まれるように決定することができる。これにより、通知サーバ22は、医療又は救急に係る機関に対して負傷者又は急病人を対処してもらうことが可能となるため、負傷者又は急病人は、専門機関で治療を早期又は適切に受けることができる。
 また、分析部222は、映像に映っている分析対象人物の顔画像と、登録者の顔情報とを用いた顔認証の認証結果に基づいて、分析対象人物を登録者の中から特定することで、登録者に関連付けられた個人情報を詳細情報として導出しても良い。そして、決定部223は、個人情報に基づいて対処方法を決定することができる。したがって、通知サーバ22は、個人の特性に応じた対処方法を通知することができるため、負傷者又は急病人の事情に応じた対応がなされることが期待できる。
 個人情報は、例えば、既往歴、現病歴、妊娠の有無、年齢、性別、血液型、アレルギー情報、個人番号、かかりつけ医療機関、及び緊急連絡先の少なくともいずれかを含んでも良い。このような医療に関連する個人情報に基づいて、通知サーバ22は、詳細かつ正確な対処方法を通知することができる。
 また、送受信部224は、個人情報に基づいて通知対象を決定しても良い。これにより、通知サーバ22は、分析対象人物の事情を知っている人物又は機関に分析対象人物の対応をしてもらえるため、負傷者又は急病人の適切なケアがなされることが可能となる。
 また、詳細情報は、意識状態、呼吸状態、出血状態、骨折状態、火傷状態、強打部位、痙攣状態、歩行状態、心拍状態、脈拍状態及び体温状態の少なくともいずれかを含んでも良い。このような医療に関連する詳細情報に基づいて、通知サーバ22は、詳細かつ正確な対処方法を通知することができる。
 また、決定部223は、通知対象が非医療関係者やその車両(第1の種類の候補)である場合と、医療関係者やその車両(第2の種類の候補)である場合とで、それぞれに異なる対処方法(手当又は処置)を通知することができる。したがって、通知サーバ22は、通知対象の人物の専門性を考慮した対処方法を通知することができるため、負傷者又は急病人が適切な応急対応を受けられる可能性が高まり、かつ、通知対象者に対しても配慮した通知をすることができる。
 なお、(2A)で示した通知システムS2の構成及び処理は、次のように変更することができる。例えば、通知対象が非医療関係者の車両であった場合でも、決定部223は、通知対象が非医療関係者である場合と同様に、対処方法を決定することができる。
 (2A)では、通知対象検知部221は、事故現場からの距離に関わらず、分析部222が取得した個人情報に応じて、病院Dを通知対象として追加した。しかしながら、通知対象検知部221は、病院Dが領域R1内に含まれない場合、又は事故現場から所定の領域以内に含まれない場合に、病院Dを通知対象として追加しなくても良い。なお、所定の領域は、記憶部225に予め判定用の閾値として記憶されたものである。
 通知対象検知部221は、個人情報として記憶された病院Dに代えて、又はそれに加えて、事故の状況に応じた1又は複数の救急医療機関を特定し、通知対象として設定しても良い。この救急医療機関に通知される対処方法には、分析対象人物への処置、事故が発生した場所へのスタッフの派遣要請及び分析対象人物の受け入れ要請の少なくともいずれかが含まれる。仮に、送受信部224からの通知に対し、その救急医療機関が受け入れ不可の返信を通知サーバ22に対してした場合には、通知対象検知部221は、他の救急医療機関を新たな通知対象として再設定しても良い。送受信部224は、その新たな通知対象に対して対処方法を通知する。この通知対象の再設定方法は、記憶部225に予め格納された優先順位に基づいていても良い。又は、記憶部225に予め格納された優先順位策定の基準と、事故現場の位置情報及び分析部222が取得した詳細情報の少なくともいずれかと、に基づいて、通知対象検知部221が優先順位を決定し、その優先順位に基づいて再設定しても良い。
 (2A)では、分析対象人物が心臓病を有する場合を説明したが、当然、これ以外の状況に対しても、通知システムS2を適用することができる。例えば、分析部222が、カメラ20A、20Bが撮影した映像データに基づき、分析対象人物が事故の際に頭を打っていることを判定した場合には、決定部223は、「頭を動かさないこと」を手当又は処置として、対処方法に含めても良い。また、分析部222が、映像に基づき、分析対象人物の出血が激しいことを判定し、なおかつ、個人情報として、分析対象人物の血液型がO型であることを判定した場合には、決定部223は、輸血の準備(処置の準備)である「O型の輸血が必要であること」を対処方法に含めても良い。
 MECサーバ21は、カメラ20から通知サーバ22までの通信経路上の任意の場所に設けられていても良い。例えば、MECサーバ21とカメラ20とが有線回線で接続され、MECサーバ21が5G無線通信を経由して通知サーバ22に接続されてもよい。他の例として、カメラ20が5G無線通信を経由して、5G基地局近傍に設置されたMECサーバ21に接続され、MECサーバ21と通知サーバ22とは有線回線で接続されてもよい。ここで、5G基地局近傍にMECサーバ21を設置する代わりに、所定の地域単位や、5Gシステムのコア網(5GC)にMECサーバ21が設置されてもよい。MECサーバ21が通信経路上においてカメラ20により近い側に設けられることにより、各カメラ20から出力される一連の映像データが流れる距離が、より短くて済む。そのため、ネットワークに大量のデータが流れることが抑制され、ネットワーク負荷が削減されたり、通信の遅延を抑制したりすることができる。
 MECサーバ21は、単独で設けられても良いし、地理的に分散された状態で複数のMECサーバ21が存在しても良い。また、MECサーバ21は、通知サーバ22が備える通知対象検知部221、分析部222及び決定部223のうち少なくともいずれかを備えていても良い。
 また、MECサーバ21が設けられず、通知サーバ22が事故発生検知部211を備えており、カメラ20が通知サーバ22に直接映像データを送信する構成としても良い。
 (2A)では、MECサーバ21が、領域R1にカメラ20C、20Dが存在することを判定することで、カメラ20C、20Dが撮影した映像データも通知サーバ22の処理に必要であることを判断し、その映像データを通知サーバ22に送信した。しかしながら、MECサーバ21がその判定を実行せず、事故を検出したカメラ20A、20Bが撮影した映像データだけを通知サーバ22に送信しても良い。この場合、通知サーバ22の通知対象検知部221が、記憶部225に格納された事故現場周辺の地図情報及び第1の領域の設定基準を用いて、事故現場を含む第1の領域として領域R1を設定する。そして、通知対象検知部221は、その領域R1を撮影するカメラ20が、カメラ20A~20Dであると特定する。これにより、通知対象検知部221は、カメラ20C、20Dが撮影した映像データについても、通知対象検出に必要と判断し、MECサーバ21に対して、カメラ20C、20Dが撮影した映像データを出力するように要求する。MECサーバ21は、その要求に基づいて、カメラ20C、20Dが撮影した映像データを通知サーバ22に送信する。通知対象検知部221は、この映像データを用いて、上述の処理を行う。
 (2B)
 (2B)では、(2A)と異なるバリエーションについて説明する。以降の説明では、(2A)と異なる点を説明し、(2A)と同じ点については、適宜説明を省略する。
 図12は、カメラ20が設けられている道路の例を示す概略図である。図12では、図6に示した要素のほか、領域R1と交差点C3周辺を含む、領域R1よりも広い領域R2が開示されている。以下、この例を用いて処理の説明をする。
 MECサーバ21の事故発生検知部211は、(2A)に示したように、カメラ20A、20Bが撮影した映像データから、事故の発生を検知する。このとき、事故発生検知部211は、事故現場を含む第1の領域として領域R1を判定するとともに、事故現場を含む第2の領域として領域R2を判定する。そして、事故発生検知部211は、領域R1に係るカメラ20A~20Dが撮影した映像データだけでなく、領域R2に係るカメラ20E、20Fの時刻t3から現在までに撮影した映像データも、送受信部212を介して通知サーバ22に送信させる。なお、時刻t3は、上述の時刻t2と同様に設定される。
 「第2の領域」も、「第1の領域」と同様、任意の範囲が設定されることができる。例えば、「第2の領域」は、事故現場から「第1の領域」よりも長い所定の距離を半径とした円領域であっても良いし、「第1の領域」を含む領域で、事故現場から所定の徒歩の速さ又は車速において所定の時間以内に位置する領域であっても良い。また、「第2の領域」は、「第1の領域」を内部に含む所定の区画であっても良い。事故発生検知部211は、例えば、検出した事故現場の位置情報と、記憶部213に格納された事故現場周辺の地図情報及び第1並びに第2の領域の設定基準を用いて、第1及び第2の領域を設定することができる。
 通知対象検知部221は、第1の領域に存在する通知対象の候補である非医療関係者やその車両(第1の種類の候補)と、第2の領域に存在する通知対象の候補である医療関係者やその車両(第2の種類の候補)を、通知対象として検知する。通知対象検知部221は、カメラ20A~20Fが撮影した映像データを解析して、特定情報と、カメラ20A~20Fが撮影した映像データとを比較することにより、各々の映像データ中に通知対象が映っているか否かを判定する。
 (2A)と同様に、通知対象検知部221は、カメラ20A~20Dが撮影した映像データに基づいて、第1の領域に存在する通知対象として、医療関係者NA、非医療関係者NB及び病院Cが保有する車両NCを検知する。さらに、通知対象検知部221は、カメラ20E~20Fが撮影した映像データに基づいて、第2の領域に存在し、かつ第1の領域に存在しない通知対象として、医療関係者NEを検知する。通知対象検知部221は、カメラ20E~20Fが撮影した映像データに関して、医療関係者等の特定情報を分析対象とし、非医療関係者等の特定情報を分析対象としないことにより、第2の領域に存在し、かつ第1の領域に存在しない通知対象として、医療関係者NEを検知し、非医療関係者NFを検知しないようにしても良い。ただし、通知対象検知部221は、カメラ20E~20Fが撮影した映像データに関して、医療関係者及び非医療関係者の両方の特定情報を分析対象とするものの、分析の結果検知した非医療関係者NFおよび車両NGを、通知の対象外として設定しても良い。
 分析部222は、(2A)と同様の処理を実行する。決定部223は、通知対象が医療関係者NA、車両NC及び医療関係者NE(医療関係者やその車両)である場合と、通知対象が非医療関係者NB(一般人)である場合と、通知対象が病院D(医療機関)である場合とで、対処方法を分けて決定する。この決定方法は(2A)に記載の通りである。
 送受信部224は、処置の情報と、所定の領域に存在するAEDの場所の情報を含めた対処方法を、端末23Eに通知する。ここで、端末23Eは、医療関係者NEが保有するスマートフォンであり、その連絡先情報は、医療関係者NEに関連付けられて記憶部225に格納されている。送受信部224は、端末23A~23Cについては、(2A)と同様に通知を行う。また、送受信部224は、対処方法と併せて、通知サーバ22が受信した事故現場の位置情報を、各通知対象の端末23に通知する。
 以上のように、通知対象検知部221は、通知対象の候補として、第1の種類の候補が領域R1に存在すること、及び、第2の種類の候補が領域R2に存在することを検知し、送受信部224は、領域R1に存在する第1の種類の候補、及び、領域R2に存在する第2の種類の候補を通知対象として、対処方法を通知することができる。医療関係者等は、負傷者又は急病人の救護が職務の一環といえるため、事故現場からやや離れた位置にいても事故現場に到着することが期待できる。一方、一般人のボランティア等は、救護について不慣れであり、かつ別の仕事を有していることもあるため、事故現場からやや離れた位置にいる場合に、救援を求めることが現実的でない可能性がある。通知サーバ22は、この点を考慮し、通知対象の属性に応じて検知領域(すなわち、救援を求める範囲)を変更して、より負傷者又は急病人の救護がなされる可能性を増大させることができる。ただし、送受信部224は、領域R1に存在する第1の種類の候補、及び、領域R2に存在する第2の種類の候補の少なくともいずれかに対して通知をしても良い。
 なお、通知対象の候補として特定される個人の属性は、第1の種類の候補が「非医療関係者」、第2の種類の候補が「医療関係者」としたが、この例には限られない。例えば、第2の種類の候補として、消防士、警察官、事故に対応する会社のスタッフ等、事故現場に向かうことが職務である人物が含まれていても良い。また、通知対象となる候補は2種類に限られず、3種類以上設定されても良いし、それに対応して、それぞれの種類の候補を通知対象検知部221が検知対象とする検知領域も、3種類以上設定されても良い。各種医療機器が存在する場所の通知対象となる所定の領域(第3の領域)は、複数設定された検知領域のいずれかと同じ領域であっても良いし、そのいずれとも異なる領域であっても良い。
 実施の形態3
 実施の形態3では、通知対象の候補が有する端末から通知サーバが位置情報を取得することにより、通知対象を検知する例を説明する。以降の説明では、実施の形態2と異なる点を説明し、実施の形態2と同じ点については、適宜説明を省略する。
 図13は、通知システムの一例を示す概略図である。通知システムS3は、カメラ20A~20N、MECサーバ21、通知サーバ32及び端末33A~33C、23Dを備える。なお、端末33A~33Cを総称して端末33と呼称する。なお、カメラ20及びMECサーバ21は、図5、7に記載の構成を備える。
 カメラ20は、(2A)と同様に、映像データをMECサーバ21に送信する。MECサーバ21の事故発生検知部211も、(2A)と同様に、カメラ20A~20Nから送信された映像データを用いて、事故の発生を検知する。その結果、送受信部212は、事故があった交差点C1を撮影したカメラ20A、20Bの映像データと、事故現場の位置情報を併せて通知サーバ22に送信する。ただし、MECサーバ21は、事故現場を含む第1の領域である領域R1を判定する必要はなく、またその結果として、カメラ20C、20Dが撮影した映像データを通知サーバ22に送信する必要はない。したがって、記憶部213は、第1の領域の設定基準等を記憶する必要はない。
 図14は、実施の形態3に係る通知サーバ32の一例を示すブロック図である。通知サーバ32は、実施の形態2に係る通知サーバ22の構成に加えて、位置情報取得部321を備える。
 位置情報取得部321は、各通知対象の候補が有する端末33から、その位置情報を取得する。位置情報取得部321は、例えばGPS(Global Positioning System)等の衛星測位システム、又は屋内測位技術といった測位技術を用いて端末33が取得した自端末の位置情報を、その端末33の送受信部232から受信する。この位置情報は、所定のタイミングで更新される。
 通知対象検知部221は、位置情報取得部321が取得した端末33の最新の位置情報に基づいて、事故現場を含む第1の領域に存在する通知対象の候補を検知する。事故発生検知部211は、例えば、検出した事故現場の位置情報と、記憶部225に格納された事故現場周辺の地図情報及び第1の領域の設定基準を用いて、第1の領域を設定することができる。この方法の詳細については、実施の形態2で示した通りである。また、通知対象検知部221は、通知対象の候補に関連付けられた端末(例えば、候補者が保有している端末)が第1の領域に存在することを検知した場合に、その通知対象の候補が第1の領域に存在することを検知する。
 例えば、図6に示した例では、第1の領域である領域R1に、通知対象の候補である医療関係者NA、非医療関係者NB及び車両NCがそれぞれ保有する端末33A、33B及び33Cが位置している。一方、領域R1外には、通知対象の候補である医療関係者NE及び非医療関係者NFがそれぞれ保有する端末33E及び33Fが位置している。通知対象検知部221は、位置情報取得部321が取得した端末33の位置情報に基づいて、領域R1と各端末33のこのような位置関係を分析する。この分析に基づき、通知対象検知部221は、領域R1に存在する通知対象として、医療関係者NA、非医療関係者NB及び車両NCを検知する。
 分析部222及び決定部223の実行する処理は、(2A)と同様である。また、送受信部224も、(2A)と同様にして、処置の情報と、所定の領域に存在するAEDの場所の情報を含めた対処方法を、端末33A、33Cに通知し、手当の情報と、所定の領域に存在するAEDの場所の情報を含めた対処方法を、端末33Bに通知する。ここで、端末33A、33Bは、それぞれ医療関係者NA、非医療関係者NBが保有するスマートフォンであり、端末33Cは、車両NCに搭載されたカーナビゲーションである。端末33A、33B、33Cの連絡先情報は、それぞれ医療関係者NA、非医療関係者NB及び車両NCに関連付けられて、通知対象の候補の情報として記憶部225に格納されている。その他に送受信部224が実行する処理は、(2A)と同様であるため、説明を省略する。
 記憶部225には、通知対象検知部221~送受信部224が実行する処理に必要な情報が格納されている。ただし、通知対象検知部221は、カメラの映像データから通知対象の候補を検知するものではないため、記憶部225には、所定の個人又は車両を特定する顔認証用の特定情報が格納される必要はない。
 図15は、端末33の一例を示すブロック図である。端末33は、実施の形態2に係る端末23の構成に加えて、位置検出部331をさらに備える。
 位置検出部331は、衛星測位システム、屋内測位技術といった何らかの測位技術を用いて、端末33自身の位置情報を所定のタイミングで更新する。位置情報が更新されたときに、位置検出部331は、送受信部232によって、自身の位置情報を通知サーバ32に送信する。位置検出部331が位置情報を通知サーバ32に送信するタイミングは、所定周期及び所定イベント検出時の少なくともいずれかとすることができる。所定イベントとは、端末33がLTEや5G等のセルラ方式の無線通信を用いる場合、接続する基地局やセルの変更であってもよい。また、所定イベントとは、端末33の所定の距離の移動、所定の時刻、通知サーバ32からの要求等であってもよい。位置検出部331は、例えば端末33に通知用のアプリケーションがインストールされ、端末33の制御部がそのアプリケーションを動作させることによって実現される。出力部231~記憶部233が実行する処理は、(2A)と同様であるため、説明を省略する。一例として、通知用のアプリケーションが端末33にインストールされた場合、出力部231は画面上のプッシュ通知として、通知サーバ32から受信した対処方法及び事故現場の位置情報を表示しても良い。
 以上のように、位置情報取得部321は、通知対象の候補が有する端末33からその端末の位置情報を取得し、通知対象検知部221は、位置情報取得部321が取得した位置情報に基づいて通知対象を検知することができる。これにより、通知サーバ22は、カメラ20に映っていない通知対象の候補も検知して対処方法を通知することができるため、対処方法を通知可能な通知先をより増加させることができる。したがって、より多くの人々の救護への協力が期待できる。
 なお、実施の形態3においても、(2B)に示した通り、通知対象となる候補は2種類以上設定されても良いし、それに対応して、それぞれの種類の候補を通知対象検知部221が検知対象とする領域も、2種類以上設定されても良い。その他、実施の形態3では、実施の形態2に記載したバリエーションを、適宜適用することができる。
 実施の形態4
 実施の形態4では、対処方法を通知された端末が、通知された対処方法を出力するか否かを制御する例を説明する。以降の説明では、実施の形態3と異なる点を説明し、実施の形態3と同じ点については、適宜説明を省略する。
 図16は、通知システムの一例を示す概略図である。通知システムS4は、カメラ20A~20N、MECサーバ21、通知サーバ42及び端末43A~43C、23Dを備える。なお、端末43A~43Cを総称して端末43と呼称する。カメラ20及びMECサーバ21は、実施の形態3と同じ処理を実行する。
 図17は、実施の形態4に係る通知サーバ42の一例を示すブロック図である。通知サーバ42は、実施の形態2に係る通知サーバ22の通知対象検知部221に代えて、通知領域特定部421を備える。実施の形態2、3では、通知サーバが通知対象の候補の中から所定の検知領域に存在するものを通知対象として選択したのに対し、この通知サーバ42は、登録された人及び車両に関する全ての通知対象に対して対処方法を通知する。そのため、通知サーバ42は、通知対象を検知するための通知対象検知部221を備える必要がなくなる。
 通知領域特定部421は、事故現場の位置情報と、記憶部225に格納された第1の領域の設定基準に基づいて、通知対象とする領域R1を設定する。この設定の詳細は、上述の通りである。
 通知サーバ42の分析部222は、実施の形態2と同じ処理を実行する。また、決定部223も、実施の形態2と同様に、通知対象が第1の種類(例えば医療関係者又はその車両)である場合と、通知対象が第2の種類(例えば一般人)である場合と、医療機関である場合とで、対処方法を分けて決定する。
 送受信部224は、記憶部225に格納された人及び車両に関する全ての通知対象に対して、決定部223が決定した対処方法を通知する。このようにして、送受信部224は、処置の情報と、所定の領域に存在するAEDの場所の情報を含めた対処方法を、端末43A、43Cを含めた第1の種類の通知対象に通知する。また、送受信部224は、手当の情報と、所定の領域に存在するAEDの場所の情報を含めた対処方法を、端末43Bを含めた第2の種類の通知対象に通知する。さらに、送受信部224は、分析対象人物への処置及び分析対象人物の受け入れ要請を含めた対処方法を、端末23Dに通知する。なお、第1及び第2の種類の通知対象への通知は、端末毎のユニキャスト通信でなされても良いし、第1又は第2の種類の通知対象毎のマルチキャスト通信でなされても良いし、基地局やセルを単位にしたマルチキャスト通信でなされても良い。
 また、送受信部224は、対処方法と併せて、事故現場の位置情報と、通知領域特定部421が設定した領域R1に関する情報を、各通知対象の端末43A~43C、23Dに通知する。
 記憶部225には、通知領域特定部421~送受信部224が実行する処理に必要な情報が格納されている。例えば、記憶部225には、次の情報が格納されている。
(i)通知対象となる所定の機関、個人並びに車両の情報、及びその各々の情報に関連付けられた通知の送信先となる機関、個人及び車両の端末情報
(ii)分析部222が顔認証を実行するための登録者の顔情報
(iii)各種医療機器(例えばAED)が設けられた位置情報の一覧及び、各種医療機器が存在する場所の通知対象となる所定の領域(第3の領域)の設定基準
(iv)第1の領域の設定基準
(i)の情報に基づいて、送受信部224が対処方法を通知する所定の機関を決定する方法は、実施の形態2に記載した通りである。また、記憶部225には、所定の個人又は車両を特定する特定情報が格納される必要はない。
 図18は、端末43の一例を示すブロック図である。端末43は、実施の形態3に係る端末33の構成に加えて、出力制御部431をさらに備える。
 送受信部232は、通知サーバ42の送受信部224から各端末43に送信された対処方法、事故現場の位置情報及び領域R1に関する情報を受信する。出力制御部431は、位置検出部331が検出した最新の自端末の位置情報と、受信した領域R1に関する情報とを比較して、自端末が領域R1内にいるか否かを判定する。
 自端末が領域R1内にいると判定した場合、出力制御部431は、出力部231に対して、通知サーバ42より受信した対処方法及び事故現場の位置情報を出力させる制御をする。出力は、例えばアプリケーションのプッシュ通知としてなされる。これにより、端末43のユーザ(すなわち通知対象)は、対処方法等の情報を知ることができる。これに対し、自端末が領域R1の外にいると判定した場合、出力制御部431は、出力部231に対して、通知サーバ42より受信した対処方法及び事故現場の位置情報を出力させない制御をする。したがって、端末43のユーザは、対処方法等の情報を知ることはない。その他、端末43が実行する処理については、実施の形態3と同様であるため、説明を省略する。
 この実施の形態では、通知サーバ42が、通知対象を特定する必要がないため、通知サーバ42をより簡易に構成することができる。また、事故現場から近くにいる通知対象の人物に対しては対処方法等が出力されるが、事故現場から遠くにいる通知対象の人物に対しては対処方法等が出力されない。したがって、事故現場から遠くにいる通知対象の人物の負担を削減することができる。
 なお、実施の形態4においても、(2B)に示した通り、通知対象となる候補は2種類以上設定されても良いし、それに対応して、通知領域特定部421は、それぞれの種類の候補に対して、通知対象とする領域を2種類以上設定しても良い。例えば、通知領域特定部421は、事故現場の位置情報と、記憶部225に格納された第1及び第2の領域の設定基準に基づいて、第1の種類の通知対象に対処方法が通知される領域R1、及び、第2の種類の通知対象に対処方法が通知される領域R2を設定する。送受信部224は、通知対象が第1の種類である場合には、対処方法等と併せて領域R1に関する情報を通知し、通知対象が第2の種類である場合には、対処方法等と併せて領域R2に関する情報を通知する。
 送受信部232は、通知サーバ42の送受信部224から各端末43に送信された対処方法、事故現場の位置情報及び領域R1又はR2に関する情報を受信する。出力制御部431は、位置検出部331が検出した最新の自端末の位置情報と、受信した領域R1又はR2の位置情報とを比較して、自端末が領域R1又はR2内にいるか否かを判定する。判定結果に応じて、出力制御部431は、上述の制御をする。なお、端末43の記憶部233には、自身が第1の種類と第2の種類のいずれの通知対象かを示す属性情報が格納されていてもよい。出力制御部431は、この属性情報をもとに、領域R1及び領域R2のどちらを、上述の自端末の位置に関する判定において用いるかを判断してもよい。これにより、例えば医療関係者の端末には、事故現場からある程度遠くにいても対処方法が出力されるのに対し、一般人のボランティア等の端末には、事故現場からある程度遠いと対処方法が出力されないようにすることができる。
 なお、通知サーバ42は、通知領域特定部421を備えていなくとも良い。この場合、例えば送受信部224は、対処方法と併せて、事故現場の位置情報と、第1の領域の設定基準を、各通知対象の端末43に通知する。出力制御部431は、受信した事故現場の位置情報及び第1の領域の設定基準に基づいて、通知対象とする領域R1を設定する。そして、位置検出部331が検出した最新の自端末の位置情報と、領域R1の位置情報とを比較して、自端末が領域R1内にいるか否かを判定する。このようにしても、事故現場から遠くにいる通知対象の人物に対し、対処方法等を出力させないようにすることができる。領域R1ではなく、領域R2等、他の領域が設定された場合にも、この制御は当然可能である。なお、端末43の記憶部233に、第1の領域の設定基準を事前に格納するようにしてもよい。この場合、送受信部224は、第1の領域の設定基準を、対処方法及び事故現場の位置情報と併せて端末43に通知する必要はない。
 実施の形態4のその他のバリエーションについては、実施の形態2、3に記載されたものを、適宜適用することができる。
 実施の形態5
 (5A)
 実施の形態5では、通知サーバがネットワークの構成を利用して、事故現場の近くにいる通知対象に対処方法を通知する例を説明する。以降の説明では、実施の形態2と異なる点を説明し、実施の形態2と同じ点については、適宜説明を省略する。
 実施の形態5にかかる通知システムは、図4に記載の通りであり、図4に係る各装置の構成は、図5、7、8、9に記載の通りである。ただし、通知サーバ22は、次の通り、実施の形態2とは異なる処理を実行する。
 通知対象検知部221は、事故現場の位置を自局のセル内に含む1又は複数の基地局を特定する。通知対象検知部221は、各基地局の識別情報に関連付けられた、各基地局のセルがカバーする位置情報と、事故現場の位置とを比較することによってこの特定を行う。各基地局のセルがカバーする位置情報は、記憶部225に記憶されたものが用いられても良いし、他のデータベース等に記憶されたものを通知対象検知部221が取得して用いても良い。これにより、通知対象検知部221は、特定された基地局配下にある端末全部を通知対象として設定することで、通知対象を検知する。
 分析部222は、実施の形態2と同様の処理を実行する。決定部223は、通知対象が、特定された基地局配下にある端末全部である場合に、第1の種類の候補(非医療関係者)向けの対処方法と、第2の種類の候補(医療関係者)向けの対処方法の両方を含めた対処方法を決定する。ただし、決定部223は、第1の種類の候補向けの対処方法と、第2の種類の候補向けの対処方法のいずれか1つを、対処方法に含めても良い。この詳細は実施の形態4に記載の通りである。また、通知対象が病院Dである場合に、決定部223は、実施の形態2に記載のように対処方法を決定する。
 送受信部224は、通知対象検知部221が特定した基地局配下にある全ての端末に対して、ブロードキャスト通信またはマルチキャスト通信で、決定部223が決定した対処方法、及び事故現場の位置情報を通知してもよい。ブロードキャスト通信またはマルチキャスト通信として、例えば、LTE網であればeMBMS(evolved Multimedia Broadcast Multicast System)やSC-PTM(Single Cell Point To Multipoint)、5G網であればFeMBMS(Further evolved Multimedia Broadcast Multicast Service)を用いてもよい。なお、通知対象である病院Dについては、実施の形態2に記載のように、対処方法及び事故現場の位置情報を通知する。
 記憶部225には、通知対象検知部221~送受信部224が実行する処理に必要な情報が格納されている。具体的には、次の情報が格納されている。
(i)通知対象の候補となる所定の機関の情報、及びそれに関連付けられた通知の送信先となる機関の端末情報
(ii)分析部222が顔認証を実行するための登録者の顔情報
(iii)各種医療機器(例えばAED)が設けられた位置情報の一覧、及び、各種医療機器が存在する場所の通知対象となる所定の領域(第3の領域)の設定基準
 また、記憶部225には、各基地局のセルがカバーする位置情報や、通知サーバ22が管轄するカメラ20が配置された場所の地図情報が格納されていても良い。
 通知サーバ22から対処方法及び事故現場の位置情報を受信した端末23は、実施の形態2に記載の通り、それらの情報をディスプレイ等に出力する。以上のようにすることで、通知サーバ22は、基地局配下にいる、端末を有する不特定多数のユーザに対し、対処方法等を通知することができる。したがって、負傷者又は急病人の救護がなされる確率を高めることができる。
 なお、通知対象検知部221が特定する1又は複数の基地局は、最大のセル規模を有するマクロセル基地局、及びそれよりも小さいセル規模(例えば、マイクロセル、ピコセル、フェムトセル)を有するスモールセル基地局のいずれかであっても良いし、その両方を含んでも良い。さらに、通知対象検知部221は、事故現場の位置を自局のセル内に含む基地局だけでなく、それに隣接した基地局等、近傍の基地局についても、特定の対象としても良い。その他のバリエーションについても、従前の実施の形態に記載されたものを、適宜適用することができる。
 (5B)
 通知対象検知部221は、特定した基地局の配下にある全ての端末を通知対象とするのではなく、その基地局の配下にあって、特定の移動体通信事業者(通信キャリア)がサービスを提供している端末の情報を取得し、その端末を通知対象として検知しても良い。例えば、4Gのネットワークでは、コアネットワークにあるHSS(Home Subscriber server)が通信キャリアの加入者情報の管理をしており、コアネットワークのMME(Mobility Management Entity)が端末の位置情報や基地局間のハンドオーバーに関する管理(ユーザの移動管理)をしている。そのため、通知対象検知部221は、HSS及びMMEと通信することで、特定の基地局の配下にあって、特定の通信キャリアからサービスを提供されている端末の情報を取得することができる。
 他の例として、5Gのネットワークでは、ネットワーク機能の一つであるUDM(Unified Data Management)が通信キャリアの加入者情報の管理をしており、ネットワーク機能の一つであるAMF(Access and Mobility Management Function)が端末の位置情報や基地局間のハンドオーバーに関する管理(ユーザの移動管理)をしている。そのため、通知対象検知部221は、UDM及びAMFと通信することで、特定の基地局の配下にあって、特定の通信キャリアからサービスを提供されている端末の情報を取得することができる。また、5Gのネットワークの場合、通知対象検知部221は、5Gシステム外のアプリケーションに対して5Gシステム内のネットワーク機能や情報を開示する仕組みであるNEF(Network Exposure Function)を介して、端末の情報を取得してもよい。
 分析部222及び決定部223は、(5A)と同様の処理を実行する。送受信部224は、通知対象検知部221が特定した全ての端末に対して、決定部223が決定した対処方法、及び事故現場の位置情報を通知する。この通知方法は、ユニキャストによる通信であっても良いし、モバイルネットワークにおける緊急通報の仕組み等が用いられても良い。
 以上のようにしても、通知サーバ22は、基地局配下にいる、端末を有する不特定多数のユーザに対し、対処方法等を通知することができる。
 (5C)
 実施の形態5においても、通知対象となる候補は2種類以上設定されても良いし、それに対応して、それぞれの種類の候補を通知対象検知部221が通知対象とする領域も、2種類以上設定されても良い。第1の種類の通知対象は、例えば非医療関係者であり、第2の種類の通知対象は、例えば医療関係者である。
 図19は、通知対象とする領域を説明するための、基地局のセルの構成例を示す。この例では、通知対象検知部221は、事故現場の位置を自局のセルA内に含む基地局Aを特定する。また、通知対象検知部221は、セルAと隣接するセルB~セルGを特定することにより、それぞれのセルを構成する基地局B~基地局G(基地局Aの近傍に位置する基地局)をさらに特定する。通知対象検知部221は、(5A)に記載の通り、各基地局のセルがカバーする位置情報を用いて、この基地局の特定処理を行う。
 なお、記憶部225には、第1の種類及び第2の種類の候補の端末の識別情報と、通知対象の種類(通知対象が第1の種類か、又は第2の種類かを示す情報)との対応関係が記憶されている。さらに、記憶部225には、第1の種類に対処方法が通知される領域である第1の領域の設定基準と、第2の種類の候補に対処方法が通知される領域である第2の領域の設定基準がさらに記憶されている。
 通知対象検知部221は、第1の種類の候補として、セルAに収容され、記憶部225に記憶された候補である端末を通知対象とする一方、第2の種類の候補として、セルA~Gに収容され、記憶部225に記憶された候補である端末を通知対象とする。詳細には、通知対象検知部221は、各領域の設定基準を用いて、第1の領域としてセルA、第2の領域としてセルA~Gを特定する。また、通知対象検知部221は、LTEや5Gのネットワーク装置から、各基地局に接続されている端末の識別情報(例えば電話番号)を取得する。通知対象検知部221は、取得した各端末の識別情報を用いて、各端末の情報が記憶部225に記憶されているか、また記憶されている場合、その端末の通知対象の種類が何であるかを特定する。通知対象検知部221は、特定された通知対象の種類に基づいて、セルAに収容された第1の種類の候補の端末及びセルBに収容された第2の種類の候補の端末を、通知対象として検知することができる。これらの通知対象に対して対処方法を通知する方法は、上述の通りである。
 なお、(5A)に限らず、(5B)においても、通知対象検知部221は、同様の処理を実行することができる。(5B)では、通知対象検知部221は、特定の基地局の配下にあって、特定の通信キャリアからサービスを提供されている端末の識別情報を取得し、その識別情報が示す端末において、通知対象の種類が何であるかを特定する。これにより、通知対象検知部221は、各種類の候補の端末を、通知対象として検知することができる。実施の形態5のその他のバリエーションについては、実施の形態2~4に記載されたものを、適宜適用することができる。
 実施の形態6
 (6A)
 実施の形態2~4において、ユニキャスト通信で対処方法を通知する場合、通知サーバ22は、通知対象の候補となる端末が、個人が保有しているものか、それとも車両に搭載されたものかに応じて、通知対象として扱われる領域を変更しても良い。
 例えば、実施の形態2において、非医療関係者やその車両については、領域R1内に位置している場合には通知対象検知部221が通知対象として検知したものの、領域R1外に位置している場合には、通知対象として検知されなかった。しかしながら、非医療関係者の車両が、領域R1よりも広い所定の領域内に位置している場合でも、通知対象検知部221は、その候補を通知対象として検知しても良い。仮に、領域R2(図12参照)が、非医療関係者の車両に関する検知領域と設定された場合には、通知対象検知部221は、車両NGも検知対象として検知することができる。
 同様に、医療関係者の車両についても、その候補が車両であって、領域R2よりも広い所定の領域内に位置している場合でも、通知対象検知部221は、その車両を通知対象として検知しても良い。なお、通知対象の候補が個人か車両かについては、記憶部225に格納された通知対象の候補の端末情報に含まれている。また、通知対象の候補が車両である場合の検知領域の設定基準も、記憶部225に格納されている。通知対象検知部221は、これらの情報を利用して、検知領域を設定し、通知対象を検知することができる。例えば、通知対象検知部221は、医療関係者の車両に係る検知領域、非医療関係者の車両に係る検知領域、医療関係者の個人に係る検知領域、非医療関係者の個人に係る検知領域の順に、検知領域を広く設定しても良い。この順において、「非医療関係者の車両に係る検知領域」と「医療関係者の個人に係る検知領域」の順は逆でも良いし、両者が同じ広さの領域であっても良い。
 以上のように、通知サーバ22は、通知対象の候補が個人か車両かに応じて、検知領域を変更して設定することができる。通知対象者が、徒歩よりも早く移動可能な車両に搭乗している場合、事故現場からある程度遠くても、負傷者又は急病人の救護に間に合うことが期待される。そのため、車両に搭載された端末については、個人が保有している端末よりも検知領域を広く設定することで、より多くの人々の協力を得ることができる。
 上述の例では、通知対象が個人か車両かに応じて検知領域を変更したが、通知対象の候補を3種類以上に分けて、それぞれに検知領域を設定しても良い。例えば、通知対象検知部221は、検知対象の候補を、個人、自転車、自動車に分け、後の方になるほど、検知領域を広げるように設定しても良い。また、通知対象の候補が個人の場合には、通知対象の候補が非医療関係者か医療関係者かに関係なく、同じ検知領域を設定しても良い。通知対象の候補が車両の場合も同様である。つまり、「第1の種類の候補」を個人とし、「第2の種類の候補」を車両としても良い。
 (6B)
 実施の形態3において、通知サーバ32の位置情報取得部321は、所定のタイミングで取得した位置情報に基づいて、端末のユーザ(すなわち通知対象の候補)の移動履歴を生成しても良い。この移動履歴に基づいて、通知対象検知部221は、通知対象の候補の移動手段(徒歩か自動車か、等)や平均速度を分析し、それに基づいて検知領域を設定しても良い。
 例えば、通知対象検知部221は、ある医療関係者Hの保有する端末NHが、現在(通知対象検知部221のこの処理の実行時)から所定の過去のタイミングまでの期間、平均して時速30kmで動いていることを、その移動履歴に基づいて判定する。記憶部225には、平均速度の閾値として、「時速15km」が格納されている。通知対象検知部221は、端末NHの平均速度がその閾値以上であると判定することで、端末NH(すなわち医療関係者H)が自動車で移動していると推定する。したがって、通知対象検知部221は、端末NHの検知領域を、医療関係者の個人向けの領域R2ではなく、車両向けのさらに広い領域に設定することができる。
 一方、通知対象検知部221は、端末NHが、現在から所定の過去のタイミングまでの期間、平均して時速5kmで動いていることを判定した場合、端末NHの平均速度が閾値未満であると判定する。この場合、通知対象検知部221は、端末NHが徒歩で移動していると推定し、通知対象検知部221は、端末NHの検知領域を、医療関係者の個人向けの領域R2に設定する。なお、非医療関係者の保有する端末や、車両に備えられた端末についても、通知対象検知部221は、同様のロジックで検知領域を変更することができる。
 以上のように、通知サーバ22は、通知対象の候補が移動し易い状態、すなわち速く移動できる状態である場合に、検知領域を広く変更して設定することができる。そのため、救護に関して、より多くの人々の協力を得ることができる。
 なお、検知領域の変更は2段階でなく、3段階以上であっても良い。また、通知対象の候補が同じ速度で動いている場合には、非医療関係者か医療関係者かに関係なく、同じ検知領域が設定されても良い。
 なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、実施の形態1~6に係る発明は、その全部又は一部を適宜組み合わせることが可能である。
 実施の形態1にかかる通知装置10、又は実施の形態2~6に係る通知サーバは、分析部の分析結果である詳細情報(分析対象人物の体の状態に関する情報、少なくとも一部の個人情報、等の情報)を、上述の対処方法と併せて通知対象の端末に通知しても良い。また、詳細情報に代えて、又は詳細情報に加えて、カメラが撮影した分析対象人物の映像を、静止画又は動画として、対処方法と併せて通知対象の端末に通知しても良い。これにより、端末を視認したユーザは分析対象人物の状態を知ることができるため、より適切な救護ができるようになる。
 また、実施の形態1にかかる通知装置10、又は実施の形態2~6に係る通知サーバは、対処方法を通知する端末に対し、事故の詳細な情報(例えば目撃情報)を質問するアンケートをさらに送信しても良い。通知装置10又は通知サーバは、そのアンケートの回答を端末から受信することで、事故の詳細な情報を格納することができる。この情報は、分析対象人物が搬送された病院や、救急対応の部署、消防、警察など、救護に関する関係各所に共有させることができる。
 また、実施の形態2、3、5、6において、分析部222は、分析対象人物の負傷又は病気の度合い、及び分析対象人物(負傷者又は急病人)の数の少なくともいずれかに基づいて、事故の重大度を判定しても良い。通知対象検知部221は、その重大度に基づいて、検知領域を変更することができる。
 (2A)の例の場合、記憶部225には、事故の重大度の閾値として「4人」が格納されていても良い。ここで、分析部222が、事故の負傷者が1人であると判定した場合には、事故の負傷者が閾値未満であるため、分析部222は事故の重大度を「低」と判定する。この場合、通知対象検知部221は、検知領域を領域R1のままとする。これに対し、事故の負傷者が7人であると判定した場合には、事故の負傷者が閾値以上であるため、分析部222は事故の重大度を「高」と判定する。この場合、通知対象検知部221は、検知領域を、領域R1よりも広い所定の領域(例えば領域R2)と設定する。実施の形態3でも、同様の処理が実行できる。また、通知対象の候補が2種類以上に区分されることで、それぞれの種類の候補に対して異なる検知領域が予め設定されている場合でも、通知対象検知部221は、その複数の検知領域の少なくともいずれかに対して、事故の重大度に基づく同様の処理が実行できる。
 (5A)の例では、分析部222が事故の重大度を「低」と判定した場合、通知対象検知部221は、事故現場の位置を自局のセル内に含む1又は複数の基地局を特定する。これに対し、分析部222が事故の重大度を「高」と判定した場合、通知対象検知部221は、事故現場の位置を自局のセル内に含む基地局だけでなく、それに隣接した1又は複数の基地局(例えばマクロセル基地局)等、近傍の基地局についても、特定の対象とする。
 以上のように、通知対象検知部221は、事故の重大度に基づいて検知領域を変更することができるため、事故の重大度が高いほど、多くの協力者を集めることができる。したがって、重大な事故に対しても、適切な初動対応がなされる確率を高めることができる。なお、事故の重大度は3段階以上の判定が可能であっても良く、検知領域も、それに応じて、3段階以上の変更が可能であっても良い。
 また、通知対象検知部221は、当初の検知領域中に存在する通知対象が所定の閾値未満である場合には、検知領域を当初のものから広げて、新たに対象となる検知領域に存在する通知対象の候補も、新たな通知対象であるとして、検知しても良い。この判定に用いられる所定の閾値は、記憶部225に格納されている。通知対象検知部221は、検知領域を広げる処理を、存在する通知対象が所定の閾値以上となるまで繰り返し続けることができる。通知対象検知部221は、各実施の形態で説明した方法、すなわち、カメラからの映像データ、端末23からの位置情報、基地局情報のいずれで通知対象を特定する場合であっても、この処理を実行することができる。また、通知対象の候補が2種類以上に区分されることで、それぞれの種類の候補に対して異なる検知領域が予め設定されている場合でも、その複数の検知領域の少なくともいずれかに対して、同様の検知領域の変更処理が実行できる。これにより、通知サーバ22は、事故の初動対応に参加できる人員を確実に確保することができる。
 また、実施の形態1にかかる通知装置10、又は実施の形態2~6に係る通知サーバは、個人、車両及び機関の端末以外の端末に対しても、対処方法を通知しても良い。実施の形態2を例とすると、通知サーバ22は、事故現場の位置情報と、記憶部225に格納された、1又は複数のデジタルサイネージ端末の位置を示す地図情報とに基づいて、事故現場を含む所定の領域内にあるデジタルサイネージ端末に対し、第1の種類の通知対象(非医療関係者)向けの対処方法と、事故現場の位置情報を通知しても良い。通知を受けたデジタルサイネージ端末は、対処方法及び事故現場の位置情報を、画面や音声等で出力する。通行人がそのデジタルサイネージ端末を認識することで、通行人が負傷者又は急病人の初動対応をすることが期待される。なお、所定の領域は、記憶部225に格納されたものであっても良い。
 なお、このデジタルサイネージ端末への通知は、通知対象検知部221が当初に設定した検知領域中に存在する個人及び車両の通知対象が所定の閾値未満である場合になされても良い。また、通知対象となるデジタルサイネージ端末が含まれる所定の領域は、分析部222が判定した上述の事故の重大度に基づいて、重大度が高いほど、広げることができる。
 通知サーバ22は、デジタルサイネージ端末の例と同様にして、防災無線のスピーカを用いて、対処方法及び事故現場の位置情報を通知しても良い。スピーカからは、音声によって、周辺の人物に対し、対処方法及び事故現場の位置情報が出力される。
 また、実施の形態2~4、6において、通知対象検知部221が当初に設定した検知領域中に存在する個人及び車両の通知対象が所定の閾値未満である場合に、実施の形態5に係る処理が実施されても良い。
 また、通知対象検知部221は、記憶部225に格納された地図情報に基づいて、ある条件を満たす通知対象の候補を、通知対象から除外しても良い。例えば、事故現場が一般道路であるのに対し、地理上では事故現場の近傍に存在する通知対象の候補が、高速道路上にいる、又は電車の線路上にいる(すなわち通知対象者が電車に乗っている)場合には、通知対象者は、すぐに事故現場に急行することはできない。通知対象検知部221は、地図情報から通知対象の候補がいる場所の情報を参照することにより、このような場合を検知して、通知対象の候補を通知対象の選択から外す。
 また、送受信部224は、非医療関係者、医療関係者を問わず、車両に対処方法を通知する場合には、事故現場近くの駐車スペースの情報を、記憶部225に格納された地図情報に基づいて抽出し、対処方法と併せてその車両の端末23に通知しても良い。これにより、車両のユーザが事故現場に接近した際に、すぐに車両を停車させて現場に向かうことができるため、より迅速な救護が可能となる。
 以上に示した実施の形態では、この開示をハードウェアの構成として説明したが、この開示は、これに限定されるものではない。この開示は、上述の実施形態において説明された装置(通知装置、通知サーバ、MECサーバ、カメラ、端末のいずれか)の処理(ステップ)を、コンピュータ内のプロセッサにコンピュータプログラムを実行させることにより実現することも可能である。
 図20は、以上に示した各実施の形態の処理が実行される情報処理装置(信号処理装置)のハードウェア構成例を示すブロック図である。図20を参照すると、この情報処理装置90は、信号処理回路91、プロセッサ92及びメモリ93を含む。
 信号処理回路91は、プロセッサ92の制御に応じて、信号を処理するための回路である。なお、信号処理回路91は、送信装置から信号を受信する通信回路を含んでいても良い。
 プロセッサ92は、メモリ93からソフトウェア(コンピュータプログラム)を読み出して実行することで、上述の実施形態において説明された装置の処理を行う。プロセッサ92の一例として、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、FPGA(Field-Programmable Gate Array)、DSP(Demand-Side Platform)、ASIC(Application Specific Integrated Circuit)のうち一つを用いてもよいし、そのうちの複数を並列で用いてもよい。
 メモリ93は、揮発性メモリや不揮発性メモリ、またはそれらの組み合わせで構成される。メモリ93は、1個に限られず、複数設けられてもよい。なお、揮発性メモリは、例えば、DRAM (Dynamic Random Access Memory)、SRAM (Static Random Access Memory)等のRAM (Random Access Memory)であってもよい。不揮発性メモリは、例えば、PROM (Programmable Random Only Memory)、EPROM (Erasable Programmable Read Only Memory) 等のROM (Random Only Memory)や、SSD(Solid State Drive)であってもよい。
 メモリ93は、1以上の命令を格納するために使用される。ここで、1以上の命令は、ソフトウェアモジュール群としてメモリ93に格納される。プロセッサ92は、これらのソフトウェアモジュール群をメモリ93から読み出して実行することで、上述の実施形態において説明された処理を行うことができる。
 なお、メモリ93は、プロセッサ92の外部に設けられるものに加えて、プロセッサ92に内蔵されているものを含んでもよい。また、メモリ93は、プロセッサ92を構成するプロセッサから離れて配置されたストレージを含んでもよい。この場合、プロセッサ92は、I/O(Input/Output)インタフェースを介してメモリ93にアクセスすることができる。
 以上に説明したように、上述の実施形態における各装置が有する1又は複数のプロセッサは、図面を用いて説明されたアルゴリズムをコンピュータに行わせるための命令群を含む1又は複数のプログラムを実行する。この処理により、各実施の形態に記載された信号処理方法が実現できる。
 プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 1又は複数のカメラで撮影された映像から事故の発生を検知する事故発生検知手段と、
 前記映像を分析して、前記事故に係る分析対象人物の詳細情報を導出する分析手段と、
 前記詳細情報に基づいて、前記分析対象人物への対処方法を決定する決定手段と、
 決定された前記対処方法を通知対象に通知する通知手段と、を備える
 通知装置。
 (付記2)
 前記事故が発生した場所を含む第1の領域に存在する前記通知対象を検知する通知対象検知手段をさらに備え、
 前記通知手段は、前記通知対象検知手段が検知した前記通知対象に前記対処方法を通知する、
 付記1に記載の通知装置。
 (付記3)
 前記通知対象検知手段は、前記通知対象の候補である第1の種類の候補が前記第1の領域に存在すること、及び、前記通知対象の候補である第2の種類の候補が、前記第1の領域よりも広い、前記事故が発生した場所を含む第2の領域に存在することを検知し、
 前記通知手段は、前記通知対象検知手段が検知した前記第1の領域に存在する前記第1の種類の候補、及び、前記通知対象検知手段が検知した前記第2の領域に存在する前記第2の種類の候補、の少なくともいずれか一方を前記通知対象として、前記対処方法を通知する、
 付記2に記載の通知装置。
 (付記4)
 前記通知対象は、人物及び車両の少なくともいずれか一方を含む、
 付記2又は3に記載の通知装置。
 (付記5)
 前記決定手段は、前記対処方法の決定として、前記分析対象人物への手当又は処置の決定、及び、前記手当又は処置において使用される医療機器であって、前記事故が発生した場所を含む第3の領域に存在する医療機器の場所の特定の少なくともいずれか一方を実行し、
 前記通知手段は、前記決定された手当又は処置、及び、前記特定された医療機器の場所の少なくともいずれか一方を前記対処方法に含めて前記通知対象に通知する、
 付記2乃至4のいずれか1項に記載の通知装置。
 (付記6)
 前記通知対象検知手段は、前記通知対象の候補が前記映像に映っていることを判定することで、前記候補を前記通知対象として検知し、
 前記通知手段は、前記通知対象検知手段が検知した前記通知対象と関連付けられた端末に対して、前記対処方法を通知する、
 付記2乃至5のいずれか1項に記載の通知装置。
 (付記7)
 前記通知対象の候補が有する端末から、前記端末の位置情報を取得する位置情報取得手段をさらに備え、
 前記通知対象検知手段は、前記位置情報取得手段が取得した前記位置情報に基づいて前記通知対象を検知し、
 前記通知手段は、前記通知対象検知手段が検知した前記通知対象の端末に前記対処方法を通知する、
 付記2乃至5のいずれか1項に記載の通知装置。
 (付記8)
 前記通知対象検知手段は、前記事故が発生した場所を自局のセル内に含む1又は複数の基地局を特定することにより前記通知対象を検知し、
 前記通知手段は、前記通知対象検知手段が検知した前記通知対象の端末に前記対処方法を通知する、
 付記2乃至5のいずれか1項に記載の通知装置。
 (付記9)
 前記通知対象は、少なくとも医療又は救急に係る機関を含み、
 前記決定手段は、前記分析対象人物への処置、前記事故が発生した場所へのスタッフの派遣要請、前記分析対象人物の受け入れ要請及び処置の準備の少なくともいずれかが含まれるように前記対処方法を決定し、
 前記通知手段は、前記機関に前記対処方法を通知する、
 付記1又は2に記載の通知装置。
 (付記10)
 前記分析手段は、前記映像に映っている前記分析対象人物の顔画像と、登録者の顔情報とを用いた顔認証の認証結果に基づいて、前記分析対象人物を前記登録者の中から特定し、前記登録者に関連付けられた個人情報を前記詳細情報として導出し、
 前記決定手段は、前記個人情報に基づいて前記対処方法を決定する、
 付記1乃至9のいずれか1項に記載の通知装置。
 (付記11)
 前記個人情報は、既往歴、現病歴、妊娠の有無、年齢、性別、血液型、アレルギー情報、個人番号、かかりつけ医療機関、及び緊急連絡先の少なくともいずれかを含む、
 付記10に記載の通知装置。
 (付記12)
 前記通知手段は、前記個人情報に基づいて前記通知対象を決定し、決定した前記通知対象に通知する、
 付記10又は11に記載の通知装置。
 (付記13)
 前記詳細情報は、意識状態、呼吸状態、出血状態、骨折状態、火傷状態、強打部位、痙攣状態、歩行状態、心拍状態、脈拍状態及び体温状態の少なくともいずれかを含む、
 付記1乃至12のいずれか1項に記載の通知装置。
 (付記14)
 1又は複数のカメラと、
 前記1又は複数のカメラと接続された通知装置と、
 前記通知装置から通知を受信する1又は複数の端末と、を備え、
 前記通知装置は、
 前記1又は複数のカメラで撮影された映像から事故の発生を検知する事故発生検知手段と、
 前記映像を分析して、前記事故に係る分析対象人物の詳細情報を導出する分析手段と、
 前記詳細情報に基づいて、前記分析対象人物への対処方法を決定する決定手段と、
 決定された前記対処方法を前記1又は複数の端末に通知する通知手段と、を有する
 通知システム。
 (付記15)
 前記1又は複数のカメラは、信号機、路側機、交差点及び踏切の少なくともいずれかに設けられている、
 付記14に記載の通知システム。
 (付記16)
 1又は複数のカメラで撮影された映像から事故の発生を検知する事故発生検知ステップと、
 前記映像を分析して、前記事故に係る分析対象人物の詳細情報を導出する分析ステップと、
 前記詳細情報に基づいて、前記分析対象人物への対処方法を決定する決定ステップと、
 決定された前記対処方法を通知対象に通知する通知ステップと、
 を通知装置が実行する通知方法。
 (付記17)
 1又は複数のカメラで撮影された映像から事故の発生を検知する事故発生検知ステップと、
 前記映像を分析して、前記事故に係る分析対象人物の詳細情報を導出する分析ステップと、
 前記詳細情報に基づいて、前記分析対象人物への対処方法を決定する決定ステップと、
 決定された前記対処方法を通知対象に通知する通知ステップと、
 をコンピュータに実行させるプログラムが格納された非一時的なコンピュータ可読媒体。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
S1~S4        通知システム
10           通知装置
101          事故発生検知部    102    分析部
103          決定部        104    通知部
11           カメラ
12           端末
20           カメラ
201          撮影部        202    送受信部
203          記憶部
21           MECサーバ
211          事故発生検知部    212    送受信部
213          記憶部
22、32、42、52  通知サーバ
221          通知対象検知部    222    分析部
223          決定部        224    送受信部
225          記憶部        321    位置情報取得部
421          通知領域特定部
23、33、43、53  端末
231          出力部        232    送受信部
233          記憶部        231    位置検出部
331          位置検出部      431    出力制御部
90           情報処理装置
91           信号処理回路      92    プロセッサ
93           メモリ

Claims (17)

  1.  1又は複数のカメラで撮影された映像から事故の発生を検知する事故発生検知手段と、
     前記映像を分析して、前記事故に係る分析対象人物の詳細情報を導出する分析手段と、
     前記詳細情報に基づいて、前記分析対象人物への対処方法を決定する決定手段と、
     決定された前記対処方法を通知対象に通知する通知手段と、を備える
     通知装置。
  2.  前記事故が発生した場所を含む第1の領域に存在する前記通知対象を検知する通知対象検知手段をさらに備え、
     前記通知手段は、前記通知対象検知手段が検知した前記通知対象に前記対処方法を通知する、
     請求項1に記載の通知装置。
  3.  前記通知対象検知手段は、前記通知対象の候補である第1の種類の候補が前記第1の領域に存在すること、及び、前記通知対象の候補である第2の種類の候補が、前記第1の領域よりも広い、前記事故が発生した場所を含む第2の領域に存在することを検知し、
     前記通知手段は、前記通知対象検知手段が検知した前記第1の領域に存在する前記第1の種類の候補、及び、前記通知対象検知手段が検知した前記第2の領域に存在する前記第2の種類の候補、の少なくともいずれか一方を前記通知対象として、前記対処方法を通知する、
     請求項2に記載の通知装置。
  4.  前記通知対象は、人物及び車両の少なくともいずれか一方を含む、
     請求項2又は3に記載の通知装置。
  5.  前記決定手段は、前記対処方法の決定として、前記分析対象人物への手当又は処置の決定、及び、前記手当又は処置において使用される医療機器であって、前記事故が発生した場所を含む第3の領域に存在する医療機器の場所の特定の少なくともいずれか一方を実行し、
     前記通知手段は、前記決定された手当又は処置、及び、前記特定された医療機器の場所の少なくともいずれか一方を前記対処方法に含めて前記通知対象に通知する、
     請求項2乃至4のいずれか1項に記載の通知装置。
  6.  前記通知対象検知手段は、前記通知対象の候補が前記映像に映っていることを判定することで、前記候補を前記通知対象として検知し、
     前記通知手段は、前記通知対象検知手段が検知した前記通知対象と関連付けられた端末に対して、前記対処方法を通知する、
     請求項2乃至5のいずれか1項に記載の通知装置。
  7.  前記通知対象の候補が有する端末から、前記端末の位置情報を取得する位置情報取得手段をさらに備え、
     前記通知対象検知手段は、前記位置情報取得手段が取得した前記位置情報に基づいて前記通知対象を検知し、
     前記通知手段は、前記通知対象検知手段が検知した前記通知対象の端末に前記対処方法を通知する、
     請求項2乃至5のいずれか1項に記載の通知装置。
  8.  前記通知対象検知手段は、前記事故が発生した場所を自局のセル内に含む1又は複数の基地局を特定することにより前記通知対象を検知し、
     前記通知手段は、前記通知対象検知手段が検知した前記通知対象の端末に前記対処方法を通知する、
     請求項2乃至5のいずれか1項に記載の通知装置。
  9.  前記通知対象は、少なくとも医療又は救急に係る機関を含み、
     前記決定手段は、前記分析対象人物への処置、前記事故が発生した場所へのスタッフの派遣要請、前記分析対象人物の受け入れ要請及び処置の準備の少なくともいずれかが含まれるように前記対処方法を決定し、
     前記通知手段は、前記機関に前記対処方法を通知する、
     請求項1又は2に記載の通知装置。
  10.  前記分析手段は、前記映像に映っている前記分析対象人物の顔画像と、登録者の顔情報とを用いた顔認証の認証結果に基づいて、前記分析対象人物を前記登録者の中から特定し、前記登録者に関連付けられた個人情報を前記詳細情報として導出し、
     前記決定手段は、前記個人情報に基づいて前記対処方法を決定する、
     請求項1乃至9のいずれか1項に記載の通知装置。
  11.  前記個人情報は、既往歴、現病歴、妊娠の有無、年齢、性別、血液型、アレルギー情報、個人番号、かかりつけ医療機関、及び緊急連絡先の少なくともいずれかを含む、
     請求項10に記載の通知装置。
  12.  前記通知手段は、前記個人情報に基づいて前記通知対象を決定し、決定した前記通知対象に、決定された前記対処方法を通知する、
     請求項10又は11に記載の通知装置。
  13.  前記詳細情報は、意識状態、呼吸状態、出血状態、骨折状態、火傷状態、強打部位、痙攣状態、歩行状態、心拍状態、脈拍状態及び体温状態の少なくともいずれかを含む、
     請求項1乃至12のいずれか1項に記載の通知装置。
  14.  1又は複数のカメラと、
     前記1又は複数のカメラと接続された通知装置と、
     前記通知装置から通知を受信する1又は複数の端末と、を備え、
     前記通知装置は、
     前記1又は複数のカメラで撮影された映像から事故の発生を検知する事故発生検知手段と、
     前記映像を分析して、前記事故に係る分析対象人物の詳細情報を導出する分析手段と、
     前記詳細情報に基づいて、前記分析対象人物への対処方法を決定する決定手段と、
     決定された前記対処方法を前記1又は複数の端末に通知する通知手段と、を有する
     通知システム。
  15.  前記1又は複数のカメラは、信号機、路側機、交差点及び踏切の少なくともいずれかに設けられている、
     請求項14に記載の通知システム。
  16.  1又は複数のカメラで撮影された映像から事故の発生を検知する事故発生検知ステップと、
     前記映像を分析して、前記事故に係る分析対象人物の詳細情報を導出する分析ステップと、
     前記詳細情報に基づいて、前記分析対象人物への対処方法を決定する決定ステップと、
     決定された前記対処方法を通知対象に通知する通知ステップと、
     を通知装置が実行する通知方法。
  17.  1又は複数のカメラで撮影された映像から事故の発生を検知する事故発生検知ステップと、
     前記映像を分析して、前記事故に係る分析対象人物の詳細情報を導出する分析ステップと、
     前記詳細情報に基づいて、前記分析対象人物への対処方法を決定する決定ステップと、
     決定された前記対処方法を通知対象に通知する通知ステップと、
     をコンピュータに実行させるプログラムが格納された非一時的なコンピュータ可読媒体。
PCT/JP2021/013217 2021-03-29 2021-03-29 通知装置、通知システム、通知方法及び非一時的なコンピュータ可読媒体 WO2022208586A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP21934763.0A EP4273829A4 (en) 2021-03-29 2021-03-29 NOTIFICATION DEVICE, NOTIFICATION SYSTEM, NOTIFICATION METHOD AND NON-TRANSITORY COMPUTER-READABLE MEDIUM
US18/274,695 US20240127595A1 (en) 2021-03-29 2021-03-29 Notification device, notification system, notification method, and non-transitory computer-readable medium
PCT/JP2021/013217 WO2022208586A1 (ja) 2021-03-29 2021-03-29 通知装置、通知システム、通知方法及び非一時的なコンピュータ可読媒体
JP2023509901A JPWO2022208586A5 (ja) 2021-03-29 通知装置、通知システム、通知方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/013217 WO2022208586A1 (ja) 2021-03-29 2021-03-29 通知装置、通知システム、通知方法及び非一時的なコンピュータ可読媒体

Publications (1)

Publication Number Publication Date
WO2022208586A1 true WO2022208586A1 (ja) 2022-10-06

Family

ID=83458405

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/013217 WO2022208586A1 (ja) 2021-03-29 2021-03-29 通知装置、通知システム、通知方法及び非一時的なコンピュータ可読媒体

Country Status (3)

Country Link
US (1) US20240127595A1 (ja)
EP (1) EP4273829A4 (ja)
WO (1) WO2022208586A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001325689A (ja) * 2000-05-18 2001-11-22 Nec Corp 救急用車両の配車管理方法、コールセンタ、救急通報端末および配車管理システムと記憶媒体
JP2002008184A (ja) * 2000-06-20 2002-01-11 Nec Corp 交通事故検出システム、方法、画像処理装置及びプログラムを記録した記録媒体
WO2005101346A1 (ja) 2004-03-31 2005-10-27 Hitachi Zosen Corporation 突発事象の記録・解析システム
JP2016096574A (ja) 2009-11-13 2016-05-26 ゾール メディカル コーポレイションZOLL Medical Corporation 地域密着型応答システム
JP2018110304A (ja) * 2016-12-28 2018-07-12 パナソニックIpマネジメント株式会社 監視システム、監視方法、及びプログラム
JP2019101983A (ja) 2017-12-07 2019-06-24 日本電気株式会社 コンテンツ選定装置、コンテンツ選定方法及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8576066B2 (en) * 2011-02-28 2013-11-05 International Business Machines Corporation Managing emergency response services using mobile communication devices
US9491277B2 (en) * 2014-04-03 2016-11-08 Melissa Vincent Computerized method and system for global health, personal safety and emergency response

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001325689A (ja) * 2000-05-18 2001-11-22 Nec Corp 救急用車両の配車管理方法、コールセンタ、救急通報端末および配車管理システムと記憶媒体
JP2002008184A (ja) * 2000-06-20 2002-01-11 Nec Corp 交通事故検出システム、方法、画像処理装置及びプログラムを記録した記録媒体
WO2005101346A1 (ja) 2004-03-31 2005-10-27 Hitachi Zosen Corporation 突発事象の記録・解析システム
JP2016096574A (ja) 2009-11-13 2016-05-26 ゾール メディカル コーポレイションZOLL Medical Corporation 地域密着型応答システム
JP2018110304A (ja) * 2016-12-28 2018-07-12 パナソニックIpマネジメント株式会社 監視システム、監視方法、及びプログラム
JP2019101983A (ja) 2017-12-07 2019-06-24 日本電気株式会社 コンテンツ選定装置、コンテンツ選定方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4273829A4

Also Published As

Publication number Publication date
EP4273829A1 (en) 2023-11-08
EP4273829A4 (en) 2024-03-13
US20240127595A1 (en) 2024-04-18
JPWO2022208586A1 (ja) 2022-10-06

Similar Documents

Publication Publication Date Title
US10796560B2 (en) Personal emergency response system with predictive emergency dispatch risk assessment
US9411997B1 (en) Systems and methods for tracking subjects
US20200346751A1 (en) Unmanned aerial vehicle emergency dispatch and diagnostics data apparatus, systems and methods
WO2020151339A1 (zh) 基于无人驾驶车辆的异常处理方法、装置及相关设备
WO2012002435A1 (ja) 感染拡大防止支援システム、感染拡大防止支援サーバ、検査端末、移動端末及びプログラム
JP2023517097A (ja) 船内病原体感染追跡のための接触者追跡システム及び方法
US20150312739A1 (en) Computer program, method, and system for obtaining and providing emergency services
TW201921905A (zh) 使用語音和感測器資料擷取的緊急回應
KR102232485B1 (ko) 분산형 동선 추적 장치 및 이를 이용한 방법
CN111862532A (zh) 一种面对突发状况的报警系统
Chiou et al. A real-time, automated and privacy-preserving mobile emergency-medical-service network for informing the closest rescuer to rapidly support mobile-emergency-call victims
Nikoloudakis et al. An NF V-powered emergency system for smart enhanced living environments
JP2020052856A (ja) 救援支援サーバ、救援支援システム及びプログラム
KV et al. Design and development of a smartphone-based application to save lives during accidents and emergencies
WO2022208586A1 (ja) 通知装置、通知システム、通知方法及び非一時的なコンピュータ可読媒体
CN111539254A (zh) 目标检测方法、装置、电子设备及计算机可读存储介质
Alshareef et al. First responder help facilitated by the mobile cloud
Intawong et al. A-SA SOS: A mobile-and IoT-based pre-hospital emergency service for the elderly and village health volunteers
CN111091901A (zh) 老年人急救决策方法、装置、设备及存储介质
Bashar et al. Intelligent alarm system for hospitals using smartphone technology
WO2020075283A1 (ja) 異常者予知システム、異常者予知方法、およびプログラム
Bajpai et al. ICT for education: Lessons from China
KR20160032462A (ko) 소셜 네트워크 서비스를 이용한 사회 안전망 시스템 및 방법
WO2023037552A1 (ja) 監視支援装置、システム及び方法、並びに、コンピュータ可読媒体
Seegolam et al. A Generic Contact Tracing Framework

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21934763

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18274695

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2021934763

Country of ref document: EP

Effective date: 20230803

WWE Wipo information: entry into national phase

Ref document number: 2023509901

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE