WO2023170936A1 - 監視システム、監視方法、及びコンピュータ読み取り可能な記憶媒体 - Google Patents

監視システム、監視方法、及びコンピュータ読み取り可能な記憶媒体 Download PDF

Info

Publication number
WO2023170936A1
WO2023170936A1 PCT/JP2022/010939 JP2022010939W WO2023170936A1 WO 2023170936 A1 WO2023170936 A1 WO 2023170936A1 JP 2022010939 W JP2022010939 W JP 2022010939W WO 2023170936 A1 WO2023170936 A1 WO 2023170936A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
event
monitoring system
tool
communication terminal
Prior art date
Application number
PCT/JP2022/010939
Other languages
English (en)
French (fr)
Inventor
悠太 西島
光 田幡
徳宏 岩瀬
幸孝 有山
佑輝 福井
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2022/010939 priority Critical patent/WO2023170936A1/ja
Publication of WO2023170936A1 publication Critical patent/WO2023170936A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B27/00Alarm systems in which the alarm condition is signalled from a central station to a plurality of substations

Definitions

  • the present disclosure relates to techniques for dealing with events that occur.
  • Patent Document 1 discloses a system that detects a plurality of events in a monitoring area using images taken of the monitoring area. Specifically, the system detects the occurrence of an event based on the feature amount detected from the video, and determines the target of the notification regarding the event based on the type of the detected event.
  • the present disclosure has been made in view of the above-mentioned problems, and one of the purposes is to provide a monitoring system etc. that can support appropriate handling of events that occur.
  • a monitoring system includes: an acquisition unit that acquires a photographed image; a detection unit that detects the occurrence of an event from the photographed image; an identification unit that identifies a tool corresponding to the event; and output control means for outputting information regarding the tool to the communication terminal.
  • a monitoring method acquires a captured image, detects the occurrence of an event from the captured image, identifies a tool corresponding to the event, and outputs information regarding the tool to a communication terminal.
  • a computer-readable storage medium includes a process of acquiring a captured image, a process of detecting the occurrence of an event from the captured image, and a process of identifying a tool corresponding to the event.
  • a program for causing a computer to execute a process for outputting information regarding the tool to a communication terminal is stored.
  • FIG. 1 is a block diagram illustrating an example of a functional configuration of a monitoring system according to a first embodiment of the present disclosure. It is a flowchart explaining an example of operation of the monitoring system of a 1st embodiment of this indication.
  • FIG. 2 is a diagram schematically showing an example of the configuration of a monitoring system according to a second embodiment of the present disclosure.
  • FIG. 2 is a block diagram illustrating an example of a functional configuration of a monitoring system according to a second embodiment of the present disclosure.
  • FIG. 7 is a diagram illustrating an example of correspondence information according to a second embodiment of the present disclosure.
  • FIG. 7 is a diagram illustrating an example of output information according to the second embodiment of the present disclosure.
  • FIG. 1 is a block diagram illustrating an example of a functional configuration of a monitoring system according to a first embodiment of the present disclosure. It is a flowchart explaining an example of operation of the monitoring system of a 1st embodiment of this indication.
  • FIG. 2 is a diagram schematically
  • FIG. 7 is a sequence diagram illustrating an example of the operation of the monitoring system according to the second embodiment of the present disclosure.
  • FIG. 3 is a block diagram illustrating an example of a functional configuration of a monitoring system according to a third embodiment of the present disclosure.
  • FIG. 7 is a diagram illustrating an example of output information according to a third embodiment of the present disclosure.
  • FIG. 7 is a diagram illustrating another example of output information according to the third embodiment of the present disclosure. It is a flowchart explaining an example of operation of a monitoring system of a 3rd embodiment of this indication.
  • FIG. 3 is a block diagram illustrating an example of a functional configuration of a monitoring system according to a fourth embodiment of the present disclosure.
  • FIG. 7 is a diagram illustrating an example of output information according to a fourth embodiment of the present disclosure.
  • FIG. 7 is a diagram illustrating an example of a situation in which evacuation information according to a fourth embodiment of the present disclosure is output. It is a flowchart explaining an example of operation of a monitoring system of a 4th embodiment of this indication.
  • FIG. 1 is a block diagram illustrating an example of a hardware configuration of a computer device that implements a monitoring system according to first, second, third, and fourth embodiments of the present disclosure.
  • FIG. 1 is a block diagram showing an example of the functional configuration of a monitoring system 1000.
  • the monitoring system 1000 includes an acquisition section 110, a detection section 120, an identification section 130, and an output control section 140.
  • the acquisition unit 110 acquires a captured image.
  • the acquisition unit 110 acquires captured images from at least one imaging device. Photographed images include still images and moving images.
  • the imaging device may be, for example, a surveillance camera installed in a public area. That is, the acquisition unit 110 acquires a captured image of a public area.
  • the acquisition unit 110 is an example of an acquisition means.
  • the detection unit 120 detects the occurrence of an event from the captured image.
  • An event refers to an object to be detected in a public domain, such as a specific phenomenon in an object or a specific behavior of a person.
  • the event may be an anomaly that occurs in the public realm.
  • the event may be, for example, a fire, occurrence of a suspicious person, equipment failure, traffic accident, etc.
  • the detection unit 120 may detect events from captured images using existing image processing techniques.
  • the detection unit 120 is an example of a detection means.
  • the identifying unit 130 identifies a tool corresponding to the event. Tools are tools used to deal with an event.
  • the specifying unit 130 specifies, for example, a tool corresponding to the detected event based on the correspondence information.
  • the correspondence information is information indicating the equipment that corresponds to each event. For example, if the event is a fire, one example of equipment is a fire extinguisher. Further, for example, when the event is the occurrence of a suspicious person, examples of the tools are a spear and a baton.
  • the correspondence information includes information in which an event and a corresponding tool are associated with each other.
  • the correspondence information is stored, for example, in a storage device (not shown) included in the monitoring system 1000. For example, when a fire is detected by the detection unit 120, the identification unit 130 identifies a fire extinguisher corresponding to the fire from the response information.
  • the identifying unit 130 is an example of identifying means.
  • the output control unit 140 causes the communication terminal to output information regarding the tool.
  • Communication terminals are, for example, mobile phones, smartphones, tablet terminals, and personal computers. Furthermore, the communication terminal may be a device that only has a display and a speaker that can communicate.
  • the output control unit 140 controls the communication terminal to output information regarding the tool specified by the specifying unit 130. For example, when the identifying unit 130 identifies a fire extinguisher, the output control unit 140 may cause the communication terminal to output information indicating that a fire extinguisher is to be prepared as information regarding the equipment. At this time, the output control unit 140 may cause the communication terminal to output the information regarding the tool in the form of at least one of voice, text, and image.
  • the output control section 140 is an example of an output control means.
  • each step of the flowchart is expressed using a number assigned to each step, such as "S1".
  • FIG. 2 is a flowchart illustrating an example of the operation of the monitoring system 1000.
  • the acquisition unit 110 acquires a photographed image (S1).
  • the detection unit 120 detects the occurrence of an event from the captured image (S2).
  • the identifying unit 130 identifies the tool corresponding to the event (S3).
  • the output control unit 140 causes the communication terminal to output information regarding the tool (S4).
  • the monitoring system 1000 of the first embodiment acquires captured images and detects the occurrence of an event from the captured images. Then, the monitoring system 1000 identifies the tool corresponding to the event and causes the communication terminal to output information regarding the tool. Thereby, the monitoring system 1000 can, for example, prompt the person who has checked the communication terminal to deal with the event using tools. That is, the monitoring system 1000 can support an appropriate response to an event that occurs.
  • FIG. 3 is a diagram schematically showing an example of the configuration of the monitoring system 1000.
  • the monitoring system 1000 includes a monitoring device 100, communication terminals 200-1, 200-2, . . . , 200-n (n is a natural number), and photographing devices 300-1, 300-2, . ..., 300-m (m is a natural number).
  • the communication terminals 200-1, 200-2, ..., 200-n are not distinguished, the communication terminals 200-1, 200-2, ..., 200-n are collectively referred to as the communication terminal 200. . That is, one or more communication terminals 200 exist.
  • the photographing devices 300-1, 300-2, . . . , 300-m are not distinguished from each other, the photographing devices 300-1, 300-2, . That is, one or more photographing devices 300 exist.
  • the monitoring device 100 is communicably connected to the communication terminal 200 and the photographing device 300 via a wired or wireless network.
  • the monitoring device 100 may be, for example, a server device.
  • the communication terminal 200 is a device used when a person confirms information.
  • Communication terminal 200 includes a display or speaker for outputting information.
  • the person checks the communication terminal 200 and understands various information output from the communication terminal 200.
  • a person who can check the communication terminal 200 is referred to as a member. Further, in this embodiment, an example will be described in which one or more members each own one communication terminal 200.
  • the imaging device 300 is installed at various locations within a predetermined facility, for example.
  • the photographing device 300 is installed in public facilities such as stations, airports, and shopping malls. Public facilities also include vehicles such as cars, taxis, buses, trains, and airplanes.
  • the person who owns the communication terminal 200, ie, the member is a security guard, an employee of the facility, a user of the facility, or the like.
  • the photographing device 300 may be installed outdoors, such as at an intersection or a highway. In this case, the members are road administrators, passersby, and the like.
  • FIG. 4 is a block diagram showing the functional configuration of the monitoring system 1000.
  • the monitoring device 100 is communicably connected to the photographing device 300 and the communication terminal 200.
  • the photographing device 300 includes a photographing section 310.
  • the photographing unit 310 performs photographing and generates a photographed image.
  • the photographing unit 310 then transmits the photographed image to the monitoring device 100.
  • the photographing unit 310 may periodically transmit photographed images to the monitoring device 100, or may continue to transmit photographed images to the monitoring device 100.
  • the photographing unit 310 may transmit identification information for identifying the photographing device 300 to the monitoring device 100 in addition to the photographed image.
  • the identification information is information that allows each imaging device 300 to be identified.
  • the identification information may be a code given to each photographing device 300, or may be information indicating the location where the photographing device 300 is installed.
  • the monitoring device 100 includes an acquisition section 110, a detection section 120, an identification section 130, and an output control section 140.
  • the acquisition unit 110 acquires a photographed image from the photographing device 300. More specifically, the acquisition unit 110 acquires captured images transmitted from each photography unit 310 of the photography device 300. Further, the acquisition unit 110 acquires identification information of the photographing device 300 that generated the photographed image together with the photographed image.
  • the detection unit 120 detects the occurrence of an event from the captured image using a predetermined image processing technique. For example, the detection unit 120 extracts feature amounts from the captured image.
  • the feature amount may be an image feature amount derived using HOG (Histograms of Oriented Gradients), SIFT (Scaled Invariance Feature Transform), machine learning, or the like.
  • the detection unit 120 may detect the occurrence of an event using a detection model that inputs the extracted feature amount.
  • the detection model is a model that has learned the relationship between features and events extracted from captured images.
  • the detection unit 120 may input the extracted feature amount to a detection model, and may detect information output from the detection model as an event that has occurred.
  • the detection unit 120 may detect an event from the behavior of an object or person detected from the feature amount extracted from the captured image. For example, the detection unit 120 may detect the occurrence of a fire by detecting flames from a captured image. Further, for example, the detection unit 120 may detect the occurrence of a suspicious person by detecting a person carrying a knife, a firearm, etc. from the captured image. Further, for example, the detection unit 120 may detect the occurrence of a sudden illness by detecting a crouching person from a captured image.
  • the events detected by the detection unit 120 are not limited to the examples described above.
  • the detection unit 120 may detect a traffic accident, terrorism, equipment failure, an object being left behind, an object falling from a station platform onto the tracks, a child being left unattended in a car, and the like.
  • the detection unit 120 may identify the location where the event occurs. For example, the detection unit 120 identifies the location where the event occurred based on the identification information of the imaging device 300 that captured the captured image in which the occurrence of the event was detected. When the identification information indicates the location where the imaging device 300 is installed, the detection unit 120 may identify the location where the event occurs as the location where the imaging device 300 is installed. Further, when the identification information is a code that identifies the photographing device 300, the detection unit 120 may identify the location where the event occurs by acquiring information about the installation location of the photographing device 300 corresponding to the code.
  • the detection unit 120 identifies the installation location of the photographing device 300 based on the photographing device information including information in which the code and the installation location are associated.
  • the imaging device information may be stored in a storage device (not shown) included in the monitoring device 100 or in another device that can communicate with the monitoring device 100.
  • the identification unit 130 identifies a tool corresponding to the detected event. For example, the identifying unit 130 identifies the tool based on correspondence information stored in a storage device (not shown) included in the monitoring device 100. Note that the correspondence information may be stored in another device that can communicate with the monitoring device 100.
  • FIG. 5 is a diagram showing an example of correspondence information.
  • the correspondence information may include information indicating the storage location of the tool. That is, the identification unit 130 may identify the storage location of the tool.
  • the event is "occurrence of a suddenly ill person”
  • the output control unit 140 causes the communication terminal 200 to output various information. Various types of information output from the communication terminal 200 are referred to as output information. For example, the output control unit 140 generates output information and transmits the output information to the communication terminal 200. The transmitted output information is then output at the communication terminal 200. Output control unit 140 controls output information to be output at communication terminal 200.
  • FIG. 6 is a diagram showing an example of output information. More specifically, FIG. 6 shows an example of information output to the communication terminal 200 when a fire occurs. The example in FIG. 6 shows that a fire has occurred, the location of the fire, and how to respond with a fire extinguisher. In this way, the output control unit 140 may output information indicating that an event has occurred and information indicating the location where the event has occurred, in addition to information regarding the tool. Further, in the example of FIG. 6, a diagram is output in which markers indicating the location of the fire occurrence and the storage location of the fire extinguisher are superimposed on the map. In this manner, the output control unit 140 may output information regarding the tool including information indicating the storage location of the tool. Furthermore, the output control unit 140 may cause the communication terminal 200 to output information in which information indicating the location of the event and the storage location of the equipment is superimposed on the map.
  • the communication terminal 200 includes an output section 210.
  • the output unit 210 outputs output information transmitted from the monitoring device 100.
  • the output unit 210 has display and speaker functions. Note that the output section 210 may be controlled by the output control section 140. That is, the output control unit 140 may output the output information to the screen of the communication terminal 200, or the output unit 210 that received the output information may output the output information to the screen of the communication terminal 200.
  • FIG. 7 is a sequence diagram illustrating an example of the operation of the monitoring system 1000.
  • the photographing unit 310 of the photographing device 300 performs photographing (S101).
  • the acquisition unit 110 of the monitoring device 100 acquires captured images from each of the imaging devices 300 (S102).
  • the detection unit 120 detects the occurrence of an event from the acquired captured image (S103). Then, the detection unit 120 identifies the location where the event occurs (S104).
  • the identifying unit 130 identifies the tool corresponding to the event that has occurred (S105). At this time, the identification unit 130 may also identify the storage location of the tool.
  • the output control unit 140 generates output information including information regarding the identified tool (S106).
  • the information regarding the tool includes, for example, information indicating the tool and information indicating the storage location of the tool. Further, the output information may include information indicating that the event has occurred, including the location where the event occurred. Then, the output unit 210 of the communication terminal 200 outputs output information (S107).
  • the operation of the monitoring system 1000 is not limited to this example. For example, if the detection unit 120 does not detect the occurrence of an event in S103, the monitoring system 1000 does not need to perform the processes from S104 onwards.
  • the monitoring system 1000 of the second embodiment acquires captured images and detects the occurrence of an event from the captured images. Then, the monitoring system 1000 identifies the tool corresponding to the event and causes the communication terminal to output information regarding the tool. Thereby, the monitoring system 1000 can, for example, prompt the member who has checked the communication terminal 200 to deal with the event using tools. That is, the monitoring system 1000 can support an appropriate response to an event that occurs.
  • the monitoring system 1000 of the second embodiment may specify the storage location of the tool and output information regarding the tool including information indicating the storage location of the tool. This allows the monitoring system 1000 to indicate to the member where the tools are stored. Therefore, the monitoring system 1000 can prompt the member to quickly take out the tools.
  • the functional configuration of the monitoring system 1000 is not limited to the above example.
  • the acquisition unit 110 and the detection unit 120 may be included in the imaging device 300.
  • the acquisition unit 110 acquires a photographed image photographed by the photographing unit 310.
  • the detection unit 120 detects an event from the captured image.
  • the detection unit 120 transmits information indicating the detected event to the monitoring device 100.
  • the detection unit 120 transmits identification information of the imaging device to the monitoring device 100 along with information indicating the detected event.
  • the identifying unit 130 of the monitoring device 100 then acquires information indicating the detected event and identifies the tool corresponding to the event.
  • ⁇ Third embodiment> Next, a monitoring system according to a third embodiment will be described.
  • route generation to the location where an event occurs will be described. Note that some descriptions of contents that overlap with those described in the first and second embodiments will be omitted.
  • FIG. 8 is a block diagram showing the functional configuration of the monitoring system 1001.
  • a monitoring system 1001 includes a monitoring device 101 instead of the monitoring device 100 of the monitoring system 1000 shown in FIG. 3, and a communication terminal 201 instead of the communication terminal 200. That is, the monitoring system 1001 includes a monitoring device 101, a communication terminal 201, and a photographing device 300.
  • the monitoring system 1001 may perform the processing described in this embodiment in addition to the processing of the monitoring system 1000.
  • the communication terminals 201-1, 201-2, . . . , 200-n are collectively referred to as the communication terminal 201. That is, one or more communication terminals 201 exist. Furthermore, in this embodiment, an example will be described in which a plurality of members each own one communication terminal 201.
  • the communication terminal 201 includes an output section 210 and a position information control section 220.
  • the location information control unit 220 performs control for transmitting location information to the monitoring device 101.
  • the position information is information indicating the point where the own device (that is, the communication terminal 201) is located.
  • the position information control unit 220 may obtain position information as position information using a GNSS (Global Navigation Satellite System) such as a GPS (Global Positioning System).
  • GNSS Global Navigation Satellite System
  • GPS Global Positioning System
  • the location information control unit 220 transmits location information acquired using, for example, GNSS to the monitoring device 101.
  • the location information control unit 220 transmits identification information that identifies the communication terminal 201 along with the location information.
  • the location information control unit 220 is not limited to this example, and the location information control unit 220 may transmit location information to the monitoring device 101 using a beacon.
  • the location information control unit 220 transmits a predetermined signal containing identification information of the communication terminal 201.
  • a receiver near the communication terminal 201 receives the signal.
  • the receiver identifies location information of the communication terminal 201 in response to receiving the signal.
  • the receiver may transmit the position information of the communication terminal 201 to the monitoring device 101 together with the identification information of the communication terminal 201.
  • the monitoring device 101 includes an acquisition section 110, a detection section 120, a specification section 130, an output control section 141, a position information acquisition section 150, a route information generation section 160, and a removal detection section 170.
  • the location information acquisition unit 150 acquires location information of the communication terminal 201. Specifically, the location information acquisition unit 150 acquires the location information and the identification information of the communication terminal 201 transmitted under the control of the location information control unit 220.
  • the communication terminal 201 is owned by a member. Therefore, for example, communication terminal information is stored in advance in a storage device (not shown) included in the monitoring device 101 or in another device that can communicate with the monitoring device 101.
  • the communication terminal information is information in which the identification information of the communication terminal 201 and the identification information of the member who owns the communication terminal 201 are associated.
  • the member identification information may be a code that identifies the member, or may be personal information such as the member's name and contact information.
  • the location information acquisition unit 150 identifies the member who owns the communication terminal 201 based on the acquired identification information of the communication terminal 201 . Then, the location information acquisition unit 150 acquires the location information of the communication terminal 201 as the location information of the member who owns the communication terminal 201. That is, the position information acquisition unit 150 acquires the member's position information.
  • the location information acquisition unit 150 is an example of location information acquisition means.
  • the route information generation unit 160 generates route information.
  • the route information indicates the route from the member's location to the event occurrence location.
  • the route information generation unit 160 calculates a route from the member's location to the event location based on the member's location information and the event location.
  • the route information generation unit 160 generates route information indicating the calculated route. If there are multiple members, the route information generation unit 160 generates route information for each member. In this manner, the route information generation unit 160 generates route information indicating the route from the member's location to the location where the event occurred.
  • the route information generation unit 160 is an example of route information generation means.
  • the route information generation unit 160 may calculate a route from the member's position to the storage location of the tool. At this time, the route information generation unit 160 calculates a route from the storage location of the tool to the location where the event occurred. The route information generation unit 160 may then generate route information indicating the calculated route. That is, the route information generation unit 160 may generate route information indicating a route from the member's location to the event occurrence location via the tool storage location.
  • the removal detection unit 170 detects that the tool specified by the identification unit 130 has been removed.
  • a sensor is installed at a storage location for tools. The sensor emits a signal when the tool is removed.
  • the removal detection unit 170 may detect that the tool has been taken out, for example, by acquiring a signal emitted by such a sensor. Further, for example, the taking-out detection unit 170 may detect that the tool has been taken out from the photographed image.
  • one or more imaging devices 300 are installed at the storage location for the tools. When a scene in which a person takes out a tool is photographed, the taking-out detection unit 170 detects that the tool is taken out. In this way, the taking-out detection unit 170 detects that the tool has been taken out.
  • the takeout detection unit 170 is an example of a takeout detection means.
  • the taking out detection unit 170 may identify the member who took out the tool. For example, when detecting that a tool has been taken out, the taking-out detection unit 170 may identify a member who is within a predetermined distance from the storage location of the tool as the member who took the tool. Furthermore, the taking-out detection unit 170 may identify the member who took out the utensil based on the photographed image. For example, when a scene in which a person takes out a tool is photographed, the taking-out detection unit 170 may identify the member included in the photographed image using facial recognition. In this case, the monitoring device 100 has a database in which the facial features of the members and the identification information of the members are associated in advance. Then, the takeout detection unit 170 may identify the member by comparing the feature amount of the person's face extracted from the photographed image with the feature amount included in the database.
  • the output control unit 141 may change the communication terminal 201 that outputs the output information based on the position information. For example, the location information acquisition unit 150 determines whether the member is within a predetermined range from the location where the event occurred, based on the acquired location information. “Within a predetermined range” may mean within a predetermined distance from the place where the event occurs. Furthermore, when the event occurs within a predetermined facility, the predetermined range may indicate the inside of the predetermined facility. When the member is within a predetermined range from the place where the event occurred, the output control unit 141 sends information indicating that the event has occurred to the communication terminal 201 of the member located within a predetermined distance from the place where the event occurred; Output information including information regarding the tool may be output.
  • the output control unit 141 may output output information to a limited number of members among the plurality of members.
  • a member to whom output information is output is also referred to as a target member.
  • the output control unit 141 sends information indicating that an event has occurred and information regarding the equipment to the communication terminal of the target member who is within the first range from the place where the event occurred, based on the position information. information may be output.
  • the output control unit 141 may output different output information for each member. For example, the location information acquisition unit 150 determines whether the member is within a predetermined range from the location where the event occurred, based on the acquired location information. Further, the position information acquisition unit 150 determines whether a member within a predetermined range is within a second predetermined range from the storage location of the tool. The output control unit 141 outputs information indicating that an event has occurred to the communication terminals 201 of members within a predetermined range from the place where the event has occurred. Then, the output control unit 141 may cause the communication terminals of the members within the second predetermined range to output output information including information indicating that an event has occurred and information regarding the tool.
  • the output control unit 141 may output information regarding the tool to a member near the storage location of the tool.
  • the member closest to the storage location of the tool is referred to as the target member.
  • the output control unit 141 causes the communication terminals of the members within the first range to output information indicating that an event has occurred, based on the position information, and outputs information indicating that an event has occurred within the first range.
  • Information regarding the utensil may be output to a communication terminal of a target member who is a member within a second range from the storage location of the utensil.
  • the output control unit 141 may cause the communication terminal 201 to output output information including route information. At this time, the output control unit 141 outputs to each member route information indicating a route from the member's position to the place where the event occurred. That is, the output control unit 141 may cause the communication terminal 201 of each member to output route information corresponding to each member.
  • FIG. 9 is a diagram showing an example of output information.
  • the output information includes information indicating that an event has occurred, information regarding tools, and route information.
  • route information a route from the member's current location to the event occurrence location via the equipment storage location is indicated by an arrow on the map.
  • the position of another member, member B is also shown.
  • the output control unit 141 may cause the communication terminals 201 of each member to output information indicating the location of the member within a predetermined range and the identification information of the member. This allows each member to know which member is in which position.
  • the identification information includes a member's contact information, the member can contact other members. For example, members can coordinate with other members while checking their location information.
  • the output control unit 141 may cause the communication terminal 201 to output information indicating that the tool has been taken out. At this time, the output control unit 141 may output identification information of the member who brought out the tool.
  • FIG. 10 is a diagram showing another example of output information.
  • the output information includes information indicating that an event has occurred, information regarding tools, and route information. Furthermore, information indicating that the tools have been taken out is superimposed on the map. In this example, it is shown that the utensils were taken out by another member, member C. In this way, the output control unit 141 may output the information indicating that the tool was taken out and the identification information of the member who took the tool out.
  • the output control unit 141 may superimpose the identification information of the member who took out the utensil at the position indicating the storage location on the map. There may be multiple storage locations. In this case, the output control unit 141 can indicate who took the tool from which storage location.
  • the route information generation unit 160 may recalculate the shortest route from the member's position to the place where the event occurred. The route information generation unit 160 may then generate route information again. The output control unit 141 may cause the communication terminal 201 to output the regenerated route information.
  • the route that passes through the storage location of the equipment may be a circuitous route for the members to reach the location where the event occurred. If there are no tools in the storage location, the member does not need to go through the storage location. Therefore, the monitoring system 1001 can quickly guide members to the location where the event occurs.
  • FIG. 11 is a flowchart illustrating an example of the operation of the monitoring system 1001.
  • the photographing unit 310 of the photographing device 300 performs photographing (S201).
  • the acquisition unit 110 of the monitoring device 101 acquires captured images from each of the imaging devices 300 (S202).
  • the detection unit 120 detects the occurrence of an event from the acquired captured image (S203). Then, the detection unit 120 identifies the location where the event occurs (S204).
  • the identifying unit 130 identifies the tool corresponding to the event that has occurred (S205). At this time, the identification unit 130 may also identify the storage location of the tool.
  • the location information acquisition unit 150 acquires location information from the member's communication terminal 201 (S206). The location information acquisition unit 150 determines whether the member is within a predetermined range from the location where the event occurred. If the member is within a predetermined range from the place where the event occurred (“Yes” in S207), the route information generation unit 160 generates route information (S208). For example, the route information generation unit 160 generates route information indicating a route from the member's location to the event occurrence location via the equipment storage location based on the location information. If the member is not within the predetermined range from the place where the event occurred (No in S207), the monitoring system 1001 does not need to perform subsequent processing on the member.
  • the output control unit 141 generates output information (S209).
  • the output control unit 141 generates output information including information indicating that an event has occurred, information regarding tools, and route information.
  • the output unit 210 of the communication terminal 201 outputs output information (S210).
  • the output control unit 141 If the taking-out detection unit 170 detects that the tool has been taken out (“Yes” in S211), the output control unit 141 generates information indicating that the tool has been taken out (S212). Then, the output unit 210 of the communication terminal 201 outputs information indicating that the tool has been taken out (S213). Note that if the taking-out detection unit 170 does not detect that the tool has been taken out ("No" in S211), the monitoring system 1001 does not need to perform the processing from S212 onwards.
  • the monitoring system 1001 of the third embodiment acquires the member's location information, and based on the location information, sends the information to the communication terminal of the target member who is within the first range from the place where the event occurred. Information indicating that an event has occurred and information regarding the tool may be output. Thereby, when an event occurs, the monitoring system 1001 can quickly provide information to members related to the event.
  • the monitoring system 1001 of the third embodiment acquires the member's location information, and based on the location information, outputs information indicating that an event has occurred to the communication terminal of the member within the first range.
  • information regarding the tool may be output to a communication terminal of a target member who is within the first range and within a second range from the storage location of the tool. For example, if the number of utensils is limited, even if information regarding the utensils is provided to more members than the number of utensils, not all members will be able to take out the utensils. In that case, the member who was unable to take the equipment out will be delayed in arriving at the location where the event occurred by the time it takes to go to the storage location for the equipment.
  • the monitoring system 1001 can provide information regarding tools to a member particularly close to the tool among the plurality of members, and therefore can efficiently guide the plurality of members.
  • the monitoring system 1001 of the third embodiment generates route information indicating a route from the member's position to the place where the event occurred based on the position information, and generates route information corresponding to each member. It may be output to any communication terminal. Thereby, the monitoring system 1001 can support the members to quickly reach the location where the event occurs. In addition, at this time, the monitoring system 1001 generates route information indicating a route from the location of the target member to the place where the event occurred via the storage location of the tool, and displays the tool including the route information on the communication terminal of the target member. You may output information regarding. Thereby, the monitoring system 1001 can provide the target member with a route that takes into account the possibility of taking out the tools.
  • the monitoring system 1001 of the third embodiment may detect that the tool has been taken out, and may output information indicating that the tool has been taken out to the member's communication terminal. If the equipment has already been removed, other members who have not removed the equipment need not go to the storage location. The monitoring system 1001 can notify other members that the equipment has been taken out, so that the other members can be directed directly to the location where the event occurred. Further, at this time, the monitoring system 1001 may identify the member who took out the tool, and output the identification information of the member who took out the tool to the communication terminal of the member. Thereby, the monitoring system 1001 can notify other members of who has the tool.
  • a monitoring system according to a fourth embodiment will be described.
  • further functions of the monitoring system will be described. Note that some descriptions of contents that overlap with those described in the first, second, and third embodiments will be omitted.
  • FIG. 12 is a block diagram showing the functional configuration of the monitoring system 1002.
  • the monitoring system 1002 includes a monitoring device 102 instead of the monitoring device 100 of the monitoring system 1000 shown in FIG. 3, and a communication terminal 201 instead of the communication terminal 200. Furthermore, the monitoring system 1002 includes a sensor 400. That is, the monitoring system 1002 includes a monitoring device 102, a communication terminal 201, a photographing device 300, and a sensor 400.
  • the monitoring system 1002 may perform the processing described in this embodiment in addition to the processing of the monitoring system 1000 or the monitoring system 1001.
  • the communication terminal 201 includes devices owned by a plurality of members, and a display installed in a public area.
  • the sensor 400 is, for example, a variety of sensors such as a sound sensor, a human sensor, and a distance sensor.
  • Sensor 400 may be a fire alarm. That is, the sensor 400 may be a sensor that detects at least one of gas, heat, smoke, and flame.
  • a plurality of sensors 400 may exist.
  • the sensor 400 is installed with each of the imaging devices 300. At this time, one or more sensors 400 may be installed for one imaging device 300.
  • the sensor 400 may be installed regardless of the imaging device 300. For example, when the imaging device 300 is installed within a predetermined facility, the sensor 400 may be installed at multiple locations within the predetermined facility.
  • the sensor 400 transmits detected information to the monitoring device 102 as sensor data.
  • the sensor data may include identification information of the sensor 400.
  • the identification information of the sensor 400 may be a code given to each sensor 400, or may be information indicating the location where the sensor 400 is installed.
  • the monitoring device 102 includes an acquisition section 111, a detection section 121, a specification section 130, an output control section 142, a position information acquisition section 150, a route information generation section 161, and a removal detection section 170.
  • the acquisition unit 111 includes a captured image acquisition unit 1101 and a sensor data acquisition unit 1102.
  • the photographed image acquisition unit 1101 acquires photographed images from each of the photographing devices 300.
  • the sensor data acquisition unit 1102 acquires sensor data from each of the sensors 400. For example, if the sensor 400 is a distance sensor, the sensor data acquisition unit 1102 acquires sensor data including information on distances to objects around the sensor 400. Furthermore, if the sensor is a human sensor, the sensor data acquisition unit 1102 acquires sensor data indicating that a person within a predetermined range near the sensor 400 has been detected. If the sensor 400 is a sound sensor, the sensor data acquisition unit 1102 acquires sensor data indicating sounds generated within a predetermined range near the sensor 400.
  • the sensor data acquisition unit 1102 acquires sensor data indicating at least one of gas, heat, smoke, and flame detected by the sensor 400.
  • the sensor data acquisition unit 1102 may acquire sensor data periodically or constantly. Further, the sensor data acquisition unit 1102 may acquire sensor data when a captured image is acquired.
  • the detection unit 121 detects the occurrence of an event based on the captured image and sensor data. For example, assume that the detection unit 121 estimates the occurrence of an event from the captured image. At this time, the detection unit 121 uses the sensor data to determine whether the estimated event has occurred. When the detection unit 121 determines that the estimated event has occurred, it detects the occurrence of the event. For example, the detection unit 121 detects flames from the captured image and estimates the occurrence of a fire. Further, the detection unit 121 identifies the photographing device 300 that took the photographed image in which the flame was detected, and analyzes sensor data of the sensors 400 around the specified photographing device 300.
  • the detection unit 121 determines that a fire is occurring. Then, the detection unit 121 detects the occurrence of a fire based on the determination. In this way, the detection unit 121 may detect a fire as an event based on the captured image and sensor data.
  • the detection unit 121 detects a person carrying a knife from the photographed image and estimates the occurrence of a suspicious person.
  • the detection unit 121 identifies the photographing device 300 that took the photographed image in which the person carrying the knife was detected, and analyzes sensor data from the sensors 400 around the identified photographing device 300. For example, if the sensor data includes audio such as a person's scream, the detection unit 121 determines that a suspicious person is present. Then, the detection unit 121 detects the occurrence of a suspicious person based on the determination.
  • the detection unit 121 can improve the accuracy of detecting the occurrence of an event by using sensor data.
  • the method of using sensor data is not limited to the above example.
  • the detection unit 121 can use sensor data in various ways to detect the occurrence of an event.
  • the route information generation unit 161 may generate route information indicating different routes depending on the member. For example, when the occurrence of a suspicious person is detected, the route information generation unit 161 may calculate a route so that a plurality of members head from different directions to the location where the suspicious person is located. That is, the route information generation unit 161 can have a plurality of members attack a suspicious person.
  • FIG. 13 is a diagram showing an example of output information.
  • FIG. 13 is an example of output information output to the communication terminal 201 of one member. In this example, the current location of one member and the location of member D are shown.
  • the route of the first member is indicated by a solid arrow, and the route of member D is indicated by a dotted line.
  • the route of one member is a route from the bottom of the diagram toward the location where the event occurs.
  • member D's route is a route from the top of the diagram toward the location where the event occurs. That is, this example shows routes through which a plurality of members invade the location where the event occurs from different directions.
  • the route information generation unit 161 may generate route information indicating routes along which a plurality of members approach the event location from different directions.
  • the output control unit 142 may cause the communication terminal 201 to output output information including the route information generated as described above. Furthermore, the output control unit 142 may output evacuation information indicating that the place where the event occurred should be evacuated. For example, suppose that a suspicious person appears on a train that is stopped on a station platform. In this case, the output control unit 142 causes the communication terminals 201 owned by station staff and security guards to output output information including information indicating that an event has occurred, information regarding tools, and the like. On the other hand, the output control unit 142 may output evacuation information to the communication terminal 201 owned by a station user and the communication terminal 201 that is a display installed at the station.
  • FIG. 14 is a diagram showing an example of a situation in which evacuation information is output.
  • evacuation information is output to the communication terminal 201, which is a display installed inside the train.
  • the evacuation information includes information indicating the direction in which to evacuate.
  • the evacuation information includes a message to evacuate in the direction of the leading vehicle and an arrow indicating the direction of the leading vehicle.
  • Information indicating the direction to evacuate may be generated by the route information generation unit 161, for example.
  • the route information generation unit 161 calculates the direction in which to evacuate based on the location of the communication terminal 201 and the location where the event occurred.
  • the route information generation unit 161 then generates information indicating the direction in which to evacuate.
  • the output control unit 142 outputs evacuation information including information indicating the direction in which to evacuate.
  • FIG. 15 An example of operation of monitoring system 1002 will be described using FIG. 15.
  • this operation example we will explain an example in which output information is output to the communication terminal 201 of a guard who is within a predetermined range from the place where the event occurred, or to the communication terminal 201 that is a display installed within a predetermined range. do.
  • FIG. 15 is a flowchart illustrating an example of the operation of the monitoring system 1002.
  • the photographing unit 310 of the photographing device 300 performs photographing (S301).
  • the photographed image acquisition unit 1101 of the monitoring device 101 acquires photographed images from each of the photographing devices 300 (S302).
  • the sensor data acquisition unit 1102 acquires sensor data from each of the sensors 400 (S303).
  • the detection unit 121 detects the occurrence of an event based on the captured image and sensor data (S304).
  • the processing from S305 to S308 is the same as the processing from S204 to S207 in FIG. 11, so the description thereof will be omitted.
  • the monitoring system 1002 performs processing from S310 onwards.
  • the route information generation unit 161 may determine whether the member who owns the communication terminal 201 is a security guard. For example, the route information generation unit 161 may make the determination based on the identification information of the communication terminal 201.
  • the processing in S310 to S315 is the same as S208 to S213 in FIG. 11, so the description thereof will be omitted.
  • the monitoring system 1002 performs the processing from S316 onwards. That is, the route information generation unit 161 generates information indicating the direction in which to evacuate (S316). The output control unit 142 generates evacuation information including information indicating the direction in which to evacuate (S317). Then, the output unit 210 of the communication terminal 201 outputs evacuation information (S318).
  • the monitoring system 1002 of the fourth embodiment generates information indicating the direction in which to evacuate based on the location where the event occurs and the location of the member, and generates evacuation information including information indicating the direction in which to evacuate. may be output to the communication terminal 201. Thereby, the monitoring system 1002 can urge ordinary people to evacuate.
  • the monitoring system 1002 of the fourth embodiment acquires sensor data indicating at least one of gas, heat, smoke, and flame detected by the sensor, and based on the captured image and sensor data, detects an event as an event. Can detect fire. Additionally, the monitoring system 1002 may acquire sensor data indicating the sound detected by the sensor, and detect the occurrence of an event based on the captured image and the sensor data. In this way, the monitoring system 1002 can supplementarily utilize sensor data when detecting the occurrence of an event from captured images. Thereby, the monitoring system 1002 can improve the accuracy of detecting the occurrence of an event.
  • FIG. 16 is a block diagram illustrating an example of the hardware configuration of a computer device that implements the monitoring system in each embodiment.
  • the computer device 90 implements the monitoring system and monitoring method described in each embodiment and each modification. More specifically, the monitoring device, the photographing device, the communication terminal, and the method using these described in each embodiment and each modification are realized in the computer device 90.
  • the computer device 90 includes a processor 91, a RAM (Random Access Memory) 92, a ROM (Read Only Memory) 93, a storage device 94, an input/output interface 95, a bus 96, and a drive device 97.
  • the monitoring system may be realized by a plurality of electric circuits.
  • the storage device 94 stores a program (computer program) 98.
  • the processor 91 uses the RAM 92 to execute a program 98 of the monitoring system.
  • the program 98 includes a program that causes a computer to execute the processes shown in FIGS. 2, 7, 11, and 15. As the processor 91 executes the program 98, the functions of each component of this monitoring system are realized.
  • the program 98 may be stored in the ROM 93. Further, the program 98 may be recorded on the storage medium 80 and read using the drive device 97, or may be transmitted from an external device (not shown) to the computer device 90 via a network (not shown).
  • the input/output interface 95 exchanges data with peripheral devices (keyboard, mouse, display device, etc.) 99.
  • the input/output interface 95 functions as a means for acquiring or outputting data.
  • a bus 96 connects each component.
  • a monitoring system can be implemented as a dedicated device.
  • a monitoring system can be realized based on a combination of multiple devices.
  • a processing method in which a program for realizing each component in the function of each embodiment is recorded on a storage medium, the program recorded on the storage medium is read as a code, and executed on a computer is also included in the category of each embodiment. . That is, computer-readable storage media are also included within the scope of each embodiment. Furthermore, a storage medium on which the above program is recorded and the program itself are also included in each embodiment.
  • the storage medium is, for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, a CD (Compact Disc)-ROM, a magnetic tape, a nonvolatile memory card, or a ROM, but is not limited to these examples.
  • the programs recorded on the storage medium are not limited to programs that execute processing alone, but also operate on the OS (Operating System) to execute processing in collaboration with other software and expansion board functions. Programs that do this are also included in the scope of each embodiment.
  • Additional note 1 an acquisition means for acquiring a photographed image; a detection means for detecting the occurrence of an event from the photographed image; Identification means for identifying equipment corresponding to the event; output control means for outputting information regarding the tool to a communication terminal; Monitoring system.
  • the identifying means identifies a storage location of the tool
  • the output control means outputs information regarding the tool including information indicating a storage location of the tool.
  • the output control means causes a communication terminal of a member within a first range to output information indicating that the event has occurred based on the position information, and is configured to output information indicating that the event has occurred within the first range. outputting information regarding the tool to a communication terminal of a target member who is a member within a second range from the storage location of the tool;
  • route information generation means for generating route information indicating a route from the member's position to the place where the event occurred based on the position information;
  • the output control means outputs route information corresponding to each member to each communication terminal of the member.
  • the route information generation means generates the route information indicating a route from the target member's location to the event occurrence location via the tool storage location,
  • the output control means causes the target member's communication terminal to output information regarding the tool including the route information;
  • the route information generating means generates the route information indicating a route for a plurality of members to approach the location where the event occurs from different directions.
  • the monitoring system according to appendix 5 or 6.
  • [Additional note 8] comprising a taking-out detection means for detecting that the tool is taken out;
  • the output control means causes the member's communication terminal to output information indicating that the tool has been taken out.
  • the monitoring system according to any one of Supplementary Notes 3 to 7.
  • the taking out detection means identifies the member who took out the tool
  • the output control means causes a communication terminal of the member to output identification information of the member who took out the tool.
  • the output control means causes each communication terminal of the members to output information indicating the position of the member in the first range and identification information of the member.
  • the monitoring system according to any one of Supplementary Notes 3 to 9.
  • the route information generation means generates information indicating a direction to evacuate based on the location of the event and the location of the member,
  • the output control means causes the communication terminal to output evacuation information including information indicating the direction in which to evacuate.
  • the monitoring system according to any one of Supplementary Notes 5 to 7.
  • the acquisition means acquires sensor data indicating at least one of gas, heat, smoke, and flame detected by the sensor,
  • the detection means detects a fire as the event based on the captured image and sensor data.
  • the monitoring system according to any one of Supplementary Notes 1 to 11.
  • the acquisition means acquires sensor data indicating audio detected by the sensor,
  • the detection means detects the occurrence of the event based on the captured image and sensor data.
  • the monitoring system according to any one of Supplementary Notes 1 to 12.

Landscapes

  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Alarm Systems (AREA)

Abstract

発生した事象に対する適切な対処を支援することが可能な監視システム等を提供することを目的の一つとする。本開示の一態様にかかる監視システムは、撮影画像を取得する取得手段と、前記撮影画像から事象の発生を検知する検知手段と、前記事象に対応する要具を特定する特定手段と、前記要具に関する情報を通信端末に出力させる出力制御手段と、を備える。

Description

監視システム、監視方法、及びコンピュータ読み取り可能な記憶媒体
 本開示は、発生した事象に対処する技術に関する。
 監視カメラを用いて公共施設等の監視を行う技術が存在する。特許文献1には、監視領域を撮影した映像を用いて、監視領域における複数の事象を検出するシステムが開示される。具体的には、当該システムは、映像から検出された特徴量に基づいて事象の発生を検出し、検出した事象の種類等から事象に係る発報の対象者を判定する。
特開2021-132267号公報
 公共の領域において事件、及び事故等の事象が発生した場合、迅速に事象に対処することが求められる。そこで、公共の領域の付近に位置する警備員、及び、公共の領域の管理者等に事象の発生を知らせることがある。しかしながら、事象の発生を知らされた人物は、発生した事象に対する適切な対処がわからない虞がある。
 本開示は、上記課題を鑑みてなされたものであり、発生した事象に対する適切な対処を支援することが可能な監視システム等を提供することを目的の一つとする。
 本開示の一態様にかかる監視システムは、撮影画像を取得する取得手段と、前記撮影画像から事象の発生を検知する検知手段と、前記事象に対応する要具を特定する特定手段と、前記要具に関する情報を通信端末に出力させる出力制御手段と、を備える。
 本開示の一態様にかかる監視方法は、撮影画像を取得し、前記撮影画像から事象の発生を検知し、前記事象に対応する要具を特定し、前記要具に関する情報を通信端末に出力させる。
 本開示の一態様にかかるコンピュータ読み取り可能な記憶媒体は、撮影画像を取得する処理と、前記撮影画像から事象の発生を検知する処理と、前記事象に対応する要具を特定する処理と、前記要具に関する情報を通信端末に出力させる処理と、をコンピュータに実行させるプログラムを格納する。
 本開示によれば、発生した事象に対する適切な対応を支援することができる。
本開示の第1の実施形態の監視システムの機能構成の一例を示すブロック図である。 本開示の第1の実施形態の監視システムの動作の一例を説明するフローチャートである。 本開示の第2の実施形態の監視システムの構成の一例を模式的に示す図である。 本開示の第2の実施形態の監視システムの機能構成の一例を示すブロック図である。 本開示の第2の実施形態の対応情報の一例を示す図である。 本開示の第2の実施形態の出力情報の一例を示す図である。 本開示の第2の実施形態の監視システムの動作の一例を説明するシーケンス図である。 本開示の第3の実施形態の監視システムの機能構成の一例を示すブロック図である。 本開示の第3の実施形態の出力情報の一例を示す図である。 本開示の第3の実施形態の出力情報の他の例を示す図である。 本開示の第3の実施形態の監視システムの動作の一例を説明するフローチャートである。 本開示の第4の実施形態の監視システムの機能構成の一例を示すブロック図である。 本開示の第4の実施形態の出力情報の一例を示す図である。 本開示の第4の実施形態の避難情報が出力される状況の一例を示す図である。 本開示の第4の実施形態の監視システムの動作の一例を説明するフローチャートである。 本開示の第1、第2、第3、及び第4の実施形態の監視システムを実現するコンピュータ装置のハードウェア構成の一例を示すブロック図である。
 以下に、本開示の実施形態について、図面を参照しつつ説明する。
 <第1の実施形態>
 本開示の監視システムの概要について説明する。
 図1は、監視システム1000の機能構成の一例を示すブロック図である。図1に示すように監視システム1000は、取得部110と検知部120と特定部130と出力制御部140とを備える。
 取得部110は、撮影画像を取得する。例えば、取得部110は、少なくとも一以上の撮影装置から撮影画像を取得する。撮影画像は静止画像及び動画像を含む。撮影装置は、例えば、公共の領域に設置される監視カメラであってよい。すなわち、取得部110は、公共の領域が撮影された撮影画像を取得する。取得部110は、取得手段の一例である。
 検知部120は、撮影画像から事象の発生を検知する。事象とは、物体における特定の現象、及び、人物の特定の行動等の、公共の領域において検知すべき対象を示す。事象は、公共の領域において発生した異常であってよい。事象は、例えば、火事、不審者の発生、設備の故障、及び交通事故等であってよい。検知部120は、既存の画像処理手法を用いて、撮影画像から事象を検知してよい。検知部120は、検知手段の一例である。
 特定部130は、事象に対応する要具を特定する。要具は、事象に対処するために用いられる道具である。特定部130は、例えば、対応情報に基づいて、検知された事象に対応する要具を特定する。対応情報は、事象ごとに対応する要具を示す情報である。例えば、事象が火事である場合、要具の一例は消火器である。また、例えば、事象が不審者の発生である場合、要具の一例はさすまた及び警棒である。このように、対応情報には、事象と対応する要具とが関連付けられた情報を含まれる。対応情報は、例えば、監視システム1000に含まれる記憶装置(図示せず)に格納される。例えば、検知部120によって火事が検知された場合、特定部130は、対応情報から、火事に対応する消火器を特定する。特定部130は、特定手段の一例である。
 出力制御部140は、要具に関する情報を通信端末に出力させる。通信端末は、例えば、携帯電話、スマートフォン、タブレット端末及びパーソナルコンピュータである。また、通信端末は、通信可能なディスプレイ及びスピーカー単体の装置であってもよい。出力制御部140は、特定部130によって特定された要具に関する情報を通信端末において出力されるよう制御する。例えば、特定部130によって消火器が特定された場合、出力制御部140は、消火器を用意する旨を示す情報を、要具に関する情報として通信端末に出力させてよい。このとき、出力制御部140は、要具に関する情報を音声、文字、及び画像の少なくともいずれかで、通信端末に出力させてよい。出力制御部140は、出力制御手段の一例である。
 次に、監視システム1000の動作の一例を、図2を用いて説明する。なお、本開示において、フローチャートの各ステップを「S1」のように、各ステップに付した番号を用いて表現する。
 図2は、監視システム1000の動作の一例を説明するフローチャートである。取得部110は、撮影画像を取得する(S1)。検知部120は、撮影画像から事象の発生を検知する(S2)。特定部130は、事象に対応する要具を特定する(S3)。出力制御部140は、要具に関する情報を通信端末に出力させる(S4)。
 このように、第1の実施形態の監視システム1000は、撮影画像を取得し、撮影画像から事象の発生を検知する。そして、監視システム1000は、事象に対応する要具を特定し、要具に関する情報を通信端末に出力させる。これにより、監視システム1000は、例えば、通信端末を確認した人物に、要具を用いて事象に対処することを促すことができる。すなわち、監視システム1000は、発生した事象に対する適切な対応を支援することができる。
 <第2の実施形態>
 次に、第2の実施形態の監視システムについて説明する。第2の実施形態では、第1の実施形態で説明した監視システム1000について、より詳細に説明する。なお、第1の実施形態で説明した内容と重複する内容は、一部説明を省略する。
 図3は、監視システム1000の構成の一例を模式的に示す図である。図3に示すように、監視システム1000は、監視装置100と通信端末200-1、200-2、・・・、200-n(nは自然数)と撮影装置300-1、300-2、・・・、300-m(mは自然数)とを含む。ここで、通信端末200-1、200-2、・・・、200-nを区別しない場合、通信端末200-1、200-2、・・・、200-nをまとめて通信端末200と称する。すなわち、通信端末200は、一以上存在する。また、撮影装置300-1、300-2、・・・、300-mを区別しない場合、撮影装置300-1、300-2、・・・、300-mをまとめて撮影装置300と称する。すなわち、撮影装置300は一以上存在する。
 監視装置100は、通信端末200及び撮影装置300と、有線又は無線のネットワークを介して通信可能に接続される。監視装置100は、例えば、サーバ装置であってよい。
 通信端末200は、人物が情報を確認する際に使用される装置である。通信端末200は、情報を出力するためのディスプレイまたはスピーカーを備える。人物は、通信端末200を確認し、通信端末200において出力される各種情報を把握する。本開示において、通信端末200を確認可能な人物をメンバと称する。また、本実施形態では、一以上のメンバが、それぞれ一の通信端末200を所有する例について説明する。
 撮影装置300は、例えば、所定の施設内の各所に設置される。例えば、撮影装置300は、駅、空港及びショッピングモール等、公共の施設に設置される。公共の施設には、自動車、タクシー、バス、電車、及び飛行機等の乗り物も含まれる。この場合、通信端末200を所有する人物、すなわちメンバは、警備員、施設の従業員、及び施設の利用者等である。また、撮影装置300は、交差点、及び高速道路等、屋外に設置されてもよい。この場合、メンバは、道路の管理者、及び通行人等である。
 [監視システム1000の詳細]
 図4は、監視システム1000の機能構成を示すブロック図である。監視装置100は、撮影装置300と通信端末200と通信可能に接続される。
 撮影装置300は、撮影部310を備える。撮影部310は、撮影を行い、撮影画像を生成する。そして、撮影部310は、撮影画像を監視装置100に送信する。撮影部310は、撮影画像を定期的に監視装置100に送信してもよいし、撮影画像を監視装置100に送信し続けてもよい。また、撮影部310は、撮影画像に加え、撮影装置300を識別する識別情報を監視装置100に送信してもよい。識別情報は、撮影装置300のそれぞれを識別可能な情報である。識別情報は、撮影装置300のそれぞれに付与されたコードであってもよいし、撮影装置300が設置された場所を示す情報であってもよい。
 監視装置100は、取得部110と検知部120と特定部130と出力制御部140とを備える。取得部110は、撮影装置300から撮影画像を取得する。より具体的には、取得部110は、撮影装置300のそれぞれの撮影部310から送信される撮影画像を取得する。また、取得部110は、撮影画像とともに、撮影画像を生成した撮影装置300の識別情報を取得する。
 検知部120は、所定の画像処理技術を利用して撮影画像から事象の発生を検知する。例えば、検知部120は、撮影画像から特徴量を抽出する。特徴量は、HOG(Histograms of Oriented Gradients)、SIFT(Scaled Invarience Feature Transform)、及び機械学習等を利用して導出された画像特徴量であってよい。そして、検知部120は、抽出した特徴量を入力とする検知モデルを利用して事象の発生を検知してよい。検知モデルは、撮影画像から抽出される特徴量と事象との関係を学習したモデルである。検知部120は、抽出した特徴量を検知モデルに入力し、検知モデルから出力された情報を、発生した事象として検知してよい。
 また、検知部120は、撮影画像から抽出される特徴量から検出される物体または人物の行動等から事象を検知してよい。例えば、検知部120は、撮影画像から炎を検出することにより、火災の発生を検知してよい。また、例えば、検知部120は、撮影画像から刃物及び銃器等を所持している人物を検出することにより、不審者の発生を検知してよい。また、例えば、検知部120は、撮影画像からうずくまる人物を検出することにより、急病人の発生を検知してよい。
 なお、検知部120が検知する事象は、上述した例に限られない。例えば検知部120は、交通事故、テロ、設備の故障、物の置き去り、駅のホームから線路に物が落下したこと、及び自動車に子供が放置されていること等を検知してよい。
 また、検知部120は、事象の発生を検知した場合に、事象の発生場所を特定してよい。例えば、検知部120は、事象の発生が検知された撮影画像を撮影した撮影装置300の識別情報に基づいて事象の発生場所を特定する。識別情報が撮影装置300の設置場所を示す場合、検知部120は、事象の発生場所を撮影装置300の設置場所として特定してよい。また、識別情報が撮影装置300を識別するコードである場合、検知部120は、当該コードに対応する撮影装置300の設置場所の情報を取得することにより、事象の発生場所を特定してよい。この場合、検知部120は、コードと設置場所とが関連付けられた情報を含む撮影装置情報に基づいて撮影装置300の設置場所を特定する。撮影装置情報は、監視装置100が有する記憶装置(図示せず)、または、監視装置100と通信可能な他の装置に格納されていてよい。
 特定部130は、検知された事象に対応する要具を特定する。例えば、特定部130は、監視装置100が有する記憶装置(図示せず)に格納された対応情報に基づいて要具を特定する。なお、対応情報は、監視装置100と通信可能な他の装置に格納されていてもよい。
 図5は対応情報の一例を示す図である。図5では、例えば、事象が「火事」である場合、要具として「消火器」が対応付けられている。さらに、消火器の保管場所として「(x1,y1)」が示されている。このように、対応情報には、要具の保管場所を示す情報が含まれてもよい。すなわち、特定部130は、要具の保管場所を特定してもよい。また、図5では、事象が「急病人の発生」である場合、要具として「救急箱」及び「AED(Automated External Defibrillator)」が対応づけられている。このように、一の事象に対して、複数の要具が対応づけられていてもよい。
 出力制御部140は、通信端末200に、各種情報を出力させる。通信端末200において出力される各種情報を出力情報と称する。例えば、出力制御部140は、出力情報を生成し、出力情報を通信端末200に送信する。そして、送信された出力情報は通信端末200において出力される。出力制御部140は、出力情報が通信端末200において出力されるよう制御する。
 図6は、出力情報の一例を示す図である。より具体的には図6では、火災が発生した場合に通信端末200に出力される情報の一例が示される。図6の例では、火災が発生したこと、火災の発生場所、及び消火器で対応すること、が示される。このように出力制御部140は、要具に関する情報に加え、事象が発生したことを示す情報、及び、事象の発生場所を示す情報を出力させてよい。また、図6の例では、地図上に、火災の発生場所と消火器の保管場所とを示すマーカが重畳された図が出力されている。このように出力制御部140は、要具の保管場所を示す情報を含む要具に関する情報を出力させてよい。さらに、出力制御部140は、事象の発生場所と要具の保管場所とを示す情報を地図上に重畳した情報を、通信端末200に出力させてもよい。
 通信端末200は、出力部210を備える。出力部210は、監視装置100から送信された出力情報を出力する。出力部210は、ディスプレイ及びスピーカーの機能を有する。なお、出力部210は、出力制御部140によって制御されてよい。すなわち、出力制御部140が、出力情報を通信端末200の画面に出力してもよいし、出力情報を受け取った出力部210が、出力情報を通信端末200の画面に出力してもよい。
 [監視システム1000の動作例]
 次に、監視システム1000の動作の一例を、図7を用いて説明する。
 図7は、監視システム1000の動作の一例を説明するシーケンス図である。撮影装置300の撮影部310は、撮影を行う(S101)。監視装置100の取得部110は、撮影装置300のそれぞれから撮影画像を取得する(S102)。検知部120は、取得された撮影画像から事象の発生を検知する(S103)。そして、検知部120は、事象の発生場所を特定する(S104)。
 特定部130は、発生した事象に対応する要具を特定する(S105)。このとき、特定部130は、要具の保管場所も特定してよい。出力制御部140は、特定された要具に関する情報を含む出力情報を生成する(S106)。要具に関する情報には、例えば、要具を示す情報及び要具の保管場所を示す情報が含まれる。また、出力情報には、事象の発生場所を含む、事象が発生したことを示す情報が含まれてよい。そして、通信端末200の出力部210は、出力情報を出力する(S107)。
 なお、監視システム1000の動作はこの例に限られない。例えば、S103において、検知部120が事象の発生を検知しなかった場合、監視システム1000はS104以降の処理を行わなくともよい。
 このように、第2の実施形態の監視システム1000は、撮影画像を取得し、撮影画像から事象の発生を検知する。そして、監視システム1000は、事象に対応する要具を特定し、要具に関する情報を通信端末に出力させる。これにより、監視システム1000は、例えば、通信端末200を確認したメンバに、要具を用いて事象に対処することを促すことができる。すなわち、監視システム1000は、発生した事象に対する適切な対応を支援することができる。
 また、第2の実施形態の監視システム1000は、要具の保管場所を特定し、要具の保管場所を示す情報を含む要具に関する情報を出力させてよい。これにより、監視システム1000は、メンバに要具の保管場所を示すことができる。そのため、監視システム1000は、メンバに迅速に要具を持ち出すことを促すことができる。
 [変形例1]
 監視システム1000の機能構成は上述の例に限られない。例えば、取得部110と検知部120は、撮影装置300が備えていてよい。この場合、取得部110は、撮影部310によって撮影された撮影画像を取得する。また、検知部120は、取得された撮影画像から事象を検知する。検知部120は、検知した事象を示す情報を監視装置100に送信する。このとき検知部120は、検知した事象を示す情報とともに、撮影装置の識別情報を監視装置100に送信する。そして、監視装置100の特定部130は、検知した事象を示す情報を取得し、事象に対応する要具を特定する。
 <第3の実施形態>
 次に、第3の実施形態の監視システムについて説明する。第3の実施形態では、事象の発生場所までのルート生成について説明する。なお、第1及び第2の実施形態で説明した内容と重複する内容は、一部説明を省略する。
 [監視システム1001の詳細]
 図8は、監視システム1001の機能構成を示すブロック図である。監視システム1001は、図3に示す監視システム1000の監視装置100に代わり監視装置101を備え、通信端末200に代わり通信端末201を備える。すなわち、監視システム1001は、監視装置101と通信端末201と撮影装置300とを備える。監視システム1001は、監視システム1000の処理に加え、本実施形態で説明する処理を行ってよい。
 なお、本実施形態において、通信端末201-1、201-2、・・・、200-nをまとめて通信端末201と称する。すなわち、通信端末201は一以上存在する。また、本実施形態では、複数のメンバが、それぞれ一の通信端末201を所有する例について説明する。
 通信端末201は、出力部210と位置情報制御部220とを備える。位置情報制御部220は、位置情報を監視装置101に送信するための制御を行う。位置情報は、自機(すなわち通信端末201)が位置する地点を示す情報である。例えば位置情報制御部220は、GPS(Global Positioning System)等の、GNSS(Global Navigation Satellite System)によって、測位された情報を位置情報として取得してよい。この場合、位置情報制御部220は、例えばGNSSを利用して取得した位置情報を監視装置101に送信する。このとき、位置情報制御部220は、位置情報とともに通信端末201を識別する識別情報を送信する。
 この例に限らず、位置情報制御部220は、ビーコンを利用して位置情報を監視装置101に送信してよい。例えば、位置情報制御部220は、通信端末201の識別情報を含む所定の信号を発信する。そして、通信端末201付近の受信機が当該信号を受信する。受信機は、信号を受信したことに応じて通信端末201の位置情報を特定する。そして、受信機が通信端末201の位置情報を通信端末201の識別情報とともに監視装置101に送信してもよい。
 監視装置101は、取得部110と検知部120と特定部130と出力制御部141と位置情報取得部150とルート情報生成部160と持出検知部170とを備える。
 位置情報取得部150は、通信端末201の位置情報を取得する。具体的には、位置情報取得部150は、位置情報制御部220の制御によって送信された位置情報及び通信端末201の識別情報を取得する。ここで、本実施形態において通信端末201は、メンバが所有している。そのため、例えば、監視装置101が備える記憶装置(図示せず)または、監視装置101と通信可能な他の装置に、予め通信端末情報が格納される。通信端末情報は、通信端末201の識別情報と、通信端末201を所有しているメンバの識別情報と、が関連付けられた情報である。メンバの識別情報は、メンバを識別するコードであってもよいし、メンバの氏名及び連絡先等の個人情報であってもよい。位置情報取得部150は、取得した通信端末201の識別情報に基づいて、所有しているメンバを特定する。そして、位置情報取得部150は、通信端末201の位置情報を、通信端末201を所有するメンバの位置情報として取得する。すなわち、位置情報取得部150は、メンバの位置情報を取得する。位置情報取得部150は、位置情報取得手段の一例である。
 ルート情報生成部160は、ルート情報を生成する。ルート情報は、メンバの位置から事象の発生場所までのルートを示す。ルート情報生成部160は、メンバの位置情報と事象の発生場所とに基づいて、メンバの位置から事象の発生場所までのルートを算出する。ルート情報生成部160は、算出したルートを示すルート情報を生成する。メンバが複数存在する場合、ルート情報生成部160は、メンバごとにルート情報を生成する。このように、ルート情報生成部160は、メンバの位置から事象の発生場所までのルートを示すルート情報を生成する。ルート情報生成部160は、ルート情報生成手段の一例である。
 また、ルート情報生成部160は、メンバの位置から要具の保管場所までのルートを算出してよい。このとき、ルート情報生成部160は、要具の保管場所から事象の発生場所までのルートを算出する。そして、ルート情報生成部160は、算出されたルートを示すルート情報を生成してよい。すなわち、ルート情報生成部160は、メンバの位置から要具の保管場所を経由した事象の発生場所までのルートを示すルート情報を生成してよい。
 持出検知部170は、特定部130によって特定された要具が持ち出されたことを検知する。例えば、要具の保管場所にセンサが設置される。当該センサは、要具が持ち出されると信号を発する。持出検知部170は、例えばこのようなセンサによって発された信号を取得することにより、要具が持ち出されたことを検知してよい。また、例えば、持出検知部170は、撮影画像から要具が持ち出されたことを検知してもよい。この場合、要具の保管場所に一以上の撮影装置300が設置される。そして、人物が要具を持ち出した場面が撮影された場合、持出検知部170は、要具が持ち出されたことを検知する。このように、持出検知部170は、要具が持ち出されたことを検知する。持出検知部170は、持出検知手段の一例である。
 また、持出検知部170は、要具を持ち出したメンバを特定してもよい。例えば、持出検知部170は、要具が持ち出されたことを検知した際に、要具の保管場所から所定の距離以内にいるメンバを、要具を持ち出したメンバとして特定してよい。また、持出検知部170は、撮影画像に基づいて、要具を持ち出したメンバを特定してもよい。例えば、人物が要具を持ち出した場面が撮影された場合、持出検知部170は撮影画像に含まれるメンバを、顔認証を用いて特定してよい。この場合、監視装置100は、予めメンバの顔の特徴量とメンバの識別情報とが関連づけられたデータベースを有する。そして、持出検知部170は、撮影画像から抽出される人物の顔の特徴量と、データベースに含まれる特徴量と、を照合することにより、メンバを特定してよい。
 出力制御部141は、位置情報に基づいて出力情報を出力させる通信端末201を変更してもよい。例えば、位置情報取得部150は、取得した位置情報に基づいて、メンバが事象の発生場所から所定の範囲内にいるか否かを判定する。所定の範囲内とは、事象の発生場所から所定の距離以内を示してよい。また、事象が所定の施設内で発生した場合、所定の範囲内は、所定の施設内を示してよい。メンバが事象の発生場所から所定の範囲内にいる場合、出力制御部141は、事象の発生場所から所定の距離以内に位置するメンバの通信端末201に、事象が発生したことを示す情報と、前記要具に関する情報とを含む出力情報を出力させてよい。すなわち、出力制御部141は、複数のメンバのうち、限られたメンバに対して出力情報を出力してよい。ここで、出力情報を出力する対象となるメンバを対象メンバとも称する。このように、出力制御部141は、位置情報に基づいて、事象の発生場所から第1の範囲内のメンバである対象メンバの通信端末に、事象が発生したことを示す情報と、要具に関する情報とを出力させてよい。
 また、出力制御部141は、メンバごとに異なる出力情報を出力させてよい。例えば、位置情報取得部150は、取得した位置情報に基づいて、メンバが事象の発生場所から所定の範囲内にいるか否かを判定する。また、位置情報取得部150は、所定の範囲内にいるメンバが、要具の保管場所から第2の所定の範囲内にいるか否かを判定する。出力制御部141は、事象の発生場所から所定の範囲内のメンバの通信端末201に事象が発生したことを示す情報を出力させる。そして、出力制御部141は、第2の所定の範囲内のメンバの通信端末に、事象が発生したことを示す情報と、前記要具に関する情報と、を含む出力情報を出力させてよい。すなわち、出力制御部141は、要具に関する情報を、要具の保管場所に近いメンバに対して出力してよい。この場合、要具の保管場所に近いメンバを対象メンバと称する。このように、出力制御部141は、位置情報に基づいて、第1の範囲内のメンバの通信端末に、事象が発生したことを示す情報を出力させ、第1の範囲内であって、要具の保管場所から第2の範囲内のメンバである対象メンバの通信端末に、要具に関する情報を出力させてよい。
 また、出力制御部141は、ルート情報を含む出力情報を通信端末201に出力させてよい。このとき、出力制御部141は、メンバのそれぞれに対して、メンバの位置から事象の発生場所までのルートを示すルート情報を出力する。すなわち、出力制御部141は、メンバ毎に対応するルート情報を、メンバのそれぞれの通信端末201に出力させてよい。
 図9は、出力情報の一例を示す図である。図9では、出力情報には、事象が発生したことを示す情報と、要具に関する情報と、ルート情報と、が含まれる。この例では、ルート情報として、メンバの現在地から要具の保管場所を経由した事象の発生場所までのルートが地図上に矢印で示されている。また、この例では、他のメンバであるメンバBの位置も示されている。このように、出力制御部141は、所定の範囲にいるメンバの位置とメンバの識別情報とを示す情報をメンバのそれぞれの通信端末201に出力させてよい。これにより、メンバのそれぞれは、どのメンバがどの位置にいるかを把握することができる。また、識別情報にメンバの連絡先が含まれる場合、メンバは、他のメンバと連絡をとることができる。例えば、メンバは他のメンバの位置情報を確認しながら、他のメンバと連携をとることができる。
 出力制御部141は、要具が持ち出されたことが検知された場合、要具が持ち出されたことを示す情報を通信端末201に出力させてよい。このとき、出力制御部141は、要具を持ち出したメンバの識別情報を出力させてもよい。図10は、出力情報の他の例を示す図である。図10の例では、出力情報には、事象が発生したことを示す情報と、要具に関する情報と、ルート情報と、が含まれる。さらに、要具が持ち出されたことを示す情報が地図上に重畳されている。この例では、要具が、他のメンバであるメンバCによって持ち出されたことが示されている。このように、出力制御部141は、要具が持ち出されたことを示す情報と、要具を持ち出したメンバの識別情報と、を出力させてよい。
 なお、出力制御部141は、地図上の保管場所を示す位置に要具を持ち出したメンバの識別情報を重畳してもよい。保管場所が複数存在する場合がある。この場合に、出力制御部141は、どの保管場所から誰が要具を持ち出したかを示すことができる。
 なお、要具が持ち出されたことが検知された場合、保管場所には要具が存在しない。そのため、ルート情報生成部160は、メンバの位置から事象の発生場所までの最短ルートを算出しなおしてよい。そしてルート情報生成部160は、ルート情報を再度生成してよい。出力制御部141は、再度生成されたルート情報を通信端末201に出力させてよい。要具の保管場所を経由するルートは、メンバにとって事象の発生場所まで遠回りするルートである可能性がある。保管場所に要具が存在しない場合、メンバは保管場所を経由する必要はない。そのため、監視システム1001は、メンバを、事象の発生場所までの迅速に誘導することができる。
 [監視システム1001の動作例]
 次に、監視システム1001の動作の一例を、図11を用いて説明する。本動作例では、事象の発生場所から所定の範囲内にいる一のメンバに対して出力情報を出力する例を説明する。
 図11は、監視システム1001の動作の一例を説明するフローチャートである。まず、撮影装置300の撮影部310は撮影を行う(S201)。監視装置101の取得部110は、撮影装置300のそれぞれから撮影画像を取得する(S202)。検知部120は、取得された撮影画像から事象の発生を検知する(S203)。そして、検知部120は、事象の発生場所を特定する(S204)。特定部130は、発生した事象に対応する要具を特定する(S205)。このとき、特定部130は、要具の保管場所も特定してよい。
 位置情報取得部150は、メンバの通信端末201から位置情報を取得する(S206)。位置情報取得部150は、メンバが事象の発生場所から所定の範囲内にいるか否かを判定する。メンバが事象の発生場所から所定の範囲内にいる場合(S207の「Yes」)、ルート情報生成部160は、ルート情報を生成する(S208)。例えば、ルート情報生成部160は、位置情報に基づいて、メンバのいる位置から要具の保管場所を経由した事象の発生場所までのルートを示すルート情報を生成する。メンバが事象の発生場所から所定の範囲内にいない場合(S207のNo」)、監視システム1001は、当該メンバに対して以降の処理を行わなくてもよい。
 出力制御部141は、出力情報を生成する(S209)。例えば、出力制御部141は、事象が発生したことを示す情報と、要具に関する情報と、ルート情報と、を含む出力情報を生成する。通信端末201の出力部210は、出力情報を出力する(S210)。
 持出検知部170が、要具の持出を検知した場合(S211の「Yes」)、出力制御部141は、要具が持ち出されたことを示す情報を生成する(S212)。そして、通信端末201の出力部210は、要具が持ち出されたことを示す情報を出力する(S213)。なお、持出検知部170が、要具の持出を検知しなかった場合(S211の「No」)、監視システム1001は、S212以降の処理を行わなくてよい。
 このように、第3の実施形態の監視システム1001は、メンバの位置情報を取得し、位置情報に基づいて、事象の発生場所から第1の範囲内のメンバである対象メンバの通信端末に、事象が発生したことを示す情報と、要具に関する情報とを出力させてよい。これにより、監視システム1001は、事象が発生した場合に、事象に関連するメンバに対して迅速に情報を提供することができる。
 また、第3の実施形態の監視システム1001は、メンバの位置情報を取得し、位置情報に基づいて、第1の範囲内のメンバの通信端末に、事象が発生したことを示す情報を出力させ、第1の範囲内であって、要具の保管場所から第2の範囲内のメンバである対象メンバの通信端末に、前記要具に関する情報を出力させてもよい。例えば、要具の数が限られている場合、要具の数以上のメンバに要具に関する情報を提供しても、メンバのすべてが要具を持ち出すことができない。その場合、要具を持ち出すことができなかったメンバは、要具の保管場所に行く時間分、事象の発生場所への到着が遅れてしまう。監視システム1001は、複数のメンバのうち、特に要具に近いメンバに対して、要具に関する情報を提供することができるので、複数のメンバを効率的に誘導することができる。
 また、第3の実施形態の監視システム1001は、位置情報に基づいて、メンバの位置から事象の発生場所までのルートを示すルート情報を生成し、メンバごとに対応するルート情報を、メンバのそれぞれの通信端末に出力させてよい。これにより、監視システム1001は、メンバに事象の発生場所まで迅速に到達させる支援をすることができる。また、このとき監視システム1001は、対象メンバの位置から要具の保管場所を経由した事象の発生場所までのルートを示すルート情報を生成し、対象メンバの通信端末に当該ルート情報を含む要具に関する情報を出力させてよい。これにより、監視システム1001は、対象メンバには、要具を持ち出すことを考慮したルートを提供することができる。
 また、第3の実施形態の監視システム1001は、要具が持ち出されたことを検知し、要具が持ち出されたことを示す情報をメンバの通信端末に出力させてよい。要具が既に持ち出された場合、要具を持ち出していない他のメンバは保管場所に向かう必要はない。監視システム1001は、他のメンバに、要具が持ち出されたことを知らせることができるので、他のメンバを直接事象の発生場所に向かわせることができる。また、このとき、監視システム1001は、要具を持ち出したメンバを特定し、要具を持ち出したメンバの識別情報を、メンバの通信端末に出力させてよい。これにより、監視システム1001は、誰が要具を持っているかを他のメンバにも知らせることができる。
 <第4の実施形態>
 次に、第4の実施形態の監視システムについて説明する。第4の実施形態では、監視システムのさらなる機能について説明する。なお、第1、第2及び第3の実施形態で説明した内容と重複する内容は、一部説明を省略する。
 [監視システム1002]
 図12は、監視システム1002の機能構成を示すブロック図である。監視システム1002は、図3に示す監視システム1000の監視装置100に代わり監視装置102を備え、通信端末200に代わり通信端末201を備える。さらに、監視システム1002は、センサ400を備える。すなわち、監視システム1002は、監視装置102と通信端末201と撮影装置300とセンサ400とを備える。監視システム1002は、監視システム1000または監視システム1001の処理に加え、本実施形態で説明する処理を行ってよい。
 なお、本実施形態において、通信端末201には、複数のメンバがそれぞれ所有する装置と、公共の領域に設置されるディスプレイとが含まれる。
 センサ400は、例えば、音センサ、人感センサ、距離センサ等の各種センサである。センサ400は、火災報知器であってもよい。すなわち、センサ400は、ガス、熱、煙、及び炎の少なくともいずれかを検知するセンサであってもよい。センサ400は、複数存在してよい。例えば、センサ400は、撮影装置300のそれぞれとともに設置される。このとき、一の撮影装置300に対して、一以上のセンサ400が設置されてよい。なお、センサ400は、撮影装置300に関わらず設置されてよい。例えば、撮影装置300が所定の施設内に設置される場合、センサ400は、所定の施設内の複数の箇所に設置されてよい。センサ400は、検知した情報をセンサデータとして監視装置102に送信する。なお、センサデータには、センサ400の識別情報が含まれてよい。センサ400の識別情報は、センサ400のそれぞれに付与されたコードであってもよいし、センサ400が設置された場所を示す情報であってもよい。
 監視装置102は取得部111と、検知部121と特定部130と出力制御部142と位置情報取得部150とルート情報生成部161と持出検知部170とを備える。
 取得部111は、撮影画像取得部1101とセンサデータ取得部1102とを備える。撮影画像取得部1101は、撮影装置300のそれぞれから撮影画像を取得する。センサデータ取得部1102は、センサ400のそれぞれからセンサデータを取得する。例えば、センサ400が距離センサであれば、センサデータ取得部1102は、センサ400の周囲の物体までの距離の情報を含むセンサデータを取得する。また、センサが人感センサであれば、センサデータ取得部1102は、センサ400付近の所定の範囲内の人物を検出したことを示すセンサデータを取得する。センサ400が音センサであれば、センサデータ取得部1102は、センサ400付近の所定の範囲内で発生した音声を示すセンサデータを取得する。センサ400が火災報知器のようなセンサである場合、センサデータ取得部1102は、センサ400によって検知されたガス、熱、煙、及び炎の少なくともいずれかを示すセンサデータを取得する。センサデータ取得部1102は、定期的にセンサデータを取得してもよいし、常時センサデータを取得してもよい。また、センサデータ取得部1102は、撮影画像が取得された際に、センサデータを取得してもよい。
 検知部121は、撮影画像とセンサデータとに基づいて、事象の発生を検知する。例えば、検知部121は、撮影画像から、事象の発生を推定したとする。このとき、検知部121は、センサデータを利用して、推定した事象が発生しているかどうかを判定する。検知部121は、推定した事象が発生していると判定した場合、当該事象の発生を検知する。例えば、検知部121は、撮影画像から炎を検出し、火災の発生を推定する。また、検知部121は、炎を検出した撮影画像を撮影した撮影装置300を特定し、特定した撮影装置300の周辺のセンサ400のセンサデータを分析する。例えば、センサデータに、センサ400によってガス、熱、煙、及び炎の少なくともいずれかが検知されたことが示されている場合、検知部121は、火災が発生していると判定する。そして、検知部121は、当該判定により、火災の発生を検知する。このように、検知部121は、撮影画像とセンサデータとに基づいて、事象として火災を検知してよい。
 また、例えば検知部121は、撮影画像から刃物を所持している人物を検出し、不審者の発生を推定する。検知部121は、刃物を所持している人物を検出した撮影画像を撮影した撮影装置300を特定し、特定した撮影装置300の周辺のセンサ400のセンサデータを分析する。例えば、センサデータに、人の叫び声等の音声が含まれる場合、検知部121は、不審者が発生していると判定する。そして、検知部121は、当該判定により、不審者の発生を検知する。
 このように、検知部121は、センサデータを利用することにより、事象の発生を検知する確度を向上させることができる。なお、センサデータの利用の仕方は上述の例に限られない。検知部121は、事象の発生を検知するために種々の手法でセンサデータを利用することが可能である。
 ルート情報生成部161は、メンバによって異なるルートを示すルート情報を生成してよい。例えば、不審者の発生が検知された場合、ルート情報生成部161は、複数のメンバが異なる方向から不審者がいる場所に向かうようルートを算出してよい。すなわち、ルート情報生成部161は、複数のメンバに、不審者に対してはさみうちをさせることができる。図13は、出力情報の一例を示す図である。図13は、一のメンバの通信端末201に出力される出力情報の例である。この例では、一のメンバの現在地とメンバDの位置とが示されている。そして、一のメンバのルートは実線の矢印で示され、メンバDのルートは点線で示されている。ここで、一のメンバのルートは、図の下から事象の発生場所に向かうルートである。一方で、メンバDのルートは、図の上から事象の発生場所に向かうルートである。すなわち、この例では、複数のメンバが、事象の発生場所に対して異なる方向から侵入するルートが示されている。このように、ルート情報生成部161は、複数のメンバが異なる方向から事象の発生場所に進入するルートを示すルート情報を生成してよい。
 出力制御部142は、上述のように生成されたルート情報を含む出力情報を、通信端末201に出力させてよい。さらに、出力制御部142は、事象の発生場所から避難することを示す避難情報を出力してよい。例えば、駅のホームに止まっている電車において、不審者が発生したとする。この場合、出力制御部142は、駅員及び警備員が所有している通信端末201に対しては、事象が発生したことを示す情報、及び要具に関する情報等を含む出力情報を出力させる。一方で、駅の利用者が所有している通信端末201、及び、駅に設置されているディスプレイである通信端末201には、出力制御部142は、避難情報を出力させてよい。
 図14は、避難情報が出力される状況の一例を示す図である。図14の例では、電車の車内に設置されたディスプレイである通信端末201に避難情報が出力されている。避難情報には、避難すべき方向を示す情報が含まれる。図14の例では、避難情報として、先頭車両の方向へ避難すること、及び、先頭車両の方向を示す矢印がしめされている。避難すべき方向を示す情報は、例えば、ルート情報生成部161によって生成されてよい。例えば、ルート情報生成部161は、通信端末201の位置と、事象の発生場所と、に基づいて、避難すべき方向を算出する。そして、ルート情報生成部161は、避難すべき方向を示す情報を生成する。出力制御部142は、避難すべき方向を示す情報を含む避難情報を出力させる。
 [監視システム1002の動作例]
 次に、監視システム1002の動作の一例を、図15を用いて説明する。本動作例では、事象の発生場所から所定の範囲内にいる警備員の通信端末201、または、所定の範囲内に設置されたディスプレイである通信端末201に対して出力情報を出力する例を説明する。
 図15は、監視システム1002の動作の一例を説明するフローチャートである。まず、撮影装置300の撮影部310は撮影を行う(S301)。監視装置101の撮影画像取得部1101は、撮影装置300のそれぞれから撮影画像を取得する(S302)。センサデータ取得部1102は、センサ400のそれぞれからセンサデータを取得する(S303)。そして、検知部121は、撮影画像とセンサデータとに基づいて、事象の発生を検知する(S304)。
 S305乃至S308の処理は、図11のS204乃至S207の処理と同様であるため記載を省略する。
 通信端末201が事象の発生場所から所定の範囲内にいる場合であって(S308の「Yes」)、通信端末201を所有するメンバが警備員である場合(S309の「Yes」)、監視システム1002は、S310以降の処理を行う。なお、通信端末201を所有するメンバが警備員であるか否かの判定は、ルート情報生成部161が行ってよい。例えば、ルート情報生成部161は、通信端末201の識別情報に基づいて判定を行ってよい。S310乃至S315の処理は、図11のS208乃至S213と同様であるため記載を省略する。
 通信端末201が事象の発生場所から所定の範囲内にいる場合であって(S308の「Yes」)、通信端末201を所有するメンバが警備員でない場合(S309の「No」)、監視システム1002は、S316以降の処理を行う。すなわち、ルート情報生成部161は、避難すべき方向を示す情報を生成する(S316)。出力制御部142は、避難すべき方向を示す情報を含む避難情報を生成する(S317)。そして、通信端末201の出力部210は、避難情報を出力する(S318)。
 このように、第4の実施形態の監視システム1002は、事象の発生場所とメンバの位置とに基づいて、避難すべき方向を示す情報を生成し、避難すべき方向を示す情報を含む避難情報を、通信端末201に出力させてよい。これにより、監視システム1002は、一般の人物に対しては避難を促すことができる。
 また、第4の実施形態の監視システム1002は、センサによって検知されたガス、熱、煙、及び炎の少なくともいずれかを示すセンサデータを取得し、撮影画像とセンサデータとに基づいて、事象として火災を検知してよい。また、監視システム1002は、センサによって検知された音声を示すセンサデータを取得し、撮影画像とセンサデータとに基づいて事象の発生を検知してよい。このように、監視システム1002は、撮影画像から事象の発生を検知する際に、センサデータを補助的に利用することができる。これにより、監視システム1002は、事象の発生を検知する確度を向上させることができる。
 <監視システムのハードウェアの構成例>
 上述した第1、第2、第3、及び第4の実施形態の監視システムを構成するハードウェアについて説明する。図16は、各実施形態における監視システムを実現するコンピュータ装置のハードウェア構成の一例を示すブロック図である。コンピュータ装置90において、各実施形態及び各変形例で説明した、監視システム、及び監視方法が実現される。より具体的には、各実施形態及び各変形例で説明した、監視装置、撮影装置、及び通信端末、並びにこれらを利用した方法が、コンピュータ装置90において実現される。
 図16に示すように、コンピュータ装置90は、プロセッサ91、RAM(Random Access Memory)92、ROM(Read Only Memory)93、記憶装置94、入出力インタフェース95、バス96、及びドライブ装置97を備える。なお、監視システムは、複数の電気回路によって実現されてもよい。
 記憶装置94は、プログラム(コンピュータプログラム)98を格納する。プロセッサ91は、RAM92を用いて本監視システムのプログラム98を実行する。具体的には、例えば、プログラム98は、図2、図7、図11、及び図15に示す処理をコンピュータに実行させるプログラムを含む。プロセッサ91が、プログラム98を実行することに応じて、本監視システムの各構成要素の機能が実現される。プログラム98は、ROM93に記憶されていてもよい。また、プログラム98は、記憶媒体80に記録され、ドライブ装置97を用いて読み出されてもよいし、図示しない外部装置から図示しないネットワークを介してコンピュータ装置90に送信されてもよい。
 入出力インタフェース95は、周辺機器(キーボード、マウス、表示装置など)99とデータをやり取りする。入出力インタフェース95は、データを取得または出力する手段として機能する。バス96は、各構成要素を接続する。
 なお、監視システムの実現方法には様々な変形例がある。例えば、監視システムは、専用の装置として実現することができる。また、監視システムは、複数の装置の組み合わせに基づいて実現することができる。
 各実施形態の機能における各構成要素を実現するためのプログラムを記憶媒体に記録させ、該記憶媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記憶媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記憶媒体、及びそのプログラム自体も各実施形態に含まれる。
 該記憶媒体は、例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD(Compact Disc)-ROM、磁気テープ、不揮発性メモリカード、またはROMであるが、この例に限られない。また該記憶媒体に記録されたプログラムは、単体で処理を実行しているプログラムに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS(Operating System)上で動作して処理を実行するプログラムも各実施形態の範疇に含まれる。
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解しうる様々な変更をすることができる。
 上記実施形態及び変形例は、適宜組み合わせることが可能である。
 上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下には限られない。
 <付記>
 [付記1]
 撮影画像を取得する取得手段と、
 前記撮影画像から事象の発生を検知する検知手段と、
 前記事象に対応する要具を特定する特定手段と、
 前記要具に関する情報を通信端末に出力させる出力制御手段と、を備える、
 監視システム。
 [付記2]
 前記特定手段は、前記要具の保管場所を特定し、
 前記出力制御手段は、前記要具の保管場所を示す情報を含む前記要具に関する情報を出力させる、
 付記1に記載の監視システム。
 [付記3]
 メンバの位置情報を取得する位置情報取得手段を備え、
 前記出力制御手段は、前記位置情報に基づいて、前記事象の発生場所から第1の範囲内のメンバである対象メンバの通信端末に、前記事象が発生したことを示す情報と、前記要具に関する情報とを出力させる、
 付記2に記載の監視システム。
 [付記4]
 メンバの位置情報を取得する位置情報取得手段を備え、
 前記出力制御手段は、前記位置情報に基づいて、第1の範囲内のメンバの通信端末に、前記事象が発生したことを示す情報を出力させ、前記第1の範囲内であって、前記要具の保管場所から第2の範囲内のメンバである対象メンバの通信端末に、前記要具に関する情報を出力させる、
 付記2に記載の監視システム。
 [付記5]
 前記位置情報に基づいて、メンバの位置から前記事象の発生場所までのルートを示すルート情報を生成するルート情報生成手段を備え、
 前記出力制御手段は、メンバごとに対応するルート情報を、メンバのそれぞれの通信端末に出力させる、
 付記3または4に記載の監視システム。
 [付記6]
 前記ルート情報生成手段は、前記対象メンバの位置から前記要具の保管場所を経由した前記事象の発生場所までのルートを示す前記ルート情報を生成し、
 前記出力制御手段は、前記対象メンバの通信端末に前記ルート情報を含む前記要具に関する情報を出力させる、
 付記5に記載の監視システム。
 [付記7]
 前記ルート情報生成手段は、複数のメンバが異なる方向から前記事象の発生場所に進入するルートを示す前記ルート情報を生成する、
 付記5または6に記載の監視システム。
 [付記8]
 前記要具が持ち出されたことを検知する持出検知手段を備え、
 前記出力制御手段は、前記要具が持ち出されたことを示す情報をメンバの通信端末に出力させる、
 付記3乃至7のいずれかに記載の監視システム。
 [付記9]
 前記持出検知手段は、前記要具を持ち出したメンバを特定し、
 前記出力制御手段は、前記要具を持ち出したメンバの識別情報を、メンバの通信端末に出力させる、
 付記8に記載の監視システム。
 [付記10]
 前記出力制御手段は、前記第1の範囲にいるメンバの位置とメンバの識別情報とを示す情報をメンバのそれぞれの通信端末に出力させる、
 付記3乃至9のいずれかに記載の監視システム。
 [付記11]
 前記ルート情報生成手段は、前記事象の発生場所とメンバの位置とに基づいて、避難すべき方向を示す情報を生成し、
 前記出力制御手段は、前記避難すべき方向を示す情報を含む避難情報を、通信端末に出力させる、
 付記5乃至7のいずれかに記載の監視システム。
 [付記12]
 前記取得手段は、センサによって検知されたガス、熱、煙、及び炎の少なくともいずれかを示すセンサデータを取得し、
 前記検知手段は、前記撮影画像とセンサデータとに基づいて、前記事象として火災を検知する、
 付記1乃至11のいずれかに記載の監視システム。
 [付記13]
 前記取得手段は、センサによって検知された音声を示すセンサデータを取得し、
 前記検知手段は、前記撮影画像とセンサデータとに基づいて前記事象の発生を検知する、
 付記1乃至12のいずれかに記載の監視システム。
 [付記14]
 撮影画像を取得し、
 前記撮影画像から事象の発生を検知し
 前記事象に対応する要具を特定し、
 前記要具に関する情報を通信端末に出力させる、
 監視方法。
 [付記15]
 撮影画像を取得する処理と、
 前記撮影画像から事象の発生を検知する処理と、
 前記事象に対応する要具を特定する処理と、
 前記要具に関する情報を通信端末に出力させる処理と、をコンピュータに実行させるプログラムを格納する、
 コンピュータ読み取り可能な記憶媒体。
 100、101、102 監視装置
 110、111 取得部
 120、121 検知部
 130 特定部
 140、141、142 出力制御部
 150 位置情報取得部
 160、161 ルート情報生成部
 170 持出検知部
 200、201 通信端末
 300 撮影装置
 400 センサ
 1000、1001、1002 監視システム

Claims (15)

  1.  撮影画像を取得する取得手段と、
     前記撮影画像から事象の発生を検知する検知手段と、
     前記事象に対応する要具を特定する特定手段と、
     前記要具に関する情報を通信端末に出力させる出力制御手段と、を備える、
     監視システム。
  2.  前記特定手段は、前記要具の保管場所を特定し、
     前記出力制御手段は、前記要具の保管場所を示す情報を含む前記要具に関する情報を出力させる、
     請求項1に記載の監視システム。
  3.  メンバの位置情報を取得する位置情報取得手段を備え、
     前記出力制御手段は、前記位置情報に基づいて、前記事象の発生場所から第1の範囲内のメンバである対象メンバの通信端末に、前記事象が発生したことを示す情報と、前記要具に関する情報とを出力させる、
     請求項2に記載の監視システム。
  4.  メンバの位置情報を取得する位置情報取得手段を備え、
     前記出力制御手段は、前記位置情報に基づいて、第1の範囲内のメンバの通信端末に、前記事象が発生したことを示す情報を出力させ、前記第1の範囲内であって、前記要具の保管場所から第2の範囲内のメンバである対象メンバの通信端末に、前記要具に関する情報を出力させる、
     請求項2に記載の監視システム。
  5.  前記位置情報に基づいて、メンバの位置から前記事象の発生場所までのルートを示すルート情報を生成するルート情報生成手段を備え、
     前記出力制御手段は、メンバごとに対応するルート情報を、メンバのそれぞれの通信端末に出力させる、
     請求項3または4に記載の監視システム。
  6.  前記ルート情報生成手段は、前記対象メンバの位置から前記要具の保管場所を経由した前記事象の発生場所までのルートを示す前記ルート情報を生成し、
     前記出力制御手段は、前記対象メンバの通信端末に前記ルート情報を含む前記要具に関する情報を出力させる、
     請求項5に記載の監視システム。
  7.  前記ルート情報生成手段は、複数のメンバが異なる方向から前記事象の発生場所に進入するルートを示す前記ルート情報を生成する、
     請求項5または6に記載の監視システム。
  8.  前記要具が持ち出されたことを検知する持出検知手段を備え、
     前記出力制御手段は、前記要具が持ち出されたことを示す情報をメンバの通信端末に出力させる、
     請求項3乃至7のいずれかに記載の監視システム。
  9.  前記持出検知手段は、前記要具を持ち出したメンバを特定し、
     前記出力制御手段は、前記要具を持ち出したメンバの識別情報を、メンバの通信端末に出力させる、
     請求項8に記載の監視システム。
  10.  前記出力制御手段は、前記第1の範囲にいるメンバの位置とメンバの識別情報とを示す情報をメンバのそれぞれの通信端末に出力させる、
     請求項3乃至9のいずれかに記載の監視システム。
  11.  前記ルート情報生成手段は、前記事象の発生場所とメンバの位置とに基づいて、避難すべき方向を示す情報を生成し、
     前記出力制御手段は、前記避難すべき方向を示す情報を含む避難情報を、通信端末に出力させる、
     請求項5乃至7のいずれかに記載の監視システム。
  12.  前記取得手段は、センサによって検知されたガス、熱、煙、及び炎の少なくともいずれかを示すセンサデータを取得し、
     前記検知手段は、前記撮影画像とセンサデータとに基づいて、前記事象として火災を検知する、
     請求項1乃至11のいずれかに記載の監視システム。
  13.  前記取得手段は、センサによって検知された音声を示すセンサデータを取得し、
     前記検知手段は、前記撮影画像とセンサデータとに基づいて前記事象の発生を検知する、
     請求項1乃至12のいずれかに記載の監視システム。
  14.  撮影画像を取得し、
     前記撮影画像から事象の発生を検知し
     前記事象に対応する要具を特定し、
     前記要具に関する情報を通信端末に出力させる、
     監視方法。
  15.  撮影画像を取得する処理と、
     前記撮影画像から事象の発生を検知する処理と、
     前記事象に対応する要具を特定する処理と、
     前記要具に関する情報を通信端末に出力させる処理と、をコンピュータに実行させるプログラムを格納する、
     コンピュータ読み取り可能な記憶媒体。
PCT/JP2022/010939 2022-03-11 2022-03-11 監視システム、監視方法、及びコンピュータ読み取り可能な記憶媒体 WO2023170936A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/010939 WO2023170936A1 (ja) 2022-03-11 2022-03-11 監視システム、監視方法、及びコンピュータ読み取り可能な記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/010939 WO2023170936A1 (ja) 2022-03-11 2022-03-11 監視システム、監視方法、及びコンピュータ読み取り可能な記憶媒体

Publications (1)

Publication Number Publication Date
WO2023170936A1 true WO2023170936A1 (ja) 2023-09-14

Family

ID=87936446

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/010939 WO2023170936A1 (ja) 2022-03-11 2022-03-11 監視システム、監視方法、及びコンピュータ読み取り可能な記憶媒体

Country Status (1)

Country Link
WO (1) WO2023170936A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012078971A (ja) * 2010-09-30 2012-04-19 Chugoku Electric Power Co Inc:The サーバ装置、及び救助支援方法
JP2019219844A (ja) * 2018-06-19 2019-12-26 佐々木 裕一 無線による防災システムおよび防災方法
JP2020052856A (ja) * 2018-09-28 2020-04-02 大日本印刷株式会社 救援支援サーバ、救援支援システム及びプログラム
JP2021071925A (ja) * 2019-10-31 2021-05-06 ニッタン株式会社 避難誘導システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012078971A (ja) * 2010-09-30 2012-04-19 Chugoku Electric Power Co Inc:The サーバ装置、及び救助支援方法
JP2019219844A (ja) * 2018-06-19 2019-12-26 佐々木 裕一 無線による防災システムおよび防災方法
JP2020052856A (ja) * 2018-09-28 2020-04-02 大日本印刷株式会社 救援支援サーバ、救援支援システム及びプログラム
JP2021071925A (ja) * 2019-10-31 2021-05-06 ニッタン株式会社 避難誘導システム

Similar Documents

Publication Publication Date Title
US20180040230A1 (en) Systems and methods for managing an emergency situation
US8606316B2 (en) Portable blind aid device
JP6929758B2 (ja) 避難誘導システム
JP2017204104A (ja) 制御装置、車載装置、映像配信方法、及びプログラム
US20210256823A1 (en) Video surveillance system and video surveillance method
US20220139199A1 (en) Accurate digital security system, method, and program
CN109451385A (zh) 一种基于使用耳机时的提醒方法以及装置
US10997841B2 (en) Information processing apparatus, information processing system and information processing method
KR20180057578A (ko) 이벤트에 대한 설정 및 처리 방법 및 장치
JP2014116648A (ja) 音源方向表示装置、音源方向表示方法、音源方向送信方法、及び音源方向表示プログラム
JP2014044641A (ja) 犯罪情報管理装置および犯罪情報管理システム
KR20180066688A (ko) 딥러닝 및 능동준지도학습을 이용한 디지털 사회 보호막 시스템
KR101166075B1 (ko) 위치기반 사용자 보호 시스템 및 방법
WO2023170936A1 (ja) 監視システム、監視方法、及びコンピュータ読み取り可能な記憶媒体
JP7197256B2 (ja) 通知システム、通知方法およびプログラム
JP2015138534A (ja) 電子機器
WO2021111654A1 (ja) 処理装置、処理方法及びプログラム
KR20160029055A (ko) 피난경로 제공 방법, 사용자 단말, 및 피난경로 제공 서버
KR102418352B1 (ko) 화재 감지 및 대피 시스템
TWI606426B (zh) 個人週遭環境安全通報系統與方法
JP2021164008A (ja) 情報処理方法、情報処理装置、プログラム及び情報処理システム
US20200027335A1 (en) Emergency Monitoring and Information System
JP2021135875A (ja) 避難誘導システム
JP2024039118A (ja) 避難指示装置、避難指示方法、及び、避難指示プログラム
JP7463143B2 (ja) セキュリティシステム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22930917

Country of ref document: EP

Kind code of ref document: A1