WO2023152857A1 - 通報支援装置、通報支援方法、及びコンピュータ読み取り可能な記憶媒体 - Google Patents

通報支援装置、通報支援方法、及びコンピュータ読み取り可能な記憶媒体 Download PDF

Info

Publication number
WO2023152857A1
WO2023152857A1 PCT/JP2022/005286 JP2022005286W WO2023152857A1 WO 2023152857 A1 WO2023152857 A1 WO 2023152857A1 JP 2022005286 W JP2022005286 W JP 2022005286W WO 2023152857 A1 WO2023152857 A1 WO 2023152857A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
unit
person
terminal
feature
Prior art date
Application number
PCT/JP2022/005286
Other languages
English (en)
French (fr)
Inventor
聡 日下
孝 青池
昌子 和田
佑 清水
敢 井上
梓 鈴木
諒 西澤
一翔 松田
勇祐 田代
正二 伊東
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2022/005286 priority Critical patent/WO2023152857A1/ja
Publication of WO2023152857A1 publication Critical patent/WO2023152857A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • H04M11/04Telephonic communication systems specially adapted for combination with other electrical systems with alarm systems, e.g. fire, police or burglar alarm systems

Definitions

  • This disclosure relates to technology that supports response to emergency calls.
  • Patent Document 1 discloses a technique for grasping the on-site situation when an emergency call is made. Specifically, Patent Literature 1 discloses that when an emergency call is received, a video transmission request is sent to the mobile terminal of the caller, and the video captured by the mobile terminal is received. The technology disclosed in Patent Literature 1 helps the operator to grasp the situation at the site by having the operator check the video.
  • Patent Document 2 discloses that the identification information of the patient is acquired at the time of emergency transportation, and the medical information of the patient is obtained based on the identification information. It is disclosed to obtain the.
  • Patent Document 3 discloses a technology for performing image processing on a photographed image and transmitting the image depending on whether or not the portrait license is agreed. is disclosed.
  • the operator in the command room who received the report gives various instructions not only to the reporter, but also to the police, fire brigade, or ambulance team rushing to the scene. Therefore, the operator needs to grasp the situation accurately.
  • the operator will be able to grasp the situation at the scene more easily than if they only heard the voice of the caller.
  • the present disclosure has been made in view of the above problems, and aims to provide a report support device or the like that can assist the operator in grasping the situation when a report is received.
  • a report support device includes acquisition means for acquiring a photographed image from a reporter terminal, which is a terminal owned by a reporter, extraction means for extracting feature information related to an object included in the photographed image, An identifying means for identifying the object based on the extracted feature information, and an output means for outputting information about the identified object.
  • a report support method acquires a captured image from a reporter terminal, which is a terminal owned by a reporter, extracts feature information about an object included in the captured image, and extracts the extracted feature information. to identify the object and output information about the identified object.
  • a computer-readable storage medium includes a process of acquiring a captured image from a reporter terminal, which is a terminal owned by a reporter, and a process of extracting feature information about an object included in the captured image. , a program for causing a computer to execute a process of specifying the object based on the extracted feature information and a process of outputting information about the specified object.
  • FIG. 1 is a diagram schematically showing an example of a configuration of a report support system including a report support device according to the first embodiment of the present disclosure
  • FIG. 1 is a block diagram showing an example of a report support device according to a first embodiment of the present disclosure
  • FIG. 4 is a flow chart illustrating an example of the operation of the report support device according to the first embodiment of the present disclosure
  • FIG. 7 is a block diagram showing an example of the configuration of a report support system according to the second embodiment of the present disclosure
  • FIG. FIG. 11 is a sequence diagram illustrating an example of the operation of the reporting support system according to the second embodiment of the present disclosure
  • FIG. 12 is a diagram schematically showing an example of the configuration of a reporting support system according to the third embodiment of the present disclosure
  • FIG. 13 is a diagram illustrating an example of a database according to the third embodiment of the present disclosure
  • FIG. FIG. 12 is a block diagram showing an example of the configuration of a reporting support system according to the third embodiment of the present disclosure
  • FIG. FIG. 12 is a diagram showing an example of an output image according to the third embodiment of the present disclosure
  • FIG. FIG. 14 is a sequence diagram illustrating an example of the operation of the reporting support system according to the third embodiment of the present disclosure
  • FIG. 14 is a diagram schematically showing an example of the configuration of a report support system according to the fourth embodiment of the present disclosure
  • FIG. FIG. 12 is a block diagram showing an example of the configuration of a report support system according to the fourth embodiment of the present disclosure
  • FIG. 12 is a diagram showing an example of an output image according to the fourth embodiment of the present disclosure
  • FIG. FIG. 22 is a sequence diagram illustrating an example of the operation of the reporting support system according to the fourth embodiment of the present disclosure
  • FIG. FIG. 12 is a block diagram showing an example of the configuration of a report support system according to the fifth embodiment of the present disclosure
  • FIG. 15 is a diagram showing an example of a captured image according to the fifth embodiment of the present disclosure
  • FIG. FIG. 22 is a sequence diagram illustrating an example of the operation of the reporting support system according to the fifth embodiment of the present disclosure
  • 21 is a diagram showing a photographing screen according to Modification 7 of the present disclosure. It is a block diagram showing an example of hardware constitutions of a computer device which realizes the report support system of the 1st, 2nd, 3rd, 4th, and 5th embodiments of this indication.
  • a caller makes an emergency call by, for example, entering a predetermined telephone number on a mobile phone.
  • This notification leads to the command room's command system.
  • the command room refers to an organization that issues a dispatch command to a target (for example, the police, fire brigade, ambulance team, etc.) to be rushed to the site according to the content of the report.
  • the operator in the command room communicates with the caller via the command system.
  • the operator based on the information obtained from the reporter, the operator gives instructions to the reporter, and uses the command system to issue commands to the target to be rushed to the site.
  • An example of the reporting support device of the present disclosure is incorporated into a command system used in this way.
  • FIG. 1 is a diagram schematically showing an example of the configuration of a report support system 1000 including the report support device 100.
  • the report support system 1000 includes a report support device 100 and a reporter terminal 200 .
  • Reporting support device 100 is communicably connected to reporter terminal 200 and external device 300 via a wireless or wired network.
  • the external device 300 may be included in the report support device 100 .
  • the whistleblower terminal 200 is a terminal owned by the whistleblower.
  • the caller terminal 200 is, for example, a mobile phone, a smart phone, or a tablet terminal, but is not limited to this example.
  • the communicator terminal 200 may be a terminal having at least a function of making a report, a function of photographing, and a function of transmitting a photographed image. For example, when a whistleblower makes a report using the whistleblower terminal 200 , the report is accepted by the report support device 100 . The operator in the command room who received the report communicates with the reporter via the report support device 100 and the reporter terminal 200 .
  • FIG. 2 is a block diagram showing an example of the functional configuration of the report support device 100 of the first embodiment.
  • report support device 100 includes acquisition unit 110 , extraction unit 120 , identification unit 130 , and output unit 140 .
  • the acquisition unit 110 acquires the captured image from the reporter terminal 200. For example, when the caller terminal 200 makes a report, the caller terminal 200 takes a picture. At this time, the report support device 100 may activate the camera mounted on the reporter terminal 200 by transmitting a signal requesting photographing to the reporter terminal 200 . In addition, the reporter terminal 200 may activate the camera when the reporter terminal 200 receives the input from the reporter. The caller terminal 200 transmits the photographed image generated by photographing to the report support device 100 . The acquisition unit 110 acquires the captured image transmitted from the informant terminal 200 . In this way, the acquisition unit 110 acquires a captured image from the communicator's terminal 200 owned by the communicator. Acquisition unit 110 is an example of acquisition means.
  • the extraction unit 120 extracts feature information from the captured image.
  • the feature information is information indicating features of an object included in the captured image. Feature information is used to identify an object. Use of feature information will be described later.
  • Objects may be, for example, people or non-human objects such as signs, billboards and buildings. In this disclosure, such non-human objects are referred to as features.
  • the feature information may be, for example, a feature amount related to the person's face or a feature amount related to the person's appearance.
  • a person's appearance may include, for example, the person's face, hairstyle, and body shape, may include clothes worn by the person, luggage held by the person, and the like.
  • the information may be, for example, a feature amount relating to the appearance of the feature, character information described in the feature, or a partial image obtained by extracting a portion including the feature from the captured image. may In this way, the extraction unit 120 extracts feature information about objects included in the captured image.
  • the identifying unit 130 identifies the object based on the feature information.
  • the external device 300 stores a database containing information in which feature information and information about an object are associated in advance.
  • the identification unit 130 collates the feature information extracted by the extraction unit 120 with feature information included in the database.
  • the specifying unit 130 specifies the object by specifying information associated with the matched feature information.
  • the database includes information in which a feature amount relating to a person's face is associated with identification information for identifying the person or personal information such as the name of the person.
  • the identification unit 130 collates the feature amount related to the person's face extracted by the extraction unit 120 with the feature amount included in the database. Then, when the collation matches, the specifying unit 130 specifies identification information or personal information associated with the matching feature amount.
  • the identifying unit 130 collates the feature amount related to the appearance of the person extracted by the extracting unit 120 with the feature amount included in the database. If the matching matches, the specifying unit 130 specifies the attribute associated with the matching feature quantity.
  • the method of identifying an object is not limited to this example.
  • the identifying unit 130 may identify the attribute based on a learning model that has learned in advance the relationship between the feature amount and the attribute related to a person's appearance.
  • the learning model may be stored in the external device 300 .
  • the specifying unit 130 may search for the feature information using a search engine. Then, the specifying unit 130 may use the result of specifying the object as the search result.
  • the identifying unit 130 identifies the object based on the extracted feature information.
  • the identifying unit 130 is an example of identifying means.
  • the output unit 140 outputs information about the object.
  • the output unit 140 outputs information about the object identified by the identification unit 130 to an output device (not shown).
  • the output device here is, for example, a display and a speaker.
  • the output device may be a device included in report support device 100 or another device communicatively connected to report support device 100 .
  • the output unit 140 may output the identification information, personal information, or attributes of the person specified by the specifying unit 130, for example.
  • the output unit 140 may output the search result by the identification unit 130, for example. Not limited to this, the output unit 140 may output information further obtained from the information regarding the object identified by the identification unit 130 .
  • identification information of a person and medical information of the person are associated and stored in a device that can communicate with the report support device 100 .
  • the medical information includes a person's health insurance card information, information on medical treatment, medical checkup results, information on drugs taken, and the like.
  • the output unit 140 may acquire medical information associated with the identification information specified by the specifying unit 130 and output the acquired medical information. Further, for example, the output unit 140 may output information on the feature acquired from the search result by the identification unit 130 . For example, if the search results include feature position information, the output unit 140 may output the feature position information. Thus, the output unit 140 outputs information regarding the specified object.
  • the output unit 140 is an example of output means.
  • each step of the flowchart is expressed using a number attached to each step, such as “S1”.
  • FIG. 3 is a flow chart explaining an example of the operation of the report support device 100.
  • FIG. Acquisition unit 110 acquires a captured image from a communicator terminal, which is a terminal owned by the communicator (S1).
  • the extraction unit 120 extracts feature information about an object included in the captured image (S2).
  • the identifying unit 130 identifies the object based on the extracted feature information (S3).
  • the output unit 140 outputs information about the specified object (S4).
  • the report support device 100 of the first embodiment acquires a captured image from the reporter terminal 200, which is a terminal owned by the reporter, and extracts feature information about the object included in the captured image. Then, report support device 100 identifies the object based on the extracted feature information, and outputs information about the identified object. For example, assume that an operator in the control room receives a report from a caller regarding an accident in which an injured person has occurred. In such a case, if an injured person is included in the photographed image, the report support device 100 can output information about the injured person. The operator can, for example, use the output information about the injured person to give further instructions to the caller, or to send instructions to emergency services or the like rushing to the scene.
  • the reporting support device 100 can output information about the features.
  • the operator can, for example, use the output feature information to locate the caller. In this way, the report support device 100 of the first embodiment can assist the operator in grasping the situation when receiving a report.
  • FIG. 4 is a block diagram showing an example of the configuration of the reporting support system 1000.
  • the reporting support system 1000 includes a reporting support device 100 and a reporter terminal 200 .
  • the report support device 100 and the caller terminal 200 are communicably connected.
  • report support device 100 includes acquisition unit 110 , extraction unit 120 , identification unit 130 , output unit 140 , reception unit 150 , and photography request unit 160 .
  • the reception unit 150 receives reports from the reporter terminal 200.
  • a call using, for example, a telephone line is started between the report support device 100 and the caller terminal 200 .
  • the photographing request unit 160 transmits a photographing request to the reporter terminal 200.
  • the photographing request unit 160 uses the phone number of the caller terminal 200 to send a message.
  • the photographing request unit 160 may transmit a message using SMS (Short Message Service).
  • the message includes, for example, a URL (Uniform Resource Locator).
  • URL Uniform Resource Locator
  • the photographing request unit 160 may transmit such a message as a photographing request, for example.
  • the photographing request unit 160 may automatically transmit the photographing request when the reception unit 150 receives the report. Further, the photographing request unit 160 may transmit the photographing request when receiving an operation to transmit the photographing request from the operator after the notification is received.
  • the acquisition unit 110 acquires a photographed image from the caller terminal 200 when data communication is started in response to a photographing request.
  • the captured image may be one or more still images, or may be a video.
  • the acquisition unit 110 may continue to acquire the video being captured by the reporter terminal 200 in real time.
  • the extraction unit 120 extracts feature information from the captured image. At this time, the extraction unit 120 may extract the feature information from any of the captured images acquired by the acquisition unit 110 .
  • the identifying unit 130 identifies objects included in the captured image based on the extracted feature information. For example, a database containing information in which feature information and information about an object are associated is stored in advance in the external device 300 . At this time, the identification unit 130 collates the feature information extracted by the extraction unit 120 with feature information included in the database. If the matching matches, the specifying unit 130 specifies the object by specifying information associated with the matched feature information. Further, for example, when the feature information is character information or a partial image, the specifying unit 130 may search for the feature information using a search engine. The specifying unit 130 may use the result of specifying the object as the search result.
  • the identifying unit 130 may identify an object based on a pre-generated learning model.
  • a learning model is a model that has learned the relationship between feature information and information about an object.
  • the learning model may be a model that receives as input a feature amount relating to a person's appearance and outputs the person's attributes.
  • a learned model may be generated by using various machine learning algorithms. Examples of machine learning algorithms include SVM (Support Vector Machine), neural networks, and random forests, but are not limited to these examples.
  • the output unit 140 outputs information about the object identified by the identification unit 130.
  • the output unit 140 outputs to an output device communicably connected to the report support device 100 .
  • the output device may be, for example, a device that can be visually recognized by an operator, or a device owned by a subject to be rushed to the site.
  • the reporter terminal 200 includes a reporting section 210 , a request receiving section 220 , an imaging section 230 and a data transmitting section 240 .
  • the reporting unit 210 reports. More specifically, reporting unit 210 receives an input of an emergency call telephone number from the reporter. The reporting unit 210 reports, for example, to a reporting destination corresponding to the input telephone number using a telephone line. When the report is accepted by the report support device 100 of the report destination, the reporting unit 210 starts two-way communication with the report destination. That is, the reporting unit 210 realizes communication between the reporting party and the operator of the reporting destination via the reporting party terminal 200 and the reporting support device 100 .
  • the request receiving unit 220 receives a photographing request from the report support device 100. For example, the request receiving unit 220 receives a message using SMS as described above as a photographing request. Then, when the URL included in the message is opened by the caller's operation, data communication between the report support device 100 and the caller's terminal 200 is started. Data communication at this time may be realized by, for example, WebRTC (Web Real Time Communication). That is, data communication may be performed between the reporting support device 100 and the calling party terminal 200 through the browser by opening the URL included in the message by the caller's operation.
  • WebRTC Web Real Time Communication
  • the imaging unit 230 performs imaging and generates a captured image. That is, the photographing unit 230 has the function of a camera mounted on the caller terminal 200 . For example, when the request receiving unit 220 receives a photographing request, the photographing unit 230 activates the camera function. Then, the photographing unit 230 starts photographing. For example, the photographing unit 230 may activate the camera function and start photographing in response to opening of the URL included in the message as described above. Note that the timing of starting shooting is not limited to this example. For example, the photographing unit 230 may start photographing by accepting the caller's operation after the camera function is activated.
  • the data transmission unit 240 transmits the captured image to the notification support device 100.
  • the data transmission unit 240 may transmit the image captured by the image capture unit 230 to the report support device 100 in real time. Further, when a still image is captured by the image capture unit 230, the data transmission unit 240 may transmit the still image to the notification support device 100 each time the image is captured.
  • FIG. 5 is a sequence diagram explaining an example of the operation of the reporting support system 1000.
  • the report unit 210 of the reporter terminal 200 makes a report (S101).
  • the receiving unit 150 of the report support device 100 receives a report from the reporter terminal 200 (S102).
  • the photographing request unit 160 transmits a photographing request to the reporter terminal 200 (S103).
  • the request receiving unit 220 of the reporter terminal 200 receives the photographing request (S104).
  • the request receiving unit 220 receives the image capturing request
  • the image capturing unit 230 performs image capturing (S105).
  • the data transmission unit 240 transmits the captured image to the notification support device 100 (S106).
  • the acquisition unit 110 of the report support device 100 acquires the captured image from the reporter terminal 200 (S107).
  • the extraction unit 120 extracts feature information from the captured image (S108).
  • the identifying unit 130 identifies the object based on the extracted feature information (S109).
  • the output unit 140 outputs information about the specified object (S110).
  • the report support device 100 of the second embodiment acquires a captured image from the reporter terminal 200, which is a terminal owned by the reporter, and extracts feature information about the object included in the captured image. Then, report support device 100 identifies the object based on the extracted feature information, and outputs information about the identified object.
  • the report support device 100 of the second embodiment has the same effects as those of the first embodiment. That is, the report support device 100 can assist the operator in grasping the situation when receiving a report.
  • a report may be made using data communication instead of a telephone line at the reporter terminal 200.
  • the reporting unit 210 makes a report using data communication.
  • the receiving unit 150 of the report support device 100 receives reports.
  • the photographing request unit 160 transmits a photographing request.
  • the photographing request may be a signal for controlling the photographing unit 230 of the reporter terminal 200 .
  • the photographing unit 230 may automatically start photographing.
  • the shooting request is not limited to this example, and may be a notification prompting the whistleblower to start shooting.
  • the request receiving unit 220 may display that the photographing will start.
  • the photographing unit 230 may start photographing by the operation of the reporter.
  • the report support device 100 and the reporter terminal 200 of Modification 1 do not use a telephone line, so there is no need to use separate lines for sending and receiving the report and the photographed image.
  • the identification unit 130 compares the feature information extracted by the extraction unit 120 with the feature information included in the database.
  • Information in which feature information and information about an object are associated is stored in the database in advance.
  • Such a database may be generated by an external organization, or may be generated by the report support system 1000.
  • the reporting support system 1000 When the reporting support system 1000 generates a database in which feature amounts relating to a person's face and identification information of the person are associated, information including the feature amount may be obtained in the reporter terminal 200 in advance. For example, when no incident or accident has occurred, the face of the reporter is photographed by the photographing unit 230 . In addition, the reporter's terminal 200 accepts the input of the reporter's personal information. Data transmission unit 240 transmits the face image of the reporter and the input personal information to report support device 100 . Then, in the reporting support device 100, for example, a generation unit (not shown) generates a database by associating the face image or the feature amount extracted from the face image with the personal information.
  • the whistleblower terminal 200 may obtain the whistleblower's consent for the use of the characteristic information in advance.
  • the photographing unit 230 outputs, on the informer terminal 200, a notification confirming whether or not consent is given to the use of the feature information.
  • the whistleblower inputs consent the photographing unit 230 may start photographing.
  • the output notification may be, for example, the text "Are you agreeing to the transmission of personal information and facial information?" That is, the notification may be a notification confirming whether or not the face recognition of the person including the reporter may be performed from the image captured by the reporter terminal 200 in the reporting support system 1000 .
  • the communicator terminal 200 confirms the transmission of the photographed image to the communicator. you can For example, when the request receiving unit 220 receives a photographing request, the photographing unit 230 outputs a notification on the communicator terminal 200 to confirm whether or not there is consent regarding the transmission of the photographed image. Then, when the whistleblower inputs consent, the photographing unit 230 may start photographing.
  • the output notification may be, for example, a sentence "Do you agree to the transmission of the photographed image?"
  • the photography request may include a notification confirming the presence or absence of consent.
  • the photographing request unit 160 of the reporting support device 100 may be controlled to output the notification to the reporter terminal 200 .
  • Reporting support system 1000 may perform different processes depending on whether or not there is consent regarding the use of feature information, as described in modified examples 2 and 3.
  • the photographing unit 230 may process, for example, mosaic the area of the person's face in the photographed image. That is, the photographing unit 230 may generate a photographed image that hides the person's face.
  • Data transmission unit 240 then transmits the processed captured image to report support device 100 .
  • the report support device 100 may output the position information based on the features included in the captured image.
  • whistleblower terminal 200 may process an area of the captured image for which consent has not been obtained from the whistleblower regarding the use of the characteristic information.
  • the notification support device 100 uses an area of the captured image excluding an area for which consent has not been obtained regarding the use of the feature information, and the processing of the extraction unit 120, the identification unit 130, and the output unit 140 is performed. may be done.
  • FIG. 6 is a diagram schematically showing an example of the configuration of the reporting support system 1001.
  • the reporting support system 1001 comprises a reporting support device 101 and a reporter terminal 200.
  • the report support device 101 is communicably connected to the caller terminal 200, the external device 300, the personal information server, and the field terminal 500.
  • FIG. 1 is a diagram schematically showing an example of the configuration of the reporting support system 1001.
  • the reporting support system 1001 comprises a reporting support device 101 and a reporter terminal 200.
  • the report support device 101 is communicably connected to the caller terminal 200, the external device 300, the personal information server, and the field terminal 500.
  • the external device 300 is, for example, a device with a database for identifying a person.
  • the database includes information in which at least the feature amount related to the person's face and the person's identification information are associated with each other.
  • FIG. 7 is a diagram showing an example of the database.
  • identification information, feature amounts, and personal information are associated.
  • the record on the first line in FIG. 7 indicates that a person whose identification information is "001" has a feature amount of "X", a name of "Taro Tanaka", and an age of "25".
  • the name and age are described as personal information in this example, the personal information is not limited to these.
  • Personal information may include a person's address, phone number, occupation, and the like.
  • the identification information may be any information that can uniquely identify a person.
  • the identification information may be information about a person's official certificate.
  • Official certificates are, for example, driver's licenses and My Number cards.
  • the identification information may be the license number of a driver's license or the individual number of a My Number card (also referred to as "my number").
  • the identification information is not limited to this example, and may be certification information related to a public certificate.
  • the certification information is, for example, information indicating the validity of the My Number card, and may be an electronic certificate issued by an external certification authority or the like, or a code generated using the electronic certificate.
  • the information server 400 contains information in which identification information and information about a person are associated.
  • the information server 400 may contain information in which identification information and medical information are associated.
  • the medical information may be, as described above, a person's health insurance card information, medical treatment information such as medical charts, medical checkup results, and information on drugs taken.
  • the information server 400 may include, for example, information in which identification information is associated with family structure information indicating a person's family structure.
  • the family composition information may be information indicating personal information of the family of the person corresponding to the identification information.
  • the on-site terminal 500 is, for example, a terminal owned by a subject to be rushed to the site.
  • Field terminal 500 may be, for example, a personal computer.
  • the field terminal 500 may be a portable terminal such as a mobile phone, a smart phone, or a tablet terminal.
  • the field terminal 500 may be a terminal owned by an ambulance crew member, or may be a device mounted on an ambulance.
  • the field terminal 500 may be a device provided in a medical institution to which an ambulance is transported.
  • FIG. 8 is a block diagram showing an example of the configuration of the reporting support system 1001. As shown in FIG. As shown in FIG. 8 , the report support system 1001 includes a report support device 101 and a reporter terminal 200 .
  • the report support device 101 includes an acquisition unit 110 , an extraction unit 120 , a specification unit 130 , an output unit 141 , a reception unit 150 and a photographing request unit 160 .
  • the extraction unit 120 extracts the feature amount related to the person's face included in the captured image.
  • a feature amount relating to a person's face is referred to as a first feature amount.
  • the identifying unit 130 identifies a person included in the captured image based on the first feature amount. Specifically, the specifying unit 130 collates the first feature amount with feature amounts included in the database of the external device 300 . If the matching matches, the specifying unit 130 specifies the identification information associated with the matching feature amount.
  • An existing algorithm used for face recognition may be used as a method of identifying a person based on the feature amount of the person's face.
  • the identifying unit 130 may also identify the name and age of the person. That is, "identifying a person” may mean identifying a person's identification information or identifying a person's personal information.
  • the output unit 141 includes a related information acquisition unit 1401 and an information output unit 1402.
  • Related information acquisition section 1401 acquires information associated with identification information.
  • the related information acquiring unit 1401 acquires information associated with identification information similar to the identification information specified by the specifying unit 130 from the information server. For example, when the specified identification information is "001", the relevant information acquisition unit 1401 acquires medical information associated with the identification information "001".
  • the related information acquisition unit 1401 can acquire information associated with the identification information from another device different from the external device 300 by using the identification information specified by the specifying unit 130 in this way. .
  • the information output unit 1402 outputs information. Specifically, the information specified by the specifying unit 130 may be output, or the information acquired by the related information acquiring unit 1401 may be output. For example, the information output unit 1402 displays medical information acquired by the related information acquisition unit 1401 on a display connected to the report support device 101 . At this time, the information output unit 1402 may output the information specified by the specifying unit 130 or the information acquired by the related information acquiring unit 1401 to the field terminal 500 . In that case, for example, personal information and medical information of the identified person are displayed on the display of the field terminal.
  • FIG. 9 is a diagram showing an example of an output image.
  • the injured person's personal information and medical information are superimposed on the photographed image showing the injured person. In this way, the information output unit 1402 may output the output image.
  • FIG. 10 is a sequence diagram explaining an example of the operation of the reporting support system 1001.
  • the extraction unit 120 extracts feature information (S208). Specifically, the extraction unit 120 extracts a first feature amount, which is a feature amount related to a person's face, from the captured image.
  • the identifying unit 130 identifies the person based on the characteristic information (S209). Specifically, the identification unit 130 identifies the person by matching the first feature amount with the feature amount included in the database of the external device 300 .
  • the relevant information acquisition unit 1401 acquires information associated with the identified person's identification information (S210). For example, the related information acquisition unit 1401 acquires medical information of the identified person.
  • the information output unit 1402 outputs the information acquired by the related information acquisition unit 1401 (S211). For example, the information output unit 1402 outputs medical information to the display connected to the report support device 101 or the field terminal 500 .
  • the notification support apparatus 101 of the third embodiment extracts the first feature amount related to the face of the person included in the captured image as feature information, and based on the first feature amount, the person included in the captured image. and outputs information about the identified person.
  • the report support device 101 can provide the information of the identified person to, for example, the operator. Therefore, the report support device 101 can support the operator in grasping the situation.
  • the reporting support device 101 of the third embodiment may identify identification information that identifies the identified person, acquire information associated with the identification information, and output the acquired information.
  • the information associated with the identification information may be medical information of the identified person, for example. For example, it is assumed that there is an object to be transported by ambulance, such as an injured person. At this time, when the target is photographed by the reporter terminal 200, the report support device 101 can output medical information of the target. Therefore, the operator and the ambulance crew can respond according to the medical information of the target.
  • the external device 300 has a database including information in which at least the feature amount and the identification information are associated.
  • the database an image including a person's face and identification information may be associated instead of the feature amount.
  • the identification unit 130 may identify the person by matching the first feature amount extracted by the extraction unit 120 with the feature amount extracted from the image included in the database.
  • FIG. 11 is a diagram schematically showing an example of the configuration of the reporting support system 1002.
  • the reporting support system 1002 comprises a reporting support device 102 and a reporter terminal 201.
  • the report support device 102 is communicably connected to the caller terminal 200, the external device 300, the personal information server, and the field terminal 500.
  • FIG. Informer terminal 201 is also communicably connected to wearable terminal 600 .
  • a wearable terminal 600 is a device worn by a person.
  • wearable terminal 600 may be a wristwatch-type device.
  • the wristwatch-type wearable terminal 600 is also called a smartwatch, for example.
  • Wearable terminal 600 measures the wearer's biological information.
  • the biological information is, for example, blood pressure, heart rate, body temperature, and blood oxygen concentration, but is not limited to this example.
  • Wearable terminal 600 transmits the measured biometric information to reporter terminal 201 .
  • FIG. 12 is a block diagram showing an example of the configuration of the reporting support system 1002.
  • the caller terminal 201 includes a reporting unit 210, a request receiving unit 220, an imaging unit 231, a data transmitting unit 240, and a biological information acquiring unit 250.
  • the imaging unit 231 performs imaging in the same manner as the imaging unit 230.
  • the imaging unit 231 may have a function of a thermo camera. That is, the photographing unit 231 uses a sensor capable of detecting infrared rays to acquire temperature information based on the intensity of infrared rays. At this time, if the photographing unit 231 has a function of detecting a person from the photographed image, the photographing unit 231 may acquire temperature information corresponding to the detected person.
  • the imaging unit 231 may generate a captured image using infrared rays detected by the sensor. For example, the imaging unit 231 may generate an image colored according to the strength of the infrared rays.
  • the biometric information acquisition unit 250 acquires biometric information from the wearable terminal 600 .
  • wearable terminal 600 is worn by an injured person.
  • the biometric information acquisition unit 250 transmits a biometric information measurement request to the wearable terminal 600 .
  • wearable terminal 600 measures biometric information.
  • the wearable terminal 600 then transmits the measured biometric information to the caller terminal 201 .
  • the biometric information acquisition unit 250 acquires biometric information transmitted from the wearable terminal 600 .
  • the data transmission unit 240 transmits the captured image generated by the imaging unit 231 to the report support device 102 .
  • the data transmission unit 240 may also transmit the temperature information acquired by the imaging unit 231, and may also transmit an image captured using infrared rays.
  • the data transmission section 240 may transmit the biometric information acquired by the biometric information acquisition section 250 .
  • the data transmission unit 240 may transmit the temperature information as biological information.
  • Report support device 102 includes acquisition unit 111 , extraction unit 120 , identification unit 130 , output unit 141 , reception unit 150 and photography request unit 160 .
  • the acquisition unit 111 acquires a captured image in the same way as the acquisition unit 110 does. Also, the acquisition unit 111 acquires the biometric information from the informant terminal 201 . In addition, when a photographed image using infrared rays is also transmitted from the caller terminal 201, the acquisition unit 111 may acquire the photographed image as well.
  • the extraction unit 120 extracts the feature amount related to the appearance of the person included in the captured image.
  • a feature amount relating to the appearance of a person is referred to as a second feature amount.
  • the identifying unit 130 identifies the attribute of the person included in the captured image based on the second feature amount.
  • attributes are, for example, a person's age, sex, height, etc., but are not limited to these examples.
  • attributes may include a person's injury status.
  • Injury status is the location of a person's injury, the presence or absence of bleeding, and the presence or absence of consciousness.
  • the identifying unit 130 may identify a person's attribute using a learning model.
  • the external device 300 stores a learning model that has learned the relationship between the feature amount related to the person's appearance and the person's attributes. In other words, the learning model learns, for example, the relationship between the feature value related to the person's appearance and the injury status of the person.
  • the learning model is, for example, a model that receives as input a feature amount relating to a person's appearance and outputs a person's attributes. Then, the identifying unit 130 inputs the second feature amount extracted by the extracting unit 120 to the learning model. The specifying unit 130 specifies the attribute output for the second feature amount as the attribute of the person included in the captured image.
  • the information output unit 1402 outputs the specified person's attribute and biometric information. For example, the information output unit 1402 displays information indicating attributes of the specified person and biometric information on a display connected to the report support device 102 . Also, at this time, the information output unit 1402 may output information indicating attributes of the specified person and biometric information to the field terminal 500 . In that case, for example, information indicating attributes of the identified person and biometric information are displayed on the display of the field terminal.
  • the information output unit 1402 may superimpose the information indicating the attribute of the specified person and the biometric information on the captured image and output the superimposed image.
  • FIG. 13 is a diagram showing an example of an output image. In the example of FIG. 13, information indicating attributes of the injured person and biometric information are superimposed on the photographed image of the injured person.
  • FIG. 14 is a sequence diagram explaining an example of the operation of the reporting support system 1002.
  • the photographing unit 231 performs photographing in response to the photographing request being received by the request receiving unit 220 (S305). At this time, the photographing unit 231 may acquire temperature information based on the intensity of infrared rays using a sensor capable of detecting infrared rays, or may generate a photographed image using infrared rays.
  • the biological information acquisition unit 250 transmits a measurement request to the wearable terminal 600 (S306). Then, the biometric information acquisition unit 250 acquires biometric information from the wearable terminal 600 (S307), and the data transmission unit 240 transmits the captured image and the biometric information to the notification support device 102 (S308).
  • the acquisition unit 111 of the report support device 102 acquires the captured image and the biometric information (S309).
  • the extraction unit 120 extracts feature information from the captured image (S310). Specifically, the extraction unit 120 extracts a second feature amount, which is a feature amount relating to the appearance of the person, from the captured image.
  • the identifying unit 130 identifies attributes of the person based on the feature information (S311).
  • the information output unit 1402 outputs various information (S312). For example, the information output unit 1402 outputs information indicating the specified attribute and biometric information.
  • the notification support apparatus 102 of the fourth embodiment extracts the second feature amount related to the appearance of the person included in the captured image as feature information, and based on the second feature amount, the person included in the captured image. , and outputs information indicating the identified attributes.
  • the report support device 102 can provide, for example, the operator with information indicating the attribute of the identified person. Therefore, the report support device 101 can support the operator in grasping the situation.
  • the reporting support device 102 of the fourth embodiment acquires the biometric information acquired by the communicator terminal, and outputs the biometric information as information about the person included in the captured image.
  • the report support device 102 can also provide the operator with the biometric information of the person appearing in the captured image.
  • Wearable terminal 600 may transmit the biometric information to report support device 102 . That is, report support device 102 may acquire biometric information from wearable terminal 600 .
  • the caller terminal 201 may include information of the data transmission destination (that is, information for transmitting data to the notification support device 102) in advance in the measurement request.
  • a report support system 1003 of the fifth embodiment includes a report support device 103 instead of the report support device 102 shown in FIG. That is, the report support system 1003 includes the report support device 103 and the reporter terminal 201 .
  • FIG. 15 is a block diagram showing an example of the configuration of the reporting support system 1003. As shown in FIG. As shown in FIG. 15, the report support device 103 includes an acquisition unit 111, an extraction unit 120, a specification unit 130, a reception unit 150, and a photographing request unit 160. FIG.
  • the extraction unit 120 extracts the feature amount related to the appearance of the features included in the captured image.
  • a feature amount relating to the appearance of the feature is called a third feature amount.
  • a third feature amount is a feature amount relating to the appearance of the feature.
  • an example of identifying an object based on the third feature amount will be described.
  • the photographed image shown in FIG. FIG. 16 is a diagram showing an example of a captured image.
  • a building named Supermarket ABC is included in the captured image.
  • the extracting unit 120 extracts feature amounts relating to edges, corners, luminance gradients, and the like of the captured image as third feature amounts.
  • the external device 300 includes an image database.
  • the image database includes information in which images including features are associated with information about the features.
  • the information about the feature is, for example, the name and position information of the feature.
  • the image database includes information in which an image of supermarket ABC, information with the name "supermarket ABC", and position information "Kawasaki-ku, Kawasaki-shi, Kanagawa-ken" are associated with each other.
  • the specifying unit 130 uses the extracted third feature quantity to perform an image search from the image database. Specifically, the specifying unit 130 collates the third feature amount with the feature amount of the image included in the image database. If the matching matches (that is, if the search hits), the specifying unit 130 specifies information about the feature associated with the matching feature amount. For example, the identifying unit 130 identifies information with the name "Supermarket ABC" and location information with the name "Kawasaki Ward, Kawasaki City, Kanagawa Prefecture".
  • the related information acquisition unit 1403 acquires information about the identified feature. Then, the information output unit 1402 outputs information about the identified feature. For example, the information output unit 1402 displays the name “Supermarket ABC” and the location information “Kawasaki-ku, Kawasaki-shi, Kanagawa” on the display connected to the report support device 103 .
  • the extraction unit 120 extracts text information from the captured image as the third feature amount.
  • the captured image includes characters "Supermarket ABC Kawasaki Ekimae”.
  • the extracting unit 120 extracts, for example, character information "Supermarket ABC Kawasaki Ekimae store" as the third feature amount.
  • the specifying unit 130 performs a search using the extracted third feature amount. For example, the identifying unit 130 searches for character information “Supermarket ABC Kawasaki Ekimae store” using a search engine. Then, the identifying unit 130 identifies the search result.
  • the related information acquisition unit 1403 acquires information included in the search results. For example, when location information is included in the search results, the related information acquisition unit 1403 acquires the location information.
  • the information output unit 1402 may output search results, or may output information acquired by the related information acquisition unit 1403 .
  • FIG. 17 is a sequence diagram explaining an example of the operation of the reporting support system 1003.
  • the extraction unit 120 extracts feature information (S408). Specifically, the extracting unit 120 extracts a third feature quantity, which is a feature quantity relating to the appearance of the feature, from the captured image.
  • the identifying unit 130 identifies the feature based on the feature information (S409). For example, the identification unit 130 performs image search from the image database of the external device 300 using the third feature amount. Then, when the search hits, the identifying unit 130 identifies information about the feature.
  • the related information acquisition unit 1403 acquires information about the identified feature (S410). Then, the information output unit 1402 outputs information about the acquired feature (S411).
  • the notification support apparatus 103 of the fifth embodiment extracts the third feature amount related to the appearance of the feature contained in the captured image as feature information, and extracts the third feature amount included in the captured image based on the third feature amount. Identify features and output information about the identified features.
  • the report support device 103 can provide the information of the specified feature to the operator, for example. If a call is made, the operator is required to identify the caller's location. However, the whistleblower may not know where he/she is, or may panic and be unable to grasp his position.
  • the report support device 103 can output information about features included in the photographed image around the reporter, the operator can specify the position using the output information. In other words, the report support device 101 can support the operator in grasping the situation.
  • the information about the identified feature may be position information. This allows the operator to more quickly grasp the location of the caller.
  • the reporting support device may control to display the shooting assistance information on the shooting screen of the reporter terminal.
  • the photography auxiliary information is information that indicates an object to be photographed.
  • FIG. 18 is a diagram showing an example of a shooting screen.
  • the photographing request unit 160 superimposes the photographing auxiliary information on the photographing screen.
  • the photographing request unit 160 may control the screen of the informer terminal to display the text "Please photograph the surrounding signboards.” As a result, the whistleblower can appropriately photograph the object to be photographed.
  • FIG. 19 is a block diagram showing an example of the hardware configuration of a computer device that implements the reporting support system in each embodiment.
  • the computer device 90 implements the reporting support device and reporting support method described in each embodiment and each modified example.
  • the computer device 90 includes a processor 91, a RAM (Random Access Memory) 92, a ROM (Read Only Memory) 93, a storage device 94, an input/output interface 95, a bus 96, and a drive device 97.
  • the report support device may be realized by a plurality of electric circuits.
  • the storage device 94 stores a program (computer program) 98.
  • the processor 91 uses the RAM 92 to execute the program 98 of this notification support device.
  • the program 98 includes a program that causes a computer to execute the processes shown in FIGS. 3, 5, 10, 14 and 17.
  • FIG. As the processor 91 executes the program 98, the function of each component of this notification support device is realized.
  • Program 98 may be stored in ROM 93 .
  • the program 98 may be recorded on the storage medium 80 and read using the drive device 97, or may be transmitted from an external device (not shown) to the computer device 90 via a network (not shown).
  • the input/output interface 95 exchanges data with peripheral devices (keyboard, mouse, display device, etc.) 99 .
  • the input/output interface 95 functions as means for acquiring or outputting data.
  • a bus 96 connects each component.
  • the report support device can be implemented as a dedicated device.
  • the report support device can be realized based on a combination of a plurality of devices.
  • a processing method in which a program for realizing each component in the function of each embodiment is recorded in a storage medium, the program recorded in the storage medium is read as code, and a computer executes the processing method is also included in the scope of each embodiment. . That is, a computer-readable storage medium is also included in the scope of each embodiment. Further, each embodiment includes a storage medium in which the above-described program is recorded, and the program itself.
  • the storage medium is, for example, a floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, CD (Compact Disc)-ROM, magnetic tape, non-volatile memory card, or ROM, but is not limited to this example.
  • the programs recorded on the storage medium are not limited to programs that execute processing independently, but also work together with other software and expansion board functions to run on an OS (Operating System) to execute processing.
  • a program for executing the program is also included in the category of each embodiment.
  • Appendix 1 Acquisition means for acquiring a photographed image from a whistleblower terminal, which is a terminal owned by the whistleblower; an extraction means for extracting feature information about an object included in the captured image; identifying means for identifying the object based on the extracted characteristic information; an output means for outputting information about the identified object; Notification support device.
  • the extracting means extracts, as the feature information, a first feature amount related to a person's face included in the captured image,
  • the specifying means specifies a person included in the captured image based on the first feature amount, the output means outputs information about the identified person;
  • the notification support device according to appendix 1.
  • the identification means identifies identification information that identifies the identified person, and the output means acquires information associated with the identification information and outputs the acquired information.
  • the notification support device according to appendix 2.
  • Appendix 4 the information associated with the identifying information is medical information of the identified person;
  • the extracting means extracts, as the feature information, a second feature amount relating to the appearance of a person included in the photographed image,
  • the identifying means identifies an attribute of a person included in the captured image based on the second feature amount, the output means outputs information indicating the specified attribute; 5.
  • the notification support device according to any one of appendices 1 to 4.
  • the acquisition means acquires the biometric information acquired by the whistleblower terminal, wherein the output means outputs the biometric information as information related to a person included in the captured image; 6.
  • the notification support device according to any one of appendices 1 to 5.
  • the biological information is information measured by a wearable terminal capable of communicating with the caller terminal, and is at least one of a person's blood pressure, heart rate, body temperature, and blood oxygen concentration.
  • the notification support device according to appendix 6.
  • the extracting means extracts, as the feature information, a third feature amount relating to the appearance of a feature included in the captured image,
  • the specifying means specifies the position information of the feature based on the third feature amount, the output means outputs the position information; 8.
  • the notification support device according to any one of appendices 1 to 7.
  • Appendix 10 A process of acquiring a captured image from the whistleblower terminal, which is a terminal owned by the whistleblower; a process of extracting feature information about an object included in the captured image; a process of identifying the object based on the extracted feature information; storing a program that causes a computer to execute a process of outputting information about the identified object; computer readable storage medium;
  • 100, 101, 102, 103 report support device 110, 111 acquisition unit 120 extraction unit 130 identification unit 140, 141, 142 output unit 150 reception unit 160 photographing request unit 200, 201 reporter terminal 210 report unit 220 request reception unit 230, 231 imaging unit 240 data transmission unit 250 biological information acquisition unit 1000, 1001, 1002, 1003 reporting support system

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Alarm Systems (AREA)

Abstract

通報を受け付けた際に、オペレータによる状況把握を支援することが可能な通報支援装置等を提供することを目的の一つとする。本開示の一態様にかかる通報支援装置は、通報者が所有する端末である通報者端末から撮影画像を取得する取得手段と、前記撮影画像に含まれる物体に関する特徴情報を抽出する抽出手段と、抽出された前記特徴情報に基づいて、前記物体を特定する特定手段と、特定された前記物体に関する情報を出力する出力手段と、を備える。

Description

通報支援装置、通報支援方法、及びコンピュータ読み取り可能な記憶媒体
 本開示は、緊急通報時の対応を支援する技術に関する。
 事故等が発生した場合、事故の現場にいる人物は事態に応じて警察署及び消防署等に緊急通報を行う。緊急通報を受け付けた指令室のオペレータは、通常、通報者からの音声によって状況を把握する。
 緊急通報時に現場の状況を把握する技術が特許文献1に開示されている。具体的には、特許文献1には、緊急通報を受け付けた際に、通報者の携帯端末に映像送信要求を送信し、携帯端末によって撮影された映像を受信することが開示されている。特許文献1に開示される技術は、オペレータに映像を確認させることで、現場の状況把握の一助としている。
 また、緊急通報時に関連して、緊急通報による救急搬送を行うときの状況把握について、特許文献2には、救急搬送時に受診者の識別情報を取得し、識別情報に基づいて受診者の医療情報を取得することが開示されている。また、携帯端末から画像を取得する技術に関連して、特許文献3には、肖像使用許諾に同意しているか否かに応じて、撮影された画像に画像処理を行い、画像を送信する技術が開示されている。
特開2021―072642号公報 国際公開第2019/198358号 特開2005-110004号公報
 通報を受け付けた指令室のオペレータは、通報者だけでなく、現場にかけつける警察、消防隊、または救急隊等にも各種の指示を行う。そのため、オペレータは、正確に状況把握を行う必要がある。
 指令室において通報者によって撮影された映像を受信可能である場合、オペレータは、通報者からの音声のみを聞く場合に比べて、現場の状況を把握しやすくなる。しかしながら、オペレータが映像を視認することによって得られる情報には限りがある。
 本開示は、上記課題を鑑みてなされたものであり、通報を受け付けた際に、オペレータによる状況把握を支援することが可能な通報支援装置等を提供することを目的の一つとする。
 本開示の一態様にかかる通報支援装置は、通報者が所有する端末である通報者端末から撮影画像を取得する取得手段と、前記撮影画像に含まれる物体に関する特徴情報を抽出する抽出手段と、抽出された前記特徴情報に基づいて、前記物体を特定する特定手段と、特定された前記物体に関する情報を出力する出力手段と、を備える。
 本開示の一態様にかかる通報支援方法は、通報者が所有する端末である通報者端末から撮影画像を取得し、前記撮影画像に含まれる物体に関する特徴情報を抽出し、抽出された前記特徴情報に基づいて、前記物体を特定し、特定された前記物体に関する情報を出力する。
 本開示の一態様にかかるコンピュータ読み取り可能な記憶媒体は、通報者が所有する端末である通報者端末から撮影画像を取得する処理と、前記撮影画像に含まれる物体に関する特徴情報を抽出する処理と、抽出された前記特徴情報に基づいて、前記物体を特定する処理と、特定された前記物体に関する情報を出力する処理と、をコンピュータに実行させるプログラムを格納する。
 本開示によれば、通報を受け付けた際に、オペレータによる状況把握を支援することができる。
本開示の第1の実施形態の通報支援装置を含む通報支援システムの構成の一例を模式的に示す図である。 本開示の第1の実施形態の通報支援装置の一例を示すブロック図である。 本開示の第1の実施形態の通報支援装置の動作の一例を説明するフローチャートである。 本開示の第2の実施形態の通報支援システムの構成の一例を示すブロック図である。 本開示の第2の実施形態の通報支援システムの動作の一例を説明するシーケンス図である。 本開示の第3の実施形態の通報支援システムの構成の一例を模式的に示す図である。 本開示の第3の実施形態のデータベースの一例を示す図である。 本開示の第3の実施形態の通報支援システムの構成の一例を示すブロック図である。 本開示の第3の実施形態の出力画像の一例を示す図である。 本開示の第3の実施形態の通報支援システムの動作の一例を説明するシーケンス図である。 本開示の第4の実施形態の通報支援システムの構成の一例を模式的に示す図である。 本開示の第4の実施形態の通報支援システムの構成の一例を示すブロック図である。 本開示の第4の実施形態の出力画像の一例を示す図である。 本開示の第4の実施形態の通報支援システムの動作の一例を説明するシーケンス図である。 本開示の第5の実施形態の通報支援システムの構成の一例を示すブロック図である。 本開示の第5の実施形態の撮影画像の一例を示す図である。 本開示の第5の実施形態の通報支援システムの動作の一例を説明するシーケンス図である。 本開示の変形例7の撮影画面の示す図である。 本開示の第1、第2、第3、第4、及び第5の実施形態の通報支援システムを実現するコンピュータ装置のハードウェア構成の一例を示すブロック図である。
 以下に、本開示の実施形態について、図面を参照しつつ説明する。
 <第1の実施形態>
 まず、通報の仕組みについて説明する。通報者は、例えば携帯電話で、所定の電話番号を入力する等により緊急通報を行う。この通報は指令室の指令システムにつながる。指令室とは、通報の内容に応じて、現場にかけつけるべき対象(例えば、警察、消防隊及び救急隊等)に出動の指令を行う組織を示す。指令室のオペレータは、指令システムを介して通報者と通話を行う。そして、オペレータは、通報者から得られた情報に基づいて、通報者に指示を行ったり、指令システムを用いて、現場にかけつけるべき対象に対して指令を行ったりする。本開示の通報支援装置は、このように用いられる指令システムに組み込まれることを一例とする。
 次に、本開示の通報支援装置の概要について説明する。
 図1は、通報支援装置100を含む通報支援システム1000の構成の一例を模式的に示す図である。図1に示すように、通報支援システム1000は、通報支援装置100と通報者端末200とを備える。通報支援装置100は、通報者端末200と外部装置300と無線または有線のネットワークを介して通信可能に接続される。外部装置300は、通報支援装置100が備えていてもよい。
 通報者端末200は、通報者が所有する端末である。通報者端末200は、例えば、携帯電話、スマートフォン及びタブレット端末であるが、この例に限られない。通報者端末200は、少なくとも、通報を行う機能と撮影を行う機能と撮影画像を送信する機能とがある端末であればよい。例えば、通報者が通報者端末200を用いて通報を行うと、通報支援装置100において通報が受け付けられる。そして、通報を受け付けた指令室のオペレータは、通報支援装置100と通報者端末200とを介して通報者とやりとりを行う。
 図2は、第1の実施形態の通報支援装置100の機能構成の一例を示すブロック図である。図2に示すように、通報支援装置100は、取得部110と、抽出部120と、特定部130と、出力部140と、を備える。
 取得部110は、通報者端末200から撮影画像を取得する。例えば、通報者端末200によって通報が行われた際、通報者端末200は撮影を行う。このとき、通報支援装置100が、通報者端末200に撮影を要求する信号を送信することにより、通報者端末200に搭載されるカメラを起動させてもよい。また、通報者端末200が通報者の入力を受け付けることにより、通報者端末200はカメラを起動してもよい。通報者端末200は、撮影により生成した撮影画像を通報支援装置100に送信する。取得部110は、通報者端末200から送信された撮影画像を取得する。このように、取得部110は、通報者が所有する通報者端末200から撮影画像を取得する。取得部110は、取得手段の一例である。
 抽出部120は、撮影画像から特徴情報を抽出する。特徴情報は、撮影画像に含まれる物体の特徴を示す情報である。特徴情報は、物体を特定するために利用される。特徴情報の利用については後述する。物体は、例えば人物であってもよいし、標識、看板及び建造物等の、非人物の物体であってもよい。本開示では、このような非人物の物体を特徴物と称する。物体が人物である場合、特徴情報は、例えば、人物の顔に関する特徴量であってもよいし、人物の外見に関する特徴量であってよい。人物の外見には、例えば、人物の顔、髪型及び体形を含んでもよいし、人物が着ている衣服及び保持している荷物等を含んでもよい、また、物体が特徴物である場合、特徴情報は、例えば、特徴物の外観に関する特徴量であってもよいし、特徴物に記載されている文字情報であってもよいし、撮影画像から特徴物を含む部分を切り出した部分画像であってもよい。このように、抽出部120は、撮影画像に含まれる物体に関する特徴情報を抽出する。
 特定部130は、特徴情報に基づいて物体を特定する。例えば、予め特徴情報と物体に関する情報とが関連付けられた情報を含むデータベースが、外部装置300に格納される。このとき、特定部130は、抽出部120によって抽出された特徴情報と、データベースに含まれる特徴情報とを照合する。例えば、照合が合致した場合、特定部130は、合致した特徴情報に関連付けられた情報を特定することで物体を特定する。例えば、データベースに人物の顔に関する特徴量と人物を識別する識別情報または人物の氏名等の個人情報とが関連付けられた情報が含まれるとする。この場合、特定部130は、抽出部120によって抽出された人物の顔に関する特徴量とデータベースに含まれる特徴量とを照合する。そして照合が合致した場合、特定部130は、合致した特徴量と関連付けられた識別情報または個人情報を特定する。
 また、例えば、データベースに人物の外見に関する特徴量と性別及び年齢等を示す属性とが関連付けられた情報が含まれるとする。この場合、特定部130は、抽出部120によって抽出された人物の外見に関する特徴量とデータベースに含まれる特徴量とを照合する。そして照合が合致した場合、特定部130は、合致した特徴量と関連付けられた属性を特定する。
 なお、物体を特定する方法はこの例に限られない。例えば、特定部130は、人物の外見に関する特徴量と属性との関係を予め学習した学習モデルに基づいて属性を特定してもよい。このとき学習モデルは外部装置300に格納されていてよい。また、例えば、特徴情報が文字情報または部分画像である場合、特定部130は、特徴情報を検索エンジンで検索してもよい。そして、特定部130は、検索結果を、物体を特定した結果としてもよい。
 このように、特定部130は、抽出された特徴情報に基づいて、物体を特定する。特定部130は、特定手段の一例である。
 出力部140は、物体に関する情報を出力する。例えば出力部140は、特定部130によって特定された物体に関する情報を、図示しない出力装置に出力する。ここで出力装置は、例えば、ディスプレイ及びスピーカーである。出力装置は、通報支援装置100に含まれる装置であってもよいし、通報支援装置100と通信可能に接続される他の装置であってもよい。出力部140は、例えば、特定部130によって特定された人物の識別情報、個人情報、または、属性を出力してもよい。また出力部140は、例えば、特定部130による検索結果を出力してもよい。これに限らず、出力部140は、特定部130により特定された物体に関する情報からさらに得られる情報を出力してもよい。例えば、人物の識別情報と当該人物の医療情報とが関連付けられて、通報支援装置100と通信可能な装置に格納されているとする。ここで医療情報とは、人物の、健康保険証情報、診療に関する情報、健診結果、及び服用した薬剤に関する情報等を含む。出力部140は、特定部130によって特定された識別情報と関連付けられる医療情報を取得し、取得した医療情報を出力してもよい。また、例えば出力部140は、特定部130による検索結果から取得される特徴物の情報を出力してもよい。例えば、検索結果に特徴物の位置情報が含まれる場合、出力部140は、特徴物の位置情報を出力してもよい。このように、出力部140は、特定された物体に関する情報を出力する。出力部140は、出力手段の一例である。
 次に、通報支援装置100の動作の一例を、図3を用いて説明する。なお、本開示において、フローチャートの各ステップを「S1」のように、各ステップに付した番号を用いて表現する。
 図3は、通報支援装置100の動作の一例を説明するフローチャートである。取得部110は、通報者が所有する端末である通報者端末から撮影画像を取得する(S1)。抽出部120は、撮影画像に含まれる物体に関する特徴情報を抽出する(S2)。特定部130は、抽出された特徴情報に基づいて、物体を特定する(S3)。出力部140は、特定された物体に関する情報を出力する(S4)。
 このように、第1の実施形態の通報支援装置100は、通報者が所有する端末である通報者端末200から撮影画像を取得し、撮影画像に含まれる物体に関する特徴情報を抽出する。そして、通報支援装置100は、抽出された特徴情報に基づいて、物体を特定し、特定された物体に関する情報を出力する。例えば、指令室のオペレータが、負傷者が発生した事故について、通報者からの通報を受け付けたとする。このような場合において、撮影画像に負傷者が含まれるとすると、通報支援装置100は、負傷者に関する情報を出力することができる。オペレータは、例えば、出力された負傷者に関する情報を利用して、さらに通報者に指示を行ったり、現場にかけつける救急隊等に指令を送ったりすることができる。また、撮影画像に通報者周辺の標識、看板、及び建造物等の特徴物が含まれるとすると、通報支援装置100は、特徴物に関する情報を出力することができる。オペレータは、例えば、出力された特徴物に関する情報を利用して、通報者の位置を特定することができる。このように、第1の実施形態の通報支援装置100は、通報を受け付けた際に、オペレータによる状況把握を支援することができる。
 <第2の実施形態>
 次に、第2の実施形態の通報支援装置について説明する。第2の実施形態では、第1の実施形態で説明した通報支援装置100について、より詳細に説明する。なお、第1の実施形態で説明した内容と重複する内容は、一部説明を省略する。
 図4は、通報支援システム1000の構成の一例を示すブロック図である。図4に示すように、通報支援システム1000は、通報支援装置100と通報者端末200とを備える。通報支援装置100と通報者端末200とは通信可能に接続される。
 [通報支援装置100の詳細]
 図4に示すように、通報支援装置100は、取得部110と抽出部120と特定部130と出力部140と受付部150と撮影要求部160とを備える。
 受付部150は、通報者端末200から通報を受け付ける。受付部150が通報を受け付けると、通報支援装置100と通報者端末200とにおいて、例えば電話回線を利用した通話が開始される。
 撮影要求部160は、撮影要求を通報者端末200に送信する。例えば、撮影要求部160は、通報者端末200の電話番号を利用してメッセージを送信する。このとき撮影要求部160は、SMS(Short Message Service)を利用してメッセージを送信してよい。メッセージには、例えば、URL(Uniform Resource Locator)が含まれる。例えば、通報者端末200において当該メッセージのURLが開かれると、通報者端末200と通報支援装置100とのデータ通信が開始される。撮影要求部160は、例えば、このようなメッセージを撮影要求として送信してよい。撮影要求部160は、受付部150において通報が受け付けられた際に自動的に撮影要求を送信してよい。また、撮影要求部160は、通報が受け付けられてから、オペレータから撮影要求を送信する旨の操作を受け付けた際に、撮影要求を送信してよい。
 取得部110は、撮影要求に応じてデータ通信が開始された際に、通報者端末200から撮影画像を取得する。撮影画像は、1枚以上の静止画像であってもよいし、映像であってもよい。撮影画像が映像である場合、取得部110は、通報者端末200によって撮影中の映像をリアルタイムで取得し続けてもよい。
 抽出部120は、撮影画像から特徴情報を抽出する。このとき抽出部120は、取得部110によって取得された撮影画像のうちのいずれかの画像から特徴情報を抽出してもよい。
 特定部130は、抽出された特徴情報に基づいて撮影画像に含まれる物体を特定する。例えば、特徴情報と物体に関する情報とが関連付けられた情報を含むデータベースが予め外部装置300に格納される。このとき、特定部130は、抽出部120によって抽出された特徴情報と、データベースに含まれる特徴情報とを照合する。照合が合致した場合、特定部130は、合致した特徴情報に関連付けられた情報を特定することで物体を特定する。また、例えば、特徴情報が文字情報または部分画像である場合、特定部130は、特徴情報を検索エンジンで検索してもよい。特定部130は、検索結果を、物体を特定した結果としてもよい。
 また、特定部130は、予め生成された学習モデルに基づいて物体を特定してもよい。学習モデルは特徴情報と物体に関する情報との関係を学習したモデルである。例えば、学習モデルは、人物の外見に関する特徴量を入力とし、人物の属性を出力とするモデルであってよい。学習モデルは、各種の機械学習アルゴリズムを用いることによって生成されたものでよい。機械学習アルゴリズムの例としては、SVM(Support Vector Machine)、ニューラルネットワーク、及びランダムフォレスト等であるが、この例に限られない。
 出力部140は、特定部130によって特定された物体に関する情報を出力する。例えば、出力部140は、通報支援装置100と通信可能に接続される出力装置に出力する。出力装置は、例えばオペレータが視認することが可能な装置であってよいし、現場にかけつけるべき対象が所有する装置であってもよい。
 [通報者端末200の詳細]
 通報者端末200は、通報部210と要求受信部220と撮影部230とデータ送信部240とを備える。
 通報部210は、通報を行う。より具体的には、通報部210は、通報者から緊急通報用電話番号の入力を受け付ける。通報部210は、例えば、入力された電話番号に応じた通報先に電話回線を利用して通報を行う。通報先の通報支援装置100において通報が受け付けられると、通報部210は通報先との双方向の通信を開始する。すなわち通報部210は、通報者端末200と通報支援装置100とを介した、通報者と通報先のオペレータとの通話を実現する。
 要求受信部220は、通報支援装置100から撮影要求を受信する。例えば、要求受信部220は、上述したようなSMSを利用したメッセージを撮影要求として受信する。そして、通報者の操作によって、メッセージに含まれるURLが開かれることにより通報支援装置100と通報者端末200とのデータ通信が開始される。このときのデータ通信は、例えばWebRTC(Web Real Time Communication)によって実現されてもよい。すなわち、通報者の操作によって、メッセージに含まれるURLが開かれることによって、通報支援装置100と通報者端末200とにおいて、ブラウザを通じたデータ通信が行われてよい。
 撮影部230は、撮影を行い、撮影画像を生成する。すなわち撮影部230は、通報者端末200に搭載されるカメラの機能を有する。例えば、要求受信部220が撮影要求を受信すると、撮影部230は、カメラの機能を立ち上げる。そして、撮影部230は、撮影を開始する。例えば、撮影部230は、上述したようなメッセージに含まれるURLが開かれたことに応じてカメラの機能を立ち上げ、撮影を開始してもよい。なお、撮影を開始するタイミングはこの例に限られない。例えば、撮影部230は、カメラの機能が立ち上がってから、通報者の操作を受け付けることによって撮影が開始されてもよい。
 データ送信部240は、撮影画像を通報支援装置100に送信する。例えば、データ送信部240は、撮影部230によって撮影された映像をリアルタイムで通報支援装置100に送信してもよい。また、撮影部230により静止画像が撮影された場合、データ送信部240は、撮影が行われるごとに静止画像を通報支援装置100に送信してもよい。
 [通報支援システム1000の動作例]
 次に、通報支援システム1000の動作の一例を、図5を用いて説明する。
 図5は、通報支援システム1000の動作の一例を説明するシーケンス図である。通報者端末200の通報部210は、通報を行う(S101)。通報支援装置100の受付部150は、通報者端末200からの通報を受け付ける(S102)。次に、撮影要求部160は、通報者端末200に撮影要求を送信する(S103)。通報者端末200の要求受信部220は、撮影要求を受信する(S104)。
 要求受信部220において撮影要求が受信されたことに応じて、撮影部230は撮影を行う(S105)。データ送信部240は、撮影画像を通報支援装置100に送信する(S106)。
 通報支援装置100の取得部110は、通報者端末200から撮影画像を取得する(S107)。抽出部120は、取得された撮影画像から特徴情報を抽出する(S108)。特定部130は、抽出された特徴情報に基づいて物体を特定する(S109)。出力部140は、特定された物体に関する情報を出力する(S110)。
 このように、第2の実施形態の通報支援装置100は、通報者が所有する端末である通報者端末200から撮影画像を取得し、撮影画像に含まれる物体に関する特徴情報を抽出する。そして、通報支援装置100は、抽出された特徴情報に基づいて、物体を特定し、特定された物体に関する情報を出力する。これにより、第2の実施形態の通報支援装置100は、第1の実施形態と同様の効果を奏する。すなわち、通報支援装置100は、通報を受け付けた際に、オペレータによる状況把握を支援することができる。
 [変形例1]
 上記の実施形態では、通報者端末200が電話回線を利用して通報を行い、通報支援装置100が、SMSを利用した撮影要求を通報者端末200に送信する例を主に説明した。通報者端末200及び通報支援装置100の動作は、この形態に限られない。
 例えば、通報者端末200において電話回線でなくデータ通信を利用した通報が行われてもよい。通報部210は、データ通信を利用した通報を行う。通報支援装置100の受付部150は、通報を受け付ける。受付部150が通報を受け付けると、撮影要求部160は、撮影要求を送信する。このとき撮影要求は、通報者端末200の撮影部230を制御する信号であってよい。この場合、要求受信部220が撮影要求を受信すると、撮影部230は撮影を自動的に開始してよい。
 この例に限らず、撮影要求は、通報者に撮影を開始するよう促す通知であってもよい。この場合、要求受信部220が撮影要求を受信すると、通報者端末200において、撮影を開始する旨の表示がなされてよい。そして、通報者の操作により撮影部230が撮影を開始してよい。
 このように、変形例1の通報支援装置100及び通報者端末200では、電話回線を利用していないので、通報と撮影画像の送受信とを別の回線で行う必要がない。
 [変形例2]
 特定部130は、物体を特定する一例として、抽出部120によって抽出された特徴情報と、データベースに含まれる特徴情報と、を照合する例を説明した。データベースには、特徴情報と物体に関する情報とが関連付けられた情報が予め格納されている。このようなデータベースは、外部の機関によって生成されたものであってもよいし、通報支援システム1000によって生成されたものであってもよい。
 通報支援システム1000が、人物の顔に関する特徴量と人物の識別情報とが関連付けられたデータベースを生成する場合、予め、通報者端末200において、特徴量を含む情報が取得されてよい。例えば、事件や事故等が発生していないときに、撮影部230によって、通報者の顔が撮影される。また、通報者端末200において、通報者の個人情報の入力を受け付ける。データ送信部240は、通報者の顔画像と、入力された個人情報と、を通報支援装置100に送信する。そして、通報支援装置100において、例えば、図示しない生成部が、顔画像または顔画像から抽出される特徴量と個人情報とを関連付けてデータベースを生成する。
 このとき、通報者端末200において、特徴情報の利用に関する同意を、予め通報者から得るようにしてもよい。例えば、撮影部230が、特徴情報の利用に関する同意の有無を確認する通知を通報者端末200において出力する。そして、通報者によって同意の入力がなされた場合に、撮影部230は撮影を開始してもよい。出力される通知は、例えば、「個人情報及び顔に関する情報を送信することに同意しますか?」という文章が通報者端末200のディスプレイに表示されるものであってよい。すなわち、当該通知は、通報支援システム1000において、通報者端末200によって撮影される画像から通報者を含む人物の顔認識を行ってもよいか否かを確認する通知であってよい。
 [変形例3]
 予め、特徴情報の利用に関する同意の有無が得られていない場合、要求受信部220が撮影要求を受信した際に、通報者端末200において通報者へ、撮影画像を送信することに関する確認が行われてよい。例えば、要求受信部220が撮影要求を受信すると、撮影部230は、撮影画像を送信することに関する同意の有無を確認する通知を通報者端末200において出力する。そして、通報者によって同意の入力がなされた場合に、撮影部230は撮影を開始してもよい。出力される通知は、例えば、「撮影した画像を送信することに同意しますか?」という文章が通報者端末200のディスプレイに表示されるものであってよい。
 また、撮影要求が、同意の有無を確認する通知を含むものであってよい。すなわち、通報支援装置100の撮影要求部160が、通報者端末200に当該通知を出力するよう制御してもよい。
 [変形例4]
 通報支援システム1000は、変形例2及び3において説明したような、特徴情報の利用に関する同意の有無に応じて、異なる処理を行ってもよい。
 例えば、通報者端末200によって撮影される画像から通報者を含む人物の顔認識を行うことの同意が得られなかったとする。このとき、要求受信部220が撮影要求を受信した場合、撮影部230は、撮影画像のうち、人物の顔の領域にモザイク等の加工を行ってもよい。すなわち、撮影部230は、人物の顔を隠すような撮影画像を生成してよい。そして、データ送信部240は、加工された撮影画像を通報支援装置100に送信する。この場合、通報支援装置100において、撮影画像に含まれる特徴物に基づいた位置情報の出力が行われてよい。
 このように、通報者端末200は、撮影画像のうち、通報者から特徴情報の利用に関して同意が得られていない領域を加工してもよい。この場合、通報支援装置100は、撮影画像のうち、特徴情報の利用に関して同意が得られていない領域を除いた領域を利用して、抽出部120、特定部130、及び出力部140の処理が行われてよい。
 <第3の実施形態>
 次に、第3の実施形態の通報支援システム1001について説明する。第3の実施形態では、特定された人物の情報をさらに取得する例について説明する。なお、第1及び第2の実施形態で説明した内容と重複する内容は、一部説明を省略する。
 図6は、通報支援システム1001の構成の一例を模式的に示す図である。図6に示すように通報支援システム1001は、通報支援装置101と通報者端末200とを備える。通報支援装置101は、通報者端末200と外部装置300と個人情報サーバと現場端末500と通信可能に接続される。
 ここで、本実施形態では、負傷者が存在する場合に、負傷者と異なる通報者が救急のための通報を行う例について説明するが、本実施形態で説明する内容はこの例に限られない。すなわち、本実施形態で説明する内容は、通報者が通報を行う各種の場面において適用可能である。
 外部装置300は、例えば、人物を特定するためのデータベースを備える装置である。このとき、データベースは、人物の顔に関する特徴量と人物の識別情報とが少なくとも関連付けられた情報を含む。図7はデータベースの一例を示す図である。図7の例では、識別情報と特徴量と個人情報とが関連付けられている。例えば、図7の一行目のレコードは、識別情報が「001」の人物は、特徴量が「X」であり、氏名が「田中太郎」及び年齢が「25」であることを示している。なお、この例では個人情報として氏名と年齢とが記載されているが、個人情報はこれらに限られない。個人情報には、人物の住所、電話番号、及び職業等が含まれてもよい。
 なお、識別情報は、人物を一意に識別できる情報であればよい。例えば識別情報は、人物の公的証明書に関する情報であってよい。公的証明書は、例えば、運転免許証及びマイナンバーカードである。例えば、識別情報は、運転免許証の免許証番号であってもよいし、マイナンバーカードの個人番号(「マイナンバー」とも称する)であってもよい。また、この例に限られず、識別情報は、公的証明書に関連する証明情報であってよい。証明情報は、例えば、マイナンバーカードの有効性を示す情報であって、外部の認証局等から発行された電子証明書、または、当該電子証明書を利用して生成された符号であってよい。
 情報サーバ400は、識別情報と人物に関する情報とが関連付けられた情報を含む。例えば、情報サーバ400には、識別情報と医療情報とが関連付けられた情報が含まれてよい。医療情報は、上述したように、人物の、健康保険証情報、カルテ等の診療に関する情報、健診結果、及び服用した薬剤に関する情報等であってよい。医療情報に限らず、情報サーバ400は、例えば、識別情報と人物の家族構成を示す家族構成情報とが関連付けられた情報が含まれてよい。家族構成情報は、識別情報に対応する人物の家族の個人情報を示す情報であってよい。
 現場端末500は、例えば、現場にかけつけるべき対象が所有する端末である。現場端末500は、例えば、パーソナルコンピュータであってよい。また現場端末500は、携帯電話、スマートフォン、及びタブレット端末等の携帯型端末であってもよい。例えば、現場端末500は、救急隊の隊員が所有する端末であってよいし、救急車に搭載される装置であってもよい。また、現場端末500は、救急搬送先の医療機関に備えられる装置であってもよい。
 [通報支援装置101の詳細]
 図8は、通報支援システム1001の構成の一例を示すブロック図である。図8に示すように、通報支援システム1001は、通報支援装置101と通報者端末200とを備える。
 通報支援装置101は、取得部110と抽出部120と特定部130と出力部141と受付部150と撮影要求部160とを備える。
 抽出部120は、撮影画像に含まれる人物の顔に関する特徴量を抽出する。人物の顔に関する特徴量を第1特徴量と称する。
 特定部130は、第1特徴量に基づいて撮影画像に含まれる人物を特定する。具体的には、特定部130は、第1特徴量と、外部装置300のデータベースに含まれる特徴量と、を照合する。照合が合致した場合、特定部130は、合致した特徴量に関連付けられた識別情報を特定する。人物の顔に関する特徴量に基づいて人物を特定する方法は、既存の顔認識に用いられるアルゴリズムが用いられてよい。
 図7の例のデータベースであれば、特定部130は、人物の氏名及び年齢も特定してよい。すなわち「人物を特定する」とは、人物の識別情報を特定することであってもよいし、人物の個人情報を特定することであってもよい。
 出力部141は、関連情報取得部1401と情報出力部1402とを備える。関連情報取得部1401は、識別情報と関連付けられた情報を取得する。具体的には、関連情報取得部1401は、特定部130によって特定された識別情報と同様の識別情報と関連付けられた情報を、情報サーバから、取得する。例えば、特定された識別情報が「001」である場合、関連情報取得部1401は、識別情報「001」に関連付けられた医療情報を取得する。関連情報取得部1401は、このように、特定部130によって特定された識別情報を利用して、外部装置300と異なる他の装置から、識別情報と関連付けられた情報を取得することが可能である。
 情報出力部1402は、情報を出力する。具体的には、特定部130によって特定された情報を出力してもよいし、関連情報取得部1401によって取得された情報を出力してもよい。例えば、情報出力部1402は、関連情報取得部1401によって取得された医療情報を通報支援装置101と接続されたディスプレイに表示する。また、このとき情報出力部1402は、現場端末500に、特定部130によって特定された情報、または、関連情報取得部1401によって取得された情報を出力してもよい。その場合、例えば、特定された人物の個人情報及び医療情報が、現場端末のディスプレイに表示される。
 また、情報出力部1402は、取得された情報を撮影画像に重畳して出力してもよい。図9は出力画像の一例を示す図である。図9の例では、負傷者が映る撮影画像に、負傷者の個人情報及び医療情報が重畳されている。このように、情報出力部1402は出力画像を出力してもよい。
 [通報支援システム1001の動作例]
 次に、通報支援システム1001の動作の一例を、図10を用いて説明する。
 図10は、通報支援システム1001の動作の一例を説明するシーケンス図である。なお、S201乃至S207の処理は、図5のS101乃至S107の処理と同様であるため説明を省略する。
 抽出部120は、特徴情報を抽出する(S208)。具体的には抽出部120は、撮影画像から、人物の顔に関する特徴量である第1特徴量を抽出する。特定部130は、特徴情報に基づいて人物を特定する(S209)。具体的には、特定部130は、第1特徴量と外部装置300のデータベースに含まれる特徴量と、を照合することによって人物を特定する。そして関連情報取得部1401は、特定された人物の識別情報に関連付けられた情報を取得する(S210)。例えば関連情報取得部1401は、特定された人物の医療情報を取得する。そして、情報出力部1402は、関連情報取得部1401によって取得された情報を出力する(S211)。例えば、情報出力部1402は、医療情報を通報支援装置101と接続されたディスプレイや現場端末500に出力する。
 このように、第3の実施形態の通報支援装置101は、撮影画像に含まれる人物の顔に関する第1特徴量を特徴情報として抽出し、第1特徴量に基づいて、撮影画像に含まれる人物を特定し、特定された人物に関する情報を出力する。これにより、通報支援装置101は、特定された人物の情報を、例えば、オペレータに提供することができる。そのため、通報支援装置101は、オペレータによる状況把握を支援することができる。
 また、第3の実施形態の通報支援装置101は、特定された人物を識別する識別情報を特定し、識別情報と関連付けられた情報を取得し、取得した当該情報を出力してよい。さらに、識別情報に関連付けられた情報は、例えば特定された人物の医療情報であってよい。例えば、負傷者等の救急搬送されるべき対象が存在するとする。このとき、通報者端末200によって対象が撮影された場合、通報支援装置101は対象の医療情報を出力することができる。そのため、オペレータや救急隊は、対象の医療情報等に応じた対応を行うことができる。
 [変形例5]
 上記の実施形態において、外部装置300には、特徴量と識別情報とが少なくとも関連付けられた情報を含むデータベースを備えると説明した。このとき、データベースには、特徴量でなく、人物の顔を含む画像と識別情報とが関連付けられていてもよい。この場合、特定部130は、抽出部120によって抽出された第1特徴量と、データベースに含まれる画像から抽出された特徴量と、を照合することによって人物を特定してよい。
 <第4の実施形態>
 次に、第4の実施形態の通報支援システム1002について説明する。第4の実施形態では、撮影画像に映る人物の属性を特定する具体例を説明する。なお、第1乃至第3の実施形態で説明した内容と重複する内容は、一部説明を省略する。
 図11は、通報支援システム1002の構成の一例を模式的に示す図である。図11に示すように通報支援システム1002は、通報支援装置102と通報者端末201とを備える。通報支援装置102は、通報者端末200と外部装置300と個人情報サーバと現場端末500と通信可能に接続される。また、通報者端末201は、ウェアラブル端末600とも通信可能に接続される。
 本実施形態においても、負傷者が存在する場合に、負傷者と異なる通報者が救急のための通報を行う例について説明するが、本実施形態で説明する内容はこの例に限られない。すなわち、本実施形態で説明する内容は、通報者が通報を行う各種の場面において適用可能である。
 ウェアラブル端末600は、人物が身に着ける装置である。例えば、ウェアラブル端末600は腕時計型の装置であってよい。腕時計型のウェアラブル端末600は、例えば、スマートウォッチとも呼ばれる。ウェアラブル端末600は、装着者の生体情報を測定する。生体情報は、例えば、血圧、心拍数、体温、及び血中酸素濃度であるが、この例に限られない。ウェアラブル端末600は、測定した生体情報を通報者端末201に送信する。
 [通報者端末201の詳細]
 図12は、通報支援システム1002の構成の一例を示すブロック図である。図12に示すように、通報者端末201は、通報部210と要求受信部220と撮影部231とデータ送信部240と生体情報取得部250とを備える。
 撮影部231は、撮影部230と同様に撮影を行う。このとき、撮影部231は、サーモカメラの機能を有していてもよい。すなわち、撮影部231は、赤外線を検出可能なセンサを利用して、赤外線の強弱に基づく温度情報を取得する。このとき、撮影部231に、撮影画像から人物を検出する機能がある場合、撮影部231は、検出された人物に対応する温度情報を取得してよい。撮影部231は、センサによって検出された赤外線を利用した撮影画像を生成してもよい。例えば、撮影部231は、赤外線の強弱に応じて色を付した画像を生成してよい。
 生体情報取得部250は、ウェアラブル端末600から生体情報を取得する。例えば、ウェアラブル端末600は、負傷者によって着用されている。例えば、生体情報取得部250は、ウェアラブル端末600に生体情報の測定要求を送信する。ウェアラブル端末600は、測定要求を受信すると、生体情報の測定を行う。そして、ウェアラブル端末600は、測定した生体情報を通報者端末201に送信する。生体情報取得部250は、ウェアラブル端末600から送信された生体情報を取得する。
 データ送信部240は、撮影部231によって生成された撮影画像を通報支援装置102に送信する。このとき、データ送信部240は、撮影部231によって取得された温度情報も送信してよいし、赤外線を利用した撮影画像も送信してよい。また、データ送信部240は、生体情報取得部250によって取得された生体情報を送信してよい。ここで、撮影部231によって、人物に対応する温度情報が取得されている場合、データ送信部240は、当該温度情報を生体情報として送信してよい。
 [通報支援装置102の詳細]
 通報支援装置102は、取得部111と抽出部120と特定部130と出力部141と受付部150と撮影要求部160とを備える。
 取得部111は、取得部110と同様に撮影画像を取得する。また、取得部111は、通報者端末201から生体情報を取得する。また、通報者端末201から赤外線を利用した撮影画像も送信された場合、取得部111は、当該撮影画像も取得してよい。
 抽出部120は、撮影画像に含まれる人物の外見に関する特徴量を抽出する。人物の外見に関する特徴量を第2特徴量と称する。
 特定部130は、第2特徴量に基づいて、撮影画像に含まれる人物の属性を特定する。ここで、属性とは、例えば、人物の年齢、性別、及び身長等であるがこの例に限られない。例えば属性には、人物の負傷状況が含まれてもよい。負傷状況とは、人物の外傷の場所、出血の有無、及び意識の有無である。特定部130は、学習モデルを利用して人物の属性を特定してよい。この場合、人物の外見に関する特徴量と人物の属性との関係を学習した学習モデルが、外部装置300に格納されている。すなわち、当該学習モデルには、例えば、人物の外見に関する特徴量と人物の負傷状況との関係が学習されている。当該学習モデルは、例えば、人物の外見に関する特徴量を入力とし、人物の属性を出力とするモデルである。そして、特定部130は、学習モデルに対して、抽出部120によって抽出された第2特徴量を入力する。特定部130は、第2特徴量に対して出力された属性を、撮影画像に含まれる人物の属性として特定する。
 情報出力部1402は、特定された人物の属性と生体情報とを出力する。例えば情報出力部1402は、特定された人物の属性を示す情報と生体情報とを、通報支援装置102と接続されたディスプレイに表示する。また、このとき情報出力部1402は、現場端末500に、特定された人物の属性を示す情報と生体情報とを出力してよい。その場合、例えば、特定された人物の属性を示す情報と生体情報とが、現場端末のディスプレイに表示される。
 また、情報出力部1402は、特定された人物の属性を示す情報と生体情報とを撮影画像に重畳して出力してもよい。図13は出力画像の一例を示す図である。図13の例では、負傷者が映る撮影画像に、負傷者の属性を示す情報と生体情報とが重畳されている。
 [通報支援システム1002の動作例]
 次に、通報支援システム1002の動作の一例を、図14を用いて説明する。
 図14は、通報支援システム1002の動作の一例を説明するシーケンス図である。なお、S301乃至S304の処理は、図5のS101乃至S104の処理と同様であるため説明を省略する。
 撮影部231は、要求受信部220において撮影要求が受信されたことに応じて撮影を行う(S305)。このとき、撮影部231は、赤外線を検出可能なセンサを利用して、赤外線の強弱に基づく温度情報を取得してもよいし、赤外線を利用した撮影画像を生成してもよい。
 生体情報取得部250は、ウェアラブル端末600に測定要求を送信する(S306)。そして、生体情報取得部250は、ウェアラブル端末600から生体情報を取得する(S307)データ送信部240は、撮影画像と生体情報とを通報支援装置102に送信する(S308)。
 通報支援装置102の取得部111は、撮影画像と生体情報とを取得する(S309)。抽出部120は、撮影画像から特徴情報を抽出する(S310)。具体的には、抽出部120は、撮影画像から、人物の外見に関する特徴量である第2特徴量を抽出する。特定部130は、特徴情報に基づいて人物の属性を特定する(S311)。情報出力部1402は、各種情報を出力する(S312)。例えば、情報出力部1402は、特定された属性を示す情報と、生体情報と、を出力する。
 このように、第4の実施形態の通報支援装置102は、撮影画像に含まれる人物の外見に関する第2特徴量を特徴情報として抽出し、第2特徴量に基づいて、撮影画像に含まれる人物の属性を特定し、特定された属性を示す情報を出力する。これにより、通報支援装置102は、特定された人物の属性を示す情報を、例えば、オペレータに提供することができる。そのため、通報支援装置101は、オペレータによる状況把握を支援することができる。
 また、第4の実施形態の通報支援装置102は、通報者端末において取得された生体情報を取得し、撮影画像に含まれる人物に関する情報として、生体情報を出力する。これにより、通報支援装置102は、撮影画像に映る人物の生体情報もオペレータに提供することができる。
 [変形例6]
 ウェアラブル端末600が生体情報を通報支援装置102に送信してもよい。すなわち、通報支援装置102は、ウェアラブル端末600から生体情報を取得してもよい。この場合、通報者端末201は、予め、測定要求にデータの送信先の情報(すなわち通報支援装置102にデータを送信するための情報)を含めてよい。
 <第5の実施形態>
 次に、第5の実施形態の通報支援システム1003について説明する。第5の実施形態では、撮影画像に映る特徴物を特定する具体例を説明する。なお、第1乃至第4の実施形態で説明した内容と重複する内容は、一部説明を省略する。
 第5の実施形態の通報支援システム1003は、図11に示す通報支援装置102に代わり、通報支援装置103を備える。すなわち、通報支援システム1003は、通報支援装置103と通報者端末201とを備える。
 [通報支援装置103の詳細]
 図15は、通報支援システム1003の構成の一例を示すブロック図である。図15に示すように、通報支援装置103は、取得部111と抽出部120と特定部130と受付部150と撮影要求部160とを備える。
 抽出部120は、撮影画像に含まれる特徴物の外観に関する特徴量を抽出する。特徴物の外観に関する特徴量を第3特徴量と称する。ここで、第3特徴量に基づいた物体の特定例を説明する。また、以下の特定例では、図13に示す撮影画像を、通報者端末201から取得部111が取得したものとして説明する。図16は、撮影画像の一例を示す図である。図16の例では、スーパーマーケットABCという建造物が撮影画像に含まれている。
 [特定例1]
 特定例1では、抽出部120は、撮影画像のエッジ、コーナー及び輝度の勾配等に関する特徴量を第3特徴量として抽出する。このとき、外部装置300には画像データベースが含まれる。画像データベースには、特徴物を含む画像と、特徴物に関する情報と、が関連付けられた情報が含まれる。特徴物に関する情報は、例えば、特徴物の名称及び位置情報である。例えば、画像データベースには、スーパーマーケットABCの画像と、「スーパーマーケットABC」という名称の情報と「神奈川県川崎市川崎区」という位置情報とが関連付けられた情報が含まれる。
 特定部130は、抽出された第3特徴量を用いて、画像データベースから画像検索を行う。具体的には、特定部130は、第3特徴量と、画像データベースに含まれる画像の特徴量とを照合する。照合が合致した場合(すなわち検索がヒットした場合)、特定部130は、合致した特徴量と関連付けられた特徴物に関する情報を特定する。例えば、特定部130は、「スーパーマーケットABC」という名称の情報と「神奈川県川崎市川崎区」という位置情報とを特定する。
 関連情報取得部1403は、特定された特徴物に関する情報を取得する。そして情報出力部1402は、特定された特徴物に関する情報を出力する。例えば、情報出力部1402は、「スーパーマーケットABC」という名称と「神奈川県川崎市川崎区」という位置情報とを、通報支援装置103と接続されたディスプレイに表示する。
 [特定例2]
 特定例2では、抽出部120は、撮影画像から文字情報を第3特徴量として抽出する。図16の例では、撮影画像に「スーパーマーケットABC川崎駅前店」という文字が含まれる。抽出部120は、例えば「スーパーマーケットABC川崎駅前店」という文字情報を第3特徴量として抽出する。
 特定部130は、抽出された第3特徴量を用いて検索を行う。例えば、特定部130は、「スーパーマーケットABC川崎駅前店」という文字情報を検索エンジンで検索する。そして、特定部130は、検索結果を特定する。
 関連情報取得部1403は、検索結果に含まれる情報を取得する。例えば、検索結果に位置情報が含まれる場合、関連情報取得部1403は、位置情報を取得する。
 情報出力部1402は、検索結果を出力してもよいし、関連情報取得部1403によって取得された情報を出力してもよい。
 [通報支援システム1003の動作例]
 次に、通報支援システム1003の動作の一例を、図17を用いて説明する。
 図17は、通報支援システム1003の動作の一例を説明するシーケンス図である。なお、S401乃至S407の処理は、図5のS101乃至S107の処理と同様であるため説明を省略する。
 抽出部120は、特徴情報を抽出する(S408)。具体的には抽出部120は、撮影画像から、特徴物の外観に関する特徴量である第3特徴量を抽出する。特定部130は、特徴情報に基づいて特徴物を特定する(S409)。例えば、特定部130は、第3特徴量を用いて、外部装置300の画像データベースから画像検索を行う。そして、検索がヒットした場合、特定部130は、特徴物に関する情報を特定する。
 関連情報取得部1403は、特定された特徴物に関する情報を取得する(S410)。そして、情報出力部1402は、取得された特徴物に関する情報を出力する(S411)。
 このように、第5の実施形態の通報支援装置103は、撮影画像に含まれる特徴物の外観に関する第3特徴量を特徴情報として抽出し、第3特徴量に基づいて、撮影画像に含まれる特徴物を特定し、特定された特徴物に関する情報を出力する。これにより、通報支援装置103は、特定された特徴物の情報を、例えば、オペレータに提供することができる。通報が行われた場合、オペレータは、通報者の位置を特定することが求められる。しかしながら通報者は、自身のいる位置がわからなかったり、パニックとなり位置が把握できなかったりする可能性がある。これに対して、通報支援装置103は、通報者周辺の撮影画像に含まれる特徴物に関する情報を出力できるので、オペレータは、出力された情報を用いて位置を特定することができる。すなわち、通報支援装置101は、オペレータによる状況把握を支援することができる。
 また、特定された特徴物に関する情報は、位置情報であってよい。これにより、オペレータは、通報者の位置をより迅速に把握することができる。
 [変形例7]
 上記の各実施形態において、通報支援装置は、通報者端末の撮影画面に撮影補助情報を表示するよう制御してもよい。撮影補助情報とは、撮影する物体を指示する情報である。図18は、撮影画面の一例を示す図である。撮影要求部160は、撮影画面に撮影補助情報を重畳する。図18の例では、負傷者がいる場合に、通報者端末の画面に「負傷者全体が映るように撮影してください」という文字が、撮影補助情報として表示されている。また、例えば、撮影要求部160は、通報者端末の画面に「周囲の看板が映るように撮影してください」という文字を表示するよう制御してもよい。これにより、通報者は、撮影する対象を適切に撮影することができる。
 <通報支援装置のハードウェアの構成例>
 上述した第1、第2、第3、第4、及び第5の実施形態の通報支援装置を構成するハードウェアについて説明する。図19は、各実施形態における通報支援システムを実現するコンピュータ装置のハードウェア構成の一例を示すブロック図である。コンピュータ装置90において、各実施形態及び各変形例で説明した、通報支援装置、及び通報支援方法が実現される。
 図19に示すように、コンピュータ装置90は、プロセッサ91、RAM(Random Access Memory)92、ROM(Read Only Memory)93、記憶装置94、入出力インタフェース95、バス96、及びドライブ装置97を備える。なお、通報支援装置は、複数の電気回路によって実現されてもよい。
 記憶装置94は、プログラム(コンピュータプログラム)98を格納する。プロセッサ91は、RAM92を用いて本通報支援装置のプログラム98を実行する。具体的には、例えば、プログラム98は、図3、図5、図10、図14及び図17に示す処理をコンピュータに実行させるプログラムを含む。プロセッサ91が、プログラム98を実行することに応じて、本通報支援装置の各構成要素の機能が実現される。プログラム98は、ROM93に記憶されていてもよい。また、プログラム98は、記憶媒体80に記録され、ドライブ装置97を用いて読み出されてもよいし、図示しない外部装置から図示しないネットワークを介してコンピュータ装置90に送信されてもよい。
 入出力インタフェース95は、周辺機器(キーボード、マウス、表示装置など)99とデータをやり取りする。入出力インタフェース95は、データを取得または出力する手段として機能する。バス96は、各構成要素を接続する。
 なお、通報支援装置の実現方法には様々な変形例がある。例えば、通報支援装置は、専用の装置として実現することができる。また、通報支援装置は、複数の装置の組み合わせに基づいて実現することができる。
 各実施形態の機能における各構成要素を実現するためのプログラムを記憶媒体に記録させ、該記憶媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記憶媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記憶媒体、及びそのプログラム自体も各実施形態に含まれる。
 該記憶媒体は、例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD(Compact Disc)-ROM、磁気テープ、不揮発性メモリカード、またはROMであるが、この例に限られない。また該記憶媒体に記録されたプログラムは、単体で処理を実行しているプログラムに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS(Operating System)上で動作して処理を実行するプログラムも各実施形態の範疇に含まれる。
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解しうる様々な変更をすることができる。
 上記実施形態及び変形例は、適宜組み合わせることが可能である。
 上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下には限られない。
 <付記>
 [付記1]
 通報者が所有する端末である通報者端末から撮影画像を取得する取得手段と、
 前記撮影画像に含まれる物体に関する特徴情報を抽出する抽出手段と、
 抽出された前記特徴情報に基づいて、前記物体を特定する特定手段と、
 特定された前記物体に関する情報を出力する出力手段と、を備える、
 通報支援装置。
 [付記2]
 前記抽出手段は、前記撮影画像に含まれる人物の顔に関する第1特徴量を前記特徴情報として抽出し、
 前記特定手段は、前記第1特徴量に基づいて、前記撮影画像に含まれる人物を特定し、
 前記出力手段は、特定された人物に関する情報を出力する、
 付記1に記載の通報支援装置。
 [付記3]
 前記特定手段は、前記特定された人物を識別する識別情報を特定し
 前記出力手段は、前記識別情報と関連付けられた情報を取得し、当該取得した情報を出力する、
 付記2に記載の通報支援装置。
 [付記4]
 前記識別情報と関連付けられた情報は、前記特定された人物の医療情報である、
 付記3に記載の通報支援装置。
 [付記5]
 前記抽出手段は、前記撮影画像に含まれる人物の外見に関する第2特徴量を前記特徴情報として抽出し、
 前記特定手段は、前記第2特徴量に基づいて、前記撮影画像に含まれる人物の属性を特定し、
 前記出力手段は、特定された前記属性を示す情報を出力する、
 付記1乃至4のいずれか一項に記載の通報支援装置。
 [付記6]
 前記取得手段は、前記通報者端末において取得された生体情報を取得し、
 前記出力手段は、前記撮影画像に含まれる人物に関する情報として、前記生体情報を出力する、
 付記1乃至5のいずれか一項に記載の通報支援装置。
 [付記7]
 前記生体情報は、前記通報者端末と通信可能なウェアラブル端末によって測定された情報であって、人物の血圧、心拍数、体温、及び血中酸素濃度の少なくともいずれかである、
 付記6に記載の通報支援装置。
 [付記8]
 前記抽出手段は、前記撮影画像に含まれる特徴物の外観に関する第3特徴量を前記特徴情報として抽出し、
 前記特定手段は、前記第3特徴量に基づいて、前記特徴物の位置情報を特定し、
 前記出力手段は、前記位置情報を出力する、
 付記1乃至7のいずれか一項に記載の通報支援装置。
 [付記9]
 通報者が所有する端末である通報者端末から撮影画像を取得し、
 前記撮影画像に含まれる物体に関する特徴情報を抽出し、
 抽出された前記特徴情報に基づいて、前記物体を特定し、
 特定された前記物体に関する情報を出力する、
 通報支援方法。
 [付記10]
 通報者が所有する端末である通報者端末から撮影画像を取得する処理と、
 前記撮影画像に含まれる物体に関する特徴情報を抽出する処理と、
 抽出された前記特徴情報に基づいて、前記物体を特定する処理と、
 特定された前記物体に関する情報を出力する処理と、をコンピュータに実行させるプログラムを格納する、
 コンピュータ読み取り可能な記憶媒体。
 100、101、102、103 通報支援装置
 110、111 取得部
 120 抽出部
 130 特定部
 140、141、142 出力部
 150 受付部
 160 撮影要求部
 200、201 通報者端末
 210 通報部
 220 要求受信部
 230、231 撮影部
 240 データ送信部
 250 生体情報取得部
 1000、1001、1002、1003 通報支援システム

Claims (10)

  1.  通報者が所有する端末である通報者端末から撮影画像を取得する取得手段と、
     前記撮影画像に含まれる物体に関する特徴情報を抽出する抽出手段と、
     抽出された前記特徴情報に基づいて、前記物体を特定する特定手段と、
     特定された前記物体に関する情報を出力する出力手段と、を備える、
     通報支援装置。
  2.  前記抽出手段は、前記撮影画像に含まれる人物の顔に関する第1特徴量を前記特徴情報として抽出し、
     前記特定手段は、前記第1特徴量に基づいて、前記撮影画像に含まれる人物を特定し、
     前記出力手段は、特定された人物に関する情報を出力する、
     請求項1に記載の通報支援装置。
  3.  前記特定手段は、前記特定された人物を識別する識別情報を特定し
     前記出力手段は、前記識別情報と関連付けられた情報を取得し、当該取得した情報を出力する、
     請求項2に記載の通報支援装置。
  4.  前記識別情報と関連付けられた情報は、前記特定された人物の医療情報である、
     請求項3に記載の通報支援装置。
  5.  前記抽出手段は、前記撮影画像に含まれる人物の外見に関する第2特徴量を前記特徴情報として抽出し、
     前記特定手段は、前記第2特徴量に基づいて、前記撮影画像に含まれる人物の属性を特定し、
     前記出力手段は、特定された前記属性を示す情報を出力する、
     請求項1乃至4のいずれか一項に記載の通報支援装置。
  6.  前記取得手段は、前記通報者端末において取得された生体情報を取得し、
     前記出力手段は、前記撮影画像に含まれる人物に関する情報として、前記生体情報を出力する、
     請求項1乃至5のいずれか一項に記載の通報支援装置。
  7.  前記生体情報は、前記通報者端末と通信可能なウェアラブル端末によって測定された情報であって、人物の血圧、心拍数、体温、及び血中酸素濃度の少なくともいずれかである、
     請求項6に記載の通報支援装置。
  8.  前記抽出手段は、前記撮影画像に含まれる特徴物の外観に関する第3特徴量を前記特徴情報として抽出し、
     前記特定手段は、前記第3特徴量に基づいて、前記特徴物の位置情報を特定し、
     前記出力手段は、前記位置情報を出力する、
     請求項1乃至7のいずれか一項に記載の通報支援装置。
  9.  通報者が所有する端末である通報者端末から撮影画像を取得し、
     前記撮影画像に含まれる物体に関する特徴情報を抽出し、
     抽出された前記特徴情報に基づいて、前記物体を特定し、
     特定された前記物体に関する情報を出力する、
     通報支援方法。
  10.  通報者が所有する端末である通報者端末から撮影画像を取得する処理と、
     前記撮影画像に含まれる物体に関する特徴情報を抽出する処理と、
     抽出された前記特徴情報に基づいて、前記物体を特定する処理と、
     特定された前記物体に関する情報を出力する処理と、をコンピュータに実行させるプログラムを格納する、
     コンピュータ読み取り可能な記憶媒体。
PCT/JP2022/005286 2022-02-10 2022-02-10 通報支援装置、通報支援方法、及びコンピュータ読み取り可能な記憶媒体 WO2023152857A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/005286 WO2023152857A1 (ja) 2022-02-10 2022-02-10 通報支援装置、通報支援方法、及びコンピュータ読み取り可能な記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/005286 WO2023152857A1 (ja) 2022-02-10 2022-02-10 通報支援装置、通報支援方法、及びコンピュータ読み取り可能な記憶媒体

Publications (1)

Publication Number Publication Date
WO2023152857A1 true WO2023152857A1 (ja) 2023-08-17

Family

ID=87563888

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/005286 WO2023152857A1 (ja) 2022-02-10 2022-02-10 通報支援装置、通報支援方法、及びコンピュータ読み取り可能な記憶媒体

Country Status (1)

Country Link
WO (1) WO2023152857A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004355275A (ja) * 2003-05-28 2004-12-16 Nippon Telegr & Teleph Corp <Ntt> 救急医療用車載装置、医療機関装置および救急医療機関検索システム
JP2007188290A (ja) * 2006-01-13 2007-07-26 Seiri Kagaku Kenkyusho:Kk 医療情報提供システム
JP2013030948A (ja) * 2011-07-28 2013-02-07 Nec Casio Mobile Communications Ltd 情報処理システム、情報処理装置、情報処理方法、端末装置及びプログラム
JP2021117921A (ja) * 2020-01-29 2021-08-10 京セラ株式会社 情報処理システムおよび電子機器
WO2021240754A1 (ja) * 2020-05-28 2021-12-02 日本電気株式会社 医療情報制御装置、システム、方法及びプログラムが格納された非一時的なコンピュータ可読媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004355275A (ja) * 2003-05-28 2004-12-16 Nippon Telegr & Teleph Corp <Ntt> 救急医療用車載装置、医療機関装置および救急医療機関検索システム
JP2007188290A (ja) * 2006-01-13 2007-07-26 Seiri Kagaku Kenkyusho:Kk 医療情報提供システム
JP2013030948A (ja) * 2011-07-28 2013-02-07 Nec Casio Mobile Communications Ltd 情報処理システム、情報処理装置、情報処理方法、端末装置及びプログラム
JP2021117921A (ja) * 2020-01-29 2021-08-10 京セラ株式会社 情報処理システムおよび電子機器
WO2021240754A1 (ja) * 2020-05-28 2021-12-02 日本電気株式会社 医療情報制御装置、システム、方法及びプログラムが格納された非一時的なコンピュータ可読媒体

Similar Documents

Publication Publication Date Title
JP4552632B2 (ja) 携帯機器
JP6770981B2 (ja) 心肺蘇生連携方法、コンピュータプログラム製品及びシステム
JP5826422B2 (ja) 防犯システム
US20210043288A1 (en) Individual Health Information Aggregation System
JP5541959B2 (ja) 映像記録システム
JP2022022083A (ja) 入退場管理装置、入退場管理方法、入退場管理プログラム、および入退場管理システム
CA3206703A1 (en) Device and method for augmenting images of an incident scene with object description
TWI776105B (zh) 個人醫療資訊系統
WO2023152857A1 (ja) 通報支援装置、通報支援方法、及びコンピュータ読み取り可能な記憶媒体
JP7373831B2 (ja) 救急医療支援システム
CN111611812A (zh) 翻译成盲文
JP2018081662A (ja) 画像プリントシステム
JP2006235865A (ja) 支援指示システム、支援指示決定装置、支援指示方法及び支援指示決定プログラム
JP6534171B2 (ja) 呼出支援システム
JP2014160963A (ja) 画像処理装置及びプログラム
EP3585053A1 (en) Intercom door station, intercom system, control method, and program
JP6026137B2 (ja) 医療診断支援システム及びリスク情報提供端末装置
CN115836334A (zh) 基于个人危险状态感知的状况信息获取装置
JP4733773B1 (ja) 点呼システム
JP2014153829A (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
WO2018084492A1 (ko) 전자 장치 및 그의 배송 정보 제공 방법
CN112395444A (zh) 一种将新成员注册到面部图像数据库的方法
JP7110669B2 (ja) ビデオ会議システム、ビデオ会議方法、およびプログラム
WO2022185541A1 (ja) 見守りシステム、見守り方法、及び、記録媒体
CN111479060B (zh) 图像采集方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22925878

Country of ref document: EP

Kind code of ref document: A1