WO2023170941A1 - 状態推定装置、状態推定方法、及びコンピュータ読み取り可能な記憶媒体 - Google Patents

状態推定装置、状態推定方法、及びコンピュータ読み取り可能な記憶媒体 Download PDF

Info

Publication number
WO2023170941A1
WO2023170941A1 PCT/JP2022/010945 JP2022010945W WO2023170941A1 WO 2023170941 A1 WO2023170941 A1 WO 2023170941A1 JP 2022010945 W JP2022010945 W JP 2022010945W WO 2023170941 A1 WO2023170941 A1 WO 2023170941A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
target person
state
subject
state estimation
Prior art date
Application number
PCT/JP2022/010945
Other languages
English (en)
French (fr)
Inventor
毅 菱山
哲洋 角田
俊宏 遠藤
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2022/010945 priority Critical patent/WO2023170941A1/ja
Publication of WO2023170941A1 publication Critical patent/WO2023170941A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services

Definitions

  • the present disclosure relates to a technique for issuing instructions to a target person, such as a police officer.
  • a report is made to, for example, the police station or fire department, depending on the situation.
  • the operator in the control room who receives the report issues instructions to police officers, fire brigade, emergency services, etc. who should be dispatched to the scene, depending on the content of the report.
  • Patent Document 1 discloses a technology related to a portable communicator for police that assists police officers in their activities. Specifically, Patent Document 1 discloses that a portable communicator communicates position coordinate data of a police officer's current location to a police headquarters, and the police headquarters transmits a command according to the location. .
  • the present disclosure has been made in view of the above-mentioned problems, and one of the purposes is to provide a state estimation device etc. that can support appropriately giving commands to a subject.
  • a state estimating device includes an acquisition unit that acquires position information of a plurality of subjects and behavior information that is information regarding behavior measured for the subjects; estimating means for estimating the activity status of each of the subjects based on the information, and output control means for outputting subject information in which the position information and the activity status are information indicated for each subject; Equipped with
  • a state estimation method acquires position information of a plurality of subjects and behavior information that is information regarding behavior measured for the subjects, and based on the behavior information, The activity state of each of the target persons is estimated, and the position information and the activity state output target person information, which is information indicated for each target person.
  • a computer-readable storage medium includes a process of acquiring position information of a plurality of subjects and behavior information that is information regarding the behavior measured for the subjects, and a process of estimating the activity status of each of the target persons based on the information; and a process of outputting target person information in which the position information and the activity status are information indicated for each target person.
  • FIG. 1 is a block diagram illustrating an example of a functional configuration of a state estimation device according to a first embodiment of the present disclosure. It is a flowchart explaining an example of operation of the state estimating device of a 1st embodiment of this indication.
  • FIG. 3 is a diagram schematically showing an example of a configuration including a state estimation device according to a second embodiment of the present disclosure.
  • FIG. 2 is a block diagram illustrating an example of a functional configuration of a state estimation device according to a second embodiment of the present disclosure. It is a figure showing an example of target person information of a 2nd embodiment of this indication.
  • FIG. 7 is a diagram illustrating another example of target person information according to the second embodiment of the present disclosure.
  • FIG. 3 is a block diagram illustrating an example of a functional configuration of a state estimating device according to a third embodiment of the present disclosure. It is a figure showing an example of subject information of a 3rd embodiment of this indication. It is a flowchart explaining an example of operation of a state estimating device of a 3rd embodiment of this indication. It is a block diagram showing an example of functional composition of a state estimating device of a 4th embodiment of this indication.
  • FIG. 7 is a diagram showing an example display of a communication terminal according to a fourth embodiment of the present disclosure.
  • FIG. 1 is a block diagram illustrating an example of a hardware configuration of a computer device that implements state estimation devices according to first, second, third, and fourth embodiments of the present disclosure.
  • FIG. 1 is a block diagram showing an example of the functional configuration of the state estimation device 100.
  • the state estimation device 100 is a device that can be connected to a device owned by the subject and a device that measures the behavior of the subject, both of which will be described later, in a wired or wireless manner for communication.
  • the command system in the command center receives a report.
  • the command room indicates an organization that issues commands to target persons, such as police officers, fire brigade, and emergency services, depending on the content of the report.
  • the target person indicates the person who should act according to the command.
  • an operator in a command room issues a command to a target person to be dispatched to a location where an incident or accident has occurred.
  • the state estimation device 100 of the present disclosure is used in such a situation where instructions are given to a subject.
  • the state estimation device 100 includes an acquisition section 110, an estimation section 120, and an output control section 130.
  • the acquisition unit 110 acquires location information of multiple subjects. For example, the acquisition unit 110 acquires location information from a device owned by the subject.
  • the device owned by the subject is a device capable of acquiring positioning information that is information on the position of the point where the subject's device is located.
  • the acquisition unit 110 acquires, for example, positioning information as position information of the target person.
  • Behavior information is information regarding behavior measured for a subject.
  • the behavior information may be data measured by a sensor attached to the subject. For example, if a microphone is attached to the subject, the behavior information includes audio data regarding the voice uttered by the subject. Furthermore, for example, if an acceleration sensor, a gyro sensor, or the like is attached to the subject, the behavior information includes exercise data of the subject.
  • the acquisition unit 110 may acquire data measured by a sensor as behavior information of the subject. Note that the behavior information is not limited to this example.
  • the behavior information may further include different data or may include multiple types of data.
  • the acquisition unit 110 acquires position information of a plurality of subjects and behavior information that is information regarding the behavior measured for the subjects.
  • the acquisition unit 110 is an example of an acquisition means.
  • the estimation unit 120 estimates the activity status of each subject.
  • the activity state is information indicating the status of the subject.
  • the activity status may be, for example, information indicating whether the subject is busy or not, or may be information indicating how busy the subject is. That is, the activity state is an index indicating whether or not the subject is able to respond to instructions.
  • a state in which it is difficult to respond to a command is referred to as a busy state.
  • a state in which it is possible to respond to commands is referred to as a free state.
  • the estimation unit 120 estimates the activity state based on the behavior information. For example, the estimation unit 120 may estimate that the subject is in a busy state based on the behavior information if the subject moves frequently. The estimation unit 120 may estimate that the subject is in a free state if the subject remains stationary for a long time. Further, for example, the estimating unit 120 may estimate that the target person is in a busy state, based on the behavior information, when the target person is speaking at a frequency of a certain level or more. Then, the estimating unit 120 may estimate that the target person is in a free state when the frequency of the target person's comments is less than a predetermined value. Note that the method of estimating the activity state is not limited to this example.
  • estimation unit 120 estimates the activity state of each subject based on the behavior information.
  • Estimating unit 120 is an example of estimating means.
  • the output control unit 130 outputs target person information.
  • the target person information is information indicating location information and activity status for each target person.
  • the output control unit 130 associates position information and activity status corresponding to each subject.
  • the output control unit 130 outputs, for each target person, information in which position information and activity status are associated, and target person information.
  • the output control unit 130 may further associate attribute information indicating attributes of the target person.
  • the output control unit 130 displays target person information on a display device, for example.
  • the display device may be, for example, a display that can be viewed by an operator in a command room.
  • the output control unit 130 outputs target person information in which position information and activity status are indicated for each target person.
  • the output control section 130 is an example of an output control means.
  • each step of the flowchart is expressed using a number assigned to each step, such as "S1".
  • FIG. 2 is a flowchart illustrating an example of the operation of the state estimation device 100.
  • the acquisition unit 110 acquires position information of a plurality of subjects and behavior information that is information regarding behavior measured for the subjects (S1).
  • the estimation unit 120 estimates the activity state of each subject based on the behavior information (S2).
  • the output control unit 130 outputs subject information in which position information and activity status are indicated for each subject (S3).
  • the state estimation device 100 of the first embodiment acquires position information of a plurality of subjects and behavior information that is information regarding the behavior measured for the subjects. Furthermore, the state estimation device 100 estimates the activity state of each subject based on the behavior information. Then, the state estimating device 100 outputs subject information in which position information and activity state are indicated for each subject. For example, when an event such as an incident or an accident occurs, an operator in a control room issues instructions to a target person.
  • the state estimation device 100 can output location information and activity states of a plurality of subjects. Thereby, for example, an operator in a command room can grasp the target persons who can respond to the command by checking the position information and activity status of each target person. Therefore, the operator in the command room can, for example, send a command to a target person who is capable of responding to the command, so that the event that has occurred can be dealt with more quickly. Therefore, the state estimating device 100 can support appropriately giving instructions to the subject.
  • FIG. 3 is a diagram schematically showing an example of a configuration including the state estimation device 100.
  • the state estimating device 100 is communicably connected to the command system 10 of the command room via a wireless or wired network.
  • the state estimation device 100 includes communication terminals 200-1, 200-2, ..., 200-n (n is a natural number), sensors 300-1, 300-2, ..., 300-n, The devices are communicably connected via a wireless or wired network.
  • the communication terminals 200-1, 200-2, ..., 200-n are not distinguished from each other, the communication terminals 200-1, 200-2, ..., 200-n are simply the communication terminals. It is called 200.
  • the sensors 300-1, 300-2, . . . , 300-n are not distinguished from each other, the sensors 300-1, 300-2, .
  • the configuration including the state estimation device 100, the communication terminal 200, and the sensor 300 may be realized as a state estimation system.
  • the command system 10 is a system provided in a command room. For example, when an event such as an incident or an accident occurs, a report is made by a reporter. At this time, the whistleblower may be a general citizen or the target person.
  • the command system 10 receives notifications.
  • An operator in the command room for example, communicates with the caller via the command system 10. That is, the command system 10 may have, for example, a function that allows a call between an operator in the command room and a caller. Further, for example, an operator in a command room may use the command system 10 to give commands to the subject. That is, the command system 10 may have a function of notifying a target person of a command.
  • the state estimation device 100 may be a device included in the command system 10.
  • the communication terminal 200 is an example of a device owned by the subject.
  • the communication terminal 200 is, for example, a mobile terminal such as a mobile phone, a smartphone, or a tablet terminal. Note that the communication terminal 200 is not limited to this example.
  • Communication terminal 200 may be a personal computer.
  • Communication terminal 200 may be a device composed of a plurality of devices.
  • the communication terminal 200 only needs to have at least a function of acquiring positioning information that is information about the position of the point where the communication terminal 200 is located.
  • the positioning information may be, for example, information determined by a GNSS (Global Navigation Satellite System) such as a GPS (Global Positioning System).
  • GNSS Global Navigation Satellite System
  • GPS Global Positioning System
  • the communication terminal 200 acquires positioning information determined using, for example, GNSS. The communication terminal 200 then transmits the positioning information to the state estimation device 100. At this time, the communication terminal 200 may transmit the positioning information and the identification information of the target person who is the owner of the communication terminal 200 to the state estimation device 100.
  • the communication terminal 200 may be a device mounted on a patrol car.
  • the communication terminal 200 may be a device mounted on a fire engine.
  • the communication terminal 200 may be a device mounted on an ambulance vehicle. In this way, the communication terminal 200 may be a device mounted on a vehicle in which the target person rides.
  • each target person owns one communication terminal 200. Note that each target person may own multiple communication terminals 200.
  • the sensor 300 is an example of a device attached to a subject.
  • “attached to the subject” includes being attached to the body or clothing of the subject and being owned by the subject.
  • the sensor 300 is a device that can measure information regarding the behavior of a subject.
  • the sensor 300 is, for example, various sensors such as a microphone, an acceleration sensor, a gyro sensor, and a geomagnetic sensor. Further, the sensor 300 may be a combination of various sensors.
  • Sensor 300 may be a wearable terminal. That is, the sensor 300 may be a device that is worn or wearable by the subject. Further, the sensor 300 and the communication terminal 200 may be an integrated device.
  • the sensor 300 measures the target person's voice, for example.
  • a sensor 300 such as a microphone capable of measuring audio is attached to the subject's clothing, for example.
  • the sensor 300 then generates audio data indicating the measured audio.
  • the sensor 300 measures the movement of the subject.
  • the sensor 300 then generates exercise data of the subject based on the results of the exercise measurement.
  • an example of exercise data is gait data.
  • Gait indicates the manner in which animals, including humans, walk.
  • the gait includes, for example, a person's stride length, speed, walking rhythm, walking direction, foot angle, hip angle, and the like.
  • the sensor 300 capable of measuring the gait is attached to the insole of the subject's shoe, for example.
  • the sensor 300 then generates gait data by measuring changes over time in the load from the soles of the subject's feet.
  • the sensor 300 transmits the measured data to the state estimation device 100. At this time, the sensor 300 may transmit the measured data and identification information of the subject to whom the sensor 300 is attached to the state estimation device 100.
  • FIG. 4 is a block diagram showing an example of the functional configuration of the state estimation device 100.
  • the state estimation device 100 includes an acquisition section 110, an estimation section 120, and an output control section 130.
  • the acquisition unit 110 includes a position information acquisition unit 1101 and a behavior information acquisition unit 1102.
  • the location information acquisition unit 1101 acquires location information of each target person. Specifically, the location information acquisition unit 1101 acquires positioning information from the communication terminal 200 owned by each target person.
  • the position information acquisition unit 1101 acquires position information based on positioning information.
  • the location information may be information indicating coordinates such as latitude and longitude, or may be information indicating an address.
  • the behavior information acquisition unit 1102 acquires behavior information of each subject. Specifically, the behavior information acquisition unit 1102 acquires data measured by the sensor 300 from the sensor 300. The measured data may be at least one of the above-mentioned audio data and exercise data. The behavior information acquisition unit 1102 then acquires the measured data as behavior information. That is, the behavior information may be information including at least one of audio data and movement data.
  • the estimation unit 120 estimates the activity state of the subject based on the behavior information. Specifically, the estimation unit 120 may estimate whether the subject is in a busy state or in a free state based on exercise data included in the behavior information. For example, if it is estimated from the exercise data that the subject is running or moving more than a predetermined number of times per unit time, the estimation unit 120 determines that the subject is in a busy state. It can be assumed that Further, for example, if it is estimated from the exercise data that the subject remains stationary for a predetermined period of time or more or moves less than a predetermined number of times per unit time, the estimation unit 120 determines that the subject is in a free state. It can be assumed that
  • the estimation unit 120 may estimate whether the subject is in a busy state or in a free state based on the audio data included in the behavior information. For example, if it is estimated from the audio data that the subject is speaking at a voice louder than a certain level or speaking at a frequency of a certain number or more per unit time, the estimation unit 120 It may be assumed that the subject is busy. Further, for example, if it is estimated from the audio data that the target person speaks less than a predetermined number of times per unit time, the estimation unit 120 may estimate that the target person is in a free state.
  • the estimation unit 120 may estimate the activity state of the target person from the conversation content estimated from the audio data. For example, the estimation unit 120 converts speech into text from speech data. That is, the estimation unit 120 may use speech recognition technology. For example, the estimation unit 120 uses an acoustic model to identify which phoneme the input speech is. Then, the estimation unit 120 uses the language model to identify words and sentences from the identified phonemes. At this time, the acoustic model and the language model are machine learning models generated using machine learning such as deep learning. Note that the present invention is not limited to this example, and any existing voice recognition technology can be used.
  • the estimation unit 120 estimates what the target person is doing from the text information converted from the audio data. For example, the estimation unit 120 extracts keywords from text information converted from audio data. The estimating unit 120 then estimates whether the target person is chatting or attending to work based on the extracted keywords. Then, when the target person is chatting, the estimating unit 120 may estimate that the target person is in a free state. Further, the estimating unit 120 may estimate that the target person is in a busy state when the target person is busy with work.
  • the activity state estimation method may be a method based on various machine learning models such as deep learning.
  • the machine learning model in this case is, for example, a model in which the relationship between behavior information and activity state is learned in advance.
  • the estimation unit 120 may input the acquired behavior information to the machine learning model and estimate the information obtained as an output as the activity state of the subject. At this time, the estimation unit 120 may further estimate the activity state using position information. For example, the estimation unit 120 inputs the acquired behavior information and position information into a machine learning model. Then, the estimation unit 120 estimates the information obtained as the output as the activity state of the subject.
  • the machine learning model in this case is a model that has previously learned the relationship between behavior information, position information, and activity status.
  • the output control unit 130 outputs target person information. Specifically, the output control unit 130 associates the location information and activity state of the same subject. At this time, the output control unit 130 may associate the position information and activity state of the same subject based on the subject's identification information, for example. Then, the output control unit 130 outputs information in which the position information and the activity state are associated for each subject as subject person information to the display device of the command system 10 that can be visually recognized by the operator in the command room.
  • FIG. 5 is a diagram showing an example of target person information. As shown in FIG. 5, the subject information includes information in which location information and estimated activity status are associated for each subject. For example, the record in the first row indicates that subject A exists at coordinates (x1, y1) and is in a free state. In this way, the output control unit 130 may output the subject information in a text format and a table format.
  • FIG. 6 is a diagram showing another example of target person information.
  • a marker is superimposed on the map at the location of the target person based on the location information.
  • the markers are shown in different ways depending on their activity status.
  • the marker for subject A is shown as a circle
  • the marker for subject B is shown as a triangle.
  • a circle indicates a free state
  • a triangle indicates a busy state.
  • the output control unit 130 may output information shown on the map by associating the position information and the activity state as target person information.
  • the output control unit 130 may display different types of information at the target person's position on the map depending on the activity state. For example, the output control unit 130 may change the shape, size, color, outline thickness, etc. of the mark depending on the activity state.
  • FIG. 7 is a flowchart illustrating an example of the operation of the state estimation device 100.
  • the location information acquisition unit 1101 acquires location information of each of a plurality of subjects (S101).
  • the behavior information acquisition unit 1102 acquires behavior information of each of the plurality of subjects (S102).
  • the estimation unit 120 estimates the activity state based on the behavior information (S103).
  • the output control unit 130 outputs the target person information (S104).
  • the state estimation device 100 of the second embodiment acquires position information of a plurality of subjects and behavior information that is information regarding the behavior measured for the subjects. Furthermore, the state estimation device 100 estimates the activity state of each subject based on the behavior information. Then, the state estimating device 100 outputs subject information in which position information and activity state are indicated for each subject. For example, when an event such as an incident or an accident occurs, an operator in a control room issues instructions to a target person.
  • the state estimation device 100 can output location information and activity states of a plurality of subjects. Thereby, for example, an operator in a command room can grasp the target persons who can respond to the command by checking the position information and activity status of each target person. Therefore, the operator in the command room can, for example, send a command to a target person who is capable of responding to the command, so that the event that has occurred can be dealt with more quickly. Therefore, the state estimating device 100 can support appropriately giving instructions to the subject.
  • the behavior information may include at least one of the subject's exercise data and voice data. Then, the state estimating device 100 may estimate the activity state of each subject based on at least one of the exercise data and the audio data. Thereby, the state estimating device 100 can estimate the activity state from the subject's actions, comments, and the like.
  • the state estimating device 100 of the second embodiment may output information shown on the map by associating the position information and the activity state as target person information.
  • the state estimating device 100 may display different types of information depending on the activity state at the position of the target person shown on the map. This allows the operator in the control room to intuitively grasp the activity status of the subject. Therefore, the operator in the command room can more quickly grasp the target persons who can respond to the command.
  • Mode 1 There are various possible timings at which each process of the state estimation device 100 is performed.
  • the processes from S101 to S104 may be performed at regular intervals.
  • the processes in S101 to S104 may be performed in response to a request from the command system 10 (that is, a request from an operator in the command room).
  • the state estimating device 100 may perform various processes in response to the notification.
  • the estimation unit 120 acquires the location information of the informer from the command system 10 when a report is made.
  • the location information of the caller may be the location information transmitted from the mobile terminal, or may be the location information of the base station to which the call was made.
  • the estimating unit 120 identifies a target person existing within a predetermined range from the location information of the informer. Then, the estimating unit 120 estimates the activity state of the identified target person.
  • the estimating unit 120 may estimate the activity state of the target person located within a predetermined range when a report is made.
  • the active state does not have to be information indicating either of the two types of states, a busy state and a free state.
  • the active state may be information indicating any one of three or more types of states including different states in addition to the busy state and the free state.
  • multiple levels may be set for the busy state.
  • a busy state of level 1 may indicate that the information is being processed
  • a busy state of level 2 may indicate that the information is being processed but is available for responding to emergency commands.
  • the estimating unit 120 estimates whether the target person is in a level 1 busy state, a level 2 busy state, or a free state, based on the behavior information.
  • the estimation unit 120 may input behavior information to the machine learning model and estimate which state the subject is in from the information output by the machine learning model.
  • the machine learning model is, for example, a model that has previously learned the relationship between behavior information and activity states including a level 1 busy state, a level 2 busy state, and a free state.
  • FIG. 8 is a block diagram showing an example of the functional configuration of the state estimation device 101.
  • the state estimating device 101 exists instead of the state estimating device 100 shown in FIG. 3, for example. That is, the state estimating device 101 can communicate with the command system 10, the communication terminal 200, and the sensor 300.
  • the state estimation device 101 includes an acquisition section 111, an estimation section 120, an output control section 131, and a prediction section 140. In addition to the processing of the state estimation device 100, the state estimation device 101 may perform the processing described below.
  • the acquisition unit 111 includes a location information acquisition unit 1101, a behavior information acquisition unit 1102, and an attribute information acquisition unit 1103.
  • the attribute information acquisition unit 1103 acquires attribute information.
  • the attribute information is information indicating the attributes of the target person.
  • the attributes of the target person include, for example, gender, age, affiliation, and career.
  • the attribute information may be, for example, information in which the target person's identification information and attributes are associated. That is, the attribute information may be information indicating attributes for each subject.
  • the attribute information is stored in advance in, for example, a storage device (not shown) included in the state estimating device 101 or an external device that can communicate with the state estimating device 101.
  • the attribute information acquisition unit 1103 may acquire the attribute information of the subject whose activity state is estimated by the estimation unit 120 from the device in which the attribute information is stored. Further, if attribute information is stored in the communication terminal 200, the attribute information acquisition unit 1103 may acquire the attribute information from the communication terminal 200.
  • Attribute information is one of the indicators for determining whether the directive can be met. For example, suppose an incident occurs and a suspect in the incident needs to be physically examined. In this case, if the suspect is a woman, it is preferable that the police officer conducting the physical examination be a woman. Therefore, when the content of the command is a request for reinforcement of personnel to perform a physical examination, the operator in the command room may consider the gender of the subject.
  • the attribute information acquisition unit 1103 may acquire attribute information indicating attributes including gender, for example.
  • the prediction unit 140 predicts the target person's free time. Specifically, when the subject is in a busy state, the prediction unit 140 predicts the time until the subject becomes free. For example, the prediction unit 140 may predict the subject's free time using a method based on various machine learning models such as deep learning.
  • the machine learning model in this case is, for example, a model in which the relationship between behavior information or behavior information and position information and free time is learned in advance.
  • the prediction unit 140 may input the acquired behavior information and position information into the machine learning model, and predict the information obtained as an output as the subject's free time.
  • the prediction unit 140 may predict free time based on the target person's schedule information.
  • the schedule information is information indicating the target person's action schedule.
  • the schedule information includes the content of the action scheduled to be performed by the subject and the time for performing the content of the action.
  • the schedule information is stored, for example, in a storage device (not shown) included in the state estimating device 101 or in an external device that can communicate with the state estimating device 101.
  • the prediction unit 140 may refer to the target person's schedule information and predict the time until the target person's scheduled action ends as the free time.
  • the prediction unit 140 predicts the target person's free time.
  • the prediction unit 140 is an example of a prediction unit.
  • the output control unit 131 outputs target person information.
  • FIG. 9 is a diagram showing an example of target person information.
  • markers are superimposed on the map, similar to FIG. 6.
  • the marker indicates the location of the subject.
  • information regarding the subject is associated with the marker. For example, near the marker indicating the subject A, it is shown that the marker indicates the subject A, that the subject A is male, and that the activity state of the subject A is a free state.
  • the output control unit 131 may output target person information in which position information, activity status, and attribute information are indicated for each target person.
  • the output control unit 131 may output target person information including information indicating free time for each target person.
  • subject A is indicated by a filled circle marker
  • subject C is indicated by a hatched circle marker.
  • a filled circle marker indicates a male
  • a hatched circle marker indicates a female.
  • the output control unit 131 may display different forms of information at the target person's position shown on the map, depending on the target person's attributes.
  • FIG. 10 is a flowchart illustrating an example of the operation of the state estimation device 101.
  • the processing in S201 and S202 is the same as the processing in S101 and S102 in FIG. 7, so the description thereof will be omitted.
  • the attribute information acquisition unit 1103 acquires attribute information (S203). At this time, the attribute information acquisition unit 1103 may acquire attribute information of the subject from whom at least one of the position information and behavior information has been acquired. Then, the estimation unit 120 estimates the activity state of each subject based on the behavior information (S204).
  • the prediction unit 140 predicts the target person's free time (S205). At this time, the prediction unit 140 may predict the free time of the subject whose activity state is estimated to be busy. Then, the output control unit 131 outputs the target person information (S206). At this time, the output control unit 131 may output target person information including attribute information and information indicating free time in addition to the target person's location information and activity status.
  • the state estimation device 101 of the third embodiment acquires attribute information that is information indicating attributes including the gender of the target person, and displays position information, activity status, and attribute information for each target person. You may output the target person information. For example, assume that the content of the command is a request for reinforcement of personnel to conduct a physical examination of a suspect. In this case, it is preferable to consider the gender of the police officer conducting the physical examination, depending on the gender of the suspect. On the other hand, the operator in the control room can also grasp the attributes of the target person. Therefore, the operator in the control room can notify the command by considering the gender of the target person. That is, the state estimating device 101 can support appropriately giving instructions to the subject.
  • the state estimation device 101 of the third embodiment may predict the target person's free time and output target person information including information indicating the free time of each target person.
  • the operator in the control room can, for example, grasp the time until the subject becomes free. Therefore, the operator in the command room can, for example, notify the target person of a command to respond as soon as the user becomes free.
  • FIG. 11 is a block diagram showing an example of the functional configuration of the state estimation device 102.
  • the state estimating device 102 exists instead of the state estimating device 100 shown in FIG. 3, for example. That is, the state estimating device 102 can communicate with the command system 10, the communication terminal 200, and the sensor 300.
  • the state estimation device 102 includes an acquisition section 111, an estimation section 120, an output control section 131, a prediction section 140, a reception section 150, and a notification section 160.
  • the state estimation device 102 may perform the processing described below.
  • the reception unit 150 receives input from the target person. More specifically, the reception unit 150 receives information input by the target person from the communication terminal 200.
  • An example of the information that is accepted is a dummy command request.
  • the dummy command request is information for notifying a dummy command.
  • the target person may be dealing with non-essential matters. For example, suppose the target person is a police officer. Police officers may receive unnecessary chatter from residents and consultations that the police should not respond to. In such a case, the police officer uses the communication terminal 200 to input a dummy command request.
  • FIG. 12 is a diagram showing a display example of the communication terminal 200. In the example of FIG. 12, information asking whether or not a dummy command is requested is displayed on the display of the communication terminal 200. In this way, the communication terminal 200 may display information asking whether or not a dummy command is requested. In this example, if the subject selects “request”, the communication terminal 200 transmits a dummy command request to the state estimation device 102.
  • the receiving unit 150 receives, for example, a dummy command request transmitted from the communication terminal 200.
  • the receiving unit 150 receives a dummy command request from the target person.
  • the reception unit 150 is an example of reception means.
  • the notification unit 160 notifies the command.
  • Notification unit 160 is an example of notification means.
  • the notification unit 160 may notify the target person's communication terminal 200 of a command based on an operation by an operator in a command room.
  • the command notified in this manner may be, for example, information input by an operator in the command room.
  • the command includes information regarding an event that has occurred, and information indicating actions that the target person should take.
  • the notification unit 160 may notify the command to the target person selected by the operator in the command room.
  • the notification unit 160 may notify the target person whose active state is a free state of the command. That is, the notification unit 160 may notify the target person in the free state of the command even if the operator in the command room does not select the target person.
  • the notification unit 160 may notify a dummy command. Specifically, when the reception unit 150 receives a dummy command request, the notification unit 160 may notify the communication terminal 200 of the person who made the dummy command request of the dummy command. That is, the notification unit 160 notifies the target person who has made the dummy command request of the dummy command.
  • the notified command may be output, for example, on the display of the communication terminal 200, or may be output as sound on the speaker of the communication terminal 200.
  • the notification unit 160 may notify a device other than the communication terminal 200 of the command.
  • the notification unit 160 may notify a device such as a wireless device owned by the subject of the command.
  • FIG. 13 is a flowchart illustrating an example of the operation of the state estimation device 102. In this operation example, a process when the state estimation device 102 notifies a dummy command will be described.
  • the receiving unit 150 receives a dummy command request from the communication terminal 200 of the target person (S301). Then, the notification unit 160 notifies the target person who made the dummy command request of the dummy command (S302).
  • the state estimation device 102 of the fourth embodiment may accept a dummy command request from a subject and notify the subject who has made the dummy command request of the dummy command.
  • the target person may be taking unnecessary or non-urgent care.
  • the subject can receive a dummy command, so the subject may be able to interrupt unnecessary and non-urgent responses based on the dummy command. That is, the state estimation device 102 can support a subject who desires to suspend unnecessary and non-urgent responses.
  • the reception unit 150 may further receive an input of the activity state from the subject. Specifically, the subject inputs into the communication terminal 200 information indicating whether the subject is in a busy state or in a free state. Communication terminal 200 transmits the input information to state estimation device 102 . The reception unit 150 receives input information from the state estimation device 102.
  • the estimation unit 120 may estimate the activity state of the subject based on the information received by the reception unit 150. For example, assume that the reception unit 150 receives information indicating that the target person is in a busy state. At this time, the estimation unit 120 may estimate that the subject is in a busy state.
  • the reception unit 150 may accept input including information indicating whether or not the device is in a busy state. Furthermore, the estimation unit 120 may estimate the information included in the input as the activity state of the subject who has made the input.
  • the communication terminal 200 may be mounted on a vehicle.
  • the communication terminal 200 is installed in the patrol car.
  • a police officer riding in a patrol car is responding to other duties, he inputs information indicating that he is responding to the communication terminal 200 mounted on the patrol car.
  • Communication terminal 200 transmits information indicating that support is in progress to state estimation device 102.
  • the estimation unit 120 estimates the activity state of the police officer as a busy state.
  • FIG. 14 is a block diagram illustrating an example of the hardware configuration of a computer device that implements the state estimation device in each embodiment.
  • the computer device 90 implements the state estimation device and state estimation method described in each embodiment and each modification.
  • the computer device 90 includes a processor 91, a RAM (Random Access Memory) 92, a ROM (Read Only Memory) 93, a storage device 94, an input/output interface 95, a bus 96, and a drive device 97.
  • the state estimation device may be realized by a plurality of electric circuits.
  • the storage device 94 stores a program (computer program) 98.
  • the processor 91 uses the RAM 92 to execute a program 98 of the state estimation device.
  • the program 98 includes a program that causes a computer to execute the processes shown in FIGS. 2, 7, 10, and 13.
  • the program 98 may be stored in the ROM 93. Further, the program 98 may be recorded on the storage medium 80 and read using the drive device 97, or may be transmitted from an external device (not shown) to the computer device 90 via a network (not shown).
  • the input/output interface 95 exchanges data with peripheral devices (keyboard, mouse, display device, etc.) 99.
  • the input/output interface 95 functions as a means for acquiring or outputting data.
  • a bus 96 connects each component.
  • the state estimation device can be implemented as a dedicated device.
  • the state estimation device can be realized based on a combination of multiple devices.
  • a processing method in which a program for realizing each component in the function of each embodiment is recorded on a storage medium, the program recorded on the storage medium is read as a code, and executed on a computer is also included in the category of each embodiment. . That is, computer-readable storage media are also included within the scope of each embodiment. Furthermore, a storage medium on which the above program is recorded and the program itself are also included in each embodiment.
  • the storage medium is, for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, a CD (Compact Disc)-ROM, a magnetic tape, a nonvolatile memory card, or a ROM, but is not limited to these examples.
  • the programs recorded on the storage medium are not limited to programs that execute processing alone, but also operate on the OS (Operating System) to execute processing in collaboration with other software and expansion board functions. Programs that do this are also included in the scope of each embodiment.
  • Additional note 1 Acquisition means for acquiring location information of a plurality of subjects and behavior information that is information regarding the behavior measured for the subjects; Estimating means for estimating the activity status of each of the subjects based on the behavior information; output control means for outputting target person information in which the position information and the activity state are information indicated for each target person; State estimation device.
  • the behavior information includes at least one of movement data and voice data of the subject,
  • the estimating means estimates the activity state of each of the subjects from at least one of the exercise data and the audio data.
  • the state estimation device according to supplementary note 1.
  • the output control means outputs information shown on a map in association with the location information and the activity state as the target person information.
  • the state estimation device according to supplementary note 1 or 2.
  • the output control means displays different types of information at the target person's position shown on the map depending on the activity state.
  • the state estimation device according to appendix 3.
  • the acquisition means acquires attribute information that is information indicating attributes including gender of the target person
  • the output control means outputs the target person information in which the position information, the activity state, and the attribute information are indicated for each target person.
  • the state estimation device according to any one of Supplementary Notes 1 to 4.
  • the receiving means receives an input including information indicating whether the device is in a busy state,
  • the estimating means estimates information included in the input as the activity state of the subject who has made the input.
  • the state estimation device according to appendix 8.
  • the estimating means estimates the activity state of a target person located within a predetermined range when a report is made.
  • the state estimation device according to any one of Supplementary Notes 1 to 9.
  • the output control means displays different types of information at the target person's position shown on the map, depending on the attribute information of the target person.
  • the state estimation device according to appendix 5.
  • the target person is at least one of a police officer, a fire brigade, and an ambulance brigade;
  • the state estimation device according to any one of Supplementary Notes 1 to 11.
  • Command System 100 101, 102 State Estimation Device 110 Acquisition Unit 120 Estimation Unit 130, 131 Output Control Unit 140 Prediction Unit 150 Reception Unit 160 Notification Unit 200 Communication Terminal 300 Sensor 1101 Location Information Acquisition Unit 1102 Behavior Information Acquisition Unit 1103 Attribute Information Acquisition department

Landscapes

  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Alarm Systems (AREA)
  • Telephonic Communication Services (AREA)

Abstract

対象者への指令を適切に行うことを支援することが可能な状態推定装置等を提供することを目的の一つとする。本開示の一態様にかかる状態推定装置は、複数の対象者の位置情報と、前記対象者に対して計測された挙動に関する情報である挙動情報と、を取得する取得手段と、前記挙動情報に基づいて、前記対象者のそれぞれの活動状態を推定する推定手段と、前記位置情報と前記活動状態とが、前記対象者ごとに示された情報である対象者情報を出力する出力制御手段と、を備える。

Description

状態推定装置、状態推定方法、及びコンピュータ読み取り可能な記憶媒体
 本開示は、警察官等の対象者への指令を行う技術に関する。
 事件及び事故等が発生した場合、状況に応じて、例えば警察署及び消防署等に通報が行われる。通報を受け付けた指令室のオペレータは、通報内容に応じて、現場にかけつけるべき対象である警察官、消防隊、及び救急隊等に指令を行う。
 警察官への指令に関連して、特許文献1には、警察官の活動を補佐する、警察用の携帯型コミュニケータに関する技術が開示されている。具体的には、特許文献1には、携帯型コミュニケータが、警察官の現在位置の位置座標データを警察本部へ連絡し、警察本部が位置に応じた指令を送信することが開示されている。
特開2010-119118号公報
 事件及び事故等の事象が発生し、指令室から、警察官、消防隊、及び救急隊等の対象者に指令が送られたとする。しかしながら、指令を受け取った対象者が他の業務に対応中である場合、対象者は迅速に指令に対応できない可能性がある。すると、発生した事象への対処が遅れる虞がある。
 本開示は、上記課題を鑑みてなされたものであり、対象者への指令を適切に行うことを支援することが可能な状態推定装置等を提供することを目的の一つとする。
 本開示の一態様にかかる状態推定装置は、複数の対象者の位置情報と、前記対象者に対して計測された挙動に関する情報である挙動情報と、を取得する取得手段と、前記挙動情報に基づいて、前記対象者のそれぞれの活動状態を推定する推定手段と、前記位置情報と前記活動状態とが、前記対象者ごとに示された情報である対象者情報を出力する出力制御手段と、を備える。
 本開示の一態様にかかる状態推定方法は、複数の対象者の位置情報と、前記対象者に対して計測された挙動に関する情報である挙動情報と、を取得し、前記挙動情報に基づいて、前記対象者のそれぞれの活動状態を推定し、前記位置情報と前記活動状態とが、前記対象者ごとに示された情報である対象者情報を出力する。
 本開示の一態様にかかるコンピュータ読み取り可能な記憶媒体は、複数の対象者の位置情報と、前記対象者に対して計測された挙動に関する情報である挙動情報と、を取得する処理と、前記挙動情報に基づいて、前記対象者のそれぞれの活動状態を推定する処理と、前記位置情報と前記活動状態とが、前記対象者ごとに示された情報である対象者情報を出力する処理と、をコンピュータに実行させるプログラムを格納する。
 本開示によれば、対象者への指令を適切に行うことを支援することができる。
本開示の第1の実施形態の状態推定装置の機能構成の一例を示すブロック図である。 本開示の第1の実施形態の状態推定装置の動作の一例を説明するフローチャートである。 本開示の第2の実施形態の状態推定装置を含む構成の一例を模式的に示す図である。 本開示の第2の実施形態の状態推定装置の機能構成の一例を示すブロック図である。 本開示の第2の実施形態の対象者情報の一例を示す図である。 本開示の第2の実施形態の対象者情報の他の例を示す図である。 本開示の第2の実施形態の状態推定装置の動作の一例を説明するフローチャートである。 本開示の第3の実施形態の状態推定装置の機能構成の一例を示すブロック図である。 本開示の第3の実施形態の対象者情報の一例を示す図である。 本開示の第3の実施形態の状態推定装置の動作の一例を説明するフローチャートである。 本開示の第4の実施形態の状態推定装置の機能構成の一例を示すブロック図である。 本開示の第4の実施形態の通信端末の表示例を示す図である。 本開示の第4の実施形態の状態推定装置の動作の一例を説明するフローチャートである。 本開示の第1、第2、第3、及び第4の実施形態の状態推定装置を実現するコンピュータ装置のハードウェア構成の一例を示すブロック図である。
 以下に、本開示の実施形態について、図面を参照しつつ説明する。
 <第1の実施形態>
 本開示の状態推定装置の概要について説明する。
 図1は、状態推定装置100の機能構成の一例を示すブロック図である。状態推定装置100は、後述する、対象者が所有する装置と、対象者の挙動を計測する装置と、有線又は無線で通信可能に接続可能な装置である。
 例えば、事件または事故等の事象が発生した場合、指令室の指令システムは通報を受け付ける。指令室は、通報の内容に応じて、警察官、消防隊及び救急隊等の対象者に指令を行う組織を示す。対象者は、指令に応じて行動するべき人物を示す。指令室のオペレータは、例えば、事件または事故が発生した場所に出動することを示す指令を対象者に行う。本開示の状態推定装置100は、このような、対象者に指令を行う状況において用いられることを一例とする。
 図1に示すように、状態推定装置100は、取得部110と推定部120と出力制御部130とを備える。
 取得部110は、複数の対象者の位置情報を取得する。例えば、取得部110は、対象者が所有する装置から位置情報を取得する。対象者が所有する装置は、自機が位置する地点が測位された情報である測位情報を取得することが可能な装置である。取得部110は、例えば、測位情報を、対象者の位置情報として取得する。
 また、取得部110は、挙動情報を取得する。挙動情報とは、対象者に対して計測された挙動に関する情報である。挙動情報は、対象者に取り付けられたセンサによって計測されたデータであってよい。例えば、対象者にマイクが取り付けられている場合、挙動情報には、対象者が発した音声に関する音声データが含まれる。また、例えば、対象者に加速度センサ及びジャイロセンサ等が取り付けられている場合、挙動情報には、対象者の運動データが含まれる。取得部110は、例えば、センサによって計測されたデータを、対象者の挙動情報として取得してよい。なお、挙動情報はこの例に限られない。挙動情報には、さらに異なるデータが含まれてよいし、複数種類のデータが含まれてもよい。
 このように、取得部110は、複数の対象者の位置情報と、対象者に対して計測された挙動に関する情報である挙動情報と、を取得する。取得部110は、取得手段の一例である。
 推定部120は、対象者のそれぞれの活動状態を推定する。活動状態とは、対象者のステータスを示す情報である。活動状態は、例えば、対象者が取り込み中か否かを示す情報であってもよいし、対象者の忙しさを示す情報であってもよい。すなわち、活動状態は、対象者が指令に対応可能であるか否かを示す指標である。本開示において、指令に対応困難である状態をビジー状態と称する。また、指令に対応可能である状態をフリー状態と称する。
 推定部120は、挙動情報に基づいて活動状態を推定する。例えば、推定部120は、挙動情報に基づいて、対象者が頻繁に移動している場合、対象者がビジー状態であると推定してよい。そして、推定部120は、対象者が静止している時間が長い場合、対象者がフリー状態であると推定してよい。また、例えば、推定部120は、挙動情報に基づいて、対象者が一定以上の頻度で発言をしている場合、対象者がビジー状態であると推定してよい。そして、推定部120は、対象者の発言の頻度が所定値未満である場合、対象者がフリー状態であると推定してよい。なお、活動状態の推定方法はこの例に限られない。
 このように、推定部120は、挙動情報に基づいて、対象者のそれぞれの活動状態を推定する。推定部120は、推定手段の一例である。
 出力制御部130は、対象者情報を出力する。対象者情報は、位置情報と活動状態とが、対象者ごとに示された情報である。例えば、出力制御部130は、対象者のそれぞれに対応する、位置情報と活動状態とを関連付ける。そして、出力制御部130は、対象者ごとに、位置情報と活動状態とが関連付けられた情報と、対象者情報として出力する。このとき、出力制御部130は、さらに対象者の属性を示す属性情報を、さらに関連付けてもよい。出力制御部130は、例えば、対象者情報を表示装置に表示する。表示装置は、例えば、指令室のオペレータが視認可能なディスプレイ等であってよい。
 このように、出力制御部130は、位置情報と活動状態とが、対象者ごとに示された情報である対象者情報を出力する。出力制御部130は、出力制御手段の一例である。
 次に、状態推定装置100の動作の一例を、図2を用いて説明する。なお、本開示において、フローチャートの各ステップを「S1」のように、各ステップに付した番号を用いて表現する。
 図2は、状態推定装置100の動作の一例を説明するフローチャートである。取得部110は、複数の対象者の位置情報と、対象者に対して計測された挙動に関する情報である挙動情報と、を取得する(S1)。推定部120は、挙動情報に基づいて、対象者のそれぞれの活動状態を推定する(S2)。出力制御部130は、位置情報と活動状態とが、対象者ごとに示された情報である対象者情報を出力する(S3)。
 このように、第1の実施形態の状態推定装置100は、複数の対象者の位置情報と、対象者に対して計測された挙動に関する情報である挙動情報と、を取得する。また、状態推定装置100は、挙動情報に基づいて、対象者のそれぞれの活動状態を推定する。そして、状態推定装置100は、位置情報と活動状態とが、対象者ごとに示された情報である対象者情報を出力する。例えば、事件及び事故等の事象が発生した場合に、指令室のオペレータが対象者に指令を行うとする。状態推定装置100は、複数の対象者の位置情報と活動状態とを出力することができる。これにより、例えば、指令室のオペレータは、対象者のそれぞれの位置情報と活動状態とを確認することで、指令に対応可能な対象者を把握することができる。そのため、指令室のオペレータは、例えば、指令に対応可能な対象者に対して指令を送ることができるので、発生した事象に対してより迅速に対処させることができる。したがって、状態推定装置100は、対象者への指令を適切に行うことを支援することができる。
 <第2の実施形態>
 次に、第2の実施形態の状態推定装置について説明する。第2の実施形態では、第1の実施形態で説明した状態推定装置100について、より詳細に説明する。なお、第1の実施形態で説明した内容と重複する内容は、一部説明を省略する。
 図3は、状態推定装置100を含む構成の一例を模式的に示す図である。図3に示すように、状態推定装置100は、指令室の指令システム10と、無線又は有線のネットワークを介して通信可能に接続される。また、状態推定装置100は、通信端末200-1、200-2、・・・、200-n(nは自然数)と、センサ300-1、300-2、・・・、300-nと、無線又は有線のネットワークを介して通信可能に接続される。ここで、通信端末200-1、200-2、・・・、200-nのそれぞれを区別しない場合、通信端末200-1、200-2、・・・、200-nは、単に、通信端末200と称する。また、センサ300-1、300-2、・・・、300-nのそれぞれを区別しない場合、センサ300-1、300-2、・・・、300-nは、単に、センサ300と称する。なお、状態推定装置100と通信端末200とセンサ300とを含む構成は状態推定システムとして実現されてよい。
 指令システム10は、指令室に設けられるシステムである。例えば、事件または事故等の事象が発生した場合に、通報者により通報が行われる。このとき通報者は、一般市民であってもよいし、対象者であってもよい。指令システム10は、通報を受け付ける。指令室のオペレータは、例えば、指令システム10を介して通報者と通話を行う。すなわち、指令システム10は、例えば、指令室のオペレータと通報者との通話を実現可能な機能を備えてよい。また、例えば、指令室のオペレータは、指令システム10を用いて、対象者に対して指令を行ってよい。すなわち、指令システム10は、対象者に指令を通知する機能を備えてよい。なお、状態推定装置100は、指令システム10に含まれる装置であってもよい。
 通信端末200は、対象者が所有する装置の一例である。通信端末200は、例えば、携帯電話、スマートフォン、及びタブレット端末等の携帯型端末である。なお、通信端末200はこの例に限られない。通信端末200は、パーソナルコンピュータであってよい。通信端末200は、複数の装置で構成される装置であってよい。通信端末200は、少なくとも自機が位置する地点が測位された情報である測位情報を取得する機能を備えていればよい。ここで、測位情報は、例えば、GPS(Global Positioning System)等の、GNSS(Global Navigation Satellite System)によって、測位された情報であってよい。
 通信端末200は、例えばGNSSを利用して測位された測位情報を取得する。そして、通信端末200は測位情報を状態推定装置100に送信する。このとき、通信端末200は、測位情報と、通信端末200の所有者である対象者の識別情報と、を状態推定装置100に送信してもよい。
 例えば、対象者が警察官である場合、通信端末200は、パトロールカーに搭載される装置であってよい。また、対象者が消防隊である場合、通信端末200は、消防車両に搭載される装置であってよい。また、対象者が救急隊である場合、通信端末200は、救急車両に搭載される装置であってよい。このように、通信端末200は、対象者が乗車する車両に搭載される装置であってよい。
 本実施形態では、対象者のそれぞれが、一の通信端末200を所有していることを前提として説明する。なお、対象者のそれぞれは複数の通信端末200を所有していてもよい。
 センサ300は、対象者に取り付けられる装置の一例である。ここで、「対象者に取り付けられる」とは、対象者の身体または衣服に取り付けられること、及び、対象者が所有することを含む。センサ300は、対象者の挙動に関する情報を計測可能な装置である。センサ300は、例えば、マイク、加速度センサ、ジャイロセンサ、及び地磁気センサ等の各種センサである。また、センサ300は、各種センサを組み合わせたセンサであってよい。センサ300は、ウェアラブル端末であってもよい。すなわち、センサ300は、対象者が装着または着用可能な装置であってよい。また、センサ300と通信端末200とは一体の装置であってもよい。
 センサ300は、例えば、対象者の音声を計測する。この場合、マイク等の音声を計測可能なセンサ300は、例えば、対象者の衣服に取り付けられる。そして、センサ300は、計測した音声を示す音声データを生成する。
 また、例えば、センサ300は、対象者の運動計測を行う。そして、センサ300は、運動計測の結果に基づいた、対象者の運動データを生成する。ここで、運動データの一例は、歩容データである。歩容は、人間を含む動物の歩行の様態を示す。歩容には、例えば、人間の歩幅、速度、歩行のリズム、進行方向、足の角度、及び腰の角度等が含まれる。この場合、歩容を計測可能なセンサ300は、例えば、対象者の靴の中敷きに取り付けられる。そしてセンサ300は、対象者の足裏からの荷重の経時的な変化を計測することによって、歩容データを生成する。
 センサ300は、計測したデータを状態推定装置100に送信する。このとき、センサ300は、計測したデータと、センサ300が取り付けられた対象者の識別情報と、を状態推定装置100に送信してもよい。
 本実施形態では、通信端末200とセンサ300とは別体の装置である例を主に説明する。また、本実施形態では、対象者のそれぞれが、少なくとも一以上のセンサ300が取り付けられることを前提として説明する。
 [状態推定装置100の詳細]
 図4は、状態推定装置100の機能構成の一例を示すブロック図である。図4に示すように、状態推定装置100は、取得部110と推定部120と出力制御部130とを備える。
 取得部110は、位置情報取得部1101と挙動情報取得部1102とを備える。位置情報取得部1101は、対象者のそれぞれの位置情報を取得する。具体的には、位置情報取得部1101は、対象者のそれぞれが所有する通信端末200から測位情報を取得する。位置情報取得部1101は、測位情報に基づく位置情報を取得する。位置情報は、緯度及び経度等の座標を示す情報であってもよいし、住所を示す情報であってもよい。
 挙動情報取得部1102は、対象者のそれぞれの挙動情報を取得する。具体的には、挙動情報取得部1102は、センサ300によって計測されたデータを、センサ300から取得する。計測されたデータは、上述の音声データ及び運動データの少なくとも一方であってよい。そして、挙動情報取得部1102は、計測されたデータを、挙動情報として取得する。すなわち、挙動情報は、音声データ及び運動データの少なくとも一方を含む情報であってよい。
 推定部120は、挙動情報に基づいて、対象者の活動状態を推定する。具体的には推定部120は、挙動情報に含まれる運動データに基づき、対象者がビジー状態であるかフリー状態であるかを推定してよい。例えば、運動データから、対象者が、走って移動していたり、単位時間あたり所定回数以上の頻度で移動していたりすることが推定される場合、推定部120は、対象者がビジー状態であると推定してよい。また、例えば、運動データから、対象者が所定時間以上静止していたり、単位時間あたり所定回数未満の頻度で移動していたりすることが推定される場合、推定部120は、対象者がフリー状態であると推定してよい。
 また、推定部120は、挙動情報に含まれる音声データに基づき、対象者がビジー状態であるかフリー状態であるかを推定してよい。例えば、音声データから、対象者が一定以上の大きさの声で発言をしていたり、単位時間あたり所定回数以上の頻度で発言をしていたりすることが推定される場合、推定部120は、対象者がビジー状態であると推定してよい。また、例えば、音声データから、対象者が、単位時間あたり所定回数未満の頻度で発言をしていると推定される場合、推定部120は、対象者がフリー状態であると推定してよい。
 また、推定部120は、音声データから推定される会話内容から、対象者の活動状態を推定してもよい。例えば、推定部120は、音声データから、音声をテキストに変換する。すなわち、推定部120は、音声認識技術を利用してよい。例えば、推定部120は、音響モデルを利用して、入力された音声がどの音素であるかを特定する。そして、推定部120は、言語モデルを利用して、特定した音素から、単語及び文章を特定する。このとき、音響モデル及び言語モデルは、ディープラーニング等の機械学習を利用して生成された機械学習モデルである。なお、この例に限らず、既存の音声認識技術が利用可能である。
 そして、推定部120は、音声データから変換されたテキストの情報から、対象者が何を行っているかを推定する。例えば、推定部120は、音声データから変換されたテキストの情報からキーワードを抽出する。そして推定部120は、抽出されたキーワードに基づいて、対象者が雑談をしているか業務に対応中であるかを推定する。そして、推定部120は、対象者が雑談をしている場合、対象者をフリー状態と推定してよい。また、推定部120は、対象者が業務に対応中である場合、対象者をビジー状態と推定してよい。
 なお、活動状態の推定方法は種々の方法が適用可能である。例えば、活動状態の推定方法は、ディープラーニング等の各種の機械学習モデルに基づく方法であってよい。この場合の機械学習モデルは、例えば、挙動情報と活動状態との関係を予め学習させたモデルである。推定部120は、取得された挙動情報を当該機械学習モデルに入力し、出力として得られた情報を、対象者の活動状態として推定してよい。このとき、推定部120は、さらに位置情報を利用して活動状態を推定してもよい。例えば、推定部120は、取得された挙動情報と位置情報とを機械学習モデルに入力する。そして、推定部120は、出力として得られた情報を、対象者の活動状態として推定する。この場合の機械学習モデルは、予め挙動情報及び位置情報と、活動状態と、の関係を学習させたモデルである。
 出力制御部130は、対象者情報を出力する。具体的には、出力制御部130は、同一の対象者の位置情報と活動状態とを関連付ける。このとき出力制御部130は、例えば、対象者の識別情報に基づいて、同一の対象者の位置情報と活動状態とを関連付けてよい。そして、出力制御部130は、対象者ごとに、位置情報と活動状態とを関連付けた情報を、対象者情報として、指令室のオペレータが視認可能な指令システム10の表示装置に出力する。図5は、対象者情報の一例を示す図である。図5に示すように、対象者情報は、対象者ごとに、位置情報と、推定された活動状態と、が関連付けられた情報を含む。例えば、一行目のレコードには、対象者Aは、座標(x1,y1)に存在し、フリー状態であることが示されている。このように、出力制御部130は、テキスト形式及び表形式で対象者情報を出力してよい。
 対象者情報の例はこの例に限られない。図6は、対象者情報の他の例を示す図である。図6の例では、位置情報に基づいて、地図上の対象者がいる位置にマーカーが重畳されている。そして、マーカーは、活動状態に応じて異なる態様で示されている。具体的には、対象者Aのマーカーは丸で示され、対象者Bのマーカーは三角で示されている。例えば、丸がフリー状態を示し、三角がビジー状態を示す。つまり、対象者Aは、フリー状態であり、対象者Bは、ビジー状態であることが示されている。このように、出力制御部130は、位置情報と活動状態とを関連付けて地図上に示された情報を、対象者情報として出力してよい。また、出力制御部130は、活動状態に応じて異なる態様の情報を地図上の対象者の位置に表示してよい。例えば、出力制御部130は、活動状態に応じてマークの形、大きさ、色、及び輪郭の太さ等を変更してよい。
 [状態推定装置100の動作例]
 次に、状態推定装置100の動作の一例を、図7を用いて説明する。
 図7は、状態推定装置100の動作の一例を説明するフローチャートである。まず、位置情報取得部1101は、複数の対象者のそれぞれの位置情報を取得する(S101)。挙動情報取得部1102は、複数の対象者のそれぞれの挙動情報を取得する(S102)。推定部120は、挙動情報に基づいて活動状態を推定する(S103)。そして、出力制御部130は、対象者情報を出力する(S104)。
 このように、第2の実施形態の状態推定装置100は、複数の対象者の位置情報と、対象者に対して計測された挙動に関する情報である挙動情報と、を取得する。また、状態推定装置100は、挙動情報に基づいて、対象者のそれぞれの活動状態を推定する。そして、状態推定装置100は、位置情報と活動状態とが、対象者ごとに示された情報である対象者情報を出力する。例えば、事件及び事故等の事象が発生した場合に、指令室のオペレータが対象者に指令を行うとする。状態推定装置100は、複数の対象者の位置情報と活動状態とを出力することができる。これにより、例えば、指令室のオペレータは、対象者のそれぞれの位置情報と活動状態とを確認することで、指令に対応可能な対象者を把握することができる。そのため、指令室のオペレータは、例えば、指令に対応可能な対象者に対して指令を送ることができるので、発生した事象に対してより迅速に対処させることができる。したがって、状態推定装置100は、対象者への指令を適切に行うことを支援することができる。
 また、第2の実施形態において、挙動情報は、対象者の運動データ及び音声データの少なくとも一方を含んでよい。そして、状態推定装置100は、運動データ及び音声データの少なくとも一方から、対象者のそれぞれの活動状態を推定してよい。これにより、状態推定装置100は、対象者の動作または発言等から活動状態を推定することができる。
 また、第2の実施形態の状態推定装置100は、位置情報と活動状態とを関連付けて地図上に示された情報を、対象者情報として出力してよい。このとき、状態推定装置100は、地図上に示された対象者の位置に、活動状態に応じて異なる態様の情報を表示してよい。これにより、指令室のオペレータは、直感的に対象者の活動状態を把握することができる。そのため、指令室のオペレータは、より迅速に指令に対応可能な対象者を把握することができる。
 [変形例1]
 状態推定装置100の各処理が行われるタイミングは、様々考えられる。例えば、S101乃至S104の処理は、一定期間ごとに行われてよい。また、S101乃至S104の処理は、指令システム10からの要求(すなわち指令室のオペレータの要求)によって行われてもよい。
 事件または事故等の事象が発生した場合に、指令システム10が通報を受け付けたとする。状態推定装置100は、通報が行われたことに応じて各処理を行ってよい。例えば、推定部120は、通報が行われた場合に、指令システム10から通報者の位置情報を取得する。例えば、通報者が携帯端末を利用して通報を行ったとする。通報者の位置情報は、当該携帯端末から送信された位置情報であってもよいし、この通報が行われた際に接続された基地局の位置情報であってもよい。推定部120は、通報者の位置情報から所定の範囲に存在する対象者を特定する。そして、推定部120は、特定した対象者の活動状態を推定する。
 このように、推定部120は、通報が行われた場合に、所定の範囲に位置する対象者の活動状態を推定してよい。
 [変形例2]
 活動状態は、ビジー状態及びフリー状態の二種類の状態のうちのいずれかを示す情報でなくてよい。活動状態は、ビジー状態、及びフリー状態に加え、さらに異なる状態を含む三種類以上の状態のうちのいずれかを示す情報であってよい。
 また、例えば、ビジー状態に複数のレベルが設定されていてもよい。例えば、レベル1のビジー状態は取り込み中を示し、レベル2のビジー状態は、取り込み中であるが緊急指令であれば対応可能を示してよい。この場合、例えば、推定部120は、挙動情報に基づいて、対象者が、レベル1のビジー状態、レベル2のビジー状態、及びフリー状態のいずれの状態であるかを推定する。このとき、推定部120は、機械学習モデルに挙動情報を入力し、機械学習モデルによって出力された情報から、対象者がいずれの状態であるか推定してよい。当該機械学習モデルは、例えば、挙動情報と、レベル1のビジー状態、レベル2のビジー状態、及びフリー状態を含む活動状態と、の関係を予め学習したモデルである。
 <第3の実施形態>
 次に、第3の実施形態の状態推定装置について説明する。第3の実施形態では、状態推定装置が出力する情報の更なる例を説明する。なお、第1及び第2の実施形態で説明した内容と重複する内容は、一部説明を省略する。
 [状態推定装置101の詳細]
 図8は、状態推定装置101の機能構成の一例を示すブロック図である。本実施形態において、状態推定装置101は、例えば、図3に示す状態推定装置100に代わり存在する。すなわち、状態推定装置101は、指令システム10と通信端末200とセンサ300と通信可能である。
 図8に示すように、状態推定装置101は、取得部111と推定部120と出力制御部131と予測部140とを備える。状態推定装置101は、状態推定装置100の処理に加え、以下に説明する処理を行ってよい。
 取得部111は、位置情報取得部1101と挙動情報取得部1102と属性情報取得部1103とを備える。属性情報取得部1103は、属性情報を取得する。属性情報は、対象者の属性を示す情報である。対象者の属性は、例えば、性別、年齢、所属、及び、経歴等である。属性情報は、例えば、対象者の識別情報と属性とが関連付けられた情報であってよい。すなわち、属性情報は、対象者ごとの属性が示される情報であってよい。
 属性情報は、例えば、状態推定装置101が備える記憶装置(図示せず)、または、状態推定装置101と通信可能な外部の装置に予め格納される。この場合、属性情報取得部1103は、推定部120によって活動状態が推定される対象者の属性情報を、属性情報が格納される装置から取得してよい。また、通信端末200に属性情報が格納されている場合、属性情報取得部1103は、通信端末200から属性情報を取得してもよい。
 属性情報は、指令に対応可能であるかどうかを判断する指標の一つとなる。例えば、事件が発生し、事件の被疑者に身体検査を行う必要があるとする。この場合、被疑者が女性であれば、身体検査を行う警察官は女性であることが好ましい。そこで、指令の内容が、身体検査を行うための人員の増援要請である場合、指令室のオペレータは、対象者の性別を考慮することが考えられる。
 このように、属性情報取得部1103は、例えば、性別を含む属性を示す属性情報を取得してよい。
 予測部140は、対象者の空き時間を予測する。具体的には、対象者がビジー状態である場合、予測部140は、当該対象者がフリー状態になるまでの時間を予測する。例えば、予測部140は、ディープラーニング等の各種の機械学習モデルに基づく方法で対象者の空き時間を予測してよい。この場合の機械学習モデルは、例えば、挙動情報、または、挙動情報及び位置情報と、空き時間と、の関係を予め学習させたモデルである。予測部140は、例えば、取得された挙動情報と位置情報とを当該機械学習モデルに入力し、出力として得られた情報を、対象者の空き時間として予測してよい。
 また、予測部140は、対象者のスケジュール情報に基づいて空き時間を予測してもよい。スケジュール情報は、対象者の行動予定を示す情報である。例えばスケジュール情報には、対象者が行う予定の行動内容と、行動内容を行う時間と、が含まれる。スケジュール情報は、例えば、状態推定装置101が有する記憶装置(図示せず)、または、状態推定装置101と通信可能な外部の装置に格納される。予測部140は、対象者のスケジュール情報を参照し、対象者が行う予定の行動が終了する時間までの時間を、空き時間として予測してよい。
 このように予測部140は、対象者の空き時間を予測する。予測部140は予測手段の一例である。
 出力制御部131は、対象者情報を出力する。図9は、対象者情報の一例を示す図である。図9の例では、図6と同様に、地図上にマーカーが重畳されている。当該マーカーは対象者がいる位置を示す。さらに、図9の例では、マーカーに対象者に関する情報が関連付けられている。例えば、対象者Aを示すマーカー付近に、マーカーが対象者Aを示すこと、対象者Aが男性であること、及び対象者Aの活動状態がフリー状態であることが示されている。このように、出力制御部131は、位置情報と活動状態と属性情報とが、対象者ごとに示された対象者情報を出力してよい。
 また、図9の例では、対象者Bが男性であり、対象者Bの活動状態がビジー状態であり、空き時間の目安が1時間であることが示されている。このように、出力制御部131は、対象者ごとの空き時間を示す情報を含む対象者情報を出力してよい。
 さらに、図9の例では、対象者Aは、塗りつぶされた丸のマーカーで示されているが、対象者Cはハッチングされた丸のマーカーで示されている。この例では、塗りつぶされた丸のマーカーは男性を示し、ハッチングされた丸のマーカーは女性を示す。このように、出力制御部131は、地図上に示された対象者の位置に、対象者の属性に応じて、異なる態様の情報を表示してよい。
 [状態推定装置101の動作例]
 次に、状態推定装置101の動作の一例を、図10を用いて説明する。
 図10は、状態推定装置101の動作の一例を説明するフローチャートである。S201及びS202の処理は、図7のS101及びS102の処理と同様であるため説明を省略する。
 属性情報取得部1103は、属性情報を取得する(S203)。このとき、属性情報取得部1103は、位置情報及び挙動情報の少なくとも一方が取得された対象者の属性情報を取得してよい。そして、推定部120は、挙動情報に基づいて、対象者のそれぞれの活動状態を推定する(S204)。
 また、予測部140は、対象者の空き時間を予測する(S205)。このとき、予測部140は、活動状態がビジー状態であると推定された対象者の空き時間を予測してよい。そして、出力制御部131は、対象者情報を出力する(S206)。このとき、出力制御部131は、対象者の位置情報及び活動状態に加え、属性情報及び空き時間を示す情報を含む対象者情報を出力してよい。
 このように、第3の実施形態の状態推定装置101は、対象者の性別を含む属性を示す情報である属性情報を取得し、位置情報と活動状態と属性情報とが、対象者ごとに示された対象者情報を出力してよい。例えば、指令の内容が、被疑者の身体検査を行うための人員の増援要請であるとする。この場合、被疑者の性別に応じて、身体検査を行う警察官の性別を考慮することが好ましい。これに対して、指令室のオペレータは、対象者の属性も把握することができる。そのため、指令室のオペレータは対象者の性別を考慮して、指令を通知することができる。すなわち、状態推定装置101は、対象者への指令を適切に行うことを支援することができる。
 また、第3の実施形態の状態推定装置101は、対象者の空き時間を予測し、対象者ごとの空き時間を示す情報を含む対象者情報を出力してよい。これにより、指令室のオペレータは、例えば、対象者がフリー状態になるまでの時間を把握することができる。そのため指令室のオペレータは、例えば、フリー状態となり次第対応する旨の指令を対象者に通知することができる。
 <第4の実施形態>
 次に、第4の実施形態の状態推定装置について説明する。第4の実施形態では、状態推定装置の更なる機能の一例を説明する。なお、第1、第2及び第3の実施形態で説明した内容と重複する内容は、一部説明を省略する。
 [状態推定装置102の詳細]
 図11は、状態推定装置102の機能構成の一例を示すブロック図である。本実施形態において、状態推定装置102は、例えば、図3に示す状態推定装置100に代わり存在する。すなわち、状態推定装置102は、指令システム10と通信端末200とセンサ300と通信可能である。
 図11に示すように、状態推定装置102は、取得部111と推定部120と出力制御部131と予測部140と受付部150と通知部160とを備える。状態推定装置102は、状態推定装置100及び状態推定装置101の処理に加え、以下に説明する処理を行ってよい。
 受付部150は、対象者からの入力を受け付ける。より具体的には、受付部150は、通信端末200から、対象者によって入力された情報を受け付ける。受け付ける情報の一例としては、ダミー指令要求である。ダミー指令要求は、ダミーの指令を通知させるための情報である。
 対象者は、不要不急の対応をしている場合がある。例えば、対象者が警察官であるとする。警察官は、住民から、不要不急の雑談、及び警察が対応するべきでない相談等を受ける場合がある。このような場合に、警察官は、通信端末200を用いて、ダミー指令要求の入力を行う。図12は、通信端末200の表示例を示す図である。図12の例では、通信端末200のディスプレイにおいて、ダミー指令の要請の有無を尋ねる情報が表示されている。このように、通信端末200は、ダミー指令の要請の有無を尋ねる情報を表示してよい。この例において、対象者が「要請する」を選択した場合、通信端末200は、ダミー指令要求を状態推定装置102に送信する。受付部150は、例えば、通信端末200から送信されたダミー指令要求を受け付ける。
 このように、受付部150は、対象者によるダミー指令要求を受け付ける。受付部150は、受付手段の一例である。
 通知部160は、指令を通知する。通知部160は通知手段の一例である。例えば、通知部160は、指令室のオペレータの操作により、対象者の通信端末200に指令を通知してよい。このように通知される指令は、例えば、指令室のオペレータにより入力された情報であってよい。例えば、指令には、発生した事象に関する情報、及び、対象者が行うべき行動等を示す情報が含まれる。このとき、通知部160は、指令室のオペレータにより選択された対象者に指令を通知してよい。また、通知部160は、活動状態がフリー状態である対象者に指令を通知してよい。すなわち、通知部160は、指令室のオペレータが対象者を選択せずとも、フリー状態の対象者に指令を通知してよい。
 さらに、通知部160は、ダミーの指令を通知してよい。具体的には、受付部150が、ダミー指令要求を受け付けた場合に、通知部160は、ダミー指令要求を行った対象者の通信端末200にダミーの指令を通知してよい。すなわち、通知部160は、ダミー指令要求を行った対象者に対して、ダミーの指令を通知する。
 通知された指令は、例えば、通信端末200のディスプレイにおいて出力されてよいし、通信端末200のスピーカーにおいて音声で出力されてよい。
 なお、通知部160は、通信端末200でない装置に指令を通知してよい。例えば、通知部160は、対象者が所有する無線機等の装置に指令を通知してよい。
 [状態推定装置102の動作例]
 次に、状態推定装置102の動作の一例を、図13を用いて説明する。
 図13は、状態推定装置102の動作の一例を説明するフローチャートである。本動作例では、状態推定装置102がダミーの指令を通知する際の処理を説明する。
 受付部150は、対象者の通信端末200からダミー指令要求を受け付ける(S301)。そして、通知部160は、ダミー指令要求を行った対象者に対して、ダミーの指令を通知する(S302)。
 このように第4の実施形態の状態推定装置102は、対象者によるダミー指令要求を受け付け、ダミー指令要求を行った対象者に対してダミーの指令を通知してよい。例えば、対象者が不要不急の対応を行っている場合がある。このときに対象者は、ダミーの指令を受け取ることができるので、対象者は、ダミーの指令を理由に不要不急の対応を中断できる可能性がある。すなわち、状態推定装置102は、不要不急の対応を中断することを所望する対象者を支援することができる。
 [変形例3]
 受付部150は、さらに、対象者から活動状態の入力を受け付けてもよい。具体的には、自身がビジー状態であるかフリー状態であるかを示す情報を、対象者が通信端末200に入力する。通信端末200は、入力された情報を状態推定装置102に送信する。受付部150は、状態推定装置102から、入力された情報を受け付ける。
 このとき、推定部120は、受付部150によって受け付けられた情報に基づいて、対象者の活動状態を推定してよい。例えば、受付部150によって、対象者がビジー状態であることを示す情報が受け付けられたとする。このとき、推定部120は、当該対象者をビジー状態であると推定してよい。
 このように、受付部150は、ビジー状態か否かを示す情報を含む入力を受け付けてよい。また、推定部120は、入力に含まれる情報を、入力を行った対象者の活動状態として推定してよい。
 なお、通信端末200が車両に搭載される場合がある。例えば、対象者が警察官である場合、パトロールカーに通信端末200が搭載される。例えば、パトロールカーに乗車中の警察官は、他の業務に対応中であるときに、パトロールカーに搭載された通信端末200に対応中であることを示す情報を入力する。通信端末200は、対応中であることを示す情報を状態推定装置102に送信する。受付部150が対応中であることを示す情報を受け付けると、推定部120は、当該警察官の活動状態をビジー状態として推定する。
 <状態推定装置のハードウェアの構成例>
 上述した第1、第2、第3、及び第4の実施形態の状態推定装置を構成するハードウェアについて説明する。図14は、各実施形態における状態推定装置を実現するコンピュータ装置のハードウェア構成の一例を示すブロック図である。コンピュータ装置90において、各実施形態及び各変形例で説明した、状態推定装置、及び状態推定方法が実現される。
 図14に示すように、コンピュータ装置90は、プロセッサ91、RAM(Random Access Memory)92、ROM(Read Only Memory)93、記憶装置94、入出力インタフェース95、バス96、及びドライブ装置97を備える。なお、状態推定装置は、複数の電気回路によって実現されてもよい。
 記憶装置94は、プログラム(コンピュータプログラム)98を格納する。プロセッサ91は、RAM92を用いて本状態推定装置のプログラム98を実行する。具体的には、例えば、プログラム98は、図2、図7、図10、及び図13に示す処理をコンピュータに実行させるプログラムを含む。プロセッサ91が、プログラム98を実行することに応じて、本状態推定装置の各構成要素の機能が実現される。プログラム98は、ROM93に記憶されていてもよい。また、プログラム98は、記憶媒体80に記録され、ドライブ装置97を用いて読み出されてもよいし、図示しない外部装置から図示しないネットワークを介してコンピュータ装置90に送信されてもよい。
 入出力インタフェース95は、周辺機器(キーボード、マウス、表示装置など)99とデータをやり取りする。入出力インタフェース95は、データを取得または出力する手段として機能する。バス96は、各構成要素を接続する。
 なお、状態推定装置の実現方法には様々な変形例がある。例えば、状態推定装置は、専用の装置として実現することができる。また、状態推定装置は、複数の装置の組み合わせに基づいて実現することができる。
 各実施形態の機能における各構成要素を実現するためのプログラムを記憶媒体に記録させ、該記憶媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記憶媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記憶媒体、及びそのプログラム自体も各実施形態に含まれる。
 該記憶媒体は、例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD(Compact Disc)-ROM、磁気テープ、不揮発性メモリカード、またはROMであるが、この例に限られない。また該記憶媒体に記録されたプログラムは、単体で処理を実行しているプログラムに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS(Operating System)上で動作して処理を実行するプログラムも各実施形態の範疇に含まれる。
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解しうる様々な変更をすることができる。
 上記実施形態及び変形例は、適宜組み合わせることが可能である。
 上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下には限られない。
 <付記>
 [付記1]
 複数の対象者の位置情報と、前記対象者に対して計測された挙動に関する情報である挙動情報と、を取得する取得手段と、
 前記挙動情報に基づいて、前記対象者のそれぞれの活動状態を推定する推定手段と、
 前記位置情報と前記活動状態とが、前記対象者ごとに示された情報である対象者情報を出力する出力制御手段と、を備える、
 状態推定装置。
 [付記2]
 前記挙動情報は、前記対象者の運動データ及び音声データの少なくとも一方を含み、
 前記推定手段は、前記運動データ及び前記音声データの少なくとも一方から、前記対象者のそれぞれの前記活動状態を推定する、
 付記1に記載の状態推定装置。
 [付記3]
 前記出力制御手段は、前記位置情報と前記活動状態とを関連付けて地図上に示された情報を、前記対象者情報として出力する、
 付記1または2に記載の状態推定装置。
 [付記4]
 前記出力制御手段は、地図上に示された前記対象者の位置に、前記活動状態に応じて異なる態様の情報を表示する、
 付記3に記載の状態推定装置。
 [付記5]
 前記取得手段は、前記対象者の性別を含む属性を示す情報である属性情報を取得し、
 前記出力制御手段は、前記位置情報と前記活動状態と前記属性情報とが、前記対象者ごとに示された前記対象者情報を出力する、
 付記1乃至4のいずれかに記載の状態推定装置。
 [付記6]
 前記対象者の空き時間を予測する予測手段を備え、
 前記対象者ごとの空き時間を示す情報を含む前記対象者情報を出力する、
 付記1乃至5のいずれかに記載の状態推定装置。
 [付記7]
 所定の範囲に位置し、前記活動状態がフリー状態である前記対象者に、指令を通知する通知手段を備える、
 付記1乃至6のいずれかに記載の状態推定装置。
 [付記8]
 前記対象者によるダミー指令要求を受け付ける受付手段を備え、
 前記通知手段は、前記ダミー指令要求を行った対象者に対してダミーの指令を通知する、
 付記7に記載の状態推定装置。
 [付記9]
 前記受付手段は、ビジー状態か否かを示す情報を含む入力を受け付け、
 前記推定手段は、前記入力に含まれる情報を、前記入力を行った対象者の前記活動状態として推定する、
 付記8に記載の状態推定装置。
 [付記10]
 前記推定手段は、通報が行われた場合に、所定の範囲に位置する対象者の前記活動状態を推定する、
 付記1乃至9のいずれかに記載の状態推定装置。
 [付記11]
 前記出力制御手段は、地図上に示された前記対象者の位置に、前記対象者の前記属性情報に応じて、異なる態様の情報を表示する、
 付記5に記載の状態推定装置。
 [付記12]
 前記対象者は警察官、消防隊、及び救急隊の少なくともいずれかである、
 付記1乃至11のいずれかに記載の状態推定装置。
 [付記13]
 複数の対象者の位置情報と、前記対象者に対して計測された挙動に関する情報である挙動情報と、を取得し、
 前記挙動情報に基づいて、前記対象者のそれぞれの活動状態を推定し、
 前記位置情報と前記活動状態とが、前記対象者ごとに示された情報である対象者情報を出力する、
 状態推定方法。
 [付記14]
 複数の対象者の位置情報と、前記対象者に対して計測された挙動に関する情報である挙動情報と、を取得する処理と、
 前記挙動情報に基づいて、前記対象者のそれぞれの活動状態を推定する処理と、
 前記位置情報と前記活動状態とが、前記対象者ごとに示された情報である対象者情報を出力する処理と、をコンピュータに実行させるプログラムを格納する、
 コンピュータ読み取り可能な記憶媒体。
 10 指令システム
 100、101、102 状態推定装置
 110 取得部
 120 推定部
 130、131 出力制御部
 140 予測部
 150 受付部
 160 通知部
 200 通信端末
 300 センサ
 1101 位置情報取得部
 1102 挙動情報取得部
 1103 属性情報取得部

Claims (14)

  1.  複数の対象者の位置情報と、前記対象者に対して計測された挙動に関する情報である挙動情報と、を取得する取得手段と、
     前記挙動情報に基づいて、前記対象者のそれぞれの活動状態を推定する推定手段と、
     前記位置情報と前記活動状態とが、前記対象者ごとに示された情報である対象者情報を出力する出力制御手段と、を備える、
     状態推定装置。
  2.  前記挙動情報は、前記対象者の運動データ及び音声データの少なくとも一方を含み、
     前記推定手段は、前記運動データ及び前記音声データの少なくとも一方から、前記対象者のそれぞれの前記活動状態を推定する、
     請求項1に記載の状態推定装置。
  3.  前記出力制御手段は、前記位置情報と前記活動状態とを関連付けて地図上に示された情報を、前記対象者情報として出力する、
     請求項1または2に記載の状態推定装置。
  4.  前記出力制御手段は、地図上に示された前記対象者の位置に、前記活動状態に応じて異なる態様の情報を表示する、
     請求項3に記載の状態推定装置。
  5.  前記取得手段は、前記対象者の性別を含む属性を示す情報である属性情報を取得し、
     前記出力制御手段は、前記位置情報と前記活動状態と前記属性情報とが、前記対象者ごとに示された前記対象者情報を出力する、
     請求項1乃至4のいずれかに記載の状態推定装置。
  6.  前記対象者の空き時間を予測する予測手段を備え、
     前記対象者ごとの空き時間を示す情報を含む前記対象者情報を出力する、
     請求項1乃至5のいずれかに記載の状態推定装置。
  7.  所定の範囲に位置し、前記活動状態がフリー状態である前記対象者に、指令を通知する通知手段を備える、
     請求項1乃至6のいずれかに記載の状態推定装置。
  8.  前記対象者によるダミー指令要求を受け付ける受付手段を備え、
     前記通知手段は、前記ダミー指令要求を行った対象者に対してダミーの指令を通知する、
     請求項7に記載の状態推定装置。
  9.  前記受付手段は、ビジー状態か否かを示す情報を含む入力を受け付け、
     前記推定手段は、前記入力に含まれる情報を、前記入力を行った対象者の前記活動状態として推定する、
     請求項8に記載の状態推定装置。
  10.  前記推定手段は、通報が行われた場合に、所定の範囲に位置する対象者の前記活動状態を推定する、
     請求項1乃至9のいずれかに記載の状態推定装置。
  11.  前記出力制御手段は、地図上に示された前記対象者の位置に、前記対象者の前記属性情報に応じて、異なる態様の情報を表示する、
     請求項5に記載の状態推定装置。
  12.  前記対象者は警察官、消防隊、及び救急隊の少なくともいずれかである、
     請求項1乃至11のいずれかに記載の状態推定装置。
  13.  複数の対象者の位置情報と、前記対象者に対して計測された挙動に関する情報である挙動情報と、を取得し、
     前記挙動情報に基づいて、前記対象者のそれぞれの活動状態を推定し、
     前記位置情報と前記活動状態とが、前記対象者ごとに示された情報である対象者情報を出力する、
     状態推定方法。
  14.  複数の対象者の位置情報と、前記対象者に対して計測された挙動に関する情報である挙動情報と、を取得する処理と、
     前記挙動情報に基づいて、前記対象者のそれぞれの活動状態を推定する処理と、
     前記位置情報と前記活動状態とが、前記対象者ごとに示された情報である対象者情報を出力する処理と、をコンピュータに実行させるプログラムを格納する、
     コンピュータ読み取り可能な記憶媒体。
PCT/JP2022/010945 2022-03-11 2022-03-11 状態推定装置、状態推定方法、及びコンピュータ読み取り可能な記憶媒体 WO2023170941A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/010945 WO2023170941A1 (ja) 2022-03-11 2022-03-11 状態推定装置、状態推定方法、及びコンピュータ読み取り可能な記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/010945 WO2023170941A1 (ja) 2022-03-11 2022-03-11 状態推定装置、状態推定方法、及びコンピュータ読み取り可能な記憶媒体

Publications (1)

Publication Number Publication Date
WO2023170941A1 true WO2023170941A1 (ja) 2023-09-14

Family

ID=87936450

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/010945 WO2023170941A1 (ja) 2022-03-11 2022-03-11 状態推定装置、状態推定方法、及びコンピュータ読み取り可能な記憶媒体

Country Status (1)

Country Link
WO (1) WO2023170941A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002183380A (ja) * 2000-12-19 2002-06-28 Casio Comput Co Ltd 支援者募集派遣装置および支援者募集派遣方法並びにそのプログラム記録媒体
JP2003274018A (ja) * 2002-01-10 2003-09-26 Hiromitsu Fukumi 電話機のダミー通報システム
US20090284348A1 (en) * 2008-05-09 2009-11-19 Anshel Pfeffer Incident response system
JP2015103141A (ja) * 2013-11-27 2015-06-04 日本電信電話株式会社 サーバ装置、及び情報通知方法
JP2016096574A (ja) * 2009-11-13 2016-05-26 ゾール メディカル コーポレイションZOLL Medical Corporation 地域密着型応答システム
KR20200061564A (ko) * 2018-11-26 2020-06-03 한국로봇융합연구원 복합재난 사고대응 지원용 지휘통제시스템

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002183380A (ja) * 2000-12-19 2002-06-28 Casio Comput Co Ltd 支援者募集派遣装置および支援者募集派遣方法並びにそのプログラム記録媒体
JP2003274018A (ja) * 2002-01-10 2003-09-26 Hiromitsu Fukumi 電話機のダミー通報システム
US20090284348A1 (en) * 2008-05-09 2009-11-19 Anshel Pfeffer Incident response system
JP2016096574A (ja) * 2009-11-13 2016-05-26 ゾール メディカル コーポレイションZOLL Medical Corporation 地域密着型応答システム
JP2015103141A (ja) * 2013-11-27 2015-06-04 日本電信電話株式会社 サーバ装置、及び情報通知方法
KR20200061564A (ko) * 2018-11-26 2020-06-03 한국로봇융합연구원 복합재난 사고대응 지원용 지휘통제시스템

Similar Documents

Publication Publication Date Title
US11004451B2 (en) System for processing sound data and method of controlling system
JP6930618B2 (ja) ナビゲーションシステム、クライアント端末装置、制御方法、記憶媒体、およびプログラム
JP6219417B2 (ja) 地域密着型応答システム
US10511932B2 (en) Method and apparatus for operating electronic device based on environmental information
CN107498553B (zh) 机器人控制系统和机器人控制方法
EP2915319B1 (en) Managing a context model in a mobile device by assigning context labels for data clusters
CN100432913C (zh) 信息采集和处理系统及其方法
GB2577010A (en) Method, device, and system for electronic digital assistant for natural language detection of a user status change and corresponding modification
JP2009129338A (ja) 対人関係評価装置、対人関係評価方法、対人関係評価システム、端末装置
US20140167955A1 (en) Emergency responder accountability alarm
JP2015529877A (ja) 緊急対応機器の位置特定装置を含む応答システム
US9020918B2 (en) Information registration device, information registration method, information registration system, information presentation device, informaton presentation method, informaton presentaton system, and program
WO2013169794A2 (en) Calendar matching of inferred contexts and label propagation
JP3277172B2 (ja) 対話と通信の計測及び検証
CN104285427A (zh) 根据通过使不同数据源相关确定的上下文配置终端装置
KR20180081922A (ko) 전자 장치의 입력 음성에 대한 응답 방법 및 그 전자 장치
KR20180057233A (ko) 스마트 밴드 및 스마트 밴드 관리 서버
JP6093993B1 (ja) 救急手配システム及び救急手配プログラム
US20240047046A1 (en) Virtual augmentation of clinical care environments
CN114724727A (zh) 一种疫情预测的方法及电子设备
CN113988487B (zh) 高温防灾指数检测方法、装置、设备、存储介质及产品
WO2023170941A1 (ja) 状態推定装置、状態推定方法、及びコンピュータ読み取り可能な記憶媒体
US9992536B2 (en) Information provision device, information provision method, and information provision system
JP7363689B2 (ja) 通信端末及び救護システム
JP2010015255A (ja) 管理システム、コンピュータプログラム及び管理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22930922

Country of ref document: EP

Kind code of ref document: A1