WO2019186977A1 - 情報管理システム - Google Patents

情報管理システム Download PDF

Info

Publication number
WO2019186977A1
WO2019186977A1 PCT/JP2018/013480 JP2018013480W WO2019186977A1 WO 2019186977 A1 WO2019186977 A1 WO 2019186977A1 JP 2018013480 W JP2018013480 W JP 2018013480W WO 2019186977 A1 WO2019186977 A1 WO 2019186977A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
unit
site
notification
user
Prior art date
Application number
PCT/JP2018/013480
Other languages
English (en)
French (fr)
Inventor
正典 纐纈
Original Assignee
サン電子株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サン電子株式会社 filed Critical サン電子株式会社
Priority to PCT/JP2018/013480 priority Critical patent/WO2019186977A1/ja
Priority to JP2020508773A priority patent/JPWO2019186977A1/ja
Publication of WO2019186977A1 publication Critical patent/WO2019186977A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the technology disclosed in this specification relates to an information management system for managing information related to a site.
  • Patent Document 1 Japanese Patent No. 4736096 (hereinafter referred to as Patent Document 1), feature data is extracted by analyzing a video image taken by a surveillance camera, and it is determined that the collation result of the extracted feature data is not permitted.
  • Patent Document 1 Japanese Patent No. 4736096 (hereinafter referred to as Patent Document 1), feature data is extracted by analyzing a video image taken by a surveillance camera, and it is determined that the collation result of the extracted feature data is not permitted.
  • Patent Document 2 Japanese Patent No. 4736096
  • This specification discloses a technology that allows a user existing on the site to appropriately perform the necessary response according to the situation at the site.
  • An information management system disclosed in this specification includes a frame that can be worn on a user's head, a field information generation unit that is mounted on the frame and generates field information about the field, and is mounted on the frame.
  • a notification unit capable of executing the notification operation, and a control unit.
  • the control unit relates to whether an acquisition unit that acquires the site information from the site information generation unit and whether target information corresponding to the site information acquired by the acquisition unit is stored in a storage device.
  • a determination unit that performs determination; and the determination unit stores the target information in the storage device and the target information is not stored in the storage device.
  • the notification unit is supplied with a first execution instruction for executing the first notification operation, and the target information is stored in the storage device by the determination unit.
  • an instruction supply unit that does not supply the first execution instruction when a second determination is made that is the other of the fact that the target information is not stored in the storage device; Is provided.
  • the notification unit performs the first notification operation when acquiring the first execution instruction from the instruction supply unit.
  • the field information generation unit and the notification unit are provided in the frame that can be worn on the user's head. Therefore, when the user who wears the frame on the head exists at the site, the site information generation unit can generate site information related to the site where the user exists, and the notification unit performs the first notification operation. Can be executed.
  • the notification unit performs the first notification operation, the target information corresponding to the site information generated at the site is stored in the storage device by the user existing at the site (or the target information is stored in the storage device). Can be grasped).
  • the frame can be worn on the user's head, the user can use both hands for purposes other than the generation of the field information when the first notification operation is performed. High nature. Therefore, a user (for example, a security officer or the like) existing on the site can appropriately perform a necessary response according to the situation on the site.
  • the “field information” is, for example, an image (for example, an image of a person's face, a landscape image, an image of various documents such as a passport or a driver's license, etc. including at least one of a moving image and a still image).
  • Various types of information related to the site such as user state information indicating the state (for example, pulse, sweating, blood pressure, etc.) may be included.
  • the above-mentioned “on-site information generation unit” is information relating to the site, such as a camera, a microphone, various sensors (sensors that detect coordinate information, odor, ph value, alcohol content, blood sensor, DNA detection means, etc.) Various units that can collect the data may be included.
  • the “notification unit” may include at least one of a display unit, an audio output unit, and a vibration generation unit.
  • the “first notification operation” may include at least one of displaying a message (including characters, images, and the like) on the display unit, outputting sound, and generating vibration.
  • the notification unit may include a display unit arranged in a range facing the user's eyes in a state where the frame is mounted on the head of the user.
  • the first execution instruction may include message data representing a message.
  • the first notification operation may include displaying the message represented by the message data included in the first execution instruction on the display unit.
  • target information corresponding to the site information generated on site is stored. It can be grasped that the information is stored in the device (or that the target information is not stored in the storage device). The user does not need to move the line of sight to another range (for example, hand) in order to view the message. Therefore, the user can quickly grasp that the target information is (or is not) stored in the storage device.
  • the user who exists in the field can perform the necessary response
  • the “message” may be a part of the target information (that is, an image, character information, or the like included in the target information), or included in the target information such as a specific attention display or a specific color sign. There may be no information.
  • the message may include at least a part of the target information.
  • the user can grasp that the target information is stored (or not) in the storage device by looking at the message displayed in the range facing the eye, and at least one of the target information.
  • the contents of the department can also be grasped.
  • the user can grasp the situation in the field more appropriately without moving the line of sight to another range (for example, at hand).
  • the instruction supply unit performs a second execution for causing the notification unit to execute a second notification operation different from the first notification operation in the case where the second determination is performed by the determination unit. Instructions may be supplied.
  • the notification unit may execute the second notification operation when acquiring the second execution instruction from the instruction supply unit.
  • the notification unit when the notification unit performs the second notification operation, the user who exists in the field does not store the target information corresponding to the field information generated in the field in the storage device (or That the target information is stored in the storage device). Therefore, a user (for example, a security officer or the like) existing on the site can perform a necessary response according to the situation on the site more appropriately.
  • the control unit may further include a storage control unit that stores the field information acquired by the acquisition unit in the storage device.
  • the acquisition unit when the site information is acquired by the acquisition unit, the acquired site information is stored in the storage device.
  • Various on-site information generated at the site can be stored in the storage device.
  • Information about many sites can be stored in the storage device.
  • the control unit can appropriately determine whether or not the target information corresponding to the field information is stored in the storage device based on more information.
  • the information management system includes a terminal device including the frame, the site information generation unit, and the notification unit, and a server separate from the terminal device, the server including the control unit and an input unit; , May be included.
  • the instruction supply unit may supply a specific execution instruction for causing the notification unit to execute a specific notification operation when a notification start instruction is input to the input unit.
  • the notification unit may execute the specific notification operation when acquiring the specific execution instruction from the instruction supply unit.
  • the terminal device causes the notification unit to execute a specific notification operation when acquiring the specific execution instruction supplied in response to the notification start instruction being input to the input unit of the server. Therefore, even if the terminal device and the server are arranged apart from each other, if a notification start instruction is input at a desired timing of a server user (for example, a system administrator), the terminal device is specified.
  • the notification operation can be executed.
  • the terminal device can be appropriately managed by the user of the server.
  • the site information generation unit may include an image generation unit for generating a site image related to the site.
  • the site information may include the site image.
  • the site information generation unit generates site information including the site image generated by the image generation unit.
  • the on-site image may include, for example, an image of a person, an object, a landscape, etc. existing on the site.
  • the control unit determines whether or not the target information is stored in the storage device based on an image of a person, an object, a landscape, or the like included in such an on-site image, and the first execution instruction is sent to the notification unit Can be supplied.
  • the on-site information generation unit may include a position information generation unit for generating position information for specifying the position of the site.
  • the site information may include the position information.
  • the site information generation unit generates site information including the location information generated by the location information generation unit.
  • the position information may include information that can specify the position of the site, such as the coordinate information of the site, the address of the site, and the like.
  • the control unit can determine whether the target information is stored in the storage device, and can supply the first execution instruction to the notification unit.
  • the on-site information generation unit may include an audio information generation unit for generating audio information representing audio generated at the site.
  • the site information may include the audio information.
  • the on-site information generation unit generates on-site information including the audio information generated by the audio information generation unit.
  • the audio information can include, for example, various sounds generated in the field (for example, background sounds, human speech, etc.).
  • the control unit can determine whether the target information is stored in the storage device based on such audio information, and supply the first execution instruction to the notification unit.
  • control method a control method, a computer program, and a computer-readable recording medium storing the computer program for realizing the information processing system are also novel and useful.
  • An outline of the information management system 2 is shown.
  • summary of the terminal device 10 is shown.
  • the block diagram of the terminal device 10 is shown.
  • a block diagram of the server 100 is shown.
  • 1st Example the sequence diagram of the process which the terminal device 10 and the server 100 perform in normal time is shown.
  • the example of the visual field range 300 through the display part 12 of the user U1 of the terminal device 10 at the normal time is shown.
  • a mode that the frame image 310 and the message 320 were displayed in the visual field range 300 of the user U1 of the terminal device 10 at the normal time is shown.
  • the sequence diagram of the process which the terminal device 10 and the server 100 perform in the command mode is shown.
  • the example of the command screen 400 displayed on the display part 102 of the server 100 at the time of command mode is shown.
  • a mode that the frame image 510 and the message 520 were displayed in the visual field range 500 of the user U1 of the terminal device 10 at the time of command mode is shown.
  • 2nd Example the sequence diagram of the process which the terminal device 10 and the server 100 perform in normal time is shown.
  • the information management system 2 shown in FIG. 1 manages information on the site 200 where the user U1 who is a security officer, an investigator, etc. is currently located, and is a suspicious person, a criminal offender, a suspect, etc. This is a system for providing information on the user U1 to the user U1.
  • the information management system 2 according to the present embodiment may be a system that supports criminal investigation, security, and the like.
  • the information management system 2 in FIG. 1 includes a terminal device 10 and a server 100.
  • the terminal device 10 can execute Wi-Fi communication with the server 100 via the Internet 4.
  • the terminal device 10 is mounted on the head of the user U1 located at the site 200.
  • FIG. 1 The example of FIG.
  • the actual information management system 2 includes a plurality of terminal devices that can communicate with the server 100. Also good. In that case, each of the plurality of terminal devices may be mounted on the heads of different users.
  • a terminal device 10 shown in FIG. 1 is an image display device (so-called head mounted display) that is used by being mounted on the head of a user U1 located at a site 200.
  • the terminal device 10 includes a frame 11, a display unit 12, a cover 13, an operation unit 14, a sensor 30, a microphone 32, a speaker 34, a camera 36, and a vibration generating unit. 38 and a control box 40.
  • the frame 11 is a substantially spectacle frame-shaped member.
  • the user U1 can wear the terminal device 10 on the head by wearing the frame 11 so as to wear glasses from the front side of the face.
  • the display unit 12 is a translucent display, and is provided in a range facing the eyes of the user U1 when the user U1 wears the frame 11 on the head.
  • the display unit 12 includes two left and right light guide plates 12a and a projection unit 12b.
  • the light guide plate 12a is a translucent substrate.
  • the light guide plate 12a is made of, for example, glass or translucent resin.
  • the two light guide plates 12a are arranged in ranges that respectively face the user's eyes.
  • the user U1 can visually recognize the surroundings through the light guide plate 12a.
  • the light guide plate 12a incorporates a half mirror member (not shown) for reflecting the light representing the image projected from the projection unit 12b toward the eyes.
  • the projection unit 12b is a member that projects light representing an image on each light guide plate 12a.
  • the two projection parts 12b are provided on the lateral sides of the left and right light guide plates 12a.
  • the projection unit 12b projects a predetermined image (for example, the frame image 310 and the message 320 in FIG. 6) on the light guide plate 12a in accordance with an instruction from the control unit 20 (see FIG. 3).
  • the user U1 can detect the real-world object or the real-world object or / and the real-world object as if the predetermined image was synthesized at a predetermined position in the space through the light guide plate 12a. / And space and a predetermined image can be seen.
  • control unit 20 displays a desired screen on the light guide plate 12a by instructing the projection unit 12b to project an image
  • the projection unit 12b and the light guide plate 12a The description of the operation is omitted, and it may be simply expressed as “the control unit 20 causes the display unit 12 to display an image”.
  • the cover 13 is a translucent protective member disposed in front of the two light guide plates 12a. That is, the user U1 wearing the terminal device 10 on the head can visually recognize the surroundings through the light guide plate 12a and the cover 13.
  • the operation unit 14 includes buttons, dials, and the like.
  • the user U1 can input various operations to the terminal device 10 by operating the operation unit 14.
  • the Sensor 30 includes a plurality of sensors.
  • the sensor 30 includes a sensor for detecting the pulse rate of the user U1 wearing the terminal device 10 and a sweating state (ie, a biosensor), and a sensor for measuring a ph value of soil or liquid at the site 200 ( That is, a ph sensor), a sensor for detecting blood components and blood types discovered at the site 200 (ie, blood sensor), and a sensor for detecting odor components of substances existing at the site 200 (ie, odor sensor). And at least one of sensors (ie, DNA sensors) for detecting genetic information of living organisms existing at the site 200.
  • the sensor 30 is attached to a part of the frame 11.
  • the microphone 32 is a voice input means for inputting various voices such as a voice of the user U1 wearing the terminal device 10 and surrounding sounds (for example, background sounds of the site 200, voices of others of the site 200).
  • the microphone 32 is attached to a part of the frame 11. When the user U1 wears the frame 11 on the head, the microphone 32 is arranged near the mouth of the user U1 (see FIG. 1). The user U1 can move the microphone 32 and change the arrangement position as appropriate.
  • the speaker 34 is a sound output means for outputting various sounds such as an alarm sound.
  • the speaker 34 is also attached to a part of the frame 11.
  • the camera 36 is a camera for photographing a range corresponding to the field of view of the user U1 wearing the terminal device 10 (that is, the scene 200). In the example of FIG. 2, three cameras 36 are provided. The number of cameras 36 is not limited to three and may be one or two.
  • the vibration generating unit 38 is a driving member that generates vibration.
  • the vibration generator 38 includes a small motor or the like.
  • the vibration generator 38 is built in a part of the frame 11.
  • the control box 40 is a control device built in a part of the frame 11.
  • the control box 40 accommodates each element that controls the control system of the terminal device 10. Specifically, as shown in FIG. 3, the control box 40 accommodates a control unit 20, a memory 22, a GPS receiver 24, and a Wi-Fi interface 26.
  • the interface is described as “I / F”.
  • the control unit 20 executes various processes according to the program stored in the memory 22. As shown in FIG. 3, the control unit 20 includes a display unit 12, an operation unit 14, a sensor 30, a microphone 32, a speaker 34, a camera 36, a vibration generation unit 38, a memory 22, a GPS receiver 24, and Wi. -It is electrically connected to the FiI / F 26 and can control the operation of each of these elements.
  • the memory 22 includes a ROM, a RAM, a hard disk, and the like.
  • the memory 22 stores various programs.
  • the memory 22 also stores a unique terminal ID assigned to the terminal device 10 itself.
  • the memory 22 also has an area for storing various information generated in accordance with processing executed by the control unit 20.
  • the GPS receiver 24 is a device for specifying its own position by receiving a signal from a GPS satellite (not shown).
  • the GPS receiver 24 can generate position information indicating its own position.
  • the Wi-Fi I / F 26 is an I / F for executing Wi-Fi communication with the server 100 via the Internet 4.
  • a server 100 illustrated in FIG. 1 is a server installed by an administrator of the information management system 2. As illustrated in FIG. 4, the server 100 includes a display unit 102, an operation unit 104, a Wi-Fi I / F 106, a control unit 120, and a memory 122.
  • the display unit 102 is a display for displaying various information.
  • the operation unit 104 includes a keyboard and a mouse.
  • a user of the server 100 (for example, an investigation conductor, a security conductor, etc.) can input various instructions to the server 100 by operating the operation unit 104.
  • the Wi-Fi I / F 106 is an I / F for executing Wi-Fi communication with the terminal device 10 via the Internet 4.
  • the control unit 120 executes various processes according to the program stored in the memory 122. Further, as shown in FIG. 4, the control unit 120 is electrically connected to the display unit 102, the operation unit 104, the Wi-Fi I / F 106, and the memory 122, and controls the operation of each of these elements. can do.
  • the memory 122 includes a ROM, a RAM, a hard disk, and the like.
  • the memory 122 stores various programs.
  • the memory 122 stores a database 130 in addition to the program.
  • the database 130 is a data group formed by storing site information received from a plurality of terminal devices including the terminal device 10.
  • the database 130 stores various information on each site.
  • the database 130 also stores investigation information (for example, personal data, sighting data, etc. of suspicious persons, pre-criminals, suspects, etc. (hereinafter, suspects)).
  • investigation information for example, personal data, sighting data, etc. of suspicious persons, pre-criminals, suspects, etc. (hereinafter, suspects)
  • a person who is permitted to pass in the database 130 instead of the investigation information hereinafter referred to as “permitted to pass”. May be stored.
  • the information management system 2 (that is, the terminal device 10 and the server 100) of the present embodiment executes each process shown in FIG. Then, when a predetermined command start operation is input to the server 100 and the server 100 performs an operation in the command mode, the terminal device 10 and the server 100 are shown in FIG. 8 in parallel with each process of FIG. Each process is executed.
  • the control unit 20 of the terminal device 10 generates site information regarding the site 200. Specifically, in S10, the control unit 20 detects the on-site image (moving image or still image) captured by the camera 36, and various sensor detection information detected by the sensor 30 (for example, the terminal device 10 being attached).
  • User biometric information such as the user's U1 pulse rate, sweating state, etc., ph values of soil and liquid at the site 200, blood components found at the site 200, blood types, etc., representing the odor components of substances present at the site 200
  • Various information such as information, genetic information of organisms existing in the field 200, voice information of the field 200 detected by the microphone 32, position information generated by the GPS receiver 24, and the like.
  • On-site information representing the situation of the on-site 200 is generated based on various information and information such as the current time. That is, the on-site information generated in S10 includes the above-described on-site image, sensor detection information, audio information, position information, and the like.
  • FIG. 6 shows the field of view 300 of the user U1 through the display unit 12 at the time of S10.
  • the camera 36 generates an on-site image corresponding to the field-of-view range 300 in FIG.
  • the view range 300 includes a person M1.
  • the on-site image generated by the camera 36 also includes an image of the person M1.
  • the site information generated in S10 includes a site image representing the field of view 300 of the user U1 at that time.
  • control unit 20 supplies the on-site information generated in S10 to the server 100 through the Wi-Fi I / F 26 using Wi-Fi communication.
  • control unit 120 of the server 100 acquires the site information in S12
  • the control unit 120 stores the acquired site information in the database 130 in S14.
  • new site information is accumulated in the database 130.
  • the control unit 120 refers to the database 130 and determines whether there is target information corresponding to the site information acquired in S12. Specifically, in S16, the control unit 120, based on the on-site image, position information, sensor detection information, audio information, etc. included in the on-site information acquired in S12, information that matches each of these information, Alternatively, it is determined whether or not investigation information (for example, personal data of a suspect, sighting data, etc.) stored in association with information related to each of the information exists. When such investigation information is stored in the database 130, the control unit 120 determines YES in S16, and proceeds to S18. The investigation information discovered when YES is determined in S16 is referred to as “target information”.
  • the personal data of the suspect including the person image matching the person image (that is, an example of the investigation information) is stored in the database 130. If stored in the control unit 120, the control unit 120 determines YES in S16. In that case, the personal data of the suspect is an example of “target information”.
  • the image of the identification card eg, passport, driver's license, etc.
  • the identity verification information described in the identification card and when personal data (an example of investigation information) of a suspect including matching identity verification information is stored in the database 130, the control unit 120 determines YES in S16. In that case as well, the personal data of the suspect is an example of “target information”.
  • control unit 120 determines NO in S16, and proceeds to S24.
  • the control unit 120 generates a first execution instruction.
  • the first execution instruction is a command for instructing the terminal device 10 to execute a predetermined first notification operation.
  • the first execution instruction includes message data indicating at least a part of the target information (for example, a face image, text data, etc. included in the personal data of the suspect).
  • control unit 120 supplies the first execution instruction generated in S18 to the terminal device 10 via the Wi-Fi I / F 106 using Wi-Fi communication.
  • the control unit 20 of the terminal device 10 acquires the first execution instruction in S20, the control unit 20 executes the first notification operation in S22 according to the acquired first execution instruction.
  • the first notification operation a message represented by message data included in the first execution instruction (that is, a part of target information) is displayed on the display unit 12, and other images are displayed on the display unit 12. And outputting a predetermined notification sound from the speaker 34 and causing the vibration generating unit 38 to generate a vibration indicating the notification.
  • the user U ⁇ b> 1 can grasp that there is target information related to the site 200 (for example, a suspect related to the site 200 exists). . Further, the user U1 can grasp a part of the target information (for example, a face image of a suspect or the like) by looking at a message or the like displayed on the display unit 12.
  • FIG. 7 shows the view range 300 of the user U1 through the display unit 12 at the time of S22 after the field image of the view range 300 of FIG. 6 is generated (S10).
  • the view range 300 includes a person M1 as in FIG.
  • a frame image 310 surrounding the face of the person M1 is displayed in the view range 300 of FIG.
  • a message 320 is displayed in the view range 300 of FIG.
  • the message 320 represents personal data of the person M1 (that is, the suspect) such as the face image, name, sex, height, blood type, birthday, suspect information, etc. of the person M1. That is, in the example of FIG.
  • the control unit 20 calculates a display position so as to be arranged around the face of the person M ⁇ b> 1 based on the captured image of the camera 36, and causes the display unit 12 to display the frame image 310.
  • a frame image 310 is displayed in the view range 300.
  • the control unit 20 calculates the display position so as to be arranged next to the person M1 based on the photographed image of the camera 36, and causes the display unit 12 to display the message 320.
  • Message 320 is displayed.
  • the message 320 is represented by message data included in the first execution instruction.
  • the user U1 can grasp that the person M1 existing in the view range 300 is a suspect by displaying the frame image 310 and the message 320 in the view range 300. it can.
  • the control unit 20 returns to S10 after performing the first notification operation for a predetermined period in S22 of FIG. In S10 which returned, the control part 20 produces
  • the control unit 20 supplies the generated site information to the server 100 (S12).
  • control unit 120 of the server 100 does not generate the first execution instruction (see S18). Therefore, in this case, the terminal device 10 does not perform the first notification operation. Also in this case, the control unit 20 returns to S10.
  • the control unit 20 of the terminal device 10 periodically generates site information and supplies it to the server 100 during normal times (see S10 and S12). Then, as a result of supplying the site information to the server 100, the control unit 20 acquires a first execution instruction from the server 100 (S20), and executes a first notification operation according to the acquired first execution instruction ( S22). Further, the control unit 120 of the server 100 periodically acquires site information supplied from the terminal device 10 (S12), and stores the acquired site information in the database 130 (S14). Then, when it is determined that the target information exists in the database 130 (YES in S16), the control unit 120 generates a first execution instruction (S18) and supplies the first execution instruction to the terminal device 10. (S20). As described above, in this embodiment, the control unit 20 of the terminal device 10 and the control unit 120 of the server 100 repeatedly execute the processes of S10 to S24 in FIG.
  • the user of the server 100 operates the operation unit 104 and inputs a predetermined display instruction.
  • the control unit 120 of the server 100 When a display instruction is input in S50, in S52, the control unit 120 of the server 100 indicates a part of information (field information) stored in the database 130 and the state of the terminal device 10 currently in operation. A command screen (see FIG. 9) is displayed on the display unit 102.
  • accumulated data 410 including a part of the information accumulated in the database 130 and field data 420 indicating the state of the currently operating terminal device 10 are displayed.
  • the accumulated data 410 includes a part of the investigation information accumulated in the database 130 (for example, personal data of the suspect) and a part of the site information (for example, position information indicating a place where the crime is performed). including.
  • the field data 420 is displayed based on the field information acquired from the terminal device 10.
  • the field data 420 includes a terminal ID of the terminal device 10, position information indicating a position where the terminal device 10 exists, a current field image (that is, an image in a range corresponding to the view range of the user U1), and the like.
  • the site image included in the site data 420 includes an image of the person M2.
  • the accumulated data 410 includes personal data of a suspect who is considered to match the person M2. That is, the user of the server 100 who has seen the command screen 400 can recognize that the person M2 currently present in the field of view of the user U1 may be a suspect.
  • the user of the server 100 can appropriately switch the contents of the accumulated data 410 and the on-site data 420 displayed on the command screen 400 by appropriately inputting instructions to the operation unit 104.
  • the notification start instruction is an instruction for causing the terminal device 10 to execute a specific notification operation.
  • the notification start instruction may include an instruction for specifying contents such as a message to be displayed on the display unit 12 of the terminal device 10 (for example, an instruction to the user U1), an image, and text.
  • the control unit 120 of the server 100 When the notification start instruction is input in S54, the control unit 120 of the server 100 generates a specific execution instruction in S56.
  • the specific execution instruction generated in S56 includes message data indicating a message, an image, a text, and the like specified when the notification start instruction (S54) is input.
  • control unit 120 supplies the specific execution instruction generated in S56 to the terminal device 10 using the Wi-Fi communication via the Wi-Fi I / F 106.
  • the control unit 20 of the terminal device 10 executes a specific notification operation in S60 according to the acquired specific execution instruction.
  • the specific notification operation in S60 also causes the display unit 12 to display a message (that is, a part of the target information) represented by the message data included in the specific execution instruction, and causes the display unit 12 to display other images and the like. And outputting a predetermined notification sound from the speaker 34 and causing the vibration generating unit 38 to generate a vibration indicating the notification.
  • the content of the specific notification operation is at least partially different from the content of the first notification operation.
  • the content of the specific notification operation may be the same as the content of the first notification operation.
  • the user U1 can grasp that the user of the server 100 has given some instruction regarding the site 200. Further, the user U1 can grasp the information about the site 200 and the contents of the instruction to the user U1 by the user of the server 100 by looking at the message displayed on the display unit 12 and the like.
  • FIG. 10 shows the field of view 500 of the user U1 through the display unit 12 at the time of S60 after the site image included in the site data 420 of the command screen 400 of FIG. 9 is generated.
  • the field of view 500 includes a person M ⁇ b> 2 as in the field image of the field data 420 of FIG. 9.
  • a frame image 510 that surrounds the face of the person M2 is displayed.
  • a message 520 is displayed in the view range 500 of FIG.
  • the message 520 represents personal data of the person M2 (that is, the suspect) such as the face image, name, sex, height, blood type, birthday, and suspect information of the person M2. That is, in the example of FIG. 10, it can be said that a specific notification operation for notifying that the person M2 is a suspect is performed in S60.
  • the control unit 20 calculates the display position so as to be arranged around the face of the person M2 based on the photographed image of the camera 36, and causes the display unit 12 to display the frame image 510.
  • a frame image 510 is displayed in the view range 500.
  • the display position of the frame image 510 may be specified when the user of the server 100 inputs a notification start instruction.
  • the control unit 20 calculates the display position so as to be arranged next to the person M2 based on the captured image of the camera 36, and causes the display unit 12 to display the message 520.
  • Message 520 is displayed.
  • Message 520 is represented by message data included in a specific execution instruction.
  • the message 520 may include text information (for example, instruction contents to the user U1) input by the user of the server 100 together with the notification start instruction.
  • the user U1 can grasp that the person M2 existing in the view range 500 is a suspect by displaying the frame image 510 and the message 520 in the view range 500. it can.
  • the control unit 20 ends the specific notification operation after performing the specific notification operation for a predetermined period in S60 of FIG.
  • control unit 120 of the server 100 displays the command screen (S52), generates a specific execution command (S56), and follows the instructions of the user while the server 100 is operating in the command mode. Each process of supplying a specific execution instruction to the terminal device 10 (S58) is repeatedly executed.
  • control part 20 of the terminal device 10 performs specific alerting
  • the control unit 120 of the server 100 ends the command mode. In that case, the process of FIG. 8 ends.
  • the terminal device 10 has the display unit 12, the operation unit 14, the control unit 20, the memory 22, the GPS receiver 24, the Wi-FiI, the frame 11 that can be worn on the head of the user U1.
  • / F26, sensor 30, microphone 32, speaker 34, camera 36, and vibration generating unit 38 are provided (see FIGS. 2 and 3). Therefore, when the user U1 who wears the frame 11 on the head is present at the site 200, the control unit 20 is based on each information acquired from the sensor 30, the microphone 32, the camera 36, and the GPS receiver 24.
  • the field information can be generated (S10 in FIG.
  • the user U1 existing at the site 200 can grasp that the target information corresponding to the site information generated at the site 200 is stored in the storage device. Furthermore, since the frame 11 can be worn on the head of the user U1 (see FIG. 1), the user U1 uses both hands for purposes other than the generation of on-site information when the first notification operation is performed. There is a high possibility of use. Therefore, the user U1 (for example, a security officer or the like) existing at the site 200 can appropriately perform the necessary response according to the situation at the site.
  • the first notification operation (S22 in FIG. 5) executed by the terminal device 10 displays a message (that is, at least a part of the target information) represented by the message data included in the first execution instruction. Including displaying on the unit 12 and displaying other images on the display unit 12 (see FIG. 7). Therefore, according to the present embodiment, the user U1 wearing the frame 11 on the head looks at the message displayed on the display unit 12 arranged in the range facing the eye, and the field information generated on the field It can be grasped that the target information corresponding to is stored in the storage device. The user U1 does not need to move the line of sight to another range (for example, the hand) in order to see the message.
  • the user U1 can quickly grasp that the target information is stored in the storage device. Further, the user U1 can also grasp at least a part of the content of the target information. The user U1 existing at the site can appropriately perform the necessary response according to the situation at the site.
  • control unit 120 of the server 100 stores the field information acquired from the terminal device 10 in the database 130 (S14 in FIG. 5). Therefore, in this embodiment, various on-site information generated at the site 200 can be stored in the database 130. A lot of information can be stored in the database 130. As a result, the control unit 120 can appropriately determine whether or not the target information corresponding to the site information is stored in the storage device based on more information (S16).
  • the control unit 120 of the server 100 when the server 100 operates in the command mode, the control unit 120 of the server 100 performs a specific execution instruction when a notification start instruction is input to the operation unit 140 (S54 in FIG. 8). Is generated (S56), and a specific execution instruction is supplied to the terminal device 10 (S58). Then, when acquiring a specific execution instruction from the server 100 operating in the command mode (S58), the control unit 20 of the terminal device 10 executes a specific notification operation according to the specific execution instruction (S60).
  • the terminal device 10 can be caused to perform a specific notification operation (S60).
  • the terminal device 10 is appropriately managed by the user of the server 100.
  • the on-site information includes an on-site image (moving image or still image) photographed by the camera 36. Therefore, the control unit 120 of the server 100 can determine whether the target information is stored in the database 130 based on images of people, things, landscapes, etc. included in the site image (FIG. 5). S16).
  • the site information includes voice information of the site 200 detected by the microphone 32.
  • the voice information includes, for example, various voices (for example, background sounds, human speech, etc.) generated at the site. Therefore, the control unit 120 of the server 100 can determine whether the target information is stored in the database 130 based on such various sounds (S16 in FIG. 5).
  • the field information includes position information generated by the GPS receiver 24. Therefore, the control unit 120 of the server 100 can determine whether the target information is stored in the database 130 based on the position of the terminal device 10 represented by the position information (S16 in FIG. 5).
  • the camera 36, the microphone 32, the sensor 30, the GPS receiver 24, and the control unit 20 are examples of the “site information generation unit”.
  • the display unit 12, the speaker 34, and the vibration generation unit 38 are examples of the “notification unit”.
  • the control unit 120 of the server 100 is an example of a “control unit”.
  • the database 130 is an example of a “storage device”. An example of “first determination” is determined as YES in S16 of FIG. 5, and an example of “second determination” is determined as NO in S16 of FIG.
  • the camera 36 is an example of an “image generation unit”
  • the GPS receiver 24 is an example of a “position information generation unit”
  • the microphone 32 is an example of an “audio information generation unit”.
  • the second embodiment With reference to FIG. 11, the second embodiment will be described with a focus on differences from the first embodiment. As shown in FIG. 11, in this embodiment, a part of the processing of the control unit 120 of the server 100 in the normal time is different from the first embodiment. Further, in this embodiment, the database 130 stores information on permitted persons in place of the investigation information.
  • the control unit 120 of the server 100 refers to the database 130 and determines whether there is target information corresponding to the site information acquired in S112. Specifically, in S116, the control unit 120 changes the information that matches each of the information based on the on-site image, position information, sensor detection information, audio information, and the like included in the on-site information acquired in S112. It is determined whether there is information associated with the information stored in the database 130 (for example, personal data of a permitted person (employee, family, etc.)). When such information (for example, personal data of a permitted person corresponding to site information) is not stored in the database 130, the control unit 120 determines YES in S116, and proceeds to S118.
  • information associated with the information stored in the database 130 for example, personal data of a permitted person (employee, family, etc.)
  • the control unit 120 determines YES in S116, and proceeds to S118.
  • target information information that is not found in the database 130 when it is determined YES in S116 is referred to as “target information”.
  • target information For example, in the case where a person image is included in the field image in the field information acquired in S112, personal data of a permitted person including a person image that matches the person image is not stored in the database 130. If so, the control unit 120 determines YES in S116. In this example, if YES is determined in S116, it means that the person of the image included in the on-site image is a person who is not a permitted person (for example, a suspicious person).
  • the control unit 120 determines NO in S116, and proceeds to S124.
  • target information for example, personal data of a permitted person corresponding to the field information
  • the control unit 120 determines NO in S116, and proceeds to S124.
  • NO for example, if NO is determined in S116, it means that the person in the image included in the on-site image is a permitted person.
  • the control unit 120 In S118, the control unit 120 generates a first execution instruction.
  • the contents of S118 are substantially the same as S18 of FIG.
  • the first execution instruction generated in S118 is a command for instructing the terminal device 10 to execute a predetermined first notification operation (for example, an operation for notifying that a suspicious person is approaching).
  • the first execution instruction generated in S118 also includes message data.
  • the message data of the present embodiment may or may not include target information (that is, personal data of a permitted person corresponding to the field information).
  • control unit 120 supplies the first execution instruction generated in S18 to the terminal device 10 using the Wi-Fi communication via the Wi-Fi I / F 106.
  • the control unit 20 of the terminal device 10 executes the first notification operation in S22 according to the acquired first execution instruction.
  • the user U1 grasps that there is no target information related to the site 200 (for example, that a suspicious person has approached the site 200). be able to.
  • the control unit 20 performs the first notification operation in S122 for a predetermined period, and then returns to S110.
  • control unit 120 of the server 100 does not generate the first execution instruction (see S118). Therefore, in this case, the terminal device 10 does not perform the first notification operation. Also in this case, the control unit 20 returns to S110.
  • the control unit 20 of the terminal device 10 periodically generates site information and supplies it to the server 100 during normal times (see S110 and S112). Then, as a result of supplying the site information to the server 100, the control unit 20 acquires the first execution instruction from the server 100 (S120), and executes the first notification operation according to the acquired first execution instruction ( S122). Further, the control unit 120 of the server 100 periodically acquires the site information supplied from the terminal device 10 (S112), and stores the acquired site information in the database 130 (S114). Then, when it is determined that the target information does not exist in the database 130 (YES in S116), the control unit 120 generates a first execution instruction (S118), and sends the first execution instruction to the terminal device 10. Supply (S120). As described above, in this embodiment, the control unit 20 of the terminal device 10 and the control unit 120 of the server 100 repeatedly execute the processes of S110 to S124 in FIG.
  • first determination is YES in S116 of FIG. 11, and an example of “second determination” is NO in S116 of FIG. 11.
  • the third embodiment is an example of a modification of the first embodiment. With reference to FIG. 5, the third embodiment will be described with a focus on differences from the first embodiment. As shown in FIG. 5, in this embodiment, the processing of the control unit 20 of the terminal device 10 and part of the processing of the control unit 120 of the server 100 in the normal time are different from the first embodiment.
  • the control unit 120 of the server 100 generates a second execution instruction.
  • the second execution instruction generated in S30 is also a command for instructing the terminal device 10 to execute a predetermined second notification operation.
  • the content of the second notification operation is different from the content of the first notification operation.
  • the second execution instruction generated in S30 also includes message data.
  • the message data included in the second execution instruction may or may not include target information (that is, face images, text data, etc. included in the personal data of the suspect).
  • the message data included in the second execution instruction may include, for example, text information indicating a message indicating that the user is not a suspect instead of a part of the target information.
  • control unit 20 supplies the second execution instruction generated in S30 to the terminal device 10 via the Wi-Fi I / F 106 using Wi-Fi communication.
  • the control unit 20 of the terminal device 10 executes the second notification operation in S34 according to the acquired second execution instruction.
  • a message represented by message data included in the second execution instruction (that is, for example, text information indicating that the person is not a suspect) is displayed on the display unit 12, and other images are displayed. Including displaying on the display unit 12, outputting a predetermined notification sound from the speaker 34, and generating vibration indicating the notification in the vibration generation unit 38.
  • the content of the second notification operation executed in S34 is different from the content of the first notification operation executed in S22.
  • the terminal apparatus 10 when the terminal apparatus 10 acquires the second execution instruction in S32 of FIG. 5, in S34, the terminal apparatus 10 executes the second notification operation in accordance with the acquired second execution instruction.
  • the user U1 does not have target information related to the site 200 (for example, at this time, the site 200 has suspects related to the site 200, etc.) Not know). Therefore, the user U1 existing at the site 200 can more appropriately perform the necessary response according to the situation of the site 200.
  • the fourth embodiment is an example of a modification of the second embodiment. With reference to FIG. 11, the fourth embodiment will be described with a focus on differences from the second embodiment. As shown in FIG. 11, also in the present embodiment, the processing of the control unit 20 of the terminal device 10 and the processing of the control unit 120 of the server 100 in a normal time are different from those of the second embodiment.
  • the control unit 120 of the server 100 generates a second execution instruction.
  • the second execution instruction generated in S130 is also a command for instructing the terminal device 10 to execute a predetermined second notification operation.
  • the content of the second notification operation is different from the content of the first notification operation.
  • the second execution instruction generated in S130 also includes message data.
  • the message data included in the second execution instruction may or may not include target information (for example, personal data of a permitted person corresponding to on-site information). Good.
  • the message data included in the second execution instruction may include, for example, text information indicating a message indicating that passage is permitted instead of a part of the target information.
  • control unit 20 supplies the second execution instruction generated in S30 to the terminal device 10 via the Wi-Fi I / F 106 using Wi-Fi communication.
  • the control unit 20 of the terminal device 10 acquires the second execution instruction in S132
  • the control unit 20 executes the second notification operation in S134 according to the acquired second execution instruction.
  • a message represented by the message data included in the second execution instruction that is, for example, text information indicating that passage is permitted
  • the display unit 12 includes displaying on the display unit 12, outputting a predetermined notification sound from the speaker 34, and generating vibration indicating the notification in the vibration generation unit 38.
  • the content of the second notification operation executed in S134 is different from the content of the first notification operation executed in S122.
  • the terminal apparatus 10 when the terminal apparatus 10 acquires the second execution instruction in S132 of FIG. 11, in S134, the terminal apparatus 10 executes the second notification operation according to the acquired second execution instruction.
  • the user U1 can grasp that the target information related to the site 200 exists (for example, that the person permitted to pass exists in the site 200). Therefore, the user U1 existing at the site 200 can more appropriately perform the necessary response according to the situation of the site 200.
  • the information management system 2 includes only the terminal device 10 and may not include the server 100. That is, in this modification, the terminal device 10 may exhibit both the function of the terminal device 10 and the function of the server 100 in each of the above embodiments.
  • the database 130 may be stored in the memory 22 of the terminal device 10.
  • the control unit 20 determines whether or not the target information corresponding to the generated on-site information is stored in the database 130 (or whether or not it is stored), and according to the determination result, You may make it perform 1st, 2nd alerting
  • the control unit 20 is an example of a “control unit”.
  • the database 130 is stored in the memory 122 of the server 100.
  • the database 130 is not limited to this, and may be configured as a storage device separate from the server 100.
  • the control unit 120 of the server 100 may access the database 130 provided outside the server 100 via the Internet 4.
  • the display unit 12 is a translucent display, and faces the user U1's eye when the user U1 wears the frame 11 on the head. Provided in range.
  • the display unit 12 may be a light-shielding display member.
  • the control unit 20 may cause the user U1 to visually recognize the surrounding state by displaying the captured image of the camera 36 on the display unit 12.
  • the terminal device 10 has any one or more of the camera 36, the microphone 32, the sensor 30, and the GPS receiver 24, the other one or more may be omitted. That is, the site information only needs to include one or more of site images, audio information, position information, and sensor detection information.
  • the contents of the notification operation are not limited to those described in the first to fourth embodiments. Any content may be used. For example, one or both of the generation of vibration by the vibration generation unit 38 and the generation of sound from the speaker 34 may be omitted. Further, the message may not be displayed on the display unit 12.
  • the notification operation (that is, the first notification operation, the second notification operation, and the specific notification operation) may be performed by changing the display color of the display unit 12.
  • the terminal device 10 has a substantially glasses-like frame 11 that can be worn on the head of the user U1 as if wearing glasses. is there.
  • the terminal device is not limited to this, and may have an arbitrary frame such as a hat shape or a helmet shape as long as the terminal device can be mounted on the user's head.
  • Modification 7 As described above, in the example of FIG. 1, only one terminal device 10 that can communicate with the server 100 is illustrated, but in the actual information management system 2, a plurality of devices that can communicate with the server 100 are illustrated. One terminal device may be provided. In that case, each of the plurality of terminal devices may be mounted on the heads of different users. Further, at a timing at which the notification operation should be performed in any one of the plurality of terminal devices, the common notification operation (that is, the first notification operation, the first notification operation, and the like) is performed in all of the plurality of terminal devices. 2 notification operations and a specific notification operation) may be performed.
  • the common notification operation that is, the first notification operation, the first notification operation, and the like
  • Modification 8 In Modification 7 above, some terminal devices of the plurality of terminal devices at the timing at which the notification operation should be performed in any one of the plurality of terminal devices. However, a common notification operation (that is, a first notification operation, a second notification operation, and a specific notification operation) may be performed. In this case, the specific terminal device may or may not include the terminal device that supplies the site information to the server 100.
  • the information management system is comprised only by the some terminal device, and does not need to be provided with the server. In this case, for example, whether or not the target information corresponding to the field information generated by any one of the plurality of terminal devices exists in the database stored by itself (or does not exist). And the execution instruction is transmitted to the other terminal device according to the determination result, and the other terminal device performs the notification operation (that is, the first notification operation) according to the acquired execution instruction. , A second notification operation and a specific notification operation) may be performed. In this modification, target information corresponding to the field information generated by any one terminal device is supplied to another terminal device, and the other terminal device stores the acquired target information by itself.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

情報管理システムは、ユーザの頭部に装着可能なフレームと、フレームに搭載され、現場に関する現場情報を生成する現場情報生成部と、フレームに搭載され、第1の報知動作を実行可能な報知部と、制御部と、を備える。制御部は、現場情報生成部から現場情報を取得する取得部と、取得部によって取得された現場情報に対応する対象情報が記憶装置に記憶されているのか否かに関係する判断を行う判断部と、判断部によって、対象情報が記憶装置に記憶されていることと、対象情報が記憶装置に記憶されていないことと、のうちの一方である第1の判断が行われる場合に、報知部に、第1の報知動作を実行させるための第1の実行指示を供給する指示供給部と、を備える。報知部は、指示供給部から第1の実行指示を取得する場合に、第1の報知動作を実行する。

Description

情報管理システム
 本明細書によって開示される技術は、現場に関係する情報を管理するための情報管理システムに関する。
 例えば、特許第4736096号(以下、特許文献1という)には、監視カメラが撮影した現場の映像を解析して特徴データを抽出し、抽出された特徴データの照合結果が不許可であると判定される場合に、不審者検出通知を行うセキュリティ監視システムが開示されている。
 特許文献1の技術による場合、不審者検出通知が行われたことに伴い、監視カメラが映像を撮影する現場に警備担当者等を派遣しようとしても、警備担当者等が現場に居合わせない可能性がある。その後、警備担当者等が現場に到着したとしても、その時点で不審者等が現場から離れている可能性があり、セキュリティ確保の実効性が十分に図られないおそれがある。
 監視カメラを、ユーザ(警備担当者等)が持ち歩くことができる携帯用カメラに置き換えることも考えられる。しかしながら、その場合であっても、現場に存在する警備担当者等が携帯用カメラを手に持っていると、ユーザが両手を使えず、不審者の確保等、現場において迅速な対応が必要な場合に対応が遅れる可能性がある。
 本明細書では、現場に存在するユーザが、現場の状況に応じた必要な対応を適切に行い得る技術を開示する。
 本明細書によって開示される情報管理システムは、ユーザの頭部に装着可能なフレームと、前記フレームに搭載され、現場に関する現場情報を生成する現場情報生成部と、前記フレームに搭載され、第1の報知動作を実行可能な報知部と、制御部と、を備える。前記制御部は、前記現場情報生成部から前記現場情報を取得する取得部と、前記取得部によって取得された前記現場情報に対応する対象情報が記憶装置に記憶されているのか否かに関係する判断を行う判断部と、前記判断部によって、前記対象情報が前記記憶装置に記憶されていることと、前記対象情報が前記記憶装置に記憶されていないことと、のうちの一方である第1の判断が行われる場合に、前記報知部に、第1の報知動作を実行させるための第1の実行指示を供給し、前記判断部によって、前記対象情報が前記記憶装置に記憶されていることと、前記対象情報が前記記憶装置に記憶されていないことと、のうちの他の一方である第2の判断が行われる場合に、前記第1の実行指示を供給しない、指示供給部と、を備える。前記報知部は、前記指示供給部から前記第1の実行指示を取得する場合に、前記第1の報知動作を実行する。
 上記の構成によると、ユーザの頭部に装着可能なフレームに、現場情報生成部と、報知部と、が備えられる。そのため、フレームを頭部に装着したユーザが現場に存在する場合において、現場情報生成部は、ユーザが存在する現場に関係する現場情報を生成可能であるとともに、報知部は、第1の報知動作を実行することができる。報知部が第1の報知動作を行うことにより、現場に存在するユーザが、当該現場において生成された現場情報に対応する対象情報が記憶装置に記憶されていること(又は、対象情報が記憶装置に記憶されていないこと)を把握することができる。さらに、上記の構成によると、フレームは、ユーザの頭部に装着可能であるため、第1の報知動作が行われた時点で、ユーザが両手を現場情報の生成以外の用途のために使える可能性が高い。そのため、現場に存在するユーザ(例えば警備担当者等)が、現場の状況に応じた必要な対応を適切に行い得る。
 ここで、上記の「現場情報」は、例えば、画像(例えば、人物の顔の画像、風景画像、パスポートや運転免許証等の各種書類等の画像等。動画、静止画の少なくとも一方を含む)、現場の座標、音、匂い、現場に存在する物質のph値、現場に存在する物質のアルコール含有量、現場に存在する血液の成分データ、現場に存在する物質から特定されるDNAデータ、ユーザの状態(例えば、脈拍、発汗、血圧等)を示すユーザ状態情報、等、現場に関係する各種の情報を含んでもよい。上記の「現場情報生成部」は、例えば、カメラ、マイク、各種センサ(座標情報、匂い、ph値、アルコール含有量、血液センサ、DNA検出手段等を検出するセンサ)等、現場に関係する情報を収集可能な各種ユニットを含んでもよい。また、「報知部」は、表示部、音声出力部、振動発生部のうちの少なくとも1つを含んでもよい。また、「第1の報知動作」は、表示部へのメッセージ(文字、画像等を含む)の表示、音声の出力、振動の発生のうちの少なくとも1つを含んでもよい。
 前記報知部は、前記フレームが前記ユーザの前記頭部に装着された状態で、前記ユーザの眼に対向する範囲に配置される表示部を含んでもよい。前記第1の実行指示は、メッセージを表わすメッセージデータを含んでもよい。前記第1の報知動作は、前記第1の実行指示に含まれる前記メッセージデータによって表わされる前記メッセージを前記表示部に表示させることを含んでもよい。
 この構成によると、フレームを頭部に装着したユーザが、眼に対向する範囲に配置された表示部に表示されるメッセージを見ることにより、現場において生成された現場情報に対応する対象情報が記憶装置に記憶されていること(又は、対象情報が記憶装置に記憶されていないこと)を把握することができる。ユーザは、メッセージを見るために、視線を他の範囲(例えば手元)に移動させる必要もない。そのため、ユーザが、対象情報が記憶装置に記憶されている(又はされていない)ことを迅速に把握し得る。現場に存在するユーザが、現場の状況に応じた必要な対応をより適切に行い得る。
 ここで、「メッセージ」は、対象情報の一部(即ち、対象情報に含まれる画像、文字情報等)であってもよいし、特定の注意表示や特定色のサイン等、対象情報に含まれない情報であってもよい。
 前記メッセージは、前記対象情報の少なくとも一部を含んでもよい。
 この構成によると、ユーザは、眼に対向する範囲に表示されるメッセージを見ることで、対象情報が記憶装置に記憶されている(又はされていない)ことを把握できるとともに、対象情報の少なくとも一部の内容も併せて把握することができる。ユーザが、視線を他の範囲(例えば手元)移動させることなく、現場の状況をより適切に把握し得る。
 前記指示供給部は、前記判断部によって前記第2の判断が行われる前記場合に、前記報知部に、前記第1の報知動作とは異なる第2の報知動作を実行させるための第2の実行指示を供給してもよい。前記報知部は、前記指示供給部から前記第2の実行指示を取得する場合に、前記第2の報知動作を実行してもよい。
 この構成によると、報知部が第2の報知動作を行うことにより、現場に存在するユーザが、当該現場において生成された現場情報に対応する対象情報が記憶装置に記憶されていないこと(又は、対象情報が記憶装置に記憶されていること)を把握することができる。そのため、現場に存在するユーザ(例えば警備担当者等)が、現場の状況に応じた必要な対応をより適切に行い得る。
 前記制御部は、さらに、前記取得部によって取得された前記現場情報を前記記憶装置に記憶させる記憶制御部を備えてもよい。
 この構成によると、取得部によって現場情報が取得されると、取得された現場情報が記憶装置に記憶される。記憶装置には、現場において生成された様々な現場情報が蓄積され得る。記憶装置に多くの現場に関する情報を記憶させることができる。その結果、制御部は、より多くの情報に基づいて、現場情報に対応する対象情報が記憶装置に記憶されているのか否かを適切に判断し得る。
 前記情報管理システムは、前記フレームと前記現場情報生成部と前記報知部とを備える端末装置と、前記端末装置とは別個のサーバであって、前記制御部と、入力部と、を備えるサーバと、を有していてもよい。前記指示供給部は、前記入力部に報知開始指示が入力される場合に、前記報知部に、特定の報知動作を実行させるための特定の実行指示を供給してもよい。前記報知部は、前記指示供給部から前記特定の実行指示を取得する場合に、前記特定の報知動作を実行してもよい。
 この構成によると、端末装置は、サーバの入力部に報知開始指示が入力されることに伴って供給される特定の実行指示を取得すると、報知部に特定の報知動作を実行させる。そのため、端末装置とサーバとが離間して配置されている場合であっても、サーバの利用者(例えばシステムの管理者等)の所望のタイミングで報知開始指示を入力すれば、端末装置に特定の報知動作を実行させることができる。端末装置が、サーバの利用者によって適切に管理され得る。
 前記現場情報生成部は、前記現場に関係する現場画像を生成するための画像生成部を含んでもよい。前記現場情報は、前記現場画像を含んでもよい。
 この構成によると、現場情報生成部は、画像生成部によって生成された現場画像を含む現場情報を生成する。現場画像は、例えば、現場に存在する人、物、風景、等の画像を含み得る。制御部は、そのような現場画像に含まれる人、物、風景、等の画像に基づいて、対象情報が記憶装置に記憶されているのか否かを判断し、報知部に第1の実行指示を供給することができる。
 前記現場情報生成部は、前記現場の位置を特定するための位置情報を生成するための位置情報生成部を含んでもよい。前記現場情報は、前記位置情報を含んでもよい。
 この構成によると、現場情報生成部は、位置情報生成部によって生成された位置情報を含む現場情報を生成する。位置情報は、例えば、現場の座標情報、現場の住所等、現場の位置を特定可能な情報を含み得る。制御部は、そのような位置情報に基づいて、対象情報が記憶装置に記憶されているのか否かを判断し、報知部に第1の実行指示を供給することができる。
 前記現場情報生成部は、前記現場で発生された音声を表わす音声情報を生成するための音声情報生成部を含んでもよい。前記現場情報は、前記音声情報を含んでもよい。
 この構成によると、現場情報生成部は、音声情報生成部によって生成された音声情報を含む現場情報を生成する。音声情報は、例えば、現場で発生する様々な音声(例えば、背景音、人の話し声等)を含み得る。制御部は、そのような音声情報に基づいて、対象情報が記憶装置に記憶されているのか否かを判断し、報知部に第1の実行指示を供給することができる。
 なお、上記の情報処理システムを実現するための制御方法、コンピュータプログラム、及び、当該コンピュータプログラムを格納するコンピュータ読取可能記録媒体も、新規で有用である。
情報管理システム2の概要を示す。 端末装置10の概要を示す。 端末装置10のブロック図を示す。 サーバ100のブロック図を示す。 第1実施例において、通常時において端末装置10及びサーバ100が実行する処理のシーケンス図を示す。 通常時の端末装置10のユーザU1の表示部12越しの視界範囲300の例を示す。 通常時の端末装置10のユーザU1の視界範囲300に枠画像310及びメッセージ320が表示された様子を示す。 指揮モード時において端末装置10及びサーバ100が実行する処理のシーケンス図を示す。 指揮モード時においてサーバ100の表示部102に表示される指揮画面400の例を示す。 指揮モード時において端末装置10のユーザU1の視界範囲500に枠画像510及びメッセージ520が表示された様子を示す。 第2実施例において、通常時において端末装置10及びサーバ100が実行する処理のシーケンス図を示す。
(第1実施例)
(情報管理システム2の構成;図1)
 図1に示される情報管理システム2は、警備担当者、捜査担当者等であるユーザU1が現在位置する現場200の情報を管理するとともに、不審者、犯罪前科者、容疑者等(以下では一括して「容疑者」と呼ぶ場合がある)に関する情報をユーザU1に提供するためのシステムである。本実施例の情報管理システム2は、犯罪捜査、警備等を支援するシステムであると言い換えてもよい。図1の情報管理システム2は、端末装置10と、サーバ100と、を備える。端末装置10は、サーバ100との間で、インターネット4を介したWi-Fi通信を実行可能である。端末装置10は、現場200に位置するユーザU1の頭部に装着されている。図1の例では、サーバ100と通信可能な1個の端末装置10のみが図示されているが、実際の情報管理システム2では、サーバ100と通信可能な複数個の端末装置が備えられていてもよい。その場合、複数個の端末装置のそれぞれが、異なるユーザの頭部に装着されていてもよい。
(端末装置10の構成;図1~図3)
 図1に示す端末装置10は、現場200に位置するユーザU1の頭部に装着して用いられる画像表示装置(いわゆるヘッドマウントディスプレイ)である。図2に示されるように、端末装置10は、フレーム11と、表示部12と、カバー13と、操作部14と、センサ30と、マイク32と、スピーカ34と、カメラ36と、振動発生部38と、コントロールボックス40と、を備える。
 フレーム11は、略眼鏡フレーム状の部材である。ユーザU1は、顔の前面側から眼鏡を装着するようにフレーム11を装着することによって、端末装置10を頭部に装着することができる。
 表示部12は、透光性のディスプレイであり、ユーザU1がフレーム11を頭部に装着した場合に、ユーザU1の眼に対向する範囲に備えられる。表示部12は、左右2個の導光板12a及び投影部12bを備える。
 導光板12aは、透光性の基板である。導光板12aは例えばガラス、透光性の樹脂等によって形成される。本実施例では、ユーザU1が端末装置10を頭部に装着すると、2枚の導光板12aが、ユーザの両眼にそれぞれ対向する範囲に配置される。ユーザU1は、導光板12a越しに周囲を視認することができる。また、導光板12aには、投影部12bから投影された画像を表わす光を眼に向かって反射させるためのハーフミラー部材(図示しない)が内蔵されている。
 投影部12bは、各導光板12aに画像を表わす光を投影する部材である。2個の投影部12bは、左右の導光板12aのそれぞれ横側に設けられている。本実施例では、投影部12bは、制御部20(図3参照)の指示に従って、所定の画像(例えば、図6の枠画像310、及びメッセージ320等)を導光板12aに投影する。これにより、ユーザU1は、導光板12a越しにユーザU1が視認可能な現実世界の対象物又は/及び空間の所定の位置に、上記所定の画像が合成されたかの様に、現実世界の対象物又は/及び空間と所定の画像とを見ることができる。以下、本明細書では、制御部20が、投影部12bに画像の投影を指示することによって、導光板12aに所望の画面を表示させることを説明する場合に、投影部12b及び導光板12aの動作の説明を省略し、単に「制御部20が表示部12に画像を表示させる」などと表現する場合がある。
 カバー13は、2枚の導光板12aの前方に配置される透光性の保護部材である。即ち、端末装置10を頭部に装着しているユーザU1は、導光板12a及びカバー13越しに周囲を視認することができる。
 操作部14は、ボタン、ダイヤル等を含む。ユーザU1は、操作部14を操作して、端末装置10に様々な操作を入力することができる。
 センサ30は、複数のセンサを含む。センサ30には、端末装置10を装着中のユーザU1の脈拍数、発汗状態等を検出するためのセンサ(即ち生体センサ)、現場200の土や液体等のph値を測定するためのセンサ(即ちphセンサ)、現場200で発見された血液の成分や血液型等を検出するためのセンサ(即ち血液センサ)、現場200に存在する物質の匂い成分を検出するためのセンサ(即ち匂いセンサ)、現場200に存在する生物の遺伝子情報を検出するためのセンサ(即ちDNAセンサ)、のうちの少なくとも1個以上を含んでいる。センサ30は、フレーム11の一部に取り付けられている。
 マイク32は、端末装置10を装着するユーザU1の声や周囲の音(例えば現場200の背景音、現場200の他人の話し声)など、各種音声を入力するための音声入力手段である。マイク32はフレーム11の一部に取り付けられている。ユーザU1がフレーム11を頭部に装着すると、マイク32は、ユーザU1の口元付近に配置される(図1参照)。ユーザU1はマイク32を動かして配置位置を適宜変更することも可能である。
 スピーカ34は、アラーム音等、各種音声を出力するための音声出力手段である。スピーカ34もフレーム11の一部に取り付けられている。
 カメラ36は、端末装置10を装着するユーザU1の視界範囲に対応する範囲(即ち現場200の様子)を撮影するためのカメラである。図2の例では、3個のカメラ36が設けられている。カメラ36の数は3個に限られず、1個又は2個でもよい。
 振動発生部38は、振動を発生させる駆動部材である。振動発生部38は小型のモータ等を含む。振動発生部38は、フレーム11の一部に内蔵されている。
 コントロールボックス40は、フレーム11の一部に内蔵されている制御装置である。コントロールボックス40には、端末装置10の制御系統を司る各要素が収容されている。具体的に言うと、図3に示されるように、コントロールボックス40には、制御部20と、メモリ22と、GPS受信機24と、Wi-Fiインターフェース26とが収容されている。以下では、インターフェースのことを「I/F」と記載する。
 制御部20は、メモリ22に記憶されているプログラムに従って様々な処理を実行する。また、制御部20は、図3に示すように、表示部12、操作部14、センサ30、マイク32、スピーカ34、カメラ36、振動発生部38、メモリ22、GPS受信機24、及び、Wi-FiI/F26と電気的に接続されており、これらの各要素の動作を制御することができる。
 メモリ22は、ROM、RAM、ハードディスク等によって構成される。メモリ22は、様々なプログラムを記憶している。また、メモリ22は、端末装置10自身に割り当てられている固有の端末IDも記憶している。また、メモリ22は、制御部20が実行する処理に伴って生成される様々な情報を記憶する領域も有している。
 GPS受信機24は、GPS衛星(図示しない)から信号を受信することにより、自機の位置を特定するための装置である。GPS受信機24は、自機の位置を示す位置情報を生成することができる。
 Wi-FiI/F26は、インターネット4を介してサーバ100とWi-Fi通信を実行するためのI/Fである。
(サーバ100の構成;図1、図4)
 図1に示すサーバ100は、情報管理システム2の管理者によって設置されるサーバである。図4に示すように、サーバ100は、表示部102と、操作部104と、Wi-FiI/F106と、制御部120と、メモリ122と、を備えている。
 表示部102は、様々な情報を表示するためのディスプレイである。操作部104は、キーボード及びマウスを備える。サーバ100の利用者(例えば、捜査指揮者、警備指揮者等)は、操作部104を操作することによって、様々な指示をサーバ100に入力可能である。
 Wi-FiI/F106は、インターネット4を介して端末装置10とWi-Fi通信を実行するためのI/Fである。
 制御部120は、メモリ122に記憶されているプログラムに従って様々な処理を実行する。また、制御部120は、図4に示されるように、表示部102、操作部104、Wi-FiI/F106、及び、メモリ122と電気的に接続されており、これらの各要素の動作を制御することができる。
 メモリ122は、ROM、RAM、ハードディスク等によって構成される。メモリ122は、様々なプログラムを記憶している。また、メモリ122は、プログラムの他に、データベース130を記憶している。データベース130は、端末装置10を含む複数個の端末装置から受信された現場情報を記憶することによって形成されるデータ群である。データベース130には、各現場の各種情報が蓄積されている。また、データベース130には、現場情報の他に、捜査情報(例えば、不審者、犯罪前科者、容疑者等(以下では容疑者等)の個人データ、目撃データ、等)も蓄積されている。また、他の実施例(例えば、後述の第2、第4実施例)では、データベース130には、捜査情報に代えて、通行を許可されている人物(以下では「通行許可者」と呼ぶ)の情報が記憶されていてもよい。
(情報管理システム2が実行する処理;図5~図10)
 次いで、図5~図10を参照して、本実施例の情報管理システム2が実行する処理の内容を説明する。本実施例の情報管理システム2(即ち端末装置10及びサーバ100)は、通常時には図5に示される各処理を実行する。そして、サーバ100に所定の指揮開始操作が入力され、サーバ100が指揮モードで動作を介した場合には、端末装置10及びサーバ100は、図5の各処理と並行して、図8に示される各処理を実行する。
(通常時の処理;図5~図7)
 図5を参照して、通常時において、端末装置10及びサーバ100が実行する処理について説明する。端末装置10及びサーバ100の電源がオンされると、図5の処理が開始される。
 図5の処理が開始された時点では、ユーザU1は、端末装置10を装着した状態で現場200に存在している。S10では、端末装置10の制御部20は、現場200に関する現場情報を生成する。具体的に言うと、S10では、制御部20は、カメラ36によって撮影される現場画像(動画又は静止画)、センサ30によって検出される各種のセンサ検出情報(例えば、端末装置10を装着中のユーザU1の脈拍数、発汗状態等のユーザ生体情報、現場200の土や液体等のph値、現場200で発見された血液の成分、血液型等、現場200に存在する物質の匂い成分を表わす情報、現場200に存在する生物の遺伝子情報、など)、マイク32によって検出される現場200の音声情報、GPS受信機24によって生成される位置情報、等の各種情報を取得するとともに、取得された各種情報、及び、現在時刻等の情報に基づいて、現場200の状況を表わす現場情報を生成する。即ち、S10で生成される現場情報には、上記の現場画像、センサ検出情報、音声情報、位置情報等が含まれる。
 図6を参照し、S10で生成される現場情報の一例を説明する。図6は、S10の時点における、表示部12越しのユーザU1の視界範囲300を示す。上記の通り、カメラ36は、図6の視界範囲300に相当する現場画像を生成している。図6に示すように、視界範囲300には、人物M1が含まれている。カメラ36によって生成される現場画像にも、人物M1の画像が含まれる。このように、S10で生成される現場情報は、その時点におけるユーザU1の視界範囲300を表わす現場画像が含まれる。
 次いで、図5のS12では、制御部20は、S10で生成された現場情報を、Wi-FiI/F26を介して、Wi-Fi通信を利用して、サーバ100に供給する。
 サーバ100の制御部120は、S12において、現場情報を取得すると、S14において、取得された現場情報をデータベース130内に記憶させる。これにより、データベース130内には新たな現場情報が蓄積される。
 次いで、S16では、制御部120は、データベース130内を参照し、S12で取得された現場情報に対応する対象情報が存在するか否かを判断する。具体的に言うと、S16では、制御部120は、S12で取得された現場情報に含まれる現場画像、位置情報、センサ検出情報、音声情報等に基づいて、それらの各情報と一致する情報、もしくは、それらの各情報に関係する情報に対応付けられて記憶されている捜査情報(例えば、容疑者の個人データ、目撃データ、等)が存在するか否かを判断する。データベース130内にそのような捜査情報が記憶されている場合、制御部120は、S16でYESと判断し、S18に進む。S16でYESと判断された際に発見された捜査情報のことを「対象情報」と呼ぶ。例えば、S12で取得された現場情報中の現場画像に人物の画像が含まれる場合において、その人物の画像と一致する人物の画像を含む容疑者の個人データ(即ち捜査情報の一例)がデータベース130内に記憶されていた場合、制御部120は、S16でYESと判断する。その場合、その容疑者の個人データが「対象情報」の一例である。また他の例では、S12で取得された現場情報中の現場画像に身分証明書(例えばパスポート、運転免許証等)の画像が含まれる場合において、その身分証明書に記載された本人確認情報と一致する本人確認情報を含む容疑者の個人データ(捜査情報の一例)がデータベース130内に記憶されていた場合、制御部120は、S16でYESと判断する。その場合も、その容疑者の個人データが「対象情報」の一例である。
 一方、データベース130内にそのような対象情報が記憶されていない場合には、制御部120は、S16でNOと判断し、S24に進む。
 S18では、制御部120は、第1の実行指示を生成する。第1の実行指示は、端末装置10に、所定の第1の報知動作を実行させることを指示するコマンドである。第1の実行指示は、対象情報の少なくとも一部(例えば、容疑者の個人データに含まれる顔画像、テキストデータ等)を示すメッセージデータを含む。
 次いで、S20では、制御部120は、S18で生成された第1の実行指示を、Wi-FiI/F106を介して、Wi-Fi通信を利用して、端末装置10に供給する。
 端末装置10の制御部20は、S20において、第1の実行指示を取得すると、S22において、取得された第1の実行指示に従って、第1の報知動作を実行する。第1の報知動作は、第1の実行指示に含まれるメッセージデータによって表わされるメッセージ(即ち、対象情報の一部)を表示部12に表示させること、その他の画像等を表示部12に表示させること、所定の報知音をスピーカ34から出力させること、及び、振動発生部38に報知を示す振動を発生させること、を含む。S22で第1の報知動作が行われることにより、ユーザU1は、現場200に関係する対象情報が存在すること(例えば、現場200に関係する容疑者等が存在すること)を把握することができる。また、ユーザU1は、表示部12に表示されたメッセージ等を見ることにより、対象情報の一部(例えば、容疑者等の顔画像等)を把握することができる。
 図7を参照して、S22で実行される第1の報知動作の一例を説明する。図7は、上述の図6の視界範囲300の現場画像が生成された後(S10)のS22の時点における、表示部12越しのユーザU1の視界範囲300を示す。図7に示すように、視界範囲300には、図6と同様に人物M1が含まれている。さらに、図7の視界範囲300には、人物M1の顔の周囲を囲う枠画像310が表示されている。さらに、図7の視界範囲300には、メッセージ320が表示されている。メッセージ320は、人物M1の顔画像、名前、性別、身長、血液型、誕生日、容疑情報等、人物M1(即ち容疑者)の個人データを表わす。即ち、図7の例では、S22において、人物M1が容疑者であることを報知するための第1の報知動作が行われていると言うことができる。図7では、制御部20が、カメラ36の撮影画像に基づいて、人物M1の顔の周囲に配置されるように表示位置を計算して、枠画像310を表示部12に表示させることによって、視界範囲300内に枠画像310を表示させている。同様に、制御部20が、カメラ36の撮影画像に基づいて、人物M1の隣に配置されるように表示位置を計算して、メッセージ320を表示部12に表示させることによって、視界範囲300内にメッセージ320を表示させている。メッセージ320は、第1の実行指示に含まれるメッセージデータによって表わされる。ユーザU1は、図7に示されるように、視界範囲300内に枠画像310及びメッセージ320が表示されることにより、視界範囲300内に存在する人物M1が容疑者であることを把握することができる。
 制御部20は、図5のS22で第1の報知動作を所定期間行った後、S10に戻る。戻ったS10では、制御部20は、再びその時点の現場情報を生成する。制御部20は、生成された現場情報をサーバ100に供給する(S12)。
 一方、S24(即ち、S16でNOと判断された場合)では、サーバ100の制御部120は、第1の実行指示(S18参照)を生成しない。そのため、この場合、端末装置10では、第1の報知動作は行われない。この場合も、制御部20は、S10に戻る。
 上記の通り、本実施例では、通常時において、端末装置10の制御部20は、定期的に現場情報を生成してサーバ100に供給している(S10、S12参照)。そして、制御部20は、現場情報をサーバ100に供給した結果、サーバ100から第1の実行指示を取得すると(S20)、取得された第1の実行指示に従って第1の報知動作を実行する(S22)。また、サーバ100の制御部120は、定期的に端末装置10から供給される現場情報を取得し(S12)、取得された現場情報をデータベース130に記憶させる(S14)。そして、制御部120は、データベース130内に対象情報が存在すると判断される場合(S16でYES)に、第1の実行指示を生成し(S18)、第1の実行指示を端末装置10に供給する(S20)。このように、本実施例では、端末装置10の制御部20、及び、サーバ100の制御部120は、図5のS10~S24の各処理を繰り返し実行している。
(指揮モード時の処理;図8~図10)
 図8を参照して、指揮モード時において、端末装置10及びサーバ100が実行する処理について説明する。端末装置10及びサーバ100の電源がオンされた後で、サーバ100の利用者(例えば、捜査指揮者、警備指揮者等)は、操作部104を操作し、所定の指揮開始指示を入力する。操作部104に指揮開始指示が入力されると、サーバ100の制御部120は、指揮モードを開始する。ここで、「指揮モード」とは、サーバ100の表示部102にデータベース130内の情報を表示させるとともに、サーバ100の利用者が操作部104に入力する指示に従って、端末装置10に特定の報知動作を行わせ、端末装置10を装着するユーザU1を指揮するためのモードである。指揮モードが開始されると、図5の各処理(即ち通常時の処理)と並行して、図8の各処理が開始される。
 S50では、サーバ100の利用者は、操作部104を操作し、所定の表示指示を入力する。
 S50で表示指示が入力されると、S52において、サーバ100の制御部120は、データベース130内に蓄積された情報(現場情報)の一部、及び、現在稼働中の端末装置10の状態を示す指揮画面(図9参照)を表示部102に表示させる。
 図9を参照して、S52で表示される指揮画面400の一例を説明する。図9に示される指揮画面400では、データベース130内に蓄積された情報の一部を含む蓄積データ410と、現在稼働中の端末装置10の状態を示す現場データ420と、が表示されている。蓄積データ410は、データベース130に蓄積されている捜査情報の一部(例えば、容疑者の個人データ等)、及び、現場情報の一部(例えば、犯罪が行われた場所を示す位置情報等)を含む。現場データ420は、端末装置10から取得される現場情報に基づいて表示される。現場データ420は、端末装置10の端末ID、端末装置10が存在する位置を示す位置情報、現時点の現場画像(即ち、ユーザU1の視界範囲に相当する範囲の画像)等を含む。図9の例では、現場データ420に含まれる現場画像に、人物M2の画像が含まれている。そして、蓄積データ410は、人物M2に一致すると考えられる容疑者の個人データを含んでいる。即ち、指揮画面400を見たサーバ100の利用者は、現在ユーザU1の視界範囲に存在する人物M2が、犯罪の容疑者である可能性があることを把握することができる。なお、サーバ100の利用者は、操作部104に適宜指示を入力することにより、指揮画面400に表示される蓄積データ410、及び、現場データ420の内容を適宜切り替えることもできる。
 このように、表示部102に指揮画面(図9参照)が表示されている間に、S54において、サーバ100の利用者は、操作部104を操作し、所定の報知開始指示を入力する。報知開始指示は、端末装置10に特定の報知動作を実行させるための指示である。報知開始指示は、端末装置10の表示部12に表示させるべきメッセージ(例えば、ユーザU1への指示)、画像、テキスト等の内容を指定する指示も含んでもよい。
 S54で報知開始指示が入力されると、S56において、サーバ100の制御部120は、特定の実行指示を生成する。S56で生成される特定の実行指示は、報知開始指示(S54)が入力された際に指定されたメッセージ、画像、テキスト等を示すメッセージデータも含む。
 次いで、S58では、制御部120は、S56で生成された特定の実行指示を、Wi-FiI/F106を介して、Wi-Fi通信を利用して、端末装置10に供給する。
 端末装置10の制御部20は、S58において、特定の実行指示を取得すると、S60において、取得された特定の実行指示に従って、特定の報知動作を実行する。S60における特定の報知動作も、特定の実行指示に含まれるメッセージデータによって表わされるメッセージ(即ち、対象情報の一部)を表示部12に表示させること、その他の画像等を表示部12に表示させること、所定の報知音をスピーカ34から出力させること、及び、振動発生部38に報知を示す振動を発生させること、を含む。ただし、本実施例では、特定の報知動作の内容は、第1の報知動作の内容と少なくとも一部が異なる。なお、他の例では、特定の報知動作の内容は、第1の報知動作の内容と同様であってもよい。S60で特定の報知動作が行われることにより、ユーザU1は、サーバ100の利用者が現場200に関する何らかの指示を行ったことを把握することができる。また、ユーザU1は、表示部12に表示されたメッセージ等を見ることにより、現場200に関する情報、及び、サーバ100の利用者によるユーザU1への指示の内容等を把握することができる。
 図10を参照して、S60で実行される特定の報知動作の一例を説明する。図10は、上述の図9の指揮画面400の現場データ420に含まれる現場画像が生成された後のS60の時点における、表示部12越しのユーザU1の視界範囲500を示す。図10に示すように、視界範囲500には、図9の現場データ420の現場画像と同様に人物M2が含まれている。図10の視界範囲500には、人物M2の顔の周囲を囲う枠画像510が表示されている。さらに、図10の視界範囲500には、メッセージ520が表示されている。メッセージ520は、人物M2の顔画像、名前、性別、身長、血液型、誕生日、容疑情報等、人物M2(即ち容疑者)の個人データを表わす。即ち、図10の例では、S60において、人物M2が容疑者であることを報知する特定の報知動作が行われていると言える。図10では、制御部20が、カメラ36の撮影画像に基づいて、人物M2の顔の周囲に配置されるように表示位置を計算して、枠画像510を表示部12に表示させることによって、視界範囲500内に枠画像510を表示させている。枠画像510の表示位置等は、サーバ100の利用者が報知開始指示を入力した際に指定されていてもよい。同様に、制御部20が、カメラ36の撮影画像に基づいて、人物M2の隣に配置されるように表示位置を計算して、メッセージ520を表示部12に表示させることによって、視界範囲500内にメッセージ520を表示させている。メッセージ520は、特定の実行指示に含まれるメッセージデータによって表わされる。メッセージ520は、サーバ100の利用者が報知開始指示とともに入力したテキスト情報(例えば、ユーザU1への指示内容等)を含んでもよい。ユーザU1は、図10に示されるように、視界範囲500内に枠画像510及びメッセージ520が表示されることにより、視界範囲500内に存在する人物M2が容疑者であることを把握することができる。また、サーバ100の利用者によって入力されたユーザU1への指示内容等を把握することもできる。
 制御部20は、図8のS60で特定の報知動作を所定期間行った後、特定の報知動作を終了する。
 上記の通り、サーバ100の制御部120は、サーバ100が指揮モードで動作している間、利用者の指示に従って、指揮画面の表示(S52)、特定の実行指示の生成(S56)、及び、端末装置10への特定の実行指示の供給(S58)、の各処理を繰り返し実行する。
 そして、端末装置10の制御部20は、指揮モードで動作中のサーバ100から特定の実行指示を取得する場合に(S58)、特定の実行指示に従って特定の報知動作を実行する(S60)。
 サーバ100の利用者が、操作部104を操作して、所定の指揮モード指示を入力すると、サーバ100の制御部120は、指揮モードを終了させる。その場合、図8の処理が終了する。
 以上、本実施例の情報管理システム2の構成及び動作について説明した。上記の通り、本実施例では、端末装置10は、ユーザU1の頭部に装着可能なフレーム11に、表示部12、操作部14、制御部20、メモリ22、GPS受信機24、Wi-FiI/F26、センサ30、マイク32、スピーカ34、カメラ36、及び、振動発生部38が備えられている(図2、図3参照)。そのため、フレーム11を頭部に装着したユーザU1が現場200に存在する場合において、制御部20が、センサ30、マイク32、カメラ36、及び、GPS受信機24から取得される各情報に基づいて現場情報を生成可能である(図5のS10)とともに、表示部12、スピーカ34、及び、振動発生部38が第1の報知動作を実行することができる(図5のS22)。第1の報知動作が行われることにより、現場200に存在するユーザU1が、当該現場200において生成された現場情報に対応する対象情報が記憶装置に記憶されていることを把握することができる。さらに、フレーム11は、ユーザU1の頭部に装着可能であるため(図1参照)、第1の報知動作が行われた時点で、ユーザU1が両手を現場情報の生成以外の用途のために使える可能性が高い。そのため、現場200に存在するユーザU1(例えば警備担当者等)が、現場の状況に応じた必要な対応を適切に行い得る。
 本実施例では、端末装置10が実行する第1の報知動作(図5のS22)は、第1の実行指示に含まれるメッセージデータによって表わされるメッセージ(即ち、対象情報の少なくとも一部)を表示部12に表示させること、及び、その他の画像等を表示部12に表示させることを含む(図7参照)。そのため、本実施例によると、フレーム11を頭部に装着したユーザU1が、眼に対向する範囲に配置された表示部12に表示されるメッセージ等を見ることにより、現場において生成された現場情報に対応する対象情報が記憶装置に記憶されていることを把握することができる。ユーザU1は、メッセージを見るために、視線を他の範囲(例えば手元)に移動させる必要もない。そのため、ユーザU1が、対象情報が記憶装置に記憶されていることを迅速に把握し得る。また、ユーザU1は、対象情報の少なくとも一部の内容も併せて把握することができる。現場に存在するユーザU1が、現場の状況に応じた必要な対応をより適切に行い得る。
 また、本実施例では、サーバ100の制御部120は、端末装置10から取得された現場情報をデータベース130に記憶させる(図5のS14)。そのため、本実施例では、データベース130には、現場200において生成された様々な現場情報が蓄積され得る。データベース130に多くの情報を記憶させることができる。その結果、制御部120は、より多くの情報に基づいて、現場情報に対応する対象情報が記憶装置に記憶されているのか否かを適切に判断することができる(S16)。
 また、本実施例では、サーバ100が指揮モードで動作する場合において、サーバ100の制御部120は、操作部140に報知開始指示が入力される場合に(図8のS54)、特定の実行指示を生成し(S56)、端末装置10に特定の実行指示を供給する(S58)。そして、端末装置10の制御部20は、指揮モードで動作中のサーバ100から特定の実行指示を取得する場合に(S58)、特定の実行指示に従って特定の報知動作を実行する(S60)。そのため、本実施例では、端末装置10とサーバ100とが離間して配置されている場合であっても、サーバ100の利用者が、所望のタイミングで特定の報知開始指示を入力すれば、端末装置10に特定の報知動作(S60)を実行させることができる。端末装置10が、サーバ100の利用者によって適切に管理される。
 本実施例では、現場情報は、カメラ36によって撮影される現場画像(動画又は静止画)を含む。そのため、サーバ100の制御部120は、現場画像に含まれる人、物、風景、等の画像に基づいて、対象情報がデータベース130に記憶されているのか否かを判断することができる(図5のS16)。
 また、本実施例では、現場情報は、マイク32によって検出される現場200の音声情報を含む。音声情報は、例えば、現場で発生する様々な音声(例えば、背景音、人の話し声等)を含む。そのため、サーバ100の制御部120は、そのような様々な音声に基づいて、対象情報がデータベース130に記憶されているのか否かを判断することができる(図5のS16)。
 また、本実施例では、現場情報は、GPS受信機24によって生成される位置情報を含む。そのため、サーバ100の制御部120は、位置情報によって表わされる端末装置10の位置に基づいて、対象情報がデータベース130に記憶されているのか否かを判断することができる(図5のS16)。
(対応関係)
 カメラ36、マイク32、センサ30、GPS受信機24、及び、制御部20が「現場情報生成部」の一例である。表示部12、スピーカ34、及び、振動発生部38が「報知部」の一例である。サーバ100の制御部120が「制御部」の一例である。データベース130が「記憶装置」の一例である。図5のS16でYESと判断されることが「第1の判断」の一例であり、図5のS16でNOと判断されることが「第2の判断」の一例である。カメラ36が「画像生成部」の一例であり、GPS受信機24が「位置情報生成部」の一例であり、マイク32が「音声情報生成部」の一例である。
(第2実施例)
 図11を参照して、第2実施例について、第1実施例と異なる点を中心に説明する。図11に示すように、本実施例では、通常時におけるサーバ100の制御部120の処理の一部が第1実施例とは異なる。また、本実施例では、データベース130には、捜査情報に代えて、通行許可者の情報が記憶されている。
(通常時の処理;図11)
 図11を参照して、本実施例において、通常時において、端末装置10及びサーバ100が実行する処理について説明する。本実施例でも、端末装置10及びサーバ100の電源がオンされると、図11の処理が開始される。
 S110、S112、S114の各処理は、図5のS10、S12、S14の各処理と同様であるため、詳しい説明を省略する。
 本実施例では、S116において、サーバ100の制御部120が、データベース130内を参照し、S112で取得された現場情報に対応する対象情報が存在しないか否かを判断する。具体的に言うと、S116では、制御部120は、S112で取得された現場情報に含まれる現場画像、位置情報、センサ検出情報、音声情報等に基づいて、それらの各情報と一致する情報に対応付けられてデータベース130内に記憶されている情報(例えば、通行許可者(社員、家族、等)の個人データ等)が存在していないか否かを判断する。データベース130内にそのような情報(例えば、現場情報に対応する通行許可者の個人データ)が記憶されていない場合、制御部120は、S116でYESと判断し、S118に進む。本実施例では、S116でYESと判断された際に、データベース130内で発見されなかった情報のことを「対象情報」と呼ぶ。例えば、S112で取得された現場情報中の現場画像に人物の画像が含まれる場合において、その人物の画像と一致する人物の画像を含む通行許可者の個人データがデータベース130内に記憶されていなかった場合、制御部120は、S116でYESと判断する。この例では、S116でYESと判断される場合、現場画像に含まれる画像の人物が、通行許可者ではない人物(例えば不審者)であることを意味する。
 一方、データベース130内にそのような対象情報(例えば、現場情報に対応する通行許可者の個人データ)が記憶されている場合には、制御部120は、S116でNOと判断し、S124に進む。例えば、S112で取得された現場情報中の現場画像に人物の画像が含まれる場合において、その人物の画像と一致する人物の画像を含む通行許可者の個人データがデータベース130内に記憶されていた場合、制御部120は、S116でNOと判断する。この例では、S116でNOと判断される場合、現場画像に含まれる画像の人物が、通行許可者であることを意味する。
 S118では、制御部120は、第1の実行指示を生成する。S118の内容は、図5のS18とほぼ同様である。S118で生成される第1の実行指示は、端末装置10に、所定の第1の報知動作(例えば、不審者が近づいていることを報知する動作等)を実行させることを指示するコマンドである。S118で生成される第1の実行指示も、メッセージデータを含む。ただし、本実施例のメッセージデータは、対象情報(即ち、現場情報に対応する通行許可者の個人データ)を含んでいてもよいし、含んでいなくてもよい。
 S120では、制御部120は、S18で生成された第1の実行指示を、Wi-FiI/F106を介して、Wi-Fi通信を利用して、端末装置10に供給する。
 端末装置10の制御部20は、S120において、第1の実行指示を取得すると、S22において、取得された第1の実行指示に従って、第1の報知動作を実行する。本実施例では、S122で第1の報知動作が行われることにより、ユーザU1は、現場200に関係する対象情報が存在しないこと(例えば、現場200に不審者が近づいてきたこと)を把握することができる。本実施例でも、制御部20は、S122で第1の報知動作を所定期間行った後、S110に戻る。
 一方、S124(即ち、S116でNOと判断された場合)では、サーバ100の制御部120は、第1の実行指示(S118参照)を生成しない。そのため、この場合、端末装置10では、第1の報知動作は行われない。この場合も、制御部20はS110に戻る。
 上記の通り、本実施例でも、通常時において、端末装置10の制御部20は、定期的に現場情報を生成してサーバ100に供給している(S110、S112参照)。そして、制御部20は、現場情報をサーバ100に供給した結果、サーバ100から第1の実行指示を取得すると(S120)、取得された第1の実行指示に従って第1の報知動作を実行する(S122)。また、サーバ100の制御部120は、定期的に端末装置10から供給される現場情報を取得し(S112)、取得された現場情報をデータベース130に記憶させる(S114)。そして、制御部120は、データベース130内に対象情報が存在しないと判断される場合(S116でYES)に、第1の実行指示を生成し(S118)、第1の実行指示を端末装置10に供給する(S120)。このように、本実施例では、端末装置10の制御部20、及び、サーバ100の制御部120は、図11のS110~S124の各処理を繰り返し実行している。
(対応関係)
 図11のS116でYESと判断されることが「第1の判断」の一例であり、図11のS116でNOと判断されることが「第2の判断」の一例である。
(第3実施例)
 第3実施例は、第1実施例の変形態様の一例である。図5を参照して、第3実施例について、第1実施例と異なる点を中心に説明する。図5に示すように、本実施例では、通常時における端末装置10の制御部20の処理、及び、サーバ100の制御部120の処理の一部が第1実施例とは異なる。
(通常時の処理;図5)
 S10~S16までの各処理、及び、S16でYESと判断された後のS18~S22の各処理については、第1実施例と同様であるため、詳しい説明を省略する。図5に示すように、本実施例では、S16でNOと判断された場合(即ち、サーバ100の制御部120がデータベース130内に対象情報が存在しないと判断した場合)に、S24に代えて、S30~S34の各処理が実行される点が、第1実施例とは異なる。
 S30では、サーバ100の制御部120は、第2の実行指示を生成する。S30で生成される第2の実行指示も、端末装置10に、所定の第2の報知動作を実行させることを指示するコマンドである。ただし、第2の報知動作の内容は、第1の報知動作の内容とは異なる。S30で生成される第2の実行指示も、メッセージデータを含む。ただし、第2の実行指示に含まれるメッセージデータは、対象情報(即ち、容疑者の個人データに含まれる顔画像、テキストデータ等)を含んでいてもよいし、含んでいなくてもよい。第2の実行指示に含まれるメッセージデータは、対象情報の一部に代えて、例えば、容疑者ではない旨のメッセージを示すテキスト情報を含んでいてもよい。
 次いで、S32では、制御部20は、S30で生成された第2の実行指示を、Wi-FiI/F106を介して、Wi-Fi通信を利用して、端末装置10に供給する。
 端末装置10の制御部20は、S32において、第2の実行指示を取得すると、S34において、取得された第2の実行指示に従って、第2の報知動作を実行する。第2の報知動作は、第2の実行指示に含まれるメッセージデータによって表わされるメッセージ(即ち、例えば、容疑者ではない旨を示すテキスト情報)を表示部12に表示させること、その他の画像等を表示部12に表示させること、所定の報知音をスピーカ34から出力させること、及び、振動発生部38に報知を示す振動を発生させること、を含む。上記の通り、S34で実行される第2の報知動作の内容は、S22で実行される第1の報知動作の内容とは異なる。S34で第2の報知動作が行われることにより、ユーザU1は、現場200に関係する対象情報が存在しないこと(例えば、この時点で、現場200には、現場200に関係する容疑者等が存在しないこと)を把握することができる。
 本実施例によると、端末装置10は、図5のS32で第2の実行指示を取得すると、S34において、取得された第2の実行指示に従って、第2の報知動作を実行する。S34で第2の報知動作が行われることにより、ユーザU1は、現場200に関係する対象情報が存在しないこと(例えば、この時点で、現場200には、現場200に関係する容疑者等が存在しないこと)を把握することができる。そのため、現場200に存在するユーザU1が、現場200の状況に応じた必要な対応をより適切に行い得る。
(第4実施例)
 第4実施例は、第2実施例の変形態様の一例である。図11を参照して、第4実施例について、第2実施例と異なる点を中心に説明する。図11に示すように、本実施例でも、通常時における端末装置10の制御部20の処理、及び、サーバ100の制御部120の処理の一部が第2実施例とは異なる。
(通常時の処理;図11)
 S110~S116までの各処理、及び、S116でYESと判断された後のS118~S122の各処理については、第2実施例と同様であるため、詳しい説明を省略する。図11に示すように、本実施例では、S116でNOと判断された場合(即ち、サーバ100の制御部120がデータベース130内に対象情報が存在すると判断した場合)に、S124に代えて、S130~S134の各処理が実行される点が、第2実施例とは異なる。
 S130では、サーバ100の制御部120は、第2の実行指示を生成する。S130で生成される第2の実行指示も、端末装置10に、所定の第2の報知動作を実行させることを指示するコマンドである。ただし、本実施例でも、第2の報知動作の内容は、第1の報知動作の内容とは異なる。S130で生成される第2の実行指示も、メッセージデータを含む。ただし、本実施例でも、第2の実行指示に含まれるメッセージデータは、対象情報(例えば、現場情報に対応する通行許可者の個人データ)を含んでいてもよいし、含んでいなくてもよい。第2の実行指示に含まれるメッセージデータは、対象情報の一部に代えて、例えば、通行を許可する旨のメッセージを示すテキスト情報を含んでいてもよい。
 次いで、S132では、制御部20は、S30で生成された第2の実行指示を、Wi-FiI/F106を介して、Wi-Fi通信を利用して、端末装置10に供給する。
 端末装置10の制御部20は、S132において、第2の実行指示を取得すると、S134において、取得された第2の実行指示に従って、第2の報知動作を実行する。第2の報知動作は、第2の実行指示に含まれるメッセージデータによって表わされるメッセージ(即ち、例えば、通行を許可する旨を示すテキスト情報)を表示部12に表示させること、その他の画像等を表示部12に表示させること、所定の報知音をスピーカ34から出力させること、及び、振動発生部38に報知を示す振動を発生させること、を含む。上記の通り、S134で実行される第2の報知動作の内容は、S122で実行される第1の報知動作の内容とは異なる。S134で第2の報知動作が行われることにより、ユーザU1は、現場200に関係する対象情報が存在すること(例えば、現場200には通行許可者が存在すること)を把握することができる。
 本実施例によると、端末装置10は、図11のS132で第2の実行指示を取得すると、S134において、取得された第2の実行指示に従って、第2の報知動作を実行する。S134で第2の報知動作が行われることにより、ユーザU1は、現場200に関係する対象情報が存在すること(例えば、現場200に通行許可者が存在すること)を把握することができる。そのため、現場200に存在するユーザU1が、現場200の状況に応じた必要な対応をより適切に行い得る。
 以上、実施例を詳細に説明したが、これらは例示に過ぎず、請求の範囲を限定するものではない。請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。例えば、以下の変形例を採用してもよい。
(変形例1)情報管理システム2は、端末装置10のみを備え、サーバ100を備えていなくてもよい。即ち、本変形例では、端末装置10が、上記の各実施例の端末装置10の機能とサーバ100の機能の両方を発揮してもよい。この場合、端末装置10のメモリ22にデータベース130が記憶されていてもよい。そして、制御部20は、生成した現場情報に対応する対象情報がデータベース130内に記憶されているか否か(又は、記憶されていないか否か)を判断し、その判断結果に応じて、第1、第2の報知動作を行うようにしてもよい。本変形例では、制御部20が「制御部」の一例である。
(変形例2)上記の第1~第4実施例では、サーバ100のメモリ122内にデータベース130が記憶されている。これに限られず、データベース130は、サーバ100とは別個の記憶装置として構成されていてもよい。この場合、サーバ100の制御部120は、インターネット4を介して、サーバ100外に設けられたデータベース130にアクセスしてもよい。
(変形例3)上記の第1~第4実施例では、表示部12は、透光性のディスプレイであり、ユーザU1がフレーム11を頭部に装着した場合に、ユーザU1の眼に対向する範囲に備えられる。これに限られず、表示部12は、遮光性の表示部材であってもよい。その場合、制御部20は、カメラ36の撮影画像を表示部12に表示させることにより、ユーザU1に周囲の様子を視認させるようにしてもよい。
(変形例4)端末装置10は、カメラ36、マイク32、センサ30、GPS受信機24のうちのいずれか1個以上を有していれば、他の1個以上を省略してもよい。即ち、現場情報は、現場画像、音声情報、位置情報、センサ検出情報のうちのいずれか1個以上を含んでいればよい。
(変形例5)報知動作(即ち、第1の報知動作、第2の報知動作、及び、特定の報知動作)の内容は、上記の第1~第4実施例で説明したものには限られず、任意の内容であってもよい。例えば、振動発生部38による振動の発生、スピーカ34からの音声の発生のうちの一方又は双方が省略されてもよい。また、表示部12にメッセージが表示されなくてもよい。表示部12の表示色が変化することで報知動作(即ち、第1の報知動作、第2の報知動作、及び、特定の報知動作)が行われてもよい。
(変形例6)上記の第1~第4実施例では、端末装置10は、略眼鏡状のフレーム11を有しており、眼鏡を装着するようにユーザU1の頭部に装着可能なものである。これに限られず、端末装置は、ユーザの頭部に装着可能であれば、帽子状、ヘルメット状等、任意のフレームを有していてもよい。
(変形例7)上記の通り、図1の例では、サーバ100と通信可能な1個の端末装置10のみが図示されているが、実際の情報管理システム2では、サーバ100と通信可能な複数個の端末装置が備えられていてもよい。その場合、複数個の端末装置のそれぞれが、異なるユーザの頭部に装着されていてもよい。さらに、複数個の端末装置のうちのいずれか1個の端末装置において報知動作が行われるべきタイミングにおいて、複数個の端末装置のすべてにおいて、共通の報知動作(即ち、第1の報知動作、第2の報知動作、及び、特定の報知動作)を行わせるようにしてもよい。
(変形例8)上記の変形例7において、さらに、複数個の端末装置のうちのいずれか1個の端末装置において報知動作が行われるべきタイミングにおいて、複数個の端末装置の一部の端末装置のみにおいて、共通の報知動作(即ち、第1の報知動作、第2の報知動作、及び、特定の報知動作)を行わせるようにしてもよい。その場合、特定の端末装置は、現場情報をサーバ100に供給した端末装置を含んでもよいし、含まなくてもよい。
(変形例9)また、情報管理システムは、複数個の端末装置によってのみ構成され、サーバを備えていなくてもよい。この場合、例えば、複数個の端末装置のうちのいずれか1個の端末装置が生成した現場情報に対応する対象情報が、自身が記憶するデータベース内に存在するか否か(又は、存在しないか否か)を判断し、その判断結果に応じて、他の端末装置に実行指示を送信し、他の端末装置は、取得された実行指示に応じて、報知動作(即ち、第1の報知動作、第2の報知動作、及び、特定の報知動作)を行うようにしてもよい。また、本変形例において、いずれか1個の端末装置が生成した現場情報に対応する対象情報を他の端末装置に供給し、他の端末装置が、取得された対象情報が、自身が記憶するデータベース内に存在するか否か(又は、存在しないか否か)を判断し、その判断結果に応じて、他の端末装置が、報知動作を行うようにしてもよい。すなわち、情報管理システムを構成する複数個の端末装置のうち、どちらが現場情報を生成するか、どちらがデータベースを持っていて記憶されているか否かを判断するか、どちらが報知動作を行うかについては、どのような組み合わせであってもよいし、複数個の端末装置のそれぞれが行ってもよい。端末装置は複数個であれば任意の数(例えば3個以上)であってもよい。
 また、本明細書または図面に説明した技術要素は、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時請求項記載の組合せに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。

Claims (9)

  1.  ユーザの頭部に装着可能なフレームと、
     前記フレームに搭載され、現場に関する現場情報を生成する現場情報生成部と、
     前記フレームに搭載され、第1の報知動作を実行可能な報知部と、
     制御部と、を備え、
     前記制御部は、
      前記現場情報生成部から前記現場情報を取得する取得部と、
      前記取得部によって取得された前記現場情報に対応する対象情報が記憶装置に記憶されているのか否かに関係する判断を行う判断部と、
      前記判断部によって、前記対象情報が前記記憶装置に記憶されていることと、前記対象情報が前記記憶装置に記憶されていないことと、のうちの一方である第1の判断が行われる場合に、前記報知部に、第1の報知動作を実行させるための第1の実行指示を供給し、前記判断部によって、前記対象情報が前記記憶装置に記憶されていることと、前記対象情報が前記記憶装置に記憶されていないことと、のうちの他の一方である第2の判断が行われる場合に、前記第1の実行指示を供給しない、指示供給部と、を備え、
     前記報知部は、前記指示供給部から前記第1の実行指示を取得する場合に、前記第1の報知動作を実行する、
     情報管理システム。
  2.  前記報知部は、前記フレームが前記ユーザの前記頭部に装着された状態で、前記ユーザの眼に対向する範囲に配置される表示部を含み、
     前記第1の実行指示は、メッセージを表わすメッセージデータを含み、
     前記第1の報知動作は、前記第1の実行指示に含まれる前記メッセージデータによって表わされる前記メッセージを前記表示部に表示させることを含む、
     請求項1に記載の情報管理システム。
  3.  前記メッセージは、前記対象情報の少なくとも一部を含む、
     請求項2に記載の情報管理システム。
  4.  前記指示供給部は、前記判断部によって前記第2の判断が行われる前記場合に、前記報知部に、前記第1の報知動作とは異なる第2の報知動作を実行させるための第2の実行指示を供給し、
     前記報知部は、前記指示供給部から前記第2の実行指示を取得する場合に、前記第2の報知動作を実行する、
     請求項1から3のいずれか一項に記載の情報管理システム。
  5.  前記制御部は、さらに、前記取得部によって取得された前記現場情報を前記記憶装置に記憶させる記憶制御部を備える、
     請求項1から4のいずれか一項に記載の情報管理システム。
  6.  前記情報管理システムは、
      前記フレームと前記現場情報生成部と前記報知部とを備える端末装置と、
      前記端末装置とは別個のサーバであって、前記制御部と、入力部と、を備えるサーバと、
     を有しており、
     前記指示供給部は、前記入力部に報知開始指示が入力される場合に、前記報知部に、特定の報知動作を実行させるための特定の実行指示を供給し、
     前記報知部は、前記指示供給部から前記特定の実行指示を取得する場合に、前記特定の報知動作を実行する、
     請求項1から5のいずれか一項に記載の情報管理システム。
  7.  前記現場情報生成部は、前記現場に関係する現場画像を生成するための画像生成部を含み、
     前記現場情報は、前記現場画像を含む、
     請求項1から6のいずれか一項に記載の情報管理システム。
  8.  前記現場情報生成部は、前記現場の位置を特定するための位置情報を生成するための位置情報生成部を含み、
     前記現場情報は、前記位置情報を含む、
     請求項1から7のいずれか一項に記載の情報管理システム。
  9.  前記現場情報生成部は、前記現場で発生された音声を表わす音声情報を生成するための音声情報生成部を含み、
     前記現場情報は、前記音声情報を含む、
     請求項1から8のいずれか一項に記載の情報管理システム。
     
PCT/JP2018/013480 2018-03-29 2018-03-29 情報管理システム WO2019186977A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2018/013480 WO2019186977A1 (ja) 2018-03-29 2018-03-29 情報管理システム
JP2020508773A JPWO2019186977A1 (ja) 2018-03-29 2018-03-29 情報管理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/013480 WO2019186977A1 (ja) 2018-03-29 2018-03-29 情報管理システム

Publications (1)

Publication Number Publication Date
WO2019186977A1 true WO2019186977A1 (ja) 2019-10-03

Family

ID=68058598

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/013480 WO2019186977A1 (ja) 2018-03-29 2018-03-29 情報管理システム

Country Status (2)

Country Link
JP (1) JPWO2019186977A1 (ja)
WO (1) WO2019186977A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014197330A (ja) * 2013-03-29 2014-10-16 綜合警備保障株式会社 警備装置、警備方法およびプログラム
JP2016066314A (ja) * 2014-09-25 2016-04-28 綜合警備保障株式会社 警備システム及び警備方法
JP2017060158A (ja) * 2015-09-14 2017-03-23 パナソニックIpマネジメント株式会社 ウェアラブルカメラシステム及び人物報知方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4186392B2 (ja) * 2000-07-24 2008-11-26 株式会社島津製作所 呼気測定器及び呼気測定機能を有するマイク応用装置
DE102010009476A1 (de) * 2009-12-15 2011-06-16 Testo Ag Verfahren und Vorrichtung zur Visualisierung von ortsaufgelösten Messergebnissen von nicht unmittelbar für das menschliche Auge sichtbaren Eigenschaften
CN103217810A (zh) * 2012-01-19 2013-07-24 张玲 警用歹徒dna扫描器带显示器眼镜
KR101187735B1 (ko) * 2012-02-28 2012-10-08 (주) 에이스엔 구취 측정 시스템
JP2016042217A (ja) * 2014-08-13 2016-03-31 株式会社ニコン 電子装置
WO2016031080A1 (ja) * 2014-08-29 2016-03-03 株式会社アロマビット 嗅覚システム、匂い識別装置、匂い識別方法
BR112018007142B1 (pt) * 2015-10-08 2021-05-11 Ak Globaltech Corp módulo de sensor de álcool substituível, bafômetro e sensor de álcool

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014197330A (ja) * 2013-03-29 2014-10-16 綜合警備保障株式会社 警備装置、警備方法およびプログラム
JP2016066314A (ja) * 2014-09-25 2016-04-28 綜合警備保障株式会社 警備システム及び警備方法
JP2017060158A (ja) * 2015-09-14 2017-03-23 パナソニックIpマネジメント株式会社 ウェアラブルカメラシステム及び人物報知方法

Also Published As

Publication number Publication date
JPWO2019186977A1 (ja) 2021-03-18

Similar Documents

Publication Publication Date Title
JP7160154B2 (ja) システム、異常判定装置及び方法
Ahmed et al. Addressing physical safety, security, and privacy for people with visual impairments
US10395116B2 (en) Dynamically created and updated indoor positioning map
US8606316B2 (en) Portable blind aid device
JP4633043B2 (ja) 画像処理装置
ES2338191T3 (es) Un dispositivo y un sistema de seguridad.
JP7162412B2 (ja) 検知認識システム
CN106471419A (zh) 管理信息显示
US20180204078A1 (en) System for monitoring the state of vigilance of an operator
CN109446947A (zh) 视频中的增强的脸部识别
WO2020020022A1 (zh) 视觉识别方法及其系统
CN103731659A (zh) 头戴式显示设备
US8704893B2 (en) Ambient presentation of surveillance data
CN112005282A (zh) 混合现实设备的警报
JP2021176235A (ja) 画像処理方法
JP6876804B2 (ja) 監視システム及び監視方法
JP6120444B2 (ja) ウェアラブルデバイス
WO2019186977A1 (ja) 情報管理システム
JP2008225801A (ja) 不審者検知システム及び方法
US20190026939A1 (en) Systems and methods for blind and visually impaired person environment navigation assistance
JP6321848B2 (ja) ウェアラブルデバイス
JP4403039B2 (ja) 画像処理装置、画像処理システム
JP2015176489A (ja) 監視システムおよび監視方法ならびに監視プログラム
JP2018137683A (ja) 通報支援システム、携帯端末、通報支援方法およびプログラム
JP2006074194A (ja) 監視システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18912712

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020508773

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18912712

Country of ref document: EP

Kind code of ref document: A1