WO2024111119A1 - 認証システム、認証方法及び記録媒体 - Google Patents

認証システム、認証方法及び記録媒体 Download PDF

Info

Publication number
WO2024111119A1
WO2024111119A1 PCT/JP2022/043605 JP2022043605W WO2024111119A1 WO 2024111119 A1 WO2024111119 A1 WO 2024111119A1 JP 2022043605 W JP2022043605 W JP 2022043605W WO 2024111119 A1 WO2024111119 A1 WO 2024111119A1
Authority
WO
WIPO (PCT)
Prior art keywords
person
authentication
display
authenticated
area
Prior art date
Application number
PCT/JP2022/043605
Other languages
English (en)
French (fr)
Inventor
雄介 森下
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2022/043605 priority Critical patent/WO2024111119A1/ja
Publication of WO2024111119A1 publication Critical patent/WO2024111119A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition

Definitions

  • This disclosure relates to the technical fields of authentication systems, authentication methods, and recording media.
  • One such system that has been proposed is one that, when a user's mobile terminal device enters a ticket gate area, determines whether the facial image of the user captured in the ticket gate area matches a facial image corresponding to the user's identification information, and performs entry or exit processing if a match is determined (see Patent Document 1).
  • the objective of this disclosure is to provide an authentication system, authentication method, and recording medium that aim to improve upon the technology described in prior art documents.
  • One aspect of the authentication system includes an image acquisition means for acquiring an image including a facial recognition area through which a person to be authenticated who is heading toward an entrance restricted area passes, a facial recognition means for performing facial recognition of the person to be authenticated based on the acquired image, and a display means that is placed at least either above the head or at the feet of the person to be authenticated and displays the results of the facial recognition after the person to be authenticated leaves the entrance restricted area side of the facial recognition area.
  • One aspect of the authentication method involves acquiring an image including a facial recognition area through which a person to be authenticated passes as he or she approaches a restricted entry area, performing facial recognition of the person to be authenticated based on the acquired image, and displaying the results of the facial recognition at least either above the person's head or at the person's feet after the person to be authenticated leaves the restricted entry area side of the facial recognition area.
  • a computer program is recorded to cause a computer to execute an authentication method that acquires an image including a facial recognition area through which a person to be authenticated who is heading toward a restricted entry area passes, performs facial recognition of the person to be authenticated based on the acquired image, and displays the results of the facial recognition at least either above the head or at the feet of the person to be authenticated after the person to be authenticated leaves the restricted entry area side of the facial recognition area.
  • FIG. 1 illustrates an example of an authentication system.
  • FIG. 1 is a diagram illustrating an example of a gate to which an authentication system is applied.
  • FIG. 1 is a diagram illustrating an example of the configuration of a face authentication device.
  • FIG. 11 is a diagram for explaining a person tracking process.
  • FIG. 13 is a diagram illustrating an example of an ID correspondence table. 13 is a flowchart showing a tracking and face authentication operation according to the second embodiment. 10 is a flowchart showing a display control operation according to the second embodiment.
  • FIG. 4 is a diagram showing an example of a screen displayed on a display device.
  • FIG. 13 is a diagram showing another example of a gate to which the authentication system is applied.
  • FIG. 11 is a diagram showing another example of a gate to which the authentication system is applied.
  • FIG. 11 is a diagram showing another example of a gate to which the authentication system is applied.
  • FIG. 11 is a diagram showing another example of a gate to which the authentication system is applied
  • This section describes embodiments of an authentication system, authentication method, and recording medium.
  • FIG. 1 A first embodiment of an authentication system, an authentication method, and a recording medium will be described with reference to Fig. 1. In the following, the first embodiment of the authentication system, the authentication method, and a recording medium will be described using an authentication system 1.
  • the authentication system 1 comprises an image acquisition unit 11, a face authentication unit 12, and a display unit 13.
  • the image acquisition unit 11 acquires an image including a face authentication area through which a person to be authenticated passes as he or she approaches the restricted entry area.
  • the face authentication unit 12 performs face authentication of the person to be authenticated based on the image acquired by the image acquisition unit 11.
  • the display unit 13 is disposed at least either above the head or at the feet of the person to be authenticated.
  • the display unit 13 displays the results of face authentication by the face authentication unit 12 after the person to be authenticated leaves the restricted entry area side of the face authentication area.
  • the authentication system 1 performs an authentication method in which the image acquisition unit 11 acquires an image including a facial authentication area, the facial authentication unit 12 performs facial authentication based on the acquired image, and after the person to be authenticated leaves the entrance restricted area side of the facial authentication area, the display unit 13 displays the facial authentication result above or at the feet of the person to be authenticated.
  • Such an authentication system 1 may be realized by a computer reading a computer program recorded on a recording medium.
  • the recording medium has recorded thereon a computer program for causing the computer to execute an authentication method in which an image including a facial authentication area through which a person to be authenticated who is heading toward the entrance restricted area passes, facial authentication of the person to be authenticated based on the acquired image, and after the person to be authenticated leaves the entrance restricted area side of the facial authentication area, the facial authentication result is displayed above or at the feet of the person to be authenticated.
  • the entrance restricted area is an area where a person to be authenticated who has successfully passed face authentication by the face authentication unit 12 can enter.
  • the face authentication area is an area through which a person to be authenticated who is heading to the entrance restricted area passes.
  • the face authentication unit 12 performs face authentication of the person to be authenticated based on an image including the face authentication area. Therefore, the person to be authenticated does not need to stop in front of the camera.
  • the face authentication unit 12 performs face authentication of the person to be authenticated while the person is walking toward the entrance restricted area.
  • the authentication system 1 is a system that performs walk-through face authentication.
  • the person to be authenticated does not need to stop for facial recognition, so the person to be authenticated can smoothly enter the restricted entry area.
  • the person to be authenticated has a desire to check whether or not they have been allowed to enter the restricted entry area (in other words, whether or not the facial recognition was successful).
  • the person to be authenticated may feel uneasy about heading to the restricted entry area without checking the results of the facial recognition.
  • the display unit 13 that displays the results of the facial authentication is placed at least one of above the head and below the feet of the person to be authenticated.
  • the person to be authenticated can relatively easily view the display unit 13 even if there are other people to be authenticated around the person to be authenticated.
  • the display unit 13 is placed at the feet of the person to be authenticated, the person to be authenticated can also relatively easily view the display unit 13. In this way, when the display unit 13 is placed above the head of the person to be authenticated or when it is placed at the feet of the person to be authenticated, the person to be authenticated can relatively easily view the display unit 13.
  • the person to be authenticated can relatively easily check the results of his/her own facial authentication. Therefore, according to the authentication system 1, the desire of the person to be authenticated described above can be satisfied. As a result, the person to be authenticated can approach the entrance restricted area with peace of mind. This makes it possible to realize a smoother entrance of the person to the entrance restricted area.
  • Second Embodiment A second embodiment of the authentication system, authentication method, and recording medium will be described with reference to Fig. 2 to Fig. 7. In the following, the second embodiment of the authentication system, authentication method, and recording medium will be described using an authentication system 2.
  • the authentication system 2 will be described with reference to Figs. 2 and 3.
  • the authentication system 2 includes a camera CAM arranged at the gate G, display devices M1 and M2, and a face authentication device 20 (see Fig. 3). Note that the authentication system 2 may include three or more display devices.
  • the authentication system 2 may include two or more cameras.
  • the camera CAM and the face authentication device 20 are configured to be able to communicate with each other.
  • the display devices M1 and M2 and the face authentication device 20 are configured to be able to communicate with each other.
  • the communication between the camera CAM and the face authentication device 20 may be wired communication or wireless communication.
  • the communication between the display devices M1 and M2 and the face authentication device 20 may be wired communication or wireless communication.
  • the wired communication is not limited to communication via a network, but is a concept that includes communication via a cable for connecting the camera CAM and at least one of the display devices M1 and M2 to the face authentication device 20, such as a USB (Universal Serial Bus) cable.
  • the wireless communication is not limited to communication via a network, but is a concept that includes short-range wireless communication such as Bluetooth (registered trademark).
  • the face authentication device 20 includes a calculation device 21, a storage device 22, and a communication device 23.
  • the face authentication device 20 may include an input device 24 and an output device 25.
  • the face authentication device 20 may include a face feature database 26 (hereinafter, referred to as "face feature DB 26").
  • face authentication device 20 may not include at least one of the input device 24 and the output device 25.
  • the calculation device 21, the storage device 22, the communication device 23, the input device 24, the output device 25, and the face feature DB 26 may be connected via a data bus 27.
  • the face authentication device 20 may be realized by a terminal device such as a notebook personal computer.
  • the face authentication device 20 may be realized by a server device such as a cloud server.
  • the computing device 21 may include, for example, at least one of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an FPGA (Field Programmable Gate Array), a TPU (Tensor Processing Unit), and a quantum processor.
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • FPGA Field Programmable Gate Array
  • TPU Torsor Processing Unit
  • quantum processor a quantum processor
  • the storage device 22 may include, for example, at least one of a RAM (Random Access Memory), a ROM (Read Only Memory), a hard disk device, an optical magnetic disk device, an SSD (Solid State Drive), and an optical disk array.
  • the storage device 22 may include a non-transient recording medium.
  • the storage device 22 is capable of storing desired data.
  • the storage device 22 may temporarily store a computer program executed by the arithmetic device 21.
  • the storage device 22 may temporarily store data that is temporarily used by the arithmetic device 21 when the arithmetic device 21 is executing a computer program.
  • the communication device 23 may be capable of communicating with a device external to the face authentication device 20 (e.g., at least one of the camera CAM and the display devices M1 and M2).
  • the communication device 23 may perform wired communication or wireless communication.
  • the input device 24 is a device capable of accepting information input to the facial recognition device 20 from the outside.
  • the input device 24 may include an operating device (e.g., a keyboard, a mouse, a touch panel, etc.) that can be operated by an operator of the facial recognition device 20.
  • the input device 24 may include a recording medium reading device capable of reading information recorded on a recording medium that is detachable from the facial recognition device 20, such as a USB memory. Note that when information is input to the facial recognition device 20 via the communication device 23 (in other words, when the facial recognition device 20 obtains information via the communication device 23), the communication device 23 may function as an input device.
  • the output device 25 is a device capable of outputting information to the outside of the facial recognition device 20.
  • the output device 25 may output visual information such as characters and images, auditory information such as voice, or tactile information such as vibration, as the above information.
  • the output device 25 may include at least one of a display, a speaker, a printer, and a vibration motor, for example.
  • the output device 25 may be capable of outputting information to a recording medium that is detachable from the facial recognition device 20, such as a USB memory. Note that when the facial recognition device 20 outputs information via the communication device 23, the communication device 23 may function as an output device.
  • the calculation device 21 may have the image acquisition unit 211, the tracking unit 212, the face authentication unit 213, and the display control unit 214 as logically realized functional blocks or as physically realized processing circuits. At least one of the image acquisition unit 211, the tracking unit 212, the face authentication unit 213, and the display control unit 215 may be realized in a form in which a logical functional block and a physical processing circuit (i.e., hardware) are mixed.
  • the tracking unit 212, the face authentication unit 213, and the display control unit 215 are functional blocks, at least a part of the image acquisition unit 211, the tracking unit 212, the face authentication unit 213, and the display control unit 215 may be realized by the calculation device 21 executing a predetermined computer program.
  • the arithmetic device 21 may obtain (in other words, read) the above-mentioned specific computer program from the storage device 22.
  • the arithmetic device 21 may read the above-mentioned specific computer program stored in a computer-readable and non-transient recording medium using a recording medium reading device (not shown) provided in the face recognition device 20.
  • the arithmetic device 21 may obtain (in other words, download or read) the above-mentioned specific computer program from a device (not shown) external to the face recognition device 20 via the communication device 23.
  • the recording medium for recording the above-mentioned specific computer program executed by the arithmetic device 21 may be at least one of an optical disk, a magnetic medium, a magneto-optical disk, a semiconductor memory, and any other medium capable of storing a program.
  • the rear side of gate G is the restricted entry area RA.
  • Only people whose face has been successfully authenticated can enter the restricted entry area RA.
  • Specific examples of restricted entry areas RA include security areas in offices, areas inside ticket gates at train stations, security areas at airports, paid areas at theme parks, and areas inside event venues.
  • the camera CAM captures an image of the facial recognition area FRA through which multiple people pass as they head toward the entrance restriction area RA.
  • the camera CAM captures an image of the facial recognition area FRA to generate an image including the facial recognition area FRA.
  • the image acquisition unit 211 of the facial recognition device 20 acquires the image generated by the camera CAM via the communication device 23.
  • the image acquisition unit 211 stores the acquired image in the storage device 22. Note that, as shown in FIG. 2, the entrance restriction area RA and the facial recognition area FRA are set so as not to overlap.
  • tracking process performed by the tracking unit 212 a case where the tracking unit 212 performs tracking process on person P1 will be described with reference to Figures 4 and 5.
  • face authentication process performed by the face authentication unit 213 a case where the face authentication unit 213 performs face authentication process on person P1 will be described.
  • various existing methods for example, at least one of a two-dimensional (2D) authentication method and a three-dimensional (3D) authentication method) can be applied to the face authentication process.
  • the tracking unit 212 sets the tracking area TA1, it sets a tracking ID, which is identification information for identifying the person P1 related to the tracking area TA1, to the person P1.
  • the tracking unit 212 calculates the position of the person P1 (for example, the position of the feet of the person P1) based on the tracking area TA1. Note that since existing technology can be applied to the method of calculating the position of the subject contained in the image from the image, a detailed explanation is omitted.
  • the tracking unit 212 associates the tracking ID with the position of the person P1 and registers them in an ID correspondence table 221 (see Figure 5) stored in the storage device 22.
  • a person corresponding to the person (here, person P1) indicated by the face image transmitted from the tracking unit 212 is identified from among the multiple people registered in the face feature DB 26.
  • the face authentication unit 213 determines that face authentication has failed. In this case, it is highly likely that the person corresponding to the person indicated by the face image sent from the tracking unit 212 (here, person P1) is not registered in the face feature DB 26.
  • the tracking unit 212 detects the head of person P1. Based on the detected head of person P1, the tracking unit 212 sets an area including the head of person P1 as tracking area TA2. Since person P1 included in image IMG1 and person P1 included in image IMG2 are the same person, the tracking ID of person P1 related to tracking area TA2 is the same as the tracking ID of person P1 related to tracking area TA1. The tracking unit 212 calculates the position of person P1 based on tracking area TA2.
  • the tracking unit 212 judges whether or not the face of the person P1 is reflected in the tracking area TA2. In other words, the tracking unit 212 performs face detection on the tracking area TA2. When it is judged that the face of the person P1 is reflected in the tracking area TA2, the tracking unit 212 generates a face image including the face area of the person P1. The tracking unit 212 transmits the generated face image to the face authentication unit 213 in association with the tracking ID related to the person P1. Note that, when it is judged that the face of the person P1 is not reflected in the tracking area TA2, the tracking unit 212 does not need to generate a face image.
  • the tracking unit 212 may use images IMG3 and IMG2 to identify person P1 included in image IMG3. When person P1 included in image IMG3 is identified, the tracking unit 212 detects the head of person P1. Based on the detected head of person P1, the tracking unit 212 sets an area including the head of person P1 as tracking area TA3. Since person P1 included in image IMG2 and person P1 included in image IMG3 are the same person, the tracking ID of person P1 related to tracking area TA3 is the same as the tracking ID of person P1 related to tracking area TA2. The tracking unit 212 calculates the position of person P1 based on tracking area TA3.
  • the tracking unit 212 registers the position of person P1 in the ID correspondence table 321 in association with the tracking ID related to person P1. In this case, since the position of person P1 calculated based on tracking area TA2 is registered in the ID correspondence table 221, the tracking unit 212 registers the position of person P1 calculated based on tracking area TA3 in the ID correspondence table 221, thereby updating the position of person P1.
  • the tracking unit 212 judges whether or not the face of person P1 is reflected in the tracking area TA3. In other words, the tracking unit 212 performs face detection on the tracking area TA3. When it is judged that the face of person P1 is reflected in the tracking area TA3, the tracking unit 212 generates a face image including the face area of person P1. The tracking unit 212 transmits the generated face image to the face authentication unit 213 in association with the tracking ID related to person P1. Note that, when it is judged that the face of person P1 is not reflected in the tracking area TA3, the tracking unit 212 does not need to generate a face image.
  • the tracking unit 212 does not need to generate a face image.
  • the face authentication unit 213 performs face authentication processing using the face image transmitted from the tracking unit 212. If face authentication is successful, the face authentication unit 213 registers in the ID correspondence table 221 an authentication ID indicating a person registered in the face feature amount DB 26 that corresponds to the person (here, person P1) indicated by the face image transmitted from the tracking unit 212, in association with the tracking ID associated with the face image. In addition to the authentication ID, the face authentication unit 213 may register in the ID correspondence table 221 an authentication time, which is the time when the face authentication processing was performed. Note that if the authentication time has already been registered in the ID correspondence table 221 (i.e., if face authentication has been successful in the past), the face authentication unit 213 may update the authentication time registered in the ID correspondence table 221. If face authentication is unsuccessful, the face authentication unit 213 may register information indicating that there is no corresponding person (for example, "N/A") in the ID correspondence table 221 in association with the tracking ID associated with the face image transmitted from the tracking unit 212.
  • the tracking unit 212 may perform the following process. After tracking of person P1 is interrupted, the tracking unit 212 may determine whether a new person has been detected from the image acquired by the image acquisition unit 211 (i.e., the image generated by the camera CAM). A "new person" means a person for whom a tracking ID has not been set.
  • the tracking unit 212 may compare the feature amount of the tracking area related to the person P1 (e.g., at least one of the tracking areas TA1, TA2, and TA3) with the feature amount of the tracking area related to the new person to determine whether the person P1 and the new person are the same person. If it is determined that the person P1 and the new person are the same person, the tracking unit 212 may set the tracking ID related to the person P1 to the new person. As a result, the tracking unit 212 can track the person P1 again.
  • the feature amount may be a feature amount related to the person's head, a feature amount related to the person's upper body, or a feature amount related to the person's entire body.
  • the tracking area (e.g., at least one of the tracking areas TA1, TA2, and TA3) may include the person's head, the person's upper body, or the person's entire body.
  • the feature amount may be obtained, for example, by Person Re-Identification technology.
  • the tracking unit 212 and the face authentication unit 213 may repeat the above-mentioned process until person P1 passes through the face authentication area FRA.
  • the tracking unit 212 and the face authentication unit 213 may perform the above-mentioned process for all people who pass through the face authentication area FRA.
  • the tracking unit 212 uses another image acquired by the image acquisition unit 211 to perform a tracking process of at least one of the one or more people detected in the process of step S101 (step S102).
  • the tracking unit 212 may perform face detection of the detected one or more people. If the face of at least one of the one or more people is detected in the process of at least one of steps S101 and S102, the tracking unit 212 transmits a face image including the face area of at least one person to the face authentication unit 213.
  • the face authentication unit 213 performs face authentication processing using the face image sent from the tracking unit 212 (step S103).
  • the face authentication unit 213 registers the result of the face authentication processing in the ID correspondence table 221, or updates the ID correspondence table 221 based on the result of the face authentication processing (step S104).
  • a display range DR is virtually set in the vicinity of the gate G (in other words, in the vicinity of the display devices M1 and M2).
  • the display range DR is set as an area in which a person passing through the face recognition area FRA can see at least one of the display devices M1 and M2 when the person is located within the display range DR.
  • the display control unit 214 acquires the position of a person passing through the face authentication area FRA (in other words, a person who is the subject of tracking processing by the tracking unit 212) based on the ID correspondence table 221 (step S201).
  • the display control unit 214 determines whether person P1 is located within the display range DR based on the position of person P1. In other words, the display control unit 214 determines whether person P1 has approached at least one of the display devices M1 and M2 (step S202).
  • step S202 If it is determined in the processing of step S202 that person P1 is not located within the display range DR, i.e., if it is determined that person P1 is not approaching display devices M1 and M2 (step S202: No), the display control unit 214 performs the processing of step S201.
  • the tracking unit 212 performs tracking processing of a person (e.g., person P1) passing through the face authentication area FRA, so that the position of the person (e.g., person P1) registered in the ID correspondence table 221 is successively updated.
  • the operation of the display control unit 214 shown in the flowchart of FIG. 7 and the operation of the tracking unit 212 and face authentication unit 213 shown in the flowchart of FIG. 6 are performed in parallel. For this reason, even if it is determined in the current processing of step S202 that person P1 is not approaching display devices M1 and M2, it may be determined in the next processing of step S202 that person P1 is approaching at least one of display devices M1 and M2.
  • step S202 If, for example, in the processing of step S202, it is determined that person P1 is located within the display range DR, i.e., if it is determined that person P1 is approaching at least one of the display devices M1 and M2 (step S202: No), the display control unit 214 generates display information related to person P1 based on the ID correspondence table 221 (step S203).
  • the display control unit 214 if a specific authentication ID is associated with the tracking ID of person P1 in the ID correspondence table 221, the display control unit 214 generates display information including information indicating that face authentication was successful and identification information indicating person P1. If a character string "N/A" is associated with the tracking ID of person P1 in the ID correspondence table 221, the display control unit 214 generates display information including information indicating that face authentication was unsuccessful. In this case, since a person corresponding to person P1 has not been identified by the face authentication process, the identification information indicating person P1 does not need to be included in the display information.
  • the display control unit 214 controls the display device M1 or M2 to display the display information generated in the process of step S203 (step S204).
  • the display control unit 214 determines the display device (one of the display devices M1 and M2) that displays the display information based on the position of the person related to the display information in the width direction of the display range DR (i.e., the direction intersecting the moving direction of the person toward the admission restriction area RA). As shown in FIG. 2, the display range DR is set on the admission restriction area RA side of the face authentication area FRA so as not to overlap with the face authentication area RA.
  • the display information (for example, the result of face authentication) is displayed on one of the display devices M1 and M2 after the person passing through the face authentication area FRA exits the admission restriction area RA side of the face authentication area FRA.
  • the display control unit 214 may perform the processes of steps S201 to S204 for all people passing through the face authentication area FRA.
  • persons P1, P3, and P4 are assumed to be persons who have successfully undergone face authentication.
  • Person P2 is assumed to be a person who has failed face authentication.
  • the display control unit 214 generates display information for person P1, including information indicating that face authentication has been successful and identification information indicating person P1.
  • the display control unit 214 controls the display device M1 so that information indicating that face authentication has been successful (e.g., a green mark) included in the display information related to person P1 is displayed in the upper left of the display device M1.
  • the display control unit 214 also controls the display device M1 so that identification information indicating person P1 (e.g., a geometric pattern) included in the display information related to person P1 is displayed in the lower left of the display device M1.
  • the display control unit 214 generates display information including information indicating that face authentication has failed for person P2.
  • the display control unit 214 controls the display device M1 so that information indicating that face authentication has failed (e.g., a red mark) included in the display information related to person P2 is displayed in the upper right corner of the display device M1.
  • the display control unit 214 generates display information including information indicating that face authentication was successful for person P3 and identification information indicating person P3.
  • the display control unit 214 controls the display device M2 so that information indicating that face authentication was successful (e.g., a green mark) included in the display information related to person P3 is displayed in the upper left of the display device M2.
  • the display control unit 214 also controls the display device M2 so that identification information indicating person P3 (e.g., a geometric pattern) included in the display information related to person P3 is displayed in the lower left of the display device M2.
  • the display control unit 214 generates display information for person P4 including information indicating that face authentication was successful and identification information indicating person P4.
  • the display control unit 214 controls the display device M2 so that information indicating that face authentication was successful (e.g., a green mark) included in the display information for person P4 is displayed in the upper right corner of the display device M2.
  • the display control unit 214 also controls the display device M2 so that identification information indicating person P4 (e.g., a geometric pattern) included in the display information for person P4 is displayed in the lower right corner of the display device M2.
  • the identification information which may be a geometric pattern, for example, may be determined when features extracted from a person's face image are registered in the face feature DB 26.
  • the identification information may be determined automatically by the face recognition device 20, or may be determined by the person who registers the features.
  • the determined identification information (e.g., a geometric pattern) is notified to the person who registered the features.
  • the display control unit 214 may generate display information including information indicating that a certain person (e.g., a person different from persons P1 to P4) has not been authenticated.
  • the display control unit 214 may control one of the display devices M1 and M2 so that information indicating that the person has not been authenticated (e.g., a gray mark) is displayed on one of the display devices M1 and M2.
  • the display control unit 214 may control at least one of the display devices M1 and M2 so as to terminate the display of display information relating to a person who has passed through the face recognition area FRA and has exited the display range DR.
  • information indicating that facial authentication has been successful can be said to be information indicating that a person can enter the restricted entry area RA.
  • information indicating that facial authentication has failed and information indicating that a person has not been authenticated can be said to be information indicating that a person cannot enter the restricted entry area RA.
  • the results of the face recognition are displayed on at least one of the display devices M1 and M2 that are positioned higher than the head of a person passing through the face recognition area FRA (i.e., above the head of the person). Therefore, a person passing through the face recognition area FRA can visually recognize the results of the face recognition relatively easily.
  • the display control unit 214 determines the display device (one of display devices M1 and M2) that displays the display information based on the position in the width direction of the display range DR of the person related to the display information including the facial recognition results. Therefore, the facial recognition results are displayed at a position relatively close to the person related to the display information. Therefore, a person passing through the facial recognition area FRA can visually recognize the facial recognition results relatively easily.
  • facial recognition area FRA For persons whose facial recognition has been successful, information indicating that the facial recognition has been successful (e.g., a mark) and identification information indicating the person whose facial recognition has been successful (e.g., a geometric pattern) are displayed on display device M1 or M2.
  • a person passing through facial recognition area FRA can recognize that his/her own identification information is displayed on display device M1 or M2 and thereby recognize that facial recognition has been successful (in other words, he/she can enter admission restricted area RA).
  • a person passing through facial recognition area FRA can also recognize that his/her own identification information is not displayed on display devices M1 and M2 and thereby recognize that facial recognition has failed (in other words, he/she cannot enter admission restricted area RA).
  • display devices M1 and M2 are positioned above the head of a person passing through face authentication area FRA.
  • Camera CAM is positioned between display devices M1 and M2.
  • a person passing through face authentication area FRA looks at at least one of display devices M1 and M2 to check the results of face authentication.
  • a person passing through face authentication area FRA will naturally turn his or her face toward camera CAM. This makes it easier for the tracking unit 212 to detect the face area of a person passing through face authentication area FRA in the tracking process. This allows face authentication unit 213 to appropriately perform face authentication of a person passing through face authentication area FRA.
  • the display control unit 214 may control at least one of the display devices M1 and M2 so that a human figure corresponding to a person passing through the face authentication area FRA is displayed as shown in FIG. 8. In this case, the display control unit 214 may control at least one of the display devices M1 and M2 so that a green human figure is displayed for a person whose face authentication has been successful. In this case, at least one of the display devices M1 and M2 may be controlled so that identification information (e.g., a geometric pattern) indicating a person whose face authentication has been successful is displayed on the green human figure. The display control unit 214 may control at least one of the display devices M1 and M2 so that a red human figure is displayed for a person whose face authentication has been unsuccessful. The display control unit 214 may control at least one of the display devices M1 and M2 so that a gray human figure is displayed for an unauthenticated person.
  • identification information e.g., a geometric pattern
  • the display control unit 214 may determine the position and size of the human-shaped figure based on the position and size of each person included in the image generated by the camera CAM (i.e., each person passing through the face authentication area FRA).
  • the size of each person included in the image may be represented by the number of pixels that make up each person in the image.
  • the display control unit 214 may calculate or estimate the distance of each person included in the image from the camera CAM, gate G, or entrance restriction area RA.
  • the display control unit 214 may determine the size of the human-shaped figure corresponding to each person based on the calculated or estimated distance.
  • the display control unit 214 may make the color of a human figure corresponding to a person who passes through the face authentication area FRA and is close to at least one of the display devices M1 and M2 (or the camera CAM, the gate, and one of the entry restriction areas RA) darker than the color of a human figure corresponding to a person who is far from the display devices M1 and M2.
  • the display control unit 214 may change the transparency of the human-shaped figure in addition to changing the shade of the color of the human-shaped figure.
  • the display control unit 214 may increase the transparency of the human-shaped figure corresponding to a person who passes through the face authentication area FRA and is farther from the display devices M1 and M2 than the transparency of the human-shaped figure corresponding to a person who is closer to at least one of the display devices M1 and M2 (or the camera CAM, the gate, and one of the entry restriction areas RA).
  • the display control unit 214 may increase the opacity of the human-shaped figure corresponding to a person who is closer to at least one of the display devices M1 and M2 (or the camera CAM, the gate, and one of the entry restriction areas RA).
  • the display control unit 214 may control at least one of the display devices M1 and M2 to change the position of a human figure displayed on at least one of the display devices M1 and M2 according to the trajectory of the corresponding person based on the ID correspondence table 221. In this case, the display control unit 214 may control at least one of the display devices M1 and M2 to display the trajectory.
  • the display control unit 214 may control at least one of the display devices M1 and M2 so that, among people passing through the face recognition area FRA, a human figure corresponding to a person who is close to at least one of the display devices M1 and M2 is displayed in front of a human figure corresponding to a person who is far from the display devices M1 and M2. In this case, a human figure corresponding to a person approaching at least one of the display devices M1 and M2 will move from the back to the front of the screen on at least one of the display devices M1 and M2.
  • the display control unit 214 may control at least one of the display devices M1 and M2 so that, among people passing through the face recognition area FRA, a human figure corresponding to a person who is close to at least one of the display devices M1 and M2 is displayed further back than a human figure corresponding to a person who is far from the display devices M1 and M2. In this case, a human figure corresponding to a person approaching at least one of the display devices M1 and M2 will move from the front to the back of the screen on at least one of the display devices M1 and M2.
  • the display control unit 214 may control at least one of the display devices M1 and M2 to display an image including the face authentication area FRA, generated by the camera CAM, instead of displaying a human-shaped figure (see FIG. 8) corresponding to a person passing through the face authentication area FRA.
  • the display control unit 214 may control at least one of the display devices M1 and M2 to superimpose a green frame on a person included in the image whose face authentication has been successful.
  • the display control unit 214 may control at least one of the display devices M1 and M2 to superimpose a red frame on a person included in the image whose face authentication has failed.
  • the display control unit 214 may control at least one of the display devices M1 and M2 to superimpose a gray frame on an unauthenticated person included in the image.
  • the authentication ID may be linked to the email address of the person associated with the authentication ID.
  • the face recognition device 20 may send an email, via the communication device 23, indicating that the face recognition was successful to the email address linked to the authentication ID of the person who passed through the face recognition area FRA and whose face recognition was successful.
  • FIG. 9 A third embodiment of the authentication system, authentication method, and recording medium will be described with reference to Fig. 9.
  • the third embodiment of the authentication system, authentication method, and recording medium will be described using an authentication system 3. Note that in Fig. 9, for the sake of convenience, a person passing through the face recognition area FRA is not shown.
  • the authentication system 3 will be described with reference to FIG. 9.
  • the authentication system 3 includes a camera CAM arranged at the gate G, a display device M3, and a face authentication device 20 (see FIG. 3).
  • the display device M3 and the face authentication device 20 are configured to be able to communicate with each other.
  • the communication between the display device M3 and the face authentication device 20 may be wired communication or wireless communication. Descriptions of the camera CAM and the face authentication device 20 that overlap with those of the second embodiment described above will be omitted.
  • Display device M3 is placed at the feet of a person passing through face authentication area FRA. As shown in FIG. 9, display device M3 extends in a direction intersecting the direction of travel of a person passing through face authentication area FRA. Display device M3 may be placed at a position corresponding to the end of face authentication area FRA on the admission restriction area RA side. Display device M3 may be configured to include an LED (Light Emitting Diode) tape.
  • LED Light Emitting Diode
  • a display range DR is virtually set near the gate G (in other words, near the display device M3).
  • the display range DR is set as an area in which a person passing through the face recognition area FRA can see the display device M3 when the person is located within the display range DR.
  • the display control unit 214 acquires the position of a person passing through the face authentication area FRA (in other words, a person who is the subject of tracking processing by the tracking unit 212) based on the ID correspondence table 221. For example, when the position of person P1 is acquired, the display control unit 214 determines whether person P1 is located within the display range DR based on the position of person P1. In other words, the display control unit 214 determines whether person P1 has approached the display device M3.
  • the display control unit 214 For example, if it is determined that person P1 is located within the display range DR, i.e., if it is determined that person P1 is approaching the display device M3, the display control unit 214 generates display information related to person P1 based on the ID correspondence table 221.
  • the display control unit 214 if a specific authentication ID is associated with the tracking ID for person P1 in the ID correspondence table 221, the display control unit 214 generates display information including information indicating that facial authentication was successful. If a character string "N/A" is associated with the tracking ID for person P1 in the ID correspondence table 221, the display control unit 214 generates display information including information indicating that facial authentication was unsuccessful. If a tracking ID for person P1 is not associated with an authentication ID in the ID correspondence table 221 (i.e., if the authentication ID field is blank), the display control unit 214 may generate display information including information indicating that facial authentication was unsuccessful. Note that in this case, the display control unit 214 may generate display information including information indicating that authentication has not been performed.
  • the display control unit 214 controls the display device M3 to display the generated display information.
  • the display control unit 214 determines the display position of the display information on the display device M3 based on the position of the person related to the display information in the width direction of the display range DR (i.e., the direction intersecting the moving direction of the person toward the admission restricted area RA).
  • the display control unit 214 For example, if person P1 has been successfully authenticated, the display control unit 214 generates display information including information indicating that face authentication was successful. The display control unit 214 controls the display device M3 so that the information indicating that face authentication was successful, which is included in the display information, is displayed at a display position of the display information on the display device M3 that is determined based on the widthwise position of person P1's display range DR. If the display device M3 is configured to include an LED tape, the display control unit 214 may control the display device M3 so that an LED placed at the above-mentioned display position emits green light.
  • the display control unit 214 For example, if person P1 has failed facial authentication, the display control unit 214 generates display information including information indicating that facial authentication has failed. The display control unit 214 controls the display device M3 so that the information indicating that facial authentication has failed, which is included in the display information, is displayed at a display position of the display information on the display device M3 that is determined based on the widthwise position of person P1's display range DR. If the display device M3 is configured to include an LED tape, the display control unit 214 may control the display device M3 so that an LED placed at the above-mentioned display position emits red light.
  • the display control unit 214 For example, if person P1 is an unauthenticated person, the display control unit 214 generates display information including information indicating that the person is unauthenticated. The display control unit 214 controls the display device M3 so that the information indicating that the person is unauthenticated, which is included in the display information, is displayed at a display position of the display information on the display device M3 that is determined based on the widthwise position of person P1's display range DR. If the display device M3 is configured to include an LED tape, the display control unit 214 may control the display device M3 so that the LED placed at the above-mentioned display position emits gray light.
  • the display control unit 214 controls the display device M3 to end the display of the display information related to person P1.
  • the display control unit 214 may perform the above-mentioned processing for all people who pass through the face recognition area FRA.
  • the result of the facial authentication (e.g., information indicating that the facial authentication was successful, information indicating that the facial authentication was unsuccessful, and information indicating that the facial authentication was not successful) is displayed near the feet of the person to whom the facial authentication result relates. Therefore, a person passing through the facial authentication area FRA can visually confirm the result of the facial authentication relatively easily. In addition, since the display information displayed on the display device M3 differs depending on the result of the facial authentication, a person passing through the facial authentication area FRA can recognize whether or not the person has been successfully authenticated (in other words, whether or not the person is allowed to enter the admission restriction area RA).
  • the display device M3 extends linearly in a direction intersecting the moving direction of a person passing through the face recognition area FRA.
  • the display device M3 may be disposed in an arc shape so as to intersect with the moving direction of a person passing through the face recognition area FRA.
  • the display device M3 may be configured to include a display.
  • the display control unit 214 may control the display device M3 so that, for a person whose face has been successfully authenticated, information indicating that the face authentication has been successful (e.g., a green mark) and information indicating the person (e.g., a geometric pattern) are displayed.
  • the authentication ID may be linked to the email address of the person associated with the authentication ID.
  • the face recognition device 20 may send an email, via the communication device 23, indicating that the face recognition was successful to the email address linked to the authentication ID of the person who passed through the face recognition area FRA and whose face recognition was successful.
  • FIG. 10 A fourth embodiment of the authentication system, authentication method, and recording medium will be described with reference to Fig. 10.
  • the fourth embodiment of the authentication system, authentication method, and recording medium will be described using an authentication system 4. Note that, for the sake of convenience, a person passing through the face recognition area FRA is not shown in Fig. 10.
  • the authentication system 4 will be described with reference to FIG. 10.
  • the authentication system 4 includes a camera CAM arranged at the gate G, display devices M3 and M4, and a face authentication device 20 (see FIG. 3).
  • the display devices M3 and M4 and the face authentication device 20 are configured to be able to communicate with each other.
  • the communication between the display devices M3 and M4 and the face authentication device 20 may be wired communication or wireless communication.
  • the camera CAM and the face authentication device 20 will not be described in detail as being the same as in the second embodiment described above.
  • Display device M3 is placed at the feet of a person passing through the facial authentication area FRA. As shown in FIG. 10, display device M3 extends in a direction intersecting with the moving direction of a person passing through the facial authentication area FRA. Display device M3 may be placed at a position corresponding to the end of facial authentication area FRA on the admission restriction area RA side. Display device M4 is placed at the feet of a person passing through the facial authentication area FRA. As shown in FIG. 10, display device M4 extends in a direction intersecting with the moving direction of a person passing through the facial authentication area FRA. As shown in FIG. 10, display devices M3 and M4 are placed at a distance from each other along the moving direction of a person passing through the facial authentication area FRA. Display devices M3 and M4 may be configured to include an LED tape.
  • a display range DR1 is virtually set near the display device M3.
  • a display range DR2 is virtually set near the display device M4.
  • the display range DR1 is set as an area in which a person passing through the face recognition area FRA can see the display device M3 when the person is located within the display range DR1.
  • the display range DR2 is set as an area in which a person passing through the face recognition area FRA can see the display device M4 when the person is located within the display range DR2.
  • the display control unit 214 acquires the position of a person passing through the face authentication area FRA (in other words, a person who is the subject of tracking processing by the tracking unit 212) based on the ID correspondence table 221. For example, when the position of person P1 is acquired, the display control unit 214 determines whether person P1 is located within the display range DR2 based on the position of person P1. In other words, the display control unit 214 determines whether person P1 has approached the display device M4.
  • the display control unit 214 For example, if it is determined that person P1 is located within display range DR2, i.e., if it is determined that person P1 is approaching display device M4, the display control unit 214 generates display information related to person P1 based on the ID correspondence table 221.
  • the display control unit 214 if a specific authentication ID is associated with the tracking ID for person P1 in the ID correspondence table 221, the display control unit 214 generates display information including information indicating that facial authentication was successful. If a character string "N/A" is associated with the tracking ID for person P1 in the ID correspondence table 221, the display control unit 214 generates display information including information indicating that facial authentication was unsuccessful. If a tracking ID for person P1 is not associated with an authentication ID in the ID correspondence table 221 (i.e., if the authentication ID field is blank), the display control unit 214 may generate display information including information indicating that facial authentication was unsuccessful. Note that in this case, the display control unit 214 may generate display information including information indicating that authentication has not been performed.
  • the display control unit 214 controls the display device M4 to display the generated display information.
  • the display control unit 214 determines the display position of the display information on the display device M4 based on the position of the person related to the display information in the width direction of the display range DR2 (i.e., the direction intersecting the moving direction of the person toward the admission restricted area RA).
  • the display control unit 214 For example, if person P1 has been successfully authenticated, the display control unit 214 generates display information including information indicating that face authentication was successful. The display control unit 214 controls the display device M4 so that the information indicating that face authentication was successful, which is included in the display information, is displayed at a display position of the display information on the display device M4 that is determined based on the widthwise position of person P1's display range DR2. If the display device M4 is configured to include an LED tape, the display control unit 214 may control the display device M4 so that the LED placed at the above-mentioned display position emits green light.
  • the display control unit 214 For example, if person P1 has failed facial authentication, the display control unit 214 generates display information including information indicating that facial authentication has failed. The display control unit 214 controls the display device M4 so that the information indicating that facial authentication has failed, which is included in the display information, is displayed at a display position of the display information on the display device M4 that is determined based on the widthwise position of person P1's display range DR2. If the display device M4 is configured to include an LED tape, the display control unit 214 may control the display device M4 so that an LED placed at the above-mentioned display position emits red light.
  • the display control unit 214 For example, if person P1 is an unauthenticated person, the display control unit 214 generates display information including information indicating that the person is unauthenticated. The display control unit 214 controls the display device M4 so that the information indicating that the person is unauthenticated, which is included in the display information, is displayed at a display position of the display information on the display device M4 that is determined based on the widthwise position of the display range DR2 of person P1. If the display device M4 is configured to include an LED tape, the display control unit 214 may control the display device M4 so that the LED placed at the above display position emits gray light.
  • the display control unit 214 controls the display device M4 to end the display of display information related to person P1. After that, the display control unit 214 determines whether person P1 is located within display range DR1 based on the position of person P1 based on the ID correspondence table 221. In other words, the display control unit 214 determines whether person P1 has approached display device M3.
  • the display control unit 214 For example, if it is determined that person P1 is located within the display range DR1, i.e., if it is determined that person P1 is approaching the display device M3, the display control unit 214 generates display information related to person P1 based on the ID correspondence table 221.
  • the display control unit 214 controls the display device M3 to display the generated display information.
  • the display control unit 214 determines the display position of the display information on the display device M3 based on the position of the person related to the display information in the width direction of the display range DR2 (i.e., the direction intersecting the moving direction of the person toward the admission restricted area RA).
  • the display control unit 214 For example, if person P1 has been successfully authenticated, the display control unit 214 generates display information including information indicating that face authentication was successful. The display control unit 214 controls the display device M3 so that the information indicating that face authentication was successful, which is included in the display information, is displayed at a display position of the display information on the display device M3 that is determined based on the widthwise position of person P1's display range DR1. If the display device M3 is configured to include an LED tape, the display control unit 214 may control the display device M4 so that an LED placed at the above-mentioned display position emits green light.
  • the display control unit 214 For example, if person P1 has failed facial authentication, the display control unit 214 generates display information including information indicating that facial authentication has failed. The display control unit 214 controls the display device M3 so that the information indicating that facial authentication has failed, which is included in the display information, is displayed at a display position of the display information on the display device M3 that is determined based on the widthwise position of person P1's display range DR1. If the display device M3 is configured to include an LED tape, the display control unit 214 may control the display device M3 so that an LED placed at the above-mentioned display position emits red light.
  • the display control unit 214 For example, if person P1 is an unauthenticated person, the display control unit 214 generates display information including information indicating that the person is unauthenticated. The display control unit 214 controls the display device M3 so that the information indicating that the person is unauthenticated, which is included in the display information, is displayed at a display position of the display information on the display device M3 that is determined based on the widthwise position of the display range DR1 of person P1. If the display device M3 is configured to include an LED tape, the display control unit 214 may control the display device M3 so that the LED placed at the above-mentioned display position emits gray light.
  • the display control unit 214 controls the display device M3 to end the display of display information related to person P1.
  • the display control unit 214 may perform the above-mentioned processing for all people who pass through the face recognition area FRA.
  • the result of the facial authentication (e.g., information indicating that the facial authentication was successful, information indicating that the facial authentication was unsuccessful, and information indicating that the person has not been authenticated) is displayed near the feet of the person related to the result of the facial authentication. Therefore, a person passing through the facial authentication area FRA can visually confirm the result of the facial authentication relatively easily.
  • the result of the facial authentication is displayed on the display device M4, a person who has failed the facial authentication can realize relatively early that he or she cannot enter the admission restricted area RA.
  • the display color of the information indicating failure of face authentication displayed on display device M4 may be a color with a less alarming feeling than the display color of the information indicating failure of face authentication displayed on display device M3. For example, if the display color of the information indicating failure of face authentication displayed on display device M3 is red, the display color of the information indicating failure of face authentication displayed on display device M4 may be orange or yellow.
  • At least one of the display devices M3 and M4 may be arranged in an arc shape so as to intersect with the moving direction of a person passing through the facial recognition area FRA. At least one of the display devices M3 and M4 may be configured to include a display.
  • the authentication ID may be linked to the email address of the person associated with the authentication ID.
  • the facial recognition device 20 may send an email indicating that the facial recognition was successful via the communication device 23 to the email address linked to the authentication ID of the person who has been successfully recognized among the people passing through the facial recognition area FRA.
  • FIG. 11 A fifth embodiment of the authentication system, authentication method, and recording medium will be described with reference to Fig. 11.
  • the fifth embodiment of the authentication system, authentication method, and recording medium will be described using an authentication system 5. Note that in Fig. 11, for the sake of convenience, a person passing through the face recognition area FRA is omitted.
  • the authentication system 5 will be described with reference to FIG. 11.
  • the authentication system 4 includes a camera CAM arranged at the gate G, display devices M1, M2, and M3, and a face authentication device 20 (see FIG. 3).
  • the display devices M1, M2, and M3 are configured to be able to communicate with the face authentication device 20.
  • the communication between the display devices M1, M2, and M3 and the face authentication device 20 may be wired communication or wireless communication. Descriptions of the camera CAM and the face authentication device 20 that overlap with those of the second embodiment described above will be omitted.
  • Display device M3 is placed at the feet of a person passing through face authentication area FRA. As shown in FIG. 11, display device M3 extends in a direction intersecting the direction of travel of a person passing through face authentication area FRA. Display device M3 may be placed at a position corresponding to the end of face authentication area FRA on the admission restriction area RA side. Display device M3 may be configured to include an LED tape.
  • a display range DR is virtually set near the gate G.
  • the display range DR is set as an area in which a person passing through the face recognition area FRA can see at least one of the display devices M1, M2, and M3 when the person is located within the display range DR.
  • the display control unit 214 acquires the position of a person passing through the face authentication area FRA (in other words, a person who is the subject of tracking processing by the tracking unit 212) based on the ID correspondence table 221. For example, when the position of person P1 is acquired, the display control unit 214 determines whether person P1 is located within the display range DR based on the position of person P1. In other words, the display control unit 214 determines whether person P1 has approached at least one of the display devices M1, M2, and M3.
  • the display control unit 214 For example, if it is determined that person P1 is located within the display range DR, that is, if it is determined that person P1 is approaching at least one of the display devices M1, M2, and M3, the display control unit 214 generates display information related to person P1 based on the ID correspondence table 221.
  • the display control unit 214 if a specific authentication ID is associated with the tracking ID for person P1 in the ID correspondence table 221, the display control unit 214 generates display information including information indicating that facial authentication was successful and information indicating person P1. If a character string "N/A" is associated with the tracking ID for person P1 in the ID correspondence table 221, the display control unit 214 generates display information including information indicating that facial authentication was unsuccessful. If a tracking ID for person P1 is not associated with an authentication ID in the ID correspondence table 221 (i.e., if the authentication ID field is blank), the display control unit 214 may generate display information including information indicating that facial authentication was unsuccessful. In this case, the display control unit 214 may generate display information including information indicating that the person has not been authenticated.
  • the display control unit 214 controls at least one of the display devices M1 and M2, and the display device M3 to display the generated display information.
  • the display control unit 214 determines the display position of the display information on at least one of the display devices M1 and M2, and the display device M3, based on the position of the person related to the display information in the width direction of the display range DR (i.e., the direction intersecting the moving direction of the person toward the admission restriction area RA).
  • the display control unit 214 For example, if the person P1 is a person who has been successfully authenticated, the display control unit 214 generates display information including information indicating that the face authentication was successful and information indicating the person P1.
  • the display control unit 214 controls one of the display devices M1 and M2 so that information indicating that the face authentication was successful (e.g., a green mark) included in the display information related to the person P1 is displayed on one of the display devices M1 and M2.
  • the display control unit 214 also controls one of the display devices M1 and M2 so that identification information indicating the person P1 included in the display information related to the person P1 (e.g., a geometric pattern) is displayed on one of the display devices M1 and M2.
  • the display control unit 214 controls the display device M3 so that the information indicating that the face authentication was successful, included in the display information, is displayed at a display position on the display device M3 determined based on the width direction position of the display range DR of the person P1. If the display device M3 is configured to include an LED tape, the display control unit 214 may control the display device M3 so that the LED arranged at the above-mentioned display position emits green light.
  • the display control unit 214 For example, if person P1 has failed face authentication, the display control unit 214 generates display information including information indicating that face authentication has failed.
  • the display control unit 214 controls one of the display devices M1 and M2 so that information indicating that face authentication has failed (e.g., a red mark) included in the display information related to person P1 is displayed on one of the display devices M1 and M2.
  • the display control unit 214 controls the display device M3 so that the information indicating that face authentication has failed, included in the display information, is displayed at a display position of the display information on the display device M3 determined based on the widthwise position of the display range DR of person P1.
  • the display control unit 214 may control the display device M3 so that an LED arranged at the above-mentioned display position emits red light.
  • the display control unit 214 For example, if person P1 is an unauthenticated person, the display control unit 214 generates display information including information indicating that the person is unauthenticated.
  • the display control unit 214 controls one of the display devices M1 and M2 so that information indicating that the person is unauthenticated (e.g., a gray mark) included in the display information related to person P1 is displayed on one of the display devices M1 and M2.
  • the display control unit 214 controls the display device M3 so that the information indicating that the person is unauthenticated included in the display information is displayed at a display position of the display information on the display device M3 determined based on the widthwise position of the display range DR of person P1.
  • the display control unit 214 may control the display device M3 so that the LEDs arranged at the above-mentioned display positions emit gray light.
  • the display control unit 214 may change the display order of one of the display devices M1 and M2, and the display device M3. For example, when the person P1 enters the display range DR, the display control unit 214 may control the display device M3 so that the facial authentication result of the person P1 is first displayed on the display device M3. After the facial authentication result of the person P1 is displayed on the display device M3, the display control unit 214 may control one of the display devices M1 and M2 so that the facial authentication result of the person P1 is displayed on one of the display devices M1 and M2. With this configuration, after the person P1 checks the facial authentication result displayed on the display device M3, the person P1 can check again the facial authentication result displayed on one of the display devices M1 and M2. As a result, the sense of security of the person P1 can be increased.
  • the display control unit 214 may change the display order of one of the display devices M1 and M2 and the display device M3 based on the result of face authentication of the person P1 by the face authentication unit 213. If the person P1 is a person who has failed face authentication or an unauthenticated person, it is highly likely that the person P1 is not facing the camera CAM (in this case, the person P1 is highly likely to look at his/her feet). In this case, when the person P1 enters the display range DR, the display control unit 214 may control the display device M3 so that the result of face authentication of the person P1 is first displayed on the display device M3.
  • the display control unit 214 may control one of the display devices M1 and M2 so that the result of face authentication of the person P1 is displayed on one of the display devices M1 and M2.
  • the display control unit 214 may first control one of the display devices M1 and M2 so that the result of face authentication for person P1 is displayed on one of the display devices M1 and M2. After the result of face authentication for person P1 is displayed on one of the display devices M1 and M2, the display control unit 214 may control the display device M3 so that the result of face authentication for person P1 is displayed on the display device M3.
  • the display control unit 214 controls one of the display devices M1 and M2, and the display device M3 to end the display of the display information related to person P1.
  • the display control unit 214 may perform the above-mentioned processing for all people who pass through the face recognition area FRA.
  • the results of facial recognition are displayed on at least one of the display devices M1 and M2 positioned above the head of a person passing through the facial recognition area FRA, and on display device M3 positioned at the person's feet, so that a person passing through the facial recognition area FRA can visually recognize the results of facial recognition relatively easily.
  • the authentication system 5 can adopt various aspects similar to those of the modified example of the second embodiment described above.
  • the authentication system 5 can adopt various aspects similar to those of the modified example of the third embodiment described above.
  • the authentication system 5 can include a display device corresponding to the display device M4 according to the fourth embodiment described above, in addition to the display devices M1, M2, and M3.
  • the authentication system according to this disclosure is not limited to the above-described embodiments.
  • the above-described embodiments and variations can be combined as appropriate without departing from the concept of the invention that can be understood from this disclosure.
  • An authentication system comprising:
  • Appendix 2 The authentication system described in Appendix 1, wherein the facial authentication result includes a first result indicating that the authenticated person is allowed to enter the restricted entry area, and a second result indicating that the authenticated person is not allowed to enter the restricted entry area.
  • the display means includes a first display device and a second display device, the first display device and the second display device are arranged side by side above the head of the person to be authenticated,
  • the authentication system according to any one of appendixes 1 to 5, wherein an imaging means for imaging the person to be authenticated is disposed between the first display device and the second display device.
  • the display means includes a third display device arranged at the feet of the person to be authenticated,
  • the authentication system according to any one of claims 1 to 6, wherein the third display device extends in a direction intersecting a traveling direction of the person to be authenticated.
  • the display means includes a fourth display device arranged at the feet of the person to be authenticated, the third display device extends in a direction intersecting a moving direction of the person to be authenticated,
  • Appendix 11 The authentication system according to any one of appendixes 1 to 10, wherein the display means is disposed at a position corresponding to an end of the face authentication area on the side of the entrance restriction area.
  • the display means includes a first display device arranged above the head of the person to be authenticated and a third display device arranged at the feet of the person to be authenticated,
  • the authentication system according to any one of claims 1 to 12, wherein the display means changes an order in which the results of the face authentication are displayed on the first display device and the third display device based on the results of the face authentication.
  • (Appendix 14) Acquire an image including a face recognition area through which a person to be authenticated passes while approaching an entrance restricted area; performing face authentication of the person to be authenticated based on the acquired image; the result of the face authentication is displayed at least one above the head or below the feet of the person to be authenticated after the person to be authenticated leaves the entrance restricted area side of the face authentication area.
  • An authentication device comprising:

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Collating Specific Patterns (AREA)

Abstract

認証システムは、入場制限領域に向かう被認証者が通過する顔認証領域を含む画像を取得する画像取得手段と、該取得された画像に基づいて、被認証者の顔認証を行う顔認証手段と、被認証者の頭上及び足元の少なくとも一方に配置され、被認証者が顔認証領域の入場制限領域側に出た後に、顔認証の結果を表示する表示手段と、を備える。

Description

認証システム、認証方法及び記録媒体
 この開示は、認証システム、認証方法及び記録媒体の技術分野に関する。
 この種のシステムとして、例えば、利用者が所持する携帯端末装置が改札エリアに進入した場合に、改札エリアで撮像された利用者の顔画像と、利用者の識別情報に対応する顔画像とが一致するか否かを判定し、一致すると判定された場合に、入場処理又は出場処理を行うシステムが提案されている(特許文献1参照)。
特開2013-191172号公報
 この開示は、先行技術文献に記載された技術の改良を目的とする認証システム、認証方法及び記録媒体を提供することを課題とする。
 認証システムの一態様は、入場制限領域に向かう被認証者が通過する顔認証領域を含む画像を取得する画像取得手段と、前記取得された画像に基づいて、前記被認証者の顔認証を行う顔認証手段と、前記被認証者の頭上及び足元の少なくとも一方に配置され、前記被認証者が前記顔認証領域の前記入場制限領域側に出た後に、前記顔認証の結果を表示する表示手段と、を備える。
 認証方法の一態様は、入場制限領域に向かう被認証者が通過する顔認証領域を含む画像を取得し、前記取得された画像に基づいて、前記被認証者の顔認証を行い、前記被認証者が前記顔認証領域の前記入場制限領域側に出た後に、前記被認証者の頭上及び足元の少なくとも一方に前記顔認証の結果を表示する。
 記録媒体の一態様は、コンピュータに、入場制限領域に向かう被認証者が通過する顔認証領域を含む画像を取得し、前記取得された画像に基づいて、前記被認証者の顔認証を行い、前記被認証者が前記顔認証領域の前記入場制限領域側に出た後に、前記被認証者の頭上及び足元の少なくとも一方に前記顔認証の結果を表示する認証方法を実行させるためのコンピュータプログラムが記録されている。
認証システムの一例を示す図である。 認証システムが適用されたゲートの一例を示す図である。 顔認証装置の構成の一例を示す図である。 人物の追跡処理を説明するための図である。 ID対応テーブルの一例を示す図である。 第2実施形態に係る追跡及び顔認証動作を示すフローチャートである。 第2実施形態に係る表示制御動作を示すフローチャートである。 表示装置に表示される画面の一例を示す図である。 認証システムが適用されたゲートの他の例を示す図である。 認証システムが適用されたゲートの他の例を示す図である。 認証システムが適用されたゲートの他の例を示す図である。
 認証システム、認証方法及び記録媒体に係る実施形態について説明する。
 <第1実施形態>
 認証システム、認証方法及び記録媒体の第1実施形態について、図1を参照して説明する。以下では、認証システム1を用いて、認証システム、認証方法及び記録媒体の第1実施形態を説明する。
 認証システム1は、画像取得部11、顔認証部12及び表示部13を備える。画像取得部11は、入場制限領域に向かう被認証者が通過する顔認証領域を含む画像を取得する。顔認証部12は、画像取得部11により取得された画像に基づいて、被認証者の顔認証を行う。表示部13は、被認証者の頭上及び足元の少なくとも一方に配置されている。表示部13は、被認証者が顔認証領域の入場制限領域側に出た後に、顔認証部12による顔認証の結果を表示する。
 認証システム1では、画像取得部11が顔認証領域を含む画像を取得し、顔認証部12が該取得された画像に基づいて顔認証を行い、被認証者が顔認証領域の入場制限領域側に出た後に、表示部13が被認証者の頭上及び足元の少なくとも一方に顔認証の結果を表示する認証方法が行われる、と言える。このような、認証システム1は、コンピュータが記録媒体に記録されたコンピュータプログラムを読み込むことによって実現されてよい。この場合、記録媒体には、コンピュータに、入場制限領域に向かう被認証者が通過する顔認証領域を含む画像を取得し、該取得された画像に基づいて、被認証者の顔認証を行い、被認証者が顔認証領域の入場制限領域側に出た後に、被認証者の頭上及び足元の少なくとも一方に顔認証の結果を表示する認証方法を実行させるためのコンピュータプログラムが記録されている、と言える。
 (技術的効果)
 入場制限領域は、顔認証部12による顔認証に成功した被認証者が入場可能な領域である。顔認証領域は、入場制限領域に向かう被認証者が通過する領域である。顔認証部12は、顔認証領域を含む画像に基づいて、被認証者の顔認証を行う。このため、被認証者は、カメラの前で立ち止まる必要がない。認証システム1では、被認証者が入場制限領域に向かって歩いている間に、顔認証部12が、被認証者の顔認証を行う。つまり、認証システム1は、ウォークスルー顔認証を行うシステムである。
 ウォークスルー顔認証では、顔認証のために被認証者が立ち止まる必要がないので、被認証者の入場制限領域へのスムーズな入場が可能である。その一方で、被認証者には、入場制限領域への入場を許可されたか否か(言い換えれば、顔認証に成功したか否か)を確認したいという欲求がある。例えば、被認証者は、顔認証の結果を確認しないで、入場制限領域に向かうことに不安を覚えることがあるからである。
 認証システム1では、顔認証の結果を表示する表示部13が、被認証者の頭上及び足元の少なくとも一方に配置されている。表示部13が被認証者の頭上に配置される場合、被認証者の周囲に他の被認証者が存在したとしても、被認証者は表示部13を比較的容易に視認することができる。表示部13が被認証者の足元に配置される場合も、被認証者は表示部13を比較的容易に視認することができる。このように、表示部13が被認証者の頭上に配置される場合も被認証者の足元に配置される場合も、被認証者は表示部13を比較的容易に視認することができる。このため、被認証者は、自身の顔認証の結果を比較的容易に確認することができる。従って、認証システム1によれば、上述した被認証者の欲求を満たすことができる。この結果、被認証者は安心して入場制限領域に向かうことができる。これにより、被認証者の入場制限領域へのよりスムーズな入場を実現することができる。
 <第2実施形態>
 認証システム、認証方法及び記録媒体の第2実施形態について、図2乃至図7を参照して説明する。以下では、認証システム2を用いて、認証システム、認証方法及び記録媒体の第2実施形態について説明する。
 認証システム2について図2及び図3を参照して説明する。認証システム2は、ゲートGに配置されたカメラCAMと、表示装置M1及びM2と、顔認証装置20(図3参照)とを備える。尚、認証システム2は、表示装置を3つ以上備えていてもよい。認証システム2は、カメラを2つ以上備えていてもよい。
 カメラCAMと顔認証装置20とは通信可能に構成されている。表示装置M1及びM2と顔認証装置20とは通信可能に構成されている。尚、カメラCAMと顔認証装置20との間の通信は、有線通信であってもよいし、無線通信であってもよい。同様に、表示装置M1及びM2と顔認証装置20との間の通信は、有線通信であってもよいし、無線通信であってもよい。尚、有線通信は、ネットワークを介した通信に限らず、例えばUSB(Universal Serial Bus)ケーブル等、カメラCAM並びに表示装置M1及びM2の少なくとも一つと顔認証装置20とを接続するためのケーブルを介した通信を含む概念である。無線通信は、ネットワークを介した通信に限らず、例えばBluetooth(登録商標)等の近距離無線通信を含む概念である。
 図3において、顔認証装置20は、演算装置21、記憶装置22及び通信装置23を備える。顔認証装置20は、入力装置24及び出力装置25を備えていてよい。顔認証装置20は、顔特徴量データベース26(以降、“顔特徴量DB26”と表記する)を備えていてよい。尚、顔認証装置20は、入力装置24及び出力装置25の少なくとも一方を備えていなくてもよい。顔認証装置20において、演算装置21、記憶装置22、通信装置23、入力装置24、出力装置25及び顔特徴量DB26は、データバス27を介して接続されていてよい。尚、顔認証装置20は、例えばノート型のパーソナルコンピュータ等の端末装置により実現されてもよい。顔認証装置20は、例えばクラウドサーバ等のサーバ装置により実現されてもよい。
 演算装置21は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)、TPU(TensorProcessingUnit)、及び、量子プロセッサのうち少なくとも一つを含んでよい。
 記憶装置22は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク装置、光磁気ディスク装置、SSD(Solid State Drive)、及び、光ディスクアレイのうち少なくとも一つを含んでよい。つまり、記憶装置22は、一時的でない記録媒体を含んでよい。記憶装置22は、所望のデータを記憶可能である。例えば、記憶装置22は、演算装置21が実行するコンピュータプログラムを一時的に記憶していてよい。記憶装置22は、演算装置21がコンピュータプログラムを実行している場合に演算装置21が一時的に使用するデータを一時的に記憶してよい。
 通信装置23は、顔認証装置20の外部の装置(例えば、カメラCAM並びに表示装置M1及びM2の少なくとも一つ)と通信可能であってもよい。尚、通信装置23は、有線通信を行ってもよいし、無線通信を行ってもよい。
 入力装置24は、外部から顔認証装置20に対する情報の入力を受け付け可能な装置である。入力装置24は、顔認証装置20のオペレータが操作可能な操作装置(例えば、キーボード、マウス、タッチパネル等)を含んでよい。入力装置24は、例えばUSBメモリ等の、顔認証装置20に着脱可能な記録媒体に記録されている情報を読み取り可能な記録媒体読取装置を含んでよい。尚、顔認証装置20に、通信装置23を介して情報が入力される場合(言い換えれば、顔認証装置20が通信装置23を介して情報を取得する場合)、通信装置23は入力装置として機能してよい。
 出力装置25は、顔認証装置20の外部に対して情報を出力可能な装置である。出力装置25は、上記情報として、文字や画像等の視覚情報を出力してもよいし、音声等の聴覚情報を出力してもよいし、振動等の触覚情報を出力してもよい。出力装置25は、例えば、ディスプレイ、スピーカ、プリンタ及び振動モータの少なくとも一つを含んでいてよい。出力装置25は、例えばUSBメモリ等の、顔認証装置20に着脱可能な記録媒体に情報を出力可能であってもよい。尚、顔認証装置20が通信装置23を介して情報を出力する場合、通信装置23は出力装置として機能してよい。
 演算装置21は、論理的に実現される機能ブロックとして、又は、物理的に実現される処理回路として、画像取得部211、追跡部212、顔認証部213及び表示制御部214を有していてよい。尚、画像取得部211、追跡部212、顔認証部213及び表示制御部215の少なくとも一つは、論理的な機能ブロックと、物理的な処理回路(即ち、ハードウェア)とが混在する形式で実現されてよい。画像取得部211、追跡部212、顔認証部213及び表示制御部215の少なくとも一部が機能ブロックである場合、画像取得部211、追跡部212、顔認証部213及び表示制御部215の少なくとも一部は、演算装置21が所定のコンピュータプログラムを実行することにより実現されてよい。
 演算装置21は、上記所定のコンピュータプログラムを、記憶装置22から取得してよい(言い換えれば、読み込んでよい)。演算装置21は、コンピュータで読み取り可能であって且つ一時的でない記録媒体が記憶している上記所定のコンピュータプログラムを、顔認証装置20が備える図示しない記録媒体読み取り装置を用いて読み込んでもよい。演算装置21は、通信装置23を介して、顔認証装置20の外部の図示しない装置から上記所定のコンピュータプログラムを取得してもよい(言い換えれば、ダウンロードしてもよい又は読み込んでもよい)。尚、演算装置21が実行する上記所定のコンピュータプログラムを記録する記録媒体としては、光ディスク、磁気媒体、光磁気ディスク、半導体メモリ、及び、その他プログラムを格納可能な任意の媒体の少なくとも一つが用いられてよい。
 図2において、ゲートGの奥側は入場制限領域RAである。入場制限領域RAには、顔認証に成功した人物が入場することができる。言い換えれば、顔認証に成功した人物がゲートGを通過することができる。尚、入場制限領域RAの具体例としては、オフィスのセキュリティエリア、鉄道駅の改札内領域、空港のセキュリティエリア、テーマパークの有料エリア、及び、イベント会場の会場内領域が挙げられる。
 カメラCAMは、入場制限領域RAに向かう複数の人物が通過する顔認証領域FRAを撮像する。カメラCAMは、顔認証領域FRAを撮像することにより、顔認証領域FRAを含む画像を生成する。顔認証装置20の画像取得部211は、カメラCAMにより生成された画像を、通信装置23を介して取得する。画像取得部211は、取得した画像を記憶装置22に記憶する。尚、図2に示すように、入場制限領域RAと顔認証領域FRAとは重複しないように設定されている。
 尚、カメラCAMは、その画角内に顔認証領域FRAの全てが含まれるように設置されていなくてもよい。言い換えれば、カメラCAMは、顔認証領域FRAの少なくとも一部を撮像可能に設置されていてよい。この場合、認証システム2は、カメラCAMに加えて、他のカメラを備えていてもよい。つまり、認証システム2は、複数のカメラを備えていてもよい。尚、カメラCAMは、画像を生成するので、画像生成手段と称されてもよい。
 顔認証領域FRAは、仮想的な領域である。顔認証領域FRAは、例えば5メートル×5メートルの領域であってよい。5メートルという距離は、5~6人の人物が横一列に並んで通過できる程度の距離である。顔認証領域FRAが5メートル×5メートルの領域である場合、顔認証領域FRA内には、20~30人の人物が存在し得る。
 顔認証装置20の追跡部212は、画像取得部211により取得された画像(即ち、カメラCAMにより生成された画像)を用いて、顔認証領域FRAを通過する一又は複数の人物の追跡処理を行う。また、顔認証装置20の顔認証部213は、画像取得部211により取得された画像を用いて、顔認証領域FRAを通過する一又は複数の人物の顔認証処理を行う。尚、顔認証領域FRAを通過する一又は複数の人物は、顔認証処理の対象者であるので、被認証者と称されてもよい。
 追跡部212が行う追跡処理の具体例として、追跡部212が、人物P1の追跡処理を行う場合について図4及び図5を参照して説明する。また、顔認証部213が行う顔認証処理の具体例として、顔認証部213が、人物P1の顔認証処理を行う場合について説明する。尚、顔認証処理には、既存の各種態様(例えば、2次元(2D)認証方式及び3次元(3D)認証方式の少なくとも一方)を適用可能である。
 図4に示す、画像IMG1、IMG2及びIMG3は、人物P1を含む画像(言い換えれば、人物P1が写り込んでいる画像)である。画像IMG1は、時刻t1に、カメラCAMが顔認証領域FRAを撮像することにより生成された画像である。画像IMG2は、時刻t1よりも後の時刻t2に、カメラCAMが顔認証領域FRAを撮像することにより生成された画像である。画像IMG3は、時刻t2よりも後の時刻t3に、カメラCAMが顔認証領域FRAを撮像することにより生成された画像である。
 画像IMG1、IMG2及びIMG3各々は、動画の1フレームに相当する画像であってもよい。この場合、画像IMG2は、画像IMG1に相当するフレームの直後のフレームに相当する画像でなくてもよい。つまり、画像IMG2は、画像IMG1に相当するフレームよりも2フレーム以上後のフレームに相当する画像であってもよい。同様に、画像IMG3は、画像IMG2に相当するフレームの直後のフレームに相当する画像でなくてもよい。つまり、画像IMG3は、画像IMG2に相当するフレームよりも2フレーム以上後のフレームに相当する画像であってもよい。
 追跡部212は、画像IMG1から、画像IMG1に含まれる人物P1の頭部を検出する。尚、画像から人の頭部を検出する方法には、既存技術を適用であるので、その詳細についての説明は省略する。追跡部212は、検出された人物P1の頭部に基づいて、人物P1の頭部を含む領域を追跡領域TA1として設定する。
 追跡部212は、追跡領域TA1を設定した場合、追跡領域TA1に係る人物P1を識別するための識別情報である追跡IDを、人物P1に設定する。追跡部212は、追跡領域TA1に基づいて、人物P1の位置(例えば、人物P1の足元の位置)を算出する。尚、画像から、該画像に含まれる被写体の位置を算出する方法には、既存技術を適用可能であるので、その詳細についての説明は省略する。追跡部212は、追跡IDと人物P1の位置とを互いに対応づけて、記憶装置22に記憶されているID対応テーブル221(図5参照)に登録する。
 追跡領域TA1が設定された場合、追跡部212は、追跡領域TA1に人物P1の顔が写り込んでいるか否かを判定する。言い換えれば、追跡部212は、追跡領域TA1について顔検出を行う。追跡領域TA1に人物P1の顔が写り込んでいると判定された場合、追跡部212は、人物P1の顔領域を含む顔画像を生成する。追跡部212は、該生成された顔画像を、人物P1に係る追跡IDと対応づけて、顔認証部213に送信する。尚、追跡領域TA1に人物P1の顔が写り込んでいないと判定された場合、追跡部212は、顔画像を生成しなくてよい。
 顔認証部213は、追跡部212から送信された顔画像を用いて顔認証処理を行う。具体的には、顔認証部213は、上記顔画像の特徴量を抽出する。尚、顔画像の特徴量を抽出する方法には、既存技術を適用可能であるので、その詳細についての説明は省略する。顔認証部213は、抽出された特徴量と、顔特徴量DB26に登録されている特徴量との照合を行う。このとき、顔認証部213は、抽出された特徴量と登録されている特徴量とに基づいて照合スコア(又は、類似スコア)を算出する。顔認証部213は、照合スコアと閾値とを比較する。照合スコアが閾値以上である場合、顔認証部213は、顔認証に成功したと判定する。この場合、顔特徴量DB26に登録されている複数の人物のなかから、追跡部212から送信された顔画像により示される人物(ここでは、人物P1)に該当する人物が特定される。他方で、照合スコアが閾値未満である場合、顔認証部213は、顔認証に失敗したと判定する。この場合、追跡部212から送信された顔画像により示される人物(ここでは、人物P1)に該当する人物は、顔特徴量DB26に登録されていない可能性が高い。
 顔認証に成功した場合、顔認証部213は、追跡部212から送信された顔画像により示される人物(ここでは、人物P1)に該当する、顔特徴量DB26に登録されている人物を示す認証IDを、上記顔画像に対応づけられた追跡IDに対応づけて、ID対応テーブル221に登録する。顔認証部213は、認証IDに加えて、顔認証処理を行った時刻である認証時刻を、ID対応テーブル221に登録してよい。顔認証に失敗した場合、顔認証部213は、該当者がいないことを示す情報(例えば、“N/A(Not Applicable)”)を、追跡部212から送信された顔画像に対応づけられた追跡IDに対応づけて、ID対応テーブル221に登録してよい。
 ID対応テーブル221について図5を参照して説明を加える。図5に示すように、ID対応テーブル221では、追跡ID、追跡位置(例えば、人物P1の足元の位置)、認証ID及び認証時刻が互いに対応づけられていてよい。ID対応テーブル221において、追跡IDが、具体的な認証IDと対応づけられている場合、追跡IDが設定された人物に該当する人物が顔特徴量DB26に登録されていることを示している。追跡IDが、「N/A」という文字列と対応づけられている場合、追跡IDが設定された人物に該当する人物が顔特徴量DB26に登録されていないことを示している。追跡IDが、認証IDと対応づけられていない場合(即ち、認証ID欄が空欄である場合)、顔認証処理が1度も行われていないことを示している。
 追跡部212は、画像IMG2と、画像IMG1とを用いて、画像IMG2に含まれる人物P1を特定してよい。画像IMG2に含まれる人物P1を特定することは、画像IMG1に含まれる人物P1と画像IMG2に含まれる人物P1との対応付けを行うことと同義である。このため、画像IMG2に含まれる人物P1の特定には、画像間の対応付けに係るマッチング方式及びオプティカルフロー方式の少なくとも一方の手法を適用可能である。尚、マッチング方式及びオプティカルフロー方式各々には、既存の各種態様を適用可能であるので、その詳細についての説明は省略する。
 画像IMG2に含まれる人物P1が特定された場合、追跡部212は、人物P1の頭部を検出する。追跡部212は、検出された人物P1の頭部に基づいて、人物P1の頭部を含む領域を追跡領域TA2として設定する。画像IMG1に含まれる人物P1と画像IMG2に含まれる人物P1とは同一の人物であるので、追跡領域TA2に係る人物P1の追跡IDは、追跡領域TA1に係る人物P1の追跡IDと同一である。追跡部212は、追跡領域TA2に基づいて、人物P1の位置を算出する。
 追跡部212は、人物P1の位置を、人物P1に係る追跡IDに対応づけてID対応テーブル221に登録する。この場合、ID対応テーブル221には、追跡領域TA1に基づいて算出された人物P1の位置が登録されているので、追跡部212が、追跡領域TA2に基づいて算出された人物P1の位置をID対応テーブル221に登録することにより、人物P1の位置が更新される。
 追跡領域TA2が設定された場合、追跡部212は、追跡領域TA2に人物P1の顔が写り込んでいるか否かを判定する。言い換えれば、追跡部212は、追跡領域TA2について顔検出を行う。追跡領域TA2に人物P1の顔が写り込んでいると判定された場合、追跡部212は、人物P1の顔領域を含む顔画像を生成する。追跡部212は、該生成された顔画像を、人物P1に係る追跡IDと対応づけて、顔認証部213に送信する。尚、追跡領域TA2に人物P1の顔が写り込んでいないと判定された場合、追跡部212は、顔画像を生成しなくてよい。尚、追跡領域TA2に人物P1の顔が写り込んでいると判定された場合であっても、ID対応テーブル221において、人物P1に係る追跡IDと、認証IDとが対応づけられている場合(即ち、既に顔認証が成功している場合)、追跡部212は、顔画像を生成しなくてよい。
 顔認証部213は、追跡部212から送信された顔画像を用いて顔認証処理を行う。顔認証に成功した場合、顔認証部213は、追跡部212から送信された顔画像により示される人物(ここでは、人物P1)に該当する、顔特徴量DB26に登録されている人物を示す認証IDを、上記顔画像に対応づけられた追跡IDに対応づけて、ID対応テーブル221に登録する。顔認証部213は、認証IDに加えて、顔認証処理を行った時刻である認証時刻を、ID対応テーブル221に登録してよい。尚、ID対応テーブル221に認証時刻が既に登録されている場合(即ち、過去に顔認証が成功している場合)、顔認証部213は、ID対応テーブル221に登録されている認証時刻を更新してよい。顔認証に失敗した場合、顔認証部213は、該当者がいないことを示す情報(例えば、“N/A”)を、追跡部212から送信された顔画像に対応づけられた追跡IDに対応づけて、ID対応テーブル221に登録してよい。
 追跡部212は、画像IMG3と、画像IMG2とを用いて、画像IMG3に含まれる人物P1を特定してよい。画像IMG3に含まれる人物P1が特定された場合、追跡部212は、人物P1の頭部を検出する。追跡部212は、検出された人物P1の頭部に基づいて、人物P1の頭部を含む領域を追跡領域TA3として設定する。画像IMG2に含まれる人物P1と画像IMG3に含まれる人物P1とは同一の人物であるので、追跡領域TA3に係る人物P1の追跡IDは、追跡領域TA2に係る人物P1の追跡IDと同一である。追跡部212は、追跡領域TA3に基づいて、人物P1の位置を算出する。
 追跡部212は、人物P1の位置を、人物P1に係る追跡IDに対応づけてID対応テーブル321に登録する。この場合、ID対応テーブル221には、追跡領域TA2に基づいて算出された人物P1の位置が登録されているので、追跡部212が、追跡領域TA3に基づいて算出された人物P1の位置をID対応テーブル221に登録することにより、人物P1の位置が更新される。
 追跡領域TA3が設定された場合、追跡部212は、追跡領域TA3に人物P1の顔が写り込んでいるか否かを判定する。言い換えれば、追跡部212は、追跡領域TA3について顔検出を行う。追跡領域TA3に人物P1の顔が写り込んでいると判定された場合、追跡部212は、人物P1の顔領域を含む顔画像を生成する。追跡部212は、該生成された顔画像を、人物P1に係る追跡IDと対応づけて、顔認証部213に送信する。尚、追跡領域TA3に人物P1の顔が写り込んでいないと判定された場合、追跡部212は、顔画像を生成しなくてよい。尚、追跡領域TA3に人物P1の顔が写り込んでいると判定された場合であっても、ID対応テーブル221において、人物P1に係る追跡IDと、認証IDとが対応づけられている場合(即ち、既に顔認証が成功している場合)、追跡部212は、顔画像を生成しなくてよい。
 顔認証部213は、追跡部212から送信された顔画像を用いて顔認証処理を行う。顔認証に成功した場合、顔認証部213は、追跡部212から送信された顔画像により示される人物(ここでは、人物P1)に該当する、顔特徴量DB26に登録されている人物を示す認証IDを、上記顔画像に対応づけられた追跡IDに対応づけて、ID対応テーブル221に登録する。顔認証部213は、認証IDに加えて、顔認証処理を行った時刻である認証時刻を、ID対応テーブル221に登録してよい。尚、ID対応テーブル221に認証時刻が既に登録されている場合(即ち、過去に顔認証が成功している場合)、顔認証部213は、ID対応テーブル221に登録されている認証時刻を更新してよい。顔認証に失敗した場合、顔認証部213は、該当者がいないことを示す情報(例えば、“N/A”)を、追跡部212から送信された顔画像に対応づけられた追跡IDに対応づけて、ID対応テーブル221に登録してよい。
 ところで、例えば人物P1の頭部が他人の陰に隠れてしまうこと等に起因して、追跡部212が人物P1を追跡し続けることが困難になることがある。追跡部212は、人物P1の追跡が途切れた場合、次のような処理を行ってもよい。追跡部212は、人物P1の追跡が途切れた後に、画像取得部211により取得された画像(即ち、カメラCAMが生成した画像)から、新たな人物が検出されたか否かを判定してよい。「新たな人物」は、追跡IDが設定されていない人物を意味する。
 新たな人物が検出された場合、追跡部212は、人物P1に係る追跡領域(例えば、追跡領域TA1、TA2及びTA3の少なくとも一つ)の特徴量と、新たな人物に係る追跡領域の特徴量とを比較することにより、人物P1と新たな人物とが同一人物であるか否かを判定してよい。人物P1と新たな人物とが同一人物であると判定された場合、追跡部212は、新たな人物に、人物P1に係る追跡IDを設定してよい。この結果、追跡部212は、人物P1を再度追跡することができる。尚、特徴量は、人物の頭部に係る特徴量であってもよいし、人物の上半身に係る特徴量であってもよいし、人物の全身に係る特徴量であってもよい。つまり、追跡領域(例えば、追跡領域TA1、TA2及びTA3の少なくとも一つ)には、人物の頭部が含まれていてもよいし、人物の上半身が含まれていてもよいし、人物の全身が含まれていてもよい。尚、特徴量は、例えばPerson Re-Identification技術により求められてもよい。
 追跡部212及び顔認証部213は、人物P1が顔認証領域FRAを通過するまで、上述した処理を繰り返し行ってよい。追跡部212及び顔認証部213は、顔認証領域FRAを通過する全ての人物に対して、上述した処理を行ってよい。
 追跡部212及び顔認証部213の動作について、図6のフローチャートを参照して説明を加える。図6において、追跡部212は、画像取得部211により取得された画像(即ち、カメラCAMが生成した画像)から、一又は複数の人物を検出する(ステップS101)。ステップS101の処理において、追跡部212は、人物の頭部を検出してよい。ステップS101の処理において、追跡部212は、検出された人物の頭部に基づいて、該検出された人物の頭部を含む追跡領域を設定してよい。ステップS101の処理において、追跡部212は、検出された一又は複数の人物の顔検出を行ってよい。
 追跡部212は、画像取得部211により取得された他の画像を用いて、ステップS101の処理において検出された一又は複数の人物の少なくとも一人の追跡処理を行う(ステップS102)。ステップS102の処理において、追跡部212は、検出された一又は複数の人物の顔検出を行ってよい。ステップS101及びS102の少なくとも一方の処理において、一又は複数の人物の少なくとも一人の顔が検出された場合、追跡部212は、少なくとも一人の顔領域を含む顔画像を、顔認証部213に送信する。
 顔認証部213は、追跡部212から送信された顔画像を用いて顔認証処理を行う(ステップS103)。顔認証部213は、顔認証処理の結果をID対応テーブル221に登録する、又は、顔認証処理の結果に基づいてID対応テーブル221を更新する(ステップS104)。
 顔認証装置20の表示制御部214の動作について、図2及び図7を参照して説明する。図2において、ゲートGの近傍(言い換えれば、表示装置M1及びM2の近傍)には、表示範囲DRが仮想的に設定されている。尚、表示範囲DRは、顔認証領域FRAを通過する人物が表示範囲DR内に位置する場合に、該人物が表示装置M1及びM2の少なくとも一方を視認可能な領域として設定されている。
 図7において、表示制御部214は、ID対応テーブル221に基づいて、顔認証領域FRAを通過する人物(言い換えれば、追跡部212による追跡処理の対象となる人物)の位置を取得する(ステップS201)。ステップS201の処理において、人物P1の位置が取得された場合、表示制御部214は、人物P1の位置に基づいて、人物P1が表示範囲DR内に位置するか否かを判定する。言い換えれば、表示制御部214は、人物P1が表示装置M1及びM2の少なくとも一方に接近したか否かを判定する(ステップS202)。
 ステップS202の処理において、人物P1が表示範囲DR内に位置しないと判定された場合、即ち、人物P1が表示装置M1及びM2に接近していないと判定された場合(ステップS202:No)、表示制御部214は、ステップS201の処理を行う。
 上述したように、追跡部212は、顔認証領域FRAを通過する人物(例えば、人物P1)の追跡処理行うので、ID対応テーブル221に登録されている人物(例えば、人物P1)の位置は逐次更新される。言い換えれば、図7のフローチャートにより示される表示制御部214の動作と、図6のフローチャートにより示される追跡部212及び顔認証部213の動作とは並行して行われる。このため、今回のステップS202の処理において、人物P1が表示装置M1及びM2に接近していないと判定された場合であっても、次回のステップS202の処理において、人物P1が表示装置M1及びM2の少なくとも一方に接近していると判定されることがある。
 ステップS202の処理において、例えば人物P1が表示範囲DR内に位置すると判定された場合、即ち、人物P1が表示装置M1及びM2の少なくとも一方に接近していると判定された場合(ステップS202:No)、表示制御部214は、ID対応テーブル221に基づいて、人物P1に係る表示情報を生成する(ステップS203)。
 具体的には、ID対応テーブル221において、人物P1に係る追跡IDに、具体的な認証IDが対応付けられている場合、表示制御部214は、顔認証が成功したことを示す情報と、人物P1を示す識別情報とを含む表示情報を生成する。ID対応テーブル221において、人物P1に係る追跡IDに、「N/A」という文字列と対応づけられている場合、表示制御部214は、顔認証が失敗したことを示す情報を含む表示情報を生成する。この場合、顔認証処理により人物P1に該当する人物が特定されていないので、人物P1を示す識別情報は、表示情報に含まれなくてよい。ID対応テーブル221において、人物P1に係る追跡IDが認証IDに対応づけられていない場合(即ち、認証ID欄が空欄である場合)、表示制御部214は、顔認証が失敗したことを示す情報を含む表示情報を生成してよい。尚、この場合、表示制御部214は、未認証であることを示す情報を含む表示情報を生成してよい。
 表示制御部214は、ステップS203の処理において生成された表示情報を表示するように、表示装置M1又はM2を制御する(ステップS204)。表示制御部214は、表示情報に係る人物の、表示範囲DRの幅方向(即ち、入場制限領域RAに向かう人物の進行方向に交わる方向)の位置に基づいて、表示情報を表示する表示装置(表示装置M1及びM2の一方)を決定する。尚、図2に示すように、表示範囲DRは、顔認証領域FRAの入場制限領域RA側に、顔認証領域RAと重複しないように設定されている。このため、表示情報(例えば、顔認証の結果)は、顔認証領域FRAを通過する人物が、顔認証領域FRAの入場制限領域RA側に出た後に、表示装置M1及びM2の一方に表示されることになる。表示制御部214は、顔認証領域FRAを通過する全ての人物に対して、ステップS201乃至S204の処理を行ってよい。
 図2において、人物P1、P3及びP4は、顔認証に成功した人物であるものとする。人物P2は、顔認証に失敗した人物であるものとする。表示制御部214は、人物P1について、顔認証が成功したことを示す情報と、人物P1を示す識別情報とを含む表示情報を生成する。表示制御部214は、人物P1に係る表示情報に含まれる顔認証に成功したことを示す情報(例えば、緑色のマーク)が、表示装置M1の左上に表示されるように表示装置M1を制御する。また、表示制御部214は、人物P1に係る表示情報に含まれる人物P1を示す識別情報(例えば、幾何学パターン)が、表示装置M1の左下に表示されるように表示装置M1を制御する。
 表示制御部214は、人物P2について、顔認証が失敗したことを示す情報を含む表示情報を生成する。表示制御部214は、人物P2に係る表示情報に含まれる顔認証に失敗したことを示す情報(例えば、赤色のマーク)が、表示装置M1の右上に表示されるように表示装置M1を制御する。
 表示制御部214は、人物P3について、顔認証が成功したことを示す情報と、人物P3を示す識別情報とを含む表示情報を生成する。表示制御部214は、人物P3に係る表示情報に含まれる顔認証に成功したことを示す情報(例えば、緑色のマーク)が、表示装置M2の左上に表示されるように表示装置M2を制御する。また、表示制御部214は、人物P3に係る表示情報に含まれる人物P3を示す識別情報(例えば、幾何学パターン)が、表示装置M2の左下に表示されるように表示装置M2を制御する。
 表示制御部214は、人物P4について、顔認証が成功したことを示す情報と、人物P4を示す識別情報とを含む表示情報を生成する。表示制御部214は、人物P4に係る表示情報に含まれる顔認証に成功したことを示す情報(例えば、緑色のマーク)が、表示装置M2の右上に表示されるように表示装置M2を制御する。また、表示制御部214は、人物P4に係る表示情報に含まれる人物P4を示す識別情報(例えば、幾何学パターン)が、表示装置M2の右下に表示されるように表示装置M2を制御する。
 例えば幾何学パターンである識別情報は、人物の顔画像から抽出された特徴量の顔特徴量DB26への登録時に決定されてよい。識別情報は、顔認証装置20により自動的に決定されてもよいし、特徴量を登録する人物自身により決定されてもよい。決定された識別情報(例えば、幾何学パターン)は、特徴量を登録した人物に通知される。
 尚、表示制御部214は、ある人物(例えば、人物P1乃至P4とは異なる人物)について、未認証であることを示す情報を含む表示情報を生成してもよい。この場合、表示制御部214は、未認証であることを示す情報(例えば、灰色のマーク)が表示装置M1及びM2の一方に表示されるように、表示装置M1及びM2の一方を制御してもよい。尚、表示制御部214は、顔認識領域FRAを通過する人物のうち、表示範囲DRから退出した人物に係る表示情報の表示を終了するように、表示装置M1及びM2の少なくとも一方を制御してよい。
 上述したように、入場制限領域RAには、顔認証に成功した人物が入場することができる。このため、顔認証に成功したことを示す情報は、入場制限領域RAに入場できることを示す情報であると言える。また、顔認証に失敗したことを示す情報、及び、未認証であることを示す情報は、入場制限領域RAに入場できないことを示す情報であると言える。
 (技術的効果)
 顔認証の結果(例えば、顔認証に成功したことを示す情報、顔認証に失敗したことを示す情報、及び、未認証であることを示す情報)は、顔認証領域FRAを通過する人物の頭部より高い位置(即ち、該人物の頭上)に配置された表示装置M1及びM2の少なくとも一方に表示される。このため、顔認証領域FRAを通過する人物は、顔認証の結果を比較的容易に視認することができる。
 上述したように、表示制御部214は、顔認証の結果を含む表示情報に係る人物の、表示範囲DRの幅方向の位置に基づいて、表示情報を表示する表示装置(表示装置M1及びM2の一方)を決定する。このため、表示情報に係る人物に比較的近い位置に、顔認証の結果が表示される。このため、顔認証領域FRAを通過する人物は、顔認証の結果を比較的容易に視認することができる。
 顔認証に成功した人物について、顔認証に成功したことを示す情報(例えば、マーク)と、顔認証に成功した人物を示す識別情報(例えば、幾何学パターン)とが表示装置M1又はM2に表示される。顔認証領域FRAを通過する人物は、自身の識別情報が表示装置M1又はM2に表示されていることを認識することにより、顔認証に成功している(言い換えれば、入場制限領域RAに入場することができる)ことを認識することができる。また、顔認証領域FRAを通過する人物は、自身の識別情報が表示装置M1及びM2に表示されていないことを認識することにより、顔認証に失敗している(言い換えれば、入場制限領域RAに入場することができない)ことを認識することができる。
 図2に示すように、表示装置M1及びM2は、顔認証領域FRAを通過する人物の頭上に配置されている。そして、カメラCAMは、表示装置M1と表示装置M2との間に配置されている。顔認証領域FRAを通過する人物は、顔認証の結果を確認するために表示装置M1及びM2の少なくとも一方を見る。この結果、顔認証領域FRAを通過する人物は、自然と、カメラCAMに顔を向けることになる。このため、追跡部212が行う追跡処理において、顔認証領域FRAを通過する人物の顔領域が検出されやすくなる。従って、顔認証部213が、顔認証領域FRAを通過する人物の顔認証を適切に行うことができる。
 (変形例)
 表示制御部214は、図8に示すように、顔認証領域FRAを通過する人物に対応する人型の図形が表示されるように、表示装置M1及びM2の少なくとも一方を制御してもよい。この場合、表示制御部214は、顔認証に成功した人物について、緑色の人型の図形が表示されるように、表示装置M1及びM2の少なくとも一方を制御してもよい。この場合、緑色の人型の図形に、顔認証に成功した人物を示す識別情報(例えば、幾何学パターン)が表示されるように、表示装置M1及びM2の少なくとも一方を制御してもよい。表示制御部214は、顔認証に失敗した人物について、赤色の人型の図形が表示されるように、表示装置M1及びM2の少なくとも一方を制御してもよい。表示制御部214は、未認証の人物について、灰色の人型の図形が表示されるように、表示装置M1及びM2の少なくとも一方を制御してもよい。
 表示制御部214は、カメラCAMにより生成された画像に含まれる各人物(即ち、顔認証領域FRAを通過する各人物)の位置及び大きさに基づいて、上記人型の図形の位置及び大きさを決定してもよい。尚、上記画像に含まれる各人物の大きさは、上記画像において各人物を構成するピクセル数で表されてもよい。尚、表示制御部214は、上記画像に含まれる各人物の、カメラCAM、ゲートG又は入場制限領域RAからの距離を算出又は推定してもよい。表示制御部214は、算出又は推定された距離に基づいて、各人物に対応する人型の図形の大きさを決定してもよい。
 表示制御部214は、ID対応テーブル221に基づいて、顔認証領域FRAを通過する人物のうち、表示装置M1及びM2の少なくとも一方(或いは、カメラCAM、ゲート及び入場制限領域RAの一つ)に近い人物に対応する人型の図形の色を、表示装置M1及びM2から遠い人物に対応する人型の図形の色よりも濃くしてよい。
 尚、表示制御部214は、人型の図形の色の濃淡に加えて、人型の図形の透過度を変更してもよい。この場合、表示制御部214は、顔認証領域FRAを通過する人物のうち、表示装置M1及びM2から遠い人物に対応する人型の図形の透過度を、表示装置M1及びM2の少なくとも一方(或いは、カメラCAM、ゲート及び入場制限領域RAの一つ)に近い人物に対応する人型の図形の透過度よりも大きくしてもよい。つまり、表示制御部214は、表示装置M1及びM2の少なくとも一方(或いは、カメラCAM、ゲート及び入場制限領域RAの一つ)に近い人物に対応する人型の図形ほど不透明度を大きくしてもよい。
 表示制御部214は、ID対応テーブル221に基づいて、表示装置M1及びM2の少なくとも一方に表示される人型の図形の位置を、対応する人物の軌跡に応じて変更するように、表示装置M1及びM2の少なくとも一方を制御してもよい。この場合、表示制御部214は、上記軌跡を表示するように、表示装置M1及びM2の少なくとも一方を制御してもよい。
 表示制御部214は、顔認証領域FRAを通過する人物のうち、表示装置M1及びM2の少なくとも一方に近い人物に対応する人型の図形が、表示装置M1及びM2から遠い人物に対応する人型の図形より手前に表示されるように、表示装置M1及びM2の少なくとも一方を制御してよい。この場合、表示装置M1及びM2の少なくとも一方に近づく人物に対応する人型の図形は、表示装置M1及びM2の少なくとも一方において、画面の奥側から手前側に移動することになる。
 表示制御部214は、顔認証領域FRAを通過する人物のうち、表示装置M1及びM2の少なくとも一方に近い人物に対応する人型の図形が、表示装置M1及びM2から遠い人物に対応する人型の図形より奥に表示されるように、表示装置M1及びM2の少なくとも一方を制御してよい。この場合、表示装置M1及びM2の少なくとも一方に近づく人物に対応する人型の図形は、表示装置M1及びM2の少なくとも一方において、画面の手前側から奥側に移動することになる。
 表示制御部214は、顔認証領域FRAを通過する人物に対応する人型の図形(図8参照)を表示することに代えて、カメラCAMにより生成された、顔認証領域FRAを含む画像を表示するように表示装置M1及びM2の少なくとも一方を制御してもよい。この場合、表示制御部214は、上記画像に含まれる顔認証に成功した人物に、緑色の枠が重畳表示されるように、表示装置M1及びM2の少なくとも一方を制御してもよい。表示制御部214は、上記画像に含まれる顔認証に失敗した人物に、赤色の枠が重畳表示されるように、表示装置M1及びM2の少なくとも一方を制御してもよい。表示制御部214は、上記画像に含まれる未認証の人物に、灰色の枠が重畳表示されるように、表示装置M1及びM2の少なくとも一方を制御してもよい。
 認証IDには、認証IDに係る人物のメールアドレスが紐づけられていてもよい。顔認証装置20は、通信装置23を介して、顔認証領域FRAを通過する人物のうち、顔認証に成功した人物に係る認証IDに紐づけられたメールアドレス宛に、顔認証に成功したことを示すメールを送信してもよい。
 <第3実施形態>
 認証システム、認証方法及び記録媒体の第3実施形態について、図9を参照して説明する。以下では、認証システム3を用いて、認証システム、認証方法及び記録媒体の第3実施形態を説明する。尚、図9では、便宜上、顔認証領域FRAを通過する人物の図示を省略している。
 認証システム3について図9を参照して説明する。認証システム3は、ゲートGに配置されたカメラCAMと、表示装置M3と、顔認証装置20(図3参照)とを備える。表示装置M3と顔認証装置20とは通信可能に構成されている。尚、表示装置M3と顔認証装置20との間の通信は、有線通信であってもよいし、無線通信であってもよい。尚、カメラCAM及び顔認証装置20について、上述した第2実施形態と重複する説明は省略する。
 表示装置M3は、顔認証領域FRAを通過する人物の足元に配置されている。図9に示すように、表示装置M3は、顔認証領域FRAを通過する人物の進行方向に交わる方向に延びている。表示装置M3は、顔認証領域FRAの入場制限領域RA側の端部に相当する位置に配置されていてよい。表示装置M3は、LED(Light Emitting Diode)テープを含んで構成されていてもよい。
 顔認証装置20の表示制御部214の動作について説明する。図9において、ゲートGの近傍(言い換えれば、表示装置M3の近傍)には、表示範囲DRが仮想的に設定されている。尚、表示範囲DRは、顔認証領域FRAを通過する人物が表示範囲DR内に位置する場合に、該人物が表示装置M3を視認可能な領域として設定されている。
 表示制御部214は、ID対応テーブル221に基づいて、顔認証領域FRAを通過する人物(言い換えれば、追跡部212による追跡処理の対象となる人物)の位置を取得する。例えば人物P1の位置が取得された場合、表示制御部214は、人物P1の位置に基づいて、人物P1が表示範囲DR内に位置するか否かを判定する。言い換えれば、表示制御部214は、人物P1が表示装置M3に接近したか否かを判定する。
 例えば人物P1が表示範囲DR内に位置すると判定された場合、即ち、人物P1が表示装置M3に接近していると判定された場合、表示制御部214は、ID対応テーブル221に基づいて、人物P1に係る表示情報を生成する。
 具体的には、ID対応テーブル221において、人物P1に係る追跡IDに、具体的な認証IDが対応付けられている場合、表示制御部214は、顔認証が成功したことを示す情報を含む表示情報を生成する。ID対応テーブル221において、人物P1に係る追跡IDに、「N/A」という文字列と対応づけられている場合、表示制御部214は、顔認証が失敗したことを示す情報を含む表示情報を生成する。ID対応テーブル221において、人物P1に係る追跡IDが認証IDに対応づけられていない場合(即ち、認証ID欄が空欄である場合)、表示制御部214は、顔認証が失敗したことを示す情報を含む表示情報を生成してよい。尚、この場合、表示制御部214は、未認証であることを示す情報を含む表示情報を生成してよい。
 表示制御部214は、上記生成された表示情報を表示するように、表示装置M3を制御する。表示制御部214は、表示情報に係る人物の、表示範囲DRの幅方向(即ち、入場制限領域RAに向かう人物の進行方向に交わる方向)の位置に基づいて、表示装置M3における表示情報の表示位置を決定する。
 例えば人物P1が顔認証に成功した人物である場合、表示制御部214は、顔認証が成功したことを示す情報を含む表示情報を生成する。表示制御部214は、人物P1の表示範囲DRの幅方向の位置に基づいて決定された、表示装置M3における表示情報の表示位置に、表示情報に含まれる顔認証に成功したことを示す情報が表示されるように、表示装置M3を制御する。表示装置M3がLEDテープを含んで構成されている場合、表示制御部214は、上記表示位置に配置されたLEDが緑色に発光するように、表示装置M3を制御してもよい。
 例えば人物P1が顔認証に失敗した人物である場合、表示制御部214は、顔認証が失敗したことを示す情報を含む表示情報を生成する。表示制御部214は、人物P1の表示範囲DRの幅方向の位置に基づいて決定された、表示装置M3における表示情報の表示位置に、表示情報に含まれる顔認証に失敗したことを示す情報が表示されるように、表示装置M3を制御する。表示装置M3がLEDテープを含んで構成されている場合、表示制御部214は、上記表示位置に配置されたLEDが赤色に発光するように、表示装置M3を制御してもよい。
 例えば人物P1が未認証の人物である場合、表示制御部214は、未認証であることを示す情報を含む表示情報を生成する。表示制御部214は、人物P1の表示範囲DRの幅方向の位置に基づいて決定された、表示装置M3における表示情報の表示位置に、表示情報に含まれる未認証であることを示す情報が表示されるように、表示装置M3を制御する。表示装置M3がLEDテープを含んで構成されている場合、表示制御部214は、上記表示位置に配置されたLEDが灰色に発光するように、表示装置M3を制御してもよい。
 例えば人物P1が表示範囲DRから退出した場合、表示制御部214は、人物P1に係る表示情報の表示を終了するように表示装置M3を制御する。表示制御部214は、顔認証領域FRAを通過する全ての人物に対して、上述した処理を行ってよい。
 (技術的効果)
 顔認証の結果(例えば、顔認証に成功したことを示す情報、顔認証に失敗したことを示す情報、及び、未認証であることを示す情報)が、該顔認証の結果に係る人物の足元近傍に表示される。このため、顔認証領域FRAを通過する人物は、顔認証の結果を比較的容易に視認することができる。加えて、顔認証の結果に応じて表示装置M3に表示される表示情報が異なるので、顔認証領域FRAを通過する人物は、自身が顔認証に成功しているか否か(言い換えれば、入場制限領域RAに入場することができるか否か)を認識することができる。
 (変形例)
 図9において、表示装置M3は、顔認証領域FRAを通過する人物の進行方向に交わる方向に、直線状に延びている。しかしながら、表示装置M3は、顔認証領域FRAを通過する人物の進行方向に交わるように、円弧状に配置されていてもよい。このように構成すれば、例えば、ゲートGの幅と通路の幅とが異なる場合であっても、顔認証の結果を表示装置M3に適切に表示することができる。また、ゲートGのレイアウトの自由度を向上させることができる。
 表示装置M3は、ディスプレイを含んで構成されていてもよい。この場合、上述した第2実施形態と同様に、表示制御部214は、顔認証に成功した人物について、顔認証に成功したことを示す情報(例えば、緑色のマーク)と、該人物を示す情報(例えば、幾何学パターン)とが表示されるように、表示装置M3を制御してもよい。
 認証IDには、認証IDに係る人物のメールアドレスが紐づけられていてもよい。顔認証装置20は、通信装置23を介して、顔認証領域FRAを通過する人物のうち、顔認証に成功した人物に係る認証IDに紐づけられたメールアドレス宛に、顔認証に成功したことを示すメールを送信してもよい。
 <第4実施形態>
 認証システム、認証方法及び記録媒体の第4実施形態について、図10を参照して説明する。以下では、認証システム4を用いて、認証システム、認証方法及び記録媒体の第4実施形態を説明する。尚、図10では、便宜上、顔認証領域FRAを通過する人物の図示を省略している。
 認証システム4について図10を参照して説明する。認証システム4は、ゲートGに配置されたカメラCAMと、表示装置M3及びM4と、顔認証装置20(図3参照)とを備える。表示装置M3及びM4と顔認証装置20とは通信可能に構成されている。尚、表示装置M3及びM4と顔認証装置20との間の通信は、有線通信であってもよいし、無線通信であってもよい。尚、カメラCAM及び顔認証装置20について、上述した第2実施形態と重複する説明は省略する。
 表示装置M3は、顔認証領域FRAを通過する人物の足元に配置されている。図10に示すように、表示装置M3は、顔認証領域FRAを通過する人物の進行方向に交わる方向に延びている。表示装置M3は、顔認証領域FRAの入場制限領域RA側の端部に相当する位置に配置されていてよい。表示装置M4は、顔認証領域FRAを通過する人物の足元に配置されている。図10に示すように、表示装置M4は、顔認証領域FRAを通過する人物の進行方向に交わる方向に延びている。図10に示すように、表示装置M3及びM4は、顔認証領域FRAを通過する人物の進行方向に沿って、互いに間隔をあけて配置されている。表示装置M3及びM4は、LEDテープを含んで構成されていてもよい。
 顔認証装置20の表示制御部214の動作について説明する。図10において、表示装置M3の近傍には、表示範囲DR1が仮想的に設定されている。また、表示装置M4の近傍には、表示範囲DR2が仮想的に設定されている。尚、表示範囲DR1は、顔認証領域FRAを通過する人物が表示範囲DR1内に位置する場合に、該人物が表示装置M3を視認可能な領域として設定されている。表示範囲DR2は、顔認証領域FRAを通過する人物が表示範囲DR2内に位置する場合に、該人物が表示装置M4を視認可能な領域として設定されている。
 表示制御部214は、ID対応テーブル221に基づいて、顔認証領域FRAを通過する人物(言い換えれば、追跡部212による追跡処理の対象となる人物)の位置を取得する。例えば人物P1の位置が取得された場合、表示制御部214は、人物P1の位置に基づいて、人物P1が表示範囲DR2内に位置するか否かを判定する。言い換えれば、表示制御部214は、人物P1が表示装置M4に接近したか否かを判定する。
 例えば人物P1が表示範囲DR2内に位置すると判定された場合、即ち、人物P1が表示装置M4に接近していると判定された場合、表示制御部214は、ID対応テーブル221に基づいて、人物P1に係る表示情報を生成する。
 具体的には、ID対応テーブル221において、人物P1に係る追跡IDに、具体的な認証IDが対応付けられている場合、表示制御部214は、顔認証が成功したことを示す情報を含む表示情報を生成する。ID対応テーブル221において、人物P1に係る追跡IDに、「N/A」という文字列と対応づけられている場合、表示制御部214は、顔認証が失敗したことを示す情報を含む表示情報を生成する。ID対応テーブル221において、人物P1に係る追跡IDが認証IDに対応づけられていない場合(即ち、認証ID欄が空欄である場合)、表示制御部214は、顔認証が失敗したことを示す情報を含む表示情報を生成してよい。尚、この場合、表示制御部214は、未認証であることを示す情報を含む表示情報を生成してよい。
 表示制御部214は、上記生成された表示情報を表示するように、表示装置M4を制御する。表示制御部214は、表示情報に係る人物の、表示範囲DR2の幅方向(即ち、入場制限領域RAに向かう人物の進行方向に交わる方向)の位置に基づいて、表示装置M4における表示情報の表示位置を決定する。
 例えば人物P1が顔認証に成功した人物である場合、表示制御部214は、顔認証が成功したことを示す情報を含む表示情報を生成する。表示制御部214は、人物P1の表示範囲DR2の幅方向の位置に基づいて決定された、表示装置M4における表示情報の表示位置に、表示情報に含まれる顔認証に成功したことを示す情報が表示されるように、表示装置M4を制御する。表示装置M4がLEDテープを含んで構成されている場合、表示制御部214は、上記表示位置に配置されたLEDが緑色に発光するように、表示装置M4を制御してもよい。
 例えば人物P1が顔認証に失敗した人物である場合、表示制御部214は、顔認証が失敗したことを示す情報を含む表示情報を生成する。表示制御部214は、人物P1の表示範囲DR2の幅方向の位置に基づいて決定された、表示装置M4における表示情報の表示位置に、表示情報に含まれる顔認証に失敗したことを示す情報が表示されるように、表示装置M4を制御する。表示装置M4がLEDテープを含んで構成されている場合、表示制御部214は、上記表示位置に配置されたLEDが赤色に発光するように、表示装置M4を制御してもよい。
 例えば人物P1が未認証の人物である場合、表示制御部214は、未認証であることを示す情報を含む表示情報を生成する。表示制御部214は、人物P1の表示範囲DR2の幅方向の位置に基づいて決定された、表示装置M4における表示情報の表示位置に、表示情報に含まれる未認証であることを示す情報が表示されるように、表示装置M4を制御する。表示装置M4がLEDテープを含んで構成されている場合、表示制御部214は、上記表示位置に配置されたLEDが灰色に発光するように、表示装置M4を制御してもよい。
 例えば人物P1が表示範囲DR2から退出した場合、表示制御部214は、人物P1に係る表示情報の表示を終了するように表示装置M4を制御する。その後、表示制御部214は、ID対応テーブル221に基づく人物P1の位置に基づいて、人物P1が表示範囲DR1内に位置するか否かを判定する。言い換えれば、表示制御部214は、人物P1が表示装置M3に接近したか否かを判定する。
 例えば人物P1が表示範囲DR1内に位置すると判定された場合、即ち、人物P1が表示装置M3に接近していると判定された場合、表示制御部214は、ID対応テーブル221に基づいて、人物P1に係る表示情報を生成する。
 表示制御部214は、上記生成された表示情報を表示するように、表示装置M3を制御する。表示制御部214は、表示情報に係る人物の、表示範囲DR2の幅方向(即ち、入場制限領域RAに向かう人物の進行方向に交わる方向)の位置に基づいて、表示装置M3における表示情報の表示位置を決定する。
 例えば人物P1が顔認証に成功した人物である場合、表示制御部214は、顔認証が成功したことを示す情報を含む表示情報を生成する。表示制御部214は、人物P1の表示範囲DR1の幅方向の位置に基づいて決定された、表示装置M3における表示情報の表示位置に、表示情報に含まれる顔認証に成功したことを示す情報が表示されるように、表示装置M3を制御する。表示装置M3がLEDテープを含んで構成されている場合、表示制御部214は、上記表示位置に配置されたLEDが緑色に発光するように、表示装置M4を制御してもよい。
 例えば人物P1が顔認証に失敗した人物である場合、表示制御部214は、顔認証が失敗したことを示す情報を含む表示情報を生成する。表示制御部214は、人物P1の表示範囲DR1の幅方向の位置に基づいて決定された、表示装置M3における表示情報の表示位置に、表示情報に含まれる顔認証に失敗したことを示す情報が表示されるように、表示装置M3を制御する。表示装置M3がLEDテープを含んで構成されている場合、表示制御部214は、上記表示位置に配置されたLEDが赤色に発光するように、表示装置M3を制御してもよい。
 例えば人物P1が未認証の人物である場合、表示制御部214は、未認証であることを示す情報を含む表示情報を生成する。表示制御部214は、人物P1の表示範囲DR1の幅方向の位置に基づいて決定された、表示装置M3における表示情報の表示位置に、表示情報に含まれる未認証であることを示す情報が表示されるように、表示装置M3を制御する。表示装置M3がLEDテープを含んで構成されている場合、表示制御部214は、上記表示位置に配置されたLEDが灰色に発光するように、表示装置M3を制御してもよい。
 例えば人物P1が表示範囲DR1から退出した場合、表示制御部214は、人物P1に係る表示情報の表示を終了するように表示装置M3を制御する。表示制御部214は、顔認証領域FRAを通過する全ての人物に対して、上述した処理を行ってよい。
 (技術的効果)
 顔認証の結果(例えば、顔認証に成功したことを示す情報、顔認証に失敗したことを示す情報、及び、未認証であることを示す情報)が、該顔認証の結果に係る人物の足元近傍に表示される。このため、顔認証領域FRAを通過する人物は、顔認証の結果を比較的容易に視認することができる。本実施形態では特に、表示装置M4に顔認証の結果が表示されるので、顔認証に失敗した人物が、自身が入場制限領域RAに入場することができないことに、比較的早期に気づくことができる。
 (変形例)
 表示装置M4に表示される顔認証に失敗したことを示す情報の表示色は、表示装置M3に表示される顔認証に失敗したことを示す情報の表示色に比べて、警告感の弱い色であってもよい。例えば、表示装置M3に表示される顔認証に失敗したことを示す情報の表示色が赤色である場合、表示装置M4に表示される顔認証に失敗したことを示す情報の表示色は、オレンジ又は黄色であってもよい。
 上述した第3実施形態と同様に、表示装置M3及びM4の少なくとも一方は、顔認証領域FRAを通過する人物の進行方向に交わるように、円弧状に配置されていてもよい。表示装置M3及びM4の少なくとも一方は、ディスプレイを含んで構成されていてもよい。認証IDには、認証IDに係る人物のメールアドレスが紐づけられていてもよい。顔認証装置20は、通信装置23を介して、顔認証領域FRAを通過する人物のうち、顔認証に成功した人物に係る認証IDに紐づけられたメールアドレス宛に、顔認証に成功したことを示すメールを送信してもよい。
 <第5実施形態>
 認証システム、認証方法及び記録媒体の第5実施形態について、図11を参照して説明する。以下では、認証システム5を用いて、認証システム、認証方法及び記録媒体の第5実施形態を説明する。尚、図11では、便宜上、顔認証領域FRAを通過する人物の図示を省略している。
 認証システム5について図11を参照して説明する。認証システム4は、ゲートGに配置されたカメラCAMと、表示装置M1、M2及びM3と、顔認証装置20(図3参照)とを備える。表示装置M1、M2及びM3と顔認証装置20とは通信可能に構成されている。尚、表示装置M1、M2及びM3と顔認証装置20との間の通信は、有線通信であってもよいし、無線通信であってもよい。尚、カメラCAM及び顔認証装置20について、上述した第2実施形態と重複する説明は省略する。
 表示装置M3は、顔認証領域FRAを通過する人物の足元に配置されている。図11に示すように、表示装置M3は、顔認証領域FRAを通過する人物の進行方向に交わる方向に延びている。表示装置M3は、顔認証領域FRAの入場制限領域RA側の端部に相当する位置に配置されていてよい。表示装置M3は、LEDテープを含んで構成されていてもよい。
 顔認証装置20の表示制御部214の動作について説明する。図11において、ゲートGの近傍には、表示範囲DRが仮想的に設定されている。尚、表示範囲DRは、顔認証領域FRAを通過する人物が表示範囲DR内に位置する場合に、該人物が表示装置M1、M2及びM3の少なくとも一つを視認可能な領域として設定されている。
 表示制御部214は、ID対応テーブル221に基づいて、顔認証領域FRAを通過する人物(言い換えれば、追跡部212による追跡処理の対象となる人物)の位置を取得する。例えば人物P1の位置が取得された場合、表示制御部214は、人物P1の位置に基づいて、人物P1が表示範囲DR内に位置するか否かを判定する。言い換えれば、表示制御部214は、人物P1が表示装置M1、M2及びM3の少なくとも一つに接近したか否かを判定する。
 例えば人物P1が表示範囲DR内に位置すると判定された場合、即ち、人物P1が表示装置M1、M2及びM3の少なくとも一つに接近していると判定された場合、表示制御部214は、ID対応テーブル221に基づいて、人物P1に係る表示情報を生成する。
 具体的には、ID対応テーブル221において、人物P1に係る追跡IDに、具体的な認証IDが対応付けられている場合、表示制御部214は、顔認証が成功したことを示す情報と、人物P1を示す情報とを含む表示情報を生成する。ID対応テーブル221において、人物P1に係る追跡IDに、「N/A」という文字列と対応づけられている場合、表示制御部214は、顔認証が失敗したことを示す情報を含む表示情報を生成する。ID対応テーブル221において、人物P1に係る追跡IDが認証IDに対応づけられていない場合(即ち、認証ID欄が空欄である場合)、表示制御部214は、顔認証が失敗したことを示す情報を含む表示情報を生成してよい。尚、この場合、表示制御部214は、未認証であることを示す情報を含む表示情報を生成してよい。
 表示制御部214は、上記生成された表示情報を表示するように、表示装置M1及びM2の少なくとも一方、並びに、表示装置M3を制御する。表示制御部214は、表示情報に係る人物の、表示範囲DRの幅方向(即ち、入場制限領域RAに向かう人物の進行方向に交わる方向)の位置に基づいて、表示装置M1及びM2の少なくとも一方、並びに、表示装置M3における表示情報の表示位置を決定する。
 例えば人物P1が顔認証に成功した人物である場合、表示制御部214は、顔認証が成功したことを示す情報と、人物P1を示す情報とを含む表示情報を生成する。表示制御部214は、人物P1に係る表示情報に含まれる顔認証に成功したことを示す情報(例えば、緑色のマーク)が、表示装置M1及びM2の一方に表示されるように表示装置M1及びM2の一方を制御する。また、表示制御部214は、人物P1に係る表示情報に含まれる人物P1を示す識別情報(例えば、幾何学パターン)が、表示装置M1及びM2の一方に表示されるように表示装置M1及びM2の一方を制御する。表示制御部214は、人物P1の表示範囲DRの幅方向の位置に基づいて決定された、表示装置M3における表示情報の表示位置に、表示情報に含まれる顔認証に成功したことを示す情報が表示されるように、表示装置M3を制御する。表示装置M3がLEDテープを含んで構成されている場合、表示制御部214は、上記表示位置に配置されたLEDが緑色に発光するように、表示装置M3を制御してもよい。
 例えば人物P1が顔認証に失敗した人物である場合、表示制御部214は、顔認証が失敗したことを示す情報を含む表示情報を生成する。表示制御部214は、人物P1に係る表示情報に含まれる顔認証に失敗したことを示す情報(例えば、赤色のマーク)が、表示装置M1及びM2の一方に表示されるように表示装置M1及びM2の一方を制御する。表示制御部214は、人物P1の表示範囲DRの幅方向の位置に基づいて決定された、表示装置M3における表示情報の表示位置に、表示情報に含まれる顔認証に失敗したことを示す情報が表示されるように、表示装置M3を制御する。表示装置M3がLEDテープを含んで構成されている場合、表示制御部214は、上記表示位置に配置されたLEDが赤色に発光するように、表示装置M3を制御してもよい。
 例えば人物P1が未認証の人物である場合、表示制御部214は、未認証であることを示す情報を含む表示情報を生成する。表示制御部214は、人物P1に係る表示情報に含まれる未認証であることを示す情報(例えば、灰色のマーク)が、表示装置M1及びM2の一方に表示されるように表示装置M1及びM2の一方を制御する。表示制御部214は、人物P1の表示範囲DRの幅方向の位置に基づいて決定された、表示装置M3における表示情報の表示位置に、表示情報に含まれる未認証であることを示す情報が表示されるように、表示装置M3を制御する。表示装置M3がLEDテープを含んで構成されている場合、表示制御部214は、上記表示位置に配置されたLEDが灰色に発光するように、表示装置M3を制御してもよい。
 尚、表示制御部214は、表示装置M1及びM2の一方、並びに、表示装置M3の表示順を変更してもよい。例えば、表示制御部214は、人物P1が表示範囲DRに進入した場合、先ず、表示装置M3に人物P1の顔認証の結果が表示されるように表示装置M3を制御してもよい。表示装置M3に人物P1の顔認証の結果が表示された後、表示制御部214は、表示装置M1及びM2の一方に、人物P1の顔認証の結果が表示されるように表示装置M1及びM2の一方を制御してもよい。このように構成すれば、人物P1が表示装置M3に表示された顔認証の結果を確認した後、人物P1が表示装置M1及びM2の一方に表示された顔認証の結果を再度確認することができる。この結果、人物P1の安心感を高めることができる。
 表示制御部214は、顔認証部213による人物P1の顔認証の結果に基づいて、表示装置M1及びM2の一方、並びに、表示装置M3の表示順を変更してもよい。人物P1が顔認証に失敗した人物又は未認証の人物である場合、人物P1はカメラCAMの方を向いていない可能性が高い(この場合、人物P1は足元を見ている可能性が高い)。この場合、表示制御部214は、人物P1が表示範囲DRに進入した場合、先ず、表示装置M3に人物P1の顔認証の結果が表示されるように表示装置M3を制御してもよい。表示装置M3に人物P1の顔認証の結果が表示された後、表示制御部214は、表示装置M1及びM2の一方に、人物P1の顔認証の結果が表示されるように表示装置M1及びM2の一方を制御してもよい。このように構成すれば、顔認証に失敗した人物又は未認証の人物である人物P1に、自身の顔認証の結果を気づかせることができる。
 人物P1が顔認証に成功した人物である場合、人物P1はカメラCAMの方を向いている可能性が高い(言い換えれば、人物P1は顔を正面又は斜め上に向けている可能性が高い)。この場合、表示制御部214は、人物P1が表示範囲DRに進入した場合、先ず、表示装置M1及びM2の一方に人物P1の顔認証の結果が表示されるように表示装置M1及びM2の一方を制御してもよい。表示装置M1及びM2の一方に人物P1の顔認証の結果が表示された後、表示制御部214は、表示装置M3に、人物P1の顔認証の結果が表示されるように表示装置M3を制御してもよい。このように構成すれば、顔認証に成功した人物である人物P1が、自身の顔認証の結果に気づきやすくなる。
 例えば人物P1が表示範囲DRから退出した場合、表示制御部214は、人物P1に係る表示情報の表示を終了するように、表示装置M1及びM2の一方、並びに、表示装置M3を制御する。表示制御部214は、顔認証領域FRAを通過する全ての人物に対して、上述した処理を行ってよい。
 (技術的効果)
 顔認証の結果(例えば、顔認証に成功したことを示す情報、顔認証に失敗したことを示す情報、及び、未認証であることを示す情報)が、顔認証領域FRAを通過する人物の頭上に配置された表示装置M1及びM2の少なくとも一方と、該人物の足元に配置された表示装置M3とに表示されるので、顔認証領域FRAを通過する人物が顔認証の結果を比較的容易に視認することができる。
 (変形例)
 認証システム5は、上述した第2実施形態の変形例に係る各種態様と同様の各種態様を採ることができる。認証システム5は、上述した第3実施形態の変形例に係る各種態様と同様の各種態様を採ることができる。認証システム5は、表示装置M1、M2及びM3に加えて、上述した第4実施形態に係る表示装置M4に相当する表示装置を備えていてもよい。
 この開示に係る認証システムは、上述した実施形態に限られるものではない。この開示から読み取れる発明の概念を逸脱しない範囲で、上述した実施形態及び変形例は適宜組み合わせることが可能である。
 <付記>
 以上に説明した実施形態に関して、更に以下の付記を開示する。
 (付記1)
 入場制限領域に向かう被認証者が通過する所定領域を含む画像を取得する画像取得手段と、
 前記取得された画像に基づいて、前記被認証者の顔認証を行う顔認証手段と、
 前記被認証者の頭上及び足元の少なくとも一方に配置され、前記被認証者が前記顔認証領域の前記入場制限領域側に出た後に、前記顔認証の結果を表示する表示手段と、
 を備える認証システム。
 (付記2)
 前記顔認証の結果は、前記被認証者が前記入場制限領域に入場できることを示す第1結果と、前記被認証者が前記入場制限領域に入場できないことを示す第2結果とを含む
 付記1に記載の認証システム。
 (付記3)
 前記表示手段は、前記被認証者を示す情報とともに前記顔認証の結果を表示する
 付記1又は2に記載の認証システム。
 (付記4)
 前記被認証者を示す情報は、幾何学パターンである
 付記3に記載の認証システム。
 (付記5)
 前記表示手段は、前記顔認証の結果に基づいて、前記被認証者に対応する人型の図形の表示色を変更することによって、前記顔認証の結果を表示する
 付記1又は2に記載の認証システム。
 (付記6)
 前記表示手段は、第1表示装置及び第2表示装置を含み、
 前記第1表示装置及び前記第2表示装置は、前記被認証者の頭上に横並びに配置されており、
 前記被認証者を撮像する撮像手段は、前記第1表示装置と前記第2表示装置との間に配置されている
 付記1乃至5のいずれか一項に記載の認証システム。
 (付記7)
 前記表示手段は、前記被認証者の足元に配置された第3表示装置を含み、
 前記第3表示装置は、前記被認証者の進行方向に対して交わる方向に延びている
 付記1乃至6のいずれか一項に記載の認証システム。
 (付記8)
 前記第3表示装置は、LEDテープである
 付記7に記載の認証システム。
 (付記9)
 前記表示手段は、前記被認証者の足元に配置された第4表示装置を含み、
 前記第3表示装置は、前記被認証者の進行方向に対して交わる方向に延びており、
 前記第3表示装置及び前記第4表示装置は、前記被認証者の進行方向に沿って、互いに間隔をあけて配置されている
 付記7又は8に記載の認証システム。
 (付記10)
 前記表示手段は、前記入場制限領域と前記顔認証領域との間に配置されている
 付記1乃至9のいずれか一項に記載の認証システム。
 (付記11)
 前記表示手段は、前記顔認証領域の前記入場制限領域側の端部に相当する位置に配置されている
 付記1乃至10のいずれか一項に記載の認証システム。
 (付記12)
 前記顔認証領域は、前記入場制限領域に向かう前記被認証者の進行方向において、前記入場制限領域の手前に配置されている
 付記1乃至11のいずれか一項に記載の認証システム。
 (付記13)
 前記表示手段は、前記被認証者の頭上に配置された第1表示装置と、前記被認証者の足元に配置された第3表示装置とを含み、
 前記表示手段は、前記顔認証の結果に基づいて、前記第1表示装置及び前記第3表示装置に前記顔認証の結果が表示される順番を変更する
 付記1乃至12のいずれか一項に記載の認証システム。
 (付記14)
 入場制限領域に向かう被認証者が通過する顔認証領域を含む画像を取得し、
 前記取得された画像に基づいて、前記被認証者の顔認証を行い、
 前記被認証者が前記顔認証領域の前記入場制限領域側に出た後に、前記被認証者の頭上及び足元の少なくとも一方に前記顔認証の結果を表示する
 認証方法。
 (付記15)
 コンピュータに、
 入場制限領域に向かう被認証者が通過する顔認証領域を含む画像を取得し、
 前記取得された画像に基づいて、前記被認証者の顔認証を行い、
 前記被認証者が前記顔認証領域の前記入場制限領域側に出た後に、前記被認証者の頭上及び足元の少なくとも一方に前記顔認証の結果を表示する
 認証方法を実行させるためのコンピュータプログラムが記録されている記録媒体。
 (付記16)
 入場制限領域に向かう被認証者が通過する顔認証領域を含む画像を取得する画像取得手段と、
 前記取得された画像に基づいて、前記被認証者の顔認証を行う顔認証手段と、
 前記被認証者が前記顔認証領域の前記入場制限領域側に出た後に、前記被認証者の頭上及び足元の少なくとも一方に前記顔認証の結果を表示する表示手段と、
 を備える認証装置。
 この開示は、上述した実施形態に限られるものではなく、請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う認証システム、認証方法及び記録媒体もまたこの開示の技術的範囲に含まれるものである。
 1、2、3、4、5 認証システム
 11、211 画像取得部
 12 顔認証部
 13 表示部
 20 顔認証装置
 21 演算装置
 22 記憶装置
 23 通信装置
 24 入力装置
 25 出力装置
 26 顔特徴量データベース
 212 追跡部
 213 顔認証部
 214 表示制御部

Claims (16)

  1.  入場制限領域に向かう被認証者が通過する顔認証領域を含む画像を取得する画像取得手段と、
     前記取得された画像に基づいて、前記被認証者の顔認証を行う顔認証手段と、
     前記被認証者の頭上及び足元の少なくとも一方に配置され、前記被認証者が前記顔認証領域の前記入場制限領域側に出た後に前記顔認証の結果を表示する表示手段と、
     を備える認証システム。
  2.  前記顔認証の結果は、前記被認証者が前記入場制限領域に入場できることを示す第1結果と、前記被認証者が前記入場制限領域に入場できないことを示す第2結果とを含む
     請求項1に記載の認証システム。
  3.  前記表示手段は、前記被認証者を示す情報とともに前記顔認証の結果を表示する
     請求項1又は2に記載の認証システム。
  4.  前記被認証者を示す情報は、幾何学パターンである
     請求項3に記載の認証システム。
  5.  前記表示手段は、前記顔認証の結果に基づいて、前記被認証者に対応する人型の図形の表示色を変更することによって、前記顔認証の結果を表示する
     請求項1又は2に記載の認証システム。
  6.  前記表示手段は、第1表示装置及び第2表示装置を含み、
     前記第1表示装置及び前記第2表示装置は、前記被認証者の頭上に横並びに配置されており、
     前記被認証者を撮像する撮像手段は、前記第1表示装置と前記第2表示装置との間に配置されている
     請求項1乃至5のいずれか一項に記載の認証システム。
  7.  前記表示手段は、前記被認証者の足元に配置された第3表示装置を含み、
     前記第3表示装置は、前記被認証者の進行方向に対して交わる方向に延びている
     請求項1乃至6のいずれか一項に記載の認証システム。
  8.  前記第3表示装置は、LEDテープである
     請求項7に記載の認証システム。
  9.  前記表示手段は、前記被認証者の足元に配置された第4表示装置を含み、
     前記第3表示装置は、前記被認証者の進行方向に対して交わる方向に延びており、
     前記第3表示装置及び前記第4表示装置は、前記被認証者の進行方向に沿って、互いに間隔をあけて配置されている
     請求項7又は8に記載の認証システム。
  10.  前記表示手段は、前記入場制限領域と前記顔認証領域との間に配置されている
     請求項1乃至9のいずれか一項に記載の認証システム。
  11.  前記表示手段は、前記顔認証領域の前記入場制限領域側の端部に相当する位置に配置されている
     請求項1乃至10のいずれか一項に記載の認証システム。
  12.  前記顔認証領域は、前記入場制限領域に向かう前記被認証者の進行方向において、前記入場制限領域の手前に配置されている
     請求項1乃至11のいずれか一項に記載の認証システム。
  13.  前記表示手段は、前記被認証者の頭上に配置された第1表示装置と、前記被認証者の足元に配置された第3表示装置とを含み、
     前記表示手段は、前記顔認証の結果に基づいて、前記第1表示装置及び前記第3表示装置に前記顔認証の結果が表示される順番を変更する
     請求項1乃至12のいずれか一項に記載の認証システム。
  14.  入場制限領域に向かう被認証者が通過する顔認証領域を含む画像を取得し、
     前記取得された画像に基づいて、前記被認証者の顔認証を行い、
     前記被認証者が前記顔認証領域の前記入場制限領域側に出た後に、前記被認証者の頭上及び足元の少なくとも一方に前記顔認証の結果を表示する
     認証方法。
  15.  コンピュータに、
     入場制限領域に向かう被認証者が通過する顔認証領域を含む画像を取得し、
     前記取得された画像に基づいて、前記被認証者の顔認証を行い、
     前記被認証者が前記顔認証領域の前記入場制限領域側に出た後に、前記被認証者の頭上及び足元の少なくとも一方に前記顔認証の結果を表示する
     認証方法を実行させるためのコンピュータプログラムが記録されている記録媒体。
  16.  入場制限領域に向かう被認証者が通過する顔認証領域を含む画像を取得する画像取得手段と、
     前記取得された画像に基づいて、前記被認証者の顔認証を行う顔認証手段と、
     前記被認証者が前記顔認証領域の前記入場制限領域側に出た後に、前記被認証者の頭上及び足元の少なくとも一方に前記顔認証の結果を表示する表示手段と、
     を備える認証装置。
PCT/JP2022/043605 2022-11-25 2022-11-25 認証システム、認証方法及び記録媒体 WO2024111119A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/043605 WO2024111119A1 (ja) 2022-11-25 2022-11-25 認証システム、認証方法及び記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/043605 WO2024111119A1 (ja) 2022-11-25 2022-11-25 認証システム、認証方法及び記録媒体

Publications (1)

Publication Number Publication Date
WO2024111119A1 true WO2024111119A1 (ja) 2024-05-30

Family

ID=91195853

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/043605 WO2024111119A1 (ja) 2022-11-25 2022-11-25 認証システム、認証方法及び記録媒体

Country Status (1)

Country Link
WO (1) WO2024111119A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014219704A (ja) * 2013-04-30 2014-11-20 セコム株式会社 顔認証システム
JP2018128918A (ja) * 2017-02-09 2018-08-16 株式会社熊平製作所 セキュリティゲートおよびセキュリティゲートユニット
JP2020004088A (ja) * 2018-06-28 2020-01-09 パナソニックIpマネジメント株式会社 ゲート装置及びシステム
WO2022003851A1 (ja) * 2020-07-01 2022-01-06 日本電気株式会社 認証制御装置、認証制御システム、認証制御方法及び非一時的なコンピュータ可読媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014219704A (ja) * 2013-04-30 2014-11-20 セコム株式会社 顔認証システム
JP2018128918A (ja) * 2017-02-09 2018-08-16 株式会社熊平製作所 セキュリティゲートおよびセキュリティゲートユニット
JP2020004088A (ja) * 2018-06-28 2020-01-09 パナソニックIpマネジメント株式会社 ゲート装置及びシステム
WO2022003851A1 (ja) * 2020-07-01 2022-01-06 日本電気株式会社 認証制御装置、認証制御システム、認証制御方法及び非一時的なコンピュータ可読媒体

Similar Documents

Publication Publication Date Title
JP7447978B2 (ja) 顔照合システム、顔照合方法、及びプログラム
US11539525B2 (en) Systems and methods for secure tokenized credentials
JP7359230B2 (ja) 顔照合システム、顔照合装置、顔照合方法、及び記録媒体
WO2015128961A1 (ja) 顔認証システム
JP6148064B2 (ja) 顔認証システム
KR102174695B1 (ko) 객체 움직임 인식 방법 및 장치
KR101968203B1 (ko) 주차관제시스템
JP6468725B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
US20210144009A1 (en) Device with biometric system
CN108701211B (zh) 用于实时地检测、跟踪、估计和识别占用的基于深度感测的系统
WO2013114806A1 (ja) 生体認証装置及び生体認証方法
JP2008176689A (ja) 年齢確認装置、年齢確認方法、及び年齢確認プログラム
CN111462374A (zh) 包括占用估计的访问控制系统
WO2024111119A1 (ja) 認証システム、認証方法及び記録媒体
US11741757B2 (en) Entrance permit control
WO2023152975A1 (ja) 表示制御装置、表示制御方法、及び、記録媒体
US20220327879A1 (en) Information processing apparatus, terminal device, information processing system, information processing method, and storage medium
US20200081549A1 (en) Method and a system for assisting in performing financial services
JP4873216B2 (ja) 監視システムおよび方法、不正遊技者認識サーバおよび方法、並びにプログラム
US20230274597A1 (en) Information processing apparatus, information processing method, and storage medium
WO2024084594A1 (ja) 表示制御装置、表示制御方法及び記録媒体
KR20230073619A (ko) 얼굴 인식을 이용하여 차량 정보를 관리하는 전자 장치 및 그 동작 방법
WO2024084595A1 (ja) 情報処理装置、情報処理制御方法及び記録媒体
WO2024084596A1 (ja) 情報処理装置、情報処理制御方法及び記録媒体
WO2024084597A1 (ja) 情報処理装置、情報処理制御方法及び記録媒体