WO2024084596A1 - 情報処理装置、情報処理制御方法及び記録媒体 - Google Patents

情報処理装置、情報処理制御方法及び記録媒体 Download PDF

Info

Publication number
WO2024084596A1
WO2024084596A1 PCT/JP2022/038817 JP2022038817W WO2024084596A1 WO 2024084596 A1 WO2024084596 A1 WO 2024084596A1 JP 2022038817 W JP2022038817 W JP 2022038817W WO 2024084596 A1 WO2024084596 A1 WO 2024084596A1
Authority
WO
WIPO (PCT)
Prior art keywords
authentication
face
passenger
information
image
Prior art date
Application number
PCT/JP2022/038817
Other languages
English (en)
French (fr)
Inventor
純一 上村
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2022/038817 priority Critical patent/WO2024084596A1/ja
Publication of WO2024084596A1 publication Critical patent/WO2024084596A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07BTICKET-ISSUING APPARATUS; FARE-REGISTERING APPARATUS; FRANKING APPARATUS
    • G07B15/00Arrangements or apparatus for collecting fares, tolls or entrance fees at one or more control points
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/38Individual registration on entry or exit not involving the use of a pass with central registration

Definitions

  • This disclosure relates to the technical fields of information processing devices, information processing methods, and recording media.
  • Patent Document 1 For example, a device has been proposed that, based on the results of comparing a face image acquired from a user with multiple registered face images registered in a database, guides the user to a face recognition lane where identity verification is performed by face recognition, or a face-to-face lane where identity verification is performed by face-to-face contact (see Patent Document 1).
  • the objective of this disclosure is to provide an information processing device, an information processing method, and a recording medium that aim to improve upon the technology described in prior art documents.
  • One aspect of the information processing device includes an image acquisition means for acquiring an image including a predetermined area through which a plurality of people passing toward one of a plurality of gate devices including a facial recognition gate device, an information acquisition means for acquiring position information of a terminal device that displays at least a portion of a plurality of authentication results of facial recognition performed using the image, and a determination means for determining a priority for notifying at least a portion of the plurality of authentication results based on a type corresponding to the plurality of authentication results and the position information.
  • One aspect of the information processing method involves acquiring an image including a predetermined area through which multiple people pass while heading toward one of multiple gate devices including a facial recognition gate device, acquiring location information of a terminal device that displays at least a portion of multiple authentication results of facial recognition performed using the image, and determining a priority for notifying at least a portion of the multiple authentication results based on the types corresponding to the multiple authentication results and the location information.
  • a computer program is recorded to cause a computer to execute an information processing method that acquires an image including a predetermined area through which a plurality of people pass while heading toward one of a plurality of gate devices including a facial recognition gate device, acquires location information of a terminal device that displays at least a portion of a plurality of authentication results of facial recognition performed using the image, and determines a priority for notifying at least a portion of the plurality of authentication results based on the types corresponding to the plurality of authentication results and the location information.
  • FIG. 1 is a block diagram showing an example of a configuration of an information processing device.
  • FIG. 1 is a block diagram showing an example of a configuration of an airport system.
  • FIG. 1 is a plan view showing an example of a floor where boarding gates of an airport are provided.
  • FIG. 11 is a plan view showing an example of a virtual authentication area.
  • FIG. 13 is a block diagram showing another example of the configuration of the information processing device.
  • FIG. 2 is a diagram illustrating an example of a face database included in the information processing device.
  • FIG. 13 is a diagram for explaining passenger tracking processing.
  • FIG. 13 is a diagram illustrating an example of an ID correspondence table.
  • FIG. 10 is a flowchart showing a determination operation according to the second embodiment.
  • FIG. 13 is a diagram illustrating an example of a screen displayed on a terminal device.
  • FIG. 2 is a block diagram showing an example of a configuration of an authentication device.
  • FIG. 11 is a diagram showing another example of a screen displayed on the terminal device.
  • FIG. 11 is a diagram showing another example of a screen displayed on the terminal device.
  • FIG. 11 is a diagram showing another example of a screen displayed on the terminal device.
  • FIG. 11 is a diagram showing another example of a screen displayed on the terminal device.
  • FIG. 11 is a diagram showing another example of a screen displayed on the terminal device.
  • FIG. 2 is a block diagram showing an example of the configuration of a terminal device.
  • This section describes embodiments of an information processing device, an information processing method, and a recording medium.
  • the information processing device 1 includes an image acquisition unit 11, an information acquisition unit 12, and a determination unit 13.
  • the image acquisition unit 11 acquires an image including a predetermined area.
  • the predetermined area is an area through which multiple people pass heading toward one of multiple gate devices, including a facial recognition gate device. Therefore, the image acquired by the image acquisition unit 11 may include one or multiple people passing through the predetermined area.
  • the information acquisition unit 12 acquires location information of the terminal device.
  • the location information is information indicating the location of the terminal device.
  • the terminal device displays at least a portion of the multiple authentication results of the face authentication performed using the image acquired by the image acquisition unit 11.
  • the terminal device may notify the user of the authentication results by displaying at least a portion of the multiple authentication results.
  • the user may be a person different from the multiple people heading toward any one of the multiple gate devices.
  • the user may be at least one of a guide and a security guard near the multiple gate devices.
  • the multiple authentication results may each correspond to multiple people (i.e., multiple people heading toward any one of the multiple gate devices).
  • the facial recognition gate device allows people whose facial recognition has been successful to pass through, while not allowing people whose facial recognition has been unsuccessful to pass through.
  • the facial recognition gate device may determine that facial recognition has been successful when the face of the person attempting to pass through the facial recognition gate device corresponds to a face shown in a pre-registered facial image. In other words, the facial recognition gate device may determine that facial recognition has been successful when there is a person whose facial image is pre-registered that corresponds to the person attempting to pass through the facial recognition gate device.
  • the facial recognition gate device will not allow that person to pass through (for example, if the facial recognition gate device is a flap-type gate device, the flap will be in a closed state). For this reason, when a person whose facial image has not been registered enters a facial recognition gate device, the flow of people passing through the facial recognition gate device is impeded because that person will not be allowed to pass through. In other words, the throughput of the facial recognition gate device will decrease.
  • Facial recognition may be performed to classify the plurality of people. For this reason, the plurality of people may be classified according to the result of facial recognition. For example, the plurality of people may be classified into people whose facial recognition is successful and people whose facial recognition is unsuccessful. Therefore, the result of facial recognition can be said to be information indicating the classification result.
  • the classification result may be rephrased as a type. For example, people whose facial recognition is unsuccessful may be classified into a first type, and people whose facial recognition is successful may be classified into a second type.
  • the determination unit 13 determines the priority of notifying at least a part of the multiple authentication results.
  • the notification priority may be an index for determining the notification order, or may be an index for determining whether or not notification is necessary.
  • the multiple authentication results include a first authentication result and a second authentication result. If the priority of the first authentication result is higher than the priority of the second authentication result, the first authentication result may be transmitted to the terminal device before the second authentication result. The first authentication result may be displayed on the terminal device before the second authentication result. In other words, the first authentication result may be notified to the user before the second authentication result. If the priority of the first authentication result is higher than the priority of the second authentication result, the first authentication result may be transmitted to the terminal device, but the second authentication result may not be transmitted to the terminal device. The terminal device may display the first authentication result, but not the second authentication result. In other words, the user may be notified of the first authentication result, but not the second authentication result.
  • the determination unit 13 determines the priority based on the type corresponding to the multiple authentication results and the location of the terminal device indicated by the location information. Specific examples of priority based on the type and the location of the terminal device are described below.
  • the decision unit 13 may set the priority of the first authentication result to be higher than the priority of the second authentication result.
  • the first authentication result may be displayed on the terminal device in preference to the second authentication result.
  • the first authentication result may be notified to a user (e.g., at least one of a guide and a security guard) in preference to the second authentication result.
  • the user can guide a person related to the first authentication result so that the person does not enter the facial authentication gate device.
  • the user does not need to guide a person related to the second authentication result. This is because a face image of a person related to the second authentication result is registered and there is a high possibility that the person can pass through the facial authentication gate device.
  • the decision unit 13 may set the priority of the second authentication result to be higher than the priority of the first authentication result.
  • the second authentication result may be displayed on the terminal device in preference to the first authentication result.
  • the second authentication result may be notified to a user (e.g., at least one of a guide and a security guard) in preference to the first authentication result.
  • the user may guide a person related to the second authentication result to the facial authentication gate device.
  • the person related to the second authentication result has a registered facial image and is highly likely to be able to pass through the facial authentication gate device.
  • the user does not need to guide a person related to the first authentication result. This is because it is highly likely that the person related to the first authentication result is not trying to pass through the facial authentication gate device.
  • a priority is determined for at least some of the multiple authentication results. For example, the user may be notified of the authentication result with a high priority. As a result, the user can easily recognize people who should be given priority in their response. For example, the user can give priority to people who cannot pass through the facial recognition gate device. Therefore, the information processing device 1 can prevent people who cannot pass through the facial recognition gate device from entering the facial recognition gate device. Therefore, the information processing device 1 can prevent a decrease in the throughput of the facial recognition gate device.
  • the image acquisition unit 11 may acquire an image including a predetermined area through which multiple people pass as they head toward one of multiple gate devices including a facial recognition gate device.
  • the information acquisition unit 12 may acquire location information of a terminal device that displays at least a portion of multiple authentication results of facial recognition performed using the image.
  • the determination unit 13 may determine the priority of notifying at least a portion of the multiple authentication results based on the type corresponding to the multiple authentication results and the location information.
  • Such an information processing device 1 may be realized, for example, by a computer reading a computer program recorded on a recording medium.
  • the recording medium has recorded thereon a computer program for causing a computer to execute an information processing method that acquires an image including a predetermined area through which multiple people headed toward one of multiple gate devices including a facial recognition gate device pass, acquires location information of a terminal device that displays at least a portion of multiple authentication results of facial recognition performed using the image, and determines the priority of notifying at least a portion of the multiple authentication results based on the types corresponding to the multiple authentication results and the location information.
  • Second Embodiment A second embodiment of the display control device, the display control method, and the recording medium will be described with reference to Fig. 2 to Fig. 12. In the following, the second embodiment of the information processing device, the information processing method, and the recording medium will be described using an information processing device 3 used in an airport.
  • the airport system 2 of the airport will be described with reference to FIG. 2.
  • the airport system 2 comprises a management server 21, a check-in terminal 22, and a plurality of gate devices installed at the boarding gates.
  • the management server 21, the check-in terminal 22, and the plurality of gate devices are connected to each other via a network NW.
  • the airport system 2 may include other check-in terminals in addition to the check-in terminal 22.
  • the airport system 2 may include multiple check-in terminals.
  • the network NW may be a wide area network (WAN) such as the Internet, or a local area network (LAN).
  • WAN wide area network
  • LAN local area network
  • the multiple gate devices have a facial recognition function that performs facial recognition processing, and include a facial recognition gate device 23 that determines whether or not a passenger can pass based on the results of the facial recognition processing, and a gate device 24 that determines whether or not a passenger can pass based on the airline ticket held by the passenger.
  • Gate device 24 will hereinafter be referred to as "normal gate device 24" as appropriate.
  • the airport is provided with boarding gates G1, G2, and G3.
  • the facial recognition gate device 23 and normal gate device 24 are provided at boarding gate G1.
  • air ticket may mean at least one of a paper airline ticket and an electronic airline ticket.
  • air ticket may also be a concept that includes something that indicates personal information associated with an electronic airline ticket (e.g., a passport, a credit card used to purchase the airline ticket, etc.).
  • the management server 21 has a face database 211 (hereinafter referred to as “face DB 211”), an operation database 212 (hereinafter referred to as “operation DB 212”), and a gate database 213 (hereinafter referred to as “gate DB 213").
  • Facial images used in facial recognition processing are registered in face DB211.
  • features related to facial images may be registered in face DB211.
  • Flight information (so-called flight information) of aircraft is registered in operation DB212. Flight information may include the flight name of the aircraft, gate identification information for identifying the boarding gate (e.g., boarding gate number), and boarding start time. Note that the flight name, identification information, and boarding start time of the aircraft may be associated with each other.
  • Gate DB213 has registered therein a plurality of pieces of boarding gate information corresponding to a plurality of boarding gates.
  • the person who manages and/or operates airport system 2 may be different from the airport company that manages and operates the airport and the airline that operates the aircraft.
  • the plurality of pieces of boarding gate information registered in gate DB213 may be obtained from a system related to at least one of the airport company and the airline.
  • Gate DB213 may be shared between airport system 2 and a system related to at least one of the airport company and the airline.
  • the boarding gate information may include gate identification information (e.g., boarding gate number) for identifying the boarding gate and device information related to the installed gate device.
  • the device information may be information indicating at least one of the number of gate devices, the type, operating status, and installation location of each gate device.
  • the type of gate device may include a first type capable of face authentication and a second type not capable of face authentication.
  • the second type of gate device may include a gate device capable of reading information (e.g., ID) for identifying a passenger (e.g., a two-dimensional barcode, etc.).
  • the operating status of the gate device may include an operating state in which the gate device is operating and an inactive state in which the gate device is inactive (i.e., not operating).
  • the installation location of the gate device may be expressed as the relative positional relationship of the two or more gate devices.
  • the installation location of the gate device may be expressed as the coordinates of each gate device in a coordinate system related to the floor (so-called departure floor) on which the boarding gates of the airport are installed. If only one gate device is installed at one boarding gate, the device information does not need to include the installation location of the gate device.
  • the resting state may include a state in which no power is supplied to the gate device (e.g., power OFF state) and a state in which power is supplied to part of the gate device but the gate device cannot perform its function (so-called standby state).
  • the multiple boarding gate information registered in the gate DB 213 may be determined in advance according to at least one of the airline and the flight of the aircraft.
  • the multiple boarding gate information registered in the gate DB 213 may be automatically updated according to the departure time of the aircraft, etc.
  • the check-in terminal 22 is a terminal used for boarding procedures (i.e., check-in).
  • the check-in terminal 22 may be operated by airport staff or by passengers (i.e., the check-in terminal 22 may be a so-called automatic check-in machine).
  • "airport staff" is not limited to people who belong to the airport company that manages and operates the airport, but also includes people who work at the airport, such as people who belong to the airlines that operate aircraft.
  • the check-in terminal 22 performs check-in procedures for passengers based on the airline tickets held by the passengers.
  • the check-in terminal 22 may acquire facial images of passengers during check-in procedures.
  • the check-in terminal 22 may acquire facial images of passengers by capturing images of the passengers with a camera, or may acquire facial images of passengers by reading facial photographs printed on passports held by the passengers. Note that the check-in terminal 22 does not have to acquire facial images of all passengers.
  • the check-in terminal 22 transmits passenger information (e.g., name and flight number) of a passenger who has completed boarding procedures and a facial image of the passenger to the management server 21.
  • the check-in terminal 22 may obtain the passenger information from information printed on the airline ticket (in other words, information associated with the airline ticket).
  • the management server 21 registers the passenger information and facial image sent from the check-in terminal 22 in the face DB 211 in association with each other. At this time, the management server 21 may assign passenger identification information for identifying the passenger to the passenger information and facial image. As described below, the facial image is used in facial recognition processing. For this reason, the passenger identification information assigned to the passenger information and facial image will hereinafter be referred to as an "authentication ID" as appropriate.
  • the passenger's facial image may be acquired by an application (e.g., an application provided by an airline) installed on a terminal device (e.g., a smartphone) carried by the passenger in addition to or instead of the check-in terminal 22, or may be acquired by a gate device installed in the immigration area of the airport.
  • the management server 21 may identify, based on the current time, from the flight information registered in the flight DB 212, the flight name of an aircraft that is a first predetermined time (e.g., several minutes to several tens of minutes) before the boarding start time. Based on the gate identification information associated with the identified flight name, the management server 21 may extract gate information corresponding to the gate identification information from multiple gate information registered in the gate DB 213. Based on the extracted gate information, the management server 21 may determine whether or not a facial recognition gate device (e.g., facial recognition gate device 23) is installed at the boarding gate corresponding to the extracted gate information.
  • a facial recognition gate device e.g., facial recognition gate device 23
  • the management server 21 may extract from the face DB 211 a facial image of a passenger associated with passenger information including the specified flight name (in other words, scheduled to board an aircraft with the specified flight name). The management server 21 may transmit the extracted facial image to a facial recognition gate device (e.g., facial recognition gate device 23) specified by the extracted gate information. If it is determined that a facial recognition gate device is not installed, the management server 21 may not perform these processes. If it is determined that a facial recognition gate device is installed, the management server 21 may determine whether the installed facial recognition gate device is in operation based on the extracted gate information. If features related to a facial image are registered in the face DB 211, the management server 21 may transmit the features related to the facial image to the facial recognition gate device instead of or in addition to the facial image.
  • a facial recognition gate device e.g., facial recognition gate device 23
  • the facial recognition gate device 23 has a camera 231, a face database 232 (hereinafter referred to as "face DB 232"), and a facial recognition unit 233. Face images transmitted from the management server 21 are registered in the face DB 232.
  • the facial recognition gate device 23 may have a display device 234.
  • the display device 234 may display at least one of an image captured by the camera 231 and information indicating the results of the facial recognition process.
  • the facial recognition unit 233 performs facial recognition processing using an image captured by the camera 231 (e.g., an image that includes the passenger's face) and a facial image registered in the face DB 232. If facial recognition is successful, the facial recognition gate device 23 allows the passenger to pass. On the other hand, if facial recognition is unsuccessful, the facial recognition gate device 23 does not allow the passenger to pass. Note that various existing methods (e.g., at least one of a two-dimensional (2D) authentication method and a three-dimensional (3D) authentication method) can be applied to the facial recognition processing.
  • 2D two-dimensional
  • 3D three-dimensional
  • the face recognition gate device 23 may be a flap-type gate device.
  • the face recognition device 233 may extract features of an image captured by the camera 231.
  • the face recognition device 233 may compare the extracted features with features related to face images registered in the face DB 232. At this time, the face recognition device 233 may calculate a matching score (or a similarity score) based on the extracted features and features related to face images registered in the face DB 232. If the matching score is equal to or greater than a threshold (i.e., if face recognition is successful), the face recognition device 233 may allow the passenger to pass through. At this time, the face recognition device 233 may identify an authentication ID related to the passenger.
  • the face recognition gate device 23 may open the flap. If the matching score is less than a threshold (i.e., if face recognition is unsuccessful), the face recognition device 233 may not allow the passenger to pass through. In this case, the face recognition gate device 23 may close the flap. Note that the face DB 232 may register features related to the face image instead of or in addition to the face image.
  • the facial recognition device 233 of the facial recognition gate device 23 may extract features of the image captured by the camera 231.
  • the facial recognition device 233 may transmit the extracted features to the other device.
  • the other device may compare the features transmitted from the facial recognition device 233 with features related to a facial image registered in a face database (e.g., the face DB 211).
  • the other device may transmit information indicating the matching result (e.g., information indicating whether the matching score is equal to or greater than a threshold) to the facial recognition gate device 23.
  • the other device may include an authentication ID related to the passenger in the information indicating the matching result. If the information indicating the matching result indicates that the matching score is equal to or greater than the threshold, the facial recognition device 233 may allow the passenger to pass. If the information indicating the matching result indicates that the matching score is less than the threshold, the facial recognition device 233 may not allow the passenger to pass.
  • the facial recognition gate device 23 is expected to enable passengers to pass through at a faster rate than the normal gate device 24. In other words, the number of passengers passing through the facial recognition gate device 23 in a given period of time is expected to be greater than the number of passengers passing through the normal gate device 24. In other words, the facial recognition gate device 23 can improve throughput at the boarding gate.
  • the facial recognition gate device 23 only passengers whose faces have been successfully authenticated can pass through the facial recognition gate device 23.
  • the passenger's facial image must be registered in the face DB 232 of the facial recognition gate device 23. If a passenger whose facial image is not registered in the face DB 232 enters the facial recognition gate device 23, the throughput at the boarding gate will decrease because the passenger will not be allowed to pass through.
  • the information processing device 3 determines whether or not a passenger can pass through the facial recognition gate device 23 before the passenger enters the facial recognition gate device 23. In other words, the information processing device 3 determines whether or not a passenger can pass through the facial recognition gate device 23 separately from the facial recognition gate device 23.
  • a virtual authentication area RA is provided around boarding gate G1 where face recognition gate device 23 and normal gate device 24 are installed.
  • the authentication area RA is an area through which multiple passengers heading to either face recognition gate device 23 or normal gate device 24 pass.
  • the authentication area RA corresponds to an example of the "predetermined area" in the first embodiment described above.
  • airport staff e.g., at least one of a guide and a security guard
  • A1 and A2 are located around the boarding gate G1.
  • Staff A1 possesses a terminal device 41.
  • Staff A2 possesses a terminal device 42.
  • the terminal devices 41 and 42 are connected to the information processing device 3 via the network NW.
  • “possession” is not limited to the meaning of "wearing”. For example, even if staff A1 has the terminal device 41 away from his/her body, if he/she has substantial control over the terminal device 41, it may be interpreted that staff A1 possesses the terminal device 41.
  • the terminal devices 41 and 42 may be configured as any one of a tablet terminal, a smartphone, and AR (Augmented Reality) glasses.
  • terminal devices 41 and 42 may constitute a part of the airport system 2.
  • the airport system 2 may be equipped with at least one of the terminal devices 41 and 42.
  • terminal devices 41 and 42 there may be other terminal devices.
  • the camera CAM is installed so that it can capture the authentication area RA.
  • the camera CAM may be connected to the information processing device 3 via the network NW.
  • the camera CAM does not have to be installed so that the entire authentication area RA is included within its viewing angle. In other words, the camera CAM may be installed so that it can capture at least a part of the authentication area RA.
  • the camera CAM may be installed in a position that does not interfere with the passage of passengers (for example, a position higher than the passenger's head). As described later, the image captured by the camera CAM may be used for face recognition processing. For this reason, the camera CAM may be a high-resolution camera such as a 4K resolution camera.
  • the camera CAM does not have to be connected to the information processing device 3 via the network NW. In this case, the camera CAM may be connected to the information processing device 3 via a cable (for example, a USB (Universal Serial Bus) cable).
  • a cable for example, a USB (Universal Serial Bus) cable
  • the camera CAM may capture an image of the authentication area RA to generate a first image that includes the authentication area RA.
  • the first image may be an image that corresponds to one frame of a video.
  • the information processing device 3 performs face recognition processing using a first image generated by the camera CAM capturing an image of the recognition area RA, and determines whether or not a passenger included in the first image is able to pass through the face recognition gate device 23 before the passenger enters the face recognition gate device 23.
  • the information processing device 3 will be described in detail below.
  • the information processing device 3 includes a calculation device 31, a storage device 32, and a communication device 33.
  • the information processing device 3 may include an input device 34 and an output device 35.
  • the information processing device 3 may include a face database 36 (hereinafter, referred to as "face DB 36").
  • face DB 36 a face database 36
  • the information processing device 3 may not include at least one of the input device 34 and the output device 35.
  • the calculation device 31, the storage device 32, the communication device 33, the input device 34, the output device 35, and the face DB 36 may be connected via a data bus 37.
  • the information processing device 3 is connected to the management server 21 via the communication device 33 and the network NW.
  • the information processing device 3 may constitute a part of the airport system 2. In other words, the airport system 2 may include the information processing device 3.
  • the computing device 31 may include, for example, at least one of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an FPGA (Field Programmable Gate Array), a TPU (Tensor Processing Unit), and a quantum processor.
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • FPGA Field Programmable Gate Array
  • TPU Torsor Processing Unit
  • quantum processor a quantum processor
  • the storage device 32 may include, for example, at least one of a RAM (Random Access Memory), a ROM (Read Only Memory), a hard disk device, a magneto-optical disk device, a Solid State Drive (SSD), and an optical disk array.
  • the storage device 32 may include a non-transient recording medium.
  • the storage device 32 is capable of storing desired data.
  • the storage device 32 may temporarily store a computer program executed by the arithmetic device 31.
  • the storage device 32 may temporarily store data that is temporarily used by the arithmetic device 31 when the arithmetic device 31 is executing a computer program.
  • the communication device 33 is capable of communicating with the management server 21 via the network NW.
  • the communication device 33 may also be capable of communicating with devices external to the information processing device 3 other than the management server 21 via the network NW.
  • the communication device 33 may perform wired communication or wireless communication.
  • the input device 34 is a device capable of accepting information input to the information processing device 3 from the outside. It may include an operating device (e.g., a keyboard, a mouse, a touch panel, etc.) that can be operated by an operator of the information processing device 3.
  • the input device 34 may include a recording medium reading device that can read information recorded on a recording medium that is detachable from the information processing device 3, such as a USB memory. Note that when information is input to the information processing device 3 via the communication device 33 (in other words, when the display control device 2 obtains information via the communication device 33), the communication device 33 may function as an input device.
  • the output device 35 is a device capable of outputting information to the outside of the information processing device 3.
  • the output device 35 may output visual information such as characters and images, auditory information such as sound, or tactile information such as vibration, as the above information.
  • the output device 35 may include at least one of a display, a speaker, a printer, and a vibration motor, for example.
  • the output device 35 may be capable of outputting information to a recording medium that is detachable from the information processing device 3, such as a USB memory. Note that when the information processing device 3 outputs information via the communication device 33, the communication device 33 may function as an output device.
  • the calculation device 31 may have the image acquisition unit 311, the information acquisition unit 312, the tracking unit 313, the face authentication unit 314, and the determination unit 315 as logically realized functional blocks or as physically realized processing circuits. At least one of the image acquisition unit 311, the information acquisition unit 312, the setting unit 313, the tracking unit 313, the face authentication unit 314, and the determination unit 315 may be realized in a form in which a logical functional block and a physical processing circuit (i.e., hardware) are mixed.
  • a logical functional block and a physical processing circuit i.e., hardware
  • the determination unit 315 may be realized by the calculation device 31 executing a predetermined computer program.
  • the arithmetic device 31 may obtain (in other words, read) the above-mentioned specific computer program from the storage device 32.
  • the arithmetic device 31 may read the above-mentioned specific computer program stored in a computer-readable and non-transient recording medium using a recording medium reading device (not shown) provided in the information processing device 3.
  • the arithmetic device 31 may obtain (in other words, download or read) the above-mentioned specific computer program from a device (not shown) external to the information processing device 3 via the communication device 33.
  • the recording medium for recording the above-mentioned specific computer program executed by the arithmetic device 31 may be at least one of an optical disk, a magnetic medium, a magneto-optical disk, a semiconductor memory, and any other medium capable of storing a program.
  • the management server 21 transmits at least a part of the facial image registered in the face DB 211 together with the authentication ID (i.e., passenger identification information) assigned to the facial image to the information processing device 3.
  • the management server 21 may transmit gate identification information and boarding start time in addition to the facial image to the information processing device 3.
  • the management server 21 may identify the gate identification information and boarding start time based on the flight name of the aircraft included in the passenger information associated with the facial image registered in the face DB 211 and the operation information registered in the operation DB 212. In other words, the management server 21 may identify the gate identification information and boarding start time related to the aircraft on which the passenger indicated by the facial image will board. Note that, if feature amounts related to the facial image are registered in the face DB 211 instead of or in addition to the facial image, the management server 21 may transmit the feature amounts related to the facial image instead of or in addition to the facial image to the information processing device 3.
  • the information processing device 3 registers the facial image transmitted from the management server 21 in the face DB 36.
  • the information processing device 3 may register gate identification information and boarding start time in the face DB 36 in addition to the facial image.
  • the face DB 36 may include (i) a plurality of facial images and (ii) a table that associates an authentication ID, gate identification information (e.g., boarding gate number), boarding start time, and facial image with each other.
  • the management server 21 may transmit at least a part of the facial images registered in the face DB 211 to the information processing device 3 at a predetermined period.
  • the information processing device 3 may update the facial images registered in the face DB 36 every time a facial image is transmitted from the management server 21.
  • the management server 21 transmits a feature amount related to the facial image to the information processing device 3 instead of or in addition to the facial image
  • the feature amount related to the facial image may be registered in the face DB 36 instead of or in addition to the facial image.
  • the image acquisition unit 311 of the calculation device 31 may acquire one or more first images generated by the camera CAM via the communication device 33.
  • the image acquisition unit 311 may store the acquired one or more first images in the storage device 32.
  • the information acquisition unit 312 of the calculation device 31 acquires boarding gate information related to boarding gate G1 from the gate DB 213 of the management server 21 via the communication device 33.
  • the information acquisition unit 312 may store the acquired boarding gate information in the storage device 32.
  • the information acquisition unit 312 of the computing device 31 acquires terminal position information indicating the positions of each of the terminal devices 41 and 42.
  • the information acquisition unit 312 may acquire the terminal position information from each of the terminal devices 41 and 42.
  • the position of the terminal device 41 may be detected by the position information function of the terminal device 41.
  • the position of the terminal device 42 may be detected by the position information function of the terminal device 42.
  • the tracking unit 313 of the calculation device 31 uses the multiple first images acquired by the image acquisition unit 311 (i.e., the multiple first images generated by the camera CAM) to track one or more passengers passing through the authentication area RA.
  • the face recognition unit 314 of the calculation device 31 uses the multiple first images acquired by the image acquisition unit 311 to perform face recognition processing of one or more passengers passing through the authentication area RA.
  • the tracking unit 313 performs tracking processing of passenger P1 passing through the authentication area RA shown in FIG. 4 and the face authentication unit 314 performs face authentication processing of passenger P1 will be described with reference to FIG. 7.
  • passenger P1 is also the subject of the face authentication processing, and may therefore be referred to as the person to be authenticated.
  • Images IMG1, IMG2, and IMG3 shown in FIG. 7 are images that include passenger P1 (in other words, images in which passenger P1 is captured).
  • Image IMG1 is an image generated by camera CAM capturing an image of authentication area RA at time t1.
  • Image IMG2 is an image generated by camera CAM capturing an image of authentication area RA at time t2, which is later than time t1.
  • Image IMG3 is an image generated by camera CAM capturing an image of authentication area RA at time t3, which is later than time t2.
  • Each of images IMG1, IMG2, and IMG3 may be an image corresponding to one frame of a video.
  • image IMG2 does not have to be an image corresponding to the frame immediately following the frame corresponding to image IMG1.
  • image IMG2 may be an image corresponding to a frame that is two or more frames later than the frame corresponding to image IMG1.
  • image IMG3 does not have to be an image corresponding to the frame immediately following the frame corresponding to image IMG2.
  • image IMG3 may be an image corresponding to a frame that is two or more frames later than the frame corresponding to image IMG2.
  • the tracking unit 313 detects the head of passenger P1 contained in image IMG1 from image IMG1. Note that existing technology is applied to the method of detecting a person's head from an image, so a detailed explanation is omitted. Based on the detected head of passenger P1, the tracking unit 313 sets the area including the head of passenger P1 as a tracking area TA1.
  • the tracking unit 313 sets the tracking area TA1, it sets a tracking ID, which is identification information for identifying the passenger P1 related to the tracking area TA1, to the passenger P1.
  • the tracking unit 313 calculates the position of the passenger P1 based on the tracking area TA1. Note that since existing technology can be applied to a method for calculating the position of a subject contained in an image from the image, a detailed explanation is omitted.
  • the tracking unit 313 may register the tracking ID and the position of the passenger P1 in an ID correspondence table 321 stored in the storage device 32 in correspondence with each other.
  • the tracking unit 313 may determine whether or not the face of passenger P1 is reflected in the tracking area TA1. In other words, the tracking unit 313 may perform face detection on the tracking area TA1. When it is determined that the face of passenger P1 is reflected in the tracking area TA1, the tracking unit 313 generates a face image including the face area of passenger P1. The tracking unit 313 associates the generated face image with the tracking ID related to passenger P1 and transmits it to the face authentication unit 314. Note that when it is determined that the face of passenger P1 is not reflected in the tracking area TA1, the tracking unit 313 does not need to generate a face image.
  • the face authentication unit 314 performs face authentication processing using the face image transmitted from the tracking unit 313 and the face image registered in the face DB 36.
  • the face authentication unit 314 may extract features of the face image transmitted from the tracking unit 313.
  • the face authentication unit 314 may compare the features of the face image transmitted from the tracking unit 313 with features related to the face image registered in the face DB 36.
  • the face authentication unit 314 may calculate a matching score (or a similarity score) based on the extracted features and the features related to the face image registered in the face DB 36.
  • the face authentication unit 314 may compare the matching score with a threshold value.
  • the face authentication unit 314 may determine that the face indicated by the face image transmitted from the tracking unit 313 corresponds to the face indicated by one of the face images registered in the face DB 36. If the matching score is less than the threshold value, it may be determined that a face image showing a face corresponding to the face shown in the face image sent from the tracking unit 313 is not registered in the face DB 36.
  • the facial authentication unit 314 registers the authentication ID associated with the one facial image in the ID correspondence table 321 in association with the tracking ID associated with the facial image transmitted from the tracking unit 313. In addition to the authentication ID, the facial authentication unit 314 may register the authentication time, which is the time when the facial authentication process was performed, in the ID correspondence table 321.
  • the facial authentication unit 314 may register information indicating that there is no corresponding person (e.g., "N/A (Not Applicable)" in the ID correspondence table 321 by associating it with the tracking ID associated with the facial image transmitted from the tracking unit 313.
  • the face authentication unit 314 may register failure reason information indicating the reason for the failure of the face authentication in the ID correspondence table 321.
  • the reason for the failure of the face authentication may include a first reason indicating that the face authentication failed due to the image (e.g., face image) being inappropriate for face authentication, and a second reason indicating that the face authentication failed even though the image (e.g., face image) is appropriate for face authentication.
  • the image inappropriate for face authentication may include an image in which the face area of the passenger included in the face image is inappropriate for face authentication because the face of the passenger (e.g., passenger P1) is facing down or to the side, or part of the face is hidden by an obstruction, a face image of a passenger that is different from the normal face (in other words, different from the face shown by the face image registered in the face DB 36) (e.g., a face image including at least one of beard, glasses, and a mask), and an image that is out of focus or blurred.
  • the reason for the failure of the face authentication may be the second reason when the face image showing the face of the passenger (e.g., passenger P1) to be subjected to the face authentication process is not registered in the face DB 36.
  • the tracking unit 313 may use images IMG2 and IMG1 to identify passenger P1 included in image IMG2. Identifying passenger P1 included in image IMG2 is synonymous with associating passenger P1 included in image IMG1 with passenger P1 included in image IMG2. Therefore, at least one of a matching method and an optical flow method for associating images can be applied to identify passenger P1 included in image IMG2. Note that since various existing aspects can be applied to each of the matching method and optical flow method, detailed explanations thereof will be omitted.
  • the tracking unit 313 detects the head of passenger P1. Based on the detected head of passenger P1, the tracking unit 313 sets the area including the head of passenger P1 as tracking area TA2. Since passenger P1 included in image IMG1 and passenger P1 included in image IMG2 are the same passenger, the tracking ID of passenger P1 related to tracking area TA2 is the same as the tracking ID of passenger P1 related to tracking area TA1. The tracking unit 313 calculates the position of passenger P1 based on tracking area TA2.
  • the tracking unit 313 registers the position of passenger P1 in the ID correspondence table 321 in association with the tracking ID related to passenger P1. In this case, since the position of passenger P1 calculated based on tracking area TA1 is registered in the ID correspondence table 321, the tracking unit 313 registers the position of passenger P1 calculated based on tracking area TA2 in the ID correspondence table 321, thereby updating the position of passenger P1.
  • the tracking unit 313 may determine whether or not the face of the passenger P1 is reflected in the tracking area TA2. In other words, the tracking unit 313 may perform face detection on the tracking area TA2. When it is determined that the face of the passenger P1 is reflected in the tracking area TA2, the tracking unit 313 generates a face image including the face area of the passenger P1. The tracking unit 313 transmits the generated face image to the face authentication unit 314 in association with the tracking ID related to the passenger P1. Note that, when it is determined that the face of the passenger P1 is not reflected in the tracking area TA2, the tracking unit 313 does not need to generate a face image.
  • the tracking unit 313 does not need to generate a face image.
  • the face authentication unit 314 performs face authentication processing using the face image sent from the tracking unit 313 and the face image registered in the face DB 36. If the face shown by the face image sent from the tracking unit 313 corresponds to the face shown by one of the face images registered in the face DB 36 (in other words, if face authentication is successful), the face authentication unit 314 registers the authentication ID associated with the one face image in the ID correspondence table 321 in association with the tracking ID associated with the face image sent from the tracking unit 313. In addition to the authentication ID, the face authentication unit 314 may register the authentication time, which is the time when the face authentication processing was performed, in the ID correspondence table 321. Note that if the authentication time has already been registered in the ID correspondence table 321 (i.e., if face authentication was successful in the past), the face authentication unit 314 may update the authentication time registered in the ID correspondence table 321.
  • the facial authentication unit 314 may register information indicating that there is no corresponding person in the ID correspondence table 321 in association with the tracking ID associated with the facial image transmitted from the tracking unit 313. In this case, the facial authentication unit 314 may register failure reason information indicating the reason for the failure of facial authentication in the ID correspondence table 321.
  • the tracking unit 313 may use the images IMG3 and IMG2 to identify passenger P1 included in image IMG3.
  • the tracking unit 313 detects the head of passenger P1.
  • the tracking unit 313 sets an area including the head of passenger P1 as a tracking area TA3. Since passenger P1 included in image IMG2 and passenger P1 included in image IMG3 are the same passenger, the tracking ID of passenger P1 related to tracking area TA3 is the same as the tracking ID of passenger P1 related to tracking area TA2.
  • the tracking unit 313 calculates the position of passenger P1 based on tracking area TA3.
  • the tracking unit 313 registers the position of passenger P1 in the ID correspondence table 321 in association with the tracking ID related to passenger P1. In this case, since the position of passenger P1 calculated based on tracking area TA2 is registered in the ID correspondence table 321, the tracking unit 313 registers the position of passenger P1 calculated based on tracking area TA3 in the ID correspondence table 321, thereby updating the position of passenger P1.
  • the tracking unit 313 may determine whether or not the face of the passenger P1 is reflected in the tracking area TA3. In other words, the tracking unit 313 may perform face detection on the tracking area TA3. When it is determined that the face of the passenger P1 is reflected in the tracking area TA3, the tracking unit 313 generates a face image including the face area of the passenger P1. The tracking unit 313 transmits the generated face image to the face authentication unit 314 in association with the tracking ID related to the passenger P1. Note that, when it is determined that the face of the passenger P1 is not reflected in the tracking area TA3, the tracking unit 313 does not need to generate a face image.
  • the tracking unit 313 does not need to generate a face image.
  • the face authentication unit 314 performs face authentication processing using the face image sent from the tracking unit 313 and the face image registered in the face DB 36. If the face indicated by the face image sent from the tracking unit 313 corresponds to the face indicated by one of the face images registered in the face DB 36 (in other words, if face authentication is successful), the face authentication unit 314 registers the authentication ID associated with the one face image in the ID correspondence table 321 in association with the tracking ID associated with the face image sent from the tracking unit 313. In addition to the authentication ID, the face authentication unit 314 may register the authentication time, which is the time when the face authentication processing was performed, in the ID correspondence table 321. Note that if the authentication time has already been registered in the ID correspondence table 321 (i.e., if face authentication has been successful in the past), the face authentication unit 314 may update the authentication time registered in the ID correspondence table 321.
  • the facial authentication unit 314 may register information indicating that there is no corresponding person in the ID correspondence table 321 in association with the tracking ID associated with the facial image transmitted from the tracking unit 313. In this case, the facial authentication unit 314 may register failure reason information indicating the reason for the failure of facial authentication in the ID correspondence table 321.
  • the tracking unit 313 and the face authentication unit 314 may repeat the above-mentioned process until passenger P1 passes through the authentication area RA. As described above, the tracking unit 313 calculates the position of passenger P1. In other words, it can be said that the tracking unit 313 detects the position of passenger P1. For this reason, the tracking unit 313 may be referred to as a position detection means.
  • a tracking ID, a tracking position (e.g., the position of passenger P1), an authentication ID, and an authentication time may be associated with each other.
  • a tracking ID is associated with a specific authentication ID in the ID correspondence table 321 this indicates that a facial image of a person corresponding to the passenger to whom the tracking ID is set is registered in the face DB 36.
  • a tracking ID is associated with the character string "N/A"
  • this indicates that a facial image of a person corresponding to the passenger to whom the tracking ID is set is not registered in the face DB 36.
  • a tracking ID is not associated with an authentication ID (i.e., when the authentication ID field is blank), this indicates that facial recognition processing has never been performed.
  • the tracking unit 313 may perform the following process. After tracking of passenger P1 is interrupted, the tracking unit 313 may determine whether a new passenger has been detected from the first image acquired by the image acquisition unit 311 (i.e., the first image generated by the camera CAM). A "new passenger" refers to a passenger for whom a tracking ID has not been set.
  • the tracking unit 313 may compare the feature amount of the tracking area (e.g., at least one of the tracking areas TA1, TA2, and TA3) related to passenger P1 with the feature amount of the tracking area related to the new passenger to determine whether passenger P1 and the new passenger are the same person. If it is determined that passenger P1 and the new passenger are the same person, the tracking unit 313 may set the tracking ID related to passenger P1 to the new passenger. As a result, the tracking unit 313 can track passenger P1 again.
  • the feature amount may be a feature amount related to the passenger's head, a feature amount related to the passenger's upper body, or a feature amount related to the passenger's entire body. Therefore, the tracking area may include the passenger's head, the passenger's upper body, or the passenger's entire body.
  • the feature amount may be obtained, for example, by Person Re-Identification technology.
  • the tracking unit 313 and the face authentication unit 314 may perform the above-mentioned tracking process and face authentication process for each of the multiple passengers included in one first image generated by the camera CAM.
  • the authentication area RA may be, for example, an area of 5 meters by 5 meters. A distance of 5 meters is a distance that allows 5 to 6 passengers to pass in a horizontal line. If the authentication area RA is an area of 5 meters by 5 meters, 20 to 30 passengers may be present within the authentication area RA. Therefore, as shown in FIG. 9, the information processing device 3 can perform tracking process and face authentication process for multiple passengers based on one first image generated by the camera CAM. Note that the multiple dotted rectangles in FIG. 9 represent the tracking area.
  • the tracking area (e.g., at least one of tracking areas TA1, TA2, and TA3) may include parts of the passenger other than the head (e.g., shoulders) in addition to the head of the passenger (e.g., passenger P1) for which the tracking unit 313 performs tracking processing.
  • the tracking area may be set to include the upper body of the passenger, or may be set to include the entire body of the passenger.
  • the tracking unit 313 detects one or more passengers (i.e., people) from the first image acquired by the image acquisition unit 311 (i.e., the first image generated by the camera CAM) (step S101).
  • the tracking unit 313 may detect the head of the passenger.
  • the tracking unit 313 may set a tracking area including the detected head of the passenger based on the detected head of the passenger.
  • the tracking unit 313 may perform face detection of the detected one or more passengers.
  • the tracking unit 313 performs a tracking process of at least one of the one or more passengers detected in the process of step S101 using another first image acquired by the image acquisition unit 311 (step S102). In the process of step S102, the tracking unit 313 may perform face detection of the detected one or more passengers. If the face of at least one of the one or more passengers is detected in the process of at least one of steps S101 and S102, the tracking unit 313 transmits a face image including the facial area of at least one person to the face authentication unit 314.
  • the face authentication unit 314 performs face authentication processing using the face image sent from the tracking unit 313 (step S103).
  • the face authentication unit 314 registers the result of the face authentication processing in the ID correspondence table 321, or updates the ID correspondence table 321 based on the result of the face authentication processing (step S104).
  • the determination unit 315 may determine whether passenger P2 can pass through the face recognition gate device 23 based on the ID correspondence table 321. If the tracking ID for passenger P2 is associated with a specific authentication ID in the ID correspondence table 321, the determination unit 315 may determine that there is a match for passenger P2. If the tracking ID for passenger P2 is associated with the character string "N/A" in the ID correspondence table 321, the determination unit 315 may determine that there is no match for passenger P2. If the tracking ID for passenger P2 is not associated with an authentication ID (i.e., if the authentication ID field is blank), the determination unit 315 may determine that passenger P2 is "unauthenticated.”
  • the determination unit 315 may make the following determination. If the tracking ID for passenger P2 is associated with the character string "N/A" and the failure reason information is the second reason (i.e., a reason indicating that facial recognition failed even though the image is appropriate for facial recognition), the determination unit 315 may determine that passenger P2 is "not matched.” If the tracking ID for passenger P2 is associated with the character string "N/A” and the failure reason information is the first reason (i.e., a reason indicating that facial recognition failed because the image is inappropriate for facial recognition), the determination unit 315 may determine that passenger P2 is "not authenticated.”
  • the determination unit 315 may determine whether passenger P2 is allowed to pass through the facial recognition gate device 23 based on the authentication ID of passenger P2 and the face DB 36. For example, the determination unit 315 may determine whether the boarding gate number (see FIG. 6) associated with the authentication ID in the face DB 36 matches the boarding gate number at which the facial recognition gate device 23 is installed. If the boarding gate number associated with the authentication ID does not match the boarding gate number at which the facial recognition gate device 23 is installed, the determination unit 315 may determine that the passenger cannot pass through the facial recognition gate device 23.
  • the determination unit 315 may determine that the passenger is allowed to pass through the facial recognition gate device 23. Alternatively, if it is determined that the boarding gate number associated with the authentication ID matches the boarding gate number where the facial recognition gate device 23 is installed, the determination unit 315 may compare the boarding start time associated with the authentication ID in the face DB 36 with the current time to determine whether or not the passenger is allowed to pass through the facial recognition gate device 23.
  • the facial recognition gate device 23 is installed at boarding gate G1. If the boarding gate of the aircraft on which passenger P2 is boarding is not boarding gate G1, the decision unit 315 may determine that passenger P2 cannot pass through the facial recognition gate device 23. If the boarding gate of the aircraft on which passenger P2 is boarding is boarding gate G1 but the current time is more than a second predetermined time (e.g., several tens of minutes to several tens of minutes) before the boarding start time, the decision unit 315 may determine that passenger P2 cannot pass through the facial recognition gate device 23. If the boarding gate of the aircraft on which passenger P2 is boarding is boarding gate G1 and the current time is not more than the second predetermined time before the boarding start time, the decision unit 315 may determine that passenger P2 can pass through the facial recognition gate device 23.
  • a second predetermined time e.g., several tens of minutes to several tens of minutes
  • the determination unit 315 may output, as the determination result for passenger P2, any of (i) a first determination result indicating that a match is found and that the passenger can pass through the facial recognition gate device 23, (ii) a second determination result indicating that a match is found but that the passenger cannot pass through the facial recognition gate device 23, (iii) a third determination result indicating that the match is not found, and (iv) a fourth determination result indicating that the passenger has not been authenticated.
  • the determination unit 315 may classify multiple passengers into any of a first type corresponding to the first determination result, a second type corresponding to the second determination result, a third type corresponding to the third determination result, and a fourth type corresponding to the fourth determination result.
  • the third type and the fourth type are types indicating that facial authentication has failed. It can be said that the determination result by the determination unit 315 is based on the result of the facial authentication process performed by the facial authentication unit 314. For this reason, the determination result by the determination unit 315 may be rephrased as the result of the facial authentication process or the authentication result. In addition, since the determination unit 315 classifies passengers by determining the type of passenger, the determination unit 315 may be referred to as a type determination means.
  • the determination unit 315 determines the priority of the determination result for passenger P2 based on the type of passenger P2 based on the determination result and the respective positions of terminal devices 41 and 42 indicated by the terminal position information. The determination unit 315 may determine whether or not to transmit the determination result for passenger P2 to at least one of terminal devices 41 and 42 based on the determined priority. Alternatively, the determination unit 315 may determine whether or not to preferentially transmit the determination result for passenger P2 to at least one of terminal devices 41 and 42 based on the determined priority.
  • the method by which the determination unit 315 determines the priority is arbitrary.
  • An example of a method by which the determination unit 315 determines the priority is described below. If the priority of the determination result is higher than the criterion, the determination result is transmitted to at least one of the terminal devices 41 and 42, and if the priority of the determination result is lower than the criterion, the determination result is not transmitted to either of the terminal devices 41 and 42. Note that if the priority and the criterion are "equal,” it may be treated as including either case. Note that the priority may be expressed as a numerical value or as a category (for example, high, medium, low).
  • the determination unit 315 may lower the priority of the determination result relating to a first type of passenger (i.e., a passenger who is determined to be eligible and able to pass through the facial recognition gate device 23) below the standard so that the determination result is not transmitted to the terminal devices 41 and 42.
  • a first type of passenger i.e., a passenger who is determined to be eligible and able to pass through the facial recognition gate device 23
  • the determination unit 315 may set the priority of the determination results relating to the second type of passengers (i.e., passengers who are determined to be eligible but cannot pass through the facial recognition gate device 23), the third type of passengers (i.e., passengers who are determined to be not eligible), and the fourth type of passengers (i.e., passengers who are determined to be unauthenticated) higher than the standard so that these determination results are transmitted to at least one of the terminal devices 41 and 42.
  • the determination unit 315 may set the priority of the determination results relating to passengers who cannot pass through the facial recognition gate device 23 higher than the standard so that the determination results are transmitted to at least one of the terminal devices 41 and 42.
  • the determination unit 315 may set the priority of the determination result related to the second type of passengers, among the determination results transmitted to the terminal device 41, lower than the priority of the determination result related to the third type of passengers and the priority of the determination result related to the fourth type of passengers. Note that the priority of the determination result related to the second type of passengers is higher than the standard. In this case, the determination unit 315 may set the priority of the determination result related to the third type of passengers higher than the priority of the determination result related to the fourth type of passengers.
  • the determination unit 315 may set the priority of the determination result related to the second type of passengers, among the determination results transmitted to the terminal device 42, higher than the priority of the determination result related to the third type of passengers and the priority of the determination result related to the fourth type of passengers. Note that the priority of the determination result related to the third type of passengers and the priority of the determination result related to the fourth type of passengers are higher than the standard. In this case, the determination unit 315 may set the priority of the determination result related to the third type of passengers higher than the priority of the determination result related to the fourth type of passengers.
  • the determination unit 315 may determine that passenger P2 is "not a matched person" regardless of the failure reason information (i.e., determine that passenger P2 is a third type passenger). In this case, the determination unit 315 may determine the priority of the determination result of passenger P2 based on the failure reason information.
  • the determination unit 315 may set the priority of the determination result of passenger P2 when the failure reason information indicates a first reason (i.e., a reason indicating that facial recognition failed due to the image being inappropriate for facial recognition) lower than the priority of the determination result of passenger P2 when the failure reason information indicates a second reason (i.e., a reason indicating that facial recognition failed despite the image being appropriate for facial recognition).
  • a first reason i.e., a reason indicating that facial recognition failed due to the image being inappropriate for facial recognition
  • a second reason i.e., a reason indicating that facial recognition failed despite the image being appropriate for facial recognition
  • the determination unit 315 may determine (or change) the priority of the determination result related to the passenger (e.g., passenger P2) based on the determination result and the positional relationship between the position of the terminal device 41 or 42 and the facial recognition gate device 23.
  • the distance from the facial recognition gate device 23 to the end of the authentication area RA on the facial recognition gate device 23 side is set as the predetermined distance.
  • the distance between the terminal device 41 and the facial recognition gate device 23 can be said to be shorter than the predetermined distance.
  • the distance between the terminal device 41 and the facial recognition gate device 23 can be said to be longer than the predetermined distance.
  • the decision unit 315 may set the priority of the determination result related to the second type of passengers, among the determination results transmitted to the terminal device 41, lower than the priority of the determination result related to the third type of passengers and the priority of the determination result related to the fourth type of passengers.
  • the decision unit 315 may set the priority of the determination result related to the passenger higher than when the distance between the terminal device 41 and the facial recognition gate device 23 is shorter than the predetermined distance and the type related to the passenger is the second type.
  • the decision unit 315 may set the priority of the determination result related to the second type of passengers, among the determination results transmitted to the terminal device 42, higher than the priority of the determination result related to the third type of passengers and the priority of the determination result related to the fourth type of passengers.
  • the decision unit 315 may set a higher priority of the determination result related to the passenger, compared to when the distance between the terminal device 42 and the facial recognition gate device 23 is longer than a predetermined distance and the type related to the passenger is the third type or the fourth type.
  • the determination unit 315 determines the priority of each of the multiple determination results corresponding to the multiple passengers (step S201).
  • the determination unit 315 generates information to be transmitted to at least one of the terminal devices 41 and 42 based on the determined priority and the multiple determination results (step S202).
  • the determination unit 315 transmits the information generated in the processing of step S202 to at least one of the terminal devices 41 and 42 via the communication device 33.
  • the information transmitted to at least one of the terminal devices 41 and 42 is displayed on at least one of the terminal devices 41 and 42, thereby notifying at least one of the staff members A1 and A2 (step S203).
  • the terminal devices 41 and 42 may determine the display order of the notification information based on the priority determined by the determination unit 315.
  • the information transmitted from the decision unit 315 to at least one of the terminal devices 41 and 42 via the communication device 33 is displayed on at least one of the terminal devices 41 and 42, thereby notifying at least one of the staff members A1 and A2. Therefore, the information generated by the decision unit 315 in the processing of step S202 may be referred to as notification information.
  • notification information the information generated by the decision unit 315 in the processing of step S202 will be referred to as "notification information" as appropriate.
  • the notification information may include information indicating the determination result and information indicating the priority of the determination result.
  • the notification information may include information indicating the determination result, information indicating the priority of the determination result, and an image of the passenger detected by the tracking unit 313 from the first image (i.e., the first image generated by the camera CAM). If the determination result is a determination result related to a second type of passenger, the determination unit 315 may include in the notification information information indicating the determination result, information indicating the priority of the determination result, and information related to the second type of passenger (e.g., at least one of the name, face image, and boarding gate number).
  • FIG. 12 shows an example of the screen of the terminal device 42 when the notification information transmitted from the determination unit 315 is displayed on the terminal device 42.
  • images 421, 422, and 423 including a human figure represent images including a passenger (i.e., a person to be authenticated).
  • Images 421, 422, and 423 i.e., images including passengers
  • images 421, 422, and 423 may be images that actually capture the entire body of a passenger. Such images may be extracted from the first image generated by the camera CAM.
  • the image including a passenger may be a face image used in the face recognition process by the face recognition unit 314, or may be a symbol indicating a person (e.g., an icon).
  • the solid border of image 423 indicates that the passenger type is the third type (i.e., a passenger who has been determined to be unsuitable) or the fourth type (i.e., a passenger who has been determined to be unauthenticated).
  • the terminal device 42 may display the passenger's name and a specific destination based on the information related to the second type of passenger on the screen (see dotted circle C1 in FIG. 12). The terminal device 42 may set the specific destination for the third type and fourth type of passenger to a normal gate device.
  • the determination unit 315 may set the priority of the determination results related to the second type of passengers, among the determination results transmitted to the terminal device 42, higher than the priority of the determination results related to the third type of passengers and the priority of the determination results related to the fourth type of passengers.
  • the terminal device 42 may determine or change the display order of the determination results based on the priority of the determination results.
  • the terminal device 42 may generate display information to be displayed on the screen based on the determined or changed display order of the determination results. As a result, the terminal device 42 displays information related to the second type of passengers in priority over information related to the third or fourth type of passengers.
  • staff member A2 may recognize passengers who should be given priority based on the information displayed on the terminal device 42.
  • staff member A2 may tap a button labeled "Guidance Complete" (see FIG. 12) displayed on the terminal device 42.
  • the terminal device 42 may update the screen so that information related to the passenger for whom the "Guidance Complete" button was tapped disappears from the screen (in other words, the display information displayed on the screen may be changed).
  • the terminal device 42 may further transmit information indicating the passenger served by staff member A2 (for example, a tracking ID related to the passenger) to the information processing device 3.
  • the information processing device 3, which has received information indicating the passenger served by staff member A2 from the terminal device 42 may delete the information related to the passenger indicated by the received information from the ID correspondence table 321.
  • the determination unit 315 may set the priority of the determination results related to the third type of passengers and the fourth type of passengers, among the determination results transmitted to the terminal device 41, to be higher than the priority of the determination results related to the second type of passengers.
  • the terminal device 41 may determine or change the display order of the determination results based on the priority of the determination results.
  • the terminal device 41 may generate display information to be displayed on the screen based on the determined or changed display order of the determination results. As a result, the terminal device 41 displays information related to the third type or fourth type of passengers in priority to information related to the second type of passengers.
  • the operations of the information processing device 3 described above may be realized by the information processing device 3 reading a computer program recorded on a recording medium.
  • the recording medium has recorded thereon a computer program for causing the information processing device 3 to execute the operations described above.
  • the priority of at least a part of the multiple determination results corresponding to each of the multiple passengers is determined based on the types of the multiple passengers and the positions of the terminal devices (for example, at least one of the terminal devices 41 and 42). Therefore, the information processing device 3 notifies the airport staff (for example, at least one of the staff A1 and A2) who owns the terminal device of the high priority determination result.
  • the airport staff can easily recognize passengers who should be dealt with preferentially. For example, the airport staff can easily recognize (or extract) passengers who cannot pass through the facial recognition gate device 23.
  • the information processing device 3 can prevent a decrease in the throughput of the facial recognition gate device.
  • the information processing device 3 may be applied to, for example, at least one of the security gates at airports (i.e., gates installed at security checkpoints at airports) and immigration gates.
  • the display control device 3 may be applied to, for example, at least one of offices, train stations, theme parks, and event venues that use face recognition gate devices for at least one of entry and exit.
  • the information processing device 3 (specifically, the face authentication unit 314) performs face authentication processing.
  • the information processing device 3 may not perform face authentication processing.
  • the information processing device 3 may not include the face authentication unit 314 and the face DB 36.
  • the face authentication processing may be performed by an authentication device 5 different from the information processing device 3.
  • the information processing device 3 and the authentication device 5 may be connected via a network NW.
  • the information processing device 3 and the authentication device 5 may constitute one system.
  • the one system may be referred to as an information processing system or an authentication system.
  • At least one of the terminal devices 41 and 42 may constitute a part of the above system.
  • the above system may include the information processing device 3, the authentication device 5, and the terminal devices 41 and 42.
  • the authentication device 5 includes a face authentication unit 51 and a face database 52 (hereinafter referred to as "face DB 52").
  • the face authentication unit 51 is configured to be able to execute face authentication processing.
  • the authentication device 5 is an authentication device having a face authentication function.
  • the management server 21 of the airport system 2 may transmit at least a part of the face image registered in the face DB 211 to the authentication device 5 together with an authentication ID (i.e., passenger identification information) assigned to the face image.
  • the management server 21 may transmit gate identification information and boarding start time in addition to the face image to the authentication device 5.
  • the authentication device 5 may register the face image transmitted from the management server 21 in the face DB 52.
  • the authentication device 5 may register gate identification information and boarding start time in addition to the face image in the face DB 52.
  • the tracking unit 313 of the information processing device 3 may detect a passenger (e.g., passenger P1) included in the image acquired by the image acquisition unit 311.
  • the tracking unit 313 may set a tracking area including the head of the detected passenger.
  • the tracking unit 313 may perform face detection of the detected passenger.
  • the tracking unit 313 may transmit a face image including the passenger's face area to the authentication device 5 via the communication device 33.
  • the face authentication unit 51 of the authentication device 5 may perform face authentication processing using the face image transmitted from the information processing device 3 (specifically, the tracking unit 313) and the face DB 52.
  • the face authentication unit 51 may transmit information indicating the result of the face authentication processing to the information processing device 3.
  • the information processing device 3 may register the result of the face authentication processing indicated by the information transmitted from the authentication device 5 (specifically, the face authentication unit 51) in the ID correspondence table 321.
  • the tracking unit 313 may identify the position of a passenger determined by the determination unit 315 to be unauthenticated (i.e., a fourth type passenger) based on a tracking ID related to the passenger.
  • the tracking unit 313 may perform face detection of the passenger using a plurality of first images (i.e., a plurality of first images generated by the camera CAM). In this case, the tracking unit 313 may set the frequency of face detection of the passenger to be higher than the frequency of face detection of other passengers. With this configuration, the face recognition unit 314 can perform face recognition processing on the passenger relatively frequently.
  • the tracking unit 313 may identify the position of the passenger based on the tracking ID of the passenger whose failure reason information indicates the first reason (i.e., a reason indicating that face recognition failed due to the image being inappropriate for face recognition).
  • the tracking unit 313 may perform face detection of the passenger using multiple first images (i.e., multiple first images generated by the camera CAM). In this case, the tracking unit 313 may set the frequency of face detection of the passenger to be higher than the frequency of face detection of other passengers.
  • the face recognition unit 314 can perform face recognition processing on the passenger relatively frequently. In other words, it can be said that the face recognition unit 314 may repeatedly perform face recognition processing using multiple first images for a passenger whose failure reason information indicates the first reason.
  • the determination unit 315 may determine (change) the priority of the judgment results (e.g., judgment results of passengers who have been determined not to be able to pass through the facial recognition gate device 23) sent to the terminal device 41 so that the priority is given to the judgment results of passengers closer to the facial recognition gate device 23.
  • the judgment results e.g., judgment results of passengers who have been determined not to be able to pass through the facial recognition gate device 23
  • the determination unit 315 may determine the priority of the determination results (specifically, the determination results related to the second type of passengers, the third type of passengers, and the fourth type of passengers) transmitted to at least one of the terminal devices 41 and 42 as either "high” or "low.” In other words, the determination unit 315 may classify the priority into two types. The determination unit 315 may also classify the priority into three or more types. The determination unit 315 may calculate the priority as a numerical value.
  • the priority of the determination result included in the notification information transmitted from the determination unit 315 is either a "high" priority or a "low” priority.
  • the terminal device 42 may display the notification information transmitted from the determination unit 315 by priority using a tab display function.
  • the determination unit 315 may set the priority of the determination result related to the second type of passengers, among the determination results (in other words, the notification information) transmitted to the terminal device 42, higher than the priority of the determination result related to the third type of passengers and the priority of the determination result related to the fourth type of passengers.
  • the determination unit 315 may determine the priority of the determination result related to the second type of passengers to be a "high" priority.
  • the determination unit 315 may determine the priority of the determination result related to the third type of passengers and the priority of the determination result related to the fourth type of passengers to be a "low" priority. For this reason, the terminal device 42 may display information related to the second type of passengers in a tab called “priority: high”. The terminal device 42 may display information related to the third type of passengers and information related to the fourth type of passengers in a tab labeled "Priority: Low” (not shown).
  • the terminal device 41 may display the notification information transmitted from the determination unit 315 by priority using a tab display function.
  • the determination unit 315 may set the priority of the determination result related to the third or fourth type passengers higher than the priority of the determination result related to the second type passengers among the determination results (in other words, the notification information) transmitted to the terminal device 41. That is, the determination unit 315 may determine the priority of the determination result related to the third type passengers and the determination result related to the fourth type passengers to a priority of "high”. The determination unit 315 may determine the priority of the determination result related to the second type passengers to a priority of "low”. For this reason, the terminal device 41 may display information related to the third or fourth type passengers in a tab labeled "priority: high”. The terminal device 41 may display information related to the second type passengers in a tab labeled "priority: low” (not shown).
  • the notification information transmitted from the determination unit 315 may include failure reason information in the judgment result related to the third type of passenger (i.e., the judgment result indicating that there is no relevant person).
  • the terminal device 41 may display the reason for the failure of the face recognition on the screen based on the failure reason information.
  • the judgment result related to the third type of passenger includes failure reason information indicating the first reason (the reason indicating that the face recognition failed due to the image being inappropriate for face recognition)
  • the terminal device 41 may include the description "Error: Unrecognized person" in the information related to the third type of passenger (see dotted circle C3 in FIG. 15).
  • the terminal device 41 may include the description "Error: Unregistered person” in the information related to the third type of passenger (see dotted circle C2 in FIG. 15). Furthermore, the terminal device 41 may include the statement "Error: Unregistered person” in the information related to the fourth type of passenger.
  • the terminal devices 41 and 42 may display information related to passengers for which one of the staff members A1 and A2 has completed their handling in a tab called "guidance completed.”
  • the "guidance completed" button When the "guidance completed" button is tapped by one of the staff members A1 and A2, one of the terminal devices 41 and 42 may transmit status information indicating the status of the passenger for whom the "guidance completed” button was tapped (i.e., guidance completed) to the information processing device 3.
  • the status information may include a tracking ID related to the passenger and information indicating "guidance completed.”
  • the information processing device 3 that has received status information from one of the terminal devices 41 and 42 may transmit information corresponding to the received status information to the other of the terminal devices 41 and 42.
  • the other of the terminal devices 41 and 42 may display information related to the corresponding passenger in a tab called "guidance completed" based on the information received from the information processing device 3.
  • the staff members A1 and A2 can share passengers for whom guidance has been completed.
  • Two staff members may be positioned near the face recognition gate device 23 (e.g., near staff member A1 in FIG. 4).
  • the two staff members may each carry a terminal device 41a and 41b.
  • the same information i.e., notification information
  • the information displayed on the terminal devices 41a and 41b may be the same. For example, as shown in FIG. 16 and FIG. 17, information on passengers P11 and P12 is displayed on the terminal devices 41a and 41b.
  • the terminal device 41a may determine that the staff member is handling passenger P11. In this case, the terminal device 41a may change the situation (e.g., status) related to passenger P11 from "not handling" to "handling.” The terminal device 41a may further transmit situation information indicating the situation related to passenger P11 to the information processing device 3.
  • the situation information may include information for identifying the staff member carrying the terminal device 41a, a tracking ID related to passenger P11, and information indicating the situation related to passenger P11 (e.g., handling).
  • the information processing device 3 that receives the status information from the terminal device 41a may transmit information corresponding to the received status information to the terminal device 41b via the communication device 33.
  • the information corresponding to the status information may include information for identifying the staff member possessing the terminal device 41a, a tracking ID related to passenger P11, and information indicating the status related to passenger P11 (e.g., currently being handled).
  • the terminal device 41b may change the status of passenger P11 from “not yet handled” to "guide a is handling it". As a result, the staff member carrying the terminal device 41b may be notified that the staff member carrying the terminal device 41a is handling passenger P11. With this configuration, the staff member carrying the terminal device 41b can handle passenger P12, who has not yet been handled. In other words, it is possible to prevent the staff member carrying the terminal device 41a and the staff member carrying the terminal device 41b from handling the same passenger.
  • the terminal device 41a may fix the display position of the pinned information related to passenger P11. This configuration can prevent the display position of the information related to passenger P11 from being changed while the staff member carrying the terminal device 41a is serving the passenger.
  • the tracking unit 313 may detect a change in at least one of the facial direction and the line of sight of each of the multiple passengers based on the first image (i.e., the first image generated by the camera CAM).
  • the first image i.e., the first image generated by the camera CAM.
  • Existing technology may be applied to the method of detecting the facial direction and the line of sight.
  • Existing technology may also be applied to the method of detecting a change in at least one of the facial direction and the line of sight based on the detected facial direction and/or line of sight. For this reason, detailed explanations of these methods will be omitted.
  • the tracking unit 313 may be referred to as a detection means, since it may detect a change in at least one of the facial direction and the line of sight.
  • the determination unit 315 may determine the priority based on the detected change in at least one of the facial direction and the line of sight, in addition to the passenger's position and the position of the terminal device (e.g., at least one of the terminal devices 41 and 42). In this case, the determination unit 315 may set a higher priority the greater the detected change in at least one of the facial direction and the line of sight.
  • the determination unit 315 may not determine the priority. In this case, the determination unit 315 may determine the determination result to be sent to the terminal devices 41 and 42 (in other words, the determination result to be notified to at least one of the staff members A1 and A2) based on the position of the passenger and the positions of the terminal devices 41 and 42. Note that there may be other terminal devices in addition to the terminal devices 41 and 42. In other words, there may be three or more terminal devices.
  • the decision unit 315 may transmit the determination result related to the one passenger to the terminal device 41 in priority to the determination result related to the other passengers.
  • the one passenger and the other passengers may be passengers of a second type (i.e., passengers who are determined to be a matched person but cannot pass through the facial recognition gate device 23), passengers of a third type (i.e., passengers who are determined to be a matched person), or passengers of a fourth type (i.e., passengers who are determined to be unauthenticated).
  • the image acquisition unit 311 may acquire a second image including at least one of staff members A1 and A2.
  • the second image may be generated by the camera CAM capturing an image of at least one of staff members A1 and A2, or may be generated by a camera different from the camera CAM capturing an image of at least one of staff members A1 and A2.
  • the tracking unit 313 may detect the facial orientation of at least one of the staff members A1 and A2 based on the second image. Since existing technology can be applied to the facial orientation detection method, detailed explanation is omitted.
  • the detection of the facial orientation of at least one of the staff members A1 and A2 may be performed by a functional block different from the tracking unit 313.
  • the calculation device 31 may have a functional block that detects the facial orientation of at least one of the staff members A1 and A2. Since the tracking unit 313 may detect the facial orientation, it may be referred to as a facial orientation detection means.
  • the determination unit 315 may determine the determination result to be sent to the terminal devices 41 and 42 (in other words, the determination result to be notified to at least one of the staff members A1 and A2) based on the position of the passenger, the positions of the terminal devices 41 and 42, and the facial orientation of at least one of the staff members A1 and A2.
  • the decision unit 315 may determine the determination result to be transmitted to the terminal device 41 from the determination result related to one or more passengers located in the direction in which staff member A1's face is facing, based on the position of the passenger and the position of the terminal device 41 (e.g., based on the distance between the passenger and the terminal device 41). Based on the facial direction of staff member A1, the decision unit 315 may decide not to transmit to the terminal device 41 the determination result related to one or more passengers located in the direction in which staff member A1's face is not facing.
  • the decision unit 315 may determine the determination result to be transmitted to the terminal device 42 from the determination result related to one or more passengers located in the direction in which staff member A2's face is facing, based on the position of the passenger and the position of the terminal device 42 (e.g., based on the distance between the passenger and the terminal device 42). Based on the facial direction of staff member A2, the decision unit 315 may decide not to transmit to the terminal device 42 the determination result related to one or more passengers located in the direction in which staff member A2's face is not facing.
  • the tracking unit 313 may estimate a visibility range, which is the range in which at least one of staff members A1 and A2 is visible, based on the facial direction of at least one of staff members A1 and A2.
  • the tracking unit 313 may estimate a visibility range F1 (see FIG. 4) of staff member A1 based on the facial direction of staff member A1.
  • the tracking unit 313 may estimate a visibility range F2 (see FIG. 4) of staff member A2 based on the facial direction of staff member A2. Note that existing technology can be applied to the method of estimating the visibility range, so a detailed explanation is omitted. Note that if the detection of the facial direction is performed by a functional block different from the tracking unit 313, the estimation of the visibility range may be performed by a functional block different from the tracking unit 313.
  • the decision unit 315 may identify the determination result for one or more passengers included in the visible range F1 of staff A1 based on the passenger's position.
  • the decision unit 315 may determine the determination result to be transmitted to the terminal device 41 from the determination result for one or more passengers included in the visible range F1 of staff A1 based on the passenger's position and the position of the terminal device 41 (e.g., based on the distance between the passenger and the terminal device 41).
  • the decision unit 315 may decide not to transmit to the terminal device 41 the determination result for one or more passengers not included in the visible range F1 of staff A1.
  • the decision unit 315 may identify the determination result for one or more passengers included in the visible range F2 of staff A2 based on the passenger's position.
  • the decision unit 315 may determine the determination result to be transmitted to the terminal device 42 from the determination result for one or more passengers included in the visible range F2 of staff A2 based on the passenger's position and the position of the terminal device 42 (e.g., based on the distance between the passenger and the terminal device 42).
  • the decision unit 315 may decide not to transmit the determination result for one or more passengers not included in the visible range F2 of staff A2 to the terminal device 42.
  • the determination unit 315 may take into account the movement direction of passengers in addition to the visual range (e.g., at least one of the visual ranges F1 and F2) of staff (e.g., at least one of staff A1 and A2).
  • the tracking unit 313 may estimate the movement direction of each of multiple passengers based on multiple first images (i.e., multiple first images generated by the camera CAM). Note that existing technology can be applied to the method of estimating the movement direction from multiple images, so detailed explanations are omitted.
  • the decision unit 315 may identify the determination results for one or more passengers included in the visible range F1 of staff member A1 based on the passenger's position.
  • the decision unit 315 may determine the determination results to be transmitted to the terminal device 41 from the determination results for one or more passengers included in the visible range F1 of staff member A1 based on the position of the terminal device 41 and the passenger's movement direction. In this case, the decision unit 315 may decide to transmit to the terminal device 41 the determination results for passengers whose movement direction is toward the terminal device 41. On the other hand, the decision unit 315 may decide not to transmit to the terminal device 41 the determination results for passengers whose movement direction is away from the terminal device 41.
  • the decision unit 315 may identify the determination results for one or more passengers included in the visible range F2 of staff member A2 based on the passenger's position.
  • the decision unit 315 may determine the determination results to be transmitted to the terminal device 42 from the determination results for one or more passengers included in the visible range F2 of staff member A2 based on the position of the terminal device 42 and the passenger's movement direction. In this case, the decision unit 315 may decide to transmit to the terminal device 42 the determination results for passengers whose movement direction is toward the terminal device 42. On the other hand, the decision unit 315 may decide not to transmit to the terminal device 42 the determination results for passengers whose movement direction is away from the terminal device 42.
  • the decision unit 315 may determine the judgment result to be sent to the terminal device based on the position of the terminal device (e.g., at least one of the terminal devices 41 and 42) and the direction of movement of the passenger (in this case, the decision unit 315 does not need to take into account the visual range of the staff).
  • the decision unit 315 may determine which determination result to transmit to the terminal device 41 from the determination results related to multiple passengers, based on the position of the terminal device 41 and the moving direction of the passenger. In this case, the decision unit 315 may determine to transmit to the terminal device 41 the determination result related to a passenger whose moving direction is toward the terminal device 41. On the other hand, the decision unit 315 may determine not to transmit to the terminal device 41 the determination result related to a passenger whose moving direction is away from the terminal device 41.
  • the decision unit 315 may determine which determination result to transmit to the terminal device 42 from the determination results related to multiple passengers, based on the position of the terminal device 42 and the moving direction of the passenger. In this case, the decision unit 315 may determine to transmit to the terminal device 42 the determination result related to a passenger whose moving direction is toward the terminal device 42. On the other hand, the decision unit 315 may determine not to transmit to the terminal device 42 the determination result related to a passenger whose moving direction is away from the terminal device 42.
  • the terminal device 41 may display an image in which the position of the terminal device 41 and at least some of the positions of the multiple passengers are illustrated in a plan view, as shown in FIG. 18.
  • the position of the terminal device 41 and at least some of the positions of the multiple passengers may be displayed superimposed on a floor map of the airport.
  • the floor map of the airport may include facility information.
  • the facility information may include store information and equipment information (for example, at least one of toilets, stairs, escalators, and elevator halls).
  • the black circle M1 indicates the position of the terminal device 41.
  • the multiple white circles indicate the positions of passengers.
  • the solid-line rectangles M11 and M12 surrounding the white circle indicate that the passenger type is the third type (i.e., a passenger who has been determined to be a matched person) or the fourth type (i.e., a passenger who has been determined to be unauthenticated).
  • the dashed-line rectangle M13 surrounding the white circle indicates that the passenger type is the second type (i.e., a passenger who has been determined to be a matched person but cannot pass through the face recognition gate device 23). Note that in addition to the position of the terminal device 41 (black circle M1 in FIG. 18), the positions of other terminal devices (e.g., terminal device 42) may be displayed on the terminal device 41.
  • the terminal device 41 may detect that staff member A1 taps on the screen of the terminal device 41.
  • the terminal device 41 may identify the passenger tapped by staff member A1 (e.g., the passenger corresponding to any of the rectangles M11, M12, and M13) based on the position of the tap on the screen.
  • the terminal device 41 may transition the display from the screen shown in FIG. 18 to a screen including information related to the identified passenger (e.g., the screen shown in FIG. 15).
  • terminal device 41 may identify the passenger who was tapped by staff member A1 based on the position of the tap on the screen. Terminal device 41 may transition the display from the screen shown in FIG. 15 to a screen showing the position of the identified passenger (for example, the screen shown in FIG. 18).
  • At least one of the terminal devices 41 and 42 may acquire one or more determination results from the information processing device 3.
  • the one terminal device may change the display order of the multiple determination results based on the positions of the multiple passengers corresponding to the multiple determination results and the position of the one terminal device.
  • the one terminal device may illustrate the position of the one terminal device and at least some of the positions of the multiple passengers (for example, see FIG. 18).
  • the determination unit 315 may determine the priority based on the location of the passenger and the location of the terminal device.
  • the determination unit 315 may determine the priority so that, among the multiple authentication results, the authentication results of passengers who are closest to the terminal device (e.g., at least one of the terminal devices 41 and 42) are displayed on the terminal device in descending order. For example, if the distance between one passenger and the terminal device 41 is shorter than the distance between another passenger and the terminal device 41, the determination unit 315 may set the priority of the determination result related to the one passenger higher than the priority of the determination result related to the other passenger. Based on the priority, the determination unit 315 may transmit at least a portion of the multiple authentication results and the positions of the passengers corresponding to the at least a portion of the authentication results to the terminal device via the communication device 33. In this case, the determination unit 315 may transmit the authentication results with the highest priority to the terminal device.
  • the determination unit 315 may transmit the authentication results with the highest priority to the terminal device.
  • the first passenger and the other passengers may be second type passengers (i.e., passengers who are determined to be eligible but cannot pass through the facial recognition gate device 23), third type passengers (i.e., passengers who are determined to be not eligible), or fourth type passengers (i.e., passengers who are determined to be unauthenticated).
  • the determination unit 315 may determine the priority based on the passenger position and the terminal device position only for the determination results of the second type passengers, the third type passengers, and the fourth type passengers (in other words, passengers who are determined to be unable to pass through the facial recognition gate device 23).
  • the image acquisition unit 311 may acquire a second image including at least one of staff members A1 and A2.
  • the second image may be generated by the camera CAM capturing an image of at least one of staff members A1 and A2, or may be generated by a camera different from the camera CAM capturing an image of at least one of staff members A1 and A2.
  • the tracking unit 313 may detect the facial orientation of at least one of the staff members A1 and A2 based on the second image. Note that existing technology can be applied to the facial orientation detection method, so detailed explanations will be omitted. Note that the detection of the facial orientation of at least one of the staff members A1 and A2 may be performed by a functional block different from the tracking unit 313. In this case, the calculation device 31 may have a functional block that detects the facial orientation of at least one of the staff members A1 and A2. Note that the tracking unit 313 may detect the facial orientation, and therefore may be referred to as a facial orientation detection means.
  • the determination unit 315 may determine the priority of the judgment results based on the position of the passenger and the positions of the terminal devices 41 and 42, as well as the facial orientation of at least one of the staff members A1 and A2.
  • the determination unit 315 may lower the priority of the judgment results related to passengers located in the direction in which the face of staff member A1 is not facing, compared to the priority of the judgment results related to passengers located in the direction in which the face of staff member A1 is facing.
  • the determination unit 315 may determine the priority of the judgment results of each of the multiple passengers based on the position of each of the multiple passengers and the position of the terminal device 41 (for example, based on the distance between each of the multiple passengers and the terminal device 41). In this case, the determination unit 315 may give a higher priority to a judgment result in which the distance between the passenger and the terminal device 41 is short than a judgment result in which the distance between the passenger and the terminal device 41 is long.
  • the determination unit 315 may give a lower priority to a determination result relating to a passenger located in the direction in which staff member A2's face is not facing than a priority to a determination result relating to a passenger located in the direction in which staff member A2's face is facing. If there are multiple passengers in the direction in which staff member A2's face is facing, the determination unit 315 may determine the priority of the determination result for each of the multiple passengers based on the position of each of the multiple passengers and the position of the terminal device 42 (e.g., based on the distance between each of the multiple passengers and the terminal device 42). In this case, the determination unit 315 may give a higher priority to a determination result in which the distance between the passenger and the terminal device 42 is short than a determination result in which the distance between the passenger and the terminal device 42 is long.
  • the tracking unit 313 may estimate a visibility range, which is the range in which at least one of staff members A1 and A2 is visible, based on the facial direction of at least one of staff members A1 and A2.
  • the tracking unit 313 may estimate a visibility range F1 (see FIG. 4) of staff member A1 based on the facial direction of staff member A1.
  • the tracking unit 313 may estimate a visibility range F2 (see FIG. 4) of staff member A2 based on the facial direction of staff member A2. Note that existing technology can be applied to the method of estimating the visibility range, so a detailed explanation is omitted. Note that if the detection of the facial direction is performed by a functional block different from the tracking unit 313, the estimation of the visibility range may be performed by a functional block different from the tracking unit 313.
  • the determination unit 315 may identify the determination results related to one or more passengers included in the visible range F1 of staff A1 based on the passenger's position. The determination unit 315 may give a higher priority to the determination results related to passengers included in the visible range F1 of staff A1 than the priority of the determination results related to passengers not included in the visible range F1. The determination unit 315 may determine the priority of multiple determination results related to multiple passengers included in the visible range F1 of staff A1 based on the passenger's position and the position of the terminal device 41 (e.g., based on the distance between the passenger and the terminal device 41). In this case, the determination unit 315 may give a higher priority to a determination result in which the distance between the passenger and the terminal device 41 is short than the priority of a determination result in which the distance between the passenger and the terminal device 41 is long.
  • the determination unit 315 may identify the determination results related to one or more passengers included in the visible range F2 of staff A2 based on the passenger's position. The determination unit 315 may give a higher priority to the determination results related to passengers included in the visible range F2 of staff A2 than the priority of the determination results related to passengers not included in the visible range F2. The determination unit 315 may determine the priority of multiple determination results related to multiple passengers included in the visible range F2 of staff A2 based on the passenger's position and the position of the terminal device 42 (e.g., based on the distance between the passenger and the terminal device 42). In this case, the determination unit 315 may give a higher priority to a determination result in which the distance between the passenger and the terminal device 42 is short than the priority of a determination result in which the distance between the passenger and the terminal device 42 is long.
  • the determination unit 315 may take into account the movement direction of passengers in addition to the visual range (e.g., at least one of the visual ranges F1 and F2) of staff (e.g., at least one of staff A1 and A2).
  • the tracking unit 313 may estimate the movement direction of each of multiple passengers based on multiple first images (i.e., multiple first images generated by the camera CAM). Note that various existing methods can be applied to the method of estimating the movement direction from multiple images, so detailed explanations are omitted.
  • the determination unit 315 may identify the determination results for one or more passengers included in the visible range F1 of staff member A1 based on the passenger's position.
  • the determination unit 315 may determine the priority of the determination results for one or more passengers included in the visible range F1 of staff member A1 based on the position of the terminal device 41 and the passenger's movement direction. In this case, the determination unit 315 may give a higher priority to the determination results for passengers whose movement direction is toward the terminal device 41 than the priority of the determination results for passengers whose movement direction is away from the terminal device 41.
  • the determination unit 315 may identify the determination results for one or more passengers included in the visible range F2 of staff A2 based on the passenger's position.
  • the determination unit 315 may determine the priority of the determination results for one or more passengers included in the visible range F2 of staff A2 based on the position of the terminal device 42 and the passenger's movement direction. In this case, the determination unit 315 may give a higher priority to the determination results for passengers whose movement direction is toward the terminal device 42 than the priority of the determination results for passengers whose movement direction is away from the terminal device 42.
  • the determination unit 315 may determine the priority of the judgment result based on the position of the terminal device (e.g., at least one of the terminal devices 41 and 42) and the direction of movement of the passenger (in this case, the determination unit 315 does not need to take into account the visual range of the staff).
  • the determination unit 315 may determine the priority of the determination result based on the position of the terminal device 41 and the moving direction of the passenger. In this case, the determination unit 315 may set the priority of the determination result related to a passenger whose moving direction is toward the terminal device 41 higher than the priority of the determination result related to a passenger whose moving direction is away from the terminal device 41.
  • the determination unit 315 may determine the priority of the determination result based on the terminal device 42 and the moving direction of the passenger. In this case, the determination unit 315 may set the priority of the determination result related to a passenger whose moving direction is toward the terminal device 42 higher than the priority of the determination result related to a passenger whose moving direction is away from the terminal device 42.
  • the terminal device 41 may display an image in which the position of the terminal device 41 and at least some of the positions of the multiple passengers are illustrated in a plan view, as shown in FIG. 18.
  • the position of the terminal device 41 and at least some of the positions of the multiple passengers may be displayed superimposed on a floor map of the airport.
  • the floor map of the airport may include facility information.
  • the facility information may include store information and equipment information (for example, at least one of toilets, stairs, escalators, and elevator halls).
  • the black circle M1 indicates the position of the terminal device 41.
  • the multiple white circles indicate the positions of passengers.
  • the solid-line rectangles M11 and M12 surrounding the white circle indicate that the passenger type is the third type (i.e., a passenger who has been determined to be a matched person) or the fourth type (i.e., a passenger who has been determined to be unauthenticated).
  • the dashed-line rectangle M13 surrounding the white circle indicates that the passenger type is the second type (i.e., a passenger who has been determined to be a matched person but cannot pass through the face recognition gate device 23). Note that in addition to the position of the terminal device 41 (black circle M1 in FIG. 18), the positions of other terminal devices (e.g., terminal device 42) may be displayed on the terminal device 41.
  • the terminal device 41 may detect that staff member A1 taps on the screen of the terminal device 41.
  • the terminal device 41 may identify the passenger tapped by staff member A1 (e.g., the passenger corresponding to any of the rectangles M11, M12, and M13) based on the position of the tap on the screen.
  • the terminal device 41 may transition the display from the screen shown in FIG. 18 to a screen including information related to the identified passenger (e.g., the screen shown in FIG. 15).
  • terminal device 41 may identify the passenger who was tapped by staff member A1 based on the position of the tap on the screen. Terminal device 41 may transition the display from the screen shown in FIG. 15 to a screen showing the position of the identified passenger (for example, the screen shown in FIG. 18).
  • the information processing device 3 does not need to include the face authentication unit 314.
  • the face authentication process may be performed by an authentication device 5 different from the information processing device 3.
  • the information processing device 3 and the authentication device 5 may constitute one information processing system.
  • the information processing system includes an image acquisition unit 311 that acquires a first image including a predetermined area RA through which multiple passengers pass, a face authentication unit 51 that performs face authentication using the first image, an information acquisition unit 312 that acquires the position of a terminal device (e.g., at least one of terminal devices 41 and 42) carried by an employee (e.g., at least one of employees A1 and A2), and a determination unit 315 that determines the priority of notifying multiple authentication results of face authentication based on the position of the terminal device and the positions of multiple passengers detected based on the first image.
  • a terminal device e.g., at least one of terminal devices 41 and 42
  • employee e.g., at least one of employees A1 and A2
  • a determination unit 315 that determines the priority of notifying multiple authentication results of face authentication based on the position of the terminal device and the positions of multiple passengers detected based on the first image.
  • the terminal device 6 is a terminal device equivalent to at least one of the terminal devices 41 and 42 in the second embodiment described above.
  • the terminal device 6 includes a calculation device 61, a storage device 62, a communication device 63, an input device 64, and an output device 65.
  • the calculation device 61, the storage device 62, the communication device 63, the input device 64, and the output device 65 may be connected via a data bus 66.
  • the calculation device 61 has an information acquisition unit 611 and a decision unit 612 as a logically realized functional block or as a physically realized processing circuit.
  • the terminal device 6 may be connected to the information processing device 3 via a network NW.
  • the information acquisition unit 611 of the computing device 61 may acquire the ID correspondence table 321 from the information processing device 3.
  • the information acquisition unit 611 may store the ID correspondence table 321 in the storage device 62.
  • the determination unit 612 of the calculation device 61 may output a determination result for each of the multiple passengers based on the ID correspondence table 321.
  • the determination unit 612 may output, as the determination result for each of the multiple passengers, any of the following: (i) a first determination result indicating that a match is found and that the passenger can pass through the facial recognition gate device 23; (ii) a second determination result indicating that a match is found but that the passenger cannot pass through the facial recognition gate device 23; (iii) a third determination result indicating that a match is not found; and (iv) a fourth determination result indicating that the passenger has not been authenticated.
  • the determination unit 612 may classify the multiple passengers into any of a first type corresponding to the first determination result, a second type corresponding to the second determination result, a third type corresponding to the third determination result, and a fourth type corresponding to the fourth determination result.
  • the determination unit 612 may determine the priority of the determination result for the passenger based on the passenger type based on the determination result and the position of the terminal device 6 (i.e., its own position). The determination unit 612 may determine whether or not to display the determination result for the passenger based on the determined priority. In other words, the determination unit 612 may change the display content based on the priority. Since the display content is changed based on the priority, the priority may be referred to as the "display priority.”
  • the information processing device 3 does not need to have the determination unit 315.
  • the determination unit 315 may output a determination result for each of the multiple passengers based on the ID correspondence table 321.
  • the determination unit 315 may transmit the determination result for each of the multiple passengers to the terminal device 6 via the communication device 33.
  • the determination unit 612 may determine the priority of the determination result for one passenger based on the type of the passenger based on the determination result for each of the multiple passengers transmitted from the determination unit 315 and the location of the terminal device 6.
  • the priority may be determined by the determination unit 315 of the information processing device 3. In this case, the determination unit 612 may determine whether to display the determination result based on the priority determined by the determination unit 315.
  • the operations of the terminal device 6 described above may be realized by the terminal device 6 reading a computer program recorded on a recording medium.
  • the recording medium has recorded thereon a computer program for causing the terminal device 6 to execute the operations described above.
  • the determination unit 612 may determine the priority based on the position of the passenger and the position of the terminal device.
  • the determination unit 612 may change the display content based on the determined priority.
  • An information processing device comprising:
  • the type is determined from at least a first type indicating that authentication has failed, a second type indicating that the user is allowed to pass through the face recognition gate device, and a third type indicating that the user is a user of a gate device different from the plurality of gate devices,
  • the information processing device according to claim 1 or 2, wherein the determining means determines the priority to be higher when the type is the first type than when the type is the third type.
  • the authentication result includes failure reason information indicating a reason why the face authentication failed.
  • the information processing device determines the priority based on the failure reason information.
  • the failure reason information indicates, as a reason for the failure of the face authentication, a first reason indicating that the face authentication has failed due to the image being inappropriate for the face authentication, or a second reason indicating that the face authentication has failed despite the image being appropriate for the face authentication,
  • the information processing device determines the priority to be lower when the failure reason information indicates the first reason than when the failure reason information indicates the second reason.
  • the information processing device includes an authentication means for performing the face authentication, The information processing device according to claim 6, wherein the authentication means repeatedly performs the face authentication on a person whose authentication result indicates the first reason based on the failure reason information, using a plurality of images acquired by the image acquisition means.
  • the information processing device includes a detection means for detecting a change in at least one of a facial direction and a line of sight of the person based on the image, The information processing device according to any one of claims 1 to 9, wherein the determining means determines the priority based on a change in at least one of a face direction and a line of sight detected.
  • the communication means transmits the authentication result and the determined priority of the authentication result to a plurality of the terminal devices;
  • (Appendix 13) Acquire an image including a predetermined area through which a plurality of people passing toward any one of a plurality of gate devices including a face recognition gate device; acquiring location information of a terminal device that displays at least a part of a plurality of authentication results of the face authentication performed using the image; determining a priority for notifying at least a part of the plurality of authentication results based on types corresponding to the plurality of authentication results and the location information.
  • a terminal device owned by a user An acquisition means for acquiring at least a part of a plurality of authentication results of face authentication performed using an image including a predetermined area through which a plurality of people heading toward any one of a plurality of gates including the face authentication gate device pass; A display means for changing the display contents based on the display priority; Equipped with the display content includes at least a part of the plurality of authentication results; The priority is determined based on the types corresponding to the plurality of authentication results and a location of the terminal device.
  • a face recognition gate device an image acquisition means for acquiring an image including a predetermined area through which a plurality of people passing toward any one of a plurality of gate devices including the face recognition gate device;
  • An authentication means for performing face authentication using the image;
  • an information acquisition means for acquiring location information of a terminal device that displays at least a part of the plurality of authentication results of the face authentication;
  • a determination means for determining a priority for notifying at least a part of the plurality of authentication results based on types corresponding to the plurality of authentication results and the location information;
  • An information processing system comprising:
  • Reference Signs List 1 3 Information processing device 2 Airport system 5 Authentication device 6, 41, 42 Terminal device 11, 311 Image acquisition unit 12, 312 Information acquisition unit 13, 315 Decision unit 21 Management server 22 Check-in terminal 23 Face recognition gate device 24 Normal gate device 31 Arithmetic device 32 Storage device 33 Communication device 34 Input device 35 Output device 36, 52, 211, 232 Face database 51, 314 Face recognition unit 313 Tracking unit

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Finance (AREA)
  • Collating Specific Patterns (AREA)

Abstract

情報処理装置は、顔認証ゲート装置を含む複数のゲート装置のいずれかに向かう複数の人が通過する所定領域を含む画像を取得する画像取得手段と、画像を用いて行われた顔認証の複数の認証結果の少なくとも一部を表示する端末装置の位置情報を取得する情報取得手段と、複数の認証結果の少なくとも一部を通知する優先度を、複数の認証結果に対応する種別と、位置情報とに基づいて決定する決定手段と、を備える。

Description

情報処理装置、情報処理制御方法及び記録媒体
 この開示は、情報処理装置、情報処理方法及び記録媒体の技術分野に関する。
 例えば、ユーザから取得された顔画像と、データベースに登録されている複数の登録顔画像とを照合した結果に基づいて、ユーザを、顔認証により本人確認を行う顔認証レーン、又は、対面により本人確認を行う対面式レーンに案内する装置が提案されている(特許文献1参照)。その他、この開示に関連する先行技術文献として、特許文献2乃至4が挙げられる。
特開2021―163457号公報 特開2021-056869号公報 特開2016-053896号公報 国際公開第2022/044086号
 この開示は、先行技術文献に記載された技術の改良を目的とする情報処理装置、情報処理方法及び記録媒体を提供することを課題とする。
 情報処理装置の一態様は、顔認証ゲート装置を含む複数のゲート装置のいずれかに向かう複数の人が通過する所定領域を含む画像を取得する画像取得手段と、前記画像を用いて行われた顔認証の複数の認証結果の少なくとも一部を表示する端末装置の位置情報を取得する情報取得手段と、前記複数の認証結果の少なくとも一部を通知する優先度を、前記複数の認証結果に対応する種別と、前記位置情報とに基づいて決定する決定手段と、を備える。
 情報処理方法の一態様は、顔認証ゲート装置を含む複数のゲート装置のいずれかに向かう複数の人が通過する所定領域を含む画像を取得し、前記画像を用いて行われた顔認証の複数の認証結果の少なくとも一部を表示する端末装置の位置情報を取得し、前記複数の認証結果の少なくとも一部を通知する優先度を、前記複数の認証結果に対応する種別と、前記位置情報とに基づいて決定する。
 記録媒体の一態様は、コンピュータに、顔認証ゲート装置を含む複数のゲート装置のいずれかに向かう複数の人が通過する所定領域を含む画像を取得し、前記画像を用いて行われた顔認証の複数の認証結果の少なくとも一部を表示する端末装置の位置情報を取得し、前記複数の認証結果の少なくとも一部を通知する優先度を、前記複数の認証結果に対応する種別と、前記位置情報とに基づいて決定する情報処理方法を実行させるためのコンピュータプログラムが記録されている。
情報処理装置の構成の一例を示すブロック図である。 空港システムの構成の一例を示すブロック図である。 空港の搭乗ゲートが設けられているフロアの一例を示す平面図である。 仮想的な認証エリアの一例を示す平面図である。 情報処理装置の構成の他の例を示すブロック図である。 情報処理装置が備える顔データベースの一例を示す図である。 乗客の追跡処理を説明するための図である。 ID対応テーブルの一例を示す図である。 画像の一例を示す図である。 第2実施形態に係る追跡及び認証動作を示すフローチャートである。 第2実施形態に係る決定動作を示すフローチャートである。 端末装置に表示される画面の一例を示す図である。 認証装置の構成の一例を示すブロック図である。 端末装置に表示される画面の他の一例を示す図である。 端末装置に表示される画面の他の一例を示す図である。 端末装置に表示される画面の他の一例を示す図である。 端末装置に表示される画面の他の一例を示す図である。 端末装置に表示される画面の他の一例を示す図である。 端末装置の構成の一例を示すブロック図である。
 情報処理装置、情報処理方法及び記録媒体に係る実施形態について説明する。
 <第1実施形態>
 情報処理装置、情報処理方法及び記録媒体の第1実施形態について、図1を参照して説明する。以下では、情報処理装置1を用いて、情報処理装置、情報処理方法及び記録媒体の第1実施形態を説明する。図1において、情報処理装置1は、画像取得部11、情報取得部12及び決定部13を備える。
 画像取得部11は、所定領域を含む画像を取得する。ここで、所定領域は、顔認証ゲート装置を含む複数のゲート装置のいずれかに向かう複数の人が通過する領域である。このため、画像取得部11により取得された画像には、所定領域を通過する一又は複数の人が含まれ得る。
 情報取得部12は、端末装置の位置情報を取得する。位置情報は、端末装置の位置を示す情報である。端末装置は、画像取得部11により取得された画像を用いて行われた顔認証の複数の認証結果の少なくとも一部を表示する。端末装置は、複数の認証結果の少なくとも一部を表示することにより、認証結果をユーザに通知してよい。ここで、ユーザは、複数のゲート装置のいずれかに向かう複数の人とは異なる人であってよい。ユーザは、複数のゲート装置の近傍の誘導員及び警備員の少なくとも一方であってよい。複数の認証結果は、複数の人(即ち、複数のゲート装置のいずれかに向かう複数の人)に夫々対応していてよい。
 顔認証ゲート装置は、顔認証に成功した人の通過を許可する一方で、顔認証に失敗した人の通過を許可しない。顔認証ゲート装置は、顔認証ゲート装置を通過しようとする人の顔と、予め登録されている顔画像により示される顔とが対応する場合に、顔認証が成功したと判定してよい。言い換えれば、顔認証ゲート装置は、予め顔画像が登録されている人のなかに、顔認証ゲート装置を通過しようとする人に該当する人がいる場合に、顔認証が成功したと判定してよい。
 従って、顔認証ゲート装置を通過しようとする人の顔画像が登録されていない場合、顔認証ゲート装置は、その人の通過を許可しない(例えば、顔認証ゲート装置がフラップ式のゲート装置である場合、フラップが閉状態になる)。このため、顔画像が登録されていない人が顔認証ゲート装置に進入すると、その人の通過が許可されないことに起因して、顔認証ゲート装置を通過する人の流れが妨げられてしまう。つまり、顔認証ゲート装置のスループットが低下してしまう。
 顔認証は、上記複数の人を分類するために行われてもよい。このため、上記複数の人は、顔認証の認証結果によって分類されてもよい。例えば、上記複数の人は、顔認証が成功した人と、顔認証が失敗した人とに分類されてよい。従って、顔認証の認証結果は、分類結果を示す情報であると言える。分類結果は、種別と言い換えられてもよい。例えば、顔認証が失敗した人を第1種別に、顔認証が成功した人を第2種別に、分類してもよい。
 決定部13は、複数の認証結果の少なくとも一部を通知する優先度を決定する。通知の優先度は、通知順を決定するための指標であってもよいし、通知の要否を決定するための指標であってもよい。複数の認証結果は、第1認証結果及び第2認証結果を含んでいるものとする。第1認証結果の優先度が、第2認証結果の優先度よりも高い場合、第1認証結果が、第2認証結果よりも先に端末装置に送信されてよい。端末装置には、第1認証結果が、第2認証結果よりも先に表示されてよい。つまり、ユーザには、第1認証結果が、第2認証結果よりも先に通知されてよい。第1認証結果の優先度が、第2認証結果の優先度よりも高い場合、第1認証結果が端末装置に送信される一方で、第2認証結果が端末装置に送信されなくてもよい。端末装置には、第1認証結果が表示される一方で、第2認証結果が表示されなくてよい。つまり、ユーザには、第1認証結果が通知される一方で、第2認証結果が通知されなくてよい。
 決定部13は、複数の認証結果に対応する種別と、位置情報により示される端末装置の位置とに基づいて優先度を決定する。種別及び端末装置の位置に基づく優先度の具体例について以下に説明する。
 例えば、第1認証結果の種別が第1種別(例えば、顔認証に失敗したことを示す種別)であり、第2認証結果の種別が第2種別(例えば、顔認証に成功したことを示す種別)であり、端末装置の位置が顔認証ゲート装置の近傍の位置である場合、決定部13は、第1認証結果の優先度を、第2認証結果の優先度よりも高くしてよい。この場合、第1認証結果が、第2認証結果に優先して端末装置に表示されてよい。つまり、第1認証結果が、第2認証結果に優先してユーザ(例えば、誘導員及び警備員の少なくとも一方)に通知されてよい。この結果、ユーザは、第1認証結果に係る人が顔認証ゲート装置に進入しないように、その人を誘導することができる。尚、ユーザは、第2認証結果に係る人を誘導しなくてもよい。なぜなら、第2認証結果に係る人は、顔画像が登録されており、顔認証ゲート装置を通過できる可能性が高いからである。
 例えば、第1認証結果の種別が第1種別(例えば、顔認証に失敗したことを示す種別)であり、第2認証結果の種別が第2種別(例えば、顔認証に成功したことを示す種別)であり、端末装置の位置が顔認証ゲート装置とは異なる他のゲート装置の近傍の位置である場合、決定部13は、第2認証結果の優先度を、第1認証結果の優先度よりも高くしてよい。この場合、第2認証結果が、第1認証結果に優先して端末装置に表示されてよい。つまり、第2認証結果が、第1認証結果に優先してユーザ(例えば、誘導員及び警備員の少なくとも一方)に通知されてよい。この結果、ユーザは、第2認証結果に係る人を、顔認証ゲート装置に誘導してもよい。なぜなら、第2認証結果に係る人は、顔画像が登録されており、顔認証ゲート装置を通過できる可能性が高いからである。尚、ユーザは、第1認証結果に係る人を誘導しなくてもよい。なぜなら、第1認証結果に係る人が顔認証ゲート装置を通過しようとしていない可能性が高いからである。
 ユーザ(例えば、誘導員及び警備員の少なくとも一方)は、複数のゲート装置のいずれかを通過しようとする複数の人の全てに対応することは難しい。情報処理装置1では、複数の認証結果の少なくとも一部について優先度が決定される。例えば、ユーザには、優先度が高い認証結果が通知されてよい。この結果、ユーザは、優先的に対応すべき人を容易に認識することができる。例えば、ユーザは、顔認証ゲート装置を通過できない人に優先的に対応することができる。このため、情報処理装置1によれば、顔認証ゲート装置を通過できない人が、顔認証ゲート装置に進入することを抑制することができる。従って、情報処理装置1によれば、顔認証ゲート装置のスループットの低下を抑制することができる。
 情報処理装置1において、画像取得部11は、顔認証ゲート装置を含む複数のゲート装置のいずれかに向かう複数の人が通過する所定領域を含む画像を取得してよい。情報取得部12は、上記画像を用いて行われた顔認証の複数の認証結果の少なくとも一部を表示する端末装置の位置情報を取得してよい。決定部13は、複数の認証結果の少なくとも一部を通知する優先度を、複数の認証結果に対応する種別と、位置情報とに基づいて決定してよい。
 このような情報処理装置1は、例えば、コンピュータが記録媒体に記録されたコンピュータプログラムを読み込むことによって実現されてよい。この場合、記録媒体には、コンピュータに、顔認証ゲート装置を含む複数のゲート装置のいずれかに向かう複数の人が通過する所定領域を含む画像を取得し、該画像を用いて行われた顔認証の複数の認証結果の少なくとも一部を表示する端末装置の位置情報を取得し、複数の認証結果の少なくとも一部を通知する優先度を、複数の認証結果に対応する種別と、位置情報とに基づいて決定する情報処理方法を実行させるためのコンピュータプログラムが記録されている、と言える。
 <第2実施形態>
 表示制御装置、表示制御方法及び記録媒体の第2実施形態について、図2乃至図12を参照して説明する。以下では、空港で使用される情報処理装置3を用いて、情報処理装置、情報処理方法及び記録媒体の第2実施形態を説明する。
 先ず、空港の空港システム2について、図2を参照して説明する。図2において、空港システム2は、管理サーバ21と、チェックイン端末22と、搭乗ゲートに設置された複数のゲート装置とを備える。管理サーバ21、チェックイン端末22及び複数のゲート装置は、ネットワークNWを介して互いに接続されている。
 尚、空港システム2は、チェックイン端末22に加えて、他のチェックイン端末を備えていてもよい。つまり、空港システム2は、複数のチェックイン端末を備えていてもよい。尚、ネットワークNWは、インターネット等の広域領域ネットワーク(Wide Area Network:WAN)であってもよいし、ローカルエリアネットワーク(Local Area Network:LAN)であってもよい。
 複数のゲート装置は、顔認証処理を行う顔認証機能を有するとともに、顔認証処理の結果に応じて乗客の通過可否を判定する顔認証ゲート装置23と、乗客が所持する航空券に基づいて、乗客の通過可否を判定するゲート装置24とを含んでいる。ゲート装置24を、以降、適宜「通常ゲート装置24」と称する。図3に示すように、空港には、搭乗ゲートG1、G2及びG3が設けられているものとする。顔認証ゲート装置23及び通常ゲート装置24は、搭乗ゲートG1に設置されているものとする。
 尚、「航空券」は、紙の航空券及び電子航空券の少なくとも一方を意味してよい。「航空券」は、紙の航空券及び電子航空券の少なくとも一方に加えて、又は代えて、電子航空券に対応づけられた個人情報を示すもの(例えば、旅券、航空券の購入に使用されたクレジットカード等)を含む概念であってもよい。
 管理サーバ21は、顔データベース211(以降、“顔DB211”と表記する)、運航データベース212(以降、“運航DB212”と表記する)、及び、ゲートデータベース213(以降、“ゲートDB213”と表記する)を有する。
 顔DB211には、顔認証処理に用いられる顔画像が登録されている。尚、顔DB211には、顔画像に代えて又は加えて、顔画像に係る特徴量が登録されていてもよい。運航DB212には、航空機の運航情報(いわゆるフライト情報)が登録されている。運航情報には、航空機の便名、搭乗ゲートを識別するためのゲート識別情報(例えば、搭乗ゲート番号)及び搭乗開始時刻が含まれていてよい。尚、航空機の便名、識別情報及び搭乗開始時刻は互いに対応づけられていてよい。
 ゲートDB213には、複数の搭乗ゲートに夫々対応する複数の搭乗ゲート情報が登録されている。尚、空港システム2の管理及び運用の少なくとも一方を行う者が、空港の管理及び運営を行う空港会社、並びに、航空機の運航を行う航空会社とは異なっていてもよい。この場合、ゲートDB213に登録されている複数の搭乗ゲート情報は、空港会社及び航空会社の少なくとも一方に係るシステムから取得されてもよい。ゲートDB213は、空港システム2と、空港会社及び航空会社の少なくとも一方に係るシステムとで共有されていてもよい。
 搭乗ゲート情報は、搭乗ゲートを識別するためのゲート識別情報(例えば、搭乗ゲート番号)と、設置されているゲート装置に係る装置情報とを含んでいてよい。装置情報は、ゲート装置の数、並びに、各ゲート装置の種別、動作状態及び設置位置、の少なくとも一つを示す情報であってよい。ここで、ゲート装置の種別には、顔認証可能な第1種別と、顔認証不可能な第2種別とが含まれていてよい。尚、第2種別のゲート装置には、乗客を識別するための情報(例えば、ID)を示すもの(例えば、2次元バーコード等)を読み取り可能なゲート装置が含まれていてもよい。ゲート装置の動作状態には、ゲート装置が稼働している稼働状態と、ゲート装置が休止している(即ち、稼働していない)休止状態とが含まれていてよい。ゲート装置の設置位置は、例えば、一の搭乗ゲートに2以上のゲート装置が設置されている場合に、該2以上のゲート装置の相対的な位置関係として表されていてもよい。或いは、ゲート装置の設置位置は、例えば、空港の搭乗ゲートが設けられているフロア(いわゆる出発フロア)に係る座標系における、各ゲート装置の座標として表されていてもよい。尚、一の搭乗ゲートに一つのゲート装置だけが設置されている場合、装置情報には、ゲート装置の設置位置が含まれなくてもよい。尚、休止状態には、ゲート装置に電力が供給されない状態(例えば、電源OFF状態)と、ゲート装置の一部には電力が供給されているが、ゲート装置がその機能を発揮できない状態(いわゆる、スタンバイ状態)とが含まれてもよい。尚、ゲートDB213に登録されている複数の搭乗ゲート情報は、航空会社及び航空機の便の少なくとも一方に応じて、予め決定されていてもよい。ゲートDB213に登録されている複数の搭乗ゲート情報は、航空機の出発時刻等に応じて、自動的に更新されてもよい。
 チェックイン端末22は、搭乗手続(即ち、チェックイン)に使用される端末である。チェックイン端末22は、空港の職員により操作されてもよいし、乗客により操作されてもよい(即ち、チェックイン端末22は、いわゆる自動チェックイン機であってもよい)。尚、「空港の職員」は、空港の管理及び運営を行う空港会社に属している人に限らず、航空機の運航を行う航空会社に属している人等の、空港で勤務している人を含む概念である。
 チェックイン端末22は、乗客が所持する航空券に基づいて、乗客の搭乗手続を行う。チェックイン端末22は、搭乗手続の際に、乗客の顔画像を取得してもよい。チェックイン端末22は、カメラで乗客を撮像することにより乗客の顔画像を取得してもよいし、乗客が所持する旅券に掲載された顔写真を読み取ることにより乗客の顔画像を取得してもよい。尚、チェックイン端末22は、全ての乗客の顔画像を取得しなくてもよい。
 チェックイン端末22は、搭乗手続を行った乗客に係る乗客情報(例えば、名前及び航空機の便名)と、該乗客の顔画像とを管理サーバ21に送信する。尚、チェックイン端末22は、航空券に記載されている情報(言い換えれば、航空券に対応づけられている情報)から、上記乗客情報を取得してよい。
 管理サーバ21は、チェックイン端末22から送信された乗客情報及び顔画像を互いに対応づけて、顔DB211に登録する。このとき、管理サーバ21は、乗客を識別するための乗客識別情報を、乗客情報及び顔画像に付与してもよい。後述するように、顔画像は顔認証処理に用いられる。このため、乗客情報及び顔画像に付与された乗客識別情報を、以降、適宜「認証ID」と称する。尚、乗客の顔画像は、チェックイン端末22に加えて、又は代えて、乗客が所持する端末装置(例えば、スマートフォン)にインストールされているアプリケーション(例えば、航空会社が提供するアプリケーション)により取得されてもよいし、空港の出国審査エリアに設置されているゲート装置により取得されてもよい。
 管理サーバ21は、現在時刻に基づいて、運航DB212に登録されている運航情報から、搭乗開始時刻よりも第1所定時間(例えば、数分~十数分)前の航空機の便名を特定してよい。管理サーバ21は、該特定された便名に対応づけられているゲート識別情報に基づいて、ゲートDB213に登録されている複数のゲート情報から、上記ゲート識別情報に対応するゲート情報を抽出してよい。管理サーバ21は、該抽出されたゲート情報に基づいて、該抽出されたゲート情報に対応する搭乗ゲートに、顔認証ゲート装置(例えば、顔認証ゲート装置23)が設置されているか否かを判定してよい。
 顔認証ゲート装置(例えば、顔認証ゲート装置23)が設置されていると判定された場合、管理サーバ21は、顔DB211から、上記特定された便名を含む乗客情報に対応づけられた(言い換えれば、上記特定された便名の航空機に搭乗予定の)乗客の顔画像を抽出してよい。管理サーバ21は、該抽出された顔画像を、上記抽出されたゲート情報により特定される顔認証ゲート装置(例えば、顔認証ゲート装置23)に送信してよい。尚、顔認証ゲート装置が設置されていないと判定された場合、管理サーバ21は、これらの処理を行わなくてもよい。尚、顔認証ゲート装置が設置されていると判定された場合、管理サーバ21は、上記抽出されたゲート情報に基づいて、設置されている顔認証ゲート装置が稼働しているか否かを判定してもよい。尚、顔DB211に顔画像に係る特徴量が登録されている場合、管理サーバ21は、顔画像に代えて又は加えて、顔画像に係る特徴量を顔認証ゲート装置に送信してもよい。
 顔認証ゲート装置23は、カメラ231、顔データベース232(以降、“顔DB232”と表記する)及び顔認証部233を有する。顔DB232には、管理サーバ21から送信された顔画像が登録されている。顔認証ゲート装置23は、表示装置234を有していてもよい。表示装置234には、カメラ231が撮像した画像、及び、顔認証処理の結果を示す情報の少なくとも一方が表示されてもよい。
 顔認証部233は、カメラ231が撮像した画像(例えば、乗客の顔が写り込んでいる画像)と、顔DB232に登録されている顔画像とを用いて顔認証処理を行う。顔認証に成功した場合、顔認証ゲート装置23は乗客の通過を許可する。他方で、顔認証に失敗した場合、顔認証ゲート装置23は乗客の通過を許可しない。尚、顔認証処理には、既存の各種態様(例えば、2次元(2D)認証方式及び3次元(3D)認証方式の少なくとも一方)を適用可能である。
 顔認証ゲート装置23における顔認証処理の一具体例について説明する。顔認証ゲート装置23は、フラップ式のゲート装置であってもよい。顔認証装置233は、カメラ231が撮像した画像の特徴量を抽出してよい。顔認証装置233は、上記抽出された特徴量と、顔DB232に登録されている顔画像に係る特徴量とを照合してよい。このとき、顔認証装置233は、上記抽出された特徴量と、顔DB232に登録されている顔画像に係る特徴量とに基づいて照合スコア(又は、類似スコア)を算出してよい。照合スコアが閾値以上である場合(即ち、顔認証に成功した場合)、顔認証装置233は、乗客の通過を許可してよい。このとき、顔認証装置233は、乗客に係る認証IDを特定してもよい。この場合、顔認証ゲート装置23は、フラップを開状態にしてよい。照合スコアが閾値未満である場合(即ち、顔認証に失敗した場合)、顔認証装置233は、乗客の通過を許可しなくてよい。この場合、顔認証ゲート装置23は、フラップを閉状態にしてよい。尚、顔DB232には、顔画像に代えて又は加えて、顔画像に係る特徴量が登録されていてもよい。
 尚、顔認証ゲート装置23とは異なる他の装置(例えば、管理サーバ21)が、顔認証処理の一部を行ってもよい。この場合、顔認証ゲート装置23の顔認証装置233は、カメラ231が撮像した画像の特徴量を抽出してよい。顔認証装置233は、該抽出された特徴量を、他の装置に送信してよい。他の装置は、顔認証装置233から送信された特徴量と、顔データベース(例えば、顔DB211)に登録されている顔画像に係る特徴量とを照合してよい。他の装置は、照合結果を示す情報(例えば、照合スコアが閾値以上であるか否かを示す情報)を、顔認証ゲート装置23に送信してよい。尚、照合スコアが閾値以上である場合、他の装置は、照合結果を示す情報に、乗客に係る認証IDを含めてもよい。照合結果を示す情報により照合スコアが閾値以上であることが示された場合、顔認証装置233は、乗客の通過を許可してよい。照合結果を示す情報により照合スコアが閾値未満であることが示された場合、顔認証装置233は、乗客の通過を許可しなくてよい。
 顔認証ゲート装置23では、通常ゲート装置24に比べて、乗客の通過速度が速くなることが期待できる。言い換えれば、所定期間に顔認証ゲート装置23を通過する乗客の数は、通常ゲート装置24を通過する乗客の数よりも多くなることが期待できる。つまり、顔認証ゲート装置23は、搭乗ゲートにおけるスループットを向上させることができる。
 ただし、上述したように、顔認証ゲート装置23を通過可能な乗客は、顔認証に成功した乗客だけである。乗客が、顔認証ゲート装置23での顔認証に成功するためには、その乗客の顔画像が、顔認証ゲート装置23の顔DB232に登録されている必要がある。仮に、顔DB232に顔画像が登録されていない乗客が、顔認証ゲート装置23に進入すると、その乗客の通過が許可されないことに起因して、搭乗ゲートにおけるスループットが低下してしまう。
 この問題点に対して、乗客が顔認証ゲート装置23に進入する前に、例えば顔認証ゲート装置23を通過できない乗客を抽出(いわゆるスクリーニング)することが考えられる。
 情報処理装置3は、上記問題点に鑑みて、乗客が顔認証ゲート装置23に進入する前に、その乗客が顔認証ゲート装置23を通過できるか否かを判定する。つまり、情報処理装置3は、顔認証ゲート装置23とは別個に、乗客が顔認証ゲート装置23を通過できるか否かを判定する。
 図4に示すように、顔認証ゲート装置23及び通常ゲート装置24が設置された搭乗ゲートG1の周辺に、仮想的な認証エリアRAが設けられている。認証エリアRAは、顔認証ゲート装置23及び通常ゲート装置24の一方に向かう複数の乗客が通過する領域である。尚、認証エリアRAは、上述した第1実施形態における「所定領域」の一例に相当する。
 また、搭乗ゲートG1の周辺には、空港の職員(例えば、誘導員及び警備員の少なくとも一方)A1及びA2が配置されている。職員A1は、端末装置41を所持している。職員A2は、端末装置42を所持している。図2に示すように、端末装置41及び42は、ネットワークNWを介して、情報処理装置3に接続されている。尚、「所持」は、「身に着けている」という意味に限定されない。例えば、職員A1が端末装置41を、その身から離していても、端末装置41を実質的に支配していれば、職員A1が端末装置41を所持していると解釈されてよい。尚、端末装置41及び42は、タブレット端末、スマートフォン及びAR(Augmented Reality)グラスのいずれかにより構成されていてよい。尚、職員A1及びA2は、上述した第1実施形態における「ユーザ」に相当する。尚、端末装置41及び42の少なくとも一方は、空港システム2の一部を構成していてもよい。言い換えれば、空港システム2は、端末装置41及び42の少なくとも一方を備えていてもよい。尚、端末装置41及び42に加えて、他の端末装置があってもよい。つまり、端末装置は3以上であってもよい。
 カメラCAMは、認証エリアRAを撮像可能に設置されている。尚、カメラCAMは、ネットワークNWを介して、情報処理装置3に接続されていてよい。尚、カメラCAMは、その画角内に認証エリアRAの全てが含まれるように設置されていなくてもよい。言い換えれば、カメラCAMは、認証エリアRAの少なくとも一部を撮像可能に設置されていてもよい。カメラCAMは、乗客の通過に支障のない位置(例えば、乗客の頭部よりも高い位置)に設置されていてよい。後述するように、カメラCAMにより撮像された画像は、顔認証処理に用いられてもよい。このため、カメラCAMは、4K解像度のカメラ等の高解像度のカメラであってよい。尚、カメラCAMは、ネットワークNWを介して、情報処理装置3に接続されていなくてもよい。この場合、カメラCAMは、ケーブル(例えば、USB(Universal Serial Bus)ケーブル)を介して、情報処理装置3に接続されていてもよい。
 カメラCAMは、認証エリアRAを撮像することにより、認証エリアRAを含む画像である第1画像を生成してよい。尚、第1画像は、動画の1フレームに相当する画像であってもよい。
 情報処理装置3は、カメラCAMが認証エリアRAを撮像することにより生成された第1画像を用いて顔認証処理を行い、該第1画像に含まれる乗客が顔認証ゲート装置23に進入する前に、その乗客が顔認証ゲート装置23を通過可能であるか否かを判定する。以下、情報処理装置3について、具体的に説明する。
 図5に示すように、情報処理装置3は、演算装置31、記憶装置32及び通信装置33を備える。情報処理装置3は、入力装置34及び出力装置35を備えていてよい。情報処理装置3は、顔データベース36(以降、“顔DB36”と表記する)を備えていてよい。尚、情報処理装置3は、入力装置34及び出力装置35の少なくとも一方を備えていなくてもよい。情報処理装置3において、演算装置31、記憶装置32、通信装置33、入力装置34、出力装置35及び顔DB36は、データバス37を介して接続されていてよい。情報処理装置3は、通信装置33及びネットワークNWを介して、管理サーバ21に接続されている。尚、情報処理装置3は、空港システム2の一部を構成していてもよい。言い換えれば、空港システム2は、情報処理装置3を備えていてもよい。
 演算装置31は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)、TPU(TensorProcessingUnit)、及び、量子プロセッサのうち少なくとも一つを含んでよい。
 記憶装置32は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク装置、光磁気ディスク装置、SSD(Solid State Drive)、及び、光ディスクアレイのうち少なくとも一つを含んでよい。つまり、記憶装置32は、一時的でない記録媒体を含んでよい。記憶装置32は、所望のデータを記憶可能である。例えば、記憶装置32は、演算装置31が実行するコンピュータプログラムを一時的に記憶していてよい。記憶装置32は、演算装置31がコンピュータプログラムを実行している場合に演算装置31が一時的に使用するデータを一時的に記憶してよい。
 通信装置33は、ネットワークNWを介して、管理サーバ21と通信可能である。通信装置33は、ネットワークNWを介して、管理サーバ21以外の、情報処理装置3の外部の装置と通信可能であってもよい。尚、通信装置33は、有線通信を行ってもよいし、無線通信を行ってもよい。
 入力装置34は、外部から情報処理装置3に対する情報の入力を受け付け可能な装置である。情報処理装置3のオペレータが操作可能な操作装置(例えば、キーボード、マウス、タッチパネル等)を含んでよい。入力装置34は、例えばUSBメモリ等の、情報処理装置3に着脱可能な記録媒体に記録されている情報を読み取り可能な記録媒体読取装置を含んでよい。尚、情報処理装置3に、通信装置33を介して情報が入力される場合(言い換えれば、表示制御装置2が通信装置33を介して情報を取得する場合)、通信装置33は入力装置として機能してよい。
 出力装置35は、情報処理装置3の外部に対して情報を出力可能な装置である。出力装置35は、上記情報として、文字や画像等の視覚情報を出力してもよいし、音声等の聴覚情報を出力してもよいし、振動等の触覚情報を出力してもよい。出力装置35は、例えば、ディスプレイ、スピーカ、プリンタ及び振動モータの少なくとも一つを含んでいてよい。出力装置35は、例えばUSBメモリ等の、情報処理装置3に着脱可能な記録媒体に情報を出力可能であってもよい。尚、情報処理装置3が通信装置33を介して情報を出力する場合、通信装置33は出力装置として機能してよい。
 演算装置31は、論理的に実現される機能ブロックとして、又は、物理的に実現される処理回路として、画像取得部311、情報取得部312、追跡部313、顔認証部314及び決定部315を有していてよい。尚、画像取得部311、情報取得部312、設定部313、追跡部313、顔認証部314及び決定部315の少なくとも一つは、論理的な機能ブロックと、物理的な処理回路(即ち、ハードウェア)とが混在する形式で実現されてよい。画像取得部311、情報取得部312、設定部313、追跡部313、顔認証部314及び決定部315の少なくとも一部が機能ブロックである場合、画像取得部311、情報取得部312、設定部313、追跡部313、顔認証部314及び決定部315の少なくとも一部は、演算装置31が所定のコンピュータプログラムを実行することにより実現されてよい。
 演算装置31は、上記所定のコンピュータプログラムを、記憶装置32から取得してよい(言い換えれば、読み込んでよい)。演算装置31は、コンピュータで読み取り可能であって且つ一時的でない記録媒体が記憶している上記所定のコンピュータプログラムを、情報処理装置3が備える図示しない記録媒体読み取り装置を用いて読み込んでもよい。演算装置31は、通信装置33を介して、情報処理装置3の外部の図示しない装置から上記所定のコンピュータプログラムを取得してもよい(言い換えれば、ダウンロードしてもよい又は読み込んでもよい)。尚、演算装置31が実行する上記所定のコンピュータプログラムを記録する記録媒体としては、光ディスク、磁気媒体、光磁気ディスク、半導体メモリ、及び、その他プログラムを格納可能な任意の媒体の少なくとも一つが用いられてよい。
 管理サーバ21は、顔DB211に登録されている顔画像の少なくとも一部を、顔画像に付与された認証ID(即ち、乗客識別情報)とともに、情報処理装置3に送信する。この場合、管理サーバ21は、顔画像に加えて、ゲート識別情報及び搭乗開始時刻を情報処理装置3に送信してよい。管理サーバ21は、顔DB211に登録されている顔画像に対応づけられた乗客情報に含まれる航空機の便名と、運航DB212に登録されている運航情報とに基づいて、ゲート識別情報及び搭乗開始時刻を特定してよい。つまり、管理サーバ21は、顔画像により示される乗客が搭乗する航空機に係るゲート識別情報及び搭乗開始時刻を特定してよい。尚、顔DB211に、顔画像に代えて又は加えて、顔画像に係る特徴量が登録されている場合、管理サーバ21は、顔画像に代えて又は加えて、顔画像に係る特徴量を、情報処理装置3に送信してもよい。
 情報処理装置3は、管理サーバ21から送信された顔画像を顔DB36に登録する。情報処理装置3は、顔画像に加えて、ゲート識別情報及び搭乗開始時刻を顔DB36に登録してもよい。図6に示すように、顔DB36は、(i)複数の顔画像と、(ii)認証IDとゲート識別情報(例えば、搭乗ゲート番号)と搭乗開始時刻と顔画像とを互いに対応づけるテーブルと、を含んでいてもよい。尚、管理サーバ21は、顔DB211に登録されている顔画像の少なくとも一部を、所定の周期で、情報処理装置3に送信してもよい。情報処理装置3は、管理サーバ21から顔画像が送信される度に、顔DB36に登録されている顔画像を更新してもよい。尚、管理サーバ21が、顔画像に代えて又は加えて、顔画像に係る特徴量を、情報処理装置3に送信する場合、顔DB36には、顔画像に代えて又は加えて、顔画像に係る特徴量が登録されていてもよい。
 演算装置31の画像取得部311は、カメラCAMが生成した一又は複数の第1画像を、通信装置33を介して取得してよい。画像取得部311は、取得した一又は複数の第1画像を、記憶装置32に記憶させてよい。演算装置31の情報取得部312は、通信装置33を介して、管理サーバ21のゲートDB213から、搭乗ゲートG1に係る搭乗ゲート情報を取得する。情報取得部312は、取得した搭乗ゲート情報を、記憶装置32に記憶させてよい。
 演算装置31の情報取得部312は、端末装置41及び42各々の位置を示す端末位置情報を取得する。情報取得部312は、端末位置情報を、端末装置41及び42各々から取得してよい。この場合、端末装置41の位置は、端末装置41の位置情報機能により検出されてよい。同様に、端末装置42の位置は、端末装置42の位置情報機能により検出されてよい。
 演算装置31の追跡部313は、画像取得部311が取得した複数の第1画像(即ち、カメラCAMが生成した複数の第1画像)を用いて、認証エリアRAを通過する一又は複数の乗客の追跡を行う。演算装置31の顔認証部314は、画像取得部311が取得した複数の第1画像を用いて、認証エリアRAを通過する一又は乗客の顔認証処理を行う。
 追跡部313が、図4に示す認証エリアRAを通過する乗客P1の追跡処理を行うとともに、顔認証部314が、乗客P1の顔認証処理を行う場合について、図7を参照して説明する。尚、乗客P1は、顔認証処理の対象者でもあるので、被認証者と称されてもよい。
 図7に示す、画像IMG1、IMG2及びIMG3は、乗客P1を含む画像(言い換えれば、乗客P1が写り込んでいる画像)である。画像IMG1は、時刻t1に、カメラCAMが認証エリアRAを撮像することにより生成された画像である。画像IMG2は、時刻t1よりも後の時刻t2に、カメラCAMが認証エリアRAを撮像することにより生成された画像である。画像IMG3は、時刻t2よりも後の時刻t3に、カメラCAMが認証エリアRAを撮像することにより生成された画像である。
 画像IMG1、IMG2及びIMG3各々は、動画の1フレームに相当する画像であってもよい。この場合、画像IMG2は、画像IMG1に相当するフレームの直後のフレームに相当する画像でなくてもよい。つまり、画像IMG2は、画像IMG1に相当するフレームよりも2フレーム以上後のフレームに相当する画像であってもよい。同様に、画像IMG3は、画像IMG2に相当するフレームの直後のフレームに相当する画像でなくてもよい。つまり、画像IMG3は、画像IMG2に相当するフレームよりも2フレーム以上後のフレームに相当する画像であってもよい。
 追跡部313は、画像IMG1から、画像IMG1に含まれる乗客P1の頭部を検出する。尚、画像から人の頭部を検出する方法には、既存技術を適用であるので、その詳細についての説明は省略する。追跡部313は、検出された乗客P1の頭部に基づいて、乗客P1の頭部を含む領域を追跡領域TA1として設定する。
 追跡部313は、追跡領域TA1を設定した場合、追跡領域TA1に係る乗客P1を識別するための識別情報である追跡IDを、乗客P1に設定する。追跡部313は、追跡領域TA1に基づいて、乗客P1の位置を算出する。尚、画像から、該画像に含まれる被写体の位置を算出する方法には、既存技術を適用可能であるので、その詳細についての説明は省略する。追跡部313は、追跡IDと乗客P1の位置とを互いに対応づけて、記憶装置32に記憶されているID対応テーブル321に登録してよい。
 追跡領域TA1が設定された場合、追跡部313は、追跡領域TA1に乗客P1の顔が写り込んでいるか否かを判定してよい。言い換えれば、追跡部313は、追跡領域TA1について顔検出を行ってもよい。追跡領域TA1に乗客P1の顔が写り込んでいると判定された場合、追跡部313は、乗客P1の顔領域を含む顔画像を生成する。追跡部313は、該生成された顔画像を、乗客P1に係る追跡IDと対応づけて、顔認証部314に送信する。尚、追跡領域TA1に乗客P1の顔が写り込んでいないと判定された場合、追跡部313は、顔画像を生成しなくてよい。
 顔認証部314は、追跡部313から送信された顔画像と、顔DB36に登録されている顔画像とを用いて顔認証処理を行う。顔認証部314は、追跡部313から送信された顔画像の特徴量を抽出してよい。顔認証部314は、追跡部313から送信された顔画像の特徴量と、顔DB36に登録されている顔画像に係る特徴量とを照合してよい。このとき、顔認証部314は、上記抽出された特徴量と、顔DB36に登録されている顔画像に係る特徴量とに基づいて照合スコア(又は、類似スコア)を算出してよい。顔認証部314は、照合スコアと閾値とを比較してよい。照合スコアが閾値以上である場合、顔認証部314は、追跡部313から送信された顔画像により示される顔と、顔DB36に登録されている顔画像のうち、一の顔画像により示される顔とが対応したと判定してよい。照合スコアが閾値未満である場合、追跡部313から送信された顔画像により示される顔に該当する顔を示す顔画像が顔DB36に登録されていないと判定してよい。
 追跡部313から送信された顔画像により示される顔と、顔DB36に登録されている顔画像のうち、一の顔画像により示される顔とが対応した場合(言い換えれば、顔認証が成功した場合)、顔認証部314は、一の顔画像に対応づけられた認証IDを、追跡部313から送信された顔画像に対応づけられた追跡IDに対応づけて、ID対応テーブル321に登録する。顔認証部314は、認証IDに加えて、顔認証処理を行った時刻である認証時刻を、ID対応テーブル321に登録してよい。
 追跡部313から送信された顔画像により示される顔に該当する顔を示す顔画像が顔DB36に登録されていない場合(言い換えれば、顔認証が失敗した場合)、顔認証部314は、該当者がいないことを示す情報(例えば、“N/A(Not Applicable)”)を、追跡部313から送信された顔画像に対応づけられた追跡IDに対応づけて、ID対応テーブル321に登録してよい。
 この場合、顔認証部314は、顔認証が失敗した理由を示す失敗理由情報をID対応テーブル321に登録してもよい。顔認証が失敗した理由は、画像(例えば、顔画像)が顔認証に不適切であることに起因して顔認証に失敗したことを示す第1理由と、画像(例えば、顔画像)が顔認証に適切であるにもかかわらず顔認証に失敗したことを示す第2理由とを含んでいてよい。尚、顔認証に不適切である画像には、乗客(例えば、乗客P1)の顔が下又は横を向いたり、顔の一部が遮蔽物で隠れていたりして、顔画像に含まれる乗客の顔領域が顔認証に不適切である画像、通常とは異なる(言い換えれば、顔DB36に登録されている顔画像により示される顔とは異なる)乗客の顔画像(例えば、ひげ、眼鏡及びマスクの少なくとも一つが含まれる顔画像)、及び、焦点が合っていなかったり、ぶれていたりする画像、が含まれていてよい。尚、顔認証が失敗した理由が第2理由の場合は、顔認証処理の対象の乗客(例えば、乗客P1)の顔を示す顔画像が、顔DB36に登録されていない場合である。
 追跡部313は、画像IMG2と、画像IMG1とを用いて、画像IMG2に含まれる乗客P1を特定してよい。画像IMG2に含まれる乗客P1を特定することは、画像IMG1に含まれる乗客P1と画像IMG2に含まれる乗客P1との対応付けを行うことと同義である。このため、画像IMG2に含まれる乗客P1の特定には、画像間の対応付けに係るマッチング方式及びオプティカルフロー方式の少なくとも一方の手法を適用可能である。尚、マッチング方式及びオプティカルフロー方式各々には、既存の各種態様を適用可能であるので、その詳細についての説明は省略する。
 画像IMG2に含まれる乗客P1が特定された場合、追跡部313は、乗客P1の頭部を検出する。追跡部313は、検出された乗客P1の頭部に基づいて、乗客P1の頭部を含む領域を追跡領域TA2として設定する。画像IMG1に含まれる乗客P1と画像IMG2に含まれる乗客P1とは同一の乗客であるので、追跡領域TA2に係る乗客P1の追跡IDは、追跡領域TA1に係る乗客P1の追跡IDと同一である。追跡部313は、追跡領域TA2に基づいて、乗客P1の位置を算出する。
 追跡部313は、乗客P1の位置を、乗客P1に係る追跡IDに対応づけてID対応テーブル321に登録する。この場合、ID対応テーブル321には、追跡領域TA1に基づいて算出された乗客P1の位置が登録されているので、追跡部313が、追跡領域TA2に基づいて算出された乗客P1の位置をID対応テーブル321に登録することにより、乗客P1の位置が更新される。
 追跡領域TA2が設定された場合、追跡部313は、追跡領域TA2に乗客P1の顔が写り込んでいるか否かを判定してよい。言い換えれば、追跡部313は、追跡領域TA2について顔検出を行ってもよい。追跡領域TA2に乗客P1の顔が写り込んでいると判定された場合、追跡部313は、乗客P1の顔領域を含む顔画像を生成する。追跡部313は、該生成された顔画像を、乗客P1に係る追跡IDと対応づけて、顔認証部314に送信する。尚、追跡領域TA2に乗客P1の顔が写り込んでいないと判定された場合、追跡部313は、顔画像を生成しなくてよい。尚、追跡領域TA2に乗客P1の顔が写り込んでいると判定された場合であっても、ID対応テーブル321において、乗客P1に係る追跡IDと、認証IDとが対応づけられている場合(即ち、既に顔認証が成功している場合)、追跡部313は、顔画像を生成しなくてよい。
 顔認証部314は、追跡部313から送信された顔画像と、顔DB36に登録されている顔画像とを用いて顔認証処理を行う。追跡部313から送信された顔画像により示される顔と、顔DB36に登録されている顔画像のうち、一の顔画像により示される顔とが対応した場合(言い換えれば、顔認証が成功した場合)、顔認証部314は、一の顔画像に対応づけられた認証IDを、追跡部313から送信された顔画像に対応づけられた追跡IDに対応づけて、ID対応テーブル321に登録する。顔認証部314は、認証IDに加えて、顔認証処理を行った時刻である認証時刻を、ID対応テーブル321に登録してよい。尚、ID対応テーブル321に認証時刻が既に登録されている場合(即ち、過去に顔認証が成功している場合)、顔認証部314は、ID対応テーブル321に登録されている認証時刻を更新してよい。
 追跡部313から送信された顔画像により示される顔に該当する顔を示す顔画像が顔DB36に登録されていない場合(言い換えれば、顔認証が失敗した場合)、顔認証部314は、該当者がいないことを示す情報を、追跡部313から送信された顔画像に対応づけられた追跡IDに対応づけて、ID対応テーブル321に登録してよい。この場合、顔認証部314は、顔認証が失敗した理由を示す失敗理由情報をID対応テーブル321に登録してもよい。
 追跡部313は、画像IMG3と、画像IMG2とを用いて、画像IMG3に含まれる乗客P1を特定してよい。画像IMG3に含まれる乗客P1が特定された場合、追跡部313は、乗客P1の頭部を検出する。追跡部313は、検出された乗客P1の頭部に基づいて、乗客P1の頭部を含む領域を追跡領域TA3として設定する。画像IMG2に含まれる乗客P1と画像IMG3に含まれる乗客P1とは同一の乗客であるので、追跡領域TA3に係る乗客P1の追跡IDは、追跡領域TA2に係る乗客P1の追跡IDと同一である。追跡部313は、追跡領域TA3に基づいて、乗客P1の位置を算出する。
 追跡部313は、乗客P1の位置を、乗客P1に係る追跡IDに対応づけてID対応テーブル321に登録する。この場合、ID対応テーブル321には、追跡領域TA2に基づいて算出された乗客P1の位置が登録されているので、追跡部313が、追跡領域TA3に基づいて算出された乗客P1の位置をID対応テーブル321に登録することにより、乗客P1の位置が更新される。
 追跡領域TA3が設定された場合、追跡部313は、追跡領域TA3に乗客P1の顔が写り込んでいるか否かを判定してよい。言い換えれば、追跡部313は、追跡領域TA3について顔検出を行ってもよい。追跡領域TA3に乗客P1の顔が写り込んでいると判定された場合、追跡部313は、乗客P1の顔領域を含む顔画像を生成する。追跡部313は、該生成された顔画像を、乗客P1に係る追跡IDと対応づけて、顔認証部314に送信する。尚、追跡領域TA3に乗客P1の顔が写り込んでいないと判定された場合、追跡部313は、顔画像を生成しなくてよい。尚、追跡領域TA3に乗客P1の顔が写り込んでいると判定された場合であっても、ID対応テーブル321において、乗客P1に係る追跡IDと、認証IDとが対応づけられている場合(即ち、既に顔認証が成功している場合)、追跡部313は、顔画像を生成しなくてよい。
 顔認証部314は、追跡部313から送信された顔画像と、顔DB36に登録されている顔画像とを用いて顔認証処理を行う。追跡部313から送信された顔画像により示される顔と、顔DB36に登録されている顔画像のうち、一の顔画像により示される顔とが対応した場合(言い換えれば、顔認証が成功した場合)、顔認証部314は、一の顔画像に対応づけられた認証IDを、追跡部313から送信された顔画像に対応づけられた追跡IDに対応づけて、ID対応テーブル321に登録する。顔認証部314は、認証IDに加えて、顔認証処理を行った時刻である認証時刻を、ID対応テーブル321に登録してよい。尚、ID対応テーブル321に認証時刻が既に登録されている場合(即ち、過去に顔認証が成功している場合)、顔認証部314は、ID対応テーブル321に登録されている認証時刻を更新してよい。
 追跡部313から送信された顔画像により示される顔に該当する顔を示す顔画像が顔DB36に登録されていない場合(言い換えれば、顔認証が失敗した場合)、顔認証部314は、該当者がいないことを示す情報を、追跡部313から送信された顔画像に対応づけられた追跡IDに対応づけて、ID対応テーブル321に登録してよい。この場合、顔認証部314は、顔認証が失敗した理由を示す失敗理由情報をID対応テーブル321に登録してもよい。
 追跡部313及び顔認証部314は、乗客P1が認証エリアRAを通過するまで、上述した処理を繰り返し行ってよい。追跡部313は、上述したように、乗客P1の位置を算出する。つまり、追跡部313は、乗客P1の位置を検出していると言える。このため、追跡部313は、位置検出手段と称されてもよい。
 ここで、ID対応テーブル321の一例について図8を参照して説明する。図8に示すように、ID対応テーブル321では、追跡ID、追跡位置(例えば、乗客P1の位置)、認証ID及び認証時刻が互いに対応づけられていてよい。ID対応テーブル321において、追跡IDが、具体的な認証IDと対応づけられている場合、追跡IDが設定された乗客に該当する人物の顔画像が顔DB36に登録されていることを示している。追跡IDが、「N/A」という文字列と対応づけられている場合、追跡IDが設定された乗客に該当する人物の顔画像が顔DB36に登録されていないことを示している。追跡IDが、認証IDと対応づけられていない場合(即ち、認証ID欄が空欄である場合)、顔認証処理が1度も行われていないことを示している。
 ところで、例えば乗客P1の頭部が他人の陰に隠れてしまうこと等に起因して、追跡部313が乗客P1を追跡し続けることが困難になることがある。追跡部313は、乗客P1の追跡が途切れた場合、次のような処理を行ってもよい。追跡部313は、乗客P1の追跡が途切れた後に、画像取得部311により取得された第1画像(即ち、カメラCAMが生成した第1画像)から、新たな乗客が検出されたか否かを判定してよい。「新たな乗客」は、追跡IDが設定されていない乗客を意味する。
 新たな乗客が検出された場合、追跡部313は、乗客P1に係る追跡領域(例えば、追跡領域TA1、TA2及びTA3の少なくとも一つ)の特徴量と、新たな乗客に係る追跡領域の特徴量とを比較することにより、乗客P1と新たな乗客とが同一人物であるか否かを判定してよい。乗客P1と新たな乗客とが同一人物であると判定された場合、追跡部313は、新たな乗客に、乗客P1に係る追跡IDを設定してよい。この結果、追跡部313は、乗客P1を再度追跡することができる。尚、特徴量は、乗客の頭部に係る特徴量であってもよいし、乗客の上半身に係る特徴量であってもよいし、乗客の全身に係る特徴量であってもよい。従って、追跡領域には、乗客の頭部が含まれていてもよいし、乗客の上半身が含まれていてもよいし、乗客の全身が含まれていてもよい。尚、特徴量は、例えばPerson Re-Identification技術により求められてもよい。
 追跡部313及び顔認証部314は、カメラCAMが生成した一の第1画像に含まれる複数の乗客各々について上述した追跡処理及び顔認証処理を行ってよい。ここで、認証エリアRAは、例えば5メートル×5メートルの領域であってよい。5メートルという距離は、5~6人の乗客が横一列に並んで通過できる程度の距離である。認証エリアRAが5メートル×5メートルの領域である場合、認証エリアRA内には、20~30人の乗客が存在し得る。このため、情報処理装置3は、図9に示すように、カメラCAMが生成した一の第1画像に基づいて、複数の乗客の追跡処理及び顔認証処理を行うことができる。尚、図9における複数の点線の四角形は、追跡領域を表している。
 尚、追跡領域(例えば、追跡領域TA1、TA2及びTA3の少なくとも一つ)には、追跡部313が追跡処理を行う乗客(例えば、乗客P1)の頭部に加えて、乗客の頭部以外の部分(例えば、肩)が含まれていてもよい。尚、追跡領域は、乗客の上半身を含むように設定されてもよいし、乗客の全身を含むように設定されてもよい。
 追跡部313及び顔認証部314の動作について、図10のフローチャートを参照して説明を加える。図10において、追跡部313は、画像取得部311により取得された第1画像(即ち、カメラCAMが生成した第1画像)から、一又は複数の乗客(即ち、人物)を検出する(ステップS101)。ステップS101の処理において、追跡部313は、乗客の頭部を検出してよい。ステップS101の処理において、追跡部313は、検出された乗客の頭部に基づいて、該検出された乗客の頭部を含む追跡領域を設定してよい。ステップS101の処理において、追跡部313は、検出された一又は複数の乗客の顔検出を行ってよい。
 追跡部313は、画像取得部311により取得された他の第1画像を用いて、ステップS101の処理において検出された一又は複数の乗客の少なくとも一人の追跡処理を行う(ステップS102)。ステップS102の処理において、追跡部313は、検出された一又は複数の乗客の顔検出を行ってよい。ステップS101及びS102の少なくとも一方の処理において、一又は複数の乗客の少なくとも一人の顔が検出された場合、追跡部313は、少なくとも一人の顔領域を含む顔画像を、顔認証部314に送信する。
 顔認証部314は、追跡部313から送信された顔画像を用いて顔認証処理を行う(ステップS103)。顔認証部314は、顔認証処理の結果をID対応テーブル321に登録する、又は、顔認証処理の結果に基づいてID対応テーブル321を更新する(ステップS104)。
 次に、演算装置31の決定部315の動作について説明する。ここでは、乗客P2を例に挙げて説明する。決定部315は、ID対応テーブル321に基づいて、乗客P2が顔認証ゲート装置23を通過できるか否かを判定してよい。ID対応テーブル321において、乗客P2に係る追跡IDが、具体的な認証IDと対応づけられている場合、決定部315は、乗客P2について「該当者あり」と判定してよい。ID対応テーブル321において、乗客P2に係る追跡IDが、「N/A」という文字列と対応づけられている場合、決定部315は、乗客P2について「該当者なし」と判定してよい。乗客P2に係る追跡IDが、認証IDと対応づけられていない場合(即ち、認証ID欄が空欄である場合)、決定部315は、乗客P2について「未認証」であると判定してよい。
 尚、ID対応テーブル321に失敗理由情報が登録されている場合、決定部315は、次のように判定してもよい。乗客P2に係る追跡IDが、「N/A」という文字列と対応づけられており、且つ、失敗理由情報が第2理由(即ち、画像が顔認証に適切であるにもかかわらず顔認証に失敗したことを示す理由)である場合、決定部315は、乗客P2について「該当者なし」と判定してよい。乗客P2に係る追跡IDが、「N/A」という文字列と対応づけられており、且つ、失敗理由情報が第1理由(即ち、画像が顔認証に不適切であることに起因して顔認証に失敗したことを示す理由)である場合、決定部315は、乗客P2について「未認証」であると判定してよい。
 乗客P2について「該当者あり」と判定された場合、決定部315は、乗客P2の認証IDと顔DB36とに基づいて、乗客P2が顔認証ゲート装置23を通過可能であるか否かを判定してよい。例えば、判定部315は、顔DB36において認証IDと対応づけられている搭乗ゲート番号(図6参照)が、顔認証ゲート装置23が設置されている搭乗ゲート番号と一致しているか否かを判定してよい。認証IDと対応づけられている搭乗ゲート番号が、顔認証ゲート装置23が設置されている搭乗ゲート番号と一致しない場合、判定部315は、その乗客が顔認証ゲート装置23を通過できないと判定してよい。認証IDと対応づけられている搭乗ゲート番号が、顔認証ゲート装置23が設置されている搭乗ゲート番号と一致していると判定された場合、判定部315は、その乗客が顔認証ゲート装置23を通過できると判定してよい。或いは、認証IDと対応づけられている搭乗ゲート番号が、顔認証ゲート装置23が設置されている搭乗ゲート番号と一致していると判定された場合、判定部315は、顔DB36において認証IDと対応づけられている搭乗開始時刻と現在時刻とを比較して、その乗客が顔認証ゲート装置23を通過可能であるか否かを判定してもよい。
 図3に示すように顔認証ゲート装置23は搭乗ゲートG1に設置されている。乗客P2が搭乗する航空機の搭乗ゲートが搭乗ゲートG1ではない場合、決定部315は、乗客P2は顔認証ゲート装置23を通過できないと判定してよい。乗客P2が搭乗する航空機の搭乗ゲートが搭乗ゲートG1であるが、現在時刻が搭乗開始時刻よりも第2所定時間(例えば、十数分から数十分)以上前である場合、決定部315は、乗客P2は顔認証ゲート装置23を通過できないと判定してよい。乗客P2が搭乗する航空機の搭乗ゲートが搭乗ゲートG1であり、且つ、現在時刻が搭乗開始時刻よりも第2所定時間以上前ではない場合、決定部315は、乗客P2は顔認証ゲート装置23を通過できると判定してよい。
 決定部315は、乗客P2に対する判定結果として、(i)該当者あり、且つ、顔認証ゲート装置23を通過できることを示す第1判定結果、(ii)該当者ありだが、顔認証ゲート装置23を通過できないことを示す第2判定結果、(iii)該当者なしであることを示す第3判定結果、及び、(iv)未認証であることを示す第4判定結果、のいずれかを出力してよい。つまり、決定部315は、複数の乗客を、第1判定結果に該当する第1種別、第2判定結果に該当する第2種別、第3判定結果に該当する第3種別、及び、第4判定結果に該当する第4種別のいずれかに分類してよい。尚、第3種別及び第4種別は、顔認証が失敗したことを示す種別である、と言える。尚、決定部315による判定結果は、顔認証部314が行う顔認証処理の結果に基づいている。このため、決定部315による判定結果は、顔認証処理の結果又は認証結果と言い換えられてもよい。尚、決定部315は、乗客の種別を決定することで乗客を分類するので、決定部315は、種別決定手段と称されてもよい。
 決定部315は、判定結果に基づく乗客P2に係る種別と、端末位置情報により示される端末装置41及び42各々の位置とに基づいて、乗客P2に係る判定結果の優先度を決定する。決定部315は、決定された優先度に基づいて、乗客P2に係る判定結果を、端末装置41及び42の少なくとも一方に送信するか否かを決定してよい。或いは、決定部315は、決定された優先度に基づいて、乗客P2に係る判定結果を、端末装置41及び42の少なくとも一方に優先的に送信するか否かを決定してよい。
 決定部315による優先度の決定方法(言い換えれば、優先度付けの規則又は基準)は任意である。決定部315による優先度の決定方法の一例を以下に説明する。判定結果の優先度が基準よりも高い場合に、該判定結果が端末装置41及び42の少なくとも一方に送信され、判定結果の優先度が基準よりも低い場合に、該判定結果が端末装置41及び42のいずれにも送信されないものとする。尚、優先度と基準とが「等しい」場合には、どちらかの場合に含めて扱えばよい。尚、優先度は、数値で表されてもよいし、区分(例えば、高、中、低)で表されてもよい。
 決定部315は、第1種別の乗客(即ち、該当者あり、且つ、顔認証ゲート装置23を通過できると判定された乗客)に係る判定結果が、端末装置41及び42に送信されないように、該判定結果の優先度を基準より低くしてよい。
 決定部315は、第2種別の乗客(即ち、該当者ありだが、顔認証ゲート装置23を通過できないと判定された乗客)、第3種別の乗客(即ち、該当者なしと判定された乗客)、及び、第4種別の乗客(即ち、未認証であると判定された乗客)に係る判定結果が、端末装置41及び42の少なくとも一方に送信されるように、これらの判定結果の優先度を基準より高くしてよい。つまり、決定部315は、顔認証ゲート装置23を通過できない乗客に係る判定結果が、端末装置41及び42の少なくとも一方に送信されるように、該判定結果の優先度を基準より高くしてよい。
 決定部315は、端末装置41に送信される判定結果のうち、第2種別の乗客に係る判定結果の優先度を、第3種別の乗客に係る判定結果の優先度、及び、第4種別の乗客に係る判定結果の優先度よりも低くしてよい。尚、第2種別の乗客に係る判定結果の優先度は、基準よりも高い。この場合、決定部315は、第3種別の乗客に係る判定結果の優先度を、第4種別の乗客に係る判定結果の優先度よりも高くしてよい。
 決定部315は、端末装置42に送信される判定結果のうち、第2種別の乗客に係る判定結果の優先度を、第3種別の乗客に係る判定結果の優先度、及び、第4種別の乗客に係る判定結果の優先度よりも高くしてよい。尚、第3種別の乗客に係る判定結果の優先度、及び、第4種別の乗客に係る判定結果の優先度は、基準よりも高い。この場合、決定部315は、第3種別の乗客に係る判定結果の優先度を、第4種別の乗客に係る判定結果の優先度よりも高くしてよい。
 尚、決定部315は、ID対応テーブル321に失敗理由情報が登録されている場合であっても、乗客P2に係る追跡IDが、「N/A」という文字列と対応づけられている場合、失敗理由情報にかかわらず、乗客P2について「該当者なし」と判定してよい(即ち、乗客P2が第3種別の乗客であると判定してもよい)。この場合、決定部315は、失敗理由情報に基づいて、乗客P2に係る判定結果の優先度を決定してよい。決定部315は、失敗理由情報が第1理由(即ち、画像が顔認証に不適切であることに起因して顔認証に失敗したことを示す理由)を示す場合の乗客P2に係る判定結果の優先度を、失敗理由情報が第2理由(即ち、画像が顔認証に適切であるにもかかわらず顔認証に失敗したことを示す理由)を示す場合の乗客P2に係る判定結果の優先度よりも低くしてよい。
 図4に示すように、端末装置41と顔認証ゲート装置23との間の距離と、端末装置42と顔認証ゲート装置23との間の距離とは互いに異なる。このため、決定部315は、判定結果に基づく乗客(例えば、乗客P2)に係る種別と、端末装置41又は42の位置と顔認証ゲート装置23との位置関係に基づいて、上記乗客に係る判定結果の優先度を決定してよい(又は変更してよい)、と言える。
 例えば、顔認証ゲート装置23から、認証エリアRAの顔認証ゲート装置23側の端部までの距離を所定距離とする。図4において、端末装置41と顔認証ゲート装置23との間の距離は、所定距離より短いと言える。他方で、端末装置41と顔認証ゲート装置23との間の距離は、所定距離より長いと言える。
 上述したように、決定部315は、端末装置41に送信される判定結果のうち、第2種別の乗客に係る判定結果の優先度を、第3種別の乗客に係る判定結果の優先度、及び、第4種別の乗客に係る判定結果の優先度よりも低くしてよい。つまり、決定部315は、端末装置41と顔認証ゲート装置23との間の距離が所定距離より短く、且つ、乗客に係る種別が第3種別又は第4種別である場合、端末装置41と顔認証ゲート装置23との間の距離が所定距離より短く、且つ、乗客に係る種別が第2種別である場合に比べて、乗客に係る判定結果の優先度を高くしてよい、と言える。
 上述したように、決定部315は、端末装置42に送信される判定結果のうち、第2種別の乗客に係る判定結果の優先度を、第3種別の乗客に係る判定結果の優先度、及び、第4種別の乗客に係る判定結果の優先度よりも高くしてよい。つまり、決定部315は、端末装置42と顔認証ゲート装置23との間の距離が所定距離より長く、且つ、乗客に係る種別が第2種別である場合、端末装置42と顔認証ゲート装置23との間の距離が所定距離より長く、且つ、乗客に係る種別が第3種別又は第4種別である場合に比べて、乗客に係る判定結果の優先度を高くしてよい、と言える。
 決定部315の動作について、図11のフローチャートを参照して説明を加える。図11において、決定部315は、複数の乗客に夫々対応する複数の判定結果各々の優先度を決定する(ステップS201)。決定部315は、決定された優先度と、複数の判定結果とに基づいて、端末装置41及び42の少なくとも一方に送信する情報を生成する(ステップS202)。決定部315は、通信装置33を介して、ステップS202の処理において生成された情報を、端末装置41及び42の少なくとも一方に送信する。この結果、端末装置41及び42の少なくとも一方に送信された情報が、端末装置41及び42の少なくとも一方に表示されることにより、職員A1及びA2の少なくとも一方に通知される(ステップS203)。この場合、端末装置41及び42は、決定部315により決定された優先度に基づいて、通知情報の表示順を決定してよい。
 決定部315から、通信装置33を介して、端末装置41及び42の少なくとも一方に送信された情報は、端末装置41及び42の少なくとも一方に表示されることにより、職員A1及びA2の少なくとも一方に通知される。このため、ステップS202の処理において決定部315が生成する情報は、通知情報と称されてもよい。ステップS202の処理において決定部315が生成する情報を、以降、適宜「通知情報」と称する。
 尚、通知情報には、判定結果を示す情報と、該判定結果の優先度を示す情報とが含まれていてよい。通知情報には、判定結果を示す情報と、該判定結果の優先度を示す情報と、追跡部313が第1画像(即ち、カメラCAMにより生成された第1画像)から検出した乗客の画像とが含まれていてもよい。判定結果が第2種別の乗客に係る判定結果である場合、決定部315は、通知情報に、判定結果を示す情報と、該判定結果の優先度を示す情報と、第2種別の乗客に係る情報(例えば、氏名、顔画像及び搭乗ゲート番号の少なくとも一つ)とを含めてよい。
 例えば、端末装置42に、決定部315から送信された通知情報が表示される場合の端末装置42の画面の一例を図12に示す。図12において、人型を含む画像421、422及び423は、乗客(即ち、被認証者)を含む画像を表している。画像421、422及び423(即ち、乗客を含む画像)は、乗客の全身を実際に撮像した画像であってよい。このような画像は、カメラCAMにより生成された第1画像から抽出されてよい。尚、乗客を含む画像は、顔認証部314による顔認証処理で用いられた顔画像であってもよいし、人を示す記号(例えば、アイコン)であってもよい。画像421及び422を囲む枠線が破線であることは、乗客の種別が第2種別(即ち、該当者ありだが、顔認証ゲート装置23を通過できないと判定された乗客)であることを示している。画像423の枠線が実線であることは、乗客の種別が第3種別(即ち、該当者なしと判定された乗客)、又は、第4種別(即ち、未認証であると判定された乗客)であることを示している。
 尚、決定部315により生成される通知情報に、第2種別の乗客に係る情報が含まれている場合、端末装置42は、第2種別の乗客に係る情報に基づいて、乗客の氏名と具体的な誘導先とを画面に表示してもよい(図12の点線円C1参照)。尚、端末装置42は、第3種別の乗客及び第4種別の乗客の具体的な誘導先を通常ゲート装置にしてよい。
 上述したように、決定部315は、端末装置42に送信される判定結果のうち、第2種別の乗客に係る判定結果の優先度を、第3種別の乗客に係る判定結果の優先度、及び、第4種別の乗客に係る判定結果の優先度よりも高くしてよい。端末装置42は、判定結果の優先度に基づいて、判定結果の表示順を決定又は変更してよい。端末装置42は、決定又は変更された判定結果の表示順に基づいて、画面に表示される表示情報を生成してよい。この結果、端末装置42は、第2種別の乗客に係る情報を、第3種別又は第4種別の乗客に係る情報よりも優先して表示する。
 例えば、職員A2は、端末装置42に表示された情報に基づいて、優先的に対応すべき乗客を認識してよい。乗客への対応が完了した場合(例えば、乗客を適切なゲート装置に誘導し終えた場合)、職員A2は、端末装置42に表示されている「誘導完了」というボタン(図12参照)をタップしてよい。この結果、端末装置42は、「誘導完了」というボタンがタップされた乗客に係る情報が画面上から消えるように、画面を更新してよい(言い換えれば、画面に表示される表示情報を変更してよい)。端末装置42はさらに、職員A2が対応した乗客を示す情報(例えば、乗客に係る追跡ID)を、情報処理装置3に送信してよい。端末装置42から、職員A2が対応した乗客を示す情報を受信した情報処理装置3は、受信した情報により示される乗客に係る情報を、ID対応テーブル321から削除してよい。
 端末装置42の画面の一例について図12を参照して説明したが、端末装置41についても同様のことが言える。ただし、決定部315は、端末装置41に送信される判定結果のうち、第3種別の乗客に係る判定結果の優先度、及び、第4種別の乗客に係る判定結果の優先度を、第2種別の乗客に係る判定結果の優先度よりも高くしてよい。端末装置41は、判定結果の優先度に基づいて、判定結果の表示順を決定又は変更してよい。端末装置41は、決定又は変更された判定結果の表示順に基づいて、画面に表示される表示情報を生成してよい。この結果、端末装置41は、第3種別又は第4種別の乗客に係る情報を、第2種別の乗客に係る情報よりも優先して表示する。
 尚、上述した情報処理装置3の動作は、情報処理装置3が記録媒体に記録されたコンピュータプログラムを読み込むことによって実現されてよい。この場合、記録媒体には、情報処理装置3に上述の動作を実行させるためのコンピュータプログラムが記録されている、と言える。
 (技術的効果)
 情報処理装置3では、複数の乗客の種別と、端末装置(例えば、端末装置41及び42の少なくとも一方)の位置とに基づいて、複数の乗客に夫々対応する複数の判定結果の少なくとも一部の優先度が決定される。このため、情報処理装置3よれば、端末装置を所持する空港の職員(例えば、職員A1及びA2の少なくとも一方)に、優先度の高い判定結果が通知される。この結果、空港の職員は、優先的に対応すべき乗客を容易に認識することができる。例えば、空港の職員は、顔認証ゲート装置23を通過できない乗客を容易に認識(又は抽出)することができる。そして、空港の職員が、顔認証ゲート装置を通過できない人に優先的に対応すれば、顔認証ゲート装置23を通過できない乗客が、顔認証ゲート装置23に進入することを抑制することができる。従って、情報処理装置3によれば、顔認証ゲート装置のスループットの低下を抑制することができる。
 尚、情報処理装置3は、空港の搭乗ゲートに加えて、例えば、空港のセキュリティゲート(即ち、空港の保安検査場に設置されるゲート)、及び、出入国ゲートの少なくとも一方に適用されてもよい。表示制御装置3は、空港に加えて、例えば、入場及び退場の少なくとも一方に顔認証ゲート装置を用いる、オフィス、鉄道駅、テーマパーク及びイベント会場の少なくとも一つに適用されてもよい。
 (第1変形例)
 上述した第2実施形態では、情報処理装置3(具体的には、顔認証部314)が顔認証処理を行う。しかしながら、情報処理装置3は、顔認証処理を行わなくてもよい。この場合、情報処理装置3は、顔認証部314及び顔DB36を備えていなくてもよい。この場合、顔認証処理は、情報処理装置3とは異なる認証装置5により行われてもよい。この場合、図13に示すように、情報処理装置3と認証装置5とは、ネットワークNWを介して接続されていてよい。尚、情報処理装置3及び認証装置5により一つのシステムが構成されていてもよい。該一つのシステムは、情報処理システム又は認証システムと称されてもよい。尚、端末装置41及び42の少なくとも一方は、上記システムの一部を構成してもよい。言い換えれば、上記システムは、情報処理装置3、認証装置5並びに端末装置41及び42を備えていてもよい。
 認証装置5は、顔認証部51及び顔データベース52(以降、“顔DB52”と表記する)を備える。顔認証部51は、顔認証処理を実行可能に構成されている。つまり、認証装置5は、顔認証機能を有する認証装置である。尚、空港システム2の管理サーバ21は、顔DB211に登録されている顔画像の少なくとも一部を、顔画像に付与された認証ID(即ち、乗客識別情報)とともに、認証装置5に送信してよい。この場合、管理サーバ21は、顔画像に加えて、ゲート識別情報及び搭乗開始時刻を認証装置5に送信してよい。認証装置5は、管理サーバ21から送信された顔画像を顔DB52に登録してよい。認証装置5は、顔画像に加えて、ゲート識別情報及び搭乗開始時刻を顔DB52に登録してもよい。
 情報処理装置3の追跡部313は、画像取得部311により取得された画像に含まれている乗客(例えば、乗客P1)を検出してよい。尚、追跡部313は、検出された乗客の頭部を含む追跡領域を設定してよい。追跡部313は、検出された乗客の顔検出を行ってよい。その乗客の顔が検出された場合、追跡部313は、その乗客の顔領域を含む顔画像を、通信装置33を介して、認証装置5に送信してよい。
 認証装置5の顔認証部51は、情報処理装置3(具体的には、追跡部313)から送信された顔画像と、顔DB52とを用いて顔認証処理を行ってよい。顔認証部51は、顔認証処理の結果を示す情報を、情報処理装置3に送信してよい。情報処理装置3は、認証装置5(具体的には、顔認証部51)から送信された情報により示される顔認証処理の結果を、ID対応テーブル321に登録してよい。
 (第2変形例)
 追跡部313は、決定部315により未認証であると判定された乗客(即ち、第4種別の乗客)に係る追跡IDに基づいて、該乗客の位置を特定してよい。追跡部313は、該乗客の位置が、顔認証ゲート装置23の通過を待つ乗客により形成された列内である場合(即ち、上記乗客が列に並んでいる場合)、複数の第1画像(即ち、カメラCAMにより生成された複数の第1画像)を用いて、上記乗客の顔検出を行ってよい。この場合、追跡部313は、上記乗客の顔検出の頻度を、他の乗客の顔検出の頻度よりも高くしてよい。このように構成すれば、顔認証部314が、上記乗客について顔認証処理を行う頻度を、比較的高くすることができる。
 或いは、追跡部313は、ID対応テーブル321に失敗理由情報が登録されている場合、失敗理由情報が第1理由(即ち、画像が顔認証に不適切であることに起因して顔認証に失敗したことを示す理由)を示している乗客に係る追跡IDに基づいて、該乗客の位置を特定してよい。追跡部313は、該乗客の位置が、顔認証ゲート装置23の通過を待つ乗客により形成された列内である場合(即ち、上記乗客が列に並んでいる場合)、複数の第1画像(即ち、カメラCAMにより生成された複数の第1画像)を用いて、上記乗客の顔検出を行ってよい。この場合、追跡部313は、上記乗客の顔検出の頻度を、他の乗客の顔検出の頻度よりも高くしてよい。このように構成すれば、顔認証部314が、上記乗客について顔認証処理を行う頻度を、比較的高くすることができる。つまり、顔認証部314は、失敗理由情報が第1理由を示している乗客について、複数の第1画像を用いて顔認証処理を繰り返し行ってよい、と言える。
 (第3変形例)
 決定部315は、端末装置41に送信される判定結果(例えば、顔認証ゲート装置23を通過できないと判定された乗客の判定結果)のうち、顔認証ゲート装置23に近い乗客の判定結果ほど優先度が高くなるように、優先度を決定(変更)してよい。
 (第4変形例)
 決定部315は、端末装置41及び42の少なくとも一方に送信される判定結果(具体的には、第2種別の乗客、第3種別の乗客及び第4種別の乗客に係る判定結果)の優先度を、「高」及び「低」のいずれかに決定してよい。つまり、決定部315は、優先度を2種類に分類してもよい。尚、決定部315は、優先度を3種類以上に分類してもよい。尚決定部315は、優先度を数値として算出してもよい。
 決定部315から送信される通知情報に含まれる判定結果の優先度は、優先度「高」及び優先度「低」のいずれかであるものとする。この場合、図14に示すように、端末装置42は、決定部315から送信された通知情報を、タブ表示機能を用いて、優先度毎に表示してもよい。上述したように、決定部315は、端末装置42に送信される判定結果(言い換えれば、通知情報)のうち、第2種別の乗客に係る判定結果の優先度を、第3種別の乗客に係る判定結果の優先度、及び、第4種別の乗客に係る判定結果の優先度よりも高くしてよい。つまり、決定部315は、第2種別の乗客に係る判定結果の優先度を優先度「高」に決定してよい。決定部315は、第3種別の乗客に係る判定結果の優先度及び第4種別の乗客に係る判定結果の優先度を優先度「低」に決定してよい。このため、端末装置42は、「優先度:高」というタブに、第2種別の乗客に係る情報を表示してよい。端末装置42は、「優先度:低」というタブに、第3種別の乗客に係る情報及び第4種別の乗客に係る情報を表示してよい(図示せず)。
 図15に示すように、端末装置41は、決定部315から送信された通知情報を、タブ表示機能を用いて、優先度毎に表示してもよい。上述したように、決定部315は、端末装置41に送信される判定結果(言い換えれば、通知情報)のうち、第3種別又は第4種別の乗客に係る判定結果の優先度を、第2種別の乗客に係る判定結果の優先度よりも高くしてよい。つまり、決定部315は、第3種別の乗客に係る判定結果及び第4種別の乗客の判定結果の優先度を優先度「高」に決定してよい。決定部315は、第2種別の乗客に係る判定結果の優先度を優先度「低」に決定してよい。このため、端末装置41は、「優先度:高」というタブに、第3種別又は第4種別の乗客に係る情報を表示してよい。端末装置41は、「優先度:低」というタブに、第2種別の乗客に係る情報を表示してよい(図示せず)。
 決定部315から送信される通知情報には、第3種別の乗客に係る判定結果(即ち、該当者なしであることを示す判定結果)に、失敗理由情報が含まれていてもよい。端末装置41は、第3種別の乗客に係る情報を表示する場合、失敗理由情報に基づいて、顔認証が失敗した理由を画面に表示してよい。第3種別の乗客に係る判定結果に、第1理由(画像が顔認証に不適切であることに起因して顔認証に失敗したことを示す理由)を示す失敗理由情報が含まれている場合、端末装置41は、第3種別の乗客に係る情報に「エラー:未認証人物」という記載を含めてよい(図15の点線円C3参照)。第3種別の乗客に係る判定結果に、第2理由(画像が顔認証に適切であるにもかかわらず顔認証に失敗したことを示す理由)を示す失敗理由情報が含まれている場合、端末装置41は、第3種別の乗客に係る情報に「エラー:未登録人物」という記載を含めてよい(図15の点線円C2参照)。尚、端末装置41は、第4種別の乗客に係る情報に、「エラー:未登録人物」という記載を含めてもよい。
 端末装置41及び42は、職員A1及びA2の一方の対応が完了した乗客に係る情報を、「誘導完了」というタブに表示してよい。尚、端末装置41及び42の一方は、職員A1及びA2の一方により「誘導完了」というボタンがタップされた場合、「誘導完了」というボタンがタップされた乗客の状況(即ち、誘導完了)を示す状況情報を、情報処理装置3に送信してよい。尚、状況情報には、乗客に係る追跡IDと、「誘導完了」を示す情報とが含まれていてよい。端末装置41及び42の一方から状況情報を受信した情報処理装置3は、該受信した状況情報に対応する情報を、端末装置41及び42の他方に送信してよい。端末装置41及び42の他方は、情報処理装置3から受信した情報に基づいて、対応する乗客に係る情報を、「誘導完了」というタブに表示してよい。この結果、職員A1及びA2が、誘導を完了した乗客を共有することができる。
 (第5変形例)
 顔認証ゲート装置23の近傍(例えば、図4の職員A1の近傍)に、2人の職員が配置されてもよい。この場合、該2人の職員は、夫々、端末装置41a及び41bを所持していてよい。この場合、端末装置41a及び41bには、情報処理装置3から同一の情報(即ち、通知情報)が送信されてよい。このため、端末装置41a及び41bに表示される情報は同一であってよい。例えば、図16及び図17に示すように、端末装置41a及び41bには、乗客P11及びP12の情報が表示される。
 この場合、端末装置41aを所持する職員と、端末装置41bを所持する職員とが同一の乗客に対応してしまう可能性がある。そこで、端末装置41aを所持する職員が、乗客P11に対応する場合、図16に示すように、乗客P11に係る情報がピン留めされてよい。尚、図16において「誘導員a」とは、端末装置41aを所持する職員を示している。
 端末装置41aを所持する職員が所定の操作を行うことにより、乗客P11に係る情報がピン留めした場合、端末装置41aは、職員が乗客P11に対応すると判定してよい。この場合、端末装置41aは、乗客P11に係る状況(例えば、ステータス)を、「未対応」から「対応中」に変更してよい。端末装置41aは更に、乗客P11に係る状況を示す状況情報を、情報処理装置3に送信してよい。尚、状況情報には、端末装置41aを所持する職員を特定するための情報と、乗客P11に係る追跡IDと、乗客P11に係る状況(例えば、対応中)を示す情報とが含まれていてよい。
 端末装置41aから状況情報を受信した情報処理装置3は、該受信した状況情報に対応する情報を、通信装置33を介して、端末装置41bに送信してよい。尚、状況情報に対応する情報には、端末装置41aを所持する職員を特定するための情報と、乗客P11に係る追跡IDと、乗客P11に係る状況(例えば、対応中)を示す情報とが含まれていてよい。
 端末装置41bは、情報処理装置3から受信した情報に基づいて、乗客P11に係る状況を、「未対応」から「誘導員aが対応中」に変更してよい。この結果、端末装置41bを所持する職員に、端末装置41aを所持する職員が乗客P11に対応中であることが通知されてよい。このように構成すれば、端末装置41bを所持する職員は、未対応である乗客P12に対応することができる。つまり、端末装置41aを所持する職員と、端末装置41bを所持する職員とが同一の乗客に対応することを抑制することができる。
 端末装置41aは、ピン留めされた乗客P11に係る情報の表示位置を固定してもよい。このように構成すれば、端末装置41aを所持する職員が乗客に対応している期間に、乗客P11に係る情報の表示位置が変更されることを防止することができる。
 (第6変形例)
 追跡部313は、第1画像(即ち、カメラCAMにより生成された第1画像)に基づいて、複数の乗客各々の顔向き及び視線の少なくとも一方の変化を検出してよい。顔向き及び視線の検出方法には、既存の技術を適用可能である。また、検出された顔向き及び視線の少なくとも一方に基づいて、顔向き及び視線の少なくとも一方の変化を検出する方法にも、既存の技術を適用可能である。このため、これらの方法の詳細についての説明は省略する。尚、追跡部313は、顔向き及び視線の少なくとも一方の変化を検出してよいので、検出手段と称されてもよい。
 決定部315は、乗客の位置及び端末装置(例えば、端末装置41及び42の少なくとも一方)の位置に加えて、上記検出された顔向き及び視線の少なくとも一方の変化に基づいて、優先度を決定してもよい。この場合、決定部315は、上記検出された顔向き及び視線の少なくとも一方の変化が大きいほど、優先度を高くしてよい。
 (第7変形例)
 決定部315は、優先度を決定しなくてもよい。この場合、決定部315は、乗客の位置と、端末装置41及び42の位置とに基づいて、端末装置41及び42に送信する判定結果(言い換えれば、職員A1及びA2の少なくとも一方に通知する判定結果)を決定してよい。尚、端末装置41及び42に加えて、他の端末装置があってもよい。つまり、端末装置は3以上であってもよい。
 例えば、一の乗客と端末装置41との間の距離が、他の乗客と端末装置41との間の距離より短い場合、決定部315は、一の乗客に係る判定結果を、他の乗客に係る判定結果に優先して、端末装置41に送信してよい。尚、一の乗客及び他の乗客は、第2種別の乗客(即ち、該当者ありだが、顔認証ゲート装置23を通過できないと判定された乗客)、第3種別の乗客(即ち、該当者なしと判定された乗客)、又は、第4種別の乗客(即ち、未認証であると判定された乗客)であってよい。
 画像取得部311は、職員A1及びA2の少なくとも一方を含む第2画像を取得してよい。第2画像は、カメラCAMが職員A1及びA2の少なくとも一方を撮像することにより生成されてもよいし、カメラCAMとは異なるカメラが職員A1及びA2の少なくとも一方を撮像することにより生成されてもよい。
 追跡部313は、第2画像に基づいて、職員A1及びA2の少なくとも一方の顔向きを検出してよい。尚、顔向きの検出方法には、既存の技術を適用可能であるので、その詳細についての説明は省略する。尚、職員A1及びA2の少なくとも一方の顔向きの検出は、追跡部313とは異なる機能ブロックにより行われてもよい。この場合、演算装置31は、職員A1及びA2の少なくとも一方の顔向きを検出する機能ブロックを有していてもよい。尚、追跡部313は、顔向きを検出してよいので、顔向き検出手段と称されてもよい。
 決定部315は、乗客の位置、並びに、端末装置41及び42の位置に加えて、職員A1及びA2の少なくとも一方の顔向きに基づいて、端末装置41及び42に送信する判定結果(言い換えれば、職員A1及びA2の少なくとも一方に通知する判定結果)を決定してよい。
 決定部315は、職員A1の顔向きに基づいて、職員A1の顔が向いている方向に位置する一又は複数の乗客に係る判定結果から、乗客の位置及び端末装置41の位置に基づいて(例えば、乗客と端末装置41との間の距離に基づいて)、端末装置41に送信する判定結果を決定してよい。決定部315は、職員A1の顔向きに基づいて、職員A1の顔が向いていない方向に位置する一又は複数の乗客に係る判定結果を、端末装置41に送信しないことを決定してよい。
 決定部315は、職員A2の顔向きに基づいて、職員A2の顔が向いている方向に位置する一又は複数の乗客に係る判定結果から、乗客の位置及び端末装置42の位置に基づいて(例えば、乗客と端末装置42との間の距離に基づいて)、端末装置42に送信する判定結果を決定してよい。決定部315は、職員A2の顔向きに基づいて、職員A2の顔が向いていない方向に位置する一又は複数の乗客に係る判定結果を、端末装置42に送信しないことを決定してよい。
 この場合、追跡部313は、職員A1及びA2の少なくとも一方の顔向きに基づいて、職員A1及びA2の少なくとも一方が視認可能な範囲である視認範囲を推定してもよい。追跡部313は、職員A1の顔向きに基づいて、職員A1の視認範囲F1(図4参照)を推定してもよい。追跡部313は、職員A2の顔向きに基づいて、職員A2の視認範囲F2(図4参照)を推定してもよい。尚、視認範囲の推定方法には、既存の技術を適用可能であるので、その詳細についての説明は省略する。尚、顔向きの検出が、追跡部313とは異なる機能ブロックにより行われる場合、視認範囲の推定は、追跡部313とは異なる機能ブロックにより行われてよい。
 決定部315は、乗客の位置に基づいて、職員A1の視認範囲F1に含まれる一又は複数の乗客に係る判定結果を特定してよい。決定部315は、職員A1の視認範囲F1に含まれる一又は複数の乗客に係る判定結果から、乗客の位置及び端末装置41の位置に基づいて(例えば、乗客と端末装置41との間の距離に基づいて)、端末装置41に送信する判定結果を決定してよい。決定部315は、職員A1の視認範囲F1に含まれない一又は複数の乗客の判定結果を、端末装置41に送信しないことを決定してよい。
 決定部315は、乗客の位置に基づいて、職員A2の視認範囲F2に含まれる一又は複数の乗客に係る判定結果を特定してよい。決定部315は、職員A2の視認範囲F2に含まれる一又は複数の乗客に係る判定結果から、乗客の位置及び端末装置42の位置に基づいて(例えば、乗客と端末装置42との間の距離に基づいて)、端末装置42に送信する判定結果を決定してよい。決定部315は、職員A2の視認範囲F2に含まれない一又は複数の乗客の判定結果を、端末装置42に送信しないことを決定してよい。
 決定部315は、職員(例えば、職員A1及びA2の少なくとも一方)の視認範囲(例えば、視認範囲F1及びF2の少なくとも一方)に加えて、乗客の移動方向を考慮してもよい。例えば追跡部313は、複数の第1画像(即ち、カメラCAMにより生成された複数の第1画像)に基づいて、複数の乗客各々の移動方向を推定してもよい。尚、複数の画像から移動方向を推定する方法には、既存の技術を適用可能であるので、その詳細についての説明は省略する。
 決定部315は、乗客の位置に基づいて、職員A1の視認範囲F1に含まれる一又は複数の乗客に係る判定結果を特定してよい。決定部315は、職員A1の視認範囲F1に含まれる一又は複数の乗客に係る判定結果から、端末装置41の位置と乗客の移動方向とに基づいて、端末装置41に送信する判定結果を決定してよい。この場合、決定部315は、乗客の移動方向が端末装置41に近づく方向である乗客に係る判定結果を、端末装置41に送信すると決定してよい。他方で、決定部315は、乗客の移動方向が端末装置41から遠ざかる方向である乗客に係る判定結果を、端末装置41に送信しないと決定してよい。
 決定部315は、乗客の位置に基づいて、職員A2の視認範囲F2に含まれる一又は複数の乗客に係る判定結果を特定してよい。決定部315は、職員A2の視認範囲F2に含まれる一又は複数の乗客に係る判定結果から、端末装置42の位置と乗客の移動方向とに基づいて、端末装置42に送信する判定結果を決定してよい。この場合、決定部315は、乗客の移動方向が端末装置42に近づく方向である乗客に係る判定結果を、端末装置42に送信すると決定してよい。他方で、決定部315は、乗客の移動方向が端末装置42から遠ざかる方向である乗客に係る判定結果を、端末装置42に送信しないと決定してよい。
 或いは、決定部315は、端末装置(例えば、端末装置41及び42の少なくとも一方)の位置と、乗客の移動方向とに基づいて、端末装置に送信する判定結果を決定してもよい(この場合、決定部315は、職員の視認範囲を考慮しなくてよい)。
 決定部315は、複数の乗客に係る判定結果から、端末装置41の位置と乗客の移動方向とに基づいて、端末装置41に送信する判定結果を決定してよい。この場合、決定部315は、乗客の移動方向が端末装置41に近づく方向である乗客に係る判定結果を、端末装置41に送信すると決定してよい。他方で、決定部315は、乗客の移動方向が端末装置41から遠ざかる方向である乗客に係る判定結果を、端末装置41に送信しないと決定してよい。
 決定部315は、複数の乗客に係る判定結果から、端末装置42の位置と乗客の移動方向とに基づいて、端末装置42に送信する判定結果を決定してよい。この場合、決定部315は、乗客の移動方向が端末装置42に近づく方向である乗客に係る判定結果を、端末装置42に送信すると決定してよい。他方で、決定部315は、乗客の移動方向が端末装置42から遠ざかる方向である乗客に係る判定結果を、端末装置42に送信しないと決定してよい。
 この場合、端末装置41には、図18に示すような、端末装置41の位置と、複数の乗客の位置の少なくとも一部とが平面的に図示された画像が表示されてよい。尚、端末装置41の位置と、複数の乗客の位置の少なくとも一部は、空港のフロアマップに重畳して表示されてもよい。尚、空港のフロアマップには、施設情報が含まれていてもよい。施設情報には、店舗情報、及び、設備情報(例えば、トイレ、階段、エスカレータ及びエレベータホールの少なくとも一つ)が含まれていてもよい。
 図18において、黒丸M1が、端末装置41の位置を示している。複数の白丸は、乗客の位置を示している。白丸を囲む実線の四角形M11及びM12は、その乗客の種別が、第3種別(即ち、該当者なしと判定された乗客)、又は、第4種別(即ち、未認証であると判定された乗客)であることを示している。白丸を囲む破線の四角形M13は、その乗客の種別が、乗客の種別が第2種別(即ち、該当者ありだが、顔認証ゲート装置23を通過できないと判定された乗客)であることを示している。尚、端末装置41には、端末装置41の位置(図18の黒丸M1)に加えて、他の端末装置(例えば、端末装置42)の位置が表示されてもよい。
 端末装置41を所持する職員A1が、四角形M11、M12及びM13のいずれかをタップすると、タップされた(言い換えれば、選択された)四角形に対応する乗客に係る情報が、端末装置41に表示されてよい。つまり、端末装置41の画面が、例えば図15に示す画面に遷移してよい。
 具体的には、端末装置41は、職員A1が端末装置41の画面をタップすることを検出してよい。タップが検出された場合、端末装置41は、タップされた画面の位置に基づいて、職員A1がタップした乗客(例えば、四角形M11、M12及びM13のいずれかに対応する乗客)を特定してよい。端末装置41は、図18に示す画面から、該特定された乗客に係る情報を含む画面(例えば、図15に示す画面)に表示を遷移させてよい。
 また、例えば図15に示す画面が表示されている場合に、職員A1が端末装置41の画面をタップすることを検出してよい。タップが検出された場合、端末装置41は、タップされた画面の位置に基づいて、職員A1がタップした乗客を特定してよい。端末装置41は、図15に示す画面から、該特定された乗客の位置を示す画面(例えば、図18に示す画面)に表示を遷移させてよい。
 尚、端末装置41及び42の少なくとも一方は、情報処理装置3から一又は複数の判定結果を取得してよい。端末装置41及び42の一方の端末装置が、情報処理装置3から複数の判定結果を取得した場合、該一方の端末装置は、該複数の判定結果に夫々対応する複数の乗客各々の位置と、該一方の端末装置の位置とに基づいて、複数の判定結果の表示順を変更してよい。この場合、上記一方の端末装置は、該一方の端末装置の位置と、複数の乗客の位置の少なくとも一部とを図示してもよい(例えば、図18参照)。
 (第8変形例)
 決定部315は、乗客の種別と端末装置(例えば、端末装置41及び42の少なくとも一方)の位置とに基づいて優先度を決定することに代えて、乗客の位置と端末装置の位置とに基づいて、優先度を決定してよい。
 例えば、決定部315は、複数の認証結果のうち、端末装置(例えば、端末装置41及び42の少なくとも一方)までの距離が近い乗客の認証結果から順に、端末装置に表示されるように優先度を決定してよい。例えば、一の乗客と端末装置41との間の距離が、他の乗客と端末装置41との間の距離より短い場合、決定部315は、一の乗客に係る判定結果の優先度を、他の乗客に係る判定結果の優先度より高くしてよい。決定部315は、優先度に基づいて、複数の認証結果の少なくとも一部の認証結果と、該少なくとも一部の認証結果に対応する乗客の位置とを、通信装置33を介して、端末装置に送信してよい。この場合、決定部315は、優先度の高い認証結果から順に、端末装置に送信してよい。
 尚、一の乗客及び他の乗客は、第2種別の乗客(即ち、該当者ありだが、顔認証ゲート装置23を通過できないと判定された乗客)、第3種別の乗客(即ち、該当者なしと判定された乗客)、又は、第4種別の乗客(即ち、未認証であると判定された乗客)であってよい。つまり、決定部315は、第2種別の乗客、第3種別の乗客及び第4種別の乗客(言い換えれば、顔認証ゲート装置23を通過できないと判定された乗客)の判定結果についてだけ、乗客の位置及び端末装置の位置に基づいて優先度を決定してもよい。
 画像取得部311は、職員A1及びA2の少なくとも一方を含む第2画像を取得してよい。第2画像は、カメラCAMが職員A1及びA2の少なくとも一方を撮像することにより生成されてもよいし、カメラCAMとは異なるカメラが職員A1及びA2の少なくとも一方を撮像することにより生成されてもよい。
 追跡部313は、第2画像に基づいて、職員A1及びA2の少なくとも一方の顔向きを検出してよい。尚、顔向きの検出方法には、既存の技術を適用可能であるので、その詳細についての説明は省略する。尚、職員A1及びA2の少なくとも一方の顔向きの検出は、追跡部313とは異なる機能ブロックにより行われてもよい。この場合、演算装置31は、職員A1及びA2の少なくとも一方の顔向きを検出する機能ブロックを有していてもよい。尚、追跡部313は、顔向きを検出してよいので、顔向き検出手段と称されてもよい。
 決定部315は、乗客の位置、並びに、端末装置41及び42の位置に加えて、職員A1及びA2の少なくとも一方の顔向きに基づいて、判定結果の優先度を決定してよい。決定部315は、職員A1の顔が向いていない方向に位置する乗客に係る判定結果の優先度を、職員A1の顔が向いている方向に位置する乗客に係る判定結果の優先度より低くしてもよい。職員A1の顔が向いている方向に複数の乗客が存在する場合、決定部315は、該複数の乗客各々の位置と、端末装置41の位置に基づいて(例えば、複数の乗客各々と端末装置41との間の距離に基づいて)、該複数の乗客各々の判定結果の優先度を決定してよい。この場合、決定部315は、乗客と端末装置41との間の距離が短い判定結果の優先度を、乗客と端末装置41との間の距離が長い判定結果の優先度よりも高くしてよい。
 決定部315は、職員A2の顔が向いていない方向に位置する乗客に係る判定結果の優先度を、職員A2の顔が向いている方向に位置する乗客に係る判定結果の優先度より低くしてもよい。職員A2の顔が向いている方向に複数の乗客が存在する場合、決定部315は、該複数の乗客各々の位置と、端末装置42の位置に基づいて(例えば、複数の乗客各々と端末装置42との間の距離に基づいて)、該複数の乗客各々の判定結果の優先度を決定してよい。この場合、決定部315は、乗客と端末装置42との間の距離が短い判定結果の優先度を、乗客と端末装置42との間の距離が長い判定結果の優先度よりも高くしてよい。
 この場合、追跡部313は、職員A1及びA2の少なくとも一方の顔向きに基づいて、職員A1及びA2の少なくとも一方が視認可能な範囲である視認範囲を推定してもよい。追跡部313は、職員A1の顔向きに基づいて、職員A1の視認範囲F1(図4参照)を推定してもよい。追跡部313は、職員A2の顔向きに基づいて、職員A2の視認範囲F2(図4参照)を推定してもよい。尚、視認範囲の推定方法には、既存の技術を適用可能であるので、その詳細についての説明は省略する。尚、顔向きの検出が、追跡部313とは異なる機能ブロックにより行われる場合、視認範囲の推定は、追跡部313とは異なる機能ブロックにより行われてよい。
 決定部315は、乗客の位置に基づいて、職員A1の視認範囲F1に含まれる一又は複数の乗客に係る判定結果を特定してよい。決定部315は、職員A1の視認範囲F1に含まれる乗客に係る判定結果の優先度を、視認範囲F1に含まれない乗客に係る判定結果の優先度より高くしてよい。決定部315は、職員A1の視認範囲F1に含まれる複数の乗客に係る複数の判定結果について、乗客の位置及び端末装置41の位置に基づいて(例えば、乗客と端末装置41との間の距離に基づいて)、優先度を決定してもよい。この場合、決定部315は、乗客と端末装置41との間の距離が短い判定結果の優先度を、乗客と端末装置41との間の距離が長い判定結果の優先度よりも高くしてよい。
 決定部315は、乗客の位置に基づいて、職員A2の視認範囲F2に含まれる一又は複数の乗客に係る判定結果を特定してよい。決定部315は、職員A2の視認範囲F2に含まれる乗客に係る判定結果の優先度を、視認範囲F2に含まれない乗客に係る判定結果の優先度より高くしてよい。決定部315は、職員A2の視認範囲F2に含まれる複数の乗客に係る複数の判定結果について、乗客の位置及び端末装置42の位置に基づいて(例えば、乗客と端末装置42との間の距離に基づいて)、優先度を決定してもよい。この場合、決定部315は、乗客と端末装置42との間の距離が短い判定結果の優先度を、乗客と端末装置42との間の距離が長い判定結果の優先度よりも高くしてよい。
 決定部315は、職員(例えば、職員A1及びA2の少なくとも一方)の視認範囲(例えば、視認範囲F1及びF2の少なくとも一方)に加えて、乗客の移動方向を考慮してもよい。例えば追跡部313は、複数の第1画像(即ち、カメラCAMにより生成された複数の第1画像)に基づいて、複数の乗客各々の移動方向を推定してもよい。尚、複数の画像から移動方向を推定する方法には、既存の各種態様を適用可能であるので、その詳細についての説明は省略する。
 決定部315は、乗客の位置に基づいて、職員A1の視認範囲F1に含まれる一又は複数の乗客に係る判定結果を特定してよい。決定部315は、端末装置41の位置と乗客の移動方向とに基づいて、職員A1の視認範囲F1に含まれる一又は複数の乗客に係る判定結果の優先度を決定してよい。この場合、決定部315は、乗客の移動方向が端末装置41に近づく方向である乗客に係る判定結果の優先度を、乗客の移動方向が端末装置41から遠ざかる方向である乗客に係る判定結果の優先度より高くしてよい。
 決定部315は、乗客の位置に基づいて、職員A2の視認範囲F2に含まれる一又は複数の乗客に係る判定結果を特定してよい。決定部315は、端末装置42の位置と乗客の移動方向とに基づいて、職員A2の視認範囲F2に含まれる一又は複数の乗客に係る判定結果の優先度を決定してよい。この場合、決定部315は、乗客の移動方向が端末装置42に近づく方向である乗客に係る判定結果の優先度を、乗客の移動方向が端末装置42から遠ざかる方向である乗客に係る判定結果の優先度より高くしてよい。
 或いは、決定部315は、端末装置(例えば、端末装置41及び42の少なくとも一方)の位置と、乗客の移動方向とに基づいて、判定結果の優先度を決定してもよい(この場合、決定部315は、職員の視認範囲を考慮しなくてよい)。
 決定部315は、端末装置41の位置と乗客の移動方向とに基づいて、判定結果の優先度を決定してよい。この場合、決定部315は、乗客の移動方向が端末装置41に近づく方向である乗客に係る判定結果の優先度を、乗客の移動方向が端末装置41から遠ざかる方向である乗客に係る判定結果の優先度より高くしてよい。
 決定部315は、端末装置42と乗客の移動方向とに基づいて、判定結果の優先度を決定してよい。この場合、決定部315は、乗客の移動方向が端末装置42に近づく方向である乗客に係る判定結果の優先度を、乗客の移動方向が端末装置42から遠ざかる方向である乗客に係る判定結果の優先度より高くしてよい。
 この場合、端末装置41には、図18に示すような、端末装置41の位置と、複数の乗客の位置の少なくとも一部とが平面的に図示された画像が表示されてよい。尚、端末装置41の位置と、複数の乗客の位置の少なくとも一部は、空港のフロアマップに重畳して表示されてもよい。尚、空港のフロアマップには、施設情報が含まれていてもよい。施設情報には、店舗情報、及び、設備情報(例えば、トイレ、階段、エスカレータ及びエレベータホールの少なくとも一つ)が含まれていてもよい。
 図18において、黒丸M1が、端末装置41の位置を示している。複数の白丸は、乗客の位置を示している。白丸を囲む実線の四角形M11及びM12は、その乗客の種別が、第3種別(即ち、該当者なしと判定された乗客)、又は、第4種別(即ち、未認証であると判定された乗客)であることを示している。白丸を囲む破線の四角形M13は、その乗客の種別が、乗客の種別が第2種別(即ち、該当者ありだが、顔認証ゲート装置23を通過できないと判定された乗客)であることを示している。尚、端末装置41には、端末装置41の位置(図18の黒丸M1)に加えて、他の端末装置(例えば、端末装置42)の位置が表示されてもよい。
 端末装置41を所持する職員A1が、四角形M11、M12及びM13のいずれかをタップすると、タップされた(言い換えれば、選択された)四角形に対応する乗客に係る情報が、端末装置41に表示されてよい。つまり、端末装置41の画面が、例えば図15に示す画面に遷移してよい。
 具体的には、端末装置41は、職員A1が端末装置41の画面をタップすることを検出してよい。タップが検出された場合、端末装置41は、タップされた画面の位置に基づいて、職員A1がタップした乗客(例えば、四角形M11、M12及びM13のいずれかに対応する乗客)を特定してよい。端末装置41は、図18に示す画面から、該特定された乗客に係る情報を含む画面(例えば、図15に示す画面)に表示を遷移させてよい。
 また、例えば図15に示す画面が表示されている場合に、職員A1が端末装置41の画面をタップすることを検出してよい。タップが検出された場合、端末装置41は、タップされた画面の位置に基づいて、職員A1がタップした乗客を特定してよい。端末装置41は、図15に示す画面から、該特定された乗客の位置を示す画面(例えば、図18に示す画面)に表示を遷移させてよい。
 尚、情報処理装置3は、顔認証部314を備えなくてもよい。この場合、上述した第1変形例と同様に、顔認証処理は、情報処理装置3とは異なる認証装置5により行われてもよい。この場合、情報処理装置3及び認証装置5により、一つの情報処理システムが構成されてもよい。該情報処理システムは、複数の乗客が通過する所定領域RAを含む第1画像を取得する画像取得部311と、第1画像を用いて顔認証を行う顔認証部51と、職員(例えば、職員A1及びA2の少なくとも一方)が所持する端末装置(例えば、端末装置41及び42の少なくとも一方)の位置を取得する情報取得部312と、端末装置の位置と、第1画像に基づいて検出された複数の乗客の位置とに基づいて、顔認証の複数の認証結果を通知する優先度を決定する決定部315と、を備える、と言える。
 <第3実施形態>
 情報処理装置の第3実施形態について説明する。以下では、情報処理装置3及び端末装置6を用いて、情報処理装置、情報処理方法及び記録媒体の第3実施形態を説明する。第3実施形態では、決定部315の動作の一部が、上述した第2実施形態と異なる。第3実施形態に係るその他の点については第2実施形態と同様であってよい。尚、端末装置6は、上述した第2実施形態における端末装置41及び42の少なくとも一方に相当する端末装置である。
 図19において、端末装置6は、演算装置61、記憶装置62、通信装置63、入力装置64及び出力装置65を備える。演算装置61、記憶装置62、通信装置63、入力装置64及び出力装置65は、データバス66を介して接続されていてよい。演算装置61は、論理的に実現される機能ブロックとして、又は、物理的に実現される処理回路として、情報取得部611及び決定部612を有する。端末装置6は、ネットワークNWを介して情報処理装置3に接続されてよい。
 演算装置61の情報取得部611は、情報処理装置3からID対応テーブル321を取得してよい。情報取得部611は、ID対応テーブル321を記憶装置62に記憶させてよい。
 演算装置61の決定部612は、ID対応テーブル321に基づいて、複数の乗客各々について判定結果を出力してよい。決定部612は、複数の乗客各々の判定結果として、(i)該当者あり、且つ、顔認証ゲート装置23を通過できることを示す第1判定結果、(ii)該当者ありだが、顔認証ゲート装置23を通過できないことを示す第2判定結果、(iii)該当者なしであることを示す第3判定結果、及び、(iv)未認証であることを示す第4判定結果、のいずれかを出力してよい。つまり、決定部612は、複数の乗客を、第1判定結果に該当する第1種別、第2判定結果に該当する第2種別、第3判定結果に該当する第3種別、及び、第4判定結果に該当する第4種別のいずれかに分類してよい。
 決定部612は、判定結果に基づく乗客に係る種別と、端末装置6の位置(即ち、自身の位置)とに基づいて、その乗客に係る判定結果の優先度を決定してよい。決定部612は、決定された優先度に基づいて、その乗客に係る判定結果を表示するか否かを決定してよい。つまり、決定部612は、優先度に基づいて表示内容を変更してよい。優先度に基づいて表示内容が変更されるので、優先度は、「表示の優先度」と称されてもよい。
 尚、本実施形態では、情報処理装置3は決定部315を有していなくてもよい。或いは、決定部315は、ID対応テーブル321に基づいて、複数の乗客各々について判定結果を出力してよい。決定部315は、複数の乗客各々についての判定結果を、通信装置33を介して端末装置6に送信してよい。決定部612は、決定部315から送信された複数の乗客各々についての判定結果に基づく一の乗客に係る種別と、端末装置6の位置とに基づいて、一の乗客に係る判定結果の優先度を決定してよい。尚、優先度は、情報処理装置3の決定部315により決定されてよい。この場合、決定部612は、決定部315により決定された優先度に基づいて、判定結果を表示するか否かを決定してよい。
 尚、上述した端末装置6の動作は、端末装置6が記録媒体に記録されたコンピュータプログラムを読み込むことによって実現されてよい。この場合、記録媒体には、端末装置6に上述の動作を実行させるためのコンピュータプログラムが記録されている、と言える。
 (技術的効果)
 情報処理装置3によれば、顔認証ゲート装置23を通過できない人が、顔認証ゲート装置23に進入することを抑制することができる。従って、情報処理装置3によれば、顔認証ゲート装置23のスループットの低下を抑制することができる。
 (変形例)
 上述した第2実施形態の第8変形例と同様に、決定部612は、乗客の位置と端末装置の位置とに基づいて、優先度を決定してよい。決定部612は、該決定された優先度に基づいて表示内容を変更してよい。
 <付記>
 以上に説明した実施形態に関して、更に以下の付記を開示する。
 (付記1)
 顔認証ゲート装置を含む複数のゲート装置のいずれかに向かう複数の人が通過する所定領域を含む画像を取得する画像取得手段と、
 前記画像を用いて行われた顔認証の複数の認証結果の少なくとも一部を表示する端末装置の位置情報を取得する情報取得手段と、
 前記複数の認証結果の少なくとも一部を通知する優先度を、前記複数の認証結果に対応する種別と、前記位置情報とに基づいて決定する決定手段と、
 を備える
 情報処理装置。
 (付記2)
 前記決定手段は、前記位置情報と前記顔認証ゲート装置の位置とに基づいて、前記優先度を決定する
 付記1に記載の情報処理装置。
 (付記3)
 前記種別は、少なくとも認証失敗であることを示す第1種別、前記顔認証ゲート装置を通過可能であることを示す第2種別、及び、前記複数のゲート装置とは異なるゲート装置の利用者であることを示す第3種別の中から決定され、
 前記決定手段は、前記種別が前記第1種別である場合は、前記種別が前記第3種別である場合に比べて前記優先度を高く決定する
 付記1又は2に記載の情報処理装置。
 (付記4)
 前記決定手段は、前記端末装置と前記顔認証ゲート装置との間の距離が所定距離より短い場合は、前記距離が前記所定距離より長い場合に比べて前記優先度を高く決定する
 付記1乃至3のいずれか一項に記載の情報処理装置。
 (付記5)
 前記種別が前記第1種別である場合、前記認証結果は、前記顔認証が失敗した理由を示す失敗理由情報を含み、
 前記決定手段は、前記失敗理由情報に基づいて前記優先度を決定する
 付記3に記載の情報処理装置。
 (付記6)
 前記失敗理由情報は、前記顔認証が失敗した理由として、前記画像が前記顔認証に不適切であることに起因して前記顔認証に失敗したことを示す第1理由、又は、前記画像が前記顔認証に適切であるにもかかわらず前記顔認証に失敗したことを示す第2理由を示し、
 前記決定手段は、前記失敗理由情報が前記第1理由を示す場合は、前記失敗理由情報が前記第2理由を示す場合に比べて前記優先度を低く決定する
 付記5に記載の情報処理装置。
 (付記7)
 当該情報処理装置は、前記顔認証を行う認証手段を備え、
 前記認証手段は、前記失敗理由情報が前記第1理由を示す認証結果に対応する人について、前記画像取得手段により取得された複数の画像を用いて前記顔認証を繰り返し行う
 付記6に記載の情報処理装置。
 (付記8)
 当該情報処理装置は、前記顔認証を行う認証手段を備える
 付記1乃至6のいずれか一項に記載の情報処理装置。
 (付記9)
 当該情報処理装置は、前記種別を決定する種別決定手段を備える
 付記1乃至8のいずれか一項に記載の情報処理装置。
 (付記10)
 当該情報処理装置は、前記画像に基づいて、前記人の顔向き及び視線の少なくとも一方の変化を検出する検出手段を備え、
 前記決定手段は、前記検出された顔向き及び視線の少なくとも一方の変化に基づいて、前記優先度を決定する
 付記1乃至9のいずれか一項に記載の情報処理装置。
 (付記11)
 当該情報処理装置は、前記認証結果と、決定された前記優先度とを前記端末装置に送信する通信手段を備える
 付記1乃至10のいずれか一項に記載の情報処理装置。
 (付記12)
 前記通信手段は、複数の前記端末装置に、前記認証結果と、決定された前記認証結果の優先度を送信し、
 前記通信手段は、前記複数の端末装置の一つから、前記認証結果に対応する前記人の状況を示す状況情報を受信した場合、前記受信した状況情報に対応する情報を他方の前記複数の端末装置に送信する
 付記11に記載の情報処理装置。
 (付記13)
 顔認証ゲート装置を含む複数のゲート装置のいずれかに向かう複数の人が通過する所定領域を含む画像を取得し、
 前記画像を用いて行われた顔認証の複数の認証結果の少なくとも一部を表示する端末装置の位置情報を取得し、
 前記複数の認証結果の少なくとも一部を通知する優先度を、前記複数の認証結果に対応する種別と、前記位置情報とに基づいて決定する
 情報処理方法。
 (付記14)
 コンピュータに、
 顔認証ゲート装置を含む複数のゲート装置のいずれかに向かう複数の人が通過する所定領域を含む画像を取得し、
 前記画像を用いて行われた顔認証の複数の認証結果の少なくとも一部を表示する端末装置の位置情報を取得し、
 前記複数の認証結果の少なくとも一部を通知する優先度を、前記複数の認証結果に対応する種別と、前記位置情報とに基づいて決定する
 情報処理方法を実行させるためのコンピュータプログラムが記録されている記録媒体。
 (付記15)
 ユーザが所持する端末装置であって、
 顔認証ゲート装置を含む複数のゲートのいずれかに向かう複数の人が通過する所定領域を含む画像を用いて行われた顔認証の複数の認証結果の少なくとも一部を取得する取得手段と、
 表示の優先度に基づいて、表示内容を変更する表示手段と、
 を備え、
 前記表示内容は、前記複数の認証結果の少なくとも一部を含み、
 前記優先度は、前記前記複数の認証結果に対応する種別と、当該端末装置の位置とに基づいて決定される
 端末装置。
 (付記16)
 顔認証ゲート装置と、
 前記顔認証ゲート装置を含む複数のゲート装置のいずれかに向かう複数の人が通過する所定領域を含む画像を取得する画像取得手段と、
 前記画像を用いて顔認証を行う認証手段と、
 前記顔認証の複数の認証結果の少なくとも一部を表示する端末装置の位置情報を取得する情報取得手段と、
 前記複数の認証結果の少なくとも一部を通知する優先度を、前記複数の認証結果に対応する種別と、前記位置情報とに基づいて決定する決定手段と、
 を備える情報処理システム。
 この開示は、上述した実施形態に限られるものではなく、請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う情報処理装置、情報処理方法及び記録媒体もまたこの開示の技術的範囲に含まれるものである。
 1、3 情報処理装置
 2 空港システム
 5 認証装置
 6、41、42 端末装置
 11、311 画像取得部
 12、312 情報取得部
 13、315 決定部
 21 管理サーバ
 22 チェックイン端末
 23 顔認証ゲート装置
 24 通常ゲート装置
 31 演算装置
 32 記憶装置
 33 通信装置
 34 入力装置
 35 出力装置
 36、52、211、232 顔データベース
 51、314 顔認証部
 313 追跡部

Claims (17)

  1.  顔認証ゲート装置を含む複数のゲート装置のいずれかに向かう複数の人が通過する所定領域を含む画像を取得する画像取得手段と、
     前記画像を用いて行われた顔認証の複数の認証結果の少なくとも一部を表示する端末装置の位置情報を取得する情報取得手段と、
     前記複数の認証結果の少なくとも一部を通知する優先度を、前記複数の認証結果に対応する種別と、前記位置情報とに基づいて決定する決定手段と、
     を備える
     情報処理装置。
  2.  前記決定手段は、前記位置情報と前記顔認証ゲート装置の位置とに基づいて、前記優先度を決定する
     請求項1に記載の情報処理装置。
  3.  前記種別は、少なくとも認証失敗であることを示す第1種別、前記顔認証ゲート装置を通過可能であることを示す第2種別、及び、前記複数のゲート装置とは異なるゲート装置の利用者であることを示す第3種別の中から決定され、
     前記決定手段は、前記種別が前記第1種別である場合は、前記種別が前記第3種別である場合に比べて前記優先度を高く決定する
     請求項1又は2に記載の情報処理装置。
  4.  前記決定手段は、前記端末装置と前記顔認証ゲート装置との間の距離が所定距離より短い場合は、前記距離が前記所定距離より長い場合に比べて前記優先度を高く決定する
     請求項1乃至3のいずれか一項に記載の情報処理装置。
  5.  前記種別が前記第1種別である場合、前記認証結果は、前記顔認証が失敗した理由を示す失敗理由情報を含み、
     前記決定手段は、前記失敗理由情報に基づいて前記優先度を決定する
     請求項3に記載の情報処理装置。
  6.  前記失敗理由情報は、前記顔認証が失敗した理由として、前記画像が前記顔認証に不適切であることに起因して前記顔認証に失敗したことを示す第1理由、又は、前記画像が前記顔認証に適切であるにもかかわらず前記顔認証に失敗したことを示す第2理由を示し、
     前記決定手段は、前記失敗理由情報が前記第1理由を示す場合は、前記失敗理由情報が前記第2理由を示す場合に比べて前記優先度を低く決定する
     請求項5に記載の情報処理装置。
  7.  当該情報処理装置は、前記顔認証を行う認証手段を備え、
     前記認証手段は、前記失敗理由情報が前記第1理由を示す認証結果に対応する人について、前記画像取得手段により取得された複数の画像を用いて前記顔認証を繰り返し行う
     請求項6に記載の情報処理装置。
  8.  当該情報処理装置は、前記顔認証を行う認証手段を備える
     請求項1乃至6のいずれか一項に記載の情報処理装置。
  9.  当該情報処理装置は、前記種別を決定する種別決定手段を備える
     請求項1乃至8のいずれか一項に記載の情報処理装置。
  10.  当該情報処理装置は、前記画像に基づいて、前記人の顔向き及び視線の少なくとも一方の変化を検出する検出手段を備え、
     前記決定手段は、前記検出された顔向き及び視線の少なくとも一方の変化に基づいて、前記優先度を決定する
     請求項1乃至9のいずれか一項に記載の情報処理装置。
  11.  当該情報処理装置は、前記認証結果と、決定された前記優先度とを前記端末装置に送信する通信手段を備える
     請求項1乃至10のいずれか一項に記載の情報処理装置。
  12.  前記通信手段は、複数の前記端末装置に、前記認証結果と、決定された前記認証結果の優先度を送信し、
     前記通信手段は、前記複数の端末装置の一つから、前記認証結果に対応する前記人の状況を示す状況情報を受信した場合、前記受信した状況情報に対応する情報を他方の前記複数の端末装置に送信する
     請求項11に記載の情報処理装置。
  13.  顔認証ゲート装置を含む複数のゲート装置のいずれかに向かう複数の人が通過する所定領域を含む画像を取得し、
     前記画像を用いて行われた顔認証の複数の認証結果の少なくとも一部を表示する端末装置の位置情報を取得し、
     前記複数の認証結果の少なくとも一部を通知する優先度を、前記複数の認証結果に対応する種別と、前記位置情報とに基づいて決定する
     情報処理方法。
  14.  コンピュータに、
     顔認証ゲート装置を含む複数のゲート装置のいずれかに向かう複数の人が通過する所定領域を含む画像を取得し、
     前記画像を用いて行われた顔認証の複数の認証結果の少なくとも一部を表示する端末装置の位置情報を取得し、
     前記複数の認証結果の少なくとも一部を通知する優先度を、前記複数の認証結果に対応する種別と、前記位置情報とに基づいて決定する
     情報処理方法を実行させるためのコンピュータプログラムが記録されている記録媒体。
  15.  ユーザが所持する端末装置であって、
     顔認証ゲート装置を含む複数のゲートのいずれかに向かう複数の人が通過する所定領域を含む画像を用いて行われた顔認証の複数の認証結果の少なくとも一部を取得する取得手段と、
     表示の優先度に基づいて、表示内容を変更する表示手段と、
     を備え、
     前記表示内容は、前記複数の認証結果の少なくとも一部を含み、
     前記優先度は、前記前記複数の認証結果に対応する種別と、当該端末装置の位置とに基づいて決定される
     端末装置。
  16.  当該端末装置は、前記認証結果に対応する種別と、当該端末装置の位置とに基づいて、前記優先度を決定する決定手段を備える
     請求項15に記載の端末装置。
  17.  顔認証ゲート装置と、
     前記顔認証ゲート装置を含む複数のゲート装置のいずれかに向かう複数の人が通過する所定領域を含む画像を取得する画像取得手段と、
     前記画像を用いて顔認証を行う認証手段と、
     前記顔認証の複数の認証結果の少なくとも一部を表示する端末装置の位置情報を取得する情報取得手段と、
     前記複数の認証結果の少なくとも一部を通知する優先度を、前記複数の認証結果に対応する種別と、前記位置情報とに基づいて決定する決定手段と、
     を備える情報処理システム。
PCT/JP2022/038817 2022-10-18 2022-10-18 情報処理装置、情報処理制御方法及び記録媒体 WO2024084596A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/038817 WO2024084596A1 (ja) 2022-10-18 2022-10-18 情報処理装置、情報処理制御方法及び記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/038817 WO2024084596A1 (ja) 2022-10-18 2022-10-18 情報処理装置、情報処理制御方法及び記録媒体

Publications (1)

Publication Number Publication Date
WO2024084596A1 true WO2024084596A1 (ja) 2024-04-25

Family

ID=90737127

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/038817 WO2024084596A1 (ja) 2022-10-18 2022-10-18 情報処理装置、情報処理制御方法及び記録媒体

Country Status (1)

Country Link
WO (1) WO2024084596A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002366983A (ja) * 2001-06-13 2002-12-20 Oki Electric Ind Co Ltd 搭乗管理システム
JP2016053896A (ja) * 2014-09-04 2016-04-14 グローリー株式会社 ゲートシステムおよびゲート通過の制御方法
CN109472911A (zh) * 2019-01-14 2019-03-15 中国科学院重庆绿色智能技术研究院 一种无纸化通关系统、方法、计算机可读存储介质及设备
US20200047346A1 (en) * 2016-10-13 2020-02-13 Lg Electronics Inc. Robot and robot system comprising same
JP2021056869A (ja) * 2019-09-30 2021-04-08 株式会社デンソーウェーブ 施設利用者管理システム
WO2021199338A1 (ja) * 2020-03-31 2021-10-07 日本電気株式会社 情報処理装置、情報処理方法及び記録媒体

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002366983A (ja) * 2001-06-13 2002-12-20 Oki Electric Ind Co Ltd 搭乗管理システム
JP2016053896A (ja) * 2014-09-04 2016-04-14 グローリー株式会社 ゲートシステムおよびゲート通過の制御方法
US20200047346A1 (en) * 2016-10-13 2020-02-13 Lg Electronics Inc. Robot and robot system comprising same
CN109472911A (zh) * 2019-01-14 2019-03-15 中国科学院重庆绿色智能技术研究院 一种无纸化通关系统、方法、计算机可读存储介质及设备
JP2021056869A (ja) * 2019-09-30 2021-04-08 株式会社デンソーウェーブ 施設利用者管理システム
WO2021199338A1 (ja) * 2020-03-31 2021-10-07 日本電気株式会社 情報処理装置、情報処理方法及び記録媒体

Similar Documents

Publication Publication Date Title
US11631278B2 (en) Face recognition system, face recognition method, and storage medium
US11798332B2 (en) Information processing apparatus, information processing system, and information processing method
JP2007058763A (ja) 入場管理システムおよび入場管理方法
JP7223296B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2024003090A (ja) 情報処理装置、情報処理方法及びプログラム
WO2024084596A1 (ja) 情報処理装置、情報処理制御方法及び記録媒体
WO2024084597A1 (ja) 情報処理装置、情報処理制御方法及び記録媒体
WO2021059537A1 (ja) 情報処理装置、端末装置、情報処理システム、情報処理方法及び記録媒体
WO2024084595A1 (ja) 情報処理装置、情報処理制御方法及び記録媒体
WO2024084594A1 (ja) 表示制御装置、表示制御方法及び記録媒体
WO2021029047A1 (ja) 情報処理装置、情報処理方法及び記録媒体
JP7363981B2 (ja) システム、サーバ装置、サーバ装置の制御方法及びプログラム
WO2023162041A1 (ja) サーバ装置、システム、サーバ装置の制御方法及び記憶媒体
JP7327651B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20230368639A1 (en) Server device, visitor notification system, visitor notification method, and storage medium
EP4016480A1 (en) Access control system screen capture facial detection and recognition
JP7392771B2 (ja) 端末、端末の制御方法及びプログラム
WO2023145059A1 (ja) 入場管理装置、入場管理方法およびプログラム記憶媒体
JP7028385B1 (ja) サーバ装置、システム、サーバ装置の制御方法及びコンピュータプログラム
WO2022038709A1 (ja) 情報処理装置、情報処理方法及び記録媒体
JP7127703B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP7004128B1 (ja) サーバ装置、システム、サーバ装置の制御方法及びコンピュータプログラム
WO2021181638A1 (ja) 情報処理装置、情報処理方法、及び、コンピュータ読み取り可能な記録媒体
WO2024111119A1 (ja) 認証システム、認証方法及び記録媒体
US20230117261A1 (en) Information processing apparatus, information processing method, and storagemedium