WO2021029047A1 - 情報処理装置、情報処理方法及び記録媒体 - Google Patents

情報処理装置、情報処理方法及び記録媒体 Download PDF

Info

Publication number
WO2021029047A1
WO2021029047A1 PCT/JP2019/031979 JP2019031979W WO2021029047A1 WO 2021029047 A1 WO2021029047 A1 WO 2021029047A1 JP 2019031979 W JP2019031979 W JP 2019031979W WO 2021029047 A1 WO2021029047 A1 WO 2021029047A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
history information
procedure
management server
terminal
Prior art date
Application number
PCT/JP2019/031979
Other languages
English (en)
French (fr)
Inventor
憲由 平本
和義 高橋
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to EP19941253.7A priority Critical patent/EP4016483A4/en
Priority to US16/652,612 priority patent/US11816195B2/en
Priority to PCT/JP2019/031979 priority patent/WO2021029047A1/ja
Priority to JP2021539774A priority patent/JP7045646B2/ja
Publication of WO2021029047A1 publication Critical patent/WO2021029047A1/ja
Priority to JP2022041971A priority patent/JP7393726B2/ja
Priority to US18/376,087 priority patent/US20240028682A1/en
Priority to JP2023198094A priority patent/JP2024020501A/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/604Tools and structures for managing or administering access control systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07BTICKET-ISSUING APPARATUS; FARE-REGISTERING APPARATUS; FRANKING APPARATUS
    • G07B11/00Apparatus for validating or cancelling issued tickets
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07BTICKET-ISSUING APPARATUS; FARE-REGISTERING APPARATUS; FRANKING APPARATUS
    • G07B15/00Arrangements or apparatus for collecting fares, tolls or entrance fees at one or more control points
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/20Individual registration on entry or exit involving the use of a pass
    • G07C9/22Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder
    • G07C9/25Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder using biometric data, e.g. fingerprints, iris scans or voice recognition
    • G07C9/257Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder using biometric data, e.g. fingerprints, iris scans or voice recognition electronically

Definitions

  • the present invention relates to an information processing device, an information processing method, and a recording medium.
  • biometric information such as a face image is used as a boarding pass, and procedures are performed by biometric authentication in a plurality of procedure areas (security checkpoint, departure examination area, boarding gate, etc.) without presenting a ticket medium.
  • procedure areas security checkpoint, departure examination area, boarding gate, etc.
  • Patent Document 1 As illustrated in Patent Document 1, at the current airport, passengers can freely select either a biometric method or a conventional method of reading a recording medium such as a boarding pass with a terminal device, and use an aircraft. We are in the process of boarding. However, in order to improve the throughput in the airport, it is required to further promote the use of biometric authentication by passengers.
  • an object of the present invention is to provide an information processing device, an information processing method, and a recording medium capable of promoting the use of biometric authentication in passenger boarding procedures.
  • first history information indicating that the procedure for boarding a passenger in the airport was executed by biometrics
  • second history information indicating that the procedure was executed by reading a medium.
  • An information processing device including an acquisition unit for acquiring the above and an output unit for outputting the usage status of the biometric authentication in the procedure based on the first history information and the second history information is provided.
  • first history information indicating that the procedure for boarding a passenger in the airport was executed by biometrics
  • second history information indicating that the procedure was executed by reading a medium.
  • An information processing method including a step of acquiring the above-mentioned first history information and a step of outputting the usage status of the biometric authentication in the procedure based on the first history information and the second history information is provided.
  • the computer is shown with first history information indicating that the procedure for boarding a passenger in the airport has been performed by biometrics and that the procedure has been performed by reading the medium.
  • the medium is provided.
  • an information processing device an information processing method and a recording medium capable of promoting the use of biometric authentication in a passenger boarding procedure.
  • FIG. 1 is a block diagram showing an overall configuration example of the information processing system 1 according to the present embodiment.
  • the information processing system 1 is a computer system that manages and supports operations related to examination procedures at the time of entry / exit of a user (hereinafter, also referred to as “passenger”) U at airport A.
  • the information processing system 1 is operated by, for example, a public institution such as an immigration control bureau or a trustee entrusted with the business by the institution.
  • the reservation system 2 is a computer system provided in an airline company.
  • the reservation system 2 includes a reservation information database 3 that manages boarding reservation information. Although only one reservation system 2 is shown in FIG. 1 for convenience of explanation, the reservation system 2 is provided for each of a plurality of airlines.
  • the check-in terminal 20, the automatic baggage deposit machine 30, the security inspection device 40, the automated gate device 50, and the boarding gate device 60 are connected to the common management server 10 via the network NW1. Each is connected.
  • the check-in terminal 20, the automatic baggage deposit machine 30, the security inspection device 40, the automated gate device 50 and the boarding gate device 60 are connected to a server (not shown) via the network NW2.
  • the business terminals 22 (32, 42, 52, 62) used by the staff members S1 to S5 are connected to the management server 10 via the network NW1 and to the server of the reservation system 2 via the network NW2.
  • the business terminal 22 (32, 42, 52, 62) may be connected to the networks NW1 and NW2 via an access point (not shown).
  • the networks NW1 and NW2 are composed of a LAN (Local Area Network) including a premises communication network of Airport A, a WAN (Wide Area Network), a mobile communication network, and the like.
  • the connection method is not limited to the wired method and may be a wireless method.
  • the networks NW1 and NW2 are different networks. That is, in the present embodiment, it is assumed that the information processing system 1 is not directly connected to the reservation system 2.
  • the management server 10 is provided in, for example, a facility such as an airport company that operates Airport A.
  • the management server 10 may be a cloud server instead of a server installed in a facility where business is actually performed. Further, the management server 10 does not have to be a single server, and may be configured as a server group including a plurality of servers.
  • the examination procedure at the time of departure at Airport A is carried out sequentially at five touch points P1 to P5.
  • the relationship between each device and the touch points P1 to P5 will be described.
  • the check-in terminal 20 is installed in the check-in lobby (hereinafter referred to as "touch point P1") in Airport A.
  • the check-in terminal 20 is a self-terminal for the user U to perform the check-in procedure by himself / herself.
  • the business terminal 22 is installed at a manned counter in the check-in lobby.
  • the clerk S1 uses the business terminal 22 to carry out the check-in procedure of the user U.
  • the check-in procedure is a procedure for registering information for identifying a user U who is scheduled to board an aircraft. When the user U completes the procedure at the touch point P1, the user U moves to the baggage counter or the security checkpoint.
  • the automatic baggage deposit machine 30 is installed at the baggage counter (hereinafter referred to as "touch point P2") in Airport A.
  • the automatic baggage deposit machine 30 is a self-terminal for the user U to perform a procedure (baggage deposit procedure) for depositing baggage that is not brought into the aircraft by himself / herself.
  • the business terminal 32 is installed in a manned baggage counter.
  • the clerk S3 uses the business terminal 32 to carry out the baggage deposit procedure of the user U.
  • the user U completes the procedure at the touch point P2
  • the user U moves to the security checkpoint. If the user U does not check the baggage, the procedure at the touch point P2 is omitted.
  • the security inspection device 40 is installed at the security inspection site (hereinafter referred to as "touch point P3") in Airport A.
  • the security inspection device 40 is a device that confirms whether or not the user U is wearing metals that can be dangerous substances by using a metal detector.
  • the phrase "security inspection device" in the present embodiment includes not only a metal detector, but also an X-ray inspection device that uses X-rays to check the presence or absence of dangerous substances in carry-on baggage, etc., and security inspections. It is used to include the terminal device of the Passenger Reconciliation System (PRS) that determines whether or not the user U can pass at the entrance of the venue.
  • PRS Passenger Reconciliation System
  • the user U who has completed the check-in procedure and the automatic baggage check-in procedure undergoes the security inspection procedure by the security inspection device 40 at the security checkpoint. When the user U completes the procedure at the touch point P3, the user U moves to the immigration checkpoint.
  • the automated gate device 50 is installed at the immigration checkpoint (hereinafter referred to as "touch point P4") in Airport A.
  • the automated gate device 50 is a device that automatically performs the departure examination procedure of the user U.
  • the business terminal 52 is installed at a manned counter at the immigration checkpoint.
  • the clerk S4 uses the business terminal 52 to perform the departure examination procedure of the user U.
  • the user U completes the procedure at the touch point P4, the user U moves to the departure area where the duty-free shop and the boarding gate are provided.
  • the boarding gate device 60 is a traffic control device installed for each boarding gate (hereinafter referred to as "touch point P5") in the departure area.
  • the boarding gate device 60 confirms that the user U is a passenger of an aircraft that can board from the boarding gate.
  • the business terminal 62 is installed at a manned counter at the boarding gate.
  • the clerk S5 uses the business terminal 62 to carry out the boarding procedure for the user U on the aircraft. After completing the procedure at the touch point P5, the user U boarded the aircraft and departed from the country.
  • the management server 10 has a token ID information DB 11, a passage history information DB 12, an authentication history information DB 13, and a business information DB 14.
  • the database of the management server 10 is not limited to these databases.
  • FIG. 2 is a diagram showing an example of information stored in the token ID information DB 11.
  • the token ID information DB 11 includes a token ID, a group ID, a feature amount, a registered face image, a token issuing time, a token issuing device name, an invalid flag, and an invalidation time as data items.
  • the token ID is an identifier that uniquely identifies the ID information.
  • the token ID is temporarily issued on condition that the collation result of the passport face image read from the passport at the touch point P1 and the face image of the user U holding the passport match. To. Then, when the user U completes the procedure at the touch point P5 (boarding gate), the token ID is invalidated. That is, the token ID is a one-time ID having a valid period (life cycle).
  • the group ID is an identifier for grouping ID information.
  • the feature amount is a value extracted from biological information. For example, if there is a companion or a group guest, the same group ID is set.
  • the registered face image is a face image registered for the user U.
  • the phrase of the biological information in the present embodiment means a face image and a feature amount extracted from the face image.
  • the biological information is not limited to the facial image and the facial feature amount. That is, biometric authentication may be performed using a fingerprint image, a palm print image, an auricle image, an iris image, or the like as the biometric information of the user U.
  • the token issuance time is the time when the management server 10 issues the token ID.
  • the token issuing device name is the device name of the acquisition source of the registered face image that triggered the issuance of the token ID.
  • the invalid flag is flag information indicating whether or not the token ID is currently valid. When the token ID is issued, the invalid flag becomes a value of "1" indicating a valid state of the token ID. Further, the invalid flag is updated to a value of "0" indicating an invalid state of the token ID when a predetermined condition is satisfied.
  • the invalidation time is a time stamp when the invalidation flag is invalidated.
  • FIG. 3 is a diagram showing an example of information stored in the passage history information DB 12.
  • the passage history information DB 12 has a passage history ID, a passage touch point, a passage time, a device name, a business system type, a token ID, a reservation number, and an airline code as data items.
  • the passage history ID is an identifier that uniquely identifies the passage history information.
  • the passing touch points are the names of the passing touch points P1 to P5.
  • the transit time is a time stamp when the user U passes the touch points P1 to P5.
  • the device name is the machine name of the business terminal used for the procedure at the touch points P1 to P5.
  • the business system type is the type of business system to which the business terminal belongs.
  • the management server 10 can grasp to which touch point the user U has completed the procedure.
  • the reservation number and the airline code are data items to be recorded instead of the token ID when the procedure at the touch point is performed by reading a recording medium such as a boarding pass. That is, regardless of whether the procedure at each touch point P1 to P5 is performed by either the biometric authentication method or the conventional method of reading the recording medium, the passage history information is registered in the passage history information DB 12. Shall be.
  • FIG. 4 is a diagram showing an example of information stored in the authentication history information DB 13.
  • the authentication history information DB 13 includes authentication history ID, token ID, authentication touchpoint, device name, location ID, authentication score, authentication processing time, and authentication result (success / failure of biometric authentication) as data items.
  • the authentication history ID is an identifier that uniquely identifies the authentication history information.
  • the authentication touchpoint is the name of the touchpoint that executed the authentication process.
  • the device name is the machine name (device information) of the terminal device used for biometric authentication at the touch points P1 to P5.
  • the location ID is an identifier (location information) that uniquely identifies the section in which the terminal device is arranged at the touch points P1 to P5.
  • the passenger attribute information can be obtained from the business information DB 14 described later using the token ID as a key.
  • passenger attribute information (age / gender / membership classification / nationality, etc.) may be recorded in the authentication history information.
  • FIG. 5 is a diagram showing an example of information stored in the business information DB 14.
  • the business information DB 14 contains a token ID, reservation number, airline code, passenger name, departure place, destination, flight number, date of birth, seat number, and seat grade (for example, first class / business class / economy class). ), Nationality, passport number, surname, first name, date of birth, gender, membership classification, presence / absence of companion (for example, infant, infant, person requiring assistance, etc.) and companion classification as data items.
  • the reservation number is an identifier that uniquely identifies the reservation information for boarding an aircraft.
  • the airline code is an identifier that uniquely identifies the airline.
  • FIG. 6 is a diagram showing an example of information stored in the reservation information DB3.
  • the reservation information DB3 contains the reservation number, airline code, passenger name, departure place, destination, flight number, date of operation, seat number, seat grade, nationality, passport number, surname, first name, date of birth,
  • the data items are gender, membership classification, presence / absence of companion, and companion classification.
  • the terminal device (check-in terminal 20, etc.) of each touch point reads the reservation number and the airline code from the ticket medium presented by the user U
  • the terminal device of the airline corresponding to the airline code The reservation system 2 can be inquired about boarding reservation information based on the reservation number.
  • the method of inquiring boarding reservation information to the reservation system 2 is not limited to this.
  • the terminal device of each touch point can acquire business information including boarding reservation information from the business information DB 14 using the token ID as a key and can use it for the procedure at each touch point.
  • FIGS. 7 to 13 a hardware configuration example of each device constituting the information processing system 1 will be described with reference to FIGS. 7 to 13. Note that the devices having the same name but different codes in FIGS. 7 to 13 have the same functions, and therefore detailed description thereof will be omitted in the subsequent drawings.
  • FIG. 7 is a block diagram showing an example of the hardware configuration of the management server 10.
  • the management server 10 has a CPU (Central Processing Unit) 101, a RAM (Random Access Memory) 102, a storage device 103, and a communication I / F 104. Each device is connected to a bus line 105.
  • CPU Central Processing Unit
  • RAM Random Access Memory
  • the CPU 101 is a processor having a function of performing a predetermined operation according to a program stored in the storage device 103 and controlling each part of the management server 10.
  • the RAM 102 is composed of a volatile storage medium and provides a temporary memory area necessary for the operation of the CPU 101.
  • the storage device 103 is composed of a storage medium such as a non-volatile memory and a hard disk drive, and functions as a storage unit.
  • the storage device 103 stores a program executed by the CPU 101, data referred to by the CPU 101 when the program is executed, and the like.
  • the communication I / F 104 is a communication interface based on standards such as Ethernet (registered trademark), Wi-Fi (registered trademark), and 4G, and is a module for communicating with the check-in terminal 20 and the like.
  • FIG. 8 is a block diagram showing an example of the hardware configuration of the check-in terminal 20.
  • the check-in terminal 20 includes a CPU 201, a RAM 202, a storage device 203, a communication I / F 204, an input device 206, a display device 207, a medium reading device 208, and a biological information acquisition device 209. Each device is connected to bus line 205.
  • the input device 206 is, for example, a pointing device such as a touch panel, a keyboard, or the like.
  • the display device 207 is a liquid crystal display device, an OLED (Organic Light Emitting Diode) display device, or the like, and is used for displaying moving images, still images, characters, and the like.
  • the input device 206 and the display device 207 are integrally formed as a touch panel.
  • the medium reading device 208 is a device that reads the passport or airline ticket medium of the user U and acquires the information recorded in the passport or airline ticket.
  • the ticket medium include a paper ticket, a mobile terminal for displaying a copy of an e-ticket, and the like.
  • the medium reader 208 is composed of, for example, a code reader, an image scanner, a non-contact IC (Integrated Circuit) reader, an OCR (Optical Character Reader) device, and the like, and acquires information from various media held over the reading unit.
  • the biometric information acquisition device 209 is a device that acquires a face image of the user U as biometric information of the user U.
  • the biological information acquisition device 209 is, for example, a digital camera that photographs the face of the user U standing in front of the check-in terminal 20, and photographs the face of the user U to acquire the face image.
  • FIG. 9 is a block diagram showing an example of the hardware configuration of the automatic baggage deposit machine 30.
  • the automatic baggage deposit machine 30 includes a CPU 301, a RAM 302, a storage device 303, a communication I / F 304, an input device 306, a display device 307, a medium reader 308, a biological information acquisition device 309, and a baggage transfer device 310. And has an output device 311. Each device is connected to bus line 305.
  • the baggage transport device 310 transports the baggage to be loaded on the aircraft on which the user U is boarding.
  • the baggage transfer device 310 transports the baggage attached to the baggage tag placed in the receiving unit by the user U toward the handling.
  • the output device 311 is a device that outputs a baggage tag attached to checked baggage.
  • the output device 311 outputs a baggage redemption certificate necessary for redeeming baggage after arriving at the destination.
  • the baggage tag and baggage redemption certificate are associated with at least either passport information or boarding information.
  • FIG. 10 is a block diagram showing an example of the hardware configuration of the security inspection device 40.
  • the security inspection device 40 includes a CPU 401, a RAM 402, a storage device 403, a communication I / F 404, an input device 406, a display device 407, a medium reading device 408, a biological information acquisition device 409, and a metal detection gate 410. Have. Each device is connected to bus line 405.
  • the metal detection gate 410 is a gate type metal detector, and detects metals worn by the user U passing through the metal detection gate 410.
  • FIG. 11 is a block diagram showing an example of the hardware configuration of the automated gate device 50.
  • the automated gate device 50 includes a CPU 501, a RAM 502, a storage device 503, a communication I / F 504, an input device 506, a display device 507, a medium reading device 508, a biological information acquisition device 509, and a gate 511. Each device is connected to bus line 505.
  • the automated gate device 50 located at the immigration checkpoint has the same hardware configuration as the automated gate device 50 located at the immigration checkpoint.
  • the gate 511 is controlled by the CPU 501 to block the passage of the user U during standby. It shifts to the open state that allows the passage of user U.
  • the method of the gate 511 is not particularly limited, and is, for example, a flapper gate that opens and closes a flapper provided from one side or both sides of the passage, a turnstile gate in which three bars rotate, and the like.
  • FIG. 12 is a block diagram showing an example of the hardware configuration of the boarding gate device 60.
  • the boarding gate device 60 includes a CPU 601, a RAM 602, a storage device 603, a communication I / F 604, an input device 606, a display device 607, a biological information acquisition device 609, and a gate 611. Each device is connected to bus line 605.
  • FIG. 13 is a block diagram showing an example of the hardware configuration of the business terminals 22, 32, 42, 52, and 62.
  • the business terminal 22 includes a CPU 221 and a RAM 222, a storage device 223, a communication I / F 224, an input device 226, a display device 227, and a medium reading device 228. Each device is connected to bus line 225.
  • the hardware configuration of the business terminals 32, 42, 52, and 62 is the same as that of the business terminal 22.
  • FIG. 14 is a sequence diagram showing an example of processing of the reservation system 2, the check-in terminal 20, and the management server 10. This process is executed every time the user U performs the check-in procedure using the check-in terminal 20.
  • the check-in terminal 20 determines whether or not the passport of the user U is held over the reading unit (not shown) of the medium reader 208 (step S101), and waits until the passport is held (step S101, step S101). NO).
  • the check-in terminal 20 determines that the passport is held over the reading unit of the medium reading device 208 (step S101, YES)
  • the check-in terminal 20 acquires the passport information of the user U from the held passport (step S102).
  • the acquired passport information includes the passport face image of the user U, the identity verification information, the passport number, the information of the passport issuing country, and the like.
  • the check-in terminal 20 photographs the face of the user U by the biometric information acquisition device 209 (step S103), and transmits the face image, the passport information, the device information and the location information of the check-in terminal 20 to the management server 10. (Step S104). It is preferable to display a screen for obtaining the consent of the user U before taking the face image.
  • the management server 10 When the management server 10 receives the information from the check-in terminal 20, the management server 10 receives the face image recorded on the passport of the user U (hereinafter referred to as "passport face image”) and the face image taken by the check-in terminal 20 (hereinafter referred to as “passport face image”).
  • passport face image the face image recorded on the passport of the user U
  • passport face image the face image taken by the check-in terminal 20
  • target face image is collated on a one-to-one basis (step S105).
  • the management server 10 issues an authentication history ID and registers the authentication history information associated with the authentication history ID, the authentication score, the authentication processing time, and the authentication result in the authentication history information DB 13 (step S106).
  • the management server 10 determines that the collation result of the passport face image and the target face image is a collation match (step S107, YES)
  • the management server 10 issues a token ID (step S108).
  • the token ID is set to a unique value based on, for example, the date and time at the time of processing and the sequence number.
  • the management server 10 registers the relationship between the token ID and the registered face image in the token ID information DB 11 with the target face image as the registered face image (step S109). Further, the management server 10 updates the authentication history information DB 13 in order to add the token ID to the collated user U's authentication history (step S110).
  • the reason why the face image (target face image) taken locally is used as the registered face image is that the validity period (life cycle) of the token ID is completed within the day, and the taken image is the subsequent authentication process.
  • the image taken in 1 and the quality (appearance) are closer than the passport face image.
  • the passport face image instead of the target face image (photographed face image), the passport face image may be set as the registered face image (registered biometric information). For example, if the token ID has a long life cycle (for example, in the aviation industry, if the member is valid for the token ID for a certain period of time, etc.), the face image of the passport or driver's license will be used as the registered face image. It is good to set.
  • the management server 10 transmits the issued token ID and the collation result of the collation match to the check-in terminal 20 (step S111).
  • the management server 10 determines that the collation result of the passport face image and the target face image is a collation mismatch (step S107, NO)
  • the management server 10 transmits the collation result of the collation mismatch to the check-in terminal 20 (step S112). ..
  • step S113 when the check-in terminal 20 determines that the check-in procedure can be executed based on the collation result of the collation match received from the management server 10 (step S113, YES), the process proceeds to step S114.
  • step S113, NO when the check-in terminal 20 determines that the check-in procedure cannot be executed based on the collation result of the collation mismatch received from the management server 10 (step S113, NO), an error message is sent to the user U. Is notified (step S115).
  • step S114 the check-in terminal 20 determines whether or not the ticket medium of the user U is held over the reading unit of the medium reading device 208.
  • the check-in terminal 20 waits until the ticket medium is held over (step S114, NO).
  • step S114 when the check-in terminal 20 determines that the ticket medium is held over the reading unit of the medium reading device 208 (step S114, YES), the check-in terminal 20 records data such as a reservation number and an airline code from the held ticket medium. (Step S116).
  • the check-in terminal 20 transmits the recorded data to the airline reservation system 2 corresponding to the airline code (step S117), and requests the recorded data to be collated with the boarding reservation information.
  • the reservation system 2 When the reservation system 2 receives the recorded data from the check-in terminal 20, it collates the recorded data with the boarding reservation information recorded in the reservation information DB 3 (step S118), and transmits the collation result to the check-in terminal 20. (Step S119).
  • the check-in terminal 20 executes a check-in procedure such as confirmation of the itinerary and selection of a seat based on the input information of the user U (step S120). .. If the collation results in the reservation system 2 do not match, the check-in terminal 20 may notify the error without executing the check-in procedure. Then, the check-in terminal 20 transmits the token ID, the business information, and the passage history information indicating the completion of the procedure at the check-in terminal 20 to the management server 10 (step S121). Further, it is assumed that the passage history information includes information such as the passage time of the touch point P1 and the device name of the terminal used for the procedure.
  • the management server 10 when the management server 10 receives the information from the check-in terminal 20, it registers the passing history information indicating the relationship between the token ID and the passing information of the touch point P1 in the passing history information DB 12 (step S122). Then, the management server 10 registers the business information including the boarding reservation information received from the check-in terminal 20 in the business information DB 14 (step S123).
  • the target face image (photographed face image) that matches the passport face image obtained from the passport in the check-in procedure is registered as the registered face image in the token ID information DB 11, and the registered face image is registered by the issued token ID.
  • FIG. 15 is a sequence diagram showing an example of processing by the automatic baggage deposit machine 30 and the management server 10. This process is executed when the user U who has completed the check-in procedure receives the baggage check-in procedure as necessary.
  • the automatic baggage deposit machine 30 constantly or periodically photographs the front of the device, and determines whether or not the face of the user U standing in front of the automatic baggage deposit machine 30 is detected in the captured image (step S201). ). The automatic baggage deposit machine 30 waits until the face of the user U is detected in the image by the biological information acquisition device 309 (step S201, NO).
  • the automatic baggage deposit machine 30 determines that the face of the user U has been detected by the biological information acquisition device 309 (step S201, YES)
  • the automatic baggage deposit machine 30 photographs the face of the user U and targets the face image of the user U. Acquire as a face image (step S202).
  • the automatic baggage deposit machine 30 transmits the target face image of the user U imaged by the biological information acquisition device 309, the device information and the location information of the automatic baggage deposit machine 30 to the management server 10 together with the collation request (step). S203).
  • the automatic baggage deposit machine 30 combines the target face image of the user U captured by the biometric information acquisition device 309 with the plurality of registered face images registered in the token ID information DB 11 of the management server 10 in a one-to-N manner manner. Requests the management server 10 to collate with.
  • the management server 10 collates the face image of the user U (step S204). That is, the management server 10 collates the target face image received from the automatic baggage deposit machine 30 with the plurality of registered face images registered in the token ID information DB 11 on a one-to-N basis.
  • the registered face image to be collated is limited to the image associated with the token ID whose invalid flag value is "1" (valid).
  • the management server 10 issues an authentication history ID and registers the authentication history information associated with the authentication history ID, device information, location information, authentication score, authentication processing time, and authentication result in the authentication history information DB 13 ( Step S205).
  • the collation result in step S204 is a collation match
  • the token ID associated with the registered face image of the collation match can be specified, so that the token ID is also included in the authentication history information.
  • step S206 determines that the collation result is a collation mismatch
  • step S209 the management server 10 transmits the collation result of the mismatch to the automatic baggage deposit machine 30 (step S209), and the process is a step. Move to S210.
  • step S206, YES the management server 10 determines that the collation result is a collation match
  • step S207 the management server 10 acquires boarding reservation information such as a reservation number from the business information DB 14 using the token ID associated with the registered face image of the collation match in the token ID information DB 11 as a key. Then, the management server 10 transmits the token ID, the boarding reservation information, and the collation result to the automatic baggage deposit machine 30 (step S208).
  • boarding reservation information such as a reservation number
  • the management server 10 transmits the token ID, the boarding reservation information, and the collation result to the automatic baggage deposit machine 30 (step S208).
  • step S210 when the automatic baggage deposit machine 30 determines that the procedure can be executed based on the collation result (step S210, YES), the process proceeds to step S212.
  • step S210 determines that the procedure cannot be executed based on the collation result (step S210, NO)
  • the automatic baggage deposit machine 30 notifies the user U of an error message (step S211).
  • step S212 the automatic baggage deposit machine 30 executes the baggage deposit procedure of the user U based on the boarding reservation information received from the management server 10.
  • the automatic baggage deposit machine 30 transmits the passage history information indicating that the baggage deposit procedure of the user U is completed through the verification of the token ID, the business information, and the face image to the management server 10 (step S213).
  • the passage history information includes information such as the passage time of the touch point P2 and the device name of the terminal used.
  • the management server 10 When the management server 10 receives the information from the automatic baggage deposit machine 30, the management server 10 registers the passage history information indicating the relationship between the token ID and the passage information of the touch point P2 of the user U in the passage history information DB 12 (step S214). Then, the management server 10 registers the business information received from the automatic baggage deposit machine 30 in the business information DB 14 as necessary (step S215).
  • FIG. 16 is a sequence diagram showing an example of processing by the security inspection device 40 and the management server 10. This process is executed when the user U who has completed the check-in procedure or the baggage check-in procedure undergoes the security inspection procedure.
  • the security inspection device 40 constantly or periodically photographs the front of the metal detection gate 410, and determines whether or not the face of the user U standing in front of the metal detection gate 410 is detected in the captured image (step). S301). The security inspection device 40 waits until the face of the user U is detected in the image by the biological information acquisition device 409 (step S301, NO).
  • the security inspection device 40 determines that the face of the user U has been detected by the biometric information acquisition device 409 (step S301, YES)
  • the security inspection device 40 photographs the face of the user U and targets the face image of the user U. Acquire as an image (step S302).
  • the security inspection device 40 transmits the target face image of the user U imaged by the biometric information acquisition device 409, the device information of the security inspection device 40, and the location information to the management server 10 together with the collation request (step S303). ..
  • the security inspection device 40 combines the target face image of the user U captured by the biometric information acquisition device 409 with a plurality of registered face images registered in the token ID information DB 11 of the management server 10 in a one-to-N manner manner. Request the management server 10 to collate.
  • the management server 10 collates the face image of the user U (step S304). That is, the management server 10 collates the target face image received from the security inspection device 40 with the plurality of registered face images registered in the token ID information DB 11 on a one-to-N basis.
  • the registered face image to be collated is limited to the image associated with the token ID whose invalid flag value is "1" (valid).
  • the management server 10 issues an authentication history ID and registers the authentication history information associated with the authentication history ID, device information, location information, authentication score, authentication processing time, and authentication result in the authentication history information DB 13 ( Step S305).
  • the collation result in step S304 is a collation match
  • the token ID associated with the registered face image of the collation match can be specified, so that the token ID is also included in the authentication history information.
  • step S306, NO when the management server 10 determines that the collation result is a collation mismatch (step S306, NO), the management server 10 transmits the collation mismatch collation result to the security inspection device 40 (step S309), and the process is a step. Move to S310.
  • step S306, YES when the management server 10 determines that the collation result is a collation match (step S306, YES), the process proceeds to step S307.
  • step S307 the management server 10 acquires boarding reservation information such as a reservation number from the business information DB 14 using the token ID associated with the registered face image of the collation match in the token ID information DB 11 as a key. Then, the management server 10 transmits the token ID, the boarding reservation information, and the collation result to the security inspection device 40 (step S308). The process proceeds to step S310.
  • step S310 determines that the procedure can be executed based on the collation result
  • step S312 determines that the procedure can be executed based on the collation result
  • step S310 determines that the procedure cannot be executed based on the collation result
  • step S311 the security inspection device 40 notifies the user U of an error message
  • the security inspection device 40 executes the security inspection process of the user U based on the boarding reservation information received from the management server 10 (step S312).
  • the CPU 401 controls each part of the security inspection device 40.
  • the security inspection device 40 detects the metals worn by the user U passing through the metal detection gate 410.
  • the user U who has passed through the metal detection gate 410 heads for the immigration checkpoint.
  • the security inspection device 40 transmits the passage history information indicating that the security inspection procedure of the user U is completed through the verification of the token ID, the business information, and the face image to the management server 10 (step S313). .. It is assumed that the passage history information includes information such as the passage time of the touch point P3 and the device name of the terminal used.
  • the management server 10 When the management server 10 receives the information from the security inspection device 40, the management server 10 registers the passage history information indicating the relationship between the token ID and the passage information of the touch point P3 of the user U in the passage history information DB 12 (step S314). Then, the management server 10 registers the business information received from the security inspection device 40 in the business information DB 14 as necessary (step S315).
  • FIG. 17 is a sequence diagram showing an example of processing of the automated gate device 50 and the management server 10.
  • the automated gate device 50 constantly or periodically photographs the front of the automated gate device 50, and determines whether or not the face of the user U standing in front of the automated gate device 50 is detected in the captured image (step). S401). The automated gate device 50 waits until the face of the user U is detected in the image by the biological information acquisition device 509 (step S401, NO).
  • step S401 determines that the face of the user U has been detected by the biological information acquisition device 509 (step S401, YES)
  • the automated gate device 50 photographs the face of the user U and sets the face image of the user U as the target face. Acquire as an image (step S402).
  • the automated gate device 50 transmits the target face image of the user U captured by the biometric information acquisition device 509, the device information of the automated gate device 50, and the location information to the management server 10 together with the collation request (step S403). ..
  • the automated gate device 50 combines the target face image of the user U captured by the biometric information acquisition device 509 with a plurality of registered face images registered in the token ID information DB 11 of the management server 10 in a one-to-N manner manner. Request the management server 10 to collate.
  • the management server 10 collates the face image of the user U (step S404). That is, the management server 10 collates the target face image received from the automated gate device 50 with the plurality of registered face images registered in the token ID information DB 11 on a one-to-N basis.
  • the registered face image to be collated is limited to the image associated with the token ID whose invalid flag value is "1" (valid).
  • the management server 10 issues an authentication history ID and registers the authentication history information associated with the authentication history ID, device information, location information, authentication score, authentication processing time, and authentication result in the authentication history information DB 13 ( Step S405).
  • the collation result in step S404 is a collation match
  • the token ID associated with the registered face image of the collation match can be specified, so that the token ID is also included in the authentication history information.
  • step S406 determines that the collation result is a collation mismatch
  • step S409 the management server 10 transmits the collation mismatch collation result to the automated gate device 50 (step S409), and the process proceeds to step S410. To do.
  • step S406, YES the process proceeds to step S407.
  • step S407 the management server 10 acquires boarding reservation information such as a reservation number from the business information DB 14 using the token ID associated with the registered face image of the collation match in the token ID information DB 11 as a key. Then, the management server 10 transmits the token ID, the boarding reservation information, and the collation result to the automated gate device 50 (step S408). The process proceeds to step S410.
  • step S410 determines that the procedure can be executed based on the collation result
  • step S410, NO the automated gate device 50 notifies the user U of an error message (step S411). For example, a notification screen including a message such as "Please perform the departure examination procedure at the manned counter" is displayed on the display device 507.
  • the automated gate device 50 executes the departure examination procedure of the user U based on the boarding reservation information received from the management server 10 (step S412), and opens the gate 511 (step S413).
  • the automated gate device 50 transmits the pass history information indicating that the departure examination procedure of the user U has been completed through the verification of the token ID, the business information, and the face image to the management server 10 (step S414). .. It is assumed that the passage history information includes information such as the passage time of the touch point P4 and the device name of the terminal used.
  • the management server 10 When the management server 10 receives the information from the automated gate device 50, the management server 10 registers the passing history information indicating the relationship between the token ID and the passing information of the touch point P4 of the user U in the passing history information DB 12 (step S415). Then, the management server 10 registers the business information received from the automated gate device 50 in the business information DB 14 as necessary (step S416).
  • FIG. 18 is a sequence diagram showing an example of processing of the boarding gate device 60 and the management server 10. This process is executed when the user U passes through the boarding gate.
  • the boarding gate device 60 constantly or periodically photographs the front of the device, and determines whether or not the face of the user U standing in front of the boarding gate device 60 is detected in the captured image (step S501).
  • the boarding gate device 60 waits until the face of the user U is detected in the image by the biometric information acquisition device 609 (step S501, NO).
  • the boarding gate device 60 determines that the face of the user U has been detected by the biometric information acquisition device 609 (step S501, YES)
  • the boarding gate device 60 photographs the face of the user U and targets the face image of the user U. Acquire as an image (step S502).
  • the boarding gate device 60 transmits the target face image of the user U imaged by the biometric information acquisition device 609, the device information of the boarding gate device 60, and the location information to the management server 10 together with the collation request (step S503). ..
  • the boarding gate device 60 combines the target face image of the user U captured by the biometric information acquisition device 609 and the plurality of registered face images registered in the token ID information DB 11 of the management server 10 in a one-to-N manner. Request the management server 10 to collate.
  • the management server 10 When the management server 10 receives the target face image and the collation request from the boarding gate device 60, the management server 10 collates the face image of the user U (step S504). That is, the management server 10 collates the target face image received from the boarding gate device 60 with the plurality of registered face images registered in the token ID information DB 11 on a one-to-N basis.
  • the registered face image to be collated is limited to the image associated with the token ID whose invalid flag value is "1" (valid).
  • the management server 10 issues an authentication history ID and registers the authentication history information associated with the authentication history ID, device information, location information, authentication score, authentication processing time, and authentication result in the authentication history information DB 13 ( Step S505).
  • the collation result in step S504 is a collation match
  • the token ID associated with the registered face image of the collation match can be specified, so that the token ID is also included in the authentication history information.
  • step S506 determines that the collation result is a collation mismatch
  • step S509 the management server 10 transmits the collation mismatch collation result to the boarding gate device 60 (step S509), and the process proceeds to step S510. To do.
  • step S506 determines that the collation result is a collation match
  • step S507 the process proceeds to step S507.
  • step S507 the management server 10 acquires boarding reservation information such as a reservation number from the business information DB 14 using the token ID associated with the registered face image of the collation match in the token ID information DB 11 as a key. Then, the management server 10 transmits the token ID, the boarding reservation information, and the collation result to the boarding gate device 60 (step S508). The process proceeds to step S510.
  • boarding reservation information such as a reservation number
  • step S510 determines that the procedure can be executed based on the collation result
  • step S512 determines that the procedure can be executed based on the collation result
  • the boarding gate device 60 determines that the procedure cannot be executed based on the collation result (step S510, NO)
  • the boarding gate device 60 notifies the user U of an error message (step S511).
  • the boarding gate device 60 displays a notification screen including a message such as "Please perform the procedure at the manned counter" on the display device 607.
  • step S512 when the boarding gate device 60 receives the boarding reservation information from the reservation system 2, the boarding gate device 60 executes the boarding check of the user U based on the flight number, the gate number, the boarding start time, etc. included in the boarding reservation information.
  • the boarding gate device 60 opens the gate 611 when permitting boarding (step S513).
  • the user U who has passed the touch point P5 board the aircraft. If the boarding gate device 60 determines in step S512 that boarding is not permitted, the user U may be notified of the error message without opening the gate 611. For example, if the user U makes a mistake in the number of the gate 611, or if the current time has not reached the boarding start time, the gate 611 is not opened.
  • the boarding gate device 60 transmits the passage history information indicating that the boarding of the user U to the aircraft is completed through the verification of the token ID, the business information, and the face image to the management server 10 (step S514). ). It is assumed that the passage history information includes information such as the passage time of the touch point P5 and the device name of the terminal used.
  • the management server 10 When the management server 10 receives the information from the boarding gate device 60, the management server 10 registers the passage history information indicating the relationship between the token ID and the passage information of the touch point P5 of the user U in the passage history information DB 12 (step S515). Further, the management server 10 registers the business information received from the boarding gate device 60 in the business information DB 14 as necessary (step S516).
  • the management server 10 updates the token ID information DB 11 (step S517). Specifically, the management server 10 updates the invalid flag of the token ID information DB 11 to an invalid value (“0”). As a result, the validity period (life cycle) of the token ID expires.
  • FIG. 19 is a sequence diagram showing an example of processing of the reservation system 2, the business terminal 22, and the management server 10. This process is executed when the staff members (S1 to S5) perform the procedure using the business terminal 22 or the like.
  • the business terminal 22 arranged at the touch point P1 will be described as an example.
  • the business terminal 22 determines whether or not the passport of the user U is held over the reading unit (not shown) of the medium reader 228 (step S601), and waits until the passport is held (steps S601, NO). ).
  • the business terminal 22 determines that the passport is held over the reading unit of the medium reader 228 (step S601, YES)
  • the business terminal 22 acquires the passport information of the user U from the held passport (step S602).
  • the acquired passport information includes the passport face image of the user U, the identity verification information, the passport number, the information of the passport issuing country, and the like.
  • the business terminal 22 determines whether or not the airline ticket medium of the user U is held over the reading unit of the medium reading device 228 (step S603). The business terminal 22 waits until the ticket medium is held over (step S603, NO).
  • step S603 when the business terminal 22 determines that the ticket medium is held over the reading unit of the medium reading device 228 (step S603, YES), the business terminal 22 outputs recorded data such as a reservation number and an airline code from the held ticket medium. Acquire (step S604).
  • the business terminal 22 transmits the recorded data to the airline reservation system 2 corresponding to the airline code (step S605), and requests the recorded data to be collated with the boarding reservation information.
  • the reservation system 2 When the reservation system 2 receives the recorded data from the business terminal 22, the recorded data is collated with the boarding reservation information recorded in the reservation information DB 3 (step S606), and the collation result is transmitted to the business terminal 22 (step S606). Step S607).
  • step S608 when the business terminal 22 receives the collation result from the reservation system 2, it determines whether or not the procedure at the touch point P1 can be executed (step S608).
  • step S608, YES when the business terminal 22 determines that the procedure can be executed (step S608, YES), the process proceeds to step S609.
  • step S610 when the business terminal 22 determines that the procedure cannot be executed based on the information received from the management server 10 (step S608, NO), the business terminal 22 notifies an error message (step S610).
  • step S609 the business terminal 22 executes the examination procedure (check-in procedure) at the touch point P1 based on the input information of the staff member S.
  • the business terminal 22 transmits the reservation number, the business information obtained by the processing on the business terminal 22, and the passage history information indicating the completion of the procedure on the business terminal 22 to the management server 10 (step S611).
  • the management server 10 registers the passage history information in the passage history information DB 12 (step S612). Then, the management server 10 registers the business information received from the business terminal 22 in the business information DB 14 as needed (step S613).
  • FIG. 20 is a flowchart showing an example of processing by the management server 10. This process is executed at a predetermined cycle or when a process request from a system administrator or the like is input.
  • the management server 10 acquires the statistical analysis conditions set by the administrator or the like (step S701)
  • the management server 10 acquires the passage history information in the designated period from the passage history information DB 12 based on the statistical analysis conditions (step S702).
  • the passage history information including the token ID is acquired from the passage history information DB 12.
  • the management server 10 acquires the authentication history information at the time of passing the touch point from the authentication history information DB 13 using the token ID included in the passage history information as a key (step S703).
  • the management server 10 acquires business information including the attribute information of the user U from the business information DB 14 using the token ID included in the passage history information as a key (step S704).
  • the management server 10 executes statistical analysis processing for passage history information, authentication history information, and business information (attribute information) (step S705).
  • the management server 10 executes statistical processing for each touch point, each attribute of the user U, and each period.
  • step S706 when the management server 10 acquires the display condition of the statistical analysis result specified by the administrator or the like (step S706), the management server 10 displays the statistical analysis result on the business terminal 22 or a display terminal (not shown) (step S707).
  • FIG. 21 to 26 are diagrams showing an example of a screen output by the management server 10.
  • FIG. 21 shows an analysis menu selection screen for selecting the analysis result displayed by the system administrator.
  • a plurality of analysis menus M1 to M6 and an analysis condition setting button M7 for transitioning to the screen for setting the analysis condition are displayed.
  • FIG. 22 is a dashboard screen in which different types of statistical results are collectively displayed in a dashboard format.
  • the dashboard screen shown in FIG. 21 is roughly composed of four areas A1 to A4.
  • Area A1 shows the result of statistical analysis of authentication accuracy for each location.
  • Area A1 is composed of areas A11 to A14.
  • the area A11 displays the average authentication accuracy, the average authentication time, and the token ID utilization rate at the location (“T1 South W”).
  • “Token ID utilization rate” is synonymous with the utilization rate of biometric authentication.
  • the number of records of the procedure history information (first history information) by biometric authentication that is, the number of biometric users) N1 and the number of records of the procedure usage information by reading the recording medium (that is, the number of media users) N2.
  • Area A12 displays the average authentication accuracy for each terminal ID.
  • the area A13 displays the average authentication time for each terminal ID.
  • the area A14 displays the token ID usage rate for each terminal ID. In A12 to A14, the location of the terminal IDs "# 51" to “# 54" is "T1 South W", and the location of the terminal IDs "# 61" to “# 64" is "T2 main building". is there.
  • terminals that do not satisfy a predetermined threshold value may be detected and highlighted.
  • a terminal having a terminal ID of “# 52” can be detected as a terminal whose average authentication accuracy is less than the threshold value of 0.96.
  • the biometric authentication processing results authentication accuracy, authentication time, and authentication success rate
  • the biometric authentication processing results may be aggregated and output for each location. Then, when the average authentication accuracy for each location (placement location) does not reach a predetermined threshold value, the information of the corresponding location may be output.
  • a terminal having a terminal ID of "# 52" can be detected as a terminal whose average authentication time exceeds the threshold value of 1 second.
  • terminals whose authentication success rate does not reach a predetermined threshold value can be detected and highlighted.
  • Area A2 shows the result of statistical analysis of the distribution of the number of guests by location.
  • Region A2 comprises region A21 and region A22.
  • Area A21 displays the number of passing passengers in a pie chart.
  • Area A22 displays the estimated number of guests in a pie chart.
  • Area A3 shows the result of statistical analysis of the average transit time and throughput of terminals for each device.
  • the region A3 is composed of a region A31 and a region A32.
  • the area A31 displays the average transit time for each terminal ID as a bar graph.
  • the throughput for each terminal ID is displayed as a bar graph.
  • Area A4 shows the result of statistical analysis of the number of passengers by time zone.
  • the number of customers is categorized by location (T1 South W satellite 4 / T1 South W satellite 5 / T2 main building / T2 satellite) before and after the security checkpoint (PRS) and at touch point P3.
  • the region A4 is composed of regions A41 and A42.
  • Area A41 displays the number of passengers by time zone at two locations (T1 South W Satellite 4 / T2 Main Building).
  • the area A42 displays the transition data of the number of passengers by time zone and by location by eight kinds of polygonal lines.
  • FIG. 23 is a token ID registrant number transition screen showing the transition of the token ID registrant number.
  • a button B11 for switching the statistical period of data on a yearly, monthly, and daily basis and a button B12 for outputting the statistical result as a CSV file are displayed.
  • the yearly button B11 is selected.
  • the number of registrants during the period from 2018 to 2019 is displayed as a bar graph, and the number of registrants for each touch point is displayed as a line graph and a list.
  • all the legends are displayed in FIG. 23, it is also possible to provide a button for selecting a touch point and display only the transition of the number of registered users of the selected touch point.
  • FIG. 24 is a token ID registrant attribute analysis screen that analyzes the number of token ID registrants for each attribute of the user U.
  • a button B21 for switching the statistical period of data on a yearly, monthly, or daily basis is displayed.
  • the monthly unit is selected.
  • a button B22 for switching the display period is displayed.
  • analysis results by nationality, gender, seat class, airline, and age are displayed in a pie chart.
  • the analysis result using the boarding information for example, the analysis result for each destination
  • FIG. 25 is a usage rate transition screen for each touch point, which analyzes the usage rate of biometric authentication for each touch point.
  • an area selection button B31 for selecting a touch point and a button B32 for switching the statistical period of data on a yearly, monthly, or daily basis are displayed.
  • the monthly unit is selected.
  • a button B33 for switching the display period is displayed.
  • the number of biometric users (number of users) at each of the four touch points is a bar graph
  • the biometric usage rate is a line. It is displayed by a graph.
  • biometric authentication for example, out of the number of passengers who have registered biometric information for use in boarding procedures (the number of passengers for whom a token ID has been issued), biometric authentication is actually used. It can show the percentage of the number of passengers. It is also possible to indicate the ratio of the number of passengers using biometric authentication to the total number of passengers.
  • FIG. 26 is an authentication rate transition screen for each touch point, which analyzes the authentication rate (authentication success rate) of biometric authentication for each touch point.
  • an area selection button B41 for selecting a touch point and a button B42 for switching the statistical period of data on a monthly, daily, or hourly basis are displayed.
  • the monthly unit is selected.
  • a button B43 for switching the display period is displayed.
  • the total number of persons subject to certification at the security checkpoint is displayed as a bar graph
  • the authentication rate for biometrics is displayed as a line graph.
  • the management server 10 performs history information (token ID information, token ID information,) registered in the database when the user U performs various procedures for boarding an aircraft at each touch point based on biometric authentication.
  • history information token ID information, token ID information,
  • the management server 10 performs history information (token ID information, token ID information,) registered in the database when the user U performs various procedures for boarding an aircraft at each touch point based on biometric authentication.
  • the management server 10 creates a learning model based on token ID information, passage history information, authentication history information, and business information, and applies new data to the learning model to simulate throughput and optimal layout. It differs from the first embodiment in that it further includes a function of proposing the number of units. That is, in the present embodiment, the CPU 101 of the management server 10 also functions as a learning unit and a prediction unit.
  • the learning method in the management server 10 it is possible to learn using a general-purpose deep learning framework such as TensorFlow, Caffe2, and PyTorch.
  • FIG. 27 is a schematic diagram illustrating a neural network used for the learning process in the present embodiment.
  • the neural network shown in FIG. 27 includes an input layer having a plurality of nodes, an intermediate layer having a plurality of nodes, and an output layer having one node. For example, the number of passengers who have passed each touch point in a predetermined period, the number of terminals installed at each touch point at the time of procedure, the transit time, and the like are input to each node of the input layer. Each node in the middle layer is connected to each node in the input layer. Each element of the input value input to the node of the intermediate layer is used for the calculation at each node of the intermediate layer.
  • Each node in the intermediate layer calculates a calculated value using, for example, an input value input from each node in the input layer, a predetermined weighting coefficient, and a predetermined bias value.
  • Each node in the intermediate layer is connected to the output layer, and the calculated calculated value is output to the node in the output layer.
  • the calculated values are input from each node of the intermediate layer.
  • the node of the output layer calculates the processing time (estimated value) at each touch point using the calculated value input from each node of the intermediate layer, the weighting coefficient, and the bias value.
  • an error backpropagation method is used. Specifically, the output value when the data is input to the input layer and the output value obtained from the teacher data are compared, and the error generated as a result of the comparison is fed back to the intermediate layer. This is repeated until the error falls below a predetermined threshold.
  • the predicted processing time at each touch point can be output with high accuracy.
  • the learning model created by the learning process is not limited to the one described above.
  • FIG. 28 is a flowchart showing an example of processing of the management server 10. This process is executed so that the system administrator or the like can grasp the usage status of biometric authentication in the airport.
  • the management server 10 acquires terminal installation data (step S801) and also acquires passenger number transition data (step S802).
  • the management server 10 performs prediction processing based on the learning model (step S803) and outputs the prediction result (step S804).
  • the management server 10 refers to the prediction result and determines whether or not the predicted residence time of the passenger at each touch point exceeds a predetermined threshold value (step S805).
  • the predicted residence time of the passenger is regarded as the same as the predicted processing time of the terminal device.
  • the process proceeds to step S806.
  • the process of FIG. 28 ends.
  • step S806 the installation data in which the number of installed terminals is changed is applied to the learning model, and the prediction process based on the learning model is repeatedly executed. For example, the number of installed units is input to the learning model while subtracting the number of installed units, and the number of installed units when the predicted residence time corresponding to the number of passengers is within the threshold value is obtained.
  • the management server 10 displays a proposal screen that proposes the optimum number and location of installations (step S807), and ends the process of FIG. 28.
  • FIG. 29 is a diagram showing an example of a screen output by the management server 10.
  • FIG. 29 is a proposal screen that proposes the optimum number of terminal devices for biometric authentication.
  • a proposal message based on the analysis processing of the management server 10 ("It is expected that the number of passengers from country X will increase significantly during the period from XX days to XX days. Check-in lobby.” Please install a new check-in terminal in the section AA of. ”) Is displayed.
  • a map of the relevant area in the airport can be displayed, and the location where the number of installations is proposed can be highlighted.
  • the management server 10 creates a learning model based on the passenger history information, and predicts the predicted residence time (predicted processing time) of the passenger in the airport based on the learning model. It can.
  • the management server 10 can also propose the number of terminal devices having a biometric authentication function to be installed at each touch point based on the prediction result.
  • FIG. 30 is a block diagram showing an overall configuration example of the information processing apparatus 100 according to the present embodiment.
  • the information processing device 100 includes an acquisition unit 100A and an output unit 100B.
  • the acquisition unit 100A acquires the first history information indicating that the procedure for boarding the passenger in the airport was executed by biometric authentication and the second history information indicating that the procedure was executed by reading the medium.
  • the output unit 100B outputs the usage status of biometric authentication in the procedure based on the first history information and the second history information. According to the information processing device 100 in the present embodiment, the use of biometric authentication in the procedure for boarding a passenger can be promoted.
  • the configuration of the present invention can be applied not only to international flights but also to domestic flights.
  • a domestic flight in addition to the departure examination procedure, the one-to-one collation process between the passport face image and the photographed face image may be omitted.
  • the registered biological image for example, the photographed face image at the time of purchasing the boarding pass can be used.
  • the aircraft can be boarded at Airport A by face authentication.
  • the check-in terminal 20 applies for the issuance of the token ID to the management server 10 by reading the passport face image from the passport, but consider the case where the check-in procedure is performed online.
  • the issuance application can be made at the automatic baggage deposit machine 30 or the security inspection device 40. That is, the management server 10 acquires the passport face image and the target biological image from any one of the business terminals that execute the business related to the departure of the user U.
  • the token ID may be issued in the first procedural task.
  • the processing in the automatic baggage deposit machine 30 and the security inspection device 40 is the step of acquiring the recorded data from the passport and the airline ticket medium and the step of inquiring the boarding reservation information to the reservation system 2 as in the case of FIG. Etc. may be included.
  • the types of statistical analysis processing are not limited to those described above.
  • a series of procedures relating to a user U may be analyzed.
  • history information is acquired from the passage history information DB 12 and the authentication history information DB 13 using the token ID of the user U as a key, and a procedure area (touch point) in which the passage history information and the authentication history information do not exist is detected.
  • You may analyze it. That is, when the user U completes the procedure by reading a recording medium such as a boarding pass at some touch points, it is possible to detect a touch point in which passage history information exists but authentication history information does not exist. ..
  • the check-in lobby (touch point P1) and baggage counter (touch point P2) use biometrics, and then the security checkpoint (touch point P3) does not use biometrics and the departure checkpoint (touch point P4).
  • biometric authentication is used at the boarding gate (touch point P5) and the authentication history of the touch point P3 is missing.
  • the procedure is performed using the business terminal (22, 32, 42, 52, 62) but the registration process of the passage history information is not executed, both the passage history information and the authentication history information are displayed. Can detect non-existent touch points. By detecting and analyzing the missing state of such a record, the flow line of the user U can be grasped. As a result, it is possible to change the layout and the number of terminal devices having a biometric authentication function to promote further use of biometric authentication.
  • Each embodiment also has a processing method in which a program for operating the configuration of the embodiment is recorded on a recording medium so as to realize the functions of the above-described embodiment, the program recorded on the recording medium is read out as a code, and the program is executed by a computer. It is included in the category of. That is, a computer-readable recording medium is also included in the scope of each embodiment. Further, not only the recording medium on which the above-mentioned program is recorded but also the program itself is included in each embodiment.
  • the recording medium for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a magnetic tape, a non-volatile memory card, or the like can be used.
  • a floppy (registered trademark) disk for example, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a magnetic tape, a non-volatile memory card, or the like
  • the program that executes the processing by the program recorded on the recording medium alone, but also the one that operates on the OS and executes the processing in cooperation with the functions of other software and the expansion board is also in each embodiment. It is included in the category of.
  • An acquisition unit that acquires the first history information indicating that the procedure for boarding a passenger in the airport was executed by biometric authentication and the second history information indicating that the procedure was executed by reading the medium, respectively.
  • An output unit that outputs the usage status of the biometric authentication in the procedure based on the first history information and the second history information.
  • Information processing device equipped with.
  • the information processing device (Appendix 2) Further provided with an issuing unit that issues a token ID corresponding to the registered biometric information of the passenger used for the biometric authentication.
  • the first history information includes a procedure area in which the registered biometric information is registered and the token ID.
  • the output unit outputs the number of registered biometric information registered for each procedure area.
  • the first history information includes the attribute information of the passenger.
  • the output unit outputs the number of registrations for each attribute information.
  • the information processing device according to Appendix 2.
  • the output unit outputs the utilization rate of the biometric authentication in the procedure area based on the ratio of the first history information and the second history information for each procedure area.
  • the information processing device according to Appendix 2 or 3.
  • the output unit detects the procedure area in which the first history information for the same passenger does not exist among the plurality of procedure areas based on the token ID.
  • the information processing device according to any one of Supplementary note 2 to 4.
  • the first history information includes the terminal ID of the terminal used for the biometric authentication and the processing result of the biometric authentication.
  • the output unit aggregates and outputs the processing results for each terminal ID.
  • the information processing device according to any one of Appendix 1 to 5.
  • the output unit detects the terminal whose authentication success rate is less than a predetermined threshold value based on the processing result for each terminal ID.
  • the information processing device according to Appendix 6.
  • the first history information further includes the location of the terminal in the airport.
  • the output unit aggregates and outputs the processing results for each arrangement location.
  • the information processing device according to Appendix 6 or 7.
  • the output unit outputs information on the placement location where the average authentication accuracy obtained by averaging the authentication accuracy of the biometric authentication for each placement location does not reach a predetermined threshold value.
  • the information processing device according to Appendix 8.
  • the output unit outputs different types of statistical analysis results based on the first history information and the second history information in a dashboard format.
  • the information processing device according to any one of Appendix 1 to 11.

Abstract

本発明における情報処理装置は、空港内における旅客の搭乗に関する手続が生体認証により実行されたことを示す第1履歴情報及び前記手続が媒体の読取により実行されたことを示す第2履歴情報をそれぞれ取得する取得部と、前記第1履歴情報及び前記第2履歴情報に基づいて、前記手続における前記生体認証の利用状況を出力する出力部と、を備える。

Description

情報処理装置、情報処理方法及び記録媒体
 本発明は、情報処理装置、情報処理方法及び記録媒体に関する。
 特許文献1には、顔画像等の生体情報を搭乗券として用い、チケット媒体を提示することなく、複数の手続エリア(保安検査場、出国審査場、搭乗ゲート等)において生体認証により手続を行うチケットレス搭乗システムが開示されている。
特開2007-79656号
 特許文献1に例示されているように、現行の空港において、旅客は生体認証による方法と、搭乗券等の記録媒体を端末装置で読み取らせる従来通りの方法のどちらかを自由に選択し、航空機への搭乗に関する手続を行っている。
 しかし、空港内におけるスループットを向上させるために、旅客による生体認証の利用をさらに促進することが求められている。
 そこで、本発明は、上述の問題に鑑み、旅客の搭乗に関する手続における生体認証の利用を促進できる情報処理装置、情報処理方法及び記録媒体を提供することを目的とする。
 本発明の一つの観点によれば、空港内における旅客の搭乗に関する手続が生体認証により実行されたことを示す第1履歴情報及び前記手続が媒体の読取により実行されたことを示す第2履歴情報をそれぞれ取得する取得部と、前記第1履歴情報及び前記第2履歴情報に基づいて、前記手続における前記生体認証の利用状況を出力する出力部と、を備える情報処理装置が提供される。
 本発明の他の観点によれば、空港内における旅客の搭乗に関する手続が生体認証により実行されたことを示す第1履歴情報及び前記手続が媒体の読取により実行されたことを示す第2履歴情報をそれぞれ取得するステップと、前記第1履歴情報及び前記第2履歴情報に基づいて、前記手続における前記生体認証の利用状況を出力するステップと、を備える情報処理方法が提供される。
 本発明のさらに他の観点によれば、コンピュータに、空港内における旅客の搭乗に関する手続が生体認証により実行されたことを示す第1履歴情報及び前記手続が媒体の読取により実行されたことを示す第2履歴情報をそれぞれ取得するステップと、前記第1履歴情報及び前記第2履歴情報に基づいて、前記手続における前記生体認証の利用状況を出力するステップと、を実行させるプログラムが記録された記録媒体が提供される。
 本発明によれば、旅客の搭乗に関する手続における生体認証の利用を促進できる情報処理装置、情報処理方法及び記録媒体を提供することができる。
第1実施形態における情報処理システムの全体構成例を示すブロック図である。 第1実施形態におけるトークンID情報データベースが記憶する情報の一例を示す図である。 第1実施形態における通過履歴情報データベースが記憶する情報の一例を示す図である。 第1実施形態における認証履歴情報データベースが記憶する情報の一例を示す図である。 第1実施形態における業務情報データベースが記憶する情報の一例を示す図である。 第1実施形態における予約情報データベースが記憶する情報の一例を示す図である。 第1実施形態における管理サーバのハードウェア構成の一例を示すブロック図である。 第1実施形態におけるチェックイン端末のハードウェア構成の一例を示すブロック図である。 第1実施形態における自動手荷物預け機のハードウェア構成の一例を示すブロック図である。 第1実施形態における保安検査装置のハードウェア構成の一例を示すブロック図である。 第1実施形態における自動化ゲート装置のハードウェア構成の一例を示すブロック図である。 第1実施形態における搭乗ゲート装置のハードウェア構成の一例を示すブロック図である。 第1実施形態における業務端末のハードウェア構成の一例を示すブロック図である。 第1実施形態における予約システム、チェックイン端末及び管理サーバの処理の一例を示すシーケンス図である。 第1実施形態における自動手荷物預け機及び管理サーバの処理の一例を示すシーケンス図である。 第1実施形態における保安検査装置及び管理サーバの処理の一例を示すシーケンス図である。 第1実施形態における自動化ゲート装置及び管理サーバの処理の一例を示すシーケンス図である。 第1実施形態における搭乗ゲート装置及び管理サーバの処理の一例を示すシーケンス図である。 第1実施形態における予約システム、業務端末及び管理サーバの処理の一例を示すシーケンス図である。 第1実施形態における管理サーバの処理の一例を示すフローチャートである。 第1実施形態における管理サーバが出力する画面の一例を示す図である。 第1実施形態における管理サーバが出力する画面の一例を示す図である。 第1実施形態における管理サーバが出力する画面の一例を示す図である。 第1実施形態における管理サーバが出力する画面の一例を示す図である。 第1実施形態における管理サーバが出力する画面の一例を示す図である。 第1実施形態における管理サーバが出力する画面の一例を示す図である。 第2実施形態における学習処理に用いるニューラルネットワークを説明する概略図である。 第2実施形態における管理サーバの処理の一例を示すフローチャートである。 第2実施形態における管理サーバが出力する画面の一例を示す図である。 第3実施形態における情報処理装置の全体構成例を示すブロック図である。
 以下、図面を参照して、本発明の例示的な実施形態を説明する。図面において同様の要素又は対応する要素には同一の符号を付し、その説明を省略又は簡略化することがある。
<第1実施形態>
 図1は、本実施形態における情報処理システム1の全体構成例を示すブロック図である。情報処理システム1は、空港Aにおいて利用者(以下、「旅客」ともいう。)Uの入出国時の審査手続に関する業務を管理及び支援するコンピュータシステムである。情報処理システム1は、例えば、入出国の管理局等の公的機関又はその機関から業務の委託を受けた受託者により運用される。予約システム2は、情報処理システム1とは異なり、航空会社に設けられたコンピュータシステムである。予約システム2は、搭乗予約情報を管理する予約情報データベース3を備えている。なお、図1では、説明の便宜上、予約システム2が1つのみ示されているが、予約システム2は複数の航空会社にそれぞれ設けられる。
 本実施形態の情報処理システム1では、共通の管理サーバ10に対して、チェックイン端末20、自動手荷物預け機30、保安検査装置40、自動化ゲート装置50及び搭乗ゲート装置60がネットワークNW1を介してそれぞれ接続される。
 同様に、各航空会社の予約システム2は、図示しないサーバに対して、チェックイン端末20、自動手荷物預け機30、保安検査装置40、自動化ゲート装置50及び搭乗ゲート装置60がネットワークNW2を介してそれぞれ接続される。係員S1~S5が使用する業務端末22(32、42、52、62)は、ネットワークNW1を介して管理サーバ10に、ネットワークNW2を介して予約システム2のサーバにそれぞれ接続される。なお、業務端末22(32、42、52、62)は、図示しないアクセスポイントを介してネットワークNW1及びNW2に接続されてもよい。
 ネットワークNW1及びNW2は、空港Aの構内通信網を含むLAN(Local Area Network)、WAN(Wide Area Network)、移動体通信網等により構成されている。接続方式は、有線方式に限らず、無線方式でもよい。ネットワークNW1及びNW2は、異なるネットワークである。すなわち、本実施形態において、情報処理システム1は、予約システム2とは直接接続されていないものとする。
 管理サーバ10は、例えば、空港Aを運営する空港会社等の施設内に設けられている。なお、管理サーバ10は、実際に業務が行われる施設内に設置されるサーバではなく、クラウドサーバとしてもよい。また、管理サーバ10は、単一のサーバである必要はなく、複数のサーバを含むサーバ群として構成されたものであってもよい。
 図1に示すように、空港Aにおける出国時の審査手続は、5箇所のタッチポイントP1~P5において順次実施される。以下、各装置とタッチポイントP1~P5との関係について説明する。
 チェックイン端末20は、空港A内のチェックインロビー(以下、「タッチポイントP1」という。)に設置されている。チェックイン端末20は、利用者Uが自身でチェックイン手続を行うためのセルフ端末である。また、業務端末22は、チェックインロビーの有人カウンタに設置されている。係員S1は、利用者Uのチェックイン手続を実施するために業務端末22を使用する。チェックイン手続は、航空機に搭乗予定の利用者Uを識別するための情報を登録する手続である。利用者Uは、タッチポイントP1における手続を完了すると、手荷物カウンタあるいは保安検査場に移動する。
 自動手荷物預け機30は、空港A内の手荷物カウンタ(以下、「タッチポイントP2」という。)に設置されている。自動手荷物預け機30は、利用者Uが自身で操作して、航空機内に持ち込まない手荷物を預ける手続(手荷物預け手続)を行うためのセルフ端末である。また、業務端末32は、有人の手荷物カウンタに設置されている。係員S3は、利用者Uの手荷物預け手続を実施するために業務端末32を使用する。利用者Uは、タッチポイントP2における手続を完了すると、保安検査場に移動する。なお、利用者Uが、手荷物を預けない場合には、タッチポイントP2での手続は省略される。
 保安検査装置40は、空港A内の保安検査場(以下、「タッチポイントP3」という。)に設置されている。保安検査装置40は、利用者Uについて金属探知機により危険物となりうる金属類を身につけているか否かを確認する装置である。なお、本実施形態における“保安検査装置”の語句は、金属探知機だけでなく、X線を用いて機内持ち込みの手荷物等の中の危険物の有無を確認するX線検査装置や、保安検査場の入口において利用者Uの通過可否を判定する旅客通過確認システム(Passenger Reconciliation System:PRS)の端末装置等も含む意味で使用する。チェックイン手続や自動手荷物預け手続を完了した利用者Uは、保安検査場において保安検査装置40による保安検査手続を受ける。利用者Uは、タッチポイントP3における手続を完了すると、出国審査場に移動する。
 自動化ゲート装置50は、空港A内の出国審査場(以下、「タッチポイントP4」という。)に設置されている。自動化ゲート装置50は、利用者Uの出国審査手続を自動的に行う装置である。また、業務端末52は、出国審査場の有人カウンタに設置されている。係員S4は、利用者Uの出国審査手続を行うために業務端末52を使用する。利用者Uは、タッチポイントP4における手続を完了すると、免税店や搭乗ゲートが設けられている出国エリアに移動する。
 搭乗ゲート装置60は、出国エリアの搭乗ゲート(以下、「タッチポイントP5」という。)ごとに設置された通行制御装置である。搭乗ゲート装置60は、利用者Uが搭乗ゲートから搭乗可能な航空機の搭乗者であることを確認する。また、業務端末62は、搭乗ゲートの有人カウンタに設置されている。係員S5は、利用者Uの航空機への搭乗手続を行うために業務端末62を使用する。利用者Uは、タッチポイントP5における手続を完了すると、航空機に搭乗し、出国する。
 図1に示すように、管理サーバ10は、トークンID情報DB11、通過履歴情報DB12、認証履歴情報DB13及び業務情報DB14を有している。なお、管理サーバ10が有するデータベースは、これらのデータベースに限られない。
 図2は、トークンID情報DB11が記憶する情報の一例を示す図である。トークンID情報DB11は、トークンID、グループID、特徴量、登録顔画像、トークン発行時刻、トークン発行デバイス名、無効フラグ及び無効化時刻をデータ項目としている。トークンIDは、ID情報を一意に識別する識別子である。本実施形態では、トークンIDは、タッチポイントP1において旅券から読み取られた旅券顔画像と旅券を所持する利用者Uを撮影した顔画像との照合結果が一致することを条件として一時的に発行される。そして、利用者UがタッチポイントP5(搭乗ゲート)での手続を終えたときに、トークンIDは無効化される。すなわち、トークンIDは、有効期間(ライフサイクル)を有するワンタイムIDである。
 グループIDは、ID情報をグループ分けするための識別子である。特徴量は、生体情報から抽出される値である。例えば、同伴者がいる場合や団体客の場合には、同じグループIDが設定される。登録顔画像は、利用者Uについて登録された顔画像である。本実施形態における生体情報の語句は、顔画像及び顔画像から抽出される特徴量を意味するものとする。なお、生体情報は、顔画像及び顔特徴量に限られない。すなわち、利用者Uの生体情報として、指紋画像、掌紋画像、耳介画像及び虹彩画像等を用いて生体認証を行ってもよい。
 トークン発行時刻は、管理サーバ10がトークンIDを発行した時刻である。トークン発行デバイス名は、トークンIDの発行の契機となった登録顔画像の取得元のデバイス名である。無効フラグは、トークンIDが現時点で有効であるか否かを示すフラグ情報である。無効フラグは、トークンIDが発行されると、トークンIDが有効な状態を示す“1”の値になる。また、無効フラグは、所定の条件を満たすと、トークンIDが無効な状態を示す“0”の値に更新される。無効化時刻は、無効フラグが無効化されたときのタイムスタンプである。
 図3は、通過履歴情報DB12が記憶する情報の一例を示す図である。通過履歴情報DB12は、通過履歴ID、通過タッチポイント、通過時間、デバイス名、業務システム種別、トークンID、予約番号及びエアラインコードをデータ項目としている。通過履歴IDは、通過履歴情報を一意に識別する識別子である。通過タッチポイントは、通過したタッチポイントP1~P5の名称である。通過時間は、利用者UがタッチポイントP1~P5を通過したときのタイムスタンプである。デバイス名は、タッチポイントP1~P5における手続に使用した業務端末の機体名称である。業務システム種別は、業務端末が属する業務システムの種別である。なお、管理サーバ10は、通過履歴情報をトークンID単位で抽出することにより、利用者Uがどのタッチポイントまでの手続を完了しているのかを把握できる。また、本実施形態において、予約番号及びエアラインコードは、搭乗券等の記録媒体を読取ることでタッチポイントでの手続を行った場合に、トークンIDの代わりに記録されるデータ項目である。すなわち、各タッチポイントP1~P5における手続が、生体認証による方法と、記録媒体を読取る従来通りの方法のどちらの方法で行われた場合でも、通過履歴情報DB12には、通過履歴情報が登録されるものとする。
 図4は、認証履歴情報DB13が記憶する情報の一例を示す図である。認証履歴情報DB13は、認証履歴ID、トークンID、認証タッチポイント、デバイス名、ロケーションID、認証スコア、認証処理時間及び認証結果(生体認証の成功/失敗)をデータ項目としている。認証履歴IDは、認証履歴情報を一意に識別する識別子である。認証タッチポイントは、認証処理を実行したタッチポイントの名称である。デバイス名は、タッチポイントP1~P5における生体認証に使用した端末装置の機体名称(デバイス情報)である。ロケーションIDは、タッチポイントP1~P5において端末装置が配置された区画を一意に識別する識別子(ロケーション情報)である。なお、認証履歴情報にはトークンIDが含まれているため、トークンIDをキーとして後述する業務情報DB14から旅客の属性情報を取得できる。また、認証履歴情報に旅客の属性情報(年齢/性別/会員区分/国籍等)を記録してもよい。
 図5は、業務情報DB14が記憶する情報の一例を示す図である。業務情報DB14は、トークンID、予約番号、エアラインコード、搭乗者名、出発地、目的地、便番号、運行年月日、座席番号、座席の等級(例えば、ファーストクラス/ビジネスクラス/エコノミークラス)、国籍、旅券番号、姓、名、生年月日、性別、会員区分、同伴者(例えば、乳児、幼児、要介助者等)の有無及び同伴者区分をデータ項目としている。予約番号は、航空機への搭乗の予約情報を一意に識別する識別子である。エアラインコードは、航空会社を一意に識別する識別子である。
 図6は、予約情報DB3が記憶する情報の一例を示す図である。予約情報DB3は、予約番号、エアラインコード、搭乗者名、出発地、目的地、便番号、運行年月日、座席番号、座席の等級、国籍、旅券番号、姓、名、生年月日、性別、会員区分、同伴者の有無及び同伴者区分をデータ項目としている。
 本実施形態においては、各タッチポイントの端末装置(チェックイン端末20等)は、利用者Uが提示した航空券媒体から予約番号及びエアラインコードを読取ると、エアラインコードに対応する航空会社の予約システム2に予約番号に基づいて搭乗予約情報の問い合わせを行うことができる。なお、予約システム2に対する搭乗予約情報の問い合わせの方法は、これに限られない。
 また、トークンID情報DB11に利用者UのトークンID及び顔画像が登録された後においては、予約情報DB3から取得した搭乗予約情報はトークンIDに関連付けられて業務情報DB14に登録される。これにより、各タッチポイントの端末装置は、トークンIDをキーとして業務情報DB14から搭乗予約情報を含む業務情報を取得し、各タッチポイントにおける手続に使用できる。
 続いて、図7乃至図13を参照しながら、情報処理システム1を構成する各機器のハードウェア構成例を説明する。なお、図7乃至図13において同一名称であって符号のみが異なる機器については、同等の機能を備える機器であるため、後続の図面においては詳細な説明を省略するものとする。
 図7は、管理サーバ10のハードウェア構成の一例を示すブロック図である。同図に示すように、管理サーバ10は、CPU(Central Processing Unit)101、RAM(Random Access Memory)102、記憶装置103及び通信I/F104を有している。各装置は、バスライン105に接続されている。
 CPU101は、記憶装置103に記憶されたプログラムに従って所定の動作を行うとともに、管理サーバ10の各部を制御する機能を有するプロセッサである。RAM102は、揮発性記憶媒体から構成され、CPU101の動作に必要な一時的なメモリ領域を提供する。
 記憶装置103は、不揮発性メモリ、ハードディスクドライブ等の記憶媒体により構成され、記憶部として機能する。記憶装置103は、CPU101により実行されるプログラム、そのプログラムの実行の際にCPU101により参照されるデータ等を記憶する。
 通信I/F104は、イーサネット(登録商標)、Wi-Fi(登録商標)、4G等の規格に基づく通信インターフェースであり、チェックイン端末20等との通信を行うためのモジュールである。
 図8は、チェックイン端末20のハードウェア構成の一例を示すブロック図である。同図に示すように、チェックイン端末20は、CPU201、RAM202、記憶装置203、通信I/F204、入力装置206、表示装置207、媒体読取装置208及び生体情報取得装置209を有している。各装置は、バスライン205に接続されている。
 入力装置206は、例えばタッチパネル等のポインティングデバイスや、キーボード等である。表示装置207は、液晶表示装置、OLED(Organic Light Emitting Diode)表示装置等であって、動画、静止画、文字等の表示に用いられる。本実施形態のチェックイン端末20では、入力装置206及び表示装置207は、タッチパネルとして一体に形成されているものとする。
 媒体読取装置208は、利用者Uの旅券又は航空券媒体を読み取り、旅券又は航空券に記録された情報を取得する装置である。航空券媒体としては、例えば、紙の航空券、eチケットの控えを表示する携帯端末等が挙げられる。媒体読取装置208は、例えば、コードリーダ、イメージスキャナ、非接触IC(Integrated Circuit)リーダ、OCR(Optical Character Reader)装置等により構成され、その読取部にかざされた各種媒体から情報を取得する。
 生体情報取得装置209は、利用者Uの生体情報として利用者Uの顔画像を取得する装置である。生体情報取得装置209は、例えば、チェックイン端末20の前に立つ利用者Uの顔を撮影するデジタルカメラであり、利用者Uの顔を撮影してその顔画像を取得する。
 図9は、自動手荷物預け機30のハードウェア構成の一例を示すブロック図である。同図に示すように、自動手荷物預け機30は、CPU301、RAM302、記憶装置303、通信I/F304、入力装置306、表示装置307、媒体読取装置308、生体情報取得装置309、手荷物搬送装置310及び出力装置311を有している。各装置は、バスライン305に接続されている。
 手荷物搬送装置310は、利用者Uの本人確認に成功した場合に、利用者Uが搭乗する航空機にその手荷物を積み込むために搬送する。手荷物搬送装置310は、利用者Uにより受け取り部に置かれて手荷物タグが付けられた手荷物を荷捌きに向けて搬送する。
 出力装置311は、預ける手荷物に付ける手荷物タグを出力する装置である。また、出力装置311は、目的地に到着した後に手荷物の引き換えに必要な手荷物引き換え証を出力する。なお、手荷物タグや手荷物引き換え証は、少なくとも旅券情報、搭乗情報のどちらかに関連付けられている。
 図10は、保安検査装置40のハードウェア構成の一例を示すブロック図である。同図に示すように、保安検査装置40は、CPU401、RAM402、記憶装置403、通信I/F404、入力装置406、表示装置407、媒体読取装置408、生体情報取得装置409及び金属探知ゲート410を有している。各装置は、バスライン405に接続されている。
 金属探知ゲート410は、ゲート型の金属探知機であり、金属探知ゲート410を通過する利用者Uの身に付けている金属類を探知する。
 図11は、自動化ゲート装置50のハードウェア構成の一例を示すブロック図である。自動化ゲート装置50は、CPU501、RAM502、記憶装置503、通信I/F504、入力装置506、表示装置507、媒体読取装置508、生体情報取得装置509及びゲート511を有している。各装置は、バスライン505に接続されている。なお、入国審査場に配置される自動化ゲート装置50は、出国審査場に配置される自動化ゲート装置50と同様のハードウェア構成を備える。
 ゲート511は、自動化ゲート装置50における利用者Uの本人確認に成功して出国審査を利用者Uが通過した場合に、CPU501による制御に従って、待機時において利用者Uの通行を遮る閉鎖状態から、利用者Uの通行を許可する開放状態に移行する。ゲート511の方式は、特に限定されるものではなく、例えば、通路の片側又は両側から設けられたフラッパーが開閉するフラッパーゲート、3本バーが回転するターンスタイルゲート等である。
 図12は、搭乗ゲート装置60のハードウェア構成の一例を示すブロック図である。同図に示すように、搭乗ゲート装置60は、CPU601、RAM602、記憶装置603、通信I/F604、入力装置606、表示装置607、生体情報取得装置609及びゲート611を有している。各装置は、バスライン605に接続されている。
 図13は、業務端末22、32、42、52、62のハードウェア構成の一例を示すブロック図である。同図に示すように、業務端末22は、CPU221、RAM222、記憶装置223、通信I/F224、入力装置226、表示装置227及び媒体読取装置228を有している。各装置は、バスライン225に接続されている。なお、業務端末32、42、52、62のハードウェア構成は、業務端末22と同様である。
 続いて、本実施形態における情報処理システム1における各装置の動作を図14乃至図26に基づいて説明する。
[チェックイン手続]
 図14は、予約システム2、チェックイン端末20及び管理サーバ10の処理の一例を示すシーケンス図である。この処理は、利用者Uがチェックイン端末20を用いてチェックイン手続を行うたびに実行される。
 先ず、チェックイン端末20は、利用者Uの旅券が媒体読取装置208の読取部(不図示)にかざされたか否かを判定し(ステップS101)、旅券がかざされるまで待機する(ステップS101、NO)。
 次に、チェックイン端末20は、旅券が媒体読取装置208の読取部にかざされたと判定すると(ステップS101、YES)、かざされた旅券から利用者Uの旅券情報を取得する(ステップS102)。取得された旅券情報には、利用者Uの旅券顔画像、本人確認情報、旅券番号、旅券発行国の情報等が含まれる。
 次に、チェックイン端末20は、生体情報取得装置209により利用者Uの顔を撮影し(ステップS103)、顔画像、旅券情報、チェックイン端末20のデバイス情報及びロケーション情報を管理サーバ10へ送信する(ステップS104)。なお、顔画像を撮影する前に、利用者Uの同意を得るための画面を表示すると好適である。
 管理サーバ10は、チェックイン端末20から情報を受信すると、利用者Uの旅券に記録された顔画像(以下、「旅券顔画像」という。)と、チェックイン端末20で撮影された顔画像(以下、「対象顔画像」という。)を1対1で照合する(ステップS105)。
 次に、管理サーバ10は、認証履歴IDを発行するとともに、認証履歴ID、認証スコア、認証処理時間及び認証結果を関連付けた認証履歴情報を認証履歴情報DB13へ登録する(ステップS106)。
 次に、管理サーバ10は、旅券顔画像と対象顔画像との照合結果が照合一致であると判定すると(ステップS107、YES)、トークンIDを発行する(ステップS108)。トークンIDは、例えば処理時の日時やシーケンス番号に基づいて固有な値に設定される。
 次に、管理サーバ10は、対象顔画像を登録顔画像として、トークンIDと登録顔画像との関係をトークンID情報DB11へ登録する(ステップS109)。また、管理サーバ10は、照合した利用者Uの認証履歴に対してトークンIDを追加するために、認証履歴情報DB13を更新する(ステップS110)。
 本実施形態において、現地で撮影した顔画像(対象顔画像)を登録顔画像とする理由としては、トークンIDの有効期間(ライフサイクル)が当日内に完結すること、撮影画像はその後の認証プロセスで撮影した画像と品質(容姿)が旅券顔画像よりも近くなること、等が挙げられる。ただし、対象顔画像(撮影顔画像)の代わりに、旅券顔画像を登録顔画像(登録生体情報)に設定してもよい。例えば、トークンIDのライフサイクルが長期にわたる場合(例えば、航空業において、会員ならば一定の有効期間だけトークンIDを有効にする場合等)には、旅券や免許証の顔画像を登録顔画像に設定するとよい。
 次に、管理サーバ10は、発行したトークンID及び照合一致の照合結果をチェックイン端末20へ送信する(ステップS111)。
 一方、管理サーバ10は、旅券顔画像と対象顔画像との照合結果が照合不一致であると判定すると(ステップS107、NO)、照合不一致の照合結果をチェックイン端末20へ送信する(ステップS112)。
 次に、チェックイン端末20は、管理サーバ10から受信した照合一致の照合結果に基づいて、チェックイン手続を実行できると判定した場合(ステップS113、YES)、処理はステップS114へ移行する。これに対し、チェックイン端末20は、管理サーバ10から受信した照合不一致の照合結果に基づいて、チェックイン手続を実行できないと判定した場合(ステップS113、NO)、利用者Uに対してエラーメッセージを通知する(ステップS115)。
 ステップS114において、チェックイン端末20は、利用者Uの航空券媒体が媒体読取装置208の読取部にかざされたか否かを判定する。チェックイン端末20は、航空券媒体がかざされるまで待機する(ステップS114、NO)。
 次に、チェックイン端末20は、航空券媒体が媒体読取装置208の読取部にかざされたと判定すると(ステップS114、YES)、かざされた航空券媒体から予約番号及びエアラインコード等の記録データを取得する(ステップS116)。
 次に、チェックイン端末20は、エアラインコードに対応する航空会社の予約システム2に対して記録データを送信し(ステップS117)、記録データと搭乗予約情報との照合を要求する。
 予約システム2は、チェックイン端末20からの記録データを受信すると、記録データと予約情報DB3に記録されている搭乗予約情報とを照合し(ステップS118)、その照合結果をチェックイン端末20へ送信する(ステップS119)。
 次に、チェックイン端末20は、予約システム2から照合一致の照合結果を受信すると、利用者Uの入力情報に基づいて旅程の確認や座席の選択等のチェックイン手続を実行する(ステップS120)。予約システム2における照合結果が不一致の場合には、チェックイン端末20は、チェックイン手続を実行せずに、エラーを通知するとよい。そして、チェックイン端末20は、トークンIDと、業務情報と、チェックイン端末20における手続完了を示す通過履歴情報とを管理サーバ10へ送信する(ステップS121)。また、通過履歴情報には、タッチポイントP1の通過時間と、手続に使用した端末のデバイス名等の情報が含まれるものとする。
 次に、管理サーバ10は、チェックイン端末20からの情報を受信すると、トークンIDとタッチポイントP1の通過情報との関係を示す通過履歴情報を通過履歴情報DB12へ登録する(ステップS122)。そして、管理サーバ10は、チェックイン端末20から受信した搭乗予約情報を含む業務情報を業務情報DB14に登録する(ステップS123)。
 このように、チェックイン手続において旅券から取得した旅券顔画像と照合一致である対象顔画像(撮影顔画像)を登録顔画像としてトークンID情報DB11へ登録するとともに、発行したトークンIDによって登録顔画像と業務情報DB14の業務情報とを関連付ける。これにより、後続の各タッチポイントでは、撮影した顔画像と登録顔画像との顔照合による生体認証が可能となる。
[手荷物預け手続]
 図15は、自動手荷物預け機30及び管理サーバ10の処理の一例を示すシーケンス図である。この処理は、チェックイン手続を完了した利用者Uが、必要に応じて手荷物預け手続を受けるときに実行される。
 自動手荷物預け機30は、装置の前を常時又は定期的に撮影し、撮影した画像中に自動手荷物預け機30の前に立つ利用者Uの顔が検出されたか否かを判定する(ステップS201)。自動手荷物預け機30は、生体情報取得装置309によって画像中に利用者Uの顔が検出されるまで待機する(ステップS201、NO)。
 自動手荷物預け機30は、生体情報取得装置309によって利用者Uの顔が検出されたと判定すると(ステップS201、YES)、その利用者Uの顔を撮影して、利用者Uの顔画像を対象顔画像として取得する(ステップS202)。
 次に、自動手荷物預け機30は、生体情報取得装置309により撮像された利用者Uの対象顔画像、自動手荷物預け機30のデバイス情報及びロケーション情報を照合要求とともに管理サーバ10へ送信する(ステップS203)。これにより、自動手荷物預け機30は、生体情報取得装置309により撮像された利用者Uの対象顔画像と、管理サーバ10のトークンID情報DB11に登録された複数の登録顔画像とを1対Nで照合することを管理サーバ10に対して要求する。
 管理サーバ10は、自動手荷物預け機30から対象顔画像及び照合要求等の情報を受信すると、利用者Uの顔画像の照合を行う(ステップS204)。すなわち、管理サーバ10は、自動手荷物預け機30から受信した対象顔画像と、トークンID情報DB11に登録された複数の登録顔画像とを1対Nで照合する。なお、照合先となる登録顔画像は、無効フラグの値が“1”(有効)であるトークンIDに関連付けられた画像に限るものとする。
 次に、管理サーバ10は、認証履歴IDを発行するとともに、認証履歴ID、デバイス情報、ロケーション情報、認証スコア、認証処理時間及び認証結果を関連付けた認証履歴情報を認証履歴情報DB13へ登録する(ステップS205)。なお、ステップS204における照合結果が照合一致の場合には、照合一致の登録顔画像に関連付けられたトークンIDを特定できるため、認証履歴情報にはトークンIDも含まれる。
 ここで、管理サーバ10が、照合結果は照合不一致であると判定すると(ステップS206、NO)、管理サーバ10は不一致の照合結果を自動手荷物預け機30へ送信し(ステップS209)、処理はステップS210に移行する。これに対し、管理サーバ10が、照合結果は照合一致であると判定すると(ステップS206、YES)、処理はステップS207に移行する。
 ステップS207において、管理サーバ10は、トークンID情報DB11において照合一致の登録顔画像に関連付けられたトークンIDをキーとして、業務情報DB14から予約番号等の搭乗予約情報を取得する。そして、管理サーバ10は、トークンID、搭乗予約情報及び照合結果を自動手荷物預け機30へ送信する(ステップS208)。
 次に、自動手荷物預け機30は、照合結果に基づいて手続を実行できると判定した場合(ステップS210、YES)、処理はステップS212へ移行する。
 これに対し、自動手荷物預け機30は、照合結果に基づいて手続を実行できないと判定した場合(ステップS210、NO)、利用者Uに対してエラーメッセージを通知する(ステップS211)。
 ステップS212において、自動手荷物預け機30は、管理サーバ10から受信した搭乗予約情報に基づいて利用者Uの手荷物預け手続の処理を実行する。
 次に、自動手荷物預け機30は、トークンIDと、業務情報と、顔画像の照合を経て利用者Uの手荷物預け手続が完了したことを示す通過履歴情報を管理サーバ10へ送信する(ステップS213)。なお、通過履歴情報には、タッチポイントP2の通過時間、使用した端末のデバイス名等の情報が含まれるものとする。
 管理サーバ10は、自動手荷物預け機30から情報を受信すると、トークンIDと利用者UのタッチポイントP2の通過情報との関係を示す通過履歴情報を通過履歴情報DB12へ登録する(ステップS214)。そして、管理サーバ10は、必要に応じて、自動手荷物預け機30から受信した業務情報を業務情報DB14へ登録する(ステップS215)。
[保安検査手続]
 図16は、保安検査装置40及び管理サーバ10の処理の一例を示すシーケンス図である。この処理は、チェックイン手続あるいは手荷物預け手続を完了した利用者Uが、保安検査手続を受けるときに実行される。
 保安検査装置40は、金属探知ゲート410の前を常時又は定期的に撮影し、撮影した画像中に金属探知ゲート410の前に立つ利用者Uの顔が検出されたか否かを判定する(ステップS301)。保安検査装置40は、生体情報取得装置409によって画像中に利用者Uの顔が検出されるまで待機する(ステップS301、NO)。
 保安検査装置40は、生体情報取得装置409によって利用者Uの顔が検出されたと判定すると(ステップS301、YES)、その利用者Uの顔を撮影して、利用者Uの顔画像を対象顔画像として取得する(ステップS302)。
 次に、保安検査装置40は、生体情報取得装置409により撮像された利用者Uの対象顔画像、保安検査装置40のデバイス情報及びロケーション情報を照合要求とともに管理サーバ10へ送信する(ステップS303)。これにより、保安検査装置40は、生体情報取得装置409により撮像された利用者Uの対象顔画像と、管理サーバ10のトークンID情報DB11に登録された複数の登録顔画像とを1対Nで照合することを管理サーバ10に対して要求する。
 管理サーバ10は、保安検査装置40から対象顔画像及び照合要求等を受信すると、利用者Uの顔画像の照合を行う(ステップS304)。すなわち、管理サーバ10は、保安検査装置40から受信した対象顔画像と、トークンID情報DB11に登録された複数の登録顔画像とを1対Nで照合する。なお、照合先となる登録顔画像は、無効フラグの値が“1”(有効)であるトークンIDに関連付けられた画像に限るものとする。
 次に、管理サーバ10は、認証履歴IDを発行するとともに、認証履歴ID、デバイス情報、ロケーション情報、認証スコア、認証処理時間及び認証結果を関連付けた認証履歴情報を認証履歴情報DB13へ登録する(ステップS305)。なお、ステップS304における照合結果が照合一致の場合には、照合一致の登録顔画像に関連付けられたトークンIDを特定できるため、認証履歴情報にはトークンIDも含まれる。
 ここで、管理サーバ10が、照合結果は照合不一致であると判定すると(ステップS306、NO)、管理サーバ10は照合不一致の照合結果を保安検査装置40へ送信し(ステップS309)、処理はステップS310に移行する。これに対し、管理サーバ10が、照合結果は照合一致であると判定すると(ステップS306、YES)、処理はステップS307に移行する。
 ステップS307において、管理サーバ10は、トークンID情報DB11において照合一致の登録顔画像に関連付けられたトークンIDをキーとして、業務情報DB14から予約番号等の搭乗予約情報を取得する。そして、管理サーバ10は、トークンID、搭乗予約情報及び照合結果を保安検査装置40へ送信する(ステップS308)。処理はステップS310へ移行する。
 次に、保安検査装置40は、照合結果に基づいて手続を実行できると判定した場合(ステップS310、YES)、処理はステップS312へ移行する。
 これに対し、保安検査装置40は、照合結果に基づいて手続を実行できないと判定した場合(ステップS310、NO)、利用者Uに対してエラーメッセージを通知する(ステップS311)。
 次に、保安検査装置40は、管理サーバ10から受信した搭乗予約情報に基づいて、利用者Uの保安検査処理を実行する(ステップS312)。保安検査処理において、CPU401は、保安検査装置40の各部を制御する。これにより、保安検査装置40は、金属探知ゲート410を通過する利用者Uの身に付けている金属類を探知する。金属探知ゲート410を通過した利用者Uは、出国審査場に向かう。
 次に、保安検査装置40は、トークンIDと、業務情報と、顔画像の照合を経て利用者Uの保安検査手続が完了したことを示す通過履歴情報を管理サーバ10へ送信する(ステップS313)。なお、通過履歴情報には、タッチポイントP3の通過時間、使用した端末のデバイス名等の情報が含まれるものとする。
 管理サーバ10は、保安検査装置40から情報を受信すると、トークンIDと利用者UのタッチポイントP3の通過情報との関係を示す通過履歴情報を通過履歴情報DB12へ登録する(ステップS314)。そして、管理サーバ10は、必要に応じて、保安検査装置40から受信した業務情報を業務情報DB14へ登録する(ステップS315)。
[出国審査手続]
 図17は、自動化ゲート装置50及び管理サーバ10の処理の一例を示すシーケンス図である。
 保安検査手続を完了した利用者Uは、出国審査場に向かい、自動化ゲート装置50で出国審査手続を受ける。自動化ゲート装置50及び管理サーバ10は、複数の利用者Uのそれぞれが出国審査手続を受けるたびに図17に示す処理を実行する。
 自動化ゲート装置50は、自動化ゲート装置50の前を常時又は定期的に撮影し、撮影した画像中に自動化ゲート装置50の前に立つ利用者Uの顔が検出されたか否かを判定する(ステップS401)。自動化ゲート装置50は、生体情報取得装置509によって画像中に利用者Uの顔が検出されるまで待機する(ステップS401、NO)。
 自動化ゲート装置50は、生体情報取得装置509によって利用者Uの顔が検出されたと判定すると(ステップS401、YES)、その利用者Uの顔を撮影して、利用者Uの顔画像を対象顔画像として取得する(ステップS402)。
 次に、自動化ゲート装置50は、生体情報取得装置509により撮像された利用者Uの対象顔画像、自動化ゲート装置50のデバイス情報及びロケーション情報を照合要求とともに管理サーバ10へ送信する(ステップS403)。これにより、自動化ゲート装置50は、生体情報取得装置509により撮像された利用者Uの対象顔画像と、管理サーバ10のトークンID情報DB11に登録された複数の登録顔画像とを1対Nで照合することを管理サーバ10に対して要求する。
 管理サーバ10は、自動化ゲート装置50から対象顔画像及び照合要求等を受信すると、利用者Uの顔画像の照合を行う(ステップS404)。すなわち、管理サーバ10は、自動化ゲート装置50から受信した対象顔画像と、トークンID情報DB11に登録された複数の登録顔画像とを1対Nで照合する。なお、照合先となる登録顔画像は、無効フラグの値が“1”(有効)であるトークンIDに関連付けられた画像に限るものとする。
 次に、管理サーバ10は、認証履歴IDを発行するとともに、認証履歴ID、デバイス情報、ロケーション情報、認証スコア、認証処理時間及び認証結果を関連付けた認証履歴情報を認証履歴情報DB13へ登録する(ステップS405)。なお、ステップS404における照合結果が照合一致の場合には、照合一致の登録顔画像に関連付けられたトークンIDを特定できるため、認証履歴情報にはトークンIDも含まれる。
 管理サーバ10が、照合結果は照合不一致であると判定すると(ステップS406、NO)、管理サーバ10は照合不一致の照合結果を自動化ゲート装置50へ送信し(ステップS409)、処理はステップS410に移行する。これに対し、管理サーバ10が、照合結果は照合一致であると判定すると(ステップS406、YES)、処理はステップS407に移行する。
 ステップS407において、管理サーバ10は、トークンID情報DB11において照合一致の登録顔画像に関連付けられたトークンIDをキーとして、業務情報DB14から予約番号等の搭乗予約情報を取得する。そして、管理サーバ10は、トークンID、搭乗予約情報及び照合結果を自動化ゲート装置50へ送信する(ステップS408)。処理はステップS410へ移行する。
 次に、自動化ゲート装置50は、照合結果に基づいて手続を実行できると判定した場合(ステップS410、YES)、処理はステップS412へ移行する。これに対し、自動化ゲート装置50は、照合結果に基づいて手続を実行できないと判定した場合(ステップS410、NO)、利用者Uに対してエラーメッセージを通知する(ステップS411)。例えば、“有人カウンタにて出国審査手続を行ってください。”等のメッセージを含む通知画面を表示装置507に表示する。
 次に、自動化ゲート装置50は、管理サーバ10から受信した搭乗予約情報に基づいて利用者Uの出国審査手続を実行し(ステップS412)、ゲート511を開放する(ステップS413)。タッチポイントP4を通過した利用者Uは、搭乗ゲートのある出国エリアに向かう。
 次に、自動化ゲート装置50は、トークンIDと、業務情報と、顔画像の照合を経て利用者Uの出国審査手続が完了したことを示す通過履歴情報を管理サーバ10へ送信する(ステップS414)。なお、通過履歴情報には、タッチポイントP4の通過時間、使用した端末のデバイス名等の情報が含まれるものとする。
 管理サーバ10は、自動化ゲート装置50から情報を受信すると、トークンIDと利用者UのタッチポイントP4の通過情報との関係を示す通過履歴情報を通過履歴情報DB12へ登録する(ステップS415)。そして、管理サーバ10は、必要に応じて、自動化ゲート装置50から受信した業務情報を業務情報DB14へ登録する(ステップS416)。
[搭乗ゲートにおける搭乗チェック]
 図18は、搭乗ゲート装置60及び管理サーバ10の処理の一例を示すシーケンス図である。この処理は、利用者Uが搭乗ゲートを通過するときに実行される。
 搭乗ゲート装置60は、装置の前を常時又は定期的に撮影し、撮影した画像中に搭乗ゲート装置60の前に立つ利用者Uの顔が検出されたか否かを判定する(ステップS501)。搭乗ゲート装置60は、生体情報取得装置609によって画像中に利用者Uの顔が検出されるまで待機する(ステップS501、NO)。
 搭乗ゲート装置60は、生体情報取得装置609によって利用者Uの顔が検出されたと判定すると(ステップS501、YES)、その利用者Uの顔を撮影して、利用者Uの顔画像を対象顔画像として取得する(ステップS502)。
 次に、搭乗ゲート装置60は、生体情報取得装置609により撮像された利用者Uの対象顔画像、搭乗ゲート装置60のデバイス情報及びロケーション情報を照合要求とともに管理サーバ10へ送信する(ステップS503)。これにより、搭乗ゲート装置60は、生体情報取得装置609により撮像された利用者Uの対象顔画像と、管理サーバ10のトークンID情報DB11に登録された複数の登録顔画像とを1対Nで照合することを管理サーバ10に対して要求する。
 管理サーバ10は、搭乗ゲート装置60から対象顔画像及び照合要求等を受信すると、利用者Uの顔画像の照合を行う(ステップS504)。すなわち、管理サーバ10は、搭乗ゲート装置60から受信した対象顔画像と、トークンID情報DB11に登録された複数の登録顔画像とを1対Nで照合する。なお、照合先となる登録顔画像は、無効フラグの値が“1”(有効)であるトークンIDに関連付けられた画像に限るものとする。
 次に、管理サーバ10は、認証履歴IDを発行するとともに、認証履歴ID、デバイス情報、ロケーション情報、認証スコア、認証処理時間及び認証結果を関連付けた認証履歴情報を認証履歴情報DB13へ登録する(ステップS505)。なお、ステップS504における照合結果が照合一致の場合には、照合一致の登録顔画像に関連付けられたトークンIDを特定できるため、認証履歴情報にはトークンIDも含まれる。
 管理サーバ10が、照合結果は照合不一致であると判定すると(ステップS506、NO)、管理サーバ10は照合不一致の照合結果を搭乗ゲート装置60へ送信し(ステップS509)、処理はステップS510に移行する。これに対し、管理サーバ10が、照合結果は照合一致であると判定すると(ステップS506、YES)、処理はステップS507に移行する。
 ステップS507において、管理サーバ10は、トークンID情報DB11において照合一致の登録顔画像に関連付けられたトークンIDをキーとして、業務情報DB14から予約番号等の搭乗予約情報を取得する。そして、管理サーバ10は、トークンID、搭乗予約情報及び照合結果を搭乗ゲート装置60へ送信する(ステップS508)。処理はステップS510へ移行する。
 次に、搭乗ゲート装置60は、照合結果に基づいて手続を実行できると判定した場合(ステップS510、YES)、処理はステップS512へ移行する。
 これに対し、搭乗ゲート装置60は、照合結果に基づいて手続を実行できないと判定した場合(ステップS510、NO)、利用者Uに対してエラーメッセージを通知する(ステップS511)。例えば、搭乗ゲート装置60は、“有人カウンタにて手続を行ってください。”等のメッセージを含む通知画面を表示装置607に表示する。
 ステップS512において、搭乗ゲート装置60は、予約システム2から搭乗予約情報を受信すると、搭乗予約情報に含まれる便番号、ゲート番号及び搭乗開始時刻等に基づいて利用者Uの搭乗チェックを実行する。搭乗ゲート装置60は、搭乗を許可する場合にはゲート611を開放する(ステップS513)。タッチポイントP5を通過した利用者Uは、航空機に搭乗する。なお、ステップS512において、搭乗ゲート装置60が搭乗を許可しない判定を行った場合には、ゲート611を開放せずに、利用者Uに対してエラーメッセージを通知するとよい。例えば、利用者Uがゲート611の番号を間違えた場合や、現在時刻が搭乗開始時刻に達していない場合等には、ゲート611は開放されない。
 次に、搭乗ゲート装置60は、トークンIDと、業務情報と、顔画像の照合を経て利用者Uの航空機への搭乗が完了したことを示す通過履歴情報を管理サーバ10へ送信する(ステップS514)。なお、通過履歴情報には、タッチポイントP5の通過時間、使用した端末のデバイス名等の情報が含まれるものとする。
 管理サーバ10は、搭乗ゲート装置60から情報を受信すると、トークンIDと利用者UのタッチポイントP5の通過情報との関係を示す通過履歴情報を通過履歴情報DB12へ登録する(ステップS515)。また、管理サーバ10は、必要に応じて、搭乗ゲート装置60から受信した業務情報を業務情報DB14へ登録する(ステップS516)。
 そして、管理サーバ10は、トークンID情報DB11を更新する(ステップS517)。具体的には、管理サーバ10は、トークンID情報DB11の無効フラグを無効の値(“0”)に更新する。これにより、トークンIDの有効期間(ライフサイクル)が満了する。
[生体認証以外での手続]
 図19は、予約システム2、業務端末22及び管理サーバ10の処理の一例を示すシーケンス図である。この処理は、係員(S1~S5)が業務端末22等を用いて手続を行うときに実行される。ここでは、タッチポイントP1に配置された業務端末22を例として説明する。
 先ず、業務端末22は、利用者Uの旅券が媒体読取装置228の読取部(不図示)にかざされたか否かを判定し(ステップS601)、旅券がかざされるまで待機する(ステップS601、NO)。
 次に、業務端末22は、旅券が媒体読取装置228の読取部にかざされたと判定すると(ステップS601、YES)、かざされた旅券から利用者Uの旅券情報を取得する(ステップS602)。取得された旅券情報には、利用者Uの旅券顔画像、本人確認情報、旅券番号、旅券発行国の情報等が含まれる。
 次に、業務端末22は、利用者Uの航空券媒体が媒体読取装置228の読取部にかざされたか否かを判定する(ステップS603)。業務端末22は、航空券媒体がかざされるまで待機する(ステップS603、NO)。
 次に、業務端末22は、航空券媒体が媒体読取装置228の読取部にかざされたと判定すると(ステップS603、YES)、かざされた航空券媒体から予約番号及びエアラインコード等の記録データを取得する(ステップS604)。
 次に、業務端末22は、エアラインコードに対応する航空会社の予約システム2に対して記録データを送信し(ステップS605)、記録データと搭乗予約情報との照合を要求する。
 予約システム2は、業務端末22からの記録データを受信すると、記録データと予約情報DB3に記録されている搭乗予約情報とを照合し(ステップS606)、その照合結果を業務端末22へ送信する(ステップS607)。
 次に、業務端末22は、予約システム2から照合結果を受信すると、タッチポイントP1における手続を実行できるか否かを判定する(ステップS608)。ここで、業務端末22は、手続を実行できると判定した場合には(ステップS608、YES)、処理はステップS609へ移行する。これに対し、業務端末22は、管理サーバ10から受信した情報に基づいて、手続を実行できないと判定した場合(ステップS608、NO)、エラーメッセージを通知する(ステップS610)。
 ステップS609において、業務端末22は係員Sの入力情報に基づいてタッチポイントP1における審査手続(チェックイン手続)を実行する。業務端末22は、予約番号と、業務端末22での処理により得られた業務情報と、業務端末22における手続完了を示す通過履歴情報とを管理サーバ10へ送信する(ステップS611)。
 次に、管理サーバ10は、業務端末22からの情報を受信すると、通過履歴情報を通過履歴情報DB12へ登録する(ステップS612)。そして、管理サーバ10は、必要に応じて、業務端末22から受信した業務情報を業務情報DB14に登録する(ステップS613)。
[統計分析処理]
 図20は、管理サーバ10の処理の一例を示すフローチャートである。この処理は、所定の周期で又はシステムの管理者等からの処理要求が入力されたときに実行される。
 先ず、管理サーバ10は、管理者等により設定された統計分析条件を取得すると(ステップS701)、統計分析条件に基づいて指定期間における通過履歴情報を通過履歴情報DB12から取得する(ステップS702)。なお、各タッチポイントP1~P5において、記録媒体の読取により手続が行われた場合には、通過履歴情報DB12からはトークンIDが含まれない通過履歴情報が取得される。
 次に、管理サーバ10は、通過履歴情報に含まれるトークンIDをキーとして、認証履歴情報DB13からタッチポイント通過時における認証履歴情報を取得する(ステップS703)。
 次に、管理サーバ10は、通過履歴情報に含まれるトークンIDをキーとして、業務情報DB14から利用者Uの属性情報を含む業務情報を取得する(ステップS704)。
 次に、管理サーバ10は、通過履歴情報、認証履歴情報及び業務情報(属性情報)に対する統計分析処理を実行する(ステップS705)。管理サーバ10は、例えば、タッチポイント別、利用者Uの属性別、期間別に統計処理を実行する。
 そして、管理サーバ10は、管理者等により指定された統計分析結果の表示条件を取得すると(ステップS706)、統計分析結果を業務端末22や図示しない表示用の端末に表示する(ステップS707)。
 図21乃至図26は、管理サーバ10が出力する画面の一例を示す図である。図21は、システム管理者が表示する分析結果を選択するための分析メニュー選択画面を示している。画面の中央領域には、複数の分析メニューM1~M6と、分析条件を設定するための画面に遷移するための分析条件設定ボタンM7が表示されている。
 図22は、異なる種類の統計結果をダッシュボード形式で一括表示したダッシュボード画面である。図21に示すダッシュボード画面は、大きく4つの領域A1~A4から構成されている。領域A1は、ロケーション別に認証精度を統計分析した結果を示している。
 領域A1は、領域A11~A14からなる。領域A11は、ロケーション(“T1南W”)における平均認証精度、平均認証時間及びトークンID利用率を表示している。“トークンID利用率”とは、生体認証の利用率と同義である。生体認証による手続の履歴情報(第1履歴情報)のレコード数(すなわち、生体認証利用者数)N1と、記録媒体の読取による手続の利用情報のレコード数(すなわち、媒体利用者数)N2を加算すると、旅客の総数N3が分かる。このため、トークンID利用率をRとすると、R=N1/(N1+N2)と算出できる。
 領域A12は、端末IDごとの平均認証精度を表示している。領域A13は、端末IDごとの平均認証時間を表示している。領域A14は、端末IDごとのトークンID利用率を表示している。なお、A12~A14において、端末IDが“♯51”~“♯54”のロケーションは“T1南W”であり、端末IDが“♯61”~“♯64”のロケーションは“T2本館”である。
 領域A11、領域A12及び領域A13においては、所定の閾値を満たさない端末を検出し、強調表示してもよい。例えば、領域A12においては、平均認証精度が閾値の0.96に満たない端末として端末IDが“♯52”の端末を検出できる。また、ロケーションごとに生体認証の処理結果(認証精度、認証時間及び認証成功率)を集計して出力してもよい。そして、ロケーション(配置場所)単位での平均認証精度が所定の閾値に満たない場合には、該当するロケーションの情報を出力してもよい。
 領域A13においては、平均認証時間が閾値の1秒を超える端末として端末IDが“♯52”の端末を検出できる。同様に、領域A1に端末ごとの認証成功率を表示する場合には、認証成功率が所定の閾値に満たない端末を検出し、強調表示できる。
 領域A2は、ロケーション別に滞在客数の分布状況を統計分析した結果を示している。領域A2は、領域A21及び領域A22からなる。領域A21は、通過客数を円グラフで表示している。領域A22は、想定滞在客数を円グラフで表示している。
 領域A3は、デバイス別に端末の平均通過時間及びスループットを統計分析した結果を示している。領域A3は、領域A31及び領域A32からなる。領域A31は、端末IDごとの平均通過時間を棒グラフで表示している。領域A32は、端末IDごとのスループットを棒グラフで表示している。
 領域A4は、時間帯別に利用客の客数を統計分析した結果を示している。領域A4においては、客数は保安検査場(PRS)の前後及びタッチポイントP3におけるロケーション別(T1南Wサテライト4/T1南Wサテライト5/T2本館/T2サテライト)で分類されている。また、領域A4は、領域A41及びA42からなる。領域A41は、2箇所のロケーション(T1南Wサテライト4/T2本館)における時間帯別の利用客数を表示している。また、領域A42は、8種の折れ線により、時間帯別及びロケーション別の旅客数の推移データを表示している。
 図23は、トークンIDの登録者数の推移を示すトークンID登録者数推移画面である。画面上部には、データの統計期間を年単位、月単位及び日単位で切替えるためのボタンB11と、統計結果をCSVファイルとして出力するためのボタンB12が表示されている。ここでは、年単位のボタンB11が選択されている。また、画面中央部には、2018年から2019年の期間における登録者数が棒グラフ、タッチポイントごとの登録者数が折れ線グラフ及び一覧表で表示されている。なお、図23ではすべての凡例について表示しているが、タッチポイントを選択するためのボタンを設け、選択されたタッチポイントの登録者数推移のみを表示することもできる。
 図24は、トークンIDの登録者数を利用者Uの属性ごとに分析したトークンID登録者属性分析画面である。画面上部には、データの統計期間を年単位、月単位及び日単位で切替えるためのボタンB21が表示されている。ここでは、月単位が選択されている。また、ボタンB21の隣には、表示期間を切替えるためのボタンB22が表示されている。また、画面の中央部には、国籍別、性別、座席クラス別、エアライン別、年代別の分析結果が円グラフによってそれぞれ表示されている。なお、属性情報だけでなく、搭乗情報を用いた分析の結果(例えば目的地別の分析結果)を表示することもできる。
 図25はタッチポイント別に生体認証の利用率を分析したタッチポイント別利用率推移画面である。画面上部には、タッチポイントを選択するエリア選択ボタンB31と、データの統計期間を年単位、月単位及び日単位で切替えるためのボタンB32が表示されている。ここでは、月単位が選択されている。また、ボタンB32の隣には、表示期間を切替えるためのボタンB33が表示されている。画面の中央部には、4つのタッチポイント(チェックインロビー、手荷物預け場、保安検査場及び搭乗ゲート)のそれぞれにおける生体認証利用者数(利用者数)が棒グラフ、生体認証の利用率が折れ線グラフによって表示されている。生体認証の利用率として、例えば、搭乗手続きに利用するための生体情報を登録している旅客の数(トークンIDが発行されている旅客の数)のうち、生体認証を実際に利用している旅客の数が占める割合を示すことができる。また、旅客の総数のうち、生体認証を利用している旅客の数が占める割合を示すこともできる。
 図26はタッチポイント別に生体認証の認証率(認証成功率)を分析したタッチポイント別認証率推移画面である。画面上部には、タッチポイントを選択するエリア選択ボタンB41と、データの統計期間を月単位、日単位及び時単位で切替えるためのボタンB42が表示されている。ここでは、月単位が選択されている。また、ボタンB42の隣には、表示期間を切替えるためのボタンB43が表示されている。画面の中央部には、保安検査場における認証対象者の総数が棒グラフ、生体認証の認証率が折れ線グラフによって表示されている。
 本実施形態によれば、管理サーバ10は、利用者Uが各タッチポイントで航空機に搭乗するための各種手続を生体認証に基づいて行ったときにデータベースに登録された履歴情報(トークンID情報、通過履歴情報、認証履歴情報及び業務情報)を統計分析することで、利用者Uの生体認証の利用状況を様々な観点から把握可能になる。これにより、各タッチポイントでの手続における生体認証の利用を促進することができる。
<第2実施形態>
 以下、本実施形態における情報処理システム1について説明する。なお、第1実施形態の図中において付与した符号と共通する符号は同一の対象を示す。第1実施形態と共通する箇所の説明は省略し、異なる箇所について詳細に説明する。
 本実施形態では、管理サーバ10がトークンID情報、通過履歴情報、認証履歴情報及び業務情報に基づいて学習モデルを作成するとともに、学習モデルに新たなデータを適用してスループットのシミュレーションや最適レイアウト・台数の提案を行う機能をさらに備える点で第1の実施形態と異なっている。すなわち、本実施形態において、管理サーバ10のCPU101は、学習部及び予測部としても機能する。
 管理サーバ10における学習方法の一例としては、TensorFlow、Caffe2、PyTorchなどの汎用的な深層学習フレームワークを用いて学習することが可能である。
 図27は、本実施形態における学習処理に用いるニューラルネットワークを説明する概略図である。図27に示すニューラルネットワークは、複数のノードを有する入力層と、複数のノードを有する中間層と、1個のノードを有する出力層とを備える。入力層の各ノードには、例えば所定期間において各タッチポイントを通過した旅客の人数、手続時における各タッチポイントに設置された端末の台数及び通過時間等が入力される。中間層の各ノードは、入力層の各ノードに接続される。中間層のノードに入力された入力値の各要素は、中間層の各ノードにおける演算に用いられる。中間層の各ノードは、例えば、入力層の各ノードから入力された入力値と、所定の重み付け係数と、所定のバイアス値とを用いて演算値を算出する。中間層の各ノードは、それぞれ出力層に接続され、算出した演算値を出力層のノードに出力する。出力層のノードは、中間層の各ノードから演算値が入力される。
 出力層のノードは、中間層の各ノードから入力された演算値と、重み付け係数と、バイアス値とを用いて各タッチポイントにおける処理時間(推定値)を算出する。なお、ニューラルネットワークを学習させる際には、例えば誤差逆伝播法が用いられる。具体的には、データを入力層に入力したときの出力値と教師データから得られる出力値とを比較し、比較の結果生じた誤差を中間層にフィードバックする。これを誤差が所定の閾値を下回るまで繰り返す。
 このような学習処理により、ニューラルネットワーク(学習モデル)に任意の旅客数が入力されたときには、高精度で各タッチポイントにおける予測処理時間を出力できる。なお、学習処理により作成される学習モデルは、上述したものに限られない。
 図28は、管理サーバ10の処理の一例を示すフローチャートである。この処理は、システム管理者等が空港内における生体認証の利用状況を把握するために実行される。
 先ず、管理サーバ10は、端末の設置データを取得するとともに(ステップS801)、旅客数の推移データを取得する(ステップS802)。
 次に、管理サーバ10は、学習モデルに基づく予測処理を行う(ステップS803)と、予測結果を出力する(ステップS804)。
 次に、管理サーバ10は、予測結果を参照し、各タッチポイントにおける旅客の予測滞留時間が所定の閾値を超えるか否かを判定する(ステップS805)。本実施形態では、旅客の予測滞留時間は、端末装置の予測処理時間と同じとみなす。ここで、予測滞留時間が所定の閾値を超えると判定した場合(ステップS805、YES)には、処理はステップS806へ移行する。これに対し、予測滞留時間が所定の閾値を超えないと判定した場合(ステップS805、NO)には、図28の処理を終了する。
 ステップS806において、端末の設置台数を変更した設置データを学習モデルに適用し、学習モデルに基づく予測処理を繰り返し実行する。例えば、設置台数を減算しながら学習モデルに入力し、旅客数に対応する予測滞留時間が閾値以内になったときの設置台数を求める。
 そして、管理サーバ10は、最適な設置台数・場所を提案する提案画面を表示し(ステップS807)、図28の処理を終了する。
 図29は、管理サーバ10が出力する画面の一例を示す図である。図29は、生体認証を行う端末装置の最適な設置台数を提案する提案画面である。画面中央部には、管理サーバ10の分析処理の基づく提案メッセージ(「○月○日~△月△日の期間では、X国からの旅客が大幅に増加するものと予想されます。チェックインロビーの区画AAにチェックイン端末を新たに**台設置してください。」)が表示されている。なお、該表示に加え、空港内の該当エリアの地図を表示し、設置台数を提案する箇所を強調表示することもできる。
 このように、本実施形態によれば、管理サーバ10は、旅客の履歴情報に基づいて学習モデルを作成し、当該学習モデルに基づいて空港内における旅客の予測滞留時間(予測処理時間)を予測できる。また、管理サーバ10は、予測結果に基づいて各タッチポイントに設置する生体認証機能を有する端末装置の台数を提案することもできる。
<第3実施形態>
 図30は、本実施形態における情報処理装置100の全体構成例を示すブロック図である。情報処理装置100は、取得部100A及び出力部100Bを備える。取得部100Aは、空港内における旅客の搭乗に関する手続が生体認証により実行されたことを示す第1履歴情報及び手続が媒体の読取により実行されたことを示す第2履歴情報をそれぞれ取得する。出力部100Bは、第1履歴情報及び第2履歴情報に基づいて、手続における生体認証の利用状況を出力する。本実施形態における情報処理装置100によれば、旅客の搭乗に関する手続における生体認証の利用を促進できる。
<変形実施形態>
 以上、実施形態を参照して本発明を説明したが、本発明は上述の実施形態に限定されるものではない。本発明の構成及び詳細には本発明の要旨を逸脱しない範囲で、当業者が理解し得る様々な変形が可能である。例えば、いずれかの実施形態の一部の構成を、他の実施形態に追加した実施形態、あるいは他の実施形態の一部の構成と置換した実施形態も本発明を適用し得る実施形態であると理解されるべきである。
 また、本発明の構成は、国際線だけでなく、国内線の場合にも適用できる。国内線の場合には、出国審査手続のほか、旅券顔画像と撮影顔画像との1対1照合処理を省略すればよい。この場合、登録生体画像としては、例えば搭乗券の購入時の撮影顔画像を利用できる。スマートフォンやパーソナルコンピュータ等の端末を用いてオンライン上で搭乗券を購入あるいはチェックインする場合には、端末で撮影した顔画像を登録すれば、空港Aでは顔認証によって航空機に搭乗することもできる。
 上述の第1実施形態においては、チェックイン端末20が旅券から旅券顔画像を読取ることで管理サーバ10に対してトークンIDの発行申請を行っていたが、オンラインでチェックイン手続を行う場合を考慮し、自動手荷物預け機30や保安検査装置40において発行申請を行えるとよい。すなわち、管理サーバ10は、利用者Uの出国時に関する業務を実行する業務端末のいずれか1つから旅券顔画像及び対象生体画像を取得する。出国時に行われる一連の手続業務のうち、最初に行われる手続業務においてトークンIDの発行申請を行ってもよい。この場合、自動手荷物預け機30や保安検査装置40における処理は、図14の場合と同様に、旅券及び航空券媒体から記録データを取得するステップ、予約システム2に対して搭乗予約情報を問い合わせるステップ等を含めればよい。
 さらに、統計分析処理の種類は、上述したものに限られない。例えば、ある利用者Uに関する一連の手続に関して分析してもよい。具体的には、利用者UのトークンIDをキーとして通過履歴情報DB12及び認証履歴情報DB13から履歴情報をそれぞれ取得し、通過履歴情報や認証履歴情報が存在しない手続エリア(タッチポイント)を検出・分析してもよい。すなわち、利用者Uが一部のタッチポイントにおいて搭乗券等の記録媒体の読取によって手続を完了した場合には、通過履歴情報は存在しているが、認証履歴情報が存在しないタッチポイントを検出できる。例えばチェックインロビー(タッチポイントP1)と手荷物カウンタ(タッチポイントP2)では生体認証を使用し、その後、保安検査場(タッチポイントP3)では生体認証を使用せず、出国審査場(タッチポイントP4)と搭乗ゲート(タッチポイントP5)で生体認証を使用した場合であって、タッチポイントP3の認証履歴が抜けているケースである。同様に、業務端末(22、32、42、52、62)を使用して手続を行ったが通過履歴情報の登録処理が実行されなかった場合には、通過履歴情報と認証履歴情報の両方が存在しないタッチポイントを検出できる。このようなレコードの欠落状態を検出・分析することで、利用者Uの動線を把握できる。この結果、生体認証機能を有する端末装置のレイアウト、台数を変更し、生体認証のさらなる利用を促すことも可能となる。
 上述の実施形態の機能を実現するように該実施形態の構成を動作させるプログラムを記録媒体に記録させ、該記録媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記録媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記録媒体はもちろん、そのプログラム自体も各実施形態に含まれる。
 該記録媒体としては例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、磁気テープ、不揮発性メモリカード等を用いることができる。また該記録媒体に記録されたプログラム単体で処理を実行しているものに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS上で動作して処理を実行するものも各実施形態の範疇に含まれる。
 上述の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
 空港内における旅客の搭乗に関する手続が生体認証により実行されたことを示す第1履歴情報及び前記手続が媒体の読取により実行されたことを示す第2履歴情報をそれぞれ取得する取得部と、
前記第1履歴情報及び前記第2履歴情報に基づいて、前記手続における前記生体認証の利用状況を出力する出力部と、
 を備える情報処理装置。
(付記2)
 前記生体認証に用いられる前記旅客の登録生体情報に対応するトークンIDを発行する発行部をさらに備え、
 前記第1履歴情報は、前記登録生体情報が登録された手続エリア及び前記トークンIDを含み、
 前記出力部は、前記手続エリアごとの前記登録生体情報の登録数を出力する、
 付記1に記載の情報処理装置。
(付記3)
 前記第1履歴情報は、前記旅客の属性情報を含み、
 前記出力部は、前記属性情報ごとの前記登録数を出力する、
 付記2に記載の情報処理装置。
(付記4)
 前記出力部は、前記手続エリアごとの前記第1履歴情報及び前記第2履歴情報の比率に基づいて、前記手続エリアにおける前記生体認証の利用率を出力する、
 付記2又は3に記載の情報処理装置。
(付記5)
 前記出力部は、複数の前記手続エリアのうち、同一の前記旅客についての前記第1履歴情報が存在しない前記手続エリアを前記トークンIDに基づいて検出する、
 付記2乃至4のいずれかに記載の情報処理装置。
(付記6)
 前記第1履歴情報は、前記生体認証に用いられた端末の端末ID及び前記生体認証の処理結果を含み、
 前記出力部は、前記端末IDごとの前記処理結果を集計して出力する、
 付記1乃至5のいずれかに記載の情報処理装置。
(付記7)
 前記出力部は、前記端末IDごとの前記処理結果に基づいて認証成功率が所定の閾値に満たない前記端末を検出する、
 付記6に記載の情報処理装置。
(付記8)
 前記第1履歴情報は、前記空港内における前記端末の配置場所をさらに含み、
 前記出力部は、前記配置場所ごとに前記処理結果を集計して出力する、
 付記6又は7に記載の情報処理装置。
(付記9)
 前記出力部は、前記配置場所ごとの前記生体認証の認証精度を平均化した平均認証精度が所定の閾値に満たない前記配置場所の情報を出力する、
 付記8に記載の情報処理装置。
(付記10)
 所定期間における前記旅客の人数と、前記端末の設置台数と、前記手続の所要時間との関係を予め学習した学習モデルに基づいて前記手続における予測処理時間を出力する予測部、
 をさらに備える付記6乃至9のいずれかに記載の情報処理装置。
(付記11)
 前記予測部は、前記予測処理時間が所定の閾値を超える場合に、前記設置台数の変更を促す情報を出力する、
 付記10に記載の情報処理装置。
(付記12)
 前記出力部は、前記第1履歴情報及び前記第2履歴情報に基づく異なる種類の統計分析結果をダッシュボード形式で出力する、
 付記1乃至11のいずれかに記載の情報処理装置。
(付記13)
 空港内における旅客の搭乗に関する手続が生体認証により実行されたことを示す第1履歴情報及び前記手続が媒体の読取により実行されたことを示す第2履歴情報をそれぞれ取得するステップと、
 前記第1履歴情報及び前記第2履歴情報に基づいて、前記手続における前記生体認証の利用状況を出力するステップと、
 を備える情報処理方法。
(付記14)
 コンピュータに、
 空港内における旅客の搭乗に関する手続が生体認証により実行されたことを示す第1履歴情報及び前記手続が媒体の読取により実行されたことを示す第2履歴情報をそれぞれ取得するステップと、
 前記第1履歴情報及び前記第2履歴情報に基づいて、前記手続における前記生体認証の利用状況を出力するステップと、
 を実行させるプログラムを記録した記録媒体。
NW1,NW2・・・ネットワーク
1・・・情報処理システム
2・・・予約システム
3・・・予約情報DB
10・・・管理サーバ
11・・・トークンID情報DB
12・・・通過履歴情報DB
13・・・認証履歴情報DB
14・・・業務情報DB
20・・・チェックイン端末
30・・・自動手荷物預け機
40・・・保安検査装置
50・・・自動化ゲート装置
60・・・搭乗ゲート装置
22,32,42,52,62・・・業務端末
100・・・情報処理装置
100A・・・取得部
100B・・・出力部

Claims (14)

  1.  空港内における旅客の搭乗に関する手続が生体認証により実行されたことを示す第1履歴情報及び前記手続が媒体の読取により実行されたことを示す第2履歴情報をそれぞれ取得する取得部と、
     前記第1履歴情報及び前記第2履歴情報に基づいて、前記手続における前記生体認証の利用状況を出力する出力部と、
     を備える情報処理装置。
  2.  前記生体認証に用いられる前記旅客の登録生体情報に対応するトークンIDを発行する発行部をさらに備え、
     前記第1履歴情報は、前記登録生体情報が登録された手続エリア及び前記トークンIDを含み、
     前記出力部は、前記手続エリアごとの前記登録生体情報の登録数を出力する、
     請求項1に記載の情報処理装置。
  3.  前記第1履歴情報は、前記旅客の属性情報を含み、
     前記出力部は、前記属性情報ごとの前記登録数を出力する、
     請求項2に記載の情報処理装置。
  4.  前記出力部は、前記手続エリアごとの前記第1履歴情報及び前記第2履歴情報の比率に基づいて、前記手続エリアにおける前記生体認証の利用率を出力する、
     請求項2又は3に記載の情報処理装置。
  5.  前記出力部は、複数の前記手続エリアのうち、同一の前記旅客についての前記第1履歴情報が存在しない前記手続エリアを前記トークンIDに基づいて検出する、
     請求項2乃至4のいずれか1項に記載の情報処理装置。
  6.  前記第1履歴情報は、前記生体認証に用いられた端末の端末ID及び前記生体認証の処理結果を含み、
     前記出力部は、前記端末IDごとの前記処理結果を集計して出力する、
     請求項1乃至5のいずれか1項に記載の情報処理装置。
  7.  前記出力部は、前記端末IDごとの前記処理結果に基づいて認証成功率が所定の閾値に満たない前記端末を検出する、
     請求項6に記載の情報処理装置。
  8.  前記第1履歴情報は、前記空港内における前記端末の配置場所をさらに含み、
     前記出力部は、前記配置場所ごとに前記処理結果を集計して出力する、
     請求項6又は7に記載の情報処理装置。
  9.  前記出力部は、前記配置場所ごとの前記生体認証の認証精度を平均化した平均認証精度が所定の閾値に満たない前記配置場所の情報を出力する、
     請求項8に記載の情報処理装置。
  10.  所定期間における前記旅客の人数と、前記端末の設置台数と、前記手続の所要時間との関係を予め学習した学習モデルに基づいて前記手続における予測処理時間を出力する予測部、
     をさらに備える請求項6乃至9のいずれか1項に記載の情報処理装置。
  11.  前記予測部は、前記予測処理時間が所定の閾値を超える場合に、前記設置台数の変更を促す情報を出力する、
     請求項10に記載の情報処理装置。
  12.  前記出力部は、前記第1履歴情報及び前記第2履歴情報に基づく異なる種類の統計分析結果をダッシュボード形式で出力する、
     請求項1乃至11のいずれか1項に記載の情報処理装置。
  13.  空港内における旅客の搭乗に関する手続が生体認証により実行されたことを示す第1履歴情報及び前記手続が媒体の読取により実行されたことを示す第2履歴情報をそれぞれ取得するステップと、
     前記第1履歴情報及び前記第2履歴情報に基づいて、前記手続における前記生体認証の利用状況を出力するステップと、
     を備える情報処理方法。
  14.  コンピュータに、
     空港内における旅客の搭乗に関する手続が生体認証により実行されたことを示す第1履歴情報及び前記手続が媒体の読取により実行されたことを示す第2履歴情報をそれぞれ取得するステップと、
     前記第1履歴情報及び前記第2履歴情報に基づいて、前記手続における前記生体認証の利用状況を出力するステップと、
     を実行させるプログラムを記録した記録媒体。
PCT/JP2019/031979 2019-08-14 2019-08-14 情報処理装置、情報処理方法及び記録媒体 WO2021029047A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
EP19941253.7A EP4016483A4 (en) 2019-08-14 2019-08-14 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND RECORDING MEDIUM
US16/652,612 US11816195B2 (en) 2019-08-14 2019-08-14 Information processing apparatus, information processing method, and storage medium
PCT/JP2019/031979 WO2021029047A1 (ja) 2019-08-14 2019-08-14 情報処理装置、情報処理方法及び記録媒体
JP2021539774A JP7045646B2 (ja) 2019-08-14 2019-08-14 情報処理装置、情報処理方法及びプログラム
JP2022041971A JP7393726B2 (ja) 2019-08-14 2022-03-17 情報処理装置、情報処理方法及びプログラム
US18/376,087 US20240028682A1 (en) 2019-08-14 2023-10-03 Information processing apparatus, information processing method, and storage medium
JP2023198094A JP2024020501A (ja) 2019-08-14 2023-11-22 情報処理装置、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/031979 WO2021029047A1 (ja) 2019-08-14 2019-08-14 情報処理装置、情報処理方法及び記録媒体

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/652,612 A-371-Of-International US11816195B2 (en) 2019-08-14 2019-08-14 Information processing apparatus, information processing method, and storage medium
US18/376,087 Continuation US20240028682A1 (en) 2019-08-14 2023-10-03 Information processing apparatus, information processing method, and storage medium

Publications (1)

Publication Number Publication Date
WO2021029047A1 true WO2021029047A1 (ja) 2021-02-18

Family

ID=74569560

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/031979 WO2021029047A1 (ja) 2019-08-14 2019-08-14 情報処理装置、情報処理方法及び記録媒体

Country Status (4)

Country Link
US (2) US11816195B2 (ja)
EP (1) EP4016483A4 (ja)
JP (3) JP7045646B2 (ja)
WO (1) WO2021029047A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024023957A1 (ja) * 2022-07-27 2024-02-01 日本電気株式会社 サーバ装置、システム、サーバ装置の制御方法及び記憶媒体

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11224236A (ja) * 1998-02-05 1999-08-17 Mitsubishi Electric Corp 遠隔認証システム
JP2003184381A (ja) * 2001-12-17 2003-07-03 Hitachi Ltd 入室管理方法及びその実施システム並びにその処理プログラム
JP2006031341A (ja) * 2004-07-15 2006-02-02 Ricoh Co Ltd 画像形成装置、画像形成方法、およびその方法をコンピュータで実行させるプログラム。
JP2007079656A (ja) 2005-09-12 2007-03-29 Hitachi Ltd チケットレス搭乗システム及びチケットレス搭乗方法
JP2007122529A (ja) * 2005-10-31 2007-05-17 Hitachi Omron Terminal Solutions Corp 現金自動預払システム及び装置
JP2008507790A (ja) * 2004-07-26 2008-03-13 ディズニー エンタープライゼス インコーポレイテッド 運行設備に対する乗客、手荷物及び貨物の流れの管理
WO2009075180A1 (ja) * 2007-12-11 2009-06-18 Nec Corporation 認証装置、認証システム、認証方法及びプログラム
JP2010061517A (ja) * 2008-09-05 2010-03-18 Fujitsu Ltd 生体認証装置
JP2010231397A (ja) * 2009-03-26 2010-10-14 Fujifilm Corp 認証装置及び認証方法
WO2011092829A1 (ja) * 2010-01-28 2011-08-04 富士通株式会社 指紋認証装置、指紋認証方法及び指紋認証プログラム
JP2019095924A (ja) * 2017-11-20 2019-06-20 パナソニックIpマネジメント株式会社 トイレ検索方法、トイレ検索システム、端末用プログラム、及び検出装置
JP2019125164A (ja) * 2018-01-17 2019-07-25 オムロン株式会社 利用者管理装置、生体認証システム、利用者管理方法及び利用者管理プログラム

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6108636A (en) * 1996-10-15 2000-08-22 Iris Corporation Berhad Luggage handling and reconciliation system using an improved security identification document including contactless communication insert unit
US6618806B1 (en) * 1998-04-01 2003-09-09 Saflink Corporation System and method for authenticating users in a computer network
US6085321A (en) * 1998-08-14 2000-07-04 Omnipoint Corporation Unique digital signature
US6377944B1 (en) * 1998-12-11 2002-04-23 Avaya Technology Corp. Web response unit including computer network based communication
JP2002140306A (ja) * 2000-11-01 2002-05-17 Matsushita Electric Ind Co Ltd 生体情報認証ログ管理サービス提供方法及びそのシステム
JP3943897B2 (ja) * 2001-10-30 2007-07-11 株式会社東芝 本人確認システム及び装置
JP4082028B2 (ja) * 2001-12-28 2008-04-30 ソニー株式会社 情報処理装置および情報処理方法、並びに、プログラム
US20030158762A1 (en) * 2002-01-18 2003-08-21 Jiang Wu System and method for airplane security / service / maintenance management
JP2003216260A (ja) * 2002-01-22 2003-07-31 Casio Comput Co Ltd データ処理装置、及びプログラム
GB2402249A (en) * 2003-03-28 2004-12-01 Qinetiq Ltd Integrated passenger management system using biometric sensors and a mm wave camera
WO2005055151A1 (ja) 2003-12-03 2005-06-16 Hitachi, Ltd. 搭乗セキュリティチェックシステムおよび方法ならびにコンピュータプログラム
JP4341517B2 (ja) * 2004-06-21 2009-10-07 日本電気株式会社 セキュリティポリシー管理システム、セキュリティポリシー管理方法およびプログラム
EP1619638A1 (en) * 2004-07-23 2006-01-25 Urmet Domus S.p.A. Airport surveillance system
JP2006259908A (ja) 2005-03-15 2006-09-28 Fuji Electric Holdings Co Ltd 誘導案内システム、そのサーバ、プログラム
JP2007249585A (ja) * 2006-03-15 2007-09-27 Omron Corp 認証装置およびその制御方法、認証装置を備えた電子機器、認証装置制御プログラム、ならびに該プログラムを記録した記録媒体
JP4963388B2 (ja) * 2006-09-12 2012-06-27 日立オムロンターミナルソリューションズ株式会社 生体認証装置及び操作案内通知方法
AU2007313660B2 (en) * 2006-10-30 2012-04-19 Nextgenid, Inc. Computerized biometric passenger identification system and method
JP5204556B2 (ja) * 2008-05-29 2013-06-05 株式会社日立製作所 ワークフローサーバ、ワークフロー管理方法、ワークフロー管理プログラム、および、ワークフロー管理プログラムを記録した記録媒体
JP2010039846A (ja) * 2008-08-06 2010-02-18 Fujitsu Ltd 認証方式制御装置、認証方式制御方法および認証方式制御プログラム
JP5353172B2 (ja) * 2008-10-02 2013-11-27 富士通株式会社 認証方法、認証プログラムおよび情報処理装置
JP5228872B2 (ja) * 2008-12-16 2013-07-03 富士通株式会社 生体認証装置、生体認証方法及び生体認証用コンピュータプログラムならびにコンピュータシステム
JP5203286B2 (ja) 2009-04-27 2013-06-05 株式会社日立製作所 生体認証システム、生体認証方法、および情報処理装置
KR101184432B1 (ko) * 2009-06-04 2012-09-20 인천국제공항공사 출입국 절차 자동화 장치 및 그 자동화 방법
WO2011111104A1 (ja) * 2010-03-10 2011-09-15 富士通株式会社 生体認証システムの負荷分散装置
DE102010016098A1 (de) * 2010-03-23 2011-09-29 Kaba Gallenschütz GmbH Zugangskontrollvorrichtung
CN101977383A (zh) * 2010-08-03 2011-02-16 北京星网锐捷网络技术有限公司 网络接入的认证处理方法、系统、客户端和服务器
JP5811712B2 (ja) * 2011-09-07 2015-11-11 株式会社リコー 機器連携システム、画像形成装置、機能提供方法
JP2014126948A (ja) 2012-12-25 2014-07-07 International Business Maschines Corporation 管理対象の状態に基づいて管理情報を出力する装置、方法およびプログラム
US20140297529A1 (en) * 2013-03-14 2014-10-02 Kachyng, Inc. Point Of Access Device For Use With A Mobile Device
JP6136859B2 (ja) * 2013-11-01 2017-05-31 富士ゼロックス株式会社 情報処理装置及びプログラム
FR3013138B1 (fr) * 2013-11-12 2015-10-30 Morpho Procede et systeme de controle lors de l'acces ou la sortie d'une zone
US9619633B1 (en) * 2014-06-18 2017-04-11 United Services Automobile Association (Usaa) Systems and methods for upgrading authentication systems
US9245175B1 (en) * 2014-10-21 2016-01-26 Rockwell Collins, Inc. Image capture and individual verification security system integrating user-worn display components and communication technologies
JP6524789B2 (ja) * 2015-05-13 2019-06-05 富士通株式会社 ネットワーク監視方法、ネットワーク監視プログラム及びネットワーク監視装置
US20190043148A1 (en) * 2015-07-30 2019-02-07 The Government of the United States of America, as represented by the Secretary of Homeland Security Information collection using multiple devices
US11538126B2 (en) 2015-07-30 2022-12-27 The Government of the United States of America, as represented by the Secretary of Homeland Security Identity verification system and method
KR102398834B1 (ko) * 2015-08-13 2022-05-17 엘지전자 주식회사 이동단말기
US9964942B2 (en) 2015-11-05 2018-05-08 United States Gypsum Company System and method for manufacturing cementitious boards with on-line board measurement
JP6565636B2 (ja) * 2015-11-30 2019-08-28 富士通株式会社 ネットワーク監視プログラム、ネットワーク監視方法及びネットワーク監視装置
US10165005B2 (en) * 2016-09-07 2018-12-25 Oracle International Corporation System and method providing data-driven user authentication misuse detection
CN106778303B (zh) * 2016-12-07 2020-03-17 腾讯科技(深圳)有限公司 授权策略优化方法及授权策略优化装置
US20190361697A1 (en) * 2018-05-22 2019-11-28 Pure Storage, Inc. Automatically creating a data analytics pipeline
WO2019226652A1 (en) * 2018-05-22 2019-11-28 Pure Storage, Inc. Auto-scaling a software application
CN109615380A (zh) * 2018-10-26 2019-04-12 深圳壹账通智能科技有限公司 用户身份认证的方法、装置、计算机设备和存储介质
JP7122693B2 (ja) * 2019-02-01 2022-08-22 パナソニックIpマネジメント株式会社 顔認証システムおよび顔認証方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11224236A (ja) * 1998-02-05 1999-08-17 Mitsubishi Electric Corp 遠隔認証システム
JP2003184381A (ja) * 2001-12-17 2003-07-03 Hitachi Ltd 入室管理方法及びその実施システム並びにその処理プログラム
JP2006031341A (ja) * 2004-07-15 2006-02-02 Ricoh Co Ltd 画像形成装置、画像形成方法、およびその方法をコンピュータで実行させるプログラム。
JP2008507790A (ja) * 2004-07-26 2008-03-13 ディズニー エンタープライゼス インコーポレイテッド 運行設備に対する乗客、手荷物及び貨物の流れの管理
JP2007079656A (ja) 2005-09-12 2007-03-29 Hitachi Ltd チケットレス搭乗システム及びチケットレス搭乗方法
JP2007122529A (ja) * 2005-10-31 2007-05-17 Hitachi Omron Terminal Solutions Corp 現金自動預払システム及び装置
WO2009075180A1 (ja) * 2007-12-11 2009-06-18 Nec Corporation 認証装置、認証システム、認証方法及びプログラム
JP2010061517A (ja) * 2008-09-05 2010-03-18 Fujitsu Ltd 生体認証装置
JP2010231397A (ja) * 2009-03-26 2010-10-14 Fujifilm Corp 認証装置及び認証方法
WO2011092829A1 (ja) * 2010-01-28 2011-08-04 富士通株式会社 指紋認証装置、指紋認証方法及び指紋認証プログラム
JP2019095924A (ja) * 2017-11-20 2019-06-20 パナソニックIpマネジメント株式会社 トイレ検索方法、トイレ検索システム、端末用プログラム、及び検出装置
JP2019125164A (ja) * 2018-01-17 2019-07-25 オムロン株式会社 利用者管理装置、生体認証システム、利用者管理方法及び利用者管理プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024023957A1 (ja) * 2022-07-27 2024-02-01 日本電気株式会社 サーバ装置、システム、サーバ装置の制御方法及び記憶媒体

Also Published As

Publication number Publication date
US11816195B2 (en) 2023-11-14
JPWO2021029047A1 (ja) 2021-02-18
US20210342428A1 (en) 2021-11-04
US20240028682A1 (en) 2024-01-25
JP2022078319A (ja) 2022-05-24
EP4016483A1 (en) 2022-06-22
EP4016483A4 (en) 2022-08-17
JP7045646B2 (ja) 2022-04-01
JP2024020501A (ja) 2024-02-14
JP7393726B2 (ja) 2023-12-07

Similar Documents

Publication Publication Date Title
JPWO2020026367A1 (ja) 情報処理装置、情報処理方法及び記録媒体及びプログラム
JPWO2020026368A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP7380723B2 (ja) 情報処理装置、情報処理方法及びプログラム
WO2020075280A1 (ja) 情報処理装置、情報処理方法及び記録媒体
JP7235123B2 (ja) 情報処理装置、情報処理方法及びプログラム
EP3944180A1 (en) Information processing device, server device, information processing method, and recording medium
JP2024020501A (ja) 情報処理装置、情報処理方法及びプログラム
JP7264265B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2024023992A (ja) 情報処理装置、情報処理方法及びプログラム
WO2022003924A1 (ja) 情報処理装置、情報処理方法及び記録媒体
JP7279784B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP7031798B2 (ja) プログラム、情報処理装置及び情報処理方法
WO2021199337A1 (ja) 情報処理装置、情報処理方法及び記録媒体
WO2022074844A1 (ja) 情報処理装置、情報処理方法及び記録媒体
WO2022003923A1 (ja) 情報処理装置、情報処理方法及び記録媒体
WO2022074846A1 (ja) 情報処理装置、情報処理方法及び記録媒体
WO2022074847A1 (ja) 情報処理装置、情報処理方法及び記録媒体
US20220172286A1 (en) Information processing apparatus, terminal device, information processing method, and storage medium
WO2021064880A1 (ja) 情報処理装置、情報処理方法及び記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19941253

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021539774

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019941253

Country of ref document: EP

Effective date: 20220314