WO2022201490A1 - 認証端末、認証システム、認証方法及び非一時的なコンピュータ可読媒体 - Google Patents

認証端末、認証システム、認証方法及び非一時的なコンピュータ可読媒体 Download PDF

Info

Publication number
WO2022201490A1
WO2022201490A1 PCT/JP2021/012869 JP2021012869W WO2022201490A1 WO 2022201490 A1 WO2022201490 A1 WO 2022201490A1 JP 2021012869 W JP2021012869 W JP 2021012869W WO 2022201490 A1 WO2022201490 A1 WO 2022201490A1
Authority
WO
WIPO (PCT)
Prior art keywords
authentication
information
subject
image
code
Prior art date
Application number
PCT/JP2021/012869
Other languages
English (en)
French (fr)
Inventor
充 冨田
大輔 川崎
薫 山根
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US18/284,096 priority Critical patent/US20240152592A1/en
Priority to JP2023508370A priority patent/JPWO2022201490A5/ja
Priority to PCT/JP2021/012869 priority patent/WO2022201490A1/ja
Publication of WO2022201490A1 publication Critical patent/WO2022201490A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/36User authentication by graphic or iconic representation

Definitions

  • the present disclosure relates to authentication terminals, authentication systems, authentication methods, and non-transitory computer-readable media.
  • An authentication system has been proposed that does not store biometric personal information in a database and performs authentication with a simple configuration.
  • Patent Document 1 using an information code such as a two-dimensional information code in which facial feature points of a user are recorded, facial feature points extracted from a photographed image of a user and facial feature points read from the information code
  • An authentication system is disclosed that authenticates a user by matching facial feature points.
  • Patent Document 2 a personal authentication system performs personal authentication by comparing palm print feature point data recorded in a two-dimensional code with palm print feature point data detected from palm image data of an authentication subject. is disclosed.
  • An object of the present disclosure is to provide an authentication terminal, an authentication system, an authentication method, and a non-transitory computer-readable medium that can improve authentication throughput in view of the above-mentioned problems.
  • An authentication terminal includes: A body image generated by photographing the subject's body when the subject is located at a first distance from an imaging means, and a second distance from the imaging means where the subject is shorter than the first distance. and an image acquisition means for acquiring a code image generated by photographing a code recording medium carried by the subject when the subject is at a distant position, wherein the code recording medium is an image for registration of the subject.
  • an image acquisition means having a visible code symbol in which embedded information including biometric information is recorded authentication information generation means for starting processing for generating biometric information for authentication of the subject from the body image in response to obtaining the body image of the subject; embedded information obtaining means for obtaining the embedded information from the code image in response to obtaining the code image; authentication means for performing biometric authentication by comparing the biometric information for authentication with the biometric information for registration included in the embedded information; Gate control means for restricting the subject from passing through the gate when the biometric authentication fails.
  • An authentication system includes: A body image generated by photographing the subject's body when the subject is located at a first distance from an imaging means, and a second distance from the imaging means where the subject is shorter than the first distance. and an image acquisition means for acquiring a code image generated by photographing a code recording medium carried by the subject when the subject is at a distant position, wherein the code recording medium is an image for registration of the subject.
  • an image acquisition means having a visible code symbol in which embedded information including biometric information is recorded authentication information generation means for starting processing for generating biometric information for authentication of the subject from the body image in response to obtaining the body image of the subject; embedded information obtaining means for obtaining the embedded information from the code image in response to obtaining the code image; authentication means for performing biometric authentication by comparing the biometric information for authentication with the biometric information for registration included in the embedded information; and gate control means for restricting the subject from passing through the gate when the biometric authentication fails.
  • An authentication method includes: a first image acquiring step of acquiring a body image generated by photographing the body of the subject when the subject is at a position separated by a first distance from the imaging means; an authentication information generation step of starting a process of generating biometric information for authentication of the subject from the body image in response to obtaining the body image of the subject; A second image for acquiring a code image generated by photographing a code recording medium carried by the subject when the subject is at a second distance shorter than the first distance from the imaging means.
  • the code recording medium has a visible code symbol in which embedded information including biometric information for registration of the subject is recorded; an embedded information obtaining step of obtaining the embedded information from the code image in response to obtaining the code image; an authentication step of performing biometric authentication by comparing the biometric information for authentication with the biometric information for registration included in the embedded information; and gating restricting the subject from passing through the gate if the biometric authentication fails.
  • a non-transitory computer-readable medium comprising: a first image acquisition process for acquiring a body image generated by photographing the subject's body when the subject is at a position separated by a first distance from the imaging means; Authentication information generation processing for starting processing for generating biometric information for authentication of the subject from the body image in response to acquisition of the body image of the subject; A second image for acquiring a code image generated by photographing a code recording medium carried by the subject when the subject is at a second distance shorter than the first distance from the imaging means.
  • the code recording medium has a visible code symbol in which embedded information including biometric information for registration of the subject is recorded; embedded information acquisition processing for acquiring the embedded information from the code image in response to acquisition of the code image; an authentication process for performing biometric authentication by comparing the biometric information for authentication with the biometric information for registration included in the embedded information;
  • a program is stored for causing a computer to execute gate control processing for restricting the subject from passing through the gate when the biometric authentication fails.
  • the present disclosure can provide an authentication terminal, an authentication system, an authentication method, and a non-transitory computer-readable medium that can improve authentication throughput.
  • FIG. 4 is a flow chart showing the flow of an authentication method according to the first embodiment
  • 2 is a block diagram showing the overall configuration of an authentication system according to a second embodiment
  • FIG. FIG. 4 is a diagram for explaining an outline of the flow of face authentication
  • FIG. 4 is a diagram showing an example of the data structure of embedded information
  • 8 is a block diagram showing the configuration of a management device according to the second embodiment
  • FIG. 9 is a block diagram showing the configuration of a code generation terminal according to the second embodiment
  • FIG. 9 is a flow chart showing the flow of a code generation method according to the second embodiment
  • FIG. 9 is a block diagram showing the configuration of an authentication terminal according to the second embodiment
  • FIG. 9 is a block diagram showing the configuration of an authentication terminal according to the second embodiment
  • FIG. 9 is a flow chart showing the flow of an authentication method according to the second embodiment
  • FIG. 11 is a diagram for explaining an authentication method according to a third embodiment
  • FIG. 11 is a diagram for explaining an example of conditions for starting face information extraction processing according to the third embodiment
  • 11 is a flow chart showing part of the flow of an authentication method according to the third embodiment
  • FIG. 12 is a block diagram showing the configuration of an authentication terminal according to the fourth embodiment
  • FIG. 13 is a diagram showing an example of the data structure of restriction condition information according to the fourth embodiment
  • FIG. 14 is a flow chart showing the flow of an authentication method according to the fourth embodiment
  • FIG. 12 is a block diagram showing the configuration of an authentication terminal according to the fifth embodiment
  • FIG. 14 is a diagram showing an example of output from an authentication terminal according to the fifth embodiment
  • FIG. 22 is a diagram showing an example of output from an authentication terminal according to a modification of the fifth embodiment
  • FIG. FIG. 12 is a block diagram showing the overall configuration of an authentication system according to a sixth embodiment
  • FIG. 13 is a block diagram showing the configuration of a management device according to a sixth embodiment
  • FIG. FIG. 12 is a block diagram showing the configuration of a code generation terminal according to a sixth embodiment
  • FIG. FIG. 12 is a flow chart showing the flow of a code generation method according to a sixth embodiment
  • FIG. FIG. 12 is a block diagram showing the configuration of an authentication terminal according to a sixth embodiment
  • FIG. 12 is a flow chart showing the flow of an authentication method according to the sixth embodiment
  • FIG. FIG. 21 is a block diagram showing the overall configuration of an authentication system according to a seventh embodiment
  • FIG. FIG. 14 is a block diagram showing the overall configuration of an authentication system according to an eighth embodiment
  • FIG. 21 is a block diagram showing the configuration of an authentication terminal according to an eighth embodiment
  • FIG. 1 is a block diagram showing the configuration of an authentication terminal 10 according to the first embodiment.
  • the authentication terminal 10 is an information processing terminal that performs biometric authentication using a code recording medium carried by a subject.
  • the code recording medium has code symbols.
  • the code symbol is a visible information code, and may be a barcode, a two-dimensional code such as a QR code (registered trademark), or a color barcode such as a chameleon code (registered trademark).
  • Embedded information including at least biometric information for registration of a subject is recorded in the code symbol.
  • Biometric information is facial, fingerprint, iris, ear, or vein feature information.
  • the identification information of the subject is information for identifying the subject and is called a subject ID.
  • the authentication terminal 10 is connected to the gate driving device of the gate so as to be able to communicate wirelessly or by wire.
  • the gate may be the gate through which the subject wishes to pass.
  • the authentication terminal 10 includes an image acquisition unit 11 , an authentication information generation unit 12 , an embedded information acquisition unit 13 , an authentication unit 14 and a gate control unit 17 .
  • the image acquisition unit 11 is also called image acquisition means.
  • the image acquiring unit 11 acquires a body image generated by photographing the body of a subject and a code image generated by photographing a code recording medium.
  • the subject's body to be photographed is at least a part of the subject's body, such as the subject's face, fingers, eyes, ears, or palm.
  • the body image is generated by photographing the subject's body when the subject is at a position separated by the first distance from an imaging unit (not shown).
  • the code image is generated by capturing an image of the code recording medium when the subject is at the second distance from the imaging unit. The second distance is shorter than the first distance. That is, when the user U is approaching the imaging unit, the body of the user U is first photographed, and then the code recording medium carried by the user U is photographed.
  • the authentication information generation unit 12 is also called authentication information generation means. Upon acquiring the body image of the subject, the authentication information generation unit 12 starts processing for generating biometric information for authentication of the subject from the body image.
  • the embedded information acquisition unit 13 is also called embedded information acquisition means.
  • the embedded information acquisition unit 13 acquires embedded information from the code image acquired by the image acquisition unit 11 .
  • the embedding information acquisition unit 13 extracts the code symbols from the code image and performs decoding processing on the code symbols to acquire the embedding information.
  • the authentication unit 14 is also called authentication means.
  • the authentication unit 14 compares the biometric information for registration included in the embedded information acquired from the code image by the embedded information acquiring unit 13 with the biometric information for authentication generated based on the body image, Perform biometric authentication.
  • the gate control unit 17 is also called gate control means.
  • the gate control unit 17 restricts the subject from passing through the gate when the biometric authentication fails.
  • biometric authentication failure means that the biometric information for registration and the biometric information for authentication do not match.
  • the biometric information does not match includes that the degree of matching between the two biometric information is less than a predetermined threshold.
  • FIG. 2 is a flow chart showing the flow of the authentication method according to the first embodiment.
  • the image acquiring unit 11 of the authentication terminal 10 acquires a body image generated by photographing the body of the subject when the subject is at a position separated by the first distance from the imaging unit (S10).
  • the authentication information generation unit 12 starts processing for generating biometric information for authentication of the subject from the body image (S11).
  • the image acquiring unit 11 acquires a code image generated by photographing a code recording medium carried by the subject when the subject is at a position separated by the second distance from the imaging unit (S12).
  • the embedding information acquisition unit 13 acquires embedding information from the code image (S13).
  • the authentication unit 14 performs biometric authentication by comparing the biometric information for authentication with the biometric information for registration included in the embedded information (S14). Next, the authentication unit 14 determines whether or not the biometric authentication has succeeded (S15). If the authentication unit 14 determines that the biometric authentication has succeeded (Yes in S15), the process ends. On the other hand, when the authentication unit 14 determines that the biometric authentication has failed (No in S15), the gate control unit 17 restricts the subject from passing through the gate (S16).
  • the authentication terminal 10 takes an image of the subject's body and starts the process of acquiring biometric information for authentication from the body image, prior to taking an image of the code recording medium.
  • the authentication terminal 10 can acquire biometric information for authentication while the target person is approaching the imaging unit, thereby improving throughput of authentication.
  • the authentication terminal 10 includes a processor, memory, and storage device (not shown). Further, the storage device stores a computer program in which processing of the authentication method according to the present embodiment is implemented. Then, the processor loads the computer program from the storage device into the memory and executes the computer program. Thereby, the processor implements the functions of the image acquisition unit 11 , the authentication information generation unit 12 , the embedded information acquisition unit 13 , the authentication unit 14 and the gate control unit 17 .
  • the image acquisition unit 11, the authentication information generation unit 12, the embedding information acquisition unit 13, the authentication unit 14, and the gate control unit 17 may each be realized by dedicated hardware.
  • part or all of each component of each device may be realized by general-purpose or dedicated circuitry, processors, etc., or combinations thereof. These may be composed of a single chip, or may be composed of multiple chips connected via a bus. A part or all of each component of each device may be implemented by a combination of the above-described circuits and the like and programs.
  • CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • FPGA field-programmable gate array
  • the plurality of information processing devices, circuits, etc. may be centrally arranged or distributed. may be placed.
  • the information processing device, circuits, and the like may be implemented as a form in which each is connected via a communication network, such as a client-server system, a cloud computing system, or the like.
  • the functions of the authentication terminal 10 may be provided in a SaaS (Software as a Service) format.
  • FIG. 3 is a block diagram showing the overall configuration of an authentication system 1000 according to the second embodiment.
  • the authentication system 1000 is a computer system that performs biometric authentication using a code recording medium C carried by a user U who is a subject.
  • biometric authentication will be described by taking face authentication as an example, but the biometric authentication is not limited to this.
  • the code recording medium C is assumed to be a printed matter in which code symbols are printed on paper, plastic, or the like.
  • the user U carries the code recording medium C by inserting the code recording medium C into a card case with a neck strap and hanging the card case around the neck.
  • the code recording medium C is not limited to this, and may be a smart phone, a tablet terminal, or the like, which displays code symbols and is carried by the user U.
  • the authentication system 1000 includes a code generation terminal 100, a printing device 200, authentication terminals 300-1 to 300-3, gates 400-1 to 400-3, and a management device 500. At least code generation terminal 100, authentication terminals 300-1 to 300-3, and management device 500 are connected to each other via network N.
  • FIG. The network N is a wired or wireless communication line.
  • the code generation terminal 100 is an information processing terminal that generates code symbols.
  • the code generation terminal 100 is, for example, a tablet terminal, smart phone, or personal computer (PC).
  • the code generation terminal 100 captures the face of the user U and acquires face information for registration of the user U from the captured face image.
  • face information may be a set of feature points extracted from a face image, and may be referred to as face feature information.
  • the code generation terminal 100 generates embedded information including at least face information for registration of the user U and identification information (user ID) of the user U, and converts the embedded information into a visible code symbol.
  • the code generation terminal 100 outputs the converted code symbol information to the printing device 200 . Note that the code generation terminal 100 does not have to be connected to the network N.
  • the printing device 200 is a printing device that is communicably connected to the code generation terminal 100 by wire or wirelessly.
  • the printer 200 may also be connected to the network N, and the code generation terminal 100 and the printer 200 are connected peer-to-peer via Bluetooth (registered trademark) or the like. may be
  • the printing device 200 prints the code symbol information received from the code generation terminal 100 on the code recording medium C.
  • Gates 400-1 to 400-3 are gates for permitting or restricting entry and exit from rooms 1 to 3, respectively. Gates 400-1 to 400-3 are opening and closing bodies for entering and exiting rooms 1 to 3, and may be doors, for example. Rooms 1 to 3 may be confidential areas in which entry and exit by unauthorized persons is prohibited.
  • gates 400-1, 400-2, and 400-3 may be simply referred to as gate 400 when referred to without distinction.
  • the gate 400 includes a gate driver for driving opening and closing of the gate.
  • Authentication terminals 300-1 to 300-3 are installed at points 1 to 3 near gates 400-1 to 400-3, respectively.
  • the authentication terminals 300-1, 300-2, and 300-3 may simply be referred to as the authentication terminal 300.
  • FIG. Although the numbers of authentication terminals 300 and gates 400 are both three in this figure, they may be two or less, or four or more.
  • the authentication terminal 300 is an information processing terminal that performs face authentication using the code recording medium C carried by the user U.
  • the authentication terminal 300 is, for example, a tablet terminal, smart phone, or PC.
  • Authentication terminal 300-2 opens gate 400-2 corresponding to authentication terminal 300-2 when face authentication succeeds, and closes gate 400-2 when face authentication fails.
  • opening gate 400-2 may include unlocking gate 400-2
  • closing gate 400-2 may include locking gate 400-2.
  • Authentication terminal 300-2 also transmits the result of face authentication to management device 500 together with the user ID.
  • the authentication terminal 300-2 captures the face of the user U, and acquires face information for authentication of the user U from the captured face image. Authentication terminal 300-2 also captures the code recording medium C carried by user U, and acquires embedded information from the code image generated by the capture. Authentication terminal 300-2 then performs face authentication by comparing the face information for authentication with the face information for registration included in the embedded information. When face authentication is successful, authentication terminal 300-2 transmits an opening control signal to the gate driving device of corresponding gate 400-2 to permit user U to pass through the gate. In other words, the authentication terminal 300-2 permits the user U to enter or leave the room 2.
  • authentication terminal 300-2 transmits a closing control signal to the gate driving device of corresponding gate 400-2 to restrict user U from passing through gate 400-2. In other words, the authentication terminal 300-2 prohibits the user U from entering or leaving the room 2.
  • FIG. authentication terminal 300-2 transmits the result of face authentication including the fact that face authentication was successful, the user ID included in the embedded information, and the date and time of authentication (photographing date and time) to management device 500 via network N. do.
  • the face authentication result may additionally include information on the location where authentication terminal 300-2 is installed or identification information on gate 400-2.
  • the face authentication result functions as information for managing the attendance date and time of the user U and the date and time of entering and leaving the room.
  • the processing of authentication terminal 300-2 has been described above, but the same applies to authentication terminals 300-1 and 300-3.
  • the authentication terminal 300 does not necessarily have to control the opening and closing of the gate 400 .
  • the user U visits the authentication terminal 300 at the start or end of work and undergoes face authentication by the authentication terminal 300 .
  • the management device 500 manages the face authentication result of the user U who visited the authentication terminal 300 as a face authentication history. Then, the management device 500 manages the user U's attendance history and room entrance/exit history to the rooms 1 to 3 based on the user U's face authentication history.
  • FIG. 4 is a diagram for explaining the outline of the flow of face authentication.
  • the user U visits the code generation terminal 100 to generate code symbols.
  • the code generation terminal 100 photographs the face of the user U with the camera 110 and generates a code symbol corresponding to the facial image generated by the photographing.
  • the code generation terminal 100 transmits the generated code symbol information to the printing device 200 to print it on the code recording medium C (paper in this figure).
  • the user U carries the code recording medium C on which the code symbols are printed, for example, in a card case with a neck strap.
  • the user U approaches the corresponding authentication terminal 300 and holds the code recording medium C which he/she carries with him/her when starting work, entering/leaving the room, and finishing work.
  • the authentication terminal 300 captures the face of the user U with the first camera 311 and the code recording medium C with the second camera 312 to perform face authentication.
  • the authentication terminal 300 transmits the user ID included in the embedded information obtained by reading the code symbol of the code recording medium C to the management device 500 to open the gate 400 .
  • the authentication terminal 300 closes the gate 400 when face authentication fails.
  • the first camera 311 and the second camera 312 are arranged at different arbitrary positions on the main surface of the main body of the authentication terminal 300 . In this figure, the first camera 311 is arranged above the authentication terminal 300, and the second camera 312 is arranged below the authentication terminal 300.
  • the first camera 311 is arranged below the authentication terminal 300, and the second camera 312 is arranged It may be arranged above the authentication terminal 300 . Also, the first camera 311 and the second camera 312 may be arranged on the left and right sides, or on the right and left sides of the authentication terminal 300 .
  • FIG. 5 is a diagram showing an example of the data structure of embedded information.
  • the embedded information includes biometric information for registration and management information used for information processing by authentication terminal 300 .
  • This figure shows the data structure of types 1 to 4 of embedded information with different management information, although the biometric information for registration included in the embedded information is face information for registration.
  • Type 1 embedded information includes a user ID as management information.
  • Type 2 embedded information includes a user ID and restriction information as management information.
  • the restriction information is information used when determining whether or not to restrict the user U from passing through the gate 400 .
  • the restriction information is information used to determine whether or not biometric authentication is performed for passage through the gate 400 .
  • the restriction information may be, for example, validity period information indicating the valid period of the code symbol, available location information indicating the location where the code symbol is available, or company attribute information indicating the user U's company attribute. The company attribute may be employment type, department, or title.
  • Type 3 embedded information includes user ID and nationality-related information as management information. Nationality-related information is information related to user U's nationality, country of origin, or language used.
  • Type 4 embedded information includes user ID, restriction information, and nationality-related information as management information.
  • Embodiments 2 and 3 a case where the embedded information is type 1 will be described in Embodiments 2 and 3.
  • the cases where the embedded information is type 2, 3, and 4 will be described in modifications of Embodiments 4, 5, and 5, respectively.
  • FIG. 6 is a block diagram showing the configuration of the management device 500 according to the second embodiment.
  • Management device 500 includes storage unit 510 , communication unit 520 , and control unit 530 .
  • the storage unit 510 is a storage device that stores an authentication history 511.
  • the authentication history 511 indicates the history of face authentication by the authentication terminal 300, and is information that associates a user ID 5111, a date and time 5112, and a gate ID 5113 with each other.
  • the user ID 5111 is information identifying the user U who has successfully completed face authentication, which is included in the notification from the authentication terminal 300 .
  • the date and time 5112 may be the face authentication date and time (shooting date and time) included in the notification of the face authentication result from the authentication terminal 300, or may be the date and time when the notification was received.
  • the gate ID 5113 is information for identifying the gate 400 associated with the authentication terminal 300 that is the notification source.
  • the gate ID 5113 may be information (positional information) indicating the location where the authentication terminal 300 that is the notification source is installed or the location where the gate 400 associated with the authentication terminal 300 is installed.
  • the storage unit 510 stores a program for realizing each function of the management device 500 .
  • the communication unit 520 is a communication interface with the network N.
  • the control unit 530 controls hardware of the management device 500 . Upon receiving a face authentication result notification from the authentication terminal 300 , the control unit 530 records the user ID, date and time, and gate ID included in the notification in the storage unit 510 as an authentication history 511 .
  • FIG. 7 is a block diagram showing the configuration of the code generation terminal 100 according to the second embodiment.
  • the code generation terminal 100 includes a camera 110 , a storage section 120 , a memory 130 , a communication section 140 , an input section 150 , an output section 160 and a control section 170 .
  • the camera 110 is a photographing device that takes pictures under the control of the control unit 170 .
  • the storage unit 120 is a storage device that stores a program 121 for realizing each function of the code generation terminal 100 .
  • the memory 130 is a volatile storage device such as a RAM (Random Access Memory), and is a storage area for temporarily holding information when the control unit 170 operates.
  • the communication unit 140 is a communication interface with the network N. FIG. Also, the communication unit 140 may function as a communication interface with the printing device 200 .
  • the input unit 150 is an input device that receives input.
  • the output unit 160 outputs the information processing result of the control unit 170 .
  • the output section 160 has a display section 161 and an audio output section 162 .
  • the display unit 161 is a display device that displays information processing results of the control unit 170 .
  • the display unit 161 and the input unit 150 may be configured integrally like a touch panel, for example.
  • Audio output unit 162 includes a speaker, and outputs information processing results of control unit 170 as audio.
  • the control unit 170 is a processor that controls each component of the code generation terminal 100, that is, a control device.
  • the control unit 170 loads the program 121 from the storage unit 120 into the memory 130 and executes the program 121 . Thereby, the control unit 170 realizes the functions of the image acquisition unit 171 , the registration information acquisition unit 172 , the conversion unit 174 and the output control unit 175 .
  • the image acquisition unit 171 is also called image acquisition means.
  • the image acquisition unit 171 controls the camera 110 to photograph the face of the user U and generate a face image for registration including at least the face area of the user U. Then, the image acquisition unit 171 acquires a facial image for registration from the camera 110 .
  • the image acquisition unit 171 supplies the face image for registration to the registration information acquisition unit 172 .
  • the registration information acquisition unit 172 is also called registration information acquisition means.
  • the registration information acquisition unit 172 acquires face information for registration of the user U from the face image for registration.
  • the registration information acquisition unit 172 acquires user U's management information.
  • the registration information acquisition unit 172 acquires a user ID, which is user U's management information, via the input unit 150 .
  • the input unit 150 may receive a manual input from the user U or another operator, or may receive an input by reading an information medium such as a bar code on which management information is recorded.
  • the registration information acquisition unit 172 may acquire the user ID by issuing a new user ID when acquiring the user U's face image.
  • the registration information acquisition section 172 has a detection section 1721 , a feature point extraction section 1722 and a management information acquisition section 1723 .
  • the detection unit 1721 is also called detection means.
  • the detection unit 1721 detects a face area included in the face image for registration and supplies it to the feature point extraction unit 1722 .
  • the feature point extraction unit 1722 is also called feature point extraction means.
  • the feature point extraction unit 1722 extracts feature points from the face area detected by the detection unit 1721, and supplies information on the extracted feature points to the conversion unit 174 as face information for registration.
  • the management information acquisition unit 1723 is also called management information acquisition means.
  • the management information acquisition unit 1723 acquires management information such as the user ID received from the user U by the input unit 150 . However, the management information acquisition unit 1723 may issue a new user ID upon code symbol generation. The management information acquisition unit 1723 then supplies the management information to the conversion unit 174 .
  • the conversion unit 174 is also called conversion means.
  • the conversion unit 174 converts embedded information including face information for registration of the user U and management information into a visible code symbol.
  • the conversion unit 174 converts embedded information into a QR code symbol (QR code).
  • the conversion into code symbols may be conversion of combined information obtained by combining face information for registration and management information into code symbols.
  • part of the embedded information for example, face information for registration
  • part of the parent code symbol is converted to the remaining embedded information (for example, management information).
  • the replacement may be to generate a code symbol.
  • the conversion unit 174 may encrypt the embedded information and then convert it into a code symbol. Thereby, the security level can be improved.
  • conversion unit 174 may encrypt part of the embedded information and not encrypt part.
  • the conversion unit 174 may encrypt the face information for registration without encrypting the management information, or may encrypt the management information without encrypting the face information for registration.
  • the output control unit 175 is also called output control means.
  • the output control unit 175 outputs the code symbol information converted by the conversion unit 174 to the printing device 200 via the communication unit 140 .
  • the code symbol representing the embedded information can be printed on the code recording medium C.
  • FIG. 8 is a flow chart showing the flow of the code generation method according to the second embodiment.
  • the image acquisition unit 171 of the code generation terminal 100 controls the camera 110 to photograph the face of the user U, and acquires the face image for registration of the user U generated by the photographing (S101).
  • the registration information acquisition unit 172 executes face information extraction processing for extracting face information from the face image for registration of the user U (S102).
  • the detection unit 1721 of the registration information acquisition unit 172 detects a face region included in the face image for registration of the user U, and the feature point extraction unit 1722 extracts feature points from the detected face region. , is used as face information for registration.
  • the registration information acquisition unit 172 supplies face information for registration to the conversion unit 174 .
  • the management information acquisition unit 1723 of the registration information acquisition unit 172 acquires the user ID, which is management information, via the input unit 150 (S103).
  • the input unit 150 may receive a manual input from the user U or another operator, or may receive an input by reading an information medium on which management information is recorded.
  • the management information acquisition unit 1723 may issue a new user ID.
  • the management information acquisition unit 1723 supplies management information (user ID here) to the conversion unit 174 .
  • the conversion unit 174 generates embedded information based on the face information for registration and the management information (S104).
  • the conversion unit 174 may combine and convert the face information for registration and the management information into one piece of information.
  • the generation of embedded information may be performed by specifying face information for registration as first embedded information and management information as second embedded information.
  • the conversion unit 174 converts the embedded information into code symbols (S105).
  • the conversion unit 174 may convert the embedded information into code symbols using existing technology.
  • the conversion unit 174 may convert combined information of face information for registration and management information into code symbols.
  • the conversion unit 174 also converts the first embedded information (face information for registration) and the error correction code into code symbols, and converts some blocks of the code symbols to blocks in which the second embedded information is embedded. can be replaced with
  • the output control unit 175 outputs the converted code symbol information to the printing device 200 (S106).
  • FIG. 9 is a block diagram showing the configuration of the authentication terminal 300 according to the second embodiment.
  • Authentication terminal 300 includes imaging unit 310 , storage unit 320 , memory 330 , communication unit 340 , output unit 360 , and control unit 370 .
  • the imaging unit 310 is also called imaging means.
  • the imaging unit 310 performs imaging under the control of the control unit 370 .
  • the imaging unit 310 has a first camera 311 and a second camera 312 .
  • the first camera 311 photographs the face of the user U under the control of the control unit 370 .
  • the second camera 312 photographs the code recording medium C carried by the user U under the control of the control unit 370 .
  • the storage unit 320 is a storage device in which a program 321 for realizing each function of the authentication terminal 300 is stored.
  • the memory 330 is a volatile storage device such as RAM, and is a storage area for temporarily holding information when the control unit 370 operates.
  • a communication unit 340 is a communication interface with the network N. FIG.
  • the output unit 360 outputs the information processing result of the control unit 370 .
  • the output section 360 has a display section 361 and an audio output section 362 .
  • the display unit 361 is a display device that displays information processing results of the control unit 370 .
  • the authentication terminal 300 may include an input unit (not shown) that receives input, and the display unit 361 and the input unit may be integrally configured like a touch panel.
  • the audio output unit 362 includes a speaker and outputs the information processing result of the control unit 370 as audio.
  • the control unit 370 is a processor that controls each component of the authentication terminal 300, that is, a control device.
  • the control unit 370 loads the program 321 from the storage unit 320 into the memory 330 and executes the program 321 .
  • the control unit 370 realizes the functions of an image acquisition unit 371 , an authentication information generation unit 372 , an embedded information acquisition unit 373 , an authentication unit 374 , an output control unit 375 , a notification unit 376 and a gate control unit 377 .
  • the image acquisition unit 371 is also called image acquisition means.
  • the image acquisition unit 371 controls the first camera 311 of the imaging unit 310 to photograph the face of the user U and generate a facial image for authentication including at least the face area of the user U.
  • the image acquisition unit 371 then acquires a facial image for authentication from the first camera 311 .
  • the image acquisition unit 371 also controls the second camera 312 of the imaging unit 310 to capture an image of the code recording medium C carried by the user U and generate a code image.
  • the image acquisition unit 371 then acquires the code image from the second camera 312 .
  • the image acquisition unit 371 supplies the facial image for authentication to the authentication information generation unit 372 and supplies the code image to the embedded information acquisition unit 373 .
  • the authentication information generation unit 372 is also called authentication information generation means.
  • the authentication information generation unit 372 generates face information for authentication of the user U from the face image for authentication.
  • the authentication information generator 372 has a detector 3721 and a feature point extractor 3722 .
  • the detection unit 3721 and the feature point extraction unit 3722 may perform the same processing as the detection unit 1721 and the feature point extraction unit 1722 of the code generation terminal 100, respectively. That is, the detection unit 3721 detects a face area included in the face image for authentication and supplies it to the feature point extraction unit 3722 .
  • the feature point extraction unit 3722 extracts feature points from the face area detected by the detection unit 3721, and supplies information on the extracted feature points to the authentication unit 374 as face information for authentication.
  • the embedded information acquisition unit 373 is also called embedded information acquisition means.
  • the embedding information acquiring unit 373 extracts code symbols from the code image acquired by the image acquiring unit 371 and decodes the code symbols to acquire embedding information.
  • Embedded information acquisition section 373 supplies the embedded information to authentication section 374 .
  • the authentication unit 374 is also called authentication means. Authentication unit 374 performs face authentication by comparing the facial information for registration included in the embedded information acquired by embedded information acquiring unit 373 with the facial information for authentication generated by authentication information generating unit 372 . Run. The authentication unit 374 notifies the output control unit 375, the notification unit 376, and the gate control unit 377 of whether or not the face information matches. Whether face information matches or not corresponds to success or failure of authentication. Note that matching face information (matching) means that the degree of matching is equal to or greater than a predetermined value.
  • the output control unit 375 is also called output control means.
  • the output control unit 375 controls the output unit 360, causes the output unit 360 to output the information processing result, and notifies the user U of the information processing result.
  • the output control unit 375 causes the output unit 360 to output the face authentication result, and notifies the user U of the face authentication result.
  • the notification unit 376 is also called notification means.
  • the notification unit 376 extracts the user ID from the embedded information, and manages the face authentication result and the user ID via the network N. Notify device 500 . Note that the user ID may be included in the face authentication result.
  • the gate control unit 377 is also called gate control means.
  • the gate control unit 377 permits or prohibits the user U from passing through the gate 400 according to the face authentication result.
  • the gate control unit 377 transmits a control signal according to the face authentication result to the gate driving device of the gate 400 at the shooting point of the user U.
  • the gate control unit 377 transmits a control signal (opening control signal) to the gate driving device to open the gate 400 to the user U. to allow passage through the gate 400.
  • the gate control unit 377 transmits a control signal to the gate driving device to close the gate 400 and instructs the user U to pass through the gate 400 .
  • the control signal transmitted by the gate control unit 377 indicates success or failure of face authentication, or permission or prohibition of passage through the gate 400, instead of the control signal for opening or closing the gate. It may be a control signal for outputting to the gate driving device.
  • the gate control unit 377 can manage entry and exit of the user U, but the gate control unit 377 is not essential. That is, there may be an authentication terminal 300 that does not include the gate control unit 377 .
  • FIG. 10 is a flow chart showing the flow of the authentication method according to the second embodiment.
  • the authentication terminal 300 executes the process shown in step S200.
  • step S200 is a process in which the authentication terminal 300 generates facial information for authentication and acquires embedding information, and comprises steps S201 to S204.
  • the image acquiring unit 371 of the authentication terminal 300 controls the first camera 311 of the imaging unit 310 to capture the face of the user U, thereby acquiring a face image for authentication (step S201).
  • the authentication information generation unit 372 executes face information extraction processing for extracting face information from the authentication face image of the user U (step S202).
  • the detection unit 3721 of the authentication information generation unit 372 detects a face area included in the face image for authentication of the user U, and the feature point extraction unit 3722 extracts feature points from the detected face area. , is used as face information for authentication.
  • the authentication information generating section 372 supplies face information for authentication to the authentication section 374 .
  • the image acquiring unit 371 controls the second camera 312 of the imaging unit 310 to capture the code recording medium C carried by the user U, thereby acquiring a code image (step S203).
  • the embedded information acquisition unit 373 extracts the code symbol from the code image and decodes the code symbol to acquire embedded information (S204).
  • Embedded information acquisition section 373 supplies the embedded information to authentication section 374 .
  • steps S203-204 may be executed before steps S201-202 or may be executed in parallel with steps S201-202.
  • the authentication unit 374 collates the face information for registration included in the embedded information with the face information for authentication extracted from the face image (S205). If the face information matches, that is, if the degree of matching of the face information is equal to or greater than a predetermined value (Yes in S206), the authentication unit 374 notifies the gate control unit 377 that the face information matches and is included in the embedded information.
  • the received user ID is supplied to notification unit 376, and the process proceeds to step S207.
  • the gate control unit 377 transmits an opening control signal to the gate driving device of the gate 400 corresponding to the authentication terminal 300 (S207). Thereby, the gate 400 is opened and the user U can pass through the gate 400 .
  • the output control unit 375 may notify the user U of the success of the face authentication by displaying or outputting the success of the face authentication on the output unit 360 .
  • the notification unit 376 transmits to the management device 500 via the network N a notification that includes at least the user ID and indicates that the face authentication has been successful.
  • the notification unit 376 may include the face authentication date/time (shooting date/time) and the gate ID in the notification.
  • the authentication unit 374 notifies the gate control unit 377 and the gate control unit 377 that the face information does not match. It is supplied to the notification unit 376 and the process proceeds to step S209.
  • the gate control unit 377 transmits a closing control signal to the gate driving device of the gate 400 corresponding to the authentication terminal 300 (S209).
  • the output control unit 375 may notify the user U of the face authentication failure by causing the output unit 360 to display or audibly output the fact that the face authentication has failed.
  • the notification unit 376 transmits to the management device 500 via the network N as an error notification that the face authentication has failed. Note that the notification unit 376 may include the user ID included in the embedded information in the error notification, but is not limited to this.
  • the authentication terminal 300 confirms whether the owner of the code recording medium C and the person to be photographed are the same without recording the biometric information in the DB, and confirms the person to be photographed. can be identified. As a result, spoofing can be prevented while suppressing system management costs. This is especially effective in industries with high turnover of workers. Moreover, since the authentication system 1000 does not need to manage biometric information, security risks such as information leakage can be reduced. Further, the printing of the code symbols on the code recording medium C such as paper can be easily carried out without requiring a special device, so that the operation cost can be suppressed. Moreover, even if the user U loses the code recording medium C, the authentication system 1000 can easily reissue the code recording medium C by generating and printing a code signal, which is highly convenient.
  • the authentication terminal 300 Since the authentication terminal 300 notifies the management device 500 of the user ID of the user U whose biometric authentication has succeeded, management of the biometric authentication history can be facilitated. can be easily managed. This makes it possible to easily avoid fraudulent attendance registration and fraudulent entrance/exit by workers.
  • the authentication terminal 300 acquires a face image and generates face information for authentication (steps S201 and 202 in FIG. 10), acquires a code image, and acquires embedded information. (Steps S203 and S204 in FIG. 10) may be performed in any order.
  • the process of generating facial information for authentication including the process of extracting facial information, is a process with a high load. Therefore, if a face image is acquired and face information is extracted after the user U arrives at the authentication terminal 300, a waiting time may occur until the authentication process is completed.
  • the authentication terminal 300 acquires the code image and starts the process of acquiring the face image and extracting the face information prior to the process of acquiring the embedded information.
  • the authentication system 1000 according to the third embodiment has components similar to those of the authentication system 1000 according to the second embodiment, so description thereof will be omitted.
  • the body part to be biometrically authenticated is described as being the face, but the present invention is not limited to this.
  • FIG. 11 is a diagram for explaining the authentication method according to the third embodiment.
  • the left-right direction of the user U is the X direction
  • the height direction of the user U is the Z-axis direction
  • the front-rear direction of the user U is the Y-axis direction.
  • the optical axis directions of the first camera 311 and the second camera 312 of the imaging unit 310 may substantially match, and may substantially match the Y-axis direction. That is, the optical axis direction of the imaging section 310 may substantially match the Y-axis direction.
  • a capture volume CV1 shown in the figure is an area in which the first camera 311 of the imaging unit 310 of the authentication terminal 300 can capture an image of the face area of the user U for face authentication.
  • the farthest distance from the imaging surface of the first camera 311 in the Y-axis direction within the capture volume CV1 is called a first maximum distance D1.
  • the angle of view of the first camera 311 is set to the first angle of view ⁇ 1.
  • the capture volume CV2 is an area where the second camera 312 of the imaging unit 310 of the authentication terminal 300 can capture an image of the code recording medium C for face authentication.
  • the farthest distance from the imaging surface of the second camera 312 in the Y-axis direction within the capture volume CV2 is called a second maximum distance D2.
  • the second maximum distance D2 is set shorter than the first maximum distance D1.
  • the imaging surface of the second camera 312 may substantially coincide with the imaging surface of the first camera 311 in the Y-axis direction.
  • the angle of view of the second camera 312 is set to the second angle of view ⁇ 2.
  • the first camera 311 In response to detecting the user U within the capture volume CV1, the first camera 311 is controlled by the image acquisition section 371 of the control section 370 to capture a "face image for authentication". "The first camera 311 captures a 'facial image for authentication' in response to detection of the user U within the capture volume CV1" may mean any of the following cases A1 to A3.
  • the captured image is supplied to the image acquisition unit 371 only when the first camera 311 detects the user U within the capture volume CV1.
  • the image acquisition unit 371 may specify all the captured images supplied from the first camera 311 as “authentication face images”.
  • the authentication information generation unit 372 starts extraction processing of face information.
  • the first camera 311 continuously captures images at predetermined time intervals and supplies them to the image acquisition unit 371. Only when the user U is detected within the capture volume CV1, the image acquisition unit 371 captures the captured image as a face image for authentication. image" to the authentication information generation unit 372.
  • the image acquisition unit 371 acquires a plurality of captured images generated by the first camera 311 capturing a plurality of times, and selects a part of the plurality of captured images as the “authentication face image”. It is supplied to the authentication information generation unit 372 . As a result, the authentication information generator 372 starts extracting the face information of the “face image for authentication”.
  • the first camera 311 continuously captures images at predetermined time intervals, and continuously supplies captured images generated by the capturing to the authentication information generation unit 372 via the image acquisition unit 371 .
  • the authentication information generation unit 372 identifies the supplied photographed image as the “authentication face image” in response to detecting the user U within the capture volume CV1, and identifies the “authentication face image”. Start face information extraction processing. That is, in case A3, the image acquisition unit 371 acquires a plurality of captured images generated by the first camera 311 capturing a plurality of times, and the authentication information generation unit 372 selects some of the captured images as “authentication Biometric information for authentication is generated as a face image for authentication.
  • case A3 is defined as "the first camera 311 captures a 'face image for authentication' in response to detection of the user U within the capture volume CV1", but is not limited to this.
  • the position of the user U when the “authentication face image” is captured by the first camera 311 is called a position P1.
  • the distance is called the first distance d1.
  • the first distance d1 may be the same as or shorter than the first maximum distance D1.
  • the second camera 312 In response to detection of the code recording medium C carried by the user U within the capture volume CV2, the second camera 312 receives the control of the image acquisition unit 371 of the control unit 370 and captures the "authentication code image". to shoot. Note that “the second camera 312 captures the “authentication code image” in response to the detection of the code recording medium C carried by the user U within the capture volume CV2” means cases B1 to B3 below. It can mean either.
  • the captured image is supplied to the image acquisition unit 371 only when the second camera 312 detects the code recording medium C within the capture volume CV2.
  • the image acquisition unit 371 may specify all the captured images supplied from the second camera 312 as “authentication code images”.
  • embedded information acquiring section 373 starts the process of acquiring embedded information.
  • the second camera 312 continuously captures images at predetermined time intervals and supplies the images to the image acquisition unit 371. Only when the code recording medium C is detected within the capture volume CV2, the image acquisition unit 371 captures the captured image for authentication. and supplied to the embedding information acquisition unit 373 as a "code image of".
  • embedded information acquiring section 373 starts the process of acquiring embedded information.
  • the second camera 312 continuously captures images at predetermined time intervals, and the captured images are continuously supplied to the image acquisition unit 371 and embedded information acquisition unit 373 .
  • the embedding information acquisition unit 373 identifies the captured image from the second camera 312 as the “authentication code image” and embeds it. Start the information acquisition process.
  • case B3 defines that "the second camera 312 captures a 'code image for authentication' in response to detection of the code recording medium C carried by the user U within the capture volume CV2".
  • the second camera 312 captures a 'code image for authentication' in response to detection of the code recording medium C carried by the user U within the capture volume CV2.
  • it is not limited to this.
  • the position of the user U when the “authentication code image” is captured by the second camera 312 is called a position P2, and the distance from the imaging surface of the second camera 312 to the position P2 in the optical axis direction of the second camera 312 is The distance is called a second distance d2.
  • the second distance d2 may be the same as or shorter than the second maximum distance D2.
  • the second distance d2 at position P2 is shorter than the first distance d1 at position P1. Therefore, first, the image acquisition unit 371 of the authentication terminal 300 captures the face region of the user U with the first camera 311 when the user U is at the position P1 away from the imaging unit 310 by the first distance d1, and generates a user image. A face image of U is acquired and supplied to the authentication information generation unit 372 . After acquiring the face image, the authentication information generation unit 372 starts processing for generating face information for authentication from the face image. As a result, the authentication information generation unit 372 can perform processing for generating face information for authentication while the user U is approaching.
  • the image acquisition unit 371 obtains a code image generated by capturing the code recording medium C carried by the user U with the second camera 312 when the user U is at the position P2 which is the second distance d2 away from the imaging unit 310. acquired and supplied to the embedding information acquisition unit 373 .
  • embedding information acquisition section 373 starts processing to acquire embedding information from the code image. By performing such a processing procedure, it is possible to avoid the occurrence of waiting time for the authentication processing and improve the throughput.
  • the second angle of view ⁇ 2 of the second camera 312, that is, the second angle of view ⁇ 2 when photographing the code recording medium C is the first angle of view ⁇ 1 of the first camera 311, that is, the face (body) of the user U. It may be set wider than the first angle of view ⁇ 1 for photographing. In addition, the second angle of view ⁇ 2 may be the same as the first angle of view ⁇ 1, or may be set narrower.
  • condition for determining that the user U has been detected within the capture volume CV1 can also be called the condition for starting face information extraction processing of the "authentication face image”.
  • FIG. 12 is a diagram for explaining an example of conditions for starting face information extraction processing (conditions for detecting user U within capture volume CV1) according to the third embodiment.
  • This figure shows a photographed image I photographed by the first camera 311 .
  • the captured image I includes the user U's face area.
  • the condition for starting the face information extraction process may be that the size, width, or length of the face region of the user U included in the captured image I captured by the first camera 311 is equal to or greater than a predetermined number of pixels.
  • the authentication information generation unit 372 receives the captured image I from the image acquisition unit 371 and detects the face area.
  • the authentication information generating section 372 determines whether or not the width x1 or the length z1 of the face area is equal to or greater than a predetermined number of pixels. If the width x1 or the length z1 is equal to or greater than the predetermined number of pixels, the authentication information generation unit 372 starts face information extraction processing of the "face image for authentication". Note that the total number of pixels (length za ⁇ width xa) of the captured image from the first camera 311 is predetermined. Therefore, determining whether the width x1 or the length z1 is equal to or greater than the predetermined number of pixels means determining whether the width x1 with respect to the width xa of the captured image is equal to or greater than a predetermined value.
  • the condition for starting the facial information extraction process is that the length connecting characteristic points of predetermined facial features included in the facial region of the user U, included in the captured image captured by the first camera 311, is It may be a predetermined number of pixels or more.
  • the feature points of the facial features may be at least two of a right eye, a left eye, a nose endpoint, a mouth endpoint, a right eyebrow endpoint, and a left eyebrow endpoint.
  • feature points of facial features are the right eye and the left eye.
  • the authentication information generator 372 detects the face area and detects the positions of the right eye and the left eye within the face area.
  • the authentication information generating section 372 determines whether or not the length x2 between the right eye and the left eye in the face area is equal to or greater than a predetermined number of pixels.
  • the authentication information generation unit 372 starts face information extraction processing of the "face image for authentication".
  • determining whether the length x2 is equal to or greater than the predetermined number of pixels is the same as determining whether the length x2 with respect to the width xa of the captured image is greater than or equal to the predetermined value.
  • face information for authentication is generated by the face information extraction process only when the size of the face area is sufficient. Therefore, processing efficiency is improved, and throughput can be improved.
  • the condition for starting the face information extraction process may be that the likelihood index of the body calculated from the captured image captured by the first camera 311 is equal to or greater than a predetermined threshold.
  • the body certainty index may be, for example, a face-likeness index.
  • the condition for starting the face information extraction process is that the index of likelihood of the body calculated from each of a plurality of captured images captured by the first camera 311 within a predetermined time is the largest value among the plurality of captured images. It may be to have.
  • the authentication control unit 342 calculates a probability index of the body for each of a plurality of captured images captured by the first camera 311 and supplied from the image acquisition unit 371, and calculates a plurality of images based on the index. A part of the captured images is selected as the “authentication face image”. Also by this, face information for authentication is generated by the face information extraction process only when the probability is relatively high. Therefore, processing efficiency is improved, and throughput can be improved.
  • the condition for starting the face information extraction process is that the sensor detects the presence of the person within the capture volume CV1. It may be the detection of the presence of
  • condition for starting the face information extraction process condition for detecting the user U within the capture volume CV1
  • the conditions for starting the embedded information acquisition process may also be determined arbitrarily.
  • the condition for starting the embedding information acquisition process may be that the size, width, or length of the image area of the code symbol included in the code image is equal to or greater than a predetermined pixel value.
  • the condition for starting the embedded information acquisition process may be that the sensor detects the presence of a person in the capture volume CV2. good.
  • the second camera 312 is normally not activated, and may be activated when a predetermined activation condition is satisfied.
  • the predetermined activation condition may be detection of the face area of the user U from the captured image captured by the first camera 311 .
  • the predetermined activation condition may be that the first camera 311 has captured a “face image for authentication”.
  • the predetermined activation condition may be that the authentication information generation unit 372 has started or completed face information extraction processing of the “authentication face image”.
  • the activation process of the second camera 312 may be performed by the image acquisition unit 371 .
  • the image acquisition unit 371 acquires the “authentication face image” from the first camera 311, or the authentication information generation unit 372 acquires authentication face information for the “authentication face image”.
  • the second camera 312 may be activated in response to starting or completing the process of generating the . By not activating the second camera 312 until the predetermined processing related to the first camera 311 is executed in this way, power consumption can be suppressed, and erroneous photographing and erroneous recognition can be avoided. . Then, second camera 312 may capture a code image in response to being activated, and embedded information acquiring section 373 may start the process of acquiring embedded information.
  • the authentication information generation unit 372 detects that the user U has It may be determined whether or not it is approaching . Specifically, the authentication information generation unit 372 extracts the face information of the face image for authentication, and extracts the human area of the user U included in the captured image captured by the first camera 311 thereafter. do tracking. A person region to be tracked may be, for example, a face region or an eye region. The authentication information generating unit 372 determines whether the user U It is determined whether or not the object is approaching the imaging unit 310 . When the authentication information generation unit 372 determines that the user U is approaching the imaging unit 310, the authentication information generation unit 372 causes the embedded information acquisition unit 373 to start acquiring the embedded information from the authentication code image.
  • the authentication information generation unit 372 may cause the authentication unit 374 to perform face authentication (collation).
  • face authentication erroneous recognition of the combination of the code image and face image can be prevented. That is, it is possible to prevent the face image from being collated with the code image of the code recording medium C carried by a user different from the user U indicated by the face image.
  • FIG. 13 is a flowchart showing part of the flow of the authentication method according to the third embodiment.
  • This figure shows the process of step S200a corresponding to step S200 shown in FIG. Step S200a differs from step S200 in that steps S221-227 are included instead of steps S201-203.
  • the photographing of the "authentication image" by the first camera 311 and the photographing of the "authentication code image” by the second camera 312 are defined as cases A3 and B3, respectively.
  • all the captured images captured by the first camera 311 at predetermined time intervals are supplied to the authentication information generating section 372 via the image acquiring section 371 .
  • all the captured images captured by the second camera 312 at predetermined time intervals are supplied to the embedded information acquisition section 373 via the image acquisition section 371 .
  • the authentication information generation unit 372 of the authentication terminal 300 determines whether or not the user U is positioned within the capture volume CV1 of the first camera 311 (S221). That is, the authentication information generation unit 372 determines whether or not the conditions for starting the face information extraction process are satisfied. When the authentication information generation unit 372 determines that the user U is not positioned within the capture volume CV1 of the first camera 311 (No in S221), the processing is repeated. On the other hand, when the authentication information generating unit 372 determines that the user U is positioned within the capture volume CV1 of the first camera 311 (Yes in S221), the captured image captured by the first camera 311 is used as the "authentication face image” (S222).
  • the authentication information generation unit 372 starts face information extraction processing on the "face image for authentication” (S223). This step is the same as step S202 in FIG.
  • the authentication information generation unit 372 starts tracking the user U using the captured image captured by the first camera 311 after the timing of capturing the specified “authentication face image” (S224).
  • the authentication information generation unit 372 determines whether or not the user U is approaching the imaging unit 310 (S225). When determining that the user U is not approaching the imaging unit 310 (No in S225), the authentication information generation unit 372 returns the process to step S221. On the other hand, when the authentication information generation unit 372 determines that the user U is approaching the imaging unit 310 (Yes in S225), the process proceeds to step S226.
  • the embedding information acquisition unit 373 determines whether or not the code recording medium C carried by the user U is positioned within the capture volume CV2 (S226). If the embedding information acquisition unit 373 determines that the code recording medium C is not located within the capture volume CV2 (No in S226), the process returns to step S225. On the other hand, when the embedding information acquisition unit 373 determines that the code recording medium C is positioned within the capture volume CV2 (Yes in S226), the captured image captured by the second camera 312 is regarded as the "authentication code image. ” (S227). Embedded information obtaining unit 373 then obtains embedded information from the "authentication code image" (S204), and the process proceeds to step S205 shown in FIG.
  • the process of extracting the face information of the "authentication face image” is started in response to detection of the user U within the capture volume CV1.
  • face information extraction processing may be performed on all captured images that are captured by the first camera 311 and supplied, and face information for authentication may be generated. That is, the image acquisition unit 371 acquires a plurality of “authentication face images” generated by the first camera 311 capturing the face of the user U multiple times, and the authentication information generation unit 372 acquires the plurality of “face images for authentication”. Authentication face information of the user U may be generated for each of the “authentication face images”. Then, the authentication information generating section 372 may supply the face information for authentication generated by successful extraction processing of the face information for face authentication to the authentication section 374 as a matching target.
  • the authentication terminal 300 of the third embodiment prior to photographing the code recording medium C, the body of the user U is photographed, and the process of acquiring biometric information for authentication from the body image is started. As a result, the authentication terminal 300 can acquire biometric information for authentication while the user U is approaching the imaging unit 310, thereby improving throughput of authentication.
  • the fourth embodiment is a modification of the second embodiment, and the embedded information indicated by the code symbol of the code recording medium C is type 2 embedded information. That is, the embedded information includes biometric information for registration, and user ID and restriction information as management information.
  • FIG. 14 is a block diagram showing the configuration of the authentication terminal 300a according to the fourth embodiment.
  • An authentication terminal 300a according to the fourth embodiment has basically the same configuration and functions as the authentication terminal 300 according to the first embodiment. However, the authentication terminal 300a differs from the authentication terminal 300 in that it includes a storage unit 320a instead of the storage unit 320 and a control unit 370a instead of the control unit 370.
  • FIG. The storage unit 320a stores a program 321a and restriction condition information 322.
  • the program 321a is a computer program in which processing of the authentication method according to the fourth embodiment is implemented.
  • the restriction condition information 322 records conditions (restriction conditions) for restricting passage through the gate 400 regardless of the face authentication result.
  • the restriction condition may function as a condition for stopping face authentication when passing through the gate 400 . This is because if the passage through the gate 400 is restricted regardless of the result of face recognition, there is little practical benefit to performing face recognition to determine whether or not to pass through the gate 400, and rather the throughput is improved if face recognition is not performed. is.
  • the control unit 370a has an authentication unit 374a instead of the authentication unit 374.
  • the authentication unit 374a performs face authentication when the restriction information does not satisfy the restriction condition indicated by the restriction condition information 322 of the storage unit 320a. On the other hand, if the restriction information satisfies the restriction condition recorded in the restriction condition information 322, the authentication unit 374a stops performing face authentication. In this case, the authentication unit 374a supplies the output control unit 375, the notification unit 376, and the gate control unit 377 with a restriction notification indicating that the face authentication has been stopped.
  • the output control unit 375 may output to the output unit 360 that the execution of face authentication has been canceled and that passage through the gate 400 is not permitted.
  • the notification unit 376 may notify the management device 500 that the execution of face authentication has been canceled and that passage through the gate 400 is not permitted upon receiving the restriction notification.
  • the gate control unit 377 may receive the restriction notification and transmit a control signal for restricting the user U from passing through the gate to the gate driving device of the gate 400 .
  • FIG. 15 is a diagram showing an example of the data structure of the restriction condition information 322 according to the fourth embodiment.
  • Restriction information 322 may include one or more restrictions.
  • the limiting condition information 322 may be information in which the type of limiting information and the limiting condition are associated with each condition ID.
  • the restriction condition with the condition ID "1" is that when the embedded information includes usage-enabled location information as restriction information, the gate ID indicating the installation location of the gate 400 corresponding to the authentication terminal 300 is the usage location. It is not included in the available locations indicated by the information. Therefore, if the gate ID of gate 400 corresponding to authentication terminal 300 is not included in the available locations acquired from the embedded information, authentication unit 374a stops performing face authentication.
  • the gate control unit 377 controls the gate 400 so as to restrict the user U from passing through the gate 400 .
  • the available location may be determined based on the user U's place of work or an in-house attribute.
  • the restrictive condition for condition ID "2" is that if the embedded information includes valid period information as restrictive information, the current date and time is not included in the valid period indicated by the valid period information. Therefore, the authentication unit 374a stops performing face authentication when the current date and time are not included in the validity period, such as when the validity period has expired.
  • the gate control unit 377 controls the gate 400 so as to restrict the user U from passing through the gate 400 .
  • the valid period may be determined based on the user U's labor contract period, working hours, or working days.
  • the restriction condition with the condition ID "3" is that when the embedded information includes in-house attribute information as restriction information, the in-house attributes such as work type, department, or position indicated by the in-house attribute information are not predetermined in-house attributes. is.
  • the employment form indicated by the in-house attribute information is an employment form other than a regular employee. Therefore, if the company attribute information indicates company attributes other than the predetermined company attributes, the authentication unit 374a stops performing face authentication.
  • the gate control unit 377 controls the gate 400 so as to restrict the user U from passing through the gate 400 .
  • FIG. 16 is a flow chart showing the flow of the authentication method according to the fourth embodiment.
  • the steps shown in this figure are basically the same as the steps in FIG. 10, but differ in that step S301 is included between steps S204 and S205.
  • the authentication unit 374a determines whether the restriction information included in the embedded information satisfies the restriction condition indicated by the restriction condition information 322. (S301).
  • the authentication information generation unit 372a determines that the restriction condition is not satisfied (No in S301)
  • the authentication information generation unit 372a proceeds to the collation processing shown in step S205. Note that the processing after step S205 is the same as in FIG.
  • the gate control unit 377 transmits a closing control signal to the gate 400 (S209), and the notification unit 376 sends an error notification to the management device. 500 (S210).
  • the error notification in this case does not include the user ID.
  • the authentication terminal 300a restricts passage through the gate 400 using the restrictive condition, so it is possible to easily restrict entry and exit of non-related persons.
  • work to monitor and supervise workers is usually required in order to prevent workers from entering and exiting rooms illegally. Since the terminal 300a automatically restricts passage, such work is not necessary.
  • the authentication terminal 300a stops performing face authentication when the limiting conditions are satisfied, it is possible to avoid unnecessary calculations and improve throughput.
  • step S301 may be executed after performing face authentication. Specifically, step S301 may be executed between step S207 and Yes in step S206 after it is determined that face authentication has succeeded, instead of between steps S204 and S205. In this case, although the effect of improving the throughput is reduced, the user ID can be included in the error notification to the management device 500, so that the user U who tried to commit fraud can be identified.
  • the code generation method according to the fourth embodiment may be the same as the steps shown in FIG. to get the restriction information.
  • the registration information acquisition unit 172 and the input unit 150 may receive manual input from the user U or other operators, or may receive an information medium such as a bar code on which restriction information is recorded in addition to the user ID. Input may be accepted by reading.
  • the registration information acquisition unit 172 acquires the user ID by newly issuing it when acquiring the face image of the user U, and the restriction information by accepting manual input by the input unit 150 or by receiving the information medium. may be obtained through reading the
  • the fifth embodiment is a modification of the second embodiment, and the embedded information indicated by the code symbol of the code recording medium C is type 3 embedded information. That is, the embedded information includes biometric information for registration, and user ID and nationality-related information as management information. The nationality-related information relates to user U's nationality, country of origin, or language used.
  • FIG. 17 is a block diagram showing the configuration of an authentication terminal 300b according to the fifth embodiment.
  • the authentication terminal 300b according to the fifth embodiment has basically the same configuration and functions as the authentication terminal 300 according to the first embodiment. However, the authentication terminal 300b differs from the authentication terminal 300 in that it includes a storage unit 320b instead of the storage unit 320 and a control unit 370b instead of the control unit 370.
  • FIG. Storage unit 320b stores program 321b and language table 323 .
  • the program 321b is a computer program in which processing of the authentication method according to the fifth embodiment is implemented.
  • the language table 323 stores display information and audio output information for each language.
  • the control unit 370b has an output control unit 375b instead of the output control unit 375.
  • the output control unit 375b causes the output unit 360 to output the result of face authentication in a language corresponding to the nationality or country of origin indicated by the nationality-related information, or in the language used by the nationality-related information. Note that the output control unit 375b may output the reason for face authentication failure in the language when the face authentication fails.
  • FIG. 18 is a diagram showing an example of output from the authentication terminal 300b according to the fifth embodiment.
  • the output control unit 375b of the authentication terminal 300b refers to the display information in English from the language table 323, and displays the information.
  • the face authentication result is displayed in English on the unit 361 .
  • This figure shows an example of the display when the face authentication information is successful, and the display unit 361 displays information indicating that the face authentication is successful and information prompting passage through the gate 400 in English. ing.
  • the embedded information includes the country of origin "United States" as the nationality-related information
  • the language corresponding to the United States is identified as English
  • the display information in English is referred to from the language table 323, and the display unit 361
  • the face recognition result may be displayed in English.
  • the authentication terminal 300b since the authentication terminal 300b outputs the face authentication result in the language used by the user U or a language that is likely to be used, the user U can easily grasp the face authentication result. can. Especially in industries with many foreign workers, there is a remarkable effect.
  • the code generation method according to the fifth embodiment may be the same as the steps shown in FIG. nationality-related information.
  • the registration information acquisition unit 172 and the input unit 150 may accept manual input from the user U or other operators, or may receive an information medium such as a barcode in which nationality-related information is recorded in addition to the user ID. Input may be accepted by reading Alternatively, the registration information acquisition unit 172 acquires the user ID by newly issuing it when acquiring the face image of the user U, and the nationality-related information by accepting manual input by the input unit 150 or by receiving information. May be obtained via media reading.
  • the embedded information indicated by the code symbol of the code recording medium C is type 4 embedded information. That is, the embedded information includes biometric information for registration, and user ID, restriction information, and nationality-related information as management information.
  • the output control unit 375b causes the output unit 360 to output the restriction reason and coping method to the user U in a language corresponding to the nationality-related information. good.
  • FIG. 19 is a diagram showing an example of output from the authentication terminal 300b according to the modification of the fifth embodiment.
  • This figure shows an example of the display on the display unit 361 when the restriction information satisfies the restriction condition (expired) and the nationality-related information included in the embedded information is in the language used "English.”
  • the display unit 361 displays information indicating expiration and information prompting re-registration in English.
  • Information prompting re-registration is information prompting regeneration of code symbols.
  • the authentication terminal 300b outputs the reason for the restriction and the coping method in the language that the user U uses or is likely to use, so that the user U is restricted from passing the gate. can be dealt with smoothly. Especially in industries with many foreign workers, there is a remarkable effect.
  • Embodiment 6 of the present disclosure is a modification of the second embodiment.
  • Embodiment 6 is characterized in that the authentication system selectively uses biometric authentication using the code recording medium C and biometric authentication using the face information database (DB) according to the attributes of the user.
  • biometric authentication will be described using face authentication as an example, but the biometric authentication is not limited to this.
  • FIG. 20 is a block diagram showing the overall configuration of an authentication system 1000c according to the sixth embodiment.
  • the authentication system 1000c is a computer system that performs first face authentication using the code recording medium C and second face authentication using the face information DB.
  • users U are divided into first users and second users according to user attributes. For example, a part-time employee is the first user, and a full-time employee is the second user.
  • a first user carries a code recording medium C on which embedded information including management information (user ID) and face information is recorded, and uses the code recording medium C to perform first face authentication.
  • the first user's user ID may be the user's employee ID.
  • the second user carries an IC card in which the user ID is recorded as management information, and performs second face authentication using the IC card and the face information DB.
  • the user ID of the second user may be the user's employee ID, or may be an IC card ID for identifying the IC card associated with the user's employee ID.
  • the management information of the second user recorded in the IC card may have the same data structure as the management information shown in FIG. That is, in addition to the user ID, at least one of the restriction information and the nationality-related information may be recorded in the IC card as management information.
  • the recording medium for recording the management information of the second user is not limited to the IC card.
  • the authentication system 1000c includes a code generation terminal 100c, an authentication terminal 300c, a management device 500c, and a face information DB 600 instead of the code generation terminal 100, authentication terminal 300, and management device 500 of the authentication system 1000 according to the second embodiment.
  • the code generation terminal 100c has the same functions as the code generation terminal 100 for the first user, but has the function of registering face information for registration in the face information DB 600 for the second user. have.
  • the authentication terminal 300c has the same functions as the authentication terminal 300 of the second embodiment for the first user. However, for the second user, the authentication terminal 300c reads the user ID from the IC card, and uses the face information for authentication generated from the face image and the registration corresponding to the user ID stored in the face information DB 600. Face recognition is performed by matching the face information for For the second user, the authentication terminal 300c also performs output control, notification to the management device 500c when face authentication is successful, and gate control in the same manner as for the first user.
  • the management device 500c manages the face authentication history of the first user and the face authentication history of the second user. In other words, the management device 500c manages the first user's attendance record and entry/exit history to rooms 1 to 3, and the second user's attendance record and entry/exit history to rooms 1 to 3.
  • the face information DB 600 is a storage device that associates and stores the user ID of the second user and the face information for registration of the second user.
  • FIG. 21 is a block diagram showing the configuration of the management device 500c according to the sixth embodiment.
  • the management device 500 c includes a storage unit 510 c instead of the storage unit 510 of the management device 500 .
  • the storage unit 510c stores a first authentication history 511c and a second authentication history 512c.
  • the first authentication history 511c is a face authentication history of the first user, and is information in which a user ID 5111, a date and time 5112, and a gate ID 5113 are associated with each other like the authentication history 511.
  • the second authentication history 512c is the face authentication history of the second user.
  • the second authentication history 512c is information in which a user ID 5121, a date and time 5122, and a gate ID 5123 are associated with each other.
  • control unit 530 When the control unit 530 receives a face authentication result notification for the first user from the authentication terminal 300c, it records the user ID, date and time, and gate ID included in the notification as the first authentication history 511c. On the other hand, when the control unit 530 receives notification of the result of face authentication for the second user from the authentication terminal 300c, it records the user ID, the date and time, and the gate ID included in the notification as the second authentication history 512c.
  • FIG. 22 is a block diagram showing the configuration of the code generation terminal 100c according to the sixth embodiment.
  • the code generation terminal 100 c includes a storage unit 120 c and a control unit 170 c instead of the storage unit 120 and the control unit 170 of the code generation terminal 100 .
  • the storage unit 120c stores a program 121c in which the processing of the code generation method according to the sixth embodiment is implemented.
  • the control unit 170c has a DB registration unit 176 in addition to the configuration of the control unit 170.
  • the DB registration unit 176 registers the face information for registration in the face information DB 600 in association with the user ID.
  • FIG. 23 is a flow chart showing the flow of the code generation method according to the sixth embodiment. The steps shown in this figure have steps S401-402 in addition to the steps shown in FIG.
  • step S103 in response to the fact that the management information acquisition unit 1723 of the registration information acquisition unit 172 has acquired the user ID which is the management information via the input unit 150, the control unit 170 determines whether the user U is the first user. , is the second user (S401). For example, the control unit 170 may determine whether the user is the first user or the second user based on the type of user ID. If user U is the first user (A in step S401), the process proceeds to step S104. As in the second embodiment, the control unit 170 generates embedded information (S104), converts the embedded information into code symbols (S105), outputs the code symbols to the printing device 200 (S106), and ends the process. .
  • S104 embedded information
  • S105 converts the embedded information into code symbols
  • S106 outputs the code symbols to the printing device 200
  • the DB registration unit 176 associates the face information for registration with the user ID included in the management information and registers them in the face information DB 600. (S402). The DB registration unit 176 then terminates the process.
  • FIG. 24 is a block diagram showing the configuration of an authentication terminal 300c according to the sixth embodiment.
  • the authentication terminal 300 c includes a storage unit 320 c , a control unit 370 c and a card reader 380 instead of the storage unit 320 and the control unit 370 of the authentication terminal 300 .
  • the storage unit 320c stores a program 321c in which the processing of the authentication method according to the sixth embodiment is implemented.
  • the card reader 380 is a card reader that reads management information from the IC card presented by the second user.
  • the control unit 370c has an embedded information acquisition unit 373c and an authentication unit 374c instead of the embedded information acquisition unit 373 and the authentication unit 374.
  • the embedded information acquisition unit 373c has the same function as the embedded information acquisition unit 373 for the first user. That is, when the user U presents the code recording medium C and the image acquisition section 371 acquires the code image, the embedded information acquisition section 373c acquires the embedded information from the code image in the same manner as the embedded information acquisition section 373. do. However, for the second user, the embedded information acquisition unit 373c controls the card reader 380 to acquire management information from the IC card. That is, when the user U presents an IC card and the image acquisition section 371 does not acquire the code image, the embedded information acquisition section 373c controls the card reader 380 to acquire the management information from the IC card.
  • the authentication unit 374c performs the same processing as the authentication unit 374 when the embedded information acquisition unit 373 acquires the embedded information from the code image.
  • the authentication unit 374c stores the face for registration corresponding to the user ID included in the management information stored in the face information DB 600. Get information. Then, the authentication unit 374c collates the face information for registration with the face information for authentication generated based on the face image, and performs face authentication.
  • FIG. 25 is a flow chart showing the flow of the authentication method according to the sixth embodiment. The steps shown in this figure have steps S501 to S503 in addition to the steps shown in FIG.
  • step S202 after the authentication information generation unit 372 executes the process of extracting face information from the face image for authentication, the embedded information acquisition unit 373c detects whether the user U has presented the code recording medium C or the IC card. (S501). This determination may be made based on whether or not the image acquisition section 371 has acquired the code image. If the user U presents the code recording medium C (C in S501), the embedded information acquisition unit 373c advances the process to step S203. Steps after step S203 are the same as those in FIG. On the other hand, when the user U presents the IC card (I in S501), the embedded information acquisition unit 373c acquires the management information read by the card reader 380 (S502).
  • the authentication unit 374c uses the user ID included in the management information to acquire the face information for registration corresponding to the user ID from the face information DB 600, and the face information for registration and the face image extracted from the face image in step S202.
  • the face information for authentication is collated (S503).
  • the authentication unit 374c then advances the process to step S206. Steps after step S206 are the same as in FIG.
  • the authentication system 1000c performs the first face authentication using the code recording medium C for the first user, and the face information DB for the second user. perform the second face authentication using As a result, it is possible to use different face authentication methods according to target user attributes and manage face authentication histories separately.
  • FIG. 26 is a block diagram showing the overall configuration of an authentication system 1000d according to the seventh embodiment.
  • the authentication system 1000d includes a first server 700, a second server 710, and a relay device 800 in addition to the configuration of the authentication system 1000c.
  • the first server 700 is a server computer that performs labor management for the first user based on the first user's face authentication history.
  • the first server 700 is a part-time job management system that performs attendance management and payroll management for part-time jobs based on face authentication histories of part-time jobs.
  • the second server 710 is a server computer that performs labor management of the second user based on the second user's face authentication history.
  • the second server 710 is an employee management system that performs attendance management and payroll management for regular employees based on the face authentication history of regular employees.
  • the first server 700 and the second server 710 are communicably connected to the relay device 800 .
  • the relay device 800 is a server computer that relays data when transmitting and receiving data between the first server 700 and the management device 500c, or when transmitting and receiving data between the second server 710 and the management device 500c. .
  • a relay device 800 is connected to a network N.
  • the relay device 800 may relay communication, or may temporarily store data received from a transmission source so that a destination device can retrieve the stored data.
  • the relay device 800 is installed to enhance the security level of the first server 700 and the second server 710, the relay device 800 is not essential in the authentication system 1000d.
  • the first server 700 and the second server 710 may be connected to the network N if the relay device 800 is not included in the authentication system 1000d.
  • the management device 500c transmits the first authentication history 511c stored in the storage unit 510c to the first server 700 via the relay device 800 when the transmission conditions for the first authentication history 511c are satisfied.
  • the management device 500c transmits the first authentication history 511c stored in the storage unit 510c to the relay device 800 and causes the relay device 800 to temporarily store it.
  • the management device 500c transmits the second authentication history 512c stored in the storage unit 510c to the second server 710 via the relay device 800 .
  • the management device 500c transmits the second authentication history 512c stored in the storage unit 510c to the relay device 800 and causes the relay device 800 to temporarily store it.
  • the transmission condition for each authentication history may be that a predetermined time has elapsed, or that the amount of data in the accumulated authentication history has reached or exceeded a predetermined amount.
  • the management device 500c may have a table that associates user IDs with company attributes for each of the first user and the second user for face authentication history management.
  • the first server 700 or the second server 710 associates the new in-house attribute information with the user ID.
  • You may transmit to the management apparatus 500c via the relay apparatus 800.
  • the management device 500c may periodically or irregularly inquire of the first server 700 or the second server 710 via the relay device 800 about the company attribute information corresponding to the user ID.
  • the authentication system 1000d can suitably manage labor records based on the face authentication history for each attribute of the target user.
  • Embodiment 8 Next, an eighth embodiment of the present disclosure will be described.
  • one authentication terminal 300c performs face authentication by selectively using the first face authentication and the second face authentication.
  • the authentication terminal that performs the first face authentication and the authentication terminal that performs the second face authentication are separated.
  • FIG. 27 is a block diagram showing the overall configuration of an authentication system 1000e according to the eighth embodiment.
  • the authentication terminal that executes the first face authentication is the authentication terminal according to any one of the second to seventh embodiments, and is the authentication terminal 300 according to the second embodiment in this figure.
  • the authentication terminal that executes the second face authentication is the authentication terminal 900 different from the authentication terminal 300 .
  • the user U If the user U is the first user, the user U holds the code recording medium C over the authentication terminal 300 and requests the first face authentication. On the other hand, if the user U is the second user, the user U holds the IC card over the authentication terminal 900 to request the second face authentication.
  • FIG. 28 is a block diagram showing the configuration of the authentication terminal 900 according to the eighth embodiment.
  • the authentication terminal 900 has basically the same configuration as the authentication terminal 300c, but includes an imaging unit 910, a storage unit 920, and a control unit 970 instead of the imaging unit 310, the storage unit 320c, and the control unit 370c.
  • the imaging unit 910 has a first camera 311 that captures the face area of the user U.
  • the second camera 312 for imaging the code recording medium C may be omitted.
  • the storage unit 920 stores a program 921 in which processing related to the second face authentication method is implemented.
  • the control unit 970 has an embedded information acquisition unit 973 and an authentication unit 974 instead of the embedded information acquisition unit 373c and the authentication unit 374c of the control unit 370c.
  • the embedded information acquisition unit 973 has the function related to the second face authentication of the embedded information acquisition unit 373c, and the function related to the first face authentication may be omitted.
  • the authentication unit 974 has the function related to the second face authentication of the authentication unit 374c, and the function related to the first face authentication may be omitted.
  • the present disclosure is not limited to the above embodiments, and can be modified as appropriate without departing from the scope.
  • the second to eighth embodiments described above may be combined arbitrarily.
  • the third embodiment may be combined with any one of the fourth to eighth embodiments.
  • Embodiment 4 and at least one of Embodiments 6 to 8 may be combined.
  • Embodiment 5 and at least one of Embodiments 6 to 8 may be combined.
  • the imaging units 310 of the authentication terminals 300, 300a, 300b, and 300c have the first camera 311 and the second camera 312.
  • the imaging unit 310 may be a single camera that integrates the functions of the first camera 311 and the second camera 312 .
  • the hardware configuration has been described, but the configuration is not limited to this.
  • the present disclosure can also implement arbitrary processing by causing a processor to execute a computer program.
  • Non-transitory computer readable media include various types of tangible storage media.
  • Examples of non-transitory computer-readable media include magnetic recording media (e.g., flexible discs, magnetic tapes, hard disk drives), magneto-optical recording media (e.g., magneto-optical discs), CD-ROMs (Read Only Memory), CD-Rs, Includes CD-R/W, DVD (Digital Versatile Disc), semiconductor memory (eg, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)).
  • magnetic recording media e.g., flexible discs, magnetic tapes, hard disk drives
  • magneto-optical recording media e.g., magneto-optical discs
  • CD-ROMs Read Only Memory
  • CD-Rs Includes CD-R/W
  • DVD Digital Versatile Disc
  • semiconductor memory eg, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM,
  • the program may also be delivered to the computer on various types of transitory computer readable medium.
  • Examples of transitory computer-readable media include electrical signals, optical signals, and electromagnetic waves.
  • Transitory computer-readable media can deliver the program to the computer via wired channels, such as wires and optical fibers, or wireless channels.
  • an image acquisition means having a visible code symbol in which embedded information including the biometric information of and identification information of the subject is recorded; embedded information acquiring means for acquiring the embedded information from the code image; authentication means for executing biometric authentication by comparing the biometric information for registration included in the embedded information with the biometric information for authentication generated based on the body image; and notification means for notifying a management device of the identification information of the subject when the biometric authentication is successful.
  • the authentication terminal according to appendix A1 further comprising gate control means for restricting the subject from passing through a gate when the biometric authentication fails.
  • the embedded information further includes validity period information indicating a validity period, The authentication terminal according to appendix A2, wherein the gate control means restricts the subject from passing through the gate when the current date and time is not included in the validity period indicated by the validity period information.
  • the embedded information further includes available location information indicating available locations, According to appendix A2 or A3, the gate control means restricts the target person from passing through the gate when the installation location of the gate is not included in the available locations indicated by the available location information. authentication terminal.
  • the embedded information further includes in-house attribute information indicating the subject's employment status, department or position,
  • the gate control means restricts the target person from passing through the gate when the employment type, department, or position indicated by the in-house attribute information is not a predetermined employment type, department, or position. or the authentication terminal described in paragraph 1.
  • An output control means for outputting the result of the biometric authentication, the embedded information further includes nationality-related information related to the subject's nationality, country of origin, or language used;
  • the output control means outputs the result of the biometric authentication in a language corresponding to the nationality or country of origin indicated by the nationality-related information, or in the language used indicated by the nationality-related information.
  • Authentication terminal as described.
  • the authentication means compares biometric information for registration stored in a database with biometric information for authentication generated based on the body image when the image acquisition means does not acquire the code image.
  • the authentication terminal according to any one of Appendices A1 to A6, which performs biometric authentication by (Appendix A8) a first camera that captures the subject's body;
  • the image obtaining means detects the second camera in response to obtaining the body image from the first camera or in response to the start or completion of the process of generating the biometric information for authentication.
  • a code generation terminal comprising: conversion means for converting embedded information including the biometric information for registration of the subject and the identification information of the subject into a visible code symbol.
  • the authentication terminal is An image acquiring means for acquiring a body image generated by photographing the body of a subject and a code image generated by photographing a code recording medium, wherein the code recording medium is used for registration of the subject.
  • An image acquisition means having a visible code symbol in which embedded information including the biometric information of and identification information of the subject is recorded; embedded information acquiring means for acquiring the embedded information from the code image; authentication means for performing biometric authentication by comparing the biometric information for registration included in the embedded information with the biometric information for authentication generated based on the body image; and notification means for notifying a management device of the identification information of the subject when the biometric authentication is successful.
  • a non-temporary computer-readable medium storing a program for causing a computer to execute a notification process of notifying the management device of the identification information of the subject when the biometric authentication is successful.
  • Appendix B1 A body image generated by photographing the subject's body when the subject is located at a first distance from an imaging means, and a second distance from the imaging means where the subject is shorter than the first distance. and an image acquisition means for acquiring a code image generated by photographing a code recording medium carried by the subject when the subject is at a distant position, wherein the code recording medium is an image for registration of the subject.
  • an image acquisition means having a visible code symbol in which embedded information including biometric information is recorded; authentication information generation means for starting processing for generating biometric information for authentication of the subject from the body image in response to obtaining the body image of the subject; embedded information obtaining means for obtaining the embedded information from the code image in response to obtaining the code image; authentication means for performing biometric authentication by comparing the biometric information for authentication with the biometric information for registration included in the embedded information; and gate control means for restricting the subject from passing through the gate when the biometric authentication fails.
  • the imaging means has a first camera and a second camera, The first camera photographs the subject's body, The authentication terminal according to Appendix B1, wherein the second camera photographs the code recording medium carried by the subject.
  • Appendix B3 The image acquiring means, in response to acquiring the body image from the first camera, or in response to the authentication information generating means starting or completing the process of generating the biometric information for authentication, The authentication terminal according to appendix B2, which activates the second camera.
  • Appendix B4 The authentication terminal according to any one of Appendices B1 to B3, wherein a second angle of view for photographing the code recording medium is wider than a first angle of view for photographing the subject's body.
  • Appendix B5 the body is a face, When the size or length of the facial region of the subject included in the body image is equal to or greater than a predetermined number of pixels, the authentication information generating means connects predetermined facial organs included in the facial region of the subject.
  • the authentication terminal according to any one of appendices B1 to B4, wherein the biometric information for authentication of the subject is generated from the body image when the length is equal to or greater than a predetermined number of pixels.
  • the authentication information generation means determines whether or not the subject is approaching the imaging means in response to starting the process of generating biometric information for authentication of the subject.
  • Appendixes B1 to B5 An authentication terminal according to any one of paragraphs.
  • Appendix B7 The authentication terminal according to Appendix B6, wherein the authentication means executes the biometric authentication when it is determined that the subject is approaching the imaging means.
  • the image acquisition means acquires a plurality of body images generated by photographing the body of the subject a plurality of times, The authentication terminal according to any one of Appendices B1 to B7, wherein the authentication information generating means generates biometric information for authentication of the subject from a part of the plurality of body images.
  • the authentication information generating means is calculating a likelihood index of the body for each of the plurality of body images; The authentication terminal according to appendix B8, wherein the partial body image is selected from the plurality of body images based on the index.
  • the image acquisition means acquires a plurality of body images generated by photographing the body of the subject a plurality of times, The authentication terminal according to any one of appendices B1 to B7, wherein the authentication information generating means generates biometric information for authentication of the subject for each of the plurality of body images.
  • the authentication information generating means is calculating an index of certainty of the body for the body image; The authentication terminal according to any one of appendices B1 to B10, wherein the biometric information for authentication of the subject is generated when the index is equal to or greater than a predetermined threshold.
  • Appendix B12 The authentication terminal according to any one of Appendices B1 to B11, further comprising notification means for notifying the management apparatus of the identification information of the subject when the biometric authentication is successful.
  • Appendix B13 A body image generated by photographing the subject's body when the subject is located at a first distance from an imaging means, and a second distance from the imaging means where the subject is shorter than the first distance. and an image acquisition means for acquiring a code image generated by photographing a code recording medium carried by the subject when the subject is at a distant position, wherein the code recording medium is an image for registration of the subject.
  • An authentication system comprising: an authentication terminal having gate control means for restricting the subject from passing through a gate when the biometric authentication fails.
  • the code recording medium has a visible code symbol in which embedded information including biometric information for registration of the subject is recorded; an embedded information obtaining step of obtaining the embedded information from the code image in response to obtaining the code image; an authentication step of performing biometric authentication by comparing the biometric information for authentication with the biometric information for registration included in the embedded information; a gate control stage that restricts the subject from passing through a gate if the biometric authentication fails.
  • (Appendix B17) a first image acquisition process for acquiring a body image generated by photographing the subject's body when the subject is at a position separated by a first distance from the imaging means; Authentication information generation processing for starting processing for generating biometric information for authentication of the subject from the body image in response to acquisition of the body image of the subject; A second image for acquiring a code image generated by photographing a code recording medium carried by the subject when the subject is at a second distance shorter than the first distance from the imaging means.
  • the code recording medium has a visible code symbol in which embedded information including biometric information for registration of the subject is recorded; embedded information acquisition processing for acquiring the embedded information from the code image in response to acquisition of the code image; an authentication process for performing biometric authentication by comparing the biometric information for authentication with the biometric information for registration included in the embedded information;
  • a non-temporary computer-readable medium storing a program for causing a computer to execute gate control processing for restricting the subject from passing through the gate when the biometric authentication fails.
  • (Appendix C1) a first camera that captures the body of a subject; A second camera for photographing the code recording medium carried by the subject, wherein the code recording medium is a visible code symbol in which embedded information including biometric information for registration of the subject is recorded.
  • a second camera having image acquisition means for acquiring a body image generated by photographing the body of the subject with the first camera and a code image generated by photographing the code recording medium with the second camera; authentication information generation means for starting processing for generating biometric information for authentication of the subject from the body image in response to obtaining the body image of the subject; embedded information obtaining means for obtaining the embedded information from the code image in response to obtaining the code image; authentication means for performing biometric authentication by comparing the biometric information for authentication with the biometric information for registration included in the embedded information; and gate control means for restricting the subject from passing through the gate when the biometric authentication fails.
  • Appendix C2 The authentication terminal according to appendix C1, wherein the first camera and the second camera are arranged at different positions on the main surface of the authentication terminal.
  • the image acquiring means in response to acquiring the body image from the first camera, or in response to the authentication information generating means starting or completing the process of generating the biometric information for authentication,
  • the authentication terminal according to Appendix C1 or C2 that activates the second camera (Appendix C4)
  • the body is a face
  • the authentication information generating means connects predetermined facial organs included in the facial region of the subject.
  • the authentication terminal according to any one of appendices C1 to C4, wherein the biometric information for authentication of the subject is generated from the body image when the length is equal to or greater than a predetermined number of pixels.
  • the authentication information generating means determines whether or not the subject is approaching the first camera in response to starting the process of generating biometric information for authentication of the subject. Notes C1 to C5 The authentication terminal according to any one of .
  • the image acquisition means acquires a plurality of body images generated by photographing the body of the subject a plurality of times, The authentication terminal according to any one of Appendices C1 to C7, wherein the authentication information generating means generates biometric information for authentication of the subject from a part of the body images among the plurality of body images.
  • the authentication information generating means is calculating a likelihood index of the body for each of the plurality of body images; The authentication terminal according to appendix C8, wherein the partial body image is selected from the plurality of body images based on the index.
  • the image acquisition means acquires a plurality of body images generated by photographing the body of the subject a plurality of times, The authentication terminal according to any one of appendices C1 to C7, wherein the authentication information generating means generates biometric information for authentication of the subject for each of the plurality of body images.
  • the authentication information generating means is calculating an index of certainty of the body for the body image; The authentication terminal according to any one of appendices C1 to C10, wherein the biometric information for authentication of the subject is generated when the index is equal to or greater than a predetermined threshold.
  • Appendix C12 The authentication terminal according to any one of Appendices C1 to C11, further comprising notification means for notifying the management apparatus of the identification information of the subject when the biometric authentication is successful.
  • Appendix C13 a first camera that captures the body of a subject; A second camera for photographing the code recording medium carried by the subject, wherein the code recording medium is a visible code symbol in which embedded information including biometric information for registration of the subject is recorded.
  • a second camera having image acquisition means for acquiring a body image generated by photographing the body of the subject with the first camera and a code image generated by photographing the code recording medium with the second camera; authentication information generation means for starting processing for generating biometric information for authentication of the subject from the body image in response to obtaining the body image of the subject; embedded information obtaining means for obtaining the embedded information from the code image in response to obtaining the code image; authentication means for performing biometric authentication by comparing the biometric information for authentication with the biometric information for registration included in the embedded information;
  • An authentication system comprising: an authentication terminal having gate control means for restricting the subject from passing through a gate when the biometric authentication fails.
  • (Appendix C16) a first image acquisition step of acquiring a body image generated by photographing the subject's body with a first camera; an authentication information generation step of starting a process of generating biometric information for authentication of the subject from the body image in response to obtaining the body image of the subject; A second image acquiring step of acquiring a code image generated by photographing a code recording medium carried by the subject with a second camera, wherein the code recording medium is biometric information for registration of the subject.
  • a second image acquisition stage having a visible code symbol recorded with embedded information comprising an embedded information obtaining step of obtaining the embedded information from the code image in response to obtaining the code image; an authentication step of performing biometric authentication by comparing the biometric information for authentication with the biometric information for registration included in the embedded information; a gate control stage that restricts the subject from passing through a gate if the biometric authentication fails.
  • (Appendix C17) a first image acquisition process of acquiring a body image generated by photographing the body of a subject with a first camera; Authentication information generation processing for starting processing for generating biometric information for authentication of the subject from the body image in response to acquisition of the body image of the subject; A second image acquisition process for acquiring a code image generated by photographing a code recording medium carried by the subject with a second camera, wherein the code recording medium is biometric information for registration of the subject.
  • a second image acquisition process having a visible code symbol recorded with embedded information comprising embedded information acquisition processing for acquiring the embedded information from the code image in response to acquisition of the code image; an authentication process for performing biometric authentication by comparing the biometric information for authentication with the biometric information for registration included in the embedded information;
  • a non-temporary computer-readable medium storing a program for causing a computer to execute gate control processing for restricting the subject from passing through the gate when the biometric authentication fails.
  • authentication terminal 11 image acquisition unit 12 authentication information generation unit 13 embedded information acquisition unit 14 authentication unit 17 gate control unit 100, 100c code generation terminal 110 camera 120, 120c storage unit 121, 121c program 130 memory 140 communication unit 150 input unit 160 output unit 161 display unit 162 audio output unit 170, 170c control unit 171 image acquisition unit 172 registration information acquisition unit 1721 detection unit 1722 feature point extraction unit 1723 management information acquisition unit 174 conversion unit 175 output control unit 176 DB registration unit 200 printing Apparatus 300, 300a, 300b, 300c Authentication terminal 310 Imaging unit 311 First camera 312 Second camera 320, 320a, 320b, 320c Storage unit 321, 321a, 321b, 321c Program 322 Restriction condition information 323 Language table 330 Memory 340 Communication unit 360 output unit 361 display unit 362 audio output unit 370, 370a, 370b, 370c control unit 371 image acquisition unit 372 authentication information generation unit 3721 detection unit 3722 feature point extraction unit 373 embedded information acquisition unit 374, 3

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Collating Specific Patterns (AREA)

Abstract

認証端末(10)は、画像取得部(11)と、認証情報生成部(12)と、埋込情報取得部(13)と、認証部(14)と、ゲート制御部(17)とを備える。画像取得部(11)は、対象者が撮像部から第1距離離れた位置にいる場合に対象者の身体を撮影して生成された身体画像を取得し、対象者が撮像部から第1距離よりも短い第2距離離れた位置にいる場合に対象者が携帯するコード記録媒体を撮影して生成されたコード画像を取得する。認証情報生成部(12)は、対象者の身体画像を取得したことに応じて、身体画像から対象者の認証用の生体情報を生成する処理を開始する。埋込情報取得部(13)は、コード画像から埋込情報を取得する。認証部(14)は、認証用の生体情報と、埋込情報に含まれる登録用の生体情報とを照合することにより、生体認証を実行する。ゲート制御部(17)は、生体認証が失敗した場合、対象者に対してゲートの通過を制限する。

Description

認証端末、認証システム、認証方法及び非一時的なコンピュータ可読媒体
 本開示は、認証端末、認証システム、認証方法及び非一時的なコンピュータ可読媒体に関する。
 生体に関わる個人情報をデータベースに保存せず、簡易な構成で認証を行う認証システムが提案されている。
 例えば、特許文献1では、利用者の顔特徴点が記録された2次元情報コード等の情報コードを用いて、利用者を撮影した撮影画像から抽出した顔特徴点と、情報コードから読み取られた顔特徴点とを照合して利用者の認証を行う認証システムが開示されている。
 また特許文献2では、二次元コードに記録された掌紋の特徴点のデータと、認証対象者の掌の画像データから検出された掌紋の特徴点データとを照合して個人認証を行う個人認証システムが開示されている。
国際公開第2020/149339号 特開2001-256501号公報
 しかし、上述の特許文献1~2に記載の方法では、撮影画像から生体情報を抽出する処理は負荷が高く時間を要するため、認証のスループットが不十分であるという問題があった。
 本開示の目的は、上述した課題に鑑み、認証のスループットを向上させることができる認証端末、認証システム、認証方法及び非一時的なコンピュータ可読媒体を提供することにある。
 本開示の一態様にかかる認証端末は、
 対象者が撮像手段から第1距離離れた位置にいる場合に前記対象者の身体を撮影して生成された身体画像と、前記対象者が前記撮像手段から前記第1距離よりも短い第2距離離れた位置にいる場合に前記対象者が携帯するコード記録媒体を撮影して生成されたコード画像と、を取得する画像取得手段であって、前記コード記録媒体は、前記対象者の登録用の生体情報を含む埋込情報が記録されている視認可能なコードシンボルを有する、画像取得手段と、
 前記対象者の身体画像を取得したことに応じて、前記身体画像から前記対象者の認証用の生体情報を生成する処理を開始する認証情報生成手段と、
 前記コード画像を取得したことに応じて、前記コード画像から前記埋込情報を取得する埋込情報取得手段と、
 前記認証用の生体情報と、前記埋込情報に含まれる前記登録用の生体情報とを照合することにより、生体認証を実行する認証手段と、
 前記生体認証が失敗した場合、前記対象者に対してゲートの通過を制限するゲート制御手段と
 を備える。
 本開示の一態様にかかる認証システムは、
 対象者が撮像手段から第1距離離れた位置にいる場合に前記対象者の身体を撮影して生成された身体画像と、前記対象者が前記撮像手段から前記第1距離よりも短い第2距離離れた位置にいる場合に前記対象者が携帯するコード記録媒体を撮影して生成されたコード画像と、を取得する画像取得手段であって、前記コード記録媒体は、前記対象者の登録用の生体情報を含む埋込情報が記録されている視認可能なコードシンボルを有する、画像取得手段と、
 前記対象者の身体画像を取得したことに応じて、前記身体画像から前記対象者の認証用の生体情報を生成する処理を開始する認証情報生成手段と、
 前記コード画像を取得したことに応じて、前記コード画像から前記埋込情報を取得する埋込情報取得手段と、
 前記認証用の生体情報と、前記埋込情報に含まれる前記登録用の生体情報とを照合することにより、生体認証を実行する認証手段と、
 前記生体認証が失敗した場合、前記対象者に対して前記ゲートの通過を制限するゲート制御手段と
 を有する認証端末を備える。
 本開示の一態様にかかる認証方法は、
 対象者が撮像手段から第1距離離れた位置にいる場合に前記対象者の身体を撮影して生成された身体画像を取得する第1画像取得段階と、
 前記対象者の身体画像を取得したことに応じて、前記身体画像から前記対象者の認証用の生体情報を生成する処理を開始する認証情報生成段階と、
 前記対象者が前記撮像手段から前記第1距離よりも短い第2距離離れた位置にいる場合に前記対象者が携帯するコード記録媒体を撮影して生成されたコード画像、を取得する第2画像取得段階であって、前記コード記録媒体は、前記対象者の登録用の生体情報を含む埋込情報が記録されている視認可能なコードシンボルを有する、第2画像取得段階と、
 前記コード画像を取得したことに応じて、前記コード画像から前記埋込情報を取得する埋込情報取得段階と、
 前記認証用の生体情報と、前記埋込情報に含まれる前記登録用の生体情報とを照合することにより、生体認証を実行する認証段階と、
 前記生体認証が失敗した場合、前記対象者に対してゲートの通過を制限するゲート制御段階と
 を備える。
 本開示の一態様にかかる非一時的なコンピュータ可読媒体は、
 対象者が撮像手段から第1距離離れた位置にいる場合に前記対象者の身体を撮影して生成された身体画像を取得する第1画像取得処理と、
 前記対象者の身体画像を取得したことに応じて、前記身体画像から前記対象者の認証用の生体情報を生成する処理を開始する認証情報生成処理と、
 前記対象者が前記撮像手段から前記第1距離よりも短い第2距離離れた位置にいる場合に前記対象者が携帯するコード記録媒体を撮影して生成されたコード画像、を取得する第2画像取得処理であって、前記コード記録媒体は、前記対象者の登録用の生体情報を含む埋込情報が記録されている視認可能なコードシンボルを有する、第2画像取得処理と、
 前記コード画像を取得したことに応じて、前記コード画像から前記埋込情報を取得する埋込情報取得処理と、
 前記認証用の生体情報と、前記埋込情報に含まれる前記登録用の生体情報とを照合することにより、生体認証を実行する認証処理と、
 前記生体認証が失敗した場合、前記対象者に対してゲートの通過を制限するゲート制御処理と
 をコンピュータに実行させるためのプログラムが格納されている。
 本開示により、認証のスループットを向上させることができる認証端末、認証システム、認証方法及び非一時的なコンピュータ可読媒体を提供できる。
実施形態1にかかる認証端末の構成を示すブロック図である。 実施形態1にかかる認証方法の流れを示すフローチャートである。 実施形態2にかかる認証システムの全体構成を示すブロック図である。 顔認証の流れの概要を説明するための図である。 埋込情報のデータ構成の一例を示す図である。 実施形態2にかかる管理装置の構成を示すブロック図である。 実施形態2にかかるコード生成端末の構成を示すブロック図である。 実施形態2にかかるコード生成方法の流れを示すフローチャートである。 実施形態2にかかる認証端末の構成を示すブロック図である。 実施形態2にかかる認証方法の流れを示すフローチャートである。 実施形態3にかかる認証方法を説明するための図である。 実施形態3にかかる顔情報抽出処理の開始条件の一例を説明するための図である。 実施形態3にかかる認証方法の一部の流れを示すフローチャートである。 実施形態4にかかる認証端末の構成を示すブロック図である。 実施形態4にかかる制限条件情報のデータ構造の一例を示す図である。 実施形態4にかかる認証方法の流れを示すフローチャートである。 実施形態5にかかる認証端末の構成を示すブロック図である。 実施形態5にかかる認証端末の出力の一例を示す図である。 実施形態5の変形例にかかる認証端末の出力の一例を示す図である。 実施形態6にかかる認証システムの全体構成を示すブロック図である。 実施形態6にかかる管理装置の構成を示すブロック図である。 実施形態6にかかるコード生成端末の構成を示すブロック図である。 実施形態6にかかるコード生成方法の流れを示すフローチャートである。 実施形態6にかかる認証端末の構成を示すブロック図である。 実施形態6にかかる認証方法の流れを示すフローチャートである。 実施形態7にかかる認証システムの全体構成を示すブロック図である。 実施形態8にかかる認証システムの全体構成を示すブロック図である。 実施形態8にかかる認証端末の構成を示すブロック図である。
 以下では、本開示の実施形態について、図面を参照しながら詳細に説明する。各図面において、同一又は対応する要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。
 <実施形態1>
 まず、本開示の実施形態1について説明する。図1は、実施形態1にかかる認証端末10の構成を示すブロック図である。認証端末10は、対象者が携帯するコード記録媒体を用いた生体認証を実行する情報処理端末である。コード記録媒体は、コードシンボルを有する。コードシンボルは、視認可能な情報コードであり、バーコード、QRコード(登録商標)等の二次元コード、又はカメレオンコード(登録商標)等のカラーバーコードであってよい。コードシンボルには、少なくとも対象者の登録用の生体情報を含む埋込情報が記録されている。生体情報は、顔、指紋、虹彩、耳、又は静脈の特徴情報である。対象者の識別情報は、対象者を識別する情報であり、対象者IDと呼ばれる。
 ここで、認証端末10は、ゲートのゲート駆動装置と、無線又は有線により通信可能に接続されている。ゲートは、対象者が通過を希望するゲートであってよい。 
 認証端末10は、画像取得部11と、認証情報生成部12と、埋込情報取得部13と、認証部14と、ゲート制御部17とを備える。
 画像取得部11は、画像取得手段とも呼ばれる。画像取得部11は、対象者の身体を撮影して生成された身体画像と、コード記録媒体を撮影して生成されたコード画像とを取得する。撮影対象となる対象者の身体は、対象者の身体の少なくとも一部であり、例えば、対象者の顔、指、目、耳、又は手のひらである。ここで、上記身体画像は、対象者が撮像部(不図示)から第1距離離れた位置にいる場合に対象者の身体を撮影して生成される。また、上記コード画像は、対象者が撮像部から第2距離離れた位置にいる場合にコード記録媒体を撮影して生成される。第2距離は、第1距離よりも短い。つまり、ユーザUが撮像部に近づいている場合、ユーザUの身体がまず撮影され、その後、ユーザUが携帯するコード記録媒体が撮影される。
 認証情報生成部12は、認証情報生成手段とも呼ばれる。認証情報生成部12は、対象者の身体画像を取得したことに応じて、身体画像から対象者の認証用の生体情報を生成する処理を開始する。
 埋込情報取得部13は、埋込情報取得手段とも呼ばれる。埋込情報取得部13は、画像取得部11で取得したコード画像から、埋込情報を取得する。具体的には、埋込情報取得部13は、コード画像からコードシンボルを抽出し、コードシンボルに対してデコード処理を行うことで、埋込情報を取得する。
 認証部14は、認証手段とも呼ばれる。認証部14は、埋込情報取得部13でコード画像から取得した埋込情報に含まれる登録用の生体情報と、身体画像に基づいて生成された認証用の生体情報とを照合することにより、生体認証を実行する。
 ゲート制御部17は、ゲート制御手段とも呼ばれる。ゲート制御部17は、生体認証が失敗した場合、対象者に対してゲートの通過を制限する。尚、生体認証が失敗した場合とは、登録用の生体情報と、認証用の生体情報とが一致しなかった場合を指す。ここで、生体情報が一致しないとは、両者の生体情報の一致度が所定閾値未満であることを含む。
 図2は、実施形態1にかかる認証方法の流れを示すフローチャートである。まず認証端末10の画像取得部11は、対象者が撮像部から第1距離離れた位置にいる場合に対象者の身体を撮影して生成された身体画像を取得する(S10)。次に、認証情報生成部12は、身体画像から対象者の認証用の生体情報を生成する処理を開始する(S11)。次に、画像取得部11は、対象者が撮像部から第2距離離れた位置にいる場合に対象者が携帯するコード記録媒体を撮影して生成されたコード画像を取得する(S12)。次に、埋込情報取得部13は、コード画像を取得したことに応じて、コード画像から埋込情報を取得する(S13)。次に、認証部14は、認証用の生体情報と、埋込情報に含まれる登録用の生体情報とを照合することにより、生体認証を実行する(S14)。次に、認証部14は、生体認証が成功したか否かを判定する(S15)。認証部14は、生体認証に成功したと判定した場合(S15でYes)、処理を終了する。一方、認証部14が生体認証に失敗したと判定した場合(S15でNo)、ゲート制御部17は、対象者に対してゲートの通過を制限する(S16)。
 このように実施形態1によれば、認証端末10は、コード記録媒体の撮影に先立って、対象者の身体を撮影し、身体画像から認証用の生体情報を取得する処理を開始する。これにより、認証端末10は、対象者が撮像部に近づいてくる間に認証用の生体情報の取得処理を行うことができるため、認証のスループットが向上する。
 尚、認証端末10は、図示しない構成としてプロセッサ、メモリ及び記憶装置を備えるものである。また、当該記憶装置には、本実施形態にかかる認証方法の処理が実装されたコンピュータプログラムが記憶されている。そして、当該プロセッサは、記憶装置からコンピュータプログラムを前記メモリへ読み込ませ、当該コンピュータプログラムを実行する。これにより、前記プロセッサは、画像取得部11、認証情報生成部12、埋込情報取得部13、認証部14及びゲート制御部17の機能を実現する。
 または、画像取得部11、認証情報生成部12、埋込情報取得部13、認証部14及びゲート制御部17は、それぞれが専用のハードウェアで実現されていてもよい。また、各装置の各構成要素の一部又は全部は、汎用または専用の回路(circuitry)、プロセッサ等やこれらの組合せによって実現されもよい。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。各装置の各構成要素の一部又は全部は、上述した回路等とプログラムとの組合せによって実現されてもよい。また、プロセッサとして、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(field-programmable gate array)等を用いることができる。
 また、認証端末10の各構成要素の一部又は全部が複数の情報処理装置や回路等により実現される場合には、複数の情報処理装置や回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、情報処理装置や回路等は、クライアントサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される形態として実現されてもよい。また、認証端末10の機能がSaaS(Software as a Service)形式で提供されてもよい。
 <実施形態2>
 次に、本開示の実施形態2について説明する。図3は、実施形態2にかかる認証システム1000の全体構成を示すブロック図である。認証システム1000は、対象者であるユーザUが携帯するコード記録媒体Cを用いた生体認証を実施するコンピュータシステムである。以下では、生体認証として、顔認証を例に挙げて説明するが、これに限らない。また、以下では、コード記録媒体Cは、紙やプラスチック等にコードシンボルを印字した印刷物であるとして説明する。例えばユーザUは、例えばネックストラップ付のカードケースにコード記録媒体Cを挿入して、首からカードケースを下げることで、コード記録媒体Cを携帯する。しかしこれに限らず、コード記録媒体Cは、ユーザUが携帯する、コードシンボルを表示したスマートフォン又はタブレット端末等であってもよい。
 認証システム1000は、コード生成端末100と、印刷装置200と、認証端末300-1~300-3と、ゲート400-1~400~3と、管理装置500とを備える。少なくともコード生成端末100、認証端末300-1~300-3及び管理装置500は、ネットワークNを介して互いに接続されている。ネットワークNは、有線又は無線の通信回線である。
 コード生成端末100は、コードシンボルを生成する情報処理端末である。コード生成端末100は、例えば、タブレット端末、スマートフォン又はパーソナルコンピュータ(PC)である。まず、コード生成端末100は、ユーザUの顔を撮影し、撮影により生成された顔画像から、ユーザUの登録用の顔情報を取得する。一例として、顔情報は、顔画像から抽出された特徴点の集合であってよく、顔特徴情報と呼ばれてもよい。そして、コード生成端末100は、ユーザUの登録用の顔情報及びユーザUの識別情報(ユーザID)を少なくとも含む埋込情報を生成し、埋込情報を視認可能なコードシンボルに変換する。コード生成端末100は、変換したコードシンボルの情報を、印刷装置200に出力する。尚、コード生成端末100は、ネットワークNに接続されていなくてもよい。
 印刷装置200は、コード生成端末100に有線又は無線により通信可能に接続されている印刷装置である。コード生成端末100がネットワークNに接続されている場合、印刷装置200もネットワークNに接続されていてもよいし、コード生成端末100及び印刷装置200は、Bluetooth(登録商標)等によりピアツーピアで接続されていてもよい。印刷装置200は、コード生成端末100から受信したコードシンボルの情報を、コード記録媒体Cに印刷する。
 ゲート400-1~ゲート400-3は、それぞれ、部屋1~3への入退室を許可又は制限するためのゲートである。ゲート400-1~ゲート400-3は、部屋1~3の入退室のための開閉体であり、例えば扉であってよい。部屋1~3は、関係者以外の入退室が禁止された機密エリアであってよい。以下では、ゲート400-1、400-2、400-3を区別せず言及する場合は、単にゲート400と呼ぶことがある。ゲート400は、ゲートの開閉を駆動させるゲート駆動装置を含む。
 認証端末300-1~300-3のそれぞれは、ゲート400-1~ゲート400-3の近傍の地点1~3に設置される。以下では、認証端末300-1、300-2、300-3を区別せず言及する場合は、単に認証端末300と呼ぶことがある。尚、本図では、認証端末300及びゲート400の数はいずれも3であるが、2以下であってもよいし、4以上であってもよい。
 認証端末300は、ユーザUが携帯するコード記録媒体Cを用いた顔認証を実行する情報処理端末である。認証端末300は、例えば、タブレット端末、スマートフォン又はPCである。
 例えばユーザUは、部屋2に入室するために、認証端末300-2を訪問し、認証端末300-2による顔認証を受ける。そして認証端末300-2は、顔認証に成功した場合、認証端末300-2に対応するゲート400-2を開放し、顔認証に失敗した場合、ゲート400-2を閉鎖する。尚、ゲート400-2を開放することは、ゲート400-2を解錠することを含んでよく、ゲート400-2を閉鎖することは、ゲート400-2を施錠することを含んでよい。また認証端末300-2は、顔認証結果を、ユーザIDとともに管理装置500に送信する。
 具体的には、まず認証端末300-2は、ユーザUの顔を撮影し、撮影により生成された顔画像からユーザUの認証用の顔情報を取得する。また、認証端末300-2は、ユーザUが携帯するコード記録媒体Cを撮影し、撮影により生成されたコード画像から埋込情報を取得する。そして認証端末300-2は、認証用の顔情報と、埋込情報に含まれる登録用の顔情報とを照合することにより、顔認証を実行する。顔認証が成功した場合、認証端末300-2は、対応するゲート400-2のゲート駆動装置に開放制御信号を送信して、ユーザUに対してゲートの通過を許可する。つまり、認証端末300-2は、ユーザUに対して部屋2への入室又は退室を許可する。一方、顔認証が失敗した場合、認証端末300-2は、対応するゲート400-2のゲート駆動装置に閉鎖制御信号を送信して、ユーザUに対してゲート400-2の通過を制限する。つまり、認証端末300-2は、ユーザUに対して部屋2への入室又は退室を禁止する。また認証端末300-2は、顔認証が成功した旨と、埋込情報に含まれるユーザIDと、認証日時(撮影日時)とを含む顔認証結果を、ネットワークNを介して管理装置500に送信する。顔認証結果は、これに加えて認証端末300-2が設置される地点の情報又はゲート400-2の識別情報を含んでもよい。顔認証結果は、ユーザUの勤怠日時及び入退室日時を管理するための情報として機能する。以上、認証端末300-2の処理について説明したが、認証端末300-1、300-3についても同様である。
 尚、認証端末300は必ずしもゲート400の開閉を制御しなくてもよい。例えば、ゲート400の開閉制御を行わず、勤怠日時のみを管理するために設置された認証端末300があってもよい。この場合、ユーザUは、業務開始時や終了時に認証端末300を訪問し、認証端末300による顔認証を受ける。
 管理装置500は、認証端末300を訪問したユーザUの顔認証結果を、顔認証履歴として管理する。そして管理装置500は、ユーザUの顔認証履歴に基づいて、ユーザUの勤怠及び部屋1~3への入退室履歴を管理する。
 図4は、顔認証の流れの概要を説明するための図である。まず、ユーザUは、コードシンボルを生成するためにコード生成端末100を訪問する。コード生成端末100は、カメラ110によりユーザUの顔を撮影し、撮影により生成された顔画像に応じたコードシンボルを生成する。そしてコード生成端末100は、印刷装置200に生成したコードシンボルの情報を送信し、コード記録媒体C(本図では、紙)に印刷させる。ユーザUは、コードシンボルが印字されたコード記録媒体Cを、例えばネックストラップ付のカードケースを入れて、コード記録媒体Cを携帯する。そしてユーザUは、業務開始時、入退室時、及び業務終了時に、対応する認証端末300に近づき、携帯するコード記録媒体Cをかざす。
 認証端末300は、第1カメラ311によりユーザUの顔を、第2カメラ312によりコード記録媒体Cを、撮影し、顔認証を実行する。認証端末300は、顔認証に成功した場合、コード記録媒体Cのコードシンボルを読み取って取得した埋込情報に含まれるユーザIDを、管理装置500に送信し、ゲート400を開放させる。一方、認証端末300は、顔認証に失敗した場合、ゲート400を閉鎖させる。尚、第1カメラ311及び第2カメラ312は、認証端末300の本体の主面上の異なる任意の位置に配置されている。本図では、第1カメラ311が認証端末300の上側、第2カメラ312が認証端末300の下側に配置されているが、第1カメラ311が認証端末300の下側、第2カメラ312が認証端末300の上側に配置されていてもよい。また第1カメラ311及び第2カメラ312は、認証端末300の左側及び右側、あるいは右側及び左側に配置されていてもよい。
 ここで、コード記録媒体Cのコードシンボルが示す埋込情報について、説明する。図5は、埋込情報のデータ構成の一例を示す図である。埋込情報は、登録用の生体情報と、認証端末300による情報処理に用いられる管理情報とを含んでいる。本図には、埋込情報に含まれる登録用の生体情報は、いずれも登録用の顔情報であるが、管理情報が異なるタイプ1~4の埋込情報のデータ構成を示している。
 タイプ1の埋込情報は、管理情報としてユーザIDを含む。
 タイプ2の埋込情報は、管理情報としてユーザID及び制限情報を含む。制限情報は、ユーザUによるゲート400の通過を制限するか否かを判定する場合に用いられる情報である。あるいは制限情報は、ゲート400の通過に対して生体認証を実行するか否かを判定するために用いられる情報である。制限情報は、例えばコードシンボルの有効期間を示す有効期間情報、コードシンボルの利用可能な場所を示す利用可能場所情報又はユーザUの社内属性を示す社内属性情報であってよい。社内属性は、就業形態、部署又は役職であってよい。
 タイプ3の埋込情報は、管理情報としてユーザID及び国籍関連情報を含む。国籍関連情報は、ユーザUの国籍、出身国又は使用言語に関連する情報である。
 タイプ4の埋込情報は、管理情報としてユーザID、制限情報及び国籍関連情報を含む。
 ここで、埋込情報がタイプ1である場合を、本実施形態2及び実施形態3で説明する。尚、埋込情報がタイプ2、3、及び4である場合を、それぞれ、実施形態4、5、及び5の変形例で説明する。
 図6は、実施形態2にかかる管理装置500の構成を示すブロック図である。管理装置500は、記憶部510と、通信部520と、制御部530とを備える。
 記憶部510は、認証履歴511を記憶する記憶装置である。認証履歴511は、認証端末300による顔認証の履歴を示し、ユーザID5111と、日時5112と、ゲートID5113とを対応付ける情報である。ユーザID5111は、認証端末300からの通知に含まれる、顔認証に成功したユーザUを識別する情報である。日時5112は、認証端末300からの顔認証結果の通知に含まれる顔認証日時(撮影日時)であってもよいし、通知を受けた日時であってもよい。ゲートID5113は、通知元の認証端末300に対応付けられるゲート400を識別する情報である。尚、ゲートID5113は、通知元の認証端末300が設置された地点、又は認証端末300に対応付けられるゲート400が設置された地点を示す情報(位置情報)であってもよい。そして記憶部510には、認証履歴511に加えて、管理装置500の各機能を実現するためのプログラムが格納される。
 通信部520は、ネットワークNとの通信インタフェースである。制御部530は、管理装置500が有するハードウェアの制御を行う。制御部530は、認証端末300から顔認証結果の通知を受けた場合、通知に含まれるユーザID、日時及びゲートIDを認証履歴511として記憶部510に記録する。
 図7は、実施形態2にかかるコード生成端末100の構成を示すブロック図である。コード生成端末100は、カメラ110と、記憶部120と、メモリ130と、通信部140と、入力部150と、出力部160と、制御部170とを備える。
 カメラ110は、制御部170の制御に応じて撮影を行う撮影装置である。記憶部120は、コード生成端末100の各機能を実現するためのプログラム121が格納される記憶装置である。メモリ130は、RAM(Random Access Memory)等の揮発性記憶装置であり、制御部170の動作時に一時的に情報を保持するための記憶領域である。通信部140は、ネットワークNとの通信インタフェースである。また通信部140は、印刷装置200との通信インタフェースとして機能してもよい。入力部150は、入力を受け付ける入力装置である。
 出力部160は、制御部170の情報処理結果を出力する。例えば出力部160は、表示部161と、音声出力部162とを有する。表示部161は、制御部170の情報処理結果を表示する表示装置である。表示部161及び入力部150は、例えばタッチパネルのように一体的に構成されていてもよい。音声出力部162は、スピーカを含み、制御部170の情報処理結果を音声出力する。
 制御部170は、コード生成端末100の各構成要素を制御するプロセッサつまり制御装置である。制御部170は、記憶部120からプログラム121をメモリ130へ読み込ませ、プログラム121を実行する。これにより、制御部170は、画像取得部171、登録情報取得部172、変換部174及び出力制御部175の機能を実現する。
 画像取得部171は、画像取得手段とも呼ばれる。画像取得部171は、カメラ110を制御し、ユーザUの顔を撮影して、少なくとも当該ユーザUの顔領域を含む登録用の顔画像を生成させる。そして画像取得部171は、カメラ110から登録用の顔画像を取得する。画像取得部171は、登録用の顔画像を、登録情報取得部172に供給する。
 登録情報取得部172は、登録情報取得手段とも呼ばれる。登録情報取得部172は、登録用の顔画像から、ユーザUの登録用の顔情報を取得する。また、登録情報取得部172は、ユーザUの管理情報を取得する。例えば、登録情報取得部172は、入力部150を介してユーザUの管理情報であるユーザIDを取得する。このとき入力部150は、ユーザUやその他の操作者からの手入力を受け付けてもよいし、管理情報が記録されたバーコード等の情報媒体を読み取ることによって入力を受け付けてもよい。また登録情報取得部172は、ユーザUの顔画像の取得に際して、ユーザIDを新規で発行することにより、ユーザIDを取得してもよい。ここで登録情報取得部172は、検出部1721と、特徴点抽出部1722と、管理情報取得部1723とを有する。
 検出部1721は、検出手段とも呼ばれる。検出部1721は、登録用の顔画像に含まれる顔領域を検出し、特徴点抽出部1722に供給する。
 特徴点抽出部1722は、特徴点抽出手段とも呼ばれる。特徴点抽出部1722は、検出部1721が検出した顔領域から特徴点を抽出し、抽出した特徴点の情報を登録用の顔情報として、変換部174に供給する。
 管理情報取得部1723は、管理情報取得手段とも呼ばれる。管理情報取得部1723は、入力部150でユーザUから受け付けたユーザID等の管理情報を取得する。しかしユーザIDについては、管理情報取得部1723は、コードシンボル生成に際して新規に発行してもよい。そして管理情報取得部1723は、管理情報を変換部174に供給する。
 変換部174は、変換手段とも呼ばれる。変換部174は、ユーザUの登録用の顔情報及び管理情報を含む埋込情報を視認可能なコードシンボルに変換する。例えば変換部174は、埋込情報をQRコードシンボル(QRコード)に変換する。コードシンボルへの変換は、登録用の顔情報及び管理情報を合成した合成情報を、コードシンボルに変換することであってよい。またコードシンボルへの変換は、埋込情報の一部(例えば、登録用の顔情報)を親コードシンボルに変換し、親コードシンボルの一部を残りの埋込情報(例えば、管理情報)で置換することで、コードシンボルを生成することであってもよい。尚、変換部174は、埋込情報を暗号化した上で、コードシンボルに変換してよい。これにより、セキュリティレベルを向上させることができる。このとき変換部174は、埋込情報の一部を暗号化し、一部を暗号化しなくてもよい。例えば変換部174は、登録用の顔情報を暗号化して管理情報を暗号化しなくてもよいし、管理情報を暗号化して登録用の顔情報を暗号化しなくてもよい。
 出力制御部175は、出力制御手段とも呼ばれる。出力制御部175は、変換部174で変換したコードシンボルの情報を、通信部140を介して印刷装置200に出力する。これにより、埋込情報を示すコードシンボルをコード記録媒体Cに印刷することができる。
 図8は、実施形態2にかかるコード生成方法の流れを示すフローチャートである。まず、コード生成端末100の画像取得部171は、カメラ110を制御してユーザUの顔を撮影し、撮影により生成されたユーザUの登録用の顔画像を取得する(S101)。次に、登録情報取得部172は、ユーザUの登録用の顔画像から顔情報を抽出する、顔情報抽出処理を実行する(S102)。具体的には、登録情報取得部172の検出部1721は、ユーザUの登録用の顔画像に含まれる顔領域を検出し、特徴点抽出部1722は、検出した顔領域から特徴点を抽出し、これを登録用の顔情報とする。登録情報取得部172は、登録用の顔情報を変換部174に供給する。次に、登録情報取得部172の管理情報取得部1723は、入力部150を介して管理情報であるユーザIDを取得する(S103)。このとき入力部150は、ユーザUやその他の操作者からの手入力を受け付けてもよいし、管理情報が記録された情報媒体を読み取ることによって入力を受け付けてもよい。尚、管理情報取得部1723は、これに代えて、ユーザIDを新規で発行してもよい。管理情報取得部1723は、管理情報(ここでは、ユーザID)を、変換部174に供給する。次に、変換部174は、登録用の顔情報及び管理情報に基づいて、埋込情報を生成する(S104)。変換部174は、登録用の顔情報及び管理情報を1つの情報に合成変換することであってよい。あるいは、埋込情報の生成は、登録用の顔情報を第1の埋込情報、管理情報を第2の埋込情報として特定することであってもよい。次に変換部174は、埋込情報をコードシンボルに変換する(S105)。このとき変換部174は、既存の技術を用いて埋込情報をコードシンボルに変換してよい。例えば、変換部174は、登録用の顔情報及び管理情報の合成情報を、コードシンボルに変換してもよい。また変換部174は、第1の埋込情報(登録用の顔情報)と誤り訂正コードとをコードシンボルに変換し、コードシンボルの一部のブロックを第2の埋込情報が埋め込まれたブロックで置換してもよい。そして、出力制御部175は、変換したコードシンボルの情報を、印刷装置200に出力する(S106)。
 図9は、実施形態2にかかる認証端末300の構成を示すブロック図である。認証端末300は、撮像部310と、記憶部320と、メモリ330と、通信部340と、出力部360と、制御部370とを備える。
 撮像部310は、撮像手段とも呼ばれる。撮像部310は、制御部370の制御に応じて撮影を行う。撮像部310は、第1カメラ311と、第2カメラ312とを有する。第1カメラ311は、制御部370の制御に応じて、ユーザUの顔を撮影する。第2カメラ312は、制御部370の制御に応じて、ユーザUが携帯するコード記録媒体Cを撮影する。
 記憶部320は、認証端末300の各機能を実現するためのプログラム321が格納される記憶装置である。メモリ330は、RAM等の揮発性記憶装置であり、制御部370の動作時に一時的に情報を保持するための記憶領域である。通信部340は、ネットワークNとの通信インタフェースである。
 出力部360は、制御部370の情報処理結果を出力する。例えば出力部360は、表示部361と、音声出力部362とを有する。表示部361は、制御部370の情報処理結果を表示する表示装置である。尚、認証端末300は、入力を受け付ける入力部(不図示)を備えてよく、表示部361及び入力部は、タッチパネルのように一体的に構成されていてもよい。音声出力部362は、スピーカを含み、制御部370の情報処理結果を音声出力する。
 制御部370は、認証端末300の各構成要素を制御するプロセッサつまり制御装置である。制御部370は、記憶部320からプログラム321をメモリ330へ読み込ませ、プログラム321を実行する。これにより、制御部370は、画像取得部371、認証情報生成部372、埋込情報取得部373、認証部374、出力制御部375、通知部376及びゲート制御部377の機能を実現する。
 画像取得部371は、画像取得手段とも呼ばれる。画像取得部371は、撮像部310の第1カメラ311を制御し、ユーザUの顔を撮影して、少なくとも当該ユーザUの顔領域を含む認証用の顔画像を生成させる。そして画像取得部371は、第1カメラ311から認証用の顔画像を取得する。また画像取得部371は、撮像部310の第2カメラ312を制御し、ユーザUが携帯するコード記録媒体Cを撮影し、コード画像を生成させる。そして画像取得部371は、第2カメラ312からコード画像を取得する。画像取得部371は、認証用の顔画像を認証情報生成部372に供給し、コード画像を埋込情報取得部373に供給する。
 認証情報生成部372は、認証情報生成手段とも呼ばれる。認証情報生成部372は、認証用の顔画像から、ユーザUの認証用の顔情報を生成する。ここで、認証情報生成部372は、検出部3721と、特徴点抽出部3722とを有する。検出部3721及び特徴点抽出部3722は、それぞれ、コード生成端末100の検出部1721及び特徴点抽出部1722と同様の処理を行ってよい。つまり検出部3721は、認証用の顔画像に含まれる顔領域を検出し、特徴点抽出部3722に供給する。特徴点抽出部3722は、検出部3721が検出した顔領域から特徴点を抽出し、抽出した特徴点の情報を認証用の顔情報として、認証部374に供給する。
 埋込情報取得部373は、埋込情報取得手段とも呼ばれる。埋込情報取得部373は、画像取得部371で取得したコード画像からコードシンボルを抽出し、コードシンボルに対してデコード処理を行うことで、埋込情報を取得する。埋込情報取得部373は、埋込情報を認証部374に供給する。
 認証部374は、認証手段とも呼ばれる。認証部374は、埋込情報取得部373で取得した埋込情報に含まれる登録用の顔情報と、認証情報生成部372で生成した認証用の顔情報とを照合することにより、顔認証を実行する。認証部374は、顔情報の一致の有無を出力制御部375、通知部376及びゲート制御部377に通知する。顔情報の一致の有無は、認証の成否に対応する。尚、顔情報が一致する(一致有)とは、一致度が所定値以上である場合をいうものとする。
 出力制御部375は、出力制御手段とも呼ばれる。出力制御部375は、出力部360を制御し、出力部360に情報処理結果を出力させて、ユーザUに情報処理結果を報知する。例えば出力制御部375は、出力部360に顔認証の結果を出力させて、ユーザUに顔認証の結果を報知する。
 通知部376は、通知手段とも呼ばれる。通知部376は、顔認証結果が顔情報一致有を示す場合、つまり顔認証の成功を示す場合、埋込情報からユーザIDを抽出し、顔認証結果とユーザIDとをネットワークNを介して管理装置500に通知する。尚、顔認証結果にユーザIDを含めてもよい。
 ゲート制御部377は、ゲート制御手段とも呼ばれる。ゲート制御部377は、顔認証結果に応じて、ユーザUに対してゲート400の通過を許可又は禁止する。例えばゲート制御部377は、ユーザUの撮影地点のゲート400のゲート駆動装置に、顔認証結果に応じた制御信号を送信する。一例として、ゲート制御部377は、顔情報が一致する、つまり顔認証が成功した場合、ゲート駆動装置にゲート400を開放する旨の制御信号(開放制御信号)を送信して、ユーザUに対してゲート400の通過を許可する。一方、ゲート制御部377は、顔情報が一致しない、つまり顔認証が失敗した場合、ゲート駆動装置にゲート400を閉鎖する旨の制御信号を送信して、ユーザUに対してゲート400の通過を制限する。尚、ゲート制御部377が送信する制御信号は、ゲートを開放又は閉鎖する旨の制御信号に代えて、顔認証が成功若しくは失敗したこと、又はゲート400の通過が許可若しくは禁止されていることをゲート駆動装置に出力させるための制御信号であってもよい。
 尚、ゲート制御部377により、ユーザUの入退室の管理をすることができるが、ゲート制御部377は必須ではない。つまり、ゲート制御部377を備えていない認証端末300があってもよい。
 図10は、実施形態2にかかる認証方法の流れを示すフローチャートである。まず認証端末300は、ステップS200に示す処理を実行する。実施形態2では、ステップS200は、認証端末300が認証用の顔情報を生成し、埋込情報を取得する処理であり、ステップS201~204から構成される。まず認証端末300の画像取得部371は、撮像部310の第1カメラ311を制御し、ユーザUの顔を撮影させて、認証用の顔画像を取得する(ステップS201)。次に認証情報生成部372は、ユーザUの認証用の顔画像から顔情報を抽出する、顔情報抽出処理を実行する(ステップS202)。具体的には、認証情報生成部372の検出部3721は、ユーザUの認証用の顔画像に含まれる顔領域を検出し、特徴点抽出部3722は、検出した顔領域から特徴点を抽出し、これを認証用の顔情報とする。認証情報生成部372は、認証用の顔情報を認証部374に供給する。次に、画像取得部371は、撮像部310の第2カメラ312を制御し、ユーザUが携帯するコード記録媒体Cを撮影させて、コード画像を取得する(ステップS203)。次に埋込情報取得部373は、コード画像からコードシンボルを抽出し、コードシンボルに対してデコード処理を行うことで、埋込情報を取得する(S204)。埋込情報取得部373は、埋込情報を認証部374に供給する。
 尚、本実施形態2では、ステップS203~204は、ステップS201~202よりも前に実行されてもよいし、ステップS201~202と並行して行われてもよい。
 次に、認証部374は、埋込情報に含まれる登録用の顔情報と、顔画像から抽出した認証用の顔情報とを照合する(S205)。顔情報が一致した場合、つまり、顔情報の一致度が所定値以上である場合(S206でYes)、認証部374は、顔情報が一致した旨をゲート制御部377に、埋込情報に含まれるユーザIDを通知部376に供給して、処理をステップS207に進める。ステップS207において、ゲート制御部377は、認証端末300に対応しているゲート400のゲート駆動装置に、開放制御信号を送信する(S207)。これにより、ゲート400が開放し、ユーザUはゲート400を通過することができる。尚、このとき出力制御部375は、顔認証に成功した旨を出力部360に表示又は音声出力させることで、ユーザUに対して顔認証に成功した旨を報知してよい。次にステップS208において、通知部376は、少なくともユーザIDを含む、顔認証に成功したことを示す通知を、ネットワークNを介して管理装置500に送信する。尚、通知部376は、ユーザIDに加えて、顔認証日時(撮影日時)及びゲートIDを当該通知に含ませてよい。
 一方、顔情報が一致しなかった場合、つまり、顔情報の一致度が所定値未満である場合(S206でNo)、認証部374は、顔情報が一致しなかった旨をゲート制御部377及び通知部376に供給して、処理をステップS209に進める。ステップS209において、ゲート制御部377は、認証端末300に対応しているゲート400のゲート駆動装置に、閉鎖制御信号を送信する(S209)。尚、このとき出力制御部375は、顔認証に失敗した旨を出力部360に表示又は音声出力させることで、ユーザUに対して顔認証に失敗した旨を報知してよい。次にステップS210において、通知部376は、顔認証に失敗した旨を、エラー通知として、ネットワークNを介して管理装置500に送信する。尚、通知部376は、エラー通知に、埋込情報に含まれるユーザIDを含ませてもよいが、これに限らない。
 このように実施形態2によれば、認証端末300は、生体情報をDBに記録することなく、コード記録媒体Cの持ち主と被撮影者とが一致しているかを確認し、かつ被撮影者を識別することができる。これにより、システムの管理コストを抑えつつ、なりすましを防止することができる。これは、労働者の入れ替わりの激しい業界においては、特に効果を奏する。また、認証システム1000は生体情報を管理しなくてもよいため、情報漏洩等のセキュリティリスクも低減できる。また、紙等のコード記録媒体Cへのコードシンボルの印刷は、特別な装置を必要とせず容易に実施できるため、運用コストを抑えることができる。またユーザUがコード記録媒体Cを紛失しても、認証システム1000はコードシグナルを生成して印刷することでコード記録媒体Cを容易に再発行できるため、利便性が高い。
 そして認証端末300は、生体認証に成功したユーザUのユーザIDを管理装置500に通知するため、生体認証履歴の管理を容易にすることができ、生体認証履歴に基づいて勤怠記録や入退室記録を容易に管理することができる。これにより労働者による不正な勤怠登録や不正な入退室を容易に回避することができる。
 <実施形態3>
 次に、本開示の実施形態3について説明する。上述の実施形態2では、認証端末300が顔画像を取得し、認証用の顔情報を生成する処理(図10のステップS201~202)と、コード画像を取得し、埋込情報を取得する処理(図10のステップS203~204)とは、任意の順序で行われてよいとした。しかし、認証用の顔情報を生成する処理は、顔情報を抽出する処理を含み、負荷が高い処理である。したがって、ユーザUが認証端末300に到着してから顔画像を取得して顔情報を抽出するのでは、認証処理が完了するまでに待ち時間が発生する可能性がある。これに対して実施形態3では、認証端末300は、コード画像を取得し、埋込情報を取得する処理に先立って、顔画像を取得して顔情報を抽出する処理を開始する。尚、実施形態3にかかる認証システム1000は、実施形態2にかかる認証システム1000と同様の構成要素を有するため、説明を省略する。尚、本実施形態3でも、生体認証の対象となる身体の部位は、顔であるとして説明するが、これに限らない。
 図11は、実施形態3にかかる認証方法を説明するための図である。なお本図においては、ユーザUの左右方向をX方向とし、ユーザUの高さ方向をZ軸方向とし、ユーザUの前後方向をY軸方向とする。尚、撮像部310の第1カメラ311及び第2カメラ312の光軸方向は略一致してよく、Y軸方向と略一致していてよい。つまり、撮像部310の光軸方向は、Y軸方向と略一致していてよい。
 本図に示すキャプチャボリュームCV1は、認証端末300の撮像部310の第1カメラ311が、顔認証のためにユーザUの顔領域を撮影することができる領域である。ここで、キャプチャボリュームCV1内で、Y軸方向において第1カメラ311の撮像面から最も離れた距離を第1最大距離D1と呼ぶ。また、第1カメラ311の画角は、第1画角θ1に設定されている。
 またキャプチャボリュームCV2は、認証端末300の撮像部310の第2カメラ312が、顔認証のためにコード記録媒体Cを撮影することができる領域である。ここで、キャプチャボリュームCV2内で、Y軸方向において第2カメラ312の撮像面から最も離れた距離を第2最大距離D2と呼ぶ。第2最大距離D2は、第1最大距離D1よりも短く設定されている。尚、Y軸方向において第2カメラ312の撮像面は、第1カメラ311の撮像面と略一致していてよい。また、第2カメラ312の画角は、第2画角θ2に設定されている。
 第1カメラ311は、キャプチャボリュームCV1内でユーザUを検知したことに応じて、制御部370の画像取得部371の制御を受けて、「認証用の顔画像」を撮影する。“キャプチャボリュームCV1内でユーザUを検知したことに応じて第1カメラ311が「認証用の顔画像」を撮影する”とは、以下のケースA1~A3のいずれかを意味していてよい。
 ケースA1では、第1カメラ311がキャプチャボリュームCV1内でユーザUを検知した場合にのみ撮影画像を画像取得部371に供給する。この場合、画像取得部371は、第1カメラ311から供給された撮影画像をすべて「認証用の顔画像」として特定してよい。そして、認証情報生成部372は、顔情報の抽出処理を開始する。
 ケースA2では、第1カメラ311が所定時間間隔で絶えず撮影して画像取得部371に供給し、キャプチャボリュームCV1内でユーザUを検知した場合のみ画像取得部371が撮影画像を「認証用の顔画像」として認証情報生成部372に供給する。つまりケースA2では、画像取得部371は、第1カメラ311が複数回撮影して生成された複数の撮影画像を取得し、複数の撮影画像のうちの一部を「認証用の顔画像」として認証情報生成部372に供給する。これにより、認証情報生成部372は、「認証用の顔画像」の顔情報の抽出処理を開始する。
 ケースA3では、第1カメラ311が所定時間間隔で絶えず撮影して、撮影により生成された撮影画像を、画像取得部371を介して認証情報生成部372に絶えず供給している。この場合、認証情報生成部372は、キャプチャボリュームCV1内でユーザUを検知したことに応じて、供給された撮影画像を「認証用の顔画像」として特定し、「認証用の顔画像」の顔情報の抽出処理を開始する。つまりケースA3では、画像取得部371は、第1カメラ311が複数回撮影して生成された複数の撮影画像を取得し、認証情報生成部372は、複数の撮影画像のうち一部を「認証用の顔画像」として、認証用の生体情報を生成する。
 以下では、“キャプチャボリュームCV1内でユーザUを検知したことに応じて第1カメラ311が「認証用の顔画像」を撮影する”ことをケースA3の意味で定義するが、これに限らない。
 ここで、第1カメラ311による「認証用の顔画像」の撮影時のユーザUの位置を位置P1と呼び、第1カメラ311の光軸方向において第1カメラ311の撮像面から位置P1までの距離を第1距離d1と呼ぶ。第1距離d1は、第1最大距離D1と同じであってもよいし、短くてもよい。
 第2カメラ312は、キャプチャボリュームCV2内でユーザUが携帯するコード記録媒体Cを検知したことに応じて、制御部370の画像取得部371の制御を受けて、「認証用のコード画像」を撮影する。尚、“キャプチャボリュームCV2内でユーザUが携帯するコード記録媒体Cを検知したことに応じて第2カメラ312が「認証用のコード画像」を撮影する”とは、以下のケースB1~B3のいずれかを意味していてよい。
 ケースB1では、第2カメラ312がキャプチャボリュームCV2内でコード記録媒体Cを検知した場合にのみ撮影画像を画像取得部371に供給する。この場合、画像取得部371は、第2カメラ312から供給された撮影画像をすべて「認証用のコード画像」として特定してよい。そして、埋込情報取得部373は、埋込情報の取得処理を開始する。
 ケースB2では、第2カメラ312が所定時間間隔で絶えず撮影して画像取得部371に供給し、キャプチャボリュームCV2内でコード記録媒体Cを検知した場合のみ画像取得部371が撮影画像を「認証用のコード画像」として埋込情報取得部373に供給する。これにより、埋込情報取得部373は、埋込情報の取得処理を開始する。
 ケースB3では、第2カメラ312が所定時間間隔で絶えず撮影して、撮影画像は画像取得部371及び埋込情報取得部373に絶えず供給されている。この場合、埋込情報取得部373は、キャプチャボリュームCV2内でコード記録媒体Cを検知したことに応じて、第2カメラ312からの撮影画像を「認証用のコード画像」として特定し、埋込情報の取得処理を開始する。
 以下では、“キャプチャボリュームCV2内でユーザUが携帯するコード記録媒体Cを検知したことに応じて第2カメラ312が「認証用のコード画像」を撮影する”ことをケースB3の意味で定義するが、これに限らない。
 ここで、第2カメラ312による「認証用のコード画像」の撮影時のユーザUの位置を位置P2と呼び、第2カメラ312の光軸方向において第2カメラ312の撮像面から位置P2までの距離を第2距離d2と呼ぶ。第2距離d2は、第2最大距離D2と同じであってもよいし、短くてもよい。
 本図では、位置P2における第2距離d2は、位置P1における第1距離d1よりも短い。したがって、まず認証端末300の画像取得部371は、ユーザUが撮像部310から第1距離d1離れた位置P1にいる場合に第1カメラ311によりユーザUの顔領域を撮影して生成されたユーザUの顔画像を取得し、認証情報生成部372に供給する。そして認証情報生成部372は、顔画像を取得したことに応じて、顔画像から認証用の顔情報を生成する処理を開始する。これにより、認証情報生成部372は、ユーザUが近付いている間に認証用の顔情報を生成する処理を行うことができる。また画像取得部371は、ユーザUが撮像部310から第2距離d2離れた位置P2にいる場合に第2カメラ312によりユーザUが携帯するコード記録媒体Cを撮影して生成されたコード画像を取得し、埋込情報取得部373に供給する。そして埋込情報取得部373は、コード画像を取得したことに応じて、コード画像から埋込情報を取得する処理を開始する。このような処理手順を踏むことにより、認証処理の待ち時間の発生を回避し、スループットを向上させることができる。
 尚、第2カメラ312の第2画角θ2、すなわちコード記録媒体Cを撮影する場合の第2画角θ2は、第1カメラ311の第1画角θ1、すなわちユーザUの顔(身体)を撮影する場合の第1画角θ1よりも広く設定されていてよい。尚、これに限らず、第2画角θ2は、第1画角θ1と同じであってもよいし、狭く設定されていてもよい。
 ここで、キャプチャボリュームCV1内でユーザUを検知したと判定する条件は、「認証用の顔画像」の顔情報抽出処理の開始条件と呼ぶこともできる。
 図12は、実施形態3にかかる顔情報抽出処理の開始条件(キャプチャボリュームCV1内でのユーザUの検知条件)の一例を説明するための図である。本図には、第1カメラ311が撮影した撮影画像Iを示している。撮影画像Iには、ユーザUの顔領域が含まれる。例えば、顔情報抽出処理の開始条件は、第1カメラ311が撮影した撮影画像Iに含まれるユーザUの顔領域の大きさ又は幅若しくは長さが所定画素数以上であることであってもよい。認証情報生成部372は、画像取得部371から撮影画像Iの供給を受けて、顔領域を検出する。そして認証情報生成部372は、顔領域の幅x1又は長さz1が所定画素数以上であるか否かを判定する。幅x1又は長さz1が所定画素数以上である場合、認証情報生成部372は、「認証用の顔画像」の顔情報抽出処理を開始する。尚、第1カメラ311からの撮影画像の全画素数(長さza×幅xa)は予め定められている。したがって、幅x1又は長さz1が所定画素数以上であるか否かを判定することは、撮影画像の幅xaに対する幅x1が所定値以上であるか否かを判定すること、又は撮影画像の長さzaに対する長さz1が所定値以上であるか否かを判定することと同じである。
 これにより、顔領域の大きさが十分である場合にのみ顔情報抽出処理により認証用の顔情報が生成される。したがって、処理効率が向上し、スループットの向上を図ることができる。
 またこれに代えて、例えば顔情報抽出処理の開始条件は、第1カメラ311が撮影した撮影画像に含まれる、ユーザUの顔領域に含まれる所定の顔器官の特徴点を結ぶ長さが、所定画素数以上であることであってもよい。顔器官の特徴点は、右目、左目、鼻の端点、口の端点、右眉の端点、及び左眉の端点うち少なくとも2つであってよい。一例として、顔器官の特徴点は、右目と左目である。認証情報生成部372は顔領域を検出し、顔領域内の右目及び左目の位置を検出する。そして認証情報生成部372は、顔領域内の右目と左目との間の長さx2が所定画素数以上であるか否かを判定する。長さx2が所定画素数以上である場合、認証情報生成部372は、「認証用の顔画像」の顔情報抽出処理を開始する。ここでも、長さx2が所定画素数以上であるか否かを判定することは、撮影画像の幅xaに対する長さx2が所定値以上であるか否かを判定することと同じである。
 これにより、顔領域の大きさが十分である場合にのみ顔情報抽出処理により認証用の顔情報が生成される。したがって、処理効率が向上し、スループットの向上を図ることができる。
 また顔情報抽出処理の開始条件は、第1カメラ311が撮影した撮影画像から算出される身体の確からしさの指標が予め定められた閾値以上であることであってもよい。身体の確からしさの指標は、例えば顔らしさの指標であってよい。これにより、確からしさがあるときだけ、顔情報抽出処理により認証用の顔情報が生成される。したがって、処理効率が向上し、スループットの向上を図ることができる。
 また顔情報抽出処理の開始条件は、所定時間内で第1カメラ311が撮影した複数の撮影画像の各々から算出される身体の確からしさの指標が、当該複数の撮影画像のうち最も大きな値を有することであってもよい。具体的には、認証制御部342は、第1カメラ311が撮影し、画像取得部371から供給される複数の撮影画像の各々について、身体の確からしさの指標を算出し、指標に基づいて複数の撮影画像から一部の撮影画像を、「認証用の顔画像」として選択する。これによっても、確からしさが比較的高いときだけ、顔情報抽出処理により認証用の顔情報が生成される。したがって、処理効率が向上し、スループットの向上を図ることができる。
 また、認証端末300が人物の存在を検知する任意のセンサ(例えば赤外線を用いた測距センサ)(不図示)を備える場合、顔情報抽出処理の開始条件は、センサがキャプチャボリュームCV1内に人物が存在することを検知したことであってもよい。
 以上、顔情報抽出処理の開始条件(キャプチャボリュームCV1内でのユーザUの検知条件)について説明したが、開始条件はこれに限らず任意に定められてよい。一方、埋込情報の取得処理の開始条件(キャプチャボリュームCV2内でのユーザUの検知条件)も、任意に定められてよい。例えば、埋込情報の取得処理の開始条件は、コード画像に含まれるコードシンボルの画像領域の大きさ又は幅若しくは長さが所定画素値以上であることであってよい。また、認証端末300が人物の存在を検知する測距センサ等のセンサを備える場合、埋込情報の取得処理の開始条件は、センサがキャプチャボリュームCV2に人物の存在を検知したことであってもよい。
 尚、第2カメラ312は、通常時は起動しておらず、所定の起動条件を満たした場合に、起動してよい。所定の起動条件は、第1カメラ311が撮影した撮影画像からユーザUの顔領域が検出されたことであってよい。また所定の起動条件は、第1カメラ311が「認証用の顔画像」を撮影したことであってもよい。また所定の起動条件は、認証情報生成部372による「認証用の顔画像」の顔情報抽出処理が開始又は完了したことであってもよい。第2カメラ312の起動処理は、画像取得部371が行ってよい。例えば、画像取得部371は、第1カメラ311から「認証用の顔画像」を取得したことに応じて、又は認証情報生成部372が「認証用の顔画像」に対して認証用の顔情報を生成する処理を開始若しくは完了したことに応じて、第2カメラ312を起動させてよい。このように第1カメラ311に関連する所定の処理が実行されるまでは第2カメラ312を起動させないことで、電力消費を抑えることができ、また、誤撮影や誤認識を回避することができる。そして第2カメラ312は、起動したことに応じてコード画像を撮影し、埋込情報取得部373は、埋込情報の取得処理を開始してもよい。
 尚、顔情報抽出処理の開始条件が満たされたことに応じて、つまり認証用の顔情報を生成する処理が開始されたことに応じて、認証情報生成部372は、ユーザUが撮像部310に接近しているか否かを判定してよい。具体的には、認証情報生成部372は、認証用の顔画像についての顔情報抽出処理と並行して、それ以降に第1カメラ311により撮影された撮影画像に含まれるユーザUの人物領域のトラッキングを行う。トラッキングの対象となる人物領域は、例えば顔領域又は目領域であってもよい。認証情報生成部372は、特定した「認証用の顔画像」の撮影タイミング以降に第1カメラ311により撮影された撮影画像間のユーザUの人物領域の大きさの差分に基づいて、ユーザUが撮像部310に接近しているか否かを判定する。そして、認証情報生成部372は、ユーザUが撮像部310に接近していると判定した場合、埋込情報取得部373に対して、認証用のコード画像から埋込情報の取得処理を開始させてよい。あるいは、認証情報生成部372は、ユーザUが撮像部310に接近していると判定した場合、認証部374に対して、顔認証(照合)を実行させてよい。これにより、コード画像と顔画像との組み合わせの誤認識を防止することができる。つまり顔画像と、顔画像が示すユーザUとは異なるユーザが携帯するコード記録媒体Cのコード画像とを照合してしまうことを防止することができる。
 図13は、実施形態3にかかる認証方法の一部の流れを示すフローチャートである。本図は、図10に示すステップS200に相当するステップS200aの処理を示している。ステップS200aは、ステップS201~203に代えて、ステップS221~227を含む点でステップS200と異なる。本図では、第1カメラ311による「認証用の画像」の撮影及び第2カメラ312による「認証用のコード画像」の撮影を、それぞれケースA3及びB3の意味で定義している。つまり、第1カメラ311が所定時間間隔で撮影した撮影画像の全てが、画像取得部371を介して認証情報生成部372に供給されている。また第2カメラ312が所定時間間隔で撮影した撮影画像の全てが、画像取得部371を介して埋込情報取得部373に供給されている。
 まず認証端末300の認証情報生成部372は、ユーザUが第1カメラ311のキャプチャボリュームCV1内に位置しているか否かを判定する(S221)。つまり、認証情報生成部372は、顔情報抽出処理の開始条件を満たしたか否かを判定する。認証情報生成部372は、ユーザUが第1カメラ311のキャプチャボリュームCV1内に位置していないと判定した場合(S221でNo)、当該処理を繰り返す。一方、認証情報生成部372は、ユーザUが第1カメラ311のキャプチャボリュームCV1内に位置していると判定した場合(S221でYes)、第1カメラ311が撮影した撮像画像を「認証用の顔画像」として特定する(S222)。次に、認証情報生成部372は、「認証用の顔画像」に対して顔情報抽出処理を開始する(S223)。本ステップは、図10のステップS202と同様である。次に、認証情報生成部372は、特定した「認証用の顔画像」の撮影タイミング以降に第1カメラ311が撮影した撮影画像を用いて、ユーザUのトラッキングを開始する(S224)。そして認証情報生成部372は、ユーザUが撮像部310に接近しているか否かを判定する(S225)。ユーザUが撮像部310に接近していないと判定した場合(S225でNo)、認証情報生成部372は、処理をステップS221に戻す。一方、認証情報生成部372は、ユーザUが撮像部310に接近していると判定した場合(S225でYes)、処理をステップS226に進める。
 ステップS226において、埋込情報取得部373は、ユーザUが携帯するコード記録媒体CがキャプチャボリュームCV2内に位置しているか否かを判定する(S226)。埋込情報取得部373は、コード記録媒体CがキャプチャボリュームCV2内に位置していないと判定した場合(S226でNo)、処理をステップS225に戻す。一方、埋込情報取得部373は、コード記録媒体CがキャプチャボリュームCV2内に位置していると判定した場合(S226でYes)、第2カメラ312が撮影した撮像画像を「認証用のコード画像」として特定する(S227)。そして埋込情報取得部373は、「認証用のコード画像」から埋込情報を取得し(S204)、処理を図10に示すステップS205に進める。
 尚、上述の説明では、キャプチャボリュームCV1内でユーザUを検知したことに応じて、「認証用の顔画像」の顔情報の抽出処理が開始されるものとした。しかしこれに代えて、第1カメラ311が撮影し、供給される全ての撮影画像に対して、顔情報の抽出処理が実行され、認証用の顔情報が生成されるとしてもよい。つまり、画像取得部371は、第1カメラ311がユーザUの顔を複数回撮影することにより生成された複数の「認証用の顔画像」を取得し、認証情報生成部372は、当該複数の「認証用の顔画像」の各々についてユーザUの認証用の顔情報を生成してよい。そして認証情報生成部372は、顔認証用の顔情報の抽出処理が成功して生成された認証用の顔情報を、照合対象として認証部374に供給してよい。
 このように実施形態3の認証端末300によれば、コード記録媒体Cの撮影に先立って、ユーザUの身体を撮影し、身体画像から認証用の生体情報を取得する処理を開始する。これにより、認証端末300は、ユーザUが撮像部310に近づいてくる間に認証用の生体情報の取得処理を行うことができるため、認証のスループットが向上する。
 <実施形態4>
 次に、本開示の実施形態4について説明する。実施形態4は、実施形態2の変形例であり、コード記録媒体Cのコードシンボルが示す埋込情報は、タイプ2の埋込情報である。つまり、埋込情報は、登録用の生体情報と、管理情報としてユーザID及び制限情報とを含む。
 図14は、実施形態4にかかる認証端末300aの構成を示すブロック図である。実施形態4にかかる認証端末300aは、実施形態1にかかる認証端末300と基本的に同様の構成及び機能を有する。ただし認証端末300aは、記憶部320に代えて記憶部320aと、制御部370に代えて制御部370aとを備える点で認証端末300と相違する。記憶部320aは、プログラム321aと、制限条件情報322とを記憶する。プログラム321aは、実施形態4にかかる認証方法の処理が実装されたコンピュータプログラムである。制限条件情報322には、顔認証結果に関わらずゲート400の通過を制限するための条件(制限条件)が記録されている。本実施形態4では、制限条件は、ゲート400の通過に際して顔認証の実行を中止するための条件として機能してよい。これは、顔認証結果に関わらずゲート400の通過を制限する場合、ゲート400の通過可否判定のために顔認証を実行する実益が乏しく、むしろ顔認証を行わない方が、スループットが向上するからである。
 制御部370aは、認証部374に代えて認証部374aを有する。認証部374aは、制限情報が記憶部320aの制限条件情報322が示す制限条件を満たさない場合に、顔認証を実行する。一方、認証部374aは、制限情報が制限条件情報322に記録される制限条件を満たす場合、顔認証の実行を中止する。この場合、認証部374aは、出力制御部375、通知部376及びゲート制御部377に対して顔認証の実行が中止された旨を示す制限通知を供給する。
 出力制御部375は、制限通知を受けて、顔認証の実行が中止されたこと及びゲート400の通過が許可されなかったことを出力部360に出力してよい。また通知部376は、制限通知を受けて、顔認証の実行が中止されたこと及びゲート400の通過が許可されなかったことを管理装置500に通知してよい。またゲート制御部377は、制限通知を受けて、ユーザUに対してゲートの通過を制限するための制御信号をゲート400のゲート駆動装置に送信してよい。
 図15は、実施形態4にかかる制限条件情報322のデータ構造の一例を示す図である。制限条件情報322は、1又は複数の制限条件を含んでよい。例えば制限条件情報322は、条件IDごとに、制限情報の種別と、制限条件とが対応付けられた情報であってよい。
 本図では、条件ID「1」の制限条件は、埋込情報が、制限情報として利用可能場所情報を含む場合、認証端末300に対応するゲート400の設置場所を示すゲートIDが、利用可能場所情報が示す利用可能場所に含まれていないことである。したがって認証部374aは、認証端末300に対応するゲート400のゲートIDが埋込情報から取得した利用可能場所に含まれていない場合、顔認証の実行を中止する。そしてゲート制御部377は、ユーザUに対してゲート400の通過を制限するように、ゲート400を制御する。尚、利用可能場所は、ユーザUの勤務地、又は社内属性に基づいて定められてよい。
 また、条件ID「2」の制限条件は、埋込情報が、制限情報として有効期間情報を含む場合、現在日時が、有効期間情報が示す有効期間に含まれていないことである。したがって認証部374aは、有効期限切れ等、現在日時が有効期間に含まれていない場合、顔認証の実行を中止する。そしてゲート制御部377は、ユーザUに対してゲート400の通過を制限するように、ゲート400を制御する。尚、有効期間は、ユーザUの労働契約期間、勤務時間又は勤務曜日に基づいて定められてよい。
 また、条件ID「3」の制限条件は、埋込情報が、制限情報として社内属性情報を含む場合、社内属性情報が示す就業形態、部署又は役職等の社内属性が、所定の社内属性でないことである。本例では、社内属性情報が示す就業形態が、正社員以外の就業形態であることである。したがって認証部374aは、社内属性情報が所定の社内属性以外の社内属性を示す場合、顔認証の実行を中止する。そしてゲート制御部377は、ユーザUに対してゲート400の通過を制限するように、ゲート400を制御する。
 図16は、実施形態4にかかる認証方法の流れを示すフローチャートである。本図に示すステップは、図10のステップと基本的に同様であるが、ステップS204とステップS205との間にステップS301を含む点で相違する。
 つまり、埋込情報取得部373がコード画像から埋込情報を取得した(S204)後、認証部374aは、埋込情報に含まれる制限情報が、制限条件情報322が示す制限条件を満たすか否かを判定する(S301)。認証情報生成部372aは、制限条件を満たさないと判定した場合(S301でNo)、ステップS205に示す照合処理に進める。尚、ステップS205以降の処理は、図10と同様である。一方、認証部374aは、制限条件を満たすと判定した場合(S301でYes)、ゲート制御部377はゲート400に対して閉鎖制御信号を送信し(S209)、通知部376はエラー通知を管理装置500に送信する(S210)。しかしこの場合のエラー通知には、ユーザIDが含まれていない。
 このように実施形態4によれば、認証端末300aは、制限条件を用いてゲート400の通過を制限するため、関係者以外の入退場を容易に制限することができる。特に労働者の入れ替わりが激しい業界においては、労働者による部屋への不正な入退場を抑制するために、通常、労働者の監視・監督する作業が求められるが、実施形態4によれば、認証端末300aが自動で通過制限をするため、このような作業が不要となる。
 また、認証端末300aは、制限条件を満たす場合、顔認証の実行を中止するため、無駄な計算を回避してスループットの向上を図ることができる。
 尚、ステップS301は、顔認証実行後に実行されてもよい。具体的には、ステップS301は、ステップS204とステップS205との間に代えて、顔認証が成功したと判定された後のステップS206のYesと、ステップS207との間に実行されてもよい。この場合、スループットの向上効果は薄れるが、管理装置500へのエラー通知にユーザIDを含めることができるため、不正を働こうとしたユーザUを特定することができる。
 尚、実施形態4にかかるコード生成方法は、図8に示すステップと同様であってよいが、ステップS103において、登録情報取得部172は、入力部150を介して、ユーザUのユーザIDに加えて制限情報を取得してよい。このとき登録情報取得部172は、入力部150は、ユーザUやその他の操作者からの手入力を受け付けてもよいし、ユーザIDに加えて制限情報が記録されたバーコード等の情報媒体を読み取ることによって入力を受け付けてもよい。またこれに代えて登録情報取得部172は、ユーザIDについては、ユーザUの顔画像の取得に際して新規で発行することにより取得し、制限情報については、入力部150による手入力の受付又は情報媒体の読み取りを介して取得してもよい。
 <実施形態5>
 次に、本開示の実施形態5について説明する。実施形態5は、実施形態2の変形例であり、コード記録媒体Cのコードシンボルが示す埋込情報は、タイプ3の埋込情報である。つまり、埋込情報は、登録用の生体情報と、管理情報としてユーザID及び国籍関連情報とを含む。国籍関連情報は、ユーザUの国籍、出身国又は使用言語に関連する。
 図17は、実施形態5にかかる認証端末300bの構成を示すブロック図である。実施形態5にかかる認証端末300bは、実施形態1にかかる認証端末300と基本的に同様の構成及び機能を有する。ただし認証端末300bは、記憶部320に代えて記憶部320bと、制御部370に代えて制御部370bとを備える点で認証端末300と相違する。記憶部320bは、プログラム321bと、言語テーブル323とを記憶する。プログラム321bは、実施形態5にかかる認証方法の処理が実装されたコンピュータプログラムである。言語テーブル323には、言語ごとの表示情報及び音声出力情報を記憶する。
 制御部370bは、出力制御部375に代えて出力制御部375bを有する。出力制御部375bは、ユーザUに対して、国籍関連情報が示す国籍若しくは出身国に応じた言語、又は国籍関連情報が示す使用言語で、出力部360に顔認証の結果を出力させる。尚、出力制御部375bは、顔認証が失敗した場合は、当該言語で顔認証の失敗理由を出力させてもよい。
 図18は、実施形態5にかかる認証端末300bの出力の一例を示す図である。例えば認証端末300bの出力制御部375bは、コード画像から取得した埋込情報に、国籍関連情報として使用言語「英語」が含まれていた場合、言語テーブル323から英語の表示情報を参照し、表示部361に顔認証結果を英語で表示させる。本図では、顔認証情報が成功した場合の表示の一例を示しており、表示部361は、顔認証に成功した旨を示す情報と、ゲート400の通過を促す情報とを、英語で表示している。また、埋込情報に、国籍関連情報として出身国「アメリカ」が含まれていた場合、アメリカに対応する言語を英語と特定し、言語テーブル323から英語の表示情報を参照し、表示部361に顔認証結果を英語で表示させてもよい。
 このように実施形態5によれば、認証端末300bは、ユーザUの使用言語又は使用する可能性が高い言語で顔認証結果を出力するため、ユーザUは顔認証結果を容易に把握することができる。特に、外国人労働者が多い業界においては、顕著な効果を奏する。
 尚、実施形態5にかかるコード生成方法は、図8に示すステップと同様であってよいが、ステップS103において、登録情報取得部172は、入力部150を介して、ユーザUのユーザIDに加えて国籍関連情報を取得してよい。このとき登録情報取得部172は、入力部150は、ユーザUやその他の操作者からの手入力を受け付けてもよいし、ユーザIDに加えて国籍関連情報が記録されたバーコード等の情報媒体を読み取ることによって入力を受け付けてもよい。またこれに代えて登録情報取得部172は、ユーザIDについては、ユーザUの顔画像の取得に際して新規で発行することにより取得し、国籍関連情報については、入力部150による手入力の受付又は情報媒体の読み取りを介して取得してもよい。
 <実施形態5の変形例>
 尚、実施形態4と実施形態5とを組み合わせることも可能である。実施形態5の変形例では、コード記録媒体Cのコードシンボルが示す埋込情報は、タイプ4の埋込情報である。つまり、埋込情報は、登録用の生体情報と、管理情報としてユーザID、制限情報及び国籍関連情報とを含む。埋込情報に含まれる制限情報が制限条件を満たした場合、出力制御部375bは、ユーザUに対して、国籍関連情報に応じた言語で、出力部360に制限理由及び対処方法を出力させてよい。
 図19は、実施形態5の変形例にかかる認証端末300bの出力の一例を示す図である。本図では、制限情報が制限条件を満たした場合(有効期限切れ)であって、埋込情報に含まれる国籍関連情報が使用言語「英語」である場合の表示部361による表示の一例を示す。表示部361は、有効期限切れを示す情報と、再登録を促す情報とを、英語で表示している。再登録を促す情報とは、すなわち、コードシンボルの再生成を促す情報である。
 このように実施形態5の変形例によれば、認証端末300bは、ユーザUの使用言語又は使用する可能性が高い言語で制限理由及び対処方法を出力するため、ユーザUはゲート通過を制限された場合に円滑に対処できる。特に、外国人労働者が多い業界においては、顕著な効果を奏する。
 <実施形態6>
 次に、本開示の実施形態6について説明する。実施形態6は、実施形態2の変形例である。実施形態6は、認証システムが、ユーザの属性に応じて、コード記録媒体Cを用いた生体認証と顔情報データベース(DB)を用いた生体認証とを使い分けることに特徴を有する。以下でも、生体認証として、顔認証を例に挙げて説明するが、これに限らない。
 図20は、実施形態6にかかる認証システム1000cの全体構成を示すブロック図である。例えば認証システム1000cは、コード記録媒体Cを用いた第1顔認証と、顔情報DBを用いた第2顔認証とを実施するコンピュータシステムである。本実施形態6では、ユーザUは、ユーザ属性に応じて、第1のユーザと、第2のユーザとに分けられる。例えば、アルバイトは、第1のユーザであり、正社員は、第2のユーザである。第1のユーザは、管理情報(ユーザID)及び顔情報を含む埋込情報を記録したコード記録媒体Cを携帯しており、コード記録媒体Cを用いた第1顔認証を行う。ここで、第1のユーザのユーザIDは、ユーザの従業員IDであってよい。一方で、第2のユーザは、ユーザIDを管理情報として記録したICカードを携帯しており、ICカード及び顔情報DBを用いた第2顔認証を行う。ここで、第2のユーザのユーザIDは、ユーザの従業員IDであってもよいし、ユーザの従業員IDに対応付けられた、ICカードを識別するICカードIDであってもよい。尚、ICカードに記録されている第2のユーザの管理情報は、図5に示す管理情報と同じデータ構成を有してよい。つまり、ICカードには、管理情報としてユーザIDの他に、制限情報及び国籍関連情報の少なくとも一方が記録されていてもよい。尚、第2のユーザの管理情報を記録する記録媒体は、ICカードに限られない。
 認証システム1000cは、実施形態2にかかる認証システム1000のコード生成端末100、認証端末300及び管理装置500に代えて、コード生成端末100c、認証端末300c、管理装置500c及び顔情報DB600を備える。
 コード生成端末100cは、第1のユーザに対しては、コード生成端末100と同様の機能を有するが、第2のユーザに対しては、登録用の顔情報を顔情報DB600に登録する機能を有する。
 認証端末300cは、第1のユーザに対しては、実施形態2の認証端末300と同様の機能を有する。しかし認証端末300cは、第2のユーザに対しては、ICカードからユーザIDを読み取り、顔画像から生成された認証用の顔情報と、顔情報DB600に格納される、ユーザIDに対応する登録用の顔情報とを照合し、顔認証を実行する。尚、認証端末300cは、第2のユーザに対しても、第1のユーザと同様に出力制御、顔認証に成功した場合の管理装置500cへの通知、及びゲート制御を行う。
 管理装置500cは、第1のユーザについての顔認証履歴と、第2のユーザについての顔認証履歴とを管理する。つまり管理装置500cは、第1のユーザの勤怠記録及び部屋1~3への入退室履歴と、第2のユーザの勤怠記録及び部屋1~3への入退室履歴とを管理する。
 顔情報DB600は、第2のユーザのユーザIDと、その第2のユーザの登録用の顔情報とを対応付けて記憶する記憶装置である。
 図21は、実施形態6にかかる管理装置500cの構成を示すブロック図である。管理装置500cは、管理装置500の記憶部510に代えて、記憶部510cを備える。
 記憶部510cは、第1認証履歴511cと、第2認証履歴512cとを記憶する。第1認証履歴511cは、第1のユーザについての顔認証履歴であり、認証履歴511と同様にユーザID5111、日時5112及びゲートID5113が対応付けられた情報である。第2認証履歴512cは、第2のユーザの顔認証履歴である。第2認証履歴512cは、ユーザID5121と、日時5122と、及びゲートID5123が対応付けられた情報である。
 制御部530は、認証端末300cから、第1のユーザに関する顔認証結果の通知を受けた場合、通知に含まれるユーザID、日時及びゲートIDを第1認証履歴511cとして記録する。一方、制御部530は、認証端末300cから、第2のユーザに関する顔認証結果の通知を受けた場合、通知に含まれるユーザID、日時及びゲートIDを第2認証履歴512cとして記録する。
 図22は、実施形態6にかかるコード生成端末100cの構成を示すブロック図である。コード生成端末100cは、コード生成端末100の記憶部120及び制御部170に代えて、記憶部120c及び制御部170cを備える。
 記憶部120cは、実施形態6にかかるコード生成方法の処理が実装されたプログラム121cを記憶する。
 制御部170cは、制御部170の構成に加えて、DB登録部176を有する。DB登録部176は、ユーザUが第2のユーザである場合、登録用の顔情報をユーザIDに対応付けて顔情報DB600に登録する。
 図23は、実施形態6にかかるコード生成方法の流れを示すフローチャートである。本図に示すステップは、図8に示すステップに加えて、ステップS401~402を有する。
 ステップS103において登録情報取得部172の管理情報取得部1723が入力部150を介して管理情報であるユーザIDを取得したことに応じて、制御部170は、ユーザUが第1のユーザであるか、第2のユーザであるかを判定する(S401)。例えば制御部170は、ユーザIDの種別により、第1のユーザか第2のユーザかを判定してよい。ユーザUが第1のユーザである場合(ステップS401でA)、処理をステップS104に進める。そして制御部170は、実施形態2と同様に、埋込情報を生成し(S104)、埋込情報をコードシンボルに変換し(S105)、印刷装置200に出力し(S106)、処理を終了する。一方、ユーザUが第2のユーザである場合(ステップS401でB)、DB登録部176は、登録用の顔情報と、管理情報に含まれるユーザIDとを対応付けて顔情報DB600に登録する(S402)。そしてDB登録部176は、処理を終了する。
 図24は、実施形態6にかかる認証端末300cの構成を示すブロック図である。認証端末300cは、認証端末300の記憶部320及び制御部370に代えて、記憶部320c、制御部370c及びカードリーダ380を備える。
 記憶部320cは、実施形態6にかかる認証方法の処理が実装されたプログラム321cを記憶する。
 カードリーダ380は、第2のユーザが提示するICカードから管理情報を読み取るカードリーダである。
 制御部370cは、埋込情報取得部373及び認証部374に代えて、埋込情報取得部373c及び認証部374cを有する。
 埋込情報取得部373cは、第1のユーザに対しては、埋込情報取得部373と同様の機能を有する。つまり、埋込情報取得部373cは、ユーザUがコード記録媒体Cを提示し、画像取得部371がコード画像を取得した場合、埋込情報取得部373と同様にコード画像から埋込情報を取得する。しかし埋込情報取得部373cは、第2のユーザに対しては、カードリーダ380を制御して、ICカードから管理情報を取得する。つまり、埋込情報取得部373cは、ユーザUがICカードを提示し、画像取得部371がコード画像を取得しなかった場合、カードリーダ380を制御して、ICカードから管理情報を取得する。
 認証部374cは、埋込情報取得部373においてコード画像から埋込情報を取得した場合、認証部374と同様の処理を実行する。一方、認証部374cは、埋込情報取得部373においてコード画像からではなくICカードから管理情報を取得した場合、顔情報DB600に記憶され、管理情報に含まれるユーザIDに対応する登録用の顔情報を取得する。そして認証部374cは、登録用の顔情報と、顔画像に基づいて生成された認証用の顔情報とを照合し、顔認証を実行する。
 図25は、実施形態6にかかる認証方法の流れを示すフローチャートである。本図に示すステップは、図10に示すステップに加えて、ステップS501~503を有する。
 ステップS202において認証情報生成部372が認証用の顔画像からの顔情報の抽出処理を実行した後、埋込情報取得部373cは、ユーザUがコード記録媒体Cを提示したか、ICカードを提示したかを判定する(S501)。当該判定は、画像取得部371がコード画像を取得したか否かによって判定されてよい。ユーザUがコード記録媒体Cを提示した場合(S501でC)、埋込情報取得部373cは、処理をステップS203に進める。そしてステップS203以降は、図10と同様である。一方、ユーザUがICカードを提示した場合(S501でI)、埋込情報取得部373cは、カードリーダ380が読み取った管理情報を取得する(S502)。そして認証部374cは、管理情報に含まれるユーザIDを用いて、顔情報DB600からユーザIDに対応する登録用の顔情報を取得し、登録用の顔情報と、ステップS202において顔画像から抽出した認証用の顔情報とを照合する(S503)。そして認証部374cは、処理をステップS206に進める。ステップS206以降は、図10と同様である。
 このように実施形態6によれば、認証システム1000cは、第1のユーザに対してはコード記録媒体Cを用いた第1顔認証を実施し、第2のユーザに対しては顔情報DBを用いた第2顔認証を実施する。これにより、対象となるユーザ属性に応じて、顔認証を使い分けて、顔認証履歴を別々に管理することが可能となる。
 <実施形態7>
 次に、本開示の実施形態7について説明する。実施形態7は、実施形態6の変形例である。図26は、実施形態7にかかる認証システム1000dの全体構成を示すブロック図である。認証システム1000dは、認証システム1000cの構成に加えて、第1サーバ700、第2サーバ710及び中継装置800を備える。
 第1サーバ700は、第1のユーザの顔認証履歴に基づいて、第1のユーザの労働管理を行うサーバ・コンピュータである。例えば第1サーバ700は、アルバイトの顔認証履歴に基づいて、アルバイトの勤怠管理や給与管理を行うアルバイト管理システムである。第2サーバ710は、第2のユーザの顔認証履歴に基づいて、第2のユーザの労働管理を行うサーバ・コンピュータである。例えば第2サーバ710は、正社員の顔認証履歴に基づいて、正社員の勤怠管理や給与管理を行う社員管理システムである。第1サーバ700及び第2サーバ710は、中継装置800と通信可能に接続されている。
 中継装置800は、第1サーバ700と管理装置500cとの間のデータの送受信、又は第2サーバ710と管理装置500cとの間のデータの送受信をする場合、データを中継するサーバ・コンピュータである。中継装置800は、ネットワークNに接続されている。中継装置800は、通信を中継してもよいし、送信元から受信したデータを一時的に保存し、保存されたデータを宛先となる装置が取りに来るようにしてもよい。尚、中継装置800は、第1サーバ700及び第2サーバ710のセキュリティレベルを高めるために設置されているが、中継装置800は認証システム1000dにおいて必須ではない。認証システム1000dに中継装置800が含まれない場合、第1サーバ700及び第2サーバ710はネットワークNに接続されてよい。
 管理装置500cは、第1認証履歴511cの送信条件を満たした場合、記憶部510cに格納された第1認証履歴511cを、中継装置800を介して第1サーバ700に送信する。あるいは、管理装置500cは、第1認証履歴511cの送信条件を満たした場合、記憶部510cに格納された第1認証履歴511cを、中継装置800に送信して、中継装置800に一時保存させる。また、管理装置500cは、第2認証履歴512cの送信条件を満たした場合、記憶部510cに格納された第2認証履歴512cを、中継装置800を介して第2サーバ710に送信する。あるいは、管理装置500cは、第2認証履歴512cの送信条件を満たした場合、記憶部510cに格納された第2認証履歴512cを、中継装置800に送信し、中継装置800に一時保存させる。各認証履歴の送信条件は、所定時間を経過したことであってもよいし、蓄積された認証履歴のデータ量が所定量以上になったことであってもよい。
 尚、管理装置500cは、顔認証履歴管理のため、第1のユーザ及び第2のユーザの各々について、ユーザIDと社内属性とを対応付けるテーブルを有してよい。この場合、人事異動があり、第1のユーザ又は第2のユーザの社内属性が変更した場合に、第1サーバ700又は第2サーバ710は、新しい社内属性情報を、ユーザIDに対応付けて、中継装置800を介して管理装置500cに送信してよい。あるいは、管理装置500cは、定期的に又は不定期でユーザIDに対応する社内属性情報を、中継装置800を介して第1サーバ700又は第2サーバ710に問い合わせてもよい。
 このように実施形態7によれば、認証システム1000dは、対象となるユーザの属性ごとに、顔認証履歴に基づく労働記録を好適に管理できる。
 <実施形態8>
 次に、本開示の実施形態8について説明する。上述の実施形態7では、1つの認証端末300cが、第1顔認証と第2顔認証とを使い分けて、顔認証を実行していた。しかし実施形態8では、第1顔認証を実行する認証端末と、第2顔認証を実行する認証端末とが分かれている。
 図27は、実施形態8にかかる認証システム1000eの全体構成を示すブロック図である。認証システム1000eにおいては、第1顔認証を実行する認証端末は、実施形態2~7のいずれかにかかる認証端末であり、本図では、実施形態2にかかる認証端末300である。また、第2顔認証を実行する認証端末は、認証端末300とは異なる認証端末900である。
 ユーザUは、自身が第1のユーザである場合は、認証端末300にコード記録媒体Cをかざして第1顔認証を要求する。一方、ユーザUは、自身が第2のユーザである場合は、認証端末900にICカードをかざして第2顔認証を要求する。
 図28は、実施形態8にかかる認証端末900の構成を示すブロック図である。認証端末900は、認証端末300cの構成と基本的に同様であるが、撮像部310、記憶部320c及び制御部370cに代えて、撮像部910、記憶部920及び制御部970を備える。
 撮像部910は、ユーザUの顔領域を撮影する第1カメラ311を有する。ここで、撮像部910においては、コード記録媒体Cを撮影する第2カメラ312が省略されてよい。
 記憶部920は、第2顔認証の方法に係る処理が実装されたプログラム921を記憶する。
 制御部970は、制御部370cの埋込情報取得部373c及び認証部374cに代えて、埋込情報取得部973及び認証部974を有する。埋込情報取得部973は、埋込情報取得部373cの第2顔認証に係る機能を有し、第1顔認証に係る機能は省略されてよい。また認証部974は、認証部374cの第2顔認証に係る機能を有し、第1顔認証に係る機能は省略されてよい。
 なお、本開示は上記実施形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上述の実施形態2~8は、任意に組み合わせてよい。例えば実施形態3と実施形態4~8のいずれかとを組み合わせてもよい。また実施形態4と、実施形態6~8のうち少なくとも1つとを組み合わせてもよい。また実施形態5と、実施形態6~8のうち少なくとも1つとを組み合わせてもよい。
 また例えば、上述の実施形態2~8では、認証端末300,300a,300b,300cの撮像部310は、第1カメラ311及び第2カメラ312を有するとした。しかしこれに代えて、撮像部310は、第1カメラ311及び第2カメラ312の機能を集約した1つのカメラであってもよい。
 尚、上述の実施形態では、ハードウェアの構成として説明したが、これに限定されるものではない。本開示は、任意の処理を、プロセッサにコンピュータプログラムを実行させることにより実現することも可能である。
 上述の例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、DVD(Digital Versatile Disc)、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
   (付記A1)
 対象者の身体を撮影して生成された身体画像と、コード記録媒体を撮影して生成されたコード画像とを取得する画像取得手段であって、前記コード記録媒体は、前記対象者の登録用の生体情報と前記対象者の識別情報とを含む埋込情報が記録されている視認可能なコードシンボルを有する、画像取得手段と、
 前記コード画像から、前記埋込情報を取得する埋込情報取得手段と、
 前記埋込情報に含まれる前記登録用の生体情報と、身体画像に基づいて生成された認証用の生体情報とを照合することにより、生体認証を実行する認証手段と、
 前記生体認証が成功した場合、前記対象者の識別情報を管理装置に通知する通知手段と
 を備える認証端末。
   (付記A2)
 前記生体認証が失敗した場合、前記対象者に対してゲートの通過を制限するゲート制御手段を備える
 付記A1に記載の認証端末。
   (付記A3)
 前記埋込情報は、有効期間を示す有効期間情報をさらに含み、
 前記ゲート制御手段は、現在日時が、前記有効期間情報が示す前記有効期間に含まれない場合、前記対象者に対して前記ゲートの通過を制限する
 付記A2に記載の認証端末。
   (付記A4)
 前記埋込情報は、利用可能な場所を示す利用可能場所情報をさらに含み、
 前記ゲート制御手段は、前記ゲートの設置場所が、前記利用可能場所情報が示す前記利用可能な場所に含まれない場合、前記対象者に対して前記ゲートの通過を制限する
 付記A2又はA3に記載の認証端末。
   (付記A5)
 前記埋込情報は、前記対象者の就業形態、部署又は役職を示す社内属性情報をさらに含み、
 前記ゲート制御手段は、前記社内属性情報が示す前記就業形態、部署又は役職が、所定の就業形態、部署又は役職でない場合、前記対象者に対してゲートの通過を制限する
 付記A2からA4のいずれか一項に記載の認証端末。
   (付記A6)
 前記生体認証の結果を出力する出力制御手段を備え、
 前記埋込情報は、前記対象者の国籍、出身国又は使用言語に関連する国籍関連情報をさらに含み、
 前記出力制御手段は、前記国籍関連情報が示す国籍若しくは出身国に応じた言語、又は前記国籍関連情報が示す使用言語で、前記生体認証の結果を出力する
 付記A1からA5のいずれか一項に記載の認証端末。
   (付記A7)
 前記認証手段は、前記画像取得手段が前記コード画像を取得しなかった場合、データベースに記憶されている登録用の生体情報と、前記身体画像に基づいて生成された認証用の生体情報とを照合することにより、生体認証を実行する
 付記A1からA6のいずれか一項に記載の認証端末。
   (付記A8)
 前記対象者の身体を撮影する第1カメラと、
 前記対象者が携帯する前記コード記録媒体を撮影する第2カメラと
 を備える
 付記A1からA7のいずれか一項に記載の認証端末。
   (付記A9)
 前記画像取得手段は、前記第1カメラから前記身体画像を取得したことに応じて、又は前記認証用の生体情報を生成する処理が開始されたこと若しくは完了したことに応じて、前記第2カメラを起動させる
 付記A8に記載の認証端末。
   (付記A10)
 対象者の身体を撮影して生成された登録用の身体画像から、前記対象者の登録用の生体情報を取得する登録情報取得手段と、
 前記対象者の登録用の生体情報及び前記対象者の識別情報を含む埋込情報を、視認可能なコードシンボルに変換する変換手段と
 を備えるコード生成端末。
   (付記A11)
 前記コードシンボルの情報を印刷装置に出力する出力制御手段を備える
 付記A10に記載のコード生成端末。
   (付記A12)
 生体認証を実行する認証端末と、
 前記生体認証の履歴を管理する管理装置と
 を備え、
 前記認証端末は、
 対象者の身体を撮影して生成された身体画像と、コード記録媒体を撮影して生成されたコード画像とを取得する画像取得手段であって、前記コード記録媒体は、前記対象者の登録用の生体情報と前記対象者の識別情報とを含む埋込情報が記録されている視認可能なコードシンボルを有する、画像取得手段と、
 前記コード画像から、前記埋込情報を取得する埋込情報取得手段と、
 前記埋込情報に含まれる前記登録用の生体情報と、前記身体画像に基づいて生成された認証用の生体情報とを照合することにより、生体認証を実行する認証手段と、
 前記生体認証が成功した場合、前記対象者の識別情報を管理装置に通知する通知手段と
 を備える
 認証システム。
   (付記A13)
 対象者の身体を撮影して生成された登録用の身体画像から、前記対象者の登録用の生体情報を取得する登録情報取得手段と、
 前記対象者の登録用の生体情報及び前記対象者の識別情報を含む埋込情報を、視認可能なコードシンボルに変換する変換手段と
 を有するコード生成端末をさらに備える
 付記A12に記載の認証システム。
   (付記A14)
 対象者の身体を撮影して生成された身体画像と、コード記録媒体を撮影して生成されたコード画像とを取得する画像取得段階であって、前記コード記録媒体は、前記対象者の登録用の生体情報と前記対象者の識別情報とを含む埋込情報が記録されている視認可能なコードシンボルを有する、画像取得段階と、
 前記コード画像から、前記埋込情報を取得する埋込情報取得段階と、
 前記埋込情報に含まれる前記登録用の生体情報と、身体画像に基づいて生成された認証用の生体情報とを照合することにより、生体認証を実行する認証段階と、
 前記生体認証が成功した場合、前記対象者の識別情報を管理装置に通知する通知段階と
 を備える
 認証方法。
   (付記A15)
 対象者の身体を撮影して生成された身体画像と、コード記録媒体を撮影して生成されたコード画像とを取得する画像取得処理であって、前記コード記録媒体は、前記対象者の登録用の生体情報と前記対象者の識別情報とを含む埋込情報が記録されている視認可能なコードシンボルを有する、画像取得処理と、
 前記コード画像から、前記埋込情報を取得する埋込情報取得処理と、
 前記埋込情報に含まれる前記登録用の生体情報と、身体画像に基づいて生成された認証用の生体情報とを照合することにより、生体認証を実行する認証処理と、
 前記生体認証が成功した場合、前記対象者の識別情報を管理装置に通知する通知処理と
 をコンピュータに実行させるためのプログラムが格納された非一時的なコンピュータ可読媒体。
   (付記B1)
 対象者が撮像手段から第1距離離れた位置にいる場合に前記対象者の身体を撮影して生成された身体画像と、前記対象者が前記撮像手段から前記第1距離よりも短い第2距離離れた位置にいる場合に前記対象者が携帯するコード記録媒体を撮影して生成されたコード画像と、を取得する画像取得手段であって、前記コード記録媒体は、前記対象者の登録用の生体情報を含む埋込情報が記録されている視認可能なコードシンボルを有する、画像取得手段と、
 前記対象者の身体画像を取得したことに応じて、前記身体画像から前記対象者の認証用の生体情報を生成する処理を開始する認証情報生成手段と、
 前記コード画像を取得したことに応じて、前記コード画像から前記埋込情報を取得する埋込情報取得手段と、
 前記認証用の生体情報と、前記埋込情報に含まれる前記登録用の生体情報とを照合することにより、生体認証を実行する認証手段と、
 前記生体認証が失敗した場合、前記対象者に対してゲートの通過を制限するゲート制御手段と
 を備える認証端末。
   (付記B2)
 前記撮像手段は、第1カメラと第2カメラとを有し、
 前記第1カメラは、前記対象者の身体を撮影し、
 前記第2カメラは、前記対象者が携帯する前記コード記録媒体を撮影する
 付記B1に記載の認証端末。
   (付記B3)
 前記画像取得手段は、前記第1カメラから前記身体画像を取得したことに応じて、又は前記認証情報生成手段が前記認証用の生体情報を生成する処理を開始若しくは完了したことに応じて、前記第2カメラを起動させる
 付記B2に記載の認証端末。
   (付記B4)
 前記コード記録媒体を撮影する場合の第2画角は、前記対象者の身体を撮影する場合の第1画角よりも広い
 付記B1からB3のいずれか一項に記載の認証端末。
   (付記B5)
 前記身体は、顔であり、
 前記認証情報生成手段は、前記身体画像に含まれる前記対象者の顔領域の大きさ又は長さが所定画素数以上である場合、又は前記対象者の顔領域に含まれる所定の顔器官を結ぶ長さが所定画素数以上である場合、前記身体画像から前記対象者の認証用の生体情報を生成する
 付記B1からB4のいずれか一項に記載の認証端末。
   (付記B6)
 前記認証情報生成手段は、前記対象者の認証用の生体情報を生成する処理を開始したことに応じて、前記対象者が前記撮像手段に接近しているか否かを判定する
 付記B1からB5のいずれか一項に記載の認証端末。
   (付記B7)
 前記認証手段は、前記対象者が前記撮像手段に接近していると判定された場合、前記生体認証を実行する
 付記B6に記載の認証端末。
   (付記B8)
 前記画像取得手段は、前記対象者の身体を複数回撮影して生成された複数の身体画像を取得し、
 前記認証情報生成手段は、前記複数の身体画像のうち一部の身体画像から前記対象者の認証用の生体情報を生成する
 付記B1からB7のいずれか一項に記載の認証端末。
   (付記B9)
 前記認証情報生成手段は、
 前記複数の身体画像の各々について、身体の確からしさの指標を算出し、
 前記指標に基づいて、前記複数の身体画像から前記一部の身体画像を選択する
 付記B8に記載の認証端末。
   (付記B10)
 前記画像取得手段は、前記対象者の身体を複数回撮影して生成された複数の身体画像を取得し、
 前記認証情報生成手段は、前記複数の身体画像の各々について、前記対象者の認証用の生体情報を生成する
 付記B1からB7のいずれか一項に記載の認証端末。
   (付記B11)
 前記認証情報生成手段は、
 前記身体画像について、身体の確からしさの指標を算出し、
 前記指標が予め定められた閾値以上である場合、前記対象者の認証用の生体情報を生成する
 付記B1からB10のいずれか一項に記載の認証端末。
   (付記B12)
 前記生体認証が成功した場合、前記対象者の識別情報を管理装置に通知する通知手段をさらに備える
 付記B1からB11のいずれか一項に記載の認証端末。
   (付記B13)
 対象者が撮像手段から第1距離離れた位置にいる場合に前記対象者の身体を撮影して生成された身体画像と、前記対象者が前記撮像手段から前記第1距離よりも短い第2距離離れた位置にいる場合に前記対象者が携帯するコード記録媒体を撮影して生成されたコード画像と、を取得する画像取得手段であって、前記コード記録媒体は、前記対象者の登録用の生体情報を含む埋込情報が記録されている視認可能なコードシンボルを有する、画像取得手段と、
 前記対象者の身体画像を取得したことに応じて、前記身体画像から前記対象者の認証用の生体情報を生成する処理を開始する認証情報生成手段と、
 前記コード画像を取得したことに応じて、前記コード画像から前記埋込情報を取得する埋込情報取得手段と、
 前記認証用の生体情報と、前記埋込情報に含まれる前記登録用の生体情報とを照合することにより、生体認証を実行する認証手段と、
 前記生体認証が失敗した場合、前記対象者に対してゲートの通過を制限するゲート制御手段と
 を有する認証端末を備える
 認証システム。
   (付記B14)
 対象者の身体を撮影して生成された登録用の身体画像から、前記対象者の登録用の生体情報を取得する登録情報取得手段と、
 前記対象者の登録用の生体情報を含む埋込情報を、視認可能なコードシンボルに変換する変換手段と
 を有するコード生成端末をさらに備える
 付記B13に記載の認証システム。
   (付記B15)
 前記生体認証の履歴を管理する管理装置をさらに備え、
 前記埋込情報は、前記対象者の識別情報をさらに含み、
 前記認証端末は、前記生体認証が成功した場合、前記埋込情報に含まれる前記対象者の識別情報を管理装置に通知する通知手段をさらに有する
 付記B13又はB14に記載の認証システム。
   (付記B16)
 対象者が撮像手段から第1距離離れた位置にいる場合に前記対象者の身体を撮影して生成された身体画像を取得する第1画像取得段階と、
 前記対象者の身体画像を取得したことに応じて、前記身体画像から前記対象者の認証用の生体情報を生成する処理を開始する認証情報生成段階と、
 前記対象者が前記撮像手段から前記第1距離よりも短い第2距離離れた位置にいる場合に前記対象者が携帯するコード記録媒体を撮影して生成されたコード画像、を取得する第2画像取得段階であって、前記コード記録媒体は、前記対象者の登録用の生体情報を含む埋込情報が記録されている視認可能なコードシンボルを有する、第2画像取得段階と、
 前記コード画像を取得したことに応じて、前記コード画像から前記埋込情報を取得する埋込情報取得段階と、
 前記認証用の生体情報と、前記埋込情報に含まれる前記登録用の生体情報とを照合することにより、生体認証を実行する認証段階と、
 前記生体認証が失敗した場合、前記対象者に対してゲートの通過を制限するゲート制御段階と
 を備える認証方法。
   (付記B17)
 対象者が撮像手段から第1距離離れた位置にいる場合に前記対象者の身体を撮影して生成された身体画像を取得する第1画像取得処理と、
 前記対象者の身体画像を取得したことに応じて、前記身体画像から前記対象者の認証用の生体情報を生成する処理を開始する認証情報生成処理と、
 前記対象者が前記撮像手段から前記第1距離よりも短い第2距離離れた位置にいる場合に前記対象者が携帯するコード記録媒体を撮影して生成されたコード画像、を取得する第2画像取得処理であって、前記コード記録媒体は、前記対象者の登録用の生体情報を含む埋込情報が記録されている視認可能なコードシンボルを有する、第2画像取得処理と、
 前記コード画像を取得したことに応じて、前記コード画像から前記埋込情報を取得する埋込情報取得処理と、
 前記認証用の生体情報と、前記埋込情報に含まれる前記登録用の生体情報とを照合することにより、生体認証を実行する認証処理と、
 前記生体認証が失敗した場合、前記対象者に対してゲートの通過を制限するゲート制御処理と
 をコンピュータに実行させるためのプログラムが格納された非一時的なコンピュータ可読媒体。
   (付記C1)
 対象者の身体を撮影する第1カメラと、
 前記対象者が携帯する前記コード記録媒体を撮影する第2カメラであって、前記コード記録媒体は、前記対象者の登録用の生体情報を含む埋込情報が記録されている視認可能なコードシンボルを有する、第2カメラと、
 前記対象者の身体を前記第1カメラにより撮影して生成された身体画像と、前記コード記録媒体を前記第2カメラにより撮影して生成されたコード画像と、を取得する画像取得手段と、
 前記対象者の身体画像を取得したことに応じて、前記身体画像から前記対象者の認証用の生体情報を生成する処理を開始する認証情報生成手段と、
 前記コード画像を取得したことに応じて、前記コード画像から前記埋込情報を取得する埋込情報取得手段と、
 前記認証用の生体情報と、前記埋込情報に含まれる前記登録用の生体情報とを照合することにより、生体認証を実行する認証手段と、
 前記生体認証が失敗した場合、前記対象者に対してゲートの通過を制限するゲート制御手段と
 を備える認証端末。
   (付記C2)
 前記第1カメラ及び前記第2カメラは、前記認証端末の主面上の異なる位置に配置されている
 付記C1に記載の認証端末。
   (付記C3)
 前記画像取得手段は、前記第1カメラから前記身体画像を取得したことに応じて、又は前記認証情報生成手段が前記認証用の生体情報を生成する処理を開始若しくは完了したことに応じて、前記第2カメラを起動させる
 付記C1又はC2に記載の認証端末
   (付記C4)
 前記第2カメラの第2画角は、前記第1カメラの第1画角よりも広い
 付記C1からC3のいずれか一項に記載の認証端末。
   (付記C5)
 前記身体は、顔であり、
 前記認証情報生成手段は、前記身体画像に含まれる前記対象者の顔領域の大きさ又は長さが所定画素数以上である場合、又は前記対象者の顔領域に含まれる所定の顔器官を結ぶ長さが所定画素数以上である場合、前記身体画像から前記対象者の認証用の生体情報を生成する
 付記C1からC4のいずれか一項に記載の認証端末。
   (付記C6)
 前記認証情報生成手段は、前記対象者の認証用の生体情報を生成する処理を開始したことに応じて、前記対象者が前記第1カメラに接近しているか否かを判定する
 付記C1からC5のいずれか一項に記載の認証端末。
   (付記C7)
 前記認証手段は、前記対象者が前記第1カメラに接近していると判定された場合、前記生体認証を実行する
 付記C6に記載の認証端末。
   (付記C8)
 前記画像取得手段は、前記対象者の身体を複数回撮影して生成された複数の身体画像を取得し、
 前記認証情報生成手段は、前記複数の身体画像のうち一部の身体画像から前記対象者の認証用の生体情報を生成する
 付記C1からC7のいずれか一項に記載の認証端末。
   (付記C9)
 前記認証情報生成手段は、
 前記複数の身体画像の各々について、身体の確からしさの指標を算出し、
 前記指標に基づいて、前記複数の身体画像から前記一部の身体画像を選択する
 付記C8に記載の認証端末。
   (付記C10)
 前記画像取得手段は、前記対象者の身体を複数回撮影して生成された複数の身体画像を取得し、
 前記認証情報生成手段は、前記複数の身体画像の各々について、前記対象者の認証用の生体情報を生成する
 付記C1からC7のいずれか一項に記載の認証端末。
   (付記C11)
 前記認証情報生成手段は、
 前記身体画像について、身体の確からしさの指標を算出し、
 前記指標が予め定められた閾値以上である場合、前記対象者の認証用の生体情報を生成する
 付記C1からC10のいずれか一項に記載の認証端末。
   (付記C12)
 前記生体認証が成功した場合、前記対象者の識別情報を管理装置に通知する通知手段をさらに備える
 付記C1からC11のいずれか一項に記載の認証端末。
   (付記C13)
 対象者の身体を撮影する第1カメラと、
 前記対象者が携帯する前記コード記録媒体を撮影する第2カメラであって、前記コード記録媒体は、前記対象者の登録用の生体情報を含む埋込情報が記録されている視認可能なコードシンボルを有する、第2カメラと、
 前記対象者の身体を前記第1カメラにより撮影して生成された身体画像と、前記コード記録媒体を前記第2カメラにより撮影して生成されたコード画像と、を取得する画像取得手段と、
 前記対象者の身体画像を取得したことに応じて、前記身体画像から前記対象者の認証用の生体情報を生成する処理を開始する認証情報生成手段と、
 前記コード画像を取得したことに応じて、前記コード画像から前記埋込情報を取得する埋込情報取得手段と、
 前記認証用の生体情報と、前記埋込情報に含まれる前記登録用の生体情報とを照合することにより、生体認証を実行する認証手段と、
 前記生体認証が失敗した場合、前記対象者に対してゲートの通過を制限するゲート制御手段と
 を有する認証端末を備える
 認証システム。
   (付記C14)
 対象者の身体を撮影して生成された登録用の身体画像から、前記対象者の登録用の生体情報を取得する登録情報取得手段と、
 前記対象者の登録用の生体情報を含む埋込情報を、視認可能なコードシンボルに変換する変換手段と
 を有するコード生成端末をさらに備える
 付記C13に記載の認証システム。
   (付記C15)
 前記生体認証の履歴を管理する管理装置をさらに備え、
 前記埋込情報は、前記対象者の識別情報をさらに含み、
 前記認証端末は、前記生体認証が成功した場合、前記埋込情報に含まれる前記対象者の識別情報を管理装置に通知する通知手段をさらに有する
 付記C13又はC14に記載の認証システム。
   (付記C16)
 対象者の身体を第1カメラにより撮影して生成された身体画像を取得する第1画像取得段階と、
 前記対象者の身体画像を取得したことに応じて、前記身体画像から前記対象者の認証用の生体情報を生成する処理を開始する認証情報生成段階と、
 前記対象者が携帯するコード記録媒体を第2カメラにより撮影して生成されたコード画像、を取得する第2画像取得段階であって、前記コード記録媒体は、前記対象者の登録用の生体情報を含む埋込情報が記録されている視認可能なコードシンボルを有する、第2画像取得段階と、
 前記コード画像を取得したことに応じて、前記コード画像から前記埋込情報を取得する埋込情報取得段階と、
 前記認証用の生体情報と、前記埋込情報に含まれる前記登録用の生体情報とを照合することにより、生体認証を実行する認証段階と、
 前記生体認証が失敗した場合、前記対象者に対してゲートの通過を制限するゲート制御段階と
 を備える認証方法。
   (付記C17)
 対象者の身体を第1カメラにより撮影して生成された身体画像を取得する第1画像取得処理と、
 前記対象者の身体画像を取得したことに応じて、前記身体画像から前記対象者の認証用の生体情報を生成する処理を開始する認証情報生成処理と、
 前記対象者が携帯するコード記録媒体を第2カメラにより撮影して生成されたコード画像、を取得する第2画像取得処理であって、前記コード記録媒体は、前記対象者の登録用の生体情報を含む埋込情報が記録されている視認可能なコードシンボルを有する、第2画像取得処理と、
 前記コード画像を取得したことに応じて、前記コード画像から前記埋込情報を取得する埋込情報取得処理と、
 前記認証用の生体情報と、前記埋込情報に含まれる前記登録用の生体情報とを照合することにより、生体認証を実行する認証処理と、
 前記生体認証が失敗した場合、前記対象者に対してゲートの通過を制限するゲート制御処理と
 をコンピュータに実行させるためのプログラムが格納された非一時的なコンピュータ可読媒体。
 10 認証端末
 11 画像取得部
 12 認証情報生成部
 13 埋込情報取得部
 14 認証部
 17 ゲート制御部
 100,100c コード生成端末
 110 カメラ
 120,120c 記憶部
 121,121c プログラム
 130 メモリ
 140 通信部
 150 入力部
 160 出力部
 161 表示部
 162 音声出力部
 170,170c 制御部
 171 画像取得部
 172 登録情報取得部
 1721 検出部
 1722 特徴点抽出部
 1723 管理情報取得部
 174 変換部
 175 出力制御部
 176 DB登録部
 200 印刷装置
 300,300a,300b,300c 認証端末
 310 撮像部
 311 第1カメラ
 312 第2カメラ
 320,320a,320b,320c 記憶部
 321,321a,321b,321c プログラム
 322 制限条件情報
 323 言語テーブル
 330 メモリ
 340 通信部
 360 出力部
 361 表示部
 362 音声出力部
 370,370a,370b,370c 制御部
 371 画像取得部
 372 認証情報生成部
 3721 検出部
 3722 特徴点抽出部
 373 埋込情報取得部
 374,374a,374c 認証部
 375,375b 出力制御部
 376 通知部
 377 ゲート制御部
 380 カードリーダ
 400 ゲート
 500,500c 管理装置
 510 記憶部
 511 認証履歴
 511c 第1認証履歴
 5111,5121 ユーザID
 5112,5122 日時
 5113,5123 ゲートID
 512c 第2認証履歴
 520 通信部
 530 制御部
 600 顔情報データベース
 700 第1サーバ
 710 第2サーバ
 800 中継装置
 900 認証端末
 910 撮像部
 920 記憶部
 921 プログラム
 970 制御部
 973 埋込情報取得部
 974 認証部
 1000,1000c,1000d,1000e 認証システム
 N ネットワーク
 U ユーザ
 CV キャプチャボリューム
 θ 画角
 P 位置
 I 画像

Claims (11)

  1.  対象者が撮像手段から第1距離離れた位置にいる場合に前記対象者の身体を撮影して生成された身体画像と、前記対象者が前記撮像手段から前記第1距離よりも短い第2距離離れた位置にいる場合に前記対象者が携帯するコード記録媒体を撮影して生成されたコード画像と、を取得する画像取得手段であって、前記コード記録媒体は、前記対象者の登録用の生体情報を含む埋込情報が記録されている視認可能なコードシンボルを有する、画像取得手段と、
     前記対象者の身体画像を取得したことに応じて、前記身体画像から前記対象者の認証用の生体情報を生成する処理を開始する認証情報生成手段と、
     前記コード画像を取得したことに応じて、前記コード画像から前記埋込情報を取得する埋込情報取得手段と、
     前記認証用の生体情報と、前記埋込情報に含まれる前記登録用の生体情報とを照合することにより、生体認証を実行する認証手段と、
     前記生体認証が失敗した場合、前記対象者に対してゲートの通過を制限するゲート制御手段と
     を備える認証端末。
  2.  前記撮像手段は、第1カメラと第2カメラとを有し、
     前記第1カメラは、前記対象者の身体を撮影し、
     前記第2カメラは、前記対象者が携帯する前記コード記録媒体を撮影する
     請求項1に記載の認証端末。
  3.  前記画像取得手段は、前記第1カメラから前記身体画像を取得したことに応じて、又は前記認証情報生成手段が前記認証用の生体情報を生成する処理を開始若しくは完了したことに応じて、前記第2カメラを起動させる
     請求項2に記載の認証端末。
  4.  前記コード記録媒体を撮影する場合の第2画角は、前記対象者の身体を撮影する場合の第1画角よりも広い
     請求項1から3のいずれか一項に記載の認証端末。
  5.  前記身体は、顔であり、
     前記認証情報生成手段は、前記身体画像に含まれる前記対象者の顔領域の大きさ又は長さが所定画素数以上である場合、又は前記対象者の顔領域に含まれる所定の顔器官の特徴点を結ぶ長さが所定画素数以上である場合、前記身体画像から前記対象者の認証用の生体情報を生成する
     請求項1から4のいずれか一項に記載の認証端末。
  6.  前記認証情報生成手段は、前記対象者の認証用の生体情報を生成する処理を開始したことに応じて、前記対象者が前記撮像手段に接近しているか否かを判定する
     請求項1から5のいずれか一項に記載の認証端末。
  7.  前記認証手段は、前記対象者が前記撮像手段に接近していると判定された場合、前記生体認証を実行する
     請求項6に記載の認証端末。
  8.  対象者が撮像手段から第1距離離れた位置にいる場合に前記対象者の身体を撮影して生成された身体画像と、前記対象者が前記撮像手段から前記第1距離よりも短い第2距離離れた位置にいる場合に前記対象者が携帯するコード記録媒体を撮影して生成されたコード画像と、を取得する画像取得手段であって、前記コード記録媒体は、前記対象者の登録用の生体情報を含む埋込情報が記録されている視認可能なコードシンボルを有する、画像取得手段と、
     前記対象者の身体画像を取得したことに応じて、前記身体画像から前記対象者の認証用の生体情報を生成する処理を開始する認証情報生成手段と、
     前記コード画像を取得したことに応じて、前記コード画像から前記埋込情報を取得する埋込情報取得手段と、
     前記認証用の生体情報と、前記埋込情報に含まれる前記登録用の生体情報とを照合することにより、生体認証を実行する認証手段と、
     前記生体認証が失敗した場合、前記対象者に対してゲートの通過を制限するゲート制御手段と
     を有する認証端末を備える
     認証システム。
  9.  対象者の身体を撮影して生成された登録用の身体画像から、前記対象者の登録用の生体情報を取得する登録情報取得手段と、
     前記対象者の登録用の生体情報を含む埋込情報を、視認可能なコードシンボルに変換する変換手段と
     を有するコード生成端末をさらに備える
     請求項8に記載の認証システム。
  10.  対象者が撮像手段から第1距離離れた位置にいる場合に前記対象者の身体を撮影して生成された身体画像、を取得する第1画像取得段階と、
     前記対象者の身体画像を取得したことに応じて、前記身体画像から前記対象者の認証用の生体情報を生成する処理を開始する認証情報生成段階と、
     前記対象者が前記撮像手段から前記第1距離よりも短い第2距離離れた位置にいる場合に前記対象者が携帯するコード記録媒体を撮影して生成されたコード画像、を取得する第2画像取得段階であって、前記コード記録媒体は、前記対象者の登録用の生体情報を含む埋込情報が記録されている視認可能なコードシンボルを有する、第2画像取得段階と、
     前記コード画像を取得したことに応じて、前記コード画像から前記埋込情報を取得する埋込情報取得段階と、
     前記認証用の生体情報と、前記埋込情報に含まれる前記登録用の生体情報とを照合することにより、生体認証を実行する認証段階と、
     前記生体認証が失敗した場合、前記対象者に対してゲートの通過を制限するゲート制御段階と
     を備える認証方法。
  11.  対象者が撮像手段から第1距離離れた位置にいる場合に前記対象者の身体を撮影して生成された身体画像、を取得する第1画像取得処理と、
     前記対象者の身体画像を取得したことに応じて、前記身体画像から前記対象者の認証用の生体情報を生成する処理を開始する認証情報生成処理と、
     前記対象者が前記撮像手段から前記第1距離よりも短い第2距離離れた位置にいる場合に前記対象者が携帯するコード記録媒体を撮影して生成されたコード画像、を取得する第2画像取得処理であって、前記コード記録媒体は、前記対象者の登録用の生体情報を含む埋込情報が記録されている視認可能なコードシンボルを有する、第2画像取得処理と、
     前記コード画像を取得したことに応じて、前記コード画像から前記埋込情報を取得する埋込情報取得処理と、
     前記認証用の生体情報と、前記埋込情報に含まれる前記登録用の生体情報とを照合することにより、生体認証を実行する認証処理と、
     前記生体認証が失敗した場合、前記対象者に対してゲートの通過を制限するゲート制御処理と
     をコンピュータに実行させるためのプログラムが格納された非一時的なコンピュータ可読媒体。
PCT/JP2021/012869 2021-03-26 2021-03-26 認証端末、認証システム、認証方法及び非一時的なコンピュータ可読媒体 WO2022201490A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US18/284,096 US20240152592A1 (en) 2021-03-26 2021-03-26 Authentication terminal, authentication system, authentication method, and non-transitory computer readable medium
JP2023508370A JPWO2022201490A5 (ja) 2021-03-26 認証端末、認証システム及びプログラム
PCT/JP2021/012869 WO2022201490A1 (ja) 2021-03-26 2021-03-26 認証端末、認証システム、認証方法及び非一時的なコンピュータ可読媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/012869 WO2022201490A1 (ja) 2021-03-26 2021-03-26 認証端末、認証システム、認証方法及び非一時的なコンピュータ可読媒体

Publications (1)

Publication Number Publication Date
WO2022201490A1 true WO2022201490A1 (ja) 2022-09-29

Family

ID=83396697

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/012869 WO2022201490A1 (ja) 2021-03-26 2021-03-26 認証端末、認証システム、認証方法及び非一時的なコンピュータ可読媒体

Country Status (2)

Country Link
US (1) US20240152592A1 (ja)
WO (1) WO2022201490A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220309138A1 (en) * 2019-12-27 2022-09-29 Rakuten Group, Inc. Authentication system, authentication device, authentication method and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234340A (ja) * 2003-01-30 2004-08-19 Konica Minolta Holdings Inc 記憶媒体、認証カード、認証方法、認証装置および認証システム
JP2006099687A (ja) * 2004-09-30 2006-04-13 Mitsubishi Electric Corp 利用者認証装置
JP2008097647A (ja) * 2007-12-21 2008-04-24 Nec Corp 端末利用者監視システム
JP2012027668A (ja) * 2010-07-22 2012-02-09 Nec Embedded Products Ltd 入退出管理システム
JP2020064341A (ja) * 2018-10-15 2020-04-23 三菱重工業株式会社 車両用画像処理装置、車両用画像処理方法、プログラムおよび記憶媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234340A (ja) * 2003-01-30 2004-08-19 Konica Minolta Holdings Inc 記憶媒体、認証カード、認証方法、認証装置および認証システム
JP2006099687A (ja) * 2004-09-30 2006-04-13 Mitsubishi Electric Corp 利用者認証装置
JP2008097647A (ja) * 2007-12-21 2008-04-24 Nec Corp 端末利用者監視システム
JP2012027668A (ja) * 2010-07-22 2012-02-09 Nec Embedded Products Ltd 入退出管理システム
JP2020064341A (ja) * 2018-10-15 2020-04-23 三菱重工業株式会社 車両用画像処理装置、車両用画像処理方法、プログラムおよび記憶媒体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220309138A1 (en) * 2019-12-27 2022-09-29 Rakuten Group, Inc. Authentication system, authentication device, authentication method and program
US11928199B2 (en) * 2019-12-27 2024-03-12 Rakuten Group, Inc. Authentication system, authentication device, authentication method and program

Also Published As

Publication number Publication date
US20240152592A1 (en) 2024-05-09
JPWO2022201490A1 (ja) 2022-09-29

Similar Documents

Publication Publication Date Title
US20220101333A1 (en) Biometric pre-identification
US7158657B2 (en) Face image recording system
US8558663B2 (en) Integration of facial recognition into cross channel authentication
US6341169B1 (en) System and method for evaluating a document and creating a record of the evaluation process and an associated transaction
US20090254464A1 (en) Time and attendance system and method
JP6897953B2 (ja) 入場受付端末、入場受付方法、入場受付プログラム、および入場受付システム
JP6927099B2 (ja) 自動改札機、改札処理方法、及びプログラム
US20210006558A1 (en) Method, apparatus and system for performing authentication using face recognition
JP2007272320A (ja) 入場管理システム
JP2017182326A (ja) モバイル端末を用いた資格認証システム、資格認証用ツール、及び、資格認証方法
JPWO2017146161A1 (ja) 顔照合システム、顔照合装置、顔照合方法、及び記録媒体
KR20110095687A (ko) 근로자 근태관리 시스템
CN113490936A (zh) 面部认证机以及面部认证方法
JP2007094989A (ja) サービス提供方法
WO2022201490A1 (ja) 認証端末、認証システム、認証方法及び非一時的なコンピュータ可読媒体
JP2022059626A (ja) チケット発券システム、検札装置、およびプログラム
JP2006092491A (ja) 本人認証装置、本人認証システム、本人認証方法および本人認証プログラム
US7076664B2 (en) User confirmation system and method
JP4571426B2 (ja) 認証システム
JP2007199860A (ja) 個人認証システム
WO2022201491A1 (ja) 認証端末、コード生成端末、認証システム、認証方法及び非一時的なコンピュータ可読媒体
JP4085198B2 (ja) 個人認証装置および個人認証システム
JP2005301861A (ja) 出入管理システム
JP2006134081A (ja) 入場管理システム、入場制御端末、及び入場管理方法
KR102503014B1 (ko) 인공지능기반의 비접촉 입장관리시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21933095

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023508370

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 18284096

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21933095

Country of ref document: EP

Kind code of ref document: A1