WO2022091325A1 - 認証方法、制御方法、情報処理装置、及び認証プログラム - Google Patents

認証方法、制御方法、情報処理装置、及び認証プログラム Download PDF

Info

Publication number
WO2022091325A1
WO2022091325A1 PCT/JP2020/040764 JP2020040764W WO2022091325A1 WO 2022091325 A1 WO2022091325 A1 WO 2022091325A1 JP 2020040764 W JP2020040764 W JP 2020040764W WO 2022091325 A1 WO2022091325 A1 WO 2022091325A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
registrants
attribute information
authentication
light emitting
Prior art date
Application number
PCT/JP2020/040764
Other languages
English (en)
French (fr)
Inventor
一樹 長村
智司 前田
彰 藤井
英児 長尾
善彦 西田
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to EP20959843.2A priority Critical patent/EP4239567A1/en
Priority to JP2022558735A priority patent/JPWO2022091325A1/ja
Priority to PCT/JP2020/040764 priority patent/WO2022091325A1/ja
Priority to CN202080105707.2A priority patent/CN116368514A/zh
Publication of WO2022091325A1 publication Critical patent/WO2022091325A1/ja
Priority to US18/126,625 priority patent/US20230229746A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/45Structures or tools for the administration of authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1341Sensing with light passing through the finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities

Definitions

  • the present invention relates to authentication technology.
  • Biometric authentication is a technique for verifying identity using biometric features such as fingerprints, palm prints, veins, and faces.
  • biometric authentication the biometric characteristics acquired from the person to be authenticated and the biometric characteristics of the registrant registered in advance in the registration template are compared (verified), and the comparison result indicates whether or not the biometric characteristics match. Based on this, authentication is performed for the person to be authenticated.
  • Biometric authentication is used in various fields such as bank ATMs (Automated Teller Machines) and room entry / exit management, and in recent years, it has begun to be used for cashless payments in stores such as supermarkets and convenience stores.
  • bank ATMs Automatic Teller Machines
  • room entry / exit management and in recent years, it has begun to be used for cashless payments in stores such as supermarkets and convenience stores.
  • multi-authentication technology that combines face authentication and palm vein authentication may be applied.
  • the registrants are narrowed down by face recognition from the face image of the person taken by the camera installed at the entrance gate, and the person is identified by using the palm vein image from the narrowed down registrants. Will be done.
  • FIG. 1 shows an example of a biometric authenticator that acquires a vein image of the palm.
  • the biometric authenticator 101 of FIG. 1 includes a vein sensor 111, a hand-shaped silhouette light emitting unit 112, a finger guide unit 113, and a wrist guide unit 114.
  • the vein image of the palm of the authentication target person is acquired.
  • the upper part of the biometric authenticator 101 is a transparent layer, and the silhouette light emitting unit 112 is arranged below the transparent layer.
  • the silhouette light emitting unit 112 includes a plurality of LEDs (Light Emitting Diodes).
  • a personal authentication device capable of simultaneously lowering both the false rejection rate and the false acceptance rate is known (see, for example, Patent Document 1).
  • a biometric authentication device that enables intuitive guidance of a biometric authentication site is also known (see, for example, Patent Document 2).
  • the hand of the person to be authenticated is brought into contact with the finger guide portion 113 and the wrist guide portion 114, so that the hand is fixed at the correct height and position.
  • the authentication target person may take time for the authentication target person to hold the palm over the correct height, and the authentication time for palm vein authentication may increase.
  • the computer extracts one or more registrants from a plurality of registrants based on the first biometric information detected by the first sensor.
  • the computer acquires the attribute information associated with each of the extracted one or more registrants from the attribute information associated with each of the plurality of registrants, and is associated with each of the one or more registrants.
  • Information is output in a manner corresponding to the attribute information.
  • the computer authenticates the second biometric information using the second biometric information detected by the second sensor according to the output of the information and the registered biometric information associated with each of one or more registrants.
  • biometric authenticator which acquires the vein image of the palm. It is a figure which shows the biometric authenticator which guides a palm by an optical guide. It is a figure which shows the optical guide used in a biometric authenticator. It is a figure which shows two kinds of optical guides. It is a functional block diagram of an information processing apparatus. It is a flowchart of biometric authentication processing. It is a block diagram of a biometric authentication system. It is a block diagram of the 1st biometric authenticator. It is a functional block diagram of a server. It is a figure which shows the external distance sensor. It is a figure which shows the positional relationship in the vertical direction of a hand and a biometric authenticator.
  • FIG. 2 shows an example of a biometric authenticator that guides the palm with an optical guide.
  • the biometric authenticator 201 of FIG. 2 includes a vein sensor 211, a silhouette light emitting unit 212, and a distance sensor 213.
  • the distance sensor 213 measures the height of the palm 202 held over the vein sensor 211.
  • the silhouette light emitting unit 212 includes blue, green, red, and white LEDs arranged along the shape of the hand.
  • the silhouette light emitting unit 212 presents information on the height of the palm 202 to the person to be authenticated by changing the light emitting color according to the height measured by the distance sensor 213.
  • FIG. 3 shows an example of an optical guide used in the biometric authenticator 201 of FIG. Dp represents the distance from the vein sensor 211 to the palm 202 as measured by the distance sensor 213.
  • the input status represents the evaluation for the position of the palm 202, and the light guide represents the emission color of the silhouette light emitting unit 212.
  • the input status is "far” and the optical guide is "blue”.
  • the silhouette light emitting unit 212 emits blue light.
  • the input status is "appropriate distance” and the optical guide is "green”.
  • the silhouette light emitting unit 212 emits green light.
  • the range of "appropriate distance” varies according to the specifications of the vein sensor 211.
  • the input status is "close” and the optical guide is "red”. In this case, the silhouette light emitting unit 212 emits red light.
  • the input status is "no hand” and the optical guide is "white”. In this case, the silhouette light emitting unit 212 emits white light.
  • the "appropriate distance” represents a situation in which the palm 202 is present at a height suitable for the process of acquiring a vein image of the palm.
  • “Far” represents a situation in which the palm 202 is present at a position higher than the upper limit of the appropriate distance.
  • Near represents a situation in which the palm 202 is located at a position lower than the lower limit of the appropriate distance.
  • “No hand” represents a situation in which the palm 202 is not held over the vein sensor 211.
  • the person to be certified moves the palm 202 closer to the vein sensor 211 when the silhouette light emitting unit 212 emits blue light, and keeps the palm 202 away from the vein sensor 211 when the silhouette light emitting unit 212 emits red light. ..
  • the authentication target person makes the palm 202 stationary, and the vein sensor 211 acquires the vein image of the palm 202. Then, palm vein authentication is performed using the acquired vein image.
  • the information indicating the height of the palm is correctly fed back to the person to be authenticated.
  • the person to be authenticated can hold the palm over the correct height in a short time, and the authentication time for palm vein authentication is shortened.
  • the optical guide shown in FIG. Therefore, it is effective to use an optical guide for an authentication target person having normal color vision and an optical guide for a color-blind authentication target person in combination.
  • FIG. 4 shows an example of two types of optical guides.
  • the optical guide L1 is an optical guide for a certified person having a normal color vision, and corresponds to the optical guide of FIG.
  • the optical guide L2 is an optical guide for color-blind certified persons.
  • the optical guide L2 is "blue (distance step emission)".
  • the silhouette light emitting unit 212 changes the intensity of the blue light stepwise according to Dp. For example, the silhouette light emitting unit 212 causes more blue LEDs to emit light as the Dp becomes shorter, thereby increasing the intensity of the blue light.
  • the optical guide L2 When the input status is "appropriate distance", the optical guide L2 is "green". In this case, the silhouette light emitting unit 212 emits green light like the light guide L1. When the input status is "close”, the optical guide L2 is "red (blinking)". In this case, the silhouette light emitting unit 212 blinks the red light. When the input status is "no hand”, the optical guide L2 is "white”. In this case, the silhouette light emitting unit 212 emits white light in the same manner as the light guide L1.
  • the optical guide that includes not only the change in the emission color but also the change in the light intensity and the emission time, it is possible to feed back the correct input status to the color-blind certified person.
  • an inquiry is made to all the authentication target persons in order to confirm whether or not the authentication target person is colorblind, the usability of the biometric authenticator 201 is impaired.
  • FIG. 5 shows an example of a functional configuration of the information processing device (computer) of the embodiment.
  • the information processing device 501 of FIG. 5 includes an extraction unit 511, a control unit 512, and an authentication unit 513.
  • FIG. 6 is a flowchart showing an example of biometric authentication processing performed by the information processing apparatus 501 of FIG.
  • the extraction unit 511 extracts one or more registrants from a plurality of registrants based on the first biometric information detected by the first sensor (step 601). Then, the extraction unit 511 acquires the attribute information associated with each of the extracted one or more registrants from the attribute information associated with each of the plurality of registrants (step 602).
  • control unit 512 outputs information in a manner corresponding to the attribute information associated with each of one or more registrants (step 603).
  • authentication unit 513 uses the second biometric information detected by the second sensor according to the output of the information and the registered biometric information associated with each of the one or more registrants to obtain the second biometric information. Authentication is performed (step 604).
  • the information processing device 501 of FIG. 5 it is possible to shorten the authentication time of biometric authentication accompanied by the output of information to the authentication target person.
  • FIG. 7 shows a configuration example of a biometric authentication system including the information processing device 501 of FIG.
  • the biometric authentication system of FIG. 7 includes an image pickup device 701, a bioauthenticator 702, and a server 703, and is used in a financial processing system of a financial institution, an entry / exit management system, a payment system of a retail store, and the like.
  • the image pickup apparatus 701 and the biometric authenticator 702 are installed at a place where biometric authentication is performed for the person to be authenticated.
  • the server 703 corresponds to the information processing device 501 of FIG.
  • the server 703 can communicate with the image pickup apparatus 701 and the biometric authenticator 702 via the communication network 704.
  • the communication network 704 is a LAN (Local Area Network) or a WAN (Wide Area Network).
  • the image pickup device 701 is a camera having an image pickup element such as a CCD (Charge-Coupled Device) or a CMOS (Complementary Metal-Oxide-Semiconductor), and captures a face image of a person to be authenticated and transmits the image to the server 703. .
  • the image pickup apparatus 701 is an example of the first sensor, and the face image is an example of the first biometric information detected by the first sensor.
  • FIG. 8 shows a configuration example of the first biometric authenticator used as the biometric authenticator 702 of FIG. 7.
  • the biometric authenticator 801 of FIG. 8 includes a sensor unit 811, an external distance sensor 812, a light emitting unit 813, and a communication unit 814.
  • the sensor unit 811 includes a vein sensor 821 and a built-in distance sensor 822.
  • the built-in distance sensor 822 and the external distance sensor 812 measure the distance from the sensor unit 811 to the palm.
  • the built-in distance sensor 822 outputs distance information indicating the category of the measured distance.
  • the distance category for example, "far”, “appropriate distance”, “close”, or “no hand” is used.
  • the built-in distance sensor 822 for example, the distance sensor described in Patent Document 2 can be used.
  • the external distance sensor 812 outputs a distance value indicating the measured distance.
  • the communication unit 814 transmits the distance value output from the external distance sensor 812 to the server 703. Then, the communication unit 814 receives from the server 703 a control signal indicating a light emitting mode according to the transmitted distance value.
  • the light emitting unit 813 corresponds to, for example, the silhouette light emitting unit 212 of FIG. 2, and includes blue, green, red, and white LEDs arranged along the shape of a hand.
  • the light emitting unit 813 emits light in the light emitting mode indicated by the received control signal, thereby presenting information on the height of the palm to the authentication target person.
  • the light emitting mode represents a light emitting color, a light intensity, a light emitting time, and the like.
  • the person to be certified changes the height of the palm according to the light emitting mode of the light emitting unit 813, and keeps the palm stationary at an appropriate distance.
  • the vein sensor 821 detects a vein image of the palm by irradiating the palm of the person to be certified with near infrared rays or the like and photographing a blood vessel or the like inside the hand.
  • the communication unit 814 transmits the vein image detected by the vein sensor 821 to the server 703.
  • the vein sensor 821 is an example of the second sensor, and the vein image of the palm is an example of the second biometric information detected by the second sensor.
  • the palm of the person to be authenticated is an example of a living body, and the vein sensor 821 is an example of a living body sensor.
  • FIG. 9 shows an example of a functional configuration of the server 703 of FIG. 7.
  • the server 703 of FIG. 9 includes a communication unit 911, a face feature extraction unit 912, a vein feature extraction unit 913, a face recognition unit 914, a control unit 915, a vein authentication unit 916, and a storage unit 917.
  • the face recognition unit 914 and the control unit 915 correspond to the extraction unit 511 and the control unit 512 of FIG. 5, respectively
  • the vein feature extraction unit 913 and the vein authentication unit 916 correspond to the authentication unit 513 of FIG.
  • the storage unit 917 stores the registered face information 921, the registered vein information 922, and the registered attribute information 923 of each of the plurality of registrants.
  • the registered face information 921 of each person includes a user ID of the person and a face feature amount.
  • the facial feature amount corresponds to the biological feature and is information indicating the feature of the facial image.
  • the facial feature amount for example, HOG (Histograms of Oriented Gradients) feature amount, SIFT (Scaled Invariance Feature Transform) feature amount, or SURF (Speeded-Up Robust Features) feature amount can be used.
  • the facial feature amount may be a BRIEF (Binary Robust Independent Elementary Features) feature amount or a saliency.
  • the registered vein information 922 of each person includes the user ID of the person and the vein feature amount.
  • the vein feature amount corresponds to the biological feature and is information showing the feature of the vein image of the palm.
  • the registration attribute information 923 includes a user ID of a person and attribute information. Attribute information is information indicating color vision.
  • the facial features included in the registered face information 921 of each person, the vein features included in the registered vein information 922 of each person, and the attribute information contained in the registered attribute information 923 of each person correspond to each other via the user ID. It is attached.
  • the communication unit 911 receives the face image of the person to be authenticated from the image pickup apparatus 701, and receives the distance value from the biometric authenticator 801.
  • the face feature extraction unit 912 stores the received face image as a face image 924 in the storage unit 917, and extracts the face feature amount from the face image 924.
  • the face recognition unit 914 performs face recognition for the face image 924 by comparing the extracted face feature amount with the registered face information 921 of each person.
  • the face recognition unit 914 calculates, for example, the degree of similarity between the extracted face feature amount and the face feature amount contained in the registered face information 921 of each person, and N pieces (N is 1) in descending order of the degree of similarity. Select the registered face information 921 (the above integer).
  • the face recognition unit 914 acquires the attribute information associated with the user ID from the registration attribute information 923 corresponding to the user ID of the selected registered face information 921. Then, the face recognition unit 914 generates a candidate list 925 including N user IDs and attribute information associated with each user ID, and stores the candidate list 925 in the storage unit 917.
  • the candidate list 925 shows the registrants narrowed down by using the face image 924, and each registrant corresponds to the candidate of the authentication target person.
  • the N user IDs and attribute information included in the candidate list 925 are sorted in descending order of similarity.
  • the control unit 915 selects the attribute information corresponding to any user ID from the candidate list 925, and sets the light emitting mode of the light emitting unit 813 according to the selected attribute information and the distance value received from the biometric authenticator 801. decide. Then, the control unit 915 transmits a control signal indicating the determined light emission mode to the biometric authenticator 801 via the communication unit 911. As a result, the light emitting unit 813 emits light in a light emitting mode according to the attribute information and the distance value.
  • the communication unit 911 receives the vein image detected by the vein sensor 821, and the vein feature extraction unit 913 extracts the vein feature amount from the received vein image.
  • the vein recognition unit 916 performs palm vein recognition by comparing the extracted vein feature amount with the registered vein information 922 corresponding to the selected attribute information.
  • the vein authentication unit 916 calculates, for example, the similarity between the extracted vein feature amount and the vein feature amount contained in the registered vein information 922, and compares the calculated similarity with the threshold value. When the similarity is larger than the threshold value, the vein authentication unit 916 generates an authentication result 926 indicating successful authentication and stores it in the storage unit 917.
  • the authentication result 926 indicating successful authentication includes the user ID of the registered vein information 922 used in the calculation of the similarity.
  • the vein authentication unit 916 when the similarity is equal to or less than the threshold value, the vein authentication unit 916 generates an authentication result 926 indicating an authentication failure and stores it in the storage unit 917.
  • the control to open the gate is performed based on the authentication result 926 indicating the success of the authentication.
  • FIG. 10 shows a specific example of the external distance sensor 812 in the biometric authenticator 801 of FIG.
  • FIG. 10 (a) shows an example of a hand held over the biometric authenticator 801 and
  • FIG. 10 (b) shows an example of the upper surface of the biometric authenticator 801.
  • a sensor unit 811, a light emitting unit 813, a distance sensor 1011 and a distance sensor 1012 are arranged on the upper surface of the biometric authenticator 801.
  • the sensor unit 811 is arranged at a position facing the center of the palm.
  • the shape of the light emitting unit 813 is the shape of a hand.
  • the distance sensor 1011 and the distance sensor 1012 correspond to the external distance sensor 812 of FIG.
  • the distance sensor 1011 and the distance sensor 1012 are arranged outside the sensor unit 811 so as not to overlap with the reflected light of the near infrared rays emitted from the vein sensor 821, avoiding the center of the palm.
  • the distance sensor 1011 is arranged at a position facing the base 1001 of the middle finger, and the distance sensor 1012 is arranged at a position facing the wrist portion 1002.
  • the distance sensor 1011 and the distance sensor 1012 measure the distances to the base 1001 of the middle finger and the wrist portion 1002, respectively, by irradiating with infrared rays, for example.
  • the average value of the measured value of the distance sensor 1011 and the measured value of the distance sensor 1012 is used as the distance from the sensor unit 811 to the palm.
  • FIG. 11 shows an example of the vertical positional relationship between the hand of FIG. 10A and the biometric authentication device 801 of FIG. 10B.
  • the distance sensor 1011 and the distance sensor 1012 are arranged on both sides of the sensor unit 811.
  • the distance sensor 1011 and the distance sensor 1012 are arranged at a distance of about 100 mm in the horizontal direction.
  • the minimum distance that can be measured by the built-in distance sensor 822 in the sensor unit 811 is about 10 mm, and the minimum distance that can be measured by the distance sensor 1011 and the distance sensor 1012 is about 40 mm.
  • the bioauthenticator 801 and the sensor unit so that the position corresponding to the minimum measurable distance of the built-in distance sensor 822 coincides with the position corresponding to the minimum measurable distance of the distance sensor 1011 and the distance sensor 1012.
  • a spacer 1111 is inserted between the 811 and the spacer 1111.
  • the straight line 1103 indicates the position corresponding to the minimum distance that can be measured by the built-in distance sensor 822, the distance sensor 1011 and the distance sensor 1012.
  • the position indicated by the straight line 1103 is about 10 mm away from the upper surface of the sensor unit 811 in the vertical direction, and is about 40 mm away from the upper surface of the distance sensor 1011 and the distance sensor 1012 in the vertical direction.
  • the space above the straight line 1103 corresponds to the distance measuring range of the built-in distance sensor 822, the distance sensor 1011 and the distance sensor 1012.
  • the straight line 1102 indicates a position about 35 mm away from the upper surface of the sensor unit 811 in the vertical direction
  • the straight line 1101 indicates a position about 70 mm away from the upper surface of the sensor unit 811 in the vertical direction.
  • the space between the straight line 1101 and the straight line 1102 corresponds to the imaging range of the vein sensor 821 in the sensor unit 811. When the palm is in the imaging range, it is determined that the input status is "appropriate distance".
  • FIG. 12 shows an example of the candidate list 925 generated by the face recognition unit 914.
  • the user ID is the identification information of the user who is the registrant
  • the score is the degree of similarity between the face feature amount of the authentication target person and the face feature amount included in the registered face information 921 of the user indicated by the user ID. show.
  • the attribute information represents the attribute information acquired from the registered attribute information 923 of the user indicated by the user ID.
  • the attribute information of each user indicates whether the color vision is normal or color-blind.
  • the ranking shows the result of sorting N user IDs in descending order of the score.
  • FIG. 13 shows an example of an optical guide used in the biometric authentication system of FIG. Dp represents the distance value received from the biometric authenticator 801 and the optical guide L1 and the optical guide L2 represent the light emitting mode of the light emitting unit 813.
  • the optical guide L1 is an optical guide for an authentication target person having normal color vision
  • the optical guide L2 is an optical guide for an authentication target person having color blindness.
  • the control unit 915 selects one of the light emission modes according to the attribute information of any user included in the candidate list 925 and the distance value received from the biometric authenticator 801.
  • the optical guide L1 When Dp is shorter than 150 mm and longer than 70 mm, the optical guide L1 is “blue” and the optical guide L2 is “blue (distance step emission)". When the Dp is 70 mm or less and 35 mm or more, the optical guide L1 and the optical guide L2 are “green”. When Dp is shorter than 35 mm and longer than 10 mm, the optical guide L1 is “red” and the optical guide L2 is “red (blinking)”. When Dp is a value other than the above, the optical guide L1 and the optical guide L2 are “white”.
  • the optical guide L2 is selected because the attribute information of that user is colorblind. Therefore, when Dp is shorter than 150 mm and longer than 70 mm, "blue (stepwise emission of distance)" is selected as the emission mode. In this case, the light emitting unit 813 changes the intensity of the blue light stepwise according to Dp.
  • the light emitting unit 813 can emit light in a light emitting mode suitable for the color vision of the candidate of the authentication target.
  • the information indicating the height of the palm is correctly fed back, so that the palm can be held up to the correct height in a short time, and the authentication time for palm vein authentication is shortened.
  • a clear vein image can be acquired, so that the authentication accuracy of the palm vein authentication is improved.
  • FIG. 14 is a flowchart showing an example of biometric authentication processing performed by the server 703 of FIG.
  • the communication unit 911 receives the face image of the authentication target person from the image pickup device 701, and the face feature extraction unit 912 stores the received face image as the face image 924 in the storage unit 917. Then, the face feature extraction unit 912 extracts the face feature amount from the face image 924 (step 1401).
  • the face recognition unit 914 performs face recognition using the extracted face feature amount, and selects N registered face information 921 in descending order of similarity to the face feature amount, thereby N users.
  • a candidate list 925 including ID and attribute information is generated (step 1402).
  • the control unit 915 selects the attribute information corresponding to any user ID from the candidate list 925 (step 1403).
  • the communication unit 911 receives the vein image of the palm of the person to be authenticated from the biometric authenticator 801 (step 1404). Then, the communication unit 911 receives the distance value measured by the external distance sensor 812 from the biometric authenticator 801 (step 1405).
  • control unit 915 determines the light emitting mode of the light emitting unit 813 according to the selected attribute information and the distance value received from the biometric authenticator 801 and communicates a control signal indicating the determined light emitting mode. It is transmitted to the biometric authenticator 801 via the unit 911 (step 1406).
  • control unit 915 checks whether or not the received distance value is within the range of the appropriate distance (step 1407). For example, when the distance value is 70 mm or less and 35 mm or more, it is determined that the distance value is within the range of the appropriate distance, and in other cases, it is determined that the distance value is not within the range of the appropriate distance. To.
  • the vein feature extraction unit 913 extracts the vein feature amount from the received vein image (step 1408).
  • the vein authentication unit 916 acquires the vein feature amount from the registered vein information 922 corresponding to the user ID selected in step 1403. Then, the vein authentication unit 916 calculates the similarity between the vein feature amount extracted from the vein image and the vein feature amount acquired from the registered vein information 922, and compares the similarity with the threshold value TH1 (step). 1409).
  • step 1409, YES If the similarity is greater than TH1 (step 1409, YES), the vein authentication unit 916 generates an authentication result 926 indicating successful authentication (step 1410), and the server 703 determines the next authentication target person after step 1401. Repeat the process. On the other hand, when the similarity is TH1 or less (step 1409, NO), the vein authentication unit 916 generates an authentication result 926 indicating an authentication failure (step 1411), and the server 703 generates step 1401 for the next authentication target person. The subsequent processing is repeated.
  • step 1407, NO the server 703 repeats the processes after step 1406.
  • the light emitting unit 813 emits light in the light emitting mode indicated by the control signal, and the authentication target person changes the height of the palm according to the light emitting mode of the light emitting unit 813.
  • the communication unit 911 receives the vein image of the palm and the distance value from the biometric authenticator 801.
  • FIG. 15 is a flowchart showing an example of the attribute information selection process in step 1403 of FIG.
  • the control unit 915 calculates the difference (score difference) between the score of the user ID of rank 1 and the score of the user ID of rank 2 in the candidate list 925, and compares the score difference with the threshold value TH2 (step 1501).
  • the user ID of rank 1 indicates the user having the highest degree of similarity of facial features in the candidate list 925
  • the user ID of rank 2 indicates the user having the second highest degree of similarity of facial features.
  • the control unit 915 selects the attribute information corresponding to the user ID of rank 1 (step 1503).
  • the score difference is TH2 or less (steps 1501 and NO)
  • the control unit 915 checks whether or not color blindness exists in the attribute information of ranks 1 to N in the candidate list 925 (step 1502).
  • control unit 915 selects the color blindness as the attribute information (step 1504).
  • control unit 915 selects normal as the attribute information (step 1505).
  • control unit 915 may unconditionally select the attribute information corresponding to the user ID of the rank 1 instead of performing the attribute information selection process of FIG.
  • any one user included in the candidate list 925 is selected to perform palm vein authentication, but it is also possible to select a plurality of users to perform palm vein authentication. ..
  • the server 703 may select the attribute information corresponding to the user ID of rank 1 to rank M (M is an integer of 2 or more and N or less) from the candidate list 925. In this case, the server 703 performs the processes of steps 1406 to 1411 for each selected attribute information, and among the user IDs for which authentication is successful, the user ID having the highest similarity in the vein feature amount is set as the authentication result 926. Can be included.
  • the biometric authentication system of FIG. 7 it is also possible to detect the biometric information of the person to be authenticated by using another sensor instead of the image pickup device 701.
  • another sensor for example, a fingerprint sensor, a palm print sensor, a finger vein sensor and the like can be used.
  • the fingerprint sensor detects the fingerprint image as biological information
  • the palm print sensor detects the palm print image as biological information
  • the finger vein sensor detects the finger vein image as biological information.
  • the server 703 uses the biometric information detected by another sensor instead of the face image to generate the candidate list 925.
  • the biometric authentication device 801 of FIG. 8 it is also possible to detect the biometric information of the person to be authenticated by using another sensor instead of the vein sensor 821.
  • another sensor for example, a fingerprint sensor, a palm print sensor, a finger vein sensor and the like can be used.
  • the server 703 performs biometric authentication using biometric information detected by another sensor instead of the palm vein image.
  • the server 703 can also determine the light emitting mode of the light emitting unit 813 by using the distance information output from the built-in distance sensor 822 instead of the distance value output from the external distance sensor 812.
  • the external distance sensor 812 may be omitted from the biometric authenticator 801.
  • FIG. 16 shows a configuration example of a second biometric authenticator used as the biometric authenticator 702 of FIG. 7.
  • the biometric authenticator 1601 of FIG. 16 has a configuration in which the external distance sensor 812 is deleted from the biometric authenticator 801 of FIG.
  • the communication unit 814 transmits the distance information output from the built-in distance sensor 822 to the server 703.
  • the distance information represents, for example, one of the categories of "far", “appropriate distance”, "close”, or "no hands”.
  • step 1405 the communication unit 911 receives the distance information from the biometric authenticator 1601 instead of the distance value.
  • control unit 915 determines the light emitting mode of the light emitting unit 813 according to the selected attribute information and the distance information received from the biometric authenticator 1601. Then, in step 1407, the control unit 915 checks whether or not the distance information is the "appropriate distance".
  • FIG. 17 shows an example of an optical guide determined according to distance information.
  • the distance information represents the distance information received from the biometric authenticator 1601.
  • the optical guide L1 is an optical guide for an authentication target person having normal color vision
  • the optical guide L2 is an optical guide for an authentication target person having color blindness.
  • the optical guide L1 and the optical guide L2 are "blue”.
  • the optical guide L1 is "green” and the optical guide L2 is “brown”.
  • “Brown” is an example of a light emitting mode that is easily visually recognized by a person with color blindness.
  • the optical guide L1 and the optical guide L2 are “red”.
  • the optical guide L1 and the optical guide L2 are "white”.
  • the optical guide L2 is selected because the attribute information of that user is colorblind. Therefore, when the distance information is "appropriate distance”, "brown” is selected as the light emitting mode.
  • the light emitting unit 813 emits brown light. Even if it is difficult to distinguish between “green” and “red”, it is possible to easily distinguish between “brown” and “red”. Therefore, the distance from the sensor unit 811 to the palm can be correctly fed back to the person to be authenticated for color blindness.
  • optical guides shown in FIGS. 13 and 17 are merely examples, and the optical guide L2 of FIG. 17 may be used as the optical guide L2 of FIG. 13, and the optical guide L2 of FIG. 13 may be used as the optical guide L2 of FIG. You may.
  • the optical guide L2 of FIG. 17 instead of "brown", another color that can be easily distinguished from “red” by a color-blind certified person may be used.
  • a light emitting mode in which the light emitting color, the light intensity, the light emitting time, and the like are variously changed according to the distance value or the distance information may be used as the light guide L2.
  • the biometric authenticator 801 and the biometric authenticator 1601 can output information that guides the palm of the person to be authenticated by using not only the light output from the light emitting unit 813 but also a sound, a text message, a voice message, and the like. Is.
  • the type and change pattern of the information desired by each person is used as the attribute information included in the registered attribute information 923 of each person.
  • the type of information indicates any of light, sound, text message, voice message, and the like, and the change pattern of information indicates a change in information according to a distance value or distance information.
  • the control unit 915 determines the output mode of the information according to the attribute information selected from the candidate list 925 and the distance value or the distance information.
  • the configuration of the information processing device 501 in FIG. 5 is only an example, and some components may be omitted or changed depending on the use or conditions of the information processing device 501.
  • the configuration of the biometric authentication system of FIG. 7 is only an example, and some components may be omitted or changed depending on the use or conditions of the biometric authentication system.
  • the configurations of the biometric authenticator 801 of FIG. 8 and the biometric authenticator 1601 of FIG. 16 are merely examples, and some components may be omitted or changed depending on the use or conditions of the biometric authentication system.
  • the configuration of the server 703 in FIG. 9 is only an example, and some components may be omitted or changed depending on the use or conditions of the biometric authentication system.
  • the registered face information 921, the registered vein information 922, and the registered attribute information 923 may be stored in a database external to the server 703.
  • the server 703 acquires the registered face information 921, the registered vein information 922, and the registered attribute information 923 from the external database and stores them in the storage unit 917.
  • FIGS. 6, 14, and 15 are merely examples, and some processes may be omitted or changed depending on the configuration or conditions of the information processing device 501 or the biometric authentication system.
  • the biometric authenticator shown in FIGS. 1 and 2 is only an example, and a biometric authenticator having a different configuration may be used.
  • the optical guides shown in FIGS. 3, 4, 13, and 17 are merely examples, and optical guides having different light emission modes may be used.
  • the two distance sensors shown in FIGS. 10 and 11 are only examples, and the number of external distance sensors may be one or three or more.
  • the candidate list 925 shown in FIG. 12 is only an example, and the candidate list 925 changes according to the registered face information 921 and the face image 924.
  • FIG. 18 shows a hardware configuration example of an information processing device used as the information processing device 501 of FIG. 5 and the server 703 of FIG.
  • the information processing device of FIG. 18 includes a CPU (Central Processing Unit) 1801, a memory 1802, an input device 1803, an output device 1804, an auxiliary storage device 1805, a medium drive device 1806, and a network connection device 1807. These components are hardware and are connected to each other by bus 1808.
  • CPU Central Processing Unit
  • the memory 1802 is, for example, a semiconductor memory such as a ROM (Read Only Memory), a RAM (Random Access Memory), or a flash memory, and stores a program and data used for processing.
  • the memory 1802 may operate as the storage unit 917 of FIG.
  • the CPU 1801 (processor) operates as the extraction unit 511, the control unit 512, and the authentication unit 513 in FIG. 5 by executing a program using, for example, the memory 1802.
  • the CPU 1801 also operates as the face feature extraction unit 912, the vein feature extraction unit 913, the face recognition unit 914, the control unit 915, and the vein authentication unit 916 in FIG. 9 by executing the program using the memory 1802.
  • the input device 1803 is, for example, a keyboard, a pointing device, or the like, and is used for inputting an instruction or information from an operator.
  • the output device 1804 is, for example, a display device, a printer, a speaker, or the like, and is used for making an inquiry to an operator or outputting a processing result.
  • the processing result may be the authentication result 926.
  • the auxiliary storage device 1805 is, for example, a magnetic disk device, an optical disk device, a magneto-optical disk device, a tape device, or the like.
  • the auxiliary storage device 1805 may be a flash memory or a hard disk drive.
  • the information processing device can store programs and data in the auxiliary storage device 1805 and load them into the memory 1802 for use.
  • the auxiliary storage device 1805 may operate as the storage unit 917 of FIG.
  • the medium drive device 1806 drives the portable recording medium 1809 and accesses the recorded contents.
  • the portable recording medium 1809 is a memory device, a flexible disk, an optical disk, a magneto-optical disk, or the like.
  • the portable recording medium 1809 may be a CD-ROM (Compact Disk Read Only Memory), a DVD (Digital Versatile Disk), a USB (Universal Serial Bus) memory, or the like.
  • the operator can store the programs and data in the portable recording medium 1809 and load them into the memory 1802 for use.
  • the computer-readable recording medium that stores the programs and data used for processing is physical (non-temporary) recording, such as memory 1802, auxiliary storage device 1805, or portable recording medium 1809. It is a medium.
  • the network connection device 1807 is a communication interface circuit that is connected to the communication network 704 of FIG. 7 and performs data conversion associated with communication.
  • the information processing device can receive programs and data from an external device via the network connection device 1807, load them into the memory 1802, and use them.
  • the network connection device 1807 may operate as the communication unit 911 of FIG.
  • the information processing apparatus does not have to include all the components shown in FIG. 18, and some components may be omitted depending on the intended use or conditions. For example, if the interface with the operator is unnecessary, the input device 1803 and the output device 1804 may be omitted. If the information processing device does not use the portable recording medium 1809, the medium drive device 1806 may be omitted.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Vascular Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Input (AREA)

Abstract

コンピュータは、第1センサにより検出された第1生体情報に基づいて、複数の登録者の中から1以上の登録者を抽出する。コンピュータは、複数の登録者それぞれに対応付けられた属性情報の中から、抽出された1以上の登録者それぞれに対応付けられた属性情報を取得し、1以上の登録者それぞれに対応付けられた属性情報に応じた態様で情報を出力する。コンピュータは、情報の出力に応じて第2センサにより検出された第2生体情報と、1以上の登録者それぞれに対応付けられた登録生体情報とを用いて、第2生体情報に対する認証を行う。

Description

認証方法、制御方法、情報処理装置、及び認証プログラム
 本発明は、認証技術に関する。
 生体認証は、指紋、掌紋、静脈、顔等の生体特徴を用いて本人確認を行う技術である。生体認証では、認証対象者から取得された生体特徴と、登録テンプレートに予め登録された登録者の生体特徴とが比較(照合)され、それらの生体特徴が一致するか否かを示す比較結果に基づいて、認証対象者に対する認証が行われる。
 生体認証は、銀行のATM(Automated Teller Machine)、入退室管理等の様々な分野で利用されており、特に近年では、スーパーマーケット、コンビニエンスストア等の店舗におけるキャッシュレス決済にも利用され始めている。
 店舗等に入場する顧客を特定するために、顔認証と手のひら静脈認証とを併用するマルチ認証技術が適用されることがある。このマルチ認証技術では、入場ゲートに設置されたカメラにより撮影された人物の顔画像から、顔認証によって登録者が絞り込まれ、絞り込まれた登録者の中から、手のひら静脈画像を用いて本人が特定される。
 図1は、手のひらの静脈画像を取得する生体認証器の例を示している。図1の生体認証器101は、静脈センサ111、手の形を施したシルエット発光部112、指ガイド部113、及び手首ガイド部114を含む。
 認証対象者が静脈センサ111に手をかざすことで、認証対象者の手のひらの静脈画像が取得される。生体認証器101の上部は透明層であり、シルエット発光部112は、透明層の下に配置されている。シルエット発光部112は、複数のLED(Light Emitting Diode)を含む。指ガイド部113及び手首ガイド部114部を設けることで、認証対象者の手を正しい高さ及び位置に導くことができる。
 生体認証に関連して、本人拒否率と他人受入率の両方を同時に下げることができる個人認証装置が知られている(例えば、特許文献1を参照)。生体認証部位の直感的な誘導を可能とする生体認証装置も知られている(例えば、特許文献2を参照)。
特開2018-10393号公報 国際公開第2012/014304号パンフレット
 図1に示した生体認証器101では、認証対象者の手を指ガイド部113及び手首ガイド部114部に接触させることで、正しい高さ及び位置に手が固定される。
 一方、現在の社会では、新型コロナウィルス等の感染を避けるために、認証対象者がいかなる物にも接触しないタッチレス技術に注目が集まっている。そこで、生体認証器101から指ガイド部113及び手首ガイド部114部を除去し、手のひらを適切な高さ及び位置に誘導する何らかの情報を出力することが望ましい。
 しかしながら、認証対象者の属性に適した情報が出力されない場合、認証対象者が正しい高さに手のひらをかざすまでに時間がかかり、手のひら静脈認証の認証時間が増加することがある。
 なお、かかる問題は、手のひらの静脈画像を用いて認証対象者を認証する場合に限らず、別の生体情報を用いて認証対象者を認証する場合においても生ずるものである。
 1つの側面において、本発明は、認証対象者に対する情報の出力を伴う生体認証の認証時間を短縮することを目的とする。
 1つの案では、コンピュータは、第1センサにより検出された第1生体情報に基づいて、複数の登録者の中から1以上の登録者を抽出する。コンピュータは、複数の登録者それぞれに対応付けられた属性情報の中から、抽出された1以上の登録者それぞれに対応付けられた属性情報を取得し、1以上の登録者それぞれに対応付けられた属性情報に応じた態様で情報を出力する。
 コンピュータは、情報の出力に応じて第2センサにより検出された第2生体情報と、1以上の登録者それぞれに対応付けられた登録生体情報とを用いて、第2生体情報に対する認証を行う。
 1つの側面によれば、認証対象者に対する情報の出力を伴う生体認証の認証時間を短縮することができる。
手のひらの静脈画像を取得する生体認証器を示す図である。 光ガイドにより手のひらを誘導する生体認証器を示す図である。 生体認証器で用いられる光ガイドを示す図である。 2種類の光ガイドを示す図である。 情報処理装置の機能的構成図である。 生体認証処理のフローチャートである。 生体認証システムの構成図である。 第1の生体認証器の構成図である。 サーバの機能的構成図である。 外部距離センサを示す図である。 手及び生体認証器の垂直方向における位置関係を示す図である。 候補リストを示す図である。 生体認証システムにおいて用いられる光ガイドを示す図である。 サーバが行う生体認証処理のフローチャートである。 属性情報選択処理のフローチャートである。 第2の生体認証器の構成図である。 距離情報に応じて決定される光ガイドを示す図である。 情報処理装置のハードウェア構成図である。
 以下、図面を参照しながら、実施形態を詳細に説明する。
 手のひら静脈認証において、認証対象者の手のひらを適切な高さ及び位置に誘導する情報としては、光、音、テキストメッセージ、音声メッセージ等を用いることができる。
 図2は、光ガイドにより手のひらを誘導する生体認証器の例を示している。図2の生体認証器201は、静脈センサ211、シルエット発光部212、及び距離センサ213を含む。距離センサ213は、静脈センサ211上にかざされた手のひら202の高さを測定する。
 シルエット発光部212は、手の形に沿って配置された青、緑、赤、及び白のLEDを含む。シルエット発光部212は、距離センサ213により計測された高さに応じて発光色を変化させることで、認証対象者に手のひら202の高さに関する情報を提示する。
 図3は、図2の生体認証器201で用いられる光ガイドの例を示している。Dpは、距離センサ213により測定された、静脈センサ211から手のひら202までの距離を表す。入力状況は、手のひら202の位置に対する評価を表し、光ガイドは、シルエット発光部212の発光色を表す。
 Dpが150mmよりも短く、かつ、70mmよりも長い場合、入力状況は「遠い」であり、光ガイドは「青」である。この場合、シルエット発光部212は、青色の光を発する。Dpが70mm以下であり、かつ、35mm以上である場合、入力状況は「適正距離」であり、光ガイドは「緑」である。この場合、シルエット発光部212は、緑色の光を発する。「適正距離」の範囲は、静脈センサ211の仕様に応じて変化する。
 Dpが35mmよりも短く、かつ、10mmよりも長い場合、入力状況は「近い」であり、光ガイドは「赤」である。この場合、シルエット発光部212は、赤色の光を発する。Dpが上記以外の値である場合、入力状況は「手無し」であり、光ガイドは「白」である。この場合、シルエット発光部212は、白色の光を発する。
 「適正距離」は、手のひらの静脈画像を取得する処理に適した高さに手のひら202が存在する状況を表す。「遠い」は、適正距離の上限よりも高い位置に手のひら202が存在する状況を表す。「近い」は、適正距離の下限よりも低い位置に手のひら202が存在する状況を表す。「手無し」は、静脈センサ211上に手のひら202がかざされていない状況を表す。
 認証対象者は、シルエット発光部212が青色の光を発している場合、手のひら202を静脈センサ211に近づけ、シルエット発光部212が赤色の光を発している場合、手のひら202を静脈センサ211から遠ざける。シルエット発光部212が緑色の光を発したとき、認証対象者は、手のひら202を静止させ、静脈センサ211は、手のひら202の静脈画像を取得する。そして、取得された静脈画像を用いて、手のひら静脈認証が行われる。
 図3の光ガイドによれば、認証対象者に対して、手のひらの高さを示す情報が正しくフィードバックされる。これにより、認証対象者は、短時間で正しい高さに手のひらをかざすことができ、手のひら静脈認証の認証時間が短縮される。
 しかしながら、認証対象者が色弱である場合、図3の光ガイドにおける「緑」と「赤」を区別することが難しく、入力状況が「適正距離」又は「近い」の何れであるかが正しくフィードバックされない。この場合、認証対象者が正しい高さに手のひらをかざすまでに時間がかかり、手のひら静脈認証の認証時間が増加する。また、手のひらが正しい高さにかざされていない場合、不鮮明な静脈画像が取得されて、認証精度が低下することもある。
 一方、認証対象者が正常な色覚を有する場合、図3の光ガイドを用いることが好ましい。そこで、正常な色覚を有する認証対象者のための光ガイドと、色弱の認証対象者のための光ガイドとを併用する方法が有効である。
 図4は、2種類の光ガイドの例を示している。光ガイドL1は、正常な色覚を有する認証対象者のための光ガイドであり、図3の光ガイドに対応する。光ガイドL2は、色弱の認証対象者のための光ガイドである。
 入力状況が「遠い」である場合、光ガイドL2は「青(距離の段階発光)」である。この場合、シルエット発光部212は、Dpに応じて青色の光の強度を段階的に変化させる。例えば、シルエット発光部212は、Dpが短くなるほど多くの青色LEDを発光させることで、青色の光の強度を増大させる。
 入力状況が「適正距離」である場合、光ガイドL2は「緑」である。この場合、シルエット発光部212は、光ガイドL1と同様に、緑色の光を発する。入力状況が「近い」である場合、光ガイドL2は「赤(点滅)」である。この場合、シルエット発光部212は、赤色の光を点滅させる。入力状況が「手無し」である場合、光ガイドL2は「白」である。この場合、シルエット発光部212は、光ガイドL1と同様に、白色の光を発する。
 このように、発光色の変化だけでなく、光の強度及び発光時間の変化も加えた光ガイドを用いることで、色弱の認証対象者に対して正しい入力状況をフィードバックすることができる。しかし、認証対象者が色弱であるか否かを確認するために、すべての認証対象者に対して問い合わせを行うと、生体認証器201のユーザビリティが損なわれる。
 図5は、実施形態の情報処理装置(コンピュータ)の機能的構成例を示している。図5の情報処理装置501は、抽出部511、制御部512、及び認証部513を含む。
 図6は、図5の情報処理装置501が行う生体認証処理の例を示すフローチャートである。まず、抽出部511は、第1センサにより検出された第1生体情報に基づいて、複数の登録者の中から1以上の登録者を抽出する(ステップ601)。そして、抽出部511は、複数の登録者それぞれに対応付けられた属性情報の中から、抽出された1以上の登録者それぞれに対応付けられた属性情報を取得する(ステップ602)。
 次に、制御部512は、1以上の登録者それぞれに対応付けられた属性情報に応じた態様で情報を出力する(ステップ603)。そして、認証部513は、情報の出力に応じて第2センサにより検出された第2生体情報と、1以上の登録者それぞれに対応付けられた登録生体情報とを用いて、第2生体情報に対する認証を行う(ステップ604)。
 図5の情報処理装置501によれば、認証対象者に対する情報の出力を伴う生体認証の認証時間を短縮することができる。
 図7は、図5の情報処理装置501を含む生体認証システムの構成例を示している。図7の生体認証システムは、撮像装置701、生体認証器702、及びサーバ703を含み、金融機関の金融処理システム、入退室管理システム、小売店の決済システム等において利用される。撮像装置701及び生体認証器702は、認証対象者に対する生体認証が行われる場所に設置される。サーバ703は、図5の情報処理装置501に対応する。
 サーバ703は、通信ネットワーク704を介して、撮像装置701及び生体認証器702と通信することができる。通信ネットワーク704は、LAN(Local Area Network)又はWAN(Wide Area Network)である。
 撮像装置701は、例えば、CCD(Charge-Coupled Device)、CMOS(Complementary Metal-Oxide-Semiconductor)等の撮像素子を有するカメラであり、認証対象者の顔画像を撮影して、サーバ703へ送信する。撮像装置701は、第1センサの一例であり、顔画像は、第1センサにより検出された第1生体情報の一例である。
 図8は、図7の生体認証器702として用いられる第1の生体認証器の構成例を示している。図8の生体認証器801は、センサ部811、外部距離センサ812、発光部813、及び通信部814を含む。センサ部811は、静脈センサ821及び内蔵距離センサ822を含む。
 認証対象者が生体認証器702に手をかざすと、内蔵距離センサ822及び外部距離センサ812は、センサ部811から手のひらまでの距離を測定する。内蔵距離センサ822は、測定された距離のカテゴリを示す距離情報を出力する。距離のカテゴリとしては、例えば、「遠い」、「適正距離」、「近い」、又は「手無し」が用いられる。内蔵距離センサ822としては、例えば、特許文献2に記載された距離センサを用いることができる。外部距離センサ812は、測定された距離を示す距離値を出力する。
 通信部814は、外部距離センサ812から出力される距離値を、サーバ703へ送信する。そして、通信部814は、送信した距離値に応じた発光態様を示す制御信号を、サーバ703から受信する。
 発光部813は、例えば、図2のシルエット発光部212に対応し、手の形に沿って配置された青、緑、赤、及び白のLEDを含む。発光部813は、受信した制御信号が示す発光態様で発光することで、認証対象者に手のひらの高さに関する情報を提示する。発光態様は、発光色、光の強度、発光時間等を表す。
 認証対象者は、発光部813の発光態様に応じて手のひらの高さを変更し、適正距離で手のひらを静止させる。静脈センサ821は、近赤外線等を認証対象者の手のひらに照射して、手の内部の血管等を撮影することで、手のひらの静脈画像を検出する。通信部814は、静脈センサ821により検出された静脈画像をサーバ703へ送信する。
 静脈センサ821は、第2センサの一例であり、手のひらの静脈画像は、第2センサにより検出された第2生体情報の一例である。認証対象者の手のひらは、生体の一例であり、静脈センサ821は、生体センサの一例である。
 図9は、図7のサーバ703の機能的構成例を示している。図9のサーバ703は、通信部911、顔特徴抽出部912、静脈特徴抽出部913、顔認証部914、制御部915、静脈認証部916、及び記憶部917を含む。顔認証部914及び制御部915は、図5の抽出部511及び制御部512にそれぞれ対応し、静脈特徴抽出部913及び静脈認証部916は、図5の認証部513に対応する。
 記憶部917は、登録者である複数の人物それぞれの登録顔情報921、登録静脈情報922、及び登録属性情報923を記憶する。各人物の登録顔情報921は、人物のユーザID及び顔特徴量を含む。顔特徴量は、生体特徴に対応し、顔画像の特徴を示す情報である。
 顔特徴量としては、例えば、HOG(Histograms of Oriented Gradients)特徴量、SIFT(Scaled Invariance Feature Transform)特徴量、又はSURF(Speeded-Up Robust Features)特徴量を用いることができる。顔特徴量は、BRIEF(Binary Robust Independent Elementary Features)特徴量又は顕著性(Saliency)であってもよい。
 各人物の登録静脈情報922は、人物のユーザID及び静脈特徴量を含む。静脈特徴量は、生体特徴に対応し、手のひらの静脈画像の特徴を示す情報である。登録属性情報923は、人物のユーザID及び属性情報を含む。属性情報は、色覚を示す情報である。
 各人物の登録顔情報921に含まれる顔特徴量、各人物の登録静脈情報922に含まれる静脈特徴量、及び各人物の登録属性情報923に含まれる属性情報は、ユーザIDを介して互いに対応付けられている。
 通信部911は、撮像装置701から認証対象者の顔画像を受信し、生体認証器801から距離値を受信する。顔特徴抽出部912は、受信した顔画像を、顔画像924として記憶部917に格納し、顔画像924から顔特徴量を抽出する。
 顔認証部914は、抽出された顔特徴量と各人物の登録顔情報921とを比較することで、顔画像924に対する顔認証を行う。顔認証部914は、例えば、抽出された顔特徴量と各人物の登録顔情報921に含まれる顔特徴量との間の類似度を計算し、類似度が高い順に、N個(Nは1以上の整数)の登録顔情報921を選択する。
 次に、顔認証部914は、選択された登録顔情報921のユーザIDに対応する登録属性情報923から、そのユーザIDに対応付けられた属性情報を取得する。そして、顔認証部914は、N個のユーザIDと各ユーザIDに対応付けられた属性情報とを含む候補リスト925を生成して、記憶部917に格納する。
 候補リスト925は、顔画像924を用いて絞り込まれた登録者を示しており、各登録者は、認証対象者の候補に対応する。候補リスト925に含まれるN個のユーザID及び属性情報は、類似度の降順にソートされている。
 制御部915は、候補リスト925から何れかのユーザIDに対応する属性情報を選択し、選択された属性情報と生体認証器801から受信した距離値とに応じて、発光部813の発光態様を決定する。そして、制御部915は、決定された発光態様を示す制御信号を、通信部911を介して、生体認証器801へ送信する。これにより、発光部813は、属性情報及び距離値に応じた発光態様で発光する。
 顔特徴量の類似度に基づいて絞り込まれた登録者の中から何れかの登録者を選択し、選択された登録者の属性情報を取得することで、認証対象者の属性情報に対応する可能性が高い属性情報を特定することができる。これにより、認証対象者の色覚に適した発光態様を選択することが可能になる。
 次に、通信部911は、静脈センサ821により検出された静脈画像を受信し、静脈特徴抽出部913は、受信した静脈画像から静脈特徴量を抽出する。静脈認証部916は、抽出された静脈特徴量と、選択された属性情報に対応する登録静脈情報922とを比較することで、手のひら静脈認証を行う。
 静脈認証部916は、例えば、抽出された静脈特徴量と登録静脈情報922に含まれる静脈特徴量との間の類似度を計算し、計算された類似度を閾値と比較する。類似度が閾値よりも大きい場合、静脈認証部916は、認証成功を示す認証結果926を生成して、記憶部917に格納する。認証成功を示す認証結果926は、類似度の計算に用いられた登録静脈情報922のユーザIDを含む。一方、類似度が閾値以下である場合、静脈認証部916は、認証失敗を示す認証結果926を生成して、記憶部917に格納する。
 例えば、入退室管理システムにおいて認証が成功した場合、認証成功を示す認証結果926に基づいて、ゲートを開く制御が行われる。
 図10は、図8の生体認証器801における外部距離センサ812の具体例を示している。図10(a)は、生体認証器801にかざされた手の例を示しており、図10(b)は、生体認証器801の上面の例を示している。
 生体認証器801の上面には、センサ部811、発光部813、距離センサ1011、及び距離センサ1012が配置されている。センサ部811は、手のひらの中央に対向する位置に配置されている。発光部813の形状は、手の形である。距離センサ1011及び距離センサ1012は、図8の外部距離センサ812に対応する。
 距離センサ1011及び距離センサ1012は、静脈センサ821から照射される近赤外線の反射光と重ならないように、手のひらの中央を避けて、センサ部811の外側に配置されている。距離センサ1011は、中指の付け根1001に対向する位置に配置されており、距離センサ1012は、手首部分1002に対向する位置に配置されている。
 距離センサ1011及び距離センサ1012は、例えば、赤外線を照射することで、中指の付け根1001及び手首部分1002までの距離をそれぞれ測定する。この場合、距離センサ1011の測定値と距離センサ1012の測定値の平均値が、センサ部811から手のひらまでの距離として用いられる。
 図11は、図10(a)の手及び図10(b)の生体認証器801の垂直方向における位置関係の例を示している。生体認証器801の上面において、センサ部811の両側に距離センサ1011及び距離センサ1012が配置されている。距離センサ1011と距離センサ1012は、水平方向に約100mm離れて配置されている。
 センサ部811内の内蔵距離センサ822が測定可能な最小距離は約10mmであり、距離センサ1011及び距離センサ1012が測定可能な最小距離は約40mmである。この例では、内蔵距離センサ822が測定可能な最小距離に対応する位置が、距離センサ1011及び距離センサ1012が測定可能な最小距離に対応する位置と一致するように、生体認証器801とセンサ部811との間にスペーサ1111が挿入されている。
 直線1103は、内蔵距離センサ822、距離センサ1011、及び距離センサ1012が測定可能な最小距離に対応する位置を示している。直線1103が示す位置は、センサ部811の上面から垂直方向に約10mm離れており、距離センサ1011及び距離センサ1012の上面から垂直方向に約40mm離れている。直線1103の上部の空間は、内蔵距離センサ822、距離センサ1011、及び距離センサ1012の測距範囲に対応する。
 直線1102は、センサ部811の上面から垂直方向に約35mm離れた位置を示しており、直線1101は、センサ部811の上面から垂直方向に約70mm離れた位置を示している。直線1101と直線1102の間の空間は、センサ部811内の静脈センサ821の撮像範囲に対応する。手のひらが撮像範囲に存在する場合、入力状況が「適正距離」であると判定される。
 図12は、顔認証部914により生成される候補リスト925の例を示している。ユーザIDは、登録者であるユーザの識別情報であり、スコアは、認証対象者の顔特徴量と、ユーザIDが示すユーザの登録顔情報921に含まれる顔特徴量との間の類似度を表す。属性情報は、ユーザIDが示すユーザの登録属性情報923から取得された属性情報を表す。各ユーザの属性情報は、色覚が正常又は色弱の何れであるかを示している。順位は、スコアの降順にN個のユーザIDをソートした結果を示している。
 図13は、図7の生体認証システムにおいて用いられる光ガイドの例を示している。Dpは、生体認証器801から受信した距離値を表し、光ガイドL1及び光ガイドL2は、発光部813の発光態様を表す。光ガイドL1は、正常な色覚を有する認証対象者のための光ガイドであり、光ガイドL2は、色弱の認証対象者のための光ガイドである。
 制御部915は、候補リスト925に含まれる何れかのユーザの属性情報と、生体認証器801から受信した距離値とに応じて、何れかの発光態様を選択する。
 Dpが150mmよりも短く、かつ、70mmよりも長い場合、光ガイドL1は「青」であり、光ガイドL2は「青(距離の段階発光)」である。Dpが70mm以下であり、かつ、35mm以上である場合、光ガイドL1及び光ガイドL2は「緑」である。Dpが35mmよりも短く、かつ、10mmよりも長い場合、光ガイドL1は「赤」であり、光ガイドL2は「赤(点滅)」である。Dpが上記以外の値である場合、光ガイドL1及び光ガイドL2は「白」である。
 「青(距離の段階発光)」及び「赤(点滅)」は、色弱の人物によって視認されやすい発光態様の一例である。
 例えば、図12の順位1のユーザが認証対象者の候補として選択された場合、そのユーザの属性情報は色弱であるため、光ガイドL2が選択される。したがって、Dpが150mmよりも短く、かつ、70mmよりも長い場合、「青(距離の段階発光)」が発光態様として選択される。この場合、発光部813は、Dpに応じて青色の光の強度を段階的に変化させる。
 また、Dpが35mmよりも短く、かつ、10mmよりも長い場合、「赤(点滅)」が発光態様として選択される。この場合、発光部813は、赤色の光を点滅させる。「緑」と「赤」を区別することが難しい認証対象者であっても、「緑」と「赤(点滅)」であれば容易に区別することができる。したがって、色弱の認証対象者に対して、センサ部811から手のひらまでの距離を正しくフィードバックすることができる。
 図7の生体認証システムによれば、各登録者の色覚を示す属性情報を登録しておくことで、認証対象者の候補の色覚に適した発光態様で発光部813を発光させることができる。これにより、色弱の認証対象者であっても、手のひらの高さを示す情報が正しくフィードバックされるため、短時間で正しい高さに手のひらをかざすことができ、手のひら静脈認証の認証時間が短縮される。また、手のひらを正しい高さにかざすことで、鮮明な静脈画像を取得することができるため、手のひら静脈認証の認証精度が向上する。
 図14は、図9のサーバ703が行う生体認証処理の例を示すフローチャートである。まず、通信部911は、撮像装置701から認証対象者の顔画像を受信し、顔特徴抽出部912は、受信した顔画像を、顔画像924として記憶部917に格納する。そして、顔特徴抽出部912は、顔画像924から顔特徴量を抽出する(ステップ1401)。
 次に、顔認証部914は、抽出された顔特徴量を用いて顔認証を行い、顔特徴量に対する類似度が高い順に、N個の登録顔情報921を選択することで、N個のユーザID及び属性情報を含む候補リスト925を生成する(ステップ1402)。そして、制御部915は、候補リスト925から、何れかのユーザIDに対応する属性情報を選択する(ステップ1403)。
 ステップ1401~ステップ1403の処理と並行して、通信部911は、生体認証器801から、認証対象者の手のひらの静脈画像を受信する(ステップ1404)。そして、通信部911は、生体認証器801から、外部距離センサ812により測定された距離値を受信する(ステップ1405)。
 次に、制御部915は、選択された属性情報と生体認証器801から受信した距離値とに応じて、発光部813の発光態様を決定し、決定された発光態様を示す制御信号を、通信部911を介して、生体認証器801へ送信する(ステップ1406)。
 次に、制御部915は、受信した距離値が適正距離の範囲内であるか否かをチェックする(ステップ1407)。例えば、距離値が70mm以下であり、かつ、35mm以上である場合、距離値が適正距離の範囲内であると判定され、それ以外の場合、距離値が適正距離の範囲内ではないと判定される。
 距離値が適正距離の範囲内である場合(ステップ1407,YES)、静脈特徴抽出部913は、受信した静脈画像から静脈特徴量を抽出する(ステップ1408)。次に、静脈認証部916は、ステップ1403で選択されたユーザIDに対応する登録静脈情報922から静脈特徴量を取得する。そして、静脈認証部916は、静脈画像から抽出された静脈特徴量と、登録静脈情報922から取得された静脈特徴量との間の類似度を計算し、類似度を閾値TH1と比較する(ステップ1409)。
 類似度がTH1よりも大きい場合(ステップ1409,YES)、静脈認証部916は、認証成功を示す認証結果926を生成し(ステップ1410)、サーバ703は、次の認証対象者についてステップ1401以降の処理を繰り返す。一方、類似度がTH1以下である場合(ステップ1409,NO)、静脈認証部916は、認証失敗を示す認証結果926を生成し(ステップ1411)、サーバ703は、次の認証対象者についてステップ1401以降の処理を繰り返す。
 距離値が適正距離の範囲内ではない場合(ステップ1407,NO)、サーバ703は、ステップ1406以降の処理を繰り返す。この場合、ステップ1406において、発光部813は、制御信号が示す発光態様で発光し、認証対象者は、発光部813の発光態様に応じて手のひらの高さを変更する。そして、通信部911は、生体認証器801から、手のひらの静脈画像及び距離値を受信する。
 図15は、図14のステップ1403における属性情報選択処理の例を示すフローチャートである。まず、制御部915は、候補リスト925における順位1のユーザIDのスコアと順位2のユーザIDのスコアとの差分(スコア差)を計算し、スコア差を閾値TH2と比較する(ステップ1501)。順位1のユーザIDは、候補リスト925において、顔特徴量の類似度が最も大きいユーザを示し、順位2のユーザIDは、顔特徴量の類似度が2番目に大きいユーザを示す。
 スコア差がTH2よりも大きい場合(ステップ1501,YES)、制御部915は、順位1のユーザIDに対応する属性情報を選択する(ステップ1503)。スコア差がTH2以下である場合(ステップ1501,NO)、制御部915は、候補リスト925における順位1~順位Nの属性情報の中に色弱が存在するか否かをチェックする(ステップ1502)。
 順位1~順位Nの属性情報の中に色弱が存在する場合(ステップ1502,YES)、制御部915は、属性情報として色弱を選択する(ステップ1504)。一方、順位1~順位Nの属性情報の中に色弱が存在しない場合(ステップ1502,NO)、制御部915は、属性情報として正常を選択する(ステップ1505)。
 図15の属性情報選択処理によれば、順位1と順位2のスコア差が小さい場合に色弱を優先的に選択することが可能になる。なお、図14のステップ1403において、制御部915は、図15の属性情報選択処理を行う代わりに、順位1のユーザIDに対応する属性情報を無条件に選択してもよい。
 図14の生体認証処理では、候補リスト925に含まれる何れか1人のユーザを選択して手のひら静脈認証を行っているが、複数のユーザを選択して手のひら静脈認証を行うことも可能である。
 例えば、サーバ703は、ステップ1403において、候補リスト925から順位1~順位M(Mは2以上かつN以下の整数)のユーザIDに対応する属性情報を選択してもよい。この場合、サーバ703は、選択された各属性情報についてステップ1406~ステップ1411の処理を行い、認証が成功したユーザIDのうち、静脈特徴量の類似度が最も高いユーザIDを、認証結果926に含めることができる。
 図7の生体認証システムにおいて、撮像装置701の代わりに別のセンサを用いて、認証対象者の生体情報を検出することも可能である。別のセンサとしては、例えば、指紋センサ、掌紋センサ、指静脈センサ等を用いることができる。指紋センサは、指紋画像を生体情報として検出し、掌紋センサは、掌紋画像を生体情報として検出し、指静脈センサは、指の静脈画像を生体情報として検出する。この場合、サーバ703は、顔画像の代わりに別のセンサが検出した生体情報を用いて、候補リスト925を生成する。
 図8の生体認証器801において、静脈センサ821の代わりに別のセンサを用いて、認証対象者の生体情報を検出することも可能である。別のセンサとしては、例えば、指紋センサ、掌紋センサ、指静脈センサ等を用いることができる。この場合、サーバ703は、手のひら静脈画像の代わりに別のセンサが検出した生体情報を用いて、生体認証を行う。
 ところで、サーバ703は、外部距離センサ812から出力される距離値の代わりに、内蔵距離センサ822から出力される距離情報を用いて、発光部813の発光態様を決定することもできる。この場合、生体認証器801から外部距離センサ812を省略してもよい。
 図16は、図7の生体認証器702として用いられる第2の生体認証器の構成例を示している。図16の生体認証器1601は、図8の生体認証器801から外部距離センサ812を削除した構成を有する。通信部814は、内蔵距離センサ822から出力される距離情報を、サーバ703へ送信する。距離情報は、例えば、「遠い」、「適正距離」、「近い」、又は「手無し」の何れかのカテゴリを表す。
 生体認証器801の代わりに生体認証器1601を用いる場合の生体認証処理は、図14の生体認証処理と同様である。この場合、ステップ1405において、通信部911は、生体認証器1601から、距離値の代わりに距離情報を受信する。
 次に、ステップ1406において、制御部915は、選択された属性情報と生体認証器1601から受信した距離情報とに応じて、発光部813の発光態様を決定する。そして、ステップ1407において、制御部915は、距離情報が「適正距離」であるか否かをチェックする。
 図17は、距離情報に応じて決定される光ガイドの例を示している。距離情報は、生体認証器1601から受信した距離情報を表す。光ガイドL1は、正常な色覚を有する認証対象者のための光ガイドであり、光ガイドL2は、色弱の認証対象者のための光ガイドである。
 距離情報が「遠い」である場合、光ガイドL1及び光ガイドL2は「青」である。距離情報が「適正距離」である場合、光ガイドL1は「緑」であり、光ガイドL2は「茶色」である。「茶色」は、色弱の人物によって視認されやすい発光態様の一例である。距離情報が「近い」である場合、光ガイドL1及び光ガイドL2は「赤」である。距離情報が「手無し」である場合、光ガイドL1及び光ガイドL2は「白」である。
 例えば、図12の順位1のユーザが認証対象者の候補として選択された場合、そのユーザの属性情報は色弱であるため、光ガイドL2が選択される。したがって、距離情報が「適正距離」である場合、「茶色」が発光態様として選択される。
 この場合、発光部813は、茶色の光を発する。「緑」と「赤」を区別することが難しい認証対象者であっても、「茶色」と「赤」であれば容易に区別することができる。したがって、色弱の認証対象者に対して、センサ部811から手のひらまでの距離を正しくフィードバックすることができる。
 図13及び図17に示した光ガイドは一例に過ぎず、図13の光ガイドL2として図17の光ガイドL2を用いてもよく、図17の光ガイドL2として図13の光ガイドL2を用いてもよい。図17の光ガイドL2において、「茶色」の代わりに、色弱の認証対象者が「赤」と容易に区別できる別の色を用いてもよい。距離値又は距離情報に応じて発光色、光の強度、発光時間等を様々に変化させた発光態様を、光ガイドL2として用いてもよい。
 生体認証器801及び生体認証器1601は、発光部813から出力される光だけでなく、音、テキストメッセージ、音声メッセージ等を用いて、認証対象者の手のひらを誘導する情報を出力することも可能である。
 この場合、各人物の登録属性情報923に含まれる属性情報としては、各人物が希望する情報の種類及び変化パターンが用いられる。情報の種類は、光、音、テキストメッセージ、音声メッセージ等の何れかを示し、情報の変化パターンは、距離値又は距離情報に応じた情報の変化を示す。制御部915は、候補リスト925から選択された属性情報と距離値又は距離情報とに応じて、情報の出力態様を決定する。
 図5の情報処理装置501の構成は一例に過ぎず、情報処理装置501の用途又は条件に応じて一部の構成要素を省略又は変更してもよい。図7の生体認証システムの構成は一例に過ぎず、生体認証システムの用途又は条件に応じて一部の構成要素を省略又は変更してもよい。図8の生体認証器801及び図16の生体認証器1601の構成は一例に過ぎず、生体認証システムの用途又は条件に応じて一部の構成要素を省略又は変更してもよい。
 図9のサーバ703の構成は一例に過ぎず、生体認証システムの用途又は条件に応じて一部の構成要素を省略又は変更してもよい。例えば、登録顔情報921、登録静脈情報922、及び登録属性情報923は、サーバ703の外部のデータベースに格納されていてもよい。この場合、サーバ703は、外部のデータベースから登録顔情報921、登録静脈情報922、及び登録属性情報923を取得して、記憶部917に格納する。
 図6、図14、及び図15のフローチャートは一例に過ぎず、情報処理装置501又は生体認証システムの構成又は条件に応じて、一部の処理を省略又は変更してもよい。
 図1及び図2に示した生体認証器は一例に過ぎず、別の構成の生体認証器を用いても構わない。図3、図4、図13、及び図17に示した光ガイドは一例に過ぎず、別の発光態様の光ガイドを用いても構わない。
 図10及び図11に示した2個の距離センサは一例に過ぎず、外部距離センサの個数は、1個であってもよく、3個以上であってもよい。図12に示した候補リスト925は一例に過ぎず、候補リスト925は、登録顔情報921及び顔画像924に応じて変化する。
 図18は、図5の情報処理装置501及び図9のサーバ703として用いられる情報処理装置のハードウェア構成例を示している。図18の情報処理装置は、CPU(Central Processing Unit)1801、メモリ1802、入力装置1803、出力装置1804、補助記憶装置1805、媒体駆動装置1806、及びネットワーク接続装置1807を含む。これらの構成要素はハードウェアであり、バス1808により互いに接続されている。
 メモリ1802は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリであり、処理に用いられるプログラム及びデータを格納する。メモリ1802は、図9の記憶部917として動作してもよい。
 CPU1801(プロセッサ)は、例えば、メモリ1802を利用してプログラムを実行することにより、図5の抽出部511、制御部512、及び認証部513として動作する。CPU1801は、メモリ1802を利用してプログラムを実行することにより、図9の顔特徴抽出部912、静脈特徴抽出部913、顔認証部914、制御部915、及び静脈認証部916としても動作する。
 入力装置1803は、例えば、キーボード、ポインティングデバイス等であり、オペレータからの指示又は情報の入力に用いられる。出力装置1804は、例えば、表示装置、プリンタ、スピーカ等であり、オペレータへの問い合わせ又は処理結果の出力に用いられる。処理結果は、認証結果926であってもよい。
 補助記憶装置1805は、例えば、磁気ディスク装置、光ディスク装置、光磁気ディスク装置、テープ装置等である。補助記憶装置1805は、フラッシュメモリ又はハードディスクドライブであってもよい。情報処理装置は、補助記憶装置1805にプログラム及びデータを格納しておき、それらをメモリ1802にロードして使用することができる。補助記憶装置1805は、図9の記憶部917として動作してもよい。
 媒体駆動装置1806は、可搬型記録媒体1809を駆動し、その記録内容にアクセスする。可搬型記録媒体1809は、メモリデバイス、フレキシブルディスク、光ディスク、光磁気ディスク等である。可搬型記録媒体1809は、CD-ROM(Compact Disk Read Only Memory)、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)メモリ等であってもよい。オペレータは、この可搬型記録媒体1809にプログラム及びデータを格納しておき、それらをメモリ1802にロードして使用することができる。
 このように、処理に用いられるプログラム及びデータを格納するコンピュータ読み取り可能な記録媒体は、メモリ1802、補助記憶装置1805、又は可搬型記録媒体1809のような、物理的な(非一時的な)記録媒体である。
 ネットワーク接続装置1807は、図7の通信ネットワーク704に接続され、通信に伴うデータ変換を行う通信インタフェース回路である。情報処理装置は、プログラム及びデータを外部の装置からネットワーク接続装置1807を介して受信し、それらをメモリ1802にロードして使用することができる。ネットワーク接続装置1807は、図9の通信部911として動作してもよい。
 なお、情報処理装置が図18のすべての構成要素を含む必要はなく、用途又は条件に応じて一部の構成要素を省略することも可能である。例えば、オペレータとのインタフェースが不要である場合は、入力装置1803及び出力装置1804を省略してもよい。情報処理装置が可搬型記録媒体1809を利用しない場合は、媒体駆動装置1806を省略してもよい。
 開示の実施形態とその利点について詳しく説明したが、当業者は、特許請求の範囲に明確に記載した本発明の範囲から逸脱することなく、様々な変更、追加、省略をすることができるであろう。

Claims (15)

  1.  第1センサにより検出された第1生体情報に基づいて、複数の登録者の中から1以上の登録者を抽出し、
     前記複数の登録者それぞれに対応付けられた属性情報の中から、前記1以上の登録者それぞれに対応付けられた属性情報を取得し、
     前記1以上の登録者それぞれに対応付けられた属性情報に応じた態様で情報を出力し、
     前記情報の出力に応じて第2センサにより検出された第2生体情報と、前記1以上の登録者それぞれに対応付けられた登録生体情報とを用いて、前記第2生体情報に対する認証を行う、
     処理をコンピュータが実行することを特徴とする認証方法。
  2.  前記コンピュータは、前記第1生体情報と、前記1以上の登録者それぞれに対応付けられた第1登録生体情報との間の類似度に基づいて、前記1以上の登録者それぞれに対応付けられた属性情報のうち何れかの属性情報を特定する処理をさらに実行し、
     前記情報を出力する処理は、前記何れかの属性情報に応じた態様で前記情報を出力する処理を含むことを特徴とする請求項1記載の認証方法。
  3.  前記複数の登録者それぞれに対応付けられた属性情報は、前記複数の登録者それぞれの色覚を示す情報であり、前記何れかの属性情報に応じた態様は、発光部の発光態様であることを特徴とする請求項2記載の認証方法。
  4.  前記何れかの属性情報が色弱を示す情報である場合、前記何れかの属性情報に応じた態様は、色弱の人物によって視認されやすい発光態様であることを特徴とする請求項3記載の認証方法。
  5.  前記コンピュータは、前記第2センサと認証対象者との間の距離を取得する処理をさらに実行し、
     前記情報を出力する処理は、前記何れかの属性情報及び前記距離に応じた態様で前記情報を出力する処理を含むことを特徴とする請求項2乃至4の何れか1項に記載の認証方法。
  6.  前記第2センサは、静脈センサであることを特徴とする請求項1乃至5の何れか1項に記載の認証方法。
  7.  生体センサと生体との間の距離を取得し、
     前記距離に基づいて発光部の発光態様を決定し、
     前記発光態様に基づいて前記発光部を制御する、
     処理をコンピュータが実行することを特徴とする制御方法。
  8.  第1センサにより検出された第1生体情報に基づいて、複数の登録者の中から1以上の登録者を抽出し、前記複数の登録者それぞれに対応付けられた属性情報の中から、前記1以上の登録者それぞれに対応付けられた属性情報を取得する抽出部と、
     前記1以上の登録者それぞれに対応付けられた属性情報に応じた態様で情報を出力する制御を行う制御部と、
     前記情報の出力に応じて第2センサにより検出された第2生体情報と、前記1以上の登録者それぞれに対応付けられた登録生体情報とを用いて、前記第2生体情報に対する認証を行う認証部と、
     を備えることを特徴とする情報処理装置。
  9.  前記制御部は、前記第1生体情報と、前記1以上の登録者それぞれに対応付けられた第1登録生体情報との間の類似度に基づいて、前記1以上の登録者それぞれに対応付けられた属性情報のうち何れかの属性情報を特定し、前記何れかの属性情報に応じた態様で前記情報を出力する制御を行うことを特徴とする請求項8記載の情報処理装置。
  10.  前記複数の登録者それぞれに対応付けられた属性情報は、前記複数の登録者それぞれの色覚を示す情報であり、前記何れかの属性情報に応じた態様は、発光部の発光態様であることを特徴とする請求項9記載の情報処理装置。
  11.  前記何れかの属性情報が色弱を示す情報である場合、前記何れかの属性情報に応じた態様は、色弱の人物によって視認されやすい発光態様であることを特徴とする請求項10記載の情報処理装置。
  12.  第1センサにより検出された第1生体情報に基づいて、複数の登録者の中から1以上の登録者を抽出し、
     前記複数の登録者それぞれに対応付けられた属性情報の中から、前記1以上の登録者それぞれに対応付けられた属性情報を取得し、
     前記1以上の登録者それぞれに対応付けられた属性情報に応じた態様で情報を出力し、
     前記情報の出力に応じて第2センサにより検出された第2生体情報と、前記1以上の登録者それぞれに対応付けられた登録生体情報とを用いて、前記第2生体情報に対する認証を行う、
     処理をコンピュータに実行させるための認証プログラム。
  13.  前記認証プログラムは、前記第1生体情報と、前記1以上の登録者それぞれに対応付けられた第1登録生体情報との間の類似度に基づいて、前記1以上の登録者それぞれに対応付けられた属性情報のうち何れかの属性情報を特定する処理を、前記コンピュータにさらに実行させ、
     前記情報を出力する処理は、前記何れかの属性情報に応じた態様で前記情報を出力する処理を含むことを特徴とする請求項12記載の認証プログラム。
  14.  前記複数の登録者それぞれに対応付けられた属性情報は、前記複数の登録者それぞれの色覚を示す情報であり、前記何れかの属性情報に応じた態様は、発光部の発光態様であることを特徴とする請求項13記載の認証プログラム。
  15.  前記何れかの属性情報が色弱を示す情報である場合、前記何れかの属性情報に応じた態様は、色弱の人物によって視認されやすい発光態様であることを特徴とする請求項14記載の認証プログラム。
PCT/JP2020/040764 2020-10-30 2020-10-30 認証方法、制御方法、情報処理装置、及び認証プログラム WO2022091325A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP20959843.2A EP4239567A1 (en) 2020-10-30 2020-10-30 Authentication method, control method, information processing device, and authentication program
JP2022558735A JPWO2022091325A1 (ja) 2020-10-30 2020-10-30
PCT/JP2020/040764 WO2022091325A1 (ja) 2020-10-30 2020-10-30 認証方法、制御方法、情報処理装置、及び認証プログラム
CN202080105707.2A CN116368514A (zh) 2020-10-30 2020-10-30 认证方法、控制方法、信息处理装置以及认证程序
US18/126,625 US20230229746A1 (en) 2020-10-30 2023-03-27 Authentication method, control method, and information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/040764 WO2022091325A1 (ja) 2020-10-30 2020-10-30 認証方法、制御方法、情報処理装置、及び認証プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/126,625 Continuation US20230229746A1 (en) 2020-10-30 2023-03-27 Authentication method, control method, and information processing device

Publications (1)

Publication Number Publication Date
WO2022091325A1 true WO2022091325A1 (ja) 2022-05-05

Family

ID=81382096

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/040764 WO2022091325A1 (ja) 2020-10-30 2020-10-30 認証方法、制御方法、情報処理装置、及び認証プログラム

Country Status (5)

Country Link
US (1) US20230229746A1 (ja)
EP (1) EP4239567A1 (ja)
JP (1) JPWO2022091325A1 (ja)
CN (1) CN116368514A (ja)
WO (1) WO2022091325A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003058930A (ja) * 2001-08-10 2003-02-28 Oki Electric Ind Co Ltd 自動取引装置
WO2010086993A1 (ja) * 2009-01-30 2010-08-05 富士通フロンテック株式会社 認証装置、撮像装置、認証方法および認証プログラム
WO2012014304A1 (ja) 2010-07-29 2012-02-02 富士通株式会社 生体認証装置および生体認証プログラム
JP2014115910A (ja) * 2012-12-11 2014-06-26 Canon Inc 認証システム、認証方法、およびプログラム
JP2018010393A (ja) 2016-07-12 2018-01-18 バイオニクス株式会社 個人認証装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003058930A (ja) * 2001-08-10 2003-02-28 Oki Electric Ind Co Ltd 自動取引装置
WO2010086993A1 (ja) * 2009-01-30 2010-08-05 富士通フロンテック株式会社 認証装置、撮像装置、認証方法および認証プログラム
WO2012014304A1 (ja) 2010-07-29 2012-02-02 富士通株式会社 生体認証装置および生体認証プログラム
JP2014115910A (ja) * 2012-12-11 2014-06-26 Canon Inc 認証システム、認証方法、およびプログラム
JP2018010393A (ja) 2016-07-12 2018-01-18 バイオニクス株式会社 個人認証装置

Also Published As

Publication number Publication date
CN116368514A (zh) 2023-06-30
EP4239567A1 (en) 2023-09-06
US20230229746A1 (en) 2023-07-20
JPWO2022091325A1 (ja) 2022-05-05

Similar Documents

Publication Publication Date Title
US8000503B2 (en) Biometrics authentication system registration method, biometrics authentication system, and program for same
JP4786483B2 (ja) 生体認証装置の生体誘導制御方法及び生体認証装置
JP4704185B2 (ja) 生体認証システム及び生体認証方法
KR100944172B1 (ko) 생체 인증 방법 및 생체 인증 시스템
JP5622928B2 (ja) 照合装置、照合プログラム、および照合方法
JP6751072B2 (ja) 生体認証システム
KR101384446B1 (ko) 컴퓨터 판독가능한 기록 매체, 등록 장치, 및 등록 방법
JP6160148B2 (ja) 生体情報入力装置、生体情報入力プログラム、生体情報入力方法
EP2629240A2 (en) Verification object specifying apparatus, verification object specifying program, and verification object specifying method
EP1612717A2 (en) Biometric authentication system and registration method
JP2013137590A (ja) 認証装置、認証プログラム、および認証方法
JP6792986B2 (ja) 生体認証装置
JP6187262B2 (ja) 生体情報処理装置、生体情報処理方法及び生体情報処理用コンピュータプログラム
US10586028B2 (en) Customized biometric data capture for improved security
WO2022091325A1 (ja) 認証方法、制御方法、情報処理装置、及び認証プログラム
JP6798285B2 (ja) 生体認証装置、生体認証方法及びプログラム
WO2021250845A1 (ja) 認証方法、情報処理装置、及び認証プログラム
WO2021157023A1 (ja) 認証方法、情報処理装置、及び認証プログラム
Khatri Reviewing and analysing the current state-of-the-art recognition approaches for different traits to develop a Powerful multi-biometric system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20959843

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022558735

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020959843

Country of ref document: EP

Effective date: 20230530