WO2011030441A1 - 生体認証装置、生体認証システム、及び生体認証方法 - Google Patents

生体認証装置、生体認証システム、及び生体認証方法 Download PDF

Info

Publication number
WO2011030441A1
WO2011030441A1 PCT/JP2009/065905 JP2009065905W WO2011030441A1 WO 2011030441 A1 WO2011030441 A1 WO 2011030441A1 JP 2009065905 W JP2009065905 W JP 2009065905W WO 2011030441 A1 WO2011030441 A1 WO 2011030441A1
Authority
WO
WIPO (PCT)
Prior art keywords
posture
information
update
biometric
authentication
Prior art date
Application number
PCT/JP2009/065905
Other languages
English (en)
French (fr)
Inventor
青木 隆浩
壮一 ▲浜▼
福田 充昭
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to EP09849220.0A priority Critical patent/EP2477155B1/en
Priority to CN200980161368.3A priority patent/CN102483845B/zh
Priority to KR1020127006291A priority patent/KR101341212B1/ko
Priority to JP2011530695A priority patent/JP5382127B2/ja
Priority to PCT/JP2009/065905 priority patent/WO2011030441A1/ja
Publication of WO2011030441A1 publication Critical patent/WO2011030441A1/ja
Priority to US13/416,379 priority patent/US9373047B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/50Maintenance of biometric data or enrolment thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Definitions

  • the present invention relates to a biometric authentication device that performs biometric authentication, a biometric authentication system, and a biometric authentication method.
  • Biometric authentication is a technology that identifies individuals based on human biological characteristics (palm veins and faces).
  • biometric authentication first, the biometric feature data of the person is registered as “registered biometric information”.
  • the feature data acquired by a sensor is compared with the registered biometric information, and a “similarity” is calculated to indicate how similar they are, and the similarity exceeds a predetermined threshold. If it is determined to be the person.
  • Biometric authentication feature data is unlikely to be entered in exactly the same posture during registration and authentication.
  • the posture represents the positional relationship between the living body (palm, face, etc.) and the sensor, and is specifically expressed by parameters such as distance, inclination, and rotation.
  • processing is generally performed so as to allow a certain posture variation. For example, while performing image conversion such as translation or rotation on the input feature data, the image data converted is compared with the registered biometric information to search for the maximum similarity. In many cases, the collation process is terminated when the similarity exceeds a predetermined threshold. Therefore, when the change in posture is large between registration and authentication, extra time is required for collation processing because image conversion is performed. In addition, if the posture fluctuation exceeds a certain range, it cannot be corrected by image conversion, which causes a problem that authentication accuracy is lowered.
  • the quality of registered biometric information is very important because it is determined whether or not the person is the person based on the registered biometric information. If the registered biometric information is inadequate, an authentication error occurs because it cannot be corrected no matter what kind of device is added in the authentication process.
  • the “posture” of the biometric to the sensor greatly affects the authentication accuracy.
  • (1) position, (2) distance, (3) tilt, and (4) rotation of the palm relative to the sensor correspond to postures (see FIG. 1).
  • FIG. 1 is a diagram for explaining the position, distance, inclination, and rotation of a palm relative to a sensor in palm vein authentication.
  • position, distance, inclination, and rotation can be considered as parameters representing the “posture” of the palm.
  • the image (biological image) acquired by the sensor differs depending on the posture will be described.
  • FIG. 2A is a diagram illustrating an example of a biological image at a normal position.
  • FIG. 2B is a diagram illustrating an example of a biological image of an abnormal position.
  • the illumination When acquiring a biological image with a sensor, the illumination is turned on to take a picture. At this time, the biological image is affected by the illumination intensity distribution.
  • the influence of the illumination intensity distribution is due to the fact that the illumination intensity is not uniform within the field of view.
  • peripheral dimming occurs in which the apparent brightness decreases as it goes to the periphery of the lens. Since the portion a shown in FIG. 2B is around the lens, the brightness is slightly reduced. Therefore, when the position in the image changes, the apparent brightness for each region changes (for example, see a in FIG. 2B), which adversely affects the authentication process.
  • FIG. 3A is a diagram for explaining the inclination of the palm relative to the sensor.
  • FIG. 3A when the palm is inclined, a region b near the sensor and a region c far from the sensor are generated.
  • FIG. 3B is a diagram illustrating an example of a biological image photographed in the posture of FIG. 3A.
  • a region near the sensor is bright and a region far from the sensor is dark. Therefore, in the example shown in FIG. 3B, the region b appears bright and the region c appears dark. Therefore, it is difficult to extract features in a region far from the sensor, and it is also difficult to extract features when the image is too close to the sensor to cause overexposure.
  • the shot image is affected by lens distortion.
  • the posture of the subject greatly affects the captured image.
  • the posture of the subject greatly affects the degree of similarity between the captured biometric information and the registered biometric information.
  • the disclosed biometric authentication apparatus includes an imaging unit that captures an image of a living body to acquire biometric information, an authentication unit that authenticates the registered biometric information registered in advance with the biometric information, Based on the posture information history related to posture, posture determination means for determining stability of the posture of the living body, and update determination means for determining that the registered biological information is to be updated when determined to be stable by the posture determination means. And comprising.
  • the disclosed biometric authentication system includes an imaging unit that captures an image of a living body to acquire biometric information, an authentication unit that authenticates the registered biometric information registered in advance with the biometric information, Based on the posture information history related to the posture of the living body, the posture determining means for determining the stability of the posture of the living body, and the update for determining to update the registered biological information when the posture determining means determines that the posture is stable. Determining means.
  • the disclosed biometric authentication method includes a photographing step of photographing a living body to acquire biometric information, an authentication step of performing authentication by comparing pre-registered registered biometric information with the biometric information, A posture determination step for determining stability of the posture of the living body based on a history of posture information relating to the posture of the living body, and an update for determining that the registered biological information is to be updated when determined to be stable by the posture determination step A determination step.
  • the disclosed biometric authentication device it is possible to perform update processing at an appropriate timing by determining the stability of the posture and prompting the update of the registered biometric information when the posture is stable.
  • FIG. 2A is a diagram illustrating an example of a biological image at a normal position.
  • FIG. 2B is a diagram illustrating an example of a biological image of an abnormal position.
  • FIG. 3A is a diagram for explaining the inclination of the palm with respect to the sensor.
  • FIG. 3B is a diagram illustrating an example of a biological image photographed in the posture of FIG. 3A. It is an image figure of an experimental result. It is a figure which shows the fall of the similarity degree by the change of a biological body.
  • 1 is a block diagram illustrating an example of a functional configuration of a biometric authentication device 1 according to Embodiment 1.
  • FIG. 10 is a block diagram illustrating an example of a functional configuration of a biometric authentication device 2 according to a second embodiment.
  • FIG. 8A is a diagram illustrating a distance Di from the distance sensor to the palm.
  • FIG. 8B is a diagram illustrating coordinates (Xi, Yi) in the XY plane of the distance sensor.
  • FIG. 8C is a diagram illustrating an example of the palm inclination ⁇ . It is a figure which shows the outline of the palm. It is a figure which shows an example of the historical information of attitude
  • 10 is a flowchart illustrating an example of an authentication process and an update determination process in the second embodiment.
  • 10 is a flowchart illustrating an example of detailed processing of update determination processing according to the second embodiment. It is a figure which shows an example of an update notice screen.
  • FIG. 12 is a flowchart illustrating an example of an update determination process according to the third embodiment. It is a block diagram which shows an example of a function structure of the system which performs the door control by biometrics authentication.
  • Example 1 First, an experiment conducted by the inventors to examine the relationship between similarity and posture variation will be described. The inventors conducted the following experiment to examine the history data of the similarity and examine the posture variation.
  • the experimental conditions are as follows. ⁇ Take a picture of the palm vein with a biometric sensor and measure the time course of the similarity ⁇ Measurement is performed three times a day in the morning, noon and evening (2 days a week) -Nine subjects
  • Fig. 4 is an image of the experimental results. As shown in FIG. 4, there is a difference e between the similarity at the time of registration and the similarity when the similarity is stable.
  • This difference is considered to be one of the causes for a beginner who is unfamiliar with the device because the posture of the living body at the time of registration d is inappropriate and the posture of the living body at the time of authentication becomes stable as the number of uses increases. Further, as shown in FIG. 4, the degree of similarity decreases immediately after the start of use. This decrease can be attributed to the fact that posture changes are large immediately after the start of use, and therefore the posture of the living body at the time of registration is different from the posture of the living body at the time of authentication immediately after the start of use.
  • the similarity decreases when a change occurs in the living body itself. For example, in the case of vein authentication, if a small wound is made on the palm and a change occurs in the vein due to blood clots, the similarity is considered to decrease.
  • FIG. 5 is a diagram showing a decrease in similarity due to changes in the living body.
  • F shown in FIG. 5 indicates a decrease in similarity due to a small wound in vein authentication.
  • FIG. 6 is a block diagram illustrating an example of a functional configuration of the biometric authentication device 1 according to the first embodiment.
  • the biometric authentication device 1 authenticates with a sensor unit 10 that provides a sensor function for acquiring feature data (biometric information) used for biometric authentication, registered biometric information, and input biometric information.
  • a biometric authentication unit 20 that performs processing is included.
  • the registered biometric information refers to biometric information that is the basis of authentication registered in the registration database 50.
  • the sensor unit 10 includes a camera unit 101 and an illumination unit 103.
  • the camera unit 101 captures a living body used for registration and authentication, and outputs the captured image to the biometric authentication unit 20.
  • the camera unit 101 includes a CMOS (Complementary Metal-Oxide Semiconductor), a CCD (Charge Coupled Device) element, and the like.
  • the living body includes, for example, a palm vein, a fingerprint, and an iris.
  • CMOS Complementary Metal-Oxide Semiconductor
  • CCD Charge Coupled Device
  • the illumination unit 103 irradiates a living body when performing registration and authentication.
  • the illumination unit 103 may turn on the illumination when the camera unit 101 captures an image.
  • the illumination part 103 has LED (Light * Emitting * Diode).
  • the illumination unit 103 emits near-infrared light in order to photograph a subcutaneous vein.
  • the biometric authentication unit 20 includes an authentication processing unit 30, an update unit 40, a registration database 50, an input unit 60, a display unit 70, and an overall control unit 80.
  • the authentication processing unit 30 compares the living body photographed at the time of registration with the living body photographed at the time of authentication, and determines whether or not the person is the person. Specifically, the authentication processing unit 30 has the following two functions.
  • the feature extraction unit 301 extracts features used for authentication from an image obtained by photographing a living body.
  • features used for authentication In the example of palm vein authentication, only the vein pattern (biological information) is extracted from the image of the palm.
  • the collation processing unit 303 performs a comparison process (collation process) between the biometric information acquired at the time of registration and the biometric information acquired at the time of authentication, and calculates a degree of similarity indicating how much they match. Further, the matching processing unit 303 registers the calculated similarity in the registration database 50. The similarity is registered in the registration database 50 as history information. The biometric information acquired at the time of registration is stored in the registration database 50 as registered biometric information.
  • the update unit 40 determines whether or not to update the registered biometric information based on the similarity history information registered in the registration database 50. If it is determined to update, the update unit 40 performs the update process. Prompt. Specifically, the update unit 40 has the following functions.
  • the posture determination unit 400 determines whether or not the posture at the time of authentication is stable based on the history information of the similarity registered in the registration database 50. Specifically, posture determination unit 400 accumulates, for example, a difference value with the most recent predetermined number of similarities based on the latest similarity, and determines that the posture is stable when the accumulated value is equal to or less than a predetermined value. To do. In addition, posture determination unit 400 determines that the posture is not stable when the accumulated value is greater than a predetermined value. This determination is based on the idea that the stability of the similarity is regarded as the posture stability. The posture determination unit 400 outputs the determination result to the update determination unit 401.
  • the update determination unit 401 determines to update the registered biometric information when the determination result acquired from the posture determination unit 400 is stable, and determines not to update when the determination result indicates that the determination result is not stable. Further, when the update determination unit 401 determines to update, the update determination unit 401 instructs the update transmission unit 403 to notify an update message.
  • the update determination unit 401 may determine that the update is not performed if the similarity having a stable value and the initial similarity are substantially the same in addition to the stability condition for the similarity. Specifically, the update determination unit 401 obtains a difference between the similarity when the value is stable and the initial similarity, and determines that the update is not performed when the difference value is equal to or less than a predetermined value. Moreover, the update determination part 401 determines to update, when this difference value is larger than predetermined value.
  • the update transmission unit 403 When the update transmission unit 403 receives the notification from the update determination unit 401, the update transmission unit 403 notifies the user and the system administrator of a message prompting the update (re-registration) of the registered biometric information. For example, the update transmission unit 403 displays a message on the display unit 70 for the user, and notifies the system administrator of the message by e-mail or the like. The update transmission unit 403 holds the administrator's e-mail address in advance.
  • the update transmission unit 403 may display an updatable date and place in a message to the user when the system administrator is present when updating the registered biometric information.
  • the registration database 50 stores the date and time where the system administrator can attend.
  • the update processing unit 405 updates the registered biometric information of the user when, for example, information necessary for updating the registered biometric information is input by a system administrator or the like.
  • the update processing unit 405 permits the update, the update processing unit 405 overwrites the registered biometric information registered in the registration database 50 with the biometric information extracted by the feature extraction unit 301.
  • the update processing unit 405 detects the degree of similarity at the time of updating, determines whether the degree of similarity is the same as that at the time of posture stabilization, and permits update only when the degree of similarity is substantially the same as that at the time of posture stabilization. May be. Specifically, the update processing unit 405 may obtain a difference between the degree of similarity at the time of updating and the degree of similarity at the time of posture stabilization, and permit the update when the difference is equal to or less than a predetermined threshold.
  • the registration database 50 stores various information required by the biometric authentication device 1. For example, the registration database 50 holds registered biometric information used for biometric authentication of each user. In addition, the registration database 50 manages similarity history information for each user.
  • the input unit 60 is a means for a user to input an ID for identifying himself / herself.
  • Specific means for inputting the ID include a numeric keypad, a non-contact IC card, a keyboard, and a touch panel.
  • the display unit 70 displays an update message or the like to the user or informs the user by voice.
  • the display unit 70 includes a display device such as a CRT (Cathode Ray Tube) or LCD (Liquid Crystal Display), a speaker for audio output, and the like.
  • the overall control unit 80 appropriately calls each unit and executes biometric authentication processing and update processing.
  • the overall control unit 80 is a CPU or the like.
  • the stability of the similarity is regarded as the stability of the posture
  • the biological information is extracted from the image of the living body when the posture is stable, and the extracted biological information is used as the registered biological information. it can.
  • Example 2 Next, the biometric authentication device 2 according to the second embodiment will be described.
  • the posture information of the living body at the time of authentication is detected to determine the stability of the posture of the living body.
  • FIG. 7 is a block diagram illustrating an example of a functional configuration of the biometric authentication device 2 according to the second embodiment.
  • the biometric authentication device 2 includes a sensor unit 11 and a biometric authentication unit 21.
  • the same function as the function shown in FIG. 6 is attached
  • the sensor unit 11 includes a camera unit 101, an illumination unit 103, and a distance sensor unit 105.
  • the distance sensor 105 will be described.
  • the distance sensor unit 105 measures the distance from the distance sensor unit 105 to the living body during registration and authentication.
  • the distance sensor unit 105 has a plurality of distance sensors and outputs the acquired distance information to the biometric authentication unit 21.
  • the biometric authentication unit 21 includes an authentication processing unit 30, an update unit 41, a registration database 51, an input unit 60, a display unit 70, and an overall control unit 80.
  • the update unit 41 and the registration database 51 will be mainly described.
  • the update unit 41 determines whether or not to update the registered biometric information based on the posture of the living body at the time of photographing by the camera unit 101. If it is determined to update, the update unit 41 prompts the user to perform update processing. Specifically, the update unit 41 has the following functions.
  • the posture detection unit 407 performs detection processing of a parameter related to posture (also referred to as posture information) from the image of the living body input from the sensor unit 11 and the data of the distance sensor. Next, a method for acquiring posture information will be described.
  • a parameter related to posture also referred to as posture information
  • Position The palm position (x, y) is a value indicating the palm position.
  • the palm position is defined as the barycentric position of the palm area after the palm area is cut out.
  • the difference ( ⁇ x, ⁇ y) between the obtained center-of-gravity position (x, y) and the reference position (for example, the center position of the screen) (x0, y0) is used as the position parameter of the posture variation amount.
  • the posture variation amount is a posture variation amount that is a difference between posture information and a reference value. This posture variation amount may be regarded as posture information.
  • (x, y) is an absolute value and ( ⁇ x, ⁇ y) is a relative value.
  • ( ⁇ x, ⁇ y) is (0, 0) when the palm is positioned at the center (reference position) of the sensor, and when the palm is displaced from the center, the positional deviation from the center is represented.
  • the center of gravity position (x, y) may be used as the position parameter.
  • ( ⁇ x, ⁇ y) is simply expressed as ⁇ x.
  • the distance d from the sensor unit 11 to the palm is measured using a distance sensor. When there are a plurality of distance sensors, the average value is d.
  • This method uses the fact that the luminance value of the subject decreases as the distance from the illumination increases, and can be realized by holding a relationship table between the luminance value and the distance in advance.
  • FIG. 8A is a diagram showing a distance Di from the distance sensor to the palm.
  • FIG. 8B is a diagram illustrating coordinates (Xi, Yi) in the XY plane of the distance sensor. As shown in FIG. 8, the intersection of the perpendicular extending upward from the distance sensor and the palm is Pi.
  • the posture detection unit 407 calculates parameters (a, b, c) for all possible combinations, and adopts the average value of the calculated parameters to determine the inclination ⁇ . It may be calculated.
  • the palm contour is used as a reference for calculating the palm rotation angle ⁇ .
  • the reason for using the contour of the palm is that the shape of the palm includes many vertical straight lines.
  • the posture detection unit 407 calculates the average direction of the contour line, and calculates the rotation angle ⁇ of the palm using this direction.
  • FIG. 9 is a diagram showing the outline of the palm.
  • the posture detection unit 407 first obtains a contour as shown in FIG. Next, the rotation angle ⁇ is calculated using the obtained contour.
  • the posture detection unit 407 calculates the rotation angle ⁇ by the following procedure. First, the posture detection unit 407 detects a contour line from a palm image by applying a second derivative (Laplacian filter) or the like. Next, the posture detection unit 407 uses Hough transform to determine the direction from the detected contour (edge). The Hough transform is a straight line that can pass through a point Q when a point Q (x, y) exists. ⁇ Distance r from the origin ⁇ Inclination ⁇ This is a conversion method that expresses using these two parameters. The posture detection unit 407 calculates (r, ⁇ ) for each detected point P (x, y) on the edge and plots it in the r ⁇ space.
  • a second derivative Laplacian filter
  • the posture detection unit 407 can determine the rotation angle ⁇ of the palm by calculating ⁇ plotted (voted) in the space after the Hough transform.
  • the rotation parameter in the posture fluctuation amount is a difference ⁇ between the calculated rotation angle ⁇ and a reference line (for example, Y axis).
  • the posture detection unit 407 stores the calculated posture variation amounts ( ⁇ x, ⁇ d, ⁇ , ⁇ ) in the registration database 51 and outputs them to the posture determination unit 409.
  • the posture detection unit 407 does not necessarily need to obtain the posture variation amount, and may store posture information (x, d, ⁇ , ⁇ ) in the registration database 51.
  • x represents the palm position (x, y) together.
  • the posture determination unit 409 acquires the posture variation amount calculated by the posture detection unit 407 and determines whether or not the posture of the living body is stable based on the posture variation amount history information stored in the registration database 51. To do.
  • FIG. 10 is a diagram illustrating an example of posture variation history information. As shown in FIG. 10, in the history information, the date and time when the posture variation amount was acquired (for example, the time at the time of authentication) and the posture variation amount are associated.
  • E (t) w0 ⁇ ⁇ x + w1 ⁇ ⁇ d + w3 ⁇ ⁇ + w4 ⁇ ⁇ Equation (2)
  • ⁇ x max represents the maximum value of the positional variation that can be allowed by the authentication engine.
  • ⁇ x max is 2 (cm).
  • ⁇ d max , ⁇ max , and ⁇ max are the maximum values of variation allowed by the authentication engine.
  • ⁇ d max is 1 (cm)
  • ⁇ max is 10 (degrees)
  • ⁇ max is 20 (degrees).
  • E (t) is a vector that expresses the fluctuation amount as a ratio to the maximum allowable amount.
  • a method of multiplying a weight may be used.
  • the reason why the posture variation amount is multiplied by the weight is that the influence on the authentication is different for each parameter of the posture variation amount. For example, since the position difference ( ⁇ x, ⁇ y) can be corrected only by translation, the influence on authentication is not great. Therefore, w0 is set to a small value.
  • the inclination ⁇ has a great influence on authentication because it is necessary to perform affine transformation and projective transformation as image transformation. Therefore, the value of w2 is increased.
  • the weight is experimentally determined in advance in consideration of the magnitude of the influence on the authentication. Note that normalization coefficients and weights are not necessarily required.
  • the posture determination unit 409 evaluates posture stability based on the calculated posture fluctuation amount E (t). Specifically, the posture determination unit 409 calculates the total value Esum (t) of the inter-vector distances with the posture variation amount E (t) for the past N times.
  • Esum (t) ⁇ 0 ⁇
  • ⁇ 0, ⁇ 1, etc. appearing in the equation (3) represent the weight of the history data. By making the most recent data weight (such as ⁇ 0) larger than other weights, the reliability of stability evaluation can be improved.
  • Esum (t) represents the cumulative amount of posture variation for the past N times from time t. Note that history data weights are not necessarily required.
  • the posture determination unit 409 determines that the posture is stable when the following conditions are satisfied. Esum (t) ⁇ Th1 (Condition 1) Th1 is a threshold value used for posture stability determination. Th1 is, for example, 0.05 (5%). The posture determination unit 409 notifies the update determination unit 411 of the result of the posture stability determination.
  • the posture determination unit 409 uses the value used as the reference value for posture variation as current posture information. Next, the posture determination unit 409 calculates the difference between the past posture information from the current posture information, performs the same processing as described above by using this difference as the posture variation amount, and performs E (t) or Esum (t) can be calculated.
  • the update determination unit 411 determines that the posture at the time of registration is different from the current posture when the following conditions are satisfied. Ereg (t)> Th2 (Condition 2)
  • Th2 is a threshold value used for determining the amount of variation in the posture at the time of registration and the current posture. Th2 is, for example, 0.50. The meaning of 0.50 means that it is determined that the update is necessary when it exceeds 50% with respect to the limit fluctuation.
  • FIG. 11 is a diagram for explaining Esum (t) and Ereg (t).
  • Esum (t) the smaller Esum (t) is, the more stable the posture is, and the larger Ereg (t) is, the different the posture at the time of registration and the stable posture are.
  • the update determination unit 411 determines to update the registered biometric information when the conditions 1 and 2 are satisfied.
  • the update determination unit 411 may determine to update the registered biometric information when only the condition 1 is satisfied regardless of the condition 2.
  • the update determination unit 411 instructs the update transmission unit 413 to notify an update message.
  • the update transmission unit 413 When the update transmission unit 413 receives the notification from the update determination unit 411, the update transmission unit 413 notifies the user and the system administrator of a message prompting the update (re-registration) of the registered biometric information. For example, the update transmission unit 413 displays a message on the display unit 70 for the user, or notifies the system administrator of the message by e-mail or the like. The update transmission unit 413 holds the administrator's e-mail address in advance.
  • the update transmission unit 413 may display an updateable date and time or location in a message to the user when the system administrator is present when updating the registered biometric information.
  • the registration database 51 stores the date and place where the system administrator can attend.
  • the update processing unit 415 updates the registered biometric information of the user when, for example, information necessary for updating the registered biometric information is input by a system administrator or the like. When the update processing unit 415 permits the update, the update processing unit 415 overwrites the registered biometric information registered in the registration database 51 with the biometric information extracted by the feature extraction unit 301.
  • the update processing unit 415 detects the posture information at the time of update, determines whether the posture information is the same as the posture information at the time of stable posture, and permits the update only when the posture information is almost the same as that at the time of stable posture. May be. Specifically, the update processing unit 415 may obtain a difference between the posture information at the time of updating and the posture information at the time of stable posture, and allow the update when the difference is equal to or less than a predetermined threshold value. Accordingly, it is possible to extract biometric information from an image obtained by photographing a living body when the posture is stable, and use the extracted biometric information as registered biometric information.
  • FIG. 12 is a diagram illustrating an example of update date / time history information. The history information of the update date / time is stored for each user.
  • the update determination unit 411 can also determine that the update is not performed when a predetermined period has not elapsed since the previous update. Thereby, it is possible to prevent the user from frequently performing update processing.
  • the registration database 51 stores various information necessary for the biometric authentication device 2.
  • the registration database 51 holds registered biometric information used for biometric authentication of each user.
  • the registration database 51 stores “posture information history information” used by the update determination unit 411 to determine the necessity of update (see FIG. 10).
  • the registration database 51 stores update history information of registered biometric information (see FIG. 12).
  • the biometric authentication device 2 can prompt the update process after the posture of the biometric used for biometric authentication is stabilized.
  • FIG. 13 is a flowchart illustrating an example of the authentication process and the update determination process according to the second embodiment.
  • the authentication processing unit 30 performs an authentication process.
  • the authentication processing unit 30 first acquires an ID input by the user through the input unit 60.
  • the authentication processing unit 30 acquires an image obtained by photographing a living body from the sensor unit 11, and extracts biological information that is a characteristic part.
  • the authentication processing unit 30 acquires registered biometric information corresponding to the ID, compares the extracted biometric information, and calculates the similarity. If the calculated similarity is equal to or greater than a predetermined threshold, the authentication processing unit 30 determines that the person is a registered person.
  • step S12 the update unit 41 determines whether to update the registered biometric information.
  • the update unit 41 determines whether update is necessary based on the posture information of the living body.
  • step S12 if the determination result is YES (update), the process proceeds to step S13, and if the determination result is NO (not updated), the process ends.
  • step S13 the update unit 41 outputs a message that the registered biometric information needs to be updated to the user and / or the system administrator.
  • FIG. 14 is a flowchart illustrating an example of detailed processing of update determination processing according to the second embodiment.
  • the posture determination unit 409 calculates a posture fluctuation amount E (t) shown in Equation (2).
  • step S22 the posture determination unit 409 calculates a cumulative value Esum (t) of posture variation differences shown in Expression (3).
  • step S23 the update determination unit 411 calculates the difference Ereg (t) in posture change from the time of registration shown in Expression (4).
  • step S24 the update determination unit 411 Esum (t) ⁇ Th1 (Condition 1) Ereg (t)> Th2 (Condition 2) It is determined whether Condition 1 and Condition 2 are satisfied. In step S24, if the determination result is YES (both are satisfied), the process proceeds to step S25, and if the determination result is NO (does not satisfy at least one), the process ends.
  • step S25 the update transmission unit 413 outputs a message recommending the update of the registered biometric information.
  • the second embodiment it is possible to perform the update process at an appropriate timing by determining the stability of the posture and prompting the update of the registered biometric information when the posture is stable.
  • the update process is performed at an appropriate timing, the accuracy of the subsequent authentication process can be improved.
  • the update process of the registered biometric information is a burden on the user and is not preferable. In other words, it may be a psychological burden on the user to recommend the update of registered biometric information without notice. Therefore, when newly registering a user, the biometric authentication device 2 uses the update history of the registered biometric information in the registration database 51 to calculate the prediction time from another user's update history to re-registration. Also good. Thereby, it is good also as a structure which reduces a user's burden by notifying a user that registration biometric information may be updated in advance.
  • FIG. 15 is a diagram showing an example of the update notice screen.
  • the example shown in FIG. 15 is an example in which the average period until the update of other users is about one month, and this average period is displayed.
  • palm vein authentication has been described as an example.
  • fingerprint authentication is performed, distance and inclination are not necessary as posture information.
  • the history of similarity is not memorize
  • the biometric authentication device 3 according to the third embodiment will be described.
  • the update process can be performed under favorable external light conditions when updating the registered biometric information.
  • FIG. 16 is a block diagram illustrating an example of a functional configuration of the biometric authentication device 3 according to the third embodiment.
  • the same functions as those shown in FIG. 7 are denoted by the same reference numerals, and the description thereof is omitted.
  • the sensor unit 12 includes a camera unit 107, an illumination unit 103, and a distance sensor unit 105.
  • the camera unit 107 periodically captures images when the illumination unit 103 turns off the illumination, and transmits the captured image to the external environment determination unit 417.
  • the biometric authentication unit 22 includes an authentication processing unit 30, an update unit 42, a registration database 52, an input unit 60, a display unit 70, and an overall control unit 80.
  • the update unit 42 includes an attitude detection unit 407, an attitude determination unit 409, an update determination unit 419, an update transmission unit 413, an update processing unit 415, and an external environment determination unit 417.
  • the external environment determination unit 417 acquires an image when the illumination is OFF (hereinafter also referred to as an illumination OFF image) from the sensor unit 12, and determines whether the external environment is appropriate for performing the update process. Specifically, the external environment determination unit 417 determines the external light intensity based on the luminance value of each pixel of the illumination OFF image.
  • the external light means light other than illumination by the illumination unit 103.
  • the external light is reflected light from sunlight or a window.
  • the external environment determination unit 417 searches for pixels of the illumination OFF image acquired from the sensor unit 12 and counts pixels having a luminance value equal to or greater than a predetermined value.
  • a predetermined value is 240, for example.
  • the external environment determination unit 417 defines the ratio of the count value to all the pixels of the illumination OFF image as the external light intensity, and is not suitable for the update process when the external light intensity is a predetermined value (for example, 5%) or more. Is determined. The external environment determination unit 417 determines that the external light intensity is suitable for the update process when the external light intensity is less than a predetermined value.
  • the external environment determination unit 417 may simply calculate the external light intensity by thinning out the pixels, instead of performing it on all the pixels when determining the external light intensity. Thereby, even if the foreign object which is not normally image
  • the external environment determination unit 417 stores the determination result in the registration database 52.
  • the external environment determination unit 417 determines the external environment by calculating the external light intensity every time the illumination OFF image is acquired, and updates the determination result stored in the registration database 52. Therefore, the registration database 52 holds the latest determination result of the external environment.
  • the update determination unit 419 adds the determination result of the external environment to the update process determination condition in addition to the condition 1 and the condition 2 of the second embodiment. Specifically, the update determination unit 419 acquires the determination result of the external environment from the registration database 52, and indicates that the determination result of the external environment is suitable for the update process, and satisfies the conditions 1 and 2 If it is determined to be updated. Since the subsequent processing is the same as that of the second embodiment, description thereof is omitted.
  • FIG. 17 is a flowchart illustrating an example of the update determination process according to the third embodiment.
  • the same reference numerals are given to the same processing as the processing shown in FIG. 13, and description thereof is omitted.
  • step S31 the update determination unit 419 acquires the determination result of the external environment from the registration database 52, and determines whether the external environment is suitable for the update process. If the determination result in step S31 is YES (external environment OK), the process proceeds to step S13, an update transmission process is performed, and if the determination result is NO (external environment NG), the process ends.
  • the update process unit 415 obtains the latest determination result of the external environment from the registration database 52 so that the update process cannot be performed when the external light intensity is too strong. Good.
  • the update process can be performed under favorable external light conditions when the registered biometric information is updated.
  • FIG. 18 is a block diagram illustrating an example of a functional configuration of a system that performs door control by biometric authentication.
  • a door control unit 90 is connected to the biometric authentication device 2 of the second embodiment.
  • the door control unit 90 controls the opening and closing of the door according to the authentication result of the biometric authentication unit 21. Thereby, door opening / closing control with high security can be performed.
  • the biometric authentication device 2 according to the second embodiment has been described.
  • the door control may be performed using a biometric authentication device according to another embodiment.
  • the biometric authentication device of each embodiment is applicable not only to door control but also to devices that want to enhance security.
  • the biometric authentication unit of each embodiment may be provided in an information processing server connected to a network, and the sensor unit may be configured as a biometric authentication system further provided with an input unit and a display unit.
  • the information processing server having the biometric authentication function may display the authentication result on the display unit of the sensor unit after receiving the captured image from the sensor unit via the network and performing the authentication process.
  • the update processing unit of each embodiment overwrites the registered biometric information having the largest difference (Ereg (t)) between the biometric information to be updated and the posture information. It may be a target.
  • the update processing unit of each embodiment may use the average image of the current registered biometric information and the biometric information to be updated as new registered biometric information instead of overwriting the registered biometric information.
  • biometric authentication process the biometric authentication system, and the biometric authentication method described in each of the above-described embodiments and modifications may be realized as a program for causing a computer to execute.
  • the biometric authentication process described above can be realized by installing this program from a server or the like and causing the computer to execute it.
  • the recording medium is a recording medium that records information optically, electrically, or magnetically, such as a CD-ROM, flexible disk, magneto-optical disk, etc., and information is electrically recorded, such as a ROM, flash memory, etc.
  • Various types of recording media such as a semiconductor memory can be used.

Abstract

 生体を撮影して生体情報を取得する撮影手段と、予め登録された登録生体情報と前記生体情報とを照合して認証を行う認証手段と、撮影時の前記生体の姿勢に関する姿勢情報の履歴に基づいて、前記生体の姿勢の安定性を判定する姿勢判定手段と、前記姿勢判定手段により安定したと判定された場合、前記登録生体情報を更新すると判定する更新判定手段と、を備える生体認証装置を用いる。

Description

生体認証装置、生体認証システム、及び生体認証方法
 本発明は、生体認証を行う生体認証装置、生体認証システム、及び生体認証方法に関する。
 生体認証は、人間の持つ生体的な特徴(手のひら静脈や顔)などに基づいて個人を識別する技術である。生体認証では、まず始めに本人の生体の特徴データを「登録生体情報」として登録しておく。認証の際には、センサ(カメラなど)で取得した特徴データと登録生体情報とを比較し、両者がどの程度似ているかを表す「類似度」を算出し、類似度が所定の閾値を超えている場合に本人であると判定する。
 生体認証の特徴データは、登録時と認証時とで全く同じ姿勢で入力される可能性は低い。ここで、姿勢とは、生体(手のひらや顔など)とセンサの位置関係を表し、具体的には距離や傾き、回転といったパラメータで表現される。
 照合処理の際には一定の姿勢変動を許容するように処理するのが一般的である。例えば入力された特徴データに平行移動や回転などの画像変換を行いながら、画像変換された特徴データと登録生体情報とを比較し、最大の類似度を探索する。多くの場合、類似度が所定の閾値を超えた時点で照合処理を終了させる。よって、登録時と認証時で姿勢の変動が大きい場合、画像変換を行うため照合処理に余計な時間がかかる。また、姿勢変動が一定の範囲を超えると画像変換では補正できなくなるため、認証精度が低下する問題が発生する。
 そこで、認証結果を蓄積し、不認証の頻度に基づいて登録生体情報の再登録が必要であるかを判断し、不認証が多発する使用者に対して登録生体情報の再登録を促す技術が開示されている。また、照合結果の一致度合いが認証判定閾値(90%)以上でかつ再登録判定閾値(93%)以下になったとき、真に再登録が必要であると判定して、利用者に再登録を促す技術が開示されている。
 また、認証時の姿勢を判断して認証精度を高める技術が開発されている。例えば、認証用のマスタデータによる生体認証を行う他に姿勢の相違を検知する機能・手段を設けることで、認証時の姿勢を正すことができ、個人認証の精度を高くする技術が開示されている。
特開2006-99374号公報 特開2008-102770号公報 特開2007-148724号公報
 上述のように生体認証では、登録生体情報を基準として本人かどうかの判定を行うため、登録生体情報の品質が非常に重要である。登録生体情報が不適切であると、認証処理でどのような工夫を加えても補正しきれないため認証エラーが発生する。
 特に画像を使った生体認証の場合、センサに対する生体の「姿勢」が認証精度に大きく影響する。例えば「手のひら静脈認証」の場合、センサに対する手のひらの(1)位置、(2)距離、(3)傾き、(4)回転が姿勢に該当する(図1参照)。
 図1は、手のひら静脈認証におけるセンサに対する手のひらの位置、距離、傾き、回転を説明する図である。図1に示すように、手のひらの「姿勢」を表すパラメータとして位置、距離、傾き、回転が考えられる。以下、手のひらの静脈パターンが同一である場合でも、姿勢によってセンサが取得する画像(生体画像)が異なる場合について説明する。
 図2Aは、正常位置の生体画像の一例を示す図である。図2Bは、異常位置の生体画像の一例を示す図である。
 センサで生体画像を取得する際には、照明をONにして撮影を行う。このとき、生体画像は、照明の強度分布の影響を受ける。照明の強度分布の影響は、照明の強さが視野内で均一ではないことに起因する。また、レンズを使った光学系ではレンズ周辺にいくにつれて、見た目の明るさが低下する周辺減光が起きる。図2Bに示すa部分は、レンズ周辺にあるため、明るさが少し減少している。よって、画像内での位置が変わると領域ごとの見た目の明るさが変わり(例えば図2Bのa参照)、認証処理に悪影響を及ぼす。
 図3Aは、センサに対する手のひらの傾きを説明する図である。図3Aに示すように、手のひらに傾きがあると、センサから近い領域bとセンサから遠い領域cとが生じる。図3Bは、図3Aの姿勢で撮影した生体画像の一例を示す図である。撮影画像は、一般的にセンサから近い領域は明るく、遠い領域は暗くなる。よって、図3Bに示す例では、領域bは明るく写り、領域cは暗く写る。したがって、センサから遠い領域は特徴抽出が難しくなり、また、センサから近すぎて画像が白とびを起こす場合も特徴抽出は難しくなる。
 また、撮影画像はレンズ歪の影響を受ける。一般にレンズ周辺部の方がレンズ歪の影響を大きく受けるため、被写体の姿勢は撮影画像に大きな影響を与える。以上のように、被写体の姿勢は、撮影された生体情報と登録生体情報との類似度にも大きな影響を与える。
 ここで、従来技術にように類似度の低下により再登録(更新)を促す場合、類似度の低下が、被写体の姿勢の不安定さが原因であれば、更新を行っても姿勢の不安定さにより類似度の精度が改善するとは言えない。
 また、従来技術のように、登録時の姿勢を記憶し、認証時に毎回登録時の姿勢に正されるのは利用者にとって煩わしいという問題があった。
 開示の生体認証装置は、生体を撮影して生体情報を取得する撮影手段と、予め登録された登録生体情報と前記生体情報とを照合して認証を行なう認証手段と、撮影時の前記生体の姿勢に関する姿勢情報の履歴に基づいて、前記生体の姿勢の安定性を判定する姿勢判定手段と、前記姿勢判定手段により安定したと判定された場合、前記登録生体情報を更新すると判定する更新判定手段と、を備える。
 また、開示の生体認証システムは、生体を撮影して生体情報を取得する撮影手段と、予め登録された登録生体情報と前記生体情報とを照合して認証を行なう認証手段と、撮影時の前記生体の姿勢に関する姿勢情報の履歴に基づいて、前記生体の姿勢の安定性を判定する姿勢判定手段と、前記姿勢判定手段により安定したと判定された場合、前記登録生体情報を更新すると判定する更新判定手段と、を備える。
 また、開示の生体認証方法は、生体を撮影して生体情報を取得する撮影ステップと、予め登録された登録生体情報と前記生体情報とを照合して認証を行う認証ステップと、撮影時の前記生体の姿勢に関する姿勢情報の履歴に基づいて、前記生体の姿勢の安定性を判定する姿勢判定ステップと、前記姿勢判定ステップにより安定したと判定された場合、前記登録生体情報を更新すると判定する更新判定ステップと、を有する。
 開示の生体認証装置によれば、姿勢の安定性を判定し、姿勢安定時に登録生体情報の更新を促すことで、適切なタイミングで更新処理を行うことができる。
手のひら静脈認証におけるセンサに対する手のひらの位置、距離、傾き、回転を説明する図である。 図2Aは、正常位置の生体画像の一例を示す図である。図2Bは、異常位置の生体画像の一例を示す図である。 図3Aは、センサに対する手のひらの傾きを説明する図である。図3Bは、図3Aの姿勢で撮影した生体画像の一例を示す図である。 実験結果のイメージ図である。 生体の変化による類似度の低下を示す図である。 実施例1に係る生体認証装置1の機能構成の一例を示すブロック図である。 実施例2に係る生体認証装置2の機能構成の一例を示すブロック図である。 図8Aは、距離センサから手のひらまでの距離Diを示す図である。図8Bは、距離センサのXY平面内における座標(Xi,Yi)を示す図である。図8Cは、手のひらの傾きθの一例を示す図である。 手のひらの輪郭を示す図である。 姿勢変動量の履歴情報の一例を示す図である。 Esum(t)とEreg(t)を説明するための図である。 更新日時の履歴情報の一例を示す図である。 実施例2における認証処理と更新判定処理の一例を示すフローチャートである。 実施例2における更新判定処理の詳細処理の一例を示すフローチャートである。 更新予告画面の一例を示す図である。 実施例3に係る生体認証装置2の機能構成の一例を示すブロック図である。 実施例3における更新判定処理の一例を示すフローチャートである。 生体認証によるドア制御を行うシステムの機能構成の一例を示すブロック図である。
 1,2,3 生体認証装置
 10,11,12 センサ部
 20,21,22 生体認証部
 30 認証処理部
 40,41,42 更新部
 50,51,52 登録データベース
 60 入力部
 70 表示部
 80 全体制御部
 101,107 カメラ部
 103 照明部
 105 距離センサ部
 301 特徴抽出部
 303 照合処理部
 400,409 姿勢判定部
 401,411,419 更新判定部
 403,413 更新伝達部
 405,415 更新処理部
 407 姿勢検出部
 417 外部環境判定部
 以下、図面に基づいて実施例について説明する。
 [実施例1]
 まず、発明者達が行った類似度と姿勢変動との関係を調べる実験について説明する。発明者達は、類似度の履歴データを検証し、姿勢変動を調べる以下の実験を行った。実験条件は次のとおりである。
・ 手のひら静脈を生体認証センサで撮影し、類似度の時間経過を測定
・ 測定は朝、昼、夕の一日三回(週休2日)
・ 被験者は9人
 図4は、実験結果のイメージ図である。図4に示すように、登録時の類似度と、類似度が安定したときの類似度には差eがある。この差は、装置に不慣れな初心者の場合、登録時dにおける生体の姿勢が不適切であり、利用回数が増えるにつれ認証時における生体の姿勢が安定することが原因の1つと考えられる。また、図4に示すように、利用開始直後に類似度が低下している。この低下は、利用開始直後は姿勢変動が大きいため、登録時における生体の姿勢と利用開始直後の認証時における生体の姿勢とが異なることに起因すると考えられる。
 従来技術のように、類似度の低下により再登録(更新)を促す場合は、図4に示す類似度が一番低下したt1付近の時点で再登録を促す可能性が高い。しかし、t1の時点では、認証時における生体の姿勢が安定していないため、t1以降に認証精度が改善するとはいえない。
 また、認証処理において、生体自体に変化が生じた場合も類似度は低下する。例えば、静脈認証の場合、手のひらに小さな傷を作り、血の固まりなどにより静脈に変化が生じた場合、類似度が低下すると考えられる。
 図5は、生体の変化による類似度の低下を示す図である。図5に示すfは、静脈認証において小さな傷による類似度低下を示す。従来技術のように、類似度を指標として更新判定を行う場合は、図5に示すf付近の時点で再登録を促してしまう。しかし、小さい傷などは治ればもとの生体に戻るため、図5に示すfでの再登録は適切ではない。前述した実験結果や分析結果を踏まえ、実施例1に係る生体認証装置を以下説明する。
 <機能構成>
 図6は、実施例1に係る生体認証装置1の機能構成の一例を示すブロック図である。図6に示すように、生体認証装置1は、生体認証に用いる特徴データ(生体情報)を取得するためのセンサ機能を提供するセンサ部10、登録生体情報と、入力される生体情報とで認証処理を行う生体認証部20を含む。登録生体情報とは、登録データベース50に登録されている認証の基となる生体情報のことをいう。
 まず、センサ部10について説明する。センサ部10は、カメラ部101、照明部103を含む。
 カメラ部101は、登録および認証の際に用いる生体を撮影し、撮影画像を生体認証部20に出力する。また、カメラ部101は、CMOS(Complementary Metal-Oxide Semiconductor)やCCD(Charge Coupled Device)素子などを有する。生体は、例えば、てのひら静脈や指紋、虹彩などがある。以下、生体はてのひら静脈であるとして説明するが、これに限られない。
 照明部103は、登録および認証を行う際に生体を照射する。なお、照明部103は、カメラ部101による撮影時に照明をONにすればよい。また、照明部103は、LED(Light Emitting Diode)などを有する。手のひら静脈認証では皮下の静脈を撮影する為、照明部103は、近赤外線の光を照射する。
 次に、生体認証部20について説明する。生体認証部20は、認証処理部30、更新部40、登録データベース50、入力部60、表示部70、全体制御部80を含む。
 認証処理部30は、登録時に撮影された生体と、認証時に撮影された生体とを比較し、本人かどうかの判定処理を行う。具体的には認証処理部30は以下の2つの機能を有する。
 特徴抽出部301は、生体を撮影した画像から認証に用いる特徴を抽出する。手のひら静脈認証の例では、手のひらを撮影した画像から静脈パターン(生体情報)のみを抽出する。
 照合処理部303は、登録時に取得された生体情報と認証時に取得された生体情報との比較処理(照合処理)を行い、両者がどの程度一致しているかを表す類似度を算出する。また、照合処理部303は、算出した類似度を登録データベース50に登録する。類似度は、履歴情報として登録データベース50に登録される。なお、登録時に取得された生体情報は、登録生体情報として登録データベース50に記憶されている。
 次に、更新部40は、登録データベース50に登録された類似度の履歴情報に基づいて、登録生体情報を更新するか否かを判定し、更新すると判定された場合は、更新処理を利用者に促す。具体的には、更新部40は、以下の機能を有する。
 姿勢判定部400は、登録データベース50に登録された類似度の履歴情報に基づいて、認証時における姿勢が安定したか否かを判定する。具体的には、姿勢判定部400は、最新の類似度を基準に、例えば直近の所定数の類似度との差分値を累積し、累積値が所定値以下の場合は姿勢が安定したと判断する。また、姿勢判定部400は、累積値が所定値より大きい場合は姿勢が安定していないと判断する。この判定は、類似度の安定を姿勢の安定とみなす考えに基づく。姿勢判定部400は、判定結果を更新判定部401に出力する。
 更新判定部401は、姿勢判定部400から取得した判定結果が安定を示す場合、登録生体情報の更新をすると判定し、判定結果が安定していないを示す場合、更新しないと判定する。また、更新判定部401は、更新すると判定した場合、更新メッセージを通知するよう更新伝達部403に指示する。
 なお、更新判定部401は、類似度の安定性条件に追加して、値が安定した類似度と、初期の類似度とがほぼ同様であれば更新しないと判定してもよい。具体的には、更新判定部401は、値が安定したときの類似度と初期の類似度との差分を求め、この差分値が所定値以下の場合は、更新しないと判定する。また、更新判定部401は、この差分値が所定値より大きい場合は、更新すると判定する。
 更新伝達部403は、更新判定部401から通知を受けると、登録生体情報の更新(再登録)を促すメッセージを利用者とシステム管理者に通知する。更新伝達部403は、例えば、利用者には表示部70にメッセージを表示したり、システム管理者にはメールなどでメッセージを通知したりする。更新伝達部403は、管理者のメールアドレスを予め保持しておく。
 また、更新伝達部403は、登録生体情報の更新時にシステム管理者の立会いがある場合は、利用者に対するメッセージに更新可能な日時や場所を表示してもよい。この場合、例えば登録データベース50にシステム管理者が立会い可能な日時や場所が記憶されている。
 更新処理部405は、例えば、システム管理者などにより、登録生体情報の更新に必要な情報が入力された場合などに、利用者の登録生体情報の更新を行う。更新処理部405は、更新を許可した場合に、特徴抽出部301により抽出された生体情報で、登録データベース50に登録された登録生体情報を上書きする。
 また、更新処理部405は、更新時の類似度を検出して、姿勢安定時の類似度と同様であるかを判定し、姿勢安定時の類似度とほぼ同様である場合にのみ更新を許可してもよい。具体的には、更新処理部405は、更新時の類似度と姿勢安定時の類似度との差分を求め、この差が所定の閾値以下である場合に更新を許可すればよい。
 登録データベース50は、生体認証装置1が必要とする様々な情報を保存する。例えば、登録データベース50は、各利用者の生体認証に用いる登録生体情報を保持する。また、登録データベース50は、類似度の履歴情報をユーザ毎に管理する。
 入力部60は、利用者が自らを特定するためのIDを入力するための手段である。IDを入力する具体的な手段としては、テンキーや非接触ICカード、キーボード、タッチパネルなどがある。
 表示部70は、利用者に対して更新メッセージなどを表示、あるいは、音声で知らせる。具体的には、表示部70は、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)などの表示装置や、音声出力用のスピーカーなどを有する。
 全体制御部80は、各部を適切に呼び出し、生体認証処理や更新処理を実行する。例えば、全体制御部80はCPUなどである。
 これより、実施例1によれば、類似度の安定を姿勢の安定とみなし、姿勢安定時の生体を撮影した画像から生体情報を抽出し、この抽出した生体情報を登録生体情報とすることができる。
 [実施例2]
 次に、実施例2に係る生体認証装置2について説明する。実施例2では、認証時の生体の姿勢情報を検出して、生体の姿勢の安定性を判定する。
 <機能構成>
 図7は、実施例2に係る生体認証装置2の機能構成の一例を示すブロック図である。図7に示すように、生体認証装置2は、センサ部11、生体認証部21を含む。なお、図7に示す機能において図6に示す機能と同様の機能のものは同じ符号を付し、その説明を省略する。
 まず、センサ部11について説明する。センサ部11は、カメラ部101、照明部103、距離センサ部105を含む。以下、距離センサ105について説明する。
 距離センサ部105は、登録および認証の際に、距離センサ部105から生体までの距離を測定する。距離センサ部105は、距離センサを複数保有し、取得した距離情報を生体認証部21に出力する。
 次に、生体認証部21について説明する。生体認証部21は、認証処理部30、更新部41、登録データベース51、入力部60、表示部70、全体制御部80を含む。以下、更新部41、登録データベース51について主に説明する。
 更新部41は、カメラ部101による撮影時における生体の姿勢に基づいて、登録生体情報を更新するか否かを判定し、更新すると判定された場合は、更新処理を利用者に促す。具体的には、更新部41は、以下の機能を有する。
 姿勢検出部407は、センサ部11から入力された生体の画像および距離センサのデータから姿勢に係るパラメータ(姿勢情報ともいう)の検出処理を行う。次に、姿勢情報の取得方法について説明する。
 (1)位置
 手のひらの位置(x,y)は、手のひらの位置を示す値である。また、手のひらの位置は、手のひら領域を切り出した後に、手のひら領域の重心位置として定義する。求めた重心位置(x,y)と基準位置(例えば画面の中心位置)(x0,y0)との差分(Δx,Δy)を、姿勢変動量の位置パラメータとする。姿勢変動量とは、姿勢情報と、基準値との差を姿勢変動量という。なお、この姿勢変動量は、姿勢情報とみなされてもよい。
 つまり、(x,y)は絶対値であり、(Δx,Δy)は相対値である。位置パラメータは、手のひらがセンサの中心(基準位置とする)に位置する場合、(Δx,Δy)は(0,0)となり、中心からずれた場合は中心からの位置ずれを表す。また、位置パラメータは、重心位置(x,y)を用いてもよい。また、以下では(Δx,Δy)を単にΔxと表現する。
 (2)距離
 センサ部11から手のひらまでの距離dは、距離センサを用いて測定する。距離センサが複数備わっている場合は、平均値をdとする。姿勢変動量の距離パラメータは、距離dと基準距離との差分Δdとする。例えば、センサ部11と手のひらの基準距離が5cmであって、実際に撮影したときの距離dが4cmであれば、距離パラメータは、Δd=4-5=-1(cm)となる。
 また、距離センサを用いる方法以外にも輝度値を用いて距離を求める方法がある。この方法は、照明からの距離が離れるほど被写体の輝度値が低下することを用いる方法で、予め輝度値と距離の関係テーブルを保持しておくことで実現可能となる。
 (3)傾き
 まず、3次元の平面を表す式は、以下の通りである。
aX+bY+cZ+1=0   式(1)
独立な変数は(X,Y,Z)の3つであるため、平面上の3点を決めれば平面を表すことができる。そこで、距離センサを3つ備える構成を考える。ここで、Diは、i番目の距離センサの測定値(距離センサから手のひらまでの測定値)とする。また、距離センサのXY平面内における座標を(Xi,Yi)とすると、点Pi(Xi,Yi,Di)が手のひら上に存在することになる。
 図8Aは、距離センサから手のひらまでの距離Diを示す図である。図8Bは、距離センサのXY平面内における座標(Xi,Yi)を示す図である。図8に示すように、距離センサから上方に伸ばした垂線と手のひらとの交点がPiとなる。
 3つの距離センサから求めたPi(i=1,2,3)の座標を式1に当てはめ、連立方程式を解くことで、姿勢検出部401はパラメータ(a,b,c)を算出する。パラメータ(a,b,c)は手のひらを近似した平面を記述するパラメータであるため、姿勢検出部407はこのパラメータを用いて傾きθを算出する。
 傾きθは、図8Cを用いて説明する。図8Cは、手のひらの傾きθの一例を示す図である。図8Cに示す傾きθは、Y-Z平面(X=0)内での傾きに該当するため、式1の平面式にX=0を代入して直線の式bY+cZ=-1の傾きから算出される。具体的には、姿勢検出部407はtanθ=b/cから傾きθを算出することができる。
 なお、距離センサが3個以上ある場合、姿勢検出部407は、可能なすべての組み合わせに対してパラメータ(a,b,c)を算出し、算出したパラメータの平均値を採用して傾きθを算出してもよい。姿勢変動量における傾きパラメータは、算出されたθと基準平面(例えばX=0平面)との差分Δθとする。
 (4)回転
 手のひらの回転角Ωの算出基準として手のひらの輪郭が用いられる。手のひらの輪郭を用いる理由は、手のひらの形状に縦方向の直線が多く含まれるためである。姿勢検出部407は、輪郭線の平均的な方向を算出し、この方向を用いて手のひらの回転角Ωを算出する。
 図9は、手のひらの輪郭を示す図である。姿勢検出部407は、まず、図9に示すような輪郭を求める。次に求めた輪郭を用いて回転角Ωを算出する。
 具体的には、姿勢検出部407は、以下の手順で回転角Ωを算出する。まず、姿勢検出部407は、手のひら画像から輪郭線を2次微分(ラプラシアンフィルタ)などを適用することで検出する。次に、姿勢検出部407は、検出した輪郭(エッジ)から方向を決めるには、ハフ変換を用いる。ハフ変換は、ある点Q(x,y)が存在した時、点Qを通り得る直線を、
・原点からの距離r
・傾きθ
の2つのパラメータを使って表現する変換方法である。姿勢検出部407は、検出した全てのエッジ上の点P(x,y)に対し、(r、θ)を計算してr-θ空間へプロットする。このとき、元の画像(手のひらの輪郭画像)に特定の傾きが多く含まれる場合、該当するθ上に多くの点がプロットされる。つまり、姿勢検出部407は、ハフ変換後の空間で数多くプロット(投票)されたθを算出することによって、手のひらの回転角Ωを決定することができる。姿勢変動量における回転パラメータは、算出された回転角Ωと基準線(例えばY軸)との差分ΔΩとする。
 また、姿勢検出部407は、算出した姿勢変動量(Δx,Δd,Δθ,ΔΩ)を登録データベース51に記憶するとともに、姿勢判定部409に出力する。
 なお、姿勢検出部407は、必ずしも姿勢変動量を求める必要はなく、姿勢情報(x,d,θ,Ω)を登録データベース51に記憶するようにしてもよい。なお、ここでのxは手のひらの位置(x,y)をまとめて表現している。
 姿勢判定部409は、姿勢検出部407により算出された姿勢変動量を取得し、登録データベース51に記憶される姿勢変動量の履歴情報に基づいて、生体の姿勢が安定しているか否かを判定する。
 図10は、姿勢変動量の履歴情報の一例を示す図である。図10に示すように、履歴情報は、姿勢変動量が取得された日時(例えば、認証時の時刻)と、姿勢変動量とが関連付けられている。
 姿勢判定部409は、姿勢変動量の各要素に対して、正規化係数W=(w0、w1、w2、w3)を掛け合わせた姿勢変動量E(t)を算出する。
E(t)=w0×Δx+w1×Δd+w3×Δθ+w4×ΔΩ  式(2)
正規化係数Wは、認証エンジンが許容する姿勢量に対する上限値を用いて次のように表す。
W=((1/Δxmax),(1/Δdmax),(1/Δθmax),(1/ΔΩmax))
 ここで、Δxmaxは、認証エンジンが許容できる位置変動量の最大値を表す。例えば、Δxmaxは2(cm)とする。また、Δdmax、Δθmax、ΔΩmaxも同様に認証エンジンが許容する変動量の最大値であり、例えば、Δdmaxは1(cm)、Δθmaxは10(度)、ΔΩmaxは20(度)とする。E(t)は、変動量を最大許容量に対する比で表現するベクトルとなる。
 また、正規化係数を用いる他にも、ウェイトを掛ける方法を用いてもよい。姿勢変動量にウェイトを掛ける理由は、姿勢変動量のパラメータ毎に認証に与える影響が異なるためである。例えば、位置の差(Δx,Δy)は平行移動のみで補正できるため認証に与える影響は大きくない。よって、w0は小さい値にする。
 一方、傾きθは、画像変換としてアフィン変換や射影変換を行う必要があるため、認証に与える影響は大きい。よって、w2の値を大きくする。前述したように、認証に与える影響の大きさを考慮して実験的にウェイトを予め定めておく。なお、正規化係数やウェイトは必ずしも必要ではない。
 次に、姿勢判定部409は、算出した姿勢変動量E(t)に基づいて姿勢の安定性を評価する。具体的には、姿勢判定部409は、過去N回分の姿勢変動量E(t)とのベクトル間距離の累計値Esum(t)を算出する。
Esum(t)=α0×|E(t)-E(t-1)|+α1×|E(t)-E(t-2)|+・・・・+αN-1×|E(t)-E(t-N)|  式(3)
 ここで、式(3)に現れるα0、α1などは、履歴データのウェイトを表す。直近データウェイト(α0など)を他のウェイトより大きくすることで、安定性評価の信頼性を高めることができる。Esum(t)は、t時点から過去N回分の姿勢変動量の累積を表す。なお、履歴データのウェイトは必ずしも必要ではない。
 また、姿勢判定部409は、以下の条件を満たすときに姿勢が安定したと判定する。
Esum(t)<Th1  (条件1)
Th1は、姿勢の安定性判定に用いる閾値である。Th1は例えば0.05(5%)とする。姿勢判定部409は、姿勢の安定性判定の結果を更新判定部411に通知する。
 なお、姿勢判定部409は、姿勢変動量ではなく姿勢情報を用いる場合、姿勢変動量の基準値として用いた値を現在の姿勢情報とする。次に、姿勢判定部409は、現在の姿勢情報から過去の姿勢情報の差分を算出し、この差分を姿勢変動量とすることで前述した処理と同様の処理を行って、E(t)やEsum(t)を算出することができる。
 更新判定部411は、登録生体情報の姿勢変動量E(0)と現在の生体情報の姿勢変動量E(t)の差Ereg(t)を算出する。
Ereg(t)=|E(0)-E(t)|  式(4)
更新判定部411は、以下の条件を満たすとき、登録時の姿勢と現在の姿勢とが異なると判定する。
Ereg(t)>Th2  (条件2)
Th2は、登録時と現在の姿勢の変動量の大きさ判定に用いる閾値である。Th2は、例えば0.50とする。0.50の意味は、限界変動に対して50%を超える場合に更新が必要と判定するという意味である。
 図11は、Esum(t)とEreg(t)を説明するための図である。図11に示す例では、Nは4である。図11に示すように、Esum(t)が小さいほど姿勢が安定していることを示し、Ereg(t)が大きいほど、登録時の姿勢と安定時の姿勢とが異なることを示す。
 また、更新判定部411は、条件1かつ条件2を満たすときに、登録生体情報の更新をすると判定する。なお、更新判定部411は、条件2に関係なく条件1のみを満たすときに登録生体情報の更新を行うと判定してもよい。更新判定部411は、更新すると判定した場合、更新メッセージを通知するよう更新伝達部413に指示する。
 更新伝達部413は、更新判定部411から通知を受けると、登録生体情報の更新(再登録)を促すメッセージを利用者とシステム管理者に通知する。更新伝達部413は、例えば、利用者には表示部70にメッセージを表示したり、システム管理者にはメールなどでメッセージを通知したりする。更新伝達部413は、管理者のメールアドレスを予め保持しておく。
 また、更新伝達部413は、登録生体情報の更新時にシステム管理者の立会いがある場合は、利用者に対するメッセージに更新可能な日時や場所を表示してもよい。この場合、登録データベース51にシステム管理者が立会い可能な日時や場所が記憶されている。
 更新処理部415は、例えば、システム管理者などにより、登録生体情報の更新に必要な情報が入力された場合などに、利用者の登録生体情報の更新を行う。更新処理部415は、更新を許可した場合に、特徴抽出部301により抽出された生体情報で、登録データベース51に登録された登録生体情報を上書きする。
 また、更新処理部415は、更新時の姿勢情報を検出して、姿勢安定時の姿勢情報と同様であるかを判定し、姿勢安定時の姿勢情報とほぼ同様である場合にのみ更新を許可してもよい。具体的には、更新処理部415は、更新時の姿勢情報と姿勢安定時の姿勢情報との差分を求め、この差が所定の閾値以下である場合に更新を許可すればよい。これより、姿勢安定時の生体を撮影した画像から生体情報を抽出し、この抽出した生体情報を登録生体情報とすることができる。
 更新処理部415は、登録生体情報が更新された場合、更新された日時を登録データベース51に記憶する。図12は、更新日時の履歴情報の一例を示す図である。更新日時の履歴情報は、利用者ごとに記憶する。
 更新日時を記憶しておくことで、更新判定部411は、前回の更新から所定期間経過していない場合は、更新しないと判定することもできる。これにより、利用者に頻繁に更新処理を行わせることを防ぐことができる。
 図7に戻り、登録データベース51は、生体認証装置2が必要とする様々な情報を保存する。例えば、登録データベース51は、各利用者の生体認証に用いる登録生体情報を保持する。また、登録データベース51は、更新判定部411が更新の必要性の判定に使用する「姿勢情報の履歴情報」を保存する(図10参照)。さらに、登録データベース51は、登録生体情報の更新履歴情報を保存する(図12参照)。
 以上、生体認証装置2は、生体認証に用いる生体の姿勢が安定した後に更新処理を促すことができる。
 <動作>
 次に、生体認証装置2の動作について説明する。図13は、実施例2における認証処理と更新判定処理の一例を示すフローチャートである。ステップS11において、認証処理部30は、認証処理を行う。認証処理部30は、まず、利用者が入力部60により入力したIDを取得する。次に、認証処理部30は、センサ部11から生体を撮影した画像を取得し、特徴部である生体情報を抽出する。次に、認証処理部30は、IDに対応する登録生体情報を取得し、抽出した生体情報と照合を行って類似度を算出する。認証処理部30は、算出した類似度が所定の閾値以上であった場合は、登録された本人であると判定する。
 ステップS12において、更新部41は、登録生体情報の更新判定を行う。更新部41は、生体の姿勢情報に基づいて更新の要否を判定する。ステップS12において、判定結果がYES(更新する)の場合はステップS13に進み、判定結果がNO(更新しない)の場合は処理を終了する。
 ステップS13において、更新部41は、登録生体情報の更新が必要であるとのメッセージを利用者及び/又はシステム管理者に出力する。
 次に、図13に示すステップS12とS13の詳細な処理について説明する。図14は、実施例2における更新判定処理の詳細処理の一例を示すフローチャートである。ステップS21において、姿勢判定部409は、式(2)に示す姿勢変動量E(t)を算出する。
 ステップS22において、姿勢判定部409は、式(3)に示す姿勢変動差の累計値Esum(t)を算出する。
 ステップS23において、更新判定部411は、式(4)に示す登録時からの姿勢変動の差Ereg(t)を算出する。
 ステップS24において、更新判定部411は、
Esum(t)<Th1  (条件1)
Ereg(t)>Th2  (条件2)
条件1かつ条件2を満たすか否かを判定する。ステップS24において、判定結果がYES(両方満たす)の場合はステップS25に進み、判定結果がNO(少なくとも1つ満たさない)の場合は処理を終了する。
 ステップS25において、更新伝達部413は、登録生体情報の更新を勧めるメッセージを出力する。
 以上、実施例2によれば、姿勢の安定性を判定し、姿勢安定時に登録生体情報の更新を促すことで、適切なタイミングで更新処理を行うことができる。また、適切なタイミングで更新処理を行った場合は、以降の認証処理の精度を向上させることができる。
 なお、一般に登録生体情報の更新処理は利用者にとって負担であり、好ましいものとは言えない。つまり、予告なしに登録生体情報の更新を勧めることは利用者にとって心理的な負担となるケースがある。そのため、生体認証装置2は、新規に利用者を登録する際には、登録データベース51の登録生体情報の更新履歴を使って他の利用者の更新履歴から再登録までの予測時期を計算してもよい。これにより、事前に登録生体情報の更新の可能性があることを利用者に通知することによって、利用者の負担を低減する構成としてもよい。
 図15は、更新予告画面の一例を示す図である。図15に示す例は、他の利用者の更新までの平均期間は約1ヶ月であり、この平均期間を表示している例である。
 なお、実施例2では、手のひらの静脈認証を例に挙げて説明したが、指紋認証を行う場合は、姿勢情報として距離や傾きは必要ない。また、実施例2では、登録データベース51に類似度の履歴を記憶しないため、ネットワークを用いての攻撃(例えば、ヒルクライミング攻撃)にも強い。
 [実施例3]
 次に、実施例3に係る生体認証装置3について説明する。実施例3では、外光強度などの外部環境の評価を行うことで、登録生体情報の更新時に、良好な外光条件で更新処理を行うことができる。
 <機能構成>
 図16は、実施例3に係る生体認証装置3の機能構成の一例を示すブロック図である。図16に示す機能において、図7に示す機能と同様の機能のものは同じ符号を付し、その説明を省略する。
 センサ部12は、カメラ部107、照明部103、距離センサ部105を含む。カメラ部107は、実施例2の機能に加え、照明部103による照明OFF時に定期的に撮影し、撮影画像を外部環境判定部417に送信する。
 生体認証部22は、認証処理部30、更新部42、登録データベース52、入力部60、表示部70、全体制御部80を含む。以下、更新部42、登録データベース52について説明する。更新部42は、姿勢検出部407、姿勢判定部409、更新判定部419、更新伝達部413、更新処理部415、外部環境判定部417を含む。
 外部環境判定部417は、センサ部12から照明OFF時の画像(以下、照明OFF画像ともいう)を取得し、外部環境が更新処理を行うのに適切であるかを判定する。具体的には、外部環境判定部417は、照明OFF画像の各画素の輝度値に基づいて、外光強度を判定する。ここで、外光とは、照明部103による照明以外の光を意味する。例えば、外光は太陽光や窓などによる反射光である。
 外部環境判定部417は、センサ部12から取得した照明OFF画像の画素を探索し、所定値以上の輝度値を有する画素をカウントする。ここで、カメラの輝度値の範囲が0~255とした場合に、所定値は例えば240とする。
 また、外部環境判定部417は、カウント値が照明OFF画像の全画素に占める割合を外光強度と定義し、外光強度が所定値(例えば5%)以上の場合に、更新処理にふさわしくないと判定する。また、外部環境判定部417は、外光強度が所定値未満の場合に、更新処理に好適であると判定する。
 なお、外部環境判定部417は、外光強度を求める際、全画素に対して行うのではなく、画素を間引いて簡易に外光強度を求めてもよい。これにより、照明OFF画像に通常撮影されない異物が撮影されていたとしても、異物の影響を小さくすることができる。
 次に、外部環境判定部417は、判定結果を登録データベース52に記憶する。外部環境判定部417は、照明OFF画像を取得する度に外光強度を算出して外部環境の判定を行い、登録データベース52に記憶される判定結果を更新する。よって、登録データベース52は、外部環境の最新の判定結果を保持する。
 更新判定部419は、実施例2の条件1と条件2とに加え、外部環境の判定結果を更新処理判定条件に加える。具体的には、更新判定部419は、登録データベース52から外部環境の判定結果を取得し、外部環境の判定結果が更新処理に好適であることを示す場合、かつ、条件1及び条件2を満たす場合に更新すると判定する。以降の処理は実施例2と同様であるため説明を省略する。
 <動作>
 図17は、実施例3における更新判定処理の一例を示すフローチャートである。図17に示す処理において、図13に示す処理と同様の処理を行うものは同じ符号を付し、その説明を省略する。
 ステップS31において、更新判定部419は、登録データベース52から外部環境の判定結果を取得し、更新処理に好適な外部環境か否かを判定する。ステップS31における判定結果がYES(外部環境OK)の場合、ステップS13に進み、更新伝達処理を行い、判定結果がNO(外部環境NG)の場合、処理を終了する。
 なお、更新伝達処理を行ってから実際に更新処理を行う場合、タイムラグがある場合がある。このとき、実際に更新処理を行う場合にも、更新処理部415が登録データベース52から最新の外部環境の判定結果を取得することで、外光強度が強すぎる場合などは更新処理を不可としてもよい。
 以上、実施例3によれば、外光強度などの外部環境の評価を行うことで、登録生体情報の更新時に、良好な外光条件で更新処理を行うことができる。
 [変形例]
 次に、前述した各実施例の生体認証装置の変形例について説明する。図18は、生体認証によるドア制御を行うシステムの機能構成の一例を示すブロック図である。図18に示すように、実施例2の生体認証装置2にドア制御部90が接続されている。ドア制御部90は、生体認証部21の認証結果に応じてドアの開閉を制御する。これにより、セキュリティの高いドアの開閉制御を行うことができる。
 また、図18では、実施例2の生体認証装置2を用いて説明したが、他の実施例に係る生体認証装置を用いてドア制御を行ってもよい。また、各実施例の生体認証装置は、ドア制御に限らず、セキュリティを強化したいものなどにも適用可能である。
 また、他の変形例として、各実施例の生体認証部をネットワークに接続する情報処理サーバに設け、センサ部にはさらに入力部と表示部とを設ける生体認証システムとして構成してもよい。この場合、生体認証機能を有する情報処理サーバは、センサ部からネットワークを介して撮影画像を受信し、認証処理を行った後に、認証結果をセンサ部の表示部などに表示してもよい。
 また、各実施例の更新処理部は、登録データベースに複数の登録生体情報が記憶されている場合、更新対象の生体情報と最も姿勢情報の差(Ereg(t))が大きい登録生体情報を上書き対象としてもよい。
 また、各実施例の更新処理部は、登録生体情報を上書きするのではなく、現在の登録生体情報と更新対象の生体情報との平均画像を新しい登録生体情報としてもよい。これにより、姿勢変動に対する改善度合いは緩やかになるものの、認証精度の急激な変化を抑えることができる。また、前述した各所定値や閾値は、それぞれ実験を行って適切な値を設定すればよい。
 また、前述した各実施例や変形例で説明した生体認証処理、生体認証システム、生体認証方法は、コンピュータに実行させるためのプログラムとして実現されてもよい。このプログラムをサーバ等からインストールしてコンピュータに実行させることで、前述した生体認証処理を実現することができる。
 また、このプログラムを記録媒体(CD-ROMやSDカード等)に記録し、このプログラムが記録された記録媒体をコンピュータや携帯端末に読み取らせて、前述した生体認証処理を実現させることも可能である。なお、記録媒体は、CD-ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的,電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。
 以上、実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。

Claims (11)

  1.  生体を撮影して生体情報を取得する撮影手段と、
     予め登録された登録生体情報と前記生体情報とを照合して認証を行なう認証手段と、
     撮影時の前記生体の姿勢に関する姿勢情報の履歴に基づいて、前記生体の姿勢の安定性を判定する姿勢判定手段と、
     前記姿勢判定手段により安定したと判定された場合、前記登録生体情報を更新すると判定する更新判定手段と、
     を備える生体認証装置。
  2.  撮影時の前記生体の姿勢を示す前記姿勢情報を検出する検出手段をさらに備え、
     前記姿勢判定手段は、
     検出された前記姿勢情報に基づいて前記生体の姿勢の安定性を判定する請求項1記載の生体認証装置。
  3.  前記姿勢判定手段は、
     所定数の認証時の前記姿勢情報と基準情報との差分値の累積値を算出し、該累積値が第1所定値以下の場合に安定したと判定し、
     前記更新判定手段はさらに、
     登録時の前記姿勢情報と認証時の前記姿勢情報との差分値が第2所定値以上の場合に、前記登録生体情報を更新すると判定する請求項1又は2記載の生体認証装置。
  4.  前記撮影手段により照明OFF時に撮影された画像の各画素における輝度値に基づいて、外光の強さを示す外光強度を判定する外部環境判定手段をさらに備え、
     前記更新判定手段はさらに、
     前記外部環境判定手段により前記外光強度が正常であると判定された場合に、前記登録生体情報を更新すると判定する請求項1乃至3いずれか一項に記載の生体認証装置。
  5.  前記外部環境判定手段は、
     前記輝度値が第4所定値以上である画素が、前記画像の全画素に占める割合を前記外光強度とし、前記外光強度が第3所定値以内の場合に、前記外光強度が正常であると判定する請求項4記載の生体認証装置。
  6.  前記更新判定手段により更新すると判定された場合、前記登録生体情報の更新を行う更新手段をさらに備える請求項1乃至5いずれか一項に記載の生体認証装置。
  7.  前記更新手段は、
     更新対象の生体情報における前記姿勢情報と、姿勢安定時の前記姿勢情報との差分値が第5所定値以下の場合に、該更新対象の生体情報を用いて更新する請求項6記載の生体認証装置。
  8.  前記姿勢情報は、予め設定された基準面と前記生体との距離、予め設定された基準位置からの前記生体の位置、予め設定された基準面からの前記生体の傾き、予め設定された基準位置からの前記生体の回転のうち、少なくも1つを含む請求項1乃至7何れか一項に記載の生体認証装置。
  9.  前記姿勢情報は、前記登録生体情報と前記生体情報との類似度とする請求項1記載の生体認証装置。
  10.  生体を撮影して生体情報を取得する撮影手段と、
     予め登録された登録生体情報と前記生体情報とを照合して認証を行う認証手段と、
     撮影時の前記生体の姿勢に関する姿勢情報の履歴に基づいて、前記生体の姿勢の安定性を判定する姿勢判定手段と、
     前記姿勢判定手段により安定したと判定された場合、前記登録生体情報を更新すると判定する更新判定手段と、
     を備える生体認証システム。
  11.  生体を撮影して生体情報を取得する撮影ステップと、
     予め登録された登録生体情報と前記生体情報とを照合して認証を行う認証ステップと、
     撮影時の前記生体の姿勢に関する姿勢情報の履歴に基づいて、前記生体の姿勢の安定性を判定する姿勢判定ステップと、
     前記姿勢判定ステップにより安定したと判定された場合、前記登録生体情報を更新すると判定する更新判定ステップと、
     を有する生体認証方法。
PCT/JP2009/065905 2009-09-11 2009-09-11 生体認証装置、生体認証システム、及び生体認証方法 WO2011030441A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
EP09849220.0A EP2477155B1 (en) 2009-09-11 2009-09-11 Biometric authentication device, biometric authentication system, and biometric authentication method
CN200980161368.3A CN102483845B (zh) 2009-09-11 2009-09-11 生物体认证装置、生物体认证系统和生物体认证方法
KR1020127006291A KR101341212B1 (ko) 2009-09-11 2009-09-11 생체 인증 장치, 생체 인증 시스템, 및 생체 인증 방법
JP2011530695A JP5382127B2 (ja) 2009-09-11 2009-09-11 生体認証装置、生体認証システム、及び生体認証方法
PCT/JP2009/065905 WO2011030441A1 (ja) 2009-09-11 2009-09-11 生体認証装置、生体認証システム、及び生体認証方法
US13/416,379 US9373047B2 (en) 2009-09-11 2012-03-09 Biometric authentication device, biometric authentication system, and biometric authentication method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/065905 WO2011030441A1 (ja) 2009-09-11 2009-09-11 生体認証装置、生体認証システム、及び生体認証方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/416,379 Continuation US9373047B2 (en) 2009-09-11 2012-03-09 Biometric authentication device, biometric authentication system, and biometric authentication method

Publications (1)

Publication Number Publication Date
WO2011030441A1 true WO2011030441A1 (ja) 2011-03-17

Family

ID=43732126

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/065905 WO2011030441A1 (ja) 2009-09-11 2009-09-11 生体認証装置、生体認証システム、及び生体認証方法

Country Status (6)

Country Link
US (1) US9373047B2 (ja)
EP (1) EP2477155B1 (ja)
JP (1) JP5382127B2 (ja)
KR (1) KR101341212B1 (ja)
CN (1) CN102483845B (ja)
WO (1) WO2011030441A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013145280A1 (ja) * 2012-03-30 2013-10-03 富士通株式会社 生体認証装置、生体認証方法及び生体認証用コンピュータプログラム
JP2013214144A (ja) * 2012-03-30 2013-10-17 Fujitsu Ltd 生体情報管理装置、認証装置、生体情報管理方法及び生体情報管理プログラム
JP2014180435A (ja) * 2013-03-19 2014-09-29 Fujitsu Ltd 生体情報入力装置、生体情報入力プログラム、生体情報入力方法
JP2015036895A (ja) * 2013-08-13 2015-02-23 Kddi株式会社 更新装置、方法及びプログラム
JP2015106386A (ja) * 2013-12-02 2015-06-08 富士通株式会社 生体情報抽出装置、生体情報抽出方法、および生体情報抽出プログラム
WO2018173649A1 (ja) * 2017-03-23 2018-09-27 富士フイルム株式会社 薬剤認識装置、薬剤認識方法、及び薬剤認識プログラム
CN109977746A (zh) * 2017-12-27 2019-07-05 韩国电子通信研究院 用于登记面部姿态以用于面部识别的设备和方法

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10140537B2 (en) * 2012-10-26 2018-11-27 Daon Holdings Limited Methods and systems for capturing biometric data
US9245100B2 (en) 2013-03-14 2016-01-26 Google Technology Holdings LLC Method and apparatus for unlocking a user portable wireless electronic communication device feature
DE102013208654A1 (de) * 2013-05-10 2014-11-13 Iris-Gmbh Infrared & Intelligent Sensors Sensorsystem und Verfahren zur Aufnahme eines Handvenenmusters
JP6151858B2 (ja) 2014-06-12 2017-06-21 日立マクセル株式会社 情報処理装置、アプリケーションソフトウェア起動システム及びアプリケーションソフトウェア起動方法
WO2016049898A1 (zh) 2014-09-30 2016-04-07 华为技术有限公司 身份认证的方法、装置及用户设备
JP6531395B2 (ja) * 2015-01-08 2019-06-19 富士通株式会社 三次元形状測定装置、三次元形状測定方法、及び、プログラム
JP6756087B2 (ja) * 2015-03-10 2020-09-16 カシオ計算機株式会社 生体認証装置およびその駆動制御方法
US10055661B2 (en) * 2015-03-24 2018-08-21 Intel Corporation Skin texture-based authentication
US10516993B2 (en) 2015-04-01 2019-12-24 Samsung Electronics Co., Ltd Method and apparatus for establishing wireless communications connection
JP6776559B2 (ja) 2016-03-03 2020-10-28 富士通株式会社 生体画像処理装置、生体画像処理方法および生体画像処理プログラム
WO2017200153A1 (ko) * 2016-05-16 2017-11-23 한국과학기술원 360도 영상 재생 시 사용자 단말 기울기 정보를 이용하여 재생 영역을 보정하는 방법 및 시스템
WO2018154694A1 (ja) * 2017-02-23 2018-08-30 富士通フロンテック株式会社 生体認証プログラム、生体認証装置および生体認証方法
JP7052256B2 (ja) * 2017-08-25 2022-04-12 富士通株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
CN108090415A (zh) * 2017-11-24 2018-05-29 江西智梦圆电子商务有限公司 一种基于人脸和掌静脉识别的身份比对方法
WO2019116895A1 (ja) * 2017-12-12 2019-06-20 株式会社東海理化電機製作所 生体情報認証装置
JP6751072B2 (ja) * 2017-12-27 2020-09-02 株式会社日立製作所 生体認証システム
WO2019173011A1 (en) * 2018-03-09 2019-09-12 Apple Inc. Electronic device including contactless palm biometric sensor and related methods
JP2020021406A (ja) * 2018-08-03 2020-02-06 株式会社東海理化電機製作所 生体情報認証装置
KR20200110064A (ko) 2019-03-15 2020-09-23 삼성전자주식회사 변환 모델을 이용한 인증 방법 및 장치

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005084815A (ja) * 2003-09-05 2005-03-31 Toshiba Corp 顔認識装置、顔認識方法および通行制御装置
JP2006026427A (ja) * 2005-08-25 2006-02-02 Hitachi Ltd 個人認証装置
JP2006099374A (ja) 2004-09-29 2006-04-13 Oki Electric Ind Co Ltd 生体情報照合装置および生体情報照合システム
JP2006198102A (ja) * 2005-01-19 2006-08-03 Sony Corp 認証装置、更新時期検出方法及びプログラム
JP2007148724A (ja) 2005-11-28 2007-06-14 Hitachi Omron Terminal Solutions Corp 個人認証システム、および個人認証プログラム
JP2008079680A (ja) * 2006-09-26 2008-04-10 Hitachi Software Eng Co Ltd 生体情報認証装置及び生体情報による個人認証方法
JP2008102770A (ja) 2006-10-19 2008-05-01 Sankyo Kk 生体認証装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4880992A (en) * 1987-10-08 1989-11-14 Siemens Aktiengesellschaft Non-contacting measuring system for precision characteristics, particularly of industrial robots
US6125192A (en) * 1997-04-21 2000-09-26 Digital Persona, Inc. Fingerprint recognition system
US6743022B1 (en) * 1998-12-03 2004-06-01 Oded Sarel System and method for automated self measurement of alertness equilibrium and coordination and for ventification of the identify of the person performing tasks
US6282304B1 (en) * 1999-05-14 2001-08-28 Biolink Technologies International, Inc. Biometric system for biometric input, comparison, authentication and access control and method therefor
DE50015267D1 (de) * 2000-04-05 2008-08-28 Infineon Technologies Ag Verfahren zur störanteilsfreien Bilderfassung mittels eines elektronischen Sensors
TWI278782B (en) * 2001-08-24 2007-04-11 Toshiba Corp Personal recognition apparatus
EP1385116A1 (de) * 2002-07-22 2004-01-28 Human Bios GmbH Verfahren zur Erteilung einer Zugangsberechtigung
JP4314016B2 (ja) * 2002-11-01 2009-08-12 株式会社東芝 人物認識装置および通行制御装置
JP4207717B2 (ja) * 2003-08-26 2009-01-14 株式会社日立製作所 個人認証装置
JP4546169B2 (ja) * 2004-06-28 2010-09-15 富士通株式会社 手のひら認証用撮像装置
EP1612717B1 (en) * 2004-06-28 2009-09-02 Fujitsu Limited Biometric authentication system and registration method
US7627144B2 (en) 2004-08-19 2009-12-01 Sony Corporation Method and apparatus for performing identity authentication
US7268799B2 (en) * 2004-12-03 2007-09-11 Motorola, Inc. Multi-function device illumination control system and method
US20070088714A1 (en) * 2005-10-19 2007-04-19 Edwards Gregory T Methods and apparatuses for collection, processing, and utilization of viewing data
JP4650386B2 (ja) * 2006-09-29 2011-03-16 沖電気工業株式会社 個人認証システム及び個人認証方法
JP4289415B2 (ja) * 2007-03-27 2009-07-01 セイコーエプソン株式会社 画像変形のための画像処理
JP4946730B2 (ja) * 2007-08-27 2012-06-06 ソニー株式会社 顔画像処理装置及び顔画像処理方法、並びにコンピュータ・プログラム
JP2009104379A (ja) * 2007-10-23 2009-05-14 Hitachi Omron Terminal Solutions Corp 生体情報認証装置及び生体情報の登録方法
CN101499131A (zh) * 2008-02-01 2009-08-05 鸿富锦精密工业(深圳)有限公司 影像校正装置及影像校正方法
US8150108B2 (en) * 2008-03-17 2012-04-03 Ensign Holdings, Llc Systems and methods of identification based on biometric parameters

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005084815A (ja) * 2003-09-05 2005-03-31 Toshiba Corp 顔認識装置、顔認識方法および通行制御装置
JP2006099374A (ja) 2004-09-29 2006-04-13 Oki Electric Ind Co Ltd 生体情報照合装置および生体情報照合システム
JP2006198102A (ja) * 2005-01-19 2006-08-03 Sony Corp 認証装置、更新時期検出方法及びプログラム
JP2006026427A (ja) * 2005-08-25 2006-02-02 Hitachi Ltd 個人認証装置
JP2007148724A (ja) 2005-11-28 2007-06-14 Hitachi Omron Terminal Solutions Corp 個人認証システム、および個人認証プログラム
JP2008079680A (ja) * 2006-09-26 2008-04-10 Hitachi Software Eng Co Ltd 生体情報認証装置及び生体情報による個人認証方法
JP2008102770A (ja) 2006-10-19 2008-05-01 Sankyo Kk 生体認証装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013145280A1 (ja) * 2012-03-30 2013-10-03 富士通株式会社 生体認証装置、生体認証方法及び生体認証用コンピュータプログラム
JP2013214144A (ja) * 2012-03-30 2013-10-17 Fujitsu Ltd 生体情報管理装置、認証装置、生体情報管理方法及び生体情報管理プログラム
JPWO2013145280A1 (ja) * 2012-03-30 2015-08-03 富士通株式会社 生体認証装置、生体認証方法及び生体認証用コンピュータプログラム
US9305209B2 (en) 2012-03-30 2016-04-05 Fujitsu Limited Biometric authentication apparatus, biometric authentication method, and computer program for biometric authentication
JP2014180435A (ja) * 2013-03-19 2014-09-29 Fujitsu Ltd 生体情報入力装置、生体情報入力プログラム、生体情報入力方法
JP2015036895A (ja) * 2013-08-13 2015-02-23 Kddi株式会社 更新装置、方法及びプログラム
JP2015106386A (ja) * 2013-12-02 2015-06-08 富士通株式会社 生体情報抽出装置、生体情報抽出方法、および生体情報抽出プログラム
WO2018173649A1 (ja) * 2017-03-23 2018-09-27 富士フイルム株式会社 薬剤認識装置、薬剤認識方法、及び薬剤認識プログラム
US11574141B2 (en) 2017-03-23 2023-02-07 Fujifilm Toyama Chemical Co., Ltd. Drug recognizing apparatus, drug recognizing method, and drug recognizing program
CN109977746A (zh) * 2017-12-27 2019-07-05 韩国电子通信研究院 用于登记面部姿态以用于面部识别的设备和方法
CN109977746B (zh) * 2017-12-27 2023-11-24 韩国电子通信研究院 用于登记面部姿态以用于面部识别的设备和方法

Also Published As

Publication number Publication date
US9373047B2 (en) 2016-06-21
EP2477155A1 (en) 2012-07-18
KR101341212B1 (ko) 2013-12-12
JPWO2011030441A1 (ja) 2013-02-04
JP5382127B2 (ja) 2014-01-08
EP2477155A4 (en) 2015-07-01
US20120169464A1 (en) 2012-07-05
CN102483845B (zh) 2018-09-04
CN102483845A (zh) 2012-05-30
EP2477155B1 (en) 2020-03-25
KR20120054060A (ko) 2012-05-29

Similar Documents

Publication Publication Date Title
JP5382127B2 (ja) 生体認証装置、生体認証システム、及び生体認証方法
KR101947538B1 (ko) 인증 장치, 및 인증 방법
KR100902199B1 (ko) 인증 장치 및 그 제어 방법, 인증 장치를 구비한 전자기기,인증 장치 제어 프로그램, 및 해당 프로그램을 기록한기록 매체
KR101426952B1 (ko) 정보처리 장치, 정보처리 방법, 개인 식별 장치 및 개인 식별 장치에서 사전 데이터 생성/갱신 방법
EP2677490B1 (en) Authentication device, authentication program, and authentication method
JP4650386B2 (ja) 個人認証システム及び個人認証方法
US10956715B2 (en) Decreasing lighting-induced false facial recognition
US20070291998A1 (en) Face authentication apparatus, face authentication method, and entrance and exit management apparatus
KR20170093108A (ko) 생체측정 키를 이용한 모바일 장치에서의 무선 통신 장치 기능의 제어
US10430644B2 (en) Blended iris and facial biometric system
CN108734092B (zh) 人物认证装置
JP6265592B2 (ja) 顔特徴抽出装置および顔認証システム
KR101620774B1 (ko) 생체 인증 장치, 생체 인증 방법 및 기억 매체
JP5783759B2 (ja) 認証装置、認証方法、および認証プログラム、並びに記録媒体
US20190388008A1 (en) System and method for recognizing gait
CN109840515B (zh) 面部姿态调整方法、装置和终端
JP2007034872A (ja) 顔認証装置および顔認証システムならびに顔認証方法
JP6873639B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP5975828B2 (ja) 顔特徴抽出装置および顔認証システム
JP2009205570A (ja) 生体認証システム、生体認証方法及び生体認証プログラム
JP2011205321A (ja) 撮像装置及び被写体検出方法
JP5685272B2 (ja) 認証装置、認証プログラム、および認証方法
JP2004078891A (ja) 顔照合装置、顔照合方法および生体情報照合装置
KR20230015141A (ko) 대상체 위치 추적 로봇

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980161368.3

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09849220

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20127006291

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2011530695

Country of ref document: JP

Ref document number: 2009849220

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE