WO2011052085A1 - 生体情報登録方法、生体認証方法および生体認証装置 - Google Patents

生体情報登録方法、生体認証方法および生体認証装置 Download PDF

Info

Publication number
WO2011052085A1
WO2011052085A1 PCT/JP2009/068728 JP2009068728W WO2011052085A1 WO 2011052085 A1 WO2011052085 A1 WO 2011052085A1 JP 2009068728 W JP2009068728 W JP 2009068728W WO 2011052085 A1 WO2011052085 A1 WO 2011052085A1
Authority
WO
WIPO (PCT)
Prior art keywords
vein
data
feature amount
biometric authentication
image
Prior art date
Application number
PCT/JP2009/068728
Other languages
English (en)
French (fr)
Inventor
一博 古村
裕之 高松
Original Assignee
富士通フロンテック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通フロンテック株式会社 filed Critical 富士通フロンテック株式会社
Priority to PCT/JP2009/068728 priority Critical patent/WO2011052085A1/ja
Priority to EP09850864.1A priority patent/EP2495699B1/en
Priority to JP2011538182A priority patent/JP5363587B2/ja
Publication of WO2011052085A1 publication Critical patent/WO2011052085A1/ja
Priority to US13/448,872 priority patent/US8660318B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Definitions

  • the present invention relates to a biometric information registration method, biometric authentication method, and biometric authentication device, and in particular, biometric information registration that extracts a human physical feature and collates it with a large number of preregistered biometric information for personal authentication.
  • the present invention relates to a method, a biometric authentication method, and a biometric authentication apparatus.
  • a biometric authentication device that performs personal authentication using human physical characteristics is widely used.
  • physical characteristics fingerprints, irises in the eyes, veins of palms and fingers, voice prints, facial shapes, and the like are used, and authentication based on these has been put to practical use.
  • palms and finger veins are physical features that are suitable for personal authentication because of their large number, complex patterns, life-long changes, and difficult to counterfeit. .
  • Vein authentication uses the characteristics of hemoglobin in red blood cells in the blood. That is, the hemoglobin in the red blood cells flowing in the veins is changed to oxygenated hemoglobin that is bound to oxygen in the artery to reduced hemoglobin that is not bound to oxygen, and the reduced hemoglobin is around 760 nanometers. It has a characteristic of absorbing near infrared rays having a wavelength of. Therefore, when a near infrared ray is irradiated toward the palm and the reflected light is used as an image, a captured image in which a vein portion having weak reflection becomes black is obtained.
  • the biometric authentication device registers the captured image obtained in this way in the biometric information database as biometric information.
  • the acquired captured image is collated with the registered biometric information, It will be determined whether or not you are the person.
  • the captured image is collated with the registered biometric information one by one, and after the collation with all the registered biometric information is completed, whether the similarity between the two is equal to or greater than a predetermined value. Judging whether or not you are the person.
  • Biometric information such as a captured image has a very large amount of data. Therefore, it takes time for each verification process, and the processing time required for determination increases as the number of registered cases increases. In order to shorten the waiting time until the authentication is completed, it is necessary to limit the number of registrations. In order to increase the number of registrations, it is necessary to provide a plurality of sets of biometric authentication devices that limit the number of registrations.
  • a biometric authentication device For such a so-called 1-to-N authentication process, a biometric authentication device has been proposed in which the verification time can be shortened and the number of registrations can be increased (see, for example, Patent Document 1).
  • a vein feature amount with a small data amount generated from a captured image and vein data of the captured image are registered in advance.
  • a score representing a rough similarity is calculated from the vein feature amount generated from the captured image and the registered vein feature amount, and the collation order is determined according to the score sorting result. deep. Then, only the vein data that is higher in the collation order is subjected to collation, and detailed collation processing is performed.
  • a vein feature amount for narrowing down the verification target a frequency component representing a sparse state of the vein pattern, an angle component representing the direction of the vein pattern, and a curve representing the direction of the curved portion of the vein pattern Use ingredients and.
  • the collation order is determined based on the three vein feature quantities.
  • the accuracy of the vein feature quantities is low, the probability that vein data with high similarity is higher in the collation order is obtained. Therefore, there is a problem that the maximum number of registrations cannot be increased.
  • the present invention has been made in view of these points, and an object thereof is to provide a biometric information registration method, biometric authentication method, and biometric authentication device capable of increasing the speed of collation processing and expanding the maximum number of registrations.
  • a computer extracts vein data and feature amounts from a captured image that is the biometric information captured by the imaging device.
  • a biometric information registration method comprising: a fourth vein feature amount that is a component; and a fifth vein feature amount that is a vein amount that characterizes the amount of veins included in the vein image is provided. Is done.
  • a computer extracts vein data and a feature amount from a captured image, which is the biometric information captured by the imaging device, and is registered in the vein database.
  • the registered vein data and the registered feature amount of each record are acquired, a score representing a rough similarity is obtained from the extracted feature amount and the acquired registered feature amount, and the collation order is determined based on the sorting result of the scores.
  • the first vein feature amount which is a frequency component that characterizes the periodicity of the vein by Fourier transform, and the Fourier transform of the vein image.
  • a second vein feature amount that is an angle component that characterizes the directionality of the vein, a third vein feature amount that is a curvature direction component that characterizes the direction of vein curvature relative to the vein image, and the vein image.
  • a fourth vein feature amount that is a segment direction component that characterizes the direction of the vein segment into which the vein is divided, and a fifth vein feature amount that is a vein amount that characterizes the amount of veins included in the vein image , And a biometric authentication method.
  • a biometric authentication device that performs biometric authentication of a user from biometric information
  • an imaging device that captures a user's vein, and vein data from a captured image that is the biometric information captured by the imaging device
  • a data extraction unit that extracts a feature amount
  • a vein database that stores the vein data and the feature amount extracted by the data extraction unit as registered vein data and a registered feature amount
  • the vein that is extracted by the data extraction unit
  • a data registration unit for registering data and the feature quantity in the vein database as the registered vein data and the registered feature quantity
  • a data acquisition unit for obtaining the registered vein data and the registered feature quantity from the vein database, and the data
  • the feature amount extracted by the extraction unit and the data acquired by the data acquisition unit A score representing a rough similarity is obtained from the registered feature value, a collation order determining unit that determines a collation order according to the score sorting result, and the data extracting unit according to the collation order determined by the collation order determining unit
  • a collation processing unit that coll
  • the first vein feature amount which is a frequency component that characterizes the periodicity of the vein by Fourier transformation with respect to the vein image, and the angle component that characterizes the directionality of the vein by Fourier transformation with respect to the vein image.
  • 2 vein feature quantities a third vein feature quantity that is a curve direction component that characterizes the direction of the vein curvature with respect to the vein image, and a vein segmented with respect to the vein image
  • a fourth vein feature amount that is a segment direction component that characterizes the direction of the vein segment
  • a fifth vein feature amount that is a vein amount that characterizes the amount of veins included in the vein image.
  • a biometric authentication device is provided.
  • the accuracy as a feature amount is improved by determining the collation order using five types of feature amounts.
  • the collation order is determined, the probability that the record of the user being collated will be higher can be increased. Therefore, the ratio of collation can be reduced and the number of collations can be reduced, thereby speeding up the collation process. And the maximum number of registrations can be expanded.
  • biometric information registration method biometric authentication method, and biometric authentication device configured as described above
  • biometric authentication method by increasing the accuracy of the feature amount, it is possible to calculate a stable vein feature amount with respect to unstable vein data unique to the living body, By classifying the registration data in this way, there is an advantage that in a biometrics authentication system such as a palm vein authentication device, it is possible to expect a faster 1-to-N verification time and an increase in the maximum number of registered persons.
  • FIG. 1 is a block diagram showing the configuration of an entrance / exit management system to which the present invention is applied.
  • This entrance / exit management system includes an imaging device 1 that captures a palm vein, an authentication processing device 2 that performs authentication processing based on the captured image, a vein database 3 that registers a large amount of vein data, and an authentication processing device 2. And a locking / unlocking unit 4 that operates according to the processing result of the above.
  • the imaging device 1 has a guide 6 that supports a hand 5 to be imaged, and a sensor unit 7 is installed below the guide 6.
  • the sensor unit 7 is provided with an infrared sensor 8 which can be a CMOS (Complementary Metal Oxide Semiconductor) image sensor, for example, at the center bottom, and a distance sensor 9 is provided beside the sensor.
  • CMOS Complementary Metal Oxide Semiconductor
  • a plurality of (for example, eight) near-infrared light emitting elements 10 that irradiate near-infrared rays toward the upper side of the figure are installed around the infrared sensor 8.
  • the authentication processing device 2 is connected to the outputs of the distance sensor 9 and the infrared sensor 8 of the imaging device 1 and detects the distance from the infrared sensor 8 to the hand 5 and the contour of the hand 5 and the hand / hand contour detection unit 11.
  • a guidance message output unit 12 that outputs a guidance message is provided.
  • the distance / hand contour detection unit 11 receives the measurement distance of the distance sensor 9 from the imaging device 1, determines whether or not an object such as a palm is within a predetermined range from the sensor unit 7, and the infrared sensor The contour of the hand is detected from the captured image taken by 8, and it is determined from the contour whether or not the image can be used for registration and verification processing.
  • the guidance message output unit 12 puts the palm in a predetermined position.
  • the guiding message is output to a display (not shown).
  • the authentication processing device 2 also extracts a vein data that is data related to the vein based on the captured image from the distance / hand outline detector 11 and a vein extractor that represents the vein features representing the characteristics of the vein pattern. 13 is provided.
  • the output of the data extraction unit 13 is connected to a data registration unit 14 that registers the extracted vein data and vein feature amount in the vein database 3 and a collation order determination unit 15 that determines the collation order.
  • the output of the collation order determination unit 15 is connected to a collation processing unit 16 that performs collation processing and outputs the result to the locking / unlocking unit 4.
  • the collation order determination unit 15 and the collation processing unit 16 are connected to the data acquisition unit 17 so as to acquire the vein feature amount and vein data registered from the vein database 3.
  • FIG. 2 is a flowchart showing a flow of vein data registration processing
  • FIG. 3 is a diagram showing an example of a captured image of a palm vein
  • FIG. 4 is a conceptual diagram showing a state in which vein data is extracted from the captured image
  • FIG. 6 is a diagram illustrating the data structure of data stored in the vein database.
  • the palm vein is imaged by the imaging device 1 (step S1).
  • the captured image of the palm vein photographed by the imaging device 1 absorbs the near infrared light emitted by the near infrared light emitting element 10 in the vein portion, so that the vein blood vessel becomes black as the image. It becomes a pattern.
  • the captured image obtained in this way is input to the data extraction unit 13, where vein data is generated (step S2).
  • the vein data can be classified into vein data including a trunk R1, a thick branch R2, and a thin branch R3 connected to the thick branch R2.
  • the classification from the vein data into the trunk R1, the thick branch R2, and the thin branch R3 is executed by the data extraction unit 13.
  • step S1 and step S2 are repeated a plurality of times, in this embodiment, three times. Therefore, the vein data for three times is obtained in the processes of steps S1 and S2.
  • the number of times of photographing can be changed by setting.
  • the vein data generated by the data extraction unit 13 becomes data to be registered in the vein database 3.
  • the data extraction unit 13 uses five types of vein feature amounts that are not easily affected by the photographing situation from the vein image obtained by removing a part of the thin branch R3 and the thick trunk R1 from the vein data, that is, the concept shown in FIG. First to fifth vein feature amounts V1-V5 as shown in FIG. 5 are calculated (step S3).
  • the first vein feature amount V1 is a frequency component representing the interval and the number of the trunk R1 and the thick branch R2 in the vein image.
  • the second vein feature amount V2 is a distribution of direction components of the trunk R1 and the thick branch R2 of the vein image.
  • the third vein feature amount V3 is the distribution of the bending direction components of the trunk R1 and the thick branch R2 of the vein image.
  • the fourth vein feature amount V4 is a distribution of direction components of segments obtained by dividing the trunk R1 and the thick branch R2 of the vein image in the length direction.
  • the fifth vein feature amount V5 is a distribution of amounts of the trunk R1 and the thick branch R2 of the vein image in the area into which the vein image is divided.
  • the first to fifth vein feature amounts V1-V5 calculated by the data extraction unit 13 in this way are registered in the vein database 3 by the data registration unit 14 (step S4).
  • the data structure of data registered in the vein database 3 is assigned one record for each user.
  • Each record has a user identification number (ID)
  • Five types of vein feature values and vein data of the captured image are stored.
  • the third to fifth vein feature amounts V3-V5 in order to prevent the loss of data on the boundary lines of the divided areas, two patterns of vein feature amounts having different division positions are calculated and stored. ing.
  • the vein data all the data of the captured image taken three times are stored.
  • FIG. 7 is a flowchart showing the flow of vein data identification processing
  • FIG. 8 is a diagram for explaining collation processing
  • (A) is vein data for collation
  • (B) is a diagram showing an example of registered vein data. It is.
  • the imaging device 1 captures the palm vein of the user (step S11), and the data extraction unit 13 generates vein data (step S12). Then, the vein feature amount is calculated (step S13).
  • the processes in steps S11 to S13 are the same as in the registration process except that the number of times of shooting is one.
  • the vein characteristic amount registered from the vein database 3 is acquired by the data acquisition unit 17 (step S14).
  • the acquired vein feature amount is sent to the collation order determination unit 15.
  • the collation order determination unit 15 calculates a score that is the sum of the differences based on the vein feature amount calculated by the data extraction unit 13 and the vein feature amount acquired from the vein database 3 (step S15). Based on the score, the records in the registered data group are sorted to determine the collation order (step S16).
  • the collation processing unit 16 follows the collation order determined by the collation order determination unit 15 and the vein data generated by the data extraction unit 13 and the registered vein data acquired by the data acquisition unit 17. Are collated (step S17).
  • the similarity is sequentially calculated for the top m% records in the collation order, and if there is a record whose similarity is equal to or greater than a predetermined value, it is determined that the authentication is OK and the identity of the user is confirmed. .
  • the determination result is sent to the locking / unlocking unit 4, and the locking / unlocking unit 4 unlocks the electric lock installed on the door and locks it after a predetermined time.
  • the records are sorted by similarity, and the record with the highest similarity is determined as the user's record, and the user is specified. If there is no record whose similarity is equal to or greater than a predetermined value, the user is notified that the authentication has failed by, for example, sounding a buzzer.
  • the vein data D1 and D2 shown in FIG. 8 are values obtained by digitizing vein data of a captured image taken in the identification process and registered vein data.
  • Each of these vein data D1 and D2 is composed of 25 pixels which are extremely simplified for the sake of explanation and divided into 5 parts vertically and horizontally, and each pixel depends on the intensity of reflected light of near infrared rays. It has represented gradation data.
  • Each pixel can hold a value from 0 to 255, but is assigned to two types of values of 0 and 255 among the values from 0 to 255 by the binarization processing of the imaging apparatus 1. Yes.
  • the pixel with the pixel value “0” indicates the black color of the vein image
  • the pixel value “255” indicates the other portion (white).
  • the similarity is calculated by comparing the 25 pixel values of the vein data D1 for verification with the 25 pixel values of the registered vein data D2 one by one, and corresponding to both the vein data D1 and D2.
  • the number of pixels having the same coordinate pixel value is counted, and the obtained count value becomes the similarity value.
  • the similarity is “25”
  • the similarity is “0”
  • the similarity is “ 0 ".
  • vein feature amount calculation As pre-processing for performing the above collation processing, vein feature amount calculation, vein feature amount score calculation, and collation order determination processing, which are techniques for narrowing down records to be collated, will be described in detail. To do.
  • FIG. 9 is a conceptual diagram for explaining the frequency component of the first vein feature amount.
  • V1 vein data excluding a part of the thin branch R3 and the thick trunk R1 is developed at the center of an image having a size of 256 ⁇ 256, for example, and the image size is reduced.
  • a vein image f (x, y) is assumed.
  • the vein image f (x, y) is subjected to a two-dimensional fast Fourier transform by the following equation (1) to obtain a spatial frequency component F (u, v).
  • this two-dimensional fast Fourier transform first, the pixels of each line are Fourier transformed in the x direction of the vein image f (x, y), and then the transformation result of the line is Fourier transformed in the y direction.
  • is in the range of 0 to ⁇ .
  • the first vein feature amount V1 is the sum of the energy of the donut-shaped region centered on the origin in the polar coordinate system power spectrum space, as shown in FIG.
  • 32 frequencies when the radius r is changed from 1 to 32 are used as the index Index1 of the first vein feature amount V1
  • this index Index1 is calculated by the following equation (5).
  • Index1 [32] ⁇ p (1), p (2),. . , P (32) ⁇ (5)
  • FIG. 10 is a conceptual diagram for explaining the angle component of the second vein feature amount.
  • the vein image f (x, y) is Fourier-transformed to calculate a spatial frequency component F (u, v), and this spatial frequency component A power spectrum P (u, v) is calculated from F (u, v).
  • the power spectrum P (u, v) is set to the polar power spectrum P (r, ⁇ ), and the angle energy is obtained by the following equation (6).
  • w is the size of the definition area of P (u, v), and ⁇ indicates a direction obtained by dividing 180 degrees into 12 equal parts.
  • q ′ ( ⁇ ) the energy ratio of each angle is obtained by the following equation (7). That is, the energy ratio in each angular range divided into 12 equal parts is calculated.
  • q ( ⁇ ) 10000 * q ′ ( ⁇ ) / ⁇ q ′ ( ⁇ ) (7)
  • 10000 is a correction value for integer type conversion.
  • the second vein feature amount V2 is the sum of energy in an angular range of 15 degrees.
  • twelve angle components when the angle ⁇ is changed from 0 to 180 are used as the index Index2 of the second vein feature amount V2, and the index Index2 is calculated by the following equation (8).
  • Index2 [12] ⁇ q (0), q (1),. . , Q (11) ⁇ (8) Since the first angle component q (0) is energy of an angle from 0 to 14 degrees, ⁇ is calculated by the following equation (9). Is calculated.
  • FIG. 11A and 11B are diagrams showing a calculation area of the third vein feature amount, where FIG. 11A shows the first division pattern, FIG. 11B shows the second division pattern, and FIG. FIG. 13 is a diagram for explaining a vein segment that is a calculation target of the bending direction, (A) shows a vectorized vein segment, and (B) is a calculation target first. (C) shows the vein segment to be calculated next.
  • the third vein feature amount V3 is a feature amount in the direction in which the vein is bent (curvature direction) from the vein image, and the curve direction component is calculated for each divided area by dividing the vein image into several parts. Will do.
  • the vein image is divided into, for example, six areas. That is, in the first division pattern P1 shown in FIG. 11A, the vein image is divided into 2 rows and 3 columns, and in the second division pattern P2 shown in FIG. Yes. As a result, veins on the boundary line between the areas divided by the first division pattern P1 may not be correctly recognized. However, the second division pattern P2 is not correctly recognized because it is not on the boundary line. It becomes like this. As described above, by using the first division pattern P1 and the second division pattern P2 having different division positions, it is possible to complement the missing data.
  • the vein data is vectorized, the curved vein is converted into a continuous thin line called a segment, and a component that causes noise is removed.
  • the noise component there are an independent short vein segment, a thin vein segment, and a vein segment constituting a circle.
  • the bending direction is defined. As shown in FIG. 12, when there are vectorized vein segments and the coordinates of the end points of these two adjacent vein segments are A, B, and C, both ends of the two adjacent vein segments A direction in which a perpendicular is drawn from a vector point (bending point) B with respect to a straight line AC connecting the two is defined as a bending direction.
  • the connected vein segment is divided, the vein segment to be calculated is determined therefrom, and the bending direction is calculated for the determined vein segment.
  • the coordinates of the vector points are obtained for the vein segment shown in FIG.
  • a segment segment whose end point is a vein segment start coordinate A1, a coordinate B1 separated by a certain length, and a coordinate C1 separated by the same length is obtained.
  • These divided segments are targets for calculating the bending direction of the coordinate B1.
  • a vector point jumping from the start coordinate A1 of the vein segment is taken as coordinates B1 and C1.
  • one coordinate is shifted from each of the coordinates A1, B1, and C1, and these are set as the coordinates A2, B2, and C2 of the vein segment to be calculated next.
  • the determination of the vein segment to be calculated is sequentially performed while shifting the vector point by one coordinate and continues to the end coordinate of the segment.
  • the angle of direction B is calculated
  • Direction B atan2 (Hy, Hx) * (180 / ⁇ ) (12)
  • the histogram (curv [ ⁇ ]) of the bending direction of the vector points of all the divided segments is obtained for each area of the first and second divided patterns P1 and P2. Created.
  • 36 angle regions obtained by dividing 360 degrees in units of 10 degrees are set, and when the bending direction is calculated, the value of the angle region including the direction is incremented so that the bending direction A histogram (curv [ ⁇ ]) is generated. This histogram (curv [ ⁇ ]) is used as the index preIndex3.
  • the index of the curved 36-direction component for the first area of the first division pattern P1 is expressed by the following equation (13).
  • preIndex3_1 [0] [36] ⁇ curv (0), curv (1),. . , Curv (35) ⁇ (13)
  • curv (0) indicates a value obtained by integrating the bending directions included in the range from 0 degrees to 9 degrees, and is calculated by the following equation (14).
  • This histogram is performed in the same manner for the other areas (preIndex [1] to preIndex [5]).
  • index of the curved 36-direction component for the first area of the first division pattern P1 is obtained by the following equation (15).
  • Index3_P1 [0] [36] preIndex3_1 [0] [0] / Allcnt1, preIndex3_1 [0] [1] / ALLcnt1,. . , PreIndex3_1 [0] [35] / ALLcnt1
  • the index of the curved 36-direction component for the second area of the first division pattern P1 is obtained by the following equation (16).
  • Index3_P1 [1] [36] preIndex3_1 [1] [0] / Allcnt1, preIndex3_1 [1] [1] [1] / ALLcnt1,. .
  • index of the curved 36-direction component for the first area of the second division pattern P2 is obtained by the following equation (18).
  • Index3_P2 [0] [36] preIndex3_2 [0] [0] / Allcnt2, preIndex3_2 [0] [1] / ALLcnt2,. . , PreIndex3_2 [0] [35] / ALLcnt2 (18)
  • the index of the curved 36-direction component for the second area of the second division pattern P2 is obtained by the following equation (19).
  • Index3_P2 [1] [36] preIndex3_2 [1] [0] / Allcnt2, preIndex3_2 [1] [1] / ALLcnt2,. .
  • FIG. 14 is a diagram for explaining the definition of the segment direction of the fourth vein feature amount
  • FIG. 15 is a diagram for explaining a vein segment for which the segment direction is to be calculated
  • (A) is a vectorized vein segment
  • (B) shows the vein segment to be calculated first
  • (C) shows the vein segment to be calculated next.
  • the fourth vein feature quantity V4 uses the direction (inclination) of the vein segment divided from the vein data as the feature quantity.
  • the calculation of the segment direction component is performed for each divided area by dividing the vein image into several parts as in the calculation of the third vein feature amount.
  • the division pattern is the same as that shown in FIG. 11. Two patterns are prepared by equally dividing a vein image into six areas, and a histogram is calculated in each area.
  • segment direction is defined.
  • segment direction As shown in FIG. 14, there are vectorized vein segments, and the inclination of a straight line AB connecting the coordinates of two vector points among the segments is defined as the segment direction.
  • the connected vein segment is divided, the target vein segment is determined therefrom, and the segment direction is calculated for the determined vein segment.
  • the coordinates of the vector points are obtained for the vein segment shown in FIG.
  • a segment segment having both ends thereof is obtained from the start coordinate A1 of the vein segment and the coordinate B1 separated by a certain length.
  • a vector point jumping from the start coordinate A1 of the vein segment is set as the coordinate B1.
  • the length of the divided segment for obtaining the inclination is determined based on the experimental result.
  • coordinates A2 and B2 obtained by shifting one coordinate from the coordinates A1 and B1 are both end coordinates. In this way, the determination of the segment to be calculated is sequentially performed while shifting the coordinates one coordinate at a time until the end coordinates of the segment.
  • segment direction atan2 (yb ⁇ ya, xb ⁇ xa) * (180 / ⁇ ) (21)
  • 180 degrees is added when the angle is negative, and 180 degrees is subtracted when the angle is 180 degrees or more. This is because, for example, the inclination of a straight line of 270 degrees or minus 90 degrees is assumed to be the same as 90 degrees.
  • a histogram (segdir [ ⁇ ]) of all segment segments is created for each area of the first and second segment patterns P1 and P2.
  • Then 18 angle regions obtained by dividing 180 degrees in units of 10 degrees are set, and when the segment direction is calculated, the value of the angle region including the direction is incremented, so that the segment direction A histogram (segdir [ ⁇ ]) is generated.
  • This histogram (segdir [ ⁇ ]) is used as the index preIndex4.
  • the index of the segment 18 direction component relating to the first area of the first division pattern P1 is expressed by the following equation (22).
  • preIndex4_1 [0] [18] ⁇ sigdir (0), segdir (1),. . , Segdir (17) ⁇ (22)
  • segdir (0) indicates a value obtained by integrating segment directions from 0 degrees to 9 degrees, and is calculated by the following equation (23).
  • This histogram is similarly performed for the other areas (preIndex4_1 [1] to preIndex4_1 [5]).
  • preIndex4_1 [m] [n] ⁇ m 0 to 5
  • the sum (ALLcnt1) of them is obtained, and each element is divided by the sum.
  • normalization is performed by calculating the ratio.
  • index of the segment 18 direction component relating to the first area of the first division pattern P1 is obtained by the following equation (24).
  • Index4_P1 [0] [18] preIndex4_1 [0] [0] / Allcnt1, preIndex4_1 [0] [1] / ALLcnt1,. . , PreIndex4_1 [0] [17] / ALLcnt1
  • the index of the segment 18 direction component regarding the second area of the first division pattern P1 is obtained by the following equation (25).
  • Index4_P1 [1] [18] preIndex4_1 [1] [0] / Allcnt1, preIndex4_1 [1] [1] / ALLcnt1,. .
  • the index of the segment 18 direction component relating to the sixth area of the first division pattern P1 is obtained by the following equation (26).
  • Index4_P1 [5] [18] preIndex4_1 [5] [0] / Allcnt1, preIndex4_1 [5] [1] / ALLcnt1,. . , PreIndex4_1 [5] [17] / ALLcnt1 (26)
  • the second segmentation pattern P2 is also subjected to the following normalization by performing vein segment division, calculation of the gradient of the segment, and creation of a histogram.
  • index of the segment 18 direction component relating to the first area of the second division pattern P2 is obtained by the following equation (27).
  • Index4_P2 [0] [18] preIndex4_2 [0] [0] / Allcnt2, preIndex4_2 [0] [1] / ALLcnt2,. . , PreIndex4_2 [0] [17] / ALLcnt2
  • index4_P2 [1] [18] preIndex4_2 [1] [0] / Allcnt2, preIndex4_2 [1] [1] / ALLcnt2,. .
  • FIGS. 16A and 16B are diagrams showing the fifth vein feature amount calculation area, where FIG. 16A shows a first division pattern and FIG. 16B shows a second division pattern.
  • the fifth vein feature quantity V5 uses the amount of veins included in the vein data as a feature quantity and uses it as an index.
  • the vein volume is calculated for each divided area by dividing the vein image into several parts.
  • a pattern divided into 7 ⁇ 7 49 areas is prepared as the first divided pattern P1a
  • a pattern divided into 8 ⁇ 8 64 areas is prepared as the second divided pattern P2a.
  • the amount of veins means the density of veins in each area, and is thus calculated by counting how many pixels of the vein image are in each area.
  • the calculation of the vein volume is performed for all areas of 49 areas of the first division pattern P1a and 64 areas of the second division pattern P2a, and a histogram (segment1 [n]) is created. This histogram (segment1 [n]) is used as the index preIndex5.
  • preIndex5_1 [49] ⁇ segist1 [0], segist1 [1],. .
  • the vein volume index for the 49 area of the first division pattern P1a is normalized by the following equation (31).
  • Index5_P1a [49] preIndex5_1 [0] / Allcnt1, preIndex5_1 [1] / ALLcnt1,. . , PreIndex5_1 [48] / ALLcnt1 (31)
  • histograms of all areas are created for the other second divided pattern P2a.
  • Index5_P2a [64] preIndex5_2 [0] / Allcnt2, preIndex5_2 [1] / ALLcnt2,. . , PreIndex5_2 [63] / ALLcnt2 (32)
  • the five types of vein feature quantities obtained as described above are stored in the vein database 3 during the vein data registration process, and verified with the registration data during the vein data identification process. It becomes collation data.
  • the vein feature amount score calculation and collation order determination processing performed in the vein data identification processing will be described.
  • vein feature score calculation When the first to fifth vein feature amounts V1-V5 as the collation data are calculated, the feature amounts of all registered records are acquired from the vein database 3, and the similarity between the two relating to the vein feature amount can be viewed. A score is calculated.
  • the score of the second vein feature amount V2 is calculated by the following equation (34).
  • score3_P2
  • the score score4_P1 of the fourth vein feature value V4 (first division pattern P1), the score score4_P2 of the fourth vein feature value V4 (second division pattern P2), and the fifth vein feature value V5 (first value)
  • the score score5_P1a of one division pattern P1a) and the score score5_P2 of the fifth vein feature amount V5 (second division pattern P2a) are calculated. The calculation of the vein feature amount score is performed for all the registered records.
  • the vein feature amount score calculated as described above is used to calculate the total score for each record.
  • the total score total [N] (N is a record number) is calculated by the following equation (37).
  • total [N] ⁇ ⁇ score1 + ⁇ ⁇ score2 + ⁇ ⁇ (score3_P1 + score3_P2) + ⁇ ⁇ (score4_P1 + score4_P2) + ⁇ ⁇ (score5_P1a + score5_P2a) (37)
  • ⁇ , ⁇ , ⁇ , ⁇ , and ⁇ are weighting factors.
  • FIG. 17 is a diagram for explaining the flow of 1-to-N identification processing.
  • the collation data is not collated with all registered data, but the collation target is narrowed down to only the top m% records of the total score (S23).
  • S23 the collation target is narrowed down to only the top m% records of the total score (S23).
  • S23 the total score
  • collation between the vein data of the collation data and the vein data of the top three selected records is performed (S24).
  • the similarity between the collation data and the registered data group is calculated, and a record whose similarity exceeds a predetermined value is authenticated.
  • “record 7” has a similarity of “0”, and therefore authentication NG.
  • the records that have been authenticated are sorted in descending order by similarity (S25).
  • the user identification number (ID) of the record with the highest similarity is output as the result of this collation processing, and is recorded together with the date and time, for example, in the log file of entrance / exit.
  • the use of five types of vein feature amounts in the vein feature amount calculation which is the pre-processing of the vein data collation processing, improves the accuracy of the feature amounts, and the similarity is high when they are sorted. Probability that the record will be higher. For this reason, it is possible to reduce the ratio to be collated when narrowing down records.
  • the top 30% can be narrowed down, but in this embodiment, the top 6% can be narrowed down. Since there are fewer target records, the matching process can be speeded up. And since collation processing can be sped up, it becomes possible to expand the maximum registration number of vein data significantly.
  • 8 types of data are used as the vein feature amount, but since all of them are much smaller than the collation processing, the time taken from the vein feature amount calculation to the collation order determination processing Will not be long.
  • FIG. 18 is a diagram illustrating an example of a hardware configuration of a computer that realizes vein data registration processing and vein data identification processing.
  • the computer 20 includes a CPU (Central Processing Unit) 21 that controls the entire apparatus.
  • the CPU 21 is connected to a RAM (Random Access Memory) 23, a hard disk drive (HDD: Hard Disk Drive) 24, an image processing unit 25, and an input / output interface 26 via a bus 22.
  • RAM Random Access Memory
  • HDD Hard Disk Drive
  • the RAM 23 temporarily stores at least a part of an OS (Operating System) program and application programs to be executed by the CPU 21.
  • the RAM 23 stores various data and parameters necessary for processing by the CPU 21.
  • the hard disk drive 24 stores an OS and an application program for performing authentication processing.
  • a monitor 27 is connected to the image processing unit 25, and an image is displayed on the screen of the monitor 27 in accordance with a command from the CPU 21.
  • a keyboard 28, a mouse 29, an electric lock 30, and the imaging device 1 are connected to the input / output interface 26. Signals output from the keyboard 28 and mouse 29 are received by the input / output interface 26 and transmitted to the CPU 21 via the bus 22.
  • a signal of a palm vein captured image output from the imaging apparatus 1 is received by the input / output interface 26 and transferred to the RAM 23 or the hard disk drive 24 via the bus 22.
  • the electric lock 30 is installed on the door, the execution result of the application program for performing the authentication process is received via the input / output interface 26, and the locking or unlocking operation is performed depending on whether or not the personal authentication is OK. .
  • the 1-to-N identification processing function of the present embodiment can be realized.
  • the above merely illustrates the principle of the present invention.
  • many modifications and changes can be made by those skilled in the art, and the present invention is not limited to the precise configuration and application shown and described above, and all corresponding modifications and equivalents may be And the equivalents thereof are considered to be within the scope of the invention.

Abstract

 生体認証装置における照合処理の高速化および最大登録件数の拡大を図る。 静脈データと静脈特徴量とを登録し、静脈データの識別時には、照合用および登録された静脈特徴量から類似度の高そうな順にレコードをソートして照合順序を決定し、静脈データの照合はその順序に従って実行する静脈認証装置において、特徴量として、フーリエ変換による32周波数分の成分(第1静脈特徴量)、フーリエ変換による12方向の角度成分(第2静脈特徴量)、湾曲36方向成分(第3静脈特徴量)、セグメント18方向成分(第4静脈特徴量)および静脈量(第5静脈特徴量)を使用することで、照合順序の精度が高くなって類似度の低いレコードの照合を省略できることから、照合処理を高速化でき、最大登録件数を拡大できる。

Description

生体情報登録方法、生体認証方法および生体認証装置
 本発明は生体情報登録方法、生体認証方法および生体認証装置に関し、特に人間の身体的な特徴を抽出し、それを事前に登録された多数の生体情報と照合して個人認証を行う生体情報登録方法、生体認証方法および生体認証装置に関する。
 部屋の入退出を管理するようなセキュリティシステムにおいては、人間の身体的な特徴を利用して個人認証を行う生体認証装置が広く用いられている。身体的な特徴としては、指紋、瞳の中の虹彩、手のひらや指の静脈、声紋、顔形などが利用されており、これらによる認証が実用化されている。中でも、手のひらや指の静脈は、その本数が多く、模様が複雑であって、生涯変わることがなく、しかも、偽造が困難な体内器官であることから、個人認証に適した身体的特徴である。
 静脈認証は、血液中の赤血球の中にあるヘモグロビンの特性を利用している。すなわち、静脈に流れている赤血球の中のヘモグロビンは、動脈の中で酸素と結合していた酸素化ヘモグロビンが酸素と結合していない還元ヘモグロビンに変化しており、その還元ヘモグロビンが760ナノメートル付近の波長の近赤外線を吸収する特性を有している。そのため、手のひらに向けて近赤外線を照射し、その反射光を画像にすると、反射の弱い静脈の部分が黒くなるような撮像画像が得られることになる。
 生体認証装置は、このようにして得られた撮像画像を生体情報として生体情報データベースに登録しておき、認証が必要なときには、改めて取得した撮像画像と登録された生体情報とを照合して、本人であるかどうかを判定することになる。照合の際には、撮像画像は、登録された生体情報と1件ずつ照合され、登録されたすべての生体情報との照合が終了した後に、両者の類似度が所定値以上であるかどうかで本人であるかどうかを判断している。
 撮像画像のような生体情報は、データ量が非常に大きく、したがって、1件ずつの照合処理に時間がかかり、判断までにかかる処理時間は、登録されている件数が多いほど長くなる。認証が完了するまでの待ち時間を短くするためには、登録件数を制限する必要がある。また、登録件数を増やすには、登録件数を制限した生体認証装置を複数組備える必要がある。
 このような、いわゆる1対Nの認証処理に対し、照合時間を短縮して、登録件数を増やすことができるようにした生体認証装置が提案されている(たとえば、特許文献1参照)。この生体認証装置によれば、撮像画像から生成したデータ量の小さな静脈特徴量と、撮像画像の静脈データとをあらかじめ登録している。照合のときには、最初に、撮像画像から生成した静脈特徴量と登録されている静脈特徴量とから大まかな類似度を表すスコアを算出し、そのスコアのソート結果に応じて照合順序を決定しておく。そして、その照合順序の上位にある静脈データだけを照合対象とし、詳細な照合処理を行う。これにより、時間のかかる照合は、登録されたすべての生体情報に対してではなく、ある程度絞り込まれた生体情報に対してのみ行うことになるので、照合処理時間が大幅に短縮される。この照合処理時間の短縮によって、最大登録件数のNの値を増やすことが可能になる。また、この生体認証装置では、照合対象の絞り込みを行う静脈特徴量として、静脈模様の疎密状態を表す周波数成分と、静脈模様の向きを表す角度成分と、静脈模様の湾曲部分の向きを表す湾曲成分とを使用している。
特開2007-249339号公報
 しかし、上記の生体認証装置では、3つの静脈特徴量を基に照合順序を決定しているが、静脈特徴量の精度が低いため、類似度の高い静脈データが照合順序の上位に来る確率を上げることができず、したがって最大登録件数を増やすことができないという問題点があった。
 本発明はこのような点に鑑みてなされたものであり、照合処理の高速化および最大登録件数の拡大を図ることができる生体情報登録方法、生体認証方法および生体認証装置を提供することを目的とする。
 本発明では上記の課題を解決するために、利用者の生体情報を登録する生体情報登録方法において、コンピュータが、撮像装置により撮影された前記生体情報である撮像画像から静脈データおよび特徴量を抽出し、抽出された前記静脈データおよび前記特徴量を静脈データベースに登録する生体情報登録方法であって、前記特徴量は、前記静脈データを縮小した静脈像に対してフーリエ変換により静脈の周期性を特徴化した周波数成分である第1静脈特徴量と、前記静脈像に対してフーリエ変換により静脈の方向性を特徴化した角度成分である第2静脈特徴量と、前記静脈像に対して静脈の湾曲の向きを特徴化した湾曲方向成分である第3静脈特徴量と、前記静脈像に対して静脈を分割した静脈セグメントの方向を特徴化したセグメント方向成分である第4静脈特徴量と、前記静脈像に含まれる静脈の量を特徴化した静脈量である第5静脈特徴量と、を有していることを特徴とする生体情報登録方法が提供される。
 また、本発明では、生体情報から利用者を認証する生体認証方法において、コンピュータが、撮像装置により撮影された前記生体情報である撮像画像から静脈データおよび特徴量を抽出し、静脈データベースに登録されたそれぞれのレコードの登録静脈データおよび登録特徴量を取得し、抽出された前記特徴量と取得された前記登録特徴量とから大まかな類似度を表すスコアを求め、前記スコアのソート結果により照合順序を決定し、決定された前記照合順序に従って前記静脈データと前記登録静脈データとを照合する生体認証方法であって、前記特徴量および前記登録特徴量は、前記静脈データを縮小した静脈像に対してフーリエ変換により静脈の周期性を特徴化した周波数成分である第1静脈特徴量と、前記静脈像に対してフーリエ変換により静脈の方向性を特徴化した角度成分である第2静脈特徴量と、前記静脈像に対して静脈の湾曲の向きを特徴化した湾曲方向成分である第3静脈特徴量と、前記静脈像に対して静脈を分割した静脈セグメントの方向を特徴化したセグメント方向成分である第4静脈特徴量と、前記静脈像に含まれる静脈の量を特徴化した静脈量である第5静脈特徴量と、を有していることを特徴とする生体認証方法が提供される。
 さらに、本発明では、生体情報から利用者の生体認証を行う生体認証装置において、利用者の静脈を撮影する撮像装置と、前記撮像装置により撮影された前記生体情報である撮像画像から静脈データおよび特徴量を抽出するデータ抽出部と、前記データ抽出部により抽出された前記静脈データおよび前記特徴量を登録静脈データおよび登録特徴量として格納する静脈データベースと、前記データ抽出部により抽出された前記静脈データおよび前記特徴量を前記登録静脈データおよび前記登録特徴量として前記静脈データベースに登録するデータ登録部と、前記静脈データベースから前記登録静脈データおよび前記登録特徴量を取得するデータ取得部と、前記データ抽出部により抽出された前記特徴量と前記データ取得部により取得された前記登録特徴量とから大まかな類似度を表すスコアを求め、前記スコアのソート結果に応じて照合順序を決定する照合順序決定部と、前記照合順序決定部によって決定された照合順序に従って前記データ抽出部により抽出された前記静脈データと前記データ取得部により取得された前記登録静脈データとを照合する照合処理部と、を備え、前記データ抽出部によって抽出される前記特徴量は、前記静脈データを縮小した静脈像に対してフーリエ変換により静脈の周期性を特徴化した周波数成分である第1静脈特徴量と、前記静脈像に対してフーリエ変換により静脈の方向性を特徴化した角度成分である第2静脈特徴量と、前記静脈像に対して静脈の湾曲の向きを特徴化した湾曲方向成分である第3静脈特徴量と、前記静脈像に対して静脈を分割した静脈セグメントの方向を特徴化したセグメント方向成分である第4静脈特徴量と、前記静脈像に含まれる静脈の量を特徴化した静脈量である第5静脈特徴量と、を有していることを特徴とする生体認証装置が提供される。
 このような生体情報登録方法、生体認証方法および生体認証装置によれば、5種類の特徴量を使用して照合順序を決定することにより、特徴量としての精度が上がる。これにより、照合順序を決定したときに、照合中の利用者のレコードが上位に来る確率を高くできるので、絞り込みの比率を少なくして照合の件数を減らすことができ、照合処理を高速化することができ、最大登録件数を拡大することができる。
 上記構成の生体情報登録方法、生体認証方法および生体認証装置では、特徴量の精度を上げたことにより、生体特有の不安定な静脈データに対して安定した静脈特徴量の算出が可能になり、これにより登録データを分類することで、手のひら静脈認証装置のようなバイオメトリクス認証システムにおいて、1対N照合時間の高速化および最大登録人数の拡大が期待できるという利点がある。
 本発明の上記および他の目的、特徴および利点は、本発明の例として好ましい実施の形態を表す添付の図面と関連した以下の説明により明らかになるであろう。
本発明を適用した入退出管理システムの構成を示すブロック図である。 静脈データ登録処理の流れを示すフローチャートである。 手のひら静脈の撮像画像の一例を示す図である。 撮像画像から静脈データが抽出される状態を示す概念図である。 静脈データから抽出される静脈特徴量を説明する概念図である。 静脈データベースに格納されるデータのデータ構造を示す図である。 静脈データ識別処理の流れを示すフローチャートである。 照合処理を説明する図であって、(A)は照合用の静脈データ、(B)は登録された静脈データの例を示す図である。 第1静脈特徴量の周波数成分を説明するための概念図である。 第2静脈特徴量の角度成分を説明するための概念図である。 第3静脈特徴量の算出エリアを示す図であって、(A)は第1の分割パターンを示し、(B)は第2の分割パターンを示す図である。 湾曲方向の定義を説明する図である。 湾曲方向の算出対象となる静脈セグメントを説明するための図であって、(A)はベクトル化された静脈セグメントを示し、(B)は最初に算出対象となる静脈セグメントを示し、(C)は次に算出対象となる静脈セグメントを示している。 第4静脈特徴量のセグメント方向の定義を説明する図である。 セグメント方向の算出対象となる静脈セグメントを説明するための図であって、(A)はベクトル化された静脈セグメントを示し、(B)は最初に算出対象となる静脈セグメントを示し、(C)は次に算出対象となる静脈セグメントを示している。 第5静脈特徴量の算出エリアを示す図であって、(A)は第1の分割パターンを示し、(B)は第2の分割パターンを示す図である。 1対N識別処理の流れを説明する図である。 静脈データ登録処理および静脈データ識別処理を実現するコンピュータのハードウェア構成の例を示す図である。
 以下、本発明の実施の形態について、静脈認証を行う生体認証装置が部屋の入退出管理システムに適用されている場合を例に図面を参照して詳細に説明する。
 [入退出管理システム]
 図1は本発明を適用した入退出管理システムの構成を示すブロック図である。
 この入退出管理システムは、手のひら静脈を撮影する撮像装置1と、撮像画像を基に認証処理を行う認証処理装置2と、多数の静脈データを登録している静脈データベース3と、認証処理装置2による処理結果に応じて動作する施錠・解錠部4とを備えている。
 撮像装置1は、撮像しようとする手5を支持するガイド6を有し、その下部にセンサユニット7が設置されている。センサユニット7は、その中央底部に、たとえば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサとすることができる赤外センサ8が設置され、その横には、距離センサ9が設置されている。赤外センサ8の周囲には、図の上方に向けて近赤外線を照射する近赤外線発光素子10が複数個(たとえば、8個)設置されている。
 認証処理装置2は、撮像装置1の距離センサ9および赤外センサ8の出力に接続されて赤外センサ8から手5までの距離および手5の輪郭を検出する距離/手輪郭検出部11および誘導メッセージを出力する誘導メッセージ出力部12を備えている。距離/手輪郭検出部11は、撮像装置1から距離センサ9の測定距離を受けて、手のひらなどの物体がセンサユニット7から所定範囲内の距離にあるか否かを判定し、かつ赤外センサ8が撮影した撮像画像から手の輪郭を検出し、その輪郭から画像が登録および照合の処理に使用できる画像か否かを判定する。
 誘導メッセージ出力部12は、手などが撮影範囲から外れている、および撮像画像が登録および照合処理に使用できない画像であると距離/手輪郭検出部11が判定したとき、手のひらを所定の位置に誘導するメッセージを図示しない表示器に出力する。
 認証処理装置2は、また、距離/手輪郭検出部11からの撮像画像を基に静脈に関するデータである静脈データと、その静脈の模様の諸特性を表す静脈特徴量とを抽出するデータ抽出部13を備えている。このデータ抽出部13の出力は、抽出された静脈データおよび静脈特徴量を静脈データベース3に登録するデータ登録部14と、照合順序を決定する照合順序決定部15とに接続されている。照合順序決定部15の出力は、照合処理をしてその結果を施錠・解錠部4に出力する照合処理部16に接続されている。照合順序決定部15および照合処理部16は、データ取得部17に接続されて、静脈データベース3から登録された静脈特徴量および静脈データをそれぞれ取得するようにしている。
 次に、以上の構成を有する入退出管理システムの動作である静脈データ登録処理および静脈データ識別処理について説明する。
 [静脈データの登録処理]
 図2は静脈データ登録処理の流れを示すフローチャート、図3は手のひら静脈の撮像画像の一例を示す図、図4は撮像画像から静脈データが抽出される状態を示す概念図、図5は静脈データから抽出される静脈特徴量を説明する概念図、図6は静脈データベースに格納されるデータのデータ構造を示す図である。
 静脈データ登録処理は、図2に示したように、まず、利用者が撮像装置1に手をかざすことによって、撮像装置1による手のひら静脈の撮影が行われる(ステップS1)。撮像装置1が撮影した手のひら静脈の撮像画像は、図3に示したように、近赤外線発光素子10が照射した近赤外線を静脈の部分が吸収するため、画像としては、静脈の血管が黒くなった模様になる。
 このようにして得られた撮像画像は、データ抽出部13に入力されて、ここで静脈データが生成される(ステップS2)。静脈データは、図4に示したように、幹R1、太い枝R2、およびこの太い枝R2に繋がる細い枝R3からなる静脈データに分類することができる。静脈データから幹R1、太い枝R2および細い枝R3への分類は、データ抽出部13にて実行される。
 以上の手のひら静脈の撮影(ステップS1)および静脈データの生成(ステップS2)は、複数回、この実施の形態では3回繰り返して行われる。したがって、ステップS1およびS2の処理では、3回分の静脈データが得られることになる。この撮影の回数は、設定により変更することができる。このデータ抽出部13で生成された静脈データは、静脈データベース3への登録対象データとなる。
 次に、データ抽出部13は、静脈データからたとえば細い枝R3および太い幹R1の一部を除いた静脈像から、撮影状況の影響を受けにくい5種類の静脈特徴量、すなわち、図5に概念的に示したような第1ないし第5静脈特徴量V1-V5を算出する(ステップS3)。
 第1静脈特徴量V1は、静脈像における幹R1および太い枝R2の間隔および本数を表す周波数成分である。第2静脈特徴量V2は、静脈像の幹R1および太い枝R2の方向成分の分布である。第3静脈特徴量V3は、静脈像の幹R1および太い枝R2の湾曲方向成分の分布である。第4静脈特徴量V4は、静脈像の幹R1および太い枝R2をその長さ方向に分割してなるセグメントの方向成分の分布である。第5静脈特徴量V5は、静脈像を分割したエリア内における静脈像の幹R1および太い枝R2の量の分布である。これらの第1ないし第5静脈特徴量V1-V5は、撮像画像の回転、像の一部の欠落のような撮影状態の不安定さ、撮影時の手の傾きなどにほとんど影響されることなく抽出することができるものである。
 このようにしてデータ抽出部13により算出された第1ないし第5静脈特徴量V1-V5は、データ登録部14によって静脈データベース3に登録される(ステップS4)。この静脈データベース3に登録されるデータのデータ構造は、図6に示したように、利用者ごとに1つのレコードが割り当てられていて、それぞれのレコードには、利用者識別番号(ID)と、5種類の静脈特徴量と、撮像画像の静脈データとが格納されている。なお、第3ないし第5静脈特徴量V3-V5については、分割されたエリアの境界線上におけるデータの喪失を防ぐために、互いに分割位置を変えた2パターンの静脈特徴量をそれぞれ算出して格納している。静脈データについては、3回撮影した撮像画像のすべてのデータを格納している。
 [静脈データの識別処理]
 図7は静脈データ識別処理の流れを示すフローチャート、図8は照合処理を説明する図であって、(A)は照合用の静脈データ、(B)は登録された静脈データの例を示す図である。
 静脈データの識別処理は、図7に示したように、まず、撮像装置1により利用者の手のひら静脈の撮影が行われ(ステップS11)、データ抽出部13によって、静脈データの生成(ステップS12)および静脈特徴量の算出が行われる(ステップS13)。このステップS11ないしS13の処理は、撮影回数が1回であることを除いて登録処理の場合と同じである。
 次に、データ取得部17によって静脈データベース3から登録されている静脈特徴量が取得される(ステップS14)。取得された静脈特徴量は、照合順序決定部15に送られる。照合順序決定部15は、データ抽出部13にて算出された静脈特徴量と静脈データベース3から取得した静脈特徴量とを基にして、それらの差分の総和であるスコアを算出し(ステップS15)、そのスコアに基づいて登録データ群のレコードをソートして照合順序を決定する(ステップS16)。
 次に、照合処理部16は、照合順序決定部15にて決定された照合順序に従って、データ抽出部13によって生成された静脈データと、データ取得部17によって取得された登録されている静脈データとの照合が行われる(ステップS17)。照合は、照合順序の上位m%のレコードについて類似度が順次算出され、その類似度が所定値以上となるレコードがあれば、認証OKと判定し、利用者の本人確認がされたことになる。このとき、この判定結果は、施錠・解錠部4に送られ、施錠・解錠部4は、ドアに設置された電気錠の解錠と所定時間後における施錠とを行う。
 類似度が所定値以上となるレコードが複数あれば、それらのレコードを類似度でソートし、最も類似度の高いレコードが利用者のレコードと判定され、利用者が特定される。また、類似度が所定値以上となるレコードがない場合は、たとえばブザーを鳴動させるなどして、認証が失敗したことを利用者に通知する。
 ここで、類似度の算出方法について説明する。図8に示す静脈データD1,D2は、それぞれ、識別処理において撮影された撮像画像の静脈データおよび登録されている静脈データを数値化したものである。これらの静脈データD1,D2は、いずれも、説明のために極端に単純化して縦横に5分割した25個の画素から構成されていて、各画素は、いずれも近赤外線の反射光の強度により表された階調データを有している。各画素は、0から255までの値を保持することができるが、撮像装置1の2値化処理によって、0から255までの値のうちの0と255との2種類の値に割り当てられている。ここでは、画素値「0」の画素は、静脈像の黒色を示し、画素値「255」は、それ以外の部分(白色)を示している。
 類似度の算出方法は、照合用の静脈データD1の25個の画素値と、登録された静脈データD2の25個の画素値とを一個ずつ比較し、両方の静脈データD1,D2の対応する座標の画素値が同一の画素の数をカウントしていき、得られたカウント値が類似度の値となる。図示の例で言えば、画素値が完全に一致してカウント値が「25」なら類似度は「25」、画素値がまったく一致するものがなくてカウント値が「0」なら類似度は「0」である。このように、撮影された撮像画像の静脈データD1および登録されている静脈像の静脈データD2の各画素について単純に比較するだけなので、高速に処理することができる。
 次に、以上の照合処理を行う前処理として、照合を行うべきレコードの絞り込みをするための技術である、静脈特徴量の算出、静脈特徴量のスコア算出および照合順序決定処理について、詳細に説明する。
 [静脈特徴量の算出]
 図9は第1静脈特徴量の周波数成分を説明するための概念図である。
 第1静脈特徴量V1の算出において、まず、細い枝R3および太い幹R1の一部を除く静脈データを、たとえば、256x256の大きさの画像中央に展開して画像サイズを縮小し、この画像を静脈像f(x,y)とする。
 次に、この静脈像f(x,y)を下記の式(1)により二次元高速フーリエ変換をして、空間周波数成分F(u,v)を求める。この二次元高速フーリエ変換は、まず、静脈像f(x,y)のx方向に各ラインの画素をフーリエ変換し、その後、そのラインの変換結果を、y方向にフーリエ変換する。
Figure JPOXMLDOC01-appb-M000001
ただし、W1=exp(-j2π/M)、W2=exp(-j2π/N)であり、M,Nは、各々横方向,縦方向の画素数である。
 次に、下記の式(2)により、空間周波数成分F(u,v)からパワースペクトルP(u,v)を算出する。
P(u,v)=|F(u,v)|^2  (2)
 次に、このようにして求めたパワースペクトルP(u,v)を極座標形式のパワースペクトルP(r,θ)とし、下記の式(3)により、原点を中心としたドーナツ型領域内のエネルギを求める。
Figure JPOXMLDOC01-appb-M000002
ただし、θは、0~πの範囲である。そして、このp’(r)から、下記の式(4)により、各周波数のエネルギ比を求める。
p(r)=10000*p’(r)/Σp’(r)  (4)
なお、rは、半径であって、ここでは、r=1~32とし、10000は、整数型変換のための補正値である。
 このようにして、第1静脈特徴量V1は、図9に示したように、極座標系パワースペクトル空間において、原点を中心としたドーナツ型領域のエネルギの和である。ここでは、半径rを1から32まで変化させたときの32個の周波数分を第1静脈特徴量V1のインデックスIndex1として使用し、このインデックスIndex1は、下記の式(5)によって算出される。
Index1[32]={p(1),p(2),..,p(32)}          (5)
 図10は第2静脈特徴量の角度成分を説明するための概念図である。
 第2静脈特徴量V2では、第1静脈特徴量V1の場合と同様、静脈像f(x,y)をフーリエ変換して、空間周波数成分F(u,v)を算出し、この空間周波数成分F(u,v)からパワースペクトルP(u,v)を算出する。
 次に、パワースペクトルP(u,v)を極座標形式のパワースペクトルP(r,θ)とし、下記の式(6)により、角度のエネルギを求める。
Figure JPOXMLDOC01-appb-M000003
ただし、wは、P(u,v)の定義域の大きさであり、θは、ここでは、180度を12等分した方向を示している。そして、このq’(θ)から、下記の式(7)により、各角度のエネルギ比を求める。つまり、12等分されたそれぞれの角度範囲におけるエネルギ比が算出される。
q(θ)=10000*q’(θ)/Σq’(θ)  (7)
なお、10000は、整数型変換のための補正値である。
 第2静脈特徴量V2は、図10に示したように、15度ずつの角度範囲におけるエネルギの和である。ここでは、角度θを0から180まで変化させたときの12個の角度成分を第2静脈特徴量V2のインデックスIndex2として使用し、このインデックスIndex2は、下記の式(8)によって算出される。
Index2[12]={q(0),q(1),..,q(11)}          (8)
なお、この第1の角度成分q(0)は、θが0から14度までの角度のエネルギであるので、下記の式(9)で算出され、以下、θを順次変更して12方向分まで算出される。
Figure JPOXMLDOC01-appb-M000004
 図11は第3静脈特徴量の算出エリアを示す図であって、(A)は第1の分割パターンを示し、(B)は第2の分割パターンを示す図であり、図12は湾曲方向の定義を説明する図、図13は湾曲方向の算出対象となる静脈セグメントを説明するための図であって、(A)はベクトル化された静脈セグメントを示し、(B)は最初に算出対象となる静脈セグメントを示し、(C)は次に算出対象となる静脈セグメントを示している。
 第3静脈特徴量V3は、静脈像から静脈が曲がっている方向(湾曲方向)を特徴量とするもので、その湾曲方向成分は、静脈像を幾つかに分割し、その分割エリアごとに算出することになる。
 このエリア分割は、図11に示したように、静脈像をたとえば6つのエリアに分割している。すなわち、図11の(A)に示す第1の分割パターンP1では、静脈像を2行3列に分割し、(B)に示す第2の分割パターンP2では、3行2列に分割している。これにより、第1の分割パターンP1で分割されたエリア間の境界線上にある静脈は、正しく認識されない可能性があるが、第2の分割パターンP2では、その境界線上にはないので正しく認識されようになる。このように分割位置の異なる第1の分割パターンP1および第2の分割パターンP2を使用することにより、データの欠落を相互に補完することができる。
 静脈の湾曲方向を算出するには、まず、静脈データをベクトル化して、曲線状の静脈をセグメントと呼ばれる細い直線の連続したものに変換し、さらに、ノイズとなる成分を除去しておく。ノイズ成分としては、独立した短い静脈セグメント、細い枝の静脈セグメント、円を構成する静脈セグメントがある。
 ここで、湾曲方向の定義をしておく。図12に示したように、ベクトル化された静脈セグメントがあって、それらの2つの隣接する静脈セグメントの端点の座標がA,B,Cであるとするとき、隣接する2つの静脈セグメントの両端を結ぶ直線ACに対してベクトル点(屈曲点)Bから垂線を下ろした方向を湾曲の向きと定義している。
 次に、湾曲方向の算出を行うには、繋がっている静脈セグメントを分割し、そこから算出対象の静脈セグメントを決定し、決定された静脈セグメントに対して湾曲方向の算出を実行する。
 すなわち、図13の(A)に示す静脈セグメントに対してそのベクトル点の座標を求める。次に、図13の(B)に示したように、静脈セグメントの開始座標A1と、それからある長さ分離れた座標B1、さらに同じ長さ分離れた座標C1を端点とする分割セグメントを求め、これらの分割セグメントが座標B1の湾曲方向を算出する対象となる。ここでは、静脈セグメントの開始座標A1から1つ飛びのベクトル点をとって座標B1,C1としている。
 次は、座標A1,B1,C1からそれぞれ1座標ずらして、それを次に算出対象となる静脈セグメントの座標A2,B2,C2とする。このようにして算出対象となる静脈セグメントの決定は、ベクトル点を1座標ずつずらしながら順次行われて、セグメントの終了座標まで続けられる。
 次に、湾曲方向の算出について説明する。ここでは、ベクトル点が3点以上で構成される静脈セグメントにおいて、隣接する静脈セグメントの端点をA,B,Cとしたときの方向Bの角度を下記の式(10)、(11)および(12)を用いて算出する。
 すなわち、A,B,CをBが原点になるよう平行移動させた時の座標A’,B’,C’は、それぞれA’(xa,ya)、B’(xb,yb)、C’(xc,yc)であるとする。また、直線ACとこれに対する点Bからの垂線との交点の座標をH(Hx,Hy)とすると、座標は次の式(10)、(11)で計算することができる。
Figure JPOXMLDOC01-appb-M000005
Figure JPOXMLDOC01-appb-M000006
 ここから、方向Bの角度は、以下の式(12)によって求められる。
方向B=atan2(Hy,Hx)*(180/π)  (12)
 以上のようにして、すべての湾曲方向の算出が終了すると、すべての分割セグメントのベクトル点の湾曲方向のヒストグラム(curv[θ])が第1および第2の分割パターンP1,P2のエリアごとに作成される。ここでは、360度を10度単位で区切った36個の角度領域を設定し、湾曲方向が算出されると、その方向を含む角度領域の値がインクリメントされるようにすることで、湾曲方向のヒストグラム(curv[θ])が生成される。このヒストグラム(curv[θ])は、インデックスpreIndex3として使用され、たとえば第1の分割パターンP1の第1のエリアに関する湾曲36方向成分のインデックスは、下記の式(13)のようになる。
preIndex3_1[0][36]={curv(0),curv(1),..,curv(35)}  (13)
ここで、たとえば、curv(0)については、0度から9度までの範囲に含まれる湾曲方向が積算された値を示しており、下記の式(14)によって算出されたものである。
Figure JPOXMLDOC01-appb-M000007
 このヒストグラムの作成は、他のエリア(preIndex[1]~preIndex[5])についても同様に行われる。
 次に、以上のようにして求められたインデックスpreIndex3_1[m][n]{m=0~5,n=0~35}から、それらの総和(ALLcnt1)が求められ、各要素を総和で割り算し、比率を算出することで、正規化を行う。
 たとえば、第1の分割パターンP1の1番目のエリアに関する湾曲36方向成分のインデックスは、下記の式(15)によって求められる。
Index3_P1[0][36]=preIndex3_1[0][0]/Allcnt1,preIndex3_1[0][1]/ALLcnt1,..,preIndex3_1[0][35]/ALLcnt1            (15)
 第1の分割パターンP1の2番目のエリアに関する湾曲36方向成分のインデックスは、下記の式(16)によって求められる。
Index3_P1[1][36]=preIndex3_1[1][0]/Allcnt1,preIndex3_1[1][1]/ALLcnt1,..,preIndex3_1[1][35]/ALLcnt1            (16)
 同様にして、第1の分割パターンP1の6番目のエリアに関する湾曲36方向成分のインデックスは、下記の式(17)によって求められる。
Index3_P1[5][36]=preIndex3_1[5][0]/Allcnt1,preIndex3_1[5][1]/ALLcnt1,..,preIndex3_1[5][35]/ALLcnt1            (17)
 もう1つの第2の分割パターンP2についても、上記と同様に、静脈セグメントの分割、湾曲方向の算出、および湾曲方向ヒストグラムの作成の処理を行ない、以下の正規化を行なう。ここでは、以上の処理で求められたインデックスpreIndex3_2[m][n]{m=0~5,n=0~35}の総和をALLcnt2とする。
 たとえば、第2の分割パターンP2の1番目のエリアに関する湾曲36方向成分のインデックスは、下記の式(18)によって求められる。
Index3_P2[0][36]=preIndex3_2[0][0]/Allcnt2,preIndex3_2[0][1]/ALLcnt2,..,preIndex3_2[0][35]/ALLcnt2            (18)
 第2の分割パターンP2の2番目のエリアに関する湾曲36方向成分のインデックスは、下記の式(19)によって求められる。
Index3_P2[1][36]=preIndex3_2[1][0]/Allcnt2,preIndex3_2[1][1]/ALLcnt2,..,preIndex3_2[1][35]/ALLcnt2           (19)
 同様にして、第2の分割パターンP2の6番目のエリアに関する湾曲36方向成分のインデックスは、下記の式(20)によって求められる。
Index3_P2[5][36]=preIndex3_2[5][0]/Allcnt2,preIndex3_2[5][1]/ALLcnt2,..,preIndex3_2[5][35]/ALLcnt2           (20)
 図14は第4静脈特徴量のセグメント方向の定義を説明する図、図15はセグメント方向の算出対象となる静脈セグメントを説明するための図であって、(A)はベクトル化された静脈セグメントを示し、(B)は最初に算出対象となる静脈セグメントを示し、(C)は次に算出対象となる静脈セグメントを示している。
 第4静脈特徴量V4は、静脈データから分割された静脈セグメントの方向(傾き)を特徴量としている。このセグメント方向成分の算出は、第3静脈特徴量の算出と同様、静脈像を幾つかに分割し、その分割エリアごとに行っている。その分割パターンは、図11に示したものと同じで、静脈像を6エリアに等分割したものを2パターン用意し、それぞれのエリアで、ヒストグラムを算出することになる。
 ここで、セグメント方向の定義をしておく。図14に示したように、ベクトル化された静脈セグメントがあって、それらのセグメントのうち、ある2点のベクトル点の座標を結ぶ直線ABの傾きをセグメント方向と定義している。
 次に、セグメント方向の算出を行うには、繋がっている静脈セグメントを分割し、そこから算出対象の静脈セグメントを決定し、決定された静脈セグメントに対してセグメント方向の算出を実行する。
 すなわち、図15の(A)に示す静脈セグメントに対してそのベクトル点の座標を求める。次に、図15の(B)に示したように、静脈セグメントの開始座標A1と、それからある長さ分離れた座標B1とからこれらを両端とする分割セグメントを求める。ここでは、静脈セグメントの開始座標A1から2つ飛びのベクトル点を座標B1としている。なお、傾きを求めるための分割セグメントの長さは、実験結果に基づいて決められる。
 次の分割セグメントは、座標A1,B1から1座標ずらして得られる座標A2,B2が両端座標となる。このようにして算出対象となる分割セグメントの決定は、座標を1座標ずつずらしながら順次行われて、セグメントの終了座標まで続けられる。
 次に、分割セグメントの傾きの算出について説明する。ここでは、分割セグメントの両端座標をA,Bとしたときの分割セグメントの傾きの角度を下記の式(21)を用いて算出する。
 すなわち、分割セグメントの両端におけるA,Bの座標をそれぞれA(xa,ya)、B(xb,yb)とすると、セグメント方向は、
セグメント方向=atan2(yb-ya,xb-xa)*(180/π)  (21)
によって求めることができる。ただし、角度がマイナスの場合は、180度を加算し、180度以上の場合は、180度を減算する。これは、たとえば、270度やマイナス90度の直線の傾きが90度と同じと見做すためである。
 以上のようにして、すべてのセグメント方向の算出が終了すると、すべての分割セグメントについてのセグメント方向のヒストグラム(segdir[θ])が第1および第2の分割パターンP1,P2のエリアごとに作成される。ここでは、180度を10度単位で区切った18個の角度領域を設定し、セグメント方向が算出されると、その方向を含む角度領域の値がインクリメントされるようにすることで、セグメント方向のヒストグラム(segdir[θ])を生成する。このヒストグラム(segdir[θ])は、インデックスpreIndex4として使用され、たとえば第1の分割パターンP1の第1のエリアに関するセグメント18方向成分のインデックスは、下記の式(22)のようになる。
preIndex4_1[0][18]={sigdir(0),segdir(1),..,segdir(17)}  (22)
ここで、たとえば、segdir(0)については、0度から9度までのセグメント方向が積算された値を示しており、下記の式(23)によって算出されたものである。
Figure JPOXMLDOC01-appb-M000008
 このヒストグラムの作成は、他のエリア(preIndex4_1[1]~preIndex4_1[5])についても同様に行われる。
 次に、以上のようにして求められたインデックスpreIndex4_1[m][n]{m=0~5, n=0~17}から、それらの総和(ALLcnt1)が求められ、各要素を総和で割り算し、比率を算出することにより、正規化を行う。
 たとえば、第1の分割パターンP1の1番目のエリアに関するセグメント18方向成分のインデックスは、下記の式(24)によって求められる。
Index4_P1[0][18]=preIndex4_1[0][0]/Allcnt1,preIndex4_1[0][1]/ALLcnt1,..,preIndex4_1[0][17]/ALLcnt1                   (24)
 第1の分割パターンP1の2番目のエリアに関するセグメント18方向成分のインデックスは、下記の式(25)によって求められる。
Index4_P1[1][18]=preIndex4_1[1][0]/Allcnt1,preIndex4_1[1][1]/ALLcnt1,..,preIndex4_1[1][17]/ALLcnt1                   (25)
 同様にして、第1の分割パターンP1の6番目のエリアに関するセグメント18方向成分のインデックスは、下記の式(26)によって求められる。
Index4_P1[5][18]=preIndex4_1[5][0]/Allcnt1,preIndex4_1[5][1]/ALLcnt1,..,preIndex4_1[5][17]/ALLcnt1                   (26)
 もう1つの第2の分割パターンP2についても、上記と同様に、静脈セグメントの分割、分割セグメントの傾きの算出、およびヒストグラムの作成の処理を行ない、以下の正規化を行なう。ここでは、以上の処理で求められたインデックスpreIndex4_2[m][n]{m=0~5,n=0~17}の総和をALLcnt2とする。
 たとえば、第2の分割パターンP2の1番目のエリアに関するセグメント18方向成分のインデックスは、下記の式(27)によって求められる。
Index4_P2[0][18]=preIndex4_2[0][0]/Allcnt2,preIndex4_2[0][1]/ALLcnt2,..,preIndex4_2[0][17]/ALLcnt2                 (27)
 第2の分割パターンP2の2番目のエリアに関するセグメント18方向成分のインデックスは、下記の式(28)によって求められる。
Index4_P2[1][18]=preIndex4_2[1][0]/Allcnt2,preIndex4_2[1][1]/ALLcnt2,..,preIndex4_2[1][17]/ALLcnt2                 (28)
 同様にして、第2の分割パターンP2の6番目のエリアに関するセグメント18方向成分のインデックスは、下記の式(29)によって求められる。
Index4_P2[5][18]=preIndex4_2[5][0]/Allcnt2,preIndex4_2[5][1]/ALLcnt2,..,preIndex4_2[5][17]/ALLcnt2                 (29)
 図16は第5静脈特徴量の算出エリアを示す図であって、(A)は第1の分割パターンを示し、(B)は第2の分割パターンを示す図である。
 第5静脈特徴量V5は、静脈データに含まれる静脈の量を特徴量とし、それをインデックスとして利用するものである。静脈量は、静脈像を幾つかに分割し、その分割エリアごとに算出する。ここでは、第1の分割パターンP1aとして、7x7の49エリアに分割したパターンを用意し、第2の分割パターンP2aとしては、8x8の64エリアに分割したパターンを用意している。
 静脈量は、各エリアにおける静脈の疎密を意味し、したがって、それぞれのエリア中に静脈像の画素が幾つあるかをカウントすることによって算出される。この静脈量の算出は、第1の分割パターンP1aの49エリアおよび第2の分割パターンP2aの64エリアのすべてのエリアについて行われ、ヒストグラム(seghist1[n])が作成される。このヒストグラム(seghist1[n])は、インデックスpreIndex5として使用され、たとえば第1の分割パターンP1aのすべてのエリアに関する静脈量のインデックスは、下記の式(30)のようになる。
preIndex5_1[49]={seghist1[0],seghist1[1],..,seghist1[48]}  (30)
 次に、このようにして求められたインデックスpreIndex5からpreIndex5_1[n]{n=0~48}の総和(ALLcnt1)が求められ、各要素を総和で割り算し、比率を算出することで、正規化が行われる。
 たとえば、第1の分割パターンP1aの49エリアに関する静脈量のインデックスは、下記の式(31)によって正規化される。
Index5_P1a[49]=preIndex5_1[0]/Allcnt1,preIndex5_1[1]/ALLcnt1,..,preIndex5_1[48]/ALLcnt1  (31)
 もう1つの第2の分割パターンP2aについても、同様に、すべてのエリアのヒストグラムを作成する。そのときの64エリアに関する静脈量のインデックスpreIndex5_2[n]{n=0~63}の総和をALLcnt2とし、下記の式(32)によって正規化が行われる。
Index5_P2a[64]=preIndex5_2[0]/Allcnt2,preIndex5_2[1]/ALLcnt2,..,preIndex5_2[63]/ALLcnt2  (32)
 次に、以上のようにして求められた静脈の5種類の静脈特徴量は、静脈データ登録処理のときは、静脈データベース3に格納され、静脈データ識別処理のときは、登録データと照合される照合データとなる。次に、その静脈データ識別処理において行われる静脈特徴量のスコア算出および照合順序決定処理について説明する。
 [静脈特徴量のスコア算出]
 照合データとしての第1ないし第5静脈特徴量V1-V5が算出されると、次に、静脈データベース3から全登録レコードの特徴量が取得され、静脈特徴量に関する両者の類似度を見るためのスコアが算出される。
 静脈特徴量のスコアは、レコードごとに登録データ照合データとの差分の絶対値の総和によって算出される。すなわち、第1静脈特徴量V1のスコアは、下記の式(33)によって算出される。
score1=|登録Index1[0]-照合Index1[0]|
      +|登録Index1[1]-照合Index1[1]|
      :
      +|登録Index1[35]-照合Index1[35]|  (33)
 第2静脈特徴量V2のスコアは、下記の式(34)によって算出される。
score2=|登録Index2[0]-照合Index2[0]|
      +|登録Index2[1]-照合Index2[1]|
      :
      +|登録Index2[35]-照合Index2[35]|  (34)
 第3静脈特徴量V3(第1の分割パターンP1)のスコアは、下記の式(35)によって算出される。
score3_P1=|登録Index3_P1[0][0]-照合Index3_P1[0][0]|
         +|登録Index3_P1[0][2]-照合Index3_P1[0][2]|
         :
         +|登録Index3_P1[0][35]-照合Index3_P1[0][35]|  (35)
 第3静脈特徴量V3(第2の分割パターンP2)のスコアは、下記の式(36)によって算出される。
score3_P2=|登録Index3_P2[0][0]-照合Index3_P2[0][0]|
         +|登録Index3_P2[0][2]-照合Index3_P2[0][2]|
         :
         +|登録Index3_P2[0][35]-照合Index3_P2[0][35]|  (36)
 以下、同様にして、第4静脈特徴量V4(第1の分割パターンP1)のスコアscore4_P1、第4静脈特徴量V4(第2の分割パターンP2)のスコアscore4_P2、第5静脈特徴量V5(第1の分割パターンP1a)のスコアscore5_P1a、および第5静脈特徴量V5(第2の分割パターンP2a)のスコアscore5_P2が算出される。この静脈特徴量のスコアの算出は、登録されているすべてのレコードについて行われる。
 [照合順序決定処理]
 次に、以上のようにして算出された静脈特徴量のスコアは、レコードごとのトータルスコアの算出に使用される。トータルスコアtotal[N](Nはレコード番号)は、下記の式(37)によって算出される。
total[N]=α・score1
        +β・score2
        +γ・(score3_P1+score3_P2)
        +δ・(score4_P1+score4_P2)
        +ε・(score5_P1a+score5_P2a)  (37)
ここで、α,β,γ,δ,εは重み係数である。
 なお、静脈データ登録処理において、登録が複数回行なわれている場合は、それぞれの撮影単位でトータルスコアを算出し、合算する。
 このようにして算出されたトータルスコアtotal[N]は、降順でソートされる。このソート結果が照合順序となり、照合処理を行うときは、その照合順序に従って照合が行われることになる。
 次に、以上の照合順序決定処理の技術を適用して、1対Nの識別処理を行う例について説明する。
 図17は1対N識別処理の流れを説明する図である。
 すべてのレコードのトータルスコアが算出されると、1対N識別処理が開始される(S21)。まず、すべてのレコードは、トータルスコアで降順にソートされる(S22)。その結果、すべてのレコードは、トータルスコアの大きい順に並び替えられる。
 ここでは、照合データはすべての登録データと照合するのではなく、トータルスコアの上位m%のレコードだけに照合対象を絞るようにしている(S23)。図示の例では、上位3件のレコードに絞り込まれた状態を示している。
 照合処理では、照合データの静脈データと、絞り込まれた上位3件のレコードの静脈データとの照合が行われる(S24)。このとき、照合データと登録データ群との間の類似度が算出され、類似度が所定の値を超えたレコードが認証OKとなる。図示の例では、「レコード7」が類似度「0」なので、認証NGとなる。
 次に、認証OKとなったレコードは、類似度で降順にソートされる(S25)。そして、このソートの結果、最も類似度の高いレコードの利用者識別番号(ID)がこの照合処理の結果として出力され、たとえば入退室のログファイルに日付および時刻とともに記録される。
 上述のように、静脈データの照合処理の前処理である静脈特徴量算出にて5種類の静脈特徴量を使用したことにより、特徴量の精度が上がり、それをソートしたときに類似度の高いレコードが上位にくる確率が高くなる。そのため、レコードを絞り込むときにも照合対象にすべき割合を少なくすることができる。たとえば、背景技術で述べた3種類の静脈特徴量を使用する生体認証装置では、上位30%に絞り込んでいたものが、本実施の形態では、上位6%まで絞り込むことができ、これによって、照合対象のレコードが少なくなるので、照合処理を高速化することができる。そして、照合処理を高速化することができることから、静脈データの最大登録件数を大幅に拡大することが可能になる。また、静脈特徴量として、5種類のデータを8つ使用しているが、何れも、照合処理に比較して大幅にデータ量が小さいので、静脈特徴量算出から照合順序決定処理までにかかる時間が長くなることもない。
 図18は静脈データ登録処理および静脈データ識別処理を実現するコンピュータのハードウェア構成の例を示す図である。
 コンピュータ20は、装置全体を制御するCPU(Central Processing Unit)21を備えている。CPU21は、バス22を介して、RAM(Random Access Memory)23、ハードディスクドライブ(HDD:Hard Disk Drive)24、画像処理部25、および入出力インタフェース26に接続されている。
 RAM23には、CPU21に実行させるOS(Operating System)のプログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、RAM23には、CPU21による処理に必要な各種データやパラメータが格納される。ハードディスクドライブ24には、OSや認証処理を行うアプリケーションプログラムが格納される。
 画像処理部25には、モニタ27が接続され、CPU21からの命令に従って画像をモニタ27の画面に表示させる。入出力インタフェース26には、キーボード28、マウス29、電気錠30および撮像装置1が接続されている。キーボード28およびマウス29から出力される信号は、入出力インタフェース26にて受けられ、バス22を介してCPU21に送信される。撮像装置1から出力される手のひら静脈の撮像画像の信号は、入出力インタフェース26にて受けられ、バス22を介してRAM23またはハードディスクドライブ24に転送される。電気錠30は、ドアに設置されていて、認証処理を行うアプリケーションプログラムの実行結果が入出力インタフェース26を介して受けられ、個人認証がOKか否かに応じて施錠または解錠の動作を行う。
 以上のようなハードウェア構成によって、本実施の形態の1対N識別処理機能を実現することができる。
 上記については単に本発明の原理を示すものである。さらに、多数の変形、変更が当業者にとって可能であり、本発明は上記に示し、説明した正確な構成および応用例に限定されるものではなく、対応するすべての変形例および均等物は、添付の請求項およびその均等物による本発明の範囲とみなされる。
 1 撮像装置
 2 認証処理装置
 3 静脈データベース
 4 施錠・解錠部
 5 手
 6 ガイド
 7 センサユニット
 8 赤外センサ
 9 距離センサ
 10 近赤外線発光素子
 11 距離/手輪郭検出部
 12 誘導メッセージ出力部
 13 データ抽出部
 14 データ登録部
 15 照合順序決定部
 16 照合処理部
 17 データ取得部
 20 コンピュータ
 21 CPU
 22 バス
 23 RAM
 24 ハードディスクドライブ
 25 画像処理部
 26 入出力インタフェース
 27 モニタ
 28 キーボード
 29 マウス
 30 電気錠

Claims (15)

  1.  利用者の生体情報を登録する生体情報登録方法において、
     コンピュータが、
     撮像装置により撮影された前記生体情報である撮像画像から静脈データおよび特徴量を抽出し、
     抽出された前記静脈データおよび前記特徴量を静脈データベースに登録する生体情報登録方法であって、
     前記特徴量は、
     前記静脈データを縮小した静脈像に対してフーリエ変換により静脈の周期性を特徴化した周波数成分である第1静脈特徴量と、
     前記静脈像に対してフーリエ変換により静脈の方向性を特徴化した角度成分である第2静脈特徴量と、
     前記静脈像に対して静脈の湾曲の向きを特徴化した湾曲方向成分である第3静脈特徴量と、
     前記静脈像に対して静脈を分割した静脈セグメントの方向を特徴化したセグメント方向成分である第4静脈特徴量と、
     前記静脈像に含まれる静脈の量を特徴化した静脈量である第5静脈特徴量と、
     を有していることを特徴とする生体情報登録方法。
  2.  生体情報から利用者を認証する生体認証方法において、
     コンピュータが、
     撮像装置により撮影された前記生体情報である撮像画像から静脈データおよび特徴量を抽出し、
     静脈データベースに登録されたそれぞれのレコードの登録静脈データおよび登録特徴量を取得し、
     抽出された前記特徴量と取得された前記登録特徴量とから大まかな類似度を表すスコアを求め、
     前記スコアのソート結果により照合順序を決定し、
     決定された前記照合順序に従って前記静脈データと前記登録静脈データとを照合する生体認証方法であって、
     前記特徴量および前記登録特徴量は、
     前記静脈データを縮小した静脈像に対してフーリエ変換により静脈の周期性を特徴化した周波数成分である第1静脈特徴量と、
     前記静脈像に対してフーリエ変換により静脈の方向性を特徴化した角度成分である第2静脈特徴量と、
     前記静脈像に対して静脈の湾曲の向きを特徴化した湾曲方向成分である第3静脈特徴量と、
     前記静脈像に対して静脈を分割した静脈セグメントの方向を特徴化したセグメント方向成分である第4静脈特徴量と、
     前記静脈像に含まれる静脈の量を特徴化した静脈量である第5静脈特徴量と、
     を有していることを特徴とする生体認証方法。
  3.  前記スコアは、前記第1ないし第5特徴量に関して、抽出された前記特徴量と取得された前記登録特徴量との差の総和をそれぞれ求め、さらに前記第1ないし第5特徴量のスコアの総和を求めることによって得られるトータルスコアであることを特徴とする請求の範囲第2項記載の生体認証方法。
  4.  前記照合順序は、前記静脈データベースに登録されたレコードを前記トータルスコアでソートすることにより決定されることを特徴とする請求の範囲第3項記載の生体認証方法。
  5.  前記静脈データと前記登録静脈データとの照合は、前記スコアのソート結果により決定された照合順序の上位の一部に絞り込まれたものに対して行われることを特徴とする請求の範囲第2項記載の生体認証方法。
  6.  前記照合により得られた類似度から所定値以上の類似度のレコードに対して前記類似度でソートし、最上位のレコードを、静脈が撮影された利用者のレコードであると判断するようにしたことを特徴とする請求の範囲第2項記載の生体認証方法。
  7.  前記第1静脈特徴量は、前記静脈像を二次元高速フーリエ変換して空間周波数成分を求め、前記空間周波数成分からパワースペクトルを求め、前記パワースペクトルを極座標形式にして原点を中心としたドーナツ型領域内のエネルギを求めることにより、静脈が周期的に現われる特性を算出して求めた周波数成分であることを特徴とする請求の範囲第2項記載の生体認証方法。
  8.  前記第2静脈特徴量は、前記静脈像を二次元高速フーリエ変換して空間周波数成分を求め、前記空間周波数成分からパワースペクトルを求め、前記パワースペクトルを極座標形式にして所定の角度範囲内のエネルギを求めることにより、静脈が延びている方向を算出して求めた方向成分であることを特徴とする請求の範囲第2項記載の生体認証方法。
  9.  前記第3静脈特徴量は、前記静脈像をベクトル化してベクトル点で屈曲された直線のセグメントからなる静脈セグメントを求め、ある長さ分離れたベクトル点の座標を両端とする隣接する2つのセグメントの湾曲の向きを算出してヒストグラムを生成することにより求められるセグメント湾曲方向成分であることを特徴とする請求の範囲第2項記載の生体認証方法。
  10.  前記静脈像を分割位置の異なる2種類の分割パターンに従って複数のエリアに分割し、前記エリアごとに前記ヒストグラムを生成するようにしたことを特徴とする請求の範囲第9項記載の生体認証方法。
  11.  前記第4静脈特徴量は、前記静脈像をベクトル化してベクトル点で屈曲された直線のセグメントからなる静脈セグメントを求め、それぞれの前記セグメントの傾きを算出してヒストグラムを生成することにより求められるセグメント方向成分の分布であることを特徴とする請求の範囲第2項記載の生体認証方法。
  12.  前記静脈像を分割位置の異なる2種類の分割パターンに従って複数のエリアに分割し、前記エリアごとに前記ヒストグラムを生成するようにしたことを特徴とする請求の範囲第9項記載の生体認証方法。
  13.  前記第5静脈特徴量は、前記静脈像における静脈の画素数を算出してヒストグラムを生成することにより求められる静脈量の分布であることを特徴とする請求の範囲第2項記載の生体認証方法。
  14.  前記静脈像を分割数の異なる2種類の分割パターンに従って複数のエリアに分割し、前記エリアごとに前記ヒストグラムを生成するようにしたことを特徴とする請求の範囲第13項記載の生体認証方法。
  15.  生体情報から利用者の生体認証を行う生体認証装置において、
     利用者の静脈を撮影する撮像装置と、
     前記撮像装置により撮影された前記生体情報である撮像画像から静脈データおよび特徴量を抽出するデータ抽出部と、
     前記データ抽出部により抽出された前記静脈データおよび前記特徴量を登録静脈データおよび登録特徴量として格納する静脈データベースと、
     前記データ抽出部により抽出された前記静脈データおよび前記特徴量を前記登録静脈データおよび前記登録特徴量として前記静脈データベースに登録するデータ登録部と、
     前記静脈データベースから前記登録静脈データおよび前記登録特徴量を取得するデータ取得部と、
     前記データ抽出部により抽出された前記特徴量と前記データ取得部により取得された前記登録特徴量とから大まかな類似度を表すスコアを求め、前記スコアのソート結果に応じて照合順序を決定する照合順序決定部と、
     前記照合順序決定部によって決定された照合順序に従って前記データ抽出部により抽出された前記静脈データと前記データ取得部により取得された前記登録静脈データとを照合する照合処理部と、
     を備え、前記データ抽出部によって抽出される前記特徴量は、
     前記静脈データを縮小した静脈像に対してフーリエ変換により静脈の周期性を特徴化した周波数成分である第1静脈特徴量と、
     前記静脈像に対してフーリエ変換により静脈の方向性を特徴化した角度成分である第2静脈特徴量と、
     前記静脈像に対して静脈の湾曲の向きを特徴化した湾曲方向成分である第3静脈特徴量と、
     前記静脈像に対して静脈を分割した静脈セグメントの方向を特徴化したセグメント方向成分である第4静脈特徴量と、
     前記静脈像に含まれる静脈の量を特徴化した静脈量である第5静脈特徴量と、
     を有していることを特徴とする生体認証装置。
PCT/JP2009/068728 2009-10-30 2009-10-30 生体情報登録方法、生体認証方法および生体認証装置 WO2011052085A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2009/068728 WO2011052085A1 (ja) 2009-10-30 2009-10-30 生体情報登録方法、生体認証方法および生体認証装置
EP09850864.1A EP2495699B1 (en) 2009-10-30 2009-10-30 Biometric information registration method, biometric authentication method, and biometric authentication device
JP2011538182A JP5363587B2 (ja) 2009-10-30 2009-10-30 生体情報登録方法、生体認証方法および生体認証装置
US13/448,872 US8660318B2 (en) 2009-10-30 2012-04-17 Living body information registration method, biometrics authentication method, and biometrics authentication apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/068728 WO2011052085A1 (ja) 2009-10-30 2009-10-30 生体情報登録方法、生体認証方法および生体認証装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/448,872 Continuation US8660318B2 (en) 2009-10-30 2012-04-17 Living body information registration method, biometrics authentication method, and biometrics authentication apparatus

Publications (1)

Publication Number Publication Date
WO2011052085A1 true WO2011052085A1 (ja) 2011-05-05

Family

ID=43921527

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/068728 WO2011052085A1 (ja) 2009-10-30 2009-10-30 生体情報登録方法、生体認証方法および生体認証装置

Country Status (4)

Country Link
US (1) US8660318B2 (ja)
EP (1) EP2495699B1 (ja)
JP (1) JP5363587B2 (ja)
WO (1) WO2011052085A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015028723A (ja) * 2013-07-30 2015-02-12 富士通株式会社 生体特徴ベクトル抽出装置、生体特徴ベクトル抽出方法、および生体特徴ベクトル抽出プログラム
WO2015147088A1 (ja) * 2014-03-25 2015-10-01 富士通フロンテック株式会社 生体情報登録方法、生体認証方法、生体情報登録装置、生体認証装置及びプログラム
US9898673B2 (en) 2014-03-25 2018-02-20 Fujitsu Frontech Limited Biometrics authentication device and biometrics authentication method
CN108256456A (zh) * 2018-01-08 2018-07-06 杭州电子科技大学 一种基于多特征阈值融合的手指静脉识别方法
US10019616B2 (en) 2014-03-25 2018-07-10 Fujitsu Frontech Limited Biometrics authentication device and biometrics authentication method
US10019617B2 (en) 2014-03-25 2018-07-10 Fujitsu Frontech Limited Biometrics authentication device and biometrics authentication method
WO2020070590A1 (ja) * 2018-10-05 2020-04-09 株式会社半導体エネルギー研究所 認証システム、認証システムを用いた解錠履歴の記録方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5821964B2 (ja) * 2011-09-28 2015-11-24 富士通株式会社 情報処理装置、制御方法及びプログラム
US10043279B1 (en) * 2015-12-07 2018-08-07 Apple Inc. Robust detection and classification of body parts in a depth map
KR102515831B1 (ko) 2016-07-21 2023-03-29 삼성전자주식회사 스펙트럼 획득 장치 및 방법
US10366278B2 (en) 2016-09-20 2019-07-30 Apple Inc. Curvature-based face detector
CN106570469A (zh) * 2016-11-01 2017-04-19 北京无线电计量测试研究所 自助式双目虹膜注册方法及利用该方法的虹膜注册装置
EP3413235A1 (en) * 2017-06-08 2018-12-12 Moqi Inc. System and method for fingerprint recognition
CN108875621B (zh) * 2018-06-08 2023-04-18 平安科技(深圳)有限公司 图像处理方法、装置、计算机设备及存储介质
CN110192843B (zh) * 2019-05-31 2022-04-15 Oppo广东移动通信有限公司 信息推送方法及相关产品

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS54105929A (en) * 1978-02-07 1979-08-20 Nippon Telegr & Teleph Corp <Ntt> Hierarchical discrimination process system for character pattern
JPS5866176A (ja) * 1981-10-16 1983-04-20 Toshiba Corp 図形認識装置
JP2007206991A (ja) * 2006-02-02 2007-08-16 Hitachi Ltd 生体情報処理装置及び生体情報処理プログラム
JP2007249339A (ja) 2006-03-14 2007-09-27 Fujitsu Ltd 生体認証方法及び生体認証装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2108306B (en) 1981-10-16 1985-05-15 Tokyo Shibaura Electric Co Pattern recognition apparatus and method
JP3695899B2 (ja) 1997-06-04 2005-09-14 三菱電機株式会社 指紋照合装置
JP2001243465A (ja) 2000-03-01 2001-09-07 Nippon Telegr & Teleph Corp <Ntt> 指紋画像照合方法および指紋画像照合装置
US6950536B2 (en) * 2002-01-25 2005-09-27 Houvener Robert C High volume mobile identity verification system and method using tiered biometric analysis
JP2006277407A (ja) 2005-03-29 2006-10-12 Sanyo Electric Co Ltd 照合方法および照合装置
JP4864632B2 (ja) * 2006-10-12 2012-02-01 株式会社リコー 画像入力装置、画像入力方法、個人認証装置及び電子機器
WO2008120317A1 (ja) * 2007-03-28 2008-10-09 Fujitsu Limited 照合装置、認証装置、照合方法、認証方法、照合プログラム及び認証プログラム
JP5045344B2 (ja) 2007-09-28 2012-10-10 ソニー株式会社 登録装置、登録方法、認証装置及び認証方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS54105929A (en) * 1978-02-07 1979-08-20 Nippon Telegr & Teleph Corp <Ntt> Hierarchical discrimination process system for character pattern
JPS5866176A (ja) * 1981-10-16 1983-04-20 Toshiba Corp 図形認識装置
JP2007206991A (ja) * 2006-02-02 2007-08-16 Hitachi Ltd 生体情報処理装置及び生体情報処理プログラム
JP2007249339A (ja) 2006-03-14 2007-09-27 Fujitsu Ltd 生体認証方法及び生体認証装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2495699A4

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015028723A (ja) * 2013-07-30 2015-02-12 富士通株式会社 生体特徴ベクトル抽出装置、生体特徴ベクトル抽出方法、および生体特徴ベクトル抽出プログラム
WO2015147088A1 (ja) * 2014-03-25 2015-10-01 富士通フロンテック株式会社 生体情報登録方法、生体認証方法、生体情報登録装置、生体認証装置及びプログラム
JP2015185046A (ja) * 2014-03-25 2015-10-22 富士通フロンテック株式会社 生体情報登録方法、生体認証方法、生体情報登録装置、生体認証装置及びプログラム
US9898673B2 (en) 2014-03-25 2018-02-20 Fujitsu Frontech Limited Biometrics authentication device and biometrics authentication method
US10019616B2 (en) 2014-03-25 2018-07-10 Fujitsu Frontech Limited Biometrics authentication device and biometrics authentication method
US10019617B2 (en) 2014-03-25 2018-07-10 Fujitsu Frontech Limited Biometrics authentication device and biometrics authentication method
CN108256456A (zh) * 2018-01-08 2018-07-06 杭州电子科技大学 一种基于多特征阈值融合的手指静脉识别方法
CN108256456B (zh) * 2018-01-08 2020-04-07 杭州电子科技大学 一种基于多特征阈值融合的手指静脉识别方法
WO2020070590A1 (ja) * 2018-10-05 2020-04-09 株式会社半導体エネルギー研究所 認証システム、認証システムを用いた解錠履歴の記録方法
US11847195B2 (en) 2018-10-05 2023-12-19 Semiconductor Energy Laboratory Co., Ltd. Authentication system and method for recording unlocking history using authentication system
JP7472029B2 (ja) 2018-10-05 2024-04-22 株式会社半導体エネルギー研究所 認証システム

Also Published As

Publication number Publication date
JP5363587B2 (ja) 2013-12-11
EP2495699A4 (en) 2018-01-03
EP2495699B1 (en) 2019-07-10
US8660318B2 (en) 2014-02-25
EP2495699A1 (en) 2012-09-05
US20120201431A1 (en) 2012-08-09
JPWO2011052085A1 (ja) 2013-03-14

Similar Documents

Publication Publication Date Title
JP5363587B2 (ja) 生体情報登録方法、生体認証方法および生体認証装置
JP4937607B2 (ja) 生体認証方法及び生体認証装置
Ribarić et al. Multimodal biometric user-identification system for network-based applications
KR100940902B1 (ko) 손가락 기하학 정보를 이용한 바이오 인식 방법
Liliana et al. The combination of palm print and hand geometry for biometrics palm recognition
Shawkat et al. The new hand geometry system and automatic identification
EP3859663A1 (en) Iris recognition device, iris recognition method and storage medium
Chaudhari et al. Implementation of minutiae based fingerprint identification system using crossing number concept
Aleem et al. Fast and accurate retinal identification system: Using retinal blood vasculature landmarks
Mukhaiyar Cancellable biometric using matrix approaches
Doroz et al. An accurate fingerprint reference point determination method based on curvature estimation of separated ridges
Sarfraz Introductory chapter: On fingerprint recognition
Bhattacharyya et al. Vascular Pattern Analysis towards Pervasive Palm Vein Authentication.
Malik et al. Personal authentication using palmprint with Sobel code, Canny edge and phase congruency feature extraction method
EP4167179A1 (en) Authentication method, authentication program, and information processing device
Malik et al. An efficient retinal vessels biometric recognition system by using multi-scale local binary pattern descriptor
CN105701411A (zh) 一种信息安全传输方法
Li Fingerprint identification by improved method of minutiae matching
Sharma et al. Fingerprint matching Using Minutiae Extraction Techniques
Chopra et al. Finger print and finger vein recognition using repeated line tracking and minutiae
Nestorovic et al. Extracting unique personal identification number from iris
Bahmed et al. A survey on hand biometry
Olajide et al. A ear and tongue based multimodal access control system
Bahmed et al. A survey on hand modalities and hand multibiometric systems
Patil et al. Multimodal biometric identification system: Fusion of Iris and fingerprint

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09850864

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2011538182

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2009850864

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE