WO2011042950A1 - 生体情報処理装置、生体情報処理方法及び生体情報処理用コンピュータプログラム - Google Patents

生体情報処理装置、生体情報処理方法及び生体情報処理用コンピュータプログラム Download PDF

Info

Publication number
WO2011042950A1
WO2011042950A1 PCT/JP2009/067361 JP2009067361W WO2011042950A1 WO 2011042950 A1 WO2011042950 A1 WO 2011042950A1 JP 2009067361 W JP2009067361 W JP 2009067361W WO 2011042950 A1 WO2011042950 A1 WO 2011042950A1
Authority
WO
WIPO (PCT)
Prior art keywords
biometric information
input
unit
class
biometric
Prior art date
Application number
PCT/JP2009/067361
Other languages
English (en)
French (fr)
Inventor
幸弘 安孫子
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to CN200980161875.7A priority Critical patent/CN102549617B/zh
Priority to PCT/JP2009/067361 priority patent/WO2011042950A1/ja
Priority to KR1020127005705A priority patent/KR101379140B1/ko
Priority to EP09850223.0A priority patent/EP2487646A4/en
Priority to JP2011535226A priority patent/JP5477385B2/ja
Publication of WO2011042950A1 publication Critical patent/WO2011042950A1/ja
Priority to US13/439,541 priority patent/US8649570B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/987Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns with the intervention of an operator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • G06V40/1371Matching features related to minutiae or pores
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user

Definitions

  • Embodiments disclosed herein relate to a biometric information processing apparatus, a biometric information processing method, and a biometric information processing computer program that use biometric information represented in biometric data for biometric authentication.
  • biometric authentication technology for authenticating a user of an apparatus or system based on a biometric image representing biometric information such as a hand or finger vein pattern, a fingerprint, or a palm print has been developed.
  • a biometric authentication device using such a biometric authentication technology acquires, for example, a biometric image representing biometric information of a user who intends to use the biometric authentication device as an input biometric image. Then, the biometric authentication device collates the user's input biometric information represented in the input biometric image with registered biometric information that is biometric information represented in the registered user's biometric image.
  • the biometric authentication device determines that the input biometric information and the registered biometric information match based on the result of the verification process, the biometric authentication device authenticates the user as a registered user having a legitimate authority.
  • the biometric authentication device permits an authenticated user to use a device in which the biometric authentication device is incorporated or another device connected to the biometric authentication device.
  • the biometric authentication technology it is desirable that the characteristic structure of the biometric information is clearly shown in the biometric image in order to authenticate the user with high accuracy.
  • a part of the biometric information to be used for the collation is generated in the biometric image. It is not shown or the biological information is unclear.
  • the biometric authentication device cannot extract the feature quantity used for classifying the input biometric information from the input biometric information, and cannot accurately classify the input biometric information. If the input biometric information is mistakenly classified into a class different from the class to which it originally belongs, the biometric authentication device cannot collate the input biometric information with the registered biometric information of the corresponding user. Therefore, the authentication accuracy is reduced.
  • a technique that, when it is determined that the input biometric information is not appropriate, notifies the user that the biometric image is regenerated by causing the sensor to read the biometric information again (for example, Patent Documents). 3 and 4).
  • a technique for example, based on the density distribution of the image representing the input biometric information, whether or not the feature point of the biometric information has been extracted from the image, or whether the image is appropriate based on the position of the feature point It is judged whether or not.
  • the biometric authentication apparatus determines whether or not the image representing the input biometric information is appropriate based on the same reference regardless of the class. Therefore, the biometric authentication device adopting the conventional technology determines that the image representing the input biometric information is inappropriate even if the input biometric information includes information necessary for correctly classifying the input biometric information. I had to do it. In such a case, the user is required to re-enter the biometric information even though it is not necessary to read the biometric information again, and as a result, extra time is required for the biometric authentication process. There was a risk of hanging.
  • the present specification provides a biological information processing apparatus, a biological information processing method, and a biological information processing computer program that can acquire biological information suitable for collation and prevent unnecessary reacquisition of biological information. Objective.
  • a biological information processing apparatus has a biometric information acquisition unit that acquires biometric information of a user and generates input biometric data representing the biometric information, and a processing unit.
  • the processing unit is represented in the input biometric data based on the feature quantity extraction function that extracts the feature quantity representing the feature of the biometric information from the input biometric information represented in the input biometric data, and the extracted feature quantity.
  • a classification function for classifying the input biometric information into at least one of a plurality of classes categorized for each biometric information having the same characteristics, and calculating a reliability for the class into which the input biometric information is classified;
  • a pass / fail judgment function for determining whether the maximum value of degrees is higher than a threshold set for a class corresponding to the maximum value of reliability among a plurality of classes, and the maximum value of reliability is less than or equal to the threshold.
  • a biological information processing method is provided.
  • user biometric information is acquired, input biometric data representing the biometric information is generated, and feature quantities representing features of the biometric information are obtained from the input biometric information represented in the input biometric data.
  • the input biometric information represented in the input biometric data is classified into at least one of a plurality of classes categorized for each biometric information having the same characteristics, and Calculate the reliability for the class into which the input biometric information is classified, and whether or not the maximum value of the reliability is higher than the threshold value set for the class corresponding to the maximum value of the reliability among the multiple classes If the maximum value of the reliability is less than or equal to the threshold value, it includes prompting the user to cause the biometric information acquisition unit to reacquire the biometric information of the user.
  • a computer program that causes a computer to process biological information.
  • the computer program extracts a feature amount representing the feature of the biometric information from the user's biometric information represented in the input biometric data generated by the biometric information acquisition unit, and inputs based on the extracted feature amount.
  • the input biometric information represented in the biometric data is classified into at least one of a plurality of classes categorized for each biometric information having the same characteristics, and the reliability for the class into which the input biometric information is classified is calculated. Then, it is determined whether or not the maximum value of the reliability is higher than a threshold value set for a class corresponding to the maximum value of the reliability among a plurality of classes, and the maximum value of the reliability is equal to or less than the threshold value.
  • the computer has an instruction for causing the computer to prompt the user to cause the biometric information acquisition unit to reacquire the biometric information of the user.
  • the biological information processing apparatus, biological information processing method, and biological information processing computer program disclosed in this specification can acquire biological information suitable for collation and prevent unnecessary reacquisition of biological information.
  • FIG. 1 is a schematic configuration diagram of a biological information processing apparatus according to the first embodiment.
  • FIGS. 2A to 2E are diagrams showing an example of the relationship between the fingerprint feature quantity and the fingerprint class characterized by the feature quantity.
  • FIG. 3 is a functional block diagram of a processing unit included in the biometric information processing apparatus showing functions realized for executing biometric authentication processing for a user according to the first embodiment.
  • 4A to 4E are diagrams showing the relationship between singular points and each class detected when only the partial region above the fingerprint is captured in the input biometric image.
  • FIGS. 5 (a) to 5 (e) show the singular points in the region of the fingerprint shown in the input biometric image when the fingerprint shown in the input biometric image belongs to the spiral class. It is a figure which shows the case where is not included.
  • FIG. 6A and FIG. 6B are diagrams showing the relationship between the area of the fingerprint image and the reliability with respect to the class into which the input biometric information is classified.
  • FIG. 7 is a diagram illustrating an example of a reference table representing the reliability of each class with respect to the feature points extracted from the input biological image.
  • FIG. 8 is a diagram showing an operation flowchart of biometric authentication processing controlled by a computer program executed on the processing unit.
  • FIG. 9 is a functional block diagram of a processing unit included in the biological information processing apparatus according to the second embodiment.
  • FIG. 10A is a schematic diagram of an input biometric image corresponding to a state where the finger is standing excessively
  • FIG. 10B is a schematic diagram of an input biometric image corresponding to a state where the finger is biased downward.
  • FIG. 11 is a functional block diagram of a processing unit included in the biological information processing apparatus showing functions realized for registering user biological information according to the third embodiment.
  • FIG. 12 shows an operational flowchart of biometric information registration processing controlled by a computer program executed on the processing unit.
  • This biometric information processing apparatus acquires input biometric data, which is data representing the biometric information of a user, in order to execute biometric authentication processing for the user.
  • the biometric information processing apparatus categorizes input biometric information, which is biometric information of a user represented in input biometric data, for each biometric information having the same feature based on a feature amount extracted from the input biometric information. Classify into at least one of the classes. And this biometric information processing apparatus collates the input biometric information with the biometric information of the registered user who is previously registered and belongs to the class into which the input biometric information is classified.
  • the biometric information processing apparatus authenticates the user as a registered user corresponding to the registered biometric information determined to match the input biometric information.
  • the biological information processing apparatus determines the reliability indicating the probability that the input biological information belongs to the classified class based on the feature amount extracted from the input biological information.
  • the biometric information processing apparatus determines whether or not it is necessary to regenerate the input biometric data by comparing the reliability with a threshold set for each class.
  • the biometric information processing apparatus uses a fingerprint of a finger as biometric information that is a target for biometric authentication. Therefore, the input biometric information and registered biometric information are displayed on the image.
  • an input biometric image is used as input biometric data representing the input biometric information.
  • a registered biometric image is used as registered biometric data representing registered biometric information.
  • the biometric information to be subjected to biometric authentication may be other biometric information represented in a still image such as a palm print, a nose print, a vein pattern, a palm shape, a facial appearance, an auricle, or a retina pattern.
  • the biometric information that is the target of biometric authentication may be a voiceprint or a gait acquired continuously in time.
  • the input biometric data and the registered biometric data are audio signals in which the voiceprint is recorded over a predetermined period.
  • the term “collation process” is used to indicate a process of calculating a similarity indicating the degree of similarity between input biometric information and registered biometric information.
  • biometric authentication process indicates not only the verification process but also the entire authentication process including the process of determining whether to authenticate the user using the similarity obtained by the verification process. Used for.
  • FIG. 1 is a schematic configuration diagram of a biological information processing apparatus.
  • the biological information processing apparatus 1 includes a display unit 2, a biological information acquisition unit 3, a storage unit 4, and a processing unit 5.
  • the biometric information processing device 1 generates an input biometric image representing a fingerprint of a user's finger by the biometric information acquisition unit 3 and executes biometric authentication processing using the input biometric image.
  • the biometric information processing apparatus 1 authenticates the user as one of the registered users as a result of the biometric authentication process
  • the biometric information processing apparatus 1 permits the user to use the apparatus in which the biometric information processing apparatus 1 is mounted.
  • the biological information processing apparatus 1 transmits a signal indicating that the user has been authenticated to another device (not shown), and permits the user to use the other device.
  • the biological information processing apparatus 1 may include an input unit 6 such as a keyboard, a mouse, or a touch pad, for example.
  • the biological information processing apparatus 1 acquires the command, data, or user identification information input by the user via the input unit 6, and passes the command, data, or user identification information to the processing unit 5. May be.
  • the input unit 6 may be omitted.
  • the display unit 2 includes a display device such as a liquid crystal display or a CRT monitor. And the display part 2 displays the guidance message for arrange
  • the display unit 2 displays various information related to the application executed by the processing unit 5.
  • the biometric information acquisition unit 3 generates an input biometric image representing the user's fingerprint. Therefore, the biometric information acquisition unit 3 includes, for example, a sweep type fingerprint sensor. This fingerprint sensor can be, for example, a sensor that employs any one of an optical type, a capacitance type, an electric field type, and a thermal type. The biometric information acquisition unit 3 may have any fingerprint sensor that uses an area sensor. Then, the biometric information acquisition unit 3 passes the generated input biometric image to the processing unit 5.
  • the biometric information acquisition unit 3 may be formed integrally with the display unit 2 or the input unit 6.
  • the storage unit 4 includes, for example, at least one of a semiconductor memory, a magnetic disk device, and an optical disk device. And the memory
  • the storage unit 4 stores a program for executing biometric authentication processing. Furthermore, the memory
  • the data relating to the registered biometric information can be, for example, a registered biometric image that is an image obtained by photographing a fingerprint of a specific finger of a registered user.
  • the data related to the registered biometric information may be a registered biometric image itself or a feature amount for collation processing extracted from the partial region.
  • the storage unit 4 stores a guidance message for placing a finger at a position where the biometric information acquisition unit 3 can acquire an appropriate input biometric image.
  • the storage unit 4 also associates with each registered biometric information and also stores class identification information indicating which of the classes categorized for each biometric information having the same characteristics.
  • the fingerprint that is the registered biometric information is classified into one of a spiral type, a left loop type, a right loop type, an arcuate pattern, and a projecting arcuate pattern according to the feature amount extracted from the fingerprint. being classified.
  • FIG. 3 is a schematic diagram of a fingerprint 230 of a mold and a fingerprint 240 of a protruding bow pattern.
  • an upwardly convex arc 201 represents an upwardly convex core that is a singular point where a plurality of ridges are located in the center of a spiral and the ridges are convex upward.
  • a downwardly convex arc 202 represents a downwardly convex core, which is a singular point where a plurality of ridges are located in the center of a spiral and the ridges are convex downward. Furthermore, the downward-pointing arrow 203 represents the direction of the ridge that forms the upwardly convex core.
  • a triangle 204 represents a delta singularity, which is a singular point with a ridge formed in a triangular shape.
  • the fingerprint 200 belonging to the spiral type class includes an upward convex core 201, a downward convex core 202, and two delta singularities 204.
  • the two delta singularities 205 are arranged so as to sandwich a line connecting the upper convex core 201 and the lower convex core 202.
  • the ridge direction 203 forming the upward convex core 201 faces the downward convex core 202.
  • the fingerprint 210 belonging to the left loop type class includes an upward convex core 201 and one delta singularity 204.
  • the delta singularity 204 exists on the right side of the upward convex core 201, and the ridge direction 203 forming the upward convex core 201 is different from the upward convex core 201. It faces left lower than the upwardly convex core 201.
  • the fingerprint 220 belonging to the right loop type class has a mirror-symmetric structure with the fingerprint 210 belonging to the left loop type class.
  • the fingerprint 230 belonging to the arcuate pattern class has an upper convex core 201, but has other singular points (ie, a lower convex core and a delta singular point). Absent.
  • the fingerprint 240 belonging to the projecting arcuate pattern class includes an upward convex core 201 and one delta singularity 204 located almost directly below the upward convex core 201.
  • the ridge direction 203 forming the upwardly convex core is directed to the delta singularity 204.
  • an upwardly convex core, a downwardly convex core, and a delta singularity are detected as feature quantities from the registered biometric information. Then, the registered biometric information is classified into the closest class among the above five types of classes based on the detected feature amount. It should be noted that the feature amount extraction from the registered biometric information and the classification of the registered biometric information into classes are performed by the same method as the feature amount extraction from the input biometric information and the input biometric information classification described later.
  • the processing unit 5 includes one or a plurality of processors and their peripheral circuits. And the process part 5 performs the biometrics authentication process using the input biometric image by which the input biometric information which is the user's fingerprint acquired from the biometric information acquisition part 3 was represented.
  • FIG. 3 is a functional block diagram of the processing unit 5 showing functions realized for executing the biometric authentication process.
  • the processing unit 5 includes a feature amount extraction unit 11, a classification unit 12, a quality determination unit 13, a guidance processing unit 14, a matching unit 15, and an authentication determination unit 16.
  • Each of these units included in the processing unit 5 is a functional module implemented by a computer program executed on a processor included in the processing unit 5. Or these each part which the process part 5 has may be mounted in the biometric information processing apparatus 1 as firmware.
  • the feature quantity extraction unit 11 extracts a feature quantity used to determine which class the input biological information is classified into.
  • the input biometric information which is a fingerprint
  • the feature quantity extraction unit 11 characterizes the fingerprint types shown in FIGS. 2 (a) to 2 (e) as feature quantities, such as an upwardly convex core, a downwardly convex core, and singular points such as delta singularities. Detect points.
  • the feature quantity extraction unit 11 may also obtain the direction of the ridge that forms the upwardly convex core as the feature quantity.
  • the feature quantity extraction unit 11 extracts feature quantities according to the following procedure, for example. First, the feature amount extraction unit 11 binarizes an input biological image using a local threshold method, thereby generating a binary biological image in which pixels corresponding to ridges and pixels corresponding to valleys have different values. create. Next, the feature amount extraction unit 11 performs a thinning process on the binarized biological image so that the ridge is represented by the width of one pixel. Thereafter, the feature amount extraction unit 11 obtains a correlation value by executing template matching between at least one template corresponding to the upwardly convex core and the thinned binarized biological image.
  • the feature quantity extraction unit 11 changes the relative position of the template with respect to the thinned binarized biological image, and the correlation value with the template for each position on the thinned binarized biological image. Ask for. Then, the feature quantity extraction unit 11 specifies a position having the highest obtained correlation value on the thinned binary biological image. When the highest correlation value is equal to or greater than a predetermined value (for example, 0.9), the feature amount extraction unit 11 determines that an upwardly convex core is present at the detected position.
  • a predetermined value for example, 0.9
  • the feature amount extraction unit 11 performs template matching between the thinned binarized biological image and a template corresponding to the downward convex core or the delta singularity, thereby reducing the downward convex core and the delta from the input biological information. Extract singularities. However, with respect to the delta singularity, the feature quantity extraction unit 11 has the highest correlation value in the remaining area except the area of the template size of the delta singularity centered on the position where the correlation value is the highest. Identify the location. If the correlation value for the specified position is also equal to or greater than a predetermined value, the feature amount extraction unit 11 determines that a delta singular point is also present at that position.
  • the feature amount extraction unit 11 extracts the upward convex core from the input biological information. do not do.
  • the feature amount extraction unit 11 calculates the input from the input biological information. Do not extract down-convex cores or delta singularities.
  • Each template has a size that includes, for example, a plurality of ridges.
  • a binary pattern corresponding to the upwardly convex core for example, a plurality of arcs convex upward in a substantially concentric circle shape is represented.
  • the template corresponding to the downwardly convex core represents a binary pattern corresponding to the downwardly convex core, for example, a plurality of circular arcs that protrude downward in a substantially concentric circle shape.
  • the template corresponding to the delta singularity shows a pattern in which ridges extend from one pixel to three directions.
  • the feature amount extraction unit 11 is located below the upward convex core around the position where the upward convex core is detected on the thinned binary biological image.
  • Such a region has, for example, a width in which a plurality of ridges are included with the position where the upward convex core is detected in the horizontal direction as the center in the horizontal direction, and an upward convex core is detected in the vertical direction.
  • the width is such that a plurality of ridges are included with the position as the upper end.
  • the feature quantity extraction unit 11 sets the average value of the directions of the plurality of ridges in the region as the direction of the ridges that form the upwardly convex core. Note that the feature quantity extraction unit 11 extracts the singular points from the input biometric image and the registered fingerprint image by using other known methods for detecting singular points such as the upward convex core, the downward convex core, and the delta singular point. May be. In addition, the feature quantity extraction unit 11 can use any known method for obtaining the ridge direction in order to obtain the direction of the ridge that forms the upwardly convex core.
  • the feature amount extraction unit 11 may calculate an average value of intervals between a plurality of ridges as a ridge interval in a thinned binary biological image.
  • the feature amount extraction unit 11 creates a biological region image in which the region where the biological information is reflected and other regions have different values, for example, by binarizing the entire input biological image with the average luminance value. To do.
  • the feature amount extraction unit 11 For the detected singular point, the feature amount extraction unit 11 identifies information for identifying the type of the singular point (that is, an upward convex core, a downward convex core, or a delta singular point), and an input biological image from which the singular point is detected. The upper position is passed to the classification unit 12. When the feature quantity extraction unit 11 also obtains the direction of the ridge that forms the upwardly convex core, the feature amount extraction unit 11 also passes the direction of the ridge to the classification unit 12. Further, the feature amount extraction unit 11 also passes the ridge interval and the biological region image to the classification unit 12.
  • the classification unit 12 classifies the input biological information into at least one of a plurality of classes based on the feature amount extracted by the feature amount extraction unit 11.
  • the feature amount extraction unit 11 may not be able to detect some singular points from the input biological image. As a result, the input biometric information may not be classified into an appropriate class.
  • the classification unit 12 determines that the input biometric information belongs to the reliability indicating the certainty when the input biometric information belongs to a predetermined class according to the extracted feature quantity or the combination of feature quantities. For each class.
  • the classification unit 12 refers to a reliability table stored in the storage unit 4 and determines the reliability and class corresponding to the extracted feature amount.
  • 4A to 4E are diagrams showing the relationship between singular points and each class detected when only the partial region above the fingerprint is captured in the input biometric image.
  • 4A to 4E correspond to the spiral type class, the left loop type class, the right loop type class, the arcuate pattern class, and the protruding arc pattern class, respectively.
  • a rectangle 400 represents the entire input biological image.
  • a hatched area 410 represents an area where a fingerprint is shown in the input biological image.
  • An upwardly convex arc 401 represents an upwardly convex core.
  • a downwardly convex arc 402 represents a downwardly convex core.
  • the downward-pointing arrow 403 represents the direction of the ridge that forms the upwardly convex core.
  • a triangle 404 represents a delta singularity.
  • the singular point and the ridge direction indicated by a solid line indicate that they are detected by the feature amount extraction unit 11.
  • what is represented by a dotted line indicates that the feature amount extraction unit 11 was not able to detect it because it is not included in the area 410 where the fingerprint is shown.
  • the detected singular point is only the upward convex core 401 and the upward convex core 401 is located in the vicinity of the lower end of the region 410.
  • the feature amount extraction unit 11 determines whether the lower convex core 402 and the delta singular point 404 exist on the fingerprint. Cannot be determined. It is also difficult for the feature quantity extraction unit 11 to determine the direction of the ridge that forms the upwardly convex core 401.
  • the fingerprint represented in the input biological image 400 may belong to any class. Therefore, in such a case, it is preferable that the classification unit 12 classifies the input biometric information represented in the input biometric image 400 into any class and sets the reliability for each class to a low value.
  • FIGS. 5 (a) to 5 (e) each show that the fingerprint represented in the input biometric image belongs to the spiral class, and any singular point is present in the fingerprint area shown in the input biometric image. It is a figure which shows the case where is not included.
  • a rectangle 500 represents the entire input biological image.
  • a hatching area 510 represents an area where a fingerprint is shown in the input biological image.
  • An upwardly convex arc 501 represents an upwardly convex core.
  • a downwardly convex arc 502 represents a downwardly convex core.
  • a triangle 504 represents a delta singularity. Among these singular points, those represented by a solid line indicate that they are detected by the feature amount extraction unit 11. On the other hand, what is indicated by a dotted line indicates that the feature amount extraction unit 11 could not detect the fingerprint because it is not included in the region 510 where the fingerprint is shown.
  • FIGS. 5A, 5B, and 5E one or both of the two delta singularities are not detected, but other singularities are detected.
  • none of the fingerprint classes other than the spiral type have both an upwardly convex core and a downwardly convex core.
  • FIGS. 5C and 5D one of the upward convex core and the downward convex core is not detected, but other singular points are detected.
  • none of the fingerprint classes other than the spiral will have two delta singularities. Therefore, in the cases as shown in FIGS. 5A to 5E, the fingerprint represented in the input biological image 500 is classified into the spiral class even though any singular point is not detected. In addition, it is preferable to have high reliability for the spiral type class.
  • the classification unit 12 classifies the input biometric information into the plurality of classes.
  • the classification unit 12 classifies the input biometric information into the one class.
  • category part 12 sets the reliability with respect to the class so high that there are few classes with which the input biometric information was classified.
  • the classification unit 12 may change the class and reliability of the input biometric information according to the area of the region where the input biometric information is shown.
  • a rectangle 600 represents the entire input biological image.
  • a hatched area 610 represents an area where a fingerprint is shown in the input biometric image.
  • An upwardly convex arc 601 represents an upwardly convex core.
  • a downwardly convex arc 602 represents a downwardly convex core.
  • a triangle 604 represents a delta singularity. Among these singular points, those represented by a solid line indicate that they are detected by the feature amount extraction unit 11. On the other hand, what is represented by a dotted line indicates that the feature amount extraction unit 11 did not detect it.
  • the feature quantity extraction unit 11 cannot determine whether or not a delta singularity exists on the right side of the downward convex core and the upward convex core. In such a case, it is preferable that the classification unit 12 classifies the input biological information into a spiral type and a right loop type, and sets the reliability for the two classes to the same value.
  • the classifying unit 12 can set the reliability for these two classes as the reliability when the input biometric information is classified into only one class. It is preferable to lower the degree.
  • the feature quantity extraction unit 11 can determine that there is no downward convex core and that no delta singularity exists on the right side of the upward convex core. Therefore, it is preferable that the classification unit 12 classifies the input biometric information only into the right loop type class. Moreover, it is preferable that the classification
  • the classification unit 12 determines the right boundary of the region 610 where the fingerprint is reflected from the upward convex core 601 (ie, the biological region).
  • the shortest distance d to is used as an index of the size of the area where the fingerprint is shown.
  • the classification unit 12 changes the reliability of the spiral type class and the right loop type class according to the shortest distance d. Specifically, when the shortest distance d is larger than a predetermined threshold Tdi, the classification unit 12 classifies the input biological information into a right loop type class, and the reliability for the right loop type is the highest that the reliability can take. Value.
  • the classification unit 12 classifies the input biological information into the spiral type class and the right loop type, and determines the reliability of the spiral type class and the right loop type. 1/2 of the maximum degree.
  • the classification unit 12 may increase the reliability with respect to the right loop type class, while decreasing the reliability with respect to the spiral type class. In this case, for example, the classification unit 12 determines the reliability Rw for the spiral type class and the reliability Rr for the right loop type according to the following formula.
  • the predetermined threshold Tdi may be a value corresponding to the distance from the upward convex core to the right end of the right delta singularity, for example, when a delta singularity exists on the right side of the upward convex core. it can.
  • the classification unit 12 can use the distance from the detected singular point to the direction of the singular point that has not been detected, as an index of the size of the region in which the fingerprint is captured. For example, as another example of the area index of the area where the fingerprint is shown, the classification unit 12 may use the distance L from the upper convex core to the lower end of the area where the fingerprint is shown along the vertical direction. Good.
  • the classifying unit 12 determines the shortest distance d and the distance L between the position of the upwardly convex core received from the feature amount extracting unit 11 and the boundary of the region where the fingerprint shown in the biological region image is shown. It can be obtained by calculating the distance.
  • FIG. 7 is a diagram illustrating an example of the reliability table.
  • each column includes, from the left end, the total number of detected singular points, the number of detected upper convex cores, the number of detected lower convex cores, and the detection. Represents the number of delta singularities, reliability, judgment condition, and class.
  • the classification unit 12 refers to the row 701 of the reliability table 700 to determine the input biological information. The information is classified into a spiral class, and the reliability is set to 100 for the spiral class. The classification unit 12 sets the reliability for other classes to 0.
  • the classification unit 12 refers to the row 702 of the reliability table 700. Then, the classification unit 12 classifies the input biological information into a spiral type and a right loop type class, and sets the reliability to 50 for the spiral type and right loop type classes. The classification unit 12 sets the reliability for other classes to 0.
  • the direction of the ridge that forms the upwardly convex core is not used to determine the reliability of each class.
  • the reliability table may be set so that the direction of the ridge that forms the upwardly convex core is also used to determine the reliability of each class.
  • the reliability table may not include the total number of detected singular points.
  • the classification unit 12 may classify the input biological information into any class by another method, and set the reliability for the classified class.
  • the classification unit 12 may classify the input biometric information using a machine learning system that receives the feature amount and outputs the biometric information classification result.
  • the machine learning system can be, for example, a perceptron type neural network or a support vector machine connected to one or more stages.
  • feature quantities used for class classification are extracted from a plurality of pieces of biological information in which classes belonging in advance are known.
  • the machine learning system can learn by using a learning algorithm such as backpropagation using the feature amounts and the corresponding biometric information classification results as teacher data.
  • the classification unit 12 passes the identification information of the class into which the input biometric information is classified and the reliability for the class to the pass / fail determination unit 13.
  • the pass / fail determination unit 13 determines whether the classification result of the input biometric image generated by the biometric information acquisition unit 3 is appropriate. Therefore, the pass / fail judgment unit 13 determines the highest reliability Rmax among the reliability for the class into which the input biological information is classified. Then, the pass / fail judgment unit 13 compares Rmax with a pass / fail judgment threshold Tjmax determined for the class corresponding to Rmax. If the Rmax is higher than the threshold value Tjmax, the pass / fail determination unit 13 determines that it is appropriate to classify the input biological information into a class corresponding to Rmax. As a result, it is determined that the input biometric image is appropriate for use in matching with the registered biometric information belonging to the class corresponding to Rmax.
  • the pass / fail determination unit 13 determines that it is not appropriate to classify the input biological information into a class corresponding to Rmax. As a result, the input biometric image is determined to be inappropriate for use in collation.
  • the pass / fail judgment threshold Tjc for each class is preferably set to a higher value as the class is more likely to cause biometric information belonging to that class to be erroneously classified into another class.
  • the pass / fail determination unit 13 Can be determined as an error. Therefore, the pass / fail judgment unit 13 can reduce the risk that the user's input biometric information is classified into a class different from the class classified at the time of registration, that is, a binning error occurs.
  • the pass / fail judgment unit 13 does not have to extract a part of the classification feature amount of the biological information belonging to the class from the input biological information. Can be determined as appropriate. Therefore, the pass / fail judgment unit 13 can prevent the input biometric image from being regenerated even though the input biometric information is correctly classified.
  • the pass / fail judgment threshold for the spiral class among the fingerprint classes shown in FIGS. 2A to 2E is set to be the lowest. This is because a fingerprint belonging to the spiral type class has a characteristic (for example, a downwardly convex core) that the fingerprint of the other class does not have, and thus is unlikely to be mistakenly classified into another class.
  • the pass / fail judgment threshold for the arcuate pattern class is set higher than the pass / fail judgment threshold for other classes. Fingerprints belonging to the arcuate pattern class do not have singularities different from those of other classes of fingerprints. For this reason, fingerprints belonging to the arcuate pattern class are more likely to be mistakenly classified into other classes than fingerprints belonging to other classes.
  • the pass / fail judgment unit 13 passes information indicating the pass / fail judgment result to the processing unit 5.
  • the pass / fail determination unit 13 passes the identification information of the class into which the input biometric information is classified to the processing unit 5.
  • the processing unit 5 notifies the guidance processing unit 14 of the determination result.
  • the processing unit 5 passes the identification information of the class into which the input biometric image and the input biometric information are classified to the verification unit 15.
  • the guidance processing unit 14 When the guidance processing unit 14 is notified of the determination result that the classification result of the input biometric information is inappropriate from the processing unit 5, the guidance processing unit 14 reads a guidance message that prompts the user to re-input the input biometric information from the storage unit 4. . Then, the guidance processing unit 14 causes the display unit 2 to display the read guidance message. In addition, when the biological information processing apparatus 1 has a speaker, the guidance processing unit 14 may notify the user of a guidance message by voice through the speaker.
  • the collation unit 15 When the collation unit 15 receives the identification information of the class into which the input biometric image and the input biometric information are classified from the processing unit 5, the input biometric information is the input biometric information and the registered biometric information stored in the storage unit 4. The registered biometric information belonging to the classified class is collated. And the collation part 15 calculates
  • the collation unit 15 can use, for example, minutia matching or pattern matching as the collation processing.
  • the collation unit 15 extracts feature points for collation from the input biometric image when collating the input biometric information and the registered biometric information by minutia matching. And the collation part 15 uses the feature point extracted from the input biometric image, and the some feature point extracted from the registration biometric image memorize
  • the matching unit 15 extracts, for example, ridge end points and branch points as matching feature points (maneuvers). Therefore, the collation unit 15 performs processing similar to the processing of the feature amount extraction unit 11 in order to extract the branch points and end points of the ridges from the input biometric image, so that the ridges are thinned from the input biometric image. A binarized image is generated. And the collation part 15 detects the position on an input biometric image when it matches with any mask pattern by scanning the input biometric image thinned using the some mask pattern. And the collation part 15 extracts the center pixel of the detected position as a feature point.
  • the mask pattern is represented by 3 ⁇ 3 pixels, for example, and has a binary pattern corresponding to a branch point or an end point of a ridge. Furthermore, the collation unit 15 obtains the position of the extracted feature point and the ridge direction in the vicinity of the feature point as information representing the feature point. Note that the collation unit 15 can use any known method for obtaining the ridge direction in order to obtain the ridge direction in the vicinity of the feature point. Also for the registered biometric image, processing similar to that performed for the input biometric image is performed, and feature points are extracted from the registered biometric image, and the position of the extracted feature points and the ridge direction in the vicinity of the feature points are determined. It is stored in the storage unit 4. Note that the matching unit 15 may extract the feature points from the input biological image by using another known method for obtaining the end points or branch points of the ridges as the feature points.
  • the collation unit 15 selects, as a first reference feature point, a feature point located near the center of the region where the registered biometric information is captured from the registered biometric image.
  • the collation unit 15 selects one of the feature points extracted from the input biological image as the second reference feature point.
  • the matching unit 15 translates the input biometric image so that the second reference feature point matches the first reference feature point.
  • the collation unit 15 obtains the number of feature points of the input biometric image that matches the feature points of the registered biometric image while rotating the input biometric image.
  • the matching unit 15 repeats the above process while changing the combination of the first reference feature point and the second reference feature point, and the maximum number of feature points of the input biometric image that matches the feature points of the registered biometric image. Find the value.
  • the matching unit 15 obtains a value obtained by dividing the maximum value of the number by the total number of feature points extracted from the input biological image as the similarity. Therefore, in this case, the similarity has a value of 0 to 1, and the higher the similarity between the input biometric information and the registered biometric information, the closer the similarity is to 1.
  • the matching unit 15 in order to detect the feature point of the input biometric information that matches the feature point of the registered biometric information, the matching unit 15 has the feature point of the registered biometric information within a predetermined range from the position of the feature point of interest of the input biometric information. Check if it exists.
  • the predetermined range can be a value corresponding to an average interval between two adjacent ridges, for example.
  • the matching unit 15 obtains an angular difference in the ridge direction in the vicinity of the feature points.
  • the matching unit 15 determines that the feature point of the registered biometric information matches the feature point of interest of the input biometric information.
  • the predetermined angle range is a value corresponding to an allowable limit that can be considered that the ridge direction in the vicinity of the feature point of interest and the ridge direction in the vicinity of the corresponding feature point of the registered biometric information match, for example, 10 degrees. can do.
  • the collation unit 15 registers the input biometric information that matches the feature point of interest only when the feature point of the registered biometric information of the same type as the feature feature point exists within a predetermined range from the position of the feature feature point of interest. You may determine with the feature point of biometric information existing.
  • the matching unit 15 may use another known method for obtaining the number of feature points of registered biometric information that matches the feature points of the input biometric information.
  • the collation unit 15 collates the input biometric information and the registered biometric information by pattern matching
  • the collation unit 15 stores the input biometric image representing the input biometric information and the registered biometric information stored in the storage unit 4 as data related to the registered biometric information. Use an image.
  • the matching unit 15 calculates the correlation value c (i, j) between the input biometric image and the registered biometric image using various formulas while changing the relative positions of the input biometric image and the registered biometric image.
  • I (x, y) represents the pixel value of the pixel of the horizontal coordinate x and the vertical coordinate y included in the input biological image.
  • T (xi, yj) represents the pixel value of the pixel of the horizontal coordinate (xi) and the vertical coordinate (yj) included in the registered biometric image.
  • I av is an average pixel value of pixels included in the input biological image
  • T av is an average pixel value of pixels included in the registered biological image.
  • i and j represent the horizontal and vertical shift amounts of the input biometric image and the registered biometric image, respectively.
  • c (i, j) represents a correlation value when the input biological image is shifted by i pixels in the horizontal direction and j pixels in the vertical direction with respect to the registered biological image.
  • the correlation value c (i, j) can take a value included between ⁇ 1 and 1.
  • the correlation value c (i, j) is 1.
  • the correlation value c (i, j) is -1.
  • the collation unit 15 obtains the highest similarity indicating that the input biometric information and the registered biometric information are most similar among the calculated similarities. Then, the collation unit 15 passes the highest similarity to the authentication determination unit 16 together with the registered user identification information regarding the registered biometric information corresponding to the highest similarity.
  • the authentication determination unit 16 determines that the input biometric information matches the registered biometric information when the maximum similarity is equal to or greater than the authentication determination threshold. Then, the authentication determination unit 16 authenticates the user as a registered user corresponding to the registered biometric information determined to match the input biometric information. When authenticating the user, the authentication determination unit 16 notifies the processing unit 5 of the authentication result. Then, the processing unit 5 permits an authenticated user to use a device in which the biometric information processing device 1 is mounted or a device to which the biometric information processing device 1 is connected.
  • the authentication determination unit 16 determines that the input biometric information and the registered biometric information do not match. In this case, the authentication determination unit 16 does not authenticate the user.
  • the authentication determination unit 16 notifies the processing unit 5 of an authentication result indicating that the user authentication has failed.
  • the process part 5 refuses that the user who was not authenticated uses the apparatus by which the biometric information processing apparatus 1 was mounted, or the apparatus to which the biometric information processing apparatus 1 was connected. Further, the processing unit 5 causes the display unit 2 to display a message indicating that the authentication has failed.
  • the authentication determination threshold is preferably set to a value such that the authentication determination unit 16 succeeds in authentication only when the registered user is a user.
  • the authentication determination threshold is preferably set to a value that causes the authentication determination unit 16 to fail when another person different from the registered user is the user.
  • the authentication determination threshold value may be a value obtained by multiplying the difference between the maximum value and the minimum value that the similarity can take by 0.7 and the minimum value of the similarity.
  • FIG. 8 shows an operational flowchart of a biometric authentication process controlled by a computer program executed on the processing unit 5.
  • the processing unit 5 acquires an input biometric image representing the biometric information of the user from the biometric information acquisition unit 3 (Step S ⁇ b> 101). Then, the processing unit 5 passes the input biological image to the feature amount extraction unit 11 of the processing unit 5.
  • the feature amount extraction unit 11 extracts a feature amount for classifying the input biometric information into any one of a plurality of classes categorized for each biometric information having the same feature from the input biometric information (step S102).
  • the feature amount extraction unit 11 passes the extracted feature amount to the classification unit 12 of the processing unit 5.
  • the classification unit 12 classifies the input biometric information into at least one class based on the feature amount (step S103). Further, the classification unit 12 calculates the reliability of the input biometric information for the classified class (step S104). The classification unit 12 passes the identification information of the class into which the input biological information is classified and the reliability for the class to the pass / fail judgment unit 13 of the processing unit 5.
  • the pass / fail judgment unit 13 determines the maximum value rmax among the degrees of reliability for the class into which the input biological information is received, which is received from the classification unit 12 (step S105). Then, the quality determination unit 13 determines whether or not rmax is higher than a quality determination threshold set for the group corresponding to the rmax (step S106). When rmax is equal to or less than the pass / fail judgment threshold set for the class corresponding to the rmax (No in step S106), the pass / fail judgment unit 13 determines that the classification result of the input biometric information is inappropriate. Then, the quality determination unit 13 returns a quality determination result to the processing unit 5.
  • the processing unit 5 notifies the guidance processing unit 14 that the classification result of the input biometric information is inappropriate, that is, the input biometric image is determined to be inappropriate for use in collation.
  • the guidance processing unit 14 reads from the storage unit 4 a guide message indicating that the input biometric image is inappropriate. Then, the guidance processing unit 14 displays the guide message on the display unit 2 (step S107). Thereafter, the processing unit 5 returns the control to step S101, and acquires the regenerated biometric input image from the biometric information acquisition unit 3 by re-reading the user's part. And the process part 5 performs repeatedly the process after step S101.
  • step S106 if rmax is higher than the pass / fail judgment threshold set for the class corresponding to rmax (step S106—Yes), the pass / fail judgment unit 13 classifies the input biological information into the class corresponding to rmax. Is determined to be appropriate. Then, the pass / fail judgment unit 13 returns the pass / fail judgment result and the class identification information corresponding to rmax to the processing unit 5.
  • the processing unit 5 passes the input biometric image representing the input biometric information and the class identification information corresponding to rmax to the matching unit 15.
  • the collation unit 15 When the collation unit 15 receives the identification information of the class corresponding to the input biometric image and rmax, the collation unit 15 reads out data related to each registered biometric information belonging to the class into which the input biometric information is classified from the storage unit 4. And the collation part 15 collates input biometric information with each registration biometric information which belongs to the class into which input biometric information was classified. Then, the matching unit 15 calculates the similarity between the input biometric information and each registered biometric information belonging to the class (step S108). The collation part 15 determines the highest similarity which shows that input biometric information and registration biometric information are most similar among the calculated similarities (step S109).
  • the collation unit 15 passes the highest similarity to the authentication determination unit 16 of the processing unit 5 together with the identification information of the registered user regarding the registered biometric information corresponding to the highest similarity.
  • the authentication determination unit 16 determines whether or not the highest similarity is greater than or equal to the authentication determination threshold value (step S110). If the maximum similarity is equal to or higher than the threshold for authentication determination (step S110—Yes), the authentication determination unit 16 authenticates the user as a registered user corresponding to the highest similarity (step S111). On the other hand, when the highest similarity is less than the threshold for authentication determination (step S110—No), the authentication determination unit 16 does not authenticate the user (step S112). After step S111 or S112, the processing unit 5 ends the biometric authentication process.
  • process part 5 may perform the process of step S103 and S104 simultaneously.
  • the biological information processing apparatus categorizes the input biological information, which is the user's biological information represented in the input biological image, for each biological information having the same characteristics. Classify into at least one of a plurality of classes. At this time, this biological information processing apparatus determines the reliability representing the probability that the input biological information belongs to the classified class, and compares the reliability with a pass / fail judgment criterion set for each class. It is determined whether it is necessary to regenerate the input biological image. Thereby, this biometric information processing apparatus can acquire biometric information suitable for collation, can prevent unnecessary reacquisition of biometric information, and can prevent an increase in processing time.
  • the biometric information processing apparatus may perform so-called one-to-one collation in which registered biometric information to be collated with input biometric information is specified by user identification information or the like.
  • the pass / fail judgment unit of the processing unit determines whether or not the class to which the registered biometric information specified by the registered user identification information acquired via the input unit and the class to which the input biometric information is classified matches. To determine. If both classes match, the biological information processing apparatus performs a matching process. On the other hand, if both classes do not match, the biological information processing apparatus may execute processing by the guidance processing unit and regenerate the input biological image.
  • the biological information processing apparatus can prevent performing matching processing using an inappropriate input biological image.
  • the biological information processing apparatus when it is determined that the input biological image is inappropriate for use in collation, the input biological body with respect to the sensor surface of the biological information acquisition unit when the input biological image is acquired. Estimate the positioning of the user's site that contains the information. The biological information processing apparatus performs the estimated positioning so that the user can acquire the input biological image again by placing the part in an appropriate position with respect to the sensor surface and keeping the part in an appropriate posture. A corresponding guide message is displayed to the user.
  • the biological information processing apparatus differs from the information processing apparatus according to the first embodiment only in part of the functions of the processing unit. Therefore, in the following, a description will be given of points that differ from the functions of the processing unit of the information processing apparatus according to the first embodiment, among the functions of the processing unit of the biological information processing apparatus according to the second embodiment.
  • FIG. 9 is a functional block diagram of a processing unit included in the biological information processing apparatus according to the second embodiment.
  • the processing unit 5 includes a feature amount extraction unit 11, a classification unit 12, a quality determination unit 13, a guidance processing unit 14, a matching unit 15, an authentication determination unit 16, and an input state. And an estimation unit 17.
  • the input state estimation unit 17 includes input biometric information with respect to the sensor surface of the biometric information acquisition unit 3 when the input biometric image is acquired when the pass / fail determination unit 13 determines that the classification result of the input biometric information is inappropriate. Estimate the positioning of the user's location. In the present embodiment, the input state estimation unit 17 uses at least one of the following values in order to estimate positioning. The area of the living body area that is the area where the input biological information included in the input biological image is captured. The position of the singular point detected by the feature amount extraction unit 11 and the distance to the boundary of the living body area. Therefore, the input state estimation unit 17 receives information indicating the position of each singular point and the biological region image from the feature amount extraction unit 11.
  • the input state estimation unit 17 determines whether or not a finger including a fingerprint that is input biometric information is too biased up, down, left, or right with respect to the sensor surface, or whether the finger stands excessively with respect to the sensor surface. Check whether or not you are sleeping too much. For example, when the gravity center position of the biological area is within a predetermined distance from the left end of the input biological image, the input state estimation unit 17 causes the user's finger position to be too close to the right side with respect to the biological information acquisition unit 3. It is estimated that In addition, the number of pixels in the living body region that is in contact with the left end of the input biological image may be more than a predetermined threshold value than the number of pixels in the living body region that is in contact with the right end of the input biological image.
  • the input state estimation unit 17 estimates that the position of the finger is too close to the right side with respect to the biological information acquisition unit 3.
  • the input state estimation unit 17 indicates that the finger position is too far to the left with respect to the biological information acquisition unit 3.
  • the number of pixels in the living body region that is in contact with the right end of the input biological image may be more than a predetermined threshold value than the number of pixels in the living body region that is in contact with the left end of the input biological image.
  • the input state estimation unit 17 estimates that the finger position is too close to the left side with respect to the biological information acquisition unit 3.
  • the predetermined distance is, for example, half of the average value of the width of the biological region on the input biological image when the finger is placed at an appropriate position with respect to the sensor surface of the biological information acquisition unit 3. it can.
  • the predetermined threshold value regarding the difference in the number of contact pixels at the left and right ends can be, for example, 1/3 or 1/4 of the vertical length of the biological area on the input biological image.
  • the input state estimation unit 17 obtains the biological information from the finger position. It is estimated that it is too far away from the sensor surface of the unit 3.
  • the predetermined area threshold value can be, for example, 1 ⁇ 2 of the area of the biological area on the input biological image when the finger is placed at an appropriate position with respect to the sensor surface of the biological information acquisition unit 3.
  • the input state estimation unit 17 indicates that the finger is excessively sleeping with respect to the sensor surface of the biological information acquisition unit 3 (that is, the tip of the finger is farther from the sensor surface than the base of the finger).
  • the input state estimating unit 17 is in a state where the finger stands excessively with respect to the sensor surface of the living body information acquiring unit 3. Alternatively, it can be identified whether the finger is placed below.
  • FIG. 10A is a schematic diagram of an input biological image corresponding to a state where the finger stands excessively (that is, the base of the finger is farther from the sensor surface than the tip of the finger), and FIG. These are the schematics of the input biometric image corresponding to the state where the finger biased downward.
  • a rectangular area 1000 represents an input biological image.
  • a hatched area 1010 represents a living body area.
  • the semicircular arc 1020 represents an upwardly convex core.
  • the horizontal width of the living body region 1010 in the vicinity of the lower end of the living body region 1010 is narrower than the horizontal width of the living body region 1010 at the position of the upward convex core 1020.
  • the horizontal width of the living body region 1010 in the vicinity of the lower end of the living body region 1010 is substantially equal to the horizontal width of the living body region 1010 at the position of the upward convex core 1020.
  • the input state estimation unit 17 obtains the distance L from the upward convex core to the lower end of the living body region. Then, the input state estimation unit 17 compares the distance L with a predetermined threshold value Tl. When the distance L is larger than the threshold value Tl, the input state estimation unit 17 determines that the finger is not in an excessively standing state and that the finger is not too biased downward.
  • N is an integer of 1 or more. If the upward convex core and the delta singularity or the downward convex core are close to each other, the delta singularity or the downward convex core may be detected even if the finger stands excessively. Therefore, when a delta singularity or a downward convex core is detected, the input state estimation unit 17 may omit the determination of whether or not the finger is standing excessively.
  • N is determined based on the statistic of the number of ridges calculated from the number of ridges between the upper convex core and the delta singularity or the number of ridges between the upper convex core and the lower convex core in advance from multiple fingerprints. May be.
  • N can be a value obtained by adding a standard deviation to the average value of the number of ridges between the upwardly convex core and the delta singularity obtained from a plurality of fingerprints.
  • the input state estimation unit 17 calculates the horizontal width Wc of the living body region at the position of the upwardly convex core and the horizontal width Wl of the living body region at the lower end of the living body region. Ask. When the width Wl is smaller than the value obtained by multiplying the width Wc by a predetermined coefficient ⁇ less than 1, the input state estimation unit 17 estimates that the finger is standing excessively.
  • the coefficient ⁇ can be set to 0.5 to 0.8, for example.
  • the input state estimation unit 17 determines that the finger is too biased downward.
  • the input state estimation unit 17 may estimate a speed or a moving direction at which the user moves a part including the biological information with respect to the sensor. For example, if the vertical height of the living body region is lower than a predetermined threshold, the input state estimation unit 17 may estimate that the moving speed of the part with respect to the sensor is too fast. If the absolute value of the difference between the horizontal center position in the upper part of the living body region and the horizontal center position in the lower part of the living body region is larger than a predetermined threshold, the input state estimating unit 17 It is estimated that the part has moved excessively in the diagonal direction. The input state estimation unit 17 notifies the guidance processing unit 14 of input state information representing the estimated positioning of the part including the input biological information.
  • the guidance processing unit 14 is stored in the storage unit 4 so that the user can place a part including the biological information in an appropriate place with respect to the sensor surface of the biological information acquisition unit 3 according to the input biological information. Select an appropriate one from multiple guidance messages. For example, when the input state information indicates that the finger position is too far to the left with respect to the biometric information acquisition unit 3, the guidance processing unit 14 reads a guidance message corresponding to the positioning from the storage unit 4.
  • the guidance message can be, for example, a message prompting the user to remove the cause that the input biometric image has become inappropriate, such as “Please move your finger a little to the right and try again”. Further, when the input state information indicates that the finger is standing excessively, the guidance processing unit 14 reads a guidance message corresponding to the positioning from the storage unit 4.
  • the guidance message can be, for example, a message such as “Please make your finger parallel to the sensor and try again”.
  • the guidance processing unit 14 causes the display unit 2 to display the selected guidance message.
  • the biometric information processing device provides the user with a classification result of the input biometric image that is inappropriate, i.e., when the input biometric image is inappropriate for use in collation. You can inform them how to resolve the cause of the inappropriateness. Therefore, this biometric information processing apparatus can prevent the user's biometric information from having to be read many times before a proper input biometric image is generated for use in verification.
  • the biometric information processing apparatus generates a registered biometric image representing registered biometric information of a registered user, and creates data related to the registered biometric information to be used for matching processing from the registered biometric image.
  • the biological information processing apparatus includes the input unit 6 illustrated in FIG. 1 in order to acquire user identification information.
  • the biological information processing apparatus according to the third embodiment is different from the information processing apparatus according to the second embodiment only in part of the functions of the processing unit. Therefore, in the following, a description will be given of differences among the functions of the processing unit of the biological information processing apparatus according to the third embodiment from the functions of the processing unit of the information processing apparatus according to the second embodiment.
  • FIG. 11 is a functional block diagram of a processing unit included in the biological information processing apparatus according to the third embodiment.
  • the processing unit 5 includes a feature amount extraction unit 11, a classification unit 12, a quality determination unit 13, a guidance processing unit 14, an input state estimation unit 17, and a registration unit 18.
  • each functional block of the processing unit 5 is assigned the same reference number as the corresponding functional block of the processing unit 5 illustrated in FIG. 9.
  • the registration unit 18 receives from the processing unit 5 an input biometric image whose classification result is determined to be appropriate by the quality determination unit 13.
  • the registration unit 18 also receives from the processing unit 5 the identification information of the class having the highest reliability among the classes into which the input biometric information represented in the input biometric image is classified by the classification unit 12. Then, the registration unit 18 uses the input biometric image determined to have an appropriate classification result as a registered biometric image, and uses biometric information represented in the registered biometric image as registered biometric information.
  • the registration unit 18 creates data related to registered biometric information that is used for verification from the registered biometric image.
  • the data related to the registered biometric information can be, for example, a registered biometric image itself.
  • the data related to the registered biometric information may be a registered biometric image itself or a feature value for collation processing extracted from the partial region.
  • the registration unit 18 for example, similar to the collation unit 15 of the biometric information processing apparatus 1 according to the first embodiment, or the registered biometric image itself or its A feature value for collation processing is extracted from the partial area.
  • the registration unit 18 acquires the identification information of the registered user via the input unit 6.
  • the registration unit 18 stores the data related to the registered biometric information in the storage unit 4 in association with the identification information of the registered user.
  • the registration unit 18 associates the identification biometric data with the identification information of the class into which the registered biometric information is classified and stores the data in the storage unit 4.
  • FIG. 12 shows an operational flowchart of a biometric information registration process controlled by a computer program executed on the processing unit 5.
  • the processing unit 5 acquires an input biometric image representing the biometric information of the registered user from the biometric information acquisition unit 3 (step S201). Further, the processing unit 5 acquires the identification information of the registered user from the input unit 6. Then, the processing unit 5 passes the input biological image to the feature amount extraction unit 11 of the processing unit 5.
  • the feature quantity extraction unit 11 extracts, from the input biometric information, a feature quantity for classifying the input biometric information into any one of a plurality of classes categorized for each biometric information having the same feature (step S202). .
  • the feature amount extraction unit 11 passes the extracted feature amount to the classification unit 12 of the processing unit 5.
  • the classification unit 12 classifies the input biological information into at least one class based on the feature amount (step S203). Further, the classification unit 12 calculates the reliability of the input biological information for the classified class (step S204). The classification unit 12 passes the identification information of the class into which the input biometric information is classified and the reliability for the class to the pass / fail determination unit 13.
  • the pass / fail judgment unit 13 determines the maximum value rmax among the degrees of reliability for the class into which the input biological information is received received from the classification unit 12 (step S205).
  • the pass / fail judgment unit 13 judges whether or not the maximum value rmax is higher than the pass / fail judgment threshold set for the group corresponding to the rmax (step S206).
  • the pass / fail judgment unit 13 determines that the classification result of the input biometric information is inappropriate. It is determined that Then, the quality determination unit 13 returns a quality determination result to the processing unit 5.
  • the processing unit 5 passes the input biological image and the feature amount extracted by the feature amount extraction unit 11 to the input state estimation unit 17.
  • the input state estimation unit 17 estimates the positioning of the part including the input biometric information with respect to the sensor surface of the biometric information acquisition unit 3 at the time of the input biometric image acquisition (step S207).
  • the input state estimation unit 17 notifies the guidance processing unit 14 of input state information representing the estimated position of the part.
  • the guidance processing unit 14 reads a guide message corresponding to the estimated positioning included in the input state information from the storage unit 4.
  • the guidance process part 14 displays the guide message on the display part 2 (step S208).
  • the processing unit 5 acquires the regenerated biometric input image from the biometric information acquisition unit 3 by reading the user's part again.
  • the process part 5 performs the process after step S201 again.
  • the pass / fail judgment unit 13 classifies the input biometric image into a class corresponding to rmax. It is determined that this is appropriate. Then, the pass / fail judgment unit 13 returns the pass / fail judgment result and the class identification information corresponding to rmax to the processing unit 5.
  • the processing unit 5 passes the input biometric image representing the input biometric information, the class identification information corresponding to rmax, and the registered user identification information acquired via the input unit 6 to the registration unit 18.
  • the registration unit 18 uses the input biometric image as a registered biometric image. And the registration part 18 produces the data regarding registration biometric information from a registration biometric image (step S209). Then, the registration unit 18 associates the data related to the registered biometric information with the class corresponding to rmax, that is, the identification information of the class into which the registered biometric information is classified and the identification information of the registered user, and stores them in the storage unit 4 (Step S1). S210). After step S210, the processing unit 5 ends the biometric information registration process. Note that the processing unit 5 may execute the processes of steps S203 and S204 at the same time.
  • the biometric information processing apparatus when the biometric information processing apparatus according to the third embodiment registers biometric information of a registered user, the biometric information apparatus can acquire biometric information suitable for verification and useless reacquisition of biometric information. Can be prevented, and an increase in processing time can be prevented.
  • the processing unit of the biological information processing apparatus may have the function of the registration unit illustrated in FIG. 11 in addition to the function illustrated in FIG. 3 or FIG.
  • the biometric information processing apparatus can register biometric information used for collation in advance, and execute biometric authentication processing using the registered biometric information.
  • the pass / fail judgment unit may compare the reliability with the pass / fail judgment threshold corresponding to each class into which the input biological information is classified. When there are a plurality of classes whose reliability is higher than the pass / fail judgment threshold, the collation unit registers the input biometric information as one of the plurality of classes whose reliability is higher than the pass / fail judgment threshold. You may collate with information.
  • the registration unit when there are a plurality of classes whose reliability is higher than the pass / fail judgment threshold, the registration unit is configured so that the registered biometric information belongs to any of the plurality of classes whose reliability is higher than the pass / fail judgment threshold. You may register. That is, the registration unit may store the data related to the registered biometric information in the storage unit in association with the identification information of each class whose reliability is higher than the pass / fail judgment threshold. As a result, a user whose biometric information is difficult to be classified into one class is registered in a plurality of classes in which the biometric information of the user is easily classified. Therefore, the biological information processing apparatus can suppress the occurrence of binning errors even for users whose biological information is difficult to be classified into one class.
  • the biometric information processing apparatus and the biometric information processing method disclosed in this specification execute biometric authentication processing between a user's biometric information and pre-registered biometric information in order for the user to perform some operation. It can be applied to various devices or systems.
  • an apparatus or system includes a computer system in which one or more terminals and a server are connected via a communication network.
  • each terminal is provided with a biological information acquisition unit, and the biological image acquired by the biological information acquisition unit is transmitted to the server.
  • a server performs the registration process or biometrics authentication process of a biometric image by performing the function of the process part of said embodiment.
  • the processor of each terminal executes the functions of the feature amount extraction unit, the classification unit, the pass / fail judgment unit, the guidance processing unit, and the input state estimation unit among the functions of the processing units of the above embodiments, and the server processor
  • the remaining functions may be performed.
  • the processing load on the server processor can be reduced.
  • the processing unit of the portable memory device in which the biometric information acquisition unit, the storage unit, the processing unit, and the data transmission interface conforming to a standard such as Universal Serial Bus are integrally formed in the above embodiment. You may have each function of the process part of a computer.
  • a computer program having instructions for causing a computer to realize the functions of the processing units according to the above embodiments may be provided in a form recorded on a recording medium.

Abstract

 生体情報処理装置は、利用者の生体情報を取得して、その生体情報を表す入力生体データを生成する生体情報取得部と、処理部とを有する。その処理部は、入力生体データに表された入力生体情報から、生体情報の特徴を表す特徴量を抽出する特徴量抽出機能と、抽出された特徴量に基づいて、入力生体データに表された入力生体情報を、同じ特徴を持つ生体情報ごとにカテゴライズされた複数のクラスのうちの少なくとも一つに分類し、かつ、入力生体情報が分類されたクラスに対する信頼度を算出する分類機能と、信頼度のうちの最大値が、複数のクラスのうちの信頼度の最大値に対応するクラスに設定された閾値よりも高いか否か判定する良否判定機能と、信頼度の最大値が閾値以下である場合、生体情報取得部に利用者の生体情報を再取得させることを利用者に促すガイダンス機能とを実現する。

Description

生体情報処理装置、生体情報処理方法及び生体情報処理用コンピュータプログラム
 ここに開示される実施形態は、生体データに表された生体情報を生体認証に利用する生体情報処理装置、生体情報処理方法及び生体情報処理用コンピュータプログラムに関する。
 近年、手または指の静脈のパターン、指紋または掌紋などの生体情報を表した生体画像に基づいて、装置またはシステムの利用者を認証する生体認証技術が開発されている。そのような生体認証技術を利用した生体認証装置は、例えば、生体認証装置を使用しようとする利用者の生体情報を表す生体画像を入力生体画像として取得する。そして生体認証装置は、入力生体画像に表された利用者の入力生体情報を、予め登録された登録利用者の生体画像に表された生体情報である登録生体情報と照合する。生体認証装置は、照合処理の結果に基づいて、入力生体情報と登録生体情報が一致すると判定した場合、その利用者を正当な権限を有する登録利用者として認証する。そして生体認証装置は、認証された利用者が生体認証装置が組み込まれた装置または生体認証装置と接続された他の装置を使用することを許可する。
 このような生体認証装置が用いられている場合、利用者は、所望の装置を使用するために、生体認証処理が終了するまで待機しなければならない。そのため、生体認証処理を実行するために要する時間が長くなると、利用者の利便性が損ねられる。特に、入力生体情報が、生体認証装置に予め記憶されている複数の登録生体画像のそれぞれに表された登録生体情報と照合される、いわゆる1対N照合方式が採用される場合、生体認証装置は複数回の照合処理を実行しなければならない。そのため、必然的に生体認証処理に要する時間も長くなってしまう。
 そこで、入力生体情報から抽出された特徴量に基づいて、入力生体情報を複数のクラスのうちの何れかに分類し、入力生体情報をその分類されたクラスに属する登録生体情報とのみ照合する技術が開発されている(例えば、特許文献1及び2を参照)。このような技術を採用することにより、照合に利用される登録生体情報の数が減少するので、照合処理の実行回数が減少する。その結果として、生体認証装置は、1対N照合方式が採用される場合でも、生体認証処理全体に要する時間を短縮することができる。なお、公知の技術では、入力生体情報が指紋である場合、例えば、隆線間隔、指紋の中心の位置、または隆線方向が、入力生体情報を分類するために利用される。
 また、生体認証技術は、高精度で利用者を認証するために、生体画像に生体情報の特徴的な構造が鮮明に写っていることが望ましい。しかし、生体情報を入力するためのセンサに対する、照合に利用される生体情報を含む利用者の部位のポジショニングが不適切であると、生体画像において、照合に使用されるべき生体情報の一部が写っていなかったり、あるいは生体情報が不鮮明となってしまう。そして場合によっては、生体認証装置は、入力生体情報を分類するために利用される特徴量を入力生体情報から抽出できず、入力生体情報を正確に分類できなくなる。そして入力生体情報が、誤って本来属するべきクラスとは異なるクラスに分類されると、生体認証装置は、入力生体情報を、対応する利用者の登録生体情報と照合できなくなる。そのため、認証精度が低下する。
 そこで、入力生体情報が適正でないと判断した場合には、生体情報をセンサに再度読み取らせることで生体画像が再生成されるよう、利用者に通知する技術が開発されている(例えば、特許文献3及び4を参照)。このような技術では、例えば、入力生体情報が表された画像の濃度分布、またはその画像から生体情報の特徴点が抽出できたか否か、あるいは特徴点の位置に基づいて、その画像が適正か否か判断される。
特開2002-133416号公報 特開2006-39777号公報 特開2001-167268号公報 特開2003-256815号公報
 入力生体情報をその特徴に応じて複数のクラスのうちの何れかに分類する場合、クラスごとに、入力生体情報を正確に分類するために必要な情報は異なることがある。
 しかし、従来技術では、生体認証装置は、入力生体情報が表された画像について、クラスとは無関係に、同一の基準で適正か否かを判定していた。そのため、従来技術を採用した生体認証装置は、入力生体情報を正確に分類するために必要な情報が入力生体情報に含まれている場合でも、入力生体情報が表された画像を不適切と判定してしまうことがあった。このような場合、本来であれば、利用者は、生体情報を再度読み取らせなくてよいにもかかわらず、生体情報を再入力することが求められ、その結果、生体認証処理に余計な時間が掛かってしまうおそれがあった。
 そこで、本明細書は、照合に適した生体情報を取得できるとともに、生体情報の無用な再取得を防止可能な生体情報処理装置、生体情報処理方法及び生体情報処理用コンピュータプログラムを提供することを目的とする。
 一つの実施形態によれば、生体情報処理装置が提供される。この生体情報処理装置は、利用者の生体情報を取得して、その生体情報を表す入力生体データを生成する生体情報取得部と、処理部とを有する。その処理部は、入力生体データに表された入力生体情報から、生体情報の特徴を表す特徴量を抽出する特徴量抽出機能と、抽出された特徴量に基づいて、入力生体データに表された入力生体情報を、同じ特徴を持つ生体情報ごとにカテゴライズされた複数のクラスのうちの少なくとも一つに分類し、かつ、入力生体情報が分類されたクラスに対する信頼度を算出する分類機能と、信頼度のうちの最大値が、複数のクラスのうちの信頼度の最大値に対応するクラスに設定された閾値よりも高いか否か判定する良否判定機能と、信頼度の最大値が閾値以下である場合、生体情報取得部に利用者の生体情報を再取得させることを利用者に促すガイダンス機能とを実現する。
 さらに他の実施形態によれば、生体情報処理方法が提供される。この生体情報処理方法は、利用者の生体情報を取得して、その生体情報を表す入力生体データを生成し、入力生体データに表された入力生体情報から、生体情報の特徴を表す特徴量を抽出し、抽出された特徴量に基づいて、入力生体データに表された入力生体情報を、同じ特徴を持つ生体情報ごとにカテゴライズされた複数のクラスのうちの少なくとも一つに分類し、かつ、入力生体情報が分類されたクラスに対する信頼度を算出し、信頼度のうちの最大値が、複数のクラスのうちの信頼度の最大値に対応するクラスに設定された閾値よりも高いか否か判定し、信頼度の最大値が閾値以下である場合、生体情報取得部に利用者の生体情報を再取得させることを利用者に促すことを含む。
 さらに他の実施形態によれば、生体情報の処理をコンピュータに行わせるコンピュータプログラムが提供される。このコンピュータプログラムは、生体情報取得部により生成された入力生体データに表された利用者の生体情報から、その生体情報の特徴を表す特徴量を抽出し、抽出された特徴量に基づいて、入力生体データに表された入力生体情報を、同じ特徴を持つ生体情報ごとにカテゴライズされた複数のクラスのうちの少なくとも一つに分類し、かつ、入力生体情報が分類されたクラスに対する信頼度を算出し、信頼度のうちの最大値を、複数のクラスのうちの信頼度の最大値に対応するクラスに設定された閾値よりも高いか否か判定し、信頼度の最大値が閾値以下である場合、生体情報取得部に利用者の生体情報を再取得させることを利用者に促すことをコンピュータに実行させる命令を有する。
 本発明の目的及び利点は、請求項において特に指摘されたエレメント及び組み合わせにより実現され、かつ達成される。
 上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を限定するものではないことを理解されたい。
 本明細書に開示された生体情報処理装置、生体情報処理方法及び生体情報処理用コンピュータプログラムは、照合に適した生体情報を取得できるとともに、生体情報の無用な再取得を防止することができる。
図1は、第1の実施形態による、生体情報処理装置の概略構成図である。 図2(a)~(e)は、指紋の特徴量とその特徴量により特徴付けられる指紋のクラスの関係の一例を示す図である。 図3は、第1の実施形態による、利用者に対する生体認証処理を実行するために実現される機能を示す、生体情報処理装置が有する処理部の機能ブロック図である。 図4(a)~(e)は、それぞれ、入力生体画像に指紋の上側の部分領域のみが撮影されている場合に検出された特異点と各クラスの関係を示す図である。 図5(a)~(e)は、それぞれ、入力生体画像に表された指紋が渦巻き型のクラスに属する指紋である場合において、入力生体画像に写っている指紋の領域に何れかの特異点が含まれない場合を示す図である。 図6(a)及び図6(b)は、指紋が写っている領域の広さと、入力生体情報が分類されるクラスに対する信頼度の関係を表す図である。 図7は、入力生体画像から抽出された特徴点に対する、各クラスの信頼度を表す参照テーブルの一例を示す図である。 図8は、処理部上で実行されるコンピュータプログラムにより制御される、生体認証処理の動作フローチャートを示す図である。 図9は、第2の実施形態による、生体情報処理装置が有する処理部の機能ブロック図である。 図10(a)は、指が過度に立った状態に対応する入力生体画像の概略図であり、図10(b)は、指が下方に偏った状態に対応する入力生体画像の概略図である。 図11は、第3の実施形態による、利用者の生体情報を登録するために実現される機能を示す、生体情報処理装置が有する処理部の機能ブロック図である。 図12は、処理部上で実行されるコンピュータプログラムにより制御される、生体情報登録処理の動作フローチャートを示す。
 以下、図を参照しつつ、第1の実施形態による、生体認証処理を実行する生体情報処理装置について説明する。
 この生体情報処理装置は、利用者に対する生体認証処理を実行するために、利用者の生体情報を表したデータである入力生体データを取得する。この生体情報処理装置は、入力生体データに表された利用者の生体情報である入力生体情報を、入力生体情報から抽出された特徴量に基づいて、同じ特徴を持つ生体情報ごとにカテゴライズした複数のクラスのうちの少なくとも一つのクラスに分類する。そして、この生体情報処理装置は、入力生体情報が分類されたクラスに属する、予め登録された登録利用者の生体情報である登録生体情報と入力生体情報を照合する。この生体情報処理装置は、入力生体情報と何れかの登録生体情報が一致すると判定した場合、利用者を、入力生体情報と一致すると判定された登録生体情報に対応する登録利用者として認証する。
 ここで、この生体情報処理装置は、入力生体情報が分類されたクラスに属する確からしさを表す信頼度を、入力生体情報から抽出された特徴量に基づいて決定する。そしてこの生体情報処理装置は、その信頼度を、クラスごとに設定された閾値と比較することで、入力生体データの再生成が必要か否か判定する。
 本実施形態では、生体情報処理装置は、生体認証の対象となる生体情報として指の指紋を利用する。そのため、入力生体情報及び登録生体情報は画像上に表される。そこで、入力生体情報が表された入力生体データとして、入力生体画像が利用される。同様に、登録生体情報が表された登録生体データとして、登録生体画像が利用される。しかし、生体認証の対象となる生体情報は、掌紋、鼻紋、静脈パターン、掌形、顔貌、耳介または網膜パターンなど、静止画像に表される他の生体情報であってもよい。さらに、生体認証の対象となる生体情報は、時間的に連続して取得される声紋あるいは歩容などであってもよい。例えば、生体情報が声紋である場合、入力生体データ及び登録生体データは、その声紋が所定期間にわたって記録された音声信号となる。
 また、本明細書において、「照合処理」という用語は、入力生体情報と登録生体情報の類似度合いを表す類似度を算出する処理を示すために使用される。また、「生体認証処理」という用語は、照合処理だけでなく、照合処理により求められた類似度を用いて、利用者を認証するか否かを決定する処理を含む、認証処理全体を示すために使用される。
 図1は、生体情報処理装置の概略構成図を示す。図1に示されるように、この生体情報処理装置1は、表示部2と、生体情報取得部3と、記憶部4と、処理部5とを有する。生体情報処理装置1は、生体情報取得部3により利用者の指の指紋を表す入力生体画像を生成し、その入力生体画像を用いて生体認証処理を実行する。そして生体情報処理装置1は、生体認証処理の結果、利用者を登録利用者の何れかとして認証した場合、生体情報処理装置1が実装された装置をその利用者が使用することを許可する。あるいは、生体情報処理装置1は、図示しない他の装置へ、利用者が認証された旨を表す信号を送信して、その利用者が他の装置を使用することを許可する。
 なお、生体情報処理装置1は、例えば、キーボード、マウス、またはタッチパッドなどの入力部6を有してもよい。そして生体情報処理装置1は、入力部6を介して利用者により入力されたコマンド、データ、あるいは利用者の識別情報を取得し、そのコマンド、データあるいは利用者の識別情報を処理部5へ渡してもよい。ただし、利用者が生体情報以外の情報を生体情報処理装置1に対して入力する必要がない場合、この入力部6は省略されてもよい。
 表示部2は、例えば、液晶ディスプレイまたはCRTモニタなどの表示装置を有する。そして表示部2は、生体情報取得部3が適正な入力生体画像を取得可能な位置へ、指を配置させるためのガイダンスメッセージを利用者に対して表示する。また表示部2は、処理部5により実行されたアプリケーションに関連する各種情報などを表示する。
 生体情報取得部3は、利用者の指紋を表す入力生体画像を生成する。そのために、生体情報取得部3は、例えば、スイープ式の指紋センサを有する。この指紋センサは、例えば、光学式、静電容量式、電界式または感熱式の何れかの方式を採用したセンサとすることができる。また生体情報取得部3は、エリアセンサを利用する、何れかの指紋センサを有してもよい。そして生体情報取得部3は、生成した入力生体画像を処理部5へ渡す。
 なお生体情報取得部3は、表示部2または入力部6と一体的に形成されていてもよい。
 記憶部4は、例えば、半導体メモリ、磁気ディスク装置、または光ディスク装置のうちの少なくとも何れか一つを有する。そして記憶部4は、生体情報処理装置1で使用されるアプリケーションプログラム、少なくとも一人の登録利用者の識別情報及び個人設定情報、各種のデータ等を記憶する。また記憶部4は、生体認証処理を実行するためのプログラムを記憶する。さらに記憶部4は、登録利用者それぞれについて、登録利用者の登録生体情報である特定の指の指紋に関するデータを記憶する。この登録生体情報に関するデータは、例えば、登録利用者の特定の指の指紋を撮影した画像である登録生体画像とすることができる。あるいは、この登録生体情報に関するデータは、登録生体画像そのものまたはその部分領域から抽出された照合処理用の特徴量であってもよい。
 また記憶部4は、生体情報取得部3が適正な入力生体画像を取得可能な位置へ、指を配置させるためのガイダンスメッセージを記憶する。
 さらに、記憶部4は、各登録生体情報と関連付けて、その登録生体情報が、同じ特徴を持つ生体情報ごとにカテゴライズされたクラスのうちの何れに属するかを示すクラス識別情報も記憶する。
 本実施形態では、登録生体情報である指紋は、その指紋から抽出された特徴量に従って、渦巻き型、左ループ型、右ループ型、弓状紋型、突起弓状紋型の何れかのクラスに分類される。
 図2(a)~(e)は、それぞれ、渦巻き型の指紋200、左ループ(左流蹄状紋)型の指紋210、右ループ(右流蹄状紋)型の指紋220、弓状紋型の指紋230、突起弓状紋型の指紋240の概略図である。
 各図において、上側に凸な円弧201は、複数の隆線が渦状となった中心に位置し、隆線が上側に凸となる特異点である上凸コアを表す。一方、下側に凸な円弧202は、複数の隆線が渦状となった中心に位置し、隆線が下側に凸となる特異点である下凸コアを表す。さらに、下側に向いた矢印203は、上凸コアを形成する隆線の方向を表す。また三角形204は、隆線が三角州状に形成された特異点であるデルタ特異点を表す。
 図2(a)に示されるように、渦巻き型のクラスに属する指紋200は、上凸コア201と、下凸コア202と、二つのデルタ特異点204を含む。そして二つのデルタ特異点205は、上凸コア201と下凸コア202を結ぶ線を挟むように配置される。さらに、渦巻き型のクラスに属する指紋200では、上凸コア201を形成する隆線の方向203が下凸コア202の方を向いている。
 図2(b)に示されるように、左ループ型のクラスに属する指紋210は、上凸コア201と、一つのデルタ特異点204を含む。また左ループ型のクラスに属する指紋210では、デルタ特異点204は、上凸コア201よりも右側に存在し、また、上凸コア201を形成する隆線の方向203が、上凸コア201から上凸コア201よりも左下方へ向いている。一方、図2(c)に示されるように、右ループ型のクラスに属する指紋220は、左ループ型のクラスに属する指紋210と鏡面対称な構造を有している。
 図2(d)に示されるように、弓状紋型のクラスに属する指紋230は、上凸コア201を有するが、それ以外の特異点(すなわち、下凸コア及びデルタ特異点)を有さない。そして図2(e)に示されるように、突起弓状紋型のクラスに属する指紋240は、上凸コア201と、上凸コア201のほぼ真下に位置する一つのデルタ特異点204を含む。そして上凸コアを形成する隆線の方向203が、デルタ特異点204へ向いている。
 本実施形態では、登録生体情報である指紋を表す登録生体画像が取得されたときに、その登録生体情報から、上凸コア、下凸コア、及びデルタ特異点が特徴量として検出される。そして登録生体情報は、検出された特徴量に基づいて、上記の5種類のクラスのうちの最も近いクラスに分類される。なお、登録生体情報からの特徴量の抽出及び登録生体情報のクラスへの分類は、後述する入力生体情報からの特徴量の抽出及び入力生体情報の分類と同様の方法により実行される。
 処理部5は、1個または複数個のプロセッサ及びその周辺回路を有する。そして処理部5は、生体情報取得部3から取得した、その利用者の指紋である入力生体情報が表された入力生体画像を用いた生体認証処理を実行する。
 図3は、生体認証処理を実行するために実現される機能を示す処理部5の機能ブロック図である。図3に示されるように、処理部5は、特徴量抽出部11と、分類部12と、良否判定部13と、ガイダンス処理部14と、照合部15と、認証判定部16とを有する。処理部5が有するこれらの各部は、処理部5が有するプロセッサ上で実行されるコンピュータプログラムによって実装される機能モジュールである。あるいは、処理部5が有するこれらの各部は、ファームウェアとして生体情報処理装置1に実装されてもよい。
 特徴量抽出部11は、入力生体情報をどのクラスに分類するかを決定するために利用される特徴量を抽出する。本実施形態では、指紋である入力生体情報は、図2(a)~図2(e)のそれぞれに示された指紋の型のクラスの何れかに分類される。そこで、特徴量抽出部11は、特徴量として、図2(a)~図2(e)のそれぞれに示された指紋の型を特徴付ける、上凸コア、下凸コア、デルタ特異点などの特異点を検出する。なお、特徴量抽出部11は、上凸コアを形成する隆線の方向も、特徴量として求めてもよい。
 特徴量抽出部11は、例えば、以下の手順に従って、特徴量を抽出する。
 先ず、特徴量抽出部11は、局所閾値法を用いて入力生体画像を2値化することにより、隆線に対応する画素と谷線に対応する画素が異なる値を持つ2値化生体画像を作成する。次に、特徴量抽出部11は、隆線が一つの画素の幅で表されるように、2値化生体画像に対して細線化処理を行う。その後、特徴量抽出部11は、上凸コアに対応する少なくとも一つのテンプレートと、細線化された2値化生体画像との間でテンプレートマッチングを実行することにより、相関値を求める。その際、特徴量抽出部11は、細線化された2値化生体画像に対するテンプレートの相対的な位置を変更しつつ、細線化された2値化生体画像上の各位置についてテンプレートとの相関値を求める。そして特徴量抽出部11は、細線化された2値化生体画像上で、求められた相関値が最も高い位置を特定する。その最も高い相関値が、所定値(例えば、0.9)以上となる場合、特徴量抽出部11は、検出された位置に上凸コアが存在すると判定する。
 同様に、特徴量抽出部11は、細線化された2値化生体画像と、下凸コアまたはデルタ特異点に対応するテンプレートとのテンプレートマッチングを行うことにより、入力生体情報から下凸コア及びデルタ特異点を抽出する。ただし、デルタ特異点に関しては、特徴量抽出部11は、相関値が最も高くなった位置を中心とする、デルタ特異点のテンプレートのサイズの領域を除いた残りの領域内で最も相関値が高い位置を特定する。そしてその特定された位置に対する相関値も所定値以上であれば、特徴量抽出部11は、その位置にもデルタ特異点が存在すると判定する。
 ただし、細線化された2値化生体画像と上凸コアに対応するテンプレートとの相関値の最大値が所定値未満であれば、特徴量抽出部11は、入力生体情報から上凸コアを抽出しない。同様に、細線化された2値化生体画像と下凸コアまたはデルタ特異点に対応するテンプレートとの相関値の最大値が所定値未満であれば、特徴量抽出部11は、入力生体情報から下凸コアまたはデルタ特異点を抽出しない。
 なお、各テンプレートは、例えば、複数の隆線が含まれる程度の大きさを持つ。そして上凸コアに対応するテンプレートには、上凸コアに対応する2値パターン、例えば、略同心円状の上側に凸な複数の円弧が表される。同様に、下凸コアに対応するテンプレートには、下凸コアに対応する2値パターン、例えば、略同心円状の下側に凸な複数の円弧が表される。さらに、デルタ特異点に対応するテンプレートには、一つの画素から3本向へ隆線が伸びるパターンが表される。
 特徴量抽出部11は、入力生体情報から上凸コアが抽出された場合、細線化された2値化生体画像上の、上凸コアが検出された位置周辺で、上凸コアよりも下方に存在する領域に含まれる複数の隆線の方向を求めてもよい。そのような領域は、例えば、水平方向について、上凸コアが検出された位置を水平方向の中心として、隆線が複数本含まれる幅を有するとともに、垂直方向について、上凸コアが検出された位置を上端として、隆線が複数本含まれる幅を有する。特徴量抽出部11は、その領域内の複数の隆線の方向の平均値を、上凸コアを形成する隆線の方向とする。
 なお、特徴量抽出部11は、上凸コア、下凸コア及びデルタ特異点などの特異点を検出する公知の他の方法を用いて、入力生体画像及び登録指紋画像からそれらの特異点を抽出してもよい。また、特徴量抽出部11は、上凸コアを形成する隆線の方向を求めるために、隆線方向を求める公知の何れかの方法を利用することができる。
 さらに、特徴量抽出部11は、細線化された2値化生体画像において、複数の隆線の間隔の平均値を、隆線間隔として算出してもよい。
 また、特徴量抽出部11は、入力生体画像全体を、例えばその輝度平均値で2値化することにより、生体情報が写っている領域とその他の領域とが異なる値を持つ生体領域画像を作成する。
 特徴量抽出部11は、検出された特異点について、その特異点の種別(すなわち、上凸コア、下凸コアまたはデルタ特異点)を識別する情報と、その特異点が検出された入力生体画像上の位置を、分類部12へ渡す。また特徴量抽出部11は、上凸コアを形成する隆線の方向も求めた場合、その隆線の方向も分類部12へ渡す。さらに特徴量抽出部11は、隆線間隔及び生体領域画像も分類部12へ渡す。
 分類部12は、特徴量抽出部11により抽出された特徴量に基づいて、入力生体情報を複数のクラスの少なくとも何れかに分類する。
 ここで、利用者が、生体情報取得部3のセンサ面に対して不適正なポジションに指を置いた場合、入力生体画像には、指紋の一部の領域だけが表される。特に、生体情報取得部3のセンサ面が小さい場合など、入力生体画像に指紋の一部しか写らないため、センサ面に対して少しでも指の位置がずれると、一部の特異点が入力生体画像上に写らないことがある。
 このような場合、特徴量抽出部11は、入力生体画像から、一部の特異点を検出できない可能性がある。その結果として、入力生体情報は適切なクラスに分類されないおそれがある。しかし、入力生体情報が属するクラスによっては、一部の特異点が入力生体画像に写っていなくても、その入力生体情報は正確に分類される。
 そこで分類部12は、抽出された特徴量または特徴量の組み合わせに応じて、入力生体情報が所定のクラスに属するとしたときに、その確からしさを表す信頼度を、入力生体情報が属すると判定した各クラスに対して求める。例えば、分類部12は、記憶部4に記憶された信頼度テーブルを参照し、抽出された特徴量に該当する信頼度及びクラスを決定する。
 以下、図4~図6を参照しつつ、入力生体画像に、指紋の一部の領域だけが表される場合において、検出された特異点と各クラスに対して設定される信頼度の関係を説明する。
 図4(a)~(e)は、それぞれ、入力生体画像に指紋の上側の部分領域のみが撮影されている場合に検出された特異点と各クラスの関係を示す図である。図4(a)~(e)は、それぞれ、渦巻き型クラス、左ループ型クラス、右ループ型クラス、弓状紋型クラス、突起弓状紋型クラスに対応する。
 各図において、矩形400は、入力生体画像全体を表す。ハッチング領域410は、入力生体画像において指紋が写っている領域を表す。また上側に凸な円弧401は、上凸コアを表す。一方、下側に凸な円弧402は、下凸コアを表す。さらに、下側に向いた矢印403は、上凸コアを形成する隆線の方向を表す。また三角形404は、デルタ特異点を表す。このうち、これら特異点及び隆線方向のうち、実線で表されたものは、特徴量抽出部11により検出されたことを示す。一方、点線で表されたものは、指紋が写っている領域410に含まれないために、特徴量抽出部11により検出できなかったことを示す。
 図4(a)~(e)に示されるように、検出された特異点が上凸コア401のみであり、かつ、上凸コア401が領域410の下端近傍に位置しているとする。この場合、指紋が写っていない領域に、下凸コアまたはデルタ特異点が存在する可能性がある。しかし、入力生体画像400には、上凸コア401よりも下方の指紋が写っていないため、特徴量抽出部11は、下凸コア402及びデルタ特異点404が、指紋上に存在するか否かを判別することができない。また特徴量抽出部11は、上凸コア401を形成する隆線の方向を求めることも困難である。そのため、入力生体画像400に表された指紋は、何れのクラスにも属する可能性がある。
 従って、このような場合、分類部12は、入力生体画像400に表された入力生体情報を、何れのクラスにも分類するとともに、各クラスに対する信頼度を低い値とすることが好ましい。
 また、図5(a)~(e)は、それぞれ、入力生体画像に表された指紋が渦巻き型のクラスに属する指紋であり、入力生体画像に写っている指紋の領域に何れかの特異点が含まれない場合を示す図である。
 各図において、矩形500は、入力生体画像全体を表す。ハッチング領域510は、入力生体画像において指紋が写っている領域を表す。また上側に凸な円弧501は、上凸コアを表す。一方、下側に凸な円弧502は、下凸コアを表す。また三角形504は、デルタ特異点を表す。このうち、これら特異点のうち、実線で表されたものは、特徴量抽出部11により検出されたことを示す。一方、点線で表されたものは、指紋が写っている領域510に含まれないために、特徴量抽出部11により検出できなかったことを示す。
 図5(a)、(b)、(e)では、二つあるデルタ特異点のうちの一方または両方が検出されなかったものの、それ以外の特異点が検出されている。しかし、渦巻き型以外の指紋のクラスの何れも、上凸コアと下凸コアの両方を有することはない。
 また、図5(c)、(d)では、上凸コアと下凸コアのうちの一方が検出されなかったものの、それ以外の特異点が検出されている。しかし、渦巻き型以外の指紋のクラスの何れも、二つのデルタ特異点を有することはない。
 そのため、図5(a)~(e)に示されるような場合、何れかの特異点が検出されていないにもかかわらず、入力生体画像500に表された指紋は、渦巻き型のクラスに分類されるとともに、渦巻き型のクラスに対して高い信頼度を持つことが好ましい。
 このように、分類部12は、入力生体情報が属する可能性があるクラスが複数存在する場合、入力生体情報をそれら複数のクラスに分類する。一方、入力生体情報が属する可能性があるクラスが一つのみ存在する場合、分類部12は、入力生体情報をその一つのクラスに分類する。そして分類部12は、入力生体情報が分類されたクラスの数が少ないほど、そのクラスに対する信頼度を高く設定する。
 また、入力生体情報が写っている領域が広いほど、検出されなかった特異点が入力生体情報に含まれるか否かが正確に判定される。そこで、分類部12は、入力生体情報が写っている領域の面積に応じて、入力生体情報が分類されるクラス及び信頼度を変更してもよい。
 図6(a)及び図6(b)を参照しつつ、指紋が写っている領域の広さに応じて、入力生体情報が分類されたクラスに対する信頼度を変更する一例を説明する。
 各図において、矩形600は、入力生体画像全体を表す。ハッチング領域610は、入力生体画像において指紋が写っている領域を表す。また上側に凸な円弧601は、上凸コアを表す。一方、下側に凸な円弧602は、下凸コアを表す。また三角形604は、デルタ特異点を表す。このうち、これら特異点のうち、実線で表されたものは、特徴量抽出部11により検出されたことを示す。一方、点線で表されたものは、特徴量抽出部11により検出されなかったことを示す。
 図6(a)では、上凸コア601から指紋が写っている領域610の右側の境界までの最短距離dが、上凸コアよりも右側にデルタ特異点が存在しても、そのデルタ特異点が指紋が写っている領域に含まれないほど短い。そのため、特徴量抽出部11は、下凸コア及び上凸コアよりも右側にデルタ特異点が存在するか否かを判定することができない。このような場合、分類部12は、入力生体情報を渦巻き型及び右ループ型に分類し、その二つのクラスに対する信頼度を同一の値に設定することが好ましい。また分類部12は、入力生体情報が属するクラスを、渦巻き型または右ループ型に特定できないので、それら二つのクラスに対する信頼度を、入力生体情報が一つのみのクラスに分類された場合の信頼度よりも低くすることが好ましい。
 一方、図6(b)では、上凸コア601から指紋が写っている領域610の右側の境界までの最短距離dが、上凸コアよりも右側にデルタ特異点が存在するなら、確実にそのデルタ特異点が指紋が写っている領域に含まれるほど長い。そのため、特徴量抽出部11は、下凸コアは存在せず、上凸コアよりも右側にはデルタ特異点が存在しないと判定できる。そのため、分類部12は、入力生体情報を右ループ型のクラスにのみ分類することが好ましい。また分類部12は、右ループ型に対する信頼度を、図6(a)の場合における右ループ型に対する信頼度よりも高くすることが好ましい。
 このように、上凸コア601と左側のデルタ特異点604のみが検出されている場合、分類部12は、上凸コア601から指紋が写っている領域610(すなわち、生体領域)の右側の境界までの最短距離dを、指紋が写っている領域のサイズの指標とする。そして分類部12は、その最短距離dに応じて、渦巻き型のクラス及び右ループ型のクラスに対する信頼度を変更する。
 具体的には、分類部12は、最短距離dが所定の閾値Tdiよりも大きいとき、入力生体情報を右ループ型のクラスに分類し、右ループ型に対する信頼度を、信頼度が取り得る最高値とする。一方、最短距離dが所定の閾値Tdi以下のとき、分類部12は、入力生体情報を渦巻き型のクラス及び右ループ型に分類するとともに、渦巻き型のクラス及び右ループ型に対する信頼度を、信頼度の最高値の1/2とする。あるいは、最短距離dが大きくなるほど、分類部12は、右ループ型のクラスに対する信頼度を高くし、一方、渦巻き型のクラスに対する信頼度を低くしてもよい。この場合、分類部12は、例えば、以下の式にしたがって、渦巻き型のクラスに対する信頼度Rw及び右ループ型に対する信頼度Rrを決定する。
  Rw = 100 × (1-d/Tdi)
  Rr = 100 × d/Tdi
 なお、所定の閾値Tdiは、例えば、上凸コアよりも右側にデルタ特異点が存在するときに、上凸コアからその右側のデルタ特異点の右側端までの距離に相当する値とすることができる。
 また、利用者ごとに指の大きさは異なる。そのため、上記の閾値Tdiは、指が大きいほど、大きくすることが好ましい。そこで、分類部12は、指の大きさを表す指標として隆線間隔を使用することにより、閾値Tiを修正する。例えば、基準となる隆線間隔P0に対する閾値がTd0であり、入力生体情報から検出された隆線間隔がPiであれば、分類部12は、閾値Tdiを以下の式に従って決定する。
  Tdi = Td0×Pi/P0
 このように、分類部12は、指紋が写っている領域のサイズの指標として、検出されている特異点から、検出されていない特異点の方向への距離を用いることができる。例えば、指紋が写っている領域の広さの指標の別の一例として、分類部12は、垂直方向に沿って、上凸コアから指紋が写っている領域の下端までの距離Lを用いてもよい。
 なお、分類部12は、上記の最短距離d及び距離Lを、特徴量抽出部11から受け取った上凸コアの位置と、生体領域画像に表されている指紋が写っている領域の境界間の距離を算出することにより求めることができる。
 図7は、信頼度テーブルの一例を示す図である。図7に示された信頼度テーブル700において、各列は、左端から順に、それぞれ、検出された特異点の総個数、検出された上凸コアの個数、検出された下凸コアの個数、検出されたデルタ特異点の個数、信頼度、判定条件、クラスを表す。
 第1の例として、入力生体情報から上凸コア、下凸コア及び一つのデルタ特異点が検出された場合、分類部12は、信頼度テーブル700の行701を参照することにより、その入力生体情報を渦巻き型のクラスに分類し、かつ渦巻き型のクラスに対して信頼度を100とする。また分類部12は、その他のクラスに対する信頼度を0とする。
 第2の例として、入力生体情報から、上凸コアと、上凸コアよりも左側に位置する一つのデルタ特異点が検出され、上凸コアよりも右側の指紋が写っている領域が狭い場合、分類部12は、信頼度テーブル700の行702を参照する。そして分類部12は、その入力生体情報を渦巻き型及び右ループ型のクラスに分類し、かつ渦巻き型及び右ループ型のクラスに対して信頼度を50とする。また分類部12は、その他のクラスに対する信頼度を0とする。
 なお、信頼度テーブル700では、上凸コアを形成する隆線の方向は、各クラスの信頼度の決定に利用されていない。しかし、上凸コアを形成する隆線の方向も各クラスの信頼度の決定に利用されるように、信頼度テーブルは設定されてもよい。また、信頼度テーブルは、検出された特異点の総個数を含まなくてもよい。
 また、分類部12は、他の方法により、入力生体情報を何れかのクラスに分類し、そして分類されたクラスに対する信頼度を設定してもよい。例えば、分類部12は、特徴量を入力とし、生体情報の分類結果を出力とする機械学習システムを用いて、入力生体情報を分類してもよい。機械学習システムは、例えば、パーセプトロン型のニューラルネットワーク、あるいは1段または複数段に接続されたサポートベクトルマシンとすることができる。このような機械学習システムを学習するために、事前に属するクラスが分かっている複数の生体情報から、クラスの分類に利用される特徴量が抽出される。そしてそれら特徴量と、対応する生体情報の分類結果を教師データとして、バックプロパゲーションなどの学習アルゴリズムを利用することにより、機械学習システムは学習できる。
 分類部12は、入力生体情報が分類されたクラスの識別情報と、そのクラスに対する信頼度を良否判定部13へ渡す。
 良否判定部13は、生体情報取得部3により生成された入力生体画像の分類結果が適正か否か判定する。そこで良否判定部13は、入力生体情報が分類されたクラスに対する信頼度のうち、最も高い信頼度Rmaxを決定する。そして良否判定部13は、Rmaxを、Rmaxに対応するクラスに対して定められた良否判定用閾値Tjmaxと比較する。そして良否判定部13は、Rmaxが閾値Tjmaxよりも高ければ、入力生体情報をRmaxに対応するクラスに分類したことは適切であると判定する。この結果、入力生体画像は、Rmaxに対応するクラスに属する登録生体情報との照合に利用するのに適正であると判定される。一方、Rmaxが閾値Tjmax以下であれば、良否判定部13は、入力生体情報をRmaxに対応するクラスに分類したことは適切でないと判定する。この結果、入力生体画像は、照合に利用するには不適正であると判定される。
 なお、Rmaxに対応するクラスが複数存在する場合、良否判定部13は、Rmaxを、それら複数のクラスのそれぞれに対して定められた良否判定用閾値Tjc(c=1,2,..,n、ただしnは入力生体情報が分類されたクラスの総数)と比較する。そして良否判定部13は、あるクラスk(1≦k≦n)についてRmaxが良否判定用閾値Tjkよりも高ければ、入力生体情報をそのクラスkに分類したことは適切であると判定する。一方、良否判定部13は、何れのクラスについてもRmaxが良否判定用閾値Tjc以下であれば、入力生体画像の分類結果は適切でないと判定する。
 なお、各クラスに対する良否判定用閾値Tjcは、そのクラスに属する生体情報が誤って他のクラスに分類される可能性が高いクラスほど、高い値に設定されることが好ましい。これにより、分類誤りが生じる可能性が高いクラスについては、入力生体情報からそのクラスに属する生体情報が有する分類用の特徴量が正確に抽出されていなければ、良否判定部13は、入力生体情報の分類結果を誤りと判定できる。そのため、良否判定部13は、利用者の入力生体情報が、登録時において分類されたクラスと異なるクラスに分類される、すなわちビンニングエラーが発生する危険性を軽減できる。
 一方、分類誤りが生じる可能性が低いクラスについては、入力生体情報からそのクラスに属する生体情報が有する分類用の特徴量の一部が抽出できなくても、良否判定部13は、入力生体情報の分類結果を適切と判定できる。そのため、良否判定部13は、入力生体情報が正しく分類されているにもかかわらず、入力生体画像を再生成することを防止できる。
 例えば、図2(a)~図2(e)に示された、指紋の各クラスのうち、渦巻き型のクラスに対する良否判定用閾値が最も低く設定されることが好ましい。渦巻き型のクラスに属する指紋は、他のクラスの指紋が有さない特徴(例えば、下凸コア)を有しているため、他のクラスに誤って分類される可能性が低いためである。これに対し、弓状紋型のクラスに対する良否判定用閾値は、他のクラスに対する良否判定用閾値よりも高く設定されることが好ましい。弓状紋型のクラスに属する指紋は、他のクラスの指紋が有する特異点と異なる特異点を有さない。そのため、弓状紋型のクラスに属する指紋は、他のクラスに属する指紋よりも、他のクラスに誤って分類される可能性が高いためである。
 良否判定部13は、良否判定結果を示す情報を処理部5へ渡す。また、入力生体情報の分類結果が適切であると判定された場合には、良否判定部13は、入力生体情報が分類されたクラスの識別情報を処理部5へ渡す。そして処理部5は、分類結果が不適切であると判定された場合、ガイダンス処理部14へ、その判定結果を通知する。一方、処理部5は、分類結果が適切であると判定された場合、入力生体画像及び入力生体情報が分類されたクラスの識別情報を照合部15へ渡す。
 ガイダンス処理部14は、処理部5から入力生体情報の分類結果が不適切であるとの判定結果を通知されると、利用者に入力生体情報の再入力を促すガイダンスメッセージを記憶部4から読み出す。
 そしてガイダンス処理部14は、読み込んだガイダンスメッセージを表示部2に表示させる。なお、ガイダンス処理部14は、生体情報処理装置1がスピーカを有している場合、ガイダンスメッセージを、スピーカを介して音声により利用者に報知させてもよい。
 照合部15は、処理部5から入力生体画像及び入力生体情報が分類されたクラスの識別情報を受け取ると、入力生体情報と、記憶部4に記憶された登録生体情報のうち、入力生体情報が分類されたクラスに属する登録生体情報を照合する。そして照合部15は、照合処理の結果として、入力生体情報が各登録生体情報に類似している度合いを表す類似度をそれぞれ求める。
 照合部15は、照合処理として、例えば、マニューシャマッチング、あるいはパターンマッチングを用いることができる。
 照合部15は、マニューシャマッチングにより入力生体情報と登録生体情報を照合する場合、入力生体画像から照合用の特徴点を抽出する。そして照合部15は、入力生体画像から抽出された特徴点と、記憶部4に登録生体情報に関するデータとして記憶されている、登録生体画像から抽出された複数の特徴点を使用する。
 照合部15は、照合用の特徴点(マニューシャ)として、例えば、隆線の端点、分岐点を抽出する。そこで照合部15は、隆線の分岐点及び端点を入力生体画像から抽出するために、特徴量抽出部11の処理と同様の処理を行うことにより、入力生体画像から隆線が細線化された2値化画像を生成する。そして、照合部15は、複数のマスクパターンを用いて細線化された入力生体画像を走査することにより、何れかのマスクパターンと一致するときの、入力生体画像上の位置を検出する。そして照合部15は、検出された位置の中心画素を、特徴点として抽出する。なお、マスクパターンは、例えば、3×3画素で表され、隆線の分岐点または端点に対応する2値パターンを持つ。さらに照合部15は、抽出された特徴点の位置、及びその特徴点近傍の隆線方向を、特徴点を表す情報として求める。なお、照合部15は、特徴点近傍の隆線方向を求めるために、隆線方向を求める公知の何れかの方法を利用することができる。
 登録生体画像に対しても、入力生体画像に対して行う処理と同様の処理を行って、登録生体画像から特徴点が抽出され、抽出された特徴点の位置及び特徴点近傍の隆線方向が記憶部4に記憶される。
 なお、照合部15は、隆線の端点または分岐点を特徴点として求める公知の他の方法を用いて、入力生体画像から特徴点を抽出してもよい。
 照合部15は、登録生体画像のうち、登録生体情報が写っている領域の中心付近に位置する特徴点を、第1の基準特徴点として選択する。また照合部15は、入力生体画像から抽出された特徴点のうちの一つを第2の基準特徴点として選択する。そして照合部15は、第2の基準特徴点を第1の基準特徴点と一致させるように、入力生体画像を平行移動させる。その後、照合部15は、入力生体画像を回転させながら、登録生体画像の特徴点と一致する入力生体画像の特徴点の個数を求める。照合部15は、第1の基準特徴点と第2の基準特徴点の組み合わせを変えつつ、上記の処理を繰り返して、登録生体画像の特徴点と一致する入力生体画像の特徴点の個数の最大値を求める。
 最後に、照合部15は、その個数の最大値を、入力生体画像から抽出された特徴点の総数で割った値を類似度として求める。したがって、この場合、類似度は0~1の値を持ち、入力生体情報と登録生体情報の類似度合いが高い程、類似度の値は1に近づく。
 なお、登録生体情報の特徴点と一致する入力生体情報の特徴点を検出するために、照合部15は、入力生体情報の着目特徴点の位置から所定範囲内に、登録生体情報の特徴点が存在するか否か調べる。ここで、所定範囲は、例えば、隣接する2本の隆線の平均間隔に相当する値とすることができる。照合部15は、着目特徴点の位置から所定範囲内に登録生体情報の特徴点が存在する場合、それら特徴点近傍の隆線方向の角度差を求める。そして隆線方向の角度差の絶対値が所定角度範囲内に含まれる場合、照合部15は、その登録生体情報の特徴点を、入力生体情報の着目特徴点と一致すると判定する。なお所定角度範囲は、着目特徴点近傍の隆線方向と対応する登録生体情報の特徴点近傍の隆線方向とが一致しているとみなせる許容限界に対応する値であり、例えば、10度とすることができる。なお、照合部15は、着目特徴点の位置から所定範囲内に、着目特徴点と同じ種類の登録生体情報の特徴点が存在する場合にのみ、入力生体情報の着目する特徴点と一致する登録生体情報の特徴点が存在すると判定してもよい。また、照合部15は、入力生体情報の特徴点と一致する登録生体情報の特徴点の個数を求める公知の他の方法を利用してもよい。
 また、照合部15は、パターンマッチングにより入力生体情報と登録生体情報を照合する場合、入力生体情報が表された入力生体画像と、記憶部4に登録生体情報に関するデータとして記憶されている登録生体画像を使用する。そして照合部15は、入力生体画像と登録生体画像の相対的な位置を様々に変えつつ、下記の式を用いて、入力生体画像と登録生体画像間の相関値c(i,j)を算出する。
Figure JPOXMLDOC01-appb-M000001
ここで、I(x,y)は、入力生体画像に含まれる、水平座標x、垂直座標yの画素の画素値を表す。またT(x-i,y-j)は、登録生体画像に含まれる、水平座標(x-i)、垂直座標(y-j)の画素の画素値を表す。また、Iavは、入力生体画像に含まれる画素の平均画素値であり、Tavは、登録生体画像に含まれる画素の平均画素値である。なお、i及びjは、それぞれ、入力生体画像と登録生体画像の水平方向及び垂直方向のずれ量を表す。さらにc(i,j)は、入力生体画像が、登録生体画像に対して水平方向にi画素かつ垂直方向にj画素ずれているときの相関値を表す。この相関値c(i,j)は、-1~1の間に含まれる値をとり得る。入力生体画像と登録生体画像とが完全に一致している場合、相関値c(i,j)は1となる。一方、入力生体画像と登録生体画像とが完全に反転している場合、相関値c(i,j)は-1となる。
 照合部15は、算出された類似度のうち、入力生体情報と登録生体情報が最も類似することを示す最高類似度を求める。そして照合部15は、最高類似度を、その最高類似度に対応する登録生体情報に関する登録利用者の識別情報とともに認証判定部16へ渡す。
 認証判定部16は、最高類似度が認証判定閾値以上となる場合、入力生体情報と登録生体情報は一致すると判定する。そして認証判定部16は、利用者を、入力生体情報と一致すると判定された登録生体情報に対応する登録利用者として認証する。認証判定部16は、利用者を認証すると、その認証結果を処理部5へ通知する。そして処理部5は、認証された利用者が生体認情報処理装置1が実装された装置あるいは生体認情報処理装置1が接続された装置を利用することを許可する。
 一方、認証判定部16は、最高類似度が認証判定閾値未満となる場合、入力生体情報と登録生体情報は一致しないと判定する。この場合には、認証判定部16は、利用者を認証しない。認証判定部16は、利用者の認証に失敗したことを示す認証結果を処理部5へ通知する。そして処理部5は、認証されなかった利用者が生体認情報処理装置1が実装された装置あるいは生体認情報処理装置1が接続された装置を使用することを拒否する。また処理部5は、表示部2に、認証に失敗したことを示すメッセージを表示させる。
 認証判定閾値は、登録利用者本人が利用者である場合にのみ、認証判定部16が認証に成功するような値に設定されることが好ましい。そして認証判定閾値は、登録利用者とは異なる他人が利用者である場合には、認証判定部16が認証に失敗するような値に設定されることが好ましい。例えば、認証判定閾値は、類似度の取りうる最大値と最小値の差に0.7を乗じた値を、類似度の最小値に加えた値とすることができる。
 図8は、処理部5上で実行されるコンピュータプログラムにより制御される、生体認証処理の動作フローチャートを示す。
 図8に示されるように、処理部5は、生体情報取得部3から、利用者の生体情報を表す入力生体画像を取得する(ステップS101)。そして処理部5は、入力生体画像を処理部5の特徴量抽出部11へ渡す。
 特徴量抽出部11は、入力生体情報を同じ特徴を持つ生体情報ごとにカテゴライズされた複数のクラスのうちの何れかに分類するための特徴量を、入力生体情報から抽出する(ステップS102)。そして特徴量抽出部11は、抽出された特徴量を処理部5の分類部12に渡す。
 分類部12は、特徴量に基づいて入力生体情報を少なくとも一つのクラスに分類する(ステップS103)。また分類部12は、分類されたクラスに対する、入力生体情報の信頼度を算出する(ステップS104)。分類部12は、入力生体情報が分類されたクラスの識別情報と、そのクラスに対する信頼度を処理部5の良否判定部13へ渡す。
 良否判定部13は、分類部12から受け取った、入力生体情報が分類されたクラスに対する信頼度のうち、その最大値rmaxを決定する(ステップS105)。
 そして良否判定部13は、rmaxがそのrmaxに対応するグループに対して設定された良否判定用閾値よりも高いか否か判定する(ステップS106)。
 rmaxがそのrmaxに対応するクラスに対して設定された良否判定用閾値以下である場合(ステップS106-No)、良否判定部13は、入力生体情報の分類結果は不適切であると判定する。そして良否判定部13は、良否判定結果を処理部5に返す。
 処理部5は、ガイダンス処理部14に対して入力生体情報の分類結果が不適切、すなわち、入力生体画像は、照合に使用するには不適正であると判定されたことを通知する。ガイダンス処理部14は、処理部5からその通知を受け取ると、入力生体画像が不適正となったことを示すガイドメッセージを記憶部4から読み込む。そしてガイダンス処理部14は、そのガイドメッセージを表示部2に表示させる(ステップS107)。その後、処理部5は、制御をステップS101に戻し、生体情報取得部3から、利用者の部位を再度読み取ることにより再生成された入力生体画像を取得する。そして処理部5は、ステップS101以降の処理を繰り返し実行する。
 一方、rmaxがそのrmaxに対応するクラスに対して設定された良否判定用閾値よりも高い場合(ステップS106-Yes)、良否判定部13は、入力生体情報をrmaxに対応するクラスに分類したことは適切であると判定する。そして良否判定部13は、良否判定結果及びrmaxに対応するクラスの識別情報を処理部5に返す。
 処理部5は、入力生体情報が表された入力生体画像と、rmaxに対応するクラスの識別情報を、照合部15に渡す。照合部15は、入力生体画像とrmaxに対応するクラスの識別情報を受け取ると、入力生体情報が分類されたクラスに属する各登録生体情報に関するデータを記憶部4から読み出す。そして照合部15は、入力生体情報を、入力生体情報が分類されたクラスに属する各登録生体情報と照合する。そして照合部15は、入力生体情報とそのクラスに属する各登録生体情報の類似度をそれぞれ算出する(ステップS108)。
照合部15は、算出された類似度のうち、入力生体情報と登録生体情報が最も類似することを示す最高類似度を決定する(ステップS109)。そして照合部15は、最高類似度を、その最高類似度に対応する登録生体情報に関する登録利用者の識別情報とともに処理部5の認証判定部16へ渡す。
 認証判定部16は、最高類似度が認証判定用閾値以上となるか否か判定する(ステップS110)。
 最高類似度が認証判定用閾値以上である場合(ステップS110-Yes)、認証判定部16は利用者を最高類似度に対応する登録利用者として認証する(ステップS111)。
 一方、最高類似度が認証判定用閾値未満である場合(ステップS110-No)、認証判定部16は利用者を認証しない(ステップS112)。
 ステップS111またはS112の後、処理部5は、生体認証処理を終了する。
 なお、処理部5は、ステップS103及びS104の処理を同時に実行してもよい。
 以上に説明してきたように、第1の実施形態による、生体情報処理装置は、入力生体画像に表された利用者の生体情報である入力生体情報を、同じ特徴を持つ生体情報ごとにカテゴライズした複数のクラスのうちの少なくとも一つのクラスに分類する。その際、この生体情報処理装置は、入力生体情報が分類されたクラスに属する確からしさを表す信頼度を決定し、その信頼度を、クラスごとに設定された良否判定基準と比較することで、入力生体画像の再生成が必要か否か判定する。
 これにより、この生体情報処理装置は、照合に適した生体情報を取得できるとともに、生体情報の無用な再取得を防止して、処理時間の増加を防止することができる。
 なお、上記の生体情報処理装置は、入力生体情報と照合すべき登録生体情報が、利用者の識別情報などによって特定された、いわゆる1対1照合を行ってもよい。この場合、処理部の良否判定部は、入力部を介して取得された登録利用者の識別情報により特定された登録生体情報が属するクラスと、入力生体情報が分類されたクラスが一致するか否か判定する。そして両方のクラスが一致する場合、生体情報処理装置は照合処理を実施する。一方、両方のクラスが一致しない場合、生体情報処理装置は、ガイダンス処理部による処理を実行し、入力生体画像を再生成すればよい。入力生体情報の分類が不適切である場合には、入力生体画像から入力生体情報の特徴的な部分を抽出できていないので、その入力生体情報が表された入力生体画像は照合に利用するには不適正である。そのため、生体情報処理装置は、1対1照合が行われる場合でも、不適正な入力生体画像を用いて照合処理を行うことを防止できる。
 次に、第2の実施形態による、生体認証処理を実行する生体情報処理装置について説明する。第2の実施形態による生体情報処理装置は、入力生体画像が照合に使用するには不適正であると判定された場合に、入力生体画像取得時における、生体情報取得部のセンサ面に対する入力生体情報が含まれる利用者の部位のポジショニングを推定する。そしてこの生体情報処理装置は、利用者がその部位をセンサ面に対して適正な位置におき、かつその部位を適切な姿勢に保って再度入力生体画像を取得できるように、推定されたポジショニングに応じたガイドメッセージを利用者に表示する。
 なお、第2の実施形態による生体情報処理装置は、第1の実施形態による情報処理装置と比較して、処理部の機能の一部のみが相違する。そこで、以下では、第2の実施形態による生体情報処理装置の処理部の機能のうち、第1の実施形態による情報処理装置の処理部の機能と相違する点について説明する。
 図9は、第2の実施形態による、生体情報処理装置が有する処理部の機能ブロック図である。図9に示されるように、処理部5は、特徴量抽出部11と、分類部12と、良否判定部13と、ガイダンス処理部14と、照合部15と、認証判定部16と、入力状態推定部17とを有する。図9において、処理部5の各機能ブロックには、図3に示された処理部5の対応する機能ブロックと同じ参照番号を付した。
 入力状態推定部17は、良否判定部13により、入力生体情報の分類結果が不適切と判定された場合に、入力生体画像取得時における、生体情報取得部3のセンサ面に対する入力生体情報が含まれる利用者の部位のポジショニングを推定する。
 本実施形態では、入力状態推定部17は、ポジショニングを推定するために、以下の値のうちの少なくとも一つを利用する。
 ・入力生体画像に含まれる入力生体情報が写っている領域である生体領域の面積
 ・特徴量抽出部11により検出された特異点の位置と生体領域の境界までの距離
 ・生体領域の境界と入力生体画像の境界までの距離
 そこで入力状態推定部17は、特徴量抽出部11から、各特異点の位置を表す情報及び生体領域画像を受け取る。
 入力状態推定部17は、例えば、入力生体情報である指紋を含む指がセンサ面に対して上下左右の何れかに偏り過ぎているか否か、あるいは指がセンサ面に対して過度に立っているか否か、あるいは過度に寝ているか否かを調べる。
 例えば、生体領域の重心位置が、入力生体画像の画像の左端から所定距離以内にある場合、入力状態推定部17は、利用者の指の位置は生体情報取得部3に対して右側に寄り過ぎていると推定する。また、入力生体画像の左端に接触している生体領域内の画素数が入力生体画像の右端に接触している生体領域内の画素数よりも所定の閾値以上多いこともある。この場合も、入力状態推定部17は、指の位置が生体情報取得部3に対して右側に寄り過ぎていると推定する。一方、生体領域の重心位置が、入力生体画像の画像の右端から所定距離以内にある場合、入力状態推定部17は、指の位置が生体情報取得部3に対して左側に寄り過ぎていると推定する。また、入力生体画像の右端に接触している生体領域内の画素数が入力生体画像の左端に接触している生体領域内の画素数よりも所定の閾値以上多いこともある。この場合も、入力状態推定部17は、指の位置が生体情報取得部3に対して左側に寄り過ぎていると推定する。
 なお、所定距離は、例えば、指が生体情報取得部3のセンサ面に対して適正な位置に置かれたときの入力生体画像上の生体領域の幅の平均的な値の半分とすることができる。また、左右端における接触画素数の差に関する所定の閾値は、例えば、入力生体画像上の生体領域の上下方向の長さの1/3あるいは1/4とすることができる。
 さらに、利用者の部位の位置が上下左右の何れにも偏っておらず、かつ、生体領域の面積が所定の面積閾値よりも小さい場合、入力状態推定部17は、指の位置は生体情報取得部3のセンサ面に対して離れ過ぎていると推定する。所定の面積閾値は、例えば、指が生体情報取得部3のセンサ面に対して適正な位置に置かれたときの入力生体画像上の生体領域の面積の1/2とすることができる。
 また、入力生体情報から、デルタ特異点が検出されたものの、指紋の中心に相当する上凸コアが検出されない場合もある。このような場合、入力状態推定部17は、生体情報取得部3のセンサ面に対して指が過度に寝ている(すなわち、指の先端が指の根元よりもセンサ面から離れている)と推定する。
 さらに、上凸コアから生体領域の下端までの距離と、生体領域の幅に基づいて、入力状態推定部17は、生体情報取得部3のセンサ面に対して、指が過度に立った状態かまたは指が下方に置かれた状態かを識別できる。
 図10(a)は、指が過度に立った状態(すなわち、指の根元が指の先端よりもセンサ面から離れている)に対応する入力生体画像の概略図であり、図10(b)は、指が下方に偏った状態に対応する入力生体画像の概略図である。
 図10(a)及び図10(b)において、矩形領域1000は入力生体画像を表す。またハッチングされた領域1010は、生体領域を表す。さらに、半円状の円弧1020は上凸コアを表す。
 図10(a)に示されるように、生体情報取得部3のセンサ面に対して、利用者が指を過度に立てた状態で、入力生体画像が取得されると、上凸コア1020から生体領域1010の下端までの距離が非常に短くなる。また、生体領域1010の下端近傍における、生体領域1010の水平方向の幅は、上凸コア1020の位置における生体領域1010の水平方向の幅よりも狭い。
 これに対し、図10(b)に示されるように、生体情報取得部3のセンサ面に対して指が下方に偏っている場合も、上凸コア1020から生体領域1010の下端までの距離が非常に短くなる。しかし、生体領域1010の下端近傍における、生体領域1010の水平方向の幅は、上凸コア1020の位置における生体領域1010の水平方向の幅とほぼ等しい。
 そこで、入力状態推定部17は、上凸コアから生体領域の下端までの距離Lを求める。そして入力状態推定部17は、距離Lを所定の閾値Tlと比較する。距離Lが閾値Tlよりも大きい場合には、入力状態推定部17は、指が過度に立った状態ではなく、かつ、指が下方に偏りすぎている状態でもないと判定する。
 所定の閾値Tlは、例えば、指紋の隆線間隔Dを基準にして、以下のように決定することができる。
  Tl = N×D
ここで、Nは1以上の整数である。上凸コアと、デルタ特異点または下凸コアが近接していると、なお、指が過度に立っていてもデルタ特異点または下凸コアが検出される場合がある。そこで、デルタ特異点または下凸コアが検出された場合には、入力状態推定部17は、指が過度に立っているか否かの判定を省略してもよい。
 Nは、あらかじめ複数の指紋から上凸コアとデルタ特異点間の隆線本数、あるいは上凸コアと下凸コア間の隆線本数を算出し、その隆線本数の統計量に基づいて決定されてもよい。例えば、Nは、複数の指紋から得られた上凸コアとデルタ特異点間の隆線本数の平均値に、標準偏差を加えた値とすることができる。
 距離Lが閾値Tl以下である場合には、入力状態推定部17は、上凸コアの位置における生体領域の水平方向の幅Wcと、生体領域の下端での生体領域の水平方向の幅Wlを求める。そして、幅Wlが、幅Wcに1未満の所定の係数αを乗じた値よりも小さい場合、入力状態推定部17は、指が過度に立っていると推定する。なお、係数αは、例えば、0.5~0.8とすることができる。
 一方、幅Wlが、幅Wcに係数αを乗じた値以上である場合、入力状態推定部17は、指が下方に偏り過ぎていると判定する。
 さらに、入力状態推定部17は、生体情報取得部3がスイープ型のセンサである場合、利用者が生体情報が含まれる部位をセンサに対して移動させる速度または移動方向を推定してもよい。例えば、生体領域の垂直方向の高さが所定の閾値よりも低ければ、入力状態推定部17は、センサに対する部位の移動速度が速過ぎたと推定してもよい。また、生体領域の上部における、水平方向の中心位置と、生体領域の下部における水平方向の中心位置の水平方向の差の絶対値が所定の閾値よりも大きければ、入力状態推定部17は、センサに対して部位が過度に斜め方向に移動したと推定する。
 入力状態推定部17は、入力生体情報が含まれる部位の推定されたポジショニングを表す入力状態情報をガイダンス処理部14へ通知する。
 ガイダンス処理部14は、入力生体情報に応じて、利用者が生体情報が含まれる部位を、生体情報取得部3のセンサ面に対して適切な場所に置けるよう、記憶部4に記憶されている複数のガイダンスメッセージから適切なものを選択する。
 例えば、ガイダンス処理部14は、入力状態情報が、指の位置が生体情報取得部3に対して左側に寄り過ぎていることを示す場合、記憶部4からそのポジショニングに対応するガイダンスメッセージを読み込む。そのガイダンスメッセージは、例えば、「指をもう少し右側にずらして、もう一度やり直して下さい。」といった、入力生体画像が不適正となった原因を除去することを利用者に促すメッセージとすることができる。また、ガイダンス処理部14は、入力状態情報が、指が過度に立っていることを示す場合、記憶部4からそのポジショニングに対応するガイダンスメッセージを読み込む。そのガイダンスメッセージは、例えば、「指をセンサに対して平行にして、もう一度やり直して下さい。」といったメッセージとすることができる。
 ガイダンス処理部14は、選択したガイダンスメッセージを表示部2に表示させる。
 このように第2の実施形態による生体情報処理装置は、入力生体画像の分類結果が不適切、すなわち、入力生体画像は照合に利用するには不適正である場合に、利用者に対して、その不適切となった原因を解決する方法を知らせることができる。そのため、この生体情報処理装置は、照合に使用するために適正な入力生体画像が生成されるまでに、利用者の生体情報の読み取りを何度も繰り返さなければならなくなることを防止できる。
 次に、第3の実施形態による、生体情報の登録処理を実行する生体情報処理装置について説明する。第3の実施形態による生体情報処理装置は、登録利用者の登録生体情報を表す登録生体画像を生成し、その登録生体画像から、照合処理に利用するための登録生体情報に関するデータを作成する。
 なお、第3の実施形態による生体情報処理装置は、利用者の識別情報を取得するために、図1に示された入力部6を有する。その他の点については、第3の実施形態による生体情報処理装置は、第2の実施形態による情報処理装置と比較して、処理部の機能の一部のみが相違する。そこで、以下では、第3の実施形態による生体情報処理装置の処理部の機能のうち、第2の実施形態による情報処理装置の処理部の機能と相違する点について説明する。
 図11は、第3の実施形態による、生体情報処理装置が有する処理部の機能ブロック図である。図11に示されるように、処理部5は、特徴量抽出部11と、分類部12と、良否判定部13と、ガイダンス処理部14と、入力状態推定部17と、登録部18とを有する。図11において、処理部5の各機能ブロックには、図9に示された処理部5の対応する機能ブロックと同じ参照番号を付した。
 登録部18は、処理部5から、良否判定部13により、分類結果が適切と判定された入力生体画像を受け取る。また登録部18は、処理部5から、分類部12により、その入力生体画像に表された入力生体情報が分類されたクラスのうち、信頼度が最も高いクラスの識別情報を受け取る。そして登録部18は、分類結果が適切と判定された入力生体画像を登録生体画像とし、その登録生体画像に表された生体情報を登録生体情報とする。
 登録部18は、登録生体画像から、照合に利用される、登録生体情報に関するデータを作成する。なお、登録生体情報に関するデータは、例えば、登録生体画像そのものとすることができる。あるいは、登録生体情報に関するデータは、登録生体画像そのものまたはその部分領域から抽出された照合処理用の特徴量であってもよい。なお、登録生体情報に関するデータが照合処理用の特徴量である場合、登録部18は、例えば、第1の実施形態による生体情報処理装置1の照合部15と同様に、登録生体画像そのものまたはその部分領域から照合処理用の特徴量を抽出する。
 また登録部18は、入力部6を介して、登録利用者の識別情報を取得する。そして登録部18は、登録生体情報に関するデータを、その登録利用者の識別情報と関連付けて記憶部4に記憶する。さらに、登録部18は、登録生体情報に関するデータに、登録生体情報が分類されたクラスの識別情報も関連付けて記憶部4に記憶する。
 図12は、処理部5上で実行されるコンピュータプログラムにより制御される、生体情報登録処理の動作フローチャートを示す。
 処理部5は、生体情報取得部3から、登録利用者の生体情報を表す入力生体画像を取得する(ステップS201)。また処理部5は、入力部6から、登録利用者の識別情報を取得する。そして処理部5は、入力生体画像を処理部5の特徴量抽出部11へ渡す。
 特徴量抽出部11は、入力生体情報から、入力生体情報を、同じ特徴を持つ生体情報ごとにカテゴライズされた複数のクラスのうちの何れかに分類するための特徴量を抽出する(ステップS202)。そして特徴量抽出部11は、抽出された特徴量を処理部5の分類部12に渡す。
 分類部12は、特徴量に基づいて入力生体情報を少なくとも一つのクラスに分類する(ステップS203)。また分類部12は、分類されたクラスに対する、入力生体情報の信頼度を算出する(ステップS204)。分類部12は、入力生体情報が分類されたクラスの識別情報と、そのクラスに対する信頼度を良否判定部13へ渡す。
 良否判定部13は、分類部12から受け取った、入力生体情報が分類されたクラスに対する信頼度のうち、その最大値rmaxを決定する(ステップS205)。
 良否判定部13は、その最大値rmaxがそのrmaxに対応するグループに対して設定された良否判定用閾値よりも高いか否か判定する(ステップS206)。
 良否判定部13が、rmaxがそのrmaxに対応するクラスに対して設定された良否判定用閾値以下である場合(ステップS206-No)、良否判定部13は、入力生体情報の分類結果は不適切であると判定する。そして良否判定部13は、良否判定結果を処理部5に返す。処理部5は、入力生体画像及び特徴量抽出部11により抽出された特徴量を入力状態推定部17に渡す。
 入力状態推定部17は、入力生体画像取得時における、生体情報取得部3のセンサ面に対する入力生体情報を含む部位のポジショニングを推定する(ステップS207)。入力状態推定部17は、推定された部位のポジショニングを表す入力状態情報をガイダンス処理部14へ通知する。
 ガイダンス処理部14は、入力状態情報を受け取ると、その入力状態情報に含まれる、推定されたポジショニングに応じたガイドメッセージを記憶部4から読み込む。そしてガイダンス処理部14は、そのガイドメッセージを表示部2に表示させる(ステップS208)。その後、処理部5は、生体情報取得部3から、利用者の部位を再度読み取ることにより再生成された入力生体画像を取得する。そして処理部5は、ステップS201以降の処理を再度実行する。
 一方、rmaxがそのrmaxに対応するクラスに対して設定された良否判定用閾値よりも高い場合(ステップS206-Yes)、良否判定部13は、入力生体画像を、rmaxに対応するクラスに分類したことは適切であると判定する。そして良否判定部13は、良否判定結果及びrmaxに対応するクラスの識別情報を処理部5に返す。
 処理部5は、入力生体情報が表された入力生体画像と、rmaxに対応するクラスの識別情報と、入力部6を介して取得した登録利用者の識別情報を、登録部18に渡す。
 登録部18は、入力生体画像を登録生体画像とする。そして登録部18は、登録生体画像から登録生体情報に関するデータを作成する(ステップS209)。そして登録部18は、登録生体情報に関するデータに、rmaxに対応するクラス、すなわち、登録生体情報が分類されたクラスの識別情報及び登録利用者の識別情報を関連付けて記憶部4に記憶する(ステップS210)。
 ステップS210の後、処理部5は、生体情報登録処理を終了する。
 なお、処理部5は、ステップS203及びS204の処理を同時に実行してもよい。
 以上に説明してきたように、第3の実施形態による、生体情報処理装置は、登録利用者の生体情報を登録する際、照合に適した生体情報を取得できるとともに、生体情報の無用な再取得を防止して、処理時間の増加を防止することができる。
 なお、本発明は、上記の実施形態に限定されるものではない。例えば、他の実施形態では、生体情報処理装置の処理部は、図3または図9に示した機能に加えて、図11に示した登録部の機能を有してもよい。これにより、生体情報処理装置は、照合に利用する生体情報を予め登録しておき、登録した生体情報を用いて生体認証処理を実行することができる。
 また、他の実施形態において、良否判定部は、入力生体情報が分類された各クラスごとにその信頼度を対応する良否判定閾値と比較してもよい。そして、信頼度が良否判定閾値よりも高くなったクラスが複数存在する場合、照合部は、入力生体情報を、信頼度が良否判定閾値よりも高くなった複数のクラスの何れかに属する登録生体情報と照合してもよい。あるいは、信頼度が良否判定閾値よりも高くなったクラスが複数存在する場合、登録部は、登録生体情報が、信頼度が良否判定閾値よりも高くなった複数のクラスの何れにも属するように登録してもよい。すなわち、登録部は、登録生体情報に関するデータを、信頼度が良否判定閾値よりも高くなった各クラスの識別情報と関連付けて記憶部に記憶させてもよい。これにより、生体情報が一つのクラスに分類され難い利用者については、その利用者の生体情報が分類され易い複数のクラスに登録される。そのため、生体情報処理装置は、生体情報が一つのクラスに分類され難い利用者についても、ビンニング・エラーの発生を抑制できる。
 さらに、本明細書に開示された生体情報処理装置及び生体情報処理方法は、利用者が何らかの操作を行うために、利用者の生体情報と、予め登録された生体情報間で生体認証処理を実行する、各種の装置またはシステムに適用可能である。例えば、そのような装置またはシステムには、1台以上の端末とサーバが通信ネットワークを介して接続されたコンピュータシステムが含まれる。この場合、各端末に生体情報取得部が設けられ、その生体情報取得部により取得された生体画像は、サーバへ送信される。そしてサーバは、上記の実施形態の処理部の機能を実行することにより、生体画像の登録処理あるいは生体認証処理を実行する。
 さらに、各端末のプロセッサが、上記の各実施形態の処理部の機能のうち、特徴量抽出部、分類部、良否判定部、ガイダンス処理部及び入力状態推定部の機能を実行し、サーバのプロセッサが、残りの機能を実行してもよい。これにより、サーバのプロセッサに対する処理の負荷が軽減できる。
 また、生体情報取得部と、記憶部と、処理部と、Universal Serial Busなどの規格に準じたデータ伝送用インターフェースとが一体として形成された可搬メモリ装置の処理部が、上記の実施形態におけるコンピュータの処理部の各機能を有していてもよい。
 また、上記の各実施形態による処理部の機能をコンピュータに実現させる命令を有するコンピュータプログラムは、記録媒体に記録された形で提供されてもよい。
 ここに挙げられた全ての例及び特定の用語は、読者が、本発明及び当該技術の促進に対する本発明者により寄与された概念を理解することを助ける、教示的な目的において意図されたものであり、本発明の優位性及び劣等性を示すことに関する、本明細書の如何なる例の構成、そのような特定の挙げられた例及び条件に限定しないように解釈されるべきものである。本発明の実施形態は詳細に説明されているが、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。
 1  生体情報処理装置
 2  表示部
 3  生体情報取得部
 4  記憶部
 5  処理部
 6  入力部
 11  特徴量抽出部
 12  分類部
 13  良否判定部
 14  ガイダンス処理部
 15  照合部
 16  認証判定部
 17  入力状態推定部
 18  登録部

Claims (8)

  1.  利用者の生体情報を取得して、該生体情報を表す入力生体データを生成する生体情報取得部と、
     処理部であって、
      前記入力生体データに表された入力生体情報から、該生体情報の特徴を表す特徴量を抽出する特徴量抽出機能と、
      前記特徴量に基づいて、前記入力生体データに表された入力生体情報を、同じ特徴を持つ生体情報ごとにカテゴライズされた複数のクラスのうちの少なくとも一つに分類し、かつ、該入力生体情報が分類されたクラスに対する信頼度を算出する分類機能と、
      前記信頼度のうちの最大値が、前記複数のクラスのうちの当該最大値に対応するクラスに設定された閾値よりも高いか否か判定する良否判定機能と、
      前記最大値が前記閾値以下である場合、前記生体情報取得部に利用者の生体情報を再取得させることを利用者に促すガイダンス機能と、
    を実現する処理部と、
    を有する生体情報処理装置。
  2.  前記複数のクラスのうちの第1のクラスに属する生体情報に含まれる前記特徴量が、前記複数のクラスのうちの第2のクラスに属する生体情報に含まれず、かつ前記第2のクラスに属する生体情報に含まれる前記特徴量が前記第1のクラスに属する生体情報に含まれる場合、前記第1のクラスに対する前記閾値は、前記第2のクラスに対する前記閾値よりも低く設定される、請求項1に記載の生体情報処理装置。
  3.  前記分類機能は、前記入力生体情報が分類されたクラスの数が多いほど、前記信頼度を低くする、請求項1または2に記載の生体情報処理装置。
  4.  前記入力生体データは、前記入力生体情報が表された画像であり、
     前記処理部は、
      前記最大値が前記閾値以下である場合、前記特徴量として抽出された、入力生体情報中の特異点と、前記入力生体情報が表された前記画像上の領域との位置関係に基づいて、前記入力生体データ取得時における、利用者の生体情報が含まれる部位の前記生体情報取得部に対するポジショニングを推定する入力状態推定機能をさらに実現し、
      前記ガイダンス機能は、前記ポジショニングに応じたメッセージを利用者に通知する、請求項1~3の何れか一項に記載の生体情報処理装置。
  5.  予め登録された少なくとも一人の登録利用者の登録生体情報に関するデータを、前記複数のクラスのうちの当該登録生体情報が属するクラスの識別情報とともに記憶する記憶部をさらに有し、
     前記処理部は、
      前記最大値が前記閾値よりも高い場合、前記登録生体情報に関するデータのうち、前記入力生体データに表された入力生体情報が分類されたクラスに属する登録生体情報に関するデータを前記記憶部から読み込み、読み込んだデータに表された登録生体情報と前記入力生体情報を照合する照合処理機能をさらに実現する、
    請求項1~4の何れか一項に記載の生体情報処理装置。
  6.  記憶部をさらに有し、
     前記処理部は、
      前記最大値が前記閾値よりも高い場合、前記入力生体データから、照合処理に利用されるデータを登録生体情報に関するデータとして作成し、該登録生体情報に関するデータを、前記入力生体データに表された入力生体情報が分類されたクラスの識別情報とともに前記記憶部に書き込む登録機能をさらに実現する、請求項1~4の何れか一項に記載の生体情報処理装置。
  7.  利用者の生体情報を取得して、該生体情報を表す入力生体データを生成し、
     前記入力生体データに表された入力生体情報から、該生体情報の特徴を表す特徴量を抽出し、
     前記特徴量に基づいて、前記入力生体データに表された入力生体情報を、同じ特徴を持つ生体情報ごとにカテゴライズされた複数のクラスのうちの少なくとも一つに分類し、かつ、該入力生体情報が分類されたクラスに対する信頼度を算出し、
     前記信頼度のうちの最大値が、前記複数のクラスのうちの当該最大値に対応するクラスに設定された閾値よりも高いか否か判定し、
     前記最大値が前記閾値以下である場合、前記生体情報取得部に利用者の生体情報を再取得させることを利用者に促す、
    ことを含む生体情報処理方法。
  8.  生体情報取得部により生成された入力生体データに表された利用者の生体情報から、該生体情報の特徴を表す特徴量を抽出し、
     前記特徴量に基づいて、前記入力生体データに表された入力生体情報を、同じ特徴を持つ生体情報ごとにカテゴライズされた複数のクラスのうちの少なくとも一つに分類し、かつ、該入力生体情報が分類されたクラスに対する信頼度を算出し、
     前記信頼度のうちの最大値を、前記複数のクラスのうちの当該最大値に対応するクラスに設定された閾値よりも高いか否か判定し、
     前記最大値が前記閾値以下である場合、前記生体情報取得部に利用者の生体情報を再取得させることを利用者に促す、
    ことをコンピュータに実行させる生体情報処理用コンピュータプログラム。
PCT/JP2009/067361 2009-10-05 2009-10-05 生体情報処理装置、生体情報処理方法及び生体情報処理用コンピュータプログラム WO2011042950A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN200980161875.7A CN102549617B (zh) 2009-10-05 2009-10-05 生物体信息处理装置、生物体信息处理方法以及生物体信息处理用计算机程序
PCT/JP2009/067361 WO2011042950A1 (ja) 2009-10-05 2009-10-05 生体情報処理装置、生体情報処理方法及び生体情報処理用コンピュータプログラム
KR1020127005705A KR101379140B1 (ko) 2009-10-05 2009-10-05 생체 정보 처리 장치, 생체 정보 처리 방법 및 생체 정보 처리용 컴퓨터 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체
EP09850223.0A EP2487646A4 (en) 2009-10-05 2009-10-05 DEVICE FOR PROCESSING BIOINFORMATION, METHOD FOR PROCESSING BIOINFORMATION PROCESSING METHOD AND COMPUTER PROGRAM FOR PROCESSING BIOINFORMATION
JP2011535226A JP5477385B2 (ja) 2009-10-05 2009-10-05 生体情報処理装置、生体情報処理方法及び生体情報処理用コンピュータプログラム
US13/439,541 US8649570B2 (en) 2009-10-05 2012-04-04 Biometric information processing apparatus, biometric information processing method, and biometric information processing computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/067361 WO2011042950A1 (ja) 2009-10-05 2009-10-05 生体情報処理装置、生体情報処理方法及び生体情報処理用コンピュータプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/439,541 Continuation US8649570B2 (en) 2009-10-05 2012-04-04 Biometric information processing apparatus, biometric information processing method, and biometric information processing computer program

Publications (1)

Publication Number Publication Date
WO2011042950A1 true WO2011042950A1 (ja) 2011-04-14

Family

ID=43856449

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/067361 WO2011042950A1 (ja) 2009-10-05 2009-10-05 生体情報処理装置、生体情報処理方法及び生体情報処理用コンピュータプログラム

Country Status (6)

Country Link
US (1) US8649570B2 (ja)
EP (1) EP2487646A4 (ja)
JP (1) JP5477385B2 (ja)
KR (1) KR101379140B1 (ja)
CN (1) CN102549617B (ja)
WO (1) WO2011042950A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012226609A (ja) * 2011-04-20 2012-11-15 Canon Inc 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2016115272A (ja) * 2014-12-17 2016-06-23 京セラドキュメントソリューションズ株式会社 タッチパネル装置、および画像処理装置

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012014308A1 (ja) * 2010-07-29 2012-02-02 富士通株式会社 生体認証装置、生体認証方法及び生体認証用コンピュータプログラムならびに生体情報登録装置
US9984157B2 (en) * 2010-12-01 2018-05-29 Aware Inc. Relationship detection within biometric match results candidates
US9436864B2 (en) * 2012-08-23 2016-09-06 Apple Inc. Electronic device performing finger biometric pre-matching and related methods
US9594968B1 (en) * 2012-09-27 2017-03-14 EMC IP Holding Company LLC Biometric profile creation
US10229258B2 (en) * 2013-03-27 2019-03-12 Samsung Electronics Co., Ltd. Method and device for providing security content
JP6167733B2 (ja) * 2013-07-30 2017-07-26 富士通株式会社 生体特徴ベクトル抽出装置、生体特徴ベクトル抽出方法、および生体特徴ベクトル抽出プログラム
JP6361387B2 (ja) * 2014-09-05 2018-07-25 オムロン株式会社 識別装置および識別装置の制御方法
CN104282265B (zh) * 2014-09-26 2017-02-01 京东方科技集团股份有限公司 像素电路及其驱动方法、有机发光显示面板及显示装置
US9349034B2 (en) * 2014-10-28 2016-05-24 Rovi Guides, Inc. Methods and systems for invoking functions based on whether a partial print or an entire print is detected
EP3412514B1 (en) * 2014-11-12 2019-12-04 Panasonic Intellectual Property Corporation of America Update management method, update management device, and control program
US9590986B2 (en) 2015-02-04 2017-03-07 Aerendir Mobile Inc. Local user authentication with neuro and neuro-mechanical fingerprints
US9577992B2 (en) 2015-02-04 2017-02-21 Aerendir Mobile Inc. Data encryption/decryption using neuro and neuro-mechanical fingerprints
US9836896B2 (en) 2015-02-04 2017-12-05 Proprius Technologies S.A.R.L Keyless access control with neuro and neuro-mechanical fingerprints
US10357210B2 (en) 2015-02-04 2019-07-23 Proprius Technologies S.A.R.L. Determining health change of a user with neuro and neuro-mechanical fingerprints
WO2016159052A1 (ja) * 2015-03-31 2016-10-06 日本電気株式会社 生体パターン情報処理装置、生体パターン情報処理方法、およびプログラム
CN104778923B (zh) * 2015-04-28 2016-06-01 京东方科技集团股份有限公司 一种像素电路及其驱动方法、显示装置
CN105224930B (zh) * 2015-10-19 2018-03-06 广东欧珀移动通信有限公司 一种指纹识别的方法和装置
CA3004880C (en) * 2015-11-13 2023-10-31 Charles H. Herder, Iii Public/private key biometric authentication system
US10268923B2 (en) * 2015-12-29 2019-04-23 Bar-Ilan University Method and system for dynamic updating of classifier parameters based on dynamic buffers
CN107025419B (zh) * 2016-01-29 2020-11-10 北京小米移动软件有限公司 指纹模板录入方法及装置
JP2017138858A (ja) * 2016-02-04 2017-08-10 富士通株式会社 生体認証装置、生体認証方法および生体認証プログラム
FR3053499B1 (fr) * 2016-06-29 2018-06-29 Safran Identity & Security Procede et dispositif de detection de fraude par examen a deux focales distinctes lors d'une reconnaissance automatique d'un visage
CN106375497B (zh) * 2016-08-14 2019-08-30 张博威 一种模块化智能通讯系统
US10599910B2 (en) * 2016-11-24 2020-03-24 Electronics And Telecommunications Research Institute Method and apparatus for fingerprint recognition
JP6838150B2 (ja) * 2017-06-07 2021-03-03 三菱電機ビルテクノサービス株式会社 データ名称分類支援装置及びデータ名称分類支援プログラム
JP6911785B2 (ja) * 2018-02-02 2021-07-28 日本電信電話株式会社 判定装置、判定方法及び判定プログラム
US11170084B2 (en) 2018-06-28 2021-11-09 Private Identity Llc Biometric authentication
US11392802B2 (en) * 2018-03-07 2022-07-19 Private Identity Llc Systems and methods for privacy-enabled biometric processing
US10938852B1 (en) 2020-08-14 2021-03-02 Private Identity Llc Systems and methods for private authentication with helper networks
US11489866B2 (en) 2018-03-07 2022-11-01 Private Identity Llc Systems and methods for private authentication with helper networks
US11265168B2 (en) 2018-03-07 2022-03-01 Private Identity Llc Systems and methods for privacy-enabled biometric processing
US11394552B2 (en) 2018-03-07 2022-07-19 Private Identity Llc Systems and methods for privacy-enabled biometric processing
US11789699B2 (en) 2018-03-07 2023-10-17 Private Identity Llc Systems and methods for private authentication with helper networks
US11210375B2 (en) 2018-03-07 2021-12-28 Private Identity Llc Systems and methods for biometric processing with liveness
US10721070B2 (en) 2018-03-07 2020-07-21 Private Identity Llc Systems and methods for privacy-enabled biometric processing
US11138333B2 (en) 2018-03-07 2021-10-05 Private Identity Llc Systems and methods for privacy-enabled biometric processing
US11502841B2 (en) 2018-03-07 2022-11-15 Private Identity Llc Systems and methods for privacy-enabled biometric processing
US11120247B2 (en) 2018-03-16 2021-09-14 Synaptics Incorporated Defensive measures for residue re-imaging
US11010589B1 (en) * 2018-03-16 2021-05-18 Synaptics Incorporated Defensive measures for residue re-imaging
WO2019222709A1 (en) 2018-05-17 2019-11-21 Badge Inc. System and method for securing personal information via biometric public key
US11115203B2 (en) 2018-05-17 2021-09-07 Badge Inc. System and method for securing personal information via biometric public key
JP2020038491A (ja) * 2018-09-04 2020-03-12 株式会社東海理化電機製作所 生体情報認証装置
CA3128348C (en) 2019-01-30 2024-02-20 Badge Inc. Biometric public key system providing revocable credentials
WO2020170719A1 (ja) * 2019-02-19 2020-08-27 ソニー株式会社 認証装置、認証方法及びプログラム
JP7414124B2 (ja) * 2020-03-30 2024-01-16 日本電気株式会社 指紋照合装置、指紋照合方法、及び、プログラム
JP6795243B1 (ja) * 2020-09-15 2020-12-02 株式会社華和結ホールディングス 鼻紋照合装置および方法並びにプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0944666A (ja) * 1995-08-02 1997-02-14 Nec Corp 皮膚紋様並びに指紋紋様の分類装置
JP2001167268A (ja) 1999-12-07 2001-06-22 Nec Corp 指紋入力装置
JP2002133416A (ja) 2000-10-20 2002-05-10 Fujitsu Ltd 指紋情報を用いた個人認証システム及び同システム用登録・認証方法並びに同システム用判定方法
JP2003030629A (ja) * 2001-07-12 2003-01-31 Dds:Kk 指紋入力装置、指紋入力方法及び指紋入力プログラム
JP2003256815A (ja) 2002-02-27 2003-09-12 Nec Soft Ltd 指紋画像のキャプチャー方法及び指紋画像入力装置並びにプログラム
JP2006039777A (ja) 2004-07-23 2006-02-09 Sanyo Electric Co Ltd 登録方法および装置ならびに認証方法および装置
JP2007219731A (ja) * 2006-02-15 2007-08-30 Toshiba Tec Corp 個人認証方法及び個人認証装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5828773A (en) * 1996-01-26 1998-10-27 Harris Corporation Fingerprint sensing method with finger position indication
CA2338675A1 (en) * 1998-07-27 2000-02-10 Cedars-Sinai Medical Center Spectral topography of mammalian matter
GB0115714D0 (en) * 2001-06-27 2001-08-22 Imperial College Structure determination of macromolecules
WO2003003286A1 (en) * 2001-06-29 2003-01-09 Precise Biometrics Ab Method and apparatus for checking a person's identity, where a system of coordinates, constant to the fingerprint, is the reference
JP4055886B2 (ja) * 2001-11-12 2008-03-05 独立行政法人情報通信研究機構 識別処理装置およびそのコンピュータプログラム
KR100944443B1 (ko) * 2002-07-29 2010-02-25 이데시아 엘티디. 전자 생체 신원 인식을 위한 방법 및 장치
US7804982B2 (en) * 2002-11-26 2010-09-28 L-1 Secure Credentialing, Inc. Systems and methods for managing and detecting fraud in image databases used with identification documents
JP2007524441A (ja) * 2003-04-04 2007-08-30 ルミディム インコーポレイテッド マルチスペクトルバイオメトリックセンサ
US7616787B2 (en) * 2003-10-01 2009-11-10 Authentec, Inc. Methods for finger biometric processing and associated finger biometric sensors
US20060018523A1 (en) 2004-07-23 2006-01-26 Sanyo Electric Co., Ltd. Enrollment apparatus and enrollment method, and authentication apparatus and authentication method
CN101966071B (zh) * 2005-04-13 2012-10-17 奥林巴斯医疗株式会社 图像处理装置以及图像处理方法
CN101216881B (zh) * 2007-12-28 2011-07-06 北京中星微电子有限公司 一种图像自动获取方法和装置
US8160877B1 (en) * 2009-08-06 2012-04-17 Narus, Inc. Hierarchical real-time speaker recognition for biometric VoIP verification and targeting
US8391590B2 (en) * 2010-03-04 2013-03-05 Flashscan3D, Llc System and method for three-dimensional biometric data feature detection and recognition

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0944666A (ja) * 1995-08-02 1997-02-14 Nec Corp 皮膚紋様並びに指紋紋様の分類装置
JP2001167268A (ja) 1999-12-07 2001-06-22 Nec Corp 指紋入力装置
JP2002133416A (ja) 2000-10-20 2002-05-10 Fujitsu Ltd 指紋情報を用いた個人認証システム及び同システム用登録・認証方法並びに同システム用判定方法
JP2003030629A (ja) * 2001-07-12 2003-01-31 Dds:Kk 指紋入力装置、指紋入力方法及び指紋入力プログラム
JP2003256815A (ja) 2002-02-27 2003-09-12 Nec Soft Ltd 指紋画像のキャプチャー方法及び指紋画像入力装置並びにプログラム
JP2006039777A (ja) 2004-07-23 2006-02-09 Sanyo Electric Co Ltd 登録方法および装置ならびに認証方法および装置
JP2007219731A (ja) * 2006-02-15 2007-08-30 Toshiba Tec Corp 個人認証方法及び個人認証装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2487646A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012226609A (ja) * 2011-04-20 2012-11-15 Canon Inc 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2016115272A (ja) * 2014-12-17 2016-06-23 京セラドキュメントソリューションズ株式会社 タッチパネル装置、および画像処理装置

Also Published As

Publication number Publication date
US8649570B2 (en) 2014-02-11
KR101379140B1 (ko) 2014-03-28
CN102549617B (zh) 2014-10-08
EP2487646A1 (en) 2012-08-15
JPWO2011042950A1 (ja) 2013-02-28
CN102549617A (zh) 2012-07-04
KR20120048668A (ko) 2012-05-15
EP2487646A4 (en) 2015-04-01
US20120195475A1 (en) 2012-08-02
JP5477385B2 (ja) 2014-04-23

Similar Documents

Publication Publication Date Title
JP5477385B2 (ja) 生体情報処理装置、生体情報処理方法及び生体情報処理用コンピュータプログラム
KR101328358B1 (ko) 생체 인증 장치, 생체 인증 방법 및 생체 인증용 컴퓨터 프로그램이 기록된 컴퓨터 판독가능한 기록매체
JP5799586B2 (ja) 生体認証装置、生体認証方法及び生体認証用コンピュータプログラム
JP5304901B2 (ja) 生体情報処理装置、生体情報処理方法及び生体情報処理用コンピュータプログラム
JP5228872B2 (ja) 生体認証装置、生体認証方法及び生体認証用コンピュータプログラムならびにコンピュータシステム
JP5505504B2 (ja) 生体認証装置、生体認証方法及び生体認証用コンピュータプログラムならびに生体情報登録装置
JP5196010B2 (ja) 生体情報登録装置、生体情報登録方法及び生体情報登録用コンピュータプログラムならびに生体認証装置、生体認証方法及び生体認証用コンピュータプログラム
JP5747642B2 (ja) 生体認証装置、生体認証システム、生体認証サーバ、生体認証クライアント及び生体認証装置制御方法
US9129145B2 (en) Identification apparatus, identification method, and program
JP6089610B2 (ja) 生体認証装置、生体認証方法及び生体認証用コンピュータプログラム
JP5699845B2 (ja) 生体情報処理装置、生体情報処理方法及び生体情報処理用コンピュータプログラム
JP5930023B2 (ja) 生体認証装置、生体認証方法及び生体認証用コンピュータプログラム
JP2013030099A (ja) 生体認証装置及び生体認証装置における利用者の手の位置の調整方法
WO2013088555A1 (ja) 生体情報処理装置、生体情報処理方法及び生体情報処理用コンピュータプログラム
JP5915336B2 (ja) 生体認証装置、生体認証方法及び生体認証用コンピュータプログラム
JP2016081116A (ja) 生体情報補正装置、生体情報補正方法及び生体情報補正用コンピュータプログラム
JP6056398B2 (ja) 生体認証装置、生体認証方法及び生体認証用コンピュータプログラム
JP4912011B2 (ja) 生体情報照合装置
JP6056577B2 (ja) 生体認証装置、生体認証方法及び生体認証用コンピュータプログラム
JP2006072429A (ja) 生体情報登録装置および個人認証装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980161875.7

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09850223

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011535226

Country of ref document: JP

ENP Entry into the national phase

Ref document number: 20127005705

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2009850223

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE