WO2018074110A1 - 指紋処理装置、指紋処理方法、プログラム、指紋処理回路 - Google Patents

指紋処理装置、指紋処理方法、プログラム、指紋処理回路 Download PDF

Info

Publication number
WO2018074110A1
WO2018074110A1 PCT/JP2017/033041 JP2017033041W WO2018074110A1 WO 2018074110 A1 WO2018074110 A1 WO 2018074110A1 JP 2017033041 W JP2017033041 W JP 2017033041W WO 2018074110 A1 WO2018074110 A1 WO 2018074110A1
Authority
WO
WIPO (PCT)
Prior art keywords
fingerprint
representative
feature point
feature points
feature
Prior art date
Application number
PCT/JP2017/033041
Other languages
English (en)
French (fr)
Inventor
聡 廣川
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US16/342,705 priority Critical patent/US10936849B2/en
Priority to EP17862903.6A priority patent/EP3531372A4/en
Publication of WO2018074110A1 publication Critical patent/WO2018074110A1/ja
Priority to US17/162,116 priority patent/US11631274B2/en
Priority to US18/121,880 priority patent/US12020503B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • G06V40/1376Matching features related to ridge properties or fingerprint texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • A61B5/1172Identification of persons based on the shapes or appearances of their bodies or parts thereof using fingerprinting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • G06V40/1359Extracting features related to ridge properties; Determining the fingerprint type, e.g. whorl or loop

Definitions

  • the present invention relates to a fingerprint processing apparatus, a fingerprint processing method, a program, and a fingerprint processing circuit.
  • Patent Documents 1 to 3 disclose techniques related to fingerprint collation.
  • an object of the present invention is to provide a fingerprint processing apparatus, a fingerprint processing method, a program, and a fingerprint processing circuit that solve the above-described problems.
  • the fingerprint processing apparatus performs the first time indicating the first distance between the feature points of the fingerprint specified in the fingerprint image of the collation source and the other feature points.
  • a matching processing unit that determines a plurality of feature points having a large first-time value as representative feature points used for the fingerprint matching processing.
  • the first distance between the feature points of the fingerprint specified in the fingerprint image of the collation source and the other feature points is indicated at a first time. Based on this, a plurality of feature points having a large first-time value are determined as representative feature points used in the fingerprint matching process.
  • the program causes the computer to execute the first registration indicating the first distance between the feature points of the fingerprint specified in the fingerprint image to be collated and the other feature points. Based on the above, a process of determining a plurality of feature points having a large first-time value as representative feature points used for the fingerprint matching process is executed.
  • the fingerprint processing circuit performs the first time indicating the first distance between the feature points of the fingerprint specified in the fingerprint image of the collation source and the other feature points.
  • a matching processing circuit that determines a plurality of feature points having a large first-time value as representative feature points used for the fingerprint matching processing.
  • the present invention it is possible to provide a fingerprint processing device, a fingerprint processing method, and a program that can be collated quickly without specifying the center of the fingerprint.
  • FIG. 1 shows the 1st feature point which a feature point detection part detects.
  • FIG. 2nd feature point shows the clear area
  • FIG. 1 shows the 1st feature point which a feature point detection part detects.
  • FIG. 2 shows the 2nd feature point which a feature point detection part detects.
  • FIG. 1 is a diagram showing a fingerprint collation system including a fingerprint processing apparatus according to the embodiment.
  • the fingerprint collation system includes a fingerprint processing apparatus 1, a fingerprint reader 2, and a database 3.
  • the fingerprint processing apparatus 1 is connected to the fingerprint reader 2 via a communication cable.
  • the fingerprint processing apparatus 1 is connected to the database 3 via a communication cable.
  • the fingerprint processing apparatus 1 performs fingerprint collation processing by comparing the fingerprint information obtained from the fingerprint image acquired from the fingerprint reader 2 with the fingerprint information stored in the database 3.
  • fingerprint information obtained in advance from fingerprint images of many people is recorded.
  • FIG. 2 is a hardware configuration diagram of the fingerprint processing apparatus.
  • the fingerprint processing apparatus 1 includes a CPU (Central Processing Unit) 11, a RAM (Random Access Memory) 12, a ROM (Read Only Memory) 13, an SSD (Solid State Drive) 14, a communication module 15, a display screen 16, and an IF (Interface). 17 may be provided.
  • the fingerprint processing apparatus 1 is a computer having such functions.
  • FIG. 3 is a functional block diagram of the fingerprint processing apparatus.
  • the fingerprint processing apparatus 1 executes a fingerprint processing program in the CPU 11.
  • the fingerprint processing apparatus 1 includes functions of an image acquisition unit 21, a sharpness determination unit 22, a ridge quality determination unit 23, a feature point detection unit 24, and a matching processing unit 25.
  • the image acquisition unit 21 acquires a fingerprint image from the fingerprint reader 2.
  • the sharpness determination unit 22 determines and classifies the fingerprint sharpness of each pixel in the fingerprint image.
  • the ridge quality determination unit 23 determines the quality of the ridge of the fingerprint that appears in each pixel in the fingerprint image.
  • the feature point detector 24 detects the feature points of the fingerprint shown in the fingerprint image.
  • the collation processing unit 25 performs collation processing by comparing the fingerprint information obtained from the fingerprint image acquired by the image acquisition unit 21 with the fingerprint information of a plurality of persons recorded in the database 3.
  • the matching processing unit 25 performs the first time based on the first time indicating that the distance between the feature points of the fingerprint specified in the fingerprint image that is the matching source and the other feature points is long.
  • a plurality of feature points having a large match value are determined as representative feature points used for fingerprint matching. That is, the collation processing unit 25 acquires, for each of a plurality of feature points of a fingerprint in the collation source fingerprint image, a first match indicating a first distance between the feature point and another feature point. Then, the matching processing unit 25 determines, as representative feature points, a plurality of feature points having a large first combination value among the plurality of feature points.
  • the collation processing unit 25 is based on the second degree indicating that the distance to the pixel region where the sharpness of the image identified in the fingerprint image is unclear is long among the feature points of the fingerprint identified in the fingerprint image that is the collation source.
  • a plurality of feature points having a large second degree value are determined as representative feature points. That is, the collation processing unit 25 acquires a second degree indicating a second distance to a pixel region where the image sharpness is lower than a predetermined value for each of a plurality of feature points of the fingerprint in the collation source fingerprint image.
  • the matching processing unit 25 determines a plurality of feature points having a large second degree value as a representative feature point among the plurality of feature points.
  • the predetermined value is, for example, an arbitrary value.
  • the collation processing unit 25 has a long distance to the pixel region where the sharpness of the image specified in the fingerprint image is unknown (unclear) indicating that the distance between the feature points is long.
  • a plurality of representative feature points are determined using the second degree indicating the above. For example, the first degree may be multiplied by the second degree, the representative degree may be calculated based on this value, and a plurality of representative feature points may be determined based on the representative degree. That is, the matching processing unit 25 calculates a representative degree based on a value obtained by multiplying the first degree by the second degree, and determines a plurality of feature points as representative feature points based on the representative degree.
  • the collation processing unit 25 may further calculate the representative degree by further using the degree of stability of the ridge in the pixel corresponding to the feature point of the fingerprint specified in the fingerprint image, and determine the representative feature point based on the representative degree.
  • the matching processing unit 25 identifies a plurality of representative feature points indicating features with a high degree of representativeness, and includes the plurality of representative feature points in the fingerprint image of the matching source and the fingerprint image of the matching destination recorded in the database 3. Collation processing is performed using a plurality of representative feature points.
  • FIG. 4 is a diagram showing a processing flow of the fingerprint processing apparatus. Next, details of the processing of the fingerprint processing apparatus 1 will be described in order.
  • the image acquisition unit 21 acquires a fingerprint image from the fingerprint reader 2 (step S101).
  • the image acquisition unit 21 temporarily records the fingerprint image in the RAM 12 or the like.
  • the sharpness determination unit 22 reads the fingerprint image from the RAM 12, and determines the sharpness of each of the plurality of rectangular areas set over the entire fingerprint image (step S102).
  • Each rectangular area may be an area corresponding to a pixel, or may be a rectangular area set separately from the pixel.
  • the sharpness determination unit 22 determines the sharpness of each rectangular area, it records in the RAM 12 an ID (identification) that identifies the rectangular area in the fingerprint image and the sharpness of the rectangular area.
  • the sharpness may be a binary value indicating, for example, clear or unclear. Any method may be used for determining the sharpness.
  • the sharpness determination unit 22 may calculate the sharpness by a process similar to the process performed by the quality index extraction unit described in JP-A-10-177650.
  • the ridge quality determining unit 23 reads the fingerprint image from the RAM 12, identifies a pixel in which the ridge appears in the rectangular area in the fingerprint image, and determines the stability of the ridge at the pixel (step S103).
  • the stability of the ridge means the stability of the width of the ridge.
  • the stability of the ridges by the ridge quality determination unit 23 is indicated by the variance values of both a black image showing fingerprint ridges and a white image showing between fingerprint ridges in a rectangular area set as an example.
  • the ridge quality determination unit 23 determines that a rectangular area in which the dispersion value of both the black image indicating the fingerprint ridge and the white image indicating the interval between the fingerprint ridges is higher than the threshold is a rectangular area having high ridge stability.
  • the ridge quality determination unit 23 determines that a rectangular region having a variance value of either a black image indicating a fingerprint ridge or a white image indicating a space between fingerprint ridges is equal to or less than a threshold is a rectangular region having a low ridge stability. To do.
  • the ridge quality determination unit 23 records information in which the ID of the rectangular area is associated with a flag indicating whether the stability of the ridge is high or low in the RAM 12 or the like. For more detailed calculation of the ridge stability, for example, the technique described in steps S301 to S305 of Japanese Patent No. 5822303 may be used.
  • the feature point detection unit 24 reads the fingerprint image from the RAM 12, and detects the feature point of the fingerprint shown in the fingerprint image (step S104).
  • a conventional detection method may be used to detect the feature points. More specifically, the feature point detection unit 24 extracts two types of feature points from the fingerprint image.
  • FIG. 5A and 5B are diagrams for explaining the feature points detected by the feature point detection unit.
  • the first feature point targeted by the feature point detection unit 24 is the end point (end point) of the ridge.
  • FIG. 5A shows a first feature point P1 sandwiched between two ridges 501 and 502.
  • FIG. 5A shows a first feature point P1 sandwiched between two ridges 501 and 502.
  • FIG. 5A shows a first feature point P1 sandwiched between two ridges 501 and 502.
  • the feature point detection unit 24 detects an end point of a ridge such as the first feature point P1 shown in FIG. 5A as the first feature point P1 of the input fingerprint image.
  • the feature point detection unit 24 detects the first feature point P1 while scanning the entire fingerprint image.
  • the second feature point targeted by the feature point detection unit 24 is a ridge branch point.
  • FIG. 5B shows a second feature point P2 where the ridge 511 branches into two ridges 512, 513.
  • the feature point detection unit 24 detects a ridge branch point such as the second feature point P2 shown in FIG. 5B as the second feature point P2 of the input fingerprint image.
  • the feature point detection unit 24 calculates the extending direction of the fingerprint ridge extending from each detected feature point.
  • the direction in which the ridge 500 is generated from the first feature point P1 is defined as the extending direction of the ridge from the first feature point P1. Is done.
  • the second feature point P2 is shown in FIG. 5B.
  • the direction (arrow) advances from the second feature point P2 between the two ridges (in the middle of the vector).
  • 514 direction is defined as the extending direction of the ridge from the second feature point P2.
  • the feature point detection unit 24 records in the RAM 12 the position information of the feature points detected in the fingerprint image and the information on the extension direction of the ridges extending from the feature points (extension direction information).
  • the detected position information (coordinates) related to the first feature point P1 and the second feature point P2 may be recorded in the form of the pixel position in the fingerprint image or the ID of the rectangular area.
  • the angle between the X axis in the XY coordinate system in which each feature point is set as the origin and the extending direction of the ridge from the feature point may be recorded as the extending direction of the ridge from each feature point.
  • FIG. 6 is a diagram showing clear and unclear areas and feature points determined in a fingerprint image.
  • the area indicated by shading in the fingerprint image shown in this figure shows an unclear area E1 having a sharpness less than a threshold value.
  • a region not shaded indicates a sharp region E2 having a sharpness level equal to or greater than a threshold value.
  • local points surrounded by circles or squares in the image indicate feature points.
  • a feature point indicated by a circle among the feature points indicates a first feature point P1.
  • the feature point indicated by a square mark indicates the second feature point P2.
  • a straight line extending from a circle mark or a square mark indicates the extending direction of the ridge extending from each feature point.
  • FIG. 7 is a diagram showing the ridge stability determined in the fingerprint image.
  • the fingerprint image shown in FIG. 7 shows a white portion region where the ridge stability (quality) is high in the clear region E2, and a black portion region where the ridge stability is lower than the threshold value.
  • the fingerprint processing apparatus 1 may output an image indicating the distribution of ridge stability shown in FIG.
  • the matching processing unit 25 calculates the representative degree eval_p of each feature point using the position information and the extending direction information about each feature point detected by the feature point detection unit 24 (step S105).
  • This representativeness is a frequency having a larger value as it is farther from other feature points among the feature points specified in the fingerprint image.
  • the representative degree eval_p may be a frequency indicating that the distance from other feature points is long and the sharpness is high among the feature points specified in the fingerprint image.
  • FIG. 8 is a diagram showing a processing flow of the representative degree calculation process (step S105 in FIG. 4).
  • the matching processing unit 25 first obtains position information and stretching direction information about each feature point detected by the feature point detection unit 24 from the RAM 12.
  • the matching processing unit 25 selects one selected feature point from each feature point, and calculates distances between the selected feature point and all other feature points, respectively (step S1051).
  • the collation processing unit 25 determines the distance information having the smallest value among the calculated distances as the distance Lmp (first match) to the nearest feature point of the selected feature point (step S1052).
  • the collation processing unit 25 calculates the distance between the selected feature point and each rectangular area by using the position information of the selected feature point and the position information of all the rectangular areas indicating the unclear area E1 (step). S1053).
  • the collation processing unit 25 uses the distance information having the smallest value among the calculated distances as the distance ucz (min_ucz in the expression (1)) to the rectangular area indicating the nearest blurred area E1 of the selected feature point (second Degree) (step S1054).
  • the matching processing unit 25 acquires information on the ridge stability mRql of the pixel corresponding to the selected feature point from the RAM 12. Then, the matching processing unit 25 calculates the representative degree eval_p of the selected feature point using the equation (1) (step S1055).
  • a and B are constants. Further, “/” in the formula (1) means division ( ⁇ ).
  • the constant A is adjusted so that the value obtained by multiplying the distance Lmp to the nearest feature point of the selected feature point by the distance ucz to the rectangular region indicating the unclear area E1 nearest to the selected feature point does not become too large. Is a constant.
  • the constant B is a constant for adjusting the value of the ridge stability mRql of the pixel corresponding to the selected feature point.
  • the collation processing unit 25 determines whether or not the representative level eval_p has been calculated as the selected feature points for all feature points appearing in the fingerprint image (step S106).
  • the matching processing unit 25 repeats the calculation of the representative degree eval_p until the calculation process of the representative degree eval_p is completed as the selected feature point for all feature points appearing in the fingerprint image.
  • the matching processing unit 25 searches the representative degree eval_p calculated for all the feature points in descending order, and specifies a plurality of predetermined number of feature points having a large representative degree eval_p as representative feature points (step S107).
  • the predetermined number may be a number such as 20 or 30, for example.
  • FIG. 9 is a diagram visually showing feature points and representative feature points. As shown in FIG. 9, many feature points are detected in the fingerprint image.
  • the matching processing unit 25 calculates the representative degree eval_p of each feature point, and determines a predetermined number of feature points selected in descending order as representative feature points.
  • a feature point indicating a feature point in black (darker) is displayed with a high (large) representativeness eval_p, and a feature point with a lightly colored mark represents a low (small) representativeness eval_p. Yes.
  • FIG. 10 is a first diagram illustrating an outline of the feature amount specifying process of the representative feature points.
  • FIG. 11 is a first diagram illustrating a processing flow of processing for assigning feature amounts of representative feature points.
  • the matching processing unit 25 assigns a feature amount to each of the specified representative feature points (step S108 in FIG. 4).
  • the process of assigning the feature amount in step S108 will be described according to the process flow of FIG.
  • the matching processing unit 25 selects one representative feature point from the plurality of representative feature points (step S108-1). This selected representative feature point is called a selected representative feature point.
  • the matching processing unit 25 reads position information and stretching direction information (representative stretching direction) about the selected representative feature point from the RAM 12.
  • the matching processing unit 25 reads position information and stretching direction information of other feature points in the fingerprint image from the RAM 12.
  • the matching processing unit 25 assumes that the extending direction indicated by the extending direction information (representative extending direction) for the selected representative feature point is the positive direction of the vertical axis.
  • the matching processing unit 25 centers the selected representative feature point on the first quadrant to the eighth quadrant obtained by dividing the 360 degree direction on the fingerprint image plane into 45 degree angles with reference to the vertical axis based on the stretch direction information. Are specified (step S108-2).
  • the collation processing unit 25 sets the representative feature point assigned the number 1 in FIG. 10 as the selected representative feature point.
  • the axis rotated 45 degrees to the left from the axis a around the first selected representative feature point is called the axis b.
  • the axis rotated 45 degrees to the left from the axis b around the first selected representative feature point is called the axis c.
  • the axis rotated 45 degrees to the left from the axis c around the first selected representative feature point is called the axis d.
  • the axis rotated 45 degrees to the left from the axis d around the first selected representative feature point is called the axis e.
  • the axis rotated 45 degrees to the left from the axis e around the first selected representative feature point is called the axis f.
  • the axis rotated 45 degrees to the left from the axis f around the first selected representative feature point is called the axis g.
  • An axis rotated 45 degrees to the left from the axis g around the first selected representative feature point is called an axis h.
  • the collation processing unit 25 identifies the ninth feature point closest to the first selected representative feature point in the first quadrant between the axes a and b (step S108-3). In addition, the matching processing unit 25 specifies the 17th feature point closest to the selected representative feature point in the second quadrant between the axes b and c. Similarly, the matching processing unit 25 specifies a feature point that is closest to the first selected representative feature point in the third to eighth quadrants divided by each axis. The matching processing unit 25 determines the distance from the first selected representative feature point to each feature point specified in the first quadrant to the eighth quadrant, and the extension direction for each feature point specified in the first quadrant to the eighth quadrant.
  • All of the information and the representative degree calculated for the first selected representative feature point are determined as the feature amounts of the first selected representative feature point (step S108-4).
  • the collation processing unit 25 determines whether or not feature amounts have been specified for all representative feature points (step S108-5). If the collation processing unit 25 has not specified the feature amount for all the representative feature points (NO in step S108-5), it repeats the feature amount specifying process.
  • the collation processing unit 25 specifies the feature amounts for all the representative feature points (YES in step S108-5), the collation processing unit 25 returns to FIG. 4 to obtain information including the feature amounts for all the representative feature points as the fingerprint reader. 2 is determined as the fingerprint feature amount for the fingerprint image acquired from step 2 (step S109).
  • the fingerprint image acquired from the fingerprint reader 2 is referred to as an authentication fingerprint image.
  • the verification processing unit 25 reads the fingerprint feature amount of the first fingerprint image recorded in the database 3.
  • the fingerprint image recorded in the database 3 is hereinafter referred to as a search destination fingerprint image.
  • the fingerprint feature amount of the search destination fingerprint image is a feature amount calculated in the same manner as the calculation of the fingerprint feature amount of the authentication fingerprint image.
  • the matching processing unit 25 calculates the similarity using the fingerprint feature quantity of the authentication fingerprint image and the fingerprint feature quantity of the search destination fingerprint image (step S110). The calculation of similarity is an aspect of the matching process.
  • FIG. 12 is a first diagram showing an outline of similarity calculation processing based on fingerprint feature values.
  • the matching processing unit 25 for each of the plurality of representative feature points specified in the authentication fingerprint image, the representative degree, the distance to the nearest feature point specified in the first quadrant to the eighth quadrant, Information on the fingerprint feature amount composed of the extension direction information indicating the extension direction of the ridge extending from the nearest feature point is recorded in the RAM 12.
  • a plurality of search destination fingerprint images recorded in the database 3 are also composed of similar fingerprint feature amount information.
  • the collation processing unit 25 calculates a brute force difference between each representative feature point on the authentication fingerprint image side and each representative feature point of the search destination fingerprint image.
  • the difference in distance to the nearest feature point and the stretching direction A value obtained by multiplying each difference in the direction indicated by the information by the representative degree on the authentication fingerprint image side and then adding is calculated, and an accumulated value for the eight quadrants of the value is obtained.
  • This cumulative value is a difference between one representative feature point of the authentication fingerprint image and one representative feature point of the search destination fingerprint image.
  • the representative feature points specified in the authentication fingerprint image are 1 to n, and the representative feature points specified in the search destination fingerprint image are 1 to N.
  • the matching processing unit 25 calculates a difference between one representative feature point in the authentication fingerprint image and each representative feature point in the search destination fingerprint image. Assuming that one representative feature point in the authentication fingerprint image is the representative feature point 1, the matching processing unit 25 determines the difference S () between the representative feature point 1 in the authentication fingerprint image and each of the representative feature points 1 to N in the search destination fingerprint image. 11, 12, ... 1N). The matching processing unit 25 identifies the representative feature point of the search destination fingerprint image having the smallest difference S among the calculated differences S.
  • the matching processing unit 25 can specify a representative feature point included in the search fingerprint image that is close to one representative feature point 1 specified in the authentication fingerprint image.
  • the matching processing unit 25 specifies representative feature points having a small difference S in the search destination fingerprint image for all the representative feature points (1 to n) in the authentication fingerprint image.
  • the matching processing unit 25 sorts the differences S between the representative feature points in the search target fingerprint image specified for each of the representative feature points (1 to n) in the authentication fingerprint image in ascending order, and sets a certain number (2 to The average value of 4) is calculated.
  • the matching processing unit 25 calculates the similarity between the authentication fingerprint image and the search destination fingerprint image by subtracting the average value from the constant. Since the value of the search fingerprint image having a high degree of similarity has a small value to be subtracted from the constant, the value of the degree of similarity becomes high.
  • the matching processing unit 25 calculates the similarity to the authentication fingerprint image using all the search destination fingerprint images included in the database 3.
  • the collation processing unit 25 determines a search destination fingerprint image having a similarity higher than the reference threshold as a collation candidate for performing a collation determination in more detail with the authentication fingerprint image (step S111).
  • the matching processing unit 25 performs matching between the authentication fingerprint image and the search destination fingerprint image determined as a matching candidate using the feature points included in each fingerprint image (step S112).
  • a known technique for performing a collation determination using feature points may be used for the collation process.
  • the collation processing unit 25 determines that the search destination fingerprint image having the highest similarity among the search destination fingerprint images having a higher similarity than the reference value is a fingerprint image that matches the authentication fingerprint image and outputs the fingerprint image. (Step S113). If the result of the collation determination is that the search destination fingerprint image having a high degree of similarity cannot be retrieved, the collation processing unit 25 outputs information indicating no match (step S114).
  • the matching processing unit 25 determines, for one extracted representative feature point extracted from a plurality of representative feature points, the representative extending direction of the fingerprint ridge extending from the extracted representative feature point. Identify. The matching processing unit 25 also determines the distance to the neighboring feature point determined based on the extracted representative feature point, the stretching direction based on the representative stretching direction of the fingerprint ridge extending from the neighboring feature point, and the neighboring feature point. A feature amount determined based on the representative degree is assigned to the extracted representative feature point. That is, the matching processing unit 25 determines the feature amount determined based on the distance from the representative feature point to the neighboring feature point, the ridge extension direction of the neighboring feature point, and the representative degree of the neighboring feature point.
  • the feature points in the vicinity of the representative feature points are feature points that are close to the representative feature points in each of the eight quadrants that have the representative feature points as the origin with respect to the representative extension direction of the representative feature points.
  • the matching processing unit 25 uses the feature amounts similarly assigned to the extracted representative feature points, and the representative feature points in the fingerprint image (authentication fingerprint image) of the matching source and the fingerprint image (search destination) of the matching destination. Fingerprint matching processing is performed using a plurality of representative feature points in the fingerprint image).
  • FIG. 13 is a second diagram showing an outline of the feature amount specifying process of the representative feature points.
  • FIG. 14 is a third diagram illustrating an overview of the process of specifying the feature amount of the representative feature point.
  • FIG. 15 is a second diagram illustrating a processing flow of processing for assigning feature amounts of representative feature points.
  • the matching processing unit 25 may specify a search target fingerprint image as a matching candidate by a method other than the processing described with reference to FIGS.
  • the matching processing unit 25 assigns a feature amount to each of the specified representative feature points (step S108 in FIG. 4). Another example of the process of assigning the feature amount in step S108 will be described according to the process flow of FIG. Specifically, the matching processing unit 25 selects one representative feature point from the plurality of representative feature points (step S108-11).
  • the representative feature point denoted by reference numeral 1 is the selected representative feature point.
  • This selected representative feature point is called a selected representative feature point.
  • the matching processing unit 25 reads position information and stretching direction information about the selected representative feature point from the RAM 12.
  • the matching processing unit 25 reads position information and stretching direction information of other feature points (including feature points other than the representative feature points) in the fingerprint image from the RAM 12.
  • the matching processing unit 25 assumes that the extending direction indicated by the extending direction information about the selected representative feature point is the plus direction of the vertical axis.
  • the matching processing unit 25 whites the pixels in the vicinity of the feature points that are other feature points and whose extension direction is opposite to the extension direction of the vertical axis, and other feature points that have the extension direction of the vertical axis.
  • a ridge stretch direction determination image (FIG. 13) in which the pixels near the feature point in the same direction as the stretch direction are black is generated (step S108-12).
  • the interpolated color value is calculated based on the color (pixel value) of other pixels in the vicinity, and from black to white You may make it have the pixel value of one of the gradation values. Accordingly, it can be understood that the surroundings of the feature point 50 in the extension direction in the same direction as the extension direction of the ridge of the selected representative feature point 1 in FIG. 13 are black pixels.
  • the surroundings of the feature point 9 and the feature point 6 which are in the direction opposite to the extending direction of the ridge of the selected representative feature point 1 are white pixels.
  • the matching processing unit 25 selects 24 feature extraction points (24 points) centered on the position of the selected representative feature point 1. Pixel values are extracted (step S108-13). FIG. 14 illustrates the positions of 24 feature extraction points (1) to (24) with the selected representative feature point 1 as the center.
  • the collation processing unit 25 uses the information indicating the value obtained by arranging the pixel values of the feature extraction points (1) to (24) and the stability of the ridge calculated for the representative feature point as the fingerprint feature of the selected representative feature point 1. The amount is determined (step S108-14).
  • the collation processing unit 25 determines whether or not the fingerprint feature amount has been calculated for all representative feature points (step S108-15). If the fingerprint feature amount is not calculated for all the representative feature points (NO in step S108-15), the matching processing unit 25 generates fingerprint feature amounts for the other representative feature points by the same method.
  • the collation processing unit 25 calculates the fingerprint feature amounts for all the representative feature points specified in the authentication fingerprint image (YES in step S108-15), the process returns to FIG. 4 and the fingerprint feature amounts for all the representative feature points. Is determined as a fingerprint feature amount for the authentication fingerprint image (step S109).
  • the fingerprint feature amount of the search destination fingerprint image is a feature amount calculated in the same manner as the calculation of the fingerprint feature amount of the authentication fingerprint image.
  • the relationship between the position of the representative feature point and the position of the feature extraction points (1) to (24) in the authentication fingerprint image, and the position of the representative feature point and the position of the feature extraction points (1) to (24) in the search destination fingerprint image The relationship with is the same.
  • the matching processing unit 25 calculates the similarity using the fingerprint feature quantity of the authentication fingerprint image and the fingerprint feature quantity of the search destination fingerprint image (step S110).
  • FIG. 16 is a second diagram showing an overview of similarity calculation processing based on fingerprint feature values.
  • the fingerprint feature amount of the authentication fingerprint image includes ridge stability (ridge quality) in pixels (or rectangular areas) corresponding to a plurality of representative feature points identified from many feature points. And pixel values of surrounding feature extraction points (1) to (24) with the representative feature point as a reference.
  • a plurality of search destination fingerprint images recorded in the database 3 are also composed of similar fingerprint feature amount information.
  • the collation processing unit 25 calculates a brute force difference between each representative feature point on the authentication fingerprint image side and each representative feature point of the search destination fingerprint image.
  • the ridge of the authentication fingerprint image is added to the difference in pixel value of the corresponding feature extraction point.
  • a value obtained by multiplying the degree of stability is calculated and accumulated for each of the 24 feature extraction points. This cumulative value is a difference S between one representative feature point of the authentication fingerprint image and one representative feature point of the search destination fingerprint image.
  • the representative feature points specified in the authentication fingerprint image are 1 to n, and the representative feature points specified in the search destination fingerprint image are 1 to N.
  • the matching processing unit 25 calculates a difference S between one representative feature point in the authentication fingerprint image and each representative feature point in the search destination fingerprint image. Assuming that one representative feature point in the authentication fingerprint image is the representative feature point 1, the matching processing unit 25 determines the difference S () between the representative feature point 1 in the authentication fingerprint image and each of the representative feature points 1 to N in the search destination fingerprint image. 11, 12, ... 1N). The matching processing unit 25 identifies the representative feature point of the search destination fingerprint image having the smallest difference S among the calculated differences S.
  • the matching processing unit 25 can specify a representative feature point included in the search fingerprint image that is close to one representative feature point 1 specified in the authentication fingerprint image.
  • the matching processing unit 25 specifies representative feature points having a small difference S in the search destination fingerprint image for all the representative feature points (1 to n) in the authentication fingerprint image.
  • the matching processing unit 25 sorts the differences S between the representative feature points in the search target fingerprint image specified for each of the representative feature points (1 to n) in the authentication fingerprint image in ascending order, and sets a certain number (2 to The average value of 4) is calculated.
  • the matching processing unit 25 calculates the similarity between the authentication fingerprint image and the search destination fingerprint image by subtracting the average value from the constant. Since the value of the search fingerprint image having a high degree of similarity has a small value to be subtracted from the constant, the value of the degree of similarity becomes high.
  • the matching processing unit 25 calculates the similarity to the authentication fingerprint image using all the search destination fingerprint images included in the database 3.
  • the collation processing unit 25 determines a search destination fingerprint image having a similarity higher than the reference threshold as a collation candidate for performing a collation determination in more detail with the authentication fingerprint image (step S111).
  • the matching processing unit 25 performs matching between the authentication fingerprint image and the search destination fingerprint image determined as the matching candidate using the feature points included in each fingerprint image.
  • a known technique for performing a collation determination using feature points may be used for the collation process.
  • the collation processing unit 25 determines that the search destination fingerprint image having the highest similarity is a fingerprint image that matches the authentication fingerprint image (step S112). If the result of the collation determination is that the search destination fingerprint image with a high similarity cannot be retrieved, the collation processing unit 25 outputs information indicating no match (step S113).
  • the matching processing unit 25 determines, for one extracted representative feature point extracted from a plurality of representative feature points, the representative extending direction of the fingerprint ridge extending from the extracted representative feature point. Identify. Next, the matching processing unit 25 indicates that the degree of coincidence between the extension direction based on the representative extension direction of the fingerprint ridge extending from the neighboring feature point determined based on the extracted representative feature point and the representative extension direction is high. A ridge extension direction determination image indicating the pixel value of the neighboring feature point and the pixel value of the neighboring feature point indicating that the degree of coincidence with the representative extension direction is low is generated.
  • the matching processing unit 25 specifies the extending direction of the ridges of the neighboring feature points determined based on the representative feature points.
  • the matching processing unit 25 indicates that the pixel value of the neighborhood feature point indicating that the degree of coincidence between the specified stretching direction and the representative stretching direction is high, and the degree of coincidence between the identified stretching direction and the representative stretching direction is low.
  • a ridge extension direction determination image having pixel values of the neighboring feature points shown is generated.
  • the collation process part 25 provides the feature-value which shows the several pixel value of the predetermined position on the basis of the position of a representative feature point in a ridge extending
  • the collation process part 25 provides the feature-value which shows the several pixel value of the predetermined position on the basis of the position of the corresponding extraction representative feature point in a ridge extending
  • the matching processing unit 25 uses the feature amount similarly given to each representative feature point, and uses the plurality of representative feature points in the fingerprint image of the matching source and the plurality of representative feature points in the fingerprint image of the matching destination. Perform verification processing.
  • the matching processing is performed without specifying the center of the fingerprint, the matching processing is performed without requiring the accuracy of specifying the center of the fingerprint. be able to.
  • simple four arithmetic operations and sort processing are used, and feature points used for calculation are limited to feature points such as representative feature points and feature extraction points. . Thereby, it is possible to reduce processing for determining a collation candidate.
  • the matching process with the authentication fingerprint image is performed using only the search destination fingerprint image specified as the matching candidate, so the processing can be reduced.
  • the fingerprint processing apparatus 1 has been described as performing either the similarity calculation described using FIGS. 10 to 12 or the similarity calculation described using FIGS. 13 to 16. .
  • both similarities may be calculated to identify matching candidates with high similarities.
  • FIG. 17 is a diagram showing the minimum configuration of the fingerprint processing apparatus.
  • the fingerprint processing apparatus 1 is based on at least the first match indicating that the distance between the feature points of the fingerprint specified in the fingerprint image of the collation source and the other feature points is long.
  • the collation processing unit 25 determines a plurality of feature points having a large first combination value as representative feature points used for fingerprint collation.
  • the fingerprint processing apparatus 1 according to the present embodiment may be defined as a verification processing circuit having at least the function of the verification processing unit 25 described above.
  • the above-described fingerprint processing apparatus 1 has a computer system inside.
  • a program for causing the fingerprint processing apparatus 1 to perform the above-described processes is stored in a computer-readable recording medium of the fingerprint processing apparatus 1, and the computer of the fingerprint processing apparatus 1 reads and executes the program.
  • the computer-readable recording medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like.
  • the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.
  • the program may be a program for realizing a part of the functions of each processing unit described above. Furthermore, what can implement
  • the collation processing unit further includes the second degree based on a second degree indicating a second distance to a pixel region in which the sharpness of the image specified in the fingerprint image is lower than a predetermined value among the feature points.
  • the plurality of feature points having a large value are determined as the representative feature points.
  • the collation processing unit calculates a representative degree based on a value obtained by multiplying the first degree by the second degree, and further determines the representative feature point based on the representative degree.
  • the fingerprint processing apparatus according to appendix 2.
  • the collation processing unit further calculates the representative degree using a degree of stability of a ridge in a pixel corresponding to the feature point, and determines the representative feature point based on the representative degree;
  • the fingerprint processing apparatus according to appendix 3.
  • the collation processing unit determines a plurality of representative feature points with high representativeness, and uses the plurality of representative feature points in the collation source fingerprint image and a plurality of representative feature points in the collation destination fingerprint image. To perform the matching process The fingerprint processing apparatus according to appendix 3 or appendix 4.
  • the collation processing unit For each of the plurality of representative feature points, a representative extension direction of a ridge extending from the representative feature point is specified, and the distance to a neighboring feature point determined based on the representative feature point and the neighboring feature point are extended. A feature amount determined based on the extending direction of the ridge and the representativeness of the neighboring feature point is given, Using the feature amount assigned to each of the representative feature points, the fingerprint of the fingerprint based on the plurality of representative feature points in the fingerprint image of the collation source and the plurality of representative feature points in the fingerprint image of the collation destination Perform verification processing, The fingerprint processing apparatus according to appendix 5.
  • the neighboring feature point determined based on the representative feature point is a feature in the vicinity of the representative feature point in each of the eight quadrants having the representative feature point as an origin with reference to the representative extension direction of the representative feature point. Is a point, The fingerprint processing apparatus according to appendix 6.
  • the present invention it is possible to provide a fingerprint processing device, a fingerprint processing method, and a program that can be collated quickly without specifying the center of the fingerprint.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Abstract

照合元の指紋画像において特定した指紋の特徴点のうち、他の特徴点との間の第一の距離を示す第一度合に基づいて当該第一度合の値が大きい複数の特徴点を、前記指紋の照合処理に用いる代表特徴点として判定する照合処理部を有する、指紋処理装置。

Description

指紋処理装置、指紋処理方法、プログラム、指紋処理回路
 本発明は、指紋処理装置、指紋処理方法、プログラム、指紋処理回路に関する。
 指紋照合を行う場合には一例として指紋画像から指紋の中心(コア)が算出され、その中心を基準とした特徴点の位置等の情報が用いられて、指紋照合元と指紋照合先との画像の照合が行われている。しかしながら指紋画像における指紋の中心の位置の特定を誤ると、指紋の中心と各特徴点との関係がずれることにより、照合の精度が悪化する。指紋照合に関連する技術が特許文献1~特許文献3が開示されている。
特開平10-177650号公報 特開2015-228070号公報 特許第5822303号公報
 上述のような問題点の為、指紋の中心を特定しない指紋照合であって照合速度の速い指紋処理装置が求められている。
 そこでこの発明は、上述の課題を解決する指紋処理装置、指紋処理方法、プログラム、指紋処理回路を提供することを目的としている。
 本発明の第1の態様によれば、指紋処理装置は、照合元の指紋画像において特定した指紋の特徴点のうち、他の特徴点との間の第一の距離を示す第一度合に基づいて当該第一度合の値が大きい複数の特徴点を、前記指紋の照合処理に用いる代表特徴点として判定する照合処理部を有する。
 本発明の第2の態様によれば、指紋処理方法は、照合元の指紋画像において特定した指紋の特徴点のうち、他の特徴点との間の第一の距離を示す第一度合に基づいて当該第一度合の値が大きい複数の特徴点を、前記指紋の照合処理に用いる代表特徴点として判定する。
 本発明の第3の態様によれば、プログラムは、コンピュータに、照合元の指紋画像において特定した指紋の特徴点のうち、他の特徴点との間の第一の距離を示す第一度合に基づいて当該第一度合の値が大きい複数の特徴点を、前記指紋の照合処理に用いる代表特徴点として判定する処理を実行させる。
 本発明の第4の態様によれば、指紋処理回路は、照合元の指紋画像において特定した指紋の特徴点のうち、他の特徴点との間の第一の距離を示す第一度合に基づいて当該第一度合の値が大きい複数の特徴点を、前記指紋の照合処理に用いる代表特徴点として判定する照合処理回路を有する。
 本発明によれば、指紋の中心を特定せずとも速度が速く照合することのできる指紋処理装置、指紋処理方法、プログラムを提供することができる。
指紋処理装置を含む指紋照合システムを示す図である。 指紋処理装置のハードウェア構成図である。 指紋処理装置の機能ブロック図である。 指紋処理装置の処理フローを示す図である。 特徴点検出部が検出する第1特徴点を説明するための図である。 特徴点検出部が検出する第2特徴点を説明するための図である。 指紋画像において判定された鮮明領域および不鮮明領域と特徴点とを示す図である。 指紋画像において判定された隆線の安定度を示す図である。 代表度算出処理の処理フローを示す図である。 特徴点と代表特徴点を視覚的に示す図である。 代表特徴点の特徴量の特定処理の概要を示す第一の図である。 代表特徴点の特徴量を付与する処理の処理フローを示す第一の図である。 指紋特徴量に基づく類似度の計算処理の概要を示す第一の図である。 代表特徴点の特徴量の特定処理の概要を示す第二の図である。 代表特徴点の特徴量の特定処理の概要を示す第三の図である。 代表特徴点の特徴量を付与する処理の処理フローを示す第二の図である。 指紋特徴量に基づく類似度の計算処理の概要を示す第二の図である。 指紋処理装置の最少構成を示す図である。
 以下、本発明の一実施形態による指紋処理装置を図面を参照して説明する。
 図1は同実施形態による指紋処理装置を含む指紋照合システムを示す図である。
 指紋照合システムは、図1に示すように指紋処理装置1、指紋読取機2、データベース3を含んで構成されている。指紋処理装置1は指紋読取機2と通信ケーブルを介して接続されている。また指紋処理装置1はデータベース3と通信ケーブルを介して接続されている。指紋処理装置1は指紋読取機2から取得した指紋画像から得た指紋情報と、データベース3に格納されている指紋情報とを比較することにより指紋照合の処理を行う。データベース3には、予め多くの人の指紋画像から得られた指紋情報が記録される。
 図2は指紋処理装置のハードウェア構成図である。
 指紋処理装置1は、CPU(Central Processing Unit)11,RAM(Random Access Memory)12、ROM(Read Only Memory)13、SSD(Solid State Drive)14、通信モジュール15、表示画面16、IF(Interface)17などを備えてよい。指紋処理装置1はこのような各機能を備えたコンピュータである。
 図3は指紋処理装置の機能ブロック図である。
 指紋処理装置1はCPU11において指紋処理プログラムを実行する。これにより指紋処理装置1には、画像取得部21、鮮明度判定部22、隆線品質判定部23、特徴点検出部24、照合処理部25の機能を備える。
 画像取得部21は指紋読取機2より指紋画像を取得する。
 鮮明度判定部22は指紋画像中の各画素の指紋の鮮明度を判定して分類する。
 隆線品質判定部23は指紋画像中の各画素に写る指紋の隆線の品質を判定する。
 特徴点検出部24は指紋画像に映る指紋の特徴点を検出する。
 照合処理部25は画像取得部21の取得した指紋画像から得た指紋情報と、データベース3に記録されている複数の人の指紋情報との比較による照合処理を行う。
 本実施形態において照合処理部25は、照合元の指紋画像において特定した指紋の特徴点のうち、他の特徴点との間の距離が長いことを示す第一度合に基づいて当該第一度合の値が大きい複数の特徴点を、指紋照合に用いる代表特徴点と判定する。すなわち、照合処理部25は、照合元の指紋画像における指紋の複数の特徴点それぞれについて、当該特徴点と他の特徴点との間の第一の距離を示す第一度合を取得する。そして、照合処理部25は、複数の特徴点のうち第一度合の値が大きい複数の特徴点を、代表特徴点として判定する。
 または照合処理部25は、照合元の指紋画像において特定した指紋の特徴点のうち、指紋画像において特定された画像の鮮明さが不明な画素領域までの距離が長いことを示す第二度合に基づいて当該第二度合の値が大きい複数の特徴点を、代表特徴点と判定する。すなわち、照合処理部25は、照合元の指紋画像における指紋の複数の特徴点それぞれについて、画像の鮮明度が所定値より低い画素領域までの第二の距離を示す第二度合を取得する。そして、照合処理部25は、複数の特徴点のうち第二度合の値が大きい複数の特徴点を、代表特徴点として判定する。所定値は、例えば、任意の値である。
 または照合処理部25は、他の特徴点との間の距離が長いことを示す第一度合と、指紋画像において特定された画像の鮮明さが不明(不鮮明)な画素領域までの距離が長いことを示す第二度合とを用いて複数の代表特徴点を判定する。例えば、第一度合に第二度合を乗じ、この値に基づいて代表度を算出し、当該代表度に基づいて複数の代表特徴点を判定してよい。すなわち、照合処理部25は、第一度合に第二度合を乗じた値に基づいて代表度を算出し、代表度に基づいて複数の特徴点を代表特徴点として判定する。
 照合処理部25は指紋画像において特定した指紋の特徴点に対応する画素における隆線の安定度合をさらに用いて代表度を算出し、当該代表度に基づいて代表特徴点を判定してよい。
 そして照合処理部25は、代表度の高い特徴を示す複数の代表特徴点を特定し、照合元の指紋画像におけるそれら複数の代表特徴点と、データベース3に記録されている照合先の指紋画像における複数の代表特徴点とを用いて照合処理を行う。
 図4は指紋処理装置の処理フローを示す図である。
 次に指紋処理装置1の処理の詳細について順を追って説明する。
 まず指紋処理装置1において画像取得部21が指紋読取機2から指紋画像を取得する(ステップS101)。画像取得部21は指紋画像を一時的にRAM12などに記録する。
 すると鮮明度判定部22は指紋画像をRAM12から読み取り、指紋画像中全体に渡って設定した複数の矩形領域それぞれの鮮明度を判定する(ステップS102)。各矩形領域は画素に対応する領域であってもよいし、画素とは別に設定した矩形の領域であってもよい。鮮明度判定部22は各矩形領域の鮮明度を判定すると、指紋画像中の矩形領域を特定するID(identification)と、当該矩形領域の鮮明度とをRAM12に記録する。鮮明度は例えば鮮明か不鮮明かを示す2値であってよい。鮮明度の判定方法はどのような方法であってもよい。例えば鮮明度判定部22は特開平10-177650号公報に記述されている品質指標抽出手段の行う処理と同様の処理により鮮明度を算出してよい。
 また隆線品質判定部23は指紋画像をRAM12から読み取り、指紋画像中の上記矩形領域のうち隆線が映る画素を特定し、その画素における隆線の安定度を判定する(ステップS103)。隆線の安定度とは隆線の幅の安定度合を意味する。隆線品質判定部23による隆線の安定度は、一例として設定した矩形領域における指紋隆線を示す黒色画像と指紋隆線間を示す白色画像の両方の分散値により示される。隆線品質判定部23は指紋隆線を示す黒色画像と指紋隆線間を示す白色画像の両方の分散値が閾値より高い矩形領域を、隆線の安定度が高い矩形領域と判定する。他方、隆線品質判定部23は指紋隆線を示す黒色画像または指紋隆線間を示す白色画像のいずれかの分散値が閾値以下の矩形領域を、隆線の安定度が低い矩形領域と判定する。隆線品質判定部23は、矩形領域のIDと、隆線の安定度が高いか低いかを示すフラグとを対応付けた情報をRAM12等に記録する。隆線の安定度のより詳細な算出には、例えば、特許第5822303号公報のステップS301~ステップS305として記述されている技術等が利用されてもよい。
 特徴点検出部24は指紋画像をRAM12から読み取り、当該指紋画像に映る指紋の特徴点を検出する(ステップS104)。特徴点の検出には、従来の検出手法が用いられてもよい。より具体的には特徴点検出部24は、2種類の特徴点を指紋画像から抽出する。
 図5A及び図5Bは、特徴点検出部が検出する特徴点を説明するための図である。
 特徴点検出部24が対象とする第1の特徴点は、隆線の終点(端点)である。図5Aには、2本の隆線501、502に挟まれた第1特徴点P1が図示されている。特徴点検出部24は、図5Aに示す第1特徴点P1のような隆線の端点を、入力された指紋画像の第1特徴点P1として検出する。具体的には、特徴点検出部24は、指紋画像の全体を走査しながら第1特徴点P1を検出していく。
 特徴点検出部24が対象とする第2の特徴点は、隆線の分岐点である。図5Bには、隆線511が2本の隆線512、513に分岐する第2特徴点P2が図示されている。特徴点検出部24は、図5Bに示す第2特徴点P2のような隆線の分岐点を、入力された指紋画像の第2特徴点P2として検出する。
次に、特徴点検出部24は、検出した各特徴点から延びる指紋の隆線の延伸方向を算出する。第1特徴点P1に関しては、図5Aに示すように、第1特徴点P1から隆線500が発生する方向(矢印504の方向)が、第1特徴点P1からの隆線の延伸方向と定義される。
 第2特徴点P2に関しては、図5Bに示される。隆線511が第2特徴点P2にて2本の隆線512、513に分岐している場合、第2特徴点P2から2本の隆線の間(ベクトルの中間)を進行する方向(矢印514の方向)が、第2特徴点P2からの隆線の延伸方向と定義される。
 特徴点検出部24は、指紋画像において検出した特徴点の位置情報や当該特徴点から延びる隆線の延伸方向の情報(延伸方向情報)をRAM12に記録する。なお、検出された第1特徴点P1、第2特徴点P2に関する位置情報(座標)は、指紋画像内でのピクセル位置や矩形領域のIDの形式で記録されてもよい。また、各特徴点を原点に設定したXY座標系におけるX軸と特徴点からの隆線の延伸方向との間の角度が、各特徴点からの隆線の延伸方向として記録されてもよい。
 図6は指紋画像において判定された鮮明領域および不鮮明領域と特徴点とを示す図である。
 この図が示す指紋画像における網掛け表示されている領域は、鮮明度が閾値未満の不鮮明領域E1を示している。また網掛け表示されていない領域は、鮮明度が閾値以上の鮮明領域E2を示している。このような指紋画像において、当該画像中の丸印や四角印で囲まれている局所点が特徴点を示している。特徴点のうち丸印で示す特徴点は第1特徴点P1を示す。特徴点のうち四角印で示す特徴点は第2特徴点P2を示す。丸印や四角印から出ている直線が各特徴点から延伸する隆線の延伸方向を示している。
 図7は指紋画像において判定された隆線の安定度を示す図である。
 図7で示す指紋画像は、鮮明領域E2において隆線の安定度(品質)の高い白部分の領域と、隆線の安定度が閾値より低い黒部分の領域を示している。ステップS103の処理の結果、指紋処理装置1は、このような図7で示す隆線の安定度の分布を示す画像を出力するようにしてもよい。
 図4に戻り、照合処理部25は、特徴点検出部24の検出した各特徴点についての位置情報と延伸方向情報を用いて、各特徴点の代表度eval_pを算出する(ステップS105)。この代表度は、指紋画像において特定された特徴点のうち、他の特徴点から離れているほど値が大きい度数である。代表度eval_pは、指紋画像において特定された特徴点のうち、他の特徴点からの距離が長く、鮮明度が高いことを示す度数であってもよい。
 図8は、代表度算出処理(図4のステップS105)の処理フローを示す図である。
 照合処理部25は、代表度eval_pの算出においては、まず、特徴点検出部24の検出した各特徴点についての位置情報と延伸方向情報をRAM12から取得する。照合処理部25は各特徴点の中から一つの選択特徴点を選択し、その選択特徴点と他の全ての特徴点との間の距離をそれぞれ算出する(ステップS1051)。照合処理部25は算出した複数の距離のうち最も値の小さい距離の情報を、選択特徴点の最近傍特徴点までの距離Lmp(第一度合)と決定する(ステップS1052)。
 照合処理部25は次に、選択特徴点の位置情報と不鮮明領域E1を示す全ての矩形領域の位置情報とを用いて、選択特徴点と各矩形領域との間の距離をそれぞれ算出する(ステップS1053)。照合処理部25は算出したその距離のうち最も値の小さい距離の情報を、選択特徴点の最近傍の不鮮明領域E1を示す矩形領域までの距離ucz(式(1)では、min_ucz)(第二度合)として決定する(ステップS1054)。また照合処理部25は選択特徴点に対応する画素の隆線の安定度mRqlの情報をRAM12から取得する。そして照合処理部25は、選択特徴点の代表度eval_pを式(1)により算出する(ステップS1055)。
Figure JPOXMLDOC01-appb-M000001
 式(1)においてA,Bは定数を示している。また式(1)中の「/」は除算(÷)を意味する。定数Aは、選択特徴点の最近傍特徴点までの距離Lmpと、選択特徴点の最近傍の不鮮明領域E1を示す矩形領域までの距離uczとを乗じた値が大きくなりすぎないよう調整するための定数である。定数Bは選択特徴点に対応する画素の隆線の安定度mRqlの値を調整するための定数である。式(1)により、選択特徴点が、他の特徴点からの距離と鮮明度とが高いか否かの度数を示す代表度eval_pを算出することができる。なお、式(1)のように選択特徴点の最近傍の不鮮明領域E1を示す矩形領域までの距離uczを用いて代表度eval_pを算出することにより、不鮮明領域E1に他の特徴点が存在する場合を想定した代表度eval_pの算出を行うことができる。
 式(1)においては選択特徴点に対応する画素の隆線の安定度mRqlに関する情報を加えているが、この情報を加えない態様で、代表度eval_pが算出されてもよい。また式(1)においては選択特徴点の最近傍の不鮮明領域E1を示す矩形領域までの距離uczの情報を加えているが、この情報を加えない態様で、代表度eval_pが算出されてもよい。
 図4に戻り、照合処理部25は指紋画像に現れる全ての特徴点について選択特徴点として代表度eval_pの算出処理を行ったか否かを判定する(ステップS106)。照合処理部25は指紋画像に現れる全ての特徴点について選択特徴点として代表度eval_pの算出処理が終わるまで代表度eval_pの算出を繰り返す。照合処理部25は、全ての特徴点について算出した代表度eval_pを大きい順に探索し、代表度eval_pの大きい複数の所定数の特徴点を、代表特徴点として特定する(ステップS107)。所定数は例えば20や30などの数であってよい。
 図9は特徴点と代表特徴点を視覚的に示す図である。
 図9で示すように指紋画像には多くの特徴点が検出される。照合処理部25は各特徴点の代表度eval_pを算出し、大きい順に選択した所定の数の特徴点を、代表特徴点として判定する。図9において特徴点を示す印を黒く(濃く)表示している特徴点は代表度eval_pが高く(大きく)、色の薄い印を示す特徴点は代表度eval_pが低い(小さい)ことを表している。
 図10は代表特徴点の特徴量の特定処理の概要を示す第一の図である。
 図11は代表特徴点の特徴量を付与する処理の処理フローを示す第一の図である。
 照合処理部25は次に、特定した複数の代表特徴点にそれぞれ特徴量を付与する(図4のステップS108)。ここで、ステップS108における特徴量を付与する処理を、図11の処理フローにしたがって説明する。
 具体的には照合処理部25は、複数の代表特徴点のうち1つの代表特徴点を選択する(ステップS108-1)。この選択した代表特徴点を選択代表特徴点と呼ぶ。照合処理部25は選択代表特徴点についての位置情報と延伸方向情報(代表延伸方向)とをRAM12から読み取る。また照合処理部25は指紋画像中の他の特徴点の位置情報と延伸方向情報とをRAM12から読み取る。照合処理部25は選択代表特徴点についての延伸方向情報(代表延伸方向)が示す延伸方向を垂直軸のプラス方向と仮定する。そして、照合処理部25は、選択代表特徴点を中心とし延伸方向情報に基づく当該垂直軸を基準として指紋画像平面上の360度方向を45度角毎に分割した第一象限~第八象限までの分割領域を特定する(ステップS108-2)。
 ここで、照合処理部25は図10において1番の符号が振られている代表特徴点を選択代表特徴点と設定しているものとする。この場合、図10において1番の選択代表特徴点を原点として延伸方向情報が示す延伸方向に延びる軸を軸aと呼ぶ。1番の選択代表特徴点を中心に軸aから45度左に回転した軸を軸bと呼ぶ。1番の選択代表特徴点を中心に軸bから45度左に回転した軸を軸cと呼ぶ。1番の選択代表特徴点を中心に軸cから45度左に回転した軸を軸dと呼ぶ。1番の選択代表特徴点を中心に軸dから45度左に回転した軸を軸eと呼ぶ。1番の選択代表特徴点を中心に軸eから45度左に回転した軸を軸fと呼ぶ。1番の選択代表特徴点を中心に軸fから45度左に回転した軸を軸gと呼ぶ。1番の選択代表特徴点を中心に軸gから45度左に回転した軸を軸hと呼ぶ。
 照合処理部25は軸aと軸bとの間の第一象限において1番の選択代表特徴点から最も距離の近い9番の特徴点を特定する(ステップS108-3)。また照合処理部25は軸bと軸cとの間の第二象限において1番の選択代表特徴点から最も距離の近い17番の特徴点を特定する。同様に照合処理部25は各軸で分割された第三象限~第八象限において1番の選択代表特徴点から最も距離の近い特徴点を特定する。照合処理部25は、第一象限から第八象限において特定した各特徴点までの1番の選択代表特徴点からの距離と、第一象限から第八象限において特定した各特徴点についての延伸方向情報と、1番の選択代表特徴点について算出した代表度との全てを、1番の選択代表特徴点の特徴量として決定する(ステップS108-4)。照合処理部25は全ての代表特徴点について特徴量を特定したか否かを判定する(ステップS108-5)。照合処理部25は全ての代表特徴点について特徴量を特定していない場合には(ステップS108-5のNO)、特徴量の特定の処理を繰り返す。
 照合処理部25は、全ての代表特徴点についての特徴量を特定すると(ステップS108-5のYES)、図4に戻り、それら全ての代表特徴点についての特徴量から成る情報を、指紋読取機2から取得した指紋画像についての指紋特徴量に決定する(ステップS109)。指紋読取機2から取得した指紋画像を以下、認証指紋画像と呼ぶ。照合処理部25はデータベース3に記録されている1つ目の指紋画像の指紋特徴量を読み取る。データベース3に記録されている指紋画像を、以下探索先指紋画像と呼ぶ。探索先指紋画像の指紋特徴量は、認証指紋画像の指紋特徴量の算出と同様に算出された特徴量である。照合処理部25は、認証指紋画像の指紋特徴量と探索先指紋画像の指紋特徴量とを用いて類似度を計算する(ステップS110)。類似度の計算は照合処理の一態様である。
 図12は指紋特徴量に基づく類似度の計算処理の概要を示す第一の図である。
 図12に示すように、照合処理部25は認証指紋画像において特定した複数の代表特徴点それぞれについて、代表度と、第一象限~第八象限において特定した最近傍特徴点までの距離と、当該最近傍特徴点から延びる隆線の延伸方向を示す延伸方向情報と、から成る指紋特徴量の情報をRAM12に記録している。データベース3に記録される複数の探索先指紋画像も同様の指紋特徴量の情報から構成される。
 照合処理部25は、認証指紋画像側の各代表特徴点と、探索先指紋画像の各代表特徴点との差分を総当たりで算出する。認証指紋画像側の1つの代表特徴点と探索先指紋画像の1つの代表特徴点との差分を計算する場合には、対応する同一象限について、最近傍特徴点までの距離の差と、延伸方向情報が示す方向の差のそれぞれに認証指紋画像側の代表度を乗じた上で加算した値を算出し、その値の八象限分の累積値を求める。この累積値は、認証指紋画像の1つの代表特徴点と探索先指紋画像の1つの代表特徴点との差分である。
 認証指紋画像において特定した代表特徴点を1~n、探索先指紋画像において特定されている代表特徴点を1~Nとする。照合処理部25は認証指紋画像における1つの代表特徴点と探索先指紋画像における各代表特徴点との差分をそれぞれ算出する。
 照合処理部25は認証指紋画像における1つの代表特徴点を代表特徴点1とすると、その認証指紋画像における代表特徴点1と、探索先指紋画像の代表特徴点1~Nそれぞれとの差分S(11,12,…1N)を算出する。
 照合処理部25は算出したそれらの差分Sのうち、最も差分Sの小さい探索先指紋画像の代表特徴点を特定する。この処理により照合処理部25は認証指紋画像において特定した1つの代表特徴点1に近い、探索指紋画像に含まれる代表特徴点を特定できる。
 照合処理部25は、認証指紋画像における全ての代表特徴点(1~n)について、探索先指紋画像中の差分Sの小さい代表特徴点を特定する。
 照合処理部25は認証指紋画像における代表特徴点(1~n)それぞれについて特定した探索先指紋画像中の代表特徴点との間の差分Sを小さい順にソートして、小さい順に一定数(2~4)の値の平均値を算出する。照合処理部25は、その平均値を定数から減算することで、認証指紋画像と探索先指紋画像との間の類似度を算出する。類似度の高い探索指紋画像の値は、定数から減算する値が小さいため、類似度の値は高くなる。
 図4に戻り、照合処理部25は、データベース3に含まれる全ての探索先指紋画像を用いて、認証指紋画像との類似度を算出する。照合処理部25は類似度が基準閾値より高い探索先指紋画像を、認証指紋画像との間でより詳細に照合判定を行う照合候補として決定する(ステップS111)。照合処理部25は、認証指紋画像と照合候補として決定された探索先指紋画像との間の照合を、各指紋画像に含まれる特徴点を用いて行う(ステップS112)。当該照合の処理には、特徴点を用いて照合判定を行う公知の技術が用いられてもよい。照合処理部25は、照合判定の結果、基準値よりも類似度の高い探索先指紋画像のうち、最も類似度の高い探索先指紋画像を認証指紋画像に一致する指紋画像と判定して出力する(ステップS113)。照合処理部25は、照合判定の結果、類似度の高い探索先指紋画像を検索できない場合には、一致無を示す情報を出力する(ステップS114)。
 上述の処理を簡略して説明すると、まず、照合処理部25は、複数の代表特徴点から抽出した一つの抽出代表特徴点について、当該抽出代表特徴点から延びる指紋の隆線の代表延伸方向を特定する。また照合処理部25は、抽出代表特徴点に基づいて決定した近傍特徴点までの距離と、当該近傍特徴点から延びる指紋の隆線の代表延伸方向を基準とした延伸方向と、当該近傍特徴点の代表度とに基づいて決定される特徴量を抽出代表特徴点に付与する。
 すなわち、照合処理部25は、代表特徴点の近傍特徴点までの距離と、近傍特徴点の隆線の延伸方向と、近傍特徴点の代表度とに基づいて決定される特徴量を各代表特徴点に付与する。代表特徴点の近傍特徴点は、代表特徴点の代表延伸方向を基準として代表特徴点を原点とする8象限の領域それぞれにおいて、代表特徴点に近傍する特徴点である。
 そして照合処理部25は、抽出代表特徴点それぞれに同様に付与した特徴量を用いて、照合元の指紋画像(認証指紋画像)におけるそれら複数の代表特徴点と、照合先の指紋画像(探索先指紋画像)における複数の代表特徴点とによる指紋の照合処理を行う。
 図13は代表特徴点の特徴量の特定処理の概要を示す第二の図である。
 図14は代表特徴点の特徴量の特定処理の概要を示す第三の図である。
 図15は代表特徴点の特徴量を付与する処理の処理フローを示す第二の図である。
 照合処理部25は、図10~図12を用いて説明した処理以外の方法で、照合候補の探索先指紋画像を特定するようにしてもよい。
 照合処理部25は、特定した複数の代表特徴点にそれぞれ特徴量を付与する(図4のステップS108)。ステップS108における特徴量を付与する処理の別の例を、図15の処理フローにしたがって説明する。
 具体的には照合処理部25は、複数の代表特徴点のうち1つの代表特徴点を選択する(ステップS108-11)。図13においては符号1で示す代表特徴点を選択代表特徴点としている。この選択した代表特徴点を選択代表特徴点と呼ぶ。照合処理部25は選択代表特徴点についての位置情報と延伸方向情報とをRAM12から読み取る。照合処理部25は指紋画像中の他の特徴点(代表特徴点以外の特徴点も含む)の位置情報と延伸方向情報とをRAM12から読み取る。照合処理部25は選択代表特徴点についての延伸方向情報が示す延伸方向を垂直軸のプラス方向と仮定する。そして、照合処理部25は、他の特徴点であって延伸方向が垂直軸の延伸方向に逆向きとなる特徴点の近傍の画素を白色、他の特徴点であって延伸方向が垂直軸の延伸方向に同一方向となる特徴点の近傍の画素を黒色とした隆線延伸方向判定画像(図13)を生成する(ステップS108-12)。隆線延伸方向判定画像において黒色や白色と特定されていない画像については、近傍の他の画素の色(画素値)に基づいて、補間された色の値が算出されて、黒色から白色までの階調の値のうちの何れかの階調の画素値を有するようにしてもよい。これにより、図13において選択代表特徴点1の隆線の延伸方向と同一方向の延伸方向となっている特徴点50についてはその周囲が黒色の画素となっていることが分かる。また図13において選択代表特徴点1の隆線の延伸方向と逆方向の延伸方向となっている特徴点9や特徴点6についてはその周囲が白色の画素となっていることが分かる。
 照合処理部25は、選択代表特徴点1について生成した隆線延伸方向判定画像(図13)において、選択代表特徴点1の位置を中心とした24点(24個の点)の特徴抽出点の画素値を抽出する(ステップS108-13)。図14には選択代表特徴点1の位置を中心とした24点の特徴抽出点(1)~(24)の位置を図示している。照合処理部25は、特徴抽出点(1)~(24)の画素値を並べた値と、代表特徴点について算出した隆線の安定度とを示す情報を、選択代表特徴点1の指紋特徴量と決定する(ステップS108-14)。照合処理部25は全ての代表特徴点について指紋特徴量を算出したか否かを判定する(ステップS108-15)。照合処理部25は全ての代表特徴点について指紋特徴量を算出していない場合には(ステップS108-15のNO)、他の代表特徴点について同様の手法により指紋特徴量を生成する。
 照合処理部25は、認証指紋画像において特定した全ての代表特徴点についての指紋特徴量を算出すると(ステップS108-15のYES)、図4に戻り、それら全ての代表特徴点についての指紋特徴量から成る情報を、認証指紋画像についての指紋特徴量に決定する(ステップS109)。探索先指紋画像の指紋特徴量は、認証指紋画像の指紋特徴量の算出と同様に算出された特徴量である。認証指紋画像における代表特徴点の位置と特徴抽出点(1)~(24)の位置との関係と、探索先指紋画像における代表特徴点の位置と特徴抽出点(1)~(24)の位置との関係とは同じである。照合処理部25は、認証指紋画像の指紋特徴量と探索先指紋画像の指紋特徴量とを用いて類似度を計算する(ステップS110)。
 図16は指紋特徴量に基づく類似度の計算処理の概要を示す第二の図である。
 この図が示すように認証指紋画像の指紋特徴量には、多くの特徴点の中から特定した複数の代表特徴点に対応する画素(又は矩形領域)における隆線の安定度(隆線品質)と、その代表特徴点を基準とした周囲の特徴抽出点(1)~(24)の画素値が含まれる。データベース3に記録される複数の探索先指紋画像も同様の指紋特徴量の情報から構成される。
 照合処理部25は、認証指紋画像側の各代表特徴点と、探索先指紋画像の各代表特徴点との差分を総当たりで算出する。認証指紋画像側の1つの代表特徴点と探索先指紋画像の1つの代表特徴点との差分Sを計算する場合には、対応する特徴抽出点の画素値の差に、認証指紋画像の隆線の安定度を乗じた値を、24の特徴抽出点それぞれについて算出し累積する。この累積値は、認証指紋画像の1つの代表特徴点と探索先指紋画像の1つの代表特徴点との差分Sである。
 認証指紋画像において特定した代表特徴点を1~n、探索先指紋画像において特定されている代表特徴点を1~Nとする。照合処理部25は認証指紋画像における1つの代表特徴点と探索先指紋画像における各代表特徴点との差分Sをそれぞれ算出する。
 照合処理部25は認証指紋画像における1つの代表特徴点を代表特徴点1とすると、その認証指紋画像における代表特徴点1と、探索先指紋画像の代表特徴点1~Nそれぞれとの差分S(11,12,…1N)を算出する。
 照合処理部25は算出したそれらの差分Sのうち、最も差分Sの小さい探索先指紋画像の代表特徴点を特定する。この処理により照合処理部25は認証指紋画像において特定した1つの代表特徴点1に近い、探索指紋画像に含まれる代表特徴点を特定できる。
 照合処理部25は、認証指紋画像における全ての代表特徴点(1~n)について、探索先指紋画像中の差分Sの小さい代表特徴点を特定する。
 照合処理部25は認証指紋画像における代表特徴点(1~n)それぞれについて特定した探索先指紋画像中の代表特徴点との間の差分Sを小さい順にソートして、小さい順に一定数(2~4)の値の平均値を算出する。照合処理部25は、その平均値を定数から減算することで、認証指紋画像と探索先指紋画像との間の類似度を算出する。類似度の高い探索指紋画像の値は、定数から減算する値が小さいため、類似度の値は高くなる。
 図4に戻り、照合処理部25は、データベース3に含まれる全ての探索先指紋画像を用いて、認証指紋画像との類似度を算出する。照合処理部25は類似度が基準閾値より高い探索先指紋画像を、認証指紋画像との間でより詳細に照合判定を行う照合候補として決定する(ステップS111)。照合処理部25は、認証指紋画像と照合候補として決定された探索先指紋画像との間の照合を、各指紋画像に含まれる特徴点を用いて行う。当該照合の処理には、特徴点を用いて照合判定を行う公知の技術が用いられてもよい。照合処理部25は、照合判定の結果、最も類似度の高い探索先指紋画像を認証指紋画像に一致する指紋画像と判定する(ステップS112)。照合処理部25は、照合判定の結果、類似度の高い探索先指紋画像を検索できない場合には、一致無を示す情報を出力する(ステップS113)。
 上述の処理を簡略して説明すると、まず、照合処理部25は、複数の代表特徴点から抽出した一つの抽出代表特徴点について、当該抽出代表特徴点から延びる指紋の隆線の代表延伸方向を特定する。次に照合処理部25は、抽出代表特徴点に基づいて決定した近傍特徴点から延びる指紋の隆線の代表延伸方向を基準とした延伸方向と、代表延伸方向との一致度が高いことを示す当該近傍特徴点の画素値と、代表延伸方向との一致度が低いことを示す当該近傍特徴点の画素値とを示す隆線延伸方向判定画像を生成する。
 すなわち、照合処理部25は、代表特徴点に基づいて決定される近傍特徴点の隆線の延伸方向を特定する。また、照合処理部25は、特定した延伸方向と代表延伸方向との一致度が高いことを示す近傍特徴点の画素値、及び、特定した延伸方向と代表延伸方向との一致度が低いことを示す近傍特徴点の画素値を有する隆線延伸方向判定画像を生成する。そして、照合処理部25は、隆線延伸方向判定画像における、代表特徴点の位置を基準とする所定位置の複数の画素値を示す特徴量を代表特徴点に付与する。
 そして照合処理部25は、隆線延伸方向判定画像において対応する抽出代表特徴点の位置を基準とした所定位置の複数の画素値を示す特徴量を代表特徴点に付与する。照合処理部25は、代表特徴点それぞれに同様に付与した特徴量を用いて、照合元の指紋画像におけるそれら複数の代表特徴点と、照合先の指紋画像における複数の代表特徴点とによる指紋の照合処理を行う。
 以上本発明の実施形態について説明したが、上述の処理によれば、指紋の中心を特定することなく照合処理を行っているため、指紋の中心の特定精度を必要とせずに、照合処理を行うことができる。
 また上述の照合候補の探索先指紋画像を決定する処理において簡易な四則演算とソート処理を利用し、また算出に用いる特徴点を代表特徴点や特徴抽出点などの少ない特徴点に限定している。これにより照合候補を決定する処理を軽減することができる。
 また照合処理においても照合候補として特定した探索先指紋画像のみを用いて認証指紋画像との照合処理を行うため、処理を軽減することができる。
 上述の説明において指紋処理装置1は、図10~図12を用いて説明した類似度の計算と、図13~図16を用いて説明した類似度の計算との何れかを行うものとして説明した。ただし、両方の類似度の計算を行って、それぞれ類似度の高い照合候補が特定されてもよい。
 図17は指紋処理装置の最少構成を示す図である。
 この図で示すように指紋処理装置1は少なくとも、照合元の指紋画像において特定した指紋の特徴点のうち、他の特徴点との間の距離が長いことを示す第一度合に基づいて当該第一度合の値が大きい複数の特徴点を、指紋照合に用いる代表特徴点と判定する照合処理部25を有している。
 なお本実施形態による指紋処理装置1は、少なくとも上記の照合処理部25の機能を備えた照合処理回路であると定義されてもよい。
 上述の指紋処理装置1は内部に、コンピュータシステムを有している。そして、指紋処理装置1に上述した各処理を行わせるためのプログラムは、当該指紋処理装置1のコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムを指紋処理装置1のコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD-ROM、DVD-ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。
 また、上記プログラムは、前述した各処理部の機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
 照合元の指紋画像において特定した指紋の特徴点のうち、他の特徴点との間の第一の距離を示す第一度合に基づいて当該第一度合の値が大きい複数の特徴点を、前記指紋の照合処理に用いる代表特徴点として判定する照合処理部を有する、
 指紋処理装置。
(付記2)
 前記照合処理部は、前記特徴点のうち、前記指紋画像において特定された画像の鮮明度が所定値より低い画素領域までの第二の距離を示す第二度合にさらに基づいて当該第二度合の値が大きい前記複数の特徴点を、前記代表特徴点として判定する、
 付記1に記載の指紋処理装置。
(付記3)
 前記照合処理部は、前記第一度合に、前記第二度合を乗じた値に基づいて代表度を算出し、当該代表度にさらに基づいて前記代表特徴点を判定する、
 付記2に記載の指紋処理装置。
(付記4)
 前記照合処理部は、前記特徴点に対応する画素における隆線の安定度合をさらに用いて前記代表度を算出し、当該代表度に基づいて前記代表特徴点を判定する、
 付記3に記載の指紋処理装置。
(付記5)
 前記照合処理部は、前記代表度の高い複数の前記代表特徴点を判定し、前記照合元の指紋画像における当該複数の代表特徴点と、照合先の指紋画像における複数の代表特徴点とを用いて前記照合処理を行う、
 付記3または付記4に記載の指紋処理装置。
(付記6)
 前記照合処理部は、
 前記複数の前記代表特徴点それぞれについて、当該代表特徴点から延びる隆線の代表延伸方向を特定し、前記代表特徴点に基づいて決定される近傍特徴点までの距離と、当該近傍特徴点から延びる隆線の延伸方向と、当該近傍特徴点の前記代表度とに基づいて決定される特徴量を付与し、
 前記代表特徴点それぞれに付与した前記特徴量を用いて、前記照合元の指紋画像における前記複数の代表特徴点と、前記照合先の指紋画像における前記複数の代表特徴点とに基づく前記指紋の前記照合処理を行う、
 付記5に記載の指紋処理装置。
(付記7)
 前記代表特徴点に基づいて決定される前記近傍特徴点は、前記代表特徴点の前記代表延伸方向を基準として前記代表特徴点を原点とする8象限の領域それぞれにおける当該代表特徴点に近傍の特徴点である、
 付記6に記載の指紋処理装置。
(付記8)
 前記照合処理部は、
 前記複数の前記代表特徴点それぞれについて、当該代表特徴点から延びる隆線の代表延伸方向を特定し、前記代表特徴点に基づいて決定される近傍特徴点から延びる隆線の延伸方向と前記代表延伸方向との一致度が高いことを示す当該近傍特徴点の画素値、及び、前記近傍特徴点から延びる前記隆線の前記延伸方向と前記代表延伸方向との一致度が低いことを示す当該近傍特徴点の画素値を有する隆線延伸方向判定画像を生成し、前記隆線延伸方向判定画像において前記代表特徴点の位置を基準とした所定位置の複数の画素値を示す特徴量を付与し、
 前記代表特徴点それぞれに付与した前記特徴量を用いて、前記照合元の指紋画像における前記複数の代表特徴点と、前記照合先の指紋画像における前記複数の代表特徴点とに基づく前記指紋の前記照合処理を行う、
 付記5に記載の指紋処理装置。
(付記9)
 照合元の指紋画像において特定した指紋の特徴点のうち、他の特徴点との間の第一の距離を示す第一度合に基づいて当該第一度合の値が大きい複数の特徴点を、前記指紋の照合処理に用いる代表特徴点として判定する、
 指紋処理方法。
(付記10)
 コンピュータに、
 照合元の指紋画像において特定した指紋の特徴点のうち、他の特徴点との間の第一の距離を示す第一度合に基づいて当該第一度合の値が大きい複数の特徴点を、前記指紋の照合処理に用いる代表特徴点として判定する、
 処理を実行させるプログラム。
(付記11)
 照合元の指紋画像において特定した指紋の特徴点のうち、他の特徴点との間の第一の距離を示す第一度合に基づいて当該第一度合の値が大きい複数の特徴点を、前記指紋の照合処理に用いる代表特徴点として判定する照合処理回路を有する、
 指紋処理回路。
 この出願は、2016年10月19日に日本出願された特願2016-204835号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 本発明によれば、指紋の中心を特定せずとも速度が速く照合することのできる指紋処理装置、指紋処理方法、プログラムを提供することができる。
1・・・指紋処理装置
2・・・指紋読取機
3・・・データベース
11・・・CPU
12・・・RAM
13・・・ROM
14・・・SSD
15・・・通信モジュール
16・・・表示画面
17・・・IF(インタフェース)
21・・・画像取得部
22・・・鮮明度判定部
23・・・隆線品質判定部
24・・・特徴点検出部
25・・・照合処理部

Claims (11)

  1.  照合元の指紋画像において特定した指紋の特徴点のうち、他の特徴点との間の第一の距離を示す第一度合に基づいて当該第一度合の値が大きい複数の特徴点を、前記指紋の照合処理に用いる代表特徴点として判定する照合処理部を有する、
     指紋処理装置。
  2.  前記照合処理部は、前記特徴点のうち、前記指紋画像において特定された画像の鮮明度が所定値より低い画素領域までの第二の距離を示す第二度合にさらに基づいて当該第二度合の値が大きい前記複数の特徴点を、前記代表特徴点として判定する、
     請求項1に記載の指紋処理装置。
  3.  前記照合処理部は、前記第一度合に、前記第二度合を乗じた値に基づいて代表度を算出し、当該代表度にさらに基づいて前記代表特徴点を判定する、
     請求項2に記載の指紋処理装置。
  4.  前記照合処理部は、前記特徴点に対応する画素における隆線の安定度合をさらに用いて前記代表度を算出し、当該代表度に基づいて前記代表特徴点を判定する、
     請求項3に記載の指紋処理装置。
  5.  前記照合処理部は、前記代表度の高い複数の前記代表特徴点を判定し、前記照合元の指紋画像における当該複数の代表特徴点と、照合先の指紋画像における複数の代表特徴点とを用いて前記照合処理を行う、
     請求項3または請求項4に記載の指紋処理装置。
  6.  前記照合処理部は、
     前記複数の前記代表特徴点それぞれについて、当該代表特徴点から延びる隆線の代表延伸方向を特定し、前記代表特徴点に基づいて決定される近傍特徴点までの距離と、当該近傍特徴点から延びる隆線の延伸方向と、当該近傍特徴点の前記代表度とに基づいて決定される特徴量を付与し、
     前記代表特徴点それぞれに付与した前記特徴量を用いて、前記照合元の指紋画像における前記複数の代表特徴点と、前記照合先の指紋画像における前記複数の代表特徴点とに基づく前記指紋の前記照合処理を行う、
     請求項5に記載の指紋処理装置。
  7.  前記代表特徴点に基づいて決定される前記近傍特徴点は、前記代表特徴点の前記代表延伸方向を基準として前記代表特徴点を原点とした8象限の領域それぞれにおける当該代表特徴点に近傍の特徴点である、
     請求項6に記載の指紋処理装置。
  8.  前記照合処理部は、
     前記複数の前記代表特徴点それぞれについて、当該代表特徴点から延びる隆線の代表延伸方向を特定し、前記代表特徴点に基づいて決定される近傍特徴点から延びる隆線の延伸方向と前記代表延伸方向との一致度が高いことを示す当該近傍特徴点の画素値、及び、前記近傍特徴点から延びる前記隆線の前記延伸方向と前記代表延伸方向との一致度が低いことを示す当該近傍特徴点の画素値を有する隆線延伸方向判定画像を生成し、前記隆線延伸方向判定画像において前記代表特徴点の位置を基準とした所定位置の複数の画素値を示す特徴量を付与し、
     前記代表特徴点それぞれに付与した前記特徴量を用いて、前記照合元の指紋画像における前記複数の代表特徴点と、前記照合先の指紋画像における前記複数の代表特徴点とに基づく前記指紋の前記照合処理を行う、
     請求項5に記載の指紋処理装置。
  9.  照合元の指紋画像において特定した指紋の特徴点のうち、他の特徴点との間の第一の距離を示す第一度合に基づいて当該第一度合の値が大きい複数の特徴点を、前記指紋の照合処理に用いる代表特徴点として判定する、
     指紋処理方法。
  10.  コンピュータに、
     照合元の指紋画像において特定した指紋の特徴点のうち、他の特徴点との間の第一の距離を示す第一度合に基づいて当該第一度合の値が大きい複数の特徴点を、前記指紋の照合処理に用いる代表特徴点として判定する、
     処理を実行させるプログラム。
  11.  照合元の指紋画像において特定した指紋の特徴点のうち、他の特徴点との間の第一の距離を示す第一度合に基づいて当該第一度合の値が大きい複数の特徴点を、前記指紋の照合処理に用いる代表特徴点として判定する照合処理回路を有する、
     指紋処理回路。
PCT/JP2017/033041 2016-10-19 2017-09-13 指紋処理装置、指紋処理方法、プログラム、指紋処理回路 WO2018074110A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US16/342,705 US10936849B2 (en) 2016-10-19 2017-09-13 Fingerprint processing device, fingerprint processing method, program, and fingerprint processing circuit
EP17862903.6A EP3531372A4 (en) 2016-10-19 2017-09-13 DEVICE FOR PROCESSING FINGERPRINTS, PROCESS FOR PROCESSING FINGERPRINTS, PROGRAM AND FINGERPRINT PROCESSING CIRCUIT
US17/162,116 US11631274B2 (en) 2016-10-19 2021-01-29 Fingerprint processing device, fingerprint processing method, program, and fingerprint processing circuit
US18/121,880 US12020503B2 (en) 2016-10-19 2023-03-15 Fingerprint processing device, fingerprint processing method, program, and fingerprint processing circuit

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016204835A JP6794766B2 (ja) 2016-10-19 2016-10-19 指紋処理装置、指紋処理方法、プログラム、指紋処理回路
JP2016-204835 2016-10-19

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/342,705 A-371-Of-International US10936849B2 (en) 2016-10-19 2017-09-13 Fingerprint processing device, fingerprint processing method, program, and fingerprint processing circuit
US17/162,116 Continuation US11631274B2 (en) 2016-10-19 2021-01-29 Fingerprint processing device, fingerprint processing method, program, and fingerprint processing circuit

Publications (1)

Publication Number Publication Date
WO2018074110A1 true WO2018074110A1 (ja) 2018-04-26

Family

ID=62018550

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/033041 WO2018074110A1 (ja) 2016-10-19 2017-09-13 指紋処理装置、指紋処理方法、プログラム、指紋処理回路

Country Status (4)

Country Link
US (2) US10936849B2 (ja)
EP (1) EP3531372A4 (ja)
JP (1) JP6794766B2 (ja)
WO (1) WO2018074110A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9443298B2 (en) 2012-03-02 2016-09-13 Authentect, Inc. Digital fingerprinting object authentication and anti-counterfeiting system
US20220091578A1 (en) * 2012-03-02 2022-03-24 Alitheon, Inc. Additive manufacturing part authentication system and method
US10346852B2 (en) 2016-02-19 2019-07-09 Alitheon, Inc. Preserving authentication under item change
US10740767B2 (en) 2016-06-28 2020-08-11 Alitheon, Inc. Centralized databases storing digital fingerprints of objects for collaborative authentication
US10915612B2 (en) 2016-07-05 2021-02-09 Alitheon, Inc. Authenticated production
US10839528B2 (en) 2016-08-19 2020-11-17 Alitheon, Inc. Authentication-based tracking
US11087013B2 (en) 2018-01-22 2021-08-10 Alitheon, Inc. Secure digital fingerprint key object database
CN111222366A (zh) 2018-11-26 2020-06-02 上海耕岩智能科技有限公司 一种指纹识别方法及装置、存储介质、终端
CN111259691B (zh) * 2018-11-30 2024-01-19 上海耕岩智能科技有限公司 一种生物特征分析方法及存储介质
US10963670B2 (en) 2019-02-06 2021-03-30 Alitheon, Inc. Object change detection and measurement using digital fingerprints
EP3736717A1 (en) 2019-05-10 2020-11-11 Alitheon, Inc. Loop chain digital fingerprint method and system
US11238146B2 (en) 2019-10-17 2022-02-01 Alitheon, Inc. Securing composite objects using digital fingerprints
EP3859603A1 (en) 2020-01-28 2021-08-04 Alitheon, Inc. Depth-based digital fingerprinting
EP3885984A1 (en) 2020-03-23 2021-09-29 Alitheon, Inc. Facial biometrics system and method of using digital fingerprints
EP3929806A3 (en) 2020-04-06 2022-03-09 Alitheon, Inc. Local encoding of intrinsic authentication data

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0498468A (ja) * 1990-08-11 1992-03-31 Omron Corp 指紋照合装置における特徴点選別方法
JPH10177650A (ja) 1996-12-16 1998-06-30 Nec Corp 画像特徴抽出装置,画像特徴解析装置,および画像照合システム
JP2001307102A (ja) * 2000-04-27 2001-11-02 Fujitsu Ltd 生体情報を用いた個人認証システムおよび方法並びに同システム用登録装置,認証装置およびパターン情報入力媒体
JP2001344604A (ja) * 2000-03-31 2001-12-14 Fujitsu Ltd 指紋データ合成方法,指紋データ合成装置,指紋データ合成プログラムおよび同プログラムを記録したコンピュータ読取可能な記録媒体並びに生体特徴データ合成方法
JP2006277146A (ja) * 2005-03-28 2006-10-12 Sanyo Electric Co Ltd 照合方法および照合装置
JP2007328502A (ja) * 2006-06-07 2007-12-20 Hitachi Information & Control Solutions Ltd 生体認証方法及びシステム
JP2011141744A (ja) * 2010-01-07 2011-07-21 Nec Infrontia Corp 指紋特徴量抽出装置、指紋入力装置、指紋認証装置、及び指紋特徴量抽出方法
JP5822303B2 (ja) 2012-02-17 2015-11-24 Necソリューションイノベータ株式会社 指紋品質評価装置、指紋品質評価方法、指紋品質評価プログラム
JP2015228070A (ja) 2014-05-30 2015-12-17 日本電気株式会社 指紋画像処理装置、指紋画像処理方法及びプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2865528B2 (ja) * 1993-08-11 1999-03-08 株式会社山武 指紋照合装置
US6072895A (en) * 1996-12-13 2000-06-06 International Business Machines Corporation System and method using minutiae pruning for fingerprint image processing
US6041133A (en) * 1996-12-13 2000-03-21 International Business Machines Corporation Method and apparatus for fingerprint matching using transformation parameter clustering based on local feature correspondences
US6233348B1 (en) * 1997-10-20 2001-05-15 Fujitsu Limited Fingerprint registering apparatus, fingerprint identifying apparatus, and fingerprint identifying method
US7986820B2 (en) * 2001-10-19 2011-07-26 Mitsubishi Electric Research Laboratories, Inc. Method for comparing features extracted from images of fingerprints
JP2005346518A (ja) 2004-06-04 2005-12-15 Dainippon Printing Co Ltd 個人認証方法
JP4592341B2 (ja) 2004-06-29 2010-12-01 セコム株式会社 生体情報認証装置
US20070036400A1 (en) * 2005-03-28 2007-02-15 Sanyo Electric Co., Ltd. User authentication using biometric information
JP5120013B2 (ja) * 2008-03-27 2013-01-16 富士通株式会社 認証装置、認証方法及び認証プログラム
WO2010119500A1 (ja) 2009-04-13 2010-10-21 富士通株式会社 生体情報登録装置、生体情報登録方法及び生体情報登録用コンピュータプログラムならびに生体認証装置、生体認証方法及び生体認証用コンピュータプログラム
JP5287550B2 (ja) * 2009-07-01 2013-09-11 富士通株式会社 生体認証システム,生体認証方法,生体認証装置,生体情報処理装置,生体認証プログラムおよび生体情報処理プログラム
EP2477157A4 (en) * 2009-09-09 2015-08-12 Nec Corp BIOMETRIC AUTHENTICATION SYSTEM AND METHOD AND PROGRAM THEREFOR
JP5754502B2 (ja) * 2011-03-17 2015-07-29 富士通株式会社 生体情報取得装置、生体情報照合装置、及びプログラム
WO2012127630A1 (ja) 2011-03-22 2012-09-27 富士通株式会社 生体認証システム、生体認証方法及び生体認証プログラム
JP6187262B2 (ja) * 2014-01-06 2017-08-30 富士通株式会社 生体情報処理装置、生体情報処理方法及び生体情報処理用コンピュータプログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0498468A (ja) * 1990-08-11 1992-03-31 Omron Corp 指紋照合装置における特徴点選別方法
JPH10177650A (ja) 1996-12-16 1998-06-30 Nec Corp 画像特徴抽出装置,画像特徴解析装置,および画像照合システム
JP2001344604A (ja) * 2000-03-31 2001-12-14 Fujitsu Ltd 指紋データ合成方法,指紋データ合成装置,指紋データ合成プログラムおよび同プログラムを記録したコンピュータ読取可能な記録媒体並びに生体特徴データ合成方法
JP2001307102A (ja) * 2000-04-27 2001-11-02 Fujitsu Ltd 生体情報を用いた個人認証システムおよび方法並びに同システム用登録装置,認証装置およびパターン情報入力媒体
JP2006277146A (ja) * 2005-03-28 2006-10-12 Sanyo Electric Co Ltd 照合方法および照合装置
JP2007328502A (ja) * 2006-06-07 2007-12-20 Hitachi Information & Control Solutions Ltd 生体認証方法及びシステム
JP2011141744A (ja) * 2010-01-07 2011-07-21 Nec Infrontia Corp 指紋特徴量抽出装置、指紋入力装置、指紋認証装置、及び指紋特徴量抽出方法
JP5822303B2 (ja) 2012-02-17 2015-11-24 Necソリューションイノベータ株式会社 指紋品質評価装置、指紋品質評価方法、指紋品質評価プログラム
JP2015228070A (ja) 2014-05-30 2015-12-17 日本電気株式会社 指紋画像処理装置、指紋画像処理方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3531372A4

Also Published As

Publication number Publication date
US10936849B2 (en) 2021-03-02
EP3531372A4 (en) 2019-09-25
JP6794766B2 (ja) 2020-12-02
JP2018067120A (ja) 2018-04-26
US20230222831A1 (en) 2023-07-13
US20210150173A1 (en) 2021-05-20
US20190266373A1 (en) 2019-08-29
EP3531372A1 (en) 2019-08-28
US11631274B2 (en) 2023-04-18

Similar Documents

Publication Publication Date Title
WO2018074110A1 (ja) 指紋処理装置、指紋処理方法、プログラム、指紋処理回路
CN109615611B (zh) 一种基于巡检影像的绝缘子自爆缺陷检测方法
JP4970195B2 (ja) 人物追跡システム、人物追跡装置および人物追跡プログラム
CN110765992B (zh) 印章鉴别方法、介质、设备及装置
CN101383005A (zh) 一种利用辅助规则纹理的乘客目标图像和背景分离方法
JPH09185676A (ja) 罫線除去方法
JP2009163682A (ja) 画像識別装置及びプログラム
KR20110021500A (ko) 이동객체의 실시간 추적과 거리 측정 방법 및 그 장치
CN110348307B (zh) 一种起重机金属结构攀爬机器人的路径边缘识别方法及系统
EP2299388A2 (en) Apparatus and method for detecting face
KR101277737B1 (ko) 다중 마커의 배열을 이용하는 증강현실 시스템 및 그 방법
KR20180025135A (ko) 단일 이미지를 사용한 내벽 구조 검출 장치 및 방법
JP6591257B2 (ja) 画像処理装置、画像処理方法及びプログラム
US10140509B2 (en) Information processing for detection and distance calculation of a specific object in captured images
JP2898562B2 (ja) ナンバープレート決定方法
JP2013254242A (ja) 画像認識装置、画像認識方法および画像認識プログラム
JP4775957B2 (ja) 顔検出装置
JP7239034B2 (ja) 指紋処理装置、指紋処理方法、プログラム、指紋処理回路
JP7031717B2 (ja) 指紋処理装置、指紋処理方法、プログラム、指紋処理回路
US12020503B2 (en) Fingerprint processing device, fingerprint processing method, program, and fingerprint processing circuit
KR101357581B1 (ko) 깊이 정보 기반 사람의 피부 영역 검출 방법
JP2017138743A (ja) 画像処理装置、画像処理方法及びプログラム
JP6688091B2 (ja) 車両距離導出装置および車両距離導出方法
Huang et al. Disparity refinement of building edges using robustly matched straight lines for stereo matching
Shioyama et al. Detection of pedestrian crossings with projective invariants from image data

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17862903

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017862903

Country of ref document: EP

Effective date: 20190520