WO2017038695A1 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
WO2017038695A1
WO2017038695A1 PCT/JP2016/075018 JP2016075018W WO2017038695A1 WO 2017038695 A1 WO2017038695 A1 WO 2017038695A1 JP 2016075018 W JP2016075018 W JP 2016075018W WO 2017038695 A1 WO2017038695 A1 WO 2017038695A1
Authority
WO
WIPO (PCT)
Prior art keywords
feature
feature point
point
points
image processing
Prior art date
Application number
PCT/JP2016/075018
Other languages
English (en)
French (fr)
Inventor
原 雅範
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2017537850A priority Critical patent/JP6569734B2/ja
Publication of WO2017038695A1 publication Critical patent/WO2017038695A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • A61B5/1172Identification of persons based on the shapes or appearances of their bodies or parts thereof using fingerprinting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the present invention is based on the priority claim of Japanese patent application: Japanese Patent Application No. 2015-168470 (filed on August 28, 2015), the entire contents of which are incorporated herein by reference. Shall.
  • the present invention relates to an image processing apparatus, an image processing method, and a program.
  • the present invention relates to an image processing apparatus, an image processing method, and a program for processing image data having a curved stripe pattern such as a fingerprint image.
  • Fingerprints and palm prints composed of a large number of ridges with a curved stripe pattern have long been used as a means for human identification.
  • verification using a residual fingerprint left at the crime scene is an effective investigation means.
  • Many police agencies have introduced a fingerprint verification system (AFIS: Automated Fingerprint Identification System) using a computer.
  • AFIS Automated Fingerprint Identification System
  • the fingerprint image registered in the database is compared with the feature points (also called Minutia) of each retained fingerprint collected at the crime scene, and the person corresponding to the retained fingerprint is identified.
  • the end points and branch points of fingerprint ridges are often used as feature points (fingerprint feature points) used for fingerprint verification.
  • feature points fingerprint feature points
  • feature point matching using the end points and branch points of fingerprint ridges is used.
  • Non-Patent Document 2 describes such descriptive terms as core, delta, and core hoof (innermost recover or loop).
  • a feature point direction is described as a feature amount characterizing the direction of a feature point (branch point, end point).
  • the feature amount characterizing the fingerprint image not only the position of the end point and the branch point but also the feature amount related to the direction as disclosed in Patent Document 1 is often used.
  • feature points end points, branch points
  • FIG. 45 (b) the result is as shown in FIG. 45 (b).
  • the end points of the ridges are indicated by circles and the branch points are indicated by squares.
  • FIG. 45 (b) three end points and branch points are extracted from the fingerprint image of FIG. 45 (a). In addition, for each end point and branch point, a feature amount regarding the direction of each feature point is calculated. In FIG. 45 (b), a short line extending from each of the end points and the branch points indicates the calculated feature amount regarding the direction of the feature point.
  • the position of each feature point and its direction are often calculated as the feature quantity (feature quantity vector) that characterizes each fingerprint image. Since many end points and branch points are scattered throughout the fingerprint image, the position and direction of each feature point scattered in the fingerprint image is calculated as a feature amount.
  • a feature amount related to the direction of a feature point (hereinafter referred to as a feature point direction) cannot be stably calculated in a part of the fingerprint image. Specifically, it has been found that in the regions such as the core region and the delta region of the fingerprint image, the feature point direction cannot be calculated stably from the feature points included in these regions.
  • FIG. 46 is a diagram showing a partial region of the fingerprint image.
  • a core region 701 and a delta region 702 are shown.
  • An area 703 is an area other than the core area and the delta area. 46, it can be seen that the fluctuation in the ridge direction in the core region 701 and the delta region 702 is much larger than that in the other regions 703.
  • the region 703 it can be confirmed that all the ridges flow in substantially the same direction from the upper left to the lower right, whereas in the core region 701, the direction of the ridge greatly changes to an acute angle. .
  • region 702 it can confirm that each ridge branches in three directions starting from the center point.
  • the angle difference at the three inner angles formed by the three ridges is used.
  • the angle difference is large, and even if the ridge direction fluctuates due to the influence of noise or the like, the influence on the angle difference is small.
  • the feature point direction is stably calculated from the feature points existing in the regions other than the core region and the delta region.
  • the core region and the delta region are regions in which the ridge direction can change greatly, so that the three ridges that form a branch point are affected by the influence of noise and the difference in the image processing method.
  • the relationship between the lines can easily change.
  • the angle difference at the three inner angles formed by the three ridges also varies, and the feature point direction calculated based on the angle difference is not stable.
  • the feature point direction cannot be stably calculated in the core region and the delta region.
  • the feature point direction which is one of the feature quantities that characterize a fingerprint image, cannot be calculated stably, even if it is a fingerprint image (versus-fingerprint image) of the same person taken at different times, places, etc., the corresponding feature The feature point directions of the points will be different.
  • the feature points that are originally paired are determined to be non-paired feature points, and the matching score deteriorates (matching accuracy deteriorates).
  • An object of the present invention is to provide an image processing apparatus, an image processing method, and a program for calculating a feature amount that contributes to accuracy improvement in fingerprint matching.
  • an image input unit that inputs an image in which a curved stripe pattern is formed by ridges, and first and second feature point directions that characterize feature points extracted from the image.
  • An image processing apparatus comprising: a feature amount calculation unit that calculates, and a feature amount output unit that outputs the calculated first and second feature point directions as the feature amounts of the extracted feature points.
  • a step of inputting an image in which a curved stripe pattern is formed by ridges, and first and second feature point directions that characterize feature points extracted from the image are calculated.
  • an image processing method comprising: a step; and outputting the calculated first and second feature point directions as feature quantities of the extracted feature points.
  • a process of inputting an image in which a curved stripe pattern is formed by ridges, and first and second feature point directions that characterize feature points extracted from the image are calculated.
  • a program for causing a computer mounted on an image processing apparatus to execute a process and a process of outputting the calculated first and second feature point directions as feature quantities of the extracted feature points can be recorded on a computer-readable storage medium.
  • the storage medium can be non-transient such as a semiconductor memory, a hard disk, a magnetic recording medium, an optical recording medium, or the like.
  • the present invention can also be embodied as a computer program product.
  • an image processing device an image processing method, and a program that contribute to calculating a feature value that contributes to accuracy improvement in fingerprint matching.
  • FIG. 5 is a flowchart illustrating an example of an operation of a feature amount calculation unit 13. It is a figure which shows an example of the 1st and 2nd feature point direction. It is a figure which shows an example of the 1st and 2nd feature point direction. It is a figure for demonstrating the calculation of the 2nd feature point direction from the branch point which exists in a delta area
  • the image processing apparatus 100 includes an image input unit 101, a feature amount calculation unit 102, and a feature amount output unit 103.
  • the image input unit 101 inputs an image in which a curved stripe pattern is formed by ridges.
  • the feature amount calculation unit 102 calculates first and second feature point directions that characterize feature points extracted from the image.
  • the feature amount output unit 103 outputs the calculated first and second feature point directions as feature amounts of the extracted feature points.
  • the feature point direction cannot be stably calculated from the feature points of the core region and the delta region, and the feature points existing in these regions are not effectively used in the feature point matching. That is, by not using the feature points such as the core region, the collation accuracy in the fingerprint image (particularly, the small region retained fingerprint) whose main region is the core region or the delta region is deteriorated. Therefore, in the image processing apparatus according to the embodiment, when it is determined that the feature point direction cannot be stably calculated, the second feature is added to the normally used feature point direction (first feature point direction). Calculate the point direction. Characterizing a feature point using two directions improves the accuracy of matching between the feature points having the two feature point directions.
  • At least one of the two feature point directions of one feature point matches one of the two feature point directions of the other feature points, etc. If the relationship can be detected, it is possible to handle the two feature points as feature points. As a result, it is possible to improve the collation accuracy of fingerprint images, in particular, the collation accuracy of fingerprint images whose main area is the core area or delta area.
  • FIG. 2 is a diagram illustrating an example of the configuration of the fingerprint matching system according to the first embodiment.
  • the fingerprint collation system includes a feature quantity generation device 10, a database 20, an input device 30, and a collation device 40.
  • the feature quantity generation device 10 inputs data relating to a fingerprint image and its ID (Identifier) information, and generates a feature quantity (feature quantity vector) that characterizes the inputted fingerprint image.
  • the feature amount generation device 10 outputs the generated feature amount together with the fingerprint image ID information to the database 20.
  • the database 20 stores the feature quantity of the fingerprint image and its ID information in association with each other.
  • the input device 30 is, for example, a device used by an inspector.
  • the input device 30 is a device that accepts an operation by a pointing device such as a mouse or a tablet, for example, and an expert officer inputs a feature amount.
  • the input device 30 outputs the feature amount input by the inspector to the verification device 40 together with the ID information of the fingerprint image.
  • the collation device 40 executes a collation process using the feature amount input by the inspector (the feature amount output from the input device 30). Specifically, the collation device 40 compares the feature amount input by the inspector with the feature amount obtained by accessing the database 20, thereby the feature that is the same as or similar to the feature amount input by the inspector. Identify fingerprint images with volume.
  • the imprinted fingerprint is a fingerprint collected for the purpose of registering in a database or the like, and has a feature that the area of the ridge region is wide and the quality is good.
  • a deceased fingerprint is a fingerprint detained at a crime scene or the like, and has a feature that the area of a clear ridge region is narrow and the quality is often low.
  • a forensic officer In order to obtain a highly reliable feature quantity, a forensic officer often inputs a feature quantity for a remnant fingerprint.
  • the feature amount generation device 10 inputs an image related to a fingerprint, and the fingerprint image that the inspector inputs the feature amount in the input device 30 is an image related to a retained fingerprint. And
  • the feature quantity generation device 10 may generate a feature quantity from the retained fingerprint and provide the feature quantity to the collation device 40, or an inspector may extract the feature quantity from the imprinted fingerprint.
  • the fingerprints to be collated may be either imprinted fingerprints or retained fingerprints.
  • the above-described configuration is adopted in the first embodiment in consideration of the fact that the remnant fingerprint and the fingerprint are often collated.
  • FIG. 3 is a diagram illustrating an example of an internal configuration of the feature value generation apparatus 10.
  • the feature quantity generation device 10 includes a fingerprint image input unit 11, a core line image extraction unit 12, a feature quantity calculation unit 13, a feature quantity output unit 14, and a storage unit 15. Is done.
  • Each unit such as the fingerprint image input unit 11 is configured to be able to exchange data with each other, and can access data stored in the storage unit 15.
  • the fingerprint image input unit 11 is a means for inputting data relating to a fingerprint image (an image in which a curved stripe pattern is formed by ridges) and ID information of the fingerprint image from the outside.
  • the fingerprint image input unit 11 takes in digital data (image file) of a fingerprint image stored in an external storage medium such as a USB (Universal Serial Bus) memory, and delivers the data to the core image extraction unit 12.
  • the fingerprint image input unit 11 may input data relating to a fingerprint image via a network.
  • the digitized fingerprint image may be acquired by mounting the scanner function in the fingerprint image input unit 11 instead of inputting the digitized fingerprint image by a scanner or the like.
  • the fingerprint image input unit 11 can handle a digitized fingerprint image (for example, a fingerprint image having a resolution of 500 dpi) based on the above standard.
  • the storage unit 15 is configured by a medium such as a RAM (Random Access Memory), a ROM (Read Only Memory), an HDD (Hard Disk Drive), and the like, and each unit such as the core image extraction unit 12 stores a work area and data.
  • a medium such as a RAM (Random Access Memory), a ROM (Read Only Memory), an HDD (Hard Disk Drive), and the like, and each unit such as the core image extraction unit 12 stores a work area and data.
  • the core image extraction unit 12 is a means for extracting a core image from the acquired fingerprint image. For example, the core image extraction unit 12 extracts a core image as shown in FIG.
  • the core image extraction unit 12 can use the core image extraction method disclosed in “3 Fingerprint Analysis and Representation” of Non-Patent Document 1. Therefore, although detailed description regarding the extraction of the core line image is omitted, the core line image extraction unit 12 extracts the core line image in the following general procedure.
  • the core line image extraction unit 12 extracts the direction of the ridge of the fingerprint image. Thereafter, the core image extraction unit 12 emphasizes each ridge along the ridge direction and generates a binary image. Thereafter, the core image extraction unit 12 extracts a core image (core data) by converting the binary image into a core.
  • the feature amount calculation unit 13 is a means for extracting a feature point from the core image and calculating a feature amount that characterizes the feature point.
  • the feature amount calculated by the feature amount calculation unit 13 includes the position of the feature point (end point, branch point) and the feature point direction that characterizes the feature point according to the direction.
  • the feature quantity calculation unit 13 extracts feature points by extracting branch points and end points of the core line from the core line image extracted by the core line image extraction unit 12. Note that a feature point extraction method disclosed in “3 Fingerprint Analysis and Representation” of Non-Patent Document 1 can be used as a procedure for extracting feature points from a core image. Therefore, the detailed description regarding feature point extraction is abbreviate
  • the feature amount calculation unit 13 extracts a singular point (core type singular point or delta type singular point) of a fingerprint image and extracts it as one of the feature amounts.
  • the feature quantity calculation unit 13 extracts branch points 201 and 202 and end points 211 and 212 as shown in FIG. 4 as feature points, and stores the position of each feature point and its type (branch point and end point). 15 to register.
  • the three end points 231 to 233 are determined by tracing each of the three ridges (core lines) forming the branch point 203 by a certain distance from the branch point 203 (tracing back on the ridge line) (FIG. 5). (See (b)).
  • the smaller angle is defined as the inner angle
  • the larger angle is defined as the outer angle.
  • the one with the smallest angle is the smallest interior angle
  • the one with the second smallest angle is the second smallest interior angle
  • the larger one is defined as the maximum interior angle.
  • the angle a1 is the minimum interior angle and the angle a2 is smaller than the angle a3, the angle a2 is the second minimum interior angle.
  • the end point 234 is calculated by tracing a certain distance from the end point 213 on the ridge (core line) forming the end point.
  • the direction from the end point 213 toward the end point 234 is calculated as the feature point direction of the end point 213.
  • a feature point direction including first and second feature point directions which will be described later, is formed by an X axis in a two-dimensional coordinate system in a fingerprint image and a straight line by the feature point direction, as shown in FIG. It is expressed as a feature value using the angle ⁇ .
  • the trace distance when calculating branch points and end points is an important parameter that greatly affects the calculated feature point direction.
  • two ridge intervals are set as the trace distance.
  • the trace distance is not limited to this.
  • the feature point direction of the feature point is calculated by the method described with reference to FIG. 5 and FIG. 6, but the calculated feature point is calculated in the core region (near the fingerprint center point) and the delta region (delta region). There is a problem that the direction becomes unstable. The reason will be described with reference to FIG. Note that the fingerprint image shown in FIG. 8A is an extract of the core region.
  • the angle difference between the minimum internal angle a1 and the second minimum internal angle a2 is small among the three internal angles. This means that the relationship between the minimum interior angle and the second minimum interior angle can be reversed if the various factors that define the three interior angles vary even slightly. For example, even in the same fingerprint image, there is a possibility that the direction of the feature point may vary greatly due to a slight difference in binarization and core processing applied to the fingerprint image.
  • FIG. 9 is a diagram showing an example of a remains fingerprint image.
  • FIGS. 10A and 10D are enlarged views of the periphery of the branch point 205 of the fingerprint image shown in FIG. 10A and 10D, the fingerprint image is subjected to different types of core processing, and the results are displayed in an overlapping manner.
  • FIG. 10B is a diagram in which the core wire is extracted from FIG. 10A
  • FIG. 10E is a diagram in which the core wire is extracted from FIG. 10D.
  • the direction of the feature point of the branch point existing in the core region varies greatly due to a slight difference in the core line even with the same retained fingerprint.
  • the difference in the feature point direction between the paired feature points on the search side and the file side becomes large, which can be a factor that lowers the matching score or causes pairing to fail.
  • the angle difference between the three interior angles formed by the straight lines connecting the branch point and the three terminal points is smaller than that of the core region.
  • the three interior angles are approximately 120 degrees. Therefore, in the delta region, the calculated feature point direction tends to be more unstable.
  • the quality of the residual fingerprint is often low, and is not suitable for automatic extraction of feature points by information processing using a computer.
  • a remnant fingerprint specialist (Lent Examiner) often manually inputs the position of a feature point and the direction of the feature point. Such an input operation is called “feature point manual input”.
  • Even a remnant fingerprint specialist with specialized knowledge cannot easily determine the minimum interior angle at the bifurcation point of the core region or delta region.
  • Different remnant fingerprint specialists specify different feature point directions. Often done. As a result, the feature values on the search side and the file side are different, which is one of the causes of deterioration of collation accuracy.
  • the feature point direction according to the feature point direction calculation method described with reference to FIGS. 5 and 6 is different from the method.
  • the feature point direction by the method is calculated.
  • the feature point direction calculation method described with reference to FIGS. 5 and 6 is referred to as a first calculation method, and the feature point direction calculated by the method is referred to as a first feature point direction. write. Further, a method different from the first calculation method described below is referred to as a second calculation method, and a feature point direction calculated by the method is referred to as a second feature point direction (Secondary Direction).
  • FIG. 11 is a flowchart showing an example of the operation of the feature amount calculation unit 13. With reference to FIG. 11, a second calculation method mainly related to the feature point direction will be described.
  • step S101 the feature amount calculation unit 13 extracts feature points from the acquired core image, and registers the position and type in the storage unit 15. Thereafter, the feature amount calculation unit 13 calculates the feature point direction of each feature point scattered in the core line image by executing the processing after step S102.
  • step S102 the feature amount calculation unit 13 checks whether the feature point that is the target of the feature point direction calculation is a branch point or an end point.
  • step S102 Yes branch
  • step S102 the feature amount calculation unit 13 executes the processing according to steps S103 to S105.
  • step S102, No branch the feature amount calculation unit 13 executes the processing according to steps S106 to S116.
  • step S103 the feature amount calculation unit 13 calculates the first feature point direction of the branch point by the first calculation method.
  • the core image shown in FIG. 8B and the three inner angles a1 to a3 are obtained by the first calculation method, and the first feature point direction shown in FIG. 8C is calculated.
  • the feature amount calculation unit 13 calculates a difference value (angle difference) between the second minimum interior angle and the minimum interior angle, and determines whether the difference value is equal to or less than a predetermined threshold value. (Step S104).
  • the difference value is calculated by subtracting the angle of the minimum internal angle a1 from the second minimum internal angle a2.
  • the feature amount calculation unit 13 calculates the second feature point direction of the branch point (step S105). Specifically, the feature amount calculation unit 13 calculates the direction that bisects the second minimum interior angle as the second feature point direction. For example, as shown in FIG. 12, in addition to the first feature point direction 301, a second feature point direction 311 that bisects the second minimum interior angle a2 is calculated. Note that the threshold value (threshold value in step S104) used by the feature amount calculation unit 13 to determine whether or not to calculate the second feature point direction can be set to about 20 degrees to 30 degrees, for example.
  • the feature amount calculation unit 13 calculates the direction that bisects the second minimum internal angle as the second feature point direction when the angle difference between the second minimum internal angle and the minimum internal angle is small (for example, the angle difference is 30 degrees or less). .
  • the difference value is larger than the threshold value (step S104, No branch)
  • the feature amount calculation unit 13 ends the process without calculating the second feature point direction for the branch point.
  • FIG. 13A is a diagram illustrating an example of the first feature point direction and the second feature point direction calculated from the fingerprint image illustrated in FIG. 10A
  • FIG. 13B is a diagram illustrating FIG. It is a figure which shows an example of the 1st feature point direction calculated from the fingerprint image shown, and a 2nd feature point direction.
  • the first feature point direction 302 shown in FIG. 13A and the second feature point direction 313 shown in FIG. 13B match (substantially match; the deviation between the two directions is within a predetermined range)
  • the second feature point direction 312 in FIG. 13A and the first feature point direction 303 in FIG. 13B match (substantially match).
  • the second calculation method described above is a case where the branch point existing in the core region is taken as an example. However, for the branch point existing in the delta region, the direction of the second feature point from the branch point existing in the core region is also determined. It can be calculated in the same way as the calculation.
  • the first feature point direction 304 is calculated by the minimum inner angle a1
  • the second feature point direction 315 is calculated by the second minimum inner angle a2 as the feature point directions characterizing the branch point 321 existing in the delta region. Is done.
  • the feature amount calculation unit 13 selects one of the three interior angles formed by the three ridges forming the branch point (for example, Based on the minimum inner angle a1) shown in FIG. 8B, the first feature point direction is calculated. Further, the feature amount calculation unit 13 is based on a relationship between at least two of the three inner angles (for example, a magnitude relationship between the minimum inner angle a1 and the second minimum inner angle a2 illustrated in FIG. 8B). The second feature point direction is calculated. Specifically, the feature amount calculation unit 13 determines the second feature point when the angle difference between the inner angle having the smallest angle and the inner angle having the second smallest angle is smaller than the threshold among the three inner angles. Calculate the direction.
  • the feature amount calculation unit 13 divides the minimum interior angle into two, the direction toward the terminal point obtained by tracing the ridge is the first feature point direction, and the second minimum interior angle is 2 A direction toward the terminal point obtained by tracing the ridge is defined as a second feature point direction.
  • the feature amount calculation unit 13 calculates the first feature point direction of the end point by the first calculation method (step S106).
  • the feature quantity calculation unit 13 calculates a candidate for the second feature point direction of the end point (step S107). Specifically, the feature amount calculation unit 13 determines a distance (hereinafter referred to as a second trace distance) longer than a normal trace distance from the end point (a trace distance during the first calculation method; hereinafter referred to as a first trace distance). ) Trace on the ridge and calculate two end points by two trace distances. Note that the second trace distance is preferably about twice the first trace distance. For example, referring to FIG. 15, the end point 341 is calculated by the first calculation process, and the end point 342 located at the second trace distance from the end point 331 is calculated. The feature amount calculation unit 13 sets a direction from the end point 331 toward the terminal point 342 according to the second trace distance as a candidate for the second feature point direction.
  • the feature amount calculation unit 13 calculates an internal angle b1 formed from a straight line connecting the end point 331 and the end point 341 and a straight line connecting the end point 331 and the end point 342.
  • the feature amount calculation unit 13 compares the calculated angle (inner angle b1 shown in FIG. 15) with a threshold (for example, 45 degrees) (step S109).
  • the feature amount calculation unit 13 determines the second feature point direction candidate set in step S107 as it is as the second feature point direction (Ste S110). In other words, the feature amount calculation unit 13 changes the end point obtained by the second trace distance from the end point when the interior angle obtained from the two end points calculated corresponding to the two trace distances is larger than the threshold value. Let the direction of the straight line which goes to be a 2nd feature point direction.
  • the end point 343 is obtained by tracing with the first trace distance and the end point 344 is obtained by tracing with the second trace distance.
  • the direction from the end point 332 to the end point 343 is the first feature point direction
  • the direction from the end point 332 to the end point 344 is the second feature point direction.
  • the feature amount calculation unit 13 goes from the end point to the first end point obtained by tracing the first distance on the ridge that forms the end point. Let the direction be the first feature point direction. Further, the feature amount calculation unit 13 calculates a second terminal point obtained by tracing a second distance longer than the first distance on the ridge that forms the terminal point, and connects the terminal point and the first terminal point.
  • a predetermined condition for example, the internal angle by the two straight lines is equal to or greater than the threshold value
  • the feature quantity calculation unit 13 tries to calculate the second feature point direction by the method after step S111 when the second feature point direction cannot be determined by the method of step S110 (step S109, No branch).
  • FIG. 17 is a diagram for explaining the calculation of the second feature point direction by the feature amount calculation unit 13. With reference to FIG. 17, the operation of the feature quantity calculation unit 13 after step S111 will be described.
  • the feature amount calculator 13 has a predetermined length (for example, a ridge) in a direction (opposite direction; direction reversed 180 degrees) opposite to the first feature point direction 351 based on the first trace distance from the end point 333.
  • An imaginary line 361 having an interval is set.
  • the feature amount calculation unit 13 determines whether or not an intersection of the virtual line 361 and the ridge exists (step S112). In the example of FIG. 17, an intersection point 371 is detected.
  • the feature amount calculation unit 13 makes a certain distance in two directions on the ridge from the detected intersection (for example, the ridge interval 2). This is traced, and two end points 345 and 346 are calculated (step S113).
  • the feature amount calculation unit 13 includes a straight line connecting the intersection point 371 and the end point 333 (part of the virtual line 361), a straight line connecting the intersection point 371 and the terminal point 345, and a straight line connecting the intersection point 371 and the terminal point 346.
  • the three inner angles a4 to a6 formed at the intersection 371 by the three straight lines consisting of are calculated (step S114; see FIG. 17B).
  • the feature quantity calculation unit 13 excludes the inner angle a6 having the largest angle among the three inner angles, and the larger inner angle (the inner angle a5 in the example of FIG. 17; the second smallest inner angle) of the two inner angles a4 and a5. ) Is less than or equal to a threshold value (for example, 145 degrees) (step S115).
  • a threshold value for example, 145 degrees
  • the feature amount calculation unit 13 determines the direction from the intersection point 371 to the end point 345 as the second feature point direction (step S116).
  • a first feature point direction 351 and a second feature point direction 352 are calculated as the feature point directions corresponding to the end point 333.
  • the intersection point 371 is moved to the position of the end point 333, and the start point of the second feature point direction 352 is shown to overlap the end point 333.
  • step S115 the feature amount calculation unit 13 determines that there is no second feature point direction corresponding to the end point (ends the process).
  • the second minimum interior angle in the example of FIG. 17B, the interior angle a5 is 180 degrees among the angles formed by the three straight lines. It becomes a close value (exceeds 145 degrees defined as a threshold). Therefore, in regions other than the core region and the delta region, there are few end points at which the second feature point direction is calculated.
  • the calculation of the second feature point direction in step S110 and the second feature point direction in step S116 are performed according to predetermined conditions. Of course, it is possible to execute the calculation of the second feature point direction with respect to the end point.
  • the calculation method of the second feature point direction of the end point described with reference to FIGS. 16 and 17 is the description in the core region, but the second feature point direction can also be calculated by the same method for the end point of the delta region. .
  • the end point 334 exists in the delta region.
  • the feature amount calculation unit 13 calculates the end point 347 from the end point 334 by the first trace distance (calculates the first feature point direction).
  • the interior angle composed of the straight line connecting the end point and the end point by the first trace distance and the straight line connecting the end point and the end point by the second trace distance is smaller than the threshold (step S109, No branch), and step S111. The subsequent processing is executed.
  • the feature amount calculation unit 13 sets a virtual line 362 in a direction opposite to the first feature point direction, and obtains an intersection 372 between the virtual line 362 and the ridge (step S111). Next, the feature amount calculation unit 13 traces a certain distance in two directions on the ridge from the intersection point 372, and calculates two end points 348 and 349 (step S113). Next, the feature amount calculation unit 13 is formed by three straight lines including a straight line connecting the intersection point 372 and the end point 334, a straight line connecting the intersection point 372 and the terminal point 348, and a straight line connecting the intersection point 372 and the terminal point 349. The three interior angles a4 to a6 to be calculated are calculated (step S114; see FIG. 18B).
  • the direction from the intersection point 372 to the terminal point 348 is calculated as the second feature point direction 353 (step S116; see FIG. 18C).
  • the intersection point 372 is moved to the position of the end point 334, and the start point of the second feature point direction 353 is shown to overlap the end point 334.
  • the feature amount calculation unit 13 when the feature amount calculation unit 13 cannot calculate the second feature point direction in step S110, the feature amount calculation unit 13 extends the virtual line starting from the end point in the direction opposite to the first feature point direction. Set. And the feature-value calculation part 13 calculates a 2nd feature point direction, when a virtual line has a ridge and an intersection within a predetermined range, and satisfy
  • the feature point feature amount calculation processing by the feature amount calculation unit 13 ends.
  • the feature amount calculation unit 13 calculates a feature amount (a feature point type, a position, a first feature point direction, and a second feature point direction) related to feature points existing in the fingerprint image for each fingerprint image. To do. As described above, the second feature point direction is calculated in addition to the first feature point direction in the core region and the delta region, but the second feature point direction is often not calculated in other regions. In FIG. 19, the direction of the second feature point that has not been calculated is described using the symbol “ ⁇ ”.
  • the feature amount calculation unit 13 delivers the calculated feature amount (result as shown in FIG. 19) to the feature amount output unit 14.
  • the feature amount output unit 14 outputs the feature amount calculated by the feature amount calculation unit 13 to the database 20 as the feature amount extracted by the feature amount calculation unit 13. At that time, the feature quantity output unit 14 associates the feature quantity with the ID information of the fingerprint image corresponding to the feature quantity, and outputs it to the database 20.
  • the feature amount output unit 14 may output the singular points (core singular points and delta singular points) of the fingerprint image to the database 20 in addition to the calculated feature amounts.
  • FIG. 20 is a diagram illustrating an example of the internal configuration of the input device 30.
  • the input device 30 includes a data input unit 31, a data output unit 32, and a storage unit 33.
  • the data input unit 31 inputs the image data related to the retained fingerprint and the ID information of the retained fingerprint through an external storage device (USB memory or the like) or a network.
  • the data input unit 31 accepts an operation by an inspector, generates an operation screen corresponding to the operation, and displays the operation screen on a display device (not shown) such as a liquid crystal display. That is, the data input unit 31 displays a screen for a user (operator) operation on the display device, and receives an operation for inputting a feature amount of a feature point by the user.
  • the inspector finds singular points (core type singular points and delta type singular points) and feature points from the fingerprint image (mainly retained fingerprint images) on the operation screen displayed on the display device, and inputs information and feature amounts related to the positions. To do. For example, when inputting a feature point direction such as the first feature point direction or the second feature point direction, the inspector inputs the feature point direction by performing a drag operation along the input feature point direction. To do. Thereafter, when the drag operation by the inspector is completed, the data input unit 31 displays a pull-down menu as shown in FIG. 21, and the inspector performs “setting of the first feature point direction” or “second feature point direction”. In response to selecting “SET”, the feature point direction is input.
  • a feature point direction such as the first feature point direction or the second feature point direction
  • the display mode of the first feature point direction and the second feature point direction are different from each other as shown in FIG. (For example, one has a bulge, the other does not have a bulge, uses a dotted line, or changes a display color).
  • the inspector can input the feature amount by an intuitive operation.
  • the data input unit 31 stores the feature amount of each feature point input in this way in the storage unit 33. At that time, the data input unit 31 executes a process such as converting the feature point direction indicated by the drag operation into an angle shown in FIG. 7, and is the same as the feature quantity registered in the database 20 by the feature quantity generation device 10.
  • the input device 30 includes the fingerprint image input unit 11, the core image extraction unit 12, the feature amount calculation unit 13, and the feature amount output unit 14 described above, and the feature amount and ID information of the image data related to the retained fingerprint. May be displayed on the display device. With such a configuration, the inspector only has to correct when there is an error in the feature amount related to the displayed residual fingerprint, and the processing time of the inspector can be reduced.
  • the data output unit 32 reads the feature amount stored in the storage unit 33 and outputs the feature amount to the matching device 40 together with the ID information of the retained fingerprint image.
  • FIG. 22 is a diagram illustrating an example of the internal configuration of the verification device 40.
  • the collation device 40 includes a feature amount input unit 41, a feature point collation unit 42, a collation result output unit 43, and a storage unit 44.
  • the feature amount input unit 41 inputs the feature amount and ID information related to the fingerprint image on the search side (search side) in fingerprint collation from the input device 30. Further, the feature amount input unit 41 accesses the database 20 in response to a request from the feature point matching unit 42, and acquires the feature amount and ID information related to the fingerprint image to be searched (file side) in fingerprint matching. To do.
  • the feature amount input unit 41 delivers the acquired feature amount and ID information (search side and file side feature amounts and ID information) to the feature point matching unit 42.
  • the feature point matching unit 42 performs matching of the fingerprint image on the search side and the file side based on the feature amount related to the fingerprint (retained fingerprint) image on the search side and the feature amount related to the fingerprint (print fingerprint) image on the file side. And a collation score indicating the collation result is calculated.
  • the feature point matching unit 42 performs the feature point matching process disclosed in “4 Fingerprint Matching” of Non-Patent Document 1 with respect to the matching of the position and the first feature point direction when matching two given feature quantities. Can be used.
  • the matching process using the second feature point direction by the feature point matching unit 42 will be mainly described with reference to FIG. 23 and subsequent drawings.
  • the fingerprint image shown on the left side of FIG. 23A is an image related to a deceased fingerprint, and the feature points and feature quantities shown in the figure are input by an inspector.
  • the fingerprint image shown on the right side of FIG. 23A is an image related to the person's imprinted fingerprint corresponding to the left fingerprint image, and the feature points and their feature quantities shown in FIG. Is calculated.
  • the feature point matching unit 42 includes a plurality of feature points 401 to 405 illustrated on the left side of FIG. 23A and a plurality of feature points illustrated on the right side (ten feature points including feature points 411 to 415). And the correspondence between them is detected. For example, the correspondence between the feature point 401 on the left side (search side; left fingerprint side) and the feature point 411 on the right side (file side; fingerprint fingerprint side), the left side feature point 402 and the right side feature point 412 Corresponding relationships between them are detected.
  • the feature point matching unit 42 detects the correspondence in consideration of the second feature point direction. More specifically, the feature point matching unit 42 detects the correspondence between feature points according to the matching rules (1) to (3) shown below. At that time, the feature point collating unit 42 performs alignment processing (positioning) of two fingerprint images and converts the feature point coordinates. Various methods can be employed to align the two fingerprint images. For example, two fingerprint images may be aligned using singular points (core singular points and delta singular points). If the two feature point coordinates on the search side and the file side after the coordinate conversion in the alignment processing are within a predetermined range, the feature point matching unit 42 determines that the two feature points are candidates for the feature points. deal with. After that, the feature point matching unit 42 compares the feature amounts (first and second feature point directions) of the paired feature point candidates, and performs final determination (paired feature point, unpaired feature point). .
  • the first feature point of each feature point Correspondence is detected according to whether or not the feature point directions substantially match (determined as a feature point). That is, when the two singular point coordinates on the search side and the file side after coordinate conversion by the alignment process are within a predetermined range, it is determined that the two feature points are present at the same position. Thereafter, if the first feature point directions of the feature points coincide with each other, it is determined that the two feature points are the pair feature points.
  • Collation rule (2) When the positional relationship between two feature points is within a predetermined range, one feature point has only the first feature point direction, and the other feature point has the first and second feature point directions. If so, the correspondence is detected according to the following conditions.
  • the first feature point direction of the feature point having the first feature point direction is the first and second feature points of the other feature point. A correspondence is detected if it substantially matches one of the directions.
  • the feature point directions of the feature points having the first feature point direction and the feature points having the first and second feature point directions are either of the following relationships: If the condition is satisfied, a correspondence relationship is detected between the two feature points.
  • the first relationship is a case where the first feature point direction of the feature point having the first feature point direction substantially coincides with one of the first and second feature point directions of the other feature point. .
  • a correspondence relationship is detected between two feature points that satisfy the first relationship.
  • the second relationship is substantially the same as the direction in which the first feature point direction of the feature point having the first feature point direction bisects the interior angle formed by the straight line formed by the first and second feature point directions of the other feature point.
  • a direction that bisects an internal angle formed by a straight line by the first and second feature point directions is referred to as a first verification direction and is illustrated using a dotted line in the drawings.
  • a correspondence relationship is also detected between two feature points that satisfy the second relationship. That is, if the feature point having the first feature point direction is a branch point, the first feature point direction of the branch point is compared with the first matching direction of the end points whose positional relationship is within a predetermined range.
  • the correspondence between the two feature points is determined.
  • the feature point having the first feature point direction is an end point
  • the first feature point direction of the end point is compared with the first matching direction of the branch point whose positional relationship is within a predetermined range.
  • the correspondence between the two feature points is determined.
  • the feature point 406 has a first feature point direction
  • the feature point 416 has two feature point directions.
  • the first feature point direction of the feature point 406 matches the first feature point direction of the feature point 416
  • a correspondence relationship is detected between the two feature points.
  • the first feature point direction of the feature point 406 does not match either the first feature point direction or the second feature point direction of the feature point 416, and therefore corresponds to two feature points. It is determined that there is no relationship (correspondence is not detected).
  • the feature point 407 having the first feature point direction is a branch point.
  • a feature point 417 having the first and second feature point directions is an end point.
  • the correspondence between the two feature points is based on whether the two feature points 407 and 417 have the first relationship (2-2) or the second relationship. Is determined.
  • the first feature point direction of the feature point 407 and the first feature point direction of the feature point 417 substantially coincide with each other, and thus the first relationship is satisfied. Accordingly, a correspondence relationship is detected between the two feature points.
  • FIG. 25A the first feature point direction of the feature point 407 and the first feature point direction of the feature point 417 substantially coincide with each other, and thus the first relationship is satisfied. Accordingly, a correspondence relationship is detected between the two feature points.
  • the first feature point direction of the feature point 407 and the first matching direction of the feature point 417 are substantially the same. Therefore, the second relation is satisfied. Accordingly, a correspondence relationship is detected between the two feature points.
  • the first feature point direction of the feature point 407 does not coincide with either the first feature point direction or the second feature point direction of the feature point 417, and is also the first matching direction. It does not match. That is, since the two feature points do not satisfy both of the first and second relationships, no correspondence is detected between the two feature points.
  • Matching rule (3) When the positional relationship between two feature points is within a predetermined range and both feature points have the first and second feature point directions, the corresponding relationship is detected according to the following conditions: Is done.
  • the first combination is a combination of one first feature point direction and the other first feature point direction.
  • the second combination is a combination of one first feature point direction and the other second feature point direction.
  • the third combination is a combination of one second feature point direction and the other first feature point direction.
  • the fourth combination is a combination including one second feature point direction and the other second feature point direction.
  • Two feature points are of different types, and an interior angle formed by a straight line by two feature point directions of any one of the two feature points is a predetermined threshold (for example, 100 degrees)
  • the first matching direction (direction that divides the inner angle between the first feature point direction and the second feature point direction) is calculated from each of the two feature points, and the first matching direction is also calculated.
  • the correspondence between the two feature points is detected. Specifically, two directions (feature point directions) in at least one of the nine combinations of the first feature point direction, the second feature point direction, and the first matching direction that each of the two feature points has. , The matching direction) substantially matches, a correspondence relationship is detected between the two feature points.
  • an interior angle formed by a straight line in the direction of two feature points of any one of the two feature points is a predetermined threshold (the above threshold; for example, In the case of exceeding 100 degrees)
  • a direction that bisects the external angle formed by a straight line formed by the two feature point directions of each of the two feature points (hereinafter referred to as the second matching direction; one point in the drawing) (Shown using a chain line) is added to the comparison target. That is, at least one of the 16 feature combinations of the first feature point direction, the second feature point direction, the first matching direction, and the second matching direction that each of the two feature points has has two directions.
  • a correspondence relationship is detected between the two feature points.
  • a predetermined threshold for example, 100 degrees
  • the feature point 408 and the feature point 418 are both branch points and have first and second feature point directions. Therefore, in the example of FIG. 26, the rule (3-1) is used to detect the correspondence between two feature points.
  • the first and second feature point directions of the feature point 408 and the first and second feature point directions of the feature point 418 coincide with each other, so that the two feature points correspond to each other.
  • a relationship is detected.
  • the feature point 409 and the feature point 419 have a different feature point type. Therefore, in the example of FIG. 27, the rule (3-2) or (3-3) is used to detect the correspondence between two feature points.
  • the rule (3-2) or (3-3) is used to detect the correspondence between two feature points.
  • the interior angle formed by the straight lines in the first and second feature point directions of each feature point is equal to or less than a threshold value (for example, 100 degrees)
  • the first matching direction is also taken into consideration.
  • a threshold value for example, 100 degrees
  • the first and second matching directions are also taken into consideration. In any case, it is determined that there is a correspondence between two feature points when at least one of the sixteen combinations including four directions of each feature point substantially matches.
  • the first matching direction of the feature point 409 and the second matching direction of the feature point 419 are at least matched, so it is determined that there is a correspondence between the two feature points. The That is, as shown in FIG. 27B, even when a feature point direction that matches the first and second feature point directions of the two feature points cannot be found, the feature point exists in the delta region ( If the interior angle exceeds 100 degrees), it can be determined that there is a correspondence between the two feature points.
  • the left feature point 402 and the right feature point 412 are feature points each having a second feature point direction.
  • FIG. 23B is a diagram in which feature points 402 are extracted
  • FIG. 23C is a diagram in which feature points 412 are extracted. Referring to FIGS. 23B and 23C, the relationship shown in FIG. 26B is recognized between the feature point 402 and the feature point 412, and the corresponding relationship is detected.
  • the feature point matching unit 42 can detect that the two feature points are paired by calculating the correspondence between the feature points together with the second feature point direction. is there.
  • the position of the end point tends to change (expand / contract) easily due to pressure at the time of stamping or dirt on the left fingerprint image.
  • the first feature point direction also changes.
  • the influence of such end point position change can be mitigated. . That is, when the two feature points are within a predetermined range and the respective feature points have the first and second feature point directions according to the matching rule of (3) above, the two feature points include Correspondence is often detected.
  • the feature point type may change (from the branch point to the end point or vice versa) due to the pressure at the time of stamping or dirt on the left fingerprint image. Even in such a case, degradation of matching accuracy can be suppressed by using the first and second feature point directions for matching.
  • the fingerprint image (core data) shown in FIG. 28 (a) is registered on the file side as an imprint fingerprint, and the person's retained fingerprint corresponding to the fingerprint image of FIG. 28 (a) is shown in FIGS. 28 (b) to (d). It is assumed that any one of In the case of FIGS. 28B to 28D, the branch point is shifted to the end point due to the influence of noise or the like. Two feature point directions are calculated from the fingerprint image shown in FIG. In addition, the first feature point direction is calculated from the fingerprint images of FIGS. In the fingerprint image collation shown in FIGS. 28A and 28B, the feature point correspondence is detected in accordance with the collation rule (2-2). In this case, since the first feature point direction in FIG.
  • the branch point in FIG. 28 (a) may transition to the end point shown in FIG. 28 (d).
  • the correspondence relationship between the feature points is detected according to the matching rule of (3-2) or (3-3). Since FIG. 28 illustrates feature points in the vicinity of the core region, the interior angle formed by straight lines in the first and second feature point directions is equal to or less than a threshold value (for example, 100 degrees). Therefore, the collation of the fingerprint images shown in FIGS. 28A and 28D follows the collation rule (3-2). In this case, the first matching direction shown in FIG. 28A and the first feature point direction shown in FIG. 28D substantially coincide with each other, so a correspondence relationship is detected between the two feature points.
  • the fingerprint image shown in FIG. 18A is determined to be a branch point of the delta region. Since the calculation method of the first feature point direction differs between the branch point and the end point, if only the first feature point direction is used for the feature point matching, the correspondence between the two feature points is calculated. Rare (not a feature point). However, even if the end point is expanded to change to a branch point, the accuracy of matching can be improved by introducing the second feature point direction.
  • each feature point has two feature point directions and exists in the vicinity of the delta region (because the internal angle by the first and second feature point directions exceeds a threshold value (for example, 100 degrees)),
  • a threshold value for example, 100 degrees
  • the first and second collating directions are calculated from the two feature points, and when the match / mismatch of each direction is determined for 16 combinations, at least the first collating direction in FIG. 29A and FIG. ) Substantially coincide with the first feature point direction. Accordingly, a correspondence relationship is detected between the two feature points.
  • the two feature points in the delta region can be detected.
  • the feature point is often determined as a pair feature point. That is, by introducing the second feature point direction, the matching accuracy is improved.
  • the feature point matching unit 42 When the feature point matching unit 42 according to the first embodiment detects the correspondence between two feature points, the interior angle in the first and second feature point directions exceeds a predetermined threshold (for example, 100 degrees). In this case, the second matching direction is calculated, but the feature amount calculation unit 13 may calculate the direction. That is, when the internal angle of the first and second feature point directions exceeds a predetermined threshold (for example, 100 degrees), the feature amount calculation unit 13 determines the third feature point direction different from the first and second feature amounts. May be calculated as a feature amount that characterizes the feature point.
  • a predetermined threshold for example, 100 degrees
  • the feature point matching unit 42 calculates a matching score based on the correspondence certainty for each of the feature points (5 in the case of FIG. 23) for which the correspondence is detected and the number of feature points for which the correspondence is not detected. To do.
  • the feature point matching unit 42 changes the correspondence certainty factor according to various modes shown in FIGS. 24 to 27 when calculating the correspondence certainty factor regarding the feature point having the second feature point direction.
  • the correspondence relationship may be differentiated.
  • the correspondence relationship between the two feature points shown in FIG. 27 is the feature point shown in FIGS. 26 (a) and (b). It is considered weaker than the correspondence between the two. That is, in FIGS. 26 (a) and (b), at least one feature point direction matches, whereas the two feature points shown in FIGS. 27 (a) and 27 (b) match the feature point direction. This is because there is nothing. Therefore, the feature point matching unit 42 gives a low degree of confidence to the two feature points having the correspondence relationship as shown in FIG.
  • FIG. 26A the first and second feature point directions of the two feature points coincide with each other.
  • the correspondence between the two feature points 407 and 417 is considered to be stronger than the correspondence between the two feature points shown in FIG.
  • the two feature points shown in FIG. 26A are given higher correspondence certainty than the correspondence between the two feature points shown in FIG.
  • the feature point matching unit 42 delivers the matching score to the matching result output unit 43 as a matching result.
  • the feature point matching unit 42 may deliver a list of feature points in which the correspondence is detected in addition to the matching score to the matching result output unit 43 as a corresponding feature point list.
  • the corresponding feature point list the coordinates of the feature points on the search side (retained fingerprint side) where the correspondence relationship is detected and the coordinates of the feature points on the file side (printed fingerprint side) that are paired with the feature points are included. Recorded in association.
  • the collation result output unit 43 associates the ID information of the residual fingerprint image that is the collation target, the ID information of the fingerprint image for which the collation score is calculated, and the collation score, and sets the collation result as an external device (FIG. (See FIG. 30).
  • the allowable range regarding the difference in the feature point direction is expanded.
  • such an increase in the allowable range causes a new problem that it involves a phenomenon of increasing the matching score of a fingerprint that is not a pair (non-fingerprint).
  • the allowable range is not expanded as described above, it is possible to suppress the problem of increasing the verification score of the non-fingerprint.
  • the feature value generation device 10 inputs a fingerprint image (step S01), and extracts a core image from the fingerprint image (step S02). Thereafter, the feature quantity generation device 10 calculates a feature quantity from the core line image (step S03). At that time, the feature quantity generation device 10 also calculates the second feature point direction from the feature points of the region where the feature point direction cannot be stably calculated, such as the core region and the delta region. The feature quantity generation device 10 registers the calculated feature quantity in the database 20 (step S04).
  • the input device 30 receives an operation by an inspector and inputs a feature amount of the fingerprint image (step S11).
  • the input device 30 outputs the input feature quantity toward the collation device 40 (step S12).
  • the collation device 40 acquires the feature quantity output from the input device 30 and the feature quantity registered in the database 20 (step S21), and a fingerprint image (for example, a survivor) corresponding to the feature quantity output from the input device 30.
  • a fingerprint image) matching process is performed (step S22).
  • the collation device 40 performs collation of the fingerprint image in consideration of the second feature point direction attached to each feature point.
  • the collation apparatus 40 outputs a collation result as a collation score (step S23).
  • the feature quantity generation device 10 calculates the second feature point direction as necessary in addition to the first feature point direction. Considering this second feature point direction, the matching accuracy is improved by detecting the correspondence between the two feature points and calculating the matching score.
  • the second feature point direction for example, even if the first feature point direction differs between two feature points, if the first feature point direction of one and the second feature point direction of the other match, This is because one feature point can be operated as a pair of feature points.
  • the core region is composed of simple loop-shaped core hoof lines, there are no feature points.
  • the main region of the retained fingerprint is the core region, the retained fingerprint High matching accuracy cannot be expected.
  • the core hoof line is a loop-like (hoof-like) ridge (core line) located on the innermost side in the fingerprint image, and has a feature point near its apex (for example, within one ridge interval). It means a core wire that does not exist.
  • the curve 501 is a core hoof but the curve 502 is not a core hoof. This is because the curve 502 is not a ridge located on the innermost side of the fingerprint image.
  • the curves 503 and 504 shown in FIG. 32B are not the core hoof lines. This is because these curves are not ridges formed in a loop shape.
  • a protruding ridge is recognized in the vicinity of the delta, but this protruding ridge does not have a sufficient length (for example, one ridge interval), so it is removed as noise. And is not treated as a core wire.
  • FIG. 33 (b) there is a dot-shaped ridge, but this ridge does not have a sufficient length, so it is removed as noise and not treated as a core.
  • fingerprint images corresponding to the core area and delta area are vulnerable to noise, and feature point transitions easily (end points transition to branch points or vice versa), or new end points occur due to ridge breaks. Or For example, if there is no feature point in the core area on the side of the fingerprint fingerprint but there is a feature point on the left side of the fingerprint due to the influence of noise or the like, two fingerprints are considered even if the direction of the second feature point is considered. Image matching accuracy is degraded. In the first place, there is no feature point on the fingerprint side, and there is no matching target corresponding to the feature point on the left fingerprint side.
  • FIG. 34 is a diagram illustrating an example of an internal configuration of the feature value generation apparatus 10a according to the second embodiment.
  • the difference from the feature value generation apparatus 10 according to the first embodiment is that a core wire adding unit 16 is added. Therefore, details of the core wire adding unit 16 will be described, and description of each functional block such as the feature amount calculating unit 13 will be omitted.
  • the core line adding unit 16 is means for detecting a ridge or area having a predetermined characteristic and adding the core line to the detected ridge or area. More specifically, the core wire adding unit 16 detects a core wire or a region where a core wire needs to be added, and executes a predetermined core wire adding process when the region is detected.
  • the core line adding unit 16 detects the core hoof line from the core line image extracted by the core line image extracting unit 12. Specifically, the core line adding unit 16 extracts a core line that is the innermost loop-shaped core line in the fingerprint image and has no feature point near its vertex. Furthermore, the core wire adding unit 16 adds a pseudo-protruding core wire to the vertex of the detected core hoof line.
  • FIGS. 35A and 35B a fingerprint image having an area as shown in FIGS. 35A and 35B is input to the feature quantity generation apparatus 10a.
  • FIG. 35C is obtained.
  • the core wire adding unit 16 detects the core hoof line 601 from FIG. 35 (c) and adds a short protruding core line (hereinafter referred to as a protruding core line) 611 to the apex of the core hoof line 601 (FIG. 35 ( d) Core line in the area surrounded by a circle).
  • a protruding core line a short protruding core line
  • the direction of the pseudo-projection core line added by the core wire addition unit 16 is opposite to the direction of the core hoof line (the direction from the apex of the core hoof line 601 to the center of the core hoof line) in FIG. And the length is preferably about half of the ridge interval.
  • the core wire adding unit 16 uses, for example, three core wires that form a delta (triangular) shape from the core image extracted by the core image extracting unit 12 by using a method such as pattern matching, and the three core wires. An area to be included (delta area) is detected. Furthermore, the core line adding unit 16 adds a pseudo dot-shaped core line (hereinafter referred to as a delta dot core line) when there is no feature point near the center of the detected delta. For example, it is assumed that a fingerprint image having an area as shown in FIGS. 36A and 36B is input to the feature quantity generation device 10a. In this case, the core wire adding unit 16 detects the core wires 602 to 604 as core wires forming a delta.
  • a pseudo dot-shaped core line hereinafter referred to as a delta dot core line
  • the core wire adding unit 16 adds the delta dot core wire 612 near the center of the core wires 602 to 604 (region surrounded by a circle in FIG. 36C).
  • the direction of the delta dot core line added by the core line addition unit 16 is horizontal with respect to the fingertip direction (the direction of the fingertip), and the length of the delta dot core line is about half of the ridge interval.
  • two feature points are generated for both the core region and the delta region. Specifically, referring to FIG. 35 (d), a branch point composed of the core hoof line 601 and the projection core wire 611 and an end point of the projection core wire 611 are generated. In addition, referring to FIG. 36C, both ends of the delta dot core wire 612 are generated as end points.
  • the feature amount calculating unit 13 extracts feature points and features (position, first and second features) by the same method as described in the first embodiment. (Point direction) is calculated.
  • the input device 30 described in the first embodiment also needs to support an operation of adding a core wire to the core region or the delta region (operation by an inspector).
  • the input device 30a When an expert officer adds a protrusion core wire in the core area, the inspector performs a drag operation in the core direction (the direction of the core hoof line) at the apex of the core hoof line. Thereafter, the input device 30a according to the second embodiment displays a menu (pull-down menu) as shown in FIG. The inspector selects “Add Projection Core Line” from the displayed pull-down menu to end the operation of adding the projection core line to the core hoof line. It should be noted that when the core line of the core hoof is added, the input device 30a is configured so that data can be input using the apex of the core hoof as a core (core singular point), thereby reducing the input man-hours for the inspector (operator). .
  • the inspector can input the delta dot core wire using the input device 30a.
  • the inspector performs a drag operation in the first delta direction from the delta position (delta center).
  • the delta direction means three directions emitted from the delta.
  • FIG. 38A shows an example in the delta direction.
  • a pull-down menu as shown in FIG. 38B is displayed from the input device 30a.
  • the input device 30a instructs the inspector to input the remaining two delta directions.
  • the input device 30a adds the delta dot core line to the center of the delta at the end of the operation for inputting the third delta direction (end of the drag operation for inputting the third delta direction).
  • an instruction to input the direction of the delta dot core line may be given to the inspector.
  • the input device 30a is configured so that the area where the operation is performed can be input as a delta (delta type singular point), thereby reducing the input man-hours for an expert (operator). .
  • the collation device 40 performs a fingerprint image collation process using the feature amount generated by the feature amount generation device 10a and the feature amount input by the inspector using the input device 30a, and generates and outputs a collation result. To do.
  • the image near the apex of the core hoof line changes due to pressure, dripping, dirt, etc. at the time of imprinting.
  • the simple core hoof line is disconnected or connected to the outer ridge. May end up.
  • the core hoof line as shown in FIG. 39 (a) is originally broken along the way as shown in FIG. 39 (b), or the outer ridge line as shown in FIG. 39 (c). Sometimes connect.
  • the feature quantity generation device 10a creates feature points corresponding to two feature points that are likely to occur due to the influence of dirt or the like by adding a projection core wire to the apex of the core hoof line. .
  • a situation in which no feature point exists in the other fingerprint image does not occur on either the search side or the file side, and a decrease in matching score due to the absence of the corresponding feature point is suppressed. .
  • the second feature point direction that complements the first feature point direction is calculated.
  • the two feature points that have two feature point directions and are close to each other can be detected in correspondence (the matching rule (3) described in the first embodiment), so that a protrusion core is added. It is possible to pair two feature points of each fingerprint image in which the feature points are created due to the influence of the fingerprint image and dirt and the like, and deterioration of collation accuracy is suppressed.
  • feature points may not be extracted from the delta region.
  • the image near the delta changes due to the influence of pressure, wrinkles, and dirt during printing, and as a result, a short ridge (dot or protrusion) may be extracted near the delta.
  • feature point extraction is unstable in the delta region, and there is a tendency that a feature point does not exist in the fingerprint image on the search side and a feature point exists in the fingerprint image on the file side.
  • feature points are not extracted from the fingerprint image on the file side as shown in FIG. 40A, and feature points due to short ridges are shown in the fingerprint image on the search side as shown in FIG. May be extracted.
  • the two feature points in FIG. 40B are treated as non-matching feature points, which causes a decrease in the matching score.
  • two feature points are created by adding a delta dot core line to the fingerprint image shown in FIG. Therefore, the feature points of the two fingerprint images can be easily paired, and the matching score increases.
  • the second embodiment when there are no feature points in the core region or the delta region, a process of adding a core line to these regions is performed. Since the added feature line calculates the second feature point direction described in the first embodiment, the correspondence between the feature points existing in the core region and the delta region can be detected more reliably. As a result, fingerprint image matching accuracy is improved.
  • the configuration of the fingerprint verification system (FIG. 2) described in the first and second embodiments is an example, and is not intended to limit the configuration of the system.
  • all or some of the various functions of the feature quantity generation device 10, the input device 30, and the collation device 40 may be incorporated in another device.
  • various functions of the feature quantity generation device 10, the input device 30, and the collation device 40 may be incorporated in one device.
  • an image processing device 50 shown in FIG. 41 can be used.
  • functional blocks such as the fingerprint image input unit 11 shown in FIG. 41 are the same as the functional blocks described in the first and second embodiments, and thus description thereof is omitted.
  • the image processing apparatus 50 includes a database access unit 51.
  • the feature amount calculation unit 13 registers the generated feature amount in the database 20 via the database access unit 51.
  • the feature point matching unit 42 acquires the feature amount registered in the database 20 via the database access unit 51.
  • the database 20 may be constructed in the storage unit 15.
  • the configuration and operation of the feature quantity generation device 10 and the like have been described using a fingerprint image as an image in which a curved stripe pattern is formed by ridges. It is not limited.
  • the feature value generation apparatus 10 may calculate a feature value from an image related to a palm print or the like.
  • the feature amount calculation processing described in the first and second embodiments is to calculate the second feature point direction in addition to the first feature point direction. It is also possible to calculate.
  • the first to third feature point directions can be calculated as the feature quantity characterizing one feature point.
  • the interior angle a3 maximum interior angle
  • the feature point direction is calculated as the first or second feature point direction. In such a case, since the collation score is expected to deteriorate, the direction that divides the maximum inner angle a3 into two can be calculated as the third feature point direction and used for the feature point collation.
  • the inconveniences as described above can be eliminated by dealing with the verification process.
  • the first feature point direction 304 and the second feature point direction 315 shown in FIG. 14 are extracted on the search side (remaining fingerprint side), and the direction that divides the maximum inner angle a3 into two on the file side (imprint fingerprint side).
  • the direction is registered as the first feature point direction.
  • the first feature point direction 304 and the second feature point direction are considered in consideration that the difference between the first feature point direction and the second feature point direction is about 120 degrees.
  • the direction that bisects the larger angle may be calculated as the third feature point direction on the search side. That is, by comparing the third feature point direction on the search side and the first feature point direction on the file side, it is possible to suppress degradation of matching accuracy without introducing the third feature point direction.
  • the direction that divides the interior angle into two is determined as the feature point direction when calculating the first and second feature point directions, but the values for dividing the angle are other values. May be.
  • the ratio of dividing the angle when calculating the feature point direction is not limited to a ratio of 1: 1.
  • the processing performed by each unit of the feature quantity generation device 10, the input device 30, and the collation device 40 is performed on the hardware mounted on the computer mounted on these devices (the feature quantity generation device 10, the input device 30, and the collation device 40).
  • the feature quantity generation device 10a is the same as the feature quantity generation device 10 of FIG.
  • the computer can function as an image processing apparatus. Furthermore, by causing a computer to execute the above-described computer program, it is possible to cause the computer to execute an image processing method related to feature amount calculation or the like.
  • the program can be downloaded through a network or updated using a storage medium storing the program.
  • the feature amount calculation unit includes: When the extracted feature point is a branch point, the first feature point direction is calculated based on a relationship between three interior angles formed by three ridges forming the branch point; The image processing device according to mode 1, wherein the second feature point direction is calculated based on a relationship between at least two of the three interior angles.
  • the feature amount calculation unit includes: The direction that bisects the first interior angle having the smallest angle among the three interior angles is defined as the first feature point direction, and the direction that bisects the second smallest interior angle among the three interior angles is the The image processing apparatus according to mode 2, wherein the second feature point direction is set.
  • the feature amount calculation unit includes: The image processing device according to mode 3, wherein the second feature point direction is calculated when an angle difference between the first interior angle and the second interior angle is smaller than a first threshold.
  • the feature amount calculation unit includes: The image according to any one of Embodiments 1 to 4, wherein, when an inner angle of the first and second feature point directions exceeds a second threshold, the third feature point direction is calculated as a feature quantity characterizing the feature point. Processing equipment.
  • the feature amount calculation unit includes: When the extracted feature point is an end point, a direction from the end point toward a first terminal point obtained by tracing a first distance on a ridge forming the end point is set as the first feature point direction. The direction toward the second terminal point obtained by tracing the second distance longer than the first distance on the ridge that forms the end point is the second feature point direction.
  • the image processing apparatus according to any one of forms 1 to 5.
  • the feature amount calculation unit includes: When the interior angle formed at the end point by the straight line connecting the end point and the first end point and the straight line connecting the end point and the second end point satisfies a predetermined condition, the second feature The image processing apparatus according to mode 6, which calculates a point direction.
  • the feature amount calculation unit includes: The extracted feature point is an end point and extends in a direction opposite to the ridge direction forming the end point, and a virtual line starting from the end point is set, and the virtual line rises within a predetermined range. If it has an intersection with a line, A third end point is calculated by tracing the third distance in the first direction on the ridge where the intersection is formed, starting from the intersection.
  • the image processing device according to any one of forms 1 to 7, wherein a direction from the intersection to the third terminal point is the second feature point direction.
  • the feature amount calculation unit includes: When the imaginary line has the intersection on the ridge, the fourth distance is traced by tracing the third distance in the direction opposite to the first direction on the ridge where the intersection is formed as the starting point. Calculate the end point of Three inner angles formed by the three intersections, the straight line connecting the intersection and the end point, the straight line connecting the intersection and the third termination point, and the straight line connecting the intersection and the fourth termination point.
  • the image processing device according to mode 8, wherein the second feature point direction is calculated based on the second feature point direction.
  • the feature amount calculation unit includes: Three inner angles formed by the three intersections, the straight line connecting the intersection and the end point, the straight line connecting the intersection and the third terminal point, and the straight line connecting the intersection and the fourth terminal point, Of these, determine the smallest interior angle with the smallest angle, Of the third terminal point and the fourth terminal point, the direction from the intersection to the terminal point through which the straight line forming the minimum internal angle passes is defined as the second feature point direction.
  • Image processing device [Form 11]
  • the feature amount calculation unit includes three lines, the straight line connecting the intersection and the end point, the straight line connecting the intersection and the third terminal point, and the straight line connecting the intersection and the fourth terminal point as the intersection.
  • a feature point matching unit that matches a first feature point having the first feature point direction and a second feature point having the first and second feature point directions;
  • the feature point matching unit is configured such that when the positions of the first and second feature points are within a predetermined range, and the first feature point direction of the first feature point is the second feature point. In any one of Forms 1 to 11, it is determined that there is a correspondence between the first and second feature points when substantially matching one of the first and second feature point directions.
  • the feature point matching unit When the types of the first feature point and the second feature point are different, a direction that bisects an interior angle formed by a straight line formed by the first and second feature point directions of the second feature point is defined as the second feature point. Calculate as the first matching direction of the points, Correspondence between the first and second feature points when the first feature point direction of the first feature point and the first matching direction of the second feature point substantially match.
  • the image processing apparatus according to mode 12, wherein the image processing apparatus determines that there is a
  • the feature point matching unit The first feature point further has the second feature point direction, the positions of the first and second feature points are within a predetermined range, and the first and second feature points are of the same type.
  • the image processing device according to form 12 or 13, wherein it is determined that there is a correspondence between the first and second feature points.
  • the feature point matching unit When the first feature point further has the second feature point direction, the positions of the first and second feature points are within a predetermined range, and the types of the first and second feature points are different.
  • the first matching direction is calculated from each of the first and second feature points, and the first feature point direction, the second feature point direction, and the first matching that each of the first and second feature points has is calculated.
  • Form 12 or 13 in which it is determined that there is a correspondence relationship between the first and second feature points when two directions substantially coincide with each other in at least one of the nine combinations of use directions.
  • Image processing apparatus The feature point matching unit When the first feature point further has the second feature point direction, the positions of the first and second feature points are within a predetermined range, and the types of the first and second feature points are different. For each of the first and second feature points, calculates the first matching direction and a second matching direction that bisects the outer angle formed by the straight line formed by the first and second feature point directions. At least one of 16 combinations of the first feature point direction, the second feature point direction, the first matching direction, and the second matching direction that each of the first and second feature points has.
  • the image processing device determines that there is a correspondence between the first and second feature points when two directions substantially match in a set.
  • the positions of the first and second feature points are within a predetermined range, and both the first and second feature points have the first and second feature point directions, and, Forms 1 to 3 in which it is determined that there is a correspondence between the first and second feature points when the inner angles of the two feature point directions of the first and second feature points both exceed the fourth threshold value. 16.
  • the image processing device according to any one of 16.
  • the feature point matching unit When the first feature point direction of the first feature point substantially coincides with the second feature point direction of the second feature point, the corresponding reliability of the first and second feature points Gives the first value as The first feature point direction of each of the first and second feature points substantially matches, and the second feature point direction of each of the first and second feature points substantially matches.
  • the image processing device according to any one of forms 12 to 17, wherein a second value larger than the first value is given to the first and second feature points as a corresponding certainty factor.
  • a screen for user operation is displayed on a display device, and further includes a data input unit that receives an operation of inputting a feature amount of a feature point by the user, When the data input unit displays the first and second feature point directions on the display device, the display modes of the first and second feature point directions are different from each other.
  • the image processing apparatus according to any one of the above.
  • [Form 20] This is the same as the image processing method according to the second viewpoint described above.
  • [Form 21] It is as the program which concerns on the above-mentioned 3rd viewpoint. Form 20 and form 21 can be developed like form 2 to form 19 like form 1.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Abstract

指紋等の照合における精度向上に貢献する特徴量を算出する画像処理装置を提供する。画像処理装置は、画像入力部と、特徴量算出部と、特徴量出力部と、を備える。画像入力部は、隆線により曲線縞模様が形成されている画像を入力する。特徴量算出部は、画像から抽出された特徴点を特徴付ける第1及び第2特徴点方向を算出する。特徴量出力部は、算出された第1及び第2特徴点方向を、抽出された特徴点の特徴量として出力する。

Description

画像処理装置、画像処理方法及びプログラム
 (関連出願についての記載)
 本発明は、日本国特許出願:特願2015-168470号(2015年8月28日出願)の優先権主張に基づくものであり、同出願の全記載内容は引用をもって本書に組み込み記載されているものとする。
 本発明は、画像処理装置、画像処理方法及びプログラムに関する。特に、指紋画像等の曲線縞模様状の画像データを処理する、画像処理装置、画像処理方法及びプログラムに関する。
 曲線縞模様状の多数の隆線により構成される指紋、掌紋は、古くから人物確認の手段として利用されている。特に、犯罪現場に残された遺留指紋を用いる照合は、効果的な捜査手段である。多くの警察機関等には、コンピュータを利用した指紋照合システム(AFIS;Automated Fingerprint Identification System)が導入されている。指紋照合システムでは、データベースに登録された指紋画像と犯罪現場等にて採取された遺留指紋それぞれの特徴点(Minutiaとも称される)を照合することで、遺留指紋に対応する人物の特定がなされる。
 指紋照合に用いられる特徴点(指紋特徴点)には、指紋隆線の端点や分岐点が用いられることが多い。例えば、非特許文献1の「4.3 Minutiae-Based Methods」にて開示されているように、指紋隆線の端点や分岐点を用いた特徴点照合が用いられている。
 また、警察機関等における指紋照合システムの運用では、高品質な押捺指紋に対しては、特徴点が自動的に抽出されデータベースに登録されるが、低品質な指紋画像が多い遺留指紋に対しては、鑑識官(Examiner)がマニュアルで特徴点を入力することが多い。その上で、データベースに登録された指紋画像の特徴点が被探索側(ファイル側)のデータ、鑑識官が入力した特徴点が探索側(サーチ側)のデータとしてそれぞれ扱われ、両者のデータ間における照合スコアに基づき、指紋照合(人物特定)が行われる。
 非特許文献2には、コア(Core)、デルタ(Delta)、中核蹄線(Innermost Recurve or loop)等の鑑識用語が記載されている。
 特許文献1において、特徴点(分岐点、端点)の方向を特徴付ける特徴量として特徴点方向が記載されている。
特開2010-267016号公報
D.Maltoni、"Handbook  of  Fingerprint  Recognition"、Springer、2003 United States. Federal Bureau of Investigation、"The Science of Fingerprints-Classification and Uses"、1990
 なお、上記先行技術文献の各開示を、本書に引用をもって繰り込むものとする。以下の分析は、本発明者らによってなされたものである。
 指紋画像を特徴付ける特徴量には、端点や分岐点の位置だけではなく、特許文献1に開示されたような方向に関する特徴量が用いられることが多い。例えば、図45(a)に示す指紋画像から特徴点(端点、分岐点)を抽出すると、図45(b)に示すとおりとなる。なお、以降の説明で参照する図面において、隆線の端点を円形、分岐点を正方形にて表記する。
 図45(b)に示すように、図45(a)の指紋画像からは3個ずつの端点及び分岐点が抽出される。また、それぞれの端点及び分岐点について、各特徴点の方向に関する特徴量が算出される。図45(b)では、各端点及び分岐点のそれぞれから延伸する短い線が、算出された特徴点の方向に関する特徴量を示す。
 各特徴点の位置とその方向(図45(b)に示す短い線の方向を数値化した値)が、各指紋画像を特徴付ける特徴量(特徴量ベクトル)として算出されることが多い。多くの端点及び分岐点が指紋画像の全体に散在しているので、当該指紋画像に散在する特徴点ごとにその位置及び方向が特徴量として算出される。しかしながら、指紋画像の一部の領域は、特徴点の方向に係る特徴量(以下、特徴点方向と表記する)が安定して算出できないことが発明者らの検討の結果判明した。具体的には、指紋画像のコア領域やデルタ領域といった領域では、これらの領域に含まれる特徴点から安定して特徴点方向が算出できないことが判明した。
 図46は、指紋画像の一部の領域を示す図である。図46には、コア領域701とデルタ領域702が示されている。また、領域703はコア領域、デルタ領域以外の領域である。図46を確認すると、コア領域701とデルタ領域702における隆線方向の変動は、他の領域703よりも格段に大きいことが分かる。具体的には、領域703では、全ての隆線が左上から右下にほぼ同じ方向に流れているのに対し、コア領域701では隆線の向きが鋭角に大きく変化しているのが確認できる。また、デルタ領域702では、その中心点を基点して、各隆線が3方向に分岐しているのが確認できる。
 詳細は後述するが、分岐点の特徴点方向を算出する際、3本の隆線から形成される3つの内角における角度差が利用される。コア領域やデルタ領域以外の領域では、上記角度差が大きく、ノイズ等の影響により隆線方向が変動したとしても、当該角度差に与える影響は少ない。その結果、コア領域やデルタ領域以外の領域に存在する特徴点からは安定して特徴点方向が算出される。
 しかし、図46に示すように、コア領域やデルタ領域は、隆線方向が大きく変化し得る領域であるため、ノイズの影響や画像処理の方式の違いにより、分岐点を形成する3本の隆線同士の関係が容易に変化し得る。その結果、3本の隆線から形成される3つの内角における角度差もまた変動し、当該角度差に基づき算出される特徴点方向が安定しない。このように、高品質な押捺指紋を用いたとしても、コア領域やデルタ領域では特徴点方向を安定して算出することができないという問題がある。
 指紋画像を特徴付ける特徴量の1つである特徴点方向が安定して算出できないと、異なる時期、場所等にて採取された同一人物の指紋画像(対指紋画像)であっても、対応する特徴点の特徴点方向が異なることになる。その結果、2つの指紋画像の照合において、本来、対(ペア)となる特徴点同士が非対の特徴点と判断され、照合スコアが悪化する(照合精度が悪化する)。
 このような実情から、遺留指紋に係る指紋画像により特徴点方向を算出する際には、コア領域やデルタ領域に含まれる特徴点を用いないという運用がされることがある。しかし、コア領域やデルタ領域には多様な隆線形状が存在し、個々の指紋に特有な形状を有するものであるため、本来これらの領域は指紋照合における有効な領域であると言える。換言するならば、特徴点方向が安定して算出できないという理由から、コア領域やデルタ領域は十分活用されているとは言えず、これらの領域に含まれる特徴点を適切に特徴付ける特徴量を算出することで、指紋照合の精度を向上させる余地があると言える。
 本発明は、指紋等の照合における精度向上に貢献する特徴量を算出する、画像処理装置、画像処理方法及びプログラムを、提供することを目的とする。
 本発明の第1の視点によれば、隆線により曲線縞模様が形成されている画像を入力する画像入力部と、前記画像から抽出された特徴点を特徴付ける第1及び第2特徴点方向を算出する、特徴量算出部と、前記算出された第1及び第2特徴点方向を、前記抽出された特徴点の特徴量として出力する特徴量出力部と、を備える、画像処理装置が提供される。
 本発明の第2の視点によれば、隆線により曲線縞模様が形成されている画像を入力するステップと、前記画像から抽出された特徴点を特徴付ける第1及び第2特徴点方向を算出するステップと、前記算出された第1及び第2特徴点方向を、前記抽出された特徴点の特徴量として出力するステップと、を含む、画像処理方法が提供される。
 本発明の第3の視点によれば、隆線により曲線縞模様が形成されている画像を入力する処理と、前記画像から抽出された特徴点を特徴付ける第1及び第2特徴点方向を算出する処理と、前記算出された第1及び第2特徴点方向を、前記抽出された特徴点の特徴量として出力する処理と、を画像処理装置に搭載されたコンピュータに実行させるプログラムが提供される。
 なお、このプログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transient)なものとすることができる。本発明は、コンピュータプログラム製品として具現することも可能である。
 本発明の各視点によれば、指紋等の照合における精度向上に貢献する特徴量を算出することに寄与する、画像処理装置、画像処理方法及びプログラムが、提供される。
一実施形態の概要を説明するための図である。 第1の実施形態に係る指紋照合システムの構成の一例を示す図である。 第1の実施形態に係る特徴量生成装置の内部構成の一例を示す図である。 芯線画像の一例を示す図である。 分岐点に関する特徴点方向の算出を説明するための図である。 端点に関する特徴点方向の算出を説明するための図である。 特徴点方向の数値化を説明するための図である。 コア領域における特徴点方向の算出に係る問題を説明するための図である。 遺留指紋画像の一例を示す図である。 特徴点方向のずれを説明するための図である。 特徴量算出部13の動作の一例を示すフローチャートである。 第1及び第2特徴点方向の一例を示す図である。 第1及び第2特徴点方向の一例を示す図である。 デルタ領域に存在する分岐点から第2特徴点方向の算出を説明するための図である。 端点に関する第2特徴点方向の算出処理を説明するための図である。 端点の第1及び第2特徴点方向の一例を示す図である。 特徴量算出部による第2特徴点方向の算出を説明するための図である。 特徴量算出部による第2特徴点方向の算出を説明するための図である。 特徴量算出部が算出する特徴量の一例を示す図である。 第1の実施形態に係る入力装置の内部構成の一例を示す図である。 入力装置により表示される操作画面の一例を示す図である。 第1の実施形態に係る照合装置の内部構成の一例を示す図である。 特徴点照合部による照合処理を説明するための図である。 特徴点照合部による特徴点間の対応関係を検出する動作を説明するための図である。 特徴点照合部による特徴点間の対応関係を検出する動作を説明するための図である。 特徴点照合部による特徴点間の対応関係を検出する動作を説明するための図である。 特徴点照合部による特徴点間の対応関係を検出する動作を説明するための図である。 2つの特徴点間の対応関係を説明するための図である。 2つの特徴点間の対応関係を説明するための図である。 照合装置が出力する照合結果の一例を示す図である。 第1の実施形態に係る指紋照合システムの全体動作の一例を示すシーケンス図である。 中核蹄線を説明するための図である。 デルタ領域には特徴点が存在しないことがあり得ることを説明するための図である。 第2の実施形態に係る特徴量生成装置の内部構成の一例を示す図である。 第2の実施形態に係る芯線追加部を説明するための図である。 第2の実施形態に係る芯線追加部を説明するための図である。 鑑識官による突起芯線の入力を説明するための図である。 鑑識官によるデルタドット芯線の入力を説明するための図である。 中核蹄線の遷移を説明するための図である。 デルタ領域における指紋画像の一例を示す図である。 一実施形態に係る画像処理装置の内部構成の一例を示す図である。 特徴量生成装置のハードウェア構成の一例を示す図である。 入力装置のハードウェア構成の一例を示す図である。 照合装置のハードウェア構成の一例を示す図である。 指紋画像の特徴点と特徴量を説明するための図である。 指紋画像の一部の領域を示す図である。
 初めに、一実施形態の概要について説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、この概要の記載はなんらの限定を意図するものではない。
 一実施形態に係る画像処理装置100は、画像入力部101と、特徴量算出部102と、特徴量出力部103と、を備える。画像入力部101は、隆線により曲線縞模様が形成されている画像を入力する。特徴量算出部102は、画像から抽出された特徴点を特徴付ける第1及び第2特徴点方向を算出する。特徴量出力部103は、算出された第1及び第2特徴点方向を、抽出された特徴点の特徴量として出力する。
 上述のように、コア領域やデルタ領域の特徴点からは、特徴点方向が安定して算出できず、特徴点照合においてこれらの領域に存在する特徴点が有効活用されていないという問題がある。つまり、コア領域等の特徴点を不使用とすることで、コア領域やデルタ領域を主要領域とするような指紋画像(特に、小領域遺留指紋)における照合精度の劣化を招来している。そこで、一実施形態に係る画像処理装置では、特徴点方向が安定して算出できないと判断されるような場合に、通常用いられる特徴点方向(第1特徴点方向)に加えて、第2特徴点方向を算出する。特徴点を2つの方向を用いて特徴付けることにより、当該2つの特徴点方向を有する特徴点間の照合精度が向上する。具体的には、2つの特徴点間の照合において、一方の特徴点が有する2つの特徴点方向のうち少なくとも一方が、他の特徴点が有する2つの特徴点方向のいずれかに一致する等の関係が検出できれば、2つの特徴点を対特徴点と扱う等の対応が可能である。その結果、指紋画像の照合精度、特に、コア領域やデルタ領域を主要領域とする指紋画像の照合精度を向上させることができる。
 以下に具体的な実施の形態について、図面を参照してさらに詳しく説明する。なお、各実施形態において同一構成要素には同一の符号を付し、その説明を省略する。
[第1の実施形態]
 第1の実施形態について、図面を用いてより詳細に説明する。
 図2は、第1の実施形態に係る指紋照合システムの構成の一例を示す図である。図2を参照すると、指紋照合システムは、特徴量生成装置10と、データベース20と、入力装置30と、照合装置40と、を含んで構成される。
 特徴量生成装置10は、指紋画像に係るデータ及びそのID(Identifier)情報を入力し、当該入力した指紋画像を特徴付ける特徴量(特徴量ベクトル)を生成する。特徴量生成装置10は、生成した特徴量を指紋画像のID情報と共に、データベース20に出力する。
 データベース20は、指紋画像の特徴量とそのID情報を関連付けて記憶する。
 入力装置30は、例えば、鑑識官が使用する装置である。入力装置30は、例えば、マウスやタブレット等のポインティングデバイスによる操作を受け付け、鑑識官が特徴量を入力する装置である。入力装置30は、鑑識官が入力した特徴量を、指紋画像のID情報と共に照合装置40に出力する。
 照合装置40は、鑑識官が入力した特徴量(入力装置30が出力する特徴量)を用いた照合処理を実行する。具体的には、照合装置40は、鑑識官が入力した特徴量とデータベース20にアクセスすることで得られる特徴量を比較することで、鑑識官が入力した特徴量と同じ、又は、類似する特徴量を持つ指紋画像を特定する。
 ここで、押捺指紋は、データベース等へ登録する目的で採取される指紋であり、隆線領域の面積は広く品質は良いという特徴を有する。対して、遺留指紋は、犯罪現場等に遺留された指紋であり、明瞭な隆線領域の面積は狭く、品質が低いことが多いという特徴を持つ。遺留指紋に関しては、信頼度の高い特徴量を得るために、鑑識官が特徴量を入力することが多い。
 このような事情を鑑み、第1の実施形態では、特徴量生成装置10は押捺指紋に係る画像を入力し、入力装置30にて鑑識官が特徴量を入力する指紋画像は遺留指紋に係る画像とする。但し、各装置が扱うことができる指紋画像を限定する趣旨ではない。特徴量生成装置10が遺留指紋から特徴量を生成し、その特徴量を照合装置40に提供しても良いし、鑑識官が押捺指紋から特徴量を抽出してもよい。換言するならば、照合の対象となる指紋は、押捺指紋同士でも良いし、遺留指紋同士でも良い。但し、犯罪捜査の用途では、遺留指紋と押捺指紋の照合が行われることが多いことを考慮して、第1の実施形態では上記の構成としている。
[特徴量生成装置の構成及び動作]
 図3は、特徴量生成装置10の内部構成の一例を示す図である。図3を参照すると、特徴量生成装置10は、指紋画像入力部11と、芯線画像抽出部12と、特徴量算出部13と、特徴量出力部14と、記憶部15と、を含んで構成される。なお、指紋画像入力部11等の各部は相互にデータの授受が可能に構成されると共に、記憶部15に格納されたデータにアクセス可能である。
 指紋画像入力部11は、外部から指紋画像(隆線により曲線縞模様が形成されている画像)に係るデータと、当該指紋画像のID情報と、を入力する手段である。例えば、指紋画像入力部11は、USB(Universal Serial Bus)メモリ等の外部記憶媒体に格納された指紋画像のデジタルデータ(画像ファイル)を取り込み、芯線画像抽出部12に当該データを引き渡す。又は、指紋画像入力部11は、ネットワークを介して指紋画像に係るデータ等を入力してもよい。あるいは、スキャナ等によりデジタル化された指紋画像を入力する構成ではなく、指紋画像入力部11にスキャナ機能を搭載することで、デジタル化された指紋画像を取得してもよい。
 指紋画像には標準化された規格が存在する。具体的には、米国National Institute of Standards and Technologyにより標準化されたANSI/NIST-ITL-1-2000 Data Format for the Interchange of Fingerprint、Facial、& Scar Mark & Tattoo (SMT) Informationが存在する。指紋画像入力部11は、上記規格に基づきデジタル化された指紋画像(例えば、解像度が500dpiの指紋画像)を取り扱えることが望ましい。
 記憶部15は、例えば、RAM(Random Access Memory)やROM(Read Only Memory)、HDD(Hard Disk Drive)等の媒体により構成され、芯線画像抽出部12等の各部が作業領域やデータを格納領域として使用する。
 芯線画像抽出部12は、取得した指紋画像から芯線画像を抽出する手段である。例えば、芯線画像抽出部12は、図4に示すような芯線画像を抽出する。なお、芯線画像抽出部12は、非特許文献1の「3 Fingerprint Analysis and Representation」に開示された芯線画像抽出手法を用いることができる。そのため、芯線画像の抽出に関する詳細な説明は省略するが、芯線画像抽出部12は、概略以下の手順にて、芯線画像を抽出する。
 芯線画像抽出部12は、初めに、指紋画像の隆線の方向を抽出する。その後、芯線画像抽出部12は、当該隆線方向に沿って各隆線を強調し、二値画像を生成する。その後、芯線画像抽出部12は、二値画像を芯線化することで、芯線画像(芯線データ)を抽出する。
 特徴量算出部13は、芯線画像から特徴点を抽出し、当該特徴点を特徴付ける特徴量を算出する手段である。特徴量算出部13が算出する特徴量には、特徴点(端点、分岐点)の位置と、当該特徴点を方向により特徴付ける特徴点方向と、が含まれる。
 特徴量算出部13は、芯線画像抽出部12が抽出した芯線画像から、芯線の分岐点及び端点を抽出することで、特徴点を抽出する。なお、芯線画像から特徴点を抽出する際の手順には、非特許文献1の「3 Fingerprint Analysis and Representation」に開示された特徴点抽出手法を用いることができる。そのため、特徴点抽出に関する詳細な説明は省略する。また、特徴量算出部13は、特徴点の抽出の際に、指紋画像の特異点(コア型特異点、デルタ型特異点)を抽出し、特徴量の1つとして利用する。
 例えば、特徴量算出部13は、図4に示すような分岐点201、202や、端点211、212を特徴点として抽出し、各特徴点の位置及びその種別(分岐点、端点)を記憶部15に登録する。
 以下、特徴量算出部13による特徴点方向の算出に先立ち、通常行われる特徴点方向の算出処理と、その問題点を説明する。
 初めに、分岐点に関する特徴点方向の算出について説明する。その際、図5(a)に示す分岐点203の特徴点方向221の算出を説明する。初めに、分岐点203を形成する3つの隆線(芯線)のそれぞれを分岐点203から一定距離トレースする(隆線上を遡る)ことで、3つの終端点231~233が決定される(図5(b)参照)。
 次に、分岐点203と3つの終端点231~233により定まる3本の直線が形成する3つの角度a1~a3それぞれが計算される(図5(c)参照)。次に、計算された3つの角度のうち、最も角度の小さい角度が決定され、当該角度を2分する方向が、特徴点方向221として算出される(図5(b)参照)。
 なお、本願開示において、1つの点を始点とする2本の直線により形成される2つの角度のうち、角度の小さい方を内角、大きい方を外角と定める。また、1つの点を始点とする3本の直線により形成される3つの角度のうち、最小の角度をもつものを最小内角、2番目に小さい角度をもつものを第2最小内角、角度の最も大きいものを最大内角と定める。図5(c)の例では、角度a1が最小内角、角度a2の方が角度a3よりも小さければ、角度a2が第2最小内角となる。
 次に、図6を参照しつつ、端点に関する特徴点方向の算出について説明する。初めに、端点213から、その端点を形成する隆線(芯線)上を一定距離トレースし、終端点234が算出される。端点213から終端点234に向けた方向が、端点213の特徴点方向として算出される。なお、後述する第1及び第2特徴点方向を含む特徴点方向は、図7に示すように、指紋画像内の2次元座標系におけるX軸と、特徴点方向による直線と、により形成される角度θを用いて特徴量として表記される。
 分岐点及び端点を算出する際のトレース距離は、算出される特徴点方向に大きな影響を与える重要なパラメータである。第1の実施形態では、隆線間隔の2本分を上記トレース距離に設定している。しかし、トレース距離はこれに限られない。
 図5及び図6を参照しつつ説明した方法により、特徴点の特徴点方向が算出されるが、コア領域(指紋中心点の近傍)やデルタ領域(三角州の領域)では、算出された特徴点方向が不安定になるという問題がある。その理由を、図8を参照しつつ、説明する。なお、図8(a)に示す指紋画像はコア領域を抜粋した図である。
 上記方法に従い、図8(a)に示された分岐点204を形成する隆線を3方向に所定の距離、トレースすると、3点の終端点235~237が得られる(図8(b)参照)。次に、分岐点204と3つの終端点235~237のそれぞれを結ぶ3本の直線により形成される3つの内角a1~a3のうち、最小内角a1を2分する方向が分岐点204の特徴点方向として算出される(図8(c)参照)。
 ここで、図8(b)を参照すると、3つの内角のうち、最小内角a1と第2最小内角a2の角度差が小さいことが理解される。このことは、3つの内角を定める種々の要因が僅かでも変動すると、最小内角と第2最小内角の関係が逆転し得ることを意味する。例えば、同一の指紋画像であっても、当該指紋画像に適用する二値化や芯線化処理の些細な違いにより特徴点方向が大きく変動する可能性がある。
 図9は、遺留指紋画像の一例を示す図である。図9に示す指紋画像の分岐点205の周辺を拡大した図が、図10(a)及び図10(d)である。図10(a)及び図10(d)では、指紋画像に対し異なる方式の芯線化処理を施し、その結果を重ねて表示している。図10(b)は図10(a)から芯線を抽出した図であり、図10(e)は図10(d)から芯線を抽出した図である。図10(b)と図10(e)それぞれに示す芯線画像に対して、上述の特徴点方向の算出に係る処理(最小内角を2分する方向を算出する処理)を適用すると、図10(c)と図10(f)に示す特徴点方向242、243が得られる。
 図10を参照すると、同一の遺留指紋であっても、コア領域に存在する分岐点の特徴点方向は、芯線の些少な違いにより、大きく変動することが確認できる。このように、コア領域では特徴点方向を安定して一意に決定することが困難であり、同じ人物から採取した指紋画像であっても、サーチ側とファイル側にて異なる特徴点方向を算出してしまうことがある。その結果、サーチ側とファイル側にて対となる特徴点間の特徴点方向の差が大きくなり、照合スコアが低下する要因やペアリングが失敗する要因となり得る。
 上記の説明は芯線処理の方式が異なる場合であるが、コア領域にて特徴点方向が一意に定まらないという現象は、遺留指紋に顕著な画像歪みや汚れ等により容易に発生し得る。
 さらに、デルタ領域では、分岐点と3つの終端点を結ぶ直線からなる3つの内角の角度差は、コア領域の分岐点よりも小さいものと言える。つまり、デルタ領域では3本の隆線が3方向に延伸するため、3つの内角はほぼ120度前後となる。そのため、デルタ領域では、算出された特徴点方向はより不安定であるという傾向がある。
 また、上述したように、遺留指紋の品質は低いことが多く、コンピュータを利用した情報処理による特徴点の自動的な抽出には不向きである。そのため、遺留指紋専門官(Latent Examiner)が、手動にて特徴点の位置とその特徴点方向を入力することが多い。このような入力作業は、「特徴点マニュアル入力」と呼ばれる。専門的な知見を有する遺留指紋専門官であっても、コア領域やデルタ領域の分岐点における最小内角を一意に決定することは困難であり、遺留指紋専門官が異なれば異なる特徴点方向が指定されることも多い。その結果、サーチ側とファイル側の特徴量が異なることになり、照合精度の劣化要因の1つとなっている。
 以上の状況を鑑みて、第1の実施形態に係る特徴量生成装置10では、上記図5及び図6を参照しつつ説明した特徴点方向の算出方法による特徴点方向と、当該方法とは異なる方法による特徴点方向と、を算出する。
 なお、以降の説明において、図5及び図6を参照しつつ説明した特徴点方向の算出方法を第1の算出方法と表記し、当該方法により算出された特徴点方向を第1特徴点方向と表記する。また、以降説明する第1の算出方法とは異なる方法を第2の算出方法と表記すると共に、当該方法により算出された特徴点方向を第2特徴点方向(Secondary Direction)と表記する。
 図11は、特徴量算出部13の動作の一例を示すフローチャートである。図11を参照しつつ、主に特徴点方向に関する第2の算出方法を説明する。
 ステップS101において、特徴量算出部13は、取得した芯線画像から特徴点を抽出し、その位置及び種別を記憶部15に登録する。その後、特徴量算出部13は、ステップS102以降の処理を実行することで、芯線画像に散在する各特徴点について、その特徴点方向を算出する。
 ステップS102において、特徴量算出部13は、特徴点方向算出の対象となっている特徴点が分岐点か端点かを確認する。
 分岐点の場合(ステップS102、Yes分岐)には、特徴量算出部13は、ステップS103~S105に係る処理を実行する。端点の場合(ステップS102、No分岐)には、特徴量算出部13は、ステップS106~S116に係る処理を実行する。
 ステップS103において、特徴量算出部13は、第1の算出方法により、分岐点の第1特徴点方向を算出する。ここでは、第1の算出方法により、図8(b)に示す芯線画像と3つの内角a1~a3が得られ、図8(c)に示す第1特徴点方向が算出されたものとする。
 第1特徴点方向の算出が終了すると、特徴量算出部13は、第2最小内角と最小内角の差分値(角度差)を計算し、当該差分値が所定の閾値以下か否かを判定する(ステップS104)。図8(b)に示す例では、第2最小内角a2から最小内角a1の角度を減算し、上記差分値が計算される。
 上記差分値が閾値以下(ステップS104、Yes分岐)であれば、特徴量算出部13は、分岐点の第2特徴点方向を算出する(ステップS105)。具体的には、特徴量算出部13は、第2最小内角を2分する方向を第2特徴点方向として算出する。例えば、図12に示すように、第1特徴点方向301に加え、第2最小内角a2を2分する第2特徴点方向311が算出される。なお、特徴量算出部13が第2特徴点方向を算出するか否かの判断に用いる閾値(ステップS104の閾値)は、例えば、20度~30度程度とすることができる。
 ここで、本願開示において、第1特徴点方向を図示する場合には膨らみを持たせた実線を使用し、第2特徴点方向を図示する場合には膨らみのない実線を使用する。
 特徴量算出部13は、第2最小内角と最小内角の角度差が小さい(例えば、角度差が30度以下)場合に、第2最小内角を2分する方向を第2特徴点方向として算出する。差分値が閾値より大きい場合(ステップS104、No分岐)には、特徴量算出部13は、分岐点についての第2特徴点方向を算出せず、処理を終了する。
 図13(a)は、図10(a)に示す指紋画像から算出した第1特徴点方向と第2特徴点方向の一例を示す図であり、図13(b)は図10(d)に示す指紋画像から算出した第1特徴点方向と第2特徴点方向の一例を示す図である。図13を参照すると、図13(a)に示す第1特徴点方向302と図13(b)に示す第2特徴点方向313は一致(実質的に一致;2つの方向のずれが所定の範囲内)し、図13(a)の第2特徴点方向312と図13(b)の第1特徴点方向303が一致(実質的に一致)することが分かる。
 これらの特徴点方向を用いた照合については後述するが、第2特徴点方向を新たな特徴量として導入することで、コア領域等における特徴点方向の変動に起因する照合精度の劣化を抑制できる。即ち、2つの特徴点において、第1特徴点方向が異なるとしても、一方の第1特徴点方向と他方の第2特徴点方向が一致すれば、2つの特徴点は対となる特徴点(対特徴点)と定めることができる。
 上述の第2の算出方法は、コア領域に存在する分岐点を例に取った場合であるが、デルタ領域に存在する分岐点に関しても、コア領域に存在する分岐点から第2特徴点方向を算出する場合と同じ方法で算出できる。
 例えば、図14を参照すると、最小内角a1により第1特徴点方向304が、第2最小内角a2により第2特徴点方向315がそれぞれ、デルタ領域に存在する分岐点321を特徴付ける特徴点方向として算出される。
 上記説明したように、特徴量算出部13は、抽出された特徴点が分岐点である場合、当該分岐点をなす3本の隆線が形成する3つの内角のうちの1つの内角(例えば、図8(b)に示す最小内角a1)に基づき、第1特徴点方向を算出する。さらに、特徴量算出部13は、当該3つの内角のうち少なくとも2つの内角間の関係(例えば、図8(b)に示す最小内角a1と第2最小内角a2との間の大小関係)に基づき、第2特徴点方向を算出する。具体的には、特徴量算出部13は、3つの内角のうち、角度が最小である内角と角度が2番目に小さい内角との間の角度差が閾値よりも小さい場合に、第2特徴点方向を算出する。より詳細には、特徴量算出部13は、最小内角を2分する方向であって、隆線をトレースして得られる終端点に向かう方向を第1特徴点方向とし、第2最小内角を2分する方向であって、隆線をトレースして得られる終端点に向かう方向を第2特徴点方向とする。
 特徴点が端点の場合(図12のステップS102、No分岐)、特徴量算出部13は、第1の算出方法により、端点の第1特徴点方向を算出する(ステップS106)。
 次に、特徴量算出部13は、端点の第2特徴点方向の候補を算出する(ステップS107)。具体的には、特徴量算出部13は、端点から通常のトレース距離(第1の算出方法時のトレース距離;以下、第1トレース距離と表記する)よりも長い距離(以下、第2トレース距離)、隆線上をトレースし2つのトレース距離による2つの終端点を算出する。なお、第2のトレース距離は、第1のトレース距離の倍程度とするのが望ましい。例えば、図15を参照すると、第1の算出処理により終端点341が算出され、端点331から第2のトレース距離に位置する終端点342が算出される。特徴量算出部13は、端点331から第2のトレース距離による終端点342に向かう方向を、第2特徴点方向の候補に設定する。
 図11のステップS108において、特徴量算出部13は、端点331と終端点341を結ぶ直線と、端点331と終端点342を結ぶ直線と、から形成される内角b1を計算する。
 その後、特徴量算出部13は、当該計算した角度(図15に示す内角b1)と閾値(例えば、45度)を比較する(ステップS109)。
 計算した内角が閾値よりも大きい場合には(ステップS109、Yes分岐)、特徴量算出部13は、ステップS107にて設定した第2特徴点方向の候補を、そのまま第2特徴点方向に定める(ステップS110)。即ち、特徴量算出部13は、2つのトレース距離それぞれに対応して計算した2つの終端点から得られる内角が閾値よりも大きい場合には、端点から第2のトレース距離により得られる終端点に向かう直線の方向を第2特徴点方向とする。
 図16を参照すると、例えば、第1トレース距離によるトレースにより終端点343が得られ、第2のトレース距離によるトレースにより終端点344が得られるとする。この場合、端点332から終端点343に向けた方向が第1特徴点方向となり、端点332から終端点344に向けた方向が第2特徴点方向となる。
 上記説明したように、特徴量算出部13は、抽出された特徴点が端点である場合、端点から、端点をなす隆線上を第1の距離トレースすることで得られる第1の終端点に向かう方向を第1特徴点方向とする。また、特徴量算出部13は、端点をなす隆線上を第1の距離よりも長い第2の距離トレースすることで得られる第2の終端点を計算し、端点と第1の終端点を結ぶ直線と、端点と第2の終端点を結ぶ直線と、により端点において形成される内角が、所定の条件(例えば、2本の直線による内角が閾値以上)を満たす場合に、端点から第2の終端点に向かう方向を第2特徴点方向として算出する。
 特徴量算出部13は、ステップS110の方法により第2特徴点方向を定めることができない場合(ステップS109、No分岐)には、ステップS111以降の方法により、第2特徴点方向の算出を試みる。
 図17は、特徴量算出部13による第2特徴点方向の算出を説明するための図である。図17を参照しつつ、ステップS111以降の特徴量算出部13の動作を説明する。
 ステップS111において、特徴量算出部13は、端点333から第1のトレース距離による第1特徴点方向351に相対する方向(反対方向;180度反転した方向)に所定の長さ(例えば、隆線間隔1本分)を有する仮想線361を設定する。
 次に、特徴量算出部13は、当該仮想線361と隆線の交点が存在するか否かを判定する(ステップS112)。図17の例では、交点371が検出される。
 仮想線と隆線の交点が検出された場合(ステップS112、Yes分岐)には、特徴量算出部13は、検出された交点から、隆線上を2方向に一定距離(例えば、隆線間隔2本分)トレースし、2つの終端点345、346を計算する(ステップS113)。
 次に、特徴量算出部13は、交点371と端点333を結ぶ直線(仮想線361の一部)と、交点371と終端点345を結ぶ直線と、交点371と終端点346を結ぶ直線と、からなる3本の直線により交点371にて形成される3つの内角a4~a6を計算する(ステップS114;図17(b)参照)。
 その後、特徴量算出部13は、3つの内角のうち角度が最も大きい内角a6を除く、2つの内角a4、a5のうち、大きい方の内角(図17の例では、内角a5;第2最小内角)が閾値(例えば、145度)以下か否かを判定する(ステップS115)。
 第2最小内角が閾値以下である場合(ステップS115、Yes分岐)には、特徴量算出部13は、交点371から終端点345に向く方向を、第2特徴点方向に定める(ステップS116)。
 図17(c)を参照すると、端点333に対応する特徴点方向として、第1特徴点方向351と、第2特徴点方向352と、が算出される。なお、図17(c)において、交点371を端点333の位置に移動させ、第2特徴点方向352の始点が端点333と重なるように図示している。
 第2最小内角が閾値より大きい場合(ステップS115、No分岐)には、特徴量算出部13は、当該端点に対応する第2特徴点方向は存在しないと決定する(処理を終了する)。
 上記の計算を実行すると、コア領域やデルタ領域以外の領域では、3本の直線により形成される角度のうち、第2最小内角(図17(b)の例では、内角a5)は180度に近い値となる(閾値として定めた145度を超える)。そのため、コア領域やデルタ領域以外の領域では、第2特徴点方向が算出される端点は少ない。
 なお、図11のフローチャートを参照しつつ説明した端点の第2特徴点方向の算出では、所定の条件に応じて、ステップS110による第2特徴点方向の算出と、ステップS116による第2特徴点方向の算出と、が実行されるがいずれか一方に限り実行され、端点に関する第2特徴点方向の算出が行われても良いことは勿論である。
 図16及び図17を参照して説明した端点の第2特徴点方向の算出方法は、コア領域における説明であるが、デルタ領域の端点についても同様の方法にて第2特徴点方向を算出できる。
 例えば、図18を参照すると、端点334がデルタ領域に存在している。特徴量算出部13は、端点334から第1のトレース距離により終端点347を計算する(第1特徴点方向を算出する)。この場合、端点と第1のトレース距離による終端点を結ぶ直線と、端点と第2のトレース距離による終端点を結ぶ直線と、からなる内角は閾値より小さく(ステップS109、No分岐)、ステップS111以降の処理が実行される。
 特徴量算出部13は、第1特徴点方向とは逆の方向に仮想線362を設定し、仮想線362と隆線との交点372を得る(ステップS111)。次に、特徴量算出部13は、交点372から隆線上を2方向に一定距離トレースし、2つの終端点348、349を計算する(ステップS113)。次に、特徴量算出部13は、交点372と端点334を結ぶ直線と、交点372と終端点348を結ぶ直線と、交点372と終端点349を結ぶ直線と、からなる3本の直線により形成される3つの内角a4~a6を計算する(ステップS114;図18(b)参照)。この場合、第2最小内角a5は、閾値以下と言えるので、交点372から終端点348に向かう方向が、第2特徴点方向353として算出される(ステップS116;図18(c)参照)。なお、図18(c)においても、交点372を端点334の位置に移動させ、第2特徴点方向353の始点が端点334と重なるように図示している。
 上記説明したように、特徴量算出部13は、ステップS110により第2特徴点方向を算出できない場合に、端点から第1特徴点方向とは反対方向に延伸する、端点を始点とする仮想線を設定する。そして、特徴量算出部13は、仮想線が所定の範囲内にて隆線と交点を持ち、且つ、所定の条件を満たす場合に、第2特徴点方向を算出する。
 以上により、特徴量算出部13による特徴点の特徴量算出処理が終了する。
 特徴量算出部13による特徴量算出処理が終了すると、図19に示すような特徴量が得られる。図19を参照すると、特徴量算出部13は、指紋画像ごとに当該指紋画像に存在する特徴点に関する特徴量(特徴点の種別、位置、第1特徴点方向、第2特徴点方向)を算出する。上述のように、コア領域やデルタ領域では、第1特徴点方向に加え第2特徴点方向が算出されるが、他の領域では第2特徴点方向が算出されないことが多い。図19では、算出されなかった第2特徴点方向を記号「-」を用いて表記している。
 特徴量算出部13は、算出した特徴量(図19に示すような結果)を特徴量出力部14に引き渡す。
 特徴量出力部14は、特徴量算出部13が算出した特徴量を、特徴量算出部13により抽出された特徴量としてデータベース20に出力する。その際、特徴量出力部14は、特徴量と、当該特徴量に対応する指紋画像のID情報と、を関連付けて、データベース20に出力する。なお、特徴量出力部14は、算出された特徴量に加え、指紋画像の特異点(コア型特異点、デルタ型特異点)をデータベース20に出力しても良い。
[入力装置の構成及び動作]
 次に、入力装置30の構成及び動作について説明する。
 図20は、入力装置30の内部構成の一例を示す図である。図20を参照すると、入力装置30は、データ入力部31と、データ出力部32と、記憶部33と、を含んで構成される。
 データ入力部31は、遺留指紋等に係る画像データと当該遺留指紋のID情報を、外部記憶装置(USBメモリ等)やネットワークにより入力する。また、データ入力部31は、鑑識官による操作を受け付けると共に、当該操作に応じた操作画面を生成し、当該操作画面を液晶ディスプレイ等の表示装置(図示せず)に表示する。即ち、データ入力部31は、ユーザ(オペレータ)の操作に供する画面を表示装置に表示し、ユーザによる特徴点の特徴量を入力する操作を受け付ける。
 鑑識官は、表示装置に写る操作画面により、指紋画像(主に遺留指紋画像)から特異点(コア型特異点、デルタ型特異点)や特徴点を見つけ出し、その位置に関する情報や特徴量を入力する。例えば、鑑識官は、第1特徴点方向や第2特徴点方向のような特徴点方向を入力する場合には、入力する特徴点方向に沿ってドラッグ操作を行うことにより、特徴点方向を入力する。その後、鑑識官によるドラッグ操作が終了すると、データ入力部31は、図21に示すようなプルダウンメニューを表示させ、鑑識官が、「第1特徴点方向の設定」や「第2特徴点方向の設定」を選択することに応じて、特徴点方向を入力する。
 なお、入力装置30は、鑑識官により入力された特徴点方向を表示する場合には、図13等に示すように、第1特徴点方向と第2特徴点方向の表示態様を互いに異なるものとするのが望ましい(例えば、一方は膨らみを持たせる、他方は膨らみを持たせない、あるいは点線を用いる、表示色を変更する等)。そのような操作インターフェイスを鑑識官に提供することで、鑑識官は直感的な操作にて特徴量の入力を行えるようになる。
 データ入力部31は、このようにして入力された各特徴点の特徴量を記憶部33に格納する。その際、データ入力部31は、ドラッグ操作により示された特徴点方向を、図7に示す角度に変換する等の処理を実行し、特徴量生成装置10がデータベース20に登録する特徴量と同様のフォーマットによる特徴量を記憶部33に格納する。ここで、入力装置30は、上述した指紋画像入力部11、芯線画像抽出部12、特徴量算出部13、特徴量出力部14を備えており、遺留指紋に係る画像データの特徴量とID情報を表示装置に表示するような構成にしてもよい。このような構成により、鑑識官は、表示された遺留指紋に係る特徴量に誤りがあった場合に修正するだけでよく、鑑識官の処理工数を削減できる。
 データ出力部32は、鑑識官によるデータ入力操作が終了すると、記憶部33に格納された特徴量を読み出して、当該特徴量を遺留指紋画像のID情報と共に照合装置40に出力する。
[照合装置の構成及び動作]
 次に、照合装置40の構成及び動作について説明する。
 図22は、照合装置40の内部構成の一例を示す図である。図22を参照すると、照合装置40は、特徴量入力部41と、特徴点照合部42と、照合結果出力部43と、記憶部44と、を含んで構成される。
 特徴量入力部41は、指紋照合における探索側(サーチ側)となる指紋画像に係る特徴量とID情報を入力装置30から入力する。また、特徴量入力部41は、特徴点照合部42からの依頼に応じて、データベース20にアクセスし、指紋照合における被探索側(ファイル側)となる指紋画像に係る特徴量とID情報を取得する。特徴量入力部41は、取得した特徴量とID情報(サーチ側とファイル側の特徴量及びID情報)を特徴点照合部42に引き渡す。
 特徴点照合部42は、サーチ側の指紋(遺留指紋)画像に係る特徴量と、ファイル側の指紋(押捺指紋)画像に係る特徴量と、に基づきサーチ側とファイル側の指紋画像の照合を行い、照合結果を示す照合スコアを計算する。特徴点照合部42は、与えられた2つの特徴量の照合を行う際、位置及び第1特徴点方向の照合に関しては、非特許文献1の「4 Fingerprint Matching」に開示された特徴点照合処理を用いることができる。
 ここでは、図23以降の図面を参照しつつ、特徴点照合部42による第2特徴点方向を利用した照合処理を主に説明する。なお、図23(a)の左側に図示した指紋画像は遺留指紋に係る画像であり、図示された特徴点及びその特徴量は、鑑識官が入力したものである。また、図23(a)の右側に図示した指紋画像は、左側の指紋画像に対応する人物の押捺指紋に係る画像であって、図示された特徴点及びその特徴量は、特徴量生成装置10が算出したものである。
 特徴点照合部42は、図23(a)の左側に図示された複数の特徴点401~405と、右側に図示された複数の特徴点(特徴点411~415を含む10個の特徴点)と、の間の対応関係を検出する。例えば、左側(サーチ側;遺留指紋側)の特徴点401と右側(ファイル側;押捺指紋側)の特徴点411と、の間の対応関係や、左側の特徴点402と右側の特徴点412の間の対応関係が、検出される。
 特徴点同士の対応関係算出にあたり、特徴点照合部42は、第2特徴点方向を考慮して対応関係の検出を行う。より具体的には、特徴点照合部42は、以下に示す照合規則(1)~(3)にて特徴点間の対応関係を検出する。その際、特徴点照合部42は、2つの指紋画像の位置合わせ(位置決め)処理を実施し、特徴点座標を変換する。2つの指紋画像の位置合わせには種々の方法を採用することができる。例えば、特異点(コア型特異点、デルタ型特異点)を利用して2つの指紋画像の位置合わせを行ってもよい。特徴点照合部42は、位置合わせ処理にて座標変換された後のサーチ側とファイル側の2つの特徴点座標が所定の範囲内にあれば、当該2つの特徴点は対特徴点の候補として扱う。その上で、特徴点照合部42は、対特徴点の候補それぞれの特徴量(第1及び第2特徴点方向)を比較し、最終的な判定(対特徴点、非対特徴点)を行う。
 照合規則(1)2つの特徴点の位置関係が所定の範囲内にある場合おいて、2つの特徴点が共に第2特徴点方向を有さない場合には、それぞれの特徴点が有する第1特徴点方向が実質的に一致するか否かに応じて、対応関係が検出される(対特徴点と判定される)。つまり、位置合わせ処理で座標変換された後のサーチ側とファイル側の2つの特異点座標が所定の範囲内にある場合に、当該2つの特徴点は同じ位置に存在すると判定される。その後、各特徴点の有する第1特徴点方向が一致すれば、2つの特徴点は対特徴点であると判定される。
 照合規則(2)2つの特徴点の位置関係が所定の範囲内にある場合において、一方の特徴点が第1特徴点方向に限り有し、他方の特徴点が第1及び2特徴点方向を有する場合には、以下の条件に従い対応関係が検出される。
 (2-1)特徴点種別(分岐点、端点)が同一の場合には、第1特徴点方向を有する特徴点の第1特徴点方向が、他方の特徴点の第1及び第2特徴点方向のいずれか一方と実質的に一致する場合、対応関係が検出される。
 (2-2)特徴点種別が異なる場合には、第1特徴点方向を有する特徴点と、第1及び第2特徴点方向を有する特徴点それぞれの特徴点方向が、以下の関係のいずれかを満たす場合に、2つの特徴点の間に対応関係が検出される。
 第1の関係は、第1特徴点方向を有する特徴点の第1特徴点方向が、他方の特徴点が有する第1及び第2特徴点方向のいずれか一方と実質的に一致する場合である。第1の関係を満たす2つの特徴点の間には、対応関係が検出される。
 第2の関係は、第1特徴点方向を有する特徴点の第1特徴点方向が、他方の特徴点が有する第1及び第2特徴点方向による直線からなる内角を2分する方向と実質的に一致する場合である。なお、以降の説明において、第1及び第2特徴点方向による直線からなる内角を2分する方向を、第1照合用方向と表記すると共に図面では点線を用いて図示する。第2の関係を満たす2つの特徴点の間にも、対応関係が検出される。即ち、第1特徴点方向を有する特徴点が分岐点であれば、当該分岐点が有する第1特徴点方向と、位置関係が所定の範囲内にある端点の第1照合用方向と、の比較により、2つの特徴点間の対応関係が判定される。同様に、第1特徴点方向を有する特徴点が端点であれば、当該端点が有する第1特徴点方向と、位置関係が所定の範囲内にある分岐点の第1照合用方向と、の比較により、2つの特徴点間の対応関係が判定される。
 図24を参照して特徴点種別が同一の場合を具体的に説明すると、特徴点406が第1特徴点方向を有し、特徴点416は2つの特徴点方向を有する。図24(a)に示す場合は、特徴点406の第1特徴点方向と、特徴点416の第1特徴点方向が一致するので、2つの特徴点には対応関係が検出される。図24(b)に示す場合は、特徴点406の第1特徴点方向と、特徴点416の第2特徴点方向が一致するので、2つの特徴点には対応関係が検出される。一方、図24(c)に示す場合には、特徴点406の第1特徴点方向は、特徴点416の第1及び第2特徴点方向のいずれとも一致しないので、2つの特徴点には対応関係がないと判定される(対応関係は検出されない)。
 次に、図25を参照して、特徴点種別が異なる場合を具体的に説明する。図25を参照すると、第1特徴点方向を有する特徴点407は分岐点である。また、第1及び第2特徴点方向を有する特徴点417は端点である。従って、図25の例では、2つの特徴点407、417が上記(2-2)の第1の関係、又は、第2の関係を有するか否かに基づき、2つの特徴点間の対応関係が判定される。図25(a)の場合には、特徴点407の第1特徴点方向と、特徴点417の第1特徴点方向と、が実質的に一致するので、上記第1の関係を満たす。従って、2つの特徴点間に対応関係が検出される。図25(b)の場合には、特徴点407の第1特徴点方向と、特徴点417の第1照合用方向(第1及び第2特徴点方向を2分する方向)と、が実質的に一致するので、上記第2の関係を満たす。従って、2つの特徴点間に対応関係が検出される。対して、図25(c)を参照すると、特徴点407の第1特徴点方向は、特徴点417の第1及び第2特徴点方向のいずれとも一致せず、且つ、第1照合用方向とも一致しない。即ち、2つの特徴点は、上記第1及び第2の関係のいずれも満たさないので、2つの特徴点の間に対応関係は検出されない。
 照合規則(3)2つの特徴点の位置関係が所定の範囲内にあり、且つ、2つの特徴点が共に、第1及び2特徴点方向を有する場合には、以下の条件に従い対応関係が検出される。
 (3-1)同種の特徴点の位置関係が所定の範囲内にあり、且つ、2つの特徴点それぞれが第1及び第2特徴点方向を有する場合には、下記に示す4つの特徴点方向の組み合わせのうち、1つが実質的に一致する場合に、2つの特徴点の間には対応関係が検出される。第1の組み合わせは、一方の第1特徴点方向と、他方の第1特徴点方向と、からなる組み合わせである。第2の組み合わせは、一方の第1特徴点方向と、他方の第2特徴点方向と、からなる組み合わせである。第3の組み合わせは、一方の第2特徴点方向と、他方の第1特徴点方向と、からなる組み合わせである。第4の組み合わせは、一方の第2特徴点方向と、他方の第2特徴点方向と、からなる組み合わせである。同種の特徴点それぞれが第1及び第2特徴点方向を有する場合には、上記第1~第4の組み合わせのうち少なくとも1つにて、特徴点方向が実質的に一致するか否かにより、2つの特徴点間の対応関係が判定される。
 (3-2)2つの特徴点の種別が異なり、且つ、2つの特徴点のうちいずれか1つの特徴点が有する2つの特徴点方向による直線からなる内角が所定の閾値(例えば、100度)以下の場合には、2つの特徴点それぞれから上記の第1照合用方向(第1特徴点方向と第2特徴点方向の内角を2分する方向)を計算し、当該第1照合用方向も考慮して、2つの特徴点間の対応関係が検出される。具体的には、2つ特徴点それぞれが有する、第1特徴点方向、第2特徴点方向及び第1照合用方向からなる9通りの組み合わせのうち、少なくとも1つにおいて2つの方向(特徴点方向、照合用方向)が実質的に一致すれば、2つの特徴点間には対応関係が検出される。
 (3-3)2つの特徴点の種別が異なり、且つ、2つの特徴点のうちいずれか1つの特徴点が有する2つの特徴点方向による直線からなる内角が所定の閾値(上記閾値;例えば、100度)を越える場合には、第1照合用方向に加え、2つの特徴点それぞれの2つの特徴点方向による直線からなる外角を2分する方向(以下、第2照合用方向;図面では一点鎖線を用いて図示する)が比較対象に追加される。即ち、2つの特徴点それぞれが有する、第1特徴点方向、第2特徴点方向、第1照合用方向及び第2照合用方向からなる16通りの組み合わせのうち、少なくとも1つにおいて2つの方向が実質的に一致すれば、2つの特徴点間には対応関係が検出される。2つの特徴点方向による直線からなる内角が所定の閾値(例えば、100度)を越える場合として、デルタ領域に特徴点が存在する場合が想定される。つまり、特徴点がデルタ領域に存在する場合には、第1及び第2特徴点方向の値によらず、2つの特徴点には一定の評価が与えられる。
 図26及び図27を参照し、上記の照合規則(3)を具体的に説明する。
 例えば、図26を参照すると、特徴点408と特徴点418は共に分岐点であり、第1及び第2特徴点方向を有する。従って、図26の例では、2つの特徴点間の対応関係の検出に上記(3-1)の規則が用いられる。図26(a)に示す場合は、特徴点408の第1及び第2特徴点方向と、特徴点418の第1及び第2特徴点方向が共に一致するので、2つの特徴点同士には対応関係が検出される。また、図26(b)に示す場合は、特徴点408の第1特徴点方向と特徴点418の第2特徴点方向、特徴点408の第2特徴点方向と特徴点418の第1特徴点方向、それぞれが一致するので、この場合にも2つの特徴点には対応関係が検出される。
 図27を参照すると、特徴点409と特徴点419は特徴点種別が異なる関係にある。従って、図27の例では、2つの特徴点間の対応関係の検出に上記(3-2)又は(3-3)の規則が用いられる。図27(a)の場合は、各特徴点が有する第1及び第2特徴点方向による直線からなる内角が閾値(例えば、100度)以下であるので、第1照合用方向も考慮にいれ、各特徴点の3つの方向からなる9通りの組み合わせのうち、1つでも2つの方向が実質的に一致する場合に、2つの特徴点に対応関係があると判定される。図27(a)の場合には、特徴点409の第2特徴点方向と、特徴点419の第1照合用方向が実質的に一致するので、2つの特徴点には対応関係が検出される。
 図27(b)に示す場合は、各特徴点が有する第1及び第2特徴点による直線からなる内角が閾値(例えば、100度)を越えるので、第1及び第2照合用方向も考慮にいれ、各特徴点の4つの方向からなる16通りの組み合わせのうち、1つでも2つの方向が実質的に一致する場合に、2つの特徴点に対応関係があると判定される。図27(b)の場合では、特徴点409の第1照合用方向と、特徴点419の第2照合用方向と、が少なくとも一致するので、2つの特徴点には対応関係があると判定される。つまり、図27(b)に示すように、2つの特徴点それぞれが有する第1及び第2特徴点方向に一致する特徴点方向が見出せない場合にも、当該特徴点がデルタ領域に存在する(内角が100度を超える)場合には、2つの特徴点には対応関係があると判定され得る。
 上記(1)~(3)の照合規則を、図23(a)に示す2つの指紋画像に適用すると、5つの対特徴点が検出される。
 図23(a)を参照すると、左側の特徴点402と、右側の特徴点412は、それぞれ第2特徴点方向を有する特徴点である。図23(b)は、特徴点402を抽出した図であり、図23(c)は特徴点412を抽出した図である。図23(b)及び(c)を参照すると、特徴点402と特徴点412の間には、図26(b)の関係が認められ、対応関係が検出される。
 図23(b)及び(c)において、第2特徴点方向を考慮しなければ、2つの特徴点が有する第1特徴点方向は互いに異なるため、2つの特徴点に対応関係が検出されない。従って、図23(a)に示す2つの指紋画像の照合精度は悪化する。しかし、第1の実施形態に係る特徴点照合部42は、第2特徴点方向も合わせて、特徴点同士の対応関係を算出することで、両者はペアとなる特徴点であると検出可能である。
 ここで、コア領域やデルタ領域の近傍では、押捺時のプレッシャーや遺留指紋画像の汚れ等が要因となって、端点の位置が変化(伸び縮み)し易い傾向にある。コアの近傍領域において、端点位置が変化してしまうと、第1特徴点方向も変動してしまうが、第2特徴点方向を導入することで、このような端点位置の変動による影響が緩和できる。つまり、上記(3)の照合規則により、2つの特徴点が所定の範囲内にあり、且つ、それぞれの特徴点が第1及び第2特徴点方向を有する場合には、2つの特徴点には対応関係が検出されることが多くなる。あるいは、端点位置が変化することにより第1及び第2特徴点方向のいずれかが変化したとしても、2つの特徴点方向が同時に変化する事は稀であると考えられるため、第1及び第2特徴点方向のうち少なくとも一方は一致するとも考えられる。そのような場合には、照合精度の劣化は最小限に抑制される。
 また、コア領域やデルタ領域の近傍では、押捺時のプレッシャーや遺留指紋画像の汚れなどにより、特徴点種別の変化(分岐点から端点、あるいはその逆)が起きることがある。このような場合であっても、第1及び第2特徴点方向を照合に利用することで、照合精度の劣化を抑制できる。
 例えば、図28(a)に示す指紋画像(芯線データ)が押捺指紋としてファイル側に登録され、図28(a)の指紋画像に対応する人物の遺留指紋が図28(b)~(d)のいずれか1つであるとする。図28(b)~(d)の場合、ノイズ等の影響により、分岐点が端点に遷移している。図28(a)に示す指紋画像からは、2つの特徴点方向が算出される。また、図28(b)、(c)の指紋画像からは第1特徴点方向が算出される。図28(a)と図28(b)に示す指紋画像の照合では、上記(2-2)の照合規則に従って特徴点の対応関係が検出される。この場合、図28(a)の第1特徴点方向と図28(b)の第1特徴点方向が実質的に一致するので、2つの特徴点には対応関係があると判定される。同様に、図28(a)と図28(c)の照合では、図28(a)の第2特徴点方向と図28(c)の第1特徴点方向が実質的に一致するので、2つの特徴点には対応関係があると判定される。
 図28(a)の分岐点が図28(d)に示す端点に遷移することもある。図28(a)と図28(d)に示す指紋画像の照合では、上記(3-2)又は(3-3)の照合規則に従って、特徴点の対応関係が検出される。図28は、コア領域近傍の特徴点を図示するので、第1及び第2特徴点方向による直線からなる内角は閾値(例えば、100度)以下である。従って、図28(a)と図28(d)に示す指紋画像の照合は、上記(3-2)の照合規則に従う。この場合、図28(a)に示す第1照合用方向と、図28(d)に示す第1特徴点方向が実質的に一致するので、2つの特徴点には対応関係が検出される。
 また、例えば、図18の例では、端点334が伸張し、交点372と端点334が結合してしまうと、図18(a)に示す指紋画像はデルタ領域の分岐点と判断されてしまう。分岐点と端点では、第1特徴点方向の算出方法が異なるため、単に第1特徴点方向だけを特徴点照合に利用したのでは、2つの特徴点の間に対応関係が算出されることは稀である(対特徴点とはならない)。しかし、端点が伸張することで分岐点に変化することがあっても、第2特徴点方向を導入することで、照合精度を向上させることができる。
 図29(a)及び(b)に示す2つの特徴点(端点、分岐点)の照合を考える。図29では、各特徴点は2つの特徴点方向を有し、且つ、デルタ領域近傍に存在するので(第1及び第2特徴点方向による内角が閾値(例えば、100度)を越えるので)、上記(3-3)の照合規則に従う。2つの特徴点から第1及び第2照合用方向が計算され、16通りの組み合わせに関し、各方向の一致・不一致を判定すると、少なくとも図29(a)の第1照合用方向と図29(b)の第1特徴点方向が実質的に一致する。従って、2つの特徴点には対応関係が検出される。このように、2つの特徴点の位置が所定の範囲内あり、第1及び第2特徴点方向を持つ2つの特徴点には、最低限、対応関係が検出され得るため、デルタ領域の2つの特徴点は対特徴点と判定されることが多い。即ち、第2特徴点方向を導入することで、照合精度が向上する。
 なお、第1の実施形態に係る特徴点照合部42は、2つの特徴点の対応関係を検出する際、第1及び第2特徴点方向の内角が所定の閾値(例えば、100度)を超える場合に、第2照合用方向を計算しているが、当該方向を計算するのは特徴量算出部13であってもよい。つまり、第1及び第2特徴点方向の内角が所定の閾値(例えば、100度)を超える場合には、特徴量算出部13は、第1及び第2特徴量とは異なる第3特徴点方向を、特徴点を特徴付ける特徴量として算出してもよい。
 特徴点照合部42は、対応関係が検出された特徴点(図23の場合は5個)それぞれについての対応確信度と、対応関係が検出されなかった特徴点の数に基づいて照合スコアを計算する。
 特徴点照合部42は、第2特徴点方向を有する特徴点に関する対応確信度の算出に際し、図24~図27に示す各種の態様に応じて対応確信度を変更することで、特徴点間の対応関係を差別化してもよい。
 例えば、図26及び図27を参照すると、図26及び図27に示す対応関係のうち、図27に示す2つの特徴点間の対応関係は、図26(a)、(b)に示す特徴点間の対応関係よりも弱いと考えられる。つまり、図26(a)、(b)では少なくとも1つの特徴点方向が一致しているのに対し、図27(a)、(b)に示す2つの特徴点には特徴点方向が一致するものが存在しないためである。そこで、特徴点照合部42は、図27に示すような対応関係の2つの特徴点には低い対応確信度を与える。
 一方、図26(a)では、2つの特徴点それぞれの第1及び第2特徴点方向が共に一致する。このような場合、2つの特徴点407と特徴点417の対応関係は、図26(b)に示す2つの特徴点間の対応関係よりも強いと考えられるため、特徴点照合部42は、図26(a)に示す2つの特徴点には、図26(b)に示す2つの特徴点の対応関係よりも高い対応確信度を与える。
 特徴点照合部42は、照合スコアを照合結果として照合結果出力部43に引き渡す。あるいは、特徴点照合部42は、照合スコアに加えて、対応関係が検出された特徴点のリストを対応特徴点リストとして照合結果出力部43に引き渡してもよい。なお、対応特徴点リストには、対応関係が検出されたサーチ側(遺留指紋側)の特徴点の座標と、その特徴点と対になるファイル側(押捺指紋側)の特徴点の座標とが関連付けられて記録される。
 照合結果出力部43は、照合対象となった遺留指紋画像のID情報と、照合スコアが算出された押捺指紋画像のID情報と、照合スコアと、を対応付けて、照合結果として外部装置(図示せず)等に出力する(図30参照)。
 なお、コア領域やデルタ領域において特徴点方向が安定して算出できないという問題に対処する方法として、コア領域やデルタ領域での照合基準を緩めるという対応が考えられる。つまり、コア領域やデルタ領域の特徴点を照合する際、特徴点方向の差に関する許容範囲を拡大するという対応である。しかし、このような許容範囲の拡大は、対ではない指紋(非対指紋)の照合スコアを増加させるという現象を伴うと言う新たな問題を生じさせる。一方、第1の実施形態では、上記のような許容範囲の拡大は行わないので、非対指紋の照合スコアを増加させるという問題を抑制することができる。
 第1の実施形態に係る指紋照合システムの全体動作をまとめると、図31に示すシーケンス図のとおりとなる。
 特徴量生成装置10は、指紋画像を入力し(ステップS01)、当該指紋画像から芯線画像を抽出する(ステップS02)。その後、特徴量生成装置10は、芯線画像から特徴量を算出する(ステップS03)。その際、特徴量生成装置10は、コア領域やデルタ領域等、安定して特徴点方向が算出できない領域の特徴点からは第2特徴点方向も算出する。特徴量生成装置10は、算出した特徴量をデータベース20に登録する(ステップS04)。
 入力装置30は、鑑識官による操作を受け付けて、指紋画像の特徴量を入力する(ステップS11)。入力装置30は、入力した特徴量を照合装置40に向けて出力する(ステップS12)。
 照合装置40は、入力装置30が出力する特徴量と、データベース20に登録された特徴量と、を取得し(ステップS21)、入力装置30が出力する特徴量に対応した指紋画像(例えば、遺留指紋画像)の照合処理を行う(ステップS22)。その際、照合装置40は、各特徴点に付された第2特徴点方向も考慮しつつ、指紋画像の照合を行う。照合装置40は、照合結果を照合スコアとして出力する(ステップS23)。
 以上のように、第1の実施形態に係る特徴量生成装置10は、第1特徴点方向に加え、第2特徴点方向を必要に応じて算出する。この第2特徴点方向を考慮して、2つの特徴点の対応関係の検出や照合スコアを計算することで、照合精度が向上する。第2特徴点方向を導入することで、例えば、2つの特徴点において、第1特徴点方向が異なるとしても、一方の第1特徴点方向と他方の第2特徴点方向が一致すれば、2つの特徴点は対となる特徴点と判定する等の運用が可能なためである。
[第2の実施形態]
 続いて、第2の実施形態について図面を参照して詳細に説明する。
 第1の実施形態では、コア領域やデルタ領域に特徴点が存在することを前提としたが、稀にこれらの領域に特徴点が存在しない場合がある。具体的には、コア領域が単純ループ状の中核蹄線で構成されている場合には、特徴点が存在せず、例えば、遺留指紋の主要領域がコア領域であった場合に、当該遺留指紋に対する高い照合精度が期待できない。
 なお、中核蹄線とは、指紋画像において最も内側に位置するループ状(蹄状)の隆線(芯線)であって、その頂点付近(例えば、隆線間隔1本分以内)に特徴点が存在しない芯線を意味する。例えば、図32(a)を参照すると、曲線501は中核蹄線であるが、曲線502は中核蹄線ではない。曲線502は、指紋画像の最も内側に位置する隆線ではないからである。あるいは、図32(b)に示す曲線503、504も中核蹄線ではない。これらの曲線は、ループ状に形成された隆線ではないためである。
 デルタ領域においても、デルタ中心付近に特徴点が存在しない場合があり、例えば、遺留指紋の主要領域がデルタ領域である場合に、このような小領域指紋を用いた指紋照合では高い照合精度が期待できない。例えば、図33(a)を参照すると、デルタ付近に突起隆線が認められるが、この突起隆線は十分な長さ(例えば、隆線間隔1本分)を有さないので、ノイズとして除去され、芯線として扱われない。また、図33(b)を参照すると、ドット状の隆線が存在するが、この隆線も十分な長さを有さないので、ノイズとして除去され、芯線として扱われない。
 さらに、コア領域やデルタ領域に相当する指紋画像はノイズに弱く、容易に特徴点の遷移(端点が分岐点に遷移又はその逆)が生じたり、隆線が断絶することで新たな端点が生じたりする。例えば、押捺指紋側ではコア領域に特徴点が存在しないにも関わらず、ノイズ等の影響により遺留指紋側には特徴点が存在するとすれば、第2特徴点方向を考慮しても2つの指紋画像の照合精度は劣化する。そもそも押捺指紋側には特徴点が存在せず、遺留指紋側の特徴点に対応する照合対象が存在しないためである。
 以上のような状況を鑑みて、第2の実施形態では、コア領域やデルタ領域における特徴点の有無に関わらず、指紋照合精度を向上させる指紋照合システムを説明する。
 図34は、第2の実施形態に係る特徴量生成装置10aの内部構成の一例を示す図である。第1の実施形態に係る特徴量生成装置10との相違点は、芯線追加部16が追加されている点である。そのため、芯線追加部16の詳細について説明し、特徴量算出部13等の各機能ブロックの説明を省略する。
 芯線追加部16は、予め定めた特徴を有する隆線又は領域を検出し、検出された隆線又は領域に芯線を追加する手段である。より具体的には、芯線追加部16は、芯線を追加する必要のある芯線又は領域を検出し、当該領域が検出された場合に、予め定めた芯線追加処理を実行する。
 例えば、芯線追加部16は、芯線画像抽出部12が抽出した芯線画像から、中核蹄線を検出する。具体的には、芯線追加部16は、指紋画像において最も内側に位置するループ状の芯線であって、その頂点付近に特徴点が存在しない芯線を抽出する。さらに、芯線追加部16は、当該検出された中核蹄線の頂点に擬似的な突起状の芯線を付加する。
 図35(a)及び(b)に示すような領域を有する指紋画像が、特徴量生成装置10aに入力されたとする。この場合、芯線画像抽出部12が抽出した芯線画像だけを抜き出すと、図35(c)となる。芯線追加部16は、図35(c)から中核蹄線601を検出し、当該中核蹄線601の頂点に短い突起状の芯線(以下、突起芯線と表記する)611を追加する(図35(d)の円で囲まれた領域内の芯線)。なお、芯線追加部16が追加する、擬似的な突起芯線の方向は、中核蹄線の方向(図35(c)の中核蹄線601の頂点から中核蹄線の中心に向かう方向)と逆向きとし、長さは隆線間隔の半分程度とすることが好ましい。
 また、芯線追加部16は、芯線画像抽出部12が抽出した芯線画像から、例えば、パターンマッチング等の手法を用いてデルタ(三角)形状を形成する3本の芯線と、当該3本の芯線を含む領域(デルタ領域)と、を検出する。さらに、芯線追加部16は、検出されたデルタの中心付近に特徴点が存在しない場合に、擬似的なドット状の芯線(以下、デルタドット芯線と表記する)を追加する。例えば、図36(a)及び(b)に示すような領域を有する指紋画像が、特徴量生成装置10aに入力されたとする。この場合、芯線追加部16は、芯線602~604を、デルタを形成する芯線として検出する。
 次に、芯線追加部16は、芯線602~604の中心付近に、デルタドット芯線612を追加する(図36(c)の円で囲まれた領域)。なお、芯線追加部16が追加するデルタドット芯線の方向は、指頭方向(指先の方向)に対して水平とし、デルタドット芯線の長さは隆線間隔の半分程度とすることが好ましい。
 芯線追加部16の処理により、コア領域及びデルタ領域ともに、2つの特徴点が生成されることになる。具体的には、図35(d)を参照すると、中核蹄線601と突起芯線611からなる分岐点と、突起芯線611の端点と、が生成される。また、図36(c)を参照すると、デルタドット芯線612の両端がそれぞれ端点として生成される。
 芯線追加部16による処理が終了すると、特徴量算出部13は、第1の実施形態にて説明した方法と同様の方法にて、特徴点の抽出と特徴量(位置、第1及び第2特徴点方向)の算出を行う。
 ここで、第1の実施形態にて説明した入力装置30も、コア領域やデルタ領域に芯線を追加する操作(鑑識官による操作)に対応している必要がある。
 鑑識官が、コア領域にて突起芯線を追加する場合には、中核蹄線の頂点にてコアの方向(中核蹄線の方向)にドラッグ操作を行う。その後、第2の実施形態に係る入力装置30aは、図37に示すようなメニュー(プルダウンメニュー)を表示する。鑑識官は、表示されたプルダウンメニューから「突起芯線の追加」を選択する事で、中核蹄線に突起芯線を追加する操作を終了する。なお、中核蹄線の突起芯線追加時には、当該中核蹄線の頂点をコア(コア特異点)としてデータ入力できるように入力装置30aを構成することで、鑑識官(オペレータ)の入力工数を削減できる。
 また、鑑識官は、入力装置30aを用いて、デルタドット芯線の入力も可能である。鑑識官が、デルタ領域にデルタドット芯線を追加する際には、デルタ位置(デルタの中心)より、1つ目のデルタ方向にドラッグ操作を行う。なお、デルタ方向とは、デルタから放射される3つの方向を意味する。図38(a)に、デルタ方向の例を示す。
 鑑識官が、1つ目のデルタ方向を入力するためのドラッグ操作を終了すると、図38(b)に示すようなプルダウンメニューが入力装置30aより表示される。鑑識官が、表示されたプルダウンメニューの「デルタドット芯線の追加」を選択すると、入力装置30aは、鑑識官に対し、残り2つのデルタ方向の入力操作を指示する。なお、入力装置30aは、3つ目のデルタ方向を入力する操作の終了(3つ目のデルタ方向を入力するためのドラッグ操作の終了)を契機に、デルタドット芯線をデルタの中心に追加しても良いし、鑑識官に対してデルタドット芯線の方向を入力する指示を行っても良い。
 また、デルタドット芯線の追加時に、当該操作が行われた領域をデルタ(デルタ型特異点)としてデータ入力できるように入力装置30aを構成することで、鑑識官(オペレータ)の入力工数を削減できる。
 照合装置40は、特徴量生成装置10aが生成した特徴量と、鑑識官が入力装置30aを使って入力した特徴量と、を用いて、指紋画像の照合処理を行い、照合結果を生成し出力する。
 次に、コア領域に突起芯線、デルタ領域にデルタドット芯線を追加する効果について説明する。
 上述のように、押捺時のプレッシャー、掠れ、汚れ等の影響により、中核蹄線の頂点近傍の画像が変化し、結果的に、単純中核蹄線が断線することや、外側の隆線と接続してしまうことがある。具体的には、本来、図39(a)に示すような中核蹄線が、図39(b)に示すように途中で断線したり、図39(c)に示すように外側の隆線と接続したりすることがある。
 図39(b)、(c)に示すような遷移(変化)が生じると、同一方向の特徴点が2個生成されることとなる。その際、押捺指紋画像が図39(a)に示す指紋画像(芯線画像)であり、遺留指紋画像が図39(b)又は(c)に示すような指紋画像であれば、コア領域における特徴点の個数が大きく異なることになる。すると、遺留指紋のコア領域から2つの特徴点が抽出されるが、押捺指紋には当該2つの特徴点に対応する特徴点は存在せず、2つの特徴点は非対特徴点と扱われる。その結果、押捺指紋と遺留指紋に係る指紋画像における照合スコアは低下する。
 一方、第2の実施形態に係る特徴量生成装置10aは、中核蹄線の頂点に突起芯線を追加することで、汚れ等の影響で生じやすい2つの特徴点に対応する特徴点を作り出している。その結果、サーチ側とファイル側のいずれか一方に、他方の指紋画像に存在する特徴点が存在しないという事態が発生せず、対応する特徴点が存在しないことによる照合スコアの低下が抑制される。
 加えて、第1の実施形態にて説明したように、コア領域では安定して特徴点方向を算出するのが困難であるため、第1特徴点方向を補完する第2特徴点方向が算出される。2つの特徴点方向を有すると共に互いの位置が近接する2つの特徴点は、対応関係が検出され得る(第1の実施形態にて説明した照合規則(3))ので、突起芯線が追加された指紋画像と汚れ等の影響により特徴点が作り出された指紋画像それぞれが有する2個の特徴点をペアリングすることが可能であり、照合精度の劣化が抑制される。
 また、上述のように、デルタ領域から特徴点が抽出されないことがある。あるいは、コア領域と同様に、押捺時のプレッシャー、掠れ、汚れの影響により、デルタ近傍の画像が変化し、結果的にデルタ付近に短い隆線(ドットや突起)が抽出されることもある。つまり、デルタ領域では特徴点の抽出が不安定であり、サーチ側の指紋画像には特徴点がなく、ファイル側の指紋画像には特徴点が存在するといった事態が生じやすい。例えば、ファイル側の指紋画像には、図40(a)に示すように特徴点が抽出されず、サーチ側の指紋画像には、図40(b)に示すように短い隆線による特徴点が抽出されることがある。
 このような場合、2つの指紋画像の間に対応する2個の特徴点がなく、図40(b)の2つの特徴点は非対特徴点として扱われ、照合スコアの低下要因となる。しかし、第2の実施形態では、例えば、図40(a)に示す指紋画像に対し、デルタドット芯線を追加することで、2個の特徴点を作り出す。そのため、2枚の指紋画像それぞれの特徴点を容易にペアリングすることが可能であり、照合スコアが増加する。
 以上のように、第2の実施形態では、コア領域やデルタ領域に特徴点が存在しない場合には、これらの領域に芯線を追加する処理を施す。これらの追加された芯線により、第1の実施形態にて説明した第2特徴点方向が算出されるので、コア領域やデルタ領域に存在する特徴点の対応関係がより確実に検出される。その結果、指紋画像の照合精度が向上する。
 なお、第1及び第2の実施形態にて説明した指紋照合システムの構成(図2)は例示であって、システムの構成を限定する趣旨ではない。例えば、特徴量生成装置10、入力装置30及び照合装置40が有する各種機能の全部又は一部が他の装置に組み込まれていてもよい。あるいは、特徴量生成装置10、入力装置30及び照合装置40の各種機能が1つの装置に組み込まれていてもよい。特徴量生成装置10等の機能を1つの装置にて実現する場合には、図41に示す画像処理装置50を使用することができる。なお、図41に示す指紋画像入力部11等の機能ブロックは、第1及び第2の実施形態にて説明した機能ブロックと同様のため説明を省略する。但し、データベース20にアクセスする手段が必要であるので、画像処理装置50はデータベースアクセス部51を備える。特徴量算出部13は、データベースアクセス部51を介して、生成した特徴量をデータベース20に登録する。特徴点照合部42は、データベースアクセス部51を介して、データベース20に登録された特徴量を取得する。なお、データベース20を記憶部15に構築しても良いことは当然である。
 上記第1及び第2の実施形態では、隆線により曲線縞模様が形成されている画像として指紋画像を用いて特徴量生成装置10等の構成及び動作を説明したが、扱う画像は指紋画像に限定されない。特徴量生成装置10は、例えば、掌紋等に係る画像から特徴量を算出しても良い。
 第1及び第2の実施形態にて説明した特徴量算出処理は、第1特徴点方向に加え、第2特徴点方向を算出するものであるが、その考えを拡張し第3特徴点方向を算出することも可能である。即ち、1つの特徴点を特徴付ける特徴量として、第1~第3特徴点方向を算出することも可能である。例えば、図14を参照すると、デルタ領域の分岐点では、3つの内角の差が小さいので、最小内角a1、第2最小内角a2による特徴点方向ではなく、内角a3(最大内角)を2分する特徴点方向が第1又は第2特徴点方向として算出されることも想定される。このような場合、照合スコアの劣化が予想されるので、最大内角a3を2分する方向を第3特徴点方向として算出し、特徴点の照合に利用することも可能である。
 但し、上記のような不都合は、照合処理時の対応によっても解消することができる。例えば、サーチ側(遺留指紋側)にて、図14に示す第1特徴点方向304、第2特徴点方向315が抽出され、ファイル側(押捺指紋側)では最大内角a3を2分する方向が第1特徴点方向として登録されている場合を考える。このような場合には、デルタ領域における特徴点では、第1特徴点方向と第2特徴点方向の差分が120度程度であることを考慮し、第1特徴点方向304と第2特徴点方向315により形成される2つの角度のうち、大きい方の角度を2分する方向をサーチ側の第3特徴点方向として算出してもよい。即ち、サーチ側の第3特徴点方向とファイル側の第1特徴点方向を比較することで、第3特徴点方向を導入しなくとも、照合精度の劣化を抑制することができる。
 また、第1及び第2の実施形態では、第1及び第2特徴点方向の算出にあたり内角を2分する方向を特徴点方向に定めているが、角度を分割する値は他の値であってもよい。特徴点方向を算出する際の角度を分割する比率は、1:1の比率に限定されない。
 また、特徴量生成装置10、入力装置30及び照合装置40の各部が行う処理は、これらの装置(特徴量生成装置10、入力装置30及び照合装置40)に搭載されたコンピュータに、そのハードウェアを用いて、上述した各処理を実行させるコンピュータプログラムにより実現できる。特徴量算出部13等が行う機能を何らかのハードウェア、及び/又は、ソフトウェアで実行する手段があればよい。即ち、特徴量生成装置10、入力装置30及び照合装置40の各部が行う処理は、図42~図44に示すように、CPU(Central Processing Unit)、ASIC(Application Specific Integrated Circuit)等の回路によって実現されても良い。回路は、一つまたは複数で良い。また、複数の回路は、同一の装置内で協働しても良いし、別の装置内に存在しても良い。特徴量生成装置10aも図42の特徴量生成装置10と同様である。
 さらに、コンピュータの記憶部に、上述したコンピュータプログラムをインストールすることにより、コンピュータを画像処理装置として機能させることができる。さらにまた、上述したコンピュータプログラムをコンピュータに実行させることにより、コンピュータにより特徴量算出等に係る画像処理方法を実行させることができる。また、そのプログラムは、ネットワークを介してダウンロードするか、あるいは、プログラムを記憶した記憶媒体を用いて、更新することができる。
 また、上述の説明で用いたフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施形態で実行される工程の実行順序は、その記載の順番に制限されない。各実施形態では、例えば各処理を並行して実行する等、図示される工程の順番を内容的に支障のない範囲で変更することができる。
 上記の実施形態の一部又は全部は、以下のようにも記載され得るが、以下には限られない。
[形態1]
 上述の第1の視点に係る画像処理装置のとおりである。
[形態2]
 前記特徴量算出部は、
 前記抽出された特徴点が分岐点である場合、前記分岐点をなす3本の隆線が形成する3つの内角間の関係に基づき、前記第1特徴点方向を算出すると共に、
 前記3つの内角のうち少なくとも2つの内角間の関係に基づき、前記第2特徴点方向を算出する、形態1の画像処理装置。
[形態3]
 前記特徴量算出部は、
 前記3つの内角のうち、角度が最小である第1内角を2分する方向を前記第1特徴点方向とし、前記3つの内角のうち、2番目に小さい第2内角を2分する方向を前記第2特徴点方向とする、形態2の画像処理装置。
[形態4]
 前記特徴量算出部は、
 前記第1内角と前記第2内角との間の角度差が第1閾値よりも小さい場合に、前記第2特徴点方向を算出する、形態3の画像処理装置。
[形態5]
 前記特徴量算出部は、
 前記第1及び第2特徴点方向の内角が第2閾値を超える場合は、第3特徴点方向を、前記特徴点を特徴付ける特徴量として算出する、形態1乃至4のいずれか一に記載の画像処理装置。
[形態6]
 前記特徴量算出部は、
 前記抽出された特徴点が端点である場合、前記端点から、前記端点をなす隆線上を第1の距離トレースすることで得られる第1の終端点に向かう方向を前記第1特徴点方向とし、
 前記端点をなす隆線上を前記第1の距離よりも長い第2の距離トレースすることで得られる第2の終端点に向かう方向を前記第2特徴点方向とする、
 形態1乃至5のいずれか一に記載の画像処理装置。
[形態7]
 前記特徴量算出部は、
 前記端点と前記第1の終端点を結ぶ直線と、前記端点と前記第2の終端点を結ぶ直線と、により前記端点において形成される内角が、所定の条件を満たす場合に、前記第2特徴点方向を算出する、形態6の画像処理装置。
[形態8]
 前記特徴量算出部は、
 前記抽出された特徴点が端点であり、且つ、前記端点をなす隆線方向と反対方向に延伸し、前記端点を始点とする仮想線を設定し、前記仮想線が所定の範囲内にて隆線と交点を持つ場合、
 前記交点を始点とし、前記交点が形成された隆線上を第1の方向に第3の距離トレースすることで第3の終端点を計算し、
 前記交点から前記第3の終端点に向かう方向を、前記第2特徴点方向とする、形態1乃至7のいずれか一に記載の画像処理装置。
[形態9]
 前記特徴量算出部は、
 前記仮想線が隆線上に前記交点を有する場合、前記交点を始点とし、前記交点が形成された隆線上を前記第1の方向とは反対の方向に前記第3の距離トレースすることで第4の終端点を計算し、
 前記交点と前記端点を結ぶ直線と、前記交点と前記第3の終端点を結ぶ直線と、前記交点と前記第4の終端点を結ぶ直線の3本が前記交点にて形成する3つの内角に基づいて、前記第2特徴点方向を算出する、形態8の画像処理装置。
[形態10]
 前記特徴量算出部は、
 前記交点と前記端点を結ぶ直線と、前記交点と前記第3の終端点を結ぶ直線と、前記交点と前記第4の終端点を結ぶ直線の3本が前記交点にて形成する3つの内角のうち、角度の最も小さい最小内角を決定し、
 前記第3の終端点及び前記第4の終端点のうち、前記交点から前記最小内角を形成する直線が通過する方の終端点に向かう方向を、前記第2特徴点方向とする、形態9の画像処理装置。
[形態11]
 前記特徴量算出部は、前記交点と前記端点を結ぶ直線と、前記交点と前記第3の終端点を結ぶ直線と、前記交点と前記第4の終端点を結ぶ直線の3本が前記交点にて形成する3つの内角のうち、角度が2番目に小さい内角が第3閾値以下である場合に、前記第2特徴点方向を算出する、形態9又は10の画像処理装置。
[形態12]
 前記第1特徴点方向を有する第1特徴点と、前記第1及び第2特徴点方向を有する第2特徴点と、を照合する特徴点照合部をさらに備え、
 前記特徴点照合部は、前記第1及び第2の特徴点の位置が所定の範囲内にある場合、且つ、前記第1特徴点の前記第1特徴点方向が、前記第2特徴点の前記第1及び第2特徴点方向のいずれか一方と実質的に一致する場合には、前記第1及び第2特徴点の間に対応関係があると判定する、形態1乃至11のいずれか一に記載の画像処理装置。
[形態13]
 前記特徴点照合部は、
 前記第1特徴点と前記第2特徴点の種別が異なる場合に、前記第2特徴点の前記第1及び第2特徴点方向による直線が形成する内角を2分する方向を、前記第2特徴点の第1照合用方向として計算し、
 前記第1特徴点の前記第1特徴点方向と、前記第2特徴点の前記第1照合用方向と、が実質的に一致する場合に、前記第1及び第2特徴点の間に対応関係があると判定する、形態12の画像処理装置。
[形態14]
 前記特徴点照合部は、
 前記第1特徴点がさらに前記第2特徴点方向を有し、前記第1及び第2の特徴点の位置が所定の範囲内にあり、且つ、前記第1及び第2特徴点が同種の特徴点であり、前記第1及び第2特徴点それぞれが有する前記第1及び第2特徴点方向からなる4つの組み合わせのうち、少なくとも1つの組において2つの方向が実質的に一致する場合に、前記第1及び第2特徴点の間に対応関係があると判定する、形態12又は13の画像処理装置。
[形態15]
 前記特徴点照合部は、
 前記第1特徴点がさらに前記第2特徴点方向を有し、前記第1及び第2の特徴点の位置が所定の範囲内にあり、前記第1及び第2特徴点の種別は異なる場合に、前記第1及び第2特徴点それぞれから前記第1照合用方向を計算し、前記第1及び第2特徴点それぞれが有する前記第1特徴点方向、前記第2特徴点方向及び前記第1照合用方向からなる9つの組み合わせのうち、少なくとも1つの組において2つの方向が実質的に一致する場合に、前記第1及び第2特徴点の間に対応関係があると判定する、形態12又は13の画像処理装置。
[形態16]
 前記特徴点照合部は、
 前記第1特徴点がさらに前記第2特徴点方向を有し、前記第1及び第2の特徴点の位置が所定の範囲内にあり、前記第1及び第2特徴点の種別は異なる場合には、前記第1及び第2特徴点それぞれに関し、前記第1照合用方向と、前記第1及び第2特徴点方向による直線が形成する外角を2分する第2照合用方向と、を計算し
 前記第1及び第2特徴点それぞれが有する前記第1特徴点方向、前記第2特徴点方向、前記第1照合用方向及び前記第2照合用方向からなる16個の組み合わせのうち、少なくとも1つの組において2つの方向が実質的に一致する場合に、前記第1及び第2特徴点の間に対応関係があると判定する、形態12又は13の画像処理装置。
[形態17]
 前記特徴点照合部は、前記第1及び第2の特徴点の位置が所定の範囲内にあり、前記第1及び第2の特徴点が共に前記第1及び第2特徴点方向を有し、且つ、
 前記第1及び第2の特徴点が有する2つの特徴点方向の内角が共に第4閾値を超える場合に、前記第1及び第2特徴点の間に対応関係があると判定する、形態1乃至16のいずれか一に記載の画像処理装置。
[形態18]
 前記特徴点照合部は、
 前記第1特徴点の有する前記第1特徴点方向が、前記第2特徴点の有する前記第2特徴点方向と実質的に一致する場合には、前記第1及び第2特徴点の対応確信度として第1の値を与え、
 前記第1及び第2特徴点それぞれが有する前記第1特徴点方向が実質的に一致し、且つ、前記第1及び第2特徴点それぞれが有する前記第2特徴点方向が実質的に一致する場合に、前記第1及び第2特徴点の対応確信度として前記第1の値よりも大きい第2の値を与える、形態12乃至17のいずれか一に記載の画像処理装置。
[形態19]
 ユーザの操作に供する画面を表示装置に表示し、前記ユーザによる特徴点の特徴量を入力する操作を受け付ける、データ入力部をさらに備え、
 前記データ入力部は、前記第1及び第2特徴点方向を前記表示装置に表示させる場合には、前記第1及び第2特徴点方向の表示態様を互いに異なるものとする、形態1乃至18のいずれか一に記載の画像処理装置。
[形態20]
 上述の第2の視点に係る画像処理方法のとおりである。
[形態21]
 上述の第3の視点に係るプログラムのとおりである。
 なお、形態20及び形態21は、形態1と同様に、形態2~形態19のように展開することが可能である。
 なお、引用した上記の特許文献等の各開示は、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の全開示の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし、選択が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。
10、10a 特徴量生成装置
11 指紋画像入力部
12 芯線画像抽出部
13、102 特徴量算出部
14、103 特徴量出力部
15、33、44 記憶部
16 芯線追加部
20、20a データベース
30、30a 入力装置
31 データ入力部
32 データ出力部
40 照合装置
41 特徴量入力部
42 特徴点照合部
43 照合結果出力部
50、100 画像処理装置
51 データベースアクセス部
101 画像入力部
201~205、321 分岐点
211~213、331~334 端点
221~243 特徴点方向
231~237、341~349 終端点
301~304、351 第1特徴点方向
311~315、352、353 第2特徴点方向
361、362 仮想線
371、372 交点
401~409、411~419 特徴点
501~504 曲線
601 中核蹄線
602~604 芯線
611 突起芯線
612 デルタドット芯線
701 コア領域
702 デルタ領域
703 領域

Claims (21)

  1.  隆線により曲線縞模様が形成されている画像を入力する画像入力部と、
     前記画像から抽出された特徴点を特徴付ける第1及び第2特徴点方向を算出する、特徴量算出部と、
     前記算出された第1及び第2特徴点方向を、前記抽出された特徴点の特徴量として出力する特徴量出力部と、
     を備える、画像処理装置。
  2.  前記特徴量算出部は、
     前記抽出された特徴点が分岐点である場合、前記分岐点をなす3本の隆線が形成する3つの内角間の関係に基づき、前記第1特徴点方向を算出すると共に、
     前記3つの内角のうち少なくとも2つの内角間の関係に基づき、前記第2特徴点方向を算出する、請求項1の画像処理装置。
  3.  前記特徴量算出部は、
     前記3つの内角のうち、角度が最小である第1内角を2分する方向を前記第1特徴点方向とし、前記3つの内角のうち、2番目に小さい第2内角を2分する方向を前記第2特徴点方向とする、請求項2の画像処理装置。
  4.  前記特徴量算出部は、
     前記第1内角と前記第2内角との間の角度差が第1閾値よりも小さい場合に、前記第2特徴点方向を算出する、請求項3の画像処理装置。
  5.  前記特徴量算出部は、
     前記第1及び第2特徴点方向の内角が第2閾値を超える場合は、第3特徴点方向を、前記特徴点を特徴付ける特徴量として算出する、請求項1乃至4のいずれか一項に記載の画像処理装置。
  6.  前記特徴量算出部は、
     前記抽出された特徴点が端点である場合、前記端点から、前記端点をなす隆線上を第1の距離トレースすることで得られる第1の終端点に向かう方向を前記第1特徴点方向とし、
     前記端点をなす隆線上を前記第1の距離よりも長い第2の距離トレースすることで得られる第2の終端点に向かう方向を前記第2特徴点方向とする、
     請求項1乃至5のいずれか一項に記載の画像処理装置。
  7.  前記特徴量算出部は、
     前記端点と前記第1の終端点を結ぶ直線と、前記端点と前記第2の終端点を結ぶ直線と、により前記端点において形成される内角が、所定の条件を満たす場合に、前記第2特徴点方向を算出する、請求項6の画像処理装置。
  8.  前記特徴量算出部は、
     前記抽出された特徴点が端点であり、且つ、前記端点をなす隆線方向と反対方向に延伸し、前記端点を始点とする仮想線を設定し、前記仮想線が所定の範囲内にて隆線と交点を持つ場合、
     前記交点を始点とし、前記交点が形成された隆線上を第1の方向に第3の距離トレースすることで第3の終端点を計算し、
     前記交点から前記第3の終端点に向かう方向を、前記第2特徴点方向とする、請求項1乃至7のいずれか一項に記載の画像処理装置。
  9.  前記特徴量算出部は、
     前記仮想線が隆線上に前記交点を有する場合、前記交点を始点とし、前記交点が形成された隆線上を前記第1の方向とは反対の方向に前記第3の距離トレースすることで第4の終端点を計算し、
     前記交点と前記端点を結ぶ直線と、前記交点と前記第3の終端点を結ぶ直線と、前記交点と前記第4の終端点を結ぶ直線の3本が前記交点にて形成する3つの内角に基づいて、前記第2特徴点方向を算出する、請求項8の画像処理装置。
  10.  前記特徴量算出部は、
     前記交点と前記端点を結ぶ直線と、前記交点と前記第3の終端点を結ぶ直線と、前記交点と前記第4の終端点を結ぶ直線の3本が前記交点にて形成する3つの内角のうち、角度の最も小さい最小内角を決定し、
     前記第3の終端点及び前記第4の終端点のうち、前記交点から前記最小内角を形成する直線が通過する方の終端点に向かう方向を、前記第2特徴点方向とする、請求項9の画像処理装置。
  11.  前記特徴量算出部は、前記交点と前記端点を結ぶ直線と、前記交点と前記第3の終端点を結ぶ直線と、前記交点と前記第4の終端点を結ぶ直線の3本が前記交点にて形成する3つの内角のうち、角度が2番目に小さい内角が第3閾値以下である場合に、前記第2特徴点方向を算出する、請求項9又は10の画像処理装置。
  12.  前記第1特徴点方向を有する第1特徴点と、前記第1及び第2特徴点方向を有する第2特徴点と、を照合する特徴点照合部をさらに備え、
     前記特徴点照合部は、前記第1及び第2の特徴点の位置が所定の範囲内にある場合、且つ、前記第1特徴点の前記第1特徴点方向が、前記第2特徴点の前記第1及び第2特徴点方向のいずれか一方と実質的に一致する場合には、前記第1及び第2特徴点の間に対応関係があると判定する、請求項1乃至11のいずれか一項に記載の画像処理装置。
  13.  前記特徴点照合部は、
     前記第1特徴点と前記第2特徴点の種別が異なる場合に、前記第2特徴点の前記第1及び第2特徴点方向による直線が形成する内角を2分する方向を、前記第2特徴点の第1照合用方向として計算し、
     前記第1特徴点の前記第1特徴点方向と、前記第2特徴点の前記第1照合用方向と、が実質的に一致する場合に、前記第1及び第2特徴点の間に対応関係があると判定する、請求項12の画像処理装置。
  14.  前記特徴点照合部は、
     前記第1特徴点がさらに前記第2特徴点方向を有し、前記第1及び第2の特徴点の位置が所定の範囲内にあり、且つ、前記第1及び第2特徴点が同種の特徴点であり、前記第1及び第2特徴点それぞれが有する前記第1及び第2特徴点方向からなる4つの組み合わせのうち、少なくとも1つの組において2つの方向が実質的に一致する場合に、前記第1及び第2特徴点の間に対応関係があると判定する、請求項12又は13の画像処理装置。
  15.  前記特徴点照合部は、
     前記第1特徴点がさらに前記第2特徴点方向を有し、前記第1及び第2の特徴点の位置が所定の範囲内にあり、前記第1及び第2特徴点の種別は異なる場合に、前記第1及び第2特徴点それぞれから前記第1照合用方向を計算し、前記第1及び第2特徴点それぞれが有する前記第1特徴点方向、前記第2特徴点方向及び前記第1照合用方向からなる9つの組み合わせのうち、少なくとも1つの組において2つの方向が実質的に一致する場合に、前記第1及び第2特徴点の間に対応関係があると判定する、請求項12又は13の画像処理装置。
  16.  前記特徴点照合部は、
     前記第1特徴点がさらに前記第2特徴点方向を有し、前記第1及び第2の特徴点の位置が所定の範囲内にあり、前記第1及び第2特徴点の種別は異なる場合には、前記第1及び第2特徴点それぞれに関し、前記第1照合用方向と、前記第1及び第2特徴点方向による直線が形成する外角を2分する第2照合用方向と、を計算し
     前記第1及び第2特徴点それぞれが有する前記第1特徴点方向、前記第2特徴点方向、前記第1照合用方向及び前記第2照合用方向からなる16個の組み合わせのうち、少なくとも1つの組において2つの方向が実質的に一致する場合に、前記第1及び第2特徴点の間に対応関係があると判定する、請求項12又は13の画像処理装置。
  17.  前記特徴点照合部は、前記第1及び第2の特徴点の位置が所定の範囲内にあり、前記第1及び第2の特徴点が共に前記第1及び第2特徴点方向を有し、且つ、
     前記第1及び第2の特徴点が有する2つの特徴点方向の内角が共に第4閾値を超える場合に、前記第1及び第2特徴点の間に対応関係があると判定する、請求項1乃至16のいずれか一項に記載の画像処理装置。
  18.  前記特徴点照合部は、
     前記第1特徴点の有する前記第1特徴点方向が、前記第2特徴点の有する前記第2特徴点方向と実質的に一致する場合には、前記第1及び第2特徴点の対応確信度として第1の値を与え、
     前記第1及び第2特徴点それぞれが有する前記第1特徴点方向が実質的に一致し、且つ、前記第1及び第2特徴点それぞれが有する前記第2特徴点方向が実質的に一致する場合に、前記第1及び第2特徴点の対応確信度として前記第1の値よりも大きい第2の値を与える、請求項12乃至17のいずれか一項に記載の画像処理装置。
  19.  ユーザの操作に供する画面を表示装置に表示し、前記ユーザによる特徴点の特徴量を入力する操作を受け付ける、データ入力部をさらに備え、
     前記データ入力部は、前記第1及び第2特徴点方向を前記表示装置に表示させる場合には、前記第1及び第2特徴点方向の表示態様を互いに異なるものとする、請求項1乃至18のいずれか一項に記載の画像処理装置。
  20.  隆線により曲線縞模様が形成されている画像を入力するステップと、
     前記画像から抽出された特徴点を特徴付ける第1及び第2特徴点方向を算出するステップと、
     前記算出された第1及び第2特徴点方向を、前記抽出された特徴点の特徴量として出力するステップと、
     を含む、画像処理方法。
  21.  隆線により曲線縞模様が形成されている画像を入力する処理と、
     前記画像から抽出された特徴点を特徴付ける第1及び第2特徴点方向を算出する処理と、
     前記算出された第1及び第2特徴点方向を、前記抽出された特徴点の特徴量として出力する処理と、
     を画像処理装置に搭載されたコンピュータに実行させるプログラム。
PCT/JP2016/075018 2015-08-28 2016-08-26 画像処理装置、画像処理方法及びプログラム WO2017038695A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017537850A JP6569734B2 (ja) 2015-08-28 2016-08-26 画像処理装置、画像処理方法及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015168470 2015-08-28
JP2015-168470 2015-08-28

Publications (1)

Publication Number Publication Date
WO2017038695A1 true WO2017038695A1 (ja) 2017-03-09

Family

ID=58187526

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/075018 WO2017038695A1 (ja) 2015-08-28 2016-08-26 画像処理装置、画像処理方法及びプログラム

Country Status (2)

Country Link
JP (1) JP6569734B2 (ja)
WO (1) WO2017038695A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019009366A1 (ja) * 2017-07-06 2019-01-10 日本電気株式会社 特徴量生成装置、システム、特徴量生成方法及びプログラム
CN112262409A (zh) * 2018-06-19 2021-01-22 索尼公司 信息处理装置、可穿戴设备、信息处理方法以及程序
JPWO2021192315A1 (ja) * 2020-03-27 2021-09-30
JPWO2021199136A1 (ja) * 2020-03-30 2021-10-07

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04306778A (ja) * 1991-04-03 1992-10-29 Nippon Denki Security Syst Kk 指紋特徴修正システム
JP2001076142A (ja) * 1999-09-01 2001-03-23 Nippon Telegr & Teleph Corp <Ntt> 指紋画像照合方法及び装置及びこの方法を記録した記録媒体
JP2012256272A (ja) * 2011-06-10 2012-12-27 Seiko Epson Corp 生体識別装置、及び、生体識別方法
JP2013214132A (ja) * 2012-03-30 2013-10-17 Nec Corp 特徴点情報設定装置、特徴点情報設定方法、および特徴点情報設定プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006330873A (ja) * 2005-05-24 2006-12-07 Japan Science & Technology Agency 指紋照合装置、方法およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04306778A (ja) * 1991-04-03 1992-10-29 Nippon Denki Security Syst Kk 指紋特徴修正システム
JP2001076142A (ja) * 1999-09-01 2001-03-23 Nippon Telegr & Teleph Corp <Ntt> 指紋画像照合方法及び装置及びこの方法を記録した記録媒体
JP2012256272A (ja) * 2011-06-10 2012-12-27 Seiko Epson Corp 生体識別装置、及び、生体識別方法
JP2013214132A (ja) * 2012-03-30 2013-10-17 Nec Corp 特徴点情報設定装置、特徴点情報設定方法、および特徴点情報設定プログラム

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11527099B2 (en) 2017-07-06 2022-12-13 Nec Corporation Minutia features generation apparatus, system, minutia features generation method, and program
JPWO2019009366A1 (ja) * 2017-07-06 2020-06-11 日本電気株式会社 特徴量生成装置、システム、特徴量生成方法及びプログラム
US10943086B2 (en) 2017-07-06 2021-03-09 Nec Corporation Minutia features generation apparatus, system, minutia features generation method, and program
JP2021064423A (ja) * 2017-07-06 2021-04-22 日本電気株式会社 特徴量生成装置、システム、特徴量生成方法及びプログラム
WO2019009366A1 (ja) * 2017-07-06 2019-01-10 日本電気株式会社 特徴量生成装置、システム、特徴量生成方法及びプログラム
US11810392B2 (en) 2017-07-06 2023-11-07 Nec Corporation Minutia features generation apparatus, system, minutia features generation method, and program
JP7251670B2 (ja) 2017-07-06 2023-04-04 日本電気株式会社 特徴量生成装置、システム、特徴量生成方法及びプログラム
US11238266B2 (en) 2017-07-06 2022-02-01 Nec Corporation Minutia features generation apparatus, system, minutia features generation method, and program
JP7031762B2 (ja) 2017-07-06 2022-03-08 日本電気株式会社 特徴量生成装置、システム、特徴量生成方法及びプログラム
JP2022065169A (ja) * 2017-07-06 2022-04-26 日本電気株式会社 特徴量生成装置、システム、特徴量生成方法及びプログラム
CN112262409A (zh) * 2018-06-19 2021-01-22 索尼公司 信息处理装置、可穿戴设备、信息处理方法以及程序
US11610430B2 (en) * 2018-06-19 2023-03-21 Sony Corporation Information processing apparatus, wearable device, information processing method, and program
JPWO2021192315A1 (ja) * 2020-03-27 2021-09-30
JP7290198B2 (ja) 2020-03-27 2023-06-13 日本電気株式会社 縞模様画像照合装置、縞模様照合方法、及び、そのプログラム
WO2021192315A1 (ja) * 2020-03-27 2021-09-30 日本電気株式会社 縞模様画像照合装置、縞模様照合方法、及び、そのプログラムが格納されたコンピュータ可読媒体
US12033427B2 (en) 2020-03-27 2024-07-09 Nec Corporation Stripe pattern image collating device, stripe pattern collating method, and computer-readable medium storing program thereof
WO2021199136A1 (ja) * 2020-03-30 2021-10-07 日本電気株式会社 指紋照合装置、指紋照合方法、及び、記録媒体
JPWO2021199136A1 (ja) * 2020-03-30 2021-10-07
US11734950B2 (en) 2020-03-30 2023-08-22 Nec Corporation Fingerprint matching apparatus, fingerprint matching method, and recording medium
JP7414124B2 (ja) 2020-03-30 2024-01-16 日本電気株式会社 指紋照合装置、指紋照合方法、及び、プログラム

Also Published As

Publication number Publication date
JP6569734B2 (ja) 2019-09-04
JPWO2017038695A1 (ja) 2018-08-16

Similar Documents

Publication Publication Date Title
JP6569734B2 (ja) 画像処理装置、画像処理方法及びプログラム
US7151846B1 (en) Apparatus and method for matching fingerprint
US11810392B2 (en) Minutia features generation apparatus, system, minutia features generation method, and program
US9792484B2 (en) Biometric information registration apparatus and biometric information registration method
JP5440182B2 (ja) パターン照合装置、パターン照合方法、及びプログラム
JP6810392B2 (ja) 個体識別装置
US9864898B2 (en) Feature point input assisting device, feature point input assisting method, and storage medium stored with program
JPWO2015170461A1 (ja) 画像処理装置、画像処理方法およびコンピュータ可読記録媒体
JP6152892B2 (ja) 指紋照合用指紋コア抽出装置、指紋照合システム、指紋コア抽出方法、及びそのプログラム
US11893825B2 (en) Method for determining a match between a candidate fingerprint and a reference fingerprint
US11783623B2 (en) Synthesizing apparatus, synthesizing method and program
US20050271260A1 (en) Device, method and program for removing pores
WO2017038668A1 (ja) 画像処理装置、画像処理方法及びプログラム
WO2021192315A1 (ja) 縞模様画像照合装置、縞模様照合方法、及び、そのプログラムが格納されたコンピュータ可読媒体
JP7381997B2 (ja) 情報処理システム、情報処理方法及びプログラム
US20150130812A1 (en) Measured Data Digitization Apparatus, Measured Data Digitization Method and Non-Transitory Computer-Readable Medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16841727

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017537850

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16841727

Country of ref document: EP

Kind code of ref document: A1