WO2002084576A2 - Automatische identifikation und/oder verifikation linienhafter texturen wie fingerabdrücke - Google Patents

Automatische identifikation und/oder verifikation linienhafter texturen wie fingerabdrücke Download PDF

Info

Publication number
WO2002084576A2
WO2002084576A2 PCT/EP2002/003580 EP0203580W WO02084576A2 WO 2002084576 A2 WO2002084576 A2 WO 2002084576A2 EP 0203580 W EP0203580 W EP 0203580W WO 02084576 A2 WO02084576 A2 WO 02084576A2
Authority
WO
WIPO (PCT)
Prior art keywords
image
local
contour
local features
features
Prior art date
Application number
PCT/EP2002/003580
Other languages
English (en)
French (fr)
Other versions
WO2002084576A3 (de
Inventor
Qiu-Ping Zeng
Original Assignee
Idencom Germany Gmbh
Idencom Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=7681504&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=WO2002084576(A2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Idencom Germany Gmbh, Idencom Ag filed Critical Idencom Germany Gmbh
Priority to EP02727510A priority Critical patent/EP1402460B1/de
Priority to DE50210890T priority patent/DE50210890D1/de
Publication of WO2002084576A2 publication Critical patent/WO2002084576A2/de
Publication of WO2002084576A3 publication Critical patent/WO2002084576A3/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification

Definitions

  • the invention relates to aspects in connection with the identification and / or verification of linear textures, for example fingerprints.
  • the human fingerprint can be used to identify people or to verify the identity of people. When identifying people, a specific fingerprint is compared to a large number of archived fingerprints. In addition, to verify the identity of a person, it is known to request the person to provide a fingerprint and to compare the fingerprint provided with a fingerprint of this person which has already been stored in advance. Such verification procedures serve, for example, access control, protection against misuse in the social sector, protection against data misuse, etc.
  • Computer-aided methods are known both for identification purposes and for verification purposes, which generally have the sequence outlined in FIG. 1.
  • a first step an image of the fingerprint is generated. This image is then processed and then subjected to a feature extraction.
  • verification applications the extracted features are compared to the features of a particular reference pattern. The comparison result is then output.
  • identification applications a rough classification of the fingerprint takes place based on the extracted features.
  • the extracted features are then compared with the features of a plurality of reference patterns stored in a corresponding database class. Finally, the result of the feature comparison is output.
  • the fingerprint is first recorded using ink or using a fingerprint sensor.
  • the captured image is then converted into a raster image in order to enable computer-aided, automated identification and verification.
  • Papillary line structure can be difficult to see because the individual papillary lines tear open, are broken or cannot be separated. It is therefore usually necessary to subject the raster image to image processing in order to improve the line structure for the subsequent feature extraction.
  • the relevant identification and verification purposes Be ⁇ can be rich of the raster image of a fingerprint in three categories are divided.
  • the first category corresponds to well-defined areas in which the individual papillary lines are neatly separated and run in a continuous direction.
  • the second category theory corresponds to areas that can be improved, in which the papillary lines are only partially disturbed by folds, dirt, scars, etc.
  • the basic structure of the papillary lines is still visible in the areas that can be improved, and neighboring areas contain information about the correct structure of the lines in the areas that can be improved.
  • the third category corresponds to the areas that cannot be improved, in which the papillary lines are so poorly imaged that only noise and interference can be seen, and the neighboring areas also contain no clues about the real line structure.
  • the aim of image processing is to achieve a clean structure of the papillary lines in the areas that can be improved and to identify and ignore the areas that cannot be improved.
  • the image processing must under no circumstances falsify the papillary line structure, as this would change the individuality of a fingerprint.
  • a method for processing the grayscale image of a fingerprint is known.
  • a first step using the gray-scale image using a statistical method, a directional image is generated which contains information regarding the pixel directions.
  • the direction of a pixel is defined as the direction along which the gray values have the least change.
  • the directional image generated in this way is extremely sensitive to noise and interference.
  • the directional acquisition is based only on local information. For this reason, it is proposed to form directional images for larger parquet cells of 16 x 16 pixels and then to smooth adjacent parquet cells with a mask of 3 x 3 pixels.
  • this procedure fails if relatively homogeneous areas appear in the image, since there is then no dominant direction.
  • Another disadvantage of this procedural ⁇ proceedings is the extremely high computational effort, which the author has led to use a spe ⁇ cial hardware (MicroVAX 3400).
  • the grayscale image is then smoothed along the course directions of the papiller lines determined using the directional image.
  • the smoothed gray value image is subjected to dynamic binarization with the aid of a local threshold value.
  • the mean value for each pixel is calculated in a window of 15 x 15 pixels and used as a threshold.
  • the final step in image preparation is skeletonization of the binary image.
  • the individual papillary lines are processed in such a way that in the end only one line remains the width of a pixel, which runs in the middle of the original papillary line.
  • Multiple morphological erosions (20 - 30 iterations) are carried out for skeletonization. This is extremely time consuming.
  • a quality image is created on the basis of the directional image, which marks the areas of the third category (areas that cannot be improved).
  • the differences in the gray value changes within a parquet cell are statistically evaluated. As soon as the differences are below a threshold value, the corresponding parquet cell is marked as an area that cannot be improved.
  • the feature extraction is carried out after the image processing.
  • Line textures such as fingerprints are determined by their local characteristics and the topological relationships between such local characteristics.
  • minutiae The most important minutiae, namely line end and line branching, are shown in FIGS. 2a and 2b.
  • a line end is defined as a point at which a line run ends.
  • a line branch is defined as a point at which a line bifurcates.
  • Line end and line branching are also called primitive minutiae.
  • the so-called "context features" shown in FIG. 3 can be derived from the two primitive minutiae.
  • FIG. 3 shows line end (1), evasive line ends (2), line branching (3), hook (4), fork (5), points (6), eye (7), island (8) from left to right. , embedded lines (9) embedded loop (10) and special feature (11).
  • the purpose of feature extraction is to identify the minutiae in a fingerprint image.
  • a well-received, unrolled fingerprint typically has approximately 40 to 130 minutes and a latent fingerprint approximately 20 to 70 minutes.
  • the minutiae determined in the course of the feature extraction completely describe a fingerprint.
  • the location coordinates x, y and the angle w are usually stored from the determined minutiae (FIG. 4). When you save the minutes, there is a huge reduction in data.
  • the minute-based identification of fingerprints is one of the most reliable identification methods. For example, the match of a certain number of minutes is recognized by the court as an indication of the authorship of a fingerprint.
  • the minutiae of a fingerprint are determined in the skeletonized binary image.
  • a line end is characterized in that there is only one neighboring pixel within the mask.
  • a branch has at least three neighboring pixels within the mask.
  • the feature extraction is followed by the feature comparison.
  • the feature comparison it is determined whether or not two fingerprints are from the same finger. It is generally accepted that when two fingerprints come from the same finger, the respective minutiae and the topological relationships between the minutiae match. Since minutiae are point features (FIG. 4), the comparison of line-like textures, for example fingerprints, can be reduced to a point comparison. For various reasons, comparing two minute sets is difficult. Because of different recording conditions, for example, the case often arises that the minutiae of the first minute set are shifted, rotated or skeletonized differently with respect to the minutiae of the second minute set.
  • the unknown transformation parameters are estimated, which are required to map the minutiae of a first minutiae set to the minutiae of a second minutiae set. This is done using a hough
  • Transformation It looks for transformation parameters that lead to as many overlaps as possible between the two minute sets. A quality criterion is calculated for all theoretically possible transformation parameters. The transformation that has the best quality is assumed to be the correct estimate. After the transformation parameters have been estimated, the input minutiae are transformed in a second step using the estimated transformation parameters and each transformed minute is compared in turn with each reference minute of the second minute set. If the distance between two compared minutiae lies within a tolerance range, these two minutiae are identified as a pair of minutiae.
  • a degree of similarity between the two minute sets is determined.
  • the similarity measure corresponds to the number of minute pairs found in the second step.
  • a disadvantage of the comparison method by Ratha et al. is the high computing effort and the high false rejection rate of over 10% with a comparatively low acceptance threshold of 10 corresponding minute pairs. The rejection is incorrect if two fingerprints of the same finger are declared different.
  • the feature comparison can be accelerated by classifying all the fingerprints stored in a database according to certain criteria.
  • fingerprints can be classified into different sample classes.
  • the sample classes are characterized by the presence of certain global characteristics and the relative position of the global characteristics to one another.
  • Global features are called nuclei when they indicate the location of a maximum curvature of the papillary lines.
  • Global features which correspond to a triangular structure in the course of the papillary lines, are called Delten (Greek "Delta").
  • Delten Greek "Delta”
  • FIG. 5 exemplary waveforms of ridges with the corresponding globa ⁇ len features are illustrated.
  • the Henry classification system comprises different sample classes.
  • the pattern class of the arches has no cores or deltas.
  • the line shape of an arc looks such that the lines come in on one side, grow in the middle and run out on the other side.
  • arcs can be made even finer be classified. For example, we speak of a fir tree if the slope is big enough.
  • loops are spoken of if there is a core and a delta within a sample area. Structures which have at least two deltas are referred to as vertebrae in accordance with the Henry classification system.
  • the invention is based on the object of avoiding the disadvantages of the methods and devices for automatically evaluating and processing raster images of linear textures and, in particular, of specifying methods and devices which are faster and more reliable.
  • a method for computer-aided evaluation and / or processing of a gray value raster image of a line-like texture for example a fingerprint
  • the evaluation can include, for example, a classification of the grayscale raster image or the creation of a quality image for the grayscale raster image. Editing the grayscale raster image can include anisotropically smoothing the grayscale raster image.
  • the contour image is preferably generated from the binarized gray value raster image.
  • Binaryization of the gray value raster image is possible in different ways. For example, static binaryization with a globally uniformly fixed threshold value, e.g. the mean. Dynamic binarization can also be carried out with the aid of a threshold value to be determined locally in each case. The local threshold can e.g. fixed in a valley of a bimodal histogram.
  • a third binarization method is particularly preferred, which comprises smoothing the grayscale raster image and subsequent edge extraction. The smoothing can be done using a Gaussian or a mean filter and the edge extraction using a laplace operator. Such a binarization method is exemplified in Marr and Hildreth Theory of edge detection, Proc. R. Soc. London B 207, pp 187-217, 1980 (Marr-Hildreth binarization method).
  • a contour image can then be generated from the binarized grayscale raster image or the line spacing of the linear port texture can be determined.
  • the line spacing is an important parameter for subsequent process steps such as filtering, feature extraction and feature comparison.
  • the directional image of the grayscale raster image is determined from the information contained in the contour image.
  • the generation of the directional image preferably includes the determination of the daytime directions of the contours of the contour image.
  • a bipod can be guided along the contours for the purpose of determining the tangent direction.
  • the directional information of the directional image is preferably in the form of pixel directions.
  • the pixel directions can e.g. can be derived from the tangent directions of the contours of the contour image.
  • Direction information can be used to evaluate or edit the grayscale raster image on which the direction image is based.
  • the anisotropic smoothing preferably comprises the entire gray value raster image, not only the contours contained therein, it is expedient to carry out the anisotropic smoothing with the aid of pixel direction information.
  • the anisotropic smoothing preferably takes place in such a way that filtering is carried out parallel to the direction of edge profiles. For example, a Gaussian filter can be used.
  • the anisotropically smoothed gray value raster image can be binarized.
  • the anisotropically smoothed gray value raster image can be binarized, for example, by means of the above-explained methods for binarizing the unprocessed gray value raster image.
  • Another contour image can then be generated directly from the anisotropically smoothed gray value raster image or from the binarized, anisotropically smoothed gray value raster image.
  • This further contour image is preferably used to evaluate the information contained in the original gray value raster image.
  • the further contour image can be used as the basis for determining the local and / or global features of the line-like texture contained in the original gray value raster image.
  • the anisotropic smoothing of the grayscale raster image can include the use of a one-dimensional or multidimensional filter in a direction of a line derived from the direction information.
  • a quality image can be generated on the basis of the direction information contained in the directional image.
  • the quality image can, for example, identify those areas of the grayscale raster image which cannot be improved even by means of image processing, ie which should not be used for the extraction of local or global features of the linear textures.
  • the areas of the original grayscale raster image suitable for feature extraction can therefore be understood as the intersection between the original grayscale raster image and the quality image.
  • the quality image is preferably derived from the local distribution of the pixel directions within the directional image. Another possible use of the directional information contained in the directional image is the classification of the original gray value raster image.
  • the directional image can be used to classify the line-like texture contained in the original gray value raster image.
  • the classification is preferably based on global features of the linear texture.
  • Global characteristics include kernel and delta, for example. Appropriately, those areas of the original grayscale raster image are examined with regard to the global features that do not include sufficient or strongly changing direction information.
  • areas of the original gray value raster image can be identified which potentially contain global features.
  • the local characteristics can act as an alternative or additional indication of the presence of global characteristics. In this way, the global characteristics can be searched in areas in the vicinity of local characteristics.
  • the global characteristics are preferably identified with the aid of the Poincare index.
  • neighboring global features can serve as the basis for the classification of the original gray value raster image.
  • the classification is expediently based on the Henry classification system or a modification.
  • the local characteristics of the line-like textures can be determined with the aid of a computer.
  • feature criteria are first defined and then a contour course of the rastered contour image is analyzed with regard to the feature criteria.
  • the contour image used to determine the local features is preferably generated as described above from a binarized, anisotropically smoothed gray value raster image.
  • contour images generated in another way is also conceivable.
  • the local curvature of the contours contained in the contour image is analyzed to determine the local features.
  • the contour course can be analyzed by means of the bipod already mentioned, which is guided along the contour, or by means of other methods. It is useful to analyze at least those areas of a contour whose curvature is above a certain threshold value, since these areas are potentially candidates for local features.
  • At least line ends and branches are preferably identified as local features. In the area of line ends and branches, the contours regularly have a particularly high local curvature.
  • ⁇ criterion be required that the angle of the bipod ie the angle be- see the two legs of the bipod is below a predetermined threshold value or within a predetermined angular interval.
  • An additional or alternatively ⁇ ves, second feature criterion may indicate that the difference in length between the two legs of the bipod is smaller than a predetermined further threshold value.
  • the length difference between one of the legs of the bipod and the length of the contour between the start point and the end point of this leg on the contour may be less than a predetermined third threshold value.
  • the location coordinates and a relative angle of each determined feature can be determined and stored. Various methods are available for determining the angle. For example, the angle can be determined at the location of the local feature by means of the perpendicular to the tangent direction of the contour. As an alternative to this, the angle can also be determined by averaging tangent directions in the vicinity of the local feature.
  • a local feature can be erroneously determined at a point at which the underlying linear texture has no local feature. It is therefore necessary to subject the identified local features to a further analysis in order to be able to identify and eliminate false features.
  • This analysis can include an assessment of the position of the local characteristics determined and the distance between the local characteristics determined.
  • all local features whose mutual distance is less than a predetermined fourth threshold value can be identified as spurious local features.
  • All local features whose mutual distance is greater than the fourth threshold value but less than the predetermined fifth threshold value can also be combined into a single local feature.
  • the relevant feature and the adjacent features can be identified as fake local features.
  • Another way to remove spurious local features is to analyze the quality image. In this way, all local features that do not lie within the intersection of the quality image and the contour image can be identified as fake local features.
  • the quality image is preferably created on the basis of the directional image.
  • a set of local features is available, which with a high probability only includes real local features. Based on this first set of local features, a computer-aided comparison with at least a second set of local features can be carried out in order to find out whether the linear textures on which the feature sets are based are identical or not.
  • the computer-assisted comparing the sets of local characteristics comprises, for example, automatically determining at least one estimated set of transformation parameters for a transformation between the one set of local characteristics and the other set Loka ⁇ ler features, performing the transformation using the estimated set transfor ⁇ mationsparameter for determining the respective corresponding local features and the automatic checking of the set of transformation parameters, an iterative correction of the estimated set of transformation parameters being carried out as a function of the check, in that the transformation is carried out again using the corrected set of transformers. mation parameters for redetermining the corresponding local characteristics is carried out.
  • the estimated set of transformation parameters is corrected at least once. As soon as a corrected set of transformation parameters meets the specified requirements, no further correction can be made.
  • the iterative correction can also be terminated if, after a predetermined number of iterations, the set of transformation parameters corrected several times still does not meet the specified requirements.
  • the corresponding local characteristics found in each case can serve as the starting point for the correction.
  • the correction can be carried out in such a way that, in the case of a transformation by means of the corrected set of transformation parameters, the correspondence of the corresponding local features already determined is maintained.
  • the set of transformation parameters can include at least one of the transformation parameters, scaling factor, rotation angle and translation vector. At least one of these transformation parameters is expediently changed as part of the iterative correction.
  • the translation vector can be corrected using a variance analysis. A possible implementation of the iterative correction includes the optimization of a cost function regarding the corrections made in each case.
  • the iterative correction is not carried out if the two sets of local features to be checked are assessed as matching.
  • An assessment as matching can be made when a first quality criterion is met.
  • the first quality criterion can be met at least or only if the number of determined, corresponding local features is above a predetermined first threshold value.
  • the iterative correction can be carried out at least or only if the local features determined as corresponding do not meet the first quality criterion, but fulfill a second quality criterion that is lower than the first quality criterion.
  • a possible realization of the second quality criterion is the requirement that the number of local features determined as corresponding is below the first threshold value, but above a predetermined, second threshold value.
  • a preselection is carried out in the context of determining the at least one estimated set of transformation parameters with regard to the sets of transformation parameters that are potentially possible.
  • This preferred embodiment is fundamentally independent of the automatic checking of the estimated set of transformation parameters and the subsequent iterative correction described above.
  • preselection can be made such that only those sets of transformation parameters are considered which are capable of converting any local characteristic of the first set of local characteristics to any local characteristic of the second set of local parameters, or vice versa, map.
  • the transformation parameters calculated as part of the determination of the estimated set of transformation parameters are quantized and the quantized transformation parameters are arranged in a transformation parameter space (e.g. the Hough space).
  • the transformation parameter space can comprise a counter for each quantized transformation parameter value, the corresponding counter being automatically increased following the calculation and quantization of a transformation parameter value.
  • the estimated set of transformation parameters required for the purpose of determining the corresponding local characteristics can be determined in such a way that it includes those transformation parameter values with the highest counter readings. Other selection criteria are also conceivable.
  • the above-mentioned quantization of the transformation parameters and the arrangement of the quantized transformation parameters in a transformation parameter space can in principle be carried out independently of the above-mentioned automatic checking of the estimated set of transformation parameters and its iterative correction.
  • a single estimated set of transformation parameters or a plurality of estimated sets of transformation parameters can be used.
  • This fourth quality criterion can be, for example, the status of a suitable counter in the transformation parameter described above.
  • a plurality of estimated sets of transformation parameters can also be determined for a single first set of local features and a single second set of local features and used in each case to determine the corresponding local features. It is thus possible to identify all those calculated transformation parameter sets as estimated sets that meet a fifth quality criterion.
  • the fifth quality criterion can say, for example, that the corresponding counter of a quantized transformation parameter value within the transformation parameter space described above exceeds a predetermined threshold value.
  • the comparison process can be terminated at this early stage.
  • the two sets of local characteristics are then automatically evaluated as inconsistent, without the corresponding local characteristics having to be determined.
  • a local feature of the first set of local features and a local feature of the second set of local features as corresponding identifying. This is expediently done taking into account the distance between a transformed local characteristic of one set of characteristics and a non-transformed local characteristic of the other set of characteristics.
  • a sixth quality criterion can be defined, for example, in the form of a maximum distance.
  • a method for the biometric identification and / or verification of persons can include the step of providing a raster image of the fingerprint of a person and one or more of the method steps explained above.
  • the individual method steps can advantageously be carried out on a computer system, which can be designed as a biometric identification and / or verification device.
  • the computer system can comprise a digital storage medium with electronically readable control signals, which interact with the computer system in such a way that the corresponding methods are carried out. At least some aspects of these methods can be stored as program code on a machine-readable medium.
  • 1 shows the mode of operation of an identification / verification device
  • 2a, 2b two primitive minutiae
  • Fig. 4 location coordinates and angle of a primitive minute
  • 16 shows the generation of the tangent direction by means of a bipod; 17 the determination of the angle ⁇ of a bipod; 18a, 18b a regular and an irregular bipod;
  • Fig. 20 shows the use of a directional, one-dimensional Gaussian filter
  • Filter mask weights shows the computing times for individual work steps of the image processing method according to the invention.
  • 24 shows the transformation for mapping an input pattern onto a reference pattern; 25 the correction of an angle difference in Hough space;
  • the method according to the invention can generally be used for analyzing, preparing and comparing raster images of linear textures
  • the following exemplary embodiments relate to the preferred use of the method in connection with the identification and / or verification of people on the basis of fingerprints. For this reason, the local features are referred to as minutiae in the following.
  • FIG. 6 shows a computer-based identification device according to the invention
  • FIG. 7 shows a computer-based verification device 20 according to the invention.
  • a coding unit 14 of the identification device 10 receives a grayscale raster image 12 of a fingerprint and carries out an image preparation and a minute extraction.
  • the extracted minutiae are passed on to a comparison unit 16.
  • the comparison unit 16 compares the minutiae set received by the coding unit 14 with a large number of minutiae sets, which are stored in a database 18.
  • the comparison unit 16 then outputs those minute sets or personal information of those minute sets 18 which have more than a certain number or most corresponding minute sets.
  • a gray-scale image 22 also serves as an input signal for a coding unit 24.
  • the coding unit 24 carries out an image processing and a minutiae extraction and forwards the extracted minutiae to a comparison unit 26.
  • the comparison unit 26 receives a further, previously stored minute set. This minute set can, for example, on a magnetic stripe card 28, a ner chip card or stored in a database.
  • the minute set provided by the coding unit 24 is compared with the previously stored minute set and the number of matching minute sets is output. Depending on the number of matching minutiae, the identity of the fingerprint of the grayscale raster image 22 is considered to be verified or not.
  • This distinction is shown in Fig. 8.
  • the off-line phase several fingerprint recordings are made, the corresponding minutiae extracted and then saved as a reference pattern in a data record for later feature comparisons.
  • the on-line phase an image of the finger of a person requesting access, for example, is created, the minutiae of the recorded fingerprint are extracted and compared with the stored reference pattern.
  • This stage is used to convert an image template into a physical image and to digitize and quantize this image to produce a raster image, e.g. in the form of a matrix of 512x512 pixels with 8-bit light intensity values.
  • a raster image e.g. in the form of a matrix of 512x512 pixels with 8-bit light intensity values.
  • the image is obtained by placing a finger on a prism using the effect of the disturbed total reflection (FIG. 9).
  • a finger e.g. a guide device
  • the rotation of the finger can be restricted to +40 degrees in relation to the support in order to shorten the feature comparison time.
  • the gray scale image is binarized.
  • the contours are tracked and saved as a contour code.
  • the daily directions of the contours are determined and evaluated using the contour code.
  • the contours Directions are then merged and converted to continuous pixel directions.
  • the quality picture is obtained by evaluating the directional distribution in parquet cells.
  • the lines are smoothed in their direction by means of a Gaussian filter. This improves broken lines, noise, and smeared areas.
  • the anisotropically smoothed image is binarized again and the contours of the binarized image are tracked again.
  • the stored contour information is used for the subsequent minute extraction.
  • the gray value raster image is smoothed in a first step by means of a Gaussian filter.
  • a laplace operator (Laplacien of Gauss) then decides whether there are edges in four different directions.
  • the implemented procedure takes approx. 90 ms for an image size of 280x200 with a Pentium PC 200MHz.
  • the two methods give very similar results, with the Gaussian filter having a somewhat better smoothing effect.
  • the binaryization with the mean value filter only takes about 35 ms.
  • the mask size of the filter is 16x16. This size is based on the expected line spacing. Since the individual line spacing has not yet been measured, the average line spacing is taken as the empirical value.
  • the line spacing can be measured.
  • the line spacing describes a period of black lines on a white background (Fig. 12).
  • the line spacing is an important measure with regard to the mask size of different filters for the feature extraction and the feature comparison. Different fingerprints have different line spacings. Fingerprints from younger people have relatively fine lines and therefore a small line spacing, in children it is particularly small. At 500 dpi image resolution, the value can be between 7 and 18 pixels. Even with one and the same fingerprint there are different local line spacings.
  • contours generated by binaryization can be described by contour codes.
  • the basic principle is that you move along the contour in a clockwise direction from an edge point of the contour as the starting point and save the coordinates x and y of the points found. The process is finished for a contour as soon as you have returned to the starting point.
  • Many interesting properties of a contour can be derived from the contour code, e.g. Length, area, inclination, center of gravity, etc.
  • the contour code offers a helpful way of moving along the contour. The following formulas apply:
  • Length of a contour n length of the hiking trail
  • the contour code structure is shown by way of example in FIG. 13. 14 and 14b show two different contour images.
  • the generation of the directional image is based on the contour code. This significantly shortens the computing time, since all operations for determining the direction are connected only to the contour points.
  • the directional extraction methods used in the prior art analyze each pixel in the gray-scale image or binary image. For an image size of 280x200, this corresponds to an operation quantity of 560,000 pixels; in the contour image, the operation quantity can be reduced by a factor of 4 to 9 (the factor corresponds approximately to the line spacing).
  • contours can be derived from the contour code.
  • Noise and distortion can then be quickly identified. For example, short broken lines are relatively small in length and area, and lines due to noise are even smaller. Such disturbing contours can be ignored when determining the direction.
  • the directions are very local and random, especially in areas where noise and distortion occur. Such directions should not be calculated in the first place, since it is otherwise difficult to distinguish the valid from the incorrect when preparing the contour direction to the pixel direction.
  • 15a and 15b show a binary image and a contour image derived from the binary image, in which noise and distortions are identified.
  • the generation of the directional image is implemented in two steps. a) Generation of the contour direction: With the contour code structure you can move easily and quickly on the contour. The tangent direction for a point (x, y) is calculated with a bipod along the contour (FIG. 16). The following applies:
  • the tangent directions in the vicinity of line ends, branches and distortions are not taken into account, since the curvature of such points does not correspond to the real line course.
  • the spots mostly have an acute angle or a not well-defined bipod. They can be recognized by checking the angle and length of the bipod.
  • the angle of a bipod is calculated using the following formula (Fig. 17). If the angle ⁇ is less than 120 °, the corresponding tangent direction ⁇ is not accepted. y, y
  • the angle of a tangent direction is approximately replaced by a direction code. Eight main directions are used (Fig. 19). The direction code is numbered from 1 to 8. Code 0 means that there is no direction. The angle and direction code have the following relationship:
  • the contour direction image is created.
  • the anisotropic smoothing should not only be limited to the contours, but should capture the entire image. This requires the directional information for each pixel. In order to move from the contour direction to the pixel direction, the following assumptions were made:
  • Li and L 2 each denote the length of one of the two adjacent directional fields and Ai and A 2 denote the portion of the total length of both directional fields replaced with a certain direction.
  • T 2 a second threshold value
  • parquet cell each left, right, shifted by 8 pixels down and up, the sum histograms are each again tet evaluated ⁇ . The idea was that if the parquet cells are shifted along the edge, their sum histograms cannot simultaneously meet the threshold T 2 .
  • the quality image is smoothed in the end.
  • Parquet cell with "bad” quality If the directly adjacent parquet cells are all defined with “good” or “mediocre” quality, this parquet cell is also rated with “mediocre” quality.
  • image improvement in the spectral range is generally too time-consuming. For this reason, the image improvement in the local area is implemented in the form of anisotropic smoothing.
  • a line is improved in its direction by a one-dimensional Gaussian filter.
  • the mask size is 1x5. 20 shows the weights of the masks and their directional dependency.
  • the image improved by means of anisotropic smoothing is binarized again, this time using a Gaussian filter instead of the mean filter.
  • the second binary image has a much better quality: the broken lines are closed, the holes are filled and noise and distortions are deleted or repaired.
  • the contours of the second binary image are tracked as described above and stored as a contour code structure. Based on this contour code, the next step is the minute extraction.
  • the minutiae extraction is based on the (second) contour image generated as described above.
  • the spurious minutiae are additionally treated by a further analysis step (postprocessing).
  • postprocessing The determination of global characteristics such as kernel and delta is explained in more detail in the "Classification” chapter below.
  • the properties of the contours allow meaningful criteria to be derived in order to exclude noisy contours, and thus potentially fake minutiae; -
  • the minutiae are easy to determine on the basis of the contour, because the contours have an acute angle at the points of line ends or branches; and
  • Contours can be divided into two classes: regular and irregular contours
  • a contour is regular if it runs continuously in a local environment and its length and area have well-defined properties.
  • a contour is irregular if it is interrupted in a local environment, no longer runs continuously in one direction or its length or area has not reached a sufficient size.
  • irregular contours such as:
  • - Bumps they appear when the distance between the skin's perspiration pores and the edge of the papillary line is too small, so that the white surface otherwise inside the papillary line smears with the white background.
  • - Wrinkles large empty spaces between the lines.
  • Distortions the lines are no longer continuous, but with small local distortions. Distortions are caused by irregular recording conditions, for example small fluctuations or movement of the finger during the recording.
  • Regular contours are an easy task to extract the corresponding features from the contours. However, irregular contours are usually more or less visible in the image after image processing, so that it is difficult to determine the real minutiae.
  • Irregular contours are treated as follows: a) Noise can be quickly identified and eliminated by checking the contour length and contour area. b) The contour length and width decide whether a white island is a hole or an eye. c) Scars can be ignored with the help of the quality picture, because the area where a scar occurs is marked in the quality picture as an area that cannot be improved, d) The treatment of broken or glued lines, bumps, distortions and wrinkles is explained in the following sections ,
  • the minutiae are extracted using a bipod by constructing a bipod at each point on the contour and checking the properties of the bipod.
  • a bipod consists of a left leg, a right leg and the angle between the legs.
  • a regular and an irregular bipod are shown in FIGS. 18a and 18b.
  • a point is saved in a list as a possible candidate for a minute if the bipod of the point simultaneously fulfills the following three conditions: a) The angle W of the bipod lies within a certain angular interval W min ⁇ W ⁇
  • a line end or a branch have an acute angle (W ⁇ W ma ⁇ ), whereby this angle should not be too small, since, for example, bumps are characterized by relatively small angles that distinguish them from the angles of real minutiae (W> W mln ).
  • the bipods on the contour have a well-defined property and that the legs have almost the same length to the left and right.
  • This length also hardly differs from the length on the contour between the start and end point of the respective leg on the contour.
  • the bipods of distortion and glued lines behave differently: the length differences are random and mostly relatively large.
  • a list of minutiae candidates is made for each list.
  • the candidates are then analyzed:
  • a) Determination of the coordinate values of the minute If several candidates were found in a small environment, then only the candidate with the smallest pointed win kel considered the only real minute watch. The only minute takes the coordinate values of this point.
  • the fake minutiae mostly come from folds, pores, broken or glued lines.
  • the following rules are implemented. a) If two minutes are very close to each other (possibly from broken lines), both are deleted. The distance threshold is about 0.7 ⁇ line spacing. b) If a contour is not longer than 6 ⁇ line spacing, has only one or two minutes and has a white area, this contour is analyzed precisely, because it can only have one
  • the width of the contour serves as a distinguishing criterion. If the width is greater than the line spacing / 3, this white island is declared as an eye, otherwise as a pore. c) If there are several minutiae in an environment and the minutiae point in pairs (over 100 degrees angle difference), do not separate further
  • the threshold is about 1.2 ⁇ line spacing
  • the minutiae are suspected of being foldable minutiae and summarized as a special feature (fold), with the focus of the minutiae. Otherwise, such minutiae are deleted, which probably come from stuck lines or distortions. d) If two adjacent minutiae do not separate further from each other (the threshold is about 1 x line spacing) and run almost parallel to each other (the angle difference is small less than 30 degrees), then the two minutes are combined into a single minute (with the focus of both). e) If the angle of a minute does not correspond to the direction of the corresponding contour, this minute is deleted. f) Marginal and raw minutias from areas that cannot be improved are eliminated with the help of the quality diagram.
  • the minutiae extraction described above requires a computing time of typically 100 ms on a Pentium PC 200 MHz and is significantly faster than all methods known in the prior art.
  • a comparison of the implemented method with the methods of the prior art is difficult since the image quality of the fingerprints used in the prior art is very different, most authors do not provide any statistics about the distribution of the real and spurious minutiae found and an exact distinction between real and spurious minutiae is not easy.
  • the treatment of potential spurious minutiae described above is much more careful and therefore more reliable than conventional methods.
  • Minutia comparison A minutia comparison with several iterations for the estimation of the transformation parameters is implemented. As a first step, the parameters are roughly estimated. The estimated parameters are then evaluated and corrected. The correction is done by means of a cost reduction. The corrected parameters are iteratively used again to compare the minutiae. The exact steps of the process look as follows (Fig. 23):
  • Hough transformations are used when recognizing geometric objects such as straight lines, circles, etc.
  • the geometric objects are to be characterized in the spatial area by parameters.
  • the corresponding parameter space is the Hough space of the objects under consideration.
  • a straight line can be represented by two parameters d and ⁇ .
  • a point in spatial space defines a set of parameters (e.g. parameters of all straight lines that run through the point in Hough space):
  • the parameterization of this object lies in the intersection of the parameter sets of these points in the Hough space.
  • the general task can be described in such a way that picture elements are to be grouped which (roughly) correspond to an object of the class under consideration.
  • the general solution consists of the following steps: 1. The corresponding parameter sets in the Hough space are to be determined for each pixel.
  • the averages are to be considered for parameter sets. Each point in an average set (in the Hough space) is to be evaluated with the number of pixels for which it is a possible parameter combination. 3. The points in the Hough room with a sufficiently high rating are to be identified with a "recognized" object.
  • Hough transformation is well suited for estimating transformations.
  • a transformation can be represented by four parameters t x , t y (translation vector), s (scaling) and ⁇ (angle of rotation) (FIG. 24). Since all points in an image have the same transformation, there should be a sufficiently high evaluation (English peak) in Hough space (transformation parameters) for the actual (estimated) transformation. As mentioned, the Hough transformation is very well suited for estimating the transformation parameters. In order to make the estimation of a suitable set of transformation parameters as effective as possible, the following demands are made:
  • the parameter space of the theoretically possible transformation parameters should be grouped appropriately so that a sufficiently high evaluation (peak) occurs in the transformation which is determined as an estimated transformation.
  • the rotation angle is limited to -45 degrees to +45 degrees and the translations in the X and Y directions are each set within the framework of about two thirds of the image length or image width. These restrictions correspond to reality and are sufficient for normal applications such as access controls.
  • the work steps of the first phase look like this:. a) q for each Minuzienzip (x p, y p, w p) and x, y q, w q) 'ngabemuster from the egg and ence pattern the refer- calculating the inverse transformation:
  • the interval sizes are determined from the line spacing and the accuracy of the angle determination of the minute.
  • the quantization of the Hough space brings about a clear expression of the valid transformations.
  • the need for strong quantization follows from the presence of nonlinear distortions and the inaccuracies in the process of image preparation and minute extraction.
  • the nonlinear distortions are caused by the fact that a three-dimensional fingerprint lies plastically on a two-dimensional sensor when the picture is taken. Due to the image processing (smoothing, binaryization) and the process of extracting the minutiae, the position and angle of the minutiae can be locally distorted. The angle of the minutiae is particularly problematic. It is difficult to determine exactly, because a small change in the connected contour has a great effect on the particular angle of the minute.
  • the Hough space is a three-dimensional parameter space A ⁇ dw, dy, dx ⁇ . An evaluation (counter) was assigned to each point in this room, and the maxima are searched among them. This happens as follows
  • the possible transformation parameters are saved in a candidate list.
  • further parameter sets are taken along if their evaluations are greater than a certain threshold value.
  • the threshold is e.g. 5
  • the candidate list obtained from phase 1 is analyzed in phase 2.
  • the candidate list is previously sorted according to the rating (quality) and the transformation parameters are multiplied by the respective interval size ((dx, dy, dw) ⁇ (t x , t y , ⁇ )).
  • the individual work steps are: a) A transformation (t x , t y , ⁇ ) is taken from the candidate list (if the candidate list is empty, the comparison process is ended as failed).
  • n is the number of minutes in the reference sentence.
  • the threshold is varied depending on the minimum number of minutiae of the two fingerprints to be compared. Since the average number of minutes in a recorded fingerprint is around 40, a weighting of 0.4 results in an average threshold of 16. The reliability of the fingerprint recognition system is heavily dependent on the weighting chosen, which may vary depending on the application. A weighting of 0.5 can be set for extremely safety-relevant applications. For a normal access control, a weighting of 0.3 is sufficient. It should be noted that the threshold is limited to the range from 12 to 20. The reasons for this are simple: there are fingerprints (for example, that of the little finger) that have relatively few minute details (around 25). Without the restriction, the threshold can then be below 10. However, this threshold is usually too low for a fingerprint recognition system. On the other hand, the threshold should not be so high that too many comparisons fail.
  • the matching score is above the threshold, the corresponding minutiae are checked again in more detail.
  • the check is necessary for the following reasons: If several reference minutiae lie within a tolerance range, the input minutiae has formed a pair with several minutiae. The number of corresponding minutiae is therefore counted several times (Fig. 28). In this case, the matching score will be corrected accordingly.
  • the comparison process is ended as successful. If the number does not reach the threshold value, but it is still good, continue with phase 3. Otherwise, further transformations are removed from the candidate list (back to phase 2).
  • phase 1 the scaling factor is set to 1.0. However, due to the Ef ⁇ Anlagens the local distortion of the scaling factor can be quite different from 1.0. It is therefore important to determine this factor more precisely.
  • Phase 3 is only carried out if the number of corresponding minutiae found in phase 2 is just below the threshold.
  • the pair of minutiae already recognized as corresponding are used as a template (it is assumed that they are the correct pair). 29 clearly shows that the minutiae recognized as corresponding should also be transformed upwards.
  • the suitable transformation is estimated using the pairs already corresponding and the corrected parameters are used again in the matching process in order to find further corresponding pairs. This happens similar to phase 2 (only slightly changed due to the additional scaling factor).
  • the implemented procedure was tested with two sets of fingerprints.
  • the first test set has 400 and the second 3,000 fingerprints.
  • the test sets came about as follows: 10 images with different transformations (rotation and translation and limited were made for each finger.
  • the first test set comprises 40 fingers, the second 300 fingers.
  • the test sets are representative for the following reasons: a) Thumbprint, index finger , Middle finger, ring finger and little finger are evenly distributed in the test sets (the little finger has relatively few minutes).
  • Both genders are represented.
  • a certain pattern type is dominant for each ethnic group, e.g. Asians have more swirl patterns, Europeans have more arch patterns.
  • the change (disruption of the papillary lines) of a fingerprint due to heavy smoking is obvious.
  • the qualities of the fingerprints are very different: wrinkles, scars, skin perspiration pores, slight to severe disturbances or distortions, smeared (moist) and broken (dry) lines are more or less present.
  • Each finger from a test set is compared to the rest of the fingerprints. Two further conditions are assumed: (1) if the number of minutes of a fingerprint is less than 15, this fingerprint is not involved in the comparison process. (2) if the number of usable papillary lines of a fingerprint is less than half of their total number, that fingerprint will not be taken.
  • the reliability of a detection system can be described with two statistical values: the wrong rejection rate (FRR) and the wrong acceptance rate (FAR).
  • FRR the ratio of the incorrectly rejected number of fingerprints to the total comparison number of the same fingerprints. The usability of a system depends on the FRR. An FRR below 1.00% is normally expected from a detection system.
  • FAR the ratio of the incorrectly accepted number of fingerprints to the total comparison number of different fingerprints.
  • the FAR is decisive for the reliability of a detection system.
  • the theoretical value of the FAR of a fingerprint recognition system is 0.0001% (under 1 million fingers there are two identical ones).
  • the average computing time for a comparison is around 8 ms.
  • the implemented detection system has a very high reliability.
  • the low FAR and FRR have proven not only the reliability of the comparison process, but also the care of the image processing and the minute extraction.
  • the FAR and FRR achieved in the test also confirmed that the system can be used for a wide range of expenses.
  • the comparison procedure treated the transformation very effectively.
  • the limitation of rotation and translation is generous. Theoretically, the method can correctly estimate any transformations, but the restriction made is sufficient for normal use.
  • the speed of the comparison process makes the system interesting not only for verification applications, but also for identification applications. For example, for access control in a medium-sized company with around 100 employees, the system only takes around one second to identify a person.
  • the further development should help to reduce the FAR.
  • the classification is an important prerequisite for the rapid identification of a fingerprint in a large fingerprint database.
  • a fingerprint is assigned to a predefined class. If all fingerprints within a database are classified a priori, identification can be done much more efficiently because the entered fingerprint should then only be searched for in a corresponding class.
  • a good classification system should be very reliable (incorrect classifications should be avoided as far as possible) and at the same time it should also be selective so that the fingerprints can be distributed roughly equally within non-overlapping classes within a database ⁇ nen.
  • the search process should also be efficient (a fingerprint should be found as quickly as possible).
  • a fingerprint can be classified according to the Henry system. Delten are places on a sample surface where the lines form a triangular structure. Cores are points of the maximum curvature of the lines, the curvature exceeding a certain threshold.
  • the four main groups of the Henry classification system are based on the presence or absence of certain global features within a sample area: a) Arcs: Arcs have no core or delta in the sample area. The curve of a curve looks like this: the lines run in on one side, grow in the middle and leave the pattern area on the other side. With the slope of the typical line structure, arch patterns can be classified even more precisely. If the slope is big enough, the pattern is also called "fir". b) Loops: Loops have exactly one core and exactly one delta. c) Vertebrae: vertebrae have at least two deltas. d) Compound structures
  • the existence of global features within a sample area can be determined using the Poincare index.
  • a circle is formed around a point in the sample area. The changes of direction on the circle are added up. The point is classified according to the sum. A point is said to be ordinary when the sum of the change of direction is 0 °, as a core when the sum is 180 ° and as a delta when the sum is -180 ° (Fig. 32).
  • a classification method based on global features is implemented.
  • a robust direction is assumed.
  • the direction generation is based on the contour image. Due to the properties of the contours and the bipod, incorrect direction values can be avoided.
  • the generalization from the contour direction to the pixel direction is made by assuming the continuity of the line course. It is very interesting to see that especially in the areas where the core or delta are located, no pixel direction can be assigned (black gaps in the directional image) because large changes in direction take place in these areas. This property is used by the implemented method. It is also observed that there are many raw minutiae around global characteristics.
  • the classification procedure implemented is organized according to these two special features.
  • the individual work steps are (Fig. 31): a) The raw minutiae are stored in a candidate list. b) If there is insufficient directional formation within a small environment (16x16) of the raw minute, this point is analyzed in more detail. A circle is constructed around this point in the directional image and if the Poincare index fulfills the above conditions for core or delta, this point is saved as a possible global feature in a list. c) After all possible locations of global characteristics have been examined, neighboring global characteristics are combined into a single global characteristic. This is done using a clustering process, whereby the focus of the cluster is viewed as a global characteristic. d) Classification of a fine print based on the global characteristics found according to a modified Henry classification system. Four classes are used, namely bow, left loop, right loop and.
  • the classification method implemented differs from the prior art methods in two main points: a) Generation of a directional image: the directional generation is based on contours and is therefore robust and fast. b) Due to the peculiarity of the directional image and the raw minute markings, only limited points have to be analyzed. Therefore the implemented procedure is very fast. For an image size of 512x512 this means an acceleration factor of about 1000. Because the direction generation and the extraction of the raw minutiae are the by-products of the image processing and the minutiae extraction, the computing time for the classification is only about 20 ms (Pentium PC 200 MHz).
  • Type lines are the innermost line configurations of a sample area.
  • the line structure is first coded and then the rough shape of the sample area is analyzed.
  • the advantage of the method is that it uses the global information about the line course. Compared to the other methods, it is not sensitive to missing global features.
  • the disadvantage, however, is that rotation and translation are very difficult to handle.
  • the line structure of a fingerprint is defined as a directional image (four directions are used).
  • the directional image is broken down into parquet cells and the typical rough line is extracted (the type lines).
  • the classification is made by the syntactic analysis of the type lines.
  • the course of the type lines are converted into a symbol list during the syntactic analysis and a string matching method is then used for the classification.
  • lines are represented as B-splines. The B-
  • Spline has the advantage that the line structure can be analyzed mathematically.
  • the extraction of the type lines is realized by the grouping of lines running in parallel.

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

Es werden Verfahren und Vorrichtungen für die Identifikation und/oder Verifikation von linienhaften Texturen, beispielsweise von Fingerabdrücken, beschrieben. Die Verfahren basieren auf dem Generieren eines Konturbilds aus einem Grauwert-Rasterbild und auf dem Analysieren des Konturenverlaufs innerhalb des Konturbildes. Aus dem Konturbild kann ein Richtungsbild abgeleitet werden. Das Konturbild gestattet weiterhin die Ermittlung lokaler Merkmale der linienhaften Textur. Basierend auf den extrahierten lokalen Merkmalen kann ein Merkmalsvergleich durchgeführt werden.

Description

Automatische Identifikation und /oder Verifikation linienhafter Texturen wie Fingerabdrucke
Beschreibung Hintergrund der Erfindung
Die Erfindung betrifft Aspekte im Zusammenhang mit der Identifikation und/oder Verifikation von linienhaften Texturen, beispielsweise von Fingerabdrücken.
Der menschliche Fingerabdruck läßt sich dazu benutzen, um Personen zu identifizieren oder die Identität von Personen zu verifizieren. Bei der Identifikation von Personen wird ein bestimmter Fingerabdruck mit einer Vielzahl archivierter Fingerabdrücke verglichen. Außerdem ist es bekannt, zur Verifikation der Identität einer Person die Person zur Abgabe eines Fingerabdrucks aufzufordern und den abgegebenen Fingerabdruck mit einem bereits vorab abgespeicherten Fingerabdruck dieser Person zu vergleichen. Derartige Verifikationsverfahren dienen beispielsweise der Zutrittskontrolle, dem Schutz vor Mißbrauch im Sozial- wesen, dem Schutz vor Datenmißbrauch usw.
Stand der Technik
Sowohl für Identifikationszwecke als auch für Verifikationszwecke sind computergestützte Verfahren bekannt, welche in der Regel den in Fig. 1 skizzierten Ablauf besitzen. In einem ersten Schritt wird ein Bild des Fingerabdrucks erzeugt. Dieses Bild wird daraufhin aufbereitet und anschließend einer Merkmalsextraktion unterzogen. Bei Verifikationsanwendungen werden die extrahierten Merkmale mit den Merkmalen eines bestimmten Referenzmusters verglichen. Anschließend wird das Vergleichsergebnis ausgegeben. Bei Identifikationsanwendungen erfolgt basierend auf den extrahierten Merkmalen eine Grobklassifikation des Fingerabdrucks. Anschließend werden die extrahierten Merkmale mit den in einer ent¬ sprechenden Datenbankklasse abgespeicherten Merkmalen einer Mehrzahl von Referenzmustern verglichen. Abschließend wird das Ergebnis des Merkmalsvergleichs ausgegeben.
Die einzelnen Schritte des in Fig. 1 dargestellten Verfahrensablaufs und die dabei im Stand der Technik auftretenden Probleme werden nachfolgend näher erläutert. Bei der Bilderzeugung wird zunächst der Fingerabdruck mittels Tinte oder mittels eines Fingerabdrucksensors aufgenommen. Das aufgenommene Bild wird anschließend in ein Rasterbild gewandelt, um eine computergestützte, automatisierte Durchführung der Identifikation bzw. der Verifikation zu ermöglichen.
Aufgrund ungenügender Aufnahmebedingungen tritt häufig der Fall auf, daß das Ras- terbild des Fingerabdrucks qualitative Schwächen besitzt. So kann beispielsweise die
Papillarlinienstruktur schwer zu erkennen sein, weil die einzelnen Papillarlinien aufreißen, zerbrochen sind oder nicht voneinander getrennt werden können. Es ist daher in der Regel notwendig, das Rasterbild einer Bildaufbereitung zu unterziehen, um die Linienstruktur für die nachfolgende Merkmalsextraktion zu verbessern. Im allgemeinen kann der für Identifikations- und Verifikationszwecke relevante Be¬ reich des Rasterbilds eines Fingerabdrucks in drei Kategorien unterteilt werden. Die erste Kategorie entspricht gut definierten Bereichen, in denen die einzelnen Papillarlinien sauber voneinander getrennt sind und in einer kontinuierlichen Richtung verlaufen. Die zweite Kate- gorie entspricht verbesserbaren Bereichen, in denen die Papillarlinien nur teilweise durch Falten, Schmutz, Narben usw. gestört sind. In den verbesserbaren Bereichen ist die grundlegende Struktur der Papillarlinien noch sichtbar und benachbarte Bereiche beinhalten Informationen über die korrekte ünienstruktur in den verbesserbaren Bereichen. Die dritte Kate- gorie entspricht den nicht verbesserbaren Bereichen, in denen die Papillarlinien derart schlecht abgebildet sind, daß nur noch Rauschen und Störungen zu sehen sind, wobei auch die benachbarten Bereiche keine Anhaltspunkte über die echte Linienstruktur enthalten.
Das Ziel der Bildaufbereitung ist es, eine saubere Struktur der Papillarlinien in den verbesserbaren Bereichen zu erlangen und die nicht verbesserbaren Bereiche zu identifizie- ren und zu ignorieren. Die Bildaufbereitung darf auf keinen Fall zu einer Verfälschung der Papillarlinienstruktur führen, da dies die Individualität eines Fingerabdrucks verändern würde.
Bekannte Bildaufbereitungsverfahren führen eine Bildverbesserung im Binärbild oder im Grauwertbild durch. In der Regel ist eine Bildverbesserung im Grauwertbild zu bevorzu- gen, da im Rahmen der Binärisierung oftmals wichtige Details verloren gehen, welche dann nicht mehr zur Bildaufbereitung zur Verfügung stehen. Im Grauwertbild eines Fingerabdrucks besitzen die Papillarlinien lokal einen sinusförmigen Grauwertverlauf, welcher eine wohldefinierte Frequenz und Richtung besitzt. Viele Bildaufbereitungsverfahren benutzen diese Eigenschaft der Papillarlinien im Grauwertbild, um nach Durchführen einer Fourier- Transformation eine Bildverbesserung durch Filtern im Spektralbereich zu erzielen. Die Anwendung einer Fourier-Transformaton ist jedoch äußerst zeitintensiv. Der Bildaufbereitung im Ortsbereich ist daher der Vorzug zu geben, wenn eine schnelle Identifikation bzw. Verifikation angestrebt ist.
Nachfolgend wird ein im Ortsbereich durchgeführtes Bildaufbereitungsverfahren des Stands der Technik näher erläutert.
Aus Methre, Fingerprint Image Analysis for Automatic Identification Machine Vision and Applications, No. 2-3,pp. 124-139, 1993 ist ein Verfahren zur Aufbereitung des Grauwertbilds eines Fingerabdrucks bekannt. In einem ersten Schritt wird unter Verwendung des Grauwertbilds mittels eines statistischen Verfahrens ein Richtungsbild generiert, welches In- formationen bezüglich der Pixelrichtungen enthält. Die Richtung eines Pixels ist definiert als die Richtung, entlang der die Grauwerte die geringste Änderung haben.
Das derart generierte Richtungsbild ist jedoch äußerst empfindlich gegen Rauschen und Störungen. Außerdem basiert die Richtungsgewinnung nur auf lokalen Informationen. Aus diesem Grund wird vorgeschlagen, Richtungsbilder für größere Parkettzellen von 16 x 16 Pixeln zu bilden und anschließend mit einer Maske von 3 x 3 Pixeln benachbarte Parkettzellen zu glätten. Dieses Verfahren scheitert allerdings, wenn relativ homogene Bereiche im Bild vorkommen, da es dann keine dominante Richtung gibt. Ein weiterer Nachteil dieses Verfah¬ rens ist der äußerst hohe Rechenaufwand, welcher den Autor dazu veranlaßt hat, eine spe¬ zielle Hardware (MicroVAX 3400) zu benutzen. Entlang der mit Hilfe des Richtungsbildes ermittelten Verlaufsrichtungen der Papiller- linien wird das Grauwertbild anschließend geglättet. Das geglättete Grauwertbild wird einer dynamischen Binärisierung unter Zuhilfenahme eines lokalen Schwellenwerts unterzogen. Dabei wird um jedes Pixel der Mittelwert in einem Fenster der Größe 15 x 15 Pixel berechnet und als Schwellenwert benutzt.
Als letzter Schritt der Bildaufbereitung erfolgt eine Skelettierung des Binärbildes. Im Rahmen der Skelletierung werden die einzelnen Papillarlinien derart bearbeitet, daß zum Schluß lediglich noch eine Linie von der Breite eines Pixels verbleibt, welche in der Mitte der ursprünglichen Papillarlinie verläuft. Zur Skelettierung werden mehrfache morphologische Erosionen (20 - 30 Iterationen) durchgeführt. Dies ist extrem zeitaufwendig.
Parallel zur Erzeugung eines skelettierten Bildes wird auf der Grundlage des Richtungsbildes ein Gütebild erstellt, welches die Bereiche der dritten Kategorie (nicht verbesser- bare Bereiche) markiert. Zur Erzeugung des Gütebildes werden die Unterschiede der Grauwertveränderungen innerhalb einer Parkettzelle statistisch bewertet. Sobald die Unterschiede unterhalb eines Schwellenwertes liegen, wird die entsprechende Parkettzelle als nicht verbesserbarer Bereich gekennzeichnet.
Als Ergebnis der Bildaufbereitung werden sowohl das skelettierte Bild als auch das Gütebild der anschließenden Merkmalsextraktion zur Verfügung gestellt. Nachteilig bei dem beschriebenen Verfahren zur Bildaufbereitung ist die Empfindlichkeit gegen Rauschen und Störungen sowie insbesondere der außerordentlich hohe Rechenaufwand.
Wie Fig. 1 entnommen werden kann, wird im Anschluß an die Bildaufbereitung die Merkmalsextraktion durchgeführt. Linienhafte Texturen wie Fingerabdrücke sind durch ihre lokalen Merkmale und die topologischen Beziehungen zwischen solchen lokalen Merkmalen bestimmt. In der Daktyloskopie werden lokale Merkmale auch als Minuzien bezeichnet. Die wichtigsten Minuzien, nämlich Linienende und Linienverzweigung, sind in Fig. 2a und 2b dargestellt. Ein Linienende ist definiert als ein Punkt, an dem ein Linienverlauf endet. Eine Linienverzweigung ist definiert als ein Punkt, an dem sich eine Linie gabelt. Linienende und Linienverzweigung werden auch primitive Minuzien genannt. Aus den beiden primitiven Minuzien lassen sich die in Fig. 3 dargestellten, sogenannten "Kontextmerkmale" ableiten. In Fig. 3 sind von links nach rechts dargestellt Linienende (1), ausweichende Linienenden (2), Linienverästelung (3), Haken (4), Gabelung (5), Punkte (6), Auge (7), Insel (8), eingelagerte Linien (9) eingelagerte Schleife (10) und Sonderheit (11). Die Merkmalsextraktion hat die Aufgabe, die Minuzien in einem Fingerabdruckbild zu identifizieren. Ein gut aufgenommener, abgerollter Fingerabdruck hat üblicherweise etwa 40 bis 130 Minuzien und ein latenter Fingerabdruck ungefähr 20 bis 70 Minuzien. Die im Rahmen der Merkmalsextraktion ermittelten Minuzien beschreiben einen Fingerabdruck vollständig. Üblicherweise werden von den ermittelten Minuzien die Ortskoordinaten x, y und der Winkel w gespeichert (Fig. 4). Mit dem Abspeichern der Minuzien geht eine starke Datenreduktion einher. Während ein Grauwert-Rasterbild typischerweise ungefähr 260 Kilobyte Speicherplatz benötigt, belegen die abgespeicherten Minuzien in der Regel weniger als ein Kilobyte. Die minuzienbasierte Identifikation von Fingerabdrücken gilt als eine der zuverlässigsten Identifikationsmethoden. So wird beispielsweise die Übereinstimmung einer bestimmten Anzahl von Minuzien gerichtlich als Indiz für die Urheberschaft eines Fingerabdrucks anerkannt.
Bei dem vorstehend beschriebenen Verfahren von Methre et al. werden die Minuzien eines Fingerabdrucks im skelettierten Binärbild ermittelt. Dabei wird eine Maske von 3 x 3 Pixel innerhalb des skelettierten Binärbilds verschoben. Ein Linienende ist dadurch charakterisiert, daß nur ein benachbartes Pixel innerhalb der Maske existiert. Eine Verzweigung hingegen weist mindestens drei benachbarte Pixel innerhalb der Maske auf.
Das Extrahieren der Minuzien im skelettierten Binärbild ist jedoch nicht unproblema- tisch. So werden im Rahmen der Skelettierung oftmals unechte Linienstrukturen hinzugefügt, welche fälschlicherweise als Minuzien identifiziert werden. Weiterhin macht das Vorhandensein von Rauschen, zerbrochenen oder zusammengeklebten Papillarlinien, Löchern oder anderen Störungen die Unterscheidung zwischen echten und unechten Minuzien äußerst schwierig. Da eine Papillarlinie im skelettierten Binärbild lediglich einen Pixel breit ist, existie- ren kaum noch effiziente Kriterien, um zwischen echten und unechten Minuzien zu unterscheiden. Nachteilig ist außerdem die bereits erwähnte Tatsache, daß die Skelettierung sehr rechenzeitintensiv ist.
In Mario et aL, Direct Gray-Scale Minutae Detection in Fingerprints, Pattern Analysis and Machine Intelligence, No.l,pp.27-40, January 1997 wird vorgeschlagen, die Minuzien unmittelbar und ohne Bildaufbereitung aus dem Grauwertbild zu extrahieren. Dieses Verfahren verwendet jedoch komplizierte und schwierig zu implementierende Regeln und stellt damit kein übersichtliches Werkzeug zur Merkmalsextraktion zur Verfügung.
Im Rahmen der Merkmalsextraktion ist es außerdem erforderlich, alle Minuzien, welche irrtümlicherweise als solche identifiziert wurden, zu eliminieren. Dies geschieht in der Regel durch Überprüfen der topologischen Beziehungen zwischen den ermittelten Minuzien. Gemäß dem Verfahren von Methre et al. werden drei Fälle unechter Minuzien unterschieden. So können unechte Minuzien aus zusammengeklebten Papillarlinien bzw. aus zerbrochenen Papillarlinien und unechte Minuzien am Rand extrahiert werden.
Oftmals ist es jedoch schwierig, allein aus den Abständen und Winkeln zwischen den einzelnen Minuzien auf unechte Minuzien zu schließen. Es ist daher notwendig, die Erzeugung unechter Minuzien im Rahmen der Merkmalsextraktion soweit wie möglich zu vermeiden.
Wie Fig. 1 entnommen werden kann, schließt sich an die Merk- malsextraktion der Merkmalsvergleich an. Im Rahmen des Merkmalsvergleichs wird bestimmt, ob zwei vorlie- gende Fingerabdrücke von dem gleichen Finger stammen oder nicht. Es ist allgemeine anerkannt, daß wenn zwei Fingerabdrücke von dem gleichen Finger stammen, die jeweiligen Minuzien und die topologischen Zusammenhänge zwischen den Minuzien übereinstimmen. Da Minuzien Punktmerkmale sind (Fig. 4), kann der Vergleich von linienhaften Texturen, beispielsweise von Fingerabdrücken, auf einen Punktvergleich reduziert werden. Aus verschiedenen Gründen gestaltet sich der Verleich zweier Minuziensätze jedoch schwierig. Aufgrund unterschiedlicher Aufnahmebedingungen tritt beispielsweise häufig der Fall auf, daß die Minuzien des ersten Minuziensatzes bezüglich der Minuzien des zweiten Mi- nuziensatzes verschoben, rotiert oder unterschiedlich skelettiert sind. Unterschiedliche Aufnahmebedingungen können auch dazu führen, daß die zu ermittelnden Merkmale nicht in beiden Bildern gleichermaßen vorhanden sind. Ein Vergleich mit einer eins-zu-eins Relation zwischen den einzelnen Minuzien der beiden Minuziensätze ist folglich nicht möglich. Ein weiteres Problem des Minuzienvergleichs ist darauf zurückzuführen, daß aufgrund Rauschens und aufgrund der Merkmalsextraktion die ermittlten Positionen der Minuzien lokal verzerrt sein können. Eine exakte Übereinstimmung zwischen jeweils zwei Minuzien existiert in diesem Fall nicht mehr.
Aus dem Stand der Technik sind verschiedene Verfahren zur Durchführung des Merkmalsvergleichs bekannt. So wird beispielsweise in Ratha et al., A Real-Time Matching System For Large Fingerprint Databases, Pattern Analysis and Machine Intelligence, No.8 pp.799-813, August 1996 ein auf Hough-Transformationen basierendes Vergleichsverfahren beschrieben. Das Vergleichsverfahren umfaßt im wesentlichen drei Schritte.
In einem ersten Schritt erfolgt ein Schätzen der unbekannten Transformationsparameter, welche zur Abbildung der Minuzien eines ersten Minuziensatzes auf die Minuzien ei- nes zweiten Minuziensatzes erforderlich sind. Dies geschieht mittels einer Hough-
Transformation. Es wird dabei nach Transformationsparametern gesucht, welche zu möglichst vielen Überlappungen zwischen den beiden Minuziensätzen führen. Dabei wird für alle theoretisch möglichen Transformationsparameter ein Gütekriterium berechnet. Diejenige Transformation, welche die beste Güte aufweist, wird als korrekte Schätzung angenommen. Nach dem Schätzen der Transformationsparameter werden in einem zweiten Schritt die Eingabeminuzien unter Verwendung der geschätzten Transformationsparameter transformiert und jede transformierte Minuzie der Reihe nach mit jeder Referenzminuzie des zweiten Minuziensatzes verglichen. Wenn der Abstand zwischen zwei miteinander verglichenen Minuzien innerhalb eines Toleranzbereichs liegt, werden diese beiden Minuzien als ein Minu- zienpaar gekennzeichnet.
Als dritter und letzer Schritt wird ein Ähnlichkeitsmaß zwischen den beiden Minuziensätzen festgelegt. Das Ähnlichkeitsmaß entspricht der Anzahl der im zweiten Schritt aufgefundenen Minuzienpaare.
Nachteilig bei dem Vergleichsverfahren von Ratha et al. ist der hohe Rechenaufwand und die hohe falsche Zurückweisungsrate von über 10 % bei einer vergleichsweise niedrigen Akzeptanzschwelle von 10 korrespondierenden Minuzienpaaren. Eine falsche Rückweisung liegt dann vor, wenn zwei Fingerabdrücke des gleichen Fingers als unterschiedlich deklariert werden.
Wie im Zusammenhang mit Fig. 1 bereits erwähnt, läßt sich im Falle eines Fingerab- druck-Identifikationssystems der Merkmalsvergleich dadurch beschleunigen, daß alle in einer Datenbank abgelegten Fingerabdrücke nach bestimmten Kriterien klassifiziert werden. So lassen sich beispielsweise gemäß dem Henry-Klassifikationssystem Fingerabdrücke in verschiedene Musterklassen einordnen. Die Musterklassen sind durch das Vorhandensein bestimmter globaler Merkmale und die relative Lage der globalen Merkmale zueinander charak- terisiert. Globale Merkmale werden als Kerne bezeichnet, wenn sie die Stelle eines Krümmungsmaximums der Papillarlinien bezeichnen. Globale Merkmale, welche einer dreieckigen Struktur im Verlauf der Papillarlinien entsprechen, werden Delten (griechisch "Delta") genannt. In Fig. 5 sind beispielhafte Verläufe von Papillarlinien mit den entsprechenden globa¬ len Merkmalen dargestellt. Das Henry-Klassifikationssystem umfaßt verschiedene Musterklassen. Die Musterklasse der Bögen besitzt keine Kerne oder Delten. Der Linienverlauf eines Bogens sieht derart aus, daß die Linien zu einer Seite einlaufen, in der Mitte anwachsen und zur anderen Seite auslaufen. Mittels der Steigung einer typischen Linienstruktur können Bögen noch feiner klassifiziert werden. So wird beispielsweise von einer Tanne gesprochen, wenn die Steigung groß genug ist. Gemäß dem Henry-Klassifizierungssystem wird von Schlingen gesprochen, wenn innerhalb einer Musterfläche ein Kern und ein Delta vorhanden sind. Als Wirbel werden gemäß dem Henry-Klassifikationssystem Strukturen bezeichnet, welche mindestens zwei Delten besitzen.
Die verschiedenen, im Stand der Technik bekannten automatischen Klassifikationsverfahren besitzen alle den Nachteil, daß trotz hoher Rechenzeit die falsche Klassifikationsrate äußerst hoch ist. So beträgt gemäß dem in Caro et al, Fingerprint Classification, Pattem Re- cognition, beschriebene Klassifikationsverfahren die Falschklassifikationsrate 13 %.
Der Erfindung zugrundeliegendes Problem
Der Erfindung liegt die Aufgabe zugrunde, die Nachteile der Verfahren und Vorrichtungen zum automatischen Auswerten und Bearbeiten von Rasterbildern linienhafter Texturen zu vermeiden und insbesondere Verfahren und Vorrichtungen anzugeben, welche schnel- ler und zuverlässiger sind.
Erfindungsgemäße Lösung
Erfindungsgemäß wird ein Verfahren für die computergestützte Auswertung und/oder Bearbeitung eines Grauwert-Rasterbildes einer linienhafter Textur, beispielsweise eines Fin- gerabdrucks, vorgeschlagen, umfassend das Generieren eines Konturbildes aus dem Grauwert-Rasterbild, das Analysieren des Konturenverlaufs des Konturbildes zur Erstellung eines Richtungsbildes sowie das Auswerten und/oder Bearbeiten des Grauwert-Rasterbildes auf der Grundlage von in dem Richtungsbild enthaltenen Richtungsinformationen. Das Auswerten kann beispielsweise eine Klassifikation des Grauwert-Rasterbildes oder die Erstellung ei- nes Gütebildes für das Grauwert-Rasterbild beinhalten. Ein Bearbeiten des Grauwertrasterbildes kann ein anisotropes Glätten des Grauwert-Rasterbildes umfassen.
Weiterbildungen und Abwandlungen der Erfindung
Vorzugsweise wird das Konturbild aus dem binärisierten Grauwert-Rasterbild gene- riert. Das Binärisieren des Grauwert-Rasterbildes ist auf unterschiedliche Weise möglich. So kann beispielsweise eine statische Binärisierung mit einem global einheitlich fixierten Schwellenwert, z.B. dem Mittelwert, erfolgen. Es kann auch eine dynamische Binärisierung unter Zuhilfenahme eines jeweils lokal zu bestimmenden Schwellenwertes durchgeführt werden. Der lokale Schwellenwert kann z.B. jeweils in einem Tal eines bimodalen Histogramms fixiert werden. Besonders bevorzugt ist ein drittes Binarisierungsverfahren, welches ein Glätten des Grauwert-Rasterbildes und eine anschließende Kantenextraktion umfaßt. Das Glätten kann mittels eines Gauß- oder eines Mittelwertfilters und die Kantenextraktion mittels eines Lapla- ce-Operators erfolgen. Ein derartiges Binarisierungsverfahren ist beispielhaft in Marr und Hildreth Theory of edge detection, Proc. R. Soc. London B 207, pp 187-217, 1980 beschrie- ben (Marr-Hildreth-Binärisierungsverfahren).
Aus dem binärisierten Grauwert-Rasterbild kann anschließend ein Konturbild generiert werden oder der Linienabstand der linienhafen Textur bestimmt werden. Der Linienabstand ist ein wichtiger Parameter für nachfolgende Verfahrensschritte wie die Filterung, die Merkmalsextraktion und den Merkmalsvergleich.
Aus den im Konturbild enthaltenen Informationen wird das Richtungsbild des Grauwert-Rasterbildes ermittelt. Das Generieren des Richtungsbildes umfaßt vorzugsweise die Ermittlung der Tagentenrichtungen der Konturen des Konturenbildes. Zum Zweck der Ermittlung der Tangentenrichtung kann ein Zweibein entlang der Konturen geführt werden. Vorzugsweise liegen die Richtungsinformationen des Richtungsbildes in Form von Pixelrichtungen vor. Die Pixelrichtungen können z.B. aus den Tangentenrichtungen der Konturen des Konturenbildes abgeleitet werden. Nach der Erstellung des Richtungsbildes können die in dem Richtungsbild enthaltenen
Richtungsinformationen zur Auswertung bzw. Bearbeitung des dem Richtungsbild zugrunde liegenden Grauwert-Rasterbildes herangezogen werden. So ist es gemäß einem ersten Aspekt der Erfindung möglich, das Grauwert-Rasterbild unter Zuhilfenahme der Richtungsinformationen anisotrop zu glätten. Da die anisotrope Glättung vorzugsweise das gesamte Grauwert-Rasterbild, nicht nur die darin enthaltenen Konturen, umfaßt, ist es zweckmäßig, das anisotrope Glätten unter Zuhilfenahme von Pixelrichtungsinformationen durchzuführen. Die anisotrope Glättung läuft bevorzugt derart ab, daß parallel zur Richtung von Kantenverläufen eine Filterung durchgeführt wird. Dabei kann beispielsweise ein Gauß-Filter zum Einsatz gelangen. Im Anschluß an die anisotrope Glättung des Grauwert-Rasterbildes kann das anisotrop geglättete Grauwert-Rasterbild binärisiert werden. Die Binärisierung des anisotrop geglätteten Grauwert-Rasterbildes kann beispielsweise mittels der vorstehend erläuterten Verfahren zur Binärisierung des unbearbeiteten Grauwert-Rasterbildes erfolgen.
Unmittelbar aus dem anisotrop geglätteten Grauwert-Rasterbild oder aus dem binäri- sierten, anisotrop geglätteten Grauwert-Rasterbild kann anschließend ein weiteres Konturbild generiert werden. Vorzugsweise wird dieses weitere Konturbild zur Auswertung der in dem ursprünglichen Grauwert-Rasterbild enthaltenen Informationen herangezogen. So kann das weitere Konturbild beispielsweise als Grundlage für die Ermittlung der lokalen und/oder globalen Merkmale der in dem ursprünglich Grauwert-Rasterbild enthaltenen linienhaften Textur verwendet werden.
Das anisotrope Glätten des Grauwert-Rasterbildes kann die Anwendung eines ein- oder mehrdimensionalen Filters in einer aus den Richtungsinformationen abgeleiteten Verlaufsrichtung einer Linie umfassen.
Anstelle oder zusätzlich zu dem vorstehend beschriebenen Bearbeiten des Grauwert- Rasterbildes kann auf der Grundlage der in dem Richtungsbild enthaltenen Richtungsinformationen ein Gütebild generiert werden. Das Gütebild kann beispielsweise diejenigen Bereiche des Grauwert-Rasterbildes kennzeichnen, welche selbst mittels einer Bildaufbereitung nicht verbesserbar sind, d.h. welche nicht zur Extraktion lokale oder globaler Merkmale der linienhaften Texturen herangezogen werden sollten. Die zur Merkmalsextraktion geeigneten Bereiche des ursprünglichen Grauwert-Rasterbildes können daher als die Schnittmenge zwischen dem ursprünglichen Grauwert-Rasterbild und dem Gütebild aufgefaßt werden. Vorzugsweise wird das Gütebild aus der lokalen Verteilung der Pixelrichtungen innerhalb des Richtungsbildes abgeleitet. Eine weitere Verwendungsmöglichkeit der in dem Richtungsbild enthaltenen Richtungsinformationen ist die Klassifikation des ursprünglichen Grauwert-Rasterbildes. Mit anderen Worten: das Richtungsbild kann zur Klassifikation der in dem ursprünglichen Grauwert- Rasterbild enthaltenen linienhaften Textur herangezogen werden. Vorzugsweise basiert die Klassifikation auf globalen Merkmalen der linienhaften Textur. Zu den globalen Merkmalen zählen beispielsweise Kern und Delta. Zweckmäßigerweise werden diejenigen Bereiche des ursprünglichen Grauwert-Rasterbildes im Hinblick auf die globalen Merkmale untersucht, welche keine genügende oder sich stark ändernde Richtungsinformationen umfassen. Ausgehend von den im Richtungsbild enthaltenen Richtungsinfor- mationen können also Bereiche des ursprünglichen Grauwert-Rasterbildes identifiziert werden, welche potentiell globale Merkmale enthalten. Als alternatives oder zusätzliches Indiz für das Vorhandensein globaler Merkmale können die lokalen Merkmale fungieren. So kann nach den globalen Merkmalen in Bereichen in der Umgebung von lokalen Merkmalen gesucht werden. Die Identifikation der globalen Merkmale erfolgt vorzugsweise unter Zuhilfenahme des Poincare-Index. Falls mehrere globale Merkmale identifiziert werden, können benachbarte globale Merkmale als Grundlage für die Klassifikation des ursprünglichen Grauwert- Rasterbildes dienen. Die Klassifikation basiert zweckmäßigerweise auf dem Henry- Klassifikationssystem oder einer Abwandlung. Auf der Grundlage eines Konturbildes von linienhaften Texturen können computergestützt die lokalen Merkmale der linienhaften Texturen ermittelt werden. Zu diesem Zweck werden zunächst Merkmalskriterien definiert und anschließend ein Konturenverlauf des gerasterten Konturbildes im Hinblick auf die Merkmalskriterien analysiert. Vorzugsweise wird das zur Ermittlung der lokalen Merkmale herangezogene Konturbild wie vorstehend be- schrieben aus einem binärisierten, anisotrop geglätteten Grauwert-Rasterbidl erzeugt. Die Verwendung anderweitig erzeugter Konturbilder ist jedoch ebenfalls denkbar.
Gemäß einer bevorzugten Ausführungsform wird zur Ermittlung der lokalen Merkmale die lokale Krümmung der in dem Konturbild enthaltenen Konturen analysiert. Die Analyse des Konturenverlaufs kann mittels des bereits erwähnten, entlang der Kontur geführten Zweibeins oder mittels anderer Verfahren erfolgen. Zweckmäßigerweise werden zumindest diejenigen Bereiche einer Kontur analysiert, deren Krümmung über einem bestimmten Schwellenwert liegt, da diese Bereiche potentiell Kandidaten für lokale Merkmale sind.
Vorzugsweise werden zumindest Linienenden und Verzweigungen als lokale Merkmale identifiziert. Im Bereich von Linienenden und Verzweigungen weisen die Konturen regelmä- ßig eine lokal besonders hohe Krümmung auf.
Zur Identifikation der lokalen Merkmale können verschiedene Merkmalskriterien herangezogen werden. Wird ein Zweibein zur Analyse des Konturenverlaufs herangezogen, kommen beispielsweise die folgenden Merkmalskriterien in Frage. So kann gemäß einem ers¬ ten Merkmalskriterium gefordert sein, daß der Winkel des Zweibeins, d.h. der Winkel zwi- sehen den beiden Beinen des Zweibeins, unterhalb eines vorbestimmten Schwellenwertes oder innerhalb eines vorbestimmten Winkelsintervalls liegt. Ein zusätzliches oder alternati¬ ves, zweites Merkmalskriterium kann besagen, daß der Längenunterschied zwischen den beiden Beinen des Zweibeins kleiner als ein vorbestimmter, weiterer Schwellenwert ist. Ge- maß einem zusätzlichen oder alternativen dritten Merkmalskriterium kann gefordert sein, daß der Längenunterschied zwischen einem der Beine des Zweibeins und der Länge der Kontur zwischen dem Anfangspunkt und dem Endpunkt dieses Beins auf der Kontur kleiner als ein vorbestimmter dritter Schwellenwert ist. Um eine eindeutige Identifikation der ermittelten lokalen Merkmale zur ermöglichen, können von jedem ermittelten Merkmal die Ortskoordinaten und ein relativer Winkel bestimmt und abgespeichert werden. Zur Winkelbestimmung stehen verschiedene Verfahren zur Verfügung. So kann der Winkel beispielsweise mittels der Senkrechten zur Tangentenrichtung der Kontur an der Stelle des lokalen Merkmals bestimmt werden. Alternativ hierzu kann die Winkelermittlung auch durch Mittlung von Tangentenrichtungen in der Umgebung des lokalen Merkmals erfolgen.
Aus verschiedenen Gründen kann fälschlicherweise an einer Stelle ein lokales Merkmal ermittelt werden, an welcher die zugrunde liegende linienhafte Textur kein lokales Merkmal aufweist. Es ist daher erforderlich, die ermittelten lokalen Merkmale einer weiteren Analyse zu unterziehen, um unechte Merkmale erkennen und eliminieren zu können. Diese Analyse kann eine Beurteilung der Lage der ermittelten lokalen Merkmale und des Abstands zwischen den ermittelten lokalen Merkmalen umfassen.
Beispielsweise können alle lokalen Merkmale, deren gegenseitiger Abstand geringer als ein vorbestimmte vierter Schwellenwert ist, als unechte lokale Merkmale identifiziert wer- den. Auch können alle lokalen Merkmale, deren gegenseitiger Abstand größer als der vierte Schwellenwert, aber geringer als vorbestimmter fünfter Schwellenwert ist, zu einem einzigen lokalen Merkmal zusammengefaßt werden. Sollte um ein lokales Merkmal die Anzahl der benachbarten lokalen Merkmale geringer als ein vorbestimmter sechster Schwellenwert sein, so können das betreffende Merkmal und die benachbarten Merkmale als unechte lokale Merk- male identifiziert werden. Eine weitere Möglichkeit zur Beseitigung unechter lokaler Merkmale besteht in der Analyse des Gütebilds. So können alle lokalen Merkmale, die nicht innerhalb der Schnittmenge des Gütebilds und des Konturbilds liegen, als unechte lokale Merkmale i- dentifiziert werden. Das Gütebild wird vorzugsweise, wie vorstehend beschrieben, auf der Grundlage des Richtungsbildes erstellt. Nach der Analyse der Merkmale steht ein Satz lokaler Merkmale zur Verfügung, welcher mit großer Wahrscheinlichkeit nur noch echte lokale Merkmale umfaßt. Basierend auf diesem ersten Satz lokaler Merkmale kann ein rechnergestütztes Vergleichen mit mindestens einem zweiten Satz lokaler Merkmale erfolgen, um herauszufinden, ob die den Merkmalssätzen zugrunde liegenden linienhaften Texturen identisch sind oder nicht. Das computergestützte Vergleichen der Sätze lokaler Merkmale umfaßt z.B. das automatische Bestimmen mindestens eines geschätzten Satzes Transformationsparameter für eine Transformation zwischen dem einen Satz lokaler Merkmale und dem anderen Satz loka¬ ler Merkmale, das Durchführen der Transformation mittels des geschätzten Satzes Transfor¬ mationsparameter zur Ermittlung der jeweils korrespondierenden lokalen Merkmale sowie das automatische Überprüfen des Satzes Transformationsparameter, wobei in Abhängigkeit von der Überprüfung eine iterative Korrektur des geschätzten Satzes Transformationspara¬ meter erfolgt, indem die Transformation nochmals mittels des korrigierten Satzes Transfor- mationsparameter zur erneuten Ermittlung der jeweils korrespondierenden lokalen Merkmale durchgeführt wird.
Vorzugsweise wird, wenn der geschätzte Satz Transformationsparameter bestimmte, im voraus festgelegte Anforderungen nicht erfüllt, der geschätzte Satz Transformationspa- rameter mindestens einmal korrigiert. Sobald ein korrigierter Satz Transformationsparameter die vorgegebenen Anforderungen erfüllt, kann von einer weiteren Korrektur abgesehen werden. Die iterative Korrektur kann auch dann abgebrochen werden, wenn nach einer vorgegebenen Anzahl von Iterationen der mehrmals korrigierte Satz Transformationsparameter den vorgegebenen Anforderungen noch immer nicht gerecht wird. Bei der iterativen Korrektur des geschätzten Satzes Transformationsparameter können die jeweils aufgefundenen, korrespondierenden lokalen Merkmale als Ausgangspunkt für die Korrektur dienen. So kann die Korrektur beispielsweise derart vorgenommen werden, daß bei einer Transformation mittels des korrigierten Satzes Transformationsparameter die Korrespondenz der bereits ermittelten, korrespondierenden lokalen Merkmale aufrechterhal- ten wird.
Der Satz Transformationsparameter kann zumindest einen der Transformationsparameter, Skalierungsfaktor, Rotationswinkel und Translationsvektor umfassen. Zweckmäßigerweise wird zumindest einer dieser Transformationsparameter im Rahmen der iterativen Korrektur abgeändert. Die Korrektur des Translationsvektors kann mittels einer Varianzanalyse erfolgen. Eine mögliche Realisierung der iterativen Korrektur beinhaltet die Optimierung einer Kostenfunktion betreffend die jeweils vorgenommenen Korrekturen.
Es kann vorgesehen werden, daß die iterative Korrektur dann nicht durchgeführt wird, wenn- die beiden zu überprüfenden Sätze lokaler Merkmale als übereinstimmend bewertet werden. Eine Be-wertung als übereinstimmend kann dann erfolgen, wenn ein erstes Gütekriterium erfüllt ist. Das erste Gütekriterium kann zumindest dann oder nur dann erfüllt sein, wenn die Anzahl der ermittelten, korrespondierenden lokalen Merkmale über einem vorbestimmten ersten Schwellenwert liegt.
Die iterative Korrektur kann zumindest dann oder nur dann durchgeführt werden, wenn die als korrespondierend ermittelten, lokalen Merkmale das erste Gütekriterium zwar nicht erfüllen, aber ein zweites Gütekriterium erfüllen, das geringer als das erste Gütekriterium ist. Eine mögliche Realisierung des zweiten Gütekriteriums ist die Forderung, daß die Anzahl der als korrespondierend ermittelten lokalen Merkmale unter dem ersten Schwellenwert, aber über einem vorbestimmten, zweiten Schwellenwert liegt.
Sollte weder das erste, noch das zweite Gütekriterium erfüllt sein, so werden die bei- den Sätze lokaler Merkmale zweckmäßigerweise automatisch als nicht übereinstimmend be¬ wertet. Von einer iterativen Korrektur des geschätzten Satzes Transformationsparameter kann dann abgesehen werden.
Gemäß einer bevorzugten Ausführungsform des computergestützten Vergleichens der Sätze lokaler Merkmale erfolgt im Rahmen des Bestimmens des mindestens eines geschätz- ten Satzes Transformationsparameter eine Vorauswahl im Hinblick auf die potentiell in Frage kommenden Sätze Transformationsparameter. Diese bevorzugte Ausführungsform ist grundsätzlich unabhängig von dem vorstehend beschriebenen automatischen Überprüfen des geschätzten Satzes Transformationsparameter und der nachfolgenden iterativen Korrektur. Die im Rahmen der Bestimmung des geschätzten Satzes Transformationsparameter durchgeführte Vorauswahl kann dahingehend getroffen werden, daß nur diejenigen Sätze Transformationsparameter berücksichtigt werden, welche in der Lage sind, ein beliebiges lokales Merkmal des ersten Satzes lokaler Merkmale auf ein beliebiges lokales Merkmal des zweiten Satzes lokaler Parameter, oder umgekehrt, abzubilden.
Gemäß einer weiteren, bevorzugten Ausführungsform des computergestützten Ver- gleichens zweier Sätze lokaler Merkmale werden die im Rahmen des Bestimmens des geschätzten Satzes Transformationsparameter berechneten Transformationsparameter quanti- siert und die quantisierten Transformationsparameter in einem Transformationsparameter- räum (z.B. dem Hough-Raum) angeordnet. Der Transformationsparameterraum kann einen Zähler für jeden quantisierten Transformationsparameterwert umfassen, wobei im Anschluß an das Berechnen und Quantisieren eines Transformationsparameterwertes der entsprechende Zähler automatisch erhöht wird. Der zum Zweck der Ermittlung der korrespondierenden lokalen Merkmale erforderliche geschätzte Satz Transformationsparameter kann derart bestimmt werden, daß er diejenigen Transformationsparameterwerte mit den höchsten Zählerständen umfaßt. Andere Auswahlkriterien sind gleichfalls denkbar. Das vorstehend erläuterte Quantisieren der Transformationsparameter und das Anordnen der quantisierten Transformationsparameter in einem Transformationsparameterraum kann grundsätzlich unabhängig von dem vorstehend erläuterten automatischen Überprüfen des geschätzten Satzes Transformationsparameter und dessen iterativer Korrektur durchgeführt werden.
Zur Ermittlung der korrespondierenden lokalen Merkmale zweier oder mehrerer Sätze lokaler Merkmale kann entweder nur ein einziger geschätzter Satz Transformationsparameter oder eine Mehrzahl geschätzter Sätze Transformationsparameter herangezogen werden. So kann beispielsweise nur derjenige geschätzte Satz Transformationsparameter herangezogen werden, welcher ein viertes Gütekriterium am besten erfüllt. Dieses vierte Gütekriterium kann beispielsweise der Stand eines geeigneten Zählers in dem vorstehend beschriebenen Transformationsparameter sein.
Andererseits kann für einen einzigen ersten Satz lokaler Merkmale und einen einzigen zweiten Satz lokaler Merkmale auch eine Mehrzahl geschätzter Sätze Transformationspara- meter bestimmt und jeweils zur Ermittlung der korrespondierenden lokalen Merkmale herangezogen werden. So ist es möglich, alle diejenigen berechneten Sätze Transformationsparameter als geschätzte Sätze zu identifizieren, welche ein fünfte Gütekriterium erfüllen. Das fünfte Gütekriterium kann beispielsweise besagen, daß der entsprechende Zähler eines quantisierten Transformatonsparameterwerts innerhalb des vorstehend beschriebenen Transformationsparameterraums einen vorbestimmten Schwellenwert übersteigt.
Sollte sich während des Bestimmens eines geschätzten Satzes Transformationsparameter kein Satz Transformationsparameter finden lassen, welcher das vierte und/oder das fünfte Gütekriterium erfüllt, kann der Vergleichsvorgang bereits in diesem frühen Stadium abgebrochen werden. Die beiden Sätze lokaler Merkmale werden dann automatisch als nicht übereinstimmend bewertet, ohne daß eine Ermittlung der korrespondierenden lokalen Merkmale erforderlich wäre.
Es sind verschiedene Kriterien denkbar, um ein lokales Merkmal des ersten Satzes lokaler Merkmale und ein lokales Merkmal des zweiten Satzes lokaler Merkmale als korrespon- dierend zu identifizieren. Zweckmäßigerweise geschieht dies unter Berücksichtigung des Ab- standes zwischen einem transformierten lokalen Merkmal des einen Merkmalssatzes und einem nichttransformierten lokalen Merkmal des anderen Merkmalssatzes. Zu diesem Zweck kann ein sechstes Gütekriterium beispielsweise in Form eines Maximalabstands definiert werden.
Die soeben erläuterten Verfahren zur Auswertung und/oder Bearbeitung von Grauwert-Rasterbildern linienhafter Texturen, zur Ermittlung der lokalen Merkmale linienhafter Texturen sowie zum Vergleichen der lokalen Merkmale linienhafter Texturen finden vorzugsweise im Rahmen eines Fingerabdruck-Identifikationsverfahrens Verwendung. Ein Verfahren zur biometrischen Identifikation und/oder Verifikation von Personen kann den Schritt des Bereitsteilens eines Rasterbildes des Fingerabdrucks einer Person sowie einen oder mehrere der vorstehend erläuterten Verfahrensschritte umfassen. Die einzelnen Verfahrensschritte lassen sich vorteilhafterweise auf einem Computersystem durchführen, welches als biometrisches Identifikations- und/oder Verifikationseinrichtung ausgestaltet sein kann. Das Compu- tersystem kann ein digitales Speichermedium mit elektronisch auslesbaren Steuersignalen umfassen, die so mit dem Computersystem zusammenwirken, das die entsprechenden Verfahren ausgeführt werden. Zumindest einige Aspekte dieser Verfahren können als Programmcode auf einem maschinenlesbaren Träger abgelegt werden.
Kurzbeschreibung der Zeichnung
Weitere Einzelheiten und vorteilhafte Ausgestaltungen der Erfindung werden nachfolgend unter Bezugnahme auf bevorzugte Ausführungsbeispiele und die Figuren näher erläutert. Es zeigt: Fig. 1 die Arbeitsweise einer Identifikations-/Verifikationsvorrichtung; Fig. 2a, 2b zwei primitive Minuzien;
Fig. 3 aus den primitiven Minuzien gemäß Figuren 2a und 2b zusammengesetzte
Merkmalsformen;
Fig. 4 Ortskoordinaten und Winkel einer primitiven Minuzie;
Fig. 5 globale Merkmale gemäß dem Henry-Klassifikationssystem; Fig. 6 eine erfindungsgemäße Fingerabdruck-Identifikationsvorrichtung; Fig. 7 eine erfindungsgemäße Fingerabdruck-Verifikationsvorrichtung; Fig. 8 die Off-Iine Phase und die On-Iine Phase der Verifikationsvorrichtung gemäß Fig. 7; Fig. 9 den Aufbau eines Fingerabdrucksensors; Fig. 10 den schematischen Ablauf des erfindungsgemäßen Bildaufbereitungsverfahrens; Fig. 11 die im Rahmen des erfϊndungsgemäßen Bildaufbereitungsverfahrens angefertigten Darstellungen eines Fingerabdrucks; Fig. 12 die Ermittlung des Papillarlinienabstands; Fig. 13 eine beispielhafte Darstellung einer Konturenkodestruktur; Fig. 14a, 14b zwei beispielhafte Konturbilder; Fig. 15a, 15b ein Binärbild eines Fingerabdrucks und das daraus abgeleitete, gestörte Kon¬ turbild;
Fig. 16 die Erzeugung der Tangentenrichtung mittels eines Zweibeins; Fig. 17 die Ermittlung des Winkels ß eines Zweibeins; Fig. 18a, 18b ein reguläres sowie ein irreguläres Zweibein;
Fig. 19 die acht Hauptrichtungen zur Bestimmung des Richtungskodes;
Fig. 20 die Anwendung eines richtungsabhängigen, eindeminsionalen Gauß-Filters und die
Gewichtungen der Filter-Masken; Fig. 21 die Rechenzeiten für einzelne Arbeitsschritte des erfindungsgemäßen Bildaufbereitungsverfahrens;
Fig. 22a, 22b die Bestimmung des Winkels einer Minuzie;
Fig. 23 ein Ablaufdiagramm des erfindungsgemäßen Minuzienvergleichsverfahrens;
Fig. 24 die Transformation zur Abbildung eines Eingabemusters auf ein Referenzmuster; Fig. 25 die Korrektur einer Winkeldifferenz im Hough-Raum;
Fig. 26 eine mathematische Formulierung der Phase 1 des Minuzienvergleichs;
Fig. 27 den Minuzienvergleich basierend auf einem Toleranzbereich;
Fig. 28 die Überprüfung korrespondierender Minuzienpaare;
Fig. 29 Referenzminuzien und transformierte Eingabeminuzien vor der iterativen Korrektur der Transformationsparameter;
Fig. 30 eine mathematische Formulierung der Varianzanalyse zur Korrektur der Translationparameter;
Fig. 31 den schematischen Ablauf des erfindungsgemäßen Klassifikationsverfahrens;
Fig. 32 Die Ermittlung globaler Merkmale anhand des Pointcare-Index
Beschreibung derzeit bevorzugter Ausführungsformen
Obwohl sich das erfindungsgemäße Verfahren allgemein zum Analysieren, Aufbereiten und Vergleichen von Rasterbildern linienhafter Texturen verwenden läßt, betreffen die nachfolgenden Ausführungsbeispiele die bevorzugte Verwendung des Verfahrens im Zusam- menhang mit der Identifikation und/oder Verifikation von Personen auf der Grundlage von Fingerabdrücken. Aus diesem Grund werden im folgenden die lokalen Merkmaie als Minuzien bezeichnet.
In Fig. 6 ist eine erfindungsgemäße computergestützte Identifikationsvorrichtung abgebildet und Fig. 7 zeigt eine erfindungsgemäße computergestützte Verifikationsvorrichtung 20.
Eine Codiereinheit 14 der Identifikationsvorrichtung 10 empfängt ein Grauwert- Rasterbild 12 eines Fingerabdrucks und führt eine Bildaufbereitung sowie eine Minuzie- nextraktion durch. Die extrahierten Minuzien werden an eine Vergleichseinheit 16 weitergegeben. Die Vergleichseinheit 16 vergleicht den von der Codiereinheit 14 empfangenen Minu- ziensatz mit einer Vielzahl von Minuziensätzen, welche in einer Datenbank 18 abgespeichert sind. Anschließend gibt die Vergleichseinheit 16 diejenigen Minuziensätze oder personenbezogene Informationen derjenigen Minuziensätze 18 aus, welche mehr als eine bestimmte Anzahl oder am meisten korrespondierende Minuzien aufweisen.
Bei der Verifikationsvorrichtung 20 gemäß Fig. 7 dient ebenfalls ein Grauwertbild 22 als Eingangssignal für eine Codiereinheit 24. Die Codiereinheit 24 führt eine Bildaufbereitung sowie eine Minuzienextraktion durch und gibt die extrahierten Minuzien an eine Vergleichseinheit 26 weiter. Die Vergleichseinheit 26 empfängt einen weiteren, vorab abgespeicherten Minuziensatz. Dieser Minuziensatz kann beispielsweise auf einer Magnetstreifenkarte 28, ei- ner Chipkarte oder in einer Datenbank abgespeichert sein. Innerhalb der Vergleichseinheit 26 wird der von der Codiereinheit 24 zur Verfügung gestellte Minuziensatz mit dem vorab abgespeicherten Minuziensatz verglichen und die Anzahl der übereinstimmenden Minuzien ausgegeben. Je nach Anzahl der übereinstimmenden Minuzien gilt die Identität des Finger- abdrucks des Grauwert-Rasterbildes 22 als verfiziert oder nicht.
Bei der Verifikationsvorrichtung 20 gemäß Fig. 7 kann demzufolge zwischen einer Offline Phase und einer On-Iine Phase unterschieden werden. Diese Unterscheidung ist in Fig. 8 dargestellt. In der Off-Iine Phase werden mehrere Fingerabdruckaufnahmen durchgeführt, die entsprechenden Minuzien extrahiert und danach als Referenzmuster in einem Datensatz für spätere Merkmalsvergleiche gespeichert. In der On-Iine Phase wird eine Aufnahme des Fingers einer beispielsweise Zutritt verlangenden Person erstellt, die Minuzien des aufgenommenen Fingerabdrucks extrahiert und mit dem abgespeicherten Referenzmuster verglichen.
Nachfolgend werden die einzelnen Arbeitsschritte der in den Fig. 6 und 7 dargestell- ten Vorrichtungen näher erläutert. Der grobe Ablauf wurde bereits unter Bezugnahme auf Fig. 1 geschildert.
1. Bilderzeugung
Diese Stufe dient der Wandlung einer Bildvorlage in ein physikalisches Bild und der Digitalisierung und Quantisierung dieses Bildes zur Erzeugung eines Rasterbildes, z.B. in Gestalt einer Matrix von 512x512 Pixeln mit 8-Bit Lichtintensitätswerten. Es gibt zwei Arten von Aufnahmemethoden, mit Tinte oder mit einem Fingerabdrucksensor. Bei Tintenaufnahmen wird der mit Tinte angefärbte Finger auf einen Papier abgerollt. Der so entstandene Fingerabdruck kann durch ein Scanner oder eine Videokamera digitalisiert werden. Dieses Vorgehen wurde in der Kriminalitätsbekämpfung schon relativ früh eingeführt. Die Digitalisierung eines Fingerabdruckes durch einen speziellen Fingerabdrucksensor dagegen gibt es erst seit jüngerer Zeit. Im Vergleich zur Tintenaufnahme ist der Fingerabdrucksensor benutzerfreundlicher. Bei der Sensoraufnahme wird das Bild durch Fingerauflegen auf ein Prisma unter Ausnutzung des Effekts der gestörten Totalreflexion gewonnen (Fig. 9). Dabei kann mit- tels z.B. einer Führungsvorrichtung die Drehung des Fingers gegenüber der Auflage auf +40 Grad eingeschränkt werden, um damit die Merkmalsvergleichszeit zu verkürzen.
2, Bildaufbereitung
In diesem Abschnitt wird das implementierte Verfahren zur Bildaufbereitung erläutert. Be- sonders ausführlich wird die Erzeugung des Richtungsbildes dargestellt, denn durch ein zuverlässiges Richtungsbild ist es erst möglich, das Grauwert-Rasterbild gezielt zu verbessern und keine unechten Linienstrukturen hinzuzufügen. Ein Nebenprodukt der Richtungsbildberechnung ist die Ableitung eines Gütebildes. Der schematische Verfahrensablauf der Bildaufbereitung ist in den Figuren 10 und 11 schematisch dargestellt.
In einem ersten Schritt wird das Grauwertbild binärisiert. Außerdem werden die Konturen verfolgt und als Konturenkode abgespeichert. In einem zweiten Schritt werden die Tagentenrichtungen der Konturen anhand des Konturenkodes bestimmt und bewertet. Die Konturen- richtungen werden dann zusammengeschlossen und in kontinuierliche Pixelrichtungen umgewandelt. Das Gütebild wird durch Auswerten der Richtungsverteilung in Parkettzellen gewonnen. In einem dritten Schritt werden die Linien in ihrer Verlaufsrichtung mittels eines Gauß-Filters geglättet. Dadurch werden zerbrochene Linien sowie Rauschen und verschmier- te Bereiche verbessert. In einem vierten Schritt wird das anisotrop geglättete Bild nochmals binärisiert und die Konturen des binärisierten Bildes werden erneut verfolgt. Die gespeicherten Konturinformation werden für die anschließende Minuzienextraktion verwendet.
2.1. Erste Binärisierung Im Stand der Technik werden entweder globale oder lokale Schwellen verwendet, um ein Bild zu binärisieren. Für Fingerabdruckbilder ist eine Binärisierung mit globaler Schwelle oftmals nicht geeignet. Auch Verfahren, die mit einer lokalen Schwelle arbeiten, liefern häufig keine zufriedenstellende Ergebnissen. Daher wird vorzugsweise das Binarisierungsverfahren von Marr und Hidreth verwendet. Dieses Verfahren basiert auf einem mit einem Gauß- Filter geglätteten Bild. Die Maskengröße des Gauß-Filters ist 7x7.
Gemäß dem Marr-Hildreth-Binärisierungsverfahren wird in einem ersten Schritt das Grauwert-Rasterbild mittels eines Gauß-Filters geglättet. Anschließend entscheidet ein Lapla- ce-Operator (Laplacien of Gauß), ob Kanten in vier unterschiedlichen Richtungen vorhanden sind. Das implementierte Verfahren braucht ca. 90 ms für eine Bildgröße von 280x200 mit einem Pentium PC 200MHz.
Man kann anstatt des Gauß-Filters auch ein Mittelwert-Filter benutzen, das einfacher zu implementieren und schneller ist. Die beiden Verfahren liefern sehr ähnliche Ergebnisse, wobei das Gauß-Filter einen etwas besseren Glättungseffekt hat. Die Binärisierung mit dem Mittelwert-Filter dauert nur noch etwa 35 ms. Die Maskengröße des Filters beträgt 16x16. Diese Größe ist am erwarteten Linienabstand orientiert. Da der individuelle Linienabstand noch nicht gemessen ist, wird als Erfahrungswert der durchschnittliche Linienabstand genommen.
Nach der Binärisierung kann man den Linienabstand messen. Der Linienabstand beschreibt eine Periode schwarzer Linien auf weißem Untergrund (Fig. 12). Der Linienabstand ist ein wichtiges Maß bezüglich der Maskengröße verschiedener Filter für die Merkmalsextraktion und den Merkmalsvergleich. Unterschiedliche Fingerabdrücke haben unterschiedliche Linienabstände. Fingerabdrücke von jüngeren Leuten besitzen relativ feine Linien und daher einen kleinen Linienabstand, bei Kindern ist er besonders klein. Der Wert kann bei 500 dpi Bildauflösung zwischen 7 bis 18 Pixeln liegen. Auch bei ein-und demselben Fingerabdruck gibt es verschiedene lokale Linienabstände.
Zur Bestimmung des Linienabstands summiert man die Länge der Schwarz- und Weißübergänge in horizontaler und vertikaler Richtung (die untauglichen Linienabstände sollen ignoriert werden) und bildet davon den Mittelwert (n ist die Anzahl der Übergänge):
Figure imgf000016_0001
2.2 Genieren des Konturbilds
Die durch Binärisierung erzeugten Konturen können durch Konturenkodes beschrieben werden. Das Grundprinzip besteht darin, daß man entlang der Kontur, von einem Randpunkt der Kontur als Startpunkt aus, im Uhrzeigersinn wandert und dabei die Koordinaten x und y der gefundenen Punkte speichert. Das Verfahren ist für eine Kontur beendet, sobald man wieder am Startpunkt angelangt ist. Aus dem Konturenkode können viele interessante Eigenschaften einer Kontur abgeleitet werden, wie z.B. Länge, Fläche, Neigung, Schwerpunkt usw. Außerdem bietet der Konturenkode eine hilfreiche Möglichkeit, sich entlang der Kontur zu bewegen. Es gelten die folgenden Formeln:
Länge einer Kontur n : Länge des Wanderungswegs
Schwerpunkt einer Kontur : J n n ,-=o
Fläche einer Kontur :
Figure imgf000017_0001
Steigung einer Kontur :
2C. tan(2α) = w
'yy wobei
Figure imgf000017_0002
In Fig. 13 ist die Konturencodestruktur beispielhaft dargestellt. Fig. 14 und 14b zeigen zwei unterschiedliche Konturbilder.
2.3 Erzeugung von Richtungs- und Gütebild
Die Erzeugung des Richtungsbildes basiert auf dem Konturenkode. Die Rechenzeit wird dadurch erheblich verkürzt, da alle Operationen für die Richtungsbestimmung nur mit den Konturenpunkten verbunden sind. Die im Stand der Technik verwendeten Verfahren zum Richtungsextrahieren analysieren hingegen jedes Pixel im Grauwertbild oder Binärbild. Für eine Bildgröße 280x200 entspricht dies einer Operationsmenge von 560,000 Pixeln, im Konturenbild kann die Operationsmenge um einen Faktor 4 bis 9 verkleinert werden (Der Faktor entspricht in etwa dem Linienabstand).
Aus dem Konturenkode lassen sich viele nützlichen Eigenschaften der Konturen ablei- ten, wie die Länge, Fläche und Steigung. Rauschen und Verzerrungen lassen sich dann schnell erkennen. Zum Beispiel besitzen kurze zerbrochene Linien eine relativ kleine Länge und Fläche, auf Rauschen zurückzuführende Linien noch kleinere. Bei der Richtungsbestimmung kann man solche störenden Konturen ignorieren. Dadurch ist es möglich, ein zuverlässiges Richtungsbild zu generieren. Gerade in Bereichen, wo Rauschen und Verzerrungen vor- kommen, verhalten sich die Richtungen sehr lokal und zufällig. Solche Richtungen sollen gar nicht erst berechnet werden, da es sonst schwierig ist, bei der Verbereitung von Konturenrichtung zur Pixelrichtung, die gültigen von den falschen zu unterscheiden. Fig. 15a und 15b zeigen ein Binärbild und ein aus dem Binärbild abgeleitetes Konturenbild, in dem Rauschen und Verzerrungen gekennzeichnet sind. Die Erzeugung des Richtungsbildes ist in zwei Schritten implementiert. a) Erzeugung der Konturenrichtung: Mit der Konturenkodestruktur kann man sich einfach und schnell auf der Kontur bewegen. Mit einem Zweibein entlang der Kontur wird jeweils die Tangentenrichtung für einen Punkt (x, y) berechnet (Fig. 16). Es gilt:
dy tanα = — dx wobei:
Vektorγι und ' r : Zweibein Tangentveltor : y (dx, dy) ~ y ~y_ a : Tangentwirkel
Die Tangentenrichtungen in der Nähe von Linienenden, Verzweigungen und Verzer- rungen werden nicht berücksichtigt, da die Krümmung solcher Punkte nicht dem echten Linienverlauf entspricht. Die Stellen besitzen meistens einen spitzen Winkel oder ein nicht gut definiertes Zweibein. Sie können durch Prüfen der Winkel und der Länge des Zweibeins erkannt werden. Der Winkel eines Zweibeins wird mittels der nachfolgenden Formel berechnet (Fig. 17). Wenn der Winkel ß kleiner als 120° ist, wird die entsprechende Tangentenrichtung α nicht akzeptiert. y,y
Skalarprodukt : cos ß = — - — —
W,Vr\ wobei : V undy -. Vektoren des Zweibeins ß : Winkel des Zweibeins Ein reguläres Zweibein und ein typisches irreguläres Zweibein (verzerrte Kontur) sind in Fig. 18 dargestellt. Normalerweise ist die Länge eines Zweibeins nach links und rechts fast gleich, sie entspricht in etwa auch dem Wanderungsschritt auf der Kontur. Ein irreguläres Zweibein hat dagegen unterschiedliche Beinlängen nach links und rechts bzw. diese Längen sind kürzer als der Wanderungsschritt. Wenn die Unterschiede über einem Schwellenwert liegen, wird dieses Zweibein nicht genommen. Dadurch werden nur die gut definierten Tangentenrichtungen berechnet.
Der Winkel einer Tangentenrichtung wird approximativ durch einen Richtungskode ersetzt. Acht Hauptrichtungen werden verwendet (Fig. 19). Der Richtungskode ist von 1 bis 8 numeriert. Kode 0 bedeutet, daß keine Verlaufsrichtung vorhanden ist. Winkel und Richtungskode haben folgende Beziehung:
α = 22.5° x (code - 1)
Wenn die Tangentenrichtung für jeden Punkt auf der Kontur untersucht und entsprechend codiert worden ist, ist das Konturenrichtungsbild erstellt. b) Von der Konturenrichtung zur Pixelrichtung: Die anisotrope Glättung soll sich nicht nur auf die Konturen beschränken, sondern das ganze Bild erfassen. Dafür ist die Richtungsinformation für jedes Pixel erforderlich. Um von der Konturenrichtung zur Pixelrichtung zu gelangen, wurden folgende Annahmen gemacht:
- unmittelbar benachbarte Konturen haben die gleiche Verlaufsrichtung;
- Richtungsänderungen innerhalb einer Umgebung sollen kontinuierlich sein; und - für Bereiche, in denen Rauschen und Verzerrungen vorhanden sind, soll die Richtungsinformation aus benachbarten Bereiche, in denen gültige Richtungen bestimmt werden können, geholt werden. Wenn die benachbarten Bereiche keine nützliche Richtungsinformation liefen, dann sollen solche Bereiche auch keine Richtungsinformationen enthalten (Kode 0). Das implementierte Verfahren läuft wie folgt ab: - Wenn zwei benachbarte Punkte auf einer Kontur den gleichen Richtungscode haben, wird eine Linie durch die beiden Punkte mit diesem Richtungskode gezogen. Der maximale Abstand der beiden Punkte soll kleiner als der Linienabstand sein, sonst werden sie nicht als benachbart anerkannt. Dies wird jeweils in horizontaler und vertikaler Richtung für das ganze Bild gemacht. Nach einem Durchlauf haben die meisten Papillarlinien und der Untergrund einen Richtungskode bekommen. Bereiche, die noch den Richtungscode 0 haben, sind Bereiche in denen Rauschen oder Verzerrungen vorhanden sind.
- Richtungsfüllung mit Hilfe der Kontinuitätsannahme und der Richtungsinformation von Nachbarn: In einer kleinen Umgebung sollen sich außerhalb des Kern- oder Deltabereiches die Richtungen nicht drastisch ändern (diese Eigenschaft wird später bei der Suche nach Kern und Delta benutzt). Jeder Durchlauf erfolgt in horizontaler und vertikaler Richtung. Zum ersten wird die vorhandene Richtungsinformation in einer Zeile (Spalte) gesammelt und dann systematisch analysiert. Es gibt verschiede Situationen: (1) ganz schmale Schwarzlücken werden einfach durch ihre benachbarte Richtung ersetzt. (2) relativ große Lücken werden folgendermaßen behandelt. Fall 1: innerhalb eines homogenen Richtungsfeldes werden, wenn die linke (obere) Seite und rechte (untere) Seite die gleiche Richtung besitzen, solche Lücken durch diese Richtung ersetzt.
Fall 2: Innerhalb zweier unterschiedlicher Richtungsfelder werden, wenn die beiden Rich- tungen (Richtungkodes) benachbart sind (wie 0 zu 1 oder 1 zu 2 usw.), die Lücken durch die beiden Richtungen mit unterschiedlichem Anteil ersetzt. Der Anteil wird wie folgt berechnet
Λ = L' T
Al - lücke
Lι + L2 Λ - L2
A2 J lücke
Figure imgf000020_0001
wobei Li und L2 jeweils die Länge eines der beiden benachbarten Richtungsfelder und Ai und A2 den mit einer bestimmten Richtung ersetzten Anteil der Gesamtlänge beider Richtungsfel- der bezeichnen.
Fall 3: Korrigieren von falsch gefüllten Richtungen: wenn eine kurzes Stück innerhalb einer dominierenden Richtung eine andere Richtung aufweist, dann wird dieses Stück durch die dominierende Richtung ersetzt. Dieser Ablauf wird in drei Iterationen durchgeführt. Das Zwischenergebnis aus Phase 2 nach einer Iteration wird verwendet, um das Gütebild abzuleiten. Die zugrundeliegende Idee ist, daß wenn eine Umgebung einen sauberen Linienverlauf hat, dann sollten die ausgefüllten Pixelrichtungen eine genügende Verteilung in dieser Umgebung besitzen. Das Pixel-Richtungsbild wird in kleine Parkettzellen mit der Größe 2,5χLinienabstand (etwa 16x16 Pixel) zerlegt. Die Qualität einer Parkettzelle ist mit drei Stu- fen ("gut", "mittelmäßig" und "schlecht") definiert. Stufe "gut" entspricht dem gut definierten Bereichen, Stufe "mittelmäßig" entspricht dem verbesserbaren Bereichen, Stufe "schlecht" entspricht nicht verbesserbaren Bereichen. In jeder Parkettzelle wird die Summe der gültigen Richtungen berechnet:
Figure imgf000020_0002
y _-~ m- x _—— m
Eine Parkettzelle (i, j) wird als "gut" bewertet, wenn sum (i, j) über einem ersten Schwellenwert Ti liegt als "mittelmäßig", wenn sum (i, j) unter Ti aber über einem zweiten Schwellenwert T2 liegt und als "schlecht", wenn sie unter T2 liegt ( z.B. J_ =0.85, T2=0.55). Um Randbereiche zu ignorieren, wird die Parkettzelle jeweils nach links, rechts, unten und oben um 8 Pixel verschoben, die Summenhistogramme werden jeweils noch einmal bewer¬ tet. Der Gedanke war, wenn die Parkettzellen am Rande verschoben werden, dann können ihre Summenhistogramme nicht gleichzeitig die Schwelle T2 erfüllen.
Das Gütebild wird am Ende noch geglättet. Dabei gibt es zwei Fallunterscheidungen: a. Parkettzelle mit Güte "gut" oder "mittelmäßig": wenn die direkt benachbarten Parkettzellen alle mit der Güte "schlecht" bewertet sind, wird diese Parkettzelle ebenfalls mit der Güte "schlecht" bewertet. b. Parkettzelle mit Güte "schlecht": wenn die direkt benachbarten Parkettzellen alle mit der Güte "gut" oder "mittelmäßig" definiert sind, wird diese Parkettzelle ebenfalls mit der Güte "mittelmäßig" bewertet.
2.4 Bildverbesserung durch anisotrope Glättung
Es wurde bereits erwähnt, daß eine Bildverbesserung im Spektralbereich in der Regel zu zeitaufwendig ist. Aus diesem Grund wird die Bildverbesserung im Ortsbereich in Form einer anisotropen Glättung implementiert. Eine Linie wird in ihrer Verlaufsrichtung durch ein eindimensionales Gauß-Filter verbessert. Die Maskengröße ist 1x5. In Fig. 20 sind die Gewichtungen der Masken und ihre Richtungsabhängigkeit dargestellt.
2.5 Zweite Binärisierung und zweites Konturenverfolgen
Das mittels anisotroper Glättung verbesserte Bild wird noch einmal binärisiert, wobei diesmal ein Gauß-Filter anstatt des Mittelwert-Filters Verwendung finden kann. Im Vergleich mit dem ersten Binärbild besitzt das zweite Binärbild eine wesentlich bessere Qualität: die zerbrochene Linien sind geschlossen, die Löchern sind gefüllt und Rauschen sowie Verzer- rungen sind gelöscht oder repariert. Die Konturen des zweiten Binärbilds werden wie vorstehend beschrieben verfolgt und als Konturenkodestruktur gespeichert. Basierend auf diesem Konturenkode erfolgt als nächster Schritt die Minuzienextraktion.
2.6. Ergebnisse Es wurde mit einer Eingabebildgröße von 640 x 480 Pixeln gearbeitet. In einem ersten Schritt wurde der Papillarlinienbereich durch Wegschnitt am Rand segmentiert und anschließend skaliert. Die Bildgröße wurde so auf ungefähr 300 x 200 Pixel reduziert. Die gesamte Rechenzeit betrug auf einem Pentium PC 200 MHz bei einem in ANSI-C geschriebenen Programm ungefähr 300 ms (Fig. 21).
3. Minuzienextraktion
Die Minuzienextraktion basiert auf dem wie vorstehend beschrieben erzeugten (zweiten) Konturenbild, Die unechten Minuzien werden zusätzlich durch einen weiteren Analyseschritt (Postprocessing) behandelt. Die Ermittlung von globalen Merkmale wie Kern und Del- ta wird in dem Kapitel "Klassifikation" weiter unten näher erläutert.
Die Minuzienextraktion im Konturenbild ist aus mehreren Hinsichten von Vorteil:
- auf die aufwendige Skelettierung kann verzichtet werden;
- die Eigenschaften der Konturen lassen aussagekräftige Kriterien ableiten, um verrauschte Konturen, und damit potentiell unechte Minuzien, auszuschließen; - anhand der Kontur sind die Minuzien einfach zu bestimmen, weil die Konturen an Stellen von Linienenden oder Verzweigungen einen spitzen Winkel besitzen; und
- die Winkel kann man mit einem Zweibein messen, so daß sich durch Prüfen der Eigenschaften des Zweibeins das Extrahieren von unechten Minuzien vermeiden läßt. Diese Vorteile ermöglichen eine zuverlässige Ermittlung von Minuzien. Dies ist von großer Bedeutung, da unechte Minuzien die Individualität eines Fingerabdruckes verändern können und einen glaubwürdigen Vergleich ausschließen.
Nach der Minuzienextraktion sind in der Regel noch einige unechten Minuzien vor- handen, die hauptsächlich aus den zusammengeklebten Linien stammen. Eine nachfolgende Analyse wird implementiert, um die unechten Minuzien zu beseitigen. Die Analyse verwendet den Abstand sowie die Lage zwischen den Minuzien als Kriterium, um die unechten Minuzien zu erkennen. Bei zusammengeklebten Linien häufen sich relativ viele Minuzien in einer kleinen Umgebung. Die Minuzien von Falten werden zusammengefaßt und als ein einziges Merkmal (Falte) erfaßt.
Konturen lassen sich in zwei Klassen einteilen: reguläre und irreguläre Konturen
- reguläre Kontur: Eine Kontur ist regulär, wenn sie kontinuierlich in einer lokale Umgebung verläuft und ihre Länge und Fläche wohl definierte Eigenschaften besitzen.
- irreguläre Kontur: Eine Kontur ist irregulär, wenn sie in einer lokalen Umgebung unterbro- chen ist, nicht mehr kontinuierlich in einer Richtung verläuft oder ihre Länge bzw. Fläche eine hinreichende Größe nicht erreicht hat. Es gibt mehrere Typen von irregulären Konturen, wie:
- Rauschen: kleine isolierte Konturen, die eine kleine Konturenlänge und Fläche besitzen.
- Löcher: innerhalb einer Linie sind Hautschweißporen vorhanden, welche sich als kleine wei- ße Löcher bemerkbar machen. Durch die Richtungsglättung werden die Poren zu größeren weißen Gebieten innerhalb der Papillarlinie zusammengefaßt. Diese Struktur ähnelt dann stark einem Auge. Augen sind die Stellen, an denen sich Papillarlinien zunächst verzweigen und dann im weiteren Verlauf wieder vereinigen.
- Narben: in einem großem Bereich treten viele irreguläre Konturen auf. - Zerbrochene Linien: der kontinuierliche Linienverlauf wird unterbrochen, dies verursacht mehrere aufeinanderfolgende kurze Konturen. Zerbrochene Linien kommen vor, wenn es sich um einen Abdruck eines trockenen oder faltenreichen Fingers handelt.
- Zusammengeklebte Linien: der Untergrund zwischen mehreren Linien ist nicht eindeutig zu erkennen. An diesen Stellen werden irreguläre Verzweigungen ermittelt. Sie kommen beson- ders dann vor, wenn ein Fingerabdruck durch Abrollen gewonnen worden ist oder sein Linienabstand verhältnismäßig klein ist.
- Beulen: sie treten auf, wenn der Abstand der Hautschweißporen vom Rand der Papillarlinie zu klein ist, so daß die sonst in Inneren der Papillarlinie befindliche weiße Fläche mit dem weißen Hintergrund verschmiert. - Falten: große Leerflächen zwischen den Linien.
- Verzerrungen: die Linien verlaufen nicht mehr kontinuierlich, sondern mit kleinen lokalen Verzerrungen. Verzerrungen sind durch irreguläre Aufnahmeverhältnisse bedingt, beispielsweise kleine Schwankungen oder Bewegung des Fingers während der Aufnahme.
Bei regulären Konturen handelt es sich um ein leichte Aufgabe, die entsprechenden Merkmale aus den Konturen zu extrahieren. Irreguläre Konturen sind jedoch normalerweise nach der Bildaufbereitung mehr oder weniger im Bild zu sehen, so daß es schwierig ist, die echten Minuzien zu bestimmen. Irregulären Konturen werden wie folgt behandelt: a) Rauschen läßt sich durch Überprüfen der Konturenlänge und Konturenfläche schnell erkennen und eliminieren. b) Die Konturenlänge und Breite entscheidet, ob eine weiße Insel ein Loch oder ein Auge ist. c) Narben können mit Hilfe des Gütebildes ignoriert werden, denn der Bereich, wo eine Narbe vorkommt, wird im Gütebild als nicht verbesserbarer Bereich gekennzeichnet, d) Die Behandlung von zerbrochenen oder zusammengeklebten Linien, Beulen, Verzerrungen und Falten wird in den folgenden Abschnitten erläutert.
3.1 Ermittlung von Minuzien
Die Minuzien werden mittels eines Zweibeins extrahiert indem in jedem Punkt der Kontur ein Zweibein konstruiert und die Eigenschaft des Zweibeins geprüft wird. Ein Zweibein besteht aus einem linken Bein, einem rechten Bein und dem Winkel zwischen den Beinen. In Fig. 18a und 18b sind ein reguläres und ein irreguläres Zweibein dargestellt. Ein Punkt wird als möglicher Kandidat für eine Minuzie in einer Liste gespeichert, wenn das Zweibein des Punktes gleichzeitig folgende drei Bedingungen erfüllt: a) Der Winkel W des Zweibeins liegt innerhalb eines bestimmten Winkelintervalls Wmιn < W <
Wmaχ, b) Der Längenunterschied zwischen dem linken Bein und den rechten Bein ist kleiner als ein Schwellenwert Dt (D = Linienabstand /3), c) Der Längenunterschied zwischen dem Wanderungsschritt auf der Kontur und der Länge des linken Beins oder des rechten Beins ist kleiner als der Schwellenwert Dtoder ein anderer Schwellenwert.
Die oben genannten Bedingungen sind aus folgenden Überlegungen zustande ge- kommen.
- Ein Linienende oder eine Verzweigung besitzen einen spitzen Winkel (W<Wmaχ), wobei dieser Winkel nicht zu klein sein sollte, da z.B. Beulen durch verhältnismäßig kleine Winkel charakterisiert sind, die sie von den Winkeln echter Minuzien unterscheiden (W>Wmln).
- Wenn eine Kontur kontinuierlich verläuft, haben die Zweibeine auf der Kontur eine wohl de- finierte Eigenschaft und zwar haben die Beine fast die gleiche Länge nach links und rechts.
Auch unterscheidet sich diese Länge kaum von der Länge auf der Kontur zwischen dem Anfangs- und Endpunkt des jeweiligen Beines auf der Kontur. Die Zweibeine von Verzerrungen und zusammengeklebten Linien verhalten sich dagegen anders: die Längenunterschiede sind zufällig und meistens relativ groß. Durch das Vorsehen der oben genannten Schwellen- werte läßt es sich vermeiden, Minuzien aus verzerrten oder zusammengeklebten Konturen zu extrahieren.
Für jede Liste wird eine Liste von Minuzienkandidaten hergestellt. Die Kandidaten werden dann analysiert:
a) Bestimmung der Koordinatenwerte der Minuzie: Wenn in einer kleinen Umgebung mehrere Kandidaten gefunden wurden, dann wird nur der Kandidat, der den kleinsten spitzen Win- kel hat, als einzige echte Minuzie betrachtet. Die einzige Minuzie nimmt die Koordinatenwerte dieser Stelle ein. b) Bestimmung des Winkels der Minuzie: Die einfachste Variante ist, daß man die senkrechte Verlaufsrichtung zur Tangentenrichtung der Minuzie als Winkel nimmt (Fig. 22a). Der Nach- teil ist, daß eine kleine Änderung der Kontur schon eine große Auswirkung auf diesen Winkel hat (Fig. 22b). Aufgrund der Glättung sind solche Änderungen aber unvermeidbar. Daher versucht man, relativ stabile Winkel für die Minuzie zu nehmen. Man geht von der Minuzien- position jeweils nach links und rechts einige Schritte zurück und bestimmt die Tangentenrichtungen in diesen Stellen. Der Winkel der Minuzie nimmt dann den Mittelwert beider Tan- gentenrichtungen an. Es ist Fig. 22b zu entnehmen, daß dieser Winkel viel stabiler ist.
Auf einer Kontur kann man noch einige einfache Anhaltspunkte benutzen, um eventuelle unechte Minuzien auszuschließen: a) Wenn die Kandidatenanzahl um eine Stelle kleiner als zwei ist, werden diese Kandidaten nicht als echte Minuzien berücksichtigt, da sie wahrscheinlich aus einer irregulären Kontur stammen. Bei einer regulären Kontur existieren dagegen mehrere Kandidaten um eine Minuzie (>2). b) Zwei Minuzien aus einer Kontur dürfen nicht zu nahe beieinander liegen (die Schwelle ist etwa 2 x Linienabstand). Andernfalls werden die beiden Minuzien zu einem Merkmal zusammengefaßt. Die wie vorstehend erläutert erzeugten Minuzien werden Rohminuzien genannt.
3.2 Beseitigung von unechten Minuzien (Postprocessing)
Nachdem alle Minuzien extrahiert wurden, müssen noch die irrtümlich extrahierten, unechten Minuzien beseitigt werden. Die unechten Minuzien stammen meistens aus Falten, Poren, zerbrochenen oder zusammengeklebten Linien. Folgende Regeln werden implementiert. a) Wenn zwei Minuzien sehr nahe beieinander liegen (möglicherweise aus zerbrochenen Linien), werden beide gelöscht. Die Abstandsschwelle beträgt etwa 0.7χLinienabstand. b) Wenn eine Kontur nicht länger als 6χLinienabstand ist, nur eine oder zwei Minuzien hat und eine weiße Fläche besitzt, wird diese Kontur genau analysiert, denn sie kann nur eine
Pore oder ein Auge sein. Dabei dient die Breite der Kontur als Unterscheidungskriterium. Wenn die Breite größer als der Linienabstand/3 ist, wird diese weiße Insel als Auge, sonst als Pore deklariert. c) Wenn mehrere Minuzien sich in einer Umgebung befinden und die Minuzien paarweise aufeinander zeigen (über 100 Grad Winkeldifferenz), sich nicht weiter voneinander trennen
(die Schwelle ist etwa 1.2χLinienabstand) und keine Linien zwischen ihnen verlaufen, werden zwei Fallunterscheidungen gemacht,
Wenn die Minuzienanzahl über einem Schwellenwert Mt liegt, werden die Minuzien als Minuzien aus Falten verdächtigt und als ein besonderes Merkmal (Falte) zusammengefaßt, und zwar mit dem Schwerpunkt der Minuzien. Ansonsten werden solche Minuzien gelöscht, die wahrscheinlich von zusammengeklebten Linien oder Verzerrungen stammen. d) Wenn zwei benachbarte Minuzien sich nicht weiter voneinander trennen (die Schwelle ist etwa l.OxLinienabstand) und fast parallel zueinander verlaufen (die Winkeldifferenz ist klei- ner als 30 Grad), dann werden die beide Minuzien zu einer einzigen Minuzie zusammengefaßt (mit dem Schwerpunkt von beiden). e) Wenn der Winkel einer Minuzie nicht der Verlaufsrichtung der zugehörigen Kontur entspricht, wird diese Minuzie gelöscht. f) Randminuzien und Rohminuzien aus nicht verbesserbaren Bereichen werden mit Hilfe des Gütebilds eliminiert.
3.3 Ergebnisse
Die vorstehend beschriebene Minuzienextraktion benötigt auf einem Pentium PC 200 MHz eine Rechenzeit von typischerweise 100 ms und ist deutlich schneller als alle im Stand der Technik bekannten Verfahren. Ein Vergleich des implementierten Verfahrens mit den Verfahren des Stands der Technik ist jedoch schwierig, da die Bildqualität der im Stand der Technik verwendeten Fingerabdrücke sehr unterschiedlich ist, die meisten Autoren keine Statistik über die Verteilung der gefundenen echten und unechten Minuzien angeben und eine exakte Unterscheidung zwischen echten und unechten Minuzien nicht einfach ist. Gleichwohl ist die vorstehend beschriebene Behandlung von potentiellen unechten Minuzien im Vergleich zu herkömmlichen Verfahren wesentlich sorgfältiger und daher zuverlässiger.
4. Minuzienvergleich Ein Minuzienvergleich mit mehreren Iterationen für die Abschätzung der Transformationsparameter wird implementiert. Als erster Schritt werden die Parameter grob geschätzt. Anschließend werden die geschätzten Parameter bewertet und korrigiert. Die Korrektur geschieht mittels einer Kostenreduktion. Die korrigierten Parameter werden iterativ nochmals zum Minuzienvergleich eingesetzt. Die genauen Arbeitsschritte des Verfahrens sehen folgendermaßen aus (Fig. 23):
Phase 1: Mit einer Hough-Transformation werden die Transformationsparameter im Hough- Raum verteilt, gruppiert und mit einem Gütemaß versehen. Die Parameter, deren Güte über eine bestimmten Schwellenwert liegt, werden in einer Kandidatenliste gespeichert. Falls keine Transformationsparameter existieren, deren Güte über dem Schwellenwert liegt (n = 0), wird der Minuzienvergleich beendet. Ansonsten wird mit Phase 2 fortgefahren.
Phase 2: Mittels der in Phase 1 geschätzten Transformationsparameter werden die Einga- beminuzien transformiert und mit den Referenzminuzien verglichen. Wenn die Anzahl der korrespondierenden Minuzien über einem bestimmten Schwellenwert liegt (m > 12), wird der Vergleichsprozeß automatisch beendet und ein positives Vergleichsergebnis ausgegeben. Wenn alle potentiellen Kandidaten für Tranformationsparameter geprüft sind (n = 0), wird der Vergleichsprozeß ebenfalls beendet (Minuzienvergleich gescheitert). Ansonsten gibt es zwei Möglichkeiten: (1) Die Anzahl m der Paare hat zwar den erforderlichen Schwellenwert 12 nicht erreicht, aber sie ist schon gut genug (m > 8). In diesem Fall geht es zur Phase 3. (2) Die Anzahl der Paare ist zu gering (m < 8). In diesem Fall werden weitere Parametersät- ze aus der in Phase 1 erstellten Kandidatenliste in Phase 2 getestet. Phase 3: Eine Kostenfunktion wird definiert. Durch Optimierung der Kostenfunktion werden die in Phase 1 grob geschätzten Parametern korrigiert. Anschließend wird mit den korrigierten Parametern Phase 2 erneut durchlaufen.
4.1 Phase 1: Hough-Transformation zur Abschätzung der Transformationsparameter
Hough-Tansformationen werden bei der Erkennung von geometrischen Objekten wie Geraden, Kreisen usw. eingesetzt. Die geometrischen Objekte sind dabei im Ortsraum durch Parameter zu charakterisieren. Der entsprechende Parameterraum ist der Hough-Raum der betrachteten Objekte. Eine Gerade kann zum Beispiel durch zwei Parameter d und α dargestellt werden. Ein Punkt im Ortsraum definiert derart eine Parametermenge (z.B. Parameter aller Geraden, die durch den Punkt im Hough-Raum verlaufen):
d = x cos α + y sin α
Für Punkte, die mit demselben Objekt verknüpft sind, liegt die Parametrisierung dieses Objektes in der Schnittmenge der Parametermengen dieser Punkte im Hough-Raum. Die allgemeine Aufgabe kann so beschrieben werden, daß Bildpunkte zu gruppieren sind, die (in etwa) einem Objekt der betrachteten Klasse "entsprechen". Der allgemeine Lösungsweg besteht aus folgenden Schritten: 1. Für jeden Bildpunkt sind die entsprechenden Parametermengen im Hough-Raum zu bestimmen.
2. Für Parametermengen sind die Durchschnitte zu betrachten. Jeder Punkt in einer Durchschnittsmenge (im Hough-Raum) ist mit der Anzahl von Bildpunkten zu bewerten, für die er eine mögliche Parameterkombination ist. 3. Die Punkte im Hough-Raum mit einer hinreichend hohen Bewertung sind mit einem "erkannten" Objekt zu identifizieren.
Hough-Transformation ist gut geeignet für die Schätzung von TransformationEN. Eine Transformation kann man durch vier Parameter tx, ty (Translationsvektor), s (Skalierung) und θ (Rotationswinkel) darstellen (Fig. 24). Da alle Punkte in einem Bild die gleiche Transforma- tion besitzen, sollte sich eine hinreichend hohe Bewertung (engl. Peak) im Hough-Raum (Transformationsparameter) bei der tatsächlichen (geschätzten) Transformation ergeben. Wie erwähnt, ist die Hough-Transformation sehr gut geeignet für die Abschätzung der Transformationsparameter. Um das Schätzen eines geeigneten Satzes Transformationsparameter möglichst effektiv zu machen, werden folgende Forderungen aufgestellt: - Unnötige Transformationen sollen durch Vorwissen möglichst vermieden werden.
- Der Parameterraum der theoretisch möglichen Transformationsparameter soll geeignet gruppiert werden, so daß bei derjenigen Transformation, welche als geschätzte Transformation bestimmt wird, eine hinreichend hohe Bewertung (Peak) auftritt.
Das Vorwissen über die Transformation steckt in den Minuzien selbst. Weil man vor- her jedoch nicht weiß, welche Minuzien aus dem Eingabesatz und dem Referenzsatz die korrespondierenden Paare bilden, wird angenommen, daß jede Eingabeminuzie mit allen Refe- renzminuzien ein Paar bilden und entsprechend zueinander transformiert werden kann. Also probiert man nicht alle mögliche Transformationen aus, sondern nur diejenigen, welche eine beliebige Eingabeminuzie auf eine beliebige Referenzminuzie abbilden.
Gleichzeitig können viele unnötigen Transformationen schon vorher gestoppt werden: Der Rotationswinkel wird auf -45 Grad bis +45 Grad beschränkt und die Translationen in X- Richtung und Y-Richtung werden jeweils im Rahmen von etwa zwei Dritteln der Bildlänge bzw. Bildbreite festgelegt. Diese Beschränkungen entsprechen der Realität und reichen für normale Anwendungen wie Zutrittskontrollen aus. Die Arbeitsschritte der ersten Phase sehen folgendermaßen aus: . a) Für jedes Minuzienpaar (xp, yp, wp) und xq, yq, wq) aus dem Ei'ngabemuster und dem Refe- renzmuster wird die inverse Transformation berechnet:
Figure imgf000027_0001
Nur wenn tx, ty und θ innerhalb des oben genannten Beschränkungsbereiches liegen, werden die entsprechenden Zähler im Hough-Raum erhöht. Vor dieser Erhöhung werden die berechneten Parameter noch mittels eines Quantisierungsschritts gruppiert:
IF θ - (θx, ΘL) Λtχ € (txl / tXM) Λ, e (tyl, tyN) THEN dw = θ/iw
dy = ty/iy Add evidence for (dw,dy,dy) => A(dw,dx,dy) = A(dw,dx,dy) + 1
Wobei iw, ix und iy die Gruppierungsintervalle sind (iw = 3, ix = 8 und iy = 8). Die Intervallgrößen bestimmen sich aus dem Linienabstand und der Genauigkeit der Winkelbestimmung der Minuzie.
Die Quantisierung des Hough-Raums bewirkt eine deutliche Ausprägung der gültigen Transformationen. Die Notwendigkeit für die starke Quantisierung folgt aus dem Vorhandensein von nichtlinearen Verzerrungen und den Ungenauigkeiten im Prozeß der Bildaufberei- tung und Minuzienextraktion. Die nichtlineare Verzerrungen werden dadurch verursacht, daß bei der Aufnahme ein dreidimensionaler Fingerabdruck plastisch auf einem zweidimensiona- len Sensor liegt. Durch die Bildaufbereitung (Glättung, Binärisierung) und den Prozeß der Minuzienextraktion können Position und Winkel der Minuzie lokal verzerrt sein. Besonders problematisch ist der Winkel der Minuzien. Er ist schwierig exakt zu bestimmen, weil eine kleine Änderung der verbundenen Kontur große Auswirkung auf den bestimmten Winkel der Minuzie hat. Aus diesem Grund wird nicht nur die Winkeldifferenz zwischen wp und wq berücksichtigt, sondern werden auch einige Korrekturen der Winkeldifferenz in dem Hough- Raum mitgenommen. Die genaue Formulierung ist in Fig. 25 dargestellt. Die mathematische Formulierung der Phase 1 des Minuzienvergleichs ist in Abb. 26 dargestellt. b) Nachdem alle Minuzien aus dem Eingabesatz und dem Referenzatz zueinander transformiert und die Winkelkorrekturen berücksichtigt wurden, ist der Hough-Raum vollständig bewertet. Der Hough-Raum ist im vorliegenden Fall ein dreidimensionaler Parameterraum A {dw, dy, dx}. Jedem Punkt in diesem Raum wurde eine Bewertung (Zähler) zugeordnet, und unter diesen werden die Maxima gesucht. Dieser Vorgang geschieht folgendermaßen,
- Die maximale Bewertung innerhalb des Hough-Raums wird gesucht (maxWert) und die Summe der gesamten Bewertung (allSum) um die Stelle des Maximums (Umgebung von 3x3x3) wird berechnet.
- Wenn diese Maximale Bewertung (maxWert<7) oder die Summe (allSum<13) ihrer Umgebung nicht groß genug ist, wird der Vergleichsvorgang als gescheitert beendet. Dies bedeutet, daß die beiden Minuziensätze möglicherweise nicht von dem gleichen Fingerabdruck stammen oder Translation und Rotation außerhalb des beschränkten Bereichs liegen. An- sonsten geht es weiter zum folgenden Schritt:
- Die möglichen Transformationsparameter werden in einer Kandidatenliste gespeichert. Außer dem Maximum und seiner Umgebung werden noch weitere Parametersätze mitgenommen, wenn ihre Bewertungen größer als ein bestimmter Schwellenwert ist. (Der Schwellenwert ist z.B. 5). Phase 1 des Vergleiches ist mit vielen Berechnungen verbunden. Um die Rechenzeit zu reduzieren, werden Tabellen eingesetzt, zum Beispiel bei der Berechnung von Sinus und Kosinus für die affine Transformation (wie sin30° = sinusTab[30]) oder bei der Berechnung der Gruppierung (Dividieren durch die Intervalle).
4.2 Phase 2: Affine Transformation
Die aus Phase 1 gewonnene Kandidatenliste wird in Phase 2 analysiert. Die Kandidatenliste wird vorher noch nach der Bewertung (Güte) sortiert und die Transformationsparameter werden mit der jeweiligen Intervallgröße multipliziert ((dx, dy, dw) → (tx,ty, θ)).
Die einzelnen Arbeitsschritte sind: a) Aus der Kandidatenliste wird eine Transformation (tx, ty, θ) genommen (Wenn die Kandidatenliste leer ist, wird der Vergleichsvorgang als gescheitert beendet).
Figure imgf000028_0001
transformierte Minuzie mit allen Referenzminuzien verglichen. Wenn die Ortsdifferenz und Winkeldifferenz zwischen der transformierten Minuzie und der Referenzminuzie innerhalb ei- nes Toleranzbereiches liegt (Fig. 27), werden beide als ein korrespondierendes Paar betrachtet und die Anzahl der ermittelten korrespondierenden Minuzien (Matchingscore) wird um eins erhöht
Figure imgf000028_0002
Δx=|xt-xq| Δ y=|yt-yqi Δ w=|wt-wq| IFΔx<xmax A Δy<Δymaχ A Δw<Δwmax THEN
(x^y ) und ((xq,yq,wq) ist ein Paar unter der Transformation (tx,ty,θ) Score=Score+l END d) Vergleich des Matchingscore mit einem Schwellenwert. Der Schwellenwert ist definiert als:
T=min(m,n)x0,4,
12 T<12 Threshold= 20 T>20
T sonst
wobei m die Anzahl der Minuzien des Eingabesatzes und n die Anzahl der Minuzien des Referenzsatzes ist.
Der Schwellenwert wird je nach der minimalen Minuzienanzahl der beiden zu vergleichenden Fingerabdrücke variiert. Da die durchschnittliche Minuzienanzahl in einem aufgenommenen Fingerabdruck bei etwa 40 liegt, kommt mit der Gewichtung 0,4 ein durch- schnittlicher Schwellenwert von 16 zustande. Die Zuverlässigkeit des Fingerabdruckerkennungssystems hat eine starke Abhängigkeit von der gewählten Gewichtung, die je nach Anwendung verschieden sein kann. Für extrem sicherheitsrelevante Anwendungen kann eine Gewichtung 0,5 eingestellt werden. Für eine gewöhnliche Zutrittskontrolle genügt eine Gewichtung von 0,3. Es soll noch erwähnt werden, daß der Schwellenwert auf den Bereich von 12 bis 20 beschränkt ist. Die Gründe hierfür sind einfach: es gibt Fingerabdrücke (zum Beispiel derjenige des kleinen Fingers), die verhältnismäßig wenig Minuzien haben (etwa 25). Ohne die Beschränkung kann der Schwellenwert dann unter 10 liegen. Dieser Schwellenwert ist für ein Fingerabdruckerkennungssystem jedoch in der Regel zu niedrig. Andererseits soll der Schwellenwert aber auch nicht derart hoch sein, daß zu viele Vergleiche scheitern.
Wenn der Matchingscore über dem Schwellenwert liegt, werden die korrespondierenden Minuzien nochmals genauer geprüft. Die Prüfung ist aus folgenden Überlegungen notwendig: Wenn mehrere Referenzminuzien innerhalb eines Toleranzbereiches liegen, hat die Eingabeminuzie mit mehreren Minuzien ein Paar gebildet. Die Anzahl der korrespondierenden Minuzien wird also mehrfach gezählt (Fig. 28). In diesem Fall wird die Matchingscore entsprechend korrigiert.
Wenn die korrigierte Anzahl der korrespondierenden Minuzien immer noch über dem Schwellenwert liegt, wird der Vergleichsvorgang als erfolgreich beendet. Wenn die Anzahl zwar den Schwellenwert nicht erreicht, sie aber trotzdem gut ist, geht es weiter mit Phase 3. Andernfalls werden weitere Transformationen aus der Kandidatenliste genommen (zurück zur Phase 2).
4.3 Phase 3: Korrektur der Transformationsparameter mittels Varianzanalyse
Die Notwendigkeit für die Korrektur der Transformationsparameter ist folgenderma- ßen begründet: a) In Phase 1 und in Phase 2 wird der Skalierungsfaktor auf 1,0 festgelegt. Aufgrund des Ef¬ fekts der lokalen Verzerrung kann der Skalierungsfaktor jedoch durchaus von 1,0 verschieden sein. Daher ist es wichtig, diesen Faktor genauer zu bestimmen. b) In Phase 1 werden die Transformationsparameter gruppiert (Gruppierungsintervalle: ix=8, iy=8,iw=3) und grob geschätzt. Die Gruppierung beinhaltet gewisse Fehler. Im ungünstigsten Fall kann es so sein, daß viele richtige Paare gerade knapp unterhalb des Toleranzbe- reichs liegen, weil die Transformation nicht genau genug geschätzt ist (s. Fig. 29: wenn die Translation in der vertikalen Richtung noch größer geschätzt worden wäre, hätten viel mehr korrespondierende Minuzien gefunden werden können).
Phase 3 wird nur dann durchgeführt, wenn in Phase 2 die Anzahl der gefundenen korrespondierenden Minuzien knapp unter dem Schwellenwert liegt. Bei der Korrektur wer- den dann die schon als korrespondierend erkannten Minuzienpaar als Vorlage benutzt (Es wird vorausgesetzt, daß sie die richtige Paare sind). In Fig. 29 sieht man deutlich, daß auch die als korrespondierend erkannten Minuzien mehr nach oben transformiert werden sollten.
Die Korrektur ist in drei Schritten organisiert: a) Korrektur des Skalierungsfaktors: Verbinden aller gepaarter Minuzien jeweils im Eingabe- satz und im Referenzsatz. Die Länge der verbundenen Linien werden summiert, m m sum(L) = / / Lv(iιj) i = 0, j = i + l wobei m die Anzahl gepaarter Minuzien und V(i,j) eine Linie der Länge l_v ,j) ist die zwei Mi- nuzien i und j verbindet. Nachdem die Summe in den beiden Sätzen getrennt berechnet wurde, kann der Skalierungsfaktor korrigiert werden. s = um^ ^-s^
SUm(L Eingabt ) b) Korrektur des Rotationswinkels: Die oben erläuterten verbundenen Linien werden als Vektoren betrachtet und die Steigungen (Winkel) der Vektoren werden summiert: m m sum(θ) = J J θv(u) i = 0, j = i + l wobei θV(ij) die Steigung des Vektors V (i,j) ist. Die Summe wird ebenfalls getrennt für die beiden Minuziensätze berechnet. Der korrigierte Rotationswinkel ist dann:
Q _ sum(θr V,&eJ -er „eπ_z )J - sum(θ Eingabt ) J m c) Korrektur der Translation: Wenn s, θ und die gepaarten Minuzien bekannt sind, kann man mit einer inversen affinen Transformation tx und ty berechnen:
Figure imgf000030_0001
Die einfachste Möglichkeit ist, man summiert jeweils alle tx und ty und nimmt den Mit¬ telwert als die korrigierte Translation. Es gibt aber eine bessere Variante: für jedes Minuzienpaar wird mit der oben genannten Formel eine theoretische Translation berechnet, die aber bei jedem Paar verschieden ist. Da alle Minuzien in einem Muster die gleiche Translation besitzen sollen, soll ein Rotationswinkel existieren derart, daß mit dem Rotationswinkel die Unterschiede der Translationen minimal sind. Die Optimierung ist durch Varianzanalyse realisiert: 1 -' var(t)=— ∑ £ - "
Mathematisch kann man die Prozedur der Varianzanalyse wie in Fig. 29 gezeigt formulieren.
Durch diese Optimierung wird die geeignete Transformation unter Ausnutzung der schon korrespondierenden Paare geschätzt und die korrigierten Parameter werden nochmals in dem Matchingprozeß eingesetzt, um weitere korrespondierende Paare zu finden. Dies geschieht ähnlich wie in Phase 2 (nur geringfügig geändert aufgrund des zusätzlich berücksichtigten Skalierungsfaktors).
4. Ergebnisse
Das implementierte Verfahren wurde mit zwei Sätzen von Fingerabdrücken getestet. Der erste Testsatz hat 400 und der zweite 3,000 Fingerabdrücke. Die Testsätze sind folgendermaßen zustande gekommen: Für jeden Finger wurden 10 Aufnahmen mit verschiedener Transformation (Rotation und Translation und beschränkt angefertigt. Der erste Testsatz umfaßt 40 Finger, der zweite 300 Finger. Die Testsätze sind aus den folgenden Gründen repräsentativ: a) Daumenabdruck, Zeigefinger, Mittelfinger, Ringfinger und kleiner Finger sind in den Testsätze gleichmäßig verteilt (der klein Finger hat relativ wenige Minuzien). b) Verschiedene Altersgruppen: Fingerabdrücke jüngerer Menschen haben feine Linienabstände, Fingerabdrücke älterer Menschen haben mehr Falten. c) Beide Geschlechter sind vertreten. d) Verschiedene Nationalitäten: Europäer (2,600), Asiaten (300), Perser (200), Afrikaner (100) und Lateinamerikaner (200) (die in der Klammer angegebene Anzahl ist die An- zahl der Fingerabdrücke). Bei jeder Volksgruppe ist ein bestimmter Mustertyp dominant, z.B. haben Asiaten mehr Wirbelmuster, Europäer dagegen mehr Bogenmuster. e) Verschiedene Berufsgruppen: Arbeiter, Angestellte und Handwerker. f) Verschiedene Gewohnheiten: Raucher und Nichtraucher. Die Veränderung (Störungen der Papillarlinien) eines Fingerabdrucks durch starkes Rauchen ist offensichtlich. g) Die Qualitäten der Fingerabdrücke sind sehr verschieden: Falten, Narben, Hautschweißporen, leichte bis starke Störungen bzw. Verzerrungen, verschmierte (feuchte) und zerbrochene (trockene) Linien sind mehr oder wenig vorhanden.
Jeder Finger aus einem Testsatz wird mit den restlichen Fingerabdrücken verglichen. Zwei weitere Bedingungen werden vorausgesetzt: (1) wenn die Anzahl der Minuzien eines Fingerabdrucks geringer als 15 ist, ist dieser Fingerabdruck nicht am Vergleichsprozeß beteiligt. (2) wenn die Anzahl verwertbarer Papillarlinien eines Fingerabdrucks weniger als die Hälfte ihrer Gesamtanzahl beträgt, wird dieser Fingerabdruck nicht genommen. Die Zuverlässigkeit eines Erkennungssystems kann man mit zwei statistischen Werten beschreiben: der falschen Rückweisungsrate (FRR) und der falschen Akzeptanzrate (FAR).
Falsche Rückweisung: zwei Fingerabdrücke des gleichen Fingers werden vom System als von unterschiedlichen Fingern deklariert.
Falsche Akzeptanz: zwei Fingerabdrücke unterschiedlicher Finger werden vom System als von einem gleichen Finger akzeptiert.
FRR: das Verhältnis der fälschlicherweise zurückgewiesenen Fingerabdruckanzahl zur gesamten Vergleichszahl der gleichen Fingerabdrücke. Die Benutzerfreundlichkeit eines Systems ist von der FRR abhängig. Eine FRR unter 1,00% wird normalerweise von einem Erkennungssystem erwartet.
FAR: das Verhältnis der fälschlicherweise akzeptierten Fingerabdruckanzahl zur gesamten Vergleichsanzahl der unterschiedlichen Fingerabdrücke. Für die Zuverlässigkeit eines Erkennungssystems ist die FAR entscheidend. Der theoretische Wert der FAR eines Fingerabdruckerkennungsystems liegt bei 0,0001% (unter 1 Million Finger gibt zwei identische).
Die FAR und FRR des implementierten Systems werden mittels der beiden Festsätze untersucht. Für die beiden Testsätze ergibt sich folgende Statistik (Gewichtung = 0,4):
Figure imgf000032_0001
Die durchschnittliche Rechenzeit für einen Vergleich liegt bei etwa 8 ms.
Nachfolgend werden die Rechenzeiten der jeweilige Arbeitsschritt des Erkennungssystems zusammengefaßt (Pentium PC 200 MHz)
Figure imgf000032_0002
Es läßt sich folgendes festhalten:
a) Das implementierte Erkennungssystem hat eine sehr hohe Zuverlässigkeit. Die niedrige FAR und FRR haben nicht nur die Zuverlässigkeit des Vergleichsverfahrens, sondern auch die Sorgfalt der Bildaufbereitung und der Minuzienextraktion bewiesen. Die im Test erzielte FAR und FRR haben auch bestätigt, daß das System für breite Aufwendungen einsetzbar ist. b) Das Vergleichsverfahren hat die Transformation sehr effektiv behandelt. Die Beschränkung der Rotation und der Translation ist großzügig. Theoretisch kann das Verfahren beliebige Transformationen korrekt abschätzen, aber für die normale Anwendung reicht die vor- genommene Beschränkung aus. c) Die Schnelligkeit des Vergleichsverfahrens macht das System nicht nur für Verifikationsanwendungen, sondern auch für Identifikationsanwendungen interessant. Für den Zutrittskontrolle bei einem mittleren Betrieb mit etwa 100 Angestellten benötigt das System zum Beispiel nur ca. eine Sekunde, um eine Person zu identifizieren. d) Die weitere Entwicklung soll dazu beitragen, die FAR zu reduzieren. Eine Möglichkeit besteht drin, die Eindeutigkeit eines Vergleiches zu prüfen. Die falsche Akzeptanz ist meistens dadurch verursacht, daß zwei Fingerabdruckmuster eine sehr unterschiedliche Anzahl von Minuzien haben. Zur Zeit wird nur die Anzahl der gefundenen korrespondierenden Paare mit einem Schwellenwert T verglichen. Bei den restlichen Minuzien (m - T, n - T) ist völlig unklar, warum sie nicht gepaart sind. Es muß daher geprüft werden, ob solche Minuzien im anderen Muster nicht vorhanden (vermißt) sind oder nur wegen der lokalen Verzerrungen knapp außerhalb des Toleranzbereichs liegen. Ein Maß für die Eindeutigkeit sollte dafür definiert werden.
5. Klassifikation
Die Klassifikation ist eine wichtige Voraussetzung für die schnelle Identifizierung eines Fingerabdruckes in einer großen Fingerabdruckdatenbank. Bei der Klassifikation wird ein Fingerabdruck einer vordefinierten Klasse zugeordnet. Wenn alle Fingerabdrücke innerhalb einem Datenbank a-priori klassifiziert sind, kann die Identifizierung viel effizienter gesche- hen, weil der eingegebene Fingerabdruck dann nur in einer entsprechenden Klasse gesucht werden soll.
Die Anforderungen an die Fingerabdruckklassifikation sind jedoch sehr hoch: ein gutes Klassifikationssystem soll sehr zuverlässig sein (falsche Klassifikationen sollen möglichst vermieden werden) und es soll gleichzeitig auch selektiv sein, so daß die Fingerabdrücke in- nerhalb einer Datenbanken etwa gleich in nichtüberlappenden Klassen verteilt werden kön¬ nen. Außerdem soll der Suchvorgang effizient sein (ein Fingerabdruck soll schnell wie möglich gefunden werden).
Den ersten Versuch, Fingerabdrücke zu klassifizieren, hat Francis Galton (1822-1916) gemacht. Er definierte drei Hauptgruppen von Fingerabdrücken. Edward Henry (1850-1931) hat Galton 's Klassifϊkationssystem erweitert und in vier Hauptgruppen modifiziert (Fig. 5). Wegen seiner Effizienz ist das Henry Klassifikationssystem sehr verbreitet und entsprechend standardisiert. 5.1. Grundbegriffe zur Klassifikation
Je nach Anzahl und Lage der globalen Merkmale (Delten und Kerne) kann ein Fingerabdruck nach dem Henry-System klassifiziert werden. Delten sind Stellen einer Musterfläche, wo die Linien eine dreieckige Struktur bilden. Kerne sind Stellen des Krümmungsmaximums der Linien, wobei die Krümmung einen bestimmten Schwellenwert überschreitet.
Die vier Hauptgruppen des Henry-Klassifikationsystms basieren auf dem Vorhandensein bzw. dem Fehlen bestimmter globaler Merkmale innerhalb einer Musterfläche: a) Bögen: Bögen besitzen weder Kern noch Delta in der Musterfläche. Der Linienverlauf eines Bogens sieht folgendermaßen aus: die Linien laufen zu einer Seite ein, wachsen in der Mitte an und verlassen die Musterfläche zur anderen Seite. Mit der Steigung der typischen Linienstruktur kann man Bogenmuster noch feiner klassifizieren. Wenn die Steigung groß genug ist, wird das Muster auch "Tanne" genannt. b) Schlingen: Schlingen besitzen genau einen Kern und genau ein Delta. c) Wirbel: Wirbel haben mindestens zwei Delten. d) Zusammengesetzte Strukturen
Das Vorhandensein globaler Merkmale innerhalb einer Musterfläche läßt sich mit Hilfe des Poincare-Index bestimmen. Zur Ermittlung des Poincare-Index wird um einen Punkt in der Musterfläche ein Kreis gebildet. Die Richtungsänderungen auf dem Kreis werden aufsummiert. Der Punkt wird nach der Summe klassifiziert. Ein Punkt wird als gewöhnlich be- zeichnet, wenn die Summe der Richtungsänderung 0° ist, als Kern, wenn die Summe 180° ist und als Delta, wenn die Summe -180° ist (Fig. 32).
Erfindungsgemäß wird ein auf globalen Merkmalen basierendes Klassifikationsverfahren implementiert. Dabei wird eine robuste Richtung vorausgesetzt. Wie bereits erläutert, basiert die Richtungserzeugung auf dem Konturbild. Durch die Eigenschaften der Konturen und des Zweibeins lassen sich falsche Richtungswerte vermeiden. Die Verallgemeinerung von der Konturenrichtung zur Pixelrichtung erfolgt durch die Annahme der Kontinuität des Linienverlaufs. Es ist sehr interessant zu sehen, daß gerade in den Bereichen, wo sich Kern oder Delta befinden, keine Pixelrichtung zugeordnet werden können (Schwarze Lücken im Richtungsbild), weil in diesen Bereichen große Richtungsveränderungen stattfinden. Diese Eigenschaft wird von dem implementierten Verfahren benutzt. Ferner beobachtet man, daß in der Umgebung von globalen Merkmalen viele Rohminuzien existieren.
Das implementierte Klassifikationsverfahren ist nach diesen beiden Besonderheiten organisiert. Die einzelnen Arbeitsschritten sind (Fig. 31): a) Die Rohminuzien werden in einer Kandidatenliste gespeichert. b) Wenn innerhalb einer kleinen Umgebung (16x16) der Rohminuzie keine genügende Richtungsformation vorhanden ist, wird diese Stelle genauer analysiert. Um diese Stelle wird ein Kreis im Richtungsbild konstruiert und wenn der Poincare-Index die oben genannte Bedingungen für Kern oder Delta erfüllt, wird diese Stelle als mögliches globales Merkmal in einer Liste gespeichert. c) Nachdem alle möglichen Stellen globaler Merkmale untersucht worden sind, werden benachbarte globale Merkmale zu einem einzigen globalen Merkmal zusammengefaßt. Dies geschieht durch ein Clustering-Verfahren, wobei der Schwerpunkt des Clusters als globales Merkmal betrachtet wird. d) Klassifikation eines Finerabdrucks anhand der gefundenen globalen Merkmale nach einem modifizierten Henry-Klassifikationssystem. Vier Klassen werden verwendet, nämlich Bogen, linke Schlinge, rechte Schlinge und.
Das implementierte Klassifikationsverfahren unterscheidet sich von Verfahren des Stands der Technik in zwei wesentlichen Punkten: a) Erzeugung eines Richtungsbildes: Die Richtungserzeugung basiert auf Konturen, und ist daher robust und schnell. b) Wegen der Besonderheit des Richtungsbildes und der Rohminuzien sind nur begrenzte Punkte zu analysieren. Daher ist das implementierte Verfahren sehr schnell. Für eine Bild- große von 512x512 bedeutet das einen Beschleunigungsfaktor von etwa 1000. Weil die Richtungserzeugung und die Extraktion der Rohminuzien die Nebenprodukte der Bildaufbereitung und der Minuzienextraktion sind, beträgt die Rechenzeit für die Klassifikation lediglich etwa 20 ms (Pentium PC 200 MHz).
Zur Verbesserung des vorstehend beschriebenen, auf globalen Merkmalen beruhen- den Klassifikationsverfahrens kann zusätzlich zur Analyse der globalen Merkmale eine Analyse der Typ-Linien erfolgen. Typ-Linien sind die innersten ünienkonfigurationen einer Musterfläche.
Bei auf der Linienstruktur basierenden Verfahren wird zum ersten die Linienstruktur kodiert und dann die grobe Gestalt der Musterfläche analysiert. Das Verfahren hat den Vor- teil, daß es die globalen Informationen über den Linienverlauf benutzt. Im Vergleich zu den anderen Verfahren ist es nicht empfindlich gegenüber fehlenden globalen Merkmalen. Der Nachteil ist jedoch, daß Rotation und Translation sehr schwer behandelt werden können.
Gemäß einer ersten Implementierung wird die Linienstruktur eines Fingerabdrucks als ein Richtungsbild definiert (vier Richtungen werden verwendet). Das Richtungsbild wird in Parkettzellen zerlegt und der typische grobe Linienverlauf wird extrahiert (die Typ-Linien). Die Klassifikation erfolgt durch die syntaktische Analyse der Typ-Linien.
Gemäß einer zweiten Implementierung werden bei der syntaktischen Analyse die Verläufe der Typ-Linien in eine Symbolliste umgewandelt und bei der Klassifikation wird dann ein String-Matching-Verfahren angewendet. Gemäß einer dritten Implementierung werden Linien als B-Spline dargestellt. Der B-
Spline hat den Vorteil, daß die Linienstruktur mathematisch analysiert werden kann. Die Extraktion der Typ- Linien ist durch die Gruppierung von parallel laufenden Linien realisiert.

Claims

Patentansprüche
1. Verfahren zur computergestützten Auswertung und/oder Bearbeitung eines Grauwert- Rasterbildes einer linienhaften Textur, insbesondere eines Fingerabdrucks, enthaltend (a) Generieren eines Konturbilds der linienhaften Textur aus dem Grauwert-Rasterbild; (b) Analysieren des Konturenverlaufs der linienhaften Textur innerhalb des Konturbilds zur Erstellung eines Richtungsbildes;
(c) Auswerten und/oder Bearbeiten des Grau wert- Rasterbildes unter Verwendung von im Richtungsbild enthaltenen Richtungsinformationen.
2. Verfahren nach Anspruch 1, enthaltend den weiteren Schritt des Binärisierens des Grauwert-Rasterbildes, wobei das Konturbild aus dem binärisierten Grauwert-Rasterbild generiert wird, wobei vorzugsweise das Binärisieren durch Glätten und anschließende Kantenextraktion erfolgt, und/oder nach dem Marr-Hildreth-Binärisierungsverfahren erfolgt.
3. Verfahren nach Anspruch 2 , wobei auf der Grundlage des binärisierten Grauwert- Rasterbildes ein Linienabstand der linienhaften Textur ermittelt wird.
4. Verfahren nach einem der Ansprüche 1 bis 3, wobei das Generieren des Richtungsbildes eine Ermittlung von Tangentenrichtungen der Konturen der linienhaften Textur im Konturbild umfaßt, wobei vorzugsweise die Tangentenrichtungen mittels eines entlang der Konturen geführten Zweibeins ermittelt werden, und/oder das Richtungsbild Richtungsinformationen in Form von Pixelrichtungen enthält, wobei vorzugsweise die Pixelrichtungen auf der Grundlage der Tangentenrichtungen ermittelt werden.
5. Verfahren nach einem der Ansprüche 1 bis 4, wobei Schritt (c) das anisotrope Glätten des Grauwert-Rasterbildes unter Zuhilfenahme von im Richtungsbild enthaltenen Richtungsinformationen umfaßt und vorzugsweise das anisotrope Glätten die Anwendung eines ein- oder mehrdimensionalen Filters in einer aus den Richtungsinformationen abgeleiteten Verlaufsrichtung einer Linie umfaßt.
6. Verfahren nach Anspruch 5, enthaltend den weiteren Schritt
(d) Binärisieren des anisotrop geglätteten Grauwert-Rasterbildes, und/oder
(e) Generieren eines Konturbildes aus dem binärisierten, anisotrop geglätteten Grauwert- Rasterbild; und/oder (f) Ermitteln von Merkmalen der linienhaften Textur auf der Grundlage des in Schritt (e) generierten Konturbildes.
7. Verfahren nach einem der Ansprüche 1 bis 6, wobei Schritt (c) das Generieren eines Gütebildes unter Zuhilfenahme von im Richtungsbild enthaltenen Richtungsinformationen um- faßt, wobei das Gütebild vorzugsweise nicht-verbesserbare Bereiche des Grauwert- Rasterbildes kennzeichnet und/oder aus einer lokalen Verteilung der Pixelrichtungen abgeleitet wird.
8. Verfahren nach einem der Ansprüche 1 bis 7, wobei Schritt (c) das Klassifizieren des Grauwert-Rasterbildes unter Zuhilfenahme der in dem Richtungsbild enthaltenen Richtungsinformationen umfaßt, wobei das Klassifizieren basierend auf globalen Merkmalen der linienhaften Texturen erfolgt, welche vorzugsweise Kern und Delta umfassen, und wobei vor- zugsweise diejenigen Bereiche des Grauwert-Rasterbildes auf globale Merkmale untersucht werden, welche keine genügende oder sich stark ändernde Richtungsinformationen umfassen,.
9. Verfahren nach Anspruch 8 , wobei Bereiche des Grauwert-Rasterbildes in der Umgebung von lokalen Merkmalen im Hinblick auf globale Merkmale untersucht werden.
10. Verfahren nach Anspruch 9, wobei die globalen Merkmale unter Zuhilfenahme des Poincare-Index identifiziert werden.
11. Verfahren nach einem der Ansprüche 19 bis 23, wobei benachbarte globale Merkmale i- dentifϊziert und zum Klassifizieren herangezogen werden, wobei das Klassifizieren vorzugsweise auf dem Henry-Klassifikationssystem oder einer Abwandlung davon basiert.
12. Verfahren zur computergestützten Ermittlung der lokalen Merkmale einer linienhaften Textur, insbesondere eines Fingerabdrucks, enthaltend
(a) Definieren von Merkmalskriterien;
(b) Bereitstellen eines gerasterten Konturbildes der linienhaften Textur;
(c) Analysieren des Konturenverlaufs der linienhaften Textur innerhalb des Konturbilds im Hinblick auf die Merkmalskriterien zur Ermittlung der lokalen Merkmale.
13. Verfahren nach Anspruch 12, wobei zur Ermittlung der lokalen Merkmale die lokale Krümmung der Kontur der linienhaften Textur analysiert wird.
14. Verfahren nach einem der Ansprüche 12 oder 13, wobei zumindest Linienenden und Li- nienverzweigungen als lokale Merkmale identifiziert werden.
15. Verfahren nach einem der Ansprüche 12 bis 14, wobei die Analyse des Konturverlaufs mittels eines entlang der Kontur geführten Zweibeins erfolgt und vorzugsweise gemäß einem ersten Merkmalskriterium der Winkel des Zweibeins kleiner als ein vorbestimmter erster Schwellenwert ist oder innerhalb eines vorbestimmten Winkelintervalls liegt, und gemäß einem zweiten Merkmalskriterium der Längenunterschied zwischen zwei Beinen des Zweibeins kleiner als ein vorbestimmter zweiter Schwellenwert ist, und gemäß einem dritten Merkmalskriterium der Längenunterschied zwischen einem der Beine des Zweibeins und der Länge der Kontur zwischen einem Anfangspunkt und einem Endpunkt dieses Beines auf der Kontur kleiner als ein vorbestimmte dritter Schwellenwert ist, wobei von jedem ermittelten lokalen Merkmale Koordinaten und ein relativer Winkel bestimmt werden, wobei der Winkel mittels der Senkrechten zur Tangentenrichtung der Kontur an der Stelle des lokalen Merkmals be- stimmt wird oder durch Mittelung von Tangentenrichtungen in der Umgebung des lokalen Merkmals bestimmt wird.
16. Verfahren nach Anspruch 15 , wobei die ermittelten lokalen Merkmale einer weiteren A- nalyse unterzogen werden, die vorzugsweise eine Beurteilung der Lage der ermittelten lokalen Merkmale und des Abstandes zwischen den ermittelten lokalen Merkmalen umfaßt, wobei alle ermittelten lokalen Merkmale, deren gegenseitiger Abstand geringer als ein vorbestimmter vierter Schwellenwert ist, nicht als lokale Merkmale identifiziert werden.
17. Verfahren nach Anspruch 16, wobei alle lokalen Merkmale, deren gegenseitiger Abstand größer als der vierte Schwellenwert, aber geringer als ein vorbestimmter fünfter Schwellenwert ist, zu einem einzigen lokalen Merkmale zusammengefaßt werden, wobei vorzugsweise, wenn um ein lokales Merkmal die Anzahl der benachbarten lokalen Merkmale geringer als ein vorbestimmter sechster Schwellenwert ist, das betreffende lokale Merkmal und die benachbarten lokalen Merkmale nicht als lokale Merkmale identifiziert werden.
18. Verfahren nach Anspruch 17 , wobei ein Gütebild bereitgestellt wird und alle lokalen Merkmale, die nicht innerhalb der Schnittmenge des Gütebilds und des Konturbilds liegen, nicht als lokale Merkmale identifiziert werden.
19. Verfahren nach Anspruch 18, wobei das Gütebild gemäß einem der vorhergehenden Ansprüche generiert wird, und, wobei das Konturbild gemäß einem der vorhergehenden Ansprüche generiert wird.
20. Verfahren zum computergestützten Vergleichen der lokalen Merkmale von linienhaften Texturen, insbesondere von Fingerabdrücken, bei dem zur Ermittlung korrespondierender lokaler Merkmale ein erster Satz lokaler Merkmale mit mindestens einem zweiten Satz lokaler Merkmale verglichen wird, enthaltend (a) automatisches Bestimmen mindestens eines geschätzten Satzes Transformationspara- meter für eine Transformation zwischen dem einen Satz lokaler Merkmale und dem anderen Satz lokaler Merkmale;
(b) Anwenden der Transformation auf der Grundlage des geschätzten Satzes Transformationsparameter auf die lokalen Merkmale des ersten Satzes lokaler Merkmale oder des zweiten Satzes lokaler Merkmale und Ermittlung korrespondierender lokaler Merkmale; und (c) automatisches Analysieren der in Schritt (b) ermittelten korrespondierenden lokalen Merkmale, wobei in Abhängigkeit von der Analyse eine iterative Korrektur des geschätzten Satzes Transformationsparameter derart erfolgt, daß Schritt (b) mit dem korrigierten Satz Transformationsparameter durchgeführt wird.
21. Verfahren nach Anspruch 21, wobei bei der iterativen Korrektur des geschätzten Satzes Transformationsparameter die in Schritt (b) ermittelten korrespondierenden lokalen Merkma¬ le als Ausgangspunkt dienen, wobei die iterative Korrektur vorzugsweise den Schritt des Optimierens einer Kostenfunktion umfaßt und/oder eine Korrektur von zumindest einem der Transformationsparameter Skalierungsfaktor, Rotationswinkel und Translationsvektor beinhaltet, wobei zur Korrektur des Translationsvektors vorzugsweise eine Varianzanalyse durchgeführt wird.
22. Verfahren nach einem der Ansprüche 20 oder 21, wobei die iterative Korrektur durchgeführt wird, wenn die in Schritt (b) ermittelten, korrespondierenden lokalen Merkmale ein erstes Gütekriterium zwar nicht erfüllen, aber ein zweites Gütekriterium erfüllen, das geringer als das erste Gütekriterium ist, wobei vorzugsweise die beiden Sätze lokaler Merkmale automatisch als nicht übereinstimmend bewertet werden, wenn weder das erste, noch das zweite Gütekriterium erfüllt ist, und wobei die beiden Sätze lokaler Merkmale automatisch als übereinstimmend bewertet werden, wenn das erste Gütekriterium erfüllt ist, und wobei die iterative Korrektur nicht durchgeführt wird, wenn die beiden Sätze lokaler Merkmale als ü- bereinstimmend oder als nicht übereinstimmend bewertet wurden, wobei das erste Gütekriterium dann erfüllt wird, wenn die Anzahl korrespondierender lokaler Merkmale über einem vorbestimmten, ersten Schwellenwert liegt, und wobei das zweite Gütekriterium dann erfüllt wird, wenn die Anzahl der korrespondierenden lokalen Merkmale unter dem ersten Schwellenwert, aber über einem vorbestimmten, zweiten Schwellenwert liegt.
23. Verfahren nach einem der Ansprüche 20 bis 22, wobei die Transformationsparameter im Hough-Raum geschätzt werden, und/oder, wobei in Schritt (a) das Bestimmen des geschätzten Satzes Transformationsparameter auf der Grundlage vorausgewählter Sätze Transformationsparameter erfolgt, und wobei alle diejenigen Sätze Transformationsparameter vorausgewählt werden, welche ein beliebiges lokale Merkmal des einen Satzes lokaler Merkmale auf ein beliebiges lokales Merkmal des zweiten Satzes lokales Merkmal abbilden, wobei vor- zugsweise die im Rahmen des Bestimmens eines geschätzten Satzes Transformationsparameter berechneten Transformationsparameterwerte quantisiert werden, wobei ein Transformationsparameterraum vorhanden ist, welcher einen Zähler für jeden quantisierten Transformationsparameterwert umfaßt, wobei für jeden berechneten Transformationsparameterwert der entsprechende Zähler erhöht wird.
24. Verfahren nach einem der Ansprüche 20 - 23, wobei in Schritt (a) derjenige Satz Transformationsparameter als geschätzter Satz Transformationsparameter herangezogen wird, welcher ein viertes Gütekriterium am besten erfüllt, und/oder wobei in Schritt (a) diejenigen Sätze Transformationsparameter als geschätzte Sätze Transformationsparameter herangezo- gen werden, welche ein fünftes Gütekriterium erfüllen., und/oder wobei die beiden Sätze lokaler Merkmale automatisch als nicht übereinstimmend bewertet werden, wenn in Schritt (a) kein Satz Transformationsparameter gefunden wird, der das vierte und/oder das fünfte Gü¬ tekriterium erfüllt, und/oder wobei in Schritt (c) ein lokales Merkmal des einen Satzes lokaler Merkmale und ein lokales Merkmal des anderen Satzes lokaler Merkmale als korrespondie- rend beurteilt werden, wenn der Abstand zwischen einem transformierten lokalen Merkmal des einen Satzes lokaler Merkmale und einem nicht transformierten lokalen Merkmal des an¬ deren Satzes lokaler Merkmale ein sechstes Gütekriterium erfüllt.
25. Verfahren zur computergestützten, biometrischen Identifikation und/oder Verifikation von Personen, enthaltend
(a) Bereitstellen eines Rasterbildes des Fingers einer Person; und
(b) Bearbeiten und/oder Auswerten des Rasterbildes nach einem der Ansprüche 1 bis 24.
26. Computersystem enthaltend Mittel zur Durchführung der Schritte der Ansprüche 1 bis 24.
27. Biometrisches Identifikations- und/oder Verifikationssystem, umfassend ein Computersystem nach Anspruch 26 zum Bearbeiten und/oder Auswerten des Rasterbildes eines Fin- gerabdrucks einer Person.
28. Computerprogrammprodukt umfassend einen Programmcode zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 29.
PCT/EP2002/003580 2001-04-12 2002-03-28 Automatische identifikation und/oder verifikation linienhafter texturen wie fingerabdrücke WO2002084576A2 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP02727510A EP1402460B1 (de) 2001-04-12 2002-03-28 Automatische identifikation und/oder verifikation linienhafter texturen wie fingerabdrücke
DE50210890T DE50210890D1 (de) 2001-04-12 2002-03-28 Automatische identifikation und/oder verifikation linienhafter texturen wie fingerabdrücke

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10118485A DE10118485B4 (de) 2001-04-12 2001-04-12 Automatische Identifikation und/oder Verifikation linienhafter Texturen wie Fingerabdrücke
DE10118485.9 2001-04-12

Publications (2)

Publication Number Publication Date
WO2002084576A2 true WO2002084576A2 (de) 2002-10-24
WO2002084576A3 WO2002084576A3 (de) 2003-02-13

Family

ID=7681504

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2002/003580 WO2002084576A2 (de) 2001-04-12 2002-03-28 Automatische identifikation und/oder verifikation linienhafter texturen wie fingerabdrücke

Country Status (4)

Country Link
EP (1) EP1402460B1 (de)
AT (1) ATE373281T1 (de)
DE (2) DE10118485B4 (de)
WO (1) WO2002084576A2 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9785818B2 (en) 2014-08-11 2017-10-10 Synaptics Incorporated Systems and methods for image alignment
CN114863493A (zh) * 2022-07-06 2022-08-05 北京圣点云信息技术有限公司 一种低质量指纹图像和非指纹图像的检测方法及检测装置

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT414278B (de) * 2002-12-11 2006-10-15 Siemens Ag Oesterreich Bestimmung der relativen lage zwischen fingerabdrücken im orientierungsfeldraum
DE10260642B4 (de) * 2002-12-23 2007-12-20 Siemens Ag Verfahren zur Erstellung einer Referenz für Fingerprints und zum Vergleich von Fingerprints
DE102015201669A1 (de) 2015-01-30 2016-08-04 Idencom Ag Elektronisches Zugangssystem mit mehreren Taktgebern und/oder Speichern
CN112689288A (zh) * 2020-12-18 2021-04-20 桂林电子科技大学 一种基于wann的射频指纹提取和识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2582831A1 (fr) * 1985-05-29 1986-12-05 Roger Ravel Procede d'identification d'une empreinte digitale, dispositif pour la mise en oeuvre de ce procede et utilisation de ce procede
EP0862131A2 (de) * 1997-02-27 1998-09-02 Nec Corporation System zum Passen von Streifenmuster
US5991430A (en) * 1996-11-26 1999-11-23 Wen-Hsing Hsu Method and device for automatic matching of planar point patterns
EP1058086A1 (de) * 1999-06-04 2000-12-06 CORTI, Luca Bestimmung des Durchmessers eines Kreises mit einem Armpaar und einem Winkel

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4628532A (en) * 1983-07-14 1986-12-09 Scan Optics, Inc. Alphanumeric handprint recognition
WO1993007584A1 (en) * 1991-10-07 1993-04-15 Cogent Systems, Inc. Method and system for detecting features of fingerprint in gray level image
AU706481B2 (en) * 1995-10-05 1999-06-17 Fujitsu Denso Ltd. Fingerprint registering method and fingerprint checking device
JP3172498B2 (ja) * 1998-10-02 2001-06-04 インターナショナル・ビジネス・マシーンズ・コーポレ−ション イメージ認識用特徴値抽出方法、およびその装置、イメージ解析プログラムを格納する記憶媒体
DE10043460C2 (de) * 2000-09-04 2003-01-30 Fraunhofer Ges Forschung Auffinden von Körperpartien durch Auswerten von Kantenrichtungsinformation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2582831A1 (fr) * 1985-05-29 1986-12-05 Roger Ravel Procede d'identification d'une empreinte digitale, dispositif pour la mise en oeuvre de ce procede et utilisation de ce procede
US5991430A (en) * 1996-11-26 1999-11-23 Wen-Hsing Hsu Method and device for automatic matching of planar point patterns
EP0862131A2 (de) * 1997-02-27 1998-09-02 Nec Corporation System zum Passen von Streifenmuster
EP1058086A1 (de) * 1999-06-04 2000-12-06 CORTI, Luca Bestimmung des Durchmessers eines Kreises mit einem Armpaar und einem Winkel

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
[INTERNET PUBLICATION OF STUDENT RESEARCH ON FINGERPRINT MATCHING, RICE UNIVERSITY, [Online] 2000, XP002205694 Houston, TX, USA Gefunden im Internet: <URL:http://www.owlnet.rice.edu/~elec301/P rojects00/roshankg/results.htm> [gefunden am 2002-07-11] *
ASAI K ET AL: "AUTOMATIC FINGERPRINT IDENTIFICATION" IMAGING APPL. FOR AUTOMATED INDUSTRIAL INSPECTION & ASSEMBLY, 19-20 APRIL, WASHINGTON, BELLINGHAM, WA, US, Bd. SPEI 182, 19. April 1979 (1979-04-19), Seiten 49-56, XP000407377 *
BALLAN M ET AL: "A fingerprint classification technique using directional images" SIGNALS, SYSTEMS & COMPUTERS, 1997. CONFERENCE RECORD OF THE THIRTY-FIRST ASILOMAR CONFERENCE ON PACIFIC GROVE, CA, USA 2-5 NOV. 1997, LOS ALAMITOS, CA, USA,IEEE COMPUT. SOC, US, 2. November 1997 (1997-11-02), Seiten 101-104, XP010280827 ISBN: 0-8186-8316-3 *
RATHA N K ET AL: "A REAL-TIME MATCHING SYSTEM FOR LARGE FINGERPRINT DATABASES" IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, IEEE INC. NEW YORK, US, Bd. 18, Nr. 8, 1. August 1996 (1996-08-01), Seiten 799-812, XP000632861 ISSN: 0162-8828 *
WILLARD K: "AN APPROACH TO THE AUTOMATIC RETRIEVAL OF LATENT FINGERPRINTS" PROCEEDINGS CARNAHAN CONFERENCE ON CRIME COUNTERMEASURES, XX, XX, 7. Mai 1975 (1975-05-07), Seiten 45-51, XP000614256 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9785818B2 (en) 2014-08-11 2017-10-10 Synaptics Incorporated Systems and methods for image alignment
CN114863493A (zh) * 2022-07-06 2022-08-05 北京圣点云信息技术有限公司 一种低质量指纹图像和非指纹图像的检测方法及检测装置
CN114863493B (zh) * 2022-07-06 2022-09-13 北京圣点云信息技术有限公司 一种低质量指纹图像和非指纹图像的检测方法及检测装置

Also Published As

Publication number Publication date
DE50210890D1 (de) 2007-10-25
ATE373281T1 (de) 2007-09-15
EP1402460B1 (de) 2007-09-12
DE10118485B4 (de) 2013-10-24
WO2002084576A3 (de) 2003-02-13
DE10118485A1 (de) 2002-10-24
EP1402460A2 (de) 2004-03-31

Similar Documents

Publication Publication Date Title
EP0780002B1 (de) Verfahren und vorrichtung zur rekonstruktion von in rasterform vorliegenden linienstrukturen
DE60016589T2 (de) Verfahren und vorrichtung zur erzeugung eines zusammengesetzten fingerabdruckbildes
DE69928297T2 (de) Verfahren und system zum vergleichen von fingerabdruckschablonen
DE60210348T2 (de) Bildidentifizierungssystem
DE102007035884B4 (de) Linienrauschunterdrückungsvorrichtung, -verfahren und -programm
DE19521346C2 (de) Bilduntersuchungs/-Erkennungsverfahren, darin verwendetes Verfahren zur Erzeugung von Referenzdaten und Vorrichtungen dafür
EP1119822B1 (de) Verfahren und system zur personenerkennung mit modellbasierter gesichtsfindung
DE69833999T2 (de) Verfahren zur automatischen erkennung menschlicher augen in digitalbildern
EP2584493B1 (de) Verfahren zur Unterscheidung zwischen einem realen Gesicht und einer zweidimensionalen Abbildung des Gesichts in einem biometrischen Erfassungsprozess
DE69623581T4 (de) Merkmalextrahierung zur Fingerabdruckerkennung
EP1316057B1 (de) Auswerten von kantenrichtungsinformation
DE602005001099T2 (de) Anordnung, Verfahren und Programm zur Bestimmung eines einfachen Vierfinger-Bildes
DE19634768A1 (de) Vorrichtung und Verfahren zur Erfassung eines Gesichts in einem Videobild
DE60200829T3 (de) Vorrichtung und Verfahren zur biometrischen Überprüfung und Erfassung der Identität einer Person mittels Fingerabdruckinformationen
DE19810792A1 (de) Verfahren zum Verifizieren der Authentizität eines im Rahmen einer Personenerkennung aufgenommenen Bildes
EP0886833B1 (de) Verfahren zur erfassung und speicherung gesichtsbezogener personendaten und deren verwendung zur identifizierung oder verifikation von personen
DE102006045828B4 (de) Verfahren und Vorrichtung zum Erkennen eines Gesichts sowie ein Gesichtserkennungsmodul
DE10260642B4 (de) Verfahren zur Erstellung einer Referenz für Fingerprints und zum Vergleich von Fingerprints
DE10118485B4 (de) Automatische Identifikation und/oder Verifikation linienhafter Texturen wie Fingerabdrücke
DE10260638B4 (de) Verfahren zur Bestimmung einer Anzahl von übereinstimmenden Minutien zweier Fingerprints
EP0996924B1 (de) Verfahren zur ermittlung eines identifikationscodes aus fingerabdruckbildern
WO2000028470A2 (de) Erzeugen eines abgerollten fingerabdruckbildes aus einer serie von einzelbildern
DE3238300A1 (de) Verfahren und vorrichtung zur muster- oder zeichenerkennung
DE102018222797A1 (de) Informationsverarbeitungsvorrichtung, Bildverarbeitungsverfahren und Aufzeichnungsmedium, auf dem das Bildverarbeitungsprogramm gespeichert ist
EP0843864B1 (de) Verfahren zum klassifizieren und wiedererkennen von mustern, wobei eine signatur durch das glätten eines polygonzugs erzeugt wird

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A2

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NO NZ OM PH PL PT RO RU SD SE SG SI SK SL TJ TM TN TR TT TZ UA UG US UZ VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A2

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
AK Designated states

Kind code of ref document: A3

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NO NZ OM PH PL PT RO RU SD SE SG SI SK SL TJ TM TN TR TT TZ UA UG US UZ VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A3

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2002727510

Country of ref document: EP

REG Reference to national code

Ref country code: DE

Ref legal event code: 8642

WWP Wipo information: published in national office

Ref document number: 2002727510

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: JP

WWW Wipo information: withdrawn in national office

Country of ref document: JP

WWG Wipo information: grant in national office

Ref document number: 2002727510

Country of ref document: EP