WO2007088926A1 - 画像処理、画像特徴抽出、および画像照合の装置、方法、およびプログラム並びに画像照合システム - Google Patents

画像処理、画像特徴抽出、および画像照合の装置、方法、およびプログラム並びに画像照合システム Download PDF

Info

Publication number
WO2007088926A1
WO2007088926A1 PCT/JP2007/051692 JP2007051692W WO2007088926A1 WO 2007088926 A1 WO2007088926 A1 WO 2007088926A1 JP 2007051692 W JP2007051692 W JP 2007051692W WO 2007088926 A1 WO2007088926 A1 WO 2007088926A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
data
feature
collation
dividing
Prior art date
Application number
PCT/JP2007/051692
Other languages
English (en)
French (fr)
Inventor
Lei Huang
Original Assignee
Nec Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nec Corporation filed Critical Nec Corporation
Priority to JP2007556909A priority Critical patent/JPWO2007088926A1/ja
Priority to US12/223,390 priority patent/US8195005B2/en
Publication of WO2007088926A1 publication Critical patent/WO2007088926A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration using non-spatial domain filtering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • A61B5/7257Details of waveform analysis characterised by using transforms using Fourier transforms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]

Definitions

  • Image processing, image feature extraction, and image collation apparatus method, program, and image collation system
  • the present invention relates to an apparatus, method, and program for image processing, image feature extraction, and image matching, and an image matching system, and in particular, fingerprints, palm prints, nose prints, irises, faces, blood vessel patterns, and texture patterns.
  • the present invention relates to image processing, image feature extraction, and image matching technology that can be suitably used for images.
  • image processing techniques for noise removal or image enhancement for images have been known as pre-processing for image display apparatuses or image feature extraction processing and image matching processing.
  • image processing apparatus is described in Patent Document 1.
  • This conventional image processing apparatus includes block dividing means, Fourier transform means, maximum amplitude frequency search means, noise power suppression means, inverse Fourier transform means, and image reconstruction means.
  • the block dividing means divides the input image into a plurality of minute blocks.
  • the Fourier transform means performs discrete Fourier transform on the obtained image of each block.
  • the maximum amplitude frequency search means searches for the frequency with the maximum amplitude for the obtained Fourier component information.
  • the noise power suppression means sets the gain at each frequency so as to take a smaller value as it goes outward with the searched frequency having the maximum amplitude as the center, and multiplies the Fourier component information by the gain.
  • the inverse Fourier transform means performs an inverse discrete Fourier transform on the Fourier component whose amplitude has been changed.
  • the image reconstruction means composes the entire restored image by combining the converted images of each block.
  • the conventional image processing apparatus having such a configuration operates as follows.
  • the image is Fourier transformed for each minute block, the frequency component having the maximum amplitude is found for each block, and it is estimated as the frequency component of the main stripe pattern in that block, and its frequency As for the component force, the frequency component with the farther frequency increases the value of the frequency component to reduce the noise, thereby enhancing the ridge.
  • Patent Document 1 JP 2005-115548 A (Page 4-5, Fig. 2)
  • the first problem is that an uncertain image processing result may be obtained.
  • the stripe pattern for each small area is a two-dimensional sine wave. Therefore, if the size of the small area is set large, the possibility of ridges in various directions being included in the narrowly spaced area of the stripe pattern increases, and the restoration accuracy of the small area image decreases. On the other hand, if the size of the small area is set to a small size to avoid it, the restoration accuracy of the image may be reduced in the area with wide stripes.
  • a second problem is that an uncertain structure pattern or feature point information may also extract image power.
  • the reason for this is that the result of image binarization, structure pattern extraction, or feature point extraction depends on the result of image restoration processing such as image denoising.
  • a third problem is that an uncertain comparison result between images may be obtained. This is because the result of matching between images depends on the structure pattern or feature point information extracted from the image cover.
  • a fourth problem is that when the identification accuracy of the image collation system is lowered! The reason is that the collation score between images in the image collation system depends on the collation result between images, and the identification error rate of the image collation system increases due to the uncertainty of the collation score between images.
  • the present invention has been made in consideration of the above-described conventional circumstances, and includes any of image restoration processing, image feature extraction processing, and inter-image matching processing regarding the image segmentation method. Its purpose is to eliminate the instability of any of the processing results and improve the accuracy of image verification.
  • an image processing apparatus includes an image enhancement unit that enhances an input image for each divided region, and the input image according to a plurality of input image division methods. And an image integration means for generating an integrated image by synthesizing input images that have been image-enhanced using the plurality of input image dividing methods.
  • the image enhancement means may perform preprocessing for extracting features of the input image.
  • the image enhancement means may remove noise from the input image.
  • the image integration means uses the average value of the pixel values at the same position of the input image that is image-enhanced using the plurality of input image division methods as the pixel value of the pixel at the same position of the integrated image. Moyo.
  • An image feature extraction apparatus includes an image feature extraction unit that divides an input image into a plurality of regions and extracts image features for each region, and the image feature extraction unit includes a plurality of input image division methods. And an image feature output means for outputting a plurality of feature data extracted by using the plurality of input image segmentation methods.
  • the present invention may further include feature integration means for generating overall integrated feature data using the plurality of feature data.
  • the feature integration unit may use an average value of corresponding feature amounts of the plurality of feature data as the feature amount of the integrated feature data.
  • the image matching apparatus includes a matching unit that divides an input image into a plurality of regions, extracts image features for each of the regions, and collates with authentication feature data to generate a matching result.
  • a control means for causing the means to act on the input image according to a plurality of input image segmentation methods, and a collation integration means for integrating a plurality of collation result force collation data collated using the plurality of input image segmentation methods. It is provided with.
  • the collation integration unit may use a common corresponding feature amount of the plurality of pieces of collation data as a corresponding feature amount of the integrated collation data.
  • the plurality of input image dividing methods may be different in at least one of the position, size, and shape of the divided area.
  • An image processing method provides a predetermined image segmentation for image data.
  • the method includes the steps of obtaining a plurality of processed image data by performing processing in a different manner and generating integrated image data using the plurality of processed image data.
  • An image collating method includes a step of obtaining a plurality of feature data by changing a preset image dividing method for image data, and a plurality of feature data and an authentication input from an external force And a step of obtaining a plurality of pieces of collation data by collating with the feature data, and a step of generating integrated collation data using the plurality of pieces of collation data.
  • the step of obtaining the plurality of processed image data may be performed by changing at least one of a position, a size, and a shape of a divided region of the image to change the image dividing method. Also good.
  • the image collation system is configured to input means for obtaining a plurality of feature data by changing a preset image division method with respect to the image data, the plurality of feature data, and an external input.
  • Means for collating the authentication feature data to obtain a plurality of pieces of collation score data means for generating integrated collation score data using the plurality of pieces of collation score data, the integrated collation score data and a preset threshold value, And a means for performing authentication by comparing the two.
  • the means for obtaining the plurality of feature data may change the image dividing method by changing at least one of the position, size, and shape of the divided area of the image. Yes. Further, the means for generating the integrated collation score data may obtain at least one of an average value, a maximum value, and a minimum value of the plurality of collation score data as a value of the integrated collation score data.
  • An image processing program includes a step of processing a computer by changing a preset image division method to obtain a plurality of processed image data. Integrated image data using the plurality of processed image data The generating step is executed.
  • An image feature extraction program uses a plurality of feature data to obtain a plurality of feature data by changing a preset image division method for image data to a computer. And generating the integrated feature data.
  • An image verification program includes a step of obtaining a plurality of feature data by changing a preset image division method for image data to a computer, and the plurality of feature data and an external The authentication feature data input from the above is collated to obtain a plurality of pieces of collation data, and the step of generating integrated collation data using the plurality of pieces of collation data.
  • the instability of the processing result of any one of the image restoration processing, the image feature extraction processing, and the matching processing between images regarding the image segmentation method is removed, and the image matching processing is performed. Identification accuracy can be increased.
  • FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to a first embodiment of the present invention.
  • FIG. 2 is a flowchart showing the operation of the image processing apparatus according to the first embodiment.
  • FIGS. 3A to 3E are diagrams showing specific examples of a plurality of image division methods.
  • FIG. 4 (A) to (D) are diagrams showing other specific examples of a plurality of image division methods.
  • FIG. 5 is a block diagram showing a configuration of an image feature extraction apparatus according to a second embodiment of the present invention.
  • FIG. 6 is a flowchart showing the operation of the image feature extraction apparatus according to the second embodiment of the present invention.
  • FIG. 7 is a block diagram showing a configuration of an image collating apparatus according to a third embodiment of the present invention.
  • FIG. 8 is a flowchart showing an operation at the time of registration of the image collating apparatus according to the third embodiment of the present invention.
  • FIG. 9 is a flowchart showing an operation at the time of collation of the image collating apparatus according to the third embodiment of the present invention.
  • FIG. 10 is a flowchart showing an operation at the time of collation of the image collating apparatus according to the fourth embodiment of the present invention.
  • an image processing method or an image feature extraction method restores an image to be processed or performs feature extraction processing, and outputs the processing result to an output device such as a display.
  • the image matching method or the image matching system compares the image data to be matched with the image data or feature data stored in the database, and outputs the matching result such as the matching score to an output device such as a display. Is displayed, or compared with a determination threshold value to make an identification determination.
  • These images to be processed include, for example, human and animal fingerprints, palm prints, nose prints, faces, Examples include iris and blood vessel pattern images.
  • a fingerprint image will be described as an example of an image to be processed.
  • the present invention is not limited to fingerprint images, and can be applied to misaligned images as long as they are within the technical scope of the present invention.
  • the image processing apparatus includes an image input unit 1 that holds and supplies a fingerprint image input by a fingerprint direct input device or the like, and data processing that operates under program control.
  • the apparatus 2 includes a result output unit 3 for outputting a processing result.
  • the data processing device 2 functionally includes an image division method dictionary 22, an image division unit 23, an image processing unit 24, an image integration unit 25, and a control unit 21.
  • the image division method dictionary 22 stores a plurality of image division methods (see later) for dividing the fingerprint image given from the image input unit 1 into small regions.
  • the image dividing means 23 divides the fingerprint image given by the image input unit 1 into small regions according to the image dividing method specified in the image dividing method dictionary 22.
  • the image processing means 24 processes the image data of each small area of the fingerprint image divided by the image dividing means 23 to generate image restoration data.
  • the image integration unit 25 generates one integrated image data from the image restoration data corresponding to each image division method processed by the image processing unit 24.
  • the control unit 21 controls each unit of the data processing device 2.
  • the functions of these means are realized by the computer executing a preset program. This program is stored in a storage medium such as a memory node disk.
  • the fingerprint image given from the image input unit 1 is supplied to the control unit 21 (step Al in FIG. 2).
  • the control unit 21 searches the image division method dictionary 22 in which a plurality of image division methods are stored, and is still selected, and captures and imports one image division method from among the image division methods.
  • the fingerprint image given from the image dividing method and the image input unit 1 is supplied to the image dividing means 23 (step A2).
  • a division method as shown in FIG.
  • Fig. 3 (A) is a schematic diagram of a fingerprint image
  • Figs. 3 (B) to 3 (E) are examples in which the same fingerprint image is divided by four different block division methods. is there.
  • the entire area where the fingerprint is impressed is divided into blocks of the same size in 4 columns vertically and 4 rows horizontally. Since the positions are different, all block division methods are different. Further, in this example, the force that does not overlap between adjacent blocks is set so as to partially overlap between adjacent blocks as described in, for example, JP-A-2005-115548. I can do it. Also, by changing the type of image division method, the size and shape of the divided small area can be set differently from the example of FIG.
  • FIG. 4 (A) is a schematic diagram of a fingerprint image
  • Figs. 4 (B) to 4 (D) are divided by three types of block division methods with different block sizes for the same fingerprint image. It is an example. In this example, all block division methods are different because the block size of each block division method is different.
  • FIGS. 3 and 4 the case where the position of the divided small area is changed and the case where the size of the divided small area is changed are described, respectively, and the shape of the divided small area is described.
  • the shape is not limited to the rectangular shape shown in the examples of FIGS. 3 and 4, but can be applied to a polygonal shape such as a triangular shape, a pentagonal shape, and a hexagonal shape.
  • the image dividing means 23 divides the fingerprint image into small areas according to the image dividing method given from the control unit 21 and supplies the small area image data to the image processing means 24 (step) A3).
  • the image processing means 24 performs image processing on the small region image data given from the control unit 21, reconstructs the entire restored image based on the processing result, and reconstructs the reconstructed image restored data. This is supplied to the control unit 21 (step A4).
  • This image processing means 24 can be realized by a conventional technique.
  • each block image obtained by the block dividing means is converted into a frequency component by discrete Fourier transform, and the amplitude is maximum with respect to the field component information obtained by Fourier transform.
  • Find the frequency that becomes and the frequency that maximizes the amplitude The gain at each frequency is set so that the value becomes smaller toward the outside of the center, and the Fourier component information is multiplied by the gain to suppress the noise power. Describes the noise removal method that composes the entire restored image by combining the images of each block transformed and transformed by inverse Fourier transform
  • control unit 21 determines whether there is an image division method that is not read in the control unit 21 among the image division methods stored in the image division method dictionary 22 (Step S1). A5). As a result, when there is still an image division method that has not been read in the control unit 21 (step A5: YES), the control unit 21 performs the processing from step A2 to step A4 until there is no image division method that has not been read. Repeatedly. On the other hand, when there is no image division method force S that has not been read by the control unit 21 (step A5: NO), the control unit 21 reads the image data processed by the image processing means 24 corresponding to each image division method. Is supplied to the image integration means 25.
  • the image integration unit 25 generates one integrated image data from a plurality of image restoration data corresponding to each image division method given from the control unit 21, and supplies the integrated image data to the control unit 21 as a processing result. (Step A6).
  • this image integration method the average value of the pixel values of the pixels at the same position of each image restoration data is obtained for a plurality of image restoration data processed by the image processing means 24 corresponding to the image division method. By adopting new pixel values, the entire image data after integration is constructed.
  • control unit 21 gives the integrated image data given from the image integration unit 25 to the result output unit 3 (step A7).
  • the output device here may be a display device such as a display, for example, when the operator inspects the quality of the restored fingerprint image.
  • a plurality of image division methods are stored in advance, input image data is processed for each image division method, and an image processing result corresponding to each image division method is stored as one image.
  • the image processing apparatus of the present invention can be constructed with a simple configuration.
  • the image feature extraction device includes an image input unit 1 that holds and supplies a fingerprint image input by a fingerprint direct input device or the like, and data that operates under program control.
  • the processing apparatus 2a and a result output unit 3a for outputting a processing result are configured.
  • the data processing device 2a functionally includes an image division method dictionary 22, an image division unit 23, a feature extraction unit 24a, a feature integration unit 25a, and a control unit 21a.
  • the feature extracting unit 24a processes the image data of each small area of the fingerprint image divided by the image dividing unit 23, and extracts features based on the processing result.
  • the feature integration unit 25a integrates feature data corresponding to each image segmentation method extracted by the feature extraction unit 24a.
  • the control unit 21a controls each unit of the data processing device 2a. The functions of these means are realized by the computer executing a preset program. This program is stored in a storage medium such as a memory node disk.
  • the fingerprint image given from the image input unit 1 is supplied to the control unit 21a (step Bl in FIG. 5).
  • the control unit 21a searches the image division method dictionary 22 in which a plurality of image division methods are stored, and takes in and imports one image division method from among the image division methods that are still selected.
  • the fingerprint image given from the image dividing method and the image input unit 1 is supplied to the image dividing means 23 (step B2). Since the plurality of image division methods are the same as those in the first embodiment (see the description of step A2), the description thereof is omitted.
  • the image dividing unit 23 divides the fingerprint image into small regions according to the image dividing method given from the control unit 21a, and supplies the small region image data to the feature extracting unit 24a (see FIG. Step B3).
  • the feature extraction unit 24a performs image processing on the small area image data given from the control unit 21a, reconstructs the entire image based on the processing result, and reconstructed image restoration data.
  • the features are extracted from the data, and the extracted feature data is supplied to the control unit 21a (step B4).
  • the image processing method and the image reconstruction method are the same as those in the first embodiment (see the description of step A4), and thus the description thereof is omitted.
  • the method of extracting features from this image can be realized by conventional techniques.
  • Japanese Examined Patent Publication No. 60-1267 4 describes a technique for extracting feature points of a fingerprint pattern and a direction at the point.
  • control unit 21a determines whether there is an image division method that is not read in the control unit 21a among the image division methods stored in the image division method dictionary 22. (Step B5). As a result, if there is still an image division method that has not been read in the control unit 21a (step B5: YES), the control unit 21a performs steps B2 to B4 until there are no more image division methods that have not been read. Repeat the process. On the other hand, when the image segmentation method that has not been read by the control unit 21a is no longer available (step B5: NO), the control unit 21a receives the feature data extracted by the feature extraction unit 24a corresponding to each image segmentation method. Supply to the feature integration means 25a.
  • the feature integration unit 25a integrates the feature data extracted by the feature extraction unit 24a corresponding to each image division method given from the control unit 21a into one integrated feature data, and obtains the processing result. This is supplied to the control unit 21a (step B6).
  • a plurality of feature data extracted by the feature extraction means 24a corresponding to the image segmentation method is subjected to a matching process, and the average value of the position and direction of the associated feature points is determined as a new feature point.
  • the entire feature data after integration is constructed.
  • This collation process itself can be realized by conventional techniques. For example, it is described in detail in JP-A-59-142676.
  • the control unit 21a gives the processing result feature data given from the feature integration unit 25a to the result output unit 3a (step B7).
  • the output device here is, for example, a display or the like for an application where an operator inspects feature data extracted from a fingerprint image. It may be a display device. Also, if the integrated feature data is displayed on a display or the like superimposed on the input fingerprint image data, it is easy for the operator to inspect. In addition, multiple feature data may be output directly to an output device such as a display without being integrated into a single integrated feature data, and quality may be inspected.
  • a plurality of image segmentation methods are stored in advance, input image data is processed for each image segmentation method, and a feature extraction result corresponding to each image segmentation method is stored as one.
  • an image matching device (image matching system) according to the present embodiment includes an image input unit 1 that holds and supplies a fingerprint image input by a fingerprint direct input device or the like, and a program A data processing device 2b that operates under control and a result output unit 3b that outputs a processing result are included.
  • the data processing device 2b is functionally controlled by an image division method dictionary 22, an image division unit 23, a feature extraction unit 24a, a database unit 26, a collation unit 27, and a collation result integration unit 25b. Part 21b.
  • the image division method dictionary 22, the image division unit 23, and the feature extraction unit 24a are the same as those in the second embodiment, the description thereof is omitted.
  • the database unit 26 feature data corresponding to each image segmentation method extracted by the feature extraction unit 24a is registered.
  • the collation means 27 collates the feature data of the fingerprint image extracted by the feature extraction means 24a with the feature data corresponding to each image segmentation method registered in the database 26, and as a collation result, the collation data or Generate a matching score.
  • the collation result integrating unit 25b integrates the collation results corresponding to the respective image dividing methods collated by the collating unit 27.
  • the control unit 21b controls each unit of the data processing device 2b.
  • step Cl there is a flowchart showing the operation at the time of fingerprint registration, and the fingerprint image given from the image input unit 1 is supplied to the control unit 21b (step Cl).
  • control unit 21b stores a plurality of image dividing methods !, searches the image dividing method dictionary 22 and selects one image dividing method from among the image dividing methods.
  • the acquired image dividing method and the fingerprint image given from the image input unit 1 are supplied to the image dividing means 23 (step C2). Since the plurality of image dividing methods are the same as those in the second embodiment (explanation in step B2), the description thereof is omitted.
  • the image dividing unit 23 divides the fingerprint image into small regions according to the image dividing method given from the control unit 21b, and supplies the small region image data to the feature extracting unit 24a. Step C3).
  • the feature extraction unit 24a performs image processing on the small region image data given from the control unit 21b, reconstructs the entire image based on the processing result, and reconstructed image data.
  • the feature is extracted from the data and the extracted feature data is supplied to the control unit 21b (step C4). Since these image processing, image reconstruction, and feature extraction methods are the same as those in the second embodiment (see the description of step B4), description thereof is omitted.
  • control unit 21b determines whether there is an image division method that is not read in the control unit 21b among the image division methods stored in the image division method dictionary 22 ( Step C5). As a result, if there is still an image division method that has not been read in the control unit 21b (step C5: YES), the control unit 21b performs steps C2 to C4 until there are no more image division methods that have not been read. Repeat the process.
  • step C5 when read by the control unit 21b, if the image division method power S is another case (step C5: NO), the control unit 21b performs feature extraction means 24a corresponding to each image division method. The feature data of the fingerprint image extracted by the above is registered in the database unit 26 (step C6). Finally, the control unit 21b gives a registration result such as normal end or abnormal end to the result output unit 3b (step C7).
  • FIG. 9 there is a flowchart showing the operation at the time of collation, and the fingerprint image given by the image input unit 1 is supplied to the control unit 21b (step Dl).
  • control unit 21b stores a plurality of image division methods !, searches the image division method dictionary 22 and selects one image division method from among the image division methods.
  • the acquired image dividing method and the fingerprint image given from the image input unit 1 are supplied to the image dividing means 23 (step D2).
  • the plurality of image division methods are the same as those in the second embodiment (see the description of step B2), and thus the description thereof is omitted.
  • the image dividing unit 23 divides the fingerprint image into small regions according to the image dividing method given from the control unit 21b, and supplies the small region image data to the feature extracting unit 24a (step D3 ).
  • the feature extraction unit 24a performs image processing on the small region image data given from the control unit 21b, reconstructs the entire image based on the processing result, and reconstructed image data.
  • the feature is extracted from the data and the extracted feature data is supplied to the control unit 21b (step D4). Since these image processing, image reconstruction, and feature extraction methods are the same as those in the second embodiment (see the description of step B4), description thereof is omitted.
  • control unit 21b determines whether there is an image division method that is not read in the control unit 21b among the image division methods stored in the image division method dictionary 22. (Step D5). As a result, if there is still an image division method that has not been read into the control unit 21b (step D5: YES), the control unit 21b performs steps D2 to D4 until there are no more image division methods that have not been read. Repeat the process.
  • step D5 when read by the control unit 21b, if the image division method power S is another case (step D5: NO), the control unit 21b reads each image division method registered in the database unit 26. And the feature data corresponding to each image segmentation method extracted from the input fingerprint image are supplied to the collating means 27. Next, the collating means 27 collates the feature data corresponding to each image segmentation method from which the input fingerprint image has been extracted and the registered feature data corresponding to each image segmentation method, and performs collation processing. Alternatively, the matching score is supplied to the matching result integrating means 25b (step D6).
  • the combination method of collation processing can be set so that collation processing is performed for all combinations of a plurality of feature data of the input fingerprint image and a plurality of registered feature data.
  • This matching process itself can be realized by conventional techniques. For example, it is described in detail in JP-A-59-142676.
  • the collation result integrating unit 25b integrates the given collation data or collation score, and supplies the collation data or collation score after the integration to the control unit 21b (step D7).
  • the integrated collation data may be configured by adopting a common corresponding feature quantity of a plurality of collation data as a new feature quantity.
  • the matching scores are integrated, an average value of all the matching scores is adopted as a new matching score value, thereby forming a combined matching score.
  • it is possible to set so that the collation score after integration is constituted by adopting the maximum value or the minimum value of all the collation scores as a new collation score value.
  • control unit 21b gives the given collation data or collation score to the result output unit 3b (step D8).
  • the integrated output score is compared with a predetermined match score threshold, and the comparison result is compared with the result output unit 3b as a determination result of whether or not the fingerprint images to be compared are of the same finger. May be output.
  • a plurality of image segmentation methods are stored in advance, input image data is processed for each image segmentation method, and the feature extraction result and database corresponding to each image segmentation method are stored.
  • collating with the registered feature data to be compared and integrating the obtained collation results it is possible to reduce the uncertainty of the collation result data related to the image segmentation method and provide a stable collation result. For this reason, the uncertainty of the matching score between images and the identification error rate of the image matching system can be reduced, and the identification accuracy of the image matching system can be improved.
  • step E1 there is a flowchart showing the operation at the time of collation, and the fingerprint image given by the image input unit 1 is supplied to the image dividing means 23 through the control unit 21b (step E1).
  • the image dividing means 23 divides the fingerprint image into small areas according to the fixed image dividing method, and supplies the small area image data to the feature extracting means 24a (step E2).
  • the feature extraction unit 24a performs image processing on the small region image data given from the control unit 21b, reconstructs the entire image based on the processing result, and reconstructed image data.
  • the feature is extracted from the data, and the extracted feature data is supplied to the controller 21b (step E3). Since these image processing, image reconstruction, and feature extraction methods are the same as those in the second embodiment (see the description of step B4), description thereof is omitted.
  • control unit 21b reads the feature data corresponding to each image division method registered in the database unit 26, and is registered in the database unit 26 with the feature data of the given fingerprint image!
  • the feature data corresponding to each image division method is supplied to the collating means 27 (step E4).
  • the matching unit 27 performs a matching process on the feature data extracted from the fingerprint image and the feature data registered in the database unit 26 and corresponding to each image segmentation method to obtain a matching result or a matching.
  • the score is supplied to the collation result integrating means 25b (step E5).
  • This combination method of collation processing can be set to perform collation processing with the feature data of the input fingerprint image and each of the plurality of feature data to be compared.
  • This matching process itself can be realized by conventional techniques. For example, it is described in detail in JP-A-59-142676.
  • the collation result integration unit 25b integrates the given collation results or collation scores, and supplies the collation results or collation scores after integration to the control unit 21b (step E6).
  • the matching scores are integrated, the average value of all the matching scores is adopted as a new matching score value, thereby forming the combined matching score.
  • all matching scores By adopting the maximum value or the minimum value as a new collation score value, it is possible to set the collation score after integration.
  • control unit 21b provides the given collation result or collation score to the result output unit 3b (step E7).
  • the present embodiment since the number of feature extraction processes with a large amount of processing at the time of collation is only one, stable verification can be performed even in an apparatus such as a portable terminal with a small amount of calculation resources. It is possible to achieve an effect of realizing a highly accurate fingerprint personal authentication function that can obtain a result.
  • the image processing device the image feature extraction device according to the second embodiment, and the image matching device according to the third and fourth embodiments (image matching system)
  • the program code to be used and the recording medium for recording the program code are included in the scope of the present invention.
  • those program codes are also included.
  • the present invention relates to an apparatus, a method, a program, and an apparatus for performing image processing, image feature extraction, and image matching that can be suitably used for images such as fingerprints, palm prints, nose prints, irises, faces, blood vessel patterns, and texture pattern images. It can be used for the purpose of an image matching system.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

 画像の分割方法に関する、画像の復元処理、画像の特徴抽出処理および画像間の照合処理のいずれかの処理結果の不安定性を除去して、画像照合の識別精度を高める。画像処理装置は、画像入力部、データ処理部、及び結果出力部を備える。データ処理部は、制御部、画像分割方法辞書、画像分割手段、画像処理手段及び画像統合手段を有する。画像分割手段は、画像分割方法辞書に予め設定された複数の画像分割方法に従って画像データを複数の領域に分割する。画像処理手段は、複数の画像分割方法に従って画像分割手段により分割された画像データに処理を施して、複数の画像復元データを生成する。画像統合手段は、複数の画像分割方法に従って画像分割手段の処理と画像処理手段の処理によって得られた複数の画像復元データを用いて、全体の統合画像データを生成する。

Description

画像処理、画像特徴抽出、および画像照合の装置、方法、およびプログ ラム並びに画像照合システム 技術分野
[0001] 本発明は、画像処理、画像特徴抽出、および画像照合の装置、方法、およびプロ グラム並びに画像照合システムに関し、特に指紋、掌紋、鼻紋、虹彩、顔、血管バタ ーン、テクスチャーパターン画像に好適に利用できる画像処理、画像特徴抽出、およ び画像照合技術に関する。
背景技術
[0002] 従来より、画像を表示する装置にお!ヽて、または画像特徴抽出処理、画像照合処 理の前処理として、画像に対する雑音除去または画像強調の画像処理技術が知ら れている。その画像処理装置の一例力 特許文献 1に記載されている。
[0003] この従来例の画像処理装置は、ブロック分割手段、フーリエ変換手段、最大振幅周 波数探索手段、雑音パワー抑制手段、逆フーリエ変換手段、及び画像再構成手段 カゝら構成されている。ブロック分割手段は、入力画像を複数の微小なブロックに分割 する。フーリエ変換手段は、得られた各ブロックの画像を離散フーリエ変換する。最 大振幅周波数探索手段は、得られたフーリエ成分情報に対して、振幅が最大となる 周波数を探す。雑音パワー抑制手段は、探索された、振幅が最大となる周波数を中 心として、その外側にいくほど小さな値を取るように各周波数におけるゲインを設定し 、該ゲインをフーリエ成分情報に乗ずる。逆フーリエ変換手段は、前記の振幅を変え られたフーリエ成分を逆離散フーリエ変換する。画像再構成手段は、変換された各 ブロックの画像を組み合わせて復元後の全体の画像を構成する。
[0004] このような構成を有する従来例の画像処理装置は、つぎのように動作する。すなわ ち、微小なブロック毎に画像をフーリエ変換し、各ブロック毎に、最大の振幅を持つ周 波数成分を見つけて、それをそのブロックにおける主な縞模様の周波数成分と推定 し、その周波数成分力も周波数が離れた周波数成分ほどその周波数成分の値を減 少させる処理を行うことにより雑音を減少させて隆線を強調する。 特許文献 1 :特開 2005— 115548号公報 (第 4— 5頁、図 2)
発明の開示
発明が解決しょうとする課題
[0005] し力しながら、上述した従来例の画像処理装置では次のような問題があった。
[0006] 第 1の問題点は、不確実な画像処理結果が得られる可能性があるということである。
その理由は、指紋を構成する縞模様の間隔には個人差があり、また一枚の画像中で も様々に分布していて、従来の技術では、小領域ごとの縞模様が 2次元正弦波で近 似されるため、小領域のサイズを大きめに設定すると、縞模様の狭い間隔の領域で は様々な方向の隆線が含まれる可能性が高まり、小領域画像の復元精度が低下す る可能性があり、一方、それを避けるために小領域のサイズを小さめに設定すると、 縞模様の広い間隔の領域では画像の復元精度が低下する可能性があるためである
[0007] 第 2の問題点は、不確実な構造パターンまたは特徴点情報が画像力も抽出される 可能性があるということである。その理由は、画像の 2値化処理結果や構造パターン の抽出結果、または特徴点の抽出結果は画像の雑音除去などの画像復元処理の結 果に依存するためである。
[0008] 第 3の問題点は、画像間の不確実な照合結果が得られる可能性があるということで ある。その理由は、画像間の照合結果は画像カゝら抽出された構造パターンまたは特 徴点情報に依存するためである。
[0009] 第 4の問題点は、画像照合システムの識別精度が低下すると!/、うことである。その理 由は、画像照合システムにおける画像間の照合スコアが画像間の照合結果に依存し 、画像間の照合スコアの不確実性により、画像照合システムの識別エラー率が増大 するためである。
[0010] 本発明は、上記のような従来の事情を考慮してなされたもので、画像の分割方法に 関する、画像の復元処理、画像の特徴抽出処理、および画像間の照合処理のいず れかの処理結果の不安定性を除去して、画像照合の識別精度を高めることを、その 目的とする。
課題を解決するための手段 [0011] 上記目的を達成するため、本発明に係る画像処理装置は、入力画像を分割領域 毎に画像強調する画像強調手段と、前記画像強調手段を複数の入力画像分割方法 にしたがって前記入力画像に作用させる制御手段と、前記複数の入力画像分割方 法を利用して画像強調された入力画像を合成して統合画像を生成する画像統合手 段とを備えたことを特徴とする。
[0012] 本発明において、前記画像強調手段は、前記入力画像の特徴を抽出するための 前処理を施してもよい。前記画像強調手段は、前記入力画像から雑音を除去しても よい。前記画像統合手段は、前記複数の入力画像分割方法を利用して画像強調さ れた入力画像の同じ位置にある画素の画素値の平均値を前記統合画像の同じ位置 にある画素の画素値としてもよ 、。
[0013] 本発明に係る画像特徴抽出装置は、入力画像を複数の領域に分割し該領域毎に 画像特徴を抽出する画像特徴抽出手段と、前記画像特徴抽出手段を複数の入力画 像分割方法にしたがって前記入力画像に作用させる制御手段と、前記複数の入力 画像分割方法を利用して抽出された複数の特徴データを出力する画像特徴出力手 段とを備えたことを特徴とする。
[0014] 本発明にお 、て、前記複数の特徴データを用いて、全体の統合特徴データを生成 する特徴統合手段をさらに備えてもよい。前記特徴統合手段は、前記複数の特徴デ ータの対応特徴量の平均値を前記統合特徴データの特徴量としてもよい。
[0015] 本発明に係る画像照合装置は、入力画像を複数の領域に分割し該領域毎に画像 特徴を抽出し認証用特徴データと照合して照合結果を生成する照合手段と、前記照 合手段を複数の入力画像分割方法にしたがって前記入力画像に作用させる制御手 段と、前記複数の入力画像分割方法を利用して照合された複数の照合結果力 照 合データを統合する照合統合手段とを備えたことを特徴とする。
[0016] 本発明にお 、て、前記照合統合手段は、前記複数の照合データの共通対応特徴 量を、統合された照合データの対応特徴量としてもよい。
[0017] 上記の各装置にお!、て、前記複数の入力画像分割方法は、分割領域の位置、サ ィズ、及び形状の少なくとも 1つが異なってもよ 、。
[0018] 本発明に係る画像処理方法は、画像データに対して、予め設定された画像の分割 方法を変えて処理を施して、複数の処理された画像データを求めるステップと、前記 複数の処理された画像データを用いて統合画像データを生成するステップとを有す ることを特徴とする。
[0019] 本発明に係る特徴抽出方法は、画像データに対して、予め設定された画像の分割 方法を変えて複数の特徴データを求めるステップと、前記複数の特徴データを用い て統合特徴データを生成するステップとを有することを特徴とする。
[0020] 本発明に係る画像照合方法は、画像データに対して、予め設定された画像の分割 方法を変えて複数の特徴データを求めるステップと、前記複数の特徴データと外部 力 入力された認証用特徴データとを照合し複数の照合データを求めるステップと、 前記複数の照合データを用いて統合照合データを生成するステップとを有することを 特徴とする。
[0021] 上記の各方法において、前記複数の処理された画像データを求めるステップは、 画像の分割領域の位置、サイズ、及び形状の少なくとも 1つを変更して前記画像の分 割方法を変えてもよい。
[0022] 本発明に係る画像照合システムは、画像データに対して、予め設定された画像の 分割方法を変えて複数の特徴データを求める手段と、前記複数の特徴データと外部 カゝら入力された認証用特徴データとを照合し複数の照合スコアデータを求める手段 と、前記複数の照合スコアデータを用いて統合照合スコアデータを生成する手段と、 前記統合照合スコアデータと予め設定された閾値とを比較して認証を行う手段とを備 えたことを特徴とする。
[0023] 本発明にお 、て、前記複数の特徴データを求める手段は、画像の分割領域の位 置、サイズ、及び形状の少なくとも 1つを変更して前記画像の分割方法を変えてもよ い。また、前記統合照合スコアデータを生成する手段は、前記複数の照合スコアデ ータの平均値、最大値、及び最小値の少なくとも 1つを求めて統合照合スコアデータ の値としてもよい。
[0024] 本発明に係る画像処理用プログラムは、コンピュータに、画像データに対して、予 め設定された画像の分割方法を変えて処理を施して、複数の処理された画像データ を求めるステップと、前記複数の処理された画像データを用いて統合画像データを 生成するステップとを実行させることを特徴とする。
[0025] 本発明に係る画像特徴抽出用プログラムは、コンピュータに、画像データに対して 、予め設定された画像の分割方法を変えて複数の特徴データを求めるステップと、 前記複数の特徴データを用いて統合特徴データを生成するステップとを実行させる ことを特徴とする。
[0026] 本発明に係る画像照合用プログラムは、コンピュータに、画像データに対して、予 め設定された画像の分割方法を変えて複数の特徴データを求めるステップと、前記 複数の特徴データと外部から入力された認証用特徴データとを照合し複数の照合デ ータを求めるステップと、前記複数の照合データを用いて統合照合データを生成す るステップとを実行させることを特徴とする。
発明の効果
[0027] 本発明によれば、画像の分割方法に関する、画像の復元処理、画像の特徴抽出 処理、および画像間の照合処理のいずれかの処理結果の不安定性を除去して、画 像照合の識別精度を高めることができる。
図面の簡単な説明
[0028] [図 1]本発明の第 1の実施の形態に係る画像処理装置の構成を示すブロック図であ る。
[図 2]第 1の実施の形態に係る画像処理装置の動作を示す流れ図である。
[図 3] (A)〜 (E)は画像の複数の分割方法の具体例を示す図である。
[図 4] (A)〜(D)は画像の複数の分割方法の他の具体例を示す図である。
[図 5]本発明の第 2の実施の形態に係る画像特徴抽出装置の構成を示すブロック図 である。
[図 6]本発明の第 2の実施の形態に係る画像特徴抽出装置の動作を示す流れ図で ある。
[図 7]本発明の第 3の実施の形態に係る画像照合装置の構成を示すブロック図であ る。
[図 8]本発明の第 3の実施の形態に係る画像照合装置の登録時の動作を示す流れ 図である。 [図 9]本発明の第 3の実施の形態に係る画像照合装置の照合時の動作を示す流れ 図である。
[図 10]本発明の第 4の実施の形態に係る画像照合装置の照合時の動作を示す流れ 図である。
符号の説明
[0029] 1 画像入力部
2、 2a、 2b データ処理装置
3、 3a、 3b 結果出力部
21、 21a, 21b 制御部
22 画像分割方法辞書
23 画像分割手段
24 画像処理手段
24a 特徴抽出手段
25 画像統合手段
25a 特徴統合手段
25b 照合結果統合手段
26 データベース部
27 照合手段
発明を実施するための最良の形態
[0030] 次に、本発明を実施するための最良の形態について、図面を参照して詳細に説明 する。
[0031] 本発明の実施の形態にぉ ヽて、画像処理方法または画像特徴抽出方法は、処理 対象となる画像を復元または特徴抽出処理し、その処理結果をディスプレイなどの出 力装置に出力する。さらに、画像照合方法または画像照合システムは、照合対象で ある画像データとデータベースなどに格納された画像データまたは特徴データとを照 合し、得られた照合スコアなどの照合結果をディスプレイなどの出力装置に表示し、 または判定閾値と比較し、識別判定を行う。
[0032] これらの処理対象となる画像として、例えば、人や動物の指紋や掌紋、鼻紋、顔、 虹彩、血管パターン画像などが挙げられる。以下に、処理対象となる画像の例として 、指紋画像を挙げて説明する。ただし、本発明は指紋画像に限定されず、本発明の 技術範囲内であれば、 、ずれの画像でも適用可能である。
[0033] (第 1の実施の形態)
まず、本発明の第 1の実施の形態について図 1〜図 4を参照して詳細に説明する。
[0034] 図 1を参照すると、本実施の形態に係る画像処理装置は、指紋直接入力装置等で 入力された指紋画像を保持し供給する画像入力部 1と、プログラム制御により動作す るデータ処理装置 2と、処理結果が出力される結果出力部 3とから構成されている。
[0035] データ処理装置 2は、機能上、画像分割方法辞書 22と、画像分割手段 23と、画像 処理手段 24と、画像統合手段 25と、制御部 21とを含む。
[0036] これらの手段は、それぞれ概略つぎのように動作する。画像分割方法辞書 22は、 画像入力部 1より与えられた指紋画像を小領域に分割するための複数の画像分割方 法 (後述参照)が記憶されている。画像分割手段 23は、画像分割方法辞書 22の指 定された画像分割方法に従い、画像入力部 1により与えられた指紋画像を小領域に 分割する。画像処理手段 24は、画像分割手段 23により分割された指紋画像の各小 領域の画像データを処理し、画像復元データを生成する。画像統合手段 25は、画 像処理手段 24により処理された各画像分割方法に対応する画像復元データから一 つの統合画像データを生成する。制御部 21は、データ処理装置 2の各部を制御する 。これら各手段の機能は、コンピュータが予め設定されたプログラムを実行することに より実現される。このプログラムは、メモリゃノヽードディスク等の記憶媒体に格納される
[0037] 次に、図 1及び図 2のフローチャートを参照して本実施の形態の全体の動作につい て詳細に説明する。
[0038] まず、画像入力部 1より与えられた指紋画像は、制御部 21に供給される(図 2のステ ップ Al)。次に、制御部 21は、複数の画像分割方法が記憶されている画像分割方 法辞書 22を検索し、まだ選択されて 、な 、画像分割方法の中から一つの画像分割 方法を取り込み、取り込んだ画像分割方法および画像入力部 1より与えられた指紋 画像は、画像分割手段 23に供給される (ステップ A2)。 [0039] 画像の複数の分割方法の例としては、図 3に示すような分割方法が挙げられる。図 3において、図 3 (A)は指紋画像の模式図であり、図 3 (B)〜図 3 (E)はそれぞれ同じ 指紋画像に対して互いに異なる 4種類のブロック分割方法で分割した例である。この 例では、どのブロック分割方法においても、指紋が押捺された領域全体が縦に 4個の 列、横に 4個の行の同じサイズのブロック群に分割される力 各ブロック分割方法の開 始位置が異なるため、すべてのブロック分割方法は異なる。また、この例では、隣接 したブロック間が重ならないとなっている力 例えば、特開 2005— 115548号公報に 記載されて ヽるように、隣接したブロック間で部分的に重なるように設定することがで きる。また、画像分割方法の種類を変えて、分割された小領域のサイズや形状などを 、図 3の例と異なるように設定することもできる。
[0040] 画像の複数の分割方法の他の例としては、図 4に示すような分割方法が挙げられる 。図 4において、図 4 (A)は指紋画像の模式図であり、図 4 (B)〜図 4 (D)はそれぞれ 同じ指紋画像に対してブロックサイズが異なる 3種類のブロック分割方法で分割した 例である。この例では、各ブロック分割方法のブロックサイズが異なるため、すべての ブロック分割方法は異なる。なお、図 3及び図 4の例では、分割された小領域の位置 を変える場合と、分割された小領域のサイズを変える場合とをそれぞれ説明して 、る 力 分割された小領域の形状を変える場合には、図 3や図 4の例に示すような矩形状 に限らず、例えば三角形状、五角形状、六角形状などの多角形状でも適用可能であ る。
[0041] 次に、画像分割手段 23は、制御部 21から与えられた画像分割方法に従い、指紋 画像を小領域に分割し、その小領域画像データを画像処理手段 24に供給する (ステ ップ A3)。次に、画像処理手段 24は、制御部 21から与えられた小領域画像データ に対して、画像処理を行い、処理結果に基づき全体の復元画像に再構成し、再構成 された画像復元データを制御部 21に供給する (ステップ A4)。
[0042] この画像処理手段 24は、従来の技術によって実現することができる。例えば、特開 2005— 115548号公報〖こは、ブロック分割手段によって得られる各ブロック画像が 離散フーリエ変換によって周波数成分に変換され、フーリエ変換によって得られるフ 一リエ成分情報に対して、振幅が最大となる周波数を探し、振幅が最大となる周波数 を中心として、その外側にいくほど小さな値を取るように各周波数におけるゲインを設 定し、該ゲインをフーリエ成分情報に乗じて雑音パワーを抑制し、振幅を変えられた フーリエ成分を逆離散フーリエ変換し、逆フーリエ変換で変換された各ブロックの画 像を組み合わせて復元後の全体の画像を構成する雑音除去方法が記載されている
[0043] 次に、制御部 21は、画像分割方法辞書 22に記憶されている画像分割方法のなか に、制御部 21に読み込まれていない画像分割方法があるカゝ否かを判断する (ステツ プ A5)。その結果、制御部 21に読み込まれていない画像分割方法がまだある場合( ステップ A5 :YES)に、制御部 21は、読み込まれていない画像分割方法がなくなる まで、ステップ A2からステップ A4までの処理を繰り返し実行する。一方、制御部 21 に読み込まれていない画像分割方法力 Sもうない場合 (ステップ A5 : NO)に、制御部 2 1は、各画像分割方法に対応した、画像処理手段 24により処理された画像データを 画像統合手段 25に供給する。
[0044] そして、画像統合手段 25は、制御部 21から与えられた各画像分割方法に対応した 、複数の画像復元データから一つの統合画像データを生成し、処理結果として制御 部 21に供給する (ステップ A6)。ここでの画像統合方法は、画像分割方法に対応し た、画像処理手段 24により処理された複数の画像復元データに対して、各画像復元 データの同じ位置にある画素の画素値の平均値を新たな画素値として採用すること で統合後の全体の画像データを構成する。
[0045] 最後に、制御部 21は、画像統合手段 25から与えられた統合画像データを結果出 力部 3に与える (ステップ A7)。ここでの出力装置は、例えば、オペレータが復元指紋 画像の品質を検査する用途においては、ディスプレイなどの表示装置にしてもよい。
[0046] 従って、本実施の形態によれば、複数の画像分割方法を予め記憶し、画像分割方 法毎に入力画像データを処理し、各画像分割方法に対応した画像処理結果を一つ の画像データに統合することで、画像分割方法に関する画像処理結果の不確実性 を低減させ、安定な画像処理結果を提供できる。
[0047] また、本実施の形態では、画像の分割領域の位置をずらすことによって、画像の分 割方法を変化させたため、単純な構成で本発明の画像処理装置を構築できる。 [0048] (第 2の実施の形態)
次に、本発明の第 2の実施の形態について図 5及び図 6を参照して詳細に説明す る。
[0049] 図 5を参照すると、本実施の形態に係る画像特徴抽出装置は、指紋直接入力装置 等で入力された指紋画像を保持し供給する画像入力部 1と、プログラム制御により動 作するデータ処理装置 2aと、処理結果が出力される結果出力部 3aとから構成されて いる。
[0050] データ処理装置 2aは、機能上、画像分割方法辞書 22と、画像分割手段 23と、特 徴抽出手段 24aと、特徴統合手段 25aと、制御部 21aとを含む。
[0051] これらの手段は、それぞれ概略つぎのように動作する。画像分割方法辞書 22およ び画像分割手段 23は、第 1の実施の形態と同じであるので、その説明を省略する。 特徴抽出手段 24aは、画像分割手段 23により分割された指紋画像の各小領域の画 像データを処理し、その処理結果に基づき、特徴を抽出する。特徴統合手段 25aは 、上記特徴抽出手段 24aにより抽出された各画像分割方法に対応する特徴データを 統合する。制御部 21aは、データ処理装置 2aの各部を制御する。これら各手段の機 能は、コンピュータが予め設定されたプログラムを実行することにより実現される。この プログラムは、メモリゃノヽードディスク等の記憶媒体に格納される。
[0052] 次に、図 5及び図 6のフローチャートを参照して本実施の形態の全体の動作につい て詳細に説明する。
[0053] まず、画像入力部 1より与えられた指紋画像は、制御部 21aに供給される(図 5のス テツプ Bl)。次に、制御部 21aは、複数の画像分割方法が記憶されている画像分割 方法辞書 22を検索し、まだ選択されて ヽな ヽ画像分割方法の中から一つの画像分 割方法を取り込み、取り込んだ画像分割方法および画像入力部 1より与えられた指 紋画像は、画像分割手段 23に供給される (ステップ B2)。この画像の複数の分割方 法については、第 1の実施の形態と同じ (ステップ A2の説明参照)であるので、その 説明を省略する。
[0054] 次に、画像分割手段 23は、制御部 21aから与えられた画像分割方法に従 、、指紋 画像を小領域に分割し、その小領域画像データを特徴抽出手段 24aに供給する (ス テツプ B3)。次に、特徴抽出手段 24aは、制御部 21aから与えられた小領域画像デ ータに対して、画像処理を行い、処理結果に基づき全体の画像に再構成し、再構成 された画像復元データから特徴を抽出し、抽出された特徴データを制御部 21aに供 給する (ステップ B4)。
[0055] この画像処理方法および画像再構成方法については、第 1の実施の形態と同じ (ス テツプ A4の説明参照)であるので、その説明を省略する。この画像から特徴を抽出 する方法は、従来の技術によって実現することができる。例えば、特公昭 60— 1267 4号公報には、指紋の紋様の特徴点およびその点での方向を抽出する技術が記載 されている。
[0056] 次に、制御部 21aは、画像分割方法辞書 22に記憶されて ヽる画像分割方法のな かに、制御部 21aに読み込まれていない画像分割方法があるカゝ否かを判断する (ス テツプ B5)。その結果、制御部 21aに読み込まれていない画像分割方法がまだある 場合 (ステップ B5 : YES)に、制御部 21aは、読み込まれていない画像分割方法がな くなるまで、ステップ B2からステップ B4までの処理を繰り返し実行する。一方、制御 部 21aに読み込まれていない画像分割方法力もうない場合 (ステップ B5 : NO)に、制 御部 21aは、各画像分割方法に対応した、特徴抽出手段 24aにより抽出された特徴 データを特徴統合手段 25aに供給する。
[0057] そして、特徴統合手段 25aは、制御部 21aから与えられた各画像分割方法に対応 した、特徴抽出手段 24aにより抽出された特徴データを一つの統合特徴データに統 合し、処理結果として制御部 21aに供給する (ステップ B6)。ここでは、画像分割方法 に対応した、特徴抽出手段 24aに抽出された複数の特徴データに対して、互いに照 合処理し、対応付けられた特徴点の位置や方向の平均値を新たな特徴点のデータ として採用することで統合後の全体の特徴データを構成する。この照合処理自体は、 従来の技術により実現できるものである。例えば、特開昭 59— 142676号公報に詳 述されている。
[0058] 最後に、制御部 21aは、特徴統合手段 25aから与えられた処理結果の特徴データ を結果出力部 3aに与える (ステップ B7)。ここの出力装置は、例えば、オペレータが 指紋画像から抽出された特徴データを検査する用途にぉ ヽては、ディスプレイなどの 表示装置にしてもよい。また、統合特徴データを入力指紋画像データと重ねてデイス プレイなどに表示させると、オペレータが検査しやすい。さらに、複数の特徴データを 一つの統合特徴データに統合せずに、直接ティスプレイなどの出力装置に出力し、 品質を検査するように設定してもよ ヽ。
[0059] 従って、本実施の形態によれば、複数の画像分割方法を予め記憶し、画像分割方 法毎に入力画像データを処理し、各画像分割方法に対応した特徴抽出結果を一つ の特徴データに統合することで、画像分割方法に関する特徴抽出結果の不確実性 を低減させ、安定な特徴抽出処理結果を提供できる。
[0060] (第 3の実施の形態)
次に、本発明の第 3の実施の形態について図 7〜図 9を参照して詳細に説明する。
[0061] 図 7を参照すると、本実施の形態に係る画像照合装置 (画像照合システム)は、指 紋直接入力装置等で入力された指紋画像を保持し供給する画像入力部 1と、プログ ラム制御により動作するデータ処理装置 2bと、処理結果が出力される結果出力部 3b とカゝら構成されている。
[0062] データ処理装置 2bは、機能上、画像分割方法辞書 22と、画像分割手段 23と、特 徴抽出手段 24aと、データベース部 26と、照合手段 27と、照合結果統合手段 25bと 、制御部 21bとを含む。
[0063] これらの手段は、それぞれ概略つぎのように動作する。画像分割方法辞書 22、画 像分割手段 23、及び特徴抽出手段 24aは、第 2の実施の形態と同じであるので、そ の説明を省略する。データベース部 26は、特徴抽出手段 24aにより抽出された、各 画像分割方法に対応する特徴データが登録される。照合手段 27は、特徴抽出手段 24aにより抽出された指紋画像の特徴データとデータベース 26に登録されていた、 各画像分割方法に対応する特徴データとを照合し、照合結果として、照合データま たは照合スコアを生成する。照合結果統合手段 25bは、照合手段 27により照合され た各画像分割方法に対応する照合結果を統合する。制御部 21bは、データ処理装 置 2bの各部を制御する。これら各手段の機能は、コンピュータが予め設定されたプロ グラムを実行することにより実現される。このプログラムは、メモリゃノヽードディスク等の 記憶媒体に格納される。 [0064] 次に、図 7及び図 8、図 9のフローチャートを参照して本実施の形態の全体の動作 について詳細に説明する。
[0065] まず、本人確認用の指紋照合においては事前に指紋登録処理が必要であるため、 登録時の動作を説明する。
[0066] 図 8を参照すると、指紋登録時の動作を示す流れ図であり、画像入力部 1より与えら れた指紋画像は、制御部 21bに供給される (ステップ Cl)。
[0067] 次に、制御部 21bは、複数の画像分割方法が記憶されて!、る画像分割方法辞書 2 2を検索し、まだ選択されて 、な 、画像分割方法の中から一つの画像分割方法を取 り込み、取り込んだ画像分割方法および画像入力部 1より与えられた指紋画像は、画 像分割手段 23に供給される (ステップ C2)。この画像の複数の分割方法については 、第 2の実施の形態と同じ (ステップ B2における説明)であるのでその説明を省略す る。
[0068] 次に、画像分割手段 23は、制御部 21bから与えられた画像分割方法に従 ヽ、指紋 画像を小領域に分割し、その小領域画像データを特徴抽出手段 24aに供給する (ス テツプ C3)。
[0069] 次に、特徴抽出手段 24aは、制御部 21bから与えられた小領域画像データに対し て、画像処理を行い、処理結果に基づき全体の画像に再構成し、再構成された画像 データから特徴を抽出し、抽出された特徴データを制御部 21bに供給する (ステップ C4)。これらの画像処理、画像の再構成、および特徴抽出の方法については、第 2 の実施の形態と同じ (ステップ B4の説明参照)であるので、その説明を省略する。
[0070] さらに、制御部 21bは、画像分割方法辞書 22に記憶されて ヽる画像分割方法のな かに、制御部 21bに読み込まれていない画像分割方法があるカゝ否かを判断する (ス テツプ C5)。その結果、制御部 21bに読み込まれていない画像分割方法がまだある 場合 (ステップ C5 : YES)に、制御部 21bは、読み込まれていない画像分割方法がな くなるまで、ステップ C2からステップ C4までの処理を繰り返し実行する。
[0071] 一方、制御部 21bに読み込まれて 、な 、画像分割方法力 Sもうな 、場合 (ステップ C 5 : NO)に、制御部 21bは、各画像分割方法に対応した、特徴抽出手段 24aにより抽 出された指紋画像の特徴データをデータベース部 26に登録する (ステップ C6)。 [0072] 最後に、制御部 21bは、正常終了または異常終了等の登録結果を結果出力部 3b に与える (ステップ C7)。
[0073] 次に、既に指紋登録されている状態での照合時の動作を説明する。
[0074] 図 9を参照すると、照合時の動作を示す流れ図であり、画像入力部 1により与えられ た指紋画像は、制御部 21bに供給される (ステップ Dl)。
[0075] 次に、制御部 21bは、複数の画像分割方法が記憶されて!、る画像分割方法辞書 2 2を検索し、まだ選択されて 、な 、画像分割方法の中から一つの画像分割方法を取 り込み、取り込んだ画像分割方法および画像入力部 1より与えられた指紋画像は、画 像分割手段 23に供給される (ステップ D2)。この画像の複数の分割方法については 、第 2の実施の形態と同じ (ステップ B2の説明参照)であるので、その説明を省略す る。
[0076] 次に、画像分割手段 23は、制御部 21bから与えられた画像分割方法に従い、指紋 画像を小領域に分割し、その小領域画像データを特徴抽出手段 24aに供給する (ス テツプ D3)。
[0077] 次に、特徴抽出手段 24aは、制御部 21bから与えられた小領域画像データに対し て、画像処理を行い、処理結果に基づき全体の画像に再構成し、再構成された画像 データから特徴を抽出し、抽出された特徴データを制御部 21bに供給する (ステップ D4)。これらの画像処理、画像の再構成および特徴抽出の方法については、第 2の 実施の形態と同じ (ステップ B4の説明参照)であるので、その説明を省略する。
[0078] 次に、制御部 21bは、画像分割方法辞書 22に記憶されて ヽる画像分割方法のな かに、制御部 21bに読み込まれていない画像分割方法があるカゝ否かを判断する (ス テツプ D5)。その結果、制御部 21bに読み込まれていない画像分割方法がまだある 場合 (ステップ D5 : YES)に、制御部 21bは、読み込まれていない画像分割方法がな くなるまで、ステップ D2からステップ D4までの処理を繰り返し実行する。
[0079] 一方、制御部 21bに読み込まれて 、な 、画像分割方法力 Sもうな 、場合 (ステップ D 5 : NO)に、制御部 21bは、データベース部 26に登録されている各画像分割方法に 対応した特徴データを読み込み、入力指紋画像から抽出された各画像分割方法に 対応した特徴データと合わせて、照合手段 27に供給する。 [0080] 次に、照合手段 27は、入力指紋画像の抽出された各画像分割方法に対応した特 徴データと登録された各画像分割方法に対応した特徴データとを互いに照合処理し 、照合データまたは照合スコアを照合結果統合手段 25bに供給する (ステップ D6)。 ここでは、照合処理の組み合わせ方法について、入力指紋画像の複数の特徴デー タと登録された複数の特徴データとのすべての組み合わせについて照合処理を行う ように設定することができる。また、対応する画像分割方法の特徴データ同士のみ照 合処理を行うように設定することもできる。この照合処理自体は、従来の技術により実 現できるものである。例えば、特開昭 59— 142676号公報に詳述されている。
[0081] さらに、照合結果統合手段 25bは、与えられた照合データまたは照合スコアを統合 し、統合後の照合データまたは照合スコアを制御部 21bに供給する (ステップ D7)。 ここでは、照合データを統合する際に、例えば、複数の照合データの共通対応特徴 量を新たな特徴量として採用することで統合照合データを構成するようにしてもょ 、。 また、照合スコアを統合する際に、すべての照合スコアの平均値を新たな照合スコア 値として採用することで統合後の照合スコアを構成する。また、すべての照合スコア の最大値、或いは最小値を新たな照合スコア値として採用することで統合後の照合 スコアを構成するように設定することができる。
[0082] 最後に、制御部 21bは、与えられた統合後の照合データまたは照合スコアを結果 出力部 3bに与える (ステップ D8)。ここで、例えば、個人認証の用途において、統合 照合スコアと予め定められた照合スコア閾値と比較し、比較結果を照合される指紋画 像が同じ指のものかどうかの判定結果として結果出力部 3bに出力してもよい。
[0083] 従って、本実施の形態によれば、複数の画像分割方法を予め記憶し、画像分割方 法毎に入力画像データを処理し、各画像分割方法に対応した特徴抽出結果とデー タベースに登録された比較対象の特徴データと照合し、得られた照合結果を統合す ることで、画像分割方法に関する照合結果データの不確実性を低減させ、安定な照 合結果を提供できる。このため、画像間の照合スコアの不確実性および画像照合シ ステムの識別エラー率を減少でき、画像照合システムの識別精度を高める効果が得 られる。
[0084] (第 4の実施の形態) 次に、本発明の第 4の実施の形態について図 10を参照して詳細に説明する。本実 施の形態に係る画像照合装置 (画像照合システム)は、第 3の実施の形態と比べると 、その構成(図 7参照)および指紋登録時の動作(図 8参照)が同じであるが、照合時 の動作が異なる。以下、図 10のフローチャートを参照して、指紋登録されている状態 での、照合時の動作について詳細に説明する。
[0085] 図 10を参照すると、照合時の動作を示す流れ図であり、画像入力部 1により与えら れた指紋画像は、制御部 21bを通じて画像分割手段 23に供給される (ステップ E1) 。次に、画像分割手段 23は、固定された画像分割方法に従い、指紋画像を小領域 に分割し、その小領域画像データを特徴抽出手段 24aに供給する (ステップ E2)。
[0086] 次に、特徴抽出手段 24aは、制御部 21bから与えられた小領域画像データに対し て、画像処理を行い、処理結果に基づき全体の画像に再構成し、再構成された画像 データから特徴を抽出し、抽出された特徴データを制御部 21bに供給する (ステップ E3)。これらの画像処理、画像の再構成および特徴抽出の方法については、第 2の 実施の形態と同じ (ステップ B4の説明参照)であるので、その説明を省略する。
[0087] 次に、制御部 21bは、データベース部 26に登録されている各画像分割方法に対応 した特徴データを読み込み、与えられた指紋画像の特徴データとデータベース部 26 に登録されて!ヽる各画像分割方法に対応した特徴データを、照合手段 27に供給す る(ステップ E4)。
[0088] 次に、照合手段 27は、指紋画像から抽出された特徴データと、データベース部 26 に登録されて!ヽる各画像分割方法に対応した特徴データとを照合処理し、照合結果 または照合スコアを照合結果統合手段 25bに供給する (ステップ E5)。この照合処理 の組み合わせ方法は、入力指紋画像の特徴データと比較対象の複数の特徴データ のそれぞれと照合処理を行うように設定できる。この照合処理自体は、従来の技術に より実現できるものである。例えば、特開昭 59— 142676号公報に詳述されている。
[0089] さらに、照合結果統合手段 25bは、与えられた照合結果または照合スコアを統合し 、統合後の照合結果または照合スコアを制御部 21bに供給する (ステップ E6)。ここ では、照合スコアを統合する際に、すべての照合スコアの平均値を新たな照合スコア 値として採用することで統合後の照合スコアを構成する。また、すべての照合スコア の最大値、或いは最小値を新たな照合スコア値として採用することで統合後の照合 スコアを構成するように設定することができる。
[0090] 最後に、制御部 21bは、与えられた統合後の照合結果または照合スコアを結果出 力部 3bに与える (ステップ E7)。
[0091] 従って、本実施の形態によれば、照合時の処理量が多い特徴抽出処理の処理回 数が一回のみであるため、計算リソースが少ない携帯端末等の装置でも、安定な照 合結果が得られる高精度な指紋個人認証機能が実現できる効果が得られる。
[0092] 以上、第 1〜第 4の実施の形態を詳細に説明したが、本発明は、代表的に例示した 上述の各実施の形態に限定されるものではなぐ当業者であれば、特許請求の範囲 の記載内容に基づき、本発明の要旨を逸脱しない範囲内で種々の態様に変形、変 更することができる。これらの変形例や変更例も本発明の権利範囲に属するものであ る。
[0093] 例えば、第 1の実施の形態に係る画像処理装置、第 2の実施の形態に係る画像特 徴抽出装置、第 3及び第 4の実施の形態に係る画像照合装置 (画像照合システム)を 構成する各手段の少なくとも一部の機能を、プログラムコードを用いて実現する場合 、力かるプログラムコード及びこれを記録する記録媒体は、本発明の範疇に含まれる 。この場合、オペレーティングシステムやアプリケーションソフト等の他のソフトウェアと 共同して上記機能が実現される場合は、それらのプログラムコードも含まれる。
産業上の利用可能性
[0094] 本発明は、指紋、掌紋、鼻紋、虹彩、顔、血管パターン、テクスチャーパターン画像 等の画像に好適に利用できる画像処理、画像特徴抽出、および画像照合を行う装置 、方法、プログラム並びに画像照合システムの用途に利用可能である。

Claims

請求の範囲
[1] 入力画像を分割領域毎に画像強調する画像強調手段と、
前記画像強調手段を複数の入力画像分割方法にしたがって前記入力画像に作用 させる制御手段と、
前記複数の入力画像分割方法を利用して画像強調された入力画像を合成して統 合画像を生成する画像統合手段と
を備えたことを特徴とする画像処理装置。
[2] 前記画像強調手段は、前記入力画像の特徴を抽出するための前処理を施すことを 特徴とする請求項 1記載の画像処理装置。
[3] 前記画像強調手段は、前記入力画像から雑音を除去することを特徴とする請求項
1又は 2記載の画像処理装置。
[4] 前記画像統合手段は、前記複数の入力画像分割方法を利用して画像強調された 入力画像の同じ位置にある画素の画素値の平均値を前記統合画像の同じ位置にあ る画素の画素値とすることを特徴とする請求項 1乃至 3のいずれか 1項に記載の画像 処理装置。
[5] 前記複数の入力画像分割方法は、分割領域の位置、サイズ、及び形状の少なくと も 1つが異なることを特徴とする請求項 1乃至 4のいずれか 1項に記載の画像処理装 置。
[6] 入力画像を複数の領域に分割し該領域毎に画像特徴を抽出する画像特徴抽出手 段と、
前記画像特徴抽出手段を複数の入力画像分割方法にしたがって前記入力画像に 作用させる制御手段と、
前記複数の入力画像分割方法を利用して抽出された複数の特徴データを出力す る画像特徴出力手段と
を備えたことを特徴とする画像特徴抽出装置。
[7] 前記複数の特徴データを用いて、全体の統合特徴データを生成する特徴統合手 段をさらに備えたことを特徴とする請求項 6記載の画像特徴抽出装置。
[8] 前記特徴統合手段は、前記複数の特徴データの対応特徴量の平均値を前記統合 特徴データの特徴量とすることを特徴とする請求項 7記載の画像特徴抽出装置。
[9] 前記複数の入力画像分割方法は、分割領域の位置、サイズ、及び形状の少なくと も 1つが異なることを特徴とする請求項 6乃至 8のいずれか 1項に記載の画像特徴抽 出装置。
[10] 入力画像を複数の領域に分割し該領域毎に画像特徴を抽出し認証用特徴データ と照合して照合結果を生成する照合手段と、
前記照合手段を複数の入力画像分割方法にしたがって前記入力画像に作用させ る制御手段と、
前記複数の入力画像分割方法を利用して照合された複数の照合結果から照合デ ータを統合する照合統合手段と
を備えたことを特徴とする画像照合装置。
[11] 前記照合統合手段は、前記複数の照合データの共通対応特徴量を、統合された 照合データの対応特徴量とすることを特徴とする請求項 10記載の画像照合装置。
[12] 前記複数の入力画像分割方法は、分割領域の位置、サイズ、及び形状の少なくと も 1つが異なることを特徴とする請求項 10又は 11記載の画像照合装置。
[13] 画像データに対して、予め設定された画像の分割方法を変えて処理を施して、複 数の処理された画像データを求めるステップと、
前記複数の処理された画像データを用いて統合画像データを生成するステップと を有することを特徴とする画像処理方法。
[14] 前記複数の処理された画像データを求めるステップは、画像の分割領域の位置、 サイズ、及び形状の少なくとも 1つを変更して前記画像の分割方法を変えることを特 徴とする請求項 13記載の画像処理方法。
[15] 画像データに対して、予め設定された画像の分割方法を変えて複数の特徴データ を求めるステップと、
前記複数の特徴データを用いて統合特徴データを生成するステップとを有すること を特徴とする画像特徴抽出方法。
[16] 前記複数の特徴データを求めるステップは、画像の分割領域の位置、サイズ、及び 形状の少なくとも 1つを変更して前記画像の分割方法を変えることを特徴とする請求 項 15記載の画像特徴抽出方法。
[17] 画像データに対して、予め設定された画像の分割方法を変えて複数の特徴データ を求めるステップと、
前記複数の特徴データと外部から入力された認証用特徴データとを照合し複数の 照合データを求めるステップと、
前記複数の照合データを用いて統合照合データを生成するステップとを有すること を特徴とする画像照合方法。
[18] 前記複数の特徴データを求めるステップは、画像の分割領域の位置、サイズ、及び 形状の少なくとも 1つを変更して前記画像の分割方法を変えることを特徴とする請求 項 17記載の画像照合方法。
[19] 画像データに対して、予め設定された画像の分割方法を変えて複数の特徴データ を求める手段と、
前記複数の特徴データと外部から入力された認証用特徴データとを照合し複数の 照合スコアデータを求める手段と、
前記複数の照合スコアデータを用いて統合照合スコアデータを生成する手段と、 前記統合照合スコアデータと予め設定された閾値とを比較して認証を行う手段とを 備えたことを特徴とする画像照合システム。
[20] 前記複数の特徴データを求める手段は、画像の分割領域の位置、サイズ、及び形 状の少なくとも 1つを変更して前記画像の分割方法を変えることを特徴とする請求項 19記載の画像照合システム。
[21] 前記統合照合スコアデータを生成する手段は、前記複数の照合スコアデータの平 均値、最大値、及び最小値の少なくとも 1つを求めて統合照合スコアデータの値とす ることを特徴とする請求項 19又は 20に記載の画像照合システム。
[22] コンピュータに、
画像データに対して、予め設定された画像の分割方法を変えて処理を施して、複 数の処理された画像データを求めるステップと、
前記複数の処理された画像データを用いて統合画像データを生成するステップと を実行させることを特徴とする画像処理用プログラム。
[23] コンピュータに、
画像データに対して、予め設定された画像の分割方法を変えて複数の特徴データ を求めるステップと、
前記複数の特徴データを用いて統合特徴データを生成するステップとを実行させ ることを特徴とする画像特徴抽出用プログラム。
[24] コンピュータに、
画像データに対して、予め設定された画像の分割方法を変えて複数の特徴データ を求めるステップと、
前記複数の特徴データと外部から入力された認証用特徴データとを照合し複数の 照合データを求めるステップと、
前記複数の照合データを用いて統合照合データを生成するステップとを実行させ ることを特徴とする画像照合用プログラム。
PCT/JP2007/051692 2006-02-01 2007-02-01 画像処理、画像特徴抽出、および画像照合の装置、方法、およびプログラム並びに画像照合システム WO2007088926A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007556909A JPWO2007088926A1 (ja) 2006-02-01 2007-02-01 画像処理、画像特徴抽出、および画像照合の装置、方法、およびプログラム並びに画像照合システム
US12/223,390 US8195005B2 (en) 2006-02-01 2007-02-01 Image processing, image feature extraction and image matching apparatuses, methods and programs, and image matching system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-024636 2006-02-01
JP2006024636 2006-02-01

Publications (1)

Publication Number Publication Date
WO2007088926A1 true WO2007088926A1 (ja) 2007-08-09

Family

ID=38327497

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/051692 WO2007088926A1 (ja) 2006-02-01 2007-02-01 画像処理、画像特徴抽出、および画像照合の装置、方法、およびプログラム並びに画像照合システム

Country Status (3)

Country Link
US (1) US8195005B2 (ja)
JP (1) JPWO2007088926A1 (ja)
WO (1) WO2007088926A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014524693A (ja) * 2011-08-10 2014-09-22 クアルコム,インコーポレイテッド 特徴点位置情報の符号化
JPWO2021199292A1 (ja) * 2020-03-31 2021-10-07

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8498477B2 (en) * 2006-01-31 2013-07-30 Timothy Getsch Bulk image gathering system and method
EP2420973B1 (en) * 2009-04-14 2019-11-13 Nec Corporation Image identifier extraction device
DE102009056784A1 (de) * 2009-12-03 2011-06-09 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zum Betrieb eines Elektromotors
JP5850341B2 (ja) * 2010-06-04 2016-02-03 日本電気株式会社 指紋認証システム、指紋認証方法および指紋認証プログラム
US9323783B1 (en) * 2011-07-11 2016-04-26 Snoutscan Llc System and method for animal identification
US11880227B1 (en) 2011-07-11 2024-01-23 Snoutscan Llc System and method for animal identification
KR20140031742A (ko) * 2012-09-05 2014-03-13 삼성전기주식회사 이미지 특징 추출 장치 및 이미지 특징 추출 방법, 그를 이용한 영상 처리 시스템
CN103440488A (zh) * 2013-09-03 2013-12-11 江苏物联网研究发展中心 一种虫害识别的方法
US9480925B2 (en) 2014-03-27 2016-11-01 Edward A. Schmitt Image construction game
US9501838B1 (en) 2015-08-24 2016-11-22 The Boeing Company Systems and methods for determining boundaries of features in digital images
US10346949B1 (en) 2016-05-27 2019-07-09 Augmented Pixels, Inc. Image registration
DE102016113068A1 (de) * 2016-07-15 2018-01-18 Carl Zeiss Microscopy Gmbh Verfahren und Vorrichtung zum Bestimmen der Lage einer optischen Grenzfläche entlang einer ersten Richtung
US10636152B2 (en) * 2016-11-15 2020-04-28 Gvbb Holdings S.A.R.L. System and method of hybrid tracking for match moving
US10268889B2 (en) * 2017-03-31 2019-04-23 The Boeing Company System for target material detection
EP3494780A1 (de) * 2017-12-07 2019-06-12 Siemens Aktiengesellschaft Verfahren und anordnung zur tieridentifikation
CN108053538A (zh) * 2017-12-29 2018-05-18 潘彦伶 一种基于云存储的智能门禁系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02293981A (ja) * 1989-05-08 1990-12-05 Fujitsu Ltd 個人照合装置
JPH04322382A (ja) * 1991-04-22 1992-11-12 Fujitsu Ltd ム−ビング・ウインドウ型指紋画像照合方法及び照合装置
JP2000259825A (ja) * 1999-03-11 2000-09-22 Chuo Spring Co Ltd 画像強調装置
JP2005115548A (ja) * 2003-10-06 2005-04-28 Nippon Telegr & Teleph Corp <Ntt> 画像処理装置,画像処理方法,画像処理プログラムおよびそのプログラムを記録した記録媒体

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08110945A (ja) 1993-05-07 1996-04-30 Sharp Corp 指紋入力方法
JP2739856B2 (ja) 1995-12-18 1998-04-15 日本電気株式会社 指掌紋画像処理装置
DE69937476T2 (de) * 1998-07-31 2008-08-28 Canon K.K. Bildverarbeitungsvorrichtung und -Verfahren und Speichermedium
JP3688489B2 (ja) * 1998-12-25 2005-08-31 株式会社東芝 画像認識方法および画像認識装置
JP3706292B2 (ja) 2000-03-21 2005-10-12 株式会社山武 指紋照合装置
US7072523B2 (en) * 2000-09-01 2006-07-04 Lenovo (Singapore) Pte. Ltd. System and method for fingerprint image enhancement using partitioned least-squared filters
JP2002099912A (ja) 2000-09-21 2002-04-05 Nippon Telegr & Teleph Corp <Ntt> 画像処理方法,画像処理装置および画像処理プログラム記録媒体
JP4292837B2 (ja) 2002-07-16 2009-07-08 日本電気株式会社 パターン特徴抽出方法及びその装置
JP2005141453A (ja) 2003-11-06 2005-06-02 Nippon Telegr & Teleph Corp <Ntt> 指紋画像処理方法,指紋画像処理装置,指紋画像処理プログラム記録媒体および指紋画像処理プログラム
US7680305B2 (en) * 2005-06-13 2010-03-16 Hitachi, Ltd. Vein authentication device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02293981A (ja) * 1989-05-08 1990-12-05 Fujitsu Ltd 個人照合装置
JPH04322382A (ja) * 1991-04-22 1992-11-12 Fujitsu Ltd ム−ビング・ウインドウ型指紋画像照合方法及び照合装置
JP2000259825A (ja) * 1999-03-11 2000-09-22 Chuo Spring Co Ltd 画像強調装置
JP2005115548A (ja) * 2003-10-06 2005-04-28 Nippon Telegr & Teleph Corp <Ntt> 画像処理装置,画像処理方法,画像処理プログラムおよびそのプログラムを記録した記録媒体

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014524693A (ja) * 2011-08-10 2014-09-22 クアルコム,インコーポレイテッド 特徴点位置情報の符号化
JPWO2021199292A1 (ja) * 2020-03-31 2021-10-07
JP7332037B2 (ja) 2020-03-31 2023-08-23 日本電気株式会社 表示制御装置、方法及びプログラム

Also Published As

Publication number Publication date
US8195005B2 (en) 2012-06-05
US20090022401A1 (en) 2009-01-22
JPWO2007088926A1 (ja) 2009-06-25

Similar Documents

Publication Publication Date Title
WO2007088926A1 (ja) 画像処理、画像特徴抽出、および画像照合の装置、方法、およびプログラム並びに画像照合システム
JP7490141B2 (ja) 画像検出方法、モデルトレーニング方法、画像検出装置、トレーニング装置、機器及びプログラム
US9202104B2 (en) Biometric information correction apparatus, biometric information correction method and computer-readable recording medium for biometric information correction
KR101829784B1 (ko) 스티치와 컷을 이용한 지문인증
KR101656566B1 (ko) 생체 특징 벡터 추출 장치, 생체 특징 벡터 추출 방법, 및 생체 특징 벡터 추출 프로그램
US11017210B2 (en) Image processing apparatus and method
US7831071B2 (en) Image processing system
EP3121759A2 (en) System and method of biometric enrollment and verification
KR20120047991A (ko) 지문 인페인팅 타겟 영역의 자동 식별
JP2009211179A (ja) 画像処理方法、パターン検出方法、パターン認識方法及び画像処理装置
KR102205495B1 (ko) 지문 인식 방법 및 장치
Kanjan et al. A comparative study of fingerprint matching algorithms
JP2019109619A (ja) 生体認証装置、生体認証方法、および生体認証プログラム
KR101995025B1 (ko) 지문인식센서 및 터치스크린에 남은 지문을 이용한 지문 이미지 복원 방법 및 장치
Khalil-Hani et al. GA-based parameter tuning in finger-vein biometric embedded systems for information security
JP2007179267A (ja) パターン照合装置
JP7327656B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
CN110659536A (zh) 指纹识别设备分辨率的测试方法及装置、系统及存储介质
JP7322980B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
US11580774B2 (en) Method for the classification of a biometric trait represented by an input image
CN109784195B (zh) 一种用于企业指纹打卡的指纹识别方法及系统
US20220092769A1 (en) Collation apparatus, collation method, and computer readable recording medium
US10275866B1 (en) Extracting overlapping signals from images
Sukarno et al. On the commonality of iris biometrics
JP2007207177A (ja) パターン認識装置、方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
ENP Entry into the national phase

Ref document number: 2007556909

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 12223390

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 07707878

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)