WO2010074096A1 - 指掌紋画像処理装置、指掌紋画像処理方法及び指掌紋画像処理プログラムを記録した記録媒体 - Google Patents

指掌紋画像処理装置、指掌紋画像処理方法及び指掌紋画像処理プログラムを記録した記録媒体 Download PDF

Info

Publication number
WO2010074096A1
WO2010074096A1 PCT/JP2009/071348 JP2009071348W WO2010074096A1 WO 2010074096 A1 WO2010074096 A1 WO 2010074096A1 JP 2009071348 W JP2009071348 W JP 2009071348W WO 2010074096 A1 WO2010074096 A1 WO 2010074096A1
Authority
WO
WIPO (PCT)
Prior art keywords
finger
palm
image
area
print image
Prior art date
Application number
PCT/JP2009/071348
Other languages
English (en)
French (fr)
Inventor
聡 中田
裕司 堀場
昌紀 近藤
亮 金山
Original Assignee
日本電気株式会社
中部日本電気ソフトウェア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社, 中部日本電気ソフトウェア株式会社 filed Critical 日本電気株式会社
Priority to US13/133,712 priority Critical patent/US8457369B2/en
Publication of WO2010074096A1 publication Critical patent/WO2010074096A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction

Definitions

  • the present invention relates to a finger / palm-print image processing apparatus for processing a finger / palm-print image, which is an image of a finger / palm-print, a finger / palm-print image processing method, and a computer readable recording medium storing a finger / palm-print image processing program.
  • biometric authentication technology In recent years, research and development of biometric authentication technology has been actively conducted, in which authentication is performed using physical characteristics of a target person in place of a code or password consisting of a combination of characters and symbols.
  • biometric authentication physical characteristics that are different among individuals, such as fingerprints, vein patterns on the back of hands, iris patterns on eyes, voice prints, etc., are generally used (see, for example, Patent Document 1).
  • Patent Document 1 discloses a technique for extracting a palmprint image used for authentication from palm image data. This technology determines in advance which part of the palm image to use for authentication, and extracts the corresponding image from the captured image.
  • an image of the palm of the hand may include a portion that is not suitable for matching, depending on conditions at the time of imaging, unique physical characteristics, and the like. In this case, if the portion used for authentication is determined in advance, a palmprint image that is not suitable for matching will be extracted.
  • the present invention has been made in view of the above-described point, and an object thereof is to extract a palmprint image suitable for authentication.
  • a finger / palm-print image processing device for processing a finger / palm-print image, which is an image of a finger / palm-print, comprising: Image conversion means for converting the finger / palmprint image into a converted image consisting of a first set of elements and a second set of elements; An area specifying means for specifying an area in which the number of first set elements is equal to or more than a predetermined number out of the converted images converted by the image converting means;
  • the first set element and the second set element are set elements in which elements of the finger / palm print image are collected,
  • the first set element is a set element in which the degree of change in color information of the element in the set element satisfies a predetermined criterion
  • the second set element is a set element in which the degree of change in color information of the element in the set element does not satisfy a predetermined criterion.
  • a finger / palmprint image processing method for processing a finger / palmprint image, which is an image of a finger / palmprint, comprising: An image conversion step of converting the finger / palmprint image into a converted image composed of a first set of elements and a second set of elements; And a region specifying step of specifying a region in which the number of the first set elements is equal to or more than a predetermined number from the converted image converted in the image converting step,
  • the first set element and the second set element are set elements in which elements of the finger / palm print image are collected,
  • the first set element is a set element in which the degree of change in color information of the element in the set element satisfies a predetermined criterion
  • the second set element is a set element in which the degree of change in color information of the element in the set element does not satisfy a predetermined criterion.
  • a recording medium storing a finger / palm-print image processing program is A recording medium storing a finger / palm-print image processing program for causing a computer to execute a finger / palm-print image processing method for processing a finger / palm-print image, which is an image of a finger / palm-print.
  • the first set element and the second set element are set elements in which elements of the finger / palm print image are collected,
  • the first set element is a set element in which the degree of change in color information of the element in the set element satisfies a predetermined criterion
  • the second set element is characterized by storing a program for causing a computer to execute a finger / palm print image processing method, which is a set element in which the degree of change in color information of the element in the set element does not meet a predetermined criterion.
  • a finger / palm print is defined as including at least one of a fingerprint and a palm print.
  • the finger / palm print image is an image including the finger / palm print and other regions (for example, a region outside the palm or a region between the finger and the finger) in addition to the image of only the finger / palm print. Is also defined as including as appropriate.
  • FIG. 2 is a block diagram of a finger / palm-print image processing device according to the present embodiment. It is a figure which shows the image processing flow which a finger-palm-print image processing apparatus performs.
  • A is a figure which shows the image of the right upper palm part.
  • B is a figure which shows the image of the right lower palm part. It is a figure which shows the mode of the one part pixel of a finger-palm-print image. It is a figure which shows the example which divided a part (upper left part) of 1024x1024 pixel A by 16x16 collective element B.
  • FIG. It is a figure which shows an example of a part of conversion image.
  • (A) is a figure which shows an example of the 1st selection area in the case of selecting the circumference
  • (B) is a figure which shows an example of the 2nd selection area in the case of selecting the circumference
  • (C) is a figure which shows an example of the 3rd selection area in the case of selecting the circumference
  • (D) is a figure which shows an example of the 4th selection area in the case of selecting the circumference
  • (E) is a figure which shows an example of the 5th selection area in the case of selecting the circumference
  • (F) is a figure which shows an example of the 6th selection area in the case of selecting the circumference
  • (G) is a figure which shows an example of the 7th selection area in the case of selecting the circumference
  • (H) is a figure which shows an example of the 8th selection area in the case of selecting the circumference
  • (A) is a figure which shows an example of the 1st selection area in the case of selecting the circumference
  • (B) is a figure which shows an example of the 2nd selection area in the case of selecting the circumference
  • FIG. 1 is a block diagram of a finger / palm-print image processing apparatus 100 according to an embodiment of the present invention.
  • the finger / palm-print image processing device 100 is a device that compares two finger / palm-print images considered to be the same person registered in advance, and checks whether the finger / palm-prints of the two finger / palm-print images are of the same person. .
  • the finger / palm-print image processing device 100 includes an input unit 10, an image acquisition unit 20, an image conversion unit 30, an area identification unit 40, a collation unit 50, a display unit 60, and storage. And a unit 70.
  • the input unit 10 includes a keyboard and a pointing device such as a mouse.
  • the input unit 10 is used, for example, to select two finger / palm print images that the user wants to check.
  • the display unit 60 includes a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal Display).
  • the display unit 60 displays, for example, a screen for selecting two finger / palmprint images that the user wants to check. Further, the display unit 60 displays the collation result and the like performed by the collation unit 50.
  • the storage unit 70 stores a finger / palmprint image, various types of information, and the like.
  • the finger / palm-print image is, for example, image data obtained by shading the finger / palm-print image.
  • Various parts of the finger / palm print can be used to check the finger / palm print. Therefore, there are various types of finger / palmprint images used for finger / palmprint collation.
  • the finger / palmprint image can be acquired using a scanner or the like.
  • finger / palm print image used for finger / palm collation is as follows. (1) Right Full Hand (2) Left Full Hand (3) Right upper palm (4) Left upper palm (Left Upper Palm) (5) Right lower palm (Right Lower Palm) (6) Left lower palm (7) Right hand side (Right Writers) (8) Left hand side (Left Writers) (9) Each finger on the right (Right Thumb, Right Index, Right Middle, Right Ring and Right Little) (10) Each finger on the left (Left Thumb, Left Index, Left Middle, Left Ring and Left Little) (11) Right plane four fingers and right thumb (Right 4-Slap and Right Slap Thumb) (12) Left flat four fingers and left thumb (Left 4-Slap and Left Slap Thumb)
  • the image acquisition unit 20 causes the display unit 60 to display the finger / palm-print image stored in the storage unit 70. Then, when two finger / palm-print images are selected from the screen displayed on display unit 60 via input unit 10, image acquisition unit 20 stores two selected finger / palm-print images. (Refer to step S101 described later).
  • the two finger / palm print images are an image of the right upper palm and an image of the right lower palm that are considered to be those of the same person.
  • the image acquisition unit 20 passes one of the acquired two finger / palm print images (for example, an image of the right upper palm portion) to the image conversion unit 30.
  • the image acquiring unit 20 is used to specify which of the two finger / palm-print images the two acquired finger / palm-print images (for example, the image of the right lower palm portion) have been passed to the image conversion unit 30. It passes to the collation part 50 with specific information.
  • one of the images passed to the image conversion unit 30 will be referred to as a first finger / palm-print image, and the other image will be referred to as a second finger / palm-print image.
  • the image conversion unit 30 converts the first finger / palmprint image acquired from the image acquisition unit 20 to generate a converted image (for a specific example, refer to step S102 and step S103 described later).
  • the image conversion unit 30 uses, as data related to the converted image, a pixel group in the first finger / palm-print image that corresponds to the pixels that constitute the converted image.
  • Generate location information for Further, position information of a pixel group in the first finger / palm-print image constituting the second collective element corresponding to the pixels constituting the converted image is generated. These pieces of position information are information indicating the position of the pixel group in the first finger / palmprint image.
  • the image conversion unit 30 passes the converted image associated with the position information to the area specifying unit 40.
  • the converted image is composed of pixels corresponding to the plurality of first set elements and pixels corresponding to the plurality of second set elements.
  • the first set of elements and the second set of elements are composed of pixel groups that make up the finger / palm-print image.
  • the first set element is a set element in which the degree of change in color information of the pixels constituting the set element satisfies a predetermined criterion.
  • the second set element is a set element in which the degree of change in color information of the pixels constituting the set element does not satisfy the predetermined criterion.
  • the threshold can be determined as appropriate, it is desirable that the threshold be set such that an aggregate element whose degree of change in color information is equal to or higher than the threshold is an aggregate element suitable for finger / palm collation. Specifically, it is desirable that the threshold value be a value such that the maximum gray level (or maximum gray level) of the pixels constituting the collective element is 2 or 3 times the minimum gray level (or minimum gray level).
  • the area specifying unit 40 specifies an area in which the number of pixels corresponding to the first set element is equal to or more than a predetermined number from the converted image acquired from the image conversion unit 30 (a specific example is S104 to S116 described later). reference).
  • a predetermined number from the converted image acquired from the image conversion unit 30 (a specific example is S104 to S116 described later). reference).
  • the area specified by the area specifying unit 40 is referred to as a specified area.
  • the threshold is 80% of the number of set elements included in the specific area, that is, a value obtained by multiplying the total number of first set elements and second set elements included in the specific area by 0.8 can do.
  • the area specifying unit 40 specifies, for example, three or more specific areas in the converted image. If there are three or more specific areas, the accuracy of finger / palm collation can be increased.
  • the area specifying information indicating which area of the first finger / palm-print image the first set element and the second set element included in the specified area correspond to is the position information described above. Generate using.
  • the first set of elements and the second set of elements are obtained from the finger / palm-print image. For this reason, if it is known in which area of the finger / palm print image the first set element and the second set element are included, it can be known which specific area including these corresponds to which area of the finger / palm print image. Therefore, the area specifying unit 40 generates area specifying information using the position information. When the area specifying unit 40 generates the area specifying information, the area specifying unit 40 passes the area specifying information to the matching unit 50. On the other hand, when the area specifying unit 40 can not specify the specified area, the area specifying unit 40 passes the disabling information indicating that the specified area can not be specified to the matching unit 50.
  • the collation unit 50 acquires the first finger / palm-print image, the second finger / palm-print image, and the specific information from the image acquisition unit 20. Further, the collation unit 50 acquires the area identification information or the disable information from the area identification unit 40.
  • the collation unit 50 specifies that the original data of the converted image is the first finger / palm-print image based on the specific information. Next, the matching unit 50 uses the area specifying information to specify an area corresponding to the specific area in the first finger / palm-print image. Then, the image of this area is taken out as a collation image.
  • the collation unit 50 collates the collation image extracted from the first finger / palm-print image with the second finger / palm-print image. This matching can be performed by a method using feature points and relations.
  • the matching unit 50 determines that the owner of the finger / palm-print of the first finger / palm-print image and the owner of the finger / palm-print of the second finger / palm-print image are the same person. judge. Then, the display unit 60 displays the result of the determination. On the other hand, when the collating unit 50 acquires the disabling information from the area specifying unit 40, the collating unit 50 causes the display unit 60 to display that the collation can not be performed as a collation result.
  • the finger / palm-print image processing apparatus 100 converts the first finger / palm-print image into a converted image composed of the first set of elements and the second set of elements, and the conversion performed by the image conversion unit.
  • the image processing apparatus further includes an area specifying unit 40 for specifying an area including pixels corresponding to a predetermined number or more of first set elements from the image.
  • the image conversion unit 30 sets a set of elements constituting the finger / palmprint image (a predetermined area in the finger / palmprint image), a first set element having a large degree of change in color information of the elements, and a small degree of change in color information Classify into second set elements. Then, the area specifying unit 40 specifies an area including a predetermined number or more of first set elements as a specific area. Thereby, the area specifying unit 40 can specify a specific area including a large number of first set elements having a large degree of change in color information. For this reason, it is possible to extract from the finger / palmprint image a collation image as an area corresponding to the specific area.
  • the verification image is an area in which the analysis of the properties of the finger / palmprint is easy, such as extraction of the feature points of the finger / palmprint.
  • the region where the change in color is small it is difficult to analyze the nature of the finger / palm print.
  • the finger / palm-print image processing device 100 includes the matching unit 50 that matches the matching image extracted from the first finger / palm-print image with the second finger / palm-print image (the specific example is the above description and Refer to step S117 described later). Thereby, collation of the finger / palmprint can be performed with high accuracy. Further, in the finger / palm-print image processing device 100, the matching image as the matching target area extracted from the first finger / palm-print image is matched with the second finger / palm-print image. As a result, compared to the case where the entire first finger / palm-print image and the entire second finger / palm-print image are collated, the amount of information handled in the collation is reduced. As a result, the processing load on the finger / palm-print image processing device 100 is reduced.
  • the finger / palm-print image processing device 100 executes a finger / palm-print image processing method. By executing the finger / palmprint image processing method, the above-described effect can be realized.
  • the color information is information of the color possessed by the element of the finger / palm-print image.
  • the degree of change in color information is the degree of change in color.
  • An element is one or more pixels which comprise a finger-palm-print image.
  • the gradation value is a value representing the gradation of each element of the finger / palm-print image. For example, if the gradation value is large, the color of the element is dark, and if it is small, the color of the element is light.
  • the gray value is, for example, an average value of a plurality of pixels.
  • the image is a color
  • the average value of the gradation of each color (red, blue, and green) of the pixel is taken as the gradation.
  • the gradation difference is, for example, the difference between the maximum value and the minimum value of the gradation values of the pixels constituting the collective element. As the difference is larger, it can be said that the difference in density between the pixels constituting the collective element is larger. If the difference in density between pixels included in the collation image is large, it is easy to find the nature of the finger / palm print. On the contrary, when the difference in density between pixels included in the collation image is small, it becomes difficult to find a feature point or the like, and as a result, the collation accuracy may be lowered.
  • the contrast is the difference between the maximum tone and the minimum tone of the pixels making up the collective element.
  • the gradation of the aggregation element is the average value of the contrasts of the pixels constituting the aggregation element. The greater the contrast, the greater the difference in tone of the pixels that make up the collective element. The greater the contrast, the easier it is to find the nature of the finger print.
  • the condition that the contrast of the gradation of the elements constituting the collective element satisfies the predetermined standard includes that the contrast threshold is equal to or higher than the predetermined reference and that the contrast sensitivity is equal to or higher than the predetermined reference.
  • the finger / palm-print image processing apparatus 100 examines the gradation (for example, 256 tones) of each pixel of a finger / palm-print image (an image obtained by densifying the finger / palm-print image) consisting of 1024 ⁇ 1024 pixels.
  • the finger / palm-print image processing device 100 examines the gradation, it is determined whether the average of the contrasts of the pixels in the set elements is equal to or greater than a certain threshold for each of the 64 ⁇ 64 set elements consisting of 16 ⁇ 16 pixels.
  • the finger / palm-print image processing device 100 generates a converted image composed of pixels corresponding to 64 ⁇ 64 of each set element.
  • the converted image may be a binary image composed of pixels corresponding to the first set element to which "1" is assigned, and pixels corresponding to the second set element to which "0" is assigned.
  • the finger / palm-print image processing device 100 sets points in the converted image. Then, a selected area consisting of 16 ⁇ 16 pixels including this point is selected from the converted image. If the selected area includes a large number of pixels to which “1” is assigned, the finger / palm-print image processing device 100 specifies this area as the specific area. Since the specific area corresponds to the collation target area, the finger / palm-print image processing device 100 extracts the collation target area from the finger / palm-print image as a collation image and uses it for collation of the finger / palm-print.
  • the finger / palm-print image processing apparatus 100 reselects the periphery of the first selected area a predetermined number of times, and “1” is assigned. Find an area that contains many pixels.
  • the finger / palm-print image processing apparatus 100 specifies the specific area, or if the specific area can not be specified even if it is selected a predetermined number of times, another point is set in the converted image and the same method as described above is performed. The area further including many pixels to which "1" is assigned is searched. In this manner, the finger / palm-print image processing device 100 specifies three or more specific areas.
  • FIG. 2 is a flowchart showing processing executed by the finger / palm-print image processing device 100.
  • FIG. 3A is a view showing a first finger / palm-print image 81 which is an image of the upper palm of the right.
  • FIG. 3B is a view showing a second finger / palm-print image 82 which is an image of the right lower palm.
  • the image acquisition unit 20 acquires the first finger / palm-print image and the second finger / palm-print image selected by the user from the storage unit 70 (step S101). Note that the owner specified by the owner identification information of the first finger / palm print image and the owner identified by the owner identification information of the second finger / palm print image are assumed to be the same person.
  • the image acquiring unit 20 selects the first finger / palm-print image 81 from among the first finger / palm-print image 81 and the second finger / palm-print image 82. In addition, the image acquiring unit 20 identifies a portion that overlaps between the first finger / palm-print image 81 and the second finger / palm-print image 82. Then, the overlapping part specifying information as the specifying result is associated with the selected first finger / palm-print image 81.
  • the overlap portion specification information is generated by the image acquisition unit 20 as follows.
  • Storage unit 70 includes type identification information of first finger / palm print image 81, and first overlap identification information for identifying which portion of first finger / palm print image 81 overlaps second finger / palm print image 82.
  • the first information is stored.
  • second information including type specification information of the second finger / palm print image 82 and second overlap specification information for specifying which part of the second finger / palm print image 82 overlaps the first finger / palm print image 81 , And stored in association with the first information.
  • the overlap identification information can be predicted to some extent by a combination of finger and palm print images. Therefore, specific information for identifying a portion 81a that occupies the upper half of the first finger / palm-print image 81, which overlaps each other between the first finger / palm-print image 81 and the second finger / palm-print image 82, and the second finger / palm-print image Specific information for specifying the portion 82 a occupying the lower half of the information 82 can be recorded in the storage unit 70 in advance.
  • the position of the finger / palm print may be slightly shifted between the first finger / palm print image 81 and the second finger / palm print image 82 depending on the method of acquiring the finger / palm print image. Therefore, it is preferable to assume a region of a certain size as the portions 81a and 82b specified by the first overlap specifying information or the second overlap specifying information. As can be seen with reference to FIG. 3A or FIG. 3B, in this embodiment, the portions 81a and 82a are approximately half the area of the finger / palmprint image.
  • the image acquiring unit 20 acquires first information and second information corresponding to each other from the storage unit 70 using the type specifying information related to the first finger / palm-print image 81 and the second finger / palm-print image 82 as a key. Then, the image acquisition unit 20 extracts the first overlap identification information from the first information related to the first finger / palm-print image 81, and sets the first overlap identification information as overlap portion identification information.
  • the first finger / palm-print image 81 is an image of the right upper palm portion.
  • the type specifying information included in the first information is information indicating that the first finger / palm-print image 81 is the upper palm of the right.
  • the first overlap specifying information is information for specifying the lower half area in the first finger / palm-print image 81.
  • the image acquisition unit 20 associates the first overlap identification information with the selected first finger / palm-print image 81 as overlap portion identification information. Then, the first finger / palm-print image 81 is passed to the image conversion unit 30.
  • the image conversion unit 30 detects the gradation of the pixels constituting the first finger / palmprint image (step S102).
  • the first finger / palm-print image 81 and the second finger / palm-print image 82 are configured by pixels arranged in a matrix of 1024 rows and 1024 columns.
  • the image conversion unit 30 detects gradation (for example, 256 gradations) for each pixel using the color of each pixel (here, light and dark).
  • the image conversion unit 30 generates gradation information (image gradation information) of each pixel.
  • the image gradation information is information indicating the position and gradation in the finger / palm-print image of each pixel, the owner identification information of the first finger / palm-print image 81, the type identification information of the first finger / palm-print image 81, and the overlapping portion identification information And information.
  • FIG. 4 is a view showing a state of a part of pixels of the finger / palmprint image.
  • the pixel A has a color (here, light and dark).
  • the image conversion unit 30 generates a converted image based on the detected gradation (image gradation information) (step S103). Specifically, the image conversion unit 30 divides the first finger / palm-print image 81 into 64 ⁇ 64 areas composed of 16 ⁇ 16 pixels. Then, the contrast of the pixel is detected for each section.
  • a pixel group included in each section is referred to as a set element.
  • FIG. 5 is a view showing a part (upper left part) of the first finger / palm-print image 81. As shown in FIG. As can be seen with reference to FIG. 5, each set element B consists of pixels arranged in a matrix of 16 rows and 16 columns.
  • the image conversion unit 30 gives “1” to a set element whose contrast in each set element B is equal to or higher than a threshold. Also, “0” is assigned to a set element whose contrast in each set element B is less than the threshold. Then, the finger / palm-print image processing device 100 generates a converted image composed of 64 ⁇ 64 pixels corresponding to each set element.
  • FIG. 6 is a view showing a part of the converted image. As shown in FIG. 6, the converted image is an image composed of a pixel C indicated by “1” and a pixel D indicated by “0”.
  • the image conversion unit 30 specifies an area to be used for collation out of the first finger / palm-print image 81 by using the overlapping portion specifying information. For example, the image conversion unit 30 identifies a portion 81 a that overlaps the second finger / palm-print image 82 from the first finger / palm-print image 81 based on the overlapping portion identification information.
  • the image conversion unit 30 passes the converted image to the area specifying unit 40.
  • the area specifying unit 40 acquires a converted image from the image conversion unit 30.
  • the area specifying unit 40 determines whether N is a predetermined value (step S106).
  • N is a predetermined value (step S106: YES) when there is no point to be described later for searching for a specific area, and a necessary number of specific areas can not be specified.
  • the area specifying unit 40 proceeds to step S118.
  • the area identification unit 40 generates information indicating that identification is not possible and passes the information to the collation unit 50.
  • the predetermined value is four. Therefore, if N is 4, the determination in step S106 is affirmed. If N is less than 4, the determination at step S106 is negative, and the area identifying unit 40 executes the process at step S107.
  • the area specifying unit 40 sets an N-th point in the converted image (step S107).
  • the area specifying unit 40 sets this point, for example, based on the overlapping part specifying information. Specifically, a point is set at a predetermined position of the portion specified by the overlapping portion specifying information.
  • the type identification information, the overlapping portion identification information, and the point identification information for identifying the position of the points are recorded in advance in a mutually associated state.
  • the area specifying unit 40 acquires point specifying information from the storage unit 70 using the type specifying information of the converted image and the overlapping portion specifying information as keys. Then, points are set based on the point identification information. Referring to FIG. 7, it can be seen that the first point is point 91a, the second point is point 91b, and the third point is point 91c.
  • the area specifying unit 40 can efficiently specify the specified area by setting the point by the area specifying unit 40.
  • FIG. 7 is a diagram for explaining the positions of a plurality of points to be set in the converted image, and a plurality of selection areas selected to include the points.
  • the converted image 90 consists of 64 ⁇ 64 pixels.
  • points 91a, 91b, and 91c are set on any of the pixels.
  • each of the selection regions 92a, 92b, and 92c consists of 16 ⁇ 16 pixels, and the center substantially coincides with the points 91a, 91b, and 91c.
  • the plurality of points may be uniformly scattered in the transformed image, but as shown in FIG. 7, it is desirable to be set within a predetermined range in the transformed image 90.
  • the converted image corresponds to an area where the first finger / palm-print image 81 and the second finger / palm-print image overlap. It is desirable to set points 91a, 91, and 91c in the area.
  • the portion 81 a of the first finger / palm-print image 81 and the portion 82 a of the second finger / palm-print image 82 overlap. Therefore, it is desirable to set points 91a, 91b, and 91c in the lower half area of the converted image generated based on the first finger / palm-print image 81.
  • the points can be set based on the position information of the first and second set elements.
  • the area specifying unit 40 selects an area including the N-th point in the converted image (step S108). For example, as can be seen with reference to FIG. 7, the area specifying unit 40 first selects a selected area 92 a including the point 91 a. Second, the selection area 92b including the point 91b is selected. Third, select area 92c including point 91c.
  • Efficiency is achieved by selecting a predetermined area in the converted image such that the points determined based on the positional relationship between the portion 81 a of the first finger / palm print image 81 and the portion 82 a of the second finger / palm print image 82 are included. You can often identify specific areas.
  • the area specifying unit 40 determines whether the selected area is a specific area based on the number of first set elements included in the selected area (step S109). Specifically, the area specifying unit 40 determines whether the number of pixels corresponding to the first set of elements constituting the selected area is 80% or more of the total number of pixels constituting the converted image. In the example shown in FIG. 6, there are 209 pixels indicated by “1” in the selection area E. In this case, the number of pixels corresponding to the first collective element exceeds 80% of the 256 pixels constituting the selection area E. Therefore, the area specifying unit 40 determines that the selection area E is a specific area.
  • step S110 the process proceeds to step S110, and sets the selected area as an X-th specific area (step S110).
  • the area specifying unit 40 corresponds to which area of the finger / palm-print image, which is the original data of the converted image, from the position information of the first set element and the second set element corresponding to the pixels included in the specified area. It generates area identification information to identify whether it is. Then, the area identification information is held as the X-th area identification information.
  • the area specifying unit 40 can generate area specifying information.
  • the area specifying unit 40 uses area correspondence information on the converted image. Domain identification information.
  • the area correspondence information is information for specifying which area of the finger / palm print image the first set element and the second set element correspond to. For this reason, it is possible to specify which area of the finger / palm print image corresponds to the first set element and the second set element corresponding to the specific area by the area specifying information.
  • the area specifying unit 40 holds the generated area specifying information as X-th area specifying information.
  • the area specifying unit 40 sequentially stores and holds the area specifying information until the area specifying information is passed to the collating unit 50 or until the finger / palm-print image processing device 100 ends the process.
  • the area specifying unit 40 determines whether X is a predetermined value (step S111). If X is a predetermined value (step S111: YES), the process proceeds to step S117. At this time, the area specifying unit 40 passes X pieces of area specifying information to the matching unit 50. When X is a predetermined value, it means that the number of specific regions necessary for use in finger / palm collation has been identified.
  • step S111 since the collation of the finger / palmprint is performed using three areas in the finger / palmprint image, the predetermined value is 3. If X is less than the predetermined value (step S111: NO), the process proceeds to step S112.
  • step S114 If M is less than the predetermined value (step S114: NO), the area specifying unit 40 proceeds to step S115, assuming that all points around the point set in step S107 have not been selected.
  • the area specifying unit 40 selects an area at a position corresponding to M for the N-th point in step S115 (step S115).
  • step S116 the area specifying unit 40 proceeds to step S116 and increments the value of M by one. Then, the process returns to step S109. If the determination in step S109 is negative, the region identifying unit 40 proceeds to step S114. In this manner, the area specifying unit 40 sets the area around the point set in step S107 until the specific area is specified or until all areas around the point set in step S107 are selected. Repeatedly select.
  • the area around the point refers to an area in which the center of this area is within a certain distance from this point. Therefore, the area around this point may be an area including this point or an area not including this point.
  • FIG. 8A is a diagram showing an example of a first selection area in the case of selecting the periphery of the set point.
  • FIG. 8B is a diagram showing an example of a second selection area in the case of selecting the periphery of the set point.
  • FIG. 8C is a diagram showing an example of the third selection area in the case of selecting the periphery of the set point.
  • FIG. 8D is a diagram illustrating an example of a fourth selection area in the case of selecting the periphery of the set point.
  • FIG. 8E is a diagram showing an example of the fifth selection area in the case of selecting the periphery of the set point.
  • FIG. 8F is a diagram showing an example of a sixth selection region in the case of selecting the periphery of the set point.
  • FIG. 8G is a diagram showing an example of a seventh selection region in the case of selecting the periphery of the set point.
  • FIG. 8H is a diagram showing an example of the eighth selected area in
  • the area specifying unit 40 defines the area 95a at a position shifted from the area 95 by four pixels to the right. Then, the area 95a is selected as a selection area.
  • the area specifying unit 40 specifies the area 95b at a position shifted by four pixels above the area 95a. As a result, the area 95 b is defined at a position shifted by 4 pixels to the right from the area 95 and 4 pixels on the upper side. Then, the area 95b is selected as a selection area.
  • M is 3, as illustrated in FIG.
  • the area specifying unit 40 specifies the area 95c at a position shifted by four pixels to the left from the area 95b. As a result, the area 95 c is defined at a position shifted by four pixels upward from the area 95. Then, the area 95c is selected as a selection area.
  • the area specifying unit 40 shifts in the vertical direction or the horizontal direction by four pixels from the most recently selected area as shown in FIGS. 8 (d) to 8 (h). Regions 95d to 95h are defined at the same position. Then, the defined areas 95d to 95h are sequentially selected. As described above, the area specifying unit 40 sequentially defines areas corresponding to M based on the points set in step S107. Then, it is selected as a selection area. The region corresponding to M is set in advance.
  • the area specifying unit 40 sequentially defines the selection area around the point set in step S107 as described above until the specified area is specified.
  • FIG. 9A is a diagram showing an example of a first selection area in the case of selecting the periphery of the set point.
  • FIG. 9B is a diagram showing an example of a second selection area in the case of selecting the periphery of the set point.
  • the area specifying unit 40 may define an area so that the previously selected area and the subsequently selected area do not overlap, and select the area as a selected area.
  • the specific area can be efficiently identified. Since the area selected one before is not a specific area, it contains many second set elements. If the defined regions overlap, there is a possibility that the region selected after that may include many second aggregate elements. Therefore, it is better to define the regions so as not to overlap each other.
  • an area 96 is a selected area selected to include the point set in step S107.
  • An area 96 a in FIG. 9A is a selected area selected when M is 1.
  • An area 96 b in FIG. 9B is a selected area selected when M is two.
  • the arrow in FIG. 9 (b) indicates the transition of the center of the selected region when M is 3 or more.
  • the area specifying unit 40 selects eight areas in upper, lower, left, right, and diagonal directions between points as viewed from the point as the selection area.
  • the area specifying unit 40 may specify only the areas in the upper, lower, left, and right directions, or only the areas in the oblique direction with respect to the point.
  • the area specifying unit 40 continues to select the area around the point only when the third area can not be specified. However, even if the third area is found, the area specifying unit 40 may reselect the area around the point until M reaches a predetermined value. In this case, as shown in FIG. 9, it is desirable that the area specifying unit 40 select the area so that the previously selected area and the subsequently selected area do not overlap. Further, even if the previously selected area and the later selected area overlap, it is desirable to select the area so that only the area within the predetermined range overlaps. When most of the specific areas overlap, a plurality of matching areas are used for finger / palm collation. As a result, the accuracy of finger / palm collation is degraded.
  • the area specifying unit 40 sequentially selects areas starting near the center of the converted image (FIG. See also arrow 7).
  • the outside of the finger / palm print image may be a region not showing a finger / palm print, or a portion where matching of the finger / palm print is difficult. For this reason, if it selects from the area
  • the area specifying unit 40 when selecting a series of areas around the point set in step S107, the area specifying unit 40 first selects an area near the center of the converted image. Then, based on this area, areas are sequentially selected around the point. Thereby, the specific area can be efficiently specified.
  • FIG. 10 is a diagram for explaining the transition of the area sequentially defined so as to go around the circumference of the point.
  • the arrows shown in FIG. 10 indicate the transition of the defined area.
  • the area specifying unit 40 selects the area of the central portion (here, the right side) of the converted image 97. After that, from the selected area selected most recently, the selected area is sequentially selected counterclockwise.
  • the area specifying unit 40 selects the area at the central portion (here, the left side) of the converted image 97. After that, from the selected area selected most recently, the selected area is sequentially selected clockwise. As described above, by selecting the selection area, it is possible to efficiently specify the specific area.
  • the area specifying unit 40 selects a partial area of the converted image as a selection area. Next, it is determined whether the selected area includes a predetermined number or more of first set elements. Then, the selection area is specified as the specific area only when the selection area includes the predetermined number or more of the first set elements. The area specifying unit 40 repeats the above-described operation until a predetermined number of specified areas including the predetermined number or more of the first set elements are specified. As a result, it is possible to specify a predetermined number of collation target areas of the finger / palmprint. Therefore, the collation accuracy of the finger / palmprint can be increased.
  • step S117 the collation unit 50 acquires X (three) pieces of area identification information from the area identification unit 40. Further, the first finger / palm-print image 81 and the second finger / palm-print image 82 and passing information are obtained from the image acquisition unit 20. The collation unit 50 specifies a finger / palm-print image that is the original data of the converted image from the passing information. Then, three areas corresponding to the specific area are extracted from the first finger / palm-print image 81 as a collation image using the area specifying information.
  • the collation unit 50 collates the three collation images with the second finger / palm-print image 82, and generates a collation result (step S117).
  • the method of collation can be performed by a known method such as a method using feature points. Specifically, the collation unit 50 compares the second finger / palm-print image 82 with each of the three collation target areas. Then, from the second finger / palm-print image 82, extraction of a portion where the matching target region and the feature point and the like match is tried.
  • the collating unit 50 can extract a part that matches any of the collation target areas, the owner of the finger / palm print included in the first finger / palm print image 81 and the owner of the finger / palm print included in the second finger / palm print image 82 are the same person It is determined that On the other hand, when it is not possible to extract a part that matches any of the collation target areas, the owner of the finger / palm print in the first finger / palm print image 81 and the owner of the finger / palm print in the second finger / palm print image 82 are different persons. judge.
  • the collating unit 50 acquires from the area identifying unit 40 the information indicating the indeterminability which is generated when the process in step S117 is completed or affirmed in step S106, the collating result in the display unit 60, Or, display information indicating that the comparison could not be made.
  • FIG. 11 is a diagram showing a hardware configuration of a finger / palm-print image processing device according to an embodiment of the present invention.
  • the input unit 10 in FIG. 1 includes an input device 5 such as a keyboard and a mouse.
  • the image acquisition unit 20, the image conversion unit 30, the area identification unit 40, and the collation unit 50 in FIG. 1 store the CPU 1, the calculation area of the RAM 2, the data generated during processing by the CPU 1, etc. And 4 storage areas.
  • the storage unit 70 in FIG. 1 is configured of a predetermined storage area of the storage device 4.
  • the finger / palm-print image processing program 6 is installed using a portable information storage medium 7 such as a CD-ROM storing the finger / palm-print image processing program 6 and a reader 8 such as a CD-ROM drive. Or it is downloaded through the network.
  • the finger / palm-print image processing program 6 may be stored in advance in a ROM (Read Only Memory) or the like that constitutes the storage device 4.
  • the finger / palmprint image processing program 6 is expanded on the RAM 2.
  • a storage medium such as a RAM 2, a ROM, a storage device 4, or a portable information storage medium 7 in which the finger / palm-print image processing program 6 is recorded is a finger / palm-print image processing program product.
  • the image conversion unit 30 divides the finger / palm-print image composed of 1024 ⁇ 1024 pixels into a first set element and a second set element divided at a predetermined size. And a converted image composed of 64 ⁇ 64 pixels (group elements). As a result, the amount of data to be handled at the time of matching is reduced, and the processing load in specifying a specific area is reduced.
  • the image acquisition unit 20, the image conversion unit 30, the area identification unit 40, and the collation unit 50 are configured by a combination of two or more CPUs (central processing units) and two or more storage areas, etc. It may be done.
  • the storage area is composed of, for example, a calculation area such as a random access memory (RAM) and a storage area in a storage device that holds data generated during processing by each unit.
  • the display unit 60 is configured of a display device such as a display.
  • the storage unit 70 is configured by, for example, a predetermined storage area in one or more storage devices. Examples of storage devices include flash memory or hard disks.
  • the finger / palm-print image processing device 100 may be configured by, for example, two or more computers.
  • the processing performed by the finger / palm-print image processing device 100 may be distributed processing by a plurality of devices.
  • the plurality of devices constitute the finger / palm-print image processing device 100 as a whole.
  • the storage unit 70 may be provided in a server or the like. That is, the storage unit 70 may be external to the finger / palm-print image processing device 100.
  • the image acquisition unit 20 acquires the finger / palm-print image from the storage unit 70.
  • a finger / palm-print image may be acquired via a finger / palm-print reading device that reads a finger / palm-print.
  • an electronic data of a handprint / printer / handprint / printer remaining on a crime scene or the like may be used.
  • the area specifying unit 40 may generate the area specifying information from the position information of the first set element and the second set element included in the specified area.
  • the image acquisition unit 20 selects the first finger / palm-print image 81 from among the first finger / palm-print image 81 and the second finger / palm-print image 82.
  • the second finger / palm-print image 82 may be selected.
  • the user may select the finger / palmprint image via the input unit 10.
  • the collective element is composed of 16 ⁇ 16 pixels.
  • the present invention is not limited to this, and the collective element may be composed of 12 ⁇ 12 or 8 ⁇ 8 pixels.
  • the selection area is composed of 16 ⁇ 16 pixels.
  • the present invention is not limited to this, and the collective element may be composed of 12 ⁇ 12 or 8 ⁇ 8 pixels.
  • the plurality of points may be unevenly distributed in an area in which an area in which a specific area can be easily identified is grasped in advance empirically.
  • the storage unit 70 associates and stores in advance type identification information and point identification information for identifying the position of the point.
  • the area specifying unit 40 acquires point specifying information using the type specifying information included in the converted image as a key, and sets points based on the point specifying information. In addition, when the points are scattered, it is possible to uniformly search for a specific area in the converted image.
  • the selection area is defined so as to be displaced by four pixels.
  • the selection region may be defined so as to be displaced by one pixel or two pixels. Further, the selection region may be defined so as to be displaced by four or more pixels.
  • the selected area may partially or entirely overlap with the selected area in the case where the periphery of another point is selected. For example, if this displacement is too large, most of the selected area shifted to the right from the selected area 92a and the selected area shifted to the left from the selected area 92b may overlap, as can be seen from FIG. In such a case, two specific areas that mostly overlap may be identified. Therefore, the displacement should be small to some extent. In addition, even if the overlapping of the selection areas occurs, when the overlapping portion is small, the collation of the finger / palm can be performed without any problem.
  • the specific region can not be specified efficiently. This is because the overlapping area between the area selected one before and the area selected after that becomes large. Since the area selected one before is not a specific area, it contains many second set elements. If the overlapping portion is large, the region selected after that may also include many second aggregation elements.
  • the image conversion unit 30 may delete a predetermined part (an unnecessary part), for example, a finger part to generate conversion information. For example, an area other than the portion 81 a is deleted from the first finger / palm-print image.
  • the image conversion unit 30 associates area correspondence information, which is information that can specify which area of the finger / palm print image corresponds to the first set element and the second set element, to the converted image. This area correspondence information can be generated, for example, from position information of pixels included in a finger / palmprint image or gradation information.
  • deletion of the predetermined part may be performed by something other than the image conversion unit 30. That is, the deletion of the predetermined part may be performed by an unnecessary part deletion unit (not shown) provided between the image acquisition unit 20 and the image conversion unit 30.
  • the portion corresponding to the finger portion may be specified from the value of color information (tone) or change degree of color information (contrast).
  • color information tone
  • color information or the degree of change in color information has no change (or little change)
  • portions where color information or the degree of change in color information has a change (or a large change) are alternately arranged in a band
  • a portion where there is no change (or little change) in color information or the degree of change in color information is considered as an area in which something between fingers is shown.
  • a portion having a change (or a large change) in color information or the degree of change in color information is considered as an area in which a finger is captured.
  • the processing load is reduced.
  • the information regarding the finger / palm print image identifies the position information and color information (tone) for each pixel, the owner identification information for identifying the owner of the finger / palm print of this finger / palm print image, and the type of the finger / palm print image And type specific information.
  • the owner identification information is information on the name of the owner, and the type identification information is information for identifying the type of finger / palm print image.
  • the image acquiring unit 20 causes the display unit 60 to display that collation is impossible. It is also good. The determination as to whether or not the matching is impossible can be made based on the type identification information.
  • the image acquisition unit 20 acquires, from the storage unit 70, information on the combination of collatable finger / palm-print images that are recorded in advance in the storage unit 70. Next, based on the acquired information, it is determined whether the finger / palmprint image identified from the two types of identification information is collatable. Next, when the image acquiring unit 20 determines that the finger / palmprint image identified from the two types of identification information is collatable, it starts image processing. On the other hand, when the image acquiring unit 20 determines that the finger / palmprint image specified from the two type specifying information is not collatable, the image acquiring unit 20 causes the display unit 60 to display information to the effect that collation is impossible, and ends the image processing.
  • the finger / palm-print image processing device, the finger / palm-print image processing method, and the recording medium storing the finger / palm-print image processing program according to the present invention are suitable for collation of a finger / palm-print image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Human Computer Interaction (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

 指掌紋の画像である指掌紋画像を処理する指掌紋画像処理装置であって、前記指掌紋画像を、第1集合要素と第2集合要素とからなる変換画像に変換する画像変換手段と、前記画像変換手段が変換した前記変換画像の中から前記第1集合要素の数が所定数以上である領域を特定する領域特定手段と、を備え、前記第1集合要素と前記第2集合要素とは、前記指掌紋画像の要素が集合した集合要素であり、前記第1集合要素は、前記集合要素内における前記要素の色情報の変化度が所定基準を満たす集合要素であり、前記第2集合要素は、前記集合要素内における前記要素の色情報の変化度が所定基準を満たさない集合要素であることを特徴とする。

Description

指掌紋画像処理装置、指掌紋画像処理方法及び指掌紋画像処理プログラムを記録した記録媒体
 本発明は、指掌紋の画像である指掌紋画像を処理する指掌紋画像処理装置、指掌紋画像処理方法及び指掌紋画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体に関する。
 近年、文字や記号の組み合わせからなるコードやパスワードに代えて、対象者の身体的特徴を用いて認証を行う生体認証技術の研究開発が盛んに行われている。生体認証には、例えば、指紋、手の甲の静脈パターン、眼の虹彩パターン、声紋など、個人相互間で不同な身体的特徴が用いられるのが一般的である(例えば特許文献1参照)。
特開2008-217307号公報
 例えば特許文献1には、手の平の画像データから、認証に使用する掌紋の画像を抽出するための技術が開示されている。この技術は、手の平の画像のうちのどの部分を認証に用いるかを予め決めておき、撮像した画像から、該当する画像を抽出する。
 しかしながら、手の平の画像には、撮像したときの条件や、固有の身体的特徴などによって、照合に適さない部分が含まれることがある。この場合、認証に用いる部分が予め決定されていると、照合に適さない掌紋画像が抽出されてしまう。
 本発明は、上記点に鑑みてなされたものであり、その目的は、認証に適した掌紋画像を抽出することを目的とする。
 本発明の第1の観点に係る指掌紋画像処理装置は、
 指掌紋の画像である指掌紋画像を処理する指掌紋画像処理装置であって、
 前記指掌紋画像を、第1集合要素と第2集合要素とからなる変換画像に変換する画像変換手段と、
 前記画像変換手段が変換した前記変換画像の中から前記第1集合要素の数が所定数以上である領域を特定する領域特定手段と、を備え、
 前記第1集合要素と前記第2集合要素とは、前記指掌紋画像の要素が集合した集合要素であり、
 前記第1集合要素は、前記集合要素内における前記要素の色情報の変化度が所定基準を満たす集合要素であり、
 前記第2集合要素は、前記集合要素内における前記要素の色情報の変化度が所定基準を満たさない集合要素であることを特徴とする。
 本発明の第2の観点に係る指掌紋画像処理方法は、
 指掌紋の画像である指掌紋画像を処理する指掌紋画像処理方法であって、
 前記指掌紋画像を、第1集合要素と第2集合要素とからなる変換画像に変換する画像変換ステップと、
 前記画像変換ステップで変換した前記変換画像の中から前記第1集合要素の数が所定数以上である領域を特定する領域特定ステップと、を有し、
 前記第1集合要素と前記第2集合要素とは、前記指掌紋画像の要素が集合した集合要素であり、
 前記第1集合要素は、前記集合要素内における前記要素の色情報の変化度が所定基準を満たす集合要素であり、
 前記第2集合要素は、前記集合要素内における前記要素の色情報の変化度が所定基準を満たさない集合要素であることを特徴とする。
 本発明の第3の観点に係る指掌紋画像処理プログラムを記録した記録媒体は、
 指掌紋の画像である指掌紋画像を処理する指掌紋画像処理方法をコンピュータに行わせるための指掌紋画像処理プログラムを記録した記録媒体であって、
 前記指掌紋画像を、第1集合要素と第2集合要素とからなる変換画像に変換する画像変換ステップと、
 前記画像変換ステップで変換した前記変換画像の中から前記第1集合要素の数が所定数以上である領域を特定する領域特定ステップと、を有し、
 前記第1集合要素と前記第2集合要素とは、前記指掌紋画像の要素が集合した集合要素であり、
 前記第1集合要素は、前記集合要素内における前記要素の色情報の変化度が所定基準を満たす集合要素であり、
 前記第2集合要素は、前記集合要素内における前記要素の色情報の変化度が所定基準を満たさない集合要素である指掌紋画像処理方法をコンピュータに行わせるプログラムを記録したことを特徴とする。
 なお、本発明において、指掌紋は、指紋及び掌紋のいずれか少なくとも一方を含むものとして定義する。
 また、本発明において、指掌紋画像は、指掌紋のみの画像の他、指掌紋と他の領域(例えば、掌の外の領域又は指と指の間の部分の領域)とを含んだ画像をも適宜含むものとして定義する。
 本発明によれば、指掌紋画像中の照合に適した領域を特定することが出来る。
本実施形態に係る指掌紋画像処理装置のブロック図である。 指掌紋画像処理装置が行う画像処理フローを示す図である。 (a)は、右の上掌部の画像を示す図である。(b)は、右の下掌部の画像を示す図である。 指掌紋画像の一部の画素の様子を示す図である。 1024×1024個の画素Aの一部(左上の部分)を16×16個の集合要素Bで区画した例を示す図である。 変換画像の一部の一例を示す図である。 変換画像内に設定する複数のポイントの位置と、このポイントを含むように選択された複数の選択領域と、を説明するための図である。 (a)は、設定したポイントの周囲を選択する場合の1番目の選択領域の一例を示す図である。(b)は、設定したポイントの周囲を選択する場合の2番目の選択領域の一例を示す図である。(c)は、設定したポイントの周囲を選択する場合の3番目の選択領域の一例を示す図である。(d)は、設定したポイントの周囲を選択る場合の4番目の選択領域の一例を示す図である。(e)は、設定したポイントの周囲を選択する場合の5番目の選択領域の一例を示す図である。(f)は、設定したポイントの周囲を選択する場合の6番目の選択領域の一例を示す図である。(g)は、設定したポイントの周囲を選択する場合の7番目の選択領域の一例を示す図である。(h)は、設定したポイントの周囲を選択する場合の8番目の選択領域の一例を示す図である。 (a)は、設定したポイントの周囲を選択する場合の1番目の選択領域の一例を示す図である。(b)は、設定したポイントの周囲を選択する場合の2番目の選択領域の一例を示す図である。 領域特定部による領域の選択手順を説明するための図である。 本発明の一実施形態に係る指掌紋画像処理装置のハードウェア構成を示す図である。
 本発明の一実施形態を、図面を参照して説明する。図1は、本発明の一実施形態に係る指掌紋画像処理装置100のブロック図である。指掌紋画像処理装置100は、予め登録された、同一人物と思われる2つの指掌紋画像を比較し、この2つの指掌紋画像の指掌紋が同一人物のものであるかを照合する装置である。
 図1に示されるように、指掌紋画像処理装置100は、入力部10と、画像取得部20と、画像変換部30と、領域特定部40と、照合部50と、表示部60と、記憶部70と、を備える。
 入力部10は、キーボード及びマウス等のポインティングデバイスを含んで構成される。入力部10は、例えば、ユーザが照合したい2つの指掌紋画像を選択するために用いられる。
 表示部60は、CRT(Cathode Ray Tube)またはLCD(Liquid Crystal Display)などを含んで構成される。この表示部60は、例えば、ユーザが照合したい2つの指掌紋画像を選択するための画面等を表示する。また、表示部60は、照合部50が行った照合結果等を表示する。
 記憶部70は、指掌紋画像、各種の情報等を記憶する。指掌紋画像は、例えば、指掌紋の画像を濃淡化した画像データである。指掌紋の照合には、指掌紋の様々な部位を用いることが出来る。そのため、指掌紋の照合に用いる指掌紋画像の種類も様々である。指掌紋画像は、スキャナ等を用いて取得することができる。
 指掌紋の照合に用いる指掌紋画像の例は、以下のものである。
(1)右全掌(Right Full Hand)
(2)左全掌(Left Full Hand)
(3)右の上掌部(Right Upper Palm)
(4)左の上掌部(Left Upper Palm)
(5)右の下掌部(Right Lower Palm)
(6)左の下掌部(Left Lower Palm)
(7)右の側掌(Right Writers)
(8)左の側掌(Left Writers)
(9)右の各指(Right Thumb、Right Index、Right Middle、Right Ring及びRight Little)
(10)左の各指(Left Thumb、Left Index、Left Middle、Left Ring及びLeft Little)
(11)右平面4指及び右拇指(Right 4-Slap及びRight Slap Thumb)
(12)左平面4指及び左拇指(Left 4-Slap及びLeft Slap Thumb)
 画像取得部20は、記憶部70に記憶された指掌紋画像を、表示部60に表示させる。そして、入力部10を介して、表示部60に表示された画面のなかから、2つの指掌紋画像が選択されると、画像取得部20は、選択された2つの指掌紋画像を記憶部70から取得する(後述のステップS101を参照)。ここでは、一例として、2つの指掌紋画像は、同一人物のものと思われる右の上掌部の画像と右の下掌部の画像であるものとする。
 画像取得部20は、取得した2つの指掌紋画像(例えば右の上掌部の画像)のうちの1つを、画像変換部30に渡す。また、画像取得部20は、取得した2つの指掌紋画像(例えば右の下掌部の画像)を、この2つの指掌紋画像のうちのどちらを画像変換部30に渡したかを特定するための特定情報とともに、照合部50に渡す。以下、説明の便宜上、画像変換部30に渡された一方の画像を第1指掌紋画像とし、他方の画像を第2指掌紋画像とする。
 画像変換部30は、画像取得部20から取得した第1指掌紋画像を変換して、変換画像を生成する(具体例は、後述のステップS102及びステップS103を参照)。また、画像変換部30は、第1指掌紋画像を変換する際に、変換画像に関するデータとして、変換画像を構成する画素に対応する、第1集合要素を構成する第1指掌紋画像における画素群の位置情報を生成する。また、変換画像を構成する画素に対応する、第2集合要素を構成する第1指掌紋画像における画素群の位置情報を生成する。これらの位置情報を、第1指掌紋画像における画素群の位置を示す情報である。画像変換部30は、位置情報を関連付けた変換画像を、領域特定部40に渡す。
 変換画像は、複数の第1集合要素に対応する画素と、複数の第2集合要素に対応する画素から構成される。第1集合要素、及第2集合要素は、指掌紋画像を構成する画素群から構成される。第1集合要素は、集合要素を構成する画素の色情報の変化度が所定基準を満たす集合要素である。また、第2集合要素は、集合要素を構成する画素の色情報の変化度が所定基準を満たさない集合要素である。
 所定基準としては、一定の閾値がある。閾値は、適宜決定できるが、色情報の変化度が閾値以上となる集合要素が、指掌紋の照合に適した集合要素となるような閾値とすることが望ましい。具体的には、閾値は、集合要素を構成する画素の最大濃淡値(又は最大階調)が最小濃淡値(又は最小階調)の2又は3倍となるような値とすることが望ましい。
 領域特定部40は、画像変換部30から取得した変換画像の中から、第1集合要素に対応する画素の数が所定数以上となる領域を特定する(具体例は、後述のS104乃至S116を参照)。以下、説明の便宜上、領域特定部40が特定した領域を特定領域という。
 所定数としては、一定の閾値がある。閾値は、適宜決定できるが、特定領域が指掌紋の照合に適した領域となるように閾値を決定することが望ましい。具体的には、閾値は、特定領域に含まれる集合要素の数の80パーセント、すなわち、特定領域に含まれる第1集合要素及び第2集合要素を合計した数に0.8を乗じた数値とすることができる。
 領域特定部40は、変換画像に、例えば3つ以上の特定領域を特定する。3つ以上の特定領域があれば指掌紋の照合の精度を上げることができる。
 領域特定部40は、特定領域を特定すると、特定領域に含まれる第1集合要素と第2集合要素とが第1指掌紋画像のどの領域に対応するか示す領域特定情報を、上述の位置情報を用いて生成する。
 第1集合要素と第2集合要素とは指掌紋画像から得られる。このため、第1集合要素と第2集合要素とが指掌紋画像のどの領域に含まれるかが分かれば、これらを包含する特定領域が指掌紋画像のどの領域に対応するかがわかる。そこで、領域特定部40は、位置情報を用いて領域特定情報を生成する。領域特定部40は、領域特定情報を生成すると、この領域特定情報を照合部50へ渡す。一方、領域特定部40は、特定領域を特定出来なかった場合には、特定領域を特定できなかったことを示す不可情報を、照合部50へ渡す。
 照合部50は、画像取得部20から第1指掌紋画像と、第2指掌紋画像と、特定情報とを取得する。また、照合部50は、領域特定部40から領域特定情報又は不可情報を取得する。
 照合部50は、特定情報に基づいて変換画像の元データが第1指掌紋画像であることを特定する。次に、照合部50は、領域特定情報を用いて、この第1指掌紋画像の中の特定領域に対応する領域を特定する。そして、この領域の画像を照合画像として取り出す。
 照合部50は、第1指掌紋画像から取り出した照合画像と、第2指掌紋画像とを照合する。この照合は、特徴点及びリレーションを用いた方法で行うことが出来る。
 照合部50は、照合画像が第2指掌紋画像に含まれる場合には、第1指掌紋画像の指掌紋の持ち主と、第2指掌紋画像の指掌紋の持ち主とが、同一人物であると判定する。そして、判定の結果を表示部60に表示させる。一方、照合部50は、領域特定部40から不可情報を取得した場合は、照合ができなかったことを照合結果として表示部60に表示させる。
 上述のように、指掌紋画像処理装置100は、第1指掌紋画像を、第1集合要素と第2集合要素とからなる変換画像に変換する画像変換部30と、画像変換手段が変換した変換画像の中から、所定数以上の第1集合要素に対応する画素を含む領域を特定する領域特定部40とを備える。
 画像変換部30は、指掌紋画像を構成する要素の集合(指掌紋画像の中の所定の領域)を、要素の色情報の変化度が大きい第1集合要素と、色情報の変化度が小さい第2集合要素とに分類する。そして、領域特定部40は、第1集合要素を所定数以上含む領域を特定領域として特定する。これにより、領域特定部40は、色情報についての変化度が大きい第1集合要素を多く含む特定領域を特定することができる。このため、指掌紋画像から、特定領域に対応する領域としての照合画像を取り出すことができる。
 第1集合要素が多いということは、色の変化が大きい集合要素が多いということである。このため照合画像は、指掌紋の特徴点の抽出等、指掌紋の性質の解析が容易な領域であるといえる。一方、色の変化が小さい領域は、指掌紋の性質を解析しにくい。
 また、上述のように、指掌紋画像処理装置100は、第1指掌紋画像から取り出した照合画像と、第2指掌紋画像とを照合する照合部50を備える(具体例は、上記の説明及び後述のステップS117を参照)。これにより、指掌紋の照合を精度よく行うことができる。また、指掌紋画像処理装置100では、第1指掌紋画像から取り出した照合対象領域としての照合画像と、第2指掌紋画像との照合を行う。これにより、第1指掌紋画像全体と第2指掌紋画像全体とを照合する場合に比べて、照合の際に取り扱う情報量が少なくなる。その結果、指掌紋画像処理装置100での処理の負担が小さくなる。
 また、指掌紋画像処理装置100は、指掌紋画像処理方法を実行する。この指掌紋画像処理方法を実行することにより、上述した効果を実現することが出来る。
 ここで、色情報とは、指掌紋画像の要素が持つ色の情報である。色情報についての変化度とは、この色の変化度である。要素とは、指掌紋画像を構成する一以上の画素である。
 色情報としては、濃淡値がある。濃淡値は、指掌紋画像の各要素の濃淡を表す値である。例えば、濃淡値が大きければ、その要素の色が濃く、小さければその要素の色が淡いといえる。集合要素が複数の画素からなる場合、濃淡値は、例えば複数の画素の平均値とする。濃淡値の具体例としては、階調がある。なお、画像がカラーの場合には、例えば、画素の有する各色(赤、青、及び緑)の階調の平均値を階調とする。
 色情報の変化度としては、濃淡差がある。濃淡差とは、例えば、集合要素を構成する画素の濃淡値の最大値と、最小値との差である。この差が大きいほど、集合要素を構成する画素間の濃淡の差が大きいといえる。照合画像に含まれる画素間の濃淡差が大きい場合には、指掌紋の性質を見出しやすい。逆に、照合画像に含まれる画素間の濃淡差が小さい場合には、特徴点等を見いだすのが困難になり、その結果照合の精度が低下することがある。
 濃淡差の具体例としては、コントラストがある。コントラストは、集合要素を構成する画素の最大階調と最小階調の差である。なお、集合要素が複数の画素からなる場合、集合要素の階調は、当該集合要素を構成する画素のコントラストの平均値とする。コントラストが大きいほど、集合要素を構成する画素の階調の差が大きくなる。コントラストが大きいほうが、指掌紋の性質を見いだしやすい。また、集合要素を構成する要素の階調のコントラストが所定基準を満たすとは、コントラスト閾値が所定の基準値以上であること、及びコントラスト感度が所定の基準値以上であることを含む。
 次に、指掌紋画像処理装置100が行う詳細な処理の一例について、簡単に説明する。まず、指掌紋画像処理装置100は、1024×1024個の画素からなる指掌紋画像(指掌紋の画像を濃淡化した画像)の画素毎の階調(例えば256階調)を調べる。指掌紋画像処理装置100は、階調を調べたら、16×16個の画素からなる64×64個の集合要素それぞれについて、集合要素内の画素のコントラストの平均が一定の閾値以上であるかどうかを判定する。そして、コントラストが一定の閾値以上の集合要素に「1」を付与し、コントラストが一定の閾値未満の集合要素に「0」を付与する。以下、「1」が付与された集合要素を第1集合要素とし、「0」が付与された集合要素を第2集合要素とする。
 そして、指掌紋画像処理装置100は、64×64個の各集合要素に対応する画素からなる変換画像を生成する。この変換画像は、「1」が割り当てられた第1集合要素に対応する画素と、「0」が割り当てられた第2集合要素に対応する画素からなる二値画像が考えられる。
 次に、指掌紋画像処理装置100は、変換画像内にポイントを設定する。そして、このポイントを含む16×16の画素からなる選択領域を変換画像の中から選択する。指掌紋画像処理装置100は、この選択領域が、「1」が割り当てられた画素を多く含めば、この領域を特定領域として特定する。特定領域は、照合対象領域に対応するので、指掌紋画像処理装置100は、指掌紋画像から照合対象領域を照合画像として取り出して、指掌紋の照合に用いる。一方、選択領域が、「1」が割り当てられた画素を多く含まなければ、指掌紋画像処理装置100は、最初に選択した選択領域の周辺を所定回数選択し直し、「1」が割り当てられた画素を多く含む領域を探す。
 また、指掌紋画像処理装置100は、特定領域を特定したら、又は、所定回数選択し直しても特定領域を特定できなければ、変換画像内に他のポイントを設定して上記と同様の方法で「1」が割り当てられた画素を多く含む領域をさらに探す。このようにして、指掌紋画像処理装置100は、特定領域を3つ以上特定する。
 次に、指掌紋画像処理装置100が行う詳細な処理の一例について、図2を参照しながら説明する。図2は、指掌紋画像処理装置100によって実行される処理を示すフローチャートである。また、図3(a)は、右の上掌部の画像である第1指掌紋画像81を示す図である。図3(b)は、右の下掌部の画像である第2指掌紋画像82を示す図である。
 まず、画像取得部20は、ユーザによって選択された第1指掌紋画像と第2指掌紋画像とを記憶部70から取得する(ステップS101)。なお、第1指掌紋画像の持ち主特定情報によって特定される持ち主と、第2指掌紋画像の持ち主特定情報によって特定される持ち主は同一の人物であるものとする。
 画像取得部20は、第1指掌紋画像81及び第2指掌紋画像82のうちから、第1指掌紋画像81を選択する。また、画像取得部20は、第1指掌紋画像81と第2指掌紋画像82との相互間で重複する部分を特定する。そして特定結果としての重複部分特定情報を、選択した第1指掌紋画像81と関連づける。
 重複部分特定情報は、画像取得部20によって以下のように生成される。記憶部70は、第1指掌紋画像81の種類特定情報と、第1指掌紋画像81のどの部分が第2指掌紋画像82に重なるかを特定するための第1の重なり特定情報とを含む第1情報を記憶している。また、第2指掌紋画像82の種類特定情報と、第2指掌紋画像82のどの部分が第1指掌紋画像81に重なるかを特定するための第2の重なり特定情報を含む第2情報を、第1情報と対応づけて記憶している。
 重なり特定情報は、指掌紋画像の組合せによりある程度予想できる。このため、第1指掌紋画像81と第2指掌紋画像82とで相互に重複する、第1指掌紋画像81の上半分を占める部分81aを特定するための特定情報と、第2指掌紋画像82の下半分を占める部分82aを特定するための特定情報とを、予め記憶部70に記録しておくことができる。
 なお、指掌紋画像の取得の方法等によっては、第1指掌紋画像81と第2指掌紋画像82との間で、指掌紋の位置が多少ずれることが考えられる。このため、第1の重なり特定情報或いは第2の重なり特定情報によって特定される部分81a、82bは、ある程度の大きさの領域を想定するのが好ましい。図3(a)或いは図3(b)を参照するとわかるように、本実施形態では、この部分81a,82aは、指掌紋画像のほぼ半分の領域となる。
 画像取得部20は、第1指掌紋画像81及び第2指掌紋画像82に関連する種類特定情報をキーに、相互に対応した第1情報と第2情報とを記憶部70から取得する。そして、画像取得部20は、第1指掌紋画像81に関連する第1情報から第1の重なり特定情報を抽出し、この第1の重なり特定情報を重複部分特定情報とする。
 例えば、第1指掌紋画像81は右の上掌部の画像である。この場合は、第1情報に含まれる種類特定情報は、第1指掌紋画像81が右の上掌部であることを示す情報である。そして、第1の重なり特定情報は、第1指掌紋画像81の中の下半分の領域を特定するための情報である。画像取得部20は、第1重なり特定情報を、重複部分特定情報として、選択した第1指掌紋画像81に関連付ける。そして、この第1指掌紋画像81を画像変換部30に渡す。
 画像変換部30は、第1指掌紋画像を構成する画素の階調を検知する(ステップS102)。
 例えば、第1指掌紋画像81及び第2指掌紋画像82は、1024行1024列のマトリクス状に配置された画素により構成されている。画像変換部30は、各画素の色(ここでは明暗)を用いて、階調(例えば256階調)を画素毎に検知する。
 画像変換部30は、各画素の階調情報(画像階調情報)を生成する。画像階調情報は、各画素の指掌紋画像における位置及び階調を表す情報と、第1指掌紋画像81の持ち主特定情報と、第1指掌紋画像81の種類特定情報と、重複部分特定情報と、を含む情報である。
 図4は、指掌紋画像の一部の画素の様子を示す図である。図4を参照するとわかるように、画素Aは、色(ここでは、明暗)を持っている。画像変換部30は、検知した階調(画像階調情報)をもとに、変換画像を生成する(ステップS103)。具体的には、画像変換部30は、第1指掌紋画像81を16×16個の画素からなる64×64個の領域に区画する。そして、区画毎に画素のコントラストを検知する。以下、各区画に含まれる画素群を集合要素という。
 図5は、第1指掌紋画像81の一部(左上の部分)を示す図である。図5を参照するとわかるように、各集合要素Bは、16行16列のマトリクス状に配置された画素からなる。
 画像変換部30は、各集合要素Bにおけるコントラストが閾値以上の集合要素に「1」を付与する。また、各集合要素Bにおけるコントラストが閾値未満の集合要素に「0」を割り当てる。そして、指掌紋画像処理装置100は、各集合要素に対応する64×64の画素からなる変換画像を生成する。図6は、変換画像の一部を示す図である。図6に示されるように、変換画像は、「1」で示される画素Cと、「0」で示される画素Dとから構成される画像となる。
 次に、画像変換部30は、重複部分特定情報を用いて、第1指掌紋画像81のうちから、照合に用いる領域を特定する。例えば画像変換部30は、重複部分特定情報に基づいて、第1指掌紋画像81から、第2指掌紋画像82と重複する部分81aを特定する。
 次に、画像変換部30は、変換画像を領域特定部40に渡す。領域特定部40は、変換画像を画像変換部30から取得する。
 領域特定部40は、取得した変換画像について、カウンタ値としてのN及びXに対して、初期値1(N=1、X=1)を設定する(ステップS104)。さらに、領域特定部40は、取得した変換画像について、カウンタ値としてのMに対して、初期値1(M=1)を設定する(ステップS105)。
 次に、領域特定部40は、Nが所定値であるか判定する(ステップS106)。Nが所定値となるのは(ステップS106:YES)、特定領域を探すための後述のポイントが無い場合で、かつ、必要な数の特定領域を特定出来なかった場合である。この場合、領域特定部40は、ステップS118に進む。このとき、領域特定部40は、特定不可を示す情報を生成し、照合部50に渡す。
 なお、ここでの、所定値は4とする。したがって、Nが4であれば、ステップS106での判定が肯定される。また、Nが4未満であれば、ステップS106での判定が否定され、領域特定部40は、ステップS107の処理を実行する。
 次に、領域特定部40は、変換画像内にN番目のポイントを設定する(ステップS107)。領域特定部40は、例えば、重複部分特定情報をもとにこのポイントを設定する。具体的には、重複部分特定情報によって特定される部分の所定位置に、ポイントを設定する。
 さらに具体的には、記憶部70には、種類特定情報と、重複部分特定情報と、ポイントの位置を特定するポイント特定情報とが、相互に対応付けられた状態で、予め記録されている。領域特定部40は、変換画像の種類特定情報と重複部分特定情報とをキーにして、記憶部70からポイント特定情報を取得する。そして、このポイント特定情報をもとにポイントを設定する。図7を参照するとわかるように、1番目のポイントはポイント91aで、2番目のポイントはポイント91bで、3番目のポイントは、ポイント91cである。このように、領域特定部40がポイントを設定することにより、領域特定部40は、効率よく特定領域を特定することができる。
 図7は、変換画像内に設定する複数のポイントの位置と、このポイントを含むように選択された複数の選択領域と、を説明するための図である。変換画像90は、64×64個の画素からなる。また、ポイント91a、91b、及び91cは、いずれかの画素上に設定される。さらに、選択領域92a、92b、及び92cそれぞれは、16×16個の画素からなり、中心がポイント91a、91b、及び91cとほぼ一致する。
 複数のポイントは、変換画像内に均一に散在していてもよいが、図7に示されるように、変換画像90の中の所定の範囲内に設定されることが望ましい。例えば第1指掌紋画像81と、第2指掌紋画像82との照合を行う場合などには、第1指掌紋画像81と第2指掌紋画像とが重複する領域に対応する、変換画像中の領域内に、ポイント91a、91、及び91cを設定することが望ましい。
 ここでは、第1指掌紋画像81の部分81aと、第2指掌紋画像82の部分82aとが重複する。このため、第1指掌紋画像81に基づいて生成された変換画像の下半分の領域に、ポイント91a、91b、及び91cを設定することが望ましい。ポイントは、第1集合要素及び第2集合要素の位置情報に基づいて設定することができる。
 次に、領域特定部40は、変換画像内のN番目のポイントを含む領域を選択する(ステップS108)。例えば、図7を参照するとわかるように、領域特定部40は、1番目にポイント91aを含む選択領域92aを選択する。2番目にポイント91bを含む選択領域92bを選択する。3番目にポイント91cを含む選択領域92cを選択する。
 第1指掌紋画像81の部分81aと、第2指掌紋画像82の部分82aとの位置関係に基づいて決定されたポイントが含まれるように、変換画像内の所定領域を選択することにより、効率よく特定領域を特定することができる。
 次に、領域特定部40は、選択領域の中に含まれる第1集合要素の数に基づいて、選択領域が特定領域であるか判定する(ステップS109)。具体的には、領域特定部40は、選択領域を構成する、第1集合要素に対応する画素の数が、変換画像を構成する画素の総数の80%以上であるか判定する。図6に示される例では、選択領域Eに「1」で示される画素が209個ある。この場合、第1集合要素に対応する画素の数は、選択領域Eを構成する256個の画素の80%を超える。したがって、領域特定部40は、選択領域Eが特定領域であると判定する。
 領域特定部40は、選択領域が特定領域であると判定した場合に、ステップS110に進み、この選択領域をX番目の特定領域とする(ステップS110)。このとき、領域特定部40は、特定領域に含まれる画素に対応する第1集合要素及び第2集合要素の位置情報から、特定領域が変換画像の元データである指掌紋画像のどの領域に対応しているかを特定するための領域特定情報を生成する。そして、この領域特定情報をX番目の領域特定情報として保持する。
 集合要素は、指掌紋画像を規則的に区画しときの一区画に相当するため、集合要素と指掌紋画像との対応関係は明確である。このため、第1集合要素及び第2集合要素の位置情報から、各集合要素が指掌紋画像のどの部分に対応しているかを特定することができる。したがって、領域特定部40は、領域特定情報を生成することができる。
 なお、画像変換部30等が、指掌紋画像を変換画像に変換する際に、所定部分を削除して変換画像を生成した場合は、領域特定部40は、変換画像についての領域対応情報を用いて領域特定情報を生成する。この領域対応情報は、第1集合要素と第2集合要素とが、指掌紋画像のどの領域に対応するか特定するための情報である。このため、領域特定情報により、特定領域に対応する第1集合要素と第2集合要素とが指掌紋画像のどの領域に該当するかを特定することができる。
 領域特定部40は、生成した領域特定情報をX番目の領域特定情報として保持する。領域特定部40は、領域特定情報を照合部50に渡すか、指掌紋画像処理装置100が処理を終了するまで、領域特定情報を順次蓄積して保持する。
 領域特定部40は、X番目の領域特定情報を保持すると、Xが所定値であるか判定する(ステップS111)。Xが所定値である場合(ステップS111:YES)には、ステップS117に進む。この際に、領域特定部40は、X個の領域特定情報を照合部50に渡す。Xが所定値であることは、指掌紋の照合に用いるために必要な数の特定領域が特定できたことを意味する。
 ここでは、指掌紋画像の中の3箇所の領域を用いて指掌紋の照合を行うので、所定値は3になる。Xが所定値未満である場合(ステップS111:NO)には、ステップS112に進む。
 領域特定部40は、ステップS112でXの値を1インクリメントする(X=X+1)。そして、ステップS113に進む。つまり、領域特定部40は、X番目の特定領域を特定した後、X+1番目の特定領域をさらに探すことになる。また、領域特定部40は、ステップS113で、Nの値を1インクリメントする(N=N+1)。そして、ステップS105に戻る。以降、上記のポイントのうちのN+1番目のポイントを中心とする選択領域が選択されることになる。
 領域特定部40は、ステップS109での判定が否定された場合に、Mが所定値であるか判定する(ステップS114)。Mが所定値である場合(ステップS114:YES)、領域特定部40は、ステップS107で設定したポイントの周囲をすべて選択したものとして、ステップS113に進む。ここでは、所定値は9である。領域特定部40は、ステップS113でNの値を1インクリメントする(N=N+1)。そして、ステップS105に戻る。以降、N+1番目のポイントを中心とする選択領域が選択されることになる。
 Mが所定値未満である場合(ステップS114:NO)、領域特定部40は、ステップS107で設定したポイントの周囲をすべて選択していないものとして、ステップS115に進む。領域特定部40は、ステップS115でN番目のポイントについて、Mに対応する位置の領域を選択する(ステップS115)。
 次に、領域特定部40は、ステップS116に進み、Mの値を1インクリメントする。そして、ステップS109に戻る。領域特定部40は、ステップS109での判定が否定された場合は、ステップS114に進む。このようにして、領域特定部40は、特定領域が特定されるまで、又は、ステップS107で設定したポイントの周囲のすべての領域が選択されるまで、ステップS107で設定したポイントの周囲の領域を繰り返し選択する。
 ポイントの周囲の領域とは、この領域の中心がこのポイントから一定の距離内にある領域をいう。このため、このポイントの周囲の領域は、このポイントを含む領域であっても、このポイントを含まない領域であってもよい。
 図8(a)は、設定したポイントの周囲を選択する場合の1番目の選択領域の一例を示す図である。図8(b)は、設定したポイントの周囲を選択する場合の2番目の選択領域の一例を示す図である。図8(c)は、設定したポイントの周囲を選択する場合の3番目の選択領域の一例を示す図である。図8(d)は、設定したポイントの周囲を選択する場合の4番目の選択領域の一例を示す図である。図8(e)は、設定したポイントの周囲を選択する場合の5番目の選択領域の一例を示す図である。図8(f)は、設定したポイントの周囲を選択する場合の6番目の選択領域の一例を示す図である。図8(g)は、設定したポイントの周囲を選択する場合の7番目の選択領域の一例を示す図である。図8(h)は、設定したポイントの周囲を選択する場合の8番目の選択領域の一例を示す図である。
 図8(a)乃至(h)は、1番目(N=1)に設定されたポイントについての選択領域を示している。すなわち、点線で囲まれた領域95は、図7の選択領域92aに対応する。
 領域特定部40は、Mが1のとき、図8(a)に示されるように、領域95aを、領域95から右に4画素分ずれた位置に規定する。そして、領域95aを選択領域として選択する。また、領域特定部40は、Mが2のとき、図8(b)に示されるように、領域95bを、領域95aから上に4画素分ずれた位置に規定する。これにより、領域95bは、領域95から右に4画素分、上に4画素分ずれた位置に規定される。そして、領域95bを選択領域として選択する。また、領域特定部40は、Mが3のとき、図8(c)に示されるように、領域95cを、領域95bから左に4画素分ずれた位置に規定する。これにより、領域95cは、領域95から上に4画素分ずれた位置に規定される。そして、領域95cを、選択領域として選択する。
 以降、領域特定部40は、Mが1増えるごとに、図8(d)乃至(h)にそれぞれ示されるように、直近に規定した選択領域から、4画素分ずつ縦方向又は横方向にずれた位置に領域95d乃至95hを規定していく。そして、規定した領域95d乃至95hを順次選択していく。このように、領域特定部40は、ステップS107で設定したポイントを基準として、Mに対応する領域を順次規定する。そして、選択領域として選択していく。なお、このMに対応する領域は予め設定されている。
 領域特定部40は、特定領域を特定するまで、上述のように、ステップS107で設定したポイントの周囲に順次選択領域を規定していく。
 図9(a)は、設定したポイントの周囲を選択する場合の1番目の選択領域の一例を示す図である。図9(b)は、設定したポイントの周囲を選択する場合の2番目の選択領域の一例を示す図である。
 図9に示されるように、領域特定部40は、前に選択した領域と後に選択した領域とが重ならないように領域を規定し、当該領域を選択領域として選択することとしてもよい。この場合、特定領域を効率よく特定することができる。1つ前に選択した領域は、特定領域ではないため、第2集合要素を多く含むことになる。規定された領域同士に重なる部分があると、その後に選択した領域も第2集合要素を多く含んでしまう可能性がある。したがって、相互に重ならないように、領域を規定する方がよい。
 なお、図9において、領域96はステップS107で設定したポイントを含むように選択された選択領域である。図9(a)の領域96aは、Mが1のときに選択された選択領域である。図9(b)の領域96bは、Mが2のときに選択された選択領域である。図9(b)の矢印は、Mが3以上のときに選択された領域の中心の遷移を示すものである。
 図8及び図9では、領域特定部40は、ポイントからみて上下左右及びその間の斜め方向にある8箇所の領域を選択領域として選択した。領域特定部40は、上下左右にある領域のみ、又は、ポイントからみて斜め方向にある領域のみを特定してもよい。
 また、領域特定部40は、第3領域が特定出来ない場合にのみ、ポイントの周囲の領域を選択し続ける。しかしながら、領域特定部40は、第3領域が見つかっても、Mが所定の値に達するまで、ポイントの周囲の領域を選択し直してもよい。この場合には、図9に示されるように、領域特定部40は、前に選択した領域と後に選択した領域同士が重ならないように、領域を選択することが望ましい。また、前に選択した領域と後に選択した領域同士が重なったとしても、所定範囲内の領域のみが重なるように、領域を選択することが望ましい。特定領域同士の大部分が重なると、複数の照合対象領域が指掌紋の照合に使用される。その結果、指掌紋の照合の精度が悪くなる。
 図8及び図9を参照するとわかるように、領域特定部40は、ステップS107で設定したポイントの周囲の一連の領域を選択する際に、変換画像の中央部に近い領域から順に選択する(図7の矢印も参照)。指掌紋画像の外側は、指掌紋写っていない領域であるか、指掌紋の照合が困難な部分である可能性がある。このため、変換画像の外側に近い領域から選択していくと、特定領域を特定する際の効率が悪くなる。
 図8及び図9に示されるように、領域特定部40は、ステップS107で設定したポイントの周囲の一連の領域を選択し直す際に、まず、変換画像の中央部に近い領域を選択する。そして、この領域を基点に、ポイントまわりに順次領域を選択する。これにより、特定領域を効率よく特定することができる。
 図10は、ポイントの周囲を一周するように順次規定された領域の遷移を説明するための図である。図10に示される矢印は、規定された領域の遷移を示す。図10に示されるように、領域特定部40は、変換画像97の左側の領域にポイント97bがある場合には、変換画像97の中央部(ここでは、右側)の領域を選択する。その後、直近に選択した選択領域から、左回りに、順次選択領域を選択していく。
 一方、領域特定部40は、変換画像97の右側の領域にポイント97dがある場合には、変換画像97の中央部(ここでは、左側)の領域を選択する。その後、直近に選択した選択領域から、右回りに、順次選択領域を選択していく。このように、選択領域を選択することで、特定領域を効率的に特定することが可能となる。
 上述のように、領域特定部40は、変換画像の一部の領域を選択領域として選択する。次に、選択領域が第1集合要素を所定数以上含むか判定する。そして、選択領域が第1集合要素を所定数以上含む場合にのみ、選択領域を、特定領域として特定する。領域特定部40は、所定数以上の第1集合要素を含む特定領域を一定数特定するまで、上述の動作を繰り返す。これにより、指掌紋の照合対象領域を、所定数特定することが出来る。したがって、指掌紋の照合精度を上げることができる。
 ステップS117において、照合部50は、領域特定部40からX個(3つ)の領域特定情報を取得する。また、画像取得部20から第1指掌紋画像81及び第2指掌紋画像82と渡し情報とを取得する。照合部50は、渡し情報から変換画像の元データである指掌紋画像を特定する。そして、領域特定情報を用いて特定領域に対応する3つの領域を、照合画像として、第1指掌紋画像81から取り出す。
 次に、照合部50は、3つの照合画像と、第2指掌紋画像82とを照合し、照合結果を生成する(ステップS117)。照合の仕方は、特徴点を用いた方法等、公知の方法で行うことが出来る。具体的には、照合部50は、第2指掌紋画像82と、3つの照合対象領域それぞれと比較する。そして、第2指掌紋画像82から、照合対象領域と特徴点等が一致する部分の抽出を試みる。
 照合部50は、照合対象領域のいずれかと一致する部分が抽出できたときは、第1指掌紋画像81に写る指掌紋の持ち主と、第2指掌紋画像82に写る指掌紋の持ち主は同一人物であると判定する。一方、照合対象領域のいずれかと一致する部分が抽出できないときは、第1指掌紋画像81に写る指掌紋の持ち主と、第2指掌紋画像82に写る指掌紋の持ち主は、異なる人物であると判定する。
 照合部50は、ステップS117での処理が終了するか、又は、ステップS106で肯定された場合に生成される特定不可を示す情報を、領域特定部40から取得すると、表示部60に照合結果、又は照合ができなかったことを示す情報を表示させる。
 図11は、本発明の一実施形態に係る指掌紋画像処理装置のハードウェア構成を示す図である。図1における入力部10は、キーボード及びマウス等の入力装置5から構成される。図1における画像取得部20と、画像変換部30と、領域特定部40と、照合部50とは、CPU1と、RAM2の計算領域と、CPU1が処理中に生成したデータ等を保持する記憶装置4内の記憶領域とにより構成される。図1における記憶部70は、記憶装置4の所定の記憶領域により構成される。図1における表示部60は、表示装置3で構成される。また、指掌紋画像処理プログラム6は、指掌紋画像処理プログラム6を記憶したCD-ROM等の持ち運び可能な情報記憶媒体7とCD-ROMドライブ等の読取装置8とを用いてインストールされる。或いはネットワークを通じてダウンロードされる。また、指掌紋画像処理プログラム6は、記憶装置4を構成するROM(Read Only Memory)等に予め記憶されていても良い。指掌紋画像処理プログラム6は、RAM2に展開される。指掌紋画像処理プログラム6が記録された、RAM2、ROM、記憶装置4、又は、持ち運び可能な情報記憶媒体7等の記憶媒体は指掌紋画像処理プログラム製品となる。
 以上説明したように、本実施形態では、画像変換部30は、1024×1024個の画素から構成される指掌紋画像を、予め定められた大きさで区画した第1集合要素と第2集合要素とからなる64×64個の画素(集合要素)からなる変換画像に変換する。これにより、照合を行う際に取り扱うデータの量が小さくなり、特定領域の特定における処理の負担が軽減される。
 以上、本発明の実施形態について説明したが、本発明は上記実施形態によって限定されるものではない。例えば、画像取得部20と、画像変換部30と、領域特定部40と、照合部50とは、2以上のCPU(中央演算処理装置)と、2以上の記憶領域と、の組合せ等により構成されていてもよい。この場合、記憶領域は、例えば、RAM(Random Access Memory)等の計算領域と、各部が処理中に生成したデータ等を保持する、記憶装置内の記憶領域とで構成される。表示部60は、ディスプレイ等の表示装置により構成される。記憶部70は、例えば、一以上の記憶装置内の所定の記憶領域により構成される。記憶装置の例としては、フラッシュメモリ又はハードディスクがある。
 また、指掌紋画像処理装置100は、例えば、2以上のコンピュータにより構成されていてもよい。指掌紋画像処理装置100が行う処理は、複数の装置で分散処理してもよい。この場合は、複数の装置全体で指掌紋画像処理装置100となる。また、記憶部70は、サーバ等に設けられていてもよい。すなわち、記憶部70は、指掌紋画像処理装置100の外部にあってもよい。
 また、上記実施形態では、画像取得部20は、記憶部70から指掌紋画像を取得した。これに限らず、例えば、指掌紋を読み取る指掌紋読取装置を介して指掌紋画像を取得してもよい。また、指掌紋画像としては、手形及び犯罪現場等に残された指掌紋を電子データ化したものであってもよい。
 また、指掌紋画像を予め定められた大きさで区画し、区画した領域を集合要素とする場合には、変換画像中の集合要素の位置からこれらを包含する特定領域が指掌紋画像のどの領域に対応するかが分かる。そこで、領域特定部40は、特定領域が包含する第1集合要素と第2集合要素の位置情報から、領域特定情報を生成してもよい。
 また、上記実施形態では、画像取得部20は、第1指掌紋画像81及び第2指掌紋画像82のうちから第1指掌紋画像81を選択した。これに限らず、第2指掌紋画像82を選択してもよい。また、指掌紋画像の選択はユーザが、入力部10を介して行ってもよい。
 また、上記実施形態では、集合要素は16×16個の画素から構成されている。これに限らず、集合要素は、12×12個、又は、8×8個の画素から構成されていてもよい。
 また、上記実施形態では、選択領域は、16×16個の画素から構成されている。これに限らず、集合要素は、12×12個、又は、8×8個の画素から構成されていてもよい。
 複数のポイントは、特定領域を特定しやすい領域を予め経験的に把握している領域に偏在させてもよい。この場合、記憶部70は、予め、種類特定情報と、ポイントの位置を特定するポイント特定情報とを対応付けて記録しておく。領域特定部40は、変換画像に含まれる種類特定情報をキーにしてポイント特定情報を取得し、このポイント特定情報をもとにポイントを設定する。なお、ポイントが散在している場合、変換画像内において、まんべんなく特定領域を探すことが出来る。
 なお、上記実施形態では、4画素分ずつ変位するように選択領域を規定した。これに限らず、1画素、或いは2画素分ずつ変位するように選択領域を規定してもよい。また、4画素以上変位するように選択領域を規定してもよい。
 但し、変位が大きすぎると、選択領域が、他のポイントの周囲を選択した場合の選択領域と一部又は全部が重なる場合がある。例えばこの変位が大きすぎると、図7を参照するとわかるように、選択領域92aから右にずれた選択領域と、選択領域92bから左にずれた選択領域との大部分が重複する場合がある。このような場合には、大部分が重複する2つの特定領域が特定されてしまう可能性がある。そこで、前記変位はある程度小さい方がよい。なお、選択領域の重なりが起こったとしても、重なる部分が小さい場合は、指掌紋の照合を問題なく行うことができる。
 一方、変位が小さすぎると、効率よく特定領域を特定できない可能性がある。1つ前に選択した領域と、その後に選択した領域とが重なる部分が大きくなるからである。1つ前に選択した領域は、特定領域ではないため、第2集合要素を多く含むことになる。重なる部分が大きいと、その後に選択した領域も第2集合要素を多く含んでしまう可能性がある。
 なお、画像変換部30は、指掌紋画像を変換画像に変換する際に、所定部分(不要な部分)、例えば、指の部分を削除して変換情報を生成してもよい。例えば、第1指掌紋画像から部分81a以外の領域を削除する。この場合には、画像変換部30は、第1集合要素と第2集合要素とが指掌紋画像のどの領域に対応するか特定できる情報である領域対応情報を変換画像に関連づけておく。この領域対応情報は、例えば、指掌紋画像又は階調情報に含まれる画素の位置情報から生成出来る。
 なお、この所定部分の削除は、画像変換部30以外に行わせてもよい。つまり、この所定部分の削除を、画像取得部20と、画像変換部30の間に設けた図示しない不要部分削除部により行うこととしてもよい。
 また、指部分を指掌紋の照合に使わない場合等には、色情報(階調)又は色情報の変化度(コントラスト)の値から指部分に対応する部分を特定してもよい。色情報又は色情報の変化度に変化のない(又は変化の少ない)部分と、色情報又は色情報の変化度に変化のある(又は変化の大きい)部分とが帯状に交互に並んでいる場合、これらの部分は、指の部分に対応すると予想される。色情報又は色情報の変化度に変化のない(又は変化の少ない)部分は、指の間のものが写る領域と考えられる。色情報又は色情報の変化度に変化のある(又は変化の大きい)部分は、指が写る領域と考えられる。
 第1指掌紋画像81を変換画像に変換する際に、所定の条件に応じて所定部分(不要な部分)が削除されると、処理の負担が軽減される。
 また、指掌紋画像に関する情報は、各画素についての位置情報及び色情報(階調)と、この指掌紋画像の指掌紋の持ち主を特定する持ち主特定情報と、この指掌紋画像の種類を特定する種類特定情報とを含む。持ち主特定情報は持ち主の氏名に関する情報であり、種類特定情報は指掌紋画像の種類を特定する情報である。
 また、ユーザによって選択された2つの指掌紋画像が、照合することが不可能な画像である場合は、画像取得部20は、照合が不可能であることを、表示部60に表示させることとしてもよい。照合が不可能であるか否かの判断は、種類特定情報に基づいて行うことができる。
 この場合、画像取得部20は、予め記憶部70に記録されている照合可能な指掌紋画像の組合せに関する情報を記憶部70から取得する。次に、取得した情報に基づいて、2つの種類特定情報から特定される指掌紋画像が、照合可能であるかを判断する。次に、画像取得部20は、2つの種類特定情報から特定される指掌紋画像が、照合可能であると判断すると、画像処理をスタートする。一方、画像取得部20は、2つの種類特定情報から特定される指掌紋画像が、照合不可能であると判断すると、照合できない旨の情報を表示部60に表示させて画像処理を終了する。
 また、本出願は、2008年12月22日に出願された、日本国特許出願2008-325120号に基づく。本明細書中に、日本国特許出願2008-325120号の明細書、特許請求の範囲、図面全体を参照として取り込むものとする。
 本発明の指掌紋画像処理装置、指掌紋画像処理方法及び指掌紋画像処理プログラムを記録した記録媒体は、指掌紋画像の照合に適している。
 1 CPU
 3 表示装置
 4 記憶装置
 5 入力装置
 6 指掌紋画像処理プログラム
 7 情報記憶媒体
 8 読取装置
 10 入力部
 16 16行
 20 画像取得部
 30 画像変換部
 40 領域特定部
 50 照合部
 60 表示部
 70 記憶部
 81 第1指掌紋画像
 81a 部分
 82 第2指掌紋画像
 82a 部分
 90 変換画像
 91、91a、91b、91c ポイント
 92a、92b、92c 選択領域
 95 領域
 95a~95h 領域
 96 領域
 96a 領域
 96b 領域
 97 変換画像
 97b ポイント
 97d ポイント
 100 指掌紋画像処理装置
 A 画素
 B 集合要素
 C 画素
 D 画素
 E 選択領域
 

Claims (11)

  1.  指掌紋の画像である指掌紋画像を処理する指掌紋画像処理装置であって、
     前記指掌紋画像を、第1集合要素と第2集合要素とからなる変換画像に変換する画像変換手段と、
     前記画像変換手段が変換した前記変換画像の中から前記第1集合要素の数が所定数以上である領域を特定する領域特定手段と、を備え、
     前記第1集合要素と前記第2集合要素とは、前記指掌紋画像の要素が集合した集合要素であり、
     前記第1集合要素は、前記集合要素内における前記要素の色情報の変化度が所定基準を満たす集合要素であり、
     前記第2集合要素は、前記集合要素内における前記要素の色情報の変化度が所定基準を満たさない集合要素であることを特徴とする指掌紋画像処理装置。
  2.  前記色情報は、濃淡値であり、
     前記変化度は、前記要素の濃淡値の差である濃淡差であることを特徴とする請求項1記載の指掌紋画像処理装置。
  3.  前記濃淡値は、階調であり、
     前記濃淡差は、コントラストであることを特徴とする請求項2記載の指掌紋画像処理装置。
  4.  前記領域特定手段は、前記変換画像の一部の領域を選択し、選択した前記領域である選択領域が前記第1集合要素を所定数以上含むか判定し、所定数以上含む場合にのみ、前記選択領域を前記第1集合要素の数が所定数以上である領域と特定し、前記第1集合要素の数が所定数以上である領域を一定数特定するまで、前記変換画像の一部の領域を選択し直すことを特徴する請求項1記載の指掌紋画像処理装置。
  5.  前記領域特定手段は、前記変換画像の中の互いに離間した複数の所定位置それぞれに設定される複数のポイントのうちの1つを含む領域を選択することにより、前記変換画像の一部の領域を選択することを特徴とする請求項4記載の指掌紋画像処理装置。
  6.  前記領域特定手段は、前記変換画像の一部の領域を選択し直すときに、前記ポイントから前記指掌紋画像の内側の位置にある領域を選択することを特徴とする請求項5記載の指掌紋画像処理装置。
  7.  前記領域特定手段は、前記変換画像の一部の領域を選択し直すときに、前記ポイントから前記指掌紋画像の内側の位置にある領域を選択し、そこから、最初に、前記指掌紋画像の内側に向かう方向で前記ポイントの周囲を一周するように前記領域を選択し直すことを特徴する請求項5記載の指掌紋画像処理装置。
  8.  前記複数のポイントは、前記変換画像の中の所定の範囲内に設定されていることを特徴とする請求項5記載の指掌紋画像処理装置。
  9.  他の指掌紋画像を取得するとともに、前記領域特定手段が特定した領域に対応する領域を前記指掌紋画像から取り出して、取り出した前記領域と前記他の指掌紋画像とを照合する照合手段をさらに備えることを特徴とする請求項1記載の指掌紋画像処理装置。
  10.  指掌紋の画像である指掌紋画像を処理する指掌紋画像処理方法であって、
     前記指掌紋画像を、第1集合要素と第2集合要素とからなる変換画像に変換する画像変換ステップと、
     前記画像変換ステップで変換した前記変換画像の中から前記第1集合要素の数が所定数以上である領域を特定する領域特定ステップと、を有し、
     前記第1集合要素と前記第2集合要素とは、前記指掌紋画像の要素が集合した集合要素であり、
     前記第1集合要素は、前記集合要素内における前記要素の色情報の変化度が所定基準を満たす集合要素であり、
     前記第2集合要素は、前記集合要素内における前記要素の色情報の変化度が所定基準を満たさない集合要素であることを特徴とする指掌紋画像処理方法。
  11.  指掌紋の画像である指掌紋画像を処理する指掌紋画像処理方法をコンピュータに行わせるための指掌紋画像処理プログラムを記録した記録媒体であって、
     前記指掌紋画像を、第1集合要素と第2集合要素とからなる変換画像に変換する画像変換ステップと、
     前記画像変換ステップで変換した前記変換画像の中から前記第1集合要素の数が所定数以上である領域を特定する領域特定ステップと、を有し、
     前記第1集合要素と前記第2集合要素とは、前記指掌紋画像の要素が集合した集合要素であり、
     前記第1集合要素は、前記集合要素内における前記要素の色情報の変化度が所定基準を満たす集合要素であり、
     前記第2集合要素は、前記集合要素内における前記要素の色情報の変化度が所定基準を満たさない集合要素である指掌紋画像処理方法をコンピュータに行わせることを特徴とする指掌紋画像処理プログラムを記録した記録媒体。
     
PCT/JP2009/071348 2008-12-22 2009-12-22 指掌紋画像処理装置、指掌紋画像処理方法及び指掌紋画像処理プログラムを記録した記録媒体 WO2010074096A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/133,712 US8457369B2 (en) 2008-12-22 2009-12-22 Finger/palm-print image processing apparatus, finger/palm-print image processing method, and recording medium in which finger/palm-print image processing program has been recorded

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-325120 2008-12-22
JP2008325120A JP5477887B2 (ja) 2008-12-22 2008-12-22 指掌紋画像処理装置、指掌紋画像処理方法及び指掌紋画像処理プログラム

Publications (1)

Publication Number Publication Date
WO2010074096A1 true WO2010074096A1 (ja) 2010-07-01

Family

ID=42287704

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/071348 WO2010074096A1 (ja) 2008-12-22 2009-12-22 指掌紋画像処理装置、指掌紋画像処理方法及び指掌紋画像処理プログラムを記録した記録媒体

Country Status (3)

Country Link
US (1) US8457369B2 (ja)
JP (1) JP5477887B2 (ja)
WO (1) WO2010074096A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130004031A1 (en) * 2010-01-28 2013-01-03 Fujitsu Limited Biometric information processing apparatus, method, and recording medium

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013100350A1 (en) 2011-12-28 2013-07-04 Samsung Electronics Co., Ltd. Image processing apparatus, upgrade apparatus, display system including the same, and control method thereof
EP3674973A1 (en) * 2018-12-28 2020-07-01 Samsung Electronics Co., Ltd. Method and apparatus with liveness detection and object recognition
CN117218685A (zh) * 2023-10-18 2023-12-12 湖南工商大学 考虑特征模板保护的生物特征识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002222424A (ja) * 2001-01-29 2002-08-09 Nec Corp 指紋照合システム
JP2005352623A (ja) * 2004-06-09 2005-12-22 Nec Soft Ltd パターン照合装置、画像品質検証方法及び画像品質検証プログラム
JP2007226746A (ja) * 2006-02-27 2007-09-06 Nec Corp 指紋照合装置、指紋パタンエリア抽出装置および品質判定装置、並びにその方法およびプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4229023A (en) * 1979-03-02 1980-10-21 Luz Wilson S Identity checking device
US4752966A (en) * 1982-03-26 1988-06-21 Fingermatrix, Inc. Fingerprint identification system
US5040223A (en) * 1988-02-17 1991-08-13 Nippondenso Co., Ltd. Fingerprint verification method employing plural correlation judgement levels and sequential judgement stages
US5020112A (en) * 1989-10-31 1991-05-28 At&T Bell Laboratories Image recognition method using two-dimensional stochastic grammars
US5337369A (en) * 1992-09-09 1994-08-09 Nec Corporation Equipment for fingerprint pattern classification
US5465303A (en) * 1993-11-12 1995-11-07 Aeroflex Systems Corporation Automated fingerprint classification/identification system and method
JP3560260B2 (ja) * 1995-05-01 2004-09-02 富士写真フイルム株式会社 指紋像記録シート
US7333963B2 (en) * 2004-10-07 2008-02-19 Bernard Widrow Cognitive memory and auto-associative neural network based search engine for computer and network located images and photographs
JP4833115B2 (ja) 2007-03-02 2011-12-07 Kddi株式会社 掌紋認証装置、携帯電話端末、プログラム、および掌紋認証方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002222424A (ja) * 2001-01-29 2002-08-09 Nec Corp 指紋照合システム
JP2005352623A (ja) * 2004-06-09 2005-12-22 Nec Soft Ltd パターン照合装置、画像品質検証方法及び画像品質検証プログラム
JP2007226746A (ja) * 2006-02-27 2007-09-06 Nec Corp 指紋照合装置、指紋パタンエリア抽出装置および品質判定装置、並びにその方法およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130004031A1 (en) * 2010-01-28 2013-01-03 Fujitsu Limited Biometric information processing apparatus, method, and recording medium
US9607204B2 (en) * 2010-01-28 2017-03-28 Fujitsu Limited Biometric information processing apparatus, method, and recording medium

Also Published As

Publication number Publication date
US20110249873A1 (en) 2011-10-13
JP5477887B2 (ja) 2014-04-23
JP2010146442A (ja) 2010-07-01
US8457369B2 (en) 2013-06-04

Similar Documents

Publication Publication Date Title
US6895104B2 (en) Image identification system
CN103313018B (zh) 登记确定装置及其控制方法、以及电子装置
US20160171290A1 (en) Tagging an individual in a digital image
JP5202148B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
US8433141B2 (en) Phishing abuse recognition in web pages
CN106845331A (zh) 一种图像处理方法及终端
CN111932544A (zh) 篡改图像检测方法、装置及计算机可读存储介质
WO2010074096A1 (ja) 指掌紋画像処理装置、指掌紋画像処理方法及び指掌紋画像処理プログラムを記録した記録媒体
KR101054107B1 (ko) 이미지 특성정보를 이용한 개인정보 노출 검색 시스템
EP1583023B1 (en) Model of documents and method for automatically classifying a document
Mahale et al. Image inconsistency detection using local binary pattern (LBP)
RU2715515C2 (ru) Система и способ выявления изображения, содержащего идентификационный документ
CN111582228A (zh) 活体掌纹的识别方法、装置、设备及存储介质
Rusia et al. A Color-Texture-Based Deep Neural Network Technique to Detect Face Spoofing Attacks
US20220383663A1 (en) Method for obtaining data from an image of an object of a user that has a biometric characteristic of the user
CN109359616B (zh) 一种基于sift的伪拼接小尺寸指纹识别算法
EP3702958B1 (en) Method for verifying the identity of a user by identifying an object within an image that has a biometric characteristic of the user and separating a portion of the image comprising the biometric characteristic from other portions of the image
Tripathi et al. Automated image splicing detection using texture based feature criterion and fuzzy support vector machine based classifier
JP4270842B2 (ja) 指紋照合装置
JP2001195579A (ja) 画像評価装置
Suryawanshi Image Recognition: Detection of nearly duplicate images
JP2000123173A (ja) 画像特徴抽出方法及び類似画像検索システム、記録媒体
CN113065010A (zh) 标牌图像管理方法、装置、计算机设备和存储介质
Thirunavukkarasu et al. Passive image tamper detection based on fast retina key point descriptor
Odabas Yildirim et al. Color Image Splicing Localization Based on Block Classification Using Transition Probability Matrix

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09834897

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13133712

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09834897

Country of ref document: EP

Kind code of ref document: A1