WO2010084967A1 - 画像処理装置、生体認証装置、画像処理方法及び記録媒体 - Google Patents

画像処理装置、生体認証装置、画像処理方法及び記録媒体 Download PDF

Info

Publication number
WO2010084967A1
WO2010084967A1 PCT/JP2010/050834 JP2010050834W WO2010084967A1 WO 2010084967 A1 WO2010084967 A1 WO 2010084967A1 JP 2010050834 W JP2010050834 W JP 2010050834W WO 2010084967 A1 WO2010084967 A1 WO 2010084967A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
curve
image processing
digital image
iris
Prior art date
Application number
PCT/JP2010/050834
Other languages
English (en)
French (fr)
Inventor
雷明 蘇
幸夫 星野
征男 板倉
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US13/143,445 priority Critical patent/US8401247B2/en
Publication of WO2010084967A1 publication Critical patent/WO2010084967A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Definitions

  • the present invention relates to an image processing device, a biometric authentication device, an image processing method, and a recording medium, and more particularly, an image processing device that performs image processing on a digital image of an eye, and a biometric authentication device that performs authentication using an iris pattern.
  • the present invention relates to an image processing method for performing image processing on a digital eye image, and a computer-readable recording medium on which a program for causing a computer to perform image processing on a digital eye image is recorded.
  • biometric authentication for example, physical features that are not unique among individuals, such as a fingerprint, a vein pattern on the back of the hand, an iris pattern on the eye, and a voiceprint, are generally used.
  • an authentication device using a fingerprint or a vein pattern on the back of the hand is mounted on various devices such as an ATM (Automatic Teller Machine) and a personal computer (PC) as the accuracy of authentication improves and the cost of the device decreases. Has reached.
  • ATM Automatic Teller Machine
  • PC personal computer
  • the eye iris is exposed from between the upper and lower eyelids.
  • a part of the iris is generally covered with the upper or lower eyelid.
  • the iris image and the image corresponding to the eyelid are mixed. In such a case, if authentication is to be performed correctly, it is necessary to accurately remove the area where the image corresponding to the eyelid etc. is mixed from the iris image and use the remaining area for authentication. There is.
  • the present invention has been made under the above-described circumstances, and an object thereof is to provide an image processing apparatus or the like that enables accurate authentication using an iris image.
  • An image processing apparatus is an image processing apparatus that detects noise from a digital image of an eye, and has a shape substantially along an edge of the eyelid on the digital image.
  • An arithmetic unit that sequentially calculates an average value of the luminance of each of the plurality of pixels of the digital image that overlaps the curve while moving the curve having the center from the vicinity of the pupil of the eye to the eyelid
  • a specifying unit that specifies a position of noise included in the iris image in the digital image based on a degree of variation in the average value of the luminance with respect to the position.
  • a biometric authentication device is a biometric authentication device that performs authentication using an iris pattern, and an imaging device that captures a digital image of the eye, and the iris in the digital image of the eye And an image processing apparatus according to the present invention that identifies a position of noise included in the image.
  • An image processing method is an image processing device that detects noise from a digital image of an eye, and has a shape substantially along the edge of the eyelid on the digital image.
  • the average value of the luminance of each of the plurality of pixels of the digital image that overlaps the curve is sequentially calculated for each position of the curve while moving the curve between the vicinity of the center of the pupil of the eye and the eyelid And a step of specifying a position of noise included in the digital image of the iris in the digital image based on a degree of variation in the average value of the luminance with respect to the position.
  • a recording medium including: a computer having a curved line having a shape substantially along an eyelid edge of the eye on a digital image of the eye from a vicinity of a center of the eye pupil; Means for sequentially calculating, for each position of the curve, the average value of the brightness of each of the plurality of pixels of the digital image that overlaps the curve while moving between the eyelids, and the average value of the brightness for the position Based on the degree of fluctuation, a program that functions as a specifying unit that specifies the position of noise included in the digital image of the iris in the digital image is recorded.
  • the present invention it is possible to accurately specify a region in which an iris image and a part image corresponding to a wrinkle or the like are mixed, so that accurate authentication using an iris image is possible.
  • FIG. 1 is a block diagram showing a schematic configuration of a biometric authentication apparatus according to a first embodiment of the present invention. It is a figure which shows a digital image. It is a figure which shows the image which shows and shows a digital image simplified. It is a figure which shows a binary image. It is a figure which shows a sample image. It is FIG. (1) for demonstrating operation
  • FIG. (1) for demonstrating operation
  • FIG. (2) for demonstrating operation
  • FIG. 6 is a diagram (part 1) for explaining the operation of a region setting unit;
  • FIG. 10 is a diagram (part 2) for explaining the operation of the region setting unit; It is a figure which shows a characteristic curve.
  • FIG. 1 is a block diagram showing a schematic configuration of a biometric authentication device 1 according to the present embodiment.
  • the biometric authentication device 1 is a device that performs authentication using the iris pattern of the subject.
  • the biometric authentication device 1 includes an imaging device 10, an image processing device 30, and a verification device 50.
  • the imaging device 10 includes an infrared camera having, for example, an illumination device that irradiates illumination light including near infrared rays and an infrared filter that cuts visible light other than infrared rays. Then, the imaging device 10 outputs a digital image obtained by photographing the subject's eyes to the image processing device 30.
  • FIG. 2 shows a digital image P that is an example of a digital image captured by the imaging device 10. As can be seen from FIG. 2, the imaging device 10 captures at least a part of the subject's iris and the eyelids, eyelids, and the like existing around it.
  • the digital image P is a grayscale image.
  • the image P1 shown in FIG. 3 is an image obtained by simplifying the outline of the iris and the portion existing in the periphery of the digital image P with only lines.
  • description will be made using the digital image P, and description will be made using the image P1 corresponding to the digital image P as necessary.
  • the image processing apparatus 30 includes a low-brightness pixel extraction unit 31, an adding unit 32, a reference pixel setting unit 33, a pupil center position specifying unit 34, an area setting unit 35, an iris pattern specifying unit 36, and a noise region specifying.
  • a portion 37 is provided.
  • the low-brightness pixel extraction unit 31 extracts low-brightness pixels whose luminance is equal to or lower than a predetermined value from a plurality of pixels constituting the digital image P output from the imaging device 10.
  • the extraction of the low luminance pixel is performed, for example, by converting the digital image P into a binary image and extracting a pixel whose luminance appears at this time is zero.
  • FIG. 4 shows a binary image P2 obtained by converting a digital image P using a predetermined threshold.
  • the low luminance pixel extraction unit 31 extracts low luminance pixels constituting the black portion of the binary image P2 shown in FIG. 4 and outputs information including the extraction result to the adding unit 32.
  • the threshold value used in the low luminance pixel extraction unit 31 can be determined according to the imaging condition of the digital image P or the like.
  • the threshold value is determined so that the pixels constituting the iris image appear as high luminance pixels and the pixels constituting the pupil image appear as low luminance pixels in the binary image P2.
  • the assigning unit 32 sequentially selects the low brightness pixels extracted by the low brightness pixel extraction unit 31, and assigns, for example, a value 1 to each of a plurality of pixels within a predetermined distance from the selected low brightness pixels.
  • the operation of the adding unit 32 will be described with reference to FIG. 5 showing the sample image SAMP1.
  • the sample image SAMP1 is an image composed of pixels PX (m, n) arranged in a matrix of 16 rows and 20 columns as an example.
  • m is an integer representing a row number from 1 to 16
  • n is an integer representing a column number from 1 to 20.
  • this image SAMP1 is a binary image composed of three low brightness pixels PX (5, 12), PX (8, 8), PX (9, 12) and other high brightness pixels PX, the low brightness
  • the pixel extraction unit 31 extracts three low-brightness pixels PX (5, 12), PX (8, 8), and PX (9, 12).
  • the assigning unit 32 first selects the low luminance pixel PX (5, 12) in the fifth row. Then, as can be seen from FIG. 6A, the assigning unit 32 includes the low luminance pixel PX (5, 12) and the pixel PX (m, n) within a predetermined distance from the low luminance pixel PX (5, 12). ) Assign 1 to each.
  • the assigning unit 32 selects the low luminance pixel PX (8, 8) in the eighth row. Then, as can be seen from FIG. 6B, the assigning unit 32 sets 1 to each of the low-luminance pixel PX (8, 8) and each pixel PX within a predetermined distance from the low-luminance pixel PX (8, 8).
  • the pixels PX (6, 10) in the sixth row and the pixels PX (7, 10) in the seventh row are predetermined with respect to the low luminance pixels PX (5, 12) and PX (8, 8), respectively. Within distance. Therefore, the assigning unit 32 integrates the values given so far for these pixels PX (6, 10) and PX (7, 10). Note that when the processing is completed, the integrated value of the assigned values is 2 in the pixels PX (6, 10) and PX (7, 10).
  • the assigning unit 32 selects the low luminance pixel PX (9, 12) in the ninth row. Then, as can be seen with reference to FIG. 7, the assigning unit 32 includes the low luminance pixel PX (9, 12) and the pixel PX (m, n) within a predetermined distance from the low luminance pixel PX (9, 12). ) Assign 1 to each.
  • the pixels PX (7, 10) in the seventh row are within a predetermined distance with respect to the low-brightness pixels PX (5, 12), PX (8, 8), and PX (9, 12), respectively. . Therefore, the assigning unit 32 accumulates the values given so far for each pixel PX (7, 10).
  • the integrated value of the assigned values becomes 3 in PX (7, 10).
  • the assigning unit 32 performs the above-described processing for all low-luminance pixels included in the image. Thereby, the integrated value of the given value is calculated for each pixel PX (m, n).
  • the assigning unit 32 performs the above-described processing on each low-luminance pixel that forms the binary image P2.
  • FIG. 8 shows an image P3 that is an example of an image that conceptually shows the result after the applying unit 32 has performed the above-described processing on the low-luminance pixels that form the black portion of the binary image P2. ing.
  • a pixel having a larger integrated value given by the assigning unit 32 is displayed in a state of being colored at a higher density.
  • the assigning unit 32 outputs the above processing result to the reference pixel setting unit 33.
  • the reference pixel setting unit 33 sets the pixel having the largest integrated value of the given values as the reference pixel PX 0 , and outputs the position information of the reference pixel PX 0 to the pupil center position specifying unit 34.
  • This reference pixel PX 0 coincides with the position of the pixel shown at the highest density in the image P3, as shown in FIG.
  • FIG. 9 shows an image in which the image P1 (see FIG. 3) and the image P3 (see FIG. 8) are overlapped (that is, an image for explaining the processing result of the applying unit 32).
  • the position of the reference pixel PX 0 is substantially coincident with the center of the pupil of the eye shown in the image P1.
  • FIG. 10 shows an example of the low-luminance pixel group PG1 and the high-luminance pixel group PG2 constituting the pupil included in the binary image P2.
  • the high-luminance pixel group PG2 is unevenly distributed among the pixels constituting the pupil image, so the number of pixels constituting the high-luminance pixel group PG2 increases. Accordingly, it is conceivable that the position of the reference pixel PX 0 gradually shifts from the pupil center. Therefore, the image processing apparatus 30, the distribution of the low-intensity pixel group PG1 constituting the pupil in the binary image P2, based on the position information of the reference pixel PX 0, and detects the center position of the pupil.
  • the pupil center position specifying unit 34 sets a circle C (1) centered on the reference pixel PX 0.
  • the radius r (1) of the circle C (1) is set to be sufficiently smaller than the radius of the pupil.
  • the radius r (1) of the circle C (1) is preferably determined in consideration of the distribution range of the low-luminance pixel group PG1 in the X-axis direction or the Y-axis direction.
  • the pupil center position identifying unit 34 sets a circle C (2) having a larger radius than the radius r (1) of the circle C (1).
  • the pupil center position specifying unit 34 includes the areas S 1 and S 2 of the circles C (1) and C (2) and the low-luminance pixels inside the circles C (1) and C (2).
  • the numbers N 1 and N 2 are calculated.
  • Pupil center position identifying unit 34 calculates the ratio R 2 is equal to or a predetermined value or more. Later, to a predetermined value following ratio R N is calculated, the above processing is repeatedly executed. During this repetition, the size of the two circles defined on the pupil image of the binary image P2 is gradually enlarged.
  • the pupil center position identifying unit 34 uses the circle C (N) at this time, to identify the center position of the pupil.
  • the circles C (1), C (2), and C (3) are included in the region defined by the low luminance pixel group PG1 and the high luminance pixel group PG2, the circle C (4) Will be described with respect to the case of protruding from the region (see FIG. 11).
  • the circles C (1), C (2), and C (3) are calculated because they include only the pixels that constitute the pupil and belong to either the low luminance pixel group PG1 or the high luminance pixel group PG2.
  • the ratios R 1 and R 2 are almost constant.
  • the pupil center position specifying unit 34 As seen with reference to FIG. 12, while the reference pixel PX 0 moves the circle C (4) as the reference position, the low-luminance pixels included in the circle C (4) number to search for the circle center position P 1 of the C (4) when it becomes maximum. Then, the pupil center position specifying unit 34 specifies the position P 1 of searching as the position of the pupil center.
  • the radii of the circles C (1) to C (N) are preferably set so as to differ by, for example, one pixel to several pixels on the basis of the pixel size.
  • the region setting unit 35 as shown in FIG. 13, to define an XY coordinate system position P 1 on the image P1 is the origin. In this coordinate system, the X-axis extends in the horizontal direction (lateral direction). Then, the area setting unit 35, a position P 1 on the image P1 as a starting point, to define a straight line L1, the region F1 of the triangle defined by the L2 and the region F2 at an angle of X-axis and 15 degrees. Next, as shown in FIG. 14A, the region setting unit 35 divides the region F1 by a plurality of arcs whose central angles are angles defined by the X axis and the straight line L1, thereby forming a plurality of arc shapes. Set a small area. The region setting unit 35 sets a plurality of arc-shaped minute regions by dividing the region F2 by a plurality of arcs whose central angles are angles defined by the X axis and the straight line L2.
  • FIG. 14B shows a characteristic curve SL indicating the relationship between the position x and the average value of the luminance of the arc-shaped minute region.
  • the iris pattern specifying unit 36 calculates the average value of the luminance of the pixels included in the micro area for each micro area belonging to the area F1 or the area F2.
  • specification part 36 calculates the characteristic curve SL showing the relationship between the position on the X-axis of a micro area
  • the iris pattern specifying unit 36 obtains the X coordinates A and D of the intersection between the X axis and the outer edge of the iris based on the degree of change of the characteristic curve SL.
  • the X coordinates A and D of the intersection can be specified by comparing a differential value obtained by differentiating the characteristic curve SL at the position x on the X axis with a predetermined threshold value, for example.
  • a predetermined threshold value for example.
  • continuity is seen in the degree of change in the average luminance value at the boundary between the iris region and the white eye.
  • the degree of change in the average luminance value is greater than in other portions.
  • Circle Cq (0) whose center is located on the X axis and whose circumference passes through a point (A, 0) and a point (D, 0) in the XY coordinate system.
  • the circle Cq (0) is a circle having a radius (DA) / 2 with the point ((A + D) / 2, 0) as the center Q 0 .
  • Circle Cq (0) substantially coincides with the outer edge of the iris
  • circle C (4) substantially coincides with the outer edge of the pupil.
  • the iris pattern specifying unit 36 obtains the X coordinates A and D, and thereby determines the region defined by the circle C (4) and the circle Cq (0) centered on the position P 1 on the image P1 as the iris. Is identified as an area in which the image is present. Then, the iris pattern specifying unit 36 outputs the specified result to the noise region specifying unit 37.
  • the noise area specifying unit 37 includes a calculation unit 37a and a position specifying unit 37b.
  • the position specifying unit 37b specifies the position of the noise region based on the calculation result of the calculation unit 37a.
  • the arithmetic unit 37a first has a linear Ly parallel as Y-axis center Q 0 of the circle substantially coincides with the outer edge of the iris Cq (0), centered on the straight line Ly
  • An arc AR1 that is a part of a circle is defined.
  • the arc AR1 corresponds to, for example, a part of a circumference having a radius 2.4 to 3 times the radius of a circle Cq (0) that substantially coincides with the outer edge of the iris, and passes through the point A and is parallel to the Y axis. and the straight line L a such, exists between the straight line L D parallel as Y-axis the point D, a convex arc upward.
  • both end points of the arc AR1 have the same Y coordinate.
  • the position of this end point is defined as the position of the arc AR1.
  • the position of the arc AR1 is defined as the position y using the coordinate y on the Y axis.
  • the calculation unit 37a moves the arc AR1 from the position 0 indicated by the solid line in FIG. 16 in the + Y direction by a distance equal to or larger than the radius of the circle Cq (0).
  • the arc AR1 moves from the center position of the pupil or a position in the vicinity thereof (the position indicated by the solid line on the image P1) to the position on the upper eyelid (the position indicated by the alternate long and short dash line).
  • the calculation unit 37a sequentially calculates the average value of the luminance of the pixels constituting the image P1 that overlaps the arc AR1. Thereby, as shown in FIG. 17A as an example, a characteristic curve SL1 indicating the position of the arc AR1 and the average value of the luminance is obtained.
  • the characteristic curve SL1 has an abrupt decrease in average brightness value at the position Yb. This is because the arc AR1 overlaps the ridge portion indicated by the low luminance pixel in the image P1 at the position Yb on the Y axis. Therefore, when the characteristic curve SL1 is obtained, by finding a position where the characteristic curve SL1 changes sharply (hereinafter, simply referred to as a change position), the ratio of the image of the wrinkle portion mixed in the iris image is large. It is possible to detect the boundary of the region.
  • the position specifying unit 37b calculates a function F (y) by performing an operation using the filter represented by the following equation (1) on the characteristic curve SL1 obtained as described above. Based on the function F (y), the change position of the characteristic curve SL1 is detected.
  • the difference (P (y) between the average value P (y) of the luminance at the position y and the luminance P (y ⁇ k) at the position y ⁇ k separated by k pixels from the position y in the ⁇ Y direction. ) ⁇ P (y ⁇ k)) for k 1 to n, respectively.
  • the obtained differences (P (y) ⁇ P (y + k), P (y) ⁇ P (y ⁇ k)) are integrated.
  • This integrated value is F (y).
  • the value of F (y) at the position y is 0 if no change is seen in the slope.
  • the sign of the slope changes, the absolute value of F (y) at the position y increases based on the degree of change.
  • n is 4.
  • the position specifying unit 37b performs a filter operation in consideration of the relationship between a certain position y and eight positions that are separated by one pixel from the position y in the front and rear, and the function shown in FIG. F (y) (here, F 1 (y)) is calculated.
  • This function F 1 (y) is for detecting a change position where the value of the characteristic curve SL1 sharply decreases. For this reason, in FIG. 17B, only the portion where the value is negative is shown.
  • the position specifying unit 37b detects the change position of the characteristic curve SL1 based on the function F 1 (y). Specifically, the position Yb corresponding to the y coordinate at which the value of the function F 1 (y) is minimum and is equal to or less than a predetermined threshold value N 1 is detected.
  • the position specifying unit 37b defines a downwardly projecting arc AR2 as indicated by a two-dot chain line in FIG. Then, the position specifying unit 37b moves the arc AR2 in the -Y direction and sequentially calculates the average value of the luminance of the pixels constituting the image P1 overlapping the arc AR2, thereby obtaining the characteristic curve SL2 shown in FIG. 18A. . Next, the position specifying unit 37b performs an operation using the filter shown in the above equation (1) on the characteristic curve, thereby obtaining a function F (y) (here, F 2 (y) and Calculate).
  • F (y) here, F 2 (y) and Calculate
  • the position specifying unit 37b detects a position corresponding to the y coordinate at which the value of the function F 2 (y) is minimized and the value is equal to or less than a predetermined threshold N 2 .
  • a predetermined threshold N 2 a predetermined threshold
  • the thresholds N 1 and N 2 for detecting the change positions of the characteristic curve SL1 and the characteristic curve SL2 can be individually determined in consideration of the statistical result, the installation position of the imaging device 10, and the like.
  • an iris image often includes image components such as eyelids on the upper side.
  • image components such as wrinkles are rarely mixed, but there are cases where tear bags (wrinkles under the eyes) protrude on the iris image.
  • samples of characteristic curves SL1 and SL2 are taken from a plurality of eye images, and threshold values N 1 and N 2 are individually determined based on the sample results, respectively. it can. As a result, it is possible to accurately specify a region where noise components are mixed in the entire iris image.
  • the position specifying unit 37b When the position specifying unit 37b detects the coordinates of the change position as described above, based on the detection result, the position specifying unit 37b specifies a region where noise in the iris image is mixed (hereinafter referred to as a noise region).
  • Information relating to a region in the excluded iris image (hereinafter referred to as a matching region) is output to the collation device 50. Specifically, as shown in FIG. 19, from the region defined by the circle C (4) and the circle Cq (0) included in the image P1, it is at a position corresponding to the change position of the characteristic curve SL1.
  • the noise area NA defined by the arc AR1 and the circle Cq (0) is excluded. Then, information regarding the remaining matching area MA is output to the verification device 50.
  • the collation device 50 first generates the code of the subject to be compared based on the iris image specified by the iris pattern specifying unit 36.
  • the center P 1 of the circle C (4) that substantially matches the outer edge of the pupil and the center Q 0 of the circle Cq (0) that substantially matches the outer edge of the iris generally do not match. This is because the line of sight of the left and right eyes of a person is generally not parallel due to parallax. This is because they are not parallel. Since the iris has a spherical shape, the center of the iris and the center of the pupil are shifted in the digital image P captured by the imaging device 10 in which the optical axis of the lens is inclined with respect to the line of sight.
  • the collation device 50 is defined by a circle C (4) that substantially matches the outer edge of the pupil and a circle Cq (0) that substantially matches the outer edge of the iris, as shown in FIG.
  • the region to be processed is divided into eight annular regions using seven circles Cq (1) to circle Cq (7).
  • this operation will be specifically described.
  • the matching unit 50 measures the center P 1 of the circle C (4), the distance d between the center Q 0 of the circle Cq (0). Then, the collation device 50 adds the values obtained by dividing the distance d by 8 to the X coordinate of the center Q 0 , so that the centers Q 1 to Q 7 of the circles Cq (1) to Cq (7) are added. Is calculated.
  • the coordinates of the center Q 1 to the center Q 7 are respectively Q 1 ((A + D) / 2 + d / 8, 0), Q 2 ((A + D) / 2 + d / 4, 0), Q 3 ((A + D) / 2 + 3d).
  • the matching device 50 the radius r 0 of the circle Cq (0), the circle C (4) of the radius (a r) and the circle Cq (0) difference divided by the eight of the radius r 0 of Are respectively subtracted to calculate radii r 1 to r 7 of circles Cq (1) to Cq (7).
  • the radius r 1 to the radius r 7 are r 1 : (r 0- (r 0 -r) / 8), r 2 : (r 0 -2 ⁇ (r 0 -r) / 8), r 3, respectively.
  • the collation device 50 calculates the circle Cq (0) based on the calculation results regarding the centers Q 1 to Q 7 and the radii r 1 to r 7 calculated as described above. And seven circles Cq (1) to Cq (7) are defined in an area defined by the circle C (4).
  • the iris image included in the image P1 is divided into eight annular regions A1 to A8 by the seven circles Cq (1) to Cq (7).
  • the collation device 50 divides each of the eight annular regions A1 to A8 into, for example, 256 minute regions. More specifically, the circumferences of the circle C (4) and the circles Cq (1) to Cq (7) are divided into 256 arcs having the same central angle. A set of arcs formed by an arc of a certain circle (for example, circle C (4)) and an arc corresponding to the aforementioned arc in a circle adjacent to the circle (for example, circle Cq (7)) Each minute region is generated by defining a line segment connecting the end points of both arcs.
  • a method for generating a minute region will be specifically described with reference to FIG.
  • FIG. 22 shows a state in which the annular area A1 defined by the circle C (4) and the circle Cq (7) is divided into 256 minute areas.
  • the collation device 50 uses a circle C (4) and a circle Cq (7) as arcs whose center angle is ⁇ (360/256) with the intersection of each circle and the X axis as a base point. And by defining a line segment connecting both end points of the corresponding arcs, the annular area A1 is divided into 256 minute areas A1 1 to A1 256 .
  • the collation device 50 divides each of the annular regions A2 to A8 into a minute region A2 1 to A2 256 , a minute region A3 1 to A3 256, a minute region A4 1 to A4 256 , a minute region A5 1 to A5 256, a minute region. It is divided into A6 1 to A6 256 , minute areas A7 1 to A7 256 , and minute areas A8 1 to A8 256 .
  • the collation device 50 classifies the micro areas A1 1 to A1 256 belonging to the annular area A1 into a micro area belonging to the noise area NA specified by the noise area specifying unit 37 and a micro area belonging to the matching area MA. . Then, the collation device 50 assigns, for example, 0 to each of the minute regions belonging to the noise region NA, and assigns the average value of the luminance of the pixels included in each minute region to the minute region belonging to the matching region MA. Next, the collation device 50 generates the code 1 [VAL1 1 , VAL1 2 ,..., VAL1 256 ] by arranging the values VAL given to the minute areas according to the positions of the minute areas.
  • the collation device 50 executes the same process as the process for the annular area A1 described above for each of the annular areas A2 to A8, code 2 [VAL2 1 , VAL2 2 ,..., VAL2 256 ], code 3 [VAL3.
  • the collation device 50 manages the above eight codes 1 to 8 as one collation target code group.
  • the collation device 50 includes a plurality of code groups including eight codes that are generated based on the iris image specified in advance by the same processing as that in the image processing device 30 and that are associated with specific personal information. Data on is accumulated.
  • the collation device 50 collates the above-described collation target code group with each of the previously accumulated code groups (hereinafter referred to as collation code groups).
  • collation code groups When a collation code group having a similarity degree equal to or greater than a predetermined value for the collation target code group is specified, the collation device 50 outputs the result and personal information associated with the collation code group to the outside.
  • the collation device 50 outputs the result to the outside.
  • the digital image P of the eye is based on the characteristic curve SL1 and the characteristic curve SL2 obtained by scanning the iris image using the arc AR1 and the arc AR2.
  • the noise area NA in which portions such as wrinkles and wrinkles are mixed is accurately specified.
  • authentication is performed using data generated based on the iris image from which the noise area NA is excluded. For this reason, it becomes possible to authenticate the subject accurately without being affected by noise.
  • the noise region NA is specified by scanning the iris digital image P using predetermined arcs AR1 and AR2.
  • the noise area NA can be quickly identified as compared with the case where only the part related to the eyelid or the like is extracted as it is from the iris image.
  • a noise region in which parts such as the eyelids and the upper eyelid are mixed is specified, and a noise region in which parts such as the pupil and the lower eyelid are mixed is not specified. Needless to say, if there is a part in which is mixed, that part can be specified.
  • the eyelid includes both an upper eyelid and a lower eyelid.
  • the authentication accuracy can be further improved only by specifying the noise region for either the upper eyelid or the lower eyelid and excluding the noise region.
  • the biometric authentication device 2 is the biometric authentication according to the first embodiment in that the image processing device 30 is realized by the same configuration as a general computer or a device such as a workstation. This is different from the apparatus 1.
  • FIG. 23 is a block diagram showing a physical configuration of the biometric authentication device 2.
  • the biometric authentication device 2 includes an imaging device 10, an image processing device 30 including a computer, and a verification device 50.
  • the image processing apparatus 30 includes a central processing unit (CPU) 30a, a main storage unit 30b, an auxiliary storage unit 30c, a display unit 30d, an input unit 30e, an interface unit 30f, and a system bus 30g that interconnects the above units. .
  • CPU central processing unit
  • main storage unit 30b main storage unit
  • auxiliary storage unit 30c main storage unit
  • display unit 30d main storage unit
  • input unit 30e an input unit
  • an interface unit 30f an interface unit
  • system bus 30g that interconnects the above units.
  • the CPU 30a performs image processing, which will be described later, on the image P captured by the imaging device 10 in accordance with a program stored in the auxiliary storage unit 30c.
  • the main storage unit 30b has a RAM (Random Access Memory) or the like.
  • the main storage unit 30b is used as a work area for the CPU 30a.
  • the auxiliary storage unit 30c includes a non-volatile memory such as a ROM (Read Only Memory), a magnetic disk, and a semiconductor memory.
  • the auxiliary storage unit 30c stores programs executed by the CPU 30a, various parameters, and the like. Further, the auxiliary storage unit 30c stores information including a processing result by the CPU 30a.
  • the display unit 30d includes a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal Display).
  • the display unit 30d displays the processing result of the CPU 30a.
  • a binary image P2, an image P3, and the like as a result of the process are displayed on the display unit 30d.
  • the input unit 30e includes a pointing device such as a keyboard and a mouse.
  • the operator's instruction is input via the input unit 30e and notified to the CPU 30a via the system bus 30g.
  • the interface unit 30f includes a serial interface or a LAN (Local Area Network) interface.
  • the imaging device 10 and the collation device 50 are connected to the system bus 30g via the interface unit 30f.
  • the flowchart in FIG. 24 corresponds to a series of processing algorithms of a program executed by the CPU 30a of the image processing apparatus 30.
  • image processing in the image processing apparatus 30 will be described with reference to FIG.
  • This image processing is realized by the CPU 30a controlling the main storage unit 30b, the auxiliary storage unit 30c, the display unit 30d, and the interface unit 30f in accordance with a program read from the auxiliary storage unit 30c.
  • the CPU 30a extracts a low luminance pixel having a luminance equal to or lower than a predetermined value from a plurality of pixels constituting the digital image P imaged by the imaging device 10 (step S101). More specifically, the CPU 30a extracts low-luminance pixels from the binary image P2 obtained by converting the digital image P using a predetermined threshold.
  • the CPU 30a sequentially selects the extracted low brightness pixels, and assigns, for example, a value 1 to each of a plurality of pixels within a predetermined distance from the selected low brightness pixels (step S102).
  • CPU 30a is the integrated value of the assigned value is the largest pixel is set as a reference pixel PX 0 (step S103).
  • the position of the reference pixel PX 0 substantially coincides with the center of the pupil of the eye shown in the image P1 (see FIG. 9).
  • CPU 30a is provided with a circle C (1) centered on the reference pixel PX 0, sets the circle C (2) having a larger radius than the radius of the circle C (1) (step S104).
  • step S105 the CPU 30a performs arithmetic processing.
  • the CPU 30a first determines the areas S 1 and S 2 of the circles C (1) and C (2) and the number N 1 of low-luminance pixels inside each of the circles C (1) and C (2). , N 2 is calculated.
  • the CPU 30a determines the ratio R of the number of low-luminance pixels (N 2 ⁇ N 1 ) in each circle to the area difference (S 2 ⁇ S 1 ) between the circle C (1) and the circle C (2).
  • step S106 the ratio R N is equal to or a predetermined value or more. If the ratio R is equal to or greater than the predetermined value (step S106; Yes), the CPU 30a returns to step S104.
  • step S106 When the ratio R N is lower than a predetermined value (step 106; No), CPU 30a, the process proceeds to step S107. For example, as shown in FIG. 11, when the circle C (4) that protrudes from the region defined by the pixel groups PG1 and PG2 is set, the determination in step S106 is negative.
  • the CPU 30a sets a plurality of arc-shaped minute regions (step S108).
  • CPU 30a first, to define an XY coordinate system position P 1 on the image P1 is the origin, the position P 1 on the image P1 as a starting point, a straight line at an angle of X-axis and 15 degrees L1, L2 A triangular region F1 and a region F2 defined by the above are defined.
  • the CPU 30a sets a plurality of arc-shaped minute regions by dividing the region F1 by a plurality of arcs whose central angles are angles defined by the X axis and the straight line L1 (see FIG. 14A).
  • the CPU 30a sets a plurality of arc-shaped minute regions by dividing the region F2 by a plurality of arcs whose central angles are angles defined by the X axis and the straight line L2.
  • the CPU 30a calculates the average value of the luminance of the pixels included in the minute region for each minute region belonging to the region F1 or the region F2, and calculates the position of the minute region on the X axis and the corresponding average luminance value.
  • a characteristic curve SL representing the relationship is calculated (step S109).
  • the CPU 30a specifies an iris pattern (step S110). More specifically, the CPU 30a obtains the X coordinates A and D of the intersections between the X axis and the outer edge of the iris based on the degree of change of the characteristic curve SL, and the circle C (4) on the image P1 and the circle It is specified that an iris image is located in an area defined by Cq (0) (see FIG. 15).
  • the CPU 30a performs scanning with the arc AR1 (step S111). More specifically, CPU 30a, first, as shown in FIG. 16, the straight line Ly center Q 0 parallel to the street Y axis of a circle substantially coincides with the outer edge of the iris Cq (0), on the straight line Ly An arc AR1, which is a part of a circle having a center, is defined, and the arc AR1 is moved from the position 0 indicated by the solid line in FIG. 16 by a distance equal to or larger than the radius of the circle Cq (0).
  • the CPU 30a sequentially calculates the average value of the luminance of the pixels constituting the image P1 overlapping the arc AR1. As a result, the CPU 30a obtains a characteristic curve SL1 indicating the position of the arc AR1 and the average value of luminance, as shown in FIG. 17A as an example.
  • the CPU 30a defines a downwardly convex arc AR2 as shown by a two-dot chain line in FIG. Then, the CPU 30a moves the arc AR2 in the -Y direction and sequentially calculates the average value of the luminance of the pixels constituting the image P1 overlapping the arc AR2, thereby obtaining a characteristic curve SL2 shown in FIG. 18A.
  • the CPU 30a calculates a function F 1 (y) and a function F 2 (y) by performing an operation using the filter represented by the above formula (1) on the characteristic curve SL1 and the characteristic curve SL2. Based on the function F 1 (y) and the function F 2 (y), the change positions of the characteristic curve SL1 and the characteristic curve SL2 are detected (step S112). More specifically, the CPU 30a detects a change position at which the values of the function F 1 (y) and the function F 2 (y) are minimum and the values are equal to or less than a predetermined threshold N 1 or N 2 .
  • the CPU 30a detects the coordinates of the change position as described above, the CPU 30a identifies a noise area NA in which noise in the iris image is mixed based on the detection result (step S113). More specifically, as shown in FIG. 19, the CPU 30a matches the matching area excluding the noise area NA from the area defined by the circle C (4) and the circle Cq (0) included in the image P1. Specify the MA.
  • the CPU 30a outputs information including the processing result in step S113 to the collation device 50 (step S114), and ends a series of processing.
  • the collation device 50 divides the iris image specified by the image processing device 30 into eight annular regions A1 to A8. Further, each of the annular regions A1 to A8 is divided into 256 minute regions.
  • the collation device 50 collates each of a plurality of code groups including eight codes associated with specific personal information acquired in advance with the collation target code group.
  • the collation device 50 outputs the result and personal information associated with the collation code group to the outside.
  • the collation device 50 outputs the result to the outside.
  • the digital image P of the eye is based on the characteristic curve SL1 and the characteristic curve SL2 obtained by scanning the iris image using the arc AR1 and the arc AR2.
  • the noise area NA in which portions such as wrinkles and wrinkles are mixed is accurately specified.
  • authentication is performed using data generated based on the iris image from which the noise region is excluded. For this reason, it becomes possible to authenticate the subject accurately without being affected by noise.
  • the noise area NA is specified by scanning the iris digital image P using predetermined arcs AR1 and AR2.
  • the noise area NA can be quickly identified as compared with the case where only the part related to the eyelid or the like is extracted as it is from the iris image.
  • it is possible to improve the authentication accuracy and speed up the processing.
  • the arc AR1 and the arc AR2 are used to obtain a characteristic curve, but instead of the arc AR1 or the arc AR2, a curve that approximates the outer edge of the upper eyelid or an outer edge of the lower eyelid. A curve may be used.
  • arc AR1 and arc AR2 of a circle having a center on a straight line Ly passing through the center Q 0 of the circle Cq (0) which substantially coincides with the center of the iris not limited to this,
  • a circular arc having a center on a straight line parallel to the Y axis passing through the reference pixel PX 0 or a straight line parallel to the Y axis passing through the position P 1 searched using the circle C (4) may be used. Good.
  • the noise area NA is specified using the arc AR1 and the arc AR2.
  • the present invention is not limited to this, and data relating to the outer edge of a plurality of eyelids is sampled, and the optimum eyelid is determined from these data.
  • the noise area NA may be specified by determining a curve along the line and scanning the iris image using the curve.
  • arcs AR1 and AR2 a part of an ellipse or a polygon, a line formed by a combination of a straight line and an arc, or the like may be used.
  • the arc AR1 and the arc AR2 are moved from the center of the pupil or the vicinity thereof to above the upper eyelid.
  • the present invention is not limited thereto, and the arc AR1 and the arc AR2 are moved toward the center of the pupil. By doing so, an iris image may be scanned.
  • the characteristic curve SL1 is obtained by using F ′ 1 (y) and the function F ′ 2 (y) obtained by differentiating the characteristic curve SL1 and the characteristic curve SL2.
  • the change position of the characteristic curve SL2 may be detected.
  • the value of n of the function F (y) indicating the filter is 4, but the value of n is not limited to 4.
  • the value of n may be an appropriate value in consideration of the resolution of the imaging device 10 and the distance to the subject (subject).
  • 256 minute regions are set by dividing the annular regions A1 to A8.
  • the present invention is not limited to this, and the end points of a set of arcs that correspond to each other between adjacent circles are connected.
  • the formed rectangular area may be set along each of the annular areas A1 to A8.
  • the image processing apparatus 30 extracts the low-luminance pixels by converting the digital image P into the binary image P2.
  • the present invention is not limited to this, and the luminance values of the pixels constituting the digital image P are not limited thereto.
  • Low luminance pixels may be extracted directly from
  • the functions of the image processing apparatus 30 according to the above embodiment can be realized by dedicated hardware or by a normal computer system.
  • the programs stored in the auxiliary storage unit 30c of the image processing apparatus 30 are flexible disk, CD-ROM (Compact Disk Read-Only Memory), DVD (Digital Versatile Disk), MO ( A device that executes the above-described processing may be configured by storing and distributing in a computer-readable recording medium such as Magneto-Optical disk) and installing the program in the computer.
  • CD-ROM Compact Disk Read-Only Memory
  • DVD Digital Versatile Disk
  • MO A device that executes the above-described processing may be configured by storing and distributing in a computer-readable recording medium such as Magneto-Optical disk) and installing the program in the computer.
  • the program may be stored in a disk device or the like of a predetermined server device on a communication network such as the Internet, and may be downloaded to a computer by being superimposed on a carrier wave, for example.
  • the above program may be activated and executed while being transferred via a communication network.
  • the above-described image processing may be executed while executing all or part of the above-mentioned program on the server device and transmitting / receiving information related to the processing via a communication network.
  • the image processing apparatus, the image processing method, and the recording medium of the present invention are suitable for specifying a noise region included in an iris image.
  • the biometric authentication device of the present invention is suitable for performing authentication using an iris pattern.

Abstract

 虹彩の画像の、睫等に相当する部分の画像が混在した領域を正確に特定する。 円弧(AR1)及び円弧(AR2)を用いて、虹彩の画像をスキャンすることにより得られた特性曲線及び特性曲線に基づいて、眼のデジタル画像(P1)に含まれる虹彩の画像中の、例えば睫や瞼等の部分が混在したノイズ領域が正確に特定される。そして、このノイズ領域を除外した虹彩の画像に基づいて生成されたデータを用いて認証が行われる。これにより、対象者の認証を、ノイズの影響を受けることなく、正確に行うことができる。

Description

画像処理装置、生体認証装置、画像処理方法及び記録媒体
 本発明は、画像処理装置、生体認証装置、画像処理方法及び記録媒体に係り、更に詳しくは、眼のデジタル画像に対する画像処理を行う画像処理装置、虹彩のパターンを用いて認証を行う生体認証装置、眼のデジタル画像に対する画像処理を行うための画像処理方法、コンピュータに眼のデジタル画像に対する画像処理を行わせるためのプログラムを記録したコンピュータが読み取り可能な記録媒体に関する。
 近年、文字や記号の組み合わせからなるコードやパスワードに代えて、対象者の身体的特徴を用いて認証を行う生体認証技術の研究開発が盛んに行われている。生体認証には、例えば、指紋、手の甲の静脈パターン、眼の虹彩パターン、声紋など、個人相互間で不同な身体的特徴が用いられるのが一般的である。特に、指紋や手の甲の静脈パターンを用いた認証装置は、認証精度が向上し、装置のコストダウンが進むにつれて、ATM(Automatic Teller Machine)やパーソナルコンピュータ(PC)など、種々の装置に搭載されるに至っている。
 しかしながら、指紋や手の甲の静脈パターンを用いた認証では、対象者が指や手などの身体の一部を装置に接触させるか、ある程度近づける必要がある。このため、最近では眼の虹彩パターンを用いた生体認証技術が注目されている(例えば特許文献1参照)。
特許第3307936号公報
 眼の虹彩は、上眼瞼と下眼瞼との間から露出している。人が自然の状態にある場合には、一般に虹彩の一部は上眼瞼又は下眼瞼に覆われた状態となっている。このため、虹彩パターンを用いて認証を行う場合には、眼のデジタル画像から、両眼瞼の間から露出した虹彩の画像を正確に特定する必要がある。また、個人差はあるが、眼瞼に存在する睫が露出した虹彩上に張り出している場合には、虹彩の画像と、睫に相当する部分の画像とが混在する。このような場合に、正確に認証を行おうとすれば、虹彩の画像から、睫等に相当する部分の画像が混在した領域を正確に除去し、残りの領域を有効に使って認証を行う必要がある。
 本発明は、上述の事情の下になされたもので、虹彩の画像を用いた正確な認証が可能となる画像処理装置等を提供することを目的とする。
 本発明の第1の観点に係る画像処理装置は、眼のデジタル画像からノイズを検出する画像処理装置であって、前記デジタル画像上で、前記眼の眼瞼の縁に実質的に沿った形状を有する曲線を、前記眼の瞳孔の中心近傍から前記眼瞼まで移動させつつ、前記曲線と重なった前記デジタル画像の複数のピクセルそれぞれの輝度の平均値を、前記曲線の位置ごとに順次算出する演算部と、前記位置に対する前記輝度の平均値の変動の度合いに基づいて、前記デジタル画像中の前記虹彩の画像に含まれるノイズの位置を特定する特定部と、を備える。
 本発明の第2の観点に係る生体認証装置は、虹彩のパターンを用いて認証を行う生体認証装置であって、眼のデジタル画像を撮像する撮像装置と、前記眼のデジタル画像中の前記虹彩の画像に含まれるノイズの位置を特定する本発明の画像処理装置と、を備えることを特徴とする。
 本発明の第3の観点に係る画像処理方法は、眼のデジタル画像からノイズを検出する画像処理装置であって、前記デジタル画像上で、前記眼の眼瞼の縁に実質的に沿った形状を有する曲線を、前記眼の瞳孔の中心近傍から前記眼瞼までの間で移動させつつ、前記曲線と重なった前記デジタル画像の複数のピクセルそれぞれの輝度の平均値を、前記曲線の位置ごとに順次算出する工程と、前記位置に対する前記輝度の平均値の変動の度合いに基づいて、前記デジタル画像中の前記虹彩のデジタル画像に含まれるノイズの位置を特定する工程と、を含む。
 本発明の第4の観点に係る記録媒体は、コンピュータを、眼のデジタル画像上で、前記眼の眼瞼の縁に実質的に沿った形状を有する曲線を、前記眼の瞳孔の中心近傍から前記眼瞼までの間で移動させつつ、前記曲線と重なった前記デジタル画像の複数のピクセルそれぞれの輝度の平均値を、前記曲線の位置ごとに順次算出する演算手段と、前記位置に対する前記輝度の平均値の変動の度合いに基づいて、前記デジタル画像中の前記虹彩のデジタル画像に含まれるノイズの位置を特定する特定手段と、として機能させるプログラムを記録する。
 本発明によれば、虹彩の画像と睫等に相当する部分の画像とが混在した領域を正確に特定することができるので、虹彩の画像を用いた正確な認証が可能となる。
本発明の第1の実施形態に係る生体認証装置の概略的な構成を示すブロック図である。 デジタル画像を示す図である。 デジタル画像を簡略化して示して示す画像を示す図である。 二値画像を示す図である。 サンプル画像を示す図である。 付与部の動作を説明するための図(その1)である。 付与部の動作を説明するための図(その2)である。 付与部の動作を説明するための図(その3)である。 付与部の処理により得られる画像を示す図である。 付与部の処理結果を説明するための図である。 瞳孔を構成する低輝度ピクセル群と、高輝度ピクセル群とを示す図である。 瞳孔中心位置特定部の動作を説明するための図(その1)である。 瞳孔中心位置特定部の動作を説明するための図(その2)である。 領域設定部の動作を説明するための図(その1)である。 領域設定部の動作を説明するための図(その2)である。 特性曲線を示す図である。 虹彩パターン特定部の動作を説明するための図である。 ノイズ領域特定部を構成する演算部の動作を説明するための図である。 特性曲線SL1を示す図である。 関数F(y)を示す図である。 特性曲線SL2を示す図である。 関数F(y)を示す図である。 位置特定部の動作を説明するための図である。 照合装置の動作を説明するための図(その1)である。 照合装置の動作を説明するための図(その2)である。 照合装置の動作を説明するための図(その3)である。 本発明の第2の実施形態に係る生体認証装置のブロック図である。 画像処理装置の動作を示すフローチャートである。
《第1の実施形態》
 以下、本発明の第1の実施形態について、図1~図22を参照しつつ説明する。図1は本実施形態に係る生体認証装置1の概略的な構成を示すブロック図である。生体認証装置1は、対象者の虹彩パターンを用いて認証を行う装置である。生体認証装置1は、撮像装置10、画像処理装置30、及び照合装置50を備える。
 前記撮像装置10は、例えば近赤外線を含む照明光を照射する照明装置と、赤外線以外の可視光線をカットする赤外線フィルタとを有する赤外線カメラを備えている。そして、撮像装置10は、対象者の眼を撮影することにより得られたデジタル画像を、画像処理装置30へ出力する。図2には、撮像装置10によって撮像されたデジタル画像の一例であるデジタル画像Pが示されている。図2を見るとわかるように、撮像装置10では、少なくとも、対象者の虹彩と、その周囲に存在する瞼や睫などの一部が撮像される。また、撮像装置10では、赤外光を用いた撮像が行われるため、デジタル画像Pはグレースケール画像となる。
 図3に示される画像P1は、デジタル画像Pについて、虹彩とその周辺に存在する部分の輪郭を、線のみで簡略化して示した画像である。以下では、便宜上、デジタル画像Pを用いて説明を行うものとし、必要に応じてこのデジタル画像Pに対応した画像P1を用いて説明を行うものとする。
 図1に戻り、前記画像処理装置30は、低輝度ピクセル抽出部31、付与部32、基準ピクセル設定部33、瞳孔中心位置特定部34、領域設定部35、虹彩パターン特定部36、ノイズ領域特定部37を有している。
 前記低輝度ピクセル抽出部31は、撮像装置10から出力されたデジタル画像Pを構成する複数のピクセルの中から、輝度が所定値以下の低輝度ピクセルを抽出する。低輝度ピクセルの抽出は、例えば、デジタル画像Pを二値画像に変換し、この時に現れる輝度が0となるピクセルを抽出することにより行われる。一例として、図4には、デジタル画像Pを、所定の閾値を用いて画像変換することにより得られる二値画像P2が示されている。低輝度ピクセル抽出部31は、図4に示される二値画像P2の黒色部分を構成する低輝度ピクセルを抽出し、抽出結果を含む情報を付与部32に出力する。なお、低輝度ピクセル抽出部31で用いられる閾値については、デジタル画像Pの撮像条件等によって決定することができる。そして、本実施形態では、二値画像P2において、虹彩の画像を構成するピクセルが高輝度ピクセルとして現れ、瞳孔の画像を構成するピクセルが低輝度ピクセルとして現れるように、この閾値が決定される。閾値をこのようにして決定することで、二値画像P2には、主として瞳孔と、睫などの画像を構成していたピクセルが低輝度ピクセルとして現れる。
 前記付与部32は、低輝度ピクセル抽出部31によって抽出された低輝度ピクセルを順次選択し、選択した低輝度ピクセルから所定の距離以内にある複数のピクセルそれぞれに、例えば値1を付与する。以下、付与部32の動作について、サンプル画像SAMP1を示す図5を参照しつつ説明する。
 図5に示されるように、サンプル画像SAMP1は、一例として16行20列のマトリクス状に配置されたピクセルPX(m、n)からなる画像である。ここで、mは、1から16までの行番を表す整数であり、nは、1から20までの列番を表す整数である。この画像SAMP1は、3つの低輝度ピクセルPX(5、12)、PX(8、8)、PX(9、12)と、それ以外の高輝度ピクセルPXからなる二値画像であるので、低輝度ピクセル抽出部31により、3つの低輝度ピクセルPX(5、12)、PX(8、8)、PX(9、12)が抽出される。付与部32は、まず、5行目の低輝度ピクセルPX(5、12)を選択する。そして、図6Aを参照するとわかるように、付与部32は、低輝度ピクセルPX(5、12)と、この低輝度ピクセルPX(5、12)から所定の距離以内にあるピクセルPX(m、n)それぞれに1を付与する。
 次に、付与部32は、8行目の低輝度ピクセルPX(8、8)を選択する。そして、図6Bを参照するとわかるように、付与部32は、低輝度ピクセルPX(8、8)と、この低輝度ピクセルPX(8、8)から所定の距離以内にあるピクセルPXそれぞれに1を付与する。ここで、6行目のピクセルPX(6、10)及び7行目のピクセルPX(7、10)は、低輝度ピクセルPX(5、12)及びPX(8,8)それぞれに対して所定の距離以内にある。そこで、付与部32は、これらのピクセルPX(6、10)、PX(7、10)について、これまでに付与された値を積算する。なお、当該処理が完了した時点において、ピクセルPX(6、10)、PX(7、10)では、付与された値の積算値が2となる。
 次に、付与部32は、9行目の低輝度ピクセルPX(9、12)を選択する。そして、図7を参照するとわかるように、付与部32は、低輝度ピクセルPX(9、12)と、この低輝度ピクセルPX(9、12)から所定の距離以内にあるピクセルPX(m、n)それぞれに1を付与する。ここで、7行目のピクセルPX(7、10)は、低輝度ピクセルPX(5、12)、PX(8,8)、及びPX(9、12)それぞれに対して所定の距離以内にある。そこで、付与部32は、各ピクセルPX(7、10)について、これまでに付与された値を積算する。なお、当該処理が完了した時点において、PX(7、10)では、付与された値の積算値が3となる。付与部32は、上述した処理を、画像に含まれる低輝度ピクセルすべてに対して実行する。これにより、各ピクセルPX(m、n)各々について、付与された値の積算値が算出される。
 画像処理装置30では、付与部32は、二値画像P2を構成する各低輝度ピクセルに対して、上述の処理を実行する。図8には、付与部32が、二値画像P2の黒色部分を構成する低輝度ピクセルに対して上述の処理を行った後の結果を概念的に示す画像の一例である画像P3が示されている。画像P3では、付与部32によって付与された値の積算値が大きいピクセルほど高い濃度で着色された状態で表示されている。付与部32は、上述の処理結果を基準ピクセル設定部33へ出力する。
 基準ピクセル設定部33は、付与された値の積算値が最も大きいピクセルを、基準ピクセルPXとして設定し、この基準ピクセルPXの位置情報を瞳孔中心位置特定部34に出力する。この基準ピクセルPXは、図8に示されるように、画像P3において最も高い濃度で示されたピクセルの位置と一致する。また、図9には、画像P1(図3参照)と画像P3(図8参照)とを重ねて示した画像(すなわち付与部32の処理結果を説明するための画像)が示されている。図9に示されるように、基準ピクセルPXの位置は、画像P1に示される眼の瞳孔の中心とほぼ一致する。
 ところで、通常、瞳孔を含む眼の画像を撮影すると、角膜の表面で反射した反射光の影響で、瞳孔を構成するピクセルのうちの一部のピクセルの輝度が高くなる。これにより、二値画像P2に現れる瞳孔を構成するピクセル群は、低輝度ピクセル群PG1と、高輝度ピクセル群PG2とに2分される。図10には、二値画像P2に含まれる瞳孔を構成する低輝度ピクセル群PG1及び高輝度ピクセル群PG2の一例が示されている。図10からも明らかなように、本実施形態では、瞳孔の画像を構成するピクセルの中に高輝度ピクセル群PG2が偏在しているので、高輝度ピクセル群PG2を構成するピクセルの数が増加するにつれて、基準ピクセルPXの位置が瞳孔中心から次第にずれてしまうことが考えられる。そこで、画像処理装置30は、二値画像P2における瞳孔を構成する低輝度ピクセル群PG1の分布と、基準ピクセルPXの位置情報とに基づいて、瞳孔の中心位置の検出を行う。
 図11に示されるように、瞳孔中心位置特定部34は、基準ピクセルPXを中心とする円C(1)を設定する。この円C(1)の半径r(1)は、瞳孔の半径よりも十分に小さくなるように設定される。例えば、円C(1)の半径r(1)は、低輝度ピクセル群PG1のX軸方向又はY軸方向の分布範囲などを考慮して決定されるのが望ましい。
 次に、瞳孔中心位置特定部34は、基準ピクセルPXを中心とし、円C(1)の半径r(1)よりも大きい半径を有する円C(2)を設定する。
 次に、瞳孔中心位置特定部34は、円C(1),C(2)それぞれの面積S,Sと、円C(1),C(2)それぞれの内側にある低輝度ピクセルの個数N、Nを算出する。そして、瞳孔中心位置特定部34は、円C(1)及び円C(2)の面積の差(S-S)に対する、それぞれの円内の低輝度ピクセルの個数(N-N)の比Rを算出する。すなわちR1=(N2-N1)/(S2-S1)である。
 次に、瞳孔中心位置特定部34は、算出した比Rが、所定の値以上であるか否かを判定する。そして、この判定が肯定された場合には、瞳孔中心位置特定部34は、円C(2)の半径より大きい半径を有する円C(3)を設定する。そして、瞳孔中心位置特定部34は、円C(2),C(3)それぞれの面積S,Sと、円C(2),C(3)それぞれの内側にある低輝度ピクセルの個数N、Nを算出する。そして、瞳孔中心位置特定部34は、円C(2)及び円C(3)の面積の差(S-S)に対する、それぞれの円内の低輝度ピクセルの個数(N-N)の比Rを算出する。すなわち、R2=(N3-N2)/(S3-S2)である。
 瞳孔中心位置特定部34は、算出した比Rが、所定の値以上であるか否かを判定する。以降、所定の値以下の比Rが算出されるまで、上述の処理が、繰り返し実行される。この繰り返し中、二値画像P2の瞳孔の画像上に規定される2つの円はその大きさが、徐々に拡大されていく。ここで、上記比R1、R2、…を、まとめてRN(N=1、2、…)とする。
 この繰り返し中、所定の値以下の比Rが算出された場合には、瞳孔中心位置特定部34は、この時の円C(N)を用いて、瞳孔の中心位置を特定する。ここで、円C(1)、C(2)、C(3)については、低輝度ピクセル群PG1及び高輝度ピクセル群PG2によって規定される領域内に含まれているが、円C(4)は、その領域からはみ出ている場合(図11参照)について説明する。
 円C(1)、C(2)、及びC(3)には、瞳孔を構成し、低輝度ピクセル群PG1又は高輝度ピクセル群PG2のいずれかに属するピクセルしか含まれないため、算出される比R1、R2はほぼ一定となる。これに対し、円C(4)には、瞳孔を構成する低輝度ピクセル群PG1及び高輝度ピクセル群PG2に属するピクセル以外のピクセルが含まれる。これらのピクセルは、虹彩の画像を構成する高輝度ピクセルである。このため、円C(4)の内部に含まれる低輝度ピクセルの数Nが減少し、結果的に、算出される比R(=(N-N)/(S-S))は、所定の値より小さくなる。
 次に、瞳孔中心位置特定部34は、図12を参照するとわかるように、基準ピクセルPXを基準位置として円C(4)を移動させながら、円C(4)に含まれる低輝度ピクセルの数が最大となったときの円C(4)の中心位置Pを探索する。そして、瞳孔中心位置特定部34は、探索した位置Pを瞳孔中心の位置として特定する。
 なお、円C(1)~C(N)の半径は、例えば、ピクセルの大きさを基準に例えば1ピクセルから数ピクセル分だけ異なるように設定するのが望ましい。円C(N-1)の半径と、円C(N)の半径との差が小さくなるほど、瞳孔中心の検出精度が向上する。
 前記領域設定部35は、図13に示されるように、画像P1上に位置Pが原点となるXY座標系を定義する。この座標系では、X軸が水平方向(横方向)に延びている。そして、領域設定部35は、画像P1上に位置Pを起点とし、X軸と15度の角度をなす直線L1、L2とによって規定される三角形の領域F1と領域F2とを規定する。次に、図14Aに示されるように、領域設定部35は、領域F1を、X軸と直線L1とで規定される角を中心角とする複数の円弧によって区分することで、複数の円弧状の微小領域を設定する。また、領域設定部35は、領域F2を、X軸と直線L2とで規定される角を中心角とする複数の円弧によって区分することで、複数の円弧状の微小領域を設定する。
 図14Bには、位置xと、円弧状の微小領域の輝度の平均値との関係を示す特性曲線SLが示されている。前記虹彩パターン特定部36は、領域F1又は領域F2に属する微小領域ごとに、微小領域に含まれるピクセルの輝度の平均値を算出する。そして、虹彩パターン特定部36は、微小領域のX軸上の位置と対応する輝度の平均値との関係を表す特性曲線SLを算出する。次に、虹彩パターン特定部36は、この特性曲線SLの変化度合いに基づいて、X軸と虹彩の外縁との交点のX座標A、Dを求める。
 交点のX座標A、Dは、例えば、特性曲線SLをX軸上の位置xで微分して得られた微分値と、所定の閾値とを比較することで特定することができる。図14Bの特性曲線SLを参照するとわかるように、一般に、虹彩の領域と白目の境界では輝度の平均値の変化度合に連続性が見られる。また、虹彩の領域から白目の領域に変わる領域では、輝度の平均値の変化度合いは他の部分よりも大きくなる。この性質を利用することにより、特性曲線SLの微分値を用いて、X軸と虹彩の外縁との交点のX座標A、Dをほぼ正確に求めることができる。なお、X座標B、Cは、X軸と瞳孔の外縁との交点である。
 図15に示すように、例えば中心がX軸上に位置し、円周がXY座標系における点(A、0)と、点(D、0)とを通る円Cq(0)について考える。円Cq(0)は、点((A+D)/2、0)を中心Q0とする半径(D-A)/2の円である。円Cq(0)は、虹彩の外縁にほぼ一致し、円C(4)は、瞳孔の外縁にほぼ一致する。そこで、虹彩パターン特定部36は、X座標A、Dを求めることにより、画像P1上の位置P1を中心とする円C(4)と円Cq(0)とで規定される領域を、虹彩の画像が存在する領域として特定する。そして、虹彩パターン特定部36は、特定した結果をノイズ領域特定部37へ出力する。
 前記ノイズ領域特定部37は、演算部37aと、位置特定部37bとを有している。位置特定部37bは、演算部37aの演算結果に基づいてノイズ領域の位置を特定する。
 図16に示されるように、前記演算部37aは、まず虹彩の外縁にほぼ一致する円Cq(0)の中心Qを通りY軸に平行な直線Lyと、この直線Ly上に中心を有する円の一部である円弧AR1を規定する。この円弧AR1は、例えば、虹彩の外縁にほぼ一致する円Cq(0)の半径の2.4倍から3倍の半径を有する円周の一部に相当し、点Aを通りY軸に平行な直線Lと、点Dを通りY軸に平行な直線Lとの間に存在する、上方に凸な円弧である。また、この円弧AR1の両端点それぞれは、同一のY座標を有している。本実施形態では、この端点の位置を円弧AR1の位置と定義する。以下、円弧AR1の位置を、Y軸上の座標yを用いて位置yと定義する。
 次に、演算部37aは、円弧AR1を、図16における実線で示される位置0から、+Y方向へ円Cq(0)の半径の大きさ以上の距離だけ移動させる。これにより、円弧AR1は、瞳孔の中心位置又はその近傍の位置(画像P1上に実線で示される位置)から、上側の眼瞼上の位置(一点鎖線で示される位置)まで移動する。
 この移動中、演算部37aは、円弧AR1が画像P1上を1ピクセル分だけ移動するごとに、順次円弧AR1と重なった画像P1を構成するピクセルの輝度の平均値を算出していく。これにより、一例として図17Aに示されるように、円弧AR1の位置と輝度の平均値とを示す特性曲線SL1が得られる。
 図17Aに示される特性曲線SL1を見るとわかるように、特性曲線SL1は、位置Ybにおいて輝度の平均値が急峻に低下している。これは、円弧AR1が、Y軸上の位置Ybにおいて、画像P1に低輝度ピクセルで示される睫の部分と重なったためである。したがって、特性曲線SL1を得た場合には、この特性曲線SL1が急峻に変化する位置(以下、単に変化位置という)を見つけることで、虹彩の画像に混在する睫の部分の画像の割合が多くなる領域の境界を検出することができる。
 そこで、前記位置特定部37bは、上述のようにして得た特性曲線SL1に対して、次式(1)で示されるフィルタを用いた演算を施すことにより関数F(y)を算出し、この関数F(y)に基づいて、特性曲線SL1の変化位置を検出する。なお、次式(1)から明らかなように、このフィルタでは、ある位置yにおける輝度の平均値P(y)と、この位置yから+Y方向にkピクセル隔てた位置y+kにおける輝度P(y+k)との差(P(y)-P(y+k))がk=1~nについてそれぞれ求められる。さらに、このフィルタでは、位置yにおける輝度の平均値P(y)と、この位置yから-Y方向にkピクセル隔てた位置y-kにおける輝度P(y-k)との差(P(y)-P(y-k))がk=1~nについてそれぞれ求められる。そして、このフィルタでは、求められた差(P(y)-P(y+k)、P(y)-P(y-k))を積算する。この積算値がF(y)である。このフィルタによれば、ある位置yの前後で特性曲線の傾きを比較したときに、傾きに変化が見られない場合には、位置yにおけるF(y)の値が0となる。一方、傾きの符号が変わる場合には変化度合いに基づいて位置yにおけるF(y)の絶対値が大きくなる。
Figure JPOXMLDOC01-appb-M000001
  …(1)
 例えば、nを4とする。この場合、位置特定部37bによって、ある位置yと、この位置yから前後に1ピクセルずつ隔てた8つの位置との関係が考慮されたフィルタ演算が行われ、図17(B)に示される関数F(y)(ここでは、F(y)とする)が算出される。この関数F(y)は、特性曲線SL1において、その値が急峻に低下する変化位置を検出するためのものである。このため、図17(B)では、その値が負になる部分のみが示されている。
 位置特定部37bは、関数F(y)に基づいて、特性曲線SL1の変化位置を検出する。具体的には、関数F(y)の値が最小となり、かつ、所定の閾値N以下となるy座標に対応する位置Ybを検出する。
 次に、位置特定部37bは、円弧AR1を規定したときと同様に、図16に二点鎖線で示されるように、下方に凸な円弧AR2を規定する。そして、位置特定部37bは、この円弧AR2を-Y方へ移動させるとともに、円弧AR2に重なる画像P1を構成するピクセルの輝度の平均値を順次算出し、図18Aに示される特性曲線SL2を得る。次に、位置特定部37bは、この特性曲線に上記式(1)に示されるフィルタを用いた演算を施すことで、図18Bに示される関数F(y)(ここではF(y)とする)を算出する。そして、位置特定部37bは、この関数F(y)の値が最小となり、その値が所定の閾値N以下となるy座標に対応する位置を検出する。なお、本実施形態では、例えば図16を見るとわかるように、虹彩の画像の下半分はほぼ完全に露出するとともに、睫等の部分の画像がほとんど混在していない。この場合、特性曲線SL2には変化位置が存在しないので、関数F(y)の値が最小となり、その値が所定の閾値N以下となるy座標は検出されない。
 なお、特性曲線SL1、及び特性曲線SL2の変化位置を検出するための閾値N、Nは、統計結果、撮像装置10の設置位置などを考慮して、個別にそれぞれ定めることができる。例えば、通常、虹彩の画像は、その上側では、睫などの画像成分が混在していることが多い。一方、虹彩の画像は、下側では、睫などの画像成分が混在していることはほとんどないが、涙袋(目の下のしわ)が虹彩の画像上にせり出している場合がある。このような事実を考慮して、複数枚の眼の画像から特性曲線SL1、SL2のサンプルを採取し、このサンプル結果に基づいて、それぞれ閾値N、Nを個別に決定しておくことができる。これにより、虹彩の画像全体について、ノイズ成分が混在した領域を、精度よく特定することが可能となる。
 位置特定部37bは、上述のように変化位置の座標を検出すると、この検出結果に基づいて、虹彩の画像中のノイズが混在する領域(以下、ノイズ領域という)を特定し、このノイズ領域が除外された虹彩の画像中の領域(以下、マッチング領域という)に関する情報を照合装置50へ出力する。具体的には、図19に示されるように、画像P1に含まれる、円C(4)と円Cq(0)とによって規定される領域から、特性曲線SL1の変化位置に対応する位置にある円弧AR1と円Cq(0)とで規定されるノイズ領域NAを除外する。そして、残りのマッチング領域MAに関する情報を照合装置50へ出力する。
 前記照合装置50は、まず、虹彩パターン特定部36によって特定された虹彩の画像に基づいて、比較対象となる対象者のコードを生成する。
 図15に示されるように、瞳孔の外縁にほぼ一致する円C(4)の中心P1と、虹彩の外縁にほぼ一致する円Cq(0)の中心Q0は、一般的に一致しない。これは、人の左右の眼の視線は視差により一般的には平行ではないため、対象者の正面から眼を撮影しても、撮像装置10のレンズ(不図示)の光軸と視線とが平行とはならないからである。虹彩は球面状であるため、視線に対してレンズの光軸が傾斜した撮像装置10により撮像されたデジタル画像Pでは、虹彩の中心と瞳孔の中心とがずれてしまうのである。
 照合装置50は、上述の事情を考慮して、図20に示されるように、瞳孔の外縁にほぼ一致する円C(4)と、虹彩の外縁にほぼ一致する円Cq(0)とによって規定される領域を、7つの円Cq(1)~円Cq(7)を用いて、8つの環状領域に区分する。以下、この動作について、具体的に説明する。
 まず、照合装置50は、円C(4)の中心Pと、円Cq(0)の中心Qとの距離dを計測する。そして、照合装置50は、中心QのX座標に距離dを8で除した値をそれぞれ加算していくことで、円Cq(1)~円Cq(7)の中心Q~中心Qを算出する。なお、中心Q~中心Qの座標はそれぞれ、Q((A+D)/2+d/8、0)、Q((A+D)/2+d/4、0)、Q((A+D)/2+3d/8、0)、Q((A+D)/2+d/2、0)、Q((A+D)/2+5d/8、0)、Q((A+D)/2+3d/4、0)、Q((A+D)/2+7d/8、0)と計算される。
 次に、照合装置50は、円Cq(0)の半径rから、円C(4)の半径(rとする)と円Cq(0)の半径rとの差を8で除した値をそれぞれ減算していくことで、円Cq(1)~円Cq(7)の半径r~半径rを算出する。なお、半径r~半径rは、それぞれr:(r-(r-r)/8)、r:(r-2・(r-r)/8)、r:(r-3・(r-r)/8)、r:(r-4・(r-r)/8)、r:(r-5・(r-r)/8)、r:(r-6・(r-r)/8)、r:(r-7・(r-r)/8)と計算される。
 次に、照合装置50は、上述のように算出した中心Q~中心Qと、半径r~半径rに関する算出結果に基づいて、図20に示されるように、円Cq(0)と円C(4)とで規定される領域に、7つの円Cq(1)~円Cq(7)を規定する。これにより、図21を参照するとわかるように、画像P1に含まれる虹彩の画像が7つの円Cq(1)~円Cq(7)によって、8つの環状領域A1~A8に区分される。
 次に、照合装置50は、8つの環状領域A1~A8それぞれを、例えば256の微小領域に区分する。より具体的には、円C(4)、円Cq(1)~円Cq(7)の円周が、中心角が等しい256の円弧に分割される。そして、ある円(例えば円C(4))の円弧と、その円に隣接する円(例えば円Cq(7))において前述の円弧と対応関係にある円弧とで形成される1組の円弧と、両円弧の端点を結ぶ線分を規定することにより、各微小領域が生成される。以下、図22を参照しつつ微小領域の生成方法について具体的に説明する。
 図22には、円C(4)と円Cq(7)とによって規定された環状領域A1を、256の微小領域に区分する様子が示されている。図22に示されるように、照合装置50は、円C(4)と円Cq(7)を、それぞれの円とX軸との交点を基点として、中心角がα(360/256)の円弧にそれぞれ区分するとともに、対応関係にある円弧同士の両端点を結ぶ線分を規定することで、環状領域A1を、256個の微小領域A1~A1256に区分する。同様に、照合装置50は、環状領域A2~A8それぞれを、微小領域A2~A2256、微小領域A3~A3256、微小領域A4~A4256、微小領域A5~A5256、微小領域A6~A6256、微小領域A7~A7256、微小領域A8~A8256に区分する。
 次に、照合装置50は、環状領域A1に属する微小領域A1~A1256を、ノイズ領域特定部37によって特定されたノイズ領域NAに属する微小領域と、マッチング領域MAに属する微小領域に区分する。そして、照合装置50は、ノイズ領域NAに属する微小領域それぞれには例えば0を付与し、マッチング領域MAに属する微小領域には、各微小領域に含まれるピクセルの輝度の平均値を付与する。次に、照合装置50は、微小領域に付与された値VALを、微小領域の位置に応じて配列することによりコード1[VAL1、VAL1、…、VAL1256]を生成する。
 同様に、照合装置50は、環状領域A2~A8ごとに、上述した環状領域A1に対する処理と同様の処理を実行し、コード2[VAL2、VAL2、…、VAL2256]、コード3[VAL3、VAL3、…、VAL3256]、コード4[VAL4、VAL4、…、VAL4256]、コード5[VAL5、VAL5、…、VAL5256]、コード6[VAL6、VAL6、…、VAL6256]、コード7[VAL7、VAL7、…、VAL7256]、コード8[VAL8、VAL8、…、VAL8256]を生成する。以下、照合装置50は、上述の8つのコード1~8を1つの照合対象コード群として管理する。
 照合装置50には、予め上記画像処理装置30での処理と同様の処理によって特定された虹彩の画像に基づいて生成され、かつ特定の個人情報と関連づけられた8つのコードからなる複数のコード群に関するデータが蓄積されている。照合装置50は、上述の照合対象コード群と、予め蓄積されたコード群(以下、照合コード群という)それぞれとの照合を行う。そして、照合対象コード群に対する類似度合いが所定の値以上の照合コード群が特定された場合には、照合装置50は、その結果と、照合コード群に関連づけられた個人情報を外部へ出力する。一方、対象コード群に対する類似度合いが所定の値以上の照合コード群が特定されなかった場合には、照合装置50は、その結果を外部へ出力する。
 以上説明したように、本第1の実施形態では、円弧AR1及び円弧AR2を用いて、虹彩の画像をスキャンすることにより得られた特性曲線SL1及び特性曲線SL2に基づいて、眼のデジタル画像Pに含まれる虹彩の画像中の、例えば睫や瞼等の部分が混在したノイズ領域NAが正確に特定される。そして、このノイズ領域NAが除外された虹彩の画像に基づいて生成されたデータによって認証が行われる。このため、対象者の認証を、ノイズの影響を受けることなく、正確に行うことが可能となる。
 また、本第1の実施形態では、虹彩のデジタル画像Pを、所定の円弧AR1,AR2を用いてスキャンすることにより、ノイズ領域NAが特定される。これにより、例えば、虹彩の画像から睫等に関する部分のみをそのまま抜き出す場合に比べて、迅速にノイズ領域NAを特定することが可能となる。この結果、認証精度の向上を図るとともに、処理の迅速化を図ることができる。
 例えば、上記各実施形態では、睫や上眼瞼等の部分が混在したノイズ領域が特定され、瞳や下眼瞼等の部分が混在したノイズ領域は特定されなかったが、瞳や下眼瞼等の部分が混在した部分があれば、その部分を特定できるのは勿論である。すなわち、本発明では、眼瞼とは、上眼瞼及び下眼瞼の両方を含む。ただし、上眼瞼及び下眼瞼のいずれか一方についてノイズ領域を特定し、そのノイズ領域を除外するだけでも、認証精度をより向上させることができるのは勿論である。
《第2の実施形態》
 次に、本発明の第2の実施形態について、図23及び図24を参照しつつ説明する。なお、上記第1の実施形態と同一又は同等の構成要素については、同等の符号を用いるとともに、その説明を省略又は簡略する。
 本実施形態に係る生体認証装置2は、画像処理装置30が、一般的なコンピュータ、又はワークステーションなどの装置と同様の構成によって実現されている点で、上記第1の実施形態に係る生体認証装置1と相違している。
 図23は、生体認証装置2の物理的な構成を示すブロック図である。図23に示されるように、生体認証装置2は、撮像装置10、コンピュータからなる画像処理装置30、照合装置50を備えている。
 前記画像処理装置30は、CPU(Central Processing Unit)30a、主記憶部30b、補助記憶部30c、表示部30d、入力部30e、インターフェイス部30f、及び上記各部を相互に接続するシステムバス30gを備える。
 CPU30aは、補助記憶部30cに記憶されているプログラムに従って、撮像装置10によって撮像された画像Pに対して、後述する画像処理を実行する。
 主記憶部30bは、RAM(Random Access Memory)等を有する。主記憶部30bは、CPU30aの作業領域として用いられる。
 補助記憶部30cは、ROM(Read Only Memory)、磁気ディスク、半導体メモリ等の不揮発性メモリを備える。この補助記憶部30cは、CPU30aが実行するプログラム、及び各種パラメータなどを記憶している。また、補助記憶部30cは、CPU30aによる処理結果などを含む情報を記憶する。
 表示部30dは、CRT(Cathode Ray Tube)またはLCD(Liquid Crystal Display)などを備える。表示部30dは、CPU30aの処理結果を表示する。本実施形態では、デジタル画像Pに対する処理が実行される度に、その処理結果としての二値画像P2、画像P3などが表示部30dに表示される。
 入力部30eは、キーボードやマウス等のポインティングデバイスを備える。オペレータの指示は、この入力部30eを介して入力され、システムバス30gを経由してCPU30aに通知される。
 インターフェイス部30fは、シリアルインターフェイスまたはLAN(Local Area Network)インターフェイス等を備える。撮像装置10及び照合装置50は、インターフェイス部30fを介してシステムバス30gに接続される。
 図24のフローチャートは、画像処理装置30のCPU30aによって実行されるプログラムの一連の処理アルゴリズムに対応している。以下、図24を参照しつつ、画像処理装置30における画像処理について説明する。なお、この画像処理は、CPU30aが、補助記憶部30cから読み出したプログラムに従って、主記憶部30b、補助記憶部30c、表示部30d、インターフェイス部30fを統括的に制御することにより実現される。
 まず、CPU30aは、撮像装置10によって撮像されたデジタル画像Pを構成する複数のピクセルの中から、輝度が所定値以下の低輝度ピクセルを抽出する(ステップS101)。より具体的には、CPU30aは、デジタル画像Pを所定の閾値を用いて画像変換することにより得られた二値画像P2の中から低輝度ピクセルを抽出する。
 続いて、CPU30aは、抽出された低輝度ピクセルを順次選択し、選択した低輝度ピクセルから所定の距離以内にある複数のピクセルそれぞれに、例えば値1を付与する(ステップS102)。
 続いて、CPU30aは、付与された値の積算値が最も大きいピクセルを、基準ピクセルPXとして設定する(ステップS103)。基準ピクセルPXの位置は、画像P1に示される目の瞳孔の中心とほぼ一致する(図9参照)。
 続いて、CPU30aは、基準ピクセルPXを中心とする円C(1)と、円C(1)の半径よりも大きい半径を有する円C(2)を設定する(ステップS104)。
 続いて、CPU30aは、演算処理を行う(ステップS105)。ここでは、CPU30aは、まず、円C(1),C(2)それぞれの面積S,Sと、円C(1),C(2)それぞれの内側にある低輝度ピクセルの個数N、Nを演算する。続いて、CPU30aは、円C(1)及び円C(2)の面積の差(S-S)に対する、それぞれの円内の低輝度ピクセルの個数(N-N)の比RN(ここでは、R(=(N-N)/(S-S)))を算出する。
 続いて、CPU30aは、比RNが、所定の値以上であるか否かを判定する(ステップS106)。そして、比Rが所定の値以上である場合(ステップS106;Yes)、CPU30aは、ステップS104に戻る。
 この場合、CPU30aは、新たに円C(2)の半径より大きい半径を有する円C(3)を設定する(ステップS104)。そして、CPU30aは、円C(2),C(3)それぞれの面積S,Sと、円C(2),C(3)それぞれの内側にある低輝度ピクセルの個数N、Nを演算し、円C(2)及び円C(3)の面積の差(S-S)に対する、それぞれの円内の低輝度ピクセルの個数(N-N)の比R(=(N-N)/(S-S))を算出する(ステップS105)。以降、比RNが所定の値を下回るまで(ステップS106;No)、ステップS104~ステップS106までの処理が繰り返される。
 比RNが所定の値を下回ると(ステップ106;No)、CPU30aは、ステップS107に移行する。例えば、図11に示されるように、ピクセル群PG1、PG2によって規定される領域からはみ出た状態の円C(4)が設定された場合は、ステップS106での判定が否定される。
 続いて、CPU30aは、基準ピクセルPX0を基準位置として円C(4)を移動させながら、円C(4)に含まれる低輝度ピクセルの数が最大となったときの円C(4)の中心位置P1を探索し、探索した位置P1を瞳孔中心の位置として特定する(ステップS107)。
 続いて、CPU30aは、複数の円弧状の微小領域を設定する(ステップS108)。ここでは、CPU30aは、まず、画像P1上に位置P1が原点となるXY座標系を定義し、画像P1上に位置P1を起点とし、X軸と15度の角度をなす直線L1、L2とによって規定される三角形の領域F1と領域F2とを規定する。続いて、CPU30aは、領域F1を、X軸と直線L1とで規定される角を中心角とする複数の円弧によって区分することで、複数の円弧状の微小領域を設定する(図14A参照)。さらに、CPU30aは、領域F2を、X軸と直線L2とで規定される角を中心角とする複数の円弧によって区分することで、複数の円弧状の微小領域を設定する。
 続いて、CPU30aは、領域F1又は領域F2に属する微小領域ごとに、微小領域に含まれるピクセルの輝度の平均値を算出し、微小領域のX軸上の位置と対応する輝度の平均値との関係を表す特性曲線SLを算出する(ステップS109)。
 続いて、CPU30aは、虹彩パターンを特定する(ステップS110)。より具体的には、CPU30aは、この特性曲線SLの変化度合いに基づいて、X軸と虹彩の外縁との交点のX座標A及びDを求め、画像P1上の円C(4)と、円Cq(0)とで規定される領域(図15参照)に虹彩の画像が位置していることを特定する。
 続いて、CPU30aは、円弧AR1によるスキャンを行う(ステップS111)。より具体的には、CPU30aは、まず、図16に示されるように、虹彩の外縁にほぼ一致する円Cq(0)の中心Qを通りY軸に平行な直線Lyと、この直線Ly上に中心を有する円の一部である円弧AR1を規定し、円弧AR1を、図16における実線で示される位置0から、円Cq(0)の半径の大きさ以上の距離だけ移動させる。
 これと同時に、CPU30aは、円弧AR1が画像P1上を1ピクセル分だけ移動するごとに、順次円弧AR1と重なった画像P1を構成するピクセルの輝度の平均値を算出していく。これにより、CPU30aは、一例として図17Aに示されるように、円弧AR1の位置と輝度の平均値とを示す特性曲線SL1を得る。
 同様に、CPU30aは、図16に二点鎖線で示されるように、下方に凸な円弧AR2を規定する。そして、CPU30aは、この円弧AR2を-Y方へ移動させるとともに、円弧AR2に重なる画像P1を構成するピクセルの輝度の平均値を順次算出し、図18Aに示される特性曲線SL2を得る。
 続いて、CPU30aは、特性曲線SL1及び特性曲線SL2に対して、上記式(1)で示されるフィルタを用いた演算を施すことにより関数F(y)及び関数F(y)を算出し、関数F(y)及び関数F(y)に基づいて、特性曲線SL1及び特性曲線SL2の変化位置を検出する(ステップS112)。より具体的には、CPU30aは、関数F(y)及び関数F(y)の値が最小となり、その値が所定の閾値N或いはN以下となる変化位置を検出する。
 続いて、CPU30aは、上述のように変化位置の座標を検出すると、この検出結果に基づいて、虹彩の画像中のノイズが混在するノイズ領域NAを特定する(ステップS113)。より具体的には、CPU30aは、図19に示されるように、画像P1に含まれる、円C(4)と円Cq(0)とによって規定される領域から、ノイズ領域NAを除外したマッチング領域MAを特定する。
 続いて、CPU30aは、ステップS113における処理結果を含む情報を照合装置50へ出力し(ステップS114)、一連の処理を終了する。
 一方、前記照合装置50は、画像処理装置30によって特定された虹彩の画像を8つの環状領域A1~A8に区分する。そして、さらに環状領域A1~A8それぞれを256の微小領域に区分する。
 次に、照合装置50は、環状領域A1~A8(すなわちAn(n=1~8))に属する微小領域An~An256を、ノイズ領域NAに属する微小領域と、マッチング領域MAに属する微小領域に区分する。そして、照合装置50は、ノイズ領域NAに属する微小領域それぞれには例えば0を付与し、マッチング領域MAに属する微小領域には、各微小領域に含まれるピクセルの輝度の平均値を付与する。次に、照合装置50は、微小領域に付与された値を、微小領域の位置に応じて配列することによりコード1~8を生成する。
 次に、照合装置50は、予め取得していた特定の個人情報と関連づけられた8つのコードからなる複数のコード群それぞれと、照合対象コード群との照合を行う。そして、照合対象コード群に対する類似度合いが所定の値以上の照合コード群が特定された場合には、照合装置50は、その結果と、照合コード群に関連づけられた個人情報を外部へ出力する。一方、対象コード群に対する類似度合いが所定の値以上の照合コード群が特定されなかった場合には、照合装置50は、その結果を外部へ出力する。
 以上説明したように、本第2の実施形態では、円弧AR1及び円弧AR2を用いて、虹彩の画像をスキャンすることにより得られた特性曲線SL1及び特性曲線SL2に基づいて、眼のデジタル画像Pに含まれる虹彩の画像中の、例えば睫や瞼等の部分が混在したノイズ領域NAが正確に特定される。そして、このノイズ領域が除外された虹彩の画像に基づいて生成されたデータによって認証が行われる。このため、対象者の認証を、ノイズの影響を受けることなく、正確に行うことが可能となる。
 また、本第2の実施形態では、虹彩のデジタル画像Pを、所定の円弧AR1,AR2を用いてスキャンすることにより、ノイズ領域NAを特定する。これにより、例えば、虹彩の画像から睫等に関する部分のみをそのまま抜き出す場合に比べて、迅速にノイズ領域NAを特定することが可能となる。この結果、認証精度の向上を図るとともに、処理の迅速化を図ることができる。
 以上、本発明の実施形態について説明したが、本発明は上記各実施形態によって限定されるものではない。
 例えば、上記各実施形態では、特性曲線の得るために円弧AR1及び円弧AR2を用いたが、円弧AR1又は円弧AR2に代えて、上眼瞼の外縁に近似する曲線、或いは下眼瞼の外縁に近似する曲線を用いてもよい。
 また、上記各実施形態では、虹彩の中心とほぼ一致する円Cq(0)の中心Qを通る直線Ly上に中心を有する円の円弧AR1及び円弧AR2を用いたが、これに限らず、例えば、基準ピクセルPXを通るY軸に平行な直線上、或いは円C(4)を用いて探索した位置Pを通るY軸に平行な直線上に中心を有する円の円弧を用いてもよい。
 また、上記各実施形態では、円弧AR1及び円弧AR2を用いてノイズ領域NAの特定を行ったが、これに限らず、複数人の眼瞼の外縁に関するデータをサンプリングし、これらのデータから最適な眼瞼に沿った曲線を決定し、この曲線を用いて虹彩画像をスキャンすることにより、ノイズ領域NAの特定を行ってもよい。
 また、この他にも、例えば円弧AR1、AR2に代えて、楕円や多角形の一部、直線と円弧の組み合わせからなる線などを用いてもよい。
 また、上記各実施形態では、円弧AR1及び円弧AR2を瞳孔の中心又はその近傍から上眼瞼の上方までそれぞれ移動させたが、これに限らず、円弧AR1及び円弧AR2を瞳孔の中心に向かって移動させることにより、虹彩の画像をスキャンしてもよい。
 また、上記各実施形態では、算出した特性曲線SL1及び特性曲線SL2に対して、上述したフィルタを用いた演算を施すことにより得た関数F(y)及び関数F(y)に基づいて、特性曲線SL1及び特性曲線SL2の変化位置の検出を行った。本発明はこれに限定されるものではなく、例えば、特性曲線SL1及び特性曲線SL2を微分することにより得られるF’(y)及び関数F’(y)などを用いて、特性曲線SL1及び特性曲線SL2の変化位置を検出してもよい。
 また、上記各実施形態では、フィルタを示す関数F(y)のnの値を4としたが、nの値は4に限らない。例えばnの値は、撮像装置10の解像度、被写体(対象者)との距離などを考慮して、適切な値とすればよい。
 また、上記各実施形態では、環状領域A1~A8を区分することにより256の微小領域を設定したが、これに限らず、隣接する円同士の対応関係にある1組の円弧の端点を結んで形成される四角形の領域を、それぞれの環状領域A1~A8に沿って設定してもよい。
 また、上記各実施形態では、画像処理装置30は、デジタル画像Pを二値画像P2に変換することにより、低輝度ピクセルを抽出したがこれに限らず、デジタル画像Pを構成するピクセルの輝度値から低輝度ピクセルを直接抽出してもよい。
 なお、上記実施形態に係る画像処理装置30の機能は、専用のハードウェアによっても、また、通常のコンピュータシステムによっても実現することができる。
 また、上記第2の実施形態において画像処理装置30の補助記憶部30cに記憶されているプログラムは、フレキシブルディスク、CD-ROM(Compact Disk Read-Only Memory)、DVD(Digital Versatile Disk)、MO(Magneto-Optical disk)等のコンピュータ読み取り可能な記録媒体に格納して配布し、そのプログラムをコンピュータにインストールすることにより、上述の処理を実行する装置を構成することとしてもよい。
 また、上記プログラムをインターネット等の通信ネットワーク上の所定のサーバ装置が有するディスク装置等に格納しておき、例えば、搬送波に重畳させて、コンピュータにダウンロード等されるようにしてもよい。
 また、上記プログラムが、通信ネットワークを介して転送しながら起動実行されることとしてもよい。
 また、上記プログラムを、全部又は一部をサーバ装置上で実行させ、その処理に関する情報を、通信ネットワークを介して送受信しながら、上述の画像処理が実行されることとしてもよい。
 なお、上述の機能を、OS(Operating System)が分担して実現する場合又はOSとアプリケーションとの協働により実現する場合等には、OS以外の部分のみを媒体に格納して配布してもよく、また、コンピュータにダウンロード等してもよい。
 なお、本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施形態及び変形が可能とされるものである。また、上述した実施形態は、本発明を説明するためのものであり、本発明の範囲を限定するものではない。つまり、本発明の範囲は、実施形態ではなく、特許請求の範囲によって示される。そして、特許請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、本発明の範囲内とみなされる。
 本出願は、2009年1月22日に出願された、日本国特許出願2009-012422号に基づく。本明細書中に日本国特許出願2009-012422号の明細書、特許請求の範囲、図面全体を参照として取り込むものとする。
 本発明の画像処理装置、画像処理方法、及び記録媒体は、虹彩の画像に含まれるノイズ領域を特定するのに適している。また、本発明の生体認証装置は、虹彩のパターンを用いて認証を行うのに適している。
 1、2 生体認証装置
 10 撮像装置
 30 画像処理装置
 30a CPU
 30b 主記憶部
 30c 補助記憶部
 30d 表示部
 30e 入力部
 30f インターフェイス部
 30g システムバス
 31 低輝度ピクセル抽出部
 32 付与部
 33 基準ピクセル設定部
 34 瞳孔中心位置特定部
 35 領域設定部
 36 虹彩パターン特定部
 37 ノイズ領域特定部
 37a 演算部
 37b 位置特定部
 50 照合装置
 P デジタル画像
 P1 画像
 P2 二値画像
 P3 画像
 PX ピクセル
 PX 基準ピクセル
 PG1 低輝度ピクセル群
 PG2 高輝度ピクセル群
 F1、F2 領域
 A1~A8 環状領域
 AR1、AR2 円弧
 C、Cq 円
 NA ノイズ領域
 MA マッチング領域
 SL1、SL2 特性曲線

Claims (11)

  1.  眼のデジタル画像からノイズを検出する画像処理装置であって、
     前記デジタル画像上で、前記眼の眼瞼の縁に実質的に沿った形状を有する曲線を、前記眼の瞳孔の中心近傍から前記眼瞼まで移動させつつ、前記曲線と重なった前記デジタル画像の複数のピクセルそれぞれの輝度の平均値を、前記曲線の位置ごとに順次算出する演算部と、
     前記位置に対する前記輝度の平均値の変動の度合いに基づいて、前記デジタル画像中の前記虹彩の画像に含まれるノイズの位置を特定する特定部と、
     を備える画像処理装置。
  2.  前記演算部は、前記曲線を前記瞳孔の中心又はその近傍から前記眼瞼に向かって移動させる、
     ことを特徴とする請求項1に記載の画像処理装置。
  3.  前記特定部は、前記曲線の位置と前記輝度の平均値との関係を示す特性曲線を算出し、この特性曲線の傾きの変化の度合いに基づいて、前記ノイズの位置を特定する、
     ことを特徴とする請求項1に記載の画像処理装置。
  4.  前記傾きの変化の度合いは、前記特性曲線を前記位置で微分して得られる微分値である、
     ことを特徴とする請求項1に記載の画像処理装置。
  5.  前記曲線は、前記眼瞼の縁に相似する曲線である、
     ことを特徴とする請求項1に記載の画像処理装置。
  6.  前記曲線は、前記デジタル画像上の瞳孔に対応するピクセルに重なり、前記曲線の移動方向に平行な直線上に中心を有する円の一部である、
     ことを特徴とする請求項1に記載の画像処理装置。
  7.  前記曲線の曲率は、予め計測された複数人の眼瞼の曲率から決定される、
     ことを特徴とする請求項1に記載の画像処理装置。
  8.  前記眼瞼は、上眼瞼及び下眼瞼の少なくとも一方を含む、
     ことを特徴とする請求項1に記載の画像処理装置。
  9.  虹彩のパターンを用いて認証を行う生体認証装置であって、
     眼のデジタル画像を撮像する撮像装置と、
     前記眼のデジタル画像中の前記虹彩の画像に含まれるノイズの位置を特定する請求項1に記載の画像処理装置と、
     を備える生体認証装置。
  10.  眼のデジタル画像からノイズを検出する画像処理装置であって、
     前記デジタル画像上で、前記眼の眼瞼の縁に実質的に沿った形状を有する曲線を、前記眼の瞳孔の中心近傍から前記眼瞼までの間で移動させつつ、前記曲線と重なった前記デジタル画像の複数のピクセルそれぞれの輝度の平均値を、前記曲線の位置ごとに順次算出する工程と、
     前記位置に対する前記輝度の平均値の変動の度合いに基づいて、前記デジタル画像中の前記虹彩のデジタル画像に含まれるノイズの位置を特定する工程と、
     を含む画像処理方法。
  11.  コンピュータを、
     眼のデジタル画像上で、前記眼の眼瞼の縁に実質的に沿った形状を有する曲線を、前記眼の瞳孔の中心近傍から前記眼瞼までの間で移動させつつ、前記曲線と重なった前記デジタル画像の複数のピクセルそれぞれの輝度の平均値を、前記曲線の位置ごとに順次算出する演算手段と、
     前記位置に対する前記輝度の平均値の変動の度合いに基づいて、前記デジタル画像中の前記虹彩のデジタル画像に含まれるノイズの位置を特定する特定手段と、
     として機能させるプログラムを記録した、コンピュータが読み取り可能な記録媒体。
PCT/JP2010/050834 2009-01-22 2010-01-22 画像処理装置、生体認証装置、画像処理方法及び記録媒体 WO2010084967A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/143,445 US8401247B2 (en) 2009-01-22 2010-01-22 Image processing apparatus, biometric authentication apparatus, image processing method and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009012422A JP5387007B2 (ja) 2009-01-22 2009-01-22 画像処理装置、生体認証装置、画像処理方法及びプログラム
JP2009-012422 2009-01-22

Publications (1)

Publication Number Publication Date
WO2010084967A1 true WO2010084967A1 (ja) 2010-07-29

Family

ID=42356017

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/050834 WO2010084967A1 (ja) 2009-01-22 2010-01-22 画像処理装置、生体認証装置、画像処理方法及び記録媒体

Country Status (3)

Country Link
US (1) US8401247B2 (ja)
JP (1) JP5387007B2 (ja)
WO (1) WO2010084967A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8737685B2 (en) * 2011-04-25 2014-05-27 Honeywell International Inc. Systems and methods for detecting the movement of an object
KR101164769B1 (ko) 2011-12-13 2012-07-12 한국 한의학 연구원 눈 특징점 검출장치 및 방법
EP2690581A1 (en) 2012-07-27 2014-01-29 Canon Kabushiki Kaisha Method and apparatus for detecting a pupil
US10019563B2 (en) * 2014-12-05 2018-07-10 Sony Corporation Information processing apparatus and information processing method
KR102591552B1 (ko) * 2015-08-21 2023-10-18 매직 립, 인코포레이티드 눈 포즈 측정을 사용한 눈꺼풀 형상 추정
EP3337383A4 (en) 2015-08-21 2019-04-03 Magic Leap, Inc. EYE SHAPE ESTIMATION
EP3138721B1 (en) * 2015-09-03 2018-11-14 Continental Automotive GmbH A method and apparatus for glare detection
US9830708B1 (en) * 2015-10-15 2017-11-28 Snap Inc. Image segmentation of a video stream
CA3001682C (en) 2015-10-16 2022-10-11 Magic Leap, Inc. Eye pose identification using eye features
ES2610196A1 (es) * 2016-12-20 2017-04-26 Universitat D'alacant / Universidad De Alicante Método y dispositivo de autenticación biométrica mediante el reconocimiento del parpadeo
KR102369412B1 (ko) 2017-02-02 2022-03-03 삼성전자주식회사 홍채 인식 장치 및 방법
JP6930223B2 (ja) * 2017-05-31 2021-09-01 富士通株式会社 瞳孔検出用コンピュータプログラム、瞳孔検出装置及び瞳孔検出方法
US10521661B2 (en) 2017-09-01 2019-12-31 Magic Leap, Inc. Detailed eye shape model for robust biometric applications
KR102037779B1 (ko) * 2018-01-23 2019-10-29 (주)파트론 동공 인식 장치
CN108550348B (zh) * 2018-04-02 2020-04-03 深圳市华星光电技术有限公司 显示装置的图像处理方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10275234A (ja) * 1997-03-28 1998-10-13 Oki Electric Ind Co Ltd 画像認識方法
JP2003317102A (ja) * 2002-04-24 2003-11-07 Oki Electric Ind Co Ltd 瞳孔・虹彩円検出装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5291560A (en) 1991-07-15 1994-03-01 Iri Scan Incorporated Biometric personal identification system based on iris analysis

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10275234A (ja) * 1997-03-28 1998-10-13 Oki Electric Ind Co Ltd 画像認識方法
JP2003317102A (ja) * 2002-04-24 2003-11-07 Oki Electric Ind Co Ltd 瞳孔・虹彩円検出装置

Also Published As

Publication number Publication date
JP2010170347A (ja) 2010-08-05
US20110280454A1 (en) 2011-11-17
US8401247B2 (en) 2013-03-19
JP5387007B2 (ja) 2014-01-15

Similar Documents

Publication Publication Date Title
WO2010084967A1 (ja) 画像処理装置、生体認証装置、画像処理方法及び記録媒体
JP6930223B2 (ja) 瞳孔検出用コンピュータプログラム、瞳孔検出装置及び瞳孔検出方法
CN109857254B (zh) 瞳孔定位方法和装置、vr/ar设备以及计算机可读介质
JP5365214B2 (ja) 画像処理装置、生体認証装置、画像処理方法及びプログラム
JP5126084B2 (ja) 生体認証装置、生体認証方法及びプログラム
JP2017182739A (ja) 視線検出装置、視線検出方法及び視線検出用コンピュータプログラム
JP6322986B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2020501264A (ja) モバイルデバイスを用いてキャプチャした画像を使用する、指紋によるユーザ認証を実施するためのシステムおよび方法
JP5316017B2 (ja) 画像処理装置、生体認証装置、画像処理方法及びプログラム
EP2639743A2 (en) Image processing device, image processing program, and image processing method
JP2018205819A (ja) 注視位置検出用コンピュータプログラム、注視位置検出装置及び注視位置検出方法
KR101582467B1 (ko) 인접 합산 이진화를 이용한 동공 추출 방법 및 이를 이용한 동공 추출 제어장치
JP5269637B2 (ja) 画像処理装置および画像処理プログラム
JP2009020698A (ja) 登録装置、照合装置、データ構造及び記憶媒体
JP5594345B2 (ja) 生体認証装置、生体認証方法及びプログラム
JP2010185858A (ja) 画像処理装置および画像処理プログラム
KR102223269B1 (ko) 스캔 영역 재탐지를 위한 영상 검색 및 매칭 방법과 이를 수행하는 영상 처리장치
KR101548625B1 (ko) 글린트 제거방법과 이를 이용한 홍채 인식 제어장치
JP5397103B2 (ja) 顔位置検出装置、顔位置検出方法及びプログラム
JP4376685B2 (ja) 視線検出装置
US20230147924A1 (en) Image processing system, imaging system, image processing method, and non-transitory computer-readable medium
WO2021095278A1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
JP2008052509A (ja) 鼻孔検出装置及びプログラム
JP4848302B2 (ja) 目検出装置、目検出方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10733574

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13143445

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10733574

Country of ref document: EP

Kind code of ref document: A1