WO2019146907A1 - 홍채 인식 장치 - Google Patents

홍채 인식 장치 Download PDF

Info

Publication number
WO2019146907A1
WO2019146907A1 PCT/KR2018/015823 KR2018015823W WO2019146907A1 WO 2019146907 A1 WO2019146907 A1 WO 2019146907A1 KR 2018015823 W KR2018015823 W KR 2018015823W WO 2019146907 A1 WO2019146907 A1 WO 2019146907A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
iris
pupil
row
region
Prior art date
Application number
PCT/KR2018/015823
Other languages
English (en)
French (fr)
Inventor
이호영
임장열
Original Assignee
주식회사 파트론
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 파트론 filed Critical 주식회사 파트론
Publication of WO2019146907A1 publication Critical patent/WO2019146907A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Definitions

  • the present invention relates to an iris recognition apparatus.
  • a password authentication method and an identification number authentication method are known, but these methods are likely to be exposed to theft and the risk of loss.
  • Biometric information used for this biometric method is fingerprint, face, and iris in general.
  • the iris authentication method using the double iris is known to be the best in terms of uniqueness, invariance, and stability among individual identification methods, and is being applied to fields requiring high security.
  • the iris authentication is performed through a process of extracting the iris image of the subject and comparing the iris image already registered with the extracted iris image.
  • a problem to be solved by the present invention is to accurately extract an iris region from an eye image of a photographee.
  • an iris recognition apparatus including a storage unit storing final eye image data, position information of a final pupil pixel included in a final pupil region and pixel values, A plurality of iris estimation regions are generated by dividing the final eye image data by a unit region for iris estimation along a predetermined row direction with reference to one row of the outermost pixel columns, and an average pixel value of the final eye image data corresponding to each iris estimation region And an iris extracting unit for estimating an iris region using difference values of average pixel values of the subsequent iris estimation regions spaced apart from the respective iris estimation regions by a predetermined sequence number among the plurality of iris estimation regions, .
  • the width of the iris estimation unit area and the size of the longitudinal side may be determined according to the radius of the final pupil area.
  • the iris extracting unit determines a difference value having the greatest absolute value among the calculated difference values, and determines the order of the corresponding iris estimation region indicating the determined difference value, and determines the row of the outermost pixel column of the iris estimation region And determine a circular area having a radius from the row position of the center pixel of the final pupil area to the row position of the row of the outermost pixel column as the iris area.
  • the iris extracting section determines a pixel column dividing reference pixel column spaced by a predetermined distance from a first outermost pixel column of the final pupil region by a predetermined distance in a predetermined row direction, It is possible to generate a plurality of iris estimation regions by dividing the eye image data.
  • the iris extracting unit extracts a pixel having a pixel value equal to or greater than a first set value and a pixel having a pixel value equal to or less than a second set value greater than the first set value in the final eye image data stored in the storage unit,
  • a first preliminary pupil pixel is selected using a pixel having the same pixel value as the set value to determine a primary preliminary pupil region including the primary preliminary pupil pixel,
  • the first preliminary pupil region is extended in the first and second column directions and in the first and second row directions by using the first to fourth reference pixels respectively located in the side pixel rows, the leftmost pixel column and the rightmost pixel column,
  • a second preliminary pupil region determined by the first and second rows and the first and second rows to determine a center pixel positioned at the center of the secondary preliminary pupil region remind Determining a second preliminary pupil region included in the original region by determining a circular region having a distance to one of the first row, the second row, the first row and the second row as a radius, The region included
  • the iris extracting unit comprises: a first preliminary pupil pixel located in the middle of the uppermost pixel row in the primary preliminary pupil region; a primary preliminary pupil pixel located in the middle of the lowest pixel row; And the primary preliminary pupil pixel located at the center of the next preliminary pupil pixel and the rightmost pixel column may be defined as the first to fourth reference pixels, respectively.
  • the iris extracting unit sequentially shifts the position of the first comparison pixel in the column direction along the first column direction from the first reference pixel while the difference between the pixel value of the first reference pixel and the pixel value of the first comparison pixel is Determining a first comparison pixel that exceeds a set value and determining a column position of a first comparison pixel immediately before the determined first comparison pixel as a position of the first column, In which the difference between the pixel value of the second reference pixel and the pixel value of the second comparison pixel exceeds a set value while sequentially moving the position of the second comparison pixel in a column unit along the second column direction, The second comparison pixel is determined to be a second column, and the third reference pixel is determined to be the second comparison pixel in the row direction along the first row direction, 3 rain A third comparison pixel in which the difference between the pixel value of the third reference pixel and the pixel value of the third comparison pixel exceeds a set value while sequentially moving the position of the pixel, The position of
  • the iris extracting unit extracts a pixel having a pixel value equal to or greater than the first set value and a pixel having a pixel value equal to or less than a second set value greater than the first set value in the final eye image data as an estimated pupil pixel, It is possible to extract the first-order preliminary pupil pixels by removing the estimated pupil pixels that are not consecutively positioned by a predetermined number in any one of the row direction and the column direction and neighboring other estimated pupil pixels in the pixel.
  • the neighboring different estimated pupil pixels may be located consecutively with the estimated pupil pixels different in the row direction and the column direction.
  • the iris extracting unit may set the distance to the farthest of the first column, the second column, the first row, and the second row of the center pixel and the secondary preliminary pupil region as the radius of the circular region have.
  • the iris extracting unit may set the distance to the shortest one of the first column, the second column, the first row and the second row of the center pixel and the secondary preliminary pupil region as the radius of the circular region have.
  • the boundary portion of the accurate iris region is determined.
  • the iris estimation region is divided from the region spaced by a predetermined distance from the edge portion of the final pupil region, and iris estimation for the final eye image data for the region located adjacent to the edge portion of the final pupil region, The dividing operation into the area and the operation of calculating the difference value of the average pixel value are omitted. As a result, the processing operation for determining the iris region is greatly shortened.
  • the iris estimation region is divided according to a predetermined row space, instead of using the upper region or the lower region of the eye covered with the eyelid and the estimation operation of the iris region is not performed, The iris region is extracted using the final eye image data corresponding to the region, so that an accurate iris extraction operation is performed.
  • the primary preliminary pupil pixels for determining the final pupil region are extracted by the comparison operation between the pixel value and the set value in the final eye image data, Is greatly reduced.
  • the data processing time is shortened and the extraction time of the final pupil area is reduced.
  • the secondary preliminary pupil region is extracted through the pixel value comparison operation between the predetermined reference pixel and each of the comparison pixels positioned adjacent to the reference pixel. do.
  • the accuracy of the determination operation of the secondary preliminary pupil region for determining the final pupil region is improved, thereby increasing the accuracy of the final pupil region.
  • FIG. 1 is a block diagram of an iris recognition apparatus according to an embodiment of the present invention.
  • FIGS. 2A to 2D are operation flowcharts of an iris extracting unit for extracting a final pupil region in the iris recognition apparatus according to an embodiment of the present invention.
  • FIGS. 3A and 3B are diagrams for explaining a process of determining an estimated pupil region and a primary preliminary pupil region using final eye image data according to an operation of a pupil extracting unit of an iris recognition apparatus according to an embodiment of the present invention
  • FIG. 3A is a diagram for explaining a process of determining an estimated pupil region
  • FIG. 3B is a diagram for explaining a process of determining a primary estimated preliminary pupil region.
  • FIGS. 4 (a) and 4 (b) are views showing images of the primary preliminary pupil region determined by the pupil extracting unit of the iris recognition apparatus according to the embodiment of the present invention, wherein (a) (B) is a view showing an image obtained by extracting a primary preliminary pupil region from an eye image of (a) to an information output unit.
  • FIG. 5 is a diagram showing first to fourth reference pixels in a primary preliminary pupil region according to an operation of a pupil extracting unit of an iris recognition apparatus according to an embodiment of the present invention.
  • FIG. 6 is a diagram for explaining a process of determining a secondary preliminary pupil region in a secondary preliminary pupil region according to an operation of a pupil extracting unit of an iris recognition apparatus according to an embodiment of the present invention.
  • FIG. 7 is a diagram showing an image of a secondary preliminary pupil region determined using the eye image shown in FIG. 4 (b).
  • FIG. 7 is a diagram showing an image of a secondary preliminary pupil region determined using the eye image shown in FIG. 4 (b).
  • FIGS. 8A and 8B are operation flowcharts of the iris extracting unit of the iris extracting unit in the iris recognition apparatus according to an embodiment of the present invention.
  • FIG. 9 is a diagram for explaining a process for extracting an iris region in the iris recognition apparatus according to an embodiment of the present invention.
  • the iris recognition apparatus of the present embodiment includes an image acquisition unit 100, an iris extraction unit 200 connected to the image acquisition unit 100, a storage unit 200 connected to the pupil extraction unit 200, 300, and an information output unit 400 connected to the pupil extracting unit 200.
  • the image capturing unit 100 captures an image of a person to be photographed.
  • the image capturing unit 100 of the present example captures an area including eyes from the face of the person to be imaged for iris recognition, (Hereinafter, this image data is referred to as 'original image data').
  • the image data of this example including the original image data has positional information and pixel values for a plurality of pixels arranged in a matrix structure, and the value of the image data for each pixel is a pixel value. Therefore, the image data is a set of pixels made up of a plurality of pixels having the corresponding pixel values.
  • the image capturing unit 100 may include an infrared camera for generating image data by infrared ray photographing in order to prevent red eye phenomenon of the subject during the photographing operation and accurately photograph the eye.
  • the iris extracting unit 200 receives the original image data from the image capturing unit 100 and extracts the iris region.
  • the iris extracting unit 200 includes an eye image data extracting unit 210, a preprocessing unit 210 connected to the eye image data extracting unit 210, A pupil extraction unit 230 connected to the preprocessing unit 220, and an iris extraction unit 240 connected to the pupil extraction unit 230.
  • the eye image data extraction unit 210 extracts image data of the eye and eye region (hereinafter, this region is referred to as the eye region) from the eye part image data applied from the image pickup section 100 Image data ").
  • the eye-image-data extracting unit 210 extracts eye-image data from original image data through an algorithm such as OpenCV which is already disclosed.
  • the preprocessing unit 220 generates a final eye image data by performing a conversion operation of the eye image data before extracting the pupil region.
  • the preprocessing unit 220 performs various processes such as grayscale conversion processing, pixel number conversion processing, smoothing processing, and binarization processing At least one of the preprocessing operations for the plurality of image data is performed to convert the amount of the eye image data, the size of the pixel value, and the like so that the processing time for extracting the iris region can be shortened.
  • the preprocessing operation for the eye image data also uses a known processing operation, so a detailed description thereof will be omitted.
  • the preprocessing operation of the present example for the original image data may be omitted, and in this case, the preprocessing unit 220 of this example is also omitted.
  • the pupil extracting unit 230 extracts image data for a pupil from the final eye image data applied from the preprocessing unit 220 to determine a pupil area.
  • the pupil extracting unit 230 firstly determines the primary preliminary pupil region using the pixel values of the final eye image data, and determines the pupil region of the first pupil region based on the uppermost pixel row, the lowest pixel row, And the first to fourth reference pixels located in the rightmost pixel column are used to sequentially change the positions of the first to fourth comparison pixels in which the pixel values are compared with the first to fourth reference pixels, The secondary pupil region in which the pupil region is extended in the first and second row directions and in the first and second row directions is determined.
  • the pupil extracting unit 230 extracts the pupil extracting unit 230 from the center pixel located at the center of the secondary preliminary pupil region, the first column which is the column position of the uppermost pixel row of the secondary preliminary pupil region, A circular area having a radius up to one of the first row and the second row which is the row position of the first row and the leftmost row of pixels in the leftmost pixel column is determined and the secondary spare pupil area included in the original area is defined as The final pupil pixel is determined and the final pupil region is determined.
  • the iris extracting unit 240 extracts the iris region from the final eye image data of the eye region on the basis of the extracted pupil region.
  • the iris extracting unit 240 of this embodiment divides the final eye image data corresponding to the eye region at a position outside the final pupil region into iris estimation unit regions to generate a predetermined number of iris estimation regions, And the average pixel value difference between the iris estimation region and the adjacent iris estimation region adjacent to the iris estimation region at a predetermined interval to extract image data corresponding to the iris region from the final eye image data.
  • the storage unit 300 connected to the iris extracting unit 200 is a storage medium for storing data or information necessary for the operation of the iris recognition apparatus and image data generated during operation, and may be a memory or the like.
  • the storage unit 300 may include at least one of a temporary storage device such as a buffer and a permanent storage device such as a hard disk.
  • the information output unit 400 outputs the corresponding image by the operation of the iris extracting unit 200 so that the user can visually confirm the iris extraction process.
  • the information output unit 400 may be a liquid crystal display (LCD), an organic light emitting display (OLED), or the like.
  • LCD liquid crystal display
  • OLED organic light emitting display
  • an operation of the image acquisition unit 100 performs an imaging operation on a face portion including an eye to acquire original image data.
  • the image capturing unit 110 performs a photographing operation on a corresponding area (e.g., a face area) in conjunction with the operation of a driving switch (not shown) by a user or a person is detected in a designated area, A person's face can be photographed.
  • a corresponding area e.g., a face area
  • a driving switch not shown
  • the eye image data extracting unit 210 of the iris extracting unit 200 extracts, Extracts image data for the eye region from the image data, stores the extracted image data in the storage unit 300 as eye image data, and outputs the extracted eye image data to the preprocessing unit 220.
  • the preprocessing unit 220 performs at least one preprocessing operation such as gray-scale conversion processing, pixel number conversion processing, or smoothing processing on input eye image data, stores it in the storage unit 300, and preprocesses the eye image (Hereinafter referred to as "final eye image data") to the pupil extraction unit 230 (S13).
  • the preprocessing unit 220 when the preprocessing unit 220 is not provided, the eye image data extracted by the eye image data extraction unit 210 becomes final eye image data.
  • the pupil extracting unit 230 determines the pupil area using the transmitted final eye image data.
  • the pupil extracting unit 230 removes a pixel having a pixel value less than a first set value (lower limit value) and a pixel having a pixel value exceeding a second set value (upper limit value) in the final eye image data , Only pixels having a pixel value in a setting range that is equal to or greater than the first pixel value and equal to or less than the second pixel value in the final eye image data are extracted (S14).
  • the first set value is larger than the second set value, and the first set value is determined using the pixel value of the pixel belonging to the pupil region or the average pixel value, and the second set value is set based on the first set value .
  • the image data for an area (for example, the eye area) not primarily included in the iris area is removed.
  • the pupil extracting unit 230 extracts only the pixels having the first set value which is the lower limit value of the set range among the extracted pixels (hereinafter, the extracted pixels are referred to as 'estimated pupil pixels') And stores the position information and the pixel value in the storage unit 300 (S15).
  • the estimated pupil pixel which is the pixel having the first set value among the pixels belonging to the set range, And is included in the estimated pupil area AR11, which is an area that can be estimated as a region.
  • the pupil extracting unit 230 includes an estimated pupil pixel PX11 existing in the uppermost row (e.g., a best-located pupil pixel) PX11, an estimated pupil pixel located in the lowermost column (For example, the lowest estimated pupil pixel) (PX12, PX13), the estimated pupil pixel (for example, the leftmost estimated pupil pixel) PX14 existing in the leftmost row and the estimated pupil pixel located at the rightmost row estimating the right-most pixel pupil) (PX15) a row and four-position information by the column position information (X n -9, X n, Y p, Y p + 10) to [(X n -9, Y p ) ( E.g., a best-located pupil pixel) PX11, an estimated pupil pixel located in the lowermost column (For example, the lowest estimated pupil pixel) (PX12, PX13), the estimated pupil pixel (for example, the leftmost estimated pupil pixel) PX14 existing in the leftmost
  • first to fourth edge pixels [PX (X n , Y p +10 )] each having the pixel values (X n -9 , Y p +10 ), (X n , Y p ) (X n -9, Y p) , PX (X n -9, Y p +10), PX (X n, Y p) and PX (X n, Y p +10 )] for a rectangular area as the vertices As the estimated pupil area AR11 (S16).
  • the pupil extracting unit 230 extracts the estimated pupil pixels that are not positioned consecutively in a predetermined number of directions in either one of the row direction and the column direction with other immediately adjacent estimated pupil pixels by using the position information of the estimated pupil pixel To extract the first-order preliminary pore pixels (S17).
  • neighboring other estimated pupil pixels are also located consecutively with other estimated pupil pixels immediately adjacent in the row and column directions.
  • the estimated pupil pixels belonging to the estimated pupil area AR11 are extracted as shown in FIG. 3A, the estimated pupil pixels PX14 to PX16 are excluded from the primary spare pore pixels.
  • the estimated pupil pixel PX14 does not include other estimated pupil pixels immediately adjacent to the row direction and the column direction on the basis of the estimated pupil pixel PX14, and the estimated pupil pixel PX15 is also referred to as a reference pixel in the row direction and the column direction And does not have other estimated pupil pixels immediately adjacent thereto.
  • the estimated pupil pixels PX16 and PX17 are located in the same pixel column (i.e., the column in which the positions of the rows are the same but the positions of the pixels are different), and are assumed to be the estimated pupil pixels that are consecutively arranged in the column direction. And other estimated pupil pixels that are continuously located in the column direction.
  • these estimated pupil pixels PX16 and PX17 are also not selected as the primary spare pore pixels.
  • the estimated pupil pixels PX11-PX13 include other estimated pupil pixels positioned adjacent to the other estimated pupil pixels in the row direction. At this time, other estimated pupil pixels positioned adjacent to each other are also consecutively arranged in the row direction and the column direction And is in contact with another estimated pupil pixel. Therefore, these estimated pupil pixels PX11 to PX13 are selected as the primary spare pore pixels.
  • the primary spare pore pixel is selected from the estimated pupil pixels located in the estimated pupil region AR11.
  • An example of a primary spare pore pixel selected based on the estimated pupil pixel shown in Fig. 3A is shown in Fig. 3B.
  • the pupil extraction unit 230 uses the position information of the first-order preliminary pore pixels
  • the region including the primary pore pixels is defined as the primary preliminary pupil region AR12 (S18).
  • the primary preliminary pupil region AR12 is divided into a pixel existing in the uppermost row (i.e., the uppermost row) (X n -9 , X n ) and column position information (Y p (X n )) of the pixel located at the leftmost (leftmost) , Y p + 10) four-position information [(X n -9, Y p by a), (X n -9, Y p +10), (X n, Y p) and a (X n, Y p + 10) the four pixels each having [PX (X n -9, Y p), PX (X n -9, Y p +10), PX (X n, Y p) and PX (X n, Y p +10 )].
  • the primary spare pore pixels selected from the estimated pupil pixels belonging to the estimated pupil area AR11 shown in FIG. 3A are as shown in FIG. 3B, A preliminary pupil region AR12 is formed.
  • FIG. 4A shows an eye image output to the information output unit 400 according to the final eye image data.
  • FIG. 4B shows a first preliminary pupil region AR12 in the eye image of FIG.
  • the information output unit 400 displays the extracted image.
  • the pupil extracting unit 230 performs an operation of determining the secondary spare pupil area AR13.
  • the pupil extracting unit 230 first determines the first to fourth reference pixels PXr1, PXr2, PXr3, and PXr4, and stores position information on the determined reference pixels PXr1, PXr2, PXr3, PXr4, (Step S19).
  • the pupil extracting unit 230 extracts, from the primary spare pupil region AR12, a primary preliminary pupil pixel positioned at the center of the pixel row located in the uppermost row Y p , Primary preliminary pupil pixels positioned at the center of the pixel row located in the row (Y p + 10 ), primary preliminary pupil pixels positioned at the center of the pixel column located at the leftmost row (X n - 7 ) X n-1 ) are defined as the first to fourth reference pixels PXr 1 to PXr 4, respectively.
  • the pupil extracting unit 230 is the first of four primary pre pupil pixel located at each corner portion of the pupillary spare area (AR12) [PX (n -9 X, Y p), PX (X n -9, Y p +10), PX (X n, Y p) and PX (X n, Y p +10 )] position information (X n -9, X n, Y p, Y p + 10) using a first of the
  • the primary preliminary pupil pixels positioned at the center in the uppermost pixel row, the lowermost pixel row, the leftmost pixel column, and the rightmost pixel column of the next preliminary pupil region AR12 are referred to as first through fourth reference pixels PXr1, PXr2, PXr3, and PXr4, and stores the position information on the first to fourth reference pixels PXr1, PXr2, PXr3, and PXr4 in the storage unit 300.
  • the pupil extracting unit 230 does not have a primary preliminary pupil pixel located at the center in the uppermost pixel row, the lowest pixel row, the leftmost pixel column, and the rightmost pixel column of the primary spare pupil region AR12 ,
  • One primary spare pore pixel located closest to the pixel position in the middle of the pixel row or pixel column is determined as the reference pixel (e.g., PXr3).
  • each edge pixel in each of the primary spare pupil area (AR12) [PX (X n -9, Y p), PX (X n -9, Y p +10), PX (X n, Y p) and PX (X n, Y p +10)] using the location information of a primary spare pupil area (AR12) first to fourth standard number of pixels (PXr1, PXr2, PXr3, PXr4) is determined when the pupil extraction unit in the ( 230 form a primary preliminary pupil region AR12 extending in the first and second column directions and in the first and second row directions using the reference pixels PXr1, PXr2, PXr3, PXr4, The area AR13 is determined.
  • the pupil extracting unit 230 extracts the pupil extracting unit 230 from the final eye image data stored in the storage unit 300, which is located immediately above the first reference pixel PXr1 located at the uppermost pixel row of the primary spare pupil region AR12 (I.e., the Y direction in which the number of the column is decreased) in one column unit in the first preliminary pupil pixel, that is, in the same row (X n - 3 ) and is located immediately above the first reference pixel PXr 1
  • the first preliminary pupil pixel is determined as the first comparison pixel PXc1 (S110).
  • the first comparison pixel i.e., the current first comparison pixel
  • PXc1 is set to a position where the number of the column is decreased by '1' in the same pixel column as the first reference pixel PXr1 (PXr1 - 1 ) located in the Y p-1 .
  • the pupil extracting unit 230 returns to the first comparison pixel moved by one row, and the first preliminary pupil pixel (PXr1 - 2) which is located immediately above in the same pixel column and the present first comparison pixel establish a new current first comparison pixel (PXc1) (S113), first It is determined whether the difference between the pixel values of the reference pixel pixel PXr1 and the current first comparison pixel PXc1 is equal to or less than the set value at step S111. At this time, it is natural that the comparison pixels immediately before the new first comparison pixels are stored as the previous comparison pixels and the newly determined first comparison pixels are stored as the current comparison pixels.
  • the pupil extracting unit 230 determines that the previous first comparison pixel PXc1 (For example, the first row position) of the second preliminary pupil area AR13, and stores the position of the row in the storage unit 300.
  • the pupil extracting unit 230 extracts the first preliminary papillon pixels (e.g., PXr1 - PXr1) determined as the previous first comparison pixel PXc1 immediately before the pixel value difference with the first reference pixel PXr1 has a set value or less, using 3) the primary spare pupil pixel (for example, PXr1 - - 3) location information (X n -3, Y p of the determined 3) to the first position in the column (3) is located in a column position (Y p S114).
  • the primary spare pupil pixel for example, PXr1 - - 3) location information (X n -3, Y p of the determined 3) to the first position in the column (3) is located in a column position (Y p S114).
  • the pupil extracting unit 230 sequentially moves the positions of the first comparison pixels PXc1 in a column unit along the first column direction in the first reference pixel PXr1, (I.e., the current first comparison pixel) whose pixel value difference from the first comparison pixel PXc1 exceeds the set value, and determines the first comparison pixel PXc1
  • the column position of the determined first comparison pixel i.e., the previous first comparison pixel is determined as the first column position.
  • the pupil extracting unit 230 again uses the second reference pixel PXr2 to determine the position of the lowermost row (e.g., the second row position) of the primary preliminary pupil area AR13.
  • the pupil extracting unit 230 extracts the second reference pixel PXr2 located in the lowermost row (Y p + 10 ) of the first preliminary pupil region AR12 from the final eye image data stored in the storage unit 300, (PXr2 + 1 ) located immediately below by one column unit in the second column direction (i.e., the Y direction in which the column number increases in the direction opposite to the first column direction) at the position of the current preliminary pupil pixel 2 comparison pixel PXc2, and determines whether the pixel value of the current second comparison pixel PXc2 exceeds the pixel value of the second reference pixel PXr2 (S115-S117).
  • the difference between the pixel values of the second comparative pixel PXc2 and the second reference pixel PXr2 is equal to or smaller than the set value (S117), and the first preliminary pupil pixel PXr2 + 1 , which is the second comparative pixel, The first preliminary pupil pixel PXr2 + 2 immediately below the second preliminary pupil PXr2 is set as a new current second comparison pixel PXc2 (S118), and pixel value comparison with the second reference pixel PXr2 is performed (S115).
  • the pupil extracting unit 230 sequentially changes the current second comparison pixel PXc2 until the pixel value difference between the second comparison pixel PXc2 and the second reference pixel PXr2 exceeds the set value A pixel value comparison operation is performed.
  • the pupil extracting unit 230 outputs the second comparison immediately before the current second comparison pixel PXc2 (Y P + 11 ) of the primary preliminary pupil pixel (for example, PXr2 + 1 ) which is the previous second comparison pixel determined as the pixel is set as the second column position of the secondary pupil region AR13 (S119).
  • the pupil extracting unit 230 extracts the third and fourth reference pixels PXr3 and PXr4 from the third and fourth reference pixels PXr3 and PXr4,
  • the current third comparative pixel PXc3 and the current fourth comparative pixel PXc4 are determined and the current pixel values of the third and fourth comparison pixels PXc3 and PXc4 and the third and fourth reference pixels PXr3, (E.g., the first row position) and the position of the rightmost row (e.g., the second row position) of the secondary pupil region are determined by comparing the pixel values of the left pupil region and the right pupil region.
  • the positions of the secondary spare pore pixels are decreased or increased from one of the corresponding reference pixels PXr1 and PXr2 in one column unit along the first and second column directions.
  • the first and second comparison pixels PXc1 and PXc2 are determined.
  • the first and second comparison pixels PXc3 and PXc4 are arranged in a row unit from the corresponding reference pixels PXr3 and PXr4 along the first and second row directions. Only the third and fourth comparative pixels PXc3 and PXc4 are determined (S120-S124, S125-S129) by decreasing or increasing the position of the secondary spare pore pixel.
  • the first row direction is the X direction in which the number of the rows is decreasing
  • the second row direction is the X direction in which the number of the row increases in the direction opposite to the first row direction.
  • a current third comparison pixel primary spare pupil pixel determined as (PXc3) (PXr3 - 3) and the primary spare pupil defined as of the fourth comparison pixel (PXc4) pixel (PXr4 + 4) If the pixel value difference between the first pre-pupil pixels in excess of the set value, respectively, located in the same column, and these pre-primary pupil pixel (PXr3 -3, PXr4 + 4) present immediately before between the third comparing a pixel (PXc3) and the fourth pixel comparing a first row position of the primary spare pupil pixel (PXr3 -2, PXr4 + 3) a secondary spare pupil area (AR13) of each line position which was determined by (PXc4) and the 2 row position.
  • the pupil extracting unit 230 extracts a region partitioned by a quadrangle And a pixel included in the secondary spare pupil region AR13 is stored in the storage unit 300 as a secondary spare pore pixel (S130).
  • FIG. 3B An example of the secondary spare pupil area AR13 extracted from the primary spare pupil area AR12 shown in FIG. 3B by the operation of the pupil extracting unit 230 is shown in FIG.
  • the secondary preliminary pupil region AR13 is determined on the basis of the primary preliminary pupil region AR12, but the degree of expansion in the column direction and in the row direction is different between the reference pixels PXr1-PXr4 and the respective comparison pixels PXc1-PXc4), the position of the primary preliminary pupil pixel located at the center of the primary preliminary pupil region AR12 and the position of the secondary preliminary pupil pixel located at the center of the secondary preliminary pupil region AR13
  • the positions of the preliminary pore pixels may be different from each other.
  • the accuracy of the extraction operation of the final pupil region is increased by the operation of the pupil extraction unit 230 according to the present example.
  • the secondary spare pupil area AR13 extracted based on the image shown in FIG. 4B can be output to the information output unit 400 as shown in FIG. have.
  • each edge pixel located at the four corners of the secondary spare pupil area (AR13) [PX (n -9 X, Y p -3 ), PX (X n-9 , Y p +11, PX (X n +2, Y p +3), PX (X n +2, Y p +11)] position information (X n -9, X of the secondary preliminary pupil pixel located in the middle portion of the secondary preliminary pupil region AR13 is used as the center pixel PX of the secondary preliminary pupil region AR13 by using the pixel PX ( n + 2 , Y p -3 , Y P + 11 ) is determined by cent) (S131).
  • the pupil extracting unit 230 calculates the distance R131 from the center pixel PX cent to the first and second columns using the positional information of the secondary spare pore pixel included in the secondary spare pupil area AR13 , R132) and the distances R133 and R134 to the first and second rows are calculated (S131).
  • the distances R131, R132, R133 and R134 are the straight line distances from the first and second columns to the pixel located in the same column as the center pixel PX cent in the first and second rows.
  • the pupil extracting unit 230 calculates distances R131 and R132 having the greatest value among the calculated distances R131, R132, R133, and R134, as the distances R131, R132, R133, and R134 (S133).
  • the pupil extracting unit 230 determines a circular region having a radius (e.g., R131) determined based on the center pixel PX cent as a center point, and determines a secondary preliminary pupil pixel included in the circular region as a final pupil pixel And the region including these final pupil pixels is determined as the final pupil region AR20 (S134).
  • a radius e.g., R131
  • the final pupil area AR20 is determined using the largest value among the calculated distances R131, R132, R133, and R134, it is possible to accurately extract the pupil area without any part excluded from the actual pupil area .
  • the final pupil area AR20 may be determined using the smallest value among the calculated distances R131, R132, R133, and R134. In this case, The accuracy of the final pupil pixel included in the image is increased.
  • the position information and pixel values of the secondary spare pore pixels included in the final pupil area AR20 are stored in the storage unit 300 as position information and pixel values of the final pupil pixel (S135).
  • the final pupil area AR20 extracted based on the image of Fig. 7 is shown in Fig.
  • the pupil extracting unit 230 When the final pupil region AR20 is determined, the pupil extracting unit 230 notifies the iris extracting unit 240 of the completion state of the pupil extracting operation, thereby starting the operation of the iris extracting unit 240 (S20) .
  • the iris extracting unit 240 extracts the iris image using the distance (e.g., R131) determined for the final pupil area AR20, i.e., the radius size R131 of the final pupil area AR20, The size is determined, and the size of the side of the road is determined based on the size of the determined longitudinal side (S21).
  • the unit area for iris estimation is a rectangular area, and the size of the longitudinal side is larger than the size of the transverse side, and the size ratio (R131) and the ratio of the size of the longitudinal side and the lateral side are already determined.
  • the iris extracting unit 240 extracts the pixel array located at the leftmost one of the one or more outermost pixel columns (i.e., the left pupil region AR20 of the determined final pupil region AR20) (I.e., a predetermined number of rows) R50, which is one of the first row direction and the second row direction (e.g., one of the pixel columns located in the first row direction) (Hereinafter, this pixel column is referred to as a 'division reference pixel column') (S22).
  • the predetermined distance R50 is already determined using the radius magnitude R131 of the final pupil area AR20.
  • the iris extracting unit 240 moves the final eye image data, that is, the final eye image data corresponding to the eye region, from the division reference pixel column to the first row direction or the second row direction among the final eye image data, (For example, m) iris estimation areas by dividing the iris estimation area by the unit area and calculating the difference value of the average pixel value by pairing the generated iris estimation areas with other iris estimation areas sequentially determined, And performs an operation of calculating an absolute value of the difference value.
  • the final eye image data for the eye region which is certainly the iris region that is, the final eye image data for the final pupil region.
  • the division operation to the iris estimation region and the difference value calculation operation of the average pixel value for the eye region located adjacent to the edge portion of the iris extraction unit AR20 are omitted and the processing time of the iris extraction unit 240 is shortened.
  • the iris extraction unit 240 extracts, from the final eye image data, The iris region is extracted using the final eye image data corresponding to the left side region or the right side region of the eye instead of the final eye image data corresponding to the lower region. Therefore, the iris region is estimated using the left region of the eye or the right region of the eye photographed without being covered with the eyelid, so that the accurate iris region can be determined.
  • the iris extracting unit 240 extracts the final eye image data corresponding to the eye region moved by the iris-tracking unit region in the first direction from the division reference pixel column among the final eye image data, As the image data of the i-th iris estimation area DR1 (S23).
  • the iris extracting unit 240 calculates and stores the average pixel value of the pixels for the image data belonging to the extracted i-th iris estimation region (S23, S24).
  • i 1, 2, 3, ..., m.
  • the column position of the iris tracing unit area is determined so that the pixel positioned at the center of the pixel column in the i-th iris estimation area and the center pixel (PX cent ) of the final pupil area AR20 are positioned in the same column.
  • the operation of the iris extracting unit 240 extracts image data corresponding to the first iris estimation area from the final eye image data corresponding to the eye image. Since the operation of the iris extracting unit 240 is performed until a predetermined number of iris estimation regions are generated, the final eye image data related to the eye region is eventually divided into a plurality of iris estimation regions. At this time, the total number of the iris estimation regions to be divided is already determined, and the total number can be varied according to the size of the radius R131 of the final pupil region.
  • the iris extracting unit 240 extracts the final eye image data corresponding to the eye region moved in the first row direction by the iris estimation unit region again in the current iris estimation region, In the storage unit 300 and calculates an average pixel value of the second iris estimation area DR2 and stores the calculated average pixel value in the storage unit 300.
  • the iris extraction unit 240 extracts the iris estimation area I-th iris estimation region (e.g., the first iris estimation region) and the (i + j) -th iris estimation region (i + j), which are spaced apart from the iris estimation region by a predetermined number (E.g., the second iris estimation area).
  • j can be, for example, 2 as a set value.
  • the value of the predetermined number (j) is determined according to the size of the side of the iris estimation unit area, decreases as the size of the side increases, and increases as the size of the side decreases.
  • the iris extracting unit 240 first calculates the difference value between the average pixel value of the first iris estimation area DR1 and the average pixel value of the third iris estimation area DR3, and stores the absolute value of the difference value And stores it in the unit 300 (S26).
  • the iris extracting unit 240 extracts the average iris value of the second iris estimation area DR2, which is a new first iris estimation area in which the order of the first iris estimation area is increased by '1' Of the fourth iris estimation area DR4, which is a new second iris estimation area spaced by a predetermined number (i.e., two) from the first iris estimation area DR4, and stores the absolute value of the difference in the average pixel value, (S27, S28).
  • the iris extracting unit 240 increases the order of the generated iris estimation regions (m) in order and calculates an average pixel value difference between the iris estimation region and other iris estimation regions, The storage operation is repeatedly performed.
  • the iris extraction unit 240 calculates the average pixel value of the generated iris estimation area And ends the absolute value storing operation.
  • the iris extracting unit 240 calculates the difference value between the two average pixel values until there are two iris estimation regions capable of calculating the difference value of the average pixel values.
  • the first to 48th iris estimation regions A difference value calculation and an absolute value storage operation for the average pixel value are performed.
  • the 50 < th > iris estimation region and the 49 < th > iris estimation region do not exist in the last 50 iris estimation region and the 49 < th > iris estimation region, The difference value calculation and the absolute value storing operation for the average pixel value for the pixel value of the pixel value are not performed.
  • the iris extraction unit 240 calculates the difference value The absolute value is determined (S29), and the order of the corresponding iris estimation area having the largest difference from the average pixel value of the adjacent iris estimation area adjacent to the adjacent iris estimation area is determined (S210).
  • the iris estimation unit 240 determines the row position of the outermost pixel column by using the position information of the outermost pixel column located at the outermost one among the pixel columns belonging to the iris estimation area of the determined order (S211).
  • the iris extracting unit 240 calculates the straight line distance from the row in which the center pixel PX cent is located to the row of the outermost pixel row, and calculates the calculated distance as the iris region radius R30 ) (S212, S213).
  • the iris extracting unit 240 determines an original area having the calculated iris area radius R30 as a radius and defines it as the iris area AR30 (S214)
  • Information i.e., pixel position and pixel value
  • the iris estimation region is generated while moving by the iris estimation unit region in the first direction, and the final eye image data for each generated iris estimation region is extracted from the final eye image data to estimate the iris region.
  • a second row direction that is the direction opposite to the first row direction by a unit of the iris estimation unit region, the plurality of iris estimation regions can be generated.
  • the iris region is extracted from the final eye image data, even the iris region located at the boundary with the whiteness portion is accurately extracted into the iris region, thereby improving the accuracy of the iris extraction operation.
  • image acquiring unit 200 iris extracting unit
  • eye image data extraction unit 220 preprocessing unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Eye Examination Apparatus (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

본 발명은 홍채 인식 장치에 관한 것으로서, 최종 눈 영상 데이터와 최종 동공 영역에 포함되는 최종 동공 화소의 위치 정보와 화소값이 저장되어 있는 저장부, 및 상기 최종 동공 영역의 일측 최외각 화소열을 기준으로 하여 정해진 행 방향을 따라 홍채 추정용 단위 영역만큼 상기 최종 눈 영상 데이터를 분할하여 복수 개의 홍채 추정 영역을 생성하고 각 홍채 추정 영역에 해당하는 최종 눈 영상 데이터의 평균 화소값을 산출하며, 복수 개의 홍채 추정 영역 중에서 각 홍채 추정 영역과 상기 각 홍채 추정 영역과 정해진 순번만큼 이격되어 있는 후속 홍채 추정 영역의 평균 화소값의 차이값을 이용하여 홍채 영역을 추정하는 홍채 추출부를 포함한다.

Description

홍채 인식 장치
본 발명은 홍채 인식 장치에 관한 것이다.
각각의 사람을 식별하는 개인 식별 방법으로는 암호 인증 방법, 식별번호 인증 방법 등이 알려져 있으나, 이러한 방법들은 도용과 분실의 위험 등에 노출되기 쉽다.
따라서, 최근에는 보다 안전하고 정확성이 높은 개인 식별 방법이 요구되고 있고, 이러한 요구에 따라 사람의 생체 정보를 이용하는 생체 인식 방법이 개발되어 사용되고 있다.
이러한 생체 인식 방법을 위해 사용되는 생체 정보는 지문, 얼굴, 홍채가 일반적이다.
이중 홍채를 이용하는 홍채 인증 방식은 개인 식별 방법 중 유일성, 불변성 및 안정성 측면에서 가장 뛰어난 것으로 알려져 있어, 고도의 보안이 요구되는 분야에 적용되고 있는 추세이다.
홍채 인증은 피촬영자의 홍채 영상을 추출한 후 이미 등록되어 있는 홍채 영상과 추출된 홍채 영상을 비교하는 과정을 통해 수행된다.
대한민국 등록특허 제10-0397750호(등록일자: 2003년08월29일, 발명의 명칭: 홍채 인식을 위한 실시간 동공 검출 방법)
대한민국 등록특허 제10-0572410호(등록일자: 2006년04월12일, 발명의 명칭: 홍채 인식을 위한 동공 영역 추정방법)
본 발명이 해결하려는 과제는 피촬영자의 눈 영상에서 홍채 영역을 정확하게 추출하기 위한 것이다.
상기 과제를 해결하기 위한 본 발명의 한 특징에 따른 홍채 인식 장치는 최종 눈 영상 데이터와 최종 동공 영역에 포함되는 최종 동공 화소의 위치 정보와 화소값이 저장되어 있는 저장부, 및 상기 최종 동공 영역의 일측 최외각 화소열을 기준으로 하여 정해진 행 방향을 따라 홍채 추정용 단위 영역만큼 상기 최종 눈 영상 데이터를 분할하여 복수 개의 홍채 추정 영역을 생성하고 각 홍채 추정 영역에 해당하는 최종 눈 영상 데이터의 평균 화소값을 산출하며, 복수 개의 홍채 추정 영역 중에서 각 홍채 추정 영역과 상기 각 홍채 추정 영역과 정해진 순번만큼 이격되어 있는 후속 홍채 추정 영역의 평균 화소값의 차이값을 이용하여 홍채 영역을 추정하는 홍채 추출부를 포함한다.
상기 홍채 추정용 단위 영역의 가로변과 세로변의 크기는 상기 최종 동공 영역의 반지름의 크기에 따라 정해질 수 있다.
상기 홍채 추출부는 산출된 차이값 중에서 가장 큰 절대값을 갖는 차이값을 판정하고, 판정된 상기 차이값을 나타내는 해당 홍채 추정 영역의 순번을 판정하여 판정된 순번의 홍채 추정 영역의 최외각 화소열의 행 위치를 판정하고, 상기 최종 동공 영역의 중심 화소의 행 위치에서 상기 최외각 화소열의 행 위치까지의 직선 거리를 반지름으로 하는 원 영역을 홍채 영역으로 판정할 수 있다.
상기 홍채 추출부는 상기 최종 동공 영역의 일측 최외각 화소열에서부터 정해진 행 방향으로 정해진 거리만큼 이격되어 있는 화소열일 분할 기준 화소열을 판정하고, 상기 분할 기준 화소열에서부터 상기 홍채 추정용 단위 영역만큼 상기 최종 눈 영상 데이터를 분할하여 복수 개의 홍채 추정 영역을 생성할 수 있다.
상기 홍채 추출부는 상기 저장부에 저장되어 있는 최종 눈 영상 데이터에서 제1 설정값 이상인 화소값을 갖는 화소와 상기 제1 설정값보다 큰 제2 설정값 이하인 화소값을 갖는 화소를 추출한 후 상기 제1 설정값과 동일한 화소값을 갖는 화소를 이용해 1차 예비 동공 화소를 선택하여 상기 1차 예비 동공 화소가 포함되는 1차 예비 동공 영역을 판정하고, 상기 1차 예비 동공 영역의 최상측 화소행, 최하측 화소행, 최좌측 화소열 및 최우측 화소열에 각각 위치하는 제1 내지 제4 기준 화소를 이용하여 상기 1차 예비 동공 영역을 제1 및 제2 열 방향과 제1 및 제2 행 방향으로 확장시켜 제1 및 제2 열과 제1 및 제2 행로 정해지는 2차 예비 동공 영역을 판정하고, 상기 2차 예비 동공 영역의 중심에 위치하는 중심 화소와 상기 2차 예비 동공 영역의 상기 제1 열, 상기 제2 열, 상기 제1 행 및 상기 제2 행 중 하나까지의 거리를 반지름으로 하는 원 영역을 정하여 상기 원 영역에 포함되는 2차 예비 동공 영역을 최종 동공 화소로 판정하고, 상기 최종 동공 화소가 포함되는 영역을 최종 동공 영역으로 판정할 수 있다.
상기 홍채 추출부는 상기 1차 예비 동공 영역의 최상측 화소행의 가운데에 위치하는 1차 예비 동공 화소, 최하측 화소행의 가운데에 위치하는 1차 예비 동공 화소, 최좌측 화소열의 가운데에 위치하는 1차 예비 동공 화소 및 최우측 화소열의 가운데에 위치하는 1차 예비 동공 화소를 각각 상기 제1 내지 제4 기준 화소로 정할 수 있다.
상기 홍채 추출부는 상기 제1 기준 화소에서 상기 제1 열 방향을 따라 열 단위로 제1 비교 화소의 위치를 차례로 이동시키면서 상기 제1 기준 화소의 화소값과 상기 제1 비교 화소의 화소값의 차이가 설정값을 초과하는 제1 비교 화소를 판정하고, 판정된 제1 비교 화소 바로 이전의 제1 비교 화소의 열 위치를 상기 제1 열의 위치로 판정하고, 상기 제2 기준 화소에서 상기 제1 열 방향과 반대 방향인 상기 제2 열 방향을 따라 열 단위로 제2 비교 화소의 위치를 차례로 이동시키면서 상기 제2 기준 화소의 화소값과 상기 제2 비교 화소의 화소값의 차이가 설정값을 초과하는 제2 비교 화소를 판정하고, 판정된 제2 비교 화소 바로 이전의 제2 비교 화소의 열 위치를 상기 제2 열의 위치로 판정하고, 상기 제3 기준 화소에서 상기 제1 행 방향을 따라 행 단위로 제3 비교 화소의 위치를 차례로 이동시키면서 상기 제3 기준 화소의 화소값과 상기 제3 비교 화소의 화소값의 차이가 설정값을 초과하는 제3 비교 화소를 판정하고, 판정된 제3 비교 화소 바로 이전의 제3 비교 화소의 행 위치를 상기 제1 행의 위치로 판정하고, 상기 제4 기준 화소에서 상기 제1 행 방향과 반대 방향인 상기 제2 행 방향을 따라 행 단위로 제4 비교 화소의 위치를 차례로 이동시키면서 상기 제4 기준 화소의 화소값과 상기 제4 비교 화소의 화소값의 차이가 설정값을 초과하는 제4 비교 화소를 판정하고, 판정된 제4 비교 화소 바로 이전의 제4 비교 화소의 행 위치를 상기 제2 행의 위치로 판정할 수 있다.
상기 홍채 추출부는 상기 최종 눈 영상 데이터에서 상기 제1 설정값 이상인 화소값을 갖는 화소와 상기 제1 설정값보다 큰 제2 설정값 이하인 화소값을 갖는 화소를 추출하여 추정 동공 화소로 정하고, 추정 동공 화소 중에서 이웃한 다른 추정 동공 화소와 행 방향과 열 방향 중 어느 한 방향으로 미리 정해진 개수만큼 연속되게 위치하지 않는 추정 동공 화소를 제거하여 상기 1차 예비 동공 화소를 추출할 수 있다.
상기 이웃한 다른 추정 동공 화소는 행 방향과 열 방향으로 다른 추정 동공 화소와 연속되게 위치할 수 있다.
상기 홍채 추출부는 상기 중심 화소와 상기 2차 예비 동공 영역의 상기 제1 열, 상기 제2 열, 상기 제1 행 및 상기 제2 행 중 가장 먼 곳까지의 거리를 상기 원 영역의 반지름으로 정할 수 있다.
상기 홍채 추출부는 상기 중심 화소와 상기 2차 예비 동공 영역의 상기 제1 열, 상기 제2 열, 상기 제1 행 및 상기 제2 행 중 가장 짧은 곳까지의 거리를 상기 원 영역의 반지름으로 정할 수 있다.
이러한 특징에 따르면, 최종 동공 영역을 벗어난 영역을 홍채 추정용 단위 영역만큼 분할하여 평균 화소값의 차이를 이용하여 홍채 영역의 가장자리를 산출하므로 정확한 홍채 영역의 경계 부분의 판정이 이루어진다.
또한, 최종 동공 영역의 가장자리 부분에서 정해진 거리만큼 이격된 영역에서부터 홍채 추정 영역의 분할 동작이 이루어져 홍채 영역임이 확실한 최종 동공 영역의 가장자리 부분과 인접하게 위치하고 있는 영역에 대한 최종 눈 영상 데이터에 대한 홍채 추정 영역으로의 분할 동작과 평균 화소값의 차이값 산출 동작이 생략된다. 이로 인해, 홍채 영역을 판정하기 위한 처리 동작이 크게 단축된다.
더욱이, 정해진 행 방으로 따라 홍채 추정 영역을 분할하므로, 눈꺼풀로 덮여져 정확한 홍채 영역의 추정 동작이 이루어지지 않는 눈의 상부 영역이나 하부 영역을 이용하는 대신 홍채 영역이 온전히 촬영되는 눈의 좌측 영역이나 우측 영역에 해당하는 최종 눈 영상 데이터를 이용하여 홍채 영역을 추출하므로, 정확한 홍채 추출 동작이 이루어진다.
본 특징에 따르면, 최종 눈 영상 데이터에서 화소값과 설정값과의 비교 동작에 의해 최종 동공 영역을 판정하기 1차 예비 동공 화소를 추출하므로, 최종 동공 영역의 판정을 위해 처리해야 되는 최종 눈 영상 데이터의 양이 크게 감소한다. 이러므로, 데이터 처리 시간이 단축되어, 최종 동공 영역의 추출 시간이 줄어든다.
또한, 1차 예비 동공 영역을 이용하여 2차 예비 동공 영역을 추출할 때, 정해진 각 기준 화소와 이 기준 화소와 인접하게 위치한 각 비교 화소와의 화소값 비교 동작을 통해 2차 예비 동공 영역이 추출된다. 이로 인해, 최종 동공 영역을 정하기 위한 2차 예비 동공 영역의 판정 동작의 정확도가 향상되고, 이로 인해, 최종 동공 영역의 정확도 역시 증가하게 된다.
도 1은 본 발명의 일 실시예에 따른 홍채 인식 장치의 블럭도이다.
도 2a 내지 도 2d는 본 발명의 일 실시예에 따른 홍채 인식 장치에서 최종 동공 영역을 추출하기 위한 홍채 추출부의 동작 순서도이다.
도 3a와 도 3b는 본 발명의 일 실시예에 따른 홍채 인식 장치의 동공 추출 유닛의 동작에 따라 최종 눈 영상 데이터를 이용하여 추정 동공 영역과 1차 예비 동공 영역을 판정하는 과정을 설명하기 위한 도면으로서, 도 3a는 추정 동공 영역을 판정하는 과정을 설명하기 위한 도면이고, 도 3b는 1차 추정 예비 동공 영역을 판정하는 과정을 설명하기 위한 도면이다.
도 4의 (a)와 (b)는 본 발명의 일 실시예에 따른 홍채 인식 장치의 동공 추출 유닛에 의해 판정된 1차 예비 동공 영역에 대한 영상을 도시한 도면으로서, (a)는 최종 눈 영상 데이터를 이용하여 정보 출력부로 출력되는 눈 영상을 도시하고, (b)는 (a)의 눈 영상에서 1차 예비 동공 영역이 추출된 영상을 정보 출력부로 출력한 도면이다.
도 5는 본 발명의 일 실시예에 따른 홍채 인식 장치의 동공 추출 유닛의 동작에 따라 1차 예비 동공 영역에서 제1 내지 제4 기준 화소를 표시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 홍채 인식 장치의 동공 추출 유닛의 동작에 따라 2차 예비 동공 영역에서 2차 예비 동공 영역을 판정하는 과정을 설명하기 위한 도면이다.
도 7은 도 4의 (b)에 도시한 눈 영상을 이용하여 판정된 2차 예비 동공 영역에 대한 영상을 도시한 도면이다.
도 8a 및 도 8b는 본 발명의 일 실시예에 따른 홍채 인식 장치에서 홍채 추출부의 홍채 추출 유닛에 대한 동작 순서도이다.
도 9는 본 발명의 일 실시예에 따른 홍채 인식 장치에서 홍채 영역을 추출하기 위한 과정을 설명하기 위한 도면이다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명한다. 본 발명을 설명하는데 있어서, 해당 분야에 이미 공지된 기술 또는 구성에 대한 구체적인 설명을 부가하는 것이 본 발명의 요지를 불분명하게 할 수 있다고 판단되는 경우에는 상세한 설명에서 이를 일부 생략하도록 한다. 또한, 본 명세서에서 사용되는 용어들은 본 발명의 실시예들을 적절히 표현하기 위해 사용된 용어들로서, 이는 해당 분야의 관련된 사람 또는 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
여기서 사용되는 전문용어는 단지 특정 실시예를 언급하기 위한 것이며, 본 발명을 한정하는 것을 의도하지 않는다. 여기서 사용되는 단수 형태들은 문구들이 이와 명백히 반대의 의미를 나타내지 않는 한 복수 형태들도 포함한다. 명세서에서 사용되는 '포함하는'의 의미는 특정 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분을 구체화하며, 다른 특정 특성, 영역, 정수, 단계, 동작, 요소, 성분 및/또는 군의 존재나 부가를 제외시키는 것은 아니다.
이하, 첨부된 도면을 참조하여 본 발명의 일 실시예에 따른 홍채 인식 장치에 대해서 설명하도록 한다.
먼저, 도 1을 참고로 하여, 본 발명의 일 실시예에 따른 홍채 인식 장치에 대하여 설명한다.
도 1을 참고로 하면, 본 예의 홍채 인식 장치는 영상 획득부(100), 영상 획득부(100)에 연결되어 있는 홍채 추출부(200), 동공 추출부(200)에 연결되어 있는 저장부(300), 그리고 동공 추출부(200)에 연결되어 있는 정보 출력부(400)를 구비한다.
영상 촬영부(100)는 피촬영자의 영상을 획득하는 기능을 수행하는 것으로서, 본 예의 영상 촬영부(100)는 홍채 인식을 위해 피촬영자의 얼굴 중에서 눈이 포함된 영역을 촬영하여, 촬영된 영역의 영상에 대한 영상 데이터(이하, 이 영상 데이터를 '원영상 데이터'라 함)를 획득한다.
이때, 원영상 데이터를 포함한 본 예의 영상 데이터는 행렬 구조로 배열되어 있는 복수의 화소(pixel)에 대한 위치 정보와 화소값을 구비하고 있어, 각 화소에 대한 영상 데이터의 값이 화소값이 된다. 따라서, 영상 데이터는 해당 화소값을 갖는 복수의 화소로 이루어진 화소 집합이다.
이때, 영상 촬영부(100)는 촬영 동작 시 피촬영자의 적목 현상 등을 방지하여 정확하게 눈을 촬영하기 위해, 적외선 촬영으로 영상 데이터를 생성하는 적외선 카메라 등으로 이루어질 수 있다.
홍채 추출부(200)는 영상 촬영부(100)로부터 인가되는 원영상 데이터를 수신 받아 홍채 영역을 추출하는 것으로서, 눈 영상 데이터 추출 유닛(210), 눈 영상 데이터 추출 유닛(210)에 연결된 전처리 유닛(220), 전처리 유닛(220)에 연결된 동공 추출 유닛(230), 그리고 동공 추출 유닛(230)과 연결된 홍채 추출 유닛(240)을 구비한다.
눈 영상 데이터 추출 유닛(210)은 영상 촬영부(100)로부터 인가되는 눈부분 영상 데이터에서 눈과 눈가 영역(이하, 이 영역을 눈 영역이라 함)의 영상 데이터(이하, 이 영상 데이터를 '눈 영상 데이터'라 함)을 추출하는 유닛으로서, 눈 영상 데이터 추출 유닛(210)은 이미 공개되어 있는 OpenCV 등의 알고리즘 등을 통해 원영상 데이터에서 눈 영상 데이터를 추출한다.
전처리 유닛(220)은 동공 영역을 추출하기 전에 눈 영상 데이터의 변환 동작을 실시하여 최종 눈 영상 데이터를 생성하는 것으로서, 그레이스케일(grayscale) 변환 처리, 화소수 변환 처리, 평활화 처리 및 이진화 처리 등과 같은 복수의 영상 데이터에 대한 전처리 동작 중에서 적어도 하나의 동작을 실시하여 눈 영상 데이터의 양이나 화소값의 크기 등을 변환시켜 홍채 영역의 추출을 위한 처리 시간을 단축할 수 있도록 한다.
이러한 눈 영상 데이터에 대한 전처리 동작 역시 이미 공지되어 있는 처리 동작을 이용하므로, 이에 대한 자세한 설명은 생략한다.
대안적인 예에서, 원영상 데이터에 대한 본 예의 전처리 동작은 생략될 수 있고, 이런 경우, 본 예의 전처리 유닛(220) 역시 생략된다.
동공 추출 유닛(230)은 전처리 유닛(220)으로부터 인가되는 최종 눈 영상 데이터로부터 동공에 대한 영상 데이터를 추출하여 동공 영역을 판정하기 위한 것이다.
이러한 동공 추출 유닛(230)은 최종 눈 영상 데이터의 화소값을 이용하여 1차적으로 1차 예비 동공 영역을 판정하고, 1차 예비 동공 영역의 최상측 화소행, 최하측 화소행, 최좌측 화소열 및 최우측 화소열에 각각 위치하는 제1 내지 제4 기준 화소를 이용하여 제1 내지 제4 기준 화소와 화소값의 비교 동작이 이루어지는 제1 내지 제4 비교 화소의 위치를 순차적으로 변화시켜 1차 예비 동공 영역을 제1 및 제2 열 방향과 제1 및 제2 행 방향으로 확장시킨 2차 예비 동공 영역을 판정한다.
그런 다음, 동공 추출 유닛(230)은 2차 예비 동공 영역의 중심에 위치하는 중심 화소와 2차 예비 동공 영역의 최상측 화소행의 열 위치인 제1 열, 최하측 화소행의 열 위치인 제2 열, 최좌측 화소열의 행 위치인 제1 행 및 최좌측 화소열의 행 위치인 제2 행 중 하나까지의 거리를 반지름으로 하는 원 영역을 정하여, 이 원 영역에 포함되는 2차 예비 동공 영역을 최종 동공 화소로 판정하고 최종 동공 영역을 결정한다.
홍채 추출 유닛(240)은 추출된 동공 영역을 기준으로 하여 눈 영역의 최종 눈 영상 데이터에서 홍채 영역을 추출한다.
이를 위해, 본 예의 홍채 추출 유닛(240)은 최종 동공 영역을 벗어난 위치의 눈 영역에 해당하는 최종 눈 영상 데이터를 홍채 추정용 단위 영역으로 분할하여 정해진 개수의 홍채 추정 영역을 생성하고 각 홍채 추정 영역과 해당 홍채 추정 영역과 정해진 간격으로 인접한 후속 홍채 추정 영역 간의 평균 화소값 차이를 이용해 최종 눈 영상 데이터에서 홍채 영역에 해당하는 영상 데이터를 추출한다.
홍채 추출부(200)에 연결된 저장부(300)는 홍채 인식 장치의 동작에 필요한 데이터나 정보 그리고 동작 중에 생성되는 영상 데이터 등을 저장하는 저장 매체로서, 메모리(memory) 등으로 이루어질 수 있다.
이러한 저장부(300)는 버퍼(buffer) 등과 같은 임시 저장 장치와 하드 디스크(hard disk)와 같은 영구 저장 장치 중 적어도 하나를 구비할 수 있다.
정보 출력부(400)는 홍채 추출부(200)의 동작에 의해 해당 영상을 출력하여, 사용자에게 홍채 추출과정을 시각적으로 확인할 수 있도록 한다.
이러한 정보 출력부(400)는 액정 표시 장치(LCD, liquid crystal display)나 유기 발광 표시 장치(OLED, organic light emitting display) 등으로 이루어질 수 있다.
다음, 도 2a 내지 도 9를 참고로 하여, 이러한 구조는 갖는 홍채 인식 장치의 동작에 대하여 설명한다.
홍채 인식 장치의 동작에 필요한 전원이 공급되어 홍채 인식 장치의 동작이 시작되면, 영상 획득부(100)의 동작에 의해 눈을 포함한 얼굴 부분에 대한 촬영 동작이 이루어져 원영상 데이터가 획득된다.
이때, 영상 획득부(110)는 사용자에 의한 구동 스위치(도시하지 않음)의 동작에 연동하여 해당 영역(예, 얼굴 영역)에 대한 촬영 동작이 이루어지거나 지정된 영역에 사람이 감지되면 자동으로 지정된 영역에 위치한 사람의 얼굴을 촬영할 수 있다.
이러한 영상 획득부(110)의 동작에 의해, 원영상 데이터가 획득되어 홍채 추출부(200)로 인가되면(S11), 홍채 추출부(200)의 눈영상 데이터 추출 유닛(210)은 인가되는 원영상 데이터로부터 눈 영역에 대한 영상 데이터를 추출하여 눈 영상 데이터로서 저장부(300)에 저장하고, 전처리 유닛(220)로 추출된 눈 영상 데이터를 출력한다.
전처리 유닛(220)은 입력되는 눈 영상 데이터에 대한 그레이스케일 변환 처리, 화소수 변환 처리, 또는 평활화 처리 등과 같은 필요한 적어도 하나의 전처리 동작을 실시하여 저장부(300)에 저장하고 전처리 처리된 눈 영상 데이터(이하, 이 전처리 처리된 눈 영상 데이터를 '최종 눈 영상 데이터'라 함)를 동공 추출 유닛(230)으로 출력한다(S13). 대안적인 예에서, 전처리 유닛(220)이 구비되지 않는 경우, 눈 영상 데이터 추출 유닛(210)에 의해 추출된 눈 영상 데이터가 최종 눈 영상 데이터가 된다.
따라서, 동공 추출 유닛(230)은 전송된 최종 눈 영상 데이터를 이용하여 동공 영역을 판정한다.
이를 위해, 먼저, 동공 추출 유닛(230)은 최종 눈 영상 데이터에서 제1 설정값(하한값) 미만의 화소값을 갖는 화소와 제2 설정값(상한값)을 초과하는 화소값을 갖는 화소를 제거하여, 최종 눈 영상 데이터에서 제1 화소값 이상 및 제2 화소값 이하인 설정 범위의 화소값을 갖는 화소만을 추출한다(S14).
이때, 제1 설정값은 제2 설정값보다 큰 값이고, 제1 설정값은 동공 영역에 속하는 화소의 화소값이나 평균 화소값을 이용하여 정해지며, 제2 설정값은 제1 설정값을 기초로 하여 정해진다.
이러한 화소의 추출 동작에 의해 1차적으로 홍채 영역에 포함되지 않는 영역(예, 눈두덩이 영역)에 대한 영상 데이터가 제거된다.
다음, 동공 추출 유닛(230)은 추출된 화소들 중에서, 설정 범위의 하한값인 제1 설정값을 갖는 화소만을 추출하여 추출된 화소(이하, 이 추출된 화소를 '추정 동공 화소'라 함)에 대한 위치 정보와 화소값을 저장부(300)에 저장한다(S15).
본 예에서, 제1 설정값은 동공에 해당하는 영역에 위치하는 화소의 화소값을 이용하여 정해지므로, 화소값이 설정 범위에 속하는 화소들 중에서 제1 설정값을 갖는 화소인 추정 동공 화소는 동공 영역으로 추정할 수 있는 영역인 추정 동공 영역(AR11)에 포함되는 화소들이 된다.
따라서, 도 3a를 참조하면, 동공 추출 유닛(230)은 가장 위 쪽의 열에 존재하는 추정 동공 화소(예, 최상측 추정 동공 화소)(PX11), 가장 아래 쪽의 열에 위치하는 추정 동공 화소(예, 최하측 추정 동공 화소)(PX12, PX13), 가장 왼쪽의 행에 존재하는 추정 동공 화소(예, 최좌측 추정 동공 화소)(PX14) 그리고 가장 오른 쪽의 행에 위치하는 추정 동공 화소(예, 최우측 추정 동공 화소)(PX15)가 위치하는 행과 열의 위치 정보(Xn -9, Xn, Yp, Yp + 10)에 의한 네 개의 위치 정보[(Xn -9, Yp), (Xn -9, Yp +10), (Xn, Yp) 및 (Xn, Yp +10)]를 각각 갖는 네 개의 화소(예, 제1 내지 제4 모서리 화소)[PX(Xn -9, Yp), PX(Xn -9, Yp +10), PX(Xn, Yp) 및 PX(Xn, Yp +10)]를 각 꼭지점으로 하는 사각형 영역을 추정 동공 영역(AR11)으로 정한다(S16).
그런 다음, 동공 추출 유닛(230)은 추정 동공 화소의 각 위치 정보를 이용하여 바로 이웃한 다른 추정 동공 화소와 행 방향 및 열 방향 중 어느 한 방향으로 미리 정해진 개수만큼 연속되게 위치하지 않는 추정 동공 화소를 제거하여 1차 예비 동공 화소를 추출한다(S17).
이때, 이웃한 다른 추정 동공 화소 역시 행 방향과 열 방향으로 바로 이웃한 다른 추정 동공 화소와 연속되게 위치한다.
예를 들어, 도 3a와 같이, 추정 동공 영역(AR11)에 속하는 추정 동공 화소가 추출된 경우, 추정 동공 화소(PX14-PX16)는 1차 예비 동공 화소에서 제외된다.
즉, 추정 동공 화소(PX14)는 자신을 기준으로 하여 행 방향과 열 방향으로 바로 인접한 다른 추정 동공 화소를 구비하고 있지 않고, 추정 동공 화소(PX15) 역시 자신을 기준으로 하여 행 방향과 열 방향으로 바로 인접한 다른 추정 동공 화소를 구비하고 있지 않다.
따라서, 이들 추정 동공 화소(PX14, PX15)는 1차 예비 추정 화소로 선택되지 않는다.
추정 동공 화소(PX16, PX17)는 서로 동일한 화소열(즉, 행의 위치는 동일하고 열의 위치가 상이한 화소들이 위치한 열)에 위치하여 서로가 열 방향으로 연속하게 위치한 추정 동공 화소가 되지만, 행 방향과 열 방향으로 연속으로 위치하는 다른 추정 동공 화소를 각각 구비하고 있지 않다.
따라서, 이들 추정 동공 화소(PX16, PX17) 역시 1차 예비 동공 화소로 선택되지 않는다.
하지만, 추정 동공 화소(PX11-PX13)는 다른 추정 동공 화소와 행 방향으로 인접하게 위치하는 다른 추정 동공 화소를 구비하고 있고, 이때, 인접하게 위치한 다른 추정 동공 화소 역시 행 방향과 열 방향으로 연속되게 다른 추정 동공 화소와 접해 있다. 따라서, 이들 추정 동공 화소(PX11-PX13)는 1차 예비 동공 화소로 선택된다.
이러한 동공 추출 유닛(230)의 동작에 의해 추정 동공 영역(AR11) 내에 위치하는 추정 동공 화소 중에서 1차 예비 동공 화소가 선택된다. 도 3a에 도시한 추정 동공 화소를 기초하여 선택된 1차 예비 동공 화소의 예는 도 3b와 같다.
이처럼, 도 3b에 도시된 것과 같이 추정 동공 영역(AR11)에 포함되는 추정 동공 화소 중에서 1차 예비 동공 화소가 선택되면, 동공 추출 유닛(230)은 이들 1차 예비 동공 화소의 위치 정보를 이용하여 1차 예비 동공 화소가 포함되는 영역을 1차 예비 동공 영역(AR12)으로 정한다(S18).
이때, 1차 예비 동공 영역(AR12)은, 추정 동공 영역(AR11)의 경우와 동일하게, 가장 위 쪽(즉, 최상측)의 열에 존재하는 화소, 가장 아래 쪽(즉, 최하측)의 열에 위치하는 화소, 가장 왼쪽(최좌측)의 행에 존재하는 화소, 가장 오른 쪽(최우측)의 행에 위치하는 화소의 행 위치 정보(Xn -9, Xn)와 열 위치 정보(Yp, Yp + 10)에 의한 네 개의 위치 정보[(Xn -9, Yp), (Xn -9, Yp +10), (Xn, Yp) 및 (Xn, Yp +10)]를 각각 갖는 네 개의 화소[PX(Xn -9, Yp), PX(Xn -9, Yp +10), PX(Xn, Yp) 및 PX(Xn, Yp +10)]에 의해 정의된 사각형 영역이다.
이러한 동공 추출 유닛(230)의 동작에 의해, 이미 기술한 것처럼, 도 3a에 도시한 추정 동공 영역(AR11)에 속하는 추정 동공 화소 중에서 선택된 1차 예비 동공 화소는 도 3b와 같고 이들에 의해 1차 예비 동공 영역(AR12)이 형성된다.
이러한 동공 추출 유닛(230)의 동작에 의해, 정보 출력부(400)를 통해 출력되는 최종 눈 영상 데이터에서 추출된 1차 예비 동공 영역(AR12)에 대한 눈 영상의 한 예는 도 4의 (b)와 같다. 도 4의 (a)는 최종 눈 영상 데이터에 따라 정보 출력부(400)로 출력되는 눈 영상을 도시하고, 도 4의 (b)는 (a)의 눈 영상에서 1차 예비 동공 영역(AR12)이 추출된 영상을 정보 출력부(400)로 도시한 도면이다.
이와 같이, 1차 예비 동공 화소와 이들이 속하는 1차 예비 동공 영역(AR12)이 정해지면, 동공 추출 유닛(230)은 2차 예비 동공 영역(AR13)을 판정하는 동작을 실시한다.
따라서, 동공 추출 유닛(230)은 먼저, 제1 내지 제4 기준 화소(PXr1, PXr2, PXr3, PXr4)를 판정해 정해진 각 기준 화소(PXr1, PXr2, PXr3, PXr4)에 대한 위치 정보를 저장부(300)에 저장한다(S19).
이를 위해, 도 5에 도시한 것처럼, 동공 추출 유닛(230)은 1차 예비 동공 영역(AR12)에서, 최상측 열(Yp)에 위치하는 화소행의 가운데 위치하는 1차 예비 동공 화소, 최하측 열(Yp + 10)에 위치하는 화소행의 가운데 위치하는 1차 예비 동공 화소, 최좌측 행(Xn - 7)에 위치하는 화소열의 가운데 위치하는 1차 예비 동공 화소, 최우측 행(Xn-1)에 위치하는 화소열의 가운데 위치하는 1차 예비 동공 화소를 각각 제1 내지 제4 기준 화소(PXr1-PXr4)로 정한다.
따라서, 동공 추출 유닛(230)은 1차 예비 동공 영역(AR12)의 각 모서리 부분에 위치하는 네 개의 1차 예비 동공 화소[PX(Xn -9, Yp), PX(Xn -9, Yp +10), PX(Xn, Yp) 및 PX(Xn, Yp +10)]의 위치 정보(Xn -9, Xn, Yp, Yp + 10)를 이용하여 1차 예비 동공 영역(AR12)의 각 최상측 화소행, 최하측 화소행, 최좌측 화소열 및 촤우측 화소열에서 가운데에 위치하는 1차 예비 동공 화소를 각각 제1 내지 제4 기준 화소(PXr1, PXr2, PXr3, PXr4)로 정하고, 이들 제1 내지 제4 기준 화소(PXr1, PXr2, PXr3, PXr4)에 대한 위치 정보를 저장부(300)에 저장한다.
이때, 동공 추출 유닛(230)은 1차 예비 동공 영역(AR12)의 최상측 화소행, 최하측 화소행, 최좌측 화소열 및 최우측 화소열에서 가운데에 위치하는 1차 예비 동공 화소가 존재하지 않는 경우, 해당 화소행이나 화소열에서 가운데의 화소의 위치와 가장 인접하게 위치하는 하나의 1차 예비 동공 화소를 해당 기준 화소(예, PXr3)로 정한다.
이처럼, 각 1차 예비 동공 영역(AR12)의 각 모서리 화소[PX(Xn -9, Yp), PX(Xn -9, Yp +10), PX(Xn, Yp) 및 PX(Xn, Yp +10)]의 위치 정보를 이용하여 1차 예비 동공 영역(AR12)에서의 제1 내지 제4 기준 화소(PXr1, PXr2, PXr3, PXr4)가 정해지면, 동공 추출 유닛(230)은 각 기준 화소(PXr1, PXr2, PXr3, PXr4)를 이용하여 1차 예비 동공 영역(AR12)을 각각 제1 및 제2 열 방향과 제1 및 제2 행 방향으로 확장한 2차 예비 동공 영역(AR13)을 판정한다.
따라서, 동공 추출 유닛(230)은 저장부(300)에 저장되어 있는 최종 눈 영상 데이터에서 1차 예비 동공 영역(AR12)의 최상측 화소행에 위치한 제1 기준 화소(PXr1)의 바로 위에 위치하는 1차 예비 동공 화소, 즉 동일한 행(Xn - 3)에서 제1 열 방향(즉, 열의 번호가 감소하는 Y 방향)으로 하나의 열 단위로 이동하여 제1 기준 화소(PXr1)의 바로 위에 위치하는 1차 예비 동공 화소를 제1 비교 화소(PXc1)로 정한다(S110).
따라서, 도 6를 참고로 하면, 현재 정해진 제1 비교 화소(즉, 현재 제1 비교 화소)(PXc1)는 제1 기준 화소(PXr1)와 동일한 화소열에서 열의 번호가 '1'감소하는 위치(Yp-1)에 위치하고 있는 1차 예비 동공 화소(PXr1- 1)이다.
다음, 판정된 현재 제1 비교 화소(PXc1)에 대한 화소값과 제1 기준 화소(PXr1)의 화소값의 크기를 비교하여, 제1 기준 화소(PXr1)와 현재 제1 비교 화소(PXc1)의 화소값의 차이가 설정값 이하인지 판단한다(S111, S112).
제1 기준 화소(PXr1)와 현재 제1 비교 화소(PXc1)의 화소값 차이가 설정값 이하이면(S112), 다시 동공 추출 유닛(230)은 현재 제1 비교 화소의 위치에서 제1 열 방향으로 하나의 열 단위만큼 이동시켜, 현재 제1 비교 화소와 동일한 화소열에서 바로 위에 위치하는 1차 예비 동공 화소(PXr1- 2)를 현재 제1 비교 화소(PXc1)로 새롭게 정하고(S113), 제1 기준 화소 화소(PXr1)과 현재 제1 비교 화소(PXc1)의 화소값의 차이가 설정값 이하인지 판단한다(S111). 이때, 새로운 제1 비교 화소가 정해지기 바로 이전의 비교 화소는 이전 비교 화소로서 저장되고 새로 정해진 제1 비교 화소가 현재 비교 화소로 저장됨은 당연하다.
하지만, 제1 기준 화소(PXr1)와 현재 제1 비교 화소(PXc1)의 화소값의 차이가 설정값을 초과하게 되면(S112), 동공 추출 유닛(230)은 이전 제1 비교 화소(PXc1)가 위치하는 열의 위치를 2차 예비 동공 영역(AR13)의 최상측 열의 위치(예, 제1 열 위치)로 판단해 저장부(300)에 저장한다.
따라서, 동공 추출 유닛(230)은 제1 기준 화소(PXr1)와의 화소값 차이가 설정값 이하를 갖는 바로 이전에 이전 제1 비교 화소(PXc1)로 정해졌던 1차 예비 동공 화소(예, PXr1- 3)의 위치 정보(Xn -3, Yp - 3)를 이용하여 해당 1차 예비 동공 화소(예, PXr1- 3)가 위치한 열의 위치(Yp - 3)를 제1 열 위치로 정한다(S114).
이처럼, 동공 추출 유닛(230)은 제1 기준 화소(PXr1)에서 제1 열 방향을 따라 하나의 열 단위로 제1 비교 화소(PXc1)의 위치를 차례로 이동시키면서, 제1 기준 화소(PXr1)와 제1 비교 화소(PXc1)와의 화소값 차이가 설정값을 초과하는 제1 비교 화소(PXc1)(즉, 현재 제1 비교 화소)를 판정하고, 판정된 현재 제1 비교 화소(PXc1) 바로 이전에 정해진 제1 비교 화소(즉, 이전 제1 비교 화소)의 열 위치를 제1 열 위치를 판정한다.
이러한 방식과 동일하게, 동공 추출 유닛(230)은 다시 제2 기준 화소(PXr2)를 이용하여 1차 예비 동공 영역(AR13)의 최하측 열(예, 제2 열 위치)의 위치를 판단한다.
즉, 동공 추출 유닛(230)은 저장부(300)에 저장되어 있는 최종 눈 영상 데이터 중에서 1차 예비 동공 영역(AR12)의 최하측 열(Yp + 10)에 위치한 제2 기준 화소(PXr2)의 위치에서 제2 열 방향(즉, 제1 열 방향과 반대 방향으로 열의 번호가 증가하는 Y 방향)으로 하나의 열 단위만큼 바로 아래 쪽에 위치한 1차 예비 동공 화소(PXr2+1)를 현재의 제2 비교 화소(PXc2)로 정하여, 정해진 현재 제2 비교 화소(PXc2)의 화소값이 제2 기준 화소(PXr2)의 화소값을 초과하는지 판단한다(S115-S117).
현재 제2 비교 화소(PXc2)와 제2 기준 화소(PXr2)의 화소값 차이가 설정값 이하이며(S117), 현재 제2 비교 화소인 1차 예비 동공 화소(PXr2+ 1)에서 다시 하나의 열 단위만큼 제2 열 방향을 따라 위치한 바로 아래쪽의 1차 예비 동공 화소(PXr2+2)를 새로운 현재 제2 비교 화소(PXc2)로 정하여(S118) 제2 기준 화소(PXr2)와의 화소값 비교를 실시한다(S115).
따라서, 동공 추출 유닛(230)은 현재 제2 비교 화소(PXc2)와 제2 기준 화소(PXr2)와의 화소값 차이가 설정값을 초과할 때까지 현재 제2 비교 화소(PXc2)를 순차적으로 변경하면서 화소값 비교 동작을 실시한다.
제2 비교 화소(PXc2)와 현재 제2 기준 화소(PXr2)의 화소값의 차이가 설정값을 초과하면, 동공 추출 유닛(230)은 현재 제2 비교 화소(PXc2)의 바로 이전에 제2 비교 화소로 정해진 이전 제2 비교 화소인 1차 예비 동공 화소(예, PXr2+ 1)의 열 위치(YP+11)를 2차 동공 영역(AR13)의 제2 열 위치로 정한다(S119).
이러한 제1 및 제2 열 위치를 정하는 방식과 동일하게, 동공 추출 유닛(230)은 제3 및 제4 기준 화소(PXr3, PXr4)를 이용하여 제3 및 제4 기준 화소(PXr3, PXr4)와 각각 비교되는 현재 제3 비교 화소(PXc3)와 현재 제4 비교 화소(PXc4)를 정하고, 현재 제3 및 제4 비교 화소(PXc3, PXc4)의 화소값과 제3 및 제4 기준 화소(PXr3, PXr4)의 화소값을 각각 비교하여 2차 동공 영역의 최좌측 행의 위치(예, 제1 행 위치)와 최우측 행의 위치(예, 제2 행 위치)를 정한다.
이때, 제1 및 제2 열 위치를 정할 때는 각 해당 기준 화소(PXr1, PXr2)에서부터 제1 및 제2 열 방향을 따라 하나의 열 단위로 2차 예비 동공 화소의 위치를 감소시키거나 증가시켜 현재 제1 및 제2 비교 화소(PXc1, PXc2)를 정하였지만, 제1 및 제2 행 위치를 정할 때는 제1 및 제2 행 방향을 따라 각 해당 기준 화소(PXr3, PXr4)에서부터 하나의 행 단위로 2차 예비 동공 화소의 위치를 감소시키거나 증가시켜 현재 제3 및 제4 비교 화소(PXc3, PXc4)를 정한다는 것만 상이하다(S120-S124, S125-S129).
여기서, 제1 행 방향은 행의 번호가 감소하는 X 방향이고, 제2 행 방향은 제1 행 방향과 반대 방향으로서 행의 번호가 증가하는 X 방향이다.
이러한 동공 추출 유닛(230)의 화소값 비교 동작에 의해, 현재 제3 비교 화소(PXc3)로 정해진 1차 예비 동공 화소(PXr3- 3)와 현재 제4 비교 화소(PXc4)로 정해진 1차 예비 동공 화소(PXr4+ 4)와의 화소값 차이가 각각 설정값을 초과한 1차 예비 동공 화소이면, 이들 1차 예비 동공 화소(PXr3-3, PXr4+ 4)와 동일한 열에 위치하여 바로 이전에 현재 제3 비교 화소(PXc3)와 제4 비교 화소(PXc4)로 정해졌던 1차 예비 동공 화소(PXr3-2, PXr4+ 3)의 행 위치가 각각 2차 예비 동공 영역(AR13)의 제1 행 위치와 제2 행 위치가 된다.
이러한 동공 추출 유닛(230)의 동작에 의해, 제1 및 제2 열 위치와 제1 및 2 행 위치가 정해지면, 동공 추출 유닛(230)은 이들의 위치 정보를 이용하여 사각형으로 구획된 영역을 정의하여 2차 예비 동공 영역(AR13)으로 정하고, 이 2차 예비 동공 영역(AR13)에 포함되는 화소를 2차 예비 동공 화소로서 저장부(300)에 저장된다(S130).
이러한 동공 추출 유닛(230)의 동작에 의해 도 3b에 도시한 1차 예비 동공 영역(AR12)에서 추출된 2차 예비 동공 영역(AR13)의 한 예는 도 6와 같다.
이처럼, 2차 예비 동공 영역(AR13)은 1차 예비 동공 영역(AR12)을 기초로 하여 정해지지만, 열 방향과 행 방향으로 각각 확장되는 정도가 각 기준 화소(PXr1-PXr4)와 각 비교 화소(PXc1-PXc4)와의 화소값 차이를 이용하여 정해지므로, 1차 예비 동공 영역(AR12)의 중심에 위치하는 1차 예비 동공 화소의 위치와 2차 예비 동공 영역(AR13)의 중심에 위치하는 2차 예비 동공 화소의 위치는 서로 상이할 수 있다.
따라서, 본 예에 따른 동공 추출 유닛(230)의 동작에 의해 최종 동공 영역의 추출 동작의 정확도가 증가한다.
이러한 동공 추출 유닛(230)의 동작에 의해, 도 4의 (b)에 도시한 영상을 기초하여 추출된 2차 예비 동공 영역(AR13)은 도 7과 같이 정보 출력부(400)로 출력될 수 있다.
이처럼, 2차 예비 동공 영역(AR13)이 추출되면, 동공 추출 유닛(230)은 2차 예비 동공 영역(AR13)의 네 꼭지점에 위치하는 각 모서리 화소[PX(Xn -9, Yp -3), PX(Xn-9, Yp +11, PX(Xn +2, Yp +3), PX(Xn +2, YP +11)]의 위치 정보(Xn -9, Xn +2, Yp -3, YP + 11)를 이용하여 2차 예비 동공 영역(AR13)의 가운데 부분에 위치하는 2차 예비 동공 화소를 2차 예비 동공 영역(AR13)의 중심 화소(PXcent)로 판정한다(S131).
그런 다음, 동공 추출 유닛(230)은 2차 예비 동공 영역(AR13)에 포함된 2차 예비 동공 화소의 위치 정보를 이용하여 중심 화소(PXcent)로부터 제1 및 제2 열까지의 거리(R131, R132)와 제1 및 제2 행까지의 거리(R133, R134)를 산출한다(S131). 이때, 거리(R131, R132, R133, R134)는 제1 및 제2 열과 제1 및 제2 행에서 중심 화소(PXcent)와 동일한 행과 동일한 열에 위치하는 화소까지의 직선 거리이다.
이와 같이, 중심 화소(PXcent)로부터 2차 예비 동공 영역(AR13)의 최상측 열(제1 열), 최하측 열(제2 열), 최좌측 행(제1 행) 및 최우측 행(제2 행)까지의 거리(R131, R132, R133, R134)가 산출되면, 동공 추출 유닛(230)은 산출된 거리(R131, R132, R133, R134) 중에서 가장 큰 값을 갖는 거리(R131, R132)를 판정한다(S133).
다음, 동공 추출 유닛(230)은 중심 화소(PXcent)를 중심점으로 하고 판정된 거리(예, R131)를 반지름으로 하는 원 영역을 정하여 이 원영역에 포함되는 2차 예비 동공 화소를 최종 동공 화소로 판정하고, 이들 최종 동공 화소가 포함되는 영역을 최종 동공 영역(AR20)으로 판정한다(S134).
본 예의 경우, 산출된 거리(R131, R132, R133, R134) 중에서 가장 큰 값을 이용하여 최종 동공 영역(AR20)을 판정하므로, 실제 동공 영역 중에서 제외되는 부분없이 정확하게 동공 영역을 추출할 수 있게 된다.
하지만, 본 예와 달리, 대안적인 예에서는 산출된 거리(R131, R132, R133, R134) 중에서 가장 작은 값을 이용하여 최종 동공 영역(AR20)을 판정할 수도 있고, 이 경우, 최종 동공 영역(AR20)에 포함되는 최종 동공 화소의 정확도가 증가하게 된다.
그런 다음, 최종 동공 영역(AR20) 내에 포함되는 2차 예비 동공 화소의 위치 정보 및 화소값을 최종 동공 화소의 위치 정보 및 화소값으로 저장부(300)에 저장한다(S135).
이러한 본 예의 동공 추출 유닛(230)의 동작에 의해, 도 7의 영상을 기초하여 추출된 최종 동공 영역(AR20)은 도 9와 같다.
최종 동공 영역(AR20)이 판정되면, 동공 추출 유닛(230)은 홍채 추출 유닛(240)으로 동공 추출 동작의 완료 상태를 알려주고, 이로 인해, 홍채 추출 유닛(240)의 동작이 시작된다(S20).
따라서, 홍채 추출 유닛(240)은 최종 동공 영역(AR20)을 위해 판정된 거리(예, R131), 즉 최종 동공 영역(AR20)의 반지름 크기(R131)를 이용하여 홍채 추정용 단위 영역의 세로변의 크기를 정하고, 정해진 세로변의 크기를 기초로 하여 가로변의 크기를 정한다(S21).
이때, 홍채 추정용 단위 영역은 직사각형의 영역으로서, 세로변의 크기는 가로변의 크기보다 크며, 반지름 크기(R131)와 이들 세로변과 가로변의 크기 비율은 이미 정해져 있다.
다음, 홍채 추출 유닛(240)은, 도 9에 도시한 것처럼, 판정된 최종 동공 영역(AR20)의 일측 최외각 화소열[즉, 최종 동공 영역(AR20)의 최좌측에 위치한 화소열이나 최우측에 위치한 화소열 중 하나]에서부터 제1 행 방향이나 제2 행 방향 중 하나인 정해진 행 방향(예, 제1 행 방향)으로 정해진 거리(즉, 정해진 행의 개수)(R50)만큼 이격되어 있는 화소열(이하, 이 화소열을 '분할 기준 화소열'이라 함)을 판정한다(S22).
이때, 정해진 거리(R50)는 최종 동공 영역(AR20)의 반지름 크기(R131)를 이용하여 이미 정해져 있다.
따라서, 홍채 추출 유닛(240)은 최종 눈 영상 데이터 중에서 분할 기준 화소열에서부터 제1 행 방향 또는 제2 행 방향으로 이동하면서 최종 눈 영상 데이터, 즉 해당 눈 영역에 해당하는 최종 눈 영상 데이터를 홍채 추정용 단위 영역만큼 분할하여 복수 개(예, m개)의 홍채 추정 영역을 생성하고, 생성된 각 홍채 추정 영역을 순차적으로 정해진 다른 홍채 추정 영역과 쌍을 이뤄 평균 화소값의 차이값을 산출해 그 차이값에 대한 절대값을 산출하는 동작을 수행한다.
이처럼, 정해진 거리(R50)만큼 이격된 눈 영역에 대한 평균 화소값의 산출 동작이 이루어지므로, 평균 화소값의 차이값 산출 동작 없이도 홍채 영역임이 확실한 눈 영역에 대한 최종 눈 영상 데이터 즉, 최종 동공 영역(AR20)의 가장자리 부분과 인접하게 위치하고 있는 눈 영역에 대한 홍채 추정 영역으로의 분할 동작과 평균 화소값의 차이값 산출 동작이 생략되어, 홍채 추출 유닛(240)의 처리 시간이 단축된다.
또한, 제1 또는 제 2 열 방향이 아니라 제1 또는 제2 행 방향으로 이동하면서 최종 눈 영상 데이터의 분할 동작이 행해짐에 따라, 홍채 추출 유닛(240)은 최종 눈 영상 데이터 중에서 눈의 상부 영역과 하부 영역에 해당하는 최종 눈 영상 데이터 대신 눈의 좌측 영역이나 우측 영역에 해당하는 최종 눈 영상 데이터를 이용하여 홍채 영역을 추출하게 된다. 이로 인해, 눈꺼풀로 덮여지지 않고 온전해 노출되어 촬영된 눈의 좌측 영역이나 눈의 우측 영역을 이용하여 홍채 영역을 추정하게 되므로, 정확한 홍채 영역을 판정할 수 있다.
따라서, 홍채 추출 유닛(240)은 최종 눈 영상 데이터 중에서 분할 기준 화소열에서부터 제1 방향으로 홍채 추적용 단위 영역만큼 이동한 눈 영역에 해당하는 최종 눈 영상 데이터를 추출하고, 추출된 최종 눈 영상 데이터를 i번째 홍채 추정 영역(DR1)의 영상 데이터로서 저장한다(S23).
그런 다음, 홍채 추출 유닛(240)은 추출된 i번째 홍채 추정 영역에 속하는 영상 데이터에 대한 화소들의 평균 화소값을 산출하여 저장한다(S23, S24). 여기서, i=1, 2, 3, ..., m이다.
이때, i번째 홍채 추정 영역에서 화소열의 가운데 위치하는 화소와 최종 동공 영역(AR20)의 중심 화소(PXcent)는 동일한 열에 위치하도록 홍채 추적용 단위 영역의 열 위치를 정한다.
이러한 홍채 추출 유닛(240)의 동작에 의해, 눈 영상에 해당하는 최종 눈 영상 데이터 중에서 첫 번째 홍채 추정 영역에 해당하는 영상 데이터의 추출 동작이 이루어진다. 이러한 홍채 추출 유닛(240)의 동작은 정해진 개수만큼의 홍채 추정 영역이 생성될 때까지 행해지므로, 결과적으로 해당 눈 영역에 관련된 최종 눈 영상 데이터는 복수 개의 홍채 추정 영역으로 분할된다. 이때, 분할되는 홍채 추정 영역의 총 개수는 이미 정해져 있고, 최종 동공 영역의 반지름(R131)의 크기에 따라 총 개수는 가변될 수 있다.
따라서, 홍채 추출 유닛(240)은 현재까지 생성된 총 홍채 추정 영역의 개수가 설정 개수에 도달했는지 판단하여(S25), 설정 개수만큼 홍채 추정 영역이 생성되지 않으면 생성되는 홍채 추정 영역의 순번을 '1' 증가시키고(i=i+1), 단계(S23)로 넘어간다(S26).
이로 인해, 홍채 추출 유닛(240)은 현재의 홍채 추정 영역에서 다시 홍채 추정용 단위 영역만큼 제1 행 방향으로 이동한 눈 영역에 해당하는 최종 눈 영상 데이터를 추출하여 두 번째 홍채 추정 영역(DR2)의 영상 데이터로서 저장부(300)에 저장하고 두 번째 홍채 추정 영역(DR2)에 대한 평균 화소값을 산출해 저장부(300)에 저장한다.
하지만, 단계(S25)에서, 현재 생성된 홍채 추정 영역의 개수가 설정 개수(m개)에 도달하여 설정 개수만큼의 홍채 추정 영역이 생성되면, 홍채 추출 유닛(240)은 각 홍채 추정 영역과 각 홍채 추정 영역과 정해진 개수(j)만큼, 즉 정해지 순번만큼 이격되어 있는 다른 홍채 추정 영역, 즉 i번째 홍채 추정 영역(예, 제1 홍채 추정 영역)과 (i+j)번째 홍채 추정 영역(예, 제2 홍채 추정 영역)의 평균 화소값의 차이값을 산출한다. 여기서 j는 설정값으로서 예를 들어 2일 수 있다.
이때, 정해진 개수(j)의 값은 홍채 추정용 단위 영역의 가로변의 크기에 따라 정해지고, 가로변의 크기가 증가할수록 감소하고 가로변의 크기가 감소할수록 커질 수 있다.
따라서, 홍채 추출 유닛(240)는 먼저 첫 번째 홍채 추정 영역(DR1)의 평균 화소값과 세번째 홍채 추정 영역(DR3)의 평균 화소값의 차이값을 산출하여, 그 차이값에 대한 절대값을 저장부(300)에 저장한다(S26).
그런 다음, 홍채 추출 유닛(240)은 제1 홍채 추정 영역의 순번을 '1' 증가시킨 새로운 제1 홍채 추정 영역인 두 번째 홍채 추정 영역(DR2)의 평균 화소값과 두 번째 홍채 추정 영역(DR2)과 정해진 개수(즉, 2개)만큼 이격되어 있는 새로운 제2 홍채 추정 영역인 네 번째 홍채 추정 영역(DR4)의 평균 화소값의 차이값을 산출하여, 그 차이값에 대한 절대값을 저장부(300)에 저장한다(S27, S28).
이처럼, 홍채 추출 유닛(240)은 생성된 복수 개(m)의 홍채 추정 영역의 순번을 차례로 증가시키면서 해당 개수만큼 이격되어 있는 다른 홍채 추정 영역과의 평균 화소값 차이를 산출하여 차이에 대한 절대값의 저장 동작을 반복적으로 실시한다.
따라서, 정해진 순번(i=m-j)까지 홍채 추정 영역에 대한 평균 화소값의 차이값 산출 및 이에 대한 절대값 저장 동작이 완료되면, 홍채 추출 유닛(240)은 생성된 홍채 추정 영역의 평균 화소값에 대한 차이값 산출 및 절대값 저장 동작을 종료한다.
이처럼, 홍채 추출 유닛(240)은 서로 평균 화소값의 차이값을 산출할 수 있는 두 개의 홍채 추정 영역이 존재할 때까지 두 평균 화소값의 차이값을 산출하게 되므로, 마지막 순번(i=m)의 홍채 추정 영역과 이 마지막 순번(i=m)의 홍채 추정 영역을 포함한 정해진 개수(j=2)만큼의 홍채 추정 영역에 대한 평균 화소값에 대한 차이값 산출 및 절대값 저장 동작은 이루어지지 않게 된다.
예를 들어, 생성된 총 홍채 추정 영역의 개수가 50개로서, 첫 번째부터 50번째까지 홍채 추정 영역이 존재하고 정해진 이격 거리의 값이 '2'인 경우, 첫 번째부터 48번째의 홍채 추정 영역에 대한 평균 화소값에 대한 차이값 산출 및 절대값 저장 동작은 이루어진다. 하지만, 맨 마지막 번째인 50번째 홍채 추정 영역과 49번째 홍채 추정 영역은 각각 자신의 평균 화소값과의 차이를 산출할 수 있는 후속 홍채 추정 영역이 존재하지 않으므로, 이들 50번째와 49번째 홍채 추정 영역에 대한 평균 화소값에 대한 차이값 산출 및 절대값 저장 동작은 이루어지지 않게 된다.
이처럼, 정해진 순번(i=m-j)까지 홍채 추정 영역에 대한 평균 화소값의 차이값 산출 및 이에 대한 절대값 저장 동작이 완료되면, 홍채 추출 유닛(240)은 산출된 절대값 중에서 가장 큰 값을 갖는 절대값을 판정하여(S29), 인접한 후속 홍채 추정 영역의 평균 화소값과의 차이가 가장 큰 해당 홍채 추정 영역의 순번을 판정한다(S210).
다음, 홍채 추정 유닛(240)는 판정된 순번의 홍채 추정 영역에 속하는 화소열 중에서 최외각에 위치하는 최외각 화소열의 위치 정보를 이용하여 해당 최외각 화소열의 행 위치를 판정한다(S211).
최외각 화소열의 행 위치가 판정되면, 홍채 추출 유닛(240)은 중심 화소(PXcent)가 위치한 행에서부터 최외각 화소행의 행까지의 직선 거리를 산출하고, 산출된 거리를 홍채 영역 반지름(R30)으로 정한다(S212, S213).
그런 다음, 홍채 추출 유닛(240)은 산출된 홍채 영역 반지름(R30)을 반지름으로 하는 원 영역을 판정하여 이를 홍채 영역(AR30)으로 정하고(S214), 이 홍채 영역(AR30)에 포함되는 화소의 정보(즉, 화소 위치 및 화소값)를 홍채 화소의 정보로서 저장부(300)에 저장한다(S215).
본 예의 경우, 제1 방향으로 홍채 추정용 단위 영역만큼 이동하면서 홍채 추정 영역을 생성하고 최종 눈 영상 데이터에서 각 생성된 홍채 추정 영역에 대한 최종 눈 영상 데이터를 추출하여 홍채 영역을 추정하지만, 이와는 달리, 제1 행 방향과 반대 방향인 제2 행 방향으로 홍채 추정용 단위 영역 단위만큼 이동하면 복수 개의 홍채 추정 영역을 생성할 수 있다.
이러한 본 실시예의 동작에 따라 최종 눈 영상 데이터에서 홍채 영역이 추출되므로, 흰자 부분과의 경계에 위치하는 홍채 영역까지도 정확하게 홍채 영역으로 추출되어 홍채 추출 동작의 정확도가 향상된다.
이상, 본 발명의 홍채 추출 장치의 실시예들에 대해 설명하였다. 본 발명은 상술한 실시예 및 첨부한 도면에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자의 관점에서 다양한 수정 및 변형이 가능할 것이다. 따라서 본 발명의 범위는 본 명세서의 청구범위뿐만 아니라 이 청구범위와 균등한 것들에 의해 정해져야 한다.
100: 영상 획득부 200: 홍채 추출부
210: 눈영상 데이터 추출 유닛 220: 전처리 유닛
230: 동공 추출 유닛 240: 홍채 추출 유닛
300: 저장부

Claims (11)

  1. 최종 눈 영상 데이터와 최종 동공 영역에 포함되는 최종 동공 화소의 위치 정보와 화소값이 저장되어 있는 저장부; 및
    상기 최종 동공 영역의 일측 최외각 화소열을 기준으로 하여 정해진 행 방향을 따라 홍채 추정용 단위 영역만큼 상기 최종 눈 영상 데이터를 분할하여 복수 개의 홍채 추정 영역을 생성하고 각 홍채 추정 영역에 해당하는 최종 눈 영상 데이터의 평균 화소값을 산출하며, 복수 개의 홍채 추정 영역 중에서 각 홍채 추정 영역과 상기 각 홍채 추정 영역과 정해진 순번만큼 이격되어 있는 후속 홍채 추정 영역의 평균 화소값의 차이값을 이용하여 홍채 영역을 추정하는 홍채 추출부
    를 포함하는 홍채 인식 장치.
  2. 제1항에서,
    상기 홍채 추정용 단위 영역의 가로변과 세로변의 크기는 상기 최종 동공 영역의 반지름의 크기에 따라 정해지는 홍채 인식 장치.
  3. 제1항에서,
    상기 홍채 추출부는,
    산출된 차이값 중에서 가장 큰 절대값을 갖는 차이값을 판정하고,
    판정된 상기 차이값을 나타내는 해당 홍채 추정 영역의 순번을 판정하여 판정된 순번의 홍채 추정 영역의 최외각 화소열의 행 위치를 판정하고,
    상기 최종 동공 영역의 중심 화소의 행 위치에서 상기 최외각 화소열의 행 위치까지의 직선 거리를 반지름으로 하는 원 영역을 홍채 영역으로 판정하는
    홍채 인식 장치.
  4. 제1항에서,
    상기 홍채 추출부는,
    상기 최종 동공 영역의 일측 최외각 화소열에서부터 정해진 행 방향으로 정해진 거리만큼 이격되어 있는 화소열일 분할 기준 화소열을 판정하고,
    상기 분할 기준 화소열에서부터 상기 홍채 추정용 단위 영역만큼 상기 최종 눈 영상 데이터를 분할하여 복수 개의 홍채 추정 영역을 생성하는
    홍채 인식 장치.
  5. 제1항에서,
    상기 홍채 추출부는,
    상기 저장부에 저장되어 있는 최종 눈 영상 데이터에서 제1 설정값 이상인 화소값을 갖는 화소와 상기 제1 설정값보다 큰 제2 설정값 이하인 화소값을 갖는 화소를 추출한 후 상기 제1 설정값과 동일한 화소값을 갖는 화소를 이용해 1차 예비 동공 화소를 선택하여 상기 1차 예비 동공 화소가 포함되는 1차 예비 동공 영역을 판정하고,
    상기 1차 예비 동공 영역의 최상측 화소행, 최하측 화소행, 최좌측 화소열 및 최우측 화소열에 각각 위치하는 제1 내지 제4 기준 화소를 이용하여 상기 1차 예비 동공 영역을 제1 및 제2 열 방향과 제1 및 제2 행 방향으로 확장시켜 제1 및 제2 열과 제1 및 제2 행로 정해지는 2차 예비 동공 영역을 판정하고,
    상기 2차 예비 동공 영역의 중심에 위치하는 중심 화소와 상기 2차 예비 동공 영역의 상기 제1 열, 상기 제2 열, 상기 제1 행 및 상기 제2 행 중 하나까지의 거리를 반지름으로 하는 원 영역을 정하여 상기 원 영역에 포함되는 2차 예비 동공 영역을 최종 동공 화소로 판정하고, 상기 최종 동공 화소가 포함되는 영역을 최종 동공 영역으로 판정하는
    홍채 인식 장치.
  6. 제5항에서,
    상기 홍채 추출부는 상기 1차 예비 동공 영역의 최상측 화소행의 가운데에 위치하는 1차 예비 동공 화소, 최하측 화소행의 가운데에 위치하는 1차 예비 동공 화소, 최좌측 화소열의 가운데에 위치하는 1차 예비 동공 화소 및 최우측 화소열의 가운데에 위치하는 1차 예비 동공 화소를 각각 상기 제1 내지 제4 기준 화소로 정하는 홍채 인식 장치.
  7. 제5항에서,
    상기 홍채 추출부는,
    상기 제1 기준 화소에서 상기 제1 열 방향을 따라 열 단위로 제1 비교 화소의 위치를 차례로 이동시키면서 상기 제1 기준 화소의 화소값과 상기 제1 비교 화소의 화소값의 차이가 설정값을 초과하는 제1 비교 화소를 판정하고, 판정된 제1 비교 화소 바로 이전의 제1 비교 화소의 열 위치를 상기 제1 열의 위치로 판정하고,
    상기 제2 기준 화소에서 상기 제1 열 방향과 반대 방향인 상기 제2 열 방향을 따라 열 단위로 제2 비교 화소의 위치를 차례로 이동시키면서 상기 제2 기준 화소의 화소값과 상기 제2 비교 화소의 화소값의 차이가 설정값을 초과하는 제2 비교 화소를 판정하고, 판정된 제2 비교 화소 바로 이전의 제2 비교 화소의 열 위치를 상기 제2 열의 위치로 판정하고,
    상기 제3 기준 화소에서 상기 제1 행 방향을 따라 행 단위로 제3 비교 화소의 위치를 차례로 이동시키면서 상기 제3 기준 화소의 화소값과 상기 제3 비교 화소의 화소값의 차이가 설정값을 초과하는 제3 비교 화소를 판정하고, 판정된 제3 비교 화소 바로 이전의 제3 비교 화소의 행 위치를 상기 제1 행의 위치로 판정하고,
    상기 제4 기준 화소에서 상기 제1 행 방향과 반대 방향인 상기 제2 행 방향을 따라 행 단위로 제4 비교 화소의 위치를 차례로 이동시키면서 상기 제4 기준 화소의 화소값과 상기 제4 비교 화소의 화소값의 차이가 설정값을 초과하는 제4 비교 화소를 판정하고, 판정된 제4 비교 화소 바로 이전의 제4 비교 화소의 행 위치를 상기 제2 행의 위치로 판정하는
    홍채 인식 장치.
  8. 제5항에서,
    상기 홍채 추출부는,
    상기 최종 눈 영상 데이터에서 상기 제1 설정값 이상인 화소값을 갖는 화소와 상기 제1 설정값보다 큰 제2 설정값 이하인 화소값을 갖는 화소를 추출하여 추정 동공 화소로 정하고,
    추정 동공 화소 중에서 이웃한 다른 추정 동공 화소와 행 방향과 열 방향 중 어느 한 방향으로 미리 정해진 개수만큼 연속되게 위치하지 않는 추정 동공 화소를 제거하여 상기 1차 예비 동공 화소를 추출하는
    홍채 인식 장치.
  9. 제8항에서,
    상기 이웃한 다른 추정 동공 화소는 행 방향과 열 방향으로 다른 추정 동공 화소와 연속되게 위치하는 홍채 인식 장치.
  10. 제8항에서,
    상기 홍채 추출부는 상기 중심 화소와 상기 2차 예비 동공 영역의 상기 제1 열, 상기 제2 열, 상기 제1 행 및 상기 제2 행 중 가장 먼 곳까지의 거리를 상기 원 영역의 반지름으로 정하는 홍채 인식 장치.
  11. 제8항에서,
    상기 홍채 추출부는 상기 중심 화소와 상기 2차 예비 동공 영역의 상기 제1 열, 상기 제2 열, 상기 제1 행 및 상기 제2 행 중 가장 짧은 곳까지의 거리를 상기 원 영역의 반지름으로 정하는 홍채 인식 장치.
PCT/KR2018/015823 2018-01-23 2018-12-13 홍채 인식 장치 WO2019146907A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0008426 2018-01-23
KR1020180008426A KR102037781B1 (ko) 2018-01-23 2018-01-23 홍채 인식 장치

Publications (1)

Publication Number Publication Date
WO2019146907A1 true WO2019146907A1 (ko) 2019-08-01

Family

ID=67395424

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/015823 WO2019146907A1 (ko) 2018-01-23 2018-12-13 홍채 인식 장치

Country Status (2)

Country Link
KR (1) KR102037781B1 (ko)
WO (1) WO2019146907A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080025610A (ko) * 2006-09-18 2008-03-21 한국전자통신연구원 홍채 검출 방법 및 이를 위한 장치
JP2010220942A (ja) * 2009-03-25 2010-10-07 Yaskawa Information Systems Co Ltd 瞳孔計測装置、瞳孔計測方法ならびに瞳孔計測プログラム
KR101744196B1 (ko) * 2016-04-22 2017-06-20 주식회사 에프에스솔루션 후방 감지 방법 및 그 장치
KR101761586B1 (ko) * 2016-12-21 2017-07-27 주식회사 쓰리이 홍채와 공막의 경계선 검출 방법
KR101769741B1 (ko) * 2016-09-26 2017-08-21 크루셜텍 (주) 동공 탐지를 통한 홍채 인식 방법 및 홍채 인식 장치

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100397750B1 (ko) 2000-03-24 2003-09-13 김회율 홍채 인식을 위한 실시간 동공 검출 방법
KR100572410B1 (ko) 2003-03-03 2006-04-18 엘지전자 주식회사 홍채 인식을 위한 동공 영역 추정방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080025610A (ko) * 2006-09-18 2008-03-21 한국전자통신연구원 홍채 검출 방법 및 이를 위한 장치
JP2010220942A (ja) * 2009-03-25 2010-10-07 Yaskawa Information Systems Co Ltd 瞳孔計測装置、瞳孔計測方法ならびに瞳孔計測プログラム
KR101744196B1 (ko) * 2016-04-22 2017-06-20 주식회사 에프에스솔루션 후방 감지 방법 및 그 장치
KR101769741B1 (ko) * 2016-09-26 2017-08-21 크루셜텍 (주) 동공 탐지를 통한 홍채 인식 방법 및 홍채 인식 장치
KR101761586B1 (ko) * 2016-12-21 2017-07-27 주식회사 쓰리이 홍채와 공막의 경계선 검출 방법

Also Published As

Publication number Publication date
KR102037781B1 (ko) 2019-10-29
KR20190089633A (ko) 2019-07-31

Similar Documents

Publication Publication Date Title
WO2014058248A1 (ko) 단일객체에 대한 기울기를 추정하는 영상을 감시하는 장치 및 방법
WO2018117353A1 (ko) 홍채와 공막의 경계선 검출 방법
WO2015174647A1 (ko) 사용자 인증 방법, 이를 실행하는 장치 및 이를 저장한 기록 매체
WO2016163755A1 (ko) 품질 측정 기반의 얼굴 인식 방법 및 장치
WO2017099427A1 (ko) 손가락 마디 및 지정맥 기반의 융합형 생체 인증 방법 및 그 장치
WO2015137635A1 (en) Image pickup apparatus and method for generating image having depth information
WO2011052826A1 (ko) 이동 로봇의 위치 인식을 위한 지도 생성 및 갱신 방법
US7868915B2 (en) Photographing apparatus, method and computer program product
WO2010041836A2 (en) Method of detecting skin-colored area using variable skin color model
KR20130000828A (ko) 얼굴 피쳐 검출 방법
WO2018070844A1 (ko) 에지 모델링을 위한 에지 블러 설정 방법
WO2016122068A1 (ko) 타이어 인식 방법 및 장치
WO2016060439A1 (ko) 영상 처리 방법 및 장치
WO2010008134A2 (en) Image processing method
WO2019168264A1 (ko) 전자 장치 및 그 제어 방법
JP2000105819A (ja) 顔領域検出装置
WO2022092743A1 (ko) 차량 번호판에서 문자를 추출하는 방법 및 상기 방법을 수행하는 번호판 문자 추출 장치
WO2019146907A1 (ko) 홍채 인식 장치
WO2012015156A2 (ko) 열적외선을 이용한 환경독립형 교통검지시스템
WO2021071118A1 (ko) 전경 분리 장치 및 방법
WO2019146906A1 (ko) 동공 인식 장치
WO2023136414A1 (ko) 도로 상의 위험물 정보를 수집하기 위한 정보 수집 단말 장치 및 그 동작 방법
WO2018088649A1 (ko) 글린트 검출 방법
WO2016104842A1 (ko) 카메라의 왜곡을 고려한 물체 인식 시스템 및 방법
WO2023128112A1 (ko) 차량에 탑재된 정보 수집 단말과의 연동을 통해 도로 상의 위험물 정보를 수집하여 관리할 수 있는 위험물 정보 관리 서버 및 그 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18902755

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18902755

Country of ref document: EP

Kind code of ref document: A1