WO2018117353A1 - 홍채와 공막의 경계선 검출 방법 - Google Patents

홍채와 공막의 경계선 검출 방법 Download PDF

Info

Publication number
WO2018117353A1
WO2018117353A1 PCT/KR2017/005841 KR2017005841W WO2018117353A1 WO 2018117353 A1 WO2018117353 A1 WO 2018117353A1 KR 2017005841 W KR2017005841 W KR 2017005841W WO 2018117353 A1 WO2018117353 A1 WO 2018117353A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixels
pixel
pixel group
iris
brightness values
Prior art date
Application number
PCT/KR2017/005841
Other languages
English (en)
French (fr)
Inventor
김민호
Original Assignee
주식회사 쓰리이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 쓰리이 filed Critical 주식회사 쓰리이
Publication of WO2018117353A1 publication Critical patent/WO2018117353A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons

Definitions

  • the present invention relates to a method for detecting the boundary between the iris and the sclera, and more particularly, to a method for detecting the boundary between the iris and the sclera in a part of an image of an image of a user's eye region.
  • Biometric technology refers to a technology for authenticating a user using a personal biometric newspaper, such as a fingerprint, an iris, and a blood vessel.
  • the iris recognition technology refers to a technology that utilizes iris information having a unique pattern for each person and uses it for user authentication.
  • an iris region In order to perform a user authentication procedure using the iris information, first, an iris region must be detected from an image of the eye region of the user. As a preprocessing process for detecting the iris area, after detecting the center of the pupil in the image of the eye region of the user, the distance from the center of the pupil to the boundary point between the iris and the sclera should be calculated.
  • 1 is a view for explaining the distance from the center of the pupil to the boundary point between the iris and the sclera.
  • the image 10 photographing the eye region of the user includes a pupil region 20, an iris region 30, and a sclera region 40.
  • the portion used for user authentication is an image of the iris region 30.
  • the center of the pupil is detected in the pupil region 20, and then the iris region 30 and the sclera are detected.
  • the length of the boundary line d of the area 40 is calculated and image data excluding the pupil area 20 is obtained from the inner circle area having the length d to the boundary as a radius.
  • a circular boundary detector was used to calculate the length d from the center of the pupil to the boundary line between the iris region 30 and the sclera region 40.
  • the conventional method has a problem that the calculation time is long because it depends on the global search of the image.
  • an object of the present invention is to provide an iris radius measuring method that can calculate the distance from the center of the pupil to the boundary line of the iris and sclera.
  • a method for detecting a boundary between a pupil and an iris including: receiving an image photographing an eye region of a user, selecting pixels included in a predetermined region in the image; Selecting pixels having the same direction from the center of the pupil among the pixels included in the preset area; generating a pixel group by selecting a preset number of pixels having the same direction from the pupil center; Calculating a feature value of the pixel group by comparing brightness values between adjacent pixels among pixels belonging to the pixel group, selecting a pixel group having the maximum feature value, and sequentially moving to the left from the center pixel of the selected pixel group The sum of the brightness values of the pixels on the left and each of the pixels on the right Calculating a sum of brightness values and determining a pixel whose sum of brightness values of the pixels located on the right side is greater than the sum of brightness values of the pixels located on the left side as a pixel corresponding to the boundary between the iris and the sclera. do.
  • the selecting of pixels included in a predetermined area of the image may include selecting pixels having a direction of ⁇ ⁇ ° or more and ⁇ ⁇ ° or less based on the pupil center at predetermined angle intervals. And selecting a pixel having a predetermined length from a pixel spaced apart from the pupil center by a predetermined distance while satisfying the direction condition.
  • the brightness values of pixels having the direction ⁇ ⁇ ° are arranged in the uppermost row with respect to the pupil center, and are sequentially arranged in the lower row whenever the direction is rotated by a predetermined angle interval.
  • the brightness values of the pixels having the direction ⁇ ⁇ ° are arranged in the lowermost row, and the brightness values of the pixels closest to the pupil center are arranged in the leftmost column, and the further away from the pupil center, the rightward sequentially from the leftmost column. And arranging the columns to generate a matrix.
  • selecting pixels having the same direction from the pupil center among the pixels included in the preset area may include selecting pixels included in the same row among component values included in the matrix. It may include a step.
  • the generating of the pixel group by selecting a predetermined number of pixels having the same direction from the pupil center may include selecting a predetermined number of component values for each row of the matrix to generate a first pixel value.
  • the calculating of the characteristic value of the pixel group by comparing brightness values between adjacent pixels among the pixels belonging to the pixel group may be performed for each pixel included in the pixel group. Calculating a difference value between a pixel brightness value and a brightness value of a pixel adjacent to the right, giving a value of 1 if the difference is a positive value, a value of -1 if the difference is a negative value, and summing all of the given values
  • the determining may include determining a value as a characteristic value of the pixel group.
  • the pixel group having the maximum characteristic value is selected, and the sum of the brightness values of pixels located on the left side of each pixel is sequentially moved to the left from the center pixel of the selected pixel group.
  • Computing the sum of the brightness value of the pixels located on the right, calculating the sum of the brightness value of the predetermined number of pixels located to the left based on the respective pixels, and the preset value located to the right of the respective pixels Calculating a sum of brightness values of the number of pixels.
  • the method may further include determining a pixel corresponding to a boundary line.
  • a difference value between a distance of one pixel determined as a pixel corresponding to the boundary line from the pupil center and a distance of other pixels corresponding to the boundary line from the pupil center are calculated. Calculating a number of cases where the difference value is less than or equal to a predetermined threshold value, and a distance at which the pixel having the most difference value when the difference value is less than or equal to a predetermined threshold value from the pupil center is separated from the pupil center.
  • the method may further include determining a distance to a boundary line of.
  • An apparatus for detecting an iris and sclera may include at least one processor, a memory for loading a computer program executed by the processor, and a computer program capable of detecting a boundary between the iris and the sclera.
  • the computer program may include a storage configured to store an image, wherein the computer program comprises: an operation of receiving an image of the eye area of the user, an operation of selecting pixels included in a preset area of the image, and pixels included in the preset area An operation of selecting pixels having the same direction from the center of the pupil, an operation of selecting a predetermined number of pixels having the same direction from the pupil center to generate a pixel group, and a brightness value between adjacent pixels among the pixels belonging to the pixel group Comparing to calculate the characteristic value of the pixel group Selects a pixel group having the maximum characteristic value, moves sequentially from the center pixel of the selected pixel group to the left, and sums the brightness values of the pixels located on the left and the brightness of the pixels located on the right An operation of calculating a sum of values and an operation of determining a pixel whose sum of brightness values of pixels located on the right side is larger than the sum of brightness values of pixels located on the left side as a pixel corresponding to the boundary between the iris and the sclera
  • 1 is a view for explaining the distance from the center of the pupil to the boundary point between the iris and the sclera.
  • FIG. 2 is a diagram for describing a process of acquiring only data of a part of an iris according to an embodiment of the present invention.
  • FIG. 3 is a diagram for describing a process of extracting pixel information from a portion of an iris according to an embodiment of the present invention.
  • FIG. 5 is a diagram for describing a process of applying blurring to selected pixels according to an embodiment of the present invention.
  • FIG. 6 is a view for explaining a process for detecting the boundary line between the iris and the sclera according to an embodiment of the present invention.
  • FIG. 7 is a diagram for describing a process of detecting a change in brightness value of a pixel for each row according to an exemplary embodiment of the present invention.
  • FIG. 8 is a diagram for describing a process of detecting a pixel corresponding to a boundary among pixels included in a pixel group having a maximum characteristic value according to an embodiment of the present invention.
  • FIG. 9 is a view for explaining a process of correcting the boundary line between the iris and the sclera according to an embodiment of the present invention.
  • FIG. 10 is a functional block diagram illustrating an apparatus for detecting a boundary line between an iris and a sclera according to an exemplary embodiment of the present invention.
  • FIG. 2 is a diagram for describing a process of acquiring only data of a part of an iris according to an embodiment of the present invention.
  • an image of the eye region of the user is first received.
  • An image of the user's eye region may include a pupil part, an iris part, and a sclera part as shown in FIG. 2.
  • the pixels included in the preset area are selected from the image photographing the eye area of the user.
  • the upper and lower portions may be covered by the eyelids, and thus, a predetermined region where full data cannot be obtained may be both side regions not covered by the eyelids.
  • the iris radius is calculated using the iris data of the corresponding portion. It may not be appropriate to do so.
  • the iris radius measuring method can measure the iris radius using only iris data of some areas where the iris is less likely to be covered by the upper and lower eyelids.
  • pixel information is extracted from the determined iris region.
  • FIG. 3 is a diagram for describing a process of extracting pixel information from a portion of an iris according to an embodiment of the present invention.
  • pixels having a direction of ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ may be selected at predetermined angle intervals using the pupil center as the origin.
  • the pixel information in the ⁇ ⁇ ° direction, the pixel information in the ⁇ ⁇ + 1 ° direction, the pixel information in the ⁇ ⁇ + 2 ° direction. Pixel information in the ⁇ ⁇ ° direction may be extracted.
  • the iris radius calculation method may extract only pixel information of a predetermined length from pixels spaced apart from the pupil center by a predetermined distance among pixels located in the direction selected from the pupil center as the origin. .
  • the length w means the length from the start point S to the end point E.
  • the starting point S may be determined by the following equation.
  • R means the radial length of the pupil of the pupil
  • Standard is a predetermined constant.
  • pixels of a selected area i.e., pixels whose direction ⁇ is ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ with the pupil center as the origin. According to an embodiment of the present invention, only w-length pixels are selected among the pixels having the first direction 410, the second direction 420, and the third direction 430 illustrated in FIG. 4.
  • Position information of the selected pixels may be represented by polar coordinates using the pupil center as the origin. That is, the position information of the pixels selected by the distance r n from the origin and the direction ⁇ n can be specified.
  • the matrix I is calculated using the location information.
  • the matrix I arranges brightness values of pixels having a direction ⁇ ⁇ ° in the top row with respect to the pupil center, and sequentially places the rows in lower rows whenever the direction is rotated by a predetermined angle interval.
  • the brightness values of the pixels ⁇ ⁇ ° are arranged in the lowest row.
  • the brightness values of the pixels closest to the pupil center are arranged in the leftmost column, and the distance from the pupil center is sequentially arranged in the right column from the leftmost column.
  • the matrix I calculated using the location information of the selected pixels can be expressed as follows.
  • I m, n P (r n cos ⁇ m , r n sin ⁇ m ), and P is positional information of the pixel.
  • the component value of the matrix I represents the brightness value of each pixel. That is, the component value of the matrix I may have one of 0 to 255.
  • the component values located in the column 1 side of the matrix I represent the brightness values of the pixels located in the pupil side
  • the component values located in the w column side represent the brightness values of the pixels located in the sclera side.
  • the component values located in the first row represent the brightness values of the pixels having the direction ⁇ ⁇
  • the component values located in the h row represent the brightness values of the pixels having the direction ⁇ ⁇ .
  • the portion where the magnitude of the component value of the pixel changes greatly is the boundary between the sclera and the iris.
  • FIG. 5 is a diagram for describing a process of applying blurring to selected pixels according to an embodiment of the present invention.
  • Image blurring is one of image processing techniques, and it is a technique for reducing differences in brightness values of adjacent pixels by using a low pass filter (LPF), an average filter, or the like.
  • LPF low pass filter
  • applying image blurring may reduce the difference in brightness values of pixels near the boundary line, thereby blurring the boundary line.
  • the difference is reduced by blurring, but in case of sclera and iris, the difference in brightness is significant. This is because the difference is large.
  • the boundary line between the iris and the sclera is detected in the image blurring image.
  • FIG. 6 is a view for explaining a process for detecting the boundary line between the iris and the sclera according to an embodiment of the present invention.
  • the left column components in the blurred I matrix mean pixels in the pupil direction in the image photographing the user's eye area
  • the right column components mean pixels in the sclera direction in the image photographing the user's eye area.
  • component values belonging to the first row 610 in the I matrix mean brightness values of pixels having a direction ⁇ ⁇ .
  • Component values close to column 1 among the component values in the first row 610 mean brightness values of pixels close to the pupil, and component values close to column w mean brightness values of pixels near the sclera.
  • the brightness values of the pixels in the first area 640 correspond to the component values in the first row 610.
  • the component values of the pixels belonging to the h row 620 may represent the brightness values of the pixels belonging to the second area 650 in the image photographing the eye area of the user.
  • the component values belonging to the same column mean brightness values of pixels having the same distance from the center of the pupil but different directions.
  • component values belonging to the first column 630 represent brightness values of pixels having the same distance from the center of the pupil but having a direction of ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ .
  • the component values belonging to the first column 630 may represent the brightness values of the pixels belonging to the third area 660.
  • An object of the present invention is to detect the boundary between the iris and the sclera, and it is necessary to sequentially determine the brightness values belonging to each row of the I matrix to detect a portion where the brightness value changes rapidly.
  • the component values belonging to the columns of the I matrix do not include boundary information because they are the same distance from the center of the pupil but have different directions, but do not include boundary information.
  • the component values include brightness value information of pixels sequentially arranged in the sclera direction from the pupil center direction as shown in the first region 640 and the second region 650, because the component values include boundary information. .
  • FIG. 7 is a diagram for describing a process of detecting a change in brightness value of a pixel for each row according to an exemplary embodiment of the present invention.
  • pixels having the same direction are selected from the center of the pupil, and a predetermined number of pixels are selected from the pixels to generate a pixel group. Pixels corresponding to component values included in are illustrated. Since the component values belonging to the same row in the matrix I are pixels having the same direction from the pupil center, selecting the component values belonging to the same row among the component values of the matrix I enables the selection of pixels having the same direction from the pupil center. .
  • pixels having the same direction are selected from the pupil center through the above-described process, a predetermined number of pixels among the pixels are selected to generate a pixel group.
  • first pixel group 710 seven pixels are selected to generate a first pixel group 710. Thereafter, some pixels of the pixels included in the first pixel group 710 are selected to overlap each other to generate a second pixel group 720.
  • the process of generating the pixel group is repeated until at least one or more component values belonging to each row, that is, pixels having the same direction from the pupil center, are selected.
  • a difference value between one pixel included in the pixel group and the brightness value of the pixel and the right adjacent pixel is calculated.
  • a difference value between the brightness value of the first pixel 711 and the first pixel 711 of the first pixel group 710 and the brightness value of the second pixel 712 adjacent to the right is calculated.
  • the brightness value of the first pixel 711 is 10 and the brightness value of the second pixel 712 is 20, -1 is given. Conversely, if the brightness value of the first pixel 711 is 20 and the brightness value of the second pixel 712 is 23, G 1,1 will be 1.
  • the sum of the values assigned to the respective pixel groups is determined as the characteristic value of the pixel group.
  • the pixel group having the maximum characteristic value is detected.
  • the fact that the characteristic value is the maximum means that the change in the brightness value of the pixels belonging to the pixel group is the largest. It is highly likely that pixels belonging to the pixel group having the maximum characteristic value include pixels corresponding to the boundary between the iris and the sclera.
  • the pixel group having the maximum characteristic value is detected only for one row included in the I matrix, but the above-described process is applied to all rows included in the I matrix.
  • the I matrix includes h rows
  • a process of detecting pixels corresponding to the boundary line after detecting a pixel group having the maximum characteristic value for each row for all h rows may be applied.
  • FIG. 8 is a diagram for describing a process of detecting a pixel corresponding to a boundary among pixels included in a pixel group having a maximum characteristic value according to an embodiment of the present invention.
  • the pixels in the pixel group move sequentially from the center pixel located in the center to the left direction, and the sum of the brightness values of the pixels on the left and the right of the pixels The sum of the brightness values of the pixels located is calculated.
  • the third pixel group 810 is the pixel group having the maximum characteristic value in FIG. 8, the brightness of the predetermined number of pixels positioned on the left side of the third pixel group 810 based on the center pixel 811 of the third pixel group 810. The sum of the values and the sum of the brightness values of the predetermined number of pixels located on the right side are calculated.
  • the sum of the brightness values of the predetermined number of pixels located in the left direction and the sum of the brightness values of the predetermined number of pixels located in the right direction are calculated for each pixel, sequentially moving to the left direction.
  • the pixels satisfying Li ⁇ Ri are searched.
  • the pixels located in the direction of the pupil center with respect to the boundary between the iris and the sclera will be close to black, and the pixels located at the sclera will be close to white.
  • the pixel located in the left direction is closer to the center of the pupil, and the pixel located in the right direction is closer to the sclera, so that the pixel satisfying Li ⁇ Ri is searched.
  • the pixel when Ri / Li is maximum is determined as the pixel corresponding to the boundary between the iris and the sclera. That is, when the difference between the sum of the brightness values of the pixels on the left and the sum of the brightness values of the pixels on the right is the largest pixel, the pixel corresponding to the boundary between the iris and the sclera is determined.
  • the above process can be applied to all the rows included in the matrix I. If h rows are included in the I matrix, h pixels corresponding to the boundary line are detected. By connecting the pixels, a boundary line between the iris and the sclera can be generated.
  • the boundary line between the iris and the sclera may have an irregular shape.
  • FIG. 9 is a view for explaining a process of correcting the boundary line between the iris and the sclera according to an embodiment of the present invention.
  • pixels corresponding to the boundary between the iris and the sclera can be determined in each direction based on the pupil center.
  • pixels corresponding to the boundary line in the first direction 910, pixels corresponding to the boundary line in the second direction 920, and pixels corresponding to the boundary line in the third direction 930 are illustrated. You can decide.
  • the boundary lines may have an uneven shape when the pixels are connected to each other.
  • the boundary line detection method of the iris and sclera can generate a smooth boundary line by correcting the boundary line.
  • one pixel of the plurality of pixels corresponding to the boundary line is selected to calculate a difference value between the distance from which the selected pixel is spaced from the pupil center and the distance from which other pixels are spaced from the pupil center.
  • a difference value between a distance at which a pixel corresponding to a boundary line in the first direction 910 is spaced apart from the pupil center and a distance at which a pixel corresponding to a boundary line in the second direction 920 is spaced apart from the pupil center is calculated.
  • a difference value between the distance corresponding to the boundary line in the third direction 930 and the distance from the pupil center is also calculated.
  • the number of cases where each difference value is less than or equal to the preset threshold is calculated, and the pixel having the most difference when the difference value is less than or equal to the preset threshold is determined as the pixel corresponding to the boundary line.
  • the difference value is less than or equal to 10 times while the difference value between the other pixels in the other pixels is determined. If the difference is less than 10 times when the difference is less than the preset threshold, the distance from the pupil center to the pixel corresponding to the boundary line determined in the first direction 910 is the distance from the pupil center to the boundary line between the iris and the sclera. Can be determined.
  • a circle having a radius of the distance between the pixel corresponding to the boundary line in the first direction 910 and the pupil center determined through the above process is determined as the boundary line 950 of the iris and the sclera.
  • FIG. 10 is a functional block diagram illustrating an apparatus for detecting a boundary line between an iris and a sclera according to an exemplary embodiment of the present invention.
  • the boundary detection apparatus 1000 of the iris and the sclera illustrated in FIG. 10 includes a processor 1010, a memory 1020, a storage 1030, a network interface 1040, and a bus 1050.
  • the processor 1010 executes a program that can detect the boundary between the iris and the sclera.
  • a program that may be executed in the processor 1010 is not limited thereto, and other general-purpose programs may be executed.
  • the storage 1020 stores a program capable of detecting a boundary between the iris and the sclera.
  • a program for detecting a boundary between an iris and a sclera may include receiving an image of an eye region of a user;
  • Selecting pixels included in a preset area in the image selecting pixels having the same direction from the pupil center among pixels included in the preset area, and preset number of pixels having the same direction from the pupil center Selecting to generate a pixel group, comparing brightness values between adjacent pixels among pixels belonging to the pixel group to calculate a characteristic value of the pixel group, selecting a pixel group having the maximum characteristic value, Calculating a sum of brightness values of pixels located on the left side and the brightness values of pixels located on the right side based on each pixel, sequentially moving from the center pixel of the selected pixel group to the brightness of the pixels located on the right side; If the sum of the values is greater than the sum of the brightness values of the pixels located on the left, Determining the pixel corresponding to the boundary between the chak and sclera is performed.
  • the memory 1030 loads a program capable of detecting the boundary between the iris and the sclera so that the program can be executed in the processor 10010.
  • the computing device may be connected to the network interface 1040.
  • the bus 1050 serves as a data movement path to which the aforementioned processor 1010, the storage 1020, the memory 1030, and the network interface 1040 are connected.
  • the above-described method can be written as a program that can be executed in a computer, it can be implemented in a general-purpose digital computer to operate the program using a computer-readable recording medium.
  • the structure of the data used in the above-described method can be recorded on the computer-readable recording medium through various means.
  • the computer-readable recording medium may include a storage medium such as a magnetic storage medium (eg, a ROM, a floppy disk, a hard disk, etc.) and an optical reading medium (eg, a CD-ROM, a DVD, etc.).

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Security & Cryptography (AREA)
  • Pathology (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

본 발명에 따르면 홍채와 공막의 경계선 검출 방법에 관한 것으로, 사용자의 눈 영역을 촬영한 이미지의 일부 영역에서 홍채와 공막 사이의 경계선을 검출하는 방법에 관한 것이다. 또한, 본 발명에 따르면, 동공 중심에서 홍채와 공막의 경계선까지의 거리를 산출할 수 있는 홍채 반지름 측정 방법을 제공하는데 있으며, 기존의 원형 경계 검출기에 비해 보다 신속하고 정확하게 홍채와 공막의 경계선을 검출할 수 있다.

Description

홍채와 공막의 경계선 검출 방법
본 발명은 홍채와 공막의 경계선 검출 방법에 관한 것으로, 보다 상세하게는 사용자의 눈 영역을 촬영한 이미지의 일부 영역에서 홍채와 공막 사이의 경계선을 검출하는 방법에 관한 것이다.
최근 온오프라인에서 개인 정보 보호가 중요해 짐에 따라 다양한 보안 기술 중 생체 인식 기술이 각광을 받고 있다. 생체 인식 기술이란 지문, 홍채, 혈관 등 개인고유의 생체 종보를 이용하여 사용자를 인증하는 기술을 의미한다.
그 중에서 홍채 인식 기술은 사람마다 고유한 무늬를 가지고 있는 홍채 정보를 이용하여 이를 사용자 인증에 활용하는 기술을 의미한다.
홍채 정보를 이용하여 사용자 인증 절차를 수행하기 위해서는 먼저, 사용자의 눈 영역을 촬영한 이미지에서 홍채 영역을 검출해야 한다. 홍채 영역을 검출하기 위한 전처리 과정으로 사용자의 눈 영역을 촬영한 이미지에서 동공의 중심을 검출한 후, 동공의 중심에서 홍채와 공막 사이의 경계점까지의 거리를 산출해야 한다.
도 1은 동공 중심에서 홍채와 공막 사이의 경계점까지의 거리를 설명하기 위한 도면이다.
사용자의 눈 영역을 촬영한 이미지(10)에는 동공 영역(20), 홍채 영역(30) 및 공막 영역(40)이 포함되어 있다.
이 중에서 사용자 인증에 사용되는 부분은 홍채 영역(30)의 이미지인데, 홍채 영역(30)의 데이터만을 획득하기 위해서는 동공 영역(20)에서 동공의 중심을 검출한 후, 홍채 영역(30)과 공막 영역(40)의 경계선 d의 길이를 산출한 하여 경계선까지의 길이 d를 반지름으로 하는 원 내부 영역에서 동공 영역(20)을 제외한 이미지 데이터를 획득하여야 한다.
종래에는 동공의 중심으로부터 홍채 영역(30)과 공막 영역(40)의 경계선 까지의 길이 d를 산출하기 위해 원형 경계 검출기를 하였다. 그러나, 종래 방법은 이미지의 전역적인 탐색에 의존하기 때문에 계산 시간이 오래 걸린다는 문제점이 있었다.
생체 정보를 이용한 사용자 인증 시스템에 있어, 생체 인증에 소요되는 시간은 생체 인식 기술의 성능을 평가하는 중요 요소 중에 하나라는 점을 고려할 때, 원형 경계 검출기를 이용한 방식은 최선의 방법이 되지 못하였다.
이에, 보다 신속하고 정확하게 동공 중심에서부터 홍채 영역(30)과 공막 영역(40)의 경계선까지의 길이를 산출할 수 있는 검출 알고리즘에 대한 필요성이 대두되었다.
본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 본 발명의 목적은 동공 중심에서 홍채와 공막의 경계선까지의 거리를 산출할 수 있는 홍채 반지름 측정 방법을 제공하는데 있다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속한 기술분야의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 목적을 달성하기 위한 본 발명의 일 실시예에 따른 동공과 홍채의 경계선 검출 방법은, 사용자의 눈 영역을 촬영한 이미지를 수신하는 단계, 상기 이미지에서 기 설정된 영역에 포함된 픽셀들을 선택하는 단계, 상기 기 설정된 영역에 포함된 픽셀들 중 동공 중심으로부터 방향이 동일한 픽셀들을 선택하는 단계, 상기 동공 중심으로부터 방향이 동일한 픽셀들 중 기 설정된 개수를 선택하여 픽셀 그룹을 생성하는 단계, 상기 픽셀 그룹에 속한 픽셀들 중 인접한 픽셀들간의 밝기값을 비교하여 상기 픽셀 그룹의 특성값을 산출하는 단계, 상기 특성값이 최대인 픽셀 그룹을 선택하고, 상기 선택된 픽셀 그룹의 중심 픽셀로부터 좌측으로 순차적으로 이동해가며 각 픽셀을 기준으로 좌측에 위치한 픽셀들의 밝기값의 총합 및 우측에 위치한 픽셀들의 밝기값을 총합을 산출하는 단계 및 상기 우측에 위치한 픽셀들의 밝기값의 총합이 상기 좌측에 위치한 픽셀들의 밝기값의 총합보다 더 큰 픽셀을 홍채와 공막의 경계선에 해당하는 픽셀로 결정하는 단계를 포함한다.
본 발명의 일 실시예에 따르면, 상기 이미지에서 기 설정된 영역에 포함된 픽셀들을 선택하는 단계는, 동공 중심을 기준으로 방향이 θα°이상 θβ°이하인 픽셀들을 기 설정된 각도 간격으로 선택하는 단계 및 상기 방향 조건을 만족하되 상기 동공 중심으로부터 기 설정된 거리만큼 이격된 픽셀부터 기 설정된 길이만큼의 픽셀을 선택하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따르면, 상기 동공 중심을 기준으로 방향이 θα°인 픽셀들의 밝기값들을 최상측 행에 배치하고 상기 방향이 기 설정된 각도 간격만큼 회전될 때마다 순차적으로 아래행에 배치하여 상기 방향이 θβ°인 픽셀들의 밝기값을 최하측행에 배치하되, 상기 동공 중심에 가장 가까운 픽셀들의 밝기값을 최좌측열에 배치하고 상기 동공 중심에서 멀어질수록 상기 최좌측열부터 순차적으로 우측열에 배치하여 행렬을 생성하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따르면, 상기 기 설정된 영역에 포함된 픽셀들 중 동공 중심으로부터 방향이 동일한 픽셀들을 선택하는 단계는, 상기 행렬에 포함된 성분값들 중 동일한 행에 포함된 픽셀들을 선택하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따르면, 상기 동공 중심으로부터 방향이 동일한 픽셀들 중 기 설정된 개수를 선택하여 픽셀 그룹을 생성하는 단계는, 상기 행렬의 각 행별로 기 설정된 개수의 성분값을 선택하여 제1 픽셀 그룹을 생성하는 (a) 단계, 상기 제1 픽셀 그룹에 포함된 픽셀 중 일부 픽셀이 중복되도록 선택하여 제2 픽셀 그룹을 생성하는 (b) 단계 및 각 행에 속한 성분값들이 적어도 한번 선택되도록 상기 (a) 단계 및 상기 (b) 단계를 반복하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따르면, 상기 픽셀 그룹에 속한 픽셀들 중 인접한 픽셀들간의 밝기값을 비교하여 상기 픽셀 그룹의 특성값을 산출하는 단계는, 상기 픽셀 그룹에 포함된 각 픽셀들에 대해 그 픽셀 밝기값과 우측으로 인접한 픽셀의 밝기값과의 차이값을 산출하는 단계, 상기 차이값이 양수이면 1을 부여하고 상기 차이값이 음수이면 -1을 부여하는 단계 및 상기 부여된 값을 모두 합산한 값을 상기 픽셀 그룹의 특성값으로 결정하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따르면, 상기 특성값이 최대인 픽셀 그룹을 선택하고, 상기 선택된 픽셀 그룹의 중심 픽셀로부터 좌측으로 순차적으로 이동해가며 각 픽셀을 기준으로 좌측에 위치한 픽셀들의 밝기값의 총합 및 우측에 위치한 픽셀들의 밝기값을 총합을 산출하는 단계는, 상기 각 픽셀을 기준으로 좌측으로 위치한 기 설정된 개수의 픽셀들의 밝기값의 총합을 산출하는 단계 및 상기 각 픽셀을 기준으로 우측으로 위치한 기 설정된 개수의 픽셀들의 밝기값의 총합을 산출하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따르면, 상기 각 픽셀을 기준으로 좌측으로 위치한 기 설정된 개수의 픽셀들의 밝기값의 총합에 대한 우측으로 위치한 기 설정된 개수의 픽셀들의 밝기값의 총합의 비율이 최대인 픽셀을 경계선에 해당하는 픽셀로 결정하는 단계를 더 포함할 수 있다.
본 발명의 일 실시예에 따르면, 상기 경계선에 해당하는 픽셀로 결정된 픽셀 중 하나의 픽셀이 동공 중심으로부터 이격된 거리와 상기 경계선에 해당하는 다른 픽셀들이 동공 중심으로부터 이격된 거리와의 차이값을 산출하는 단계, 상기 차이값이 기 설정된 임계값 이하인 경우의 수를 산출하는 단계, 상기 차이값이 기 설정된 임계값 이하인 경우가 가장 많은 픽셀이 상기 동공 중심으로부터 이격된 거리를 상기 동공 중심에서 홍채와 공막의 경계선까지의 거리로 결정하는 단계를 더 포함할 수 있다.
본 발명의 또 다른 실시예에 따른 홍채와 공막의 경계선 검출 장치는, 하나 이상의 프로세서, 상기 프로세서의 의하여 수행되는 컴퓨터 프로그램을 로드(load)하는 메모리 및 홍채와 공막의 경계선을 검출할 수 있는 컴퓨터 프로그램을 저장하는 스토리지를 포함하되, 상기 컴퓨터 프로그램은, 사용자의 눈 영역을 촬영한 이미지를 수신하는 오퍼레이션, 상기 이미지에서 기 설정된 영역에 포함된 픽셀들을 선택하는 오퍼레이션, 상기 기 설정된 영역에 포함된 픽셀들 중 동공 중심으로부터 방향이 동일한 픽셀들을 선택하는 오퍼레이션, 상기 동공 중심으로부터 방향이 동일한 픽셀들 중 기 설정된 개수를 선택하여 픽셀 그룹을 생성하는 오퍼레이션, 상기 픽셀 그룹에 속한 픽셀들 중 인접한 픽셀들간의 밝기값을 비교하여 상기 픽셀 그룹의 특성값을 산출하는 오퍼레이션, 상기 특성값이 최대인 픽셀 그룹을 선택하고, 상기 선택된 픽셀 그룹의 중심 픽셀로부터 좌측으로 순차적으로 이동해가며 각 픽셀을 기준으로 좌측에 위치한 픽셀들의 밝기값의 총합 및 우측에 위치한 픽셀들의 밝기값을 총합을 산출하는 오퍼레이션 및 기 우측에 위치한 픽셀들의 밝기값의 총합이 상기 좌측에 위치한 픽셀들의 밝기값의 총합보다 더 큰 픽셀을 홍채와 공막의 경계선에 해당하는 픽셀로 결정하는 오퍼레이션을 포함한다.
상술한 홍채와 공막의 경계선 검출 방법에 따르면, 기존의 원형 경계 검출기에 비해 보다 신속하고 정확하게 홍채와 공막의 경계선을 검출할 수 있게 된다는 효과를 달성할 수 있다.
도 1은 동공 중심에서 홍채와 공막 사이의 경계점까지의 거리를 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따라 홍채 일부 영역의 데이터만을 취득하는 과정을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따라 홍채 일부 영역에서 픽셀 정보를 추출하는 과정을 설명하기 위한 도면이다.
도 4는 선택된 영역에서 추출된 픽셀들을 확대한 모습이다.
도 5는 본 발명의 일 실시예에 따라 선택된 픽셀들에 대해 블러링을 적용하는 과정을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따라 홍채와 공막의 경계선을 검출하기 위한 과정을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따라 각 행별로 픽셀의 밝기값 변화를 검출하는 과정을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예에 따라 특성값이 최대인 픽셀 그룹에 포함된 픽셀들 중 경계선에 해당되는 픽셀을 검출하는 과정을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따라 홍채와 공막의 경계선을 보정하는 과정을 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예에 따른 홍채와 공막의 경계선 검출 장치를 설명하기 위한 기능 블록도이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
또한, 본 명세서에서 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함될 수 있다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
도 2는 본 발명의 일 실시예에 따라 홍채 일부 영역의 데이터만을 취득하는 과정을 설명하기 위한 도면이다.
본 발명의 일 실시예에 따른 홍채와 공막의 경계선 검출 방법은 먼저 사용자의 눈 영역을 촬영한 이미지를 수신한다. 사용자의 눈 영역을 촬영한 이미지에는 도 2에 도시된 바와 같이 동공 부분, 홍채 부분 및 공막 부분이 포함되어 있을 수 잇다.
이후, 사용자의 눈 영역을 촬영한 이미지에서 기 설정된 영역에 포함된 픽셀들을 선택한다. 눈 영역을 촬영한 이미지에서 상단과 하단 부분은 눈꺼풀에 의해 가려져 온전한 데이터를 취득할 수 없는바 기 설정된 영역은 눈꺼풀에 의해 가려지지 않은 양 측면 영역일 수 있다.
예를 들어, 도 2에 도시된 도면에서 x축을 중심으로 θ1°와 θ2° 사이의 홍채 영역은 상단 눈꺼풀에 의해 가려져 있는 경우가 대부분이므로, 해당 부분의 홍채 데이터를 이용하여 홍채 반지름을 계산하는 것은 적절하지 않을 수 있다.
이에, 본 발명의 일 실시예에 따른 홍채 반지름 측정 방법은 상하 눈꺼풀에 의해 홍채가 가려질 가능성이 적은 일부 영역의 홍채 데이터만을 이용하여 홍채 반지름을 측정할 수 있다.
홍채 데이터를 취득할 일부 영역이 결정되면, 결정된 홍채 영역에서 픽셀 정보를 추출한다.
도 3은 본 발명의 일 실시예에 따라 홍채 일부 영역에서 픽셀 정보를 추출하는 과정을 설명하기 위한 도면이다.
홍채와 공막의 경계선을 검출하기 위해 먼저, 동공 중심으로부터 방향이 동일한 픽셀들을 선택한다. 본 발명의 일 실시예에 따르면, 동공 중심을 원점으로 하여 방향이 θα≤θ≤θβ인 픽셀들을 기 설정된 각도 간격으로 선택할 수 있다.
예를 들어, 기 설정된 각도 간격이 1도 간격이라면, θα° 방향의 픽셀 정보, θα+1° 방향의 픽셀 정보, θα+2° 방향의 픽셀 정보 …θβ° 방향의 픽셀 정보를 추출할 수 있다.
다만, 선택된 방향의 전체 픽셀 정보를 추출하는 것은 비효율적일 수 있으므로, 선택된 방향에서 기 설정된 길이만큼의 픽셀 정보만을 추출할 수 있다. 동공 중심인 원점에서부터 θα° 방향의 모든 픽셀 정보들을 추출할 경우 동공 중심으로부터 홍채와 공막 경계선까지의 거리를 산출하는데 불필요한 픽셀들이 다수 포함될 수 있기 때문이다.
이를 위해, 본 발명의 일 실시예에 따른 홍채 반지름 산출 방법은 동공 중심을 원점으로 선택된 방향에 있는 픽셀 중 동공 중심으로부터 기 설정된 거리만큼 이격된 픽셀부터 기 설정된 길이만큼의 픽셀 정보만을 추출할 수 있다.
구체적으로, 도 3에 도시된 바와 같이 동공 중심을 원점으로 선택된 방향에 위치하는 픽셀 중 동공 중심으로부터 S 만큼 이격된 픽셀부터 w 길이만큼의 픽셀 정보만을 추출할 수 있다.
여기에서, 길이 w는 시작점 S부터 종료점 E까지의 길이를 의미한다.
시작점 S는 다음과 같은 수식에 의해 결정될 수 있다.
Figure PCTKR2017005841-appb-M000001
여기에서, R은 동공의 동공의 반지름 길이를 의미하고, Standard는 기 설정된 상수이다.
도 4는 선택된 영역에서 추출된 픽셀들을 확대한 모습이다.
도 3에서 설명한 과정을 거쳐 동공 중심으로부터 홍채와 공막 경계선까지의 거리를 산출하기 위해 선택된 픽셀들을 확대하면 도 4와 같다.
도 4에는 선택된 영역, 즉, 동공 중심을 원점으로 방향 θ 가θα≤θ≤θβ인 픽셀들 중 일부 픽셀들이 도시되어 있다. 본 발명의 일 실시예에 따르면, 도 4에 도시된 제1 방향(410), 제2 방향(420) 및 제3 방향(430)을 갖는 픽셀들 중 w 길이 만큼의 픽셀들만이 선택된다.
선택된 픽셀들의 위치 정보는 동공 중심을 원점으로 하는 극좌표로 나타낼 수 있다. 즉, 원점으로부터의 거리 rn 및 방향 θn으로 선택된 픽셀들의 위치 정보를 특정할 수 있다.
선택된 픽셀들의 위치 정보가 특정되면 이를 이용하여 행렬 I를 산출한다.
구체적으로, 행렬 I는 동공 중심을 기준으로 방향이 θα°인 픽셀들의 밝기값들을 최상측 행에 배치하고 상기 방향이 기 설정된 각도 간격만큼 회전될 때마다 순차적으로 아래행에 배치하여 상기 방향이 θβ°인 픽셀들의 밝기값이 최하측행에 배치되도록 한다.
또한, 동공 중심에 가장 가까운 픽셀들의 밝기값을 최좌측열에 배치하고 상기 동공 중심에서 멀어질수록 상기 최좌측열부터 순차적으로 우측열에 배치한다.
선택된 픽셀들의 위치 정보를 이용하여 산출한 행렬 I는 다음과 같이 표현할 수 있다.
Figure PCTKR2017005841-appb-M000002
여기에서, Im,n=P(rncosθm, rnsinθm), P는 픽셀의 위치 정보이다.
이때, 행렬 I의 성분값은 각 픽셀들의 밝기값을 나타낸다. 즉, 행렬 I의 성분값은 0에서 255중 하나의 값을 가질 수 있다.
상술한 바와 같이 행렬 I에서 1열쪽에 위치한 성분값들은 동공 쪽에 위치한 픽셀들의 밝기값을 나타내고 w열쪽에 위치한 성분값들은 공막쪽에 위치한 픽셀들의 밝기값을 나타낸다.
또한, 1행에 위치한 성분값들은 방향이 θα인 픽셀들의 밝기값을 나타내고 h행에 위치한 성분값들은 방향이 θβ인 픽셀들의 밝기값을 나타낸다.
일반적으로, 공막과 홍채의 밝기값이 차이가 크게 나타나므로, 픽셀의 성분값의 크기가 크게 변화하는 부분을 공막과 홍채의 경계선이라고 판단할 수 있다.
예를 들어, 상술한 행렬 I에서 Im,n 의 밝기값이 급격하게 변화한다면, 그 픽셀이 홍채와 공막의 경계선에 있는 것으로 판단할 수 있다.
다만, 홍채 내에서도 밝기값이 급격하게 변화하는 부분이 있을 수 있으므로 이를 구분하기 위해 선택된 픽셀들에 대해 블러링(Blurring)을 수행한다.
도 5는 본 발명의 일 실시예에 따라 선택된 픽셀들에 대해 블러링을 적용하는 과정을 설명하기 위한 도면이다.
이미지 블러링(Blurring)이란 영상 처리 기법의 하나로써, 저역 통과 필터(LPF : Low Pass Filter), 평균 필터(Average Filter) 등을 이용하여 인접한 픽셀들의 밝기값 차이를 저감시키는 기술이다.
예를 들어, 도 5에 도시된 바와 같이 밝기값이 큰 픽셀이 인접한 경우 이미지 블러링을 적용하면 경계선 부근의 픽셀들의 밝기값 차이가 줄어들어 경계선이 흐릿해지는 효과를 가져올 수 있다.
홍채 내부에 밝기값이 서로 다른 픽셀들이 인접한 경우 이미지 블러링 과정을 거치고 나면 그 밝기값 차이가 줄어들어 공막과 홍채의 경계선을 명확하게 검출할 수 있게 된다.
홍채와 공막의 경계선이 아닌 부분에 밝기값의 차이가 큰 픽셀들이 인접한 경우 블러링에 의해 그 차이가 줄어들지만 공막과 홍채의 경우 밝기값의 차이가 현저하여 이미지 블러링을 수행하더라도 여전히 밝기값의 차이가 크게 나타나게 되기 때문이다.
이후, 이미지 블러링을 수행한 이미지에서 홍채와 공막의 경계선을 검출한다.
도 6은 본 발명의 일 실시예에 따라 홍채와 공막의 경계선을 검출하기 위한 과정을 설명하기 위한 도면이다.
상술한 바와 같이, 블러링된 I 행렬에서 좌측열 성분들은 사용자 눈 영역을 촬영한 이미지에서 동공 방향의 픽셀들을 의미하고, 우측열 성분들은 사용자 눈 영역을 촬영한 이미지에서 공막 방향의 픽셀들을 의미한다.
즉, I 행렬에서 제1행(610)에 속한 성분값들은 방향이 θα인 픽셀들의 밝기값을 의미한다. 제1행(610)에 속한 성분값들 중 1열에 가까운 성분값들은 동공에 가까운 픽셀들의 밝기값을 의미하고, w열에 가까운 성분값들은 공막에 가까운 픽셀들의 밝기값을 의미한다.
이를 사용자의 눈 영역을 촬영한 이미지에 적용하면, 제1 영역(640)에 속한 픽셀들의 밝기값이 제1 행(610)에 속한 성분값들에 대응함을 알 수 있다.
마찬가지로, h 행(620)에 속하는 픽셀들의 성분값은 사용자의 눈 영역을 촬영한 이미지에서 제2 영역(650)에 속한 픽셀들의 밝기값을 나타냄을 알 수 있다.
이전과 달리 I 행렬에 속한 성분값들을 열 관점에서 바라보면, 동일한 열에 속하는 성분값들은 동공의 중심으로부터 거리가 동일하되 방향이 서로 다른 픽셀들의 밝기값을 의미함을 알 수 있다.
예를 들어, 제1 열(630)에 속한 성분값들은 동공 중심으로부터 거리가 동일하되 방향이 θα≤θ≤θβ인 픽셀들의 밝기값을 나타냄을 알 수 있다.
이를 사용자의 눈 영역을 촬영한 이미지와 매칭시키면, 제1 열(630)에 속한 성분값들은 제3 영역(660)에 속한 픽셀들의 밝기값을 나타냄을 알 수 있다.
본 발명의 목적은 홍채와 공막의 경계선을 검출하는데 있는바, I 행렬의 각 행들에 속한 밝기값을 순차적으로 판단하여 밝기값이 급격하게 변화하는 부분을 검출하여야 할 것이다.
I 행렬의 각 열들에 속해있는 성분값들은 제3 영역(660)에 도시된 바와 같이 동공 중심으로부터 거리가 동일하되 방향이 서로 다른 픽셀들의 집합이므로 경계선 정보를 포함하고 있지 않지만, 각 행들에 속해있는 성분값들은 제1 영역(640) 및 제2 영역(650)에 도시된 바와 같이 동공 중심 방향에서 공막 방향으로 순차적으로 나열된 픽셀들의 밝기값 정보를 포함하고 있는바, 경계선 정보를 포함하고 있기 때문이다.
이하에서는 각 행에 포함된 성분값들을 비교하여 홍채와 공막의 경계선을 검출하는 방법을 설명하기로 한다.
도 7은 본 발명의 일 실시예에 따라 각 행별로 픽셀의 밝기값 변화를 검출하는 과정을 설명하기 위한 도면이다.
각 행별로 픽셀의 밝기값 변화를 검출하기 위해 동공 중심으로부터 방향이 동일한 픽셀들을 선택하고, 그 픽셀들 중 기 설정된 개수의 픽셀을 선택하여 픽셀 그룹을 생성한다.도 7에는 I 행렬의 임의의 행에 포함된 성분값들에 대응되는 픽셀들이 도시되어 있다. 행렬 I에서 동일 행에 속한 성분값들은 동공 중심으로부터 방향이 동일한 픽셀들임을 의미하므로, 행렬 I의 성분값들 중 동일한 행에 속한 성분값들을 선택하면 동공 중심으로부터 방향이 동일한 픽셀들을 선택할 수 있게 된다.
상술한 과정을 통해 동공 중심으로부터 방향이 동일한 픽셀들이 선택되면, 그 픽셀들 중 기 설정된 개수의 픽셀을 선택하여 픽셀 그룹을 생성한다.
예를 들어, 도 7에 도시된 바와 같이 7개의 픽셀을 선택하여 제1 픽셀 그룹(710)을 생성한다. 이후, 제1 픽셀 그룹(710)에 포함된 픽셀 중 일부 픽셀이 중복되도록 선택하여 제2 픽셀 그룹(720)을 생성한다.
픽셀 그룹을 생성하는 과정은 각 행에 속한 성분값들, 즉, 동공 중심으로부터 방향이 동일한 픽셀들이 적어도 한번 이상은 선택될 때까지 반복된다.
이후, 픽셀 그룹에 속한 픽셀들 중 인접한 픽셀들간의 밝기값을 비교하여 픽셀 그룹의 특성값을 산출한다.
픽셀 그룹의 특성값을 산출하기 위해 먼저 픽셀 그룹에 포함된 각 픽셀들에 대해 픽셀 그룹에 포함된 하나의 픽셀과 그 픽셀과 우측으로 인접한 픽셀의 밝기값과의 차이값을 산출한다.
예를 들어, 제1 픽셀 그룹(710)의 제1 픽셀(711)과 제1 픽셀(711)의 밝기값과 우측으로 인접한 제2 픽셀(712)의 밝기값과의 차이값을 산출한다.
이를 수식으로 나타내면,
Figure PCTKR2017005841-appb-M000003
이 된다.
이후, 밝기값의 차이값이 양수이면 1을 부여하고 차이값이 음수이면 -1을 부여한다.
예를 들어, 제1 픽셀(711)의 밝기값이 10이고 제2 픽셀(712)의 밝기값이 20이라면 -1이 부여된다. 반대로 제1 픽셀(711)의 밝기값이 20이고 제2 픽셀(712) 밝기값이 23이라면 G1,1은 1이 될 것이다.
이를 수식으로 나타내면,
Figure PCTKR2017005841-appb-M000004
이 된다.
상술한 과정은 각 픽셀 그룹에 속한 모든 픽셀들에 적용된다. 따라서, 제1 그룹(710)에 x개의 픽셀이 포함되어 있다면, x-1개의 Gm,n을 산출할 수 있게 될 것이다.
이후, 각 픽셀 그룹들에 부여된 값을 합산한 값을 그 픽셀 그룹의 특성값으로 결정한다.
특성값을 MK로 표시하고 이를 수식으로 표현하면,
Figure PCTKR2017005841-appb-M000005
이 된다.
이후, 특성값이 최대인 픽셀 그룹을 검출한다. 특성값이 최대라는 것의 의미는 그 픽셀 그룹에 속한 픽셀들의 밝기값의 변화가 가장 큰 것을 의미하기 때문이다. 특성값이 최대인 픽셀 그룹에 속한 픽셀 중에 홍채와 공막의 경계선에 해당되는 픽셀이 포함될 가능성이 클 것이다.
한편, 도 7에서는 I 행렬에 포함된 하나의 행에 대해서만 특성값이 최대인 픽셀 그룹을 검출하는 것을 예로 들었으나, 상술한 과정은 I 행렬에 포함된 모든 행들에 적용된다.
따라서, I 행렬이 h개의 행을 포함한다면 h개의 행 모두에 대해 각 행별로 특성값이 최대인 픽셀 그룹을 검출한 후, 경계선에 해당되는 픽셀을 검출하는 과정이 적용될 수 있다.
도 8은 본 발명의 일 실시예에 따라 특성값이 최대인 픽셀 그룹에 포함된 픽셀들 중 경계선에 해당되는 픽셀을 검출하는 과정을 설명하기 위한 도면이다.
특성값이 최대인 픽셀 그룹이 검출되면, 그 픽셀 그룹에 속한 픽셀들 중 중심에 위치한 중심 픽셀부터 좌측방향으로 순차적으로 이동해 가며 그 픽셀을 기준으로 좌측에 위치하는 픽셀의 밝기값의 총합과 우측에 위치하는 픽셀의 밝기값의 총합을 산출한다.
예를 들어, 도 8에서 제3 픽셀 그룹(810)이 특성값이 최대인 픽셀 그룹이라면, 제3 픽셀 그룹(810)의 중심 픽셀(811)을 기준으로 좌측에 위치한 기 설정된 개수의 픽셀들의 밝기값 총합과 우측에 위치한 기 설정된 개수의 픽셀들의 밝기값 총합을 산출한다.
이후, 순차적으로 좌측 방향으로 이동해가며 각 픽셀에 대해 그 픽셀을 기준으로 좌측방향에 위치한 기 설정된 개수의 픽셀들의 밝기값 총합과 우측방향에 위치한 기 설정된 개수의 픽셀들의 밝기값 총합을 산출한다.
이를 수식으로 나타내면,
Figure PCTKR2017005841-appb-M000006
Figure PCTKR2017005841-appb-I000001
이 된다.
이후, Li<Ri를 만족하는 픽셀들을 검색한다. 홍채와 공막의 경계선을 기준으로 동공 중심 방향에 위치한 픽셀들은 흑색에 가까울 것이고, 공막에 위치한 픽셀들은 백색에 가까울 것이다.
또한, 도 8에 도시된 화면에서 좌측 방향에 위치한 픽셀일수록 동공 중심에 가까운 픽셀이고 우측 방향에 위치한 픽셀일수록 공막에 가까운 픽셀이므로 Li<Ri를 만족하는 픽셀을 검색하는 것이다.
상술한 Li<Ri를 만족하는 픽셀이 복수개 존재하는 경우 Ri/Li가 최대일 때의 픽셀을 홍채와 공막의 경계선에 해당하는 픽셀로 결정한다. 즉, 임의의 픽셀을 기준으로 좌측에 위치하는 픽셀들의 밝기값 총합과 우측에 위치하는 픽셀들의 밝기값 총합의 차이가 가장 클 때의 픽셀을 홍채와 공막의 경계선에 해당하는 픽셀로 결정하는 것이다.
한편, 상술한 과정은 행렬 I에 포함된 모든 행들에 대해 적용될 수 있다. I 행렬에 포함된 행이 h개인 경우 경계선에 해당하는 h개의 픽셀들이 검출되는바 그 픽셀들을 연결하면 홍채와 공막의 경계선을 생성할 수 있게 된다.
다만, 각 행별로 상술한 조건을 만족하는 픽셀들을 연결하면, 홍채와 공막의 경계선이 불규칙적인 모양을 띌 수가 있다.
도 9는 본 발명의 일 실시예에 따라 홍채와 공막의 경계선을 보정하는 과정을 설명하기 위한 도면이다.
상술한 과정을 적용하면 동공 중심을 기준으로 각 방향별로 홍채와 공막의 경계선에 해당되는 픽셀들을 결정할 수 있다.
예를 들어, 도 9에 도시된 바와 같이 제1 방향(910)에서 경계선에 해당하는 픽셀, 제2 방향(920)에서 경계선에 해당하는 픽셀, 제3 방향(930)에서 경계선에 해당하는 픽셀들을 결정할 수 있다.
이때, 동공 중심으로부터 각 방향별로 경계선에 해당하는 픽셀들까지의 거리가 서로 상이할 수 있으므로 이들 픽셀들을 연결하면 경계선이 울퉁불퉁한 모양을 띌 수 있다.
이에, 본 발명의 일 실시예에 따른 홍채와 공막의 경계선 검출 방법은 경계선을 보정하여 매끄러운 형태의 경계선을 생성할 수 있다.
이를 위해, 경계선에 해당하는 복수의 픽셀 중 하나의 픽셀을 선택하여 선택된 픽셀이 동공 중심으로부터 이격된 거리와 다른 픽셀들이 동공 중심으로부터 이격된 거리와의 차이값을 산출한다.
예를 들어, 제1 방향(910)에서 경계선에 해당되는 픽셀이 동공 중심으로부터 이격된 거리와 제2 방향(920)에서 경계선에 해당되는 픽셀이 동공 중심으로부터 이격된 거리와의 차이값을 산출한다.
마찬가지로, 제3 방향(930)에서 경계선에 해당되는 픽셀이 동공 중심으로부터 이격된 거리와의 차이값도 산출한다.
이후, 각 차이값이 기 설정된 임계값 이하인 경우의 수를 산출하고, 차이값이 기 설정된 임계값 이하인 경우가 가장 많은 픽셀을 경계선에 해당되는 픽셀로 결정한다.
예를 들어, 제1 방향(910)에서 경계선에 해당되는 픽셀과 다른 픽셀들의 차이값을 산출한 결과 차이값이 기 설정된 임계값 이하인 경우가 10번인 반면 다른 픽셀들에서 또 다른 픽셀들의 차이값을 산출한 결과 차이값이 기 설정된 임계값 이하인 경우가 모두 10번미만이라면, 동공 중심에서 제1 방향(910)에서 결정된 경계선에 해당하는 픽셀까지의 거리를 동공 중심에서 홍채와 공막의 경계선까지의 거리로 결정할 수 있다.
즉, 상술한 과정을 통해 결정된 제1 방향(910)에서의 경계선에 해당하는 픽셀과 동공 중심까지의 거리를 반지름으로 하는 원을 홍채와 공막의 경계선(950)으로 결정하는 것이다.
상술한 경계선 보정 방법에 따르면, 매끄러운 형태의 경계선을 생성할 수 있게 된다는 효과를 달성할 수 있다.
또한, 기존의 원형 경계 검출기에 비해 보다 신속하고 정확하게 홍채와 공막의 경계선을 검출할 수 있게 된다는 효과를 달성할 수 있다.
도 10은 본 발명의 일 실시예에 따른 홍채와 공막의 경계선 검출 장치를 설명하기 위한 기능 블록도이다.
도 10에 도시된 홍채와 공막의 경계선 검출 장치(1000)는 프로세서(1010), 메모리(1020), 스토리지(1030), 네트워크 인터페이스(1040) 및 버스(1050)를 포함한다.
도 10에는 본 발명의 실시예와 관련있는 구성요소들만이 도시되어 있다. 따라서, 본 발명이 속하는 기술분야의 통상의 기술자라면 도 10에 도시된 구성요소들 외에 다른 범용적인 구성요소가 더 포함될 수 있음을 알 수 있다.
프로세서(1010)는 홍채와 공막의 경계선을 검출할 수 있는 프로그램을 실행한다. 그러나, 프로세서(1010)에서 실행될 수 있는 프로그램은 이에 한정되지 않으며 다른 범용적인 프로그램이 실행될 수도 있다.
스토리지(1020)에는 홍채와 공막의 경계선을 검출할 수 있는 프로그램이 저장된다. 본 발명의 일 실시예에 따라 홍채와 공막의 경계선을 검출할 수 있는 프로그램은 사용자의 눈 영역을 촬영한 이미지를 수신하는 단계;
상기 이미지에서 기 설정된 영역에 포함된 픽셀들을 선택하는 단계, 상기 기 설정된 영역에 포함된 픽셀들 중 동공 중심으로부터 방향이 동일한 픽셀들을 선택하는 단계, 상기 동공 중심으로부터 방향이 동일한 픽셀들 중 기 설정된 개수를 선택하여 픽셀 그룹을 생성하는 단계, 상기 픽셀 그룹에 속한 픽셀들 중 인접한 픽셀들간의 밝기값을 비교하여 상기 픽셀 그룹의 특성값을 산출하는 단계, 상기 특성값이 최대인 픽셀 그룹을 선택하고, 상기 선택된 픽셀 그룹의 중심 픽셀로부터 좌측으로 순차적으로 이동해가며 각 픽셀을 기준으로 좌측에 위치한 픽셀들의 밝기값의 총합 및 우측에 위치한 픽셀들의 밝기값을 총합을 산출하는 단계 및 상기 우측에 위치한 픽셀들의 밝기값의 총합이 상기 좌측에 위치한 픽셀들의 밝기값의 총합보다 더 큰 픽셀을 홍채와 공막의 경계선에 해당하는 픽셀로 결정하는 단계를 실행한다.
메모리(1030)는 홍채와 공막의 경계선을 검출할 수 있는 프로그램을 로딩하여, 그 프로그램이 프로세서(10010)에서 실행될 수 있도록 한다.
네트워크 인터페이스(1040)에는 컴퓨팅 장치가 연결될 수 있다.
버스(1050)는 상술한 프로세서(1010), 스토리지(1020), 메모리(1030), 및 네트워크 인터페이스(1040)가 연결되는 데이터 이동 통로로서의 역할을 수행한다.
한편, 상술한 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터로 읽을 수 있는 기록매체에 여러 수단을 통하여 기록될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.
본 실시예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.

Claims (10)

  1. 사용자의 눈 영역을 촬영한 이미지를 수신하는 단계;
    상기 이미지에서 기 설정된 영역에 포함된 픽셀들을 선택하는 단계;
    상기 기 설정된 영역에 포함된 픽셀들 중 동공 중심으로부터 방향이 동일한 픽셀들을 선택하는 단계;
    상기 동공 중심으로부터 방향이 동일한 픽셀들 중 기 설정된 개수를 선택하여 픽셀 그룹을 생성하는 단계;
    상기 픽셀 그룹에 속한 픽셀들 중 인접한 픽셀들간의 밝기값을 비교하여 상기 픽셀 그룹의 특성값을 산출하는 단계;
    상기 특성값이 최대인 픽셀 그룹을 선택하고, 상기 선택된 픽셀 그룹의 중심 픽셀로부터 좌측으로 순차적으로 이동해가며 각 픽셀을 기준으로 좌측에 위치한 픽셀들의 밝기값의 총합 및 우측에 위치한 픽셀들의 밝기값을 총합을 산출하는 단계; 및
    상기 우측에 위치한 픽셀들의 밝기값의 총합이 상기 좌측에 위치한 픽셀들의 밝기값의 총합보다 더 큰 픽셀을 홍채와 공막의 경계선에 해당하는 픽셀로 결정하는 단계를 포함하는 홍채와 공막의 경계선 검출 방법.
  2. 제1항에 있어서,
    상기 이미지에서 기 설정된 영역에 포함된 픽셀들을 선택하는 단계는,
    동공 중심을 기준으로 방향이 θα°이상 θβ°이하인 픽셀들을 기 설정된 각도 간격으로 선택하는 단계; 및
    상기 방향 조건을 만족하되 상기 동공 중심으로부터 기 설정된 거리만큼 이격된 픽셀부터 기 설정된 길이만큼의 픽셀을 선택하는 단계를 포함하는 홍채와 공막의 경계선 검출 방법.
  3. 제2항에 있어서,
    상기 동공 중심을 기준으로 방향이 θα°인 픽셀들의 밝기값들을 최상측 행에 배치하고 상기 방향이 기 설정된 각도 간격만큼 회전될 때마다 순차적으로 아래행에 배치하여 상기 방향이 θβ°인 픽셀들의 밝기값을 최하측행에 배치하되, 상기 동공 중심에 가장 가까운 픽셀들의 밝기값을 최좌측열에 배치하고 상기 동공 중심에서 멀어질수록 상기 최좌측열부터 순차적으로 우측열에 배치하여 행렬을 생성하는 단계를 포함하는 홍채와 공막의 경계선 검출 방법.
  4. 제3항에 있어서,
    상기 기 설정된 영역에 포함된 픽셀들 중 동공 중심으로부터 방향이 동일한 픽셀들을 선택하는 단계는,
    상기 행렬에 포함된 성분값들 중 동일한 행에 포함된 픽셀들을 선택하는 단계를 포함하는 홍채와 공막의 경계선 검출 방법.
  5. 제3항에 있어서,
    상기 동공 중심으로부터 방향이 동일한 픽셀들 중 기 설정된 개수를 선택하여 픽셀 그룹을 생성하는 단계는,
    상기 행렬의 각 행별로 기 설정된 개수의 성분값을 선택하여 제1 픽셀 그룹을 생성하는 (a) 단계;
    상기 제1 픽셀 그룹에 포함된 픽셀 중 일부 픽셀이 중복되도록 선택하여 제2 픽셀 그룹을 생성하는 (b) 단계; 및
    각 행에 속한 성분값들이 적어도 한번 선택되도록 상기 (a) 단계 및 상기 (b) 단계를 반복하는 단계를 포함하는 홍채와 공막의 경계선 검출 방법.
  6. 제1항에 있어서,
    상기 픽셀 그룹에 속한 픽셀들 중 인접한 픽셀들간의 밝기값을 비교하여 상기 픽셀 그룹의 특성값을 산출하는 단계는,
    상기 픽셀 그룹에 포함된 각 픽셀들에 대해 그 픽셀 밝기값과 우측으로 인접한 픽셀의 밝기값과의 차이값을 산출하는 단계;
    상기 차이값이 양수이면 1을 부여하고 상기 차이값이 음수이면 -1을 부여하는 단계; 및
    상기 부여된 값을 모두 합산한 값을 상기 픽셀 그룹의 특성값으로 결정하는 단계를 포함하는 홍채와 공막의 경계선 검출 방법.
  7. 제1항에 있어서,
    상기 특성값이 최대인 픽셀 그룹을 선택하고, 상기 선택된 픽셀 그룹의 중심 픽셀로부터 좌측으로 순차적으로 이동해가며 각 픽셀을 기준으로 좌측에 위치한 픽셀들의 밝기값의 총합 및 우측에 위치한 픽셀들의 밝기값을 총합을 산출하는 단계는,
    상기 각 픽셀을 기준으로 좌측으로 위치한 기 설정된 개수의 픽셀들의 밝기값의 총합을 산출하는 단계; 및
    상기 각 픽셀을 기준으로 우측으로 위치한 기 설정된 개수의 픽셀들의 밝기값의 총합을 산출하는 단계를 포함하는 홍채와 공막의 경계선 검출 방법.
  8. 제1항에 있어서,
    상기 각 픽셀을 기준으로 좌측으로 위치한 기 설정된 개수의 픽셀들의 밝기값의 총합에 대한 우측으로 위치한 기 설정된 개수의 픽셀들의 밝기값의 총합의 비율이 최대인 픽셀을 경계선에 해당하는 픽셀로 결정하는 단계를 더 포함하는 홍채와 공막의 경계선 검출 방법.
  9. 제1항에 있어서,
    상기 경계선에 해당하는 픽셀로 결정된 픽셀 중 하나의 픽셀이 동공 중심으로부터 이격된 거리와 상기 경계선에 해당하는 다른 픽셀들이 동공 중심으로부터 이격된 거리와의 차이값을 산출하는 단계;
    상기 차이값이 기 설정된 임계값 이하인 경우의 수를 산출하는 단계;
    상기 차이값이 기 설정된 임계값 이하인 경우가 가장 많은 픽셀이 상기 동공 중심으로부터 이격된 거리를 상기 동공 중심에서 홍채와 공막의 경계선까지의 거리로 결정하는 단계를 더 포함하는 홍채와 공막의 경계선 검출 방법.
  10. 하나 이상의 프로세서,
    상기 프로세서의 의하여 수행되는 컴퓨터 프로그램을 로드(load)하는 메모리; 및
    홍채와 공막의 경계선을 검출할 수 있는 컴퓨터 프로그램을 저장하는 스토리지를 포함하되,
    상기 컴퓨터 프로그램은,
    사용자의 눈 영역을 촬영한 이미지를 수신하는 오퍼레이션;
    상기 이미지에서 기 설정된 영역에 포함된 픽셀들을 선택하는 오퍼레이션;
    상기 기 설정된 영역에 포함된 픽셀들 중 동공 중심으로부터 방향이 동일한 픽셀들을 선택하는 오퍼레이션;
    상기 동공 중심으로부터 방향이 동일한 픽셀들 중 기 설정된 개수를 선택하여 픽셀 그룹을 생성하는 오퍼레이션;
    상기 픽셀 그룹에 속한 픽셀들 중 인접한 픽셀들간의 밝기값을 비교하여 상기 픽셀 그룹의 특성값을 산출하는 오퍼레이션;
    상기 특성값이 최대인 픽셀 그룹을 선택하고, 상기 선택된 픽셀 그룹의 중심 픽셀로부터 좌측으로 순차적으로 이동해가며 각 픽셀을 기준으로 좌측에 위치한 픽셀들의 밝기값의 총합 및 우측에 위치한 픽셀들의 밝기값을 총합을 산출하는 오퍼레이션; 및
    상기 우측에 위치한 픽셀들의 밝기값의 총합이 상기 좌측에 위치한 픽셀들의 밝기값의 총합보다 더 큰 픽셀을 홍채와 공막의 경계선에 해당하는 픽셀로 결정하는 오퍼레이션을 포함하는 홍채와 공막의 경계선 검출 장치.
PCT/KR2017/005841 2016-12-21 2017-06-05 홍채와 공막의 경계선 검출 방법 WO2018117353A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0175219 2016-12-21
KR1020160175219A KR101761586B1 (ko) 2016-12-21 2016-12-21 홍채와 공막의 경계선 검출 방법

Publications (1)

Publication Number Publication Date
WO2018117353A1 true WO2018117353A1 (ko) 2018-06-28

Family

ID=59427754

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/005841 WO2018117353A1 (ko) 2016-12-21 2017-06-05 홍채와 공막의 경계선 검출 방법

Country Status (3)

Country Link
US (1) US10349832B2 (ko)
KR (1) KR101761586B1 (ko)
WO (1) WO2018117353A1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6751324B2 (ja) * 2016-09-14 2020-09-02 株式会社デンソーアイティーラボラトリ 虹彩検出装置、虹彩検出方法、およびプログラム
KR101776944B1 (ko) * 2017-01-09 2017-09-08 주식회사 쓰리이 홍채 패턴 코드화 방법
WO2018199890A1 (en) * 2017-04-24 2018-11-01 Truthvision, Inc. A system and method for measuring pupillary distance
KR102037781B1 (ko) * 2018-01-23 2019-10-29 (주)파트론 홍채 인식 장치
CN108921010B (zh) * 2018-05-15 2020-12-22 北京环境特性研究所 一种瞳孔检测方法及检测装置
CN110555875A (zh) * 2019-07-25 2019-12-10 深圳壹账通智能科技有限公司 瞳孔半径的检测方法、装置、计算机设备和存储介质
CN112542241A (zh) * 2020-04-07 2021-03-23 徐敬媛 云存储式颜色特征分析平台及方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080025610A (ko) * 2006-09-18 2008-03-21 한국전자통신연구원 홍채 검출 방법 및 이를 위한 장치
JP2009200874A (ja) * 2008-02-22 2009-09-03 Sharp Corp 画像エッジ補正回路および画像エッジ補正方法
KR20110078468A (ko) * 2009-12-31 2011-07-07 서강대학교산학협력단 비제한적 환경에서의 홍채 인식 시스템 및 방법
KR20150070802A (ko) * 2013-12-17 2015-06-25 현대자동차주식회사 동공 검출 장치 및 동공 검출 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU583202B2 (en) * 1987-02-06 1989-04-20 Fujitsu Limited Method and apparatus for extracting pattern contours in image processing
US8958608B2 (en) 2013-06-04 2015-02-17 Ut-Battelle, Llc Frontal view reconstruction for iris recognition

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080025610A (ko) * 2006-09-18 2008-03-21 한국전자통신연구원 홍채 검출 방법 및 이를 위한 장치
JP2009200874A (ja) * 2008-02-22 2009-09-03 Sharp Corp 画像エッジ補正回路および画像エッジ補正方法
KR20110078468A (ko) * 2009-12-31 2011-07-07 서강대학교산학협력단 비제한적 환경에서의 홍채 인식 시스템 및 방법
KR20150070802A (ko) * 2013-12-17 2015-06-25 현대자동차주식회사 동공 검출 장치 및 동공 검출 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PARK, JI-HYUN ET AL.: "An Efficient Method of Extracting Iris Area Using the Inner Canthus", PROCEEDINGS OF THE KOREAN INSTITUTE OF INFORMATION SCIENTISTS AND ENGINEERS (KIISE) FALL CONFERENCE, vol. 30, no. 2, October 2003 (2003-10-01), pages 544 - 546 *

Also Published As

Publication number Publication date
KR101761586B1 (ko) 2017-07-27
US20180168446A1 (en) 2018-06-21
US10349832B2 (en) 2019-07-16

Similar Documents

Publication Publication Date Title
WO2018117353A1 (ko) 홍채와 공막의 경계선 검출 방법
WO2016163755A1 (ko) 품질 측정 기반의 얼굴 인식 방법 및 장치
WO2020022704A1 (en) Method for training and testing obfuscation network capable of processing data to be concealed for privacy, and training device and testing device using the same
WO2017099427A1 (ko) 손가락 마디 및 지정맥 기반의 융합형 생체 인증 방법 및 그 장치
WO2020130309A1 (ko) 영상 마스킹 장치 및 영상 마스킹 방법
WO2019050360A1 (en) ELECTRONIC DEVICE AND METHOD FOR AUTOMATICALLY SEGMENTING TO BE HUMAN IN AN IMAGE
WO2015174647A1 (ko) 사용자 인증 방법, 이를 실행하는 장치 및 이를 저장한 기록 매체
WO2013048160A1 (ko) 얼굴 인식 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체
WO2012115332A1 (ko) 이미지와 이미지 또는 이미지와 동영상 사이의 상호 관계 분석 장치 및 방법
WO2019235828A1 (ko) 투 페이스 질병 진단 시스템 및 그 방법
WO2013012150A1 (ko) 에지의 방향 성분을 검출하는 영상 필터링 방법 및 이를 이용한 영상 인식 방법
WO2020060019A1 (ko) 글자 검출 장치, 방법 및 시스템
WO2019117350A1 (ko) 응시 거리를 결정하는 방법 및 디바이스
EP3459009A2 (en) Adaptive quantization method for iris image encoding
WO2010008134A2 (en) Image processing method
WO2018088649A1 (ko) 글린트 검출 방법
WO2018105830A1 (ko) 동공 중심 검출 방법
WO2016104842A1 (ko) 카메라의 왜곡을 고려한 물체 인식 시스템 및 방법
WO2020226455A1 (ko) 안저 이미지를 이용한 시신경병증 예측 장치 및 시신경병증 예측 결과 제공 방법
WO2017007047A1 (ko) 불규칙 비교를 이용하는 공간적 깊이 불균일성 보상 방법 및 장치
WO2015147485A1 (ko) 글린트 제거방법과 이를 이용한 홍채 인식 제어장치
WO2018117366A1 (ko) 홍채 검증 방법
KR20180072517A (ko) 홍채와 공막의 경계선 검출 방법
WO2020218656A1 (ko) 전자 장치 및 그 제어방법
WO2018128241A1 (ko) 홍채 패턴 코드화 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17882590

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 23.09.2019)

122 Ep: pct application non-entry in european phase

Ref document number: 17882590

Country of ref document: EP

Kind code of ref document: A1