KR20160000531A - Pupil acquisition method using binary of adjacent sum and control device for extracting pupil using the same - Google Patents

Pupil acquisition method using binary of adjacent sum and control device for extracting pupil using the same Download PDF

Info

Publication number
KR20160000531A
KR20160000531A KR1020140077309A KR20140077309A KR20160000531A KR 20160000531 A KR20160000531 A KR 20160000531A KR 1020140077309 A KR1020140077309 A KR 1020140077309A KR 20140077309 A KR20140077309 A KR 20140077309A KR 20160000531 A KR20160000531 A KR 20160000531A
Authority
KR
South Korea
Prior art keywords
pupil
pixel
gray level
level value
glint
Prior art date
Application number
KR1020140077309A
Other languages
Korean (ko)
Other versions
KR101582467B1 (en
Inventor
김성현
조두원
황대우
이한혁
Original Assignee
주식회사 이리언스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이리언스 filed Critical 주식회사 이리언스
Priority to KR1020140077309A priority Critical patent/KR101582467B1/en
Priority to PCT/KR2015/005723 priority patent/WO2015199354A1/en
Publication of KR20160000531A publication Critical patent/KR20160000531A/en
Application granted granted Critical
Publication of KR101582467B1 publication Critical patent/KR101582467B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Abstract

A pupil extraction method using neighbor aggregation binarization is disclosed. To this end, the present invention comprises: a step of removing glints appearing in image information acquired by photographing an eye part; a neighbor aggregation binarization step of comparing the glint-removed image information with a set reference grey level value so as to correct the image information; a step of determining a pupil region by using the center of gravity of the image information obtained by the neighbor aggregation binarization step; and a step of aggregating boundary points between a pupil and an iris by using the center of gravity in the determined pupil region.

Description

인접 합산 이진화를 이용한 동공 추출 방법 및 이를 이용한 동공 추출 제어장치 {PUPIL ACQUISITION METHOD USING BINARY OF ADJACENT SUM AND CONTROL DEVICE FOR EXTRACTING PUPIL USING THE SAME}TECHNICAL FIELD [0001] The present invention relates to a pupil extraction method using adjacent sum binarization and a pupil extraction control method using the same.

본 발명은, 인접 합산 이진화를 이용한 동공 추출 방법 및 이를 이용한 동공 추출 제어장치에 관한 것으로, 더욱 상세하게는 종래 홍채를 이용 신원 확인시 홍채로부터 동공을 추출하기 위해 사용되는 곡면 및 원형 검출을 이용하는 경우 매우 많은 연산량이 필요하였고, 이로 인해 신원을 확인하는데 많은 시간이 소요되며, 복잡한 연산량에 의한 오작동으로 홍채 인식이 어려워짐은 물론, 많은 연산량에 의한 CPU 사용량의 증가로 그 설치 비용이 증가 되는 등 다양한 문제가 발생하였다.The present invention relates to a pupil extraction method using adjacent sum binarization and a pupil extraction control apparatus using the same. More particularly, the present invention relates to a pupil extraction method and a pupil extraction method using a curved surface and a circular shape detection method for extracting a pupil from an iris It requires a lot of calculation amount, it takes much time to confirm the identity, it is difficult to recognize the iris due to a malfunction due to a complicated calculation amount, and the cost of installation is increased due to an increase in CPU usage due to a large amount of computation A problem has occurred.

이러한 종래 기술의 문제점을 해결하기 위해 본 발명은 단순 이진화 대신 인접 합산 이진화를 이용하고, 종래에 비해 간단한 연산으로 동공 내의 무게중심을 확정할 수 있는 동공 추출 방법 및 이를 이용한 동공 추출 제어 장치에 관한 것이다.In order to solve the problems of the related art, the present invention relates to a pupil extracting method which uses adjoining summation binarization instead of simple binarization and which can determine the center of gravity in the pupil by a simple operation compared with the conventional art, and a pupil extraction controlling apparatus using the same .

본 발명은 종래에 비해 적은 연산량으로 동공과 홍채의 경계를 측정하고, 이 측정된 값을 기초로 동공을 추출하는 인접 합산 이진화를 이용한 동공 추출 방법과 이를 이용한 동공 추출 제어 장치를 제공함에 그 목적이 있다.
The present invention provides a pupil extraction method using adjacent sum binarization that measures the boundaries of pupil and iris with a smaller amount of computation than the prior art, extracts pupils based on the measured values, and a pupil extraction control apparatus using the same. have.

본 발명의 이해를 돕기 위해 일반적인 홍채 인식 기술에 대해 개략적으로 설명하면 다음과 같다.To facilitate understanding of the present invention, a general description of a general iris recognition technique is as follows.

개인을 식별하는 방법은 다양하고, 그 중에서도 생체인식은 가장 안정적이고 정확한 개인식별 방법으로서 각광을 받고 있다. 생체인식은 개개인의 물리적(생체적) 특성 및 행동적 특성을 기반으로 하여 개인을 식별하는 방법으로서, 지문, 얼굴, 홍채, 장문 등이 물리적 특성이라 할 수 있으며, 서명, 음성 등이 행동적 특성으로 분류될 수 있다. 이러한 개인의 특성을 기반으로 하는 개인식별 및 보안은 절도나 누출에 의해 전달할 수 없으며 변경되거나 분실할 위험성이 없으므로 보안 침해를 누가 행했는지 추적이 가능해지는 등 감사(audit) 기능이 완벽하게 구축될 수 있다는 장점이 있다.There are many ways to identify individuals. Among them, biometrics is getting the spotlight as the most stable and accurate method of identifying individuals. Biometrics is a method of identifying individuals based on individual physical (biological) and behavioral characteristics, such as fingerprints, faces, irises, and long passages. Physical characteristics include signatures, voices, . ≪ / RTI > Personal identification and security based on the characteristics of such individuals can not be delivered by theft or leakage, and there is no danger of being changed or lost. Therefore, the audit function can be completely constructed .

특히, 다양한 생체인식 방법 중에서 홍채는 개인을 식별함에 있어 유일성과 불변성, 안정성 측면에서 가장 뛰어나다고 알려져 있으며 오인식률이 매우 낮아 고도의 보안이 요구되는 분야에 적용되고 있는 추세를 보이고 있다.In particular, among various biometric methods, iris is known to be most excellent in terms of uniqueness, invariance, and stability in discriminating individuals, and has a tendency to be applied to fields requiring high security because of low recognition rate.

홍채는 출생 후 3세 이전에 모두 형성되며 특별한 외상을 입지 않는 한평생 변하지 않는 것으로 알려져 있으며, 지문보다 패턴이 더 다양하여 현재까지는 가장 완벽한 개인 식별 방법으로 알려져 있을 뿐만 아니라, 비접촉식으로 영상획득이 가능하기 때문에 사용자 편의성 또한 매우 높고, 위조가 불가능하여 안정성이 매우 높아서 시장 잠재력이 매우 클 것으로 예상되고 있다.
The iris is formed all before birth at 3 years of age. It is known that iris does not change during a lifetime without special trauma. It has more various patterns than fingerprints and is known as the most perfect person identification method so far. Therefore, it is expected that the market potential will be very high because the user convenience is very high and the forgery is impossible and the stability is very high.

한편, 일반적으로 홍채를 이용하여 특정 개인을 인식하는 방법에 있어서는, 사람의 눈 부분을 촬영한 영상 정보에서 실시간으로 홍채 인식을 위해 동공과 홍채의 검출은 필수적이다.On the other hand, in a method of recognizing a specific individual using an iris, it is indispensable to detect pupil and iris for real-time iris recognition from image information of a human eye.

홍채 인식을 위한 도그만(John G. Daugman)의 특허에도 홍채와 동공과의 경계선을 가장 잘 근사하는 원을 찾고 같은 원리로 홍채와 공막의 경계도 원으로 근사한 후 그 사이의 영역을 홍채영역으로 설정하고 이 영역을 등비례 원리에 의해 다수의 동심원들에 의해 구획되는 환형의 선택영역을 설정하고, 각 선택영역으로부터 가보(Gabor) 변환을 통해 추출된 홍채특징 정보를 홍채 코드로 저장수단에 저장하여 데이터베이스로 구축하여 놓은 다음, 신원확인시 추출되는 홍채특징정보를 각 선택영역별 등록 홍채특징정보와 비교하여 그 차이가 문턱값 이내에 있는 것으로 판단되면 등록된 사람과 동일인으로 판명하도록 하고 있다.John G. Daugman's patent for iris recognition also finds a circle that closely approximates the boundary between the iris and the pupil, approximates the boundary between the iris and the sclera with the same principle, The iris feature information extracted through the Gabor transform from each selected region is stored in an iris code as a storage means Then, the iris feature information extracted at the time of identity verification is compared with the registered iris feature information of each selection region. If it is determined that the difference is within the threshold value, it is determined that the same person is registered.

즉, 상기와 같은 방법에서는 동공과 홍채의 경계선을 정확하게 추출하는 것이 중요하고, 이를 위해서는 동공의 추출은 매우 중요한 역할을 수행하게 되는데, 그 이유는, 동공을 정확하게 추출해야 그에 따른 홍채를 정확하게 추출할 수 있고, 그에 따른 홍채 영역 데이타를 수집한 뒤, 기저장된 홍채 영역 데이타와 비교하여 신원을 확인할 수 있기 때문이다.
That is, it is important to accurately extract the boundary line between the pupil and the iris. In this case, the extraction of the pupil plays a very important role. For this reason, it is necessary to accurately extract the pupil to accurately extract the iris The iris region data can be collected and compared with the previously stored iris region data to confirm the identity.

한편, 동공과 홍채의 경계를 검출하도록 도그만의 특허를 이용한 기술은 흑백 영상에 대한 아래의 식으로서 동공경계를 원으로 정의하였다.
On the other hand, Dogman's patented technique for detecting the boundary between pupil and iris defined a pupil boundary as a circle for a monochrome image as a circle.

Figure pat00001

Figure pat00001

상기의 식에서, r은 동공경계의 반지름이고, x0, y0 는 중심좌표이고, I(x,y)는 해당좌표에서의 픽셀의 밝기이다.In the above equation, r is the radius of the pupil boundary, and x 0 , y 0 Is the center coordinate, and I (x, y) is the brightness of the pixel at that coordinate.

즉, 원둘레 밝기의 변화가 최대를 나타내는 지점을 경계로서 판단하게 된다. 중심과 반지름을 변화시켜가며 경계를 탐색하며, 중심탐색영역에 존재하는 픽셀 하나하나에 대해 각각 반지름을 탐색하여야 하므로 상당히 많은 계산 량이 필요로 하게 되어 실시간으로 영상을 처리하기에는 어려운 단점이 있다.That is, a point at which the change in the brightness of the circumference indicates the maximum is determined as a boundary. It is difficult to process the image in real time because it requires a large amount of calculation because each radius of each pixel in the central search area must be searched for by searching for the boundary while changing the center and the radius.

또한, 동공의 모양을 원으로 정의하고 있으나, 실제로는 찌그러진 원형을 이루는 경우가 대다수이므로 원형경계와 실제 동공경계와는 차이를 나타내는 문제점을 안고 있다.In addition, although the shape of the pupil is defined as a circle, since the majority of the pupil is actually a distorted circular shape, there is a problem that the circular boundary is different from the actual pupil boundary.

결국, 상기와 같이 도그만 특허를 이용하여 동공과 홍채의 경계를 추출시, 중심과 반지름을 변화시켜가면 그 경계를 탐색해야 하는바 많은 시간이 소모되고, 중심탐색영역에 존재하는 모든 픽셀들을 기준으로 탐색하는바, 그에 따른 시간 및 CPU 사용량이 증가 됨은 물론이고, 식 자체에 포함된 많은 변수와 적분으로 인해 홍채 인식시 많은 연산량에 의해 오작동이 될 확률이 높은 문제가 있다.
As a result, when extracting the boundary between the pupil and the iris by using the Dogman patent, it is time consuming to search the boundary when the center and the radius are changed, and all the pixels existing in the center search area The time and CPU usage are increased, and there is a problem that the iris recognition probability is high due to a large amount of computation in the iris recognition due to many variables and integrations included in the expression itself.

상기와 같은, 도그만 특허를 활용한 홍채 인식 시스템의 일반적인 방법과 그 각각의 방법의 문제점 및 본 발명이 도출된 배경을 설명하면 다음과 같다.The general method of the iris recognition system using Dogman patent, the problems of the respective methods, and the background of the present invention will be described as follows.

동공 경계 검출에 관한 기존의 방법으로는 이미 설명한 (1)도그만 특허를 이용한 원형 경계 검출기, (2)Hough Transform을 이용한 검출 기법, (3)Canny 윤곽 검출기를 이용한 검출, (4)히스토그램을 이용한 검출 등이 있다.
(2) Detection using Hough Transform; (3) Detection using Canny Contour Detector; (4) Histogram; Detection.

일반적으로 동공은 밝기의 특징이 뚜렷하고 형태가 원형을 이루고 있기 때문에, 이미 설명한 바와 같이 도그만 특허를 이용한 동공 경계 검출 방법은 다양한 중심과 반지름을 이용하여 원주의 최대 변화율을 가진 지점을 찾아내는 방법이나,원형 검출기는 동공을 원으로 간주하기 때문에 홍채 근육의 수축, 이완에 따른 동공의 기하학적 변화를 정확하게 잡아내지 못하는 단점이 있으며, 이를 보완하기 위해 항상 일정한 조명 아래에서 촬영되어야 하고, 고가의 장비가 필요하다. As described above, the pupil boundary detection method using the Dogman patent is a method of finding a point having the maximum change rate of the circumference by using various centers and radii. However, since the pupil has a characteristic of brightness and a circular shape, Since the circular detector regards the pupil as a circle, it can not accurately capture the geometric change of the pupil due to the contraction and relaxation of the iris muscle. To compensate for this, it is necessary to shoot under constant illumination at all times, and expensive equipment is required .

또한 최대값을 찾아내기 위해 반지름과 중심을 변화하며 많은 계산을 하여야 하기 때문에 메모리 비용과 계산 비용이 증가할 수밖에 없다.In order to find the maximum value, the radius and the center must be changed and many calculations must be performed. Therefore, the memory cost and the calculation cost are inevitably increased.

본 발명은, 상기와 같은 도그만 특허를 이용한 홍채 인식시 많은 계산과 메모리 비용 및 계산 비용이 절감될 수 있도록 보다 간단한 동공과 홍채 경계를 검출할 수 있는 알고리즘을 제공하고자 한다.
The present invention provides an algorithm capable of detecting a simpler pupil and iris boundary so as to reduce many calculations, memory costs, and computation costs in the iris recognition using the Dog patent.

한편, 동공의 윤곽 성분(Edge)을 이용하여 검출하기 위한 방법 중의 하나인 Hough Transform 기법은 이진 영상에서의 복잡한 패턴을 검출하는 방법이다.On the other hand, the Hough Transform method, which is one of the methods for detecting using the edge component of a pupil, is a method of detecting a complex pattern in a binary image.

이러한 Hough Transform 기법은 특정 패턴의 특징을 결정 짓는 파라미터 값들을 결정함으로써 이루어지는데, 공간적으로 흩어져 있는 패턴들의 성분은 Hough Transform을 통해 그 패턴의 파라미터 공간에서 일정 영역의 협소한 공간을 차지하는 특성으로 변환된다. 따라서 Hough Transform은 영상 공간에서 해결하기 어려운 문제를 파라미터 공간으로 변환하여 해결함으로써 보다 쉽게 문제의 해결이 가능하다. 그러나 이미 설명한 원형 검출 기법보다 메모리 비용이나 계산 비용에서 장점이 있지만, 원형이 아닌 기하학적 모양의 동공을 검출할 때 생겨나는 오차는 해결하지 못하는 단점이 있다.This Hough Transform technique is performed by determining the parameter values that determine the characteristics of a specific pattern. The components of the spatially scattered patterns are transformed into characteristics that occupy a narrow space in the parameter space of the pattern through the Hough Transform . Therefore, Hough Transform can resolve problems easily by solving problems that are difficult to solve in image space into parameter space. However, it has a merit in memory cost and computation cost compared to the circular detection method described above, but it has a drawback in that it can not solve the error that occurs when detecting a pupil of a geometric shape that is not a circular shape.

반면에 본 발명은 동공이 기하학적 모양이더라도 동공 내의 임의의 한 점 정확하게는 동공 내의 무게중심을 종래에 비해 간단한 알고리즘을 통해 검출하고, 이 임의의 한 점을 기점으로 최소 원형법을 이용 동공과 홍채의 경계를 검출하는바, Hough Transform 기법에 비해 보다 빠르고, 정확하게 동공과 홍채의 경계를 검출할 수 있는 장점이 있다.
On the other hand, even if the pupil is a geometric shape, the present invention detects a center of gravity in the pupil exactly at an arbitrary point in the pupil through a simpler algorithm than the conventional one, and uses the minimum circular method starting from this arbitrary point to determine the pupil and iris Boundary detection is faster and more accurate than the Hough Transform method, which can detect the boundary between pupil and iris.

한편, Canny 윤곽 검출기를 이용한 검출시 사용되는 Canny 필터는 경계(Edge) 검출 필터의 일종으로 가우시안(Gaussian) 필터를 이용하여 영상을 평활화한 후, 소벨(Sobel) 연산자를 사용하여 경계를 검출하는 과정으로 이루어지는데, 이 방법은 이진화 과정이 까다롭고 눈썹이나 홍채 패턴이 강할 경우 윤곽선 검출이 용이하지 않다는 단점을 가지고 있다.On the other hand, the Canny filter used in the detection using the Canny outline detector is a type of edge detection filter, which smoothes the image using a Gaussian filter and then detects a boundary using a Sobel operator This method is disadvantageous in that it is not easy to detect an outline when the binarization process is difficult and the eyebrow or iris pattern is strong.

반면에 본 발명은 단순 이진화가 아닌 영상정보를 구성하는 각각의 픽셀들의 주변 픽셀들의 그레이 레벨값의 총합과 설정된 기준값을 비교하여 각각의 픽셀들을 보정하는 인접 합산 이진화를 도입하였고, 더군다나 이러한 인접 합산 이진화 과정 전에 동공 내부 또는 동공과 홍채 경계에 존재하는 글린트를 제거함으로써 Canny 윤곽 검출기를 이용한 검출에서 처리하기 어려운 이진화 과정을 보다 효율적으로 처리할 수 있는 방법을 제공하고 있다.
On the other hand, the present invention introduces the adjacent sum binarization that corrects each pixel by comparing the sum of the gray level values of the surrounding pixels of each pixel constituting the image information, not the simple binarization, with the set reference value, and furthermore, By removing the glints present in the pupil or pupil and iris boundaries before the process, we provide a method to more efficiently handle the binarization process, which is difficult to handle in detection using the Canny outline detector.

마지막으로, 히스토그램 분석법은 입력 영상의 히스토그램에서 동공 부분에 해당되는 값을 찾아 영상을 이진화하여 동공을 추출하는 방법으로 구현이 간단하고 빠른 특징을 가지고 있고, 이 방법은 계산 비용이 저렴하고 구현이 간단하다는 장점을 지니고 있지만, 극대ㆍ극소점을 찾는 것이 쉽지 않고, 조명을 이용하여 동공 영역을 판단하는 방법은 많은 오류가 발생할 수 있다. 또한, 안경을 착용한 사용자나 영상 획득장비가 다를 경우 히스토그램은 민감하게 변화하는 등 여러 문제점을 노출하고 있다.Finally, the histogram analysis method is a method of extracting pupil by binarizing the image by finding a value corresponding to the pupil part in the histogram of the input image. The method has a simple and fast implementation, and this method has a low calculation cost and simple implementation However, it is not easy to find the maximum and minimum points, and a method of determining the pupil area using illumination may cause a lot of errors. In addition, when the user wearing glasses or the image acquisition equipment are different, the histogram exposes various problems such as sensitive change.

반면에, 본 발명은 상기와 같은 히스토그램 분석법처럼 극대점과 극소점을 찾지 않고, 조명을 이용하여 동공 영역도 찾지 않으며, 단순 이진화가 아닌 인접합산이진화 과정이 수행되고, 동공 영역 내의 임의의 한점을 선정하는 알고리즘 자체가 간단하게 구현되는 방법을 제공하고 있다.
On the other hand, the present invention does not find the maximum and minimum points as in the histogram analysis as described above, and does not search the pupil area using the illumination. The adjacent summation binarization process is performed instead of the simple binarization, and an arbitrary point in the pupil area is selected The algorithm itself is simple to implement.

이러한 동공과 홍채의 경계를 추출하기 위한 방법이나 장치는 여러 선행 기술 문헌을 통해 공개되어 있는 실정이다.The method and apparatus for extracting the boundary between the pupil and iris are disclosed in various prior art documents.

예를 들어, 한국등록특허공보 제10-0373850호(2003.02.13)인 "홍채를 이용한 신원 확인 시스템 및 방법과 그 방법에 대한 컴퓨터 프로그램 소스를 저장한 기록매체", 한국등록특허공보 제10-0376415호(2003.03.05) "눈 영상을 이용한 동공추출방법" 등을 포함하는 여러 기술이 공개되어 있으나, 본 발명과 같이 단순 이진화가 아닌 하나의 픽셀을 중심으로 그 주변 픽셀들의 그레이 레벨값을 이용하여 향상된 이진화 과정을 먼저 수행하거나, 동공 내부 또는 동공과 홍채 경계에 존재하는 글린트를 이 글린트 주변에 존재하는 동공 영역 내의 픽셀들의 그레이 레벨값을 이용하여 글린트를 효율적으로 제거하거나, 동공 영역 내의 임의의 한점을 빠르고, 정확하게 검출하는 알고리즘이 구현되지 않아 그 기술적 한계점을 가지고 있다.
For example, Korean Patent Registration No. 10-0373850 (Mar. 23, 2003) entitled " Identification system using iris and method and a recording medium storing a computer program source for the method ", Korean Patent Registration No. 10- And a method of extracting a pupil using an eye image. However, in the present invention, the gray level value of the surrounding pixels is used centering on one pixel rather than a simple binarization Or the glint present in the pupil or iris boundary can be efficiently removed by using the gray level value of the pixels in the pupil region existing around the glint, There is a technical limitation in that an algorithm for quickly and accurately detecting any one point in the image is not implemented.

한편, 종래 홍채 인식 기술에 있어 홍채를 인식하는 알고리즘을 수행하는 제어부가 설치되는데, 이 제어부는 카메라를 통해 실시간 촬영된 홍채이미지 중 그레이 레벨(Gray level) 값을 탐색하게 된다.Meanwhile, in the conventional iris recognition technology, a control unit for performing an algorithm for recognizing an iris is installed, and the control unit searches for a gray level value among iris images captured in real time through a camera.

이때, 홍채를 촬영하는 조명기구가 주변의 밝기와 상관없이 홍채 인식을 수행하는 장치 주변에 설치되어 홍채를 촬영하는 카메라의 초점 부위를 비추게 되는데, 조명기구의 불빛이 홍채와 동공에 반사되어 맺히게 되는 불빛이 바로 글린트(glint)이다.In this case, a lighting device for photographing the iris is installed around the device for performing iris recognition irrespective of the surrounding brightness, and illuminates the focus area of the camera for photographing the iris. The light of the lighting device is reflected by the iris and the pupil The light is glint.

동공을 추출하는데 있어서, 동공의 일부분이 눈썹이나 눈꺼풀에 의해 가려지는 경우 동공 추출이 어렵게 되고, 그에 따라 홍채 검출이 어려워지는 문제점이 존재함은 물론이지만, 이 눈썹이나 눈꺼풀에 못지 않게 동공 추출과정에서 어려운 것이 바로 글린트이다.In extracting the pupil, it is difficult to extract the pupil when a part of the pupil is covered with eyebrows or eyelids, and thus iris detection becomes difficult. Of course, there is a problem in extracting the pupil as well as eyebrows or eyelids The difficult thing is Glint.

즉, 글린트의 밝기나 크기는 다양하고, 명암 정확하게는 그레이 스케일 값 또는 그레이 레벨 값으로 동공과 홍채 및 공막을 판단하는 홍채 인식 방법에서 글린트로 인해 홍채나 동공을 인식하지 못하거나, 글린트로 인해 명암 밝기가 급격하게 변화여 글린트 주위에 마치 홍채가 존재하는 것으로 판단되어 신원 확인이 불가능하거나, 그 신원 확인에 있어 많은 시간이 소용되는 등 가장 예상하기 힘들고 처리하기 어려운 부분이 바로 동공 내부 또는 동공과 홍채 경계에 존재하는 글린트이다.In other words, the brightness and size of the glint vary, and iris recognition methods for accurately determining the pupil, iris, and sclera with grayscale values or gray level values can not accurately recognize the iris or pupil due to the glint, The intensity of contrast is rapidly changing. The most unexpected part is that the iris is considered to be present around the glint, which makes it impossible to confirm the identity of the glint, Or glint at the pupil and iris boundaries.

물론, 글린트를 구성하는 픽셀들의 그레이 레벨값을 글린트 주변에 존재하는 동공의 그레이 레벨값의 범위에 속하는 임의의 수치를 선정하여 보정 할 수 있으나, 이는 정확하지 않을 뿐만 아니라, 그 선정의 기준이 모호하고 이러한 방식으로 선정을 하더라도 글린트를 구성하는 픽셀들의 그레이 레벨값은 임의로 선정된 그레이 레벨값으로 일정하고, 글린트 주변에 존재하는 동공을 구성하는 픽셀들의 그레이 레벨값은 일정한 범위 내에서 다양하여 홍채를 인식하는 장치가 그레이 레벨값의 불균형 또는 급격한 변화로 인해 동공을 인식하지 못하는 문제가 발생하게 된다.Of course, the gray level value of the pixels constituting the glint can be corrected by selecting an arbitrary value belonging to the range of the gray level value of the pupil existing around the glint, but this is not accurate, The gray level value of the pixels constituting the glint is constant at the arbitrarily selected gray level value and the gray level value of the pixels constituting the pupil existing in the vicinity of the glint is within a certain range There arises a problem that iris recognizing apparatuses do not recognize the pupil due to unbalance or abrupt change in the gray level value.

이러한 글린트 제거와 관련하여 홍채 인식에 관한 기술은 여러 선행기술에 개시되어 있는데, 한국등록특허공보 제10-0826876호(2008.04.25)인 "홍채 검출 방법 및 이를 위한 장치"는 눈썹이나 눈꺼풀에 의해 가려진 영상정보에서도 홍채영역을 검출할 수 있는 방법 및 장치를 제공하고 있으나, 여전히 동공 내부 또는 동공과 홍채 경계에 존재하는 글린트의 문제점 인식 및 이 글린트를 처리하는 기술이 개시되어 있어 여전히 홍채 추출에 있어 한계점을 가지고 있으며, 한국등록특허공보 제10-1178855호(2012.08.27)인 "홍채 인식 시스템, 그 방법 및 이를 이용한 무선 통신 장치 보안 시스템"에 의하는 경우, 마스크를 이용하여 동공 부분과 동공 내의 조명 부분을 이루는 픽셀수를 카운트 함으로써 보다 선명한 이미지를 선택할 수 있다는 효과가 구현된다고 개시되어 있으나, 그 로직을 살펴보면, i)동공과 조명을 대비시켜 급격한 그레이 레벨값의 변화를 이용하여 판단하고, ii)입력되는 이미지를 필터링 하기 위한 1임계값이 필요하며, iii)별도의 제2임계값을 설정하여 이 제2임계값 보다 작은 픽셀수를 카운트 함은 물론이고, iv)최종 단계에서도 또 다른 제3임계값을 설정하는 등 그 선명한 이미지를 추출하는데 있어 다양한 기준값을 이용 필터링하여 그 로직이 복잡함은 물론이고, 그 검출하는 시간의 지연으로 인한 CPU 용량이 증가되는 등 다양한 문제가 발생한다.
The technique of iris recognition in relation to removal of glint is disclosed in various prior arts. Korean Patent Registration No. 10-0826876 (Apr. 25, 2008) entitled " Iris Detection Method and Apparatus therefor " The present invention provides a method and apparatus for detecting an iris region even in image information obscured by an iris, but still recognizes the problem of the glint existing in the pupil or the pupil and the iris boundary, According to the "iris recognition system, method thereof and security system for a wireless communication device using the same, " Korean Registered Patent No. 10-1178855 (2012.08.27), which has a limitation in extraction, And the number of pixels constituting the illumination portion in the pupil is counted, whereby a clearer image can be selected. However, if we look at the logic, i) it is judged using a sudden change in gray level value against the pupil and illumination, ii) one threshold value is required for filtering the input image, and iii) Values are set so that the number of pixels smaller than the second threshold value is counted, and iv) a third threshold value is set in the final stage, Not only this complexity, but also various problems such as an increase in the CPU capacity due to the delay of the detection time occur.

본 발명은, 상기와 같이 동공과 홍채의 경계 검출시 가장 처리하기 어려운 글린트를 제거하는 방법을 제공하고, 글린트를 제거한 뒤, 단순 이진화가 아닌 인접합산 이진화와 동공 영역 내의 임의의 한 점 구체적으로는 동공 영역의 무게 중심을 종래에 비해 간단한 알고리즘으로 찾을 수 있는 방법을 제공하고자 한다.
The present invention provides a method for eliminating glint which is hardest to process at the time of detecting the boundary between pupil and iris as described above. After eliminating the glint, it is possible to perform an approximate summation binarization instead of a simple binarization, We propose a method to find the center of gravity of the pupil region by a simple algorithm compared with the conventional one.

상기한 배경기술로서 설명된 사항들은 본 발명의 배경에 대한 이해 증진을 위한 것일 뿐, 이 기술분야에서 통상의 지식을 가진 자에게 이미 알려진 종래기술에 해당함을 인정하는 것으로 받아들여져서는 안 될 것이다.
It should be understood that the foregoing description of the background art is merely for the purpose of promoting an understanding of the background of the present invention and is not to be construed as adhering to the prior art already known to those skilled in the art.

한국등록특허공보 제10-0373850호(2003.02.13)Korean Patent Registration No. 10-0373850 (Mar. 23, 2003) 한국등록특허공보 제10-0376415호(2003.03.05)Korean Patent Registration No. 10-0376415 (Mar. 2003.05) 한국등록특허공보 제10-0826876호(2008.04.25)Korean Patent Registration No. 10-0826876 (Apr. 25, 2008) 한국등록특허공보 제10-1178855호(2012.08.27)Korean Registered Patent No. 10-1178855 (Aug. 27, 2012)

본 발명은 상기와 같은 종래의 문제점인, (1)동공 내부 또는 동공과 홍채 경계에 존재하는 글린트를 효율적으로 제거하는 것과 (2)종래 사용하던 단순 이진화를 지양하고, 픽셀 주변에 인접한 픽셀들의 그레이 레벨값을 이용한 인접 합산 이진화를 구현하고, (3)종래 동공 추출시 사용되었던 곡면 및 원형 검출에 의한 동공과 홍채의 경계를 추출하는 문제점을 보완한 인접 합산 이진화를 이용한 동공 추출 방법 및 이를 이용한 동공 추출 제어장치를 제공함에 그 목적이 있다.SUMMARY OF THE INVENTION It is an object of the present invention to solve the above-mentioned problems of the prior art as follows: (1) Efficient removal of a glint present inside a pupil or between a pupil and an iris boundary; (2) (3) Pupil extraction method using neighboring summation binarization that solves the problem of extracting the boundary between pupil and iris by curved and circular detection, which was used in conventional pupil extraction, and its use And an object thereof is to provide a pupil extraction control device.

인접 합산 이진화를 이용한 동공 추출 방법이 소개된다.A pupil extraction method using adjacent sum binarization is introduced.

이를 위해 본 발명은, 눈 부분을 촬영한 영상정보에 있어서, 상기 영상정보에 나타난 글린트를 제거하는 단계; 상기 글린트가 제거된 영상정보를 설정된 기준 그레이 레벨값과 비교하여 보정하는 인접 합산 이진화 단계; 상기 인접 합산 이진화 단계에 의한 영상정보의 무게중심을 이용하여 동공 영역을 확정하는 단계; 및 상기 확정된 동공 영역 내의 무게 중심을 이용하여 동공과 홍채의 경계점들을 합산하는 단계를 포함한다.To this end, according to the present invention, there is provided an image processing method comprising the steps of: removing, in image information obtained by photographing an eye part, a glint appearing in the image information; A neighboring summation binarization step of comparing the image information from which the glint has been removed with a preset reference gray level value to correct the image information; Determining a pupil region using the gravity center of the image information by the adjacent summation binarization step; And summing the pupil and iris boundary points using the center of gravity in the determined pupil region.

상기 글린트를 제거하는 단계는, 상기 영상정보에 나타난 글린트에 인접한 동공 영역의 그레이 레벨값을 확인하는 단계와 상기 그레이 레벨값을 이용하여 상기 글린트를 보정하는 단계 및 상기 보정된 글린트로 상기 동공내에 존재하는 글린트를 제거하는 단계를 더 포함하는 것을 특징으로 한다.The step of removing the glint may include the steps of: identifying a gray level value of a pupil region adjacent to the glint in the image information; correcting the glint using the gray level value; And removing the glint present in the pore.

상기 그레이 레벨값을 확인하는 단계는, 상기 영상정보를 복수 개의 픽셀로 분할하고, 상기 글린트 내부에서 기준픽셀을 설정하여 상기 기준 픽셀을 둘러싸는 주변 픽셀의 그레이 레벨값이 상기 동공 영역의 그레이 레벨값 범위에 포함되는지 여부를 판단한 후, 상기 동공 영역의 그레이 레벨값 범위에 포함되는 상기 주변 픽셀의 그레이 레벨값의 평균값을 구하여 상기 픽셀의 그레이 레벨값을 확인하는 것을 특징으로 한다.Wherein the step of verifying the gray level value comprises: dividing the image information into a plurality of pixels; setting a reference pixel within the glint so that a gray level value of a surrounding pixel surrounding the reference pixel is greater than a gray level Value range, and then determines an average value of the gray level values of the surrounding pixels included in the gray level value range of the pupil region to check the gray level value of the pixel.

상기 기준 픽셀은 상기 글린트의 무게중심인 것을 특징으로 한다.And the reference pixel is a center of gravity of the glint.

상기 주변 픽셀의 그레이 레벨값이 상기 동공 영역의 그레이 레벨값 범위를 벗어나면 상기 기준 픽셀의 좌측 인접 주변 픽셀을 새로운 기준 픽셀로 설정하고, 상기 좌측 인접 주변 픽셀의 그레이 레벨값이 상기 동공 영역의 그레이 레벨값 범위를 벗어나면 상측 인접 주변 픽셀을 새로운 기준 픽셀로 설정하며, 상기 상측 인접 주변 픽셀의 그레이 레벨값이 상기 동공 영역의 그레이 레벨값 범위를 벗어나면 우측 인접 주변 픽셀을 새로운 기준 픽셀로 설정하고, 상기 우측 인접 주변 픽셀의 그레이 레벨값이 상기 동공 영역의 그레이 레벨값 범위를 벗어나면 하측 인접 주변 픽셀을 새로운 기준 픽셀로 설정하는 것을 특징으로 한다.And sets the left neighboring neighboring pixel of the reference pixel as a new reference pixel if the gray level value of the neighboring pixel is out of the gray level value range of the pupil region, Sets the upper neighboring peripheral pixel as a new reference pixel when the gray level value of the upper neighboring neighboring pixel is out of the gray level value range of the pupil region, And sets the lower neighboring neighboring pixel as a new reference pixel if the gray level value of the right adjacent neighboring pixel is out of the gray level value range of the pupil region.

상기 글린트를 보정하는 단계는, 상기 확인된 인접한 동공 영역의 그레이 레벨값을 상기 글린트 내부에 적용하는 것을 특징으로 한다.The step of correcting the glint is characterized in that the gray level value of the identified adjacent pupil region is applied to the inside of the glint.

상기 보정 과정은, 보정 과정이 진행된 경로를 추적하여 잔여 글린트에 해당하는 픽셀을 추출하고, 이 잔여 글린트를 새로운 기준 픽셀로 설정한 후, 새로운 상기 기준 픽셀을 둘러싸는 주변 픽셀 중 상기 동공 영역의 그레이 레벨값 범위에 포함되는 주변 픽셀의 그레이 레벨값 평균값으로 새로운 상기 기준 픽셀의 그레이 레벨값을 보정하는 것을 특징으로 한다.The correction process may include tracking a path through which the correction process is performed to extract pixels corresponding to the remaining glint, setting the remaining glint to a new reference pixel, And corrects the gray level value of the new reference pixel with an average value of the gray level values of the surrounding pixels included in the gray level value range of the reference pixel.

상기 보정 과정은, 보정 과정이 진행된 경로를 추적하여 상기 글린트 내부에 존재하는 모든 픽셀들이 그 주위를 둘러싸는 주변 픽셀의 그레이 레벨값이 상기 동공 영역의 그레이 레벨값 범위에 포함되는 경우 상기 보정 과정을 완료하는 것을 특징으로 한다.Wherein the correction process tracks a path where the correction process is performed so that when the gray level value of the surrounding pixels surrounding all the pixels existing in the glint is included in the gray level value range of the pupil area, Is completed.

상기 글린트를 보정하는 단계는, 상기 글린트가 상기 동공과 홍채의 경계에 존재하면, 상기 확인된 인접한 동공 영역의 그레이 레벨값을 상기 글린트 내부에 적용하기에 앞서, 상기 글린트의 무게중심을 지나는 복수 개의 직선을 가정하고, 복수 개의 직선 중 상기 동공 영역과 만나는 복수 개의 점들 중 제1포인트 및 제2포인트를 확정한 후, 상기 제1포인트 및 제2포인트를 연결하여 상기 동공 영역에 근접한 글린트 영역을 상기 동공 영역으로 보정하는 것을 특징으로 한다.Wherein the step of correcting the glint comprises: if the glint is at the boundary of the pupil and the iris, prior to applying the gray level value of the identified adjacent pupil region to the inside of the glint, A first point and a second point among a plurality of points of the plurality of straight lines intersecting with the pupil region are determined and then the first point and the second point are connected to each other so as to be close to the pupil region And the glint region is corrected to the pupil region.

상기 제1포인트는, 상기 복수 개의 직선이 일방향으로 회전하되, 상기 동공 영역 내의 그레이 레벨값 범위에 포함되는 점들을 탐지하는 도중 2개의 지점이 감지된 후, 다시 1개의 지점으로 감지될 때의 동공 측에 위치한 픽셀인 것을 특징으로 하고, 상기 제2포인트는, 상기 복수 개의 직선이 타방향으로 회전하되, 상기 동공 영역 내의 그레이 레벨값 범위에 포함되는 1개의 지점이 연속적으로 감지되다 더 이상 감지되지 않는 시점에 동공 측에 위치한 픽셀인 것을 특징으로 한다.Wherein the first point is a point where the plurality of straight lines are rotated in one direction and two points are detected on the way of detecting points included in the gray level value range in the pupil region, Wherein the second point is a point where the plurality of straight lines are rotated in the other direction and one point included in the gray level value range within the pupil area is continuously detected and is no longer detected Is a pixel positioned on the pupil side at a time point when the pupil is not in the pupil plane.

상기 동공내에 존재하는 글린트를 제거하는 단계는, 상기 보정된 글린트를 상기 영상정보에 나타난 글린트에 머징하는 것을 특징으로 한다.Wherein removing the glint present in the pupil is performed by merging the corrected glint into the glint indicated in the image information.

상기 인접 합산 이진화 단계는, 상기 영상정보를 복수 개의 픽셀로 분할하고, 이 분할된 각각의 픽셀을 메인픽셀로 설정하고, 상기 메인 픽셀과 이 메인 픽셀을 둘러싸는 주변 픽셀들의 그레이 레벨값 총합과 설정된 제1기준값을 비교하여 상기 메인 픽셀의 그레이 레벨값을 보정하여 상기 영상정보의 밝은 영역을 확장하는 제1차 이진화 단계와, 상기 제1차 이진화 단계에 의해 보정된 영상정보를 복수 개의 픽셀로 분할하고, 이 분할된 각각의 픽셀을 메인 픽셀로 설정하며, 상기 메인 픽셀과 이 메인 픽셀을 둘러싸는 주변 픽셀들의 그레이 레벨값 총합과 설정된 제2기준값을 비교하여 상기 메인 픽셀의 그레이 레벨값을 보정함으로써, 상기 영상 정보의 어두운 영역을 확장하는 제2차 이진화 단계로 구성된 것을 특징으로 한다.Wherein the neighboring summation binarization step divides the image information into a plurality of pixels, sets each of the divided pixels as a main pixel, and sets a sum of a gray level value of the main pixel and surrounding pixels surrounding the main pixel, A first secondary binarization step of comparing a first reference value and correcting a gray level value of the main pixel to expand a bright area of the image information; and a second binarization step of dividing the image information corrected by the first binarization step into a plurality of pixels , Sets each of the divided pixels as a main pixel, compares the sum of the gray level values of the main pixel and surrounding pixels surrounding the main pixel with a set second reference value, and corrects the gray level value of the main pixel And a second binarization step of expanding the dark region of the image information.

상기 동공 영역을 확정하는 단계는, 상기 인접 합산 이진화된 이미지의 행과 열의 프로파일 정보에서 행 및 열을 따라 설정된 기준에 따라 필터링된 이미지의 제N-1가상 무게중심을 산출하는 단계; 상기 인접 합산 이진화된 이미지를 리버싱하고, 이 리버싱된 이미지에서 상기 제N-1가상 무게중심을 원의 중심으로 하여 산정된 원 내부에 위치하는 픽셀들만 채택한 뒤, 이 채택된 이미지의 제N가상 무게중심을 산출하는 단계; 및 상기 제N가상 무게중심이 하기의 식을 만족할 때, 상기 동공 영역이 확정되는 것을 특징으로 한다.The step of determining the pupil region may include calculating an N-1 imaginary center of gravity of an image filtered according to a reference set along rows and columns in the profile information of the row and column of the adjacent summed binarized image; Reversing the neighboring summation binarized image and adopting only the pixels located within the circle estimated with the N-1 imaginary center of gravity as the center of the circle in the reversed image, Calculating a virtual center of gravity; And when the Nth imaginary center of gravity satisfies the following equation, the pupil region is determined.

Figure pat00002
Figure pat00002

(Xn 과 Yn 은 제N가상 무게중심의 좌표, a와 b 는 상수)
(X n And Y n The coordinates of the Nth virtual gravity center, and a and b are constants)

상기 제N-1가상 무게중심을 산출하는 단계는, 상기 인접합산 이미지를 상하로 리버싱하는 단계; 상기 리버싱된 이미지의 행을 따라 연속적으로 인접된 어두운 영역의 픽셀들로 구성된 수평이미지추출단계; 상기 리버싱된 이미지의 열을 따라 연속적으로 인접된 어두운 영역의 픽셀들로 구성된 수직이미지추출단계; 및 상기 수평이미지와 상기 수직이미지의 중첩된 이미지를 추출한 뒤, 이 중첩된 이미지를 구성하는 픽셀들의 좌표값을 이용하여 상기 제N-1가상 무게중심을 산출하는 것을 특징으로 한다.The calculating of the (N-1) imaginary gravity center may include: vertically reversing the adjacent sum image; A horizontal image extracting step of consecutively contiguous dark area pixels along a row of the reversed image; A vertical image extracting step of consecutively contiguous dark area pixels along the column of the reversed image; And calculating the N-1 imaginary center of gravity using coordinate values of the pixels constituting the superimposed image after extracting the superimposed image of the horizontal image and the vertical image.

상기 제N가상 무게중심을 산출하는 단계는, 상기 제N-1가상 무게중심을 따라 수직으로 연장시 최상단에서 만나는 픽셀군의 양 끝단에 위치한 제N-1좌측픽셀과 제N-1우측픽셀을 산정하는 단계; 상기 양 끝단에 해당하는 픽셀들의 X좌표 평균값과 상기 제N-1가상 무게중심의 Y좌표로 결정되는 제N-1가상원중심(Xn -1, Yn -1)을 산정하는 단계; 상기 제N-1가상원중심과 상기 제N-1좌측픽셀 또는 상기 제N-1우측픽셀간의 거리를 반지름 (rn -1)으로 하는 원을 산정하는 단계; 상기 원 내부에 위치하는 어두운 영역의 픽셀들만 채택한 뒤, 이 채택된 어두운 영역을 구성하는 픽셀들의 좌표를 이용하여 상기 제N가상 무게중심을 산출하는 것을 특징으로 한다.The calculating of the Nth imaginary center of gravity may include calculating an N-1 left pixel and an N-1 right pixel located at both ends of a group of pixels at the top when extending vertically along the N-1 imaginary center of gravity, Calculating; Calculating an N-1 virtual circle center (X n -1, Y n -1 ) determined by an X coordinate average value of the pixels corresponding to the both ends and a Y coordinate of the (N-1) imaginary center of gravity; Calculating a circle having a radius (r n -1 ) between a distance between the (N-1) th imaginary circle center and the (N-1) th left pixel or the (N-1) th right pixel; The N th imaginary center of gravity is calculated using the coordinates of the pixels constituting the adopted dark region after adopting only the pixels in the dark region located inside the circle.

상기 동공 영역이 확정되도록 만족하는 식은, 하기의 식을 만족하는 것을 특징으로 한다.The formula satisfying that the pupil region is determined satisfies the following expression.

(rn -1 - rn)/rn -1 ≤ 5/100(r n -1 - r n ) / r n -1 5/100

(rn 은 제N가상 무게중심이 원의 중심이고, 이 원의 반지름)(r n The center of gravity of the Nth virtual gravity is the center of the circle, and the radius of this circle)

상기 rn 을 산출하는 단계는, 상기 제N가상 무게중심을 따라 수직으로 연장시 최상단에서 만나는 픽셀군의 양 끝단에 위치한 제N좌측픽셀과 제N우측픽셀을 산정하는 단계; 상기 양 끝단에 해당하는 픽셀들의 X좌표 평균값과 상기 제N가상 무게중심의 Y좌표로 결정되는 제N가상원중심(Xn, Yn)을 산정하는 단계; 상기 제N가상원중심과 상기 제N좌측픽셀 또는 상기 제N우측픽셀간의 거리를 반지름(rn)으로 산출하는 것을 특징으로 한다.The r n Calculating an Nth left pixel and an Nth right pixel located at both ends of a group of pixels that meet at the top when extending vertically along the Nth imaginary center of gravity; Calculating an X-coordinate average value of pixels corresponding to the both ends and an N- th virtual circle center (X n, Y n ) determined as a Y-coordinate of the Nth virtual gravity center; The distance between the Nth imaginary circle center and the Nth left pixel or the Nth right pixel is calculated as a radius r n .

상기 동공과 홍채의 경계점들을 합산하는 단계는, 상기 확정된 동공 영역의 무게중심을 중심으로, 일방향으로 회전하면서 명암이 변동되는 지점들을 체크하고, 이 지점들을 이용 최소원형법을 통해 동공을 추출하는 것을 특징으로 한다.The step of summing the boundary points of the pupil and the iris includes the steps of checking the points where the light and shade are changed while rotating in one direction about the center of gravity of the determined pupil region and extracting the pupils through the minimum circular method using these points .

한편, 동공 추출 제어장치가 소개된다.On the other hand, a pupil extraction control device is introduced.

이를 위해 본 발명은, 개인의 눈부분을 촬영한 영상정보에 있어서, 상기 촬영된 영상정보에 나타난 글린트에 인접한 동공 영역의 그레이 레벨값을 이용하여 상기 글린트를 제거하는 글린트 추출부; 상기 글린트가 제거된 복수 개의 픽셀로 구성된 영상정보를 설정된 기준값과 비교하여 상기 영상정보의 어두운 영역과 밝은 영역을 확장하는 인접합산이진화부; 상기 이진화된 영상정보의 무게중심을 이용하여 동공 영역을 확정하는 동공 처리부; 및 상기 확정된 동공 영역 내의 무게 중심을 이용하여 동공과 홍채의 경계점들을 합산하여 동공을 추출하는 동공검출부를 포함한다.To this end, according to the present invention, there is provided a stereoscopic image processing apparatus, comprising: a glint extracting unit for extracting an image of an eye part of an individual by using a gray level value of a pupil area adjacent to a glint appearing in the photographed image information; An adjacent summation binarizer for comparing the image information composed of a plurality of pixels from which the glint is removed with a set reference value to expand a dark region and a bright region of the image information; A pupil processor for determining a pupil region using the center of gravity of the binarized image information; And a pupil detection unit for extracting the pupil by summing the boundary points of the pupil and the iris by using the center of gravity in the determined pupil region.

상기 글린트 추출부는, 상기 촬영된 영상정보를 저장하는 데이터 베이스부;상기 촬영된 영상정보로부터 글린트를 추출하고, 상기 영상정보를 이진화하여 흑백으로 표현하되 상기 글린트가 그레이 레벨값으로 표현된 영상정보 영역 중 동공의 내부 영역에 해당하는지 여부를 판단하며, 상기 글린트가 상기 동공 내부 영역에 해당되면 상기 글린트를 상기 동공의 그레이 레벨값 범위로 보정하여 상기 동공 영역을 확정하고 이를 추출하여 홍채 영역을 확정하는 홍채 처리부; 및 상기 데이터 베이스부에 기 저장된 영상정보와 상기 글린트 처리부에서 확정된 홍채 영역과의 일치 여부를 판단하는 비교부를 더 포함하는 것을 특징으로 한다.Wherein the glint extracting unit comprises: a database for storing the photographed image information; a glint extracting unit for extracting a glint from the photographed image information, binarizing the image information, and expressing the image information in black and white, wherein the glint is expressed as a gray level value Determines whether or not the pupil corresponds to an inner region of the pupil of the image information region, and if the glint is within the pupil region, corrects the glint to the gray level value range of the pupil to determine the pupil region and extracts the pupil region An iris processing unit for determining an iris region; And a comparison unit for determining whether or not the image information previously stored in the database unit matches the iris region determined by the glint processing unit.

상기 홍채 처리부는, 영상 정보를 복수 개의 픽셀로 분할하고, 상기 픽셀의 그레이 레벨값이 기준 그레이 레벨값 이상이면 상기 글린트로 판단하여 추출하는 글린트 추출모듈을 더 포함하는 것을 특징으로 한다.The iris processing unit may further include a glint extraction module that divides the image information into a plurality of pixels and determines the glint value and extracts the image if the gray level value of the pixel is equal to or greater than a reference gray level value.

상기 홍채 처리부는, 추출된 상기 글린트를 이진화되어 흑백으로 표현된 상기 영상정보에 마스킹(masking)하여 상기 글린트가 상기 영상정보 영역 중 상기 동공의 내부 영역에 해당하는지 여부를 판단하는 글린트 위치판단모듈을 더 포함하는 것을 특징으로 한다.The iris processing unit may mask the extracted glint to the image information represented by the binarized and monochrome image to determine whether the glint corresponds to the inner region of the pupil of the image information region, And a determination module.

상기 홍채 처리부는, 상기 영상정보를 복수 개의 픽셀로 분할하고, 상기 글린트 내부에서 기준 픽셀을 설정하여 상기 기준 픽셀을 둘러싸는 주변 픽셀의 그레이 레벨값이 상기 동공 영역의 그레이 레벨값 범위에 포함되는지 여부를 판단한 후, 상기 동공 영역의 그레이 레벨값 범위에 포함되는 상기 주변 픽셀의 그레이 레벨값 평균값으로 상기 기준 픽셀의 그레이 레벨값으로 보정하는 글린트 보정모듈을 더 포함하는 것을 특징으로 한다.Wherein the iris processing unit divides the image information into a plurality of pixels and sets a reference pixel within the glint so that a gray level value of a surrounding pixel surrounding the reference pixel is included in a gray level value range of the pupil area And a glint correction module for correcting the average value of the gray level values of the surrounding pixels included in the gray level value range of the pupil region to the gray level value of the reference pixel.

상기 글린트 보정모듈에서 상기 기준 픽셀은 상기 글린트의 무게중심인 것을 특징으로 한다.In the glint correction module, the reference pixel is a center of gravity of the glint.

상기 주변 픽셀의 그레이 레벨값이 상기 동공 영역의 그레이 레벨값 범위를 벗어나면 상기 기준 픽셀의 좌측 인접 주변 픽셀을 새로운 기준 픽셀로 설정하고,상기 좌측 인접 주변 픽셀의 그레이 레벨값이 상기 동공 영역의 그레이 레벨값 범위를 벗어나면 상측 인접 주변 픽셀을 새로운 기준 픽셀로 설정하며, 상기 상측 인접 주변 픽셀의 그레이 레벨값이 상기 동공 영역의 그레이 레벨값 범위를 벗어나면 우측 인접 주변 픽셀을 새로운 기준 픽셀로 설정하고, 상기 우측 인접 주변 픽셀의 그레이 레벨값이 상기 동공 영역의 그레이 레벨값 범위를 벗어나면 하측 인접 주변 픽셀을 새로운 기준 픽셀로 설정하는 것을 특징으로 한다.And sets the left neighboring neighboring pixel of the reference pixel as a new reference pixel if the gray level value of the neighboring pixel is out of the gray level value range of the pupil region, Sets the upper neighboring peripheral pixel as a new reference pixel when the gray level value of the upper neighboring neighboring pixel is out of the gray level value range of the pupil region, And sets the lower neighboring neighboring pixel as a new reference pixel if the gray level value of the right adjacent neighboring pixel is out of the gray level value range of the pupil region.

상기 보정 과정은, 보정 과정이 진행된 경로를 추적하여 잔여 글린트에 해당하는 픽셀을 추출하고, 이 잔여 글리트를 새로운 기준 픽셀로 설정한 후, 새로운 상기 기준 픽셀을 둘러싸는 주변 픽셀 중 상기 동공 영역의 그레이 레벨값 범위에 포함되는 주변 픽셀의 그레이 레벨값 평균값으로 새로운 상기 기준 픽셀의 그레이 레벨값을 보정하는 것을 특징으로 한다.The correction process may include tracking a path through which the correction process is performed to extract a pixel corresponding to the remaining glint, setting the remaining glit to a new reference pixel, And corrects the gray level value of the new reference pixel with an average value of the gray level values of the surrounding pixels included in the gray level value range of the reference pixel.

상기 보정 과정은, 보정 과정이 진행된 경로를 추적하여 상기 글린트 내부에 존재하는 모든 픽셀들이 그 주위를 둘러싸는 주변 픽셀의 그레이 레벨값이 상기 동공 영역의 그레이 레벨값 범위에 포함되는 경우 상기 보정 과정을 완료하는 것을 특징으로 한다.Wherein the correction process tracks a path where the correction process is performed so that when the gray level value of the surrounding pixels surrounding all the pixels existing in the glint is included in the gray level value range of the pupil area, Is completed.

상기 글린트가 상기 동공과 홍채의 경계에 존재하면, 상기 글린트의 무게중심을 지나는 복수 개의 직선을 가정하고, 복수 개의 직선 중 상기 동공 영역과 만나는 복수 개의 점들 중 제1포인트 및 제2포인트를 확정한 후, 상기 제1포인트 및 제2포인트를 연결하여 상기 동공 영역에 근접한 글린트 영역을 상기 동공 영역으로 보정하는 것을 특징으로 한다.If the glint is present at the boundary between the pupil and the iris, a plurality of straight lines passing through the center of gravity of the glint are assumed, and a first point and a second point among a plurality of points, And then connecting the first point and the second point to correct the glint region close to the pupil region to the pupil region.

상기 제1포인트는, 상기 복수 개의 직선이 일방향으로 회전하되, 상기 동공 영역 내의 그레이 레벨값 범위에 포함되는 점들을 탐지하는 도중 2개의 지점이 감지된 후, 다시 1개의 지점으로 감지될 때의 동공 측에 위치한 픽셀인 것을 특징으로 하고, 상기 제2포인트는, 상기 복수 개의 직선이 타방향으로 회전하되, 상기 동공 영역 내의 그레이 레벨값 범위에 포함되는 1개의 지점이 연속적으로 감지되다 더 이상 감지되지 않는 시점에 동공 측에 위치한 픽셀인 것을 특징으로 한다.Wherein the first point is a point where the plurality of straight lines are rotated in one direction and two points are detected on the way of detecting points included in the gray level value range in the pupil region, Wherein the second point is a point where the plurality of straight lines are rotated in the other direction and one point included in the gray level value range within the pupil area is continuously detected and is no longer detected Is a pixel positioned on the pupil side at a time point when the pupil is not in the pupil plane.

상기 인접합산이진화부는, 상기 영상정보를 복수 개의 픽셀로 분할하고, 이 분할된 각각의 픽셀을 메인픽셀로 설정하고, 상기 메인 픽셀과 이 메인 픽셀을 둘러싸는 주변 픽셀들의 그레이 레벨값 총합과 설정된 제1기준값을 비교하여 상기 메인 픽셀의 그레이 레벨값을 보정하여 상기 영상정보의 밝은 영역을 확장하는 제1차 이진화 모듈과, 상기 제1차 이진화 단계에 의해 보정된 영상정보를 복수 개의 픽셀로 분할하고, 이 분할된 각각의 픽셀을 메인 픽셀로 설정하며, 상기 메인 픽셀과 이 메인 픽셀을 둘러싸는 주변 픽셀들의 그레이 레벨값 총합과 설정된 제2기준값을 비교하여 상기 메인 픽셀의 그레이 레벨값을 보정함으로써, 상기 영상 정보의 어두운 영역을 확장하는 제2차 이진화 모듈로 구성된 것을 특징으로 한다.The adjacent summation binarization unit divides the image information into a plurality of pixels, sets each of the divided pixels as a main pixel, and outputs a sum of a gray level value of the main pixel and neighboring pixels surrounding the main pixel, A first order binarization module for comparing a reference value of the main pixel with a gray level value of the main pixel to expand a bright region of the image information, and a second binarization module for dividing the image information corrected by the first binarization step into a plurality of pixels And the gray level value of the main pixel is corrected by comparing the total sum of the gray level values of the main pixel and the surrounding pixels surrounding the main pixel with the set second reference value, And a second binarization module for expanding a dark region of the image information.

상기 동공 처리부는, 상기 인접 합산 이진화된 이미지의 행과 열의 프로파일 정보에서 행 및 열을 따라 설정된 기준에 따라 필터링된 이미지의 제N-1가상 무게중심을 산출하는 제N-1산출모듈과, 상기 인접 합산 이진화된 이미지를 리버싱하고, 이 리버싱된 이미지에서 상기 제N-1가상 무게중심을 원의 중심으로 하여 산정된 원 내부에 위치하는 픽셀들만 채택한 뒤, 이 채택된 이미지의 제N가상 무게중심을 산출하는 제N산출모듈과, 상기 제N가상 무게중심이 하기의 식을 만족하는지 여부를 판단하여 상기 동공 영역을 확정하는 제1차판단모듈을 더 포함하는 것을 특징으로 한다.The pupil processing unit may include an (N-1) th calculation module for calculating an (N-1) imaginary center of gravity of an image filtered according to a reference set along a row and a column in the profile information of the row and column of the adjacent summed binarized image, And then the neighboring sum binarized image is reversed and only the pixels located within the circle estimated with the N-1 imaginary center of gravity as the center of the circle in this reversed image are used, and then the Nth virtual And a first determination module that determines the pupil area by determining whether the Nth imaginary center of gravity satisfies the following equation.

Figure pat00003
Figure pat00003

(Xn 과 Yn 은 제N가상 무게중심의 좌표, a와 b 는 상수)(X n And Y n The coordinates of the Nth virtual gravity center, and a and b are constants)

상기 제N-1산출모듈은, 상기 인접합산 이미지를 상하로 리버싱하고, 상기 리버싱된 이미지의 행을 따라 연속적으로 인접된 어두운 영역의 픽셀들로 구성된 수평이미지와 열을 따라 연속적으로 인접된 어두운 영역의 픽셀들로 구성된 수직이미지를 추출한 뒤, 상기 수평이미지와 상기 수직이미지의 중첩된 이미지를 추출하여 이 중첩된 이미지를 구성하는 픽셀들의 좌표값을 이용 상기 제N-1가상 무게중심을 산출하는 것을 특징으로 한다.Wherein the N-1 th calculation module comprises: an N-1 calculation module for reversing the adjacent summed image up and down, and for successively contiguous neighboring images along a column with a horizontal image consisting of successive contiguous dark pixels along a row of the reversed image Extracts a vertical image composed of pixels in a dark region, extracts a superimposed image of the horizontal image and the vertical image, and calculates the N-1 imaginary center of gravity using coordinate values of the pixels constituting the superimposed image .

상기 제N산출모듈은, 상기 제N-1가상 무게중심을 따라 수직으로 연장시 최상단에서 만나는 픽셀군의 양 끝단에 위치한 제N-1좌측픽셀과 제N-1우측픽셀을 산정하고, 상기 양 끝단에 해당하는 픽셀들의 X좌표 평균값과 상기 제N-1가상 무게중심의 Y좌표로 결정되는 제N-1가상원중심(Xn -1, Yn -1)을 산정하며, 상기 제N-1가상원중심과 상기 제N-1좌측픽셀 또는 상기 제N-1우측픽셀간의 거리를 반지름 (rn -1)으로 하는 원을 산정한 뒤, 상기 원 내부에 위치하는 어두운 영역의 픽셀들만 채택하여 이 채택된 어두운 영역을 구성하는 픽셀들의 좌표를 이용 상기 제N가상 무게중심을 산출하는 것을 특징으로 한다.The N th calculation module calculates an (N-1) th left pixel and an (N-1) th right pixel positioned at both ends of a pixel group meeting at the uppermost end when extending vertically along the (N-1) imaginary center of gravity, 1 imaginary circle center (X n -1, Y n -1 ) determined by the X coordinate average value of the pixels corresponding to the (N-1) th virtual gravity center and the Y coordinate of the (N-1) imaginary gravity center, (R n -1 ) between the first virtual circle center and the (N-1) th left pixel or the (N-1) th right pixel, and then selects only the pixels in the dark region located in the circle And the Nth imaginary center of gravity is calculated using the coordinates of pixels constituting the adopted dark region.

상기 동공 영역이 확정되도록 만족하는 식은, 하기의 식을 만족하는지 여부를 판단하는 제2차판단모듈을 더 포함하는 것을 특징으로 한다.The equation satisfying that the pupil area is determined further includes a second determination module that determines whether or not the following expression is satisfied.

(rn -1 - rn)/rn -1 ≤ 5/100(r n -1 - r n ) / r n -1 5/100

(rn 은 제N가상 무게중심이 원의 중심이고, 이 원의 반지름)
(r n The center of gravity of the Nth virtual gravity is the center of the circle, and the radius of this circle)

상기 제2차판단모듈은, 상기 rn 을 산출하기 위해, 상기 제N가상 무게중심을 따라 수직으로 연장시 최상단에서 만나는 픽셀군의 양 끝단에 위치한 제N좌측픽셀과 제N우측픽셀을 산정하고, 상기 양 끝단에 해당하는 픽셀들의 X좌표 평균값과 상기 제N가상 무게중심의 Y좌표로 결정되는 제N가상원중심(Xn , Yn)을 산정한 뒤, 상기 제N가상원중심과 상기 제N좌측픽셀 또는 상기 제N우측픽셀간의 거리를 반지름(rn)으로 산출하는 것을 특징으로 한다.The second-order judging module judges whether the r n An Nth left pixel and an Nth right pixel located at both ends of a group of pixels that meet at the uppermost end when vertically extending along the Nth imaginary center of gravity are calculated, (X n , Y n ) determined based on the average value and the Y coordinate of the center of the N th gravity , and then calculates the center of the N virtual circle center (X n , Y n ) between the Nth virtual circle center and the Nth left pixel or the Nth right center pixel And the distance is calculated as a radius (r n ).

상기 동공 검출부는, 상기 동공과 홍채의 경계점들을 합산하고, 상기 확정된 동공 영역의 무게 중심을 중심으로 일방향으로 회전하면서 명암이 변동되는 지점들을 체크하고, 이 지점들을 이용 최소원형법을 통해 동공을 추출하는 것을 특징으로 한다.The pupil detection unit sums the boundary points of the pupil and the iris, checks the points where the light and shade are changed while rotating in one direction about the center of gravity of the determined pupil region, .

상기와 같은 구성으로 이루어진 본 발명인 인접 합산 이진화를 이용한 동공 추출 방법 및 이를 이용한 동공 추출 제어장치에 의한다면 아래와 같은 다양한 효과가 구현된다.According to the pupil extraction method using the adjacent sum binarization and the pupil extraction control apparatus using the same according to the present invention, the following various effects can be realized.

첫째, 홍채 인식 과정에서 가장 처리하기 어려운 글린트의 그레이 레벨값을 이 글린트 주변에 존재하는 동공을 구성하는 픽셀들의 그레이 레벨값을 이용 보정함으로써 글린트를 처리할 수 있는 이점이 있다.First, there is an advantage in that the glint can be processed by correcting the gray level value of the glint, which is the most difficult to handle in the iris recognition process, by using the gray level value of the pixels constituting the pupil existing around the glint.

둘째, 종래 동공 내부 또는 동공과 홍채 경계에 존재하는 글린트로 인해 홍채 인식이 불가능해 지거나, 이로 인해 그 인식 시간이 지연되는 문제점이 해결되는 이점이 있다.Second, there is an advantage in that iris recognition becomes impossible due to the glint existing inside the pupil or between the pupil and the iris, and the recognition time is delayed.

셋째, 동공 내부 또는 동공과 홍채 경계에 존재하는 글린트를 제거하는 로직이 종래에 비해 간단하기 때문에 이 로직을 수행하는 CPU 용량이 작게 되어 그 설치비용이 절감되는 이점이 있다.Third, since the logic for removing the glints existing in the pupil or at the pupil and iris boundaries is simpler than the conventional one, there is an advantage that the CPU capacity for performing this logic is reduced and the installation cost is reduced.

넷째, 단순 이진화가 아닌 인접 합산 이진화를 통해 눈의 이미지 중 밝은 영역과 어두운 영역을 더욱 확실하게 구별해주는 이점이 생긴다.Fourth, there is an advantage that the bright and dark regions of the eye image can be more clearly distinguished through the adjacent sum binarization rather than the simple binarization.

다섯째, 종래에 비해 간단한 알고리즘으로 동공 영역의 임의의 한점을 추출하여 홍채 인식시 소요되는 시간이 단축되는 등 다양한 이점이 제공된다.
Fifth, it is possible to extract various points of the pupil region by using a simple algorithm compared to the conventional method, thereby shortening the time required for iris recognition.

도 1은 홍채와 동공이 포함된 눈 부분을 촬영한 영상정보의 이미지.
도 2는 눈 부분을 촬영한 영상정보의 이미지에서 일정한 밝기 이상의 글린트를 추출한 이미지.
도 3은 추출된 복수 개의 글린트 영역 각각의 무게중심을 표현한 이미지.
도 4는 눈의 영역을 이진화한 이미지.
도 5는 동공 내부에 존재하는 글린트의 보정 과정을 나타낸 이미지.
도 6은 보정과정을 설명하기 위한 이미지.
도 7 내지 도 9는 보정과정이 순차적으로 진행되는 이미지.
도 10은 동공과 홍채 경계에 존재하는 글린트의 무게중심을 도시한 이미지.
도 11은 제1포인트와 제2포인트를 확정하는 과정을 설명하기 위한 이미지.
도 12는 제1포인트와 제2포인트를 연결하여 폐도형을 설명하기 위한 이미지.
도 13은 보정이 이루어진 동공 영역이 나타내는 이미지.
도 14는 보정된 이미지를 원본 이미지에 적용한 확대 이미지.
도 15는 제1차 이진화 단계를 설명하기 위해 복수 개의 픽셀로 분할된 영상정보.
도 16은 제1차 이진화 단계에 의해 보정된 이미지.
도 17은 제2차 이진화 단계를 설명하기 위해 복수 개의 픽셀로 분할된 영상정보.
도 18는 제1차 이진화 단계에 의해 보정된 이미지.
도 19 내지 도 22은 제N-1가상 무게중심을 산출하는 과정을 도시한 이미지.
도 23 내지 도 26은 제N가상 무게중심을 산출하는 과정을 도시한 이미지.
도 27 내지 도 28는 동공과 홍채의 경계를 합산하는 과정을 설명하기 위한 이미지.
도 29는 동공 추출 제어장치의 전체 구성도.
1 is an image of image information obtained by photographing an eye part including an iris and a pupil.
FIG. 2 is an image obtained by extracting a glint of a predetermined brightness or more from an image of image information obtained by photographing an eye part.
3 is an image representing the center of gravity of each of the plurality of extracted glint regions;
Fig. 4 is an image obtained by binarizing an area of an eye. Fig.
5 is an image showing the correction process of the glint present in the pupil.
6 is an image for explaining a correction process;
Figs. 7 to 9 show an image in which the correction process progresses sequentially.
10 is an image showing the center of gravity of the glint present at the pupil-iris boundary;
11 is an image for explaining the process of determining the first point and the second point;
12 is an image for explaining a closed figure by connecting a first point and a second point;
13 is an image represented by the pupil region where correction is made;
14 is an enlarged image obtained by applying the corrected image to the original image.
15 illustrates image information divided into a plurality of pixels to illustrate a first binarization step;
16 is an image corrected by the first binarization step.
17 illustrates image information divided into a plurality of pixels to illustrate a second binarization step.
18 is an image corrected by the first binarization step.
FIGS. 19 to 22 are diagrams showing a process of calculating the (N-1) imaginary center of gravity.
23 to 26 are diagrams showing a process of calculating the Nth virtual gravity center.
27 to 28 are images for explaining the process of summing the boundaries of pupil and iris.
29 is an overall configuration diagram of the pupil extraction control device;

이하 첨부된 도면을 참조로 본 발명인 인접 합산 이진화를 이용한 동공 추출 방법 및 이를 이용한 동공 추출 제어장치의 바람직한 실시 예를 설명한다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a preferred embodiment of a pupil extraction method using neighboring cumulative binarization and a pupil extraction control apparatus using the same according to the present invention will be described with reference to the accompanying drawings.

본 발명인 인접 합산 이진화를 이용한 동공 추출 방법은 눈 부분을 촬영한 영상정보에 있어서, 영상 정보에 나타난 글린트를 먼저 제거하는 단계가 수행된다.In the pupil extraction method using neighboring cumulative binarization according to the present invention, in the image information obtained by photographing the eye part, the step of removing the glint appearing in the image information is first performed.

이를 위해, 영상정보에 나타난 글린트에 인접한 동공 영역의 그레이 레벨값을 확인하는 단계와 그레이 레벨값을 이용하여 글린트를 보정하는 단계 및 보정된 글린트로 동공 내에 존재하는 글린트를 제거하는 단계를 포함한다.For this purpose, it is necessary to check the gray level value of the pupil region adjacent to the glint in the image information, to correct the glint using the gray level value, and to remove the glint present in the pupil with the corrected glint .

한편, 도 1은 눈 부분을 촬영한 영상정보를 나타내는 이미지이고, 이 이미지에는 다수개의 글린트(g)가 동공 내부는 물론이고, 피부에도 산재해 있는 것을 확인할 수 있다.On the other hand, FIG. 1 is an image showing image information obtained by photographing an eye part, and it can be confirmed that a plurality of glints (g) are scattered not only inside the pupil but also on the skin.

글린트 주변에는 동공 영역이 위치하고 있고, 이 동공 영역은 그레이 레벨값 "30" 이하로 구성되어 있다.A pupil region is located in the periphery of the glint, and the pupil region has a gray level value of "30" or less.

본 발명은, 동공과 홍채의 경계를 확정하기 위해 동공을 추출하는데 있어 가장 어렵고도 처리하기 어려운 글린트를 먼저 제거하게 되는 것이다.The present invention first removes the glint, which is the most difficult and difficult to process in extracting the pupil to determine the boundary between the pupil and iris.

이러한 글린트를 제거하기 위해, 글린트 주변에 존재하는 동공 영역의 그레이 레벨값을 이용 글린트의 그레이 레벨값을 변환시키는 보정을 함으로써, 글린트의 그레이 레벨값을 동공 영역의 그레이 레벨값과 유사하게 하여 글린트를 제거하게 되는 것이다.
In order to remove these glints, a correction is made to convert the gray level value of the glint using the gray level value of the pupil region existing around the glint, so that the gray level value of the glint is similar to the gray level value of the pupil region To remove the glint.

이러한 글린트 제거 단계를 설명하기 앞서, 본 발명의 이해를 돕기 위해 본 발명의 이미지 전체를 구성하는 픽셀과 이 픽셀들의 밝기를 나타내는 그레이 레벨값을 설명한다.Before describing the glint removing step, a pixel constituting the whole image of the present invention and a gray level value representing the brightness of the pixel of the present invention will be described in order to facilitate understanding of the present invention.

일정한 눈 영상크기를 편리하게 획득하기 위해 디스플레이 장치의 화면상에 소프트웨어적으로 일정한 해상도 크기의 사각형 캡쳐 영역을 표시하게 되는데, 이 사각영역에 맞추어 사용자의 양쪽 눈의 영상을 동시에 입력되게 함으로써, 정규화된 영상을 획득하게 된다.In order to conveniently acquire a certain eye image size, a rectangular capture area having a resolution constant in software is displayed on the screen of the display device. By simultaneously inputting images of both eyes of the user in accordance with the rectangular area, And acquires an image.

이때, 국제규격 크기의 일정한 홍채 영상을 획득하기 위해서는 양쪽 눈이 포함될 때, 사각형 캡쳐 영역은 최소 640픽셀*480픽셀 이상이고, 일반적으로 한쪽 눈의 홍채의 직경은 200~220픽셀로 알려져 있다.At this time, in order to acquire a uniform iris image of the international standard size, when the both eyes are included, the rectangular capture area is at least 640 pixels * 480 pixels, and the diameter of the iris of one eye is generally known to be 200 to 220 pixels.

본 발명 역시 국제규격에 부합되도록 한쪽 눈의 영역이 포함되는 이미지 영상은 가로×세로의 픽셀 사이즈는 640×480(픽셀)으로 산정되는바, 본 발명에서 첨부된 도면들은 이 사이즈 규격을 만족한 것으로 가정한다.In the present invention, the image size of an image including one eye region is calculated to be 640 × 480 (pixels) in the horizontal and vertical directions so as to conform to the international standard. The drawings attached to the present invention satisfy this size specification I suppose.

첨부된 도 1 역시 홍채와 동공이 포함된 눈의 영역을 나타내고 있으며, 이 이미지 역시 가로×세로의 픽셀 사이즈가 320×240(픽셀)으로 설정된다.1 also shows an area of an eye including an iris and a pupil, and this image is also set to have a pixel size of 320 pixels by 240 pixels.

한편, 그레이 레벨값이란 각 픽셀의 명암 정도를 "0~255"값을 기준으로 산정한 것으로, 해당 픽셀값이 "0"에 가까울수록 검은색에, "255"에 가까울수록 흰색에 각각 가깝게 된다.On the other hand, the gray level value is obtained by calculating the degree of darkness of each pixel based on the value of "0 to 255", and the closer the pixel value is to "0", the closer to "255" .

일반적으로 광원에 의한 글린트 내부를 구성하는 픽셀들의 그레이 레벨값 범위는 "200~255" 범위인 것으로 알려져 있고, 본 발명은 이러한 글린트가 추출되도록 임계값 "225"를 설정하고 있으며, 이에 글린트를 구성하는 픽셀(8비트)들의 그레이 레벨값은 "225" 이상임을 확인할 수 있다.Generally, it is known that the gray level value range of the pixels constituting the glint by the light source is in the range of "200 to 255." In the present invention, the threshold value "225" is set to extract such glint, It can be confirmed that the gray level value of the pixels (8 bits) constituting the lint is "225" or more.

또한, 동공 영역은 검은색 계통의 영역으로 임계값 "30"이하인 픽셀들로 구성되어 있는 것으로 가정하였고, 이 동공 영역의 그레이 레벨값 범위에 속하는 픽셀들의 평균값을 이용 글린트를 구성하는 픽셀들의 그레이 레벨값을 다시 보정하는 과정이 수행된다.
Further, it is assumed that the pupil region is composed of pixels having a black color system with a threshold value of 30 or less, and using the average value of the pixels belonging to the gray level value range of the pupil region, The process of correcting the level value again is performed.

영상 정보에 나타난 글린트에 인접한 동공 영역의 그레이 레벨값을 확인하기에 앞서 영상 정보에서 글리트를 추출하는 과정이 수행된다.The process of extracting glit from the image information is performed before confirming the gray level value of the pupil region adjacent to the glint in the image information.

첨부된 도 1의 눈 부분을 촬영한 영상정보에서 그레이 레벨값 "225" 이상인 픽셀들을 추출하는데, 글린트 추출과정은, 동공 내부 또는 동공과 홍채 경계에 존재하는 글린트가 추출되도록 그 임계값을 "225"로 설정하였다.In the image information of the attached eye of FIG. 1, pixels having a gray level value of 225 or more are extracted. In the glint extraction process, the threshold value is set so that the glints existing in the pupil or the pupil and iris boundaries are extracted Quot; 225 ".

다만, 이 임계값은 홍채 인식 장치가 설치된 장소와 홍채를 비추는 광원의 조도에 따라 달리 설정될 수 있음은 자명하고, 이러한 임계값을 통해 글린트가 추출된 이미지가 도 2에 도시되어 있다.It should be noted that this threshold value can be set differently according to the place where the iris recognition apparatus is installed and the illuminance of the light source illuminating the iris, and the image from which the glint is extracted through such threshold value is shown in FIG.

도시된 바와 같이, 그레이 레벨값 "225"이상인 픽셀들로 구성된 복수 개의 영역이 검출되었고, 이 각각의 영역들은 다수개의 픽셀들로 구성된 것일 수도 있으며, 어느 일 영역은 하나의 픽셀로 구성된 글린트일 수 있다.As shown, a plurality of regions composed of pixels having a gray level value of "225" or more are detected, and each of these regions may be composed of a plurality of pixels, and one region may be a glint have.

예를 들면, 도 2에는 동공 중심으로 다수개의 픽셀로 구성된 글린트 영역들이 복수 개 존재하고, 그 아래쪽에는 피부 쪽에 위치한 글린트가 존재한다는 것을 확인할 수 있을 것이다.
For example, in FIG. 2, it can be seen that there are a plurality of glint regions composed of a plurality of pixels at the center of the pupil, and a glint located on the skin side is present below the glint regions.

한편, 도 3에 도시된 바와 같이, 상기와 같은 글린트 추출 과정 후에, 이 글린트가 추출된 이미지에서 각각의 글린트, 정확하게는 다수개의 픽셀로 구성되고 폐구간영역을 형성하는 복수 개의 글린트들의 무게중심을 산출하고, 이 무게중심이 표현된 별도의 이미지를 나타낸다.Meanwhile, as shown in FIG. 3, after the glint extracting process as described above, the glint extracts a plurality of glints, each consisting of a plurality of pixels, And a separate image representing the center of gravity is displayed.

각각의 글린트 영역의 무게중심을 산출하는 방법은, 아래와 같은 식을 통해 계산된다.
The method of calculating the center of gravity of each glint region is calculated by the following equation.

Xc = (∑Xi ×Mxi )/∑Mxi - - - - - - - - - - - - - - - - - (1)X c = (? X i x M xi ) / ΣM xi - - - - - - - - - - - - - - - - (1)

Yc = (∑Yi ×MYi )/∑MYi - - - - - - - - - - - - - - - - - (2)
Y c = (? Y i M Yi ) / ΣM Yi - - - - - - - - - - - - - - - - (2)

(Xc : 무게중심의 X 좌표, Yc : 무게중심의 Y 좌표, Xi : 각 픽셀들의 X 좌표, Yi : 각 픽셀들의 Y 좌표, Mxi : 각 픽셀들의 X 축 방향으로의 무게, MYi : 각 픽셀들의 Y 축 방향으로의 무게)
(X c : X coordinate of the center of gravity, Y c : Y coordinate of the center of gravity, X i : X coordinate of each pixel, Y i : Y coordinate of each pixel, M xi : weight of each pixel in the X axis direction, M Yi : weight of each pixel in the Y axis direction )

다만, 상기의 식에서 각 픽셀들의 X 축 방향으로의 무게, Y 축 방향으로의 무게는 1로 가정하여 계산한다.In the above equation, the weight of each pixel in the X-axis direction and the weight in the Y-axis direction are assumed to be 1.

물론, 상기의 식 이외에 다수개의 픽셀로 구성된 글린트 영역의 무게중심을 구할 때, (각 픽셀들의 X 좌표의 합)/(픽셀들의 갯수), (각 픽셀들의 Y 좌표의 합)/(픽셀들의 갯수)로 계산할 수 있다.Of course, when calculating the center of gravity of a glint region composed of a plurality of pixels in addition to the above formula, (sum of X coordinates of each pixel) / (number of pixels), (sum of Y coordinates of each pixel) Number).

상기와 같이 글린트 영역 각각의 무게중심을 산출하는 이유는, 글린트가 동공 내부에 존재하는지 아니면 단순히 피부 근처에 존재하는지 판단하기 위함이다.The reason for calculating the center of gravity of each of the glint regions as described above is to judge whether glint exists inside the pupil or simply exists near the skin.

즉, 도 4에 도시된 바와 같이, 상기와 같이 무게중심을 산출한 후에, 눈의 이미지를 단순하게 흑백(밝은 부분과 어두운 부분)으로 구별하는 단순 이진화 작업이 진행되는데, 이 과정을 통해 눈의 영역은 흑백으로 구별되고, 무게중심이 표현된 도 3의 이미지를 도 4에 마스킹(masking) 한 후, 좌측 상단에서 우측 그리고 다음 줄(행)로 점차 이동하면서 그 무게중심(무게중심은 흰색으로 설정됨)을 찾고, 그 찾아진 지점의 좌표를 도 4에 대입한 뒤, 그 점이 포함된 영역이 어두운 영역, 즉 동공으로 둘러싸인 부분인지를 판단하게 된다.
That is, as shown in FIG. 4, after the center of gravity is calculated as described above, a simple binarization operation is performed in which the image of the eye is simply distinguished as black and white (bright portion and dark portion) The area is discriminated in black and white, and after masking the image of FIG. 3 in which the center of gravity is expressed in FIG. 4, the center of gravity (the center of gravity is white) The coordinates of the point to be found are substituted in FIG. 4, and it is judged whether the area containing the point is a dark area, that is, a part surrounded by a pupil.

동공으로 둘러싸여 있는지는 그 무게중심을 기준으로 다방향(360o)으로 탐지하면서 명암이 바뀌는 즉, 무게중심을 기준으로 다방향으로 동공이 위치하는 경우 에는 모든 방향으로 어두운 영역이 검출될 것이고, 결국 이 무게중심은 동공 내부에 형성된 점으로 판단할 수 있게 되는 것이다.Itneunjineun surrounded by a pupil when the pupil in the direction relative to the other words, the center of gravity contrast is changed and detected by the multi-directional (360 o) on the basis of the center-of-gravity position, it will be a dark area is detected in all directions, in the end The center of gravity can be judged as a point formed inside the pupil.

물론, 이 과정에서 무게 중심을 기준으로 동공 내부에 존재하지 않는 점들은 다방향으로 탐지하여도 어두운 영역이 검출되지 않을 것이므로, 이 지점은 동공 내부에 형성된 지점이 아니라 피부에 형성되어 있는 글린트로 판단되어 글린트 보정 대상에서 제외될 것이다.Of course, the points that are not present inside the pupil with respect to the center of gravity in this process will not be detected even if they are detected in multiple directions. Therefore, this point is not a point formed in the pupil but a glint And will be excluded from the glint correction target.

즉, 본 발명은 동공 내부 또는 동공과 홍채 경계에 존재하는 글린트를 구성하는 픽셀들의 그레이 레벨값을 동공 영역의 그레이 레벨값의 범위로 보정 하는 것이 그 목적인바, 피부 쪽에 위치하는 글린트들은 그 보정 대상에서 제외하여 보정하는데 걸리는 연산 시간을 줄일 수 있는 효과가 구현된다.
That is, the object of the present invention is to correct the gray level value of the pixels constituting the glint in the pupil or the pupil and the iris boundary to the range of the gray level value of the pupil region, It is possible to reduce the calculation time required for correction by excluding it from the correction target.

글린트를 추출하고, 이 글린트에 인접한 동공 영역의 그레이 레벨값을 확인하는 단계가 수행되고, 이 확인된 인접한 동공 영역의 그레이 레벨값을 글린트 내부에 적용하는 보정 과정이 수행된다.A step of extracting the glint and confirming the gray level value of the pupil region adjacent to the glint is performed and a correction process is performed to apply the gray level value of the identified adjacent pupil region to the inside of the glint.

우선, 눈 부분을 촬영한 영상정보를 복수 개의 픽셀로 분할하고, 글린트 내부에서 기준 픽셀을 설정하여 이 기준 픽셀을 둘러싸는 주변 픽셀의 그레이 레벨값이 동공 영역의 그레이 레벨값 범위에 포함되는지 여부를 판단한 후, 동공 영역의 그레이 레벨값 범위에 포함되는 주변 픽셀의 그레이 레벨값 평균값을 구하여 픽셀의 그레이 레벨값을 확인하는 과정이 수행된다.First, the image information obtained by photographing the eye portion is divided into a plurality of pixels, a reference pixel is set in the glint, and whether the gray level value of the surrounding pixels surrounding the reference pixel is included in the gray level value range of the pupil region The gray level value of the surrounding pixels included in the gray level value range of the pupil region is obtained and the gray level value of the pixel is checked.

그 과정을 동공 내부에 존재하는 글린트를 그레이 레벨값으로 표현된 이미지인 도 6을 참조로 설명한다.The process will be described with reference to FIG. 6, which is an image represented by the gray level value of the glint present in the pupil.

도시된 바와 같이, 글린트를 구성하는 픽셀들의 그레이 레벨값은 "225"이상으로 표시되어 있고, 그 주변 영역 정확하게는 동공 영역을 구성하는 픽셀들의 그레이 레벨값은 "30"이하로 표시되어 있다.As shown, the gray level value of the pixels constituting the glint is indicated as "225" or higher, and the gray level value of the pixels constituting the pupil region is expressed as "30"

본 발명은 동공의 어두운 영역을 최소한 "30"이하로 구성된 것으로 그 기준값을 설정하였으나, 이미 설명한 바와 같이 홍채 인식이 이루어지는 장소와 홍채에 비추어지는 광원의 조도에 따라 변동될 수 있다.The present invention sets the reference value to be at least "30" in the dark region of the pupil. However, as described above, it can be changed according to the illuminance of the iris and the illuminance of the iris.

이에 따르면, 도 6에는 "241,240,227,251" 등으로 표시된 글린트를 구성하는 픽셀들과, 이 픽셀들 주변에 "17,14,12,10" 등으로 구성된 동공 영역을 나타내는 픽셀들로 구성되어 있다.6, pixels constituting the glint indicated by "241, 240, 227, 251" and the like, and pixels representing the pupil region composed of "17, 14, 12, 10" or the like around these pixels.

한편, 이 글린트를 구성하는 픽셀들의 중앙에는 "X" 표시로 표현된 픽셀이 나타나는데, 이 픽셀이 바로 글린트 영역 내의 무게중심이다.On the other hand, a pixel represented by an "X" mark appears at the center of the pixels constituting this glint, which is the center of gravity within the glint region.

본 발명은 이와 같이, 글린트를 구성하는 픽셀들 중 선택된 기준픽셀을 설정하는데, 이 기준픽셀이 글린트로 구성된 영역의 무게중심 픽셀을 의미한다.Thus, the present invention sets a selected reference pixel among the pixels constituting the glint, which means the center-of-gravity pixel of the region constituted by the glint.

이 무게중심 픽셀을 기준으로 보정과정이 이루어지고, 이 기준픽셀을 둘러싸는 주변픽셀의 그레이 레벨값이 동공 영역의 그레이 레벨값에 포함되는지 여부를 우선 판단하게 된다.
A correction process is performed based on the center-of-gravity pixel, and whether or not the gray level value of the surrounding pixel surrounding the reference pixel is included in the gray level value of the pupil region is determined first.

즉, 도 6에 "X"로 표시된 기준 픽셀을 둘러싸는 총 8개의 주변픽셀들의 그레이 레벨값을 나열하면, "241,240,227,251,245,229,233,243"이 되고, 이 주변픽셀들의 그레이 레벨값이 동공 영역의 그레이 레벨값 즉 "30" 이하의 그레이 레벨값에 포함되는지를 우선 판단한다.
In other words, if the gray level values of a total of eight surrounding pixels surrounding the reference pixel indicated by "X" in FIG. 6 are listed, the gray level value of these peripheral pixels becomes "241,240,227,251,245,229,233,243" 30 "or less.

그 간단한 예를 도 5을 참조로 설명하면 다음과 같다.A simple example will be described with reference to FIG.

도시된 바와 같이 글린트를 구성하는 픽셀들의 중심부에 그레이 레벨값 "251"을 나타내는 글린트가 표시되어 있다.As shown in the figure, a glint indicative of a gray level value "251" is displayed at the center of the pixels constituting the glint.

그리고, 이 중심 픽셀 주변에는 "16,14,12" 등의 동공 영역의 그레이 레벨값 범위에 포함되는 픽셀들이 둘러싸여 있다.Pixels included in the gray level value range of the pupil region such as "16,14,12" are surrounded by the center pixel.

물론, 이 글린트의 무게중심은 당연히 도면의 중심부에 위치한 픽셀 자체일 것이고, 이 주변 픽셀의 평균값을 구하면 (16+14+12+8+10+9+13)/8=11.625 가 되며, 이때, 그레이 레벨값은 정수로 표시되므로, 소숫점 이하를 생략하면 그 평균값은 "11"로 산출된다.
Of course, the center of gravity of the glint will of course be the pixel itself located at the center of the figure, and the average value of the surrounding pixels is (16 + 14 + 12 + 8 + 10 + 9 + 13) /8=11.625, , And the gray level value is represented by an integer, so if the decimal point or less is omitted, the average value is calculated as "11 ".

즉, 글린트로 표시되는 픽셀의 그레이 레벨값이 "251"인 경우 도 5의 우측에 있는 이미지와 같이 "11"로 보정된다.That is, when the gray level value of the pixel represented by the glint is "251 ", it is corrected to" 11 "

이 "11"의 평균값이 바로 확인된 인접한 동공 영역의 그레이 레벨값이고, 이 레벨값을 "251"인 픽셀에 보정하여 "11"로 전환하는 과정이 글린트 내부에 적용하는 보정과정이다.The average value of "11" is the gray level value of the identified neighboring pupil region, and the process of correcting this level value to the pixel of "251 " and switching to" 11 "

한편, 그 보정된 그레이 레벨값인 "11" 을 살펴보면, 글린트로 가려진 동공 영역의 실제 픽셀의 그레이 레벨값은 이 보정 값인 "11"과 일치하지 않을 수 있다.On the other hand, if we look at the corrected gray level value "11", the gray level value of the actual pixel of the pupil area obscured by the glint may not match the correction value "11".

그러나, 이러한 보정을 통해 보정된 픽셀의 그레이 레벨값("11")과 그 주변의 그레이 레벨값("16,14,12,8,10,9,13,11")을 살펴보면 거의 근사하거나 유사하게 그레이 레벨값으로 보정된 것으로 확인할 수 있을 것이다.However, the gray level value ("11") of the corrected pixel and the gray level value ("16, 14, 12, 8, 10, 9, 13, 11" It can be confirmed that it is corrected to the gray level value.

이러한 보정으로, 종래에는 "251"의 그레이 레벨값으로 표현된 글린트의 존재로 인해 이 영역이 동공 영역인지, 동공과 홍채의 경계인지, 혹은 홍채 영역인지를 판단하지 못함으로 신원 확인이 불가능해지는 문제점이 본 발명과 같은 보정과정을 통해 글린트 내부를 구성하는 픽셀들이 동공 영역에 해당되는 그레이 레벨값 범위로 근사하게 보정되고, 이 확정된 동공을 홍채로부터 추출하고, 이 동공이 추출된 홍채와 기저장된 홍채를 비교 그 신원을 정확하고도 신속하게 확인할 수 있게 되는 것이다.
With this correction, the presence of the glint represented by the gray level value of "251 " conventionally makes it impossible to determine whether the region is a pupil region, a pupil-iris boundary, or an iris region The problem is that the correction process of the present invention allows the pixels constituting the inside of the glint to be corrected approximately in the range of the gray level value corresponding to the pupil region and extracts the determined pupil from the iris, It is possible to confirm the identity of the previously stored iris accurately and quickly.

한편, 도 6에 도시된 바와 같이, 무게중심 픽셀 주변에 존재하는 픽셀들이 동공 영역의 그레이 레벨값이 "30"이하로 구성되는 픽셀들이 존재하지 않는 경우,이 기준 픽셀의 좌측 인접 주변 픽셀로 이동하여 새로운 기준 픽셀로 설정되는데, 그 구체적인 과정을 살펴보면 다음과 같다.On the other hand, as shown in Fig. 6, when pixels existing around the center-of-gravity pixel do not have pixels whose gray level value of the pupil region is "30" or less, And a new reference pixel is set. The concrete procedure will be described below.

도시된 바와 같이, "X"로 표현된 기준 픽셀을 둘러싸는 인접 주변 픽셀들의 그레이 레벨값을 살펴보면, 동공 영역의 그레이 레벨값인 "30"보다 크게 표현되어 있다.As shown, the gray level value of neighboring surrounding pixels surrounding the reference pixel represented by "X " is expressed to be larger than the gray level value" 30 "of the pupil region.

이러한 경우, 이 기준 픽셀을 둘러싸는 주변 픽셀들의 그레이 레벨값 평균값으로 보정 할 수 없게 되고, 그 보정되지 않은 의미로 "X"표시로 하였다.In this case, it is impossible to correct the average value of the gray level values of the surrounding pixels surrounding the reference pixel, and the " X "

이때, "X"로 표시된 픽셀의 좌측에 인접한 좌측 인접 픽셀인 "251"로 이동하게 되고, "251"로 표시되는 픽셀이 새로운 기준 픽셀로 설정되는 것이다.At this time, the left neighboring pixel adjacent to the left side of the pixel indicated by "X" is moved to "251", and the pixel indicated by "251" is set as the new reference pixel.

이 새로운 기준 픽셀을 중심으로 다시 주변에 인접하는 픽셀들의 그레이 레벨값이 동공 영역의 그레이 레벨값 범위인 "30"보다 작은 그레이 레벨값이 존재하는지 탐지하게 된다.The gray level value of the neighboring pixels around the new reference pixel again detects whether a gray level value smaller than the gray level value range of the pupil area is "30 ".

예를 들어, 도 6에 도시된 바와 같이, "251"로 표시되는 새로운 기준 픽셀 주변에는 "16,22,17"로 표시되는 픽셀들이 존재하고, 이 그레이 레벨값은 동공 영역의 그레이 레벨값 범위에 포함되며, 이 3 개의 픽셀들의 평균값은 "251"로 산출되는바, 이 산출된 평균값이 새로운 기준 픽셀의 보정 값이 될 것이다.For example, as shown in Fig. 6, there are pixels represented by "16,22,17" around a new reference pixel indicated by "251 & And the average value of these three pixels is calculated as "251 ", and the calculated average value will be the correction value of the new reference pixel.

즉, (16+22+17)/3=18.333이 되고, 소숫점 이하를 생략하면, 그 보정 값인 "18"이 되는 것이다.
That is, (16 + 22 + 17) /3=18.333 is obtained, and if less than the decimal point is omitted, the correction value becomes "18 ".

한편, 보정 값이 "18"인 이 기준픽셀에서 좌측으로 이동시, 도 7에 도시된 바와 같이, "12"인 픽셀이 존재하게 되고, 이 픽셀의 그레이 레벨값은 동공 영역 내의 그레이 레벨값에 포함되는바, 이 픽셀은 보정 대상에서 제외되고, 상측 인접 주변 픽셀 이동하여 이 상측 인접 주변 픽셀이 새로운 기준 픽셀로 설정된다.On the other hand, when moving to the left in this reference pixel with the correction value of "18 ", there is a pixel of" 12 ", as shown in Fig. 7, and the gray level value of this pixel is included in the gray level value in the pupil area , This pixel is excluded from the correction target, and the upper neighboring peripheral pixel is shifted and this upper neighboring peripheral pixel is set as a new reference pixel.

즉, 도 7에 "18"로 표시된 픽셀 상측에 위치한 "241"의 그레이 레벨값을 나타내는 픽셀로 이동하게 되고, 이 "241"로 표시되는 픽셀이 새로운 기준 픽셀로 설정되는 것이다.That is, a pixel representing the gray level value of "241 " located above the pixel indicated by" 18 "in Fig. 7 is moved to, and the pixel indicated by" 241 "

이 "241"로 표시되는 픽셀의 주변 픽셀 중 동공 영역의 그레이 레벨값 범위에 포함되는 픽셀들이 존재하는지 다시 탐지하게 되고, 그 범위에 속하는 픽셀들의 평균값을 구하면, (4+17+14+16+22+18)/6=15.1667로 그 보정값은 "15"가 될 것이다.
(4 + 17 + 14 + 16 + 16) + (16 + 16 + 16 + 16) 22 + 18) /6=15.1667 and the correction value will be "15 ".

즉, 도 8에 도시된 바와 같이, "241"로 표시되었던 픽셀이 보정되어 "15"로 보정되고, 그 다음 보정 과정이 수행되어야 하는데, "15"로 표시되는 픽셀의 좌측에는 "16"이 그 상측에는 "17"의 그레이 레벨값을 나타내는 픽셀이 존재하는바, 좌측 또는 상측으로 이동할 수 없게 된다.That is, as shown in Fig. 8, the pixel indicated by "241" is corrected and corrected to "15 & A pixel indicating the gray level value of "17 " exists on the upper side, and it can not move to the left or the upper side.

이 경우에는 우측 인접 픽셀로 이동하게 되고, 이동된 우측 인접 픽셀이 새로운 기준 픽셀로 설정된다.
In this case, the pixel is moved to the right adjacent pixel, and the shifted right adjacent pixel is set as a new reference pixel.

즉. 도 8에 도시된 바와 같이, "15"로 보정된 픽셀의 우측에 위치한 "240"으로 표시되는 픽셀이 새로운 기준 픽셀로 설정되고, 다시 이 기준 픽셀의 주변 픽셀 중 동공 영역의 그레이 레벨값에 포함되는 픽셀들의 평균값을 구하면, (17+14+12+15+18)/5=15.2로 그 보정 값은 "15"가 된다.In other words. As shown in Fig. 8, a pixel indicated by "240" located on the right side of the pixel corrected to "15 " is set as a new reference pixel, and is again included in the gray level value of the pupil region (17 + 14 + 12 + 15 + 18) /5=15.2, the correction value becomes "15 ".

이러한 방식으로 다시 "15"로 보정된 픽셀에서 우측 인접 픽셀로 이동하게 되고, 우측 인접 픽셀인 "227"로 이동하게 되어, 이 새로운 기준 픽셀의 주변 픽셀 중 동공 영역의 그레이 레벨값에 포함되는 픽셀들의 평균값을 구하면, (15+14+12+10+16)/5=13.4로 그 보정 값은 "13"이 될 것이다.In this way, the pixel shifted from the pixel corrected to "15 " again to the right adjacent pixel is shifted to the right neighboring pixel" 227 ", and pixels included in the gray level value of the pupil region (15 + 14 + 12 + 10 + 16) /5=13.4, the correction value will be "13".

다시, 이 "13"으로 보정된 기준 픽셀의 좌,상,우측의 인접 픽셀들의 그레이 레벨값을 살펴보면, 모두 "30"이하인 그레이 레벨값을 가지는바, 보정 대상이 아니므로, 좌,상,우측으로는 이동할 수 없고, 이 경우에는 하측 인접 픽셀로 이동하여 그 하측 인접 픽셀이 새로운 기준 픽셀로 설정되는 것이다.
If the gray level values of adjacent pixels on the left, top, and right sides of the reference pixel corrected to "13 " are again all gray level values of" 30 "or less, In this case, the lower adjacent pixel is moved to the lower adjacent pixel, and the lower adjacent pixel is set as a new reference pixel.

즉, 도 8에 "245"로 표시된 픽셀이 새로운 기준 픽셀이 될 것이고, 이 기준 픽셀의 주변 픽셀 중 동공 영역의 그레이 레벨값에 포함되는 픽셀들의 평균값을 구하면,(15+13+16+17)/4=15.25로 그 보정 값은 "15"가 될 것이다.That is, the pixel indicated by "245" in Fig. 8 will be the new reference pixel, and the average value of the pixels included in the gray level value of the pupil region among the peripheral pixels of this reference pixel is found, (15 + 13 + 16 + 17) / 4 = 15.25 and the correction value will be "15 ".

이러한 방식으로, 도 9에 도시된 바와 같이, 하나의 픽셀의 픽셀이 보정되면, 다시 보정 대상인 픽셀로 이동시 좌,상,우,하 방향으로 순서대로 이동하면서, 그 주변에 "30"이하인 픽셀들이 존재하는 경우 그 픽셀들의 평균값으로 글린트 내부의 픽셀들이 보정된다.
In this way, as shown in Fig. 9, when a pixel of one pixel is corrected, pixels moving in the order of left, up, right, and down move to the pixel to be corrected, If present, the pixels inside the glint are corrected with the average value of those pixels.

한편,다시 도 9를 참조하면, 그 보정되는 픽셀들의 이동경로를 살펴보면, 그 무게중심인 "15"로 보정된 픽셀 위치에서 이동이 시작되어 15→18→15→15→13→15→15→19→17로 이동하게 되고, 이 "17"로 표시되는 픽셀의 주변 픽셀을 살펴보면, 모든 픽셀들의 그레이 레벨값이 "30"이하로 표시되어 더 이상 이동할 수 없게 되는 문제가 생긴다.Referring back to FIG. 9, when the moving path of the pixels to be corrected is examined, movement starts at the pixel position corrected to 15, which is the center of gravity, and 15 → 18 → 15 → 15 → 13 → 15 → 15 → 19 " to " 17 ", and if we look at the surrounding pixels of the pixel indicated by "17 ", the gray level value of all pixels is displayed as" 30 "

이러한 경우, 보정 과정이 진행된 경로를 역으로 추적하여 잔여 글린트에 해당하는 픽셀을 추출하고, 이 잔여 글린트가 새로운 기준 픽셀로 설정되며, 이 픽셀을 둘러싸는 주변 픽셀 중 동공 영역의 그레이 레벨값 범위에 포함되는 픽셀의 존재시, 이 픽셀들의 그레이 레벨값들의 평균값으로 새로운 상기 기준 픽셀의 그레이 레벨값이 보정된다.
In this case, a path corresponding to the remaining glint is traced by tracing the path in which the correction process has proceeded, and the remaining glint is set as a new reference pixel, and the gray level value of the pupil region among surrounding pixels surrounding the pixel In the presence of the pixels included in the range, the gray level value of the new reference pixel is corrected to an average value of the gray level values of the pixels.

즉, 보정 과정이 진행된 경로를 추적한다는 것은, "17"로 표시되는 픽셀(도 9에 도시된 이미지 중 아래에서부터 3행 3열에 위치한 픽셀)을 중심으로 다시 역으로 진행된 경로를 밟아가게 되는바, "17→19", 즉 "17"로 표시되는 픽셀에서 "19"(3행 4열에 위치한 픽셀)로 이동한 후, 이 "19"로 표시된 픽셀이 새로운 기준 픽셀로 설정됨과 동시에 이 픽셀을 중심으로 좌측과 상측에 인접한 픽셀들은 "30"이하의 그레이 레벨값으로 표시되기 때문에, 좌측 또는 상측으로는 이동할 수 없는 반면, 우측에 인접한 픽셀은 "243"(도 8의 3행 5열에 위치한 픽셀)으로 표시되는바, 우측으로 이동한 후 이 "243"으로 표시되는 픽셀을 기준으로 주변에 "30"이하로 표시되는 픽셀들의 평균값으로 그 보정된다.That is, the trace of the path where the correction process is performed means that the path is reversed on the pixel (indicated by "17") (the pixel located in the third row and the third column from the bottom of the image shown in FIG. 9) After moving from " 17 " to "19 ", i.e., from a pixel indicated by" 17 "to " 19" (pixel located in row 3 and row 4) Pixels adjacent to the right side can not move to the left or the upper side because the pixels adjacent to the left side and the upper side are represented by gray level values of "30" or less, while the pixels adjacent to the right side are "243" , And after shifting to the right side, it is corrected to an average value of pixels indicated by "30" or less around the pixel indicated by "243 ".

그 평균값을 살펴보면, (15+14+19+17+24+27+5)/7=17.2857로 그 보정값은 "17"이 될 것이다.The average value of (17 + 14 + 19 + 17 + 24 + 27 + 5) /7=17.2857 will be "17".

다시 이 "17"로 보정된 픽셀을 중심으로 역으로 그 이동경로를 추적하면, "230"으로 표시된 픽셀로 이동하게 되고, 이 "230"으로 표시된 픽셀의 주변 픽셀들의 평균값을 살펴보면, (13+16+0+15+4+17+17+8)/8=12.8571로 그 보정값은 "12"가 될 것이다.
If the movement path is traced backward with respect to the pixel corrected to "17 ", the pixel shifts to the pixel indicated by" 230 ", and the average value of the surrounding pixels of the pixel indicated by "230 & 16 + 0 + 15 + 4 + 17 + 17 + 8) /8=12.8571 and the correction value will be "12".

한편, 상기와 같은 보정 과정으로 글린트 내부에 있는 모든 픽셀들이 보정되는데, 지속적으로 글린트를 구성하는 픽셀들을 보정 하는 경우 신원을 확인하는데 시간이 무한정 소요되는바, 보정 과정을 완료하는 시점을 특정할 필요가 있다.On the other hand, in the correction process described above, all the pixels in the glint are corrected. In the case of correcting the pixels constituting the glint continuously, it takes an infinite time to verify the identity, Needs to be.

이를 위해 본 발명은 상기와 같이 보정 과정의 전체 진행 경로를 역으로 추적하면서 글린트 내부에 존재하는 모든 픽셀들이 그 주위를 둘러싸는 주변 픽셀의 그레이 레벨값이 동공 영역의 그레이 레벨값 범위에 포함되는 경우, 이러한 보정 과정을 완료하는 것을 특징으로 한다.To this end, according to the present invention, the entire progress path of the correction process is reversed as described above, and the gray level value of the surrounding pixels surrounding all pixels existing in the glint is included in the gray level value range of the pupil region In this case, the correction process is completed.

즉, 도 9에 도시된 바와 같이, 글린트를 구성하는 모든 픽셀이 보정되었고, 그 보정되는 경로를 다시 역으로 추적하는 경우, 이 글린트를 구성하는 각각의 픽셀들 주변에 존재하는 픽셀들의 그레이 레벨값이 모두 "30"이하로 표시되는바, 글린트 내부에 존재하는 픽셀들의 모든 보정 과정은 완료되는 것이다.That is, as shown in FIG. 9, when all the pixels constituting the glint are corrected and the corrected path is traced back, the gray of the pixels surrounding each of the pixels constituting the glint When all the level values are displayed as "30" or less, all correction processes of the pixels existing in the glint are completed.

한편, 상기와 같이 그레이 레벨값을 확인하여 그 평균값을 구하고, 평균값을 글린트 내부에 적용하는 보정과정이 수행된 다음, 이 보정된 글린트들을 원래의 영상정보에 대입하는 이른바 머징(merging)과정을 통해 글린트를 제거하게 된다.In the meantime, a so-called merging process is performed in which a correction process of checking the gray level value and obtaining an average value, applying an average value to the inside of the glint as described above, and then assigning the corrected glints to the original image information To remove the glint.

즉 도 14에 도시된 바와 같이, 글린트에 인접한 동공 영역의 그레이 레벨값으로 글린트 내부를 구성하는 픽셀들의 그레이 레벨값을 보정한 다음에는 이 보정된 글린트를 영상정보에 나타난 글린트에 머징(merging)시켜 글린트를 구성하는 픽셀들이 동공 영역을 구성하는 픽셀들의 그레이 레벨값과 유사해진다.
That is, as shown in FIG. 14, after correcting the gray level value of the pixels constituting the glint by the gray level value of the pupil area adjacent to the glint, the corrected glint is merged into the glint shown in the image information the pixels constituting the glint become similar to the gray level values of the pixels constituting the pupil region.

이와 같이 보정된 글린트를 영상정보에 머징(merging)시켜 글린트를 제거하는 과정을 통해 글린트 내부에 있는 모든 픽셀들이 그 주변에 존재하는 픽셀들의 그레이 레벨값과 유사하게 또는 근사하게 보정됨으로써 더 이상 글린트의 존재로 인해 동공을 인식하지 못하는 종래의 문제점은 미연에 방지된다.Through the process of merging the corrected glint into the image information and removing the glint, all the pixels in the glint are corrected in a similar or approximate manner to the gray level values of the surrounding pixels. Conventional problems that the pupil is not recognized due to the presence of abnormal glints are prevented in advance.

또한, 이 글린트가 보정된 동공을 확정한 뒤, 홍채로부터 동공을 추출하고, 동공이 추출된 홍채와 기저장된 홍채를 비교함으로써 그 신원을 확인하게 되는 것이다.
In addition, after the glint confirms the corrected pupil, the pupil is extracted from the iris, and the identity of the pupil is confirmed by comparing the extracted iris with the previously stored iris.

한편, 상기와 같은 과정으로 동공 내부에 존재하는 글린트는 보정 과정이 이루어지는 반면, 도 10에 도시된 바와 같이, 글린트가 동공과 홍채 경계에 존재하는 경우에는 글린트를 중심으로 좌측에는 밝은 부분이 우측에는 동공을 나타내는 어두운 부분이 존재하는바 상기와 같은 방법으로 보정 하는데 한계가 있다.
On the other hand, when the glint is present at the pupil-iris boundary as shown in FIG. 10, the glint present in the pupil is corrected in the above-described process. On the other hand, On the right side, there is a dark part indicating a pupil, and there is a limitation in the correction by the above-mentioned method.

이를 위해 본 발명은, 글린트의 무게중심을 지나는 복수 개의 직선을 가정하고, 복수 개의 직선 중 동공 영역과 만나는 복수 개의 점들 중 제1포인트 및 제2포인트를 확정한 후, 이 제1포인트 및 제2포인트를 연결하여 상기 동공 영역에 근접한 글린트 영역을 동공 영역으로 보정 하게 되는데, 그 구체적인 과정을 설명하면 아래와 같다.
To this end, the present invention is characterized in that a plurality of straight lines passing through the center of gravity of the glint are assumed, and a first point and a second point among a plurality of points meeting with the pupil region among a plurality of straight lines are determined, 2 points are connected to correct a glint region close to the pupil region to a pupil region. A detailed process will be described below.

우선, 글린트가 동공과 홍채 경계에 존재하는지 여부는, 무게중심이 표현된 도 3의 이미지에서 좌측 상단에서 우측 그리고 다음 줄(행)로 점차 이동하면서 그 무게중심(무게중심은 흰색으로 설정됨)을 찾고, 그 찾아진 지점의 좌표를 도 4에 대입한 뒤, 그 점이 포함된 영역을 다방향(360o)으로 탐지하면서 어두운 영역과 밝은 영역으로 둘러싸여 있는 지를 판단한다.First, whether or not the glint exists at the pupil-iris boundary is gradually shifted from the upper left corner to the next line (row) in the image of FIG. 3 in which the center of gravity is expressed, and the center of gravity The coordinate of the found point is substituted in FIG. 4, and the area containing the point is detected in multiple directions (360 ° ) to determine whether it is surrounded by a dark area and a bright area.

이때, 도 11 에 도시된 바와 같이, 동공 안쪽에 위치한 무게중심을 기준으로 우측 방향에는 어두운 영역이 탐지될 것이고, 좌측 방향으로는 밝은 영역이 탐지될 것인바, 이 무게중심은 동공과 홍채 경계에 형성된 글린트의 무게중심으로 판단될 것이다.
At this time, as shown in FIG. 11, a dark region will be detected on the right side with respect to the center of gravity located inside the pupil, and a bright region will be detected on the left side. It will be judged as the center of gravity of the formed glint.

한편, 상기와 같이 무게중심이 동공과 홍채 경계에 존재한다고 판단되는 경우, 이 글린트의 무게중심을 지나는 복수 개의 직선이 상정될 수 있고, 이 복수 개의 직선 각각은 어두운 영역 구체적으로는 그레이 레벨값이 "30" 이하인 점들을 탐지하게 된다.If it is determined that the center of gravity exists at the pupil and iris boundaries as described above, a plurality of straight lines passing through the center of gravity of the glint may be assumed, and each of the plurality of straight lines may include a gray level "30"

즉, 도 11에 도시된 바와 같이, 무게중심을 지나는 복수 개의 직선이 동공 영역에 존재하는 어두운 영역들의 점들을 탐지하게 되고, 이하 그 구체적인 과정을 설명하겠지만, 이들 중 제1포인트와 제2포인트를 확정하게 된다.That is, as shown in FIG. 11, a plurality of straight lines passing through the center of gravity are detected in the dark regions existing in the pupil region. Hereinafter, the specific process will be described. However, .

그 후, 도 12에 도시된 바와 같이, 이 제1포인트와 제2포인트를 연결하여, 폐도형으로 만든 후 동공 영역에 근접한 글린트 영역을 동공 영역으로 보정 하는 과정이 수행된다.
Then, as shown in FIG. 12, the first point and the second point are connected to form a closed figure, and then a glint region close to the pupil region is corrected to a pupil region.

상기와 같은 과정을 수행하는 이유는, 동공 내부에 글린트가 존재하는 경우에는 글린트 외부에 어두운 영역 즉, 그레이 레벨값이 "30"이하인 지점들로 둘러싸여 있어 글린트 내부를 구성하는 픽셀들의 그레이 레벨값을 보정할 수 있지만, 동공과 홍채 경계에 글린트가 존재하는 경우에는, 도 11에 도시된 바와 같이 우측 방향으로는 그레이 레벨값이 "30" 이하인 동공 영역이 존재하지만, 좌측 방향으로는 밝은 영역 즉 그레이 레벨값이 "225" 보다 큰 홍채 영역이 존재하는바, 동공 내부에 글린트가 존재할 때처럼, 글린트 내부에 존재하는 픽셀들의 그레이 레벨값을 보정할 수 없기 때문이다.
The reason for carrying out the above process is that when the glint is present in the pupil, it is surrounded by dark areas outside the glint, that is, points having a gray level value of 30 or less, It is possible to correct the level value. However, when the glint exists at the pupil-iris boundary, there is a pupil region with a gray level value of "30" or less in the rightward direction as shown in Fig. 11, This is because the iris region having a bright region, i.e., a gray level value larger than "225 " exists, and it is impossible to correct the gray level value of the pixels existing in the glint as in the case where the glint exists inside the pupil.

이하, 도 11을 참조로 제1포인트와 제2포인트를 확정하고, 이 제1,2포인트를 연결하는 방법을 구체적으로 설명한다.Hereinafter, with reference to FIG. 11, a first point and a second point are determined, and a method of connecting the first and second points will be described in detail.

제1포인트(A)는, 복수 개의 직선이 일방향으로 회전하되, 동공 영역 내의 그레이 레벨값 범위에 포함되는 점들(S1영역)을 탐지하는 도중 2개의 지점이 감지된 후(A,B), 다시 1개의 지점(C)으로 감지될 때의 동공 측에 위치한 픽셀(A)인 것을 특징으로 하고, 제2포인트(D)는, 복수 개의 직선이 타방향으로 회전하되, 동공 영역 내의 그레이 레벨값 범위에 포함되는 1개의 지점이 연속적으로 감지되다(S3영역) 더 이상 감지되지 않는 시점에 동공 측에 위치한 픽셀인 것을 특징으로 한다.
The first point (A) is a point (A, B) in which a plurality of straight lines are rotated in one direction and two points are detected during the detection of points (S1 area) included in the gray level value range in the pupil area Wherein the second point (D) is a pixel (A) positioned on the pupil side when it is sensed as one point (C), and the second point (D) Is a pixel positioned on the pupil side at a time point when one point included in the pixel is continuously detected (S3 region).

즉, 도시된 바와 같이, 무게중심을 지나는 복수 개의 직선(실선)이 시계 반대 방향(대략 0o ~ 180o)으로 회전(도면에 도시된 실선)하는 과정을 상정한다.That is, as shown in the figure, it is assumed that a plurality of straight lines (solid lines) passing through the center of gravity are rotated (a solid line shown in the figure) in a counterclockwise direction (approximately 0 o to 180 o ).

한편, 이 복수 개의 직선(실선)은 무게중심을 출발점으로 하고, 시계 반대 방향으로 회전하면서 동공 영역 내의 그레이 레벨값의 범위인 "30"이하인 포인트들을 탐지하게 된다.On the other hand, the plurality of straight lines (solid lines) start from the center of gravity, and rotate in the counterclockwise direction to detect points that are less than "30"

지속적으로 이러한 점들(S1영역)을 탐지하는 도중, 도면에 도시된 "A"지점을 탐지하게 될 것이고, 이 "A" 지점을 탐지할 때, 눈썹 영역에 존재하는 "B"지점 역시 탐지하게 될 것이다.While continuously detecting these points (S1 area), it will detect the "A" point shown in the figure, and when detecting this " A " spot, will be.

예를 들어, 이 "A"지점과 "B"지점을 탐지하는 직선이 무게중심을 기준으로 대략 150o 정도의 기울기인 것으로 가정하고, 이 각도보다 조금 큰 각도(예를 들면, 151o )로 직선이 형성되는 경우 도시된 바와 같이 동공 영역을 지나지 않고, 동공을 중심으로 좌측 상단에 위치하는 눈썹 영역의 일 지점인 "C"를 탐지하게 될 것이다.For example, it is assumed that the straight line that detects the "A" point and the "B" point has a slope of about 150 ° based on the center of gravity, and is slightly larger than this angle (for example, 151 ° ) If a straight line is formed, it will detect "C", which is one point of the eyebrow area located at the upper left of the center of the pupil, without passing through the pupil area as shown.

이때, 2개의 지점(A,B)을 탐지한 후, 1개의 지점(C)의 탐지시 2개의 지점 중 동공 측에 위치한 픽셀(A)이 제1포인트(A)로 확정된다.
At this time, after detecting the two points A and B, the pixel A positioned at the pupil side among the two points at the time of detection of one point C is determined as the first point A.

즉, 탐지하는 과정을 살펴보면, 무게중심을 시작으로 형성되는 복수 개의 직선이 시계 반대 방향으로 회전하면서 동공 영역의 그레이 레벨값 범위인 "30" 이하인 포인트들을 계속 탐지하게 되는데, 이때, 이 탐지되는 점들은 "A" 지점에 이르기 전까지는 연속적으로 형성(S1)될 것이고, "A" 지점을 지날 때는 "A" 지점을 지나는 직선상에 "B" 지점도 역시 탐지될 것이다.In other words, in the process of detecting, a plurality of straight lines starting from the center of gravity rotates counterclockwise to continuously detect points having a gray level value of 30 or less in the pupil region. At this time, Will be formed continuously (S1) until they reach the "A" point, and the "B" point on the straight line passing "A" point will also be detected.

그 후, 이 "A"지점과 "B"지점을 지나는 직선의 기울기보다 더 큰 직선이 다시 상정되는 경우, 이 직선은 "C"지점을 탐지하게 될 것이고, 이때, 동공 측에 위치한 "A" 지점이 제1포인트로 확정된다.
Then, if a straight line larger than the slope of the straight line passing through the "A" point and the "B" point is assumed again, this straight line will detect the point "C" The point is determined as the first point.

상기와 같은 방법으로, 제1포인트(A)가 상정될 수 있지만, 이 제1포인트(A)는 아래와 같은 방법으로도 확정될 수 있다.In this way, although the first point A can be assumed, the first point A can also be determined in the following manner.

무게중심을 지나고, 동공 영역 내의 그레이 레벨값 범위에 포함되는 점들을 탐지한 후, 이 점들간의 거리를 지속적으로 산출한다.After passing through the center of gravity and detecting the points included in the gray level value range in the pupil area, the distance between these points is continuously calculated.

예를 들면, "A"와 "B" 지점을 지나는 직선의 기울기가 150o 라 가정하면, 이 각도에 이르기까지 복수 개의 직선이 탐지하는 점들은 도면에 "S1" 지점들로 상정될 것이다.For example, if the slope of a straight line passing through the "A" and "B" points is assumed to be 150 o , points detected by a plurality of straight lines up to this angle will be assumed to be "S1" points in the figure.

이때, 탐지되는 점들의 각각의 거리는 인접하는 점들인바, 그 거리는 거의 "0" 이 수렴될 것이다.At this time, each distance of the detected points is adjacent points, and the distance will be converged to almost zero.

그 후, "A" 지점과 "B" 지점을 지날 때에는 "A"지점과 "B" 지점 사이의 거리는 소정거리가 될 것이고, 이때, 이 지점이 동공과 홍채 경계에 있는 글린트로 인한 제1포인트 후보지점이 될 것이다.Thereafter, the distance between the "A" point and the "B" point will be a predetermined distance when passing between the "A" point and the "B" point, It will be a point candidate point.

그 후 "S2" 영역에 존재하는 점들을 복수 개의 직선이 탐지할 것이고, 이들 탐지된 점들의 거리 역시 "S1" 영역에 존재하는 점들과 마찬가지로 그 각각의 거리는 "0"에 수렴될 것이다.Thereafter, a plurality of straight lines will detect points present in the "S2" region, and the distances of these detected points will converge to "0" as well as the points present in the "S1"

즉, 탐지되는 연속적인 점들의 각각의 거리를 산정하고, 그 각각의 거리가 "O"으로 수렴되다가 어느 시점에는 그 거리가 소정거리로 산출되며, 다시 그 각각의 거리가 "O"으로 수렴된다는 것을 감지하게 될 때, 소정 거리로 산출시의 무게중심을 지나는 직선이 동공 영역의 그레이 레벨값에 포함되는 지점을 처음으로 탐지하는 "A"지점을 제1포인트로 상정할 수 있을 것이다.
That is, the distance of each of successive points to be detected is calculated, and the distance of each of them is converged to "0 ", and at that point, the distance is calculated as a predetermined distance, Quot; A "point, which detects a point at which a straight line passing through the center of gravity at the time of calculation at a predetermined distance is included in the gray level value of the pupil region, as the first point.

이와 마찬가지로, 제2포인트(D)를 상정하는 방법을 살펴보면, 복수 개의 직선이 타방향으로 회전하되, 동공 영역 내의 그레이 레벨값 범위에 포함되는 1개의 지점이 연속적으로 감지되다 더 이상 감지되지 않는 시점에 동공 측에 위치한 픽셀인 것을 특징으로 한다.Likewise, in the method of assuming the second point (D), when a plurality of straight lines are rotated in the other direction, one point included in the gray level value range in the pupil region is consecutively detected and is no longer detected And a pixel located on the pupil side of the pixel.

즉, 도시된 바와 같이, 무게 중심을 시작으로 복수 개의 직선이 시계 방향으로 회전(대략 -0o ~ -180o)하면서 동공 영역 내의 그레이 레벨값에 포함되는 지점들을 탐지하게 된다.That is, as shown, a plurality of straight lines starting from the center of gravity are rotated clockwise (approximately -0 o to -180 o ) to detect points included in the gray level value in the pupil region.

즉, "S3" 영역에 존재하는 점들을 탐지하게 되다가, 어느 시점에는 "D" 지점을 지나게 될 것이고, "D" 지점을 지난 후에는 더 이상 동공 영역 내의 그레이 레벨값에 포함되는 지점들을 탐지하지 못할 것이다.That is, it will detect the points existing in the area "S3 ", and at some point it will pass the point" D ", and after passing the point " D " I will not.

이때, 지속적으로 동공 영역 내의 그레이 레벨값에 포함되는 지점들을 탐지하다 더 이상 탐지할지 못할 때, 동공 측에 위치한 "D" 지점이 제2포인트로 확정될 것이다.
At this time, when the points continuously included in the gray level value in the pupil region are detected and can no longer be detected, the "D" point located on the pupil side will be determined as the second point.

상기와 같은 방법으로, 제2포인트를 상정할 수 있지만, 다음과 같은 방법으로도 제2포인트를 상정할 수 있다.Although the second point can be assumed in the same manner as described above, the second point can also be assumed by the following method.

이미 설명한 제1포인트 확정 방법과 마찬가지로, 도시되 바와 같이 "S3" 영역에 존재하는 각각의 점들의 거리를 산정하면, 거의 "0"에 수렴하게 될 것이고, "D" 지점을 지날 때에는 탐지되는 점이 존재하지 않아 그 거리가 "∞" 로 산출될 것이다.Similarly to the previously described first point determination method, when the distances of the respective points in the area "S3" as shown in the figure are calculated, they will converge to almost zero, and when the point passes the point "D " The distance will be calculated as "∞".

즉, 제2포인트는 동공 영역 내의 그레이 레벨값 범위에 포함되는 지점들의 각각의 거리가 "0"으로 수렴되다가, 어느 시점에 "∞" 로 산출될 때 동공 측에 위치한 지점을 제2포인트로 확정할 수 있게 된다.That is, the second point is that when the distance of each of the points included in the gray level value range in the pupil region is converged to "0 ", and the point located at the pupil side is calculated as " .

상기와 같이, 제1포인트와 제2포인트가 상정되면, 이 제1포인트와 제2포인트를 도 12에 도시된 바와 같이, 직선으로 연결한다.As described above, when the first point and the second point are assumed, the first point and the second point are connected by a straight line as shown in FIG.

이때, 이 직선의 그레이 레벨값은 "회색"에 영역에 속하도록 함이 바람직하고, 동공 측에 인접한 픽셀들 역시 "회색" 영역에 속하는 그레이 레벨값으로 함이 바람직하나, 반드시 이에 한정되지는 않는다.
At this time, it is preferable that the gray level value of this straight line belongs to the area of "gray ", and the pixels adjacent to the pupil side are also preferably gray level values belonging to the" gray " .

이러한 방식으로 회색 모양의 닫힌 폐도형이 만들어지고, 그 내부에 존재하는 픽셀들은 이미 설명한 동공 내부에 존재하는 글린트의 보정 방법과 동일한 방식으로 보정작업이 진행됨으로써 동공과 홍채 경계에 존재하는 글린트 역시 보정이 될 것이다.In this way, a gray closed closed figure is created, and the pixels existing therein are corrected in the same manner as the correction method of the glint existing in the pore described above. As a result, the glint It will also be calibrated.

이와 같은 방식으로 보정이 이루어진 동공 영역이 도 13에 도시되어 있고, 도 14는 보정된 이미지를 원본 이미지에 적용한 확대 이미지이다.The pupil region corrected in this manner is shown in Fig. 13, and Fig. 14 is an enlarged image obtained by applying the corrected image to the original image.

도시된 바와 같이, 동공 내부의 글린트는 거의 확실하게 보정이 이루어졌음을 확인할 수 있고, 다만, 동공과 홍채 경계에 있는 글린트는 동공 내부에 존재하는 글린트에 비해 다소 오차가 존재하지만, 최대한 보정을 하기 때문에 이 경계로 인해 동공을 추출하지 못하는 종래의 문제점은 발생하지 않는다.
As can be seen, the glint inside the pupil is almost certainly corrected, but the glint at the pupil-iris boundary has some errors compared to the glint present inside the pupil, Since the correction is performed, the conventional problem of not extracting the pupil due to the boundary does not occur.

이상, 눈 부분을 촬영한 영상정보에 나타난 글린트를 제거하는 단계를 설명하였다.As described above, the step of removing the glint from the image information of the eye part has been described.

이하에서는, 글린트가 제거된 영상정보를 설정된 기준 그레이 레벨값과 비교하여 보정하는 인접 합산 이진화 단계를 설명한다.Hereinafter, a neighboring summation binarization step in which image information from which glint is removed is compared with a set reference gray level value is described.

인접 합산 이진화 단계는, 우선 영상정보를 복수 개의 픽셀로 분할하고, 이 분할된 각각의 픽셀을 메인픽셀로 설정하고, 메인 픽셀과 이 메인 픽셀을 둘러싸는 주변 픽셀들의 그레이 레벨값 총합과 설정된 제1기준값을 비교하여 메인 픽셀의 그레이 레벨값을 보정하여 상기 영상정보의 밝은 영역을 확장하는 제1차 이진화 단계가 수행된다.The adjoining summation binarization step first divides the image information into a plurality of pixels, sets each of the divided pixels as a main pixel, and calculates a sum of a gray level value of a main pixel and surrounding pixels surrounding the main pixel, A first binarization step of comparing the reference value and correcting the gray level value of the main pixel to expand the bright region of the image information is performed.

제1차 이진화 단계에 의해 밝은 영역을 나타내는 픽셀이 이 픽셀을 중심으로 밝은 영역이 확장되는 효과가 구현된다.The first binarization step realizes the effect that the bright region is expanded around the pixel representing the bright region.

도 15를 참조로 제1차 이진화 단계를 구체적으로 설명하면 다음과 같다.The first binarization step will be described in detail with reference to FIG.

도 15는 영상정보가 복수 개의 픽셀로 분할되고, 그 각각의 픽셀이 그레이 레벨값으로 표현되어 있다.15, the image information is divided into a plurality of pixels, and each of the pixels is represented by a gray level value.

메인 픽셀은 도 15에 도시된 모든 픽셀이 되고, 이 메인 픽셀의 그레이 레벨값은 메인 픽셀과 이 메인 픽셀을 둘러싸는 주변 픽셀의 그레이 레벨값 총합과 이미 설정된 제1기준값을 비교하여 메인 픽셀의 그레이 레벨값이 보정된다.The gray level value of the main pixel is compared with the gray level value sum of the main pixel and the surrounding pixels surrounding the main pixel to compare the gray level value sum of the main pixel with the gray level value sum already set, The level value is corrected.

설정된 제1기준값은 그레이 레벨값 "256"으로 설정하였으며, 다만 이 설정된 제1기준값은 홍채를 인식하는 장치가 설치된 장소 또는 홍채를 비추는 광원의 조도에 따라 달라질 수 있다.The set first reference value is set to the gray level value "256 ", but the first reference value may be changed depending on the place where the iris recognition device is installed or the illuminance of the light source illuminating the iris.

그 보정과정을 4행 3열(위로부터 기준)에 위치하고, 그레이 레벨값 "70"을 나타내는 픽셀을 대상으로 하면 다음과 같다.The correction process is as follows for a pixel located in the fourth row and third column (from the top) and representing the gray level value "70 ".

"70"을 나타내는 메인 픽셀과 이 메인 픽셀을 둘러싸는 8 개의 픽셀들의 총합을 산출하면, "16+48+75+22+70+63+17+35+55=401"이고, 이 값은 제1기준값인 "256"보다 크게 되어 "0~255"의 그레이 레벨값 중 가장 밝은 그레이 레벨값으로 표현되는 "255"으로 보정된다.16 + 48 + 75 + 22 + 70 + 63 + 17 + 35 + 55 = 401 "when the sum of the main pixel representing" 70 "and the eight pixels surrounding the main pixel is calculated, Quot; 255 " represented by the brightest gray level value among the gray level values of "0 to 255 "

즉, 초기에 "70"으로 표현된 픽셀이 "255"으로 보정되는 것이다. 마찬가지로, 4행 2열에 위치한 "22"를 나타내는 픽셀을 보정하면, "2+16+48+8+22+70+5+17+35=223"이고, 이 값은 제1기준값인 "256"을 넘지 않으므로, 가장 어두운 밝기를 나타내는 "0"의 그레이 레벨값으로 보정된다.That is, a pixel initially represented by "70" is corrected to "255 ". Similarly, when the pixel representing "22" located in the fourth row and the second column is corrected, this value is "256 + , It is corrected to a gray level value of "0 " representing the darkest brightness.

이러한 제1차 이진화 단계에 의해 보정된 그레이 레벨값이 도 15의 우측 도면에 도시되어 있다.The gray level value corrected by this first binarization step is shown in the right drawing of Fig.

도시된 바와 같이, 가장 어두운 영역을 나타내는 그레이 레벨값 "0"인 픽셀들도 증가하지만, 이에 비해 가장 밝은 영역을 나타내는 그레이 레벨값 "255"를 나타내는 픽셀들이 더 증가함으로써 처음에 밝은 영역에 포함되는 픽셀이 그 픽셀을 중심으로 가장 밝은 그레이 레벨값을 표현하는 "255"의 픽셀들이 더 증가함을 확인할 수 있다.As shown, pixels having a gray level value of "0" representing the darkest region are also increased, whereas pixels representing a gray level value "255" It can be seen that pixels of "255" representing the brightest gray level value around the pixel are further increased.

이러한 제1차 이진화 단계에 의해 새로 보정된 이미지가 도 16에 도시되어 있다.
The newly corrected image by this first binarization step is shown in FIG.

한편, 제1차 이진화 단계에 의해 보정된 이미지를 기초로, 제2차 이진화 단계가 이루어지는데, 이 제2차 이진화 단계는, 상기 제1차 이진화 단계에 의해 보정된 영상정보를 복수 개의 픽셀로 분할하고, 이 분할된 각각의 픽셀을 메인 픽셀로 설정하며, 메인 픽셀과 이 메인 픽셀을 둘러싸는 주변 픽셀들의 그레이 레벨값 총합과 설정된 제2기준값을 비교하여 메인 픽셀의 그레이 레벨값을 보정함으로써, 영상 정보의 어두운 영역을 확장하게 된다.On the other hand, a second binarization step is performed based on the image corrected by the first binarization step, wherein the second binarization step includes a step of binarizing the image information corrected by the first binarization step to a plurality of pixels And the gray level value of the main pixel is corrected by comparing the sum of the gray level values of the main pixel and the surrounding pixels surrounding the main pixel with the set second reference value, The dark region of the image information is expanded.

도 17을 참조로 그 구체적인 보정 과정을 설명하면 다음과 같다.The specific correction process will be described with reference to FIG.

메인 픽셀은 제1차 이진화 단계에 의해 보정된 모든 픽셀들이 그 대상이 되고, 제2기준값은 그레이 레벨값 "2040"으로 설정된다.The main pixel is subjected to all the pixels corrected by the first binarization step, and the second reference value is set to the gray level value "2040 ".

한편, 이 제2기준값을 살펴보면, 가장 밝은 영역을 나타내는 그레이 레벨값 "255"의 8배이고, 그 기술적 의미는, 메인 픽셀과 이 메인 픽셀들 둘러싸는 주변 픽셀들의 그레이 레벨값이 모두 "255"를 나타낼 때, 비로서 그 메인 픽셀의 그레이 레벨값을 "255"로 보정되고, 메인 픽셀과 이 메인 픽셀을 둘러싸는 주변 픽셀들을 포함한 총 9개의 픽셀 중 8개의 픽셀이 "255"의 그레이 레벨값을 나타내더라도, 메인 픽셀은 가장 어두운 영역을 나타내는 "0"의 그레이 레벨값으로 보정된다는 것을 의미한다.On the other hand, the second reference value is eight times the gray level value "255" representing the brightest region, and its technical meaning is that the gray level values of the main pixel and surrounding pixels surrounding the main pixels are both & , Eight pixels out of a total of nine pixels including the main pixel and surrounding pixels surrounding the main pixel are corrected to a gray level value of "255 " , It means that the main pixel is corrected to a gray level value of "0 " representing the darkest region.

즉, 메인 픽셀과 이 메인 픽셀을 둘러싸는 주변 픽셀들의 그레이 레벨값 총합이 "2040"이하이면, 그 메인 픽셀은 어두운 영역을 나타내는 "0"의 그레이 레벨값으로 보정되고, "2040"을 넘어야(9개의 픽셀 모두 "255"으로 표현된 경우) 비로서 "255"로 보정된다.That is, if the sum of the gray level values of the main pixel and surrounding pixels surrounding the main pixel is less than or equal to "2040 ", the main pixel is corrected to a gray level value of" 0 "Quot; 255 "in the case where all nine pixels are represented by" 255 ").

이러한 방식으로 제2차 이진화 단계에 의해 보정된 영상정보가 도 17의 우측에 도시되어 있고, 도시된 바와 같이, 대부분의 픽셀이 가장 어두운 그레이 레벨값을 나타내는 "0"의 그레이 레벨값으로 보정된 것을 확인할 수 있을 것이다.In this way, the image information corrected by the secondary binarization step is shown on the right side of Fig. 17, and as shown in Fig. 17, when most of the pixels are corrected to the gray level value of "0 " .

이러한 방식으로 보정된 영상정보가 도 18에 도시되어 있고, 이러한 본 발명의 필수적 단계인 인접 합산 이진화에 의하면, 아래와 같은 효과가 구현된다.
The image information corrected in this way is shown in Fig. 18, and the adjacent binarization, which is an essential step of the present invention, realizes the following effects.

우선, 영상 정보에서 가장 밝은 영역을 나타내는 픽셀이 어느 정도 확장되기는 하지만, 동공 중심으로는 어두운 영역을 나타내는 픽셀이 더욱 확장되는 효과가 구현됨으로써, 동공 내부의 임의의 한 점을 추출시 그 용이성 및 정확성이 도모된다.First, the pixel representing the brightest region in the image information is extended to some extent, but the pixel representing the dark region is further expanded in the center of the pupil. Thus, when extracting an arbitrary point within the pupil, .

그 다음으로, 영상정보에서 불필요하고, 동공 내부의 임의의 한 점을 추출시 불필요한 요소인 눈썹이나 점과 같은 국소부위의 어두운 부분들을 지울 수 있는 효과가 구현된다.
Next, an effect that unnecessary in the image information and dark parts of local parts such as eyebrows or points, which are unnecessary elements when extracting a certain point inside the pupil, can be eliminated.

한편, 상기와 같은 인접 합산 이진화 단계에 의해 보정된 영상정보의 무게중심을 이용하여 동공 영역을 확정하는 단계가 수행된다.Meanwhile, the step of determining the pupil region using the center of gravity of the image information corrected by the adjacent summation binarization step as described above is performed.

동공 영역을 확정한다는 기술적 의미는, 동공 중심으로 어두운 영역이 밀집되게 하고, 동공만이 영상정보에 최대한 나타나도록 구현되는 과정으로, 이 동공 영역이 확정되는데 있어, 보정된 영상정보의 무게중심이 이용되고, 추후에 이 무게 중심이 동공 영역의 임의의 한 점으로 설정된다.
The technical meaning of determining the pupil region is that the dark region is concentrated at the center of the pupil and only the pupil appears at the image information as much as possible. This pupil region is determined, and the center of gravity of the corrected image information is used And this center of gravity is set to an arbitrary point of the pupil region at a later time.

이러한, 동공 영역이 확정되는 단계는, 우선적으로 인접 합산 이진화된 이미지의 행과 열의 프로파일 정보에서 행 및 열을 따라 설정된 기준에 따라 필터링된 이미지의 제N-1가상 무게중심을 산출하는 단계가 실행된다.The step of determining the pupil area may include calculating the N-1 imaginary center of gravity of the filtered image according to the criteria established along the rows and columns in the profile information of the row and column of the adjacent summed binarized image do.

이러한 제N-1가상 무게중심을 산출하는 단계는, 인접합산 이미지를 상하로 리버싱하는 단계, 리버싱된 이미지의 행을 따라 연속적으로 인접된 어두운 영역의 픽셀들로 구성된 수평이미지추출단계, 리버싱된 이미지의 열을 따라 연속적으로 인접된 어두운 영역의 픽셀들로 구성된 수직이미지추출단계, 수평이미지와 수직이미지의 중첩된 이미지를 추출한 뒤, 이 중첩된 이미지를 구성하는 픽셀들의 좌표값을 이용하여 제N-1가상 무게중심을 산출하게 된다.
The step of calculating the (N-1) imaginary gravity center may include: vertically reversing the adjacent sum image, a horizontal image extracting step of consecutively adjacent dark region pixels along a row of the reversed image, A vertical image extracting step of extracting a superimposed image of a horizontal image and a vertical image by using a coordinate value of pixels constituting the superimposed image, The (N-1) imaginary center of gravity is calculated.

그 구체적인 과정을 도 19 내지 도 22를 참조로 설명한다.The specific procedure will be described with reference to FIGS. 19 to 22. FIG.

우선, 도 19에 도시된 바와 같이, 인접 합산된 이미지를 상하로 리버싱하는 단계를 거친다.First, as shown in Fig. 19, the process of reversing the adjacent summed image up and down is performed.

이 이미지를 1800 도 상하로 회전시키는 이유는, 연속적으로 인접한 어두운 영역의 픽셀들을 탐지하게 되는데, 인접 합산 이미지를 보면, 동공 위에 눈썹이 위치하는바, 그 탐지 과정의 초기에 눈썹이 아닌 동공 영역부터 검지 되도록 하기 위함이다.The reason for rotating the image 180 to 0 degrees vertical is, there is the detection of consecutive pixels in the dark area adjacent to, look at the adjacent combined image, bar eyebrows are located on the pupil, the detected initial to non-eyebrow pupil region of the process To be detected.

그 다음 단계로, 리버싱된 이미지의 행을 따라 연속적으로 인접한 어두운 영역의 픽셀들로 구성된 수평이미지를 추출하는 단계가 수행된다.In the next step, a step of extracting a horizontal image consisting of successive contiguous dark pixels along a row of the reversed image is performed.

즉, 도 19에 도시된 이미지를 위에서 아래 방향으로 행을 따라 어두운 영역의 픽셀들을 추출하게 된다.That is, pixels in the dark region are extracted along the line from the top to the bottom in the image shown in FIG.

연속적으로 인접한 어두운 영역이란, 구체적으로 가장 어두운 밝기를 나타내는 그레이 레벨값 "0"으로 표현되는 픽셀들이 2개 이상 연속적으로 인접한 픽셀군을 의미하며, 이러한 픽셀군은 행을 따라 탐지하는 도중 2개 이상의 픽셀군이 탐지될 수 있음은 자명하다.A continuously adjacent dark region means a group of pixels in which two or more consecutively adjacent pixels are represented by a gray level value "0 " representing the darkest brightness in particular, and such a group of pixels includes two or more It is obvious that a group of pixels can be detected.

최소한 2개 이상의 연속적으로 인접한 픽셀군이어야 불필요한 이미지가 아니라는 것을 확정할 수 있기 때문이다.At least two or more consecutive adjacent pixel groups can be determined to be not unnecessary images.

즉, 상기와 같은 단계를 통해, 동공 영역은 물론이고, 동공 영역 이외의 부분인 눈썹 부분 역시 그레이 레벨값 "0"을 가지되, 2개 이상의 픽셀로 인접하지 않은 픽셀군은 제외됨으로써, 동공 영역의 무게중심을 찾는데 있어 불필요한 이미지들은 필터링된다.That is, through the above steps, not only the pupil region but also the eyebrow portion other than the pupil region also have a gray level value of "0 ", and the group of pixels not adjacent to each other by two or more pixels are excluded, The unnecessary images are filtered to find the center of gravity of the image.

이러한 수평이미지추출단계의 의한 이미지가 도 20에 도시되어 있으며, 도시된 바와 같이 필터링 된 이미지에는 여전히 눈썹 영역은 물론, 동공 영역 이외에 불필요한 이미지들이 도시되어 있음을 확인할 수 있다.The image by the horizontal image extraction step is shown in FIG. 20, and it can be seen that the filtered image still shows unnecessary images in addition to the eyebrow area as well as the pupil area.

이러한 눈썹 영역을 포함한 불필요한 이미지로 인해 동공 영역의 무게중심을 구하는데 있어 오차가 발생하고, 이러한 불필요한 이미지는 결국, 행 방향으로 어두운 영역의 픽셀들만 탐지한 결과인바, 이를 보강하기 위해 본 발명은 수평이미지추출단계와 대응되도록 수직이미지추출단계가 수행된다.An unnecessary image including the eyebrow area causes an error in finding the center of gravity of the pupil area. Such an unnecessary image is a result of detecting only pixels in a dark region in the row direction. To reinforce this, A vertical image extraction step is performed so as to correspond to the image extraction step.

수직이미지추출단계는 도 19에 도시된 이미지를 열을 따라 연속적으로 인접된 어두운 영역의 픽셀들을 탐지하는 과정을 의미하고, 그 방식은 수평이미지추출단계와 동일한바, 여기서는 생략한다.The vertical image extraction step refers to a process of detecting pixels in a dark region continuously adjacent to the image shown in FIG. 19, and the method is the same as the horizontal image extraction step, and is omitted here.

이러한 수직이미지추출단계에 의해 필터링 된 이미지가 도 21에 도시되어 있고, 도시된 바와 같이, 도 20에 필터링 된 이미지에 비해 열을 따라 어두운 영역을 나타내는 픽셀군이 도시되어 있음을 확인할 수 있다.
It can be seen that the image filtered by this vertical image extraction step is shown in FIG. 21 and the group of pixels representing dark areas along the column are shown compared to the filtered image in FIG. 20, as shown.

한편, 상기와 같이 수평이미지와 수직이미지를 추출한 다음, 이 이미지들 각각에 중첩된 이미지를 추출하게 된다.Meanwhile, the horizontal image and the vertical image are extracted as described above, and then the superimposed image is extracted from each of the images.

이 중첩된 이미지가 도 22에 도시되어 있으며, 도시된 바와 같이 도 20과 도 21에 표현된 이미지에 비해 눈썹 영역은 물론 동공 이외의 불필요한 이미지들이 필터링 된 것을 확인할 수 있으며, 이러한 과정을 통해 인접 합산 이진화 단계를 거친 이미지가 동공 영역을 중심으로 그레이 레벨값 "0"인 픽셀들로 구성된 이미지가 산출되고, 이 과정을 통해 동공 내의 무게중심을 보다 정확하게 산출할 수 있는 효과가 구현된다.As shown in FIG. 22, the superimposed image is shown in FIG. 22, and unnecessary images other than the eyebrow area as well as the pupil are filtered in comparison with the images shown in FIGS. 20 and 21. As a result, An image composed of pixels having a gray level value "0 " centered on the pupil region is calculated, and the center of gravity in the pupil can be more accurately calculated through this process.

상기와 같이 중첩된 이미지가 산출되면, 이 중첩된 이미지를 구성하는 픽셀들의 좌표값을 이용하여 무게중심을 구하는 단계가 수행되는데, 그 무게중심이 바로 제N-1가상 무게중심이다.When the superimposed image is calculated as described above, the center of gravity is obtained by using the coordinate value of the pixels constituting the superimposed image, and the center of gravity thereof is the N-1 imaginary center of gravity.

무게중심을 산출하는 방법은 이미 설명한바, 여기서는 생략한다.
The method of calculating the center of gravity has already been described and is omitted here.

한편, 상기 제N-1가상 무게중심을 산출한 뒤, 이 무게중심을 리버싱된 인접 합산 이미지에 대입하는 과정이 수행되고, 이 제N-1가상 무게중심을 원의 중심으로 하여 산정된 원 내부에 위치하는 픽셀들만 채택한 뒤, 이 채택된 이미지의 무게중심을 산출하는 과정이 수행되는데, 그 무게중심이 바로 제N가상 무게중심이다.Meanwhile, a process of calculating the N-1 imaginary center of gravity and substituting the center of gravity into the reversed neighboring summation image is performed, and the N-1 imaginary center of gravity is calculated as a center A process of calculating the center of gravity of the adopted image is carried out after only pixels located inside the center of gravity of the image are taken.

제N가상 무게중심을 산출하는 과정을 도 23 내지 도 25를 이용하여 설명하면 다음과 같다.
A process of calculating the Nth virtual center of gravity will be described with reference to FIGS. 23 to 25 as follows.

제N가상 무게중심을 산출하는 단계는, 우선, 제N-1가상 무게중심(a)을 따라 수직으로 연장시 최상단에서 만나는 픽셀군의 양 끝단에 위치한 제N-1좌측픽셀(b)과 제N-1우측픽셀(c)을 산정하는 단계가 수행된다.The step of calculating the Nth imaginary center of gravity comprises: (N-1) left pixel (b) located at both ends of the group of pixels which meet at the top when vertically extending along the (N-1) imaginary center of gravity The step of calculating the N-1 right pixel c is performed.

즉, 도 23에 도시된 바와 같이, 인접 합산 이진화 과정이 수행되고, 리버싱된 이미지에 제N-1가상 무게중심(a)을 따라 수직으로 연장되되, 최상단에서 만나는 그레이 레벨값 "0"인 픽셀을 탐지한다.That is, as shown in FIG. 23, the adjacent summation binarization process is performed, and the gray level value "0 ", which is vertically extended along the N-1 imaginary center of gravity a in the reversed image, Pixels are detected.

그 픽셀이 제N-1좌측픽셀(b)이 될 것이고, 이 제N-1좌측픽셀(b)을 따라 수평으로 연장되되 가장 우측에 위치하고 그레이 레벨값 "0"을 나타내는 픽셀을 제N-1우측픽셀(c)로 설정하게 된다.The pixel will be the (N-1) -th left pixel b, and the pixel extending horizontally along the (N-1) th left pixel b and the rightmost positioned gray level value & And set to the right pixel c.

이러한 제N-1좌측픽셀(b)과 제N-1우측픽셀(c)이 도 23에 도시되어 있고, 그 후 이 양 끝단에 위치한 픽셀들의 X좌표 평균값과 제N-1가상 무게중심의 Y좌표로 결정되는 제N-1가상원중심(Xn -1, Yn -1)(d)을 산정하는 단계가 이어진다.23 shows the (N-1) th left pixel b and the (N-1) th right pixel c, and thereafter the X-coordinate average value of the pixels located at both ends and the Y- (X n -1, Y n -1 ) (d) of the (N-1) imaginary circle determined by the coordinates.

이러한 제N-1가상원중심(d)이 도 24에 도시되어 있고, 이 제N-1가상원중심(d )을 원의 중심으로 하고, 제N-1좌측픽셀(b) 또는 제N-1우측픽셀(c)간의 거리를 반지름 (rn -1)으로 하는 원을 산정하는 단계가 이어진다.1, the (N-1) th imaginary circle center d is shown in Fig. 24, and the (N-1) th imaginary circle center d is the center of the circle, And the distance between the right pixel c and the right pixel c is a radius (r n -1 ).

상기와 같은 반지름(rn -1)으로 구성된 원이 도 24에 도시되어 있고, 원 내부에 위치하는 어두운 영역의 픽셀들만 채택한 뒤, 이 채택된 어두운 영역을 구성하는 픽셀들의 좌표를 이용하여 제N가상 무게중심을 산출하는 단계가 이어진다.24 shows a circle composed of the radius (r n -1 ) as described above. After adopting only the pixels in the dark region located inside the circle, the coordinates of the pixels constituting the adopted dark region are used to calculate the Nth Followed by a step of calculating the virtual center of gravity.

즉, 반지름(rn -1)으로 구성된 원 내부에 존재하는 그레이 레벨값 "0"을 나타내는 픽셀들만 추출하는 단계가 이어지는데, 이를 통해 동공 영역의 무게 중심을 구하는데 있어, 불필요한 이미지들은 점차 필터링 되는 효과가 구현된다.That is, only the pixels representing the gray level value "0 " existing in the circle constituted by the radius (r n -1 ) are continued. By this, in finding the center of gravity of the pupil region, unnecessary images are gradually filtered Effect is realized.

이러한 원 내부에 존재하는 픽셀들만 추출된 이미지가 도 25에 도시되어 있고, 도시된 바와 같이 도 24에 비해 눈썹 영역의 많은 부분이 필터링되고, 그 이외에 불필요한 영상들도 상당수 필터링된 것을 확인할 수 있다.As shown in FIG. 25, it can be seen that much of the eyebrow area is filtered as compared to FIG. 24, and a large number of unnecessary images are also filtered out in addition to those shown in FIG.

이에 도 25에 필터링 된 픽셀들의 좌표값을 이용하여 제N가상 무게중심을 산출하게 되는데, 픽셀들의 좌표값을 이용 무게중심을 산출하는 방법은 이미 설명한바 여기서는 생략하고, 그에 따라 필터링된 이미지들이 도 26에 도시되어 있으며, 점차적으로 동공 영역과 비슷해지는 것을 확인할 수 있다.
The Nth imaginary center of gravity is calculated using the coordinate values of the filtered pixels in FIG. 25. The method of calculating the center of gravity using the coordinate values of the pixels has already been described herein, and the filtered images 26, and it gradually becomes similar to the pupil region.

한편, 상기와 같이 제N가상 무게중심을 산출한 뒤, 이 제N가상 무게중심인 하기의 식을 만족할 때, 상기 동공 영역이 확정되는 것을 특징으로 하는데, 그 제N가상 무게중심의 좌표가 만족 되어야 하는 식은 아래와 같다.
On the other hand, after calculating the Nth imaginary center of gravity as described above, the pupil region is determined when the following expression, which is the center of the Nth imaginary center of gravity, is satisfied. The following formula should be used.

Figure pat00004
Figure pat00004

(Xn 과 Yn 은 제N가상 무게중심의 좌표, a와 b 는 상수)
(X n And Y n The coordinates of the Nth virtual gravity center, and a and b are constants)

즉, 제N-1가상무게중심과 제N가상무게중심을 구하고, 다시 제N+1가상무게중심을 구하게 되는데, 상기와 같은 과정을 반복적으로 수행하게 되면, 도 26에 도시된 바와 같이 점차적으로 동공 영역으로 수렴되는 이미지가 검출될 것이고, 어느 순간에는 그 무게중심의 좌표가 더 이상 변하지 않는 시점이 도래될 것인바, 그 시점에는 상기와 같은 반복적인 필터링 과정이 수행되더라도 그 무게중심의 좌표는 변하지 않을 것이다.That is, the N-1 imaginary center of gravity and the Nth imaginary center of gravity are obtained and the N + 1 imaginary center of gravity is obtained again. If the above process is repeatedly performed, as shown in FIG. 26, The image converged to the pupil region will be detected and at a certain moment the point at which the center of gravity does not change further will come. At this point, even if the repetitive filtering process as described above is performed, the coordinates of the center of gravity It will not change.

즉, 더 이상 가상 무게중심의 좌표가 변하지 않는 시점에 필터링 된 이미지가 동공 영역으로 확정되는데, 다만, 그 무게중심의 좌표가 상기의 식과 같이, 상수(a,b)로 수렴하는 경우 그때의 이미지를 동공 영역으로 확정할 수 있으나, 상기의 식은 아래와 같은 식을 만족하는 경우에도 그 동공 영역이 확정되도록 한다.
That is, when the coordinates of the virtual center of gravity no longer change, the filtered image is determined as a pupil region. However, when the coordinates of the center of gravity converge to constants (a, b) Can be determined as a pupil region, but the above equation ensures that the pupil region is determined even if the following expression is satisfied.

(rn -1 - rn)/rn -1 ≤ 5/100(r n -1 - r n ) / r n -1 5/100

(rn 은 제N가상 무게중심이 원의 중심이고, 이 원의 반지름)
(r n The center of gravity of the Nth virtual gravity is the center of the circle, and the radius of this circle)

즉, 제N-1가상원중심을 그 중심으로 하는 원의 반지름이 "rn -1" 이고, 제N가상원중심을 그 중심으로 하는 원의 반지름이 "rn"일 때, 그 반지름의 오차율이 5% 내인 경우에도 추출된 이미지를 동공 영역으로 확정하게 된다.That is, the N-1 virtual circle when the radius of the circle to the radius of the circle, and the "r n -1" as the center thereof, the N-th virtual circle center-to-center to the center of one "r n", of the radius Even if the error rate is within 5%, the extracted image is determined as the pupil region.

연속적으로 각각의 원 반지름을 산출하고, 그 반지름의 오차율이 5% 내인 경우에 해당되는 이미지를 동공 영역으로 최종 확정하게 되는 것이다.Each of the circle radii is continuously calculated, and when the error rate of the radius is within 5%, the corresponding image is finally determined as the pupil region.

물론, 상기의 오차율은 임의의 설정될 수 있으나, 그 오차율이 5% 인 경우 차이나는 픽셀의 갯수가 많지 않은바, 상기의 오차율을 만족하는 동공이 확정되는 경우 실제 동공 영역과 거의 일치한다고 볼 수 있을 것이다.
Of course, the error rate can be set arbitrarily, but if the error rate is 5%, the number of pixels is not so large, and if the pupil satisfying the error rate is determined, There will be.

한편, 상기의 식에서 "rn "을 산출하는 과정은, "rn -1" 을 산출하는 과정과 동일하며, 구체적으로는, 제N가상 무게중심을 따라 수직으로 연장시 최상단에서 만나는 픽셀군의 양 끝단에 위치한 제N좌측픽셀과 제N우측픽셀을 산정하는 단계와 양 끝단에 해당하는 픽셀들의 X좌표 평균값과 제N가상 무게중심의 Y좌표로 결정되는 제N가상원중심(Xn , Yn)을 산정하는 단계 및 제N가상원중심과 제N좌측픽셀 또는 제N우측픽셀간의 거리를 반지름(rn)으로 산출하게 되고, 그 방법은 rn -1 을 산출하는 방법과 동일한바 여기서는 생략한다.
On the other hand, in the above expression, "r n Quot; is calculated in the same manner as in the process of calculating "r n -1 & quot ;. More specifically, the process of calculating the " And an N- th imaginary circle center (X n , Y n ) determined by an X-coordinate average value of pixels corresponding to both ends and a Y-coordinate of the Nth imaginary center of gravity; and The distance between the center of the N virtual circle and the Nth left pixel or the Nth right pixel is calculated as a radius r n and the method is the same as the method of calculating r n -1 and is omitted here.

상기와 같이 동공 영역이 확정되면, 이 확정된 동공 영역의 무게중심을 이용하여 동공과 홍채의 경계점들을 합산하는 단계가 수행된다.When the pupil region is determined as described above, the step of summing the boundary points of the pupil and iris using the determined center of gravity of the pupil region is performed.

동공과 홍채의 경계점들을 합산하는 단계는, 확정된 동공 영역의 무게중심을 중심으로, 일방향으로 회전하면서 명암이 변동되는 지점들을 체크하고, 이 지점들을 이용 최소원형법을 통해 동공을 추출하는 것을 특징으로 한다.The step of summing the boundary points of the pupil and the iris is characterized in that pupil is extracted by means of a minimum circular method using points determined by checking the points where the light and shade are changed while rotating in one direction around the center of gravity of the determined pupil region .

그 구체적인 단계를 도 27 및 도 28를 참조로 설명하면 다음과 같다.
The specific steps will be described with reference to FIGS. 27 and 28 as follows.

도시된 바와 같이, 무게중심을 기준으로 일 방향(시계 방향 또는 반시계 방향)으로 회전하면서 명암이 변동되는 지점들을 체크한다.As shown in the figure, the points varying in brightness vary in one direction (clockwise or counterclockwise) with respect to the center of gravity.

이 명암이 변동되는 지점들이란, 동공과 홍채의 경계를 의미하고, 다만, 동공 측으로 눈썹이 내려와 가려지는 경우가 많은바, 450에서 1350 사이의 범위는 눈썹이 존재하는 것으로 가정하고, 이 부분의 명암이 바뀌는 지점들의 데이타는 폐기한다.The point where the light and shade are changed means the boundary between the pupil and the iris. However, since the eyebrows are occasionally blocked to the pupil side, it is assumed that the eyebrows exist in the range of 45 0 to 135 0 , The data of the points where the contrast of the part changes is discarded.

한편, 동공 영역 내의 무게중심을 기준으로 명암이 바뀌는 지점들로 구성된 경계점들을 기준으로 일반적으로 알려진 최소원형법을 이용하여 동공의 정확한 중심점 좌표와 그 동공에 해당하는 원의 반지름을 측정하여, 홍채로부터 동공을 추출하게 된다.
On the other hand, the exact center point of the pupil and the radius of the circle corresponding to the pupil are measured using the generally known minimum circular method based on the boundary points composed of points where the light and darkness change with respect to the center of gravity in the pupil region, The pupil is extracted.

한편, 상기와 같은 방법을 이용한 동공 추출 제어장치가 소개된다.Meanwhile, a pupil extraction control apparatus using the above method is introduced.

이를 위해 본 발명은 도 29에 도시된 바와 같이, 글린트 추출부(100), 인접합산이진화부(200), 동공처리부(300) 및 동공검출부(400)를 포함한다.To this end, the present invention includes a glint extractor 100, an adjacent summation binarizer 200, a pupil processor 300, and a pupil detector 400, as shown in FIG.

한편, 글린트 추출부(100)는, 촬영된 영상정보에 나타난 글린트에 인접한 동공 영역의 그레이 레벨값을 이용하여 글린트를 제거하고, 인접합산이진화부(200)는, 글린트가 제거된 복수 개의 픽셀로 구성된 영상정보를 설정된 기준값과 비교하여 영상정보의 어두운 영역과 밝은 영역을 확장하며, 동공처리부(300)는, 이진화된 영상정보의 무게중심을 이용하여 동공 영역을 확정하고, 동공검출부(400)는, 확정된 동공 영역 내의 무게 중심을 이용하여 동공과 홍채의 경계점들을 합산하여 동공을 추출한다.Meanwhile, the glint extracting unit 100 removes the glint using the gray level value of the pupil region adjacent to the glint shown in the photographed image information, and the neighboring summation binarization unit 200 performs a process of removing the glint The pupil processing unit 300 determines the pupil region using the center of gravity of the binarized image information, and determines the pupil region using the center of gravity of the binarized image information. (400) extracts the pupil by summing the boundary points of the pupil and iris using the center of gravity in the determined pupil region.

또한, 글린트 추출부(100)는, 촬영된 영상정보를 저장하는 데이터 베이스부(110)와 촬영된 영상정보로부터 글린트를 추출하고, 영상정보를 이진화하여 흑백으로 표현하되 글린트가 그레이 레벨값으로 표현된 영상정보 영역 중 동공의 내부 영역에 해당하는지 여부를 판단하며, 글린트가 동공 내부 영역에 해당되면 글린트를 동공의 그레이 레벨값 범위로 보정하여 동공 영역을 확정하고 이를 추출하여 홍채 영역을 확정하는 홍채 처리부(120) 및 데이터 베이스부(110)에 기 저장된 영상정보와 글린트 처리부에서 확정된 홍채 영역과의 일치 여부를 판단하는 비교부(130)를 더 포함한다.The glint extracting unit 100 extracts the glint from the captured image information, and displays the image information in a monochrome manner. The glint extracting unit 100 binarizes the image information, And if the glint is within the pupil region, the pupil region is determined by correcting the glint to the gray level value range of the pupil, and the pupil region is extracted to extract the iris And a comparing unit 130 for determining whether the iris processing unit 120 and the iris processing unit 120 match the image information stored in the database 110 and the iris region determined by the glint processing unit.

한편, 홍채 처리부(120)는, 영상 정보를 복수 개의 픽셀로 분할하고, 픽셀의 그레이 레벨값이 기준 그레이 레벨값 이상이면 글린트로 판단하여 추출하는 글린트 추출모듈(121)과, 추출된 글린트를 이진화되어 흑백으로 표현된 영상정보에 마스킹(masking)하여 글린트가 영상정보 영역 중 동공의 내부 영역에 해당하는지 여부를 판단하는 글린트 위치판단모듈(122)을 더 포함하며, 영상정보를 복수 개의 픽셀로 분할하고, 글린트 내부에서 기준 픽셀을 설정하여 기준 픽셀을 둘러싸는 주변 픽셀의 그레이 레벨값이 동공 영역의 그레이 레벨값 범위에 포함되는지 여부를 판단한 후, 동공 영역의 그레이 레벨값 범위에 포함되는 주변 픽셀의 그레이 레벨값 평균값으로 기준 픽셀의 그레이 레벨값으로 보정하는 글린트 보정모듈(123)을 더 포함한다.Meanwhile, the iris processing unit 120 includes a glint extraction module 121 for dividing the image information into a plurality of pixels, determining that the gray level of the pixel is equal to or greater than the reference gray level value, Further comprising a glint position determination module (122) for masking the lint to binarized image information expressed in monochrome to determine whether the glint corresponds to the inner region of the pupil of the image information region, A reference pixel is set in the glint to determine whether the gray level value of the surrounding pixel surrounding the reference pixel is included in the gray level value range of the pupil area and then the gray level value range of the pupil area And a glint correction module 123 that corrects the average value of the gray level values of the surrounding pixels included in the reference pixel to the gray level value of the reference pixel.

상기와 같은 구성으로 이루어진 글린트 추출부(100)의 구체적인 과정은 이미 설명한바 여기서는 생략한다.
The detailed process of the glint extracting unit 100 having the above-described structure has already been described and is omitted here.

한편, 다시 도 29를 참조하면, 인접합산이진화부(200)는 영상정보를 복수 개의 픽셀로 분할하고, 이 분할된 각각의 픽셀을 메인픽셀로 설정하고, 메인 픽셀과 이 메인 픽셀을 둘러싸는 주변 픽셀들의 그레이 레벨값 총합과 설정된 제1기준값을 비교하여 메인 픽셀의 그레이 레벨값을 보정하여 영상정보의 밝은 영역을 확장하는 제1차 이진화 모듈(210)과, 제1차 이진화 단계에 의해 보정된 영상정보를 복수 개의 픽셀로 분할하고, 이 분할된 각각의 픽셀을 메인 픽셀로 설정하며, 메인 픽셀과 이 메인 픽셀을 둘러싸는 주변 픽셀들의 그레이 레벨값 총합과 설정된 제2기준값을 비교하여 메인 픽셀의 그레이 레벨값을 보정함으로써, 영상 정보의 어두운 영역을 확장하는 제2차 이진화 모듈(220)로 구성된다.Referring again to FIG. 29, the adjacent summation binarization unit 200 divides the image information into a plurality of pixels, sets each of the divided pixels as a main pixel, and sets the main pixel and surrounding A first binarization module 210 for comparing the sum of the gray level values of the pixels and the set first reference value to expand the bright region of the image information by correcting the gray level value of the main pixel, The image information is divided into a plurality of pixels, each of the divided pixels is set as a main pixel, and a sum of a gray level value sum of a main pixel and surrounding pixels surrounding the main pixel is compared with a set second reference value, And a second binarization module 220 for expanding the dark region of the image information by correcting the gray level value.

또한, 동공 처리부(300)는, 인접 합산 이진화된 이미지의 행과 열의 프로파일 정보에서 행 및 열을 따라 설정된 기준에 따라 필터링된 이미지의 제N-1가상 무게중심을 산출하는 제N-1산출모듈(310)과, 인접 합산 이진화된 이미지를 리버싱하고, 이 리버싱된 이미지에서 제N-1가상 무게중심을 원의 중심으로 하여 산정된 원 내부에 위치하는 픽셀들만 채택한 뒤, 이 채택된 이미지의 제N가상 무게중심을 산출하는 제N산출모듈(320)과, 제N가상 무게중심이 하기의 식을 만족하는지 여부를 판단하여 동공 영역을 확정하는 제1차판단모듈(330)을 더 포함한다.Further, the pupil processing unit 300 calculates an N-1 imaginary center of gravity of the filtered image according to the reference set along the rows and columns in the profile information of the row and column of the adjacent summed binarized image, (310), reversing the adjacent sum binarized image, and adopting only the pixels located within the circle estimated with the N-1 imaginary center of gravity as the center of the circle in the reversed image, And a first determination module (330) for determining whether the Nth imaginary center of gravity satisfies the following equation to determine a pupil area: < EMI ID = 1.0 > do.

Figure pat00005
Figure pat00005

(Xn 과 Yn 은 제N가상 무게중심의 좌표, a와 b 는 상수)(X n And Y n The coordinates of the Nth virtual gravity center, and a and b are constants)

다만, 동공 영역이 확정되도록 만족하는 식은, 하기의 식을 만족하는지 여부를 판단하는 제2차판단모듈(340)을 더 포함한다.However, the equation satisfying that the pupil region is determined further includes a second determination module 340 that determines whether or not the following expression is satisfied.

(rn -1 - rn)/rn -1 ≤ 5/100(r n -1 - r n ) / r n -1 5/100

(rn 은 제N가상 무게중심이 원의 중심이고, 이 원의 반지름)
(r n The center of gravity of the Nth virtual gravity is the center of the circle, and the radius of this circle)

상기와 같은 구성으로 이루어진 동공 추출 제어장치의 구체적인 작동과정을 이미 설명한바 여기서는 생략한다.
The specific operation of the pupil extraction control apparatus having the above-described configuration has already been described, and will not be described here.

본 발명은 특정한 실시 예에 관련하여 도시하고 설명하였지만, 이하의 특허청구범위에 의해 제공되는 본 발명의 기술적 사상을 벗어나지 않는 한도 내에서, 본 발명이 다양하게 개량 및 변화될 수 있다는 것은 당 업계에서 통상의 지식을 가진자에게 있어서 자명할 것이다.
While the present invention has been particularly shown and described with reference to specific embodiments thereof, it will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the following claims It will be apparent to those of ordinary skill in the art.

100 : 글린트 추출부 110 : 데이터베이스부
120 : 홍채 처리부 130 : 비교부
121 : 글린트 추출모듈 122 : 글린트 위치 판단 모듈
123 : 글린트 보정 모듈 200 : 인접 합산 이진화부
210 : 제1차 이진화 모듈 220 : 제2차 이진화 모듈
300 : 동공 처리부 310 : 제N-1산출모듈
320 : 제N산출모듈 330 : 제1차판단모듈
340 : 제2차판단모듈 400 : 동공 검출부
100: Glint extractor 110: Database part
120: iris processing unit 130:
121: Glint extraction module 122: Glint position determination module
123: Glint correction module 200: Adjacent sum binarization unit
210: first binarization module 220: second binarization module
300: pupil processing unit 310: N-1 calculation module
320: first Nth calculation module 330: first determination module
340: second judgment module 400: pupil detection part

Claims (36)

눈 부분을 촬영한 영상정보에 있어서,
상기 영상정보에 나타난 글린트를 제거하는 단계;
상기 글린트가 제거된 영상정보를 설정된 기준 그레이 레벨값과 비교하여 보정하는 인접 합산 이진화 단계;
상기 인접 합산 이진화 단계에 의한 영상정보의 무게중심을 이용하여 동공 영역을 확정하는 단계; 및
상기 확정된 동공 영역 내의 무게 중심을 이용하여 동공과 홍채의 경계점들을 합산하는 단계를 포함하는, 인접 합산 이진화를 이용한 동공 추출 방법.
In the image information of the eye part,
Removing glints appearing in the image information;
A neighboring summation binarization step of comparing the image information from which the glint has been removed with a preset reference gray level value to correct the image information;
Determining a pupil region using the gravity center of the image information by the adjacent summation binarization step; And
And summing the pupil and iris boundary points using the center of gravity in the determined pupil region.
청구항 1에 있어서,
상기 글린트를 제거하는 단계는,
상기 영상정보에 나타난 글린트에 인접한 동공 영역의 그레이 레벨값을 확인하는 단계와 상기 그레이 레벨값을 이용하여 상기 글린트를 보정하는 단계 및 상기 보정된 글린트로 상기 동공내에 존재하는 글린트를 제거하는 단계를 더 포함하는 것을 특징으로 하는, 인접 합산 이진화를 이용한 동공 추출 방법.
The method according to claim 1,
Wherein removing the glint comprises:
Determining a gray level value of a pupil region adjacent to the glint in the image information; correcting the glint using the gray level value; and removing the glint present in the pupil with the corrected glint Further comprising the steps of: (a) extracting a pupil using adjacent binomial binarization;
청구항 2에 있어서,
상기 그레이 레벨값을 확인하는 단계는,
상기 영상정보를 복수 개의 픽셀로 분할하고, 상기 글린트 내부에서 기준픽셀을 설정하여 상기 기준 픽셀을 둘러싸는 주변 픽셀의 그레이 레벨값이 상기 동공 영역의 그레이 레벨값 범위에 포함되는지 여부를 판단한 후, 상기 동공 영역의 그레이 레벨값 범위에 포함되는 상기 주변 픽셀의 그레이 레벨값의 평균값을 구하여 상기 픽셀의 그레이 레벨값을 확인하는 것을 특징으로 하는, 인접 합산 이진화를 이용한 동공 추출 방법.
The method of claim 2,
The step of verifying the gray level value comprises:
Dividing the image information into a plurality of pixels, setting a reference pixel within the glint to determine whether a gray level value of a surrounding pixel surrounding the reference pixel is included in a gray level value range of the pupil area, Wherein the average value of the gray level values of the surrounding pixels included in the gray level value range of the pupil region is obtained and the gray level value of the pixel is confirmed.
청구항 3에 있어서,
상기 기준 픽셀은 상기 글린트의 무게중심인 것을 특징으로 하는, 인접 합산 이진화를 이용한 동공 추출 방법.
The method of claim 3,
Wherein the reference pixel is the center of gravity of the glint.
청구항 3에 있어서,
상기 주변 픽셀의 그레이 레벨값이 상기 동공 영역의 그레이 레벨값 범위를 벗어나면 상기 기준 픽셀의 좌측 인접 주변 픽셀을 새로운 기준 픽셀로 설정하고,
상기 좌측 인접 주변 픽셀의 그레이 레벨값이 상기 동공 영역의 그레이 레벨값 범위를 벗어나면 상측 인접 주변 픽셀을 새로운 기준 픽셀로 설정하며,
상기 상측 인접 주변 픽셀의 그레이 레벨값이 상기 동공 영역의 그레이 레벨값 범위를 벗어나면 우측 인접 주변 픽셀을 새로운 기준 픽셀로 설정하고,
상기 우측 인접 주변 픽셀의 그레이 레벨값이 상기 동공 영역의 그레이 레벨값 범위를 벗어나면 하측 인접 주변 픽셀을 새로운 기준 픽셀로 설정하는 것을 특징으로 하는, 인접 합산 이진화를 이용한 동공 추출 방법.
The method of claim 3,
Setting a left neighboring neighboring pixel of the reference pixel as a new reference pixel if the gray level value of the neighboring pixel is out of a gray level value range of the pupil region,
And sets the upper neighboring neighboring pixel as a new reference pixel if the gray level value of the left neighboring neighboring pixel is out of the gray level value range of the pupil region,
Setting a right neighboring neighboring pixel as a new reference pixel when the gray level value of the upper neighboring neighboring pixel is out of the gray level value range of the pupil region,
And if the gray level value of the right neighboring neighboring pixel deviates from the gray level value range of the pupil region, the lower neighboring neighboring pixel is set as a new reference pixel.
청구항 2에 있어서,
상기 글린트를 보정하는 단계는,
상기 확인된 인접한 동공 영역의 그레이 레벨값을 상기 글린트 내부에 적용하는 것을 특징으로 하는, 인접 합산 이진화를 이용한 동공 추출 방법.
The method of claim 2,
Wherein the step of correcting the glint comprises:
Wherein the determined gray level value of the adjacent pupil region is applied to the inside of the glint.
청구항 6에 있어서,
상기 보정 과정은,
보정 과정이 진행된 경로를 추적하여 잔여 글린트에 해당하는 픽셀을 추출하고, 이 잔여 글린트를 새로운 기준 픽셀로 설정한 후, 새로운 상기 기준 픽셀을 둘러싸는 주변 픽셀 중 상기 동공 영역의 그레이 레벨값 범위에 포함되는 주변 픽셀의 그레이 레벨값 평균값으로 새로운 상기 기준 픽셀의 그레이 레벨값을 보정하는 것을 특징으로 하는, 인접 합산 이진화를 이용한 동공 추출 방법.
The method of claim 6,
The calibration process may include:
The correction process is traced to extract a pixel corresponding to the remaining glint, the remaining glint is set as a new reference pixel, and a gray level value range of the pupil area of surrounding pixels surrounding the new reference pixel Wherein the gray level value of the new reference pixel is corrected to the gray level value of the neighboring pixels included in the neighboring sum binarization.
청구항 7에 있어서,
상기 보정 과정은,
보정 과정이 진행된 경로를 추적하여 상기 글린트 내부에 존재하는 모든 픽셀들이 그 주위를 둘러싸는 주변 픽셀의 그레이 레벨값이 상기 동공 영역의 그레이 레벨값 범위에 포함되는 경우 상기 보정 과정을 완료하는 것을 특징으로 하는, 인접 합산 이진화를 이용한 동공 추출 방법.
The method of claim 7,
The calibration process may include:
And the correction process is completed when the gray level value of the surrounding pixels surrounding all the pixels existing in the glint is included in the gray level value range of the pupil region by tracing the path where the correction process is performed The pupil extraction method using adjacent sum binarization.
청구항 6에 있어서,
상기 글린트를 보정하는 단계는,
상기 글린트가 상기 동공과 홍채의 경계에 존재하면,
상기 확인된 인접한 동공 영역의 그레이 레벨값을 상기 글린트 내부에 적용하기에 앞서,
상기 글린트의 무게중심을 지나는 복수 개의 직선을 가정하고, 복수 개의 직선 중 상기 동공 영역과 만나는 복수 개의 점들 중 제1포인트 및 제2포인트를 확정한 후, 상기 제1포인트 및 제2포인트를 연결하여 상기 동공 영역에 근접한 글린트 영역을 상기 동공 영역으로 보정하는 것을 특징으로 하는, 인접 합산 이진화를 이용한 동공 추출 방법.
The method of claim 6,
Wherein the step of correcting the glint comprises:
If the glint is present at the boundary between the pupil and the iris,
Before applying the gray level value of the identified neighboring pupil region to the inside of the glint,
A first point and a second point among a plurality of points meeting the pupil region among a plurality of straight lines are determined and then the first point and the second point are connected to each other And correcting the glint region close to the pupil region to the pupil region.
청구항 9에 있어서,
상기 제1포인트는, 상기 복수 개의 직선이 일방향으로 회전하되,
상기 동공 영역 내의 그레이 레벨값 범위에 포함되는 점들을 탐지하는 도중 2개의 지점이 감지된 후, 다시 1개의 지점으로 감지될 때의 동공 측에 위치한 픽셀인 것을 특징으로 하고,
상기 제2포인트는, 상기 복수 개의 직선이 타방향으로 회전하되,
상기 동공 영역 내의 그레이 레벨값 범위에 포함되는 1개의 지점이 연속적으로 감지되다 더 이상 감지되지 않는 시점에 동공 측에 위치한 픽셀인 것을 특징으로 하는, 인접 합산 이진화를 이용한 동공 추출 방법.
The method of claim 9,
Wherein the first point is a direction in which the plurality of straight lines are rotated in one direction,
And a pixel located on the pupil side when the two points are detected while one point is detected after detecting the points included in the gray level value range in the pupil region,
The second point is that the plurality of straight lines rotate in the other direction,
Wherein the pupil region is a pixel located at a pupil side at a time point when one point included in the gray level value range within the pupil region is continuously sensed and is no longer sensed.
청구항 2에 있어서,
상기 동공내에 존재하는 글린트를 제거하는 단계는,
상기 보정된 글린트를 상기 영상정보에 나타난 글린트에 머징하는 것을 특징으로 하는, 인접 합산 이진화를 이용한 동공 추출 방법.
The method of claim 2,
Wherein removing the glints present in the pores comprises:
And the corrected glint is merged into a glint appearing in the image information.
청구항 1에 있어서,
상기 인접 합산 이진화 단계는,
상기 영상정보를 복수 개의 픽셀로 분할하고, 이 분할된 각각의 픽셀을 메인픽셀로 설정하고, 상기 메인 픽셀과 이 메인 픽셀을 둘러싸는 주변 픽셀들의 그레이 레벨값 총합과 설정된 제1기준값을 비교하여 상기 메인 픽셀의 그레이 레벨값을 보정하여 상기 영상정보의 밝은 영역을 확장하는 제1차 이진화 단계와,
상기 제1차 이진화 단계에 의해 보정된 영상정보를 복수 개의 픽셀로 분할하고, 이 분할된 각각의 픽셀을 메인 픽셀로 설정하며, 상기 메인 픽셀과 이 메인 픽셀을 둘러싸는 주변 픽셀들의 그레이 레벨값 총합과 설정된 제2기준값을 비교하여 상기 메인 픽셀의 그레이 레벨값을 보정함으로써, 상기 영상 정보의 어두운 영역을 확장하는 제2차 이진화 단계로 구성된 것을 특징으로 하는, 인접 합산 이진화를 이용한 동공 추출 방법.
The method according to claim 1,
Wherein the neighboring summation binarization step comprises:
The method comprising the steps of: dividing the image information into a plurality of pixels, setting each of the divided pixels as a main pixel, comparing a sum of a gray level value of the main pixel and surrounding pixels surrounding the main pixel, A first binarization step of expanding a bright region of the image information by correcting a gray level value of a main pixel,
A first binarization step of dividing the image information corrected by the first binarization step into a plurality of pixels, setting each of the divided pixels as a main pixel, setting a sum of the gray level values of the main pixel and surrounding pixels surrounding the main pixel, And a second secondary binarization step of expanding a dark region of the image information by comparing a set second reference value and correcting a gray level value of the main pixel.
청구항 1에 있어서,
상기 동공 영역을 확정하는 단계는,
상기 인접 합산 이진화된 이미지의 행과 열의 프로파일 정보에서 행 및 열을 따라 설정된 기준에 따라 필터링된 이미지의 제N-1가상 무게중심을 산출하는 단계;
상기 인접 합산 이진화된 이미지를 리버싱하고, 이 리버싱된 이미지에서 상기 제N-1가상 무게중심을 원의 중심으로 하여 산정된 원 내부에 위치하는 픽셀들만 채택한 뒤, 이 채택된 이미지의 제N가상 무게중심을 산출하는 단계; 및
상기 제N가상 무게중심이 하기의 식을 만족할 때, 상기 동공 영역이 확정되는 것을 특징으로 하는, 인접 합산 이진화를 이용한 동공 추출 방법.
Figure pat00006

(Xn 과 Yn 은 제N가상 무게중심의 좌표, a와 b 는 상수)
The method according to claim 1,
Wherein determining the pupil region comprises:
Calculating an N-1 imaginary center of gravity of the filtered image according to criteria set along rows and columns in the profile information of the rows and columns of the adjacent summed binarized image;
Reversing the neighboring summation binarized image and adopting only the pixels located within the circle estimated with the N-1 imaginary center of gravity as the center of the circle in the reversed image, Calculating a virtual center of gravity; And
And wherein the pupil region is determined when the Nth imaginary center of gravity satisfies the following equation.
Figure pat00006

(X n And Y n The coordinates of the Nth virtual gravity center, and a and b are constants)
청구항 13에 있어서,
상기 제N-1가상 무게중심을 산출하는 단계는,
상기 인접합산 이미지를 상하로 리버싱하는 단계;
상기 리버싱된 이미지의 행을 따라 연속적으로 인접된 어두운 영역의 픽셀들로 구성된 수평이미지추출단계;
상기 리버싱된 이미지의 열을 따라 연속적으로 인접된 어두운 영역의 픽셀들로 구성된 수직이미지추출단계; 및
상기 수평이미지와 상기 수직이미지의 중첩된 이미지를 추출한 뒤, 이 중첩된 이미지를 구성하는 픽셀들의 좌표값을 이용하여 상기 제N-1가상 무게중심을 산출하는 것을 특징으로 하는, 인접 합산 이진화를 이용한 동공 추출 방법.
14. The method of claim 13,
The step of calculating the (N-1) imaginary center of gravity comprises:
Reversing the adjacent summed image up and down;
A horizontal image extracting step of consecutively contiguous dark area pixels along a row of the reversed image;
A vertical image extracting step of consecutively contiguous dark area pixels along the column of the reversed image; And
And the N-1 imaginary center of gravity is calculated using the coordinate values of the pixels constituting the superimposed image after extracting the superimposed image of the horizontal image and the vertical image, Pore extraction method.
청구항 13에 있어서,
상기 제N가상 무게중심을 산출하는 단계는,
상기 제N-1가상 무게중심을 따라 수직으로 연장시 최상단에서 만나는 픽셀군의 양 끝단에 위치한 제N-1좌측픽셀과 제N-1우측픽셀을 산정하는 단계;
상기 양 끝단에 해당하는 픽셀들의 X좌표 평균값과 상기 제N-1가상 무게중심의 Y좌표로 결정되는 제N-1가상원중심(Xn -1, Yn -1)을 산정하는 단계;
상기 제N-1가상원중심과 상기 제N-1좌측픽셀 또는 상기 제N-1우측픽셀간의 거리를 반지름 (rn -1)으로 하는 원을 산정하는 단계;
상기 원 내부에 위치하는 어두운 영역의 픽셀들만 채택한 뒤, 이 채택된 어두운 영역을 구성하는 픽셀들의 좌표를 이용하여 상기 제N가상 무게중심을 산출하는 것을 특징으로 하는, 인접 합산 이진화를 이용한 동공 추출 방법.
14. The method of claim 13,
The step of calculating the Nth imaginary center of gravity comprises:
Calculating an (N-1) th left pixel and an (N-1) th right pixel located at both ends of a group of pixels that meet at the top when extending vertically along the (N-1) imaginary center of gravity;
Calculating an N-1 virtual circle center (X n -1, Y n -1 ) determined by an X coordinate average value of the pixels corresponding to the both ends and a Y coordinate of the (N-1) imaginary center of gravity;
Calculating a circle having a radius (r n -1 ) between a distance between the (N-1) th imaginary circle center and the (N-1) th left pixel or the (N-1) th right pixel;
Wherein the Nth imaginary center of gravity is calculated using the coordinates of the pixels constituting the adopted dark region after adopting pixels in the dark region located in the circle and calculating the Nth imaginary center of gravity using the neighboring summation binarization .
청구항 13에 있어서,
상기 동공 영역이 확정되도록 만족하는 식은, 하기의 식을 만족하는 것을 특징으로 하는, 인접 합산 이진화를 이용한 동공 추출 방법.

(rn -1 - rn)/rn -1 ≤ 5/100
(rn 은 제N가상 무게중심이 원의 중심이고, 이 원의 반지름)
14. The method of claim 13,
Wherein the equation satisfying that the pupil region is determined satisfies the following equation.

(r n -1 - r n ) / r n -1 5/100
(r n The center of gravity of the Nth virtual gravity is the center of the circle, and the radius of this circle)
청구항 16에 있어서,
상기 rn 을 산출하는 단계는,
상기 제N가상 무게중심을 따라 수직으로 연장시 최상단에서 만나는 픽셀군의 양 끝단에 위치한 제N좌측픽셀과 제N우측픽셀을 산정하는 단계;
상기 양 끝단에 해당하는 픽셀들의 X좌표 평균값과 상기 제N가상 무게중심의 Y좌표로 결정되는 제N가상원중심(Xn, Yn)을 산정하는 단계;
상기 제N가상원중심과 상기 제N좌측픽셀 또는 상기 제N우측픽셀간의 거리를 반지름(rn)으로 산출하는 것을 특징으로 하는, 인접 합산 이진화를 이용한 동공 추출 방법.
18. The method of claim 16,
The r n Wherein:
Calculating an Nth left pixel and an Nth right pixel located at both ends of a group of pixels that meet at the top when extending vertically along the Nth imaginary center of gravity;
Calculating an X-coordinate average value of pixels corresponding to the both ends and an N- th virtual circle center (X n, Y n ) determined as a Y-coordinate of the Nth virtual gravity center;
Wherein the distance between the Nth imaginary circle center and the Nth left pixel or the Nth right pixel is calculated as a radius r n .
청구항 1에 있어서,
상기 동공과 홍채의 경계점들을 합산하는 단계는,
상기 확정된 동공 영역의 무게중심을 중심으로, 일방향으로 회전하면서 명암이 변동되는 지점들을 체크하고, 이 지점들을 이용 최소원형법을 통해 동공을 추출하는 것을 특징으로 하는, 인접 합산 이진화를 이용한 동공 추출 방법.
The method according to claim 1,
Wherein the step of summing the boundary points of the pupil and iris comprises:
Wherein pupil extraction is carried out by using a minimum circular method using points determined by checking the points where the light and shade are changed while rotating in one direction about the center of gravity of the determined pupil region, Way.
개인의 눈부분을 촬영한 영상정보에 있어서,
상기 촬영된 영상정보에 나타난 글린트에 인접한 동공 영역의 그레이 레벨값을 이용하여 상기 글린트를 제거하는 글린트 추출부;
상기 글린트가 제거된 복수 개의 픽셀로 구성된 영상정보를 설정된 기준값과 비교하여 상기 영상정보의 어두운 영역과 밝은 영역을 확장하는 인접합산이진화부;
상기 이진화된 영상정보의 무게중심을 이용하여 동공 영역을 확정하는 동공 처리부; 및
상기 확정된 동공 영역 내의 무게 중심을 이용하여 동공과 홍채의 경계점들을 합산하여 동공을 추출하는 동공검출부를 포함하는, 동공 추출 제어장치.
In image information obtained by photographing an eye part of an individual,
A glint extracting unit for removing the glint using a gray level value of a pupil area adjacent to the glint in the photographed image information;
An adjacent summation binarizer for comparing the image information composed of a plurality of pixels from which the glint is removed with a set reference value to expand a dark region and a bright region of the image information;
A pupil processor for determining a pupil region using the center of gravity of the binarized image information; And
And a pupil detection unit for extracting a pupil by summing the boundary points of the pupil and the iris using the center of gravity in the determined pupil region.
청구항 19에 있어서,
상기 글린트 추출부는,
상기 촬영된 영상정보를 저장하는 데이터 베이스부;
상기 촬영된 영상정보로부터 글린트를 추출하고, 상기 영상정보를 이진화하여 흑백으로 표현하되 상기 글린트가 그레이 레벨값으로 표현된 영상정보 영역 중 동공의 내부 영역에 해당하는지 여부를 판단하며, 상기 글린트가 상기 동공 내부 영역에 해당되면 상기 글린트를 상기 동공의 그레이 레벨값 범위로 보정하여 상기 동공 영역을 확정하고 이를 추출하여 홍채 영역을 확정하는 홍채 처리부; 및
상기 데이터 베이스부에 기 저장된 영상정보와 상기 글린트 처리부에서 확정된 홍채 영역과의 일치 여부를 판단하는 비교부를 더 포함하는 것을 특징으로 하는, 동공 추출 제어장치.
The method of claim 19,
Wherein the glint extracting unit comprises:
A data base for storing the photographed image information;
Extracting a glint from the photographed image information, binarizing the image information, and determining whether the glint corresponds to an inner region of a pupil of the image information region represented by a gray level value, An iris processing unit for correcting the glint to a gray level value range of the pupil to determine the pupil region and extracting the pupil region to determine an iris region if the lint is in the pupil region; And
Further comprising a comparison unit for determining whether or not the image information previously stored in the database unit matches the iris region determined by the glint processing unit.
청구항 20에 있어서,
상기 홍채 처리부는,
영상 정보를 복수 개의 픽셀로 분할하고, 상기 픽셀의 그레이 레벨값이 기준 그레이 레벨값 이상이면 상기 글린트로 판단하여 추출하는 글린트 추출모듈을 더 포함하는 것을 특징으로 하는, 동공 추출 제어장치.
The method of claim 20,
The iris processing unit
Further comprising a glint extraction module for dividing the image information into a plurality of pixels and judging the glint value if the gray level value of the pixel is equal to or greater than a reference gray level value.
청구항 20에 있어서,
상기 홍채 처리부는,
추출된 상기 글린트를 이진화되어 흑백으로 표현된 상기 영상정보에 마스킹(masking)하여 상기 글린트가 상기 영상정보 영역 중 상기 동공의 내부 영역에 해당하는지 여부를 판단하는 글린트 위치판단모듈을 더 포함하는 것을 특징으로 하는, 동공 추출 제어장치.
The method of claim 20,
The iris processing unit
And a glint position determination module for determining whether the glint corresponds to an inner region of the pupil of the image information region by masking the extracted glint into the image information expressed in binary form and expressed in black and white And the pupil extraction control device.
청구항 20에 있어서,
상기 홍채 처리부는,
상기 영상정보를 복수 개의 픽셀로 분할하고, 상기 글린트 내부에서 기준 픽셀을 설정하여 상기 기준 픽셀을 둘러싸는 주변 픽셀의 그레이 레벨값이 상기 동공 영역의 그레이 레벨값 범위에 포함되는지 여부를 판단한 후, 상기 동공 영역의 그레이 레벨값 범위에 포함되는 상기 주변 픽셀의 그레이 레벨값 평균값으로 상기 기준 픽셀의 그레이 레벨값으로 보정하는 글린트 보정모듈을 더 포함하는 것을 특징으로 하는, 동공 추출 제어장치.
The method of claim 20,
The iris processing unit
Dividing the image information into a plurality of pixels, setting a reference pixel within the glint to determine whether a gray level value of a surrounding pixel surrounding the reference pixel is included in a gray level value range of the pupil area, Further comprising a glint correction module for correcting the average value of the gray level value of the surrounding pixels included in the gray level value range of the pupil area to the gray level value of the reference pixel.
청구항 23에 있어서,
상기 글린트 보정모듈에서 상기 기준 픽셀은 상기 글린트의 무게중심인 것을 특징으로 하는, 동공 추출 제어장치.
24. The method of claim 23,
Wherein the reference pixel in the glint correction module is a center of gravity of the glint.
청구항 24에 있어서,
상기 주변 픽셀의 그레이 레벨값이 상기 동공 영역의 그레이 레벨값 범위를 벗어나면 상기 기준 픽셀의 좌측 인접 주변 픽셀을 새로운 기준 픽셀로 설정하고,
상기 좌측 인접 주변 픽셀의 그레이 레벨값이 상기 동공 영역의 그레이 레벨값 범위를 벗어나면 상측 인접 주변 픽셀을 새로운 기준 픽셀로 설정하며,
상기 상측 인접 주변 픽셀의 그레이 레벨값이 상기 동공 영역의 그레이 레벨값 범위를 벗어나면 우측 인접 주변 픽셀을 새로운 기준 픽셀로 설정하고,
상기 우측 인접 주변 픽셀의 그레이 레벨값이 상기 동공 영역의 그레이 레벨값 범위를 벗어나면 하측 인접 주변 픽셀을 새로운 기준 픽셀로 설정하는 것을 특징으로 하는, 동공 추출 제어장치.
27. The method of claim 24,
Setting a left neighboring neighboring pixel of the reference pixel as a new reference pixel if the gray level value of the neighboring pixel is out of a gray level value range of the pupil region,
And sets the upper neighboring neighboring pixel as a new reference pixel if the gray level value of the left neighboring neighboring pixel is out of the gray level value range of the pupil region,
Setting a right neighboring neighboring pixel as a new reference pixel when the gray level value of the upper neighboring neighboring pixel is out of the gray level value range of the pupil region,
And sets the lower adjacent pixel as a new reference pixel when the gray level value of the right neighboring peripheral pixel is out of the gray level value range of the pupil region.
청구항 25에 있어서,
상기 보정 과정은,
보정 과정이 진행된 경로를 추적하여 잔여 글린트에 해당하는 픽셀을 추출하고, 이 잔여 글리트를 새로운 기준 픽셀로 설정한 후, 새로운 상기 기준 픽셀을 둘러싸는 주변 픽셀 중 상기 동공 영역의 그레이 레벨값 범위에 포함되는 주변 픽셀의 그레이 레벨값 평균값으로 새로운 상기 기준 픽셀의 그레이 레벨값을 보정하는 것을 특징으로 하는, 동공 추출 제어장치.
26. The method of claim 25,
The calibration process may include:
A correction process is performed to track a path corresponding to the remaining glint, and the remaining glit is set as a new reference pixel, and then a gray level value range of the pupil area of surrounding pixels surrounding the new reference pixel And corrects the gray level value of the new reference pixel with the gray level value average value of the surrounding pixels included in the pupil extraction control signal.
청구항 26에 있어서,
상기 보정 과정은,
보정 과정이 진행된 경로를 추적하여 상기 글린트 내부에 존재하는 모든 픽셀들이 그 주위를 둘러싸는 주변 픽셀의 그레이 레벨값이 상기 동공 영역의 그레이 레벨값 범위에 포함되는 경우 상기 보정 과정을 완료하는 것을 특징으로 하는, 동공 추출 제어장치.
27. The method of claim 26,
The calibration process may include:
And the correction process is completed when the gray level value of the surrounding pixels surrounding all the pixels existing in the glint is included in the gray level value range of the pupil region by tracing the path where the correction process is performed The pupil extraction control device.
청구항 23에 있어서,
상기 글린트가 상기 동공과 홍채의 경계에 존재하면,
상기 글린트의 무게중심을 지나는 복수 개의 직선을 가정하고, 복수 개의 직선 중 상기 동공 영역과 만나는 복수 개의 점들 중 제1포인트 및 제2포인트를 확정한 후, 상기 제1포인트 및 제2포인트를 연결하여 상기 동공 영역에 근접한 글린트 영역을 상기 동공 영역으로 보정하는 것을 특징으로 하는, 동공 추출 제어장치.
24. The method of claim 23,
If the glint is present at the boundary between the pupil and the iris,
A first point and a second point among a plurality of points meeting the pupil region among a plurality of straight lines are determined and then the first point and the second point are connected to each other And corrects the glint region close to the pupil region to the pupil region.
청구항 28에 있어서,
상기 제1포인트는, 상기 복수 개의 직선이 일방향으로 회전하되,
상기 동공 영역 내의 그레이 레벨값 범위에 포함되는 점들을 탐지하는 도중 2개의 지점이 감지된 후, 다시 1개의 지점으로 감지될 때의 동공 측에 위치한 픽셀인 것을 특징으로 하고,
상기 제2포인트는, 상기 복수 개의 직선이 타방향으로 회전하되,
상기 동공 영역 내의 그레이 레벨값 범위에 포함되는 1개의 지점이 연속적으로 감지되다 더 이상 감지되지 않는 시점에 동공 측에 위치한 픽셀인 것을 특징으로 하는, 동공 추출 제어장치.
29. The method of claim 28,
Wherein the first point is a direction in which the plurality of straight lines are rotated in one direction,
And a pixel located on the pupil side when the two points are detected while one point is detected after detecting the points included in the gray level value range in the pupil region,
The second point is that the plurality of straight lines rotate in the other direction,
Wherein the pupil extraction control device is a pixel located at a pupil side at a time point when one point included in the gray level value range within the pupil region is continuously sensed and is no longer sensed.
청구항 19에 있어서,
상기 인접합산이진화부는,
상기 영상정보를 복수 개의 픽셀로 분할하고, 이 분할된 각각의 픽셀을 메인픽셀로 설정하고, 상기 메인 픽셀과 이 메인 픽셀을 둘러싸는 주변 픽셀들의 그레이 레벨값 총합과 설정된 제1기준값을 비교하여 상기 메인 픽셀의 그레이 레벨값을 보정하여 상기 영상정보의 밝은 영역을 확장하는 제1차 이진화 모듈과,
상기 제1차 이진화 단계에 의해 보정된 영상정보를 복수 개의 픽셀로 분할하고, 이 분할된 각각의 픽셀을 메인 픽셀로 설정하며, 상기 메인 픽셀과 이 메인 픽셀을 둘러싸는 주변 픽셀들의 그레이 레벨값 총합과 설정된 제2기준값을 비교하여 상기 메인 픽셀의 그레이 레벨값을 보정함으로써, 상기 영상 정보의 어두운 영역을 확장하는 제2차 이진화 모듈로 구성된 것을 특징으로 하는, 동공 추출 제어장치.
The method of claim 19,
Wherein the adjacent summation binarization unit comprises:
The method comprising the steps of: dividing the image information into a plurality of pixels, setting each of the divided pixels as a main pixel, comparing a sum of a gray level value of the main pixel and surrounding pixels surrounding the main pixel, A first binarization module for expanding the bright region of the image information by correcting the gray level value of the main pixel,
A first binarization step of dividing the image information corrected by the first binarization step into a plurality of pixels, setting each of the divided pixels as a main pixel, setting a sum of the gray level values of the main pixel and surrounding pixels surrounding the main pixel, And a second binarization module which compares the second reference value with the set second reference value and corrects the gray level value of the main pixel to expand the dark region of the image information.
청구항 19에 있어서,
상기 동공 처리부는,
상기 인접 합산 이진화된 이미지의 행과 열의 프로파일 정보에서 행 및 열을 따라 설정된 기준에 따라 필터링된 이미지의 제N-1가상 무게중심을 산출하는 제N-1산출모듈과,
상기 인접 합산 이진화된 이미지를 리버싱하고, 이 리버싱된 이미지에서 상기 제N-1가상 무게중심을 원의 중심으로 하여 산정된 원 내부에 위치하는 픽셀들만 채택한 뒤, 이 채택된 이미지의 제N가상 무게중심을 산출하는 제N산출모듈과,
상기 제N가상 무게중심이 하기의 식을 만족하는지 여부를 판단하여 상기 동공 영역을 확정하는 제1차판단모듈을 더 포함하는 것을 특징으로 하는, 동공 추출 제어장치.
Figure pat00007

(Xn 과 Yn 은 제N가상 무게중심의 좌표, a와 b 는 상수)
The method of claim 19,
Wherein the pupil-
An N-1 calculation module for calculating an N-1 imaginary center of gravity of an image filtered according to a reference set along a row and a column in profile information of the row and column of the adjacent summed binarized image;
Reversing the neighboring summation binarized image and adopting only the pixels located within the circle estimated with the N-1 imaginary center of gravity as the center of the circle in the reversed image, A nth calculation module for calculating a virtual center of gravity,
Further comprising a first difference determining module for determining whether the Nth imaginary center of gravity satisfies the following equation to determine the pupil area.
Figure pat00007

(X n And Y n The coordinates of the Nth virtual gravity center, and a and b are constants)
청구항 31에 있어서,
상기 제N-1산출모듈은,
상기 인접합산 이미지를 상하로 리버싱하고, 상기 리버싱된 이미지의 행을 따라 연속적으로 인접된 어두운 영역의 픽셀들로 구성된 수평이미지와 열을 따라 연속적으로 인접된 어두운 영역의 픽셀들로 구성된 수직이미지를 추출한 뒤, 상기 수평이미지와 상기 수직이미지의 중첩된 이미지를 추출하여 이 중첩된 이미지를 구성하는 픽셀들의 좌표값을 이용 상기 제N-1가상 무게중심을 산출하는 것을 특징으로 하는, 동공 추출 제어장치.
32. The method of claim 31,
Wherein the (N-1)
A vertical image comprising vertically adjacent pixels along a row of the reversed image and a horizontal image consisting of pixels of successively adjacent dark regions along the column; Extracts the superimposed image of the horizontal image and the vertical image, and calculates the N-1 imaginary center of gravity using the coordinate values of the pixels constituting the superimposed image, Device.
청구항 19에 있어서,
상기 제N산출모듈은,
상기 제N-1가상 무게중심을 따라 수직으로 연장시 최상단에서 만나는 픽셀군의 양 끝단에 위치한 제N-1좌측픽셀과 제N-1우측픽셀을 산정하고, 상기 양 끝단에 해당하는 픽셀들의 X좌표 평균값과 상기 제N-1가상 무게중심의 Y좌표로 결정되는 제N-1가상원중심(Xn -1, Yn -1)을 산정하며, 상기 제N-1가상원중심과 상기 제N-1좌측픽셀 또는 상기 제N-1우측픽셀간의 거리를 반지름 (rn -1)으로 하는 원을 산정한 뒤, 상기 원 내부에 위치하는 어두운 영역의 픽셀들만 채택하여 이 채택된 어두운 영역을 구성하는 픽셀들의 좌표를 이용 상기 제N가상 무게중심을 산출하는 것을 특징으로 하는, 동공 추출 제어장치.
The method of claim 19,
Wherein the Nth calculation module comprises:
1) -th left pixel and an (N-1) -th right pixel positioned at both ends of a group of pixels that meet at the uppermost end when vertically extending along the (N-1) imaginary center of gravity, 1 imaginary circle center (X n -1, Y n -1 ) determined by a coordinate average value and a Y coordinate of the (N-1) imaginary center of gravity, (R n -1 ) between the (N-1) th left pixel and the (N-1) th right pixel, and then adopts only the pixels in the dark region located inside the circle, And calculates the Nth imaginary center of gravity using the coordinates of the constituent pixels.
청구항 31에 있어서,
상기 동공 영역이 확정되도록 만족하는 식은, 하기의 식을 만족하는지 여부를 판단하는 제2차판단모듈을 더 포함하는 것을 특징으로 하는, 동공 추출 제어장치.

(rn -1 - rn)/rn -1 ≤ 5/100
(rn 은 제N가상 무게중심이 원의 중심이고, 이 원의 반지름)
32. The method of claim 31,
Wherein the equation satisfying that the pupil area is determined further includes a second determination module that determines whether or not the following expression is satisfied.

(r n -1 - r n ) / r n -1 5/100
(r n The center of gravity of the Nth virtual gravity is the center of the circle, and the radius of this circle)
청구항 34에 있어서,
상기 제2차판단모듈은,
상기 rn 을 산출하기 위해, 상기 제N가상 무게중심을 따라 수직으로 연장시 최상단에서 만나는 픽셀군의 양 끝단에 위치한 제N좌측픽셀과 제N우측픽셀을 산정하고, 상기 양 끝단에 해당하는 픽셀들의 X좌표 평균값과 상기 제N가상 무게중심의 Y좌표로 결정되는 제N가상원중심(Xn, Yn)을 산정한 뒤, 상기 제N가상원중심과 상기 제N좌측픽셀 또는 상기 제N우측픽셀간의 거리를 반지름(rn)으로 산출하는 것을 특징으로 하는, 동공 추출 제어장치.
35. The method of claim 34,
The second-order judging module comprises:
The r n An Nth left pixel and an Nth right pixel located at both ends of a group of pixels that meet at the uppermost end when vertically extending along the Nth imaginary center of gravity are calculated, (X n, Y n ) determined based on the average value and the Y coordinate of the center of the N th gravity , and then calculates the center of the N virtual circle center (X n, Y n ) between the Nth virtual circle center and the Nth left pixel or the Nth right center pixel And the distance is calculated as a radius (r n ).
청구항 19에 있어서,
상기 동공 검출부는,
상기 동공과 홍채의 경계점들을 합산하고, 상기 확정된 동공 영역의 무게 중심을 중심으로 일방향으로 회전하면서 명암이 변동되는 지점들을 체크하고, 이 지점들을 이용 최소원형법을 통해 동공을 추출하는 것을 특징으로 하는, 동공 추출 제어장치.
The method of claim 19,
Wherein the pupil detection unit comprises:
The pupil is summed by summing the boundary points of the pupil and the iris, and the points where the light and shade are changed while rotating in one direction about the center of gravity of the determined pupil region are checked, and pupils are extracted through the minimum circular method using these points The pupil extraction control device.
KR1020140077309A 2014-06-24 2014-06-24 Pupil acquisition method using binary of adjacent sum and control device for extracting pupil using the same KR101582467B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140077309A KR101582467B1 (en) 2014-06-24 2014-06-24 Pupil acquisition method using binary of adjacent sum and control device for extracting pupil using the same
PCT/KR2015/005723 WO2015199354A1 (en) 2014-06-24 2015-06-08 Pupil extraction method using neighbor aggregation binarization and pupil extraction control apparatus using same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140077309A KR101582467B1 (en) 2014-06-24 2014-06-24 Pupil acquisition method using binary of adjacent sum and control device for extracting pupil using the same

Publications (2)

Publication Number Publication Date
KR20160000531A true KR20160000531A (en) 2016-01-05
KR101582467B1 KR101582467B1 (en) 2016-01-06

Family

ID=54938390

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140077309A KR101582467B1 (en) 2014-06-24 2014-06-24 Pupil acquisition method using binary of adjacent sum and control device for extracting pupil using the same

Country Status (2)

Country Link
KR (1) KR101582467B1 (en)
WO (1) WO2015199354A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018088649A1 (en) * 2016-11-11 2018-05-17 주식회사 쓰리이 Glint detection method

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110008812B (en) * 2019-01-22 2021-03-16 西安网算数据科技有限公司 Website login system based on iris recognition
CN112634345B (en) * 2020-12-18 2023-03-31 福州华虹智能科技股份有限公司 Method for extracting mine wall image based on image characteristic information of least square method
CN113129305B (en) * 2021-05-18 2023-06-16 浙江大华技术股份有限公司 Method and device for determining state of silk spindle, storage medium and electronic device
CN115281603B (en) * 2022-10-08 2023-08-04 北京大学第三医院(北京大学第三临床医学院) Intelligent verification method for visual dysfunction of glaucoma in different periods

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100373850B1 (en) 2000-10-07 2003-02-26 주식회사 큐리텍 Identification system and method using iris, and media that can record computer program sources thereof
KR100376415B1 (en) 2000-11-27 2003-03-19 주식회사 알파엔지니어링 Pupil acquisition method using eye image
KR20050025927A (en) * 2003-09-08 2005-03-14 유웅덕 The pupil detection method and shape descriptor extraction method for a iris recognition, iris feature extraction apparatus and method, and iris recognition system and method using its
KR20050065195A (en) * 2003-12-24 2005-06-29 한국전자통신연구원 Method and apparatus for extracting iris image using of extended template matching
KR100826876B1 (en) 2006-09-18 2008-05-06 한국전자통신연구원 Iris recognition method and apparatus for thereof
KR20110078468A (en) * 2009-12-31 2011-07-07 서강대학교산학협력단 A system and method for identifying the iris of persons in unrestricted condition
KR101178855B1 (en) 2010-05-03 2012-09-03 남궁종 Method and apparatus for iris recognition and wireless communications devic security system using it

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100373850B1 (en) 2000-10-07 2003-02-26 주식회사 큐리텍 Identification system and method using iris, and media that can record computer program sources thereof
KR100376415B1 (en) 2000-11-27 2003-03-19 주식회사 알파엔지니어링 Pupil acquisition method using eye image
KR20050025927A (en) * 2003-09-08 2005-03-14 유웅덕 The pupil detection method and shape descriptor extraction method for a iris recognition, iris feature extraction apparatus and method, and iris recognition system and method using its
KR20050065195A (en) * 2003-12-24 2005-06-29 한국전자통신연구원 Method and apparatus for extracting iris image using of extended template matching
KR100826876B1 (en) 2006-09-18 2008-05-06 한국전자통신연구원 Iris recognition method and apparatus for thereof
KR20110078468A (en) * 2009-12-31 2011-07-07 서강대학교산학협력단 A system and method for identifying the iris of persons in unrestricted condition
KR101178855B1 (en) 2010-05-03 2012-09-03 남궁종 Method and apparatus for iris recognition and wireless communications devic security system using it

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018088649A1 (en) * 2016-11-11 2018-05-17 주식회사 쓰리이 Glint detection method
US10354164B2 (en) 2016-11-11 2019-07-16 3E Co., Ltd. Method for detecting glint

Also Published As

Publication number Publication date
WO2015199354A1 (en) 2015-12-30
KR101582467B1 (en) 2016-01-06

Similar Documents

Publication Publication Date Title
CN110852160B (en) Image-based biometric identification system and computer-implemented method
CN109816644B (en) Bearing defect automatic detection system based on multi-angle light source image
JP5107045B2 (en) Method for identifying a pixel representing an iris in an image acquired for the eye
KR101343901B1 (en) Approaches and apparatus for eye detection in a digital image
KR100826876B1 (en) Iris recognition method and apparatus for thereof
Khan et al. Automatic localization of pupil using eccentricity and iris using gradient based method
KR101582467B1 (en) Pupil acquisition method using binary of adjacent sum and control device for extracting pupil using the same
Ibrahim et al. Iris localization using local histogram and other image statistics
KR101761586B1 (en) Method for detecting borderline between iris and sclera
Abate et al. BIRD: Watershed based iris detection for mobile devices
CN106133752A (en) Eye gaze is followed the tracks of
WO2016010720A1 (en) Multispectral eye analysis for identity authentication
JP2009523265A (en) Method for extracting iris features in an image
JP2007188504A (en) Method for filtering pixel intensity in image
US10521659B2 (en) Image processing device, image processing method, and image processing program
Chen et al. A robust segmentation approach to iris recognition based on video
JP7044504B2 (en) Image processing device, image processing method and image processing program
Parikh et al. Effective approach for iris localization in nonideal imaging conditions
KR20070088982A (en) Deformation-resilient iris recognition methods
KR101548625B1 (en) Method for removing glint and control device for recognizing iris using the same
KR20180072517A (en) Method for detecting borderline between iris and sclera
Frucci et al. Idem: Iris detection on mobile devices
KR100590572B1 (en) Method and apparatus for detecting a position of eye
JP7078386B2 (en) Image processing equipment
Spasova et al. An Algorithm for Detecting the Location and Parameters of the Iris in the Human Eye

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191226

Year of fee payment: 5