KR20040078198A - Method for pupil area presumption of iris recognition - Google Patents

Method for pupil area presumption of iris recognition Download PDF

Info

Publication number
KR20040078198A
KR20040078198A KR1020030012988A KR20030012988A KR20040078198A KR 20040078198 A KR20040078198 A KR 20040078198A KR 1020030012988 A KR1020030012988 A KR 1020030012988A KR 20030012988 A KR20030012988 A KR 20030012988A KR 20040078198 A KR20040078198 A KR 20040078198A
Authority
KR
South Korea
Prior art keywords
pupil
iris
images
applying
different brightness
Prior art date
Application number
KR1020030012988A
Other languages
Korean (ko)
Other versions
KR100572410B1 (en
Inventor
김태현
민승기
채장진
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020030012988A priority Critical patent/KR100572410B1/en
Publication of KR20040078198A publication Critical patent/KR20040078198A/en
Application granted granted Critical
Publication of KR100572410B1 publication Critical patent/KR100572410B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing

Abstract

PURPOSE: A pupil area presuming method for recognizing an iris is provided to perform iris recognition fast by finding out a difference image from two images applying a different brightness parameter and presuming a position of the pupil. CONSTITUTION: After one light is selected/turned on, a focus is adjusted(S201). After the adjustment of the focus, two continued images are obtained by applying two different brightness parameters(S202). The difference image for the obtained two images is found out(S203). The position of the pupil is presumed from the difference image(S204). If the position of the pupil is presumed, an examination range of an iris area is defined(S206). The iris recognition is tried by coding the defined iris area(S207).

Description

홍채 인식을 위한 동공 영역 추정방법{METHOD FOR PUPIL AREA PRESUMPTION OF IRIS RECOGNITION}A pupil area estimation method for iris recognition {METHOD FOR PUPIL AREA PRESUMPTION OF IRIS RECOGNITION}

본 발명은 홍채 인식을 위한 동공 영역 추정 방법에 관한 것으로서, 특히 서로 다른 두개의 밝기 파라메터를 적용하여 취득한 두장의 이미지에서로부터 차영상을 구하고 동공의 위치를 추정하여 보다 빠르게 홍채 인식을 수행할 수 있는 홍채인식을 위한 동공 영역 추정 방법에 관한 것이다.The present invention relates to a pupil area estimation method for iris recognition, and in particular, obtains a difference image from two images acquired by applying two different brightness parameters and estimates the pupil position to perform iris recognition faster. A pupil area estimation method for iris recognition.

알려진 바와 같이 보안이나 방범, 신분 인증을 위한 시스템으로 기존의 접촉식 혹은 비접촉식 카드 시스템에서 더 나아가 사람의 지문을 인식하거나, 또는 홍채인식을 통해서 신분을 인증하고 특정 장소의 출입이나 특정 정보에의 접근 등을 허용하거나 거부하는 시스템이 보급되어 왔다.As is known, it is a system for security, crime prevention, and identity authentication. It goes beyond the existing contact or contactless card system to recognize human fingerprints, or to authenticate identity through iris recognition and access to specific places or access to specific information. Systems to allow or deny such have been prevalent.

이 중에서 홍채인식 시스템은 지문인식에 비해서 인식률이 높고, 보다 정확한 인식이 가능하다는 장점이 있다. 홍채 인식 시스템은 비디오 카메라로 촬영한 홍채 영상에서 홍채의 특징적인 패턴을 이미지 처리 기술을 이용해서 데이터화한 후, 사전에 등록되어 있는 홍채 데이터와 대조하여 개인을 인증하는 시스템이다.Among them, the iris recognition system has a high recognition rate and more accurate recognition than the fingerprint recognition. The iris recognition system is a system that authenticates an individual by comparing a characteristic pattern of an iris with an image processing technology in an iris image captured by a video camera and comparing it with previously registered iris data.

도 1은 일반적인 홍채 인식 시스템의 구성을 개략적으로 나타낸 도면으로서, 도 1에 도시된 바를 참조하여 홍채인식 시스템의 동작을 살펴보면 다음과 같다.FIG. 1 is a diagram schematically illustrating a configuration of a general iris recognition system. Referring to FIG. 1, an operation of an iris recognition system is as follows.

사용자가 홍채 인식 시스템에 접근하면, 거리 측정 센서(109)가 사용자와의 거리를 측정하고, 이렇게 구한 거리 측정값을 드라이버(107)를 통해 제어장치(105)가 받아들여서 상기 거리 측정값이 동작 범위 안에 있는가를 판단한다.When the user approaches the iris recognition system, the distance measuring sensor 109 measures the distance to the user, and the controller 105 receives the distance measurement value obtained through the driver 107 to operate the distance measurement value. Determine if you are in range.

사용자가 동작 범위 안에 있는 경우에 드라이버(107)로 제어 신호를 보내서 홍채 이미지를 추출할 준비를 하도록 한다. 드라이버(107)는 외부 지시기(108)에 액티브 신호를 보내서 사용자에게 시스템이 동작함을 알리고, 이에 따라 사용자가 광학 윈도우(101)를 통하여 카메라(103)의 광축에 눈을 위치시키면, 콜드미러(102)가 가시광선은 차단하고 적외선을 통과시킨다. 그리고 홍채가 위치해야할 부분을 표시해 중 사용자가 카메라(103)의 광축에 눈이 위치하는지의 여부를 확인할 수 있도록 해준다.If the user is within the operating range, a control signal is sent to the driver 107 to prepare to extract the iris image. The driver 107 sends an active signal to the external indicator 108 to inform the user that the system is operating. Accordingly, when the user places the eye on the optical axis of the camera 103 through the optical window 101, the cold mirror ( 102 blocks visible light and passes infrared light. In addition, the part where the iris should be positioned is displayed so that the user can check whether the eye is located on the optical axis of the camera 103.

그리고, 제어장치(105)가 거리 측정 센서(109)로부터 사용자까지의 거리 측정값을 받아들이고, 이 거리 측정값을 이용해서 카메라(103)의 줌 및 포커스 값을 산출하여 줌인/줌아웃 및 포커싱 제어를 수행한다. 이후에 제어장치(105)는 거리 측정값에 따라 드라이버(107)를 통해 홍채 이미지를 촬영하도록 하며, 촬영된 홍채 이미지는 프레임 그레버(104)에서 홍채 이미지 분석에 맞게 신호 처리되고, 처리된 홍채 이미지 정보를 DB(110)(데이터 베이스)에 저장하며, 그 저장된 정보를 가지고 제어장치(105)에서 홍채 인식을 수행하여 사용자의 인증 여부를 결정하게 되는 것이다.The controller 105 receives the distance measurement value from the distance measurement sensor 109 to the user, and calculates the zoom and focus values of the camera 103 using the distance measurement value to perform zoom in / zoom out and focusing control. Perform. Thereafter, the controller 105 allows the driver 107 to capture the iris image according to the distance measurement value, and the photographed iris image is signal-processed in the frame grabber 104 for iris image analysis, and the processed iris is processed. The image information is stored in the DB 110 (database), and with the stored information, the control device 105 performs iris recognition to determine whether the user is authenticated.

한편, 이와 같은 홍채 인식 시스템에서는 얼마나 빠른 시간 안에, 얼마나 정확하게 홍채 인식을 해내는가의 여부가 그 성능을 좌우하게 된다. 더구나, 이 기술분야의 일반적인 홍채 인식 시스템에서는 단일 광원을 사용하는 경우 안경에 의한 반사 문제가 발생할 수 있기 때문에 이 문제를 해소하기 위해서 다수개의 조명을 이용해서 안경에 의한 2차 반사를 회피할 수 있도록 조명의 위치를 바꾸어 가면서 영상을 취득하기도 한다.On the other hand, in such an iris recognition system, the performance depends on how fast and how accurately the iris recognition is performed. In addition, in the general iris recognition system of the art, the reflection problem caused by glasses may occur when using a single light source so that the secondary reflection caused by the glasses can be avoided by using a plurality of lights to solve this problem. The image may be acquired by changing the position of the light.

그러나, 상기와 같은 방식은 홍채 인식여부를 처리하는데 있어 인식이 거부되면 다시 홍채의 이미지를 추출하고 동공의 위치를 찾은 다음, 홍채 영역을 코드화하여 시도하기 때문에 시간이 오래 걸리며, 정확도 역시 떨어지는 문제점이 발생된다.However, in the above method, if recognition is denied in processing iris recognition, it takes a long time because it extracts the image of the iris, finds the position of the pupil, and then codes the iris area, and the accuracy is also low. Is generated.

본 발명은, 홍채 인식을 위한 동공 영역 추정 방법에 관한 것으로서, 특히 서로 다른 두개의 밝기 파라메터를 적용하여 취득한 두장의 이미지에서로부터 차영상을 구하고 동공의 위치를 추정하여 보다 빠르게 홍채 인식을 수행할 수 있는 홍채 인식을 위한 동공 영역 추정 방법을 제공함에 그 목적이 있다.The present invention relates to a pupil area estimation method for iris recognition, and in particular, obtains a difference image from two images obtained by applying two different brightness parameters, and estimates the pupil position to perform iris recognition more quickly. The purpose is to provide a pupil area estimation method for iris recognition.

도 1은 일반적인 홍채 인식 시스템의 구성을 개략적으로 나타낸 도면.1 is a view schematically showing the configuration of a general iris recognition system.

도 2는 본 발명에 따른 홍채 인식을 위한 동공 영역 추정방법을 나타낸 수순도.2 is a flowchart illustrating a pupil region estimation method for iris recognition according to the present invention.

도 3은 본 발명에 따른 노멀 모드의 밝기 파라메터를 적용한 이미지의 신호 처리된 구간을 나타낸 도면.3 is a diagram illustrating a signal-processed section of an image to which the brightness parameter of the normal mode according to the present invention is applied.

도 4는 본 발명에 따른 하이 모드의 밝기 파라메터를 적용한 이미지의 신호 처리된 구간을 나타낸 도면.4 is a diagram illustrating a signal-processed section of an image to which the brightness parameter of the high mode according to the present invention is applied.

도 5는 상기 도 4와 상기 도 3의 차영상을 나타낸 도면.5 is a view showing a difference image of FIG. 4 and FIG.

도 6은 본 발명에 따른 차영상 히스토그램을 나타낸 도면.6 is a view showing a difference image histogram according to the present invention.

상기의 목적을 달성하기 위하여 본 발명에 따른 홍채 인식을 위한 동공 영역추정방법은,In order to achieve the above object, the pupil area estimation method for iris recognition according to the present invention,

소정수의 조명중 하나를 선택하여 점등한 후, 초점을 조절하는 단계와;Selecting and lighting one of a predetermined number of lights, and adjusting focus;

상기 초점이 조절된 후, 서로 다른 두개의 밝기 파라메터를 적용하여 연속된 두장의 홍채 이미지를 취득하는 단계와;After the focus is adjusted, acquiring two consecutive iris images by applying two different brightness parameters;

상기 취득한 서로 다른 두개의 밝기 파라메터를 적용한 두장의 이미지에 대해 차영상을 구하는 단계와;Obtaining a difference image of two images obtained by applying the two different brightness parameters;

상기 구해진 차영상에서 동공의 위치를 추정하는 단계와;Estimating the position of the pupil in the obtained difference image;

상기 동공의 위치가 추정되면, 홍채 영역의 검사범위를 정의하는 단계와;If the position of the pupil is estimated, defining an inspection range of the iris region;

상기 정의된 홍채 영역을 코드화하여 홍채 인식을 시도하는 단계를 포함하는 점에 그 특징이 있다.It is characterized in that it comprises the step of attempting the iris recognition by encoding the defined iris region.

여기서, 특히 상기 서로 다른 두개의 밝기 파라메터를 적용하여 연속된 두장의 홍채 이미지를 취득하는 단계에서 상기 두개의 밝기 파라메터는 소정 값만큼 차이를 두는 점에 그 특징이 있다.In particular, the two brightness parameters are distinguished by a predetermined value in the step of acquiring two consecutive iris images by applying the two different brightness parameters.

여기서, 특히 상기 서로 다른 두개의 밝기 파라메터를 적용하여 연속된 두장의 홍채 이미지를 취득하는 단계에서 상기 두개의 밝기 파라메터는 80 만큼 차이나는 점에 그 특징이 있다.Here, in particular, in the step of acquiring two consecutive iris images by applying the two different brightness parameters, the two brightness parameters differ by 80.

여기서, 특히 상기 취득한 서로 다른 두개의 밝기 파라메터를 적용한 두장의 이미지에 대해 차영상을 구하는 단계는,Here, in particular, the step of obtaining the difference image for the two images to which the obtained two different brightness parameters are applied,

상기 두장의 이미지 차이에 대해 각각 프레임 그래버의 서로 다른 밝기 파라메터 척도를 정의하는 단계와;Defining different brightness parameter measures of a frame grabber for each of the two image differences;

상기 서로 다른 밝기 파라메터 척도로 정의된 두장의 이미지 차이에 대해 분산을 구한 후, 분산이 최소가 되는 지점을 구하는 단계와;Obtaining a variance of two image differences defined by the different brightness parameter scales, and then finding a point where the variance becomes minimum;

상기 구해진 분산이 최소가 되는 지점을 기준으로 차영상을 구하는 단계를 포함하는 점에 그 특징이 있다.It is characterized in that it comprises the step of obtaining a difference image on the basis of the point where the obtained dispersion is the minimum.

여기서, 특히 상기 동공의 위치를 추정하는 단계에서 상기 구해진 차영상에 동공의 분포가 존재하는지 여부를 검사하여 스펙큘러 또는 모조눈을 판별하는 단계가 더 구비되는 점에 그 특징이 있다.Here, in particular, in the step of estimating the position of the pupil, it is characterized in that it further comprises a step of determining whether the distribution of the pupil exists in the obtained difference image to determine the specular or pseudo eye.

여기서, 특히 상기 스펙큘러 또는 모조눈을 판별하는 단계에서 스펙큘러나 모조눈으로 판단되면, 상기 소정수의 조명중 선택되지 않았던 다른 조명을 선택하여 점등한 후, 초점을 조절하는 단계를 수행하는 점에 그 특징이 있다.In particular, when it is determined that the specular or the dummy eye is determined in the step of determining the specular or the dummy eye, the step of adjusting the focus after selecting and lighting other lights that are not selected among the predetermined number of lights is performed. It has its features.

여기서, 특히 상기 동공의 위치가 추정되면, 홍채 영역의 검사범위를 정의하는 단계는,Here, in particular, if the position of the pupil is estimated, defining the inspection range of the iris region,

동공의 분포 대역을 이진화하여 레이블링을 수행하는 단계와;Binarizing the distribution band of the pupil to perform labeling;

상기 레이블링이 수행된 후, 소정의 기하학적 방법을 이용하여 동공 부위를추출하는 단계와;After the labeling is performed, extracting a pupil area using a predetermined geometric method;

상기 추출된 동공 부위를 중심으로 원영상에 서클 엣지 오퍼레이터를 적용하여 정확한 동공 위치를 추출하는 단계를 포함하는 점에 그 특징이 있다.The method includes extracting an accurate pupil position by applying a circle edge operator to the original image based on the extracted pupil region.

여기서, 특히 상기 소정의 기하학적 방법을 이용하여 동공 부위를 추출하는 단계에서의 기학학적인 방법으로는 크기 또는 이심율을 이용하는 점에 그 특징이 있다.Here, in particular, in the method of extracting the pupil area by using the predetermined geometric method, it is characterized in that it uses size or eccentricity.

이와 같은 본 발명에 의하면, 서로 다른 두개의 밝기 파라메터를 적용하여 취득한 두장의 이미지에서로부터 차영상을 구하여 동공의 위치를 추정하여 보다 빠르게 홍채 인식을 수행할 수 있다.According to the present invention, iris recognition can be performed more quickly by estimating the position of a pupil by obtaining a difference image from two images acquired by applying two different brightness parameters.

이하 첨부된 도면을 참조하면서 본 발명의 실시 예를 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

상기 도 1을 참조로 하여 본 발명에 따른 홍채 인식을 위한 동공 영역 추정방법에 대해 설명하기로 한다.A pupil area estimation method for iris recognition according to the present invention will be described with reference to FIG. 1.

도 2는 본 발명에 따른 홍채 인식을 위한 동공 영역 추정방법을 나타낸 수순도이다. 이에 도시된 바와 같이, 먼저 소정수의 조명중 하나를 선택하여 점등한 후, 초점을 조절하는 단계가 수행된다(S201).2 is a flowchart illustrating a pupil area estimation method for iris recognition according to the present invention. As shown in FIG. 1, first, one of a predetermined number of lights is selected and turned on, and then a focus is adjusted (S201).

먼저, 사용자가 홍채 인식 시스템에 홍채 인식을 위하여 광학 윈도우(101)를 통하여 카메라(103)의 광축에 눈을 위치시키면, 각기 위치가 다른 두 개의 조명을 가진 조명장치중 하나의 조명을 켜서 사용자의 홍채를 비춘다.First, when the user places an eye on the optical axis of the camera 103 through the optical window 101 for iris recognition in the iris recognition system, the user turns on the lighting of one of the two lighting devices having different positions. Light the iris

그리고, 상기 하나의 조명이 점등되면, 거리 측정 센서(109)에 의해 카메라(103)와 사용자 사이의 거리를 측정하여 연속적인 거리 정보를 출력하고, 사용자의 동작 특성을 파악한 후, 초점을 조절하게 된다.When one of the lights is turned on, the distance sensor 109 measures the distance between the camera 103 and the user, outputs continuous distance information, grasps the user's operating characteristics, and then adjusts the focus. do.

이어서, 상기 초점이 조절된 후, 서로 다른 두개의 밝기 파라메터를 적용하여 연속된 두장의 홍채 이미지를 취득하는 단계가 수행된다(S202).Subsequently, after the focus is adjusted, a step of acquiring two consecutive iris images by applying two different brightness parameters is performed (S202).

여기서, 상기 프레임 그레버(104)에서 촬영된 두장의 이미지 차이에 대해 밝기 파라메터값을 다르게 적용하여 신호 처리하게 된다.Here, signal processing is performed by differently applying brightness parameter values to two image differences photographed by the frame grabber 104.

그 다음, 상기 취득한 서로 다른 두개의 밝기 파라메터를 적용한 두장의 이미지 차이에 대해 동일한 위치의 차영상을 구하는 단계가 수행된다(S203).Next, a step of obtaining a difference image of the same position with respect to two image differences to which the obtained two different brightness parameters are applied is performed (S203).

보다 상세하게는, 먼저 상기 두장의 이미지 차이에 대해 각각 프레임 그래버의 서로 다른 밝기 파라메터 척도를 정의하게 된다.More specifically, first, different brightness parameter measures of frame grabbers are defined for the two image differences.

도 3은 본 발명에 따른 노멀 모드의 밝기 파라메터를 적용한 이미지의 신호 처리된 구간을 나타낸 도면이고, 도 4는 본 발명에 따른 하이 모드의 밝기 파라메터를 적용한 이미지의 신호 처리된 구간을 나타낸 도면이다. 이에 도시된 바와 같이, 홍채 영역의 값이 상기 노멀 모드에서는 130이고 하이 모드의 밝기 파라메터에서는 210으로 80 정도의 차이를 보이고 있다.3 is a diagram illustrating a signal-processed section of an image to which the brightness parameter of the normal mode is applied according to the present invention, and FIG. 4 is a diagram illustrating a signal-processed section of an image to which the brightness parameter of the high mode according to the present invention is applied. As shown in the drawing, the iris region has a difference of about 80, which is 130 in the normal mode and 210 in the brightness parameter of the high mode.

상기 두장의 이미지에 대해 각각 정의된 밝기 파라메터의 척도는 스펙큘러, 동공, 배경에 대한 밴드 영역으로 나눌 수 있다.The scale of the brightness parameter defined for each of the two images may be divided into band regions for specular, pupil, and background.

그리고, 상기 서로 다른 밝기 파라메터 척도로 정의된 두장의 이미지에 대해 분산을 구한 후, 분산이 최소가 되는 지점을 구하게 된다.Then, after obtaining variances for the two images defined by the different brightness parameter scales, the point where the variance is minimized is obtained.

여기서, 스펙큘러를 나타내는 영역을 제외한 부분에 대한 분산을 구한 후, 주변의 여러 위치를 구해서 최적 정합이 되는 부분(분산이 최소가 되는 지점)을 실제 움직임 벡터로 정한다.Here, after variances are obtained for the portions excluding the region representing the specular, various positions of the surroundings are obtained, and the portions that are optimally matched (points where the variance is minimum) are determined as actual motion vectors.

이어서, 상기 구해진 분산이 최소가 되는 지점을 기준으로 구해진 움직임 벡터를 이용하여 하이 모드로 취득한 영상을 이동시킨 후 차영상을 구하게 된다.Subsequently, after the image acquired in the high mode is moved using the motion vector obtained based on the point where the obtained variance becomes the minimum, the difference image is obtained.

도 5는 상기 도 4와 상기 도 3의 차영상을 나타낸 도면이다. 이에 도시된 바와 같이, 상기 두장의 이미지에 따라 각각 분리된 세부분에 대해 동일한 위치의 차영상을 구하게 된다.5 is a diagram illustrating a difference image of FIG. 4 and FIG. 3. As shown in the drawing, a difference image of the same position is obtained for each of the divided details according to the two images.

이어서, 상기 동일한 위치의 차영상을 구한 후, 동공의 위치를 추정하는 단계가 수행된다(S204).Subsequently, after obtaining the difference image of the same position, estimating the position of the pupil is performed (S204).

보다 자세하게는, 상기 구해진 차영상에서 나타난 부분은 동공이 아닌 부분은 소정의 밝기 파라메터만큼인 80정도의 차이를 보이고, 동공의 경우는 이전에 세츄레이션(saturation)된 상태로 인해 10정도의 적은 값을 갖게 된다.More specifically, the part of the obtained difference image shows a difference of about 80, which is a predetermined brightness parameter for the part that is not the pupil, and a small value of about 10 due to the previously saturated state for the pupil. Will have

즉, 상기 하이 모드의 밝기 파라메터 보다 현저히 작은 영역이 동공 영역이 된다.That is, the pupil area is significantly smaller than the brightness parameter of the high mode.

한편, 상기 동공 영역의 위치 추정은 상기 구해진 차영상에 동공의 분포가 존재하는지 여부를 검사하여 스펙큘러 또는 모조눈을 판별하게 된다.On the other hand, the position estimation of the pupil area is to determine whether the distribution of the pupil in the obtained difference image to determine the specular or pseudo eye.

도 6은 본 발명에 따른 차영상 히스토그램을 나타낸 도면이다. 이에 도시된 바와 같이, 동공 영역의 분포가 존재하는지 여부를 판정하여 동공 영역이 존재하면 동공의 분포 대역을 이진화하여 레이블링을 수행한 후, 기하학적인 특징(크기, 이심율 등)을 이용하여 동공 부위를 1차 추출하게 된다.6 is a diagram illustrating a difference image histogram according to the present invention. As shown in the drawing, it is determined whether the distribution of the pupil area exists and if the pupil area exists, binarization is performed by binarizing the distribution band of the pupil, and then using the geometric features (size, eccentricity, etc.) First extraction.

그 다음으로 상기 동공의 위치가 추정(S205)되면, 홍채 영역의 검사범위를정의하는 단계가 수행된다(S206).Next, when the position of the pupil is estimated (S205), the step of defining the inspection range of the iris region is performed (S206).

보다 상세하게는, 상기 동공의 분포 대역을 이진화하여 레이블링의 수행하고 기하학적인 특징을 이용하여 동공 부위를 1차로 추출한 이후, 상기 추출된 동공 부위를 중심으로 원영상에 서클 엣지 오퍼레이터(circular edge operator)를 적용하여 정확한 동공 위치를 추출하게 된다.In more detail, the distribution band of the pupil is binarized to perform labeling and the pupil region is first extracted using geometric features, and then a circle edge operator is applied to the original image around the extracted pupil region. Apply to extract the exact pupil position.

마지막으로 상기 정의된 홍채 영역을 코드화하여 홍채 인식을 시도하는 단계가 수행된다(S207).Finally, an iris recognition is attempted by encoding the defined iris region (S207).

한편, 상기 스펙큘러 또는 모조눈의 판별에서 스펙큘러나 모조눈으로 판단하게 되면, 상기 소정수의 조명중 선택되지 않았던 다른 조명을 선택하여 점등한 후, 초점을 조절하고 그 단계 이후를 다시 수행하게 된다(S208).On the other hand, if it is determined that the specular or pseudo eye in the determination of the specular or pseudo eye, after selecting the other lights that were not selected from the predetermined number of lights to turn on, after adjusting the focus and performing the step again after that step (S208).

본 발명은 도면에 도시된 실시 예를 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 본 기술분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.Although the present invention has been described with reference to the embodiments illustrated in the drawings, this is merely exemplary, and it will be understood by those skilled in the art that various modifications and equivalent other embodiments are possible. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

이상의 설명에서와 같이 본 발명에 따른 홍채 인식을 위한 동공 영역 추정 방법은, 특히 서로 다른 두개의 밝기 파라메터를 적용하여 취득한 두장의 이미지로부터 차영상을 구하고 동공의 위치를 추정하여 보다 빠르게 홍채 인식을 수행할 수 있다.As described above, the pupil area estimation method for iris recognition according to the present invention, in particular, obtains a difference image from two images acquired by applying two different brightness parameters and estimates the pupil position to perform iris recognition more quickly. can do.

Claims (8)

소정수의 조명중 하나를 선택하여 점등한 후, 초점을 조절하는 단계와;Selecting and lighting one of a predetermined number of lights, and adjusting focus; 상기 초점이 조절된 후, 서로 다른 두개의 밝기 파라메터를 적용하여 연속된 두장의 이미지를 취득하는 단계와;After the focus is adjusted, acquiring two consecutive images by applying two different brightness parameters; 상기 취득한 서로 다른 두개의 밝기 파라메터를 적용한 두장의 이미지에 대해 차영상을 구하는 단계와;Obtaining a difference image of two images obtained by applying the two different brightness parameters; 상기 구해진 차영상에서 동공의 위치를 추정하는 단계와;Estimating the position of the pupil in the obtained difference image; 상기 동공의 위치가 추정되면, 홍채 영역의 검사범위를 정의하는 단계와;If the position of the pupil is estimated, defining an inspection range of the iris region; 상기 정의된 홍채 영역을 코드화하여 홍채 인식을 시도하는 단계를 포함하는 것을 특징으로 하는 홍채 인식을 위한 동공 영역 추정방법.Coding the defined iris region and attempting to recognize the iris, the pupil region estimation method for iris recognition. 제 1항에 있어서,The method of claim 1, 상기 서로 다른 두개의 밝기 파라메터를 적용하여 연속된 두장의 홍채 이미지를 취득하는 단계에서 상기 두개의 밝기 파라메터는 소정 값만큼 차이를 두는 것을 특징으로 하는 홍채 인식을 위한 동공 영역 추정방법.The method of estimating a pupil region for iris recognition, characterized in that the two brightness parameters differ by a predetermined value in the step of acquiring two consecutive iris images by applying the two different brightness parameters. 제 1항에 있어서,The method of claim 1, 상기 서로 다른 두개의 밝기 파라메터를 적용하여 연속된 두장의 홍채 이미지를 취득하는 단계에서 상기 두개의 밝기 파라메터는 80 만큼 차이나는 것을 특징으로 하는 홍채 인식을 위한 동공 영역 추정방법.The pupil area estimation method for iris recognition, characterized in that the two brightness parameters differ by 80 in the step of acquiring two consecutive iris images by applying the two different brightness parameters. 제 1항에 있어서,The method of claim 1, 상기 취득한 서로 다른 두개의 밝기 파라메터를 적용한 두장의 이미지에 대해 차영상을 구하는 단계는,The step of obtaining a difference image for two images obtained by applying the two different brightness parameters, 상기 두장의 이미지에 대해 각각 프레임 그래버의 서로 다른 밝기 파라메터 척도를 정의하는 단계와;Defining different brightness parameter measures of a frame grabber for each of the two images; 상기 서로 다른 밝기 파라메터 척도로 정의된 두장의 이미지에 대해 분산을 구한 후, 분산이 최소가 되는 지점을 구하는 단계와;Obtaining variances for the two images defined by the different brightness parameter scales, and then finding a point where the variance becomes minimum; 상기 구해진 분산이 최소가 되는 지점을 기준으로 차영상을 구하는 단계를 포함하는 것을 특징으로 하는 홍채 인식을 위한 동공 영역 추정방법.And obtaining a difference image on the basis of the minimum variance of the obtained variance. 제 1항에 있어서,The method of claim 1, 상기 동공의 위치를 추정하는 단계에서 상기 구해진 차영상에 동공의 분포가 존재하는지 여부를 검사하여 스펙큘러 또는 모조눈을 판별하는 단계가 더 구비되는 것을 특징으로 하는 홍채 인식을 위한 동공 영역 추정방법.And determining a specular or pseudo eye by examining whether the distribution of the pupil exists in the obtained difference image in estimating the position of the pupil. 제 5항에 있어서,The method of claim 5, 상기 스펙큘러 또는 모조눈을 판별하는 단계에서 스펙큘러나 모조눈으로 판단되면, 상기 소정수의 조명중 선택되지 않았던 다른 조명을 선택하여 점등한 후,초점을 조절하는 단계를 수행하는 것을 특징으로 하는 홍채 인식을 위한 동공 영역 추정방법.If it is determined that the specular or pseudo eye in the step of determining the specular or pseudo eye, the iris characterized in that for performing the step of adjusting the focus after selecting and lighting other lights that were not selected from the predetermined number of illumination A pupil region estimation method for recognition. 제 1항에 있어서,The method of claim 1, 상기 동공의 위치가 추정되면, 홍채 영역의 검사범위를 정의하는 단계는,When the position of the pupil is estimated, defining the inspection range of the iris region, 동공의 분포 대역을 이진화하여 레이블링을 수행하는 단계와;Binarizing the distribution band of the pupil to perform labeling; 상기 레이블링이 수행된 후, 소정의 기하학적 방법을 이용하여 동공 부위를 추출하는 단계와;After the labeling is performed, extracting the pupil area using a predetermined geometric method; 상기 추출된 동공 부위를 중심으로 원영상에 서클 엣지 오퍼레이터를 적용하여 정확한 동공 위치를 추출하는 단계를 포함하는 것을 특징으로 하는 홍채 인식을 위한 동공 영역 추정방법.And extracting an accurate pupil position by applying a circle edge operator to the original image around the extracted pupil region. 제 7항에 있어서,The method of claim 7, wherein 상기 소정의 기하학적 방법을 이용하여 동공 부위를 추출하는 단계에서의 기학학적인 방법으로는 크기 또는 이심율을 이용하는 것을 특징으로 하는 홍채 인식을 위한 동공 영역 추정방법.A method of estimating a pupil region for iris recognition, characterized in that the size or the eccentricity is used as a geometric method in the step of extracting the pupil part using the predetermined geometric method.
KR1020030012988A 2003-03-03 2003-03-03 Pupil Area Estimation Method for Iris Recognition KR100572410B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020030012988A KR100572410B1 (en) 2003-03-03 2003-03-03 Pupil Area Estimation Method for Iris Recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020030012988A KR100572410B1 (en) 2003-03-03 2003-03-03 Pupil Area Estimation Method for Iris Recognition

Publications (2)

Publication Number Publication Date
KR20040078198A true KR20040078198A (en) 2004-09-10
KR100572410B1 KR100572410B1 (en) 2006-04-18

Family

ID=37363529

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020030012988A KR100572410B1 (en) 2003-03-03 2003-03-03 Pupil Area Estimation Method for Iris Recognition

Country Status (1)

Country Link
KR (1) KR100572410B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107506687A (en) * 2017-07-17 2017-12-22 广东欧珀移动通信有限公司 Biopsy method and Related product

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102037781B1 (en) 2018-01-23 2019-10-29 (주)파트론 Apparatus for determinating iris
KR102037779B1 (en) 2018-01-23 2019-10-29 (주)파트론 Apparatus for determinating pupil

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107506687A (en) * 2017-07-17 2017-12-22 广东欧珀移动通信有限公司 Biopsy method and Related product
CN107506687B (en) * 2017-07-17 2020-01-21 Oppo广东移动通信有限公司 Living body detection method and related product
US11100348B2 (en) 2017-07-17 2021-08-24 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Method of living body detection and terminal device

Also Published As

Publication number Publication date
KR100572410B1 (en) 2006-04-18

Similar Documents

Publication Publication Date Title
KR100854890B1 (en) Iris recording and recognition method using of several led for iris recognition system
KR100464081B1 (en) Automatic upgrade method of iris code database for iris recognition system
CN107438854B (en) System and method for performing fingerprint-based user authentication using images captured by a mobile device
KR100649303B1 (en) Apparatus of taking pictures in iris recognition system based on both of eyes's images
RU2431190C2 (en) Facial prominence recognition method and device
US8493178B2 (en) Forged face detecting method and apparatus thereof
KR101632912B1 (en) Method for User Authentication using Fingerprint Recognition
KR20190097640A (en) Device and method for matching image
KR101610525B1 (en) Apparatus for extracting a pupil considering illumination and method thereof
KR100572410B1 (en) Pupil Area Estimation Method for Iris Recognition
KR101635602B1 (en) Method and apparatus for iris scanning
KR100880466B1 (en) Method for pupil detection using of red eye effect for iris recognition
KR100604023B1 (en) Method for iris recognized using of differnce image
KR101032499B1 (en) System and the method for iris recognition using of ccd filer
KR20040006703A (en) Iris recognition system
KR100604022B1 (en) System and the method for iris recognition
KR20190129003A (en) Method for biometric recognition from irises
KR100493700B1 (en) Automatic recognition method for iris recognition system
KR20040078197A (en) Method for moving presumption of pupil detecting
CN113916377B (en) Passive image depth sensing for chroma difference-based object verification
KR100547333B1 (en) Method for distance indicated of iris recognition system
KR20030070183A (en) Iris recording and recognition method of forged distingction of iris recognition system
KR20050088563A (en) System for iris recognized using of visible light and the method
KR100518877B1 (en) Method for iriscode making of iris image using of several light
KR20030077126A (en) System for removing of optical reflection in iris recognition of pc and the method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130108

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20131017

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20160404

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20170327

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20180406

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20190402

Year of fee payment: 14