KR20060096867A - Method and apparatus for setting of comparison area and generating of user authentication information for iris recognition - Google Patents

Method and apparatus for setting of comparison area and generating of user authentication information for iris recognition Download PDF

Info

Publication number
KR20060096867A
KR20060096867A KR1020050018133A KR20050018133A KR20060096867A KR 20060096867 A KR20060096867 A KR 20060096867A KR 1020050018133 A KR1020050018133 A KR 1020050018133A KR 20050018133 A KR20050018133 A KR 20050018133A KR 20060096867 A KR20060096867 A KR 20060096867A
Authority
KR
South Korea
Prior art keywords
area
information
region
point
pupil
Prior art date
Application number
KR1020050018133A
Other languages
Korean (ko)
Other versions
KR100696251B1 (en
Inventor
채영도
채소부
Original Assignee
채영도
채소부
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 채영도, 채소부 filed Critical 채영도
Priority to KR1020050018133A priority Critical patent/KR100696251B1/en
Publication of KR20060096867A publication Critical patent/KR20060096867A/en
Application granted granted Critical
Publication of KR100696251B1 publication Critical patent/KR100696251B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes

Abstract

본 발명은 홍채인식을 위한 비교영역 설정 및 사용자 인증정보 생성 방법 및 그 장치에 관한 것으로, (a) 눈을 촬영한 영상정보에서의 동공영역의 화소점들에 대한 좌표평균점을 구하는 단계; (b) 상기 동공영역의 좌표평균점을 중심으로 홍채영역의 일정부분이 포함되도록 동심원 영역을 설정하는 단계; (c) 상기 동심원 영역에서 동공영역을 제외하여 형성된 동공 제외된 동심원 영역의 화소점들에 대한 좌표평균점을 구하는 단계; (d) 상기 동공영역의 좌표평균점과 상기 동공 제외된 동심원 영역의 좌표평균점에 따라서 상기 동심원 영역을 분할하는 단계; 및 (e) 상기 분할된 동심원 영역중 하나를 홍채인식을 위한 비교영역으로 설정하는 단계;로 구성된다. 따라서, 사용자의 촬영자세 등에 따른 오인식율이 거의 없는 홍채인식을 위한 비교영역 설정 및 사용자 인증정보 생성 방법 및 그 장치를 제공할 수 있다. The present invention relates to a method and apparatus for setting a comparison area and generating user authentication information for iris recognition, the method comprising: (a) obtaining coordinate average points of pixel points of a pupil area in an image image of an eye; (b) setting the concentric circles such that a predetermined portion of the iris region is included around the coordinate average point of the pupil region; (c) obtaining coordinate mean points of pixel points of the excluded concentric region formed by excluding the pupil region in the concentric region; (d) dividing the concentric circles according to the coordinate average points of the pupil regions and the coordinate average points of the excluded concentric circles; And (e) setting one of the divided concentric circles as a comparison region for iris recognition. Accordingly, a method and apparatus for setting a comparison area and generating user authentication information for iris recognition with little false recognition rate according to a user's photographing posture can be provided.

Description

홍채인식을 위한 비교영역 설정 및 사용자 인증정보 생성 방법 및 그 장치{Method and apparatus for setting of comparison area and generating of user authentication information for iris recognition} Method and apparatus for setting of comparison area and generating of user authentication information for iris recognition

도 1은 본 발명에 따라서 홍채 영상을 위상기하학적으로 분석하는 과정을 보이고 있으며,1 shows a process of topologically analyzing an iris image according to the present invention.

도 2a와 도 2b는 본 발명에 따라서 홍체 영상 중에서 위상기하학적으로 분석되는 일부 영역인 데이터 추출 영역을 설정하는 과정을 보이고 있으며,2A and 2B illustrate a process of setting a data extraction region, which is a partial region that is analyzed topologically among iris images according to the present invention.

도 3은 도 2에서 설정된 데이터 추출 영역으로부터 위상기하학적 분석 데이터를 얻는 과정을 보이고 있으며,3 illustrates a process of obtaining topological analysis data from the data extraction region set in FIG.

도 4는 본 발명에 따라서 원본 등록자별 기준 광도값에 대응되는 원본 데이터를 저장한 데이터 구조의 바람직한 실시예를 보이고 있으며,4 illustrates a preferred embodiment of a data structure storing original data corresponding to reference luminance values of original registrants according to the present invention.

도 5는 본 발명에 따라 홍채인식을 이용한 보안 방법을 보이고 있으며,5 shows a security method using iris recognition in accordance with the present invention,

도 6은 본 발명에 따라 원본 데이터와 비교본 데이터에 기초하여 신원을 확인하는 과정을 보이고 있으며,6 illustrates a process of verifying an identity based on original data and comparative data according to the present invention.

도 7a는 본 발명에 따라 홍채인식을 이용한 보안 장치의 바람직한 실시예에 대한 블럭도이며,Figure 7a is a block diagram of a preferred embodiment of a security device using iris recognition in accordance with the present invention,

도 7b는 도 7a의 데이터 영역 설정부를 보다 구체적으로 나타낸 블럭도이며,FIG. 7B is a block diagram illustrating the data area setting unit of FIG. 7A in more detail.

도 7c는 도 7a의 홍채 정보 생성부를 보다 구체적으로 나타낸 블럭도이며,FIG. 7C is a block diagram illustrating the iris information generation unit of FIG. 7A in more detail.

도 8은 본 발명에 따른 상기 도 2a의 과정을 통하여 데이터 추출 영역을 설정하는 한 실시예를 보이고 있으며,FIG. 8 illustrates an embodiment of setting a data extraction region through the process of FIG. 2A according to the present invention.

도 9는 본 발명에 따른 상기 도 2a의 과정을 통하여 데이터 추출 영역을 설정하는 다른 실시예를 보이고 있으며,FIG. 9 illustrates another embodiment of setting a data extraction region through the process of FIG. 2A according to the present invention.

도 10은 본 발명에 따른 상기 도 2b의 과정을 통하여 데이터 추출 영역을 설정하는 한 실시예를 보이고 있으며,FIG. 10 illustrates an embodiment of setting a data extraction region through the process of FIG. 2B according to the present invention.

도 11은 본 발명에 따른 상기 도 2b의 과정을 통하여 데이터 추출 영역을 설정하는 다른 실시예를 보이고 있다.FIG. 11 shows another embodiment of setting a data extraction region through the process of FIG. 2B according to the present invention.

본 발명은 홍채인식을 위한 비교영역 설정 및 사용자 인증정보 생성 방법 및 그 장치에 관한 것으로, 더욱 상세하게는 동공영역 및 홍채영역의 좌표를 기준으로 데이터 추출 영역을 설정하고, 그에 포함된 홍채 영상정보를 위상기하학적으로 분석하여 사용자를 인식하도록 하는 홍채인식을 위한 비교영역 설정 및 사용자 인증정보 생성 방법 및 그 장치에 관한 것이다. The present invention relates to a method and apparatus for setting a comparison area and generating user authentication information for iris recognition, and more particularly, sets a data extraction area based on coordinates of a pupil area and an iris area, and includes iris image information included therein. The present invention relates to a method and apparatus for setting a comparison area and generating user authentication information for iris recognition by analyzing the topologically.

종래의 홍채인식 시스템에 사용되는 보안 방법 및 장치는 원본 등록자의 눈동자로부터 홍채부분의 영상데이터를 취해 원본 데이터로 보관하고 신원확인 대상자의 데이터를 비교본 데이터로 하여 이들과 일대일 비교하여 동일인인지 여부를 확인하는 방법을 택하고 있다. 그런데 이러한 종래의 시스템들은 원본 데이터와 비교본 데이터를 비교하는데 있어, 상기 홍채자체의 어떤 특성에 따라 기준을 설정하고 그 기준에 따라서 양자를 비교하는 것이 아니라, 사람의 좌우 눈 꼬리를 기준으로 하는 등 홍채의 모양자체와는 상관없는 기준에 따라서 양자를 비교 또는 분석한다거나 또는 홍채의 모양자체를 기준으로 하는 경우에도 잡음에 민감한 동공 경계선을 기준으로 하여 영상정보를 수치화 하는데 있어서 미분값 등을 취함으로서 많은 시간을 소요, 그 결과 실시간 인증을 필요로 하는 시스템에서는 효율적이지 못함은 물론 인식기의 소형화에 문제점이 있다. 그럼으로써 실용화할 수 없다는 문제점이 있다.The security method and apparatus used in the conventional iris recognition system take the image data of the iris part from the pupil of the original registrant and store it as the original data, and compare the identity of the subject of identification to one-to-one with one-to-one comparison with these to determine whether the same person I choose to check. However, in the conventional systems, the original data and the comparative data are compared with each other. Instead of setting a reference according to a certain characteristic of the iris itself and comparing the two according to the reference, the reference is based on the left and right eye tails of a person. By comparing or analyzing them according to a standard that is not related to the iris shape itself, or taking a differential value in quantifying image information based on the noise boundary of the pupil even when the iris shape itself is used as a reference, As a result, it is not efficient in a system requiring real time authentication, and there is a problem in miniaturization of a recognizer. As a result, there is a problem that it cannot be put to practical use.

본 발명이 이루고자 하는 기술적 과제는 주변의 광도와 얼굴의 움직임 그리고 카메라로부터의 거리 및 위치에 큰 영향을 받지 않는 데이터 추출 영역을 설정하고 상기 설정된 데이터 추출 영역으로부터 신원확인을 위한 위상기하학적 데이터를 추출하는 홍채인식을 위한 비교영역과 사용자 인증정보를 생성하는 방법 및 그 장치를 제공한다. The technical problem to be achieved by the present invention is to set a data extraction region that is not significantly affected by the surrounding brightness, face movement and distance and position from the camera, and extracting topological data for identification from the set data extraction region. A method and apparatus for generating a comparison area and user authentication information for iris recognition are provided.

상기 기술적 과제를 해결하기 위한 본 발명의 홍채인식을 위한 비교영역 설정 방법은, (a) 눈을 촬영한 영상정보에서의 동공영역의 화소점들에 대한 좌표평균점을 구하는 단계; (b) 상기 동공영역의 좌표평균점을 중심으로 홍채영역의 일정부분이 포함되도록 동심원 영역을 설정하는 단계; (c) 상기 동심원 영역에서 동공영 역을 제외하여 형성된 동공 제외된 동심원 영역의 화소점들에 대한 좌표평균점을 구하는 단계; (d) 상기 동공영역의 좌표평균점과 상기 동공 제외된 동심원 영역의 좌표평균점에 따라서 상기 동심원 영역을 분할하는 단계; 및 (e) 상기 분할된 동심원 영역중 하나를 홍채인식을 위한 비교영역으로 설정하는 단계;를 포함하는 것을 특징으로 가진다. According to another aspect of the present invention, there is provided a method of setting a comparison area for iris recognition, the method comprising: (a) obtaining coordinate mean points of pixel points of a pupil area in image information of an eye; (b) setting the concentric circles such that a predetermined portion of the iris region is included around the coordinate average point of the pupil region; (c) obtaining coordinate mean points of pixel points of the excluded concentric circle formed by excluding the pupil area in the concentric circle area; (d) dividing the concentric circles according to the coordinate average points of the pupil regions and the coordinate average points of the excluded concentric circles; And (e) setting one of the divided concentric circles as a comparison region for iris recognition.

또한, 상기 기술적 과제를 해결하기 위한 본 발명의 홍채인식을 위한 사용자 인증정보 생성 방법은, (a) 눈을 촬영한 영상정보에서 사용자 인증정보를 추출할 비교영역을 설정하는 단계; (b) 상기 비교영역에 포함되는 화소점들로부터 비교대상이 될 화소점들을 추출하는 단계; (c) 상기 비교대상이 될 화소점들에 대한 화소점 개수 정보, 모서리 개수 정보 및 꼭지점 개수 정보에 대한 위상기하학적 특징정보를 추출하는 단계; 및 (d) 상기 추출된 위상기하학적 특징정보를 연산하여 홍채인식 시스템에 비교인증 데이터로 이용되는 사용자 인증정보를 생성하는 단계;를 포함하는 것을 특징으로 가진다.In addition, the user authentication information generation method for iris recognition of the present invention for solving the technical problem, (a) setting a comparison area to extract the user authentication information from the image information of the eye; (b) extracting pixel points to be compared from pixel points included in the comparison area; (c) extracting topological feature information of pixel point number information, corner number information, and vertex number information of the pixel points to be compared; And (d) generating the user authentication information used as comparative authentication data in the iris recognition system by calculating the extracted topological feature information.

상기 기술적 과제를 해결하기 위한 본 발명의 홍채인식을 위한 비교영역 설정 장치는, 눈을 촬영한 영상정보로부터 동공영역과 홍채영역을 분리하는 영역 분리부; 상기 영역 분리부에 의하여 분리된 동공영역의 화소점들에 대한 상기 동공영역의 좌표평균점을 구하는 제 1 좌표평균점 계산부; 상기 동공영역의 좌표평균점을 중심으로 상기 홍채영역의 일정부분이 포함되도록 동심원 영역을 설정하는 동심원 영역 설정부; 상기 영역 분리부를 통하여 상기 동심원 영역에서 동공영역을 제외하여 동공 제외된 동심원 영역을 형성하고, 상기 동공 제외된 동심원 영역의 화소점 들에 대한 좌표평균점을 구하는 제 2 좌표평균점 계산부; 상기 동공영역의 좌표평균점과 상기 동공 제외된 동심원 영역의 좌표평균점에 따라서 상기 동심원 영역을 분할하는 동심원 영역 분할부; 및 상기 분할된 동심원 영역중 하나를 홍채인식을 위한 비교영역으로 설정하는 비교영역 설정부;를 포함하는 것을 특징으로 가진다.The comparative area setting device for iris recognition according to the present invention for solving the technical problem, the region separating unit for separating the pupil area and the iris region from the image information of the eye; A first coordinate average point calculator for obtaining a coordinate average point of the pupil area with respect to pixel points of the pupil area separated by the area separator; A concentric circle setting unit configured to set a concentric circle area such that a predetermined portion of the iris area is included around the coordinate average point of the pupil area; A second coordinate average point calculator configured to form a concentric circular region excluding the pupil region from the concentric region through the region separation unit, and obtain a coordinate average point of pixel points of the excluding the concentric circular region; A concentric circle division unit dividing the concentric circle area according to a coordinate average point of the pupil area and a coordinate average point of the excluded concentric circle area; And a comparison area setting unit configured to set one of the divided concentric areas as a comparison area for iris recognition.

또한, 상기 기술적 과제를 해결하기 위한 본 발명의 홍채인식을 위한 사용자 인증정보 생성 장치는, 눈을 촬영한 영상정보에서 사용자 인증정보를 추출할 비교영역을 설정하는 비교영역 설정부; 상기 비교영역에 포함되는 화소점들로부터 비교대상이 될 화소점들을 추출하는 비교대상 추출부; 상기 비교영역에서 추출된 화소점들에 대한 화소점 개수 정보, 모서리 개수 정보 및 꼭지점 개수 정보에 대한 위상기하학적 특징정보를 추출하는 위상기하학적 특징정보 추출부; 및 상기 추출된 위상기하학적 특징정보를 연산하여 사용자 인증정보를 생성하는 사용자 인증정보 생성부;를 포함하는 것을 특징으로 가진다.In addition, the user authentication information generating device for iris recognition of the present invention for solving the technical problem, a comparison area setting unit for setting a comparison area to extract the user authentication information from the image information of the eye; A comparison object extracting unit extracting pixel points to be compared from pixel points included in the comparison area; A topological feature information extraction unit for extracting topological feature information about pixel point number information, corner number information, and vertex number information of the pixel points extracted from the comparison area; And a user authentication information generator for generating user authentication information by calculating the extracted topological feature information.

이하에서, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대하여 상세히 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail a preferred embodiment of the present invention.

도 1은 본 발명에 따라 홍채 영상을 위상기하학적으로 분석하는 과정을 보이고 있다. 도 1을 참조하면, 먼저, 소정의 홍채를 촬영한 홍채 영상정보를 얻는다(101).1 shows a process of topologically analyzing an iris image according to the present invention. Referring to FIG. 1, first, iris image information obtained by photographing a predetermined iris is obtained (101).

다음으로, 상기 홍채 영상정보를 분석할 데이터 추출 영역을 설정한다(102).여기에서, 데이터 추출 영역은 홍채 영상정보 중에서 속눈썹이나 눈꺼풀에 의해서 방해받지 않는 영역으로 눈동자의 위치에 영향을 받지 않는 위상기하학적 영역이 다. 따라서, 데이터 추출 영역에서 위상기하학적 분석정보는 신원 확인 대상자의 위치에 크게 영향을 받지 않게 된다.Next, a data extraction region for analyzing the iris image information is set (102). Here, the data extraction region is a region of the iris image information that is not disturbed by eyelashes or eyelids and is not affected by the position of the pupil. It is a geometric realm. Therefore, the topological analysis information in the data extraction region is not significantly influenced by the position of the identification subject.

다음으로, 데이터 추출 영역내의 위상기하학적 특징정보를 통하여 사용자 인증정보를 생성한다(103).Next, the user authentication information is generated through the topological feature information in the data extraction region (103).

도 2a와 본 발명에 따라서 홍체 영상 중에서 위상기하학적으로 분석되는 일부 영역인 데이터 추출 영역을 설정하는 과정을 보이고 있다. 도 2a를 참조하면, 먼저, 홍채 영상정보로부터 동공영역을 추출한다(211). 여기에서, 추출된 동공영역은 이진화되고 전처리되어 지는 N 개의 픽셀들 P(1),P(2),...,P(N)로 이루어져 있는데, 픽셀 P(i)는 위치좌표(X(i), Y(i))를 통한 P(i) = (X(i), Y(i))로 표시된다.According to FIG. 2A and the present invention, a process of setting a data extraction region, which is a partial region analyzed topologically, among iris images is shown. Referring to FIG. 2A, first, a pupil area is extracted from iris image information (211). Here, the extracted pupil region is composed of N pixels P (1), P (2), ..., P (N) which are binarized and preprocessed, and the pixel P (i) is a position coordinate (X ( i), P (i) through Y (i) = (X (i), Y (i)).

다음으로, 단계 211에서 추출된 동공영역의 좌표평균점(

Figure 112005011633632-PAT00001
)을 구한다(212). 보다 구체적으로, 동공영역의 좌표평균점(
Figure 112005011633632-PAT00002
)의 위치좌표는 다음 수학식 1에서 보는 바와 같이 구하여진다.Next, the coordinate average point of the pupil area extracted in step 211 (
Figure 112005011633632-PAT00001
(212). More specifically, the coordinate mean point of the pupil area (
Figure 112005011633632-PAT00002
The positional coordinate of) is obtained as shown in Equation 1 below.

Figure 112005011633632-PAT00003
Figure 112005011633632-PAT00003

다음으로, 좌표평균점(

Figure 112005011633632-PAT00004
)을 중심으로 홍채영역의 일정부분이 포함되도록 동심원 영역(DC)을 설정한다(213). 동심원 영역(DC)을 설정함에 있어서, 좌표평균 점(
Figure 112005011633632-PAT00005
)을 중심으로 홍채영역의 일정부분이 포함되도록 하는 것은 동공반경(r)의 1배에서 2배, 바람직하게는 1.2배 내지 1.5배에 해당하는 영역을 설정하여, 속눈썹이나 눈꺼풀에 의해서 방해받지 않도록 한다. 여기에서, 동공반경(r)은 다음 수학식 2에서 보는 바와 같이 구하여진다.Next, the coordinate mean point (
Figure 112005011633632-PAT00004
The concentric circle DC is set to include a portion of the iris area around the center (213). In setting the concentric area DC, the coordinate mean point (
Figure 112005011633632-PAT00005
To include a certain portion of the iris area around the center of the iris area is set to 1 to 2 times, preferably 1.2 to 1.5 times the pupil radius (r) so as not to be disturbed by eyelashes or eyelids. do. Here, the pupil radius r is obtained as shown in Equation 2 below.

Figure 112005011633632-PAT00006
Figure 112005011633632-PAT00006

다음으로, 상기 단계 213에서 설정한 동심원 영역(DC)의 좌표평균점(

Figure 112005011633632-PAT00007
)을 구한다(214).Next, the coordinate average point of the concentric circles DC set in step 213 (
Figure 112005011633632-PAT00007
(214).

다음으로, 좌표평균점(

Figure 112005011633632-PAT00008
)과 좌표평균점(
Figure 112005011633632-PAT00009
)을 연결하는 제 1 직선(
Figure 112005011633632-PAT00010
) 및 좌표평균점(
Figure 112005011633632-PAT00011
)과 좌표평균점(
Figure 112005011633632-PAT00012
)의 중점(
Figure 112005011633632-PAT00013
)을 지나고 상기 제 1 직선(
Figure 112005011633632-PAT00014
)에 수직하는 제 2 직선(
Figure 112005011633632-PAT00015
)을 구한다(215).Next, the coordinate mean point (
Figure 112005011633632-PAT00008
) And the coordinate mean point (
Figure 112005011633632-PAT00009
First straight line connecting the
Figure 112005011633632-PAT00010
) And coordinate mean points (
Figure 112005011633632-PAT00011
) And the coordinate mean point (
Figure 112005011633632-PAT00012
) Emphasis
Figure 112005011633632-PAT00013
Past the first straight line (
Figure 112005011633632-PAT00014
2nd straight line perpendicular to)
Figure 112005011633632-PAT00015
(215).

다음으로, 상기 단계 215에서 구한 상기 제 1 직선(

Figure 112005011633632-PAT00016
)과 제 2 직선(
Figure 112005011633632-PAT00017
)을 통하여 동심원 영역(DC)를 4개의 영역(DC1, DC2, DC3, DC4)으로 분할하고, 각각의 분할된 영역에 대한 좌표평균점을 구하고, 좌표평균점중 렉시코그래픽 순서가 가장 작은 점을 포함하는 영역을 데이터 추출 영역(DF1)으로 설정한다(216).Next, the first straight line obtained in the step 215 (
Figure 112005011633632-PAT00016
) And the second straight line (
Figure 112005011633632-PAT00017
Divide the concentric circles (DC) into four regions (DC1, DC2, DC3, DC4), obtain the coordinate mean points for each divided region, and include the points with the smallest lexicographic order among the coordinate mean points. The area to be set is set as the data extraction area DF1 (216).

여기에서, 렉시코그래픽 순서는 평면상의 두점

Figure 112005011633632-PAT00018
에 대하여
Figure 112005011633632-PAT00019
Figure 112005011633632-PAT00020
보다 작은 경우를
Figure 112005011633632-PAT00021
로 표시하며 다음의 괄호 속과 같이 정의한다.Here, the lexographic order is two points on the plane
Figure 112005011633632-PAT00018
about
Figure 112005011633632-PAT00019
this
Figure 112005011633632-PAT00020
Less than
Figure 112005011633632-PAT00021
It is defined as in the following parentheses.

Figure 112005011633632-PAT00022
로 나타난다.
Figure 112005011633632-PAT00022
Appears.

또한, 여기에서 각각의 분할된 영역에 대한 좌표평균점을 구하는 것은 상기 수학식 1을 참조로 한다.In addition, obtaining the coordinate average point for each divided region herein is referred to Equation 1 above.

이와 같이 설정된 데이터 추출 영역(DF1)에서 홍채인식을 이용한 보안 방법을 위한 위상기하학적 데이터를 추출하게 된다.The topological data for the security method using the iris recognition is extracted from the data extraction area DF1 configured as described above.

도 2a에서는 동심원 영역(DC)을 4개의 영역(DC1, DC2, DC3, DC4)으로 분할하여 각각의 분할된 영역에 대한 좌표평균점 중에서 렉시코그래픽 순서가 가장 작은 점을 포함하는 영역을 데이터 추출 영역(DF1)으로 설정하는 것을 보였다. 나아가, 데이터 추출 영역(DF1)을 상기 중점(

Figure 112005011633632-PAT00023
)과 분할된 영역의 좌표평균점을 지나는 직선을 통하여 2등분하고, 2등분된 영역의 각각에 대한 좌표평균점 중에서 렉시코그래픽 순서가 가장 작은 점을 포함하는 영역을 데이터 추출 영역(DF2)로 다시 설정할 수 있다. 이와 같은 동작을 반복적으로 수행함으로써 데이터 추출 영역(DFn) 의 범위를 좁혀나갈 수 있게 된다. 홍채인식을 이용한 보안 장치별로 해당하는 소정 범위까지 분할하여 그 중 해당하는 데이터 추출 영역을 설정할 수 있게 된다. 즉, 보안 장치별로 속도 및 처리의 정확성을 고려하여 필요한 범위까지 분할하여 데이터 추출 영역을 설정하게 된다.In FIG. 2A, the concentric circle DC is divided into four regions DC1, DC2, DC3, and DC4, and a region including a point having the smallest lexicographic order among coordinate average points for each divided region is included in the data extraction region. It was set to (DF1). Further, the data extraction area DF1 is referred to as the center point (
Figure 112005011633632-PAT00023
) Is divided into two through a straight line passing through the coordinate average point of the divided region, and the region including the point with the smallest lexicographic order among the coordinate average points for each of the divided regions is set again as the data extraction region (DF2). Can be. By repeatedly performing such an operation, the range of the data extraction area DFn can be narrowed. It is possible to set a corresponding data extraction area by dividing a predetermined range corresponding to each security device using iris recognition. That is, the data extraction area is set by dividing the security device into necessary ranges in consideration of speed and processing accuracy.

또한, 도 2a에서는 동심원 영역(DC)을 4개의 영역(DC1, DC2, DC3, DC4)으로 분할하여 분할된 영역의 각각에서 좌표평균점중 렉시코그래픽 순서가 가장 작은 점을 포함하는 영역을 데이터 추출 영역(DF1)으로 설정하는 것으로 설명하였으나, 단계 213에서 설정된 동심원 영역(DC)을 데이터 추출 영역으로 설정할 수도 있다. 보다 구체적으로, 동심원 영역(DC)을 데이터 추출 영역으로 하는 것이 도 8에 나타나 있고, 동심원 영역(DC)을 분할하여 분할된 영역중에서 해당하는 영역을 데이터 추출 영역으로 하는 것이 도 9에 나타나 있다.In addition, in FIG. 2A, the concentric circle DC is divided into four areas DC1, DC2, DC3, and DC4 to extract data including a point having the smallest lexicographic order among coordinate average points in each of the divided areas. Although described as setting to the area DF1, the concentric circle DC set in step 213 may be set as the data extraction area. More specifically, the concentric circle DC is shown in FIG. 8, and the concentric circle DC is divided and the corresponding area is shown in FIG. 9.

도 8은 본 발명에 따른 상기 도 2a의 과정을 통하여 데이터 추출 영역을 설정하는 한 실시예를 보이고 있다. 도 8을 참조하면, 인간의 눈을 촬영한 영상으로써, 참조번호 801은 눈썹선을 나타내고 있다. 따라서 위 참조번호 801이 나타내는 선의 상부는 실제영상에서는 촬영되지 않는 부분이다. 그리고, 참조번호 802는 동공선을 나타내며, 참조번호 803은 자율신경선을 나타내고 있으며, 참조번호 804, 805, 806, 807 및 808은 홍채에 존재하는 열공선을 나타내고 있으며, 참조번호 809는 눈동자의 모서리를 나타내고 있으며, 참조번호 810은 데이터 추출 영역으로 설정된 영역을 보이고 있다. 참조번호 811은 동심원 영역(DC)을 나타낸다. 도 8에서는 동심원 영역(DC) 전체가 데이터 추출 영역으로 설정되어 있는 것을 볼 수 있다.FIG. 8 illustrates an embodiment of setting a data extraction region through the process of FIG. 2A according to the present invention. Referring to FIG. 8, reference image 801 denotes an eyebrow line as an image of a human eye. Therefore, the upper portion of the line indicated by the reference number 801 is a portion that is not photographed in the actual image. Reference numeral 802 denotes the pupillary line, reference numeral 803 denotes the autonomic nerve line, reference numerals 804, 805, 806, 807 and 808 denote the hot collinearity present in the iris, and reference numeral 809 denotes the pupil of the pupil. An edge is shown and reference numeral 810 denotes an area set as a data extraction area. Reference numeral 811 denotes a concentric circle area DC. In FIG. 8, it can be seen that the entire concentric region DC is set as the data extraction region.

도 9는 본 발명에 따른 상기 도 2a의 과정을 통하여 데이터 추출 영역을 설정하는 다른 실시예를 보이고 있다. 도 9를 참조하면, 인간의 눈을 촬영한 영상으로써, 참조번호 901은 눈썹선을 나타내고 있다. 따라서 위 참조번호 901이 나타내는 선의 상부는 실제영상에서는 촬영되지 않는 부분이다. 그리고, 참조번호 902는 동공선을 나타내며, 참조번호 803은 자율신경선을 나타내고 있으며, 참조번호 904, 905, 906, 907 및 908은 홍채에 존재하는 열공선을 나타내고 있으며, 참조번호 909는 눈동자의 모서리를 나타내고 있으며, 참조번호 910은 데이터 영역으로 설정된 영역을 보이고 있다. 참조번호 911은 동심원 영역(DC)을 나타낸다. 도 9에서는 동심원 영역(DC)을 분할하여 분할된 영역의 각각에 대한 좌표평균점중 렉시코그래픽 순서가 가장 작은 점을 포함하는 영역이 데이터 추출 영역으로 설정되어 있는 것을 볼 수 있다.9 illustrates another embodiment of setting a data extraction region through the process of FIG. 2A according to the present invention. Referring to FIG. 9, reference numeral 901 denotes an eyebrow line as an image of a human eye. Therefore, the upper portion of the line indicated by reference numeral 901 is a portion which is not photographed in the actual image. Reference numeral 902 denotes a pupillary line, reference numeral 803 denotes an autonomic nerve line, reference numerals 904, 905, 906, 907, and 908 denote hot air lines present in the iris, and reference numeral 909 denotes a pupil of the pupil. An edge is shown and reference numeral 910 denotes an area set as a data area. Reference numeral 911 denotes a concentric circle area DC. In FIG. 9, it can be seen that a region including a point having the smallest lexicographic order among the coordinate average points of each of the divided regions by dividing the concentric circles DC is set as the data extraction region.

도 2b는 본 발명에 따라서 홍체 영상 중에서 위상기하학적으로 분석되는 일부 영역인 데이터 추출 영역을 설정하는 과정을 보이고 있다. 도 2b를 참조하면, 먼저, 홍채 영상정보로부터 동공영역을 추출한다(221). 여기에서, 추출된 동공영역은 이진화되고 전처리되어 지는 픽셀 P(i)로 이루어져 있는데, 픽셀 P(i)는 위치좌표(X(i), Y(i))와 화소점 밝기 농도 0을 포함한 P(i) = (X(i), Y(i), 0)로 표시된다.2B illustrates a process of setting a data extraction region, which is a partial region analyzed topologically, among iris images according to the present invention. Referring to FIG. 2B, first, a pupil area is extracted from iris image information (221). Here, the extracted pupil area is composed of pixels P (i) which are binarized and preprocessed, where P (i) is a P containing position coordinates (X (i), Y (i)) and pixel point brightness density 0. (i) = (X (i), Y (i), 0)

다음으로, 추출된 동공영역의 좌표평균점(

Figure 112005011633632-PAT00024
)을 구한다(222). 보다 구체적으로, 동공영역의 좌표평균점(
Figure 112005011633632-PAT00025
)은 위치좌표가 다음 수학식 3에서 보는 바와 같다.Next, the coordinate mean point of the extracted pupil area (
Figure 112005011633632-PAT00024
(222). More specifically, the coordinate mean point of the pupil area (
Figure 112005011633632-PAT00025
) Is as shown in Equation 3 below.

Figure 112005011633632-PAT00026
Figure 112005011633632-PAT00026

다음으로, 좌표평균점(

Figure 112005011633632-PAT00027
)을 중심으로 홍채영역의 일정부분이 포함되도록 동심원 영역(DC)을 설정한다(223). 동심원 영역(DC)을 설정함에 있어서, 좌표평균점()을 중심으로 홍채영역의 일정부분이 포함되도록 하는 것은 동공반경(r)의 1배 이상 2배 이하, 바람직하게는 1.2배 내지 1.5배에 해당하는 영역을 설정하여, 속눈썹이나 눈꺼풀에 의해서 방해받지 않도록 한다. 여기에서, 동공반경(r)은 다음 수학식 4에서 보는 바와 같이 구하여진다.Next, the coordinate mean point (
Figure 112005011633632-PAT00027
The concentric circle (DC) is set to include a certain portion of the iris area around the center (223). In setting the concentric circles DC, the coordinate mean point ( In order to include a certain portion of the iris area around the center, the area corresponding to 1 or more and 2 times or less, preferably 1.2 to 1.5 times the pupil radius (r) is not disturbed by eyelashes or eyelids. Do not Here, the pupil radius r is obtained as shown in Equation 4 below.

Figure 112005011633632-PAT00029
Figure 112005011633632-PAT00029

다음으로, 동심원 영역(DC)에서 동공영역을 제외한 영역인 동공 제외된 동심원 영역(DC')을 설정한다(224).Next, in operation 224, the concentric circle DC excluding the pupil, which is an area excluding the pupil area, is set in the concentric circle DC.

다음으로, 동공 제외된 동심원 영역(DC')에서 화소점 밝기 농도에 관한 5단위 평균값으로 평활화한 히스토그램을 통해서 적당한 굴곡점을 찾는다(225).Next, an appropriate bending point is found through a histogram smoothed to a 5-unit average value of pixel point brightness concentrations in the concentric region DC ′ excluding the pupil (225).

다음으로, 화소점들의 농도를 상기 굴곡점의 화소농도를 기준으로 하여 이진 화한다(226). 보다 구체적으로, 굴곡점의 화소농도 이하인 화소점들의 농도를 1(블랙 포인트)로, 화소점 밝기 농도가 굴곡점의 화소농도 이상인 화소점들의 농도를 0(화이트 포인트)으로 이진화한다.Next, the concentration of the pixel points is binarized based on the pixel concentration of the bending point (226). More specifically, the density of pixel points that are less than or equal to the pixel concentration of the bending point is binarized to 1 (black point), and the concentration of pixel points whose pixel point brightness concentration is equal to or greater than the pixel concentration of the bending point is binarized to 0 (white point).

다음으로, 동공 제외된 동심원 영역(DC')의 화소점에 대한 좌표평균점(

Figure 112005011633632-PAT00030
)을 구한다(227). Next, the coordinate average point (P) of the pixel point of the concentric circle DC 'excluding the pupil (
Figure 112005011633632-PAT00030
(227).

다음으로, 동공영역의 좌표평균점(

Figure 112005011633632-PAT00031
)과 동공 제외된 동심원 영역의 좌표평균점(
Figure 112005011633632-PAT00032
)을 연결하는 제 1 직선(
Figure 112005011633632-PAT00033
) 및 좌표평균점(
Figure 112005011633632-PAT00034
)과 좌표평균점(
Figure 112005011633632-PAT00035
)의 중점(
Figure 112005011633632-PAT00036
)을 지나고 상기 제 1 직선(
Figure 112005011633632-PAT00037
)에 수직하는 제 2 직선(
Figure 112005011633632-PAT00038
)을 구한다(228).Next, the coordinate mean point of the pupil area (
Figure 112005011633632-PAT00031
) And the coordinate mean point of the concentric
Figure 112005011633632-PAT00032
First straight line connecting the
Figure 112005011633632-PAT00033
) And coordinate mean points (
Figure 112005011633632-PAT00034
) And the coordinate mean point (
Figure 112005011633632-PAT00035
) Emphasis
Figure 112005011633632-PAT00036
Past the first straight line (
Figure 112005011633632-PAT00037
2nd straight line perpendicular to)
Figure 112005011633632-PAT00038
(228).

다음으로, 상기 단계 228에서 구한 상기 제 1 직선(

Figure 112005011633632-PAT00039
)과 제 2 직선(
Figure 112005011633632-PAT00040
)을 통하여 동공 제외된 동심원 영역(DC')을 4개의 영역(DC'1, DC'2, DC'3, DC'4)으로 분할하고, 각각의 분할된 영역에 대한 좌표평균점을 구하고, 좌표평균점중 렉시코그래픽 순서가 가장 작은 점을 포함하는 영역을 데이터 추출 영역(DF'1)으로 설정한다(229). 여기에서, 각각의 분할된 영역에 대한 좌표평균점을 구하는 것은 상기 수학식 3을 참조로 한다.Next, the first straight line obtained in the step 228 (
Figure 112005011633632-PAT00039
) And the second straight line (
Figure 112005011633632-PAT00040
The concentric circle DC 'excluding the pupil is divided into four regions DC'1, DC'2, DC'3, and DC'4, and the coordinate average point for each divided region is obtained. An area including the point with the smallest lexicographic order among the average points is set as the data extraction area DF'1 (229). Here, to obtain the coordinate average point for each divided region, refer to Equation 3 above.

이와 같이 설정된 데이터 추출 영역(DF'1)에서 홍채인식을 이용한 보안 방법 을 위한 위상기하학적 데이터를 추출하게 된다.The topological data for the security method using the iris recognition is extracted from the data extraction region DF'1 configured as described above.

도 2b에서는 동공 제외된 동심원 영역(DC')을 4개의 영역(DC'1, DC'2, DC'3, DC'4)으로 분할하여 각각의 분할된 영역에 대한 좌표평균점중 렉시코그래픽 순서가 가장 작은 점을 포함하는 영역을 데이터 추출 영역(DF'1)으로 설정하는 것을 보였다. 나아가, 데이터 추출 영역(DF'1)을 상기 중점(

Figure 112005011633632-PAT00041
)과 분할된 영역의 좌표평균점을 지나는 직선을 통하여 2등분하고, 2등분된 영역의 각각에 대한 좌표평균점중 렉시코그래픽 순서가 가장 작은 점을 포함하는 영역을 데이터 추출 영역(DF'2)로 다시 설정할 수 있다. 이와 같은 동작을 반복적으로 수행함으로써 데이터 추출 영역(DF'n)의 범위를 좁혀나갈 수 있게 된다. 홍채인식을 이용한 보안 장치별로 해당하는 소정 범위까지 분할하여 그 중 해당하는 데이터 추출 영역을 설정할 수 있게 된다. 즉, 보안 장치별로 속도 및 처리의 정확성을 고려하여 필요한 범위까지 분할하여 데이터 추출 영역을 설정하게 된다.In FIG. 2B, the lexical order of the coordinate mean points of the divided regions is divided by dividing the concentric circle DC 'excluding the pupil into four regions DC'1, DC'2, DC'3, and DC'4. Has shown that the region containing the smallest dot is set as the data extraction region DF'1. Further, the data extraction area DF'1 is referred to as the midpoint (
Figure 112005011633632-PAT00041
) And the region containing the smallest lexicographic order among the coordinate average points for each of the divided areas as the data extraction area (DF'2) through a straight line passing through the coordinate mean points of the divided areas. You can reset it. By repeatedly performing such an operation, the range of the data extraction area DF'n can be narrowed. It is possible to set a corresponding data extraction area by dividing a predetermined range corresponding to each security device using iris recognition. That is, the data extraction area is set by dividing the security device into necessary ranges in consideration of speed and processing accuracy.

또한, 도 2b에서는 동공 제외된 동심원 영역(DC')을 4개의 영역(DC'1, DC'2, DC'3, DC'4)으로 분할하여 분할된 영역의 각각에서 좌표평균점중 렉시코그래픽 순서가 가장 작은 점을 포함하는 영역을 데이터 추출 영역(DF'1)으로 설정하는 것으로 설명하였으나, 단계 223에서 설정된 동공 제외된 동심원 영역(DC')을 데이터 추출 영역으로 설정할 수 있다. 보다 구체적으로, 동공 제외된 동심원 영역(DC')을 데이터 추출 영역으로 하는 것이 도 10에 나타나 있고, 동공 제외된 동심원 영역(DC')을 분할하여 분할된 영역중에서 해당하는 영역을 데이터 추출 영역으로 하는 것이 도 11에 나타나 있다.In addition, in FIG. 2B, the concentric circle DC 'excluding the pupil is divided into four regions DC'1, DC'2, DC'3, and DC'4. Although the region including the points having the smallest order is set as the data extraction region DF'1, the pupil-excluded concentric region DC 'set in step 223 may be set as the data extraction region. More specifically, it is shown in FIG. 10 that the pupil-excluded concentric region DC 'is a data extraction region, and the corresponding region is divided into the data extraction region by dividing the pupil-excluded concentric region DC'. It is shown in FIG.

도 10은 본 발명에 따른 상기 도 2b의 과정을 통하여 데이터 추출 영역을 설정하는 한 실시예를 보이고 있다. 도 10을 참조하면, 인간의 눈을 촬영한 영상으로써, 참조번호 1001은 눈썹선을 나타내고 있다. 따라서 위 참조번호 1001이 나타내는 선의 상부는 실제영상에서는 촬영되지 않는 부분이다. 그리고, 참조번호 1002는 동공선을 나타내며, 참조번호 1003은 자율신경선을 나타내고 있으며, 참조번호 1004, 1005, 1006, 1007 및 1008은 홍채에 존재하는 열공선을 나타내고 있으며, 참조번호 1009는 눈동자의 모서리를 나타내고 있으며, 참조번호 1010은 데이터 추출 영역으로 설정된 영역을 보이고 있다. 참조번호 1011은 동심원 영역(DC)을 나타낸다. 도 10에서는 동심원 영역(DC)중에서 동공부분이 제외된 동공 제외된 동심원 영역(DC')이 데이터 추출 영역으로 설정되어 있는 것을 볼 수 있다.FIG. 10 illustrates an embodiment of setting a data extraction region through the process of FIG. 2B according to the present invention. Referring to FIG. 10, reference numeral 1001 denotes an eyebrow line as an image of a human eye. Therefore, the upper portion of the line indicated by the reference number 1001 is a portion that is not photographed in the actual image. Reference numeral 1002 denotes a pupillary line, reference numeral 1003 denotes an autonomic nerve line, reference numerals 1004, 1005, 1006, 1007, and 1008 denote hot air lines present in the iris, and reference numeral 1009 denotes a pupil of the pupil. An edge is shown, and reference numeral 1010 shows an area set as a data extraction area. Reference numeral 1011 denotes a concentric circle area DC. In FIG. 10, it can be seen that the pupil-excluded concentric region DC ′ in which the pupil portion is excluded from the concentric region DC is set as the data extraction region.

도 11은 본 발명에 따른 상기 도 2b의 과정을 통하여 데이터 추출 영역을 설정하는 다른 실시예를 보이고 있다. 도 11를 참조하면, 인간의 눈을 촬영한 영상으로써, 참조번호 1101은 눈썹선을 나타내고 있다. 따라서 위 참조번호 1101이 나타내는 선의 상부는 실제영상에서는 촬영되지 않는 부분이다. 그리고, 참조번호 1102는 동공선을 나타내며, 참조번호 1103은 자율신경선을 나타내고 있으며, 참조번호 1104, 1105, 1106, 1107 및 1108은 홍채에 존재하는 열공선을 나타내고 있으며, 참조번호 1109는 눈동자의 모서리를 나타내고 있으며, 참조번호 1110은 데이터 영역으로 설정된 영역을 보이고 있다. 참조번호 1111은 동심원 영역(DC)을 나타낸다. 도 11에서는 동공 제외된 동심원 영역(DC')을 분할하고, 분할된 동심원 영역의 각 각에 대한 좌표평균점중 렉시코그래픽 순서가 가장 작은 점을 포함하는 영역이 데이터 추출 영역으로 설정되어 있는 것을 볼 수 있다.FIG. 11 shows another embodiment of setting a data extraction region through the process of FIG. 2B according to the present invention. Referring to FIG. 11, an image of a human eye is denoted by reference numeral 1101 to denote an eyebrow line. Therefore, the upper portion of the line indicated by the reference number 1101 is a portion that is not photographed in the actual image. Reference numeral 1102 denotes a pupillary line, reference numeral 1103 denotes an autonomic nerve line, reference numerals 1104, 1105, 1106, 1107, and 1108 denote hot air lines present in the iris, and reference numeral 1109 denotes a pupil of the pupil. An edge is shown and reference numeral 1110 denotes an area set as a data area. Reference numeral 1111 denotes a concentric circle area DC. In FIG. 11, it is shown that the concentric circle DC 'excluding the pupil is divided, and an area including a point having the smallest lexicographic order among the coordinate average points for each of the divided concentric circle areas is set as the data extraction area. Can be.

도 3은 도 2에서 설정된 데이터 추출 영역으로부터 위상기하학적 분석정보를 생성하는 과정을 보이고 있다. 도 3을 참조하면, 먼저, 입력받은 홍체 영상정보로부터 설정된 데이터 추출 영역을 구성하는 화소점들을 각각 분해한다(301).FIG. 3 illustrates a process of generating topological analysis information from the data extraction region set in FIG. 2. Referring to FIG. 3, first, pixel points constituting a data extraction region set from input iris image information are decomposed (301).

다음으로, 상기 단계 301에서 분해하여 얻어진 화소점들에 대한 위상기하학적 특징정보를 획득하게 된다(302). 여기에서, 위상기하학적 특징정보로는 상기 분해된 화소점에 대한 개수 정보, 상기 분해된 화소점 주위를 둘러싸고 있는 모서리에 대한 화소점 모서리 정보 및 상기 분해된 화소점 모서리에 나타나는 꼭지점에 대한 화소점 꼭지점 정보에 관한 것이다.Next, in operation 302, topological feature information about pixel points obtained by decomposition is obtained. Here, the topological feature information includes number information on the decomposed pixel point, pixel point edge information on an edge surrounding the decomposed pixel point, and pixel point vertex on a vertex appearing on the decomposed pixel point edge. It's about information.

보다 구체적으로, 설정된 데이터 추출 영역에 화소점이 n개 있는 경우에 대하여 살펴보면, 화소점에 대한 개수 정보는 각각의 화소점들을 P(1), P(2), ... , P(n)으로 설정하고, 화소점 경계 정보는 각각의 경계선을 B(1), B(2), ... , B(4n)으로 설정하고, 화소점 꼭지점 정보는 각각의 꼭지점을 V(1), V(2), ... , V(4n)으로 설정한다.More specifically, the case in which n pixel points exist in the set data extraction region, the number information for the pixel points is determined as P (1), P (2), ..., P (n). The pixel point boundary information sets each boundary line to B (1), B (2), ..., B (4n), and the pixel point vertex information sets each vertex to V (1), V ( 2), ..., V (4n).

이때 상기 경계선들 B(1), B(2), ... , B(4n) 과 상기 꼭지점들 V(1), V(2), ... , V(4n)은 각기 중복회수를 가지게 된다. 즉, 특정 경계선 B(i)가 B(1), B(2), ... , B(4n)중에서 1회만 나타나면 중복도는 0으로 2회 나타나면 중복도는 1로 한다. 같은 방법으로 꼭지점 V(i)가 V(1), V(2), ... , V(4n)중에서 1회만 나타나면 중복도는 0으로 2회 나타나면 중복도는 1회, 3회 나타나면 중복도는 2 그리고 4회 나타나면 중복도는 3으로 한다.In this case, the boundary lines B (1), B (2), ..., B (4n) and the vertices V (1), V (2), ..., V (4n) have respective overlapping times. do. In other words, if a specific boundary B (i) appears only once in B (1), B (2), ..., B (4n), the degree of redundancy is 0, and the degree of redundancy is 1. In the same way, if vertex V (i) shows only one time among V (1), V (2), ..., V (4n), the degree of redundancy will appear as 0 and the degree of redundancy will appear once and the third time. Is 2 and 4 times, the redundancy is 3.

여기에서, 상기 위상기하학적 특징정보를 생성하는 위상기하학적 모델 함수는, 상기 화소점 개수 정보를 통하여 상기 화소점 총 개수인 제 1 함수(A(D)), 상기 제 1 함수 결과값에 4를 곱한 후 상기 화소점 경계선 정보를 통하여 얻은 경계선들의 중복도의 총합에 2를 곱한 값을 빼는 제 2 함수(P(D)), 상기 제 1 함수 결과값에 상기 화소점 경계선 정보를 통하여 얻은 경계선들의 중복도의 총합을 더해준 후 상기 화소점 꼭지점 정보를 통하여 얻은 꼭지점들의 중복도의 총합을 빼는 제 3 함수(E(D))로 이루어져 있다.Here, the topological model function for generating the topological feature information is obtained by multiplying the first function A (D), which is the total number of pixel points, and the result of the first function 4 by the number of pixel points. A second function P (D) is obtained by subtracting a sum of the redundancies of the boundary lines obtained through the pixel point boundary information and multiplying by two, and the overlapping of the boundary lines obtained through the pixel point boundary information to the result of the first function. After the sum of the figures is added, the third function E (D) subtracts the sum of the degree of redundancy of the vertices obtained through the pixel vertex information.

즉, 제 1 함수(A(D)), 제 2 함수(P(D)) 및 제 3 함수(E(D))는 각각 수학식 5, 수학식 6 및 수학식 7과 같다.That is, the first function A (D), the second function P (D), and the third function E (D) are as shown in Equations 5, 6, and 7, respectively.

A(D) = D에서의 화소점들의 총 개수 A (D) = total number of pixel points at D

Figure 112005011633632-PAT00042
P(D) = 4 * A(D) - 2 *
Figure 112005011633632-PAT00042
P (D) = 4 * A (D)-2 *

여기에서, b(i) = B(i)의 중복도Where b (i) = redundancy of B (i)

Figure 112005011633632-PAT00043
Figure 112005011633632-PAT00044
E(D) = - + A(D)
Figure 112005011633632-PAT00043
Figure 112005011633632-PAT00044
E (D) =-+ A (D)

여기에서, b(i) = B(i)의 중복도, v(i) = V(i)의 중복도Where b (i) = B (i) redundancy, v (i) = V (i) redundancy

보다 구체적으로 일 예를 들면, 가로 3개 세로 3개가 연결되어 있는 화소점들에 대하여 제 1 함수, 제 2 함수 및 제 3 함수 결과값을 구하면 다음과 같다. 제 1 함수의 결과값은 상기 수학식 5에 따라 화소점들의 총 개수인 9이다. 제 2 함수 결과값은 상기 수학식 6에 따라 제 1 함수 결과값인 9에 4를 곱한 값에 B(i)의 중복도인 12에 2를 곱한 값을 뺀 12이다. 제 3 함수 결과값은 B(i)의 중복도인 12에 V(i)의 중복도인 20을 빼고 제 1 함수 결과값인 9를 더한 1이다. More specifically, for example, when the result values of the first function, the second function, and the third function are obtained with respect to the pixel points having three horizontal and three vertical pixels, they are as follows. The result value of the first function is 9, which is the total number of pixel points according to Equation 5. According to Equation 6, the second function result value is 12 minus the value obtained by multiplying 2, which is the degree of redundancy of B (i), by multiplying 9, which is the first function result value, by 4. The result of the third function is 1 by subtracting 20, which is the degree of redundancy of V (i), and 12, which is the degree of redundancy of B (i), plus 9, the result of the first function.

보다 구체적으로 다른 일 예를 들면, 가로 3개 세로 3개가 연결되어 있는 화소점들 중에서 가운데 화소점이 비어 있는 경우에 대하여 제 1 함수, 제 2 함수 및 제 3 함수 결과값을 구하면 다음과 같다. 제 1 함수의 결과값은 상기 수학식 5에 따라 화소점들의 총 개수인 8이다. 제 2 함수 결과값은 상기 수학식 6에 따라 제 1 함수 결과값인 8에 4를 곱한 값에 B(i)의 중복도인 8에 2를 곱한 값을 뺀 16이다. 제 3 함수 결과값은 B(i)의 중복도인 8에 V(i)의 중복도인 16을 빼고 제 1 함수 결과값인 8를 더한 0이다.More specifically, for example, the result of the first function, the second function, and the third function is obtained as to the case where the pixel point among the pixel points to which three horizontal and three vertical pixels are connected is empty. The result of the first function is 8, which is the total number of pixel points according to Equation 5. According to Equation 6, the second function result value is 16 minus the value obtained by multiplying 8, which is the degree of redundancy of B (i), by 2, by multiplying 8, which is the first function result, by 4. The third function result value is 0 by subtracting 16, which is the degree of redundancy of V (i), from 8, which is the degree of redundancy of B (i), and adding 8, the result of the first function.

다음으로, 상기 단계 302에서 획득된 위상기하학적 특징정보를 사용자 인증정보를 생성하는 사용자 인증 함수에 입력하여 홍채인식 시스템에 비교 데이터로 이용되는 사용자 인증정보를 생성한다(303).Next, the topological feature information obtained in step 302 is input to a user authentication function for generating user authentication information to generate user authentication information used as comparison data in the iris recognition system (303).

여기에서, 사용자 인증정보를 생성하기 이전에 제 1 함수 결과값과 제 2 함수 결과값을 통하여 제 4 함수(S(D))에 입력하여 제 4 함수 결과값을 구하고, 구해진 제 4 함수 결과값이 소정의 범위내에 있는지 여부를 판단하는 위상기하학적 분 석정보를 설정하기 위한 전처리 과정을 더 수행할 수 있다. 여기에서, 제 4 함수(S(D))는 상기 제 2 함수 결과값을 제곱한 후 상기 제 1 함수 결과값에 16을 곱하여 나누어 주는 함수이다.Here, before generating the user authentication information, a fourth function result value is obtained by inputting the fourth function S (D) through the first function result value and the second function result value, and the obtained fourth function result value. A preprocessing process for setting the topological analysis information for determining whether or not it is within this predetermined range may be further performed. Here, the fourth function S (D) is a function of multiplying the result of the first function by multiplying it by 16 after multiplying the result of the second function.

즉, 제 4 함수(S(D))는 수학식 8과 같다.That is, the fourth function S (D) is shown in Equation 8.

S(D) = (P(D)*P(D))/(16*A(D))S (D) = (P (D) * P (D)) / (16 * A (D))

상기에서 살펴본 보다 구체적인 일 예에서, 제 4 함수 결과값은 제 2 함수 결과값인 12를 제곱하고 이를 제 1 함수 결과값인 9에 16를 곱한 값으로 나누어준 1 이다.In a more specific example as described above, the fourth function result is 1 divided by the square of 12, which is the second function result, and multiplied by 9, which is the first function result.

상기에서 살펴본 보다 구체적으로 다른 일 예에서, 제 4 함수 결과값은 제 2 함수 결과값인 16을 제곱하고 이를 제 1 함수 결과값인 8에 16을 곱한 값으로 나누어준 2이다.More specifically, in another example as described above, the fourth function result value is 2 obtained by multiplying the second function result value 16 by multiplying the first function result value 8 by 16.

이와 같이, 먼저 제 4 함수(S(D))를 통하여 비교본이 원본의 일정 범위 이내(일 예를 들면 40%의 오차 범위 이내)에 들어가는지 판단하고, 상기 일정 범위 이내에 들어간다고 판단되는 경우에 사용자 인증정보를 생성하는 과정을 수행한다. 한편, 일정 범위 이내에 들어가지 않는다고 판단되는 경우에 사용자 인증정보를 생성하는 과정을 수행하지 않고 종료하게 된다.In this manner, first, it is determined whether the comparison copy falls within a predetermined range (for example, within an error range of 40%) of the original through the fourth function S (D), and when it is determined to fall within the predetermined range. A process of generating user authentication information is performed. On the other hand, if it is determined that it does not fall within a certain range is terminated without performing the process of generating the user authentication information.

수학식 8에서와 같이 사용자 인증정보를 생성하기 위한 전처리 과정에서 일정 범위 이내에 들어간다고 판단되는 경우에, 제 1 함수 결과값, 제 2 함수 결과값 및 제 3 함수 결과값을 소정의 사용자 인증 함수에 입력하여 나오는 결과값을 홍채 인식을 위한 사용자 인증정보로 설정한다.When it is determined to fall within a predetermined range in the preprocessing process for generating user authentication information as shown in Equation 8, the first function result value, the second function result value and the third function result value are input to a predetermined user authentication function. Set the result value as user authentication information for iris recognition.

상기 소정의 사용자 인증 함수는 수학식 9에서 보는 바와 같다. 수학식 9에서 임의의 상수값 x는 가중치를 부여하는 역할을 수행한다.The predetermined user authentication function is as shown in equation (9). In Equation 9, an arbitrary constant value x serves to give a weight.

Figure 112005011633632-PAT00045
Figure 112005011633632-PAT00045

(여기에서, x는 임의의 상수값)Where x is any constant value

수학식 9에서는 제 1 함수(A(D)), 제 2 함수(P(D)), 제 3 함수(E(D))의 결과값을 상기 수학식 9에 입력하여 생성되는 결과값을 사용자 인증정보로 사용하게 된다. 수학식 9에서 x는 0, 1 및 2, 즉 F(0), F(1) 및 F(2)를 소정의 사용자 인증 함수로 사용하는 것이 바람직하다.In Equation 9, a result value generated by inputting a result value of the first function A (D), the second function P (D), and the third function E (D) into Equation 9 is used. It will be used as authentication information. In Equation 9, x is preferably 0, 1 and 2, that is, F (0), F (1) and F (2) as a predetermined user authentication function.

도 4는 본 발명에 따라서 원본 등록자별 기준 광도값에 대응되는 원본 데이터를 저장한 데이터 구조의 바람직한 실시예를 보이고 있다. 도 4를 참조하면, 본 발명에 따라서 원본 등록자별 기준 광도값에 대응되는 원본 데이터를 저장한 데이터구조의 바람직한 실시예를 보이고 있다. 여기서 원본 데이터에는 도 2a와 도 2b에서 설정된 데이터 추출 영역에서 구한 위상기하학적 분석정보를 포함하고 있으나, 필요에 따라서는 위 위상기하학적 분석정보중에서 일부만을 선택하여 사용할 수 있다. 즉, 인증의 정확도 또는 처리 속도 등을 감안하여 적절히 선택할 수 있는 것이다.4 illustrates a preferred embodiment of a data structure storing original data corresponding to reference luminance values for each original registrant according to the present invention. Referring to Figure 4, according to the present invention shows a preferred embodiment of a data structure for storing the original data corresponding to the reference luminance value for each original registrant. The original data includes the topological analysis information obtained from the data extraction region set in FIGS. 2A and 2B, but only a part of the topological analysis information may be selected and used as necessary. In other words, it can be appropriately selected in consideration of the accuracy or processing speed of authentication.

도 5는 본 발명에 따라 홍채인식을 이용한 보안 방법을 보이고 있다. 도 5를 참조하면, 먼저, 소정의 값들을 갖는 기준 광도값에 대응되는 원본 데이터를 생성시켜 저장한다(501).5 shows a security method using iris recognition in accordance with the present invention. Referring to FIG. 5, first, original data corresponding to a reference luminance value having predetermined values is generated and stored (501).

다음으로, 신원을 확인할 사람의 홍채 영상정보에 대응되는 위상기하학적 정보들의 비교본 데이터를 생성한다(502).Next, comparative data of topological geometric information corresponding to the iris image information of the person to be identified is generated (502).

다음으로, 원본 데이터와 비교본 데이터를 비교하여 신원을 확인할 사람이 이미 홍채인식을 이용한 보안 장치에 등록된 사용자인지 여부를 확인함으로써 신원을 검증한다(503).Next, the identity is verified by comparing the original data with the comparative data and confirming whether the person whose identity is confirmed is a user who is already registered in the security device using iris recognition (503).

이때 위 과정에는 신원을 확인할 사람의 홍채 영상을 각기 다른 광도에서 두 번 얻고 위 얻어진 홍채 영상정보의 동공 화소수 등을 비교하여 두 홍채 영상 간에 차이점이 없으면, 위 신원을 확인할 사람이 무생물체로 간주하여 위 검증을 실패 처리하는 과정을 추가로 더 포함시킬 수 있다.In this process, the iris image of the person to be identified is obtained twice at different luminosities, and the number of pupil pixels of the iris image information obtained above is compared, and if there is no difference between the two iris images, the person to be identified is regarded as an inanimate object. The process of failing the above verification can be further included.

도 6은 본 발명에 따라 원본 데이터와 비교본 데이터에 기초하여 신원을 확인하는 과정을 보이고 있다. 도 6을 참조하면, 먼저, 원본 데이터의 기준 광도값 중에서 비교본 데이터의 광도값과 동일한 값을 갖는 것이 있는지 여부를 판단한다(601). 6 illustrates a process of verifying an identity based on original data and comparative data according to the present invention. Referring to FIG. 6, first, it is determined whether there is any reference luminance value of the original data having the same value as that of the comparative data.

다음으로, 상기 601 단계에서의 판단결과 동일한 값이 없는 경우에는 위 기준값들 중 비교본 데이터의 광도값보다 크고 가장 근접되는 기준값(

Figure 112005011633632-PAT00046
)을 선정한다(602). 그리고 위 기준값들 중에서 비교본 데이터의 광도값보다 작고 가장 근접되는 기준값(
Figure 112005011633632-PAT00047
)을 설정한다(603). Next, when there is no identical value as a result of the determination in step 601, the reference value that is larger than the luminance value of the comparative data and is closest to the reference value (
Figure 112005011633632-PAT00046
(602). Among the above reference values, the reference value that is smaller than the luminance value of the comparative data and is closest
Figure 112005011633632-PAT00047
(603).

다음으로, 원본 데이터를 등록시킨 원본 등록자 중 소정 등록자의 기준값(

Figure 112005011633632-PAT00048
)및 기준값(
Figure 112005011633632-PAT00049
)에 대응되는 원본 데이터들과 위 비교본 데이터 간의 차이값들을 구한다(604).Next, the reference value of the predetermined registrant among the original registrants who registered the original data (
Figure 112005011633632-PAT00048
) And reference value (
Figure 112005011633632-PAT00049
Difference values between the original data corresponding to the reference data) and the comparison data are obtained (604).

다음으로, 위 차이값들이 위 등록자의 기준값(

Figure 112005011633632-PAT00050
)및 기준값(
Figure 112005011633632-PAT00051
)에 대응되는 원본 데이터간의 차이보다 큰지 여부를 판단한다(605). 상기 605 단계의 판단결과 참인 경우에는 모든 원본 등록자에 대하여 위 참조번호 604 단계 및 605 단계를 수행하였는지 여부를 판단한다(606). 상기 참조번호 606 단계의 판단결과 모든 원본 등록자들에 대하여 상기 참조번호 604 단계 및 605 단계를 수행한 것이 아니면 상기 참조번호 604 단계로 이동한다. 한편, 상기 참조번호 606 단계의 판단결과 모든 원본 등록자에 대하여 위 참조번호 604 단계 및 605 단계를 수행한 것이면 위 비교본 데이터에 대응되는 신원확인 신청자가 원본 등록자 중에 포함되지 않은 것으로 판단(즉, 인증이 실패된 것으로 처리)한다(607).Next, the difference values are based on the registrant's reference value (
Figure 112005011633632-PAT00050
) And reference value (
Figure 112005011633632-PAT00051
In step 605, it is determined whether the difference is greater than the difference between the original data corresponding to the " If the determination result of step 605 is true, it is determined whether the reference numerals 604 and 605 are performed for all original registrants (606). If it is determined in step 606 that all the original registrants have not performed steps 604 and 605, the process moves to step 604. On the other hand, if the determination result of step 606 refers to the steps 604 and 605 of all the original registrants, it is determined that the applicant for identity verification corresponding to the comparative data is not included among the original registrants (that is, authentication Process as failed (607).

한편, 상기 참조번호 605 단계에서 판단한 결과 위 차이값들이 위 등록자의 기준값(

Figure 112005011633632-PAT00052
)및 기준값(
Figure 112005011633632-PAT00053
)에 대응되는 원본 데이터간의 차이보다 작은 경우에는 위 비교본에 대응되는 신원 확인 신청자가 위 원본 데이터들에 대응되는 원본 등록자와 동일인인 것으로 판단(즉, 인증이 성공한 것으로 처리)한다(608).On the other hand, as a result of the determination in step 605 the difference values are the reference value of the registrant (
Figure 112005011633632-PAT00052
) And reference value (
Figure 112005011633632-PAT00053
If less than the difference between the original data corresponding to the), the identity verification applicant corresponding to the comparison is determined to be the same as the original registrant corresponding to the original data (ie, the authentication is successful) (608).

또한 한편, 상기 참조번호 601 단계의 판단결과 비교본의 광도값과 동일한 원본 데이터의 기준 광도값이 있는 경우에는 위 기준 광도값에 대응되는 원본 데이 터 중 위 비교본 데이터와 일치하는 것이 있는지 여부를 판단한다(609, 610). 상기 참조번호 609 단계의 판단결과 양자가 일치하는 것이 있는 경우에는 참조번호 608로 이동한다.On the other hand, if there is a reference luminance value of the original data that is the same as the luminance value of the comparison copy as a result of the determination in step 601, whether the original data corresponding to the reference luminance value matches the above comparison data. Decisions are made (609, 610). If the result of the determination at step 609 is the same, the process moves to reference numeral 608.

도 7a는 본 발명에 따라 홍채인식을 이용한 보안 장치의 바람직한 실시예에 대한 블럭도이다. 도 7a를 참조하면, 먼저, 입력부(708)는 사용자로부터 소정의 동작명령, 촬영부(701)에서 촬영되는 홍채 영상정보가 원본 데이터인지 또는 비교본 데이터인지 여부에 관한 구별정보, 그리고 위 홍채 영상정보가 원본 데이터인 경우에는 그에 대응되는 원본 등록자를 식별할 수 있는 식별정보(예를 들면 이름, 주민등록번호등의 고유코드, 주소 등의 개인식별정보)를 입력받는다. 여기에서, 상기 소정의 동작명령은 소정의 동작버튼, 소정의 센서 등을 통하여 입력받을 수 있다.Figure 7a is a block diagram of a preferred embodiment of a security device using iris recognition in accordance with the present invention. Referring to FIG. 7A, first, the input unit 708 determines a predetermined operation command from a user, distinguishing information on whether the iris image information captured by the photographing unit 701 is original data or comparative data, and the iris image. When the information is original data, identification information (for example, personal identification information such as a name, a social security number, an address, etc.) for identifying the original registrant corresponding thereto is received. Here, the predetermined operation command may be input through a predetermined operation button, a predetermined sensor, or the like.

촬영부(701)는 입력부(708)로부터 위 동작명령을 제공받아 동작되며, 원본 데이터에 대응되는 원본 등록자 또는 비교본 데이터에 대응되는 신원확인 신청자의 홍채를 촬영하여 홍채 영상정보를 발생시킨다. 또한, 위 촬영시의 광도를 측정하여 광도값 정보를 발생시킨다. 또한 상기 입력부(708)로부터 위 구별정보를 제공받고, 위 구별정보가 위 홍채 영상정보가 비교본 데이터인 경우에는 위 홍채 영상정보 외에 위 신원확인 신청자의 홍채를 위 홍채 영상정보에 대응되는 광도값과 다른 광도값을 갖는 환경에서 다시 촬영하여 발생된 제 2 홍채 영상정보를 발생시킨다.The photographing unit 701 is operated by receiving the operation command from the input unit 708, and generates iris image information by photographing the iris of the original registrant corresponding to the original data or the identification applicant corresponding to the comparative copy data. In addition, by measuring the luminous intensity at the time of the above shooting to generate luminous intensity value information. In addition, when the distinguishing information is received from the input unit 708, and the distinguishing information is the above iris image information, the luminance value corresponding to the above iris image information and the above iris image information is applied to the iris image information. The second iris image information generated by photographing again in an environment having a brightness value different from that of the second iris image is generated.

데이터 영역 설정부(702)는 상기 촬영부(701)로부터 위 홍채 영상정보, 그에 대응되는 광도값을 제공받는다. 또한, 입력부(708)로부터 제공받은 위 구별정보를 분석한 결과 위 홍채 영상정보가 비교본 데이터로 인식되는 경우에는 위 촬영부 (701)로부터 위 제 2 홍채 영상정보를 추가로 제공받고, 입력부(708)로부터 위 식별정보를 제공받는다. 그리고 위 홍채 영상정보 및 위 제 2 홍채 영상정보의 홍채 영상 중 일부 영역을 데이터 영역으로 설정한다. 상기 데이터 영역 설정부(702)와 관련되어서는 도 7b에서 보다 자세히 살펴보기로 한다.The data area setting unit 702 receives the upper iris image information and a luminance value corresponding thereto from the photographing unit 701. In addition, when analyzing the distinguishing information provided from the input unit 708, when the iris image information is recognized as the comparative data, the second iris image information is additionally provided from the photographing unit 701, and the input unit ( 708) the above identification information is provided. A portion of the iris image of the iris image information and the second iris image information is set as the data region. The data region setting unit 702 will be described in more detail with reference to FIG. 7B.

홍채 정보 생성부(703)는 위 데이터 영역 설정부(702)로부터 위 구별정보, 광도값, 홍채 영상정보 및 그에 대응되는 데이터영역 설정정보, 위 구별정보가 비교본 데이터로 설정된 경우에는 제 2 홍채 영상정보 및 그에 대응되는 데이터 영역 설정정보 및 식별정보를 제공받는다. 그리고 위 홍채 영상정보 및 그 데이터 설정정보에 기초하여 홍채 영상의 특징정보들을 생성시킨다. 여기서 홍채 영상의 특징정보는 데이터 영역으로부터 얻어진 위상기하학적 분석 데이터들을 포함한다. 그리고 위 구별정보가 비교본 데이터로 설정되어 있는 경우에는 제 2 홍채 영상정보 및 그 데이터 설정정보에 기초하여 그에 대응되는 특징정보를 생성시킨다.The iris information generating unit 703 may set the second iris when the distinguishing information, the brightness value, the iris image information and the corresponding data region setting information, and the distinguishing information are set as the comparative data from the data region setting unit 702. Image information, data area setting information, and identification information corresponding thereto are provided. And based on the iris image information and the data setting information, the characteristic information of the iris image is generated. The feature information of the iris image includes topological analysis data obtained from the data area. When the distinguishing information is set as the comparative copy data, feature information corresponding to the second iris image information and the data setting information is generated.

또한 위 구별정보를 분석하여 위 홍채 영상정보가 원본 데이터인 경우에는 식별정보, 위 광도값 및 홍채 영상정보들을 원본 데이터 관리부(704)로 전송하고, 위 홍채 영상정보가 비교본 데이터인 경우에는 위 광도값, 홍채 특징정보, 제 2 홍채 특징정보를 생명체 확인부(705)로 전송한다.In addition, if the iris image information is the original data by analyzing the distinguishing information, the identification information, the brightness value, and the iris image information are transmitted to the original data management unit 704, and when the iris image information is the comparative data, The luminance value, the iris characteristic information, and the second iris characteristic information are transmitted to the living body identification unit 705.

원본 데이터 관리부(704)는 위 홍채 정보 생성부(703)로부터 식별정보, 광도값, 홍채 영상 특징정보들을 전송받아 데이터베이스인 원본 데이터 저장부(709)에 저장한다.The original data management unit 704 receives the identification information, the brightness value, and the iris image characteristic information from the iris information generation unit 703 and stores it in the original data storage unit 709 which is a database.

생명체 확인부(705)는 위 홍채 정보 생성부(703)로부터 광도값, 홍채 특징정 보, 제 2 홍채 특징정보를 제공받고, 위 홍채 특징정보와 제 2 홍채 특징정보를 비교하여 양자가 동일한 경우에는 위 비교본 데이터에 대응되는 신원확인 신청자의 홍채를 무생물체로 간주하여 인증실패 정보를 인증 결과정보로 생성시키고 출력부(707)를 통하여 사용자에게 제공한다. 한편, 위 비교결과 위 양자가 동일하지 않은 경우에는 위 광도값, 홍채 특징정보를 인증부(706)에 제공한다.The living body identification unit 705 receives the brightness value, the iris characteristic information, and the second iris characteristic information from the iris information generation unit 703, and compares the iris characteristic information with the second iris characteristic information when both are the same. In the identification of the identification applicant corresponding to the above comparative data as an inanimate object, the authentication failure information is generated as authentication result information and provided to the user through the output unit 707. On the other hand, if the comparison is not the same as the above results, the luminance value, the iris characteristic information is provided to the authenticator 706.

인증부(706)는 위 생명체 확인부(705)로부터 광도값 및 홍채 영상정보를 제공받고, 위 광도값에 대응되는 기준 광도값을 위 원본 데이터 저장부(709)를 검색하여 찾고 위 기준 광도값에 대응되는 원본 데이터(원본등록자의 기준 광도별 홍채 특징정보들)중 위 위상기하학적 분석정보(비교본)에 대응되는 신원확인 신청자의 것으로 볼수 있는 것을 검색한다. 위 검색결과 검색이 성공하면 위 신원확인 신청자를 검색된 원본 등록자로 보고 인증 성공 결과정보를 발생시키고, 위 검색이 실패하면 인증 실패 결과정보를 발생시켜 출력부(707)로 제공한다.The authenticator 706 receives the luminance value and the iris image information from the living organism identification unit 705 and searches the original data storage unit 709 for a reference luminance value corresponding to the luminance value, and searches for the reference luminance value. Search for the original data corresponding to the identification applicant corresponding to the topological geometric analysis information (comparative) among the original data corresponding to the iris characteristic information according to the original brightness of the original registrant. If the search result is successful, the identity verification applicant is reported to the searched original registrant, the authentication success result information is generated, and if the search fails, the authentication failure result information is generated and provided to the output unit 707.

여기서 신원확인 신청자와 동일인으로 볼수 있는 원본 등록자를 검색하는 방법은 위 광도값과 동일한 기준 광도값이 있는 경우에는 기준 광도값에 대응되는 원본 데이터 중 위 위상기하학적 분석정보와 일치하는 것을 검색하여 그 일치하는 원본 데이터에 대응되는 원본 등록자를 위 신원확인 신청자와 동일인으로 본다. 또한 위 광도값과 동일한 기준 광도값이 없는 경우에는 위 광도값보다 크고 작으면서 가장 근접한 기준 광도값 두 개를 구하고, 위 두 개의 기준 광도값에 대응되는 임의의 동일한 원본 등록자의 원본 데이터를 검색하여 위 원본 데이터 간의 차이값과 위 원본 데이터들과 위 위상기하학적 분석정보와의 차이값을 비교하여 원본 데이터 간의 차이값보다 위 원본 데이터들과 위상기하학적 분석정보와의 차이값들이 작은 경우가 있는지 위 원본 데이터 저장부(709)를 검색한다. 위 검색이 성공한 경우에는 위 위상기하학적 분석정보에 대응되는 신원확인 신청자와 원본 데이터들에 대응되는 원본 등록자를 동일인으로 보고 인증 성공 결과정보를 발생시키고, 위 비교결과 그렇지 않은 경우에는 인증 실패 결과정보를 발생시킨다.Here, the method of searching for the original registrant who can be seen as the same person as the identity verification applicant, if there is a reference luminance value equal to the above luminance value, searches for and matches the topological geometric analysis information among the original data corresponding to the reference luminance value. The original registrant corresponding to the original data shall be deemed to be the same person as the applicant. If there is no reference luminance value that is the same as the above luminance value, the two reference luminance values that are larger and smaller than the above luminance values are obtained, and the original data of any same original registrant corresponding to the two reference luminance values is searched. Compares the difference between the original data and the difference between the original data and the topological analysis information. Does the difference between the original data and the topological analysis information be smaller than the difference between the original data? The data storage unit 709 is searched. If the search is successful, the identification applicant corresponding to the topological analysis information and the original registrant corresponding to the original data are regarded as the same person, and the authentication success result information is generated. Generate.

출력부(707)는 위 생명체 확인부(705), 인증부(706)로부터 인증결과 정보를 제공받고, 사용자에게 그 결과를 출력한다.The output unit 707 receives the authentication result information from the living body confirmation unit 705 and the authentication unit 706, and outputs the result to the user.

한편, 본 발명에서는 상기 입력부(708)를 통하여 사용자들로부터 비밀코드들을 입력받아 상기 원본 데이터 저장부(709)에 위 원본 데이터와 함께 위 비밀코드를 함께 등록하여 놓고, 후에 신원확인 대상자로부터 입력받은 비밀코드가 위 등록되어 있는 비밀코드들 중 어느 하나와 동일한지 여부를 판단하는 과정을 더 포함할 수 있다. 이 경우에 위 비밀코드를 통하여 신원이 확인된 신원확인 대상자에 대응되는, 위 원본 데이터 저장부(709)에 저장되어 있는 위상기하학적 분석정보와 위 촬영부(701)를 통하여 위 비밀코드와 함께 위 신원확인 대상자를 촬영하여 얻은 홍채 영상정보를 통하여 얻은 위상기하학적 분석정보가 일치하는 경우에만 위 신원확인 대상자에 대한 인증이 성공한 것으로 처리할 수 있다.Meanwhile, in the present invention, the secret code is received from the users through the input unit 708, and the secret code is registered together with the original data in the original data storage unit 709, and then received from an identity verification target person. The method may further include determining whether the secret code is the same as any one of the registered secret codes. In this case, through the topographic code analysis information stored in the original data storage unit 709 and the photographing unit 701 corresponding to the identity verification subject identified through the secret code, Only when the topological analysis information obtained from the iris image information obtained by photographing the identification subject is consistent, the authentication of the identification subject can be treated as successful.

도 7b는 도 7a의 데이터 영역 설정부를 보다 구체적으로 나타낸 블럭도이다. 도 7b를 참조하면, 눈을 촬영한 영상정보로부터 동공영역과 홍채영역을 분리하는 영역 분리부(710); 상기 영역 분리부(710)에 의하여 분리된 동공영역의 화소점에 대한 상기 동공영역의 좌표평균점을 구하는 제 1 좌표평균점 계산부(711); 상기 동 공영역의 좌표평균점을 중심으로 상기 홍채영역의 일정부분이 포함되도록 동심원 영역을 설정하는 동심원 영역 설정부(712); 상기 영역 분리부(710)를 통하여 상기 동심원 영역에서 동공영역을 제외하여 동공 제외된 동심원 영역을 형성하고, 상기 동공 제외된 동심원 영역의 화소점에 대한 좌표평균점을 구하는 제 2 좌표평균점 계산부(713); 상기 동공영역의 좌표평균점과 상기 동공 제외된 동심원 영역의 좌표평균점에 따라서 상기 동심원 영역을 분할하는 동심원 영역 분할부(714); 및 상기 분할된 동심원 영역중 하나를 홍채인식을 위한 비교영역으로 설정하는 비교영역 설정부(715);를 포함하여 구성된다. 도 7b에서 미설명된 부분은 도 1 내지 도 6을 참조하기로 한다.FIG. 7B is a block diagram illustrating the data area setting unit of FIG. 7A in more detail. Referring to FIG. 7B, an area separator 710 may be configured to separate the pupil area and the iris area from the image information of the eye; A first coordinate average point calculator 711 for obtaining a coordinate average point of the pupil area with respect to pixel points of the pupil area separated by the area separator 710; A concentric circle setting unit (712) for setting a concentric circle area so that a predetermined portion of the iris area is included around the coordinate average point of the pupil area; A second coordinate average point calculator 713 for forming a concentric circle in which the pupil is excluded from the concentric circle through the region separation unit 710, and obtaining a coordinate average point for pixel points of the excluded concentric circle region; ); A concentric circle segmentation unit 714 for dividing the concentric circle region according to a coordinate mean point of the pupil region and a coordinate average point of the excluded concentric circle region; And a comparison area setting unit 715 for setting one of the divided concentric circle areas as a comparison area for iris recognition. Parts not described in FIG. 7B will be described with reference to FIGS. 1 to 6.

도 7c는 도 7a의 홍채 정보 생성부를 보다 구체적으로 나타낸 블럭도이다. 도 7c를 참조하면, 상기 데이터 영역 설정부(702)에 포함되는 화소점들로부터 비교대상이 될 화소점들을 추출하는 비교대상 추출부(720); 상기 비교영역에서 추출된 화소점들에 대한 화소점 개수 정보, 모서리 개수 정보 및 꼭지점 개수 정보에 대한 위상기하학적 특징정보를 추출하는 위상기하학적 특징정보 추출부(721); 상기 추출된 위상기하학적 특징정보를 연산하여 사용자 인증정보를 생성하는 사용자 인증정보 생성부(722); 및 상기 위상기하학적 특징정보를 추출하는 위상기하학적 모델 함수 및 상기 위상기하학적 특징정보로부터 사용자 인증정보를 생성하는 사용자 인증 함수를 저장하는 저장부(723)를 포함한다. 여기에서, 저장부(723)에 저장되는 상기 위상기하학적 모델 함수는 상기 화소점 개수 정보를 통하여 상기 화소점 개수를 모두 더하는 제 1 함수, 상기 화소점 경계선 정보를 통하여 다른 화소점과 접하지 않 는 모서리 개수를 모두 더하는 제 2 함수, 상기 제 1 함수 결과값, 제 2 함수 결과값 및 상기 화소점 꼭지점 정보를 통하여 다수개의 화소점들이 접하여 형성된 영역에 비어 있는 화소점들의 개수에 관한 특징정보인 제 3 함수이고, 및 사용자 인증 함수는 상기 제 1 함수 결과값, 제 2 함수 결과값과 상기 제 3 함수 결과값을 입력값으로 하여 사용자 인증 정보를 생성하는 함수인 것을 특징으로 한다. 도 7c에서의 홍채 정보 생성부(703)는 비교영역 설정부(도 7b 참조)를 포함하고 있지 않은 것으로 설명하고 있으나, 눈을 촬영한 영상정보에서 사용자 인증정보를 추출할 비교영역을 설정하는 비교영역 설정부를 함께 포함하여 구성할 수도 있다. 도 7c에서 미설명된 부분은 도 1 내지 도 6을 참조하기로 한다.FIG. 7C is a block diagram illustrating in detail the iris information generator of FIG. 7A. Referring to FIG. 7C, a comparison object extracting unit 720 extracting pixel points to be compared from pixel points included in the data area setting unit 702; A topological feature information extracting unit 721 for extracting topological feature information on pixel point number information, corner number information, and vertex number information of the pixel points extracted from the comparison area; A user authentication information generation unit 722 for generating user authentication information by calculating the extracted topological feature information; And a storage unit 723 for storing a topological model function for extracting the topological feature information and a user authentication function for generating user authentication information from the topological feature information. Here, the topological model function stored in the storage unit 723 is a first function that adds all the number of pixel points through the pixel point number information, and does not contact other pixel points through the pixel point boundary information. A second function that adds all the number of corners, the first function result value, the second function result value, and the pixel point vertex information, wherein the feature information on the number of empty pixel points in a region formed by contacting a plurality of pixel points And the user authentication function is a function for generating user authentication information using the first function result value, the second function result value, and the third function result value as input values. Although the iris information generation unit 703 in FIG. 7C does not include the comparison area setting unit (refer to FIG. 7B), the comparison setting of the comparison area for extracting the user authentication information from the eye image information is performed. The area setting unit may be included together. Parts not described in FIG. 7C will be described with reference to FIGS. 1 to 6.

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD_ROM, 자기테이프, 플로피디스크 및 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드로 저장되고 실행될 수 있다.The invention can also be embodied as computer readable code on a computer readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD_ROM, magnetic tape, floppy disks, and optical data storage, and may also include those implemented in the form of carrier waves (eg, transmission over the Internet). . The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.

이상에서와 같이 도면과 명세서에서 최적 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사 용된 것은 아니다. 그러므로 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.As described above, optimal embodiments have been disclosed in the drawings and the specification. Although specific terms have been used herein, they are used only for the purpose of describing the present invention and are not intended to limit the scope of the present invention as defined in the claims or the claims. Therefore, those skilled in the art will understand that various modifications and equivalent other embodiments are possible from this. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

본 발명에 따르면 동공영역 및 홍채영역의 좌표와 화소점 밝기 농도를 기준으로 데이터 추출 영역을 설정하고, 그에 포함된 홍채 영상정보를 위상기하학적으로 분석하여 홍채를 인식하므로 촬영대상이 되는 사람의 촬영자세 등에 인식율이 거의 영향을 받지 않는 효과가 있다. According to the present invention, the data extraction area is set based on the coordinates of the pupil area and the iris area and the pixel point brightness concentration, and the iris is recognized by analyzing the iris image information included therein, so as to recognize the iris. There is an effect that the recognition rate is hardly affected.

또한, 다양한 기준 광도값에 대응되는 원본 데이터를 구비하고 있다가 비교 본 영상의 광도값에 대응되는 위상기하학적 분석정보를 이용하여 신원확인을 하므로 촬영시 광도변화가 있어도 오인식율을 현저하게 낮출 수 있으며 광도변화가 있는 다양한 장소에 설치하여 이용할 수 있는 효과가 있다.In addition, since the original data corresponding to the various reference luminance values are provided and the identity is confirmed using the topological analysis information corresponding to the luminance values of the comparative image, the recognition rate can be significantly lowered even when there is a change in luminance during the shooting. There is an effect that can be installed and used in various places where the brightness changes.

또한, 홍채의 영상을 위상기하학적으로 분석하여 홍채의 특징정보로 이용할 수 있음에 따라서 촬영거리에 따른 홍채 영상의 크기변화가 있는 경우에도 오인식율을 줄일 수 있는 효과가 있다.In addition, since the image of the iris can be analyzed as a topological feature and used as characteristic information of the iris, there is an effect of reducing the false recognition rate even when there is a change in the size of the iris image according to the shooting distance.

Claims (19)

(a) 눈을 촬영한 영상정보에서의 동공영역의 화소점들에 대한 좌표평균점을 구하는 단계;(a) obtaining coordinate mean points of pixel points of the pupil area in the image information of the eye; (b) 상기 동공영역의 좌표평균점을 중심으로 홍채영역의 일정부분이 포함되도록 동심원 영역을 설정하는 단계;(b) setting the concentric circles such that a predetermined portion of the iris region is included around the coordinate average point of the pupil region; (c) 상기 동심원 영역에서 동공영역을 제외하여 형성된 동공 제외된 동심원 영역의 화소점들에 대한 좌표평균점을 구하는 단계;(c) obtaining coordinate mean points of pixel points of the excluded concentric region formed by excluding the pupil region in the concentric region; (d) 상기 동공영역의 좌표평균점과 상기 동공 제외된 동심원 영역의 좌표평균점에 따라서 상기 동심원 영역을 분할하는 단계; 및(d) dividing the concentric circles according to the coordinate average points of the pupil regions and the coordinate average points of the excluded concentric circles; And (e) 상기 분할된 동심원 영역중 하나를 홍채인식을 위한 비교영역으로 설정하는 단계;를 포함하는 것을 특징으로 하는 홍채인식을 위한 비교영역 설정 방법.(e) setting one of the divided concentric circle areas as a comparison area for iris recognition, comprising: a comparison area setting method for iris recognition. 제 1 항에 있어서, 상기 (e)단계는The method of claim 1, wherein step (e) 상기 분할된 동심원 영역 각각에 대한 좌표평균점을 구하는 단계; 및Obtaining a coordinate mean point for each of the divided concentric circles; And 상기 분할된 동심원 영역의 좌표평균점 중에서 렉시코그래픽 순서가 가장 작은 점을 포함하는 영역을 상기 비교영역으로 설정하는 단계;로 이루어지는 홍채인식을 위한 비교영역 설정 방법.And setting a region including a point having the smallest lexographical order among the coordinate average points of the divided concentric circles as the comparison region. (여기에서, 렉시코그래픽 순서는 평면상의 두개의 좌표점이
Figure 112005011633632-PAT00054
이면,
Figure 112005011633632-PAT00055
인 경우 다만,
Figure 112005011633632-PAT00056
이면
Figure 112005011633632-PAT00057
인 경우)
(Here, the lexographic order is that two coordinate points on the plane
Figure 112005011633632-PAT00054
If,
Figure 112005011633632-PAT00055
However, if
Figure 112005011633632-PAT00056
Back side
Figure 112005011633632-PAT00057
If
제 1 항에 있어서, 상기 (d)단계는The method of claim 1, wherein step (d) 상기 동공영역의 좌표평균점과 상기 동공 제외된 동심원 영역의 좌표평균점을 연결하는 제 1 직선을 구하는 단계;Obtaining a first straight line connecting the coordinate mean point of the pupil area and the coordinate mean point of the excluded concentric circle area; 상기 제 1 직선에 직교하고 상기 동공영역의 좌표평균점과 상기 동공 제외된 동심원 영역의 좌표평균점의 중점을 지나는 제 2 직선을 구하는 단계; 및Obtaining a second straight line perpendicular to the first straight line and passing through a midpoint between a coordinate average point of the pupil area and a coordinate average point of the excluded concentric circle area; And 상기 제 1 직선과 상기 제 2 직선을 통하여 상기 동심원 영역을 분할하는 단계;로 이루어지는 것을 특징으로 하는 홍채인식을 위한 비교영역 설정 방법.And dividing the concentric region through the first straight line and the second straight line. 제 3 항에 있어서,The method of claim 3, wherein 상기 제 1 직선과 상기 제 2 직선을 통하여 분할된 동심원 영역을 홍채인식을 위하여 요구되는 범위내에서 반복하여 분할하는 단계;를 더 포함하는 것을 특징으로 하는 홍채인식을 위한 비교영역 설정 방법.And dividing the concentric region divided by the first straight line and the second straight line repeatedly within the range required for iris recognition. 제 1 항에 있어서, 상기 (e)단계 이후에The method of claim 1, wherein after step (e) 상기 비교영역으로 설정된 분할된 동심원 영역의 좌표평균점을 구하는 단계;Obtaining a coordinate mean point of the divided concentric circles set as the comparison regions; 상기 비교영역으로 설정된 분할된 동심원 영역의 좌표평균점과 상기 중점을 지나는 제 3 직선을 구하는 단계;Obtaining a coordinate average point of the divided concentric circle set as the comparison area and a third straight line passing through the midpoint; 상기 제 3 직선을 통하여 상기 분할된 동심원 영역을 다시 분할하는 단계; 및Dividing the divided concentric circles again through the third straight line; And 상기 제 3 직선을 통하여 분할된 동심원 영역중 하나를 홍채인식을 위한 비교영역으로 설정하는 단계;를 더 포함하는 것을 특징으로 하는 홍채인식을 위한 비교영역 설정 방법.And setting one of the concentric circles divided through the third straight line as a comparison area for iris recognition. 제 1 항에 있어서, 상기 (b)단계는The method of claim 1, wherein step (b) 상기 동공영역의 반경을 구하는 단계; 및Obtaining a radius of the pupil area; And 상기 동공영역의 좌표평균점을 중심점으로 하고, 상기 동공영역의 반경보다 큰 소정의 배수를 반경으로 하는 동심원 영역을 설정하는 단계;로 이루어지는 것을 특징으로 하는 홍채인식을 위한 비교영역 설정 방법.And setting a concentric circle area having a radius of a predetermined multiple larger than a radius of the pupil area as a center point of the coordinate average point of the pupil area. 2. 제 1 항에 있어서, 상기 (c)단계는The method of claim 1, wherein step (c) 상기 동심원 영역에서 동공영역을 제외하여 형성된 동공 제외된 동심원 영역을 설정하는 단계;Setting a pupil excluded concentric region formed by excluding the pupil region from the concentric region; 상기 동공 제외된 동심원 영역에서의 화소점에 대한 기준값을 구하는 단계;Obtaining a reference value for the pixel point in the concentric excluded region; 상기 기준값에 따라서 상기 동공 제외된 동심원 영역에서의 화소점들을 이진화된 화소점들로 변환하는 단계; 및Converting pixel points in the concentric excluded region into binarized pixel points according to the reference value; And 상기 화소점 변환 단계에서 이진화된 화소점들에 대한 좌표로부터 상기 동공 제외된 동심원 영역의 좌표평균점을 구하는 단계;로 이루어지는 것을 특징으로 하는 홍채인식을 위한 비교영역 설정 방법.And obtaining a coordinate mean point of the concentric circle region excluding the pupil from the coordinates of the binarized pixel points in the pixel point converting step. 제 7 항에 있어서,The method of claim 7, wherein 상기 기준값은 상기 동공 제외된 동심원 영역에서의 화소점 밝기 농도에 대한 히스토그램의 굴곡점에 대한 화소점 밝기 농도를 비교하여 구하여지는 것을 특징으로 하는 홍채인식을 비교영역 설정 방법.And the reference value is obtained by comparing the pixel point brightness concentration with respect to the bending point of the histogram with respect to the pixel point brightness concentration in the concentric circle excluding the pupil. (a) 눈을 촬영한 영상정보에서 사용자 인증정보를 추출할 비교영역을 설정하는 단계;(a) setting a comparison area to extract user authentication information from eye image information; (b) 상기 비교영역에 포함되는 화소점들로부터 비교대상이 될 화소점들을 추출하는 단계;(b) extracting pixel points to be compared from pixel points included in the comparison area; (c) 상기 비교대상이 될 화소점들에 대한 화소점 개수 정보, 모서리 개수 정보 및 꼭지점 개수 정보에 대한 위상기하학적 특징정보를 추출하는 단계; 및(c) extracting topological feature information of pixel point number information, corner number information, and vertex number information of the pixel points to be compared; And (d) 상기 추출된 위상기하학적 특징정보를 연산하여 홍채인식 시스템에 비교인증 데이터로 이용되는 사용자 인증정보를 생성하는 단계;를 포함하는 것을 특징으로 하는 홍채인식을 위한 사용자 인증정보 생성 방법.(d) generating the user authentication information used as comparative authentication data in the iris recognition system by calculating the extracted topological feature information; and generating user authentication information for iris recognition. 제 9 항에 있어서, 상기 (c)단계에서 위상기하학적 특징정보는,The method of claim 9, wherein in the step (c) the topological feature information, 상기 화소점 개수 정보를 통하여 상기 화소점 개수를 모두 더하는 제 1 함수 결과값을 구하는 단계;Obtaining a first function result value of adding all the pixel point numbers through the pixel point number information; 상기 제 1 함수 결과값과 상기 화소점 경계선 정보를 통하여 다른 화소점과 접하지 않는 모서리 개수를 모두 더하는 제 2 함수 결과값을 구하는 단계; 및Obtaining a second function result value which adds both the first function result value and the number of corners not contacting other pixel points through the pixel point boundary information; And 상기 제 1 함수 결과값, 상기 제 2 함수 결과값 및 상기 화소점 꼭지점 정보를 통하여 다수개의 화소점들이 접하여 형성된 영역중에서 비어 있는 화소점들의 개수에 관한 특징정보인 제 3 함수 결과값을 구하는 단계;로 이루어지는 것을 특징으로 하는 홍채인식을 위한 사용자 인증정보 생성 방법.Obtaining a third function result value which is feature information on the number of empty pixel points in an area formed by contacting a plurality of pixel points through the first function result value, the second function result value, and the pixel point vertex information; Method for generating user authentication information for iris recognition, characterized in that consisting of. 제 10 항에 있어서,The method of claim 10, 상기 제 2 함수는 상기 제 1 함수 결과값에 4를 곱한 후 상기 화소점 경계선 정보를 통하여 얻은 경계선의 중복도를 모두 더한 합에 2를 곱하여 빼는 함수이고,The second function is a function of multiplying the sum of the redundancy of the boundary lines obtained through the pixel point boundary line information by multiplying the result value of the first function by 4 and multiplying by 2, 상기 제 3 함수는 상기 제 1 함수 결과값에 상기 화소점 경계선 정보를 통하여 얻은 경계선의 중복도의 총합을 더해준 후 상기 화소점 꼭지점 정보를 통하여 얻은 꼭지점의 중복도의 총합을 빼는 함수인 것을 특징으로 하는 홍채인식을 위한 사용자 인증정보 생성 방법.The third function is a function of subtracting the total sum of redundancy of vertices obtained through the pixel vertex information after adding the sum of redundancy of the boundary lines obtained through the pixel point boundary information to the result of the first function. User authentication information generation method for iris recognition. 제 10 항에 있어서, The method of claim 10, 상기 (d)단계는 상기 제 1 함수결과값, 제 2 함수 결과값 및 상기 제 3 함수 결과값의 각각에 가중치를 부여하도록 하는 사용자 인증 함수에 상기 제 1 함수 결과값, 제 2 함수 결과값 및 제 3 함수 결과값을 입력하여 상기 사용자 인증 정보를 생성하는 것을 특징으로 하는 홍채인식을 위한 사용자 인증정보 생성 방법.In step (d), the first function result value, the second function result value, and the user authentication function may be assigned to each of the first function result value, the second function result value, and the third function result value. And generating a user authentication information by inputting a third function result value. 제 12 항에 있어서,The method of claim 12, 상기 (d)단계에서 사용자 인증 정보를 생성하기 이전에 상기 사용자 인증을 수행하기 위한 전처리 단계;를 더 포함하되,Further comprising; a pre-processing step for performing the user authentication before generating the user authentication information in step (d), 상기 전처리 단계는 상기 사용자 인제 2 함수 결과값을 제곱한 값을 상기 제 1 함수 결과값에 소정의 상수를 곱한 값으로 나누어 주는 제 4 함수 결과값을 구하는 단계와 상기 제 4 함수 결과값이 기 설정된 범위내에 있는지 여부를 판단하는 단계로 이루어져, 상기 제 4 함수 결과값이 기 설정된 범위내에 있지 않다고 판단되는 경우 상기 홍채인식을 위한 사용자 인증정보 생성을 종료하는 것을 특징으로 하는 홍채인식을 위한 사용자 인증정보 생성 방법.The preprocessing step may include: obtaining a fourth function result value obtained by dividing the user squared second function result value by the product of the first function result value multiplied by a predetermined constant; and presetting the fourth function result value. Determining whether the fourth function result value is not within a preset range, and generating user authentication information for iris recognition, wherein the user authentication information for iris recognition is terminated. How to produce. 제 9 항에 있어서, 상기 (a)단계는The method of claim 9, wherein step (a) 눈을 촬영한 영상정보에서의 동공영역의 화소점들에 대한 좌표평균점을 구하는 단계;Obtaining coordinate mean points of pixel points of the pupil area in the image information of the eye; 상기 동공영역의 좌표평균점을 중심으로 홍채영역의 일정부분이 포함되도록 동심원 영역을 설정하는 단계;Setting a concentric circle area to include a predetermined portion of the iris area around the coordinate average point of the pupil area; 상기 동심원 영역에서 동공영역을 제외하여 형성된 동공 제외된 동심원 영역의 화소점들에 대한 좌표평균점을 구하는 단계;Obtaining a coordinate mean point of pixel points of the excluded pupil concentric region formed by excluding the pupil region from the concentric region; 상기 동공영역의 좌표평균점과 상기 동공 제외된 동심원 영역의 좌표평균점 에 따라서 상기 동심원 영역을 분할하는 단계; 및Dividing the concentric circles according to a coordinate average point of the pupil area and a coordinate average point of the excluded concentric circle areas; And 상기 분할된 동심원 영역중 하나를 홍채인식을 위한 비교영역으로 설정하는 단계;를 포함하는 것을 특징으로 하는 홍채인식을 위한 사용자 인증정보 생성 방법.And setting one of the divided concentric circles as a comparison area for iris recognition. 제 9 항에 있어서, 상기 (b)단계는The method of claim 9, wherein step (b) 상기 비교영역에서의 화소점 밝기 농도에 대한 히스토그램의 굴곡점을 구하는 단계; 및Obtaining a bending point of the histogram with respect to the pixel point brightness concentration in the comparison area; And 상기 히스토그램의 굴곡점에 대한 화소점 밝기 농도를 기준으로 상기 비교영역에서의 화소점들을 이진화된 화소점으로 변환하는 단계;로 이루어지는 것을 특징으로 하는 홍채인식을 위한 사용자 인증정보 생성 방법.And converting pixel points in the comparison area into binarized pixel points based on pixel point brightness concentrations of the bend points of the histogram. 눈을 촬영한 영상정보로부터 동공영역과 홍채영역을 분리하는 영역 분리부;An area separator for separating the pupil area and the iris area from the image information of the eye; 상기 영역 분리부에 의하여 분리된 동공영역의 화소점들에 대한 상기 동공영역의 좌표평균점을 구하는 제 1 좌표평균점 계산부;A first coordinate average point calculator for obtaining a coordinate average point of the pupil area with respect to pixel points of the pupil area separated by the area separator; 상기 동공영역의 좌표평균점을 중심으로 상기 홍채영역의 일정부분이 포함되도록 동심원 영역을 설정하는 동심원 영역 설정부;A concentric circle setting unit configured to set a concentric circle area such that a predetermined portion of the iris area is included around the coordinate average point of the pupil area; 상기 영역 분리부를 통하여 상기 동심원 영역에서 동공영역을 제외하여 동공 제외된 동심원 영역을 형성하고, 상기 동공 제외된 동심원 영역의 화소점들에 대한 좌표평균점을 구하는 제 2 좌표평균점 계산부;A second coordinate average point calculator configured to form a concentric region excluding the pupil region from the concentric region through the region separation unit, and to obtain coordinate average points of pixel points of the excluding the concentric circle region; 상기 동공영역의 좌표평균점과 상기 동공 제외된 동심원 영역의 좌표평균점에 따라서 상기 동심원 영역을 분할하는 동심원 영역 분할부; 및A concentric circle division unit dividing the concentric circle area according to a coordinate average point of the pupil area and a coordinate average point of the excluded concentric circle area; And 상기 분할된 동심원 영역중 하나를 홍채인식을 위한 비교영역으로 설정하는 비교영역 설정부;를 포함하는 것을 특징으로 하는 홍채인식을 위한 비교영역 설정 장치.And a comparison area setting unit configured to set one of the divided concentric circle areas as a comparison area for iris recognition. 제 16 항에 있어서, 상기 동심원 영역 분할부는The method of claim 16, wherein the concentric region divider 상기 동공영역의 좌표평균점과 상기 동공 제외된 동심원 영역의 좌표평균점을 연결하는 제 1 직선을 구하고, 상기 제 1 직선에 직교하고 상기 동공영역의 좌표평균점과 상기 동공 제외된 동심원 영역의 좌표평균점의 중점을 지나는 제 2 직선을 구하며, 상기 제 1 직선과 상기 제 2 직선을 통하여 상기 동심원 영역을 분할하는 것을 특징으로 하는 홍채인식을 위한 비교영역 설정 장치.Obtain a first straight line connecting the coordinate average point of the pupil area and the coordinate average point of the excluded concentric circle, the center of the coordinate average point of the pupil region and the coordinate average point of the excluded pupil region orthogonal to the first straight line Comprising a second straight line passing through the comparison region setting apparatus for iris recognition, characterized in that to divide the concentric region through the first straight line and the second straight line. 눈을 촬영한 영상정보에서 사용자 인증정보를 추출할 비교영역을 설정하는 비교영역 설정부;A comparison area setting unit for setting a comparison area to extract user authentication information from eye image information; 상기 비교영역에 포함되는 화소점들로부터 비교대상이 될 화소점들을 추출하는 비교대상 추출부;A comparison object extracting unit extracting pixel points to be compared from pixel points included in the comparison area; 상기 비교영역에서 추출된 화소점들에 대한 화소점 개수 정보, 모서리 개수 정보 및 꼭지점 개수 정보에 대한 위상기하학적 특징정보를 추출하는 위상기하학적 특징정보 추출부; 및A topological feature information extraction unit for extracting topological feature information about pixel point number information, corner number information, and vertex number information of the pixel points extracted from the comparison area; And 상기 추출된 위상기하학적 특징정보를 연산하여 사용자 인증정보를 생성하는 사용자 인증정보 생성부;를 포함하는 것을 특징으로 하는 홍채인식을 위한 사용자 인증정보 생성 장치.And user authentication information generation unit for generating user authentication information by calculating the extracted topological feature information. 제 18 항에 있어서,The method of claim 18, 상기 위상기하학적 특징정보를 추출하는 위상기하학적 모델 함수 및 상기 위상기하학적 특징정보로부터 사용자 인증정보를 생성하는 사용자 인증 함수를 저장하는 저장부를 더 포함하되,Further comprising a storage unit for storing a topological model function for extracting the topological feature information and a user authentication function for generating user authentication information from the topological feature information, 상기 위상기하학적 모델 함수는 상기 화소점 개수 정보를 통하여 상기 화소점 개수를 모두 더하는 제 1 함수, 상기 화소점 경계선 정보를 통하여 다른 화소점과 접하지 않는 모서리 개수를 모두 더하는 제 2 함수, 상기 제 1 함수 결과값, 제 2 함수 결과값 및 상기 화소점 꼭지점 정보를 통하여 다수개의 화소점들이 접하여 형성된 영역에 비어 있는 화소점들의 개수에 관한 특징정보인 제 3 함수, 및 상기 제 1 함수 결과값, 제 2 함수 결과값과 상기 제 3 함수 결과값을 입력값으로 하여 사용자 인증 정보를 생성하는 사용자 인증 함수로 이루어지는 것을 특징으로 하는 홍채인식을 위한 사용자 인증정보 생성 장치.The topological model function is a first function that adds all the number of pixel points through the pixel point number information, and a second function that adds all the number of corners that do not contact other pixel points through the pixel point boundary information. A third function that is characteristic information about the number of empty pixel points in a region formed by contacting a plurality of pixel points through a function result value, a second function result value, and the pixel point vertex information, and the first function result value, 2. The apparatus for generating user authentication information for iris recognition, comprising: a user authentication function for generating user authentication information using the function result value and the third function result value as input values.
KR1020050018133A 2005-03-04 2005-03-04 Method and apparatus for setting of comparison area and generating of user authentication information for iris recognition KR100696251B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050018133A KR100696251B1 (en) 2005-03-04 2005-03-04 Method and apparatus for setting of comparison area and generating of user authentication information for iris recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050018133A KR100696251B1 (en) 2005-03-04 2005-03-04 Method and apparatus for setting of comparison area and generating of user authentication information for iris recognition

Publications (2)

Publication Number Publication Date
KR20060096867A true KR20060096867A (en) 2006-09-13
KR100696251B1 KR100696251B1 (en) 2007-03-20

Family

ID=37624335

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050018133A KR100696251B1 (en) 2005-03-04 2005-03-04 Method and apparatus for setting of comparison area and generating of user authentication information for iris recognition

Country Status (1)

Country Link
KR (1) KR100696251B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100826876B1 (en) * 2006-09-18 2008-05-06 한국전자통신연구원 Iris recognition method and apparatus for thereof
WO2015102361A1 (en) * 2014-01-02 2015-07-09 아이리텍 잉크 Apparatus and method for acquiring image for iris recognition using distance of facial feature
CN109709742A (en) * 2019-01-09 2019-05-03 深圳市光鉴科技有限公司 A kind of structured light projection instrument and 3D camera

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101642035B1 (en) 2016-01-26 2016-07-29 오준봉 Apparatus and method for generating authentication information using iris data, authentication system with the same

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100826876B1 (en) * 2006-09-18 2008-05-06 한국전자통신연구원 Iris recognition method and apparatus for thereof
US7869626B2 (en) 2006-09-18 2011-01-11 Electronics And Telecommunications Research Institute Iris recognition method and apparatus thereof
WO2015102361A1 (en) * 2014-01-02 2015-07-09 아이리텍 잉크 Apparatus and method for acquiring image for iris recognition using distance of facial feature
CN105874473A (en) * 2014-01-02 2016-08-17 虹膜技术公司 Apparatus and method for acquiring image for iris recognition using distance of facial feature
CN109709742A (en) * 2019-01-09 2019-05-03 深圳市光鉴科技有限公司 A kind of structured light projection instrument and 3D camera
CN109709742B (en) * 2019-01-09 2021-08-10 深圳市光鉴科技有限公司 Structured light projector and 3D camera

Also Published As

Publication number Publication date
KR100696251B1 (en) 2007-03-20

Similar Documents

Publication Publication Date Title
EP1629415B1 (en) Face identification verification using frontal and side views
EP1835443B1 (en) Biometric authentication method and biometric authentication apparatus
JP5505504B2 (en) Biometric authentication apparatus, biometric authentication method, biometric authentication computer program, and biometric information registration apparatus
RU2382408C2 (en) Method and system for identifying person from facial image
CN102945366B (en) A kind of method and device of recognition of face
KR102554391B1 (en) Iris recognition based user authentication apparatus and method thereof
US20050180610A1 (en) Image processing apparatus
US20180075291A1 (en) Biometrics authentication based on a normalized image of an object
JP2005149506A (en) Method and apparatus for automatic object recognition/collation
JP2016157420A (en) Image template masking
Ambeth Kumar et al. Exploration of an innovative geometric parameter based on performance enhancement for foot print recognition
US11682235B2 (en) Iris authentication device, iris authentication method and recording medium
CN111339897A (en) Living body identification method, living body identification device, computer equipment and storage medium
KR100696251B1 (en) Method and apparatus for setting of comparison area and generating of user authentication information for iris recognition
JP2018055231A (en) Biometric authentication device
JP2006277146A (en) Collating method and collating device
Bicego et al. Distinctiveness of faces: a computational approach
US11580766B2 (en) Method for detecting at least one biometric trait visible in an input image by means of a convolutional neural network
CN111428670B (en) Face detection method, face detection device, storage medium and equipment
Manjunath et al. Analysis of unimodal and multimodal biometric system using iris and fingerprint
EP3702958B1 (en) Method for verifying the identity of a user by identifying an object within an image that has a biometric characteristic of the user and separating a portion of the image comprising the biometric characteristic from other portions of the image
Ribarić et al. A biometric identification system based on the fusion of hand and palm features
Guizatdinova et al. Detection of facial landmarks from neutral, happy, and disgust facial images
Zhu et al. A new approach for rotated face detection
Mahoor et al. Multi-modal (2-d and 3-d) face modeling and recognition using attributed relational graph

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
J201 Request for trial against refusal decision
B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120306

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee