KR20070088982A - Deformation-resilient iris recognition methods - Google Patents

Deformation-resilient iris recognition methods Download PDF

Info

Publication number
KR20070088982A
KR20070088982A KR1020060018930A KR20060018930A KR20070088982A KR 20070088982 A KR20070088982 A KR 20070088982A KR 1020060018930 A KR1020060018930 A KR 1020060018930A KR 20060018930 A KR20060018930 A KR 20060018930A KR 20070088982 A KR20070088982 A KR 20070088982A
Authority
KR
South Korea
Prior art keywords
region
iris
image information
registration
authentication
Prior art date
Application number
KR1020060018930A
Other languages
Korean (ko)
Other versions
KR100786204B1 (en
Inventor
최형인
위남숙
이성진
권성화
손정교
정두섭
백승민
김대훈
Original Assignee
아이리텍 잉크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아이리텍 잉크 filed Critical 아이리텍 잉크
Priority to KR1020060018930A priority Critical patent/KR100786204B1/en
Priority to PCT/KR2006/004630 priority patent/WO2007097510A1/en
Publication of KR20070088982A publication Critical patent/KR20070088982A/en
Application granted granted Critical
Publication of KR100786204B1 publication Critical patent/KR100786204B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/095Traffic lights
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21VFUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
    • F21V15/00Protecting lighting devices from damage

Abstract

A deformation-resilient iris recognition method is provided to prevent deterioration of a recognition rate due to errors generated by deformation of the iris or errors generated when setting a boundary between an iris region and the other regions(pupil or sclera). A deformation-resilient iris recognition method comprises the following steps of: obtaining an image of an eye, including an iris, from a camera so as to obtain an iris registration or authentication image for verification of identity; extracting a region of the iris from the image of the eye; dividing the extracted iris region into plural regions and searching iris characteristics of each divided region; and determining similarity between registered iris characteristics and authentication iris characteristics. The last step uses a vibration method for comparing a registration vibration region, including the divided region of the registration image information and parallel movement region adjacent to the divided region, with an authentication vibration region, including a divided region of the authentication image information located at a location corresponding to a location of the divided region of the registration image information and a parallel movement region adjacent to the divided region.

Description

변형에 강건한 홍채 인식 방법{Deformation-resilient iris recognition methods}Deformation-resilient iris recognition methods

도 1은 인간의 홍채를 설명하기 위한 눈의 단면도,1 is a cross-sectional view of the eye for explaining the human iris,

도 2는 눈의 이미지와 상기 이미지와 이것의 그래이 데이타를 3차원으로 나타낸 그래픽,2 is a graphic showing the image of the eye and the image and its gray data in three dimensions,

도 3은 생체인식 시스템의 평가 지표인 FAR과 FRR을 설명하기 위한 그래프,3 is a graph for explaining FAR and FRR which are evaluation indices of a biometric system;

도 4a는 동공의 크기 변화에 따라 홍채 내부의 특징적 형상이 이동되는 것을 설명하기 위한 개략도,Figure 4a is a schematic diagram for explaining that the characteristic shape inside the iris is moved in accordance with the size of the pupil,

도 4b는 동공의 크기 변화에 따라 홍채 내부의 특징적 형상이 이동되는 것을 나타낸 사진,Figure 4b is a photograph showing that the characteristic shape inside the iris is moved in accordance with the size of the pupil,

도 5는 본 발명의 일실시예에 따른 평행이동 영역을 설명하기 위한 개략도,5 is a schematic view for explaining a parallel movement region according to an embodiment of the present invention;

도 6은 본 발명의 다른 일실시예에 따른 평행이동 영역을 설명하기 위한 개략도,6 is a schematic view for explaining a parallel movement region according to another embodiment of the present invention;

도 7은 극좌표계로 변환한 이미지를 분할하는 방법을 설명하기 위한 개략도,7 is a schematic diagram for explaining a method of dividing an image converted into a polar coordinate system;

도 8은 각각의 단위 셀에 대하여 평행 이동한 영역들의 예를 보여주는 개략도,8 is a schematic diagram showing an example of regions moved in parallel for each unit cell;

도 9는 선정된 분할 영역들의 상관관계의 일례를 보여주는 개략도,9 is a schematic diagram showing an example of the correlation between the selected divided regions;

도 10은 본 발명의 일실시예에 따른 변형에 강건한 홍채 인식 방법의 기본 분할 영역 및 중첩 분할 영역을 설명하기 위한 개략도,10 is a schematic diagram for explaining a basic segmentation region and an overlapping segmentation region of the iris recognition method robust to deformation according to an embodiment of the present invention;

도 11은 중첩 분할 영역에 의하여 추가로 이미지 정보를 얻는 것을 설명하기 위한 개략도,11 is a schematic diagram for explaining obtaining image information further by an overlapping divided region;

도 12는 본 발명의 또 다른 일실시 예에 따른 변형에 강건한 홍채 인식 방법의 기본 분할 영역 및 중첩 분할 영역을 설명하기 위한 개략도,12 is a schematic diagram illustrating a basic divided region and an overlapped divided region of a method for recognizing a robust iris according to another embodiment of the present invention;

도 13은 가림이 발생한 등록 또는 인증용 영상의 홍채 영역을 설명하기 위한 개략도,13 is a schematic diagram illustrating an iris region of an image for registration or authentication in which occlusion occurs;

도 14는 홍채 영역의 이미지에서 50% 이상 가림이 발생한 영역의 셀을 제외 시킨 것을 보여주는 개략도,14 is a schematic view showing that the cells of the region where more than 50% occlusion has been excluded from the image of the iris region,

도 15는 인증을 위하여 비교되는 두 개의 이미지에서 발생되는 가림의 패턴을 보여주는 개략도,15 is a schematic diagram showing a pattern of occlusion occurring in two images compared for authentication;

도 16은 도 15에서 도시한 두 이미지의 공통된 셀 영역을 도시한 개략도.FIG. 16 is a schematic diagram showing common cell regions of the two images shown in FIG. 15. FIG.

본 발명은 홍채 인식 방법에 관한 것으로, 더욱 상세하게는 홍채 인식 방법에 있어서 홍채 부위와 다른 부위(동공 또는 공막)의 경계를 설정하는데 발생하는 에러 또는 홍채의 변형으로 인하여 발생하는 에러에 의하여 인식률 저하를 방지할 수 있는 변형에 강건한 홍채 인식 방법에 관한 것이다.The present invention relates to an iris recognition method. More particularly, the recognition rate is lowered due to an error caused by setting an boundary between an iris part and another part (pupil or sclera) or an error caused by deformation of the iris in the iris recognition method. It relates to a robust iris recognition method for deformation that can be prevented.

오늘날 21세기 고도의 정보화 사회에서 개개인의 정확한 신원 확인은 과거와 같이 보안이 요구되는 장소의 출입 통제뿐만 아니라 정보 유출방지, 개인의 재산권 보호 등을 위하여 그 중요성이 점차 증대되고 있다. In today's 21st century's highly information society, accurate identification of individuals is increasingly important not only for access control in places requiring security, but also for preventing information leakage and protecting personal property rights.

최근에는 개인의 신체적, 행동적 특징을 이용하여 신원을 검증하는 생체 인식 기법 또는 생체측정학(biometrics)이 각광을 받고 있다. 이러한 생체측정학의 가장 큰 특성은 어떠한 경우에도 외부 요인에 의한 분실, 도난, 망각, 복제의 염려가 없다는 것이며 매우 신뢰성이 높다는 것이다.In recent years, biometric techniques or biometrics, which verify the identity using an individual's physical and behavioral characteristics, have been in the spotlight. The greatest characteristic of this biometrics is that there is no fear of loss, theft, forgetting, or duplication by external factors in any case, and it is very reliable.

이러한 생체인식 기법의 대표적인 예로서 지문 인식, 얼굴 인식, 망막 인식, 홍채 인식 등이 있다. 홍채(虹彩, iris) 인식이란 눈 중앙의 동공(瞳孔)과 공막(鞏膜, sclera) 사이에 존재하는 홍채 무늬 패턴을 이용하여 신원을 확인하는 기술을 말한다. Representative examples of such biometric techniques include fingerprint recognition, face recognition, retinal recognition, and iris recognition. Iris (iris) recognition refers to a technique for identifying an identity using an iris pattern that exists between the pupil of the center of the eye and the sclera.

사람의 홍채는 대략 11mm 정도의 크기를 가진, 눈의 검은 자위 부분으로서 동공의 바깥쪽 영역을 말하며 동공의 크기를 조절하는 근육으로 구성되어 있다. 즉 첨부된 도 1에 도시한 바와 같이 홍채는 외부로부터 안구(眼球)내로 입사되는 빛의 양을 조절하는 조리개의 역할을 하는 것이다.The human iris is about 11mm in size, the black part of the eye, the outer area of the pupil, and consists of the muscles that control the size of the pupil. That is, as shown in FIG. 1, the iris serves as an aperture for controlling the amount of light incident from the outside into the eye.

일반적으로 이러한 홍채 인식 방법은 카메라로부터 홍채가 포함된 눈의 영상을 획득하는 단계, 상기 눈의 영상에서 홍채의 영역을 추출하는 단계, 추출된 홍채 영역에서 개인의 고유한 특징을 찾는 단계, 비교되는 두 개의 홍채 특징 간의 유사도(similarity)를 판단하는 정합(整合)단계로 구성되어 있다.In general, such an iris recognition method includes obtaining an image of an eye including an iris from a camera, extracting a region of an iris from the image of the eye, finding a unique characteristic of the individual in the extracted iris region, and comparing It consists of a matching step of determining similarity between two iris features.

상기 영상 획득 단계는 실시간 영상 획득을 위한 CCD(charge-coupled device)카메라 또는 비디오 카메라, 선명한 홍채 무늬 패턴을 얻기 위한 조명, 아날로그 영상을 디지털 영상으로 변환하기 위한 프래임 그래버(frame grabber) 등으로 이루어진 영상 획득 장치를 사용하여 홍채가 포함된 눈의 영상을 획득하는 단계이다. 첨부된 도 2는 상기 눈의 영상과 그것의 그래이(gray) 데이타를 3차원 그래픽으로 나타낸 것이다.The image acquiring step may include a charge-coupled device (CCD) camera or a video camera for real-time image acquisition, illumination for obtaining a clear iris pattern pattern, and frame grabber for converting an analog image into a digital image. Acquiring an image of an eye including an iris using an acquisition device. The accompanying Figure 2 shows the image of the eye and its gray data in three-dimensional graphics.

상기 홍채 영역 추출 단계는 상기 영상 획득 장치를 통하여 획득된 눈의 영상으로부터 홍채 영역을 분리하는 단계로서, 정확한 홍채 영역 추출은 일관성 있는 홍채 특징 추출을 위하여 반드시 선행되어야 하는 중요한 단계이다. 일반적으로 홍채 영역 추출은 동공 및 홍채의 중심과 중심으로부터 거리의 결정을 통해서 이루어지며, 원형 경계 검출기를 이용하는 방법(J.G. Daugman방법), 허프 변환(Hough transform)을 이용하는 방법(R.P. Wildes방법), 템플릿(template)을 이용하는 방법 등이 사용되고 있다. 이러한 방법들은 홍채 경계의 모양이 원형이라는 가정과 동공은 다른 영역에 비하여 어둡다는 정보를 이용한 것이다. 상기 방법으로 결정된 동공 및 홍채의 중심과 중심과의 거리에 의한 영상을 극좌표계(polar coordinate)로 변환하는 방법이 널리 사용되고 있다.The iris region extraction step is a step of separating the iris region from the image of the eye obtained through the image capturing apparatus, and accurate iris region extraction is an important step that must be preceded for consistent iris feature extraction. In general, the extraction of the iris region is performed by determining the center and the distance from the center of the pupil and the iris, using the circular boundary detector (JG Daugman method), the Hough transform method (RP Wildes method), and the template. The method of using a template is used. These methods use the assumption that the shape of the iris boundary is circular and that the pupil is darker than other areas. A method of converting an image based on the distance between the center of the pupil and the iris determined by the above method to the polar coordinate is widely used.

상기 홍채 특징 추출 단계는 상기 극좌표계로 변환된 홍채 영역을 단위 셀로 분할하고 상기 각각의 셀에 나타나는 무늬 패턴의 특징을 추출하는 단계로서, 홍채 무늬 패턴의 그래이 값의 변화를 반영하는 값으로 표현된다. 여기서 효율적인 홍채 특징을 일정한 형태로 부호화(encoding)할 수 있는데 이를 홍채 코드 생성이라 한 다. 이러한 홍채 특징 추출 방법으로서 가버 변환(Gabor transform)을 포함한 웨이블릿 변환(wavelet transform)의 해석 방법이 대부분을 이루고 있다.The iris feature extraction step may be performed by dividing the iris region converted into the polar coordinates into unit cells and extracting a feature of a pattern pattern appearing in each cell, which is expressed as a value reflecting a change in the gray value of the iris pattern pattern. The efficient iris feature can be encoded in a certain form, which is called iris code generation. As an iris feature extraction method, a wavelet transform analysis method including a Gabor transform is mostly used.

상기 정합 단계는 이미 등록이 되어 있는 홍채 특징 또는 홍채 코드와 식별을 위하여 입력된 홍채 영상으로부터 추출된 홍채 특징 또는 홍채 코드를 비교하는 단계로서, 이는 비교대상 특징 및 코드 사이의 유사도에 따라 본인이라고 판단하거나(accept), 본인이 아니라고 판단하거나(reject) 두 가지 부분으로 이루어진다. 일반적으로 사용되는 방법으로는 해밍 거리(Hamming distance)를 측정하는 방법이 있다. 즉, 이진 벡터(binary vector)로 생성된 두 특징 백터의 검증을 위하여 각 차원별로 할당된 비트 값을 비교하여 일치하면 0, 다르면 1로 변환하고 이를 총 차원수로 나누는 것이다. 따라서 동일한 데이터의 경우 모든 비트의 비교 결과가 0 이 되므로 0 에 가까운 결과일수록 본인의 데이터임을 알 수 있고, 타인의 데이터인 경우 적절한 임계값을 설정하면 본인과 타인의 데이터를 구분하는 경계가 되며, 비교되는 두 홍채 사이의 유사도 값이 상기 임계값 이상인 경우라면 타인으로 판정하고, 임계값 이하인 경우에는 동일인으로 판정하는 것이다.The matching step compares an iris feature or an iris code that is already registered with an iris feature or iris code extracted from an iris image input for identification, which is determined to be the user according to the similarity between the feature and the code to be compared. It accepts, rejects, or rejects itself, and consists of two parts. A commonly used method is a method of measuring hamming distance. That is, to verify two feature vectors generated as binary vectors, bit values assigned to each dimension are compared and converted to 0 if they match and 1 if they are different, and divided by the total number of dimensions. Therefore, in case of the same data, the comparison result of all bits will be 0. Therefore, the closer to 0, the more the result is the user's data.In case of other people's data, if the appropriate threshold value is set, it becomes the boundary separating the user's and others' data. If the similarity value between the two irises to be compared is greater than or equal to the threshold, another person is determined. If it is less than or equal to the threshold, the same person is determined.

생체 인식 기법을 평가하는 대표적인 지표로서 인식률이 있다. 홍채 인식에 있어서 에러는 등록된 사용자의 홍채와는 다른 사람의 홍채가 입력되었음에도 불구하고 동일한 사용자의 홍채로 잘못 판정할 때와 등록된 사용자의 홍채와 같은 사용자의 홍채가 입력되었음에도 불구하고 타인이라 잘못 판정할 때 발생한다. 따라서 전자의 빈도와 후자의 빈도, 즉 타인 수락률(FAR : false acceptance rate, 이하 'FAR'이라 한다)과 본인 거부율(FRR : false rejection rate, 이하 'FRR'이라 한 다)이 낮을수록 인식률은 높아지는 것이다. Recognition rate is a representative index for evaluating biometrics. In iris recognition, the error is wrong when the user's iris is the same as the iris of the registered user, even though the iris of another person is different from the registered user's iris. Occurs when a judgment is made. Therefore, the lower the frequency of the former and the latter, that is, the false acceptance rate (FAR) and the false rejection rate (FRR), the lower the recognition rate. It is getting higher.

상기 FAR과 FRR은 첨부된 도 3에 도시한 바와 같이 두 개의 분포(distribution)로부터 설명될 수 있다. 왼쪽의 분포는 등록된 동일인의 두 개의 홍채 데이터의 유사도를 비교했을 경우의 분포(이 분포를 나타내는 함수를 이하 F(x)라 한다)이고, 오른쪽의 분포는 등록된 사람과 타인의 홍채 데이터를 비교했을 경우의 분포(이 분포를 나타내는 함수를 이하 G(x)라 한다)이다. x축에 임의의 값을 정해 이를 임계값이라 하고, 임계값보다 작은 범위에서 G(x)와 x축 사이의 넓이를 계산한 값이 FAR이며, 임계값보다 큰 범위에서 F(x)와 x축 사이의 넓이를 계산한 값이 FRR이다. FAR과 FRR은 임계값에 따라 다르게 나타나며, 응용분야에 따라 임계값을 다르게 설정할 수 있다.The FAR and FRR may be described from two distributions as shown in FIG. 3. The distribution on the left is the distribution when the similarity of two iris data of the same registered person is compared (the function representing this distribution is called F (x)), and the distribution on the right shows the iris data of registered person and others. Distribution in the case of comparison (the function representing this distribution is hereinafter referred to as G (x)). We set a random value on the x-axis and call it a threshold. The calculated area between G (x) and the x-axis in the range below the threshold is FAR, and F (x) and x in the range larger than the threshold. The calculated value between the axes is FRR. FAR and FRR appear differently depending on the threshold, and the threshold can be set differently according to the application.

첨부된 도 3에 도시된 왼쪽의 분포, 즉 F(x)는 후술 되는 여러 가지 요인으로 인해 다소 큰 분산을 갖는 분포이다. 큰 분산은 상기 FAR과 FRR을 높이는 요인이 되며 따라서 상기 홍채 인식의 인식률은 낮아지게 된다.The left distribution, ie, F (x), shown in FIG. 3 is a distribution having a somewhat large dispersion due to various factors described below. Large variance is a factor for increasing the FAR and FRR, and thus the recognition rate of the iris recognition is lowered.

상기 홍채 인식에서 FAR과 FRR을 높이는 요인은 홍채 자체의 변형(deformation)으로 인하여 발생하기도 하며, 상기 홍채 인식 방법의 여러 단계에서 다양하게 존재한다. Factors that increase FAR and FRR in iris recognition may occur due to deformation of the iris itself, and may exist in various stages of the iris recognition method.

특히 첨부된 도 4에 도시한 바와 같이 인간의 홍채는 동공의 크기 변화에 따라 수축 또는 팽창하면서 개개의 사람마다 다르게 특징적 형상이 이동하기 때문에 상기 에러를 발생시키는 요인이 되는 것이다. 즉 홍채 변형의 양상은 개개인의 사람마다 다르며, 같은 사람의 홍채라도 각각의 부위에 따라 일정한 변형 양상이 있 는 것은 아니다.In particular, as shown in Figure 4 attached to the human iris is a factor that causes the error because the characteristic shape is moved differently for each person while shrinking or expanding in accordance with the change in the size of the pupil. That is, the iris deformation pattern is different for each person, and even the iris of the same person does not have a certain deformation pattern for each part.

또한 상기 홍채 인식 방법의 여러 단계 중에서 발생할 수 있는 에러의 대표적인 것으로는 홍채의 영역을 추출하는 단계에서 홍채 영역의 경계를 설정하는 과정에서 발생하는 에러이다. 즉 카메라 주위 조도의 변화, 카메라와 얼굴 사이의 거리 변화, 카메라 광축과 눈의 불일치 등으로 인해 홍채 부분이 획득된 영상에서 항상 동일한 위치에 존재하지 않으며, 더욱이 눈썹, 눈꺼풀에 의한 가림(occlusion)에 의하여 항상 동일한 특징이 추출되지 않고 있어 오인식률, 즉 FAR 또는 FRR을 높이는 요인이 되고 있다.In addition, one of the errors that may occur among the various steps of the iris recognition method is an error occurring in the process of setting the boundary of the iris region in the step of extracting the iris region. In other words, due to the change in illumination around the camera, the distance between the camera and the face, and the discrepancy between the camera's optical axis and the eye, the iris is not always in the same position in the acquired image, and furthermore, due to occlusion caused by eyebrows and eyelids. As a result, the same feature is not always extracted, which increases the false recognition rate, that is, FAR or FRR.

따라서 본 발명은 상술한 제반 문제점을 해결하고자 안출된 것으로, 홍채 부위와 다른 부위(동공 또는 공막)의 경계를 설정하는데 발생하는 에러 또는 홍채의 변형으로 인하여 발생하는 에러에 의하여 인식률 저하를 방지할 수 있는 변형에 강건한 홍채 인식 방법을 제공함에 그 목적이 있다.Therefore, the present invention has been made to solve the above-mentioned problems, it is possible to prevent the recognition rate is reduced by the error caused by the error of setting the boundary between the iris area and other areas (the pupil or sclera) or the deformation caused by the iris. The purpose of the present invention is to provide an iris recognition method that is robust to the present transformation.

본 발명의 다른 목적은 종래의 영역 분할 방법에 의하여 영역을 분할하는 경우 상기 영역 간의 경계에 존재하는 이미지 정보의 손실을 방지하기 위하여 상기 영역간의 경계를 포함하는 중첩 영역 분할방식을 구비하여 이로부터 추가적인 정보를 얻음으로써 보다 신뢰성 있는 변형에 강건한 홍채 인식 방법을 제공함에 그 목적이 있다.Another object of the present invention is to provide an overlapping region partitioning method including a boundary between the regions in order to prevent the loss of image information existing at the boundary between the regions when segmenting the region by a conventional region segmentation method. The purpose is to provide a robust iris recognition method for more reliable deformation by obtaining information.

본 발명의 또 다른 목적은 종래의 가림(occlusion)이 홍채 영역에 발생하였을 때 나타나는 정보의 왜곡으로 인한 인식률 저하를 방지할 수 있는 변형에 강건 한 홍채 인식 방법을 제공함에 그 목적이 있다.Another object of the present invention is to provide an iris recognition method that is robust to deformation that can prevent a decrease in recognition rate due to distortion of information appearing when conventional occlusion occurs in the iris region.

상술한 바와 같은 목적을 구현하기 위한 본 발명의 변형에 강건한 홍채 인식 방법은 신원확인을 위한 홍채 영상을 등록 또는 인증용 영상을 얻기 위해 카메라로부터 홍채가 포함된 눈의 영상을 획득하는 단계, 상기 눈의 영상에서 홍채의 영역을 추출하는 단계, 추출된 홍채 영역을 여러 개의 영역으로 분할하여 각각의 분할된 영역의 홍채 특징을 찾는 단계, 상기 등록된 홍채 특징과 인증용 홍채 특징의 유사도를 비교하는 정합 단계를 포함하여 이루어진 홍채 인식 방법에 있어서, 상기 정합 단계는 상기 등록용 영상 정보의 분할 영역과 상기 분할 영역에 인접한 평행이동 영역으로 이루어진 등록용 바이브레이션 영역을 상기 등록용 영상 정보의 분할영역에 대응되는 위치의 인증용 영상 정보의 분할 영역과 상기 분할 영역에 인접한 평행이동 영역으로 이루어진 인증용 바이브레이션 영역과 비교하는 바이브레이션 기법을 사용하는 것을 특징으로 한다.The iris recognition method robust to the modification of the present invention for realizing the above object comprises the steps of: acquiring an image of an eye including an iris from a camera to obtain an image for registering or authenticating an iris image for identification; Extracting an iris region from an image of the image, dividing the extracted iris region into multiple regions, finding an iris characteristic of each divided region, and comparing the similarity between the registered iris characteristics and the authentication iris characteristics In the iris recognition method comprising a step, wherein the registration step is a registration vibration region consisting of a partition region of the registration image information and a parallel movement region adjacent to the partition region corresponding to the partition region of the registration image information. A segmentation area of image information for authentication of a position and a parallel movement area adjacent to the segmentation area. It characterized by using a vibration technique to compare consisting authentication vibration region for.

또한, 상기 정합 단계는 상기 등록용 영상 정보의 분할 영역을 상기 분할영역에 대응되는 위치의 인증용 영상 정보의 분할 영역의 바이브레이션 영역과 비교하는 것을 특징으로 한다.The matching may include comparing the divided region of the registration image information with the vibration region of the divided region of the authentication image information at a position corresponding to the divided region.

또한, 상기 정합 단계는 상기 인증용 영상 정보의 분할 영역을 상기 분할영역에 대응되는 위치의 등록용 영상 정보의 분할 영역의 바이브레이션 영역과 비교하는 것을 특징으로 한다.The matching may include comparing the divided region of the authentication image information with the vibration region of the divided region of the registration image information at a position corresponding to the divided region.

또한, 상기 정합 단계는 상기 등록용 영상 정보의 분할 영역을 상기 분할영 역에 대응되는 위치의 인증용 영상 정보의 분할 영역의 바이브레이션 영역과 비교하고 또한 상기 인증용 영상 정보의 분할 영역을 상기 분할영역에 대응되는 위치의 등록용 영상 정보의 분할 영역의 바이브레이션 영역과 비교하는 것을 특징으로 한다.In the matching step, the divided area of the registration image information is compared with a vibration area of the divided area of the authentication image information at a position corresponding to the divided area, and the divided area of the authentication image information is divided into the divided areas. And a vibration area of the divided area of the image information for registration of the position corresponding to the subfield.

또한, 상기 정합단계의 비교되는 두 개의 분할영역의 거리를 측정하는 수단은 함수

Figure 112006014331923-PAT00001
에 의하여 구하는 것으로서 상기 A는 등록용 영상 정보의 분할영역이고 상기 B는 인증용 영상 정보의 분할영역이거나 상기 A는 인증용 영상 정보의 분할영역이고 상기 B는 등록용 영상 정보의 분할영역인 것을 특징으로 한다.In addition, the means for measuring the distance between the two divided regions of the matching step is a function
Figure 112006014331923-PAT00001
Wherein A is a partition area of the registration video information, B is a partition area of the authentication video information, A is a partition area of the authentication video information, and B is a partition area of the registration video information. It is done.

또한, 상기 정합단계의 비교되는 두 개의 분할영역의 거리는 함수

Figure 112006014331923-PAT00002
의 값과
Figure 112006014331923-PAT00003
의 값 중에서 작은 값으로 정하는 것으로서 상기 A는 등록용 영상 정보의 분할영역이고 상기 B는 인증용 영상 정보의 분할영역이거나 상기 A는 인증용 영상 정보의 분할영역이고 상기 B는 등록용 영상 정보의 분할영역인 것을 특징으로 한다.In addition, the distance between the two divided regions of the matching step is a function
Figure 112006014331923-PAT00002
And the value of
Figure 112006014331923-PAT00003
A is a small value among the values of A, wherein A is a partition of registration video information, B is a partition of authentication video information, A is a partition of authentication video information, and B is a partition of registration video information. It is characterized by an area.

또한, 상기 거리측정 수단의 두 개의 분할영역의 거리를 측정하는 식은 함수

Figure 112006014331923-PAT00004
에 의하여 구하며 상기 함수에 사용 되는 변수는 두 개의 분할영역의 이미지를 주파수 변환하여 얻은 수열
Figure 112006014331923-PAT00005
으로하는 것을 특징으로 한다.In addition, the formula for measuring the distance of the two divided regions of the distance measuring means is a function
Figure 112006014331923-PAT00004
The variable used in the above function is a sequence obtained by frequency-converting images of two partitions.
Figure 112006014331923-PAT00005
Characterized in that.

또한, 상기 정합 단계는 상기 등록용 영상 정보 전체의 분할 영역에 대하여 상기 바이브레이션 기법을 적용하거나 상기 등록용 영상 정보 일부의 분할 영역에 대하여 상기 바이브레이션 기법을 적용하여 분할 영역간 거리값으로부터 구한 스코어링 함수 값으로 유사도를 판정하는 것을 특징으로 한다.The matching step may be performed by applying the vibration technique to the divided regions of the entirety of the registration image information or by applying the vibration technique to the divided regions of the portion of the registration image information. The similarity is determined.

또한, 상기 정합 단계는 상기 등록용 영상 정보와 상기 인증용 영상 정보 간의 상관관계를 찾는 단계, 상기 등록용 영상 정보 전체의 분할 영역 또는 상기 등록용 영상 정보 일부의 분할 영역에 대하여 상기 상관관계에 의하여 상기 등록용 분할영역에 대응되는 인증용 영상 정보의 분할 영역을 찾는 단계, 상기 등록용 영상 정보의 분할영역과 상기 인증용 영상 정보의 분할 영역에 대하여 바이브레이션 기법을 적용하여 분할 영역간 거리 값으로부터 구한 스코어링 함수 값으로 유사도를 판정하는 것을 특징으로 한다.The matching may include: finding a correlation between the image information for registration and the image information for authentication, by performing the correlation on a partition region of the entire registration image information or a partition region of a portion of the image information for registration. Finding a segmentation region of the authentication image information corresponding to the segmentation region for registration, scoring from a distance value between the segmentation regions by applying a vibration technique to the segmentation region of the registration image information and the segmentation region of the authentication image information The similarity is determined by the function value.

또한, 상기 정합 단계는 상기 등록용 영상 정보와 상기 인증용 영상 정보 간의 상관관계를 찾는 단계, 상기 등록용 영상 정보 전체의 분할 영역 또는 상기 등록용 영상 정보 일부의 분할 영역에 대하여 상기 상관관계에 의하여 상기 등록용 분할영역에 대응되는 인증용 영상 정보의 분할 영역을 찾는 단계, 상기 등록용 영상 정보의 분할영역을 상기 인증용 영상 정보의 분할 영역과 비교하여 분할 영역간 거리값으로부터 구한 스코어링 함수 값으로 유사도를 판정하는 것을 특징으로 한 다.The matching may include: finding a correlation between the image information for registration and the image information for authentication, by performing the correlation on a partition region of the entire registration image information or a partition region of a portion of the image information for registration. Finding a segmentation region of the authentication image information corresponding to the segmentation region for registration, and comparing the segmentation region of the image information for registration with the segmentation region of the image information for authentication, using a scoring function value obtained from a distance value between the segmentation regions. It is characterized by determining.

또한, 상기 상관관계 찾는 단계는 상기 등록용 영상 정보의 각각의 분할 영역 중에서 몇 개의 분할 영역을 선정하고, 상기 선정된 각각의 등록용 분할 영역과 상기 선정된 분할 영역에 대응되는 인증용 영상 정보의 분할영역에 대하여 바이브레이션 기법을 적용하여, 상기 선정된 등록용 분할 영역에 대하여 가장 작은 거리 값을 나타낸 인증용 영상 정보의 분할 영역 간의 위치적 상관관계를 구하는 단계를 포함하여 이루어진 것을 특징으로 한다.The searching of the correlation may include selecting a plurality of divided regions from among the divided regions of the registration image information, and selecting each of the selected divided region for registration and the image information for authentication corresponding to the selected divided region. And applying a vibration technique to the divided regions to obtain a positional correlation between the divided regions of the authentication image information having the smallest distance value with respect to the selected registration divided region.

또한, 상기 상관관계는 각 방향의 위치이동, 반지름 방향의 위치이동, 각 방향 및 반지름 방향의 위치 이동 중 어느 하나로 하는 것을 특징으로 한다.In addition, the correlation is characterized in that any one of the position movement in each direction, the position movement in the radial direction, the position movement in each direction and the radial direction.

본 발명의 변형에 강건한 홍채 인식 방법은 신원확인을 위한 홍채 영상을 등록 또는 인증용 영상을 얻기 위해 카메라로부터 홍채가 포함된 눈의 영상을 획득하는 단계, 상기 눈의 영상에서 홍채의 영역을 추출하는 단계, 추출된 홍채 영역을 여러 개의 영역으로 분할하여 각각의 분할된 영역의 홍채 특징을 찾는 단계, 상기 등록된 홍채 특징과 인증용 홍채 특징의 유사도를 비교하는 정합 단계를 포함하여 이루어진 홍채 인식 방법에 있어서, 상기 홍채 특징을 찾는 단계 및 상기 정합 단계의 홍채 영역 분할 방법은 상기 추출된 홍채영역을 여러 개의 영역으로 분할하는 기본 영역 분할과 상기 기본 영역 분할의 경계선을 포함하는 영역으로 이루어진 중첩 영역 분할로 하는 것을 특징으로 한다.The iris recognition method robust to the modifications of the present invention includes obtaining an image of an eye including an iris from a camera to obtain an image for registering or authenticating an iris image for identification, and extracting an iris region from the image of the eye. Iris recognition method comprising the steps of: dividing the extracted iris region into a plurality of regions to find the iris characteristics of each divided region, and a matching step of comparing the similarity between the registered iris features and the authentication iris features. The iris region segmentation method of finding and matching the iris features may include a basic region segmentation which divides the extracted iris region into a plurality of regions, and an overlap region segmentation comprising regions including boundary lines of the basic region segmentation. Characterized in that.

또한, 상기 홍채 특징을 찾는 단계와 상기 정합 단계는 상기 기본 영역 분할과 상기 중첩 영역 분할로부터 구한 거리 값으로부터 스코어링 함수 값을 유사도 판정하는 값으로 하는 단계;를 포함하여 이루어진 것을 특징으로 한다.The finding and matching of the iris features may include determining a similarity value of a scoring function from distance values obtained from the basic region segmentation and the overlap region segmentation.

본 발명의 변형에 강건한 홍채 인식 방법은 신원확인을 위한 홍채 영상을 등록 또는 인증용 영상을 얻기 위해 카메라로부터 홍채가 포함된 눈의 영상을 획득하는 단계, 상기 눈의 영상에서 홍채의 영역을 추출하는 단계, 추출된 홍채 영역을 여러 개의 영역으로 분할하여 각각의 분할된 영역의 홍채 특징을 찾는 단계, 상기 등록된 홍채 특징과 인증용 홍채 특징의 유사도를 비교하는 정합 단계를 포함하여 이루어진 홍채 인식 방법에 있어서, 상기 홍채 특징을 찾는 단계와 상기 정합 단계는 상기 등록 또는 인증용 영상의 홍채 영역을 여러 개의 영역으로 분할하여 각각의 분할된 영역에 대하여 가림 발생 여부를 결정하는 단계; 상기 가림 발생이 없는 공통된 분할영역에 대하여 상기 등록용 분할영역의 추출된 홍채 특징과 상기 인증용 분할영역의 추출된 홍채 특징의 각각의 거리를 구하고 상기 거리의 값들의 대표 값을 구하는 단계; 상기 가림 발생된 분할영역에 대하여 상기 대표 값을 부여하는 단계; 상기 각각의 가림 발생이 없는 공통된 분할영역과 가림 발생한 분할영역에 대하여 주어진 거리 값으로부터 스코어링 함수 값을 유사도 판정하는 값으로 하는 단계;를 포함하여 이루어진 것을 특징으로 한다.The iris recognition method robust to the modifications of the present invention includes obtaining an image of an eye including an iris from a camera to obtain an image for registering or authenticating an iris image for identification, and extracting an iris region from the image of the eye. Iris recognition method comprising the steps of: dividing the extracted iris region into a plurality of regions to find the iris characteristics of each divided region, and a matching step of comparing the similarity between the registered iris features and the authentication iris features. The finding and matching of the iris features may include: dividing an iris region of the image for registration or authentication into a plurality of regions to determine whether occlusion occurs for each divided region; Obtaining respective distances of the extracted iris feature of the registration partition and the extracted iris feature of the authentication partition with respect to the common partition without the occlusion, and obtaining representative values of the values of the distance; Assigning the representative value to the occluded partitioned region; And determining a scoring function value from the given distance values for the common partition having no occlusion and the partition having the occlusion.

또한, 상기 대표 값은 상기 각각의 거리 값의 평균값, 중간값, 최빈값 중 어느 하나로 하는 것을 특징으로 한다.The representative value may be one of an average value, a median value, and a mode value of the respective distance values.

또한, 상기 스코어링 함수 값으로는 가중 평균, 가중 기하평균, 가중 제곱 평균 제곱근 중 어느 하나로 하는 것을 특징으로 한다.The scoring function may be any one of a weighted average, a weighted geometric mean, and a weighted squared mean square root.

이하 첨부한 도면을 참조하여 본 발명의 바람직한 실시예에 대한 구성 및 작 용을 상세히 설명하면 다음과 같다.Hereinafter, the configuration and operation of the preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

본 발명의 일실시 예에 따른 변형에 강건한 홍채 인식 방법은 눈의 영상을 획득하는 단계, 홍채 영역 추출 단계, 영역 분할 및 홍채 특징 찾는 단계, 정합 단계를 포함하여 이루어져 있으며, 상기 눈의 영상을 획득하는 단계, 홍채 영역 추출 단계, 영역 분할 및 홍채 특징 찾는 단계의 작용은 종래의 기술과 동일하므로 설명의 중복을 피하기 위하여 상세한 설명은 생략하고, 새로이 부가되는 단계들의 작용을 중심으로 하여 상세히 설명한다.The iris recognition method robust to deformation according to an embodiment of the present invention comprises the steps of acquiring an image of an eye, extracting an iris region, segmenting and finding an iris feature, and matching, and acquiring the image of the eye. The operations of the step of extracting the iris, extracting the region, segmenting the region, and finding the iris feature are the same as in the related art.

본 발명의 변형에 강건한 홍채 인식 방법의 정합 단계는 등록용 바이브레이션 영역을 인증용 바이브레이션 영역과 비교하는 바이브레이션 기법을 사용하는 것으로 이루어진 것이다.The matching step of the iris recognition method robust to the modification of the present invention consists of using a vibration technique for comparing the registration vibration area with the authentication vibration area.

상기 등록용 바이브레이션 영역은 등록용 영상 정보의 분할 영역과 상기 분할 영역에 인접한 평행이동 영역으로 이루어진 것이며, 상기 인증용 바이브레이션 영역은 상기 등록용 영상 정보의 분할영역에 대응되는 위치의 인증용 영상 정보의 분할 영역과 상기 분할 영역에 인접한 평행이동 영역으로 이루어진 것이다. 상기 대응되는 위치란 첨부된 도 5에 도시한 바와 같이 두 개의 비교되는 이미지(A,B)에서 이미지 A의 Aij는 이미지 B의 Bij와 서로 대응되는 위치를 의미한다.The registration vibration area includes a division area of the registration image information and a parallel movement area adjacent to the division area, and the authentication vibration area includes the identification image information at a position corresponding to the division area of the registration image information. The divided area and the parallel moving area adjacent to the divided area. And wherein A ij of a corresponding comparison of two as shown in the Figure 5 position is attached to the image in the image (A, B) A means a position corresponding to each other and the B image B ij.

이하 상기 평행이동 영역 및 바이브레이션 기법에 대하여 상세히 설명한다.Hereinafter, the parallel region and the vibration technique will be described in detail.

첨부된 도 5에 도시한 바와 같이 극 좌표계로 변환된 영역을 여러 개의 단위 영역(이하 '셀' 또는 '분할 영역'이라 한다)으로 분할한다. 예를 들어, 첨부된 도 5에서 이미지 A에 셀 Aij가 구획될 수 있고, 상기 셀 Aij의 위치에 대응되는 위치의 이미지 B에 셀 Bij가 구획될 수 있다. 또한 이미지 A에서는 상기 셀 Aij뿐만 아니라 인접한 평행이동 영역이 정의될 수 있고, 이미지 B에서는 상기 셀 Bij뿐만 아니라 인접한 평행이동 영역이 정의될 수 있다. 이러한 특정 셀에 대하여 특정 셀을 포함한 인접한 평행이동 영역을 상기 특정 셀의 '바이브레이션 영역'이라 한다.As shown in FIG. 5, the area converted into the polar coordinate system is divided into a plurality of unit areas (hereinafter referred to as 'cells' or 'split areas'). For example, and from the accompanying Figure 5, the cell A ij on the image A may be partitioned, a cell B ij in image B of the position corresponding to the position of the cell A ij can be partitioned. In addition, in image A, not only the cell A ij but also an adjacent translation region may be defined. In image B, not only the cell B ij but also an adjacent translation region may be defined. An adjacent parallel region including a specific cell with respect to the specific cell is called a 'vibration region' of the specific cell.

예를 들어 상기 셀 Bij의 바이브레이션 영역은 셀 Bij를 포함한 평행이동 영역의 집합으로 구성되는 것이며, 상기 평행이동 영역은 상기 셀 Bij의 4개의 모서리에 중심을 둔 직사각형 영역들과 대응되는 영역으로 구성될 수 있고, 더 평행이동하게 되면 상기 Bij에 인접한 8개의 직사각형 영역들을 더 포함하여 구성될 수 있는 것이다.For example, the vibration region of the cell B ij is the cell will be comprised of a set of the translation region, including the B ij, the translation region is a region corresponding to the rectangular area centered on the four corners of the cell B ij If it is moved more parallel to it may be configured to further include eight rectangular areas adjacent to the B ij .

따라서 상기 바이브레이션 기법이란 기존의 두 개의 비교되는 이미지(A,B)에서 이미지 A의 Aij는 이미지 B의 Bij와 서로 대응되는 위치만을 비교하는 것이 아니라 하나의 비교대상의 이미지의 특정 셀에 대해서 바이브레이션 영역을 상기 특정 셀에 대응되는 위치의 바이브레이션 영역과 서로 비교하는 것을 말한다.Therefore, the vibration technique means that A ij of the image A does not compare only the positions corresponding to B ij of the image B in two existing compared images (A, B), but to a specific cell of an image to be compared. The comparison of the vibration area with the vibration area at a position corresponding to the specific cell.

본 발명의 다른 일실시 예에 따른 변형에 강건한 홍채인식 방법의 상기 정합 단계는 상기 등록용 영상 정보의 분할 영역을 상기 분할영역에 대응되는 위치의 인 증용 영상 정보의 분할 영역의 바이브레이션 영역과 비교하는 것으로 이루어진 것이다.In the matching step of the deformation-proof iris recognition method according to another embodiment of the present invention, the segmentation area of the registration image information is compared with the vibration area of the segmentation area of the authentication image information at a position corresponding to the segmentation area. It is made up of.

본 발명의 또 다른 일실시 예에 따른 변형에 강건한 홍채인식 방법의 상기 정합 단계는 상기 인증용 영상 정보의 분할 영역을 상기 분할영역에 대응되는 위치의 등록용 영상 정보의 분할 영역의 바이브레이션 영역과 비교하는 것으로 이루어진 것이다.In the matching step of the iris recognition method robust to deformation according to another embodiment of the present invention, the division area of the image information for authentication is compared with the vibration area of the division area of the registration image information at a position corresponding to the division area. It is made to do.

전술한 바와 같은 바이브레이션 기법을 적용함에 있어서, 하나의 특정 셀에 대하여는 바이브레이션 영역을 정의하지 아니하고 상기 특정 셀에 대응되는 위치의 셀에 대하여 바이브레이션 영역을 정의하여 이를 비교하는 것을 비대칭 바이브레이션 기법(non-symmetric vibration method)이라고 한다.In applying the above-described vibration technique, an asymmetric vibration technique (non-symmetric) does not define a vibration region with respect to one specific cell but defines and compares the vibration region with respect to a cell at a position corresponding to the specific cell. vibration method).

예를 들어 첨부된 도 5에 도시한 바와 같이 이미지 A의 지정된 셀 Aij에 대하여 상기 셀에 대응되는 위치의 셀(Bij)의 바이브레이션 영역들과의 거리를 구하고, 이러한 거리 값 중에서 가장 작은 값을 지정된 셀 Aij의 대응 이미지 Bij에 대한 거리로 정한다.For example, as shown in FIG. 5, a distance from the vibration regions of the cell B ij at the position corresponding to the cell with respect to the designated cell A ij of the image A is obtained, and the smallest value among these distance values is obtained. Is defined as the distance to the corresponding image B ij of the specified cell A ij .

이러한 과정에서 상기 이미지 A는 등록된 이미지이고 상기 이미지 B는 인증을 위한 이미지일 수 있으며, 그 역도 가능한 것이다. In this process, the image A may be a registered image and the image B may be an image for authentication, and vice versa.

본 발명의 또 다른 일실시 예에 따른 변형에 강건한 홍채인식 방법의 상기 정합 단계는 상기 등록용 영상 정보의 분할 영역을 상기 분할영역에 대응되는 위치 의 인증용 영상 정보의 분할 영역의 바이브레이션 영역과 비교하고 또한 상기 인증용 영상 정보의 분할 영역을 상기 분할영역에 대응되는 위치의 등록용 영상 정보의 분할 영역의 바이브레이션 영역과 비교하는 것으로 이루어진 것이다.According to another embodiment of the present invention, the matching step of the robust iris recognition method according to another embodiment of the present invention compares the divided region of the registration image information with the vibration region of the divided region of the authentication image information at a position corresponding to the divided region. And the division area of the authentication image information is compared with the vibration area of the division area of the registration image information at a position corresponding to the division area.

예를 들어 첨부된 도 6에 도시한 바와 같이 바이브레이션 기법은 상기 이미지 A의 셀 Aij에 대하여 대응 이미지 Bij의 바이브레이션 영역들과의 거리를 구하고, 상기 이미지 B의 셀 Bij에 대해서 대응 이미지 Aij의 바이브레이션 영역들과의 거리를 구한 후, 상기 거리값 중에서 가장 작은 값을 두 개의 비교되는 이미지의 분할 영역 간의 거리로 정하는 방법, 즉 대칭 바이브레이션 기법(symmetric vibration method)도 가능한 것이다.For example, as shown in FIG. 6, the vibration technique obtains a distance from the vibration regions of the corresponding image B ij with respect to the cell A ij of the image A, and corresponds to the corresponding image A with respect to the cell B ij of the image B. After obtaining the distance from the vibration regions of ij , a method of determining the smallest value among the distance values as the distance between the divided regions of two compared images, that is, a symmetric vibration method, is also possible.

본 발명의 또 다른 일실시 예에 따른 변형에 강건한 홍채인식 방법의 상기 정합 단계의 비교되는 두 개의 분할영역의 거리를 측정하는 수단은 함수

Figure 112006014331923-PAT00006
에 의하여 구하는 것으로서 상기 A는 등록용 영상 정보의 분할영역이고 상기 B는 인증용 영상 정보의 분할영역이거나 상기 A는 인증용 영상 정보의 분할영역이고 상기 B는 등록용 영상 정보의 분할영역인 것으로 이루어진 것이다.Means for measuring the distance between the two divided regions of the matching step of the iris recognition method robust to deformation according to another embodiment of the present invention is a function
Figure 112006014331923-PAT00006
Wherein A is a partition area of the registration video information, B is a partition area of the authentication video information, A is a partition area of the authentication video information, and B is a partition area of the registration video information. will be.

본 발명의 또 다른 일실시예에 따른 변형에 강건한 홍채인식 방법의 상기 정합 단계의 비교되는 두 개의 분할영역의 거리는 함수

Figure 112006014331923-PAT00007
의 값과
Figure 112006014331923-PAT00008
의 값 중에서 작은 값으로 정하는 것으로서 상기 A는 등록용 영상 정보의 분할영역이고 상기 B는 인증용 영상 정보의 분할영역이거나 상기 A는 인증용 영상 정보의 분할영역이고 상기 B는 등록용 영상 정보의 분할영역인 것으로 이루어진 것이다.The distance between the two divided regions of the matching step of the iris recognition method robust to deformation according to another embodiment of the present invention is a function
Figure 112006014331923-PAT00007
And the value of
Figure 112006014331923-PAT00008
A is a small value among the values of A, wherein A is a partition of registration video information, B is a partition of authentication video information, A is a partition of authentication video information, and B is a partition of registration video information. It is a realm.

본 발명의 또 다른 일실시예에 따른 변형에 강건한 홍채인식 방법의 상기 거리측정 수단의 두 개의 분할영역의 거리를 측정하는 식은 함수

Figure 112006014331923-PAT00009
에 의하여 구하며 상기 함수에 사용되는 변수는 두 개의 분할영역의 이미지를 주파수 변환하여 얻은 수열
Figure 112006014331923-PAT00010
으로하는 것으로 이루어진 것이다.An equation for measuring the distance between two divided regions of the distance measuring means of the iris recognition method robust to deformation according to another embodiment of the present invention is a function
Figure 112006014331923-PAT00009
The variable used in this function is a sequence obtained by frequency-converting images of two partitions.
Figure 112006014331923-PAT00010
It is made to be.

이하 본 발명의 일실시 예에 따른 변형에 강건한 홍채 인식 방법의 바이브레이션 기법을 사용하여 거리를 구하는 방법을 상세하게 설명한다.Hereinafter, a method of obtaining a distance using a vibration method of an iris recognition method robust to deformation according to an embodiment of the present invention will be described in detail.

먼저 극좌표계로 변환한 이미지가 첨부된 도 7에 도시한 바와 같이 가로×세로의 픽셀(pixel)이 256×64로 이루어진 것으로 정하고, 이 경우 가로 방향은 각 좌표(angular coordinate)에 해당하고, 세로 방향은 중심과의 거리 좌표(radial coordinate, 이하 '반지름 좌표'라 한다)에 해당한다.First, as illustrated in FIG. 7 with the image converted to the polar coordinate system, the pixel of horizontal × length is determined to be 256 × 64. In this case, the horizontal direction corresponds to the angular coordinate, and the vertical direction. Corresponds to the radial coordinate with respect to the center (hereinafter referred to as 'radial coordinate').

상기 변환된 이미지를 가로 방향으로 16등분, 세로 방향으로 8등분 하게 되면 총 128개의 셀로 나누어지며, 각각의 셀은 가로×세로의 픽셀이 16×8로 이루어지며, 각 픽셀은 0부터 255까지의 그래이(gray) 값을 가지는 것이다. 예를 들어, 도 2는 눈의 이미지와 상기 이미지와 이것의 그래이 데이타를 3차원으로 나타낸 그래픽이다.When the converted image is divided into 16 equal parts in the horizontal direction and 8 equal parts in the vertical direction, the cells are divided into a total of 128 cells. Each cell is composed of 16 × 8 pixels in width × length, and each pixel is in the range of 0 to 255. It has a gray value. For example, FIG. 2 is a graphical representation of an image of the eye and the image and its gray data in three dimensions.

상기와 같이 이미지의 영역을 분할한 후에 각각의 단위 셀마다 바이브레이션을 할 영역을 정의한다. 첨부된 도 8에 도시한 바와 같이 각각의 단위 셀에 대하여 평행 이동한 영역(점선으로 표시된 셀 영역)들의 예를 보여주고 있다. After dividing the region of the image as described above, the region to be vibrated is defined for each unit cell. As shown in FIG. 8, an example of regions (cell regions indicated by dashed lines) which are moved in parallel with respect to each unit cell is shown.

또한 상기 바이브레이션의 정의된 값을 순서쌍으로 표시할 수 있으며, 이를 첨부된 도 8의 우측 그림에 나타낸 것처럼 표시할 수 있는 것이다. 예를 들어 (2, 3)은 가로방향으로 2 픽셀, 세로방향으로 3 픽셀만큼 평행이동한 것을 의미한다.In addition, the defined values of the vibration may be displayed in ordered pairs, which may be displayed as shown in the right figure of FIG. 8. For example, (2, 3) means that two pixels in the horizontal direction and three pixels in the vertical direction are moved in parallel.

따라서 첨부된 도 8의 우측 그림과 같은 평행이동을 얻기 위해서는 (-16, -8)에서부터 (16, 8)까지 총 12개의 순서쌍을 정하면 된다. 이 경우 1개의 대응 셀(0, 0)과 12개의 평행이동 영역으로 구성된 바이브레이션 영역이 생성되는 것이다.Therefore, in order to obtain parallel movement as shown in the right figure of FIG. 8, 12 ordered pairs may be determined from (-16, -8) to (16, 8). In this case, a vibration region including one corresponding cell (0, 0) and twelve parallel movement regions is generated.

이러한 바이브레이션 영역을 정의하는데 주의할 점은 가로 방향(각 방향)으로는 주기성에 의해 이미지가 연결되어 있지만, 세로 방향(반지름 방향)으로는 주기성이 없다는 것이다. 따라서 첨부된 도 8의 (3) 영역에서의 바이브레이션 영역과는 달리 (1)영역과 (2)영역에서는 순서쌍 (-16, -8), (0, -8), (16, -8), (-8, -4), (8, -4)에 의한 평행이동은 나타나지 않는다. Note that in defining such a vibration region, the images are connected by periodicity in the horizontal direction (each direction), but there is no periodicity in the vertical direction (radius direction). Therefore, unlike the vibration region in the region (3) of FIG. 8, the ordered pairs (-16, -8), (0, -8), (16, -8), No parallel shift by (-8, -4) or (8, -4) is shown.

한편 (1)영역에서 (-16, 0), (-16, 8), (-8, 4)에 의한 순서쌍과 (4)영역에 서 (16, -8), (8, -4), (16, 0), (8, 4), (16, 8)에 의한 순서쌍은 주기성에 의하여 반대편에 나타나고 있다.On the other hand, the ordered pairs by (-16, 0), (-16, 8), (-8, 4) in area (1) and (16, -8), (8, -4), The ordered pairs by (16, 0), (8, 4), (16, 8) are shown on the opposite side by periodicity.

이하 전술한 바와 같이 정의된 두 개의 이미지의 셀 영역 간의 거리를 구하는 방법을 설명한다.Hereinafter, a method of obtaining a distance between cell regions of two images defined as described above will be described.

먼저 거리를 구하고자 하는 두 셀을 각각 A, B라고 하고,

Figure 112006014331923-PAT00011
를 셀에 대해 주파수 변환을 하는 함수라 하면, 각각의 셀 A, B에 다음과 같은 하나의 수열이 형성 된다.First, call the two cells you want to find the distance A and B,
Figure 112006014331923-PAT00011
If is a function of frequency conversion for a cell, the following one sequence is formed in each cell A and B.

Figure 112006014331923-PAT00012
Figure 112006014331923-PAT00012

한편, 두 개의 수열을 변수로 갖는 함수 d를 다음과 같이 정의하고,On the other hand, define a function d with two sequences as variables as

Figure 112006014331923-PAT00013
Figure 112006014331923-PAT00013

Figure 112006014331923-PAT00014
를 셀 B에 대한 바이브레이션 영역들의 집합이라고 정의한다.
Figure 112006014331923-PAT00014
Is defined as a set of vibration regions for cell B.

이러한 경우 두 셀간의 거리 D(A,B)는 다음 식과 같이 표현될 수 있게 된다.In this case, the distance D (A, B) between two cells can be expressed as follows.

Figure 112006014331923-PAT00015
Figure 112006014331923-PAT00015

여기서 비교되는 두 셀에서 상기 A는 등록용 영상 정보의 분할영역이고 상기 B는 인증용 영상 정보의 분할영역이거나 상기 A는 인증용 영상 정보의 분할영역이고 상기 B는 등록용 영상 정보의 분할영역인 것일 수 있다.In the two cells to be compared, A is a partition of registration image information, B is a division of authentication image information, A is a division of authentication image information, and B is a division of registration image information. It may be.

본 발명의 또 다른 일실시예에 따른 변형에 강건한 홍채인식 방법의 상기 정합 단계는 상기 등록용 영상 정보 전체의 분할 영역에 대하여 상기 바이브레이션 기법을 적용하거나 상기 등록용 영상 정보 일부의 분할 영역에 대하여 상기 바이브레이션 기법을 적용하여 분할 영역간 거리값으로부터 구한 스코어링 함수 값으로 유사도를 판정하는 것으로 이루어진 것이다.According to another embodiment of the present invention, the matching step of the robust iris recognition method according to another embodiment of the present invention applies the vibration technique to the divided region of the entirety of the registration image information or the divided region of the portion of the image information for registration. The degree of similarity is determined using a scoring function value obtained from the distance between the divided regions by applying the vibration technique.

따라서 상기 바이브레이션을 적용하는 범위는 상기 등록용 영상 정보 전체의 분할 영역에 대하여 상기 바이브레이션 기법을 적용하거나 상기 등록용 영상 정보 일부의 분할 영역에 대하여 상기 바이브레이션 기법을 적용하여 분할 영역간 거리값으로부터 구한 스코어링 함수 값으로 유사도를 판정하는 것이다.Accordingly, the range to which the vibration is applied is a scoring function obtained from the distance value between the divided regions by applying the vibration technique to the divided regions of the entire registration image information or by applying the vibration technique to the divided regions of the partial image information. The similarity is determined by the value.

상기 스코어링 함수 값으로는 가중 평균, 가중 기하평균, 가중 제곱 평균 제곱근 중 어느 하나로 하는 것이 바람직하다.As the value of the scoring function, the weighted average, the weighted geometric mean, and the weighted square root mean square are preferable.

본 발명의 또 다른 일실시 예에 따른 변형에 강건한 홍채인식 방법의 상기 정합 단계는 상기 등록용 영상 정보와 상기 인증용 영상 정보 간의 상관관계를 찾는 단계, 상기 등록용 영상 정보 전체의 분할 영역 또는 상기 등록용 영상 정보 일부의 분할 영역에 대하여 상기 상관관계에 의하여 상기 등록용 분할영역에 대응되는 인증용 영상 정보의 분할 영역을 찾는 단계, 상기 등록용 영상 정보의 분할영역과 상기 인증용 영상 정보의 분할 영역에 대하여 바이브레이션 기법을 적용하여 분할 영역간 거리 값으로부터 구한 스코어링 함수 값으로 유사도를 판정하는 것으로 이루어진 것이다.The matching step of the iris recognition method robust to deformation according to another embodiment of the present invention may include finding a correlation between the image information for registration and the image information for authentication, a segmentation region of the entire image information for registration, or the Finding a segmentation region of authentication image information corresponding to the segmentation region for registration based on the correlation with respect to a segmentation region of a portion of image information for registration; segmentation of the segmentation region of the registration image information and the image information for authentication; The degree of similarity is determined using a scoring function value obtained from a distance value between divided regions by applying a vibration technique to the region.

즉. 상기 정합 단계는 상관관계를 찾는 단계, 분할 영역을 찾는 단계, 바이브레이션 기법을 적용하는 단계를 포함하여 이루어진 것이다.In other words. The matching step includes finding a correlation, finding a partition, and applying a vibration technique.

상기 상관관계 찾는 단계는 상기 등록용 영상 정보의 각각의 분할 영역 중에서 몇 개의 분할 영역을 선정하고, 상기 선정된 각각의 등록용 분할 영역과 상기 선정된 분할 영역에 대응되는 인증용 영상 정보의 분할영역에 대하여 바이브레이션 기법을 적용하여, 상기 선정된 등록용 분할 영역에 대하여 가장 작은 거리 값을 나타낸 인증용 영상 정보의 분할 영역간의 위치적 상관관계를 구하는 단계이다.The finding of correlation may include selecting a plurality of divided regions from among the divided regions of the registration image information, and splitting regions of the authentication image information corresponding to the selected divided region and the selected divided region. It is a step of obtaining a positional correlation between the divided regions of the authentication image information showing the smallest distance value with respect to the selected registration divided region by applying a vibration technique to the.

상기 분할 영역을 찾는 단계는 상기 등록용 영상 정보 전체의 분할 영역 또는 상기 등록용 영상 정보 일부의 분할 영역에 대하여 상기 상관관계가 적용된 인증용 영상 정보의 분할 영역을 찾는 단계이다. The step of finding the divided region is a step of finding a divided region of the authentication image information to which the correlation is applied to the divided region of the entire registration image information or the divided region of the partial image information.

상기 바이브레이션 기법을 적용하는 단계는 상기 등록용 영상 정보의 분할영역과 상기 인증용 영상 정보의 분할 영역에 대하여 바이브레이션 기법을 적용하여 분할 영역간 거리값으로부터 구한 스코어링 함수 값으로 유사도를 판정하는 단계이다.The applying of the vibration technique may include determining a degree of similarity using a scoring function value obtained from a distance value between the divided regions by applying the vibration technique to the divided region of the registration image information and the divided region of the authentication image information.

예를 들어 첨부된 도 9에 도시한 바와 같이 상기 상관관계는 홍채 부위와 다른 부위(동공 또는 공막)의 경계를 설정하는데 발생하는 에러 또는 홍채의 변형에 의하여 발생한 에러를 나타내는 평행 이동 정보일 수 있다.For example, as shown in FIG. 9, the correlation may be parallel movement information indicating an error occurring in setting the boundary between the iris region and another region (the pupil or the sclera) or an error caused by the deformation of the iris. .

따라서 상기 상관관계에 의하여 상기 등록용 분할영역에 대응되는 인증용 영상 정보의 분할영역의 바이브레이션 영역에 대하여 바이브레이션 기법을 사용할 경우 보다 좁은 영역으로 하여 바이브레이션 함으로써 전체적으로 인증에 소요되는 시간을 줄일 수 있는 것이다.Therefore, when the vibration technique is used for the vibration region of the segmentation region of the authentication image information corresponding to the registration segmentation region by virtue of the correlation, the time required for authentication can be reduced as a whole.

본 발명의 또 다른 일실시 예에 따른 변형에 강건한 홍채인식 방법의 상기 정합 단계는 상기 등록용 영상 정보와 상기 인증용 영상 정보 간의 상관관계를 찾는 단계, 상기 등록용 영상 정보 전체의 분할 영역 또는 상기 등록용 영상 정보 일부의 분할 영역에 대하여 상기 상관관계에 의하여 상기 등록용 분할영역에 대응되는 인증용 영상 정보의 분할 영역을 찾는 단계, 상기 등록용 영상 정보의 분할영역을 상기 인증용 영상 정보의 분할 영역과 비교하여 분할 영역간 거리 값으로부터 구한 스코어링 함수 값으로 유사도를 판정하는 단계를 포함하여 이루어진 것이다.The matching step of the iris recognition method robust to deformation according to another embodiment of the present invention may include finding a correlation between the image information for registration and the image information for authentication, a segmentation region of the entire image information for registration, or the Finding a segmentation region of authentication image information corresponding to the segmentation region for registration based on the correlation with respect to a segmentation region of a portion of image information for registration; And comparing the area with each other to determine the similarity with the scoring function value obtained from the distance between the divided areas.

따라서 상기 상관관계를 찾고나서 이를 적용하여 상기 인증용 영상 정보의 분할 영역과 비교하는 단계에서 바이브레이션 기법을 적용하지 아니함으로써 전체적으로 인증에 소요되는 시간을 더욱 줄일 수 있는 것이다.Therefore, the time required for authentication can be further reduced by not applying the vibration technique in the step of finding the correlation and applying the same to compare the segmentation area of the image information for authentication.

본 발명의 또 다른 일실시 예에 따른 변형에 강건한 홍채인식 방법의 상기 상관관계 찾는 단계는 상기 등록용 영상 정보의 각각의 분할 영역 중에서 몇 개의 분할 영역을 선정하고, 상기 선정된 각각의 등록용 분할 영역과 상기 선정된 분할 영역에 대응되는 인증용 영상 정보의 분할영역에 대하여 바이브레이션 기법을 적용하여, 상기 선정된 등록용 분할 영역에 대하여 가장 작은 거리 값을 나타낸 인증용 영상 정보의 분할 영역간의 위치적 상관관계를 구하는 단계로 이루어진 것이다.According to another embodiment of the present invention, the correlation finding of the robust iris recognition method according to another embodiment of the present invention selects a plurality of partitions from each partition of the registration image information, and selects each of the partitions for registration. By applying a vibration technique to the region and the segmentation region of the authentication image information corresponding to the selected segmentation region, the positional position between the segmentation region of the authentication image information showing the smallest distance value with respect to the selected registration segmentation region. It is a step of finding correlation.

이하 첨부된 도 9를 참조하여 상기 상관관계를 찾는 단계의 일실시 예를 상 세히 설명한다.Hereinafter, an embodiment of finding the correlation will be described in detail with reference to FIG. 9.

첨부된 도 9에 도시한 바와 같이 상기 등록용 영상 정보의 각각의 분할 영역 중에서 4개의 셀을 선정하고, 이들 각각의 셀에 대하여 상기 선정된 분할 영역에 대응되는 인증용 영상 정보의 바이브레이션 영역을 비교하여 그 중 가장 작은 거리 값을 나타낸 인증용 영상 정보의 분할 영역을 찾는다. As shown in FIG. 9, four cells are selected from the respective divided regions of the registration image information, and the respective vibration cells are compared with the vibration regions of the image information for authentication corresponding to the selected divided regions. Then, the divided area of the authentication image information showing the smallest distance value is found.

상기 가장 작은 거리 값을 나타낸 인증용 영상 정보의 분할 영역과 상기 등록용 영상정보의 분할 영역 간의 평행이동 정보를 상기 선정된 4개의 셀에 대하여 구한후 이들의 평균값을 취한 것이 상관관계일 수 있는 것이다.It may be a correlation that the parallel movement information between the divided region of the authentication image information representing the smallest distance value and the divided region of the registration image information is obtained for the selected four cells and then taken their average value. .

따라서 상기 상관관계를 상기 등록용 영상 정보의 분할 영역에 적용한 것이 첨부된 도 9에 도시한 바와 같은 점선으로 표시된 부분, 즉 상관관계가 적용된 인증용 영상정보의 대응되는 분할 영역이다.Therefore, the application of the correlation to the division region of the registration image information is a portion indicated by a dotted line as shown in FIG. 9, that is, a corresponding division region of the authentication image information to which the correlation is applied.

본 발명의 또 다른 일실시 예에 따른 변형에 강건한 홍채인식 방법의 상기 상관관계는 각 방향의 위치이동, 반지름 방향의 위치이동, 각 방향 및 반지름 방향의 위치 이동 중 어느 하나로 하는 것이 바람직하다.According to another embodiment of the present invention, the correlation between the robust iris recognition method according to the present invention is preferably one of position movement in each direction, position movement in a radial direction, and position movement in each direction and a radial direction.

이상에서 살펴본 바와 같이 본 발명의 일실시 예에 따른 변형에 강건한 홍채 인식 방법의 바이브레이션 기법은 홍채 부위와 다른 부위(동공 또는 공막)의 경계를 설정하는데 발생하는 에러 또는 홍채의 변형으로 인하여 발생하는 에러에 의하여 인식률 저하를 방지할 수 있는 역할을 하는 것이다.As described above, the vibration method of the iris recognition method that is robust to deformation according to an embodiment of the present invention is an error that occurs when the boundary between the iris area and another part (the pupil or the sclera) or the error that occurs due to the deformation of the iris. It is to play a role to prevent the reduction of recognition rate.

본 발명의 일실시 예에 따른 변형에 강건한 홍채 인식 방법은 눈의 영상을 획득하는 단계, 홍채 영역 추출 단계, 영역 분할 및 홍채 특징 찾는 단계, 정합 단계를 포함하여 이루어져 있으며, 상기 눈의 영상을 획득하는 단계, 홍채 영역 추출 단계의 작용은 종래의 기술과 동일하므로 설명의 중복을 피하기 위하여 상세한 설명은 생략하고, 새로이 부가되는 단계들의 작용을 중심으로 하여 상세히 설명한다.The iris recognition method robust to deformation according to an embodiment of the present invention comprises the steps of acquiring an image of an eye, extracting an iris region, segmenting and finding an iris feature, and matching, and acquiring the image of the eye. Since the operation of the step of extracting the iris region is the same as in the prior art, the detailed description is omitted in order to avoid duplication of description, and will be described in detail based on the operation of the newly added steps.

본 발명의 변형에 강건한 홍채 인식 방법의 상기 홍채 특징을 찾는 단계와 상기 정합 단계는 홍채 영역을 여러 개의 영역으로 분할하는 기본 영역 분할과 상기 기본 영역 분할의 경계선을 포함하는 영역으로 구획되는 중첩 영역 분할에 의하여 홍채 특징을 찾거나 상기 유사도를 측정하는 것으로 이루어진 것이다.The finding and matching of the iris features of the iris recognition method robust to the modifications of the present invention include: a basic region segmentation that divides the iris region into several regions and an overlapping region segmentation partitioned into an area including a boundary line of the basic region segmentation It is to consist of finding the iris features or measuring the similarity.

즉 첨부된 도 10에 도시한 바와 같이 기존의 단위 분할 영역(이하 '기본 분할 영역'이라 한다)에 대하여 각각 홍채 특징을 찾는 단계와 상기 정합 단계를 적용하여 유사도를 측정함과 아울러 상기 기본 영역 분할의 경계선을 포함하는 영역으로 구성된 오버랩(overlap) 분할 영역(이하 '중첩 분할 영역'이라 한다)에 대하여도 홍채 특징을 찾는 단계와 상기 정합 단계를 적용하여 유사도를 측정하는 것이다.That is, as shown in FIG. 10, the similarity is measured by finding an iris feature and applying the matching step with respect to an existing unit division region (hereinafter, referred to as 'basic division region'). The overlapping region (hereinafter, referred to as an overlapping region), which is composed of an area including a boundary line of the iris, is also measured by applying an iris feature and the matching step.

따라서 종래의 기본 영역 분할로부터 얻을 수 있는 정보의 양보다 더 많은 추가적인 정보를 얻을 수 있게 됨에 따라 통계량의 신뢰도를 높일 수 있다. Therefore, as more information can be obtained than the amount of information obtained from the conventional basic region partitioning, the reliability of the statistics can be increased.

즉, 상기 영역간의 경계를 포함하는 중첩 영역 분할방식을 구비하여 종래의 영역 간의 경계를 사이에 두고 있는 이미지 변화 패턴 정보의 손실을 방지하고 이로부터 추가적인 정보를 얻음으로써 보다 신뢰성을 향상시키는 것이며, 또한 두 이 미지 비교를 위해 이미지가 분할된 셀을 주파수 변환하였을 때, 모든 주파수 정보를 활용하기보다는 각 셀의 크기에 따라 중요한 정보를 제공해주는 주파수의 크기는 서로 다르게 된다. 따라서 셀의 크기에 따라 달라지는 고유한 주파수 정보를 추가적으로 얻을 수 있는 것이다.That is, by providing an overlapping region division method including the boundary between the regions, it is possible to prevent the loss of the image change pattern information having the boundary between the conventional regions and to obtain additional information therefrom, thereby improving reliability. When frequency-converting a cell in which an image is divided to compare two images, the frequency of providing important information is different according to the size of each cell rather than using all the frequency information. Therefore, it is possible to additionally obtain unique frequency information that depends on the size of the cell.

이하 첨부된 도 11에 도시한 바와 같은 기본 분할 영역(좌측 그림)과 중첩 분할 영역(우측 그림)으로 이루어진 분할 영역을 예를 들어 상세히 설명한다.Hereinafter, a divided region consisting of a basic divided region (left picture) and an overlapping divided area (right picture) as shown in FIG. 11 will be described in detail.

먼저 첨부된 도 11의 좌측의 기본 분할 영역은

Figure 112006014331923-PAT00016
패턴이 반복되는 것을 인식할수 있고, 첨부된 도 11의 우측의 중첩 분할 영역을 적용함으로써 추가적으로
Figure 112006014331923-PAT00017
패턴에 대한 정보도 얻을 수 있는 것이다.First attached to the left side of the basic partition of FIG.
Figure 112006014331923-PAT00016
It can be recognized that the pattern is repeated, and additionally by applying the overlapping division of the right side of FIG.
Figure 112006014331923-PAT00017
You can also get information about patterns.

즉 각각의 셀에 대한 주파수 변환시 경계를 사이에 두고 있는 이미지 변화 패턴 정보의 손실된 이미지 정보가 상기 중첩 분할 영역에 의하여 회복됨에 따라 더욱 정확한 유사도의 측정이 가능한 것이다. In other words, as the lost image information of the image change pattern information having the boundary between the frequency conversions for each cell is recovered by the overlapping partition, more accurate measurement of similarity is possible.

한편 추가되는 영역은 첨부된 도 11에 도시한 바와 같이 정형화할 필요는 없고, 다만 기존 분할 영역의 경계를 포함할 수 있는 영역이면 충분한 것이다. 예를 들어 첨부된 도 12의 좌측 실시예와 같이 기본영역 분할에서 4개의 셀을 합쳐서 하나의 중첩영역 분할로 하는 것, 즉 A11+A12+A21+A22 를 B11로 하는 등 다양한 방식으로 인접한 기본 영역 분할을 합쳐서 중첩 영역 분할을 형성하는 것도 가능하며, 도 12의 우측 실시예와 같이 중첩 영역 분할을 형성하는 것도 가능한 것이다.On the other hand, the added area does not need to be formalized as shown in FIG. 11, but an area that can include the boundary of the existing divided area is sufficient. For example, as shown in the left embodiment of FIG. 12, four cells are combined to form one overlapping region, that is, A 11 + A 12 + A 21 + A 22 as B 11 . It is also possible to form an overlapping region division by combining adjacent basic region divisions in a manner, or to form an overlapping region division as in the right embodiment of FIG. 12.

따라서 셀의 크기를 반지름 방향으로 2배 늘이면 기존의 기본 분할 영역에서 가장 작은 주파수의 1/2배에 해당되는 주파수 정보를 추가적으로 얻을 수 있는 것이고, 이러한 원리는 각 방향에서도 동일하게 적용될 수 있는 것이다.Therefore, if the size of the cell is doubled in the radial direction, additional frequency information corresponding to 1/2 times the smallest frequency in the existing basic partition region can be additionally obtained. This principle can be equally applied in each direction. .

또한, 상기 기본 영역 분할에 의하여 형성된 셀 들과 상기 중첩 영역 분할에 의하여 형성된 셀 들을 서로 비교하여 거리를 계산한 다음, 적절한 가중치를 부여하여 스코어링 함수를 만드는 것도 가능한 것이다.In addition, the distance formed by comparing the cells formed by the basic region division and the cells formed by the overlapped region division may be calculated, and then a scoring function may be created by assigning appropriate weights.

본 발명의 또 다른 일실시 예에 따른 변형에 강건한 홍채 인식 방법의 상기 홍채 특징을 찾는 단계와 상기 정합 단계는 상기 기본 영역 분할과 상기 중첩 영역 분할로부터 구한 거리 값으로부터 스코어링 함수 값을 유사도 판정하는 값으로 하는 단계;를 포함하여 이루어진 것이다.The finding and matching of the iris characteristics of the iris recognition method that is robust to deformation according to another embodiment of the present invention are values for determining a similarity value of a scoring function from distance values obtained from the basic region segmentation and the overlapping region segmentation. It is made, including.

상기 스코어링 함수 값으로는 가중 평균, 가중 기하평균, 가중 제곱 평균 제곱근 중 어느 하나로 하는 것이 바람직하다.As the value of the scoring function, the weighted average, the weighted geometric mean, and the weighted square root mean square are preferable.

본 발명의 일실시 예에 따른 변형에 강건한 홍채 인식 방법은 눈의 영상을 획득하는 단계, 홍채 영역 추출 단계, 영역 분할 및 홍채 특징 찾는 단계, 정합 단계를 포함하여 이루어져 있으며, 상기 눈의 영상을 획득하는 단계, 홍채 영역 추출 단계의 작용은 종래의 기술과 동일하므로 설명의 중복을 피하기 위하여 상세한 설명은 생략하고, 새로이 부가되는 단계들의 작용을 중심으로 하여 상세히 설명한다.The iris recognition method robust to deformation according to an embodiment of the present invention comprises the steps of acquiring an image of an eye, extracting an iris region, segmenting and finding an iris feature, and matching, and acquiring the image of the eye. Since the operation of the step of extracting the iris region is the same as in the prior art, the detailed description is omitted in order to avoid duplication of description, and will be described in detail based on the operation of the newly added steps.

본 발명의 변형에 강건한 홍채 인식 방법의 상기 홍채 특징을 찾는 단계와 상기 정합 단계는 가림 평가 기법(occlusion evaluation method)을 사용하여 분할 영역으로부터 추출된 홍채 특징을 각각 비교하여 판정하는 것으로 이루어진다. The finding of the iris feature and the matching step of the iris recognition method robust to the modification of the present invention may be performed by comparing the iris features extracted from the divided regions using an occlusion evaluation method.

상기 가림 평가 기법은 가림 발생 여부를 결정 단계; 공통 분할영역의 대표 값 구하는 단계; 가림 발생한 분할영역에 대표 값 부여 단계; 전체 분할영역의 스코어링 함수값 계산 및 유사도 판정 단계;를 포함하여 이루어진 것이다.The occlusion evaluation technique may include determining whether occlusion occurs; Obtaining a representative value of a common partition; Assigning a representative value to the occluded partition region; Calculating the scoring function values and determining the similarity of the entire partitions.

상기 가림 영역 평가 기법의 가림 발생 여부를 결정 단계는 상기 등록 또는 인증용 영상의 홍채 영역을 여러 개의 영역으로 분할하여 각각의 분할된 영역에 대하여 가림 발생 여부를 결정하는 단계로서, 홍채 인식에서 에러를 가장 많이 발생시키는 요인 중의 하나인 가림(occlusion)이 발생한 분할 영역을 제거하거나 부분적으로 가림이 발생한 경우 가림이 발생한 정도에 따라 선택적으로 제거하는 단계이다.The determining whether the occlusion occurs in the occlusion area evaluating technique is to divide an iris region of the image for registration or authentication into a plurality of regions to determine whether occlusion occurs for each divided region. One of the most frequently occurring factors is to remove a partition area in which occlusion occurs, or selectively remove the occlusion area in accordance with the degree of occlusion.

첨부된 도 13에 도시한 바와 같은 가림이 발생한 등록 또는 인증용 영상의 홍채 영역의 각각의 분할된 셀에 대하여 일정 비율이상의 가림이 발생한 셀은 제외하고 이미지를 비교하는 것이다. 첨부된 도 14는 상기 홍채 영역의 이미지를 극좌표계로 변환시킨 후 50% 이상 가림이 발생한 영역의 셀(X로 표시된 셀)을 제외한 것을 보여주고 있다.The image is compared with each other except for a certain percentage of occluded cells of each divided cell of the iris region of the image for registration or authentication in which occlusion occurs as shown in FIG. 13. The attached FIG. 14 shows that the cells of the regions where cells are occluded by 50% or more after the conversion of the image of the iris region to the polar coordinate system are excluded.

상기 가림 영역 평가 기법의 공통 분할영역의 대표 값 구하는 단계는 상기 가림 발생이 없는 공통된 분할영역에 대하여 상기 등록용 분할영역의 추출된 홍채 특징과 상기 인증용 분할영역의 추출된 홍채 특징의 각각의 거리를 구하고 상기 거리의 값들의 대표 값을 구하는 단계이다.The step of obtaining a representative value of the common partition area of the blind area evaluating technique may include: a distance between each of the extracted iris feature of the registration partition and the extracted iris feature of the authentication partition with respect to the common partition without the occlusion; And obtaining a representative value of the values of the distance.

예를 들어, 첨부된 도 15에 도시한 바와 같이 이미지 A는 등록용 영상이고, 이미지 B는 동일인의 인증용 영상일 수 있다. 첨부된 도 15에 도시한 바와 같이 가림이 발생하는 부위는 등록시 또는 인증시마다 다른 형태로 발생할 수 있기 때문에 두 이미지를 비교할 때에는 가림 발생 분할 영역을 제외하고 공통으로 남은 셀에 대하여 거리를 계산하는 것이다.For example, as shown in FIG. 15, the image A may be a registration image, and the image B may be an image for authentication of the same person. As shown in the accompanying FIG. 15, since the portion where the occlusion occurs may be generated differently at each registration or authentication time, the distance is calculated for the remaining cells except for the occlusion region when comparing two images.

첨부된 도 16은 도 15에서 도시한 두 이미지의 공통된 셀 영역을 도시한 것이다.The accompanying FIG. 16 shows a common cell area of the two images shown in FIG. 15.

이후 공통된 셀 영역으로부터 계산된 거리 값으로부터 대표 값을 구한다. The representative value is then obtained from the distance values calculated from the common cell area.

본 발명의 또 다른 일실시 예에 따른 변형에 강건한 홍채 인식 방법의 상기 대표 값은 주로 평균(average) 값, 중간(median) 값, 또는 최빈(最頻, mode)값 을 사용하는 것이 바람직하다.The representative value of the iris recognition method robust to deformation according to another embodiment of the present invention preferably uses an average value, a median value, or a mode value.

상기 가림 영역 평가 기법의 가림 발생한 분할영역에 대표 값 부여 단계는 가림에 의하여 제외된 셀들에 거리 값으로서 상기 대표 값을 부여하는 것이다.The step of assigning a representative value to the occluded partitioned area of the occlusion area evaluation technique is to assign the representative value as a distance value to the cells excluded by the occlusion.

상기 가림 영역 평가 기법의 전체 분할영역의 스코어링 함수 값 계산 및 유사도 판정 단계는 상기 각각의 가림 발생이 없는 공통된 분할영역과 가림 발생한 분할영역에 대하여 주어진 거리 값의 평균을 취한 값을 유사도 판정하는 값으로 정하는 단계이다.Computing the scoring function value and the similarity determination step of the entire partition area of the blind area evaluation technique is a value that determines the similarity of a value obtained by averaging a given distance value with respect to the common partition area and the partitioned area where each blockage does not occur. It is a deciding step.

본 발명의 또 다른 일실시 예에 따른 변형에 강건한 홍채 인식 방법의 상기 스코어링 함수 값으로는 가중 평균, 가중 기하평균, 가중 제곱 평균 제곱근 중 어느 하나로 하는 것이 바람직하다.According to another embodiment of the present invention, the scoring function value of the robust iris recognition method is preferably one of a weighted average, a weighted geometric mean, and a weighted root mean square root.

이하 유사도를 판정하는 값을 구하는 일례로 종래의 스코어링 함수로서 기하 평균을 사용하여 값을 계산하는 방법과 본 발명의 일실시예에 따른 스코어링 함수로서 기하 평균을 사용하여 값을 계산하는 방법을 상세히 설명한다.Hereinafter, as an example of obtaining a value for determining similarity, a method of calculating a value using a geometric mean as a conventional scoring function and a method of calculating a value using a geometric mean as a scoring function according to an embodiment of the present invention will be described in detail. do.

두 개의 비교 이미지 A와 이미지 B가 각각 m×n개의 셀들로 이루어진 분할 영역이라고 하고, 가림이 발생한 셀영역을 제외한 셀의 개수는 N1이라고 하면, 상기 N1개의 셀의 거리를 측정한 것을 d1, d2, ..., dN1 이라 하면 다음과 같은 스코어링 함수 F를 구할 수 있다.If two comparative images A and B are each divided regions of m × n cells, and the number of cells excluding the occluded cell region is N 1 , the distance between the N 1 cells is measured. If 1 , d 2 , ..., d N1 , the following scoring function F can be obtained.

Figure 112006014331923-PAT00018
Figure 112006014331923-PAT00018

위와 같은 방법으로 두 개의 비교 이미지 C와 이미지 D가 각각 m×n개의 셀들로 이루어진 분할 영역이라고 하고, 가림이 발생한 셀영역을 제외한 셀의 개수는 N2이라고 하면, 상기 N2개의 셀의 거리를 측정한 것을 d1, d2, ..., dN2 이라 하면 다음과 같은 스코어링 함수 F를 구할 수 있다.In the same manner as above, if the two comparative images C and D are each divided regions of m × n cells, and the number of cells excluding the occluded cell region is N 2 , the distance between the N 2 cells is determined. If the measurement is d 1 , d 2 , ..., d N2 , the following scoring function F can be obtained.

Figure 112006014331923-PAT00019
Figure 112006014331923-PAT00019

그러나 전술한 바와 같은 스코어링 함수에서 비교 대상 이미지가 바뀜에 따라 사용되는 변수의 개수가 동일하지 않을 수 있고(N1이 N2와 다른 경우), 이러한 경우 안정적인 스코어링 값을 얻을 수 없는 문제점이 있다. However, in the scoring function as described above, as the comparison target image is changed, the number of variables used may not be the same (when N 1 is different from N 2 ), and in this case, a stable scoring value may not be obtained.

이하 본 발명의 일실시예에 따른 스코어링 함수(scoring function)를 계산하는 방법을 상세히 설명한다.Hereinafter, a method of calculating a scoring function according to an embodiment of the present invention will be described in detail.

선택된 두 개의 비교 이미지가 각각 m×n개의 셀들로 이루어진 분할 영역이라고 하고, 가림이 발생한 셀영역을 제외한 셀의 개수는 N이라고 하면, 상기 N개의 셀의 거리를 측정한 것을 d1, d2, ..., dN 이라 하면, 이러한 값들로부터 대표 값을 구한다. 이 때 대표값으로는 평균(average) 값, 중간(median) 값, 또는 최빈(最頻, mode)값 등 어떠한 것을 사용하는 것도 가능하다.When the two selected comparison images are each divided regions of m × n cells, and the number of cells excluding the occluded cell region is N, the distances of the N cells are measured as d 1 , d 2 , ..., d N , the representative value is obtained from these values. In this case, any representative value may be used, such as an average value, a median value, or a mode value.

상기 가림이 발생한 (m×n - N)개의 각각의 셀영역들에 대하여 상기 대표값을 일률적으로 부여하면, 다음과 같은 스코어링 함수 F를 구할 수 있다.If the representative value is uniformly assigned to each of the (m × n−N) cell regions where the occlusion occurs, the following scoring function F can be obtained.

Figure 112006014331923-PAT00020
Figure 112006014331923-PAT00020

따라서 전술한 바와 같은 본 발명의 일실시예에 따른 스코어링 함수를 계산하는 방법에 의하여 선택된 이미지에 관계없이 모든 셀에 일정한 값을 부여할 수 있게되어 보다 안정적인 데이터를 얻을 수 있는 것이다. Therefore, by using the method of calculating a scoring function according to the embodiment of the present invention as described above, it is possible to give a constant value to all cells regardless of the selected image, thereby obtaining more stable data.

본 발명은 상기 실시 예에 한정되지 않고 본 발명의 기술적 요지를 벗어나지 아니하는 범위 내에서 다양하게 수정/변형되어 실시될 수 있음은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 있어서 자명한 것이다.It will be apparent to those skilled in the art that the present invention is not limited to the above embodiments and can be practiced in various ways within the scope not departing from the technical gist of the present invention. will be.

이상에서 상세히 설명한 바와 같이, 본 발명에 따른 변형에 강건한 홍채 인식 방법에 의하면 홍채 특징 간의 유사도를 판단하는 정합 단계에서 비교하는 두 개의 이미지를 대응하는 영역 이외의 다른 영역과도 비교하는 단계를 구비함으로써 홍채 부위와 다른 부위(동공 또는 공막)의 경계를 설정하는데 발생하는 에러 또는 홍채의 변형으로 인하여 발생하는 에러에 의하여 인식률 저하를 방지할 수 있는 효과가 있다.As described in detail above, according to the robust iris recognition method according to the present invention, by comparing the two images to be compared with other areas other than the corresponding area in the matching step of determining the similarity between the iris features by There is an effect that the recognition rate can be prevented from being lowered due to an error occurring in setting the boundary between the iris area and another part (the pupil or the sclera) or an error caused by the deformation of the iris.

Claims (17)

신원확인을 위한 홍채 영상을 등록 또는 인증용 영상을 얻기 위해 카메라로부터 홍채가 포함된 눈의 영상을 획득하는 단계, 상기 눈의 영상에서 홍채의 영역을 추출하는 단계, 추출된 홍채 영역을 여러 개의 영역으로 분할하여 각각의 분할된 영역의 홍채 특징을 찾는 단계, 상기 등록된 홍채 특징과 인증용 홍채 특징의 유사도를 비교하는 정합 단계를 포함하여 이루어진 홍채 인식 방법에 있어서, Acquiring an image of an eye including an iris from a camera to register an iris image for identification or obtaining an image for authentication, extracting an iris region from the image of the eye, and extracting the iris region from multiple regions In the iris recognition method comprising the step of finding the iris feature of each divided region by dividing into a matching step of comparing the similarity between the registered iris feature and the authentication iris feature, 상기 정합 단계는 상기 등록용 영상 정보의 분할 영역과 상기 분할 영역에 인접한 평행이동 영역으로 이루어진 등록용 바이브레이션 영역을 상기 등록용 영상 정보의 분할영역에 대응되는 위치의 인증용 영상 정보의 분할 영역과 상기 분할 영역에 인접한 평행이동 영역으로 이루어진 인증용 바이브레이션 영역과 비교하는 바이브레이션 기법을 사용하는 것을 특징으로 하는 변형에 강건한 홍채 인식 방법.In the matching step, the registration vibration area including the division area of the registration image information and the parallel movement area adjacent to the division area is divided into the division area of the authentication image information at a position corresponding to the division area of the registration image information. An iris recognition method robust to deformation, characterized by using a vibration technique that is compared with an authentication vibration region composed of parallel movement regions adjacent to the divided region. 제1항에 있어서, 상기 정합 단계는 상기 등록용 영상 정보의 분할 영역을 상기 분할영역에 대응되는 위치의 인증용 영상 정보의 분할 영역의 바이브레이션 영역과 비교하는 것을 특징으로 하는 변형에 강건한 홍채 인식 방법.The method according to claim 1, wherein the matching step compares the divided region of the registration image information with the vibration region of the divided region of the authentication image information at a position corresponding to the divided region. . 제1항에 있어서, 상기 정합 단계는 상기 인증용 영상 정보의 분할 영역을 상기 분할영역에 대응되는 위치의 등록용 영상 정보의 분할 영역의 바이브레이션 영역과 비교하는 것을 특징으로 하는 변형에 강건한 홍채 인식 방법.The method according to claim 1, wherein the matching step compares the segmentation region of the authentication image information with the vibration region of the segmentation region of the registration image information at a position corresponding to the segmentation region. . 제1항에 있어서, 상기 정합 단계는 상기 등록용 영상 정보의 분할 영역을 상기 분할영역에 대응되는 위치의 인증용 영상 정보의 분할 영역의 바이브레이션 영역과 비교하고 또한 상기 인증용 영상 정보의 분할 영역을 상기 분할영역에 대응되는 위치의 등록용 영상 정보의 분할 영역의 바이브레이션 영역과 비교하는 것을 특징으로 하는 변형에 강건한 홍채 인식 방법.The method of claim 1, wherein the matching step comprises comparing the divided region of the registration image information with the vibration region of the divided region of the authentication image information at a position corresponding to the divided region, and further including the divided region of the authentication image information. And a vibration area of the divided area of the registration image information of the position corresponding to the divided area. 제2항 또는 제3항에 있어서, 상기 정합단계의 비교되는 두 개의 분할영역의 거리를 측정하는 수단은 함수
Figure 112006014331923-PAT00021
에 의하여 구하는 것으로서 상기 A는 등록용 영상 정보의 분할영역이고 상기 B는 인증용 영상 정보의 분할영역이거나 상기 A는 인증용 영상 정보의 분할영역이고 상기 B는 등록용 영상 정보의 분할영역인 것을 특징으로 하는 변형에 강건한 홍채 인식 방법.
4. A means according to claim 2 or 3, wherein the means for measuring the distance of the two divided regions of the matching step is a function.
Figure 112006014331923-PAT00021
Wherein A is a partition area of the registration video information, B is a partition area of the authentication video information, A is a partition area of the authentication video information, and B is a partition area of the registration video information. Iris recognition method robust to transformation.
제4항에 있어서, 상기 정합단계의 비교되는 두 개의 분할영역의 거리는 함수
Figure 112006014331923-PAT00022
의 값과
Figure 112006014331923-PAT00023
의 값 중에서 작은 값으로 정하는 것으로서 상기 A는 등록용 영상 정보의 분할영역이고 상기 B는 인증용 영상 정보의 분 할영역이거나 상기 A는 인증용 영상 정보의 분할영역이고 상기 B는 등록용 영상 정보의 분할영역인 것을 특징으로 하는 변형에 강건한 홍채 인식 방법.
5. The method of claim 4, wherein the distances of the two divided regions of the matching step are functions
Figure 112006014331923-PAT00022
And the value of
Figure 112006014331923-PAT00023
The value A is a small value among the values of A, wherein A is a partition area of the image information for registration, B is a partition area of the image information for authentication, A is a partition area of the image information for authentication, and B is a portion of the image information for registration. An iris recognition method robust to deformation, characterized in that it is a partition region.
제5항 또는 제6항에 있어서, 상기 거리측정 수단의 두 개의 분할영역의 거리를 측정하는 식은 함수
Figure 112006014331923-PAT00024
에 의하여 구하며 상기 함수에 사용되는 변수는 두개의 분할영역의 이미지를 주파수 변환하여 얻은 수열
Figure 112006014331923-PAT00025
으로하는 것을 특징으로 하는 변형에 강건한 홍채 인식 방법.
The method of claim 5 or 6, wherein the equation for measuring the distance of the two divided regions of the distance measuring means is a function
Figure 112006014331923-PAT00024
The variable used in the function is a sequence obtained by frequency-converting images of two partitions.
Figure 112006014331923-PAT00025
Iris recognition method robust to deformation, characterized in that.
제1항에 있어서, 상기 정합 단계는 상기 등록용 영상 정보 전체의 분할 영역에 대하여 상기 바이브레이션 기법을 적용하거나 상기 등록용 영상 정보 일부의 분할 영역에 대하여 상기 바이브레이션 기법을 적용하여 분할 영역간 거리값으로부터 구한 스코어링 함수 값으로 유사도를 판정하는 것을 특징으로 하는 변형에 강건한 홍채 인식 방법.The method of claim 1, wherein the matching step is obtained from a distance value between divided regions by applying the vibration technique to the divided regions of the entirety of the registration image information or by applying the vibration technique to the divided regions of the portion of the registration image information. An iris recognition method robust to deformation, characterized in that the similarity is determined by a scoring function value. 제1항에 있어서, 상기 정합 단계는 상기 등록용 영상 정보와 상기 인증용 영상 정보 간의 상관관계를 찾는 단계, 상기 등록용 영상 정보 전체의 분할 영역 또는 상기 등록용 영상 정보 일부의 분할 영역에 대하여 상기 상관관계에 의하여 상 기 등록용 분할영역에 대응되는 인증용 영상 정보의 분할 영역을 찾는 단계, 상기 등록용 영상 정보의 분할영역과 상기 인증용 영상 정보의 분할 영역에 대하여 바이브레이션 기법을 적용하여 분할 영역간 거리값으로부터 구한 스코어링 함수 값으로 유사도를 판정하는 것을 특징으로 하는 변형에 강건한 홍채 인식 방법.The method of claim 1, wherein the matching comprises: finding a correlation between the image information for registration and the image information for authentication, the division region of the whole registration image information, or the division region of a portion of the registration image information. Finding a segmentation region of the authentication image information corresponding to the segmentation region for registration based on the correlation; applying a vibration technique to the segmentation region of the registration image information and the segmentation region of the authentication image information, An iris recognition method robust to deformation, characterized in that similarity is determined by a scoring function value obtained from a distance value. 제1항에 있어서, 상기 정합 단계는 상기 등록용 영상 정보와 상기 인증용 영상 정보 간의 상관관계를 찾는 단계, 상기 등록용 영상 정보 전체의 분할 영역 또는 상기 등록용 영상 정보 일부의 분할 영역에 대하여 상기 상관관계에 의하여 상기 등록용 분할영역에 대응되는 인증용 영상 정보의 분할 영역을 찾는 단계, 상기 등록용 영상 정보의 분할영역을 상기 인증용 영상 정보의 분할 영역과 비교하여 분할 영역간 거리값으로부터 구한 스코어링 함수 값으로 유사도를 판정하는 것을 특징으로 하는 변형에 강건한 홍채 인식 방법.The method of claim 1, wherein the matching comprises: finding a correlation between the image information for registration and the image information for authentication, the division region of the whole registration image information, or the division region of a portion of the registration image information. Finding a segmentation region of the authentication image information corresponding to the segmentation region for registration by correlation, and scoring obtained from a distance value between the segmentation regions by comparing the segmentation region of the registration image information with the segmentation region of the authentication image information An iris recognition method robust to deformation, characterized in that the similarity is determined by a function value. 제9항 또는 제10항에 있어서, 상기 상관관계 찾는 단계는 상기 등록용 영상 정보의 각각의 분할 영역 중에서 몇 개의 분할 영역을 선정하고, 상기 선정된 각각의 등록용 분할 영역과 상기 선정된 분할 영역에 대응되는 인증용 영상 정보의 분할영역에 대하여 바이브레이션 기법을 적용하여, 상기 선정된 등록용 분할 영역에 대하여 가장 작은 거리 값을 나타낸 인증용 영상 정보의 분할 영역 간의 위치적 상관관계를 구하는 단계를 포함하여 이루어진 것을 특징으로 하는 변형에 강건한 홍채 인식 방법.The method as claimed in claim 9 or 10, wherein the searching for correlation comprises selecting several partitions from among the divided areas of the registration image information, and wherein the selected partitions for registration and the selected partitions are selected. Obtaining a positional correlation between the divided regions of the authentication image information representing the smallest distance value with respect to the selected registration divided region by applying a vibration technique to the divided regions of the authentication image information corresponding to Iris recognition method robust to deformation, characterized in that made by. 제11항에 있어서, 상기 상관관계는 각 방향의 위치이동, 반지름 방향의 위치이동, 각 방향 및 반지름 방향의 위치 이동 중 어느 하나로 하는 것을 특징으로 하는 변형에 강건한 홍채 인식 방법.12. The method of claim 11, wherein the correlation is any one of position movement in each direction, position movement in a radial direction, and position movement in each direction and a radial direction. 신원확인을 위한 홍채 영상을 등록 또는 인증용 영상을 얻기 위해 카메라로부터 홍채가 포함된 눈의 영상을 획득하는 단계, 상기 눈의 영상에서 홍채의 영역을 추출하는 단계, 추출된 홍채 영역을 여러 개의 영역으로 분할하여 각각의 분할된 영역의 홍채 특징을 찾는 단계, 상기 등록된 홍채 특징과 인증용 홍채 특징의 유사도를 비교하는 정합 단계를 포함하여 이루어진 홍채 인식 방법에 있어서, Acquiring an image of an eye including an iris from a camera to register an iris image for identification or obtaining an image for authentication, extracting an iris region from the image of the eye, and extracting the iris region from multiple regions In the iris recognition method comprising the step of finding the iris feature of each divided region by dividing into a matching step of comparing the similarity between the registered iris feature and the authentication iris feature, 상기 홍채 특징을 찾는 단계 및 상기 정합 단계의 홍채 영역 분할 방법은 상기 추출된 홍채영역을 여러 개의 영역으로 분할하는 기본 영역 분할과 상기 기본 영역 분할의 경계선을 포함하는 영역으로 이루어진 중첩 영역 분할로 하는 것을 특징으로 하는 변형에 강건한 홍채 인식 방법.In the iris region segmentation method of finding and matching the iris feature, the iris region segmentation method includes a basic region segmentation that divides the extracted iris region into a plurality of regions and an overlap region segmentation that includes a region including a boundary line of the basic region segmentation. An iris recognition method robust to deformations. 제13항에 있어서, 상기 홍채 특징을 찾는 단계와 상기 정합 단계는 상기 기본 영역 분할과 상기 중첩 영역 분할로부터 구한 거리 값으로부터 스코어링 함수 값을 유사도 판정하는 값으로 하는 단계;를 포함하여 이루어진 것을 특징으로 하는 변형에 강건한 홍채 인식 방법.15. The method of claim 13, wherein the finding and matching of the iris features comprises: determining a similarity value of a scoring function from distance values obtained from the basic region segmentation and the overlapping region segmentation. Robust iris recognition method to deformation. 신원확인을 위한 홍채 영상을 등록 또는 인증용 영상을 얻기 위해 카메라로부터 홍채가 포함된 눈의 영상을 획득하는 단계, 상기 눈의 영상에서 홍채의 영역을 추출하는 단계, 추출된 홍채 영역을 여러 개의 영역으로 분할하여 각각의 분할된 영역의 홍채 특징을 찾는 단계, 상기 등록된 홍채 특징과 인증용 홍채 특징의 유사도를 비교하는 정합 단계를 포함하여 이루어진 홍채 인식 방법에 있어서, Acquiring an image of an eye including an iris from a camera to register an iris image for identification or obtaining an image for authentication, extracting an iris region from the image of the eye, and extracting the iris region from multiple regions In the iris recognition method comprising the step of finding the iris feature of each divided region by dividing into a matching step of comparing the similarity between the registered iris feature and the authentication iris feature, 상기 홍채 특징을 찾는 단계와 상기 정합 단계는 상기 등록 또는 인증용 영상의 홍채 영역을 여러 개의 영역으로 분할하여 각각의 분할된 영역에 대하여 가림 발생 여부를 결정하는 단계; 상기 가림 발생이 없는 공통된 분할영역에 대하여 상기 등록용 분할영역의 추출된 홍채 특징과 상기 인증용 분할영역의 추출된 홍채 특징의 각각의 거리를 구하고 상기 거리의 값들의 대표 값을 구하는 단계; 상기 가림 발생된 분할영역에 대하여 상기 대표 값을 부여하는 단계; 상기 각각의 가림 발생이 없는 공통된 분할영역과 가림 발생한 분할영역에 대하여 주어진 거리 값으로부터 스코어링 함수 값을 유사도 판정하는 값으로 하는 단계;를 포함하여 이루어진 것을 특징으로 하는 변형에 강건한 홍채 인식 방법.The finding and matching of the iris feature may include: dividing an iris region of the image for registration or authentication into a plurality of regions and determining whether occlusion occurs for each divided region; Obtaining respective distances of the extracted iris feature of the registration partition and the extracted iris feature of the authentication partition with respect to the common partition without the occlusion, and obtaining representative values of the values of the distance; Assigning the representative value to the occluded partitioned region; And determining a similarity value of a scoring function value from a given distance value with respect to the common partition having no occlusion and the partition having the occlusion. 2. 제15항에 있어서, 상기 대표 값은 상기 각각의 거리 값의 평균값, 중간값, 최빈값 중 어느 하나로 하는 것을 특징으로 하는 변형에 강건한 홍채 인식 방법.16. The method of claim 15, wherein the representative value is any one of an average value, a median value, and a mode value of the respective distance values. 제8항, 제9항, 제10항, 제14항 또는 제15항 중 어느 하나의 항에 있어서, 상기 스코어링 함수 값으로는 가중 평균, 가중 기하평균, 가중 제곱 평균 제곱근 중 어느 하나로 하는 것을 특징으로 하는 변형에 강건한 홍채 인식 방법.The method of any one of claims 8, 9, 10, 14, or 15, wherein the scoring function value is any one of a weighted average, a weighted geometric mean, and a weighted squared square root. Iris recognition method robust to transformation.
KR1020060018930A 2006-02-27 2006-02-27 Deformation-resilient iris recognition methods KR100786204B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020060018930A KR100786204B1 (en) 2006-02-27 2006-02-27 Deformation-resilient iris recognition methods
PCT/KR2006/004630 WO2007097510A1 (en) 2006-02-27 2006-11-07 Deformation-resilient iris recognition methods

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060018930A KR100786204B1 (en) 2006-02-27 2006-02-27 Deformation-resilient iris recognition methods

Publications (2)

Publication Number Publication Date
KR20070088982A true KR20070088982A (en) 2007-08-30
KR100786204B1 KR100786204B1 (en) 2007-12-17

Family

ID=38437535

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060018930A KR100786204B1 (en) 2006-02-27 2006-02-27 Deformation-resilient iris recognition methods

Country Status (2)

Country Link
KR (1) KR100786204B1 (en)
WO (1) WO2007097510A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101046459B1 (en) * 2010-05-13 2011-07-04 아이리텍 잉크 An iris recognition apparatus and a method using multiple iris templates
KR102483446B1 (en) 2022-06-14 2023-01-06 전병준 Universal milling machine device

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9036872B2 (en) 2010-08-26 2015-05-19 Wavefront Biometric Technologies Pty Limited Biometric authentication using the eye
EP2215579A4 (en) * 2007-11-29 2013-01-30 Wavefront Biometric Technologies Pty Ltd Biometric authentication using the eye
CN108304085B (en) * 2017-01-11 2021-01-01 神盾股份有限公司 Method for judging finger displacement direction and electronic device
CN111553384A (en) * 2020-04-03 2020-08-18 上海聚虹光电科技有限公司 Matching method of multispectral image and single-spectral image

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5291560A (en) 1991-07-15 1994-03-01 Iri Scan Incorporated Biometric personal identification system based on iris analysis
JP3271750B2 (en) 1998-03-05 2002-04-08 沖電気工業株式会社 Iris identification code extraction method and device, iris recognition method and device, data encryption device
JP3610234B2 (en) 1998-07-17 2005-01-12 株式会社メディア・テクノロジー Iris information acquisition device and iris identification device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101046459B1 (en) * 2010-05-13 2011-07-04 아이리텍 잉크 An iris recognition apparatus and a method using multiple iris templates
WO2011142495A1 (en) * 2010-05-13 2011-11-17 아이리텍 잉크 Apparatus and method for iris recognition using multiple iris templates
KR102483446B1 (en) 2022-06-14 2023-01-06 전병준 Universal milling machine device

Also Published As

Publication number Publication date
WO2007097510A1 (en) 2007-08-30
KR100786204B1 (en) 2007-12-17

Similar Documents

Publication Publication Date Title
CN110852160B (en) Image-based biometric identification system and computer-implemented method
US10339362B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US11263432B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
JP5107045B2 (en) Method for identifying a pixel representing an iris in an image acquired for the eye
AU2017370720B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
KR100480781B1 (en) Method of extracting teeth area from teeth image and personal identification method and apparatus using teeth image
Burge et al. Ear biometrics
JP2009523265A (en) Method for extracting iris features in an image
KR20160147675A (en) Method for identifying and/or authenticating an individual by iris recognition
KR100940902B1 (en) The biometrics using finger geometry information
KR101632912B1 (en) Method for User Authentication using Fingerprint Recognition
KR20050025927A (en) The pupil detection method and shape descriptor extraction method for a iris recognition, iris feature extraction apparatus and method, and iris recognition system and method using its
JP2007188504A (en) Method for filtering pixel intensity in image
CN113614731A (en) Authentication verification using soft biometrics
KR20070088982A (en) Deformation-resilient iris recognition methods
KR102225623B1 (en) Face recognizing system using keypoint descriptor matching and majority vote and method thereof
KR101476173B1 (en) User authentication method and system using iris characteristic
Gupta et al. Iris recognition system using biometric template matching technology
KR20120135381A (en) Method of biometrics and device by using pupil geometry
Sathish et al. Multi-algorithmic iris recognition
KR20070076187A (en) Fingerprint recognition method
Adeniyi et al. Sclera boundary localization using circular hough transform and a modified run-data based algorithm
BR122018007964B1 (en) METHOD IMPLEMENTED BY COMPUTER AND SYSTEM
Burge et al. 13EAR BIOMETRICS
FINGERPRINT EFFICIENT MULTIMODAL BIOMETRIC AUTHENTICATION USING FAST FINGERPRINT VERIFICATION AND ENHANCED IRIS FEATURES

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121128

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20131211

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20141208

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20151211

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20161207

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20171211

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20190911

Year of fee payment: 12

R401 Registration of restoration