KR20020023011A - Human iris recognition method using harr wavelet transform and lvq - Google Patents

Human iris recognition method using harr wavelet transform and lvq Download PDF

Info

Publication number
KR20020023011A
KR20020023011A KR1020000055657A KR20000055657A KR20020023011A KR 20020023011 A KR20020023011 A KR 20020023011A KR 1020000055657 A KR1020000055657 A KR 1020000055657A KR 20000055657 A KR20000055657 A KR 20000055657A KR 20020023011 A KR20020023011 A KR 20020023011A
Authority
KR
South Korea
Prior art keywords
iris
image
region
feature vector
class
Prior art date
Application number
KR1020000055657A
Other languages
Korean (ko)
Other versions
KR100357441B1 (en
Inventor
조성원
Original Assignee
박형근
에버미디어 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박형근, 에버미디어 주식회사 filed Critical 박형근
Priority to KR1020000055657A priority Critical patent/KR100357441B1/en
Publication of KR20020023011A publication Critical patent/KR20020023011A/en
Application granted granted Critical
Publication of KR100357441B1 publication Critical patent/KR100357441B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition

Landscapes

  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

PURPOSE: An iris recognition method using Harr wavelet conversion and LVQ(Learning Vector Quantization) is provided to effectively represent and process an iris pattern by reduce memory space usage through a multi division of image. CONSTITUTION: The method comprises steps of executing a pre-treatment for extracting only iris region from the provided input image(S10), multiply dividing the image signal by repeatedly applying the Harr wavelet conversion to the pre-treated iris image and extracting the region including a high frequency component in order to extract a characteristic(S30), extracting the values of information constructing a characteristic vector for the extracted high frequency region and constructing the characteristic vector by quantizing the corresponding value, and executing learning and recognizing an iris characteristic vector by using an initial weight setting method of uniform dispersion and dimensional winner selection method(S60).

Description

하 웨이블렛 변환과 엘브이큐를 이용한 홍채인식방법{HUMAN IRIS RECOGNITION METHOD USING HARR WAVELET TRANSFORM AND LVQ}HUMAN IRIS RECOGNITION METHOD USING HARR WAVELET TRANSFORM AND LVQ}

본 발명은 홍채인식방법에 관한 것으로써, 더욱 상세하게는 하(Harr) 웨이블렛 변환을 이용하여 특징 패턴을 추출하고, 지도학습 신경회로망인 LVQ (Learning Vector Quantization)를 이용하여 패턴을 분류함으로써 보다 정확한 홍채인식이 가능하도록 한 홍채인식방법에 관한 것이다.The present invention relates to an iris recognition method, and more particularly, extracts a feature pattern using a Harle wavelet transform, and classifies the pattern using a learning vector quantization (LVQ) algorithm. The present invention relates to an iris recognition method that enables iris recognition.

일반적으로, 현금자동인출기 및 컴퓨터 시스템을 이용한 각종 기기 등에서 사용되는 패스워드는 사용자의 신원을 확인할 수 있는 가장 보편적인 신원확인방법이다. 그러나, 이러한 사용의 편리성에도 불구하고 패스워드는 사용자가 망각할 수 있거나 타인에 의해 악의적으로 도용될 수 있는 등의 위험성을 내포하고 있기 때문에 사용자의 주의가 항상 요구되는 불편함도 있다. 따라서, 이러한 위험성을 없애고 보다 안정적이고 정확하게 개인의 신원을 확인할 수 있는 방법의 필요성이 대두되었으며 그중 하나가 사람 개개인이 타인과 구분될 수 있는 생물학적인 특징을 이용하는 방법이다. 이러한 생물학적 특징으로는 유전자 형질, 지문, 목소리, 정맥,얼굴의 생김새, 눈동자의 홍채등이 있으며, 이러한 개개인의 생물학적인 고유성을 이용하여 자동으로 그 사람의 신원을 인식하는 시스템은 생물학적 특징의 높은 신뢰도 때문에 오랜 기간 많은 연구가 진행되어 왔으며 지문인식 및 홍채인식분야의 발전이 두드러진다.In general, passwords used in ATMs and various devices using computer systems are the most common identification method for identifying a user's identity. However, in spite of such convenience of use, there is a inconvenience that the user's attention is always required because the password includes the risk of being forgotten by the user or being misused by others. Therefore, there is a need for a method of eliminating these risks and identifying a person's identity more stably and accurately, and one of them is a method of using biological characteristics that can distinguish each person from others. Such biological characteristics include genetic traits, fingerprints, voices, veins, facial appearances, and eye irises. A system that automatically recognizes an individual's identity using the individual's biological uniqueness has high reliability of biological characteristics. Therefore, a lot of research has been conducted for a long time, and the development of the fingerprint recognition and iris recognition is outstanding.

홍채인식 시스템의 경우 홍채(iris)는 눈의 동공과 흰 부위사이에 존재하는 영역으로, 이 홍채에 생겨있는 긴 띠모양의 망(빗살무늬의 인대), 코라지를 한 듯한 붉은 색의 섬유질, 속 눈썹 모양의 돌기, 꾸불꾸불한 형관계, 링모양의 원들, 동공을 둘러싸는 코로나 모양의 인대, 홍채고유의 색, 얼룩점 등이 각 사람마다 다른 생물학적 특징을 갖는다. 이러한 특징의 홍채는 생후 2~3년 안에 그 고유의 모양을 가진 후, 외부환경의 변화에 영향을 거의 받지 않고 영구적으로 지속되기 때문 개인의 신원 확인을 위한 중요한 생물학적인 특징을 많은 관심의 대상이 되고 있다. 즉, 홍채 인식이란 개인마다 각기 다른 홍채 패턴을 분석하고, 그 정보를 바탕으로 개인의 신원을 인식하는 기술이라 할 수 있다.In the case of the iris recognition system, the iris is an area between the pupil of the eye and the white part of the eye. The iris is a long band-like net (comb ligament), a red fiber like cora, Eyebrow bumps, sinusoidal relationships, ring-shaped circles, corona-shaped ligaments surrounding the pupil, iris-specific colors, and spots have different biological characteristics. Since the iris of this characteristic has its own shape within two to three years of life, and persists permanently without being affected by changes in the external environment, it is of great interest for important biological features to identify an individual. It is becoming. In other words, iris recognition is a technique of analyzing individual iris patterns for each individual and recognizing an individual's identity based on the information.

기존의 홍채인식시스템의 경우에는 가버 변환을 이용하여 특징을 추출하고 벡터를 구성하는 방법이 주류를 이루어왔다. 이러한 방법들에 의해 생성된 특징벡터는 256이상의 차원으로 구성되어 한 차원당 한 바이트를 차지한다고 가정하더라도 최소한 256바이트 이상을 차지하기 때문에 실용적인 관점에서는 다소 효율성이 떨어지는 문제가 있다. 따라서, 패턴 정보의 처리, 저장, 전송과 검색 등이 효율적으로 이루어질 수 있는 특징 구성 방법에 대한 필요성이 대두되어 왔다. 기존의 방법들에서는 패턴 분류를 위해서 두 특징벡터(입력 패턴에 대한 특징벡터와 저장되어 있는 참조특징벡터)간의 해밍거리와 같은 간단한 거리측량방법을 이용하기 때문에 패턴정보의 일반화를 통한 참조특징벡터의 구성이 용이하지 않고 특징 벡터의 각 차원이 가지는 정보의 특성을 적절히 반영하지 못하는 단점을 가지고 있다.In the case of the existing iris recognition system, the method of extracting features and constructing vectors using Gabor transformation has been mainstream. Since the feature vectors generated by these methods are composed of 256 or more dimensions and occupy at least one byte per dimension, they occupy at least 256 bytes. Accordingly, there is a need for a feature configuration method capable of efficiently processing, storing, transmitting, and retrieving pattern information. Conventional methods use a simple distance measurement method such as the Hamming distance between two feature vectors (the feature vector for the input pattern and the stored reference feature vector) for pattern classification. It is not easy to construct and does not properly reflect the characteristics of the information of each dimension of the feature vector.

또한, 학습을 통한 데이터의 일반화 기능으로 인해 패턴 분류를 위해 많이 사용되는 LVQ는 오류역전파 학습 알고리즘에 비해 학습 속도가 빠르지만 초기 가중치 벡터에 민감하다는 단점이 있다. 나아가, LVQ의 승자선택방법으로 유클리디안 거리가 일반적으로 사용되기 때문에 특징 벡터의 차원이 클 경우 각 차원에 대한 정보가 소실됨으로써 잘못된 승자를 선택할 수 있고, 계산량이 증가하여 처리가 늦어지는 현상이 발생할 가능성도 있다.In addition, due to the generalization of data through learning, LVQ, which is frequently used for pattern classification, is faster than the error back-propagation learning algorithm, but has a disadvantage in that it is sensitive to an initial weight vector. Furthermore, since Euclidean distance is generally used as the winner selection method of LVQ, when the dimension of the feature vector is large, the information on each dimension is lost, so that the wrong winner can be selected, and the calculation amount increases and the processing is delayed. It is also possible.

따라서, 본 발명은 이러한 종래의 문제점을 해결하기 위하여 안출된 것으로써 그 목적은 웨이블렛 변환을 이용한 영상신호의 다중분할을 통해 홍채 패턴을 최소의 정보 공간을 이용하여 효율적으로 표현하고 처리할 수 있는 홍채인식방법을 제공하고자 하는 것이다.Accordingly, an object of the present invention is to solve such a conventional problem, and an object thereof is to provide an iris that can efficiently express and process an iris pattern using a minimum information space through multiple division of an image signal using wavelet transform. It is to provide a recognition method.

또한, 본 발명의 다른 목적은 LVQ인식기에서 초기 가중치 선정을 효과적으로 하기 위해서 각 클래스의 경계에 보다 가까이 위치한 가중치 벡터만을 초기 가중치로 생성하여서 초기 가중치에 의한 인식 성능의 영향을 최소화하고 처리 성능을 향상시킬 수 있는 홍채인식방법을 제공하고자 하는 것이다.In addition, another object of the present invention is to generate an initial weight only weight vector located closer to the boundary of each class in order to effectively select the initial weight in the LVQ recognizer to minimize the impact of the recognition performance by the initial weight and improve the processing performance It is to provide an iris recognition method that can.

본 발명의 또 다른 목적은 LVQ인식기에서 최종 출력 결과를 생성하기 위해학습된 특징벡터와 입력패턴의 특징벡터를 비교하는 과정에서 각 차원의 정보를 최대한 반영함으로써 효과적으로 비교에 따른 승자선택이 이루어질 수 있도록 한 홍채인식방법을 제공하고자 하는 것이다.Another object of the present invention is to effectively select the winner by comparing the information of each dimension in the process of comparing the feature vector of the input pattern and the feature vector learned to produce the final output result in the LVQ recognizer It is to provide an iris recognition method.

도 1은 본 발명에 따른 홍채인식방법의 전체 과정을 개략적으로 보인 플로우차트이다.1 is a flowchart schematically showing the entire process of the iris recognition method according to the present invention.

도 2는 본 발명에 따른 홍채영상 전처리과정의 상세 플로우차트이다.2 is a detailed flowchart of the iris image preprocessing process according to the present invention.

도 3은 본 발명에 따른 극좌표계로의 변환 및 그 결과를 나타낸 것이다.Figure 3 shows the conversion to the polar coordinate system and the result according to the present invention.

도 4는 본 발명에 따른 하 웨이블렛변환기반의 영상다중분할 방법을 보인 플로우차트이다.4 is a flowchart showing a video wavelet-based image splitting method according to the present invention.

도 5는 본 발명을 구현하기 위한 하 웨이블렛을 이용한 다중분할을 통한 특징추출과정을 나타낸 것이다.5 shows a feature extraction process through multi-division using a wavelet for implementing the present invention.

도 6(a)는 4회의 다중분할을 통한 참조데이터와 비교데이터의 특징벡터에 대한 일치율을 나타낸 것이다.FIG. 6 (a) shows the coincidence rate with respect to the feature vector of the reference data and the comparison data through four multiplexing.

도 6(b)는 5회의 다중분할을 통한 참조데이터와 비교데이터의 특징벡터에 대한 일치율을 나타낸 것이다.FIG. 6 (b) shows the matching rate with respect to the feature vectors of the reference data and the comparison data through five times of multi-division.

도 7은 웨이블렛 변환의 다중분할을 통해 홍채특징벡터를 구성하는 방법을 나타낸 플로우차트이다.7 is a flowchart illustrating a method of constructing an iris feature vector through multiple division of a wavelet transform.

도 8은 본 발명에 따른 LVQ를 위한 균일분포 가중치 초기화방법에 대한 플로우차트이다.8 is a flowchart illustrating a uniform distribution weight initialization method for LVQ according to the present invention.

도 9는 본 발명에 따른 LVQ기반의 인식을 위한 차원별 승자선택방법에 대한 플로우차트이다.9 is a flowchart of a method of selecting a winner by dimension for LVQ-based recognition according to the present invention.

도 10은 본 발명에 따른 차원별 승자선택방법을 나타내는 개념도이다.10 is a conceptual diagram illustrating a winner selection method for each dimension according to the present invention.

상기한 목적을 달성하기 위하여 본 발명에 따른 하 웨이블렛변환과 LVQ를 이용한 홍채인식방법은 홍채 영상을 획득하고, 획득된 홍채 영상으로부터 사용자의 등록데이터를 생성하고, 생성된 등록데이터와 사용자의 인증시 획득된 홍채 영상을 비교하여 사용자에 대한 신분인식을 수행하도록 된 홍채인식방법에 있어서,In order to achieve the above object, an iris recognition method using a wavelet transform and LVQ according to the present invention obtains an iris image, generates user registration data from the obtained iris image, and generates the registered data and authenticates the user. In the iris recognition method to perform identification recognition for the user by comparing the obtained iris image,

(a)제공된 입력영상에 대하여 홍채영역만을 추출하기 위한 전처리를 수행하는 단계와,(a) performing preprocessing to extract only the iris region with respect to the provided input image;

(b)상기 단계(a)에서 전처리를 거친 홍채 영상에 대해서 하(Harr)웨이블렛 변환을 소정 횟수 반복적으로 적용하여 영상 신호를 다중으로 분할하고, 특징추출을 위하여 고주파성분만을 포함한 영역을 추출하는 단계와,(b) applying the Hare wavelet transform repeatedly a predetermined number of times to the iris image that has been pre-processed in the step (a) to divide the image signal into multiples, and extract a region containing only high frequency components for feature extraction; Wow,

(c)상기 추출된 고주파 성분의 영역에 대해서 특징벡터를 구성하는 정보들의 값을 추출하고, 해당 값들을 양자화하여 특징벡터를 구성하는 단계와,(c) extracting values of information constituting the feature vector with respect to the region of the extracted high frequency component, and quantizing the corresponding values to form a feature vector;

(d)상기 홍채 특징 벡터를 균일분포 초기 가중치 설정 방법과 차원별 승자 선택 방법을 사용하여 학습 및 인식을 수행하는 단계를 구비하여 이루어진다.(d) learning and recognizing the iris feature vector using a uniform distribution initial weight setting method and a dimension winner selection method.

이하에는 본 발명의 양호한 실시예에 따른 홍채인식방법의 구성 및 작용효과를 첨부한 도면을 참조하여 상세하게 설명하기로 한다.Hereinafter, with reference to the accompanying drawings, the configuration and operation effects of the iris recognition method according to a preferred embodiment of the present invention will be described in detail.

도 1은 본 발명에 따른 홍채인식방법의 전체 과정을 개략적으로 보인 플로우차트이다. 도 1에 도시한 바와 같이, 본 발명에 따른 홍채인식방법에서는 먼저 단계(s10)에서 제공된 입력영상에 대하여 홍채영역만을 추출하기 위해 전처리 과정을 거치게 되는 데, 이는 동공의 중심찾기, 홍채 내/외곽 경계 찾기, 홍채 영역의 극좌표계로의 변환등의 세부과정으로 이루어진다.1 is a flowchart schematically showing the entire process of the iris recognition method according to the present invention. As shown in Figure 1, in the iris recognition method according to the present invention is first subjected to a pre-processing process to extract only the iris region for the input image provided in step (s10), which is to find the center of the pupil, inside / outside the iris It consists of detailed processes such as boundary finding and conversion of iris region to polar coordinate system.

한편, 상기 단계(s10)에서의 전처리를 거친 홍채 영상에 대해서 다음 단계(s30)에서는 하(Harr)웨이블렛 변환을 일정한 횟수 또는 일정한 기준을 만족하는 동안 반복적으로 적용하여 영상 신호를 다중으로 분할한다. 이러한 과정에서 특징 추출을 위해 필요한 고주파 성분만을 포함한 영역을 별도로 추출한다. 또한, 분할되어 추출된 고주파 성분의 영역에 대해서 특징벡터를 구성하는 정보들의 값을 추출하고, 해당 값들을 양자화하여 특징벡터를 구성한다.On the other hand, in the next step (s30) for the iris image that has undergone the pre-processing in step (s10), the Harah wavelet transform is repeatedly applied while satisfying a predetermined number of times or a predetermined criterion to divide the image signal into multiples. In this process, a region including only high frequency components necessary for feature extraction is separately extracted. In addition, a value of information constituting the feature vector is extracted for the region of the divided high frequency component, and the values are quantized to form the feature vector.

마지막으로 단계(s60)에서 LVQ기반의 홍채 특징 벡터 분류과정에서는 균일분포 초기 가중치 설정 방법과 차원별 승자 선택 방법을 사용하여 효과적인 학습과 인식을 수행한다.Finally, in the step S60, the LVQ-based iris feature vector classification process uses the uniform distribution initial weighting method and the winner selection method for each dimension to perform effective learning and recognition.

이하에는 상기의 각 과정에 대한 상세방법을 첨부도면을 참조하여 설명하기로 한다.Hereinafter, a detailed method of each process will be described with reference to the accompanying drawings.

먼저, 전처리를 위한 영상획득에는 흑백 CCD카메라를 사용하는 데, 홍채 주름의 무늬 특성 분석을 통해 홍채 인식을 수행하기 때문에 홍채의 색상 정보와 같은 별도의 정보는 사용되지 않는다. 한편, 실내에서 보통의 조명을 가지고 홍채 영상을 획득하는 경우에는 홍채영상이 전반적으로 어둡기 때문에 원하는 패턴 정보를 추출하기 어렵다. 따라서, 별도의 주변조명을 사용하게 되는 데 이러한 경우에 사용되는 조명은 조명에 의한 반사광으로 홍채패턴에 대한 정보의 손실과 인식성능의 저하를 방지하고, 또한 선명한 홍채 패턴을 얻을 수 있도록 적절한 조명을 사용하여야 한다. 이때, 고려되어야 할 사항은 조명의 조도, 사용되는 조명의 개수 및 홍채와 조명과의 거리등을 포함한다.First, a black and white CCD camera is used to acquire an image for preprocessing. Since iris recognition is performed by analyzing pattern characteristics of an iris wrinkle, no additional information such as color information of an iris is used. On the other hand, when the iris image is acquired with ordinary lighting indoors, it is difficult to extract desired pattern information because the iris image is generally dark. Therefore, a separate ambient light is used. In this case, the illumination used in this case is a reflection of the light, which prevents the loss of information on the iris pattern and the deterioration of recognition performance, and also provides an appropriate illumination to obtain a clear iris pattern. Should be used. In this case, considerations include illumination of the illumination, the number of illuminations used, and the distance between the iris and the illumination.

한편, 이렇게 홍채 영상의 획득이 이루어지면 획득된 영상을 처리하기 위해서 도 2에 도시한 바와 같은 홍채 인식을 위한 전처리과정을 수행하게 된다. 도 2에 도시된 바와 같이, 먼저 단계(s20)에서 원활한 영상처리를 위하여 노이즈를 제거하는 필터링을 실시한다. 이후 단계(s22)에서 동공의 중심좌표를 찾게 되는데, 이는 우선 임의의 점을 T(x0,y0)를 동공내에 위치시킨다. 초기값으로 영상의 중심인 (120,160)을 설정하여 점 T에서의 영상정보와 주변의 영상정보를 비교하여 점 T가 동공내에 있는지를 확인하다. 동공이 영상의 중앙에 위치하지 않는 경우 점 T를 상하좌우로 이동시키면서 영상정보를 계속비교하여 동공내에 위치하는 점 T를 설정한다. 점 T가 결정되면 T의 좌표값을 각각 x와 y방향으로 증감시키면서 동공 외곽까지의 거리를 측정한다. 이때, 각각의 최종점을 X1,X4,Y1,Y4라고 하면, 단계(24)에서 선분 X1,X4의 x축 중심좌표의 값인 X3와 선분 Y1,Y4의 y축 중심좌표가 되는 Y2를 구할 수 있고, 상기 x3,y2에 의해 실제 동공의 중심좌표(x1,y1)를 얻을 수 있다.Meanwhile, when the iris image is acquired in this way, a preprocessing process for iris recognition as shown in FIG. 2 is performed to process the obtained image. As shown in FIG. 2, first, in step S20, filtering is performed to remove noise for smooth image processing. In step s22, the center coordinates of the pupil are found, which first places a point T (x0, y0) in the pupil. By setting the initial value (120,160), which is the center of the image, the image information at the point T and the surrounding image information are compared to determine whether the point T is in the pupil. If the pupil is not located in the center of the image, while moving the point T up, down, left and right, the image information is continuously compared to set the point T located in the pupil. Once the point T is determined, the distance to the outside of the pupil is measured while increasing and decreasing the coordinate values of T in the x and y directions, respectively. In this case, if each end point is X1, X4, Y1, Y4, in step 24, X3, which is the value of the center coordinate of the x-axis of the line segments X1, X4, and Y2, which is the y-axis center coordinate of the line segments Y1, Y4, can be obtained. By the x3, y2, the center coordinates (x1, y1) of the actual pupil can be obtained.

상기 단계(s24)에서 실제 동공의 중심좌표가 결정되면 단계(s26)에서는 동공과 홍채가 접하는 내부경계와 눈의 검은 부분과 흰 부분(눈동자의 바깥부분)이 접하는 외부경계를 구해야만 실제 처리대상이 되는 홍채영역만을 추출할 수 있다. 이때, 내부경계는 동공의 중심을 결정하는 과정에서 얻은 점(X1,X4,Y1,Y4)을 이용하면 쉽게 얻을 수 있다. 한편, 외부경계의 경우에는 내부경계 바깥 부분에서부터 시작하여 해당 좌표의 영상의 밝기 정보 I(x,y)가 임계치보다 작을 때까지 x의 좌표를 증가시킨다. 임계치보다 큰 영상의 밝기 정보를 얻으면 동공의 중심의 x좌표에서 해당 x좌표까지의 거리가 외부경계의 반지름이 된다.When the center coordinate of the actual pupil is determined in step S24, in step S26, the inner boundary where the pupil and the iris contact each other and the outer boundary where the black and white parts of the eye (the outer part of the pupil) contact each other are obtained. Only the iris region can be extracted. At this time, the internal boundary can be easily obtained by using the points (X1, X4, Y1, Y4) obtained in the process of determining the center of the pupil. On the other hand, in the case of an external boundary, the coordinate of x is increased until the brightness information I (x, y) of the image of the corresponding coordinate starts from the outside portion of the internal boundary. When the brightness information of the image larger than the threshold is obtained, the distance from the x coordinate of the center of the pupil to the corresponding x coordinate becomes the radius of the external boundary.

이렇게 내/외부 경계의 구분에 의해 홍채영역이 판단되면 다음 단계(s28)에서는 추출된 홍채영역의 특성을 잘표현하고 처리하기 위해서 x,y좌표계가 아닌 동공의 중심으로부터의 거리 r과 각도 θ로 표현되는 극좌표계로의 변환을 수행한다. 극좌표계로의 변환은 홍채 무늬가 동공을 중심으로 원형을 그리며 형성되어 있기 때문에 홍채 영역을 (r, θ)의 사각평면에 펼치면 r과 θ값에 따른 홍채 무늬의 변화특징을 영상신호분석을 통해 쉽게 추출할 수 있기 때문이다.When the iris region is judged by the separation of the inner and outer boundaries, the next step (s28) shows the distance r and the angle θ from the center of the pupil rather than the x and y coordinate system in order to express and process the characteristics of the extracted iris region. Perform the conversion to the polar coordinate system represented. Since the iris pattern is formed in a circular shape around the pupil, the iris pattern is spread out on the square plane of (r, θ) so that the change of the iris pattern according to the r and θ values can be easily obtained through image signal analysis. This is because it can be extracted.

즉, 내부 및 외부의 두 경계사이에 존재하는 홍채 영역을 다음의 수학식 1 을 이용하여 동공의 중심으로부터의 거리 r과 중심각 θ로 표현되는 극좌표계로의 변환을 수행한다.That is, the iris region existing between two inner and outer boundaries is converted into a polar coordinate system represented by the distance r from the center of the pupil and the center angle θ using Equation 1 below.

I(x(r, θ),y(r, θ)) →I(r, θ)I (x (r, θ), y (r, θ)) → I (r, θ)

x(r, θ)= (1-r)xP( θ) + rxS( θ)x (r, θ) = (1-r) x P (θ) + rx S (θ)

y(r, θ)= (1-r)yP( θ) + ryS( θ)y (r, θ) = (1-r) y P (θ) + ry S (θ)

(이때, (xP(θ),yP(θ)) : 동공상의 횡축으로부터 θ만큼 +방향으로 회전된 점의 좌표, (xS(θ),yS(θ)):동공상의 횡축으로부터 정해진 특징의 범위만큼 나아간 점의 좌표).(At this time, (x P (θ), y P (θ)): coordinate of the point rotated in the + direction by θ from the horizontal axis of the pupil, (x S (θ), y S (θ)): from the horizontal axis of the pupil The coordinates of the point that advances by the range of the specified feature).

도 3은 홍채영상에 대하여 직각좌표계에서 극좌표계로 변환하는 과정과 결과로서 얻어진 영상을 나타낸 것이다. 이때, 동공의 크기 변화에 따른 홍채 특징의 변화가 없도록 하기 위해 내/외부 경계 사이를 60개의 간격으로 나누어 정규화 작업을 하였고, θ는 0.8씩 변화시켜 450개의 정보를 표현하도록 하였다. 따라서, 최종적으로 θ*r=450*60의 홍채 영상을 얻게 된다.3 shows an image obtained as a result of a process of converting a rectangular coordinate system to a polar coordinate system with respect to the iris image. At this time, the normalization was performed by dividing the internal / external boundary into 60 intervals so that the iris characteristics did not change due to the change in pupil size, and θ was changed by 0.8 to represent 450 information. Therefore, an iris image of θ * r = 450 * 60 is finally obtained.

도 4는 본 발명에 따른 홍채 인식 방법을 위한 하 웨이블렛변환 기반의 영상다중분할방법을 설명하는 플로우차트를 나타낸 것이고, 도 5는 본 발명을 구현하기 위한 하 웨이블렛을 이용한 다중분할을 통한 특징추출과정을 설명하기 위한 도를 나타낸 것이다.4 is a flowchart illustrating an image multi-segmentation method based on wavelet transform for the iris recognition method according to the present invention, and FIG. 5 is a feature extraction process through multi-division using a wavelet for implementing the present invention. It shows a diagram for explaining.

도 4 및 도 5에 도시한 바와 같이 본 발명에서는 홍채 영상의 특징추출을 위해 웨이블렛 변환을 이용하며 특히 다양한 모(mother)웨이블렛 중에서 하(Harr)웨이블렛을 사용한다. 먼저, 단계(s40)에서 하 웨이블렛 변환을 적용하여 홍채영상을 분할한다. 즉, 홍채 영상은 일차원신호가 x축과 y축으로 나열되어 있는 2차원 신호로 생각할 수 있기 때문에 이를 분석하기 위해서 각각 x,y방향으로 LPF와 HPF를 통과시켜 한 영상에 대해서 네 부분의 분할된 성분을 추출한다. 이때, 하 웨이블렛변환을 통해 고대역 필터를 통과한 성분인 신호의 차성분 D(difference)와, 저대역필터를 통과한 성분인 신호의 평균성분인 A(average)로 신호가 분할된다. 도 5(a)에서 저주파(low frequency) 성분을 L로 표시하고, 고주파(High frequency) 성분을 H로 표시할 때, LL부분은 x,y방향 모두 LPF를 통과시킨 성분이고, HH는 모두 HPF를 통과시킨 성분이라는 것을 의미한다. 즉, 2차원 영상신호에 대해 각각 가로와 세로에 대해 웨이블렛 변환을 수행하게 되어 웨이블렛 1회 수행에 대해 LL,LH,HL,HH 네영역으로 분할된다.As shown in FIG. 4 and FIG. 5, the present invention uses wavelet transform for feature extraction of an iris image, and in particular, uses a wave wavelet among various mother wavelets. First, in step S40, an iris image is divided by applying a wavelet transform. In other words, the iris image can be thought of as a two-dimensional signal in which one-dimensional signals are arranged on the x-axis and y-axis, so to analyze them, the LPF and HPF are passed through the x- and y-directions, respectively. Extract the ingredients. In this case, the signal is divided into a difference component D (difference) of a signal that passes through the high-band filter through a low wavelet transform, and an average (A) average of a signal that passes through the low-band filter. In FIG. 5 (a), when the low frequency component is represented by L and the high frequency component is represented by H, the LL portion is a component that passes LPF in both x and y directions, and HH is HPF. It means that the component passed. That is, the wavelet transform is performed on the two-dimensional video signal in the horizontal and vertical directions, respectively, so that the single wavelet is divided into four regions LL, LH, HL, and HH.

이때, 상기 단계(s40)에서 상기 분할된 영역중에서 고주파 성분만을 가지고 있는 HH영역을 추출하고, 단계(s44)에서는 HH영역의 특징값에 의한 패턴의 판별율을 계산하여 판별율이 일정한 임계치이하이면 처리과정을 종료하고, 혹은 반복되는 횟수가 지정된 횟수이상인 경우에도 처리과정을 종료한다.In this case, in step S40, the HH region having only high frequency components is extracted from the divided regions, and in step S44, the discrimination ratio of the pattern based on the feature value of the HH region is calculated to determine whether the discrimination ratio is equal to or less than a predetermined threshold. The process is terminated, or the process is terminated even if the number of times of repetition is more than the specified number of times.

한편, 상기 판단결과 패턴의 판별율이 일정한 임계치이상이거나 반복횟수가 지정횟수이상인 경우에는 단계(s48)에서 HH영역의 정보를 특징추출을 위한 정보로서 저장한다.On the other hand, if the determination result of the pattern is more than a predetermined threshold value or the repetition number is more than the specified number of times, the information of the HH area is stored as information for feature extraction in step S48.

또한, 단계(s50)에서는 x축 및 y축에 대해 모두 저주파 성분인 LL영역을 추출하고, 다음 단계(s52)에서 상기 추출된 LL부분(전 영상에 비해 크기가 1/4로 줄어든 영상)에 영상의 주요 정보가 포함되어 있으므로 해당 부분에 웨이블렛을 다시 적용할 수 있도록 새로운 처리 대상영상으로 제공한다.Further, in step s50, the LL region, which is a low frequency component, is extracted for both the x-axis and the y-axis, and in the next step s52, the extracted LL portion (the image whose size is reduced to 1/4 of the previous image) is extracted. Since the main information of the image is included, it is provided as a new processing target image so that the wavelet can be applied to the portion again.

홍채영상에서 1회의 웨이블렛 변환을 수행하게 되면 크기가 반으로 줄어든 225*30인 HH영역의 특징을 얻을 수 있다. 즉, 특징 벡터로는 225*30개의 정보를 사용하게 되는 것이다. 이 정보를 그대로 사용하여도 무방하나 그 정보의 크기를 줄이기 위해 신호의 분할과정을 다시 반복수행한다. LL부분에 영상의 주요정보가 포함되어 있기 때문에 해당 부분에 웨이블렛을 다시 적용하면 상기 도 5(b)에 도시한 바와 같이 HH2,HH3,HH4와 같이 크기가 줄어든 특징값들을 얻을 수 있다.One wavelet transform is performed on the iris image to obtain the HH region of 225 * 30 whose size is reduced by half. That is, 225 * 30 pieces of information are used as the feature vector. This information can be used as it is, but the signal division process is repeated again to reduce the size of the information. Since the main information of the image is included in the LL part, when the wavelet is applied to the corresponding part again, as shown in FIG. 5 (b), the feature values having reduced sizes, such as HH 2, HH 3 and HH 4, can be obtained.

한편, 상기 단계(s46)에서 웨이블렛의 반복수행을 위한 판단기준으로 제공되는 반복횟수는 정보의 손실여부 및 특징벡터의 크기를 고려하여 적절한 값으로 설정되어야 한다. 즉, 홍채인식의 경우 적절한 반복 횟수를 결정하기 위해 각 사용자의 대표 특징 벡터로 저장된 참조데이터(reference data)와 주어진 사용자의 홍채영상의 특징 벡터와의 비교과정에서 이러한 특징벡터들을 명확히 구분할 수 있는 경계가 존재하는 지를 알아보았다. 즉, 참조데이터와 주어진 특징벡터와의 일대일 비교를 통해 두 벡터간의 일치 정도를 계산한 후 이 결과에 따라 각 사용자를 구분할 수 있는 정도까지 신호의 다중분할을 반복하여 특징 벡터를 추출한다. 도 6은 10명에 대해 참조데이터와 비교데이터의 특징벡터에 대한 일치율을 나타낸 것으로 도 6(a)는 웨이블렛 변환을 4회 실시한 경우이고, 도 6(b)는 5회 실시한 경우를 나타낸다. 이때, 도 6에서 검은점은 자신의 참조데이터, 흰 점은 다른 사용자의 참조데이터와 비교를 한 결과이다. 인식/검증을 위해서는 자신의 데이터와 타인의 데이터를 구분짓는 경계값이 존재해야 한다. 도 6(a)의 경우에는 약 65% 정도의 일치율을 사용하여 두 데이터를 구분할 수 있는 반면에 도 6(b)의 경우에는 구분이 불가능함을 알 수 있다. 즉, 웨이블렛을 5회 이상수행하게 되면 특징벡터를 구성하는 데이터 수가 줄어들게 되어 홍채영상의 특징을 제대로 나타내지 못하게 되고 이를이용한 검증이 불가능한 것을 알 수 있다.On the other hand, the number of repetitions provided as a criterion for repetition of the wavelet in step S46 should be set to an appropriate value in consideration of information loss and the size of the feature vector. That is, in the case of iris recognition, a boundary that can clearly distinguish these feature vectors in the comparison process between reference data stored as a representative feature vector of each user and feature vectors of a given user's iris image to determine an appropriate number of repetitions. To see if it exists. That is, the degree of agreement between the two vectors is calculated through one-to-one comparison between the reference data and the given feature vector, and the feature vector is extracted by repeating the multiplexing of the signal to the extent that each user can be distinguished according to the result. FIG. 6 shows the coincidence rate of the reference data and the feature vector of the comparative data for 10 persons. FIG. 6 (a) shows four cases of wavelet transform and FIG. 6 (b) shows five cases. In this case, in FIG. 6, the black point is a reference data of the user and the white point is a result of comparison with reference data of another user. In order to recognize / verify, there must be a boundary that distinguishes one's own data from another's data. In the case of FIG. 6 (a), the two data can be distinguished using a coincidence rate of about 65%, while in the case of FIG. 6 (b), it is impossible to distinguish the two data. That is, if the wavelet is performed five times or more, the number of data constituting the feature vector is reduced, so that the characteristic of the iris image cannot be properly represented, and verification using the wavelet is impossible.

따라서, 본발명의 경우에는 웨이블렛을 4회 수행하여 얻어진 도 5(b)의 HH4영역을 주 특징영역으로 삼아 그 값들을 특징벡터의 구성요소로 취한다. 이때, HH4영역은 28*3=84개의 정보를 담고 있다.Therefore, in the present invention, the HH4 region of FIG. 5 (b) obtained by performing the wavelet four times is used as the main feature region, and the values are taken as components of the feature vector. At this time, the HH4 region contains 28 * 3 = 84 pieces of information.

도 7은 웨이블렛 변환의 다중분할을 통해 홍채특징벡터를 구성하는 방법을 나타낸 플로우차트이다. 도 7에 도시한 바와 같이, 단계(s70)에서는 상기 과정에서 추출된 N개의 특징벡터 즉, HH1,HH2,HH3 및 HH4에 대한 정보를 입력받는다. 단계(s72)에서는 상기 N개의 특징벡터중에서 제일 마지막 웨이블렛 변환을 통해 얻어진 HH4의 정보를 제외한 HH1,HH2,HH3에 대해 각 영역별로 특징 정보를 취하기 위해서 각 영역의 평균값을 구해서 1차원씩을 할당하고, 단계(s74)에서 HH4영역에 존재하는 각 값들(M)을 각각의 특징으로 추출한다. 한편, 단계(s76)에서 상기 HH1,HH2,HH3의 평균값에 의해 얻어진 3차원의 값과 HH4 영역의 특징벡터를 결합하여 M+N_1개 즉, 총 84+3=87차원의 특징벡터를 생성한다.7 is a flowchart illustrating a method of constructing an iris feature vector through multiple division of a wavelet transform. As shown in FIG. 7, in operation S70, information on the N feature vectors extracted in the process, that is, HH1, HH2, HH3 and HH4 is received. In step s72, an average value of each region is obtained to allocate feature information for each region of HH1, HH2, and HH3 except for the information of HH4 obtained through the last wavelet transform among the N feature vectors, and then one dimension is allocated. In step S74, the respective values M present in the HH4 region are extracted as the respective features. Meanwhile, in step s76, M + N_1, that is, 84 + 3 = 87-dimensional feature vectors are generated by combining the three-dimensional values obtained by the average values of HH1, HH2, and HH3 with the feature vectors of the HH4 region. .

단계(s78)에서는 앞서 구해진 벡터의 모든값들 즉, 실수값으로 표현되는 87차원의 각 값들을 0 또는 1의 이진값으로 양자화를 수행하고, 단계(s80)에서 양자화된 값들로 총 87비트의 특징 벡터를 구성한다.In step s78, all values of the previously obtained vector, that is, each of the 87-dimensional values represented by the real value are quantized to a binary value of 0 or 1, and a total of 87 bits are quantized with the quantized values in step s80. Construct a feature vector.

도 8은 본 발명에 따른 균일분포 가중치 초기화 방법의 일예를 보인 플로우차트이다. 도 8에 도시한 바와 같이, LVQ 인식을 위한 균일분포 가중치 초기화 방법에서는 먼저 단계(s90)에서 각 클래스의 학습 데이터들 중에서 처음으로 입력되는 학습 데이터를 해당 클래스의 최초 가중치 벡터로 선정하고, 해당 클래스의 나머지 가중치 벡터는 모두 0으로 설정한다. 이를 수학식으로 나타내면 다음의 수학식2와 같다.8 is a flowchart showing an example of the uniform distribution weight initialization method according to the present invention. As shown in FIG. 8, in the uniform distribution weight initialization method for LVQ recognition, firstly, the training data input for the first time among the training data of each class in step S90 is selected as the first weight vector of the corresponding class, and the corresponding class. All remaining weight vectors of are set to zero. This is represented by Equation 2 below.

For k =1,2,...,M For k = 1,2, ..., M

(:k번째 클래스의 첫번재 입력학습 패턴,: k번째 클래스의 첫번째 가중치, M:클래스의 수).( the first input learning pattern of the kth class, : first weight of kth class, M: number of classes).

그리고 단계(s92)에서는 각 클래스에서 다른 학습 데이터를 선정하여 새로운 입력으로 제공하고, 단계(s94)에서 새로운 입력데이터로 제공된 학습 데이터의 특징벡터와 이미 학습이 완료되어 각 클래스에 저장된 각 가중치 벡터와의 유사도 측정을 위해서 유클리디안 거리(d:Euclidean distance)를 계산한다.In step s92, different learning data is selected from each class and provided as a new input. In step s94, the feature vector of the training data provided as the new input data and each weight vector stored in each class are already learned. The Euclidean distance (d: Euclidean distance) is calculated for the similarity of.

단계(s96)에서는 각 가중치 벡터에 대해 계산된 거리중에서 최소거리(d)를 갖는 가중치 벡터의 클래스가 학습 데이터의 클래스와 일치하는지를 판단한다. 판단결과 두 클래스가 일치하지 않는 경우에는 단계(s98)에서 현재 학습데이터의 특징 벡터를 해당 클래스의 새로운 가중치 벡터로 등록하게 된다. 그리고 나서 다음 단계(s100)로 진행하여 모든 학습데이터에 대한 학습이 완료되었는가를 판단하고,완료되지 않은 경우에는 상기 단계(s92)이하를 반복수행하여 각 클래스의 가중치 벡터를 설정한다.In step S96, it is determined whether the class of the weight vector having the minimum distance d among the distances calculated for each weight vector matches the class of the training data. If it is determined that the two classes do not match, in step S98, the feature vector of the current learning data is registered as a new weight vector of the corresponding class. Then, the process proceeds to the next step (s100) to determine whether the learning of all the learning data is completed, and if it is not completed, repeats the above step (s92) to set the weight vector of each class.

도 9는 본 발명에 따른 LVQ 기반의 인식을 위한 차원별 승자선택방법의 일예를 보인 플로우차트이고, 도 10은 본 발명에 따른 차원별 승자선택의 처리과정을 나타내는 개념도이다. 도 9에 도시한 바와 같이, 본 발명에서는 LVQ를 학습시킬 때 유클리디안 거리를 이용한 기존의 승자결정방법 대신에 각 차원별로 승자를 선택하는 알고리즘을 적용한다. 즉, 입력패턴의 첫번째 차원과 각 출력뉴런의 첫번재 차원간의 거리를 비교하여 최소가 되는 클래스를 승자로 선택한다.9 is a flowchart illustrating an example of a method of selecting a winner by dimension for LVQ based recognition according to the present invention, and FIG. 10 is a conceptual diagram illustrating a process of selecting a winner by dimension according to the present invention. As shown in FIG. 9, the present invention applies an algorithm for selecting a winner for each dimension instead of the conventional winner determination method using Euclidean distance when learning LVQ. That is, the minimum class is selected as the winner by comparing the distance between the first dimension of the input pattern and the first dimension of each output neuron.

즉, 단계(s102)에서 입력 영상의 특징 벡터의 차원 i(i= 1,2,...,M+N-1) 일예로 87차원에 대해서 각 출력뉴런의 해당 차원과의 유사도를 측정한다. 단계(s104)에서는 상기 측정된 유사도 중에서 가장 큰 유사도 값을 가지는 클래스를 해당 차원 i에 대한 승자로 선택한다.That is, in step S102, the similarity with the corresponding dimension of each output neuron is measured for the dimension i (i = 1,2, ..., M + N-1) of the feature vector of the input image, for example, in the 87th dimension. . In step S104, the class having the largest similarity value among the measured similarities is selected as the winner for the corresponding dimension i.

또한, 단계(s106)에서는 모든 차원에 대한 유사도의 측정이 완료되었는가를 판단하여 모든 차원에 대한 유사도의 측정이 완료될 때까지 상기 단계(s102)이하를 반복수행한다. 또한, 모든 차원에 대한 유사도의 측정이 완료되면 단계(s108)에서는 각 차원에 대해서 가장 많이 승자로 선택된 클래스를 최종 승자로 선택한다.Further, in step s106, it is determined whether the measurement of the similarity for all the dimensions has been completed, and the above-mentioned step s102 or less is repeated until the measurement of the similarity for all the dimensions is completed. In addition, when the measurement of the similarity for all dimensions is completed, in step s108, the class selected as the winner for each dimension is selected as the final winner.

도 10에서와 같이, 좌측은 임의의 입력 패턴, 우측은 출력뉴런의 각클래스라고 하고 패턴상의 각 블럭이 한 패턴을 이루는 차원을 표현한 것이다. 이때, 각 입력패턴과 출력 뉴런의 각 클래스를 비교하여 유사도를 측정하게 되는 것이다. 따라서, 차우너별 승자결정방법을 통해 승자결정과정에서 각 차원이 정보를 반영할 수있고, 총 차원에 대한 비교연산보다 더 작은 수의 연산을 통해 승자를 결정할 수 있기 때문에 처리시간을 단축시킬 수 있다는 장점이 있다.As shown in FIG. 10, the left side represents an arbitrary input pattern, and the right side represents each class of output neurons, and represents a dimension in which each block on the pattern forms a pattern. At this time, the similarity is measured by comparing each class of each input pattern and output neuron. Therefore, the winner determination method for each winner can reduce the processing time because each dimension can reflect the information in the winner determination process and the winner can be determined by using a smaller number of operations than the comparison operation for the total dimension. There is an advantage.

본 발명에 따른 홍채인식방법은 전술한 실시예에 국한되지 않고 본 발명의 기술 사상이 허용하는 범위내에서 다양하게 변형하여 실시될 수 있다.Iris recognition method according to the present invention is not limited to the above-described embodiment can be carried out in various modifications within the scope allowed by the spirit of the present invention.

이상에서 설명한 바와 같이, 본 발명에 따른 하웨이블렛 변환과 LVQ를 이용한 홍채인식방법에서는 홍채 패턴 정보를 이용한 개인 신원확인시스템에서 처리성능이나 처리시간의 관점에서 효율적이고 효과적으로 특징을 추출하고 인식할 수 있도록 한다. 본 발명에 의한 특징 추출 및 특징 벡터의 구성을 통해서는 적은 양의 공간만을 사용하면서도 높은 정보 표현 능력을 가지고 홍채 패턴 정보를 표현할 수 있기 때문에 정보의 처리,저장,검색 및 교환등이 매우 효과적으로 이루어질 수 있는 기술 기반을 제공한다. 또한, LVQ 기반의 균일분포 초기 가중치 설정 방법을 통해서는 초기 가중치를 효과적으로 표현함으로써 안정적이고 높은 신뢰도를 가지고 홍채 패턴 정보를 처리할 수 있는 효과가 있다.As described above, in the iris recognition method using the wavelet transform and the LVQ according to the present invention, the personal identification system using the iris pattern information can be efficiently and effectively extracted and recognized in terms of processing performance or processing time. do. Through feature extraction and feature vector construction according to the present invention, since the iris pattern information can be represented with a high information expression capability while using only a small amount of space, the processing, storage, retrieval and exchange of information can be performed very effectively. Provide a technical foundation. In addition, through the LVQ-based uniform distribution initial weight setting method, the initial weight is effectively expressed, and thus, the iris pattern information can be processed with stable and high reliability.

나아가, 차원별 승자선택방법을 통해서 고차원의 특징벡터에 대해서도 각 차원의 정보를 승자선택과정에 반영할 수 있으며 모든 차원에 대한 비교 연산보다 적은 수의 연산을 통해 승자를 결정할 수 있기 때문에 처리시간이 단축되는 효과를 얻을 수 있다.Furthermore, the winner selection method for each dimension allows the information of each dimension to be reflected in the winner selection process even for high-dimensional feature vectors, and processing time is reduced because fewer winners can be determined than fewer comparison operations for all dimensions. A shortened effect can be obtained.

Claims (8)

홍채 영상을 획득하고, 획득된 홍채 영상으로부터 사용자의 등록데이터를 생성하고, 생성된 등록데이터와 사용자의 인증시 획득된 홍채 영상을 비교하여 사용자에 대한 신분인식을 수행하도록 된 홍채인식방법에 있어서,In the iris recognition method for acquiring an iris image, generating the registration data of the user from the obtained iris image, and performing identification identification for the user by comparing the generated registration data and the iris image obtained at the time of authentication of the user, (a)제공된 입력영상에 대하여 홍채영역만을 추출하기 위한 전처리를 수행하는 단계와,(a) performing preprocessing to extract only the iris region with respect to the provided input image; (b)상기 단계(a)에서 전처리를 거친 홍채 영상에 대해서 하(Harr)웨이블렛 변환을 소정 횟수 반복적으로 적용하여 영상 신호를 다중으로 분할하고, 특징추출을 위하여 고주파성분만을 포함한 영역을 추출하는 단계와,(b) applying the Hare wavelet transform repeatedly a predetermined number of times to the iris image that has been pre-processed in the step (a) to divide the image signal into multiples, and extract a region containing only high frequency components for feature extraction; Wow, (c)상기 추출된 고주파 성분의 영역에 대해서 특징벡터를 구성하는 정보들의 값을 추출하고, 해당 값들을 양자화하여 특징벡터를 구성하는 단계와,(c) extracting values of information constituting the feature vector with respect to the region of the extracted high frequency component, and quantizing the corresponding values to form a feature vector; (d)상기 홍채 특징 벡터를 균일분포 초기 가중치 설정 방법과 차원별 승자 선택 방법을 사용하여 학습 및 인식을 수행하는 단계를 구비하여 이루어진 것을 특징으로 하는 하 웨이블렛 변환과 엘브이큐를 이용한 홍채인식방법.(d) learning and recognizing the iris feature vector using a uniform distribution initial weight setting method and a winner selection method for each dimension, comprising a wavelet transform and an iris recognition method using an elb queue. . 제 1 항에 있어서, 상기 단계(a)는The method of claim 1, wherein step (a) 상기 획득된 홍채영상의 동공내에 임의의 좌표를 설정하고, 임의의 좌표의 영상정보와 주변 좌표의 영상정보를 비교하여 동공의 중심을 찾는 단계,Setting arbitrary coordinates in the pupil of the obtained iris image, and comparing the image information of the arbitrary coordinates with the image information of the peripheral coordinates to find the center of the pupil; 동공의 중심이 결정되면 동공과 홍채가 접하는 내부경계와 눈의 검은부분과흰부분이 접하는 외부경계를 구별하여 홍채영역을 추출하는 단계,When the center of the pupil is determined, extracting the iris region by distinguishing the inner boundary between the pupil and the iris and the outer boundary of the black and white parts of the eye, 상기 내/외부 경계사이에 존재하는 홍채영역을 동공의 중심으로부터의 거리와 중심각으로 표현되는 극좌표계로 변환하는 단계를 구비하여 이루어지는 것을 특징으로 하는 하 웨이블렛 변환과 엘브이큐를 이용한 홍채인식방법.And converting the iris region existing between the inner and outer boundaries into a polar coordinate system represented by a distance from the center of the pupil and a center angle. 제 1 항에 있어서, 상기 단계(b)는The method of claim 1, wherein step (b) 제공된 홍채 영상에 대해서 하 웨이블렛 변환을 적용하여 영상을 다중으로 분할하는 단계,Splitting the image into multiples by applying a low wavelet transform to the provided iris image; 분할된 영상중에서 x축과 y축에 대해 고주파성분만을 포함한 영역(HH)을 추출하는 단계,Extracting a region (HH) including only high frequency components from the divided images on the x and y axes, 상기 추출된 영역(HH)의 측징값에 의한 패턴의 판별율을 계산하고, 상기 판별율이 일정 임계치이상이면 추출된 영역의 정보를 저장하는 단계,Calculating a discrimination rate of the pattern based on the ranging value of the extracted area HH, and storing information of the extracted area when the discrimination rate is equal to or greater than a predetermined threshold value; 상기 고주파 영역에 대한 정보의 저장이 종료되면 상기 분할된 영역중에서 x축과 y축에 대해 저주파성분만을 포함하는 영역(LL)을 추출하고, 상기 LL영역에 대하여 상기 영상의 다중분할을 반복수행하는 단계를 구비하여 이루어진 것을 특징으로 하는 하 웨이블렛변환과 엘브이큐를 이용한 홍채인식방법.When the storing of the information on the high frequency region is finished, the region LL including only low frequency components is extracted from the divided regions on the x-axis and y-axis, and the multi-division of the image is repeatedly performed on the LL region. Iris recognition method using a wavelet transform and elb queue, characterized in that it comprises a step. 제 3 항에 있어서, 상기 단계(b)는4. The method of claim 3, wherein step (b) 상기 추출된 영역(HH)의 측정값에 의한 판별율이 일정 임계치이상이면 상기 다중분할의 반복횟수가 기설정된 지정횟수이상인가를 판단하는 단계,Determining whether the number of repetitions of the multi-segmentation is greater than or equal to a predetermined number of times when the discrimination rate by the measured value of the extracted area HH is equal to or greater than a predetermined threshold value; 상기 판단결과 반복횟수가 지정횟수이하인 경우에는 저주파영역에 대한 다중분할을 수행하고, 지정횟수이상인 경우에는 다중분할을 종료하는 단계를 더 구비하여 이루어지는 것을 특징으로 하는 하 웨이블렛 변환과 엘브이큐를 이용한 홍채인식방법.If the repetition number is less than the specified number of times as a result of the determination, the multi-division of the low frequency region is performed, and if the repetition number is greater than or equal to the specified number, the multi-division is terminated. Iris recognition method. 제 4 항에 있어서, 상기 지정횟수는 4회로 설정되는 것을 특징으로 하는 하웨이블렛 변환과 엘브이큐를 이용한 홍채인식방법.5. The iris recognition method according to claim 4, wherein the predetermined number of times is set to four times. 제 1 항 또는 제 3 항에 있어서, 상기 단계(c)는The method of claim 1 or 3, wherein step (c) 상기 단계(b)에서의 다중분할에 의해 형성된 다수개의 고주파 영역(HHi)에 대한 분할영상을 입력받는 단계,Receiving divided images of a plurality of high frequency regions (HHi) formed by the multi-division in step (b); 상기 입력된 고주파 영역중에 가장 마지막으로 얻어진 HH영역(HHn)을 제외한 나머니 모든 HH영역의 정보에 대한 평균값을 구하여 특징벡터의 한 요소로 할당하는 단계,Obtaining an average value of information of all remaining HH regions except for the last HH region (HHn) obtained from the input high frequency region, and allocating the average values as elements of a feature vector; 상기 입력된 고주파 영역중에 가장 마지막으로 얻어진 HH영역(HHn)에 존재하는 각 값들을 각각의 특징벡터의 구성요소(m)로 각각 할당하는 단계,Allocating each value present in the last HH region (HHn) obtained from the input high frequency region as a component (m) of each feature vector; 상기 다중분할된 다수개의 고주파영역(HHi)에 대한 값들을 결합하여 하나의 특징벡터를 구성하는 단계,Combining the values of the multi-divided plurality of high frequency regions (HHi) to form one feature vector; 상기 구성된 특징벡터의 각 요소값들을 이진값으로 양자화하여 소정 차원의 특징벡터를 생성하는 단계를 구비하여 이루어지는 것을 특징으로 하는 하 웨이블렛변환과 엘브이큐를 이용한 홍채인식방법.And quantizing each element value of the feature vector to a binary value to generate a feature vector having a predetermined dimension. 제 1 항에 있어서, 상기 단계(d)의 가중치 설정 방법은The method of claim 1, wherein the weight setting method of step (d) 각 클래스의 학습 패턴들 중에서 처음으로 입력되는 학습패턴을 해당 클래스의 최초 가중치 벡터로 선정하고, 나머지 가중치 벡터는 0으로 설정하는 단계,Selecting the first learning pattern among the learning patterns of each class as the first weight vector of the corresponding class, and setting the remaining weight vectors to 0, 각 클래스에 다른 학습 데이터를 선정하여 새로운 입력으로 제공하고, 입력된 학습 데이터의 특징벡터와 상기 단계에서 선정되어 각 클래스에 저장된 각 가중치 벡터와의 유사도를 측정하는 단계와,Selecting different learning data in each class and providing it as a new input, measuring the similarity between the feature vector of the input learning data and each weight vector selected in the above step and stored in each class; 상기 측정결과 유사도가 가장 큰 가중치 벡터의 클래스가 학습 데이터의 클래스와 일치하는지를 판단하는 단계,Determining whether the class of the weight vector having the largest similarity as the measurement result matches the class of training data; 상기 판단결과 두 클래스가 일치하지 않는 경우에는 현재 학습 데이터의 특징벡터를 해당 클래스에 새로운 가중치 벡터로 설정하고, 모든 학습데이터에 대한 학습이 완료될 때까지 상기 단계를 반복하는 단계를 구비하여 이루어지는 것을 특징으로 하는 하 웨이블렛 변환과 엘브이큐를 이용한 홍채인식방법.And when the two classes do not match, setting the feature vector of the current training data as a new weight vector to the corresponding class, and repeating the above steps until the learning of all the training data is completed. Iris recognition method using ha wavelet transform and elb queue. 제 1 항에 있어서, 상기 단계(d)의 승자선택방법은The method of claim 1, wherein the winner selection method of step (d) 입력영상의 특징벡터의 차원i에 대해서 각 출력뉴런의 해당 차원과의 유사도를 측정하는 단계,Measuring similarity with the corresponding dimension of each output neuron with respect to the dimension i of the feature vector of the input image, 상기 측정된 유사도중에서 가장 큰 유사도값을 갖는 클래스를 해당 차원 i에 대한 승자로 선택하고, 모든 차원에 대한 유사도 측정을 반복하는 단계,Selecting the class having the largest similarity value among the measured similarities as a winner for the corresponding dimension i, and repeating the similarity measurement for all dimensions, 모든 차원에 대한 유사도 측정이 완료되면 각 차원에 대해서 가장 많이 승자로 선택된 클래스를 최종 승자로 선택하는 단계를 구비하여 이루어진 것을 특징으로 하는 하 웨이블렛 변환과 엘브이큐를 이용한 홍채인식방법.When the similarity measurement for all dimensions is completed, selecting the most winner class for each dimension as the final winner comprising the wavelet transform and iris recognition method using elb queue.
KR1020000055657A 2000-09-22 2000-09-22 Human iris recognition method using harr wavelet transform and lvq KR100357441B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020000055657A KR100357441B1 (en) 2000-09-22 2000-09-22 Human iris recognition method using harr wavelet transform and lvq

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020000055657A KR100357441B1 (en) 2000-09-22 2000-09-22 Human iris recognition method using harr wavelet transform and lvq

Publications (2)

Publication Number Publication Date
KR20020023011A true KR20020023011A (en) 2002-03-28
KR100357441B1 KR100357441B1 (en) 2002-10-19

Family

ID=19689892

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020000055657A KR100357441B1 (en) 2000-09-22 2000-09-22 Human iris recognition method using harr wavelet transform and lvq

Country Status (1)

Country Link
KR (1) KR100357441B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020028406A (en) * 2000-10-09 2002-04-17 정인수 Iris image acquisition device and iris recognition method with high recognition rates
KR20020031724A (en) * 2000-10-23 2002-05-03 오길록 The Method and Apparatus of Iris Pattern Processing for Feature Extraction and Recognition
KR20060111812A (en) * 2005-04-25 2006-10-30 자바정보기술 주식회사 Iris cognition method using comparison area embossed peculiar characteristic of iris pattern
KR100852629B1 (en) * 2006-06-02 2008-08-18 연세대학교 산학협력단 Iris recognizing system and method using multifocus image sequence
US7869626B2 (en) 2006-09-18 2011-01-11 Electronics And Telecommunications Research Institute Iris recognition method and apparatus thereof
KR101500496B1 (en) * 2013-12-06 2015-03-10 주식회사 케이티 Apparatus for recognizing face and method thereof
CN105956536A (en) * 2016-04-26 2016-09-21 北京森科赛德科技有限公司 Pretreatment method and device for iris recognition

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4641349A (en) * 1985-02-20 1987-02-03 Leonard Flom Iris recognition system
KR100307792B1 (en) * 1992-10-10 2001-11-30 존 이. 시드라즈 Biometric measurement based on iris analysis
JPH09212644A (en) * 1996-02-07 1997-08-15 Oki Electric Ind Co Ltd Iris recognition device and iris recognition method
JP3500461B2 (en) * 1997-03-17 2004-02-23 沖電気工業株式会社 Personal recognition device
JP3271750B2 (en) * 1998-03-05 2002-04-08 沖電気工業株式会社 Iris identification code extraction method and device, iris recognition method and device, data encryption device
JP3610234B2 (en) * 1998-07-17 2005-01-12 株式会社メディア・テクノロジー Iris information acquisition device and iris identification device
JP3315648B2 (en) * 1998-07-17 2002-08-19 沖電気工業株式会社 Iris code generation device and iris recognition system
KR20010006976A (en) * 1999-04-09 2001-01-26 김대훈 A system for identifying the iris of persons

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020028406A (en) * 2000-10-09 2002-04-17 정인수 Iris image acquisition device and iris recognition method with high recognition rates
KR20020031724A (en) * 2000-10-23 2002-05-03 오길록 The Method and Apparatus of Iris Pattern Processing for Feature Extraction and Recognition
KR20060111812A (en) * 2005-04-25 2006-10-30 자바정보기술 주식회사 Iris cognition method using comparison area embossed peculiar characteristic of iris pattern
KR100852629B1 (en) * 2006-06-02 2008-08-18 연세대학교 산학협력단 Iris recognizing system and method using multifocus image sequence
US7869626B2 (en) 2006-09-18 2011-01-11 Electronics And Telecommunications Research Institute Iris recognition method and apparatus thereof
KR101500496B1 (en) * 2013-12-06 2015-03-10 주식회사 케이티 Apparatus for recognizing face and method thereof
CN105956536A (en) * 2016-04-26 2016-09-21 北京森科赛德科技有限公司 Pretreatment method and device for iris recognition

Also Published As

Publication number Publication date
KR100357441B1 (en) 2002-10-19

Similar Documents

Publication Publication Date Title
KR100374707B1 (en) Method of recognizing human iris using daubechies wavelet transform
CN105138993B (en) Establish the method and device of human face recognition model
Liam et al. Iris recognition using self-organizing neural network
Raja et al. Binarized statistical features for improved iris and periocular recognition in visible spectrum
KR20090087895A (en) Method and apparatus for extraction and matching of biometric detail
CN111814574A (en) Face living body detection system, terminal and storage medium applying double-branch three-dimensional convolution model
Zanlorensi et al. The impact of preprocessing on deep representations for iris recognition on unconstrained environments
CN115641649A (en) Face recognition method and system
Chirchi et al. Feature extraction and pupil detection algorithm used for iris biometric authentication system
KR100357441B1 (en) Human iris recognition method using harr wavelet transform and lvq
KR101174103B1 (en) A face recognition method of Mathematics pattern analysis for muscloskeletal in basics
El-Naggar et al. Which dataset is this iris image from?
Farmanbar et al. A hybrid approach for person identification using palmprint and face biometrics
Micheletto et al. A multiple classifiers-based approach to palmvein identification
Cintas et al. Automatic ear detection and segmentation over partially occluded profile face images
Tallapragada et al. Iris recognition based on combined feature of GLCM and wavelet transform
Shaban et al. A Novel Fusion System Based on Iris and Ear Biometrics for E-exams.
KR20170088721A (en) Method for representing graph-based block-minutiae for fingerprint recognition and the fingerprint recognition system by using the same
Mattar Principal components analysis based iris recognition and identification system
Herbadji et al. Deep neural networks based contactless fingerprint recognition
Harakannanavar et al. Performance evaluation of face recognition based on multiple feature descriptors using Euclidean distance classifier
Garud et al. Fingerprint and Palmprint Recognition using neighborhood operation and FAST features
Costache et al. Identifying persons from iris image
Mehrotra et al. Multi-algorithmic Iris authentication system
Xu et al. An efficient iris recognition system based on intersecting cortical model neural network

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20071009

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee