KR20060111812A - Iris cognition method using comparison area embossed peculiar characteristic of iris pattern - Google Patents

Iris cognition method using comparison area embossed peculiar characteristic of iris pattern Download PDF

Info

Publication number
KR20060111812A
KR20060111812A KR1020050034187A KR20050034187A KR20060111812A KR 20060111812 A KR20060111812 A KR 20060111812A KR 1020050034187 A KR1020050034187 A KR 1020050034187A KR 20050034187 A KR20050034187 A KR 20050034187A KR 20060111812 A KR20060111812 A KR 20060111812A
Authority
KR
South Korea
Prior art keywords
iris
area
feature
divided
user
Prior art date
Application number
KR1020050034187A
Other languages
Korean (ko)
Inventor
박상열
변영철
Original Assignee
자바정보기술 주식회사
변영철
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 자바정보기술 주식회사, 변영철 filed Critical 자바정보기술 주식회사
Priority to KR1020050034187A priority Critical patent/KR20060111812A/en
Publication of KR20060111812A publication Critical patent/KR20060111812A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65DCONTAINERS FOR STORAGE OR TRANSPORT OF ARTICLES OR MATERIALS, e.g. BAGS, BARRELS, BOTTLES, BOXES, CANS, CARTONS, CRATES, DRUMS, JARS, TANKS, HOPPERS, FORWARDING CONTAINERS; ACCESSORIES, CLOSURES, OR FITTINGS THEREFOR; PACKAGING ELEMENTS; PACKAGES
    • B65D41/00Caps, e.g. crown caps or crown seals, i.e. members having parts arranged for engagement with the external periphery of a neck or wall defining a pouring opening or discharge aperture; Protective cap-like covers for closure members, e.g. decorative covers of metal foil or paper
    • B65D41/32Caps or cap-like covers with lines of weakness, tearing-strips, tags, or like opening or removal devices, e.g. to facilitate formation of pouring openings
    • B65D41/34Threaded or like caps or cap-like covers provided with tamper elements formed in, or attached to, the closure skirt
    • B65D41/3423Threaded or like caps or cap-like covers provided with tamper elements formed in, or attached to, the closure skirt with flexible tabs, or elements rotated from a non-engaging to an engaging position, formed on the tamper element or in the closure skirt
    • B65D41/3428Threaded or like caps or cap-like covers provided with tamper elements formed in, or attached to, the closure skirt with flexible tabs, or elements rotated from a non-engaging to an engaging position, formed on the tamper element or in the closure skirt the tamper element being integrally connected to the closure by means of bridges
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65DCONTAINERS FOR STORAGE OR TRANSPORT OF ARTICLES OR MATERIALS, e.g. BAGS, BARRELS, BOTTLES, BOXES, CANS, CARTONS, CRATES, DRUMS, JARS, TANKS, HOPPERS, FORWARDING CONTAINERS; ACCESSORIES, CLOSURES, OR FITTINGS THEREFOR; PACKAGING ELEMENTS; PACKAGES
    • B65D49/00Arrangements or devices for preventing refilling of containers
    • B65D49/12Arrangements or devices for preventing refilling of containers by destroying, in the act of opening the container, an integral portion thereof
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65DCONTAINERS FOR STORAGE OR TRANSPORT OF ARTICLES OR MATERIALS, e.g. BAGS, BARRELS, BOTTLES, BOXES, CANS, CARTONS, CRATES, DRUMS, JARS, TANKS, HOPPERS, FORWARDING CONTAINERS; ACCESSORIES, CLOSURES, OR FITTINGS THEREFOR; PACKAGING ELEMENTS; PACKAGES
    • B65D50/00Closures with means for discouraging unauthorised opening or removal thereof, with or without indicating means, e.g. child-proof closures
    • B65D50/02Closures with means for discouraging unauthorised opening or removal thereof, with or without indicating means, e.g. child-proof closures openable or removable by the combination of plural actions
    • B65D50/04Closures with means for discouraging unauthorised opening or removal thereof, with or without indicating means, e.g. child-proof closures openable or removable by the combination of plural actions requiring the combination of simultaneous actions, e.g. depressing and turning, lifting and turning, maintaining a part and turning another one
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65DCONTAINERS FOR STORAGE OR TRANSPORT OF ARTICLES OR MATERIALS, e.g. BAGS, BARRELS, BOTTLES, BOXES, CANS, CARTONS, CRATES, DRUMS, JARS, TANKS, HOPPERS, FORWARDING CONTAINERS; ACCESSORIES, CLOSURES, OR FITTINGS THEREFOR; PACKAGING ELEMENTS; PACKAGES
    • B65D51/00Closures not otherwise provided for
    • B65D51/18Arrangements of closures with protective outer cap-like covers or of two or more co-operating closures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65DCONTAINERS FOR STORAGE OR TRANSPORT OF ARTICLES OR MATERIALS, e.g. BAGS, BARRELS, BOTTLES, BOXES, CANS, CARTONS, CRATES, DRUMS, JARS, TANKS, HOPPERS, FORWARDING CONTAINERS; ACCESSORIES, CLOSURES, OR FITTINGS THEREFOR; PACKAGING ELEMENTS; PACKAGES
    • B65D53/00Sealing or packing elements; Sealings formed by liquid or plastics material
    • B65D53/04Discs

Abstract

An iris recognition method using a comparison area embossing unique features of an iris pattern is provided to reduce a calculation time according to reduction of an iris feature code and increase an iris recognition ratio by recognizing only the comparison area embossing the unique iris feature. A preprocessed iris image of a user is divided into multiple areas to emboss structural feature of iris wrinkles represented in the iris image(S300). The iris feature code is generated by extracting and coding the structural feature of the iris wrinkles from each divided area(S320). A disparity of each divided area is calculated by exchanging a structural difference of the iris feature of each divided area into a distance value(S330). An area point of each divided area is output by calculating a disparity average of each divided area(S340). The area having a relatively high priority is selected as the comparison area by setting the priority to each divided area in area point order(S350). The selected comparison area and the iris feature code for the comparison area are stored to an iris feature database of the user(S500).

Description

홍채패턴의 고유특성이 부각된 비교영역을 사용하는 홍채인식방법{IRIS COGNITION METHOD USING COMPARISON AREA EMBOSSED PECULIAR CHARACTERISTIC OF IRIS PATTERN}Iris Recognition Method Using Comparative Areas with Unique Characteristics of Iris Patterns {IRIS COGNITION METHOD USING COMPARISON AREA EMBOSSED PECULIAR CHARACTERISTIC OF IRIS PATTERN}

도 1은 종래에 홍채인식방법을 보인 순서도.1 is a flow chart showing a conventional iris recognition method.

도 2는 본 발명에 따른 홍채인식방법의 개념을 개략적으로 보인 순서도.Figure 2 is a flow chart schematically showing the concept of the iris recognition method according to the present invention.

도 3은 본 발명에 따른 홍채인식방법을 세부적으로 보인 순서도.Figure 3 is a flow chart showing in detail the iris recognition method according to the present invention.

도 4는 본 발명에 따른 분할영역별 영역차이도의 산출과정을 보인 순서도.4 is a flowchart illustrating a process of calculating region differences according to divisions according to the present invention.

도 5는 본 발명에 따른 영역차이도 및 영역점수의 산출과정의 개념을 보인 모형도.Figure 5 is a model showing the concept of the area difference diagram and the calculation process of the area score according to the present invention.

도 6은 본 발명에 따른 비교영역의 선정과정을 보인 순서도.6 is a flowchart illustrating a process of selecting a comparison area according to the present invention.

도 7은 본 발명에 따른 홍채인식방법의 시스템 구성도.7 is a system configuration of the iris recognition method according to the present invention.

*** 도면의 주요부부분에 대한 도면부호의 설명 ****** Explanation of the reference numerals for the main parts of the drawings ***

10 : 홍채영상 20 : 분할영역10: iris image 20: segmented area

30 : 영역차이도면 100 : 눈영상 획득모듈30: area difference diagram 100: eye image acquisition module

200 : 전처리모듈 300 : 홍채영상 분할모듈200: preprocessing module 300: iris image segmentation module

400 : 특징코드 추출모듈(등록과정) 500 : 영역차이도 산출모듈400: feature code extraction module (registration process) 500: domain difference calculation module

600 : 영역점수 산출모듈 700 : 비교영역 선정모듈600: area score calculation module 700: comparison area selection module

800 : 사용자의 홍채특징코드 등록모듈800: user's iris feature code registration module

900 : 특징코드 추출모듈(신원확인과정) 1000: 특징코드 매칭모듈900: feature code extraction module (identification process) 1000: feature code matching module

본 발명은 사람의 생체적 특성을 이용하여 개인을 식별하는 생체인식방법 중의 하나로 사람마다 그 패턴이 상이하다는 홍채를 이용하여 신원을 확인하는 홍채인식방법에 관한 것이다. 더욱 자세하게는, 개인을 식별하기 위해 홍채를 인식하는 데 있어 그 인식대상영역으로 홍채의 전체영역을 사용하던 종래와 달리 홍채 고유의 특성 특히 본 발명에 의하면 홍채주름의 구조적 특성이 보다 부각된 비교영역을 추출하여 이를 홍채인식대상의 영역으로 사용하는 홍채인식방법에 관한 것이다.The present invention relates to an iris recognition method for identifying an identity using an iris in which a pattern is different for each person as one of biometric methods for identifying an individual by using a biological characteristic of a person. More specifically, in contrast to the prior art, in which the entire area of the iris is used as a recognition target area for recognizing the iris to identify an individual, the unique characteristic of the iris, in particular, according to the present invention, a comparative area in which the structural characteristics of the iris wrinkles are more highlighted The present invention relates to an iris recognition method which extracts and uses this as an area of an iris recognition target.

정보산업의 발달로 대부분의 중요한 정보들이 컴퓨터에 의해 처리됨에 따라, 인터넷을 통한 정보교류가 활발해지고 온라인 금융등 전자상거래와 관련된 산업의 규모가 커지면서 정확한 개인인증에 대한 요구가 그 어느 때보다 커지고 있다.With the development of the information industry, as most important information is processed by computers, the demand for accurate personal authentication is growing more than ever, as the exchange of information through the Internet is active and the size of industries related to e-commerce such as online finance is growing. .

이에 발맞추어 사람의 생체적, 행동적인 특성을 이용하여 개인을 식별하는 생체인식기술 또한 자체 기술의 진보와 주변 기술의 발전에 따라 가격하락 및 급속한 정보화의 흐름을 타고 빠르게 확산하여 가고 있다.In line with this, biometrics that identify individuals by using the biological and behavioral characteristics of human beings are also rapidly spreading along with the drop in prices and rapid informatization according to the advancement of their own technology and the development of peripheral technology.

생체인식이란 사람의 생체적, 행동적인 특성을 이용하여 개인을 식별하는 기 술로 그 분야는 지문, 얼굴, 홍채, 망막, 정맥인식 등과 같은 생체적 특성을 이용하는 분야와 서명, 음성인식 등과 같은 행동적 특성을 이용하는 분야가 대표적이다.Biometrics is a technology that identifies an individual using the biometric and behavioral characteristics of a person. The fields are those that use biometric characteristics such as fingerprints, faces, irises, retinas, and vein recognition, as well as behaviors such as signatures and speech recognition. The field using characteristics is representative.

그 중 사람의 홍채는 그 고유패턴이 1078가지 이상으로 약 1010가지의 패턴을 가지는 지문과 대별될 만큼 풍부한 특징변수를 소유하고 생체학적으로 생후 1~2년이면 평생 변하지 않을 홍채패턴이 완성되어 불변성 및 유일성을 가지기에, 개개인의 독립성이 얼굴이나 지문보다도 높아 신원확인시스템에 적용시킬 경우 높은 신뢰성을 가질 수 있어 생체인식분야에 널리 이용되고 있다. Among them, human iris has more than 1078 unique patterns and has abundant characteristic variables that can be distinguished from fingerprints having about 1010 patterns. And because of its uniqueness, since the independence of the individual is higher than the face or fingerprint, when applied to the identification system can have a high reliability and is widely used in the field of biometrics.

상기 홍채는 눈의 동공과 흰 부위 사이에 존재하는 영역으로 구성형태는 동공괄약근, 동공산대근, 교원질 섬유, 자율신경환동공주름등으로 엉켜있으며, 착색과 함께 링(Ring)형태의 홍채패턴을 만든다. 이 홍채에 생겨있는 긴 띠 모양의 망(빗살 무늬의 인대), 코라지를 한 듯한 붉은 색의 섬유질, 속눈썹 모양의 돌기, 꾸불꾸불한 혈관계, 링모양의 원들, 동공을 둘러싸는 코로나 모양의 인대, 홍채 고유의 색, 얼룩점 등이 사람마다 다른 생물학적 특성을 가지며 사람이 태어난 후 약 18개월 내에 모양이 생성되고 눈썹과 눈꺼풀, 망막에 의해 보호되며 일생동안 그 모양이 쉽게 변하지 않는다는 점에서 다른 생체 특성보다 높은 일관성을 갖는 것으로 평가되고 있다. 비슷해보이는 눈의 홍채도 자세히 보면 무늬, 형태 등이 사람마다 다른 것을 알 수 있다. 그리고 홍채는 같은 사람일지라도 왼쪽과 오른쪽이 다를 뿐 아니라 같은 유전자 구조로 되어 있는 일란성 쌍둥이의 경우에도 서로 다른 것으로 알려져 있다.The iris is an area existing between the pupil and the white area of the eye. The iris is entangled with the pupil sphincter, the sympathetic muscle, the collagen fiber, the autonomic circumflex cavity, and forms a ring-shaped iris pattern with coloring. . The long band-like mesh (comb ligament) of this iris, corrugated red fibers, eyelash-like projections, sinusoidal vessels, ring-shaped circles, corona-shaped ligaments surrounding the pupil, The color, spots, etc. of the iris have different biological characteristics, and the shape is generated within about 18 months after the birth of the person, protected by the eyebrows, eyelids and retina, and the shape does not change easily during life. It is evaluated to have high consistency. Similarly, if you look closely at the iris of the eye, you can see that the patterns and shapes are different from person to person. And the iris is known to be identical for identical twins that have the same genetic structure as well as the left and right sides of the same person.

이러한 홍채의 주름을 주파수로 변환시켜 신원을 확인하는 홍채인식은 판별인자가 250개에 달해 30개인 지문을 크게 앞선다. 또한, 살아 있는 사람의 홍채에는 미세한 떨림이 있어 죽은 자의 그것과 확연히 구분되며 형태가 둥글기 때문에 사진, 그래픽 등 평면 이미지로는 오용이 사실상 불가능하다.The iris recognition, which converts the wrinkles of the iris into a frequency and confirms its identity, has 250 discrimination factors, far ahead of 30 fingerprints. In addition, the iris of a living person has a slight tremor, which is clearly distinguished from that of the dead, and because of its round shape, misuse is practically impossible with flat images such as photographs and graphics.

또한, 상기 홍채패턴을 이용한 홍채인식은 지문인식과 같이 손가락을 센서에 눌러야 하는 신체적인 접촉이 필요없이 안구로부터 일정한 거리 이상 떨어진 곳에서도 데이터의 획득이 가능하여 홍채인식 대상자들로 하여금 사용에 대한 거부감이 덜하다. 게다가 생후 어느 정도의 기간이 흐른 뒤에는 홍채의 특징이 일생동안 변하지 않아, 지문 인식에서 손끝 피부의 갈라짐 따위로 인한 지문 훼손, 화자 인식에서 화자의 연령에 따른 목소리의 변형, 얼굴인식에서 노화에 따른 얼굴의 변형이나 머리카락의 길이 또는 표정의 변화 등으로 인한 특징 추출의 문제와 같은 생물학적인 특성의 변화에 의한 문제가 없다는 장점이 있다.In addition, the iris recognition using the iris pattern is capable of acquiring data at a certain distance or more from the eye without requiring physical contact of a finger with a sensor, such as fingerprint recognition, thereby allowing the iris recognition subjects to reject the use. This is less. In addition, after a certain period of time, the characteristics of the iris do not change for a lifetime. There is an advantage that there is no problem due to a change in biological characteristics such as a problem of feature extraction due to a deformation of the hair, a change in the length of the hair, or a facial expression.

따라서, 상기 기술한 홍채를 사용자인증수단으로 이용하는 홍채인식시스템은 근래 다른 어떤 시스템보다 오인식률이 낮아 고도의 보안이 필요한 곳에 쓰일 것으로 주목받고 있다.Therefore, the iris recognition system using the above-described iris as a user authentication means has recently been attracting attention because it has a lower false recognition rate than any other system and is used where high security is required.

이러한 홍채가 개인 식별에 유용하게 사용될 수 있다는 사실은 1930년대 Frank Burch에 의해서 처음 제안되었다. 그 후 미국의 안과의사인 Leonard Flom과 Aran Safir는 홍채패턴이 사람마다 고유하다는 연구 결과를 도출했고, 1994년 영국 캠브리지 대학의 John G. Daugman 교수는 홍채패턴을 256 바이트로 코드화할 수 있는 가버 웨이블렛 변환(Gabor Wavelet Transform)을 기반으로 한 영상신호처리 알 고리즘을 제안하였고 현재 상용화된 제품들은 모두 이 알고리즘에 기반을 두고 있다.The fact that such an iris could be useful for personal identification was first proposed by Frank Burch in the 1930s. Later, American ophthalmologists Leonard Flom and Aran Safir derived research showing that iris patterns are unique to each person.In 1994, Professor John G. Daugman of the University of Cambridge, England, transformed Gabor Wavelet capable of encoding iris patterns into 256 bytes. A video signal processing algorithm based on (Gabor Wavelet Transform) is proposed, and all commercially available products are based on this algorithm.

한편, 상기 홍채를 이용하여 개인을 식별하기 위한 종래의 홍채인식방법은 크게 홍채인식의 등록과정과 홍채인식의 신원확인과정으로 나눌 수 있다.On the other hand, the conventional iris recognition method for identifying an individual using the iris can be divided into the registration process of the iris recognition and the identification process of the iris recognition.

홍채인식의 등록과정은 개인식별의 대상이 되는 사용자의 홍채 영상의 특징정보를 등록하는 과정으로 먼저, 영상획득을 위한 카메라, 정확한 홍채패턴을 얻기 위한 조명 및 이미지센서로 이루어지는 영상입력장치를 통해 사용자의 눈영상을 획득한다(S10). 그리고 상기 획득한 눈영상에 대해 동공과 홍채의 경계에 해당하는 홍채의 안쪽 경계, 흰자위인 공막과 홍채의 경계에 해당하는 홍채 바깥쪽 경계를 검출하는 전처리과정을 거쳐 정확한 홍채영역을 추출한다(S20). 그 다음에, 추출한 홍채영역에 나타나는 패턴의 특징을 추출하여 코드화하는데 보통 이미 상용화된 상기 가버 웨이블렛 변환(Gabor Wavelet Transform)을 기반으로 한다(S30). 그 다음에, 추출한 홍채특징코드를 사용자의 홍채특징DB에 등록한다(S40).The registration process of iris recognition is to register the characteristic information of the iris image of the user who is the subject of personal identification. First, the user uses an image input device consisting of a camera for image acquisition, illumination for obtaining an accurate iris pattern, and an image sensor. Acquire an eye image (S10). In addition, an accurate iris region is extracted through a preprocessing process for detecting the inner boundary of the iris corresponding to the boundary between the pupil and the iris, and the outer boundary of the iris corresponding to the boundary between the sclera and the iris. ). Next, the feature of the pattern appearing in the extracted iris region is extracted and coded based on the Gabor Wavelet Transform, which is already commercially available (S30). Next, the extracted iris feature code is registered in the iris feature DB of the user (S40).

이후, 홍채인식의 신원확인과정은 상기 홍채인식의 등록과정과 마찬가지로 영상입력장치를 통해 획득한 눈영상으로부터 전처리를 거쳐 홍채영역을 추출한다(S10, S20). 그 다음에, 상기 추출한 홍채영역에 대해 패턴의 특징을 추출하여 코드화하므로 홍채특징코드를 생성한다(S30). 마지막으로, 상기 코드화한 홍채특징코드와 사용자의 홍채특징DB에 등록된 홍채특징코드의 유사도를 측정하여 본인 여부를 확인한다(S50).Thereafter, the identification process of the iris recognition extracts the iris region through pre-processing from the eye image acquired through the image input device similarly to the registration process of the iris recognition (S10 and S20). Next, since the feature of the pattern is extracted and coded for the extracted iris region, an iris feature code is generated (S30). Finally, the identity of the coded iris feature code and the iris feature code registered in the user's iris feature DB is measured to confirm whether or not the identity (S50).

상기와 같은 과정을 통해 이루어지는 홍채인식방법에 있어 현재까지 주류를 이루고 있는 연구는 전처리과정, 홍채패턴의 특징추출과정 그리고 홍채인식수단에 관한 것이 주류이다.In the iris recognition method through the above process, the main researches to date are the preprocessing process, the feature extraction process of the iris pattern, and the iris recognition means.

상기 특징추출과정의 경우 특징벡터의 차원을 줄여 홍채패턴의 분류기가 가지는 부담을 줄이고 양질의 특징을 추출하여 홍채인식률과 처리시간에 있어서 분류기의 성능을 한층 더 향상시킬 수 있는 방향으로 연구가 이루어지고 있다. 여기서, 상기 홍채패턴의 특징은 픽셀비교방법에서 사용할 수 있는 픽셀의 위치정보, 서식이미지의 크기와 픽셀 밀도 등으로 이루어진 물리적인 특징과 홍채주름의 상대적인 위치, 주름과 주름으로 구성되는 구조의 상대적인 위치, 홍채영상에 존재하는 이미지 값들의 관계정보 및 홍채영상 구성요소들의 상대적인 위치정보 등으로 이루어진 논리적인 특징으로 나눌 수 있다.In the feature extraction process, the dimension of the feature vector is reduced to reduce the burden on the classifier of the iris pattern and to extract high-quality features to further improve the performance of the classifier in iris recognition rate and processing time. have. In this case, the iris pattern is characterized by physical location consisting of pixel position information that can be used in the pixel comparison method, size and size of pixel, etc., relative position of iris wrinkles, and relative position of structure composed of wrinkles and wrinkles. In addition, it can be divided into logical features including relationship information of image values existing in the iris image and relative position information of iris image elements.

또한, 홍채인식수단과 관련하는 연구로서 k-NN, MLP 및 트리 비교에 기반한 새로운 구조적 인식기를 이용하고 처리하고자 하는 영상을 사각형 형태의 영역으로 분류한 후, 각 분할 영역의 데이터 픽셀의 밀도를 계산한 후 k-NN와 MLP 인식기의 입력으로 사용하여 영상을 분류하는 연구도 있다.In addition, as a study on the iris recognition means, a new structural recognizer based on k-NN, MLP, and tree comparison is used, and the image to be processed is classified into rectangular areas, and then the density of data pixels in each divided area is calculated. There is also a study to classify images using k-NN and MLP recognizer.

그러나 상기 나열한 기존의 연구들은 특징추출을 위한 픽셀 기반 연산을 수행하였을 뿐만 아니라 홍채인식시 홍채영상전체를 그 비교대상으로 사용하였다. 따라서, 홍채인식시 상기 홍채영상전체에 대해 홍채특징을 추출하여 코드화함에 따라 홍채특징코드의 크기가 큼에 따른 계산 시간이 상당함에 따라 홍채인식에 대해 전반적으로 많은 처리 시간을 요구하였다.However, the previous studies listed above not only performed pixel-based computation for feature extraction, but also used the entire iris image for comparison. Therefore, as the iris feature is extracted and coded for the entire iris image, the calculation time for the large size of the iris feature code is considerable, which requires a large amount of processing time for the iris recognition.

그러나 현재까지는 기본적으로 홍채영상 전체를 대상으로 특징을 추출하여 인식을 수행하고 있으며 보다 나은 특징을 추출하기 위한 방법으로서 비교 영역을 추출하기 위한 연구는 전혀 없는 상태이다.However, until now, basically, the feature is extracted from the entire iris image and recognition is performed. As a method for extracting better features, there is no research for extracting a comparison area.

따라서, 본 발명은 상기와 같은 기술적 문제점을 감안하여 창안된 것으로 홍채인식시 그 대상영역을 홍채 고유의 특징이 보다 부각된 비교영역에 대해서만 수행하므로 홍채특징코드의 크기 감소에 따른 계산 시간을 단축하고 양질의 특징을 포함하는 영역에 대해서만 홍채인식을 수행하므로 보다 향상된 홍채인식률을 가지는 홍채인식방법을 제공하는데 그 목적이 있다.Therefore, the present invention was devised in view of the above technical problems, and thus, when the iris recognition is performed, the target area is performed only for the comparison area where the iris inherent characteristics are highlighted. The purpose of the present invention is to provide an iris recognition method having an improved iris recognition rate because the iris recognition is performed only on a region including high quality features.

상기 기술한 바와 같은 기술적 과제를 이루기 위하여 본 발명은 영상입력장치를 통해 획득한 사용자의 눈영상에 대해 전처리를 수행하여 홍채영상을 추출하고 이로부터 사용자의 신원을 식별하는 홍채인식방법에 있어서, (a) 상기 전처리를 거친 사용자의 홍채영상을 이에 나타난 홍채주름의 구조적인 특징이 부각되도록 다수의 영역으로 분할하는 단계, (b) 상기 (a)단계에서 분할한 영역별로 홍채주름의 구조적인 특징을 추출하여 이를 코드화하므로 홍채특징코드를 생성하는 단계, (c) 상기 (a), (b)단계를 거친 홍채영상 간에 분할영역별로 홍채특징의 구조적인 차이를 거리값으로 환산한 분할영역별 영역차이도를 산출하는 단계, (d) 상기 (d)단계를 통해 영역차이도를 산출한 모든 홍채영상에 대해 분할영역별로 영역차이도의 평균값을 계산한 분할영역별 영역점수를 산출하는 단계, (e) 상기 (d)단계에서 산출한 분할영역별 영역점수가 높은 순서대로 분할영역에 대한 우선순위를 설정하고 상기 우선순위가 상대적으로 높은 분할영역을 비교영역으로 선정하는 단계, (f) 상기 선정된 비교영역 및 이에 대한 홍채특징코드를 사용자의 홍채특징DB에 등록하는 단계, (g) 상기 (a) 내지 (f)단계를 통해 사용자의 홍채특징정보의 등록 이후, 전처리를 거친 신원확인요청을 희망하는 사용자의 홍채영상에 대해 (e)단계에서 선정한 비교영역의 홍채특징만을 추출하여 홍채특징코드를 생성하는 단계 및 (h) 상기 (g)단계에서 생성한 홍채특징코드와 (f)단계에서 사용자의 홍채특징DB에 등록된 홍채특징코드 간에 매칭을 수행하여 유사도를 측정하므로 사용자의 신원을 식별하는 단계를 포함하는 것을 특징으로 한다.In order to achieve the technical problem as described above, the present invention, in the iris recognition method for extracting the iris image by performing preprocessing on the eye image of the user obtained through the image input device and identifying the identity of the user from the ( a) dividing the iris image of the user who has undergone the pre-processing into a plurality of areas so that the structural features of the iris wrinkles shown therein are highlighted; (b) dividing the structural features of the iris wrinkles by the regions divided in the step (a) Extracting and encoding the iris feature code to generate an iris feature code. Computation of the degree, (d) the divided region in which the average value of the region difference is calculated for each divided region for all the iris images calculated by the step (d) Calculating the area scores for each area, (e) setting priorities for the divided areas in order of the area scores for each area calculated in the step (d), and comparing the divided areas with the higher priority as the comparison area. Selecting (f) registering the selected comparison area and the iris feature code thereof in the iris feature DB of the user, and (g) registering the iris feature information of the user through the steps (a) to (f) Subsequently, extracting only the iris feature of the comparison area selected in step (e) for the iris image of the user who wishes to confirm the identity request after preprocessing, generating an iris feature code, and (h) generating the iris feature code in step (g). Since the similarity is measured by performing matching between the iris feature code and the iris feature code registered in the user's iris feature DB in step (f), identifying the identity of the user.

그리고 상기 (c)단계는 (c1) (a), (b) 단계를 거친 모든 홍채영상에 대해 가능한 모든 쌍을 생성하는 단계, (c2) 상기 쌍을 이루는 모든 홍채영상에 대해 분할영역별로 그 특징코드에 대한 특징벡터를 구하고 이 특징벡터 간의 거리값을 계산하는 단계, (c3) 상기 환산한 거리값을 다이나믹프로그램매칭방법에 적용하여 가중치 그래프를 생성하는 단계, (c4) 상기 생성한 가중치 그래프에서 최단경로를 찾아 그 경로에 해당하는 모든 가중치값을 합산한 영역차이도를 산출하는 단계를 포함하는 것을 특징으로 한다.Step (c) is to generate all possible pairs for all iris images having undergone steps (c1), (a) and (b), and (c2) for each segment of each iris image of the pair. Obtaining a feature vector for a code and calculating a distance value between the feature vectors, (c3) generating a weight graph by applying the converted distance value to a dynamic program matching method, (c4) in the generated weight graph The method may include finding a shortest path and calculating an area difference obtained by summing all weight values corresponding to the path.

그리고 상기 (d)단계에서의 영역점수는 속눈썹, 눈꺼풀, 조명등의 외부요인으로 인해 홍채특징정보에 포함되는 홍채주름정보 외의 잡음 및 분할영역의 면적크기를 패널티함수로 표현하여 이를 반영한 값인 것을 특징으로 한다.And the area score in the step (d) is a value that reflects this by expressing the area size of the noise and segmentation area other than the iris wrinkle information included in the iris feature information due to external factors such as eyelashes, eyelids, lighting, etc. do.

그리고 상기 (e)단계는 (e1) 분할영역별 영역점수를 기준으로 순위를 부여하는 단계, (e2) 우선순위가 높은 분할영역에 대해 홍채주름패턴을 인식하는 단계, (e3) 우선순위가 높은 순서별로 각각의 분할영역에 대해 (e2)단계를 반복하고 홍채주름패턴의 인식률이 더 이상 증가하지 않는 한계점에 이르는지의 여부를 판단하는 단계 및 (e4) 상기 (e3)단계를 통해 인식률이 한계점에 이른 것으로 판단되면 그때까지 인식한 모든 분할영역에 대해 우선순위가 높은 순서별로 복수의 비교영역을 선정하는 단계를 포함하는 것을 특징으로 한다.In the step (e), (e1) assigning a rank based on the area score of each divided area, (e2) recognizing the iris wrinkle pattern for the divided area having a high priority, and (e3) having a high priority Repeating step (e2) for each segment in order and determining whether the recognition rate of the iris wrinkle pattern reaches a threshold where the recognition rate does not increase any more, and (e4) step (e3), the recognition rate reaches the threshold. And determining a plurality of comparison areas in order of high priority for all the partitions recognized up to that point.

이하 첨부된 도면을 참조로 하여 본 발명 홍채패턴의 고유특성이 부각된 비교영역을 사용하는 홍채인식방법의 실시예를 상세히 설명하기로 한다.Hereinafter, an embodiment of an iris recognition method using a comparison area in which the inherent characteristics of the iris pattern of the present invention is highlighted will be described in detail with reference to the accompanying drawings.

도 2는 본 발명에 따른 홍채인식방법의 개념을 개략적으로 보인 순서도이다. 상기 도면에 보인 바와 같이, 본 발명에 따르면 홍채인식의 등록과정에서 사용자의 홍채 영상에 대한 특징정보를 추출하는 영역을 특정하여 추후 홍채인식의 신원확인과정에서는 상기 특정한 영역에 대해서만 홍채의 특징정보를 추출하여 사용자의 신원을 판별하는 것을 요부로 하는 것이다. 특히, 본 발명에서는 홍채의 특징정보로 홍채의 주름에 대한 구조적인 특징을 추출하여 사용한다.2 is a flow chart schematically showing the concept of the iris recognition method according to the present invention. As shown in the drawing, according to the present invention, in the registration process of the iris recognition, the region for extracting the feature information on the iris image of the user is specified, and in the identification process of the iris recognition, the feature information of the iris is identified only for the specific region. The main purpose is to extract and determine the identity of the user. In particular, the present invention extracts and uses the structural features of the wrinkles of the iris as the characteristic information of the iris.

본 발명에 따른 홍채인식방법의 일련의 처리과정을 설명하면 다음과 같다.Referring to the series of processes of the iris recognition method according to the invention as follows.

먼저, CCD(Change Coupled Device) 카메라, 비디오 카메라, 선명한 홍채 무늬 패턴을 얻기 위한 조명, 아날로그 영상을 디지털 영상으로 변환하기 위한 영상획득 장치(Capture Board or Frame Grabber)와 같은 영상입력장치를 통해 사용자의 눈영상을 획득한다(S100).First of all, the user can use a video input device such as a CCD (Change Coupled Device) camera, a video camera, illumination to obtain a clear iris pattern, and a capture board or frame grabber to convert an analog image into a digital image. Acquire an eye image (S100).

그 다음에, 상기 획득한 눈영상에 대해 홍채인식을 위한 전처리과정을 수행한다. 상기 전처리과정은 획득한 눈영상으로부터 홍채영역만을 추출하기 위한 과정으로 상기 눈영상에 대해 동공과 홍채의 경계에 해당하는 홍채의 안쪽 경계, 흰자위인 공막과 홍채의 경계에 해당하는 홍채 바깥쪽 경계를 검출하므로 정확한 홍채영역을 추출한다(S200). Next, a preprocessing process for iris recognition is performed on the obtained eye image. The preprocessing process is to extract only the iris region from the acquired eye image. The inner boundary of the iris corresponding to the boundary between the pupil and the iris and the outer boundary of the iris corresponding to the boundary of the sclera and iris, which are white Since it detects the correct iris area (S200).

그 다음에, 사용자의 홍채특징정보를 홍채인식시스템에 등록하는 과정에서는 상기 추출한 홍채영상에 대해 홍채주름의 구조적인 특징이 부각되는 영역을 비교영역으로 선정한다(S300).Next, in the process of registering the user's iris feature information in the iris recognition system, an area in which the structural features of the iris wrinkles are highlighted for the extracted iris image is selected as a comparison area (S300).

그 다음에, 상기 홍채영상의 비교영역에 나타난 홍채의 특징정보를 추출한다(S400). 이때, 상기 홍채의 특징정보는 비교영역 상에 나타나는 홍채주름패턴의 특징을 추출하여 코드화한 것이다.Next, feature information of the iris shown in the comparison area of the iris image is extracted (S400). At this time, the feature information of the iris is coded by extracting the feature of the iris wrinkle pattern appearing on the comparison area.

그 다음에, 상기 추출한 홍채의 특징정보를 사용자의 홍채특징DB에 등록한다(S500).Next, the extracted iris feature information is registered in the iris feature DB of the user (S500).

상기와 같은 홍채인식을 위한 등록과정을 거친 후, 홍채인식의 신원확인과정이 이루어진다. After the registration process for the iris recognition as described above, the identification process of the iris recognition is performed.

상기 신원확인과정은 등록과정과 마찬가지로 먼저, 신원확인을 요청하는 사용자의 눈영상을 획득하고(S100), 획득한 눈영상에 대해 전처리과정을 거쳐 홍채영역만을 추출한다(S200).As in the registration process, first, as in the registration process, first, an eye image of the user requesting identification is obtained (S100), and only the iris region is extracted through a preprocessing process for the acquired eye image (S200).

그 다음에, 상기 추출한 홍채영상에 대해 비교영역으로 선정된 영역에 나타난 홍채의 특징정보만을 추출한다(S600).Next, only the characteristic information of the iris shown in the region selected as the comparison region is extracted with respect to the extracted iris image (S600).

마지막으로, 상기 추출한 사용자의 홍채특징정보와 사용자의 홍채특징DB에 등록된 홍채특징정보의 매칭(Matching)을 수행하여 사용자의 신원을 확인한다(S700).Finally, matching of the extracted iris feature information with the iris feature information registered in the iris feature DB of the user is performed to confirm the identity of the user (S700).

이상 기술한 바와 같이, 홍채의 특징정보를 추출시 홍채영상의 전체이미지에 대해 특징값을 추출하여 코드화하는 것이 일반적이었으나, 본 발명에 의하면 홍채의 특징정보를 추출한 비교영역을 선정하고 이 비교영역에 나타난 홍채주름의 특징정보만을 추출하여 추후 신원확인시 상기 비교영역에 대해서만 홍채특징의 매칭을 수행하는 것이 종래와 대별되는 본 발명의 주요 부분이다.As described above, when the feature information of the iris is extracted, it is common to extract and code the feature value for the entire image of the iris image. However, according to the present invention, a comparison region from which the feature information of the iris is extracted is selected, Extracting only the characteristic information of the iris wrinkles shown and performing matching of the iris features only with respect to the comparison area for later identification is the main part of the present invention.

도 3은 본 발명에 따른 홍채인식방법을 세부적으로 보인 순서도이다. 상기 도면에 보인 바와 같이, 본 발명에 따른 홍채인식방법의 일련의 처리과정은 다음과 같다.Figure 3 is a flow chart showing in detail the iris recognition method according to the present invention. As shown in the drawings, a series of processes of the iris recognition method according to the present invention are as follows.

먼저, 영상입력장치에 의해 획득한 눈영상에 대해 전처리를 수행하여 홍채영역만을 추출한다(S100, S200).First, only the iris region is extracted by performing preprocessing on the eye image acquired by the image input apparatus (S100 and S200).

그리고 홍채인식의 등록과정에 의하면, 상기 전처리를 거치고(S200) 사용자의 홍채특징DB에 등록대상인 모든 홍채영상에 대해 홍채주름의 구조적인 특징이 부각되도록 다수의 영역으로 분할한다(S310).And according to the registration process of the iris recognition, the pre-processing (S200) is divided into a plurality of areas so as to highlight the structural features of the iris wrinkles for all the iris image to be registered in the user's iris feature DB (S310).

그 다음에, 상기 분할한 영역별로 홍채주름의 구조적인 특징을 추출하여 이를 코드화하므로 홍채특징코드를 생성한다(S320).Next, the structural features of the iris wrinkles are extracted and coded for each of the divided regions, thereby generating an iris feature code (S320).

그 다음에, 분할영역별로 상기 단계에서(S320)에서 추출한 홍채주름의 구조 적인 특징의 차이를 의미하는 영역차이도를 계산한다(S330). 여기서, 상기 영역차이도는 이하 도 4를 참조하여 보다 상세히 설명하기로 한다.Subsequently, a region difference degree indicating a difference in structural characteristics of the iris wrinkles extracted in the step S320 is calculated for each segment (S330). Here, the region difference degree will be described in more detail with reference to FIG. 4.

그 다음에, 상기 단계(S330)에서 계산한 영역차이도를 반영하여 분할영역별 영역점수를 계산한다(S340). 여기서, 상기 영역점수는 분할영역별로 쌍을 이룬 모든 홍채영상 간에 영역차이도값을 모두 더하여 이에 대한 평균값을 산출한 값이다. 이에 대해 다음 수학식 1을 참조한다.Next, the area score for each divided area is calculated by reflecting the area difference degree calculated in the step S330 (S340). In this case, the area score is a value obtained by adding an area difference degree value between all paired iris images for each divided area and calculating an average thereof. See Equation 1 below.

Figure 112005021610470-PAT00001
Figure 112005021610470-PAT00001

Savg(i) : i번째 분할영역에 대한 영역점수Savg (i): Area score for the i th partition

NC2 : 쌍을 이룬 홍채 영상에 대해 그 쌍의 총 수(n : 모든 홍채 영상의 수) N C 2 : Total number of pairs for a paired iris image (n: Number of all iris images)

dNij : i번째 분할영역에 대해 모든 쌍 별 영역차이도 값d Nij : All pairwise region difference values for the i th partition

∑dNij : i번째 분할영역에 대해 모든 쌍 별 영역차이도 값의 총합∑d Nij : Sum of all pairwise region difference values for the i-th partition

그런데 추후 비교영역 선정시 비교영역 선정의 대상이 되는 분할영역에 잡음이 존재하거나 홍채주름의 특징이 잘못 추출되면 홍채인식시 오인식률을 높이는 주요한 원인이 되므로 이를 회피해야 한다. 여기서 상기 잡음은 눈영상획득시 속눈썹, 눈꺼풀, 조명등의 외부요인에 의해 발생한 홍채주름특징정보 외의 것으로 주름과 유사한 잡영, 주름의 소멸, 하나의 주름이 두 개 이상의 주름으로 분할된 것, 주름 일부의 소멸 등과 같은 것이다. However, when the comparison area is selected later, if noise exists in the divided region or the iris wrinkles are incorrectly extracted, it is a major cause of the false recognition rate. Here, the noise is other than iris wrinkle characteristic information caused by external factors such as eyelashes, eyelids, and lights when acquiring an image of an eye, and the likeness of wrinkles, the disappearance of wrinkles, one wrinkle is divided into two or more wrinkles, and a part of wrinkles Such as extinction.

또한, 상기 단계(S310)에서 분할한 영역의 면적은 홍채주름의 특징별로 그 크기가 다양하다. 즉 면적이 크고 작음에 따라 홍채주름의 특징추출이 더 용이할 수도 있고 그렇지 않을 수도 있으므로 이는 홍채인식에 영향을 미치는 요인이 된다.In addition, the size of the area divided in the step (S310) varies depending on the characteristics of the iris wrinkles. That is, as the area is large and small, the feature extraction of the iris wrinkles may or may not be easier, which is a factor influencing iris recognition.

따라서, 상기 잡음정보와 분할영역의 크기정보를 패널티함수로 산출하여 이를 분할영역별 영역점수의 산출시 반영한다. 상기 패널티함수는 다음 수학식 2와 같다.Therefore, the noise information and the size information of the divided region are calculated as a penalty function and reflected in the calculation of the region score for each divided region. The penalty function is shown in Equation 2 below.

Figure 112005021610470-PAT00002
Figure 112005021610470-PAT00002

β1 , : 패널티함수에 잡음정보반영비율을 의미하는 비례상수β 1 ,: Proportional constant representing the noise information reflection ratio in the penalty function

β2 : 패널티함수에 분할영역의 크기반영비율을 의미하는 비례상수β 2 : Proportional constant representing the size reflecting ratio of the partition to the penalty function

ai : i번째 분할영역의 면적크기 값a i : Area size value of the i th partition

am : 분할영역의 최대면적 값(즉, 분할영역이 포함된 홍채 영상의 전체면적)a m : the maximum area value of the segment (ie the total area of the iris image including the segment)

r : 분할영역에 포함된 잡음정보의 값r: value of noise information included in partition

즉, 상기 패널티함수값은 영역점수산출의 대상인 분할영역의 면적크기 값That is, the penalty function value is an area size value of a divided area that is an object of area score calculation.

(ai)이 클수록(즉 분할영역의 최대면적 값에 가까워질수록) 의 값이 0에 가까워지므로 패널티함수값은 작아지므로 이는 분할영역의 면적크기에 반비례한다. 그리고 상기 잡음정보 값(r)이 커질수록 패널티값은 커지므로 이는 잡음정보 값에 비례한다. 이러한 패널티값을 영역점수에 반영하면 다음 수학식 3과 같다.The larger (a i ) (ie, the closer to the maximum area value of the partition) As the value of close to 0, the penalty function becomes smaller, which is inversely proportional to the area size of the partition. As the noise information value r increases, the penalty value increases, which is proportional to the noise information value. When the penalty value is reflected in the area score, Equation 3 is obtained.

Si = savg(i) - pi S i = s avg (i) -p i

Si : 패널티함수값이 반영된 i번째 분할영역에 대한 영역점수 값S i : Area score value for the i-th partition that reflects the penalty function value

savg(i) : i번째 분할영역에 대한 영역점수 값s avg (i) : Area score value for the i th partition

pi : i번째 분할영역에 대해 잡음정보와 면적크기정보를 패널티함수로 산출한 값p i : Penalty function of noise and area size information for the i-th partition

즉, i번째 분할영역에 대한 영역차이도의 평균값(savg(i) )으로 산출한 영역점수 값에서 상기 i번째 분할영역에 대한 잡음정보와 면적크기정보를 패널티함수로 산출한 값(pi)을 뺀 값이 i번째 분할영역에 대한 영역점점수가 된다.That is, the calculated noise information and area size information for the i-th partition to the penalty function, in an area score value calculated by the average value (s avg (i)) of the area dissimilarity of the i-th partition value (p i ) Is the area score for the i-th partition.

그 다음에, 상기 단계(S340)에서 계산한 영역점수가 상대적으로 높은 분할영역을 비교영역으로 선정한다(S350). 이에 대해서는 도 6에서 더욱 상세히 설명하기로 한다.Next, a segmented region having a relatively high region score calculated in step S340 is selected as a comparison region (S350). This will be described in more detail with reference to FIG. 6.

이와 같이, 상기 단계(S310, S320, S330, S340, S350)를 수행하여 홍채영상의 구조적인 특징이 부각된 비교영역의 선정과정(S300)이 이루어진다.As described above, the process of selecting the comparison area (S300) where the structural features of the iris image are highlighted by performing the steps S310, S320, S330, S340, and S350.

그 다음에, 상기 단계(S350)에서 선정한 비교영역에 대한 홍채주름의 특징코드를 사용자의 홍채특징DB에 등록한다(S400).Then, the feature code of the iris wrinkles for the comparison area selected in the step (S350) is registered in the user's iris feature DB (S400).

한편, 이러한 홍채인식을 위한 등록과정이 수행되고 난 이후 신원확인을 희망하는 사용자에 대한 홍채인식과정은 전처리(S100, 200)를 거친 상기 사용자의 홍채영상에 대해 상기 단계(S350)에서 선정한 비교영역에 나타난 홍채주름의 특징만을 추출하여 이를 코드화하므로 홍채특징코드를 생성한다(S500).On the other hand, after the registration process for the iris recognition is performed, the iris recognition process for the user who wants to verify the identity is the comparison area selected in the step (S350) for the iris image of the user who went through the pre-processing (S100, 200) By extracting only the features of the iris wrinkles shown in the coded it generates an iris feature code (S500).

그 다음에, 상기 단계(S500)에서 추출한 홍채특징코드와 상기 단계(S400)에서 사용자의 홍채특징DB에 등록된 홍채특징코드를 매칭하여 유사도를 측정하므로 사용자의 신원을 식별하는 것이다(S600).Then, by matching the iris feature code extracted in the step (S500) and the iris feature code registered in the user's iris feature DB in the step (S400) to measure the similarity is to identify the user's identity (S600).

도 4는 본 발명에 따른 분할영역별 영역차이도의 산출과정을 보인 순서도로서, 상기 도 3에서의 (S330)단계를 더욱 상세하게 설명한다.FIG. 4 is a flowchart illustrating a process of calculating region differences for each divided region according to an exemplary embodiment of the present invention, and step S330 of FIG. 3 will be described in more detail.

상기 도면에 보인 바와 같이, 본 발명에 따른 영역차이도의 산출과정(S330)은 먼저 전처리를 거친 모든 홍채영상에 대해 아래 수학식 4에 기술된 조합식을 사용하여 가능한 모든 쌍으로 배열한다(S331).As shown in the figure, the process of calculating the area difference degree according to the present invention (S330) is first arranged for all possible pairs using the combination formula described in Equation 4 for all the iris image pre-processed (S331) ).

NC2 N C 2

즉, 상기 수학식 1은 n개의 홍채영상에 대해 2개의 홍채영상을 선택하는 것이다.That is, Equation 1 selects two iris images for n iris images.

그 다음에, 상기 단계(S331)에서 쌍을 이룬 홍채영상 간에 분할영역에 나타난 홍채주름의 특징에 대한 구조적인 차이를 아래 수학식 5를 사용하여 거리값으로 환산한다(S332). Subsequently, the structural difference of the characteristic of the iris wrinkles displayed in the divided region between the paired iris images in step S331 is converted into a distance value using Equation 5 below (S332).

d(i, j) = |ali - blj|+ α(|as1 - bs2|+ |ae1 - be2|) d (i, j) = | a li- b lj | + α (| a s1- b s2 | + | a e1- b e2 |)

a : 홍채주름의 시작점a: starting point of iris wrinkle

b : 홍채주름의 끝점b: end point of iris wrinkle

α : 홍채주름의 시작점 및 끝점에 의한 거리가 수식에 어느 정도 반영하는 지를 의미하는 비례 상수α: proportional constant that indicates how much the distance between the start and end points of the iris wrinkles is reflected in the formula

i, j : 홍채특징벡터의 인덱스(index)i, j: index of the iris feature vector

즉, 상기 쌍을 이루는 홍채영상 간에 분할영역에 대한 홍채주름의 구조적 특징을 홍채주름의 시작점과 끝점에 대한 거리값으로 환산하는 것이다. 이를 좀 더 상세히 설명하면, 예를 들어, 상기 쌍을 이룬 홍채영상의 각각의 홍채주름특징에 대한 특징벡터에 대해 인덱스(index) 유형이 두 가지로 각각 m, n이라 하면 1≤i≤m, 1≤j≤n을 만족한다. 그리고 상기 d(i, j)는 상기 쌍을 이룬 홍채영상의 특징벡터 간에 선분 사이의 거리를 의미한다. 따라서, 상기 쌍을 이룬 홍채영상의 특징벡터가 ((al1, as1, ae1), (al2, as2, ae2), …, (alm, asm, aem))와 ((bl1, bs1, be1), (bl2, bs2, be2), …, (bln, bsn, ben))인 경우 i번째 선분과 j번째 선분의 거리값이 바로 상기 d(i, j)인 것으로 선분의 위치와, 시작점 및 끝점의 위치, 그 리고 길이를 고려하여 계산한다.That is, the structural characteristics of the iris wrinkles on the divided regions between the paired iris images are converted into distance values between the start point and the end point of the iris wrinkles. In more detail, for example, for the feature vectors for each iris wrinkle feature of the paired iris image, there are two index types, m and n, respectively, 1 ≦ i ≦ m, 1≤j≤n is satisfied. And d (i, j) means the distance between the line segments between the feature vectors of the paired iris image. Therefore, the feature vectors of the paired iris images are ((al1, as1, ae1), (al2, as2, ae2), ..., (alm, asm, aem)) and ((bl1, bs1, be1), ( For bl2, bs2, be2),…, (bln, bsn, ben)), the distance between the i-th segment and the j-th segment is d (i, j). The calculation is then made taking into account the length.

그 다음에, 상기 단계(S332)에서 환산한 거리 값은 다이나믹프로그램매칭방법에 반영되어 가중치 그래프를 생성한다(S333). 상기 다이나믹프로그램매칭방법은 두 개의 패턴을 매칭시 각각의 패턴의 구성요소 개수에 관계없이 또는 잡음과 같은 패턴특징요소 외의 변형된 요소가 개입되는데에도 불구하고 가장 효율적으로 패턴을 매칭하는 방법으로, 그 공식은 아래 수학식 6과 같다.Next, the distance value converted in the step S332 is reflected in the dynamic program matching method to generate a weight graph (S333). The dynamic program matching method is the most efficient method of matching patterns regardless of the number of elements of each pattern or two elements other than pattern feature elements such as noise. The formula is shown in Equation 6 below.

Figure 112005021610470-PAT00004
Figure 112005021610470-PAT00004

i, j : 홍채특징벡터의 인덱스(index)i, j: index of the iris feature vector

C : 다이나믹프로그램(DP, Dynamic Program)매칭 상수C: Dynamic Program Matching Constant

그 다음에, 상기 단계(S333)에서 생성한 가중치 그래프에서의 가중치값들 중 최단경로를 검출하고 그 최단경로에 해당하는 모든 가중치값을 더한 값을 영역차이도로 정의한다(S334). 즉, 상기 영역차이도를 산출하는 공식은 아래 수학식 7과 같다.Next, the shortest path among the weight values in the weight graph generated in step S333 is detected, and a value obtained by adding up all the weight values corresponding to the shortest path is defined as an area difference (S334). That is, the formula for calculating the region difference degree is expressed by Equation 7 below.

Figure 112005021610470-PAT00005
Figure 112005021610470-PAT00005

w(i) : 가중치 그래프 상에서 i번째의 가중치 값w (i): i-th weight value on the weight graph

도 5는 본 발명에 따른 영역차이도 및 영역점수의 산출과정의 개념을 모형으로 보인 도면이다.FIG. 5 is a diagram illustrating a concept of an area difference diagram and an area score calculation process according to the present invention.

상기 도면에 보인 바와 같이, 홍채영상(10)이 (A, B, C) 세 개라면 가능한 쌍 또한 (A, B), (B, C), (C, A) 세 개로 이루어진다. 또한, 상기 모든 홍채영상(10)은 홍채주름의 특징이 잘 부각되는 영역으로 다수 개로 분할되는데 예를 들어 n개로 분할한다고 가정한다.As shown in the figure, if there are three (A, B, C) iris images 10, possible pairs also include (A, B), (B, C), and (C, A). In addition, all the iris image 10 is divided into a number of areas where the characteristics of the iris wrinkles are well highlighted, for example, it is assumed to be divided into n.

그러면, 상기 홍채영상(10) 세 쌍 (A, B), (B, C), (C, A)에 대해 n개의 영역차이도 값을 구할 수 있다. 여기서, 상기 영역차이도 값을 산출하는 방법에 대해서는 이미 상기 도 4에서 설명했다. 이때, 상기 각 쌍에 대해 구한 n개의 영역차이도 값을 영역차이도면(30)이라 한다. 그리고 상기 세 쌍 별로 각각의 영역차이도면(30)상에 쌍을 이룬 홍채영상 간에 서로 대응되는 분할영역의 영역차이도 값을 각기 d1, d2, d3라 하며 상기 d1, d2, d3는 각각 임의로 채택한 분할영역(20)에 대해 1번째 쌍(A, B), 2번째 쌍(B, C), 3번째 쌍(C, A)을 이룬 홍채영상(10) 간의 영역차이도 값을 의미하는 것이다. 이러한 영역차이도 값을 구성요소로 영역차이도벡터를 구하고 분할영역별로 총 n개의 영역차이도벡터(d1, d2, d3)를 구할 수 있다.Then, n region difference values may be obtained for the three pairs (A, B), (B, C), and (C, A) of the iris image 10. Here, the method for calculating the region difference value has already been described with reference to FIG. 4. In this case, the n area difference degree values obtained for each pair are referred to as the area difference diagram 30. The region difference values of the divided regions corresponding to each other between the paired iris images on the region difference diagram 30 for each of the three pairs are called d1, d2, and d3, respectively. It means the region difference value between the iris image 10 forming the first pair A, B, the second pair B, C, and the third pair C, A with respect to the divided region 20. An area difference degree vector may be obtained using the area difference degree values, and a total of n area difference degree vectors d1, d2, and d3 may be obtained for each partition.

그러면, 상기 n개의 영역차이도벡터(d1, d2, d3)에 대해 각각 분할영역별로 영역차이도 값을 모두 더한 후 평균값을 산출하면 그 평균값이 분할영역별 영역점수가 된다. 즉, 도 5에 보인 분할영역(20)에 대한 영역점수는

Figure 112005021610470-PAT00006
이 된다.Then, after adding all the region difference values for each of the divided regions with respect to the n region difference degree vectors d1, d2, and d3, the average value is calculated as the region score for each region. That is, the area score for the divided area 20 shown in FIG.
Figure 112005021610470-PAT00006
Becomes

도 6은 본 발명에 따른 비교영역의 선정과정을 보인 순서도이다. 상기 도면에 보인 바와 같이, 비교영역의 선정과정(S350)은 먼저, 분할영역별로 산출한 영역점수를 기준으로 영역점수가 높은 분할영역에 대해 우선순위를 높게 부여한다(S351).6 is a flowchart illustrating a process of selecting a comparison region according to the present invention. As shown in the drawing, in the selection process of the comparison area (S350), first, the priority is given to the divided area having the high area score based on the area score calculated for each divided area (S351).

그 다음에, 상기 단계(S351)에서 설정한 우선순위가 높은 분할영역에 대해 홍채주름패턴을 인식한다(S352). 여기서, 홍채주름패턴의 인식은 도비치스(Daubechies) 웨이블렛 변환, 하(Harr) 웨이블렛 변환 등의 일반적으로 상용화된 홍채인식방법에 의해 이루어진다.Next, the iris wrinkle pattern is recognized for the high priority division area set in step S351 (S352). Herein, the recognition of the iris wrinkle pattern is performed by a commonly used iris recognition method such as a Dobechies wavelet transform and a Harb wavelet transform.

그 다음에, 상기 단계(S352)에서의 홍채주름패턴에 대한 인식률이 더 이상 증가하지 않는 한계점에 이르는지를 판단하여 한계점에 이를 때까지 상기 단계(S352)를 반복한다(S353). 여기서 한계점이라 하면 홍채특징정보의 인식률이 100에 근접하는지를 말한다.Then, it is determined whether the recognition rate for the iris wrinkle pattern in the step (S352) reaches a threshold which no longer increases, and the above step (S352) is repeated until the threshold is reached (S353). The threshold here refers to whether the recognition rate of the iris feature information is close to 100.

그 다음에, 상기 (S353)단계를 통해 인식률이 더 이상 증가하지 않으므로 한계점에 이른 것으로 판단되면 그때까지 인식한 모든 분할영역에 대해 우선순위가 높은 순서별로 복수의 비교영역을 채택한다(S354).Next, since the recognition rate no longer increases through the step S353, when it is determined that the threshold is reached, a plurality of comparison areas are adopted in order of high priority for all the divided areas recognized up to that time (S354).

도 7은 본 발명에 따른 홍채인식방법의 시스템 구성도이다. 상기 도면에 보인 바와 같이, 본 발명은 눈영상 획득모듈(100), 전처리모듈(200), 홍채영상 분할모듈(300), 홍채인식의 등록과정에서의 특징코드 추출모듈(400), 영역차이도 산출 모듈(500), 영역점수 산출모듈(600), 비교영역 선정모듈(700), 사용자의 홍채특징DB등록모듈(800), 홍채인식의 신원확인과정에서의 특징코드 추출모듈(900), 특징코드 매칭모듈(1000)로 구성된다.7 is a system configuration of the iris recognition method according to the present invention. As shown in the drawings, the present invention, the eye image acquisition module 100, pre-processing module 200, iris image segmentation module 300, feature code extraction module 400 in the registration process of the iris recognition, area difference diagram Calculation module 500, area score calculation module 600, comparison area selection module 700, user's iris feature DB registration module 800, feature code extraction module 900 in the identification process of the iris recognition, features Code matching module 1000 is configured.

상기 눈영상 획득모듈(100) 및 전처리모듈(200)은 영상입력장치에 의해 사용자의 눈영상을 획득하여 이로부터 홍채영역만을 추출한다.The eye image acquisition module 100 and the preprocessing module 200 obtain an eye image of a user by an image input device and extract only an iris region therefrom.

상기 홍채영상 분할모듈(300)은 눈영상 획득모듈(100) 및 전처리모듈(200)에 의해 추출한 홍채영상을 홍채주름의 구조적인 특징이 부각되는 영역으로 분할한다.The iris image segmentation module 300 divides the iris image extracted by the eye image acquisition module 100 and the preprocessing module 200 into regions in which structural features of the iris wrinkles are highlighted.

상기 홍채인식의 등록과정에서의 특징코드 추출모듈(400)은 홍채영상 분할모듈(300)에 의해 분할한 영역에 나타난 홍채주름의 특징을 추출하여 코드화한다.The feature code extraction module 400 in the registration process of the iris recognition extracts and codes the feature of the iris wrinkles displayed on the area segmented by the iris image segmentation module 300.

상기 영역차이도 산출모듈(500)은 홍채인식의 등록과정에서의 특징코드 추출모듈(400)에 의해 코드화한 홍채특징정보에 기반하여 분할영역별로 홍채특징의 구조적인 차이를 의미하는 영역차이도를 계산한다.The area difference degree calculation module 500 calculates an area difference degree indicating a structural difference of the iris characteristics for each segment based on the iris feature information coded by the feature code extraction module 400 during the registration process of the iris recognition. Calculate

상기 영역점수 계산모듈(600)은 영역차이도 산출모듈(500)에 의해 산출한 영역차이도에 대해 분할영역별로 평균값을 계산하여 이를 상기 분할영역별 영역점수로 한다.The area score calculation module 600 calculates an average value for each of the divided areas with respect to the area difference degree calculated by the area difference degree calculation module 500, and uses this as the area score for each divided area.

상기 비교영역 선정모듈(700)은 영역점수 계산모듈(600)에 의해 산출한 영역점수에 대해 그 점수가 높은 순서대로 분할영역별로 순위를 부여하고 상대적으로 순위가 높은 분할영역을 비교영역으로 선정한다.The comparison area selection module 700 ranks the area scores calculated by the area score calculation module 600 in the order of the highest scores for each area and selects a relatively high ranking area as the comparison area. .

상기 사용자의 홍채특징DB 등록모듈(800)은 비교영역 선정모듈(700)에 의해 선정한 비교영역에 대한 홍채특징정보를 사용자의 홍채특징DB에 등록한다.The user's iris feature DB registration module 800 registers the iris feature information for the comparison area selected by the comparison area selection module 700 in the user's iris feature DB.

상기 홍채인식의 신원확인과정에서의 특징코드 추출모듈(900)은 눈영상 획득모듈(100) 및 전처리모듈(200)에 의해 추출한 신원확인대상자의 홍채영상에 대해 상기 비교영역 선정모듈(700)이 선정한 비교영역에 나타난 홍채주름의 특징만을 추출하여 코드화한다.The feature code extraction module 900 in the identification process of the iris recognition is performed by the comparison region selection module 700 for the iris image of the identification subject extracted by the eye image acquisition module 100 and the preprocessing module 200. Only the features of the iris wrinkles in the selected comparison area are extracted and encoded.

상기 특징코드 매칭모듈(1000)은 홍채인식의 신원확인과정에서의 특징코드 추출모듈(900)이 코드화한 홍채특징정보와 사용자의 홍채특징DB 등록모듈(800)에 의해 등록된 홍채특징정보를 매칭하여 신원확인대상자의 신원을 식별한다.The feature code matching module 1000 matches the iris feature information coded by the feature code extraction module 900 and the iris feature information registered by the user's iris feature DB registration module 800 in the identification process of iris recognition. To identify the identity of the person being identified.

이와 같이, 본 발명은 홍채인식에 있어 홍채영상의 전체이미지를 사용하지 않고 홍채주름이 구조적으로 많이 달라 홍채고유의 특징이 잘 부각되는 비교영역을 선정하고 이 비교영역에 대해서만 홍채의 특징을 추출하여 비교하므로 추출하는 홍채특징코드의 크기감소에 따른 계산시간을 단축하여 궁극적으로 홍채인식시 소요되는 시간 또한 단축한다. 그리고, 일반적으로 홍채패턴에 있어 홍채주름이 복잡하고 유사한 홍채영상에 대해서도 그 패턴의 특징이 구조적으로 많이 다른 영역에 대해서만 유사도를 판별하므로 홍채인식률의 향상을 도모한다.As described above, the present invention selects a comparison region in which iris wrinkles are structurally different and the characteristics of the iris are highlighted without using the entire image of the iris image in iris recognition. By comparing, the calculation time due to the size reduction of the iris feature code to be extracted is shortened, and ultimately the time required for iris recognition is also reduced. In general, the iris wrinkles are complex in the iris pattern, and similar iris images are similarly determined only in regions where the characteristics of the patterns are significantly different, thereby improving the iris recognition rate.

또한 홍채영상의 획득시 속눈썹이 동공을 가리게 되거나 눈꺼풀이 홍채의 많은 부분을 덮을 경우, 혹은 지나치게 어둡거나 밝은 조명으로 인한 동공의 확대 또는 축소, 눈동자에 생기는 조명의 반사 영상 등, 영상 획득 순간에 생기는 홍채영상외의 잡음정보를 비교영역선택시 반영하여 이것이 반영된 영역을 회피하므로 잡음에 강하고 정확한 인식률을 가지는 홍채인식방법을 제공한다.In addition, when the eyelashes are covering the pupils or the eyelids cover a large part of the iris during the acquisition of the iris image, the enlargement or reduction of the pupil due to excessively dark or bright lighting, or the reflection of the light generated on the pupils, such as when the image is acquired The noise information other than the iris image is reflected in the selection of the comparison area to avoid the reflected area, thereby providing an iris recognition method that is strong in noise and has an accurate recognition rate.

이상에서 살펴본 본 발명은 기재된 구체적인 예에 대해서만 상세히 설명되었으나 본 발명의 기술사상범위 내에서 다양한 변형 및 수정이 가능함은 당업자에게 있어서 명백한 것이며, 이러한 변형 및 수정이 첨부된 특허청구범위에 속함은 당연한 것이다.Although the present invention described above has been described in detail only with respect to the specific examples described, it will be apparent to those skilled in the art that various modifications and changes are possible within the technical scope of the present invention, and such modifications and modifications belong to the appended claims. .

Claims (4)

영상입력장치를 통해 획득한 사용자의 눈영상에 대해 전처리를 수행하여 홍채영상을 추출하고 이로부터 사용자의 신원을 식별하는 홍채인식방법에 있어서,In the iris recognition method for extracting the iris image by performing pre-processing on the user's eye image obtained through the image input device and identifying the user's identity therefrom, (a) 상기 전처리를 거친 사용자의 홍채영상을 이에 나타난 홍채주름의 구조적인 특징이 부각되도록 다수의 영역으로 분할하는 단계;(a) dividing the iris image of the user who has undergone the pre-processing into a plurality of regions so that the structural features of the iris wrinkles shown therein are highlighted; (b) 상기 (a)단계에서 분할한 영역별로 홍채주름의 구조적인 특징을 추출하여 이를 코드화하므로 홍채특징코드를 생성하는 단계;(b) generating an iris feature code by extracting and coding the structural features of the iris wrinkles for each of the divided regions in step (a); (c) 상기 (a), (b)단계를 거친 홍채영상 간에 분할영역별로 홍채특징의 구조적인 차이를 거리값으로 환산한 분할영역별 영역차이도를 산출하는 단계;(c) calculating a region difference degree for each divided region by converting the structural difference of the iris characteristics into distance values between the iris images which have undergone the steps (a) and (b); (d) 상기 (d)단계를 통해 영역차이도를 산출한 모든 홍채영상에 대해 분할영역별로 영역차이도의 평균값을 계산한 분할영역별 영역점수를 산출하는 단계;(d) calculating area scores for each divided area in which the average value of the area difference is calculated for each divided area for all the iris images for which the area difference degree is calculated in the step (d); (e) 상기 (d)단계에서 산출한 분할영역별 영역점수가 높은 순서대로 분할영역에 대한 우선순위를 설정하고 상기 우선순위가 상대적으로 높은 분할영역을 비교영역으로 선정하는 단계;(e) setting priorities for the divided regions in order of the area scores of the divided regions calculated in the step (d) and selecting the divided regions having the higher priority as the comparison region; (f) 상기 선정된 비교영역 및 이에 대한 홍채특징코드를 사용자의 홍채특징DB에 등록하는 단계;(f) registering the selected comparison area and an iris feature code thereof with the iris feature DB of the user; (g) 상기 (a) 내지 (f)단계를 통해 사용자의 홍채특징정보의 등록 이후, 전처리를 거친 신원확인요청을 희망하는 사용자의 홍채영상에 대해 (e)단계에서 선정한 비교영역의 홍채특징만을 추출하여 홍채특징코드를 생성하는 단계; 및(g) After registering the iris feature information of the user through the steps (a) to (f), only the iris feature of the comparison area selected in the step (e) for the iris image of the user who desires the identity verification request that has been preprocessed. Extracting to generate an iris feature code; And (h) 상기 (g)단계에서 생성한 홍채특징코드와 (f)단계에서 사용자의 홍채특징DB에 등록된 홍채특징코드 간에 매칭을 수행하여 유사도를 측정하므로 사용자의 신원을 식별하는 단계;를 포함하는 것을 특징으로 하는 홍채패턴의 고유특성이 부각된 비교영역을 사용하는 홍채인식방법.(h) identifying the identity of the user because the similarity is measured by performing matching between the iris feature code generated in step (g) and the iris feature code registered in the user's iris feature DB in step (f). An iris recognition method using a comparison area in which the unique characteristics of the iris pattern are highlighted. 제1항에 있어서, 상기 (c)단계는The method of claim 1, wherein step (c) (c1) (a), (b) 단계를 거친 모든 홍채영상에 대해 가능한 모든 쌍을 생성하는 단계;(c1) generating all possible pairs for all iris images which have passed through steps (a) and (b); (c2) 상기 쌍을 이루는 모든 홍채영상에 대해 분할영역별로 그 특징코드에 대한 특징벡터를 구하고 이 특징벡터간의 거리값을 계산하는 단계;(c2) obtaining a feature vector for the feature code of each paired iris image for each divided region and calculating a distance value between the feature vectors; (c3) 상기 환산한 거리값을 다이나믹프로그램매칭방법에 적용하여 가중치 그래프를 생성하는 단계;(c3) generating a weight graph by applying the converted distance value to a dynamic program matching method; (c4) 상기 생성한 가중치 그래프에서 최단경로를 찾아 그 경로에 해당하는 모든 가중치값을 합산한 영역 차이도를 산출하는 단계;를 포함하는 것을 특징으로 하는 홍채패턴의 고유특성이 부각된 비교영역을 사용하는 홍채인식방법.(c4) finding a shortest path in the generated weight graph and calculating an area difference degree obtained by summing all weight values corresponding to the path; and obtaining a comparison area in which the unique characteristics of the iris pattern are highlighted. Iris recognition method used. 제1항에 있어서, 상기 (d)단계에서의 영역점수는The method of claim 1, wherein the area score in the step (d) is 속눈썹, 눈꺼풀, 조명등의 외부요인으로 인해 홍채특징정보에 포함되는 홍채주름정보외의 잡음 및 분할영역의 면적크기를 패널티함수로 표현하여 이를 반영한 값인 것을 특징으로 하는 홍채패턴의 고유특성이 부각된 비교영역을 사용하는 홍채 인식방법.Comparative area that highlights the unique characteristics of the iris pattern, characterized by a penalty function that expresses the noise and segment area size other than the iris wrinkle information included in the iris feature information due to external factors such as eyelashes, eyelids, and lights Iris recognition method using a. 제1항에 있어서, 상기 (e)단계는The method of claim 1, wherein step (e) (e1) 분할영역별 영역점수를 기준으로 순위를 부여하는 단계;(e1) assigning a rank based on the area score of each divided area; (e2) 우선순위가 높은 분할영역에 대해 홍채주름패턴을 인식하는 단계;(e2) recognizing an iris wrinkle pattern for the partition having a high priority; (e3) 우선순위가 높은 순서별로 각각의 분할영역에 대해 (e2)단계를 반복하고 홍채주름패턴의 인식률이 더 이상 증가하지 않는 한계점에 이르는지의 여부를 판단하는 단계; 및(e3) repeating step (e2) for each divided region in the order of high priority and determining whether the recognition rate of the iris wrinkle pattern reaches a threshold at which the recognition rate no longer increases; And (e4) 상기 (e3)단계를 통해 인식률이 한계점에 이른 것으로 판단되면 그때까지 인식한 모든 분할영역에 대해 우선순위가 높은 순서별로 복수의 비교영역을 선정하는 단계;를 포함하는 것을 특징으로 하는 홍채패턴의 고유특성이 부각된 비교영역을 사용하는 홍채인식방법.(e4) if it is determined that the recognition rate reaches a threshold through step (e3), selecting a plurality of comparison areas in order of high priority for all the divided areas recognized up to that time; An iris recognition method using a comparison area in which the inherent characteristics of a pattern are highlighted.
KR1020050034187A 2005-04-25 2005-04-25 Iris cognition method using comparison area embossed peculiar characteristic of iris pattern KR20060111812A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050034187A KR20060111812A (en) 2005-04-25 2005-04-25 Iris cognition method using comparison area embossed peculiar characteristic of iris pattern

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050034187A KR20060111812A (en) 2005-04-25 2005-04-25 Iris cognition method using comparison area embossed peculiar characteristic of iris pattern

Publications (1)

Publication Number Publication Date
KR20060111812A true KR20060111812A (en) 2006-10-30

Family

ID=37620270

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050034187A KR20060111812A (en) 2005-04-25 2005-04-25 Iris cognition method using comparison area embossed peculiar characteristic of iris pattern

Country Status (1)

Country Link
KR (1) KR20060111812A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5291560A (en) * 1991-07-15 1994-03-01 Iri Scan Incorporated Biometric personal identification system based on iris analysis
KR20020023011A (en) * 2000-09-22 2002-03-28 박형근 Human iris recognition method using harr wavelet transform and lvq
KR20020065249A (en) * 2001-02-06 2002-08-13 이승재 Human Iris Verification Using Similarity between Feature Vectors
KR20020071329A (en) * 2001-03-06 2002-09-12 에버미디어 주식회사 Method of recognizing human iris using daubechies wavelet transform
KR20040048520A (en) * 2002-12-03 2004-06-10 주식회사 세넥스테크놀로지 Iris identification system and method using wavelet packet transformation, and storage media having program thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5291560A (en) * 1991-07-15 1994-03-01 Iri Scan Incorporated Biometric personal identification system based on iris analysis
KR20020023011A (en) * 2000-09-22 2002-03-28 박형근 Human iris recognition method using harr wavelet transform and lvq
KR20020065249A (en) * 2001-02-06 2002-08-13 이승재 Human Iris Verification Using Similarity between Feature Vectors
KR20020071329A (en) * 2001-03-06 2002-09-12 에버미디어 주식회사 Method of recognizing human iris using daubechies wavelet transform
KR20040048520A (en) * 2002-12-03 2004-06-10 주식회사 세넥스테크놀로지 Iris identification system and method using wavelet packet transformation, and storage media having program thereof

Similar Documents

Publication Publication Date Title
Menotti et al. Deep representations for iris, face, and fingerprint spoofing detection
KR100982197B1 (en) Face recognition method, face recognition apparatus, and computer readable storage medium
Merghani et al. A review on facial micro-expressions analysis: datasets, features and metrics
Kataria et al. A survey of automated biometric authentication techniques
Lee Palm vein recognition based on a modified
US20060222212A1 (en) One-dimensional iris signature generation system and method
Hsu et al. Personal authentication through dorsal hand vein patterns
JP7010385B2 (en) Iris recognition device, iris recognition method, iris recognition program and recording medium
Soltane et al. Multi-modal biometric authentications: concept issues and applications strategies
Kushwaha et al. Detailed analysis of footprint geometry for person identification
Xia et al. Joint gender, ethnicity and age estimation from 3D faces: an experimental illustration of their correlations
Kuzu et al. On the intra-subject similarity of hand vein patterns in biometric recognition
Regouid et al. Comparative study of 1D-local descriptors for ear biometric system
Aktürk et al. Classification of eye images by personal details with transfer learning algorithms
KR20060111812A (en) Iris cognition method using comparison area embossed peculiar characteristic of iris pattern
Malik et al. An efficient retinal vessels biometric recognition system by using multi-scale local binary pattern descriptor
da Costa et al. Biometric identification with 3D fingerprints acquired through optical coherence tomography.
Goranin et al. Evolutionary Algorithms Application Analysis in Biometric Systems.
Das et al. An Introduction to Biometric Authentication Systems
Shubhangi et al. Multi-biometric approaches to face and fingerprint biometrics
Shaker et al. Identification Based on Iris Detection Technique.
Martin Sagayam et al. Survey on the classification of intelligence-based biometric techniques
JP7302680B2 (en) Information processing device, method and program
KR20060105272A (en) Interpretation method of eyeball image using adaboost algorithm
Amali et al. Evolution of Deep Learning for Biometric Identification and Recognition

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application