KR101967007B1 - 홍채들을 비교하기 위해 파라미터화된 컨투어들을 검색하는 방법 - Google Patents
홍채들을 비교하기 위해 파라미터화된 컨투어들을 검색하는 방법 Download PDFInfo
- Publication number
- KR101967007B1 KR101967007B1 KR1020137033541A KR20137033541A KR101967007B1 KR 101967007 B1 KR101967007 B1 KR 101967007B1 KR 1020137033541 A KR1020137033541 A KR 1020137033541A KR 20137033541 A KR20137033541 A KR 20137033541A KR 101967007 B1 KR101967007 B1 KR 101967007B1
- Authority
- KR
- South Korea
- Prior art keywords
- outline
- outlines
- candidate
- energy
- iris
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/149—Segmentation; Edge detection involving deformable models, e.g. active contour models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20061—Hough transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20116—Active contour; Active surface; Snakes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
본 발명의 주제는 홍채 비교를 위한 아웃라인들을 검출하기 위한 방법이다. 그것은 홍채 (300) 의 에지들의 이미지에 원 검색 기법을 적용함으로써 원의 형태의 N 개의 후보 아웃라인들 (403, 404, 405, 406) 을 선택하는 단계 (301, 401, 401) 를 포함한다. 그것은 또한 N 개의 후보 아웃라인들의 형태 및 포지션을 최적화하는 단계 (302, 504, 505, 506, 507) 를 포함하며, 최적화된 후보 아웃라인들은 파라미터 모델들을 사용함으로써 결정되고, 파라미터들의 세트는 에너지 (E(C)) 의 양을 최소화함으로써 각각의 후보 아웃라인에 대해 결정된다. 그 방법은 또한 가장 최적화된 후보 아웃라인 (605) 을 선택하는 단계 (303, 604) 를 포함한다.
Description
본 발명은 홍채 비교를 위해 파라미터화된 아웃라인들을 검색하는 방법에 관한 것이며, 특히 생물 측정학의 분야 및 더욱 특히 홍채 비교에 적용된다.
생물 측정 기법들의 목적들은 생물들을 식별하는 것이다. 이들 기법들은 예를 들어 민감한 장소들로의 통제된 접근과 같은 소정의 보안 레벨을 요구하는 애플리케이션들의 정황에서 사용될 수 있다.
이를 위해, 개인들에 적용된 형태학상의 분석이 그들에게 특정된 물리적 특징들을 식별하기 위해 구현된다. 이러한 분석은 예를 들어 홍채 또는 지문들에 기초한다.
홍채를 분석하는 것에 대해 말하자면, 예시적인 현존하는 분석 방법은 특허 US5291560 에 기술된, 소위 더그만 (Daugman) 방법이다. 이러한 방법은 수개의 홍채 표현 디지털 샘플들 사이의 비교를 허용하고 이들 샘플들이 하나의 동일한 개인에 대응하는지 여부를 결정하는 것을 가능하게 한다. 이를 위해, 제 1 단계의 목적은 홍채들을 세그먼트화하고 정규화하는 것이고, 그 후 그것으로부터 이진 코드를 추출하여 그것을 참조 (reference) 와 비교하는 것을 목적으로 하는 단계가 존재한다. 이진 코드의 추출은 홍채의 텍스쳐를 이진 코드로 변환하기 위해 애플리케이션의 포인트들 주위에 위상 변조를 적용함으로써 행해진다.
분석 방법들을 위해 구현되는 세그먼트화 동안, 홍채의 아웃라인들은 통상 원형인 것으로 고려된다. 따라서, 홍채의 아웃라인들의 경계를 정하는 원들이 구해진다. 이러한 아웃라인들에 대한 검색은, 원들의 중심 또는 반경의 추정에 대한 소수의 픽셀들의 에러가 시스템의 성능 레벨들을 상당히 감소시키고 인식의 신뢰성을 열화시키기 때문에 인식 프로세스에서 임계적 프로세싱 동작이다. 2 개의 방법들이 통상 이들 원들을 발견하는데 사용된다.
더그만 방법의 정황에서, 적분-미분 원 검출 연산자가 사용된다. 이러한 연산자는 원의 중심의 좌표들 및 그의 반경에 대응하는 3 개의 파라미터들 (xc,yc,r) 에 종속하며, 상당한 범위의 반경들에 대해 눈의 전체 디지털 이미지에 대해 평가된다. 이미지에 대한 그 연산자의 적용에 후속하여, 3 개의 파라미터들 (xc,yc,r) 의 2 개의 세트들이 보유되며, 이들 2 개의 세트들은 홍채의 내측 및 외측 아웃라인들에 각각 대응한다.
이러한 방법의 주요 단점은 적분-미분 연산자가 이미지의 상당한 부분에 대해 그리고 이산 그리드 상에서 계산되어야 하므로, 아웃라인의 묘사에 대해 달성될 수 있는 정확도를 제한한다는 것이다. 또한, 이러한 연산자는 국소 최소치 (local minima) 에 민감하고, 상기 최소치는 예를 들어 눈꺼풀의 부분들과 같은 아티팩트들에 의해 도입된다.
홍채의 경계를 정하는 원들을 발견하기 위한 제 2 방법은 윌데스 (Wildes) 방법이다. 먼저, 에지들의 검출을 구현하기 위해 눈의 디지털 이미지에 필터가 적용된다. 이를 위해, 캐니 (Canny) 필터가 사용된다. 그 후, 원형 허프 변환이 에지들의 검출로부터 초래된 이미지에 적용되어 검출된 에지들로부터 원들을 발견한다. 이러한 방법의 주요 단점은 그것이 사용된 에지 검출 방법에 강하게 의존한다는 것이다. 또한, 원형 허프 변환은 계산 시간의 관점에서 매우 고가인 연산이다.
이들 2 개의 아웃라인 검출 방법들은 또한 예를 들어 타원 형태의 아웃라인들을 고려할 수 있도록 원들보다 더 복잡한 아웃라인 타입들에 대해 확장되었다. 그러나, 타원들의 경우에, 더그만 연산자 및 타원형 허프 변환은 계산 복잡성을 상당히 증가시킨다. 따라서, 최소 자승 방법이, 비록 덜 강건하지만 계산 능력의 점에서 덜 고가이기 때문에, 통상 실제로 사용된다.
본 발명의 목적은 특히 상술한 단점들을 완화시키는 것이다.
이를 위해, 본 발명의 주제는 홍채 비교를 위한 아웃라인들을 검출하기 위한 방법이다. 그것은 홍채의 에지들의 이미지에 원 검색 기법을 적용함으로써 원의 형태의 N 개의 후보 아웃라인들을 선택하는 단계를 포함한다. 그것은 또한 N 개의 후보 아웃라인들의 형태 및 포지션을 최적화하는 단계를 포함하며, 최적화된 후보 아웃라인들은 파라미터 모델들을 사용함으로써 결정되고, 파라미터들의 세트가 에너지 (E(C)) 의 양을 최소화함으로써 각각의 후보 아웃라인에 대해 결정된다. 그것은 또한 가장 최적화된 후보 아웃라인을 선택하는 단계를 포함한다.
본 발명의 일 양태에 따르면, 원의 형태의 N 개의 후보 아웃라인들을 선택하기 위해 사용된 원 검색 기법은 원형 허프 변환이다.
대안적으로, 원의 형태의 N 개의 후보 아웃라인들을 선택하는데 사용되는 원 검색 기법은 RANSAC 방법일 수 있으며, 두문자어 RANSAC 는 "RANdom SAmple Consensus" 로부터 도출된다.
에너지 E(C) 의 양은 예를 들어 기울기 하강 방법을 사용함으로써 최소화된다.
본 발명의 일 양태에 따르면, 후보 아웃라인 (C) 과 연관된 에너지 E(C) 의 양은 상기 아웃라인의 에지 에너지 Eedge(C) 및 영역 에너지 Eregion(C) 의 합과 동일하다.
에지들의 에너지는 예를 들어 다음의 식을 사용함으로써 결정된다:
여기서:
영역 에너지 Eregion(C) 는 예를 들어 다음의 식을 사용함으로써 결정된다:
여기서:
Rin 은 아웃라인 내측의 눈의 디지털 이미지의 영역을 나타낸다;
Rout 은 아웃라인 외측의 눈의 디지털 이미지의 영역을 나타낸다;
Pin() 및 Pout() 는 아웃라인의 내측 또는 외측에 위치될 이미지의 세기 I(X) 의 픽셀에 대한 확률들에 대응한다.
파라미터 모델은 예를 들어 원 모델, 즉 3 개의 파라미터들을 포함하는 이러한 파라미터 모델과 연관된 파라미터들의 세트이다.
대안적으로, 파라미터 모델은 타원 모델, 즉 5 개의 파라미터들을 포함하는 이러한 파라미터 모델과 연관된 파라미터들의 세트이다.
N 개의 최적화된 후보 아웃라인들 중의 가장 최적화된 후보 아웃라인은 예를 들어 에너지 E(C) 가 최저값을 갖는 아웃라인이다.
본 발명의 다른 주제는 눈의 홍채의 내측 및 외측 아웃라인들을 검출하는 방법이다. 이를 위해, 이전에 기술된 방법은 내측 아웃라인을 검출하기 위해 첫 번째 적용되고 외측 아웃라인을 검출하기 위해 두 번째 적용된다.
본 발명에 의해 제공되는 이점은 특히 계산들의 복잡성을 감소시키는 낮은 레졸루션을 위해 허프 변환을 사용하는 것을 가능하게 한다는 것이다. 또한, 국부 최적화의 구현은, 그 작업이 이미지 상에 직접 행해지기 때문에 에지들의 검출의 영향을 제한한다.
본 발명의 다른 특징들 및 이점들은 첨부된 도면들에 비추어 그리고 비제한적인 예시로서 주어진 다음의 설명으로부터 명백해질 것이다.
- 도 1 은 홍채 비교를 위해 통상 사용되는 눈과 영역을 나타낸다;
- 도 2 는 홍채 비교 더그만 방법의 동작을 예시하는 도면을 나타낸다;
- 도 3 은 본 발명에 따른 방법의 단계들을 개략적으로 도시한다;
- 도 4 는 원의 형태의 N 개의 후보 아웃라인들을 선택하는 단계를 도시한다;
- 도 5 는 국부 최적화 단계를 도시한다;
- 도 6 은 국부 최적화 후의 최선의 아웃라인을 선택하는 단계를 도시한다.
- 도 1 은 홍채 비교를 위해 통상 사용되는 눈과 영역을 나타낸다;
- 도 2 는 홍채 비교 더그만 방법의 동작을 예시하는 도면을 나타낸다;
- 도 3 은 본 발명에 따른 방법의 단계들을 개략적으로 도시한다;
- 도 4 는 원의 형태의 N 개의 후보 아웃라인들을 선택하는 단계를 도시한다;
- 도 5 는 국부 최적화 단계를 도시한다;
- 도 6 은 국부 최적화 후의 최선의 아웃라인을 선택하는 단계를 도시한다.
도 1 은 홍채 비교를 위해 통상 사용되는 눈 및 영역을 도시한다. 예로서 주어진 눈 (100) 에서, 홍채 (101) 및 동공 (102) 이 구별될 수 있다. 홍채의 가시적 부분을 포함하는 2 개의 아웃라인들 (103, 104) 사이의 표면에 의해 정의된 영역은 홍채를 세그먼트화, 즉 그것을 눈의 흰자 (105) 로부터 그리고 동공 (102) 으로부터 고립시키는 것을 가능하게 한다.
도 2 는 더그만 홍채 비교 방법의 동작을 예시하는 다이어그램을 나타낸다.
이러한 방법의 목적은 2 개의 홍채 이미지들이 동일한 사람에게 속하는지 여부를 결정하는 것이다. 따라서, 테스트 홍채 이미지 (201) 가 참조 홍채 이미지 (200) 와 비교된다. 제 1 단계의 목표는 이들 2 개의 이미지들의 홍채들을 세그먼트화하는 것 (202), 즉 각각의 홍채를 눈의 흰자로부터 그리고 동공으로부터 고립시키는 것이다. 세그먼트화 단계 (202) 는 이미지에서 홍채에 속하는 픽셀들을 구별하는 것을 가능하게 하며, 이는 세그먼트화 마스크를 생성하는 것을 가능하게 한다. 이러한 마스크는 눈의 디지털 이미지 상의 홍채의 에지들을 발견하는데 사용되며, 그 후 정규화를 수행하기 위해 홍채의 내측 및 외측 아웃라인들의 파라미터적 기술 (parametric description) 을 검색하는 것이 가능하다.
세그먼트화 후의 참조 및 테스트 이미지들 (203, 204) 은 그 후 정규화된다 (205). 정규화 단계 (205) 는 홍채의 텍스쳐를 포함하고 그 형태가 동공 확장과 독립적인 스트립을 획득하기 위해 홍채를 펼치는 것에 있다.
인코딩 단계 (208) 는 참조 이미지에 대한 참조 코드 (209) 및 테스트 이미지에 대한 테스트 코드 (210) 를 획득하는 것을 가능하게 한다.
이들 코드들은 그 후 예를 들어 그들의 해밍 거리 (211) 를 계산함으로써 비교된다. 이러한 비교의 결과는 유사도 스코어 (212) 로 지칭되며, 테스트 홍채가 참조 홍채에 대응하는지 여부를 결정하는 것을 가능하게 하며, 유사도 스코어가 미리결정된 값을 초과하는 경우 대응이 확립된다.
도 3 은 본 발명에 따른 방법의 단계들을 개략적으로 도시한다. 이러한 방법은 파라미터화된 모델 최적화, 즉 파라미터들의 세트에 의해 생성된 곡선으로부터의 최적화를 구현함으로써 홍채의 내측 및 외측 아웃라인들을 정화하게, 빠르게 그리고 매우 간단하게 결정하는 것을 가능하게 한다. 홍채 아웃라인들의 이러한 검출은 따라서 2 개의 스테이지들로 구현될 수 있으며, 제 1 스테이지는 내측 아웃라인의 검출, 즉 동공과 홍채 사이의 분리를 위한 것이고, 제 2 스테이지는 외측 아웃라인의 검출, 즉 홍채와 눈의 흰자 사이의 분리를 위한 것이다.
홍채의 영역을 식별하고 내측 및 외측 아웃라인들의 제 1 추정을 획득하는 것을 가능하게 하는 이러한 프로세싱 동작은 세그먼트화 마스크가 획득된 후에 적용된다. 이러한 세그먼트화 마스크는 홍채 인식에 사용되는 종래의 세그먼트화 방법들에 의해 획득된다. 따라서, 본 발명에 따른 방법은 세그먼트화와 디지털화된 홍채의 정규화 사이의 중간 프로세싱에 대응한다.
방법의 제 1 단계 (301) 는 N 개의 후보 아웃라인들의 세트를 결정하는 것에 있다. 이를 위해, 홍채의 에지들의 이미지 (300) 가 사용된다. 예를 들어, 원형 허프 변환 (301) 이 원의 형태의 N 개의 후보 아웃라인들을 나타내는 파라미터들을 발견하기 위해 이러한 이미지에 적용된다.
제 2 단계 (302) 의 목표는 후보 아웃라인들의 형태 및 포지션을 국부적으로 최적화하는 것이다. 이러한 최적화에 후속하여, 제 3 단계 (303) 는 내측 또는 외측 아웃라인으로서 보유되도록 원을 선택한다.
도 4 는 원의 형태의 N 개의 후보 아웃라인들을 선택하는 단계를 도시한다. 이를 위해, 원형 허프 변환 (401) 이 세그먼트화 마스크 (400) 에 적용될 수 있다. 이러한 변환의 취지 내에서 N 개의 최선의 원들 (403, 404, 405, 406) , 즉 가장 큰 가중치의 원들이 그 후 선택되고 저장된다. 허프 변환에 대한 대안으로서, 예를 들어, RANSAC 방법과 같은, "원 피팅" 기법으로 지칭되는 다른 원 검색 기법이 사용될 수 있으며, 여기서 RANSAC 은 "RANdom SAmple Consensus" 에 대한 두문자어이다. 도면의 예에서, 4 개의 원들이 선택된다.
도 5 는 본 발명에 따른 방법의 국부 최적화 단계를 도시한다. 국부 최적화 (504, 505, 506, 507) 는 원형 허프 변환의 적용에 후속하여 보유되는 N 개의 원들 (500, 501, 502, 503) 의 각각에 대해 수행된다.
선택된 아웃라인들의 국부 최적화는 후보 아웃라인들을 진화하게 하여, 그들이 이들 아웃라인들을 따라 정의된 에너지 E(C) 의 양을 최소화하도록 하며, 상기 아웃라인들은 파라미터 모델들에 의해 정의된다.
에너지 E(C) 를 최소화하기 위해, 종래의 기울기 강하 방법이 주어진 파라미터 모델을 위해 사용될 수 있다. 따라서, 에너지 E(C) 를 최소화하는 파라미터들의 모델과 연관된 파라미터들의 세트는 그 후 각각의 후보 아웃라인에 대해 결정될 것이다. 예들로서, 원 파라미터 모델이 사용되는 경우는 3 개의 파라미터들 (xc,yc,r) 의 세트가 결정될 것이고, 타원 파라미터 모델이 사용되는 경우에는 5 개의 파라미터들 (xe,ye,a,b,φ) 의 세트가 결정될 것이다.
원의 경우에 있어서, 파라미터 모델은 예를 들어 다음과 같다:
여기서:
x(θ), y(θ) 는 각도들 (θ) 에 대해 원을 구성하는 포인트들의 좌표들을 나타낸다;
xc, yc 는 원의 중심의 좌표들을 나타낸다;
r 은 원의 반지름을 나타낸다.
타원의 경우에는, 다음의 파라미터 모델이 사용될 수 있다:
여기서:
x(θ), y(θ) 는 각도 (θ∈[0,2π]) 에 대해 타원을 구성하는 포인트들의 좌표들을 나타낸다;
xe, ye 는 타원의 중심의 좌표들을 나타낸다;
a, b 는 타원의 장축 및 단축 파라미터들을 나타낸다;
φ 는 회전 파라미터를 나타낸다.
예로서, 에너지 E(C) 는 액티브 아웃라인들과 연관된 에너지의 2 개의 타입들을 결합함으로써 결정될 수 있다. 제 1 타입은 에지 에너지 (Eedge(C)) 이고, 제 2 타입은 영역 에너지 (Eregion(C)) 이다. 따라서, 최소화될 에너지 E(C) 의 양은 다음의 식을 사용함으로써 결정될 수 있다:
에지들의 에너지는 강한 기울기들을 갖는 영역들을 우선시키는 것을 가능하게 할 것이다. 즉, E(C) 에 대한 에지들의 에너지 (Eedge(C)) 의 기여는 강한 기울기들의 영역들을 향해 후보 아웃라인들을 안내하는 것을 가능하게 할 것이다.
에지들의 에너지는 다음의 식을 사용함으로써 표현될 수 있다:
여기서:
에지들의 에너지 (Eedge(C)) 는 아웃라인의 파라미터들로부터 간단히 결정될 수 있다.
영역 에너지 (Eregion(C)) 의 계산은 아웃라인의 내측 및 외측의 영역들 사이의 상이 (disparity) 들을 최대화함으로써 아웃라인을 적응시키는 것을 가능하게 할 것이다. 즉, E(C) 에 대한 영역들의 에너지 (Eregion(C)) 의 기여는 홍채의 내측으로부터 작용하는 경우에는 외측을 향해, 홍채의 외측으로부터 시작하는 경우에는 내측을 향해 아웃라인을 안내하는 것에 기여할 것이다. 이것은 통상 영역 경쟁 방법으로서 지칭된다.
에너지 (Eregion(C)) 는 다음의 식을 사용함으로써 결정될 수 있다:
여기서:
Rin 은 아웃라인 내측의 눈의 디지털 이미지의 영역을 나타낸다;
Rout 은 아웃라인 외측의 눈의 디지털 이미지의 영역을 나타낸다;
Pin() 및 Pout() 는 아웃라인의 내측 또는 외측에 위치될 이미지의 세기 I(X) 의 픽셀에 대한 확률들에 대응한다. 이들 용어들은 미리 추정되고/되거나 기울기 강하 동안 업데이트될 수 있다.
영역 에너지 (Eregion(C)) 를 도출하기 위한 상세들이 문헌, 특히 S. C. Zhu 및 A. Yuille 에 의해 저작된 "Region Competition: Unifying Snakes, Region Growing, and Bayes/MDL for Mutiband Image Segmentation", IEEE Transactions on Pattern Analysis and Machine Intelligence, 1996 에 의한 기사에서 발견될 수 있다.
이롭게도, 국부 최적화는 고정된 피치 그리드를 사용할 필요가 없고 양호한 레졸루션이 획득된다는 것을 의미한다. 또한, 국부 최적화를 위한 입력으로서 다수의 원형 후보 아웃라인들을 사용함으로써, 통상 사용되는 변동적 방법들의 주요 단점인 국소 최소치에 대하여 보호하는 것이 가능하게 된다.
도 6 은 국부 최적화 후의 최선의 아웃라인을 선택하는 단계를 도시한다.
이전에 기술되고, N 개의 선택된 후보 아웃라인들에 대해 행해진 국부 최적화들을 통해, 아웃라인들은 이미지에 실제로 존재하는 아웃라인들로 적응되도록 변위 및 변환되었다. 그 후, N 개의 최적화된 후보 아웃라인들 (600, 601, 602, 603) 로부터의 최선의 아웃라인이 여전히 식별되어야 한다 (604). 다수의 선택 방법들이 구현될 수 있다. 제 1 가능성은 최적의 에너지 값 (E(C)) 을 갖는 아웃라인을 취하는 것이다. 대안은 이들 아웃라인들의 각각에 대해 더그만 연산자를 적용하고 이러한 연산자의 취지 내에서 최선의 것을 선택하는 것이다.
Claims (12)
- 홍채 비교를 위한 아웃라인들을 검출하는 방법으로서,
- 홍채 (300) 의 에지들의 이미지에 원 (circle) 검색 기법을 적용함으로써 원의 형태의 최선의 N 개의 후보 아웃라인들 (403, 404, 405, 406) 을 선택하는 단계 (301, 401, 402),
- 상기 N 개의 후보 아웃라인들의 형태 및 포지션을 최적화하는 단계 (302, 504, 505, 506, 507) 로서, 최적화된 상기 후보 아웃라인들은 파라미터 모델들을 사용함으로써 결정되고, 파라미터들의 세트는 에너지 (E(C)) 의 양을 최소화함으로써 각각의 후보 아웃라인에 대해 결정되는, 상기 최적화하는 단계,
- 가장 최적화된 후보 아웃라인 (605) 을 선택하는 단계 (303, 604) 를 포함하고,
후보 아웃라인 (C) 과 연관된 상기 에너지 E(C) 의 양은 상기 아웃라인의 에지 에너지 (Eedge(C)) 및 영역 에너지 (Eregion(C)) 의 합과 동일한 것을 특징으로 하는 아웃라인들을 검출하는 방법. - 제 1 항에 있어서,
원의 형태의 상기 최선의 N 개의 후보 아웃라인들을 선택 (301) 하기 위해 사용되는 원 검색 기법은 원형 허프 변환 (401) 인, 아웃라인들을 검출하는 방법. - 제 1 항에 있어서,
원의 형태의 상기 최선의 N 개의 후보 아웃라인들을 선택 (301) 하기 위해 사용되는 원 검색 기법은 RANSAC 방법인, 아웃라인들을 검출하는 방법. - 제 1 항에 있어서,
N 은 1 보다 큰, 아웃라인들을 검출하는 방법. - 제 1 항에 있어서,
상기 에너지 E(C) 의 양은 기울기 하강 방법을 사용함으로써 최소화되는, 아웃라인들을 검출하는 방법. - 제 6 항에 있어서,
상기 파라미터 모델은 원 모델이고,
상기 파라미터 모델과 연관된 파라미터들의 세트는 3 개의 파라미터들을 포함하는, 아웃라인들을 검출하는 방법. - 제 6 항에 있어서,
상기 파라미터 모델은 타원 모델이고
상기 파라미터 모델과 연관된 파라미터들의 세트는 5 개의 파라미터들을 포함하는, 아웃라인들을 검출하는 방법. - 제 1 항에 있어서,
N 개의 최적화된 후보 아웃라인들 (600, 601, 602, 603) 로부터의 상기 가장 최적화된 후보 아웃라인 (604) 은 상기 에너지 E(C) 가 최저값을 갖는 아웃라인인, 아웃라인들을 검출하는 방법. - 눈의 홍채의 내측 및 외측 아웃라인들을 검출하는 방법으로서,
제 1 항 내지 제 10 항 중 어느 한 항에 기재된 방법은 내측 아웃라인을 검출하기 위해 첫 번째 적용되고, 외측 아웃라인을 검출하기 위해 두 번째 적용되는,내측 및 외측 아웃라인들을 검출하는 방법. - 삭제
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1101526A FR2975519B1 (fr) | 2011-05-19 | 2011-05-19 | Procede de recherche de contours parametres pour la comparaison d'iris |
FR11/01526 | 2011-05-19 | ||
PCT/EP2012/058835 WO2012156333A1 (fr) | 2011-05-19 | 2012-05-11 | Procédé de recherche de contours paramétrés pour la comparaison d'iris |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140033143A KR20140033143A (ko) | 2014-03-17 |
KR101967007B1 true KR101967007B1 (ko) | 2019-04-08 |
Family
ID=46124326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020137033541A KR101967007B1 (ko) | 2011-05-19 | 2012-05-11 | 홍채들을 비교하기 위해 파라미터화된 컨투어들을 검색하는 방법 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9183439B2 (ko) |
EP (1) | EP2710513A1 (ko) |
KR (1) | KR101967007B1 (ko) |
FR (1) | FR2975519B1 (ko) |
SG (1) | SG195076A1 (ko) |
WO (1) | WO2012156333A1 (ko) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9070015B2 (en) * | 2013-02-07 | 2015-06-30 | Ittiam Systems (P) Ltd. | System and method for iris detection in digital images |
CN106326825B (zh) * | 2015-08-26 | 2019-08-06 | 北京巴塔科技有限公司 | 虹膜边缘定位方法及虹膜识别系统 |
CN105894000A (zh) * | 2016-03-28 | 2016-08-24 | 江南大学 | 基于ransac的激光网格标记图像特征提取 |
JP6751324B2 (ja) * | 2016-09-14 | 2020-09-02 | 株式会社デンソーアイティーラボラトリ | 虹彩検出装置、虹彩検出方法、およびプログラム |
US10319108B2 (en) * | 2017-02-14 | 2019-06-11 | Jx Imaging Arts, Llc | System and method for machine vision object orientation measurement |
CN109640787A (zh) * | 2017-04-24 | 2019-04-16 | 上海趋视信息科技有限公司 | 测量瞳孔距离的系统与方法 |
CN107358224B (zh) * | 2017-08-18 | 2021-01-05 | 北京工业大学 | 一种白内障手术中虹膜外轮廓检测的方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050180635A1 (en) * | 2004-02-17 | 2005-08-18 | Trifonov Mikhail I. | Method and apparatus for selecting an object in an image |
US20090252382A1 (en) * | 2007-12-06 | 2009-10-08 | University Of Notre Dame Du Lac | Segmentation of iris images using active contour processing |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5291560A (en) | 1991-07-15 | 1994-03-01 | Iri Scan Incorporated | Biometric personal identification system based on iris analysis |
US7444017B2 (en) * | 2004-11-10 | 2008-10-28 | Eastman Kodak Company | Detecting irises and pupils in images of humans |
JP4664147B2 (ja) * | 2005-07-29 | 2011-04-06 | 株式会社山武 | 虹彩認証装置 |
KR20100101914A (ko) * | 2009-03-10 | 2010-09-20 | 삼성전자주식회사 | 영상신호처리장치 및 방법 |
-
2011
- 2011-05-19 FR FR1101526A patent/FR2975519B1/fr active Active
-
2012
- 2012-05-11 US US14/118,874 patent/US9183439B2/en active Active
- 2012-05-11 SG SG2013086053A patent/SG195076A1/en unknown
- 2012-05-11 KR KR1020137033541A patent/KR101967007B1/ko active IP Right Grant
- 2012-05-11 EP EP12721811.3A patent/EP2710513A1/fr not_active Ceased
- 2012-05-11 WO PCT/EP2012/058835 patent/WO2012156333A1/fr active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050180635A1 (en) * | 2004-02-17 | 2005-08-18 | Trifonov Mikhail I. | Method and apparatus for selecting an object in an image |
US20090252382A1 (en) * | 2007-12-06 | 2009-10-08 | University Of Notre Dame Du Lac | Segmentation of iris images using active contour processing |
Also Published As
Publication number | Publication date |
---|---|
FR2975519A1 (fr) | 2012-11-23 |
SG195076A1 (en) | 2013-12-30 |
WO2012156333A1 (fr) | 2012-11-22 |
US20140226875A1 (en) | 2014-08-14 |
EP2710513A1 (fr) | 2014-03-26 |
FR2975519B1 (fr) | 2013-07-05 |
US9183439B2 (en) | 2015-11-10 |
KR20140033143A (ko) | 2014-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101967007B1 (ko) | 홍채들을 비교하기 위해 파라미터화된 컨투어들을 검색하는 방법 | |
US10789465B2 (en) | Feature extraction and matching for biometric authentication | |
JP6778247B2 (ja) | 眼球血管および顔認識のための画像および特徴品質、画像強化および特徴抽出、ならびにバイオメトリックシステムのための眼球血管と顔領域および/またはサブ顔領域との融合 | |
JP5107045B2 (ja) | 目に関して取得される画像中の虹彩を表す画素を特定する方法 | |
US20070160266A1 (en) | Method for extracting features of irises in images using difference of sum filters | |
US20070160308A1 (en) | Difference of sum filters for texture classification | |
Pundlik et al. | Non-ideal iris segmentation using graph cuts | |
KR101997479B1 (ko) | 사용자 인증을 위한 생체 영역을 검출하는 방법 및 장치 | |
KR101761586B1 (ko) | 홍채와 공막의 경계선 검출 방법 | |
KR20180090072A (ko) | 홍채 인식 장치 및 방법 | |
KR102138652B1 (ko) | 딥 러닝 기반의 지정맥 특징과 손가락 형태를 이용하는 생체 인식 장치 및 방법 | |
KR101471814B1 (ko) | 홍채 인식에 의한 식별 | |
Gankin et al. | Iris image segmentation based on approximate methods with subsequent refinements | |
KR20030066512A (ko) | 노이즈에 강인한 저용량 홍채인식 시스템 | |
JP4805359B2 (ja) | 不変径方向虹彩セグメント化 | |
KR101450247B1 (ko) | Sift 특징점에 기반한 손가락 정맥 인증 방법 | |
KR20160127206A (ko) | 홍채영역에서의 속눈썹 제거 시스템 및 그 방법 | |
KR20180072517A (ko) | 홍채와 공막의 경계선 검출 방법 | |
Gautam et al. | A Novel ES-RwCNN Based Finger Vein Recognition System with Effective L12 DTP Descriptor and AWM-WOA Selection. | |
Pathak et al. | Match score level fusion of iris and sclera descriptor for iris recognition | |
Gadermayr et al. | Vickers image segmentation using active contours | |
KR20030061018A (ko) | 다중 해상도 액티브 컨튜어 모델을 이용한 홍채 영역 추출방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
AMND | Amendment | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |