KR101779642B1 - 텍스처화된 영역들의 지능형 선택에 의해 홍채들의 이미지들을 비교하는 방법 - Google Patents

텍스처화된 영역들의 지능형 선택에 의해 홍채들의 이미지들을 비교하는 방법 Download PDF

Info

Publication number
KR101779642B1
KR101779642B1 KR1020137018634A KR20137018634A KR101779642B1 KR 101779642 B1 KR101779642 B1 KR 101779642B1 KR 1020137018634 A KR1020137018634 A KR 1020137018634A KR 20137018634 A KR20137018634 A KR 20137018634A KR 101779642 B1 KR101779642 B1 KR 101779642B1
Authority
KR
South Korea
Prior art keywords
measurements
image
images
rti
iris
Prior art date
Application number
KR1020137018634A
Other languages
English (en)
Other versions
KR20140004126A (ko
Inventor
상드라 크레머
나데쥬 랑페리에르
소니아 가르시아
베르나데뜨 도리지
Original Assignee
탈레스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 탈레스 filed Critical 탈레스
Publication of KR20140004126A publication Critical patent/KR20140004126A/ko
Application granted granted Critical
Publication of KR101779642B1 publication Critical patent/KR101779642B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

본 발명의 주제는 적어도 2 개의 홍채 이미지들을 비교하는 방법으로서, 제 1 이미지를 구성하는 M 개의 구역들과 연관된 품질 레벨을 나타내는 M 개의 측정치들
Figure 112013063983557-pct00055
을 결정하는 단계, 및 제 2 이미지를 구성하는 M 개의 구역들과 연관된 품질 레벨을 나타내는 M 개의 측정치들
Figure 112013063983557-pct00056
을 결정하는 단계를 포함하고, 상기 구역들은 M 개의 측정 포인트들 상에 중심을 둔다. 상기 측정치들은 M 개의 측정 포인트들 상에 중심을 두며, 제 2 이미지의 M 개의 측정 포인트들이 제 1 이미지의 M 개의 측정 포인트들에 대응한다는 사실에 의해 제 2 이미지의 M 개의 측정치들은 제 1 이미지의 M 개의 측정치들에 대응한다. 이 방법은, 품질 측정치들
Figure 112013063983557-pct00057
,
Figure 112013063983557-pct00058
을 병합 (505) 하여 2 개의 이미지들에 속하는 2 개의 대응하는 측정치들의 결합에 의해 M 개의 병합된 측정치들
Figure 112013063983557-pct00059
(506) 을 획득하는 단계를 포함한다. 이 방법은 또한, N 개의 최고 품질 레벨들을 나타내는 N 개의 구역들 (508) 을 선택 (507) 하는 단계를 포함한다. 이 방법은 또한, 각각의 이미지에 대해 바이너리 코드 (510, 511) 를 획득하기 위해 N 개의 선택된 구역들을 이용하여 2 개의 이미지들을 인코딩 (509) 하는 단계를 포함한다. 또한, 이 방법은, 2 개의 이미지들 사이의 유사성의 레벨 (312) 을 정량화하기 위해 2 개의 바이너리 코드들 (309, 310) 을 비교하는 단계 (311) 를 포함한다.

Description

텍스처화된 영역들의 지능형 선택에 의해 홍채들의 이미지들을 비교하는 방법{METHOD OF COMPARING IMAGES OF IRISES BY INTELLIGENT SELECTION OF TEXTURED ZONES}
본 발명은 텍스처화된 영역들 (textured areas) 의 지능형 선택 (intelligent selection) 에 의해 홍채들 (irises) 을 비교하는 방법에 관한 것이고, 특히 생물측정 (biometry) 분야에 적용되고, 더욱 구체적으로 사람 홍채들의 비교에 적용된다.
생물측정 기술들은 생물들의 검출 및 인식을 위해 이용된다. 이들 기술들은 예컨데 민감 사이트들에서의 액세스 제어와 같은 일정 레벨의 보안을 요구하는 애플리케이션들의 콘텍스트에서 이용될 수 있다.
이를 위해, 개인들에게 적용되는 형태학적 분석이 그들에게 특유한 물리적 특성들을 식별하기 위해 구현된다. 이 분석은 예를 들어 홍채 또는 지문에 기초한다.
홍채의 분석을 위해, 기존의 분석 방법의 예는 특허 US5291560 에 기술된 소위 Daugman 방법이다. 이 방법은 홍채들을 대표하는 수많은 디지털 샘플들 사이의 비교를 허용하고, 그 다음, 그 샘플들이 동일한 개인에 대응하는지 여부를 결정하는 것을 가능하게 한다. 이를 위해, 먼저 홍채들을 분할 (segment) 하고 정규화 (normalize) 하기 위한 단계에 이어, 바이너리 (binary) 코드를 추출하기 위한 단계가 존재한다. 바이너리 코드의 추출은, 홍채의 텍스처 (texture) 를 바이너리 코드로 변환하기 위해 적용점들 (points of application) 주위에 위상 복조 (phase demodulation) 를 적용함으로써 행해진다. 따라서, 2 개의 홍채들의 비교는 수많은 바이너리 코드들을 포인트마다 비교하는 것으로 감소되고, 바이너리 코드들의 포인트들은 정규화된 홍채 상에 위치된 적용점들과 직접 연관된다.
홍채의 정규화된 이미지에 대한 적용점들의 포지셔닝은 상이하게 행해질 수 있다. 특허 US5291560 에 기술된 바와 같은 Daugman 방법은 적용점들을 홍채의 좌측 및 우측 사분면들에 위치결정하는 것을 제안한다. 이 포지셔닝의 목적은 아티팩트들 (artifacts) 을 포함할 가능성이 상당한 홍채의 구역들을 배제하기 위한 것이다. 이는 어떤 구역들은 속눈썹, 눈꺼풀, 또는 광점을 포함할 수도 있기 때문이다. 이들 구역들을 배제함으로써, 바이너리 코드에서 노이즈 영향을 받는 정보가 포함되어 그들의 비교가 왜곡되는 것이 회피된다. 이러한 접근법의 결점은 적용점들의 포지션 (position) 들이 미리정의되고 모든 홍채 이미지들에 대해 동일하다는 것이다. 따라서, 각각의 홍채의 구체적인 사항들에 대한 적응을 허용하지 않는다.
이러한 문제점을 해결하기 위해, L. Masek 은 2003 년 "Recognition of Human Iris Patterns for Biometric Identification" 라는 제목의 그의 논문에서 정규화된 홍채에 분할 마스크를 도입하는 것을 제안하였다. 이 마스크는 능동 윤곽선 방법 (active contours method) 에 의해 각각의 홍채에 대해 자동적으로 계산된다. 이 마스크의 목적은 홍채에 존재하는 아티팩트들을 커버 (cover) 하기 위한 것이다. 그 다음, 홍채들의 비교에 고려되는 적용점들은 마스킹되지 않은 구역들에 위치된다. 하지만, 이 기술은 바이너리이고 모든 마스킹되지 않은 구역들을 균일하게 프로세싱하기 때문에 제한을 가진다. 따라서, 고도로 텍스처화되거나 적은 텍스처를 가지는 구역들 및 마스킹되지 않은 아티팩트들을 포함하거나 아무 것도 포함하지 않는 구역들이 동일한 방식으로 프로세싱된다. 본 설명에서 이하, "구역 (region)" 또는 "영역 (area)" 이라는 말은 정규화된 홍채 이미지 부분을 지정하기 위해 사용될 것이다.
그 다음, 홍채의 상이한 구역들에서의 품질을 국부적으로 측정하고 홍채들의 이들 바이너리 코드들의 비교 시에 이들 품질 측정치들에 의해 가중 (weighting) 을 이용하는 것이 제안되었다. 이 설명서에서, 품질 측정치는 예를 들어 홍채의 주어진 구역의 텍스처의 레벨의 추정치 및 홍채 텍스처에 대한 그것의 유사성에 대응한다. 이것은 2006년 중국 홍콩에서의 생물측정에 관한 국제 회의 행사에서 "Localized Iris Image Quality Using 2-D Wavelets" 라는 제목의 Y. Chen 등에 의한 글에서 기술된 것이다. 품질 측정은, 2007년 9월 미국 워싱턴에서의 생물측정; 이론, 응용, 및 시스템에 관한 IEEE 제 1 차 국제 회의에서 "A new probabilistic Iris Quality Measure for comprehensive noise detection" 이라는 제목의 E. Krichen, S. Garcia-Salicetti, 및 B. Dorizzi 에 의한 글에서 또한 설명되었다.
하지만, 전술한 접근법들은 결점들을 갖는다. 예를 들어, Y. Chen 등에 의한 글에서 제공된 품질 측정은 Krichen 의 것과 달리 아티팩트들의 프로세싱을 허용하지 않는다. E. Krichen 등에 의한 글에서의 품질 측정에서는, 예를 들어, 홍채의 구역들이 매우 열악한 품질의 것인 경우, 특히, 이들 구역들이 적은 텍스처를 가지는 경우에, 바이너리 코드들의 비교에서 가중을 구현 및 그렇게 행하기 위해 사용될 때 이것은 강건하지 않다. 실제로, 이 품질 측정은, 홍채의 구역들이 적은 텍스처를 갖는 경우에 이들 구역들에 매우 낮은 품질 값들을 할당할 수도 있다. 이제, 몇몇 홍채들은 적은 텍스처를 갖는 구역들의 상당한 부분을 본질적으로 포함한다. 낮은 품질 스코어들에 의해 이들 구역들을 가중하는 것은 비교를 위해 이용가능한 정보의 품질을 감소시키는 것에 상당하고, 이는 그 비교의 결과를 왜곡한다.
노트: 역으로, 우리가 제안하는 방법은 적은 텍스처를 갖는 홍채들에 대해서도 N 포인트들이 비교에 산입되는 것을 필요로 하고, 이는 왜곡된 비교 결과들을 갖는 것을 방지한다.
Daugman 시스템에 기초하지 않은 다른 홍채 인식 기술들도 또한 존재한다. 특허 EP 08788209 에 기술된 상관에 기초한 시스템의 경우를 예로 든다. 이 마지막 솔루션 (solution) 은 열화된 홍채 이미지들에 대해 Daugman 시스템보다 더 강건함에도 불구하고, 그것은 훨씬 더 복잡하고 계산 시간 면에서 고비용이다.
본 발명의 하나의 목적은 특히 전술한 결점들을 극복하기 위한 것이다.
이를 위해, 본 발명의 주제는 적어도 2 개의 홍채 이미지들을 비교하는 방법으로서, 제 1 이미지를 구성하는 M 개의 구역들 (regions) 과 연관된 품질 레벨을 나타내는 M 개의 측정치들
Figure 112013063983557-pct00001
을 결정하는 단계를 포함하고, 상기 구역들은 M 개의 측정 포인트들 상에 중심이 있고, 제 2 이미지를 구성하는 M 개의 구역들과 연관된 품질 레벨을 나타내는 M 개의 측정치들
Figure 112013063983557-pct00002
을 결정하는 단계를 포함한다. 상기 측정치들은 M 개의 측정 포인트들 상에 중심이 있고, 제 2 이미지의 M 개의 측정 포인트들이 제 1 이미지의 M 개의 측정 포인트들에 대응한다는 사실에 의해 제 2 이미지의 M 개의 측정치들은 제 1 이미지의 M 개의 측정치들에 대응한다. 이 방법은, 품질 측정치들
Figure 112013063983557-pct00003
,
Figure 112013063983557-pct00004
을 병합하는 단계를 포함하고, M 개의 병합된 측정치들
Figure 112013063983557-pct00005
은 2 개의 이미지들에 속하는 2 개의 대응하는 측정치들의 결합에 의해 획득된다. 이 방법은 또한, N 개의 최고 품질 레벨들을 나타내는 N 개의 구역들을 선택하는 단계를 포함한다. 이 방법은 또한, 각각의 이미지에 대해 바이너리 코드를 획득하기 위해 N 개의 선택된 구역들을 이용하여 2 개의 이미지들을 인코딩하는 단계를 포함한다. 또한, 이 방법은, 2 개의 이미지들 사이의 유사성의 레벨을 정량화하기 위해 2 개의 바이너리 코드들을 비교하는 단계를 포함한다.
본 발명의 일 양태에 따라, 2 개의 이미지들은 분할 및 정규화된다.
본 발명의 다른 양태에 따르면, 측정 포인트들은 홍채 이미지들에 걸쳐 균일하게 분포된다.
본 발명의 일 실시형태에서, 주어진 구역과 연관된 병합된 측정치
Figure 112013063983557-pct00006
는, 그 동일한 구역과 연관된 측정된 값들
Figure 112013063983557-pct00007
,
Figure 112013063983557-pct00008
중 하나를 선택함으로써 결정되고, 최저 품질 레벨에 대응하는 값이 선택된다.
대안으로, 주어진 구역과 연관된 병합된 측정치
Figure 112013063983557-pct00009
는, 그 구역에 대응하는 2 개의 이미지들의 측정치들
Figure 112013063983557-pct00010
Figure 112013063983557-pct00011
을 가중함으로써 결정된다.
대안으로, 주어진 구역과 연관된 병합된 측정치
Figure 112013063983557-pct00012
는,
Figure 112013063983557-pct00013
식을 이용하여 결정된다.
본 발명의 일 양태에 따르면, 품질 측정치들
Figure 112013063983557-pct00014
은 매트릭스 Q1 에 저장되고, 품질 측정치들
Figure 112013063983557-pct00015
은 매트릭스 Q2 에 저장되며, 병합된 측정치들
Figure 112013063983557-pct00016
은 매트릭스 Qf 에 저장된다.
바이너리 코드들은, N 개의 선택된 구역들의 중심에 대응하는 N 개의 적용점들 주위에 위상 복조 (phase demodulation) 를 적용함으로써 획득된다.
일 실시형태에서, 비교하는 단계는 2 개의 바이너리 코드들사이에 해밍 거리 (Hamming distance) 에 대응하는 유사성 스코어 (similarity score) 를 결정한다.
측정의 결과는 예를 들어 0 과 1 사이의 실수이고, 1 값은 측정 구역의 최대 품질에 대해 달성된다.
본 발명의 일 양태에 따르면, 병합, 선택, 및 인코딩 단계들은 다수의 정규화된 홍채 이미지들의 변환된 버전들에 대해 적용된다.
본 발명은 홍채 이미지들의 열악한 품질 영역들을 숨기기 위해 임의의 마스크를 이용하지 않는 것을 가능하게 하는 현저한 이점을 갖는다. 자연적으로 적은 텍스처를 갖는 홍채들의 존재 시에 양호한 비교 성능 레벨들을 전달하는 이점을 또한 제공한다.
본 발명의 다른 특징들 및 이점들은 비제한적 예시로서 주어진 이하의 설명으로부터, 그리고 첨부된 도면들에 비추어 볼 때 명백하게 될 것이다.
도 1 은 눈 및 홍채 비교에 통상적으로 이용되는 영역을 나타낸다.
도 2 는 정규화된 홍채 이미지의 예를 제공한다.
도 3 은 Daugman 홍채 비교 방법이 어떻게 동작하는지를 나타내는 다이어그램을 나타낸다.
도 4 는 품질 측정 병합 원리를 나타낸다.
도 5 는 본 발명에 따른 방법의 예시적인 구현을 제공한다.
도 1 은 눈 및 홍채 비교에 통상적으로 이용되는 영역을 나타낸다. 예로서 주어진 눈 (100) 에서, 홍채 (101) 및 동공 (pupil) 이 구별될 수 있다. 홍채의 가시 부분을 포함하는 2 개의 원들 (103, 104) 사이의 면에 의해 정의된 영역은 홍채를 분할 (segment) 하기 위해, 즉, 그것을 눈 (105) 의 흰자로부터 및 동공 (102) 으로부터 분리하기 위해 이용될 수 있다. 홍채는 상이하게 텍스처화된 (textured) 영역들을 포함한다. 따라서, 도 1 의 예에서, 영역 (106) 은 고도로 텍스처화되고, 그것은 검은 선들에 의해 표현되고 있다.
도 2 는 정규화된 홍채 이미지의 예를 제공한다. 정규화된 홍채 이미지는 표준 포맷 (standard format), 예를 들어 64×512 픽셀들을 포함하는 포맷으로 실행되고 조정된 홍채의 디지털 이미지에 대응한다.
전술한 바와 같이, 구역들 (200, 201, 202) 은, 비교를 위해 유용한 영역 (203) 에 부가된, 예를 들어 속눈썹 및 눈꺼풀 부분들과 같은 아티팩트들을 포함한다. 이 영역은 선 207 에 의해 표현된 고도로 텍스처화된 영역처럼 보인다. 정규화된 홍채 이미지는 아티팩트들 (200, 201, 202) 을 포함하는 영역들로부터 유용한 영역 (203) 을 분리하는 것을 가능하게 하는 마스크 (204, 205, 206) 와 연관될 수 있다.
도 3 은 Daugman 홍채 비교 방법이 어떻게 동작하는지를 나타내는 다이어그램을 제공한다.
이 방법의 목적은 2 개의 홍채 이미지들이 동일한 사람에 속하는지 여부를 결정하기 위한 것이다. 따라서, 테스트 홍채 이미지 (301) 는 참조 홍채 이미지 (300) 에 대해 비교된다. 이들 2 개의 이미지들의 홍채들을 분할하기 위해, 즉, 눈의 흰자로부터 및 동공으로부터 각각의 홍채를 구분하기 위해 제 1 단계가 이용된다 (302).
이 단계 동안, 및 선택적으로, 각각의 분할된 이미지에 대해 특정적인 분할 마스크가 결정될 수 있다.
분할 후의 참조 및 테스트 이미지들 (303, 304) 은 그 다음 정규화된다 (305).
종래 기술에서, 정규화 (305) 후에, 테스트 홍채 이미지에 상이한 변환들이 적용될 수 있다는 것이 알려져 있다. 각각의 변환된 이미지에 대해 이하 설명되는 인코딩 (308) 및 비교 (312) 단계들이 적용되어 최상의 유사성 스코어가 보유된다. 이들 변환들의 목적은 참조 이미지에 대해 테스트 이미지를 조정하기 위한 것이다. 하지만, 본 발명의 범위를 제한하지 않으면서 설명을 단순화하기 위해, 테스트 이미지의 단일의 변환되지 않은 버전 (version) 이 이하의 상세한 설명에서 고려된다.
인코딩 단계 (308) 는 참조 이미지에 대한 참조 코드 (309) 및 테스트 이미지에 대한 테스트 코드 (310) 를 제공한다.
이들 코드들은 그 다음, 예를 들어 그들의 해밍 거리 (311) 를 계산함으로써 비교된다. 이 비교의 결과는 유사성 스코어 (312) 라고 불리고, 테스트 홍채가 참조 홍채에 대응하는지 여부를 결정하기 위해 이용되며, 유사성 스코어가 미리결정된 값을 초과하는 경우에 대응이 확립된다.
Daugman 홍채 비교 방법은 정규화된 홍채 이미지에서 국부화된 품질 측정치들을 이용함으로써 개선될 수 있다. 이들 품질 측정치들은 그 다음, 홍채들의 각 쌍에 대해 적용점들의 포지션을 자동적으로 선택하기 위해 이용된다. 이 자동 선택은, 선택된 적용점들이 아티팩트들을 포함하지 않는 구역들에 속하도록 하는 방식으로 수행된다. 또한, 가장 풍부한 텍스처를 갖는 구역들이 우선시된다.
이 선택을 정확하게 완료하기 위해, 선택된 수의 포인트들에 대해 국부적으로 품질이 평가된다. 이들 포인트들은 예를 들어 전체 정규화된 홍채 이미지에 걸쳐 균일하게 분포된다. 그러면 최상의 품질을 나타내는 N 포인트들이 위상 복조를 위한 적용점들로서 보유된다.
이 방법은 Daugman 방법의 개선이고, 구현하는 것을 단순하게 만들고 그 단순성에 의해 신속하게 실행되는 것을 가능하게 한다. 유리하게, 본 발명에 따른 방법은 각각의 홍채에 대해 적용점들의 포지션을 자동적으로 조정한다. 이 자동적 적응 (adaptation) 은 아티팩트들을 포함하는 구역들이 산입되는 것을 회피하는 것을 가능하게 하고 보다 많이 텍스처화된 구역들을 더 중요하게 다룬다. 또한, 이 방법은 홍채 이미지의 전체가 열악한 품질의 것인 경우에 강건하다 (robust).
본 발명에 따른 홍채 비교 방법은 도 3 을 이용하여 제공된 바와 같이 Daugman 방법의 주요 단계들을 반복한다. 홍채 이미지 정규화 및 인코딩 단계들 사이 전에 개선들이 일어난다. 따라서, 참조 및 테스트 이미지들의 정규화 후에, 단계들의 연속은 획득된 참조 및 테스트 코드들이 높은 성능 검출, 즉, 높은 확률의 정확한 검출을 갖는 검출을 허용하도록 인코딩을 준비하는 것을 가능하게 한다.
본 발명에 따른 방법은 정규화된 참조 및 테스트 이미지들에 대해 수행된 품질 측정들에 의존한다. 제 1 셋트의 품질 측정치들은 정규화된 참조 이미지와 연관되고, 제 2 셋트의 품질 측정치들은 정규화된 테스트 이미지와 연관된다. 이 측정치는, 예를 들어, 정규화된 홍채 이미지의 구역을 텍스처화된 이미지들의 데이터베이스의 샘플들에 대해 비교함으로써 획득된다. 측정된 구역은, 예를 들어, 측정 포인트에 중심이 있다. 이러한 방법은 상기 언급한 E. Krichen, S. Garcia-Salicetti, 및 B. Dorizzi 에 의한 글에서 설명된다. 측정의 결과는 예를 들어 0 과 1 사이의 실수이고, 1 값은 최대 품질에 대해 달성된다.
도 4 는 품질 측정 병합 원리를 나타낸다. 정규화된 이미지에 대해 수행된 측정들은 정규화된 참조 이미지 (400) 의 전체에 걸쳐서 및 정규화된 테스트 이미지 (401) 에 걸쳐 분포되는 M 포인트들 (402, 403) 에 대해 수행될 수 있다. 이 분포는 예를 들어 균일하다.
정규화된 참조 이미지와 연관된 측정치들은 예를 들어 M 개의 엘리먼트들
Figure 112013063983557-pct00017
로 이루어진 매트릭스 Q1 에 저장되고, 정규화된 테스트 이미지와 연관된 측정치들은 M 개의 엘리먼트들
Figure 112013063983557-pct00018
로 이루어진 매트릭스 Q2 내에 저장된다. 이들 매트릭스들은 M = L×C 가 되도록 L 행들 (rows) 및 C 열들 (columns) 을 포함한다. 그 다음 i∈[1,L] 및 j∈[1,C] 가 적용된다.
그 다음 이들 2 개의 이미지들과 연관된 측정치들이 병합된다. 이 병합의 목적은 신뢰가능한 검출이 수행될 수 있는 영역들을 결정하기 위한 것이다. 이 병합의 결과는 병합 매트릭스 Qf 를 초래하고, 이 매트릭스의 엘리먼트들
Figure 112013063983557-pct00019
은 매트릭스들 Q1 및 Q2 의 엘리먼트들로부터 나온 것이다.
병합 매트릭스 Qf 의 엘리먼트들
Figure 112013063983557-pct00020
는 상이한 방식들로, 예를 들어, 다음의 식을 이용하여 결정될 수 있다:
Figure 112013063983557-pct00021
(1)
여기서, 함수 min(a,b) 는 결과 a 또는 b 를 가지고, 가장 작은 수가 선택된다.
대안으로,
Figure 112013063983557-pct00022
는 매트릭스들 Q1 및 Q2 의 대응하는 엘리먼트들
Figure 112013063983557-pct00023
Figure 112013063983557-pct00024
를 가중함으로써 선택될 수 있다.
제 3 가능성은 다음 식을 이용하는 것이다:
Figure 112013063983557-pct00025
(2)
이들 3 가지 병합 가능성들은 예로서 주어진 것이다. 병합된 값들
Figure 112013063983557-pct00026
을 결정하기 위한 다른 방법들이 또한 본 발명의 구현을 위해 선택될 수 있다.
병합 값들
Figure 112013063983557-pct00027
은 그 다음 홍채 비교를 위해 가장 관련 있는 텍스처화된 영역들을 선택하기 위해 이용된다.
도 5 는 본 발명에 따른 방법의 예시적인 구현을 나타낸다. 참조 이미지들 및 테스트 이미지들로서 사용된 홍채 이미지들은 분할되고 정규화된다. 분할 및 정규화 동작들은 참조 및 테스트 이미지들에 동시에 적용될 수 있고, 또는 그 외에 상이한 시간들에서 적용될 수도 있다. 이들 동작들에 이어, 본 발명에 따른 방법은 홍채 비교에 대해 가장 관련 있는 텍스처화된 영역들을 선택하기 위한 단계들을 포함한다.
홍채의 각각의 정규화된 이미지에 대해 각각의 이미지에 걸쳐 분포된 M 포인트들이 고려된다. 이들 M 개의 포인트들은 예를 들어 비교 격자라고 불리는 격자 (grid) 에 따라 균일하게 분포된다. M 개의 품질 측정치들
Figure 112013063983557-pct00028
이 정규화된 참조 이미지 (500) 에 대해 결정된다 (502). M 개의 품질 측정치들
Figure 112013063983557-pct00029
이 정규화된 테스트 이미지 (501) 에 대해 또한 결정된다 (504). 이를 위해, 품질 측정치는, 이미지의 M 포인트들의 각각 주위에 중심을 둔 썸네일 (thumbnail) 이미지에 대해 통계적 학습 모델을 적용함으로써 그 이미지의 M 포인트들의 각각과 연관된다. 앞에서 나타난 바와 같이, 이 측정치는 0 과 1 사이에 있을 수도 있고, 이상적 품질의 썸네일 이미지에 대해 1 의 값을 가질 것이다. 그것의 값은 썸네일 이미지가 적은 텍스처를 갖는 경우, 또는, 눈꺼풀들, 속눈썹들, 또는 광점들에 의한 폐색과 같은 아티팩트들을 포함하는 경우에 감소할 것이다. 측정치들
Figure 112013063983557-pct00030
(503) 및
Figure 112013063983557-pct00031
(504) 은 측정된 이미지의 주어진 영역에서의 품질 레벨을 나타낸다. 앞서 설명한 바와 같이, 이들 측정치들은, 예를 들어, 정규화된 참조 이미지와 연관된 것들에 대해서는 매트릭스 Q1 에 저장되고, 정규화된 테스트 이미지와 연관된 것들에 대해서는 매트릭스 Q2 에 저장된다.
측정치들
Figure 112013063983557-pct00032
(503) 및
Figure 112013063983557-pct00033
(504) 은 그 다음 병합된다 (505). 2 가지 품질 측정치들
Figure 112013063983557-pct00034
Figure 112013063983557-pct00035
은 홍채 비교 격자의 M 포인트들의 각각에 대해 이용가능하다. 이들 2 가지 값들은 예를 들어 그들의 최소 값을 보유함으로써 병합된다. 이러한 방식으로, 단일 값
Figure 112013063983557-pct00036
이 관심 대상인 홍채의 쌍에 대해 비교 격자의 포인트와 연관된다.
획득된 값들
Figure 112013063983557-pct00037
은 예를 들어 병합 매트릭스 Qf 에 저장된다.
이미지를 이루는 텍스처화된 영역들은 그 다음 병합된 측정치들
Figure 112013063983557-pct00038
에 기초하여 랭크 (rank) 된다.
예를 들어, M 개의 측정된 및 랭크된 포인트들 (507) 로부터 N 개의 적용점들이 선택된다. 이들 N 개의 포인트들은 가장 높은 병합된 품질 측정 값들을 나타내는 비교 격자의 포인트들에 대응한다. 그들은, 예를 들어 가장 낮은 레벨에서부터 가장 높은 레벨까지 그들의 품질에 따라 랭크된다.
다르게 말하면, 홍채들의 각 쌍에 대해, 국부적 품질 측정치는 비교 격자의 M 포인트들의 각각과 연관되었고, 그 포인트들은 예를 들어 전체 이미지에 걸쳐 균일하게 분포된다. 그 다음, 이들 M 포인트들로부터, 각각의 홍채의 바이너리 코드로의 변환에 사용되는 적용점들로서 N 개의 최상 품질 포인트들을 이용하기 위해 선택이 이루어진다.
N 의 값의 선택은, 적용점들의 수가 홍채의 코드에서 자유도들을 적당하게 보유하는 것을 가능하게 하고 열악한 품질의 영역들은 유사성 스코어 계산에 산입되지 않도록 최적화될 수 있다.
그 다음 정규화된 이미지들은 인코딩된다 (509). 참조 코드 (510) 및 테스트 코드 (511) 가 따라서 생성된다. 그들은 그 다음 이미지들을 비교하고 유사성 스코어를 계산하기 위해 사용된다. 이를 위해, 코드들 (510, 511) 은 예를 들어 그들의 해밍 거리를 계산함으로써 비교된다. 이 비교의 결과, 즉, 유사성 스코어는, 예를 들어 이 스코어를 미리결정된 값에 비교함으로써, 테스트 홍채가 참조 홍채에 대응하는지 여부를 결정하기 위해 이용된다.

Claims (11)

  1. 적어도 2 개의 홍채 (iris) 이미지들을 비교하는 방법으로서,
    제 1 이미지를 구성하는 M 개의 제 1 구역들과 연관된 품질 레벨을 나타내는 M 개의 제 1 측정치들
    Figure 112017054949878-pct00065
    을 결정하는 단계로서, 상기 제 1 구역들은 M 개의 제 1 측정 포인트들이 중심이 되는, 상기 M 개의 제 1 측정치들
    Figure 112017054949878-pct00066
    을 결정하는 단계; 및
    제 2 이미지를 구성하는 M 개의 제 2 구역들과 연관된 품질 레벨을 나타내는 M 개의 제 2 측정치들
    Figure 112017054949878-pct00067
    을 결정하는 단계로서, 상기 제 2 구역들은 M 개의 제 2 측정 포인트들이 중심이 되는, 상기 M 개의 제 2 측정치들
    Figure 112017054949878-pct00068
    을 결정하는 단계를 포함하고,
    상기 제 2 이미지의 상기 M 개의 제 2 측정 포인트들이 상기 제 1 이미지의 상기 M 개의 제 1 측정 포인트들에 대응한다는 사실에 의해 상기 제 2 이미지의 상기 M 개의 제 2 측정치들은 상기 제 1 이미지의 상기 M 개의 제 1 측정치들에 대응하며,
    상기 방법은,
    - 품질의 상기 제 1 및 제 2 측정치들
    Figure 112017054949878-pct00041
    ,
    Figure 112017054949878-pct00042
    을 병합하는 (505) 단계로서, 상기 2 개의 이미지들에 속하는 2 개의 대응하는 측정치들의 결합에 의해 M 개의 병합된 측정치들
    Figure 112017054949878-pct00043
    (506) 이 획득되는, 상기 병합하는 (505) 단계;
    - N 개의 최고 품질 레벨들을 보이는 N 개의 구역들 (508) 을 선택하는 (507) 단계;
    - 각각의 이미지에 대해 바이너리 코드 (510, 511) 를 획득하기 위해 선택된 상기 N 개의 구역들을 이용하여 상기 2 개의 이미지들을 인코딩하는 (509) 단계; 및
    - 상기 2 개의 이미지들 사이의 유사성의 레벨 (312) 을 정량화하기 위해 상기 2 개의 바이너리 코드들 (309, 310) 을 비교하는 (311) 단계를 포함하는 것을 특징으로 하는 홍채 이미지들을 비교하는 방법.
  2. 제 1 항에 있어서,
    상기 2 개의 이미지들 (500, 501) 은 분할되고 정규화되는 것을 특징으로 하는 홍채 이미지들을 비교하는 방법.
  3. 제 1 항에 있어서,
    상기 측정 포인트들 (402, 403) 은 상기 홍채 이미지들에 걸쳐 균일하게 분포되는 것을 특징으로 하는 홍채 이미지들을 비교하는 방법.
  4. 제 1 항에 있어서,
    주어진 구역과 연관된 병합된 측정치
    Figure 112016117166621-pct00044
    는, 그 동일한 구역과 연관된 측정된 값들
    Figure 112016117166621-pct00045
    ,
    Figure 112016117166621-pct00046
    중 하나를 선택함으로써 결정되고, 최저 품질 레벨에 대응하는 값이 선택되는 것을 특징으로 하는 홍채 이미지들을 비교하는 방법.
  5. 제 1 항에 있어서,
    주어진 구역과 연관된 병합된 측정치
    Figure 112016117166621-pct00047
    는, 그 구역에 대응하는 상기 2 개의 이미지들의 측정치들
    Figure 112016117166621-pct00048
    Figure 112016117166621-pct00049
    을 가중함으로써 결정되는 것을 특징으로 하는 홍채 이미지들을 비교하는 방법.
  6. 제 1 항에 있어서,
    주어진 구역과 연관된 병합된 측정치
    Figure 112016117166621-pct00050
    는,
    Figure 112016117166621-pct00051
    식을 이용하여 결정되는 것을 특징으로 하는 홍채 이미지들을 비교하는 방법.
  7. 제 1 항 내지 제 6 항 중 어느 한 항에 있어서,
    품질의 상기 제 1 측정치들
    Figure 112017054949878-pct00052
    는 매트릭스 Q1 에 저장되고, 품질의 상기 제 2 측정치들
    Figure 112017054949878-pct00053
    는 매트릭스 Q2 에 저장되며, 상기 병합된 측정치들
    Figure 112017054949878-pct00054
    은 매트릭스 Qf 에 저장되는 것을 특징으로 하는 홍채 이미지들을 비교하는 방법.
  8. 제 1 항 내지 제 6 항 중 어느 한 항에 있어서,
    상기 바이너리 코드들은, 상기 선택된 N 개의 구역들의 중심에 대응하는 N 개의 적용점들 상에 위상 복조를 적용함으로써 획득되는 것을 특징으로 하는 홍채 이미지들을 비교하는 방법.
  9. 제 1 항 내지 제 6 항 중 어느 한 항에 있어서,
    상기 비교하는 (311) 단계는 상기 2 개의 바이너리 코드들 (309, 310) 사이에 해밍 거리 (Hamming distance) 에 대응하는 유사성 스코어 (312) 를 결정하는 것을 특징으로 하는 홍채 이미지들을 비교하는 방법.
  10. 제 1 항 내지 제 6 항 중 어느 한 항에 있어서,
    측정의 결과는 0 과 1 사이의 실수이고, 1 값은 측정 구역의 최대 품질에 대해 달성되는 것을 특징으로 하는 홍채 이미지들을 비교하는 방법.
  11. 제 2 항 내지 제 6 항 중 어느 한 항에 있어서,
    다수의 변환들이 상기 정규화된 홍채 이미지들에 적용되고, 상기 병합 (505), 선택 (507), 및 인코딩 (509) 단계들은 정규화된 상기 홍채 이미지들의 변환된 버전들 각각에 대해 적용되는 것을 특징으로 하는 홍채 이미지들을 비교하는 방법.
KR1020137018634A 2010-12-17 2011-12-01 텍스처화된 영역들의 지능형 선택에 의해 홍채들의 이미지들을 비교하는 방법 KR101779642B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1004942 2010-12-17
FR1004942A FR2969344B1 (fr) 2010-12-17 2010-12-17 Procede de comparaison d'images d'iris par selection intelligente de zones texturees
PCT/EP2011/071519 WO2012079996A1 (fr) 2010-12-17 2011-12-01 Procede de comparaison d'images d'iris par selection intelligente de zones texturees

Publications (2)

Publication Number Publication Date
KR20140004126A KR20140004126A (ko) 2014-01-10
KR101779642B1 true KR101779642B1 (ko) 2017-09-18

Family

ID=44310875

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137018634A KR101779642B1 (ko) 2010-12-17 2011-12-01 텍스처화된 영역들의 지능형 선택에 의해 홍채들의 이미지들을 비교하는 방법

Country Status (6)

Country Link
US (1) US9031289B2 (ko)
EP (1) EP2652674B1 (ko)
KR (1) KR101779642B1 (ko)
FR (1) FR2969344B1 (ko)
PT (1) PT2652674E (ko)
WO (1) WO2012079996A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2539302B (en) * 2013-03-28 2017-08-30 Paycasso Verify Ltd Method, system and computer program for comparing images
GB2500823B (en) 2013-03-28 2014-02-26 Paycasso Verify Ltd Method, system and computer program for comparing images
US9122911B2 (en) 2013-03-28 2015-09-01 Paycasso Verify Ltd. System, method and computer program for verifying a signatory of a document
FR3037422B1 (fr) * 2015-06-15 2017-06-23 Morpho Procede d'identification et/ou d'authentification d'un individu par reconnaissance d'iris

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5291560A (en) 1991-07-15 1994-03-01 Iri Scan Incorporated Biometric personal identification system based on iris analysis
FR2915301A1 (fr) 2007-04-20 2008-10-24 Groupe Ecoles Telecomm Procede de comparaison d'images d'une biometrie entre au moi ns une image de reference et au moins une image de test dont on cherche a evaluer un degre de correlation avec l'image d e reference
US8755607B2 (en) * 2011-04-28 2014-06-17 Sri International Method of normalizing a digital image of an iris of an eye

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Fernando Alonso-Fernandez 외 3명, "Iris Recognition Based on SIFT Features", BIOMETRICS IDENTITY AND SECURITY(BIDS), 2009 International Conference on IEEE, pp.1~8 (2009.09.22.)
Luis E. Garza Casta~n´on외 2명, "An Application of Random and Hammersley Sampling Methods to Iris Recognition", Advances in Applied Artificial Intellingence Lecture Notes in Computer Science, pp.520~529
Wen Yang 외 3명, "Iris Recognition Based on Location of Key Points", BIOMETRICS Authentication Lecture Notes in Computer Science, pp.484~490 (2007.07.15.)
Yi Chen 외 2명, "Localized Iris Image Quality Using 2-D Wavelets", Advances in Biometrics Lecture Notes in Computer Science, pp.373~381 (2005.01.01)

Also Published As

Publication number Publication date
PT2652674E (pt) 2015-05-19
FR2969344A1 (fr) 2012-06-22
US9031289B2 (en) 2015-05-12
US20140301611A1 (en) 2014-10-09
EP2652674A1 (fr) 2013-10-23
KR20140004126A (ko) 2014-01-10
WO2012079996A1 (fr) 2012-06-21
FR2969344B1 (fr) 2013-01-04
EP2652674B1 (fr) 2015-01-21

Similar Documents

Publication Publication Date Title
Tapia et al. Gender classification from the same iris code used for recognition
JP4921858B2 (ja) 画像処理装置および画像処理プログラム
US8315440B2 (en) System and method for animal identification using iris images
CN106295124B (zh) 多种图像检测技术综合分析基因子图相似概率量的方法
US8498454B2 (en) Optimal subspaces for face recognition
JP2008529164A (ja) 虹彩認識システムおよび方法
US20130254143A1 (en) Attribute value estimation device, attribute value estimation method, program, and recording medium
JP2017016593A (ja) 画像処理装置、画像処理方法、及びプログラム
MX2012010637A (es) Procesador de informacion biologica.
Hughes et al. Detection of contact-lens-based iris biometric spoofs using stereo imaging
EP2050040A2 (en) Method and apparatus for determining print image quality
KR101779642B1 (ko) 텍스처화된 영역들의 지능형 선택에 의해 홍채들의 이미지들을 비교하는 방법
JP2019016268A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
Garg et al. Biometric authentication using finger nail surface
Lee et al. Robust iris recognition baseline for the grand challenge
CN110909601B (zh) 一种基于深度学习的美瞳识别方法及系统
CN110929570B (zh) 虹膜快速定位装置及其定位方法
CN116778537B (zh) 一种指背静脉图像识别过程中指甲的检测与处理方法
CN107729863B (zh) 人体指静脉识别方法
CN116664585B (zh) 基于深度学习的头皮健康状况检测方法及相关装置
WO2007097510A1 (en) Deformation-resilient iris recognition methods
Szczepanik et al. Data management for fingerprint recognition algorithm based on characteristic points’ groups
CN113269080B (zh) 基于多通道卷积神经网络的掌静脉识别方法
Liu et al. Fingerprint image quality assessment based on BP neural network with hierarchical clustering
Saparudin et al. Segmentation of fingerprint image based on gradient magnitude and coherence

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant