KR20180102637A - 바이오메트릭 분석의 시스템 및 방법 - Google Patents

바이오메트릭 분석의 시스템 및 방법 Download PDF

Info

Publication number
KR20180102637A
KR20180102637A KR1020187023286A KR20187023286A KR20180102637A KR 20180102637 A KR20180102637 A KR 20180102637A KR 1020187023286 A KR1020187023286 A KR 1020187023286A KR 20187023286 A KR20187023286 A KR 20187023286A KR 20180102637 A KR20180102637 A KR 20180102637A
Authority
KR
South Korea
Prior art keywords
images
iris
analysis system
image
illumination source
Prior art date
Application number
KR1020187023286A
Other languages
English (en)
Inventor
데이비드 알란 애커만
배리 이. 마펜
앤드류 제임스 볼
크리스토퍼 로버트 마틴
마이클 제이. 키어난
존 티모씨 그린
Original Assignee
프린스톤 아이덴티티, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 프린스톤 아이덴티티, 인크. filed Critical 프린스톤 아이덴티티, 인크.
Publication of KR20180102637A publication Critical patent/KR20180102637A/ko

Links

Images

Classifications

    • G06K9/00201
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06K9/00892
    • G06K9/00906
    • G06K9/2027
    • G06K9/2036
    • G06K9/4652
    • G06K9/4661
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • H04N5/2256
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Geometry (AREA)
  • Signal Processing (AREA)
  • Image Input (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

예시적인 실시예는 일반적으로 하나 이상의 조명 소스, 카메라 및 분석 모듈을 포함하는 바이오메트릭 분석 시스템에 관한 것이다. 조명 소스는 대상의 얼굴의 적어도 일부를 조명하도록 구성된다. 마케라는 대상의 얼굴을 조명하는 동안 대상의 하나 이상의 이미지를 캡쳐하도록 구성된다. 분석 모듈은 대상의 살아있음의 표시를 결정하고 스푸핑을 방지하기 위해, 카메라에 의해 캡쳐된 하나 이상의 이미지를 분석하도록 구성된다.

Description

바이오메트릭 분석의 시스템 및 방법
관련된 출원에 대한 상호-참조
본 출원은 2016년 1월 12일에 출원된 미국 가출원 번호 62/277,630에 대한 우선권의 이익 및 2016년 2월 16일에 출원된 미국 가출원 번호 62/295,554에 대한 우선권의 이익을 청구하며, 이들은 그 전체가 참조로서 포함된다.
기술분야
본 개시물은 바이오메트릭 분석의 시스템과 방법에 관한 것이고, 특히, 안전한 거래를 보장하기 위해 하나 이상의 스푸핑 방지 구성을 포함하는 바이오메트릭 분석 시스템에 관한 것이다.
보안은 개인 정보와 관련된 다양한 거래에 있어서 중요한 것이다. 홍채 인식은 전 세계에 걸쳐 정부와 상업용 시스템에서 사용되는 바이오메트릭 신원 확인의 잘-받아들여지고 정확한 수단인데, 이는 안전한 거래 및 키 및/또는 패스워드를 넘는 보안성의 추가된 층을 활성화시킨다. 홍채 인식 시스템에 의해 제공되어 증가된 보안성 때문에, 이러한 시스템의 사용 증가는 전 세계에 걸쳐 일어나고 있다.
바이오메트릭 신원 확인이 사용에 있어서 증가하면서, 보안을 위해 바이오메트릭을 사용하는 시스템에 대한 공격도 증가하여, 스푸핑 방지 대책을 위한 요구가 더 커질 수 있다. 특히, 이러한 시스템의 보안은 스푸프 공격(바이오메트릭 시스템을 사취하려는 시도에서, 실제 바이오메트릭 크레덴셜의 복사본을 바이오메트릭 시스템에 제시하는 공격)의 제시에 의해 위협될 수 있다. 은행, 병원, 학교, 가게, 사업장, 군사 시설 및 그 밖의 정부 및/또는 상업용 시스템은 스푸핑 공격에 대해 강한 바이오메트릭 보안성으로부터 이익을 받을 수 있다.
홍채 인식 시스템을 사취하려는 자는 일반적으로 다양한 공격을 사용하려고 시도한다. 제시 공격(presentation attack)에서, 사취자는 살아있는 바이오메트릭 장기 대신에 사기치고, 죽은 홍채를 인식 시스템에 제시할 수 있다. 예를 들어, 사취자는 실제 홍채 대신에, 홍채의 사진을 제시할 수 있다. 사기치는 홍채는 매우 현실적이어서, 모든 면에서 홍채 인식 시스템이 이를 시스템에 등록된 실제 홍채로 잘못 판단할 수 있고, 그 신원에 대해 잘못 판단하여 확인하고, 다른 보호된 시스템에 사취자 접근을 허락할 수 있다. 간단한 이미지-기반의 스푸핑을 사용하여 홍채 바이오메트릭의 실패는 홍채 바이오메트릭의 명성에 먹칠을 할 수 있다.
바이오메트릭에서 스푸핑 방지나 살아있음 검출을 위한 많은 시스템이 있다. 제시 공경에 대해 방어하기 위해, 바이오메트릭 시스템은 오류가 있는 바이오메트릭 크레덴셜의 제시에서 불일치성을 식별한다. 살아있는 바이오메트릭 샘플(가령, 얼굴, 홍채 등)을 복사본(가령, 인쇄된 종이, 컴퓨터 모니터, 태블릿 디스플레이, 조각된 얼굴, 가짜 눈알 등)과 구별하기 위한 기존의 많은 기술이 있다. 제시된 홍채의 살아있음을 테스트하는 홍채 인식 시스템은 동공 크기 측정법, 활성 응시 및 깜빡임 검출을 포함하는 방법 및 적외선 시그널링의 복합 시스템을 사용할 수 있다.
동공 크기 측정법에서, 자극(밝은 가시광)이 대상의 동공으로 하여금 실시간으로 수축하도록 하고, 이는 살아있음을 표시한다. 또한, 눈의 사카딕(saccadic) 모션의 검출은 대상의 살아있음의 표시를 제공한다. 홍채의 사진이나 인쇄된 홍채 조직이 있는 가짜 눈알은 살아 있는 홍채가 하는 것과 같이, 밝은 광에 응답하여 동공이 수축되지 않을 것이다. 이러한 경우에, 밝은 광의 자극은 살아있는 홍채를 정적인 사진이나 홍채의 모델과 구별할 것이어서, 관련 자극을 제공하고 응답을 측정할 수 있는 시스템에서 오류 제시에 대해 방어할 것이다. 자극적인 광은 어떤 사용자에게 눈에 거슬리는 것으로 간주된다. 또한, 동공 크기 측정 시스템은 작동하기 위해 추가 시간을 필요로 할 수 있어서, 신원 확인을 위한 시간을 늦춘다.
살아있는 바이오메트릭 샘플을 복사본과 구별하기 위한 추가적인 기존 테크닉은, 각막으로부터의 정반사(specular reflection)들을 비교하고, 숨길수 없는 반사의 부재를 검출하거나 스테레오 이미징을 관련시킨다. 또한, 스테레오 이미징 또는 비행시간 깊이 센서는, 평평하거나 구부러진 종이 이미지를 실제 얼굴의 현실적인 3차원 양각(relief)과 구별함에 의해 제시 공격을 표시할 수 있다. 일반적으로, 스테레오 이미징은 스테레오 재구성 알고리즘을 필요로 하여서, 3차원 이미져리를 생성하여 제시된 얼굴을 분석한다. 새로운 스푸핑 방지 기술이 개발됨에 따라, 공격자는 이들 새로운 스푸핑 방지 대책을 무력화시킬 수 있는 복사본을 만들려고 시도한다.
그러므로, 거래의 보안성을 보장하고 제시 공격을 좀 더 어렵게 하는, 스푸핑 방지를 포함하는 개선된 바이오메트릭 분석 시스템에 대한 요구가 존재한다. 이들 및 그 밖의 요구들은 본 개시물의 바이오메트릭 분석의 시스템과 방법에 의해 해결된다.
본 개시물의 실시예에 따르면, 하나 이상의 조명 소스, 하나 이상의 카메라, 하나 이상의 프로세싱 모듈 및 하나 이상의 분석 모듈을 포함하는 예시적인 바이오메트릭 분석 시스템이 제공된다. 조명 소스는 대상의 홍채의 적어도 일부 및 대상의 눈 주변, 눈 영역 및/또는 얼굴의 적어도 일부를 조명하도록 구성될 수 있다. 일 실시예에서, 조명 소스는 주변 광일 수 있다. 카메라는 조명 소스로 대상을 조명하는 동안에, 대상의 하나 이상의 이미지를 캡쳐하도록 구성될 수 있다. 하나 이상의 이미지는 홍채 및 눈 영역 주변과 얼굴의 일부로부터 반사된 광을 디스플레이할 수 있다. 분석 모듈은 하나 이상의 이미지를 입력으로서 수신하고, 하나 이상의 이미지 내의 반사된 광을 분석하고, 하나 이상의 이미지 내의 반사된 광에 기초하여, 이미지가 일반적으로 3차원 해부학적 특징을 가지는 살아 있는 대상과 일치하는지를 표시하도록 구성될 수 있다. 분석 모듈은 대상이 살아있는 대상이고 복사본이 아니라는 전반적인 확신을 보고하기 위해, 프로세싱 모듈과 함께 복수의 살아있음 테스트의 결과를 조합하는 작업을 할 수 있다. 일 실시예에서, 제1 분석 모듈은 카메라로부터 이미지를 수신하고, 눈만 디스플레이하기 위해 이미지를 잘라내고, 잘라낸 이미지를 프로세싱을 위한 제2 분석 모듈로 전송할 수 있다.
조명 소스는 근적외선 조명 소스일 수 있다. 대상의 눈 영역 주변과 얼굴의 일부에 대한 조명은 조명의 패턴을 생성할 수 있다. 분석 모듈은 대상의 조명 분포의 균일한 패턴의 검출에 기초하여, 대상의 3차원성의 결핍(lack)에 기초하여 복사본을 표시하도록 구성될 수 있다. 특히, 분석 모듈은, 3차원성의 결핍은 살아있는 대상을 나타내지 않고, 복사본 이미지를 나타내는지를 결정하도록 구성될 수 있다. 분석 모듈은 살아있는 대상의 얼굴에 대응되는 대상의 조명 분포의 불균일한 패턴에 기초하여, 대상의 3차원성을 결정하도록 구성될 수 있다.
일부 실시예에서, 조명 소스는 대상의 눈 구멍의 측면 에지(temporal edge) 주위의 3차원적인 양각을 조명하도록 구성될 수 있다. 카메라는 대상의 눈 구멍의 측면 에지의 하나 이상의 이미지를 캡쳐하도록 구성될 수 있다. 분석 모듈은 대상의 눈 구멍의 측면 에지의 반사된 광을 분석하도록 구성될 수 있다.
일부 실시예에서, 조명 소스는 대상의 홍채 및 대상의 눈 영역 주변과 얼굴의 일부를 조명하기 위한 정적인 광을 발산하도록 구성될 수 있다. 정적인 광은 실질적으로 균일한 레벨의 조명일 수 있다. 일부 실시예에서, 조명 소스는 대상의 홍채 및 대상의 눈 영역 주변과 얼굴의 일부를 조명하기 위한 동적인 광을 발산하도록 구성될 수 있다. 동적인 광을 발산하는 것은 조명 소스로 제1 조명 레벨을 발산하는 것 및 이후에 조명 소스로 제2 조명 레벨을 발산하는 것을 포함할 수 있다. 일부 실시예에서, 제2 조명 레벨은 제1 조명 레벨보다 밝거나 크다. 일부 실시예에서, 제2 조명 레벨은 제1 조명 레벨보다 어둡거나 작다.
카메라는 제1 조명 레벨에서 대상을 조명하는 동안에, 대상의 하나 이상의 이미지를 캡쳐하고, 제2 조명 레벨에서 대상을 조명하는 동안에, 대상의 하나 이상의 이미지를 캡쳐하도록 구성될 수 있다. 분석 모듈은 제1 조명 레벨에서 하나 이상의 이미지 및 제2 조명 레벨에서 하나 이상의 이미지를 입력으로서 수신하고, 하나 이상의 이미지 내의 반사된 광을 분석하고, 대상의 조명 분포의 특징이나 패턴의 변경을 기초로 대상의 3차원성의 결핍을 결정하도록 구성될 수 있다. 바이오메트릭 분석 시스템은, 등록된 대상의 바이오메트릭 매칭을 위해, 등록된 대상의 바이오메트릭 데이터에 대응되는 데이터를 전자적으로 저장하도록 구성된 하나 이상의 데이터베이스를 포함할 수 있다. 특히, 예시적인 바이오메트릭 분석 시스템은 본 명세서에서 논의된 스푸핑 방지 특징에 덧붙여서, 바이오메트릭 매칭을 위해 필요한 구성을 포함할 수 있다.
본 개시물의 실시예에 따르면, 예시적인 바이오메트릭 분석 방법이 제공된다. 본 방법은 바이오메트릭 분석 시스템의 하나 이상의 조명 소스로 대상의 홍채 및 대상의 눈 주변, 눈 영역 및/또는 얼굴의 적어도 일부를 조명하는 단계를 포함한다. 본 방법은 조명 소스로 대상을 조명하는 동안에 바이오메트릭 분석 시스템의 하나 이상의 카메라로 대상의 하나 이상의 이미지를 캡쳐하는 단계를 포함한다. 하나 이상의 이미지는 홍채 및 눈 영역 주변과 얼굴의 일부로부터 반사된 광을 디스플레이할 수 있다. 본 방법은 바이오메트릭 분석 시스템의 분석 모듈에서 하나 이상의 이미지를 입력으로서 수신하는 단계를 포함한다. 본 방법은 바이오메트릭 분석 시스템의 분석 모듈로 하나 이상의 이미지 내의 반사된 광을 분석하는 단계를 포함한다. 본 방법은 바이오메트릭 분석 시스템의 분석 모듈로 대상의 3차원성의 결핍을 결정하는 단계를 포함한다.
본 방법은 대상의 조명 분포의 균일한 패턴의 검출에 기초하여, 분석 모듈로 대상의 3차원성의 결핍을 결정하는 단계를 포함할 수 있다. 본 방법은 3차원성의 결핍이 살아있는 대상을 나타내지 않고, 복사본 이미지를 나타내는지를 결정하는 단계를 포함하여서, 대상의 3차원성의 결핍에 기초하여, 대상을 복사본 이미지로 신빙성을 훼손시킨다. 본 방법은 살아있는 대상의 얼굴에 대응되는 대상의 조명 분포의 불균일한 패턴의 검출에 기초하여, 분속 모듈로 대상의 3차원성을 결정하는 단계를 포함한다.
일부 실시예에서, 본 방법은 조명 소스로 대상의 눈 구멍의 측면 에지 주위의 3차원적인 양각을 조명하는 단계를 포함할 수 있다. 본 방법은 카메라로 대상의 눈 구멍의 측면 에지의 하나 이상의 이미지를 캡쳐하는 단계를 포함할 수 있다. 본 방법은 분석 모듈로 대상의 눈 구멍의 측면 에지의 반사된 광을 분석하는 단계를 포함할 수 있다.
일부 실시예에서, 본 방법은 대상의 홍채 및 대상의 눈 영역 주변과 얼굴의 일부를 조명하기 위해 조명 소스로 정적인 광을 발산하는 단계를 포함할 수 있다. 정적인 광은 실질적으로 균일한 레벨의 조명일 수 있다. 일부 실시예에서, 본 방법은 대상의 홍채 및 대상의 눈 영역 주변과 얼굴의 일부를 조명하기 위해, 조명 소스로 동적인 광을 발산하는 단계를 포함할 수 있다.
일부 실시예에서, 본 방법은 조명 소스로 제1 조명 레벨을 발산하는 단계 및 이후에 조명 소스로 제2 조명 레벨을 발산하는 단계를 포함할 수 있다. 본 방법은 제1 조명 레벨과 제2 조명 레벨 간에 조명 레벨을 점증적으로 변경하는 단계를 포함할 수 있다. 본 방법은 제1 조명 레벨에서 대상을 조명하는 동안에, 카메라로 대상의 하나 이상의 이미지를 캡쳐하는 단계 및 제2 조명 레벨에서 대상을 조명하는 동안에, 대상의 하나 이상의 이미지를 캡쳐하는 단계를 포함할 수 있다. 본 방법은 조명 레벨이 점증적으로 변경됨에 따라, 대상의 이미지의 시퀀스를 캡쳐하는 단계를 포함할 수 있다. 본 방법은 제1 조명 레벨에서의 하나 이상의 이미지 및 제2 조명 레벨에서의 하나 이상의 이미지를 분석 모듈에서 입력으로서 수신하는 단계를 포함할 수 있다. 본 방법은 하나 이상의 이미지 내의 반사된 광을 분석하는 단계를 포함할 수 있다. 본 방법은 대상의 조명 분포의 특징 패턴의 변경을 기초로 대상의 3차원성의 결핍을 결정하는 단계를 포함할 수 있다.
본 개시물의 실시예에 따르면, 바이오메트릭 분석을 위한 명령어를 저장하는 예시적인 비-일시적 컴퓨터-판독가능한 매체가 제공된다. 명령어는 프로세싱 장치에 의해 실행가능할 수 있다. 프로세싱 장치에 의한 명령어의 실행은, 프로세싱 장치로 하여금 바이오메트릭 분석 시스템의 하나 이상의 조명 소스로 대상의 홍채 및 대상의 눈 주변, 눈 영역 및/또는 얼굴의 적어도 일부를 조명하도록 할 수 있다. 프로세싱 장치에 의한 명령어의 실행은, 조명 소스로 대상을 조명하는 동안에, 바이오메트릭 분석 시스템의 하나 이상의 카메라로 대상의 하나 이상의 이미지를 캡쳐하도록 할 수 있다. 하나 이상의 이미지는 홍채 및 눈 영역 주변과 얼굴의 일부로부터 반사된 광을 디스플레이할 수 있다. 프로세싱 장치에 의한 명령어의 실행은, 바이오메트릭 분석 시스템의 분석 모듈에서 하나 이상의 이미지를 입력으로서 수신하도록 할 수 있다. 프로세싱 장치에 의한 명령어의 실행은, 분석 모듈로 하나 이상의 이미지 내의 반사된 광을 분석하도록 할 수 있다. 프로세싱 장치에 의한 명령어의 실행은, 분석 모듈로 대상의 3차원성의 결핍을 결정하도록 할 수 있다.
본 개시물의 실시예에 따르면, 하나 이상의 조명 소스, 하나 이상의 카메라, 하나 이상의 프로세싱 모듈 및 하나 이상의 분석 모듈을 포함하는 예시적인 바이오메트릭 분석 시스템이 제공된다. 조명 소스는 대상의 망막 반사를 생성하기 위해 대상의 홍채를 조명하도록 구성될 수 있다. 카메라는 조명 소스로 대상을 조명하는 동안에, 대상의 하나 이상의 이미지를 캡쳐하도록 구성될 수 있다. 하나 이상의 이미지는 대상의 망막 반사를 디스플레이한다. 분석 모듈은 하나 이상의 이미지를 입력으로서 수신하고, 하나 이상의 이미지 내의 망막 반사를 분석하고 망막 반사가 망막의 자연 반사율을 나타내는지를 결정하도록 구성될 수 있다.
분석 모듈은 망막의 자연 반사율의 결핍이 살아있는 대상을 나타내지 않고, 복사본 이미지를 나타내는지를 결정하도록 구성될 수 있어서, 망막의 자연 반사율의 결핍에 기초하여, 대상을 복사본 이미지로 신빙성을 훼손시킨다. 카메라는 렌즈를 포함하고, 조명 소스는, 조명 소스가 대상의 망막 반사를 생성할 가능성을 증가시키기 위해, 렌즈에 충분히 또는 실질적으로 인접한 위치에 배치될 수 있다. 일부 실시예에서, 조명 소스는 적외선 스펙트럼 내의 망막 반사를 생성하기 위해 적외선 광을 발산할 수 있다. 일부 실시예에서, 조명 소스는 연속적으로 발산되는 광으로 대상의 홍채를 조명하도록 구성될 수 있다. 일부 실시예에서, 조명 소스는 플래싱 발산되는 광으로 대상의 홍채를 조명하도록 구성될 수 있다. 조명 소스는 플래싱으로 발산되는 광의 플래시들 간의 간격을 가변하도록 구성될 수 있다. 조명 소스는 각각의 플래시의 구간 및/또는 각각의 플래시의 세기를 가변하도록 구성될 수 있다. 조명 소스는 각각의 대상에 대해 플래싱으로 발산되는 광의 플래시의 수를 가변하도록 구성될 수 있다.
본 개시물의 실시예에 따르면, 예시적인 바이오메트릭 분석 방법이 제공된다. 본 방법은 대상의 망막 반사를 생성하기 위해 바이오메트릭 분석 시스템의 하나 이상의 조명 소스로 대상의 홍채를 조명하는 단계를 포함한다. 본 방법은 조명 소스로 대상을 조명하는 동안에 바이오메트릭 분석 시스템의 하나 이상의 카메라로 대상의 하나 이상의 이미지를 캡쳐하는 단계를 포함한다. 하나 이상의 이미지는 대상의 망막 반사를 디스플레이할 수 있다. 본 방법은 바이오메트릭 분석 시스템의 분석 모듈에서 하나 이상의 이미지를 입력으로서 수신하는 단계를 포함한다. 본 방법은 바이오메트릭 분석 시스템의 분석 모듈로 하나 이상의 이미지 내의 망막 반사를 분석하는 단계를 포함한다. 본 방법은 바이오메트릭 분석 시스템의 분석 모듈로 망막 반사가 망막의 자연 반사율을 나타내는지를 결정하는 단계를 포함한다.
본 방법은 망막의 자연 반사율의 결핍에 기초하여, 대상을 복사본 이미지로 신빙성을 훼손시키는 단계를 포함한다. 본 방법은 적외선 스펙트럼 내의 망막 반사를 생성하기 위해 조명 소스로 적외선 광을 발산하는 단계를 포함한다. 일부 실시예에서, 본 방법은 조명 소스로부터 발산된 연속적인 광으로 대상의 홍채를 조명하는 단계를 포함할 수 있다. 일부 실시예에서, 본 방법은 조명 소스로부터 발산된 플래싱 광으로 대상의 홍채를 조명하는 단계를 포함할 수 있다. 본 방법은 조명 소스로부터 발산된 플래싱 광의 플래시들 간의 시간의 간격은 물론 플래시의 구간 및/또는 세기를 가변시키는 단계를 포함할 수 있다. 본 방법은 각각의 대상에 대해 조명 소스로부터 발산되는 플래싱 광의 플래시의 수를 가변시키는 단계를 포함할 수 있다.
본 개시물의 실시예에 따르면, 바이오메트릭 분석을 위한 명령어를 저장하는 예시적인 비-일시적 컴퓨터-판독가능한 매체가 제공된다. 명령어는 프로세싱 장치에 의해 실행가능할 수 있다. 프로세싱 장치에 의한 명령어의 실행은 프로세싱 장치로 하여금 바이오메트릭 분석 시스템의 하나 이상의 조명 소스로 대상의 망막 반사를 생성하기 위해 대상의 홍채를 조명하도록 할 수 있다. 프로세싱 장치에 의한 명령어의 실행은, 조명 소스로 대상을 조명하는 동안에, 프로세싱 장치로 하여금 바이오메트릭 분석 시스템의 하나 이상의 카메라로 대상의 하나 이상의 이미지를 캡쳐하도록 한다. 하나 이상의 이미지는 망막 반사를 디스플레이할 수 있다. 프로세싱 장치에 의한 명령어의 실행은 프로세싱 장치로 하여금 바이오메트릭 분석 시스템의 분석 모듈에서 하나 이상의 이미지를 입력으로서 수신할 수 있도록 한다. 프로세싱 장치에 의한 명령어의 실행은 프로세싱 장치로 하여금 바이오메트릭 분석 시스템의 분석 모듈로 하나 이상의 이미지 내의 망막 반사를 분석하도록 할 수 있다. 프로세싱 장치에 의한 명령어의 실행은 프로세싱 장치로 하여금 바이오메트릭 분석 시스템의 분석 모듈로 망막 반사가 망막의 자연 반사율을 나타내는지를 결정하도록 할 수 있다.
본 개시물의 실시예에 따르면, 하나 이상의 제1 조명 소스, 하나 이상의 제2 조명 소스, 하나 이상의 카메라, 하나 이상의 프로세싱 장치 및 하나 이상의 분석 모듈을 포함하는 예시적인 바이오메트릭 분석 시스템이 제공된다. 제1 조명 소스는 대상의 홍채를 조명하도록 구성될 수 있다. 제2 조명 소스는 대상의 얼굴의 적어도 일부를 조명하기 위해 가시광을 발산하도록 구성될 수 있다. 조명 소스 중 하나 또는 둘 모두는 시스템에 의해 생성되거나, 시스템이 사용되는 환경에서의 주변일 수 있다. 카메라는 제1 조명 소스와 제2 조명 소스로 대상을 조명하는 동안에, 대상의 하나 이상의 이미지를 캡쳐하도록 구성될 수 있다. 분석 모듈은 하나 이상의 이미지를 입력으로서 수신하고, 제1 조명 소스로 대상을 조명하는 동안에 캡쳐된 대상의 하나 이상의 이미지에 기초하여 홍채 조직을 결정하고, 제2 조명 소스로 대상을 조명하는 동안에 대상의 하나 이상의 이미지에 기초하여 대상의 얼굴의 일부의 컬러 스펙트럼을 결정하고, 제2 조명 소스로 대상을 조명하는 동안에 캡쳐된 대상의 하나 이상의 이미지 내의 대상의 얼굴의 일부가 단색 섹션을 포함하는지(단색 섹션은 단색 또는 색의 좁은 밴드를 가진 컬러 팔레트를 가진 이미지를 말함)를 결정하도록 구성될 수 있다.
카메라는, 제1 조명 소스와 제2 조명 소스로 대상을 조명하는 동안에, 대상의 하나 이상의 이미지를 효과적으로 동시에 캡쳐하도록 구성될 수 있다. 제1 조명 소스는 근적외선 광을 발산하도록 구성될 수 있다. 제1 조명 소스로 대상을 조명하는 동안에 캡쳐된 대상의 하나 이상의 이미지는 단색 이미지일 수 있다. 제2 조명 소스로 대상을 조명하는 동안에 캡쳐된 대상의 하나 이상의 이미지는 컬러 이미지일 수 있다. 분석 모듈이 제2 조명 소스로 대상을 조명하는 동안, 대상의 하나 이상의 이미지에 기초하여, 대상의 얼굴의 일부의 단색 섹션을 검출한다면, 분석 모듈은 단색 섹션이 살아있는 대상이라기 보다는 부자연스럽고, 복사본 이미지를 나타내는 것으로 결정할 수 있다.
본 개시물의 실시예에 따르면, 예시적인 바이오메트릭 분석 방법이 제공된다. 본 방법은 바이오메트릭 분석 시스템의 하나 이상의 제1 조명 소스로 대상의 홍채를 조명하는 단계를 포함한다. 본 방법은 바이오메트릭 분석 시스템의 하나 이상의 제2 조명 소스로부터 발산된 가시광으로 대상의 얼굴의 적어도 일부를 조명하는 단계를 포함한다. 본 방법은 제1 조명 소스와 제2 조명 소스로 대상을 조명하는 동안에 바이오메트릭 분석 시스템의 하나 이상의 카메라로 대상의 하나 이상의 이미지를 캡쳐하는 단계를 포함한다. 본 방법은 바이오메트릭 분석 시스템의 분석 모듈에서 하나 이상의 이미지를 입력으로서 수신하는 단계를 포함한다. 본 방법은 제1 조명 소스로 대상을 조명하는 동안에 대상의 하나 이상의 이미지에 기초하여 바이오메트릭 분석 시스템의 분석 모듈로 홍채 조직을 결정하는 단계를 포함한다. 본 방법은 제2 조명 소스로 대상을 조명하는 동안에 캡쳐된 대상의 하나 이상의 이미지에 기초하여 바이오메트릭 분석 시스템의 분석 모듈로 대상의 얼굴의 일부의 컬러 스펙트럼을 결정하는 단계를 포함한다. 본 방법은 제2 조명 소스로 대상을 조명하는 동안에 캡쳐된 대상의 하나 이상의 이미지 내의 대상의 얼굴의 일부가 단색 섹션을 포함하는지를 분석 모듈로 결정하는 단계를 포함한다.
본 방법은 제1 조명 소스와 제2 조명 소스로 대상을 조명하는 동안에, 하나 이상의 카메라로 대상의 하나 이상의 이미지를 효과적으로 동시에 캡쳐하는 단계를 포함할 수 있다. 본 방법은 단색 섹션이 살아있는 대상을 나타내지 않고 복사본 이미지를 나타내는 것으로 결정하는 단계를 포함하여서, 제2 조명 소스로 대상을 조명하는 동안에, 대상의 하나 이상의 이미지에 기초하여, 분석 모듈이 대상의 얼굴의 일부의 단색 섹션을 검출한다면, 대상을 복사본 이미지로 신빙성을 훼손시킨다.
본 개시물의 실시예에 따르면, 바이오메트릭 분석을 위한 명령어를 저장하는 예시적인 비-일시적 컴퓨터-판독가능한 매체가 제공된다. 명령어는 프로세싱 장치에 의해 실행가능할 수 있다. 프로세스 장치에 의한 명령어의 실행은 프로세싱 장치로 하여금, 바이오메트릭 분석 시스템의 하나 이상의 제1 조명 소스로 대상의 홍채를 조명하도록 할 수 있다. 프로세스 장치에 의한 명령어의 실행은 프로세싱 장치로 하여금, 바이오메트릭 분석 시스템의 하나 이상의 제2 조명 소스로부터 발산된 가시광으로 대상의 얼굴의 적어도 일부를 조명하도록 할 수 있다. 프로세스 장치에 의한 명령어의 실행은 프로세싱 장치로 하여금, 제1 조명 소스와 제2 조명 소스로 대상을 조명하는 동안에, 바이오메트릭 분석 시스템의 하나 이상의 카메라로 대상의 하나 이상의 이미지를 캡쳐하도록 할 수 있다. 프로세스 장치에 의한 명령어의 실행은 프로세싱 장치로 하여금, 바이오메트릭 분석 시스템의 분석 모듈에서 하나 이상의 이미지를 입력으로서 수신하도록 할 수 있다. 프로세스 장치에 의한 명령어의 실행은 프로세싱 장치로 하여금, 제1 조명 소스로 대상을 조명하는 동안에 대상의 하나 이상의 이미지에 기초하여 바이오메트릭 분석 시스템의 분석 모듈로 홍채 조직을 결정하도록 할 수 있다. 프로세스 장치에 의한 명령어의 실행은 프로세싱 장치로 하여금, 제2 조명 소스로 대상을 조명하는 동안에 대상의 하나 이상의 이미지에 기초하여 바이오메트릭 분석 시스템의 분석 모듈로 대상의 얼굴의 일부의 컬러 스펙트럼을 결정하도록 할 수 있다. 프로세스 장치에 의한 명령어의 실행은 프로세싱 장치로 하여금, 제2 조명 소스로 대상을 조명하는 동안에 캡쳐된 대상의 하나 이상의 이미지 내의 대상의 얼굴의 일부가 단색 섹션을 포함하는지를 분석 모듈로 결정하도록 할 수 있다.
본 개시물의 실시예에 따르면, 하나 이상의 카메라 및 분석 모듈을 포함하는 예시적인 바이오메트릭 분석 시스템이 제공된다. 카메라는 렌즈(가령, 가동식 렌즈)를 포함할 수 있고, 대상의 얼굴에 대한 제1 점으로부터 대상의 얼굴을 지나서 대상의 얼굴에 대한 제2 점까지, 렌즈가 초점 평면을 점증적으로 이동함에 따라, 카메라는 대상의 얼굴의 이미지의 시퀀스를 캡쳐하도록 구성될 수 있다. 카메라는 충분히 좁은 피사계 심도(depth of field)(가령, 이미지가 캡쳐된 이후에 프로세싱을 사용하여 가동식 렌즈 없이 초점을 맞추는 위상-스타일 카메라)를 가지고 복수의 거리에서 초점화할 수 있는 임의의 기술을 가질 수 있다. 분석 모듈은 이미지의 시퀀스를 입력으로서 수신하고, 윤곽의 선명도에 대해 이미지의 시퀀스의 각각의 이미지의 영역을 분석하고, 각각의 이미지의 윤곽이 살아있는 대상의 윤곽에 대응되는지를 결정하도록 구성될 수 있다. 특히, 분석 모듈은 이미지의 시퀀스의 하나 이상의 이미지 내의 윤곽이 살아있는 대상의 윤곽에 대응되는 폐쇄된 윤곽을 형성하는지를 결정하도록 구성될 수 있다.
바이오메트릭 분석 시스템은 대상의 얼굴의 적어도 일부를 조명하도록 구성된 하나 이상의 조명 소스를 포함할 수 있다. 대상의 얼굴에 대한 제1 점은 대상의 얼굴의 뒤에 있일 수 있다. 대상의 얼굴에 대한 제2 점은 대상의 얼굴의 앞에 있을 수 있거나, 이와 반대일 수 있다. 이미지의 시퀀스는 대상의 얼굴의 지형학적인 지도를 형성할 수 있다. 지형학적인 지도는 살아있는 대상의 윤곽에 대응되는 실질적으로 자연스러운 곡선 표면을 형성할 수 있다. 분석 모듈이 이미지의 시퀀스의 하나 이상의 이미지 내에서 살아있는 대상의 일반적인 폐쇄된 윤곽을 검출하면, 분석 모듈은 폐쇄된 윤곽이 살아있는 대상을 나타낸다고 결정할 수 있어서, 대상을 살아있는 대상으로 식별한다. 분석 모듈이 평평하거나 단순히 곡선형인 인쇄된 이미지의 일반적인 폐쇄되지 않은 윤곽을 가지고 일정한 초점의 실질적인 직선을 검출하면, 분석 모듈은 실질적인 직선은 복사본 이미지를 나타내는 것으로 결정할 수 있어서, 대상을 살아있는 대상을 나타내지 않는 것으로 식별하여서, 대상을 복사본 이미지로 신빙성을 훼손시킨다.
일부 실시예에서, 바이오메트릭 분석 시스템은 활동적인 대상 응답 모듈을 포함할 수 있다. 활동적인 대상 응답 모듈은 대상의 깜빡임을 검출하도록 구성된 깜빡임 검출 시스템을 포함할 수 있다. 활동적인 대상 응답 모듈은 대상의 눈짓 변화를 검출하도록 구성된 눈짓 검출 시스템을 포함할 수 있다. 일부 실시예에서, 활동적인 대상 응답 모듈은 깜빡임 검출 시스템과 눈짓 검출 시스템 모두를 포함할 수 있다.
본 개시물의 실시예에 따르면, 예시적인 바이오메트릭 분석 방법이 제공된다. 본 방법은 대상의 얼굴에 대한 제1 점으로부터 대상의 얼굴을 지나서 대상의 얼굴에 대한 제2 점까지, 초점 평면을 점증적으로 이동하기 위해 바이오메트릭 분석 시스템의 하나 이상의 카메라의 가동식 렌즈를 이동시키는 단계를 포함한다. 본 방법은 렌즈를 점증적으로 이동시키는 동안에, 카메라로 대상의 얼굴의 이미지의 시퀀스를 캡쳐하는 단계를 포함한다. 본 방법은 바이오메트릭 분석 시스템의 분석 모듈에서 이미지의 시퀀스를 입력으로서 수신하는 단계를 포함한다. 본 방법은 윤곽의 선명도에 대해 바이오메트릭 분석 시스템의 분석 모듈로 이미지의 시퀀스의 각각의 이미지의 영역을 분석하는 단계를 포함한다. 본 방법은 바이오메트릭 분석 시스템의 분석 모듈로 각각의 이미지의 윤곽이 살아있는 대상의 윤곽에 대응되는지를 결정하는 단계를 포함한다. 본 방법은 이미지의 시퀀스의 하나 이상의 이미지 내의 윤곽이 살아있는 대상의 윤곽에 대응되는 폐쇄된 윤곽을 형성하는지를 분석 모듈로 결정하는 단계를 포함한다.
본 방법은 하나 이상의 조명 소스로 대상의 얼굴의 적어도 일부를 조명하는 단계를 포함할 수 있다. 대상의 얼굴에 대한 제1 점은 대상의 얼굴의 뒤에 있을 수 있다. 대상의 얼굴에 대한 제2 점은 대상의 얼굴의 앞에 있을 수 있다. 본 방법은 이미지의 시퀀스로 대상의 얼굴의 지형학적인 지도를 형성하는 단계를 포함할 수 있다. 일부 실시예에서, 본 방법은 바이오메트릭 분석 시스템의 활동적인 대상 응답 모듈로 대상의 깜빡임을 검출하는 단계를 포함할 수 있다. 일부 실시예에서, 본 방법은 바이오메트릭 분석 시스템의 활동적인 응답 모듈로 대상의 눈짓 변화를 검출하는 단계를 포함할 수 있다.
본 개시물의 실시예에 따르면, 바이오메트릭 분석을 위한 명령어를 저장하는 예시적인 비-일시적 컴퓨터-판독가능한 매체가 제공된다. 명령어는 프로세싱 장치에 의해 실행가능할 수 있다. 프로세싱 장치에 의한 명령어의 실행은 프로세싱 장치로 하여금, 대상의 얼굴에 대한 제1 점으로부터 대상의 얼굴을 지나서 대상의 얼굴에 대한 제2 점까지, 초점 평면을 점증적으로 이동하기 위해 바이오메트릭 분석 시스템의 하나 이상의 카메라의 가동식 렌즈(가령, 가동식 렌즈)를 이동시키도록 할 수 있다. 프로세싱 장치에 의한 명령어의 실행은 프로세싱 장치로 하여금, 렌즈를 점증적으로 이동시키는 동안에, 카메라로 대상의 얼굴의 이미지의 시퀀스를 캡쳐하도록 할 수 있다. 프로세싱 장치에 의한 명령어의 실행은 프로세싱 장치로 하여금, 바이오메트릭 분석 시스템의 분석 모듈에서 이미지의 시퀀스를 입력으로서 수신하도록 할 수 있다. 프로세싱 장치에 의한 명령어의 실행은 프로세싱 장치로 하여금, 윤곽의 선명도에 대해 바이오메트릭 분석 시스템의 분석 모듈로 이미지의 시퀀스의 각각의 이미지의 영역을 분석하도록 할 수 있다. 프로세싱 장치에 의한 명령어의 실행은 프로세싱 장치로 하여금, 각각의 이미지의 윤곽이 살아있는 대상의 윤곽에 대응되는지를 결정하도록 할 수 있다. 특히, 프로세싱 장치에 의한 명령어의 실행은 프로세싱 장치로 하여금, 이미지의 시퀀스의 하나 이상의 이미지 내의 윤곽이 살아있는 대상의 윤곽에 대응되는 폐쇄된 윤곽을 형성하는지를 분석 모듈로 결정하도록 할 수 있다.
본 개시물의 실시예에 따르면, 하나 이상의 조명 소스, 하나 이상의 스펙트럴 판별기, 하나 이상의 카메라, 하나 이상의 프로세싱 장치 및 하나 이상의 분석 모듈을 포함하는 예시적인 바이오메트릭 분석 시스템이 제공된다. 조명 소스는 대상의 홍채를 조명하도록 구성될 수 있다. 스펙트럴 판별기는 제1 세트의 통과 특징을 가진 제1 광학 필터 및 제2 세트의 통과 특징을 가진 제2 광학 필터를 포함할 수 있다. 일부 실시예에서, 다양한 파장 밴드패스 값을 가진 복수의 필터가 독립적인 채널을 가진 각각의 필터로 사용될 수 있다(가령, 근적외선, 빨간색, 녹색, 파란색, 대안적인 IR 스펙트라, 대안적인 UV 스펙트라 등). 스펙트럴 판별기는 제1 광학 필터와 제2 광학 필터를 통해 홍채로부터 산란된 광을 선택적으로 수신하도록 구성될 수 있다. 카메라는 제1 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에 대상의 하나 이상의 이미지를 캡쳐하도록 구성되고, 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에 대상의 하나 이상의 이미지를 캡쳐하도록 구성될 수 있다. 분석 모듈은 제1 광학 필터와 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 대상의 캡쳐된 하나 이상의 이미지를 입력으로서 수신하도록 구성될 수 있다. 분석 모듈은 제1 광학 필터와 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 대상의 하나 이상의 이미지 내에 디스플레이된 홍채 구조 정보 간에 매칭(match)이 존재하는지를 결정하도록 구성될 수 있고, 미리정한 품질의 매칭의 존재는 복사본 이미지를나타낸다. 실시예에서, 시스템은 분석 모듈에서 논리를 적용하기 전에, 대상의 눈(들)의 컬러를 초기에 검출할 수 있다.
조명 소스는 근적외선 광을 발산할 수 있다. 제1 광학 필터의 제1 세트의 통과 특징은 사람 눈에 보이는 광만 통과하도록 할 수 있다. 일부 실시예에서, 사람 눈에 보이는 광은 약 380 nm 내지 약 780 nm의 파장 범위에 있을 수 있다. 제2 광학 필터의 제2 세트의 통과 특징은 근적외선 광만 통과하도록 할 수 있다. 일부 실시예에서, 근적외선 광은 약 30 nm 밴드의 파장 범위, 약 850 nm의 범위의 파장에 있을 수 있다. 일부 실시예에서, 제1 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 대상의 캡쳐된 하나 이상의 이미지는 빨간색-녹색-파란색 이미지(가령, 컬러 이미지)일 수 있다. 일부 실시예에서, 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 대상의 캡쳐된 하나 이상의 이미지는 홍채에 대한 구조 정보를 포함하는 근적외선 이미지일 수 있다.
일부 실시예에서, 카메라는 제1 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에 빠르고 연속으로 대상의 이미지의 시퀀스를 캡쳐하고, 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에 빠르고 연속으로 대상의 이미지의 시퀀스를 캡쳐하도록 구성될 수 있다. 제1 광학 필터와 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 대상의 하나 이상의 이미지 내에 디스플레이된 홍채 구조 정보 간에 매칭이 존재한다면, 분석 모듈은 매칭이 살아있는 대상을 나타내지 않는다고 결정하여서, 대상을 복사본 이미지로 신빙성을 훼손시킨다. 제1 광학 필터와 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 대상의 하나 이상의 이미지 내에 디스플레이된 홍채 구조 정보 간에 매칭이 존재하지 않으면, 분석 모듈은 매칭의 결핍이 살아있는 대상을 나타낸다고 결정하여서, 대상을 살아있는 대상으로 식별한다.
일부 실시예에서, 카메라는 대상의 홍채 주변 영역의 하나 이상의 이미지를 캡쳐하도록 구성될 수 있다. 분석 모듈은 대상의 홍채 주변 영역의 하나 이상의 이미지를 입력으로서 수신하고, 하나 이상의 이미지의 적어도 하나의 일부가 단색인지를 결정하도록 구성될 수 있다. 분석 모듈은 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 대상의 하나 이상의 이미지를 입력으로서 수신하도록 구성되고, 하나 이상의 이미지 내에 디스플레이된 각막 반사 구조를 분석하도록 구성될 수 있다.
일부 실시예에서, 바이오메트릭 분석 시스템은 분석 시스템의 스펙트럴 테스트와 함께, 대상의 동공의 수축을 자극하기 위해 대상의 눈 영역을 조명하도록 구성된 하나 이상의 제2 가시적 조명 소스를 포함할 수 있다. 카메라는 대상의 동공의 수축 동안에, 대상의 이미지의 시퀀스를 캡쳐하도록 구성될 수 있다. 분석 모듈은 대상의 동공의 수축 동안에, 대상의 이미지의 시퀀스를 입력으로서 수신하도록 구성될 수 있다. 분석 모듈은 대상의 살아있음의 표시를 결정하기 위해, 수축 전과 수축 동안의 동공의 지름을 측정하도록 구성될 수 있다.
본 개시물의 실시예에 따르면, 예시적인 바이오메트릭 분석 방법이 제공된다. 본 방법은 바이오메트릭 분석 시스템의 하나 이상의 조명 소스로 대상의 홍채를 조명하는 단계를 포함한다. 본 방법은 바이오메트릭 분석 시스템의 스펙트럴 판별기의 제1 광학 필터와 제2 광학 필터를 통해 홍채로부터 산란된 광을 선택적으로 수신하는 단계를 포함한다. 제1 광학 필터는 제1 세트의 통과 특징을 가지고, 제2 광학 필터는 제2 세트의 통과 특징을 가질 수 있다. 본 방법은 제1 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 바이오메트릭 분석 시스템의 하나 이상의 카메라로 대상의 하나 이상의 이미지를 캡쳐하는 단계를 포함한다. 본 방법은 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 바이오메트릭 분석 시스템의 카메라로 대상의 하나 이상의 이미지를 캡쳐하는 단계를 포함한다. 본 방법은 제1 광학 필터와 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 바이오메트릭 분석 시스템의 분석 모듈에서 대상의 캡쳐된 하나 이상의 이미지를 입력으로서 수신하는 단계를 포함한다. 본 방법은 제1 광학 필터와 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 대상의 하나 이상의 이미지 내에 디스플레이된 홍채 구조 정보 간에 매칭이 존재하는지를 바이오메트릭 분석 시스템의 분석 모듈로 결정하는 단계를 포함하고, 매칭의 존재는 복사본 이미지를 나타낸다.
본 방법은 제1 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에 빠르고 연속으로 대상의 이미지의 시퀀스를 캡쳐하는 단계 및 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에 빠르고 연속으로 대상의 이미지의 시퀀스를 캡쳐하는 단계를 포함할 수 있다. 본 방법은 카메라로 대상의 홍채 주변 영역의 하나 이상의 이미지를 캡쳐하는 단계를 포함할 수 있다. 본 방법은 대상의 홍채 주변 영역의 하나 이상의 이미지를 분석 모듈에서 입력으로 수신하는 단계 및 하나 이상의 이미지의 적어도 하나의 일부가 단색인지를 분석 모듈로 결정하는 단계를 포함할 수 있다.
본 방법은 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 대상의 하나 이상의 이미지를 분석 모듈에서 입력으로서 수신하는 단계 및 분석 모듈로 하나 이상의 이미지 내에 디스플레이된 각막 반사 구조를 분석하는 단계를 포함할 수 있다. 본 방법은 대상의 동공의 수축을 유발시키기 위해, 제2 조명 소스로 대상의 각막 영역을 조명하는 단계를 포함할 수 있다. 본 방법은 대상의 동공의 수축 동안에, 카메라로 대상의 이미지의 시퀀스를 캡쳐하는 단계를 포함할 수 있다. 본 방법은 대상의 동공의 수축 동안에, 대상의 이미지의 시퀀스를 분석 모듈에서 입력으로서 수신하는 단계 및 분석 시스템의 스펙트럴 분석과 함께, 대상의 살아있음의 표시를 결정하기 위해, 분석 모듈로 수축 전과 수축 동안의 동공의 지름을 측정하는 단계를 포함할 수 있다.
본 개시물의 실시예에 따르면, 바이오메트릭 분석을 위한 명령어를 저장하는 예시적인 비-일시적 컴퓨터-판독가능한 매체가 제공된다. 명령어는 프로세싱 장치에 의해 실행가능할 수 있다. 프로세싱 장치에 의한 명령어의 실행은 프로세싱 장치로 하여금, 바이오메트릭 분석 시스템의 조명 소스로 대상의 홍채를 조명할 수 있도록 한다. 프로세싱 장치에 의한 명령어의 실행은 프로세싱 장치로 하여금, 바이오메트릭 분석 시스템의 스펙트럴 판별기의 제1 광학 필터와 제2 광학 필터를 통해 홍채로부터 산란된 광을 선택적으로 수신할 수 있도록 한다. 제1 광학 필터는 제1 세트의 통과 특징을 가지고, 제2 광학 필터는 제2 세트의 통과 특징을 가질수 있다. 프로세싱 장치에 의한 명령어의 실행은 프로세싱 장치로 하여금, 제1 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 바이오메트릭 분석 시스템의 카메라로 대상의 하나 이상의 이미지를 캡쳐하도록 할 수 있다. 프로세싱 장치에 의한 명령어의 실행은 프로세싱 장치로 하여금, 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 바이오메트릭 분석 시스템의 카메라로 대상의 하나 이상의 이미지를 캡쳐하도록 할 수 있다. 프로세싱 장치에 의한 명령어의 실행은 프로세싱 장치로 하여금, 제1 광학 필터와 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 바이오메트릭 분석 시스템의 분석 모듈에서 대상의 캡쳐된 하나 이상의 이미지를 입력으로서 수신하도록 할 수 있다. 프로세싱 장치에 의한 명령어의 실행은 프로세싱 장치로 하여금, 제1 광학 필터와 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 대상의 하나 이상의 이미지 내에 디스플레이된 홍채 구조 정보 간에 매칭이 존재하는지를 결정하도록 할 수 있고, 매칭의 존재는 복사본 이미지를 나타낸다.
본 개시물의 실시예에 따르면, 하나 이상의 조명 소스, 하나 이상의 카메라, 하나 이상의 프로세싱 장치 및 하나 이상의 분석 모듈을 포함하는 예시적인 바이오메트릭 분석 시스템이 제공된다. 조명 소스는 대상의 눈을 조명하도록 구성될 수 있다. 카메라는 제1 조명 소스로 눈을 조명하는 동안에, 대상의 눈의 하나 이상의 이미지를 캡쳐하도록 구성될 수 있다. 하나 이상의 이미지는 눈의 반사 특징을 디스플레이할 수 있다. 분석 모듈은 하나 이상의 이미지를 입력으로서 수신하고, 눈의 반사 특징의 밝기와 균일성을 분석하고, 눈의 반사가 살아있는 대상의 눈의 전형적인 3차원성과 일치하는 지를 표시하도록 구성될 수 있다.
반사 특징은 대상의 각막 상의 정반사일 수 있다. 눈의 반사 특징이 어둡고 낮은 균일성을 가지면, 분석 모듈은 대상을 복사본 이미지로 신빙성을 훼손시킨다. 눈의 반사 특징이 밝고 균일하면, 분석 모듈은 대상을 살아있는 대상으로 식별할 수 있다. 살아있는 대상은 실질적으로 눈의 반짝이는 각막 표면 때문에, 밝고 균일한 반사 특징을 가질 수 있다. 조명 소스는 근적외선 광을 발산할 수 있다.
본 개시물의 실시예에 따르면, 예시적인 바이오메트릭 분석 방법이 제공된다. 본 방법은 바이오메트릭 분석 시스템의 하나 이상의 조명 소스로 대상의 눈을 조명하는 단계를 포함한다. 본 방법은 제1 조명 소스로 눈을 조명하는 동안에, 바이오메트릭 분석 시스템의 하나 이상의 카메라로 대상의 눈의 하나 이상의 이미지를 캡쳐하는 단계를 포함한다. 하나 이상의 이미지는 눈의 반사 특징을 디스플레이할 수 있다. 본 방법은 바이오메트릭 분석 시스템의 분석 모듈에서 하나 이상의 이미지를 입력으로서 수신하는 단계를 포함한다. 본 방법은 분석 모듈로 눈의 반사 특징의 밝기와 균일성을 분석하는 단계를 포함한다. 본 방법은 눈의 반사 특징이 살아있는 대상을 나타내는지를 결정하는 단계를 포함한다. 이러한 결정은, 반사 특징의 반사가 살아있는 대상의 눈의 전형적인 3차원성과 일치하는지에 기초하여 이루어진다.
반사 특징은 대상의 각막의 정반사일 수 있다. 본 방법은 눈의 반사 특징의 어둡고 낮은 균일성은 살아있는 대상을 나타내지 않고, 복사본 이미지를 나타내는 것을 결정하는 단계를 포함할 수 있어서, 눈의 반사 특징이 어둡고 낮은 균일성을 가진다면, 분석 모듈로 대상을 복사본 이미지로 신빙성을 훼손시킨다. 본 방법은 눈의 밝고 균일한 반사 특징이 복사본 이미지를 나타내지 않고 살아있는 대상을 나타내는 것을 결정하는 단계를 포함할 수 있어서, 눈의 반사 특징이 밝고 균일하다면, 분석 모듈로 대상을 살아있는 대상으로 식별한다. 살아있는 대상은 실질적으로 눈의 반짝이는 각막 표면 때문에, 밝고 균일한 반사 특징을 가질 수 있다. 본 방법은 조명 소스로 근적외선 광을 발산하는 단계를 포함할 수 있다.
본 개시물의 실시예에 따르면, 바이오메트릭 분석을 위한 명령어를 저장하는 예시적인 비-일시적 컴퓨터-실행가능한 매체가 제공된다. 명령어는 프로세싱 장치에 의해 실행가능할 수 있다. 프로세싱 장치에 의한 명령어의 실행은 프로세싱 장치로 하여금, 바이오메트릭 분석 시스템의 하나 이상의 조명 소스로 대상의 홍채를 조명하도록 할 수 있다. 프로세싱 장치에 의한 명령어의 실행은 프로세싱 장치로 하여금, 제1 조명 소스로 눈을 조명하는 동안에, 바이오메트릭 분석 시스템의 하나 이상의 카메라로 대상의 눈의 하나 이상의 이미지를 캡쳐하도록 할 수 있다. 하나 이상의 이미지는 눈의 반사 특징을 디스플레이할 수 있다. 프로세싱 장치에 의한 명령어의 실행은 프로세싱 장치로 하여금, 바이오메트릭 분석 시스템의 분석 모듈에서 하나 이상의 이미지를 입력으로서 수신하도록 할 수 있다. 프로세싱 장치에 의한 명령어의 실행은 프로세싱 장치로 하여금, 분석 모듈로 눈의 반사 특징의 밝기와 균일성을 분석하도록 할 수 있다. 프로세싱 장치에 의한 명령어의 실행은 프로세싱 장치로 하여금, 반사 특징에 기초하여 분석 모듈로 눈의 3차원성을 결정하도록 할 수 있다.
그 밖의 다른 목적과 특징은 첨부 도면과 함께 이하의 상세한 설명으로부터 더욱 명백하게 고려될 것이다. 그러나, 도면은 설명으로서만 설계되지, 본 발명의 한계의 정의로서 설계되는 것이 아니라는 점을 이해해야 한다.
기술 분야의 당업자가 바이오메트릭 분석의 개시된 시스템과 방법을 만들고 사용하는 것을 돕기 위해, 첨부 도면이 참조된다.
도 1은 본 개시물에 따른 예시적인 바이오메트릭 분석 시스템의 제1 실시예의 블록도이다.
도 2는 도 1의 바이오메트릭 분석 시스템을 실행하는 예시적 프로세스를 나타내는 순서도이다.
도 3은 본 개시물에 따른 예시적인 바이오메트릭 분석 시스템의 제2 실시예의 블록도이다.
도 4는 도 3의 바이오메트릭 분석 시스템을 실행하는 예시적 프로세스를 나타내는 순서도이다.
도 5는 본 개시물에 따른 예시적인 바이오메트릭 분석 시스템의 제3 실시예의 블록도이다.
도 6은 도 5의 바이오메트릭 분석 시스템을 실행하는 예시적 프로세스를 나타내는 순서도이다.
도 7은 본 개시물에 따른 예시적인 바이오메트릭 분석 시스템의 제4 실시예의 블록도이다.
도 8a-8b는 본 개시물에 따른 복사본 이미지와 살아있는 대상의 도식 뷰이다.
도 9는 도 7의 예시적인 바이오메트릭 분석 시스템의 제4 실시예의 도식 뷰이다.
도 10a-10b는 도 7의 바이오메트릭 분석에 의해 생성된 지형학적인 지도의 도식 뷰이다.
도 11은 도 7의 바이오메트릭 분석 시스템을 실행하는 예시적인 프로세스를 나타내는 순서도이다.
도 12는 본 개시물에 따른 예시적인 바이오메트릭 분석 시스템의 제5 실시예의 블록도이다.
도 13a-13b는 도 12의 바이오메트릭 분석 시스템을 실행하는 예시적인 프로세스를 나타내는 순서도이다.
도 14는 본 개시물에 따른 예시적인 바이오메트릭 분석 시스템의 제6 실시예의 블록도이다.
도 15는 도 14의 바이오메트릭 분석 시스템을 실행하는 예시적인 프로세스를 나타내는 순서도이다.
도 16은 본 개시룸에 따른 예시적인 바이오메트릭 시스템들 중 하나 이상을 실행하기 위한 예시적인 컴퓨팅 장치의 블록도이다.
도 17은 본 개시물에 따른 예시적인 바이오메트릭 분석 시스템 환경의 블록도이다.
본 개시물의 실시예에 따르면, 살아있는 대상과 비교할 때, 복사본 이미지를 검출하고 구별하기 위한 스푸핑 방치 특징을 포함하는 예시적인 바이오메트릭 분석 시스템이 본 명세서에 기술된다. 일반적으로, 바이오메트릭 분석 시스템은 분석 모듈에 의해 분석될 대상의 적어도 일부의 하나 이상의 이미지를 캡쳐하도록 구성된 하나 이상의 카메라를 포함한다. 일반적으로, 바이오메트릭 분석 시스템은 하나 이상의 조명기 또는 조명 소스(가령, 햇빛과 같은 자연스럽게 발생하거나, 사무소 등과 같은 인공적인 주변 소스이거나 시스템의 일부인 인공적인 소스)를 포함한다. 일부 실시예에서, 바이오메트릭 분석 시스템은 대상의 적어도 일부에 자연적인 및/또는 주변 조명을 제공하는 하나 이상의 제1 조명 소스 및 대상의 적어도 일부에 조명(가령, 근적외선)을 제공하는 하나 이상의 제2 조명 소스를 포함한다. 도면에서의 서로 다른 조명 소스를 가지는 것으로 도시되더라도, 각각의 바이오메트릭 분석 시스템의 조명 소스는 정적인 광, 동적인 광, 연속적인 광, 플래싱 광, 이들의 조합 등을 발산할 수 있다는 것을 이해해야 한다. 예를 들어, 조명 소스에 의해 발산된 광의 세기, 구간 및/또는 주기는 각각의 바이오메트릭 분석 시스템에서 가변될 수 있다. 본 명세서에서 사용되는 용어 "이미지"는 정지 프레임 이미지, 비디오, 이들의 조합 등을 포함할 수 있다. 본 명세서에서 사용되는 용어 "복사본 이미지"는 정지 프레임 이미지(평평하거나 곡선형인), 3차원 모델, 이동 모델, 이들의 조합 등을 포함할 수 있다.
바이오메트릭 분석 시스템은 하나 이상의 분석 모듈(가령, 하나 이상의 프로세싱 장치 내로 포함되거나 별도의 구성임) 및 하나 이상의 이미지 내에 나타난 특징을 검출하도록 구성된 하나 이상의 검출기 및/또는 센서를 포함할 수 있다. 본 명세서에 기술된 각각의 바이오메트릭 분석 시스템은, 살아있는 대상이나 복사본 이미지와 일치하는 검출된 특징의 존재 또는 결핍에 기초하여, 캡쳐된 이미지(들)가 살아있는 대상을 나타내는지 또는 나타내지 않는지를 결정할 수 있고, 이러한 결정은 대상이 살아있는 대상인지를 결정하는데 도움을 준다. 예를 들어, 대상의 얼굴이 3차원 형상을 가지고, 그러므로 3차원 형상과 일치하는 어떤 특징을 가져야 한다. 이에 반해, 종이의 평평한 시트상에 인쇄된 복사본 이미지는 일반적으로 3차원 형상 특징이 결핍되고, 살아 있는 대상과 불일치하는 평평한 물체와 일치하는 특징을 나타낼 수 있다.
개개의 바이오메트릭 분석 시스템으로 본 명세서에서 논의되더라도, 개개의 바이오메트릭 분석 시스템의 하나 이상의 구성은 단일 시스템으로 결합되어서 스푸핑 방지 보호의 여러 레벨 및/또는 더 높은 신뢰도 레벨을 가진 결정을 제공할 수 있다는 것을 이해해야 한다. 예를 들어, 개시된 바이오메트릭 분석 시스템(및/또는 대안적인 시스템) 중 둘 이상은 결합되어서, 캡쳐된 이미지(들)가 살아있는 대상을 나타내는지 또는 나타내지 않는지를 결정할 수 있고, 각각의 시스템의 결정은 대상의 살아있음이나 복사본에 관한 최종 결론을 내리는데 가중화된다. 일부 실시예에서, 하나 이상의 센서(가령, 3차원 센서)는, 이미지가 살아있는 대상을 나타내지 않는지 또는 나타내는지에 관하여, 바이오메트릭 분석 시스템의 결정을 확증하는데 사용될 수 있다. 유사한 참조 번호는 서로 다른 바이오메트릭 시스템에서 유사한 구조물을 나타내는데 도면에서 사용될 수 있다.
도 1을 참조하면, 바이오메트릭 분석 시스템(100)(이하, "시스템(100)" 이라고 함)의 제1 실시예의 블록도가 제공된다. 시스템(100)은 대상의 해부학적 구조와 일치하는 조명 레벨을 찾음에 의해 대상의 살아있음을 테스트한다. 예를 들어, 일반적으로 사람 홍채 신원 확인은, 가시광 스펙트럼 내의 광은 흡수하지만 근적외선 스펙트럼은 흡수하지 않는 홍채 색소를 통해 홍채 조직의 시각화를 제공하기 위해 근적외선(NIR) 조명을 사용한다. 대상의 홍채 및 눈 영역 주변 및/또는 얼굴에 가해지는 근적외선 조명은, 홍채뿐만 아니라 피부, 공막, 머리카락 및 대상의 다른 해부학적인 특징으로부터 반사를 야기한다. 이들 반사의 세기는 조명 소스의 세기, 해부학적 표면의 반사율 특징 및 조명 소스, 대상 및 카메라의 상대적 위치에 기초한다.
공막, 피부, 머리카락, 홍채 및 그 밖의 다른 해부학적인 특징 모두는 서로 다른 반사율 특징을 가진다. 예를 들어, 피부 반사율은 일반적으로 홍채 반사율보다 현저히 더 높다(피부 색소를 설명한 이후). 그 결과, 바이오메트릭 분석을 위해 허용가능한 홍채 신호를 획득하기 위해 필요한 더 높은 조명 레벨은 종종 너무 많은 광이 피부로부터의 반사를 야기하기에 충분하고, 이는 캡쳐된 이미지의 나머지 보다 눈 영역 및/또는 얼굴의 영역을 훨씬 더 밝게한다. 더 높은 조명 레벨은 포화점에서, 특히, 카메라로 다시 조명의 최대양을 반사하는 각도로 기울어진 영역에서, 눈 영역 및/또는 얼굴의 영역을 나타내는 이미지를 야기한다.
시스템(100)은 피부 반사와 가령, 종이 스푸프 또는 복사본 이미지로부터의 반사를 구별하기 위해, (색소의 레벨에 무관하게) 피부의 서로 다른 반사율을 사용한다. 피부 반사와 복사본 이미지로부터의 반사 간의 차이는, 얼굴의 3차원성에 기초하여 결정될 수 있다. 특히, 대상의 얼굴의 점의 밝기는 얼굴의 3차원적인 곡선에 의해 영향을 받는다. 가령, 브라우 리지(brow ridge), 광대뼈등과 같이 카메라에 실질적으로 수직인 살아있는 대상의 얼굴의 영역은 광을 직접적으로 카메라에게 다시 반사하고, 피부의 모든 영역이 일반적으로 동일한 색이라는 사실에도 불구하고, 조명 동안에 피부의 다른 영역보다 현저하게 더 밝게 보인다. 예를 들어, 관자놀이 및 뺨의 측면은 각도상 카메라로부터 외면하여서, 캡쳐된 이미지에서 어둡게 보인다.
이에 반해, 종이 상에 인쇄된 얼굴의 사진은 카메라에 대해 대략 동일한 방향으로 배향된 모든 얼굴 특징을 가진 실질적으로 평평한 표면을 나타낸다. 예를 들어, 홍채, 브라우 리지, 광대뼈, 귀 등은 평평한 표면 상에 나타난다. 그러므로, 종이로부터 반사된 광은 나타난 얼굴의 특정 영역으로부터 우선적으로 반사하지 않는다. 이하에 기술될 바와 같이, 시스템(100)은 정적인 조명 또는 변화하는/동적인 조명 레벨로 3차원성의 결핍을 검출하여, 제시된 대상이 살아있는 대상인지 또는 이차원적인 속임수인지를 결정한다.
시스템(100)은 제시된 대상의 홍채의 적어도 일부를 조명하도록 구성된 하나 이상의 조명 소스(102)를 일반적으로 포함한다. 조명 소스(102)는 또한, 대상의 눈 영역 주변 및/또는 얼굴의 적어도 일부를 조명하도록 구성될 수 있다. 조명 소스(102)는 근적외선 조명 소스일 수 있다. 시스템(100)은 대상의 근접성이나 위치를 검출하도록 구성된 하나 이상의 센서를 포함할 수 있다. 예를 들어, 대상이 미리정한 영역에 있을 때, 조명 소스(102)는 대상의 홍채 및 눈 영역 및/또는 얼굴을 조명하도록 작동될 수 있다. 바이오메트릭이나 홍채 인식을 수행하기 위해, 대상의 홍채의 고유한 조직을 검출하기에 충분히, 대상의 눈 및 대상을 얼굴의 적어도 일부까지 조명 소스(102)에 의해 조명될 수 있다.
시스템(100)은 하나 이상의 이미지(가령, 정지 프레임 이미지, 비디오 이미지, 이들의 조합 등)를 캡쳐하도록 구성된 하나 이상의 카메라(104)를 포함한다. 대상의 주목된 영역이 조명 소스(102)에 의해 조명될 때, 카메라(104)는 대상의 하나 이상의 이미지(106)를 캡쳐하도록 작동될 수 있다. 이미지(106)는 홍채만, 브라우 리지만, 광대뼈만, 귀만 등과 같이 대상의 구체적인 영역만을 디스플레이할 수 있다. 또한, 이미지(106)는 대상의 얼굴 전체 또는 복수의 얼굴 특징을 가진 대상의 영역과 같이, 단일 이미지(106) 내의 대상의 복수의 영역을 디스플레이할 수 있다. 하나 이상의 이미지(106)는 홍채로부터 반사되고 캡쳐된 광을 디스플레이할 수 있다. 하나 이상의 이미지(106)는 대상의 눈 영역 주변 및/또는 얼굴의 하나 이상의 일부로부터 반사되고 캡쳐된 광을 디스플레이할 수 있다. 특히, 살아있는 대상의 눈 영역 및/또는 얼굴의 조명은 얼굴의 3차원 구조에 기초하여, 대상의 얼굴 상의 조명의 패턴을 만든다.
이미지(106)는 로컬 및/또는 원격 데이터베이스(108) 내에 전자적으로 저장될 수 있다. 시스템(100)은 이미지(106)를 데이터베이스(108)로 전자적으로 전송하도록 구성된 통신 인터페이스(110)를 포함할 수 있다. 통신 인터페이스(110)는 이미지(106)(또는 임의의 다른 전자 데이터)를 전자적으로 수신하고, 시스템(100)의 구성들 간의 전자 통신을 제공하도록 구성될 수 있다.
시스템(100)은 통신 인터페이스(110)를 통해 이미지(106)를 입력으로서 전자적으로 수신하도록 구성된 분석 모듈(112)(가령, 프로세싱 장치)을 포함한다. 분석 모듈(112)은 이미지(106) 내의 반사된 광 또는 반사된 광의 패턴을 분석하고, 반사된 광의 패턴이 살아있는 대상의 예상된 3차원 특징과 일치하는지를 결정하기 위해 실행될 수 있다. 예를 들어, 분석 모듈(112)은 실제의 3차원 대상과 살아 있는 대상으로부터 반사된 광 레벨에 대해 예상되는 것과의 일치성을 검출할 수 있다. 시스템(100)은 대상으로부터 응답(자동적 또는 자발적)을 요구하지 않는다. 그보다는, 분석 모듈(112)은, 이미지(106) 내의 반사되고 캡쳐된 광 패턴에 기초하여, 대상이 3차원 얼굴이나 머리를 가지고 있는지를 검출한다. 그러므로, 시스템(100)은 살아있음 검출을 위한 자극에 의존하는 대안적인 접근법보다 더욱 간단한 방식으로 기능한다.
이미지(106) 내의 조명의 서로 다른 패턴이나 분포에 기초하여, 분석 모듈(112)은 얼굴의 3차원 곡선과 제시 공격의 가장 흔한 형태인 종이 조각에 인쇄되거나 스크린 상에 디스플레이된 평평한 표면 상의 눈의 사진을 구별한다. 그러므로, 분석 모듈(112)은 조명의 검출된 패턴이나 분포가 진짜 거래와 제시 공격을 나타내는지 또는 나타내지 않는지를 결정한다. 특히, 시스템(100)은 살아있는 대상의 얼굴에 고유한 불균일성을 가진 조명의 명확한 패턴을 위해 캡쳐된 이미지(106)를 분석한다. 조명의 불균일한 패턴이 분석 모듈(112)에 의해 이미지(106) 내에서 검출된다면, 분석 모듈(112)은 패턴이 살아있는 대상을 나타낸다고 결정할 수 있고, 대상이 살아있는 대상이라는 증가된 확신을 출력한다. 이에 반해, 종이 상에 인쇄된 대상의 눈의 이미지(심지어 종이가 구부러지더라도)는, 시스템(100)에 제시된 장면의 2차원의 평평함(3차원성의 결핍) 때문에, 좀 더 균일한 분포의 조명을 디스플레이할 것이다. 실질적으로 불균일한 패턴의 조명이 분석 모듈(112)에 의해 이미지(106) 내에서 검출되면, 분석 모듈(112)은 패턴이 살아있는 대상을 나타내지 않는다고 결정할 수 있고, 대상이 복사본 이미지라는 증가된 확신을 출력한다.
시스템(100)은 정적인 광(114) 및/또는 동적인 광(116)을 가진 조명 소스(102)로 사용될 수 있다. 그러므로, 시스템(100)은 시스템 내로 통합될 수 있어서, 대상과 거래하는 동안에 조명 레벨이 가변될 수 있고, 결과적인 이미지(106)는 적절한 응답의 검출을 위해 분석될 수 있다. 정적인 광(114)은 대상의 홍채 및 눈 영역 주변 및/또는 얼굴을 조명하기 위해, 실질적으로 정적이거나 연속적인 광(가령, 실질적으로 균일한 레벨의 조명)을 발산할 수 있다. 이미지 앤에 디스플레이된 조명의 불균일한 패턴의 조명에 기초하여 살아있는 얼굴의 특징 구조를 검출하기 위해, 각각의 캡쳐된 이미지(106)는 분석 모듈(112)에 의해 독립적으로 분석될 수 있다.
예를 들어, 정적인 광(114)은 대상의 눈 구멍(eye socket)의 측면 에지(temporal edge) 주위의 3차원적인 양각을 조명하도록 구성될 수 있다. 밝은 근적외선 조명은 밝은 영역과 어두운 영역을 포함하는 얼굴(대상이 살아있는 대상이라면) 상의 특징 패턴을 생성한다. 카메라(104)는 대상의 눈 구멍의 측면 에지의 하나 이상의 이미지(106)를 캡쳐하기 위해 작동될 수 있다. 분석 모듈(112)은 이미지(106) 내에 캡쳐된 눈 구멍의 측면 에지의 반사된 광을 분석하여, 조명의 균일하거나 불균일한 패턴이 디스플레이되는지를 결정한다. 조명의 패턴이 균일하면, 분석 모듈(112)은 대상을 복사본 이미지로 신빙성을 훼손시킬 수 있다. 조명의 불균일한 패턴은 살아있는 대상의 3차원 이미지라는 것을 시사할 것이다.
동적인 광(116)은 서로 다른 레벨의 조명에서 광을 발산할 수 있다. 예를 들어, 동적인 광(116)은 조명 소스로 제1 조명 레벨을 발산하고, 이후에 제2 조명 레벨을 발산할 수 있다. 일부 실시예에서, 동적인 광(116)은 초기에 제1 조명 레벨(가령, 낮거나 어두운 조명 레벨)을 발산하고, 제2 조명 레벨(가령, 높거나 밝은 조명 레벨)을 발산하도록 자동으로 스위치될 수 있다. 일부 실시예에서, 동적인 광(116)은 초기에 제1 조명 레벨(가령, 낮거나 어두운 조명 레벨)을 발산하고, 제2 조명 레벨(가령, 높거나 밝은 조명 레벨)으로 점증적으로 또는 서서히 천이되어서, 제1 조명 레벨과 제2 조명 레벨 간의 서로 다른 레벨의 조명을 제공할 수 있다. 카메라(104)는 각각의 레벨의 조명에서의 하나 이상의 이미지(106)(가령, 이미지(106)의 시퀀스)를 캡쳐할 수 있고, 분석 모듈(112)은 이미지(106)의 시퀀스 내의 조명 분포의 포화 및/또는 패턴과 같은 특징의 변화에 기초하여, 대상의 3차원성의 결핍을 결정한다.
동적인 광(116)을 실행함에 의해, 정확하고 정적인 3차원 조명 아티팩트를 성공적으로 나타낼 수 있는 복사본 이미지가 발견될 것이고 신빙성이 훼손될 것이다. 조명의 양을 변화시키거나 서서히 증가시킴에 의해, 카메라(104)에 수직인 얼굴의 영역은 나머지 얼굴보다 우선적으로 더 밝아질 것이고, 조명의 스레숄드에서 표백되거나 포화된 레벨에 접근한다. 분석 모듈(112)은 다양한 이미지들(106)을 비교하고, 카메라(104)에 대한 이미지들의 각도 때문에 조명에 매우 민감함을 나타내는 영역을 검출한다. 살아있는 대상과 관련된 진정한 거래에서, 표백되거나 포화된 영역은, 가령 브라우 리지나 광대뼈와 같은 얼굴의 알려진 구조에 대해서는 이해가 되지만, 더 어두운 영역도 여전히 카메라(106)에 대한 각도에서 얼굴의 영역에 존재할 것이다. 분석 모듈(112)은 추가적인 스푸핑이나 살아있는 표시를 위해, 다양하고 해부학적인 특징을 다양한 이미지(106) 내의 서로 다른 반사율 레벨과 더욱 비교할 수 있다.
이에 반해, 복사본 이미지는, 이미지의 2차원 형태 때문에, 대부분의 이미지나 전체 이미지 내에 표백되거나 포화된 영역을 디스플레이할 수 있다. 일 실시예에서, 조명의 두 레벨 간의 천이 또는 조명의 복수의 레벨을 통한 점진적인 천이는 사전설정된 주파수나 시점에서 수행될 수 있다. 일 실시예에서, 조명의 두 레벨 간의 천이 또는 조명의 복수의 레벨을 통한 점진적인 천이를 위한 주파수나 시점은 각각의 거래에 대해 변경될 수 있다.
시스템(100)은 데이터베이스(108) 내의 등기되거나 등록된 대상 정보(118)에 대응되는 데이터를 전자적으로 저장할 수 있다. 등록된 대상 정보(118)는 바이오메트릭 인식이나 홍채 인식에 기초하여, 사용자를 인증하는데 사용될 수 있다. 또한, 분석 모듈(112)은 등록된 대상 정보(118)를 복사본 이미지와 비교될 때 살아있는 대상에서 일반적으로 제시되는 조명 패턴에 대한 템플릿이나 비교로서 사용할 수 있다. 시스템(100)은 그래픽 사용자 인터페이스(GUI, 122)를 포함하는 사용자 인터페이스(120)를 포함할 수 있다. GUI(122)는 대상에 의해 정보를 시스템(100)에 입력하는데 사용될 수 있고, 대상의 성공적인 인증이나 복사본 이미지의 검출과 같은, 대상에 대한 정보를 디스플레이하는데 사용될 수 있다.
시스템(100)은 시스템(100)의 하나 이상의 구성을 실행하도록 구성된 프로세서(126)를 가진 프로세싱 장치(124)를 포함할 수 있다. 예를 들어, 프로세싱 장치(124)는 분석 모듈(112)을 실행하고, 조명 소스를 제어하고, 및/또는 카메라(104)를 제어하기 위한 명령어를 실행할 수 있다. 일부 실시예에서, 시스템(100)은 통신 인터페이스(100)를 통해 조명 소스(102), 카메라(104), 분석 모듈(112), 프로세싱 장치(124) 및/또는 사용자 인터페이스(120)와 통신하는 중앙 컴퓨팅 시스템(128)을 포함할 수 있다.
도 2는 시스템(100)을 실행하는 예시적인 프로세스(150)를 나타내는 순서도이다. 시작하기 위해, 단계(152)에서, 대상의 홍채 및 대상의 눈 영역 주변 및/또는 얼굴의 적어도 일부는 조명 소스로 조명된다. 단계(154)에서, 대상의 하나 이상의 이미지는 조명 소스로 대상을 조명하는 동안에, 카메라로 캡쳐된다. 하나 이상의 이미지는 홍채 및 눈 영역 주변 및/또는 얼굴로부터 반사된 광 패턴을 디스플레이한다. 단계(156)에서, 하나 이상의 이미지는 분석 모듈에서 입력으로서 수신된다. 단계(158)에서, 이미지 내의 반사된 광은 분석 모듈로 분석된다. 단계(160)에서, 대상의 3차원성은 조명의 불균일한 패턴에 기초하여 분석 모듈로 결정된다(또는 3차원성의 결핍은 조명의 균일한 패턴에 기초하여 결정됨).
일부 실시예에서, 단계(162)에서, 정적인 광은 대상의 홍채 및 대상의 눈 영역 및/또는 얼굴을 조명하기 위해 발산될 수 있고, 정적인 광은 실질적으로 균일한 레벨의 조명을 가진다. 일부 실시예에서, 단계(164)에서, 동적인 광은 대상의 홍채 및 대상의 눈 영역 및/또는 얼굴을 조명하기 위해 발산될 수 있다. 특히, 단계(166)에서, 제1 조명 레벨이 초기에 발산될 수 있고, 이후에 제2 조명 레벨이 조명 소스로 발산될 수 있다(가령, 두 레벨의 조명 간에 바로 또는 점증적으로). 단계(168)에서, 제1 및 제2 조명 레벨로 조명하는 동안에, 대상의 하나 이상의 이미지는 카메라로 캡쳐될 수 있다. 단계(170)에서, 분석 모듈은 서로 다른 조명 레벨에서 이미지를 수신하고, 이미지 내의 조명 분포의 패턴의 변경에 기초하여, 3차원성의 결핍을 결정한다. 단계(172)에서, 분석 모듈은 3차원성의 결핍이 살아있는 대상을 나타내지 않고 복사본 이미지를 나타내는 것으로 결정하여서, 대상을 복사본 이미지로 신빙성을 훼손시킨다.
도 3을 참조하면, 예시적인 바이오메트릭 분석 시스템(200)(이하, "시스템(200)"이라 함)의 블록도가 제공된다. 시스템(200)은 2차원 또는 3차원적인 복사본과 비교할 대, 살아있는 대상의 눈의 망막 재귀반사(가령, 적목(red-eye), 적외선-눈(infrared-eye) 등)를 센싱함에 의해, 대상의 살아있음 또는 홍채 신원 확인 시스템의 사용자를 확신하여서, 제시 공격에 의한 스푸핑을 좌절시킨다.
일부 전통적인 바이오메트릭 시스템이 각막으로부터의 정반사들을 비교하는 반면, 시스템(200)은 눈의 복합 광학의 결과인 적외선 스펙트럼 내의 망막의 자연 반사율을 사용한다. 일부 실시예에서, 시간적인 양태 또한 복사본 이미지를 추가로 검출하는데 사용될 수 있다. 예를 들어, 시스템(200)은 시간에 따라 제어되고, 대상의 제시된 홍채의 진정성의 예상하기 어려운 테스트를 생성할 수 있다. 일부 실시예에서, 본 명세서에 기술된 대안적인 시스템 및/또는 스푸핑 방지의 추가적인 계층(가령, 동공 크기 측정법, 눈짓 검출 등)이 시스템(200)과 조합되어서, 각각의 시스템은 대상이 살아있는 대상 또는 복사본 대상을 나타내는지의 결정을 제공하고, 각각의 결정은 대상이 살아있는 대상인지를 결정내리는데 가중화된다.
광이 눈으로 진입하고, 망막에서 바운스되어서 카메라로 되돌아올 때, 망막 반사 또는 재귀반사가 발생한다. 망막 반사는 광 소스, 대상의 눈 및 카메라의 상대적인 위치는 물론 대상의 동공의 크기에 의존한다. 재귀반사는 조명 소스-눈-카메라에 의해 형성된 각도가 대략 5도 초과하면 일반적으로 방지된다. 시스템(200)은 표준 5도 추천 이하로 각도를 가변함에 의해, 살아있는 대상의 표시자로서 망막 반사의 발생을 촉진한다. 일반적으로, 망막 반사를 생성하는데 필요한 조건은 대상에 의존한다. 예를 들어, 어른보다 더 큰 동공을 가지는 경향이 있는 어린이의 경우에, 카메라 렌즈에 가까운 플래시를 가진 소형 카메라가 특징적으로 적 반사(적목 이라함)를 생성한다. 동일한 카메라는 더 작은 동공을 가진 더 늙은 대상에서 붉은 글레어(red glare)의 동일한 세기를 생성할 수 없다. 또한, 렌즈와 프래시 간에 거리가 더 멀게 설계된 카메라는 소형 카메라와 동일한 거리에서 임의의 대상의 적목을 생성할 수 없다.
시스템(200)은 홍채로부터 망막 반사를 생성하기 위해, 대상의 홍채를 조명하도록 구성된 하나 이상의 조명 소스(202)를 포함한다. 시스템(200)은 렌즈(206)를 각각 포함하는 하나 이상의 카메라(204)를 포함한다. 조명 소스(202)는 대상의 홍채의 망막 반사를 생성하려고 하기 위해, 렌즈(206)에 인접한 위치에 배치될 수 있다. 특히, 조명 소스(202)는 홍채 내의 망막 반사를 야기하도록 하기 위해, 카메라 렌즈(206)에 가능하면 가까이 배치될 수 있다. 조명 소스(202)에 의해 발산된 광은 육안에 의해 검출되지 않을 적외선 스펙트럼 내의 망막 반사를 생성하기 위해, 적외선 광일 수 있다.
카메라(204)는 조명 소스(202)로 홍채를 조명하는 동안에, 대상(가령, 대상의 홍채)의 하나 이상의 이미지(212)를 캡쳐한다. 이미지(212)의 적어도 일부는 대상의 홍채의 망막 반사를 디스플레이할 수 있다. 분석 모듈(112)은 이미지(212)를 입력으로서 수신하고, 이미지(212) 내의 망막 반사의 존재 또는 존재의 결핍을 분석하고, 망막 반사(만일 있다면)가 살아있는 대상의 망막의 자연 반사율을 나타내는지를 결정한다. 분석 모듈(112)은 이미지(212) 내의 자연 망막 반사율의 결핍을 검출한다면, 대상은 복사본 이미지나 복사본 눈으로 신빙성을 훼손될 수 있다.
일부 실시예에서, 조명 소스(202)는 실질적으로 연속적인 광(208)(가령, 실질적으로 균일한 조명 레벨에서)을 발산할 수 있다. 일부 실시예에서, 조명 소스(202)는 플래싱 광(210)을 발산할 수 있다(가령, 동일한 시간 간격에서 발산되는 광, 서로 다른 시간 간격에서 발산되는 광, 각각의 거래에 대해 플래시의 서로 다른 수를 발산하고, 서로 다른 세기에서 플래시를 발산하는 등). 플래싱 광(210)은 바이오메트릭 분석 거래 동안에 예상하기 어렵고 짧은 시간 간격에서 망막 반사를 생성할 수 있어서, 스푸핑 방지를 한다. 일부 실시예에서, 조명 소스(202)는, 망막 반사를 선택적으로 촉진하거나 피하려고, 5도 표준 초과 및 미만의 임계 각도를 변경하려는 다양한 위치(가령, 다양한 위치에서 복수의 조명기, 가동식 조명 등)로부터 광을 발산할 수 있다.
일 실시예에서, 망막 반사를 야기하는 적외선 자극은 바이오메트릭 거래 동안에 짧은 시간 동안 오직 한 번 또는 시간 간격 동안 여러 번 발사할 수 있다. 분석 모듈(112)은, 비디오 또는 이미지(212) 내의 어느 프레임이, 밝은 동공으로 나타나고, 용이하게 측정되는 망막 반사를 디스플레이하는지를 알 것이다. 이미지(212)의 다른 모든 프레임은 어두운 동공을 포함할 수 있다. 밝은 동공을 자극하기 위해 인공적인 수단을 사용했던 제시 스푸프 공격은, 자극이 조명 소스(202)로부터 발생할 때, 정확한 순간에 응답을 생성할 필요가 있다. 시스템(200)은 성공적인 스푸핑을 위한 잠재성을 줄이기 위해, 거래마다 자극 시간을 가변할 수 있다(언제 플래시 발생하는지 및/또는 얼마나 많은 플래시가 발생하는지).
도 4는 시스템(200)을 실행하는 예시적인 프로세스(250)를 나타내는 순서도이다. 시작하기 위해, 단계(252)에서, 대상의 홍채는 대상의 망막 반사를 생성하려고 하기 위해 조명 소스로 조명된다. 단계(254)에서, 조명 소스는 적외선 스펙트럼 내의 망막 반사를 생성하기 위해 적외선 광을 발산한다. 단계(254)는 조명 소스가 적외선 광을 발산하여 적외선 스펙트럼 내에서 대상의 망막 반사를 생성하도록 하기 위해 단계(252)의 일부로 고려될 수 있다. 일부 실시예에서, 단계(256)에서, 조명 소스는 홍채를 조명하기 위해 연속적인 광을 발산한다. 일부 실시예에서, 단계(258)에서, 조명 소스는 홍채를 조명하기 위해 플래싱 광을 발산한다. 일부 실시예에서, 단계(260)에서, 조명 소스는 플래싱 광의 플래시들 간의 시간 간격을 가변시킨다. 일부 실시예에서, 단계(262)에서, 조명 소스는 각각의 대상에 대해(가령, 각각의 거래에 대해) 발산되는 플래싱 광의 플래시의 수를 가변시킨다.
단계(264)에서, 대상의 홍채의 하나 이상의 이미지는 조명 소스로 대상을 조명하는 동안에, 캡쳐된다. 하나 이상의 이미지는 대상의 망막 반사를 디스플레이한 다. 단계(266)에서, 분석 모듈은 하나 이상의 이미지를 입력으로서 수신한다. 단계(268)에서, 분석 모듈은 하나 이상의 이미지 내의 망막 반사를 분석한다. 단계(270에서, 분석 모듈은 망막 반사가 망막의 자연 반사율을 나타내는지를 결정한다(가령, 복사본 대상의 홍채 내의 망막 반사와 비교할 때). 단계(272)에서, 분석 모듈은 망막의 자연 반사율의 결핍은 살아있는 대상을 나타내지 않아서, 대상을 복사본 이미지로 신빙성이 훼손된다.
도 5를 참조하면, 예시적인 바이오메트릭 분석 시스템(300)(이하, "시스템(300)"이라고 함)의 제3 실시예의 블록도가 제공된다. 시스템(300)은 넓은 스펙트럴 범위를 사용함에 의해, 대상의 진정성 또는 홍채 신원 확인 시스템의 사용자를 확인한다. 전통적인 바이오메트릭 분석 시스템은 일반적으로 근적외선 스펙트럼 내의 홍채 특징의 분석에 의존한다. 시스템(300)은 넓은 스펙트럴 범위(컬러 스펙트럼과 근적외선 스펙트럼 모두와 같이)를 분석하여서, 바이오메트릭 홍채 크레덴셜이 오직 좁은 스펙트럼(가령, 오직 근적외선 스펙트럼)에 걸쳐서가 아닌 전체 스펙트럼의 실제 특징을 증명한다는 것을 표시하여서, 제시 공격에 의한 스푸핑을 좌절시킨다. 구체적으로, 시스템(300)은 살아있는 대상과 불일치한 스펙트럴 특징을 나타내는 복사본을 표시하려고 한다.
시스템(300)은 하나 이상의 제1 조명 소스(302)와 하나 이상의 제2 조명 소스(304)(가령, 조명 소스들은 근적외선, 빨간색, 녹색, 파란색, UV, 대안적인 스펙트라 등과 같이 서로 다른 파장을 가짐)를 포함한다. 제1 조명 소스(302)는 대상의 홍채의 적어도 일부를 조명하도록 구성된다. 제1 조명 소스(302)는 근적외선 광을 발산하도록 구성될 수 있다. 제2 조명 소스(304)는 대상의 얼굴의 적어도 일부를 조명하기 위해 가시광을 발산하도록 구성된다. 시스템(300)은 대상을 조명하는 동안에, 하나 이상의 이미지(306)를 캡쳐하도록 구성된 하나 이상의 카메라를 포함한다.
예를 들어, 시스템(300)은 제1 조명 소스(302)로 대상을 조명하는 동안에, 대상의 하나 이상의 이미지(306)를 캡쳐하도록 구성된 하나 이상의 제1 카메라(308)(가령, 근적외선 카메라)를 포함할 수 있다. 추가적인 예시로서, 시스템(300)은 제2 조명 소스(304)로 대상을 조명하는 동안에, 대상의 하나 이상의 이미지(306)를 캡쳐하도록 구성된 하나 이상의 제2 카메라(310)(가령, 가시광 카메라)를 포함할 수 있다. 일부 실시예에서, 하나의 카메라가 제1 및 제2 조명 소스들(302, 304)에 의해 조명된 대상의 이미지들(306)을 실질적으로 동시에 캡쳐할 수 있다.
카메라(308)는 근적외선 스펙트럼에서 홍채 조직의 측정을 허용하는 단색 이미지(306)를 생성한다. 카메라(310)는 대상의 얼굴의 컬러 이미지(306)를 생성한다. 대상의 단색 및 컬러 이미지(306) 모두를 사용함에 의해, 시스템(300)은 얼굴, 눈 영역 주변 및/또는 홍채의 단색 이미지(30)의(얼굴, 눈 영역 주변 및/또는 홍채의 정상적인 색소 때문에) 신빙성을 훼손시킬 수 있다. 분석 모듈(112)은 하나 이상의 이미지(306)(가령, 단색 또는 컬러)를 입력으로서 수신하고, 제1 조명 소스(302)로 조명하는 동안에 대상의 이미지(306)에 기초하여 홍채 조직을 결정하고, 제2 조명 소스(304)로 조명하는 동안에 대상의 이미지(306)에 기초하여 대상의 얼굴의 적어도 일부의 컬러 스펙트럼을 결정한다.
그러므로, 모션이나 살아있음에 의존하기 보다는, 시스템(300)은 캡쳐된 바이오메트릭 특징, 특히 얼굴과 눈 영역 주변의 컬러(눈 포함)의 스펙트럴 일치성을 테스트한다. 공격자가 홍채 카메라로부터 일반적으로 획득된 단색 이미지를 가짜 홍채로 사용한다면, 컬러 카메라(310)는 단색 이미지를 인식할 수 있고(왜냐하면, 실제 바이오메트릭 특징은 전체 스펙트럼 컬러임), 시스템(300)은 이미지가 살아있는 대상을 나타내지 않는다고 결정하여서, 이미지를 복사본 이미지로 신빙성을 훼손시킬 수 있다. 특히, 대상이 제2 조명 소스(304)에 의해 조명될 때, 분석 모듈(112)이 컬러 카메라(310)에 의해 캡쳐된 이미지(306)의 적어도 일부를 단색으로 검출한다면, 분석 모듈(112)은 대상을 복사본 이미지로 신빙성을 훼손시킬 수 있다. 제1 조명 소스(302)에 의해 대상을 조명하는 동안에 근적외선 카메라(308)에 의해 캡쳐된 이미지(306) 내의 단색 홍채 구조 및 제2 조명 소스(304)에 의해 대상을 조명하는 동안 컬러 카메라(310)에 의해 캡쳐된 완전히 컬러 이미지(306)를 검출한다면, 분석 모듈(112)은 대상을 살아있는 대상으로 식별할 수 있다.
일부 실시예에서, 시스템(300)은 카메라(308, 310)에 의해 캡쳐된 이미지(306)에 대한 템플릿(312)을 세그먼트화하고 생성하여서, 대상이 진짜일 때, 각각의 스펙트럴 밴드에서, 템플릿(312)에 대해 분석 모듈(112)로 비교 분석을 수행한다. 템플릿(312)에 대응되는 데이터는 데이터베이스(108) 내에 전자적으로 저장될 수 있다. 컬러 카메라(310)와 근적외선 카메라(308)에 의해 캡쳐된 살아있는 대상의 홍채는, 컬러 카메라(310)에 의해 캡쳐된 색소 특징 때문에 매칭되지 않아야 한다. 시스템(300)은 불일치성이나 살아있음을 센싱하기 위해 모션을 요구하지 않는다.
도 6은 시스템(300)을 실행하는 예시적인 프로세스(350)를 나타내는 순서도이다. 시작하기 위해, 단계(352)에서, 대상의 홍채는 제1 조명 소스로부터의 근적외선 광으로 조명된다. 단계(354)에서, 대상의 얼굴의 적어도 일부는 제2 조명 소스로부터의 컬러 광으로 조명된다. 일부 실시예에서, 제1 및 제2 조명 소스로부터의 조명은 실질적으로 동시에 발생한다. 단계(356)에서, 하나 이상의 카메라는 제1 및 제2 조명 소스들로 대상을 조명하는 동안에, 대상의 하나 이상의 이미지를 캡쳐한다. 일부 실시예에서, 단계(358)에서, 하나 이상의 카메라는 제1 및 제2 조명 소스로 대상을 조명하는 동안에, 대상의 하나 이상의 이미지를 실질적으로 동시에 캡쳐한다.
단계(360)에서, 분석 모듈은 카메라로부터의 하나 이상의 이미지를 입력으로서 수신한다. 단계(362)에서, 분석 모듈은 제1 조명 소스로 대상을 조명하는 동안에 캡쳐된 대상의 이미지에 기초하여 홍채 조직을 결정한다. 단계(364)에서, 분석 모듈은 제2 조명 소스로 대상을 조명하는 동안에 대상의 얼굴의 일부의 컬러 스펙트럼을 결정한다. 단계(366)에서, 분석 모듈은 단색 섹션이 살아있는 대상을 나타내지 않고 복사본 이미지를 나타낸다고 결정하여서, 분석 모듈이 제2 조명 소스로 대상을 조명하는 동안에, 캡쳐된 대상의 하나 이상의 이미지에 기초하여, 대상의 얼굴의 일부의 단색 섹션을 검출한다면, 대상을 복사본 이미지로 신빙성을 훼손시킨다.
도 7을 참조하면, 예시적인 바이오메트릭 분석 시스템(400)(이하, "시스템(400)"이라함)의 제4 실시예의 블록도가 제공된다. 시스템(400)은 충분히 좁은 피사계 심도로 복수의 거리에서 캡쳐된 얼굴의 윤곽을 리뷰함에 의해, 대상의 진정성 또는 홍채 신원 확인 시스템의 사용자를 확인한다. 일부 실시예에서, 시스템(400)은 초점의 다양한 위치에서 가동식 렌즈를 사용할 수 있고, 이미지가 획득된 이후에 초점을 맞추기 위해 라이트 필드 카메라를 사용할 수 있다. 일 실시예에서, 카메라의 렌즈가 대상에 대한 초점이나 초점 평면을 변경하기 위해 이동함에 따라, 시스템(400)은 이미지의 시퀀스를 캡쳐한다. 일 실시예에서, 시스템(400)은 가동식 렌즈를 사용하지 않고 이미지의 시퀀스를 캡쳐하고, 프로세싱 동안에 피사계 심도를 좁힌다. 시스템(400)은, 간단히 구부러진 종이 이미지의 곡선으로부터 구별될 수 있는 실제 얼굴의 자연스러운 곡선 표면을 검출하기 위해, 중간 이미지를 분석한다.
시스템(400)은 대상의 얼굴의 적어도 일부를 조명하도록 구성된 하나 이상의 조명 소스(402)를 선택적으로 포함할 수 있다. 시스템(400)은 가동식 렌즈(406)를 가진 하나 이상의 카메라(404)를 포함한다. 특히, 카메라(404)는 대상의 얼굴의 다양한 점들을 따라 카메라(404)의 초점 평면을 변경하기 위해, 렌즈(406)를 점증적으로 이동시키도록 구성된 메카니즘을 포함한다. 카메라(404)는, 대상의 얼굴에 대한 제1 점으로부터, 대상의 얼굴을 지나서, 대상의 얼굴에 대한 제2 점까지 렌즈(406)를 점증적으로 이동함에 따라, 대상의 얼굴의 이미지(408)의 시퀀스를 캡쳐하도록 작동될 수 있다. 일부 실시예에서, 카메라(404)가 초점된 이미지를 획득하기 위해 대상에 초점화하면서, 렌즈(406)의 점증적인 이동은 카메라(404)의 자동초점 메카니즘과 동시에 수행될 수 있다. 자동초점 프로세스 내로 스푸핑 방지 특징의 통합 때문에, 스푸핑 방지 프로세스는 눈에 띄지 않게 실행될 것이고, 제시 공격을 좌절시키기 위해 덜 취약할 것이다.
일부 실시예에서, 제1 점은 대상의 얼굴의 뒤에 있는 점일 수 있고, 제2 점은 대상의 얼굴의 앞에 있는 점일 수 있다. 일부 실시예에서, 제1 점은 대상의 앞에 있는 점일 수 있고, 제2 점은 대상의 뒤에 있는 점일 수 있다. 그러므로, 캡쳐된 이미지(408)는 제1 점과 제2 점 간의 서로 다른 초점을 디스플레이한다. 초점의 스위프(sweep)는 한 장의 종이와 질적으로 다른(심지어 종이가 구부러지더라도) 실제 얼굴의 3차원적인 양각을 나타낸다. 예를 들어, 살아있는 대상의 얼굴의 3차원적인 구성 때문에, 캡쳐된 이미지(408)의 시퀀스는, 나머지 이미지(408)는 초점이 맞지 않지만, 초점이 맞게 코끝을 나타내는 제1 이미지(408), 나머지 이미지(408)는 초점이 맞지 않지만, 초점이 맞게 광대뼈 상단 에지를 나타내는 제2 이미지(408), 나머지 이미지(408)는 초점이 맞지 않지만, 초점이 맞게 눈을 나타내는 제3 이미지(408), 나머지 이미지(408)는 초점이 맞지 않지만, 귀를 초점에 맞게 나타내는 제4 이미지(408) 등을 포함할 수 있다.
이에 반해, 복사본 이미지는 폐쇄된 윤곽이 없는 일정한 초점의 실질적으로 직선을 야기하는 2차원 형태를 형성할 수 있다. 예를 들어, 구부러지지 않고/평평한 복사본 이미지에 대해 캡쳐된 이미지(408)의 시퀀스는, 초점이 맞지 않는 전체 이미지(408)를 나타내는 제1 이미지(408), 초점 평면이 복사본 이미지의 평면과 정렬될 때, 초점이 맞는 전체 이미지(408)를 나타내는 제2 이미지 및 초점이 맞지 않는 전체 이미지(408)를 나타내는 제3 이미지(408)를 포함할 수 있다. 추가적인 예시로서, 구부러진 복사본 이미지에 대해 캡쳐된 이미지(408)의 시퀀스는, 이미지(408)의 전체 중심선을 따라 연장되는 일정한 초점의 실질적으로 수직선을 나타내는 제1 이미지(408), 전체 이미지(408)를 지나 연장되고, 이미지(408)의 중심선으로부터 오프셋된 일정한 초점의 두 개의 실질적으로 수직선을 나타내는 제2 이미지(408), 및 전체 이미지(408)를 지나 연장되고, 이미지(408)의 중심선으로부터 더욱 오프셋된 일정한 초점의 두 개의 실질적으로 수직선을 나타내는 제3 이미지(408)를 포함할 수 있다.
일부 실시예에서, 프로세싱 장치(124)는 카메라(404)에 의해 캡쳐된 이미지(408)의 시퀀스를 입력으로서 수신하고, 대상의 얼굴의 지형학적인 지도(410)를 출력하거나 형성할 수 있다. 지형학적인 지도(410)는 렌즈(406)의 초점 변화에 기초하여, 이미지(408) 내의 캡쳐된 서로 다른 레벨의 초점을 디스플레이할 수 있다. 서로 다른 레벨의 초점은 대상의 윤곽에 대응되는 자연스러운 곡선 표면으로서 표현될 수 있다.
분석 모듈(112)은 이미지(408) 및/또는 지형학적인 지도(410)를 입력으로서 수신하고, 윤곽의 선명도에 대해 각각의 이미지(408) 및/또는 지형학적인 지도(410)의 하나 이상의 영역을 분석하고, 각각의 이미지(408) 및/또는 지형학적인 지도(410)의 윤곽이 살아있는 대상의 윤곽에 대응되는지를 결정한다. 살아있는 대상의 얼굴의 3차원 구조 때문에, 이미지(408) 또는 지형학적인 지도(410)는 폐쇄된 윤곽을 포함하는 것으로 예상된다. 복사본 이미지의 2차원 구조 때문에(심지어 곡선형이어도), 복사본 이미지에 대응되는 이미지(408) 또는 지형학적인 지도(410)는 초점이 맞게 전체 이미지(408)를 포함하거나, 폐쇄된 윤곽 없이 일정한 초점의 실질적으로 직선을 포함할 것이다. 계산적으로 효율적인 초점 메트릭은 실제 얼굴의 폐쇄된 윤곽을 나타내는데 사용될 수 있고, 이는 동일하게 우수한 초점의 평면에 해당되며, 한 장의 종이에 의해 용이하게 재생되지 않을 수 있다. 이는 특히, 종이 복사본 이미지가 홍채와 같은 특징을 포함하는 무결성을 동시에 유지해야하는 경우라면, 종이접기-유사 접음을 방지할 수 있다.
시스템(400)은 물체가 최적의 초점에 있고, 카메라(404)에 대해 공간에서 하나의 평면을 구축하는 고정된 초점 광학계를 사용할 수 있다. 이러한 평면에 대해 각 방향에서, 초점의 품질은 감소한다. 피사계 심도는 물체가 적절한 초점 내의 최적의 초점의 양 측의 깊이 범위 내에 존재한다. 사람이 바이오메트릭 수단에 의해 식별될 수 있는 최적의 초점의 양 측의 깊이 범위 내를 바이오메트릭 피사계 심도라고 할 수 있다.
시스템(400)은 물체를 어떤 범위 내에서 초점화할 수 있는 가변 초점 광학계를 사용할 수 있다. 초점 평면이 이동될 수 있기 때문에, 초점된 이미지를 획득하기 위한 전반적인 범위는 고정된 초점 시스템에 대한 바이오메트릭 피사계 신도보다 더 크다. 정적인 물체에 대해, 카메라(404)에 대한 렌즈(406) 위치의 스위프는 물체 공간에서 초점 평면을 스위프를 생성한다. 예를 들어, 카메라(404)에 가까운 위치의 렌즈(406)를 사용하여, 초점 평면은 물체 뒤에 있을 수 있고, 그 경우에, 물체는 초점이 맞지 않을 것이다. 카메라(404)로부터 더 멀리 있는 렌즈(406)를 사용하여, 물체는 우수한 초점에 있을 수 있다. 카메라(404)에 대해 더욱 더 멀리 있는 렌즈(406)를 사용하여, 초점 평면은 물체의 앞에 있을 수 있고, 다시 한 번 물체는 초점이 맞지 않을 것이다.
그러므로, 카메라(404) 초점을 스위핑하는 것은 물체의 뒤에서부터, 물체를 지나, 물체의 앞으로 점증적으로 이동하는 초점 평면으로 이미지(408)의 시퀀스를 생성할 수 있다. 살아있는 인간 얼굴과 같이 물체가 양각을 가지면, 이미지(408)의 시퀀스는, 대상의 코끝을 선명한 초점이 맞게 나타내지만 눈은 초점이 맞지 않게 나타내는 제1 이미지(408) 및 코는 초점이 맞지 않게 나타내지만, 눈은 선명한 초점이 맞게 나타내는 제2 이미지(408)를 포함할 것이다. 카메라(404)의 피사계 심도는 피사계 심도가 매우 얕을 n 있는 가까운 범위에서 빠른 렌즈(406)를 가짐에 의해, 사람의 코의 길이에 비해 얕을 수 있다.
분석 모듈(112)은 선명도에 대해 이미지(408)의 국부 영역을 분석하기 위한 초점 메트릭(focus metric)을 사용할 수 있다. 블러(blur)는 메트릭이 낮은 값을 등록하도록 하는 반면, 선명한 초점은 동일한 메트릭이 높은 갑을 등록하도록 한다. 대상의 눈이 초점화되었지만, 대상의 코가 초점이 맞지 않은 이미지(408)에서, 초점 메트릭은 눈 영역을 통해 비교적 유사한 값을 나타내고, 코의 끝을 향하여 감소하는 값을 나타낼 수 있다. 초점 메트릭은 얼굴의 명확한 특징을 나타내기 위해, 얼굴의 지형학적인 지도(410)(초점의 가까운 측과 먼 측의 모호성을 제쳐두고)를 제공할 수 있다.
이에 반해, 지형학적인 지도(410)는 정확한 홍채 이미지를 가진 고품질 얼굴 이미지가 인쇄된 한 장의 복사본 종이에 대해 명확하게 서로 다른 특징을 나타낸다. 평평한 한 장의 종이의 경우에, 지형학적인 지도(410)는 카메라(404)의 광학축에 대해 종이의 기울기에 의존하여, 일정한 초점의 실질적으로 직선을 나타낼 수 있다. 카메라(404)에게 제시되는 동안 종이가 부드럽게 곡선으로 구부러진다면, 일정한 초점 메트릭의 윤곽도 실질적으로 직선일 수 있으나, 좀 더 복잡한 구조를 가진다. 이 상황에서, 한 장의 종이 상에 폐쇄된 윤곽이 없는데, 왜냐하면, 이는 종이를 주름지게 하는 것이 요구되고, 이는 카메라(404)에 의해 볼 수 있는 종이 상의 이미지의 무결성을 손상시킬 것이기 때문이다.
따라서, 실제 얼굴과 종이가 구부러진 것이든 아니든 한 장의 종이에 인쇄된 것을 구별하는 것은, 바이오메트릭 신원 확인이나 입증을 위한 이미지(408)의 기록 이전에, 이미지(408)를 초점화하는 동안에 생성될 수 있는 초점 메트릭의 윤곽을 분석하고 판단하는 것의 문제이다. 상기 논의된 바와 같이, 분석 모듈(112)은 캡쳐 이미지(408)를 수신하고, 윤곽을 분석하여, 살아있는 대상 또는 복사본 이미지가 시스템(400)에 제시되는지를 결정한다. 깜빡임 검출 시스템(414) 및/또는 눈짓 검출 시스템(416)(또는 본 명세서에 기술된 임의의 대안적인 시스템)과 같이 조합된 방어책이 시스템(400) 내로 통합되어서, 마스크가 어려운 모션을 재생하도록 요구하는 추가적인 스푸핑 방지 방어책을 제공하고, 각각의 시스템은 이미지가 살아있는 대상 또는 복사본인지의 최종 결정에 있어서 가중화된다.
예를 들어, 시스템(400)은 대상의 살아있음을 추가적인 검출을 제공하기 위해, 본 명세서에 기술된 스푸핑 방지 특징과 함께 실행되는 활동적인 대상 응답 모듈(412)을 포함할 수 있다. 일부 실시예에서, 활동적인 대상 응답 모듈(412)은 이미지(408)의 시퀀스를 캡쳐하는 동안에, 대상의 깜빡임을 검출하도록 구성된다. 예를 들어, 깜빡임 검출 시스템(414)은 이미지(408)를 분석하고 대상이 눈을 감거나 깜빡이는 하나 이상의 이미지를 검출하기 위해 분석 모듈(112)과 함께 작동할 수 있다. 일부 실시예에서, 활동적인 대상 응답 모듈(412)은 이미지(408)의 시퀀스를 캡쳐하는 동안에, 대상의 눈짓 변화를 검출하도록 구성된 눈짓 검출 시스템(416)을 포함할 수 있다. 예를 들어, 눈짓 검출 시스템(416)은 이미지(408)의 시퀀스를 캡쳐하는 동안에, 이미지(408)를 분석하고, 대상의 동공이 위치 변경하는 하나 이상의 이미지를 검출하기 위해, 분석 모듈(112)과 함께 작동할 수 있다. 일부 실시예에서, 본 명세서에 기술된 둘 이상의 시스템들(및/또는 대안적인 방어 시스템)이 결합될 수 있고, 각각의 시스템 결정은, 이미지가 살아있는 대상 또는 복사본인지의 최종 결정에 있어서 가중화된다.
도 8a-8b는 복사본 이미지(420)와 살아있는 대상(440)의 도면을 각각 나타낸다. 복사본 이미지(420)는 한 장의 종이(424) 상에 인쇄된 얼굴(422)의 형태일 수 있다. 한 장의 종이(424)는 실질적으로 평평한 구성으로 시스템(400)에 제시될 수 있고, 또는 3차원 얼굴(422)으 형성하려는 의도로 곡선(426)을 포함할 수 있다. 얼굴(422)은 홍채(430)를 가진 눈(428), 코(432), 입(434) 및 실제 얼굴을 나타내는 다른 특징들을 포함한다. 얼굴(422)은 실제 홍채의 컬러와 매칭하는 적절한 컬러로 인쇄될 수 있다. 도 8b의 살아있는 대상은 눈(444), 홍채(446), 코(448), 입(450)을 가진 3차원적인 머리(442), 몸(452) 및 살아있는 얼굴의 다른 특징을 포함한다. 살아있는 대상(44)의 조명에 기초하여, 얼굴은 얼굴의 측면(454, 456) 상에 서로 다른 그림자 패턴을 포함할 수 있다.
도 9는 시스템(400)의 측면도이다. 시스템(400)은 가동식 렌즈(406)가 있는 카메라(404)를 포함하여서, 카메라(404)가 초점을 변경할 수 있다. 카메라(404)는 살아있는 대상(44)의 이미지의 시퀀스를 캡쳐하도록 구성된다. 축(458)은 물체 공간 상에 초점화되는 카메라(404)로부터 연장되는 광학축을 나타낸다. 카메라(404)의 피사계 심도(460)는 얕게 구비된다. 평면(462-268)(가령, 광학축(458)에 실질적으로 수직인 평면)은 렌즈(406)가 점증적으로 이동함에 따른, 초점 평면의 일부를 나타낸다.
대상(44)의 머리(442)는 카메라(404)로부터 떨어져 있고, 대상의 코끝(448)에서의 평면(464)으로부터 대상의 눈(444)에서의 평면(466)까지의 거리에 비해, 카메라의 피사계 심도(460)는 작다. 카메라(404)의 피사계 심도(460)의 조건은 적절한 렌즈 어퍼쳐(aperture), 렌즈 초점 길이 및 카메라(404)에서 대상(440)까지의 거리를 선택함에 의해 충족될 수 있다.
카메라(404)가 평면(462) 상에 초점이 맞춰질 때, 대상(440)은 전체적으로 초점이 맞지 않는다. 평면(464)에서, 대상의 코(448)는 대상의 눈(444)과 귀(470)보다 더 선명하게 초점이 마춰진다. 평면(466)에서, 대상의 눈(444)(및 뺨)은 코끝(448)과 귀(470)보다 더 선명하게 초점이 맞춰진다. 평면(468)에서, 대상의 귀(470)는 코(448)와 눈(444) 및 얼굴의 나머지 특징들보다 더 선명하게 초점이 맞춰진다. 일부 영역이 초점이 맞춰지고, 나머지는 초점이 맞지 않는 것보다 복사본 이미지가 시스템(400)에 제시되면, 복사본 이미지는 일정한 초점의 직선을 가질 것이다. 예를 들어, 평면(466)에서, 눈, 뺨 및 입의 전체 표현은 복사본 이미지의 3차원성의 결핍때문에, 초점의 직선을 따를 것이다.
도 10a-10b는 각각 복사본 이미지(420)와 살아있는 대상(440)에 대한 지형학적인 지도(472, 478)의 도면이다. 지형학적인 지도(472, 478)로 도시되지만, 지형학적인 지도(472, 478)가 이미지의 시퀀스로부터 컴파일되고, 이러한 이미지는 초점의 윤곽을 결정하기 위해 개별적으로 분석될 수 있다는 것을 이해해야 한다. 도 10a에 대하여, 복사본 이미지(420)의 2차원성 때문에, 카메라(404)에 의해 이미지가 캡쳐되었을 때, 지형학적인 지도(472)는 초점의 서로 다른 평면에 기초하여, 얼굴(422) 상에 중첩된 일정한 초점의 직선(474, 476)을 나타낸다. 그러므로, 일정한 초점의 직선(474, 476)은 이미지의 전체 길이를 연장시키고, 살아있는 대상(440)의 구조 변화를 나타내지 않는다. 예를 들어, 선(474)은, 이미지(440)의 2차원 형태 때문에, 이미지(440)의 이마, 코(432), 입(434) 및 턱을 따라 일정한 초점을 나타낸다. 이에 반해, 살아있는 대상(440)은 초점의 동일선(474)을 야기하지 않을 동일한 평면을 따라 다양한 양각과 구조 변화를 가진다.
도 10b에 대하여, 살아있는 대상(440)의 얼굴의 3차원성 때문에, 지형학적인 지도(478)는 살아있는 대상(440)의 얼굴의 복잡한 구조와 양각 때문에, 초점의 선(480, 482, 484)이 변경되는 것을 나타낸다. 또한, 지형학적인 지도(478)는 뺨과 같은 얼굴의 일부 영역이 얼굴의 다른 영역에 비해 초점이 맞춰지는 폐쇄된 윤곽의 선(482, 484)을 나타낸다. 지형학적인 복잡성의 차이는 시스템(400)에 의해 사용되어서 실제 제시로부터 복사본 종이 제시 공격을 구별한다.
도 11은 시스템(400)을 실행하는 예시적인 프로세스(500)를 나타내는 순서도이다. 시작하기 위해, 단계(502)에서, 대상의 얼굴의 적어도 일부는 조명 소스로 선택적으로 조명될 수 있다. 단계(504)에서, 대상의 얼굴에 대한 제1 점으로부터, 대상의 얼굴을 지나, 대상의 얼굴에 대한 제2 점까지 초점 평면을 점증적으로 이동시키기 위해, 카메라의 가동식 렌즈가 이동된다. 단계(506)에서, 얼굴의 이미지의 시퀀스는, 렌즈의 점증적인 이동 동안에, 가동식 렌즈(가령, 카메라)로 캡쳐된다. 단계(508)에서, 대상의 얼굴의 지형학적인 지도는 이미지의 시퀀스로부터 선택적으로 형성될 수 있다.
단계(510)에서, 분석 모듈은 이미지의 시퀀스(및/또는 지형학적인 지도)를 입력으로서 수신한다. 각각의 이미지의 영역은 윤곽의 선명도(및 폐쇄된 윤곽의 존재)에 대해 분석 모듈로 분석된다. 단계(514)에서, 분석 모듈은 각각의 이미지의 윤곽이 살아있는 대상의 윤곽에 대응되는지를 결정한다. 단계(516)에서, 활동적인 응답 모듈은 대상의 깜박임을 선택적으로 검출할 수 있다. 단계(518)에서, 활동적인 대상 응답 모듈은 대상의 눈짓 변화를 선택적으로 검출할 수 있다. 일부 실시예에서, 본 명세서에 기술된 하나 이상의 바이오메트릭 분석 시스템 및/또는 대안적인 방어 시스템이 조합될 수 있어서, 각각의 시스템으로부터의 결정은 이미지가 살아있는 대상인지 복사본인지의 최종 결정에 가중화된다. 단계(520)에서, 분석 모듈은 폐쇄된 윤곽의 결핍은 살아있는 대상을 나타내지 않고 복사본 이미지를 나타내는 것을 결정하여서, 폐쇄된 윤곽이 없는 일정한 초점의 실질적으로 직선에 기초하여, 대상을 복사본 이미지로 신빙성을 훼손시킨다. 분석 모듈은 이미지 내의 폐쇄된 윤곽의 검출에 기초하여, 대상을 살아있는 대상으로 인증할 수 있다.
도 12를 참조하면, 예시적인 바이오메트릭 분석 시스템(550)의 제5 실시예의 블록도(이하, "시스템(550)"이라 함)가 제공된다. 시스템(550)은 각막의 반사에 영향을 주는 이미지를 캡쳐하면서, 서로 다른 광학 필터를 적용함에 의해, 대상 또는 홍채 신원 확인 시스템의 사용자의 진정성을 확인하여서, 제시 공격에 의해 스푸핑을 좌절시킨다. 본 명세서에 기술된 스펙트럴 특징에 기초하여 시스템(550)의 작업의 서로 다른 실시예가 스푸핑을 방지하기 위해 개별적으로 또는 조합으로 사용될 수 있다.
시스템(550)은 대상의 하나 또는 두 개의 홍채를 조명하도록 구성된 하나 이상의 조명 소스(552)를 포함한다. 조명 소스(552)는 근적외선 광을 발산할 수 있다. 시스템(550)은 하나 이상의 카메라(556) 내로 통합될 수 있는 스펙트럴 판별기(554)를 포함한다. 스펙트럴 판별기(554)는 제1 광학 필터(558) 및 제2 광학 필터(560)(및 추가적인 광학 필터를 포함할 수 있음)를 포함한다. 제1 광학 필터(558)는, 제2 광학 필터(560)의 제2 세트의 통과 특징과 상이한 제1 세트의 통과 특징을 가진다. 예를 들어, 제1 세트의 통과 특징은 제1 광학 필터(558)를 통해 사람 눈으로 가시광만 통과할 수 있다(가령, 약 380 nm 내지 약780 nm의 파장 범위). 추가적인 예시로서, 제2 세트의 통과 특징은 제2 광학 필터(560)를 통해 근적외선 광만 통과할 수 있다(가령, 약 30 nm 밴드의 파장 범위 약 850 nm 파장).
스펙트럴 판별기(554)는 제1 광학 필터(558) 또는 제2 광학 필터(560)를 통해 홍채로부터 산란된 광을 수신하기 위해 미리정해지거나 가변하는 시간 간격으로, 제1 및 제2 광학 필터(558, 560) 사이에서 선택적으로 스위치하도록 구성된 필터 스위칭 메카니즘(562)을 포함한다. 시스템(550)은 제1 광학 필터(558)를 통해 홍채로부터 산란된 광의 통과 동안에 대상의 하나 이상의 이미지(564)를 캡쳐하도록 구성되고, 제2 광학 필터(560)를 통해 홍채로부터 산란된 광의 통과 동안에 대상의 하나 이상의 이미지(564)를 캡쳐하도록 더욱 구성된 카메라(556)를 포함한다. 일부 실시예에서, 두 개의 카메라(556)는 이미지(564)를 실질적으로 동시에 캡쳐하는데 사용될 수 있다(가령, 제1 카메라(556)가 제1 광학 필터(558)를 통해 산란된 광의 이미지(564)를 캡쳐하고, 제2 카메라(556)가 제2 광학 필터(560)를 통해 산란된 광의 이미지(564)를 캡쳐함). 일부 실시예에서, 하나의 카메라(556)는 제1 광학 필터(558)를 통해 홍채로부터 산란된 광의 통과 동안에 빠르고 연속으로 이미지(564)의 시퀀스를 캡쳐하도록 구성될 수 있고, 필터 스위칭 메카니즘(562)은 제1 광학 필터(558)에서 제2 광학 필터(560)로 스위칭하도록 구성될 수 있고, 카메라(556)는 제2 광학 필터(560)를 통해 홍채로부터 산란된 광의 통과 동안에 빠르고 연속으로 이미지(564)의 시퀀스를 캡쳐하도록 구성될 수 있다.
제1 광학 필터(558)를 통해 홍채로부터 산란된 광의 통과 동안에 캡쳐된 이미지(564)는 빨간색-녹색-파란색 이미지(가령, 컬러 이미지)일 수 있다. 이에 반해, 제2 광학 필터(560)를 통해 홍채로부터 산란된 광의 통과 동안에 캡쳐된 이미지(564)는 홍채에 대한 구조 정보를 디스플레이하는 근적외선 이미지일 수 있다. 분석 모듈(112)은 캡쳐된 이미지(564)를 입력으로서 수신하고, 제1 및 제2 광학 필터(558, 560)를 통해 광의 통과 동안에 캡쳐된 이미지(564)에 디스플레이된 홍채 구조 정보 간에 매칭(match)이 존재하는지를 결정한다. 매칭이 존재하지 않으면, 분석 모듈은 매칭의 결핍이 살아있는 대상을 나타내는 것으로 결정하여서, 대상을 살아있는 대상으로 식별한다.
특히, 인가된 근적외선 광의 소스 때문에, 근적외선 각막의 반사의 특징적인 정반사는 진실성에 대해 테스트될 수 있다. 인쇄된 종이 스푸프는, 서로 다른 내부 광학 필터(558, 560)이 인가됨에 따라 나타나고 사라지는 각막의 반사를 디스플레이할 수 없어서, 시스템(550)에 의해 가짜라고 식별될 수 있다. 시스템(550)은 서로 다른 세트의 통과 특징을 가진 둘 이상의 광학 필터(558, 560)를 사용함에 의해, 제시 공격으로부터 진자 홍채를 구별할 수 있는 스펙트럴 판별기(554)의 형태로 광학 필터링 시스템을 도입한다. 분석 모듈(112)에 의해 수행되는 계산적인 양태는 제1 단계의 홍채 인식(가령, 눈 찾기 단계)에서 작동할 수 있어서, 적은 계산적인 오버헤드(overhead)를 가지고 빠르게 작동할 수 있다.
시스템(550)은 사람이 볼 수 있고 근적외선 광에 민감한 이미지 센서 서브시스템(가령, 카메라(556)에 포함됨), 센서에 도달하는 광의 스펙트럼을 수정하는 광학 필터링 서브시스템(가령, 스펙트럴 판별기), 센서(가령, 카메라(556)) 상의 홍채의 이미지(564)를 생성하는 렌즈 서브시스템 및 홍채의 고유한 구조를 이미지하기 위해 근적외선 광을 제공하는 조명 서브시스템(가령, 조명 소스(552))를 포함한다. 조명 소스(552)는 어두운 주변 광의 경우에 대해 보조 시각적 조명을 선택적으로 제공할 수 있다. 시스템(550)은 하드웨어를 보안적으로 자동화하고, 궁극적으로 홍채 인식에 적절한 홍채 이미지(564)를 렌더링하기 위해, 명령어 또는 소프트웨어를 포함할 수 있다.
상기에 표시된 바와 같이, 시스템(550)은 가짜 홍채로부터 진짜 홍채를 구별하기 위한 기초로서, 시스템(55)에 의해 이미징된 광의 스펙트럼을 사용한다. 시스템(550)은 둘 이상의 측정치를 만들고, 이들 각각은 서로 다른 광학 스펙트럼에 민감하다. 측정된 스펙트럴 특징에 기초하여, 분석 모듈은 제시된 홍채가 살아있는 대상인지 복사본 이미지인지를 결정한다. 광의 근적외선 밴드 내의 홍채의 조명은 홍채의 제1 표면에 종종 있는 색소를 침투하는데 사용된다. 홍채로부터 산란된 근적외선 광은 대상에 고유하게 발견되었던 홍채의 구조에 대한 정보를 가지고 이미징 시스템(가령, 카메라(556))로 되돌아온다.
근적외선 조명이 홍채로부터 산란되기 전에, 눈의 부드럽고 빛나는 각막을 치기 때문에, 각막으로부터의 정반사가 홍채 이미지(564)에 전형적으로 존재한다. 정반사(가령, 반사)는 전형적으로 반사성 각막의 작은 영역으로부터 광의 반짝임의 세기 때문에 포화되거나 거의 포화된 홍채 이미지(564) 내의 작은 점이다. 반사가 시스템(550)의 근적외선 조명기의 반사이기 때문에, 반사의 광의 스펙트럼은 근적외선 조명기의 스펙트럼이다. 각막 상에 입사하는 다른 소스의 광(가령, 태양 빛이나 실내 빛) 때문에, 카메라(556)로 되돌아오는 다른 전반사도 있을 수 있지만, 이들 다른 반사는 전형적으로 근적외선 조명 소스(552)에 의해 인가되는 것보다 어둡고, 근적외선 조명 소스(552)의 위치와 항상 각막 상의 상이한 위치에 있다. 특히, 근적외선 조명기와 카메라(556)의 렌즈의 상대 위치 때문에, 근적외선 조명기의 반사는 잘 알려져 있다. 예를 들어, 근적외선 반사는 대상의 동공 위의 대상의 각막의 우사분면에 있을 수 있고, 복수의 조명 소스(552)의 경우에, 한 쌍의 근적외선 반사는 대상의 동공의 중간의 반대편에 있을 수 있다. 그러므로, 시스템(550)은 근적외선 반사가 나타날 것으로 예상되는 곳을 비교적 높은 정밀도로 미리 검출할 수 있다.
제시 공격의 경우에, 공격자는 인간 홍채의 복사본을 생성하여 시스템(550)에 스푸프 한다. 설명을 위해, 복사본은 종이에 인쇄된 홍채의 사진일 수 있고, 그것이 진짜 홍채로 보이게 하려고 시스템(550)의 앞에 위치시킬 수 있다. 이러한 사진은 근적외선 조명된 실제 홍채의 예상된 홍채 정보(가령, 홍채에 대한 스펙트럴 정보)를 포함하기에 충분히 실제적이어야 한다. 또한, 복사본은 시스템(550)의 근적외선 조명 하에서 진짜로 보여야 하고, 따라서, 종이와 같이 적절한 표면상의 적절한 물질로 인쇄되어야 한다. 근적외선 조명하에서 실제적인 홍채의 요구사항이 만족되면, 스푸프는 홍채 인식 시스템에 등기된 사람의 홍채를 포함하여야 한다.
시스템(550)에서, 제1 알고리즘 단계들 중 하나는 눈 찾기 단계일 수 있는데, 여기서, 다음 단계로 진행되기 전에 눈 또는 한 쌍의 눈이 존재하는 증거에 대해 장면이 검색된다. 눈의 존재를 검출하기 위한 하나의 방법은 시스템(550)의 근적외선 조명기의 특징인 대상의 각막 상의 숨길 수 없는 정반사를 검색하는 것이다. 찾으면, 시스템(550)은 대상의 홍채에 인코딩된 고유한 홍채 정보를 검출한다. 시스템(550)은 홍채를 테스트하는 한 세트의 측정치 및 스펙트럴 콘텐츠를 위한 그 반사성을 포함한다.
홍채 이미지(564)의 스펙트럴 테스트의 예시는 스펙트럴 판별기(554)를 통해 시스템(550)의 렌즈에 의해 수집된 광을 통과시키는 것이다. 상기에 표시된 바와 같이, 스펙트럴 판별기(554)는 서로 다른 세트의 통과 특징의 한 쌍의 광학 필터(558, 560)의 형태일 수 있다(가령, 제1 광학 필터(558)는 사람에게 보이는 광만 통과시킬 수 있고, 전형적으로 약 380 nm 내지 약 780 nm의 파장 범위에 걸쳐있고, 제2 광학 필터(560)는, 30 nm 밴드와 같이, 약 850 nm의 중심 파장 조명기 근적외선 조명기에 의해 발산된 광만 통과시킬 수 있음)
제1 광학 필터(558)는 카메라(556)에 근적외선 정반사가 도달하는 것을 완전히 차단하고, 그 결과, 제1 광학 필터(558)를 통해 이미지된 홍채는 특징적인 근적외선 정반사가 없는 사람-눈에 보이는 광을 포함한다(가령, 빨간색-녹색-파란색 이미지). 제2 광학 필터(560)는 근적외선 조명기와 동일한 밴드의 광만 통과시키고, 제2 광학 필터(560)를 통해 이미지된 홍채는 근적외선 반사 및 대상의 홍채(가령, 근적외선 이미지)에 대한 고유한 구조 정보를 포함한다. 일부 실시예에서, 필터(558, 560)는 하나의 카메라(556)의 앞에 선택적으로 통과될 수 있고, 또는 복수의 카메라(556)가 서로 다른 필터(558, 560)를 사용할 수 있다.
예를 들어, 진짜 홍채의 빨간색-녹색- 파란색 및 근적외선 이미지(564)와 제시 공격에서의 복사본 홍채의 빨간색-녹색-파란색 및 근적외선 이미지(564)의 차이 이하가 고려대상이다. 진짜 홍채의 근적외선 이미지(564)는 홍채 색소와 독립적인 홍채 구조를 디스플레이하고, 근적외선 반사를 더욱 디스플레이한다. 진짜 홍채의 빨간색-녹색-파란색 이미지(564)는 홍채 구조를 숨기거나 숨기지 않을 수 있는 홍채 색소를 디스플레이하고, 근적외선 반사의 증거르 디스플레이하지 않는다.
이에 반해, 종이에 인쇄된 복사본 홍채의 근적외선 이미지(564)는 홍채 신원을 확인하기 위해 필요한 홍재 구조를 디스플레이할 수 있고, 시스템(550)의 눈-찾기 루틴에 의해 필요한 홍채 반사를 디스플레이할 수 있다. 빨간색-녹색-파란색 이미지(564)는 동일한 홍채 구조를 디스플레이하는데, 왜냐하면, 그것은 가짜 홍채 사진 상에 인쇄되었기 때문이고, 더 나아가 근적외선 정반사의 증거를 디스플레이하는데, 왜냐하면, 그것도 가짜 홍채 사진 상의 예상된 위치에 인쇄되기 때문이다. 충분한 주변 조명이 정확한 빨간색-녹색-파란색 이미지(564)가 캡쳐되도록 허용하기 위해 사용가능해야 한다는 것을 주목해야 한다. 주변 광 레벨이 빨간색-녹색-파란색 이미지(564)를 생성하기에 불충분하다면, 보조 가시광이 대안적인 조명 소스(552)(가령, 하나 이상의 백색 발광 다이오드(LED))로부터 제공될 수 있다.
일부 실시예에서, 가짜 홍채로부터 진짜 홍채를 구별하기 위해 스펙트럴 정보를 사용하는 수단은, 빨간색-녹색-파란색 및 근적외선 이미지(564)에 디스플레이된 홍채 구조 정보 간의 매칭이 존재하는지를 결정하기 위한 분석 모듈(564)과 관련된다. 매칭이 존재하거나 이미지(564)의 실질적인 부분이 매칭되면, 분석 모듈(112)은 매칭이 복사본 이미지를 나타내는 것으로 결정할 수 있어서, 대상을 복사본 이미지로 신빙성을 훼손시키는데, 왜냐하면, 진짜 홍채의 색소는 전형적으로 근적외선 스펙트럼에서 보이는 구조 정보를 차단하기 때문이다. 때로는, 약간 색소화된(가령, 파란색) 홍채의 경우, 아주 약간의 색소가 홍채의 앞에 존재하는데, 빨간색-녹색-파란색 밴드 내에서 보이는 홍채는 근적외선 밴드에서 보이는 것과 매칭될 수 있다. 분석 모듈(112)은, 홍채 구조 정보를 검출하고, 약간 색소화된 홍채에서라도, 빨간색-녹색-파란색 및 근적외선 이미지(564) 간을 구별하기 위해, 이미지(564)를 정확하게 리뷰하도록 구성될 수 있다. 분석 모듈(112)이 근적외선 및 빨간-녹색-파란색 이미지(564) 간의 차이 또는 비매칭을 검출하면, 분석 모듈(112)은 차이 또는 비매칭이 살아있는 대상을 나타내는 것으로 결정할 수 있어서, 대상을 살아있는 대상으로 식별한다.
일부 실시예에서, 가짜 홍채로부터 진짜 홍채를 구별하기 위해 스펙트럴 정보를 사용하는 수단은, 근적외선 반사의 존재에 대해 이미지(564)를 분석하는 것과 관련된다. 진짜 홍채에 대하여, 근적외선 조명기에 의해 생성된 조명과 정렬되는 것으로 알려진 위치에서의 반사는 근적외선 이미지에 디스플레이되고, 빨간색-녹색-파란색 이미지에 디스플레이되지 않는데, 왜냐하면, 빨간색-녹색-파란색 필터(가령, 제1 광학 필터(558))에 의해 차단되기 때문이다. 가짜 홍채에 대하여, 눈-찾기 루틴에 의해 요구되는 근적외선 반사는 빨간색-녹색-파란색 및 근적외선 홍채 이미지(564) 모두에 존재한다. 반사가 정확한 위치에 각막의 광점으로서, 제시 공격 스푸프에서 간단히 인쇄되고, 근적외선 광은 물론 사람이 볼 수 있는 광을 반사하기 때문에, 이러한 현상이 발생한다. 빨간색-녹색-파란색 및 근적외선 이미지 모두에서 발견되는 근적외선 반사는 가짜 홍채 이미지를 표시한다. 다시 말해, 충분한 주변 조명이 가능하여, 정확한 빨간색-녹색-파란색 이미지(564)가 캡쳐되도록 해야한다는 것을 주목해야 한다. 주변 광 레벨이 빨간색-녹색-파란색 이미지(564)를 생성하기에 불충분하다면, 보조 시각적 광이 대안적인 조명 소스(552)(가령, 하나 이상의 백색 발광 다이오드(LED))로부터 제공될 수 있다.
일부 실시예에서, 가짜 홍채로부터 진짜 홍채를 구별하기 위해 스펙트럴 정보를 사용하는 수단은, 근적외선 및 빨간색-녹색-파란색 이미지(564)의 획득과 관련된 시간 정보의 사용과 관련된다. 예를 들어, 홍채 획득 루틴은 빨간색-녹색-파란색 필터(가령, 제1 광학 필터(558))를 사용함에 의해, 빠르고 연속으로 카메라(556)로 여러 빨간색-녹색-파란색 이미지(564)를 획득함에 의해 시작될 수 있고, 그리고 나서, 빨간색-녹색-파란색 필터에서 근적외선 필터(가령, 제2 광학 필터(560))로 필터 세트를 변경함에 의해, 근적외선 이미지(564)로 빠르게 스위칭되고, 빠르고 연속으로 카메라(556)로 근적외선 이미지(564)를 캡쳐한다. 필터 스위치 타이밍은 시스템(550)에 알려져 있을 수 있고, 결과로 나온 이미지(564)는 카메라(556) 및/또는 분석 모듈(112)에 의해 적절히 라벨링될 수 있다. 일부 실시예에서, 필터 스위치 타이밍 및/또는 주파수는 각각의 거래에 따라 가변될 수 있다. 심지어 공격자가 각각의 필터 세트에 대해 적절히 준비된 이미지를 가지고 있더라도, 제시 공격자가 필터 스위치 타이밍을 알지 못하면, 공격자는 언제 적절한 이미지를 제시해야 하는지 알지 못할 것이다. 그러므로, 이미지(564)를 캡쳐하는 것과 관련된 시간 정보는 시스템(550)의 스푸핑을 방지하는데 사용될 수 있다.
일부 실시예에서, 가짜 홍채로부터 진짜 홍채를 구별하기 위해 스펙트럴 정보를 사용하는 수단은, 대상의 눈 주변 영역(가령, 눈 영역) 또는 대안적으로 대상의 얼굴 전체로부터 수집된 정보를 사용할 수 있다. 카메라(556)는 대상의 홍채 주변 영역의 하나 이상의 이미지(564)를 캡쳐하도록 구성될 수 있다. 회색-그림자만(가령, 단색) 있는 제시는 색소와 관련하여 실제적인 얼굴 또는 눈 영역을 제시할 수 없다. 대상의 빨간색-녹색-파란색 이미지(564)로부터 하나 이상의 단색 영역의 분석 모듈(564)에 의한 검출은 가짜 홍채를 표시할 수 있고, 이는 도 다른 레벨의 스푸핑 방지를 제공한다.
일부 실시예에서, 시스템(550)은 상기 기술된 스펙트럴 방법과 함께, 스푸핑 방지의 추가적인 특징을 포함할 수 있다. 일부 실시예에서, 시스템(550)은 감각 상의 근적외선 정반사의 구조를 검출할 수 있다. 각막으로부터의 정반사는 밝고, 따라서, 전형적으로, 홍채로부터 낮은 콘트라스트와 어두운 이미지를 검출하기 위해 설정된 홍채 이미지 센서(가령, 카메라(556)에 내부에 있는)를 포화시킨다. 이에 반해, 종이 인쇄된 스푸프 홍채로부터의 정반사는 사진 상의 밝은 영역을 디스플레이한다. 밝은 영역은, 시스템(550)으로부터 밝은 근적외선 광에 의해 조명될 때에도, 이미지 센서를 포화시키지 않는다. 그러므로, 시스템(550)으로 스푸프 홍채 이미지를 검출하는 하나의 프로세스는 근적외선 조명기로부터 예상된 각막의 반사의 구조를 검사하는 것을 포함할 수 있다. 포화된 반사를 가진 진짜의 홍채 이미지(564)는 그 영역에 걸쳐 평평한 분포의 세기를 디스플레이하고, 실질적으로 모든 픽셀은 가능한 최대치를 판독하는데, 왜냐하면, 이들은 이미지 센서의 포화에 의해 클립핑되기 때문이다. 이에 반해, 가짜 반사의 이미지(564)는 포화된 값 아래의 최대치 및 홍채 이미지의 밝은 부분의 전형적인 값의 분포를 디스플레이한다.
이러한 프로세스에서, 근적외선 조명기에 의한 적절한 위치에서 발견된 정반사는 그 구조를 위해 분석 모듈(112)로 분석된다. 클리핑되고 평한 분포가 아니라 픽셀 세기의 피크 분포를 나타내는 정반사는 실제 반사가 아니라 반사의 복사본 사진으로부터 기인할 가능성이 있다. 예외가 있다. 첫째, 먼 거리에서 이미지된 실제 눈은 센서를 포화시키는데 요구되는 광 보다 적은 광을 반사할 수 있다. 이러한 거리는 여전히 인식 범위 이내에 있다면, 어두운 정반사는 분석 모듈(112)로 반사의 사진 스푸프로 오인할 수 있다. 둘째, 사진 스푸프가 특별하게 설계되고, 정반사의 위치와 일치하는 매우 반사성인 영역으로 준비된다면, 스푸푸는 이미지를 포화시키는 정반사를 생성할 수 있고, 분석 모듈(112)에 의해 진짜 홍채로 오인할 수 있다.
그러나, 두 경우에 대해, 분석 모듈(112)로 구조에 대해 분석된 정반사는 추가적인 스푸핑 방지 분석(상기 기술된 바와 같은)을 겪을 수 있어서, 대상의 진정성을 보장할 수 있다. 특히, 구조에 대해 분석된 정반사는, 상기에서 논의된 빨간색-녹색-파란색 필터(가령, 제1 광학 필터(558))를 통해 볼 때, 스펙트럴 콘텐트르 교정할 필요가 있다. 스펙트럴 콘텐트 분석이 독립적으로 수행될 수 있더라도, 스펙트럴 콘텐트와 스펙트럴 반사 분석의 조합도 스푸핑 이미지를 진짜 이미지로 오인할 가능성을 효과적으로 줄일 수 있다. 또한, 어두운 정반사의 문제는 홍채 지름를 검사함에 의해 홍채 거리에 대한 테스팅에 의해 완화될 수 있는데, 이는 대략 20% 이내의 거리를 구축하는 신뢰성 있는 방법일 수 있다. 포화된 반사를 생성하기 위해 홍채가 예상된 거리 이내에 있는 것으로 결정되면, 그리고 그 거리에서, 결정되지 않으면, 분석 모듈(112)은 이미지를 가짜 홍채로 신빙성을 훼손시킬 수 있다.
일부 실시예에서, 시스템(550)은 본 명세서에서 기술된 대안적인 시스템과 조합하여 사용될 수 있는데, 각각의 시스템의 결정은 대상이 살아있는 대상 또는 복사본인지의 최종 결정에 대해 가중화된다. 예를 들어, 시스템(550)은 동공 크기 측정법을 포함하여, 낮은 주변 광 조건 하에서 홍채 인식에 대해 추가적인 스푸핑 방지 보호를 제공할 수 있다. 동공 크기 측정법을 위해, 시스템(550)은 대상의 동공의 수축을 유발하기 위해 대상의 각막 영역을 조명하도록 구성된 하나 이상의 각막 영역 조명 소스(566)를 포함할 수 있다. 카메라(556)는 동공의 수축 동안에, 대상의 이미지(564)의 시퀀스를 캡쳐하도록 구성된다. 분석 모듈(112)은 이미지(564)를 수신하고, 대상의 살아있음을 결정하기 위해, 수축 이전 및 수축 동안에, 동공의 지름을 측정한다. 특히, 동공 크기 측정법은 눈의 동공의 지름, 눈 안으로 광이 들어가는 홍채의 중심에서의 구멍을 측정한다. 대부분의 경우, 살아있는 사람 홍채는 주변 광 레벨의 인지가능한 변화에 응답하여 지름이 변한다. 홍채는 주변 광 레벨이 떨어지면 확장하고, 주변 광 레벨이 올라가면 수축한다.
대상이 밝거나 중간 밝기의 주변 조건하에서 시스템(550)을 사용한다면, 대상의 동공은 중간 크기나 작을 것이다. 이들 조건하에서, 또 다른 대상의 홍채를 사용하여 시스템(550)을 스푸핑하려는 동일한 대상은, 정반사에 대응되는 가짜 홍채 사진의 밝은 점으로부터 산란되는 주변 광 때문에, 빨간색-녹색-파란색 밴드에서 정반사를 나타내는 빨간색-녹색-파란색 필터를 통해 홍채 이미지(564)를 생성할 수 있다. 그러므로, 이러한 제시 공격은 스펙트럴 콘텐트 및/또는 스펙트럴 반사 분석에 의해 좌절될 것이다.
그러나, 대상이 어둡거나 캄캄한 주변 조건하에서 시스템(550)에 스푸프 홍채를 제시한다면, 스펙트럴 콘텐트 분석의 빨간색-녹색-파란색 이미지(564)는 반사를 디스플레이하지 않을 수 있는데, 왜냐하면 전체 이미지가 빨간색-녹색-파란색 밴드 내에서 캄캄할 것이기 때문이다. 그러므로, 스펙트럴 콘텐트 분석은 정반사의 표시를 나타내지 않고, 스푸프 이미지 내의 가짜 반사로부터 산란되는 근적외선 조명 때문에, 스펙트럴 콘텐트 분석의 근적외선 이미지가 반사를 나타낼 것이다. 그러므로, 스펙트럴 콘텐트 분석은 매우 어두운 주변 광의 경우에는 덜 효과적일 수 있다. 스펙트럴 반사 분석은, 멀리 있는 홍채가 포화되지 않은 근적외선 반사를 생성하는 경우라 할지라도, 어두운 주변 광 하에서 적절하게 기능할 수 있다.
보조 가시광 소스(가령, 하나 이상의 가시적 파장 발광 다이오드(LED))는 주변 조명을 증가시키는데 사용될 수 있다. 대안적으로, 그래픽 사용자 인터페이스(122)의 디스플레이 스크린에 의해 발산되는 가시적 스펙트라 광은, 분석 모듈(112)에 의해 적절하게 분석될 수 있는 이미지(564)를 캡쳐하기 위해, 카메라(556)에게 알맞는 양의 주변 조명을 제공할 수 있다. LED 또는 밝은 디스플레이는 가짜 홍채 사진의 전반사를 조명하는 추가적인 주변 광을 제공할 수 있고, 스펙트럴 콘텐트 분석이 빨간색-녹색-파란색 이미지(564) 내의 반사를 표시하도록 야기할 것이고, 분석 모듈(112)에 의해 스푸프 이미지로 결정될 것이다. LED 또는 밝은 디스플레이는 또한, 대상의 동공이 홍채 인식을 위해 알맞은 크기로 수축하도록 야기할 수 있다.
일부 실시예에서, LED가 턴온되거나 디스플레이가 밝아져서, 빠른 시퀀스로 획득된 이미지(564)에 의해 동공 수축이 캡쳐될 수 있고, 빨간색-녹색-파란색 또는 근적외선 밴드에서 캡쳐될 수 있다. 그러므로, 어둡거나 캄캄한 주변 광의 경우에, 추가적인 주변 광은 수행될 스펙트럴 콘텐트 분석을 할 수 있도록 하고, 이와 동시에, 살아있는 홍채의 수축에 대해 검색함에 의한 동공 크기 측정법을 통해 살아있음을 검출할 수 있다. 시스템(550)에 의해 근적외선 밴드 내에 이미지된 LED(또는 디스플레이)의 자극에 대해 캄캄한 주변 조건에서 수축 결핍의 검출은 종이 상에 인쇄된 정적인 홍채의 형태의 스푸프의 제시를 표시할 것이다. 그러므로, 시스템(550)의 서로 다른 실시예나 구성들은, 거리의 광범위 및 주변 광 조건에 대해 홍채의 살아있음을 확인하기 위해 개별적으로나 조합으로 사용될 수 있고, 제시 공격을 통해 시스템(550)을 스푸프하는데 높은 난이도를 형성한다.
도 13a-13b는 시스템(550)을 실행하는 예시적인 프로세스(600)을 나타내는 순서도이다. 시작하기 위해, 단계(602)에서, 대상의 홍채는 조명 소스로 조명된다. 선택적으로 단계(604)에서, 대상의 각막 영역은 대상의 동공의 수축을 유발하기 위해, 제2 조명 소스로 조명될 수 있다. 단계(606)에서, 홍채로부터 산란된 광은 스펙트럴 판별기의 제1 광학 필터와 제2 광학 필터를 통해 선택적으로 수신되고, 각각의 필터는 서로 다른 세트의 통과 특징을 가진다. 단계(608)에서, 대상의 하나 이상의 이미지는 제1 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에 카메라로 캡쳐된다. 단계(610)에서, 대상의 하나 이상의 이미지는 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에 카메라(또는 서로 다른 카메라)로 캡쳐된다. 일부 실시예에서, 단계(608 및 610)는 실질적으로 동시에 발생할 수 있다.
선택적으로, 단계(612)에서, 대상의 이미지의 시퀀스는 제1 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 빠르고 연속으로 카메라로 캡쳐될 수 있고, 이후에, 대상의 이미지의 시퀀스는 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 빠르고 연속으로 카메라로 캡쳐될 수 있다. 선택적으로, 단계(614)에서, 대상의 홍채 주변 영역의 하나 이상의 이미지는 카메라로 캡쳐될 수 있다. 선택적으로, 단계(616)에서, 대상의 이미지의 시퀀스는 대상의 동공의 수축 동안에 카메라로 캡쳐될 수 있다. 단계(618)에서, 분석 모듈은 제1 및 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에 캡쳐된 이미지를 입력으로서 수신한다. 선택적으로, 단계(620)에서, 분석 모듈은 홍채 주변 영역의 이미지를 수신할 수 있고, 적어도 하나의 이미지의 일부가 단색인지를 결정할 수 있다.
선택적으로, 단계(622)에서, 분석 모듈은 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 대상의 이미지를 입력으로서 수신하고, 이미지 내에 디스플레이된 각막 반사 구조를 분석할 수 있다. 선택적으로, 단계(624)에서, 분석 모듈은 동공의 수축 동안에, 대상의 이미지의 시퀀스를 입력으로서 수신하고, 대상의 살아있음을 결정하기 위해 수축 이전과 수축 동안에 동공의 지름을 측정할 수 있다. 단계(626)에서, 분석 모듈은 제1 및 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에 이미지 내에 디스플레이된 홍채 구조 정보 간에 매칭이 존재하는지를 결정한다. 단계(628)에서, 분석 모듈은 이미지 내에 홍채 구조 정보 간의 매칭은 살아있는 대상을 나타내지 않고, 복사본 이미지를 나타내어서, 이미지 내에 홍채 구조 정보 간에 매칭이 존재하면, 대상을 복사본 이미지로 신빙성을 훼손시킨다. 단계(630)에서, 분석 모듈은 이미지 내에 홍채 구조 정보 간에 매칭의 결핍은 복사본 이미지를 나타내지 않고 살아있는 대상을 나타내어서, 이미지 내에 홍채 구조 정보 간의 매칭이 존재하지 않으면, 대상을 살아있는 대상으로 식별한다. 선택적으로, 단계(632)에서, 분석 모듈은, 대상의 각막 반사가 살아있는 대상 반사와 매칭하면, 대상을 살아있는 대상으로 식별할 수 있다. 선택적으로, 단계(634)에서, 분석 모듈은 수축 이전의 동공의 측정된 지름과 수축 동안의 동공의 측정된 지름이 상이하면, 대상을 살아있는 대상으로 식별하여서, 대상의 살아있음을 표시한다.
도 14를 참조하면, 예시적인 바이오메트릭 분석 시스템(650)(이하, "시스템(650)"이라 함)의 제6 실시예의 블록도가 제공된다. 시스템(650)은 조명 동안에 홍채의 반사 특징을 인증함에 의해, 대상 또는 홍채 신원 확인 시스템의 사용자의 살아있음을 보장하여서, 제시 공격에 의해 스푸핑을 좌절시킨다. 시스템(650)은 근적외선 광으로 대상의 눈을 조명하도록 구성된 하나 이상의 조명 소스(652)를 포함한다. 근적외선 조명은 근적외선 스펙트럼이 아닌 가시 영역의 광을 흡수하는 홍채 색소를 통해 홍채 조직을 검출하고 디스플레이하는데 사용된다. 근적외선 조명 소스(652)는, 눈의 이미지(656)를 캡쳐하기 위해, 하나 이상의 카메라(654)에 대해 눈이 충분히 잘 조명된다.
근적외선 조명은 각막 상에 작지만 강한 정반사를 생성한다. 이미지(656)는 근적외선 조명 소스(652)에 의해 야기된 눈의 반사 특징을 디스플레이한다. 종이-기반의 제시 공격은 시스템(650)에 의해 캡쳐될 반사를 프린팅에 의해 반사를 모방하려고 할 수 있다. 그러나, 인쇄된 반사는 일반적으로 밝지도 않고, 실제 눈으로부터의 반사처럼 균일하지도 않다. 분석 모듈(112)은 이미지(656) 내의 반사를 분석하고, 한 조각의 종이 상에 생성된 반사로부터 실제 눈으로부터의 반사를 구별한다. 특히, 분석 모듈(112)은 이미지(656) 내의 반사 특징의 밝기 및/또는 균일함을 분석하고, 검출된 반사 특징에 기초하여, 눈의 3차원성과 살아있음을 결정한다.
시스템(650)은 대상으로부터 응답(자동적 또는 자발적)을 요구하지 않는다. 대신에, 시스템(650)은, 대상이 눈의 반사 특징에 기초하여 빛나는 각막 표면을 가진 3차원적인 눈을 가지는 것을 검출한다. 살아있는 눈은 둥글고 촉촉하다. 근적외선 광으로 조명될 때, 살아있는 눈은 매우 밝고 균일한 정반사를 생성한다. 반사의 수와 위치는 조명 소스(652)의 수와 위치에 기초하여 변할 수 있다. 눈이 있는 인쇄된 종이와 관련된 제시 공격에서, 반사는 종이 상에 인쇄된 눈으로 제시되지만, 종이 자체에 의해 생성되지 않는다. 복사본 이미지 내의 반사는 전형적으로 어둡고, 진짜 눈의 정반사 보다 훨씬 덜 균일하다. 카메라(654)에 의해 캡쳐된 이미지(656)를 분석함에 의해, 반사의 밝기 및/또는 균일성이 측정될 수 있다. 반사의 측정된 밝기 및/또는 균일성에 기초하여, 분석 모듈(112)은 특징이 진짜 눈에 해당하는지 종이 스푸프에 해당하는를 결정할 수 있다.
도 15는 시스템(650)을 실행하는 예시적인 프로세스(700)를 나타내는 순서도이다. 시작하기 위해, 단계(702)는 대상의 눈이 조명 소스로 조명된다. 단계(704)에서, 눈의 하나 이상의 이미지는 제1 조명 소스로 눈을 조명하는 동안에, 카메라로 캡쳐된다. 이미지는 눈의 반사 특징을 디스플레이한다. 단계(706)에서, 분석 모듈은 캡쳐된 이미지를 입력으로서 수신한다. 단계(708)에서, 분석 모듈은 눈의 반사 특징의 밝기 및/또는 균일성을 분석한다. 단계(710)에서, 분석 모듈은 반사 특징에 기초하여 눈의 3차원성을 결정한다. 단계(712)에서, 분석 모듈은 어두운 밝기 레벨 및 낮은 균일성 레벨의 반사 특징이 살아있는 대상을 나타내지 않고, 복사본 이미지를 나타내는지를 결정하고, 어두운 밝기 레벨과 낮은 균일성 레벨의 반사 특징에 기초하여, 대상을 복사본 이미지로 신빙성을 훼손시킨다. 분석 모듈은 밝고 균일한 반사 특징이 복사본 이미지를 나타내지 않고, 살아있는 대상을 나타내는지를 결정하고, 반사 특징이 밝고 균일하면, 대상을 살아있는 대상으로 식별할 수 있다.
도 16은 본 개시물의 예시적인 실시예에 따른 컴퓨팅 장치(800)의 블록도이다. 컴퓨팅 장치(800)는 예시적인 실시예를 실행하기 위한 하나 이상의 컴퓨터-실행가능한 명령어나 소프트웨어를 저장하기 위한 하나 이상의 비-일시적 컴퓨터-판독가능한 매체를 포함한다. 비-일시적 컴퓨터-판독가능한 매체는, 하나 이상의 하드웨어 메모리, 비-일시적 유형의 매체(가령, 하나 이상의 자기 저장 디스크, 하나 이상의 광학 디스크, 하나 이상의 플래시 드라이브) 등을 포함할 수 있으나, 이에 제한되지 않는다. 예를 들어, 컴퓨팅 장치(800) 내에 포함되는 메모리(806)는 본 개시물의 예시적인 실시예를 실행하기 위한 컴퓨터-판독가능하고, 컴퓨터-실행가능한 명령어 또는 소프트웨어를 저장할 수 있다(가령, 조명 소스를 작동시키기 위한 명령어, 카메라를 작동시키기 위한 명령어, 분석 모듈을 작동시키기 위한 명령어, 프로세싱 장치를 작동시키기 위한 명령어, 사용자 인터페이스를 작동시키기 위한 명령어, 통신 인터페이스를 작동시키기 위한 명령어, 중앙 컴퓨팅 시스템을 작동시키기 위한 명령어, 바이오메트릭 분석 시스템의 임의의 다른 구성을 작동시키기 위한 명령어, 이들의 조합 등). 또한, 컴퓨팅 장치(800)는, 구성 가능하고 및/또는 프로그램 가능한 프로세서(802) 및 이와 고나련된 코어(804) 및 선택적으로, 하나 이상의 추가적으로 구성 가능하고 및/또는 프로그램 가능한 프로세서(들)(802') 및 이와 관련된 코어(들)(804')(가령, 복수의 프로세서/코어를 가진 컴퓨터 시스템의 경우)를 포함하여, 메모리(806) 내에 저장된 컴퓨터-판독가능하고 컴퓨터-실행가능한 명령어나 소프트웨어 및 시스템 하드웨어를 제어하기 위한 다른 프로그램을 실행한다. 프로세서(802) 및 프로세서(들)(802')는 각각 단일 코어 프로세서나 복수의 코어(804 및 804') 프로세서일 수 있다.
가상화는 컴퓨팅 장치(800)에서 사용될 수 있어서, 컴퓨팅 장치(800) 내의 인프라구조와 리소스는 동적으로 공유될 수 있다. 가상 머신(814)은 복수의 프로세서 상의 프로세스를 다루기 위해 제공될 수 있어서, 프로세스는 복수의 컴퓨팅 리소스가 아닌 오직 하나의 컴퓨팅 리소스를 사용하는 것으로 보인다. 복수의 가상 머신은 또한 하나의 프로세서로 사용될 수 있다. 메모리(806)는 DRAM, SRAM, EDO RAM 등과 같은 컴퓨터 시스템 메모리나 랜덤 액세스 메모리를 포함할 수 있다. 메모리(806)는 조합은 물로 다른 유형의 메모리를 포함할 수 있다.
사용자는, 컴퓨터 모니터와 같은 시각적 디스플레이 장치(818)(가령, 개인용 컴퓨터, 모바일 스마트 장치 등)를 통해 컴퓨팅 장치(800)와 상호작용할 수 있는데, 상기 시각적 디스플레이 장치는 예시적인 실시예에 따라 제공될 수 있는 하나 이상의 사용자 인터페이스(820)(가령, 그래픽 사용자 인터페이스)를 디스플레이할 수 있다. 컴퓨팅 장치(800)는 사용자로부터 입력을 수신하기 위한 다른 I/O 장치, 가령, 카메라, 센서, 키보드 또는 임의의 적절한 멀티-포인트 터치 인처페이스(808), 포인팅 장치(810)(가령, 마우스)를 포함할 수 있다. 키보드(808) 및 포인팅 장치(810)는 시각적 디스플레이 장치(818)에 결합될 수 있다. 컴퓨팅 장치(800)는 그 밖의 다른 적절한 종래의 I/O 주변기기를 포함할 수 있다.
컴퓨팅 장치(800)는 또한, 하드-드라이브, CD-ROM, eMMC(멀티미디어카드), SD(시큐어 디지털) 카드, 플래시 드라이브, 비휘발성 저장 매체 또는 본 명세서에 기술된 바이오메트릭 분석 시스템의 예시적인 실시예를 실행하는 컴퓨터-판독가능한 명령여 및/또는 소프트웨어와 데이털르 저장하기 위한 하나 이상의 저장 장치(824)를 포함할 수 있다. 예시적인 저장 장치(824)는 또한, 예시적인 실시예를 실행하기 위해 요구되는 임의의 적절한 정보를 저장하기 위한 하나 이상의 데이터베이스(826)를 저장할 수 있다. 예를 들어, 예시적인 저장 장치(824)는 캡쳐된 이미지, 등록된 대상 정보, 지형학적인 지도, 이들의 조합 등과 같은 정보를 저장하기 위한 하나 이상의 데이터베이스(826) 및 본 명세서에 기술된 예시적인 실시예를 실행하는 컴퓨터-판독가능한 명령어 및/또는 소프트웨어를 저장할 수 있다. 데이터베이스(826)는 데이터베이스 내의 하나 이상의 아이템을 추가, 삭제 및/또는 업데이트하기 위해, 임의의 적절한 시간에 수동 또는 자동으로 업데이트될 수 있다.
컴퓨팅 장치(800)는, 가령, 로컬 영역 네트워크(LAN), 광역 네트워크(WAN) 또는 표준 전화 라인, LAN 또는 WAN 링크(가령, 802.11, Tl, T3, 56kb, X.25), 브로드밴드 연결(가령, ISDN, Frame Relay, ATM), 무선 연결, 컨트롤러 영역 네트워크(CAN) 또는 상기 기술된 임의의 또는 모든 조합을 포함하나 이에 제한되지 않는 다양한 연결을 통한 인터넷과 같은 하나 이상의 네트워크와 하나 이상의 네트워크 장치(822)를 통해 인터페이스하도록 구성된 네트워크 인터페이스(812)를 포함할 수 있다. 네트워크 인터페이스(812)는 내장형 네트워크 어댑터, 네트워크 인터페이스 카드, PCMCIA 네트워크 카드, PCI/PCIe 네트워크 어댑터, SD 어댑터, 블루투스 어댑터, 카드 버스 네트워크 어댑터, 무선 네트워크 어댑터, USB 네트워크 어댑터, 모뎀 또는 본 명세서에 기술된 작업을 수행하고 통신할 수 있는 임의의 유형의 네트워크에 컴퓨팅 장치(800)를 인터페이싱하기에 적합한 다른 장치를 포함할 수 있다. 게다가, 컴퓨팅 장치(800)는, 워크스테이션, 데스크톱 컴퓨터, 서버, 랩톱, 휴대용 컴퓨터, 태블릿 컴퓨터(가령, 테블릿 컴퓨터), 모바일 컴퓨팅 또는 통신 장치(가령, 스마트 폰 통신 장치), 내장된 컴퓨팅 플랫폼 또는 본 명세서에 기술된 작업을 수행하기에 충분한 프로세서 능력을 가지고, 통신을 할 수 있는 컴퓨팅 또는 텔레통신 장치의 다른 형태와 같은 임의의 컴퓨터 시스템일 수 있다.
컴퓨팅 장치(800)는 Microsoft® Windows® 운영 시스템의 임의의 버전, 유닉스 및 리눅스 운영 시스템의 서로 다른 출시품, 맥킨토시 컴퓨터에 대한 MacOS®의 임의의 버전, 임의의 내장된 운영 시스템, 임의의 실시간 운영 시스템, 임의의 오픈 소스 운영 시스템, 임의의 사적 운영 시스템, 또는 본 명세서에 기술된 작업을 수행하고 컴퓨팅 장치 상에서 운영될 수 있는 임의의 다른 운영 시스템과 같은 임의의 운영 시스템(816)을 실행시킬 수 있다. 예시적인 실시예에서, 운영 시스템(816)은 네이티브 모드 또는 에뮬레이티드 모드로 실행될 수 있다. 예시적인 실시예에서, 운영 시스템(816)은 하나 이상의 클라우드 머신 인스턴스 상에서 실행될 수 있다.
도 17은 본 개시물의 예시적인 실시예에 따른, 예시적인 바이오메트릭 분석 시스템 환경(900)의 블록도이다. 환경(900)은 네트워크에 통신적으로 연결된 장치들 간에 정보가 전송될 수 있는 임의의 네트워크 일 수 있는 통신 플랫폼(922)을 통해, 하나 이상의 조명 소스(906), 하나 이상의 카메라(908), 하나 이상의 센서(910), 분석 모듈(912), 사용자 인터페이스(914) 및 중앙 컴퓨팅 시스템(916)과 통신되도록 구성된 서버(92, 904)를 포함할 수 있다. 예를 들어, 통신 플랫폼(922)은 인터넷, 인트라넷, 가상 사설 네트워크(VPN), 광역 네트워크(WAN), 로컬 영역 네트워크(LAN) 등일 수 있다. 일부 실시예에서, 통신 플랫폼(922)은 클라우드 환경의 일부일 수 있다.
환경(900)은 검출된 스캔과 등록된 스캔을 매칭하기 위해, 하나 이상의 바이오메트릭 매칭 시스템(920)을 포함할 수 있고, 이는 통신 플랫폼(922)을 통해, 하나 이상의 조명 소스(906), 하나 이상의 카메라(908), 하나 이상의 센서(910), 분석 모듈(912), 사용자 인터페이스(914) 및 중앙 컴퓨팅 시스템(916)은 물로 서버(902, 904)와 통신될 수 있다. 환경(900)은 저장소 또는 데이터베이스(918)를 포함할 수 있는데, 이는, 통신 플랫폼(922)을 통해, 하나 이상의 조명 소스(906), 하나 이상의 카메라(908), 하나 이상의 센서(910), 분석 모듈(912), 사용자 인터페이스(914) 및 중앙 컴퓨팅 시스템(916)은 물론 서버(902, 904)와 통신될 수 있다.
예시적인 실시예에서, 서버(902, 904), 하나 이상의 조명 소스(906), 하나 이상의 카메라(908), 하나 이상의 센서(910), 분석 모듈(912), 사용자 인터페이스(914) 및 중앙 컴퓨팅 시스템(916)은 컴퓨팅 장치(가령, 컴퓨팅 장치(800))와 같이 실행될 수 있다. 기술 분야의 당업자는 하나 이상의 서버(902, 904) 내로 통합될 수 있다는 것을 인식할 것이다. 일부 실시예에서, 데이터베이스(918)는 캡쳐된 이미지, 등록된 대상 정보, 지형학적인 지도, 이들의 조합 등과 관련된 데이터를 저장할 수 있다. 일부 실시예에서, 캡쳐된 이미지, 등록된 대상 정보, 지형학적인 지도, 이들의 조합 등과 관련된 데이터는 복수의 데이터베이스(918)에 걸쳐 분산될 수 있다.
예시적인 실시예가 본 명세서에 기술되었지만, 이들 실시예는 제한적으로 해석되어서는 아니되고, 본 발명의 범위 내에 포함되는 본 명세서에 명시적으로 기술되는 것에 대한 추가예와 수정예로 해석되어야 한다는 것을 명시적으로 주목해야 한다. 게다가, 본 명세서에 기술된 다양한 실시예의 특징은, 조합이나 순열이 본 명세서에 명시적으로 표현되지 않더라도, 본 발명의 사상과 범위를 벗어나지 않으면, 상호 배타적이지 않고, 다양한 조합과 순열로 존재할 수 있다는 것을 이해해야 한다.

Claims (111)

  1. 대상의 홍채 및 대상의 눈, 눈 영역 주변 및 얼굴의 적어도 일부를 조명하도록 구성된 조명 소스와,
    조명 소스로 대상을 조명하는 동안에, 대상의 하나 이상의 이미지를 캡쳐하도록 구성된 카메라 - 하나 이상의 이미지는 홍채 및 눈 영역 주변 및 얼굴의 일부로부터 반사된 광을 디스플레이 함 - 와,
    하나 이상의 이미지를 입력으로서 수신하고, 하나 이상의 이미지 내의 반사된 광을 분석하고, 하나 이상의 이미지 내의 반사된 광을 기초로 대상의 3차원성의 결핍(lack)을 결정하도록 구성된 분석 모듈을 포함하는, 바이오메트릭 분석 시스템.
  2. 제 1 항에 있어서, 조명 소스는 근적외선 조명 소스인, 바이오메트릭 분석 시스템.
  3. 제 1 항에 있어서, 대상의 눈 영역 주변과 얼굴의 일부의 조명은 조명의 패턴을 생성하는, 바이오메트릭 분석 시스템.
  4. 제 1 항에 있어서, 분석 모듈은 대상의 조명 분포의 균일한 패턴의 검출에 기초하여, 대상의 3차원성의 결핍을 결정하도록 구성된, 바이오메트릭 분석 시스템.
  5. 제 1 항에 있어서, 분석 모듈은, 3차원성의 결핍이 살아있는 대상을 나타내지 않고, 복사본 이미지를 나타내는지를 결정하도록 구성된, 바이오메트릭 분석 시스템.
  6. 제 1 항에 있어서, 분석 모듈은 살아있는 대상의 얼굴에 대응되는 대상의 조명 분포의 불균일한 패턴의 검출에 기초하여, 대상의 3차원성을 결정하도록 구성된, 바이오메트릭 분석 시스템.
  7. 제 1 항에 있어서, 조명 소스는 대상의 눈 구멍(eye socket)의 측면 에지(temporal edge) 주위의 3차원적인 양각을 조명하도록 구성되고, 카메라는 대상의 눈 구멍의 측면 에지의 하나 이상의 이미지를 캡쳐하도록 구성되고, 분석 모듈은 대상의 눈 구멍의 측면 에지의 반사된 광을 분석하도록 구성된, 바이오메트릭 분석 시스템.
  8. 제 1 항에 있어서, 조명 소스는 대상의 홍채 및 대상의 눈 영역 주변과 얼굴의 일부를 조명하기 위한 정적인 광을 발산하도록 구성된, 바이오메트릭 분석 시스템.
  9. 제 8 항에 있어서, 정적인 광은 실질적으로 균일한 레벨의 조명인, 바이오메트릭 분석 시스템.
  10. 제 1 항에 있어서, 조명 소스는 대상의 홍채 및 대상의 눈 영역 주변과 얼굴의 일부를 조명하기 위한 동적인 광을 발산하도록 구성된, 바이오메트릭 분석 시스템.
  11. 제 10 항에 있어서, 동적인 광을 발산하는 것은 조명 소스로 제1 조명 레벨을 발산하는 것 및 이후에 조명 소스로 제2 조명 레벨을 발산하는 것을 포함하는, 바이오메트릭 분석 시스템.
  12. 제 11 항에 있어서, 제2 조명 레벨은 제1 조명 레벨보다 큰, 바이오메트릭 분석 시스템.
  13. 제 11 항에 있어서, 제2 조명 레벨은 제1 조명 레벨보다 작은, 바이오메트릭 분석 시스템.
  14. 제 11 항에 있어서, 카메라는 제1 조명 레벨에서 대상을 조명하는 동안에, 대상의 하나 이상의 이미지를 캡쳐하고, 제2 조명 레벨에서 대상을 조명하는 동안에, 대상의 하나 이상의 이미지를 캡쳐하도록 구성된, 바이오메트릭 분석 시스템.
  15. 제 14 항에 있어서, 분석 모듈은 제1 조명 레벨에서 하나 이상의 이미지 및 제2 조명 레벨에서 하나 이상의 이미지를 입력으로서 수신하고, 하나 이상의 이미지 내의 반사된 광을 분석하고, 대상의 조명 분포의 패턴에서의 특징 변경을 기초로 대상의 3차원성의 결핍을 결정하도록 구성된, 바이오메트릭 분석 시스템.
  16. 제 1 항에 있어서, 대상의 바이오메트릭 데이터에 대응되는 데이터를 전자적으로 저장하도록 구성된 하나 이상의 데이터베이스를 포함하는, 바이오메트릭 분석 시스템.
  17. 바이오메트릭 분석 시스템의 조명 소스로 대상의 홍채 및 대상의 눈 주변, 눈 영역 및 얼굴의 적어도 일부를 조명하는 단계와,
    조명 소스로 대상을 조명하는 동안에 바이오메트릭 분석 시스템의 카메라로 대상의 하나 이상의 이미지를 캡쳐하는 단계 - 하나 이상의 이미지는 홍채 및 눈 영역 주변과 얼굴의 일부로부터 반사된 광을 디스플레이함 - 와,
    바이오메트릭 분석 시스템의 분석 모듈에서 하나 이상의 이미지를 입력으로서 수신하는 단계와,
    바이오메트릭 분석 시스템의 분석 모듈로 하나 이상의 이미지 내의 반사된 광을 분석하는 단계와,
    바이오메트릭 분석 시스템의 분석 모듈로 대상의 3차원성의 결핍을 결정하는 단계를 포함하는, 바이오메트릭 분석 방법.
  18. 제 17 항에 있어서, 대상의 조명 분포의 균일한 패턴의 검출에 기초하여, 분석 모듈로 대상의 3차원성의 결핍을 결정하는 단계를 포함하는, 바이오메트릭 분석 방법.
  19. 제 17 항에 있어서, 3차원성의 결핍이 살아있는 대상을 나타내지 않고, 복사본 이미지를 나타내는지를 결정하는 단계를 포함하는, 바이오메트릭 분석 방법.
  20. 제 17 항에 있어서, 살아있는 대상의 얼굴에 대응되는 대상의 조명 분포의 불균일한 패턴의 검출에 기초하여, 분속 모듈로 대상의 3차원성을 결정하는 단계를 포함하는, 바이오메트릭 분석 방법.
  21. 제 17 항에 있어서, 조명 소스로 대상의 눈 구멍의 측면 에지 주위의 3차원적인 양각을 조명하는 단계, 카메라로 대상의 눈 구멍의 측면 에지의 하나 이상의 이미지를 캡쳐하는 단계 및 분석 모듈로 대상의 눈 구멍의 측면 에지의 반사된 광을 분석하는 단계를 포함하는, 바이오메트릭 분석 방법.
  22. 제 17 항에 있어서, 대상의 홍채 및 대상의 눈 영역 주변과 얼굴의 일부를 조명하기 위해 조명 소스로 정적인 광을 발산하는 단계를 포함하되, 정적인 광은 실질적으로 균일한 레벨의 조명인, 바이오메트릭 분석 방법.
  23. 제 17 항에 있어서, 대상의 홍채 및 대상의 눈 영역 주변과 얼굴의 일부를 조명하기 위해, 조명 소스로 동적인 광을 발산하는 단계를 포함하는, 바이오메트릭 분석 방법.
  24. 제 23 항에 있어서, 조명 소스로 제1 조명 레벨을 발산하는 단계 및 이후에 조명 소스로 제2 조명 레벨을 발산하는 단계를 포함하는, 바이오메트릭 분석 방법.
  25. 제 24 항에 있어서, 제1 조명 레벨에서 대상을 조명하는 동안에, 카메라로 대상의 하나 이상의 이미지를 캡쳐하는 단계 및 제2 조명 레벨에서 대상을 조명하는 동안에, 대상의 하나 이상의 이미지를 캡쳐하는 단계를 포함하는, 바이오메트릭 분석 방법.
  26. 제 25 항에 있어서, 제1 조명 레벨에서의 하나 이상의 이미지 및 제2 조명 레벨에서의 하나 이상의 이미지를 분석 모듈에서 입력으로서 수신하는 단계, 하나 이상의 이미지 내의 반사된 광을 분석하는 단계, 및 대상의 조명 분포의 특징 패턴의 변경을 기초로 대상의 3차원성의 결핍을 결정하는 단계를 포함하는, 바이오메트릭 분석 방법.
  27. 프로세싱 장치에 의해 실행가능하고 바이오메트릭 분석을 위한 명령어를 저장하는 비-일시적 컴퓨터-판독가능한 매체이 있어서, 프로세싱 장치에 의한 명령어의 실행은 프로세싱 장치가,
    바이오메트릭 분석 시스템의 조명 소스로 대상의 홍채 및 대상의 눈 주변, 눈 영역 및 얼굴의 적어도 일부를 조명하고,
    조명 소스로 대상을 조명하는 동안에, 바이오메트릭 분석 시스템의 카메라로 대상의 하나 이상의 이미지를 캡쳐하되, 하나 이상의 이미지는 홍채 및 눈 영역 주변과 얼굴의 일부로부터 반사된 광을 디스플레이하고,
    바이오메트릭 분석 시스템의 분석 모듈에서 하나 이상의 이미지를 입력으로서 수신하고,
    분석 모듈로 하나 이상의 이미지 내의 반사된 광을 분석하고,
    분석 모듈로 대상의 3차원성의 결핍을 결정하도록 하는, 프로세싱 장치에 의해 실행가능하고 바이오메트릭 분석을 위한 명령어를 저장하는 비-일시적 컴퓨터-판독가능한 매체.
  28. 대상의 망막 반사를 생성하기 위해 대상의 홍채를 조명하도록 구성된 조명 소스와,
    조명 소스로 대상을 조명하는 동안에, 대상의 하나 이상의 이미지를 캡쳐하도록 구성된 카메라 - 하나 이상의 이미지는 대상의 망막 반사를 디스플레이함 - 와,
    하나 이상의 이미지를 입력으로서 수신하고, 하나 이상의 이미지 내의 망막 반사를 분석하고 망막 반사가 망막의 자연 반사율을 나타내는지를 결정하도록 구성된 분석 모듈을 포함하는, 바이오메트릭 분석 시스템.
  29. 제 28 항에 있어서, 분석 모듈은 망막의 자연 반사율의 결핍이 살아있는 대상을 나타내지 않고, 복사본 이미지를 나타내는지를 결정하도록 구성된, 바이오메트릭 분석 시스템.
  30. 제 28 항에 있어서, 카메라는 렌즈를 포함하고, 조명 소스는 대상의 망막 반사를 생성하기 위해 렌즈에 인접한 위치에 배치되는, 바이오메트릭 분석 시스템.
  31. 제 28 항에 있어서, 조명 소스는 적외선 스페트럼 내의 망막 반사를 생성하기 위해 적외선 광을 발산하는, 바이오메트릭 분석 시스템.
  32. 제 28 항에 있어서, 조명 소스는 연속적으로 발산되는 광으로 대상의 홍채를 조명하도록 구성된, 바이오메트릭 분석 시스템.
  33. 제 28 항에 있어서, 조명 소스는 플래싱 발산되는 광으로 대상의 홍채를 조명하도록 구성된, 바이오메트릭 분석 시스템.
  34. 제 33 항에 있어서, 조명 소스는 플래싱으로 발산되는 광의 플래시들 간의 간격을 가변하도록 구성된, 바이오메트릭 분석 시스템.
  35. 제 33 항에 있어서, 조명 소스는 각각의 대상에 대해 플래싱으로 발산되는 광의 플래시의 수를 가변하도록 구성된, 바이오메트릭 분석 시스템.
  36. 대상의 망막 반사를 생성하기 위해 바이오메트릭 분석 시스템의 조명 소스로 대상의 홍채를 조명하는 단계와,
    조명 소스로 대상을 조명하는 동안에 바이오메트릭 분석 시스템의 카메라로 대상의 하나 이상의 이미지를 캡쳐하는 단계 - 하나 이상의 이미지는 대상의 망막 반사를 디스플레이함 - 와,
    바이오메트릭 분석 시스템의 분석 모듈에서 하나 이상의 이미지를 입력으로서 수신하는 단계와,
    바이오메트릭 분석 시스템의 분석 모듈로 하나 이상의 이미지 내의 망막 반사를 분석하는 단계와,
    바이오메트릭 분석 시스템의 분석 모듈로 망막 반사가 망막의 자연 반사율을 나타내는지를 결정하는 단계를 포함하는, 바이오메트릭 분석 방법.
  37. 제 36 항에 있어서, 망막의 자연 반사율의 결핍이 살아있는 대상을 나타내지 않고, 복사본 이미지를 나타내는지를 결정하는 단계를 포함하는, 바이오메트릭 분석 방법.
  38. 제 36 항에 있어서, 적외선 스펙트럼 내의 망막 반사를 생성하기 위해 조명 소스로 적외선 광을 발산하는 단계를 포함하는, 바이오메트릭 분석 방법.
  39. 제 36 항에 있어서, 조명 소스로부터 발산된 연속적인 광으로 대상의 홍채를 조명하는 단계를 포함하는, 바이오메트릭 분석 방법.
  40. 제 36 항에 있어서, 조명 소스로부터 발산된 플래싱 광으로 대상의 홍채를 조명하는 단계를 포함하는, 바이오메트릭 분석 방법.
  41. 제 40 항에 있어서, 조명 소스로부터 발산된 플래싱 광의 플래시들 간의 시간의 간격을 가변시키는 단계를 포함하는, 바이오메트릭 분석 방법.
  42. 제 40 항에 있어서, 각각의 대상에 대해 조명 소스로부터 발산되는 플래싱 광의 플래시의 수를 가변시키는 단계를 포함하는, 바이오메트릭 분석 방법.
  43. 프로세싱 장치에 의해 실행가능하고 바이오메트릭 분석을 위한 명령어를 저장하는 비-일시적 컴퓨터-판독가능한 매체이 있어서, 프로세싱 장치에 의한 명령어의 실행은 프로세싱 장치가,
    바이오메트릭 분석 시스템의 조명 소스로 대상의 망막 반사를 생성하기 위해 대상의 홍채를 조명하고,
    조명 소스로 대상을 조명하는 동안에, 바이오메트릭 분석 시스템의 카메라로 대상의 하나 이상의 이미지를 캡쳐하되, 하나 이상의 이미지는 망막 반사를 디스플레이하고,
    바이오메트릭 분석 시스템의 분석 모듈에서 하나 이상의 이미지를 입력으로서 수신하고,
    바이오메트릭 분석 시스템의 분석 모듈로 하나 이상의 이미지 내의 망막 반사를 분석하고,
    바이오메트릭 분석 시스템의 분석 모듈로 망막 반사가 망막의 자연 반사율을 나타내는지를 결정하도록 하는, 프로세싱 장치에 의해 실행가능하고 바이오메트릭 분석을 위한 명령어를 저장하는 비-일시적 컴퓨터-판독가능한 매체.
  44. 대상의 홍채를 조명하도록 구성된 제1 조명 소스와,
    대상의 얼굴의 적어도 일부를 조명하기 위해 가시광을 발산하도록 구성된 제2 조명 소스와,
    제1 조명 소스와 제2 조명 소스로 대상을 조명하는 동안에, 대상의 하나 이상의 이미지를 캡쳐하도록 구성된 하나 이상의 카메라와,
    하나 이상의 이미지를 입력으로서 수신하고, 제1 조명 소스로 대상을 조명하는 동안에 캡쳐된 대상의 하나 이상의 이미지에 기초하여 홍채 조직을 결정하고, 제2 조명 소스로 대상을 조명하는 동안에 캡쳐된 대상의 하나 이상의 이미지에 기초하여 대상의 얼굴의 일부의 컬러 스펙트럼을 결정하고, 제2 조명 소스로 대상을 조명하는 동안에 캡쳐된 대상의 하나 이상의 이미지 내의 대상의 얼굴의 일부가 단색 섹션을 포함하는지를 결정하도록 구성된 분석 모듈을 포함하는, 바이오메트릭 분석 시스템.
  45. 제 44 항에 있어서, 하나 이상의 카메라는 제1 조명 소스와 제2 조명 소스로 대상을 조명하는 동안에, 대상의 하나 이상의 이미지를 동시에 캡쳐하는, 바이오메트릭 분석 시스템.
  46. 제 44 항에 있어서, 제1 조명 소스는 근적외선 광을 발산하도록 구성된, 바이오메트릭 분석 시스템.
  47. 제 44 항에 있어서, 제1 조명 소스로 대상을 조명하는 동안에 캡쳐된 대상의 하나 이상의 이미지가 단색 이미지인, 바이오메트릭 분석 시스템.
  48. 제 44 항에 있어서, 제2 조명 소스로 대상을 조명하는 동안에 캡쳐된 대상의 하나 이상의 이미지가 컬러 이미지인, 바이오메트릭 분석 시스템.
  49. 제 44 항에 있어서, 분석 모듈이 제2 조명 소스로 대상을 조명하는 동안 캡쳐된 대상의 하나 이상의 이미지에 기초하여, 대상의 얼굴의 일부의 단색 섹션을 검출한다면, 분석 모듈은 단색 섹션이 살아있는 대상을 나타내지 않고 복사본 이미지를 나타내는 것으로 결정하는, 바이오메트릭 분석 시스템.
  50. 바이오메트릭 분석 시스템의 제1 조명 소스로 대상의 홍채를 조명하는 단계와,
    바이오메트릭 분석 시스템의 제2 조명 소스로부터 발산된 가시광으로 대상의 얼굴의 적어도 일부를 조명하는 단계와,
    제1 조명 소스와 제2 조명 소스로 대상을 조명하는 동안에 바이오메트릭 분석 시스템의 하나 이상의 카메라로 대상의 하나 이상의 이미지를 캡쳐하는 단계와,
    바이오메트릭 분석 시스템의 분석 모듈에서 하나 이상의 이미지를 입력으로서 수신하는 단계와,
    제1 조명 소스로 대상을 조명하는 동안에 대상의 하나 이상의 이미지에 기초하여 바이오메트릭 분석 시스템의 분석 모듈로 홍채 조직을 결정하는 단계와,
    제2 조명 소스로 대상을 조명하는 동안에 캡쳐된 대상의 하나 이상의 이미지에 기초하여 바이오메트릭 분석 시스템의 분석 모듈로 대상의 얼굴의 일부의 컬러 스펙트럼을 결정하는 단계와,
    제2 조명 소스로 대상을 조명하는 동안에 캡쳐된 대상의 하나 이상의 이미지 내의 대상의 얼굴의 일부가 단색 섹션을 포함하는지를 분석 모듈로 결정하는 단계를 포함하는, 바이오메트릭 분석 방법.
  51. 제 51 항에 있어서, 제1 조명 소스와 제2 조명 소스로 대상을 조명하는 동안에, 하나 이상의 카메라로 대상의 하나 이상의 이미지를 동시에 캡쳐하는 단계를 포함하는, 바이오메트릭 분석 방법.
  52. 제 51 항에 있어서, 단색 섹션이 살아있는 대상을 나타내지 않고 복사본 이미지를 나타내는 것으로 결정하는 단계를 포함하는, 바이오메트릭 분석 방법.
  53. 프로세싱 장치에 의해 실행가능하고 바이오메트릭 분석을 위한 명령어를 저장하는 비-일시적 컴퓨터-판독가능한 매체이 있어서, 프로세싱 장치에 의한 명령어의 실행은 프로세싱 장치가,
    바이오메트릭 분석 시스템의 제1 조명 소스로 대상의 홍채를 조명하고,
    바이오메트릭 분석 시스템의 제2 조명 소스로부터 발산된 가시광으로 대상의 얼굴의 적어도 일부를 조명하고,
    제1 조명 소스와 제2 조명 소스로 대상을 조명하는 동안에, 바이오메트릭 분석 시스템의 하나 이상의 카메라로 대상의 하나 이상의 이미지를 캡쳐하고,
    바이오메트릭 분석 시스템의 분석 모듈에서 하나 이상의 이미지를 입력으로서 수신하고,
    제1 조명 소스로 대상을 조명하는 동안에 캡쳐된 대상의 하나 이상의 이미지에 기초하여 바이오메트릭 분석 시스템의 분석 모듈로 홍채 조직을 결정하고,
    제2 조명 소스로 대상을 조명하는 동안에 캡쳐된 대상의 하나 이상의 이미지에 기초하여 바이오메트릭 분석 시스템의 분석 모듈로 대상의 얼굴의 일부의 컬러 스펙트럼을 결정하고,
    제2 조명 소스로 대상을 조명하는 동안에 캡쳐된 대상의 하나 이상의 이미지 내의 대상의 얼굴의 일부가 단색 섹션을 포함하는지를 분석 모듈로 결정하도록 하는, 프로세싱 장치에 의해 실행가능하고 바이오메트릭 분석을 위한 명령어를 저장하는 비-일시적 컴퓨터-판독가능한 매체.
  54. 렌즈를 포함하는 카메라 - 대상의 얼굴에 대한 제1 점으로부터 대상의 얼굴을 지나서 대상의 얼굴에 대한 제2 점까지, 렌즈가 초점 평면을 점증적으로 이동함에 따라, 상기 카메라가 대상의 얼굴의 이미지의 시퀀스를 캡쳐하도록 구성됨 - 와,
    이미지의 시퀀스를 입력으로서 수신하고, 윤곽의 선명도에 대해 이미지의 시퀀스의 각각의 이미지의 영역을 분석하고, 이미지의 시퀀스의 하나 이상의 이미지 내의 윤곽이 살아있는 대상의 윤곽에 대응되는 폐쇄된 윤곽을 형성하는지를 결정하도록 구성된 분석 모듈을 포함하는, 바이오메트릭 분석 시스템.
  55. 제 54 항에 있어서, 대상의 얼굴의 적어도 일부를 조명하도록 구성된 조명 소스를 포함하는, 바이오메트릭 분석 시스템.
  56. 제 54 항에 있어서, 대상의 얼굴에 대한 제1 점은 대상의 얼굴의 뒤에 있는, 바이오메트릭 분석 시스템.
  57. 제 54 항에 있어서, 대상의 얼굴에 대한 제2 점은 대상의 얼굴의 앞에 있는, 바이오메트릭 분석 시스템.
  58. 제 54 항에 있어서, 이미지의 시퀀스는 대상의 얼굴의 지형학적인 지도를 형성하는, 바이오메트릭 분석 시스템.
  59. 제 58 항에 있어서, 지형학적인 지도는 살아있는 대상의 윤곽에 대응되는 자연스러운 곡선 표면을 형성하는, 바이오메트릭 분석 시스템.
  60. 제 54 항에 있어서, 분석 모듈이 이미지의 시퀀스의 하나 이상의 이미지 내에서 폐쇄된 윤곽을 검출하면, 분석 모듈은 폐쇄된 윤곽이 살아있는 대상을 나타낸다고 결정하는, 바이오메트릭 분석 시스템.
  61. 제 54 항에 있어서, 분석 모듈이 폐쇄되지 않은 윤곽을 가지고 일정한 초점의 실질적인 직선을 검출하면, 분석 모듈은 실질적인 직선은 복사본 이미지를 나타내는 것으로 결정하는, 바이오메트릭 분석 시스템.
  62. 제 54 항에 있어서, 활동적인 대상 응답 모듈을 포함하는, 바이오메트릭 분석 시스템.
  63. 제 62 항에 있어서, 활동적인 대상 응답 모듈은 대상의 깜빡임을 검출하도록 구성된 깜빡임 검출 시스템을 포함하는, 바이오메트릭 분석 시스템.
  64. 제 62 항에 있어서, 활동적인 대상 응답 모듈은 대상의 눈짓 변화를 검출하도록 구성된 눈짓 검출 시스템을 포함하는, 바이오메트릭 분석 시스템.
  65. 대상의 얼굴에 대한 제1 점으로부터 대상의 얼굴을 지나서 대상의 얼굴에 대한 제2 점까지, 초점 평면을 점증적으로 이동하기 위해 바이오메트릭 분석 시스템의 카메라의 가동식 렌즈를 이동시키는 단계와,
    렌즈를 점증적으로 이동시키는 동안에, 카메라로 대상의 얼굴의 이미지의 시퀀스를 캡쳐하는 단계와,
    바이오메트릭 분석 시스템의 분석 모듈에서 이미지의 시퀀스를 입력으로서 수신하는 단계와,
    윤곽의 선명도에 대해 바이오메트릭 분석 시스템의 분석 모듈로 이미지의 시퀀스의 각각의 이미지의 영역을 분석하는 단계와,
    이미지의 시퀀스의 하나 이상의 이미지 내의 윤곽이 살아있는 대상의 윤곽에 대응되는 폐쇄된 윤곽을 형성하는지를 분석 모듈로 결정하는 단계를 포함하는, 바이오메트릭 분석 방법.
  66. 제 65 항에 있어서, 조명 소스로 대상의 얼굴의 적어도 일부를 조명하는 단계를 포함하는, 바이오메트릭 분석 방법.
  67. 제 65 항에 있어서, 대상의 얼굴에 대한 제1 점은 대상의 얼굴의 뒤에 있는, 바이오메트릭 분석 방법.
  68. 제 65 항에 있어서, 대상의 얼굴에 대한 제2 점은 대상의 얼굴의 앞에 있는, 바이오메트릭 분석 방법.
  69. 제 65 항에 있어서, 이미지의 시퀀스로 대상의 얼굴의 지형학적인 지도를 형성하는 단계를 포함하는, 바이오메트릭 분석 방법.
  70. 제 65 항에 있어서, 바이오메트릭 분석 시스템의 활동적인 대상 응답 모듈로 대상의 깜빡임을 검출하는 단계를 포함하는, 바이오메트릭 분석 방법.
  71. 제 65 항에 있어서, 바이오메트릭 분석 시스템의 활동적인 응답 모듈로 대상의 눈짓 변화를 검출하는 단계를 포함하는, 바이오메트릭 분석 방법.
  72. 프로세싱 장치에 의해 실행가능하고 바이오메트릭 분석을 위한 명령어를 저장하는 비-일시적 컴퓨터-판독가능한 매체이 있어서, 프로세싱 장치에 의한 명령어의 실행은 프로세싱 장치가,
    대상의 얼굴에 대한 제1 점으로부터 대상의 얼굴을 지나서 대상의 얼굴에 대한 제2 점까지, 초점 평면을 점증적으로 이동하기 위해 바이오메트릭 분석 시스템의 카메라의 가동식 렌즈를 이동시키고,
    렌즈를 점증적으로 이동시키는 동안에, 카메라로 대상의 얼굴의 이미지의 시퀀스를 캡쳐하고,
    바이오메트릭 분석 시스템의 분석 모듈에서 이미지의 시퀀스를 입력으로서 수신하고,
    윤곽의 선명도에 대해 바이오메트릭 분석 시스템의 분석 모듈로 이미지의 시퀀스의 각각의 이미지의 영역을 분석하고,
    이미지의 시퀀스의 하나 이상의 이미지 내의 윤곽이 살아있는 대상의 윤곽에 대응되는 폐쇄된 윤곽을 형성하는지를 분석 모듈로 결정하도록 하는, 프로세싱 장치에 의해 실행가능하고 바이오메트릭 분석을 위한 명령어를 저장하는 비-일시적 컴퓨터-판독가능한 매체.
  73. 대상의 홍채를 조명하도록 구성된 조명 소스와,
    제1 세트의 통과 특징을 가진 제1 광학 필터 및 제2 세트의 통과 특징을 가진 제2 광학 필터를 포함하는 스펙트럴 판별기 - 상기 스펙트럴 판별기는 제1 광학 필터와 제2 광학 필터를 통해 홍채로부터 산란된 광을 선택적으로 수신하도록 구성됨 - 와,
    제1 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에 대상의 하나 이상의 이미지를 캡쳐하도록 구성되고, 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에 대상의 하나 이상의 이미지를 캡쳐하도록 구성된 카메라와,
    제1 광학 필터와 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 대상의 캡쳐된 하나 이상의 이미지를 입력으로서 수신하고, 제1 광학 필터와 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 대상의 하나 이상의 이미지 내에 디스플레이된 홍채 구조 정보 간에 매칭(match)이 존재하는지를 결정하도록 구성된 분석 모듈 - 매칭의 존재는 복사본 이미지를 나타냄 - 을 포함하는, 바이오메트릭 분석 시스템.
  74. 제 73 항에 있어서, 조명 소스는 근적외선 광을 발산하는, 바이오메트릭 분석 시스템.
  75. 제 73 항에 있어서, 제1 광학 필터의 제1 세트의 통과 특징은 사람 눈에 보이는 광만 통과하도록 하는, 바이오메트릭 분석 시스템.
  76. 제 75 항에 있어서, 사람 눈으로의 가시광은 약 380 nm 내지 약 780 nm의 범위의 파장에 있는, 바이오메트릭 분석 시스템.
  77. 제 73 항에 있어서, 제2 광학 필터의 제2 세트의 통과 특징은 근적외선 광만 통과하도록 하는, 바이오메트릭 분석 시스템.
  78. 제 77 항에 있어서, 근적외선 광은 약 30 nm 밴드의 파장 범위, 약 850 nm의 범위의 파장에 있는, 바이오메트릭 분석 시스템.
  79. 제 75 항에 있어서, 제1 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 대상의 캡쳐된 하나 이상의 이미지는 빨간색-녹색-파란색 이미지인, 바이오메트릭 분석 시스템.
  80. 제 77 항에 있어서, 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 대상의 캡쳐된 하나 이상의 이미지는 홍채에 대한 구조 정보를 포함하는 근적외선 이미지인, 바이오메트릭 분석 시스템.
  81. 제 73 항에 있어서, 카메라는 제1 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에 빠르고 연속으로 대상의 이미지의 시퀀스를 캡쳐하고, 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에 빠르고 연속으로 대상의 이미지의 시퀀스를 캡쳐하도록 구성된, 바이오메트릭 분석 시스템.
  82. 제 73 항에 있어서, 제1 광학 필터와 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 대상의 하나 이상의 이미지 내에 디스플레이된 홍채 구조 정보 간에 매칭이 존재한다면, 분석 모듈은 매칭이 살아있는 대상을 나타내지 않고, 복사본 이미지를 나타낸다고 결정하는, 바이오메트릭 분석 시스템.
  83. 제 73 항에 있어서, 제1 광학 필터와 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 대상의 하나 이상의 이미지 내에 디스플레이된 홍채 구조 정보 간에 매칭이 존재하지 않으면, 분석 모듈은 매칭의 결핍이 복사본 이미지를 나타내지 않고, 살아있는 대상을 나타낸다고 결정하는, 바이오메트릭 분석 시스템.
  84. 제 73 항에 있어서, 카메라는 대상의 홍채 주변 영역의 하나 이상의 이미지를 캡쳐하도록 구성된, 바이오메트릭 분석 시스템.
  85. 제 84 항에 있어서, 분석 모듈은 대상의 홍채 주변 영역의 하나 이상의 이미지를 입력으로서 수신하고, 하나 이상의 이미지의 적어도 하나의 일부가 단색인지를 결정하도록 구성된, 바이오메트릭 분석 시스템.
  86. 제 73 항에 있어서, 분석 모듈은 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 대상의 하나 이상의 이미지를 입력으로서 수신하도록 구성되고, 하나 이상의 이미지 내에 디스플레이된 각막 반사 구조를 분석하도록 구성된, 바이오메트릭 분석 시스템.
  87. 제 73 항에 있어서, 대상의 동공의 수축을 자극하기 위해 대상의 눈 영역을 조명하도록 구성된 제2 가시적 조명 소스를 포함하는, 바이오메트릭 분석 시스템.
  88. 제 87 항에 있어서, 카메라는 대상의 동공의 수축 동안에, 대상의 이미지의 시퀀스를 캡쳐하도록 구성된, 바이오메트릭 분석 시스템.
  89. 제 88 항에 있어서, 분석 모듈은 대상의 동공의 수축 동안에, 대상의 이미지의 시퀀스를 입력으로서 수신하고, 대상의 살아있음의 표시를 결정하기 위해, 수축 전과 수축 동안의 동공의 지름을 측정하도록 구성된, 바이오메트릭 분석 시스템.
  90. 바이오메트릭 분석 시스템의 조명 소스로 대상의 홍채를 조명하는 단계와,
    바이오메트릭 분석 시스템의 스펙트럴 판별기의 제1 광학 필터와 제2 광학 필터를 통해 홍채로부터 산란된 광을 선택적으로 수신하는 단계 - 제1 광학 필터는 제1 세트의 통과 특징을 가지고, 제2 광학 필터는 제2 세트의 통과 특징을 가짐 - 와,
    제1 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 바이오메트릭 분석 시스템의 카메라로 대상의 하나 이상의 이미지를 캡쳐하는 단계와,
    제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 바이오메트릭 분석 시스템의 카메라로 대상의 하나 이상의 이미지를 캡쳐하는 단계와,
    제1 광학 필터와 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 바이오메트릭 분석 시스템의 분석 모듈에서 대상의 캡쳐된 하나 이상의 이미지를 입력으로서 수신하는 단계와,
    제1 광학 필터와 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 대상의 하나 이상의 이미지 내에 디스플레이된 홍채 구조 정보 간에 매칭이 존재하는지를 바이오메트릭 분석 시스템의 분석 모듈로 결정하는 단계 - 매칭의 존재는 복사본 이미지를 나타냄 - 를 포함하는, 바이오메트릭 분석 방법.
  91. 제 90 항에 있어서, 제1 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에 빠르고 연속으로 대상의 이미지의 시퀀스를 캡쳐하는 단계 및 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에 빠르고 연속으로 대상의 이미지의 시퀀스를 캡쳐하는 단계를 포함하는, 바이오메트릭 분석 방법.
  92. 제 90 항에 있어서, 카메라로 대상의 홍채 주변 영역의 하나 이상의 이미지를 캡쳐하는 단계를 포함하는, 바이오메트릭 분석 방법.
  93. 제 92 항에 있어서, 대상의 홍채 주변 영역의 하나 이상의 이미지를 분석 모듈에서 입력으로 수신하는 단계 및 하나 이상의 이미지의 적어도 하나의 일부가 단색인지를 분석 모듈로 결정하는 단계를 포함하는, 바이오메트릭 분석 방법.
  94. 제 90 항에 있어서, 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 대상의 하나 이상의 이미지를 분석 모듈에서 입력으로서 수신하는 단계 및 분석 모듈로 하나 이상의 이미지 내에 디스플레이된 각막 반사 구조를 분석하는 단계를 포함하는, 바이오메트릭 분석 방법.
  95. 제 90 항에 있어서, 대상의 동공의 수축을 유발시키기 위해, 제2 조명 소스로 대상의 각막 영역을 조명하는 단계를 포함하는, 바이오메트릭 분석 방법.
  96. 제 95 항에 있어서, 대상의 동공의 수축 동안에, 카메라로 대상의 이미지의 시퀀스를 캡쳐하는 단계를 포함하는, 바이오메트릭 분석 방법.
  97. 제 96 항에 있어서, 대상의 동공의 수축 동안에, 대상의 이미지의 시퀀스를 분석 모듈에서 입력으로서 수신하는 단계 및 대상의 살아있음의 표시를 결정하기 위해, 분석 모듈로 수축 전과 수축 동안의 동공의 지름을 측정하는 단계를 포함하는, 바이오메트릭 분석 방법.
  98. 프로세싱 장치에 의해 실행가능하고 바이오메트릭 분석을 위한 명령어를 저장하는 비-일시적 컴퓨터-판독가능한 매체이 있어서, 프로세싱 장치에 의한 명령어의 실행은 프로세싱 장치가,
    바이오메트릭 분석 시스템의 조명 소스로 대상의 홍채를 조명하고,
    바이오메트릭 분석 시스템의 스펙트럴 판별기의 제1 광학 필터와 제2 광학 필터를 통해 홍채로부터 산란된 광을 선택적으로 수신 - 제1 광학 필터는 제1 세트의 통과 특징을 가지고, 제2 광학 필터는 제2 세트의 통과 특징을 가짐 - 하고,
    제1 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 바이오메트릭 분석 시스템의 카메라로 대상의 하나 이상의 이미지를 캡쳐하고,
    제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 바이오메트릭 분석 시스템의 카메라로 대상의 하나 이상의 이미지를 캡쳐하고,
    제1 광학 필터와 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 바이오메트릭 분석 시스템의 분석 모듈에서 대상의 캡쳐된 하나 이상의 이미지를 입력으로서 수신하고,
    제1 광학 필터와 제2 광학 필터를 통해 홍채로부터 산란된 광의 통과 동안에, 대상의 하나 이상의 이미지 내에 디스플레이된 홍채 구조 정보 간에 매칭이 존재하는지를 결정 - 매칭의 존재는 복사본 이미지를 나타냄 - 하도록 하는, 프로세싱 장치에 의해 실행가능하고 바이오메트릭 분석을 위한 명령어를 저장하는 비-일시적 컴퓨터-판독가능한 매체.
  99. 대상의 눈을 조명하도록 구성된 조명 소스와,
    제1 조명 소스로 눈을 조명하는 동안에, 대상의 눈의 하나 이상의 이미지를 캡쳐하도록 구성된 카메라 - 하나 이상의 이미지는 눈의 반사 특징을 디스플레이함 - 와,
    하나 이상의 이미지를 입력으로서 수신하고, 눈의 반사 특징의 밝기와 균일성을 분석하고, 반사 특징에 기초하여 눈의 3차원성을 결정하도록 구성된 분석 모듈을 포함하는, 바이오메트릭 분석 시스템.
  100. 제 99 항에 있어서, 반사 특징은 대상의 각막의 정반사인, 바이오메트릭 분석 시스템.
  101. 제 99 항에 있어서, 눈의 반사 특징이 어둡고 낮은 균일성을 가지면, 분석 모듈은 어둡고 낮은 균일성이 살아있는 대상을 나타내지 않고, 복사본 이미지를 나타내는 것으로 결정하는, 바이오메트릭 분석 시스템.
  102. 제 99 항에 있어서, 눈의 반사 특징이 밝고 균일하면, 분석 모듈은 밝고 균일한 반사 특징이 복사본 이미지를 나타내지 않고, 살아있는 대상을 나타내는 것으로 결정하는, 바이오메트릭 분석 시스템.
  103. 제 102 항에 있어서, 살아있는 대상은 눈의 반짝이는 각막 표면 때문에, 밝고 균일한 반사 특징을 가지는, 바이오메트릭 분석 시스템.
  104. 제 99 항에 있어서, 조명 소스는 근적외선 광을 발산하는, 바이오메트릭 분석 시스템.
  105. 바이오메트릭 분석 시스템의 조명 소스로 대상의 눈을 조명하는 단계와,
    제1 조명 소스로 눈을 조명하는 동안에, 바이오메트릭 분석 시스템의 카메라로 대상의 눈의 하나 이상의 이미지를 캡쳐하는 단계 - 하나 이상의 이미지는 눈의 반사 특징을 디스플레이함 - 와,
    바이오메트릭 분석 시스템의 분석 모듈에서 하나 이상의 이미지를 입력으로서 수신하는 단계와,
    분석 모듈로 눈의 반사 특징의 밝기와 균일성을 분석하는 단계와,
    반사 특징에 기초하여, 분석 모듈로 눈의 3차원성을 결정하는 단계를 포함하는, 바이오메트릭 분석 방법.
  106. 제 105 항에 있어서, 반사 특징은 대상의 각막의 정반사인, 바이오메트릭 분석 방법.
  107. 제 105 항에 있어서, 눈의 반사 특징의 어둡고 낮은 균일성은 살아있는 대상을 나타내지 않고, 복사본 이미지를 나타내는 것을 결정하는 단계를 포함하는, 바이오메트릭 분석 방법.
  108. 제 105 항에 있어서, 눈의 밝고 균일한 반사 특징이 복사본 이미지를 나타내지 않고 살아있는 대상을 나타내는 것을 결정하는 단계를 포함하는, 바이오메트릭 분석 방법.
  109. 제 108 항에 있어서, 살아있는 대상은 눈의 반짝이는 각막 표면 때문에, 밝고 균일한 반사 특징을 가지는, 바이오메트릭 분석 방법.
  110. 제 105 항에 있어서, 조명 소스로 근적외선 광을 발산하는 단계를 포함하는, 바이오메트릭 분석 방법.
  111. 프로세싱 장치에 의해 실행가능하고 바이오메트릭 분석을 위한 명령어를 저장하는 비-일시적 컴퓨터-판독가능한 매체이 있어서, 프로세싱 장치에 의한 명령어의 실행은 프로세싱 장치가,
    바이오메트릭 분석 시스템의 조명 소스로 대상의 홍채를 조명하고,
    제1 조명 소스로 눈을 조명하는 동안에, 바이오메트릭 분석 시스템의 카메라로 대상의 눈의 하나 이상의 이미지를 캡쳐 - 하나 이상의 이미지는 눈의 반사 특징을 디스플레이함 - 하고,
    바이오메트릭 분석 시스템의 분석 모듈에서 하나 이상의 이미지를 입력으로서 수신하고,
    분석 모듈로 눈의 반사 특징의 밝기와 균일성을 분석하고,
    반사 특징에 기초하여 분석 모듈로 눈의 3차원성을 결정하도록 하는, 프로세싱 장치에 의해 실행가능하고 바이오메트릭 분석을 위한 명령어를 저장하는 비-일시적 컴퓨터-판독가능한 매체.
KR1020187023286A 2016-01-12 2017-01-12 바이오메트릭 분석의 시스템 및 방법 KR20180102637A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662277630P 2016-01-12 2016-01-12
US62/277,630 2016-01-12
US201662295554P 2016-02-16 2016-02-16
US62/295,554 2016-02-16
PCT/US2017/013110 WO2017123702A1 (en) 2016-01-12 2017-01-12 Systems and methods biometric analysis

Publications (1)

Publication Number Publication Date
KR20180102637A true KR20180102637A (ko) 2018-09-17

Family

ID=59311975

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187023286A KR20180102637A (ko) 2016-01-12 2017-01-12 바이오메트릭 분석의 시스템 및 방법

Country Status (5)

Country Link
US (5) US10762367B2 (ko)
EP (1) EP3403217A4 (ko)
JP (1) JP2019506694A (ko)
KR (1) KR20180102637A (ko)
WO (1) WO2017123702A1 (ko)

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9202105B1 (en) * 2012-01-13 2015-12-01 Amazon Technologies, Inc. Image analysis for user authentication
US10558848B2 (en) 2017-10-05 2020-02-11 Duelight Llc System, method, and computer program for capturing an image with correct skin tone exposure
JP2017530476A (ja) 2014-09-24 2017-10-12 プリンストン・アイデンティティー・インコーポレーテッド バイオメトリックキーを用いたモバイルデバイスにおけるワイヤレス通信デバイス機能の制御
MX2017007139A (es) 2014-12-03 2017-11-10 Princeton Identity Inc Sistema y metodo para un complemento biometrico de dispositivo movil.
US9639560B1 (en) * 2015-10-22 2017-05-02 Gopro, Inc. Systems and methods that effectuate transmission of workflow between computing platforms
CN105931045B (zh) * 2015-12-10 2019-11-15 天地融科技股份有限公司 利用生物特征进行信息获取、提取的方法、系统和设备
EP3403217A4 (en) 2016-01-12 2019-08-21 Princeton Identity, Inc. SYSTEMS AND METHODS FOR BIOMETRIC ANALYSIS
US10360464B1 (en) * 2016-03-04 2019-07-23 Jpmorgan Chase Bank, N.A. Systems and methods for biometric authentication with liveness detection
WO2017173228A1 (en) 2016-03-31 2017-10-05 Princeton Identity, Inc. Biometric enrollment systems and methods
WO2017172695A1 (en) 2016-03-31 2017-10-05 Princeton Identity, Inc. Systems and methods of biometric anaysis with adaptive trigger
US10210320B2 (en) * 2016-09-21 2019-02-19 Lextron Systems, Inc. System and method for secure 5-D user identification
US10121054B2 (en) * 2016-11-10 2018-11-06 Synaptics Incorporated Systems and methods for improving spoof detection based on matcher alignment information
JP6801435B2 (ja) * 2016-12-20 2020-12-16 富士通株式会社 生体認証装置、生体認証システム、生体認証プログラム、及び生体認証方法
US11238304B2 (en) * 2017-03-08 2022-02-01 Quantum Rgb Ltd. System and method for biometric identification
KR102387571B1 (ko) * 2017-03-27 2022-04-18 삼성전자주식회사 라이브니스 검사 방법 및 장치
WO2018187337A1 (en) 2017-04-04 2018-10-11 Princeton Identity, Inc. Z-dimension user feedback biometric system
GR1009318B (el) * 2017-04-07 2018-06-22 Ιωαννης Κωνσταντινου Κομινης Κβαντικη βιομετρικη ταυτοποιηση υπερυψηλης ασφαλειας βασισμενη στην κβαντικη στατιστικη ανιχνευσης φωτονιων απο τον αμφιβληστροειδη χιτωνα του ματιου
US10657401B2 (en) * 2017-06-06 2020-05-19 Microsoft Technology Licensing, Llc Biometric object spoof detection based on image intensity variations
US10380418B2 (en) * 2017-06-19 2019-08-13 Microsoft Technology Licensing, Llc Iris recognition based on three-dimensional signatures
CA3071100A1 (en) 2017-07-26 2019-01-31 Princeton Identity, Inc. Biometric security systems and methods
CN110909695B (zh) * 2017-07-29 2023-08-18 Oppo广东移动通信有限公司 防伪处理方法及相关产品
US11160449B2 (en) * 2017-08-29 2021-11-02 Verily Life Sciences Llc Focus stacking for retinal imaging
US10726245B2 (en) * 2017-12-12 2020-07-28 Black Sesame International Holding Limited Secure facial authentication system using active infrared light source and RGB-IR sensor
CN107909063B (zh) * 2017-12-22 2021-05-04 天津科技大学 基于灰度变化的生物识别视频回放攻击检测方法
US11023757B2 (en) 2018-02-14 2021-06-01 Samsung Electronics Co., Ltd. Method and apparatus with liveness verification
FR3078793B1 (fr) * 2018-03-09 2021-03-19 Idemia Identity & Security France Procede d'authentification d'un visage base sur la reflectance
US11138429B2 (en) * 2018-03-12 2021-10-05 Tobii Ab Iris recognition using eye-tracking system
EP3813488A4 (en) * 2018-06-19 2022-02-23 Iris Communication Kabushiki Kaisha LIGHTING CONTROL SYSTEM, LIGHTING CONTROL METHOD AND LIGHTING CONTROL PROGRAM
CN112639802A (zh) * 2018-09-18 2021-04-09 Oppo广东移动通信有限公司 用于生成伪结构光照射面部的方法、系统及存储介质
CN109271954B (zh) * 2018-09-29 2022-04-22 北京百度网讯科技有限公司 用于检测模型可靠性的方法及装置
US11768926B2 (en) * 2018-10-24 2023-09-26 University Of Notre Dame Du Lac Method of textured contact lens detection
US11157733B2 (en) 2018-11-06 2021-10-26 Princeton Identity, Inc. Systems and methods of enhancing biometric matching accuracy and/or efficiency
DE102018131780B4 (de) * 2018-12-11 2021-10-14 Stellar Data Broadcast Services Gmbh Bestimmen eines Pupillendurchmessers
US11170242B2 (en) * 2018-12-26 2021-11-09 Advanced New Technologies Co., Ltd. Spoof detection using dual-band fluorescence
WO2020140893A1 (en) * 2019-01-04 2020-07-09 Shenzhen GOODIX Technology Co., Ltd. Anti-spoofing live face sensing for enhancing security of facial recognition
KR20200100481A (ko) * 2019-02-18 2020-08-26 삼성전자주식회사 생체 정보를 인증하기 위한 전자 장치 및 그의 동작 방법
US11328043B2 (en) 2019-03-15 2022-05-10 Advanced New Technologies Co., Ltd. Spoof detection by comparing images captured using visible-range and infrared (IR) illuminations
JP2020181305A (ja) * 2019-04-24 2020-11-05 凸版印刷株式会社 生体判別装置及び生体判別方法、並びに個人認証方法
WO2020246141A1 (ja) * 2019-06-06 2020-12-10 日本電気株式会社 処理システム、処理方法及びプログラム
WO2021001668A1 (en) * 2019-07-01 2021-01-07 Quantum Biometronics Private Company System and method for biometrics identification and pupillometry
SG10201906721SA (en) * 2019-07-19 2021-02-25 Nec Corp Method and system for chrominance-based face liveness detection
JP7264257B2 (ja) * 2019-09-04 2023-04-25 日本電気株式会社 制御装置、制御方法及びプログラム
WO2021060670A1 (ko) * 2019-09-26 2021-04-01 주식회사 앤오픈 보안 카드를 이용한 사용자 인증 장치 및 사용자 인증 방법
JP7392376B2 (ja) 2019-10-10 2023-12-06 Toppanホールディングス株式会社 情報登録判定システム
US11294996B2 (en) 2019-10-15 2022-04-05 Assa Abloy Ab Systems and methods for using machine learning for image-based spoof detection
US11348375B2 (en) 2019-10-15 2022-05-31 Assa Abloy Ab Systems and methods for using focal stacks for image-based spoof detection
WO2021090366A1 (ja) * 2019-11-05 2021-05-14 日本電気株式会社 撮像装置
JP2021145785A (ja) * 2020-03-17 2021-09-27 ソニーグループ株式会社 プログラム、情報処理装置及び端末装置
TWI722872B (zh) * 2020-04-17 2021-03-21 技嘉科技股份有限公司 人臉辨識裝置以及人臉辨識方法
CN111582145A (zh) * 2020-05-06 2020-08-25 英华达(上海)科技有限公司 生物识别方法、电子设备以及计算机可读存储介质
US11275959B2 (en) 2020-07-07 2022-03-15 Assa Abloy Ab Systems and methods for enrollment in a multispectral stereo facial recognition system
US11080516B1 (en) * 2020-12-30 2021-08-03 EyeVerify, Inc. Spoof detection based on red-eye effects
US11816198B2 (en) 2021-04-06 2023-11-14 Bank Of America Corporation Systems and methods for geolocation security using biometric analysis
US11734888B2 (en) * 2021-04-23 2023-08-22 Meta Platforms Technologies, Llc Real-time 3D facial animation from binocular video
US11853473B2 (en) 2021-08-18 2023-12-26 Meta Platforms Technologies, Llc Differential illumination for corneal glint detection
US11256939B2 (en) * 2021-10-06 2022-02-22 Arnav Gupta Methods, systems and computer program products for eye based spoof detection
EP4170608A1 (en) * 2021-10-22 2023-04-26 e.solutions GmbH Method for detecting forgery in facial recognition and computer readable medium and vehicle for performing such method
KR102567390B1 (ko) * 2021-11-03 2023-08-16 주식회사 유니온커뮤니티 동공 움직임을 이용한 위조 홍채 판별장치 및 그 방법
IT202200000548A1 (it) * 2022-01-14 2023-07-14 Biomeye S R L Sistema e metodo di autenticazione di un essere vivente basato sul riconoscimento dell’iride
WO2023149829A1 (en) * 2022-02-03 2023-08-10 Fingerprint Cards Anacatum Ip Ab Cornea-based biometric authentication
WO2023163636A1 (en) * 2022-02-24 2023-08-31 Fingerprint Cards Anacatum Ip Ab Real-eye detection using multiple polarization configurations

Family Cites Families (248)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3852592A (en) 1973-06-07 1974-12-03 Stanley Works Automatic door operator
US3993888A (en) 1974-10-29 1976-11-23 Calspan Corporation Scanning line filter
US4109237A (en) 1977-01-17 1978-08-22 Hill Robert B Apparatus and method for identifying individuals through their retinal vasculature patterns
US4641349A (en) 1985-02-20 1987-02-03 Leonard Flom Iris recognition system
US5291560A (en) 1991-07-15 1994-03-01 Iri Scan Incorporated Biometric personal identification system based on iris analysis
US6850252B1 (en) 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
US5337104A (en) 1992-11-09 1994-08-09 Smith Neil D Apparatus and method for redirecting camera flash light so as to avoid red-eye
JP2882266B2 (ja) 1993-12-28 1999-04-12 株式会社日立製作所 信号伝送装置及び回路ブロック
US5835616A (en) 1994-02-18 1998-11-10 University Of Central Florida Face detection using templates
US5481622A (en) 1994-03-01 1996-01-02 Rensselaer Polytechnic Institute Eye tracking apparatus and method employing grayscale threshold values
US6714665B1 (en) 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US5572596A (en) 1994-09-02 1996-11-05 David Sarnoff Research Center, Inc. Automated, non-invasive iris recognition system and method
US5833188A (en) 1994-12-20 1998-11-10 Twofish Unlimited Accessory mounting apparatus
AU7232296A (en) 1995-10-16 1997-05-07 Valentin Semenovich Gorelykh Method of converting energy and a device for applying the said method
WO1997021188A1 (en) 1995-12-04 1997-06-12 David Sarnoff Research Center, Inc. Wide field of view/narrow field of view recognition system and method
US6226016B1 (en) 1996-02-05 2001-05-01 Seiko Epson Corporation Display apparatus and method capable of rotating an image by 180 degrees
US5987459A (en) 1996-03-15 1999-11-16 Regents Of The University Of Minnesota Image and document management system for content-based retrieval
US6320610B1 (en) 1998-12-31 2001-11-20 Sensar, Inc. Compact imaging device incorporating rotatably mounted cameras
US5933515A (en) 1996-07-25 1999-08-03 California Institute Of Technology User identification through sequential input of fingerprints
JP3436293B2 (ja) 1996-07-25 2003-08-11 沖電気工業株式会社 動物の個体識別装置及び個体識別システム
GB2315858A (en) 1996-08-01 1998-02-11 Sharp Kk System for eye detection and gaze direction determination
WO1998008439A1 (en) 1996-08-25 1998-03-05 Sensar, Inc. Apparatus for the iris acquiring images
US6123733A (en) 1996-11-27 2000-09-26 Voxel, Inc. Method and apparatus for rapidly evaluating digital data processing parameters
US6215891B1 (en) 1997-03-26 2001-04-10 Oki Electric Industry Co., Ltd. Eye image recognition method eye image selection method and system therefor
US6144754A (en) 1997-03-28 2000-11-07 Oki Electric Industry Co., Ltd. Method and apparatus for identifying individuals
US6204858B1 (en) 1997-05-30 2001-03-20 Adobe Systems Incorporated System and method for adjusting color data of pixels in a digital image
US6119096A (en) 1997-07-31 2000-09-12 Eyeticket Corporation System and method for aircraft passenger check-in and boarding using iris recognition
US6252976B1 (en) 1997-08-29 2001-06-26 Eastman Kodak Company Computer program product for redeye detection
EP0910986A1 (en) 1997-10-24 1999-04-28 BRITISH TELECOMMUNICATIONS public limited company Imaging apparatus
US6055322A (en) 1997-12-01 2000-04-25 Sensor, Inc. Method and apparatus for illuminating and imaging eyes through eyeglasses using multiple sources of illumination
US5953440A (en) 1997-12-02 1999-09-14 Sensar, Inc. Method of measuring the focus of close-up images of eyes
EP0934986A1 (de) 1997-12-17 1999-08-11 Roche Diagnostics GmbH Farbstoff-Polyaccharid- bzw. Cyclosaccharid-Konjugate und deren Verwendung als Diagnostikum
US6421462B1 (en) 1998-02-06 2002-07-16 Compaq Computer Corporation Technique for differencing an image
US6301370B1 (en) 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images
US5966197A (en) 1998-04-21 1999-10-12 Visx, Incorporated Linear array eye tracker
JP3315648B2 (ja) 1998-07-17 2002-08-19 沖電気工業株式会社 アイリスコード生成装置およびアイリス認識システム
JP3610234B2 (ja) 1998-07-17 2005-01-12 株式会社メディア・テクノロジー アイリス情報取得装置およびアイリス識別装置
US6424727B1 (en) 1998-11-25 2002-07-23 Iridian Technologies, Inc. System and method of animal identification and animal transaction authorization using iris patterns
JP2000189403A (ja) 1998-12-25 2000-07-11 Oki Electric Ind Co Ltd 虹彩領域抽出方法及び個体識別装置
US6681056B1 (en) 1999-03-30 2004-01-20 International Business Machines Corporation Method and system for digital image acquisition and continuous zoom display from multiple resolutional views using a heterogeneous image pyramid representation
US6247813B1 (en) 1999-04-09 2001-06-19 Iritech, Inc. Iris identification system and method of identifying a person through iris recognition
JP3636927B2 (ja) 1999-05-18 2005-04-06 三菱電機株式会社 顔画像処理装置
US6433326B1 (en) 1999-07-14 2002-08-13 Sarnoff Corporation CMOS/CCD line transfer imager with low dark current
BR9917415A (pt) 1999-07-22 2002-04-09 Swisscom Mobile Ag Processo de transação e dispositivo apropriado para isso
US6525303B1 (en) 1999-09-23 2003-02-25 Mitutoyo Corporation Control systems and methods for synchronizing diffuse illumination with a camera
US6836554B1 (en) 2000-06-16 2004-12-28 International Business Machines Corporation System and method for distorting a biometric for transactions with enhanced security and privacy
JP3466173B2 (ja) 2000-07-24 2003-11-10 株式会社ソニー・コンピュータエンタテインメント 画像処理システム、デバイス、方法及びコンピュータプログラム
JP4469476B2 (ja) 2000-08-09 2010-05-26 パナソニック株式会社 眼位置検出方法および眼位置検出装置
US7277561B2 (en) 2000-10-07 2007-10-02 Qritek Co., Ltd. Iris identification
US7155036B2 (en) 2000-12-04 2006-12-26 Sony Corporation Face detection under varying rotation
US7015955B2 (en) 2000-12-22 2006-03-21 Eastman Kodak Company Camera having verification display with viewer adaptation compensation for reference illuminants and method
JP3586431B2 (ja) 2001-02-28 2004-11-10 松下電器産業株式会社 個人認証方法および装置
KR100374708B1 (ko) 2001-03-06 2003-03-04 에버미디어 주식회사 회전영상의 보정에 의한 비접촉식 홍채인식방법
US7095901B2 (en) 2001-03-15 2006-08-22 Lg Electronics, Inc. Apparatus and method for adjusting focus position in iris recognition system
US20020159621A1 (en) 2001-04-26 2002-10-31 Memphis Eye & Cataract Associates Ambulatory Surgery Center (Dba Meca Laser And Surgery Center) System for automatically detecting eye corneal striae using projected and reflected shapes
JP2002330318A (ja) 2001-04-27 2002-11-15 Matsushita Electric Ind Co Ltd 携帯端末装置
US6937135B2 (en) 2001-05-30 2005-08-30 Hewlett-Packard Development Company, L.P. Face and environment sensing watch
US6895103B2 (en) 2001-06-19 2005-05-17 Eastman Kodak Company Method for automatically locating eyes in an image
US20030169334A1 (en) 2001-08-06 2003-09-11 Michael Braithwaite Iris capture device having expanded capture volume
US7167987B2 (en) 2001-08-29 2007-01-23 Hewlett-Packard Development Company, L.P. Use of biometrics to provide physical and logic access to computer devices
US8200980B1 (en) 2001-09-21 2012-06-12 Open Invention Network, Llc System and method for enrolling in a biometric system
US7269737B2 (en) 2001-09-21 2007-09-11 Pay By Touch Checking Resources, Inc. System and method for biometric authorization for financial transactions
KR100456619B1 (ko) 2001-12-05 2004-11-10 한국전자통신연구원 에스.브이.엠(svm)을 이용한 얼굴 등록/인증 시스템 및방법
DE10163583A1 (de) 2001-12-21 2003-07-03 Philips Intellectual Property Verfahren und Vorrichtung zur Belichtung von Röntgenaufnahmen
KR100854890B1 (ko) 2001-12-28 2008-08-28 엘지전자 주식회사 홍채 인식 시스템의 다중 조명을 이용한 홍채 등록 및인식방법
US7715595B2 (en) 2002-01-16 2010-05-11 Iritech, Inc. System and method for iris identification using stereoscopic face recognition
US7118042B2 (en) 2002-01-18 2006-10-10 Microscan Systems Incorporated Method and apparatus for rapid image capture in an image system
JP2004086614A (ja) * 2002-08-27 2004-03-18 Matsushita Electric Ind Co Ltd 目画像撮像装置及び目画像認証装置
US8819788B2 (en) 2002-10-21 2014-08-26 Clearone Communications Hong Kong, Limited Method and system for providing security data to security stations
US7804982B2 (en) 2002-11-26 2010-09-28 L-1 Secure Credentialing, Inc. Systems and methods for managing and detecting fraud in image databases used with identification documents
TWI224287B (en) 2003-01-23 2004-11-21 Ind Tech Res Inst Iris extraction method
US7280678B2 (en) 2003-02-28 2007-10-09 Avago Technologies General Ip Pte Ltd Apparatus and method for detecting pupils
US7380938B2 (en) 2003-03-25 2008-06-03 Sarnoff Corporation Apparatus to detect and measure saccade and pupilary changes
US7599524B2 (en) 2003-04-04 2009-10-06 Sarnoff Corporation Method and apparatus for providing a robust object finder
US7539330B2 (en) * 2004-06-01 2009-05-26 Lumidigm, Inc. Multispectral liveness determination
KR20030066512A (ko) 2003-07-04 2003-08-09 김재민 노이즈에 강인한 저용량 홍채인식 시스템
JP3848953B2 (ja) * 2003-07-04 2006-11-22 松下電器産業株式会社 生体眼判定方法および生体眼判定装置
WO2005008590A1 (ja) 2003-07-17 2005-01-27 Matsushita Electric Industrial Co.,Ltd. 虹彩コード生成方法、個人認証方法、虹彩コード登録装置、個人認証装置、および個人認証プログラム
DE10335261A1 (de) 2003-08-01 2005-02-17 Daimlerchrysler Ag Verdichterrad und/oder Turbinenrad für eine Sekundärluftfördereinrichtung
US6912298B1 (en) 2003-08-11 2005-06-28 Adobe Systems Incorporation Object detection using dynamic probability scans
KR100682889B1 (ko) 2003-08-29 2007-02-15 삼성전자주식회사 영상에 기반한 사실감 있는 3차원 얼굴 모델링 방법 및 장치
US7333653B2 (en) 2003-08-29 2008-02-19 Hewlett-Packard Development Company, L.P. Detecting and correcting redeye in an image
US20050084179A1 (en) 2003-09-04 2005-04-21 Keith Hanna Method and apparatus for performing iris recognition from an image
US7593550B2 (en) 2005-01-26 2009-09-22 Honeywell International Inc. Distance iris recognition
US8090157B2 (en) * 2005-01-26 2012-01-03 Honeywell International Inc. Approaches and apparatus for eye detection in a digital image
US8098901B2 (en) 2005-01-26 2012-01-17 Honeywell International Inc. Standoff iris recognition system
KR20050025927A (ko) 2003-09-08 2005-03-14 유웅덕 홍채인식을 위한 동공 검출 방법 및 형상기술자 추출방법과 그를 이용한 홍채 특징 추출 장치 및 그 방법과홍채인식 시스템 및 그 방법
US7310443B1 (en) 2003-09-17 2007-12-18 Sonic Solutions, Inc. Automatic red eye detection and correction in digital images
US7295686B2 (en) 2003-09-29 2007-11-13 Primax Electronics Ltd. Method of processing red eye in digital images
US20050165327A1 (en) 2004-01-28 2005-07-28 Thibault Lawrence E. Apparatus and method for detecting the severity of brain function impairment
US20050210267A1 (en) 2004-03-18 2005-09-22 Jun Sugano User authentication method and system, information terminal device and service providing server, subject identification method and system, correspondence confirmation method and system, object confirmation method and system, and program products for them
JP4059224B2 (ja) 2004-04-13 2008-03-12 株式会社デンソー 運転者の外観認識システム
JP2005334402A (ja) 2004-05-28 2005-12-08 Sanyo Electric Co Ltd 認証方法および認証装置
US7466308B2 (en) 2004-06-28 2008-12-16 Microsoft Corporation Disposing identifying codes on a user's hand to provide input to an interactive display application
JP4574277B2 (ja) 2004-08-09 2010-11-04 興和株式会社 眼科撮影装置
WO2007011375A1 (en) 2004-09-13 2007-01-25 Cdm Optics, Inc. Iris image capture devices and associated systems
US20080021331A1 (en) 2004-09-29 2008-01-24 Yeda Research And Development Co. Ltd. Characterization of moving objects in a stationary background
US7856558B2 (en) 2004-10-21 2010-12-21 Honeywell International Inc. Biometric verification and duress detection system and method
WO2006047534A1 (en) 2004-10-22 2006-05-04 Acufocus System and method for aligning an optic with an axis of an eye
US7565183B2 (en) 2004-11-15 2009-07-21 Sony Ericsson Mobile Communications Ab Mobile device with selectable camera position
WO2006063076A2 (en) * 2004-12-07 2006-06-15 Aoptix Technologies Iris imaging using reflection from the eye
EP1842152B1 (en) 2005-01-26 2011-01-05 Honeywell International Inc. A distance iris recognition system
US7568628B2 (en) 2005-03-11 2009-08-04 Hand Held Products, Inc. Bar code reading device with global electronic shutter control
JP4702598B2 (ja) 2005-03-15 2011-06-15 オムロン株式会社 監視システム、監視装置および方法、記録媒体、並びにプログラム
US20060222212A1 (en) 2005-04-05 2006-10-05 Yingzi Du One-dimensional iris signature generation system and method
US7542628B2 (en) 2005-04-11 2009-06-02 Sarnoff Corporation Method and apparatus for providing strobed image capture
US7634114B2 (en) 2006-09-01 2009-12-15 Sarnoff Corporation Method and apparatus for iris biometric systems for use in an entryway
US20060274918A1 (en) 2005-06-03 2006-12-07 Sarnoff Corporation Method and apparatus for designing iris biometric systems for use in minimally constrained settings
US20070047770A1 (en) 2005-06-13 2007-03-01 Swope Guy G Multiple biometrics enrollment and verification system
JP2007011667A (ja) 2005-06-30 2007-01-18 Matsushita Electric Ind Co Ltd 虹彩認証装置および虹彩認証方法
JP4664147B2 (ja) 2005-07-29 2011-04-06 株式会社山武 虹彩認証装置
KR20080043849A (ko) 2005-08-16 2008-05-19 코닌클리케 필립스 일렉트로닉스 엔.브이. 회전 유닛을 갖는 휴대용 전자 디바이스
US7751598B2 (en) 2005-08-25 2010-07-06 Sarnoff Corporation Methods and systems for biometric identification
US20070092115A1 (en) * 2005-10-26 2007-04-26 Usher David B Method and system for detecting biometric liveness
US7873490B2 (en) 2005-12-28 2011-01-18 Solmetric Corporation Solar access measurement device
US20070160266A1 (en) 2006-01-11 2007-07-12 Jones Michael J Method for extracting features of irises in images using difference of sum filters
US7583823B2 (en) 2006-01-11 2009-09-01 Mitsubishi Electric Research Laboratories, Inc. Method for localizing irises in images using gradients and textures
GB0603411D0 (en) 2006-02-21 2006-03-29 Xvista Ltd Method of processing an image of an eye
JP2007225763A (ja) 2006-02-22 2007-09-06 Sony Corp 撮像装置および撮像方法、並びにプログラム
US7844084B2 (en) 2006-02-27 2010-11-30 Donald Martin Monro Rotation compensated iris comparison
EP1991948B1 (en) 2006-03-03 2010-06-09 Honeywell International Inc. An iris recognition system having image quality metrics
US7903168B2 (en) 2006-04-06 2011-03-08 Eastman Kodak Company Camera and method with additional evaluation image capture based on scene brightness changes
US8139117B2 (en) 2006-04-21 2012-03-20 Sick, Inc. Image quality analysis with test pattern
WO2008039252A2 (en) * 2006-05-15 2008-04-03 Retica Systems, Inc. Multimodal ocular biometric system
US7682026B2 (en) 2006-08-22 2010-03-23 Southwest Research Institute Eye location and gaze detection system and method
WO2008032329A2 (en) 2006-09-13 2008-03-20 Alon Atsmon Providing content responsive to multimedia signals
US8170293B2 (en) * 2006-09-15 2012-05-01 Identix Incorporated Multimodal ocular biometric system and methods
US8121356B2 (en) 2006-09-15 2012-02-21 Identix Incorporated Long distance multimodal biometric system and method
WO2008033784A2 (en) 2006-09-15 2008-03-20 Retica Systems, Inc. Long distance multimodal biometric system and method
US7574021B2 (en) 2006-09-18 2009-08-11 Sarnoff Corporation Iris recognition for a secure facility
US7986816B1 (en) 2006-09-27 2011-07-26 University Of Alaska Methods and systems for multiple factor authentication using gaze tracking and iris scanning
US20080121721A1 (en) 2006-11-25 2008-05-29 Chun-Hsien Chen Reflective Reading Structure For Portable Computer
US8121347B2 (en) 2006-12-12 2012-02-21 Rutgers, The State University Of New Jersey System and method for detecting and tracking features in images
US7825958B2 (en) 2007-01-25 2010-11-02 Research In Motion Limited Method and apparatus for controlling a camera module to compensate for the light level of a white LED
KR100807940B1 (ko) 2007-03-08 2008-02-28 박경진 안구내렌즈
US8023699B2 (en) 2007-03-09 2011-09-20 Jiris Co., Ltd. Iris recognition system, a method thereof, and an encryption system using the same
US9002073B2 (en) 2007-09-01 2015-04-07 Eyelock, Inc. Mobile identity platform
US8553948B2 (en) 2007-09-01 2013-10-08 Eyelock, Inc. System and method for iris data acquisition for biometric identification
US20090092292A1 (en) 2007-10-05 2009-04-09 Carver John F Eye Scanner with Integrated Focus Distance Determination Mechanism
EP2215579A4 (en) 2007-11-29 2013-01-30 Wavefront Biometric Technologies Pty Ltd BIOMETRIC AUTHENTICATION USING THE IL
CA2897227C (en) 2007-12-31 2017-01-10 Applied Recognition Inc. Method, system, and computer program for identification and sharing of digital images with face signatures
US8189879B2 (en) 2008-02-14 2012-05-29 Iristrac, Llc System and method for animal identification using IRIS images
US8930238B2 (en) 2008-02-21 2015-01-06 International Business Machines Corporation Pervasive symbiotic advertising system and methods therefor
US9131141B2 (en) 2008-05-12 2015-09-08 Sri International Image sensor with integrated region of interest calculation for iris capture, autofocus, and gain control
US8994877B2 (en) 2008-07-30 2015-03-31 Semiconductor Components Industries, Llc Method and system for synchronizing a flash to an imager
US8213782B2 (en) 2008-08-07 2012-07-03 Honeywell International Inc. Predictive autofocusing system
US8081254B2 (en) 2008-08-14 2011-12-20 DigitalOptics Corporation Europe Limited In-camera based method of detecting defect eye with high accuracy
US9633261B2 (en) 2008-08-22 2017-04-25 International Business Machines Corporation Salting system and method for cancelable iris biometric
US20100082398A1 (en) 2008-09-29 2010-04-01 Yahoo! Inc. System for providing contextually relevant data
US20100278394A1 (en) 2008-10-29 2010-11-04 Raguin Daniel H Apparatus for Iris Capture
US8317325B2 (en) 2008-10-31 2012-11-27 Cross Match Technologies, Inc. Apparatus and method for two eye imaging for iris identification
CN101750697A (zh) 2008-12-10 2010-06-23 深圳富泰宏精密工业有限公司 电子装置的外挂镜架
US8615596B1 (en) 2009-01-14 2013-12-24 Sprint Communications Company L.P. Communication method and system for providing content to a communication device according to a user preference
US8374404B2 (en) 2009-02-13 2013-02-12 Raytheon Company Iris recognition using hyper-spectral signatures
KR101030369B1 (ko) 2009-02-23 2011-04-20 인하대학교 산학협력단 영상 분류 장치 및 방법
US20110043683A1 (en) 2009-04-17 2011-02-24 IOculi Inc Image diversion systems & methods for image capture devices
US8387858B2 (en) 2009-06-01 2013-03-05 Synderesis Technologies, Inc. Consumer rewards systems and methods
US20100328420A1 (en) 2009-06-29 2010-12-30 Roman Kendyl A Optical adapters for mobile devices with a camera
US20110007205A1 (en) 2009-07-08 2011-01-13 Dechnia, LLC Rear to forward facing camera adapter
US8452131B2 (en) 2009-09-25 2013-05-28 International Business Machines Corporation Iris recognition system and method
US20110081946A1 (en) 2009-10-07 2011-04-07 Byron Singh N John Singh Apparatus and method for changing an image-capturing position of a mobile phone camera using a mirror device
US20110142297A1 (en) 2009-12-16 2011-06-16 Eye Controls, Llc Camera Angle Compensation in Iris Identification
US20110187878A1 (en) 2010-02-02 2011-08-04 Primesense Ltd. Synchronization of projected illumination with rolling shutter of image sensor
JP5003774B2 (ja) 2010-02-15 2012-08-15 東京エレクトロン株式会社 現像装置、現像方法及び記憶媒体
US10178290B2 (en) 2010-02-17 2019-01-08 Sri International Method and apparatus for automatically acquiring facial, ocular, and iris images from moving subjects at long-range
KR101046459B1 (ko) 2010-05-13 2011-07-04 아이리텍 잉크 다수의 홍채템플릿을 이용한 홍채인식장치 및 방법
US8957956B2 (en) 2010-06-09 2015-02-17 Honeywell International Inc. Method and system for iris image capture
US8150255B2 (en) 2010-06-25 2012-04-03 Apple Inc. Flash control for electronic rolling shutter
US20120086645A1 (en) 2010-10-11 2012-04-12 Siemens Corporation Eye typing system using a three-layer user interface
US8667520B2 (en) 2011-07-06 2014-03-04 Symphony Advanced Media Mobile content tracking platform methods
KR20120067761A (ko) 2010-12-16 2012-06-26 한국전자통신연구원 사용자 단말을 이용한 생체정보 측정 장치 및 그 방법
US8254768B2 (en) 2010-12-22 2012-08-28 Michael Braithwaite System and method for illuminating and imaging the iris of a person
US8195576B1 (en) 2011-01-31 2012-06-05 Bank Of America Corporation Mobile transaction device security system
US8625847B2 (en) 2011-03-21 2014-01-07 Blackberry Limited Login method based on direction of gaze
US8682073B2 (en) 2011-04-28 2014-03-25 Sri International Method of pupil segmentation
US8854446B2 (en) 2011-04-28 2014-10-07 Iristrac, Llc Method of capturing image data for iris code based identification of vertebrates
US8755607B2 (en) 2011-04-28 2014-06-17 Sri International Method of normalizing a digital image of an iris of an eye
US8639058B2 (en) 2011-04-28 2014-01-28 Sri International Method of generating a normalized digital image of an iris of an eye
WO2012159070A2 (en) 2011-05-18 2012-11-22 Nextgenid, Inc. Multi-biometric enrollment kiosk including biometric enrollment and verification, face recognition and fingerprint matching systems
US20150042776A1 (en) 2011-06-18 2015-02-12 Morpho Trust USA,LLC Systems And Methods For Detecting A Specular Reflection Pattern For Biometric Analysis
CN103763972A (zh) 2011-06-20 2014-04-30 Rhp多媒体公司 用于便携式电子装置的外壳
CN103648366B (zh) 2011-07-14 2016-05-18 皇家飞利浦有限公司 用于远程测量光学焦点的系统和方法
JP2013027617A (ja) * 2011-07-29 2013-02-07 Canon Inc 眼科装置、眼科撮影方法、及びプログラム
WO2013028700A2 (en) 2011-08-22 2013-02-28 Eyelock Inc. Systems and methods for capturing artifact free images
US8473748B2 (en) 2011-09-27 2013-06-25 George P. Sampas Mobile device-based authentication
WO2013049778A1 (en) 2011-09-30 2013-04-04 Intuitive Medical Technologies, Llc Optical adapter for ophthalmological imaging apparatus
US20130089240A1 (en) 2011-10-07 2013-04-11 Aoptix Technologies, Inc. Handheld iris imager
US9241200B2 (en) 2011-10-11 2016-01-19 Verizon Patent And Licensing Inc. Targeted advertising
US9336439B2 (en) 2011-10-12 2016-05-10 Carnegie Mellon University System and method for the long range acquisition of iris images from stationary and mobile subjects
US8959082B2 (en) * 2011-10-31 2015-02-17 Elwha Llc Context-sensitive query enrichment
TW201324180A (zh) 2011-12-07 2013-06-16 Wistron Corp 整合一行動通訊裝置以及一可攜式電子裝置的方法及其可攜式電腦模組
GB2497553B (en) 2011-12-13 2018-05-16 Irisguard Inc Improvements relating to iris cameras
US20130188943A1 (en) 2012-01-19 2013-07-25 Shing-Wai David Wu Camera Adapter
WO2013112964A1 (en) 2012-01-26 2013-08-01 Aware Inc System and method of capturing and producing biometric-matching quality fingerprints and other types of dactylographic images with a mobile device
US9373023B2 (en) 2012-02-22 2016-06-21 Sri International Method and apparatus for robustly collecting facial, ocular, and iris images using a single sensor
US9100825B2 (en) 2012-02-28 2015-08-04 Verizon Patent And Licensing Inc. Method and system for multi-factor biometric authentication based on different device capture modalities
US9138140B2 (en) 2012-03-20 2015-09-22 Lrs Identity, Inc. Compact iris imaging system
CN102708357A (zh) 2012-04-12 2012-10-03 北京释码大华科技有限公司 单图像传感器双眼虹膜识别设备
AU2013205535B2 (en) 2012-05-02 2018-03-15 Samsung Electronics Co., Ltd. Apparatus and method of controlling mobile terminal based on analysis of user's face
US8977560B2 (en) 2012-08-08 2015-03-10 Ebay Inc. Cross-browser, cross-machine recoverable user identifiers
US8437513B1 (en) * 2012-08-10 2013-05-07 EyeVerify LLC Spoof detection for biometric authentication
US20140055337A1 (en) 2012-08-22 2014-02-27 Mobitv, Inc. Device eye tracking calibration
US9195023B2 (en) 2012-09-12 2015-11-24 Olloclip, Llc Removable optical devices for mobile electronic devices
US9154677B2 (en) 2012-09-20 2015-10-06 Apple Inc. Camera accessory for angled camera viewing
KR102039725B1 (ko) 2012-11-23 2019-11-04 엘지디스플레이 주식회사 액정표시장치 어레이 기판 및 그 제조방법
JP6452617B2 (ja) 2012-12-10 2019-01-16 エスアールアイ インターナショナルSRI International バイオメトリク虹彩照合システム
US9058519B2 (en) 2012-12-17 2015-06-16 Qualcomm Incorporated System and method for passive live person verification using real-time eye reflection
EP4184443A1 (en) 2012-12-18 2023-05-24 Eyesmatch Ltd. Devices, systems and methods of capturing and displaying appearances
US9019420B2 (en) 2012-12-19 2015-04-28 Covr Llc Image redirection system for mobile devices
CN103048848A (zh) 2012-12-21 2013-04-17 吴刚 一种用于移动设备摄像头的转角镜头及其组件
CN103099624A (zh) 2013-01-11 2013-05-15 北京释码大华科技有限公司 虹膜测距板、虹膜识别一体机及使用其的虹膜识别方法
EP2946339A4 (en) * 2013-01-17 2016-09-14 Sionyx Llc BIOMETRIC IMAGING DEVICES AND CORRESPONDING METHODS
US9304376B2 (en) 2013-02-20 2016-04-05 Hand Held Products, Inc. Optical redirection adapter
JP2014187554A (ja) 2013-03-22 2014-10-02 Fujitsu Ltd 撮像装置、情報処理装置、携帯端末装置及び表示装置
US20140327815A1 (en) 2013-05-06 2014-11-06 Cvs Pharmacy, Inc. Smartphone scanner adapter
US9390327B2 (en) 2013-09-16 2016-07-12 Eyeverify, Llc Feature extraction and matching for biometric authentication
KR102270674B1 (ko) * 2013-09-30 2021-07-01 삼성전자주식회사 생체인식 카메라
US10025982B2 (en) 2013-10-08 2018-07-17 Princeton Identity, Inc. Collecting and targeting marketing data and information based upon iris identification
US10038691B2 (en) 2013-10-08 2018-07-31 Princeton Identity, Inc. Authorization of a financial transaction
US9836647B2 (en) 2013-10-08 2017-12-05 Princeton Identity, Inc. Iris biometric recognition module and access control assembly
US9300769B2 (en) 2013-11-01 2016-03-29 Symbol Technologies, Llc System for and method of adapting a mobile device having a camera to a reader for electro-optically reading targets
CN105917357B (zh) 2014-02-12 2019-06-28 三星电子株式会社 具有带通滤波器和可变光源的灵敏生物识别相机
JP6299300B2 (ja) 2014-03-14 2018-03-28 オムロン株式会社 画像処理装置および画像処理方法
US9679212B2 (en) * 2014-05-09 2017-06-13 Samsung Electronics Co., Ltd. Liveness testing methods and apparatuses and image processing methods and apparatuses
CN107087431B (zh) 2014-05-09 2021-02-05 谷歌有限责任公司 用于辨别眼睛信号和连续生物识别的系统和方法
KR101494874B1 (ko) 2014-05-12 2015-02-23 김호 사용자 인증 방법, 이를 실행하는 장치 및 이를 저장한 기록 매체
JP6497438B2 (ja) 2014-05-30 2019-04-10 株式会社ニデック 虹彩角膜領域を観察する光学機器、および虹彩角膜領域の測定と評価の少なくとも一方を行なう方法
US9934436B2 (en) 2014-05-30 2018-04-03 Leidos Innovations Technology, Inc. System and method for 3D iris recognition
US20160019421A1 (en) 2014-07-15 2016-01-21 Qualcomm Incorporated Multispectral eye analysis for identity authentication
JP6327071B2 (ja) 2014-09-03 2018-05-23 オムロン株式会社 画像処理装置および画像処理方法
US9414037B1 (en) * 2014-09-26 2016-08-09 Amazon Technologies, Inc. Low light image registration
US9767358B2 (en) 2014-10-22 2017-09-19 Veridium Ip Limited Systems and methods for performing iris identification and verification using mobile devices
US10198645B2 (en) * 2014-11-13 2019-02-05 Intel Corporation Preventing face-based authentication spoofing
US9412169B2 (en) 2014-11-21 2016-08-09 iProov Real-time visual feedback for user positioning with respect to a camera and a display
MX2017007139A (es) 2014-12-03 2017-11-10 Princeton Identity Inc Sistema y metodo para un complemento biometrico de dispositivo movil.
KR20160073866A (ko) * 2014-12-17 2016-06-27 삼성전자주식회사 홍채 인식 장치, 이를 포함하는 홍채 인식 시스템 및 상기 홍채 인식 시스템의 동작 방법
US9361507B1 (en) 2015-02-06 2016-06-07 Hoyos Labs Ip Ltd. Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
JP6535223B2 (ja) 2015-05-28 2019-06-26 浜松ホトニクス株式会社 瞬目計測方法、瞬目計測装置、及び瞬目計測プログラム
US20160364609A1 (en) 2015-06-12 2016-12-15 Delta ID Inc. Apparatuses and methods for iris based biometric recognition
TWI558202B (zh) 2015-10-14 2016-11-11 緯創資通股份有限公司 攝像裝置、攝像系統以及其控制方法
US20170124314A1 (en) 2015-11-03 2017-05-04 Tavita Laumea Device and Method for Keypad with an Integral Fingerprint Scanner
KR102402829B1 (ko) 2015-11-10 2022-05-30 삼성전자 주식회사 사용자 인증 방법 및 이를 지원하는 전자 장치
US10102358B2 (en) 2015-12-29 2018-10-16 Sensory, Incorporated Face-controlled liveness verification
EP3403217A4 (en) 2016-01-12 2019-08-21 Princeton Identity, Inc. SYSTEMS AND METHODS FOR BIOMETRIC ANALYSIS
WO2017172695A1 (en) 2016-03-31 2017-10-05 Princeton Identity, Inc. Systems and methods of biometric anaysis with adaptive trigger
WO2017173228A1 (en) 2016-03-31 2017-10-05 Princeton Identity, Inc. Biometric enrollment systems and methods
WO2018111860A1 (en) 2016-12-12 2018-06-21 Princeton Identity, Inc. Systems and methods of biometric analysis
KR102455633B1 (ko) 2017-12-21 2022-10-17 삼성전자주식회사 라이브니스 검사 방법 및 장치

Also Published As

Publication number Publication date
US10943138B2 (en) 2021-03-09
US10762367B2 (en) 2020-09-01
EP3403217A1 (en) 2018-11-21
US20170337440A1 (en) 2017-11-23
US20170337441A1 (en) 2017-11-23
WO2017123702A8 (en) 2017-08-17
US20170323167A1 (en) 2017-11-09
US20170337439A1 (en) 2017-11-23
US20180025244A1 (en) 2018-01-25
US10452936B2 (en) 2019-10-22
EP3403217A4 (en) 2019-08-21
US10643087B2 (en) 2020-05-05
US10643088B2 (en) 2020-05-05
JP2019506694A (ja) 2019-03-07
WO2017123702A1 (en) 2017-07-20

Similar Documents

Publication Publication Date Title
US10643088B2 (en) Systems and methods of biometric analysis with a specularity characteristic
US11657133B2 (en) Systems and methods of multi-modal biometric analysis
KR101356358B1 (ko) 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기 및 컴퓨터 구현 방법
US20160019420A1 (en) Multispectral eye analysis for identity authentication
US9008375B2 (en) Security improvements for iris recognition systems
US20170091550A1 (en) Multispectral eye analysis for identity authentication
WO2020141537A1 (en) System and method for eye tracking
Karakaya et al. Limbus impact on off-angle iris degradation
CN110929705A (zh) 活体检测方法和装置、身份认证方法和系统、存储介质
JP2018106720A (ja) 画像処理装置及びその方法
CN108009534B (zh) 基于瞳孔灰度的活体检测方法
JP2006318374A (ja) 眼鏡判別装置および認証装置ならびに眼鏡判別方法
KR101122513B1 (ko) 3차원 위치정보를 이용한 안구위치 추정시스템 및 안구위치추정방법
Agarwal et al. A comparative study of facial, retinal, iris and sclera recognition techniques
US11948402B2 (en) Spoof detection using intraocular reflection correspondences
Zhang et al. Multispectral Iris acquisition system

Legal Events

Date Code Title Description
A201 Request for examination