KR101356358B1 - 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기 및 컴퓨터 구현 방법 - Google Patents

눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기 및 컴퓨터 구현 방법 Download PDF

Info

Publication number
KR101356358B1
KR101356358B1 KR20130076895A KR20130076895A KR101356358B1 KR 101356358 B1 KR101356358 B1 KR 101356358B1 KR 20130076895 A KR20130076895 A KR 20130076895A KR 20130076895 A KR20130076895 A KR 20130076895A KR 101356358 B1 KR101356358 B1 KR 101356358B1
Authority
KR
South Korea
Prior art keywords
eye
images
image
determining
metric
Prior art date
Application number
KR20130076895A
Other languages
English (en)
Inventor
레자 데락샤니
케이시 휴글렛
제레미 파벤
조엘 테플리
토비 러쉬
Original Assignee
아이베리파이 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아이베리파이 엘엘씨 filed Critical 아이베리파이 엘엘씨
Application granted granted Critical
Publication of KR101356358B1 publication Critical patent/KR101356358B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2141Access rights, e.g. capability lists, access control lists, access tables, access matrices

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)

Abstract

본 명세서는 눈의 이미지에 기초한 바이오메트릭 인증에 관한 기술을 설명한다. 일반적으로, 본 명세서에 설명된 주제의 일 양태는 눈의 뷰를 포함하는 서브젝트의 2 이상의 이미지를 얻는 단계를 포함하는 방법으로 구현될 수 있다. 방법은, 눈이 복수의 이미지에 나타남에 따라 눈의 검출된 움직임에 적어도 기초하여 행동 메트릭을 결정하는 단계, 상이한 각각의 초점 거리를 각각 가지는 복수의 이미지에 나타나는 랜드마크까지의 센서로부터의 거리에 적어도 기초하여 공간 메트릭을 결정하는 단계, 및 눈의 표면상의 정반사 패턴 또는 표면 글레어의 검출된 변화에 적어도 기초하여 반사율 메트릭을 결정하는 단계를 더 포함할 수 있다. 방법은 행동, 공간, 및 반사율 메트릭에 적어도 기초하여 점수를 결정하는 단계 및 점수에 기초하여 하나 이상의 이미지를 거절 또는 수락하는 단계를 더 포함할 수 있다.

Description

눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기 및 컴퓨터 구현 방법{Computer-Implemented Method and Apparatus for Biometric Authentication based on Images of an Eye}
본 개시는 눈의 이미지에 기초한 바이오메트릭 인증(biometric authentication)에 관한 것이다.
특정 개인에 대해 재산 또는 리소스(resource)에 액세스하는 것을 제한하는 것이 종종 필요하다. 리소스에 대한 액세스를 허가 또는 거부하기 위해 바이오메트릭 시스템을 이용해 개인의 신원(identity)을 인증할 수 있다. 예컨대, 홍채 스캐너(iris scanners)를 바이오메트릭 보안 시스템에 이용하여 개인의 홍채 내의 고유한 구조에 기초하여 개인을 식별할 수 있다.
본 명세서는 눈의 이미지에 기초한 바이오메트릭 인증에 관한 기술을 설명한다. 일반적으로, 본 명세서에 설명된 주제의 일 양태는 눈의 뷰(view)를 포함하는 서브젝트(subject)의 2 이상의 이미지를 얻는 단계를 포함하는 방법으로 구현될 수 있는데, 여기서 이미지는 복수의 초점 거리를 총괄적으로 포함한다. 방법은, 눈이 복수의 이미지에 나타남에 따라 눈의 검출된 움직임에 적어도 기초하여 행동 메트릭(behavioral metric)을 결정하는 단계를 더 포함할 수 있다. 행동 메트릭은 눈의 검출된 움직임 및 예상된 움직임으로부터의 타이밍의 편차의 측정일 수 있다. 방법은 상이한 각각의 초점 거리를 각각 가지는 복수의 이미지에 나타나는 랜드마크까지의 센서로부터의 거리에 적어도 기초하여 공간 메트릭(spatial metric)을 결정하는 단계를 더 포함할 수 있다. 방법은 눈이 복수의 이미지에 나타남에 따라 눈의 표면상의 정반사 패턴 또는 표면 글레어(glare)의 검출된 변화에 적어도 기초하여 반사율 메트릭(reflectance metric)을 결정하는 단계를 더 포함할 수 있는데, 여기서 반사율 메트릭은 눈의 표면상의 정반사 패턴 또는 글레어의 변화의 측정이다. 방법은 행동, 공간, 및 반사율 메트릭에 적어도 기초하여 점수를 결정하는 단계를 더 포함할 수 있다. 방법은 점수에 기초하여 하나 이상의 이미지를 거절 또는 수락하는 단계를 더 포함할 수 있다.
일반적으로, 본 명세서에 설명된 주제의 일 양태는 눈의 뷰를 포함하는 서브젝트의 2 이상의 이미지를 캡쳐하도록 구성된 센서를 포함하는 시스템으로 구현될 수 있는데, 여기서 이미지는 복수의 초점 거리를 총괄적으로 포함한다. 시스템은 센서에 의해 하나 이상의 이미지의 캡쳐와 동기화(synchronization)하여 빛의 자극을 제공하는 조명 요소(illumination element)를 더 포함할 수 있다. 시스템은 눈이 복수의 이미지에 나타남에 따라 눈의 검출된 움직임에 적어도 기초하여 행동 메트릭을 결정하기 위한 수단을 더 포함할 수 있다. 행동 메트릭은 눈의 검출된 움직임 및 예상된 움직임으로부터의 타이밍의 편차의 측정이다. 시스템은 상이한 각각의 초점 거리를 각각 가지는 상기 복수의 이미지에 나타나는 랜드마크까지의 센서로부터의 거리에 적어도 기초하여 공간 메트릭을 결정하도록 구성된 모듈을 더 포함할 수 있다. 시스템은 눈이 복수의 이미지에 나타남에 따라 눈의 표면상의 정반사 패턴 또는 표면 글레어의 검출된 변화에 적어도 기초하여 반사율 메트릭을 결정하도록 구성된 모듈을 더 포함할 수 있는데, 여기서 반사율 메트릭은 눈의 표면상의 정반사 패턴 또는 글레어의 변화의 측정이다. 시스템은 행동, 공간, 및 반사율 메트릭에 적어도 기초하여 점수를 결정하도록 구성된 모듈을 더 포함할 수 있다. 시스템은 점수에 기초하여 하나 이상의 이미지를 거절 또는 수락하도록 구성된 인터페이스를 더 포함할 수 있다.
일반적으로, 본 명세서에 설명된 주제의 일 양태는 데이터 프로세싱 기기 및 데이터 프로세싱 기기와 연결되는 메모리를 포함하는 시스템으로 구현될 수 있다. 저장된 명령어(instructions)를 구비한 메모리는, 데이터 프로세싱 기기에 의해 실행될 때 데이터 프로세싱 기기로 하여금 눈의 뷰를 포함하는 서브젝트의 2 이상의 이미지를 얻는 동작을 포함하는 동작을 수행하도록 하는데, 여기서 이미지는 복수의 초점 거리를 총괄적으로 포함한다. 동작은 눈이 복수의 이미지에 나타남에 따라 눈의 검출된 움직임에 적어도 기초하여 행동 메트릭을 결정하는 동작을 더 포함할 수 있다. 행동 메트릭은 눈의 검출된 움직임 및 예상된 움직임으로부터의 타이밍의 편차의 측정일 수 있다. 동작은 상이한 각각의 초점 거리를 각각 가지는 복수의 이미지에 나타나는 랜드마크까지의 센서로부터의 거리에 적어도 기초하여 공간 메트릭을 결정하는 동작을 더 포함할 수 있다. 동작은 눈이 복수의 이미지에 나타남에 따라 눈의 표면상의 정반사 패턴 또는 표면 글레어의 검출된 변화에 적어도 기초하여 반사율 메트릭을 결정하는 동작을 더 포함할 수 있는데, 여기서 반사율 메트릭은 눈의 표면상의 정반사 패턴 또는 글레어의 변화의 측정이다. 동작은 행동, 공간, 및 반사율 메트릭에 적어도 기초하여 점수를 결정하는 동작을 더 포함할 수 있다. 동작은 점수에 기초하여 상기 하나 이상의 이미지를 거절 또는 수락하는 동작을 더 포함할 수 있다.
일반적으로, 본 명세서에 설명된 주제의 일 양태는 프로세싱 장치에 의해 실행가능한 명령어를 포함하는 소프트웨어를 저장한 비일시적 컴퓨터 판독가능 매체로 구현될 수 있고 이는 실행될 때 프로세싱 장치로 하여금 눈의 뷰를 포함하는 서브젝트의 2 이상의 이미지를 얻는 동작을 포함하는 동작을 수행하도록 하는데, 여기서 이미지는 복수의 초점 거리를 총괄적으로 포함한다. 동작은 눈이 복수의 이미지에 나타남에 따라 눈의 검출된 움직임에 적어도 기초하여 행동 메트릭을 결정하는 동작을 더 포함할 수 있다. 행동 메트릭은 눈의 검출된 움직임 및 예상된 움직임으로부터의 타이밍의 편차의 측정일 수 있다. 동작은 상이한 각각의 초점 거리를 각각 가지는 복수의 이미지에 나타나는 랜드마크까지의 센서로부터의 거리에 적어도 기초하여 공간 메트릭을 결정하는 동작을 더 포함할 수 있다. 동작은 눈이 복수의 이미지에 나타남에 따라 눈의 표면상의 정반사 패턴 또는 표면 글레어의 검출된 변화에 적어도 기초하여 반사율 메트릭을 결정하는 동작을 더 포함할 수 있는데, 여기서 반사율 메트릭은 눈의 표면상의 정반사 패치 또는 글레어의 변화의 측정이다. 동작은 행동, 공간, 및 반사율 메트릭에 적어도 기초하여 점수를 결정하는 동작을 더 포함할 수 있다. 동작은 점수에 기초하여 상기 하나 이상의 이미지를 거절 또는 수락하는 동작을 더 포함할 수 있다.
이러한 실시예들 및 기타 실시예들은 다음의 하나 이상의 특징들을 각각 선택적으로 포함할 수 있다. 행동 메트릭을 결정하는 단계는 빛의 자극(photic stimuli)에 반응한 동공 수축의 개시(onset), 지속 기간(duration), 속도, 또는 가속도를 결정하는 단계를 포함할 수 있다. 빛의 자극은 플래시 펄스(flash pulse)를 포함할 수 있다. 빛의 자극은 디스플레이에 의한 광 출력의 강도의 변화를 포함할 수 있다. 행동 메트릭을 결정하는 단계는 외부 자극에 반응한 시선 전환(gaze transition)의 개시, 지속 기간, 또는 가속도를 결정하는 단계를 포함할 수 있다. 외부 자극은 시선을 안내하도록 사용자를 지시하기 위한 프롬프트(prompts)를 포함할 수 있다. 외부 자극은 디스플레이 내에서 움직이는 디스플레이 내에 표현된 오브젝트를 포함할 수 있다. 공간 메트릭은 2차원 평면으로부터의 서브젝트의 편차의 측정일 수 있다. 공간 메트릭은 예상된 3차원 형상으로부터의 서브젝트의 편차의 측정일 수 있다. 공간 메트릭을 결정하는 단계는 복수의 이미지에 나타나는 2 이상의 랜드마크의 시차(parallax)를 결정하는 단계를 포함할 수 있다. 하프톤(half-tones)이 감소된 동적 범위를 사용하여 캡쳐된 이미지 내에서 검출될 수 있고 이미지가 하프톤에 적어도 부분적으로 기초하여 거절될 수 있다. 행동 메트릭을 결정하는 단계는 눈이 복수의 이미지에 나타남에 따라 눈의 혈류를 검출하는 단계를 포함할 수 있다. 점수를 결정하는 단계는 점수를 결정하기 위해 훈련 함수 근사기를 사용하는 단계를 포함할 수 있다. 랜드마크는 이미지 내에 표현된 얼굴의 일부분일 수 있다. 반사율 메트릭을 결정하는 단계는 하나 이상의 이미지가 캡쳐되는 동안 서브젝트를 조명하기 위해 플래시(flash)를 펄싱(pulsing)하는 단계, 이미지 내의 플래시로부터 눈 상의 글레어의 출현(appearance)을 감지하는 단계; 및 플래시의 펄싱과 이미지 내의 눈 상의 대응하는 글레어의 출현 사이의 시간차를 측정하는 단계를 포함할 수 있다. 반사율 메트릭을 결정하는 단계는 하나 이상의 이미지가 캡쳐되는 동안 상기 서브젝트를 조명하기 위해 플래시를 펄싱하는 단계 및 이미지 내의 플래시로부터 눈 상의 글레어의 패턴에 대한 균일성을 측정함으로써 눈 흰자위의 미세한(fine) 3차원 텍스처를 검출하는 단계를 포함할 수 있다. 초점을 제어하는 센서 설정은 이미지 중 2 이상을 캡쳐하는 동안 복수의 상이한 설정에 대해 조정될 수 있다. 상이한 초점 설정으로 캡쳐된 이미지는 비교되어서 이러한 이미지들이 각각의 초점 설정을 반영하는지 여부를 결정할 수 있다. 노출을 제어하는 센서 설정은 이미지 중 2 이상을 캡쳐하는 동안 복수의 상이한 설정에 대해 조정될 수 있다. 상이한 초점 설정으로 캡쳐된 이미지는 비교되어서 이러한 이미지들이 각각의 노출 설정을 반영하는지 여부를 결정할 수 있다. 화이트 밸런스를 제어하는 센서 설정은 이미지 중 2 이상을 캡쳐하는 동안 복수의 상이한 설정에 대해 조정될 수 있다. 상이한 초점 설정으로 캡쳐된 이미지는 비교되어서 이러한 이미지들이 각각의 화이트 밸런스 설정을 반영하는지 여부를 결정할 수 있다.
본 발명의 특정 실시예들은 다음의 장점들 중 하나 이상 실현하도록 또는 아무것도 실현하지 않도록 구현될 수 있다. 소정 구현예들은 안정적으로 개인을 인증함으로써 보안을 제공할 수 있다. 소정 구현예들은 살아있는 사람 눈이 아닌 오브젝트를 사용하여 눈 바이오메트릭 기반 인증 시스템의 스푸핑(spoofing)을 방지할 수 있다.
본 발명의 하나 이상의 실시예들의 세부사항은 이하 첨부된 도면 및 설명에 명시된다. 본 발명의 기타 특징, 양태, 및 장점이 설명, 도면, 및 청구항으로부터 명백해질 것이다.
도 1은 사람 눈의 해부구조에 대한 다이어그램.
도 2는 눈 흰자위의 맥관구조를 보여주는 부분을 포함하는 이미지 예에 대한 다이어그램.
도 3은 분석을 위해 분할된 이미지 예에 대한 다이어그램.
도 4는 눈 흰자위의 하나 이상의 이미지에 부분적으로 기초하여 개인을 인증하도록 구성된 보안 시스템 예에 대한 블록도.
도 5는 온라인 환경 예에 대한 블록도.
도 6은 인증을 위해 얻어진 이미지 내의 눈의 생동감(liveness)이 체크되는, 눈 흰자위의 하나 이상의 이미지에 기초하여 개인을 인증하기 위한 프로세스 예에 대한 순서도.
도 7은 눈의 하나 이상의 이미지에 대해 생동감 점수(liveness score)를 결정하기 위한 프로세스 예에 대한 순서도.
도 8a는 빛의 자극에 반응한 동공의 수축에 기초하여 행동 메트릭을 결정하기 위한 프로세스 예에 대한 순서도.
도 8b는 외부 자극에 반응한 홍채의 시선 전환에 기초하여 행동 메트릭을 결정하기 위한 프로세스 예에 대한 순서도
도 9는 본 명세서에서 설명된 기술을 구현하도록 사용될 수 있는 컴퓨터 장치 및 모바일 컴퓨터 장치에 대한 예를 도시.
개인의 눈 흰자위 내 가시(visible) 맥관구조에 대한 독특한 특성을 이용하여 개인을 식별 또는 인증할 수 있다. 예컨대, 사용자를 인증하고 리소스에 대한 사용자 액세스를 허가 또는 거부하기 위해 사용자의 눈 흰자위 이미지가 얻어지고 분석되어 참조기록과 눈의 특징을 비교할 수 있다. 적 또는 침입자가 보안 시스템의 광 센서에 살아있는 눈 외의 어떤 것(예컨대, 인가된 사용자의 얼굴 사진 또는 인가된 사용자 눈의 플라스틱 모델)을 제공함으로써 이러한 인증 방법을 사용하여 보안 시스템을 스푸핑하는 것을 시도할 수 있다. 도구(props)의 이미지와 살아있는 눈의 이미지를 구별하기 위해 얻어진 이미지를 분석하도록 보안 시스템을 구성함으로써 일부 스푸핑 시도를 좌절시킬 수 있다.
특정 스푸핑 시도에는 나타나지 않을 수 있는 살아있는 눈에서는 나타날 것으로 예상되는 속성을 반영하는 하나 이상의 생동감 메트릭을 계산할 수 있다. 예컨대, 이미지 획득 프로세스 동안 자극이 사용자에게 적용될 수 있고 이미지 내에 표현된 눈의 반응은 그러한 자극에 대한 살아있는 눈의 예상된 응답과 동등한 메트릭으로 정량화될 수 있다. 소정 구현예들에서, 얻어진 이미지는 복수의 초점 거리에서 체크되어 이미지에 표현된 눈이 3차원인지(예컨대, 단일 평면으로부터 벗어난 센서로부터의 거리에 위치된 것처럼 보이는 랜드마크를 가지는지)를 결정할 수 있다. 소정 구현예들에서, 눈의 반사율과 관련된 메트릭이 결정될 수 있다. 살아있는 눈은 눈의 3차원 형상 및 눈의 미세한 표면 텍스처 및 수분에 의해 발생하는 고유의 반사율 특성들을 가지는데, 이런 특성들은 많은 스푸핑 공격 도구에는 나타나지 않을 수 있다. 예컨대, 플래시 장치를 이용하여 이미지 획득 프로세스 동안 서브젝트를 조명할 수 있고 서브젝트의 눈 상의 플래시 펄스에 대한 반사율의 품질 및 타이밍이 분석되어 정말로 살아있는 안구가 실시간으로 이미지 처리되고 있는지를 결정할 수 있다.
소정 구현예들에서, 복수의 생동감 메트릭이 조합되어, 예컨대, 눈의 모델 또는 2차원 사진의 이미지와는 대조적으로, 이미지가 살아있는 눈을 표현할 가능성을 반영하는 생동감 점수 또는 판단을 결정할 수 있다. 예컨대, 훈련 함수 근사기(예컨대, 신경망)를 이용하여, 복수의 생동감 메트릭에 기초하여, 생동감 점수를 결정할 수 있다. 이어서 얻어진 이미지는 생동감 점수에 기초하여 수락 또는 거부될 수 있다. 소정 구현예들에서, 생동감 점수가 이미지가 살아있는 눈을 표현하지 않는 것을 나타낼 때 스푸핑 시도가 보고될 수 있다.
도 1은 사람 눈(100)의 해부구조에 대한 다이어그램이다. 다이어그램은 눈의 각막 윤부 경계 근처 해부구조의 확대도(102)와 함께 눈의 단면도를 도시하는데, 각막 윤부 경계는 색깔이 있는 홍채(110)와 둘레의 눈 흰자위를 구분짓는다. 눈 흰자위는 복잡한 맥관구조를 포함하는데, 맥관구조는 눈의 외부에서 쉽게 볼 수 있고 스캔가능할 뿐만 아니라, 이에 더하여 맥관구조는 고유한 구조를 가져서 개인들 간에 상이하다. 따라서, 주로 결막(conjunctiva) 및 상공막(episclera)의 맥관구조로 인해, 이러한 눈 흰자위의 맥관구조가 스캔될 수 있고 바이오메트릭으로서 유리하게 사용될 수 있다. 이러한 바이오메트릭을 이용하여 특정 개인을 인증하거나, 또는, 신원불명의 개인을 식별할 수 있다.
눈 흰자위는 여러 층(layers)을 가진다. 공막(120)은 콜라겐 및 탄성 섬유를 포함하는 눈의 불투명하고, 섬유로 된, 보호 층이다. 공막(120)은 상공막(130)에 의해 덮이는데, 상공막(130)은 그 위를 통하여 지나가는 특히 엄청나게 많은 혈관 및 정맥을 가진다. 상공막(130)은 안구 결막(bulbar conjunctiva, 140)에 의해 덮이는데, 안구 결막은 눈꺼풀(150)에 접하는 또는 눈꺼풀이 열릴 때는 환경에 접하는 얇고 깨끗한 막이다. 혈관 및 정맥이 눈 흰자위의 이러한 모든 층을 통해 지나가고 눈의 이미지에서 검출될 수 있다. 눈은 또한 이미지 내의 눈 흰자위 부분을 때때로 가릴 수 있는 속눈썹(160)도 포함한다.
도 2는 눈 흰자위의 맥관구조를 보여주는 부분을 포함하는 이미지(200) 예에 대한 다이어그램이다. 이러한 이미지(200)는 예컨대, 스마트폰, 태블릿 컴퓨터, 텔레비전, 랩톱 컴퓨터, 또는 개인용 컴퓨터와 같은, 컴퓨팅 장치에 통합된 센서(예컨대, 카메라)로 캡쳐될 수 있다. 예컨대, 디스플레이 또는 오디오 프롬프트(prompt)를 통해 사용자를 유도하여 이미지가 캡쳐되는 동안 왼쪽을 보게 할 수 있고, 따라서 홍채 오른쪽의 눈 흰자위의 큰 면적이 센서의 뷰에 노출된다. 유사하게, 이미지가 캡쳐되는 동안 오른쪽, 위, 아래, 정면 등을 보도록 사용자를 유도할 수 있다. 이미지 예는 중심에 있는 동공(210)과 함께 있는 홍채(220)의 뷰를 포함한다. 홍채(220)는 눈의 각막 윤부 경계(225)까지 펼쳐져 있다. 눈 흰자위(230)는 눈의 각막 윤부 경계(225)의 외부에 있다. 눈 흰자위의 광범위한 맥관구조(240)가 이미지(200) 내에서 보일 수 있다. 이러한 맥관구조(240)는 개인마다 독특할 수 있다. 소정 구현예들에서, 맥관구조(240)의 독특한 특성은 개인 사용자를 식별, 확인, 또는 인증하기 위한 기준으로서 사용될 수 있다.
도 3은 분석을 위해 분할된, 두 눈 흰자위의 맥관구조를 보여주는 부분을 포함하는, 이미지(300) 예에 대한 다이어그램이다. 캡쳐된 이미지(310)는 다양한 방법으로 얻어질 수 있다. 캡쳐된 이미지(310)는 사전처리되고(preprocessed) 분할되어 이미지 내의 관심 영역을 분리할 수 있고 눈 흰자위 내 맥관구조의 뷰를 향상시킬 수 있다. 예컨대, 관심 영역은 일부 또는 모든 눈 흰자위를 덮는 격자를 형성하는 타일링된(tiled) 부분일 수 있다. 우안(right eye)의 홍채의 왼쪽에 있는 흰자위에 대응하는 부분(320)은, 예컨대, 눈꺼풀의 가장자리 및 각막 윤부 경계를 식별함으로써, 분리될 수 있다. 유사하게, 좌안(left eye)의 홍채의 왼쪽에 있는 흰자위에 대응하는 부분(322)도 분리될 수 있다. 예컨대, 눈 흰자위의 맥관구조와 둘레의 흰 부분 사이의 대비를 최대화한 이미지 데이터로부터 색 성분을 선택함으로써, 사전처리를 사용하여 이러한 영역 내의 맥관구조의 뷰를 향상시킬 수 있다. 소정 구현예들에서, 이미지의 이러한 부분(320, 322)은 격자(330, 332)를 형성하는 타일(tiles)로 더 분할될 수 있는데, 격자(330, 332)는 분석 목적을 위해 눈 흰자위의 노출된 표면 지역을 더 작은 영역으로 분할한다. 이러한 관심 영역 내의 맥관구조 특징이 개인의 식별, 확인, 또는 인증을 위해 사용될 수 있다.
도 4는 눈(410) 흰자위의 하나 이상의 이미지에 부분적으로 기초하여 개인을 인증하도록 구성된 보안 시스템(400) 예에 대한 블록도이다. 보안 시스템(400)의 사용자는 광 센서(420)에 자신의 눈(410)을 보여준다. 이러한 방식으로 눈(410) 흰자위의 하나 이상의 이미지가 캡쳐될 수 있다. 사용될 수 있는 광 센서의 예로 디지털 카메라, 3차원(3D) 카메라, 및 광 필드 센서(light field sensor)가 있다. 광 센서(420)에는, 예컨대, 디지털 전하 결합 소자(charge-coupled devices, CCD) 또는 상보적 금속 산화막 반도체(complementary metal-oxide-semiconductors, CMOS)와 같은, 다양한 기술이 사용될 수 있다. 소정 구현예들에서, 디스플레이(424)에 보여지는 메시지를 통해 사용자를 유도하여 눈(410) 흰자위의 부분을 노출하고 이미지 획득을 용이하게 하기 위한 특정한 자세를 취하게 할 수 있다. 예컨대, 사용자의 눈(410)의 홍채를 왼쪽, 오른쪽, 위, 왼쪽 위, 및 오른쪽 위로 굴리기 위해 사용자를 유도하여 사용자의 시선을 지시할 수 있다. 소정 구현예들에서, 도시되진 않았지만, 스피커를 통해 재생되는 메시지를 통하거나, 표시 광(예컨대, LEDs)을 통해 자세를 취하도록 사용자를 유도할 수 있거나, 전혀 유도하지 않을 수 있다.
소정 구현예들에서, 센서(420)는 눈(410)이 센서의 뷰의 필드에서 적절히 위치될 때 검출하도록 구성될 수 있다. 또는, 컴퓨팅 장치(430) 상에 구현된 소프트웨어 또는 펌웨어는 광 센서(420)에 의해 생성된 하나 이상의 이미지를 분석하여 눈(410)이 적절히 위치되었는지 여부를 결정할 수 있다. 소정 구현예들에서, 사용자는 눈(410)이 사용자 인터페이스(예컨대, 버튼, 키보드, 키패드, 터치패드, 또는 터치 스크린)을 통해 적절히 위치된 때를 수동으로 표시할 수 있다.
컴퓨팅 장치(430) 상에 구현된 인증 모듈(440)은 광 센서(420)를 통해 눈 흰자위의 하나 이상의 이미지를 얻을 수 있다. 소정 구현예들에서, 컴퓨팅 장치(430)는 광 센서(420)와 통합되거나 광 센서(420)에 전기적으로 결합된다. 소정 구현예들에서, 컴퓨팅 장치(430)는 무선 인터페이스(예컨대, 안테나)를 통해 광 센서(420)와 통신할 수 있다.
인증 모듈(440)은 광 센서(420)를 통해 얻어진 이미지를 처리하여 보안 장치(450)에 대한 액세스를 제어한다. 예컨대, 인증 모듈(440)은 도 6에 대해 설명된 인증 프로세스를 구현할 수 있다. 소정 구현예들에서, 보안 장치(450)는 인증 모듈(440)로부터의 액세스 제어 명령어에 영향을 주는 액츄에이터(460)(예컨대, 잠금 메커니즘)를 포함할 수 있다.
컴퓨팅 장치는 다양한 방법으로 보안 장치(450)와 통합될 수 있거나 보안 장치(450)를 구비한 인터페이스일 수 있다. 예컨대, 보안 장치(450)는 자동차일 수 있고, 광 센서(420)는 자동차의 대시보드(dashboard) 또는 운전대(steering wheel)에 통합된 카메라일 수 있으며, 컴퓨팅 장치(430)는 자동차 내에 통합될 수 있고 보안 액츄에이터(460)로서 역할하는 점화 잠금 시스템 및 카메라에 전기적으로 연결될 수 있다. 사용자는 인가된(authorized) 자동차 운전자로서 인증되기 위해 사용자 눈 흰자위의 뷰를 카메라에 제공할 수 있고 엔진을 시동할 수 있다.
소정 구현예들에서, 보안 장치(450)는 부동산 잠금 박스일 수 있고, 광 센서(420)는 사용자 모바일 장치(예컨대, 스마트폰 또는 태블릿 장치)와 통합된 카메라일 수 있으며, 인증 모듈(440)의 프로세싱은 전원 잠금 메커니즘을 제어하는 잠금 박스와 통합된 컴퓨팅 장치에 의해 부분적으로 그리고 사용자 모바일 장치에 의해 부분적으로 수행될 수 있다. 두 컴퓨팅 장치는 무선 인터페이스를 통해 통신할 수 있다. 예컨대, 인가된 사용자로서 인증하고 잠금 박스에 저장된 키에 대한 액세스를 허가하기 위해, 사용자(예컨대, 자산 상황을 보여주는 부동산업자)는 사용자 모바일 장치상의 카메라를 사용하여 하나 이상의 이미지를 얻고 이미지에 기초하여 잠금 박스에 데이터를 등록할 수 있다.
소정 구현예들에서, 보안 장치(450)는 재산에 대한 액세스를 제어하는 게이트(gate) 또는 문(door)이다. 광 센서(420)는 문 또는 게이트 근처의 벽 또는 펜스(fence) 상에 위치하거나 문 또는 게이트에 통합될 수 있다. 컴퓨팅 장치(430)는 근처에 위치될 수 있고 액츄에이터(460)로서 역할하는 문 또는 게이트 내의 전원 잠금 메커니즘 및 광 센서(420)를 구비한 무선 인터페이스를 통해 통신할 수 있다. 소정 구현예들에서, 보안 장치(450)는 소총일 수 있고 광 센서(420)는 소총에 부착된 조준기와 통합될 수 있다. 컴퓨팅 장치(430)는 소총의 개머리판(butt)에 통합될 수 있고 액츄에이터(460)로서 역할하는 트리거 또는 해머 잠금 메커니즘 및 광 센서(420)에 전기적으로 연결될 수 있다. 소정 구현예들에서, 보안 장치(450)는 임대 장비(예컨대, 자전거)일 수 있다.
컴퓨팅 장치(430)는 프로세싱 장치(432)(예컨대, 도 9에 대해 설명된 바와 같이) 및 기계 판독가능 저장소(machine-readable repository), 또는 데이터베이스(434)를 포함할 수 있다. 소정 구현예들에서, 기계 판독가능 저장소는 플래시 메모리를 포함할 수 있다. 기계 판독가능 저장소(434)는 하나 이상의 참조 기록을 저장하도록 사용될 수 있다. 참조 기록은 보안 장치(450)의 등록된 또는 인가된 사용자에 대한 눈 흰자위의 하나 이상의 이미지로부터 유래한 데이터를 포함할 수 있다. 소정 구현예들에서, 참조 기록은 완전한 참조 이미지를 포함한다. 소정 구현예들에서, 참조 기록은 참조 이미지로부터 추출된 특징을 포함한다. 소정 구현예들에서 참조 기록은 참조 이미지로부터 추출된 암호화된 특징을 포함한다. 소정 구현예들에서 참조 기록은 참조 이미지로부터 추출된 특징에 의해 암호화된 식별 키(identification keys)를 포함한다. 신규 사용자에 대한 참조 기록을 생성하는 것 및 등록 또는 신고 절차가 수행될 수 있다. 등록 절차는 새로 신고된 사용자 눈 흰자위의 하나 이상의 참조 이미지의 캡쳐를 포함할 수 있다. 소정 구현예들에서, 등록 절차는 인증 시스템(400)의 프로세싱 장치(432) 및 광 센서(420)를 사용하여 수행될 수 있다.
도 5는 본 명세서에서 설명된 기술을 구현할 수 있는 네트워크 환경(500)의 예를 도시하는 블록도이다. 네트워크 환경(500)은 네트워크(511)를 통해 제1 서버 시스템(512) 및/또는 제2 서버 시스템(514)와 통신하도록 구성된 컴퓨팅 장치(502, 504, 506, 508, 510)을 포함한다. 컴퓨팅 장치(502, 504, 506, 508, 510)는 그와 연관된 각각의 사용자(522, 524, 526, 528, 530)를 가진다. 제1 및 제2 서버 시스템(512, 514)은 컴퓨팅 장치(516, 517) 및 기계 판독가능 저장소 또는 데이터베이스(518, 519)를 각각 포함한다. 환경(500) 예는, 도시되진 않았지만, 엄청나게 많은 웹 사이트, 컴퓨팅 장치 및 서버를 포함할 수 있다.
네트워크(511)는 여러 모바일 컴퓨팅 장치, 고정 컴퓨팅 장치, 및 서버 시스템과 연결된 로컬 영역 네트워크(LAN), 광역 네트워크(WAN), 인터넷, 셀룰러 네트워크, 또는 이들의 조합을 포함하는 예와 같은, 대규모 컴퓨터 네트워크를 포함할 수 있다. 네트워크(511) 내에 포함되는 네트워크(들)는, 전송 제어 프로토콜/인터넷 프로토콜(Transmission Control Protocol/Internet Protocol, TCP/IP), 모바일 통신 글로벌 시스템(Global System for Mobile communication, GSM) 음성 통화, 단문 전자 메시지 서비스(Short Electronic message Service, SMS), 확장 메시지 서비스(Enhanced Messaging Service, EMS), 또는 멀티미디어 메시지 서비스(Multimedia Messaging Service, MMS) 메시징, 이더넷, 코드 분할 다중 접속(Code Division Multiple Access, CDMA), 시간 분할 다중 접속(Time Division Multiple Access, TDMA), 개인 디지털 셀룰러(Personal Digital Cellular, PDC), 광대역 코드 분할 다중 접속(Wideband Code Division Multiple Access, WCDMA), CDMA2000, 또는 일반 패킷 라디오 시스템(General Packet Radio System, GPRS), 기타 등을 포함하는 예와 같은, 다양한 모드 또는 프로토콜 하의 통신을 가능하게 할 수 있다. 통신은 무선 주파수 송수신기를 통해 발생할 수 있다. 뿐만 아니라, 예컨대, 블루투스, 와이파이, 또는 기타 송수신기 시스템을 사용하여, 단거리 통신이 발생할 수 있다.
컴퓨팅 장치(502, 504, 506, 508, 510)는 각각의 사용자(522, 524, 526, 528, 530)가, 예컨대, 웹 사이트 내에 포함된 웹 페이지와 같은, 문서에 액세스하고 보는 것을 가능하게 한다. 예컨대, 컴퓨팅 장치(502)의 사용자(522)는 웹 브라우저를 사용하여 웹 페이지를 볼 수 있다. 웹 페이지는 서버 시스템(512), 서버 시스템(514), 또는 기타 서버 시스템(미도시)에 의해 컴퓨팅 장치(502)에 제공될 수 있다.
환경(500) 예에서, 컴퓨팅 장치(502, 504, 506)는 데스크톱 형 컴퓨팅 장치로서 도시되고, 컴퓨팅 장치(508)는 랩톱 형 컴퓨팅 장치(508)로서 도시되며, 컴퓨팅 장치(510)는 모바일 컴퓨팅 장치로서 도시된다. 그렇지만, 컴퓨팅 장치(502, 504, 506, 508, 510)는, 예컨대, 데스크톱 컴퓨터, 랩톱 컴퓨터, 휴대용 컴퓨터, 텔레비전에 내장되고/되거나 결합된 하나 이상의 프로세서를 구비하는 텔레비전, 태블릿 컴퓨팅 장치, 개인 디지털 보조장치(personal digital assistant, PDA), 셀룰러 폰, 네트워크 장비, 카메라, 스마트 폰, 향상된 일반 패킷 무선 서비스(enhanced general packet radio service, EGPRS) 모바일 전화, 미디어 플레이어, 네비게이션 장치, 전자 메시지 장치, 게임 콘솔, 또는 이러한 데이터 프로세싱 장치 또는 기타 적절한 데이터 프로세싱 장치 중 둘 이상의 조합을 포함할 수 있다는 것이 확인된다. 소정 구현예들에서, 컴퓨팅 장치는 모터 차량(예컨대, 자동차, 긴급 차량(예컨대, 소방차, 구급차), 버스)의 부분으로서 포함될 수 있다.
컴퓨팅 장치(502, 504, 506, 508, 510)와 상호작용하는 사용자는, 스스로를 인증하고 네트워크(511)를 통해 명령어 또는 지시를 실행함으로써, 예컨대, 서버 시스템(512)에 의해, 호스트된(hosted) 보안 트랜잭션(transaction) 서비스(523)와 상호작용할 수 있다. 보안 트랜잭션은, 예컨대, 전자 상거래 구매, 금융 트랜잭션(예컨대, 온라인 뱅킹 트랜잭션, 신용 카드 또는 은행 카드 트랜잭션, 로열티 보상 포인트 상환), 또는 온라인 투표를 포함할 수 있다. 보안 트랜잭션 서비스는 상호작용의 보안 서버의 측면으로부터 사용자의 인증을 조정하는 인증 모듈(525)을 포함할 수 있다. 소정 구현예들에서, 인증 모듈(525)은 사용자(예컨대, 사용자(522, 524, 526, 528, 530)) 눈의 하나 이상의 이미지를 포함하는 사용자 장치(예컨대, 컴퓨팅 장치(502, 504, 506, 508, 510))로부터 이미지 데이터를 수신할 수 있다. 이어서 인증 모듈은 이미지 데이터를 처리하여 등록 세션 동안 수집된 이미지 데이터에 기초하여 이전에 생성되었던 인식된 사용자 ID에 대한 참조 기록과 이미지 데이터가 매치되는지 여부를 결정함으로써 사용자를 인증할 수 있다.
소정 구현예들에서, 서비스에 대한 요청을 제출한 사용자는 별도의 서버 시스템(514)에서 실행되는 인증 모듈(540)에 재안내될(redirected) 수 있다. 인증 모듈(540)은 보안 트랜잭션 서비스(523)의 신고된 또는 등록된 사용자에 대한 참조 기록을 유지할 수 있고 또한 다른 보안 트랜잭션 서비스의 사용자에 대한 참조 기록도 포함할 수 있다. 인증 모듈(540)은 사용자가 신고된 또는 등록된 사용자로서 인증되었는지 여부를 보안 트랜잭션 서비스에 나타내기 위해 암호화된 네트워크 통신(예컨대, 공용 키 암호화 프로토콜을 사용하여)을 사용하여 다양한 보안 트랜잭션 서비스(예컨대, 보안 트랜잭션 서비스(523))와 함께 보안 세션을 설정할 수 있다. 인증 모듈(525)과 같이, 인증 모듈(540)은 사용자 컴퓨팅 장치(예컨대, 컴퓨팅 장치(502, 504, 506, 508, 510))에 요청하여 이미지 데이터를 수신할 수 있고 이미지 데이터를 처리하여 사용자를 인증할 수 있다. 소정 구현예들에서, 인증 모듈은 사용자로부터 수신한 이미지에 대한 생동감 점수를 결정할 수 있고 생동감 점수에 기초하여 이미지를 수락 또는 거부할 수 있다. 살아있는 눈 외의 어떤 것을 제공한 스푸프 시도 때문에 이미지가 거부된 경우, 인증 모듈(540)은 네트워크 통신 메시지를 보내서 스푸프 시도를 보안 트랜잭션 서비스(523) 또는 적절한 인증기관에 보고할 수 있다.
인증 모듈(540)은, 하나 이상의 컴퓨팅 장치(예컨대, 도 9에 도시된 바와 같은 컴퓨터 시스템)와 같은, 프로세싱 기기상에서 실행되는 소프트웨어, 하드웨어 또는 소프트웨어와 하드웨어의 조합으로서 구현될 수 있다.
사용자 장치(예컨대, 컴퓨팅 장치(510))는 인증 어플리케이션(550)을 포함할 수 있다. 인증 어플리케이션(550)은 네트워크(511)를 통해 보안 서비스(예컨대, 보안 트랜잭션 서비스(523))에 액세스하기 위한 목적으로 신고 또는 등록된 사용자 ID로 사용자 인증을 용이하게 할 수 있다. 예컨대, 인증 어플리케이션(550)은 모바일 어플리케이션 또는 서버 측 인증 모듈(예컨대, 인증 모듈(540))과 상호작용하기 위한 다른 유형의 클라이언트 어플리케이션일 수 있다. 인증 어플리케이션(550)은 센서(예컨대, 사용자 컴퓨팅 장치에 연결되거나 사용자 컴퓨팅 장치와 통합된 카메라)를 구동하여 사용자의 눈 흰자위의 뷰를 포함하는 사용자(예컨대, 사용자(530))의 하나 이상의 이미지를 캡쳐할 수 있다. 인증 어플리케이션(550)은 사용자를 유도(예컨대, 디스플레이 또는 스피커를 통해)하여 이미지 캡쳐를 위한 자세를 취하게 할 수 있다. 예컨대, 눈 흰자위의 많은 부분을 센서에 노출하기 위해 사용자를 유도하여 센서를 마주보게 하고 왼쪽 또는 오른쪽으로 사용자의 시선을 지시할 수 있다.
소정 구현예들에서, 인증 어플리케이션(550)은 캡쳐된 이미지 데이터를 네트워크(511)를 통해 원격 서버(예컨대, 서버 시스템(512 또는 514)) 상의 인증 모듈(예컨대, 인증 모듈(525 또는 540))에 전송한다. 사용자로부터의 이미지 데이터 수집은 사용자에 대한 참조 기록의 생성 및 등록을 용이하게 할 수 있다. 사용자로부터의 이미지 데이터 수집은 사용자 ID에 대한 참조 기록에 대한 인증을 또한 용이하게 할 수 있다.
소정 구현예들에서, 인증 목적을 위한 이미지 데이터의 추가적 프로세싱은 인증 어플리케이션(550)에 의해 수행될 수 있고 그 프로세싱의 결과는 인증 모듈(예컨대, 인증 모듈(525 또는 540))에 전송될 수 있다. 이러한 방식으로, 인증 기능은 클라이언트와 서버 측 프로세스 사이에 특정 어플리케이션에 적합한 방식으로 분배될 수 있다. 예컨대, 소정 구현예들에서는, 인증 어플리케이션(550)은 캡쳐된 이미지에 대한 생동감 점수를 결정하고, 스푸프 공격을 나타내는 생동감 점수를 가진 임의의 이미지를 거절한다. 생동감 점수가 살아있는 눈을 나타내면, 수락된 이미지에 기초하여, 이미지 데이터가 추가 분석을 위해 서버 측 인증 모듈(예컨대, 인증 모듈(525 또는 540))로 전송될 수 있다.
소정 구현예들에서, 서버 측 인증 모듈에 결과(예컨대, 사용자 수락 또는 거부)를 보고하기 전에, 인증 어플리케이션은 사용자 ID에 대한 참조 기록에 액세스하고 전체 인증 프로세스를 수행한다.
인증 어플리케이션(550)은, 하나 이상의 컴퓨팅 장치(예컨대, 도 9에 도시된 바와 같은 컴퓨터 시스템)와 같은, 프로세싱 기기상에서 실행되는 소프트웨어, 하드웨어 또는 소프트웨어와 하드웨어의 조합으로서 구현될 수 있다.
도 6은 눈 흰자위의 하나 이상의 이미지에 기초하여 개인을 인증하기 위한 프로세스(600) 예의 순서도이다. 얻어진 이미지에 대해 생동감 점수가 결정되고 사용되어 이미지를 수락 또는 거부한다. 살아있는 눈의 이미지가 검출 및 수락될 때, 이미지는 더 분석되어 이미지로부터 특징을 추출하고 참조 기록과 특징을 비교함으로써 매치 점수를 결정한다. 그런 다음 매치 점수에 기초하여 사용자가 수락 또는 거부된다.
프로세스(600)는, 예컨대, 도 4의 컴퓨팅 장치(430) 내의 인증 모듈(440)에 의해 구현될 수 있다. 소정 구현예들에서, 컴퓨팅 장치(430)는 프로세스(600)의 행동을 수행하도록 구성되는 하나 이상의 프로세서를 포함하는 데이터 프로세싱 장치이다. 예컨대, 데이터 프로세싱 장치는 컴퓨팅 장치(예컨대, 도 9에 도시된 바와 같은)일 수 있다. 소정 구현예들에서, 프로세스(600)는 사용자 컴퓨팅 장치(예컨대, 컴퓨팅 장치(510))에 의해 실행되는 인증 어플리케이션(550)에 의해 전부 또는 일부에서 구현될 수 있다. 예컨대, 사용자 컴퓨팅 장치는 모바일 컴퓨팅 장치(예컨대, 도 9의 모바일 컴퓨팅 장치(950))일 수 있다. 소정 구현예들에서, 프로세스(600)는 사용자 서버 시스템(예컨대, 서버 시스템(514))에 의해 실행되는 인증 모듈(540)에 의해 전부 또는 일부에서 구현될 수 있다. 소정 구현예들에서, 서버 시스템(514)은 프로세스(600)의 행동을 수행하도록 구성되는 하나 이상의 프로세서를 포함하는 데이터 프로세싱 기기이다. 예컨대, 데이터 프로세싱 기기는 컴퓨팅 장치(예컨대, 도 9에 도시된 바와 같은)일 수 있다. 소정 구현예들에서, 컴퓨터 판독가능 매체는 컴퓨팅 장치(예컨대, 컴퓨터 시스템)에 의해 실행될 때 장치로 하여금 프로세스(600)의 행동을 수행하도록 하는 명령어를 포함할 수 있다.
눈의 하나 이상의 이미지를 얻는다(602). 이미지는 눈의 각막 윤부 경계 외부에 있는 눈의 맥관구조의 일부분에 대한 뷰를 포함한다. 얻어진 이미지는 단색일 수 있거나 다양한 색 공간(예컨대, RGB, SRGB, HSV, HSL, 또는 YCbCr)으로 표현될 수 있다. 소정 구현예들에서, 광 센서(예컨대, 디지털 카메라, 3D 카메라, 또는 광 필드 센서)를 사용하여 이미지를 얻을 수 있다. 센서는 다양한 범위의 파장을 가진 광에 감응(sensitive)할 수 있다. 예컨대, 센서는 광의 가시 스펙트럼에 대해 감응할 수 있다. 소정 구현예들에서, 센서는 센서의 뷰에서 오브젝트를 조명하기 위해 펄스될(pulsed) 수 있는 플래시 또는 토치(torch)와 결합되어 있다. 이미지 캡쳐는 플래시의 펄스와 함께 동기화 또는 시간고정될(time-locked) 수 있다. 소정 구현예들에서, 센서는 센서의 뷰 필드 내에서 오브젝트의 움직임을 추적하도록 사용될 수 있는 이미지의 시퀀스를 캡쳐한다. 센서는 이미지 캡쳐를 제어하는 하나 이상의 설정(예컨대, 초점 거리, 플래시 강도, 노출, 및 화이트 밸런스)을 포함할 수 있다. 이미지는 복수의 초점 거리를 총괄적으로 포함할 수 있다. 예컨대, 이미지의 시퀀스를 캡쳐할 수 있는데, 각 이미지는 센서에 대한 상이한 초점 거리 설정으로 캡쳐되고/캡쳐되거나 일부 센서(예컨대, 광 필드 센서)는 센서로부터의 복수의 거리에서 초점 맞춰진 이미지를 캡쳐할 수 있다. 소정 구현예들에서, 네트워크 인터페이스(예컨대, 서버 시스템(514)의 네트워크 인터페이스)를 통한 수신에 의해 하나 이상의 이미지가 얻어질 수 있다(602).
이어서 생동감 점수가 하나 이상의 이미지에 대해 결정될 수 있다(604). 소정 구현예들에서, 이미지 데이터 요소(예컨대, 복셀(voxel), 픽셀, 선(ray), 또는 적, 녹 또는 청 채널 값)가 생동감 점수를 출력하는 훈련 함수 근사기에 직접 입력된다. 함수 근사기는 이상적인 점수(예컨대, 살아있는 눈에 대해서는 1, 스푸프 도구에 대해서는 0)로 짝지어진 살아있는 눈과 스푸프 도구 양자의 훈련 이미지에 대응하는 데이터를 사용하여 훈련될 수 있다. 함수 근사기 또는 분류기는 일 세트의 모델 파라미터를 이용하여 입력 데이터(즉, 훈련 이미지 데이터 또는 특징)를 출력 데이터(즉, 결과 생동감 점수 또는 이진 결정)에 매핑하는 것을 모델링한다. 모델 파라미터 값은 훈련 데이터에 적용되는 훈련 알고리즘을 사용하여 선택된다. 예컨대, 함수 근사기는 다음의 모델에 기초할 수 있는데, 이는 선형 회귀(linear regression), 볼테라 시리즈(Volterra series), 위너 시리즈(Wiener series), 방사형 기저 함수(radial basis functions), 커널 방법(kernel methods), 구간적 선형 모델(piecewise linear models)과 같은 다항식 방법(polynomial methods), 베이지안 분류기(Bayesian classifiers), k-최근점 분류기(k-nearest neighbor classifiers), 신경망, 서포트 벡터 머신(support vector machines), 또는 퍼지 함수 근사기(fuzzy function approximator)이다. 기타 모델이 가능하다. 소정 구현예들에서, 생동감 점수는 이진수일 수 있다.
소정 구현예들에서, 하나 이상의 생동감 메트릭에 기초하여 생동감 점수가 결정되고(604), 생동감 메트릭은 차례로 얻어진 이미지에 기초하여 결정된다. 이러한 프로세스에 대한 몇 가지 예가 도 7과 관련되어 설명된다.
예컨대, 생동감 점수는 인증 모듈(440), 인증 어플리케이션(550), 인증 모듈(525), 또는 인증 모듈(540)에 의해 결정될 수 있다(604).
생동감 점수를 체크하여 이미지가 살아있는 눈의 뷰를 포함할 것 같은지 여부를 결정한다(606). 소정 구현예들에서, 생동감 점수는 임계값과 비교될 수 있다.
생동감 점수가 살아있는 눈에 대한 낮은 가능성을 나타내고 따라서 스푸프 공격의 높은 가능성을 나타내는 경우, 그 하나 이상의 이미지는 거부된다(608). 소정 구현예들에서, 이어서 스푸프 공격이 보고될 수 있다(610). 소정 구현예들에서, 디스플레이, 또는 스피커(예컨대, 알람 소리 또는 플래시 디스플레이)를 통해 스푸프 공격이 보고된다(610). 소정 구현예들에서, 네트워크 인터페이스를 사용하여 네트워크를 통해 하나 이상의 메시지를 전송함으로써 스푸프 공격이 보고된다(610). 이어서 사용자는 거절될 수 있고(630) 보안 장치 또는 서비스에 대한 액세스에 거부될 수 있다.
소정 구현예들에서(미도시), 체크가 수행되어, 얻어진 이미지가 특정 센서로부터 캡쳐되었다는 것 및 스푸프된 이미지 데이터의 제출에 의해 그 특정 센서가 무시되지(bypassed) 않았다는 것을 확인할 수 있다. 예컨대, 이미지를 캡쳐하는 동안, 하나 이상의 센서 구성 설정이 조정되어 이미지 중 2 이상을 캡쳐하는 동안 상이한 설정을 사용할 수 있다. 이러한 상이한 설정은 얻어진 이미지 데이터 내에 반영될 것으로 예상된다. 상이한 설정의 이미지 사이에서 이미지 데이터가 변화가 검출되지 않으면, 스푸프 공격에 의해 센서가 무시되었음을 나타낼 수 있다. 예컨대, 초점을 제어하는 센서 구성 설정, 노출 시간, 또는 화이트 밸런스가 이러한 방식으로 조정될 수 있다. 얻어진 이미지 데이터 내의 대응하는 변화가 검출되지 않으면, 얻어진 이미지는 거절될 수 있다(608).
생동감 점수가 살아있는 눈이 이미지 내에 표현될 높은 가능성을 나타내면, 그 하나 이상의 이미지는 수락되고(616) 추가 분석이 실시되어 인증 프로세스를 완료한다.
하나 이상의 이미지가 분할되어(620) 눈 흰자위 내 맥관구조의 최고의 뷰를 포함하는 관심 영역을 식별할 수 있다. 소정 구현예들에서, 해부학적 랜드마크(예컨대, 홍채, 홍채의 중심 및 각막 윤부 경계, 눈 모서리, 및 눈꺼풀의 가장자리)가 하나 이상의 이미지에서 식별될 수 있다. 식별된 해부학적 랜드마크와 관련된 그들의 위치에 기초하여 이미지 내에 있는 관심 영역이 식별될 수 있고 선택될 수 있다. 예컨대, 관심 영역은 홍채의 왼쪽, 오른쪽, 위 또는 아래인 눈 흰자 내에 위치할 수 있다. 소정 구현예들에서, 선택된 관심 영역은 눈 흰자위의 큰 부분을 포함하는 격자를 형성하도록 타일링 된다. 소정 구현예들에서, 이미지의 선택된 영역은 비접경적이다(예컨대, 인접 지역이 겹칠 수 있거나 인접 지역 사이에 공백이 있을 수 있다). 선택된 관심 영역은 참조 기록의 데이터가 기초로 하는 참조 이미지로부터 선택된 관심 영역에 대응할 수 있다.
소정 구현예들에서, 공막 위의 눈꺼풀의 검출된 부분에 대해 곡선을 피팅(fitting)하고, 이어서 외삽하여 그 곡선의 교차점을 구함으로써 눈 모서리를 찾는다. 홍채가 너무 가깝다는(예컨대, 시선 방향으로 인해) 사실로 인해서 하나의 교차점(모서리)도 발견되지 않으면, 동일한 모서리 영역이지만 반대 시선 방향 사진으로부터의 템플릿을 얻어 가까운 이미지에서 인접한 문제의 모서리에 적용할 수 있고, 최대 상관 위치(maximum correlation location)가 모서리로서 태그될(tagged) 수 있다.
소정 구현예들에서, 이미지로부터 눈꺼풀을 경계짓는 눈 흰자위를 찾는 적응 임계 방법(adaptive thresholding methods)에 의해 눈꺼풀을 구한다. 공막 마스크 자체는 수차(aberrations)를 제거하는 형태적 조작(예컨대, 컨벡스 휼(convex hull))에 의해 수정할 수 있다.
소정 구현예들에서, 공막이 홍채 변연 경계에서 종단됨으로 인해 끝나는 위치로서 변연 경계(limbic boundary)가 공막 마스크로부터 구해진다.
소정 구현예들에서, 다수의 방법을 통해 홍채 중심을 구한다. 눈 색깔이 밝으면, 동공의 중심이 홍채 중심으로서 발견될 수 있다. 홍채가 너무 어두우면, 변연 경계에 들어맞는 타원체의 중심 및 그 중심을 구하거나, 홍채 중심 주위로 수렴하는 수직 파선(normal rays)(즉, 변연 경계의 접선에 수직하는 선)의 초점으로서 결정되거나, 또는 위의 방법의 조합으로서 결정된다.
이미지 영역들을 사전처리하여(622) 이미지 내 맥관구조의 뷰를 향상시킬 수 있다. 소정 구현예들에서, 사전처리(622)는 색 이미지 향상 및 이미지 강도의 대비를 향상시키는 대비 제한의 적응적 히스토그램 보정(Contrast Limited Adaptive Histogram Equalization, CLAHE)을 포함한다. CLAHE는 타일이라 불리는 이미지의 작은 영역들에서 동작한다. 각 타일의 대비는 출력에 대한 히스토그램이 특정 분포(예컨대, 균일 분포, 지수 분포, 또는 레일리 분포(Rayleigh distribution))에 의해 특정된 히스토그램과 대략 일치되도록 향상된다. 이어서 이중선형 보간(bilinear interpolation)을 사용하여 인접한 타일들을 조합하여 인위적으로 유도된 경계를 제거한다. 소정 구현예들에서, 이미지는 혈관과 배경 사이의 최고 대비를 가지는 적, 녹 또는 청색 성분 중 하나를 선택함으로써 향상될 수 있다. 혈관과 배경 사이의 최고 대비를 제공할 수 있기 때문에 녹색 성분이 선호될 수 있다.
소정 구현예들에서, 사전처리(622)는 다중 스케일 향상 필터링 기법(multi-scale enhancement filtering scheme)의 어플리케이션을 포함하여 이미지의 강도를 향상시키고 그렇게 함으로써 혈관 구조의 차후 추출 특징 및 검출을 용이하게 한다. 필터의 파라미터는 혈관의 둘레의 변화를 감안하여 경험적으로 결정될 수 있다. 사용된 알고리즘은 양호한 감도, 즉 곡선에 대한 양호한 특이성을 가질 수 있으며 다른 형상의 오브젝트를 억제한다. 알고리즘은 이미지의 제2 도함수에 기초할 수 있다. 먼저, 제2 도함수가 노이즈에 민감하기 때문에, 이미지 분할은 가우스 함수로 컨볼루션된다(convolved). 가우스 함수의 파라미터 σ는 혈관의 두께에 대응할 수 있다. 다음에는, 각 이미지 데이터 요소에 대해, 헤시안 행렬(Hessian matrix)이 구축될 수 있고, 고유값 λl 및 λ2가 계산될 수 있다. 각 헤시안 행렬에서 릿지(ridge)는 이미지가 곡률 방향 극값을 가지는 지점으로서 정의된다. 곡률의 방향은 가장 큰 절대 고유치 λ에 대응하는 이미지의 2차 도함수의 고유벡터이다. 고유값의 부호는 국소 최저 λ>0 또는 국소 최대 λ<0 인지를 결정한다. 이어서 계산된 고유값은 다음 방정식으로 혈관 라인을 필터링하기 위해 사용된다.
Figure 112013059325473-pat00001
혈관의 직경은 변화하지만 알고리즘은 직경이 구간 [d0, d1] 내에 있다고 추정한다. 가우시안 스무딩 필터는 [d0/4, d1/4]의 스케일 범위에서 사용될 수 있다. 이 필터링은 스무딩 스케일에 기초하여 N 번 반복될 수 있다.
Figure 112013059325473-pat00002
이 최종 출력은 N개 스케일의 모든 개별 필터의 출력으로부터의 최대값일 수 있다.
사용자 눈의 영역 내의 가시 맥관구조의 구조 또는 특성을 반영하는 각 이미지 영역마다의 특징이 결정된다(624). 소정 구현예들에서, 세목 검출 방법(minutia detection methods)이 사용자 맥관구조의 특징을 추출하기 위해 사용될 수 있다. 세목 검출 과정의 예는 미국 특허 제7,327,860호에 설명된다.
소정 구현예들에서, 이러한 이미지 영역에 이미지 영역의 텍스처 특징에 대응하는 일 세트의 필터를 적용함으로써 부분적으로 특징이 결정될 수 있다(624). 예컨대, 다양한 각도에서 일 세트의 복합 가보 필터(complex Gabor filters)를 이미지에 적용함으로써 부분적으로 특징이 결정될 수 있다. 필터의 파라미터는 혈관의 간격, 방향, 및 둘레의 변화를 감안하여 경험적으로 결정될 수 있다. 이미지의 텍스처 특징은 관심 영역의 선명한 가시 맥관구조의 양으로서 측정될 수 있다. 이 품질은 관심 영역의 면적에 대한 선명한 가시 맥관구조 면적의 비율로 결정될 수 있다. 임계값을 사용하여 이진화될 때, 가보 필터링이 적용된 이미지의 위상(phase)은 검출을 용이하게 하고 선명한 가시 맥관구조를 드러낼 수 있다. 복합 가보 필터링이 적용된 이미지의 위상은 가보 필터 커널이 시그마 = 2.5 픽셀, 주파수 = 6; 및 감마 = 1로 구성될 때 여러 각도에서의 맥관구조 패턴을 반영한다. 주파수의 선택은 혈관 사이의 거리에 의존할 수 있는데, 이는 결국 이미지 수집 시스템과 오브젝트 사이의 해상도 및 거리에 의존한다. 이러한 파라미터는 이미지에 대해 고정적일 수 있다. 예컨대, 커널 파라미터는 특정 센서(예컨대, 스마트폰 뒷면 카메라)를 사용하여 눈으로부터 6-12 센티미터 떨어진 거리에서 캡쳐된 눈 이미지에 대해 유도될 수 있고 분할 공막 영역은 분석을 위해 (예컨대, 401x501 픽셀의) 해상도로 리사이즈될(resized) 수 있다. 가시 눈 표면 맥관구조는 눈 흰자위의 모든 방향에서 퍼져있을 수 있다. 예컨대, 가보 커널은 6개의 여러 각도(각도 = 0, 30, 60, 90, 120, 및 150도)에 걸쳐 정렬될 수 있다. 가보 필터링이 적용된 이미지의 위상은 -π에서 +π라디안까지 변화할 수 있다. 0.25라디안 초과 -0.25라디안 미만의 위상 값이 맥관구조에 대응할 수 있다. 임계값을 사용하여 위상 이미지를 이진화하기 위해, 0.25 초과 또는 -0.25 미만의 모든 위상 값은 1로, 나머지 값은 0으로 설정될 수 있다. 이는 위상 이미지에 대응하는 선명한 맥관구조를 제공할 수 있다. 이 동작은 여러 각도에서의 모든 6개의 가보 커널에 대한 어플리케이션으로부터 제공된 이미지에 대해 수행될 수 있다. 정밀하고 선명한 맥관구조를 드러내기 위해 모든 6개의 이진화된 이미지가 추가될 수 있다. 소정 구현예들에서, 이진화된 위상 이미지의 요소에 대한 벡터가 참조 기록과 이미지를 비교하기 위한 특징 벡터로서 사용될 수 있다. 소정 구현예들에서, 관심 이미지 영역 사이의 텍스처 특징의 차이가 특징 벡터로서 사용될 수 있다. 이진화된 영역에서 모든 1의 합을 관심 영역의 면적으로 나눈 값은 가시 맥관구조의 규모를 반영할 수 있다.
상기 특징과 참조 기록으로부터의 대응 특징에 기초하여 매치 점수가 결정된다(626). 참조 기록은 사용자에 대한 등록 또는 신고 프로세스 동안 캡쳐된 하나 이상의 참조 이미지에 적어도 부분적으로 기초한 데이터를 포함할 수 있다. 소정 구현예들에서, 하나 이상의 얻어진 이미지로부터 추출된 특징 벡터와 참조 기록으로부터의 특징 벡터 사이의 거리(예컨대, 유클리드 거리(Euclidian distance), 상관 계수(correlation coefficient), 수정 하우스도르프 거리(modified Hausdorff distance), 마하라노비스 거리(Mahalanobis distance), 브레그만 발산(Bregman divergence), 코사인 유사성(cosine similarity), 쿨백-라이블러 거리(Kullback-Leibler distance), 젠슨-섀넌 발산(Jensen-Shannon divergence))로서 매치 점수가 결정될 수 있다(626). 소정 구현예들에서, 하나 이상의 얻어진 이미지로부터 추출된 특징 및 참조 기록으로부터의 특징을 훈련 함수 근사기에 입력함으로써 매치 점수가 결정될 수 있다(626).
소정 구현예들에서, 동일한 맥관구조의 다수 이미지에 대한 매치 점수에 기초하여 품질 기반의 융합 매치 점수(fusion match score)가 결정된다(626). 소정 구현예들에서, 복수의 이미지에 대한 매치 점수는 다수의 이미지 각각에 대해 결정된 생동감 점수에 각각 의존하는 가중치와의 가중 선형 조합(weighted linear combination)에서 매치 점수를 함께 가산함으로써 조합된다. 그들 각각의 생동감 점수에 기초하여 다수의 이미지에 대한 매치 점수를 조합하기 위해 사용될 수 있는 기술의 기타 예들은 계층적 혼합(hierarchical mixtures), 합연산 규칙, 곱연산 규칙, 게이트 퓨전(gated fusion), 뎀스터-섀퍼(Dempster-Shafer) 조합, 및 누적된 일반화(stacked generalization), 기타 등을 포함한다.
소정 구현예들에서, 인증 모듈(예컨대, 컴퓨팅 장치(430) 상에서 실행하는 인증 모듈(440))에 의해 매치 점수가 결정된다(626).
매치 점수를 체크하여(628) 하나 이상의 얻어진 이미지와 참조 기록 사이의 매치가 있는지 여부를 결정할 수 있다. 예컨대 매치 점수는 임계값과 비교될 수 있다. 매치는 자신의 눈이 하나 이상의 얻어진 이미지로 표현된 사용자가 참조 기록과 연관된 개인과 같을 높은 가능성을 반영할 수 있다.
매치가 없으면, 사용자는 거부될 수 있다(630). 그 결과, 사용자에 대해 보안 장치 또는 서비스(예컨대, 보안 장치(450) 또는 보안 트랜잭션 서비스(523))에 대한 액세스가 거부될 수 있다. 소정 구현예들에서, 사용자는 디스플레이상에 보여지거나 스피커를 통해 재생되는 메시지를 통해 거부에 대한 통보를 받을 수 있다(630). 소정 구현예들에서, 거부된 사용자 상태를 반영하는 메시지를 네트워크를 통해 전송함으로써 거부가 영향을 받을 수 있다. 예컨대, 사용자(530)를 거부하면, 인증 모듈(540)은 서버 시스템(514)의 네트워크 인터페이스를 사용하여 보안 트랜잭션 서버(523)에 거부 메시지를 전송할 수 있다. 인증 모듈(540)은 또한 이 시나리오에서 사용자 컴퓨팅 장치(510)에 거절 메시지를 보낼 수 있다.
매치가 있으면, 사용자는 수락될 수 있다(632). 그 결과, 사용자에 대해 보안 장치 또는 서비스(예컨대, 보안 장치(450) 또는 보안 트랜잭션 서비스(523))에 대한 액세스가 허가될 수 있다. 소정 구현예들에서, 사용자는 디스플레이상에 보여지거나 스피커를 통해 재생되는 메시지를 통해 수락에 대한 통보를 받을 수 있다(632). 소정 구현예들에서, 수락된 사용자 상태를 반영하는 메시지를 네트워크를 통해 전송함으로써 수락이 영향을 받을 수 있다. 예컨대, 사용자(530)를 수락하면, 인증 모듈(540)은 서버 시스템(514)의 네트워크 인터페이스를 사용하여 보안 트랜잭션 서버(523)에 수락 메시지를 전송할 수 있다. 인증 모듈(540)은 또한 이 시나리오에서 사용자 컴퓨팅 장치(510)에 수락 메시지를 보낼 수 있다.
도 7은 눈의 하나 이상의 이미지에 대해 생동감 점수를 결정하기 위한 프로세스(700) 예에 대한 순서도이다. 이미지에 대해 하나 이상의 생동감 메트릭이 결정되고(710), 하나 이상의 생동감 메트릭에 기초하여 생동감 점수가 결정된다(730).
예컨대, 도 4의 컴퓨팅 장치(430) 내의 인증 모듈(440)에 의해, 프로세스(700)가 구현될 수 있다. 소정 구현예들에서, 컴퓨팅 장치(430)는 프로세스(700)의 행동을 수행하도록 구성되는 하나 이상의 프로세서를 포함하는 데이터 프로세싱 기기이다. 예컨대, 데이터 프로세싱 기기는 컴퓨팅 장치(예컨대, 도 9에 도시된 바와 같은)일 수 있다. 소정 구현예들에서, 프로세스(700)는 사용자 컴퓨팅 장치(예컨대, 컴퓨팅 장치(510))에 의해 실행되는 인증 어플리케이션(550)에 의해 전부 또는 부분적으로 구현될 수 있다. 예컨대, 사용자의 컴퓨팅 장치는 모바일 컴퓨팅 장치(예컨대, 도 9의 모바일 컴퓨팅 장치(950))일 수 있다. 소정 구현예들에서, 프로세스(700)는 사용자 서버 시스템(예컨대, 서버 시스템(514))에 의해 실행되는 인증 모듈(540)에 의해 전부 또는 부분적으로 구현될 수 있다. 소정 구현예들에서, 서버 시스템(514)은 프로세스(700)의 행동을 수행하도록 구성되는 하나 이상의 프로세서를 포함하는 데이터 프로세싱 기기이다. 예컨대, 데이터 프로세싱 기기는 컴퓨팅 장치(예컨대, 도 9에 도시된 바와 같은)일 수 있다. 소정 구현예들에서, 컴퓨터 판독가능 매체는 컴퓨팅 장치(예컨대, 컴퓨터 시스템)에 의해 실행될 때 장치로 하여금 프로세스(700)의 행동을 수행하도록 하는 명령어를 포함할 수 있다.
하나 이상의 이미지가 프로세싱을 위해 수신될 때 프로세스(700)가 시작된다(702). 예컨대, 하나 이상의 이미지는 2차원, 3차원, 또는 4차원 배열의 데이터 이미지 요소(예컨대, 픽셀, 복셀, 선, 또는 적, 녹 또는 청 채널 값)로 인코딩될 수 있다.
이어서 하나 이상의 생동감 메트릭이 하나 이상의 이미지에 기초하여 결정될 수 있다(710). 이 예에서, 눈이 복수의 이미지에 나타남에 따라 눈의 감지된 움직임에 기초하여 행동 메트릭이 결정된다(712). 행동 메트릭은 눈의 검출된 움직임과 예상된 움직임으로부터의 타이밍의 편차의 측정일 수 있다.
소정 구현예들에서, 이미지가 캡쳐되는 동안 빛의 자극(예컨대, 플래시 펄스, LCD 디스플레이의 밝기 변화)이 서브젝트에 적용된다. 이러한 빛의 자극에 반응하여, 살아있는 눈의 동공은 수축하여 조명의 변화에 적응할 것으로 예상된다. 또한 동공은, 사용자의 반응 시간에 의존하는 개시 시간, 새로운 정상 상태(steady state) 동공 직경에 도달하도록 요구되는 수축 움직임의 지속 기간, 수축의 평균 속도, 및 수축 모션에 대한 특정 가속도 곡선과 함께, 시간에 따라서, 특정 방법으로 수축할 것으로 예상된다. 빛의 자극의 시작 전후에 캡쳐된 이미지의 시퀀스를 검사함으로써, 검출된 모션의 하나 이상의 파라미터가 결정될 수 있고 예상된 모션의 하나 이상의 파라미터와 비교될 수 있다. 빛의 자극에 반응한 예상된 모션의 현저한 편차는 카메라의 뷰 내의 서브젝트가 살아있는 눈이 아니며 스푸프 공격이 발생했다는 것을 나타낼 수 있다. 이 구현의 예는 도 8a와 관련하여 설명된다.
소정 구현예들에서, 이미지를 캡쳐하고 초래될 수 있는 시선 전환을 추적하는 동안 서브젝트에 외부 자극(예컨대, 사용자의 시선을 안내하도록 사용자를 지시하는 프롬프트 또는 사용자가 눈으로 쫓는 움직이는 오브젝트를 보여주는 디스플레이)을 적용함으로써 행동 메트릭이 결정될 수 있다(712). 이러한 외부 자극에 반응하여, 살아있는 눈은 시간에 따라서 특정 방법에 따라 이동할 것으로 예상된다. 예상된 시선 전환 모션의 일부 파라미터는 사용자의 반응 시간에 의존하는 개시 시간, 새로운 정상 상태 동공 직경에 도달하도록 요구되는 시선 전환 움직임의 지속 기간, 평균 속도, 및 시선 전환 모션에 대한 특정 가속도 곡선을 포함할 수 있다. 외부 자극의 시작 전후에 캡쳐된 이미지의 시퀀스를 검사함으로써, 검출된 모션의 하나 이상의 파라미터가 결정될 수 있고 예상된 모션의 하나 이상의 파라미터와 비교될 수 있다. 외부 자극에 반응한 예상된 모션의 현저한 편차는 카메라의 뷰 내의 서브젝트가 살아있는 눈이 아니며 스푸프 공격이 발생했다는 것을 나타낼 수 있다. 이 구현의 예는 도 8b와 관련하여 설명된다.
소정 구현예들에서, 행동 메트릭을 결정하는 단계(712)는 눈 흰자위의 맥관구조(예컨대, 상공막 내 맥관구조) 내 혈류를 검출하는 단계를 포함할 수 있다. 이미지의 시퀀스가 분석되어 시간에 따라서 발생하는 눈 흰자위 내 정맥 및 혈관의 가시(visible) 폭의 변화 및 색조 변화를 검출할 수 있다. 살아있는 눈의 맥관구조는 사용자의 펄스에 대응하는 혈관의 폭 및 색조의 일정한 변화를 나타낼 것으로 예상된다. 예상된 혈류 패턴으로부터의 현저한 편차는 카메라의 뷰 내의 서브젝트가 살아있는 눈이 아니며 스푸프 공격이 발생했다는 것을 나타낼 수 있다.
예컨대, 두 개의 분기점 또는 날카로운 굴곡 사이의 맥관구조의 단면을 고려해보자. 그 혈관의 관상 본체부(tubular body)는 심장이 관상 본체부를 통해 피를 펌핑(pumping)할 때 형상 및 색이 변화한다. 소정 구현예들에서, 10초 기간 동안 300 프레임 또는 이미지가 캡쳐될 수 있다. 한 캡쳐 순간에서 다음까지 이미지 영역을 신고할 수 있다. 이어서 시간에 따른 혈관의 색채(coloration)뿐만 아니라, 시간에 따른 혈관을 따라 존재하는 관심 포인트의 물리적 차원(2d 또는 3d)를 비교함으로써 혈류를 측정할 수 있다. 이러한 방식으로, 펄스와 일치하는 변화가 검출될 수 있다. 예컨대, 측정 "펄스" 신호는 자연 순환계와 일치하지 않을 사각파를 닮았다. 인간 사용자에 대한, 어쩌면 특정 사용자에 대한, 정상 범위 내에 시간에 따라서 일정한 구간의 스파이크(혈관 확장 및 적절한 색채 변화 양자)로 신호가 구성된다면, 입력은 실제 살아있는 펄스에 대응할 것이다. 측정 펄스 신호와 예상된 펄스 신호 사이의 거리가 결정되어 서브젝트가 스푸핑 공격이 아니라 살아있는 눈일 가능성을 평가할 수 있다.
소정 구현예들에서, 예상된 모션 파라미터는 특정 사용자에 대해 고유하고, 등록 세션 동안 결정되어 특정 사용자에 대한 참조 기록의 일부로서 저장된다. 소정 구현예들에서, 사용자 데이터 또는 오프라인 연구의 대규모 컬렉션에 기초한 모집단에 대해 예상된 모션 파라미터가 결정된다.
예컨대, 인증 모듈 또는 어플리케이션(예컨대, 인증 모듈(440))에 의해 행동 메트릭이 결정될 수 있다(712).
본 예에서, 상이한 각각의 초점 거리를 각각 갖는 복수의 이미지에 나타나는 랜드마크까지의 센서로부터의 거리에 기초하여 공간 메트릭이 결정된다(714). 초점 거리는 센서로부터 초점이 완벽하게 맞은 뷰의 필드 내 포인트까지의 거리이다. 일부 센서에 대해, 초점 거리는 센서에 대한 초점 구성 설정을 조정함으로써 상이한 이미지에 대해 조정될 수 있다. 예컨대, 랜드마크(예컨대, 홍채, 눈 모서리, 코, 귀, 또는 배경 오브젝트)가 상이한 초점 거리를 가진 복수의 이미지 내에서 식별될 수 있고 위치될 수 있다. 특정 이미지 내의 랜드마크의 표현은, 랜드마크에 대응하는 오브젝트가 센서 뷰의 필드 내 초점으로부터 얼마나 멀리 있는지에 의존하는 초점도(degree of focus)를 가진다. 초점도는 광 센서 내의 광학 효과에 의해 흐리게 된(예컨대, 조리개 형상에 의한 컨볼루션 및 회절로 인해) 랜드마크의 이미지에 대한 규모의 측정이다. 랜드마크의 주변에 있는 이미지 신호의 고주파 성분을 결정함으로써 특정 이미지의 랜드마크에 대한 초점도를 추산할 수 있다. 랜드마크가 초점이 맞은 경우, 그 주변에 더 높은 고주파 성분이 예상된다. 초점도가 랜드마크에 대해 낮은 경우, 더 작은 고주파 성분이 예상된다. 상이한 초점 거리를 가진 이미지 내의 랜드마크에 대한 초점도를 비교함으로써 센서로부터 랜드마크까지의 거리가 추산될 수 있다. 소정 구현예들에서, 다수의 랜드마크에 대한 센서(예컨대, 카메라)로부터의 거리가 추산되어 센서 뷰 내의 서브젝트의 위상지도(3차원 랜드마크 위치의 세트로 구성)를 형성한다. 카메라에 의해 보이는 공간 내의 이러한 랜드마크의 위치는 모델로부터의 편차를 반영하는 공간 메트릭(예컨대, 하나 이상의 랜드마크의 검출된 위치와 하나 이상의 랜드마크의 모델링된 대응 위치 사이의 평균 제곱 차(mean square difference))을 결정함으로써 모델과 비교될 수 있다.
소정 구현예들에서, 공간 메트릭은 2차원 평면으로부터의 서브젝트의 편차의 측정이다. 하나의 가능한 스푸핑 전략은 신고된 사용자 눈의 2차원 이미지(예컨대, 사진)를 센서에 제공하는 것이다. 그렇지만 2차원 이미지 내의 랜드마크(예컨대, 눈, 코, 입, 그리고 귀)의 위치가, 실제 살아있는 눈 주변 및 내부의 랜드마크와 달리, 2차원 평면 내에 발생할 것이다. 예컨대, 다수의 랜드마크의 위치는 가장 가까운 2차원 평면에 피팅될(fit) 수 있고 이러한 피팅된 평면으로부터 랜드마크의 평균 거리가 공간 메트릭으로서 결정될 수 있다. 낮은 값은 서브젝트가 2차원 스푸핑 공격일 높은 가능성을 나타낼 수 있는 반면, 이러한 공간 메트릭에 대한 높은 값은 서브젝트가 살아있는 눈일 높은 가능성 및 3차원 서브젝트를 나타낼 수 있다.
소정 구현예들에서, 공간 메트릭은 예상된 3차원 형상으로부터 서브젝트의 편차의 측정이다. 사용자의 살아있는 눈을 비롯한 서브젝트에 대한 예상된 형상에 대응하는 랜드마크의 위치를 포함하는 3차원 모델은 검출된 랜드마크 위치에 대한 비교를 위해 사용될 수 있다. 소정 구현예들에서, 특정 사용자 얼굴 상의 랜드마크의 상대적인 위치가 등록 세션 동안 결정될 수 있고 참조 기록의 일부로서 저장되는 3차원 모델을 생성하도록 사용될 수 있다. 소정 구현예들에서, 사용자의 모집단에 대한 3차원 모델은 많은 수의 사람에 대한 연구 또는 측정의 세트에 기초하여 결정될 수 있다. 다양한 유형의 메트릭이 공간 메트릭으로서 사용되어 검출된 랜드마크 위치와 예상된 형상(예컨대, 유클리드 거리, 상관 계수, 수정 하우스도르프 거리, 마하라노비스 거리, 브레그만 발산, 쿨백-라이블러 거리, 및 젠슨-섀넌 발산)을 비교할 수 있다.
소정 구현예들에서, 공간 메트릭을 결정하는 단계(714)는 복수의 이미지에 나타나는 둘 이상의 랜드마크의 시차를 결정하는 단계를 포함한다. 시차는 관찰자의 위치 변화로 인한 관찰된 오브젝트의 명백한 변위(displacement)이다. 센서로부터의 거리의 차이 때문에 서브젝트 상의 상이한 관점에서 캡쳐된 복수의 이미지는 이미지 내의 랜드마크가 상이한 양으로 이동하는 것처럼 보이는 것을 초래할 수 있다. 이러한 시차 효과는 측정될 수 있고 센서 뷰 내의 서브젝트의 3차원 특성을 반영하는 공간 메트릭으로서 사용될 수 있다. 이미지 내의 모든 랜드마크가 센서의 상대적인 모션으로 인해 동일한 명백한 변위를 겪으면, 즉, 랜드마크에 대한 시차 효과의 차이가 작으면, 카메라에 의해 보이는 서브젝트는 2차원 스푸프 공격일 높은 가능성을 가진다. 소정 구현예들에서, 센서는 이미지를 캡쳐하는 동안 서브젝트를 기준으로 움직여서 서브젝트에 대해 상이한 방향으로부터 이미지 데이터를 수집한다. 예컨대, 단일 카메라가 천천히 회전 또는 미끄러질 수 있거나 상이한 위치의 다수의 카메라가 이미지 캡쳐를 위해 사용될 수 있다. 소정 구현예들에서, 서브젝트 및 센서의 상대적인 방향을 변경하기 위해 사용자를 이동하도록 유도한다. 소정 구현예들에서, 센서가 서브젝트에 대해 자연스럽게 움직일 것으로 추정된다. 예컨대, 센서가 휴대용 사용자 장치(예컨대, 스마트폰 또는 태블릿) 내의 카메라인 경우, 센서는 무의식적인 햅틱 모션(involuntary haptic motion)으로 인해 사용자의 얼굴에 대해 자연스럽게 이동할 수 있다.
예컨대, 인증 모듈 또는 어플리케이션(예컨대, 인증 모듈(440))에 의해 공간 메트릭이 결정될 수 있다(714).
본 예에서, 눈이 복수의 이미지에 나타남에 따라 눈의 표면상의 정반사 패턴 또는 표면 글레어의 검출된 변화에 기초하여 반사율 메트릭이 결정된다(716). 반사율 메트릭은 눈의 표면상의 정반사 패치 또는 글레어의 변화의 측정일 수 있다. 센서 변화의 뷰 내의 눈의 조명과 같이, 눈과 광원의 상대적 모션 또는 동적 광원(예컨대, 플래시, LCD 스크린, 또는 기타 조명 요소)의 변화로 인해 눈에 보일 수 있는 정반사 패턴 및 글레어는 출현, 소멸, 성장, 감소, 또는 이동에 의해 변할 것이라고 예상된다. 소정 구현예들에서, 조명의 변화는 빛의 자극(예컨대, 플래시 펄스) 또는 외부 자극(예컨대, 시선 방향을 변경하도록 사용자를 지시하는 프롬프트 등)에 의해 이미지를 캡쳐하는 동안 유도된다. 예컨대, 경계를 비롯한, 글레어는, 가장 하얀 점을 찾도록 대비를 높인 이미지를 임계값 적용함으로써 검출될 수 있다. 이미지 내 눈의 정반사 패턴 또는 글레어의 검출된 변화는 예상된 변화로부터 검출된 변화의 편차를 측정하는 반사율 메트릭을 결정(716)함으로써 이러한 패턴 내의 예상된 변화와 비교될 수 있다.
우리는 글레어의 형상 및 면적의 변화를 찾고 있다. 하나는 글레어 패치의 영역에 대한 둘레의 비율에서 볼 수 있다.
소정 구현예들에서, 이미지 중 하나 이상이 캡쳐되면서 플래시가 서브젝트를 조명하기 위해 펄스될 수 있다. 눈이 이미지에 나타나는 동안 플래시로부터의 글레어가 눈 상에서 검출될 수 있다. 플래시가 펄스될 때와 그 대응 글레어가 이미지에 나타날 때 사이의 시간 차이를 측정할 수 있도록 플래시의 펄싱이 이미지 캡쳐와 동기화될 수 있다. 반사율 메트릭은 이러한 시간 차이에 기초할 수 있다. 플래시 펄스의 시간 잠금이나 예상된 동기화로부터의 큰 편차 및 대응 글레어 또는 정반사의 개시는 스푸프 공격을 나타낼 수 있다. 예컨대, 재생 공격은 캡쳐 시나리오의 사전 녹화된 비디오를 사용한다. 사전 녹화된 비디오의 글레어 변경은 현재 세션 동안 실시간 플래시 이벤트에 시간 잠금될 가능성이 낮다. 다른 예는 센서에 프린트된 눈의 이미지를 제공하는데, 이 경우에는 글레어는 비자연스럽게 균일한 방식으로 프린트된 이미지에 분산되거나 관찰된 표면상의 수분 부족으로 인해 지각적으로(perceivably) 변화하지 않을 수 있다. 대응하는 글레어 또는 정반사가 검출되지 않으면, 반사율 메트릭은 플래시와 검출된 글레어 또는 정반사 사이의 시간 잠금 부족 또는 불량 동기화에 대응하는 큰 임의의 숫자로 결정될 수 있다.
소정 구현예들에서, 글레어 패턴의 균일성의 변화로서 조명의 변화가 검출될 수 있는데, 글레어 패턴의 균일성의 변화는 조명의 강도가 증가함에 따라 드러나는 더 많은 양의 눈 흰자위의 미세한 3차원 텍스처에 의해 발생된다. 예컨대, 이미지 중 하나 이상이 캡쳐되면서 높은 강도로 서브젝트를 조명하기 위해 플래시가 펄스될 수 있다. 플래시 펄스의 개시 전후의 이미지 내에서 눈에 글레어 패턴의 균일성을 측정함으로써 눈 흰자위의 미세한 3차원 텍스처가 검출될 수 있다. 예컨대, 정반사 패턴 또는 글레어의 균일성은 글레어의 면적에 대한 둘레의 비율로서 측정될 수 있다. 이 숫자가 2/R와 비교해 더 커질수록, 더 비원형인 것이고 글레어가 더 비균일하게 된다(R은 글레어 패치의 추산된 반경이다). 소정 구현예들에서, 함수 근사기(예컨대, 신경망)는, 조명 요소(예컨대, 플래시)를 가지는 센서를 사용하여, 3D 프린트된 안구와 같은, 합성 안구와 살아있는 안구로부터 기록된 정반사 패턴 사이를 구별하도록 훈련된다.
예컨대, 인증 모듈 또는 어플리케이션(예컨대, 인증 모듈(440))에 의해 반사율 메트릭이 결정될 수 있다(716).
소정 구현예들에서(미도시), 추가적인 생동감 메트릭이 결정될 수 있다(710). 예컨대, 센서 뷰 내의 눈의 단속적(saccadic) 모션의 규모를 반영하는 메트릭이 결정될 수 있다. 눈의 위치 또는 방향이 추적될 수 있도록 이미지의 시퀀스는 눈의 홍채를 랜드마크 할 수 있다. 일반 단속적 모션과 연관된 특정 주파수에서 모션에 대해 필터링함으로써, 이러한 위치 또는 방향의 시퀀스가 분석되어 단속적 모션의 규모를 결정할 수 있다.
소정 구현예들에서, 캡쳐된 이미지 내의 하프톤의 규모를 반영하는 생동감 메트릭이 결정될 수 있다(710). 하프톤은 스푸프 공격에 사용될 수 있는 디지털 프린트된 이미지의 아티팩트(artifact)이고 따라서 그들의 존재는 스푸프 공격의 높은 가능성을 나타낼 수 있다. 예컨대, 캡쳐된 이미지에서 발생하는 범위에서 검출된 빛의 강도에서 더 높은 해상도가 달성되도록 하나 이상의 이미지가 센서(예컨대, 카메라)에 대한 감소된 동적 범위를 사용하여 캡쳐될 수 있다. 이러한 방식으로, 강도 또는 색상 스케일이 확대되어 검출된 이미지 신호의 레벨에 더 미묘한 변화를 드러낼 수 있다. 캡쳐된 이미지가 살아있는 눈의 경우라면, 감지된 색상 또는 강도 값의 범위가 지속적으로 변화할 것으로 예상된다. 반면, 스푸프 이미지(예컨대, 센서에 제공된 디지털 사진)는 하프톤에 대응하는 큰 비연속적 점프를 나타낼 수 있다. 이미지 내의 하프톤의 규모는 다양한 방법(예컨대, 이미지 영역 내에서 평가되는 헤시안 행렬의 평균 또는 최대 고유값으로서 또는 이미지 신호의 고주파 성분으로서)으로 측정될 수 있다. 소정 구현예들에서, 임계값을 초과하는 하프톤 메트릭을 가지는 이미지는 거부된다. 소정 구현예들에서, 이미지 내의 그레이 셰이드 히스토그램(histogram of gray shade)이 생성되고 그레이 레벨 빈(gray level bins)(예컨대, 256개의 빈) 사이의 분포의 균일성이 측정된다.
소정 구현예들에서, 생동감 메트릭은 병렬로 결정된다(710). 소정 구현예들에서, 생동감 메트릭은 직렬로 결정된다(710).
이어서 하나 이상의 생동감 메트릭에 기초하여 생동감 점수가 결정될 수 있다(730). 소정 구현예들에서, 훈련 함수 근사기에 하나 이상의 생동감 메트릭을 입력함으로써 생동감 점수가 결정된다.
함수 근사기는 목적하는 출력 신호를 제공하기 위해 올바르게 표시된 다양한 스푸프 공격 및 살아있는 눈의 훈련 이미지에 대응하는 데이터를 사용하여 훈련될 수 있다. 함수 근사기는 일 세트의 모델 파라미터를 이용하여 입력 데이터(즉, 훈련 이미지 생동감 메트릭)를 출력 데이터(즉, 생동감 점수)에 매핑하는 것을 모델링한다. 모델 파라미터 값은 훈련 데이터에 적용되는 훈련 알고리즘을 사용하여 선택된다. 예컨대, 함수 근사기는 다음의 모델에 기초할 수 있는데, 이는 선형 회귀, 볼테라 시리즈, 위너 시리즈, 방사형 기저 함수, 커널 방법, 구간적 선형 모델과 같은 다항식 방법, 베이지안 분류기, k-최근점 분류기, 신경망, 서포트 벡터 머신, 또는 퍼지 함수 근사기이다. 소정 구현예들에서, 생동감 점수는 이진수일 수 있다.
예컨대, 인증 모듈 또는 어플리케이션(예컨대, 인증 모듈(440))에 의해 하나 이상의 생동감 메트릭에 기초하여 생동감 점수가 결정될 수 있다(730).
이어서 결과 생동감 점수가 반환될 수 있고(740), 인증 시스템(예컨대, 인증 시스템(400))에 의해 다양한 방법으로 사용될 수 있다. 예컨대, 하나 이상의 이미지를 수락 또는 거부하기 위해 생동감 점수가 사용될 수 있다.
도 8a는 빛의 자극에 반응한 동공 수축에 기초하여 행동 메트릭을 결정하기 위한 프로세스(800) 예의 순서도이다. 센서(예컨대, 광 센서(420))에 의해 관찰된 장면에 하나 이상의 빛의 자극이 적용된다(810). 예컨대, 빛의 자극은 디스플레이(예컨대, LCD 디스플레이)의 밝기 변화 또는 플래시 펄스를 포함할 수 있다. 빛의 자극의 시작 전후에 센서에 의해 이미지의 시퀀스가 캡쳐된다(812). 예컨대, 이미지의 시퀀스는 빛의 자극의 시작을 포함하는 구간(예컨대, 2, 5, 10초)에서 일정한 시간 간격(예컨대, 10, 30, 또는 60Hz)으로 캡쳐될 수 있다.
소정 구현예들에서, 캡쳐된 이미지의 각각에 동공을 랜드마크 하고 각 캡쳐된 이미지 내에서 동공의 직경이 결정된다(814). 빛의 자극의 시작 전에 캡쳐된 하나 이상의 이미지 내에서 측정된 동공에 대한 시작 직경에 대해 직경이 결정될 수 있다(814).
빛의 자극에 반응한 측정된 동공 직경의 결과 시퀀스가 분석되어 빛의 자극에 반응한 동공의 수축에 대한 하나 이상의 모션 파라미터를 결정할 수 있다(816). 소정 구현예들에서, 동공 수축의 모션 파라미터는 빛의 자극의 시작에 대한 수축 모션의 개시 시간을 포함할 수 있다. 개시는 빛의 자극의 시작과 수축 모션의 시작 사이의 시간 지연이다. 소정 구현예들에서, 동공 수축의 모션 파라미터는 수축 모션의 지속 기간을 포함할 수 있다. 지속 기간은, 동공 직경이 새로운 정상 상태 값에 도달할 때(예컨대, 직경이 시간의 최소 구간 동안 변하지 않은 후), 수축 모션의 시작과 수축 모션의 끝 사이의 시간의 길이이다. 소정 구현예들에서, 동공 수축의 모션 파라미터는 동공 수축의 속도를 포함할 수 있다. 예컨대, 속도는 시간축의 두 점 사이의 동공 직경의 차이를 두 점 사이의 시간 구간의 길이로 나눈 것으로서 결정될 수 있다. 소정 구현예들에서, 동공 수축의 모션 파라미터는 수축 기간의 상이한 시간 분할에서 동공 수축의 가속을 포함할 수 있다. 예컨대, 가속도는 두 구간 사이의 속도 차이로서 결정될 수 있다.
하나 이상의 정해진 모션 파라미터와 하나 이상의 예상된 모션 파라미터 사이의 거리로서 행동 메트릭이 결정될 수 있다(818). 예컨대, 행동 메트릭은 살아있는 눈에 대한 검출된 개시 시간과 예상된 개시 시간의 차이를 포함할 수 있다. 예컨대, 행동 메트릭은 살아있는 눈에 대한 동공 수축의 검출된 지속 기간과 예상된 지속 기간 사이의 차이를 포함할 수 있다. 소정 구현예들에서, 동공 직경의 시퀀스는 두 시퀀스 사이의 거리(예컨대, 유클리드 거리, 상관 계수, 수정 하우스도르프 거리, 마하라노비스 거리, 브레그만 발산, 쿨백-라이블러 거리, 및 젠슨-섀넌 발산)를 결정함으로써 동공 직경의 예상된 시퀀스와 비교된다. 소정 구현예들에서, 수축 모션에 대한 동공 수축 속도의 시퀀스는 속도의 두 시퀀스 사이의 거리를 결정함으로써 동공 수축 속도의 예상된 시퀀스와 비교된다. 소정 구현예들에서, 수축 모션에 대한 동공 수축 가속도의 시퀀스는 가속도의 두 시퀀스 사이의 거리를 결정함으로써 동공 수축 가속도의 예상 시퀀스와 비교된다.
예컨대, 광 센서(예컨대, 광 센서(420)) 및 조명 요소를 제어하는 인증 모듈 또는 어플리케이션(예컨대, 인증 모듈(440))에 의해 프로세스(800)가 구현될 수 있다.
도 8b는 외부 자극에 반응한 홍채의 시선 전환에 기초하여 행동 메트릭을 결정하기 위한 프로세스(820) 예의 순서도이다. 센서(예컨대, 광 센서(420))에 의해 관찰된 사용자에 하나 이상의 외부 자극이 적용된다(830). 예컨대, 외부 자극은 이미지를 캡쳐하는 동안 사용자의 시선(예컨대, 오른쪽, 왼쪽, 위, 아래, 또는 정면을 보는 것)를 안내하도록 사용자를 지시하는 프롬프트를 포함할 수 있다. 프롬프트는 시각적, 청각적, 및/또는 촉각적일 수 있다. 소정 구현예들에서, 외부 자극은 디스플레이 내에서 사용자의 눈이 쫓도록 움직이는 오브젝트를 포함할 수 있다.
외부 자극의 시작 전후에 센서에 의해 이미지의 시퀀스가 캡쳐된다(832). 예컨대, 이미지의 시퀀스는 외부 자극의 시작을 포함하는 구간(예컨대, 2, 5, 10초)에서 일정한 시간 간격(예컨대, 10, 30, 또는 60Hz)으로 캡쳐될 수 있다.
소정 구현예들에서, 캡쳐된 이미지의 각각에 홍채를 랜드마크 하고 각 캡쳐된 이미지 내에서 홍채의 위치 또는 방향이 결정된다(834). 외부 자극의 시작 전에 캡쳐된 하나 이상의 이미지 내에서 측정된 홍채에 대한 시작 위치에 대해 위치가 결정될 수 있다(834).
외부 자극에 반응한 측정된 홍채 위치의 결과 시퀀스가 분석되어 외부 자극에 반응한 시선 전환에 대한 하나 이상의 모션 파라미터를 결정할 수 있다(836). 소정 구현예들에서, 시선 전환의 모션 파라미터는 외부 자극의 시작에 대한 시선 전환 모션의 개시 시간을 포함할 수 있다. 개시는 외부 자극의 시작과 시선 전환 모션의 시작 사이의 시간 지연이다. 소정 구현예들에서, 시선 전환의 모션 파라미터는 시선 전환 모션의 지속 기간을 포함할 수 있다. 지속 기간은, 홍채가 새로운 정상 상태 값에 도달할 때(예컨대, 홍채가 시간의 최소 구간 동안 움직이지 않은 후), 시선 전환 모션의 시작과 시선 전환 모션의 끝 사이의 시간의 길이이다. 소정 구현예들에서, 시선 전환의 모션 파라미터는 시선 전환의 속도를 포함할 수 있다. 예컨대, 속도는 시간축의 두 점 사이의 홍채 위치의 차이를 두 점 사이의 시간 구간의 길이로 나눈 것으로서 결정될 수 있다. 소정 구현예들에서, 시선 전환의 모션 파라미터는 시선 전환의 가속도를 포함할 수 있다. 예컨대, 가속도는 두 구간 사이의 속도 차이로서 결정될 수 있다.
하나 이상의 정해진 모션 파라미터와 하나 이상의 예상된 모션 파라미터 사이의 거리로서 행동 메트릭이 결정될 수 있다(838). 예컨대, 행동 메트릭은 살아있는 눈에 대한 검출된 개시 시간과 예상된 개시 시간의 차이를 포함할 수 있다. 예컨대, 행동 메트릭은 살아있는 눈에 대한 동공 수축의 검출된 지속 기간과 예상된 지속 기간 사이의 차이를 포함할 수 있다. 소정 구현예들에서, 동공 직경의 시퀀스는 두 시퀀스 사이의 거리(예컨대, 유클리드 거리, 상관 계수, 수정 하우스도르프 거리, 마하라노비스 거리, 브레그만 발산, 쿨백-라이블러 거리, 및 젠슨-섀넌 발산)를 결정함으로써 동공 직경의 예상된 시퀀스와 비교된다. 소정 구현예들에서, 시선 전환 모션에 대한 전이 속도의 시퀀스는 속도의 두 시퀀스 사이의 거리를 결정함으로써 시선 전환 속도의 예상된 시퀀스와 비교된다. 소정 구현예들에서, 시선 전환 모션에 대한 시선 전환 가속도의 시퀀스는 가속도의 두 시퀀스 사이의 거리를 결정함으로써 시선 전환 가속도의 예상 시퀀스와 비교된다.
예컨대, 광 센서(예컨대, 광 센서(420)) 및 프롬프트 장치(예컨대, 디스플레이, 스피커, 또는 햅틱피드백 장치)를 제어하는 인증 모듈 또는 어플리케이션(예컨대, 인증 모듈(440))에 의해 프로세스(820)가 구현될 수 있다.
도 9는 일반적인 컴퓨터 장치(900) 및 일반적인 모바일 컴퓨팅 장치(950)의 예를 도시하고, 이는 본 명세서에 설명된 기술과 함께 사용될 수 있다. 컴퓨팅 장치(900)는, 랩톱, 데스크톱, 워크 스테이션, 개인 디지털 보조장치, 서버, 블레이드 서버, 메인프레임, 및 기타 적절한 컴퓨터와 같은, 디지털 컴퓨터의 다양한 형태를 표현하도록 의도된다. 컴퓨팅 장치(950)는, 개인용 디지털 보조장치, 셀룰러 폰, 스마트폰, 및 기타 유사한 컴퓨팅 장치와 같은, 모바일 장치의 다양한 형태를 표현하도록 의도된다. 여기에 도시된 구성요소는, 그들의 연결과 관계, 및 그들의 기능은 단지 예시적인 의미일 뿐이며, 본 명세서에서 설명 및/또는 주장되는 본 발명의 구현예들을 제한하는 의미가 아니다.
컴퓨팅 장치(900)는 프로세서(902), 메모리(904), 저장 장치(906), 메모리(904)에 연결하는 고속 인터페이스(908) 및 고속 확장 포트(910), 및 저속 버스(914)와 저장 장치(906)에 연결하는 저속 인터페이스(912)를 포함한다. 각 구성요소(902, 904, 906, 908, 910, 및 912)는, 다양한 버스를 사용하여 상호연결되고, 통상적인 마더보드 또는 기타 적절한 방식으로 장착될 수 있다. 프로세서(902)는 컴퓨팅 장치(900) 내에서의 실행을 위한 명령어를 처리할 수 있고, 컴퓨팅 장치는 고속 인터페이스(908)에 결합된 디스플레이(916)와 같은, 외부 입/출력 장치상에서 GUI에 대한 그래픽 정보를 디스플레이하기 위한 메모리(904) 또는 저장 장치(906)에 저장된 명령어를 포함한다. 다른 구현예들에서, 다수의 메모리 및 다수 유형의 메모리와 함께, 적절하게, 멀티 프로세서 및/또는 멀티 버스가 사용될 수 있다. 또한, 각 장치가 필요한 동작(예컨대, 서버 뱅크, 블레이드 서버의 그룹, 또는 멀티 프로세서 시스템과 같은)의 부분을 제공하는 각 장치와 함께, 다수의 컴퓨팅 장치(900)가 연결될 수 있다.
메모리(904)는 컴퓨팅 장치(900) 내에 정보를 저장한다. 일 구현예에서, 메모리(904)는 휘발성 메모리 유닛 또는 유닛들이다. 다른 구현예에서, 메모리(904)는 비휘발성 메모리 유닛 또는 유닛들이다. 메모리(904)는 또한, 자기 또는 광학 디스크와 같은, 컴퓨터 판독가능 매체의 다른 형태 일 수 있다.
저장 장치(906)는 컴퓨팅 장치(900)에 대용량 저장을 제공할 수 있다. 일 구현예에서, 저장 장치(906)는, 저장 영역 네트워크(storage area network) 또는 기타 구성의 장치를 포함하는, 플로피 디스크 장치, 하드 디스크 장치, 광 디스크 장치, 또는 테이프 장치, 플래시 메모리 또는 기타 유사한 솔리드 스테이트 메모리 장치, 또는 장치의 배열과 같은, 컴퓨터 판독가능 매체를 포함하거나 컴퓨터 판독가능 매체일 수 있다. 컴퓨터 프로그램 제품은 정보 캐리어 내에서 명백하게 구현될 수 있다. 컴퓨터 프로그램 제품은 또한, 실행될 때, 위에서 설명한 것과 같은, 하나 이상의 방법을 수행하는 명령어를 포함할 수 있다. 정보 캐리어는, 예컨대, 메모리(904), 저장 장치(906), 또는 프로세서(902)상의 메모리와 같은, 컴퓨터 또는 기계 판독가능 매체이다.
저속 제어기(912)가 낮은 대역폭 집약적(bandwidth-intensive) 동작을 관리하는 반면, 고속 제어기(908)는 컴퓨팅 장치(900)에 대한 대역폭 집약적 동작을 관리한다. 기능의 이러한 할당은 예시적일 뿐이다. 일 구현에서, 고속 제어기(908)는 메모리(904), 디스플레이(916)(예컨대, 그래픽 프로세서 또는 가속기를 통해), 및 고속 확장 포트(910)에 결합되고, 이는 다양한 확장 카드(미도시)를 수락한다. 구현에서, 저속 제어기(912)는 저장 장치(906) 및 저속 확장 포트(914)에 결합된다. 다양한 통신 포트(예컨대, USB, 블루투스, 이더넷, 무선 이더넷)를 포함할 수 있는, 저속 확장 포트는 키보드, 포인팅 장치, 스캐너와 같은, 하나 이상의 입/출력 장치 또는 스위치 또는 라우터와 같은 네트워킹 장치에, 예컨대, 네트워크 어댑터를 통해, 결합될 수 있다.
도면에 도시된 바와 같이, 컴퓨팅 장치(900)는 여러 다른 형태의 번호로 구현될 수 있다. 예컨대, 표준 서버(920)로서, 또는 이러한 서버 그룹 내에서 여러 번 구현될 수 있다. 또한 랙 서버 시스템(924)의 일부로서 구현될 수 있다. 뿐만 아니라, 랩톱 컴퓨터(922)와 같은 개인용 컴퓨터에서 구현될 수 있다. 또는, 컴퓨팅 장치(900)로부터의 구성요소가, 장치(950)와 같은, 모바일 장치(미도시)에서 기타 구성요소와 결합될 수 있다. 각각의 이러한 장치는 컴퓨팅 장치(900, 950) 중 하나 이상을 포함할 수 있고 전체 시스템은 서로 통신하는 다수의 컴퓨팅 장치(900, 950)로 구성될 수 있다.
컴퓨팅 장치(950)는 프로세서(952), 메모리(964), 디스플레이(954)와 같은 입/출력 장치, 통신 인터페이스(966), 및 송수신기(968), 기타 구성요소들을 포함한다. 장치(950)는 또한, 마이크로 드라이브 또는 기타 장치와 같은, 저장 장치를 제공받아서 추가적인 스토리지(storage)를 제공할 수 있다. 구성요소(950, 952, 964, 954, 966, 및 968) 각각은 다양한 버스를 사용하여 상호연결되고, 몇몇 구성요소는 통상적인 마더보드 상에 또는 다른 적절한 방식으로 장착될 수 있다.
프로세서(952)는 메모리(964)에 저장된 명령어를 포함하는, 컴퓨팅 장치(950) 내에서 명령을 실행할 수 있다. 프로세서는 별도의 아날로그 및 디지털 프로세서 및 다수의 아날로그 및 디지털 프로세서를 포함하는 칩의 칩셋(chipset)으로서 구현될 수 있다. 예컨대, 프로세서는, 사용자 인터페이스의 제어와 같은, 장치(950)의 기타 구성요소의 조정을 위해, 장치(950), 및 장치(950)에 의한 무선 통신에 의해 실행되는 어플리케이션을 제공할 수 있다.
프로세서(952)는 컨트롤 인터페이스(958) 및 디스플레이(954)에 결합한 디스플레이 인터페이스(956)를 통해 사용자와 통신할 수 있다. 예컨대, 디스플레이(954)는 TFT LCD(박막 트랜지스터 액정 디스플레이, Thin-Film-Transistor Liquid Crystal Display) 또는 OLED (유기 발광 다이오드, Organic Light Emitting Diode) 디스플레이, 또는 기타 적절한 디스플레이 기술일 수 있다. 디스플레이 인터페이스(956)는 디스플레이(954)를 구동하기 위한 적합한 회로를 포함해서 사용자에게 그래픽 및 기타 정보를 제공할 수 있다. 제어 인터페이스(958)는 사용자로부터 명령을 수신하고 프로세서(952)에 전달하기 위해 명령어를 전환할 수 있다. 뿐만 아니라, 장치(950)가 기타 장치와 근지역 통신을 할 수 있도록 하기 위해, 외부 인터페이스(962)가 프로세서(952)와의 통신에서 제공될 수 있다. 예컨대, 외부 인터페이스(962)는 소정 구현예들에서의 유선 통신, 또는 다른 구현예들에서의 무선 통신을 제공할 수 있고, 다수의 인터페이스도 또한 사용될 수 있다.
메모리(964)는 컴퓨팅 장치(950)내에 정보를 저장한다. 메모리(964)는 컴퓨터 판독가능 매체 또는 매체들, 휘발성 메모리 유닛 또는 유닛들, 또는 비휘발성 메모리 유닛 또는 유닛들 중 하나 이상으로서 구현될 수 있다. 확장 메모리(974)는 또한, 예컨대, SIMM(단행 메모리 모듈, Single In Line Memory Module) 카드 인터페이스를 포함할 수 있는, 확장 인터페이스(972)를 통해 장치(950)에 연결되고 제공될 수 있다. 이러한 확장 메모리(974)는 장치(950)에 여분의 저장 공간을 제공할 수 있고, 또는 어플리케이션 또는 기타 정보를 장치(950)에 저장할 수도 있다. 특히, 확장 메모리(974)는 위에서 설명한 프로세스를 수행 및 보완하기 위한 명령어를 포함할 수 있고, 또한 보안 정보도 포함할 수 있다. 따라서, 예컨대, 확장 메모리(974)는 보안 모듈로서 장치(950)에 제공될 수 있고, 장치(950)의 보안 사용을 허용하는 명령어로 프로그래밍될 수 있다. 뿐만 아니라, 해킹 불가능한 방식으로 SIMM 카드상의 식별 정보를 배치하는 것과 같은, 추가적인 정보와 함께, SIMM 카드를 통해 보안 어플리케이션이 제공될 수 있다.
메모리는, 예컨대, 이하 설명된 바와 같은, 플래시 메모리 및/또는 NVRAM 메모리를 포함할 수 있다. 일 구현예에서, 컴퓨터 프로그램 제품은 정보를 캐리어 내에 명백하게 구현된다. 컴퓨터 프로그램 제품은, 실행될 때, 위에서 설명한 것과 같은, 하나 이상의 방법을 수행하는 명령어를 포함한다. 정보 캐리어는, 메모리(964), 확장 메모리(974), 프로세서(952)상의 메모리와 같은, 컴퓨터 또는 기계 판독가능 매체, 또는, 예컨대, 송수신기(968) 또는 외부 인터페이스(962)를 통해 수신될 수 있는 전파 신호이다.
장치(950)는 필요한 곳에 디지털 신호 처리 회로를 포함할 수 있는, 통신 인터페이스(966)를 통해 무선으로 통신할 수 있다. 통신 인터페이스(966)는, GSM 음성 통화, SMS, EMS, 또는 MMS 메시징, CDMA, TDMA, PDC, WCDMA, CDMA2000, 또는 GPRS, 기타 등과 같은, 다양한 모드 또는 프로토콜 하에 통신을 제공할 수 있다. 이러한 통신은, 예컨대, 무선 주파수 송수신기(968)를 통해 발생할 수 있다. 뿐만 아니라, 단거리 통신은, 예컨대 블루투스, 와이파이, 또는 기타 이러한 송수신기(미도시)를 사용하여, 발생할 수 있다. 또한, GPS(위성 위치확인 시스템, Global Positioning System) 수신 모듈(970)은 장치(950)에 추가적인 네비게이션 및 위치 관련 무선 데이터를 제공할 수 있는데, 장치(950)는 장치(950)상에서 실행하는 어플리케이션에 의해 적절하게 사용될 수 있다.
장치(950)는 또한 오디오 코덱(960)을 사용하여 음성적으로 통신할 수 있는데, 오디오 코덱(960)은 사용자로부터 음성 정보를 수신하고 사용가능한 디지털 정보로 전환할 수 있다. 오디오 코덱(960)은, 예컨대, 장치(950)의 핸드셋(handset) 내의 스피커과 같은 것을 통해, 사용자가 들을 수 있는 소리를 마찬가지로 생성할 수 있다. 이러한 소리는 음성 전화 통화로부터의 소리를 포함할 수 있고, 녹음된 소리(예컨대, 음성 메시지, 음악 파일 등)를 포함할 수 있고, 장치(950)상에서 동작하는 어플리케이션에 의해 생성된 사운드도 포함할 수 있다.
도면에 도시된 바와 같이, 컴퓨팅 장치(950)는 여러 다른 형태에서 구현될 수 있다. 예컨대, 컴퓨팅 장치(950)는 셀룰러 폰(980)에서 구현될 수 있다. 또한 컴퓨팅 장치(950)는 스마트폰(982), 개인 디지털 보조장치, 또는 기타 유사한 모바일 장치의 일부로서 구현될 수 있다.
본 명세서에 설명된 시스템 및 기술의 다양한 구현예들은 디지털 전자 회로, 집적 회로, 특정 설계 ASIC(응용 주문형 집적 회로, application specific integrated circuits), 컴퓨터 하드웨어, 펌웨어, 소프트웨어 및/또는 이들의 조합으로 실현될 수 있다. 이러한 다양한 구현예들은 적어도 하나의 프로그래머블 프로세서를 포함하는 프로그래머블 시스템 상에서 실행가능하고/실행가능하거나 해석가능한 하나 이상의 컴퓨터 프로그램에서의 구현을 포함할 수 있는데, 프로그래머블 프로세서는 특정 또는 일반적인 목적일 수 있고, 스토리지 시스템, 적어도 하나의 입력 장치, 및 적어도 하나의 출력 장치로부터 데이터 및 명령어를 수신하기 위해 결합될 수 있고, 스토리지 시스템, 적어도 하나의 입력 장치, 및 적어도 하나의 출력 장치에 데이터 및 명령어를 전송할 수 있다.
이러한 컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 어플리케이션 또는 코드로서 알려지기도 함)은 프로그래머블 프로세서에 대한 기계 명령어를 포함하고, 고급 순차 및/또는 객체 지향 프로그래밍 언어로, 및/또는 어셈블리/기계 언어로 구현될 수 있다. 본 명세서에서 사용된 "기계 판독가능 매체" 및 "컴퓨터 판독가능 매체"라는 용어는, 기계 판독가능 신호로서 기계 명령어를 수신하는 기계 판독가능 매체를 포함하는, 프로그래머블 프로세서에 기계 명령어 및/또는 데이터를 제공하기 위해 사용되는 임의의 컴퓨터 프로그램 제품, 기기 및/또는 장치(예컨대, 자기 디스크, 광 디스크, 메모리, 프로그래머블 로직 디바이스(PLDs))를 말한다. "기계 판독가능 신호"라는 용어는 프로그래머블 프로세서에 기계 명령어 및/또는 데이터를 제공하기 위해 사용되는 임의의 신호를 의미한다.
사용자와의 상호작용을 제공하기 위해, 본 명세서에서 설명된 시스템 및 기술은 사용자가 컴퓨터에 입력을 제공할 수 있는 키보드 및 포인팅 장치(예컨대, 마우스 또는 트랙볼) 및 사용자에게 정보를 디스플레이하기 위한 디스플레이 장치(예컨대, CRT(음극선 관, cathode ray tube) 또는 LCD(액정 디스플레이, liquid crystal display) 모니터)를 구비하는 컴퓨터 상에서 구현될 수 있다. 또한 장치의 다른 종류들은 사용자와의 상호작용을 제공하기 위해 사용될 수 있는데, 예컨대, 사용자에게 제공되는 피드백은 감각 피드백(예컨대, 시각적 피드백 청각 피드백, 또는 촉각 피드백)의 임의의 형태일 수 있고, 사용자로부터의 입력은 어쿠스틱(acoustic), 스피치(speech), 또는 촉각 입력을 포함하는, 임의의 형태로 수신될 수 있다.
본 명세서에 설명된 시스템 및 기술은 백 엔드 구성요소(back end component)(예컨대, 데이터 서버와 같은)를 포함하거나, 미들웨어 구성요소(예컨대, 어플리케이션 서버)를 포함하거나, 프론트 엔드 구성요소(front end component)(예컨대, 사용자가 이를 통해 본 명세서에서 설명되는 시스템 및 기술의 구현으로 상호작용할 수 있는, 그래픽 사용자 인터페이스 또는 웹 브라우저를 구비하는 클라이언트 컴퓨터), 또는 이러한 백 엔드, 미들웨어, 또는 프론트 엔드 구성요소의 임의의 조합을 포함하는 컴퓨팅 시스템에서 구현될 수 있다. 시스템의 구성요소는 디지털 데이터 통신(예컨대, 통신 네트워크)의 임의의 형태 또는 매체에 의해 상호연결 될 수 있다. 통신 네트워크의 예로는 로컬 영역 네트워크("LAN"), 광역 네트워크("WAN"), 및 인터넷이 있다.
컴퓨팅 시스템은 클라이언트 및 서버를 포함할 수 있다. 클라이언트 및 서버는 일반적으로 서로로부터 떨어져있고 전형적으로는 통신 네트워크를 통해 상호작용한다. 클라이언트 및 서버의 관계는 각각의 컴퓨터에서 실행되고 서로에 대한 클라이언트-서버 관계를 가지는 컴퓨터 프로그램에 의해서 발생한다.
여러 실시예들이 설명되고 있다. 그럼에도 불구하고, 본 발명의 사상 및 범위를 벗어나지 않는 범위에서 다양한 변형이 이루어질 수 있다는 것이 이해될 것이다.
뿐만 아니라, 도면들에서 표현된 로직 흐름은 목적하는 결과를 달성하기 위해, 도시된 특정 순서, 또는 순차적인 순서를 요구하지 않는다. 뿐만 아니라, 설명된 흐름으로부터, 다른 단계들이 제공될 수 있거나, 단계들이 제거될 수 있고, 설명된 시스템으로부터, 다른 구성요소가 추가될 수 있거나, 제거될 수 있다. 따라서, 다른 실시예들이 다음의 청구의 범위 내에 있게 된다.

Claims (30)

  1. 눈의 이미지에 기초한 바이오메트릭 인증을 위한 컴퓨터 구현 방법으로서,
    눈의 뷰(view)를 포함하는 서브젝트(subject)의 2 이상의 이미지 - 상기 이미지는 복수의 초점 거리(focus distances)를 총괄적으로 포함함 - 를 얻는 단계;
    상기 눈이 상기 복수의 이미지에 나타남에 따라 상기 눈의 검출된 움직임에 적어도 기초하여 행동 메트릭(behavioral metric)을 결정 - 상기 행동 메트릭은 상기 눈의 검출된 움직임 및 예상된 움직임으로부터의 타이밍의 편차의 측정임 - 하는 단계;
    상이한 각각의 초점 거리를 각각 가지는 상기 복수의 이미지에 나타나는 랜드마크까지의 센서로부터의 거리에 적어도 기초하여 공간 메트릭(spatial metric)을 결정하는 단계;
    상기 눈이 상기 복수의 이미지에 나타남에 따라 상기 눈의 표면상의 정반사 패턴(specular reflection patterns) 또는 표면 글레어(surface glare)의 검출된 변화에 적어도 기초하여 반사율 메트릭(reflectance metric)을 결정 - 상기 반사율 메트릭은 상기 눈의 상기 표면상의 정반사 패턴 또는 글레어의 변화의 측정임 - 하는 단계;
    상기 행동, 공간, 및 반사율 메트릭에 적어도 기초하여 점수(score)를 결정하는 단계; 및
    상기 점수에 기초하여 상기 2 이상의 이미지를 거절 또는 수락하는 단계
    를 포함하는, 눈의 이미지에 기초한 바이오메트릭 인증을 위한 컴퓨터 구현 방법.
  2. 제1항에 있어서, 상기 행동 메트릭을 결정하는 단계는 빛의 자극(photic stimuli)에 반응한 동공 수축의 개시(onset), 지속 기간(duration), 속도, 또는 가속도를 결정하는 단계를 포함하는, 눈의 이미지에 기초한 바이오메트릭 인증을 위한 컴퓨터 구현 방법.
  3. 제1항에 있어서, 상기 행동 메트릭을 결정하는 단계는 외부 자극에 반응한 시선 전환(gaze transition)의 개시, 지속 기간, 또는 가속도를 결정하는 단계를 포함하는, 눈의 이미지에 기초한 바이오메트릭 인증을 위한 컴퓨터 구현 방법.
  4. 제1항에 있어서, 상기 공간 메트릭은 예상된 3차원 형상으로부터의 상기 서브젝트의 편차의 측정인, 눈의 이미지에 기초한 바이오메트릭 인증을 위한 컴퓨터 구현 방법.
  5. 제1항에 있어서, 상기 공간 메트릭을 결정하는 단계는 상기 복수의 이미지에 나타나는 2 이상의 랜드마크의 시차(parallax)를 결정하는 단계를 포함하는, 눈의 이미지에 기초한 바이오메트릭 인증을 위한 컴퓨터 구현 방법.
  6. 제1항에 있어서, 상기 2 이상의 이미지를 얻는 단계는 감소된 동적 범위를 사용하여 이미지를 캡쳐하는 단계를 포함하고,
    감소된 동적 범위를 사용하여 캡쳐된 상기 이미지 내에서 하프톤(half-tones)을 검출하는 단계; 및
    상기 하프톤에 적어도 부분적으로 기초하여 상기 2 이상의 이미지를 거절하는 단계를 더 포함하는, 눈의 이미지에 기초한 바이오메트릭 인증을 위한 컴퓨터 구현 방법.
  7. 제1항에 있어서, 상기 행동 메트릭을 결정하는 단계는 상기 눈이 상기 복수의 이미지에 나타남에 따라 상기 눈의 혈류를 검출하는 단계를 포함하는, 눈의 이미지에 기초한 바이오메트릭 인증을 위한 컴퓨터 구현 방법.
  8. 제1항에 있어서, 상기 이미지를 얻는 단계는 센서를 사용하여 상기 이미지를 캡쳐하는 단계를 포함하고, 상기 반사율 메트릭을 결정하는 단계는,
    하나 이상의 상기 이미지가 캡쳐되는 동안 상기 서브젝트를 조명하기 위해 플래시(flash)를 펄싱(pulsing)하는 단계;
    상기 이미지 내의 상기 플래시로부터 상기 눈 상의 글레어의 출현(appearance)을 감지하는 단계; 및
    상기 플래시의 펄싱과 상기 이미지 내의 상기 눈 상의 대응하는 글레어의 출현 사이의 시간차를 측정하는 단계를 포함하는, 눈의 이미지에 기초한 바이오메트릭 인증을 위한 컴퓨터 구현 방법.
  9. 제1항에 있어서, 상기 이미지를 얻는 단계는 센서를 사용하여 상기 이미지를 캡쳐하는 단계를 포함하고, 상기 반사율 메트릭을 결정하는 단계는,
    하나 이상의 상기 이미지가 캡쳐되는 동안 상기 서브젝트를 조명하기 위해 플래시를 펄싱하는 단계; 및
    상기 이미지 내의 상기 플래시로부터 상기 눈 상의 글레어의 패턴에 대한 균일성(uniformity)을 측정함으로써 상기 눈 흰자위의 미세한(fine) 3차원 텍스처(texture)를 검출하는 단계를 포함하는, 눈의 이미지에 기초한 바이오메트릭 인증을 위한 컴퓨터 구현 방법.
  10. 제1항에 있어서,
    상기 이미지 중 2 이상을 캡쳐하는 동안 복수의 상이한 설정에 대한 초점을 제어하는 센서 설정을 조정하는 단계; 및
    상이한 초점 설정으로 캡쳐된 이미지를 비교하여 이러한 이미지들이 각각의 초점 설정을 반영하는지 여부를 결정하는 단계를 더 포함하는, 눈의 이미지에 기초한 바이오메트릭 인증을 위한 컴퓨터 구현 방법.
  11. 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기로서,
    데이터 프로세싱 기기; 및
    저장된 명령어(instructions)를 구비한 상기 데이터 프로세싱 기기와 연결되는 메모리를 포함하고, 상기 명령어는
    상기 데이터 프로세싱 기기에 의해 실행될 때 상기 데이터 프로세싱 기기로 하여금
    눈의 뷰를 포함하는 서브젝트의 2 이상의 이미지 - 상기 이미지는 복수의 초점 거리를 총괄적으로 포함함 - 를 얻는 동작;
    상기 눈이 상기 복수의 이미지에 나타남에 따라 상기 눈의 검출된 움직임에 적어도 기초하여 행동 메트릭을 결정 - 상기 행동 메트릭은 상기 눈의 검출된 움직임 및 예상된 움직임으로부터의 타이밍의 편차의 측정임 - 하는 동작;
    상이한 각각의 초점 거리를 각각 가지는 상기 복수의 이미지에 나타나는 랜드마크까지의 센서로부터의 거리에 적어도 기초하여 공간 메트릭을 결정하는 동작;
    상기 눈이 상기 복수의 이미지에 나타남에 따라 상기 눈의 표면상의 정반사 패턴 또는 표면 글레어의 검출된 변화에 적어도 기초하여 반사율 메트릭을 결정 - 상기 반사율 메트릭은 상기 눈의 상기 표면상의 정반사 패턴 또는 글레어의 변화의 측정임 - 하는 동작;
    상기 행동, 공간, 및 반사율 메트릭에 적어도 기초하여 점수를 결정하는 동작; 및
    상기 점수에 기초하여 상기 2 이상의 이미지를 거절 또는 수락하는 동작을 포함하는 동작을 수행하도록 하는 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기.
  12. 제11항에 있어서, 상기 행동 메트릭을 결정하는 동작은 빛의 자극에 반응한 동공 수축의 개시, 지속 기간, 속도, 또는 가속도를 결정하는 동작을 포함하는 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기.
  13. 제11항에 있어서, 상기 행동 메트릭을 결정하는 동작은 외부 자극에 반응한 시선 전환의 개시, 지속 기간, 또는 가속도를 결정하는 동작을 포함하는 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기.
  14. 제11항에 있어서, 상기 공간 메트릭은 예상된 3차원 형상으로부터의 상기 서브젝트의 편차의 측정인 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기.
  15. 제11항에 있어서, 상기 공간 메트릭을 결정하는 동작은 상기 복수의 이미지에 나타나는 2 이상의 랜드마크의 시차를 결정하는 동작을 포함하는 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기.
  16. 제11항에 있어서, 상기 2 이상의 이미지를 얻는 동작은 감소된 동적 범위를 사용하여 이미지를 캡쳐하는 동작을 포함하고,
    감소된 동적 범위를 사용하여 캡쳐된 상기 이미지 내에서 하프톤(half-tones)을 검출하는 동작; 및
    상기 하프톤에 적어도 부분적으로 기초하여 상기 2 이상의 이미지를 거절 또는 수락하는 동작을 더 포함하는 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기.
  17. 제11항에 있어서, 상기 행동 메트릭을 결정하는 동작은 상기 눈이 상기 복수의 이미지에 나타남에 따라 상기 눈의 혈류를 검출하는 동작을 포함하는 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기.
  18. 제11항에 있어서, 상기 이미지를 얻는 동작은 센서를 사용하여 상기 이미지를 캡쳐하는 동작을 포함하고, 상기 반사율 메트릭을 결정하는 동작은,
    하나 이상의 상기 이미지가 캡쳐되는 동안 상기 서브젝트를 조명하기 위해 플래시를 펄싱하는 동작;
    상기 이미지 내의 상기 플래시로부터 상기 눈 상의 글레어의 출현을 감지하는 동작; 및
    상기 플래시의 펄싱과 상기 이미지 내의 상기 눈 상의 대응하는 글레어의 출현 사이의 시간차를 측정하는 동작을 포함하는 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기.
  19. 제11항에 있어서, 상기 이미지를 얻는 동작은 센서를 사용하여 상기 이미지를 캡쳐하는 동작을 포함하고, 상기 반사율 메트릭을 결정하는 동작은,
    하나 이상의 상기 이미지가 캡쳐되는 동안 상기 서브젝트를 조명하기 위해 플래시를 펄싱하는 동작; 및
    상기 이미지 내의 상기 플래시로부터 상기 눈 상의 글레어의 패턴에 대한 균일성을 측정함으로써 상기 눈 흰자위의 미세한 3차원 텍스처를 검출하는 동작을 포함하는 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기.
  20. 제11항에 있어서,
    상기 이미지 중 2 이상을 캡쳐하는 동안 복수의 상이한 설정에 대한 초점을 제어하는 센서 설정을 조정하는 동작; 및
    상이한 초점 설정으로 캡쳐된 이미지를 비교하여 이러한 이미지들이 각각의 초점 설정을 반영하는지 여부를 결정하는 동작을 더 포함하는 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기.
  21. 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기로서,
    눈의 뷰를 포함하는 서브젝트의 2 이상의 이미지 - 상기 이미지는 복수의 초점 거리를 총괄적으로 포함함 - 를 캡쳐하도록 구성된 센서;
    상기 센서에 의해 하나 이상의 이미지의 캡쳐와 동기화(synchronization)하여 빛의 자극을 제공하는 조명 요소(illumination element);
    상기 눈이 상기 복수의 이미지에 나타남에 따라 상기 눈의 검출된 움직임에 적어도 기초하여 행동 메트릭을 결정 - 상기 행동 메트릭은 상기 눈의 검출된 움직임 및 예상된 움직임으로부터의 타이밍의 편차의 측정임 - 하기 위한 수단;
    상이한 각각의 초점 거리를 각각 가지는 상기 복수의 이미지에 나타나는 랜드마크까지의 센서로부터의 거리에 적어도 기초하여 공간 메트릭을 결정하도록 구성된 모듈;
    상기 눈이 상기 복수의 이미지에 나타남에 따라 상기 눈의 표면상의 정반사 패턴 또는 표면 글레어의 검출된 변화에 적어도 기초하여 반사율 메트릭을 결정 - 상기 반사율 메트릭은 상기 눈의 상기 표면상의 정반사 패턴 또는 글레어의 변화의 측정임 - 하도록 구성된 모듈;
    상기 행동, 공간, 및 반사율 메트릭에 적어도 기초하여 점수를 결정하도록 구성된 모듈; 및
    상기 점수에 기초하여 상기 2 이상의 이미지를 거절 또는 수락하도록 구성된 인터페이스를 포함하는 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기.
  22. 제21항에 있어서, 상기 행동 메트릭을 결정하는 것은 빛의 자극에 반응한 동공 수축의 개시, 지속 기간, 속도, 또는 가속도를 결정하는 것을 포함하는 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기.
  23. 제21항에 있어서, 상기 행동 메트릭을 결정하는 것은 외부 자극에 반응한 시선 전환의 개시, 지속 기간, 또는 가속도를 결정하는 것을 포함하는 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기.
  24. 제21항에 있어서, 상기 공간 메트릭은 예상된 3차원 형상으로부터의 상기 서브젝트의 편차의 측정인 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기.
  25. 제21항에 있어서, 상기 공간 메트릭을 결정하는 것은 상기 복수의 이미지에 나타나는 2 이상의 랜드마크의 시차를 결정하는 것을 포함하는 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기.
  26. 제21항에 있어서,
    상기 센서는 감소된 동적 범위를 사용하여 서브젝트의 이미지를 캡쳐하도록 더 구성되고;
    감소된 동적 범위를 사용하여 캡쳐된 상기 이미지 내에서 하프톤(half-tones)을 검출하도록 구성된 모듈을 더 포함하고;
    상기 인터페이스는 상기 하프톤에 적어도 부분적으로 기초하여 상기 2 이상의 이미지를 거절 또는 수락하도록 더 구성되는 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기.
  27. 제21항에 있어서, 상기 행동 메트릭을 결정하는 것은 상기 눈이 상기 복수의 이미지에 나타남에 따라 상기 눈의 혈류를 검출하는 것을 포함하는 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기.
  28. 제21항에 있어서, 상기 반사율 메트릭을 결정하는 것은,
    하나 이상의 상기 이미지가 캡쳐되는 동안 상기 서브젝트를 조명하기 위해 플래시를 펄싱하는 것;
    상기 이미지 내의 상기 플래시로부터 상기 눈 상의 글레어의 출현을 감지하는 것; 및
    상기 플래시의 펄싱과 상기 이미지 내의 상기 눈 상의 대응하는 글레어의 출현 사이의 시간차를 측정하는 것을 포함하는 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기.
  29. 제21항에 있어서, 상기 반사율 메트릭을 결정하는 것은,
    하나 이상의 상기 이미지가 캡쳐되는 동안 상기 서브젝트를 조명하기 위해 플래시를 펄싱하는 것; 및
    상기 이미지 내의 상기 플래시로부터 상기 눈 상의 글레어의 패턴에 대한 균일성을 측정함으로써 상기 눈 흰자위의 미세한 3차원 텍스처를 검출하는 것을 포함하는 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기.
  30. 제21항에 있어서,
    상기 이미지 중 2 이상을 캡쳐하는 동안 복수의 상이한 설정에 대한 초점을 제어하는 센서 설정을 조정하고;
    상이한 초점 설정으로 캡쳐된 이미지를 비교하여 이러한 이미지들이 각각의 초점 설정을 반영하는지 여부를 결정하도록 구성된 모듈을 더 포함하는 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기.


KR20130076895A 2012-08-10 2013-07-02 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기 및 컴퓨터 구현 방법 KR101356358B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/572,097 US8437513B1 (en) 2012-08-10 2012-08-10 Spoof detection for biometric authentication
US13/572,097 2012-08-10

Publications (1)

Publication Number Publication Date
KR101356358B1 true KR101356358B1 (ko) 2014-01-27

Family

ID=48183297

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130076895A KR101356358B1 (ko) 2012-08-10 2013-07-02 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기 및 컴퓨터 구현 방법

Country Status (8)

Country Link
US (6) US8437513B1 (ko)
EP (1) EP2883189B1 (ko)
KR (1) KR101356358B1 (ko)
CN (3) CN103383723B (ko)
ES (1) ES2859554T3 (ko)
HK (3) HK1211716A1 (ko)
PL (1) PL2883189T3 (ko)
WO (1) WO2014025448A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101729959B1 (ko) * 2016-01-15 2017-05-12 한국과학기술원 눈동자 반응을 이용한 사용자 인증 시스템
KR20170078729A (ko) * 2014-10-30 2017-07-07 델타 아이디 아이엔씨. 홍채 기반 생체 측정 시스템에서의 도용 검출을 위한 시스템 및 방법
KR20170104521A (ko) * 2015-01-13 2017-09-15 사프란 아이덴티티 앤드 시큐리티 생동감 평가에 근거하는 비디오 스푸핑 검출을 위한 시스템 및 프로세스
KR20180022019A (ko) * 2016-08-23 2018-03-06 삼성전자주식회사 라이브니스 검사 방법 및 장치

Families Citing this family (202)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10037408B2 (en) 2013-03-15 2018-07-31 Jeffrey A. Matos Apparatus for preventing unauthorized access to computer files and for securing medical records
KR100840023B1 (ko) * 2007-11-13 2008-06-20 (주)올라웍스 셀프 촬영 시 얼굴의 구도를 잡도록 도와주는 방법 및시스템
KR101884337B1 (ko) * 2012-04-26 2018-08-01 삼성전자주식회사 영상 인식 방법 및 장치
US8437513B1 (en) 2012-08-10 2013-05-07 EyeVerify LLC Spoof detection for biometric authentication
US9230158B1 (en) 2012-12-18 2016-01-05 Amazon Technologies, Inc. Fraud detection for facial recognition systems
US8856541B1 (en) * 2013-01-10 2014-10-07 Google Inc. Liveness detection
US9530052B1 (en) * 2013-03-13 2016-12-27 University Of Maryland System and method for sensor adaptation in iris biometrics
EP3617987B1 (en) 2013-03-15 2021-10-06 Socure Inc. Risk assessment using social networking data
US10635167B2 (en) * 2013-05-30 2020-04-28 Umoove Services Ltd. Smooth pursuit gaze tracking
KR102043866B1 (ko) 2013-06-18 2019-11-12 델타 아이디 아이엔씨. 홍채 이미지 형성 장치 및 홍채 이미지 형성 장치의 구성 방법
BR112016007929B1 (pt) * 2013-10-11 2021-03-02 Hid Global Corporation sistema de acesso biométrico
US9305225B2 (en) 2013-10-14 2016-04-05 Daon Holdings Limited Methods and systems for determining user liveness
US9202119B2 (en) * 2013-10-18 2015-12-01 Daon Holdings Limited Methods and systems for determining user liveness
CN104683302A (zh) 2013-11-29 2015-06-03 国际商业机器公司 认证方法、认证装置、终端设备、认证服务器及系统
WO2015088479A1 (en) * 2013-12-09 2015-06-18 Intel Corporation Eye reflected content for verification of user liveliness
US9875393B2 (en) * 2014-02-12 2018-01-23 Nec Corporation Information processing apparatus, information processing method, and program
US20150227735A1 (en) * 2014-02-13 2015-08-13 Robert Chappell System and method for eye tracking authentication
JP6417676B2 (ja) * 2014-03-06 2018-11-07 ソニー株式会社 情報処理装置、情報処理方法、アイウェア端末および認証システム
SG11201608407UA (en) * 2014-04-07 2016-11-29 Eyeverify Inc Bio leash for user authentication
EP3145798B1 (en) 2014-05-16 2019-11-13 Divergent Technologies, Inc. Modular formed nodes for vehicle chassis and their methods of use
WO2015181729A1 (en) 2014-05-30 2015-12-03 University Of Johannesburg Method of determining liveness for eye biometric authentication
US9147117B1 (en) 2014-06-11 2015-09-29 Socure Inc. Analyzing facial recognition data and social network data for user authentication
CN117021566A (zh) 2014-07-02 2023-11-10 迪根特技术公司 用于制造接头构件的系统和方法
US20160005050A1 (en) * 2014-07-03 2016-01-07 Ari Teman Method and system for authenticating user identity and detecting fraudulent content associated with online activities
CA2902093C (en) 2014-08-28 2023-03-07 Kevin Alan Tussy Facial recognition authentication system including path parameters
US10614204B2 (en) 2014-08-28 2020-04-07 Facetec, Inc. Facial recognition authentication system including path parameters
US11256792B2 (en) 2014-08-28 2022-02-22 Facetec, Inc. Method and apparatus for creation and use of digital identification
US10803160B2 (en) 2014-08-28 2020-10-13 Facetec, Inc. Method to verify and identify blockchain with user question data
US10698995B2 (en) 2014-08-28 2020-06-30 Facetec, Inc. Method to verify identity using a previously collected biometric image/data
US10915618B2 (en) 2014-08-28 2021-02-09 Facetec, Inc. Method to add remotely collected biometric images / templates to a database record of personal information
US9405967B2 (en) * 2014-09-03 2016-08-02 Samet Privacy Llc Image processing apparatus for facial recognition
US10425814B2 (en) 2014-09-24 2019-09-24 Princeton Identity, Inc. Control of wireless communication device capability in a mobile device with a biometric key
WO2016076912A1 (en) 2014-11-13 2016-05-19 Intel Corporation Spoofing detection in image biometrics
US10198645B2 (en) * 2014-11-13 2019-02-05 Intel Corporation Preventing face-based authentication spoofing
US20180034852A1 (en) * 2014-11-26 2018-02-01 Isityou Ltd. Anti-spoofing system and methods useful in conjunction therewith
JP2018506872A (ja) 2014-12-03 2018-03-08 プリンストン・アイデンティティー・インコーポレーテッド モバイルデバイス生体アドオンのためのシステムおよび方法
US9928603B2 (en) 2014-12-31 2018-03-27 Morphotrust Usa, Llc Detecting facial liveliness
EP3240467A4 (en) * 2014-12-31 2018-12-26 Morphotrust Usa, LLC Detecting facial liveliness
US9886639B2 (en) 2014-12-31 2018-02-06 Morphotrust Usa, Llc Detecting facial liveliness
US9934443B2 (en) * 2015-03-31 2018-04-03 Daon Holdings Limited Methods and systems for detecting head motion during an authentication transaction
JP2016208438A (ja) * 2015-04-28 2016-12-08 ソニー株式会社 画像処理装置及び画像処理方法
CN106295287B (zh) 2015-06-10 2019-04-09 阿里巴巴集团控股有限公司 活体检测方法和装置以及身份认证方法和装置
CN104951769B (zh) * 2015-07-02 2018-11-30 京东方科技集团股份有限公司 活体识别装置、活体识别方法和活体认证系统
KR102407133B1 (ko) * 2015-08-21 2022-06-10 삼성전자주식회사 전자 장치 및 이의 콘텐트 변형 방법
US9857871B2 (en) 2015-09-04 2018-01-02 Sony Interactive Entertainment Inc. Apparatus and method for dynamic graphics rendering based on saccade detection
US9836643B2 (en) * 2015-09-11 2017-12-05 EyeVerify Inc. Image and feature quality for ocular-vascular and facial recognition
US10049272B2 (en) * 2015-09-24 2018-08-14 Microsoft Technology Licensing, Llc User authentication using multiple capture techniques
CN106557726B (zh) * 2015-09-25 2020-06-09 北京市商汤科技开发有限公司 一种带静默式活体检测的人脸身份认证系统及其方法
DE102015116627A1 (de) * 2015-09-30 2017-03-30 Friedrich Kisters Verfahren und Vorrichtung zur Authentifikation eines Objekts oder einer Person über ein modulartig aufgebautes Sicherheitselement
EP3398165B1 (en) * 2015-12-28 2023-02-01 Artilux Inc. Eye gesture tracking
EP3403217A4 (en) 2016-01-12 2019-08-21 Princeton Identity, Inc. SYSTEMS AND METHODS FOR BIOMETRIC ANALYSIS
US10372889B2 (en) * 2016-02-19 2019-08-06 At&T Mobility Ii Llc Event characteristic analysis for event input discrimination
WO2017151859A1 (en) 2016-03-02 2017-09-08 Tinoq Inc. Systems and methods for efficient face recognition
WO2017151747A1 (en) 2016-03-02 2017-09-08 EyeVerify Inc. Spoof detection using proximity sensors
KR20230109789A (ko) 2016-03-04 2023-07-20 매직 립, 인코포레이티드 Ar/vr 디스플레이 시스템들에서의 전류 드레인 감소
WO2017156188A1 (en) 2016-03-08 2017-09-14 Tinoq Inc. Systems and methods for a compound sensor system
KR102550587B1 (ko) 2016-03-25 2023-06-30 매직 립, 인코포레이티드 가상 및 증강 현실 시스템들 및 방법들
WO2017173168A1 (en) * 2016-03-30 2017-10-05 Tinoq Inc. Systems and methods for user detection and recognition
US10192528B2 (en) 2016-03-31 2019-01-29 Sony Interactive Entertainment Inc. Real-time user adaptive foveated rendering
US10401952B2 (en) 2016-03-31 2019-09-03 Sony Interactive Entertainment Inc. Reducing rendering computation and power consumption by detecting saccades and blinks
US10366296B2 (en) 2016-03-31 2019-07-30 Princeton Identity, Inc. Biometric enrollment systems and methods
US10373008B2 (en) 2016-03-31 2019-08-06 Princeton Identity, Inc. Systems and methods of biometric analysis with adaptive trigger
US10169846B2 (en) 2016-03-31 2019-01-01 Sony Interactive Entertainment Inc. Selective peripheral vision filtering in a foveated rendering system
US10372205B2 (en) * 2016-03-31 2019-08-06 Sony Interactive Entertainment Inc. Reducing rendering computation and power consumption by detecting saccades and blinks
USD987653S1 (en) 2016-04-26 2023-05-30 Facetec, Inc. Display screen or portion thereof with graphical user interface
US10643212B2 (en) 2016-05-15 2020-05-05 Bank Of America Corporation Linking channel-specific systems with a user authentication hub to provide omni-channel user authentication
US10666654B2 (en) 2016-05-15 2020-05-26 Bank Of America Corporation Linking channel-specific systems with a user authentication hub to provide omni-channel user authentication
KR102471916B1 (ko) * 2016-06-03 2022-11-29 엘지전자 주식회사 모바일 디바이스 및 그 제어 방법
US10173255B2 (en) 2016-06-09 2019-01-08 Divergent Technologies, Inc. Systems and methods for arc and node design and manufacture
CN109993233B (zh) * 2016-06-13 2022-11-01 第四范式(北京)技术有限公司 基于机器学习来预测数据审核目标的方法及系统
WO2018009568A1 (en) * 2016-07-05 2018-01-11 Wu Yecheng Spoofing attack detection during live image capture
US10289823B2 (en) * 2016-07-22 2019-05-14 Nec Corporation Camera system for traffic enforcement
CN106529423A (zh) * 2016-10-20 2017-03-22 鹄誉医疗科技(上海)有限公司 一种基于安卓系统的能量条人眼测距方法
US10430638B2 (en) * 2016-11-10 2019-10-01 Synaptics Incorporated Systems and methods for spoof detection relative to a template instead of on an absolute scale
US10452826B2 (en) * 2016-11-10 2019-10-22 EyeVerify Inc. Verified and private portable identity
US11205103B2 (en) 2016-12-09 2021-12-21 The Research Foundation for the State University Semisupervised autoencoder for sentiment analysis
SE1651684A1 (sv) * 2016-12-20 2018-06-21 Fingerprint Cards Ab Fingerprint sensing system configured to determine if a finger contacts a fingerprint sensor
CN110114777B (zh) * 2016-12-30 2023-10-20 托比股份公司 使用注视信息进行的用户的识别、认证和/或导引
US10759090B2 (en) 2017-02-10 2020-09-01 Divergent Technologies, Inc. Methods for producing panels using 3D-printed tooling shells
US11155005B2 (en) 2017-02-10 2021-10-26 Divergent Technologies, Inc. 3D-printed tooling and methods for producing same
ES2922136T3 (es) 2017-02-27 2022-09-08 Tobii Ab Determinación de la apertura ocular con un dispositivo de seguimiento ocular
GB2560340A (en) * 2017-03-07 2018-09-12 Eyn Ltd Verification method and system
US10817722B1 (en) 2017-03-20 2020-10-27 Cross Match Technologies, Inc. System for presentation attack detection in an iris or face scanner
US11301703B2 (en) * 2017-03-21 2022-04-12 Sri International Robust biometric access control based on dynamic structural changes in tissue
US10607096B2 (en) 2017-04-04 2020-03-31 Princeton Identity, Inc. Z-dimension user feedback biometric system
US10898968B2 (en) 2017-04-28 2021-01-26 Divergent Technologies, Inc. Scatter reduction in additive manufacturing
US10703419B2 (en) 2017-05-19 2020-07-07 Divergent Technologies, Inc. Apparatus and methods for joining panels
US11358337B2 (en) 2017-05-24 2022-06-14 Divergent Technologies, Inc. Robotic assembly of transport structures using on-site additive manufacturing
CN113095124B (zh) * 2017-06-07 2024-02-06 创新先进技术有限公司 一种人脸活体检测方法、装置以及电子设备
US11123973B2 (en) 2017-06-07 2021-09-21 Divergent Technologies, Inc. Interconnected deflectable panel and node
US10919230B2 (en) 2017-06-09 2021-02-16 Divergent Technologies, Inc. Node with co-printed interconnect and methods for producing same
US10380418B2 (en) * 2017-06-19 2019-08-13 Microsoft Technology Licensing, Llc Iris recognition based on three-dimensional signatures
US10781846B2 (en) 2017-06-19 2020-09-22 Divergent Technologies, Inc. 3-D-printed components including fasteners and methods for producing same
CN107358183B (zh) * 2017-06-30 2020-09-01 Oppo广东移动通信有限公司 虹膜活体检测方法及相关产品
US10994876B2 (en) 2017-06-30 2021-05-04 Divergent Technologies, Inc. Automated wrapping of components in transport structures
US11022375B2 (en) 2017-07-06 2021-06-01 Divergent Technologies, Inc. Apparatus and methods for additively manufacturing microtube heat exchangers
US10895315B2 (en) 2017-07-07 2021-01-19 Divergent Technologies, Inc. Systems and methods for implementing node to node connections in mechanized assemblies
EP3430973A1 (en) * 2017-07-19 2019-01-23 Sony Corporation Mobile system and method
US10751800B2 (en) 2017-07-25 2020-08-25 Divergent Technologies, Inc. Methods and apparatus for additively manufactured exoskeleton-based transport structures
US10940609B2 (en) 2017-07-25 2021-03-09 Divergent Technologies, Inc. Methods and apparatus for additively manufactured endoskeleton-based transport structures
CA3071100A1 (en) 2017-07-26 2019-01-31 Princeton Identity, Inc. Biometric security systems and methods
US11151235B2 (en) 2017-08-01 2021-10-19 Apple Inc. Biometric authentication techniques
CN115333754A (zh) * 2017-08-01 2022-11-11 苹果公司 用于生物特征认证的装置、方法和存储介质
US10605285B2 (en) 2017-08-08 2020-03-31 Divergent Technologies, Inc. Systems and methods for joining node and tube structures
US10357959B2 (en) 2017-08-15 2019-07-23 Divergent Technologies, Inc. Methods and apparatus for additively manufactured identification features
US11306751B2 (en) 2017-08-31 2022-04-19 Divergent Technologies, Inc. Apparatus and methods for connecting tubes in transport structures
US10960611B2 (en) 2017-09-06 2021-03-30 Divergent Technologies, Inc. Methods and apparatuses for universal interface between parts in transport structures
US11292058B2 (en) 2017-09-12 2022-04-05 Divergent Technologies, Inc. Apparatus and methods for optimization of powder removal features in additively manufactured components
CN107590463A (zh) * 2017-09-12 2018-01-16 广东欧珀移动通信有限公司 人脸识别方法及相关产品
EA202090770A1 (ru) * 2017-09-18 2020-08-21 Элемент, Инк. Способы, системы и носители данных для обнаружения спуфинга в мобильной аутентификации
CN109583285B (zh) * 2017-09-29 2023-03-07 阿里巴巴集团控股有限公司 对象识别方法
US10814564B2 (en) 2017-10-11 2020-10-27 Divergent Technologies, Inc. Composite material inlay in additively manufactured structures
US10668816B2 (en) 2017-10-11 2020-06-02 Divergent Technologies, Inc. Solar extended range electric vehicle with panel deployment and emitter tracking
CN107491775A (zh) * 2017-10-13 2017-12-19 理光图像技术(上海)有限公司 人脸活体检测方法、装置、存储介质及设备
US11786971B2 (en) 2017-11-10 2023-10-17 Divergent Technologies, Inc. Structures and methods for high volume production of complex structures using interface nodes
CN107992866B (zh) * 2017-11-15 2018-06-29 上海聚虹光电科技有限公司 基于视频流眼部反光点的活体检测方法
US10926599B2 (en) 2017-12-01 2021-02-23 Divergent Technologies, Inc. Suspension systems using hydraulic dampers
US11110514B2 (en) 2017-12-14 2021-09-07 Divergent Technologies, Inc. Apparatus and methods for connecting nodes to tubes in transport structures
US11085473B2 (en) 2017-12-22 2021-08-10 Divergent Technologies, Inc. Methods and apparatus for forming node to panel joints
US11534828B2 (en) 2017-12-27 2022-12-27 Divergent Technologies, Inc. Assembling structures comprising 3D printed components and standardized components utilizing adhesive circuits
US11420262B2 (en) 2018-01-31 2022-08-23 Divergent Technologies, Inc. Systems and methods for co-casting of additively manufactured interface nodes
US10751934B2 (en) 2018-02-01 2020-08-25 Divergent Technologies, Inc. Apparatus and methods for additive manufacturing with variable extruder profiles
US10944767B2 (en) 2018-02-01 2021-03-09 International Business Machines Corporation Identifying artificial artifacts in input data to detect adversarial attacks
US11224943B2 (en) 2018-03-07 2022-01-18 Divergent Technologies, Inc. Variable beam geometry laser-based powder bed fusion
US11267236B2 (en) 2018-03-16 2022-03-08 Divergent Technologies, Inc. Single shear joint for node-to-node connections
US11254381B2 (en) 2018-03-19 2022-02-22 Divergent Technologies, Inc. Manufacturing cell based vehicle manufacturing system and method
US11872689B2 (en) 2018-03-19 2024-01-16 Divergent Technologies, Inc. End effector features for additively manufactured components
US11408216B2 (en) 2018-03-20 2022-08-09 Divergent Technologies, Inc. Systems and methods for co-printed or concurrently assembled hinge structures
US11613078B2 (en) 2018-04-20 2023-03-28 Divergent Technologies, Inc. Apparatus and methods for additively manufacturing adhesive inlet and outlet ports
US11214317B2 (en) 2018-04-24 2022-01-04 Divergent Technologies, Inc. Systems and methods for joining nodes and other structures
US10682821B2 (en) 2018-05-01 2020-06-16 Divergent Technologies, Inc. Flexible tooling system and method for manufacturing of composite structures
US11020800B2 (en) 2018-05-01 2021-06-01 Divergent Technologies, Inc. Apparatus and methods for sealing powder holes in additively manufactured parts
WO2019216499A1 (ko) * 2018-05-08 2019-11-14 엘지전자 주식회사 전자 장치 및 그 제어 방법
WO2019216498A1 (en) * 2018-05-08 2019-11-14 Lg Electronics Inc. Electronic device and method for controlling the same
US11389816B2 (en) 2018-05-09 2022-07-19 Divergent Technologies, Inc. Multi-circuit single port design in additively manufactured node
US10803159B2 (en) 2018-05-14 2020-10-13 Lg Electronics Inc. Electronic device and method for controlling the same
US10691104B2 (en) 2018-05-16 2020-06-23 Divergent Technologies, Inc. Additively manufacturing structures for increased spray forming resolution or increased fatigue life
US11590727B2 (en) 2018-05-21 2023-02-28 Divergent Technologies, Inc. Custom additively manufactured core structures
US11441586B2 (en) 2018-05-25 2022-09-13 Divergent Technologies, Inc. Apparatus for injecting fluids in node based connections
US11035511B2 (en) 2018-06-05 2021-06-15 Divergent Technologies, Inc. Quick-change end effector
JP2021527980A (ja) * 2018-06-18 2021-10-14 シーイング マシーンズ リミテッド 高フレームレート画像前処理システム及び方法
US11292056B2 (en) 2018-07-06 2022-04-05 Divergent Technologies, Inc. Cold-spray nozzle
WO2020007495A1 (en) * 2018-07-06 2020-01-09 Veridas Digital Authentication Solutions, S.L. Authenticating a user
US10943348B2 (en) * 2018-07-18 2021-03-09 Case Western Reserve University Predicting response to anti-vascular endothelial growth factor therapy with computer-extracted morphology and spatial arrangement features of leakage patterns on baseline fluorescein angiography in diabetic macular edema
US11966055B2 (en) 2018-07-19 2024-04-23 Magic Leap, Inc. Content interaction driven by eye metrics
US11269311B2 (en) 2018-07-26 2022-03-08 Divergent Technologies, Inc. Spray forming structural joints
US11386719B2 (en) * 2018-08-16 2022-07-12 Samsung Electronics Co.. Ltd. Electronic device and operating method therefor
WO2020041352A1 (en) 2018-08-21 2020-02-27 Tinoq Inc. Systems and methods for member facial recognition based on context information
WO2020046815A1 (en) * 2018-08-26 2020-03-05 The Research Foundation For The State University Of New York System and method for inter-individual discrimination based on oculomotor kinematics
US10836120B2 (en) 2018-08-27 2020-11-17 Divergent Technologies, Inc . Hybrid composite structures with integrated 3-D printed elements
US11433557B2 (en) 2018-08-28 2022-09-06 Divergent Technologies, Inc. Buffer block apparatuses and supporting apparatuses
US11826953B2 (en) 2018-09-12 2023-11-28 Divergent Technologies, Inc. Surrogate supports in additive manufacturing
CN109376595B (zh) * 2018-09-14 2023-06-23 杭州宇泛智能科技有限公司 基于人眼注意力的单目rgb摄像头活体检测方法及系统
CN109344763A (zh) * 2018-09-26 2019-02-15 汕头大学 一种基于卷积神经网络的斜眼检测方法
US11072371B2 (en) 2018-10-05 2021-07-27 Divergent Technologies, Inc. Apparatus and methods for additively manufactured structures with augmented energy absorption properties
US11260582B2 (en) 2018-10-16 2022-03-01 Divergent Technologies, Inc. Methods and apparatus for manufacturing optimized panels and other composite structures
US10885363B2 (en) * 2018-10-25 2021-01-05 Advanced New Technologies Co., Ltd. Spoof detection using structured light illumination
US11504912B2 (en) 2018-11-20 2022-11-22 Divergent Technologies, Inc. Selective end effector modular attachment device
USD911222S1 (en) 2018-11-21 2021-02-23 Divergent Technologies, Inc. Vehicle and/or replica
US11449021B2 (en) 2018-12-17 2022-09-20 Divergent Technologies, Inc. Systems and methods for high accuracy fixtureless assembly
US11529741B2 (en) 2018-12-17 2022-12-20 Divergent Technologies, Inc. System and method for positioning one or more robotic apparatuses
US10663110B1 (en) 2018-12-17 2020-05-26 Divergent Technologies, Inc. Metrology apparatus to facilitate capture of metrology data
US11885000B2 (en) 2018-12-21 2024-01-30 Divergent Technologies, Inc. In situ thermal treatment for PBF systems
EP3915045A2 (en) * 2019-02-21 2021-12-01 Next Biometrics Group ASA Method of detecting replay attacks in a fingerprint sensor system
US11343277B2 (en) 2019-03-12 2022-05-24 Element Inc. Methods and systems for detecting spoofing of facial recognition in connection with mobile devices
US10985951B2 (en) 2019-03-15 2021-04-20 The Research Foundation for the State University Integrating Volterra series model and deep neural networks to equalize nonlinear power amplifiers
US10599934B1 (en) * 2019-03-21 2020-03-24 Alibaba Group Hoding Limited Spoof detection using optokinetic response
US20200314411A1 (en) 2019-03-29 2020-10-01 Alibaba Group Holding Limited Synchronizing an illumination sequence of illumination sources with image capture in rolling shutter mode
US11203240B2 (en) 2019-04-19 2021-12-21 Divergent Technologies, Inc. Wishbone style control arm assemblies and methods for producing same
CN110210321B (zh) * 2019-05-08 2020-11-24 华南理工大学 基于多维尺度变换网络与分块加权法的欠样本人脸识别方法
IT201900011403A1 (it) * 2019-07-10 2021-01-10 Ambarella Int Lp Detecting illegal use of phone to prevent the driver from getting a fine
KR20220062595A (ko) * 2019-09-12 2022-05-17 아이덴티 인크. 사용자의 생체 특성을 갖는 사용자의 객체 이미지로부터 데이터를 획득하는 방법(A method for obtaining data from an image of an object of a user that has a biometric characteristic of the user)
US11348375B2 (en) 2019-10-15 2022-05-31 Assa Abloy Ab Systems and methods for using focal stacks for image-based spoof detection
US11294996B2 (en) 2019-10-15 2022-04-05 Assa Abloy Ab Systems and methods for using machine learning for image-based spoof detection
US11507248B2 (en) 2019-12-16 2022-11-22 Element Inc. Methods, systems, and media for anti-spoofing using eye-tracking
US10928904B1 (en) 2019-12-31 2021-02-23 Logitech Europe S.A. User recognition and gaze tracking in a video system
US11163995B2 (en) * 2019-12-31 2021-11-02 Logitech Europe S.A. User recognition and gaze tracking in a video system
US11912339B2 (en) 2020-01-10 2024-02-27 Divergent Technologies, Inc. 3-D printed chassis structure with self-supporting ribs
US11590703B2 (en) 2020-01-24 2023-02-28 Divergent Technologies, Inc. Infrared radiation sensing and beam control in electron beam additive manufacturing
KR20210101049A (ko) 2020-02-07 2021-08-18 삼성전자주식회사 전자 장치 및 객체 인식 방법
US11884025B2 (en) 2020-02-14 2024-01-30 Divergent Technologies, Inc. Three-dimensional printer and methods for assembling parts via integration of additive and conventional manufacturing operations
US11479015B2 (en) 2020-02-14 2022-10-25 Divergent Technologies, Inc. Custom formed panels for transport structures and methods for assembling same
US11535322B2 (en) 2020-02-25 2022-12-27 Divergent Technologies, Inc. Omni-positional adhesion device
US11421577B2 (en) 2020-02-25 2022-08-23 Divergent Technologies, Inc. Exhaust headers with integrated heat shielding and thermal syphoning
US11413686B2 (en) 2020-03-06 2022-08-16 Divergent Technologies, Inc. Methods and apparatuses for sealing mechanisms for realizing adhesive connections with additively manufactured components
SG10202005118QA (en) * 2020-06-01 2021-08-30 Alipay Labs Singapore Pte Ltd Authentication method and system
EP3933666A1 (en) * 2020-07-01 2022-01-05 Smart Eye AB Anti-spoofing system
US11275959B2 (en) 2020-07-07 2022-03-15 Assa Abloy Ab Systems and methods for enrollment in a multispectral stereo facial recognition system
US11850804B2 (en) 2020-07-28 2023-12-26 Divergent Technologies, Inc. Radiation-enabled retention features for fixtureless assembly of node-based structures
US11806941B2 (en) 2020-08-21 2023-11-07 Divergent Technologies, Inc. Mechanical part retention features for additively manufactured structures
US11995808B2 (en) 2020-09-04 2024-05-28 Abova, Inc Method for X-ray dental image enhancement
US11872626B2 (en) 2020-12-24 2024-01-16 Divergent Technologies, Inc. Systems and methods for floating pin joint design
US11947335B2 (en) 2020-12-30 2024-04-02 Divergent Technologies, Inc. Multi-component structure optimization for combining 3-D printed and commercially available parts
US11928966B2 (en) 2021-01-13 2024-03-12 Divergent Technologies, Inc. Virtual railroad
CN116917129A (zh) 2021-03-09 2023-10-20 戴弗根特技术有限公司 旋转式增材制造系统和方法
CN112990373B (zh) * 2021-04-28 2021-08-03 四川大学 基于多尺度特征融合的卷积孪生点网络叶片轮廓拼接系统
US11865617B2 (en) 2021-08-25 2024-01-09 Divergent Technologies, Inc. Methods and apparatuses for wide-spectrum consumption of output of atomization processes across multi-process and multi-scale additive manufacturing modalities
CN113729708B (zh) * 2021-09-10 2023-06-20 上海理工大学 一种基于眼动技术的谎言评判方法
CN113780239B (zh) * 2021-09-27 2024-03-12 上海聚虹光电科技有限公司 虹膜识别方法、装置、电子设备和计算机可读介质
CN114756848B (zh) * 2022-06-15 2022-09-02 国网浙江省电力有限公司 基于基础数据采集模型的工程数字化审计数据处理方法
GB202210043D0 (en) * 2022-07-08 2022-08-24 Rewire Holding Ltd System and method
WO2024103084A1 (en) * 2022-11-15 2024-05-23 Cerman Eren Process and system for determining an eye position data set

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7327860B2 (en) 2005-05-04 2008-02-05 West Virginia University Conjunctival scans for personal identification
US20110033091A1 (en) 2008-04-06 2011-02-10 Hitoshi Fujii Method of authenticating individual and apparatus of authenticating individual used for the same

Family Cites Families (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5291560A (en) 1991-07-15 1994-03-01 Iri Scan Incorporated Biometric personal identification system based on iris analysis
US5303709A (en) 1991-12-16 1994-04-19 Dreher Andreas W Retinal eye disease diagnostic system
US5632282A (en) 1993-07-20 1997-05-27 Hay; S. Hutson Ocular disease detection apparatus
US6095989A (en) 1993-07-20 2000-08-01 Hay; Sam H. Optical recognition methods for locating eyes
US6707484B1 (en) 1994-07-28 2004-03-16 Semiconductor Energy Laboratory Co., Ltd. Information processing system
JP3315648B2 (ja) * 1998-07-17 2002-08-19 沖電気工業株式会社 アイリスコード生成装置およびアイリス認識システム
KR100320188B1 (ko) 1999-03-23 2002-01-10 구자홍 홍채인식 시스템의 위조 판별방법
US6839151B1 (en) 2000-02-02 2005-01-04 Zoran Corporation System and method for color copy image processing
AU2000243889A1 (en) * 2000-05-16 2001-11-26 Swisscom Mobile Ag Biometric method for identification and authorisation
FR2831302A1 (fr) 2001-10-19 2003-04-25 St Microelectronics Sa Codage d'informations concentriques
AU2003245458A1 (en) 2002-06-12 2003-12-31 Advanced Research And Technology Institute, Inc. Method and apparatus for improving both lateral and axial resolution in ophthalmoscopy
JP2004023733A (ja) 2002-06-20 2004-01-22 Canon Inc 画像撮影装置及びその制御方法
US7668351B1 (en) 2003-01-17 2010-02-23 Kestrel Corporation System and method for automation of morphological segmentation of bio-images
WO2004073501A2 (en) 2003-02-20 2004-09-02 Gutin Mikhail Optical coherence tomography with 3d coherence scanning
US7336806B2 (en) 2004-03-22 2008-02-26 Microsoft Corporation Iris-based biometric identification
US20050281440A1 (en) 2004-06-18 2005-12-22 Pemer Frederick A Iris feature detection and sensor-based edge detection
US7155040B2 (en) 2004-06-29 2006-12-26 Bio-Key International, Inc. Generation of quality field information in the context of image processing
CA2588202A1 (en) 2004-11-19 2006-05-26 Triad Biometrics, Llc Methods and systems for use in biometric authentication and/or identification
GB0427205D0 (en) 2004-12-11 2005-01-12 Ncr Int Inc Biometric system
US7287013B2 (en) 2005-01-14 2007-10-23 Ultra-Scan Corporation Multimodal fusion decision logic system
WO2006088042A1 (ja) * 2005-02-16 2006-08-24 Matsushita Electric Industrial Co., Ltd. 生体判別装置および認証装置ならびに生体判別方法
US8260008B2 (en) 2005-11-11 2012-09-04 Eyelock, Inc. Methods for performing biometric recognition of a human eye and corroboration of same
US7801335B2 (en) * 2005-11-11 2010-09-21 Global Rainmakers Inc. Apparatus and methods for detecting the presence of a human eye
WO2007124450A2 (en) 2006-04-21 2007-11-01 The Trustees Of The University Of Pennsylvania Motion artifact compensation
US20070286462A1 (en) 2006-04-28 2007-12-13 David Usher System and method for biometric retinal identification
KR100852629B1 (ko) * 2006-06-02 2008-08-18 연세대학교 산학협력단 다초점 영상 시퀀스를 이용한 홍채인식 시스템 및 방법
US20070291277A1 (en) 2006-06-20 2007-12-20 Everett Matthew J Spectral domain optical coherence tomography system
PL380581A1 (pl) * 2006-09-07 2008-03-17 Naukowa I Akademicka Sieć Komputerowa Sposób testowania żywotności oka i urządzenie do testowania żywotności oka
US20080298642A1 (en) 2006-11-03 2008-12-04 Snowflake Technologies Corporation Method and apparatus for extraction and matching of biometric detail
WO2008124832A1 (en) 2007-04-10 2008-10-16 University Of Rochester Structured illumination for imaging of stationary and non-stationary, fluorescent and non-flourescent objects
FI20070501A0 (fi) * 2007-06-21 2007-06-21 Timo Tapani Lehto Menetelmä ja järjestelmä ihmisen tunnistamiseksi
WO2009029757A1 (en) * 2007-09-01 2009-03-05 Global Rainmakers, Inc. System and method for iris data acquisition for biometric identification
US8345935B2 (en) * 2008-03-17 2013-01-01 International Business Machines Corporation Detecting behavioral deviations by measuring eye movements
US8079711B2 (en) 2008-04-24 2011-12-20 Carl Zeiss Meditec, Inc. Method for finding the lateral position of the fovea in an SDOCT image volume
ES2337866B2 (es) 2008-07-24 2011-02-14 Universidad Complutense De Madrid Reconocimiento biometrico mediante estudio del mapa de superficie delsegundo dioptrio ocular.
US8090246B2 (en) * 2008-08-08 2012-01-03 Honeywell International Inc. Image acquisition system
CN101404059B (zh) * 2008-09-24 2010-09-29 中国科学院自动化研究所 基于块状纹理采样的虹膜图像数据库合成方法
US9226798B2 (en) 2008-10-10 2016-01-05 Truevision Systems, Inc. Real-time surgical reference indicium apparatus and methods for surgical applications
TWI394085B (zh) * 2008-10-28 2013-04-21 Asustek Comp Inc 辨識被攝主體之維度形態的方法
US8514277B2 (en) 2008-11-05 2013-08-20 Dyer Holdings, Llc Video infrared retinal image scanner
US8280119B2 (en) 2008-12-05 2012-10-02 Honeywell International Inc. Iris recognition system using quality metrics
KR20100073191A (ko) * 2008-12-22 2010-07-01 한국전자통신연구원 거리 정보를 이용한 위조 얼굴 검출 방법 및 장치
WO2010129074A1 (en) 2009-01-14 2010-11-11 Indiana University Research & Technology Corporation System and method for identifying a person with reference to a sclera image
CN101540890A (zh) * 2009-04-28 2009-09-23 南京航空航天大学 一种获得监控视频中运动人体清晰人脸图像的方法
GB2471192B (en) 2009-06-15 2011-08-17 Honeywell Int Inc An iris and ocular recognition system using trace transforms
CN102238370A (zh) * 2010-04-30 2011-11-09 鸿富锦精密工业(深圳)有限公司 摄像装置及利用其获取清晰图像的方法
CN101923640B (zh) * 2010-08-04 2013-03-20 北京中科虹霸科技有限公司 基于鲁棒纹理特征和机器学习对伪造虹膜图像判别的方法
CN102446270A (zh) * 2010-10-15 2012-05-09 汉王科技股份有限公司 基于人脸识别的监测装置及监测方法
US8659697B2 (en) * 2010-11-11 2014-02-25 DigitalOptics Corporation Europe Limited Rapid auto-focus using classifier chains, MEMS and/or multiple object focusing
CN102436591B (zh) * 2011-11-15 2013-09-25 中国科学院自动化研究所 伪造虹膜图像的判别方法
US8235529B1 (en) 2011-11-30 2012-08-07 Google Inc. Unlocking a screen using eye tracking information
CN102592136B (zh) * 2011-12-21 2013-10-16 东南大学 基于几何图像中中频信息的三维人脸识别方法
US8457367B1 (en) 2012-06-26 2013-06-04 Google Inc. Facial recognition
US8369595B1 (en) 2012-08-10 2013-02-05 EyeVerify LLC Texture features for biometric authentication
US8437513B1 (en) 2012-08-10 2013-05-07 EyeVerify LLC Spoof detection for biometric authentication
US9672341B2 (en) * 2014-10-30 2017-06-06 Delta ID Inc. Systems and methods for spoof detection in iris based biometric systems

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7327860B2 (en) 2005-05-04 2008-02-05 West Virginia University Conjunctival scans for personal identification
US20110033091A1 (en) 2008-04-06 2011-02-10 Hitoshi Fujii Method of authenticating individual and apparatus of authenticating individual used for the same

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Kalka, N.D. et al., "Estimating and Fusing Quality Factors for Iris Biometric Images", Systems, Man and Cybernetics, Part A: System and Humans, IEEE Transactions on, vol. 40, No. 3, pp. 509-524. *
Kevin W. Bowyer et al., "A Survey of Iris Biometrics Research: 2008-2010", Handbook of Iris Recognition, editors, Springer, 2012. *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170078729A (ko) * 2014-10-30 2017-07-07 델타 아이디 아이엔씨. 홍채 기반 생체 측정 시스템에서의 도용 검출을 위한 시스템 및 방법
KR102387184B1 (ko) * 2014-10-30 2022-04-14 델타 아이디 아이엔씨. 홍채 기반 생체 측정 시스템에서의 도용 검출을 위한 시스템 및 방법
KR20170104521A (ko) * 2015-01-13 2017-09-15 사프란 아이덴티티 앤드 시큐리티 생동감 평가에 근거하는 비디오 스푸핑 검출을 위한 시스템 및 프로세스
KR102321397B1 (ko) 2015-01-13 2021-11-04 아이데미아 아이덴티티 앤드 시큐리티 프랑스 생동감 평가에 근거하는 비디오 스푸핑 검출을 위한 시스템 및 프로세스
KR101729959B1 (ko) * 2016-01-15 2017-05-12 한국과학기술원 눈동자 반응을 이용한 사용자 인증 시스템
KR20180022019A (ko) * 2016-08-23 2018-03-06 삼성전자주식회사 라이브니스 검사 방법 및 장치
KR102483642B1 (ko) * 2016-08-23 2023-01-02 삼성전자주식회사 라이브니스 검사 방법 및 장치

Also Published As

Publication number Publication date
HK1211721A1 (en) 2016-05-27
ES2859554T3 (es) 2021-10-04
CN104537292B (zh) 2018-06-05
US8675925B2 (en) 2014-03-18
US9104921B2 (en) 2015-08-11
US20140198959A1 (en) 2014-07-17
US8437513B1 (en) 2013-05-07
HK1211716A1 (en) 2016-05-27
EP2883189A1 (en) 2015-06-17
US20160132735A1 (en) 2016-05-12
WO2014025448A1 (en) 2014-02-13
EP2883189B1 (en) 2021-02-17
US20140044318A1 (en) 2014-02-13
CN104598882A (zh) 2015-05-06
US20140044321A1 (en) 2014-02-13
CN103383723B (zh) 2015-02-11
US20150193666A1 (en) 2015-07-09
PL2883189T3 (pl) 2021-09-20
US8787628B1 (en) 2014-07-22
US9971920B2 (en) 2018-05-15
CN103383723A (zh) 2013-11-06
CN104537292A (zh) 2015-04-22
HK1189673A1 (en) 2014-06-13
CN104598882B (zh) 2019-06-14

Similar Documents

Publication Publication Date Title
KR101356358B1 (ko) 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기 및 컴퓨터 구현 방법
KR101309889B1 (ko) 바이오메트릭 인증을 위한 텍스처 특징
KR101495430B1 (ko) 바이오메트릭 인증을 위한 품질 메트릭
US11657133B2 (en) Systems and methods of multi-modal biometric analysis
CN112868028A (zh) 利用虹膜图像的欺骗检测
US11335119B1 (en) Spoof detection based on red-eye effects

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170113

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180119

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20200109

Year of fee payment: 7