KR20170126444A - 안면 실감 검출 - Google Patents

안면 실감 검출 Download PDF

Info

Publication number
KR20170126444A
KR20170126444A KR1020177021245A KR20177021245A KR20170126444A KR 20170126444 A KR20170126444 A KR 20170126444A KR 1020177021245 A KR1020177021245 A KR 1020177021245A KR 20177021245 A KR20177021245 A KR 20177021245A KR 20170126444 A KR20170126444 A KR 20170126444A
Authority
KR
South Korea
Prior art keywords
illumination
subject
change
illuminator
facial
Prior art date
Application number
KR1020177021245A
Other languages
English (en)
Inventor
브라이언 마틴
Original Assignee
모포트러스트 유에스에이, 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 모포트러스트 유에스에이, 엘엘씨 filed Critical 모포트러스트 유에스에이, 엘엘씨
Publication of KR20170126444A publication Critical patent/KR20170126444A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/117Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for examining the anterior chamber or the anterior chamber angle, e.g. gonioscopes
    • A61B3/1173Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for examining the anterior chamber or the anterior chamber angle, e.g. gonioscopes for examining the eye lens
    • A61B3/1176Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for examining the anterior chamber or the anterior chamber angle, e.g. gonioscopes for examining the eye lens for determining lens opacity, e.g. cataract
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • A61B5/1176Recognition of faces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/107Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining the shape or measuring the curvature of the cornea
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/15Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing
    • A61B3/152Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing for aligning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination

Abstract

안면 실제감을 검출하기 위한 방법, 시스템, 및 컴퓨터 판독형 저장 매체가 제공된다. 구현예는 대상자의 제1 안면 이미지와 제2 안면 이미지를 처리하여, 물체의 제1 각막 반사 및 제2 각막 반사를 결정하는 동작 - 상기 제1 안면 이미지 및 제2 안면 이미지는 순차적인 제1 시점 및 제2 시점에서 캡처됨 - , 결정된 제1 각막 반사 및 제2 각막 반사를 기초로 물체의 각막 반사 변화를 결정하는 동작, 물체의 결정된 각막 반사 변화를 제1 시점 및 제2 시점과 연관된 알려진 변화에 비교하는 동작, 및 상기 비교의 결과를 기초로 대상자의 안면 실제감을 결정하는 동작을 포함한다. 알려진 변화는 카메라 장치의 모션 또는 조명기의 조명 변화일 수 있다.

Description

안면 실감 검출
관련 출원에 대한 교차 참조
이 출원은 35 USC §119(e)에 따라 2014년 12월 31일에 출원된 미국 가특허출원 번호 62/098,575 및 2014년 12월 31일에 출원된 미국 가특허출원 번호 62/098,596으로부터 우선권을 주장하고, 이들 출원의 전체 내용은 본 명세서에 참조로서 포함된다.
기술분야
본 발명은 일반적으로 컴퓨터 기반 인증과 관련된다.
소비자와 상인 간 거래가 신원 도용, 신원 사기, 스푸핑, 피싱(phishing) 등의 위험에 빠질 수 있고, 이들 모두 잠재적으로 상거래의 흐름을 방해할 수 있다.
본 발명의 구현예는 안면 실제감을 검출하기 위한 컴퓨터로 구현되는 방법을 포함한다. 일부 구현예에서, 방법은 대상자의 제1 안면 이미지와 제2 안면 이미지를 처리하여, 물체의 제1 각막 반사 및 제2 각막 반사를 결정하는 단계 - 상기 제1 안면 이미지 및 제2 안면 이미지는 순차적인 제1 시점 및 제2 시점에서 캡처됨 - , 결정된 제1 각막 반사 및 제2 각막 반사를 기초로 물체의 각막 반사 변화를 결정하는 단계, 물체의 결정된 각막 반사 변화를 제1 시점 및 제2 시점과 연관된 알려진 변화에 비교하는 단계, 및 상기 비교의 결과를 기초로 대상자의 안면 실제감을 결정하는 단계를 포함한다. 알려진 변화는 카메라 장치의 모션 또는 조명기의 조명 변화일 수 있다.
본 발명의 구현예는 또한 안면 실제감을 검출하기 위한 컴퓨터로 구현된 방법을 포함할 수 있으며, 상기 방법은 대상자의 제1 안면 이미지 및 제2 안면 이미지를 처리하여 물체의 제1 각막 반사 및 제2 각막 반사를 결정하는 단계 - 제1 안면 이미지 및 제2 안면 이미지는 순차적인 제1 시점 및 제2 시점에서 캡처됨 - , 결정된 제1 각막 반사 및 제2 각막 반사를 기초로 물체의 각막 반사 변화를 결정하는 단계, 물체의 결정된 각막 반사 변화를 제1 시점 및 제2 시점과 연관된 모션에 비교하는 단계, 및 비교의 결과를 기초로 대상자의 안면 실제감을 결정하는 단계를 포함한다.
이들 및 그 밖의 다른 구현예가 선택사항으로서 다음의 특징 중 하나 이상을 포함할 수 있다: 물체의 결정된 각막 반사 변화를 모션에 비교하는 단계는 물체의 결정된 각막 반사 변화를 모션에 상관시키는 단계, 상관의 결과를 기초로 매칭 품질을 점수화하는 단계, 및 물체의 결정된 각막 반사 변화를 지정 임계치에 비교하는 단계를 포함한다. 대상자의 안면 실제감을 결정하는 단계는 물체의 결정된 각막 반사 변화가 지정된 임계치를 초과한다는 결정에 응답하여 대상자의 안면이 실물이라고 결정하는 단계를 포함한다. 상기 단계는 물체의 기대 각막 반사를 결정하는 단계를 더 포함한다. 단계는 결정된 제1 각막 반사 및 모션을 기초로 제2 시점에서 물체의 기대 각막 반사를 결정하는 단계 및 기대 각막 반사와 결정된 제2 각막 반사 간 우도(likelihood)를 결정함으로써 대상자의 안면 실제감을 평가하는 단계를 더 포함한다.
일부 구현예에서, 물체의 각막 반사 변화는 물체의 각막 반사의 위치 변화를 포함한다. 모션은 제1 위치와 제2 위치 간 물체의 운동과 연관될 수 있고, 제1 안면 이미지는 물체가 제1 위치에 있는 제1 시점에서 캡처될 수 있고 제2 안면 이미지는 물체가 제2 위치에 있는 제2 시점에서 캡처될 수 있다. 상기 단계는 센서에 의해 측정된 물체의 움직임의 정보를 수신하는 단계, 및 물체의 움직임의 수신된 정보를 기초로 모션을 결정하는 단계를 더 포함할 수 있다. 일부 경우, 단계는 대상자가 물체를 이동시키게 하는 단계를 포함한다. 일부 경우, 물체의 움직임은 대상자의 자연적인 모션과 연관된다.
동작은 컴퓨팅 장치에 포함될 수 있는 하나 이상의 프로세서에 의해 실행된다. 컴퓨팅 장치는 물체 및 센서를 포함할 수 있고 물체는 카메라 장치일 수 있고 센서는 가속도계, 자이로스코프, 및 전역 위치확인 시스템(GPS) 중 적어도 하나를 포함할 수 있다. 단계는 센서를 이용하여, 물체가 움직이는 중이라고 결정하는 단계, 및 대상자의 안면 이미지를 캡처하도록 카메라 장치에게 요청하는 단계를 더 포함할 수 있다.
일부 예시에서, 모션은 물체에 대한 지정 모션이고, 물체는 지정 모션을 기초로 제1 위치에서 제2 위치로 이동된다. 일부 예시에서, 제1 안면 이미지와 제2 안면 이미지는 물체의 움직임 동안 정적인 제2 물체를 포함하고, 단계는 제1 안면 이미지 및 제2 안면 이미지에서 제2 물체의 위치 변화를 기초로 모션을 결정하는 단계를 더 포함한다.
단계는 물체에 연결된 제어기로 명령어를 전송하는 단계를 포함할 수 있고, 상기 명령어는 물체를 이동시키도록 제어기에게 지시한다. 명령어는 물체의 지정 모션을 포함할 수 있고, 지정 모션은 물체에 대한 이전 지정 모션과 상이하다.
일부 구현예에서, 단계는 제1 시점 및 제2 시점을 포함하는 순차적인 시점에서 대상자의 안면 이미지를 캡처하기 위한 명령어를 카메라로 전송하는 단계, 및 카메라 장치로부터 캡처된 안면 이미지를 수신하는 단계를 포함한다. 카메라 장치로부터 캡처된 안면 이미지를 수신하는 단계는 카메라 장치로부터 비디오 스트림 피드를 수신하는 단계를 포함할 수 있고, 비디오 스트림 피드는 캡처된 안면 이미지를 포함한다. 일부 예시에서, 카메라 장치는 제1 시점과 제2 시점 간에 제1 위치에서 제2 위치로 이동된다. 카메라 장치가 제1 위치에 있는 제1 시점에서 대상자의 제1 안면 이미지가 캡처되고 카메라 장치가 제2 위치에 있는 제2 시점에서 대상자의 제2 안면 이미지가 캡처되며, 모션이 제1 위치와 제2 위치 간 카메라 장치의 움직임을 기초로 한다. 일부 예시에서, 단계는 제2 명령어를 물체에 연결된 제어기로 전송하는 단계를 포함하고, 제2 명령어는 제1 시점 및 제2 시점에서 물체를 이동시키도록 제어기에게 지시하며 모션은 카메라 장치의 움직임과 물체의 움직임을 기초로 한다.
물체는, 카메라 장치, 조명 장치, 및 주변 환경보다 밝은 물체 중 하나를 포함할 수 있다. 물체의 각막 반사 변화는 제1 각막 반사 및 제2 각막 반사에서 물체에 대한 제1 조명 변화를 포함할 수 있다. 일부 경우, 단계는 제1 시점 및 제2 시점에 대한 물체 상의 제2 조명 변화를 획득하는 단계, 및 물체 상의 획득된 제2 조명 변화와 제1 각막 반사와 제2 각막 반사에서 제1 조명 변화 간 매칭 품질을 결정하는 단계를 더 포함한다. 대상자의 안면 실제감을 결정하는 단계는 결정된 매칭 품질 및 비교의 결과를 기초로 대상자의 안면 실제감을 결정하는 단계를 포함할 수 있다.
단계는 대상자가 생체측정 인증에 대한 실감 검증을 이용하도록 선택하다고 결정하는 단계를 포함할 수 있다. 단계는 또한 신원 제공자의 컴퓨팅 장치로, 신원 제공자와 상이한 의존자에 의해 관린되는 계정을 액세스하기 위한 대상자의 인증 요청을 전송하는 단계를 포함할 수 있고, 상기 인증 요청은 대상자의 생체측정 데이터 및 대상자의 결정된 안면 실제감을 포함한다.
본 발명의 구현예는 안면 실제감을 검출하기 위한 컴퓨터 구현 방법을 더 포함할 수 있으며, 상기 방법은 대상자의 제1 안면 이미지 및 제2 안면 이미지를 처리하여, 대상자의 안면의 제1 포즈 및 제2 포즈를 결정하는 단계 - 상기 제1 안면 이미지 및 제2 안면 이미지는 순차적인 제1 시점 및 제2 시점에서 캡처됨 - , 결정된 제1 포즈 및 제2 포즈를 기초로 안면의 포즈의 변화를 결정하는 단계, 안면의 포즈의 결정된 변화를 제1 시점 및 제2 시점과 연관된 모션에 비교하는 단계, 및 t상기 비교의 결과를 기초로 대상자의 안면 실제감을 결정하는 단계를 포함한다.
이들 및 그 밖의 다른 구현예가 다음의 특징들 중 하나 이상을 포함할 수 있다: 안면의 포즈의 결정된 변화를 모션에 비교하는 단계는 안면의 포즈의 결정된 변화를 모션과 상관시키는 단계, 상관의 결과를 기초로 매칭 품질을 점수화하는 단계, 및 물체의 결정된 각막 반사 변화를 지정 임계치에 비교하는 단계를 포함한다. 대상자의 안면 실제감을 결정하는 단계는 물체의 결정된 각막 반사 변화가 지정 임계치를 초과했다는 결정에 응답하여 대상자의 안면이 실물이라고 결정하는 단계를 포함한다. 안면의 제1 포즈 및 제2 포즈를 결정하는 단계는 안면의 적어도 하나의 안면 랜드마크를 결정하는 단계를 포함할 수 있다.
일부 예시에서, 단계는 결정된 제1 포즈 및 모션을 기초로 제2 시점에서 안면의 포즈를 계산하는 단계, 및 제2 안면 이미지로부터의 안면의 결정된 제2 포즈에 대한 안면의 계산된 포즈의 우도를 결정함으로써 안면 실제감을 평가하는 단계를 포함한다.
모션은 안면과 대상자의 안면 이미지를 캡처하도록 구성된 카메라 장치 간 상대적 움직임과 연관될 수 있다. 일부 예시에서, 단계는 대상자가 카메라 장치를 대상자의 안면에 대해 이동시키게 하는 단계를 포함한다. 일부 예시에서, 단계는 센서에 의해 측정되는 카메라 장치의 움직임의 정보를 수신하는 단계, 및 카메라 장치의 움직임의 수신된 정보를 기초로 모션을 결정하는 단계를 포함한다.
단계는 컴퓨팅 장치에 포함될 수 있는 하나 이상의 프로세서에 의해 실행되고, 컴퓨팅 장치는 카메라 장치 및 센서를 포함할 수 있고, 센서는 가속도계, 자이로스코프, 및 전역 위치확인 시스템(GPS) 중 적어도 하나를 포함한다.
본 발명의 구현예는 또한 안면 실제감을 검출하기 위한 컴퓨터로 구현된 방법을 제공할 수 있으며, 상기 방법은 대상자의 안면 이미지를 처리하여 대상자에 인접한 조명기의 각막 반사를 결정하는 단계 - 상기 안면 이미지는 한 시점에서 캡처됨 - , 상기 한 시점에서의 조명기의 조명을 기초로 조명기의 기대 각막 반사를 결정하는 단계, 조명기의 결정된 각막 반사를 조명기의 기대 각막 반사에 비교하여, 비교 결과를 획득하는 단계, 및 상기 비교 결과를 기초로 대상자의 안면 실제감을 결정하는 단계를 포함한다.
이들 및 그 밖의 다른 구현예가 각각 다음의 특징들 중 하나 이상을 포함할 수 있다: 조명기의 결정된 각막 반사를 조명기의 기대 각막 반사에 비교하는 단계는, 조명기의 결정된 각막 반사를 조명기의 기대 각막 반사에 상관시키는 단계, 상관의 결과를 기초로 매칭 품질을 점수화하는 단계, 및 물체의 결정된 각막 반사 변화를 지정 임계치에 비교하는 단계를 포함할 수 있다. 대상자의 안면 실제감을 결정하는 단계는, 물체의 결정된 각막 반사 변화가 지정된 임계치를 초과한다는 결정에 응답하여 대상자의 안면이 실물임을 결정하는 단계를 포함할 수 있다. 조명기의 각막 반사를 결정하는 단계는, 색, 형태, 위치, 및 패턴 중 적어도 하나의 조명기의 각막 반사를 결정하는 단계를 포함할 수 있다.
단계는 조명 패턴을 기초로 조명하도록 조명기를 활성화하는 단계를 포함할 수 있다. 일부 예에서, 단계는 조명기에 대한 조명 패턴을 생성하는 단계를 포함한다. 일부 예시에서, 조명기를 활성화하는 단계는 대상자가 생체측정 인증에 대한 실감 검증을 이용하려 선택했다는 결정에 응답하여 조명기를 활성화하는 단계를 포함한다.
조명기는 각각의 색 및 각각의 위치를 갖는 둘 이상의 조명원을 포함할 수 있다. 일부 구현예에서, 조명기의 조명이 둘 이상의 조명원의 시간 조명 패턴을 기초로 한다. 둘 이상의 조명원은 각자의 지속시간을 갖는 버스트로 조명을 생성할 수 있다. 둘 이상의 조명원 중 적어도 하나가 서로 다른 지속시간 동안 서로 다른 조명 형태를 가질 수 있다. 일부 구현예에서, 조명기의 조명은 둘 이상의 조명원의 공간 조명 패턴을 기초로 한다. 각각의 둘 이상의 조명원은 조명 켜짐 또는 꺼짐 상태를 가질 수 있다.
예를 들어, 조명기는 각각 광 파장에서 하나 이상의 물리 광원을 포함한다. 일부 예시에서, 조명기는 각각의 조명 색을 제공하기 위해 스크린 상에 디스플레이되는 하나 이상의 디지털 조명원을 포함한다. 단계는 디지털 조명원을 생성하는 단계를 포함할 수 있다. 조명기로부터의 조명이 대상자의 눈에 비스듬하게 입사되도록 조명기가 배치될 수 있다. 단계는 대상자가 조명기와 대상자의 눈의 상대적 위치를 변경하게 하는 단계를 포함할 수 있다.
단계는 카메라 장치로부터 비디오 스트림의 적어도 일부분을 수신하는 단계를 포함할 수 있고, 비디오 스트림 피드의 일부분이 순차적인 시점에서 카메라 장치에 의해 캡처되는 대상자의 안면 이미지를 포함한다. 단계는 대상자의 제2 안면 이미지를 처리하여 조명기의 제2 각막 반사를 결정하는 단계 - 제2 안면 이미지는 제1 안면 이미지에 대한 제1 시점에 순차적인 제2 시점에서 캡처됨 - , 제2 시점에서 조명기의 제2 조명을 기초로 조명기의 제2 기대 각막 반사를 결정하는 단계 - 제2 조명은 제1 조명과 상이함 - , 조명기의 결정된 제2 각막 반사를 조명기의 예상 제2 각막 반사에 비교하여 제2 비교 결과를 획득하는 단계, 및 대상자의 안면 실제감은 비교 결과 및 제2 비교 결과를 기초로 대상자의 안면 실제감을 결정하는 단계를 포함한다.
단계는 대상자의 결정된 안면 실제감을 신원 제공자의 컴퓨팅 장치로 전송하는 단계를 포함할 수 있다. 단계는 또한 신원 제공자의 컴퓨팅 장치로, 신원 제공자와 상이한 의존자에 의해 관리되는 계정을 액세스하기 위한 대상자의 인증 요청을 전송하는 단계를 포함하며, 인증 요청은 대상자의 생체측정 데이터 및 대상자의 결정된 안면 실제감을 포함한다.
본 발명의 구현예는 또한 안면 실제감을 검출하기 위한 컴퓨터로 구현되는 방법을 제공할 수 있으며, 상기 방법은, 대상자의 제1 안면 이미지 및 제2 안면 이미지를 처리하여, 대상자에 인접한 조명기의 제1 각막 반사 및 제2 각막 반사를 결정하는 단계 - 제1 안면 이미지 및 제2 안면 이미지는 순차적인 제1 시점 및 제2 시점에서 캡처됨 - , 결정된 제1 각막 반사 및 제2 각막 반사를 기초로 조명기의 각막 반사 변화를 결정하는 단계, 조명기의 결정된 각막 반사 변화를 순차적인 제1 시점과 제2 시점과 연관된 조명기의 조명 변화에 비교하는 단계, 및 상기 비교의 결과를 기초로 대상자의 안면 실제감을 결정하는 단계를 포함한다.
이들 및 그 밖의 다른 구현예 각각이 다음의 특징 중 하나 이상을 포함한다: 단계는 조명 변화를 기초로 조명기의 조명을 변경시키도록 조명기를 활성화시키는 단계를 포함할 수 있다. 조명기의 조명 변화는, 조명 색 변화, 조명 형태 변화, 조명 위치 변화, 조명 켜짐/꺼짐 상태 변화, 및 조명 지속시간 변화 중 적어도 하나를 포함할 수 있다. 조명기의 각막 반사 변화가 색, 형태, 위치, 켜짐/꺼짐 상태, 및 지속시간 중 적어도 하나의 조명기의 각막 반사의 변화를 결정하는 단계를 포함할 수 있다.
조명기는, 각자의 광 파장의 하나 이상의 물리 광원, 및 각자의 조명 색을 제공하도록 스크린 상에 디스플레이되는 하나 이상의 디지털 조명원 중 적어도 하나를 포함할 수 있다. 일부 구현예에서, 조명기는 각각 제1 위치 및 제2 위치에서 제2 색 및 제2 색을 갖는 제1 조명원 및 제2 조명원을 포함한다. 일부 예시에서, 조명기의 조명 변화는 제1 조명원 및 제2 조명원의 시간 조명 패턴의 변화를 포함하며, 제1 조명원 및 제2 조명원은 각각의 지속시간을 갖는 버스트로 조명을 생성할 수 있다. 제1 조명원 및 제2 조명원 중 적어도 하나가 서로 다른 지속시간 동안 조명 형태를 변경할 수 있다. 일부 예시에서, 조명기의 조명 변화는 시간에 따른 제1 조명원 및 제2 조명원의 공간 조명 패턴의 변화를 포함하고, 제1 조명원 및 제2 조명원 중 적어도 하나는 시간에 따른 조명 켜짐/꺼짐 상태를 변경할 수 있다.
본 발명은 또한 하나 이상의 프로세서에 연결되고 저장된 명령을 갖는 하나 이상의 비일시적 컴퓨터 판독형 저장 매체를 제공하며, 상기 명령은 하나 이상의 프로세서에 의해 실행될 때, 하나 이상의 프로세서로 하여금 본 명세서에 제공된 방법의 구현예에 따라 동작을 수행하게 한다.
본 발명은 본 명세서에 제공된 방법을 구현하기 위한 시스템을 더 제공한다. 상기 시스템은 하나 이상의 프로세서, 상기 하나 이상의 프로세서에 연결되고 저장된 명령을 갖는 컴퓨터 판독형 저장 매체를 포함하며, 상기 명령은 하나 이상의 프로세서에 의해 실행될 때, 하나 이상의 프로세서로 하여금 본 명세서에 제공된 방법의 구현예에 따라 동작을 수행하게 한다.
본 발명에 따르는 방법은 본 명세서에 기재된 측면 및 특징의 임의의 조합을 포함할 수 있음이 자명하다. 즉, 본 발명에 따르는 방법은 본 명세서에 특정하게 기재된 측면 및 특징의 조합에 한정되지 않으며, 제공된 측면 및 특징의 임의의 조합을 포함한다.
본 발명의 하나 이상의 구현예의 상세사항은 도면 및 이하의 설명에서 제공된다. 본 발명의 그 밖의 다른 특징 및 이점이 기재, 도면 및 청구항으로부터 자명할 것이다.
도 1a는 일부 구현예에 따르는 사용자의 생체측정 신원을 기초로 사용자를 인증할 수 있는 예시적 웹 사이트를 보여주는 다이어그램이다.
도 1b는 일부 구현예에 따라 사용자의 생체측정 신원을 기초로 사용자를 인증하기 위한 금융 기관 고객, 금융 기관, 및 제3자 생체측정 검증 서비스 간 예시적 대화를 보여주는 다이어그램이다.
도 2a는 일부 구현예에 따라 소비자가 신원 제공자에게 등록됐을 때 소비자를 인증하기 위한 소비자, 신뢰자, 신원 제공자 간 예시적 대화를 보여주는 타이밍도이다.
도 2b는 일부 구현예에 따라 소비자가 신원 제공자에게 등록되지 않았을 때 소비자를 인증하기 위한 소비자, 신뢰자, 및 신원 제공자 간 예시적 대화를 보여주는 타이밍도이다.
도 3a 및 3b는 물체의 각막 반사의 변경된 위치를 도시한다.
도 4는 팔 조정으로 인해 위치가 변경된 물체를 도시한다.
도 5는 조명원으로부터의 각막 반사를 기초로 예시적 검증을 보여주는 다이어그램이다.
유사한 도면부호가 다양한 도면에서 유사한 요소를 가리킨다.
신원의 증명이 우리의 일상 거래에서 지속적인 도전을 제시할 수 있다. 인터넷의 도래와 함께, 온라인 거래가 대면적 거래를 대체할 수 있는 전자 상거래가 도래했다. 그러나 이들 온라인 거래의 순전한 양과 복잡도가, 예를 들어, 신원 도용, 신원 사기, 스푸핑, 피싱 등의 위험요소에 의해 위험에 처한 디지털 세계를 초래할 수 있다. 특히, 인터넷이 이러한 위험을 증폭시킬 수 있더라도 이러한 위험은 인터넷 시대에서 새로운 것이 아닐 수 있다. 사회가 클라우드 컴퓨팅을 향해 이동함에 따라 더 많은 데이터베이스가 액세스 가능해질 수 있다. 일부 데이터베이스에서의 신원 데이터는 역사나 전통을 기반으로, 다른 것보다 더 신뢰할만하고 강건할 수 있다. 연결 가능성이 유비쿼터스(ubiquitous)해지고 더 많은 신원 데이터베이스가 액세스 가능한 플랫폼 상에서 이용 가능해짐에 따라, 여기에 하우징되는 신원 관련 데이터가 액세스되어 온라인으로 또는 대면적으로 실시되는 거래의 품질의 신뢰도를 증가시킬 수 있다. 덧붙여, 온라인으로 제출되는 생체측정 데이터가 실제감(실감)에 대해 검증되어 스푸핑 시도를 막을 수 있다. 일부 구현예에서, 실제감 검증은 인증되기 위해 온라인으로 제출되는 생체측정 데이터의 신뢰도를 증가시키기 위한 실시간 각막 반사 및/또는 실시간 안면 포즈(face pose)의 레버리지 분석일 수 있다. 본 명세서에 개시되는 구현예는 금융 기관이 아닌 다른 기업까지 확장될 수 있다. 이 출원은 예를 들어, 네트워크를 통한 양자 간 온라인 세션 동안의 안면 표현의 실제감을 검출하기 위한 시스템 및 방법과 관련된다. 본 명세서에서 용어 "실감(liveliness)" 및 "실제감(liveness)"이 상호 교환 가능하게 사용될 수 있다.
도 1a는 일부 구현예에 따르는 사용자의 생체측정 신원을 기반으로 사용자를 인증할 수 있는 예시적 웹 사이트를 보여주는 다이어그램이다. 도시된 바와 같이, 웹사이트를 호스팅하는 서버에 의해 관리되는 계정을 로그인하기 위해 사용자명 및 패스워드가 요구될 수 있다. 예를 들어, 서버는 하이퍼텍스트 전송 프로토콜 보안(hypertext transmission protocol secure)의 구현을 실행시킬 수 있다. 인터넷 시대에서, 소비자 사용자는 각각 사용자명 및 패스워드의 이질적인 요건을 갖는 수십 개의 추가 웹 사이트에서 계정을 가질 수 있다. 소비자 사용자는 각각의 웹 사이트에서의 사용자명 및 패스워드를 계속 기억해야 할 수 있다. 등록된 사용자명 또는 패스워드를 잊는 것이 온라인 액세스 편의를 방해할 수 있다. 소비자 사용자는 각각의 계정에 대해 사용자명 및 패스워드를 중앙 파일에 저장할 수 있다. 그러나 중앙 파일로의 액세스가 단절될 수 있어서, 저장된 사용자명 및 패스워드의 오염을 초래할 수 있다. 실제로, 사용자명 및 패스워드를 포함하는 단순한 온라인 신원이 신원 도용 및 신원 사기에 취약할 수 있다. 최근의 연구에 따르면 미국에서의 신원 도용이 2012년에 3년째 높음을 야기하며, 성인 인구의 5퍼센트 초과 또는 1천2백6십만 명의 사람들이 이러한 범죄의 희생양이 된다. 숫자는 2011년에 4.9퍼센트 그리고 2010년에 4.35퍼센트까지 증가했다. 신원 도용의 발생률은 오를 것으로 예상된다. 전자 상거래의 맥락에서 신원 도용으로부터 발생하는 위험을 완화하기 위해, 본 명세서에 개시된 일부 구현예는 사용자에 의해 온라인으로 제공된 생체측정 데이터를 인증하는 것을 선택할 수 있다. 이러한 생체측정 데이터의 비제한적 예를 들면, 안면 패턴, 지문, 장문(palm print), 망막 스캔, 홍채 스캔, DNA 패턴 음성 특성, 보행 분석 등이 있을 수 있다. 일반적으로 말하면, 온라인으로 제출되는 이러한 생체측정 데이터는 전자 검증을 촉진하기 위한 디지털 형태를 가질 수 있다.
도 1a에 도시된 바와 같이, 예를 들어, 예를 들어 bigbank.com을 운영하는 개체와 상이한 제3자에 의해 생체측정 로그인 창(102)이 제공될 수 있다. 로그인 창(102)은, 사용자가 사용자의 생체측정치를 기초로 로그인을 시도할 때 사용자의 캡처된 안면 생체측정치를 표시할 수 있다. 사용자의 생체측정 데이터가 온라인 인증을 위해 전송될 때, 산업 표준, 가령, 데이터 암호화 표준(DES), 트리플-DES 고급 암호화 표준(AES), 리베스트-샤미르-아들레마(RSA), 개방형 프리티 굿 프라이버스(PGP 등에 따라 생체측정 데이터가 암호화될 수 있다. 일부 구현예에서, 암호화가 세션 단위로 수행될 수 있으며, 세션에서 세션 암호화 및 해역화 키가 계속 업데이트되거나 재생되어 공격을 무력화할 수 있다.
적어도 두 가지 문제가 여전히 존재한다. 첫 번째 문제는 사용자가 사용자의 생체측정치를 신뢰 서버, 가령, 제3자 서버에 등록할 수 있는 베팅 프로세스(vetting process)와 관련된다. 두 번째 문제는 온라인으로 제공되는 생체측정치의 실감이 검증되어 스푸핑 시도(예를 들어, 등록된 사용자로 가장하기 위해 누군가가 등록된 사용자의 비디오 또는 사진을 이용하는 것) 또는 중간자 공격(man-in-the-middle attack)을 무력화하는 인증 프로세스와 관련된다. 이를 위해, 도 1b는 일부 구현예에 따라 사용자의 생체측정 신원을 기초로 사용자를 인증하기 위한 금융 기관 소비자, 금융 기관, 및 제3자 생체측정 검증 서비스 간 예시적 대화를 보여주는 다이어그램이다. 본 명세서에 개시된 바와 같이, 금융 기관은 은행을 포함할 수 있고 또한 의존자(relying party)로서도 알려질 수 있다. 제3자 서비스 제공자가 또한 신원 제공자로서 알려질 수 있다.
금융 기관 고객(104)이 금융 기관 웹사이트(106)를 통해 계정을 액세스하도록 시도할 때(110A), 고객(104)은 생체측정 인증 창(102)을 맞을 수 있다. 금융 기관 고객(104)은 생체측정 인증을 사용할 것을 선택할 수 있다. 고객(104)으로부터 고객(104)이 생체측정 인증(102)을 이용하기를 원한다는 지시를 수신하는 것에 응답하여, 금융 기관 웹사이트(106)를 운영하는 서버가 생체측정 검증 서비스(108)에서 생체측정 데이터를 이용해 사용자의 인증 요청을 검증할 수 있다(110B). 일부 구현예에서, 고객(104)이 생체측정 검증 서비스(108)에서 생체측정 데이터를 등록한 적이 없는 경우, 생체측정 검증 서비스(108)는 고객(104)을 등록하게 할 수 있다(110C). 일반적으로 등록 프로세스는 고객(104)에게 생체측정 데이터를 생체측정 검증 서비스(108)에 의해 저장/관리되는 생체측정 신원 데이터로서 제공할 것을 묻는 것을 포함할 수 있다. 등록 프로세스는 생체측정 검증 서비스가 그 밖의 다른 인가자(authority), 가령, 주(state) 레벨로 자동차 부서(DMV: Department of Motor Vehicles), 및 연방 레벨로 국무부에서 다른 고객(104)의 신원을 더 검증하는 베팅 프로세스(vetting process)의 일부가 될 수 있다. 인가자는 신용 검증 에이전시, 가령, Equifax, Experian, LexisNexis를 포함할 수 있다. 신용 검증 에이전시는 정부가 인가한 인가자의 대리인으로서 역할 할 수 있다. 고객(104)이 생체측정 검증 서비스에서 등록된 생체측정 신원을 획득한 후, 고객(104)은 생체측정 검증 서비스(108)와 대화하여 생체측정 신원의 루틴 관리를 실시할 수 있다(110C). 예를 들어, 루틴 관리는 안면 패턴의 대체, 기존 안면 패턴의 철회 등을 포함할 수 있다. 따라서 고객(104)의 등록된 생체측정 데이터를 등록하기 위한 베팅 프로세스의 첫 번째 문제가 해결될 수 있다.
온라인으로 제공되는 생체측정 데이터의 실감의 두 번째 문제와 관련하여, 생체측정 로그인 창(102)이 물체(가령, 카메라 장치 또는 조명원)의 실시간 각막 반사를 분석함으로써 및/또는 고객(104)으로부터의 실시간 안면 포즈(face pose)를 분석함으로써, 고객(104)을 인증할 수 있다. 본 명세서에서 언급될 때, 금융 기관은, 고객이 자신이 의도한 사람인지를 인증하고 고객이 실물 안면 생체측정치를 제시하는 중인지를 인증하기 위해 제3자를 의존할 수 있는 의존자(RP: relying party)로 일반화될 수 있다. 도 1b에서 생체측정 검증 서비스(108)로 알려진 제3자가 신원 제공자(IdP)라고 일반화될 수 있다.
지금까지의 개괄 설명에 의해, 도 2a는 일부 구현예에 따라, 소비자가 신원 제공자(206)에서 등록될 때 소비자를 인증함에 있어, 소비자(202), 의존자(RP)(204), 및 신원 제공자(IdP)(206) 간 예시적 대화를 보여주는 타이밍 다이어그램이다. 프로세스는 소비자(202)에 의해 의존자(204)에 의해 관리되는 계정을 액세스하기 위한 인증 요청을 전송함으로써 개시될 수 있다(208). 일부 구현예에서, 인증 요청의 제출은 소비자(202)가 예를 들어 금융 기관에 의해 관리되는 계정을 액세스하기 위해 생체측정 인증(102)을 선택하는 것에 대응할 수 있다.
소비자가 인증 요청을 제출할 때, 소비자는 또한 생체측정 인증을 위해 검증된 실감 로그인을 선택할 수 있다(210). 검증된 실감 로그인은, 본 명세서에 기재될 때, 가령, 소비자가 생체측정 데이터를 제출할 때 소비자의 안면 실제감을 검증함으로써, 온라인으로 제출되는 생체측정 데이터의 실감을 해결할 수 있다.
맥락상, 인증 브리지 웨이를 제공하기 위해 제3자 중개를 이용하는 것이 산업 표준, 가령, SAML(Security Assertion Markup Language) 및 OAuth(Open standard for Authentication)에 따라 구현될 수 있다.
SAML이 웹 브라우저 싱글 사인온(SSO)을 해결한다. 싱글 사인온 솔루션은 가령 쿠키를 이용해 인트라넷 레벨에서 구현될 수 있다. 인트라넷을 벗어나 이러한 싱글 사인온 솔루션을 확장하는 것이 문제가 됐고 상호운용 불가능한 사설 기법의 확산을 야기한다. SAML에 의해 해결되는 용도 케이스에서, 사용자(또한 본인(principal)이라고도 알려짐)가 의존자(또한 서비스 제공자라고 알려짐)로부터 서비스를 요청할 수 있다. 그 후 서비스 제공자는 신원 제공자로부터 신원 주장(identity assertion)을 요청 및 획득한다. 이 신원 주장을 기초로, 서비스 제공자는 연결된 본인을 위한 일부 서비스를 수행할지 여부를 결정하는 액세스 제어 결정을 수행할 수 있다.
OAuth(가령, 더 최근의 OAuth 2.0)의 경우, 웹 애플리케이션은 사용자를 대리하여 애플리케이션 프로그램 인터페이스(API)를 액세스하기 위해 제한된 액세스 OAuth Token(또한 발렛 키(valet key)라고도 알려짐)을 특정하게 요청할 수 있다. 발렛 토큰이 요청된 특정 권리를 명시적으로 명명할 수 있고, 사용자는 자격 증명(credential)을 입력할 필요가 없을 수 있다. 사용자가 상기 액세스를 허가할 수 있는 경우, 웹 애플리케이션은 API를 이용해 프로파일(신원)을 확립하기 위한 고유 식별자를 불러올 수 있다.
따라서, 일반적으로 인증 표준이 소비자가 소비자의 Facebook 또는 Google login 자격 증명을 사용하여 다른 계정, 일반적으로 동일 소비자의 다른 계정(가령, amazon 계정, linked-in 계정 등)을 액세스할 수 있도록 싱글 사인온을 제공할 수 있다. 본 명세서에 개시된 일부 인증 방법은 생체측정 데이터, 가령, 안면 생체측정치를 이용함으로써, 신원의 단일 인증 증거를 제공할 수 있다.
도 2a를 참조하면, 검증된 실감 로그인의 소비자 선택을 수신하는 것에 응답하여, 의존자(relying party)의 서버가 소비자를 검증된 실감으로 진행할 수 있도록 리디렉트한다(212). 그 후 소비자(202)는 신원 제공자(206)의 서버로 리디렉트될 수 있다. 예를 들어, 소비자(202)는 consumer@relying_party.com의 형태로 된 자격 증명 토큰을 이용함으로써 검증된 실감을 이용하기 위한 요청을 제출할 수 있다(214). 도 2a에 도시된 바와 같이, 요청이 신원 제공자(206)의 서버에서 제출될 수 있다.
검증된 실감을 이용하기 위한 요청을 수신하면, 신원 제공자(206)의 서버는 검증된 실감 인증을 수행하여 소비자에 의해 제출된 생체측정치를 검증할 수 있다(216). 검증은 (i) 소비자에 의해 제출된 생체측정치가 소비자에 대한 신원의 확실한 증거(affirmative proof)를 제공하고, (ii) 소비자에 의해 온라인으로 제출된 생체측정치가 최신(fresh)이고 실물이며(live) 예를 들어 스푸핑 시도에서 위조된 것이 아님을 포함할 수 있다.
초기 사항으로서, 신원 제공자(206)의 서버가, 예를 들어, 소비자(202)에 의해 제출된 데이터로부터 안면 생체측정치를 불러올 수 있다. 일부 구현예에서, 불러와 진 안면 생체측정치가, 암호화 알고리즘을 기초로 암호화된 포맷으로, 소비자(202)의 컴퓨팅 장치로부터 신원 제공자(206)의 서버로 전송될 수 있다. 컴퓨팅 장치는 비디오 스트림 피드를 제공하기 위한 비디오 입력 구성요소를 포함할 수 있다. 일부 경우, 비디오 입력 구성요소는 웹캠(webcam)을 포함한다. 비디오 피드의 이미지가 프레임율, 예를 들어, 초당 24 프레임으로 캡처될 수 있다. 일반적으로 프레임은 디지털 처리를 위해 디지털화된다. 일부 경우, 이미지는 예를 들어, 800×600 픽셀, 1024×768 픽셀, 1152×864 픽셀, 또는 1280×1024 픽셀의 공간 해상도일 수 있다. 컴퓨팅 장치는 소비자(202)의 이미지를 캡처하는 이미징 장치(가령, 카메라 장치)를 포함할 수 있다. 캡처된 이미지는 소비자(202)의 안면 생체측정치를 포함하고 신원 제공자(206)의 서버로 컴퓨팅 장치에 의해 전송될 수 있다.
일부 구현예에서, 불러와 진 안면 생체측정치가 의존자(204) 또는 신원 제공자(206)와 연관된 컴퓨팅 장치로부터 전송된다. 컴퓨팅 장치는 소비자(202)의 로컬 카메라 장치를 내부적으로 포함하거나, 소비자(202)가 인증을 하려 할 때 상기 카메라 장치에 외부적으로 연결될 수 있다. 예를 들어, 카메라 장치는 소비자(202)를 대면하면서 자동 현금화 기계(ATM)에 인접하게 또는 은행의 등록 사무실 내에 위치할 수 있다. ATM 또는 사무실은 소비자가 거래를 수행하려 하는 의존자(204)의 재산일 수 있다. 카메라 장치는 소비자(202)의 안면 생체측정을 포함하는 이미지 또는 비디오 피드를 캡처하고 컴퓨팅 장치로 전송할 수 있다. 컴퓨팅 장치는 캡처된 이미지 또는 비디오 피드를 처리하고 캡처된 이미지 또는 비디오 피드 및/또는 처리된 데이터를 신원 제공자(206)의 서버로 전송할 수 있다.
신원 제공자(206)의 서버는 불러와 진 안면 생체측정치를 소비자(202)의 생체측정 신원 데이터와 비교할 수 있다. 소비자(202)의 생체측정 신원 데이터가 신원 제공자(206)의 서버에 사전-저장될 수 있다. 비교는 인증의 맥락-종속적 엄격성 요건과 일치하는 방식으로 실시될 수 있다. 예를 들어, 거래 금액이 특정 임계치, 가령, $50보다 적은 경우, 소비자(202)에 의해 온라인으로 제출되는 안면 생체측정치와 신원 제공자(206)의 서버에 사전-저장된 안면 생체측정치 간 매칭 정도가 감소될 수 있다. 그러나 다른 한편으로는, 거래 금액이 특정 임계치, 가령, $1,000보다 높은 경우, 소비자(202)에 의해 온라인으로 제출된 안면 생체측정치와 신원 제공자(205)의 서버에 사전-저장된 안면 생체측정치 간 매칭 정도가 높아질 수 있다. 관련 예시에서, 거래가 대출 신청, 신용 카드 신청과 유사한 경우, 매칭 정도가 또한 높아질 수 있다. 소비자(202)에 의해 온라인으로 제출된 안면 생체측정치와 신원 제공자(206)의 서버에서 사전 저장된 안면 생체측정치 간 유사성의 정도를 정량화하기 위한 점수를 생성하도록 점수화 수단이 구현될 수 있다. 신원 제공자(206)의 서버에 의해 유사성의 점수가 사용되어, 소비자(202)에 의해 온라인으로 제출된 불러와 진 안면 생체측정치가 제출하는 소비자(202)가 신원 제공자(206)의 서버에 저장된 생체측정 데이터를 가진 사람이라고 증명하기에 충분한지 여부를 결정할 수 있다.
또한 신원 제공자(206)의 서버가 소비자(202)에 의해 온라인으로 제출된 불러와 진 안면 생체측정치가 실물 안면 생체측정치인지 여부를 결정할 수 있다. 온라인 인증과 연관된 한 가지 위험이 중간자 공격의 가능성이었다. 예를 들어, 스푸핑(spoofing) 동안, 제3자가 소비자(202)에 의해 이전에 제출됐고 제3자가 획득한 인증 증거를 재생함으로써, 소비자(202)인척 할 수 있다. 일부 암호화 수단이 소비자(202)와 신원 제공자(206) 간 통신 세션의 스트림을 암호화하는 데 사용되는 암호화 키를 재생하거나 업데이트함으로써 중간자 위협에 대응할 수 있다. 그러나 일반적으로, 이러한 암호화 수단은 생체측정 데이터 자체의 정체(staleness)를 해결하지 않을 수 있다. 다시 말하면, 제3자가 생체측정 데이터의 인스턴스를 획득하고 소비자(202)의 계정으로의 액세스를 획득하기 위해 생체측정 데이터의 인스턴스를 재생(replay)하려 시도하는 경우 일부 암호화 수단은 부적합할 수 있다. 사용자명 및 패스워드에 대한 텍스트 문자열이 각각의 로그인 세션의 입도로 재생되지 않을 수 있기 때문에 이러한 위험은 사용자명과 패스워드 로그인의 조합에 의해 증폭될 수 있다. 특히, 각각의 로그인 세션에 대한(또는 서브-세션 레벨에서 예를 들어 매초마다) 사용자명 및 패스워드를 재생하는 것이 실용적이지 않을 수 있다.
본 명세서에 개시된 바와 같이 일부 구현예는, 예를 들어, 소비자(202)의 안면 실제감의 검증을 수행함으로써, 소비자(202)에 의해 제출되는 생체측정 데이터의 실감을 검증할 수 있다. 일부 구현예에서, 신원 제공자(206)의 서버가 제출된 이미지 또는 비디오 피드를 기초로 실감 검증을 수행한다. 일부 구현예에서, 소비자(202)와 연관된 컴퓨팅 장치가 캡처된 이미지 또는 비디오 피드를 기초로 실감 검증을 수행하고 실감 검증의 결과를, 가령, 소비자(202)의 생체측정 데이터를 포함하는 인증 요청의 형태로 신원 제공자(206)의 서버로 제출한다. 그 후 신원 제공자(206)의 서버가 소비자(202)에 의해 제출된 생체측정 데이터가 실제감이 있다고 매끄럽게 결정할 수 있다. 일부 구현예에서, 소비자(202)의 로컬 카메라 장치로부터 이미지 또는 비디오 피드를 획득하는 의존자(204) 또는 신원 제공자(206)와 연관된 컴퓨팅 장치가 캡처된 이미지 또는 비디오 피드를 기초로 실감 검증을 수행하고 실감 검증의 결과를 신원 제공자(206)의 서버로 제출한다.
일부 구현예에서, 실감 검증은 소비자(202)로부터의 각막 반사의 분석을 포함할 수 있다. 우선, 소비자(202)의 안면이 검출될 수 있다. 도 3a 및 3b를 참조하면, 소비자(202)의 눈(301)이 비디오 피드 또는 이미지에서 검출될 수 있다. 일반적으로, 이러한 검출은 안면 또는 눈 템플릿 데이터를 활용하는 분할 기법을 포함한다. 이러한 템플릿 데이터는 다양한 형태 변환을 통해 모핑(morph)되어, 비디오 피드 또는 이미지에서 안면 또는 눈 영역을 식별할 수 있다. 눈(301)이 검출되면, 그 후 비디오 피드 또는 이미지에서 각막 영역(302)이 결정될 수 있다. 비디오 프레임 또는 이미지에서의 각막 영역의 반사가 분석될 수 있다.
우선, 소비자(202)의 위치에서의 물체가 소비자(202)로부터의 각막 반사를 야기할 수 있다. 여기서 물체는 조명원, 가령, 광원, 카메라 장치, 가령 웹캠, 또는 주변보다 밝은 장치 또는 대상자(가령, 창 또는 테이블)를 포함할 수 있다. 일부 예시에서, 물체는 소비자(202)의 모바일 장치에서의 카메라이다. 소비자(202)는 소비자(202)의 안면 이미지 또는 생체측정치를 캡처하기 위한 카메라를 이용한다. 일부 예시에서, 물체는 소비자(202)의 로컬 위치에 있을 수 있다. 장소는 소비자(202)가 함께 거래를 수행하려 할 의존자(204)와 연관될 수 있다. 예를 들어, 위치는 소비자(202)를 대면하는 자동 현금화 기계(ATM)를 포함한다. 물체는 ATM에 인접하게 장착될 수 있다. 일부 경우, 물체는 소비자(202)가 인증을 구하는 곳에 고정되어 있거나 위치할 수 있다. 일반적으로 물체는 보통의 조명 조건 하에서 쉽게 가시적이며 현장에서 소비자(202)로부터의 거울 반사를 야기할 수 있다. 소비자(202)의 각막으로부터의 거울 반사는 인증의 실감을 결정하는 데 사용될 수 있다.
일부 구현예에서, 물체가 이동하는 경우, 소비자(202)의 각막에서의 이러한 물체의 거울 반사가 이에 따라 이동할 것으로 예상된다. 이러한 물체의 거울 반사가 현장의 물체의 이동에 맞추어 이동하는 경우, 소비자(202)는 살아 있는 것으로 인증될 수 있다. 일부 경우, 물체의 이동이 소비자(202)에 의해 수행된다. 예를 들어, 소비자(202)는 카메라 장치를 포함하는 이동 전화기를 이동시키도록 촉진되고, 카메라 장치의 각막 반사가 이에 따라 이동된다. 현장에서의 카메라 장치의 이동이 모바일 장치 내 가속도계 또는 자이로스코프에 의해 측정될 수 있다. 일부 경우, 물체는 소비자(202)(또는 중간자로서 예비 해커)에 의해 예측될 수 없는 방식으로 이동된다
예를 들어, 물체는 위치 1에서 위치 2로 이동할 수 있다. 물체가 위치 1에 있을 때, 제1 이미지가 캡처된다. 반사된 물체의 위치, 형태 및 컬러/파장이 캡처된 제1 이미지에서 각막 반사를 분석함으로써 검출될 수 있다. 검출은 물체의 각막 반사(302A) 상에서 자동으로 0점 교정하기 위한(zero in) 분할 기법을 활용할 수 있다. 그 후 물체가 위치 2에서 이동할 때, 제2 이미지가 캡처된다. 반사된 물체의 위치, 형태, 컬러/파장이 캡처된 제2 이미지를 분석함으로써 각막 반사(302B)로서 새로 검출될 수 있다. 일부 경우, 반사된 물체를 모니터링함으로써, 물체의 모션의 궤적이 추적될 수 있다. 도시된 바와 같이, 각막 반사(302A 및 302B)에서의 검출된 물체의 위치의 변화가 물체 위치의 변화, 가령, 물체의 프로그램 또는 측정된 위치 변화에 비교될 수 있다. 예를 들어, 일부 구현예가 소비자(202)가 인증을 하려는 방 내부에서 또는 ATM의 정면에서 소비자(202)에 인접한 다른 구조물의 반사에 상대적으로 반사된 물체의 위치를 등록시킬 수 있다. 일부 구현예가 소비자(202)의 눈 내 또는 눈 주위의 다른 신체 구조물과 반사된 물체의 위치의 관계를 등록시킬 수 있다.
도 4는 소비자(202)의 팔 조정을 이용하여 위치를 변경한 예시적 물체 카메라(403)를 도시한다. 카메라(403)는 소비자(202)의 팔(402) 상에 고정되고 소비자(202)의 머리(401)를 대면한다. 위치 1에서, 팔(402)은 예를 들어, 소비자(202)의 안면에 더 가깝도록 확장된다. 위치 2에서, 팔(402)은 예를 들어, 소비자(202)의 안면에서 더 멀어지도록 더 움츠러든다. 카메라(403)의 이러한 위치 변화가 소비자(202)의 각막으로부터 반사된 카메라에서의 변화를 야기할 것으로 기대된다. 일부 실시예에서, 물체는 물체의 변경된 위치를 야기하는 수단을 이용할 수 있다. 수단은, 팬(pan), 줌(zoom), 틸트(tilt)(PZT), 또는 그 밖의 다른 임의의 적합한 수단일 수 있다.
물체의 모션은 각막 반사에서 반사된 물체의 더 흥미로운 변경된 위치 및 형태를 야기할 수 있다. 상기 물체는 제어기, 가령, 장치내(on-board) 가속도계 또는 자이로 모터(gyro motor)에 의해 이동하도록 프로그램될 수 있다. 일부 경우, 물체는 지정(또는 사전 프로그램된) 모션으로 이동한다. 지정 모션은 물체에 이전에 임베드될 수 있다. 지정 모션은 또한, 가령, 신원 제공자(206)의 서버 또는 제어기에 연결된 컴퓨터 장치로부터 제어기로 전송될 수 있다. 매번 지정 모션이 이전 지정 모션과 상이할 수 있다. 일부 경우, 물체는 랜덤하게 이동한다. 물체의 실제 이동이 측정되거나 검출될 수 있다. 물체의 실체 움직임은 센서, 가령, 장치내 가속도계 또는 자이로모터에 의해 측정 또는 검출될 수 있다.
물체의 변화가 병진 운동 또는 회전 운동 조절로서 나타나는 단순 위치 변화로 한정되지 않을 수 있다. 이러한 위치 변화의 다양성 및 변화가 각막 반사의 풍부한 분석을 제공하도록 활용될 수 있다. 하나의 예를 들면, 물체는 각막 반사의 파장을 변화시키는 위치로 변할 수 있다. 예를 들면, 물체는 소비자(202)를 대면하는 서로 다른 조명원으로부터의 조명, 가령, 소비자(202)의 모바일 장치의 플래시 조명을 편향시키도록 병진운동할 수 있다.
특히, 소비자(202)의 두부 또는 안면이 이동하거나 이동하지 않을 수 있을 경우라도, 물체는 신원 제공자에게는 알려지지만 소비자(202)(또는 중간자로서 잠재적 해커)에게는 사전에 알려지지 않은 패턴으로 물체의 각막 반사의 변화를 야기하도록 이동한다. 일부 경우, 물체는 제1 위치에서 제2 위치로 소비자(202)의 두부 또는 안면의 이동에 비교할 때 비교적 빠른 속도로 이동하여, 소비자(202)의 두부 또는 안면이 비교적 정적이라고 간주될 수 있다. 카메라 장치는 물체가 제1 시점에서 제1 위치에 있을 때의 소비자(202)의 제1 안면 이미지와 물체가 제2 시점에서 제2 위치에 있을 때의 소비자(202)의 제2 안면 이미지를 캡처할 수 있다. 제1 시점과 제2 시점 간 간격이 짧을 수 있는데, 가령, 1초 미만일 수 있다. 일부 경우, 캡처된 이미지 내 정적 또는 비이동 대상(가령, 소비자(202)에 인접한 창 또는 테이블)의 이동의 분석에 의해, 소비자(202)의 두부 또는 안면의 이동이 활용될 수 있다. 소비자(202)가 물체를 이동시키도록 촉진될 때, 소비자(202)는 소비자(202)의 두부 또는 안면을 움직이지 말 것을 통지받을 수 있다.
카메라 장치는 소비자(202)의 이미지 및/또는 비디오 피드를 캡처하도록 구성된다. 카메라 장치는 소비자(202)의 안면을 대면하면서 위치될 수 있다. 일부 예시에서, 카메라 장치는 소비자(202)의 모바일 장치에 내부적으로 포함될 수 있다. 소비자(202)는 카메라 장치가 소비자(202)의 안면을 대면하여 안면 이미지를 캡처할 수 있도록 모바일 장치를 고정시킬 수 있다. 상기 카메라 장치는 소비자(202)의 눈과 경사각을 이루며 위치하거나 소비자(202)의 눈에 대향하도록 카메라 장치는 위치될 수 있다. 일부 예시에서, 소비자(202)는 ATM 앞에서 인증을 구한다. 카메라 장치는 ATM 상에 또는 상기 ATM에 인접하게 고정될 수 있다.
카메라 장치는, 가령, 소비자(202)와 대화 없이 또는 소비자(202)에게 통지 없이, 소비자(202)의 안면 실제감을 검증하기 위한 이미지 및/또는 비디오 피드를 캡처할 수 있다. 일부 경우, 카메라 장치의 움직임은 소비자(202)의 자연스러운 모션과 연관될 수 있다. 카메라 장치를 포함하는 모바일 장치 상의 센서, 가령, 가속도계, 자이로스코프, 또는 글로벌 위치확인 시스템(GPS)이 카메라 장치의 운동을 측정할 수 있다. 모바일 장치는 센서를 이용함으로써 카메라 장치가 이동 중이라고 결정하고 그 후 카메라 장치로 요청을 전송하여 소비자(202)의 안면 이미지를 캡처할 수 있다.
일부 구현예에서, 검증된 실감을 이용하기 위한 요청을 수신하면, 신원 제공자(206)의 서버가 요청을 카메라 장치로, 가령, 직접, 또는 카메라 장치에 연결되며 서버와 통신하는 컴퓨팅 장치를 통해 송신할 수 있다. 요청에 응답하여, 물체가 위치들 사이에 이동할 때 카메라 장치는 소비자(202)의 안면 이미지를 자동으로 캡처할 수 있다. 물체는 요청을 기초로 이동할 수 있다. 예를 들어, 서버와 통신하는 컴퓨팅 장치가 요청을 수신하고 물체를 이동시키기 위한 명령어를 물체의 제어기로 전송한다. 물체는 카메라 장치가 소비자(202)의 안면 이미지를 캡처하는 것에 동기하여 위치들 간에 이동될 수 있다.
물체의 이동은 각자의 시점과 연관될 수 있다. 예를 들어, 제1 시점에서, 물체는 제1 위치이고, 제2 시점에서 물체는 제2 위치로 이동한다. 카메라 장치는 물체의 이동 동안 및/또는 물체의 이동 전 및 후에, 안면 이미지를 캡처하거나 소비자(202)의 비디오 피드를 캡처할 수 있다. 캡처된 안면 이미지는 또한 각자의 시점과 연관된다. 시점은 높은 정확도, 가령, 1밀리초 미만의 정확도를 가질 수 있다. 예를 들어, 카메라 장치는 물체가 제1 시점에서 제1 위치에 있을 때의 제1 안면 이미지 및 물체가 제2 시점에서 제2 위치에 있을 때의 제2 안면 이미지를 캡처한다. 시점을 기초로, 소비자(202)의 캡처된 안면 이미지가 물체의 위치와 연관될 수 있다. 따라서 캡처된 이미지 또는 비디오 피드의 물체의 각막 반사가, 소비자(202)의 안면 실제감을 검증하는 데 사용될 수 있는 물체의 움직임과 연관될 수 있다.
카메라 장치는 또한 가령 생체측정 데이터를 획득하기 위해 소비자(202)와 대화함으로써, 소비자(202)에 의해 신원 제공자(206)의 서버로 인증되도록 제출된 생체측정 데이터를 포함하는 소비자(202)의 이미지 및/또는 비디오 피드를 캡처할 수 있다. 일부 경우, 추가 이미징 장치 또는 비디오 입력 구성요소가 사용되어 인증을 위해 소비자(202)의 생체측정 데이터를 포함하는 이미지 및/또는 비디오 피드를 캡처할 수 있다.
일부 구현예에서, 물체는 카메라 장치이다. 앞서 언급된 바와 같이, 카메라 장치는 소비자(202)에 의해 또는 수단에 의해 제어되는 방식으로 또는 랜덤하게 이동될 수 있다. 카메라 장치의 모션(및/또는 배향 및/또는 상대 위치)이, 가령, 장치내 가속도계 또는 자이로스코프에 의해 측정될 수 있다. 소비자(202)의 안면 실제감의 검증을 위해, 카메라 장치의 각막 반사의 검출된 위치 변화가 카메라 장치의 지정 또는 측정 모션과 상관될 수 있다.
일부 구현예에서, 물체는 소비자(2020에 인접한 정적 대상, 가령, 소비자(202) 뒤의 문 또는 소비자(202) 옆의 창문이다. 카메라 장치는 위치들 간 이동되고 이들 위치에서 소비자(202)의 안면 이미지를 캡처한다. 안면 이미지는 물체의 각막 반사를 포함한다. 소비자(202)의 안면 실제감을 검증하기 위해, 물체의 각막 반사에서 검출된 위치 변화가 카메라 장치의 지정 또는 측정된 모션과 상관될 수 있다.
일부 구현예에서, 물체가 실감 검증을 위한 모션 중 위치들 간에 이동되도록 구성된 대상자이며, 물체가 서로 다른 위치에 있을 때 카메라가 장치가 정적이고 소비자(202)의 안면 이미지를 캡처한다. 안면 이미지는 물체의 각막 반사를 포함한다. 소비자(202)의 안면 실제감의 검증을 위해, 물체의 각막 반사의 검출된 위치 변화가 물체의 지정된 또는 측정된 모션과 상관될 수 있다.
일부 구현예에서, 물체는 제1 모션 패턴으로 위치들 간 이동하도록 구성된 대상자이며, 카메라 장치는 제2 모션 패턴으로 위치들 간에 이동된다. 실감 검증을 위해 물체와 카메라 장치 모두를 이동시키는 것이 해커에 대한 보안을 증가시킬 수 있다. 카메라 장치는 물체가 서로 다른 위치에 있을 때 소비자(202)의 안면 이미지를 캡처하고 카메라 장치는 또한 서로 다른 위치에 있다. 안면 이미지는 물체의 각막 반사를 포함한다. 소비자(202)의 안면 실제감의 검증을 위해, 물체의 (지정 또는 측정된) 제1 모션 패턴 및 카메라 장치의 (지정 또는 측정된) 제2 모션 패턴을 기초로, 물체의 각막 반사의 검출된 위치 변화가 물체의 제1 모션 패턴을 기초로 모션 패턴과 상관될 수 있다. 모션 패턴이 물체 및 카메라 장치에 대한 상대적 모션 패턴일 수 있다.
일부 구현예에서, 물체가 정적이고, 카메라 장치가 또한 정적이다. 조명기로부터의 물체에 대한 조명이 서로 다른 시점에서 변할 수 있는데, 가령, 조명 컬러 또는 패턴을 변할 수 있으며, 이에 따라 물체의 각막 반사가 변할 수 있다. 소비자(202)의 안면 실제감의 검증을 위해, 물체의 각막 반사에서의 물체 상의 검출된 조명 변화가 조명기의 알려진 조명 변화와 상관될 수 있다.
일부 구현예에서, 물체는 조명기, 가령, 스크린 상에 디스플레이되는 조명원 및/또는 디지털 조명원, 가령, 모바일 장치의 액정 디스플레이(LCD)이다. 카메라 장치는 물체의 각막 반사를 포함하는 소비자(202)의 안면 이미지를 캡처할 수 있다. 소비자(202)의 안면 실제감의 검증을 위해, 물체의 각막 반사의 검출된 조명기가 조명기의 지정 또는 측정된 조명 변화에 상관될 수 있다. 실감 검증의 조명을 이용하는 것이 도 5와 관련하여 기재된다.
일부 구현예에서, 카메라 장치는 정적이거나 및/또는 물체가 또한 정적이다. 카메라 장치에 연결되는 컴퓨팅 장치는 소비자(202)가 모션 패턴, 가령, 왼쪽에서 오른쪽으로 회전하는 모션으로 두부 또는 안면을 이동시키도록 촉진시킬 수 있다. 카메라 장치는 소비자(202)의 이동 도안 소비자(202)의 안면 이미지를 캡처할 수 있다. 소비자(202)의 안면 실제감의 검증을 위해, 물체의 각막 반사의 검출된 위치 변화가 소비자(202)의 모션과 상관될 수 있다.
일부 구현예에서, 물체 및/또는 카메라 장치는 모션 패턴으로 이동될 수 있고, 물체 상의 조명이 서로 다른 시점에서 변할 수 있는데, 가령, 조명 컬러 또는 패턴이 변할 수 있다. 소비자(202)의 안면 실제감의 검증이 1) 물체의 각막 반사의 검출된 위치 변화와 물체 및/또는 카메라 장치의 모션 패턴 간 상관관계, 및 2) 물체의 각막 반사의 물체 상의 검출된 조명 변화와 지정 또는 측정 조명 변화 간 상관관계를 기초로 할 수 있다.
초기에, (가령, Nation Television System Committee―NTSC에 의해 결정된 바와 같이, 또는 비디오 통신 표준 H.261에 의해 결정되는 바와 같이) 물체 및/또는 카메라 장치의 이동 동안 이미지가 풀 프레임 레이트에서 비디오 스트림에서 캡처될 수 있다. 일부 구현예에서, 예를 들어, H.261의 적응성 비디오 코덱 규격에 따라, 통신 효율을 위해, 캡처된 비디오 스트림의 일부분만 전송될 수 있다. 각막 반사의 변화가 개시되려 할 때, 비디오 피드가 디지털화되고 (소비자(202)가 정지 상태로 유지될 때) 기저 레벨 속도(floor-level rate)보다 빠른 속도에서 신원 제공자(206)의 서버에 전송될 수 있다. 일부 예시에서, 비디오 피드 또는 이미지가 카메라 장치에 의해 신원 제공자(206)의 서버로 전송된다. 일부 예시에서, 카메라 장치에 연결된 컴퓨팅 장치가 카메라 장치로부터 이미지 또는 비디오 피드를 수신하고 이미지 또는 비디오 피드를 신원 제공자(206)의 서버로 전송한다.
앞서 언급된 바와 같이, 신원 제공자(206)의 서버가 전송된 이미지 또는 비디오 피드를 기초로 실감 검증을 수행할 수 있다. 서버는 물체의 각막 반사를 결정하기 위해 이미지 또는 비디오 피드를 분석할 수 있다. 결정된 각막 반사를 기초로, 서버는 물체의 각막 반사의 위치 변화를 결정할 수 있다. 서버는 물체의 각막 반사의 위치 변화를 모션 패턴과 비교하고 비교의 결과를 기초로 소비자(202)의 안면 실제감을 결정할 수 있다. 일부 예시에서, 위치들 간에 이동할 때 모션 패턴은 물체 또는 카메라 장치 또는 둘 모두의 결정된 모션 패턴이다. 서버는 지정 모션 패턴을 사전-저장할 수 있다. 일부 예시에서, 모션 패턴은 위치들 간에 이동할 때 물체 또는 카메라 장치 또는 둘 모두의 측정된 모션 패턴이다. 모션 패턴은 캡처된 이미지 또는 비디오 피드와 함께 서버로 전송될 수 있다. 일부 예시에서, 신원 제공자(206)의 서버는 수신된 이미지 및/또는 비디오 피드를 분석하여, 가령, 캡처된 이미지 및/또는 비디오 피드에서 정적 대상자의 위치 변화를 분석함으로써 모션 패턴을 결정할 수 있다.
일부 구현예에서, 카메라 장치에 연결된 컴퓨팅 장치는 캡처된 이미지 또는 비디오 피드를 기초로 실감 검증을 수행하고 실감 검증의 결과를 신원 제공자(206)의 서버로 제출하는데, 이때 가령, 캡처된 이미지 또는 비디오 피드를 송신하거나 송신하지 않는다. 일부 경우, 컴퓨팅 장치는 인증을 위해 소비자(202)의 생체측정 데이터를 수신하고 실감 검증의 결과를, 소비자(202)의 생체측정 데이터와 함께, 신원 제공자(206)의 서버로 전송한다.
일부 예시에서, 컴퓨팅 장치는 의존자(204) 또는 신원 제공자(206)와 연관된다. 예를 들어, 소비자(202)는 의존자(204)와 연관된 ATM을 이용하는 인증을 시도한다. 컴퓨팅 장치는 ATM에 로컬일 수 있으며 소비자(202)를 대면하는 카메라 장치에 연결될 수 있다. 상기 컴퓨팅 장치는 신원 제공자(206)의 서버로부터 소비자(202)의 실감을 검증하기 위한 요청을 수신할 수 있다. 요청에 응답하여, 컴퓨팅 장치는 카메라 장치 및/또는 물체가 가령 소비자(202)에게 알려지지 않은 그리고 소비자(202)로부터의 입력 없이 모션 패턴 내 위치들 간에 이동할 때 카메라 장치가 이미지 및/또는 비디오 피드를 캡처하라는 명령어를 카메라 장치 및/또는 물체에게 전송할 수 있다. 일부 경우, 컴퓨팅 장치는 모션 패턴을 결정하고 모션 패턴을 카메라 장치 및/또는 물체로 전송한다. 실감 검증을 수행할 때마다 컴퓨팅 장치는 모션 패턴을 변경할 수 있다. 일부 경우, 모션 패턴은 사전 프로그램 또는 사전 결정된 모션 패턴이다. 컴퓨팅 장치는 모션 패턴을 사전-저장할 수 있다. 일부 경우, 카메라 장치 및/또는 물체가 위치에 따라 이동할 때 모션 패턴은 센서에 의해 측정된다. 컴퓨팅 장치는 센서로부터 측정된 모션 패턴을 수신할 수 있다.
일부 예시에서, 컴퓨팅 장치는 소비자(202), 가령, 스마트폰 또는 컴퓨터와 연관된다. 예를 들어, 소비자(202)는 가정에서 인증을 시도 중이다. 컴퓨팅 장치는 카메라 장치를 내부적으로 포함하거나 카메라 장치에 외부에서 연결될 수 있다. 일부 경우, 신원 제공자(204)에 의해 제공되는 애플리케이션(또는 컴퓨팅 장치가 스마트폰인 경우 앱(App))이 컴퓨팅 장치에 설치된다. 신원 제공자(204)의 서버로부터의 요청을 수신하거나 소비자(202)가 생체측정 인증을 위한 실감 검증을 이용하기로 선택했다고 결정하면, 애플리케이션은 소비자(202)가 소비자(202)의 안면에 대해 카메라 장치를 이동시킬 것을 요청한다. 센서(가령, 가속도계 또는 자이로스코프)를 이용함으로써, 컴퓨팅 장치가 카메라 장치의 이동을 결정할 수 있다. 일부 예시에서, 컴퓨팅 장치는 캡처된 이미지 및/또는 비디오 피드를 분석하여, 가령, 캡처된 이미지 및/또는 비디오 피드에서 정적 대상자의 위치 변화를 분석함으로써, 카메라 장치의 모션을 결정할 수 있다. 정적 대상자의 이미지는 각막 반사이거나 각막 영역 외부에 있을 수 있다. 컴퓨팅 장치는 캡처된 이미지 및/또는 비디오 피드에서 모션 패턴 및 카메라 장치의 각막 반사를 기초로 실감 검증을 수행할 수 있다. 일부 경우, 컴퓨팅 장치 내 애플리케이션이 조명원, 가령, 카메라 장치의 플래쉬조명을 제어하여 소비자(202)에게 알려진 조명 색 또는 패턴을 변경할 수 있다. 애플리케이션은 캡처된 이미지 및/또는 비디오 피드에서의 조명원의 변경된 색 또는 패턴 및 카메라 장치의 각막 반사를 기초로 실감 검증을 수행할 수 있다.
안면 인증과 유사하게, 물체의 반응 각막 반사와 기대되는 변화(가령, 모션 패턴 또는 조명 변화) 간 매칭의 정도를 정량화하기 위해 점수화 수단(scoring mechanism)이 구현될 수 있다. 점수화 수단은 소비자(202)의 안면의 실감을 결정하기 위한 척도로서 수치 값을 생성할 수 있다. 매칭 정도는 맥락에 따라 달라질 수 있으며 따라서 경우에 따라 달라질 수 있다. 예를 들어, 매칭의 정도가 기본 거래의 속성 또는 기본 거래에 포함된 금액에 따라 달라질 수 있다.
일부 구현예에서, 소비자(202)의 순차 안면 이미지에서 물체의 각막 반사가 검출된다. 순차 안면 이미지는 카메라 장치에 의해 순차 시점에서 캡처된다. 특정 시점에서의 물체의 기대 각막 반사가 이전 시점에서 결정된 각막 반사 및 이전 시점들 간 모션 및 특정 시점을 기초로 결정될 수 있다. 특정 시점에서 기대 각막 반사와 캡처된 안면 이미지로부터의 결정된 각막 반사 간 우도(likelihood)를 결정함으로써 소비자(202)의 안면 실제감이 평가될 수 있다.
각막 반사는 비방해적이고 광대역 동작(가령, 적외선에서 가시광까지)을 핸들링할 수 있기 때문에 이로울 수 있다. 특히, 각막 반사는 피부 반사보다 더 반짝거리는 경향이 있으며 더 산란되는 경향이 있다. 본 명세서에 개시된 구현예는 소비자(202)가 안면 제스처 또는 그 밖의 다른 신체 위치를 변경하도록 촉진하는 음성 지시어를 포함하지 않을 수 있다.
또한 소비자(202)의 안면의 포즈가 예를 들어 자동화 알고리즘을 이용해 추정될 수 있다. 자동화 알고리즘은 가령 비디오 피드로부터의 각각의 캡처 이미지에서 카메라 장치에 대한 안면의 포즈를 검출할 수 있다. 덧붙여, 안면의 포즈에서 기대 포즈 또는 변화가 가령, 장치내 가속도계 또는 자이로 모터에 의해 또는 카메라 장치의 각막 반사의 분석으로부터 카메라 장치의 측정되거나 알려진 위치를 기초로 계산될 수 있다. 일부 구현예에서, 소비자(202)는 소비자(202)의 안면에 대해 카메라 장치를 이동시키도록 촉진된다. 비디오 피드로부터 캡처된 각각의 추가 이미지에 대해 이러한 계산이 수행될 수 있다. 더 흥미로운 것은, 카메라 장치의 측정된 위치로부터 계산되는 기대 포즈 또는 포즈 변화와 캡처 이미지에서 검출된 안면 포즈가 점수화 수단을 이용해 정량적 방식으로 상관될 수 있다. 상관으로부터 결정된 수치 값이 안면의 실감을 측정하는 데 사용될 수 있다.
일부 구현예에서, 소비자(202)의 하나 이상의 안면 랜드마크를 분석함으로써, 소비자(202)의 안면의 포즈가 검출 또는 추정된다. 안면 랜드마크 특징부는 코, 이마, 눈썹, 눈, 눈 모서리, 입술 및/또는 입을 포함할 수 있다. 라이브 세션으로부터의 안면 또는 안면 포트레이트의 포즈가 다양한 각도에서의 대상자의 안면을 반영한다. 포즈 또는 안면 포트레이트의 시야각의 약간의 변화 때문에, 각각의 안면 랜드마크의 겉보기 배향 및 크기가 달라진다. 하나 이상의 안면 랜드마크 특징부의 배향 및 크기가 다양할 것으로 기대될 수 있다. 각각의 랜드마크 특징부가 배향 및 크기의 한 가지 어울리는 변화와 연관될 수 있다. 기대 변화의 임계치가 랜드마크 특징부에 대한 모든 기대되는 변경의 조합일 수 있다. 앞서 언급된 바와 같이, 임계치는 경우에 따라 다를 수 있다. 예를 들어, 특정 레벨 미만의 달러 금액과 관련된 거래의 경우, 세션이 라이브이고 제출된 안면 생체측정치가 진짜임을 결정하기 위한 비교가 덜 정교할 수 있다. 그러나 거래가 중요 신원 문서, 가령, 여권의 갱신과 관련될 때, 비교는 더 복잡하게 결정된 임계치를 포함할 수 있다.
일부 구현예에서, 소비자(202)의 안면 실제감의 검증이 물체 및 안면의 포즈 변화의 각막 반사 모두를 기초로 한다. 물체의 반응 각막 반사와 알려진 모션 패턴 간 매칭 정도를 정량화하여 제1 수치 값을 결정하기 위해 점수화 수단이 구현될 수 있다. 또한 (가령, 카메라 장치의 측정된 위치로부터 계산된) 기대 포즈 또는 포즈 변화와 캡처된 이미지에서 검출된 포즈 간 매칭 정도를 정량화하여 제2 수치 값을 결정하기 위해 점수화 수단이 구현될 수 있다. 그 후 전체 점수가 제1 매칭 값 및 제2 매칭 값을 기초로, 가령, 가중 인수(weighting factor)에 의해, 결정될 수 있다. 제1 매칭 값 및 제2 매칭 값의 가중 인수가, 예를 들어, 50% 및 50%이거나 60% 및 40%일 수 있다. 추가 검증이 소비자(22)가 정말 실물이고 신원 제공자(206)의 서버에 저장되는 생체측정치를 가진 사람일 신뢰도를 증가시킬 수 있다.
일부 실시예에서, 실감 검증은 조명기의 소비자(202)로부터의 각막 반사의 분석을 포함한다. 우선, 소비자(202)의 안면이 검출될 수 있다. 도 5를 참조할 때, 비디오 피드(또는 이미지)에서 소비자(202)의 눈(501)이 검출될 수 있다. 일반적으로, 이러한 검출은 안면 또는 눈 템플릿 데이터를 활용하는 분할 기법을 포함한다. 이러한 템플릿 데이터가 다양한 형태 변환을 통해 모핑되어, 비디오 피드 내 안면 또는 눈 영역을 식별할 수 있다. 눈(501)이 검출되면, 비디오 피드에서 각막 영역(502)이 결정될 수 있다. 비디오 프레임에서 각막 영역 상의 조명의 반사가 분석될 수 있다.
우선, 소비자(202)에 인접한 조명기(506)가 활성화될 수 있다. 예를 들어, 조명기(506)는 소비자(202)가 생체측정치 인증을 위해 검증된 실감 로그인을 선택했다는 결정(가령, 도 2a의 210)에 응답하여 활성화될 수 있다. 예를 들어, 도 5의 조명기(506)는 2개의 개별 색상(가령, 청색 또는 적색)을 갖는 조명원(506A) 및 조명원(506B)을 포함한다. 조명원은 물리 광원 또는 디지털 조명원일 수 있다. 일부 구현예에서, 조명기(506)는 물리 광원, 가령, 발광 다이오드(LED) 또는 조명 램프를 포함한다. 조명기(506)는 구별되는 광파장, 따라서 하나 이상의 구별되는 색의 하나 이상의 광원을 포함할 수 있다. 일부 구현예에서, 조명기(306)는 스크린, 가령, LPD(laser-powered phosphor display), LCD(liquid-crystal display) 스크린, LED(light-emitting diode) 스크린, 가령, 능동 매트릭스 유기 LED 스크린, 또는 그 밖의 다른 임의의 디스플레이 스크린에 디스플레이되는 하나 이상의 디지털 조명원을 포함한다. 디지털 조명원이 스크린, 가령, 모바일 장치의 LCD 스크린 상에 디스플레이되는 디지털 색 패턴일 수 있다. 소비자(202)의 컴퓨팅 장치에 설치되거나 신원 제공자(206)의 서버에 의해 가령, 소비자(202)의 컴퓨팅 장치 상에 디스플레이되는 사용자 인터페이스에 제공되는 애플리케이션(또는 App)에 의해 디지털 조명원이 제공될 수 있다. 일부 구현예에서, 조명기(306)는 하나 이상의 물리 광원 및 하나 이상의 디지털 조명원을 포함한다.
조명기(506)는 소비자(202)가 자신의 신원 및 실감을 인증하도록 시도하는 소비자 전자 장치, 가령, 스마트폰, 모바일 전화기, 모바일 컴퓨팅 장치, 또는 데스크톱 컴퓨터 상에 포함되거나 디스플레이될 수 있다. 조명기(506)는 의존자의 자동 현금화 기계(ATM)의 콘솔 상에 포함되거나 ATM에 인접하게 포함될 수 있다. 의존자 또는 신원 제공자(206)와 연관된 컴퓨팅 장치는 조명기(506)를 제어하도록 구성될 수 있다. 소비자(202)는 컴퓨팅 장치를 통해 자신의 신원 및 실감을 인증하려 시도할 수 있다.
활성화되면, 조명기(506)는 소비자(202)를 조명할 수 있다. 조명기(506)로부터의 조명은 소비자(202)의 눈까지 직선이거나 소비자(202)의 눈까지 일부 입사각을 두고 직선일 수 있다. 일부 예시에서, 조명기(506)로부터의 조명이 소비자(202)의 눈으로 일정 각도를 갖고 입사되도록, 소비자(202)가 조명기(506)(가령, 스마트폰 상의 플래시조명)를 안면(또는 눈)의 측부로 이동시키거나 안면(또는 눈)을 이동시키도록 촉진될 수 있다.
조명의 정보(가령, 위치, 형태, 지속시간, 색 또는 파장, 또는 조명 패턴)가 알려지거나 지정될 수 있다. 일부 예시에서, 소비자(202)의 컴퓨팅 장치는 실감 검증을 수행한다. 조명의 정보가 컴퓨팅 장치에 알려져 있지만, 소비자(또는 중간자로서 해커일 수 있는 자)에게는 사전에 알려져 있지 않을 수 있다. 조명의 정보가 컴퓨팅 장치에 의해 생성되거나 신원 제공자(206)의 서버에 의해 제공될 수 있다.
조명기(506)의 활성화 직후의 각막 반사가, 소비자(202)에 인접한 카메라 장치에 의해, 캡처될 수 있다. 카메라 장치는 조명기(506)의 활성화 전, 동안, 및 후에 소비자(202)의 안면 이미지를 계속 캡처할 수 있다. 일부 예시에서, 캡처된 이미지 프레임이 분석되어, 각막 반사가 기대(알려진 또는 지정된) 조명에 따르는지 여부를 확인할 수 있다. 각막 반사를 분석할 때, 소비자(202)의 각막의 반사된 조명의 위치, 형태 및 색/파장이 검출되고 기대 조명에 비교될 수 있다. 하나의 예시에서, 각막 반사의 위치, 가령, 반사 스팟(504A 또는 504B)이 조명원(506A 또는 506B)의 위치와 상관될 수 있다. 또 다른 예시에서, 반사 스팟(504A 또는 504B)의 형태가 조명원(506A 또는 506B)의 형태에 비교될 수 있다. 또 다른 예시에서, 반사 스팟(504A 또는 504B)으로부터 반사된 광의 파장(또는 색)이 조명원(506A 또는 506B)의 파장(또는 색)에 비교될 수 있다.
일부 예시에서, 조명기(506)(가령, 조명원(506A 또는 506B))에 의한 조명 패턴이 시간에 따라 변조되어 시간 조명 패턴을 형성할 수 있다. 예를 들어, 조명원(506A)이 조명을 버스트로 생성할 수 있으며, 각각의 버스트는 동일하거나 상이한 지속시간을 가진다. 예를 들어, 제1 지속시간은 1초일 수 있고 제2 지속시간은 2초일 수 있다. 시간 조명 패턴은 서로 다른 지속시간 동안 또는 서로 다른 시점에서의 조명 형태의 변화, 가령, 사각형, 삼각형, 및/또는 원형 간 변화, 및/또는 조명 색의 변화를 더 포함할 수 있다. 하나의 예를 들면, 조명기(506)는 제1 지속시간에서 적색 사각형을 제공하고 제2 지속시간에서 적색 원을 제공하며, 제3 지속시간에서 어떠한 조명도 없고, 제4 지속시간에서 청색 삼각형을 제공한다. 캡처된 순차 이미지에서의 각막 반사가 분석되어, 각막 반사가 동일한 시간 패턴을 포함할지 여부를 결정할 수 있다. 캡처된 순차 이미지에서 각막 반사는 또한 개별적으로 분석되어, 캡처된 순차 이미지에서의 각막 반사가 조명기(506)의 개별적인 기대 각막 반사에 매칭되는지 여부를 결정할 수 있다. 소비자(202)의 안면 실제감의 결정이 캡처된 순차 이미지의 매칭 결과를 기초로 할 수 있다.
일부 예시에서, 둘 이상의 조명원(가령, 조명원(506A 및 506B))에 의한 조명 패턴이 시간에 따라 변조되어 시간 조명 패턴을 형성할 수 있다. 조명원은 동일한거나 상이한 색으로 조명할 수 있다. 예를 들어, 조명원(506A 및 506B)은 버스트로 조명을 생성할 수 있으며, 각각의 버스트는 동일하거나 상이한 지속시간 및/또는 지속시간 동안 동일하거나 상이한 조명 형태를 가진다. 하나의 예시에서, 제1 시점에서, 조명원(506A)은 적색 사각형을 조명하고 조명원(506B)은 청색 사각형을 조명한다. 제2 시점에서, 조명원(506A)은 적색 원형을 조명하고 조명원(506B)은 청색 사각형을 조명한다. 제3 시점에서, 조명원(506)은 적색 원형을 조명하고 조명원(506)은 청색 원형을 조명한다. 제4 시점에서, 조명원(506)은 적색 사각형을 조명하고 조명원(506)은 적색 원형을 조명한다. 순차 이미지에서 각막 반사가 분석되어 각막 반사가 동일한 시간 패턴을 포함하는지 여부를 결정할 수 있다.
일부 예시에서, 둘 이상의 조명원(가령, 조명원(506A 및 506B))에 의한 조명 패턴이 공간적으로 변조되어 공간 조명 패턴을 형성할 수 있다. 예를 들어, 조명원(506A 및 506B)은 엇갈린 방식으로 각막(502)을 조명하도록 활성화될 수 있다. 일반적으로, 서로 다른 시점에서 조명원(506A), 조명원(506A) 또는 조명원(506A 및 506B)의 조합을 켜고 끔으로써, 조명원(506A 및 506B)으로부터의 조명 패턴이 달라질 수 있다. 이에 응답하여, 각막 반사가 분석되어 반사가 조명의 동일한 공간 패턴을 포함하는지 여부를 결정할 수 있다. 본 명세서에 개시된 바와 같이, 조명의 시간 및 공간 양태가 조합되어 실감 인증 세션의 신뢰도를 개선하는 다양한 매칭을 더 지지할 수 있다.
활성화된 조명에 반응하는 이미지가 완전 프레임 속도로 비디오 스트림으로 캡처될 수 있다. 일부 구현예에서, 앞서 언급된 바와 같이, 신원 제공자(206)의 서버가 캡처된 비디오 스트림을 기초로 실감 검증을 수행한다. 통신 효율을 위해, 캡처된 비디오 스트림의 일부분만 전송될 수 있다. 각막 반사가 변할 것으로 예상될 때, 비디오 스트림은 디지털화되고 (소비자(202)가 정지상태를 유지할 때) 기저-레벨 속도보다 빠른 속도로 신원 제공자(206)의 서버로 전송될 수 있다. 실제로, 송신된 비디오 스트림이 신원 제공자(206)의 서버에 의해 분석되어, 소비자(202)로부터의 비디오 스트림의 각막 반사의 변화가 조명기(506)의 조명의 알려진 변화와 매칭되는지 여부 또는 특정 시점에서의 비디오 프레임의 각막 반사가 특정 시점에서의 조명기(506)의 알려진 조명을 기초로 예상 각막 반사와 매칭되는지 여부를 결정할 수 있다.
안면 인증과 유사하게, 점수화 수단이 캡처된 이미지에서 신원 제공자(206)의 서버에서 수신되는 반응 각막 반사와 예상 조명(가령, 위치, 형태, 및 파장 또는 색, 또는 시간 및/또는 공간 패턴) 간 매칭의 정도를 정량화하도록 구현될 수 있다. 매칭의 정도는 맥락에 따라 달라질 수 있으며 경우에 따라 달라질 수 있다. 예를 들어, 매칭의 정도는 기저 거래의 속성 또는 기저 거래에 포함되는 액수에 따라 달라질 수 있다.
일부 구현예에서, 컴퓨팅 장치는, 가령, 컴퓨팅 장치 내에 포함되거나 컴퓨팅 장치에 연결된 카메라 장치에 의해, 캡처된 비디오 스트림을 수신하고, 캡처된 비디오 스트림을 기초로 실감 검증을 수행한다. 컴퓨팅 장치는 소비자(202)가 자신의 신원 및 실감을 인증하려 시도하는 소비자(202)의 컴퓨팅 장치일 수 있다. 예를 들어, 컴퓨팅 장치는 조명기(506)로서 플래시조명을 포함하고 카메라 장치로서 카메라를 포함하는 스마트폰일 수 있다. 스마트폰 상에 설치된 모바일 앱(app)이 하나 이상의 디지털 조명원을 조명기(506)로서 제공할 수 있다. 플래시조명과 디지털 조명원이 조합되어 조명기(506)로서 사용될 수 있다. 컴퓨팅 장치는 조명기(506)를 제어하여 지정된 또는 알려진 조명 패턴을 기초로 조명할 수 있다. 조명 패턴은 컴퓨팅 장치에 의해 생성되거나 신원 제공자(206)의 서버로부터 전송될 수 있다. 조명기(506)의 조명은 검출기에 의해 측정될 수 있고, 검출기는 측정된 조명을 컴퓨팅 장치로 제공한다. 조명기(506)의 알려진 조명이 컴퓨팅 장치에 저장될 수 있다. 컴퓨팅 장치는 카메라 장치를 제어하여, 조명기(506)의 조명 패턴의 활성화 동안 비디오 스트림을 캡처할 수 있다. 그 밖의 다른 일부 구현예에서, 컴퓨팅 장치는 의존자 또는 신원 제공자(206)와 연관된다.
카메라 장치가 컴퓨팅 장치의 로컬에 위치할 때, 캡처된 비디오 스트림(가령, 그 일부)의 전송이 빠를 수 있다. 컴퓨팅 장치는 송신된 비디오 스트림을 분석하여, 비디오 스트림(가령, 순차 비디오 프레임)의 각막 반사의 조명(또는 조명 변화)이 조명기(506)의 알려진 조명(또는 조명 변화)과 매칭됨을 결정할 수 있다. 컴퓨팅 장치는 캡처된 이미지 내 반응 각막 반사와 예상 조명 간 매칭의 정도를 정량화하기 위해 점수화 수단을 이용할 수 있다. 매칭의 정도는 맥락에 따라 달라질 수 있으며 따라서 경우에 따라 달라질 수 있다. 점수화된 매칭을 기초로, 컴퓨팅 장치는 소비자(202)의 안면 실제감을 검증할 수 있다. 그 후 컴퓨팅 장치는 신원 제공자(206)의 서버로 검증의 결과를, 가령, 소비자(202)의 상체측정 데이터와 함께 제출할 수 있다. 그 후 신원 제공자(206)의 서버가 제출된 생체측정 데이터가 컴퓨팅 장치로부터의 검증의 제출된 결과를 기초로 소비자(202)의 실물 안면 생체측정치인지 여부를 매끄럽게 결정할 수 있다.
본 명세서에 개시된 구현예가 시각적 및/또는 공간적 조명 패턴을 포함하는 조명에 응답하여 각막 반사를 검출한다. 각막 반사는 비방해적이며 광대역의 동작(가령, 적외선에서 가시광까지)을 핸들링할 수 있기 때문에 바람직할 수 있다. 특히, 각막 반사는 피부 반사보다 더 반짝이는 경향이 있고 더 산란되는 경향이 있다. 본 명세서에 개시된 구현예가 소비자(202)가 안면 제스처 또는 그 밖의 다른 신체 위치를 변경하도록 촉진시키는 음성 지시어를 포함하지 않을 수 있다. 본 명세서에 개시된 일부 구현예는 사용자 인지 및 입력 없이 매끄럽게 실감을 검출할 수 있다. 예를 들어, 조명 패턴의 활성화 및 순차 이미지의 캡처가 사용자 주의 없이, 가령, 소비자의 안면 생체측정치가 캡처될 때, 수행될 수 있다. 실감 검증은 또한 소비자(202)의 컴퓨팅 장치에 의해 안면 생체측정치를 캡처하는 동안 완료될 수 있다.
일부 구현예는 소비자(202)를 인증하기 위한 생체측정 인식 기능부를 더 포함할 수 있다. 예를 들어, 신원 제공자(206)의 서버가 안면 인식을 실시하여 등록된 소비자의 안면 생체측정치를 인증 요청을 제출한 소비자(202)의 안면 생체측정치에 비교할 수 있다. 비교가 매칭 결과를 산출하는 경우, 안면 인식은 소비자(202)는 안면 생체측정치가 신원 제공자(206)의 서버에 저장된 사람임을 증명할 수 있다. 또 다른 예시에서, 생체측정 인식은 음성 인식, 스피커 인식, 보행 분석 등을 포함할 수 있다. 본 명세서에 개시된 일부 구현예가 실감을 사용자가 알아채지 못하게 매끄럽게 검출할 수 있다(가령, 이미지 캡처 동안 사용자에게 임의의 특정 움직임을 만들 것을 지시함). 스텔스(stealth) 기능부가 활용되어 온라인 신원 관리 세션으로부터 실감 검출을 더 고립시킬 수 있다.
도 2a를 다시 참조하면, 소비자(202)가 실물이고 신원 제공자에 저장된 생체측정치를 갖는 사람임을 검증한 후, 신원 제공자(206)의 서버가 인증이 성공적이라는 신호를 제공할 수 있다. 그러나 소비자(202)가 실물이라고 검증될 수 없거나 의존자(204)에서의 계정과 함께 신원 제공자(206)에 저장된 생체측정치를 갖는 사람이라고 검증될 수 없는 경우, 신원 제공자(206)의 서버가 인증이 실패했다는 신호를 제공할 수 있다. 신호는 소비자(202)를 의존자(204)에게 다시 리디렉트하기 위한 소비자(202)에게로의 메시지에 내장될 수 있다(218).
그 후 소비자(202)는 의존자(204)에게 복귀될 수 있다(220). 내장된 신호가 검증이 성공적임을 가리키는 경우, 소비자(202)는 의존자(204)에 위치하는 계정을 액세스할 수 있다. 의존자(204)에게 복귀할 때, 소비자(202)는 신원 제공자(206)의 자격 증명에 의해 뒷받침되는 성공 신호를 첨부할 수 있다. 신원 제공자(206)의 자격 증명은, 예를 들어, 신원 제공자(206)의 디지털 개인 키, 신원 제공자(206)의 디지털 워터마크(digital watermark)를 포함할 수 있다. 그러나 내장된 신호가 검증이 실패했음을 가리키는 경우, 소비자(202)는 의존자(204)에 위치하는 계정을 액세스하지 않을 수 있다. 덧붙여, 소비자(202)는 의존자(204)로 리디렉트되지 않을 수도 있다.
도 2b는 일부 구현예에 따라 소비자가 신원 제공자에 아직 등록되어 있지 않을 때 소비자를 인증할 때 소비자, 의존자, 및 신원 제공자 간 예시적 대화를 보여주는 타이밍도이다. 앞서 도 2a와 관련하여 언급된 바와 같이, 프로세스는 소비자(202)에 의해 개시되어 의존자(204)에 의해 관리되는 계정을 액세스하기 위한 인증 요청을 전송한다(208). 일부 구현예에서, 인증 요청의 제출은 소비자(202)가 생체측정 인증(102)을 선택하여 예를 들어 금융 기관에 의해 관리되는 계정을 애겟스하는 것에 대응할 수 있다. 소비자가 인증 요청을 제출할 때, 소비자는 생체측정치 인증에 대한 검증된 실감 로그인을 선택할 수 있다(210). 검증된 실감 로그인의 소비자 선택을 수신한 것에 응답하여, 의존자의 서버는 소비자가 검증된 실감을 진행하도록 리디렉트할 수 있다(212). 그 후, 소비자(202)는 신원 제공자(206)의 서버로 리디렉트될 수 있다. 예를 들어, 소비자(202)는 소비자@relying_party.com의 형태로 된 자격 증명 토큰을 이용함으로써, 검증된 실감을 이용하기 위한 요청을 제출할 수 있다(214). 도 2b에 도시된 바와 같이, 요청이 신원 제공자(206)의 서버로 제출될 수 있다.
신원 제공자(206)의 서버가 소비자(202)가 신원 제공자(206)의 검증된 실감 서비스에 대해 아직 등록되지 않았음을 알릴 수 있다. 이에 응답하여, 신원 제공자(206)의 서버가 의존자(204)의 서버에게 소비자(202)가 요청한 대로 신원 제공자(206)가 검증된 실감 서비스에서 소비자(202)를 등록할 수 있는지 여부를 문의할 수 있다. 일부 의존자가 검증된 실감에 대해 신원 제공자(206)를 재정적으로 보상할 수 있다. 결국, 이들 의존자는 소비자를 대응하는 계정 이익을 갖는 다양한 분류로 계층화할 수 있다. 설명하자면, 가령 $50k의 임계 값 초과의 재산을 갖는 소비자가 검증된 실감 서비스를 무료 서비스로서 가질 수 있다. 더 적은 계좌 값 또는 더 짧은 회원 역사를 가진 소비자는 검증된 실감 서비스를 갖기 위해 의존자(204)에게 비용을 지불해야 할 수 있다.
소비자(202)가 검증된 실감 서비스에 등록할 수 있다고 결정되면, 의존자(204) 서버가 신원 제공자(206)의 서버에게 소비자(202)의 등록이 진행될 수 있음을 가리킬 수 있다(224). 그러나 의존자(204)의 서버가 소비자(202)가 검증된 실감 서비스에 등록할 수 없다고 결정한 경우, 의존자(204)의 서버는 신원 제공자(206)의 서버에게 소비자(202)가 요청된 서비스에 등록하기 위한 권한을 갖지 않음을 알릴 수 있고 신원 제공자(206)의 서버는 소비자(202)로부터 개시된 등록 요청을 폐기할 수 있다. 특히, 신원 제공자(206)의 서버가 등록이 실패됐다는 플래그와 함께 소비자(202)를 의존자(204)로 되돌려 보낼 수 있다(224).
신원 제공자(206)의 서버가 신원 제공자(206)가 소비자(202) 등록으로 진행할 수 있다는 확인을 수신하는 경우, 신원 제공자(206)의 서버가 소비자(202)에 대한 등록 절차를 관리할 수 있다(226). 특히, 신원 제공자(206)는 소비자(202)에게 생체측정치를 등록할 것을 요청할 수 있다. 생체측정치의 예시로는, 안면 생체측정치, 지문, 장문(palm-print), 홍채 스캔, 망막 스캔이 있을 수 있다. 안면 생체측정치의 경우, 신원 제공자(206)의 서버가 소비자(202)에게, 예를 들어, 웹 카메라, 비디오 카메라, 또는 스마트폰 카메라 앞에 설 것을 요청할 수 있다. 카메라 장치는 예를 들어, 소비자(202)의 컴퓨팅 장치, ATM 상에 또는 은행의 등록 사무실 내에 위치할 수 있다. 우선, 카메라 장치 또는 상기 카메라 장치에 연결된 컴퓨팅 장치는 신원 제공자(206)의 서버로 캡처 프레임을 전송할 수 있다. 이 캡처된 프레임은 신원 제공자(206)에 소비자(202)를 식별하는 생체측정 정보로서 저장될 수 있다. 예를 들어, 신원 제공자(206)의 서버 또는 컴퓨팅 장치는 앞서 도 2a, 3a, 3b, 4 및 5와 관련하여 기재된 바와 같이 등록 세션의 실감을 검증할 수 있다.
본 명세서에 개시된 바와 일치하여, 신원 제공자(206)의 서버는 또한 소비자(202) 상의 조명 패턴을 개시하여, 실물 소비자가 서비스에 등록을 시도하는 중이라는 신뢰도 레벨을 증가시킬 수 있다. 본 명세서에 기재된 바와 같이, 서로 다른 개별 공간 및 시간 변조를 위한 복수의 조명 패턴이 단일 조명 반응과 연관된 모호함을 제거할 수 있다. 예를 들어, 소비자(202)가 하나의 단일 조명으로부터 예상되는 최대 범위까지 반응하지 않을 수 있을 때, 또는 비디오 전송 동안의 샘플링 에러가 정확한 반응 반사를 포함하는 프레임을 소실했을 수 있을 때, 단일 반응 조명이 신뢰도를 갖고 소비자(202)가 서비스에 등록하기를 시도하는 실물 사람이라고 결정하는 데 불충분할 수 있다.
소비자(202)가 실물 사람이라고 결정됐고 검증된 실감 서비스에 등록했을 때, 신원 제공자(206)의 서버가 인증이 성공적이라는 신호를 갖고 소비자(202)를 의존자(204)에게로 다시 리디렉트할 수 있다(228). 소비자(202)가 프로그램에 성공적으로 등록했을 경우, 신원 제공자(206)의 서버가 인증이 성공했다는 신호를 제공할 수 있다. 그러나 소비자(202)가 실물이라고 또는 사람이라고 검증될 수 없고 검증된 서비스 프로그램에 등록할 수 없는 경우, 신원 제공자(206)의 서버가 인증이 실패했다는 신호를 제공할 수 있다. 신호는 소비자(202)를 의존자(204)에게로 다시 리디렉트하기 위한(218) 소비자(202)에게로의 메시지에 내장될 수 있다.
그 후 소비자(202)는 의존자(204)에게로 복귀될 수 있다(230). 내장된 신호가 인증이 성공적이었음을 가리키는 경우, 소비자(202)는 의존자(204)의 계정을 액세스하려 진행할 수 있다. 의존자(204)에게로 복귀할 때, 소비자(202)는 신원 제공자(206)의 자격 증명에 의해 뒷받침되는 성공 신호를 첨부할 수 있다. 신원 제공자(206)의 자격 증명은, 예를 들어, 신원 제공자(206)의 디지털 개인 키, 신원 제공자(206)의 디지털 워터마크를 포함할 수 있다. 그러나 내장된 신호가 인증이 실패했다고 가리키는 경우, 소비자(202)는 의존자(204)의 계정을 액세스하지 않을 수 있다. 덧붙여, 소비자(202)는 의존자(204)로 다시 리디렉트되지 않을 수도 있다.
특히, 일부 구현예에서, 최초 등록자가 의존자(204)의 최초 등록자의 계정으로 성공적으로 로그인한 후 최초 등록자가 신원 제공자(206)의 서버로 전송될 수 있다. 등록은 소비자에게 스푸핑 공격에 대해 보호하기 위한 추가 보안 기능을 제공할 수 있다. 보안 기능부는 또한 앞서 언급된 바와 같은 생체측정 인식을 포함할 수 있다. 실제로, 일부 구성은 패스워드 인증의 형태로 생체측정 인식을 이용할 수 있다. 다시 말하면, 생체측정 인식이 패스워드 로그인의 대리로서 사용될 수 있다.
그러나 일부 구현예에서, 신원 제공자(206)는 검증된 실감 프로그램에 등록하려 시도하는 복수의 소비자에 대한 데이터베이스를 획득할 수 있다. 등록 프로세스 동안, 신원 제공자(206)의 서버가 등록을 시도하는 소비자로부터 생체측정치를 수집할 수 있다. 소비자가 적법한 등록 요청을 하는 실물 사람임을 검증한 후, 신원 제공자(206)의 서버가 소비자를 등록할 수 있다. 따라서 일부 구현예에서, 소비자(202)가 의존자(204)로부터 리디렉트되었을 때 신원 제공자(206)의 서버가 소비자(202)의 디지털 생체측정치의 복사본을 가질 수 있다. 소비자(202)의 디지털 생체측정치의 복사본이 이용 가능할 때, 신원 제공자(206)의 서버는 소비자(202)가 실물 사람이라고 결정할 필요만 있을 수 있다.
본 발명의 구현예 및 본 명세서에 기재된 기능적 동작이 디지털 전자 회로, 물리적으로 구현된 컴퓨터 소프트웨어 또는 펌웨어로, 본 명세서에 기재된 구조 및 이들의 구조적 등가물을 포함하는 컴퓨터 하드웨어, 또는 이들 중 하나 이상의 조합으로 구현될 수 있다. 본 명세서에 기재된 본 발명의 구현예는 하나 이상의 컴퓨터 프로그램, 즉, 데이터 처리 장치에 의해 실행되거나 데이터 처리 장치의 동작을 제어하도록 실행되는 물리적 비일시적 프로그램 캐리어에 인코딩되는 컴퓨터 프로그램 명령의 하나 이상의 모듈로 구현될 수 있다. 컴퓨터 저장 매체는 기계 판독형 저장 장치, 기계 판독형 저장 기판, 랜덤 또는 직렬 액세스 메모리 장치, 또는 이들 중 하나 이상의 조합일 수 있다.
"데이터 처리 장치"라는 용어는 데이터 처리 하드웨어를 지칭하고, 데이터를 처리하기 위한 모든 유형의 장치, 디바이스, 및 기계, 가령, 프로그래머블 프로세서, 컴퓨터, 또는 복수의 프로세서 또는 컴퓨터를 포함한다. 장치는 또한 특수 목적 로직 회로, 가령, 중앙 처리 장치(CPU), 필드 프로그램 가능 게이트 어레이(FPGA), 또는 주문형 집적 회로(ASIC)이거나 이들을 더 포함할 수 있다. 일부 구현예에서, 데이터 처리 장치 및/또는 특수 로직 회로가 하드웨어-기반 및/또는 소프트웨어-기반일 수 있다. 선택사항으로서 장치는 컴퓨터 프로그램에 대한 실행 환경을 만드는 코드, 가령, 프로세서 펌웨어, 프로토콜 스택, 데이터베이스 관리 시스템, 운영 체제, 또는 이들 중 하나 이상의 조합을 구성하는 코드를 포함할 수 있다. 본 발명은 종래의 운영 체제, 가령, Linux, UNIX, Windows, Mac OS, Android, iOS 또는 그 밖의 다른 임의의 적합한 종래의 운영 체제를 갖거나 갖지 않는 데이터 처리 장치의 사용을 고려한다.
프로그램, 소프트웨어, 소프트웨어 애플리케이션, 모듈, 소프트웨어 모듈, 스크립트, 또는 코드로 지칭될 수 있는 컴퓨터 프로그램이 임의의 형태의 프로그래밍 언어, 컴파일된 또는 번역된 언어 또는 선언적 또는 절차적 언어로 써질 수 있고 임의의 형태, 가령, 자립형 프로그램 또는 모듈, 구성요소, 서브루틴 또는 컴퓨팅 환경에서 사용되기에 적합한 그 밖의 다른 유닛으로 전개될 수 있다. 컴퓨터 프로그램은 파일 시스템 내 파일에 대응할 수 있지만 반드시 그럴 필요는 없다. 프로그램은 다른 프로그램 또는 데이터, 가령, 마크업 언어 문서에 저장된 하나 이상의 스크립트를 보유하는 파일의 일부분에, 관심 프로그램 전용인 단일 파일에, 또는 복수의 조화된 파일, 가령, 하나 이상의 모듈, 서브 프로그램 또는 코드의 일부분을 저장하는 파일에 저장될 수 있다. 컴퓨터 프로그램은 하나의 컴퓨터 상에 또는 하나의 장소에 위치하거나 복수의 장소에 분산되어 있고 통신 네트워크에 의해 상호연결된 복수의 컴퓨터 상에서 실행되도록 전개될 수 있다. 다양한 도면에 도시된 프로그램의 일부분이 다양한 특징 및 기능을 다양한 객체, 메소드, 또는 그 밖의 다른 프로세스를 통해 구현하는 개별 모듈로 도시되지만, 프로그램은 경우에 따라 복수의 서브-모듈, 제3자 서비스, 컴포넌트, 라이브러리를 포함할 수 있다. 반대로 말하면, 다양한 구성요소의 특징 및 기능이 경우에 따라 단일 구성요소로 조합될 수 있다.
본 명세서에 기재된 프로세스 및 로직 흐름이 하나 이상의 컴퓨터 프로그램을 실행하는 하나 이상의 프로그램 가능한 컴퓨터에 의해 수행되어 입력 데이터를 조작하고 출력을 생성함으로써, 기능을 수행할 수 있다. 프로세스 및 로직 흐름이 또한 수행될 수 있고, 장치는 특수 로직 회로, 가령, 중앙 처리 장치(CPU), 필드 프로그램 가능 게이트 어레이(FPGA), 또는 주문형 집적 회로(ASIC)로서 구현될 수 있다.
컴퓨터 프로그램의 실행에 적합한 컴퓨터는 예를 들어 범용 또는 특수 마이크로프로세서 또는 그 밖의 다른 유형의 임의의 중앙 처리 장치를 기초로 할 수 있다. 일반적으로, 중앙 처리 장치가 리드 온리 메모리 또는 랜덤 액세스 메모리로부터 명령 및 데이터를 수신할 것이다. 컴퓨터의 핵심적 요소가 명령을 수행하거나 실행하기 위한 중앙 처리 장치 및 명령 및 데이터를 저장하기 위한 하나 이상의 메모리 장치이다. 일반적으로, 컴퓨터는 데이터를 저장하기 위한 하나 이상의 대용량 저장 장치, 가령, 자기 디스크, 자기 광학 디스크, 또는 광학 디스크를 포함하거나 이와 데이터를 주고 받도록 연결될 수 있다. 그러나 컴퓨터는 이러한 장치를 가질 필요가 없을 수 있다. 덧붙여, 컴퓨터는 또 다른 장치, 가령, 모바일 전화기, 개인 디지털 보조기(PDA), 모바일 오디오 또는 비디오 플레이어, 게임 콘솔, 글로벌 위치확인 시스템(GPS) 수신기, 또는 휴대용 저장 장치, 가령, 전역 직렬 버스(USB) 플래시 드라이버 등에 내장될 수 있다.
컴퓨터 프로그램 명령 및 데이터를 저장하기에 적합한 컴퓨터 판독형 매체(경우에 따라 일시적 또는 비일시적)가 모든 형태의 비휘발성 메모리, 매체 및 메모리 장치를 포함하며, 예를 들어, 반도체 메모리 장치, 가령, EPROM, EEPROM 및 플래시 메모리 장치, 자기 디스크, 가령, 내부 하드 디스크 또는 이동식 디스크, 자기 광학 디스크, 및 CD ROM 및 DVD-ROM 디스크가 있다. 메모리는 다양한 객체 또는 데이터, 가령, 캐시, 클래스, 프레임워크, 애플리케이션, 백업 데이터, 작업, 웹 페이지, 웹 페이지 템플릿, 데이터베이스 테이블, 비즈니스 및/또는 동적 정보를 저장하는 레포지토리, 및 임의의 파라미터, 변수, 알고리즘, 명령, 규칙, 제약, 또는 기준을 포함하는 그 밖의 다른 임의의 적합한 정보를 저장할 수 있다. 추가로, 메모리는 그 밖의 다른 임의의 적절한 데이터, 가령, 로그, 정책, 보안 또는 액세스 데이터, 리포팅 파일 등을 포함할 수 있다. 프로세서 및 메모리는 특수 목적 로직 회로에 의해 보충되거나 여기에 포함될 수 있다.
사용자와의 대화를 제공하기 위해, 본 명세서에 기재된 본 발명의 구현예는 정보를 사용자에게 디스플레이하기 위한 디스플레이 장치, 가령, CRT(cathode ray tube), LCD(liquid crystal display), 또는 플라스마 모니터, 및 사용자가 컴퓨터로 입력을 제공하도록 할 수 있는 키보드 및 포인팅 장치, 가령, 마우스 또는 트랙볼을 갖는 컴퓨터 상에서 구현될 수 있다. 그 밖의 다른 유형의 장치가 사용자와 대화를 제공하도록 사용될 수 있으며, 예를 들어 사용자에게 제공되는 피드백이 임의의 형태의 감각 피드백, 가령, 시각적 피드백, 청각적 피드백, 또는 촉각적 피드백일 수 있으며, 사용자로부터의 입력이 임의의 형태, 가령, 음향, 음성, 또는 촉각 입력으로 수신될 수 있다. 덧붙여, 컴퓨터는 사용자가 사용하는 장치로 문서를 전송하고 문서를 수신함으로써 예를 들어, 웹 브라우저로부터 수신된 요청에 응답하여 웹 페이지를 사용자의 클라이언트 장치 상의 웹 브라우저로 전송함으로써, 사용자와 대화할 수 있으며,
"그래픽 사용자 인터페이스", 또는 GUI라는 용어는 단수 또는 복수로 사용되어, 하나 이상의 그래픽 사용자 인터페이스 및 특정 그래픽 사용자 인터페이스의 각각의 디스플레이를 설명할 수 있다. 따라서 GUI는 임의의 그래픽 사용자 인터페이스, 비제한적 예를 들면, 웹 브라우저, 터치 스크린, 또는 정보를 처리하고 사용자에게 정보 결과를 효율적으로 표시하는 명령어 라인 인터페이스(CLI)를 나타낼 수 있다. 일반적으로, GUI는 일부 또는 전부가 웹 브라우저와 연관된 복수의 사용자 인터페이스(UI) 요소, 가령, 대화형 필드, 풀-다운 리스트(pull-down list), 및비지니스 군 사용자에 의해 동작 가능한 버튼을 포함할 수 있다. 이들 및 그 밖의 다른 UI 요소가 웹 브라우저의 기능과 관련되거나 이들을 나타낼 수 있다.
본 명세서에 기재된 본 발명의 구현예는 백엔드 구성요소, 가령, 데이터 서버를 포함하거나, 미들웨어 구성요소, 가령, 애플리케이션 서버를 포함하거나, 프론트 엔드 구성요소, 가령, 사용자가 본 발명의 구현예와 대화할 때 이용할 수 있는 그래픽 사용자 인터페이스 또는 웹 브라우저를 갖는 클라이언트 컴퓨터를 포함하거나, 이러한 백엔드, 미들웨어, 또는 프론트엔드 구성요소 중 하나 이상의 임의의 조합을 포함하는 컴퓨팅 시스템에서 구현될 수 있다. 시스템의 구성요소는 임의이 형태 또는 매체의 디지털 데이터 통신, 가령, 통신 네트워크에 의해 상호연결될 수 있다. 통신 네트워크의 예시는 로컬 영역 네트워크(LAN), 광역 네트워크(WAN), 가령, 인터넷 및 무선 로컬 영역 네트워크(WLAN)를 포함한다.
컴퓨팅 시스템은 클라이언트 및 서버를 포함할 수 있다. 일반적으로 클라이언트 및 서버가 서로 원격이며 통신 네트워크를 통해 대화한다. 각자의 컴퓨터 상에서 실행되고 서로 클라이언트-서버 관계를 갖는 컴퓨터 프로그램에 의해 클라이언트 및 서버의 관계가 발생한다.
이 명세서가 많은 특정 구현 상세사항을 포함하지만, 이들은 임의의 발명의 범위 또는 청구 대상 범위에 대한 제한으로 해석되어서는 안 되며, 오히려 특정 발명의 특정 구현예에 특정적일 수 있는 특징부의 설명으로 해석되어야 한다. 개별 구현예의 맥락에서 본 명세서에 기재된 특정 특징부들이 단일 구현예에서 조합되어 구현될 수 있다. 역으로, 단일 구현예의 맥락에서 기재된 다양한 특징부가 복수의 구현예로 개별적으로 또는 임의의 적합한 서브-조합으로 구현될 수 있다. 또한 특징부가 특정 조합으로 동작하는 것으로 앞서 기재되었지만, 청구되는 조합으로부터의 하나 이상의 특징부가 일부 경우 조합으로부터 실시될 수 있으며 청구된 조합이 서브-조합 또는 서브-조합의 변형과 관련될 수 있다.
마찬가지로, 동작들이 도면에 특정 순서로 도시되지만, 바람직한 결과를 얻기 위해, 이러한 동작은 도시된 특정 순서로 또는 순차 순서로 수행되어야 하거나, 모든 도시된 동작이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정 환경에서, 멀티태스팅 및 병렬 프로세싱이 이로울 수 있다. 덧붙여, 앞서 기재된 구현예에서 다양한 시스템 모듈 및 구성요소의 분리가 모든 구현예에서 이러한 분리가 요구되는 것으로 이해되어서는 안 되며, 기재된 프로그램 구성요소 및 시스템이 단일 소프트웨어 프로덕트에 함께 집적되거나 복수의 소프트웨어 제품으로 패키지될 수 있다.
본 발명의 특정 구현예가 기재되었다. 기재된 구현예의 그 밖의 다른 구현, 대안, 및 순열이 해당 분야의 통상의 기술자에게 자명한 바와 같이 이하의 청구항의 범위 내에 있다. 예를 들어, 청구항에 언급된 동작이 서로 다른 순서로 수행될 수 있으며 여전히 바람직한 결과를 획득한다.
따라서 예시적 구현의 상기의 기재가 본 발명을 정의하거나 제한하는 것이 아니다. 그 밖의 다른 변화, 치환 및 변경이 또한 본 발명의 사상 및 범위 내에 있을 수 있다.

Claims (63)

  1. 안면 실제감(facial liveliness)을 검출하기 위한 컴퓨터로 구현되는 방법으로서,
    하나 이상의 프로세서에 의해, 대상자의 제1 안면 이미지 및 제2 안면 이미지를 처리하여, 물체의 제1 각막 반사 및 제2 각막 반사를 결정하는 단계 - 상기 제1 안면 이미지 및 제2 안면 이미지는 순차적인 제1 시점 및 제2 시점에서 캡처됨 - ,
    하나 이상의 프로세서에 의해, 결정된 제1 각막 반사 및 제2 각막 반사를 기초로 물체의 각막 반사 변화를 결정하는 단계,
    하나 이상의 프로세서에 의해, 물체의 결정된 각막 반사 변화를 제1 시점 및 제2 시점과 연관된 모션에 비교하는 단계, 및
    하나 이상의 프로세서에 의해, 비교의 결과를 기초로 대상자의 안면 실제감을 결정하는 단계
    를 포함하는, 컴퓨터로 구현되는 방법.
  2. 제1항에 있어서, 물체의 결정된 각막 반사 변화를 모션에 비교하는 단계는
    물체의 결정된 각막 반사 변화를 상기 모션과 상관시키는 단계,
    상관의 결과를 기초로 매칭 품질을 점수화하는 단계, 및
    점수화된 매칭 품질을 지정 임계치에 비교하는 단계를 포함하며,
    대상자의 안면 실제감을 결정하는 단계는
    점수화된 매칭 품질이 지정 임계값을 초과한다는 결정에 응답하여, 대상자의 안면이 실물임을 결정하는 단계를 포함하는, 컴퓨터로 구현되는 방법.
  3. 제1항에 있어서,
    결정된 제1 각막 반사와 모션을 기초로 제2 시점에서 물체의 기대 각막 반사를 결정하는 단계, 및
    기대 각막 반사와 결정된 제2 각막 반사 간 우도(likelihood)를 결정함으로써, 대상자의 안면 실제감을 평가하는 단계를 더 포함하는, 컴퓨터로 구현되는 방법.
  4. 제1항에 있어서, 물체의 각막 반사 변화가 물체의 각막 반사의 위치 변화를 포함하는, 컴퓨터로 구현되는 방법.
  5. 제4항에 있어서, 모션이 제1 위치와 제2 위치 간 물체의 움직임과 연관되며,
    물체가 제1 위치에 있는 제1 시점에서 제1 안면 이미지가 캡처되고, 물체가 제2 위치에 있는 제2 시점에서 제2 안면 이미지가 캡처되는, 컴퓨터로 구현되는 방법.
  6. 제5항에 있어서,
    센서에 의해 측정된 물체의 움직임의 정보를 수신하는 단계, 및
    물체의 움직임의 수신된 정보를 기초로 모션을 결정하는 단계를 더 포함하는, 컴퓨터로 구현되는 방법.
  7. 제6항에 있어서,
    대상자가 물체를 이동하게 하는 단계를 더 포함하는, 컴퓨터로 구현되는 방법.
  8. 제6항에 있어서,
    물체의 움직임이 대상자의 자연적인 모션과 연관되는, 컴퓨터로 구현되는 방법.
  9. 제6항에 있어서, 하나 이상의 프로세서는 컴퓨팅 장치에 포함되며,
    컴퓨팅 장치는 물체 및 센서를 포함하며 물체가 카메라 장치이고 센서는 가속도계, 자이로스코프, 및 전역 위치확인 시스템(GPS) 중 적어도 하나를 포함하는, 컴퓨터로 구현되는 방법.
  10. 제9항에 있어서,
    센서를 이용하여, 물체가 움직이는 중이라고 결정하는 단계, 및
    대상자의 안면 이미지를 캡처하도록 카메라 장치에게 요청하는 단계를 더 포함하는, 컴퓨터로 구현되는 방법.
  11. 제5항에 있어서,
    상기 모션은 물체의 지정된 모션이며,
    상기 물체는 지정된 모션을 기초로 제1 위치에서 제2 위치로 이동하는, 컴퓨터로 구현되는 방법.
  12. 제5항에 있어서, 제1 안면 이미지 및 제2 안면 이미지가 물체의 움직임 동안 정적인 제2 물체를 포함하며,
    상기 방법은 제1 안면 이미지와 제2 안면 이미지에서 제2 물체의 위치 변화를 기초로 모션을 결정하는 단계를 더 포함하는, 컴퓨터로 구현되는 방법.
  13. 제5항에 있어서,
    물체에 연결된 제어기로 명령어를 전송하는 단계 - 상기 명령어는 제어기에게 상기 물체를 이동시키도록 지시함 - 를 더 포함하는, 컴퓨터로 구현되는 방법.
  14. 제13항에 있어서, 상기 명령어는 물체에 대한 지정된 모션을 포함하고, 지정된 모션은 물체에 대한 이전 지정된 모션과 상이한, 컴퓨터로 구현되는 방법.
  15. 제4항에 있어서,
    제1 시점 및 제2 시점을 포함하는 순차 시점에서 대상자의 안면 이미지를 캡처하도록 카메라 장치로 명령어를 전송하는 단계, 및
    카메라 장치로부터 캡처된 안면 이미지를 수신하는 단계를 더 포함하는, 컴퓨터로 구현되는 방법.
  16. 제15항에 있어서, 카메라 장치로부터 캡처된 안면 이미지를 수신하는 단계는 카메라 장치로부터 비디오 스트림 피드를 수신하는 단계를 포함하며, 상기 비디오 스트림 피드는 캡처된 안면 이미지를 포함하는, 컴퓨터로 구현되는 방법.
  17. 제15항에 있어서, 상기 카메라 장치는 제1 시점과 제2 시점 사이에 제1 위치로부터 제2 위치로 이동되며,
    대상자의 제1 안면 이미지가 카메라 장치가 제1 위치에 있는 제1 시점에서 캡처되며, 대상자의 제2 안면 이미지가 카메라 장치가 제2 위치에 있는 제2 시점에서 캡처되고,
    모션은 제1 위치와 제2 위치 사이에 카메라 장치의 움직임을 기초로 하는, 컴퓨터로 구현되는 방법.
  18. 제17항에 있어서,
    물체에 연결된 제어기로 제2 명령어를 전송하는 단계 - 상기 제2 명령어는 제1 시점 및 제2 시점에서 물체를 이동시키도록 제어기에게 지시함 - 를 더 포함하며, 모션은 카메라 장치의 움직임 및 물체의 움직임을 기초로 하는, 컴퓨터로 구현되는 방법.
  19. 제1항에 있어서, 상기 물체는 카메라 장치, 조명 장치, 또는 주위 환경보다 밝은 물체 중 하나를 포함하는, 컴퓨터로 구현되는 방법.
  20. 제1항에 있어서, 물체의 각막 반사 변화가 제1 각막 반사 및 제2 각막 반사에서 물체의 제1 조명 변화를 포함하며,
    상기 방법은
    제1 시점 및 제2 시점에 대해 물체의 제2 조명 변화를 획득하는 단계, 및
    물체 상의 획득된 제2 조명 변화와 제1 각막 반사 및 제2 각막 반사 내 제1 조명 변화 간 매칭 품질을 결정하는 단계를 더 포함하며,
    대상자의 안면 실제감을 결정하는 단계는
    지정된 매칭 품질 및 비교의 결과를 기초로 대상자의 안면 실제감을 결정하는 단계를 포함하는, 컴퓨터로 구현되는 방법.
  21. 제1항에 있어서,
    대상자가 생체측정 인증을 위한 실감 검증을 이용하도록 선택했음을 결정하는 단계를 더 포함하는, 컴퓨터로 구현되는 방법.
  22. 제21항에 있어서,
    신원 제공자의 컴퓨팅 장치로, 신원 제공자와 상이한 의존자(relying party)에 의해 관리되는 계정을 액세스하기 위한 대상자의 인증 요청을 전송하는 단계 - 인증 요청은 대상자의 생체측정 데이터 및 대상자의 결정된 안면 실제감을 포함함 - 를 더 포함하는, 컴퓨터로 구현되는 방법.
  23. 안면 실제감을 검출하기 위한 컴퓨터로 구현되는 방법으로서, 상기 방법은
    하나 이상의 프로세서에 의해, 대상자의 제1 안면 이미지와 제2 안면 이미지를 처리하여, 대상자의 안면의 제1 포즈 및 제2 포즈를 결정하는 단계 - 제1 안면 이미지 및 제2 안면 이미지는 순차적인 제1 시점 및 제2 시점에서 캡처됨 - ,
    하나 이상의 프로세서에 의해, 결정된 제1 포즈 및 제2 포즈를 기초로 안면의 포즈의 변화를 결정하는 단계,
    하나 이상의 프로세서에 의해, 안면의 포즈의 결정된 변화를 제1 시점 및 제2 시점과 연관된 모션에 비교하는 단계, 및
    하나 이상의 프로세서에 의해, 비교의 결과를 기초로 대상자의 안면 실제감을 결정하는 단계를 포함하는, 컴퓨터로 구현되는 방법.
  24. 제23항에 있어서,
    안면의 포즈의 결정된 변화를 모션에 비교하는 단계는
    안면의 포즈의 결정된 변화를 모션과 상관시키는 단계,
    상관의 결과를 기초로 매칭 품질(matching quality)을 점수화하는 단계, 및
    물체의 결정된 각막 반사 변화를 지정 임계치에 비교하는 단계를 포함하며,
    대상자의 안면 실제감을 결정하는 단계는
    물체의 결정된 각막 반사 변화가 지정 임계치를 초과한다는 결정에 응답하여 대상자의 안면이 실물이라고 결정하는 단계를 포함하는, 컴퓨터로 구현되는 방법.
  25. 제23항에 있어서,
    지정된 제1 포즈 및 모션을 기초로 제2 시점에서의 안면의 포즈를 계산하는 단계, 및
    제2 안면 이미지로부터의 안면의 결정된 제2 포즈에 대한 계산된 안면의 포즈의 우도를 결정함으로써, 안면 실제감을 평가하는 단계를 더 포함하는, 컴퓨터로 구현되는 방법.
  26. 제23항에 있어서, 모션은 안면과 대상자의 안면 이미지를 캡처하도록 구성된 카메라 장치 간 상대적 움직임과 연관된, 컴퓨터로 구현되는 방법.
  27. 제26항에 있어서,
    대상자가 대상자의 안면에 대해 카메라 장치를 이동시키게 하는 단계를 더 포함하는, 컴퓨터로 구현되는 방법.
  28. 제27항에 있어서,
    센서에 의해 측정된 카메라 장치의 움직임의 정보를 수신하는 단계, 및
    카메라 장치의 움직임의 수신된 정보를 기초로 모션을 결정하는 단계를 더 포함하는, 컴퓨터로 구현되는 방법.
  29. 제26항에 있어서, 하나 이상의 프로세서는 컴퓨팅 장치에 포함되고,
    컴퓨팅 장치는 카메라 장치 및 센서를 포함하고 상기 센서는 가속도계, 자이로스코프, 및 전역 위치확인 시스템(GPS) 중 적어도 하나를 포함하는, 컴퓨터로 구현되는 방법.
  30. 제23항에 있어서, 안면의 제1 포즈 및 제2 포즈를 결정하는 단계는 안면의 적어도 하나의 안면 랜드마크를 결정하는 단계를 포함하는, 컴퓨터로 구현되는 방법.
  31. 안면 실제감을 검출하기 위한 컴퓨터로 구현되는 방법으로서, 상기 방법은
    하나 이상의 프로세서에 의해, 대상자의 안면 이미지를 처리하여 대상자에 인접한 조명기의 각막 반사를 결정하는 단계 - 상기 안면 이미지는 한 시점에서 캡처됨 - ,
    하나 이상의 프로세서에 의해, 상기 시점에서 조명기의 조명을 기초로 조명기의 기대 각막 반사를 결정하는 단계,
    하나 이상의 프로세서에 의해, 조명기의 결정된 각막 반사를 조명기의 기대 각막 반사에 비교하여, 비교 결과를 획득하는 단계, 및
    하나 이상의 프로세서에 의해, 비교 결과를 기초로 대상자의 안면 실제감을 결정하는 단계를 포함하는, 컴퓨터로 구현되는 방법.
  32. 제31항에 있어서,
    조명기의 결정된 각막 반사를 조명기의 기대 각막 반사에 비교하는 단계는
    조명기의 결정된 각막 반사를 조명기의 기대 각막 반사에 상관시키는 단계,
    상관의 결과를 기초로 매칭 품질을 점수화하는 단계, 및
    물체의 결정된 각막 반사 변화를 지정 임계치에 비교하는 단계를 포함하고,
    대상자의 안면 실제감을 결정하는 단계는
    물체의 결정된 각막 반사 변화가 지정 임계치를 초과한다는 결정에 응답하여, 대상자의 안면이 실물이라고 결정하는 단계를 포함하는, 컴퓨터로 구현되는 방법.
  33. 제31항에 있어서,
    조명 패턴을 기초로 조명하도록 조명기를 활성화하는 단계를 더 포함하는, 컴퓨터로 구현되는 방법.
  34. 제33항에 있어서,
    조명기에 대한 조명 패턴을 생성하는 단계를 더 포함하는,
    컴퓨터로 구현되는 방법.
  35. 제33항에 있어서, 조명기를 활성화하는 단계는
    대상자가 생체측정 인증을 위한 실감 검증을 이용하도록 선택했다는 결정에 응답하여 조명기를 활성화하는 단계를 포함하는, 컴퓨터로 구현되는 방법.
  36. 제31항에 있어서, 조명기의 각막 반사를 결정하는 단계는 색, 형태, 위치 및 패턴 중 적어도 하나로 조명기의 각막 반사를 결정하는 단계를 포함하는, 컴퓨터로 구현되는 방법.
  37. 제31항에 있어서, 조명기는 각자의 색 및 각자의 위치를 갖는 둘 이상의 조명원을 포함하는, 컴퓨터로 구현되는 방법.
  38. 제37항에 있어서, 조명기의 조명은 둘 이상의 조명원의 시간 조명 패턴을 기초로 하는, 컴퓨터로 구현되는 방법.
  39. 제38항에 있어서, 둘 이상의 조명원은 각자의 지속시간을 갖는 버스트(burst)로 조명을 생성하는, 컴퓨터로 구현되는 방법.
  40. 제39항에 있어서, 둘 이상의 조명원 중 적어도 하나의 조명원은 서로 다른 지속시간 동안 서로 다른 조명 형태를 갖는, 컴퓨터로 구현되는 방법.
  41. 제37항에 있어서, 조명기의 조명은 둘 이상의 조명원의 공간 조명 패턴을 기초로 하는, 컴퓨터로 구현되는 방법.
  42. 제41항에 있어서, 둘 이상의 조명원 각각은 조명 커짐 또는 꺼짐 상태를 갖는, 컴퓨터로 구현되는 방법.
  43. 제31항에 있어서, 조명기는 각각의 광 파장을 갖는 하나 이상의 물리 광원을 포함하는, 컴퓨터로 구현되는 방법.
  44. 제31항에 있어서, 조명기는 각각의 조명 색상을 제공하기 위해 스크린 상에 디스플레이되는 하나 이상의 디지털 조명원을 포함하는, 컴퓨터로 구현되는 방법.
  45. 제44항에 있어서, 디지털 조명원을 생성하는 단계를 더 포함하는, 컴퓨터로 구현되는 방법.
  46. 제31항에 있어서, 상기 조명기로부터의 조명이 일정 각도를 두고 대상자의 눈으로 입사되도록 조명기가 배치되는, 컴퓨터로 구현되는 방법.
  47. 제46항에 있어서,
    대상자가 조명기 및 대상자의 눈의 상대적 위치를 변경하게 하는 단계를 더 포함하는, 컴퓨터로 구현되는 방법.
  48. 제31항에 있어서,
    카메라 장치로부터의 비디오 스트림 피드의 적어도 일부분을 수신하는 단계 - 비디오 스트림 피드의 일부분은 순차 시점에서 카메라 장치에 의해 캡처되는 대상자의 안면 이미지를 포함함 - 를 더 포함하는, 컴퓨터로 구현되는 방법.
  49. 제48항에 있어서,
    대상자의 제2 안면 이미지를 처리하여, 조명기의 제2 각막 반사를 결정하는 단계 - 제2 안면 이미지는 제1 안면 이미지에 대한 시점에 순차적인 제2 시점에서 캡처됨 - ,
    제2 시점에서 조명기의 제2 조명을 기초로 조명기의 제2 기대 각막 반사를 결정하는 단계 - 상기 제2 조명은 제1 조명과 상이함 - ,
    조명기의 결정된 제2 각막 반사를 조명기의 기대 제2 각막 반사에 비교하여 제2 비교 결과를 획득하는 단계, 및
    상기 비교 결과 및 상기 제2 비교 결과를 기초로 대상자의 안면 실제감을 결정하는 단계를 더 포함하는, 컴퓨터로 구현되는 방법.
  50. 제31항에 있어서,
    대상자의 결정된 안면 실제감을 신원 제공자의 컴퓨팅 장치로 전송하는 단계를 더 포함하는, 컴퓨터로 구현되는 방법.
  51. 제31항에 있어서,
    상기 신원 제공자와 상이한 의존자에 의해 관리되는 계정을 액세스하기 위한 대상자의 인증 요청을 신원 제공자의 컴퓨팅 장치로 전송하는 단계 - 인증 요청은 대상자의 생체측정 데이터 및 대상자의 결정된 안면 실제감을 포함함 - 를 더 포함하는, 컴퓨터로 구현되는 방법.
  52. 안면 실제감을 검출하기 위한 컴퓨터로 구현되는 방법으로서, 상기 방법은
    하나 이상의 프로세서에 의해, 대상자의 제1 안면 이미지 및 제2 안면 이미지를 처리하여, 상기 대상자에 인접한 조명기의 제1 각막 반사 및 제2 각막 반사를 결정하는 단계 - 상기 제1 안면 이미지 및 제2 안면 이미지는 각각 순차적인 제1 시점 및 제2 시점에서 캡처됨 - ,
    하나 이상의 프로세서에 의해, 결정된 제1 각막 반사 및 제2 각막 반사를 기초로 조명기의 각막 반사 변화를 결정하는 단계,
    하나 이상의 프로세서에 의해, 조명기의 결정된 각막 반사 변화를 순차적인 제1 시점 및 제2 시점과 연관된 조명기의 조명 변화에 비교하는 단계, 및
    하나 이상의 프로세서에 의해, 비교의 결과를 기초로, 대상자의 안면 실제감을 결정하는 단계를 포함하는, 컴퓨터로 구현되는 방법.
  53. 제52항에 있어서,
    조명 변화를 기초로 조명기의 조명을 변화시키도록 조명기를 활성화하는 단계를 더 포함하는, 컴퓨터로 구현되는 방법.
  54. 제52항에 있어서, 조명기의 조명 변화는, 조명 색 변화, 조명 형태 변화, 조명 위치 변화, 조명 켜짐/꺼짐 상태 변화, 및 조명 지속시간 변화 중 적어도 하나를 포함하는, 컴퓨터로 구현되는 방법.
  55. 제54항에 있어서, 조명기의 각막 반사 변화를 결정하는 단계는 조명기의 각막 반사의 색, 형태, 위치, 켜짐/꺼짐 상태, 또는 지속시간 중 적어도 하나의 변화를 결정하는 단계를 포함하는, 컴퓨터로 구현되는 방법.
  56. 제52항에 있어서, 조명기는 제1 위치 및 제2 위치에서 제1 색 및 제2 색을 갖는 제1 조명원 및 제2 조명원을 포함하는, 컴퓨터로 구현되는 방법.
  57. 제56항에 있어서, 조명기의 조명 변화는 제1 조명원 및 제2 조명원의 시간 조명 패턴의 변화를 포함하며, 제1 조명원 및 제2 조명원은 각각 지속시간을 갖는 버스트(burst)로 조명을 생성하는, 컴퓨터로 구현되는 방법.
  58. 제57항에 있어서, 제1 조명원 및 제2 조명원 중 적어도 하나는 서로 다른 지속시간 동안 조명 형태를 변경하는, 컴퓨터로 구현되는 방법.
  59. 제56항에 있어서, 조명기의 조명 변경은 시간에 따른 제1 조명원 및 제2 조명원의 공간 조명 패턴의 변화를 포함하며,
    제1 조명원 및 제2 조명원 중 적어도 하나는 시간에 따라 조명 켜짐/꺼짐 상태를 변경하는, 컴퓨터로 구현되는 방법.
  60. 제52항에 있어서, 상기 조명기는
    각각의 광 파장에서 하나 이상의 물리적 광원, 및
    각각의 조명 색을 제공하기 위해 스크린 상에 디스플레이되는 하나 이상의 디지털 조명원 중 적어도 하나를 포함하는, 컴퓨터로 구현되는 방법.
  61. 안면 실제감을 검출하기 위한 컴퓨터로 구현되는 방법으로서, 상기 방법은
    하나 이상의 프로세서에 의해, 대상자의 제1 안면 이미지 및 제2 안면 이미지를 처리하여, 물체의 제1 각막 반사 및 제2 각막 반사를 결정하는 단계 - 상기 제1 안면 이미지 및 제2 안면 이미지는 순차적인 제1 시점 및 제2 시점에서 캡처됨 - ,
    하나 이상의 프로세서에 의해, 결정된 제1 각막 반사 및 제2 각막 반사를 기초로 물체의 각막 반사 변화를 결정하는 단계,
    하나 이상의 프로세서에 의해, 물체의 결정된 각막 반사 변화를 제1 시점 및 제2 시점과 연관된 알려진 변화에 비교하는 단계, 및
    하나 이상의 프로세서에 의해, 비교의 결과를 기초로 대상자의 안면 실제감을 결정하는 단계를 포함하는, 컴퓨터로 구현되는 방법.
  62. 제61항에 있어서, 상기 알려진 변화는 카메라 장치의 모션인, 컴퓨터로 구현되는 방법.
  63. 제61항에 있어서, 상기 알려진 변화는 조명기의 조명 변화인, 컴퓨터로 구현되는 방법.
KR1020177021245A 2014-12-31 2015-12-31 안면 실감 검출 KR20170126444A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201462098596P 2014-12-31 2014-12-31
US201462098575P 2014-12-31 2014-12-31
US62/098,575 2014-12-31
US62/098,596 2014-12-31
PCT/US2015/068357 WO2016109841A1 (en) 2014-12-31 2015-12-31 Detecting facial liveliness

Publications (1)

Publication Number Publication Date
KR20170126444A true KR20170126444A (ko) 2017-11-17

Family

ID=56285092

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177021245A KR20170126444A (ko) 2014-12-31 2015-12-31 안면 실감 검출

Country Status (6)

Country Link
EP (1) EP3240467A4 (ko)
JP (1) JP2018504703A (ko)
KR (1) KR20170126444A (ko)
AU (1) AU2015373894B2 (ko)
CA (1) CA2972821A1 (ko)
WO (1) WO2016109841A1 (ko)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2560340A (en) * 2017-03-07 2018-09-12 Eyn Ltd Verification method and system
CN108537111A (zh) 2018-02-26 2018-09-14 阿里巴巴集团控股有限公司 一种活体检测的方法、装置及设备
CN108629298A (zh) * 2018-04-23 2018-10-09 Oppo广东移动通信有限公司 人脸识别方法、电子装置和非易失性计算机可读存储介质
JP6446676B1 (ja) * 2018-04-24 2019-01-09 株式会社サイバーウェア 本人認証システム、方法およびプログラム
GB2576139A (en) * 2018-07-20 2020-02-12 Ophthalmic Surgical Services Ltd Ocular assessment
US11600118B2 (en) 2018-07-25 2023-03-07 Nec Corporation Information processing apparatus, information processing method, and information processing program
JP7363785B2 (ja) 2018-07-25 2023-10-18 日本電気株式会社 情報処理装置、情報処理方法および情報処理プログラム
CN109086731A (zh) * 2018-08-15 2018-12-25 深圳市烽焌信息科技有限公司 一种用于进行行为监控的机器人及存储介质
CN109145804A (zh) * 2018-08-15 2019-01-04 深圳市烽焌信息科技有限公司 行为监控方法及机器人
CN109271954B (zh) * 2018-09-29 2022-04-22 北京百度网讯科技有限公司 用于检测模型可靠性的方法及装置
CN110135370B (zh) * 2019-05-20 2022-09-09 北京百度网讯科技有限公司 人脸活体检测的方法及装置、电子设备、计算机可读介质
US20220254192A1 (en) 2019-06-06 2022-08-11 Nec Corporation Processing system, processing method, and non-transitory storage medium
EP3772699A1 (en) * 2019-08-09 2021-02-10 Siemens Aktiengesellschaft Method for user verification, communication device and computer program
FR3121773B1 (fr) * 2021-04-13 2024-03-08 Idemia Identity & Security France procédé de contrôle d’identité utilisant des conditions d’éclairage aléatoires

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3315648B2 (ja) * 1998-07-17 2002-08-19 沖電気工業株式会社 アイリスコード生成装置およびアイリス認識システム
JP2000194854A (ja) * 1998-12-25 2000-07-14 Oki Electric Ind Co Ltd 個体識別装置
JP4521086B2 (ja) * 2000-03-13 2010-08-11 株式会社東芝 顔画像認識装置及び顔画像認識方法
JP3825222B2 (ja) * 2000-03-24 2006-09-27 松下電器産業株式会社 本人認証装置および本人認証システムならびに電子決済システム
JP2003178306A (ja) * 2001-12-12 2003-06-27 Toshiba Corp 個人認証装置および個人認証方法
JP4009173B2 (ja) * 2002-09-30 2007-11-14 富士フイルム株式会社 デジタルカメラ
JP2006126899A (ja) * 2004-10-26 2006-05-18 Matsushita Electric Ind Co Ltd 生体判別装置、生体判別方法、およびそれを用いた認証システム
JP4609253B2 (ja) * 2005-09-08 2011-01-12 オムロン株式会社 なりすまし検出装置及び顔認証装置
US7801335B2 (en) * 2005-11-11 2010-09-21 Global Rainmakers Inc. Apparatus and methods for detecting the presence of a human eye
US8260008B2 (en) * 2005-11-11 2012-09-04 Eyelock, Inc. Methods for performing biometric recognition of a human eye and corroboration of same
US20130212655A1 (en) * 2006-10-02 2013-08-15 Hector T. Hoyos Efficient prevention fraud
JP5207776B2 (ja) * 2008-03-05 2013-06-12 エヌ・ティ・ティ・コミュニケーションズ株式会社 認証システム、情報機器、認証方法、及びプログラム
US8542879B1 (en) * 2012-06-26 2013-09-24 Google Inc. Facial recognition
US8437513B1 (en) * 2012-08-10 2013-05-07 EyeVerify LLC Spoof detection for biometric authentication
US9058519B2 (en) * 2012-12-17 2015-06-16 Qualcomm Incorporated System and method for passive live person verification using real-time eye reflection
US9313200B2 (en) * 2013-05-13 2016-04-12 Hoyos Labs Ip, Ltd. System and method for determining liveness

Also Published As

Publication number Publication date
EP3240467A1 (en) 2017-11-08
EP3240467A4 (en) 2018-12-26
AU2015373894B2 (en) 2020-07-09
AU2015373894A1 (en) 2017-07-20
CA2972821A1 (en) 2016-07-07
WO2016109841A1 (en) 2016-07-07
JP2018504703A (ja) 2018-02-15

Similar Documents

Publication Publication Date Title
US10346990B2 (en) Detecting facial liveliness
US10055662B2 (en) Detecting facial liveliness
KR20170126444A (ko) 안면 실감 검출
US11528268B2 (en) System and method for verifying liveliness
US10242364B2 (en) Image analysis for user authentication
US10515264B2 (en) Systems and methods for authenticating a user based on captured image data
US10268910B1 (en) Authentication based on heartbeat detection and facial recognition in video data
US9654469B1 (en) Web-based user authentication techniques and applications
US20160269411A1 (en) System and Method for Anonymous Biometric Access Control
KR102218336B1 (ko) 액세스 제어되는 환경으로의 액세스를 인가하는 시스템 및 방법
US11900746B2 (en) System and method for providing credential activation layered security
US20120140993A1 (en) Secure biometric authentication from an insecure device
US10217009B2 (en) Methods and systems for enhancing user liveness detection
US10860704B1 (en) Capturing and sending one-time passwords using augmented reality glasses
US20200125706A1 (en) Biometric authentication anomaly detection
US9405891B1 (en) User authentication
US10277595B2 (en) Identity recognition with living signatures from multiple devices