KR20170048390A - 멀티-스테이지 라이브니스 결정 - Google Patents

멀티-스테이지 라이브니스 결정 Download PDF

Info

Publication number
KR20170048390A
KR20170048390A KR1020177005953A KR20177005953A KR20170048390A KR 20170048390 A KR20170048390 A KR 20170048390A KR 1020177005953 A KR1020177005953 A KR 1020177005953A KR 20177005953 A KR20177005953 A KR 20177005953A KR 20170048390 A KR20170048390 A KR 20170048390A
Authority
KR
South Korea
Prior art keywords
image information
biometric object
determining whether
ultrasound image
biometric
Prior art date
Application number
KR1020177005953A
Other languages
English (en)
Other versions
KR102467916B1 (ko
Inventor
엘리자 잉지 두
밍 유 첸
에스라 버럴
콱렁 찬
데이비드 윌리엄 번스
서야프라카쉬 간티
존 케이트 슈나이더
사라브 밴드요파디아이
진 구
Original Assignee
퀄컴 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀄컴 인코포레이티드 filed Critical 퀄컴 인코포레이티드
Priority to KR1020227039636A priority Critical patent/KR102636547B1/ko
Publication of KR20170048390A publication Critical patent/KR20170048390A/ko
Application granted granted Critical
Publication of KR102467916B1 publication Critical patent/KR102467916B1/ko

Links

Images

Classifications

    • G06K9/00906
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • G06K9/0002
    • G06K9/00093
    • G06K9/001
    • G06K9/00107
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1306Sensors therefor non-optical, e.g. ultrasonic or capacitive sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • G06V40/1371Matching features related to minutiae or pores
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • G06V40/1376Matching features related to ridge properties or fingerprint texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1382Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1382Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger
    • G06V40/1388Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger using image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20064Wavelet transform [DWT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)
  • Quality & Reliability (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Input (AREA)

Abstract

생체인식 오브젝트가 살아있는 개인의 부분인지의 여부를 결정하는 방법이 설명된다. 이러한 일 방법에서, 초음파 센서와 같은 센서를 사용함으로써 생체인식 오브젝트로부터 이미지 정보가 포착된다. 이미지 정보는 적어도 2개의 분석 스테이지들에서 분석될 수 있다. 분석 스테이지들 중 하나의 분석 스테이지는 시간적 분석 스테이지일 수 있고, 시간적 분석 스테이지는 시간 기간 ― 시간 기간 전체에 걸쳐 생체인식 오브젝트가 계속해서 센서에 이용가능함 ― 동안 획득된 이미지 정보의 변화들을 분석한다. 예컨대, 데드/얼라이브 스테이지는, 하나의 시간으로부터 다음 시간까지의 변화들을 식별하기 위해 2개의 상이한 시간들에서 취해진 이미지 정보 사이의 차이들을 분석할 수 있다. 다른 스테이지들은 시간에 따른 변화들을 평가하려고 시도하기보다는 특정 이미지 정보 세트의 양상들에 초점을 맞출 수 있다. 이들 다른 스테이지들은 이미지 정보 세트가 살아있는 생체인식 오브젝트의 특성들과 유사한 특성들을 나타내는지의 여부를 결정하려고 시도한다.

Description

멀티-스테이지 라이브니스 결정{MULTI-STAGE LIVENESS DETERMINATION}
관련 출원들에 대한 상호-참조
[0001] 본 출원은, 2015년 4월 23일 출원되어 현재 계류중인 미국 가출원 번호 제 62/151,983호 및 2014년 9월 5일 출원되어 현재 계류중인 미국 가출원 번호 제 62/046,744호를 우선권으로 주장하며, 이들의 개시내용들은 인용에 의해 본원에 포함된다. 본 출원은, 2015년 9월 3일에 본원과 동시에 출원되고 발명의 명칭이 "Image-Based Liveness Detection for Ultrasonic Fingerprints"이고 공동 계류중인 미국 출원 번호 제 14/845,174호의 개시내용 그 전체를 포함한다.
본 개시내용의 분야
[0002] 본 개시내용은 라이브니스(liveness)를 결정하는 디바이스들 및 방법들에 관한 것이다.
[0003] 생체인식 센서(biometric sensor)들은, 활동에 참여하도록 인가된 개인들과 그 활동에 참여하도록 인가되지 않은 개인들 사이를 구분하는 데 널리 사용된다. 예컨대, 핑거프린트 센서들은 일반적으로, 개인에 의해 제공된 핑거프린트가 데이터베이스의 정보에 매칭되는지의 여부를 결정하는 데 사용되며, 매칭이 결정되는 경우, 개인은 활동에 참여하도록 허용될 수 있다. 예컨대, 개인은 빌딩 또는 룸에 입장하도록 허용되거나, 모바일 디바이스 상에서 실행되는 애플리케이션 또는 모바일 폰과 같은 전자 디바이스를 사용하도록 허용될 수 있다.
[0004] 생체인식 센서들이 기만당하고(deceived)(즉, "스푸핑되고(spoofed)"), 이에 의해, 인가되지 않은 개인이, 인가된 개인들을 위해 예약된 활동에 참여하도록 허용할 수 있다. 핑거프린트 센서를 스푸핑하는 것은 상이한 방식들로 달성될 수 있다. 이들은 가짜 핑거프린트를 사용하는 것, 핑거 이외의 몸체 부분들을 사용하는 것, 및 사람으로부터의 데드 핑거(dead finger)를 사용하는 것을 포함한다. 핑거프린트 센서에 대해 사용될 스푸핑의 특정 타입이 미리 알려질 가능성이 없기 때문에, 모든 타입들을 스푸프(spoof)들을 경계하는 것이 중요하다. 스푸핑을 경계하는 하나의 방법은, 생체인식 오브젝트(biometric object)가 라이브니스와 연관된 특성들을 나타내는지의 여부를 결정하는 것을 포함한다.
[0005] 사용자 식별 및/또는 검증을 위해 점점 더 많은 생체인식들이 사용됨에 따라, 액세스 보안 및 정확성을 보장하기 위해 라이브니스 검출이 점점 더 중요해지고 있다. 식별 시스템 및/또는 검증 시스템을 기만하는 많은 방법들이 살아있지 않은 스푸프들을 사용하기 때문에, 라이브니스 검출은 중요하다. 예컨대, 인가된 사용자의 핑거프린트를 닮은 융선(ridge)들 및 골(valley)들을 갖도록 라텍스 핑거가 만들어질 수 있다. 이러한 라텍스 스푸프가 핑거프린트 센서에 제시될 때, 스캐닝 시스템은, 라텍스 스푸프가 살아있는 존재의 부분이 아님에도 불구하고, 라텍스 스푸프가 인가된 사용자의 핑거라고 잘못 결론내릴 수 있다. 그러므로, 생체인식 오브젝트가 살아있는 존재의 부분인지의 여부를 검출할 수 있는 시스템은 스푸프의 존재를 검출하는 데 유용할 것이다. 이러한 시스템에서, 생체인식 오브젝트가 살아있는 개인(live individual)의 부분이 아니라는 결정이 이루어지는 경우, 생체인식 오브젝트를 제시한 개인은, 생체인식 정보(이를테면, 핑거프린트)가 연관된 식별/검증 데이터베이스의 정보에 매칭될지라도, 액세스(예컨대, 요청된 활동에 대한 액세스)가 거부될 수 있다.
[0006] 본 개시내용의 일 구현은 생체인식 오브젝트가 살아있는 개인의 부분인지의 여부를 결정하는 방법으로서 설명될 수 있다. 방법은 센서를 사용하여 생체인식 오브젝트로부터 이미지 정보를 포착하는 단계를 포함할 수 있다. 이미지 정보는 생체인식 오브젝트가 위치되는 플래튼(platen)을 사용하여 포착될 수 있다. 센서는 초음파 센서일 수 있고, 예컨대, 생체인식 오브젝트가 층들로 이루어져 있는지의 여부를 결정하기 위해 센서의 범위 게이트(range gate)가 조정될 수 있다. 센서는 또한 예컨대, 생체인식 오브젝트가 층들로 이루어져 있는지의 여부를 결정하기 위해 복수의 초음파 주파수들을 검출하도록 구성될 수 있다. 방법은 적어도 2개의 분석 스테이지들에서 이미지 정보를 분석하는 단계를 더 포함할 수 있다.
[0007] 분석 스테이지들 중 하나의 분석 스테이지는 시간적 분석 스테이지일 수 있고, 시간적 분석 스테이지는 시간 기간 ― 시간 기간 전체에 걸쳐 생체인식 오브젝트가 계속해서 센서에 이용가능함 ― 동안 획득된 이미지 정보의 변화들을 분석한다. 시간적 분석 스테이지는 이미지 정보의 변화들이, 살아있는 오브젝트와 일치하는(consistent) 변화들과 유사한지의 여부를 결정할 수 있다. 시간적 분석 스테이지는 생체인식 오브젝트의 피처(feature)가 시간 기간 동안 변화되었는지의 여부를 결정할 수 있다. 피처들은, 모공 구멍 크기(pore opening size), 모공 깊이, 융선 패턴(ridge pattern), 및 텍스처(texture)를 포함할 수 있다.
[0008] 분석 스테이지들 중 하나의 분석 스테이지는 생체인식 오브젝트가 3차원적인지의 여부를 결정하기 위해 이미지 정보를 분석할 수 있다. 생체인식 오브젝트가 3차원적인지의 여부를 결정하는 것은, 생체인식 오브젝트의 패턴들이 균일한지의 여부를 결정하는 것을 포함할 수 있다. 생체인식 오브젝트의 패턴들이 균일한지의 여부를 결정하기 위해 소벨 필터(Sobel filter)가 사용될 수 있다.
[0009] 분석 스테이지들 중 하나의 분석 스테이지는, 이미지 정보의 패턴 타입들이 미리 결정된 패턴 타입들 중에 있는지의 여부를 결정하기 위해 이미지 정보를 분석할 수 있는데, 예컨대 이미지 정보에서 표현된 패턴 분류들을 식별하고 그 후에 패턴 분류들이 미리 결정된 패턴 분류들 중에 있는지의 여부를 결정한다. 패턴 분류들을 식별하는 것은 생체인식 오브젝트의 패턴들이 융선 흐름(ridge flow)을 나타내는지의 여부를 식별하는 것을 포함할 수 있다.
[0010] 분석 스테이지들 중 하나의 분석 스테이지는, 예컨대 생체인식 오브젝트가 층들로 이루어져 있는지의 여부를 결정함으로써, 생체인식 오브젝트가 제조된 것인지의 여부를 결정하기 위해 이미지 정보를 분석할 수 있다. 생체인식 오브젝트가 제조된 것인지의 여부를 결정하기 위해 이미지 정보의 이미지 품질을 평가하기 위하여 이미지 정보가 또한 분석될 수 있다.
[0011] 방법은, 이미지 정보의 변화들이, 살아있는 오브젝트와 일치하는 변화들과 유사하다는 것을 시간적 분석 스테이지가 표시하고, 오브젝트가 3차원적이라는 것을 분석 스테이지들 중 다른 스테이지가 표시하는 경우, 생체인식 오브젝트가 살아있는 개인의 부분이라고 결론내리는 단계를 더 포함할 수 있다. 분석된 이미지 정보에 기반하여, 라이브니스 출력 신호가 제공될 수 있다. 일부 구현들에서, 단일 이미지로부터의 이미지 정보의 분석에 기반하는 이미지-기반 라이브니스 검출은 비-시간적 분석 스테이지들 중 하나로서의 역할을 할 수 있다. 일부 구현들에서, 2개 또는 그 초과의 이미지들로부터의 이미지 정보의 분석에 기반하는 이미지-기반 라이브니스 검출은 시간적 분석 스테이지로서의 역할을 할 수 있다. 일부 구현들에서, 복수의 단일 이미지들 각각으로부터의 중간 결정들은 융합되어 복합 결정을 형성할 수 있다.
[0012] 본 개시내용의 일 구현은 생체인식 오브젝트가 살아있는 개인의 부분인지의 여부를 결정하는 방법으로서 설명될 수 있다. 방법은 센서를 사용하여 생체인식 오브젝트로부터 이미지 정보를 포착하는 단계를 포함할 수 있다. 방법은 이미지 정보를 분석하는 단계를 더 포함할 수 있다. 이미지 정보의 분석은 생체인식 오브젝트가 3차원적인지의 여부를 결정하는 것을 포함할 수 있다. 이미지 정보의 분석은 또한, 이미지 정보의 패턴 타입들이 미리 결정된 패턴 타입들 중에 있는지의 여부를 결정하는 것을 포함할 수 있다. 이미지 정보의 분석은 또한, 생체인식 오브젝트가 제조된 것인지의 여부를 결정하는 것을 포함할 수 있다. 이미지 정보의 분석은 또한, 시간 기간 ― 시간 기간 전체에 걸쳐 생체인식 오브젝트가 계속해서 센서에 이용가능함 ― 을 선택하는 것, 및 시간 기간 동안 이미지 정보가, 살아있는 오브젝트와 일치하는 방식으로 변화되었는지의 여부를 결정하는 것을 포함할 수 있다. 방법은, 생체인식 오브젝트가 3차원적이라고 결정되고, 이미지 정보의 패턴 타입들이 미리 결정된 패턴 타입들 중에 있고, 생체인식 오브젝트가 제조된 것이 아니라고 결정되고, 그리고 살아있는 오브젝트와 일치하는 방식으로 생체인식 오브젝트가 거동한다는 것이 결정되는 경우, 생체인식 오브젝트가 살아있는 개인의 부분이라고 결론내리는 단계를 더 포함할 수 있다.
[0013] 본 개시내용의 일 구현은 컴퓨터 실행가능 코드를 저장하는 비-일시적 컴퓨터 판독가능 매체로서 설명될 수 있다. 실행가능 코드는 센서를 사용하여 생체인식 오브젝트로부터 이미지 정보를 포착하기 위한 명령들을 포함할 수 있다. 실행가능 코드는 또한, 적어도 2개의 분석 스테이지들에서 이미지 정보를 분석하기 위한 명령들을 포함할 수 있다. 분석 스테이지들 중 하나의 분석 스테이지는 시간 기간 ― 시간 기간 전체에 걸쳐 생체인식 오브젝트가 계속해서 센서에 이용가능함 ― 동안 획득된 이미지 정보의 변화들을 분석하기 위한 명령들을 갖는 시간적 분석 스테이지일 수 있다.
[0014] 본 개시내용의 일 구현은 생체인식 오브젝트가 살아있는 개인의 부분인지의 여부를 결정하기 위한 시스템으로서 설명될 수 있다. 시스템은 생체인식 오브젝트로부터 이미지 정보를 포착하도록 구성된 센서를 포함할 수 있다. 센서는 초음파 센서일 수 있고, 센서의 범위 게이트는 조정가능할 수 있다. 센서는 복수의 초음파 주파수들을 검출하도록 구성될 수 있다. 센서는 또한, 생체인식 오브젝트가 위치되는 플래튼을 가질 수 있다.
[0015] 시스템은 또한, 적어도 2개의 분석 스테이지들에서 이미지 정보를 분석하도록 구성된 프로세서를 포함할 수 있다. 분석 스테이지들 중 하나의 분석 스테이지는 시간적 분석 스테이지일 수 있고, 시간적 분석 스테이지는 시간 기간 ― 시간 기간 전체에 걸쳐 생체인식 오브젝트가 계속해서 센서에 이용가능함 ― 동안 포착된 이미지 정보의 변화들을 분석한다. 프로세서는 생체인식 오브젝트가 층들로 이루어져 있는지의 여부를 결정하기 위해 센서의 범위 게이트를 조정하도록 구성될 수 있다.
[0016] 본 개시내용의 일 구현은 생체인식 오브젝트가 살아있는 개인의 부분인지의 여부를 결정하는 방법으로서 설명될 수 있다. 이러한 일 방법에서, 이미지 정보는 초음파 센서와 같은 센서를 사용하여 생체인식 오브젝트로부터 포착될 수 있다. 이미지 정보는 하나 또는 그 초과의 분석 스테이지들에서 분석될 수 있다. 분석 스테이지들 중 하나의 분석 스테이지는 생체인식 오브젝트가 얼라이브(alive)인지 또는 데드(dead)인지를 결정하려고 시도할 수 있다. 데드/얼라이브 스테이지는, 하나의 시간으로부터 다음 시간까지의 변화들을 식별하기 위해, 2개의 상이한 시간들에서 수집된 이미지 정보 세트들을 포착하여, 포착된 이미지 정보 사이의 차이들을 분석할 수 있다. 데드/얼라이브 스테이지는 시간에 따른 변화들을 식별 및 평가하려고 시도하기 때문에, 데드/얼라이브 스테이지는 때때로 본원에서 "시간적 분석 스테이지"로 지칭된다. 데드/얼라이브 스테이지 이외의 스테이지들은, 시간에 따른 변화들을 평가하려고 시도하기보다는, 특정 시간에서 포착된 특정 이미지 정보 세트의 양상들에 초점을 맞출 수 있다. 비-시간적 스테이지들은 이미지 정보 세트가, 살아있는 생체인식 오브젝트와 일치하는 특성들과 유사한 특성들을 나타내는지의 여부를 결정하려고 시도할 수 있다. 비-시간적 스테이지는 본원에서 "예상 생체인식 스테이지(expected biometric stage)"를 나타내는 "EBS"로 지칭될 수 있다.
[0017] 생체인식 오브젝트가 데드(dead)라는 것을 시간적 분석 스테이지가 표시하거나 또는 생체인식 오브젝트가 예상들을 따르지 않는다는 것을 EBS가 표시하는 경우, 요청되는 액세스 또는 활동은 거부될 수 있다. 그러나, 생체인식 오브젝트가 얼라이브(alive)라는 것을 시간적 분석 스테이지가 표시하고 EBS 모두가 예상들을 따르는 경우, 요청되는 액세스 또는 활동은 허용될 수 있다.
[0018] 시간적 분석 스테이지는 이미지 정보의 변화들이, 살아있는 오브젝트와 일치하는 변화들과 유사한지의 여부를 결정할 수 있다. 이러한 분석은, 생체인식 오브젝트의 특정 피처가 시간 기간 동안 변화되었는지의 여부를 결정할 수 있다. 예컨대, 피처는 모공 구멍 크기, 모공 깊이, 모공 피처, 융선 패턴, 융선 폭, 유체 배출(fluidic emission), 로컬 텍스처, 구조적 피처, 생체인식 피처 또는 생체인식 변화를 포함할 수 있다. 방법의 보안성을 개선하기 위해, 시간적 분석 스테이지는 시간 기간 ― 시간 기간 전체에 걸쳐 생체인식 오브젝트가 계속해서 센서에 이용가능함 ― 동안 획득된 이미지 정보의 변화들을 분석할 수 있다.
[0019] 하나 또는 그 초과의 예상 생체인식 스테이지들이 포함될 수 있다. 하나의 이러한 EBS는 생체인식 오브젝트가 2차원적인지 또는 3차원적인지를 결정하려고 시도할 수 있다. 그렇게 하기 위한 방법은, 생체인식 오브젝트의 패턴들이 균일한지의 여부를 결정하는 단계를 포함할 수 있다. 패턴들이 균일하다고 결정되는 경우, 오브젝트는 2차원적이고 스푸프일 가능성이 있다는 것이 결정될 수 있고, 액세스 또는 요청된 활동은 거부될 수 있다. 예컨대, 포착된 이미지에서의 핑거프린트 융선들의 에지들은 대단히 잘 정의될 수 있어서, 핑거프린트의 프린팅된 사진 복제물(printed photo replica)과 같은 대체로 평면형의 2차원적 스푸프의 가능성이 표시될 수 있다. 대안적으로, 방법은, 예컨대 센서 어레이의 플래튼 상에 포지셔닝되는 바와 같은 융선의 에지에서의 곡률 변화를 평가함으로써, 핑거프린트 융선들 및 골들과 같은 이미지 피처들이 3차원적인지의 여부를 결정할 수 있다.
[0020] EBS의 다른 타입은, 이미지 정보의 패턴 타입들이 미리 결정된 패턴 타입들 중에 있는지의 여부를 결정하기 위해 이미지 정보를 분석할 수 있다. 이러한 방법은, 이미지 정보에서 표현된 패턴들을 분류하고, 그 후에, 식별된 패턴 분류들이, 라이브 핑거(live finger)와 같은 허용가능한 생체인식 오브젝트에 대응하는 것들인 것으로 이전에 결정된 미리 결정된 패턴 분류들 중에 있는지의 여부를 결정하려고 시도할 수 있다. 하나의 이러한 분류는 융선 흐름을 나타내는 패턴들과 관련될 수 있다. 이미지 정보에 의해 나타난 패턴 타입이, 융선 흐름을 나타내는 타입인 경우, 상이한 몸체 부분(예컨대, 코, 뺨, 손바닥 또는 팔꿈치)과 대조적으로, 오브젝트가 핑거일 수 있다는 결정이 이루어질 수 있다.
[0021] EBS의 다른 타입은, 생체인식 오브젝트가 제조된 것인지의 여부를 결정하기 위해 이미지 정보를 분석할 수 있다. 제조된 오브젝트들은 종종 층들을 갖기 때문에, 제조된 스푸프들을 식별하기 위한 이러한 하나의 EBS에서, 생체인식 오브젝트가 층들로 이루어져 있는지의 여부에 관한 결정이 이루어질 수 있다. 예컨대, 인가되지 않은 사람의 핑거 위로 슬라이딩된, 핑거프린트 융선들 및 골들을 갖는 얇은 라텍스 슬리브는, 스푸프에 존재하는 층들을 갖는 것으로 EBS에 의해 검출가능할 수 있다. 타겟 오브젝트 내의 층들은 초음파 센서를 사용하여 검출될 수 있고, 다양한 범위-게이트 지연들 및/또는 복수의 초음파 주파수들을 사용하여 이미지 정보가 캡처된다. 일부 구현들에서, 하나 또는 그 초과의 이미지-기반 라이브니스 검출 분석들로부터의 중간 결정들은 오브젝트가 제조된 것인지의 여부를 결정하는 데 사용될 수 있다. 대안적으로, 제조된 스푸프들은 핑거의 몰드에 주입된 실리콘 폴리머와 같은 솔리드 단일 재료로 형성될 수 있다. 단일-재료 스푸핑된 핑거들은 휴먼 핑거의 피부, 뼈 및 혈관들의 층들과 달리 어떠한 내부 층들도 갖지 않을 수 있고, 층들의 존재(또는 층들의 부재)를 분석하는 EBS는 단일-재료 스푸프가 살아있는 것이 아니라는 것을 결정할 수 있다.
[0022] 본 개시내용의 특성 및 목적들의 더 완전한 이해를 위해, 첨부 도면들 및 후속 설명에 대한 참조가 이루어져야 한다. 간략히, 도면들은 다음과 같다:
[0023] 도 1은 라이브니스를 결정하는 방법을 예시하는 흐름도이다.
[0024] 도 2는 분석 스테이지들이 직렬로 수행되는, 라이브니스를 결정하는 방법을 예시하는 흐름도이다.
[0025] 도 3은 분석 스테이지들이 병렬로 수행되는, 라이브니스를 결정하는 방법을 예시하는 흐름도이다.
[0026] 도 4는 4개의 분석 스테이지들을 갖는, 라이브니스를 결정하는 방법을 예시하는 흐름도이다.
[0027] 도 5는 4개의 분석 스테이지들을 갖는, 라이브니스를 결정하는 다른 방법을 예시하는 흐름도이다.
[0028] 도 6a 및 도 6b는 라이브니스를 결정하는 다른 방법들을 예시하는 흐름도들이다.
[0029] 도 7a 내지 도 7c는 진짜 핑거(real finger) 및 가짜 핑거(fake finger)로부터 반사된 초음파 신호들을 예시하는 초음파 센서의 단면도들을 도시한다.
[0030] 도 8a 및 도 8b는 핑거프린트 이미지들 및 다른 몸체 부분들로부터의 이미지들을 도시한다.
[0031] 도 9는 진짜 핑거 및 가짜 핑거에 대해 상이한 주파수들 및 범위-게이트 지연들에서 포착된 이미지 정보로부터 유도된 이미지들을 도시한다.
[0032] 도 10은 진짜 핑거와 가짜 핑거 사이의 이미지 품질 차이들을 평가하기 위해 사용될 수 있는 이미지 정보를 도시한다.
[0033] 도 11a 내지 도 11c는 핑거프린트 이미지들의 시간적 변화들을 예시한다.
[0034] 도 12는 라이브니스 결정 스테이지에 앞서는 핑거프린트 등록 및/또는 인증을 위한 일반화된 흐름들을 예시한다.
[0035] 도 13은 초음파 센서 시스템의 일반화된 블록도를 예시한다.
[0036] 도 14는 초음파 센서 시스템의 더 상세한 블록도를 예시한다.
[0037] 도 15a 내지 도 15d는 초음파 센서 어레이의 다양한 구성들을 예시한다.
[0038] 도 16a 및 도 16b는 본원에서 설명된 바와 같은 핑거프린트 감지 시스템을 포함하는 디스플레이 디바이스를 예시하는 시스템 블록도들의 예들을 도시한다.
[0039] 생체인식들의 많은 방식들 중에서, 핑거프린트들은 가장 많이 연구되고 사용되는 것들 중 하나이다. 본원에서 설명되는 구현들은 핑거프린트들에 초점을 맞추지만, 본 개시내용은 핑거프린트들로 제한되지 않는다. 예컨대, 개시된 시스템들 및 방법들은 다른 생체인식들, 이를테면, 팜프린트(palmprint) 또는 핸드프린트(handprint) 인식과 함께 사용될 수 있다.
[0040] 도 1은 라이브니스를 결정하는 방법을 도시하는 흐름도이다. 오브젝트가 살아있는 개인의 부분인지의 여부를 결정하기 위해, 오브젝트에 관한 이미지 정보가 포착(100) 및 분석(103)될 수 있다. 라이브니스를 결정하기 위해 사용되는 이미지 정보는 오브젝트의 이미지를 생성하는 데 사용되는 정보와 동일한 정보일 수 있다. 예컨대, 이미지 정보는, 발명의 명칭이 "Ultrasonic Fingerprint Scanning Utilizing a Plane Wave"인 미국 특허 번호 제 7,739,912호에서 설명된 것과 같은 초음파 센서를 사용하여 포착(100)된 핑거프린트에 관한 정보일 수 있다. 이미지 정보의 분석은, 이미지 정보를 분석하도록 프로그래밍된 하나 또는 그 초과의 다목적 컴퓨터들 또는 프로세서들, 이를테면, 모바일 디바이스의 하나 또는 그 초과의 애플리케이션 프로세서들에 의해 수행될 수 있다. 포착된 이미지 정보 또는 데이터는 필요에 따라, 예컨대 잡음을 감소시키거나, 콘트라스트를 증가시키거나, 아티팩트들을 제거하거나, 또는 온도 영향들을 보상하기 위해 사전-프로세싱될 수 있다. 생체인식 오브젝트가 살아있는 개인의 부분이 아니라는 것을 이미지 정보의 분석(103)이 표시하는 경우, 개인에 의해 요청된 활동(애플리케이션에 대한 액세스 또는 구매의 인가와 같이 단순히 요구되는 활동들을 포함함)은 거부(150)될 수 있다. 예컨대, 개인이 설비, 컴퓨터 데이터베이스 또는 모바일 디바이스 애플리케이션에 대한 액세스를 요청하고, 생체인식 오브젝트가 살아있는 개인의 부분이 아니라는 것을 정보 분석이 표시하는 경우, 개인은 경우에 따라 설비, 데이터베이스 또는 애플리케이션에 대한 액세스를 얻도록 허용되지 않을 수 있다. 그러나, 생체인식 오브젝트가 살아있는 개인의 부분이라는 것을 이미지 정보의 분석이 표시하는 경우, 개인은 경우에 따라 설비, 데이터베이스 또는 애플리케이션에 대한 액세스를 얻도록 허용(153)될 수 있다. 일부 구현들에서, 액세스가 그랜트될 수 있거나 또는 요청된 활동이 허용되기 전에, 라이브니스의 표시에 부가하여, 사용자의 식별, 검증 또는 인증이 요구될 수 있다.
[0041] 오브젝트가 살아있는 개인의 부분인지의 여부를 결정하기 위한 이미지 정보의 분석(103)은 2개 또는 그 초과의 분석 스테이지들을 통해 수행될 수 있다. 분석 스테이지들은 병렬로(즉, 하나의 스테이지가 수행되는 동안 다른 스테이지가 수행됨) 또는 직렬로(즉, 하나의 스테이지는 다른 스테이지 후에 수행됨) 수행될 수 있다. 도 2는, 분석 스테이지들(103A, 103B)이 직렬로 수행되는, 라이브니스를 결정하는 방법을 예시하는 흐름도이다. 도 3은, 분석 스테이지들(103A, 103B)이 병렬로 수행되는 것을 제외하고는, 도 2와 유사하다.
[0042] 도 2 및 도 3과 관련하여, 분석 스테이지들 중 하나의 분석 스테이지(103A)는 생체인식 오브젝트가 데드인지 또는 얼라이브인지를 결정하려고 시도할 수 있다. 데드/얼라이브 결정(103A)을 하는 하나의 방식은, 시간에 대한 이미지 정보의 변화들을 식별 및 평가하는 것이다. 이러한 하나의 분석에서, 오브젝트에 관한 이미지 정보 또는 데이터의 적어도 2개의 세트들이 포착되어 서로 비교된다. 예컨대, 수집된 이미지 정보는, 초음파 센서 어레이를 사용하여 핑거와 같은 생체인식 오브젝트로부터 이미지 정보 또는 정보를 포착함으로써 획득될 수 있다. 제 1 시간에서 이미지 정보를 포착함으로써 획득된 이미지 정보의 제 1 세트는, 제 2 시간에서 이미지 정보를 포착함으로써 획득된 이미지 정보의 제 2 세트와 비교될 수 있고, 2개의 정보 세트들 사이의 변화들이 식별될 수 있다. 정보 세트들이 상이한 시간들에서 획득되기 때문에, 이 분석 스테이지는 2개의 시간 기간들 사이에 발생한 변화들을 식별하려고 시도하며, 그에 따라, "시간적 분석 스테이지"로 지칭될 수 있다. 살아있는 오브젝트와 일치하는 변화들과 유사한 변화들을 시간적 분석 스테이지가 식별하는 경우, 생체인식 오브젝트가 살아있는 개인의 부분이라는 것을 시간적 분석 스테이지가 표시한다고 결론내려질 수 있다. 데드/얼라이브 스테이지는, 시간 기간 ― 시간 기간 전체에 걸쳐 오브젝트가 계속해서 센서에 이용가능함 ― 동안 오브젝트의 피처가 변화되었는지의 여부에 관한 결정을 하려고 시도할 수 있다는 것을 주목해야 한다. 예컨대, 도 6a에서 설명되는 바와 같이, 오브젝트가 계속해서 센서에 이용가능한 시간 기간이 선택(104)될 수 있다. 이 방식에서, 동일한 생체인식 오브젝트에 대해 시간적 분석이 수행된다는 어떠한 보장이 제공된다. 다시 말해, 방법/시스템은 2개의 상이한 생체인식 오브젝트들의 사용을 방지하도록 구현될 수 있다. 예컨대, 2개의 상이한 시간들에서 2개의 상이한 생체인식 오브젝트를 사용하는 것을 방지하기 위해, 초음파 센서 어레이에 커플링된 플래튼의 표면 상에 포지셔닝된 핑거와 같은 생체인식 오브젝트로부터 일련의 순차적 이미지들이 포착될 수 있으며, 시간적 분석을 위해 사용될 이미지 정보 세트들의 포착 사이의 시간 기간 동안 동일한 핑거가 플래튼 표면 상에 유지되었다는 것을 결정하기 위해 충분한 수의 순차적 이미지들이 포착된다. 일부 구현들에서, 핑거 또는 다른 생체인식 오브젝트가 플래튼 포면으로부터 제거되지 않았다는 것을 보장하기 위해, 순차적으로 포착된 데이터 세트들은 더 간단한 분석 루틴으로 분석될 수 있다. 일부 구현들에서, 시간적 분석은 동일한 핑거에 대해 1회보다 많은 수의 횟수로 수행될 수 있다. 일부 구현들에서, 시간적 분석은 2개보다 많은 수의 세트들의 이미지 정보를 사용할 수 있다. 생체인식 오브젝트가 제거되고 다른 생체인식 오브젝트로 교체되지 않았다는 것을 보장하기 위해 순차적으로 포착된 데이터 세트들이 시간적 데이터 세트들 중 임의의 데이터 세트들의 포착들 사이에 삽입될 수 있다.
[0043] 시간적 분석 스테이지는 이미지 정보 세트들 또는 이미지 정보를, 모공 크기의 변화들 또는 융선 패턴들의 변화들과 같은 변화들, 특히 맥박 또는 다른 생물학적 기능, 이를테면, 발한(sweating), 피부 기름들의 배출, 또는 근육 움직임을 갖는 오브젝트를 표시하는 변화들에 대해 분석할 수 있다. 시간적 분석 스테이지의 부분으로서 검출될 수 있는 다른 변화들은 모공 깊이의 변화들 또는 텍스처의 변화들을 포함한다. 모공 크기들은, 기름 또는 땀의 배출로 인해, 또는 단순하게는 핑거가 플래튼 표면에 대해 가압됨에 따른 외부 모공 직경의 변동들로 인해 시간에 따라 변화될 수 있다. 핑거가 플래튼 표면에 대해 가압되어 홀딩됨에 따라, 특히 심장 박동으로 핑거팁(fingertip)에서의 혈압이 변화됨에 따라 또는 눌러진 핑거에서 근육들의 국부적 수축들 및 이완들이 발생함에 따라, 융선 패턴들, 이를테면, 융선들의 포지션, 융선들의 폭, 또는 융선 폭 대 골 폭의 비율이 변화될 수 있다. 핑거가 플래튼 표면에 대해 더 강하게 그리고 더 부드럽게 가압됨에 따라 짧은 시간 간격들에 걸쳐 텍스처의 변화들이 발생하여, 더 많은 그리고 더 적은 피부 영역이 플래튼에 접촉되는 것이 초래될 수 있다. 예컨대, 모공 구멍 둘레에 불완전한 융선을 가진 개방된 모공들은, 더 높은 핑거 압력이 가해짐에 따라 폐쇄된 모공이 될 수 있다. 플래튼 표면에 대한 모공 직경의 변화들에 의해 표시되는 바와 같이, 모공 깊이는 시간 및 압력에 따라 변화될 수 있다. 가변적인 범위-게이트 지연들을 이용한 시간적 이미징은, 핑거로의 이미징을 허용할 수 있으며, 이로부터 모공 직경 또는 모공 깊이와 같은 시간적 변화가 검출될 수 있다.
[0044] 시간적 분석으로부터, 이미지 정보의 변화들이 발생했다는 결정이 이루어지는 경우, 시간적 분석 스테이지는 이미지 정보의 변화들이, 살아있는 오브젝트와 일치하는 변화들과 유사한지의 여부를 결정하는 것을 포함할 수 있다. 변화들이 살아있는 오브젝트와 일치하는 변화들을 따른다는 것이 시간적 분석에 의해 결정되는 경우, 시간적 분석 스테이지는 생체인식 오브젝트가 살아있는 개인의 부분일 가능성이 있다는 표시를 생성할 수 있다. 그러나, 변화들이 살아있는 오브젝트와 일치하는 변화들을 따르지 않는다는 것이 시간적 분석에 의해 결정되는 경우, 시간적 분석 스테이지는 생체인식 오브젝트가 살아있는 개인의 부분이 아닐 가능성이 있다는 표시를 생성할 수 있다.
[0045] 데드/얼라이브 스테이지(103A)에 부가하여, 적어도 하나의 다른 분석 스테이지(103B)가 존재할 수 있다. 분석 스테이지들(103B)을 데드/얼라이브 스테이지(103A)와 더 명확하게 구별하기 위해, 분석 스테이지들(103B)은 EBS의 일 예일 수 있다. 하나 또는 그 초과의 EBS(103B)는, 생체인식 오브젝트가 살아있는 개인의 부분인지의 여부를 결정하기에 아주 적절한 방법/시스템을 제공하기 위해, 데드/얼라이브 스테이지(103A)와 조합될 수 있다. EBS(103B) 동안, 포착된 정보의 분석은, 오브젝트가 3차원적인지의 여부, 이미지 정보의 패턴 타입들이 미리 결정된 패턴 타입들 중에 있는지의 여부, 및/또는 오브젝트가 제조된 것인지의 여부를 결정하는 것에 관한 것일 수 있다. 이들 분석들 각각은 아래에서 더 상세하게 설명된다. 데드/얼라이브 스테이지(103A) 및 EBS(103B)가, 생체인식 오브젝트가 살아있는 개인의 부분이라는 결정을 각각 내리는 경우, 본원에서 개시된 시스템 또는 방법은, 이미지 정보가 포착된 시점에서 생체인식 오브젝트가 살아있는 개인의 부분이라는 표시를 생성할 수 있다. 그러나, 데드/얼라이브 스테이지(103A) 또는 EBS(103B)가, 생체인식 오브젝트가 살아있는 개인의 부분이 아니라는 표시를 생성하는 경우, 본원에서 개시된 시스템 또는 방법은, 생체인식 오브젝트가 살아있는 개인의 부분이 아니라는 표시를 생성할 수 있다. 시스템/방법이, 생체인식 오브젝트가 살아있는 개인의 부분일 가능성이 있다는 표시를 생성하는 경우, 생체인식 오브젝트를 제시한 개인이, 요청된 활동에 참여하도록 인가될 수 있는지의 여부를 결정하기 위해, 생체인식 오브젝트로부터 획득된 정보가 분석될 수 있다. 일부 구현들에서, 액세스가 그랜트될 수 있거나 또는 요청된 활동이 허용되기 전에, 라이브니스의 포지티브 표시에 부가하여, 사용자의 식별, 검증 또는 인증이 요구될 수 있다.
[0046] 라이브니스를 결정하는 방법의 일반적인 개요가 제공되었기 때문에, 본 발명자들은 아래에 부가적인 세부사항들을 제공한다. 도 4는, (도 2와 같이) 직렬로 수행되는 것으로 도시된 4개의 분석 스테이지들을 갖는, 라이브니스를 결정하는 방법을 예시하는 흐름도이다. 도 2와 달리, 도 4에서는, 데드/얼라이브 스테이지(103A)가 EBS(103B) 이후에 수행되는 것으로 도시된다. 도 5는, 분석 스테이지들이 병렬로 실행되는 것으로 도시되는 것을 제외하고는, 도 4와 유사한 방법을 도시한다. 분석 스테이지들의 직렬 실행은, 특히 분석 스테이지들 중 하나의 분석 스테이지가 분석 스테이지들 중 다른 분석 스테이지들보다 더 적은 노력을 요구하거나, 더 적은 시간을 요구하거나, 또는 계산적으로 더 적은 비용이 든다는 특정한 이익들을 야기할 수 있다. 예컨대, 이러한 분석 스테이지가 분석 스테이지들 중 다른 분석 스테이지들보다 더 적은 노력을 요구하거나 더 적은 시간을 요구하거나 또는 더 적은 비용이 드는 경우, 해당 스테이지를 다른 스테이지들 이전에 실행하는 것이 유익할 수 있는데, 그 이유는 오브젝트가 살아있지 않다는, 이러한 스테이지로부터의 표시가, 다른 스테이지들의 실행을 선점하기 위해 사용될 수 있고, 이로써 시간 및 에너지를 절약할 수 있기 때문이다. 대안적으로, 분석 스테이지들의 병렬 실행은, 방법의 모든 생체인식 분석 스테이지들의 실행에 따라, 더 신속한 전체적 실행 시간, 감소된 레이턴시, 더 양호한 사용자 경험, 및 라이브니스 결정의 더 많은 확신과 같은 다양한 이익들을 야기할 수 있다.
[0047] 도 4는, 이미지 정보가 예상 생체인식 오브젝트와 상관되지 않는다는 것이 EBS(103B)에 의해 결정되는 경우, EBS(103B)는 제시된 생체인식 오브젝트가 살아있는 개인의 부분이 아닐 가능성이 있다는 표시를 생성할 수 있음을 표시한다. 그리고, 그 경우, 방법은, 개인이 액세스하도록 또는 요청된 활동에 참여하도록 허용되지 않아야 한다는 표시를 생성할 수 있고, 요청된 활동 또는 액세스는 거부(150)될 수 있다. 이미지 정보가 예상 생체인식과 상관된다는 것을 각각의 EBS 하위스테이지(103B(i) 내지 103B(iii))가 표시하는 경우, 분석은 데드/얼라이브 스테이지(103A)로 진행될 수 있다. 정보를 제공한 오브젝트가 살아있지 않다는 것을 데드/얼라이브 스테이지(103A)가 결정하는 경우, EBS(103B)는 제시된 생체인식 오브젝트가 살아있는 개인의 부분이 아닐 가능성이 있다는 표시를 생성할 수 있다. 그러나, 제시된 생체인식 오브젝트가 살아있는 개인의 부분이라는 것이 각각의 EBS 하위스테이지(103B(i) 내지 103B(iii))에 의해 결정되고 그리고 데드/얼라이브 스테이지(103A)에 의해 결정되는 경우, 생체인식 오브젝트가 살아있는 개인의 부분일 가능성이 있다는 표시가 생성될 수 있다. 그리고, 그 경우, 방법은, 개인이 액세스하도록 또는 요청된 활동에 참여하도록 허용되어야 한다는 표시를 생성할 수 있고, 요청된 활동 또는 액세스는 허용(153)될 수 있다. 일부 구현들에서, 액세스가 그랜트될 수 있거나 또는 요청된 활동이 허용되기 전에, 라이브니스의 표시에 부가하여, 사용자의 식별, 검증 또는 인증이 요구될 수 있다.
[0048] 도 6a는 라이브니스를 결정하는 다른 방법을 예시하는 흐름도이다. 도 6a에 도시된 방법은, 생체인식 오브젝트가 살아있는 개인의 부분인지의 여부를 결정할 수 있으며, 다음의 단계들을 포함한다:
1. 센서를 사용하여 생체인식 오브젝트로부터 이미지 정보를 포착(100)하고, 선택적으로 이미지 정보를 사전-프로세싱하는 단계;
2. (a) 생체인식 오브젝트가 3차원적인지의 여부를 결정하고(103B(i));
(b) 이미지 정보의 패턴 타입들이 미리 결정된 패턴 타입들 중에 있는지의 여부를 결정하고(103B(ii));
(c) 생체인식 오브젝트가 제조된 것인지(예컨대, 비-생체인식(non-biometric)인지)의 여부를 결정하고(103B(iii)); 그리고
(d) 시간 기간 ― 시간 기간 전체에 걸쳐 생체인식 오브젝트가 계속해서 센서에 이용가능함 ― 을 선택하고, 그리고 이미지 정보가 시간 기간 동안, 살아있는 오브젝트와 일치하는 방식으로 변화되는지의 여부를 결정(103A)하기 위해 이미지 정보를 분석하는 단계; 및
3. (i) 생체인식 오브젝트가 3차원적이라고 결정되고;
(ii) 이미지 정보의 패턴 타입들이 미리 결정된 패턴 타입들 중에 있고;
(iii) 생체인식 오브젝트가 제조된 것이 아니라고 결정되고; 그리고
(iv) 생체인식 오브젝트가 살아있는 오브젝트와 일치하는 방식으로 거동한다는 것이 결정되는 경우, 생체인식 오브젝트가 살아있는 개인의 부분이라고 결론내리는 단계.
[0049] 전술한 개요를 염두에 두고, 본 발명자들은 EBS(103B) 동안 수행될 수 있는 특정 타입들의 분석들에 관한 부가적인 세부사항들을 제공한다. 특히, EBS(103B)는 다음의 질의들 중 하나 또는 그 초과에 관한 노력들을 포함할 수 있다:
(i) 오브젝트가 3차원적인가?,
(ii) 이미지 정보의 패턴 타입들이 미리 결정된 패턴 타입들 중에 있는가?, 및/또는
(iii) 오브젝트가 제조된 것인가?
[0050] 생체인식 오브젝트가 3차원적이라는 것을 이미지 정보가 표시하는 경우, 제시된 생체인식 오브젝트가 살아있는 개인의 부분일 수 있다는 결론이 EBS(103B(i))에 의해 내려질 수 있다. 이미지 정보가 초음파 센서로부터 획득될 때, 이러한 분석은, 생체인식 오브젝트의 패턴들이 균일한 정도를 결정하는 것을 포함할 수 있다. 핑거프린트의 2차원적 스푸프는 통상적으로, 3차원 핑거가 갖는 것보다 초음파들의 더 균일한 반사를 가질 것이다.
[0051] 도 6b는 라이브니스를 결정하는 다른 방법(650)을 예시하는 흐름도이다. 방법은 센서를 사용하여 생체인식 오브젝트로부터 이미지 정보를 포착하는 단계(651)를 포함한다. 방법은 적어도 2개의 분석 단계들에서 이미지 정보를 분석하는 단계(653)를 더 포함한다. 분석 스테이지들 중 하나의 분석 스테이지는 시간적 분석 스테이지일 수 있으며, 시간적 분석 스테이지는 시간 기간 ― 시간 기간 전체에 걸쳐 생체인식 오브젝트가 계속해서 센서에 이용가능함 ― 동안 획득된 이미지 정보의 변화들을 분석한다. 센서는 초음파 센서일 수 있다. 센서는, 생체인식 오브젝트가 포지셔닝될 수 있는 플래튼을 포함할 수 있다. 일부 구현들에서, 이미지 정보의 부가적인 세트들은, 이미징되는 생체인식 오브젝트가 계속해서 센서에 이용가능하고 다른 생체인식 오브젝트로 교체되지 않았음을 보장하기 위해, 시간적 분석을 위해 사용되는 이미지 정보의 세트들 사이에서 시간-순차적 방식으로 포착될 수 있다.
[0052] 도 7a 내지 도 7c는 진짜 핑거 및 가짜 핑거로부터 반사된 초음파 신호들을 예시하는 초음파 센서 시스템의 초음파 센서 어레이(702)의 단면도들을 그래픽적으로 도시한다.
[0053] 도 7a는 압전층(714)의 각각의 측 상에 배치된 송신기 전극들(712 및 716) 사이에 포지셔닝된 압전층(714)을 갖는 초음파 송신기(710)로부터 론칭(launch)된 실질적으로 평면형의 초음파 평면파(718a)를 예시한다. 초음파 송신기(710)는 TFT 기판(720)에 커플링될 수 있으며, TFT 기판(720)은 자신 위에 형성된 TFT 회로(722)를 갖는다. 초음파 송신기(710)는 TFT 기판(720), TFT 회로(722) 및 커버층(740)을 통해 하나 또는 그 초과의 초음파 평면파들(718a)을 론칭할 수 있다. 일부 구현들에서, 커버층(740)은 보호 플래튼으로서의 역할을 할 수 있다. 일부 구현들에서, 디스플레이 디바이스의 커버 유리 또는 커버 렌즈가 플래튼 또는 커버층(740)으로서의 역할을 할 수 있다. 보호 코팅층(742)이 커버층(740)의 외측 표면 상에 포함될 수 있다. 코팅층(742)은 내오염성 층(smudge-resistant layer), 내스크래치성 층(scratch-resistant layer), 환경 보호층(environmentally protective layer), 음향 임피던스 매칭 층(acoustic impedance matching layer), 광학 간섭 필터, 또는 다른 기능층으로서의 역할을 할 수 있다. 코팅층(742)은 하위층들의 다층 스택을 포함할 수 있다. 일부 구현들에서, 코팅층(742)은 초음파 수신기(730) 바로 위에 포지셔닝되고 플래튼으로서의 역할을 할 수 있다. 일부 구현들에서, 초음파 센서(702)는, 커버층(740) 또는 코팅층(742) 없이 구성될 수 있으며, 초음파 수신기(703)의 외측 표면이 감지 표면으로서의 역할을 한다.
[0054] 핑거(750)와 같은 생체인식 오브젝트는 초음파 센서 어레이(702)의 외측 표면 상에 포지셔닝될 수 있다. 커버층(740) 및 선택적인 코팅층(742)을 통해 이동하는 초음파 평면파들(718a)은 초음파 센서 어레이(702)와 핑거(750) 사이의 표면에서 반사될 수 있다. 핑거(750)의 융선 구역들(754) 사이의 골 구역들(756)은 입사 초음파 에너지의 상당 부분을 다시 TFT 회로(722)를 향해 반사할 수 있다. 센서 표면과 접촉하는 핑거(750)의 융선 구역들(754)은, 입사 초음파 에너지를 흡수, 산란 또는 송신하여, TFT 회로(722)를 향해 더 적은 양의 초음파 에너지가 다시 반사되도록 초래할 수 있다. 핑거(750)의 융선 및 골 구역들로부터 반사된 초음파 에너지는, TFT 회로(722)의 일부 또는 전부 위에 포지셔닝된 압전 수신기 층(732)에 의해 전하로 변환될 수 있고, 전하는 TFT 회로(722)의 센서 픽셀들(724)의 하부 어레이(726)에 의해 검출될 수 있다. 수신기 바이어스 전압은 압전 수신기 층(732) 위에 포지셔닝되는 수신기 바이어스 전극(734)에 인가되어, 반사된 초음파들(718b)(도 7b 참조)이 압전 수신기 층(732) 및 TFT 회로(722)를 통과함에 따라 이미지 정보의 포착을 허용할 수 있다. 일단 포착되면, 센서 픽셀들(724)의 어레이(726)로부터의 픽셀 출력 신호들은 하나 또는 그 초과의 데이터 및 제어 라인들을 사용한 추가의 프로세싱을 위해 TFT 회로(722)로부터 클록 아웃(clock out)될 수 있다.
[0055] 핑거의 융선 구역(754)으로부터 반사된 초음파들(718b)을 예시하는, 진짜 핑거(750a)가 초음파 센서 어레이(702)의 센서 표면(744) 상에 포지셔닝된 초음파 센서 어레이(702)의 확대된 부분이 도 7b에 도시된다. 입사 초음파 평면파들(718a)이 센서 표면(744)으로부터 반사되고, 반사되는 파들(718b)의 일부는, 도 7c에 도시된 평평한 가짜 핑거(750b)와 비교하여, 핑거 융선 구역(754)의 에지로부터 더 높은 각도로 그리고 다소 지연된 시간으로 반사된다. 도 7c의 가짜 핑거(750b)는 핑거프린트의 프린팅된 사진 복제물 또는 충분하지 않은 깊이의 골 구역들을 갖는 저품질의 불충분하게 만들어진 실리콘 스푸프와 같은 대체로 2차원적인 스푸프를 도시한다. 포착된 이미지 정보의 레벨들 및 균일성이 분석되고, 가짜 핑거(750b)가 핑거프린트에 대한 하나 또는 그 초과의 예상 생체인식 피처들을 갖지 않는다는 결정이 이루어질 수 있다.
[0056] 생체인식 오브젝트의 패턴들이 균일한 정도를 결정하기 위해 소벨 필터(Sobel filter)가 사용될 수 있다. 균일한 것으로 확인되는 경우, 생체인식 오브젝트가 2차원적이라는 결정이 이루어질 수 있고, 그 상황에서, 라이브니스 결정은 네거티브(살아있지 않음)일 수 있으며, 액세스 또는 요청된 활동은 거부될 수 있다. 이러한 분석에서, 소벨 필터 "S"는 아래와 같고,
Figure pct00001
전치행렬 S'는 이미지 정보에 대응하는 관심 구역을 필터링하는 데 사용될 수 있다. 그 후에, 필터링된 이미지의 거듭제곱 합이 계산될 수 있고, 거듭제곱 합의 평균 값이 미리 결정된 임계값 미만인 경우, 이미지 정보는 "위크 에지들(weak edges)"을 가질 수 있고, 생체인식 오브젝트가 2차원적이라는 것이 결정될 수 있다.
[0057] 이미지 정보가 이미지 정보의 패턴 타입들에 관한 특정한 특성들을 표시하는 경우, 생체인식 오브젝트가 살아있는 개인의 부분이라는 결론이 EBS(103B(ii))에 의해 내려질 수 있다. EBS(103B(ii))는 이미지 정보의 패턴 타입들이 미리 결정된 패턴 타입들 중에 있는지의 여부를 결정하는 것을 포함할 수 있다. 이미지 정보의 패턴 타입들이 미리 결정된 패턴 타입들 중에 있는지의 여부를 결정하는 것은, 이미지 정보에서 표현된 패턴 분류들을 식별하는 것, 및 그 후에 패턴 분류들이 미리 결정된 패턴 분류들 중에 있는지의 여부를 결정하는 것을 포함할 수 있다. 일부 구현들에서, 패턴 분류들을 식별하는 것은 생체인식 오브젝트의 패턴들이 핑거프린트 이미지들의 융선 흐름, 특성을 나타내는지의 여부를 식별하는 것을 포함할 수 있다. 이러한 분석에서, 이미지 정보의 부분에 의해 나타난 융선 흐름이, 진짜 핑거로부터 알려진 미리 결정된 템플레이트와 충분히 유사한지의 여부를 결정하기 위해, 이미지 정보의 그 부분 또는 블록과 관련하여 융선 흐름 추출 알고리즘이 사용될 수 있다. 이미지 정보의 융선 흐름이 템플레이트와 충분히 유사하지 않은 경우, 이미지 정보가 휴먼 핑거로부터 비롯되지 않았다는 것(예컨대, 이미지 정보가 비-휴먼으로부터 비롯되었음 또는 이미지 정보가 휴먼으로부터 그러나 코, 뺨, 손바닥 또는 팔꿈치로부터 비롯되었음)이 결정될 수 있으며, 그 경우, 요청된 활동 또는 액세스는 거부(150)될 수 있다. 일부 구현들에서, 템플레이트 정보는, 사용자의 이전의 등록 동안 포착되었을 수 있는 등록된 핑거로부터의 패턴 타입들 및 패턴 분류들을 포함할 수 있다. 도 8a는 휴먼 핑거들로부터의 다양한 핑거프린트 이미지들(302, 304, 306 및 308)을 도시하고, 도 8b는 코(312), 뺨(314), 손바닥(316) 및 팔꿈치(318)와 같은 비-핑거프린트 몸체 부분들의 다양한 이미지들을 도시한다. 시각적 검사는 핑거프린트 이미지들에서의 융선 흐름 특성들 및 비-핑거프린트 이미지들에서의 특징적 융선 흐름의 결여를 보여준다.
[0058] 이 분석의 정확성을 보장하기 위해, 이미지 정보의 하나보다 많은 수의 부분 또는 블록이 추출 및 분석될 수 있고, 추출된 부분들 중 원하는 수보다 더 적은 부분들이 예상 융선 흐름을 나타내는 경우, 이미지 정보가 핑거로부터 비롯된 것이 아니라는 것이 결정될 수 있고, 요청된 활동 또는 액세스는 거부될 수 있다. 그러나, 추출된 부분들 중 원하는 수의(또는 그 초과의) 부분들이 예상 융선 흐름을 나타내는 경우, 이미지 정보가 핑거로부터 비롯되었다는 것이 결정될 수 있고, 그 경우, EBS(103B) 분석들 중 다른 분석들들 또는 데드/얼라이브 분석(103A)은, 요청된 활동 또는 액세스를 허용(153)할 것인지 또는 요청된 활동 또는 액세스를 거부(150)할 것인지를 결정하는 데 사용될 수 있다. 일부 구현들에서, 패턴 클래스들로 또한 알려진 패턴 분류들은 진짜 핑거 분류 또는 스푸프 핑거 분류와 같은 분류들을 포함할 수 있다. 진짜 핑거 분류는, 라이브 핑거 하위-클래스(live finger sub-class) 또는 데드 핑거 하위-클래스(dead finger sub-class)와 같은 하위-분류들을 포함할 수 있다. 스푸프 핑거 분류는 젤라틴 하위-클래스, 실리콘 하위-클래스, 나무-접착제 하위-클래스, 또는 라텍스 하위-클래스와 같은 하위-분류들을 포함할 수 있다. 각각의 분류 또는 하위-분류는 클래스 또는 하위-클래스와 연관된 하나 또는 그 초과의 패턴 타입들을 가질 수 있다. 패턴 타입들은 예컨대 피처 타입, 피처 벡터, 피처 행렬 또는 피처 값을 포함할 수 있다. 예컨대, 패턴 타입은 피처 타입, 이를테면, 공간 주파수(예컨대, 고, 저 또는 중간 공간 주파수)를 포함할 수 있다. 패턴 타입은 피처 벡터, 이를테면, 로컬 바이너리 패턴(local binary pattern) 벡터(예컨대, LBP 벡터)를 포함할 수 있다. 패턴 타입은 피처 행렬, 이를테면, 초음파 임피던스 상관들의 2차원 분포를 포함할 수 있다. 패턴 타입은 피처 값(예컨대, 수(number)), 이를테면, 배향 일관성 값을 포함할 수 있다.
[0059] 일부 구현들에서, 포착된 이미지가 융선들을 갖는지의 여부, 또는 더 구체적으로는 이미지가 휴먼 핑거프린트 융선 패턴을 포함하는지의 여부의 결정이 예상 생체인식 스테이지(EBS; expected biometric stage)(103B) 분석에 의해 이루어질 수 있다. 예컨대, 포착된 이미지에 융선들이 포함되어있는지의 여부 및 이미징된 오브젝트의 융선들이, 휴먼 핑거들 상에서 통상적으로 나타나는 것들과 같은지의 여부를 결정하기 위해, 이미징된 오브젝트로부터 획득된 하나 또는 그 초과의 관심 구역들로부터의 데이터에 대해 융선-흐름 추출 알고리즘이 사용될 수 있다. 이미징된 오브젝트에 의해 나타난 패턴이 휴먼 핑거프린트 패턴 또는 일부 다른 패턴일 가능성이 있는지를 식별하기 위해, 융선-패턴 결정이 수행될 수 있다. 이미징된 오브젝트의 융선들이 휴먼 핑거들 상에서 통상적으로 나타나는 것들과 같지 않은 경우, 이미징된 오브젝트는 "비-핑거(non-finger)"로서 라벨링될 수 있고, 그 결과는, 요청된 활동 또는 액세스를 허용(153)할지 또는 요청된 활동 또는 액세스를 거부(150)할지를 결정하는 데 사용될 수 있다.
[0060] 생체인식 오브젝트가 제조된 것이 아니라는 것(즉, 유기적이거나 생물학적임)을 이미지 정보가 표시하는 경우, 생체인식 오브젝트가 살아있는 개인의 부분이라는 결론이 EBS(103B)에 의해 내려질 수 있다. 이러한 분석은, 생체인식 오브젝트가 제조된 층들로 이루어져 있는지의 여부를 결정하기 위해 이미지 정보를 분석하는 것을 포함할 수 있다. 생체인식 오브젝트가 층들로 이루어져 있다는 것이 결정되는 경우, 생체인식 오브젝트는 제조된 것이라는 것이 결정될 수 있다. 예컨대, 오브젝트의 층들은, 일반적으로 층들로 프린팅되는 3차원 프린팅 스푸프(three-dimensional printed spoof)들의 사용을 표시할 수 있다. 다른 예에서, 층들은, 인가되지 않은 사용자의 핑거 위로 슬라이딩된, 위조(false) 핑거프린트 피처들을 갖는 얇은 라텍스 스푸프를 포함하는 생체인식 오브젝트에서 검출될 수 있다. 생체인식 오브젝트가 층들로 이루어져 있는지의 여부를 결정하기 위해, 초음파 센서가 사용될 수 있고, 생체인식 오브젝트의 표면으로부터 측정된 특정 깊이에 층이 존재하는지의 여부를 결정하기 위해, 센서의 픽셀 회로 및 압전 수신기 층에 충돌하는 초음파 신호들의 검출을 위하여 범위-게이트 지연이 조정될 수 있다. 생체인식 오브젝트가 층들로 이루어져 있는지의 여부를 식별하는 다른 방법들은 복수의 초음파 주파수들의 사용을 포함한다. 일부 구현들에서, 생체인식 오브젝트에 관한 이미지 정보의 다수의 세트들을 포착하기 위해, 다수의 주파수들 및 상이한 범위-게이트 지연들이 사용될 수 있다. 이미지 정보의 단일 세트를 유도하기 위해 이미지-융합 알고리즘이 사용될 수 있고, 이미지 정보의 유도된 세트는 층들의 존재에 대해 분석될 수 있다. 층들이 존재하는지의 여부를 결정하는 다른 방식은, 유도된 이미지 정보의 품질을 임계값에 대해 비교하는 것이다. 유도된 이미지 정보의 품질이 임계값을 충족시키는 데 실패하거나 또는 초과하는 경우, 이미지 정보가, 살아있는 존재의 부분인 생체인식 오브젝트로부터 유도되지 않았으며, 대신에 제조된 스푸프가 센서에 제시되었다는 것이 결정될 수 있다.
[0061] 다른 방법은, 제조된 스푸프를 식별하기 위해, 다중-피처 기반 분류 방법을 사용할 수 있다. 이러한 방법에서, 상이한 주파수들에서의 진짜 핑거들과 가짜 핑거들 사이의 미묘한 차이들이 분석 및 평가될 수 있다. 도 9는 진짜 및 가짜 핑거들에 대해 상이한 주파수들 및 범위-게이트 지연들에서 포착된 이미지 정보로부터 유도된 이미지들을 도시한다. 예컨대, 최상부의 행에서, 제 1 주파수(F1) 및 제 1 범위-게이트 지연(RGD1)에서 진짜 핑거로부터의 이미지 정보가 핑거프린트 이미지(322a)로서 도시된다. 제 2 주파수(F2) 및 제 2 범위-게이트 지연(RGD2)에서 핑거로부터의 이미지 정보는 핑거프린트 이미지(322b)로서 도시되고, 제 3 주파수(F3) 및 제 3 범위-게이트 지연(RGD3)에서 핑거로부터의 이미지 정보는 핑거프린트 이미지(322c)로서 도시된다. 이미지 정보는 이미지-융합 알고리즘을 사용하여 서로 융합될 수 있으며, 그 결과는 융합된 핑거프린트 이미지(322d)로서 도시된다. 제 2 행은, 제 1 주파수(F1) 및 제 1 범위-게이트 지연(RGD1), 제 2 주파수(F2) 및 제 2 범위-게이트 지연(RGD2), 그리고 제 3 주파수(F3) 및 제 3 범위-게이트 지연(RGD3)에서 각각 획득된 이미지들(324a, 324b 및 324c)을 갖는 라텍스 핑거를 도시하며, 이미지 융합의 결과들은 융합된 이미지(324d)로서 도시된다. 제 3 행은, 제 1 주파수(F1) 및 제 1 범위-게이트 지연(RGD1), 제 2 주파수(F2) 및 제 2 범위-게이트 지연(RGD2), 그리고 제 3 주파수(F3) 및 제 3 범위-게이트 지연(RGD3)에서 각각 획득된 이미지들(326a, 326b 및 326c)을 갖는 실리콘 핑거를 도시하며, 이미지 융합의 결과들은 융합된 이미지(326d)로서 도시된다. 유사하게, 제 4 행은, 제 1 주파수(F1) 및 제 1 범위-게이트 지연(RGD1), 제 2 주파수(F2) 및 제 2 범위-게이트 지연(RGD2), 그리고 제 3 주파수(F3) 및 제 3 범위-게이트 지연(RGD3)에서 각각 획득된 이미지들(328a, 328b 및 328c)을 갖는 타입 2 실리콘 핑거를 도시하며, 이미지 융합의 결과들은 융합된 이미지(328d)로서 도시된다. 도 9에서 이미지 융합 전의 그리고 이미지 융합 후의 이미지들은, 스푸핑된 핑거를 진짜 핑거로부터 분리하기 위해 사용될 수 있는, 이미지 피처들, 이미지 품질, 이미지 콘트라스트에서의 특성 변화들을 도시한다. 예컨대, 모공 포지션 및 모공 밀도는 스푸프 재료의 타입 및 핑거로의 이미징의 깊이에 따라 변화될 수 있다. 고품질 스푸프는 스푸프의 표면에 적절한 수의 모공들 및 모공 밀도를 가질 수 있는데, 이는 휴먼 핑거와 달리 스푸프 표면으로부터 깊이가 깊어짐에 따라 급속히 감소될 수 있다. 핑거로의 깊이에 따른 모공들의 수 및 밀도는 진짜 핑거로부터 스푸프를 결정하는 데 도움이 될 수 있다.
[0062] 도 10은 진짜 핑거와 가짜 핑거 사이의 이미지 품질 차이들을 평가하기 위해 사용될 수 있는 이미지 정보를 도시한다. 핑거프린트 이미지 품질은 가짜 대 진짜 핑거프린트 이미지 정보를 검출하는 데 암시신호(cue)로서 사용될 수 있다. 가짜 핑거들 또는 스푸프들은 가짜 핑거의 포착된 초음파 이미지에 대한 품질 메트릭들을 사용하여 검출될 수 있다. 가짜 핑거들은 몇몇 상이한 재료들, 이를테면, 라텍스, 실리콘, 또는 다른 폴리머성 재료 중 하나로 제조될 수 있다. 일부 경우들에서, 재료의 유연성은, 스푸프가 센서 어레이와 완전히 접촉하기 더 어렵게 만들 수 있어서, 결과적인 이미지에서 고르지 못한 불균일 품질을 초래한다. 일부 경우들에서, 진짜 핑거 내의 국부적인 골격 구조들은, 주조된 가짜 핑거들을 위한 몰드 형성 동안 국부적인 돌출들을 초래할 수 있다. 공간 분해능, 콘트라스트, 공간 주파수, 패턴 일관성, 명확성(clarity) 및/또는 선명도(sharpness)와 같은 핑거프린트 품질 메트릭들은 이들 불균일성들을 검출할 수 있다. 핑거프린트 품질 메트릭들은 가짜 대 진짜 핑거 검출 시스템들의 성능을 더 개선할 수 있다. 라이브니스를 직접적으로 검출할 수 없지만, 핑거프린트 품질은, 라이브니스 검출에 대한 멀티-스테이지 접근법의 부분으로서 가짜 핑거프린트 이미지 정보를 검출하는 데 암시신호(cue)로서 사용될 수 있다. 스푸프에서 사용된 재료들과 휴먼 조직 사이의 음향 임피던스 차이들은 또한, 검출가능한 이미지 품질 차이들을 초래할 수 있다.
[0063] 스푸프 핑거에 대한 품질 메트릭들을 활용하기 위한 하나의 접근법은, 핑거프린트 이미지 영역 내에서 2개 또는 그 초과의 작은 구역들(즉, 블록들)을 선택하고, 명확성 또는 선명도와 같은 품질 메트릭을 각각의 선택된 블록에 적용하고, 그 후에, 하나 또는 그 초과의 영역들이 다른 영역들과 현저하게 상이한 명확성 또는 선명도를 갖는지를 결정하기 위해, 계산들의 결과들을 비교하는 것을 포함한다. 계산된 결과들의 넓은 편차는 가짜 핑거를 표시할 수 있다.
[0064] 품질-기반 스푸프 검출 방법의 예는 도 10의 이미지들에 대해 확인될 수 있다. 도 9에서와 같이, 도 10의 이미지들은 상이한 주파수들 및 범위-게이트 지연들로 취해질 수 있다. 제 1 박스(342a) 및 제 2 박스(342b)는 진짜 핑거로부터의 핑거프린트 이미지들(332a, 332b 및 332c) 내의 블록들 또는 구역들의 선택된 쌍 주변에 형성될 수 있다. 2개의 블록들 내의 피처들의 결과적인 명확성 및 선명도는 유사한 것으로 확인될 수 있다. 제 1 박스(344a) 및 제 2 박스(344b)는 가짜 핑거로부터의 핑거프린트 이미지들(334a, 334b 및 334c) 내의 유사한 블록들 또는 구역들 주변에 그려질 수 있다. 2개의 블록들 사이의 결과적인 명확성 및 선명도는 상당히 상이한 것으로 확인될 수 있다. 이 분석에 기반하여, 제 2 이미지가 가짜 핑거로부터 비롯되었다는 것으로 의심될 수 있다. 일부 구현들에서, 이미지 분석은 하나 또는 그 초과의 주파수들 및 범위-게이트 지연들에서 개별 핑거프린트 이미지들에 대해 수행될 수 있다. 일부 구현들에서, 이미지 분석은 각각 진짜 핑거 및 가짜 핑거에 대한 융합된 핑거프린트 이미지들(332d 및 334d)과 같은 융합된 이미지들에 대해 수행될 수 있다. 예상 생체인식 분석 스테이지들 또는 시간적 분석 스테이지들과 같은 다른 테스트들 및 분석들로부터의 결과들에 따라 의심이 강화될 수 있다.
[0065] 도 11a 내지 도 11c는 핑거프린트 이미지들의 시간적 변화들을 예시한다. 제 1 시간(t1)에서 취해진 핑거프린트 이미지(342a)(도 11a) 및 동일한 핑거의, 제 1 시간(t1)과 상이한 제 2 시간(t2)에서 취해진 제 2 핑거프린트 이미지(342b)(도 11b)가 비교될 수 있다. 시간(t2)에서의 픽셀 출력 값들로부터 시간(t1)에서의 픽셀 출력 값들을 차감하고 그리고 결과적인 차감을 원래의 핑거프린트 이미지(342a) 상에 중첩하는 것으로부터 초래되는 비교된 핑거프린트 이미지(342c)가 도 11c에 도시된다.
[0066] 일부 구현들에서, 핑거형 오브젝트(finger-like object)의 라이브니스는, 포착된 핑거프린트가 2-D 특성들만을 갖는지 또는 3-D 오브젝트인지에 따라 부분적으로 결정될 수 있다. 피부형 오브젝트 검출(skin-like object detection) 및 3-D 오브젝트 결정은 라이브니스 검출 시스템 및 방법의 스테이지들을 형성할 수 있다. 위에 놓이는 플래튼을 가진 또는 갖지 않은 초음파 센서 어레이와 같은 접촉-기반 핑거프린트 이미징 시스템들은, 이미징된 오브젝트의 특성들이 나타나게 할 수 있고, 오브젝트가 피부형인지 및 3차원적인지를 결정하는 데 도움이 될 수 있다. 예컨대, 핑거에 의해 플래튼 표면 상에 가해지는 힘 또는 압력은 종종 일시적이고 불균일하며, 하나의 이미지 포착과 다른 이미지 포착 사이에서 핑거 모션을 초래할 수 있다. 각각의 이미지 포착 동안, 핑거프린트 검출 시스템은 3-D 오브젝트를 2-D 등가 이미지로 변환할 수 있다. 핑거 또는 피부의 탄력성은 더 낮은 압력보다는 더 큰 압력에 따라 피부가 더 늘어나는 것을 야기할 수 있다. 플래튼 표면 상의 3-D 오브젝트에 의해 가해진 압력은 눌러진 핑거의 중앙에서 가장 높을 수 있고 핑거프린트의 경계 또는 에지를 향해 감소될 수 있다. 눌러진 핑거의 중앙은 더 두드러진 에지들을 가질 수 있고, 에지들의 얇아짐(thinning)은 핑거 주변부 근처에서 더 뚜렷할 수 있다. 대조적으로, 2-D 오브젝트는 이미징된 오브젝트의 전체에 걸쳐 더 균일한 에지 세기를 가질 수 있다. x- 및 y- 방향들을 따르는 이미지 그래디언트는 오브젝트가 2-D인지 또는 3-D인지를 결정하는 데 도움이 될 수 있다. 이미지 그래디언트는 아래에서 제공되는 바와 같은 Sx 및 Sy와 함께 X 및 Y 방향을 따라 소벨 필터링 커널(Sobel filtering kernel)을 적용함으로써 이미지 데이터로부터 컴퓨팅될 수 있다.
Figure pct00002
[0067] 포착된 이미지는 2개의 대응하는 응답들(gx 및 gy)을 생성하기 위해 Sx 및 Sy 필터들을 이용하여 컨벌빙(convolve)될 수 있다. 이미지 그래디언트는 응답들(gx 및 gy)로부터
Figure pct00003
로서 계산될 수 있다. 오브젝트 에지들은 임계치 연산을 이용하여 그래디언트 이미지들로부터 결정될 수 있다. 에지 세기는 디스크립터로서 사용되고 그리고 이미지 콘트라스트의 척도(즉, 에지에 걸쳐 그리고 에지를 따라 강도 변화가 얼마나 현저한지)로서 사용될 수 있다. 사전-확립된 경험적 에지-세기 또는 그래디언트 임계치에 대한 에지 세기 또는 그래디언트 정보의 비교는 오브젝트가 3-D 오브젝트인지를 결정할 수 있다.
[0068] 일부 구현들에서, 시간적 핑거프린트 정보는 플래튼 표면 상의 핑거의 약간의 롤링(rolling)으로 인해 3-D 오브젝트 결정을 도울 수 있다. 예컨대, 시간의 분리에 따라 포착된 3-D 오브젝트의 복수의 이미지들은, 에지 피처들의 변화 또는 확대된 또는 축소된 에지 구역과 같이, 적용된 힘의 변화들 또는 롤링에 따라 오브젝트의 다소 상이한 뷰들을 보일 수 있다. 대조적으로, 2-D 오브젝트로부터의 시간적 정보는 이미지마다 고조된 일관성을 보일 수 있다.
[0069] 일부 구현들에서, 오브젝트가 2-D인지 또는 3-D인지를 결정하기 위한 분석 스테이지 다음에 피부형 표면(skin-like surface)의 존재를 결정하기 위한 부가적인 분석 스테이지가 뒤따를 수 있다. 예컨대, 피부형 표면의 존재는, 포착된 이미지로부터 생성된 피부-톤 히스토그램(skin-tone histogram)을 유효 피부 톤들의 컬렉션으로부터 결정된 참조 피부-톤 히스토그램과 매칭시킴으로써 검증될 수 있다. 일부 구현들에서, 참조 피부-톤 히스토그램은 사용자의 등록 동안 획득될 수 있다.
[0070] 일부 구현들에서, 포착된 이미지의 패턴이 피부형인지의 여부의 결정은, 융선의 위치와 연관된 반사 에너지(reflected energy)를 골과 연관된 반사 에너지와 비교함으로써 이루어질 수 있다. 비교의 결과가 예상 반사 융선/골 에너지 결과(expected reflected ridge/valley energy outcome)와 유사한 경우, 오브젝트는 피부형인 것으로 결정될 수 있다.
[0071] 일부 구현들에서, 피부형 표면은 핑거형 3-D 오브젝트의 피부 모공들을 로케이팅함으로써 결정될 수 있다. 예컨대, 피부 모공들은, 융선 구역들에서 뚜렷한 원형 구역들을 검출함으로써 또는 모공 크기, 선형 모공 밀도(linear pore density) 또는 면적 모공 밀도(areal pore density)를 나타내는 이미징된 오브젝트의 푸리에 스펙트럼의 특정 구역들에서 특징적 피크들을 검출함으로써, 3-D 오브젝트들에서 로케이팅될 수 있다.
[0072] 일부 구현들에서, 단일 이미지로부터의 이미지 정보의 분석에 기반하는 이미지-기반 라이브니스 검출은 비-시간적 분석 스테이지들 중 하나로서의 역할을 할 수 있다. 단일-이미지 기반 EBS는, 핑거프린트 이미지 정보를 갖는 핑거프린트 이미지를 포착하는 단계 및 이미지 정보로부터 라이브니스 피처들을 추출하는 단계를 포함할 수 있다. 추출된 라이브니스 피처들은 하나 또는 그 초과의 베이스라인 피처들과 비교되어 비교를 제공할 수 있고, 그 비교에 기반하여 라이브니스 출력 신호가 결정될 수 있다. 이미지 정보는 초음파 센서 어레이의 부분인 플래튼의 표면 상에 포지셔닝된 사용자의 핑거로부터 포착될 수 있다. 이미지 정보로부터 라이브니스 피처들을 추출하기 위한 방법론들은 핑거프린트들의 (기하학적 컴포넌트들과 대조적으로) 텍스처 컴포넌트들의 차이들을 식별하려고 시도할 수 있는데, 그 이유는 적절한 기하학적 컴포넌트들을 가진 가짜 핑거프린트를 생성하는 것은 종종 상대적으로 용이하지만, 적절한 텍스처 컴포넌트들을 가진 가짜 핑거프린트를 생성하는 것은 아직 더 어렵기 때문이다. 예컨대, 가짜 핑거프린트는 핑거프린트의 융선 구역과 골 구역 사이에 뚜렷하게 상이한 그레이-레벨 분포들을 가질 수 있다. 일부 방법론들에서, 원시(raw) 라이브니스 피처들은 공간 영역에서 또는 주파수 영역에서 결정될 수 있다. 원시 라이브니스 피처들은 핑거프린트의 융선들에 대해 그리고 핑거프린트의 골들에 대해 계산될 수 있다. 이들 원시 라이브니스 피처들은 이미지 정보에 대해 라이브니스 결정을 하기에 충분할 수 있다. 일부 구현들에서, 원시 라이브니스 피처들의 비율들은 오브젝트가 살아있는지의 여부를 결정하는 데 사용될 수 있다. 다른 방법론들은, 그 전체가 2015년 9월 3일에 본원과 동시에 출원되고 발명의 명칭이 "Image-Based Liveness Detection for Ultrasonic Fingerprints"인 공동 계류중인 미국 출원 번호 제 14/845,174호에 설명되어 있다.
[0073] 일부 구현들에서, 2개 또는 그 초과의 이미지들로부터의 이미지 정보의 분석에 기반하는 이미지-기반 라이브니스 검출은 시간적 분석 스테이지로서의 역할을 할 수 있다. 예컨대, 연속적으로 포착된 핑거프린트 이미지들로부터의 이미지 정보는 원시 라이브니스 피처들에 대해 개별적으로 분석될 수 있고, 시간에 따른 원시 라이브니스 피처들에 대한 변화들은 포지티브 라이브니스 결정에 우호적인 강력한 표시자일 수 있다.
[0074] 일부 구현들에서, 복수의 단일 이미지들 각각으로부터의 중간 결정들은 융합되어 복합 결정을 형성할 수 있다. 예컨대, 중간 라이브니스 결정은 2개 또는 그 초과의 이미지들로 이루어질 수 있고, 중간 라이브니스 결정들은 조합되어 복합 라이브니스 결정을 형성할 수 있다. 복합 라이브니스 결정은, 이미징된 오브젝트의 라이브니스를 표시하는 라이브니스 출력 신호를 제공하기 위해, 다른 스테이지들로부터의 결정들과 조합될 수 있다.
[0075] 일부 구현들에서, 하나 또는 그 초과의 이미지-기반 라이브니스 검출 분석들로부터의 중간 결정들은, 오브젝트가 제조된 것인지의 여부를 결정하는 데 사용될 수 있다. 예컨대, 제조된 스푸프로부터 추출된 원시 라이브니스 피처들은 하나의 이미지로부터 다음번 이미지까지 변화를 거의 보이지 않을 수 있다.
[0076] 도 12는 본 개시내용의 양상들에 따른 라이브니스 결정 스테이지에 앞서는 핑거프린트 등록 및/또는 인증을 위한 일반화된 흐름들을 예시한다. 이 예에서, 블록(400)은 등록 프로세스를 설명하고, 블록(420)은 검증/인증 프로세스를 설명한다. 등록 동안, 포착된 이미지는, 로컬 또는 외부 데이터베이스(410)에 저장될 수 있는 템플레이트(예컨대, 템플레이트 정보, 템플레이트 데이터, 생체인식 참조 데이터, 또는 참조)를 생성하기 위해 프로세싱될 수 있다. 참조는 하나 또는 그 초과의 템플레이트들, 모델들, 또는 원시 이미지들을 포함할 수 있다는 것을 주목한다. 일부 구현들에서, 등록 프로세스는 이미지 포착(402), 이미지 프로세싱(404), 피처 추출(406), 템플레이트 생성(408), 및 데이터베이스(410)에서의 데이터 저장을 포함할 수 있다. 블록(420)의 검증/인증 프로세스는, 이미지 포착(422), 이미지 프로세싱(424), 피처 추출(426), 템플레이트 생성(428), 데이터베이스(410)에 저장된 정보를 사용한 핑거프린트 매칭(430), 및 매칭 출력 신호(434)를 결정 및 제공하기 위한 매칭 결정(432)을 포함할 수 있다. 식별/검증/인증 스테이지에서, 각각의 포착된 이미지는 템플레이트를 생성하기 위해 프로세싱될 수 있고; 생성된 템플레이트들은 매칭을 위해 사용될 수 있다. 핑거프린트 검증/인증 블록(420)은, 매칭이 발생했는지의 여부를 표시하는 매칭 출력 신호(434)를 제공할 수 있다. 하나 또는 그 초과의 라이브니스 결정 스테이지들(440)은, 핑거가 진짜인지 가짜인지 그리고 핑거가 데드인지 얼라이브인지를 결정하기 위해 다양한 시간적 분석들 및/또는 예상 생체인식 분석들을 수행할 수 있다. 라이브니스 결정을 표시하는 라이브니스 출력 신호(442)가 제공될 수 있다. 일부 구현들에서, 라이브니스 출력 신호(442)를 제공하기 위한 라이브니스 결정(440)은 핑거프린트 등록 블록(400) 동안 이루어질 수 있다. 일부 구현들에서, 라이브니스 출력 신호(442)는 사용자를 등록할지의 여부를 결정하기 위해 제공될 수 있다. 일부 구현들에서, 라이브니스 출력 신호(442)는 사용자를 검증, 식별 또는 인증할지를 결정하기 위해 제공될 수 있다. 예컨대, 라이브니스 출력 신호(442)는 사용자를 인증 또는 검증할지를 결정하기 위해 매칭 출력 신호(434)와 조합될 수 있다. 액세스를 허용하기 위해 또는 요청된 활동을 허용하기 위해, 포지티브 매칭 출력 신호(434)와 포지티브 라이브니스 출력 신호(442)가 조합될 수 있다. 일부 구현들에서, 라이브니스 출력 신호(442)가 생성되어, 모바일 또는 비-모바일 디바이스 상에서 실행되는 애플리케이션 또는 소프트웨어 애플리케이션에 제공될 수 있다. 일부 구현들에서, 등록 동안 패턴 타입들이 결정될 수 있다. 패턴 타입들은 핑거와 같은 오브젝트와 연관된 템플레이트의 부분으로서 저장될 수 있다. 일부 구현들에서, 등록 동안 패턴 분류들이 결정될 수 있다. 패턴 타입들 및 패턴 분류들은 인증 또는 검증을 위해 부분적으로 사용될 수 있다. 검증 시퀀스 동안, 특정 사용자에 대한 패턴 타입들 및/또는 패턴 분류들이 업데이트될 수 있다. 업데이트된 패턴 타입들 및/또는 패턴 분류들은 수정된 템플레이트에 저장될 수 있다.
[0077] 도 13은 초음파 센서 시스템(700)의 일반화된 블록도를 예시한다. 초음파 센서 시스템(700)은 초음파 센서 어레이(702) 및 센서 제어기(704)를 포함할 수 있다. 초음파 센서 어레이(702)는 센서 픽셀들의 하나 또는 그 초과의 어레이들을 포함할 수 있다. 초음파 센서 시스템(700)은 적어도 하나의 초음파 센서 어레이(702)를 포함할 수 있다. 일부 구현들에서, 초음파 센서 어레이(702)의 컴포넌트들은, 아래에서 도 15a 내지 도 16b를 참조하여 설명되는 터치 센서 시스템의 컴포넌트들과 유사할 수 있다. 일부 구현들에서, 초음파 센서 어레이(702) 및 센서 제어기(704)는 상이하게 구성될 수 있다. 예컨대, 특정 구현에 따라, 초음파 센서 시스템(700) 및 초음파 센서 어레이(702)는 디스플레이 디바이스와 연관된 터치 센서 시스템의 부분일 수 있다.
[0078] 센서 제어기(704)는 하나 또는 그 초과의 범용 단일- 또는 다중-칩 프로세서들, DSP(digital signal processor)들, ASIC(application specific integrated circuit)들, FPGA(field programmable gate array)들 또는 다른 프로그램가능 로직 디바이스들, 이산 게이트들 또는 트랜지스터 로직, 이산 하드웨어 컴포넌트들, 또는 이들의 조합들을 포함할 수 있다. 센서 제어기(704)는 또한, 하나 또는 그 초과의 메모리 디바이스들, 이를테면, 하나 또는 그 초과의 RAM(random access memory) 디바이스들, ROM(read-only memory) 디바이스들 등을 포함할 수 있다(그리고/또는 그들과 통신하도록 구성될 수 있음). 센서 제어기(704)는 초음파 센서 어레이(702)로부터 핑거프린트 센서 이미지 정보를 수신 및 프로세싱하는 것이 가능할 수 있다. 일부 구현들에서, 센서 제어기(704)의 기능들 중 일부 또는 전부는 모바일 디바이스의 애플리케이션 프로세서에 상주하거나 또는 그에 의해 수행될 수 있다.
[0079] 도 14는 초음파 센서 시스템의 더 상세한 블록도를 예시한다. 초음파 센서 시스템(700)은 센서 픽셀 어레이(726)를 갖는 TFT 회로를 포함하는 TFT 기판(720) 및 초음파 송신기(710)를 갖는 초음파 센서 어레이(702)를 포함할 수 있다. 초음파 송신기(710)는 (예컨대, 하나 또는 그 초과의 전자 연결들을 통해) 송신기 드라이버(768)에 전자 통신할 수 있다. 일부 구현들에서, 송신기 드라이버(768)는 초음파 송신기(710)와의 전자 통신에서 포지티브 극성 출력 신호 및 네거티브 극성 출력 신호를 가질 수 있다. 송신기 드라이버(768)는 센서 제어기(704)의 제어 유닛(760)과 전자 통신할 수 있다. 제어 유닛(760)은 송신기 여기 신호를 송신기 드라이버(768)에 제공할 수 있다. 제어 유닛(760)은 레벨 선택 입력 버스를 통해 수신기 바이어스 드라이버(762)와 전자 통신할 수 있다. 수신기 바이어스 드라이버(762)는 센서 픽셀 어레이(726)에 부착될 수 있는 압전 수신기 층(732)의 표면 상에 배치된 수신기 바이어스 전극(734)에 수신기 바이어스 전압을 제공할 수 있다(도 7a 참조). 제어 유닛(760)은 하나 또는 그 초과의 디멀티플렉서들(764)과 전자 통신할 수 있다. 디멀티플렉서들(764)은 복수의 게이트 드라이버들(766)과 전자 통신할 수 있다. 게이트 드라이버들(766)은 센서 픽셀 어레이(726)와 전자 통신할 수 있다. 게이트 드라이버들(766)은 센서 픽셀 어레이(726) 외부에 포지셔닝되거나 또는 일부 구현들에서는 센서 픽셀 어레이(726)와 동일한 기판 상에 포함될 수 있다. 센서 픽셀 어레이(726) 외부에 있거나 또는 센서 픽셀 어레이(726)와 동일한 기판 상에 포함될 수 있는 디멀티플렉서들(764)은 특정 게이트 드라이버들(766)을 선택하는 데 사용될 수 있다. 게이트 드라이버들(766)은 센서 픽셀 어레이(726)의 하나 또는 그 초과의 행들 또는 열들을 선택할 수 있다. 센서 픽셀 어레이(726)는 하나 또는 그 초과의 디지타이저들(772)과 전자 통신할 수 있다. 디지타이저들(772)은 센서 픽셀 어레이(726)의 하나 또는 그 초과의 센서 픽셀들(724)로부터의 아날로그 픽셀 출력 신호들을, 센서 제어기(704) 내에 있거나 또는 센서 제어기(704) 외부에 있는 데이터 프로세서(770) 내에서의 추가의 프로세싱에 적절한 디지털 신호로 변환할 수 있다. 센서 제어기(704)는 디지털 출력을 외부 시스템 또는 프로세서, 이를테면, 모바일 디바이스의 애플리케이션 프로세서에 제공할 수 있다.
[0080] 도 15a 내지 도 15d는 초음파 센서 어레이의 다양한 가능한 구성들을 예시한다. 초음파 센서 어레이(702)는 디스플레이(780) 및 초음파 센서 어레이(702)를 위해 개별 또는 공통 TFT 기판들을 가질 수 있다. 초음파 센서 어레이(702)는 핑거프린트 센서로서의 역할을 하고 그리고 일부 구현들에서는 초음파 터치스크린 또는 터치패드로서의 역할을 할 수 있다. 공통 커버 유리 또는 터치스크린은 디스플레이와 초음파 센서 어레이(702)의 엘리먼트들 사이에서 공유되고 그리고 초음파 센서 어레이(702)를 위한 커버층(740)으로서의 역할을 할 수 있다. 대안적인 구성들에서, 초음파 센서 어레이(702)(및 선택적인 코팅 또는 커버층)는 모바일 디바이스 인클로저의 베젤(bezel) 상에, 측 상에, 또는 후면 상에 포지셔닝될 수 있다. 일구 구현들에서, 초음파 센서 어레이(702)는 초음파 버튼 위에 위치되거나 또는 초음파 버튼의 부분으로서 포지셔닝될 수 있다. 초음파 버튼은 기계적이거나 또는 비-기계적일 수 있다. 예컨대, 초음파 버튼은 전기기계적 스위치에 기계적으로 커플링될 수 있다. 초음파 버튼은 인증되거나 인증되지 않을 수 있다. 일부 구현들에서, 초음파 센서 어레이(702)는, 디스플레이 컬러 필터 유리(784) 및 디스플레이 TFT 기판(782)을 포함할 수 있는 디스플레이의 활성 영역 주변에 있을 수 있다. 도 15a에 도시된 예에서, 초음파 센서 어레이(702)는, 초음파 센서 어레이를 위한 플래튼으로서의 그리고 디스플레이(780)를 위한 터치스크린 또는 커버 유리로서의 역할을 할 수 있는 공통 커버층(740) 아래에 포지셔닝된다. 다른 예에서, 초음파 센서 어레이(702)는 디스플레이와 개별적으로, 이를테면, 모바일 디바이스 인클로저(도시되지 않음)의 베젤 구역, 측벽, 또는 후면에 놓일 수 있다. 도 15b에 도시된 다른 예에서, 초음파 센서 어레이(702)는, 디스플레이 컬러 필터 유리(784) 및 디스플레이 TFT 기판(782)과 같은 디스플레이(780)의 엘리먼트들의 아래에 (또는 뒤에) 놓일 수 있다. 도 15c에 도시된 다른 예에서, 초음파 센서 어레이(702)의 부분들 또는 전부는 디스플레이 TFT 기판(782) 내에 통합될 수 있다. 일부 구현들에서, 초음파 센서 어레이(702)는 디스플레이(780)의 활성 영역의 일부 또는 전부를 포함할 수 있다. 도 15d는 TFT 기판(720) 상에 포지셔닝된 초음파 수신기(730) 및 초음파 송신기(710)를 갖는 초음파 센서 어레이(702)의 절삭도를 도시하며, 커버층(740)은 초음파 수신기(740) 위에 포지셔닝된다.
[0081] 도 16a 및 도 16b는 본원에서 설명된 바와 같은 핑거프린트 감지 시스템을 포함하는 디스플레이 디바이스를 예시하는 시스템 블록도들의 예들을 도시한다. 디스플레이 디바이스(900)는 예컨대, 스마트폰, 셀룰러 또는 모바일 전화 등과 같은 모바일 디스플레이 디바이스일 수 있다. 그러나, 디스플레이 디바이스(900)의 동일한 컴포넌트들 또는 이들의 약간의 변형들이 또한 다양한 타입들의 디스플레이 디바이스들, 이를테면, 텔레비전들, 컴퓨터들, 태블릿 컴퓨터들, e-리더들, 핸드-헬드 디바이스들 및 휴대용 매체 디바이스들을 예시한다.
[0082] 이 예에서, 디스플레이 디바이스(900)는 하우징(941), 디스플레이(930), 초음파 센서 시스템(700)(초음파 센서 시스템(700)의 부분은 시각적 디스플레이(930)의 부분이거나 또는 시각적 디스플레이(930)와 별개일 수 있음), 안테나(943), 스피커(945), 입력 디바이스(948) 및 마이크로폰(946)을 포함할 수 있다. 일부 구현들에서, 입력 디바이스(948)는 초음파 핑거프린트 센서, 터치패드, 또는 터치스크린의 부분으로서의 역할을 할 수 있는 초음파 센서 어레이(702)를 포함할 수 있다. 하우징(941)은 사출 성형 및 진공 성형(vacuum forming)을 포함하는, 다양한 제조 프로세스들 중 임의의 제조 프로세스로부터 형성될 수 있다. 부가하여, 하우징(941)은 플라스틱, 금속, 유리, 사파이어, 고무, 세라믹 또는 이들의 조합을 포함하는(그러나 이에 제한되지 않음) 다양한 재료들 중 임의의 재료로 만들어질 수 있다. 하우징(941)은, 상이한 컬러의 또는 상이한 로고들, 사진들 또는 심볼들을 포함하는 다른 제거가능한 부분들과 상호교환될 수 있는 제거가능한 부분들(도시되지 않음)을 포함할 수 있다.
[0083] 디스플레이(930)는, 플라즈마, OLED(organic light-emitting diode) 또는 LCD(liquid crystal display)와 같은 평판 디스플레이 또는 CRT(cathode ray tube) 또는 다른 튜브 디바이스와 같은 비-평판 디스플레이를 포함하는 다양한 디스플레이들 중 임의의 것일 수 있다. 부가하여, 디스플레이(930)는 IMOD(interferometric modulator)-기반 디스플레이 또는 마이크로-셔터 기반 디스플레이를 포함할 수 있다.
[0084] 디스플레이 디바이스(900)의 일 예의 컴포넌트들은 도 16b에 개략적으로 예시된다. 여기서, 디스플레이 디바이스(900)는 하우징(941)을 포함할 수 있으며, 내부에 적어도 부분적으로 밀봉된 부가적인 컴포넌트들을 포함할 수 있다. 예컨대, 디스플레이 디바이스(900)는 하나 또는 그 초과의 트랜시버들(947)에 커플링될 수 있는 하나 또는 그 초과의 안테나들(943)을 갖는 네트워크 인터페이스(927)를 포함할 수 있다. 네트워크 인터페이스(927)는 디스플레이 디바이스(900) 상에 디스플레이될 수 있는 이미지 정보에 대한 소스일 수 있다. 따라서, 네트워크 인터페이스(927)는 이미지 소스 모듈의 일 예이지만, 프로세서(921) 및 입력 디바이스(948)가 또한 이미지 소스 모듈로서의 역할을 할 수 있다. 트랜시버(947)는 프로세서(921)에 연결될 수 있고, 프로세서(921)는 컨디셔닝 하드웨어(952)에 연결될 수 있다. 컨디셔닝 하드웨어(952)는 (필터를 적용하거나 또는 다른 방식으로 신호를 조작하는 것과 같이) 신호를 컨디셔닝하는 것이 가능할 수 있다. 컨디셔닝 하드웨어(952)는 스피커(945) 및 마이크로폰(946)에 연결될 수 있다. 프로세서(921)는 또한 입력 디바이스(948) 및 드라이버 제어기(929)에 연결될 수 있다. 드라이버 제어기(929)는 프레임 버퍼(928) 및 어레이 드라이버(922)에 커플링될 수 있으며, 어레이 드라이버(922)는 차례로 디스플레이 어레이(930)에 커플링될 수 있다. 도 16b에 구체적으로 도시되지 않는 엘리먼트들을 포함하는, 디스플레이 디바이스(900)의 하나 또는 그 초과의 엘리먼트들은 메모리 디바이스로서 기능하는 것이 가능하고 프로세서(921) 또는 제어 시스템의 다른 컴포넌트들과 통신하는 것이 가능할 수 있다. 일부 구현들에서, 전력 공급부(950)는 특정 디스플레이 디바이스(900) 설계에서 실질적으로 모든 컴포넌트들에 전력을 제공할 수 있다.
[0085] 이 예에서, 디스플레이 디바이스(900)는 터치 및/또는 핑거프린트 제어기(977)를 포함할 수 있다. 터치 및/또는 핑거프린트 제어기(977)는 예컨대, 위에서 설명된 것과 같은 초음파 센서 시스템(700)의 부분일 수 있다. 따라서, 일부 구현들에서, 터치 및/또는 핑거프린트 제어기(977)(및/또는 초음파 센서 시스템(700)의 다른 컴포넌트들)는 하나 또는 그 초과의 메모리 디바이스들을 포함할 수 있다. 일부 구현들에서, 초음파 센서 시스템(700)은 또한 도 16b에서 도시된 프로세서(921), 어레이 드라이버(922) 및/또는 드라이버 제어기(929)와 같은 컴포넌트들을 포함할 수 있다. 터치 및/또는 핑거프린트 제어기(977)는 예컨대, 라우팅 와이어들을 통해 초음파 센서 시스템(700)과 통신하는 것이 가능할 수 있고, 초음파 센서 시스템(700)을 제어하는 것이 가능할 수 있다. 터치 및/또는 핑거프린트 제어기(977)는 초음파 센서 시스템(700) 상의 또는 인근의 하나 또는 그 초과의 오브젝트들, 이를테면, 핑거들의 위치 및/또는 이동을 결정하는 것이 가능할 수 있다. 일부 구현들에서, 프로세서(921)(또는 초음파 센서 시스템(700)의 다른 부분)는 위에서 설명된 바와 같은 터치 및/또는 핑거프린트 제어기(977), 초음파 센서 시스템(700) 및/또는 센서 제어기(704)의 기능 중 일부 또는 전부를 제공하는 것이 가능할 수 있다.
[0086] 터치 및/또는 핑거프린트 제어기(977)(및/또는 초음파 센서 시스템(700)의 다른 엘리먼트)는 하나 또는 그 초과의 터치 위치들에 따라 디스플레이 디바이스(900)를 제어하기 위한 입력을 제공하는 것이 가능할 수 있다. 일부 구현들에서, 터치 및/또는 핑거프린트 제어기(977)는 하나 또는 그 초과의 터치 위치들의 이동들을 결정하고 이동들에 따라 디스플레이 디바이스(900)를 제어하기 위한 입력을 제공하는 것이 가능할 수 있다. 대안적으로 또는 부가적으로, 터치 및/또는 핑거프린트 제어기(977)는 디스플레이 디바이스(900) 인근에 있는 오브젝트들의 위치들 및/또는 이동들을 결정하는 것이 가능할 수 있다. 이에 따라, 터치 및/또는 핑거프린트 제어기(977)는, 디스플레이 디바이스(900)와 어떠한 접촉도 이루어지지 않는 경우조차도 핑거 또는 스타일러스 이동들, 손 제스처들 등을 검출하는 것이 가능할 수 있다. 터치 및/또는 핑거프린트 제어기(977)는 이러한 검출된 이동들 및/또는 제스처들에 따라 디스플레이 디바이스(900)를 제어하기 위한 입력을 제공하는 것이 가능할 수 있다.
[0087] 본원의 다른 곳에서 설명된 바와 같이, 터치 및/또는 핑거프린트 제어기(977)(또는 초음파 센서 시스템(700)의 다른 엘리먼트)는 하나 또는 그 초과의 핑거프린트 검출 동작 모드들을 제공하는 것이 가능할 수 있다. 이에 따라, 일부 구현들에서, 터치 및/또는 핑거프린트 제어기(977)(또는 초음파 센서 시스템(700)의 다른 엘리먼트)는 핑거프린트 이미지들을 생성하는 것이 가능할 수 있다. 일부 구현들에서, 이를테면, 초음파 센서 시스템(700)의 초음파 센서 어레이(702)가 시각적 디스플레이(930)로부터 물리적으로 분리된 경우, 초음파 센서 시스템(700)을 위한 제어기는 터치 제어기와 별개이며 대체로 터치 제어기와는 독립적으로 동작할 수 있다.
[0088] 일부 구현들에서, 초음파 센서 시스템(700)은 본원의 다른 곳에서 설명된 바와 같은 초음파 수신기(730) 및/또는 초음파 송신기(710)를 포함할 수 있다. 일부 이러한 구현들에 따르면, 터치 및/또는 핑거프린트 제어기(977)(또는 초음파 센서 시스템(700)의 다른 엘리먼트)는 초음파 수신기(730)로부터 입력을 수신하고 초음파 송신기(710) 및/또는 디스플레이 디바이스(900)의 다른 컴포넌트를 파워 온 또는 "웨이크 업"하는 것이 가능할 수 있다.
[0089] 네트워크 인터페이스(927)는, 디스플레이 디바이스(900)가 네트워크를 통해 하나 또는 그 초과의 디바이스들과 통신할 수 있도록 안테나(943) 및 트랜시버(947)를 포함할 수 있다. 네트워크 인터페이스(927)는 또한 예컨대, 프로세서(921)의 데이터 프로세싱 요건들을 완화하는 일부 프로세싱 능력들을 가질 수 있다. 안테나(943)는 신호들을 송신 및 수신할 수 있다. 일부 구현들에서, 안테나(943)는 IEEE 16.11(a), (b) 또는 (g)를 포함하는 IEEE 16.11 표준, 또는 IEEE 802.11a, b, g, n, ac, ad를 포함하는 IEEE 802.11 표준 및 이들의 추가의 구현들에 따라 RF 신호들을 송신 및 수신한다. 일부 구현들에서, 안테나(943)는 블루투스® 표준에 따라 RF 신호들을 송신 및 수신할 수 있다. 셀룰러 전화의 경우, 안테나(943)는 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), GSM(Global System for Mobile communications), GSM/GPRS(General Packet Radio Service), EDGE(Enhanced Data GSM Environment), TETRA(Terrestrial Trunked Radio), W-CDMA(Wideband-CDMA), EV-DO(Evolution Data Optimized), 1xEV-DO, EV-DO Rev A, EV-DO Rev B, HSPA(High Speed Packet Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), HSPA+(Evolved High Speed Packet Access), LTE(Long Term Evolution), AMPS, 또는 3G, 4G 또는 5G 기술을 활용하는 시스템과 같은 무선 네트워크 내에서 통신하기 위해 사용되는 다른 알려진 신호들을 수신하도록 설계될 수 있다. 트랜시버(947)는, 안테나(943)로부터 수신되는 신호들이 프로세서(921)에 의해 수신되고 추가로 조작될 수 있도록 이들을 사전-프로세싱할 수 있다. 트랜시버(947)는 또한, 프로세서(921)로부터 수신되는 신호들이 안테나(943)를 통해 디스플레이 디바이스(900)로부터 송신될 수 있도록 이들을 프로세싱할 수 있다.
[0090] 일부 구현들에서, 트랜시버(947)는 수신기로 교체될 수 있다. 부가하여, 일부 구현들에서, 네트워크 인터페이스(927)는 프로세서(921)에 전송될 이미지 정보를 저장 또는 생성할 수 있는 이미지 소스로 교체될 수 있다. 프로세서(921)는 디스플레이 디바이스(900)의 전체 동작을 제어할 수 있다. 프로세서(921)는 네트워크 인터페이스(927) 또는 이미지 소스로부터 압축된 이미지 정보와 같은 데이터를 수신하고, 이 데이터를 원시 이미지 정보로 또는 원시 이미지 정보로 쉽게 프로세싱될 수 있는 포맷으로 프로세싱할 수 있다. 프로세서(921)는 프로세싱된 데이터를 드라이버 제어기(929)에 또는 저장을 위해 프레임 버퍼(928)에 전송할 수 있다. 원시 데이터는 통상적으로 이미지 내의 각각의 위치에서의 이미지 특성들을 식별하는 정보를 지칭한다. 예컨대, 이러한 이미지 특성들은 컬러, 채도 및 그레이-스케일 레벨을 포함할 수 있다.
[0091] 프로세서(921)는 디스플레이 디바이스(900)의 동작을 제어하기 위해 마이크로제어기, CPU 또는 로직 유닛을 포함할 수 있다. 컨디셔닝 하드웨어(952)는 신호들을 스피커(945)에 송신하고 마이크로폰(946)부터 신호들을 수신하기 위해 증폭기들 및 필터들을 포함할 수 있다. 컨디셔닝 하드웨어(952)는 디스플레이 디바이스(900) 내의 이산 컴포넌트들일 수 있거나, 프로세서(921) 또는 다른 컴포넌트들 내에 포함될 수 있다.
[0092] 드라이버 제어기(929)는 프로세서(921)에 의해 생성된 원시 이미지 정보를 직접 프로세서(921)로부터 또는 프레임 버퍼(928)로부터 취할 수 있으며, 어레이 드라이버(922)로의 고속 송신에 적합하게 원시 이미지 정보를 재포맷할 수 있다. 일부 구현들에서, 드라이버 제어기(929)는 디스플레이 어레이(930)에 걸친 스캐닝을 위해 적절한 시간 순서를 갖도록 원시 이미지 정보를 래스터형(raster-like) 포맷을 갖는 데이터 흐름으로 재포맷할 수 있다. 드라이버 제어기(929)는 포맷된 정보를 어레이 드라이버(922)에 전송할 수 있다. LCD 제어기와 같은 드라이버 제어기(929)가 종종 자립형 집적 회로(IC)로서 시스템 프로세서(921)와 연관되지만, 이러한 제어기들은 많은 방식들로 구현될 수 있다. 예컨대, 제어기들은 하드웨어로서 프로세서(921)에 임베딩되거나, 소프트웨어로서 프로세서(921)에 임베딩되거나, 또는 어레이 드라이버(922)와 함께 하드웨어에 완전히 통합될 수 있다.
[0093] 어레이 드라이버(922)는 포맷된 정보를 드라이버 제어기(929)로부터 수신할 수 있으며, 디스플레이 엘리먼트들의 디스플레이의 x-y 매트릭스로부터 발생하는 수백 및 때때로 수천 개의(또는 그 초과의) 도선들에 초당 수회(many times) 인가되는 병렬 세트의 파형들로 비디오 데이터를 재포맷할 수 있다.
[0094] 일부 구현들에서, 드라이버 제어기(929), 어레이 드라이버(922) 및 디스플레이 어레이(930)는 본원에서 설명된 디스플레이들의 타입들 중 임의의 타입에 대해 적합하다. 예컨대, 드라이버 제어기(929)는 종래의 디스플레이 제어기 또는 쌍안정 디스플레이 제어기(이를테면, IMOD 디스플레이 엘리먼트 제어기)일 수 있다. 부가적으로, 어레이 드라이버(922)는 종래의 드라이버 또는 쌍안정 디스플레이 드라이버일 수 있다. 더욱이, 디스플레이 어레이(930)는 종래의 디스플레이 어레이 또는 쌍안정 디스플레이 어레이일 수 있다. 일부 구현들에서, 드라이버 제어기(929)는 어레이 드라이버(922)와 통합될 수 있다. 이러한 구현은 고집적 시스템들, 예컨대, 모바일 전화들, 휴대용 전자 디바이스들, 시계들 또는 소형-영역 디스플레이들에서 유용할 수 있다.
[0095] 일부 구현들에서, 입력 디바이스(948)는 예컨대, 사용자가 디스플레이 디바이스(900)의 동작을 제어하도록 허용하는 것이 가능할 수 있다. 입력 디바이스(948)는 QWERTY 키보드 또는 전화 키패드와 같은 키패드, 버튼, 스위치, 로커(rocker), 터치-감지 스크린, 디스플레이 어레이(930)와 통합된 터치-감지 스크린, 압력- 또는 열-감지 멤브레인(membrane), 초음파 핑거프린트 센서, 초음파 터치패드, 또는 초음파 터치스크린을 포함할 수 있다. 마이크로폰(946)은 디스플레이 디바이스(900)에 대한 입력 디바이스로서 기능하는 것이 가능할 수 있다. 일부 구현들에서, 마이크로폰(946)을 통한 음성 커맨드들은 디스플레이 디바이스(900)의 동작들을 제어하기 위해 사용될 수 있다.
[0096] 전력 공급부(950)는 다양한 에너지 저장 디바이스들을 포함할 수 있다. 예컨대, 전력 공급부(950)는 니켈-카드뮴 배터리 또는 리튬-이온 배터리와 같은 재충전가능 배터리일 수 있다. 재충전가능 배터리를 사용하는 구현들에서, 재충전가능 배터리는 예컨대, 벽 소켓 또는 광전지 디바이스 또는 어레이로부터 발생하는 전력을 사용하여 충전가능할 수 있다. 대안적으로, 재충전가능 배터리는 무선으로 충전가능할 수 있다. 전력 공급부(950)는 또한, 재생가능한 에너지 소스, 커패시터, 또는 플라스틱 솔라 셀 또는 솔라-셀 페인트를 포함한 솔라 셀일 수 있다. 전력 공급부(950)는 또한 벽 콘센트로부터 전력을 수신하는 것이 가능할 수 있다.
[0097] 일부 구현들에서, 제어 프로그램능력은 전자 디스플레이 시스템의 몇몇 위치들에 로케이팅될 수 있는 드라이버 제어기(929)에 상주할 수 있다. 일부 구현들에서, 제어 프로그램능력은 어레이 드라이버(922)에 상주할 수 있다. 위에서 설명된 최적화는 임의의 수의 하드웨어 및/또는 소프트웨어 컴포넌트들로 그리고 다양한 구성들로 구현될 수 있다.
[0098] 본원에서 개시된 구현들과 관련하여 설명된 다양한 예시적인 로직들, 로지컬 블록들, 모듈들, 회로들 및 알고리즘 프로세스들은, 전자 하드웨어, 컴퓨터 소프트웨어, 또는 이 둘의 조합들로 구현될 수 있다. 하드웨어와 소프트웨어의 상호교환성은 일반적으로 기능의 관점들에서 설명되었고 위에서 설명된 다양한 예시적인 컴포넌트들, 블록들, 모듈들, 회로들 및 프로세스들에서 예시되었다. 이러한 기능이 하드웨어로 구현되는지 또는 소프트웨어로 구현되는지는 전체 시스템에 부과된 설계 제약들 및 특정 애플리케이션에 의존한다.
[0099] 본원에서 개시된 양상들과 관련하여 설명된 다양한 예시적인 로직들, 로지컬 블록들, 모듈들, 및 회로들을 구현하는데 사용되는 하드웨어 및 데이터 프로세싱 장치는, 범용 단일- 또는 다중-칩 프로세서, DSP(digital signal processor), ASIC(application specific integrated circuit), FPGA(field programmable gate array), 또는 다른 프로그램가능 로직 디바이스, 이산 게이트 또는 트랜지스터 로직, 이산 하드웨어 컴포넌트들, 또는 본원에서 설명된 기능들을 수행하도록 설계된 이들의 임의의 조합으로 구현 또는 수행될 수 있다. 범용 프로세서는 마이크로프로세서, 또는 임의의 종래의 프로세서, 제어기, 마이크로제어기, 또는 상태 머신일 수 있다. 프로세서는 또한 컴퓨팅 디바이스들의 조합, 예컨대 DSP와 마이크로프로세서의 조합, 복수의 마이크로프로세서들, DSP 코어와 공조하는 하나 또는 그 초과의 마이크로프로세서들, 또는 임의의 다른 이러한 구성으로 구현될 수 있다. 일부 구현들에서, 특정 프로세스들 및 방법들은 주어진 기능에 특정한 회로에 의해 수행될 수 있다.
[00100] 하나 또는 그 초과의 양상들에서, 설명된 기능들은 본 명세서에서 개시된 구조들 및 그들의 구조적 등가물들을 비롯하여, 하드웨어, 디지털 전자 회로, 컴퓨터 소프트웨어, 펌웨어 또는 이들의 임의의 조합으로 구현될 수 있다. 본 명세서에서 설명된 청구대상의 구현들은 또한, 데이터 프로세싱 장치의 동작을 제어하거나 또는 데이터 프로세싱 장치에 의한 실행을 위해 컴퓨터 저장 매체들 상에 인코딩된 하나 또는 그 초과의 컴퓨터 프로그램들, 즉, 컴퓨터 프로그램 명령들의 하나 또는 그 초과의 모듈들로서 구현될 수 있다.
[00101] 소프트웨어로 구현되는 경우, 기능들은 하나 또는 그 초과의 명령들 또는 코드로서 비-일시적 매체와 같은 컴퓨터-판독가능 매체 상에 저장되거나 이를 통해 송신될 수 있다. 본원에서 개시된 알고리즘 또는 방법의 프로세스들은 컴퓨터-판독가능 매체 상에 상주할 수 있는 프로세서-실행가능 소프트웨어 모듈로 구현될 수 있다. 컴퓨터-판독가능 매체들은 한 장소로부터 다른 장소로 컴퓨터 프로그램을 전달하도록 인에이블될 수 있는 임의의 매체를 포함하는 통신 매체들 및 컴퓨터 저장 매체들 둘 모두를 포함한다. 저장 매체들은 컴퓨터에 의해 액세스될 수 있는 임의의 이용가능한 매체들일 수 있다. 제한적이지 않은 예로서, 비-일시적 매체들은, RAM, ROM, EEPROM, CD-ROM 또는 다른 광학 디스크 저장소, 자기 디스크 저장소 또는 다른 자기 저장 디바이스들, 또는 명령들 또는 데이터 구조들의 형태로 원하는 프로그램 코드를 저장하는데 사용될 수 있고 컴퓨터에 의해 액세스 될 수 있는 임의의 다른 매체를 포함할 수 있다. 또한, 임의의 연결이 컴퓨터-판독가능 매체로 적절히 칭해질 수 있다. 본원에서 사용되는 바와 같은 디스크(disk 및 disc)는 컴팩트 디스크(disc)(CD), 레이저 디스크(disc), 광학 디스크(disc), 디지털 다용도 디스크(disc)(DVD), 플로피 디스크(disk) 및 블루레이 디스크(disc)를 포함하며, 여기서 디스크(disk)들은 일반적으로 데이터를 자기적으로 재생하는 한편, 디스크(disc)들은 데이터를 레이저들을 이용하여 광학적으로 재생한다. 앞서의 것들의 조합들이 또한, 컴퓨터-판독가능 매체들의 범위 내에 포함되어야 한다. 부가적으로, 방법 또는 알고리즘의 동작들은, 컴퓨터 프로그램 제품에 포함될 수 있는 기계 판독가능 매체 및 컴퓨터-판독가능 매체 상에 코드들 및 명령들 중 하나 또는 이들의 임의의 조합 또는 세트로서 상주할 수 있다.
[00102] 본 개시내용이 하나 또는 그 초과의 특정 구현들에 대해 설명되었지만, 본 개시내용의 사상 및 범위로부터 벗어남이 없이 본 개시내용의 다른 구현들이 이루어질 수 있다는 것이 이해될 것이다. 그러므로, 본 개시내용은 첨부된 청구항들 및 그 청구항들의 합리적인 해석에 의해서만 제한되는 것으로 간주된다.

Claims (21)

  1. 생체인식 오브젝트(biometric object)가 살아있는 개인(live individual)의 부분인지의 여부를 결정하는 방법으로서,
    초음파 센서의 범위 게이트(range gate)를 조정함으로써 생체인식 오브젝트로부터 초음파 이미지 정보를 포착하는 단계; 및
    상기 초음파 이미지 정보를 적어도 2개의 분석 스테이지들에서 분석하는 단계를 포함하고,
    상기 분석 스테이지들 중 하나의 분석 스테이지는 시간 기간 ― 상기 시간 기간 전체에 걸쳐 상기 생체인식 오브젝트가 계속해서 상기 초음파 센서에 이용가능함 ― 동안 획득된 상기 초음파 이미지 정보의 변화들을 분석하는 시간적 분석 스테이지이고,
    상기 시간적 분석 스테이지는 상기 이미지 정보의 변화들이, 살아있는 오브젝트와 일치하는(consistent) 변화들과 유사한지의 여부를 결정하고,
    상기 분석 스테이지들 중 다른 분석 스테이지는 상기 생체인식 오브젝트가 제조된 것인지의 여부를 결정하기 위해 상기 이미지 정보를 분석하고, 그리고
    상기 생체인식 오브젝트가 제조된 것인지의 여부를 결정하는 것은, 상기 생체인식 오브젝트가 층들로 이루어져 있는지의 여부를 결정하기 위해 상기 초음파 센서의 범위 게이트를 조정함으로써 포착된 상기 초음파 이미지 정보를 분석하는 것을 포함하는,
    생체인식 오브젝트가 살아있는 개인의 부분인지의 여부를 결정하는 방법.
  2. 제 1 항에 있어서,
    상기 시간적 분석 스테이지는 상기 생체인식 오브젝트의 피처(feature)가 상기 시간 기간 동안 변화되었는지의 여부를 결정하는,
    생체인식 오브젝트가 살아있는 개인의 부분인지의 여부를 결정하는 방법.
  3. 제 2 항에 있어서,
    상기 피처는, 모공 구멍 크기(pore opening size), 모공 깊이, 융선 패턴(ridge pattern), 및 텍스처(texture)로 이루어진 그룹으로부터 선택되는,
    생체인식 오브젝트가 살아있는 개인의 부분인지의 여부를 결정하는 방법.
  4. 제 1 항에 있어서,
    상기 분석 스테이지들 중 다른 분석 스테이지는, 상기 생체인식 오브젝트가 3차원적인지의 여부를 결정하기 위해 상기 초음파 이미지 정보를 분석하는,
    생체인식 오브젝트가 살아있는 개인의 부분인지의 여부를 결정하는 방법.
  5. 제 4 항에 있어서,
    상기 생체인식 오브젝트가 3차원적인지의 여부를 결정하는 것은, 상기 생체인식 오브젝트의 패턴들이 균일한지의 여부를 결정하는 것을 포함하는,
    생체인식 오브젝트가 살아있는 개인의 부분인지의 여부를 결정하는 방법.
  6. 제 4 항에 있어서,
    상기 생체인식 오브젝트의 패턴들이 균일한지의 여부를 결정하기 위해 소벨 필터(Sobel filter)가 사용되는,
    생체인식 오브젝트가 살아있는 개인의 부분인지의 여부를 결정하는 방법.
  7. 제 1 항에 있어서,
    상기 분석 스테이지들 중 다른 분석 스테이지는, 상기 이미지 정보의 패턴 타입들이 미리 결정된 패턴 타입들 중에 있는지의 여부를 결정하기 위해 상기 초음파 이미지 정보를 분석하는,
    생체인식 오브젝트가 살아있는 개인의 부분인지의 여부를 결정하는 방법.
  8. 제 7 항에 있어서,
    상기 초음파 이미지 정보의 패턴 타입들이 미리 결정된 패턴 타입들 중에 있는지의 여부를 결정하는 것은, 상기 초음파 이미지 정보에서 표현된 패턴 분류들을 식별하는 것, 및 그 후에 상기 패턴 분류들이 미리 결정된 패턴 분류들 중에 있는지의 여부를 결정하는 것을 포함하는,
    생체인식 오브젝트가 살아있는 개인의 부분인지의 여부를 결정하는 방법.
  9. 제 8 항에 있어서,
    상기 패턴 분류들을 식별하는 것은 상기 생체인식 오브젝트의 패턴들이 융선 흐름(ridge flow)을 나타내는지의 여부를 식별하는 것을 포함하는,
    생체인식 오브젝트가 살아있는 개인의 부분인지의 여부를 결정하는 방법.
  10. 제 1 항에 있어서,
    상기 초음파 센서는 상기 생체인식 오브젝트가 층들로 이루어져 있는지의 여부를 결정하기 위해 복수의 초음파 주파수들을 검출하는,
    생체인식 오브젝트가 살아있는 개인의 부분인지의 여부를 결정하는 방법.
  11. 제 1 항에 있어서,
    상기 오브젝트가 제조된 것인지의 여부를 결정하는 것은 상기 초음파 이미지 정보의 이미지 품질을 평가하는 것을 포함하는,
    생체인식 오브젝트가 살아있는 개인의 부분인지의 여부를 결정하는 방법.
  12. 제 1 항에 있어서,
    (i) 상기 초음파 이미지 정보의 변화들이, 살아있는 오브젝트와 일치하는 변화들과 유사하다는 것을 상기 시간적 분석 스테이지가 표시하고, 그리고
    (ii) 상기 생체인식 오브젝트가 제조된 것이 아니라는 것을 상기 분석 스테이지들 중 다른 분석 스테이지가 표시하는 경우,
    상기 생체인식 오브젝트가 살아있는 개인의 부분이라고 결론내리는 단계를 더 포함하는,
    생체인식 오브젝트가 살아있는 개인의 부분인지의 여부를 결정하는 방법.
  13. 제 1 항에 있어서,
    상기 초음파 센서는 상기 생체인식 오브젝트가 위치되는 플래튼(platen)을 포함하는,
    생체인식 오브젝트가 살아있는 개인의 부분인지의 여부를 결정하는 방법.
  14. 제 1 항에 있어서,
    분석된 초음파 이미지 정보에 기반하여 라이브니스 출력 신호(liveness output signal)를 제공하는 단계를 더 포함하는,
    생체인식 오브젝트가 살아있는 개인의 부분인지의 여부를 결정하는 방법.
  15. 생체인식 오브젝트가 살아있는 개인의 부분인지의 여부를 결정하기 위한 시스템으로서,
    상기 생체인식 오브젝트로부터 초음파 이미지 정보를 포착하기 위한 수단("MFA") ― 상기 MFA는 초음파 센서의 범위 게이트를 조정하기 위한 수단을 포함하고, 그리고 상기 이미지 정보는 초음파 센서의 범위 게이트를 조정함으로써 포착된 초음파 이미지 정보를 포함함 ―;
    (a) 상기 생체인식 오브젝트가 3차원적인지의 여부를 결정하고,
    (b) 상기 초음파 이미지 정보의 패턴 타입들이 미리 결정된 패턴 타입들 중에 있는지의 여부를 결정하고,
    (c) 상기 생체인식 오브젝트가 제조된 것인지의 여부를 결정하고 ― 상기 생체인식 오브젝트가 제조된 것인지의 여부를 결정하는 것은, 상기 생체인식 오브젝트가 층들로 이루어져 있는지의 여부를 결정하기 위해 상기 초음파 센서의 범위 게이트를 조정함으로써 포착된 상기 초음파 이미지 정보를 분석하는 것을 포함함 ―, 그리고
    (d) 시간 기간 ― 상기 시간 기간 전체에 걸쳐 상기 생체인식 오브젝트가 계속해서 상기 MFA에 이용가능함 ― 을 선택하고, 그리고 상기 초음파 이미지 정보가 상기 시간 기간 동안, 살아있는 오브젝트와 일치하는 방식으로 변화되었는지의 여부를 결정하기 위해, 상기 초음파 이미지 정보를 분석하기 위한 수단; 및
    (i) 상기 생체인식 오브젝트가 3차원적이라고 결정되고, 그리고
    (ii) 상기 초음파 이미지 정보의 패턴 타입들이 미리 결정된 패턴 타입들 중에 있고, 그리고
    (iii) 상기 생체인식 오브젝트가 제조된 것이 아니라고 결정되고, 그리고
    (iv) 상기 생체인식 오브젝트가 살아있는 오브젝트와 일치하는 방식으로 거동한다는 것이 결정되는 경우, 상기 생체인식 오브젝트가 살아있는 개인의 부분이라고 결론내리기 위한 수단을 포함하는,
    생체인식 오브젝트가 살아있는 개인의 부분인지의 여부를 결정하기 위한 시스템.
  16. 제 15 항에 있어서,
    상기 초음파 이미지 정보를 분석하기 위한 수단은, 상기 생체인식 오브젝트가 3차원적인지의 여부 및 상기 생체인식 오브젝트의 패턴들이 균일한지의 여부를 결정하는,
    생체인식 오브젝트가 살아있는 개인의 부분인지의 여부를 결정하기 위한 시스템.
  17. 컴퓨터 실행가능 코드를 저장하는 비-일시적 컴퓨터 판독가능 매체로서,
    상기 실행가능 코드는,
    초음파 센서의 범위 게이트를 조정함으로써 생체인식 오브젝트로부터 초음파 이미지 정보를 포착하기 위한 명령들, 및
    상기 초음파 이미지 정보를 적어도 2개의 분석 스테이지들에서 분석하기 위한 명령들을 포함하고,
    상기 분석 스테이지들 중 하나의 분석 스테이지는 시간 기간 ― 상기 시간 기간 전체에 걸쳐 상기 생체인식 오브젝트가 계속해서 상기 초음파 센서에 이용가능함 ― 동안 획득된 상기 초음파 이미지 정보의 변화들을 분석하는 시간적 분석 스테이지이고,
    상기 시간적 분석 스테이지는 상기 초음파 이미지 정보의 변화들이, 살아있는 오브젝트와 일치하는 변화들과 유사한지의 여부를 결정하고,
    상기 분석 스테이지들 중 다른 분석 스테이지는 상기 생체인식 오브젝트가 제조된 것인지의 여부를 결정하기 위해 상기 초음파 이미지 정보를 분석하고, 그리고
    상기 생체인식 오브젝트가 제조된 것인지의 여부를 결정하는 것은, 상기 생체인식 오브젝트가 층들로 이루어져 있는지의 여부를 결정하기 위해 상기 초음파 센서의 범위 게이트를 조정함으로써 포착된 상기 초음파 이미지 정보를 분석하는 것을 포함하는,
    비-일시적 컴퓨터 판독가능 매체.
  18. 제 17 항에 있어서,
    상기 실행가능 코드는, 상기 분석 스테이지들 중 다른 분석 스테이지에서 상기 생체인식 오브젝트가 3차원적인지의 여부를 결정하기 위해 상기 초음파 이미지 정보를 분석하기 위한 명령들을 포함하는,
    비-일시적 컴퓨터 판독가능 매체.
  19. 제 17 항에 있어서,
    상기 실행가능 코드는,
    (i) 상기 초음파 이미지 정보의 변화들이, 살아있는 오브젝트와 일치하는 변화들과 유사하다는 것을 상기 시간적 분석 스테이지가 표시하고, 그리고
    (ii) 상기 초음파 이미지 정보의 패턴 타입들이 미리 결정된 패턴 타입들 중에 있다는 것을 상기 분석 스테이지들 중 다른 분석 스테이지가 표시하는 경우, 상기 생체인식 오브젝트가 살아있는 개인의 부분이라고 결론내리기 위한 명령들을 포함하는,
    비-일시적 컴퓨터 판독가능 매체.
  20. 생체인식 오브젝트가 살아있는 개인의 부분인지의 여부를 결정하기 위한 시스템으로서,
    초음파 센서의 범위 게이트를 조정함으로써 상기 생체인식 오브젝트로부터 초음파 이미지 정보를 포착하도록 구성된 상기 초음파 센서;
    상기 초음파 이미지 정보를 적어도 2개의 분석 스테이지들에서 분석하도록 구성된 프로세서를 포함하고,
    상기 분석 스테이지들 중 하나의 분석 스테이지는 시간 기간 ― 상기 시간 기간 전체에 걸쳐 상기 생체인식 오브젝트가 계속해서 상기 초음파 센서에 이용가능함 ― 동안 포착된 상기 초음파 이미지 정보의 변화들을 분석하는 시간적 분석 스테이지이고,
    상기 시간적 분석 스테이지는 상기 초음파 이미지 정보의 변화들이, 살아있는 오브젝트와 일치하는 변화들과 유사한지의 여부를 결정하고,
    상기 분석 스테이지들 중 다른 분석 스테이지는 상기 생체인식 오브젝트가 제조된 것인지의 여부를 결정하기 위해 상기 초음파 이미지 정보를 분석하고, 그리고
    상기 생체인식 오브젝트가 제조된 것인지의 여부를 결정하는 것은, 상기 생체인식 오브젝트가 층들로 이루어져 있는지의 여부를 결정하기 위해 상기 초음파 센서의 범위 게이트를 조정함으로써 포착된 상기 초음파 이미지 정보를 분석하는 것을 포함하는,
    생체인식 오브젝트가 살아있는 개인의 부분인지의 여부를 결정하기 위한 시스템.
  21. 제 20 항에 있어서, 상기 초음파 센서는 복수의 초음파 주파수들을 검출하도록 구성되는,
    생체인식 오브젝트가 살아있는 개인의 부분인지의 여부를 결정하기 위한 시스템.
KR1020177005953A 2014-09-05 2015-09-04 라이브니스 결정을 위한 방법, 시스템, 및 비-일시적 컴퓨터 판독가능 저장 매체 KR102467916B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020227039636A KR102636547B1 (ko) 2014-09-05 2015-09-04 라이브니스 결정을 위한 방법, 시스템, 및 비-일시적 컴퓨터 판독가능 저장 매체

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201462046744P 2014-09-05 2014-09-05
US62/046,744 2014-09-05
US201562151983P 2015-04-23 2015-04-23
US62/151,983 2015-04-23
US14/845,174 US9633269B2 (en) 2014-09-05 2015-09-03 Image-based liveness detection for ultrasonic fingerprints
US14/845,149 US9639765B2 (en) 2014-09-05 2015-09-03 Multi-stage liveness determination
US14/845,174 2015-09-03
US14/845,149 2015-09-03
PCT/US2015/048583 WO2016037078A1 (en) 2014-09-05 2015-09-04 Multi-stage liveness determination

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020227039636A Division KR102636547B1 (ko) 2014-09-05 2015-09-04 라이브니스 결정을 위한 방법, 시스템, 및 비-일시적 컴퓨터 판독가능 저장 매체

Publications (2)

Publication Number Publication Date
KR20170048390A true KR20170048390A (ko) 2017-05-08
KR102467916B1 KR102467916B1 (ko) 2022-11-15

Family

ID=55437785

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020227039636A KR102636547B1 (ko) 2014-09-05 2015-09-04 라이브니스 결정을 위한 방법, 시스템, 및 비-일시적 컴퓨터 판독가능 저장 매체
KR1020177005953A KR102467916B1 (ko) 2014-09-05 2015-09-04 라이브니스 결정을 위한 방법, 시스템, 및 비-일시적 컴퓨터 판독가능 저장 매체

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020227039636A KR102636547B1 (ko) 2014-09-05 2015-09-04 라이브니스 결정을 위한 방법, 시스템, 및 비-일시적 컴퓨터 판독가능 저장 매체

Country Status (9)

Country Link
US (3) US9633269B2 (ko)
EP (2) EP3189470A1 (ko)
JP (1) JP6656228B2 (ko)
KR (2) KR102636547B1 (ko)
CN (2) CN106796650B (ko)
AU (1) AU2015311785B9 (ko)
BR (1) BR112017004379B1 (ko)
CA (1) CA2957218C (ko)
WO (2) WO2016037077A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019017621A1 (ko) * 2017-07-20 2019-01-24 이승진 임피던스를 이용한 페이크 지문 판별장치 및 방법
WO2019032590A1 (en) * 2017-08-09 2019-02-14 The Board Of Trustees Of The Leland Stanford Junior University INTERACTIVE BIOMETRIC TOUCH SCANNER
KR20190060369A (ko) * 2017-11-24 2019-06-03 전자부품연구원 초음파 도플러 효과를 이용하여 생체를 판별하는 지정맥 인식 방법 및 장치

Families Citing this family (100)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009535687A (ja) * 2006-04-26 2009-10-01 アウェア, インコーポレイテッド 指紋プリビュー品質ならびに細分化
US9633269B2 (en) 2014-09-05 2017-04-25 Qualcomm Incorporated Image-based liveness detection for ultrasonic fingerprints
WO2016105558A1 (en) * 2014-12-24 2016-06-30 Sciometrics Llc Unobtrusive identity matcher: a tool for real-time verification of identity
US10254881B2 (en) 2015-06-29 2019-04-09 Qualcomm Incorporated Ultrasonic touch sensor-based virtual button
US10387704B2 (en) * 2015-06-29 2019-08-20 Qualcomm Incorporated Method and apparatus for enabling the touchscreen display of a mobile device
US9726755B2 (en) * 2015-09-23 2017-08-08 Qualcomm Incorporated Spoof detection by ultrasonic subdermal probe
US10140534B2 (en) 2015-09-26 2018-11-27 Qualcomm Incorporated Ultrasonic imaging devices and methods
US10262188B2 (en) * 2016-02-15 2019-04-16 Qualcomm Incorporated Liveness and spoof detection for ultrasonic fingerprint sensors
CN107091704B (zh) * 2016-02-17 2020-10-09 北京小米移动软件有限公司 压力检测方法和装置
FR3049090B1 (fr) * 2016-03-21 2021-06-25 Sebastien Jean Serge Dupont Dispositif d'authentification biometrique adaptatif par echographie, photographies en lumiere visible de contraste et infrarouge, sans divulgation, a travers un reseau informatique decentralise
US9961178B2 (en) * 2016-03-24 2018-05-01 Motorola Mobility Llc Embedded active matrix organic light emitting diode (AMOLED) fingerprint sensor
CN109074482A (zh) * 2016-05-03 2018-12-21 精确生物识别公司 用于生物活性检测的用户特定分类器
US10315222B2 (en) 2016-05-04 2019-06-11 Invensense, Inc. Two-dimensional array of CMOS control elements
US10445547B2 (en) 2016-05-04 2019-10-15 Invensense, Inc. Device mountable packaging of ultrasonic transducers
US10235551B2 (en) * 2016-05-06 2019-03-19 Qualcomm Incorporated Biometric system with photoacoustic imaging
US10706835B2 (en) 2016-05-10 2020-07-07 Invensense, Inc. Transmit beamforming of a two-dimensional array of ultrasonic transducers
US10441975B2 (en) 2016-05-10 2019-10-15 Invensense, Inc. Supplemental sensor modes and systems for ultrasonic transducers
US10562070B2 (en) 2016-05-10 2020-02-18 Invensense, Inc. Receive operation of an ultrasonic sensor
US10539539B2 (en) 2016-05-10 2020-01-21 Invensense, Inc. Operation of an ultrasonic sensor
US11673165B2 (en) 2016-05-10 2023-06-13 Invensense, Inc. Ultrasonic transducer operable in a surface acoustic wave (SAW) mode
US10452887B2 (en) 2016-05-10 2019-10-22 Invensense, Inc. Operating a fingerprint sensor comprised of ultrasonic transducers
TWI591545B (zh) * 2016-06-30 2017-07-11 指紋影像偵測裝置及其方法
US10599911B2 (en) 2016-07-20 2020-03-24 Cypress Semiconductor Corporation Anti-spoofing protection for fingerprint controllers
US10460144B2 (en) 2016-07-20 2019-10-29 Cypress Semiconductor Corporation Non-finger object rejection for fingerprint sensors
JP6792986B2 (ja) * 2016-09-27 2020-12-02 株式会社日立製作所 生体認証装置
CN106663203B (zh) * 2016-11-04 2019-03-22 深圳市汇顶科技股份有限公司 活体指纹识别方法及装置
US10176362B1 (en) * 2016-11-10 2019-01-08 Synaptics Incorporated Systems and methods for a gradient-based metric for spoof detection
US10430638B2 (en) * 2016-11-10 2019-10-01 Synaptics Incorporated Systems and methods for spoof detection relative to a template instead of on an absolute scale
US10262187B1 (en) * 2016-11-10 2019-04-16 Synaptics Incorporated Systems and methods for spoof detection based on local binary patterns
US9946914B1 (en) * 2016-11-18 2018-04-17 Qualcomm Incorporated Liveness detection via ultrasonic ridge-valley tomography
US10552662B2 (en) * 2016-12-30 2020-02-04 Beyond Time Investments Limited Optical identification method
CN108304759A (zh) * 2017-01-11 2018-07-20 神盾股份有限公司 识别手指的方法和电子装置
KR102459852B1 (ko) * 2017-02-08 2022-10-27 삼성전자주식회사 지문 인식을 위한 후보 지문 이미지를 선정하는 장치 및 방법
US10135822B2 (en) 2017-03-21 2018-11-20 YouaretheID, LLC Biometric authentication of individuals utilizing characteristics of bone and blood vessel structures
US11374929B2 (en) 2017-03-21 2022-06-28 Global E-Dentity, Inc. Biometric authentication for an augmented reality or a virtual reality device
US10880303B2 (en) 2017-03-21 2020-12-29 Global E-Dentity, Inc. Real-time COVID-19 outbreak identification with non-invasive, internal imaging for dual biometric authentication and biometric health monitoring
US10515255B2 (en) * 2017-03-24 2019-12-24 Qualcomm Incorporated Fingerprint sensor with bioimpedance indicator
US10552658B2 (en) 2017-03-24 2020-02-04 Qualcomm Incorporated Biometric sensor with finger-force navigation
US10438040B2 (en) 2017-03-24 2019-10-08 Qualcomm Incorporated Multi-functional ultrasonic fingerprint sensor
US10515199B2 (en) 2017-04-19 2019-12-24 Qualcomm Incorporated Systems and methods for facial authentication
US11586717B2 (en) 2017-05-23 2023-02-21 Fingerprint Cards Anacatum Ip Ab Method and electronic device for authenticating a user
US10474862B2 (en) 2017-06-01 2019-11-12 Invensense, Inc. Image generation in an electronic device using ultrasonic transducers
SE1750720A1 (en) 2017-06-07 2018-12-08 Fingerprint Cards Ab Fingerprint authentication method and system for rejecting spoof attempts
CN107609463B (zh) * 2017-07-20 2021-11-23 百度在线网络技术(北京)有限公司 活体检测方法、装置、设备及存储介质
WO2019078769A1 (en) * 2017-10-18 2019-04-25 Fingerprint Cards Ab DIFFERENTIATION BETWEEN REAL FINGERS AND FALSE FINGERS IN A DIGITAL FOOTPRINT ANALYSIS BY AUTOMATIC APPRENTICESHIP
US10997388B2 (en) 2017-12-01 2021-05-04 Invensense, Inc. Darkfield contamination detection
US10936841B2 (en) 2017-12-01 2021-03-02 Invensense, Inc. Darkfield tracking
US10783346B2 (en) * 2017-12-11 2020-09-22 Invensense, Inc. Enhancing quality of a fingerprint image
US11151355B2 (en) 2018-01-24 2021-10-19 Invensense, Inc. Generation of an estimated fingerprint
US11010589B1 (en) 2018-03-16 2021-05-18 Synaptics Incorporated Defensive measures for residue re-imaging
US11120247B2 (en) 2018-03-16 2021-09-14 Synaptics Incorporated Defensive measures for residue re-imaging
US10755067B2 (en) 2018-03-22 2020-08-25 Invensense, Inc. Operating a fingerprint sensor comprised of ultrasonic transducers
WO2019216498A1 (en) * 2018-05-08 2019-11-14 Lg Electronics Inc. Electronic device and method for controlling the same
WO2019216499A1 (ko) * 2018-05-08 2019-11-14 엘지전자 주식회사 전자 장치 및 그 제어 방법
US10803159B2 (en) 2018-05-14 2020-10-13 Lg Electronics Inc. Electronic device and method for controlling the same
WO2019238251A1 (en) * 2018-06-13 2019-12-19 Veridas Digital Authentication Solutions, S.L. Authenticating an identity of a person
US10685204B2 (en) 2018-07-27 2020-06-16 Qualcomm Incorporated Biometric age estimation via ultrasonic imaging
CN109492551B (zh) * 2018-10-25 2023-03-24 腾讯科技(深圳)有限公司 活体检测方法、装置及应用活体检测方法的相关系统
US11023756B2 (en) * 2018-10-26 2021-06-01 Advanced New Technologies Co., Ltd. Spoof detection using iris images
US10706306B2 (en) * 2018-12-03 2020-07-07 Qualcomm Incorporated Spoof and liveness detection via pyroelectric indications
US10936843B2 (en) 2018-12-28 2021-03-02 Invensense, Inc. Segmented image acquisition
EP3915045A2 (en) * 2019-02-21 2021-12-01 Next Biometrics Group ASA Method of detecting replay attacks in a fingerprint sensor system
US11216638B2 (en) * 2019-05-09 2022-01-04 Qeexo, Co. Method and system to prevent identity theft for fingerprint recognition enabled touch screen devices
US11188735B2 (en) 2019-06-24 2021-11-30 Invensense, Inc. Fake finger detection using ridge features
CN110287866B (zh) * 2019-06-24 2021-10-26 Oppo广东移动通信有限公司 超声波指纹识别方法、装置、存储介质及电子设备
WO2020264046A1 (en) * 2019-06-25 2020-12-30 Invensense, Inc. Fake finger detection based on transient features
US11176345B2 (en) 2019-07-17 2021-11-16 Invensense, Inc. Ultrasonic fingerprint sensor with a contact layer of non-uniform thickness
US11216632B2 (en) 2019-07-17 2022-01-04 Invensense, Inc. Ultrasonic fingerprint sensor with a contact layer of non-uniform thickness
US20210056276A1 (en) * 2019-08-19 2021-02-25 Qualcomm Incorporated Apparatus and method for improved biometric sensing
US11232549B2 (en) 2019-08-23 2022-01-25 Invensense, Inc. Adapting a quality threshold for a fingerprint image
CN110579271B (zh) * 2019-09-24 2022-04-19 成都大超科技有限公司 超声波指纹识别模组及电子设备
US11582032B2 (en) 2019-09-25 2023-02-14 Amod Ashok Dange System and method for sharing user preferences without having the user reveal their identity
US12072963B2 (en) 2019-09-25 2024-08-27 Amod Ashok Dange System and method for affixing a signature using biometric authentication
US12026247B2 (en) 2019-09-25 2024-07-02 Amod Ashok Dange System and method for enabling a user to create an account on an application or login into the application without having the user reveal their identity
US12079367B2 (en) 2019-09-25 2024-09-03 Amod Ashok Dange System and method for enabling social network users to grant their connections granular visibility into their personal data without granting the same visibility to the network operator
US12028347B2 (en) 2019-09-25 2024-07-02 Amod Ashok Dange System and method for enabling a user to obtain authenticated access to an application using a biometric combination lock
EP4033983A4 (en) * 2019-09-27 2023-10-11 BFLY Operations, Inc. METHOD AND DEVICE FOR CONFIGURING AN ULTRASONIC SYSTEM WITH IMAGING PARAMETER VALUES
US11392789B2 (en) 2019-10-21 2022-07-19 Invensense, Inc. Fingerprint authentication using a synthetic enrollment image
TWI712391B (zh) * 2019-11-19 2020-12-11 台灣立訊精密有限公司 動物體能追蹤裝置及其系統
CN112989888B (zh) * 2019-12-17 2024-06-07 华为技术有限公司 一种指纹防伪方法及电子设备
US11468712B2 (en) 2020-01-09 2022-10-11 AuthenX Inc. Liveness detection apparatus, system and method
US11625947B1 (en) * 2020-03-03 2023-04-11 Amazon Technologies, Inc. System for detecting and mitigating fraudulent biometric input
US11460957B2 (en) 2020-03-09 2022-10-04 Invensense, Inc. Ultrasonic fingerprint sensor with a contact layer of non-uniform thickness
US11243300B2 (en) 2020-03-10 2022-02-08 Invensense, Inc. Operating a fingerprint sensor comprised of ultrasonic transducers and a presence sensor
US11328165B2 (en) 2020-04-24 2022-05-10 Invensense, Inc. Pressure-based activation of fingerprint spoof detection
CN115398490A (zh) 2020-04-29 2022-11-25 高通股份有限公司 具有隐约指纹检测的指纹传感器
CN111368811B (zh) * 2020-05-26 2020-09-18 腾讯科技(深圳)有限公司 活体检测方法、装置、设备及存储介质
CN112287903A (zh) * 2020-06-05 2021-01-29 神盾股份有限公司 屏下式指纹感测装置
US11163970B1 (en) 2020-06-16 2021-11-02 Google Llc Optical fingerprint system with varying integration times across pixels
US11241173B2 (en) * 2020-07-09 2022-02-08 Mediatek Inc. Physiological monitoring systems and methods of estimating vital-sign data
US11995909B2 (en) 2020-07-17 2024-05-28 Tdk Corporation Multipath reflection correction
KR20220082454A (ko) * 2020-12-10 2022-06-17 삼성전자주식회사 생체 정보의 도용 여부를 검출하는 방법 및 장치
TW202226015A (zh) 2020-12-28 2022-07-01 神盾股份有限公司 用於指紋認證的方法、設備和非瞬態計算機可讀存儲介質
EP4068226A1 (en) * 2021-03-31 2022-10-05 Samsung Electronics Co., Ltd. Method and apparatus with biometric information spoof detection
US11385770B1 (en) 2021-04-21 2022-07-12 Qualcomm Incorporated User interfaces for single-handed mobile device control
FR3123739B1 (fr) * 2021-06-02 2024-02-02 Idemia Identity & Security France Procede et dispositif d’identification et/ou d’authentification biometrique
US11688204B1 (en) * 2022-01-28 2023-06-27 Armatura Llc System and method for robust palm liveness detection using variations of images
US11941911B2 (en) 2022-01-28 2024-03-26 Armatura Llc System and method for detecting liveness of biometric information
US11721132B1 (en) 2022-01-28 2023-08-08 Armatura Llc System and method for generating region of interests for palm liveness detection
US12008836B2 (en) 2023-05-04 2024-06-11 Google Llc Spatially and temporally dynamic illumination for fingerprint authentication

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013030074A (ja) * 2011-07-29 2013-02-07 Fujitsu Ltd 生体情報処理装置、生体情報処理方法及び生体情報処理用コンピュータプログラム
US20140021952A1 (en) * 2010-07-27 2014-01-23 Max-Planck-Gesellschaft Zur Foerderung Der Wissenschaften E. V. Dual-mode microwave resonator device and method of electron spin resonance measurement
WO2015009635A1 (en) * 2013-07-16 2015-01-22 The Regents Of The University Of California Mut fingerprint id system

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5456256A (en) * 1993-11-04 1995-10-10 Ultra-Scan Corporation High resolution ultrasonic imaging apparatus and method
WO1997037592A1 (de) * 1996-04-10 1997-10-16 Siemens Aktiengesellschaft Verfahren zur personenidentifikation
AU1330501A (en) 1999-10-07 2001-05-10 Veridicom, Inc. Spoof detection for biometric sensing systems
JP2002175529A (ja) * 2000-12-06 2002-06-21 Matsushita Electric Ind Co Ltd 個人識別装置
JP2003051012A (ja) * 2001-08-03 2003-02-21 Nec Corp ユーザ認証方法及びユーザ認証装置
US7039224B2 (en) 2002-04-29 2006-05-02 Activcard Ireland Limited Method and device for preventing false acceptance of latent fingerprint images
KR101035667B1 (ko) * 2002-05-09 2011-05-19 소니 주식회사 생체 인식 패턴 검출 장치, 개인 인증 장치 및 방법
FR2849246B1 (fr) * 2002-12-20 2006-03-10 Sagem Procede de determination du caractere vivant d'un element porteur d'une empreinte digitale
CA2521304A1 (en) * 2003-04-04 2004-10-21 Lumidigm, Inc. Multispectral biometric sensor
US7751594B2 (en) 2003-04-04 2010-07-06 Lumidigm, Inc. White-light spectral biometric sensors
EP1536203A4 (en) 2003-08-26 2011-07-20 Nippon Telegraph & Telephone SURFACE SHAPE RECOGNITION DETECTOR
US7379627B2 (en) 2003-10-20 2008-05-27 Microsoft Corporation Integrated solution to digital image similarity searching
US7739912B2 (en) 2004-10-07 2010-06-22 Ultra-Scan Corporation Ultrasonic fingerprint scanning utilizing a plane wave
US7505613B2 (en) 2005-07-12 2009-03-17 Atrua Technologies, Inc. System for and method of securing fingerprint biometric systems against fake-finger spoofing
US20070098235A1 (en) * 2005-09-29 2007-05-03 Uriel Halavee Age Verification
US20070092115A1 (en) 2005-10-26 2007-04-26 Usher David B Method and system for detecting biometric liveness
US7738681B1 (en) 2005-11-01 2010-06-15 Hewlett-Packard Development Company, L.P. Fingerprint and physical attribute detection
JP4599320B2 (ja) 2006-03-13 2010-12-15 富士通株式会社 指紋認証装置、生体指判定装置および生体指判定方法
US20070230754A1 (en) 2006-03-30 2007-10-04 Jain Anil K Level 3 features for fingerprint matching
US7804984B2 (en) 2006-07-31 2010-09-28 Lumidigm, Inc. Spatial-spectral fingerprint spoof detection
US8098906B2 (en) 2006-10-10 2012-01-17 West Virginia University Research Corp., Wvu Office Of Technology Transfer & Wvu Business Incubator Regional fingerprint liveness detection systems and methods
CN101396277A (zh) * 2007-09-26 2009-04-01 中国科学院声学研究所 一种超声波人脸识别方法和识别装置
CN100514353C (zh) * 2007-11-26 2009-07-15 清华大学 一种基于人脸生理性运动的活体检测方法及系统
US8275178B2 (en) 2008-06-19 2012-09-25 Authentec, Inc. Software based method for finger spoof detection and related devices
KR101080643B1 (ko) 2008-07-14 2011-11-08 주식회사 유니온커뮤니티 생체지문 판단장치 및 그 판단방법
AU2009310362A1 (en) 2008-11-03 2010-05-06 Cross Match Technologies, Inc. Apparatus and method for the identification of fake fingerprints
US8923576B2 (en) 2009-09-22 2014-12-30 Thales Method for detecting a fake finger for fingerprint acquisition software
US8861807B2 (en) * 2009-12-22 2014-10-14 Nec Corporation Fake finger determination device
JP5588165B2 (ja) * 2009-12-24 2014-09-10 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
CN102034117B (zh) * 2010-12-17 2012-08-22 东软集团股份有限公司 一种图像分类方法和装置
US9292916B2 (en) 2011-08-09 2016-03-22 Hid Global Corporation Methods and systems for estimating genetic characteristics from biometric measurements
CN102368291B (zh) * 2011-09-07 2013-02-13 常州蓝城信息科技有限公司 基于指纹图像隐形意识的个人身份验证系统
CN102622588B (zh) * 2012-03-08 2013-10-09 无锡中科奥森科技有限公司 双验证人脸防伪方法及装置
US9340492B2 (en) 2012-07-20 2016-05-17 Institute Of Pharmacology And Toxicology Academy Of Military Medical Sciences P.L.A. China Meta-Diarylaniline or meta-diarylpyridinamine compound, preparation method and medical uses thereof
US9396382B2 (en) * 2012-08-17 2016-07-19 Flashscan3D, Llc System and method for a biometric image sensor with spoofing detection
CN103116744B (zh) * 2013-02-05 2016-04-13 浙江工业大学 基于mrf和svm-knn分类的假指纹检测方法
WO2014124167A1 (en) 2013-02-06 2014-08-14 Sonavation, Inc. Biometric sensing device for three dimensional imaging of subcutaneous structures embedded within finger tissue
US9111125B2 (en) 2013-02-08 2015-08-18 Apple Inc. Fingerprint imaging and quality characterization
US9384404B2 (en) 2013-02-28 2016-07-05 The Regents Of The University Of California Apparatus and method for capturing a vital vascular fingerprint
US9633269B2 (en) 2014-09-05 2017-04-25 Qualcomm Incorporated Image-based liveness detection for ultrasonic fingerprints
KR102402146B1 (ko) * 2015-04-21 2022-05-26 삼성전자주식회사 지문 감지 방법 및 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140021952A1 (en) * 2010-07-27 2014-01-23 Max-Planck-Gesellschaft Zur Foerderung Der Wissenschaften E. V. Dual-mode microwave resonator device and method of electron spin resonance measurement
JP2013030074A (ja) * 2011-07-29 2013-02-07 Fujitsu Ltd 生体情報処理装置、生体情報処理方法及び生体情報処理用コンピュータプログラム
WO2015009635A1 (en) * 2013-07-16 2015-01-22 The Regents Of The University Of California Mut fingerprint id system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019017621A1 (ko) * 2017-07-20 2019-01-24 이승진 임피던스를 이용한 페이크 지문 판별장치 및 방법
US11335116B2 (en) 2017-07-20 2022-05-17 Seung Jin Lee Apparatus and method for identifying fake fingerprint by using impedance
WO2019032590A1 (en) * 2017-08-09 2019-02-14 The Board Of Trustees Of The Leland Stanford Junior University INTERACTIVE BIOMETRIC TOUCH SCANNER
US10592718B2 (en) 2017-08-09 2020-03-17 The Board Of Trustees Of The Leland Stanford Junior University Interactive biometric touch scanner
US10691912B2 (en) 2017-08-09 2020-06-23 The Board Of Trustees Of The Leland Stanford Junior University Ultrasonic biometric sensing device integrated with optics
US11023704B2 (en) 2017-08-09 2021-06-01 The Board Of Trustees Of The Leland Stanford Junior University Interactive biometric touch scanner
US11645862B2 (en) 2017-08-09 2023-05-09 The Board Of Trustees Of The Leland Stanford Junior University Interactive biometric touch scanner
US12033423B2 (en) 2017-08-09 2024-07-09 The Board Of Trustees Of The Leland Stanford Junior University Interactive biometric touch scanner
KR20190060369A (ko) * 2017-11-24 2019-06-03 전자부품연구원 초음파 도플러 효과를 이용하여 생체를 판별하는 지정맥 인식 방법 및 장치

Also Published As

Publication number Publication date
AU2015311785A1 (en) 2017-03-02
JP6656228B2 (ja) 2020-03-04
WO2016037077A1 (en) 2016-03-10
EP3189471A1 (en) 2017-07-12
CN106796650A (zh) 2017-05-31
US9639765B2 (en) 2017-05-02
AU2015311785B2 (en) 2020-05-21
EP3189471B1 (en) 2018-08-01
KR102636547B1 (ko) 2024-02-13
WO2016037078A1 (en) 2016-03-10
CA2957218C (en) 2023-02-14
CN106796650B (zh) 2020-09-22
US20160070967A1 (en) 2016-03-10
US20160070968A1 (en) 2016-03-10
CA2957218A1 (en) 2016-03-10
KR20220154855A (ko) 2022-11-22
KR102467916B1 (ko) 2022-11-15
JP2017535303A (ja) 2017-11-30
BR112017004379A2 (pt) 2017-12-05
CN106663198A (zh) 2017-05-10
BR112017004379B1 (pt) 2023-01-31
AU2015311785B9 (en) 2020-05-28
US9953233B2 (en) 2018-04-24
US20170200054A1 (en) 2017-07-13
US9633269B2 (en) 2017-04-25
EP3189470A1 (en) 2017-07-12

Similar Documents

Publication Publication Date Title
KR102467916B1 (ko) 라이브니스 결정을 위한 방법, 시스템, 및 비-일시적 컴퓨터 판독가능 저장 매체
US11188734B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US11263432B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
EP2883190B1 (en) Texture features for biometric authentication
WO2016032650A1 (en) Fingerprint sensing
EP3186748A1 (en) Air/object determination for biometric sensors
WO2016032652A1 (en) Finger/non-finger determination for acoustic biometric sensors
CN111201537A (zh) 在指纹分析中通过机器学习来区分活体手指与欺骗手指
Kusnadi et al. Optimizing 3D Face Recognition with PCA and CNN for Enhanced Accuracy

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant