KR20230149320A - 모바일 장치를 사용하여 촬영된 이미지를 이용한 지문-기반 사용자 인증 수행 시스템 및 방법 - Google Patents

모바일 장치를 사용하여 촬영된 이미지를 이용한 지문-기반 사용자 인증 수행 시스템 및 방법 Download PDF

Info

Publication number
KR20230149320A
KR20230149320A KR1020237033952A KR20237033952A KR20230149320A KR 20230149320 A KR20230149320 A KR 20230149320A KR 1020237033952 A KR1020237033952 A KR 1020237033952A KR 20237033952 A KR20237033952 A KR 20237033952A KR 20230149320 A KR20230149320 A KR 20230149320A
Authority
KR
South Korea
Prior art keywords
finger
image
processor
fingers
images
Prior art date
Application number
KR1020237033952A
Other languages
English (en)
Inventor
조나단 프란시스 매덜
애섬 오스만
리차드 타이슨
앤드류 심슨
Original Assignee
베리디움 아이피 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=56564833&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=KR20230149320(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Priority claimed from US14/819,639 external-priority patent/US9361507B1/en
Application filed by 베리디움 아이피 리미티드 filed Critical 베리디움 아이피 리미티드
Publication of KR20230149320A publication Critical patent/KR20230149320A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • G06V40/1353Extracting features related to minutiae or pores
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • G06V40/1359Extracting features related to ridge properties; Determining the fingerprint type, e.g. whorl or loop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • G06V40/1371Matching features related to minutiae or pores
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • G06V40/1376Matching features related to ridge properties or fingerprint texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1382Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1382Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger
    • G06V40/1388Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger using image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1382Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger
    • G06V40/1394Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1341Sensing with light passing through the finger

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Telephone Function (AREA)
  • Image Input (AREA)
  • Databases & Information Systems (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

본 발명은 지문 인식을 수행하기위한 시스템 및 방법을 지원하는 기술을 제공한다. 본 발명의 구현예는 사용자의 생체인식 특징을 포착하고 스마트 폰과 같은 모바일 장치를 사용하여 사용자의 생체인식 특징을 특징화하는 식별자를 생성하는 시스템 및 방법에 관한 것이다. 생체인식 식별자는 포착된 생체인식 정보에 따라 사용자를 인증/식별하고 사용자의 실물성을 결정하기 위해 사용자의 복수의 손가락을 포착한 이미지를 사용하여 생성된다. 본 발명은 또한 스푸핑에 의해 야기되는 잘못된 인증을 방지하기위한 부가적인 기술을 제공한다. 일부예에서, 스푸핑 방지 기술은 사용자의 손가락의 하나 이상의 이미지를 포착하고, 실물성의 표시를 위해 포착된 이미지를 분석하는 것을 포함할 수 있다.

Description

모바일 장치를 사용하여 촬영된 이미지를 이용한 지문-기반 사용자 인증 수행 시스템 및 방법{SYSTEMS AND METHODS FOR PERFORMING FINGERPRINT BASED USER AUTHENTICATION USING IMAGERY CAPTURED USING MOBILE DEVICES}
관련출원에 대한 상호 참조
본 출원은 "SYSTEMS AND METHODS FOR PERFORMING FINGERPRINT BASED USER AUTHENTICATION USING IMAGERY CAPTURED USING MOBILE DEVICES"이라는 표제로 2015년 8월 6일 출원된 미국 특허 가출원 제14/819,639호의 일부 계속 출원이며, 상기 출원은 "SYSTEMS AND METHODS FOR PERFORMING FINGERPRINT BASED USER AUTHENTICATION USING IMAGERY CAPTURED USING MOBILE DEVICES"이라는 표제로 2015년 2월 6일자로 출원된 미국 특허 가출원 제62/112,961호에 기초하여 우선권을 주장하며, 상기 출원의 내용을 본 출원에 전체로서 개진된 것과 같이 참고문헌으로 포함된다.
기술분야
본 발명은 생체인식 특징을 포착 및 특성화하기 위한 시스템 및 방법에 관한 것으로, 특히 스마트폰과 같은 모바일 장치에 내장된 카메라에 의해 촬영된 손가락의 이미지를 사용하여 생체인식 특징을 포착 및 특성화하기 위한 시스템 및 방법에 관한 것이다.
생체인식정보(biometric)는 개인의 생물학적 특성(예를 들면, 지문(fingerprint), 손의 기하구조(geometry), 망막 패턴(retina pattern), 홍채 질감(iris texture)) 생물학적 특성으로, 생체인식 기법(biometric techniques)은 추가적인 검증 요소(verification factor)로서 사용될 수 있으며, 이는 생체인식정보가 통상적으로 다른 비-생체인식(non-biometric) 크리덴셜(credenial)보다 획득하기 더 어렵기 때문이다. 생체인식정보는 식별(identification) 및/또는 인증(authentication)(신원 단정(assertion) 및/또는 확인(verification)으로도 지칭됨)에 사용될 수 있다.
생체인식 신원 주장(Biometric identity assertion)은 애플리케이션에 의해 좌우되는(dictated) 특정 수준의 보안을 요구할 수 있다. 예를 들면, 보안 위치(secure location)로의 액세스를 얻는 것 또는 금융 거래(financial transaction)와 관련한 인증은 더 높은 보안 수준을 요구한다. 결과적으로, 바람직하게는, 사용자가 정확하게 인증되고 보안이 유지됨을 보장하기에 충분할 정도로, 사용자 생체인식 표현(biometric representation)의 정확도를 갖는 것이 바람직하다.
또한, 신생아의 실종(missing), 스와핑(swapping), 혼동(mixing) 및 불법 입양(illegal adoption)은 세계적으로 어려운 문제이며, 얼굴, 홍채, 지문, 족문(footprint) 및/또는 장문(palmprint)을 기준으로 신생아를 식별하기 위해 자동화된 생체 인식 시스템을 사용하는 것이 제안되었다.
그러나, 홍채, 얼굴, 손가락 및 음성 신원 주장 시스템(iris, face, finger, and voice identity assertion system)이 존재하고 필요한 수준의 정확도를 제공한다는 범위에서, 그러한 시스템은 전용 장치 및 애플리케이션을 요구하며 한정된 카메라 해상도(resolution) 및 광 방출(light emitting) 능력을 가지는 종래의 스마트폰 상에 쉽게 구현되지 않는다.
전자 지문 센서는 이미 스마트 폰에 추가되어 있으며 캘리포니아 주 쿠퍼 티노 소재의 애플사의 아이폰 6 스마트 폰과 삼성 코리아의 삼성 S5 스마트 폰이 그 예다. 이 장치에서 사용자는 센서에 손가락을 대고 지문 데이터를 등록해야하고, 나중에 센서에 손가락을 재위치시켜 신원을 확인할 수 있으며, 지문 데이터와 등록 데이터를 비교하여 일치하면 사용자의 신원이 확인된다. 만약에 지문이 일치하지 않으면, 위장자(imposter)로 식별될 수 있다. 상기 시스템의 단점은 지문 센서가 장치에 크기 무게 및 비용을 추가한다는 것이다. 따라서, 이러한 이유로, 지문 센서의 크기를 최소화하는 것이 유리하며, 따라서 지문 센서는 일반적으로 지문의 일부분만을 포착함으로써 식별의 효율성이 감소된다. 지문 센서의 포착 영역이 작을수록, 우연히 다른 손가락과 일치할 확률이 높아지며, 지문 데이터의 오류로 인해 인증된 사용자(authentic user)가 잘못 거부될 가능성이 높아진다.
또한, 전통적인 지문 센서를 사용하여 신생아의 지문을 포착하는 것의 문제점은, 신상아의 손가락 크기 및 신생아 손을 잡고 센서에 위치시키는 것이 어렵기 때문이다.
실제적으로 이것은 사용자 (즉, 성인 및 신생아)가 잘못된 거부(false rejection)로 인해 더 높은 수준의 불편을 겪고, 센서의 어플리케이션이 저가 지불(low value payment)과 같이 중요하지 않은 사용으로 제한된다는 것을 의미한다. 지문 센서는 또한 스푸핑(spoof) 공격의 대상이 될 수도 있는데, 예를 들어 인증된 사용자 지문의 몰드(mold)가 지문 센서에 배치되어 위장자가 인증을 통과 할 수 있다. 이는 중요하지 않은 어플리케이션에 사용을 제한하는 또 다른 이유를 제공한다.
또 다른 문제는, 지문 인증 시스템에 액세스 할 수 있는 사람의 수를 제한하고 장치 간의 인증 방법이 불일치하는 지문 센서가 장착된 모바일 장치가 몇 가지 밖에 없다는 것이다.
모바일 장치의 카메라를 사용하여 한 개의 손가락의 이미지를 분석하는 시스템이 제안되었지만, 이러한 시스템은 잠재적으로 더 편리할 수 있지만, 한 손가락을 이미징하고 분석하는 시스템에 대한 가장 낮은 착오 수용률(false accept rate) 및 착오 거부율(false reject rate)은 중간 가에서 고가의 구매 및 기업 시스템과 같이 높은 수준의 보안이 요구되는 어플리케이션에 대해서는 여전히 신뢰할 만하지 않다.
이와 같이, 보다 신뢰성 있고(reliable) 보다 유비쿼터스한(ubiquitous) 손가락 인식 시스템이 필요하다.
본 발명은 지문 인식을 수행하기위한 시스템 및 방법을 지원하는 기술을 제공한다.
본 발명의 제 1 양태에 따르면, 지문 인식을 수행하는 방법이 제공된다. 본 방법은 카메라, 저장 매체(storage medium), 상기 저장 매체 상에 저장된 명령어(instructions), 및 상기 명령어를 실행하는 것에 의해 구성된 프로세서(processor)를 가진 모바일 장치로 피사체(subject)의 복수의 손가락을 나타내는 하나 이상의 이미지를 포착하는 단계를 포함한다. 상기 방법은 또한 상기 하나 이상의 이미지에 묘사된 복수의 손가락을 손가락 검출 알고리즘(finger detection algorithm)을 이용하여 검출하는 단계를 포함한다. 또한, 본 방법은 세분화 알고리즘(segmentation algorithm)에 따라 상기 하나 이상의 이미지로부터 상기 복수의 손가락 중 각 손가락에 대한 각각의 손가락 말단 부분을 식별하는 단계를 포함한다. 또한, 본 방법은 식별된 손가락 각각에 대한 식별 특징을 추출하는 단계, 추출된 식별 특징에 기초하여 생체 인식 식별자를 생성하는 단계, 및 메모리에 상기 생체 인식 식별자를 저장하는 단계를 포함한다.
이들 및 다른 양태, 특징 및 이점은 본 발명의 특정 실시예의 첨부된 설명 및 첨부된 도면과 청구항으로부터 인식될 수 있다.
도 1은 본 출원에 개시된 적어도 하나의 양태에 따라 사용자의 생체인식 특징에 따라 사용자를 인증하기 위한 컴퓨터 시스템의 고수준 다이어그램(high-level diagram)이다.
도 2a는 본 출원에 개시된 적어도 하나의 양태에 따라서, 사용자의 생체인식 특징에 따라 사용자를 인증하기위한 컴퓨터 시스템의 블록 다이어그램(block diagram)이다.
도 2b는 본 출원에 개시된 적어도 하나의 양태에 따라서, 사용자의 생체인식 특징에 따라 사용자를 인증하기위한 소프트웨어 모듈의 블록 다이어그램이다.
도 2c는 본 출원에 개시된 적어도 하나의 양태에 따라서, 사용자의 생체인식 특징에 따라 사용자를 인증하기위한 컴퓨터 시스템의 블록 다이어그램이다.
도 3은 본 출원에 개시된 적어도 하나의 양태에 따라서, 사용자의 생체인식 특징에 따라 생체 인식 식별자를 생성하고 사용자를 등록 또는 인증하는 루틴을 나타내는 흐름 다이어그램(flow diagram)이다.
도 4a는 본 출원에 개시된 적어도 하나의 양태에 따라서, 시각 이미지(visual imagery) 및 대응 이미지(corresponding images)로부터 손가락을 검출하는 루틴(routine)을 나타내는 흐름 다이어그램이다.
도 4b는 본 출원에 개시된 적어도 하나의 양태에 따라서, 시각 이미지로부터 검출된 손가락 말단 영역을 필터링하는 루틴(routine)을 나타내는 흐름 다이어그램이다.
도 4c는 도 4b의 손가락 끝 영역을 필터링하기위한 루틴(routine)에 따라 포착되고 생성된 이미지를 나타낸다.
도 5a는 본 출원에 개시된 적어도 하나의 양태에 따라 손가락의 시각 이미지로부터 실물성(liveness)을 검출하는 루틴(routine)을 나타내는 흐름 다이어그램이다.
도 5b는 손가락의 시각적 이미지로부터 실물성을 검출하는 루틴(routine)에 따라 포착된 일련의 이미지이다.
도 5c는 손가락의 시각적 이미지로부터 실물성을 검출하는 루틴(routine)에 따라 포착된 일련의 이미지이다.
도 6a는 본 출원에 개시된 적어도 하나의 양태에 따라서, 포착된 손가락 이미지 및 생성된 대응하는 융선 반사율(ridge reflectivity) 이미지를 도시한다.
도 6B는 본 출원에 개시된 적어도 하나의 양태에 따라서, 포착된 손가락 이미지 및 생성된 대응하는 융선 반사율(ridge reflectivity) 이미지를 도시한다.
도 6c는 본 출원에 개시된 적어도 하나의 양태에 따라서, 포착된 손가락 이미지 및 생성된 대응하는 융선 반사율(ridge reflectivity) 이미지를 도시한다.
도 6d는 본 출원에 개시된 적어도 하나의 양태에 따라서, 포착된 손가락 이미지 및 생성된 대응하는 융선 반사율(ridge reflectivity) 이미지를 도시한다.
도 6e는 본 출원에 개시된 적어도 하나의 양태에 따라서, 포착된 손가락 이미지 및 생성된 대응하는 융선 반사율(ridge reflectivity) 이미지를 도시한다.
도 6f는 본 출원에 개시된 적어도 하나의 양태에 따라서, 포착된 손가락 이미지 및 생성된 대응하는 융선 반사율(ridge reflectivity) 이미지를 도시한다.
단지 예로서, 개관 및 소개의 목적으로, 본 발명의 실시예들은 스마트폰과 같은 모바일 장치를 사용하여 사용자의 생체인식 특징을 포착하고 사용자의 생체인식 특징을 특징짓는 식별자를 생성하는 시스템 및 방법에 관한 것이다. 바람직하게는, 생체 인식 식별자는 포착된 생체 인식에 따라 사용자를 인증/식별하고 사용자의 실물성을 결정하기 위해 사용자의 복수의 손가락을 포착한 이미지를 사용하여 생성된다. 본 발명은 또한 스푸핑(spoofing)에 의해 야기되는 잘못된 인증을 방지하기 위한 부가적인 기술을 기술한다. 일부 실시예에서, 스푸핑 방지 기술은 사용자의 생체 인식의 하나 이상의 이미지를 포착하고, 실물성(liveness)을 표시하기 위해 포착된 이미지를 분석하는 것을 포함할 수 있다.
일부 실시예에서, 상기 시스템은 고정식 PC, 서버 및 장치, 예를 들어 사용자에 의해 작동되는 랩탑, 태블릿 및 스마트 폰과 같은 장치와 통신하는 클라우드 기반 시스템 서버 플랫폼을 포함한다. 사용자가 액세스 제어되는 네트워크 환경, 예컨대 보안 로그인(secure login)을 요구하는 웹사이트(website)에 액세스하기를 시도할 때, 사용자는 사용자의 사전등재된(preregistered) 모바일 장치를 사용하여 인증하도록 유도(prompt)된다. 인증(authentication)은 적어도 사용자의 손가락의 이미지 형태로 생체인식 정보를 포착하고, 고유한 특징을 추출하고, 그 특징을 모바일 장치를 사용하여 사용자의 생체인식 특징 및/또는 실물성을 표시하는 생체 인식 식별자로 인코딩함으로써, 사용자의 신원을 검증 및/또는 사용자의 실물성 검증(예를 들어, 사용자의 생존 여부를 결정하는 것)하는 것을 포함할 수 있다. 따라서, 사용자 신원 및/또는 실물성은, 상기 이미지, 상기 생성된 생체 인식 식별자의 분석, 및/또는 사용자의 시스템의 초기 등록 중 생성된 생체 인식 식별자와 상기 이미지 및/또는 상기 생체인식 식별자를 비교함으로써, 모바일 장치 및/또는 시스템 서버 또는 전술된 조합에 의하여 검증될 수 있다.
본 출원의 일 양태에 따르면, 상기 개시된 양태들은 유비쿼터스하고 사용하기 편리한 모바일 장치 상에서 손가락-기반 생체 인식을 사용하는 신뢰성 있는 사용자 식별/인증 수단을 제공한다. 상기 개시된 양태들은 모바일 장치에 전형적으로 존재하는 카메라를 사용하여 4개 손가락-기반의 인식을 수행하므로, 디자인에 부가적인 부피, 비용 또는 중량이 부과되지 않으며, 사용법이 유비쿼터스(ubiquious)할 수 있다. 이 시스템의 추가적인 목적은 스푸핑(spoof) 공격에 대한 방어를 제공하는 것이다.
본 발명은 다수의 손가락으로부터 생체인식 정보를 동시에 포착하고, 각 손가락으로부터 넓은 지문 영역을 포착한다. 또한, 본 발명은 손바닥 지문(palm print) 및 손 지문(hand print)을 포함하는 손의 다른 영역으로부터 지문 정보를 포착하여 시스템의 신뢰도를 추가로 증가시키는 데에 사용될 수 있다. 또한, 신생아 식별의 경우에, 본 발명은 발가락을 포착하는데 사용될 수 있다. 또한, 본 출원에서 제안된 발명은 기존의 모바일 얼굴 인식 시스템과 결합될 수 있다. 비제한적인 예로서, 안면 특징의 이미지로부터의 생체 인식 기반 사용자 인증을 위한 예시적인 시스템 및 방법이 본 명세서 및 2014년 5월 13일에 출원된 미국 특허 제9/003,196호, "SYSTEM AND METHOD FOR AUTHORIZING ACCESS TO ACCESS CONTROLLED ENVIRONMENTS"의 계속 출원으로 2015년 5월 13일에 출원된 미국 특허 출원 제 14/668,352호, "AUTOSARING FOR SYSTEMHYLIZING AND METHOD FOR AUTHORIZING" 및 2014년 3월 7일에 출원된 미국 특허 제9,208,492호 "SYSTEMS AND METHODS FOR BIOMETRIC AUTHENTICATION OF TRANSACTIONS"의 내용이 본 출원에 전체로서 개진된 것과 같이 참고문헌으로 포함된다. 또한, 본 발명은 획득된 손가락 사진들에 대응하고, 통합 자동화 지문 인식 시스템(IAFIS, Integrated Automated Fingerprint Identification Systems)에서 사용되는 롤 지문(rolled fingerprint) 및 플레인 지문(plain fingrprint) 이미지와 매칭될 수 있는 지문 이미지를 생성하기 위해서 사용되는 모바일 장치에 있는 카메라를 사용하여 획득된 손가락 사진을 처리하는데 사용될 수 있다. IAFIS는 연방 검사국(Federal Bureau of Investigation, FBI)이 관리하는 국가 자동화 지문 인식 및 범죄 기록 시스템이다. IAFIS는 자동 지문 검색 기능, 잠재 검색 기능, 전자 이미지 저장, 및 지문과 반응의 전자 교환을 제공한다.
본 발명에 개시된 양태는 복합형(multimodal) 생체인식 인증 시스템으로 지칭될 수 있다. 따라서, 다수의 독립적인 생체 인식 정보(즉, 4 -10개의 손가락)의 존재는 스마트 폰에 내장된 센서에 의해 포착된 손가락 이미지 또는 지문을 사용하는 단일 손가락 모바일 인식 시스템에 비해 다음과 같은 이점을 제공한다.
1. 성능(performance) : 비-상관된(uncorrelated) 양상들(예를 들어, 사람의 네 손가락 및 신생아의 열 손가락)의 조합은 단일 손가락 인식 시스템보다 성능면에서 더 나은 개선을 가져올 수 있다. 이러한 정확도 향상은 아래의 두 가지 이유로 인해 발생한다. 첫째, 서로 다른 손가락의 생체인식 증거의 융합은 식별 특징을 효과적으로 증가시키고, 다른 사용자의 특징과의 중첩을 줄인다. 다시 말해서, 각 개인에 있어서 여러 손가락의 조합은 하나의 손가락보다 더 차별성이 있다. 둘째, 손가락의 부분 집합을 획득하는 동안 노이즈(예를 들어, 먼지 또는 잉크 얼룩과 같은 요소로 인해 발생하는 것)와 부정확성은 나머지 손가락이 제공하는 정보로 해결할 수 있다.
2. 보편성(universality) : 비-보편성 문제를 해결하고, 오류 등록 실패(failure to enroll error)를 줄인다. 예를 들어, 절단된(amputated) 손가락, 손가락 절단(cut), 부상 또는 닳은 융선(ridge)(예를 들어, 닳은 융선은 피사체의 손가락 하나 이상에 물리적으로 발생할 수 있음)때문에 특정 손가락을 등록할 수 없는 경우, 그의 다른 손가락을 사용하여 여전히 식별될 수 있다.
3. 스푸핑 어택 (Spoof attack) : 사용자의 다수의 손가락을 등록하는 본원에 개시된 실시 양태를 사용하면, 스푸핑 어택에 대한 인증 시스템의 저항력을 향상시킬 수 있다. 이는 여러 손가락을 동시에 피하거나 스푸핑하는 것이 더 어렵기 때문이다.
사용자의 생체인식 특징(100)의 이미지에 따라 사용자를 인증 및/또는 사용자의 실물성을 결정하는 예시적인 시스템이 도 1에 블록 다이어그램으로 도시되어 있다. 일 구성에서, 상기 시스템은 시스템 서버(105) 및 모바일 장치(101a) 및 사용자 컴퓨팅 장치 (101b)를 포함하는 사용자 장치로 구성된다. 시스템(100)은 또한 하나 이상의 원격 컴퓨팅 장치(102)를 포함할 수있다.
시스템 서버(105)는 본 출원에서 추가로 기술되는 바와 같이 사용자 장치 및 원격 컴퓨팅 장치와 통신하는 것과 전자 정보를 수신, 송신 및 저장하는 것과 요청을 처리하는 것이 가능한 실제적으로 임의의 컴퓨팅 장치 및/또는 데이터 처리 장치일 수 있다. 유사하게, 원격 컴퓨팅 장치(102)는 본 출원에서 추가로 기술되는 바와 같이 시스템 서버 및/또는 사용자 장치와 통신하는 것과 전자 정보를 수신, 송신 및 저장하는 것과 요청을 처리하는 것이 가능한 실제적으로 임의의 컴퓨팅 장치 및/또는 데이터 처리 장치일 수 있다. 시스템 서버 및/또는 원격 컴퓨팅 장치는 다수의 네트워킹된 또는 클라우드 기반의 컴퓨팅 장치일 수 있음이 또한 이해되어야 한다.
본 발명에 따른 몇몇 구현예에서, 컴퓨팅 장치(102)는 사용자 계정을 유지하는 기업체(enterprise) 조직(예를 들어, 은행 또는 웹사이트)과 연관되고, 그러한 조직은 사용자 계정을 유지하고, 기업체 계정 보유자에게 서비스를 제공하며, 시스템 및 서비스에 대한 사용자의 접근을 제공하기 전에 상기 사용자의 인증을 요구한다.
상기 사용자 장치인 모바일 장치(101a) 및 사용자 컴퓨팅 장치(101b)는 서로, 시스템 서버(105)와 및/또는 원격 컴퓨팅 장치(102)와 통신하여, 본 출원에 추가로 기술되는 바와 같이 전자 정보를 송신 및 수신하도록 구성될 수 있다. 또한 사용자 장치는 사용자 입력을 수신하는 것은 물론 생체 인식 정보, 예컨대 사용자(124)의 디지털 이미지 및 음성 기록을 포착하고 처리하도록 구성될 수 있다.
모바일 장치(101a)는 개인용 컴퓨터(personal computer), 태블릿 컴퓨터(tablet computer), 개인용 디지털 보조기기(personal digital assistant), 모바일 전자 장치(mobile electronic device), 셀룰러 전화(cellular telephone) 또는 스마트폰 장치 및 유사한 것을 포함하되 이에 한정되지 아니하며, 본 출원에 기술된 시스템 및/또는 방법을 구현화하는 것이 가능한 임의의 모바일 컴퓨팅 장치 및/또는 데이터 처리 장치일 수 있다. 컴퓨팅 장치(101b)는 워크스테이션, 개인용 컴퓨터, 랩톱 컴퓨터(laptop computer), 전용 판매 시점(point-of-sale) 시스템, ATM 단말기, 액세스 제어 장치 또는 다른 적절한 디지털 컴퓨터와 같은, 사용자가 함께 상호작용할 수 있는 다양한 형태의 컴퓨팅 장치를 표현하는 것을 의미한다.
본 출원에 추가로 기술되는 바와 같이, 액세스 제어되는 환경으로의 액세스를 인가하기 위한 시스템(100)은 모바일 장치(101a)를 사용하여 사용자의 생체인식특징에 따라 사용자(124)의 인증을 가능하게 한다. 몇몇 구현예에서, 사용자의 생체인식 특징에 따른 식별 및/또는 인증은 2단계 프로세스에서 사용자의 생체인식 정보를 활용한다. 첫 번째 단계는 등록(enrollment) 단계로 지칭된다. 등록 단계에서 적절한 생체인식 정보의 샘플(예를 들면, 이미지)이 특정 개인에게서 수집된다. 이러한 생체인식의 이 샘플들은 각 샘플 내에 존재하는 특징(또는 특성)을 추출하기 위해 분석되고 처리된다. 개인의 이미지화된 생체인식 내에 존재하는 특징의 세트(set)는 그 사람에 대한 식별자를 구성하고, 사용자 인증에 사용되며, 몇몇 구현예에서는 사용자가 생존해 있는 실체인지 결정하는데에 사용된다. 상기 등록 단계가 끝나면 이러한 식별자들은 저장된다. 두 번째 단계에서는 그 개인의 동일한 생체인식이 측정된다. 상기 생체인식 정보로부터의 특징은 현재 생체 인식 식별자를 얻기위한 등록단계와 같이 추출된다. 만약 목표가 실물성을 판정하는 것인 경우, 상기 특징 또는 특성은 그것이 실물인 피사체를 나타내는지 결정하기 위해 분석될 수 있다. 본 명세서에 추가로 기술된 바와 같이, 생체 인식으로 포착된 이미지의 다른 특징 및 특성 또한 실물성(liveness)을 판정하기 위해 분석될 수 있다. 만약 목표가 식별(identification)인 경우, 이 식별자는 첫 번째 단계에서 생성된 식별자의 데이터베이스 내에서 검색된다. 만약 매치(match)가 일어나면, 그 개인의 식별이 밝혀지되, 그렇지 않으면 식별은 실패한다. 만약 목표가 인증(authentication)인 경우, 두 번째 단계에서 생성된 식별자는 그 특정한 사람에 대해 첫 번째 단계에서 생성된 식별자와 비교된다. 만약 매치가 일어나면, 인증은 성공적이되, 그렇지 않으면 인증은 실패한다.
도 1은 사용자를 인증하기 위한 시스템 (100)을 모바일 장치(101a), 사용자 컴퓨팅 장치(101b) 및 원격 컴퓨팅 장치(102)와 관련하여 묘사하고 있으나, 임의의 개수의 장치가 본 출원에 기술된 방식으로 시스템과 상호작용할 수 있음이 이해되어야 한다는 점에 유의하여야 한다. 도 1은 한 명의 사용자(124)와 관련하여 시스템(100)을 묘사하나, 임의의 수의 사용자가 본 출원에 기술된 방식으로 시스템과 상호작용할 수 있음이 이해되어야 한다는 점에 또한 유의하여야 한다.
이에 더하여, 본 명세서에 기재된 다양한 컴퓨터 장치 및 기계는 모바일 장치(101a), 시스템 서버(105) 및 원격 컴퓨팅 장치(102)를 포함하나 이에 한정되지 아니하며, 본 출원에서 참조된 다양한 컴퓨팅 장치 및 기계는 본 출원에서 개별적인/단일의 장치 및/또는 기계로 지칭되나, 어떤 구현예에서는 참조된 장치(들) 및 기계(들), 그리고 그것의 연관된 및/또는 동반하는 동작, 특징 및/또는 기능성이 당업자에게 알려진 바와 같이, 임의의 개수의 상기 장치 및/또는 기계에 걸쳐서, 예를 들어 네트워크 연결 또는 유선 연결 상에서 조합, 배열되거나 기타 방식으로 이용된다는 점이 또한 이해되어야 한다.
모바일 장치(101a)(스마트폰으로 지칭됨)의 맥락에서 본 출원에 기술된 예시적인 시스템 및 방법은, 모바일 장치에 특히 한정된 것이 아니며, 다른 가능화된(enabled) 컴퓨팅 장치(가령, 사용자 컴퓨팅 장치(102b))를 사용하여 구현될 수 있음이 또한 이해되어야 한다.
도 2a에 관련해서, 시스템(100)의 모바일 장치(101)는 하나 이상의 프로세서(110), 메모리(120), 마이크(microphone)(125), 디스플레이(display)(140), 카메라(camera)(145), 오디오 출력부(audio output)(155), 스토리지(storage) 및 통신 인터페이스(communication interface)(150)를 포함하여, 시스템의 동작을 가능하게 하는 역할을 하는 다양한 하드웨어 및 소프트웨어 컴포넌트(component)를 포함한다. 프로세서(110)는 메모리(120) 내에 로드될 수 있는 소프트웨어 명령어의 형태로 된 클라이언트 애플리케이션을 실행하는 역할을 한다. 프로세서(110)는 특정한 구현에 따라, 다수의 프로세서, 중앙 처리 유닛(Central Processing Unit: CPU), 그래픽 처리 유닛(Graphics Processing Unit: GPU), 다중프로세서 코어(multi-processor core), 또는 임의의 다른 유형의 프로세서일 수 있다.
바람직하게는, 메모리(120) 및/또는 스토리지(190)는 프로세서(110)에 의해 액세스가능한데, 이로써 모바일 장치 및 그것의 다양한 하드웨어 컴포넌트가 아래에서 더욱 상세히 기술될 바와 같은 시스템 및 방법의 양상을 위한 동작을 수행하게 하도록 프로세서로 하여금 메모리 내에 및/또는 스토리지 상에 인코딩된(encoded) 명령어를 수신하고 실행할 수 있게 한다. 메모리는 예컨대 랜덤 액세스 메모리(Random Access Memory: RAM) 또는 임의의 다른 적합한 휘발성(volatile) 또는 비휘발성(non-volatile) 컴퓨터 판독가능 저장 매체(computer readable storage medium)일 수 있다. 추가로, 메모리는 고정되거나 탈착가능할(removable) 수 있다. 스토리지(190)는 특정한 구현예에 따라 다양한 형태를 취할 수 있다. 예를 들면, 스토리지는 하드 드라이브(hard drive), 플래시 메모리(flash memory), 재기입가능 광학 디스크(rewritable optical disk), 재기입가능 자기 테이프(rewritable magnetic tape), 또는 이의 조합과 같은 하나 이상의 컴포넌트 또는 장치를 포함할 수 있다. 스토리지는 또한 고정되거나 탈착가능할 수 있다.
하나 이상의 소프트웨어 모듈(130)은 스토리지(190) 내에 및/또는 메모리(120) 내에 인코딩된다. 소프트웨어 모듈(130)은 프로세서(110) 내에서 실행되는 컴퓨터 프로그램 코드 또는 명령어의 세트를 가지는 하나 이상의 소프트웨어 프로그램 또는 애플리케이션("모바일 인증 클라이언트 애플리케이션"으로 지칭됨)을 포함할 수 있다. 도 2b에 묘사된 바와 같이, 바람직하게는, 프로세서(110)에 의해 실행되는 사용자 인터페이스 모듈(user interface module)(170), 생체인식 포착 모듈(biometric capture module)(172), 분석 모듈(analysis module)(174), 등록 모듈(enrollment module)(176), 데이터베이스 모듈(database module)(178), 인증 모듈(authentication module)(180) 및 통신 모듈(communication module)(182)이 소프트웨어 모듈(130) 중에 포함된다. 그러한 컴퓨터 프로그램 코드 또는 명령어는 본 출원에 개시된 시스템 및 방법의 동작을 수행하도록 프로세서(110)를 구성하며, 하나 이상의 프로그래밍 언어(programming language)의 임의의 조합으로 작성될 수 있다.
프로그램 코드는 전체적으로 모바일 장치(101) 상에서 독립형(stand-alone) 소프트웨어 패키지로서, 부분적으로는 모바일 장치 상에서, 부분적으로는 시스템 서버(105) 상에서, 또는 전체적으로 시스템 서버 또는 다른 원격 컴퓨터/장치 상에서 실행될 수 있다. 후자의 경우에서, 원격 컴퓨터는 로컬 영역 네트워크(Local Area Network: LAN) 또는 광역 네트워크(Wide Area Network: WAN), 모바일 통신 네트워크, 셀룰러 네트워크를 포함하는 임의의 유형의 네트워크를 통해 모바일 장치(101)에 연결될 수 있으며, 상기 연결은 (예컨대, 인터넷 서비스 제공자(Internet Service Provider)를 사용하여 인터넷을 통해) 외부 컴퓨터로 이루어질 수 있다.
통상의 기술자에 알려진 바와 같이, (메모리(120) 및/또는 스토리지(190)와 같은) 하나 이상의 컴퓨터 판독가능 저장 장치 및 소프트웨어 모듈(130)의 프로그램 코드는 본 발명에 따라 제조되고/되거나 배포될 수 있는 컴퓨터 프로그램 제품을 형성한다고 할 수도 있다.
몇몇 예시적인 양태에서, 소프트웨어 모듈(130) 중 하나 이상은 시스템(100) 내에서의 사용을 위해 통신 인터페이스(150)을 통하여 다른 장치 또는 시스템으로부터 스토리지(190)로 네트워크 상에서 다운로드될 수 있음이 이해되어야 한다. 추가로, (데이터베이스(185)와 같은) 본 시스템 및 방법의 동작과 관련 있는 다른 정보 및/또는 데이터가 스토리지 상에 저장될 수도 있음에 유의하여야 한다. 바람직하게는, 그러한 정보는 보안 인증 애플리케이션을 실행하는 프로세서에 의해 수집되거나 생성된 정보를 안전하게 저장하도록 특별히 배분된 암호화된 데이터 스토어(encrypted data-store) 상에 저장된다. 바람직하게는, 정보를 로컬로(locally) 모바일 장치 스토리지 상에 저장하고, 상기 정보를 시스템 서버(105)에 송신하기 위해 암호화 수단이 사용된다. 예를 들면, 상기 데이터는 1024비트 다형성 암호(polymorphic cipher)를, 또는 수출 규제에 따라 AES 256 비트 암호화 방법을 사용하여 암호화된다. 나아가, 원격 키(시드) 또는 로컬 키(시드, seeds)를 사용하여 암호화가 수행될 수 있다. 당업자에 의해 이해될 대안적인 암호화 방법, 예컨대 SHA 256이 사용될 수 있다.
추가로, 모바일 장치(101a) 및/또는 시스템 서버(105) 상에 저장된 데이터는 사용자의 생체인식 정보, 실물성 정보 또는 모바일 장치 정보를 암호화 키로서 사용하여 암호화될 수 있다. 몇몇 구현에서, 바람직하게는 길이가 적어도 384 비트인 타원 곡선 암호(Elliptic Curve Cryptography)를 사용하여 암호화되고 모바일 장치에 저장될 수 있는 사용자를 위한 복잡한 고유 키를 생성하기 위해 전술한 것의 조합이 사용될 수 있다. 추가로, 상기 키는 모바일 장치 및/또는 시스템 서버 상에 저장된 사용자 데이터를 안전하게 하기 위해 사용될 수 있다.
또한 바람직하게는 스토리지(190) 상에 데이터베이스(185)가 저장된다. 아래에서 더 상세히 기술될 바와 같이, 데이터베이스는 사용자를 인증하기 위한 시스템(100) 및 방법의 다양한 동작 내내 활용되는 다양한 데이터 항목 및 요소를 포함하고/하거나 유지한다. 데이터베이스 내에 저장된 정보는 본 출원에 더 상세히 기술될 바와 같이 사용자의 생체 인식 템플릿(templates) 및 프로파일(profile)정보를 포함할 수 있으나 이에 한정되지 않는다. 데이터베이스가 모바일 장치 (101a)에 대해 로컬로 구성된 것으로 묘사되나, 몇몇 구현에서 데이터베이스 및/또는 그 내부에 저장된 데이터 요소 갖가지는, 추가로 또는 대안적으로, 통상의 기술자에게 알려진 방식으로 원격으로 (예를 들어 원격 장치(102) 또는 시스템 서버(105) 상에 - 도시되지 않음) 위치되고 네트워크를 통해 모바일 장치에 연결될 수 있음에 유의하여야 한다.
사용자 인터페이스(115)는 또한 프로세서에 동작가능하게(operatively) 연결된다. 상기 인터페이스는 전자 컴퓨팅 장치 업계에서 이해될 스위치, 버튼, 키, 터치 스크린, 마이크 등과 같은 하나 이상의 입력 또는 출력 장치일 수 있다. 사용자 인터페이스는 온(on)-오프(off) 명령과 같은 사용자로부터의 명령 또는 사용자를 인증하기 위한 시스템(100)의 동작에 관련된 사용자 정보 및 설정의 포착을 가능하게 하는 역할을 한다. 예를 들면, 인터페이스는 사용자 프로파일을 생성하도록 시스템에 등록하기 위한 개인 사용자 정보와 같은 모바일 장치(101)로부터의 특정 정보의 포착을 가능하게 하는 역할을 한다.
또한, 컴퓨팅 장치(101a)는 프로세서(110)에 또한 동작가능하게 연결된 디스플레이(140)를 포함할 수 있다. 디스플레이는 시스템으로 하여금 사용자를 인증하기 위한 시스템(100)의 동작에 관하여 사용자에게 피드백(feedback)을 알리거나 그렇지 않으면 제공할 수 있게 하는 스크린 또는 임의의 다른 그러한 표시 장치(presentation device)를 포함한다. 예로서, 상기 디스플레이는 도트 매트릭스 디스플레이(dot matrix display) 또는 기타의 2차원 디스플레이와 같은 디지털 디스플레이일 수 있다.
추가의 예로서, 상기한 인터페이스 및 디스플레이는 터치 스크린 디스플레이 내에 통합될 수 있다. 이에 따라, 다양한 데이터를 디스플레이하고 사용자에 의한 정보의 입력을 가능케 하는 필드를 포함하는 "폼"(form)들을 제공하는 그래픽 사용자 인터페이스(graphical user interface)를 보여주기 위해 디스플레이가 또한 사용된다. 터치 스크린을 그래픽 사용자 인터페이스의 디스플레이에 대응하는 위치에서 접촉함으로써, 사용자가 상기 장치와 상호작용하여 데이터를 입력하기, 설정 변경하기, 기능 제어하기 등을 수행할 수 있다. 따라서, 터치 스크린이 접촉되는 경우, 사용자 인터페이스는 이 변화를 프로세서에 통신하며, 설정이 변경되거나 사용자 입력 정보가 포착되어 메모리 내에 저장될 수 있다.
또한, 모바일 장치(101a)는 디지털 이미지를 포착하는 것이 가능한 카메라(145)를 포함한다. 카메라는 모바일 장치(101a)를 활용하는 동안 사용자의 눈 및/또는 얼굴을 포함하는 사용자의 신체의 적어도 일부분의 이미지를 포착하도록 구성된 하나 이상의 이미징 장치(imaging device)일 수 있다. 카메라는 이미지로부터 사용자를 (생체인식으로) 인증하기 위해 생체인식 특징을 식별하는 단계 및 사용자의 실물성을 결정하는 단계를 포함하는 보안 인증 애플리케이션을 실행하는 모바일 장치 프로세서(110)에 의한 이미지 분석의 목적으로 사용자의 이미지의 포착을 가능하게 하는 역할을 한다. 모바일 장치(101a) 및/또는 카메라(145)는 하나 이상의 광 또는 신호 방출기(예를 들어, LED; 도시되어 있지 않음), 예컨대 가시광 방출기 및/또는 적외선광 방출기 등을 또한 포함할 수 있다. 카메라는 센서(예를 들면 CCD 또는 CMOS 센서로서 이에 한정되지 않음)를 포함하는 전면 대향 카메라(front-facing camera) 또는 후면 대향 카메라(rear facing camera)와 같이 모바일 장치 내에 통합될 수 있다. 당업자에 의해 이해되는 바와 같이, 카메라(145)는 렌즈, 광 측정기(예를 들어, lux 측정기) 및 줌(zoom), 초점(focus), 조리개(aperture), 노출(exposure), 셔터 속도(shutter speed) 등과 같이 이미지 포착 세팅을 조정하는데 유용한 다른 일반적인 하드웨어 및 소프트웨어의 특징과 같은 추가적인 하드웨어를 포함할 수 있다. 대안적으로, 카메라는 모바일 장치(101a)에 외부에 있을 수 있다. 카메라 및 광 방출기의 가능한 변형은 당업자에 의해 이해될 것이다. 추가로, 상기모바일 장치는 또한 당업자에 의해 이해되는 바와 같이 오디오 기록을 포착하기 위한 하나 이상의 마이크(104)를 포함할 수 있다.
또한, 오디오 출력(155)는 프로세서(110)에 동작가능하게 연결된다. 오디오 출력은, 당업자에 의해 이해되는 바와 같이 전자 오디오 파일을 작동하도록 구성된 임의의 유형의 스피커 시스템일 수 있다. 오디오 출력은, 모바일 장치(101) 내에 통합되거나, 모바일 장치(101)의 외부에 있을 수 있다.
또한, 다양한 하드웨어 장치/센서(160)이 또한 프로세서에 동작가능하게 연결된다. 센서(160)는, 하루의 시각 등을 추적하기 위한 온보드 클록(on-board clock); 모바일 장치의 위치를 판정하기 위한 GPS 가능화된 장치(GPS enabled device); 모바일 장치의 배향(orientation) 및 가속을 추적하기 위한 가속도계; 지구 자기장을 감지하여 모바일 장치의 3차원 방향을 결정하는 중력 자력계(gravity magnetometer); 모바일 장치와 다른 물체 사이의 거리를 검출하는 근접성 센서(proximity sensor); RF 방사 레벨을 감지하는 RF 방사 센서(RF radiation sensor); 및 당업자에 의해 이해되는 기타 장치를 포함할 수 있다.
또한 통신 인터페이스(150)는, 또한 프로세서(110)에 동작가능하게 연결되며, 모바일 장치(101a) 및 외부의 장치, 기계 및/또는 요소(시스템 서버(105)를 포함)간의 통신을 가능하게 하는 임의의 인터페이스일 수 있다. 바람직하게, 통신 인터페이스는 모뎀(modem), 네트워크 인터페이스 카드(Network Interface Card: NIC), 통합된 네트워크 인터페이스(integrated network interface), 무선 주파수(frequency) 송신기/수신기(가령, 블루투스(Bluetooth), 셀룰러, NFC), 위성 통신 송신기/수신기, 적외선 포트, USB 연결, 그리고/또는 모바일 장치를 다른 컴퓨팅 장치 및/또는 통신 네트워크, 예를 들어 사설 네트워크 및 인터넷에 연결하기 위한 임의의 기타 인터페이스를 포함하나 이에 한정되지 않는다. 상기한 연결은 유선 연결 또는 무선 연결(예를 들면, 802.11 표준을 사용함)을 포함할 수 있는데, 다만 통신 인터페이스는 모바일 장치로의/로부터의 통신을 가능하게 하는 실제적으로 임의의 인터페이스일 수 있음이 이해되어야 한다.
사용자를 인증하는 시스템(100)의 동작 동안 다양한 시점에서, 모바일 장치(101a)는 시스템 서버(105), 사용자 컴퓨팅 장치(101b) 및/또는 원격 컴퓨팅 장치(102)와 같은 하나 이상의 컴퓨팅 장치와 통신할 수 있다. 상기한 컴퓨팅 장치는 모바일 장치(101a)로/로부터 데이터를 송신 및/또는 수신하는데, 이로써 바람직하게는, 아래에서 더 상세히 기술될 바와 같이, 시스템(100)의 동작을 개시, 유지 및/또는 향상한다.
도 2c는 시스템 서버(105)의 예시적인 구성을 보여주는 블록 다이어그램이다. 시스템 서버(105)는 사용자의 인증을 가능하게 하기 위한 시스템(100)의 동작을 가능하게 하는 역할을 하는 다양한 하드웨어 및 소프트웨어 컴포넌트에 동작가능하게 연결된 프로세서(210)를 포함할 수 있다. 프로세서(210)는 아래에서 더 상세히 기술될 바와 같이 사용자 인증 및 거래 처리에 관련된 다양한 동작을 수행하기 위해 명령어를 실행하는 역할을 한다. 프로세서(210)는 특정한 구현예에 따라, 다수의 프로세서, 다중프로세서 코어, 또는 기타 다른 유형의 프로세서일 수 있다.
특정 구현예에서, 메모리(220) 및/또는 저장 매체(290)는 프로세서(210)에 의해 액세스가능한데, 이로써 프로세서 (210)로 하여금 메모리(220) 상에 및/또는 스토리지(290) 상에 저장된 명령어를 수신하고 실행할 수 있게 한다. 메모리(220)는 예컨대 랜덤 액세스 메모리(Random Access Memory; RAM) 또는 임의의 다른 적합한 휘발성 또는 비휘발성 컴퓨터 판독가능 저장 매체일 수 있다. 추가로, 메모리(220)는 고정되거나 탈착가능할 수 있다. 스토리지(290)는 특정한 구현에 따라 다양한 형태를 취할 수 있다. 예를 들면, 스토리지(290)는 하드웨어 드라이브, 플래시 메모리, 재기입가능 광학 디스크, 재기입가능 자기 테이프, 또는 이의 조합과 같은 하나 이상의 컴포넌트 또는 장치를 포함할 수 있다. 또한, 스토리지(290)는 고정되거나 탈착가능할 수 있다.
하나 이상의 소프트웨어 모듈(130)은 스토리지(290) 내에 및/또는 메모리(220) 내에 인코딩된다. 하나 이상의 소프트웨어 모듈(130)은 프로세서(210) 내에서 실행되는 명령어의 세트 또는 컴퓨터 프로그램 코드를 가지는 하나 이상의 소프트웨어 프로그램 또는 애플리케이션(집합적으로 "보안 인증 서버 애플리케이션"으로 지칭됨)을 포함할 수 있다. 당업자에 의해 이해될 바와 같이, 본 출원에 개시된 양태의 시스템 및 방법의 동작을 수행하기 위한 상기한 컴퓨터 프로그램 코드 또는 명령어는, 하나 이상의 프로그래밍 언어의 임의의 조합으로 작성될 수 있다. 프로그램 코드는 전체적으로 시스템 서버(105) 상에서 독립형 소프트웨어 패키지로서, 또는 부분적으로는 시스템 서버(105)에서, 또는 부분적으로는 원격 컴퓨팅 장치(102)에서, 모바일 장치(101a) 및/또는 사용자 컴퓨팅 장치(101b)와 같은 원격 컴퓨팅 장치 상에서, 또는 전체적으로 상기한 원격 컴퓨팅 장치 상에서 실행될 수 있다. 도 2b에 묘사된 바와 같이, 바람직하게는, 시스템 서버의 프로세서(210)에 의해 실행되는 분석 모듈(274), 등록 모듈(276), 인증 모듈(280), 데이터베이스 모듈(278) 및 통신 모듈 (282)이 소프트웨어 모듈(130) 중에 포함된다.
또한 바람직하게는 스토리지(290) 상에 데이터베이스(280)가 저장된다. 아래에서 더 상세히 기술될 바와 같이, 데이터베이스(280)는 시스템(100)의 다양한 동작 내내 활용되는 다양한 데이터 항목 및 요소(본 출원에 더 상세히 기술될 바와 같이 사용자 프로파일을 포함하나, 이에 한정되지 않음)를 포함하고/하거나 유지한다. 데이터베이스(280)가 컴퓨팅 장치(205)에 대해 로컬로 구성된 것으로 묘사되어 있으나, 몇몇 구현예에서 데이터베이스(280) 및/또는 그 내부에 저장된 다양한 데이터 요소들은 통상의 기술자에게 알려진 방식으로, 원격으로 위치되고 네트워크(도시되지 않음)를 통해 시스템 서버(105)에 연결된 컴퓨터 판독가능 메모리 또는 저장 매체 상에 저장될 수 있음에 유의하여야 한다.
또한, 통신 인터페이스(255)는 또한 프로세서(210)에 동작가능하게 연결된다. 통신 인터페이스(255)는 시스템 서버 (105) 및 외부 장치, 기계 및/또는 요소 간의 통신을 가능하게 하는 임의의 인터페이스일 수 있다. 어떤 구현예에서, 통신 인터페이스(255)는 모뎀, 네트워크 인터페이스 카드(Network Interface Card: NIC), 통합된 네트워크 인터페이스, 무선 주파수(frequency) 송신기/수신기(가령, 블루투스, 셀룰러, NFC), 위성 통신 송신기/수신기, 적외선 포트, USB 연결, 그리고/또는 컴퓨팅 장치(205)를 다른 컴퓨팅 장치 및/또는 통신 네트워크, 예를 들어 사설 네트워크 및 인터넷에 연결하기 위한 임의의 기타 인터페이스를 포함하나 이에 한정되지 않는다. 상기한 연결은 유선 연결 또는 무선 연결(예를 들면, 802.11 표준을 사용함)을 포함할 수 있는데, 다만 통신 인터페이스(255)는 프로세서(210)로의/로부터의 통신을 가능하게 하는 실제적으로 임의의 인터페이스일 수 있음이 이해되어야 한다.
전술된 사용자를 인증하기위한 시스템 (100) 및 다양한 요소들 및 컴포넌트들의 작동은 후술되는 바와 같이 생체인식 정보의 포착 및 인증의 포착을 용이하게 하는 방법을 참조하여 더 잘 이해될 것이다. 본 명세서에 묘사된 프로세스는 모바일 장치 (101a) 및/또는 시스템 서버 (105)의 관점에서 도시되어 있지만, 프로세스는 전체 또는 부분적으로, 모바일 장치 (101a), 시스템 서버 (105) 및/또는 다른 컴퓨팅 장치들(예를 들어, 원격 컴퓨팅 장치 (102) 및/또는 사용자 컴퓨팅 장치(101b)) 또는 이들의 임의의 조합에 따라 수행될 수 있다. 도면에 도시되고 본 출원에 기술된 것보다 더 많거나 더 적은 동작이 수행될 수 있음이 인식되어야 한다. 이들 동작은 본 출원에 기술된 것과는 상이한 순서로 수행될 수도 있다. 상기 단계 중 하나 이상이 모바일 장치(101a) 및/또는 다른 컴퓨팅 장치(예를 들면, 컴퓨팅 장치(101b), 시스템 서버(105) 및 원격 컴퓨팅 장치(102)) 상에서 수행될 수 있음이 또한 이해되어야 한다.
도 3을 살펴보면, 흐름 다이어그램은 본 명세서에 개시된 적어도 하나의 실시예에 따라 하나 이상의 이미지로부터 사용자의 생체인식 특징을 검출하기 위한 루틴(routine)(300)을 도시한다. 일반적으로, 루틴은 사용자의 적어도 다수의 손가락 중 하나 이상의 이미지를 포착하고 분석하는 단계를 포함한다. 바람직하게는, 4개의 손가락이 포착되지만, 본원에서 기술 된 바와 같이 더 많거나 적은 손가락을 포착하여 분석할 수 있다. 전술한 바와 같이, 포착 프로세스는 사용자 등록동안 뿐만 아니라도 3과 관련하여 설명되는 후속 인증 세션동안 수행될 수 있다.
본 발명에 개시된 양태에 따르면, 널리 이용가능하며 적어도 가시적인 대역(visible spectral band)에서 사용자의 손가락 이미지를 포착할 수 있는 카메라 (145)를 갖는 모바일 장치(예를 들어, 모바일 장치 (101a))를 사용하여 이미지가 포착되고, 사용자의 고유한 생체인식 특징 및/또는 실물성을 나타내는 생체 인식 식별자가 생성될 수 있다.
상기 프로세스는 단계 (305)에서 시작하고, 바람직하게는 포착 모듈 (172)을 포함하는 하나 이상의 소프트웨어 모듈 (130)을 실행함으로써 구성된 모바일 장치 프로세서 (110)는 카메라 (145)가 한 손의 4개의 모든 손가락을 포착하는 사용자 (124)의 적어도 일부분의 하나 이상의 이미지를 포착하게 한다. 바람직하게, 카메라는 예를 들어 종래의 스마트 폰 장치의 후방 카메라를 사용하여 고해상도의 이미지를 포착한다. 가능하다면 플래시 조명으로 이미지를 포착하여 세부 묘사를 할 수 있다.
본 발명의 특정 구현예 에서는, 포착 프로세스동안, 사용자는 카메라 앞에 손가락을 위치시키도록 유도된다. 이 과정에서 사용자는 장치 디스플레이에서 카메라의 시각적 피드백을 제공받을 수 있어, 사용자는 손가락을 적절하게 배치 할 수 있다. 일 구현예에서, 디스플레이 상에 나타나는 표시(markings)는 사용자가 카메라의 시야의 특정 위치 및 특정 거리에 손가락을 위치하도록 안내하는데 사용될 수 있다. 예를 들어, 사용자는 카메라 이미지 미리보기 화면(camera image preview screen)에 겹쳐진 4개의 손가락 윤곽선으로 그들의 손가락을 정렬하라는 요청을 받을 수 있다. 따라서 사용자는 손가락이 카메라의 미리보기 화면의 손가락 지시선을 채울 때, 그들 손가락이 카메라에서 적절한 거리에 있다는 것을 알 수 있다. 일 구현예에서, 사용자는 자신의 검지, 중지, 약지 및 새끼 손가락을 간격을 떨어뜨리기 보다는 함께 잡을 수 있다. 그런 다음, 일부 구현예에서 사용자는 양손의 엄지 손가락을 개별적으로 포착하도록 요청받을 수 있다. 일부 구현예에서, 사용자는 성인이 손가락의 이미지를 포착하도록 도와주는 신생아일 수 있다. 카메라의 초점은 구성된 프로세서가 손가락 위에 초점을 맞추도록 설정될 수 있으며, 손가락은 화면상의 손가락 위치 가이드의 위치로 가정할 수 있다. 일부 구현예에서, 분류기(classifier)는 이미지 내의 손가락을 검출하도록 트레이닝될 것이고, 이 분류기는 손가락이 검출되고 초점이 맞춰지면 이미지를 포착하도록 카메라를 유도할(triggering) 수 있다. 일부 구현예에서, 이미지의 손가락을 검출하는 데 사용될 수 있는 분류기는 통상적인 Haar 특징 또는 손 이미지(뿐만 아니라, 예를 들면, 신생아 식별 시스템의 경우 발 이미지)에서 손가락을 검출하는데 적합한 미리 정의되고 미리 디자인된 필터를 사용하여 트레이닝된 Haar Cascade 분류기일 수 있다. 일부 구현예에서, 포착된 이미지에서 손가락을 검출하기 위해 분류기 (classifier)를 사용하기 전에 이미지 강조 단계(image enhancement procedures)가 이미지에 적용될 수 있다. 일부 구현예에서, 손가락 분류기를 적용하기 전에 적용될 수 있는 이미지 강조 단계는 지문 융선 주파수(frequency)를 통과 시키지만 배경 주파수의 아웃 포커스(out of focus background frequencies)를 최소화하는 대역 통과 필터가 되도록 설계될 수 있다.
이 후, 포착한 이미지를 검사하고 포착한 생체인식 샘플의 품질을 손가락의 융선을 분석하여 결정한다. 이 품질 측정값은 주파수(frequency), 방향, 선명도 및 연결성과 같은 융선 특성이 융합된 측정값이 될 수 있다. 품질 측정값이 사전결정된 임계 수치보다 낮으면, 사용자에게 통지하고 포착 프로세스를 다시 반복하도록 안내할 수 있다.
손가락 포착 단계 후에, 단계 (310)에서, 각 손가락 영역이 식별될 것이다. 그 후, 단계 (315)에서 상기 영역이 강조되고, 단계 (320)에서 각 손가락의 차별적인 특징 영역이 독립적으로 추출되어 개별적으로 저장될 수 있다. 보다 구체적으로, 단계 (310)에서, 구성된 프로세서 (110)는 자동 손가락 검출 알고리즘을 실행하여 이미지 내의 손가락을 검출 할 수 있다. 예를 들어, 예시적인 손가락 검출 알고리즘은 손가락을 배경과 구별하기위한 세분화 알고리즘의 적용을 포함할 수 있다. 이는, 예를 들어, 이미지를 균질한 영역으로 나누고 각 영역을 검사하여 손가락 또는 비- 손가락 영역으로 분류함으로써 수행할 수 있다. 또한, 이것은 손가락 및 손가락 말단을 검출하고 분류하는 분류기를 사용하여 수행될 수 있다. 일부 구현예에서, 상이한 손가락 검출하고, 분류하고, 손가락 말단을 검출하는데 사용될 수 있는 분류기는 Haar Cascade 분류기, HOG Cascade 분류기, LBP Cascade 분류기 또는 이들 분류기의 조합으로 트레이닝될 수 있다. 분류기의 트레이닝은 당업계에 공지 된 바와 같이 공지된 예시적인 이미지에 대해 수행될 수 있다. 손을 찾기 위해 트레이닝된 분류기는, 먼저 속도와 정확도를 향상시켜 다른 손가락 발견 분류기에 대한 검색 영역을 좁히는 데 사용될 수 있다. 또한 이러한 분류기는 정확도를 향상시키기 위해 다른 손가락 위치 발견 기술과 함께 사용될 수 있다. 일부 구현예에서, 분류기를 사용하여 식별되는 영역은 경계에 의해 강조 표시될 수 있고 모바일 장치 디스플레이상의 사용자에게 디스플레이될 수 있다. 예를 들어, 손가락 말단 부분으로 식별된 영역은 식별된 영역을 강조 표시하는 이미지의 경계로 경계를 지정할(bound) 수 있다. 경계(border)는 직사각형 또는 타원형 경계를 포함하는 다양한 형상일 수 있고, 손가락 말단, 손, 손가락 군, 다른 손가락 영역 등을 포함하는 다른 부분이 강조될 수 있다. 사용자 등록 데이터는, 일단 손가락 말단 위치가 사용자에 의해 확인되면, 분류기를 트레이닝시키는 것을 돕는데 사용될 수 있다. 예를 들어, 일부 구현예에서, 손가락 및 손가락 말단을 포착 및 검출하는 프로세스는 하기 단계로 요약될 수 있다: (1) 손 이미지를 포착하는 단계 (2) 제 1 손가락 말단 영역을 찾기 위해 트레이닝된 계층적(cascade) 분류기를 호출한 다음, 제 2 손가락 말단 영역을 찾기 위해 트레이닝된 다른 분류기를 호출하는 단계 등.
비-제한적인 예로서, 분류기(예를 들어, LBP 분류기)의 사용은 이미지에서 손가락 말단을 발견하도록 구현될 수 있으며, 이에 더하여 먼저 손의 주요 영역(예를 들면, 전체 손 또는 손의 4 개의 손가락)을 찾기 위해 분류기를 사용하고나서, 주요 영역 내에서 부-영역(예를 들어, 손가락 말단 또는 중간 지골(intermediate phalanges))을 찾아내는 2차 방법을 사용하는 것이 유리할 수 있다. 상기한 2차 방법은 각각의 작은 영역의 위치를 찾도록 트레이닝된 다른 분류기일 수 있다. 부-분류기(minor classifier)의 결과는 기대 관계(expected relationships)(예를 들어, 각 부 영역 사이의 정해진 관계(예를 들어, 잘못된 매치를 배제하는데 사용할 수 있는 손이 모인 상태로 평평하게 유지될 때 4개의 손가락이 가지는 공지된 위치 관계)예상된 관계)에 대한 지식을 사용하여 추가적으로 필터링될 수 있다. 추가로, 필터링은 다른 눈에 띄는 손 특징(예를 들어, 손가락 사이의 관절)의 위치를 찾고, 이러한 정보를 이용하여 분류기로부터 상기 결과를 필터링하는데 적용될 수 있다. 또한, 주 분류기(major classifier)는 사용자가 손가락을 카메라에 제시할 때 손가락을 따라가는데 실시간으로 사용될 수 있으며 이미지 포착 및/또는 생체인식 정보 매칭을 자동으로 유도하기 전에 손에 초점과 노출이 최적화되도록 한다.
본 명세서에 전술되고 후술된 바와 같이, 상기한 프로세서는 사용자가 손가락을 카메라에 제시하고 카메라를 사용하여 이미지를 포착할 때 실시간으로 손가락을 감지하고 추적하도록 구성할 수 있다. 이미지의 추적된 위치는, 손가락이 위치적으로 충분히 안정적일 때를 검출하고 검증 이미지의 품질 및 손가락 인식의 신뢰성을 향상 시키는데 사용될 수 있다.
일부 구현예에서, 상기 프로세서는 객체 검출 방법(object detection method)과 보다 빠른 추적 방법(예를 들면, 템플릿 매칭 또는 광학 흐름) 사이를 동적으로 전환함으로써 실시간으로 손가락 검출을 가속화하도록 구성될 수 있다. 예를 들어, 4개의 손가락 말단 세트가 감지되어 손을 나타내는 것으로 결정되면, 구성된 프로세서는 광학 흐름 알고리즘을 사용하여 손가락을 추적할 수 있다. 결과적으로, 예를 들어 계층적 분류기가 후속 이미지 프레임에도 적용되는 경우보다 훨씬 낮은 레이턴시(latency) 및 높은 프레임 속도로 손가락 위치를 추적할 수 있다. 높은 속도는 로컬 이미지 영역에 대한 프로세서가 검색한 이미지 내의 검색 공간을 제한하여 얻어질 수 있으며, 프로세서는 구별된 특징(예를 들어, 손가락 가운데)을 나타내는 픽셀과만 매치하도록 구성될 수 있다.
손가락이 너무 멀어지거나 시야를 벗어나면 객체 추적을 실패할 수 있다. 프로세서가 오류를 감지하면, 프로세서는 계층적 분류기로 불리는 초기 객체 검출 방법으로 되돌릴 수 있다. 네 개의 손가락을 추적하는 경우, 프로세서는 손가락의 상대적인 위치(예를 들어, 손가락 중심 사이의 거리)를 측정할 수 있으며, 거리가 크게 변한 것으로 결정된 경우(예를 들어, 지정된 임계 수치 이상) 시스템이 객체 검출 단계로 되돌아갈 수 있다.
바람직하게, 상기한 포착 시스템(capture system)은 사용자의 손가락이 (소정의 허용 오차 내에서) 고정된 상태로 유지되어 검증 이미지의 모션 블러(motion blur)가 방지될 때를 검출할 수 있다. 이것은, 예를 들어, 프레임들 사이에서 물체를 추적(예를 들어, 이동 벡터를 계산)하고, 물체의 속도가 임계 속도 이하로 떨어질 때 고해상도 검증 이미지를 포착함으로써 달성될 수 있다.
객체 위치를 찾는데에 있어서 작은 오차는 속도 벡터의 계산으로 전파될 수 있다. 계층적 분류기와 같은 방법은 종종 프레임에서 프레임으로의 객체 위치에 인공적인 변동(객체 중심 'jiggles')을 도입한다. 이러한 위치 노이즈는 물체가 정지하고 있는지 판단하는 것을 방해한다. 그러나, 상술 한 바와 같이, 광학 흐름(optical flow)을 이용한 트래킹은 노이즈가 적고, 물체 위치를 보다 신속하게 업데이트 할 수 있고, 정지된 물체 검출을 훨씬 더 신뢰성있게 할 수 있다.
또한, 일부 구현예에서, 손가락 길이 정보는 손가락 말단 식별 알고리즘의 일부로서 저장 및 사용될 수 있으며, 손가락 지문이 이미지 내의 특정 상대적인 위치에 있음이 기대된다는 사실에 약간의 가중치가 주어질 수 있고, 이는 지문 검색 알고리즘의 신뢰도를 향상시킬 수 있고, 예를 들어 오류가 있는 지문 매치를 거부하는데 도움이 된다. 각 손가락의 높이와 폭에 대한 정보도 마찬가지이다. 또한, 사용자 피부의 색상은 등록시 저장될 수 있으며, 추가적인 생체 인식 식별 및/또는 실물성 인증 수단으로 사용될 수 있다. 이것은 올바른 지문은 있지만 올바른 피부색조가 아닌 스푸핑 지문이 스푸핑 (예를 들어, 재생된 잠재지문으로 만든 핑크색 실리콘 몰드 또는 흑백 레이저 프린트)으로 거부될 수 있다는 이점이 있다.
도 4는 포착된 손가락의 이미지 및 이에 상응하는 이미지로부터 손가락 말단 검출을 위한 예시적인 루틴 (400)을 도시한다. 도시된 바와 같이, 단계 (405)에서, 복수의 손가락을 포함하는 포착된 이미지가 획득된다. 예시적인 고해상도 이미지는 이미지 (405a)로 도시되어 있다. 단계 (410)에서, 이미지는 무채색 스케일(grey scale) 이미지로 다운 스케일링/변환되고, 주요 캐스케이드(major cascade)가 적용되어 이미지 내의 손을 검출한다. 예시적인 무채색 스케일 이미지 및 검출된 손 영역 주위에 묘사된 복수의 경계가 이미지 (410a)에 묘사된다. 단계 (415)에서, 가장 넓게 검출된 손 영역이 선택되고, 그 영역은 추가의 손가락 말단 검출과 같은 주변 영역(예를 들어, 확장 영역)을 포함하도록 확장된다. 선택되고 확장된 손가락 영역 주위에 묘사된 예시적인 무채색 스케일 이미지 및 경계는 이미지 (415a)에 묘사된다. 그 다음 단계 (420)에서, 하나 이상의 고감도 계층적 분류기가 부-영역, 즉 손가락 각각에 대한 손가락 말단 영역을 검출하기 위해 적용된다. 복수의 검출된 손가락 말단 영역 주위에 묘사된 예시적인 무채색 스케일 이미지 및 경계는 이미지 (420a)에 묘사된다. 도시된 바와 같이, 검출된 손가락 말단 영역은 이미지의 실제 손가락 말단 개수를 초과할 수 있다. 그 다음, 단계 (425)에서, 손가락 말단 영역들이 필터링된다. 필터링은 도 4B와 관련하여 본 명세서에 상세히 기술된다. 필터링된 검출 손가락 말단 영역 주위에 묘사된 예시적인 무채색 스케일 이미지 및 경계는 이미지 (425a)에 묘사된다. 그 다음, 단계 (430)에서, 손가락 말단 관심영역(ROI)이 종횡비(aspect ratio)를 보정하도록 조정(예를 들어, 크기가 변경되거나 아래쪽으로 확장)된다. 검출되고 크기가 조정된 ROI 주위에 묘사된 예시적인 무채색 스케일 이미지 및 경계는 이미지 (430a)에 묘사된다.
바람직하게 손가락 검출은 조명(illumination)과 함께 촬영된 이미지가 실질적으로 상이할 수 있는 실내 및 실외광(lighting)에 강하다. 예를 들어, 저조도 환경(low light environment)에서는 배경이 종종 노출 부족으로 어두워지는 반면, 강렬하고 확산된 햇빛 환경에서는 배경 밝기가 손가락의 밝기를 초과하며 음영이 크게 다를 수 있다. 따라서, 일부 구현예에서, 모바일 장치 프로세서로 주변 빛(ambient light) 양을 결정하고, 검출된 빛 레벨에 기초하여, 실시간으로 특정된 빛 레벨에 대해 보다 최적의 경로로 스위칭함으로써 손가락 검출 방법이 개선될 수 있다. 예를 들어, 빛 레벨은 화면 밝기를 조절하는 휴대 전화기에서 찾거나 카메라 노출 설정으로부터 추정된 것과 같은 하드웨어 기반의 럭스 계량기(lux meter)에서 읽을 수 있다.
상기 구현예에서, 각각의 빛 레벨에 특정한 하나 이상의 분류기가 손가락 세분화(finger segmentation)를 수행하기 위해 저장되어 프로세서로 이용가능 할 수 있다. 예를 들어, 손가락의 하나 이상의 영역을 검출하는데 사용되는 제 1 계층적 분류기는 높은 주변 빛에서 촬영된 이미지에 대해 트레이닝될 수 있고, 제 2 계층적 분류기는 낮은 주변 빛에서 촬영된 이미지에 대해 트레이닝될 수 있다. 측정된 빛 레벨에 기초하여, 구성된 모바일 장치 프로세서는 적절한 분류기를 적용할 수 있다. 보다 상세하게는, 제 2 분류기가 사용될 수 있는 경우인 빛 레벨이 임계 수치를 초과하는 것이 아닌 한, 제 1 분류기는 디폴트로서 검출기에 사용될 수 있다. 분류기간의 스위칭(switching)은, 예를 들어, 상이한 주변 빛 레벨을 갖는 연속적인 이미지 프레임이 포착되고 분석되는 경우, 실시간으로 발생할 수 있다. 주변 광-특정(light-specific) 분류기를 적용하는 전술한 방법은 프로세스 중에 초기에 포착된 이미지(예를 들어, 사용자가 카메라 앞의 적절한 위치에 손가락을 위치시키는 동안 포착된 저해상도 이미지) 또는 후속하는 고해상도의 포착된 이미지(예를 들어, 초기 이미지 포착에서 손가락이 감지되고 초점이 맞추어진 것으로 확인된 후에 포착된 고해상도 이미지)에 적용될 수 있음을 알 수 있다.
또한, 일부 구현예에서, 측정된 빛 레벨에 기초하여, 구성된 모바일 장치 프로세서는 후술하는 바와 같이 인공 플래시 이미지 전처리 단계를 선택적으로 구현할 수 있다. 예를 들어, 빛 레벨이 충분히 높을 때, 플래시 전구를 이용하여 피사체를 비추는 것을 피하기 위해 인공 플래시 프로세스가 적용될 수 있다.
손가락 검출에 대한 단일 접근법은 100% 성공한 것으로 보장되지는 않지만 상기한 프로세서는 검출 품질에 대한 메트릭을 계산하도록 구성될 수 있으며, 메트릭을 기반으로 충분한 품질의 결과가 달성될 때까지 일련의 검출 방법을 적용한다. 예를 들어, 4 개의 손가락 모두를 검출하는 경우, 구성된 프로세서는 수치를 계산하여, 본 명세서에 추가로 기술된 바와 같이, 손을 가장 잘 나타내는 4 개의 검출 세트를 결정할 수 있다. 상기한 수치가 낮거나 (예컨대, 소정의 임계 수치를 충족시키지 못하는 경우) 손가락이 누락되면, 구성된 프로세서는 추가 검출 기술을 적용할 수 있다. 상기한 추가 검출 기술은 다르게 트레이닝된 분류기 또는 몇몇 다른 비-관련 접근법(unrelated approach)의 형태일 수 있다. 또한, 일부 구현예에서, 구성된 프로세서는 예를 들어, 이전의 등록 또는 인증 포착으로부터 결정된 사용자의 알려진 손 메트릭에 따라 누락된 손가락 위치를 추정할 수 있다. 이러한 접근법들이 적용되는 특정 순서는 불변일 필요는 없으며, 구현된 특정 검출 기술 및 적용 순서는 측정된 환경 조건, 특정 모바일 장치의 하드웨어의 능력, 또는 특정 사용자에 맞는 시간의 함수로서 프로세서에 의해 선택적으로 적용될 수 있다는 것을 알 수 있다(예를 들어, 트레이닝 및/또는 기계 학습 알고리즘을 기반). 전술된 바를 참조하면, 검출 속도를 향상시키기 위해, 프로세서는 더 빠른(및 잠재적으로 덜 정확한) 세분화 알고리즘이 먼저 적용되는 계층화 된 세분화 접근법(tiered segmentation approach)을 적용하도록 구성될 수 있고, 그 결과의 품질이 충분하지 않은 경우에는, 손가락 말단 부분을 보다 정확하게 감지하기 위하여 보다 강력하고(때로는 더 많은 처리 집약적인) 세분화 알고리즘으로 전환해야한다는 것을 이해할 수 있다.
본원에서 전술 및 후술된 바와 같이, 모바일 장치 프로세서에 의해 구현되는 예시적인 손가락-기반 인식 알고리즘은 손가락 검출 및 특징 추출을 향상시키기 위해 하나 이상의 이미지 강조 단계를 포함할 수 있다. 계층적 분류기와 같은 검출 방법은 종종 무채색 스케일 이미지에서 작동하므로, 광도(luma) 입력만으로 사용되는 경우와 같이 색상 정보가 손실된다. 따라서, 인간의 손과 같은 알려진 색상 특성을 갖는 객체를 검출하는 방법은, 무채색 스케일로 변환하기 전에 예상되는 컬러를 나타내는 영역을 강조함으로써 유리하게 개선될 수 있다.
하나의 예시적인 구현예에서, 프로세서에 의해 구현된 손가락 검출에 적용 가능한 이미지 전-처리 방법(image pre-processing method)은 적응성 피부 모델을 포함한다. 보다 구체적으로, 프로세서는 포착된 이미지 중 하나 이상을 분석하고, 예를 들어, 이미지 내의 손을 검출함으로써 알려진 피부 색조의 영역을 위치시키도록 구성된 후에, 색조 모델이 계산된다. 그 다음, 이미지는 HSV 색 공간으로 변환되고, 확률 밀도 함수 (PDF)는 사전 결정된 피부 영역 내의 픽셀의 색상 및 채도 값 분포에 맞춰진다. 이미지의 나머지 픽셀은 PDF 내에 위치하며, 픽셀이 피부를 나타낼 개연성을 나타내는 확률(p-수치)이 추출된다. 바람직하게는, 상기한 프로세스는 임계인 p 수치를 초과하는 모든 픽셀이 이전 모델을 정련(refine)하는데 사용되며, 프로세서를 사용하여 모든 픽셀에 업데이트 된 모델이 적용된다는 점에서, 반복적이다. 일부 구현 예에서, 피부 영역이 연속적이라고 가정함으로써, 낮은 p-수치를 갖는 픽셀이지만, 높은 p-수치를 갖는 픽셀에 의해 둘러싸인 픽셀이 모델에 또한 포함될 수 있다. 상기한 프로세스는 고정된 반복 횟수 후에 또는 피부 픽셀 수가 현저하게 증가하지 않을 때(즉, 규정된 양, 수렴을 더 이상 증가시키지 않는 경우) 중단 될 수 있다. 이 후, 수렴된 p- 수치를 추가 검출 알고리즘을 위한 입력으로 직접 사용하거나(무채색 스케일 이미지로 변환), 추가적 또는 대안적으로, 배경의 비- 피부 영역과 비교하여 이미지의 피부 영역을 밝게 하는데 사용할 수 있다(예를 들어, '인공 플래시'로 작동).
상대적으로 미리 결정된 위치(예를 들어, 온-스크린 가이드를 사용하여 안내 됨)에서 손가락이 모바일 장치 카메라에 제공되는 경우, 프로세서는 특정 영역이 피부 색조(예를 들어, 가이드에서 손의 중앙 집중화된 영역)를 나타낼 가능성이 높다고 가정하도록 구성될 수 있다. 따라서, 이 가정된 영역은 피부 모델을 구축하기위한 초기 영역으로 작용할 수 있다. 추가적으로 또는 대안적으로, 사용자가 시스템에 등록할 때(예를 들어, 피부 모델을 사용하지 않고 완료됨) 피부색이 기록될 수 있다.
도 4b는 검출된 손가락 말단 영역/부분(즉,도 4a의 단계 (425))를 필터링하기위한 예시적인 루틴 (450)을 도시한다. 필터링은 일반적으로 최상의 세트의 손가락 말단 부분을 선택(즉, 실제 손가락 말단 부분에 가장 잘 대응할 가능성이 있는 각 손가락에 대한 손가락 말단 부분을 선택)하는 것을 의미한다.
상기한 프로세스는 손가락 말단 검출이 수평( "X") 방향으로 (예를 들어, 손가락의 순서에 따라 손가락의 방향에 수직인 방향으로 정렬되어) 정렬되는 단계 (455)에서 시작한다. 그 다음, 단계 (460)에서, 4 개의 손가락 말단 영역의 조합이 복수의 검출된 손가락 말단 영역을 사용하여 생성된다. 4 개의 검출된 손가락 말단 영역들의 조합 주위에 묘사된 예시적인 무채색 스케일 이미지 및 경계들은 이미지 (460a)에 묘사된다.
그 후, 단계 (465-480)에서, 4 개의 손가락 말단 영역들이 조합된 세트들 각각이 스코어링(scoring)된다. 스코어링은 개별적인 손가락 말단 영역 및/또는 복수의 손가락 말단 영역의 물리적 특성을 결정하기 위해 손가락 말단 영역을 분석하는 단계, 및 측정된 특성을 예상 특성과 비교하는 단계를 포함한다. 본 명세서에 추가로 설명된 바와 같이, 상기한 스코어링은 다른 손가락 말단 부분에 대비한 하나 이상의 손가락 말단 부분의 물리적 특성의 비교 분석에 기초할 수 있고, 추가적으로 또는 대안적으로, 이전에 검출된 손 영역의 전체 폭(예를 들어, 단계 (415)에서 검출된 것과 같은 "손 폭")와 같이 복수의 손가락의 물리적 특성과 대비할 수 있다.
보다 구체적으로, 일부 구현예에서, 세트에서 검출된 결합 폭은 손의 폭과 비교되고, 비교에 기초하여 스코어링될 수 있다. 추가적으로 또는 대안적으로, 검출 폭의 분포 (예를 들어, 인접한 손가락 부분 사이의 중심 대 중심 거리)는 손의 폭을 고려하여 손가락 부분의 예상되는 폭 - 분포에 대해 스코어링될 수 있다. 예상 폭 분포는 이전에 식별된 손가락들의 트레이닝 세트로부터의 평균으로 결정될 수 있다. 트레이닝 세트와 상기 세트는 정확한 비교를 위해 손 폭에 따라 표준화될 수 있다. 예를 들어, 4 개의 손가락들의 예시적인 무채색 스케일 이미지인 이미지 (470a), 4 개의 검출된 손가락 말단 영역들/부분들의 조합 주위에 도시된 경계들 및 인접한 부분들 d1, d2 및 d3 사이에서 측정된 중간-중간 거리일 수 있다.
일부 구현예에서, 각각의 특정 비교는 계산된 스코어가 가중치의 함수가 되도록 가중치를 할당받을 수 있다. 예를 들어, 스코어링의 전체 결과를 왜곡시키지 않도록, 덜 최종적/덜 중요한 측정치 (예를 들어, 정밀도 또는 정확도가 낮거나 신뢰성이 떨어지는 측정치)에는 더 적은 가중치를 부여함으로써 중요도를 떨어트릴 수 있다. 비-제한적인 예를 들어, 새끼 손가락의 상대적인 길이가 개인간에 더 큰 차이를 가지기 때문에, 새끼 손가락에 관하여 결정된 Y에서의 측정된 거리의 영향은 그에 따라 '하향 가중 (down weighted)'될 수있다. 도 4b의 테이 블 (470b)는 상대적인 거리 특성을 스코어화하는데 사용되는 예시적인 폭, 가중치 및 예상 폭을 나타낸다. 테이블 (470b)에 도시 된 바와 같이, 인접한 손가락 간의 예시적인 예상 상대적 거리는 4개의 손가락의 전체 폭의 1/4이며, 각각은 1의 가중치가 할당된다.
단계 (475)에서, 손가락 말단 부분의 폭은 다른 손가락 말단 부분에 대하여 스코어링될 수 있다. 손가락 폭의 비교는 특정 손가락의 예상 상대적 폭을 기반으로 할 수 있다. 예를 들어, 검지 손가락은 끝 손가락에 비해 더 클 것으로 예상되므로, 손가락 말단 영역/부분의 상대적인 폭은 개별 손가락 부분 비교에 따라 스코어링될 수 있다. 손가락의 예시적인 무채색 스케일 이미지 및 2개의 중간 손가락(검지 및 중지)에 대응하는 4개의 가능한 검출된 손가락 말단 영역이 이미지 (475a)로 묘사된다.
유사하게, 단계 (480)에서, Y 방향에서의 손가락 말단 영역의 상대 위치는 각각의 손가락 말단 부분의 예상 길이에 따라 스코어링될 수 있다. 예를 들어, 중간의 2개의 손가락은 일반적으로 끝 손가락에 비해 Y 방향으로 더 높을 것으로 예상되며, 예상되는 상대적인 위치 특성에 따라 손가락 말단 부분이 스코어화 될 수 있다. 따라서, Y 방향(즉, 손가락의 방향에 평행한 방향)에서의 손가락 말단 부분의 높이 분포를 분석 할 수 있다. 보다 구체적으로, Y에서의 분포를 분석하는 것은 이미지 (480a)에 묘사된 바와 같이 손가락의 '길이 패턴(length pattern)'을 분석하는 것을 포함한다. 즉, 검지는 중지보다 짧고, 중지는 약지보다 길고, 약지는 새끼 손가락보다 길 것으로 예상된다. 그러므로, 피사체의 관심 영역은 검지에서 새끼 손가락까지의 Y에서 '위(up), 아래(down), 아래(down)' 패턴을 따라야한다. 정확한 예상 패턴은 이전에 식별된 손가락의 트레이닝 세트의 평균으로 결정할 수 있다. 트레이닝 세트 및 손가락 말단 부분의 세트는 Y의 상대적인 길이 및/또는 위치의 정확한 비교를 위해 각각의 손가락 및/또는 손 치수에 따라 정규화될(normalize) 수 있음을 알 수 있다. 따라서, 상기 프로세서는 다양한 관심 영역/부분의 상부 경계 사이에서 Y의 거리를 계산하도록 구성될 수 있으며, 이로써 검지에서 중지, 중지에서 약지, 약지에서 새끼 손가락에 대한 3개의 거리를 제공한다. 그런 다음, 프로세서는 손의 폭을 사용하여 거리를 정규화하여 손의 다양한 범위에서 비교할 수 있다. 그 후, 상기 거리가 예상 패턴과 비교될 수 있고, 손가락의 조합은 비교의 함수로서 스코어링될 수 있다. 손가락의 예시적인 무채색 스케일 이미지 및 Y 방향으로 비교되는 4개의 가능한 검출된 손가락 말단 영역이 이미지 (480a)에 묘사된다. 또한, 손가락 말단 영역의 상대적인 높이, 폭, Y-위치 및 X-위치가 중요도 및/또는 신뢰도에 따라 가중될 수 있음을 이해할 수 있다.
전술한 측정에 더하여, 상기 구성된 프로세서는 묘사된 손가락 말단 부분의 조명 특성에 따라 손가락 말단 부분의 조합을 스코어링 할 수 있다. 보다 구체적으로, 손가락이 이미지에서 대략 동일한 조명으로 나타나는 경우를 예상할 수 있다. 따라서, 구성된 프로세서는 손가락 말단 부분의 각 조합에 대해 손가락 말단 부분의 조합에 걸친 조명을 측정하고 조명의 분산을 기록할 수 있다. 속도 및 정확성을 위해, 각 손가락 말단 부분의 중앙(예를 들어, 10x16 직사각형 내)에 있는 픽셀값만 합쳐서 4개의 합계의 분산을 결정할 수 있다. 높은 분산은 하나 이상의 손가락 말단 부분이 잘못 배치되어 열등한 스코어(worse score)가 할당될 수 있음을 의미한다.
그 후, 단계 (485)에서, 손가락 말단 영역들의 조합의 누적 스코어가 가중되고, 합산되고, 계산된 스코어에 따라 부분들의 최상의 조합이 식별된다. 4개의 검출된 손가락 말단 영역들의 최상의 스코어링 조합 주위에 묘사된 손가락 및 경계의 예시적인 무채색 스케일 이미지가 이미지 (485a)에 묘사된다.
또한, 일부 구현예에서, 검사는 각 영역 내의 에지(edge)의 주파수(frequency) 및 배향을 분석함으로써 수행될 수 있다. 추가적으로 또는 대안적으로, 손가락들을 포함하는 이미지의 부분은 주로 스크린상(on-screen) 손가락 위치 조정 가이드의 위치를 채우는 부분(들)로서 식별될 수 있다.
일부 구현예에서, 식별을 위해, 예를 들어 단지 4개의 손가락을 사용하는 경우, 4개의 지문을 등록하고 검증하기위한 확실한 절차는 다음과 같이 실행될 수 있다: a)사용자가 4 개의 손가락을 카메라 앞에 놓고 플래시 이미지를 포착하도록 안내한다. b)선택적으로, 이미지 처리 알고리즘(전술한 바와 같이)을 사용하여 4개의 지문(및 기타 관심 영역)의 위치를 식별한다. c) 사용자에게 예를 들어, 지문 영역에 극단적인 타원을 사용하여 이 영역을 강조 표시하고, 사용자가 지문 인식을 정확한 것으로 받아들이거나, 잘못된 위치의 손가락 지문 타원을 올바른 위치로 끌어서 조정하도록 요청한다. 이렇게 하면 정확한 등록 지문이 보장된다. d) 차후 검증 절차를 위해 정확한 등록 지문을 사용한다. 여기에는 등록된 지문을 사용하여 검증 이미지에서 검증 지문을 찾는 과정이 포함될 수 있다.
또한, 일부 구현예에서, 4 개의 손가락을 포착하는 경우, 4개의 손가락의 검출된 이미지는 인접한 손가락 각각 사이의 이음매(seams)를 정의함으로써, 예를 들어 융선 방향에서 섭동(perturbation)하는 점을 위치시킴으로써, 4개의 개별 손가락으로 분할될 수 있다. 이 점들을 특이점(singular point)라고 한다. 그런 다음, K-평균 클러스터링 알고리즘(K-mean clustering algorithm)을 사용하여, 결정된 포인트를 4개의 손가락을 나타내는 4개의 클러스터로 클러스터링할 수 있다. 일부 구현 예에서, K- 평균은 클러스터링 알고리즘에 사용될 거리 매트릭스를 계산하기 위해 특수 거리 함수를 사용할 수 있다. 이 특수 기능은 전통적인 유클리드 거리와 관련하여 멀리 떨어져 있어도 동일한 손가락에 위치하는 점에 대한 거리 측정치를 줄인다. 그런 다음, 영역 성장(region growing) 세분화 알고리즘을 이용하여 각 손가락을 개별적으로 세분화할 수 있다.
그런 다음, 각 손가락에 대해, 각 손가락의 말단 지골(distal phanlanx)의 적어도 하나의 영역이 영상 내에서 식별될 수 있다. 바람직하게는, 손가락 부분의 말단과 중간 및 말단 지골 사이의 두꺼운 선 사이에 위치하는 손가락 영역은, 미세 특징인 가장 분별있는 특징을 포함하고 있기때문에 식별된다.
손가락 및 손 모두는 가능한 형상의 비교적 제한된 공간을 가지므로, 일부 구현예에서, 액티브 형상 모델(Active shape models) 및 액티브 모양 모델(Active appearance models)은 비-접촉(contactless) 지문 인식을 구현하는 유용한 접근법이 될 수 있다. 예를 들어, 타겟 이미지에서 손을 찾고 세분화하기 위하여, 먼저 포인트 분포 모델(Point Distribution Model)을 예시 이미지 내에서, 손 특징(예를 들면, 손가락 말단 경계) 상에 포인트 세트를 배치하여 계산한다. 그 후, 상기 모델은 사용자 손 배치 또는 다른 이미지 처리 기술에 대한 가이드를 사용하여 손 위치에 대한 초기 추정을 형성함으로써 타겟 이미지 내에 초기화된다. 예를 들어, 계층적 분류기를 사용하여 초기 위치를 손 위치에 제공할 수 있다. 모델에 가장 잘 적합한지는 이미지 데이터와 반복적으로 비교하고, 포인트 위치를 업데이트하여 찾는다.
적합 모델의 포인트는 인식(recognition)을 위한 관심 영역을 추출하는데 사용된다. 예를 들어, 손가락 말단 경계를 설명하는 포인트를 사용하여 지문을 추출한다.
유사하게, 손가락 모양을 설명하는 액티브 형상 모델을 사용하여 개별 손가락 말단을 구분할 수 있다. 예를 들어, 손가락 말단을 포함하는 이미지 영역은 먼저 계층적 분류기를 사용하여 찾은 다음, 배경 및 인접 손가락을 모두 제거하기 위하여 상기 모델을 사용하여 세분화한다. 또한, 액티브 형상 모델은 개별 사용자에 맞게 조정할 수 있다. 예를 들어, 시스템 등록 중에 사용자가 확인한 올바른 모델 적합성이 주어지면, 상기 모델은 개인의 손과 손가락 모양이 더 잘 설명되도록 조정된다. 이렇게 하면 인식의 속도와 신뢰도가 향상되고, 모델과의 편차는 스푸핑을 식별하는 데 사용될 수 있다.
최대한의 지문 추출 품질을 얻기 위하여, 조명 광원과 카메라의 위치에 따라 사용자가 최적의 위치에 손과 손가락을 위치시키도록 유도될 수 있는데, 예를 들어, 상기 장치의 디스플레이 상에 시각적 가이드 또는 최적의 손가락 위치 배치 개요를 제공할 수 있다. 이것은 지문을 카메라 시야의 중심 근처에서 지문은 약 +/- 20 도의 최대 각도를 카메라에 부여하며 위치시킬 수 있다. 예를 들어, 조명 광선(illuminating rays)으로부터 입사각을 최소화하기 위해 손가락을 광원에서 충분히 멀리 배치하여, 경사 있는 표면의 디테일 손실을 방지하면서 충분히 강한 조명을 얻을 수 있다. 동시에, 손가락은 카메라를 향한 조명을 최대로 반사하도록 지향되고, 인식하기에 충분한 픽셀 밀도를 보장하기 위하여 카메라에 충분히 근접하게 위치된다.
포착된 지문의 품질은, 조명 광원의 공간 범위를 넓히기 위하여 추가 조명 광원 또는 확장 광원을 스마트 폰 카메라 시스템에 추가하여 더욱 향상시킬 수 있다. 예를 들어, 스마트 폰이나 타블렛 조명의 모서리에 4개의 LED를 추가함으로써, 손가락 지문의 더 많은 영역에 유리하게 반영되어 지문 포착 품질이 향상된다.
일단 손가락의 관련 영역이 식별되면, 단계 (315)에서, 관련 영역이 강조될 수 있다. 보다 구체적으로, 바람직하게, 분석 모듈 (172)을 포함하는 소프트웨어 모듈 (130)을 실행함으로써 구성된 모바일 장치 프로세서 (110)는, 예를 들어, 매끄러운 융선 오리엔테이션 지도(smoothed ridge orientation maps)에 조정된(tuned to) 한 세트의 가보 필터(Garbo filters)를 사용하여 이미지의 디테일을 향상시키기 위하여 이미지의 부분을 처리할 수 있다. 일부 구현예에서, 상기한 이미지 강조의 주요 목적은 라이브 스캔 센서(live scan sensor)를 사용하여 포착되고 보통 IAFIS와 같은 레거시 데이터베이스(legacy database)에 저장되는 지문 인상의 이미지와 유사한 지문 이미지를 생성하는 것이다. 이러한 유사성은 모바일 장치를 사용하여 포착한 이미지가 라이브 스캔 센서에서 포착한 이미지와 동일한 품질 및 특성(attributes)을 모방하고 있음을 의미한다. 이러한 유사성은 모바일 장치로 포착한 이미지를 IAFIS와 같은 레거시 데이터베이스에 저장된 지문 인상의 이미지와 매칭할 수 있는 가능성을 보장하기 위해 바람직하다.
손가락 말단에서 차별적인 특징을 추출하는 것을 향상시키기 위하여, 융선(ridge)과 고랑(furrow)의 대비를 높이기 위해 강조 필터(enhancement filter)를 사용하는 것이 유리할 수 있다. 일부 구현예에서, 모바일 장치 프로세서는 히스토그램 평준화를 적용하여 가능한 값 범위(통상적으로, 무채색 스케일 이미지에서 [0,255])에 걸쳐 강도를 균일하게 분포시킴으로써 로컬 이미지 대조(constrast)를 향상시킨다. 이는 픽셀 강도의 누적 히스토그램을 계산하고, 허용된 범위에서 최대값으로 정규화하고, 이 분포에서 위치에 따라 소스 픽셀(source pixel)을 재매핑함(remapping)으로써 달성될 수 있다.
대조 향상(contrast enhancement)은 무차별적으로 관심의 신호뿐만 아니라 배경 노이즈 또한 향상시킨다는 단점이 있다. 이와 같이, 대조 향상 전에 필터링함으로써 관심 신호만을 분리하는 것이 유익할 수 있다. 예를 들어, 상기 프로세서는 대역 통과 필터를 적용하여 지문 융선의 예상 주파수(frequency)와 일치하지 않는 주파수(frequency)의 신호를 제거할 수 있다. 이러한 구현예 중 하나에서는, 원시 원본 이미지(raw source image)에서 가우시안 블러(Gaussian Blur)로 필터된 원본 이미지를 뺌으로써 고주파수(high frequencies)를 제거한다. 그런 다음, 상기 결과를 다시 필터링하여 적절한 더 작은 반경의 다른 가우시안 블러 필터를 적용하여 저주파수(low frequencies)를 제거할 수 있다. 그런 다음 히스토그램 평준화를 대역 통과 결과에 적용하여 특징 추출을 위한 최적의 이미지를 얻을 수 있다.
단계 (320)에서, 각각의 손가락의 특징점(minutiae)이 추출되고 생체 인식 식별자가 생성된다. 당업자가 이해할 수 있는 바와 같이, 특징점(minutia)은 지문의 융선 부분이 끝나는 지점을 가리키며, 텍스처(texture)는 융선 부분에 의해 정의된 패턴을 지칭한다. 보다 구체적으로, 분석 모듈 (172)을 포함하는 소프트웨어 모듈 (130)을 실행함으로써 구성되는 모바일 장치 프로세서 (110)는 개선된 이미지를 분석하여, 특징점 추출 알고리즘(Minutiae extraction algorithm)과 같은 알고리즘을 사용하여 각 손가락의 적어도 말단 영역(distal region)으로부터 특징을 추출한다.
지문 비교를 위한 대부분의 자동 시스템은 특징점 매칭을 기반으로 한다. 그러므로, 신뢰성 있는 특징점 추출은 중요한 작업이다. 이러한 많은 방법은 지문 무채색 스케일 이미지를 골격 이미지(skeleton image)로 변환하는 것을 필요로 한다. 그런 다음, 간단한 이미지 스캔을 통해 지문 융선이 끝나고 분기되는(bifurcate) 특징점에 해당하는 픽셀을 감지할 수 있다. 추출된 특징점은 2차원 평면에 점들의 세트로서 저장될 수 있다.
마지막으로, 지문 사이의 유사성 스코어를 생성하기 위해, 구성된 프로세서에 의해 특징점-기반 매칭 알고리즘이 수행될 수 있다. 이러한 매칭 알고리즘은 템플릿과 입력 특징점 세트간의 정렬을 찾아 최대 수의 특징점 쌍을 얻음으로써 지문 사이의 유사성 스코어를 계산한다.
말단 영역으로부터 추출된 특징은, 손가락 및/또는 손의 나머지 식별된 영역으로부터 유사하게 추출된 다른 특징과 함께 저장될 수 있다. 이러한 특징은 하나 이상의 특징 벡터를 포함하는 하나 이상의 생체 인식 식별자로 특성화될 수 있다.
등록 단계동안, 단계 (325)에서, 이러한 특징 벡터는 사용자 검증 단계를 보장하는데 사용하기 위한 생체 인식 식별자(예를 들어, 템플릿)로서 메모리에 저장된다. 대안적으로, 사용자 검증 단계(330)동안, 생체 인식 식별자는 등록 동안 저장된 버전과 비교된다.
보다 구체적으로, 검증 프로세스동안, 단계 (305)-(320)과 관련하여 설명된 바와 같이, 사용자의 손가락들이 포착되고, 생체 인식 식별자가 생성된다. 그러나, 단계 (330)에서, 질의(query) 특징 벡터는 등록되고 저장된 특징 벡터와 비교된다. 비교에 기초하여, 매칭의 유사성에 관하여 구성된 프로세서 (110)에 의해 매치 스코어(match score)가 생성된다. 매치 스코어가 충분히 근접한 매칭을 나타내는 경우, 사용자는 검증 절차를 통과하는 것으로 결정될 수 있다.
하나 이상의 구현예에서, 상기 매칭 스코어는 질의 지문(query fingerprints )(예를 들어, 질의 특징 벡터)을 등록된 지문과 개별적으로 매칭시키고 결합된 매치 스코어를 결정하는 것에 기초한 결합 매칭 스코어(combined match score)일 수 있다. 보다 구체적으로, 손 이미지의 데이터베이스로부터, 이미지는 두 개의 뚜렷한 분류의 쌍 : 동일한 손의 이미지 쌍 및 상이한 손의 이미지 쌍으로 쌍을 이룰 수 있다. 이 손에 있는 각 손가락 쌍(예를 들어, 검지와 검지)에 대해, 보다 근접한 매치를 나타내는 높은 스코어로 이들 손 이미지의 근접 정도를 측정하는 매치 스코어를 계산할 수 있다.
이 스코어는 스코어 분포를 형성하기 위해 플롯팅(plotting) 될 수 있다. 각 유형의 손가락(예를 들어, 약지)에는 동일한 손의 동일한 손가락과 일치하는 이미지의 스코어와 다른 손(즉, 위장자)의 동일한 손가락의 두 가지 분포가 있다.
이러한 스코어 분포는 주어진 매치 스코어가 분포 중 하나에 속할 확률을 제공하는 확률 분포로 간주될 수 있다. 이러한 경험적으로 도출된 분포는 노이즈의 평활화(smoothed of noise)가 가능하며, 알려진 분포, 예를 들어 감마 분포에 적합화시킴으로써 간단하게 특성화될 수 있다.
특징이 없는 한 쌍의 손가락 이미지가 주어지면, 상기 예시적인 식별 시스템은 매치 스코어를 결정하도록 구성될 수 있다. 이러한 적합화된 확률 분포는 한 쌍의 손가락 이미지가 동일한 손가락 또는 다른 손가락에 속하는 확률 (개연성 비율)의 비율을 결정하는데 사용될 수 있다.
4개 손가락 전체의 매칭을 수행하는 경우, 구성된 시스템은 하나의 알려지지 않은 이미지 ('프로브' 이미지, probe image)를 이미 알려진 피사체의 이전에 등록된 이미지('갤러리' 이미지, gallery image)에 대하여 테스트할 수 있다. 갤러리 손가락에 대한 각 프로브 손가락 쌍에 대해 시스템은 개연성 비율을 결정할 수 있다. 그런 다음, 이러한 비율을 곱할 수 있으며, 최종 결과는 프로브 이미지가 갤러리 이미지를 제공한 피사체에 속할 확률을 전체적으로 측정한다.
이 방법은 예측 능력이 약한 특정 손가락에 의해 저하되지 않는 이점이 있다; 특히 새끼 손가락은 다른 손가락보다 명확하게 예측 매치를 제공할 가능성이 적다. 또한, 열등한 이미지(bad image)에 대해 어느 정도 허용한다. 한 손가락이 열악한 매치를 만들면 다른 손가락이 특히 잘 매칭하는 경우 벌충할(compensate) 수 있다.
여러 손가락의 스코어를 합치면, 열등한 이미지에 대한 허용 오차(tolerance)를 제공하지만, 이론적으로 단일 프로브/갤러리 매치 스코어가 전체 통과(overall pass)를 유발할만큼 충분히 클 수 있다. 예를 들어, 공격자(attacker)가 인증된 사용자의 손가락 중 하나에 대해 매우 높은 품질의 팩시밀리(facsimile)를 생성할 수 있는 경우, 스푸핑을 쉽게 할 수 있다. 이 문제를 완화하는 예시적인 방법은, 매칭 및 스코어링 프로세스동안 프로세서에 의해, 양성 매치(positive match)를 결정하기 위한 제 1 매치 임계 수치를 통과하는 스코어의 조합을 필요로 할 뿐만 아니라 제 2 임계수치를 통과하는 매치 스코어를 개별적으로 생성하는 프로브 손가락의 최소 수를 요구하는 단계를 포함할 수 있다. 따라서, 이 방법은 모든 성공적인 스푸핑이 손가락의 최소 개수를 성공적으로 복제해야하므로, 한 손가락 복제를 성공하는 것보다 어려운 작업이다. 인증 프로세스에 의해 요구되는 제 2 임계수치 이상으로 스코어링하는 손가락들의 최소 수 및 제 2 임계수치는, 구현예의 보안 필요성에 부합하기위하여, 저하된 이미지 품질에 대한 복원력과 스푸핑의 위험을 교환하도록 조정될 수 있음을 알 수 있다.
일반적으로 질의 손가락 데이터(query finger data)를 등록된 손가락 데이터(enrolled finger data)와 비교할 때, 각 이미지의 비율을 비슷하게 보장하는 것이 중요하다. 따라서, 단계 (320)에서 지문 이미지를 분석하는 동안, 구성된 프로세서 (110)는 지문 융선의 기본 주파수(frequency)를 결정할 수 있다. 등록단계(예를 들어, 단계 (325))에서, 구성된 프로세서는 기본 주파수(frequency)를 저장할 수 있다. 검증단계(예를 들어, 단계 (330))에서, 구성된 프로세서는 지문의 비교 전에 등록된 지문의 기본 주파수(frequency)와 일치하도록 검증 지문의 기본 주파수를 스케일링할 수 있다. 추가적으로 또는 대안적으로, 상기 프로세서는 실제 주파수(frequency)가 저장될 필요가 없도록 지문 주파수(frequency)를 소정의 기준 주파수(reference frequency)(예를 들어, 1)로 정규화할 수 있다. 따라서, 인식 단계 중에, 질의 지문은 소정의 기준 수치로 정규화될 수 있다.
특징 벡터를 생성하기 이전 또는 인증동안 특징 벡터들을 비교하기 이전에 하나 이상의 전처리 작동(pre-processing operations)이 이미지 프레임들에 대해 수행될 수 있다는 것을 이해해야한다. 예를 들어 비제한적으로, 분석 이전의 이미지 데이터에 대한 전-처리는 당 업자가 이해할 수 있는 좌표 공간 등의 이미지 프레임의 방향을 결정하는 단계(orienting)를 포함할 수 있다.
기존의 스케일링 알고리즘(scaling algorithm)을 구현하는 이미지-기반 지문 인식과 관련한 기존 기술은, 일반적으로 지문의 약 2%에 대해 스케일링 착오(mis-scale)가 발생하여 인증 중에 잘못된 거절(rejects)을 초래한다. 이러한 결과의 일부 원인은, 이미지에서 불충분한 수의 참조 점(예를 들어, 오로지 두 점만을 사용하는 것; 지문의 끝(tip)/시작점(starting)과 지문의 기본(base)/끝(end)점)을 사용하여 크기 및 스케일이 감소되는 알고리즘에 기인한다. 개시된 하나 이상의 구현예에 따르면, 스케일링 작동을 개선하기 위해, 상기 프로세서는 손가락 지문의 평균 주파수(예를 들어, 1 인치당 일반적인 라인 수)를 분석하고 지문의 스케일을 정규화하는 알고리즘을 구현할 수 있다. 이 기술은 지문 영역의 많은 지점에서 찍은 더 큰 지문 픽셀 세트를 기준으로 스케일링을 판단하기 때문에, 스케일링 프로세스 중에 상당히 높은 신뢰도을 얻을 수 있다.
등록 및 검증 단계 전 및/또는 후에, 상기 방법은 또한 실물성(liveness)을 검출하는 단계를 포함할 수 있다. 실물성 검사는 도 3의 단계 (335)로 도시된다. 실물성 검출 방법은 포착된 4개의 손가락 이미지가, 예를 들어, 손가락이 인쇄된 스푸핑 또는 몰드가 아닌 실제 손가락에서 나온 것인지를 검증하도록 구현될 수 있다. 보다 구체적으로, 일부 구현예에서, 바람직하게는 분석 모듈 (172)을 포함하는 소프트웨어 모듈 (130)을 실행함으로써 구성된 모바일 장치 프로세서 (110)는 손가락 이미지 품질을 분석하고 그들이 실제 손가락 및/또는 위장자 손가락으로부터 구성된 이미지인지 여부를 결정할 수 있으며, 위장자 손가락은 일반적으로 해상도 및 선명도 감소와 같은 현저한 결함(artifact)을 가지고 있습니다.
예를 들어, 본 명세서에서 추가로 기술되는 바와 같이, 하나의 실물성 검출 기술은 사용자가 촬영(imaging) 중에 손을 회전하도록 유도할 수 있으며, 구성된 프로세서는 촬영된 손이, 예를 들어, 모션(motion) 기술로부터의 깊이(depth) 및 초점(focus) 기술로부터의 깊이(depth)를 사용하여, 적절하게 3차원임을 결정할 수 있다. 대안적으로, 상기 시스템은, 예를 들어, 이미지 품질을 분석하여 그것이 충분히 선명하고(sharp) 저해상도(예를 들어, 손의 스푸핑 지문으로 얻음)가 아닌지를 체크하기위한 수동적(passive) 실물성 검출을 위한 기술을 구현할 수 있다. 구성된 프로세서는 또한 손가락의 색상을 분석하여 채색이 사용자 손의 실제 손 이미지 및/또는 알려진 색상과 일치하는지 여부를 결정할 수 있다. 따라서, 일부 구현예에서, 색 일관성(color consistence), 즉 손의 색 균일성(color uniformity)은 손끝과 손을 동시에 검출함으로써 수행될 수 있다. 그런 다음, 손바닥과 아래 지골(phalange) (즉, 근위(proximal) 및 중간(intermediate)으로 구성된 손가락 말단을 포함하지 않는 손의 영역을 분리한 다음, 이 영역의 색상 히스토그램과 4개의 손가락 말단 영역의 색상 히스토그램을 결정한다. 마지막으로, 일부 구현예에서, 이들 2가지 히스토그램을 비교하는 것은, 특히 공격자(attacker)가 몰드(즉, 위장자 손가락)를 사용하여 시스템을 스푸핑하는 경우, 실물성 측정을 결정하기 위해 손 및 손가락의 색 균일성에 대한 테스트로서 이용될 수 있다. 또한, 구성된 프로세서는 사용자가 손가락을 넓히거나 닫거나 특정 손가락을 특정 방식으로 움직이는 것과 같이, 손가락으로 하나 이상의 몸짓을 취하도록 요청할 수 있다.
또한, 일부 구현예에서, 분류기는 실물(live)과 스푸핑(spoof)을 구별하도록 트레이닝될 수있다. 분류기는 실제 손가락 이미지와 다양한 스푸핑 이미지의 차이를 알 수 있도록 트레이닝될 수 있다. 분류기를 구현하는 프로세서는 그 트레이닝에 기초하여 패스 페일(pass fail) 결과를 제공하도록 구성될 수 있다.
또한, 일부 구현예에서, 생체 인식 실물성의 추가 요소로서, 이미지에서의 지문의 위치가 고려될 수 있는데, 진정한 사용자는 특정 길이의 제1, 제2, 제3 및 제4 손가락을 가질 것이다. 사용자가 손가락을 함께 펴서 모은 상태에서 손을 고정할 때, 4개의 손가락 지문의 위치는 해당 사용자와 일치하는 상대적인 위치를 가져야한다. 이 정보는 스푸핑 공격을 방지하는 추가 보안 검사로 사용할 수 있다. 예를 들어, 전화 화면에서 잠복된 지문을 발견한 해커는 사용자의 손가락 길이를 추측할 수 없으므로 올바르게 그들을 나타낼 수 없을 것이다.
도 3과 관련하여 설명된 예시적인 시스템 및 방법에 더하여, 다양한 대안 및 변형이 고려된다. 일부 구현예에서, 사용자의 손가락의 등록 이미지는 모바일 장치 카메라에 의해 반드시 포착되는 것은 아니다. 그 대신, 손가락 이미지의 사전-기록 된(pre-recorded) 데이터베이스와 같은 대체 소스로부터 손가락 특징 벡터를 얻을 수 있다.
일부 구현예에서, 등록 프로세스동안, 손가락의 포착을 위해, 예를 들어 제한없이, 개선된 해상도를 갖는 4개 또는 10개의 손가락에 대해, 각 손가락의 이미지는 개별 이미지로 순차적으로 포착될 수 있다. 이 경우, 등록 프로세스동안, 스크린 상 손가락 가이드를 디스플레이하는 구성된 프로세서는 사용자가 한 번에 한 손가락을 화면에 위치시키도록 유도할 수 있으며, 세분화 알고리즘은 손가락의 말단 지골(distal phalange) 및 지문 영역을 개별적으로 식별하는데 사용될 수 있다.
일부 구현예에서, 매칭 프로세스(예를 들어, 단계 (330))를 손가락 말단(예를 들어, 말단 지골) 영역의 비교로 제한하는 대신에, 상기 비교는 지문에 추가하여 또는 지문 대신 손의 다른 부분을 포함할 수 있다. 예를 들어, 관심 영역은 탐지 가능한 패터닝이 있는 손의 모든 부분 또는 말단 및 중간 지골 또는 중수골(metacarpal)을 포함할 수 있다. 이러한 영역 중 일부는 스푸핑 공격에 대한 저항력이 높으므로 더 높은 수준의 보안을 제공한다는 장점이 있다. 예를 들어, 사용자의 손가락 말단 지문은 스마트 폰 케이스 또는 사용자가 접촉한 다른 표면에서 종종 발견될 수 있다. 이러한 잠재적인 지문은 위장자(imposter)에 의해 복사될 수 있으며, 검증을 통과할 수 있는 몰드가 생성된다. 그러나, 중수골의 지문은 손의 이러한 영역이 표면에 접촉하여 잠재적인(latent) 지문을 남기는 것이 일반적이지 않기 때문에 찾기가 훨씬 더 어렵다.
일부 구현예에서, 특이점(singular point)을 사용하여 네 손가락 클러스터를 분리된 손가락으로 분리하는 대신, 사용자는 포착 중에 손가락을 넓히도록 유도될 수 있다. 그런 다음, 세분화 알고리즘을 사용하여 손가락을 분리할 수 있으며, 윤곽 변형(contour deformation) 방법을 사용하여 각 손가락 말단의 위치를 식별할 수 있다.
일부 구현예에서, 적절한(pertinent) 손가락 영역의 세분화는 피부색, 주파수(frequency) 및 방향(orientation)을 사용하여 수행될 수 있다. 예를 들어, 소벨 (Sobel) 오퍼레이터는 세분화 프로세스를 돕기 위해, 초점이 맞춰진 영역(즉, 배경보다는 손가락)을 강조하기 위하여 구성된 프로세서에 의해 구현될 수 있다. 추가적으로 또는 대안적으로, 상기한 세분화는 포착 프로세스동안 사용자가 손가락을 위치시키도록 가이드된 영역에 관해 포착된 이미지로부터 고정된 영역을 단순히 추출함으로써 수행될 수 있다.
일부 구현예에서, 인증 프로세스동안, 세분화(segmentation)는 등록된 지문 정보를 사용하여 수행될 수 있다. 등록하는 동안 생성된 지문 템플릿을 기반으로 지문 특징을 세분화하고 식별 및/또는 매칭함으로써 기존 기술보다 향상된 기능을 제공할 수 있다. 예를 들어, 기존의 이미지-기반 지문 인식 기술은 등록 및 인증 과정에서와 동일한 방법으로 지문을 격리하고, 결과적으로 신뢰성 있는 사용을 하기에는 불만족스러운 이미지로부터 단일 지문을 격리한다. 경우에 따라, 기존 방법을 사용한 성공적인 격리는 인증 과정에서 4%의 잘못된 거부를 초래하면서 96%만 발생한다. 이 기술을 여러 손가락에서 개별적으로 사용하면, 이 문제가 더욱 복잡해진다.
그러나, 본원에서 하나 이상의 개시된 구현예에 따르면, 지문 격리(fingerprint isolation)를 위한 다른 알고리즘이 상기 구성된 프로세서, 즉 등록된 지문을 사용하여 손가락(들)을 발견하고 인증 동안 지문을 격리/매칭시키는 프로세서에 의해 수행된다. 이는 훨씬 더 강력한 성능을 제공한다. 일부 구현예에서, 상기 구성된 프로세서는 예를 들어, 전체 네 손가락 이미지로부터 손가락 특징(예를 들어, 특징점(minutiae))을 추출하고, 이미지의 모든 위치를 등록된 지문의 손가락 특징과 철저히 비교함으로써 손가락 영역을 위치시킴으로써 세분화 프로세스를 구현할 수 있다. 손가락 영역은 등록된 손가락이 이미지 내의 손가락 특징과 매칭되는 것으로 발견된 곳에 위치하는 것으로 알려져 있다. 또한, 이미지에서 임의의 특징들에 의한 잘못된 매칭(false matching)의 가능성을 최소화하기 위해, 4개의 손가락을 포착하는 과정의 경우에, 제1, 제2, 제3, 및 제4 손가락이 사용자 가이드 오버레이 이미지(user guidance overlay image)로 예상한대로 대략적으로 발견되는지, 피부색도 예상한 대로인지 등(예를 들어, 비교를 가이드하기위한 등록 템플릿을 사용한 템플릿 매칭)을 확인함으로써 매칭된 영역의 유효성(validity)을 점검할 수 있다. 또한, 이 프로세스를 사용하여 손가락 위치에 대한 전체 이미지를 검색하는 대신, 사용자 가이드 오버레이 이미지로부터 예상된 손가락 영역으로 검색 범위를 제한할 수 있다.
기본 융선 주파수(frequency)에 대한 손가락 스케일링을 기초로 하는 것에 추가적으로 또는 대안적으로, 프로세서 (110)는 다음 중 하나 이상에 기초하여 지문을 스케일링 하도록 구성될 수 있다 : 분할된 4개 손가락 클러스터의 폭, 각 손가락의 관심 영역의 폭 또는 길이, 또는 특이점(singular points)과 같은 손가락 상 특정 지점과 지골 관절(phalange joint)상 두꺼운 선.
특징점(minutiae)에 기초한 매칭 손가락뿐만 아니라(또는 대신), 프로세서 (110)는 텍스처에 기초하여 지문을 매칭하도록 구성될 수도 있다.
또한, 일부 구현예에서, 손가락에 대해 하나의 이미지를 사용하는 대신에, 몇몇 이미지가 사용자를 등록 또는 인증하는데 사용될 수 있다. 강조된 영역의 심도(depth of field) 및/또는 동적 범위를 갖는 이미지를 생성하기 위해, 다양한 노출 및/또는 초점 거리에서 카메라 (145)를 사용하여 구성된 프로세서 (110)에 의해 다중 이미지가 포착될 수 있다. 이러한 다양한 노출 및/또는 초점 거리로 이미지를 포착하면, 손의 여러 위치에서 지문의 초점이 최적이 되도록 하는데 도움이 될 수 있다. 따라서, 구성된 프로세서는 손가락의 관심 부분에 최적의 초점을 갖는 이미지 또는 이미지 부분을 선택하고 분석할 수 있다.
추가적으로 또는 대안적으로, 실물성 검출은 다른 메트릭(metrics)이 지문 또는 비디오 또는 성형된(molded) 손가락 스푸핑이 아닌 실제 손가락의 메트릭과 일치하는지를 검사함으로써 구현될 수 있다. 이러한 메트릭은 이미지(imagery)에서 포착한 플래시의 정반사 분석, 플래시, 색상, 색조 메트릭 없이 촬영한 이미지(흑백 및 단색 스푸핑을 거절하기 위하여)와 비교하여 플래시의 정반사(specular reflections) 분석이 포함될 수 있다.
일부 구현예에서, 실물성은 손가락의 이미지로부터 얻어진 초점 정보로부터의 정반사 또는 깊이의 분석에 의해 검출될 수 있다. 비-제한적인 예로서, 초점 정보로부터 정반사 및 깊이에 기초한 실물성 결정을 위한 예시적인 시스템 및 방법은 본 명세서 및 동시 계류중이며 공동 양도 된 2014년 10월 15일 출원된 미국 특허 출원 제 62/066,957 호, "AND METHODS FOR PERFORMING IRIS IDENTIFICATION AND VERIFICATION USING MOBILE DEVICES UTILIZING VISIBLE SPECTRUM LIGHTING"이 본 출원에 이들 전체로서 개진된 것과 같이 참고문헌으로 포함된다. 또한, 실물성은 카메라에 의해 포착된 일련의 이미지 전체에 걸쳐 묘사된 손가락 기울이기 또는 손가락의 넓힘(spreading)/좁힘(narrowing)과 같은 손가락의 동적 움직임(예를 들어, 손가락 제스처)의 분석에 의해 검출될 수 있다. 비-제한적인 예로서, 생체인식 특징 및 제스처의 동적 움직임에 기초한 실물성 결정을 위한 예시적인 시스템 및 방법은 본 명세서 및 동시 계류 중이며 공동 양도된 2014년 8월 26일 출원된 미국 특허 출원 제62/041,803 호, "SYSTEM AND METHOD FOR DETERMINING LIVENESS"이 본 출원에 이들 전체로서 개진된 것과 같이 참고문헌으로 포함된다.
일부 실시예에서, 손가락의 이미지를 포착하는 동안 손가락 융선에 방출되는 빛의 반사율(reflectivity) 분석을 수행함으로써 실물성을 검출 할 수있다. 실제 손가락 융선(live finger ridges)은 플래시를 균일하게 반사하지 못하지만, 인쇄된 손가락은 플래시를 균일하게 반사한다. 따라서, 손가락의 이미지에서 포착된 융선 반사 특성을 분석하여 실물성을 결정할 수 있다. 반사율에 기초하여 실물성을 결정하기위한 예시적인 프로세스는 도 5의 흐름 다이어그램 및 대응 이미지 5b 내지 5c과 관련하여 본 명세서에서 추가로 설명된다. 단계 (505)에서, 실물성 검출 알고리즘(liveness detection algorithm)에 대한 입력(inputs)이 얻어진다. 입력에는 플래시-온(flash on) 상태로 포착한 하나 이상의 손가락의 고해상도 이미지와 플래시-오프(flash off)로 포착한 손가락의 고해상도 이미지가 포함된다. 손가락(들)의 예시적인 플래시-온(505A) 및 플래시-오프 이미지(505B)는 도 5b에 도시된다. 단계 (510)에서, 플래시-온 이미지(들)는 이미지 내의 지문이 격리되도록 크기가 조정된다. 단계 (515)에서, 대응하는 손가락을 포함하는 플래시-오프 이미지 (들)의 영역이 세분화된다(예를 들어, 상술한 예시적인 지문 세분화 알고리즘에 따름). 따라서, 플래시-온 이미지에 묘사된 지문 및 플래시-오프 이미지에 대응하는 지문은 추가적인 처리를 위해 격리된다. 예시적으로 격리된 손가락 말단의 플래시-온 및 플래시-오프 이미지는 각각 도 5b에서 이미지 510A 및 515B로 도시된다. 그 후, 단계 (520)에서, 하이 패스 필터(high pass filter)가 융선을 묘사하는 이미지의 부분을 갖도록 적용된다. 예시적으로 필터링된 손가락 말단의 플래시-온 및 플래시-오프 이미지는 도 5b에서 이미지 520A 및 520B로 도시된다. 그 다음, 단계 (525)에서, 실물성 스코어가 계산된다. 하나의 예시적인 배열에서, 실물성 스코어는 (a)필터링된 플래시-오프 이미지로부터 생성된 히스토그램의 표준편차 및 그에 대응하는 표준 편차 (b) 필터링된 플래시-온 이미지로부터 생성된 히스토그램의 표준 편차의 함수로서 계산된다(즉, 실물성 스코어=a/b). 예를 들어, 지문의 스푸핑 이미지에 프로세스 (500)를 적용하는 동안 얻어진 유사한 이미지가 도 5c에 도시된다. 다른 구현예에서, 필터링된 플래시-온 및 플래시-오프 이미지의 히스토그램으로부터 계산된 다른 측정치들로 실물성 스코어를 계산할 수 있다. 다음은 사용할 수 있는 측정치의 몇 가지 예이다 : (1) 히스토그램의 평균의 차이, (2) 히스토그램 주파수(frequencies) 평균의 차이, (3) 히스토그램 주파수의 표준 편차(standard deviation) 비율, (4) 히스토그램의 첨도(kurtosis) 간의 차이, 및/ 또는 (5) 필터링된 플래시-온 및 플래시-오프 이미지에서 대응하는 키 포인트 수. 일부 구현예에서, 플래시-온 및 플래시-오프 이미지의 배경의 픽셀 강도의 차이가 실물성 측정치로서 사용될 수 있다.
또한, 도 6a 내지도 6f는 카메라 시야에 관련하여 다양한 위치에서 포착된 손가락의 예시적인 융선 이미지를 나타낸다. 특히, 도 6a는 카메라로부터 너무 멀고 낮은 지문 해상도를 갖는 손가락에 대한 포착된 이미지 및 대응하는 융선 이미지를 도시한다. 도 6b는 카메라로부터 너무 멀고 낮은 지문 해상도를 갖는 손가락에 대해 포착된 이미지 및 대응하는 지문 이미지를 도시한다. 도 6c는 카메라에 충분히 가깝고 시야 중심에 있는 손가락 배치로 인해 좋은 해상도를 나타내는 포착된 이미지 및 대응하는 융선 이미지를 도시한다. 도 6d는 높은 각도의 LED 반사로 인한 검지 및 새끼 손가락의 가장자리에서의 반사의 손실을 나타내는 포착된 이미지 및 대응하는 융선 이미지를 도시한다. 도 6e는 손가락이 카메라 시야의 가장자리 부근에 배치될 때 고각(high angle) LED 반사로 인한 손가락 말단의 반사 손실을 나타내는 포착된 이미지 및 대응하는 융선 이미지를 도시한다. 도 6f는 손가락이 카메라 시야의 가장자리 부근에 배치 될 때 고각 LED 반사로 인해 손가락 말단에서의 반사 손실을 나타내는 포착된 이미지 및 대응하는 융선 이미지를 도시한다.
일부 구현예에서, 지문-기반 인증은 멀티-모드 생체 인식(multi-modal biometrics)의 강화된 보안/신뢰성을 제공하기 위하여 추가적으로 안면 인식과 결합될 수 있다. 예를 들어, 스마트 폰의 경우, 정면 카메라를 사용하여 얼굴 및/또는 홍채 포착함과 동시에 또는 순차적으로 스마트 폰 후방 카메라를 사용하여 사용자의 4개의 손가락이 포착될 수 있다. 비-제한적인 예로서, 하이브리드 생체 인식 식별자를 생성하고 하이브리드 생체 인식 식별자를 사용하여 식별/인증을 수행하는 예시적인 시스템 및 방법은 본 출원과 공동 계류 중인 공동 양도된 2015년 5월 4일자로 출원된 미국 특허 출원 제 62/156,645 호, "SYSTEM AND METHOD FOR GENERATING HYBRID BIOMETRIC IDENTIFIERS"이 본 출원에 이들 전체로서 개진된 것과 같이 참고문헌으로 포함된다.
추가적인 예로서, 전술한 바와 같이, 루틴 (300)에 따라 손가락 특징 벡터를 생성함으로써 사용자를 특성화하는 것 이외에, 단계 (305)에서 포착된 이미지 (들)로부터, 또는 개별적으로 포착된 생체인식 정보로부터 추가적인 생체인식 특징을 추출할 수있다. 예를 들어 비-제한적으로, 이러한 추가적인 생체인식 특징은 소프트 생체인식 특성(soft biometric traits) 및 하드 생체인식 특성(hard biometirc traits)을 포함 할 수 있다. "소프트 생체인식(soft biometric)" 특성은 육체적, 행동적 또는 부가적인 인간의 특성인 반면, 지문, 홍채, 눈 주위의 특성 등과 같은 하드 생체인식 특성은 일반적으로 변하지 않는다. 추가적인 예로서, 소프트 생체인식 특성은 피부 텍스처 또는 피부색과 같은 신체적 특징을 포함할 수 있다. 소프트 생체 인식에는 스마트 폰 자이로스코프(gyroscope)/가속도계(accelerometer)로 감지된 동작, 안구 추적 알고리즘으로 감지된 안구 운동 특성 및 얼굴 및/또는 머리의 움직임을 추적하여 감지된 머리 동작 특성도 포함될 수 있다. 이러한 생체인식 특징은 기존의 생체인식 분석 알고리즘(biometric analysis algorithms)뿐만 아니라 전술한 방법에 따라 추출되고 특징화 될 수 있다. 또한, 사용자의 생체인식 특징의 추가 특성화는 단계 (320)에서 생성된 생체 인식 식별자의 일부로서 인코딩되거나, 그렇지 않으면 예를 들어, 다수의 생체 인식 식별자를 융합시킴으로써 지문 생체 인식 식별자를 포함하는 복합(composite) 생체 인식 식별자에 포함될 수 있다.
하나 이상의 실시예에서, 손가락 이미지 포착은 스마트 폰과 같은 휴대용(hand held)장치를 사용하는 사용자에 의해 통상적으로 수행되는 것보다 먼 거리에서 수행될 수 있다. 예시적인 실시예는 단거리(short-range)에서 장거리(long-range) 이미지 획득 방식을 사용하여 이미지를 포착하도록 구성된 시스템을 사용하여 유사하게 구현될 수 있다. 원거리의 이미지 획득은 예를 들어, 망원렌즈(telephoto-lens)를 사용하는 다양한 종류의 광학 기반 시스템과 같은 광학 방식(optical modalities)뿐만 아니라 레이저 중심(laser focused) 기반 시스템 및 음파 탐지기 기반(sonar-based) 시스템으로 수행 될 수 있다. 이러한 유형의 장거리 이미지 포착 방식은 법 집행(law enforcement), 군대(military) 및 정보(intelligence) 분야에서 중요할 수 있으며 궁극적으로는 상업적 환경에 사용할 수 있다.
또한, 피사체가 고정되어 있지않은 동안 이미지 포착이 수행될 수 있으며, 이러한 구현은 본 명세서에서 이동 지문(Fingerprint on the Move, FOM) 시스템으로 지칭된다. 이러한 유형의 기회 포착은 비밀 작전(covert operation) 및/또는 감시 모드(surveillance modes)에서 이 작업을 맡은 특수 작업자가 사람의 지문을 볼 수 있게 되어 시간이 지남에 따라 동시에 발생할 수 있다.
멀리서 포착하기 위해서, 다수의 프레임의 데이터를 사용하여 지문 품질을 높이고, 다른 프레임의 부분 지문 영역을 더 큰 지문 이미지로 스티칭(stitch) 할 수있는 초고해상도 기술을 구현할 수 있다. 비-제한적인 예로서, 다수의 이미지 포착에 기초하여 식별자를 생성하고 이를 이용하여 식별/인증을 수행하기위한 초고해상도 기술을 수행하기 위한 예시적인 시스템 및 방법은 본 명세서 및 공동 계류중인 공동 양도된 2014년 10월 15일 출원된 미국 특허 출원 제 62/066,957호 "SYSTEM AND METHODS FOR PERFORMING IRIS IDENTIFICATION AND VERIFICATION USING MOBILE DEVICES UTILIZING VISIBLE SPECTRUM LIGHTING"이 참고문헌으로 포함된다.
또한, NIR 및 IR 광 스펙트럼에서 포착된 이미지를 사용하고 NIR 및/또는 IR 광 방출기를 갖춘 장치를 사용하여 손가락 지문 획득 및 식별을 수행하기 위한 상기 절차가 유사하게 수행될 수 있다는 것을 알 수 있다. 이러한 구현예는 추가 생체 인식 요소로 정맥(vein) 패턴 식별을 통합하는데 특히 유용할 수 있다. 비-제한적인 예로서, NIR 및 IR 광 방출기를 사용하고 식별/인증을 수행하는 NIR 및 IR 스펙트럼 대역에서 생체인식 이미지를 포착하기위한 예시적인 시스템 및 방법이 본 명세서 및 공동 계류 중인 공동 양도된 2015년 3월 6일 출원된 미국 특허 출원 제62/129,277호 "SYSTEMS AND METHODS FOR PERFORMING IRIS IDENTIFICATION AND VERIFICATION USING MOBILE DEVICES"이 본 출원에 이들 전체로서 개진된 것과 같이 참고문헌으로 포함된다.
이 시점에서, 상기 설명의 대부분은 종래의 스마트 폰 장치를 사용하여 포착된 사용자의 생체인식 특징에 따라 사용자를 인증하기위한 시스템 및 방법에 관한 것이지만, 본 명세서에 개시된 시스템 및 방법은 참조된 시나리오를 벗어나는 시나리오, 상황 및 설정에서 유사하게 배치되고/되거나 구현될 수 있음에 유의하여야 한다.
본 명세서는 많은 특정 구현예의 상세사항을 포함하나, 임의의 구현예시 범위 또는 특허범위에 대한 한정으로서 해석되어서는 안 되고, 오히려 특정한 구현의 특정한 구현예에 특정할 수 있는 특징의 설명으로서 해석되어야 한다. 별개의 구현예의 맥락에서 본 명세서에 기술된 어떤 특징은 단일의 구현예에서 조합되어 구현될 수도 있다. 역으로, 단일의 구현예의 맥락에서 기술된 다양한 특징은 별개로 또는 임의의 적합한 서브조합(subcombination)으로 다수의 구현예에서 구현될 수도 있다. 더욱이, 특징은 어떤 조합으로 작용하는 것으로 서 전술되고 처음에 이와 같이 특허청구될 수도 있으나, 특허청구된 조합으로부터의 하나 이상의 특징이 몇몇 경우에 그 조합으로부터 삭제질 수 있고, 특허청구된 조합은 서브조합 또는 서브조합의 변형에 관한 것일 수 있다.
유사하게, 작동이 특정한 순서로 도면 내에 묘사되었으나, 이것은 목적하는 결과를 달성하기 위해 그러한 동작이 도시된 특정한 순서로 또는 순차적인 순서로 수행될 것 또는 모든 예시된 동작이 수행될 것을 요구하는 것으로 이해되어서는 안 된다. 어떤 상황에서, 멀티태스킹(multitasking) 및 병렬 처리(parallel processing)가 유리할 수 있다. 더욱이, 앞서 기술된 구현예 내의 다양한 시스템 컴포넌트의 분리는 모든 구현예에서의 그러한 분리를 요구하는 것으로서 이해되어서는 안 되고, 상기 기술된 프로그램 컴포넌트 및 시스템은 일반적으로 단일 소프트웨어 제품 내에 함께 통합되거나 다수의 소프트웨어 제품으로 패키징될 수 있음이 이해되어야 한다.
본원에서 사용된 용어는 단지 특정한 구현예들을 기술하는 목적을 위한 것이고 발명을 한정하도록 의도된 것이 아니다. 본원에서 사용되는 바와 같이, 문맥이 명백히 달리 나타내지 않는 한, 단수 형태 "하나" 및 "상기"(a, an, the)는 복수 형태도 포함하도록 의도된다. 용어 "포함하다"(comprises) 및/또는 "포함하는"(comprising)은 본 명세서에서 사용될 때 언급된 특징, 정수, 단계, 동작, 구성요소 및/또는 컴포넌트의 존재를 명시하나, 하나 이상의 다른 특징, 정수, 단계, 동작, 구성요소, 컴포넌트 및 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해될 것이다. 청구항 구성요소를 수정하기 위한 청구항 내의 "제1", "제2", "제3" 등등과 같은 서수 용어의 사용은 그것만으로 어떠한 우선, 선행 또는 하나의 청구항 구성요소가 다른 것을 제치는 순서 또는 방법의 행위가 수행되는 시간적 순서도 내포하지 않으나, 어떤 명칭을 갖는 하나의 청구항 구성요소를 (서수 용어의 사용을 위한 것이지만) 동일한 명칭을 갖는 다른 구성요소와 구별하여 청구항 구성요소들을 구별하기 위해 단지 라벨로서 사용됨에 유의하여야 한다. 또한, 본 출원에서 사용된 자구(phraseology) 및 용어는 설명의 목적을 위한 것이며 한정적인 것으로 해석되어서는 안 된다. "포함하는"(including), "포함하는"(comprising) 또는 "가지는"(having), "함유하는"(containing), "수반하는"(involving) 및 이들의 변형의 사용은 이후에 열거된 항목 및 이의 균등물은 물론 추가적인 항목도 망라하도록 의도된 것이다. 도면 내의 유사한 숫자는 여러 도면 도처에서 유사한 구성요소를 나타낸다는 점, 그리고 도면을 참조하여 기술되고 예시된 모든 컴포넌트 및/또는 단계가 모든 구현예 또는 배열에 요구되는 것은 아니라는 점이 이해되어야 한다
그러므로, 본 시스템 및 방법의 예시적인 구현예 및 배열은 사용자의 생체인식 정보에 따라 사용자를 인증하기 위하여 컴퓨터 구현된(computer implemented) 방법, 컴퓨터 시스템 및 컴퓨터 프로그램 제품을 제공한다. 도면 내의 흐름도 및 블록 다이어그램은 다양한 실시예 및 배열에 따른 시스템, 방법 및 컴퓨터 프로그램 제품의 가능한 구현의 구조, 기능성 및 동작을 예시한다. 이와 관련하여, 흐름도 또는 블록 다이어그램 내의 각 블록은 지정된 논리적 기능(들)을 구현하기 위한 하나 이상의 실행가능한 명령어를 포함하는 코드(code)의 모듈(module), 세그먼트(segment) 또는 부분을 나타낼 수 있다. 몇몇 대안적인 구현에서, 블록 내에 언급된 기능은 도면 내에 언급된 순서와 달리 일어날 수 있음에 또한 유의하여야 한다. 예를 들면, 잇달아 도시된 두 개의 블록은 사실 실질적으로 동시에 실행될 수 있거나, 관여된 기능성에 따라 그 블록들은 때때로 역순으로 실행될 수 있다. 블록 다이어그램 및/또는 흐름도 예시의 각 블록, 그리고 블록 다이어 그램 및/또는 흐름도 예시 내의 블록의 조합은 지정된 기능 또는 행위를 수행하는 특수 목적 하드웨어 기반 시스템, 또는 특수목적 하드웨어 및 컴퓨터 명령어의 조합에 의해 구현될 수 있음에 또한 유의할 것이다.
앞서 기술된 대상(subject matter)은 단지 예시로서 제공되며 한정적인 것으로 해석되어서는 안 된다. 예시되고 기술된 예시적 구현예 및 적용을 따르지 않고서, 그리고 이하의 청구항에 개진된, 본 발명의 진정한 사상 및 범주로부터 벗어나지 않고서, 본 출원에 기술된 대상에 대해 다양한 수정 및 변화가 행해질 수 있다.

Claims (20)

  1. 지문 인식을 수행하는 방법으로서, 상기 방법은,
    카메라를 갖는 컴퓨팅 장치에 의해, 저장 매체(storage medium)에 저장된 명령어(instructions)를 포함하는 저장 매체에 대한 액세스(access), 및 상기 명령어를 실행함으로써 구성된 프로세서로, 피사체(subject)의 복수의 손가락을 묘사하는 이미지를 포착(capturing)하는 단계;
    손가락 검출 알고리즘(finger detection algorithm)을 사용하여 상기 프로세서로, 복수의 손가락 검출 알고리즘을 적용하여 하나 이상의 이미지에 묘사된 복수의 손가락을 검출하는 단계로서, 여기서 복수의 손가락 검출 알고리즘이 적용되는 순서는 상기 프로세서로, 측정된 환경 조건(environmental condition), 모바일 장치의 하드웨어 성능(hardware capability), 및 상기 피사체의 하나 이상의 예상 특성 중 하나 이상을 기반으로 결정되는 단계;
    세분화 알고리즘(segmentation algorithm)에 따라, 하나 이상의 이미지로부터 상기 프로세서로 복수의 손가락 중 각 손가락에 대한 각각의 손가락 말단 부분(fingertip segment)을 식별하는 단계;
    상기 각 손가락에 대해 상기 프로세서로, 각각의 손가락 말단 부분(fingertip segment)으로부터 식별 특징(discriminatory features)을 추출(extracting)하는 단계;
    상기 추출된 식별 특징을 포함하는 생체 인식 식별자(biometric identifier)를 생성(generating)하는 단계; 및
    상기 생성된 생체 인식 식별자를 상기 프로세서를 사용하여 메모리에 저장(storing)하는 단계를 포함하는 지문 인식을 수행하는 방법.
  2. 제1항에 있어서, 상기 복수의 손가락을 검출하는 단계는 복수의 손가락 검출 알고리즘을 순차적으로 적용하는 단계를 포함하는 것을 특징으로 하는 방법.
  3. 지문 인식을 수행하는 방법으로서, 상기 방법은,
    카메라를 갖는 컴퓨팅 장치, 저장 매체에 대한 액세스(access), 상기 저장 매체에 저장된 명령어 및 상기 명령어를 실행함으로써 구성된 프로세서로, 피사체(subject)의 복수의 손가락을 묘사하는 이미지를 포착(capturing)하는 단계;
    손가락 검출 알고리즘(finger detection algorithm)을 사용하여 상기 프로세서로, 복수의 손가락 검출 알고리즘을 적용하여 하나 이상의 이미지에 묘사된 복수의 손가락을 검출하는 단계로서,
    복수의 손가락 검출 알고리즘 중에서 제1 손가락 검출 알고리즘을 선택하는 단계,
    상기 제1 손가락 검출 알고리즘을 사용하여 상기 프로세서로, 하나 이상의 이미지에 묘사된 적어도 하나 이상의 손가락 후보 세트(candidate set)를 검출하는 단계,
    적어도 하나 이상의 손가락 후보 세트가 복수의 손가락을 나타낼 가능성을 나타내는 품질 메트릭을 계산하는 단계, 및
    규정된 임계값을 충족하지 않는 품질을 기반으로, 다른 손가락 검출 알고리즘을 선택하고 이전 검출 및 컴퓨팅 단계를 반복하는 단계로서, 다른 손가락 검출 알고리즘은 제1 손가락 검출 알고리즘과 상이한 것을 포함하는 단계;
    세분화 알고리즘에 따라 하나 이상의 이미지로부터 상기 프로세서로, 복수의 손가락 중 각 손가락에 대한 각각의 손가락 말단 부분을 식별하는 단계;
    상기 각 손가락에 대한 상기 프로세서로, 각각의 손가락 말단 부분으로부터 식별 특징을 추출하는 단계;
    상기 추출된 식별 특징을 포함하는 생체 인식 식별자(biometric identifier)를 생성(generating)하는 단계; 및
    상기 프로세서로, 상기 생성된 생체 인식 식별자를 저장하는 단계를 포함하는 방법.
  4. 제3항에 있어서, 상기 다른 손가락 검출 알고리즘은 상기 제1 손가락 검출 알고리즘과 상이하게 트레이닝되는 분류기인 것을 특징으로 하는 방법.
  5. 제1항에 있어서, 상기 복수의 손가락을 검출하는 단계는:
    하나 이상의 센서를 사용하는 프로세서로, 주변 빛 조건(ambient lighting condition)을 측정하는 단계;
    상기 프로세서로, 상기 측정된 주변 빛 조건에 기초하여 상기 복수의 손가락 검출 알고리즘 중에서 제1 손가락 검출 알고리즘을 식별하는 단계; 및
    상기 프로세서로, 상기 제1 손가락 검출 알고리즘을 상기 하나 이상의 이미지에 적용하는 단계를, 추가로 포함하는 것을 특징으로 하는 방법.
  6. 제5항에 있어서, 상기 복수의 손가락 검출 알고리즘은 각각의 주변 빛 레벨에 따라 트레이닝된 계층적 분류기(cascade classifer)를 포함하는 것을 특징으로 하는 방법.
  7. 제1항에 있어서, 상기 하나 이상의 이미지로부터 상기 프로세서로, 상기 하나 이상의 이미지 내의 상기 복수의 손가락이 위치적으로 안정하다는 것을 결정하는 단계를 추가적으로 포함하는 것을 특징으로 하는 방법.
  8. 제7항에 있어서, 상기 하나 이상의 이미지 내에서 상기 손가락들이 위치적으로 안정하다는 것을 결정하는 단계는,
    물체 추적 알고리즘(object tracking algorithm)에 따라 상기 프로세서로, 제 1 이미지 내의 하나 이상의 손가락의 각각의 위치 및 상기 이미지들 중 일련의 후속 이미지에 걸쳐 상기 하나 이상의 손가락의 위치 변화를 결정(determining)하는 단계;
    상기 위치의 각각의 변화에 기초하여 상기 하나 이상의 손가락의 이동 속도를 계산(calculating)하는 단계; 및
    임계 속도 이하로 떨어지는 상기 속도에 기초하여 상기 복수의 손가락이 위치적으로 안정하다는 것을 검증(verifying)하는 단계를, 포함하는 것을 특징으로 하는 방법.
  9. 제8항에 있어서, 상기 물체 추적 알고리즘에 따라 결정하는 단계는,
    상기 결정된 위치 및 위치 변화에 기초하여 제1 물체 추적 알고리즘과 제2 물체 추적 알고리즘 사이를 동적으로 전환하는(switching) 단계를 포함하는 것을 특징으로 하는 방법.
  10. 제1항에 있어서, 상기 각각의 손가락 말단 부분에 대한 식별 특징을 추출하는 단계는,
    특징점(minutiae) 추출 알고리즘에 따라 상기 각각의 손가락 말단 부분으로부터 각각의 손가락 끝의 각 특징점을 추출하는 단계; 및
    각 손가락에 대해, 생채 인식 식별자에서 추출된 특징점을 나타내는 각 특징 벡터를 인코딩하는 단계를 포함하는 것을 특징으로 하는 방법.
  11. 카메라, 저장 매체(storage medium), 상기 저장 매체 상에 저장된 명령어 및 상기 명령어를 실행하는 것에 의해 구성된 프로세서를 가진 모바일 장치(mobile device)에 의해 피사체(subject)의 손가락을 묘사하는 이미지를 포착(capturing)하는 단계;
    상기 프로세서로, 손의 적어도 일부, 이미지의 이미지에 묘사된 적어도 하나 이상의 손가락을 포함하는 손의 일부 및 이미지에서 검출된 부분의 위치를 찾도록 구성된 물체 검출 알고리즘을 사용하여 검출하는 단계로서, 상기 물체 검출 알고리즘은 적어도 하나 이상의 손가락을 묘사하는 임의의 영역을 검출하기 위해 이미지의 영역을 검사하도록 트레이닝된 분류기이고, 상기 물제 검출 알고리즘은 HOG, LBP 및 Haar 특징 분류기 중 하나 이상이고;
    세분화 알고리즘에 따라 상기 프로세서로, 상기 이미지의 이미지로부터 적어도 하나 이상의 손가락 말단 부분을 식별하는 단계로서, 상기 세분화 알고리즘은 적어도 하나 이상의 손가락을 포함하는 손의 일부를 검출하는 것에 기초하고 상기 위치의 함수로 적용되고, 상기 세분화 알고리즘은, 적어도 하나 이상의 손가락을 묘사하는 것으로 결정된 영역 내에서 임의의 손가락 말단 부분을 검출하도록 트레이닝된 분류기이며, 상기 세분화 알고리즘은 HOG, LBP 및 Haar 특징 분류기(Haar feature classifier) 중 하나 이상이고;
    상기 추출된 식별 특징을 포함하는 생체 인식 식별자(biometric identifier)를 생성(generating)하는 단계로서, 상기 생체 인식 식별자를 생성하는 단계는 식별된 손가락 말단 부분으로부터 식별 특징을 추출하는 단계를 포함하며; 및
    상기 생성된 생체 인식 식별자를 상기 프로세서로 상기 저장 매체에 저장하는 단계를 포함하는, 지문 인식을 수행하는 방법
  12. 제11항에 있어서, 상기 물체 검출 알고리즘은 손(hand), 손가락(finger), 손가락 말단(finger tip), 중간 지골(intermediate phalange), 손바닥(palm), 손가락 관절(finger joint), 및 손가락 그룹 중 적어도 하나 이상을 검출하도록 트레이닝되며, 상기 세분화 알고리즘은 상기 물체 검출 알고리즘에 의해 검출된 부분의 위치에 기초하여 상기 이미지에 적용되는 것을 특징으로 하는 방법.
  13. 제11항에 있어서, 상기 손의 일부를 검출하는 단계는,
    제1 물체 검출 알고리즘을 사용하여 상기 프로세서로, 상기 이미지에 묘사된 손의 영역 및 이미지에서 검출된 영역의 위치를 검출하는 단계로서, 상기 영역은 손, 손가락 및 손가락 그룹 중 하나 이상을 포함하며;
    제1 물체 검출 알고리즘을 사용하여 상기 손의 영역을 검출하는 단계에 기초하여, 제2 물체 검출 알고리즘을 사용하여 상기 프로세서로, 상기 손가락 말단을 검출하는 단계를 포함하는 것을 특징으로 하는 방법.
  14. 제11항에 있어서, 이미지의 순서(sequence of images)를 포착하는 단계; 및 상기 이미지의 순서의 각 이미지 내에서 손의 일부 및 검출된 부분의 각 위치를 검출하는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
  15. 제11항에 있어서, 상기 손의 일부를 검출하는 단계는,
    상기 물체 검출 알고리즘을 사용하여 손가락의 적어도 일부를 검출하는 단계; 및
    손가락의 검출된 부분이 손가락 말단을 포함할 가능성을 나타내는 이미지에서 검출된 부분에 대한 품질 메트릭(quality metric)를 계산하는 단계로서, 상기 손가락 말단 부분을 식별하는 단계는 규정된 점수를 충족하거나 초과하는 상기 품질 메트릭을 기초하여 수행되는 단계를, 추가로 포함하는 것을 특징으로 하는 방법.
  16. 제14항에 있어서, 상기 이미지의 순서 전에 검출된 손가락의 각 위치에 기초하여 후속 이미지의 순서에서 상기 손가락 및 손가락의 각 위치를 검출하기 위해, 상기 물체 검출 알고리즘을 적용하는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
  17. 제11항에 있어서,
    상기 프로세서로, 상기 생체 인식 식별자를 사용자와 관련된 미리 저장된 생체 인식 식별자와 비교하는 단계; 및
    상기 비교에 기초하여, 상기 피사체가 사용자라는 것을 결정하는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
  18. 제11항에 있어서, 상기 손가락 말단 부분에 대한 식별 특징을 추출하는 단계는,
    손가락 말단 부분의 이미지에 묘사된 식별 특징을 강조시키고, 상기 손가락 말단 부분의 이미지로부터 비-식별 특징을 제외함으로서 손가락 말단 부분의 이미지를 강조시키는 단계를 포함하고,
    상기 생체 인식 식별자를 생성하는 단계는, 상기 강조된 손가락 말단 부분의 이미지를 지문 이미지의 로컬 데이터 베이스(local database) 및 원격 데이터 베이스(remote database)에 저장하는 단계를 포함하는 것을 특징으로 하는 방법.
  19. 제18항에 있어서, 상기 식별 특징을 강조시키는 단계는,
    지문 융선(fingerprint ridges)의 예상된 주파수에 상응하지 않는 주파수를 갖는 신호를 제거하도록 구성된 필터를 적용하는 단계; 및
    지문 융선 및 고랑(furrow) 사이의 대비를 증가시키도록 구성된 강조 필터(enhancement filter)를 적용하는 단계를 포함하는 것을 특징으로 하는 방법.
  20. 지문 인식을 수행하기 위한 시스템으로서,
    카메라(camera), 저장 매체(storage medium), 디스플레이(display), 및 상기 카메라, 상기 디스플레이 및 상기 저장 매체와 작동 통신하는 프로세서를 갖는 모바일 장치(mobile device);
    상기 저장 매체에 저장된 코드 형태의 명령어를 포함하는 소프트웨어 어플리케이션(software application)으로서, 상기 명령어는 상기 프로세서에서 실행가능하며, 프로세서를 하기와 같이 구성하는 것인 시스템:
    카메라로 피사체의 손가락을 묘사하는 이미지 포착(capture)하고;
    손의 적어도 일부, 이미지의 이미지에 묘사된 적어도 하나 이상의 손가락을 포함하는 손의 일부 및 이미지에서 검출된 부분의 위치를 찾도록 구성된 물체 검출 알고리즘을 사용하여 검출(detect)하며, 상기 물체 검출 알고리즘은 적어도 하나 이상의 손가락을 묘사하는 임의의 영역을 검출하기 위해 이미지의 영역을 검사하도록 트레이닝된 분류기이고, 상기 물제 검출 알고리즘은 HOG, LBP 및 Haar 특징 분류기 중 하나 이상이고;
    세분화 알고리즘에 따라, 상기 이미지의 이미지로부터 적어도 하나 이상의 손가락 말단 부분을 식별(identify)하며, 상기 세분화 알고리즘은 적어도 하나 이상의 손가락을 포함하는 손의 일부를 검출하는 것에 기초하고 상기 위치의 함수로 적용되고, 상기 세분화 알고리즘은, 적어도 하나 이상의 손가락을 묘사하는 것으로 결정된 영역 내에서 임의의 손가락 말단 부분을 검출하도록 트레이닝된 분류기이며, 상기 세분화 알고리즘은 HOG, LBP 및 Haar 특징 분류기(Haar feature classifier) 중 하나 이상이고;
    추출된 식별 특징을 포함하는 생체 인식 식별자를 생성(generate)하며, 상기 생체 인식 식별자 생성하는 단계는 식별된 손가락 말단 부분으로부터 식별 특징을 추출하는 단계를 포함하고;
    상기 생성된 생체 인식 식별자를 상기 프로세서를 사용하여 상기 저장 매체에 저장한다.
KR1020237033952A 2015-02-06 2016-01-29 모바일 장치를 사용하여 촬영된 이미지를 이용한 지문-기반 사용자 인증 수행 시스템 및 방법 KR20230149320A (ko)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US201562112961P 2015-02-06 2015-02-06
US62/112,961 2015-02-06
US14/819,639 US9361507B1 (en) 2015-02-06 2015-08-06 Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US14/819,639 2015-08-06
US14/988,833 US9424458B1 (en) 2015-02-06 2016-01-06 Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US14/988,833 2016-01-06
KR1020177025019A KR102587193B1 (ko) 2015-02-06 2016-01-29 모바일 장치를 사용하여 촬영된 이미지를 이용한 지문-기반 사용자 인증 수행 시스템 및 방법
PCT/IB2016/000569 WO2016125030A2 (en) 2015-02-06 2016-01-29 Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020177025019A Division KR102587193B1 (ko) 2015-02-06 2016-01-29 모바일 장치를 사용하여 촬영된 이미지를 이용한 지문-기반 사용자 인증 수행 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR20230149320A true KR20230149320A (ko) 2023-10-26

Family

ID=56564833

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020177025019A KR102587193B1 (ko) 2015-02-06 2016-01-29 모바일 장치를 사용하여 촬영된 이미지를 이용한 지문-기반 사용자 인증 수행 시스템 및 방법
KR1020237033952A KR20230149320A (ko) 2015-02-06 2016-01-29 모바일 장치를 사용하여 촬영된 이미지를 이용한 지문-기반 사용자 인증 수행 시스템 및 방법

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020177025019A KR102587193B1 (ko) 2015-02-06 2016-01-29 모바일 장치를 사용하여 촬영된 이미지를 이용한 지문-기반 사용자 인증 수행 시스템 및 방법

Country Status (12)

Country Link
US (5) US9424458B1 (ko)
EP (1) EP3254232A2 (ko)
JP (2) JP6650946B2 (ko)
KR (2) KR102587193B1 (ko)
CN (2) CN114120375A (ko)
AU (1) AU2016214084B2 (ko)
BR (1) BR112017016942B1 (ko)
CA (2) CA2976049C (ko)
CO (1) CO2017008821A2 (ko)
MX (5) MX2021012376A (ko)
WO (1) WO2016125030A2 (ko)
ZA (1) ZA201705814B (ko)

Families Citing this family (96)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102592111B (zh) 2006-04-26 2016-07-06 阿瓦尔有限公司 指纹预检质量和分割
US9268991B2 (en) * 2012-03-27 2016-02-23 Synaptics Incorporated Method of and system for enrolling and matching biometric data
WO2015025933A1 (ja) * 2013-08-21 2015-02-26 日本電気株式会社 指紋照合用指紋コア抽出装置、指紋照合システム、指紋コア抽出方法、及びそのプログラム
WO2016081726A1 (en) * 2014-11-19 2016-05-26 Booz Allen & Hamilton Device, system, and method for forensic analysis
US9424458B1 (en) * 2015-02-06 2016-08-23 Hoyos Labs Ip Ltd. Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US11263432B2 (en) 2015-02-06 2022-03-01 Veridium Ip Limited Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US10339362B2 (en) * 2016-12-08 2019-07-02 Veridium Ip Limited Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US10387704B2 (en) * 2015-06-29 2019-08-20 Qualcomm Incorporated Method and apparatus for enabling the touchscreen display of a mobile device
US10339178B2 (en) * 2015-06-30 2019-07-02 Samsung Electronics Co., Ltd. Fingerprint recognition method and apparatus
US20170026836A1 (en) * 2015-07-20 2017-01-26 University Of Maryland, College Park Attribute-based continuous user authentication on mobile devices
CN105069435A (zh) * 2015-08-14 2015-11-18 福建联迪商用设备有限公司 指纹识别的方法及系统
US10068078B2 (en) * 2015-10-15 2018-09-04 Microsoft Technology Licensing, Llc Electronic devices with improved iris recognition and methods thereof
US10176377B2 (en) * 2015-11-02 2019-01-08 Fotonation Limited Iris liveness detection for mobile devices
US10130429B1 (en) * 2016-01-06 2018-11-20 Ethicon Llc Methods, systems, and devices for controlling movement of a robotic surgical system
US10373019B2 (en) * 2016-01-13 2019-08-06 Ford Global Technologies, Llc Low- and high-fidelity classifiers applied to road-scene images
KR102448863B1 (ko) * 2016-03-08 2022-09-30 엘지전자 주식회사 이동단말기 및 그 제어방법
FR3049090B1 (fr) * 2016-03-21 2021-06-25 Sebastien Jean Serge Dupont Dispositif d'authentification biometrique adaptatif par echographie, photographies en lumiere visible de contraste et infrarouge, sans divulgation, a travers un reseau informatique decentralise
US10438041B2 (en) * 2016-04-13 2019-10-08 AMI Research & Development, LLC Techniques for fingerprint detection and user authentication
US11048786B2 (en) 2016-04-13 2021-06-29 AMI Research & Development, LLC Techniques for fingerprint detection and user authentication
EP3232369B1 (en) * 2016-04-15 2021-06-16 Nxp B.V. Fingerprint authentication system and method
US10040574B1 (en) * 2016-04-26 2018-08-07 James William Laske, Jr. Airplane anti-hijacking system
US10133857B2 (en) * 2016-05-18 2018-11-20 Bank Of America Corporation Phalangeal authentication device
US9905267B1 (en) 2016-07-13 2018-02-27 Gracenote, Inc. Computing system with DVE template selection and video content item generation feature
US10198613B2 (en) * 2016-09-09 2019-02-05 MorphoTrak, LLC Latent fingerprint pattern estimation
GB2556625A (en) * 2016-10-27 2018-06-06 Zwipe As Secure enrolment of biometric data
US10121054B2 (en) * 2016-11-10 2018-11-06 Synaptics Incorporated Systems and methods for improving spoof detection based on matcher alignment information
EP3552150A4 (en) * 2016-12-08 2020-10-21 Veridium IP Limited SYSTEMS AND METHODS FOR PERFORMING FINGERPRINT-BASED USER AUTHENTICATION USING CAPTURED IMAGES USING MOBILE DEVICES
US10552662B2 (en) * 2016-12-30 2020-02-04 Beyond Time Investments Limited Optical identification method
JP6862899B2 (ja) 2017-02-21 2021-04-21 富士通株式会社 情報処理装置、生体認証方法、生体認証プログラム
WO2018175603A1 (en) * 2017-03-21 2018-09-27 Sri International Robust biometric access control using physiological-informed multi-signal correlation
US20180279940A1 (en) * 2017-03-30 2018-10-04 James Campbell Disease Detection Device and Method for Detection of Abnormal Immunological Activity
US10331937B2 (en) 2017-04-19 2019-06-25 International Business Machines Corporation Method and system for context-driven fingerprint scanning to track unauthorized usage of mobile devices
CN110826516B (zh) 2017-05-03 2023-04-18 Oppo广东移动通信有限公司 光学指纹验证方法及相关产品
SE1750720A1 (en) * 2017-06-07 2018-12-08 Fingerprint Cards Ab Fingerprint authentication method and system for rejecting spoof attempts
US11095678B2 (en) * 2017-07-12 2021-08-17 The Boeing Company Mobile security countermeasures
US11734944B2 (en) * 2017-08-03 2023-08-22 Himax Technologies Limited Display device with embedded biometric detection function in active region
EP3679519A4 (en) * 2017-09-07 2021-06-02 Fingerprint Cards AB METHOD AND FINGERPRINT DETECTION SYSTEM FOR DETERMINING FINGER CONTACT WITH A FINGERPRINT SENSOR
EP3698272B1 (en) * 2017-10-18 2023-11-29 Fingerprint Cards Anacatum IP AB Differentiating between live and spoof fingers in fingerprint analysis by machine learning
US11023757B2 (en) 2018-02-14 2021-06-01 Samsung Electronics Co., Ltd. Method and apparatus with liveness verification
EP3540635B1 (en) * 2018-03-16 2020-08-26 Identy Inc. Method for identifying an object within an image and mobile device for executing the method
KR102017749B1 (ko) * 2018-04-24 2019-09-03 울산과학기술원 다중 생체신호를 이용한 개인 인증 방법 및 시스템
CN108764093B (zh) * 2018-05-21 2021-06-04 中国人民解放军战略支援部队信息工程大学 基于相机的非接触指纹图像采集装置及方法
US11171951B2 (en) * 2018-06-07 2021-11-09 Paypal, Inc. Device interface output based on biometric input orientation and captured proximate data
WO2020009991A1 (en) * 2018-07-03 2020-01-09 Tinoq Inc. Systems and methods for matching identity and readily accessible personal identifier information based on transaction timestamp
KR20200004701A (ko) 2018-07-04 2020-01-14 삼성전자주식회사 지문 인식 방법 및 디바이스
US11481615B1 (en) * 2018-07-16 2022-10-25 Xilinx, Inc. Anti-spoofing of neural networks
US11216541B2 (en) * 2018-09-07 2022-01-04 Qualcomm Incorporated User adaptation for biometric authentication
CN112566547A (zh) * 2018-09-11 2021-03-26 A·李 用于生物特征识别的压力记录系统和方法
US10990805B2 (en) * 2018-09-12 2021-04-27 Apple Inc. Hybrid mode illumination for facial recognition authentication
US11281755B2 (en) 2018-09-13 2022-03-22 Hong Chang Systems and methods for secure biometric identification using recorded pressure
WO2020067990A1 (en) * 2018-09-27 2020-04-02 Coolpay Pte. Ltd. Biometric identification method
US10929516B2 (en) * 2018-10-08 2021-02-23 Advanced New Technologies Co., Ltd. Dynamic grip signature for personal authentication
CN109614844B (zh) * 2018-10-16 2023-01-24 创新先进技术有限公司 一种链路验证方法、装置及设备
KR102383669B1 (ko) 2018-10-23 2022-04-06 한국전자통신연구원 Hlbp 디스크립터 정보를 이용한 시차 최소화 스티칭 장치 및 방법
CN109391622A (zh) * 2018-10-31 2019-02-26 北京中电华大电子设计有限责任公司 一种加载规则的指纹认证云安全系统和方法
CN109239900B (zh) * 2018-11-07 2020-10-16 华东师范大学 一种用于显微数字图像大视野采集的全自动快速聚焦方法
CN111259691B (zh) * 2018-11-30 2024-01-19 上海耕岩智能科技有限公司 一种生物特征分析方法及存储介质
CN109738061B (zh) * 2019-01-11 2020-02-18 华南理工大学 一种面向照度计检定的照度计位置自动对准方法及系统
ES2943287T3 (es) * 2019-02-26 2023-06-12 Identy Inc Método para verificar la identidad de un usuario identificando un objeto dentro de una imagen que tiene una característica biométrica del usuario y separando una porción de la imagen que comprende la característica biométrica de otras porciones de la imagen
US10832485B1 (en) * 2019-06-24 2020-11-10 Verizon Patent And Licensing Inc. CAPTCHA authentication via augmented reality
US11636577B2 (en) * 2019-06-27 2023-04-25 Samsung Electronics Co., Ltd. Method and apparatus with blur estimation
US11017198B2 (en) * 2019-07-01 2021-05-25 Gemalto Cogent Inc Slap segmentation of contactless fingerprint images
US10984219B2 (en) 2019-07-19 2021-04-20 Idmission, Llc Fingerprint processing with liveness detection
US11244135B2 (en) * 2019-08-01 2022-02-08 Novatek Microelectronics Corp. Electronic circuit having display driving function, touch sensing function and fingerprint sensing function
US11625939B2 (en) * 2019-08-01 2023-04-11 Novatek Microelectronics Corp. Electronic circuit having display driving function, touch sensing function and fingerprint sensing function
KR20210017269A (ko) * 2019-08-07 2021-02-17 삼성전자주식회사 보정 데이터의 획득을 위한 방법 및 이를 위한 전자 장치
EP3772699A1 (en) * 2019-08-09 2021-02-10 Siemens Aktiengesellschaft Method for user verification, communication device and computer program
US11941629B2 (en) * 2019-09-27 2024-03-26 Amazon Technologies, Inc. Electronic device for automated user identification
EP3832407B1 (fr) * 2019-12-06 2024-03-27 Tissot S.A. Procédé de connexion sécurisée d'une montre à un serveur distant
CN114830191A (zh) * 2019-12-12 2022-07-29 松下知识产权经营株式会社 指纹登记方法和用户终端装置
CN111144331B (zh) * 2019-12-27 2023-06-13 中国计量大学 手肘静脉图像肘正中静脉的识别方法及手肘图像采集装置
CN111339932B (zh) * 2020-02-25 2022-10-14 南昌航空大学 一种掌纹图像预处理方法和系统
DE102020202946A1 (de) 2020-03-08 2021-09-09 Volkswagen Aktiengesellschaft Verfahren zum Bereitstellen des Zugangs zu einem Gerät sowie Kraftfahrzeug
KR20210119647A (ko) * 2020-03-25 2021-10-06 삼성전자주식회사 센서를 포함하는 전자 장치 및 이를 이용한 생체 정보 획득 방법
US11357580B2 (en) * 2020-04-10 2022-06-14 Smith & Nephew, Inc. Reciprocal optical tracking system and methods thereof
CN111898470B (zh) * 2020-07-09 2024-02-09 武汉华星光电技术有限公司 屏外指纹提取装置及方法、终端
CN111563561A (zh) 2020-07-13 2020-08-21 支付宝(杭州)信息技术有限公司 指纹图像的处理方法及装置
CN111862178B (zh) * 2020-07-31 2022-09-30 易思维(杭州)科技有限公司 改进的lbp特征提取方法
KR20220030704A (ko) * 2020-09-03 2022-03-11 삼성전자주식회사 우선순위에 따른 지문 스캔 방법 및 장치
CN112232155B (zh) * 2020-09-30 2021-12-17 墨奇科技(北京)有限公司 非接触指纹识别的方法、装置、终端及存储介质
CN112232157B (zh) * 2020-09-30 2022-03-18 墨奇科技(北京)有限公司 指纹区域检测方法、装置、设备、存储介质
WO2022068931A1 (zh) * 2020-09-30 2022-04-07 墨奇科技(北京)有限公司 非接触指纹识别方法、装置、终端及存储介质
CN112395965A (zh) * 2020-11-06 2021-02-23 山东鲁能软件技术有限公司 一种基于电力内网的移动终端人脸识别系统及方法
US11423689B1 (en) * 2021-02-09 2022-08-23 Guangzhou Tyrafos Semiconductor Tech. Co., Ltd. Identification method for an identification system
TWI799092B (zh) * 2021-02-09 2023-04-11 大陸商廣州印芯半導體技術有限公司 辨識系統的辨識方法
CN112966255A (zh) * 2021-03-15 2021-06-15 珠海艾派克微电子有限公司 芯片及成像盒
US11734949B1 (en) * 2021-03-23 2023-08-22 Amazon Technologies, Inc. System for biometric identification
US11462047B1 (en) * 2021-05-05 2022-10-04 Lenovo (Singapore) Pte. Ltd. Device having a camera overlaid by display as biometric sensor
KR102452192B1 (ko) * 2021-06-28 2022-10-11 주식회사 펫나우 반려 동물의 식별을 위한 객체의 이미지를 필터링하기 위한 방법 및 장치
JP2024518492A (ja) * 2021-06-28 2024-05-01 ペットナウ インコーポレイテッド ペットの識別のためのオブジェクトを撮影するための方法及び電子装置
KR102444928B1 (ko) * 2021-06-28 2022-09-21 주식회사 펫나우 반려 동물의 식별을 위한 객체를 검출하기 위한 방법 및 장치
KR102586144B1 (ko) * 2021-09-23 2023-10-10 주식회사 딥비전 딥러닝을 이용한 손 움직임 추적방법 및 장치
CN113936307B (zh) * 2021-12-17 2022-03-15 北京圣点云信息技术有限公司 一种基于薄膜传感器的静脉图像识别方法及装置
US11941911B2 (en) 2022-01-28 2024-03-26 Armatura Llc System and method for detecting liveness of biometric information
US11721132B1 (en) 2022-01-28 2023-08-08 Armatura Llc System and method for generating region of interests for palm liveness detection
US11688204B1 (en) * 2022-01-28 2023-06-27 Armatura Llc System and method for robust palm liveness detection using variations of images

Family Cites Families (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5335288A (en) * 1992-02-10 1994-08-02 Faulkner Keith W Apparatus and method for biometric identification
US5659626A (en) * 1994-10-20 1997-08-19 Calspan Corporation Fingerprint identification system
US6292576B1 (en) * 2000-02-29 2001-09-18 Digital Persona, Inc. Method and apparatus for distinguishing a human finger from a reproduction of a fingerprint
JP3825222B2 (ja) 2000-03-24 2006-09-27 松下電器産業株式会社 本人認証装置および本人認証システムならびに電子決済システム
JP2003058889A (ja) * 2001-08-10 2003-02-28 S Stuff:Kk 個人識別方法及び個人識別装置
JP2003178306A (ja) 2001-12-12 2003-06-27 Toshiba Corp 個人認証装置および個人認証方法
JP4217646B2 (ja) * 2004-03-26 2009-02-04 キヤノン株式会社 認証方法及び認証装置
JP4298644B2 (ja) 2004-12-17 2009-07-22 三菱電機株式会社 指紋照合装置、指紋照合方法、指紋照合プログラム、および指紋登録装置
US7515741B2 (en) * 2005-01-07 2009-04-07 Motorola, Inc. Adaptive fingerprint matching method and apparatus
US20070112701A1 (en) * 2005-08-15 2007-05-17 Microsoft Corporation Optimization of cascaded classifiers
KR100891324B1 (ko) * 2005-08-29 2009-03-31 삼성전자주식회사 휴대용 개인단말장치를 이용한 지문인식 시스템 및지문특징 추출장치 및 방법
CN102592111B (zh) 2006-04-26 2016-07-06 阿瓦尔有限公司 指纹预检质量和分割
JP5034359B2 (ja) 2006-08-07 2012-09-26 富士通株式会社 画像認証装置、画像認証方法、画像認証プログラム、記録媒体及び電子機器
US7660442B2 (en) 2006-09-01 2010-02-09 Handshot, Llc Method and system for capturing fingerprints, palm prints and hand geometry
JP4680158B2 (ja) 2006-09-13 2011-05-11 株式会社日立製作所 生体認証装置
KR100795187B1 (ko) * 2006-11-29 2008-01-16 엘지전자 주식회사 지문 인식 장치 및 방법
US20140233810A1 (en) 2007-06-11 2014-08-21 Lumidigm, Inc. Dermatoglyphic hand sensor
US8031981B2 (en) 2007-12-21 2011-10-04 Daon Holdings Limited Method and systems for generating a subset of biometric representations
US8200037B2 (en) 2008-01-28 2012-06-12 Microsoft Corporation Importance guided image transformation
EP2266099A1 (en) 2008-03-18 2010-12-29 Thomson Licensing Method and apparatus for adaptive feature of interest color model parameters estimation
JP5065965B2 (ja) 2008-03-31 2012-11-07 富士通株式会社 非接触型生体認証装置の生体誘導制御方法及び非接触型生体認証装置
JP5077956B2 (ja) 2008-04-23 2012-11-21 Kddi株式会社 情報端末装置
US8411913B2 (en) 2008-06-17 2013-04-02 The Hong Kong Polytechnic University Partial fingerprint recognition
US8358336B2 (en) 2008-07-25 2013-01-22 Handshot, Llc Frontal hand capture of fingerprints, palm prints and hand geometry using contactless photography
US10445555B2 (en) 2009-01-27 2019-10-15 Sciometrics, Llc Systems and methods for ridge-based fingerprint analysis
KR101549556B1 (ko) * 2009-03-06 2015-09-03 엘지전자 주식회사 휴대 단말기 및 그 제어방법
CN102045162A (zh) * 2009-10-16 2011-05-04 电子科技大学 一种三模态生物特征持证人身份鉴别系统及其控制方法
US8325993B2 (en) 2009-12-23 2012-12-04 Lockheed Martin Corporation Standoff and mobile fingerprint collection
CN101773394B (zh) * 2010-01-06 2011-09-07 中国航天员科研训练中心 身份识别方法及应用该方法的身份识别系统
JP5800175B2 (ja) * 2010-02-05 2015-10-28 ソニー株式会社 画像処理装置、画像処理方法、プログラム、及び電子機器
US9295415B2 (en) * 2010-03-04 2016-03-29 Nec Corporation Foreign object determination device, foreign object determination method and foreign object determination program
BR112012027863B1 (pt) 2010-04-30 2023-03-07 Janssen Biotech, Inc Polipeptídeos, arcabouços de proteína, bibliotecas e métodos de construção das mesmas, método para gerar uma ligação de arcabouço de proteína a um alvo específico com uma afinidade de ligação predefinida, moléculas de ácido nucleico isolada, vetores, células hospedeiras, composições, dispositivos médicos, e artigos de fabricação
US8649575B2 (en) * 2010-08-24 2014-02-11 Samsung Electronics Co., Ltd. Method and apparatus of a gesture based biometric system
US9165177B2 (en) 2010-10-08 2015-10-20 Advanced Optical Systems, Inc. Contactless fingerprint acquisition and processing
US8724861B1 (en) 2010-12-06 2014-05-13 University Of South Florida Fingertip force, location, and orientation sensor
US8548206B2 (en) 2011-01-20 2013-10-01 Daon Holdings Limited Methods and systems for capturing biometric data
WO2012115965A1 (en) * 2011-02-22 2012-08-30 Thomson Reuters Global Resources Entity fingerprints
US8971588B2 (en) 2011-03-30 2015-03-03 General Electric Company Apparatus and method for contactless high resolution handprint capture
JP5747642B2 (ja) 2011-05-06 2015-07-15 富士通株式会社 生体認証装置、生体認証システム、生体認証サーバ、生体認証クライアント及び生体認証装置制御方法
US8897491B2 (en) * 2011-06-06 2014-11-25 Microsoft Corporation System for finger recognition and tracking
US20130067545A1 (en) * 2011-09-13 2013-03-14 Sony Computer Entertainment America Llc Website Security
US20130272609A1 (en) * 2011-12-12 2013-10-17 Intel Corporation Scene segmentation using pre-capture image motion
JP5799817B2 (ja) 2012-01-12 2015-10-28 富士通株式会社 指位置検出装置、指位置検出方法及び指位置検出用コンピュータプログラム
JP6003124B2 (ja) 2012-03-15 2016-10-05 オムロン株式会社 認証装置、認証装置の制御方法、制御プログラム、および記録媒体
US9569655B2 (en) * 2012-04-25 2017-02-14 Jack Harper Digital voting logic for manufacturable finger asperity wafer-scale solid state palm print scan devices
US20130322705A1 (en) * 2012-05-30 2013-12-05 Google Inc. Facial and fingerprint authentication
US9727969B2 (en) 2012-08-17 2017-08-08 Sony Corporation Image processing device, image processing method, program, and image processing system
DE102012108838A1 (de) * 2012-09-19 2014-05-28 Cross Match Technologies Gmbh Verfahren und Vorrichtung zur Aufnahme von Fingerabdrücken auf Basis von Fingerabdruckscannern in zuverlässig hoher Qualität
US10140537B2 (en) * 2012-10-26 2018-11-27 Daon Holdings Limited Methods and systems for capturing biometric data
US9495526B2 (en) * 2013-03-15 2016-11-15 Eyelock Llc Efficient prevention of fraud
EP2981929B1 (en) 2013-04-02 2018-07-18 Precise Biometrics AB Fingerprint pore analysis for liveness detection
EP2797030B1 (en) * 2013-04-24 2021-06-16 Accenture Global Services Limited Biometric recognition
US9003196B2 (en) 2013-05-13 2015-04-07 Hoyos Labs Corp. System and method for authorizing access to access-controlled environments
US9294475B2 (en) 2013-05-13 2016-03-22 Hoyos Labs Ip, Ltd. System and method for generating a biometric identifier
JP6095478B2 (ja) * 2013-05-16 2017-03-15 スタンレー電気株式会社 入力操作装置
KR20150003501A (ko) * 2013-07-01 2015-01-09 삼성전자주식회사 전자 디바이스 및 전자 디바이스에서 지문을 이용한 인증 방법
JP6221505B2 (ja) * 2013-08-22 2017-11-01 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
US9898642B2 (en) 2013-09-09 2018-02-20 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US9025067B2 (en) 2013-10-09 2015-05-05 General Electric Company Apparatus and method for image super-resolution using integral shifting optics
KR101809543B1 (ko) * 2013-11-22 2017-12-18 삼성전자주식회사 비접촉식 지문 인식하는 방법 및 이를 수행하기 위한 전자 기기
FR3017230B1 (fr) 2014-02-04 2016-03-11 Morpho Procede de validation de l'utilisation d'un vrai doigt comme support d'une empreinte digitale
CA2939637A1 (en) 2014-02-12 2015-08-20 Advanced Optical Systems, Inc. On-the-go touchless fingerprint scanner
CN105096347B (zh) 2014-04-24 2017-09-08 富士通株式会社 图像处理装置和方法
US20150309663A1 (en) * 2014-04-28 2015-10-29 Qualcomm Incorporated Flexible air and surface multi-touch detection in mobile platform
CN104036273A (zh) * 2014-05-22 2014-09-10 南京信息工程大学 一种基于复合窗口sivv特征的指纹图像分割方法
US9785323B2 (en) * 2014-07-23 2017-10-10 Adobe Systems Incorporated Touch-based user interface control tiles
CN104580143A (zh) * 2014-11-09 2015-04-29 李若斌 一种基于手势识别的安全认证方法、终端、服务器和系统
WO2016081726A1 (en) * 2014-11-19 2016-05-26 Booz Allen & Hamilton Device, system, and method for forensic analysis
US11263432B2 (en) * 2015-02-06 2022-03-01 Veridium Ip Limited Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US9361507B1 (en) * 2015-02-06 2016-06-07 Hoyos Labs Ip Ltd. Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US9424458B1 (en) * 2015-02-06 2016-08-23 Hoyos Labs Ip Ltd. Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US10339362B2 (en) * 2016-12-08 2019-07-02 Veridium Ip Limited Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices

Also Published As

Publication number Publication date
US20160321496A1 (en) 2016-11-03
JP2020074174A (ja) 2020-05-14
US20160232401A1 (en) 2016-08-11
ZA201705814B (en) 2018-08-29
CA2976049C (en) 2023-07-18
EP3254232A2 (en) 2017-12-13
BR112017016942A2 (pt) 2018-04-03
AU2016214084B2 (en) 2021-05-27
WO2016125030A3 (en) 2016-11-10
US11188734B2 (en) 2021-11-30
US20180018501A1 (en) 2018-01-18
CN107438854A (zh) 2017-12-05
BR112017016942B1 (pt) 2023-12-05
US9785823B2 (en) 2017-10-10
AU2016214084A1 (en) 2017-08-31
US10521643B2 (en) 2019-12-31
KR102587193B1 (ko) 2023-10-06
JP2018508888A (ja) 2018-03-29
CN107438854B (zh) 2021-11-09
MX2020003006A (es) 2021-10-08
MX2021012376A (es) 2022-11-17
CO2017008821A2 (es) 2017-11-21
JP6650946B2 (ja) 2020-02-19
US9424458B1 (en) 2016-08-23
CN114120375A (zh) 2022-03-01
WO2016125030A2 (en) 2016-08-11
US20220165087A1 (en) 2022-05-26
MX2020003009A (es) 2021-10-08
US20200110921A1 (en) 2020-04-09
KR20170134356A (ko) 2017-12-06
CA2976049A1 (en) 2016-08-11
MX2020003007A (es) 2021-10-08
MX2017010166A (es) 2018-03-23
CA3199703A1 (en) 2016-08-11

Similar Documents

Publication Publication Date Title
KR102587193B1 (ko) 모바일 장치를 사용하여 촬영된 이미지를 이용한 지문-기반 사용자 인증 수행 시스템 및 방법
US10339362B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US9361507B1 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US11263432B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
JP7242528B2 (ja) モバイルデバイスを用いてキャプチャした画像を使用する、指紋によるユーザ認証を実施するためのシステムおよび方法
CN112232155B (zh) 非接触指纹识别的方法、装置、终端及存储介质
CN112232163B (zh) 指纹采集方法及装置、指纹比对方法及装置、设备
CN112232152A (zh) 非接触式指纹识别方法、装置、终端和存储介质

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination