KR102036978B1 - 라이브니스 검출 방법 및 디바이스, 및 아이덴티티 인증 방법 및 디바이스 - Google Patents

라이브니스 검출 방법 및 디바이스, 및 아이덴티티 인증 방법 및 디바이스 Download PDF

Info

Publication number
KR102036978B1
KR102036978B1 KR1020177037454A KR20177037454A KR102036978B1 KR 102036978 B1 KR102036978 B1 KR 102036978B1 KR 1020177037454 A KR1020177037454 A KR 1020177037454A KR 20177037454 A KR20177037454 A KR 20177037454A KR 102036978 B1 KR102036978 B1 KR 102036978B1
Authority
KR
South Korea
Prior art keywords
user
information
target position
screen
coordinate system
Prior art date
Application number
KR1020177037454A
Other languages
English (en)
Other versions
KR20180017056A (ko
Inventor
지동 천
량 리
Original Assignee
알리바바 그룹 홀딩 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 알리바바 그룹 홀딩 리미티드 filed Critical 알리바바 그룹 홀딩 리미티드
Priority claimed from PCT/US2016/036547 external-priority patent/WO2016201016A1/en
Publication of KR20180017056A publication Critical patent/KR20180017056A/ko
Application granted granted Critical
Publication of KR102036978B1 publication Critical patent/KR102036978B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0861Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • G06K9/00221
    • G06K9/00335
    • G06K9/00906
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Security & Cryptography (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Collating Specific Patterns (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

라이브니스 검출 및 아이덴티티 인증이 본 개시내용에 포함된다. 사용자의 생체 특성 정보가 수집되고 컴퓨팅 디바이스의 스크린 상의 초기 위치에 디스플레이된다. 초기 위치를 사용하여 목표 위치가 결정되고, 목표 위치가 스크린 상에 디스플레이된다. 사용자는 디스플레이된 생체 특성을 스크린 상의 초기 위치로부터 스크린 상의 목표 위치로 이동시키도록 하기 위해 사용자의 생체 특성 정보를 이동시키도록 프롬프팅된다. 사용자의 이동이 검출되고 검출된 사용자의 이동을 사용하여 디스플레이된 생체 특성 정보의 디스플레이 위치가 결정되고; 결정된 디스플레이 위치와 목표 위치 사이의 관계를 사용하여 사용자가 생물체인지 여부의 판정이 행해진다. 생물체의 생체 특성 정보는, 예컨대, 사용자가 로그인할 때, 검증되어, 그에 의해 보안을 개선시킬 수 있다.

Description

라이브니스 검출 방법 및 디바이스, 및 아이덴티티 인증 방법 및 디바이스
관련 출원에 대한 상호 참조
본 출원은 2015년 6월 10일자로 출원되고 발명의 명칭이 "Liveness Detection Method And Device, And Identity Authentication Method And Device"인 중국 특허 출원 제201510315782.2호, 및 2016년 6월 8일자로 출원되고 발명의 명칭이 "Liveness Detection Method and Device, and Identity Authentication Method and Device"인 미국 특허 출원 제15/176,515호의 이익을 주장하고, 이 특허 출원들은 이로써 본 명세서에 그 전체가 참조로 포함된다.
본 개시내용의 분야
본 개시내용은 보안 검증의 기술분야에 관한 것으로, 특히 라이브니스 검출(liveness detection) 방법 및 디바이스, 및 아이덴티티 인증(identity authentication) 방법 및 디바이스에 관한 것이다.
전통적인 아이덴티티 인증은 계정들 및 패스워드들에 기초하지만, 패스워드들은 쉽게 잊어버리고 유출된다. 이 때문에, 전통적인 패스워드 기반 아이덴티티 인증은 점점 더 많은 문제를 겪고 있다. 지문 및 얼굴 인식으로 나타내는 생체 식별 기술은 다양한 영역들에서 전통적인 패스워드 기반 아이덴티티 인증을 대체하고 있다. 그러나, 예로서 얼굴 기반 인증을 사용하면, 미인가된 사용자들이 인가된 사용자를 이들의 사진을 사용하여 모방할 수 있고, 그에 따라 종래의 생체 식별 기술에는 보안 위험들이 존재한다.
본 개시내용은 본 기술분야에서의 결함들을 해결하고자 하고 라이브니스 검출 방법을 제공하고자 하는 것으로, 여기서 이 방법은 사용자가 생물체(living being)인지 여부를 식별하는 것을 가능하게 하여, 사용자의 아이덴티티 인증 동안, 생물체의 생체 특성 정보만이 검증되고, 이는 보안을 개선시킨다.
본 개시내용의 적어도 하나의 양태에 따르면, 인증 동안 보안을 개선시키는 아이덴티티 인증 방법이 제공된다. 본 개시내용의 적어도 하나의 실시예에 따르면, 다른 양태는 라이브니스 검출 디바이스를 제공한다. 본 개시내용의 또 다른 양태에 따르면, 아이덴티티 인증 디바이스가 있다.
본 개시내용의 실시예들의 제1 양태에 따른 라이브니스 검출 방법은, 컴퓨팅 디바이스에 의해, 사용자의 생체 특성 정보를 수집하는 단계; 컴퓨팅 디바이스에 의해, 수집된 생체 특성 정보를 컴퓨팅 디바이스의 스크린 상의 초기 위치에 디스플레이하는 단계; 컴퓨팅 디바이스에 의해, 초기 위치를 사용하여 목표 위치를 결정하고, 목표 위치를 스크린 상에 디스플레이하는 단계; 컴퓨팅 디바이스에 의해, 디스플레이된 생체 특성을 스크린 상의 초기 위치로부터 스크린 상의 목표 위치로 이동시키도록 하기 위해 사용자의 생체 특성 정보를 이동시키도록 사용자에게 프롬프팅하는 단계; 컴퓨팅 디바이스에 의해, 사용자의 생체 특성 정보 이동을 검출하고, 검출된 사용자의 이동을 사용하여 디스플레이된 생체 특성 정보의 디스플레이 위치를 결정하는 단계; 및 컴퓨팅 디바이스에 의해, 결정된 디스플레이 위치와 목표 위치 사이의 관계를 사용하여 사용자가 생물체인지 여부를 판정하는 단계를 포함한다.
본 개시내용의 실시예들의 제1 양태에 따른 라이브니스 검출 방법에서, 생체 특성 정보를 스크린 상의 디스플레이 위치에 매핑하는 것에 의해, 그리고 디스플레이 위치와 목표 위치 사이의 관계에 기초하여, 사용자가 생물체인지 아닌지의 여부의 결정이 행해질 수 있다. 추가적으로 그리고 사용자 아이덴티티 인증 동안, 사용자를 인증하기 위해 생물체의 생체 특성 정보가 사용될 수 있고, 이는 보안을 개선시킨다.
본 개시내용의 실시예들의 제2 양태에 따른 아이덴티티 인증 방법은, 사용자의 아이덴티티 인증 명령어의 수신 시에, 컴퓨팅 디바이스가 사용자의 생체 특성 정보를 수집하는 단계; 컴퓨팅 디바이스에 의해, 수집된 생체 특성 정보에 따라 사용자가 생물체인지 여부를 판정하는 단계; 사용자가 생물체인 것으로 판정되는 경우, 컴퓨팅 디바이스가 사용자의 수집된 생체 특성 정보를 인증 서버에 전송하는 단계; 컴퓨팅 디바이스에 의해 그리고 인증 서버로부터, 사용자에 대응하는 미리 저장된 생체 특성 정보와 수집된 생체 특성 정보와의 비교의 아이덴티티 인증 결과를 수신하는 단계를 포함하고; 컴퓨팅 디바이스에 의해, 사용자가 생물체인지 여부를 판정하는 단계는, 수집된 생체 특성 정보의 적어도 일부를 컴퓨팅 디바이스의 스크린 상의 초기 위치에 디스플레이하는 단계; 초기 위치를 사용하여 목표 위치를 결정하고, 목표 위치를 스크린 상에 디스플레이하는 단계; 디스플레이된 생체 특성을 스크린 상의 초기 위치로부터 스크린 상의 목표 위치로 이동시키도록 하기 위해 사용자의 생체 특성 정보를 이동시키도록 사용자에게 프롬프팅하는 단계; 사용자의 생체 특성 정보 이동을 검출하고, 검출된 사용자의 이동을 사용하여 디스플레이된 생체 특성 정보의 디스플레이 위치를 결정하는 단계; 및 결정된 디스플레이 위치와 목표 위치 사이의 관계를 사용하여 사용자가 생물체인지 여부를 판정하는 단계를 포함한다.
본 개시내용의 실시예들의 제2 양태에 따른 아이덴티티 인증 방법에 따르면, 아이덴티티 인증 전에 라이브니스 검출이 수행될 수 있다. 사용자가 생물체인 것으로 결정될 때, 추가의 검증이 수행될 수 있다. 사진들 등의 형태의 검증 정보의 스푸핑이 방지되고, 인증 동안의 보안이 개선된다.
본 개시내용의 실시예들의 제3 양태에 따른 라이브니스 검출 디바이스는, 사용자의 생체 특성 정보를 수집하고, 수집된 생체 특성 정보를 컴퓨팅 디바이스의 스크린 상의 초기 위치에 디스플레이하는 제1 디스플레이 모듈; 초기 위치를 사용하여 목표 위치를 결정하고, 목표 위치를 스크린 상에 디스플레이하는 제2 디스플레이 모듈; 디스플레이된 생체 특성을 스크린 상의 초기 위치로부터 스크린 상의 목표 위치로 이동시키도록 하기 위해 사용자의 생체 특성 정보를 이동시키도록 사용자에게 프롬프팅하는 프롬프팅 모듈; 및 사용자의 생체 특성 정보 이동을 검출하고, 검출된 사용자의 이동을 사용하여 디스플레이된 생체 특성 정보의 디스플레이 위치를 결정하고, 결정된 디스플레이 위치와 목표 위치 사이의 관계를 사용하여 사용자가 생물체인지 여부를 판정하는 판정 모듈을 포함한다.
본 개시내용의 실시예들의 제3 양태에 따른 라이브니스 검출 디바이스에서, 생체 특성 정보를 스크린 상의 디스플레이 위치에 매핑하는 것에 의해, 그리고 디스플레이 위치와 목표 위치 사이의 관계에 기초하여, 사용자가 생물체인지 아닌지의 여부의 결정이 행해질 수 있다. 추가적으로 그리고 사용자 아이덴티티 인증 동안, 사용자를 인증하기 위해 생물체의 생체 특성 정보가 사용될 수 있고, 이는 보안을 개선시킨다.
본 개시내용의 실시예들의 제4 양태에 따른 아이덴티티 인증 디바이스는, 사용자의 아이덴티티 인증 명령어의 수신 시에, 사용자의 생체 특성 정보를 수집하는 취득 모듈; 수집된 생체 특성 정보에 따라 사용자가 생물체인지 여부를 판정하는 판정 모듈; 판정 모듈이 사용자가 생물체라고 판정하는 경우, 사용자의 수집된 생체 특성 정보를 인증 서버에 전송하는 전송 모듈; 인증 서버로부터, 사용자에 대응하는 미리 저장된 생체 특성 정보와 수집된 생체 특성 정보와의 비교의 아이덴티티 인증 결과를 수신하는 수신 모듈을 포함하고; 판정 모듈이 수집된 생체 특성 정보에 따라 사용자가 생물체인지 여부를 판정하는 것은, 판정 모듈이 수집된 생체 특성 정보의 적어도 일부를 컴퓨팅 디바이스의 스크린 상의 초기 위치에 디스플레이하는 것; 판정 모듈이 초기 위치를 사용하여 목표 위치를 결정하고, 목표 위치를 스크린 상에 디스플레이하는 것; 판정 모듈이 디스플레이된 생체 특성을 스크린 상의 초기 위치로부터 스크린 상의 목표 위치로 이동시키도록 하기 위해 사용자의 생체 특성 정보를 이동시키도록 사용자에게 프롬프팅하는 것; 판정 모듈이 사용자의 생체 특성 정보 이동을 검출하고, 검출된 사용자의 이동을 사용하여 디스플레이된 생체 특성 정보의 디스플레이 위치를 결정하는 것; 및 판정 모듈이 결정된 디스플레이 위치와 목표 위치 사이의 관계를 사용하여 사용자가 생물체인지 여부를 판정하는 것을 포함한다.
본 개시내용의 실시예들의 제4 양태에 따른 아이덴티티 인증 디바이스에서, 아이덴티티 인증 전에 라이브니스 검출이 수행될 수 있다. 사용자가 생물체인 것으로 결정될 때, 추가의 검증이 수행될 수 있다. 사진들 등의 형태의 검증 정보의 스푸핑이 방지되고, 인증 동안의 보안이 개선된다.
본 개시내용의 추가적인 양태들 및 이점들이 하기의 설명에 추가로 예시된다.
본 개시내용의 상술된 그리고/또는 추가적인 양태들 및 이점들은 첨부 도면들과 관련하여 취해진 하기의 설명을 참조하여 더 명백해질 것이다.
도 1은 본 개시내용의 실시예에 따른 라이브니스 검출 방법을 예시하는 개략적 흐름도이다.
도 2는 본 개시내용의 실시예에 따른 제1 좌표계(coordinate system)를 예시하는 개략적 다이어그램이다.
도 3은 본 개시내용의 실시예에 따른 단말기의 스크린 상의 초기 위치에 생체 특성 정보를 디스플레이하는 것을 예시하는 개략적 흐름도이다.
도 4는 본 개시내용의 실시예에 따른 제2 좌표계를 예시하는 개략적 다이어그램이다.
도 5는 본 개시내용의 실시예에 따른 초기 위치에 따라 목표 위치를 결정하는 것을 예시하는 개략적 흐름도이다.
도 6은 본 개시내용의 실시예에 따른 초기 얼굴 위치 및 목표 얼굴 위치를 예시하는 개략적 다이어그램이다.
도 7은 본 개시내용의 실시예에 따른 아이덴티티 인증 방법을 예시하는 개략적 흐름도이다.
도 8은 본 개시내용의 실시예에 따른 아이덴티티 인증 방법을 예시하는 개략적 흐름도이다.
도 9는 본 개시내용의 실시예에 따른 라이브니스 검출 디바이스를 예시하는 개략적인 구조적 다이어그램이다.
도 10은 본 개시내용의 실시예에 따른 아이덴티티 인증 디바이스를 예시하는 개략적인 구조적 다이어그램이다.
이하, 본 개시내용의 실시예들이 상세히 설명된다. 설명된 실시예들의 예들이 첨부 도면들에 주어지고, 여기서 동일하거나 유사한 참조 번호들은 동일하거나 유사한 기능들을 갖는 모듈들 또는 동일하거나 유사한 모듈들을 나타낸다. 첨부된 도면들을 참조하여 설명된 특정 실시예들은 모두 예시적인 것이고, 본 개시내용을 예시 및 이해하도록 의도되며, 이는 본 개시내용에 대한 제한들로서 해석되어서는 안된다. 반대로, 본 개시내용의 실시예들은 본 개시내용의 첨부된 청구범위에 의해 정의된 바와 같은 사상 및 범주 내에서 이루어지는 모든 변화들, 수정들 및 등가물들을 커버한다.
도 1은 본 개시내용의 실시예에 따른 라이브니스 검출 방법을 예시하는 개략적 흐름도이다. 이 방법은 단말기에 의해 수행될 수 있다. 도 1에 도시된 방법에 따르면, S11에서, 단말기가 사용자의 생체 특성 정보를 수집하고, 생체 특성 정보를 단말기의 스크린 상의 초기 위치에 디스플레이한다.
이러한 실시예에서, 얼굴 특성 정보가 생체 특성 정보의 예로서 사용된다. 생체 특성 정보가 얼굴 특성 정보로 제한되지 않고, 지문들, 장문(palm print)들, 홍채들 등과 같은 다른 생체 특성 정보일 수 있다는 것을 이해해야 한다.
적어도 하나의 실시예에 따르면, 얼굴 제스처 정보를 예로서 사용하면, 얼굴 제스처 정보는 피치(pitch), 롤(roll) 및 요(yaw)로 표시되고, 여기서 피치는 피치 각도를 나타내고, 롤은 회전 각도를 나타내고, 요는 진동 각도를 나타낸다.
예를 들어 그리고 도 2를 참조하면, 얼굴이 위치되는 좌표계는 3차원 좌표계인 제1 좌표계라고 지칭될 수 있다. 사람의 머리가 3차원 구로서 다루어진다고 가정하면, 그 후에 구의 중심 포인트가 제1 좌표계의 좌표 원점으로서 선택될 수 있다. 제1 좌표계의 3개의 좌표축은 각각 X축, Y축 및 Z축이고, 여기서 X축의 양의 방향은 수평이고 우측으로 향하고, Y축의 양의 방향은 수직이고 상향이며, Z축의 양의 방향은 사람의 눈들이 전방을 바라보고 있는 방향이다. 도 2에 예시된 바와 같은 제1 좌표계 내에서, 얼굴이 전방을 수평으로 대면할 때, 얼굴 제스처 정보에서의 피치, 롤 및 요는 모두 0도이다.
도 3은 하나 이상의 실시예들에 따른 단말기의 스크린 상의 초기 위치에의 생체 특성 정보의 디스플레이를 추가로 예시한다. S31에서, 사용자의 수집된 생체 특성 정보의 키 영역(key region)이 결정된다. 예로서 생체 특성 정보가 얼굴 특성 정보인 경우를 사용하면, 단말기의 카메라는 사용자의 얼굴의 하나 이상의 이미지들을 획득하기 위해 사용자의 얼굴의 하나 이상의 이미지들을 캡처하는 데 사용될 수 있다.
예를 들어, 사용자가 얼굴 정보를 사용하는 로그인 인터페이스에 진입할 때, 시스템은 다수의 얼굴 화상(picture)들 또는 이미지들을 자동으로 캡처하거나, 또는 그 다수의 얼굴 화상들 또는 이미지들을 수동으로 캡처하도록 사용자에게 프롬프팅한다. 상기 논의된 바와 같이, 얼굴 화상들 또는 이미지들의 수는, 예를 들어, 하나 이상일 수 있다.
그 뒤에, 얼굴 검출 알고리즘을 사용하여 얼굴 화상(들)으로부터 얼굴 영역이 검출된다. 얼굴 검출 알고리즘은 기존 알고리즘, 예컨대 그리고 예를 들어, 연속적으로 연결된 복수의 함수들을 포함하는 캐스케이드 분류기에 기초하는 얼굴 검출 알고리즘일 수 있다. 예시를 위해, 캐스케이드 분류기가 제1 함수, 제2 함수 등을 포함한다고 가정하면, 화상들 중 일부가 제1 함수에 의해 제거될 수 있고, 제1 함수에 의해 제거되지 않는 나머지 이미지(들)가 나머지 화상들 중 일부를 제거할 수 있는 제2 함수를 사용하여 평가된다는 것 등이다. 연속적으로 연결된 복수의 함수들을 포함하는 캐스케이드 분류기를 사용하여, 얼굴의 이미지를 포함하지 않는 이미지들은 제거되고 나머지 이미지(들)가 얼굴 이미지를 포함한다. 종래의 캐스케이드 분류기는 본 개시내용의 실시예들과 관련하여 사용될 수 있다는 것을 이해할 수 있다.
얼굴 영역이 검출된 후에, 얼굴 영역은 키 영역으로서 식별된다.
S32에서, 키 영역 내의 생체 특성 정보를 사용하여 계산을 통해 생체 특성 정보의 초기 제스처가 획득된다.
얼굴 제스처 추정이 얼굴 영역에 대해 수행되어 얼굴의 초기 제스처를 취득하고, 여기서 초기 제스처는 피치, 롤 및 요의 적어도 하나의 각도의 초기 값을 포함한다.
얼굴 영역이 검출된 후에, 얼굴 영역 내의 키 포인트들이 얼굴 키 포인트 위치결정 알고리즘(face key point positioning algorithm)을 사용하여 획득될 수 있다. 얼굴의 키 포인트들은 눈, 코, 입 등과 같은 얼굴의 특성 포인트들이다. 얼굴 키 포인트 위치결정 알고리즘은 트레이닝 스테이지(training stage) 및 위치결정 스테이지(positioning stage)를 포함하는 머신 학습 방법(method of machine learning)을 사용할 수 있다. 트레이닝 스테이지에서, 회귀 머신(regression machine)은 얼굴 키 포인트 좌표들 및 대응하는 얼굴 화상들의 트레이닝 데이터 세트를 사용하여 얼굴 키 포인트 좌표들을 추정하도록 트레이닝된다. 위치결정 스테이지에서, 트레이닝된 회귀 머신을 사용하여 입력된 얼굴 화상들로부터 얼굴 키 포인트 좌표들이 추정된다. 임의의 적합한 얼굴 키 포인트 위치결정 알고리즘이 본 개시내용의 실시예들에서 사용될 수 있다.
얼굴 키 포인트들이 위치결정된 후에, 얼굴 키 포인트들 및 3차원 헤드 모델링 알고리즘을 사용하여 사람의 머리에 대응하는 3차원 구가 추정된다. 임의의 적합한 3차원 모델링 알고리즘이 본 개시내용의 실시예들에서 사용될 수 있다. 예를 들어, 단일 화상에 기초하는 3차원 모델링, 실시간 3차원 모델링 등이 본 개시내용의 실시예들에서 사용될 수 있다. 3차원 구가 추정된 후에, X축에 대한 회전 각도는 피치이고, Y축에 대한 회전 각도는 요이고, Z축에 대한 회전 각도는 롤이다. 그에 의해 초기 제스처 정보가 획득된다.
S33에서, 초기 제스처 정보에 따라 좌표 매핑이 수행되고, 생체 특성 정보가 단말기의 스크린 상의 초기 위치에 매핑된다.
임의로, 초기 제스처 정보에 따라 좌표 매핑이 수행되고, 단말기의 스크린 상의 초기 위치에의 생체 특성 정보의 매핑은 제1 좌표계 내의 좌표들과 제2 좌표 내의 좌표들 사이의 매핑 관계를 취득하는 것 - 제1 좌표계는 생체 특성 정보가 위치되는 좌표계이고, 제2 좌표계는 스크린이 위치되는 좌표계임 -, 매핑 관계에 따라 초기 제스처에 대응하는 초기 위치의 좌표들을 결정하는 것; 및 초기 위치의 좌표들에 따라 생체 특성 정보를 초기 위치에 매핑하는 것을 포함한다.
제1 좌표계와 제2 좌표계 사이의 미리 확립된 매핑 관계로부터, 생체 특성 정보의 후속 이동 후의 디스플레이 위치와 초기 위치 양측 모두가 획득될 수 있고, 여기서 제1 좌표계는, 도 2에 예시된 바와 같은, 생체 특성 정보가 위치되는 좌표계이고, 제2 좌표계는 스크린이 위치되는 좌표계이다.
도 4를 참조하면, 제2 좌표계는 2차원 좌표계이다. 예로서 단말기가 모바일폰인 경우를 사용하면, 제2 좌표계의 좌표 원점은 모바일폰의 스크린의 중심 또는 중앙 포인트이고, 제2 좌표계의 2개의 좌표축은 각각 X축 및 Y축이다. X축의 방향은 제1 좌표계에서의 X축의 방향과 일치하고, Y축의 양의 방향은 수직으로 하향이다.
이러한 실시예에서, 전술한 3개의 각도 중 2개의 각도가 사용된다. 도 2 및 도 4에 예시된 2개의 좌표계에서, 2개의 좌표계 사이의 매핑 관계는 하기의 수학식을 사용하여 표현될 수 있다:
Figure 112017129817730-pct00001
수학식 (1)에서, 요 및 피치는 제1 좌표계에서의 얼굴 정보의 제스처 정보로부터의 것이다. 요 및 피치는 각각 진동 각도 및 피치 각도이다. 변수 Δx, Δy는 제2 좌표계의 좌표 원점에 대한 스크린 상의 얼굴 정보의 디스플레이 위치의 오프셋들이다.
Figure 112017129817730-pct00002
의 값들은 얼굴 제스처 각도 및 스크린의 높이의 변화 범위에 의해 결정된다.
Figure 112017129817730-pct00003
의 값들은 하기의 수학식을 사용하여 획득될 수 있고, 여기서 스크린의 스크린 폭 및 높이는 각각 w 및 h이고, 스크린의 좌표계의 좌표 원점은 스크린의 중심 위치인 (w/2, h/2)이고, 머리의 피치 각도의 변화 범위는 [-θ, +θ]이고 진동 각도의 변화 범위는 [-β, +β]이다. θ, β의 값들은 구성가능하고, 적어도 하나의 실시예에 따르면, 값들은 45도, 예컨대, θ = β = 45°로 설정되도록 구성될 수 있다.
Figure 112017129817730-pct00004
수학식 (1) 및 (2)를 사용하여, 대응하는 디스플레이 위치
Figure 112017129817730-pct00005
는 제스처 정보, 예컨대, 요, 피치 제스처 정보로부터 획득될 수 있고, 그에 따라 상태 정보에 대응하는 위치 정보
Figure 112017129817730-pct00006
는 제2 좌표계의 좌표 원점
Figure 112017129817730-pct00007
에 따라 획득될 수 있다.
예를 들어, 초기 위치가 결정된 후에, 얼굴 정보는 초기 위치에 디스플레이될 수 있다.
상술된 좌표 원점 선택 방식, 및 좌표계에서의 다양한 좌표축들의 방향들의 선택들은 상기 설명으로 제한되지 않는다는 것을 이해할 수 있다. 그 대신에, 다른 좌표 원점들 또는 다른 방향들에서의 좌표축들이 사용될 수 있다. 대응하여, 좌표 원점 또는 좌표축의 방향이 변경될 때, 상기 계산 식은 2개의 좌표계 사이의 공간 기하학적 관계에 따라 조정될 수 있다.
도 1의 S12에서, 초기 위치에 따라 목표 위치가 결정되고, 목표 위치가 스크린 상에 디스플레이된다. 목표 위치가 랜덤하게 생성될 수 있다. 목표 위치를 랜덤하게 생성하면 목표 위치가 예측될 수 있는 확률을 감소시키고, 이는 라이브니스 검출의 정확성을 개선시킨다.
임의로, 초기 위치에 따라 목표 위치를 결정하는 것은 후보 목표 위치를 랜덤하게 생성하는 것; 후보 목표 위치 및 초기 위치가 미리 결정된 조건을 만족시키는지 여부를 판정하는 것; 및 미리 결정된 조건이 만족될 때, 후보 목표 위치를 목표 위치로서 결정하는 것을 포함한다.
다른 실시예에서 그리고 도 5를 참조하면, 초기 위치에 따라 목표 위치를 결정하는 것은 단계 S51 내지 단계 S54를 포함한다.
S51에서, 후보 목표 위치가 랜덤하게 생성된다. 예를 들어, X 및 Y 방향들에서의 좌표 값들은 랜덤 좌표 값 생성기 알고리즘을 사용하여 랜덤하게 생성되고, 후보 목표 위치는 X 및 Y 방향들에서 랜덤하게 생성된 좌표 값들을 사용하여 정의된다.
S52에서, 랜덤하게 생성된 후보 목표 위치와 초기 위치 사이의 거리가 계산된다. 후보 목표 위치 및 초기 위치가 각각 제2 좌표계 내의 포인트로 표시될 수 있기 때문에, 후보 목표 위치와 초기 위치 사이의 거리는 2차원 평면에서 2개의 포인트 사이의 거리를 계산하는 것에 의해 획득될 수 있다.
S53에서, 거리가 제1 미리 결정된 값보다 더 작은지 여부의 결정이 행해진다. 거리가 제1 미리 결정된 값보다 더 작다고 결정 또는 판정되는 경우, 단계 S51 및 후속 단계들이 반복적으로 수행된다. 그렇지 않으면, 단계 S54가 수행된다. 제1 미리 결정된 값은, 예를 들어, w/2일 수 있고, 거리를 w/2와 비교하는 것에 의해 판정 결과가 획득될 수 있다.
S54에서, 제1 미리 결정된 값 이상인 초기 위치로부터의 거리를 갖는 후보 목표 위치가 사용될 목표 위치로서 식별된다.
도 1의 S13에서, 사용자는 생체 특성 정보를 초기 위치로부터 목표 위치로 이동시키도록 프롬프팅되는데, 예컨대, 스크린 상의 생체 특성 정보의 디스플레이 위치가 초기 위치로부터 목표 위치로 이동한다.
예컨대, 도 5의 단계 S51 내지 단계 S54에 따라 결정되는 목표 위치가 결정된 후에, 단말기는 사용자의 머리를 움직이는 것에 의해 현재 디스플레이 위치에 디스플레이된 얼굴 정보를 목표 위치로 이동시키도록 사용자에게 프롬프팅하는 정보를 디스플레이할 수 있다.
사용자의 머리를 움직여서 디스플레이된 이미지를 초기 위치로부터 목표 위치로 이동시키도록 사용자에게 프롬프팅하는 정보를 뷰잉한 후에, 사용자는 사용자의 머리 움직임들에 응답하여 디스플레이된 이미지를 스크린 상에서 이동시키도록 하기 위해 사용자의 머리를 움직일 수 있다.
이러한 실시예에서, 목표 위치와 초기 위치 사이의 거리가 미리 결정된 값보다 더 큰 목표 위치를 선택하는 것에 의해, 목표 위치는 위치의 관점에서 초기 위치와 구별되고, 이는 사용자가 사용자의 머리와 같은 생체 특성을 움직여서, 디스플레이된 이미지를 초기 위치로부터 목표 위치로 이동시키는 것이 더욱 쉬워지게 한다.
도 6은 예로서 얼굴 이미지를 사용하는 목표 위치와 초기 위치 사이의 관계를 예시한다.
도 1의 S14에서, 사용자로부터의 이동 입력이 수신된 후에 스크린 상의 생체 특성 정보의 디스플레이 위치가 검출되고, 디스플레이 위치와 목표 위치 사이의 관계에 따라 사용자가 생물체인지 여부의 판정 또는 결정이 행해진다.
상술된 바와 같이, 초기 위치를 계산하기 위한 방법과 유사한 방법을 사용하여, 생체 특성이 사용자에 의해 스크린 상에서 이동된 후의 생체 특성 정보의 디스플레이 위치가 획득될 수 있다.
적어도 하나의 실시예에 따르면, 생체 특성이 사용자에 의해 이동된 후의 생체 특성 정보의 디스플레이 위치를 계산하는 것은, 제1 좌표계 내의 이동 후에 생체 특성 정보의 제스처 정보를 취득하는 것; 및 제1 좌표계 내의 좌표들과 제2 좌표계 내의 좌표들 사이의 미리 확립된 매핑 관계를 사용하여 제1 좌표계 내의 제스처 정보에 대응하는 제2 좌표계 내의 좌표들을 계산하는 것, 및 제2 좌표계 내의 좌표들에 따라 스크린 상의 이동 후의 생체 특성 정보의 디스플레이 위치를 결정하는 것을 포함한다. 제1 좌표계는 생체 특성 정보의 좌표계일 수 있고, 제2 좌표계는 스크린의 좌표계일 수 있다.
예를 들어, 사용자가 사용자의 머리를 움직일 때, 얼굴 제스처 정보가 변경될 수 있다. 제1 좌표계와 제2 좌표계 사이의 미리 확립된 매핑 관계에 따라, 변수 Δx, Δy는 수학식 (1) 및 (2)를 사용하여 결정될 수 있다. 가변적인 스크린 상의 얼굴의 디스플레이 위치는 Δx, Δy 및 좌표 원점을 사용하여 획득될 수 있다.
추가적으로, 스크린 상의 얼굴의 디스플레이 위치가 실시간으로 계산된 후에, 실시간으로 계산된 디스플레이 정보에 따라 얼굴 정보가 대응하는 위치에 디스플레이될 수 있다. 그렇게 함으로써, 사용자는 얼굴 정보를 목표 위치로 실시간으로 이동시키는 것이 가능하다.
제1 좌표계와 제2 좌표계 사이의 매핑 관계를 사용하여, 얼굴 제스처 정보는 스크린 상의 대응하는 위치에 매핑될 수 있다.
임의로, 디스플레이 위치는 사용자에 의한 생체 특성 정보의 이동에 따라 이동하고, 여기서 생체 특성 정보의 이동은 디스플레이 위치가 이동하게 만들고; 디스플레이 위치와 목표 위치 사이의 관계에 따라 사용자가 생물체인지 여부를 판정하는 것은, 디스플레이 위치와 목표 위치 사이의 거리가 제2 미리 결정된 값보다 더 작을 때 이동이 성공적이라고 판정하는 것, 및 사용자가 생체 특성 정보를 성공적으로 이동시킨 횟수가 미리 결정된 횟수에 도달하는 경우, 사용자가 생물체라고 판정하는 것을 포함한다.
예를 들어, 사용자가 머리 이미지를 이동시킬 때, 단말기는 이동 후의 대응하는 디스플레이 위치를 실시간으로 계산하고, 이동 후의 디스플레이 위치와 목표 위치 사이의 거리를, 이러한 2개의 위치 사이의 거리가 제2 미리 결정된 값보다 더 작을 때까지, 실시간으로 계산한다. 2개의 위치 사이의 거리가 제2 미리 결정된 값보다 더 작을 때, 그것은 이동이 성공적임을 표시하고, 성공 횟수가 1로 설정된다. 하나의 성공적인 이동 후에, 미리 결정된 횟수가 1인 경우, 사용자가 생물체라고 판정될 수 있다.
대안적으로, 보안을 추가로 개선시키기 위해, 횟수가 1보다 더 큰 수로 설정될 수 있다. 이러한 경우, 하나의 성공적인 이동 후에, 목표 위치가 랜덤하게 재생성될 수 있고, 사용자가 상술된 프로세스에 따라 생체 특성 정보를 이동시키도록 프롬프팅될 수 있고, 디스플레이 위치와 재생성된 목표 위치 사이의 거리가 실시간으로 계산될 수 있다. 이러한 2개의 위치 사이의 거리가 제2 미리 결정된 값보다 더 작을 때, 그것은 이동이 두 번째로 성공적임을 표시한다. 미리 결정된 횟수가 2인 경우, 사용자가 생물체라고 판정될 수 있다. 미리 결정된 횟수가 2보다 더 큰 경우, 사용자가 생물체인지 여부를 판정하기 위해 사용자에 의한 성공적인 이동들의 수가 미리 결정된 수를 만족시키는지를 결정하기 위해 미리 결정된 수로서 사용되는 수에 따라 프로세스가 반복될 수 있다는 것을 이해할 수 있다.
제2 미리 결정된 값은 제1 미리 결정된 값과 동일하거나 상이할 수 있다. 이러한 실시예에서, 제2 미리 결정된 값이 또한 w/2이고, 이동 후의 디스플레이 위치와 목표 위치 사이의 거리가 w/2보다 더 작다고 가정하면, 검출된 사용자는 생물체라고 판정될 수 있다. 다른 양태에서, 얼굴 매칭이 성공적인지 여부가 결정될 수 있다.
실시간으로, 이동 후의 디스플레이 위치와 목표 위치 사이의 거리를 계산하는 것에 의해, 라이브니스 검출 또는 얼굴 매칭이 성공적인지 여부가 적시에 검출될 수 있다.
이러한 실시예에서, 스크린 상의 디스플레이 위치에의 생체 특성 정보의 매핑을 사용하여, 그리고 디스플레이 위치와 목표 위치 사이의 관계에 기초하여, 사용자가 생물체인지 아닌지의 여부의 결정이 행해질 수 있어서, 사용자 아이덴티티 인증 동안, 생물체의 생체 특성 정보만이 검증되고, 이는 보안을 개선시킨다.
도 7은 본 개시내용의 실시예에 따른 아이덴티티 인증 방법을 예시하는 개략적 흐름도이다. 이 방법은 단말기에 의해 수행될 수 있다. 이 방법은 단계 S71 내지 단계 S74를 포함한다.
S71에서, 단말기는 사용자의 아이덴티티 인증 요청을 수신하는 것에 응답하여 사용자의 생체 특성 정보를 수집한다.
단말기의 로그인 인터페이스 상의 아이덴티티 인증 버튼이 사용자에 의해 클릭되어 아이덴티티 인증 요청을 생성할 수 있다.
사용자에 의해 생성된 아이덴티티 인증 명령어의 수신 시에, 단말기는 얼굴 정보 등과 같은 생체 특성 정보를 취득할 수 있다. 앞서 논의된 바와 같이, 생체 특성 정보는 카메라를 사용하여 캡처될 수 있다.
S72에서, 수집된 생체 특성 정보에 따라 사용자가 생물체인지 여부가 판정된다.
하나 이상의 실시예들에 따르면, 사용자가 생물체인지 여부를 판정하는 것은 구체적으로는, 사용자의 수집된 생체 특성 정보를 단말기의 스크린 상의 초기 위치에 디스플레이하는 것; 초기 위치에 따라 목표 위치를 결정하고, 목표 위치를 스크린 상에 디스플레이하는 것; 스크린 상의 생체 특성 정보의 디스플레이 위치가 초기 위치로부터 목표 위치로 이동하도록, 생체 특성 정보를 이동시키도록 사용자에게 프롬프팅하는 것; 및 이동 후의 스크린 상의 생체 특성 정보의 디스플레이 위치를 검출하고, 디스플레이 위치와 목표 위치 사이의 관계에 따라 사용자가 생물체인지 여부를 판정하는 것을 포함한다.
본 개시내용에서의 다른 곳에서 발견되는 라이브니스 검출 상세들, 예컨대 그리고 제한 없이, 앞서 설명된 하나 이상의 실시예들과 관련하여 제공되는 라이브니스 검출 상세들은, 도 7과 관련하여 여기서 반복되지 않지만; 그러한 라이브니스 검출 상세들은 도 7의 실시예에도 또한 적용가능할 수 있다.
S73에서, 사용자가 생물체인 경우, 사용자의 생체 특성 정보가 인증 서버에 전송된다. 인증 서버에 전송된 생체 특성 정보는 생체 특성 정보의 복수의 조각들로부터 선택하는 것에 의해 획득될 수 있다.
임의로 그리고 도 8을 참조하면, 다른 실시예에서, 아이덴티티 인증 방법은 도 8에 도시된 단계 S81 내지 단계 S84 및 단계 S74를 포함한다.
S81에서, 사용자의 아이덴티티 인증 명령어의 수신 시에, 단말기가 사용자의 생체 특성 정보를 수집한다.
상기 예시된 바와 같이, 단말기가 사용자에게 이동하도록 프롬프팅한 후에, 사용자는 사용자의 머리를 움직일 수 있고, 사용자가 사용자의 머리를 움직이는 동안, 단말기는 사용자의 얼굴의 화상들을 실시간으로 캡처하여, 복수의 얼굴 화상들을 취득하도록 할 수 있다. 사용자의 얼굴의 복수의 화상들은, 이동하라는 프롬프트와 성공적인 얼굴 매칭의 확인(즉, 사용자가 생물체라는 결정) 사이의 주기 동안 단말기에 의해 실시간으로 캡처된 사용자의 얼굴의 화상들일 수 있다.
S82에서, 수집된 생체 특성 정보에 따라 사용자가 생물체인지 여부가 판정된다.
본 개시내용에서의 다른 곳에서 발견되는 라이브니스 검출 상세들, 예컨대 그리고 제한 없이, 앞서 설명된 하나 이상의 실시예들과 관련하여 제공되는 라이브니스 검출 상세들은, 도 8과 관련하여 여기서 반복되지 않지만; 그러한 라이브니스 검출 상세들은 도 8의 실시예에도 또한 적용가능할 수 있다.
S83에서, 사용자가 생물체인 경우, 사용자의 수집된 생체 특성 정보의 이미지 프레임 품질이 결정되고, 이미지 프레임 품질의 관점에서 상위에 랭크되는 생체 특성 정보의 처음 N개의 이미지 프레임들이 사용자의 수집된 생체 특성 정보로부터 선택된다; 여기서 N은 미리 결정된 양의 정수(positive integer)이다.
대응하는 품질이 추정되어야 하는 상이한 생체 특성 정보에 따라, 품질을 추정하기 위한 상이한 측정 알고리즘들이 사용될 수 있다. 예로서 얼굴 화상들을 사용하면, 이미지들의 품질은 제스처(얼굴이 전방으로 대면하고 있는지 여부), 광(얼굴 상의 광이 충분한지 여부), 얼굴 표정(임의의 얼굴 표정이 있는지 여부) 등에 따라 측정될 수 있다.
특정 측정 알고리즘은 실제 필요들에 따라 정의될 수 있다. 예를 들어, 다양한 파라미터들(제스처, 광 및 얼굴 표정)에 가중치들이 할당될 수 있고, 각각의 파라미터의 값은 그것을 그의 각각의 가중치로 곱하는 것에 의해 가중치 부여될 수 있다. 각각의 얼굴 화상의 이미지 프레임 품질은 가중치 부여된 파라미터 값들의 합계인 것으로 결정될 수 있는데, 예컨대, 곱셈 후의 값들은 각각의 얼굴 화상의 이미지 프레임 품질의 값을 획득하기 위해 함께 가산된다. 얼굴 화상들은 이미지 프레임 품질에 따라, 예컨대, 내림차순으로, 순서화될 수 있고, 여기서 각각의 화상의 이미지 품질은 화상의 가중치 부여된 파라미터 값들의 합계이다. 이미지 프레임 품질 값들의 순서화, 예컨대, 내림차순에 기초하여 N이라는 수의 화상들이 선택될 수 있다. 예로서 그리고 N의 값이 1이라고 가정하면, 순서의 상위에 있는 화상, 예컨대, 최대 값을 갖는 화상이 선택된다.
S84에서, 이미지 프레임 품질의 관점에서 상위에 랭크되는 생체 특성 정보의 선택된 처음 N개의 이미지 프레임들이 인증 서버에 전송된다.
예를 들어, 이미지 프레임 품질이 첫 번째로 랭크되는 얼굴 화상이 선택된 후에, 얼굴 화상이 인증 서버에 전송된다.
S74에서, 인증 서버에 의해 전송된 아이덴티티 인증 결과가 수신되고, 여기서 아이덴티티 인증 결과는 인증 서버가 생체 특성 정보를 사용자에 대응하는 미리 저장된 생체 특성 정보와 비교한 후에 전송된다.
얼굴 화상들을 전송할 때, 단말기는 또한 사용자 식별자 정보를 전송할 수 있다. 인증 서버는 사용자 식별자 정보와 얼굴 화상들 사이의 관계를 미리 저장한다. 단말기에 의해 전송된 얼굴 화상들 및 사용자 식별자 정보의 수신 시에, 인증 서버는 사용자 식별자 정보에 따라 미리 저장된 얼굴 화상들을 취득하고, 수신된 얼굴 화상들을 미리 저장된 얼굴 화상들과 비교하여 아이덴티티 인증 결과를 획득할 수 있다.
얼굴 화상 비교는 기존 알고리즘, 예를 들어, 심층 학습에 기초하는 얼굴 비교 알고리즘, 또는 고차원 특성에 기초하는 얼굴 비교 알고리즘을 사용하여 수행될 수 있다.
아이덴티티 인증 결과의 취득 시에, 서버는 아이덴티티 인증 결과를 단말기에 전송할 수 있다. 아이덴티티 인증 결과의 수신 시에, 단말기는 그 결과를 사용자에게 디스플레이한다. 아이덴티티 인증이 성공적일 때, 사용자는 로그인하는 것이 허용되고; 그렇지 않으면, 사용자의 로그인이 실패한다.
추가적으로, 단말기가 복수의 화상들을 인증 서버에 전송하는 경우, 인증 서버는 수신된 화상들을 미리 저장된 화상들과 하나씩 비교할 수 있다. 수신된 화상들 중 하나가 비교를 통해 미리 저장된 화상과 매칭하는 경우, 그것은 인증이 성공적임을 표시한다.
상기 제공된 바와 같이, 사용자가 생물체인 것으로 결정된 후에, 예컨대, 디스플레이 위치와 목표 위치가 매칭한다고 결정되어 라이브니스 검출과 관련하여 사용자가 생물체임을 표시한 후에, 검증 프로세스가 수행될 수 있다.
다른 양태에서 그리고 적어도 하나의 실시예에 따르면, 어떠한 생물체도 없다는 결정이 행해질 때, 예컨대, 디스플레이 위치와 목표 위치가 만족스럽게 매칭하지 않아서 라이브니스 검출과 관련하여 생물체의 부존재를 표시할 때, 단말기는 인증 서버로부터의 검증에 이르게 할 필요 없이 성공적이지 않은 아이덴티티 인증을 표시하는 정보를 사용자에게 직접 리턴한다.
이러한 실시예에서, 라이브니스 검출은 아이덴티티 인증 전에 수행되고, 사용자가 생물체일 때, 추가의 검증이 수행되고, 이는 사진들 등의 형태의 검증 정보의 스푸핑을 방지하고, 그에 따라 인증 동안의 보안을 개선시킨다.
도 9는 본 개시내용의 실시예에 따른 라이브니스 검출 디바이스(90)를 예시하는 개략적인 구조적 다이어그램이다. 디바이스는 모바일폰 등과 같은 단말기 상에서 구성될 수 있다. 디바이스(90)는 제1 디스플레이 모듈(91), 제2 디스플레이 모듈(92), 프롬프팅 모듈(93), 및 판정 모듈(94)을 포함한다.
제1 디스플레이 모듈(91)은 사용자의 생체 특성 정보를 수집하고, 생체 특성 정보를 단말기의 스크린 상의 초기 위치에 디스플레이하도록 구성된다.
이러한 실시예에서, 생체 특성 정보가 얼굴 정보인 경우가 예로서 사용된다. 생체 특성 정보가 얼굴 정보로 제한되지 않고, 또한 지문들, 장문들, 홍채들 등일 수 있다는 것을 이해할 수 있다.
이러한 실시예에서, 얼굴 제스처 정보를 예로서 사용하면, 얼굴 제스처 정보는 피치, 롤 및 요로 표시되고, 여기서 피치는 피치 각도를 나타내고, 롤은 회전 각도를 나타내고, 요는 진동 각도를 나타낸다.
예를 들어 그리고 도 2를 참조하면, 얼굴이 위치되는 좌표계는 3차원 좌표계인 제1 좌표계라고 지칭될 수 있다. 사람의 머리가 3차원 구로서 다루어진다고 가정하면, 그 후에 구의 중심 포인트가 제1 좌표계의 좌표 원점으로서 선택될 수 있다. 제1 좌표계의 3개의 좌표축은 각각 X축, Y축 및 Z축이고, 여기서 X축의 양의 방향은 수평으로 우측으로 향하고, Y축의 양의 방향은 수직으로 상향이며, Z축의 양의 방향은 사람의 눈들이 전방을 바라보고 있는 방향이다. 도 2에 예시된 바와 같은 제1 좌표계 내에서, 얼굴이 전방을 수평으로 대면할 때, 얼굴 제스처 정보에서의 피치, 롤 및 요는 모두 0도이다.
임의로, 제1 디스플레이 모듈(91)에 의해 생체 특성 정보를 단말기의 스크린 상의 초기 위치에 디스플레이하는 것은 사용자의 수집된 생체 특성 정보의 키 영역을 결정하는 것, 얼굴 검출 알고리즘을 사용하여 얼굴 화상들로부터 피스트(feast) 영역을 검출하는 것, 얼굴 영역을 키 영역으로서 결정하는 것, 얼굴 키 포인트들 및 3차원 헤드 모델링 알고리즘을 사용하여 사람의 머리에 대응하는 3차원 구를 추정하는 것을 포함하고, 좌표 매핑이 초기 제스처에 따라 수행되고, 생체 특성 정보가 단말기의 스크린 상의 초기 위치에 매핑된다.
예로서 생체 특성 정보가 얼굴 정보인 경우를 사용하면, 단말기의 카메라는 사용자의 얼굴의 화상들을 픽업하여 얼굴 화상들을 획득하는 데 사용될 수 있다. 예를 들어, 사용자가 얼굴 정보를 사용하는 로그인 인터페이스에 진입할 때, 시스템은 다수의 얼굴 화상들을 자동으로 캡처하거나, 또는 그 다수의 얼굴 화상들을 수동으로 캡처하도록 사용자에게 프롬프팅한다.
그 뒤에, 얼굴 검출 알고리즘을 사용하여 얼굴 화상들로부터 얼굴 영역이 검출된다. 얼굴 검출 알고리즘은 기존 알고리즘, 예컨대 그리고 예를 들어, 연속적으로 연결된 복수의 함수들을 포함하는 캐스케이드 분류기에 기초하는 얼굴 검출 알고리즘일 수 있다. 예시를 위해, 캐스케이드 분류기가 제1 함수, 제2 함수 등을 포함한다고 가정하면, 화상들 중 일부가 제1 함수에 의해 제거되고, 제1 함수에 의해 제거되지 않는 나머지 이미지들이 나머지 화상들 중 일부를 제거할 수 있는 제2 함수를 사용하여 평가된다는 것 등이다. 연속적으로 연결된 복수의 함수들을 포함하는 캐스케이드 분류기를 사용하여, 얼굴의 이미지를 포함하지 않는 이미지들은 제거되고 나머지 이미지들이 얼굴 이미지를 포함한다. 종래의 캐스케이드 분류기는 본 개시내용의 실시예들과 관련하여 사용될 수 있다는 것을 이해할 수 있다.
얼굴 영역이 검출된 후에, 얼굴 영역은 키 영역으로서 식별된다. 키 영역 내의 생체 특성 정보를 사용하여 계산을 통해 생체 특성 정보의 초기 제스처가 획득된다.
얼굴 제스처 추정이 얼굴 영역에 대해 수행되어 얼굴의 초기 제스처를 취득하고, 여기서 초기 제스처는 하기의 피치, 롤 및 요의 적어도 하나의 각도의 초기 값을 포함한다.
얼굴 영역이 검출된 후에, 얼굴 영역 내의 키 포인트들이 얼굴 키 포인트 위치결정 알고리즘을 사용하여 획득될 수 있다. 얼굴의 키 포인트들은 눈들, 코, 입 등과 같은 얼굴의 특성 포인트들이다. 얼굴 키 포인트 위치결정 알고리즘은 트레이닝 스테이지 및 위치결정 스테이지를 포함하는 머신 학습 방법을 사용할 수 있다. 트레이닝 스테이지에서, 회귀 머신은 얼굴 키 포인트 좌표들 및 대응하는 얼굴 화상들의 트레이닝 데이터 세트를 사용하여 얼굴 키 포인트 좌표들을 추정하도록 트레이닝된다. 위치결정 스테이지에서, 트레이닝된 회귀 머신을 사용하여 입력된 얼굴 화상들로부터 얼굴 키 포인트 좌표들이 추정된다. 임의의 적합한 얼굴 키 포인트 위치결정 알고리즘이 본 개시내용의 실시예들에서 사용될 수 있다.
얼굴 키 포인트들이 위치결정된 후에, 얼굴 키 포인트들 및 3차원 헤드 모델링 알고리즘을 사용하여 사람의 머리에 대응하는 3차원 구가 추정된다. 임의의 적합한 3차원 모델링 알고리즘이 본 개시내용의 실시예들에서 사용될 수 있다. 예를 들어, 단일 화상에 기초하는 3차원 모델링, 실시간 3차원 모델링 등이 본 개시내용의 실시예들에서 사용될 수 있다. 3차원 구가 추정된 후에, X축에 대한 회전 각도는 피치이고, Y축에 대한 회전 각도는 요이고, Z축에 대한 회전 각도는 롤이다. 그에 의해 초기 제스처 정보가 획득된다.
초기 제스처 정보에 따라 좌표 매핑이 수행되고, 생체 특성 정보가 단말기의 스크린 상의 초기 위치에 매핑된다.
임의로, 초기 제스처 정보에 따라 좌표 매핑이 수행되고, 제1 디스플레이 모듈(91)에 의한 단말기의 스크린 상의 초기 위치에의 생체 특성 정보의 매핑은 제1 좌표계 내의 좌표들과 제2 좌표 내의 좌표들 사이의 매핑 관계를 취득하는 것 - 제1 좌표계는 생체 특성 정보가 위치되는 좌표계이고, 제2 좌표계는 스크린이 위치되는 좌표계임 -, 매핑 관계에 따라 초기 제스처에 대응하는 초기 위치의 좌표들을 결정하는 것; 및 초기 위치의 좌표들에 따라 생체 특성 정보를 초기 위치에 매핑하는 것을 포함한다.
제1 좌표계와 제2 좌표계 사이의 미리 확립된 매핑 관계로부터, 생체 특성 정보의 후속 이동 후의 디스플레이 위치와 초기 위치 양측 모두가 획득될 수 있고, 여기서 제1 좌표계는, 도 2에 예시된 바와 같은, 생체 특성 정보가 위치되는 좌표계이고, 제2 좌표계는 스크린이 위치되는 좌표계이다.
도 4를 참조하면, 제2 좌표계는 2차원 좌표계이다. 예로서 단말기가 모바일폰인 경우를 사용하면, 제2 좌표계의 좌표 원점은 모바일폰의 스크린의 중심 또는 중앙 포인트이고, 제2 좌표계의 2개의 좌표축은 각각 X축 및 Y축이다. X축의 방향은 제1 좌표계에서의 X축의 방향과 일치하고, Y축의 양의 방향은 수직으로 하향이다.
이러한 실시예에서, 전술한 3개의 각도 중 2개의 각도가 사용된다. 도 2 및 도 4에 예시된 2개의 좌표계에서, 2개의 좌표계 사이의 매핑 관계는 하기의 수학식을 사용하여 표현될 수 있다:
[수학식 1]
Figure 112017129817730-pct00008
수학식 (1)에서, 요 및 피치는 제1 좌표계에서의 얼굴 정보의 제스처 정보로부터의 것이다. 요 및 피치는 각각 진동 각도 및 피치 각도이다. 변수 Δx, Δy는 제2 좌표계의 좌표 원점에 대한 스크린 상의 얼굴 정보의 디스플레이 위치의 오프셋들이다.
Figure 112017129817730-pct00009
의 값들은 얼굴 제스처 각도 및 스크린의 높이의 변화 범위에 의해 결정된다.
Figure 112017129817730-pct00010
의 값들은 하기의 수학식을 사용하여 획득될 수 있고, 여기서 스크린의 스크린 폭 및 높이는 각각 w 및 h이고, 스크린의 좌표계의 좌표 원점은 스크린의 중심 위치인 (w/2, h/2)이고, 얼굴의 피치 각도의 변화 범위는 [-θ, +θ]이고 진동 각도의 변화 범위는 [-β, +β]이다. θ, β의 값들은 구성가능하고, 적어도 하나의 실시예에 따르면, 값들은 45도, 예컨대, θ = β = 45°로 설정되도록 구성될 수 있다.
[수학식 2]
Figure 112017129817730-pct00011
수학식 (1) 및 (2)를 사용하여, 대응하는 디스플레이 위치
Figure 112017129817730-pct00012
는 제스처 정보, 예컨대, 요, 피치 제스처 정보로부터 획득될 수 있고, 그에 따라 상태 정보에 대응하는 위치 정보
Figure 112017129817730-pct00013
는 제2 좌표계의 좌표 원점
Figure 112017129817730-pct00014
에 따라 획득될 수 있다.
예를 들어, 초기 위치가 결정된 후에, 얼굴 정보는 초기 위치에 디스플레이될 수 있다.
상술된 좌표 원점 선택 방식, 및 좌표계에서의 다양한 좌표축들의 방향들의 선택들은 상기 설명으로 제한되지 않는다는 것을 이해할 수 있다. 그 대신에, 다른 좌표 원점들 또는 다른 방향들에서의 좌표축들이 사용될 수 있다. 대응하여, 좌표 원점 또는 좌표축의 방향이 변경될 때, 상기 계산 식은 2개의 좌표계 사이의 공간 기하학적 관계에 따라 조정될 수 있다.
제2 디스플레이 모듈(92)은 초기 위치에 따라 목표 위치를 결정하고, 목표 위치를 스크린 상에 디스플레이하도록 구성된다. 목표 위치가 랜덤하게 생성될 수 있다. 목표 위치를 랜덤하게 생성하면 목표 위치가 예측될 수 있는 확률을 감소시키고, 라이브니스 검출의 정확성을 개선시킨다.
임의로, 생성 모듈(92)에 의해 초기 위치에 따라 목표 위치를 결정하는 것은 후보 목표 위치를 랜덤하게 생성하는 것; 후보 목표 위치 및 초기 위치가 미리 결정된 조건을 만족시키는지 여부를 판정하는 것; 및 미리 결정된 조건이 만족될 때, 후보 목표 위치를 목표 위치로서 결정하는 것을 포함한다. 예를 들어, X 및 Y 방향들에서의 좌표 값들은 랜덤 좌표 값 생성기 알고리즘을 사용하여 랜덤하게 생성될 수 있고, 후보 목표 위치는 X 및 Y 방향들에서 랜덤하게 생성된 좌표 값들에 의해 정의된다.
임의로, 생성 모듈에 의해 후보 목표 위치 및 초기 위치가 미리 결정된 조건을 만족시키는지 여부를 판정하는 것은, 후보 목표 위치와 초기 위치 사이의 거리를 계산하는 것; 거리가 제1 미리 결정된 값보다 더 작은지 여부를 판정하는 것; 거리가 제1 미리 결정된 값보다 더 작은 경우, 거리가 제1 미리 결정된 값 이상일 때까지 후보 목표 위치를 재생성하는 것; 및 거리가 제1 미리 결정된 값 이상일 때, 후보 목표 위치 및 초기 위치가 미리 결정된 조건을 만족시킨다고 판정하는 것을 포함한다.
후보 목표 위치 및 초기 위치가 각각 제2 좌표계 내의 포인트로 표시될 수 있기 때문에, 후보 목표 위치와 초기 위치 사이의 거리는 2차원 평면에서 2개의 포인트 사이의 거리를 계산하는 것에 의해 획득될 수 있다.
제1 미리 결정된 값은, 예를 들어, w/2일 수 있고, 거리를 w/2와 비교하는 것에 의해 판정 결과가 획득될 수 있다.
생성 모듈(92)이 미리 결정된 조건이 만족된다고 결정할 때, 후보 목표 위치는 목표 위치로서 식별된다. 예를 들어, 제1 미리 결정된 값 이상인 거리를 갖는 후보 목표 위치가 사용되어야 하는 목표 위치인 것으로 결정된다.
프롬프팅 모듈(93)은 생체 특성 정보를 이동시키도록 사용자에게 프롬프팅하도록 구성되는데, 예컨대, 스크린 상의 생체 특성 정보의 디스플레이 위치가 초기 위치로부터 목표 위치로 이동한다.
목표 위치가 결정된 후에, 단말기는 사용자에게 프롬프팅 정보를 디스플레이할 수 있다. 프롬프팅 정보는 현재 디스플레이 위치에 디스플레이된 얼굴 정보를 목표 위치로 이동시키도록 사용자에게 프롬프팅하는 데 사용된다.
프롬프팅 정보를 뷰잉한 후에, 사용자는 디스플레이된 이미지, 얼굴 또는 머리의 이미지를 이동시킬 수 있고, 사용자의 입력에 응답하여 디스플레이된 것의 디스플레이 위치가 스크린 상에서 연속적으로 이동될 수 있다.
이러한 실시예에서, 목표 위치와 초기 위치 사이의 거리가 미리 결정된 값보다 더 큰 목표 위치를 선택하는 것에 의해, 목표 위치는 위치의 관점에서 초기 위치와 구별되고, 이는 사용자가 사용자의 얼굴 또는 머리의 이미지와 같은 생체 특성을 이동시키는 것이 보다 쉬워지게 한다.
도 6은 예로서 얼굴 이미지를 사용하는 목표 위치와 초기 위치 사이의 관계를 예시한다.
도 9의 판정 모듈(93)은 이동 후의 스크린 상의 생체 특성 정보의 디스플레이 위치를 검출하고, 디스플레이 위치와 목표 위치 사이의 관계에 따라 사용자가 생물체인지 여부를 판정하도록 구성된다.
상술된 바와 같이, 초기 위치를 계산하기 위한 방법과 유사한 방법을 사용하여, 생체 특성이 사용자에 의해 스크린 상에서 이동된 후의 생체 특성 정보의 디스플레이 위치가 획득될 수 있다.
임의로, 판정 모듈(93)에 의해 스크린 상의 이동 후의 생체 특성 정보의 디스플레이 위치를 계산하는 것은, 제1 좌표계 내의 이동 후에 생체 특성 정보의 제스처 정보를 취득하는 것; 및 제1 좌표계 내의 좌표들과 제2 좌표계 내의 좌표들 사이의 미리 확립된 매핑 관계를 사용하여 제1 좌표계 내의 제스처 정보에 대응하는 제2 좌표계 내의 좌표들을 계산하는 것, 및 제2 좌표계 내의 좌표들에 따라 스크린 상의 이동 후의 생체 특성 정보의 디스플레이 위치를 결정하는 것을 포함한다. 제1 좌표계는 생체 특성 정보의 좌표계일 수 있고, 제2 좌표계는 스크린의 좌표계일 수 있다.
예를 들어, 사용자가 사용자의 머리를 움직일 때, 얼굴 제스처 정보가 변경될 수 있다. 제1 좌표계와 제2 좌표계 사이의 미리 확립된 매핑 관계에 따라, 변수 Δx, Δy는 수학식 (1) 및 (2)를 사용하여 결정될 수 있다. 가변적인 스크린 상의 얼굴의 디스플레이 위치는 Δx, Δy 및 좌표 원점을 사용하여 획득될 수 있다.
추가적으로, 스크린 상의 얼굴의 디스플레이 위치가 실시간으로 계산된 후에, 실시간으로 계산된 디스플레이 정보에 따라 얼굴 정보가 대응하는 위치에 디스플레이될 수 있다. 그렇게 함으로써, 사용자는 얼굴 정보를 목표 위치로 실시간으로 이동시키는 것이 가능하다.
제1 좌표계와 제2 좌표계 사이의 매핑 관계를 사용하여, 얼굴 제스처 정보는 스크린 상의 대응하는 위치에 매핑될 수 있다.
임의로, 디스플레이 위치는 사용자에 의한 생체 특성 정보의 이동에 따라 이동하고, 여기서 생체 특성 정보의 이동은 디스플레이 위치가 이동하게 만들고; 디스플레이 위치와 목표 위치 사이의 관계에 따라 사용자가 생물체인지 여부를 판정하는 것은, 디스플레이 위치와 목표 위치 사이의 거리가 제2 미리 결정된 값보다 더 작을 때 이동이 성공적이라고 판정하는 것, 및 사용자가 생체 특성 정보를 성공적으로 이동시킨 횟수가 미리 결정된 횟수에 도달하는 경우, 사용자가 생물체라고 판정하는 것을 포함한다.
예를 들어, 사용자가 머리 이미지를 이동시킬 때, 단말기는 이동 후의 대응하는 디스플레이 위치를 실시간으로 계산하고, 이동 후의 디스플레이 위치와 목표 위치 사이의 거리를, 이러한 2개의 위치 사이의 거리가 제2 미리 결정된 값보다 더 작을 때까지, 실시간으로 계산한다. 2개의 위치 사이의 거리가 제2 미리 결정된 값보다 더 작을 때, 그것은 이동이 성공적임을 표시하고, 성공 횟수가 1로 설정된다. 하나의 성공적인 이동 후에, 미리 결정된 횟수가 1인 경우, 사용자가 생물체라고 판정될 수 있다.
대안적으로, 보안을 추가로 개선시키기 위해, 횟수가 1보다 더 큰 수로 설정될 수 있다. 이러한 경우, 하나의 성공적인 이동 후에, 목표 위치가 랜덤하게 재생성될 수 있고, 사용자가 상술된 프로세스에 따라 생체 특성 정보를 이동시키도록 프롬프팅될 수 있고, 디스플레이 위치와 재생성된 목표 위치 사이의 거리가 실시간으로 계산될 수 있다. 이러한 2개의 위치 사이의 거리가 제2 미리 결정된 값보다 더 작을 때, 그것은 이동이 두 번째로 성공적임을 표시한다. 미리 결정된 횟수가 2인 경우, 사용자가 생물체라고 판정될 수 있다. 미리 결정된 횟수가 2보다 더 큰 경우, 사용자가 생물체인지 여부를 판정하기 위해 사용자에 의한 성공적인 이동들의 수가 미리 결정된 수를 만족시키는지를 결정하기 위해 미리 결정된 수로서 사용되는 수에 따라 프로세스가 반복될 수 있다는 것을 이해할 수 있다.
제2 미리 결정된 값은 제1 미리 결정된 값과 동일하거나 상이할 수 있다. 이러한 실시예에서, 제2 미리 결정된 값이 또한 w/2이고, 이동 후의 디스플레이 위치와 목표 위치 사이의 거리가 w/2보다 더 작다고 가정하면, 검출된 사용자는 생물체라고 판정될 수 있다. 다른 양태에서, 얼굴 매칭이 성공적인지 여부가 결정될 수 있다.
실시간으로, 이동 후의 디스플레이 위치와 목표 위치 사이의 거리를 계산하는 것에 의해, 라이브니스 검출 또는 얼굴 매칭이 성공적인지 여부가 적시에 검출될 수 있다.
이러한 실시예에서, 스크린 상의 디스플레이 위치에의 생체 특성 정보의 매핑을 사용하여, 그리고 디스플레이 위치와 목표 위치 사이의 관계에 기초하여, 사용자가 생물체인지 아닌지의 여부의 결정이 행해질 수 있어서, 사용자 아이덴티티 인증 동안, 생물체의 생체 특성 정보만이 검증되고, 이는 보안을 개선시킨다.
도 10은 본 개시내용의 실시예에 따른 아이덴티티 인증 디바이스(100)를 예시하는 개략적인 구조적 다이어그램이다. 디바이스는 모바일폰 등과 같은 단말기 상에서 구성될 수 있다. 디바이스는 취득 모듈(101), 판정 모듈(102), 전송 모듈(103), 및 수신 모듈(104)을 포함한다.
취득 모듈(101)은, 사용자의 아이덴티티 인증 요청의 수신 시에, 사용자의 생체 특성 정보를 수집하도록 구성된다. 사용자가 아이덴티티 인증을 요청하기를 원할 때, 단말기의 로그인 인터페이스 상의 아이덴티티 인증 버튼이 클릭되어 아이덴티티 인증 요청을 생성할 수 있다. 사용자에 의해 생성된 아이덴티티 인증 요청의 수신 시에, 단말기는 얼굴 정보 등과 같은 생체 특성 정보를 취득할 수 있다.
판정 모듈(102)은 수집된 생체 특성 정보에 따라 사용자가 생물체인지 여부를 판정하도록 구성된다.
판정 모듈(102)은 사용자의 수집된 생체 특성 정보를 단말기의 스크린 상의 초기 위치에 디스플레이하고; 초기 위치에 따라 목표 위치를 결정하고, 목표 위치를 스크린 상에 디스플레이하고; 스크린 상의 생체 특성 정보의 디스플레이 위치가 초기 위치로부터 목표 위치로 이동하도록, 생체 특성 정보를 이동시키도록 사용자에게 프롬프팅하고; 이동 후의 스크린 상의 생체 특성 정보의 디스플레이 위치를 검출하고, 디스플레이 위치와 목표 위치 사이의 관계에 따라 사용자가 생물체인지 여부를 판정하도록 구성된다.
본 개시내용에서의 다른 곳에서 발견되는 라이브니스 검출 상세들, 예컨대 그리고 제한 없이, 앞서 설명된 하나 이상의 실시예들과 관련하여 제공되는 라이브니스 검출 상세들은, 도 10의 실시예에도 또한 적용가능할 수 있다.
전송 모듈(103)은 판정 모듈이 사용자가 생물체라고 판정하는 경우 사용자의 생체 특성 정보를 인증 서버에 전송하도록 구성된다. 인증 서버에 전송된 생체 특성 정보는 생체 특성 정보의 복수의 조각들로부터 선택하는 것에 의해 획득될 수 있다.
임의로, 전송 모듈(103)은 사용자의 수집된 생체 특성 정보의 이미지 프레임 품질을 결정하고, 사용자의 수집된 생체 특성 정보로부터, 이미지 프레임 품질 관점에서 상위에 랭크되는 생체 특성 정보의 처음 N개의 이미지 프레임들을 선택하고; 여기서 N은 미리 결정된 양의 정수임; 이미지 프레임 품질의 관점에서 상위에 랭크되는 생체 특성 정보의 선택된 처음 N개의 이미지 프레임들을 인증 서버에 전송하도록 구성될 수 있다.
상기 예시된 바와 같이, 단말기가 사용자에게 이동하도록 프롬프팅한 후에, 사용자는 머리를 움직일 수 있고, 사용자에 의해 머리를 움직이는 프로세스 동안, 단말기는 사용자의 얼굴에 대한 화상들을 실시간으로 픽업하여, 복수의 얼굴 화상들을 취득하도록 할 수 있다. 복수의 얼굴 화상들은, 이동하라는 프롬프트와 성공적인 얼굴 매칭의 확인(즉, 사용자가 생물체라는 결정) 사이의 주기 동안 단말기에 의해 실시간으로 픽업된 사용자에 대한 얼굴 화상들일 수 있다.
그 뒤에, 라이브니스 검출이 수행될 수 있고, 여기서 생체 특성 정보의 복수의 조각들의 취득 및 라이브니스 검출의 프로세스는 상기 관련 실시예들에 참조될 수 있고, 이는 그에 따라 더 이상 본 명세서에 설명되지 않는다.
대응하는 품질이 추정되어야 하는 상이한 생체 특성 정보에 따라, 품질을 추정하기 위한 상이한 측정 알고리즘들이 사용될 수 있다. 예로서 얼굴 화상들을 사용하면, 이미지들의 품질은 제스처(얼굴이 전방으로 대면하고 있는지 여부), 광(얼굴 상의 광이 충분한지 여부), 얼굴 표정(임의의 얼굴 표정이 있는지 여부) 등에 따라 측정될 수 있다.
특정 측정 알고리즘은 실제 필요들에 따라 정의될 수 있다. 예를 들어, 다양한 파라미터들(제스처, 광 및 얼굴 표정)에 가중치들이 할당될 수 있고, 각각의 파라미터의 값은 그것을 그의 각각의 가중치로 곱하는 것에 의해 가중치 부여될 수 있다. 각각의 얼굴 화상의 이미지 프레임 품질은 가중치 부여된 파라미터 값들의 합계인 것으로 결정될 수 있는데, 예컨대, 곱셈 후의 값들은 각각의 얼굴 화상의 이미지 프레임 품질의 값을 획득하기 위해 함께 가산된다. 얼굴 화상들은 이미지 프레임 품질에 따라, 예컨대, 내림차순으로, 순서화될 수 있고, 여기서 각각의 화상의 이미지 품질은 화상의 가중치 부여된 파라미터 값들의 합계이다. 이미지 프레임 품질 값들의 순서화, 예컨대, 내림차순에 기초하여 N이라는 수의 화상들이 선택될 수 있다. 예로서 그리고 N의 값이 1이라고 가정하면, 순서의 상위에 있는 화상, 예컨대, 최대 값을 갖는 화상이 선택된다. 예를 들어, 이미지 프레임 품질이 첫 번째로 랭크되는 얼굴 화상이 선택된 후에, 얼굴 화상이 인증 서버에 전송된다.
수신 모듈(104)은 인증 서버에 의해 전송된 아이덴티티 인증 결과가 수신되도록 구성되고, 아이덴티티 인증 결과는 인증 서버가 생체 특성 정보를 사용자에 대응하는 미리 저장된 생체 특성 정보와 비교한 후에 전송된다.
얼굴 화상들을 전송할 때, 단말기는 또한 사용자 식별자 정보를 전송할 수 있다. 인증 서버는 사용자 식별자 정보와 얼굴 화상들 사이의 관계를 미리 저장한다. 단말기에 의해 전송된 얼굴 화상들 및 사용자 식별자 정보의 수신 시에, 인증 서버는 사용자 식별자 정보에 따라 미리 저장된 얼굴 화상들을 취득하고, 수신된 얼굴 화상들을 미리 저장된 얼굴 화상들과 비교하여 아이덴티티 인증 결과를 획득할 수 있다.
얼굴 화상 비교는 기존 알고리즘, 예를 들어, 심층 학습에 기초하는 얼굴 비교 알고리즘, 또는 고차원 특성에 기초하는 얼굴 비교 알고리즘을 사용하여 수행될 수 있다.
아이덴티티 인증 결과의 취득 시에, 서버는 아이덴티티 인증 결과를 단말기에 전송할 수 있다. 아이덴티티 인증 결과의 수신 시에, 단말기는 그 결과를 사용자에게 디스플레이한다. 아이덴티티 인증이 성공적일 때, 사용자는 로그인하는 것이 허용되고; 그렇지 않으면, 사용자의 로그인이 실패한다.
추가적으로, 단말기가 복수의 화상들을 인증 서버에 전송하는 경우, 인증 서버는 수신된 화상들을 미리 저장된 화상들과 하나씩 비교할 수 있다. 수신된 화상들 중 하나가 비교를 통해 미리 저장된 화상과 매칭하는 경우, 그것은 인증이 성공적임을 표시한다.
상기 제공된 바와 같이, 사용자가 생물체인 것으로 결정된 후에, 예컨대, 디스플레이 위치와 목표 위치가 매칭한다고 결정되어 라이브니스 검출과 관련하여 사용자가 생물체임을 표시한 후에, 검증 프로세스가 수행될 수 있다.
다른 양태에서 그리고 적어도 하나의 실시예에 따르면, 어떠한 생물체도 없다는 결정이 행해질 때, 예컨대, 디스플레이 위치와 목표 위치가 만족스럽게 매칭하지 않아서 라이브니스 검출과 관련하여 생물체의 부존재를 표시할 때, 단말기는 인증 서버로부터의 검증에 이르게 할 필요 없이 성공적이지 않은 아이덴티티 인증을 표시하는 정보를 사용자에게 직접 리턴한다.
이러한 실시예에서, 라이브니스 검출은 아이덴티티 인증 전에 수행되고, 사용자가 생물체일 때, 추가의 검증이 수행되고, 이는 사진들 등의 형태의 검증 정보의 스푸핑을 방지하고, 그에 따라 인증 동안의 보안을 개선시킨다.
"제1", "제2" 등과 같은 용어들은 단지 본 개시내용에서 예시 목적들을 위해 사용된 것일 뿐이고, 상대적 중요성을 나타내거나 암시하는 것으로서 이해되어서는 안된다는 것에 유의해야 한다. 추가적으로 그리고 본 개시내용에서, "다수" 또는 "복수의"의 의미는 달리 특정되지 않는 한 적어도 2개를 지칭한다.
임의의 방식으로 본 명세서에 설명되거나 흐름도들에 예시되는 임의의 프로세스 또는 방법 설명은 프로세스들에서 특정 로직 기능들 또는 단계들을 구현하기 위한 실행가능 명령어들을 포함하는 코드의 하나 또는 복수의 모듈들, 세그먼트들 또는 부분들을 포함하는 것으로서 이해될 수 있다. 추가적으로, 본 개시내용의 선호되는 실시예들의 범주는 다른 구현들을 커버한다. 기능들 또는 단계들의 구현은 예시되거나 논의되는 시퀀스로 제한되지 않을 수도 있지만; 기능들은 실질적으로 동시적인 방식으로 또는 역순의 시퀀스로 구현될 수 있는데, 이는 본 개시내용의 실시예들에 따라 본 기술분야의 통상의 기술자에 의해 이해될 수 있다.
본 개시내용의 각각의 부분은 하드웨어, 소프트웨어, 펌웨어 또는 이들의 조합을 사용하여 구현될 수 있다는 것을 이해해야 한다. 상기 실시예들에서, 다수의 단계들 또는 방법들은, 메모리에 저장되고 적합한 명령어 실행 시스템에 의해 실행되는 소프트웨어 또는 펌웨어를 사용하여 구현될 수 있다. 예를 들어, 다수의 단계들 또는 방법들이 하드웨어를 사용하여 구현되는 경우, 다른 실시예들과 유사하게, 단계들 또는 방법들은 본 기술분야에 통상적으로 알려져 있는 하기의 기술들 중 임의의 하나 또는 이들의 조합을 사용하여 구현될 수 있다: 데이터 신호들에 따라 로직 기능을 구현하도록 구성된 로직 게이트 회로의 이산 로직 회로, 적합한 조합 로직 게이트를 갖는 주문형 집적 회로, 프로그래밍가능 게이트 어레이(PGA), 필드 프로그래밍가능 게이트 어레이(FPGA) 등.
본 기술분야의 통상의 기술자는 실시예들에서의 방법들의 단계들 중 전부 또는 일부가 관련 하드웨어에 명령하는 프로그램에 의해 구현될 수 있다는 것을 이해한다. 프로그램은 컴퓨터 판독가능 저장 매체에 저장될 수 있다. 프로그램이 실행될 때, 단계들 중 하나 또는 이들의 조합이 방법 실시예들에 포함된다.
추가적으로, 본 개시내용의 실시예들에 따른 다양한 기능 유닛들은 프로세싱 모듈에 통합될 수 있거나, 또는 각각이 독립적인 물리적 유닛들일 수 있다; 대안적으로, 2개 이상의 유닛들이 모듈에 통합될 수 있다. 상기 통합 모듈은 하드웨어를 사용하여 구현될 수 있고, 소프트웨어 기능 모듈을 사용하여 또한 구현될 수 있다. 통합 모듈이 소프트웨어 기능 모듈을 사용하여 구현되고 독립적인 제품으로서 판매 또는 사용되는 경우, 통합 모듈은 또한 컴퓨터 판독가능 저장 매체에 저장될 수 있다.
상기 언급된 저장 매체는 판독 전용 메모리, 자기 디스크, 콤팩트 디스크 판독 전용 메모리 등일 수 있다.
본 명세서의 설명에서, "실시예", "일부 실시예들", "예들", "특정 예들", "일부 예들" 등과 같은 참조 용어들은 실시예들 또는 예들과 결합하여 설명되는 특정 특징들, 구조체들, 재료들, 또는 특성들이 본 개시내용의 적어도 하나의 실시예 또는 예에 포함됨을 나타내도록 의도된다. 본 명세서에서, 상기 용어들의 개략적 표현들은 반드시 동일한 실시예들 또는 예들을 나타내는 것은 아니다. 추가적으로, 설명된 특정 특징들, 구조체들, 재료들, 또는 특성들은 임의의 하나 또는 다수의 실시예들 또는 예들에서 적합한 방식으로 결합될 수 있다.
상기 설명은 본 개시내용의 실시예들을 예시하지만, 실시예들은 단지 예시적일 뿐이고, 본 개시내용에 대한 제한들로서 해석되어서는 안된다는 것을 이해할 수 있다. 본 기술분야의 통상의 기술자는 본 개시내용의 범주 내에서 상기 실시예들에 대한 변화들, 수정들, 및 대체들을 도출할 수 있다.

Claims (19)

  1. 방법으로서,
    컴퓨팅 디바이스에 의해, 사용자의 생체 특성 정보(biological characteristic information)를 수집하는 단계;
    상기 컴퓨팅 디바이스에 의해, 상기 수집된 생체 특성 정보를 상기 컴퓨팅 디바이스의 스크린 상의 초기 위치에 디스플레이하는 단계;
    상기 컴퓨팅 디바이스에 의해, 상기 초기 위치를 사용하여 목표 위치를 결정하고, 상기 목표 위치를 상기 스크린 상에 디스플레이하는 단계;
    상기 컴퓨팅 디바이스에 의해, 상기 디스플레이된 생체 특성을 상기 스크린 상의 상기 초기 위치로부터 상기 스크린 상의 상기 목표 위치로 이동시키도록 하기 위해 상기 사용자의 생체 특성 정보를 이동시키도록 상기 사용자에게 프롬프팅(prompting)하는 단계;
    상기 컴퓨팅 디바이스에 의해, 상기 사용자의 생체 특성 정보 이동을 검출하고, 상기 검출된 사용자의 이동을 사용하여 상기 디스플레이된 생체 특성 정보의 디스플레이 위치를 결정하는 단계; 및
    상기 컴퓨팅 디바이스에 의해, 상기 결정된 디스플레이 위치와 상기 목표 위치 사이의 관계를 사용하여 상기 사용자가 생물체(living being)인지 여부를 판정하는 단계
    를 포함하는, 방법.
  2. 제1항에 있어서, 상기 수집된 생체 특성 정보를 상기 컴퓨팅 디바이스의 스크린 상의 초기 위치에 디스플레이하는 단계는,
    상기 컴퓨팅 디바이스에 의해, 상기 사용자의 상기 수집된 생체 특성 정보의 키 영역(key region)을 결정하는 단계;
    상기 컴퓨팅 디바이스에 의해 그리고 상기 키 영역 내의 수집된 생체 특성 정보를 사용하여, 상기 수집된 생체 특성 정보의 초기 제스처를 획득하는 단계; 및
    상기 컴퓨팅 디바이스에 의해, 상기 초기 제스처를 사용하여 좌표 매핑(coordinate mapping)을 수행하고, 상기 수집된 생체 특성 정보를 상기 컴퓨팅 디바이스의 상기 스크린 상의 상기 초기 위치에 매핑하는 단계
    를 포함하는, 방법.
  3. 제2항에 있어서, 상기 초기 제스처를 사용하여 좌표 매핑을 수행하고, 상기 수집된 생체 특성 정보를 상기 컴퓨팅 디바이스의 상기 스크린 상의 상기 초기 위치에 매핑하는 단계는,
    상기 컴퓨팅 디바이스에 의해, 제1 좌표계(coordinate system)의 좌표들과 제2 좌표계의 좌표들 사이의 매핑 관계를 취득하는 단계 - 상기 제1 좌표계는 상기 사용자의 상기 생체 특성 정보와 함께 사용하기 위한 것이고, 상기 제2 좌표계는 상기 컴퓨팅 디바이스의 스크린과 함께 사용하기 위한 것임 -;
    상기 매핑 관계를 사용하여 상기 초기 제스처에 대응하는 상기 초기 위치의 좌표들을 결정하는 단계; 및
    상기 초기 위치의 좌표들을 사용하여 상기 수집된 생체 특성 정보의 적어도 일부를 상기 초기 위치에 매핑하는 단계
    를 포함하는, 방법.
  4. 제1항에 있어서, 상기 초기 위치를 사용하여 목표 위치를 결정하는 단계는,
    상기 컴퓨팅 디바이스에 의해, 후보 목표 위치를 랜덤하게 생성하는 단계;
    상기 컴퓨팅 디바이스에 의해, 상기 후보 목표 위치 및 상기 초기 위치가 미리 결정된 조건을 만족시키는지 여부를 판정하는 단계; 및
    상기 미리 결정된 조건이 만족될 때, 상기 후보 목표 위치를 상기 목표 위치로서 사용하는 단계
    를 더 포함하는, 방법.
  5. 제4항에 있어서, 상기 후보 목표 위치 및 상기 초기 위치가 미리 결정된 조건을 만족시키는지 여부를 판정하는 단계는,
    상기 컴퓨팅 디바이스에 의해, 상기 후보 목표 위치와 상기 초기 위치 사이의 거리를 계산하는 단계;
    상기 컴퓨팅 디바이스에 의해, 상기 거리가 제1 미리 결정된 값보다 더 작은지 여부를 판정하는 단계;
    상기 거리가 상기 제1 미리 결정된 값보다 더 작은 경우, 상기 컴퓨팅 디바이스에 의해, 상기 거리가 상기 제1 미리 결정된 값 이상일 때까지 후보 목표 위치를 재생성하는 단계; 및
    상기 거리가 상기 제1 미리 결정된 값 이상일 때, 상기 컴퓨팅 디바이스에 의해, 상기 후보 목표 위치 및 상기 초기 위치가 상기 미리 결정된 조건을 만족시킨다고 판정하는 단계
    를 포함하는, 방법.
  6. 제1항에 있어서, 상기 디스플레이 위치와 상기 목표 위치 사이의 관계를 사용하여 상기 사용자가 생물체인지 여부를 판정하는 단계는,
    상기 디스플레이 위치와 상기 목표 위치 사이의 거리가 제2 미리 결정된 값보다 더 작을 때, 상기 사용자가 상기 디스플레이된 생체 특성을 성공적으로 이동시켰다고 판정하는 단계; 및
    상기 사용자가 상기 디스플레이된 생체 특성을 성공적으로 이동시켰다고 판정된 횟수가 미리 결정된 횟수에 도달하는 경우, 상기 사용자가 생물체라고 판정하는 단계
    를 포함하는, 방법.
  7. 제1항에 있어서, 상기 검출된 사용자의 이동을 사용하여 상기 디스플레이된 생체 특성 정보의 상기 디스플레이 위치를 결정하는 단계는,
    상기 사용자의 이동을 검출하는 것에 응답하여 상기 사용자에 의해 상기 생체 특성 정보의 이동의 제스처 정보를 취득하는 단계 - 상기 제스처 정보는 제1 좌표계에 있음 -;
    상기 제1 좌표계 내의 좌표들과 제2 좌표계 내의 좌표들 사이의 미리 확립된 매핑 관계를 사용하여 상기 제1 좌표계 내의 상기 제스처 정보에 대응하는 상기 제2 좌표계 내의 좌표들을 계산하는 단계; 및
    상기 제2 좌표계 내의 상기 계산된 좌표들을 사용하여 상기 디스플레이된 생체 특성 정보의 상기 스크린 상의 상기 디스플레이 위치를 결정하는 단계 - 상기 제1 좌표계는 상기 사용자의 생체 특성 정보와 함께 사용하기 위한 좌표계이고, 상기 제2 좌표계는 상기 스크린과 함께 사용하기 위한 좌표계임 -
    를 포함하는, 방법.
  8. 제1항에 있어서, 상기 사용자의 생체 특성 정보는 얼굴 정보인, 방법.
  9. 방법으로서,
    사용자의 아이덴티티 인증 명령어(identity authentication instruction)의 수신 시에, 컴퓨팅 디바이스가 상기 사용자의 생체 특성 정보를 수집하는 단계;
    상기 컴퓨팅 디바이스에 의해, 상기 수집된 생체 특성 정보에 따라 상기 사용자가 생물체인지 여부를 판정하는 단계;
    상기 사용자가 생물체인 것으로 판정되는 경우, 상기 컴퓨팅 디바이스가 상기 사용자의 상기 수집된 생체 특성 정보를 인증 서버에 전송하는 단계; 및
    상기 컴퓨팅 디바이스에 의해 그리고 상기 인증 서버로부터, 상기 사용자에 대응하는 미리 저장된 생체 특성 정보와 상기 수집된 생체 특성 정보와의 비교의 아이덴티티 인증 결과를 수신하는 단계
    를 포함하고;
    상기 컴퓨팅 디바이스에 의해, 상기 사용자가 생물체인지 여부를 판정하는 단계는,
    상기 수집된 생체 특성 정보의 적어도 일부를 상기 컴퓨팅 디바이스의 스크린 상의 초기 위치에 디스플레이하는 단계;
    상기 초기 위치를 사용하여 목표 위치를 결정하고, 상기 목표 위치를 상기 스크린 상에 디스플레이하는 단계;
    상기 디스플레이된 생체 특성을 상기 스크린 상의 상기 초기 위치로부터 상기 스크린 상의 상기 목표 위치로 이동시키도록 하기 위해 상기 사용자의 생체 특성 정보를 이동시키도록 상기 사용자에게 프롬프팅하는 단계;
    상기 사용자의 생체 특성 정보 이동을 검출하고, 상기 검출된 사용자의 이동을 사용하여 상기 디스플레이된 생체 특성 정보의 디스플레이 위치를 결정하는 단계; 및
    상기 결정된 디스플레이 위치와 상기 목표 위치 사이의 관계를 사용하여 상기 사용자가 생물체인지 여부를 판정하는 단계
    를 포함하는, 방법.
  10. 제9항에 있어서, 상기 사용자의 상기 수집된 생체 특성 정보를 인증 서버에 전송하는 단계는,
    상기 컴퓨팅 디바이스에 의해, 상기 사용자의 상기 수집된 생체 특성 정보의 이미지 프레임 품질을 결정하는 단계;
    상기 컴퓨팅 디바이스에 의해 그리고 상기 사용자의 상기 수집된 생체 특성 정보로부터, 이미지 프레임 품질의 관점에서 상위에 랭크되는 상기 수집된 생체 특성 정보의 이미지 프레임들의 수를 선택하는 단계 - 상기 수는 미리 결정된 양의 정수(positive integer)임 -; 및
    상기 컴퓨팅 디바이스에 의해, 상기 이미지 프레임 품질의 관점에서 상위에 랭크되는 상기 수집된 생체 특성 정보의 상기 선택된 수의 이미지 프레임들을 상기 인증 서버에 전송하는 단계
    를 포함하는, 방법.
  11. 디바이스로서,
    사용자의 생체 특성 정보를 수집하고, 상기 수집된 생체 특성 정보를 컴퓨팅 디바이스의 스크린 상의 초기 위치에 디스플레이하는 제1 디스플레이 모듈;
    상기 초기 위치를 사용하여 목표 위치를 결정하고, 상기 목표 위치를 상기 스크린 상에 디스플레이하는 제2 디스플레이 모듈;
    상기 디스플레이된 생체 특성을 상기 스크린 상의 상기 초기 위치로부터 상기 스크린 상의 상기 목표 위치로 이동시키도록 하기 위해 상기 사용자의 생체 특성 정보를 이동시키도록 상기 사용자에게 프롬프팅하는 프롬프팅 모듈; 및
    상기 사용자의 생체 특성 정보 이동을 검출하고, 상기 검출된 사용자의 이동을 사용하여 상기 디스플레이된 생체 특성 정보의 디스플레이 위치를 결정하고, 상기 결정된 디스플레이 위치와 상기 목표 위치 사이의 관계를 사용하여 상기 사용자가 생물체인지 여부를 판정하는 판정 모듈
    을 포함하는, 디바이스.
  12. 제11항에 있어서, 상기 제1 디스플레이 모듈이 상기 생체 특성 정보를 컴퓨팅 디바이스의 스크린 상의 초기 위치에 디스플레이하는 것은,
    상기 제1 디스플레이 모듈이 상기 사용자의 상기 수집된 생체 특성 정보의 키 영역(key region)을 결정하는 것;
    상기 제1 디스플레이 모듈이, 계산을 통해 그리고 상기 키 영역 내의 생체 특성 정보를 사용하여, 상기 수집된 생체 특성 정보의 초기 제스처를 획득하는 것; 및
    상기 제1 디스플레이 모듈이 상기 초기 제스처를 사용하여 좌표 매핑을 수행하고, 상기 수집된 생체 특성 정보를 상기 컴퓨팅 디바이스의 상기 스크린 상의 상기 초기 위치에 매핑하는 것
    을 포함하는, 디바이스.
  13. 제12항에 있어서, 상기 제1 디스플레이 모듈이 상기 초기 제스처를 사용하여 좌표 매핑을 수행하고, 상기 생체 특성 정보를 상기 컴퓨팅 디바이스의 상기 스크린 상의 상기 초기 위치에 매핑하는 것은,
    상기 제1 디스플레이 모듈이 제1 좌표계의 좌표들과 제2 좌표계의 좌표들 사이의 매핑 관계를 취득하는 것 - 상기 제1 좌표계는 상기 사용자의 상기 생체 특성 정보와 함께 사용하기 위한 것이고, 상기 제2 좌표계는 상기 컴퓨팅 디바이스의 스크린과 함께 사용하기 위한 것임 -;
    상기 제1 디스플레이 모듈이 상기 매핑 관계를 사용하여 상기 초기 제스처에 대응하는 상기 초기 위치의 좌표들을 결정하는 것; 및
    상기 제1 디스플레이 모듈이 상기 초기 위치의 좌표들을 사용하여 상기 수집된 생체 특성 정보의 적어도 일부를 상기 초기 위치에 매핑하는 것
    을 포함하는, 디바이스.
  14. 제11항에 있어서, 상기 제2 디스플레이 모듈이 상기 초기 위치를 사용하여 목표 위치를 결정하는 것은,
    상기 제2 디스플레이 모듈이 후보 목표 위치를 랜덤하게 생성하는 것;
    상기 제2 디스플레이 모듈이 상기 후보 목표 위치 및 상기 초기 위치가 미리 결정된 조건을 만족시키는지 여부를 판정하는 것; 및
    상기 제2 디스플레이 모듈이, 상기 미리 결정된 조건이 만족될 때, 상기 후보 목표 위치를 상기 목표 위치로서 사용하는 것
    을 더 포함하는, 디바이스.
  15. 제14항에 있어서, 상기 제2 디스플레이 모듈이 상기 후보 목표 위치 및 상기 초기 위치가 미리 결정된 조건을 만족시키는지 여부를 판정하는 것은,
    상기 제2 디스플레이 모듈이 상기 후보 목표 위치와 상기 초기 위치 사이의 거리를 계산하는 것;
    상기 제2 디스플레이 모듈이 상기 거리가 제1 미리 결정된 값보다 더 작은지 여부를 판정하는 것;
    상기 제2 디스플레이 모듈이, 상기 거리가 상기 제1 미리 결정된 값보다 더 작은 경우, 상기 거리가 상기 제1 미리 결정된 값 이상일 때까지 후보 목표 위치를 재생성하는 것; 및
    상기 제2 디스플레이 모듈이, 상기 거리가 상기 제1 미리 결정된 값 이상일 때, 상기 후보 목표 위치 및 상기 초기 위치가 상기 미리 결정된 조건을 만족시킨다고 판정하는 것
    을 포함하는, 디바이스.
  16. 제11항에 있어서, 상기 판정 모듈이 상기 디스플레이 위치와 상기 목표 위치 사이의 관계를 사용하여 상기 사용자가 생물체인지 여부를 판정하는 것은,
    상기 판정 모듈이, 상기 디스플레이 위치와 상기 목표 위치 사이의 거리가 제2 미리 결정된 값보다 더 작을 때, 상기 이동이 성공적이라고 판정하는 것; 및
    상기 판정 모듈이, 성공적인 이동 횟수가 미리 결정된 횟수에 도달하는 경우, 상기 사용자가 생물체라고 판정하는 것
    을 포함하는, 디바이스.
  17. 제11항에 있어서, 상기 판정 모듈이 상기 검출된 사용자의 이동을 사용하여 상기 디스플레이된 생체 특성 정보의 디스플레이 위치를 결정하는 것은,
    상기 판정 모듈이 상기 사용자의 이동을 검출하는 것에 응답하여 상기 사용자에 의해 상기 생체 특성 정보의 이동의 제스처 정보를 취득하는 것 - 상기 제스처 정보는 제1 좌표계에 있음 -;
    상기 판정 모듈이 상기 제1 좌표계 내의 좌표들과 제2 좌표계 내의 좌표들 사이의 미리 확립된 매핑 관계를 사용하여 상기 제1 좌표계 내의 상기 제스처 정보에 대응하는 상기 제2 좌표계 내의 좌표들을 계산하는 것; 및
    상기 판정 모듈이 상기 제2 좌표계 내의 상기 계산된 좌표들을 사용하여 상기 디스플레이된 생체 특성 정보의 상기 스크린 상의 디스플레이 위치를 결정하는 것 - 상기 제1 좌표계는 상기 사용자의 생체 특성 정보와 함께 사용하기 위한 좌표계이고, 상기 제2 좌표계는 상기 스크린과 함께 사용하기 위한 좌표계임 -
    을 포함하는, 디바이스.
  18. 디바이스로서,
    사용자의 아이덴티티 인증 명령어의 수신 시에, 상기 사용자의 생체 특성 정보를 수집하는 취득 모듈;
    상기 수집된 생체 특성 정보에 따라 상기 사용자가 생물체인지 여부를 판정하는 판정 모듈;
    상기 판정 모듈이 상기 사용자가 생물체라고 판정하는 경우, 상기 사용자의 상기 수집된 생체 특성 정보를 인증 서버에 전송하는 전송 모듈; 및
    상기 인증 서버로부터, 상기 사용자에 대응하는 미리 저장된 생체 특성 정보와 상기 수집된 생체 특성 정보와의 비교의 아이덴티티 인증 결과를 수신하는 수신 모듈
    을 포함하고;
    상기 판정 모듈이 상기 수집된 생체 특성 정보에 따라 상기 사용자가 생물체인지 여부를 판정하는 것은,
    상기 판정 모듈이 상기 수집된 생체 특성 정보의 적어도 일부를 상기 디바이스의 스크린 상의 초기 위치에 디스플레이하는 것;
    상기 판정 모듈이 상기 초기 위치를 사용하여 목표 위치를 결정하고, 상기 목표 위치를 상기 스크린 상에 디스플레이하는 것;
    상기 판정 모듈이 상기 디스플레이된 생체 특성을 상기 스크린 상의 상기 초기 위치로부터 상기 스크린 상의 상기 목표 위치로 이동시키도록 하기 위해 상기 사용자의 생체 특성 정보를 이동시키도록 상기 사용자에게 프롬프팅하는 것;
    상기 판정 모듈이 상기 사용자의 생체 특성 정보 이동을 검출하고, 상기 검출된 사용자의 이동을 사용하여 상기 디스플레이된 생체 특성 정보의 디스플레이 위치를 결정하는 것; 및
    상기 판정 모듈이 상기 결정된 디스플레이 위치와 상기 목표 위치 사이의 관계를 사용하여 상기 사용자가 생물체인지 여부를 판정하는 것
    을 포함하는, 디바이스.
  19. 제18항에 있어서, 상기 전송 모듈이 상기 사용자의 상기 수집된 생체 특성 정보를 인증 서버에 전송하는 것은,
    상기 전송 모듈이 상기 사용자의 상기 수집된 생체 특성 정보의 이미지 프레임 품질을 결정하는 것;
    상기 전송 모듈이, 상기 사용자의 상기 수집된 생체 특성 정보로부터, 이미지 프레임 품질의 관점에서 상위에 랭크되는 상기 수집된 생체 특성 정보의 이미지 프레임들의 수를 선택하는 것 - 상기 수는 미리 결정된 양의 정수임 -; 및
    상기 전송 모듈이 이미지 프레임 품질의 관점에서 상위에 랭크되는 상기 수집된 생체 특성 정보의 상기 선택된 수의 이미지 프레임들을 상기 인증 서버에 전송하는 것
    을 포함하는, 디바이스.
KR1020177037454A 2015-06-10 2016-06-09 라이브니스 검출 방법 및 디바이스, 및 아이덴티티 인증 방법 및 디바이스 KR102036978B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
CN201510315782.2A CN106295287B (zh) 2015-06-10 2015-06-10 活体检测方法和装置以及身份认证方法和装置
CN201510315782.2 2015-06-10
US15/176,515 2016-06-08
US15/176,515 US10250598B2 (en) 2015-06-10 2016-06-08 Liveness detection method and device, and identity authentication method and device
PCT/US2016/036547 WO2016201016A1 (en) 2015-06-10 2016-06-09 Liveness detection method and device, and identity authentication method and device

Publications (2)

Publication Number Publication Date
KR20180017056A KR20180017056A (ko) 2018-02-20
KR102036978B1 true KR102036978B1 (ko) 2019-10-25

Family

ID=57517360

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177037454A KR102036978B1 (ko) 2015-06-10 2016-06-09 라이브니스 검출 방법 및 디바이스, 및 아이덴티티 인증 방법 및 디바이스

Country Status (6)

Country Link
US (1) US10250598B2 (ko)
EP (1) EP3308325B1 (ko)
JP (1) JP6610906B2 (ko)
KR (1) KR102036978B1 (ko)
CN (1) CN106295287B (ko)
TW (1) TWI662433B (ko)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104980278B (zh) * 2014-04-14 2018-11-16 阿里巴巴集团控股有限公司 验证生物特征图像的可用性的方法和装置
US10289825B2 (en) * 2016-07-22 2019-05-14 Nec Corporation Login access control for secure/private data
WO2018109533A1 (en) * 2016-12-16 2018-06-21 Keylemon Sa A method for selecting frames used in face processing
GB2560340A (en) * 2017-03-07 2018-09-12 Eyn Ltd Verification method and system
US11199907B2 (en) * 2017-05-29 2021-12-14 Abhinav Arvindkumar AGGARWAL Method and a system for assisting in performing financial services
CN107292620A (zh) * 2017-06-14 2017-10-24 浪潮金融信息技术有限公司 身份识别方法及装置、计算机可读存储介质、终端
CN107609462A (zh) * 2017-07-20 2018-01-19 北京百度网讯科技有限公司 待检测信息生成及活体检测方法、装置、设备及存储介质
CN107657160B (zh) * 2017-09-12 2020-01-31 Oppo广东移动通信有限公司 面部信息采集方法及相关产品
CN109587188B (zh) * 2017-09-28 2021-10-22 阿里巴巴集团控股有限公司 确定终端设备之间相对位置关系的方法、装置及电子设备
CN107832598B (zh) * 2017-10-17 2020-08-14 Oppo广东移动通信有限公司 解锁控制方法及相关产品
KR20190046063A (ko) * 2017-10-25 2019-05-07 현대자동차주식회사 사용자 인증 시스템, 사용자 인증 방법 및 서버
CN107733911A (zh) * 2017-10-30 2018-02-23 郑州云海信息技术有限公司 一种动力与环境监控系统客户端登录验证系统及方法
FR3077658B1 (fr) * 2018-02-06 2020-07-17 Idemia Identity And Security Procede d'authentification d'un visage
CN108509916A (zh) * 2018-03-30 2018-09-07 百度在线网络技术(北京)有限公司 用于生成图像的方法和装置
CN109345253A (zh) * 2018-09-04 2019-02-15 阿里巴巴集团控股有限公司 资源转移方法、装置及系统
SG11202104685WA (en) * 2018-11-05 2021-06-29 Nec Corp Information processing apparatus, information processing method, and storage medium
CN110532744A (zh) * 2019-07-22 2019-12-03 平安科技(深圳)有限公司 人脸登录方法、装置、计算机设备及存储介质
US11263634B2 (en) * 2019-08-16 2022-03-01 Advanced New Technologies Co., Ltd. Payment method and device
KR102115989B1 (ko) * 2020-02-25 2020-05-27 주식회사 이글루시큐리티 3차원 대시보드 제공 방법, 장치 및 프로그램
KR102389587B1 (ko) * 2020-10-13 2022-04-25 (주)드림시큐리티 안면인식 바이오 정보 라이브니스 검증 장치 및 방법
CN112363621B (zh) * 2020-11-13 2024-05-14 北京达佳互联信息技术有限公司 一种终端控制方法、装置、电子设备及存储介质
KR102545565B1 (ko) * 2021-10-06 2023-06-21 주식회사 오픈잇 라이브니스 검증 방법, 및 이를 이용하는 서버 및 프로그램
CN116994344A (zh) * 2022-07-18 2023-11-03 腾讯科技(深圳)有限公司 刷掌验证的引导方法、装置、终端、存储介质及程序产品
WO2024168396A1 (en) * 2023-02-16 2024-08-22 Icm Airport Technics Pty Ltd Automated facial detection with anti-spoofing
CN116883003A (zh) * 2023-07-10 2023-10-13 国家电网有限公司客户服务中心 基于生物探针技术的移动端支付购电反欺诈方法、系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130044055A1 (en) * 2011-08-20 2013-02-21 Amit Vishram Karmarkar Method and system of user authentication with bioresponse data
WO2014184436A1 (en) * 2013-05-17 2014-11-20 Nokia Corporation Method and apparatus for live user recognition

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0146446B1 (ko) * 1995-07-24 1998-08-17 양승택 병렬 공통 버스형 고속 패킷 교환 시스템의 가입자 입출력 장치
JP2003317100A (ja) 2002-02-22 2003-11-07 Matsushita Electric Ind Co Ltd 情報端末装置、認証システム、及び登録・認証方法
FI117217B (fi) * 2003-10-01 2006-07-31 Nokia Corp Menetelmä ja järjestelmä käyttöliittymän (User Interface) hallitsemiseksi, vastaava laite ja ohjelmalliset (Software) välineet menetelmän toteuttamiseksi
US7629880B2 (en) * 2004-03-09 2009-12-08 Ingrid, Inc. System, method and device for detecting a siren
EP1715443B1 (en) 2005-04-22 2012-12-05 Hitachi-Omron Terminal Solutions, Corp. Biometrics authentication apparatus
JP2007241500A (ja) * 2006-03-07 2007-09-20 Toshiba Corp 顔認証装置および顔認証方法
WO2008039252A2 (en) 2006-05-15 2008-04-03 Retica Systems, Inc. Multimodal ocular biometric system
JP4752660B2 (ja) * 2006-07-28 2011-08-17 沖電気工業株式会社 個人認証方法及び個人認証装置
KR100851981B1 (ko) 2007-02-14 2008-08-12 삼성전자주식회사 비디오 영상에서 실 객체 판별 방법 및 장치
US8555207B2 (en) * 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
ES2629335T3 (es) 2008-12-17 2017-08-08 Fujitsu Limited Dispositivo de autenticación biométrica y método de autenticación biométrica
TW201113523A (en) * 2009-08-31 2011-04-16 Mbio Diagnostics Inc Integrated sample preparation and analyte detection
EP2357608B1 (en) * 2009-12-28 2012-11-21 Softkinetic Software Tracking method
US8994499B2 (en) * 2011-03-16 2015-03-31 Apple Inc. Locking and unlocking a mobile device using facial recognition
JP2012196286A (ja) * 2011-03-18 2012-10-18 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム装置の制御方法、及びプログラム
JP4916583B1 (ja) * 2011-05-31 2012-04-11 有限会社はたらきもの 画像利用式認証方法
US8548207B2 (en) 2011-08-15 2013-10-01 Daon Holdings Limited Method of host-directed illumination and system for conducting host-directed illumination
RU2627927C2 (ru) * 2011-09-25 2017-08-14 Теранос, Инк. Системы и способы многостороннего анализа
WO2013100898A1 (en) 2011-12-27 2013-07-04 Intel Corporation Turing test based user authentication and user presence verification system, device, and method
US9025830B2 (en) 2012-01-20 2015-05-05 Cyberlink Corp. Liveness detection system based on face behavior
US9082011B2 (en) 2012-03-28 2015-07-14 Texas State University—San Marcos Person identification using ocular biometrics with liveness detection
TW201401186A (zh) * 2012-06-25 2014-01-01 Psp Security Co Ltd 人臉判斷系統以及方法
US8437513B1 (en) 2012-08-10 2013-05-07 EyeVerify LLC Spoof detection for biometric authentication
EP2713307B1 (en) 2012-09-28 2018-05-16 Accenture Global Services Limited Liveness detection
US8856541B1 (en) 2013-01-10 2014-10-07 Google Inc. Liveness detection
US9313200B2 (en) 2013-05-13 2016-04-12 Hoyos Labs Ip, Ltd. System and method for determining liveness
CN103440479B (zh) * 2013-08-29 2016-12-28 湖北微模式科技发展有限公司 一种活体人脸检测方法与系统
TW201512882A (zh) 2013-09-30 2015-04-01 Hon Hai Prec Ind Co Ltd 身份認證系統及方法
US9305225B2 (en) 2013-10-14 2016-04-05 Daon Holdings Limited Methods and systems for determining user liveness
US9020213B1 (en) 2013-10-17 2015-04-28 Daon Holdings Limited Methods and systems for detecting biometric characteristics in an image
US9202119B2 (en) 2013-10-18 2015-12-01 Daon Holdings Limited Methods and systems for determining user liveness
CN103593598B (zh) * 2013-11-25 2016-09-21 上海骏聿数码科技有限公司 基于活体检测和人脸识别的用户在线认证方法及系统
KR20150087670A (ko) * 2014-01-22 2015-07-30 삼성전자주식회사 스마트 워치 및 그 제어 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130044055A1 (en) * 2011-08-20 2013-02-21 Amit Vishram Karmarkar Method and system of user authentication with bioresponse data
WO2014184436A1 (en) * 2013-05-17 2014-11-20 Nokia Corporation Method and apparatus for live user recognition

Also Published As

Publication number Publication date
TWI662433B (zh) 2019-06-11
JP6610906B2 (ja) 2019-11-27
CN106295287A (zh) 2017-01-04
JP2018524654A (ja) 2018-08-30
CN106295287B (zh) 2019-04-09
KR20180017056A (ko) 2018-02-20
EP3308325A1 (en) 2018-04-18
EP3308325C0 (en) 2023-10-25
EP3308325B1 (en) 2023-10-25
EP3308325A4 (en) 2019-01-23
TW201643761A (zh) 2016-12-16
US10250598B2 (en) 2019-04-02
US20160366129A1 (en) 2016-12-15

Similar Documents

Publication Publication Date Title
KR102036978B1 (ko) 라이브니스 검출 방법 및 디바이스, 및 아이덴티티 인증 방법 및 디바이스
US11048953B2 (en) Systems and methods for facial liveness detection
US10546183B2 (en) Liveness detection
EP3332403B1 (en) Liveness detection
US10521643B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
JP6762380B2 (ja) 身分認証方法および装置
US10733274B2 (en) Biometric authentication using gesture
US9985963B2 (en) Method and system for authenticating liveness face, and computer program product thereof
CN104246793A (zh) 移动设备的三维脸部识别
Li et al. Seeing your face is not enough: An inertial sensor-based liveness detection for face authentication
CN105260726B (zh) 基于人脸姿态控制的交互式视频活体检测方法及其系统
EP3282390B1 (en) Methods and systems for determining user liveness and verifying user identities
EP3559847B1 (en) Electronic device for biometric authentication of a user
US11115408B2 (en) Methods and systems for determining user liveness and verifying user identities
KR20110080327A (ko) 얼굴 인식 장치 및 그 방법
CN108833774A (zh) 拍照控制方法、装置和无人机系统
WO2016201016A1 (en) Liveness detection method and device, and identity authentication method and device
JP5975828B2 (ja) 顔特徴抽出装置および顔認証システム
KR20160045371A (ko) 생체 정보를 이용한 사용자 인증 방법
TW202044112A (zh) 三維活體識別之人臉識別系統、三維活體識別方法及儲存媒體

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant