KR20210077993A - 사용자 인증 장치, 사용자 인증 방법, 및 사용자 인증을 위한 학습 방법 - Google Patents

사용자 인증 장치, 사용자 인증 방법, 및 사용자 인증을 위한 학습 방법 Download PDF

Info

Publication number
KR20210077993A
KR20210077993A KR1020190169581A KR20190169581A KR20210077993A KR 20210077993 A KR20210077993 A KR 20210077993A KR 1020190169581 A KR1020190169581 A KR 1020190169581A KR 20190169581 A KR20190169581 A KR 20190169581A KR 20210077993 A KR20210077993 A KR 20210077993A
Authority
KR
South Korea
Prior art keywords
image
feature vector
user authentication
user
neural network
Prior art date
Application number
KR1020190169581A
Other languages
English (en)
Inventor
김희원
이선민
김지혜
송주환
한재준
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020190169581A priority Critical patent/KR20210077993A/ko
Priority to US16/875,368 priority patent/US11482042B2/en
Priority to CN202010513178.1A priority patent/CN112989304A/zh
Priority to EP20187330.4A priority patent/EP3839810A1/en
Publication of KR20210077993A publication Critical patent/KR20210077993A/ko
Priority to US17/948,450 priority patent/US11749005B2/en
Priority to US18/355,020 priority patent/US20230360410A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06K9/00221
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Computer Hardware Design (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

일 실시예에 따른 사용자 인증 방법 및 사용자 인증 장치는 정면화된 사용자의 얼굴을 포함하는 입력 영상을 획득하고, 입력 영상에 포함된 픽셀들 중 정면화된 사용자의 얼굴의 깊이 영상에서 값이 유지되는 픽셀들에 대응하여 사용자를 인증하기 위한 신뢰도 값들을 포함하는 신뢰도 맵을 산출하고, 입력 영상과 신뢰도 맵에 기초하여 생성되는 제2 영상으로부터 제2 특징 벡터를 추출하고, 등록 영상에 대응하는 제1 특징 벡터를 획득하며, 제1 특징 벡터와 제2 특징 벡터 간의 상관 관계를 기초로, 사용자 인증을 수행한다.

Description

사용자 인증 장치, 사용자 인증 방법, 및 사용자 인증을 위한 학습 방법{USER AUTHENTICATION DEVICE, USER AUTHENTICATION METHOD AND TRAINING METHOD FOR USER AUTHENTICATION}
아래의 실시예들은 사용자 인증 장치, 사용자 인증 방법, 및 사용자 인증을 위한 학습 방법에 관한 것이다.
3차원 얼굴의 인식률을 높이기 위해 사용자의 측면 얼굴을 회전시켜 정면화(Frontalization)된 얼굴을 이용하는 정면화 방식이 사용될 수 있다. 정면화 방식은 얼굴의 특징점이 정확하게 검출되지 않는 경우 얼굴을 3차원 모델의 원하는 위치에 배치할 수 없다. 정면화된 얼굴에서 깊이 정보가 없는 부분으로 인해 영상의 왜곡이 발생하고, 영상의 왜곡으로 인해 3차원 얼굴의 인식률에 영향을 줄 수 있다. 이를 해결하기 위해 깊이 정보가 있는 반대편 얼굴을 채워 넣는 소프트 대칭(Soft Symmetry) 방식이 사용될 수 있으나, 소프트 대칭 방식은 측면 포즈 영상에서 코끝 랜드마크가 정확히 검출되지 않는 경우, 대칭으로 인한 결함(artifact)으로 인해 인식 성능이 오히려 저하될 수 있다.
일 측에 따른 사용자 인증 방법은 정면화(frontalization)된 사용자의 얼굴을 포함하는 입력 영상을 획득하는 단계; 상기 입력 영상에 포함된 픽셀들 중 상기 정면화된 사용자의 얼굴의 깊이 영상에서 값이 유지되는 픽셀들에 대응하여 상기 사용자를 인증하기 위한 신뢰도 값들을 포함하는 제2 신뢰도 맵(Confidence Map)을 산출하는 단계; 상기 입력 영상과 상기 제2 신뢰도 맵에 기초하여 생성되는 제2 영상으로부터 제2 특징 벡터를 추출하는 단계; 등록 영상에 대응하는 제1 특징 벡터를 획득하는 단계; 및 상기 제1 특징 벡터와 상기 제2 특징 벡터 간의 상관 관계를 기초로, 사용자 인증을 수행하는 단계를 포함한다.
상기 입력 영상은 상기 정면화된 사용자의 얼굴의 깊이 영상에서 값이 유지되는 픽셀들을 포함할 수 있다.
상기 제1 특징 벡터는 상기 등록 영상 및 상기 등록 영상에 대응하는 제1 신뢰도 맵에 기초하여 생성되는 제1 영상으로부터 추출되어 기 저장될 수 있다.
상기 제2 신뢰도 맵을 산출하는 단계는 학습 영상에 포함된 픽셀들 중 상기 학습 영상에 포함된 상기 정면화된 사용자의 얼굴의 깊이 영상에서 값이 유지되는 픽셀들에 대응하여 상기 학습 영상에 포함된 사용자를 인증하기 위한 신뢰도 값들을 포함하는 신뢰도 맵을 출력하는 신경망을 이용하여, 상기 입력 영상에 대응하는 상기 제2 신뢰도 맵을 산출하는 단계를 포함할 수 있다.
상기 제2 특징 벡터를 추출하는 단계는 상기 입력 영상과 상기 제2 신뢰도 맵 간의 연산을 통해 각 픽셀의 깊이 정보 및 깊이 신뢰도를 함축하는 상기 제2 영상을 생성하는 단계; 및 상기 제2 영상으로부터 상기 제2 특징 벡터를 추출하는 단계를 포함할 수 있다.
상기 사용자 인증을 수행하는 단계는 상기 제1 특징 벡터와 상기 제2 특징 벡터 간의 유사도 값의 크기와 미리 정해진 임계값을 비교함으로써, 상기 사용자 인증을 수행하는 단계를 포함할 수 있다.
상기 사용자 인증을 수행하는 단계는 상기 제1 특징 벡터와 상기 제2 특징 벡터 간의 유사도 값을 산출하는 단계를 포함할 수 있다.
상기 사용자 인증 방법은 상기 등록 영상으로부터 추출된 제1 특징과 상기 입력 영상으로부터 추출된 제2 특징 간의 상관 관계에 기초하여, 1차적으로 사용자 인증을 수행하는 단계를 더 포함할 수 있다.
상기 제1 특징 벡터와 상기 제2 특징 벡터 간의 상관 관계를 기초로, 상기 사용자 인증을 수행하는 단계는 상기 1차적으로 수행된 사용자 인증에 실패한 경우에 한하여 2차적으로 수행될 수 있다.
상기 제1 특징 및 상기 제1 특징 벡터는 등록 데이터베이스에 기 저장될 수 있다.
일 실시예에 따르면, 사용자 인증을 위한 학습 방법은 정면화된 사용자의 얼굴을 포함하는 학습 영상 페어를 획득하는 단계; 학습 중인 제1 신경망을 이용하여 제1 학습 영상에 포함된 픽셀들 중 상기 정면화된 사용자의 얼굴의 깊이 영상에서 값이 유지되는 픽셀들에 대응하여 상기 제1 학습 영상에 포함된 사용자를 인증하기 위한 신뢰도 값들을 포함하는 제1 신뢰도 맵을 산출하는 단계; 학습 중인 제2 신경망을 이용하여 상기 제2 학습 영상에 포함된 픽셀들 중 상기 정면화된 사용자의 얼굴의 깊이 영상에서 값이 유지되는 픽셀들에 대응하여 상기 제2 학습 영상에 포함된 사용자를 인증하기 위한 신뢰도 값들을 포함하는 제2 신뢰도 맵을 산출하는 단계; 상기 제1 학습 영상과 상기 제1 신뢰도 맵에 기초하여 생성되는 제1 영상으로부터 제1 특징 벡터를 추출하는 단계; 상기 제2 학습 영상과 상기 제2 신뢰도 맵에 기초하여 생성되는 제2 영상으로부터 제2 특징 벡터를 추출하는 단계; 및 상기 제1 특징 벡터와 상기 제2 특징 벡터 간의 상관 관계를 기초로, 상기 제1 신경망과 상기 제2 신경망을 갱신하는 단계를 포함한다.
상기 제1 신경망과 상기 제2 신경망은 파라미터를 서로 공유할 수 있다.
상기 제1 신경망과 상기 제2 신경망을 갱신하는 단계는 상기 제1 특징 벡터와 상기 제2 특징 벡터 간의 유사도 값을 산출하는 단계; 및 상기 유사도 값에 기초한 손실 함수를 이용하여 상기 제1 신경망과 상기 제2 신경망의 파라미터를 갱신하는 단계를 포함할 수 있다.
상기 제1 신경망과 상기 제2 신경망을 갱신하는 단계는 상기 제1 학습 영상의 사용자와 상기 제2 학습 영상의 사용자가 동일인인 경우, 상기 제1 특징 벡터와 상기 제2 특징 벡터 간의 유사도 값을 커지게 하는 신뢰도 맵을 출력하도록 상기 제1 신경망과 상기 제2 신경망의 파라미터를 갱신하는 단계; 및 상기 제1 학습 영상의 사용자와 상기 제2 학습 영상의 사용자가 타인인 경우, 상기 제1 특징 벡터와 상기 제2 특징 벡터 간의 유사도 값을 작아지게 하는 신뢰도 맵을 출력하도록 상기 제1 신경망과 상기 제2 신경망의 파라미터를 갱신하는 단계를 포함할 수 있다.
상기 제1 학습 영상 및 상기 제2 학습 영상 중 적어도 하나는 상기 정면화된 사용자의 얼굴의 깊이 영상에서 값이 유지되는 픽셀들을 포함할 수 있다.
상기 제1 특징 벡터를 추출하는 단계는 상기 제1 학습 영상과 상기 제1 신뢰도 맵 간의 연산을 통해 상기 제1 영상을 생성하는 단계; 및 상기 제1 영상으로부터 상기 제1 특징 벡터를 추출하는 단계를 포함할 수 있다.
상기 제2 특징 벡터를 추출하는 단계는 상기 제2 학습 영상과 상기 제2 신뢰도 맵 간의 연산을 통해 각 픽셀의 깊이 정보 및 깊이 신뢰도를 함축하는 상기 제2 영상을 생성하는 단계; 및 상기 제2 영상으로부터 상기 제2 특징 벡터를 추출하는 단계를 포함할 수 있다.
일 실시예에 따르면, 사용자 인증 장치는 정면화된 사용자의 얼굴을 포함하는 입력 영상 및 등록 영상에 대응하는 제1 특징 벡터 중 적어도 하나를 획득하는 통신 인터페이스; 및 상기 입력 영상에 포함된 픽셀들 중 상기 정면화된 사용자의 얼굴의 깊이 영상의 픽셀들에 대응하여 상기 사용자를 인증하기 위한 신뢰도 값들을 포함하는 제2 신뢰도 맵을 산출하고, 상기 입력 영상과 상기 제2 신뢰도 맵에 기초하여 생성되는 제2 영상으로부터 제2 특징 벡터를 추출하며, 상기 제1 특징 벡터와 상기 제2 특징 벡터 간의 상관 관계를 기초로, 사용자 인증을 수행하는 프로세서를 포함한다.
상기 입력 영상은 상기 정면화된 사용자의 얼굴의 깊이 영상에서 값이 유지되는 픽셀들을 포함하는, 사용자 인증 장치.
상기 제1 특징 벡터는 상기 등록 영상 및 상기 등록 영상에 대응하는 제1 신뢰도 맵에 기초하여 생성되는 제1 영상으로부터 추출되어 등록 데이터베이스에 기 저장될 수 있다.
상기 프로세서는 학습 영상에 포함된 픽셀들 중 상기 학습 영상에 포함된 상기 정면화된 사용자의 얼굴의 깊이 영상의 값이 유지되는 픽셀들에 대응하여 상기 학습 영상에 포함된 사용자를 인증하기 위한 신뢰도 값들을 포함하는 신뢰도 맵을 출력하는 신경망을 이용하여, 상기 입력 영상에 대응하는 상기 제2 신뢰도 맵을 산출할 수 있다.
상기 프로세서는 상기 입력 영상과 상기 제2 신뢰도 맵 간의 연산을 통해 각 픽셀의 깊이 정보 및 깊이 신뢰도를 함축하는 상기 제2 영상을 생성하고, 상기 제2 영상으로부터 상기 제2 특징 벡터를 추출할 수 있다.
상기 프로세서는 상기 제1 특징 벡터와 상기 제2 특징 벡터 간의 유사도 값과 미리 정해진 임계값을 비교함으로써, 상기 사용자 인증을 수행할 수 있다.
상기 프로세서는 상기 제1 특징 벡터와 상기 제2 특징 벡터 간의 유사도 값을 산출할 수 있다.
상기 프로세서는 상기 등록 영상으로부터 추출된 제1 특징과 상기 입력 영상으로부터 추출된 제2 특징 간의 상관 관계에 기초하여, 1차적으로 사용자 인증을 수행할 수 있다.
상기 프로세서는 상기 1차적으로 수행된 사용자 인증에 실패한 경우에 한하여, 상기 제1 특징 벡터와 상기 제2 특징 벡터 간의 상관 관계를 기초로, 2차적으로 상기 사용자 인증을 수행할 수 있다.
도 1은 일 실시예에 따른 사용자 인증 과정을 개념적으로 설명하기 위한 도면.
도 2는 일 실시예에 따른 사용자 인증 방법을 나타낸 흐름도.
도 3은 일 실시예에 따른 입력 영상을 획득하는 과정을 설명하기 위한 도면.
도 4는 일 실시예에 따른 입력 영상 및 등록 영상의 일 예시를 도시한 도면.
도 5는 일 실시예에 따른 신뢰도 맵의 예시들을 도시한 도면.
도 6은 일 실시예에 따른 제1 영상 및 제2 영상의 일 예시를 도시한 도면.
도 7은 일 실시예에 따른 사용자 인증 방법을 나타낸 흐름도.
도 8은 일 실시예에 따른 사용자 인증을 위한 학습 방법을 설명하기 위한 도면.
도 9는 일 실시예에 따른 신경망을 갱신하는 방법을 설명하기 위한 도면.
도 10은 일 실시예에 따른 사용자 인증을 위한 학습 방법을 나타낸 흐름도.
도 11은 일 실시예에 따른 사용자 인증 장치의 블록도.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
아래 설명하는 실시예들에는 다양한 변경이 가해질 수 있다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 일 실시예에 따른 사용자 인증 과정을 개념적으로 설명하기 위한 도면이다. 도 1을 참조하면, 일 실시예에 따른 사용자 인증 장치는 영상의 깊이 정보를 이용하여 입력 영상의 픽셀 신뢰도를 나타내는 신뢰도 맵(Confidence Map)을 추정하는 신경망을 이용하여 사용자 인증을 수행할 수 있다.
일 실시예에 따른 신경망은 예를 들어, 영상에 포함된 픽셀들 중 일부 픽셀들에 대응하는 신뢰도 값들을 포함하는 신뢰도 맵을 출력하도록 미리 학습된 신경망일 수 있다. 이때, 일부 픽셀들은 정면화(frontalization)된 사용자의 얼굴의 깊이 영상에서 그 값(예를 들어, 깊이 값)이 유지되는 픽셀들을 포함할 수 있다. '정면화된 사용자의 얼굴의 깊이 영상에서 그 값이 유지되는 픽셀들'은 예를 들어, 도 3에 도시된 영상(350)에서 픽셀들이 소실되어 검정색으로 표시된 좌측 얼굴 부분을 제외하고, 영상(350)에서 픽셀들이 유지되고 있는 우측 얼굴 부분에 해당하는 픽셀들에 해당할 수 있다. 일부 픽셀들에 대응하는 신뢰도 값들은 사용자를 인증하는 데에 이용될 수 있다.
일 예로, 사용자 인증 장치는 등록 영상(101)을 제1 신경망(110)에 인가함으로써 등록 영상(101)에 대응하는 제1 신뢰도 맵(120)을 산출할 수 있다. 등록 영상(101)은 사용자 인증을 위해 등록 데이터베이스 등에 미리 등록된 영상에 해당할 수 있다. 등록 영상(101)은 사용자의 정면화된 얼굴 영상에 해당할 수 있다. 사용자 인증 장치는 등록 영상(101) 및 제1 신뢰도 맵(120)을 함께 고려하여 제1 영상(130)을 생성할 수 있다. 사용자 인증 장치는 예를 들어, 등록 영상(101)과 제1 신뢰도 맵(120) 간의 연산을 통해 제1 영상(130)을 생성할 수 있다. 여기서, 등록 영상(101)과 제1 신뢰도 맵(120) 간의 연산은 예를 들어, 엘리먼트 와이즈 곱셈 연산, 엘리먼트 와이즈 가중합 등과 같은 픽셀 단위의 엘리먼트 와이즈(element wise) 연산을 포함할 수 있으며, 반드시 이에 한정되지는 않는다. 아래에서 설명하겠으나, 보안상의 이유로 등록 영상(101) 자체를 등록 데이터베이스에 저장하기 어려운 경우, 등록 영상(101)으로부터 추출되는 특징 및/또는 제1 영상(130)으로부터 추출되는 특징을 등록 데이터베이스에 저장할 수도 있다.
사용자 인증 장치는 사용자 인증을 위해 입력된 입력 영상(105)을 제2 신경망(115)에 인가함으로써 입력 영상(105)에 대응하는 제2 신뢰도 맵(125)을 산출할 수 있다. 제1 신경망(110)의 파라미터와 제2 신경망(115)의 파라미터는 서로 공유될 수 있다. 예를 들어, 제1 신경망(110)과 제2 신경망(115)는 동일 신경망 모델의 두 인스턴스들(instants)일 수 있다.
입력 영상(105)은 예를 들어, 사용자 인증 장치에 포함된 카메라 또는 이미지 센서 등에 의해 캡쳐된 영상을 정면화한 영상에 해당할 수 있다. 예를 들어, 사용자의 얼굴이 캡쳐된 깊이 영상에서 사용자의 얼굴은 정면을 향하지 않을 수 있다. 이 경우, 전처리 동작으로, 깊이 영상에서 사용자의 얼굴 영역이 검출되고, 검출된 얼굴 영역으로부터 특징점들이 추출되며, 추출된 특징점들에 기초하여 깊이 영상에 포함된 사용자의 얼굴이 정면을 향하도록 회전될 수 있다.
입력 영상(105)은 사용자의 얼굴의 적어도 일부를 포함할 수 있다. 예를 들어, 사용자의 얼굴을 정면화 하더라도 깊이 영상 캡쳐 시 가려져 있는 부분에 해당하는 픽셀들은 깊이 값을 가지고 있지 않기 때문에, 입력 영상(105)은 깊이 영상 캡쳐 시 보이는 부분에 해당하는 픽셀들의 깊이 값들만 포함할 수 있다.
사용자 인증 장치는 입력 영상(105) 및 제2 신뢰도 맵(125)을 함께 고려하여 제2 영상(135)을 생성할 수 있다. 사용자 인증 장치는 예를 들어, 등록 영상(105)과 제2 신뢰도 맵(125) 간의 연산을 통해 각 픽셀의 깊이 정보 및 깊이 신뢰도를 함축하는 제2 영상(135)을 생성할 수 있다. 등록 영상(105)과 제2 신뢰도 맵(125) 간의 연산 또한 엘리먼트 와이즈 곱셈 연산, 또는 엘리먼트 와이즈 가중합과 같은 픽셀 단위의 엘리먼트 와이즈 연산을 포함하며, 반드시 이에 한정되지는 않는다.
일 실시예에 따른 사용자 인증 장치는 등록 영상(101)과 입력 영상(105) 각각에 대응하는 신뢰도 맵을 반영함으로써, 각 영상에서 신뢰도가 높은 부분의 가중치를 선별적으로 높여서 사용자 인증을 수행할 수 있다. 이로 인하여, 3차원 얼굴 인식의 정확도가 향상될 수 있다.
사용자 인증 장치는 특징 추출기(140)를 이용하여, 제1 영상(130)에 대응하는 제1 특징 및 제2 영상(135)에 대응하는 제2 특징을 각각 추출할 수 있다. 특징 추출기(140)는 영상으로부터 얼굴의 특징을 내포하는 특징 벡터를 추출하도록 미리 학습된 것일 수 있다. 제1 특징 및/또는 제2 특징은 예를 들어, 1차원의 벡터값의 형태를 가질 수도 있고, 2차원의 벡터 매트릭스의 형태를 가질 수도 있다.
사용자 인증 장치는 제1 특징과 제2 특징 간의 특징 매칭(feature matching)(150)을 통해 사용자 인증을 수행할 수 있다. 사용자 인증 장치는 예를 들어, 제1 특징과 제2 특징 간의 특징 거리 산출, 또는 제1 특징과 제2 특징 간의 유사도 산출 등과 같은 특징 매칭을 통해 입력 영상(105)에 대응하는 사용자 인증을 수행할 수 있다.
일 실시예에 따르면, 신뢰도 맵에 의해 영상의 각 영역에 대한 신뢰도 레벨(Confidence Level)을 측정하고, 영상에서 신뢰할 수 있는 영역에 해당하는 정보만을 사용하여 사용자 인증을 수행할 수 있다. 전술한 과정을 통해 사용자 인증 장치는 정면화로 인해 소실된 정보를 인위적으로 채우는 경우에 발생할 수 있는 영상의 왜곡을 방지하고, 3차원 얼굴 인식의 정확도를 향상시킬 수 있다.
도 2는 일 실시예에 따른 사용자 인증 방법을 나타낸 흐름도이다. 도 2를 참조하면, 일 실시예에 따른 사용자 인증 장치는 정면화된 사용자의 얼굴을 포함하는 입력 영상을 획득한다(210). 입력 영상은 예를 들어, 아래의 도 3과 같은 전처리 과정을 통해 정면화된 사용자의 얼굴을 포함하는 영상일 수 있다. 입력 영상은 정면화된 사용자의 얼굴의 깊이 영상에서 값이 유지되는 픽셀들을 포함할 수 있다. 입력 영상을 획득하는 과정은 아래의 도 3을 참조하여 구체적으로 설명한다. 입력 영상의 일 예시는 아래의 도 4를 참조할 수 있다.
사용자 인증 장치는 입력 영상에 포함된 픽셀들 중 정면화된 사용자의 얼굴의 깊이 영상에서 값이 유지되는 픽셀들에 대응하여 사용자를 인증하기 위한 신뢰도 값들을 포함하는 제2 신뢰도 맵을 산출한다(220). 사용자 인증 장치는 예를 들어, 미리 학습된 신경망을 이용하여 입력 영상에 대응하는 제2 신뢰도 맵을 산출할 수 있다. 이때, 신경망은 예를 들어, 학습 영상에 포함된 픽셀들 중 학습 영상에 포함된 정면화된 사용자의 얼굴의 깊이 영상에서 값이 유지되는 픽셀들에 대응하여 학습 영상에 포함된 사용자를 인증하기 위한 신뢰도 값들을 포함하는 신뢰도 맵을 출력하도록 학습된 신경망일 수 있다. 일 실시예에 따른 신경망은 신뢰도 맵을 출력한다는 점에서 '신뢰도 네트워크(Confidence Network)'라고 불릴 수도 있다. 일 실시예에 따른 신뢰도 맵의 예시들은 아래의 도 5를 참조하여 구체적으로 설명한다.
사용자 인증 장치는 입력 영상과 제2 신뢰도 맵에 기초하여 생성되는 제2 영상으로부터 제2 특징 벡터를 추출한다(230). 사용자 인증 장치는 예를 들어, 입력 영상과 제2 신뢰도 맵 간의 연산을 통해 각 픽셀의 깊이 정보 및 깊이 신뢰도를 함축하는 제2 영상을 생성할 수 있다. 여기서, 연산은 예를 들어, 픽셀 단위의 엘리먼트 와이즈(element wise) 연산뿐만 아니라 그 밖의 다양한 연산들을 모두 포괄할 수 있다. 사용자 인증 장치는 제2 영상으로부터 제2 특징 벡터를 추출할 수 있다. 제2 영상의 일 예시는 아래의 도 6의 제2 영상(630)을 참조할 수 있다.
사용자 인증 장치는 등록 영상에 대응하는 제1 특징 벡터를 획득한다(240). 제1 특징 벡터는 예를 들어, 등록 영상 및 등록 영상에 대응하는 제1 신뢰도 맵에 기초하여 생성되는 제1 영상으로부터 추출되어 등록 데이터베이스 등에 기 저장될 수 있다. 제1 영상의 일 예시는 아래의 도 6의 제1 영상(610)을 참조할 수 있다.
사용자 인증 장치는 제1 특징 벡터와 제2 특징 벡터 간의 상관 관계를 기초로, 사용자 인증을 수행한다(250). 여기서, 상관 관계는 제1 특징 벡터와 제2 특징 벡터 간의 유사도를 포함할 수 있고, 예를 들어, 정규화된 코사인 상관(Normalized Cosine Correlation; NCC) 또는 유클리디언 거리 등을 포함할 수 있다.
단계(250)에서, 사용자 인증 장치는 예를 들어, 제1 특징 벡터와 제2 특징 벡터 간의 상관 관계의 크기에 기초하여, 입력 영상에 포함된 사용자가 기 등록된 사용자인지 여부를 판단할 수 있다.
사용자 인증 장치는 예를 들어, 제1 특징 벡터와 제2 특징 벡터 간의 정규화된 코사인 상관(NCC) 값을 산출할 수 있다. 정규화된 코사인 상관(NCC)은 원본 영상과 입력 영상 간의 밝기 및/또는 다양한 값들을 통해 기하학적인 유사도를 측정하는 방법이다. 정규화된 코사인 상관 값은 예를 들어, 원본 영상 및/또는 입력 영상의 모든 화소 밝기가 어떤 상수만큼 곱해진 경우, 또는 원본 영상 및/또는 입력 영상의 모든 화소 밝기에 어떤 상수값이 더해진 경우에도 선형적인 밝기 변화에 대한 상관 값의 독립성이 유지될 수 있다.
도 3은 일 실시예에 따른 입력 영상을 획득하는 과정을 설명하기 위한 도면이다. 도 3을 참조하면, 일 실시예에 따른 사용자 인증 장치가 사용자의 얼굴을 정면화하는 전처리 과정이 도시된다. 전처리 과정은 전술한 단계(210)에서 사용자 인증 장치가 입력 영상을 획득하기 이전에 입력 영상에 대해 수행될 수 있다. 이하, 설명의 편의를 위해 아래의 전처리 과정이 사용자 인증 장치에 의해 수행되는 것으로 설명하지만, 반드시 이에 한정되는 것은 아니며, 전처리 과정은 별도의 전처리기(pre-processor)를 통해 수행될 수도 있다.
예를 들어, 사용자의 측면 얼굴을 포함하는 2차원의 영상(예를 들어, 깊이 영상 등)이 입력되었다고 하자. 사용자 인증 장치는 2차원의 영상으로부터 사용자의 얼굴 영역을 검출한 뒤, 특징점들(feature points), 다시 말해 랜드마크들(landmarks)을 검출할 수 있다(310). 랜드마크들은 예를 들어, 사용자의 양 눈의 눈동자, 코끝, 입 양끝 등으로부터 검출 수 있다.
사용자 인증 장치는 3차원의 일반 참조 모델(generic reference model)을 호출할 수 있다(320). 3차원의 일반 참조 모델은 예를 들어, 일반인의 평균적인 얼굴의 3차원 모델에 해당할 수 있다.
사용자 인증 장치는 단계(310)에서 2차원의 영상으로부터 검출된 랜드마크들을 단계(320)에서 호출된 3차원의 일반 참조 모델에 투영(project)할 수 있다(330). 단계(330)에서의 투영을 통해 사용자 인증 장치는 2차원의 영상을 3차원의 일반 참조 모델의 원하는 위치에 배치할 수 있다.
사용자 인증 장치는 단계(330)에서 랜드마크들이 투영된 3차원의 일반 참조 모델과 배경 간의 경계선(borderline)을 검출할 수 있다(340).
사용자 인증 장치는 단계(330)에서 랜드마크들이 투영된 3차원의 일반 참조 모델과 단계(340)에서 검출한 경계선을 결합한 후, 경계선이 결합된 3차원의 일반 참조 모델을 회전시켜 얼굴 영상을 정면화할 수 있다(350). 단계(350)에서 정면화된 얼굴 영상 중 측면 얼굴에서 보이지 않았던 부분의 테두리는 울퉁불퉁하게 표현될 수 있다. 경계선에 해당하는 얼굴의 에지(edge) 정보는 얼굴의 특징 추출 시에 중요한 요인으로 작용하기 때문에, 울퉁불퉁하게 왜곡된 면은 얼굴 인식 성능을 저하시킬 수 있다.
따라서, 일 실시예에서는 픽셀들의 깊이 값들을 포함하는 깊이 영상을 정면화한 입력 영상을 신뢰도 네트워크를 통해 3차원 얼굴 인식에 더욱 강인한 영상으로 변환할 수 있다. 사용자 인증 장치는 정면화된 얼굴에서 비어 있는 부분을 채우지 않고 신뢰성 있는 영역을 가중하여 얼굴 인식을 수행할 수 있다.
도 4는 일 실시예에 따른 입력 영상 및 등록 영상의 일 예시를 도시한 도면이다. 도 4를 참조하면, 일 실시예에 따른 등록 영상(410) 및 입력 영상(430)이 도시된다.
등록 영상(410)은 사용자 인증을 위해 등록 데이터베이스 등에 미리 등록된 영상에 해당할 수 있다. 앞서 설명한 것과 같이, 보안 상의 이유로, 등록 영상(410)으로부터 제1 영상이 생성되고, 제1 영상으로부터 제1 특징이 추출된 이후, 등록 영상(410) 대신 제1 특징만 등록 데이터베이스에 저장될 수 있다.
등록 영상(410)은 일반적으로 사용자 인증 장치에서 초기 사용자 인증을 위한 영상의 등록 과정을 통해 획득된 사용자의 정면 얼굴 영상에 해당할 수 있다. 등록 시에는 일반적으로 사용자가 카메라를 정면으로 응시하는 바, 등록 영상(410)은 별도의 정면화 과정을 거치지 않고 획득될 수 있으며, 전체 얼굴 부분을 모두 포함할 수 있다. 등록 영상(410)은 예를 들어, 깊이 카메라 등에 의해 획득된 깊이 영상일 수 있다.
입력 영상(430)은 정면화된 사용자의 얼굴의 깊이 영상에서 값(예를 들어, 깊이 값)이 유지되는 픽셀들을 포함할 수 있다. 입력 영상(430)은 예를 들어, 사용자의 얼굴의 적어도 일부 영역에 대응하는 픽셀들의 깊이 값들을 포함하는 깊이 영상일 수 있다. 입력 영상(430)은 예를 들어, 측면 얼굴의 깊이 영상을 정면화하는 전처리 과정을 거쳐 생성될 수 있다.
도 5는 일 실시예에 따른 신뢰도 맵의 예시들을 도시한 도면이다. 도 5를 참조하면, 일 실시예에 따른 신뢰도 맵들(510, 530, 550)이 도시된다.
일 실시예에 따르면, 사용자 인증 장치는 미리 학습된 신경망을 이용하여 사용자를 인증하기 위한 신뢰도 값들을 포함하는 신뢰도 맵을 출력할 수 있다.
사용자 인증 장치는 예를 들어, 각 픽셀의 신뢰도 값들을 행렬 형태로 나타낸 신뢰도 맵(510)을 산출할 수 있다. 신뢰도 맵(510)은 입력 영상의 일부에 대응하는 신뢰도 맵일 수 있다. 신뢰도 맵(510)의 전체 크기는 예를 들어, 입력 영상의 폭(width) x 입력 영상의 높이(height)일 수 있다. 신뢰도 맵(510)에서 신뢰도 값은 예를 들어, 0과 1사이의 값을 가질 수 있다. 1은 가장 높은 신뢰도 값을 나타내고, 0은 가장 낮은 신뢰도 값을 나타낼 수 있다.
제1 신뢰도 맵(530) 및 제2 신뢰도 맵(550)은 신뢰도 값을 시각적으로 표시한 예시이다. 제1 신뢰도 맵(530)은 등록 영상에 대응하는 신뢰도 맵으로서, 전체 얼굴 영역에 해당하는 픽셀들에 대응하는 신뢰도 값들을 포함할 수 있다. 또한, 제2 신뢰도 맵(550)은 입력 영상에 대응하는 신뢰도 맵으로서, 사용자의 얼굴의 정면화로 인해 값이 유지되는 픽셀들에 대응하는 신뢰도 값들을 포함할 수 있다.
예를 들어, 제1 신뢰도 맵(530) 및 제2 신뢰도 맵(550)에서 픽셀들에 대응하는 신뢰도 값들이 높을수록 해당 픽셀들은 흰색에 가깝게 표시되고, 픽셀들에 대응하는 신뢰도 값들이 낮을수록 해당 픽셀들은 검은색에 가깝게 표시될 수 있다. 또한, 제1 신뢰도 맵(530) 및 제2 신뢰도 맵(550)에서 가려짐이나 왜곡 등으로 인하여 깊이 값이 없는 픽셀들에 대응하는 픽셀들은 널(null) 혹은 돈-케어(don't care)에 해당하는 색으로 표시될 수 있다.
도 6은 일 실시예에 따른 제1 영상 및 제2 영상의 일 예시를 도시한 도면이다. 도 6을 참조하면, 일 실시예에 따른 제1 영상(610) 및 제2 영상(630)이 도시된다.
제1 영상(610)은 전술한 등록 영상(410)에 제1 신뢰도 맵(530)을 픽셀 단위로 곱한 영상에 해당하고, 제2 영상(630)은 전술한 입력 영상(430)에 제2 신뢰도 맵(550)을 픽셀 단위로 곱한 영상에 해당할 수 있다. 일 실시예에 따른 사용자 인증 장치는 예를 들어, 제1 영상(610)과 제2 영상(630)의 신뢰할 수 있는 정보로부터 특징을 추출함으로써 가려짐(occlusion)이나 왜곡(distortion)에 의하여 인식률이 저하되는 것을 막을 수 있다.
도 7은 일 실시예에 따른 사용자 인증 방법을 나타낸 흐름도이다. 도 7을 참조하면, 일 실시예에 따른 사용자 인증 장치는 입력 영상(I)을 획득할 수 있다(710). 입력 영상은 정면화된 사용자의 얼굴을 포함할 수 있다.
사용자 인증 장치는 제1 특징 추출기를 이용하여 입력 영상으로부터 제1 특징(
Figure pat00001
)을 추출할 수 있다(720). 제1 특징 추출기는 영상으로부터 특징 또는 특징 벡터를 추출하도록 미리 학습된 특징 추출기일 수 있다.
사용자 인증 장치는 등록 데이터베이스(705)로부터 등록 영상으로부터 추출되어 기 저장된 제2 특징(
Figure pat00002
) 을 획득하고, 제1 특징(
Figure pat00003
)과 제2 특징(
Figure pat00004
) 간의 상관 관계에 기초하여 제1 유사도 스코어(score)를 산출할 수 있다(730). 예를 들어, 사용자 인증 장치는 제1 특징(
Figure pat00005
)과 제2 특징(
Figure pat00006
) 간의 정규화된 코사인 상관 값을 산출하여 제1 유사도 스코어로 결정할 수 있다.
사용자 인증 장치는 제1 유사도 스코어를 이용하여, 1차적으로 사용자 인증을 수행할 수 있다. 예를 들어, 사용자 인증 장치는 제1 유사도 스코어가 제1 인증 임계치보다 큰지 여부를 판단할 수 있다(740). 단계(740)에서 제1 유사도 스코어가 제1 인증 임계치보다 크다고 판단된 경우, 사용자 인증 장치는 제1 유사도 스코어에 의해 사용자 인증의 성공 여부를 확인(Verification)할 수 있다(780).
단계(740)에서 제1 유사도 스코어가 제1 인증 임계치보다 작다고 판단된 경우, 사용자 인증 장치는 신뢰도 네트워크(C)를 이용하여 입력 영상에 대응하는 신뢰도 맵(예를 들어, 제2 신뢰도 맵)을 추정할 수 있다(750). 신뢰도 맵은 입력 영상에 포함된 픽셀들 중 정면화된 사용자의 얼굴의 깊이 영상에서 값이 유지되는 픽셀들에 대응하여 사용자를 인증하기 위한 신뢰도 값들을 포함할 수 있다.
사용자 인증 장치는 제1 유사도 스코어를 이용하여 1차적으로 사용자 인증을 수행한 뒤, 1차적 사용자 인증에 실패한 경우에만 신뢰도 맵을 적용하여 2차적으로 사용자 인증을 수행함으로써, 인증 효율과 인증 성능을 함께 향상시킬 수 있다.
사용자 인증 장치는 미리 학습된 제2 특징 추출기를 이용하여 입력 영상과 제2 신뢰도 맵에 기초하여 생성되는 제2 영상으로부터 제2 특징 벡터를 추출할 수 있다(760). 제2 특징 추출기는 제1 특징 추출기와 동일하거나 상이할 수 있다.
사용자 인증 장치는 등록 데이터베이스(705)로부터 획득한 제1 특징 벡터와 단계(760)에서 추출된 제2 특징 벡터 간의 상관 관계를 기초로, 제2 유사도 스코어를 산출할 수 있다(770). 이때, 제1 특징 벡터는 등록 영상 및 등록 영상에 대응하는 제1 신뢰도 맵에 기초하여 생성되는 제1 영상으로부터 추출되어 기 저장된 것일 수 있다. 제1 특징 벡터는 예를 들어,
Figure pat00007
이고, 제2 특징 벡터는 예를 들어,
Figure pat00008
일 수 있다. 단계(770)에서, 사용자 인증 장치는 제1 특징 벡터(
Figure pat00009
)와 제2 특징 벡터(
Figure pat00010
) 간의 정규화된 코사인 상관 값을 산출하여 제2 유사도 스코어로 결정할 수 있다.
사용자 인증 장치는 단계(770)에서 산출된 제2 유사도 스코어에 기초하여 사용자 인증의 성공 여부를 확인할 수 있다(780). 예를 들어, 제2 유사도 스코어가 제2 인증 임계치보다 큰 경우, 사용자 인증 장치는 해당 사용자의 인증에 성공했음을 출력할 수 있다. 만약 제2 유사도가 제2 인증 임계치보다 작은 경우, 사용자 인증 장치는 해당 사용자의 인증에 실패했음을 출력할 수 있다. 제2 인증 임계치는 제1 임계치와 동일할 수도 있고, 상이할 수도 있다.
도 8은 일 실시예에 따른 사용자 인증을 위한 학습 방법을 설명하기 위한 도면이다. 도 8을 참조하면, 제1 학습 영상(801)과 제2 학습 영상(803)을 이용한 학습 과정이 도시된다.
일 실시예에 따른 학습 장치는 학습 중인 제1 신경망(810)을 이용하여 제1 학습 영상(801)에 포함된 픽셀들 중 정면화된 사용자의 얼굴의 깊이 영상에서 값이 유지되는 픽셀들에 대응하여 제1 학습 영상(801)에 포함된 사용자를 인증하기 위한 신뢰도 값들을 포함하는 제1 신뢰도 맵(820)을 추정한다.
또한, 학습 장치는 정면화된 사용자의 얼굴을 포함하는 제2 학습 영상(803)이 획득되면, 학습 중인 제2 신경망(815)을 이용하여 제2 학습 영상(803)에 포함된 픽셀들 중 정면화된 사용자의 얼굴의 깊이 영상에서 값이 유지되는 픽셀들에 대응하여 제2 학습 영상(803)에 포함된 사용자를 인증하기 위한 신뢰도 값들을 포함하는 제2 신뢰도 맵(825)을 산출한다. 이때, 제1 신경망(810)과 제2 신경망(815)은 동일한 신경망 모델의 인스턴스들일 수 있고, 서로 파라미터를 공유하는 형태로 학습될 수 있다.
학습 장치는 특징 추출기(840)를 이용하여, 제1 학습 영상(801)과 제1 신뢰도 맵(820)에 기초하여 생성되는 제1 영상(830)으로부터 제1 특징 벡터(
Figure pat00011
)(850)를 추출하고, 제2 학습 영상(803)과 제2 신뢰도 맵(825)에 기초하여 생성되는 제2 영상(835)으로부터 제2 특징 벡터(
Figure pat00012
)(855)를 추출할 수 있다.
학습 장치는 제1 특징 벡터(850)와 제2 특징 벡터(855) 간의 상관 관계에 기초한 로스(Loss)(860)를 역전파(back propagation) 함으로써 제1 신경망(810)과 제2 신경망(815)을 갱신할 수 있다. 이때, 제1 특징 벡터(850)와 제2 특징 벡터(855) 간의 상관 관계에 기초한 로스(860)는 예를 들어, 아래의 수학식 1과 같은 이진 교차 엔트로피(Binary Cross Entropy) 모델에 의해 구할 수 있다.
Figure pat00013
여기서, N은 학습 영상 페어의 총 수를 나타낸다.
Figure pat00014
는 i번째 학습 영상 페어의 두 사용자가 동일인일 경우 1의 값을 가지고, 타인일 경우 0의 값을 가질 수 있다.
Figure pat00015
는 i번째 학습 영상 페어 사이의 정규화된 코사인 상관 값(Normalized Cosine Correlation; NCC)에 비례하는 값이다.
학습 장치는 로스(860)에 기초하여 제1 신경망(810)과 제2 신경망(815)의 파라미터를 조정할 수 있다.
도 9는 일 실시예에 따른 신경망을 갱신하는 방법을 설명하기 위한 도면이다. 일 실시예에 따른 학습 장치는 제1 학습 영상의 사용자와 제2 학습 영상의 사용자가 동일인 또는 타인인 경우를 분리하여 아래의 수학식 2와 같이 대조 손실(contrastive loss)이 최대화되도록 하는 로스를 산출할 수 있다.
Figure pat00016
여기서, Y는 제1 학습 영상과 제2 학습 영상이 동종 쌍인지 이종 쌍인지를 나타내는 값이다. DW는 제1 학습 영상과 제2 학습 영상의 특징 벡터들 간의 거리를 나타낸다. 또한, m은 마진(margin)을 나타낸다. 마진은 그 마진을 초과하는 이종 쌍이 손실(loss)에 기여하지 않도록 설계된 값이다. 다시 말해, 이종 쌍에서 제1 학습 영상과 제2 학습 영상의 특징 벡터들 간의 거리가 충분히 멀다면 이종 쌍이 손실(loss) 값에 포함되지 않도록 한다. 이종 쌍의 경우, 0과 m - Dw 값중 최대(maximum) 값을 취할 수 있다. 이종 쌍의 관계에서, 특징 벡터 간의 거리가 m(margin) 값을 초과하는 경우에는 해당 쌍은 손실에 기여하지 않는다.
학습 장치는 예를 들어, 제1 학습 영상과 제2 학습 영상이 동일인이면 제1 학습 영상과 제2 학습 영상 간의 거리를 더 가깝게 만드는 신뢰도 맵을 출력하도록 신경망을 학습시킬 수 있다. 또한, 학습 장치는 제1 학습 영상과 제2 학습 영상이 타인이면 제1 학습 영상과 제2 학습 영상 간의 거리를 더 멀어지게 만드는 신뢰도 맵을 출력하도록 신경망을 학습시킬 수 있다.
도 10은 일 실시예에 따른 사용자 인증을 위한 학습 방법을 나타낸 흐름도이다. 도 10을 참조하면, 일 실시예에 따른 학습 장치는 정면화된 사용자의 얼굴을 포함하는 학습 영상 페어를 획득한다(1010). 학습 영상 페어는 제1 학습 영상 및 제2 학습 영상을 포함한다. 제1 학습 영상 및 제2 학습 영상 중 적어도 하나는 예를 들어, 정면화된 사용자의 얼굴의 깊이 영상에서 값이 유지되는 픽셀들을 포함할 수 있다.
학습 장치는 학습 중인 제1 신경망을 이용하여 제1 학습 영상에 포함된 픽셀들 중 정면화된 사용자의 얼굴의 깊이 영상에서 값이 유지되는픽셀들에 대응하여 제1 학습 영상에 포함된 사용자를 인증하기 위한 신뢰도 값들을 포함하는 제1 신뢰도 맵을 산출한다(1020).
학습 장치는 학습 중인 제2 신경망을 이용하여 제2 학습 영상에 포함된 픽셀들 중 정면화된 사용자의 얼굴의 깊이 영상에서 값이 유지되는 픽셀들에 대응하여 제2 학습 영상에 포함된 사용자를 인증하기 위한 신뢰도 값들을 포함하는 제2 신뢰도 맵을 산출한다(1030).
학습 장치는 제1 학습 영상과 제1 신뢰도 맵에 기초하여 생성되는 제1 영상으로부터 제1 특징 벡터를 추출한다(1040). 학습 장치는 제1 학습 영상과 제1 신뢰도 맵 간의 연산을 통해 제1 영상을 생성할 수 있다. 학습 장치는 제1 영상으로부터 제1 특징 벡터를 추출할 수 있다.
학습 장치는 제2 학습 영상과 제2 신뢰도 맵에 기초하여 생성되는 제2 영상으로부터 제2 특징 벡터를 추출한다(1050). 학습 장치는 제2 학습 영상과 제2 신뢰도 맵 간의 연산을 통해 각 픽셀의 깊이 정보 및 깊이 신뢰도를 함축하는 제2 영상을 생성할 수 있다. 학습 장치는 제2 영상으로부터 제2 특징 벡터를 추출할 수 있다.
학습 장치는 제1 특징 벡터와 제2 특징 벡터 간의 상관 관계를 기초로, 제1 신경망과 제2 신경망을 갱신한다(1060). 이때, 제1 신경망과 제2 신경망을 파라미터를 서로 공유할 수 있다.
도 11은 일 실시예에 따른 사용자 인증 장치의 블록도이다. 도 11을 참조하면, 일 실시예에 따른 사용자 인증 장치(1100)는 통신 인터페이스(1110) 및 프로세서(1130)를 포함한다. 사용자 인증 장치(1100)는 메모리(1150)를 더 포함할 수 있다. 통신 인터페이스(1110), 프로세서(1130) 및 메모리(1150)는 통신 버스(1105)를 통해 서로 통신할 수 있다.
통신 인터페이스(1110)는 정면화된 사용자의 얼굴을 포함하는 입력 영상을 획득한다. 또한, 통신 인터페이스(1110)는 등록 영상에 대응하는 제1 특징 벡터를 획득한다.
프로세서(1130)는 입력 영상에 포함된 픽셀들 중 정면화된 사용자의 얼굴의 깊이 영상에서 값이 유지되는 픽셀들에 대응하여 사용자를 인증하기 위한 신뢰도 값들을 포함하는 제2 신뢰도 맵을 산출한다. 프로세서(1130)는 입력 영상과 제2 신뢰도 맵에 기초하여 생성되는 제2 영상으로부터 제2 특징 벡터를 추출한다. 프로세서(1130)는 제1 특징 벡터와 제2 특징 벡터 간의 상관 관계를 기초로, 사용자 인증을 수행한다.
메모리(1150)는 통신 인터페이스(1110)를 통해 획득한 등록 영상에 대응하는 제1 특징 벡터를 저장할 수 있다. 또한, 메모리(1150)는 입력 영상 및/또는 입력 영상에 대응하여 프로세서(1130)에 의해 추출된 제2 특징 벡터를 저장할 수 있다.
또한, 프로세서(1130)는 도 1 내지 도 7을 통해 전술한 적어도 하나의 방법 또는 적어도 하나의 방법에 대응되는 알고리즘을 수행할 수 있다. 프로세서(1130)는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.
프로세서(1130)는 프로그램을 실행하고, 사용자 인증 장치(1100)를 제어할 수 있다. 프로세서(1130)에 의하여 실행되는 프로그램 코드는 메모리(1150)에 저장될 수 있다.
메모리(1150)는 상술한 프로세서(1130)의 처리 과정에서 생성되는 다양한 정보들을 저장할 수 있다. 이 밖에도, 메모리(1150)는 각종 데이터와 프로그램 등을 저장할 수 있다. 메모리(1150)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(1150)는 하드 디스크 등과 같은 대용량 저장 매체를 구비하여 각종 데이터를 저장할 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.

Claims (27)

  1. 정면화(frontalization)된 사용자의 얼굴을 포함하는 입력 영상을 획득하는 단계;
    상기 입력 영상에 포함된 픽셀들 중 상기 정면화된 사용자의 얼굴의 깊이 영상에서 값이 유지되는 픽셀들에 대응하여 상기 사용자를 인증하기 위한 신뢰도 값들을 포함하는 제2 신뢰도 맵(Confidence Map)을 산출하는 단계;
    상기 입력 영상과 상기 제2 신뢰도 맵에 기초하여 생성되는 제2 영상으로부터 제2 특징 벡터를 추출하는 단계;
    등록 영상에 대응하는 제1 특징 벡터를 획득하는 단계; 및
    상기 제1 특징 벡터와 상기 제2 특징 벡터 간의 상관 관계를 기초로, 사용자 인증을 수행하는 단계
    를 포함하는, 사용자 인증 방법.
  2. 제1항에 있어서,
    상기 입력 영상은상기 정면화된 사용자의 얼굴의 깊이 영상에서 값이 유지되는 픽셀들을 포함하는, 사용자 인증 방법.
  3. 제1항에 있어서,
    상기 제1 특징 벡터는
    상기 등록 영상 및 상기 등록 영상에 대응하는 제1 신뢰도 맵에 기초하여 생성되는 제1 영상으로부터 추출되어 기 저장되는, 사용자 인증 방법.
  4. 제1항에 있어서,
    상기 제2 신뢰도 맵을 산출하는 단계는
    학습 영상에 포함된 픽셀들 중 상기 학습 영상에 포함된 상기 정면화된 사용자의 얼굴의 깊이 영상에서 값이 유지되는 픽셀들에 대응하여 상기 학습 영상에 포함된 사용자를 인증하기 위한 신뢰도 값들을 포함하는 신뢰도 맵을 출력하는 신경망을 이용하여, 상기 입력 영상에 대응하는 상기 제2 신뢰도 맵을 산출하는 단계
    를 포함하는, 사용자 인증 방법.
  5. 제1항에 있어서,
    상기 제2 특징 벡터를 추출하는 단계는
    상기 입력 영상과 상기 제2 신뢰도 맵 간의 연산을 통해 각 픽셀의 깊이 정보 및 깊이 신뢰도를 함축하는 상기 제2 영상을 생성하는 단계; 및
    상기 제2 영상으로부터 상기 제2 특징 벡터를 추출하는 단계
    를 포함하는, 사용자 인증 방법.
  6. 제1항에 있어서,
    상기 사용자 인증을 수행하는 단계는
    상기 제1 특징 벡터와 상기 제2 특징 벡터 간의 상관 관계의 크기와 미리 정해진 임계값을 비교함으로써, 상기 사용자 인증을 수행하는 단계
    를 포함하는, 사용자 인증 방법.
  7. 제1항에 있어서,
    상기 사용자 인증을 수행하는 단계는
    상기 제1 특징 벡터와 상기 제2 특징 벡터 간의 유사도 값을 산출하는 단계
    를 포함하는, 사용자 인증 방법.
  8. 제1항에 있어서,
    상기 등록 영상으로부터 추출된 제1 특징과 상기 입력 영상으로부터 추출된 제2 특징 간의 상관 관계에 기초하여, 1차적으로 사용자 인증을 수행하는 단계
    를 더 포함하는, 사용자 인증 방법.
  9. 제8항에 있어서,
    상기 제1 특징 벡터와 상기 제2 특징 벡터 간의 상관 관계를 기초로, 상기 사용자 인증을 수행하는 단계는
    상기 1차적으로 수행된 사용자 인증에 실패한 경우에 한하여 2차적으로 수행되는, 사용자 인증 방법.
  10. 제9항에 있어서,
    상기 제1 특징 및 상기 제1 특징 벡터는
    등록 데이터베이스에 기 저장된, 사용자 인증 방법.
  11. 정면화된 사용자의 얼굴을 포함하는 학습 영상 페어를 획득하는 단계;
    학습 중인 제1 신경망을 이용하여 제1 학습 영상에 포함된 픽셀들 중 상기 정면화된 사용자의 얼굴의 깊이 영상에서 값이 유지되는 픽셀들에 대응하여 상기 제1 학습 영상에 포함된 사용자를 인증하기 위한 신뢰도 값들을 포함하는 제1 신뢰도 맵을 산출하는 단계;
    학습 중인 제2 신경망을 이용하여 상기 제2 학습 영상에 포함된 픽셀들 중 상기 정면화된 사용자의 얼굴의 깊이 영상에서 값이 유지되는 픽셀들에 대응하여 상기 제2 학습 영상에 포함된 사용자를 인증하기 위한 신뢰도 값들을 포함하는 제2 신뢰도 맵을 산출하는 단계;
    상기 제1 학습 영상과 상기 제1 신뢰도 맵에 기초하여 생성되는 제1 영상으로부터 제1 특징 벡터를 추출하는 단계;
    상기 제2 학습 영상과 상기 제2 신뢰도 맵에 기초하여 생성되는 제2 영상으로부터 제2 특징 벡터를 추출하는 단계; 및
    상기 제1 특징 벡터와 상기 제2 특징 벡터 간의 상관 관계를 기초로, 상기 제1 신경망과 상기 제2 신경망을 갱신하는 단계
    를 포함하는, 사용자 인증을 위한 학습 방법.
  12. 제11항에 있어서,
    상기 제1 신경망과 상기 제2 신경망은
    파라미터를 서로 공유하는, 사용자 인증을 위한 학습 방법.
  13. 제11항에 있어서,
    상기 제1 신경망과 상기 제2 신경망을 갱신하는 단계는
    상기 제1 특징 벡터와 상기 제2 특징 벡터 간의 정규화된 코사인 상관유사도 값을 산출하는 단계; 및
    상기 정규화된 코사인 상관유사도 값에 기초한 손실 함수를 이용하여 상기 제1 신경망과 상기 제2 신경망의 파라미터를 갱신하는 단계
    를 포함하는, 사용자 인증을 위한 학습 방법.
  14. 제11항에 있어서,
    상기 제1 신경망과 상기 제2 신경망을 갱신하는 단계는
    상기 제1 학습 영상의 사용자와 상기 제2 학습 영상의 사용자가 동일인인 경우, 상기 제1 특징 벡터와 상기 제2 특징 벡터 간의 유사도 값을 커지게 하는 신뢰도 맵을 출력하도록 상기 제1 신경망과 상기 제2 신경망의 파라미터를 갱신하는 단계; 및
    상기 제1 학습 영상의 사용자와 상기 제2 학습 영상의 사용자가 타인인 경우, 상기 제1 특징 벡터와 상기 제2 특징 벡터 간의 유사도 값을 작아지게 하는 신뢰도 맵을 출력하도록 상기 제1 신경망과 상기 제2 신경망의 파라미터를 갱신하는 단계
    를 포함하는, 사용자 인증을 위한 학습 방법.
  15. 제11항에 있어서,
    상기 제1 학습 영상 및 상기 제2 학습 영상 중 적어도 하나는
    상기 정면화된 사용자의 얼굴의 깊이 영상에서 값이 유지되는 픽셀들을 포함하는, 사용자 인증을 위한 학습 방법.
  16. 제11항에 있어서,
    상기 제1 특징 벡터를 추출하는 단계는
    상기 제1 학습 영상과 상기 제1 신뢰도 맵 간의 연산을 통해 상기 제1 영상을 생성하는 단계; 및
    상기 제1 영상으로부터 상기 제1 특징 벡터를 추출하는 단계
    를 포함하는, 사용자 인증을 위한 학습 방법.
  17. 제11항에 있어서,
    상기 제2 특징 벡터를 추출하는 단계는
    상기 제2 학습 영상과 상기 제2 신뢰도 맵 간의 연산을 통해 각 픽셀의 깊이 정보 및 깊이 신뢰도를 함축하는 상기 제2 영상을 생성하는 단계; 및
    상기 제2 영상으로부터 상기 제2 특징 벡터를 추출하는 단계
    를 포함하는, 사용자 인증을 위한 학습 방법.
  18. 하드웨어와 결합되어 제1항 내지 제17항 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.
  19. 정면화된 사용자의 얼굴을 포함하는 입력 영상 및 등록 영상에 대응하는 제1 특징 벡터 중 적어도 하나를 획득하는 통신 인터페이스; 및
    상기 입력 영상에 포함된 픽셀들 중 상기 정면화된 사용자의 얼굴의 깊이 영상에서 값이 유지되는 픽셀들에 대응하여 상기 사용자를 인증하기 위한 신뢰도 값들을 포함하는 제2 신뢰도 맵을 산출하고, 상기 입력 영상과 상기 제2 신뢰도 맵에 기초하여 생성되는 제2 영상으로부터 제2 특징 벡터를 추출하며, 상기 제1 특징 벡터와 상기 제2 특징 벡터 간의 상관 관계를 기초로, 사용자 인증을 수행하는 프로세서
    를 포함하는, 사용자 인증 장치.
  20. 제19항에 있어서,
    상기 입력 영상은
    상기 정면화된 사용자의 얼굴의 깊이 영상에서 값이 유지되는 픽셀들을 포함하는, 사용자 인증 장치.
  21. 제19항에 있어서,
    상기 제1 특징 벡터는
    상기 등록 영상 및 상기 등록 영상에 대응하는 제1 신뢰도 맵에 기초하여 생성되는 제1 영상으로부터 추출되어 등록 데이터베이스에 기 저장되는, 사용자 인증 장치.
  22. 제19항에 있어서,
    상기 프로세서는
    학습 영상에 포함된 픽셀들 중 상기 학습 영상에 포함된 상기 정면화된 사용자의 얼굴의 깊이 영상에서 값이 유지되는 픽셀들에 대응하여 상기 학습 영상에 포함된 사용자를 인증하기 위한 신뢰도 값들을 포함하는 신뢰도 맵을 출력하는 신경망을 이용하여, 상기 입력 영상에 대응하는 상기 제2 신뢰도 맵을 산출하는, 사용자 인증 장치.
  23. 제19항에 있어서,
    상기 프로세서는
    상기 입력 영상과 상기 제2 신뢰도 맵 간의 연산을 통해 각 픽셀의 깊이 정보 및 깊이 신뢰도를 함축하는 상기 제2 영상을 생성하고, 상기 제2 영상으로부터 상기 제2 특징 벡터를 추출하는, 사용자 인증 장치.
  24. 제19항에 있어서,
    상기 프로세서는
    상기 제1 특징 벡터와 상기 제2 특징 벡터 간의 유사도 값과 미리 정해진 임계값을 비교함으로써, 상기 사용자 인증을 수행하는, 사용자 인증 장치.
  25. 제19항에 있어서,
    상기 프로세서는
    상기 제1 특징 벡터와 상기 제2 특징 벡터 간의 유사도 값을 산출하는, 사용자 인증 장치.
  26. 제19항에 있어서,
    상기 프로세서는
    상기 등록 영상으로부터 추출된 제1 특징과 상기 입력 영상으로부터 추출된 제2 특징 간의 상관 관계에 기초하여, 1차적으로 사용자 인증을 수행하는, 사용자 인증 장치.
  27. 제26항에 있어서,
    상기 프로세서는
    상기 1차적으로 수행된 사용자 인증에 실패한 경우에 한하여,
    상기 제1 특징 벡터와 상기 제2 특징 벡터 간의 상관 관계를 기초로, 2차적으로 상기 사용자 인증을 수행하는, 사용자 인증 장치.
KR1020190169581A 2019-12-18 2019-12-18 사용자 인증 장치, 사용자 인증 방법, 및 사용자 인증을 위한 학습 방법 KR20210077993A (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020190169581A KR20210077993A (ko) 2019-12-18 2019-12-18 사용자 인증 장치, 사용자 인증 방법, 및 사용자 인증을 위한 학습 방법
US16/875,368 US11482042B2 (en) 2019-12-18 2020-05-15 User authentication apparatus, user authentication method and training method for user authentication
CN202010513178.1A CN112989304A (zh) 2019-12-18 2020-06-08 用户认证设备、用户认证方法和用于用户认证的训练方法
EP20187330.4A EP3839810A1 (en) 2019-12-18 2020-07-23 User authentication apparatus, user authentication method and training method for user authentication
US17/948,450 US11749005B2 (en) 2019-12-18 2022-09-20 User authentication apparatus, user authentication method and training method for user authentication
US18/355,020 US20230360410A1 (en) 2019-12-18 2023-07-19 User authentication apparatus, user authentication method and training method for user authentication

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190169581A KR20210077993A (ko) 2019-12-18 2019-12-18 사용자 인증 장치, 사용자 인증 방법, 및 사용자 인증을 위한 학습 방법

Publications (1)

Publication Number Publication Date
KR20210077993A true KR20210077993A (ko) 2021-06-28

Family

ID=71783865

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190169581A KR20210077993A (ko) 2019-12-18 2019-12-18 사용자 인증 장치, 사용자 인증 방법, 및 사용자 인증을 위한 학습 방법

Country Status (4)

Country Link
US (3) US11482042B2 (ko)
EP (1) EP3839810A1 (ko)
KR (1) KR20210077993A (ko)
CN (1) CN112989304A (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022104762A1 (de) 2022-02-28 2023-08-31 Bundesdruckerei Gmbh Authentifizierungsvorrichtung und Identifikationsdokument mit einem unter Verwendung eines neuronalen Netzes erzeugten Referenzkopfmodell

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE602005012672D1 (de) 2005-02-21 2009-03-26 Mitsubishi Electric Corp Verfahren zum Detektieren von Gesichtsmerkmalen
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
KR102077260B1 (ko) 2014-08-08 2020-02-13 삼성전자주식회사 확룔 모델에 기반한 신뢰도를 이용하여 얼굴을 인식하는 방법 및 장치
US9384385B2 (en) 2014-11-06 2016-07-05 Intel Corporation Face recognition using gradient based feature analysis
KR101997500B1 (ko) 2014-11-25 2019-07-08 삼성전자주식회사 개인화된 3d 얼굴 모델 생성 방법 및 장치
EP3241151A1 (en) 2014-12-29 2017-11-08 Keylemon SA An image face processing method and apparatus
KR101854048B1 (ko) 2016-11-25 2018-05-02 연세대학교 산학협력단 스테레오 매칭 깊이맵의 신뢰도 측정 방법 및 장치
US10380444B2 (en) 2017-07-14 2019-08-13 Hong Kong Baptist University 3D mask face anti-spoofing with remote photoplethysmography
US11734955B2 (en) * 2017-09-18 2023-08-22 Board Of Trustees Of Michigan State University Disentangled representation learning generative adversarial network for pose-invariant face recognition
FR3085217B1 (fr) * 2018-08-23 2021-06-25 Idemia Identity & Security France Procede de determination de pose et d'identification d'une vue tridimensionnelle de visage
US10949649B2 (en) * 2019-02-22 2021-03-16 Image Metrics, Ltd. Real-time tracking of facial features in unconstrained video

Also Published As

Publication number Publication date
US20230360410A1 (en) 2023-11-09
US20210192187A1 (en) 2021-06-24
EP3839810A1 (en) 2021-06-23
US11749005B2 (en) 2023-09-05
CN112989304A (zh) 2021-06-18
US20230009696A1 (en) 2023-01-12
US11482042B2 (en) 2022-10-25

Similar Documents

Publication Publication Date Title
KR102667740B1 (ko) 영상 정합 방법 및 장치
US9881204B2 (en) Method for determining authenticity of a three-dimensional object
US7873189B2 (en) Face recognition by dividing an image and evaluating a similarity vector with a support vector machine
EP2580711B1 (en) Distinguishing live faces from flat surfaces
US7925060B2 (en) Authentication system and registration system related to facial feature information
US11263442B1 (en) Systems and methods for passive-subject liveness verification in digital media
KR20170000748A (ko) 얼굴 인식 방법 및 장치
US20140270374A1 (en) Systems, Methods, and Software for Detecting an Object in an Image
US10853631B2 (en) Face verification method and apparatus, server and readable storage medium
JP2007042072A (ja) 追跡装置
US11961329B2 (en) Iris authentication device, iris authentication method and recording medium
US11373449B1 (en) Systems and methods for passive-subject liveness verification in digital media
US20230368583A1 (en) Authentication device, authentication method, and recording medium
KR20150128510A (ko) 라이브니스 검사 방법과 장치,및 영상 처리 방법과 장치
KR20220056707A (ko) 얼굴의 정렬 형태에 강인한 얼굴 인식 방법 및 그 장치
US20230360410A1 (en) User authentication apparatus, user authentication method and training method for user authentication
CN111784660B (zh) 一种用于人脸图像的正脸程度的分析方法和系统
KR102215535B1 (ko) 신경망을 이용한 안면 부분 이미지 기반 신분 인증 방법 및 이를 수행하는 시스템
CN116453196B (zh) 一种人脸识别方法及系统
US20240037995A1 (en) Detecting wrapped attacks on face recognition
JP2004118731A (ja) 画像認識装置、画像認識方法およびその方法をコンピュータに実行させるプログラム
CN117789272A (zh) 身份验证方法、装置、设备及存储介质
KR20220013882A (ko) 멀티 위상 검출 센서를 이용한 라이브니스 검사 방법 및 장치