KR20220013882A - Method and apparatus for testing liveness using multi-phase detection sensor - Google Patents

Method and apparatus for testing liveness using multi-phase detection sensor Download PDF

Info

Publication number
KR20220013882A
KR20220013882A KR1020200178770A KR20200178770A KR20220013882A KR 20220013882 A KR20220013882 A KR 20220013882A KR 1020200178770 A KR1020200178770 A KR 1020200178770A KR 20200178770 A KR20200178770 A KR 20200178770A KR 20220013882 A KR20220013882 A KR 20220013882A
Authority
KR
South Korea
Prior art keywords
images
difference
phase
image
liveness
Prior art date
Application number
KR1020200178770A
Other languages
Korean (ko)
Inventor
이솔애
곽영준
박성헌
유병인
이용일
이한아
최지호
한재준
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US17/313,437 priority Critical patent/US11694480B2/en
Priority to CN202110760548.6A priority patent/CN113992812A/en
Priority to EP21187428.4A priority patent/EP3958170B1/en
Publication of KR20220013882A publication Critical patent/KR20220013882A/en
Priority to US18/197,883 priority patent/US20230306791A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/50Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
    • G06F21/55Detecting local intrusion or implementing counter-measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20028Bilateral filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computer Security & Cryptography (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Vascular Medicine (AREA)
  • Collating Specific Patterns (AREA)

Abstract

Disclosed are a method and device for inspecting liveness using a multi-phase detection sensor. The method for inspecting liveness comprises: a step of receiving phase images of different phases; a step of generating preprocessed phase images by performing preprocessing comprising edge reinforcement processing on the phase images; a step of generating differential images based on the preprocessed phase images; a step of generating low-resolution differential images having a lower resolution than that of the differential images; a step of generating a minimum map image based on the low-resolution differential images; and a step of performing a liveness inspection for an object shown in the phase images based on the minimum map image.

Description

멀티 위상 검출 센서를 이용한 라이브니스 검사 방법 및 장치{METHOD AND APPARATUS FOR TESTING LIVENESS USING MULTI-PHASE DETECTION SENSOR}Method and apparatus for testing liveness using a multi-phase detection sensor

아래의 개시는 멀티 위상 검출 센서를 이용한 라이브니스 검사 기술에 관한 것이다.The following disclosure relates to a liveness inspection technique using a multi-phase detection sensor.

생체 인증 기술은 지문, 홍채, 목소리, 얼굴, 혈관 등을 이용하여 사용자를 인증하는 기술이다. 인증에 사용되는 생체 특성들은 사람마다 다르고, 소지의 불편함이 없을 뿐 아니라, 도용이나 모조의 위험성이 적고, 일생 동안 잘 변하지 않는다는 장점이 있어 생체 인증 기술은 널리 사용된다. 생체 인증 기술 중 하나인 얼굴 인증 기술은 정지 영상이나 동영상에 나타난 얼굴에 기초하여 사용자가 정당한 사용자인지 여부를 결정하는 인증 기술이다. 얼굴 인증 기술은 인증 대상자를 비접촉식으로 확인 가능하다는 이점을 가지고 있다. 최근에는, 얼굴 인증 기술의 편리함 및 효율성 때문에 보안 시스템, 모바일 인증 및 멀티미디어 데이터 검색 등의 다양한 응용 분야에서 얼굴 인증 기술이 널리 활용되고 있다.Biometric authentication technology is a technology that authenticates a user using fingerprints, iris, voice, face, blood vessels, and the like. Biometric characteristics used for authentication differ from person to person, and there is no inconvenience of possession, the risk of theft or imitation is low, and biometric authentication technology is widely used because it has advantages that it does not change easily during a lifetime. Face authentication technology, which is one of biometric authentication technologies, is an authentication technology that determines whether a user is a legitimate user based on a face displayed in a still image or video. The face authentication technology has the advantage of being able to confirm the authentication target in a contactless manner. Recently, because of the convenience and efficiency of the face authentication technology, the face authentication technology has been widely used in various application fields such as security systems, mobile authentication, and multimedia data search.

일 실시예에 따른 라이브니스 검사 방법은, 서로 다른 위상의 위상 영상들을 수신하는 단계; 상기 위상 영상들에 엣지 강화 처리를 포함하는 전처리를 수행하여 전처리된 위상 영상들을 생성하는 단계; 상기 전처리된 위상 영상들에 기초하여 차영상들을 생성하는 단계; 상기 차영상들보다 낮은 해상도를 가지는 저해상도 차영상들을 생성하는 단계; 상기 저해상도 차영상들에 기초하여 최소 맵 영상을 생성하는 단계; 및 상기 최소 맵 영상에 기초하여 상기 위상 영상들에 나타난 객체에 대해 라이브니스 검사를 수행하는 단계를 포함할 수 있다.A liveness checking method according to an embodiment includes: receiving phase images of different phases; generating preprocessed phase images by performing preprocessing including edge enhancement processing on the phase images; generating difference images based on the pre-processed phase images; generating low-resolution difference images having a lower resolution than the difference images; generating a minimum map image based on the low-resolution difference images; and performing a liveness check on the object displayed in the phase images based on the minimum map image.

상기 전처리를 수행하는 단계는, 상기 위상 영상들에서 노이즈를 제거하고, 상기 위상 영상들 각각에 나타난 객체의 엣지 영역을 강화하는 처리를 수행하는 단계를 포함할 수 있다.The performing of the pre-processing may include removing noise from the phase images and performing processing for strengthening an edge region of an object displayed in each of the phase images.

일 실시예에 따르면, 상기 저해상도 차영상들을 생성하는 단계는, 차영상에서 각 패치 영역별로 가장 큰 픽셀 값을 추출하는 단계; 및 상기 추출된 가장 큰 픽셀 값에 기초하여 저해상도 차영상을 생성하는 단계를 포함할 수 있다.According to an embodiment, the generating of the low-resolution difference images may include: extracting the largest pixel value for each patch region from the difference image; and generating a low-resolution difference image based on the extracted largest pixel value.

다른 실시예에 따르면, 상기 저해상도 차영상들을 생성하는 단계는, 차영상에서 각 패치 영역별로 픽셀 영역 내 픽셀 값들에 대한 평균 값을 결정하는 단계; 및 각 패치 영역에 대응하는 상기 평균 값에 기초하여 저해상도 차영상을 생성하는 단계를 포함할 수 있다.According to another embodiment, the generating of the low-resolution difference images may include: determining an average value of pixel values in a pixel region for each patch region in the difference image; and generating a low-resolution difference image based on the average value corresponding to each patch region.

상기 전처리된 위상 영상들은, 전처리된 제1 위상 영상 및 전처리된 제2 위상 영상을 포함하고, 상기 차영상들을 생성하는 단계는, 상기 전처리된 제2 위상 영상을 서로 다른 이동 변위로 쉬프트하여 쉬프트된 제2 위상 영상들을 생성하는 단계; 및 상기 쉬프트된 제2 위상 영상들 각각과 상기 전처리된 제1 위상 영상 간의 픽셀 값 차이를 나타내는 차영상들 및 상기 전처리된 제2 위상 영상과 상기 전처리된 제1 위상 영상 간의 픽셀 값 차이를 나타내는 차영상을 생성하는 단계를 포함할 수 있다.The pre-processed phase images include a pre-processed first phase image and a pre-processed second phase image, and the generating of the difference images may include shifting the pre-processed second phase image with different movement displacements. generating second phase images; and difference images representing a pixel value difference between each of the shifted second phase images and the preprocessed first phase image, and a difference representing a pixel value difference between the preprocessed second phase image and the preprocessed first phase image It may include generating an image.

상기 최소 맵 영상을 생성하는 단계는, 상기 저해상도 차영상들 간에 서로 대응하는 영역의 차이 값들 중 최소 차이 값을 식별하는 단계; 및 상기 최소 차이 값에 기초하여 상기 최소 맵 영상의 픽셀 값을 결정하는 단계를 포함할 수 있다.The generating of the minimum map image may include: identifying a minimum difference value among difference values of regions corresponding to each other between the low-resolution difference images; and determining a pixel value of the minimum map image based on the minimum difference value.

일 실시예에 따른 라이브니스 검사 장치는, 프로세서; 및 상기 프로세서에서 실행가능한 명령어들을 포함하는 메모리를 포함하고, 상기 명령어들이 상기 프로세서에 의해 실행되면, 상기 프로세서는, 서로 다른 위상의 위상 영상들에 엣지 강화 처리를 포함하는 전처리를 수행하여 전처리된 위상 영상들을 생성하고, 상기 전처리된 위상 영상들에 기초하여 차영상들을 생성하고, 상기 차영상들보다 낮은 해상도를 가지는 저해상도 차영상들을 생성하고, 상기 저해상도 차영상들에 기초하여 최소 맵 영상을 생성하고, 상기 최소 맵 영상에 기초하여 상기 위상 영상들에 나타난 객체에 대해 라이브니스 검사를 수행할 수 있다.A liveness test apparatus according to an embodiment includes a processor; and a memory including instructions executable by the processor, wherein when the instructions are executed by the processor, the processor performs preprocessing including edge enhancement processing on phase images of different phases to obtain the preprocessed phase generating images, generating difference images based on the preprocessed phase images, generating low-resolution difference images having a lower resolution than the difference images, and generating a minimum map image based on the low-resolution difference images, , a liveness check may be performed on the object displayed in the phase images based on the minimum map image.

일 실시예에 따른 전자 장치는, 서로 다른 위상의 위상 영상들을 획득하는 멀티 위상 검출 센서; 및 상기 위상 영상들에 기초하여 라이브니스 검사를 수행하는 프로세서를 포함하고, 상기 프로세서는, 서로 다른 위상의 위상 영상들에 엣지 강화 처리를 포함하는 전처리를 수행하여 전처리된 위상 영상들을 생성하고, 상기 전처리된 위상 영상들에 기초하여 차영상들을 생성하고, 상기 차영상들보다 낮은 해상도를 가지는 저해상도 차영상들을 생성하고, 상기 저해상도 차영상들에 기초하여 최소 맵 영상을 생성하고, 상기 최소 맵 영상에 기초하여 상기 위상 영상들에 나타난 객체에 대해 라이브니스 검사를 수행할 수 있다.According to an embodiment, an electronic device includes: a multi-phase detection sensor configured to acquire phase images of different phases; and a processor for performing a liveness check based on the phase images, wherein the processor performs preprocessing including edge enhancement processing on phase images of different phases to generate preprocessed phase images, Generate difference images based on the preprocessed phase images, generate low-resolution difference images having a lower resolution than the difference images, generate a minimum map image based on the low-resolution difference images, and Based on this, a liveness check may be performed on the object displayed in the phase images.

도 1 및 도 2는 일 실시예에 따른 생체 인증 및 라이브니스 검사를 설명하기 위한 도면들이다.
도 3은 일 실시예에 따른 멀티 위상 검출 센서를 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 위상 영상들을 통해 검출될 수 있는 2D 객체와 3D 객체 간의 차이를 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 라이브니스 검사 방법의 동작을 설명하기 위한 흐름도이다.
도 6은 일 실시예에 따른 라이브니스 검사 과정을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 엣지 강화 처리를 설명하기 위한 도면이다.
도8및 도 9는 일 실시예에 따른 최소 맵 영상의 생성 과정을 설명하기 위한 도면들이다.
도 10a 및 도 10b는 일 실시예에 따른 위상 영상을 쉬프트하는 과정을 설명하기 위한 도면들이다.
도 11a 및 도 11b는 일 실시예에 따른 최소 맵 영상의 픽셀 값을 결정하는 과정을 설명하기 위한 도면들이다.
도 12는 일 실시예에 따른 라이브니스 검사 장치의 구성을 도시한 도면이다.
도 13은 일 실시예에 따른 전자 장치의 구성을 도시하는 도면이다.
1 and 2 are diagrams for explaining biometric authentication and liveness check according to an embodiment.
3 is a view for explaining a multi-phase detection sensor according to an embodiment.
4 is a diagram for explaining a difference between a 2D object and a 3D object that can be detected through phase images according to an exemplary embodiment.
5 is a flowchart illustrating an operation of a liveness checking method according to an embodiment.
6 is a diagram for explaining a liveness test process according to an embodiment.
7 is a diagram for describing an edge enhancement process according to an embodiment.
8 and 9 are diagrams for explaining a process of generating a minimum map image according to an exemplary embodiment.
10A and 10B are diagrams for explaining a process of shifting a phase image according to an exemplary embodiment.
11A and 11B are diagrams for explaining a process of determining a pixel value of a minimum map image according to an exemplary embodiment.
12 is a diagram illustrating a configuration of a liveness testing apparatus according to an exemplary embodiment.
13 is a diagram illustrating a configuration of an electronic device according to an exemplary embodiment.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 구현될 수 있다. 따라서, 실제 구현되는 형태는 개시된 특정한 실시예로만 한정되는 것이 아니며, 본 명세서의 범위는 실시예로 설명한 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for purposes of illustration only, and may be changed and implemented in various forms. Accordingly, the actual implemented form is not limited to the specific embodiments disclosed, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical idea described in the embodiments.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various elements, these terms should be interpreted only for the purpose of distinguishing one element from another. For example, a first component may be termed a second component, and similarly, a second component may also be termed a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being “connected to” another component, it may be directly connected or connected to the other component, but it should be understood that another component may exist in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expression includes the plural expression unless the context clearly dictates otherwise. In this specification, terms such as "comprise" or "have" are intended to designate that the described feature, number, step, operation, component, part, or combination thereof exists, and includes one or more other features or numbers, It should be understood that the possibility of the presence or addition of steps, operations, components, parts or combinations thereof is not precluded in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present specification. does not

이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. In the description with reference to the accompanying drawings, the same components are assigned the same reference numerals regardless of the reference numerals, and overlapping descriptions thereof will be omitted.

도 1 및 도 2는 일 실시예에 따른 생체 인증 및 라이브니스 검사를 설명하기 위한 도면들이다.1 and 2 are diagrams for explaining biometric authentication and liveness check according to an embodiment.

생체 인증(biometrics)은 사용자 인증(user verification)을 위한 인증 기술들 중 지문, 홍채, 얼굴, 정맥, 피부 등의 개인 생체 정보를 이용하는 인증 기술이다. 생체 인증에서 얼굴 인증은(face verification)은 인증을 시도한 사용자의 얼굴 정보에 기초하여 해당 사용자가 유효한(valid) 사용자인지 여부를 판단하는 인증 방법이다. 얼굴 인증은 사용자 로그인, 결제 서비스 및 출입 통제에서 유효한 사용자를 인증하는데 이용될 수 있다.Biometrics is an authentication technology using personal biometric information such as a fingerprint, iris, face, vein, and skin among authentication technologies for user verification. In biometric authentication, face verification is an authentication method for determining whether a corresponding user is a valid user based on face information of a user who has attempted authentication. Facial authentication can be used to authenticate a valid user in user login, payment service, and access control.

도 1을 참조하면, 전자 장치(120)(예: 도 13의 전자 장치(1300))는 생체 인증을 통해 전자 장치(120)에 액세스하려는 객체(110)(예: 사용자)에 대한 인증 과정을 수행한다. 전자 장치(120)는 전자 장치(120)에 포함된 영상 센서(130)(예: 도 3의 2PD 센서(310) 또는 도 12의 멀티 위상 검출 센서(multi-phase detection sensor; 1240))를 이용하여 객체(110)에 대한 영상 데이터를 획득하고, 획득한 영상 데이터를 분석하여 인증 결과를 결정한다. 생체 인증 과정은 영상 데이터에서 특징을 추출하고, 추출된 특징을 유효한 객체에 대한 등록 특징과 비교하여 그 비교 결과에 따라 인증의 성공 여부를 결정하는 과정을 포함할 수 있다. 일 실시예에서, 전자 장치(120)가 잠금 상태에 있었던 경우, 객체(110)에 대한 인증이 성공한 것으로 결정되면 전자 장치(120)의 잠금 상태가 해제될 수 있다. 이와 반대로, 객체(110)에 대한 인증이 실패한 것으로 결정된 경우, 전자 장치(120)는 계속적으로 잠금 모드에서 동작하게 된다. 전자 장치(120)는 스마트폰, 웨어러블 기기(wearable device), 태블릿 컴퓨터, 넷북, 랩탑, 데스크탑, PDA(personal digital assistant), 셋탑 박스, 가전 기기, 생체 도어락, 보안 장치 또는 차량 시동 장치일 수 있다.Referring to FIG. 1 , an electronic device 120 (eg, the electronic device 1300 of FIG. 13 ) performs an authentication process for an object 110 (eg, a user) who wants to access the electronic device 120 through biometric authentication. carry out The electronic device 120 uses the image sensor 130 (eg, the 2PD sensor 310 of FIG. 3 or the multi-phase detection sensor 1240 of FIG. 12 ) included in the electronic device 120 . to obtain image data for the object 110, and analyze the obtained image data to determine an authentication result. The biometric authentication process may include extracting a feature from image data, comparing the extracted feature with a registered feature of a valid object, and determining whether authentication succeeds according to the comparison result. In an embodiment, when the electronic device 120 is in the locked state, when it is determined that authentication of the object 110 is successful, the locked state of the electronic device 120 may be released. Conversely, when it is determined that authentication of the object 110 has failed, the electronic device 120 continuously operates in the lock mode. The electronic device 120 may be a smartphone, a wearable device, a tablet computer, a netbook, a laptop, a desktop, a personal digital assistant (PDA), a set-top box, a home appliance, a biometric door lock, a security device, or a vehicle ignition device. .

전자 장치(120)에 대한 유효한 사용자는 등록 과정을 통해 자신의 생체 특징을 전자 장치(120)에 미리 등록할 수 있고, 전자 장치(120)는 저장 장치 또는 클라우드 저장매체(cloud storage)에 해당 유효한 사용자를 식별하기 위한 정보를 저장할 수 있다. 유효한 사용자의 얼굴 영상 또는 해당 얼굴 영상으로부터 추출된 얼굴 특징이 유효한 사용자의 등록 생체 특징으로서 저장될 수 있다.A valid user of the electronic device 120 may register his/her biometric characteristics in the electronic device 120 in advance through a registration process, and the electronic device 120 stores the valid corresponding valid information in a storage device or cloud storage medium. Information for identifying the user may be stored. A face image of a valid user or a facial feature extracted from the face image may be stored as a registered biometric feature of the valid user.

위와 같은 생체 인증 과정에서 라이브니스 검사(liveness test)가 수행될 수 있다. 라이브니스 검사는 객체(110)가 살아있는 객체인지 여부를 검사하는 것으로, 인증 수단의 진위 여부를 판단하기 위한 것이다. 라이브니스 검사는 영상 센서(130)에 의해 촬영된 영상에 나타난 얼굴이 사람의 진짜 얼굴(genuine face)인지 아니면 거짓 얼굴(fake face)인지 여부를 검사하는 것이다. 라이브니스 검사는 살아있지 않은 객체(예: 사진, 종이, 동영상, 모형 및 마스크)와 살아있는 객체(예: 사람의 실제 얼굴) 사이를 구별하는데 이용된다. 전자 장치(120)는 실시예에 따라 라이브니스 검사 및 생체 인증 중 어느 하나만 수행하거나, 또는 라이브니스 검사 및 생체 인증을 모두 수행할 수 있다. In the biometric authentication process as described above, a liveness test may be performed. The liveness check is to check whether the object 110 is a living object, and is for determining whether the authentication means is authentic. The liveness test is to check whether the face shown in the image captured by the image sensor 130 is a genuine face or a fake face of a person. Liveness tests are used to distinguish between non-living objects (eg, photos, paper, video, models, and masks) and living objects (eg, real human faces). The electronic device 120 may perform either one of the liveness test and the biometric authentication, or both the liveness test and the biometric authentication, according to an embodiment.

도 2는 일 실시예에 따른 거짓 얼굴(210)과 진짜 얼굴(220)을 도시한다. 전자 장치(120)는 라이브니스 검사를 통해 영상 데이터에 나타난 얼굴이 진짜 얼굴(220)인지 여부를 식별할 수 있다. 또한, 전자 장치(120)는 라이브니스 검사를 통해 스마트폰 스크린이나 PC 스크린과 같은 디스플레이 장치에 디스플레이된 얼굴이 촬영된 검사 대상 영상과 사진이나 종이에 나타난 얼굴이 촬영된 검사 대상 영상에서 거짓 얼굴(210)을 구분할 수 있다.2 shows a fake face 210 and a real face 220 according to one embodiment. The electronic device 120 may identify whether the face shown in the image data is the real face 220 through the liveness test. In addition, through the liveness test, the electronic device 120 detects a false face ( 210) can be distinguished.

유효하지 않은 사용자는 위조 기술(spoofing techniques)을 이용하여 생체 인증 시스템의 오인증(false acceptance)을 유발하기 위한 시도를 수행할 수 있다. 얼굴 인증에서, 유효하지 않은 사용자는 오인증을 유발하기 위해 유효한 사용자의 얼굴이 나타난 사진이나 영상을 영상 센서(130)에 제시할 수 있다. 라이브니스 검사는 이러한 사진이나 영상과 같은 대체물을 이용한 인증 시도(또는, 스푸핑 공격)를 걸러내어 오인증을 방지한다. 라이브니스 검사 결과로서 인증 대상이 살아있지 않은 객체로 결정된 경우, 유효한 객체인지 여부를 판단하는 인증 과정을 수행하는 것 없이 최종적으로 인증이 실패한 것으로 결정되거나 또는 인증 과정이 수행되었더라도 그 인증 결과와 관계없이 최종적으로 인증이 실패한 것으로 결정될 수 있다.An invalid user may use spoofing techniques to attempt to induce false acceptance of the biometric authentication system. In face authentication, an invalid user may present a photo or image showing a valid user's face to the image sensor 130 in order to cause mis-authentication. The liveness check prevents false authentication by filtering out authentication attempts (or spoofing attacks) using substitutes such as photos or videos. If the object to be authenticated is determined to be a non-living object as a result of the liveness check, it is finally determined that authentication has failed without performing the authentication process to determine whether it is a valid object, or even if the authentication process has been performed, regardless of the authentication result Finally, it may be determined that authentication has failed.

영상 센서(130)는 객체(110)에 대한 시각 정보를 복수의 위상들에 대한 영상 데이터로 표현할 수 있다. 영상 센서(130)는 복수의 위상들의 시각 정보를 감지하고, 각 위상의 시각 정보에 관한 영상 데이터를 생성할 수 있다. 영상 센서(130)는 멀티 위상 검출 센서로서, 두 종류의 위상들을 감지하는 2PD(two phase detection) 센서, 또는 네 종류의 위상들을 감지하는 QPD(quad phase detection) 센서일 수 있다. 다만, 영상 센서(130)가 감지하는 위상들의 개수는 이것들에 한정되는 것은 아니며, 영상 센서(130)는 다른 다양한 개수의 위상들을 감지할 수도 있다. 이하에서는 설명의 편의를 위해 영상 센서(130)가 2PD 센서에 해당하는 실시예들에 대해 설명되나, 실시예의 범위가 2PD 센서에 한정되는 것은 아니며 아래의 설명은 영상 센서(130)가 다른 유형의 멀티 위상 검출 센서에 해당하는 경우에도 적용될 수 있다.The image sensor 130 may express visual information on the object 110 as image data for a plurality of phases. The image sensor 130 may detect visual information of a plurality of phases and generate image data related to visual information of each phase. The image sensor 130 is a multi-phase detection sensor, and may be a two phase detection (2PD) sensor that detects two types of phases or a quad phase detection (QPD) sensor that detects four types of phases. However, the number of phases detected by the image sensor 130 is not limited thereto, and the image sensor 130 may detect other various numbers of phases. Hereinafter, embodiments in which the image sensor 130 corresponds to a 2PD sensor will be described for convenience of description, but the scope of the embodiment is not limited to the 2PD sensor, and the following description will be provided in which the image sensor 130 is a different type of sensor. It can also be applied to a case corresponding to a multi-phase detection sensor.

도 3을 참조하면, 멀티 위상 검출 센서의 예로서 2PD 센서(310)의 구조가 도시되어 있다. 2PD 센서(310)는 R(red), G(green), B(blue)의 컬러 값을 2개의 서로 다른 위상으로 센싱할 수 있는 복수의 센서 픽셀(315)들을 포함한다. 참조 부호(320)는 센서 픽셀(315)을 확대하여 나타낸 것이다. 각각의 센서 픽셀(315)은 G의 컬러 값을 센싱하는 센서 서브-픽셀들(332, 342, 336, 346), R의 컬러 값을 센싱하는 센서 서브-픽셀들(334, 344) 및 B의 컬러 값을 센싱하는 센서 서브-픽셀들(338, 348)을 포함한다. 여기서, 센서 서브-픽셀들(332, 334, 336, 338)은 제1 위상(예: 왼쪽(L; left))에 대응하고, 센서 서브-픽셀들(342, 344, 346, 348)은 제2 위상(예: 오른쪽(R; right)에 대응할 수 있다. 도 3에 도시된 2PD 센서(310)의 구조는 일례에 불과하며, 센서 픽셀(315)들의 배치 구조는 도 3에 도시된 예에 한정되지 않고 다양한 배치 구조를 가질 수 있다.Referring to FIG. 3 , a structure of a 2PD sensor 310 is shown as an example of a multi-phase detection sensor. The 2PD sensor 310 includes a plurality of sensor pixels 315 capable of sensing color values of R (red), G (green), and B (blue) in two different phases. Reference numeral 320 is an enlarged representation of the sensor pixel 315 . Each sensor pixel 315 includes sensor sub-pixels 332 , 342 , 336 , 346 sensing a color value of G, sensor sub-pixels 334 , 344 sensing a color value of R and B sensor sub-pixels 338 , 348 for sensing color values. Here, the sensor sub-pixels 332 , 334 , 336 , 338 correspond to a first phase (eg, left (L)), and the sensor sub-pixels 342 , 344 , 346 , 348 correspond to the first phase. It may correspond to two phases (eg, right (R)). The structure of the 2PD sensor 310 illustrated in FIG. 3 is only an example, and the arrangement structure of the sensor pixels 315 is the example illustrated in FIG. 3 . It is not limited and may have various arrangement structures.

2PD 센서(310)에 포함된 각각의 센서 서브-픽셀은 제1 위상 및 제2 위상 중 어느 하나의 시각 정보를 센싱할 수 있다. 각각의 센서 서브-픽셀들(332, 334, 336, 338, 342, 344, 346, 348)은 외부의 광을 수광하여 전기 신호 값으로 출력하는 광다이오드(photodiode)를 포함한다. 제1 위상에 대응하는 센서 서브-픽셀들(332, 334, 336, 338)의 광다이오드의 출력 값을 추출하면 제1 위상의 제1 위상 영상(350)이 획득되고, 제2 위상에 대응하는 센서 서브-픽셀들(342, 344, 346, 348)의 광다이오드의 출력 값을 추출하면 제2 위상의 제2 위상 영상(360)이 획득될 수 있다.Each sensor sub-pixel included in the 2PD sensor 310 may sense visual information of any one of the first phase and the second phase. Each of the sensor sub-pixels 332 , 334 , 336 , 338 , 342 , 344 , 346 , and 348 includes a photodiode that receives external light and outputs an electrical signal value. When the output values of the photodiodes of the sensor sub-pixels 332 , 334 , 336 , 338 corresponding to the first phase are extracted, a first phase image 350 of the first phase is obtained, and the first phase image 350 of the first phase is obtained. When the output values of the photodiodes of the sensor sub-pixels 342 , 344 , 346 , and 348 are extracted, the second phase image 360 of the second phase may be obtained.

제1 위상 영상(350)과 제2 위상 영상(360) 간에는 시차(disparity)가 존재할 수 있고, 이러한 시차를 객체(110)의 라이브니스 검사에 이용함으로써 라이브니스 검사의 정확도는 향상될 수 있다. 시차는 객체(110)의 입체 정보를 나타낼 수 있기 때문에, 시차를 이용함으로써 사진이나 종이와 같이 2D로 구현된 가짜 객체를 효과적으로 구별해 낼 수 있다. 도 4는 일 실시예에 따른 위상 영상들을 통해 검출될 수 있는 2D 객체와 3D 객체 간의 차이를 설명하기 위한 도면이다. 도 4를 참조하면, 2D 객체가 2PD 센서(310)에 의해 촬영된 경우, 제1 위상 영상 및 제2 위상 영상을 통해서는 시차가 검출되지 않는다. 얼굴이 인쇄된 사진이 2PD 센서(310)에 의해 촬영되었다면, 사진에서는 얼굴 영역과 배경 영역 간에 깊이(depth) 차이가 없고, 얼굴 부위들 간에도 깊이 차이가 없기 때문에, 제1 위상 영상과 제2 위상 영상을 통해 시차가 검출되지 않는다. 반면에, 3D 객체가 2PD 센서(310)에 의해 촬영된 경우에는 제1 위상 영상 및 제2 위상 영상을 통해 시차가 검출될 수 있다. 실제 사람의 얼굴이 2PD 센서(310)에 의해 촬영되었다면, 제1 위상 영상과 제2 위상 영상을 비교함으로써 얼굴 윤곽 및/또는 코 부위에서 시차가 검출될 수 있다.A disparity may exist between the first phase image 350 and the second phase image 360 , and accuracy of the liveness test may be improved by using the disparity for the liveness test of the object 110 . Since the parallax can represent three-dimensional information of the object 110, by using the parallax, it is possible to effectively distinguish a fake object implemented in 2D such as a photograph or paper. 4 is a diagram for explaining a difference between a 2D object and a 3D object that can be detected through phase images according to an exemplary embodiment. Referring to FIG. 4 , when a 2D object is photographed by the 2PD sensor 310 , a parallax is not detected through the first phase image and the second phase image. If the photo on which the face is printed is taken by the 2PD sensor 310, since there is no depth difference between the face region and the background region in the photo, and there is no depth difference between face parts, the first phase image and the second phase Parallax is not detected through the image. On the other hand, when the 3D object is photographed by the 2PD sensor 310 , a parallax may be detected through the first phase image and the second phase image. If a real human face is photographed by the 2PD sensor 310 , a disparity may be detected in the face contour and/or the nose region by comparing the first phase image and the second phase image.

도 1로 돌아오면, 영상 센서(130)를 통해 획득한 위상 영상들을 통해서는 2D 정보에 해당하는 객체(110)의 형상(shape), 컬러(color), 텍스쳐(texture) 및 컨텍스트(context)의 정보가 추출될 수 있다. 전자 장치(120)는 위상 영상들뿐만 아니라 위상 영상들로부터 도출된 시차 정보를 라이브니스 검사에 이용함으로써, 객체(110)의 3D 구조에 대한 특징을 라이브니스 검사 결과에 반영시켜 라이브니스 검사의 정확도를 향상시킬 수 있다. 시차 정보는 위상 영상들 간의 픽셀 값 차이를 나타내는 차영상(differential image)으로부터 획득될 수 있다.Returning to FIG. 1 , through the phase images acquired through the image sensor 130 , the shape, color, texture, and context of the object 110 corresponding to 2D information are obtained. Information can be extracted. The electronic device 120 uses not only the phase images but also the disparity information derived from the phase images for the liveness test, and reflects the characteristics of the 3D structure of the object 110 in the liveness test result, thereby improving the accuracy of the liveness test. can improve The disparity information may be obtained from a differential image indicating a pixel value difference between phase images.

라이브니스 검사에 요구되는 연산량과 라이브니스 검사의 정확도는 어느 정도 서로 상충 관계에 있다. 높은 정확도를 위해서는 가능한 위상 영상들의 전체 해상도(full resolution)에 대한 정보가 요구된다. 그러나, 위상 영상들이 메가픽셀(magepixel)의 해상도를 가진다고 가정하면, 전체 해상도의 위상 영상들을 처리하는 것은 매우 시간 및 자원 소모적인 과정이기 때문에 모바일 플랫폼에서는 전체 해상도의 위상 영상들을 처리하는 것이 어렵다. 전자 장치(120)는 라이브니스 검사의 처리 속도를 높이고, 라이브니스 검사에 필요한 자원(예: 메모리)을 적게 하기 위해 영상 센서(130)에 의해 획득된 위상 영상들의 원본을 그대로 이용하는 것이 아니라, 위상 영상들을 저해상도로 변환하여 라이브니스 검사를 수행한다. 본 명세서에서 위상 영상을 저해상도로 변환하는 것은 위상 영상의 크기를 줄이는 것에 대응한다. 특히, 전자 장치(120)가 스마트폰과 같은 모바일 장치인 경우에는, 연산량과 자원에 대한 제약이 크기 때문에 위와 같이 위상 영상들의 해상도를 저해상도로 변환하는 것과 같은 라이브니스 검사의 경량화가 중요하다. 다만, 위상 영상들을 저해상도로 변환하는 과정은 위상 영상들에 포함된 시차 관련 정보의 손실을 야기하여 시차 정보의 정확도를 저하시키고 라이브니스 검사의 정확도를 낮출 수 있다. 또한, 영상 센서(130)에 의해 획득된 위상 영상들에는 전자 장치(120)의 움직임에 기인하는 노이즈가 많이 포함될 수 있고, 이러한 노이즈는 정확한 시차 정보를 획득하는 것을 방해하여 라이브니스 검사의 정확도를 낮출 수 있다.The amount of computation required for the liveness check and the accuracy of the liveness check are in conflict with each other to some extent. For high accuracy, information on the full resolution of possible phase images is required. However, assuming that the phase images have a resolution of megapixels, it is difficult to process the phase images of the full resolution in the mobile platform because processing the phase images of the full resolution is a very time-consuming and resource-consuming process. The electronic device 120 does not use the original phase images acquired by the image sensor 130 as it is, but rather in order to increase the processing speed of the liveness test and reduce resources (eg, memory) required for the liveness test. Liveness check is performed by converting images to low resolution. In the present specification, converting the phase image to a low resolution corresponds to reducing the size of the phase image. In particular, when the electronic device 120 is a mobile device such as a smart phone, it is important to reduce the weight of the liveness test, such as converting the resolution of the phase images to a low resolution, because there are large restrictions on the amount of computation and resources. However, the process of converting the phase images to a low resolution may cause loss of disparity-related information included in the phase images, thereby reducing the accuracy of disparity information and lowering the accuracy of the liveness test. In addition, the phase images acquired by the image sensor 130 may include a lot of noise caused by the movement of the electronic device 120 , and such noise prevents the acquisition of accurate disparity information, thereby reducing the accuracy of the liveness test. can be lowered

이하에서 설명할 라이브니스 검사 방법에 따르면, 위상 영상들에서 객체(110)의 엣지 성분을 강화하기 위한 엣지 강화(edge enhancement) 처리를 수행하고, 차영상으로부터 주요 픽셀을 효과적으로 추출함으로써 저해상도에서도 정확한 시차 정보를 획득하는 것을 가능하게 한다. 정확한 시차 정보에 의해 라이브니스 검사의 정확도는 향상될 수 있고, 이에 따라 위조 기술에 기반한 오인증을 효과적으로 막을 수 있다. 특히, 라이브니스 검사가 스마트폰과 같은 모바일 플랫폼에서 수행될 때, 제안된 라이브니스 검사 방법은 라이브니스 검사 과정에서 요구되는 계산량과 자원량을 줄여 실시간 처리(real-time processing)를 충분히 구현 가능하게 하고, 다양한 스푸핑 공격에 강인하게 라이브니스 검사를 수행하여 정확도를 향상시킬 수 있다. 이하 라이브니스 검사 방법에 대해 자세히 설명한다.According to the liveness inspection method to be described below, by performing edge enhancement processing to enhance the edge component of the object 110 in phase images and effectively extracting main pixels from the difference image, accurate parallax even at low resolution make it possible to obtain information. Accuracy of the liveness test may be improved by accurate disparity information, and thus false authentication based on a forgery technique may be effectively prevented. In particular, when the liveness test is performed on a mobile platform such as a smartphone, the proposed liveness test method reduces the amount of computation and resources required in the liveness test process, enabling real-time processing to be sufficiently implemented. , the accuracy can be improved by performing liveness checks robustly against various spoofing attacks. Hereinafter, the liveness test method will be described in detail.

도 5는 일 실시예에 따른 라이브니스 검사 방법의 동작을 설명하기 위한 흐름도이다.5 is a flowchart illustrating an operation of a liveness checking method according to an embodiment.

도 5를 참조하면, 단계(510)에서 라이브니스 검사 장치(예: 도 12의 라이브니스 검사 장치(1200))는 서로 다른 위상의 위상 영상들을 수신한다. 해당 위상 영상들은 멀티 위상 검출 센서(예: 도 12의 멀티 위상 검출 센서(1240))를 이용하여 획득된 것일 수 있다.Referring to FIG. 5 , in operation 510 , the liveness testing apparatus (eg, the liveness testing apparatus 1200 of FIG. 12 ) receives phase images of different phases. The corresponding phase images may be obtained using a multi-phase detection sensor (eg, the multi-phase detection sensor 1240 of FIG. 12 ).

단계(520)에서, 라이브니스 검사 장치는 위상 영상들에 엣지 강화 처리를 포함하는 전처리를 수행하여 전처리된 위상 영상들을 생성한다. 라이브니스 검사 장치는 전처리 과정에서 위상 영상들에서 노이즈를 제거하고, 위상 영상들 각각에 나타난 객체의 엣지 영역을 강화(또는 강조)하는 처리를 수행한다. 일 실시예에서, 라이브니스 검사 장치는 소벨 필터(Sobel filter)를 위상 영상들 각각에 적용하여 엣지 강화 처리를 수행할 수 있다. 다만, 엣지 강화 처리가 소벨 필터를 이용하는 방법에 한정되는 것은 아니고, 이외에 비등방성 필터(anisotropic filter), 라플라시안 필터(laplacian filter) 및 캐니 엣지 필터(canny edge filter) 중 하나 이상을 이용하는 방법, 뉴럴 네트워크를 이용한 방법 등 다른 다양한 엣지 강화 처리가 수행될 수 있다. 위상 영상들을 매칭하는데 있어, 객체의 엣지 영역(예: 얼굴의 윤곽)을 비교하는 것이 평편한 영역(예: 얼굴의 볼)을 비교하는 것보다 더 쉽고 정확하다. 따라서, 정확한 시차 정보를 획득하는데 있어 엣지 영역에 대한 정보는 중요하다. 엣지 강화 처리를 통해 위상 영상들에서 이러한 엣지 영역이 강조되고, 객체의 형상에서 평편한 영역의 노이즈가 제거될 수 있다.In operation 520, the liveness inspection apparatus generates preprocessed phase images by performing preprocessing including edge enhancement processing on the phase images. The liveness inspection apparatus removes noise from the phase images in a pre-processing process and performs a process of enhancing (or emphasizing) an edge region of an object appearing in each of the phase images. In an embodiment, the liveness checking apparatus may perform edge enhancement processing by applying a Sobel filter to each of the phase images. However, the edge enhancement processing is not limited to the method using the Sobel filter, and in addition, a method using one or more of an anisotropic filter, a Laplacian filter, and a canny edge filter, a neural network Various other edge enhancement processing, such as a method using , may be performed. In matching topological images, it is easier and more accurate to compare an edge region of an object (eg, the outline of a face) than a flat region (eg, a cheek of a face). Accordingly, information on the edge region is important in obtaining accurate disparity information. Through edge enhancement processing, such an edge region in phase images may be emphasized, and noise in a flat region may be removed from the shape of an object.

라이브니스 검사 장치는 엣지 강화 처리를 수행하기 이전에 위상 영상들에 감마 보정(gamma correction)을 수행하고, 감마 보정이 수행된 위상 영상들에 엣지 강화 처리를 수행할 수 있다. 감마 보정은 비선형 전달 함수(nonlinear transfer function)를 이용하여 위상 영상들의 밝기 값을 보정하는 과정이고, 낮은 계산량으로도 수행 가능하다는 이점이 있다. 라이브니스 검사 장치는 또한 엣지 강화 처리를 수행하기 이전에 위상 영상들에서 노이즈를 제거하는 디노이징(denoising) 처리를 수행할 수도 있다.The liveness inspection apparatus may perform gamma correction on phase images before performing edge enhancement processing, and may perform edge enhancement processing on phase images on which gamma correction has been performed. Gamma correction is a process of correcting the brightness values of phase images using a nonlinear transfer function, and has an advantage that it can be performed with a low amount of calculation. The liveness inspection apparatus may also perform denoising processing for removing noise from phase images before performing edge enhancement processing.

단계(530)에서, 라이브니스 검사 장치는 전처리된 위상 영상들에 기초하여 차영상들을 생성한다. 차영상은 위상 영상들 간 서로 대응되는 픽셀 영역에서의 픽셀 값 차이를 나타내는 영상이다. 전처리된 위상 영상들이 전처리된 제1 위상 영상 및 전처리된 제2 위상 영상을 포함한다고 가정하면, 라이브니스 검사 장치는 전처리된 제2 위상 영상을 서로 다른 이동 변위로 쉬프트(shift)하여 쉬프트된(shifted) 제2 위상 영상들을 생성할 수 있다. 라이브니스 검사 장치는 쉬프트된 제2 위상 영상들 각각과 전처리된 제1 위상 영상 간의 픽셀 값 차이를 나타내는 차영상들을 생성할 수 있다. 라이브니스 검사 장치는 전처리된 제1 위상 영상을 고정한 상태에서 전처리된 제2 위상 영상을 쉬프트하여 쉬프트된 제2 위상 영상과 전처리된 제1 위상 영상 간에 대응하는 영역에서의 픽셀 값 차이를 계산할 수 있다. 또한, 라이브니스 검사 장치는 쉬프트하지 않은 전처리된 제2 위상 영상과 전처리된 제1 위상 영상 간의 픽셀 값 차이를 나타내는 차영상을 생성할 수 있다. In operation 530, the liveness test apparatus generates difference images based on the pre-processed phase images. The difference image is an image representing a difference in pixel values in pixel regions corresponding to each other between phase images. Assuming that the pre-processed phase images include the pre-processed first phase image and the pre-processed second phase image, the liveness test apparatus shifts the pre-processed second phase image by different shift displacements to be shifted. ) may generate second phase images. The liveness testing apparatus may generate difference images indicating a pixel value difference between each of the shifted second phase images and the preprocessed first phase image. The liveness test apparatus may calculate a pixel value difference in a corresponding region between the shifted second phase image and the preprocessed first phase image by shifting the preprocessed second phase image while the preprocessed first phase image is fixed. . Also, the liveness testing apparatus may generate a difference image indicating a pixel value difference between the non-shifted preprocessed second phase image and the preprocessed first phase image.

단계(540)에서, 라이브니스 검사 장치는 차영상들보다 낮은 해상도를 가지는 저해상도 차영상들을 생성한다. 라이브니스 검사 장치는 각각의 차영상들에 대해 주요 픽셀들을 추출하는 것에 의해 크기가 줄어든 저해상도의 차영상들을 생성할 수 있다. 주요 픽셀들은 차영상의 픽셀들 중에서 중요한 정보 또는 핵심 신호를 포함하는 것으로 고려되는 픽셀들이다. 일례로, 라이브니스 검사 장치는 맥스 풀링(max pooling) 기법에 따라 차영상에서 각 패치 영역별로 가장 큰 픽셀 값을 추출하고, 추출된 가장 큰 픽셀 값에 기초하여 저해상도 차영상을 생성할 수 있다. 패치 영역들에서 추출된 가장 큰 픽셀 값들이 저해상도 차영상의 픽셀 값들을 구성한다. 다른 예로, 라이브니스 검사 장치는 에버리지 풀링(average pooling) 기법에 따라 차영상에서 각 패치 영역별로 픽셀 영역 내 픽셀 값들에 대한 평균 값을 결정하고, 각 패치 영역에 대응하는 평균 값에 기초하여 저해상도 차영상을 생성할 수 있다. 패치 영역들에서 결정된 평균 값들이 저해상도 차영상의 픽셀 값들을 구성한다. 다만, 실시예의 범위가 맥스 풀링 기법이나 에버리지 풀링 기법에 한정되는 것은 아니며, 다른 기법의 적용도 가능하다.In operation 540, the liveness inspection apparatus generates low-resolution difference images having a lower resolution than the difference images. The liveness inspection apparatus may generate low-resolution difference images with reduced sizes by extracting main pixels from each of the difference images. The main pixels are pixels that are considered to contain important information or key signals among pixels of the difference image. For example, the liveness inspection apparatus may extract the largest pixel value for each patch region from the difference image according to a max pooling technique, and generate a low-resolution difference image based on the extracted largest pixel value. The largest pixel values extracted from the patch regions constitute pixel values of the low-resolution difference image. As another example, the liveness inspection apparatus determines an average value of pixel values in a pixel region for each patch region in a difference image according to an average pooling technique, and a low-resolution difference based on the average value corresponding to each patch region You can create an image. The average values determined in the patch regions constitute pixel values of the low-resolution difference image. However, the scope of the embodiment is not limited to the max pooling technique or the average pooling technique, and other techniques may be applied.

단계(550)에서, 라이브니스 검사 장치는 저해상도 차영상들에 기초하여 최소 맵 영상을 생성한다. 최소 맵 영상은 디스패리티 맵과 유사하게 객체의 3D 정보에 대한 단서를 포함하는 영상이다. 라이브니스 검사 장치는 저해상도 차영상들 간에 서로 대응하는 영역의 차이 값들 중 최소 차이 값을 식별할 수 있다. 라이브니스 검사 장치는 식별된 최소 차이 값에 기초하여 최소 맵 영상의 픽셀 값을 결정할 수 있다. 최소 맵 영상에서 해당 대응하는 영역의 픽셀 값은, 선택된 최소 차이 값에 해당하거나, 또는 차영상들 중에서 최소 차이 값을 포함하는 저해상도 차영상에 대응하는 이동 변위의 인덱스에 해당할 수 있다. 이동 변위의 인덱스는 위상 영상을 쉬프트한 변위 값을 나타낸다. 예를 들어, 이동 변위의 인덱스는, 오른쪽으로 2 픽셀만큼 쉬프트했으면 +2, 오른쪽으로 1 픽셀만큼 쉬프트했으면 +1, 쉬프트하지 않았으면 0, 왼쪽으로 2 픽셀만큼 쉬프트했으면 -2, 왼쪽으로 1 픽셀만큼 쉬프트했으면 -1의 값을 가질 수 있다.In operation 550, the liveness inspection apparatus generates a minimum map image based on the low-resolution difference images. The minimum map image is an image including a clue about 3D information of an object, similar to the disparity map. The liveness inspection apparatus may identify a minimum difference value among difference values of regions corresponding to each other between the low-resolution difference images. The liveness checking apparatus may determine a pixel value of the minimum map image based on the identified minimum difference value. A pixel value of a corresponding region in the minimum map image may correspond to a selected minimum difference value or may correspond to an index of a movement displacement corresponding to a low-resolution difference image including a minimum difference value among the difference images. The index of the displacement displacement indicates a displacement value shifted by the phase image. For example, the index of the translation displacement is +2 if shifted right by 2 pixels, +1 if shifted right 1 pixel, 0 if not shifted, -2 if shifted 2 pixels left, 1 pixel left It can have a value of -1 if it has been shifted by that much.

단계(560)에서, 라이브니스 검사 장치는 최소 맵 영상에 기초하여 위상 영상들에 나타난 객체에 대해 라이브니스 검사를 수행한다. 라이브니스 검사 장치는 최소 맵 영상 및 위상 영상들을 뉴럴 네트워크 기반의 라이브니스 검사 모델(예: 도 6의 라이브니스 검사 모델(670))에 적용하여 라이브니스 검사 결과를 획득한다. 여기서, 라이브니스 검사 모델에 적용되는 위상 영상들의 해상도는, 최소 맵 영상의 해상도에 상응하도록 조정된 것일 수 있다. 서로 동일한 해상도의 최소 맵 영상 및 위상 영상들이 라이브니스 검사 모델의 입력 패치들(input patches)을 형성한다. 최소 맵 영상 및 위상 영상들은 병합(concatenation)되어 라이브니스 검사 모델의 입력 채널을 구성할 수 있다.In operation 560, the liveness test apparatus performs a liveness test on the object shown in the phase images based on the minimum map image. The liveness test apparatus obtains a liveness test result by applying the minimum map image and the phase images to a neural network-based liveness test model (eg, the liveness test model 670 of FIG. 6 ). Here, the resolution of the phase images applied to the liveness test model may be adjusted to correspond to the resolution of the minimum map image. The minimum map image and phase images of the same resolution form input patches of the liveness inspection model. The minimum map image and the phase images may be concatenated to configure an input channel of the liveness test model.

입력 패치들에 포함되는 위상 영상들은 원(original) 위상 영상들의 전체 영역에 대응하거나 또는 관심 영역(예: 얼굴 영역)을 포함하는 부분 영역에 대응할 수 있다.The phase images included in the input patches may correspond to the entire region of the original phase images or may correspond to a partial region including a region of interest (eg, a face region).

라이브니스 검사 모델은 입력 패치들에 기초하여 객체의 라이브니스를 검출하도록 미리 학습된(trained) 하나 이상의 뉴럴 네트워크를 포함할 수 있다. 뉴럴 네트워크는 입력 데이터에 대한 응답으로 내부 파라미터들에 의해 계산된 값을 출력한다. 뉴럴 네트워크의 적어도 일부는 소프트웨어로 구현되거나, 뉴럴 프로세서(neural processor)를 포함하는 하드웨어로 구현되거나, 또는 소프트웨어 및 하드웨어의 조합으로 구현될 수 있다. 뉴럴 네트워크는 완전 연결 네트워크(fully connected network), 딥 컨볼루셔널 네트워크(deep convolutional network) 및 리커런트 뉴럴 네트워크(recurrent neural network) 등을 포함하는 딥 뉴럴 네트워크(deep neural network, DNN)에 해당할 수 있다. DNN은 복수의 레이어들을 포함할 수 있다. 복수의 레이어들은 입력 레이어(input layer), 하나 이상의 히든 레이어(hidden layer), 및 출력 레이어(output layer)를 포함할 수 있다. 뉴럴 네트워크는 딥 러닝(deep learning)에 기반하여 비선형적 관계에 있는 입력 데이터 및 출력 데이터를 서로 매핑함으로써 주어진 동작을 수행하도록 트레이닝될 수 있다. 딥 러닝은 빅 데이터 세트로부터 주어진 문제를 해결하기 위한 기계 학습 기법이다. 딥 러닝은 준비된 트레이닝 데이터를 이용하여 뉴럴 네트워크를 트레이닝하면서 에너지가 최소화되는 지점을 찾아가는 뉴럴 네트워크의 최적화 과정이다.The liveness check model may include one or more neural networks pretrained to detect the liveness of an object based on input patches. The neural network outputs values calculated by internal parameters in response to input data. At least a portion of the neural network may be implemented as software, hardware including a neural processor, or a combination of software and hardware. The neural network may correspond to a deep neural network (DNN) including a fully connected network, a deep convolutional network, and a recurrent neural network. have. A DNN may include a plurality of layers. The plurality of layers may include an input layer, one or more hidden layers, and an output layer. A neural network may be trained to perform a given operation by mapping input data and output data in a non-linear relationship to each other based on deep learning. Deep learning is a machine learning technique for solving a given problem from a big data set. Deep learning is a neural network optimization process that finds a point where energy is minimized while training a neural network using prepared training data.

하나 이상의 뉴럴 네트워크는 입력된 데이터에 응답하여 라이브니스 스코어를 출력할 수 있다. 라이브니스 스코어는 객체의 라이브니스 여부를 결정하는데 기준이 되는 값으로서, 객체가 진짜 객체 또는 거짓 객체에 해당할 수치, 확률 값 또는 특징 값을 나타낸다. 라이브니스 검사 장치는 라이브니스 스코어가 미리 설정된 조건을 만족시키는지 여부에 기초하여 객체의 라이브니스 여부를 결정할 수 있다. 라이브니스 검사 장치는 라이브니스 스코어가 임계 값보다 큰 경우에는 객체가 살아 있는 진짜 객체 인 것으로 결정하고, 라이브니스 스코어가 임계 값 이하인 경우에는 객체가 살아 있지 않은 가짜 객체인 것으로 결정할 수 있다.One or more neural networks may output a liveness score in response to the input data. The liveness score is a standard value for determining whether an object is lively, and represents a numerical value, a probability value, or a feature value that the object corresponds to a real object or a false object. The liveness checking apparatus may determine whether the object is lively based on whether the liveness score satisfies a preset condition. When the liveness score is greater than the threshold value, the apparatus may determine that the object is a real living object, and when the liveness score is less than or equal to the threshold value, it may determine that the object is a non-living fake object.

위와 같이, 라이브니스 검사는 멀티 위상 검출 센서를 통해 획득된 원본의 위상 영상들을 이용하는 것이 아닌 저해상도의 위상 영상들을 이용함으로써 라이브니스 검사의 계산 복잡도와 필요 자원량을 줄이며, 이에 따라 실시간 처리를 가능하게 한다. 또한, 라이브니스 검사는 제안된 엣지 강화 처리와 풀링 기법을 통해, 저해상도의 최소 맵 영상을 생성하는 과정에서 3D 정보의 손실을 줄여 최소 맵 영상의 정확도(또는 신뢰도)를 향상시킬 수 있으며, 이를 통해 2D 형태의 스푸핑 공격을 효과적으로 걸러 내어 라이브니스 검사의 정확도를 개선시킬 수 있다.As described above, the liveness test uses low-resolution phase images instead of using the original phase images obtained through the multi-phase detection sensor, thereby reducing the computational complexity and the amount of resources required for the liveness test, thereby enabling real-time processing. . In addition, the liveness check can improve the accuracy (or reliability) of the minimum map image by reducing the loss of 3D information in the process of generating a low-resolution minimum map image through the proposed edge enhancement processing and pooling technique. By effectively filtering out 2D spoofing attacks, the accuracy of the liveness check can be improved.

라이브니스 검사 장치는 객체에 대한 라이브니스 검사 결과에 응답하여 제어 동작을 수행할 수도 있다. 객체가 진짜 객체인 것으로 결정된 경우, 라이브니스 검사 장치는 사용자 인증 절차의 실행을 요청할 수 있다. 이와 반대로, 객체가 가짜 객체인 것으로 결정된 경우, 라이브니스 검사 장치는 사용자 인증 과정의 실행을 요청하지 않고, 사용자의 액세스를 차단할 수 있다.The liveness test apparatus may perform a control operation in response to a liveness test result of the object. When it is determined that the object is a real object, the liveness checking apparatus may request execution of a user authentication procedure. Conversely, when it is determined that the object is a fake object, the liveness checking apparatus may block the user's access without requesting execution of the user authentication process.

도 6은 일 실시예에 따른 라이브니스 검사 과정을 설명하기 위한 도면이다.6 is a diagram for explaining a liveness test process according to an embodiment.

도 6을 참조하면, 2PD 센서(310)와 같은 멀티 위상 검출 센서로부터 제1 위상 영상(350)과 제2 위상 영상(360)이 획득된다. 라이브니스 검사 장치(예: 도 12의 라이브니스 검사 장치(1200))는 제1 위상 영상(350)가 제2 위상 영상(360)에 각각 엣지 강화 처리를 포함하는 전처리를 수행하여 전처리된 제1 위상 영상(610)및 전처리된 제2 위상 영상(620)을 생성한다. 엣지 강화 처리는 소벨 필터 및 비등방성 필터와 같이 객체의 엣지 영역을 강조하는 필터를 제1 위상 영상(350) 및 제2 위상 영상(360)에 각각 적용하는 것을 포함한다. 실시예에 따라, 전처리는 감마 보정 및/또는 노이즈를 제거하는 디노이징을 포함할 수 있다.Referring to FIG. 6 , a first phase image 350 and a second phase image 360 are obtained from a multi-phase detection sensor such as the 2PD sensor 310 . In the liveness test apparatus (eg, the liveness test apparatus 1200 of FIG. 12 ), the first phase image 350 is first preprocessed by performing preprocessing including edge enhancement processing on the second phase image 360 , respectively. A phase image 610 and a preprocessed second phase image 620 are generated. The edge enhancement processing includes applying a filter that emphasizes an edge region of an object, such as a Sobel filter and an anisotropy filter, to the first phase image 350 and the second phase image 360 , respectively. According to an embodiment, the preprocessing may include gamma correction and/or denoising to remove noise.

라이브니스 검사 장치는 전처리된 제1 위상 영상(610)과 전처리된 제2 위상 영상(620)에 기초하여 차영상들(630)을 생성한다. 라이브니스 검사 장치는 전처리된 제2 위상 영상(620)을 서로 다른 이동 변위로 쉬프트하여 쉬프트된 제2 위상 영상들을 생성하고, 전처리된 제1 위상 영상(610)과 쉬프트된 제2 위상 영상들 간의 픽셀 값 차이를 나타내는 차영상들을 생성할 수 있다. 차영상들(630)에는 쉬프트되지 않은 전처리된 제2 위상 영상(620)과 전처리된 제1 위상 영상(610) 간의 픽셀 값 차이를 나타내는 차영상이 포함될 수 있다.The liveness testing apparatus generates difference images 630 based on the preprocessed first phase image 610 and the preprocessed second phase image 620 . The liveness inspection apparatus shifts the preprocessed second phase image 620 by different movement displacements to generate shifted second phase images, and generates shifted second phase images between the preprocessed first phase image 610 and the shifted second phase images. Difference images representing the pixel value difference may be generated. The difference images 630 may include a difference image indicating a pixel value difference between the unshifted preprocessed second phase image 620 and the preprocessed first phase image 610 .

라이브니스 검사 장치는 차영상들(630)의 크기를 줄여 저해상도 차영상들(640)을 생성한다. 라이브니스 검사 장치는 맥스 풀링 기법을 이용하여 차영상들(630) 각각에서 주요 픽셀들을 추출하여 저해상도 차영상들(640)을 생성할 수 있다.The liveness inspection apparatus generates the low-resolution difference images 640 by reducing the size of the difference images 630 . The liveness inspection apparatus may generate the low-resolution difference images 640 by extracting main pixels from each of the difference images 630 using a max pooling technique.

라이브니스 검사 장치는 저해상도 차영상들(640)에 기초하여 최소 맵 영상(650)을 생성한다. 라이브니스 검사 장치는 저해상도 차영상들(640) 간의 대응 영역들의 차이 값들 중 최소 차이 값을 식별하고, 최소 차이 값을 기초로 최소 맵 영상(650)의 픽셀 값을 결정할 수 있다. 라이브니스 검사 장치는 최소 차이 값을 최소 맵 영상(650)의 픽셀 값으로 그대로 결정하거나 또는 최소 차이 값을 가지는 저해상도 차영상의 쉬프트 인덱스를 최소 맵 영상(650)의 픽셀 값으로 결정할 수도 있다.The liveness inspection apparatus generates a minimum map image 650 based on the low-resolution difference images 640 . The liveness checking apparatus may identify a minimum difference value among difference values of corresponding regions between the low-resolution difference images 640 and determine a pixel value of the minimum map image 650 based on the minimum difference value. The liveness checking apparatus may determine the minimum difference value as the pixel value of the minimum map image 650 as it is, or determine the shift index of the low-resolution difference image having the minimum difference value as the pixel value of the minimum map image 650 .

라이브니스 검사 장치는 제1 위상 영상(350)과 제2 위상 영상(360)의 해상도를 줄여 저해상도 제1 위상 영상(660) 및 저해상도 제2 위상 영상(665)를 생성하고, 저해상도 제1 위상 영상(660), 저해상도 제2 위상 영상(665) 및 최소 맵 영상(650)을 뉴럴 네트워크 기반의 라이브니스 검사 모델(670)에 적용하여 라이브니스 검사를 수행할 수 있다. 2PD 센서(310)로부터 획득된 전체 해상도의 제1 위상 영상(350) 및 제2 위상 영상(360)을 분석하는 것이 아닌, 저해상도 제1 위상 영상(660) 및 저해상도 제2 위상 영상(665)와 해상도가 낮아진 최소 맵 영상(650)을 분석하면 되므로 라이브니스 검사 모델(670)로서 경량화된 뉴럴 네트워크를 이용하는 것이 가능해 진다.The liveness inspection apparatus generates a low-resolution first phase image 660 and a low-resolution second phase image 665 by reducing the resolution of the first phase image 350 and the second phase image 360 , and the low-resolution first phase image The liveness test may be performed by applying the 660 , the low-resolution second phase image 665 , and the minimum map image 650 to the neural network-based liveness test model 670 . Instead of analyzing the full-resolution first phase image 350 and the second phase image 360 obtained from the 2PD sensor 310, the low-resolution first phase image 660 and the low-resolution second phase image 665 and It is possible to use a lightweight neural network as the liveness test model 670 because it is enough to analyze the minimum map image 650 with reduced resolution.

라이브니스 검사 모델(670)에 입력되는 저해상도 제1 위상 영상(660), 저해상도 제2 위상 영상(665) 및 최소 맵 영상(650)은 해상도가 서로 동일할 수 있다. 저해상도 제1 위상 영상(660), 저해상도 제2 위상 영상(665) 및 최소 맵 영상(650)은 라이브니스 검사 모델(670)의 입력 채널을 구성하여 라이브니스 검사 모델(670)의 입력 레이어를 통해 라이브니스 검사 모델(670)에 입력될 수 있다. 실시예에 따라, 최소 맵 영상(650)은 라이브니스 검사 모델(670)에 입력되기 전에 정의된 해상도가 되도록 영상 크기가 축소될 수도 있고, 이 경우 제1 위상 영상(350) 및 제2 위상 영상(360)도 라이브니스 검사 모델(670)에 입력되기 전에 최소 맵 영상(650)의 해상도와 동일하게 되도록 영상 크기가 축소될 수 있다.The low-resolution first phase image 660 , the low-resolution second phase image 665 , and the minimum map image 650 input to the liveness test model 670 may have the same resolution. The low-resolution first phase image 660 , the low-resolution second phase image 665 , and the minimum map image 650 constitute an input channel of the liveness test model 670 and pass through the input layer of the liveness test model 670 . may be input to the liveness test model 670 . According to an embodiment, the image size of the minimum map image 650 may be reduced to a resolution defined before being input to the liveness test model 670. In this case, the first phase image 350 and the second phase image Before 360 degrees are input to the liveness test model 670 , the image size may be reduced to be the same as the resolution of the minimum map image 650 .

라이브니스 검사 모델(670)은 입력된 데이터에 응답하여 라이브니스 스코어를 출력할 수 있다. 라이브니스 검사 장치는 라이브니스 스코어가 미리 정의된 조건(예: 임계 값보다 큰 조건)을 만족시키면 객체가 진짜 객체인 것으로 결정하고, 해당 조건을 만족시키지 않으면 객체가 가짜 객체인 것으로 결정할 수 있다.The liveness test model 670 may output a liveness score in response to input data. The liveness checking apparatus may determine that the object is a real object if the liveness score satisfies a predefined condition (eg, a condition greater than a threshold value), and may determine that the object is a fake object if the condition is not satisfied.

도 7은 일 실시예에 따른 엣지 강화 처리를 설명하기 위한 도면이다.7 is a diagram for describing an edge enhancement process according to an embodiment.

도 7을 참조하면, 라이브니스 검사 장치(예: 도 12의 라이브니스 검사 장치(1200))는 제1 위상 영상(350)과 제2 위상 영상(360) 각각에 대해 엣지 강화 처리를 수행한다. 라이브니스 검사 장치는 소벨 필터(710)를 제1 위상 영상(350)에 적용하여 제1 위상 영상(350)에 나타난 객체의 엣지 영역을 강조하는 전처리를 수행할 수 있다. 또한, 라이브니스 검사 장치는 소벨 필터(710)를 제2 위상 영상(360)에 적용하여 제2 위상 영상(360)에 나타난 객체의 엣지 영역을 강조하는 전처리를 수행할 수 있다. 이와 같은 전처리 과정을 통해 노이즈가 줄어들고 엣지 영역이 강조된, 전처리된 제1 위상 영상(610) 및 전처리된 제2 위상 영상(620)이 획득될 수 있다. 실시예에 따라, 엣지 강화 처리를 위해 소벨 필터(710)뿐만 아니라 비등방성 필터, 라플라시안 필터 또는 캐니 엣지 필터의 엣지 강화 필터가 이용될 수도 있다. 엣지 강화 처리를 통해 객체의 엣지 영역에서 보다 정확성이 높은 시차 정보의 검출이 가능해 진다.Referring to FIG. 7 , the liveness inspection apparatus (eg, the liveness inspection apparatus 1200 of FIG. 12 ) performs edge enhancement on each of the first phase image 350 and the second phase image 360 . The liveness inspection apparatus may apply the Sobel filter 710 to the first phase image 350 to perform preprocessing for emphasizing the edge region of the object displayed in the first phase image 350 . Also, the liveness testing apparatus may apply the Sobel filter 710 to the second phase image 360 to perform preprocessing for emphasizing the edge region of the object displayed in the second phase image 360 . Through such a pre-processing process, a pre-processed first phase image 610 and a pre-processed second phase image 620 in which noise is reduced and an edge region is emphasized may be obtained. According to an embodiment, an edge enhancement filter of an anisotropic filter, a Laplacian filter, or a Canny edge filter as well as the Sobel filter 710 may be used for edge enhancement processing. Through edge enhancement processing, it is possible to detect parallax information with higher accuracy in the edge area of an object.

도 8은 일 실시예에 따른 최소 맵 영상에 대한 개략적인 생성 과정을 설명하기 위한 도면이다.8 is a diagram for explaining a schematic generation process of a minimum map image according to an embodiment.

도 8을 참조하면, 엣지 강화 처리를 포함하는 전처리가 수행된 이후에, 전처리된 제1 위상 영상(610) 및 전처리된 제2 위상 영상(620)에 기초하여 차영상들(630)이 생성된다. 라이브니스 검사 장치(예: 도 12의 라이브니스 검사 장치(1200))는 전처리된 제2 위상 영상(620)을 서로 다른 이동 변위로 쉬프트하여 쉬프트된 각 제2 위상 영상들과 전처리된 제1 위상 영상(610) 간의 픽셀 값 차이를 나타내는 차영상들(630)을 생성할 수 있다. 여기서, 차영상들(630)은 제1 차영상(812), 제2 차영상(814), 제3 차영상(816), 제4 차영상(818) 및 제5 차영상(820)을 포함한다고 가정한다. 제1 차영상(812)은 전처리된 제1 위상 영상(610)과 전처리된 제2 위상 영상(620)을 왼쪽으로 2픽셀만큼 쉬프트한 영상 간의 픽셀 값 차이를 나타내고, 제2 차영상(814)은 전처리된 제1 위상 영상(610)과 전처리된 제2 위상 영상(620)을 왼쪽으로 1픽셀만큼 쉬프트한 영상 간의 픽셀 값 차이를 나타낸다. 제3 차영상(816)은 전처리된 제1 위상(610)과 쉬프트하지 않은 전처리된 제2 위상 영상(620) 간의 픽셀 값 차이를 나타낸다. 제4 차영상(818)은 전처리된 제1 위상 영상(610)과 전처리된 제2 위상 영상(620)을 오른쪽으로 1픽셀만큼 쉬프트한 영상 간의 픽셀 값 차이를 나타내고, 제5 차영상(820)은 전처리된 제1 위상 영상(610)과 전처리된 제2 위상 영상(620)을 오른쪽으로 2픽셀만큼 쉬프트한 영상 간의 픽셀 값 차이를 나타낸다. 다만, 차영상들(630)을 생성하는 것과 관련하여 실시예에 범위가 전처리된 제2 위상 영상(620)을 쉬프트하는 것에 한정되지는 않는다. 다른 실시예에서는, 전처리된 제1 위상 영상(610)을 서로 다른 이동 변위로 쉬프트하여 쉬프트된 제1 위상 영상들을 생성하고, 전처리된 제2 위상 영상(620)과 쉬프트된 각 제2 위상 영상들 간의 픽셀 값 차이를 나타내는 차영상들을 생성할 수도 있다Referring to FIG. 8 , after preprocessing including edge enhancement processing is performed, difference images 630 are generated based on the preprocessed first phase image 610 and the preprocessed second phase image 620 . . The liveness test apparatus (eg, the liveness test apparatus 1200 of FIG. 12 ) shifts the preprocessed second phase image 620 by different movement displacements to obtain the shifted second phase images and the preprocessed first phase. Difference images 630 representing the pixel value difference between the images 610 may be generated. Here, the difference images 630 include a first difference image 812 , a second difference image 814 , a third difference image 816 , a fourth difference image 818 , and a fifth difference image 820 . assume that The first difference image 812 represents a pixel value difference between the preprocessed first phase image 610 and the image obtained by shifting the preprocessed second phase image 620 to the left by 2 pixels, and the second difference image 814 . denotes a pixel value difference between the preprocessed first phase image 610 and the preprocessed second phase image 620 shifted by one pixel to the left. The third difference image 816 represents a pixel value difference between the preprocessed first phase 610 and the non-shifted preprocessed second phase image 620 . The fourth difference image 818 represents a pixel value difference between the preprocessed first phase image 610 and the preprocessed second phase image 620 shifted by one pixel to the right, and the fifth difference image 820 . denotes a pixel value difference between the preprocessed first phase image 610 and the preprocessed second phase image 620 shifted by 2 pixels to the right. However, in relation to generating the difference images 630 , the range is not limited to shifting the preprocessed second phase image 620 in the embodiment. In another embodiment, shifted first phase images are generated by shifting the preprocessed first phase image 610 with different movement displacements, and the preprocessed second phase image 620 and the shifted second phase images are respectively It is also possible to generate difference images representing the difference in pixel values between

라이브니스 검사 장치는 차영상들(630)을 생성한 이후에 차영상들(630)보다 해상도가 작은 저해상도 차영상들(640)을 생성한다. 일 실시예에서, 라이브니스 검사 장치는 제1 차영상(812), 제2 차영상(814), 제3 차영상(816), 제4 차영상(818) 및 제5 차영상(820) 각각에 맥스 풀링 기법을 적용하여 제1 저해상도 차영상(832), 제2 저해상도 차영상(834), 제3 저해상도 차영상(836), 제4 저해상도 차영상(838) 및 제5 저해상도 차영상(840)을 생성할 수 있다. 라이브니스 검사 장치는 저해상도 차영상들(640) 간에 서로 대응하는 영역에서 픽셀 값의 차이 값들 중 가장 작은 차이 값에 기초하여 최소 맵 영상(650)을 생성할 수 있다. 최소 맵 영상(650)은 가장 작은 차이 값을 픽셀 값으로 가지거나 또는 가장 작은 차이 값을 포함하는 저해상도 차영상의 이동 변위의 인덱스를 픽셀 값으로 가질 수 있다.After generating the difference images 630 , the liveness inspection apparatus generates low-resolution difference images 640 having a smaller resolution than the difference images 630 . In an embodiment, the liveness testing apparatus includes a first difference image 812 , a second difference image 814 , a third difference image 816 , a fourth difference image 818 , and a fifth difference image 820 , respectively. By applying the max pooling technique, the first low-resolution difference image 832, the second low-resolution difference image 834, the third low-resolution difference image 836, the fourth low-resolution difference image 838, and the fifth low-resolution difference image 840 ) can be created. The liveness inspection apparatus may generate the minimum map image 650 based on the smallest difference value among the pixel values in a region corresponding to each other between the low-resolution difference images 640 . The minimum map image 650 may have the smallest difference value as a pixel value or an index of movement displacement of the low-resolution difference image including the smallest difference value as a pixel value.

도 9는 일 실시예에 따른 최소 맵 영상의 생성 과정을 보다 구체적으로 설명하기 위한 도면이다.9 is a diagram for describing in more detail a process of generating a minimum map image according to an exemplary embodiment.

도 9를 참조하면, 단계(910)에서 라이브니스 검사 장치는 위상 영상의 쉬프트를 수행한다. 라이브니스 검사 장치는 제1 위상 영상을 고정한 상태에서 제XN 위상 영상을 쉬프트할 수 있다. 도 9에서 각 위상 영상의 각 픽셀 내 숫자는 픽셀 값을 나타낸다. '제 XN 위상 영상'에서 'X'는 수평 방향으로 위상 특성이 구분되는 것을 나타내고, 'N'은 위상의 개수를 나타낸다. 예를 들어, 2PD 센서에 의해 생성된 제1 위상 영상 및 제2 위상 영상이 이용되는 경우, 제2 위상 영상은 제X2 위상 영상으로 표시될 수 있다. 이하에서는, 제XN 위상 영상이 제2 위상 영상에 해당하는 경우의 실시예를 설명한다. 라이브니스 검사 장치는 제1 위상 영상에 기본 영역을 설정하고, 제2 위상 영상에 하나 이상의 쉬프트 영역을 설정할 수 있다. 예를 들어, 라이브니스 검사 장치는 제2 위상 영상에 x-1, x0 및 x+1의 쉬프트 영역들을 설정할 수 있다. 여기서, x0는 쉬프트가 수행되지 않은 기본 영역을 나타낸다.Referring to FIG. 9 , in operation 910 , the liveness checking apparatus performs a shift of the phase image. The liveness inspection apparatus may shift the XNth phase image while the first phase image is fixed. In FIG. 9 , a number in each pixel of each phase image indicates a pixel value. In the 'XNth phase image', 'X' indicates that phase characteristics are divided in the horizontal direction, and 'N' indicates the number of phases. For example, when the first phase image and the second phase image generated by the 2PD sensor are used, the second phase image may be displayed as an X2 th phase image. Hereinafter, an embodiment in which the XNth phase image corresponds to the second phase image will be described. The liveness testing apparatus may set a basic area in the first phase image and set one or more shift areas in the second phase image. For example, the liveness checking apparatus may set shift regions of x-1, x0, and x+1 in the second phase image. Here, x0 represents a basic area in which no shift is performed.

제1 위상 영상의 기본 영역은 제1 기본 영역으로 지칭될 수 있고, 제2 위상 영상의 기본 영역은 제2 기본 영역으로 지칭될 수 있으며, 제1 기본 영역과 제2 기본 영역은 위치적으로 서로 대응할 수 있다. x-1 및 x+1에서 - 및 +는 각각 쉬프트 방향을 나타내고, 1은 참조 쉬프트 값을 나타낸다. 기본 영역은 참조 쉬프트 값에 기초하여 설정될 수 있다. 참조 쉬프트 값이 r인 경우, 기본 영역을 특정 방향으로 r만큼 쉬프트한 쉬프트 영역이 설정된다.The basic region of the first phase image may be referred to as a first basic region, the basic region of the second phase image may be referred to as a second basic region, and the first basic region and the second basic region may be positioned with each other in position. can respond In x-1 and x+1, - and + indicate a shift direction, respectively, and 1 indicates a reference shift value. The basic area may be set based on a reference shift value. When the reference shift value is r, a shift region in which the basic region is shifted by r in a specific direction is set.

라이브니스 검사 장치는 제2 기준 영역(즉, x0의 쉬프트 영역)을 쉬프트 방향에 따라 참조 쉬프트 값(즉, 1)만큼 쉬프트하여 하나 이상의 쉬프트 영역(즉, x-1의 쉬프트 영역, 및 x+1의 쉬프트 영역)을 설정할 수 있다. 참조 쉬프트 값은 다양한 값으로 설정될 수 있고, 참조 쉬프트 값에 대응하는 개수의 쉬프트 영역이 설정될 수 있다. 참조 쉬프트 값 및 쉬프트 방향의 개수에 기초하여 쉬프트 영역의 개수가 결정될 수 있다.The liveness checking apparatus shifts the second reference region (ie, the shift region of x0) by the reference shift value (ie, 1) along the shift direction to one or more shift regions (ie, the shift region of x-1, and x+ 1) can be set. The reference shift value may be set to various values, and the number of shift regions corresponding to the reference shift value may be set. The number of shift regions may be determined based on the reference shift value and the number of shift directions.

일례로, 참조 쉬프트 값이 1이고, 쉬프트 방향의 개수가 2개(좌측, 우측)인 경우, 쉬프트 영역은 2ⅹ1+1=3개가 존재할 수 있다. 3개의 쉬프트 영역들은 x-1, x0 및 x+1의 쉬프트 영역들을 포함할 수 있다. 다른 예로, 참조 쉬프트 값이 5이고, 쉬프트 방향의 개수가 2개(좌측, 우측)인 경우, 쉬프트 영역은 2ⅹ5+1=11개가 존재할 수 있다. 11개의 쉬프트 영역들은 x-5 내지 x-1, x0, 및 x+1 내지 x+5의 쉬프트 영역들을 포함할 수 있다. 또 다른 예로, 참조 쉬프트 값이 1이고, 쉬프트 방향의 개수가 4개(좌측, 우측, 상측, 하측)인 경우, 쉬프트 영역은 2ⅹ1+2ⅹ1+1=5개 존재할 수 있다. 5개의 쉬프트 영역들은 x-1, y-1, xy0, x+1 및 y+1의 쉬프트 영역들을 포함할 수 있다.For example, when the reference shift value is 1 and the number of shift directions is 2 (left and right), 2×1+1=3 shift regions may exist. The three shift regions may include shift regions of x-1, x0, and x+1. As another example, when the reference shift value is 5 and the number of shift directions is 2 (left and right), 2×5+1=11 shift regions may exist. The 11 shift regions may include shift regions of x-5 to x-1, x0, and x+1 to x+5. As another example, when the reference shift value is 1 and the number of shift directions is four (left, right, upper, lower), 2×1+2×1+1=5 shift regions may exist. The five shift regions may include shift regions of x-1, y-1, xy0, x+1, and y+1.

QPD 센서와 같은 멀티 위상 검출 센서가 이용되는 경우, 수평 방향 이외의 다른 방향들로 위상 특성이 구분될 수 있다. 라이브니스 검사 장치는 도 10a와 같이 QPD 센서의 수평 방향 및 수직 방향의 위상 영상들에 관한 쉬프트를 수행하여 각 위상 영상에 관한 쉬프트 영역들을 결정할 수 있다. 제XN 위상 영상의 경우 도 9의 위상 영상 쉬프트(910)와 같이 수평 방향의 쉬프트를 통해 쉬프트 영역들(x-1, x0 및 x+1)이 결정될 수 있다. 제YN 위상 영상의 경우 수직 방향의 쉬프트를 통해 쉬프트 영역들(y-1, y0 및 y+1)이 결정될 수 있다.When a multi-phase detection sensor such as a QPD sensor is used, phase characteristics may be distinguished in directions other than the horizontal direction. The liveness test apparatus may determine shift regions for each phase image by performing shifting on the phase images in the horizontal and vertical directions of the QPD sensor as shown in FIG. 10A . In the case of the XNth phase image, shift regions x-1, x0, and x+1 may be determined through a horizontal shift like the phase image shift 910 of FIG. 9 . In the case of the YN-th phase image, shift regions y-1, y0, and y+1 may be determined through vertical shift.

XN 및 YN에서 'X'는 수평 방향으로 위상 특성이 구분되는 것을 나타내고, 'Y'는 수직 방향으로 위상 특성이 구분되는 것을 나타낸다. 'N'은 위상의 개수를 나타낸다. 여기서 수직 방향 및 수평 방향에서 동일한 개수의 위상들이 이용되는 것이 설명되지만, 수직 방향 및 수평 방향에서 서로 다른 개수의 위상들이 이용되는 것도 가능하다. 'N'은 센서가 구분할 수 있는 위상의 개수에 기초하여 결정될 수 있다. QPD 센서의 경우 N=2일 수 있고, 도 10a의 실시예에서 제1 위상 영상, 제X2 위상 영상, 제Y2 위상 영상이 존재할 수 있다.In XN and YN, 'X' indicates that phase characteristics are divided in a horizontal direction, and 'Y' indicates that phase characteristics are divided in a vertical direction. 'N' represents the number of phases. Although it is described herein that the same number of phases are used in the vertical and horizontal directions, it is also possible that different numbers of phases are used in the vertical and horizontal directions. 'N' may be determined based on the number of phases that the sensor can distinguish. In the case of the QPD sensor, N=2, and in the embodiment of FIG. 10A , a first phase image, an X2th phase image, and a Y2th phase image may exist.

다른 실시예에 따르면, 라이브니스 검사 장치는 도 10b와 같이 QPD 센서의 수평 방향, 수직 방향, 및 대각 방향의 위상 영상들에 관한 위상 영상 쉬프트를 수행하여 각 위상 영상에 관한 쉬프트 영역들을 결정할 수 있다. 제XN 위상 영상의 경우 수평 방향의 쉬프트를 통해 쉬프트 영역들(x-1, x0 및 x+1)이 결정될 수 있고, 제YN 위상 영상의 경우 수직 방향의 쉬프트를 통해 쉬프트 영역들(y-1, y0 및 y+1)이 결정될 수 있다. 제ZN 위상 영상의 경우 대각 방향의 쉬프트를 통해 쉬프트 영역들(z-1, z0 및 z+1)이 결정될 수 있다. 'ZN'에서 'Z'는 대각 방향으로 위상 특성이 구분되는 것을 나타내고, 'N'은 위상의 개수를 나타낸다. N=2인 경우, 도 10b의 실시예에서 제1 위상 영상, 제X2 위상 영상, 제Y2 위상 영상, 제Z2 위상 영상이 이용될 수 있다.According to another embodiment, the liveness testing apparatus may determine shift regions for each phase image by performing a phase image shift on the phase images in the horizontal direction, the vertical direction, and the diagonal direction of the QPD sensor as shown in FIG. 10B . . In the case of an XN-th phase image, shift regions (x-1, x0, and x+1) may be determined through a shift in the horizontal direction, and in the case of a YN-th phase image, shift regions y-1 through a shift in the vertical direction. , y0 and y+1) can be determined. In the case of the ZN-th phase image, shift regions z-1, z0, and z+1 may be determined through diagonal shift. In 'ZN', 'Z' indicates that phase characteristics are divided in a diagonal direction, and 'N' indicates the number of phases. When N=2, the first phase image, the X2th phase image, the Y2th phase image, and the Z2th phase image may be used in the embodiment of FIG. 10B .

이와 같이 쉬프트 영역들이 결정되면, 단계(920)에서 라이브니스 검사 장치는 기본 영역의 영상과 각 쉬프트 영역의 영상 간의 차이들을 계산한다. 라이브니스 검사 장치는 고정된 영상(예: 제1 기본 영역의 영상)과 쉬프트된 영상(예: 쉬프트 영역의 영상) 간의 차이에 기초하여 차영상들을 생성하고, 차영상들에 기초하여 최소 맵 영상을 생성할 수 있다. 라이브니스 검사 장치는 제1 기본 영역의 영상과 x-1의 쉬프트 영역의 영상 간의 차이에 기초하여 제1 차영상을 생성하고, 제1 기본 영역의 영상과 x0의 쉬프트 영역의 영상 간의 차이에 기초하여 제2 차영상을 생성하고, 제1 기본 영역의 영상과 x+1의 쉬프트 영역의 영상 간의 차이에 기초하여 제3 차영상을 생성할 수 있다. 라이브니스 검사 장치는 각각의 차영상에 인덱스 값을 부여할 수 있다. 예를 들어, 라이브니스 검사 장치는 x-1, x0, x+1의 순서로 인덱스 값을 부여할 수 있다. 도 9에는 제1 차영상에 0의 인덱스 값이 부여되고, 제2 차영상에 1의 인덱스 값이 부여되고, 제3 차영상에 2의 인덱스 값이 부여되는 것으로 가정한다. 다만, 실시예의 범위가 이에 한정되는 것은 아니며, 다른 다양한 순서로 인덱스가 부여되는 것도 가능하다.When the shift regions are determined in this way, in operation 920 , the liveness checking apparatus calculates differences between the image of the basic region and the image of each shift region. The liveness inspection apparatus generates difference images based on a difference between a fixed image (eg, an image of the first basic region) and a shifted image (eg, an image of a shift region), and a minimum map image based on the difference images can create The liveness checking apparatus generates a first difference image based on a difference between the image of the first basic region and the image of the shift region of x-1, and based on the difference between the image of the first basic region and the image of the shift region of x0 Thus, a second difference image may be generated, and a third difference image may be generated based on a difference between the image of the first basic region and the image of the x+1 shift region. The liveness test apparatus may assign an index value to each difference image. For example, the liveness checking apparatus may assign index values in the order of x-1, x0, and x+1. In FIG. 9 , it is assumed that an index value of 0 is assigned to the primary image, an index value of 1 is assigned to the secondary image, and an index value of 2 is assigned to the tertiary image. However, the scope of the embodiment is not limited thereto, and indexes may be assigned in other various orders.

라이브니스 검사 장치는 일부 픽셀들만을 선택하는 풀링(pooling) 기법을 이용하여 제1 차영상, 제2 차영상 및 제3 차영상 각각으로부터 제1 저해상도 차영상, 제2 저해상도 차영상 및 제3 저해상도 차영상을 생성할 수 있다. The liveness test apparatus uses a pooling technique that selects only some pixels from the first low-resolution difference image, the second low-resolution difference image, and the third low-resolution image from each of the first, second, and tertiary images. You can create a difference image.

단계(930)에서, 라이브니스 검사 장치는 최소 맵 영상을 생성한다. 라이브니스 검사 장치는 저해상도 차영상들에서 서로 대응하는 영역의 대응 차이 값들 중에 최소 차이 값을 식별하고, 최소 차이 값에 기초하여 최소 맵 영상의 픽셀 값을 결정할 수 있다. 일례로, 도 9의 실시예에서 (1, 1)에 위치하는 대응 차이 값들은 1, 0 및 6이다. 이 중에 0이 최소 차이 값으로 선택될 수 있다. 다른 예로, (2, 2)에 위치하는 대응 차이 값들은 25, 33, 30이다. 이 중에 25가 최소 차이 값으로 선택될 수 있다. 이와 같이 저해상도 차영상들 간의 대응 차이 값들 중에 최소 차이 값이 선택되고, 최소 차이 값에 기초하여 최소 맵 영상의 픽셀 값이 결정될 수 있다.In operation 930, the liveness testing apparatus generates a minimum map image. The liveness checking apparatus may identify a minimum difference value among corresponding difference values of regions corresponding to each other in the low-resolution difference images, and determine a pixel value of the minimum map image based on the minimum difference value. For example, in the embodiment of FIG. 9 , corresponding difference values located at (1, 1) are 1, 0, and 6. Among them, 0 may be selected as the minimum difference value. As another example, the corresponding difference values located at (2, 2) are 25, 33, 30. Among them, 25 may be selected as the minimum difference value. As such, a minimum difference value may be selected among corresponding difference values between the low-resolution difference images, and a pixel value of the minimum map image may be determined based on the minimum difference value.

최소 맵 영상의 픽셀 값은 최소 차이 값에 해당하거나, 또는 저해상도 차영상들 중에 최소 차이 값을 포함하는 저해상도 차영상의 인덱스에 해당할 수 있다. 최소 차이 값을 포함하는 최소 맵 영상은 최소 차이 값 맵 영상(934)으로 지칭될 수 있고, 최소 차이 값을 포함하는 저해상도 차영상의 인덱스를 포함하는 최소 맵 영상은 최소 인덱스 맵 영상(932)으로 지칭될 수 있다. 앞선 예시에서, (1, 1)의 위치에서 0이 최소 차이 값으로 선택되었고, 0을 포함하는 저해상도 차영상의 인덱스는 1이다. 따라서, 최소 차이 값 맵 영상(934)에서 (1, 1)의 픽셀 값은 0이고, 최소 인덱스 맵 영상(932)에서 (1, 1)의 픽셀 값은 1이다. 또한, (2, 2)의 위치에서 25가 최소 차이 값으로 선택되었고, 25를 포함하는 저해상도 차영상의 인덱스는 0이다. 따라서, 최소 차이 값 맵 영상(934)에서 (2, 2)의 픽셀 값은 25이고, 최소 인덱스 맵 영상(932)에서 (2, 2)의 픽셀 값은 0이다.The pixel value of the minimum map image may correspond to a minimum difference value or may correspond to an index of a low-resolution difference image including a minimum difference value among low-resolution difference images. The minimum map image including the minimum difference value may be referred to as a minimum difference value map image 934 , and the minimum map image including the index of the low-resolution difference image including the minimum difference value is the minimum index map image 932 . may be referred to. In the previous example, 0 is selected as the minimum difference value at the position of (1, 1), and the index of the low-resolution difference image including 0 is 1. Accordingly, the pixel value of (1, 1) in the minimum difference value map image 934 is 0, and the pixel value of (1, 1) in the minimum index map image 932 is 1. In addition, at the position of (2, 2), 25 was selected as the minimum difference value, and the index of the low-resolution difference image including 25 is 0. Accordingly, the pixel value of (2, 2) in the minimum difference value map image 934 is 25, and the pixel value of (2, 2) in the minimum index map image 932 is 0.

각 위상 영상에 관해 차영상들의 세트가 생성될 수 있다. 도 10a 및 도 10b의 실시예들과 같이 복수의 방향들에 관한 위상 영상들이 존재하는 경우, 각 위상 영상의 차영상들의 세트에 기초하여 각 위상 영상에 관한 최소 맵 영상이 생성될 수 있다. 도 10a의 실시예에서는 제XN 위상 영상, 및 제YN 위상 영상 각각에 관한 최소 맵 영상이 생성될 수 있다. 도 10b의 실시예의 경우, 제XN 위상 영상, 제YN 위상 영상, 및 제ZN 위상 영상 각각에 관한 최소 맵 영상이 생성될 수 있다.A set of difference images may be generated for each phase image. As in the embodiments of FIGS. 10A and 10B , when phase images related to a plurality of directions exist, a minimum map image of each phase image may be generated based on a set of difference images of each phase image. In the embodiment of FIG. 10A , a minimum map image for each of the XNth phase image and the YNth phase image may be generated. 10B , a minimum map image for each of the XNth phase image, the YNth phase image, and the ZNth phase image may be generated.

도 11a 및 도 11b는 일 실시예에 따른 최소 맵 영상의 픽셀 값을 결정하는 과정을 설명하기 위한 도면들이다.11A and 11B are diagrams for explaining a process of determining a pixel value of a minimum map image according to an exemplary embodiment.

도 11a를 참조하면, 제1 저해상도 차영상(832)의 영역(1132), 제2 저해상도 차영상(834)의 영역(1134), 제3 저해상도 차영상(836)의 영역(1136), 제4 저해상도 차영상(838)의 영역(1138) 및 제5 저해상도 차영상(840)의 영역(1140)은 서로 대응되는 영역들이다. 라이브니스 검사 장치는 영역(1132), 영역(1134), 영역(1136), 영역(1138) 및 영역(1140)이 나타내는 차이 값들 중 차이 값이 가장 작은 것을 식별한다. 만약, 영역(1134)의 차이 값이 다른 영역들(1132, 1136, 1138, 1140)의 차이 값들보다 작다고 가정하면, 라이브니스 검사 장치는 영역(1134)의 차이 값을 최소 맵 영상(650)에서 영역(1134)에 대응하는 영역(1150)의 픽셀 값으로 결정할 수 있다. 또는, 라이브니스 검사 장치는 영역(1134)를 포함하는 제3 저해상도 차영상(836)에 대응하는 쉬프트 인덱스(예: -1)를 최소 맵 영상(650)의 영역(1150)의 픽셀 값으로 결정할 수도 있다.Referring to FIG. 11A , a region 1132 of a first low-resolution difference image 832 , a region 1134 of a second low-resolution difference image 834 , a region 1136 of a third low-resolution difference image 836 , and a fourth The region 1138 of the low-resolution difference image 838 and the region 1140 of the fifth low-resolution difference image 840 correspond to each other. The liveness testing apparatus identifies the smallest difference value among the difference values represented by the regions 1132 , 1134 , 1136 , 1138 , and 1140 . If it is assumed that the difference value of the region 1134 is smaller than the difference values of the other regions 1132 , 1136 , 1138 , and 1140 , the liveness test apparatus calculates the difference value of the region 1134 from the minimum map image 650 . It may be determined as a pixel value of the region 1150 corresponding to the region 1134 . Alternatively, the liveness checking apparatus determines a shift index (eg, -1) corresponding to the third low-resolution difference image 836 including the area 1134 as a pixel value of the area 1150 of the minimum map image 650 . may be

도 11b를 참조하면, 제1 저해상도 차영상(832)의 영역(1162), 제2 저해상도 차영상(834)의 영역(1164), 제3 저해상도 차영상(836)의 영역(1166), 제4 저해상도 차영상(838)의 영역(1168) 및 제5 저해상도 차영상(840)의 영역(1170)은 서로 대응되는 영역들이다. 라이브니스 검사 장치는 도 11a에서와 유사하게 영역(1162), 영역(1164), 영역(1166), 영역(1168) 및 영역(1170)이 나타내는 차이 값들 중 차이 값이 가장 작은 것을 식별한다. 만약, 영역(1168)의 차이 값이 다른 영역들(1162, 1164, 1166, 1170)의 차이 값들보다 작다고 가정하면, 라이브니스 검사 장치는 영역(1168)의 차이 값을 최소 맵 영상(650)에서 영역(1168)에 대응하는 영역(1180)의 픽셀 값으로 결정할 수 있다. 또는, 라이브니스 검사 장치는 영역(1168)를 포함하는 제4 저해상도 차영상(838)의 대응하는 쉬프트 인덱스(예: +1)를 최소 맵 영상(650)의 영역(1180)의 픽셀 값으로 결정할 수도 있다.Referring to FIG. 11B , an area 1162 of the first low-resolution difference image 832 , an area 1164 of the second low-resolution difference image 834 , an area 1166 of the third low-resolution difference image 836 , and a fourth The region 1168 of the low-resolution difference image 838 and the region 1170 of the fifth low-resolution difference image 840 correspond to each other. The liveness testing apparatus identifies the smallest difference value among the difference values indicated by the regions 1162 , 1164 , 1166 , 1168 , and 1170 similarly to FIG. 11A . If it is assumed that the difference value of the region 1168 is smaller than the difference values of the other regions 1162 , 1164 , 1166 and 1170 , the liveness test apparatus calculates the difference value of the region 1168 from the minimum map image 650 . It may be determined as a pixel value of the region 1180 corresponding to the region 1168 . Alternatively, the liveness checking apparatus determines a corresponding shift index (eg, +1) of the fourth low-resolution difference image 838 including the area 1168 as a pixel value of the area 1180 of the minimum map image 650 . may be

라이브니스 검사 장치는 저해상도 차영상들(640)의 모든 대응 영역들에 대해 위와 같은 과정을 수행하여 최소 맵 영상(650)을 결정할 수 있다. 최소 차이 값들로 최소 맵 영상(650)의 픽셀 값들을 구성하면 최소 차이 값 맵 영상(예: 도 9의 최소 차이 값 맵 영상(934))이 생성되고, 쉬프트 인덱스들로 최소 맵 영상(650)의 픽셀 값들을 구성하면 최소 인덱스 맵 영상(예: 도 9의 최소 인덱스 맵 영상(932))이 생성된다. 최소 맵 영상(650)이 결정된 이후에, 최소 맵 영상(650)과 최소 맵 영상(650)의 해상도와 동일한 해상도로 조절된 위상 영상들이 라이브니스 검사 모델에 입력될 수 있다.The liveness inspection apparatus may determine the minimum map image 650 by performing the above process for all corresponding regions of the low-resolution difference images 640 . When pixel values of the minimum map image 650 are configured using the minimum difference values, a minimum difference value map image (eg, the minimum difference value map image 934 of FIG. 9 ) is generated, and the minimum map image 650 is generated using the shift indices. By configuring the pixel values of , a minimum index map image (eg, the minimum index map image 932 of FIG. 9 ) is generated. After the minimum map image 650 is determined, the minimum map image 650 and the phase images adjusted to the same resolution as the resolution of the minimum map image 650 may be input to the liveness test model.

도 12는 일 실시예에 따른 라이브니스 검사 장치의 구성을 도시한 도면이다.12 is a diagram illustrating a configuration of a liveness testing apparatus according to an exemplary embodiment.

도 12를 참조하면, 라이브니스 검사 장치(1200)는 프로세서(1210) 및 메모리(1220)를 포함한다. 메모리(1220)는 프로세서(1210)에 연결되고, 프로세서(1210)에 의해 실행가능한 명령어들, 프로세서(1210)가 연산할 데이터 또는 프로세서(1210)에 의해 처리된 데이터를 저장할 수 있다. 메모리(1220)는 고속 랜덤 액세스 메모리 및/또는 비휘발성 컴퓨터 판독가능 저장 매체(예: 플래쉬 메모리)를 포함할 수 있다.Referring to FIG. 12 , the liveness test apparatus 1200 includes a processor 1210 and a memory 1220 . The memory 1220 is connected to the processor 1210 and may store instructions executable by the processor 1210 , data to be operated by the processor 1210 , or data processed by the processor 1210 . Memory 1220 may include high-speed random access memory and/or non-volatile computer-readable storage media (eg, flash memory).

프로세서(1210)는 도 1 내지 도 11b를 참조하여 설명된 하나 이상의 동작을 실행하기 위한 명령어들을 실행할 수 있다. 프로세서(1210)는 멀티 위상 검출 센서(1240)에 의해 획득된 서로 다른 위상의 위상 영상들을 수신하고, 위상 영상들에 엣지 강화 처리를 포함하는 전처리를 수행하여 전처리된 위상 영상들을 생성할 수 있다. 프로세서(1210)는 위상 영상들에서 노이즈를 제거하고, 위상 영상들 각각에 나타난 객체의 엣지 영역을 강화하는 처리를 수행할 수 있다. 프로세서(1210) 전처리된 위상 영상들에 기초하여 차영상들을 생성하고, 차영상들보다 낮은 해상도를 가지는 저해상도 차영상들을 생성할 수 있다. 프로세서(1210)는 차영상에서 각 패치 영역별로 가장 큰 픽셀 값을 추출하고, 추출된 가장 큰 픽셀 값에 기초하여 저해상도 차영상을 생성할 수 있다. 다른 예로, 프로세서(1210)는 차영상에서 각 패치 영역별로 픽셀 영역 내 픽셀 값들에 대한 평균 값을 결정하고, 각 패치 영역에 대응하는 평균 값에 기초하여 저해상도 차영상을 생성할 수 있다.The processor 1210 may execute instructions for executing one or more operations described with reference to FIGS. 1 to 11B . The processor 1210 may receive phase images of different phases obtained by the multi-phase detection sensor 1240 , and perform preprocessing including edge enhancement processing on the phase images to generate preprocessed phase images. The processor 1210 may perform a process of removing noise from the phase images and reinforcing an edge region of an object displayed in each of the phase images. The processor 1210 may generate difference images based on the pre-processed phase images, and may generate low-resolution difference images having a lower resolution than the difference images. The processor 1210 may extract the largest pixel value for each patch region from the difference image, and generate a low-resolution difference image based on the extracted largest pixel value. As another example, the processor 1210 may determine an average value of pixel values in a pixel region for each patch region in the difference image, and generate a low-resolution difference image based on the average value corresponding to each patch region.

프로세서(1210)는 저해상도 차영상들에 기초하여 최소 맵 영상을 생성한다. 프로세서(1210)는 저해상도 차영상들 간에 서로 대응하는 영역의 차이 값들 중 최소 차이 값을 식별하고, 식별된 최소 차이 값에 기초하여 최소 맵 영상의 픽셀 값을 결정할 수 있다. 최소 맵 영상의 픽셀 값은 선택된 최소 차이 값에 해당하거나, 또는 차영상들 중에서 최소 차이 값을 포함하는 저해상도 차영상에 대응하는 이동 변위의 인덱스에 해당할 수 있다. 프로세서(1210)는 최소 맵 영상에 기초하여 위상 영상들에 나타난 객체에 대해 라이브니스 검사를 수행할 수 있다. 프로세서(1210)는 최소 맵 영상 및 위상 영상들을 뉴럴 네트워크 기반의 라이브니스 검사 모델(예: 도 6의 라이브니스 검사 모델(670))에 적용하여 라이브니스 검사 결과를 획득할 수 있다. 라이브니스 검사 모델에 적용되는 위상 영상들의 해상도는 최소 맵 영상의 해상도에 상응하도록 조정된 것일 수 있다. 라이브니스 검사 모델은 검사 결과로서 라이브니스 스코어를 출력할 수 있고, 프로세서(1210)는 라이브니스 스코어와 임계 값 간의 비교 결과에 기초하여 객체가 진짜 객체인지 아니면 가짜 객체인지 여부를 결정할 수 있다.The processor 1210 generates a minimum map image based on the low-resolution difference images. The processor 1210 may identify a minimum difference value among difference values of regions corresponding to each other between the low-resolution difference images, and determine a pixel value of the minimum map image based on the identified minimum difference value. The pixel value of the minimum map image may correspond to a selected minimum difference value or may correspond to an index of a movement displacement corresponding to a low-resolution difference image including a minimum difference value among the difference images. The processor 1210 may perform a liveness check on the object displayed in the phase images based on the minimum map image. The processor 1210 may obtain a liveness test result by applying the minimum map image and the phase images to a neural network-based liveness test model (eg, the liveness test model 670 of FIG. 6 ). The resolution of the phase images applied to the liveness test model may be adjusted to correspond to the resolution of the minimum map image. The liveness test model may output a liveness score as a test result, and the processor 1210 may determine whether the object is a real object or a fake object based on a result of comparison between the liveness score and the threshold value.

도 13은 일 실시예에 따른 전자 장치의 구성을 도시하는 도면이다.13 is a diagram illustrating a configuration of an electronic device according to an exemplary embodiment.

도 13을 참조하면, 전자 장치(1300)(예: 도 1의 전자 장치(120))는 객체를 촬영한 입력 영상(예: 위상 영상)을 생성하고, 입력 영상에 나타난 객체의 라이브니스 여부를 검사할 수 있다. 또한, 전자 장치(1300)는 객체의 라이브니스 검사 결과에 기초하여 생체 인증(예: 얼굴 인증 및 홍채 인증)을 수행할 수 있다. 전자 장치(1300)는 도 12의 라이브니스 검사 장치(1200)의 기능을 수행할 수 있다.Referring to FIG. 13 , the electronic device 1300 (eg, the electronic device 120 of FIG. 1 ) generates an input image (eg, a phase image) obtained by photographing an object, and determines whether the object displayed in the input image is live. can be inspected Also, the electronic device 1300 may perform biometric authentication (eg, face authentication and iris authentication) based on the liveness test result of the object. The electronic device 1300 may perform a function of the liveness test apparatus 1200 of FIG. 12 .

전자 장치(1300)는 프로세서(1310), 메모리(1320), 영상 센서(1330), 저장 장치(1350), 입력 장치(1360), 출력 장치(1370) 및 통신 장치(1380)를 포함할 수 있다. 프로세서(1310), 메모리(1320), 영상 센서(1330), 저장 장치(1350), 입력 장치(1360), 출력 장치(1370) 및 통신 장치(1380)는 통신 버스(1390)를 통해 서로 통신할 수 있다.The electronic device 1300 may include a processor 1310 , a memory 1320 , an image sensor 1330 , a storage device 1350 , an input device 1360 , an output device 1370 , and a communication device 1380 . . The processor 1310 , the memory 1320 , the image sensor 1330 , the storage device 1350 , the input device 1360 , the output device 1370 , and the communication device 1380 communicate with each other through the communication bus 1390 . can

프로세서(1310)는 전자 장치(1300) 내에서 실행하기 위한 기능 및 명령어들을 실행한다. 프로세서(1310)는 메모리(1320) 또는 저장 장치(1350)에 저장된 명령어들을 처리할 수 있다. 프로세서(1310)는 도 1 내지 도 12를 통하여 설명된 하나 이상의 동작을 수행할 수 있다. 프로세서(1310)는 영상 센서(1330)를 통해 획득된 서로 다른 위상의 위상 영상들에 엣지 강화 처리를 포함하는 전처리를 수행하여 전처리된 위상 영상들을 생성하고, 전처리된 위상 영상들에 기초하여 차영상들을 생성할 수 있다. 프로세서(1310)는 차영상들보다 낮은 해상도를 가지는 저해상도 차영상들을 생성하고, 저해상도 차영상들에 기초하여 최소 맵 영상을 생성할 수 있다. 프로세서(1310)는 최소 맵 영상에 기초하여 위상 영상들에 나타난 객체에 대해 라이브니스 검사를 수행한다. 프로세서(1310)는 최소 맵 영상 및 위상 영상들을 뉴럴 네트워크 기반의 라이브니스 검사 모델(예: 도 6의 라이브니스 검사 모델(670))에 적용하여 라이브니스 스코어를 획득하고, 라이브니스 스코어와 임계 값 간의 비교 결과에 기초하여 라이브니스 검사 결과를 결정할 수 있다.The processor 1310 executes functions and instructions for execution in the electronic device 1300 . The processor 1310 may process instructions stored in the memory 1320 or the storage device 1350 . The processor 1310 may perform one or more operations described with reference to FIGS. 1 to 12 . The processor 1310 generates preprocessed phase images by performing preprocessing including edge enhancement processing on phase images of different phases obtained through the image sensor 1330 , and a difference image based on the preprocessed phase images can create The processor 1310 may generate low-resolution difference images having a lower resolution than the difference images, and generate a minimum map image based on the low-resolution difference images. The processor 1310 performs a liveness check on the object shown in the phase images based on the minimum map image. The processor 1310 obtains a liveness score by applying the minimum map image and the phase images to a neural network-based liveness test model (eg, the liveness test model 670 of FIG. 6 ), and obtains a liveness score and a threshold value. A liveness test result may be determined based on a comparison result between livers.

메모리(1320)는 라이브니스 검사를 수행하기 위한 데이터를 저장한다. 메모리(1320)는 프로세서(1310)에 의해 실행하기 위한 명령어들과 라이브니스 검사 및/또는 생체 인증을 수행하기 위한 정보를 저장할 수 있다.The memory 1320 stores data for performing a liveness test. The memory 1320 may store instructions for execution by the processor 1310 and information for performing a liveness check and/or biometric authentication.

영상 센서(1330)는 객체를 촬영하여 영상을 생성할 수 있다. 영상 센서(1330)는 서로 다른 위상의 위상 영상들을 획득하는 멀티 위상 검출 센서(예: 2PD 센서 또는 QPD 센서 등)를 포함할 수 있다. The image sensor 1330 may generate an image by photographing an object. The image sensor 1330 may include a multi-phase detection sensor (eg, a 2PD sensor or a QPD sensor) that acquires phase images of different phases.

저장 장치(1350)는 컴퓨터 판독가능한 저장 매체를 포함한다. 저장 장치(1350)는 메모리(1320)보다 더 많은 양의 정보를 저장하고, 정보를 장기간 저장할 수 있다. 저장 장치(1350)는 자기 하드 디스크, 광 디스크, 플래쉬 메모리 또는 플로피 디스크를 포함할 수 있다.The storage device 1350 includes a computer-readable storage medium. The storage device 1350 may store a larger amount of information than the memory 1320 and may store the information for a long period of time. The storage device 1350 may include a magnetic hard disk, an optical disk, a flash memory, or a floppy disk.

입력 장치(1360)는 촉각, 비디오, 오디오 또는 터치 입력을 통해 사용자로부터 입력을 수신할 수 있다. 입력 장치(1360)는 키보드, 마우스, 터치 스크린, 마이크로폰, 또는 사용자로부터 입력을 검출하고, 검출된 입력을 전자 장치(1300)에 전달할 수 있는 임의의 다른 장치를 포함할 수 있다.The input device 1360 may receive an input from the user through tactile, video, audio, or touch input. The input device 1360 may include a keyboard, mouse, touch screen, microphone, or any other device capable of detecting input from a user and passing the detected input to the electronic device 1300 .

출력 장치(1370)는 시각적, 청각적 또는 촉각적인 채널을 통해 사용자에게 전자 장치(1300)의 출력을 제공할 수 있다. 출력 장치(1370)는 디스플레이, 터치 스크린, 스피커, 진동 발생 장치 또는 사용자에게 출력을 제공할 수 있는 임의의 다른 장치를 포함할 수 있다. 통신 장치(1380)는 유선 또는 무선 네트워크를 통해 외부 장치와 통신할 수 있다.The output device 1370 may provide an output of the electronic device 1300 to the user through a visual, auditory, or tactile channel. Output device 1370 may include a display, touch screen, speaker, vibration generating device, or any other device capable of providing output to a user. The communication device 1380 may communicate with an external device through a wired or wireless network.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 실시예들에서 설명된 장치, 방법 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 해당 운영 체제 상에서 수행되는 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented by a hardware component, a software component, and/or a combination of a hardware component and a software component. The apparatus, method and components described in the embodiments include a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), a programmable logic unit (PLU) ), a microprocessor, or any other device capable of executing and responding to instructions, may be implemented using a general purpose computer or special purpose computer. The processing device may execute an operating system (OS) and a software application executed on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include The processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or apparatus, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in a computer-readable recording medium.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있으며 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination, and the program instructions recorded on the medium are specially designed and configured for the embodiment, or are known and available to those skilled in the art of computer software. may be Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

위에서 설명한 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 또는 복수의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware devices described above may be configured to operate as one or a plurality of software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 이를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited drawings, those of ordinary skill in the art may apply various technical modifications and variations based thereon. The described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components or equivalents Appropriate results can be achieved even if substituted or substituted by

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (20)

라이브니스 검사 방법에 있어서,
서로 다른 위상의 위상 영상들을 수신하는 단계;
상기 위상 영상들에 엣지 강화 처리를 포함하는 전처리를 수행하여 전처리된 위상 영상들을 생성하는 단계;
상기 전처리된 위상 영상들에 기초하여 차영상들(differential images)을 생성하는 단계;
상기 차영상들보다 낮은 해상도를 가지는 저해상도 차영상들을 생성하는 단계;
상기 저해상도 차영상들에 기초하여 최소 맵 영상을 생성하는 단계; 및
상기 최소 맵 영상에 기초하여 상기 위상 영상들에 나타난 객체에 대해 라이브니스 검사를 수행하는 단계
를 포함하는 라이브니스 검사 방법.
In the liveness test method,
receiving phase images of different phases;
generating preprocessed phase images by performing preprocessing including edge enhancement processing on the phase images;
generating differential images based on the preprocessed phase images;
generating low-resolution difference images having a lower resolution than the difference images;
generating a minimum map image based on the low-resolution difference images; and
performing a liveness check on the object displayed in the phase images based on the minimum map image
A liveness test method comprising a.
제1항에 있어서,
상기 전처리를 수행하는 단계는,
상기 위상 영상들에서 노이즈를 제거하고, 상기 위상 영상들 각각에 나타난 객체의 엣지 영역을 강화하는 처리를 수행하는 단계
를 포함하는 라이브니스 검사 방법.
According to claim 1,
Performing the pre-processing step,
removing noise from the phase images and performing a process of strengthening an edge region of an object displayed in each of the phase images
A liveness test method comprising a.
제1항에 있어서,
상기 전처리를 수행하는 단계는,
소벨 필터(Sobel filter), 비등방성 필터(anisotropic filter), 라플라시안 필터 및 캐니 엣지 필터 중 적어도 하나의 필터를 상기 위상 영상들 각각에 적용하여 엣지 강화 처리를 수행하는 단계
를 포함하는 라이브니스 검사 방법.
According to claim 1,
Performing the pre-processing step,
performing edge enhancement processing by applying at least one of a Sobel filter, an anisotropic filter, a Laplacian filter, and a Canny edge filter to each of the phase images
A liveness test method comprising a.
제1항에 있어서,
상기 저해상도 차영상들을 생성하는 단계는,
차영상에서 각 패치 영역별로 가장 큰 픽셀 값을 추출하는 단계; 및
상기 추출된 가장 큰 픽셀 값에 기초하여 저해상도 차영상을 생성하는 단계
를 포함하는 라이브니스 검사 방법.
According to claim 1,
The step of generating the low-resolution difference images comprises:
extracting the largest pixel value for each patch region from the difference image; and
generating a low-resolution difference image based on the extracted largest pixel value
A liveness test method comprising a.
제1항에 있어서,
상기 저해상도 차영상들을 생성하는 단계는,
차영상에서 각 패치 영역별로 픽셀 영역 내 픽셀 값들에 대한 평균 값을 결정하는 단계; 및
각 패치 영역에 대응하는 상기 평균 값에 기초하여 저해상도 차영상을 생성하는 단계
를 포함하는 라이브니스 검사 방법.
According to claim 1,
The step of generating the low-resolution difference images comprises:
determining an average value of pixel values within a pixel area for each patch area in the difference image; and
generating a low-resolution difference image based on the average value corresponding to each patch region;
A liveness test method comprising a.
제1항에 있어서,
상기 전처리된 위상 영상들은,
전처리된 제1 위상 영상 및 전처리된 제2 위상 영상을 포함하고,
상기 차영상들을 생성하는 단계는,
상기 전처리된 제2 위상 영상을 서로 다른 이동 변위로 쉬프트(shift)하여 쉬프트된(shifted) 제2 위상 영상들을 생성하는 단계; 및
상기 쉬프트된 제2 위상 영상들 각각과 상기 전처리된 제1 위상 영상 간의 픽셀 값 차이를 나타내는 차영상들 및 상기 전처리된 제2 위상 영상과 상기 전처리된 제1 위상 영상 간의 픽셀 값 차이를 나타내는 차영상을 생성하는 단계
를 포함하는 라이브니스 검사 방법.
According to claim 1,
The pre-processed phase images are
comprising a preprocessed first phase image and a preprocessed second phase image,
The step of generating the difference images comprises:
generating shifted second phase images by shifting the preprocessed second phase image by different shift displacements; and
Difference images representing a pixel value difference between each of the shifted second phase images and the preprocessed first phase image, and a difference image representing a pixel value difference between the preprocessed second phase image and the preprocessed first phase image steps to create
A liveness test method comprising a.
제1항에 있어서,
상기 최소 맵 영상을 생성하는 단계는,
상기 저해상도 차영상들 간에 서로 대응하는 영역의 차이 값들 중 최소 차이 값을 식별하는 단계; 및
상기 최소 차이 값에 기초하여 상기 최소 맵 영상의 픽셀 값을 결정하는 단계
를 포함하는 라이브니스 검사 방법.
According to claim 1,
The step of generating the minimum map image comprises:
identifying a minimum difference value among difference values of regions corresponding to each other between the low-resolution difference images; and
determining a pixel value of the minimum map image based on the minimum difference value;
A liveness test method comprising a.
제7항에 있어서,
상기 최소 맵 영상의 상기 픽셀 값은,
상기 최소 차이 값에 해당하거나, 또는 상기 저해상도 차영상들 중에서 상기 최소 차이 값을 포함하는 저해상도 차영상에 대응하는 이동 변위의 인덱스에 해당하는,
라이브니스 검사 방법.
8. The method of claim 7,
The pixel value of the minimum map image is,
Corresponding to the index of movement displacement corresponding to the minimum difference value or corresponding to the low-resolution difference image including the minimum difference value among the low-resolution difference images,
How to check liveness.
제1항에 있어서,
상기 라이브니스 검사를 수행하는 단계는,
상기 최소 맵 영상 및 상기 위상 영상들을 뉴럴 네트워크 기반의 라이브니스 검사 모델에 적용하여 라이브니스 검사 결과를 획득하는 단계
를 포함하는 라이브니스 검사 방법.
According to claim 1,
The step of performing the liveness test comprises:
obtaining a liveness test result by applying the minimum map image and the phase images to a neural network-based liveness test model;
A liveness test method comprising a.
제9항에 있어서,
상기 라이브니스 검사 모델에 적용되는 상기 위상 영상들의 해상도는, 상기 최소 맵 영상의 해상도에 상응하도록 조정된 것인,
라이브니스 검사 방법.
10. The method of claim 9,
The resolution of the phase images applied to the liveness test model is adjusted to correspond to the resolution of the minimum map image,
How to check liveness.
제1항에 있어서,
상기 서로 다른 위상의 위상 영상들은 멀티 위상 검출 센서를 이용하여 획득된 것인,
라이브니스 검사 방법.
According to claim 1,
The phase images of the different phases are obtained using a multi-phase detection sensor,
How to check liveness.
제1항 내지 제11항 중 어느 한 항의 방법을 수행하기 위한 명령어를 포함하는 하나 이상의 컴퓨터 프로그램을 저장한 컴퓨터 판독 가능 기록 매체.
A computer-readable recording medium storing one or more computer programs including instructions for performing the method of any one of claims 1 to 11.
라이브니스 검사 장치에 있어서,
프로세서; 및
상기 프로세서에서 실행가능한 명령어들을 포함하는 메모리
를 포함하고,
상기 명령어들이 상기 프로세서에 의해 실행되면, 상기 프로세서는,
서로 다른 위상의 위상 영상들에 엣지 강화 처리를 포함하는 전처리를 수행하여 전처리된 위상 영상들을 생성하고,
상기 전처리된 위상 영상들에 기초하여 차영상들을 생성하고,
상기 차영상들보다 낮은 해상도를 가지는 저해상도 차영상들을 생성하고,
상기 저해상도 차영상들에 기초하여 최소 맵 영상을 생성하고,
상기 최소 맵 영상에 기초하여 상기 위상 영상들에 나타난 객체에 대해 라이브니스 검사를 수행하는,
라이브니스 검사 장치.
A liveness test apparatus comprising:
processor; and
memory containing instructions executable by the processor
including,
When the instructions are executed by the processor, the processor:
Performing preprocessing including edge enhancement processing on phase images of different phases to generate preprocessed phase images,
generating difference images based on the pre-processed phase images;
generating low-resolution difference images having a lower resolution than the difference images;
Generate a minimum map image based on the low-resolution difference images,
performing a liveness check on the object shown in the phase images based on the minimum map image,
Liveness check device.
제13항에 있어서,
상기 프로세서는,
상기 위상 영상들에서 노이즈를 제거하고, 상기 위상 영상들 각각에 나타난 객체의 엣지 영역을 강화하는 처리를 수행하는,
라이브니스 검사 장치.
14. The method of claim 13,
The processor is
removing noise from the phase images and performing a process of strengthening an edge region of an object appearing in each of the phase images,
Liveness check device.
제13항에 있어서,
상기 프로세서는,
차영상에서 각 패치 영역별로 가장 큰 픽셀 값을 추출하고, 상기 추출된 가장 큰 픽셀 값에 기초하여 저해상도 차영상을 생성하는,
라이브니스 검사 장치.
14. The method of claim 13,
The processor is
extracting the largest pixel value for each patch region from the difference image, and generating a low-resolution difference image based on the extracted largest pixel value,
Liveness check device.
제13항에 있어서,
상기 프로세서는,
차영상에서 각 패치 영역별로 픽셀 영역 내 픽셀 값들에 대한 평균 값을 결정하고, 각 패치 영역에 대응하는 상기 평균 값에 기초하여 저해상도 차영상을 생성하는,
라이브니스 검사 장치.
14. The method of claim 13,
The processor is
determining an average value of pixel values in a pixel region for each patch region in the difference image, and generating a low-resolution difference image based on the average value corresponding to each patch region,
Liveness check device.
제13항에 있어서,
상기 프로세서는,
상기 저해상도 차영상들 간에 서로 대응하는 영역의 차이 값들 중 최소 차이 값을 식별하고, 상기 최소 차이 값에 기초하여 상기 최소 맵 영상의 픽셀 값을 결정하는,
라이브니스 검사 장치.
14. The method of claim 13,
The processor is
identifying a minimum difference value among difference values of regions corresponding to each other between the low-resolution difference images, and determining a pixel value of the minimum map image based on the minimum difference value;
Liveness check device.
제13항에 있어서,
상기 프로세서는,
상기 최소 맵 영상 및 상기 위상 영상들을 뉴럴 네트워크 기반의 라이브니스 검사 모델에 적용하여 라이브니스 검사 결과를 획득하고,
상기 라이브니스 검사 모델에 적용되는 상기 위상 영상들의 해상도는, 상기 최소 맵 영상의 해상도에 상응하도록 조정된 것인,
라이브니스 검사 장치.
14. The method of claim 13,
The processor is
obtaining a liveness test result by applying the minimum map image and the phase images to a neural network-based liveness test model;
The resolution of the phase images applied to the liveness test model is adjusted to correspond to the resolution of the minimum map image,
Liveness check device.
객체의 라이브니스 검사를 수행하는 전자 장치에 있어서,
서로 다른 위상의 위상 영상들을 획득하는 멀티 위상 검출 센서; 및
상기 위상 영상들에 기초하여 라이브니스 검사를 수행하는 프로세서
를 포함하고,
상기 프로세서는,
서로 다른 위상의 위상 영상들에 엣지 강화 처리를 포함하는 전처리를 수행하여 전처리된 위상 영상들을 생성하고,
상기 전처리된 위상 영상들에 기초하여 차영상들을 생성하고,
상기 차영상들보다 낮은 해상도를 가지는 저해상도 차영상들을 생성하고,
상기 저해상도 차영상들에 기초하여 최소 맵 영상을 생성하고,
상기 최소 맵 영상에 기초하여 상기 위상 영상들에 나타난 객체에 대해 라이브니스 검사를 수행하는,
전자 장치.
An electronic device for performing a liveness check of an object, the electronic device comprising:
a multi-phase detection sensor that acquires phase images of different phases; and
A processor that performs a liveness check based on the phase images
including,
The processor is
Performing preprocessing including edge enhancement processing on phase images of different phases to generate preprocessed phase images,
generating difference images based on the pre-processed phase images;
generating low-resolution difference images having a lower resolution than the difference images,
Generate a minimum map image based on the low-resolution difference images,
performing a liveness check on the object shown in the phase images based on the minimum map image,
electronic device.
제19항에 있어서,
상기 프로세서는,
상기 위상 영상들에서 노이즈를 제거하고, 상기 위상 영상들 각각에 나타난 객체의 엣지 영역을 강화하는 처리를 수행하고,
차영상에서 각 패치 영역별로 가장 큰 픽셀 값을 추출하고, 상기 추출된 가장 큰 픽셀 값에 기초하여 저해상도 차영상을 생성하는,
전자 장치.
20. The method of claim 19,
The processor is
removing noise from the phase images and performing a process of strengthening an edge region of an object displayed in each of the phase images;
extracting the largest pixel value for each patch region from the difference image, and generating a low-resolution difference image based on the extracted largest pixel value,
electronic device.
KR1020200178770A 2020-07-27 2020-12-18 Method and apparatus for testing liveness using multi-phase detection sensor KR20220013882A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US17/313,437 US11694480B2 (en) 2020-07-27 2021-05-06 Method and apparatus with liveness detection
CN202110760548.6A CN113992812A (en) 2020-07-27 2021-07-06 Method and apparatus for activity detection
EP21187428.4A EP3958170B1 (en) 2020-07-27 2021-07-23 Method and apparatus with liveness detection
US18/197,883 US20230306791A1 (en) 2020-07-27 2023-05-16 Method and apparatus with liveness detection

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200093137 2020-07-27
KR1020200093137 2020-07-27

Publications (1)

Publication Number Publication Date
KR20220013882A true KR20220013882A (en) 2022-02-04

Family

ID=80268193

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200178770A KR20220013882A (en) 2020-07-27 2020-12-18 Method and apparatus for testing liveness using multi-phase detection sensor

Country Status (1)

Country Link
KR (1) KR20220013882A (en)

Similar Documents

Publication Publication Date Title
KR102455633B1 (en) Liveness test method and apparatus
KR102483642B1 (en) Method and apparatus for liveness test
US11030470B2 (en) Apparatus and method with liveness verification
US11023757B2 (en) Method and apparatus with liveness verification
CN110852160B (en) Image-based biometric identification system and computer-implemented method
KR102667740B1 (en) Device and method for matching image
KR20200032206A (en) Face recognition unlocking method and device, device, medium
KR102415509B1 (en) Face verifying method and apparatus
KR102352345B1 (en) Liveness test method and apparatus
KR102476016B1 (en) Apparatus and method for determining position of eyes
US11227149B2 (en) Method and apparatus with liveness detection and object recognition
KR20210069404A (en) Liveness test method and liveness test apparatus
KR20210062381A (en) Liveness test method and liveness test apparatus, biometrics authentication method and biometrics authentication apparatus
KR20170002892A (en) Method and apparatus for detecting fake fingerprint, method and apparatus for recognizing fingerprint
US20230306791A1 (en) Method and apparatus with liveness detection
CN106778613A (en) A kind of auth method and device based on the matching of face cut zone
US20210200992A1 (en) Techniques for robust anti-spoofing in biometrics using polarization cues for nir and visible wavelength band
US20230091865A1 (en) Face image verification method and apparatus, electronic device, and storage medium
CN113642639B (en) Living body detection method, living body detection device, living body detection equipment and storage medium
KR102558736B1 (en) Method and apparatus for recognizing finger print
JP2021136012A (en) Method and apparatus for detecting liveness based on phase difference
CN113033305A (en) Living body detection method, living body detection device, terminal equipment and storage medium
KR20200083188A (en) Method and apparatus for detecting liveness and object recognition method using same
KR20210128274A (en) Method and apparatus for testing liveness
KR20220013882A (en) Method and apparatus for testing liveness using multi-phase detection sensor