KR20220013882A - Method and apparatus for testing liveness using multi-phase detection sensor - Google Patents
Method and apparatus for testing liveness using multi-phase detection sensor Download PDFInfo
- Publication number
- KR20220013882A KR20220013882A KR1020200178770A KR20200178770A KR20220013882A KR 20220013882 A KR20220013882 A KR 20220013882A KR 1020200178770 A KR1020200178770 A KR 1020200178770A KR 20200178770 A KR20200178770 A KR 20200178770A KR 20220013882 A KR20220013882 A KR 20220013882A
- Authority
- KR
- South Korea
- Prior art keywords
- images
- difference
- phase
- image
- liveness
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 73
- 238000001514 detection method Methods 0.000 title claims abstract description 20
- 238000012360 testing method Methods 0.000 title claims description 94
- 238000012545 processing Methods 0.000 claims abstract description 41
- 238000007781 pre-processing Methods 0.000 claims abstract description 20
- 230000008569 process Effects 0.000 claims description 34
- 238000013528 artificial neural network Methods 0.000 claims description 18
- 238000006073 displacement reaction Methods 0.000 claims description 14
- 238000010998 test method Methods 0.000 claims description 11
- 238000005728 strengthening Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 2
- 238000007689 inspection Methods 0.000 abstract description 27
- 230000002787 reinforcement Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 18
- 238000005516 engineering process Methods 0.000 description 11
- 238000011176 pooling Methods 0.000 description 8
- 230000004044 response Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 210000004204 blood vessel Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000003014 reinforcing effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/55—Detecting local intrusion or implementing counter-measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
- G06T2207/20028—Bilateral filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Computer Security & Cryptography (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Vascular Medicine (AREA)
- Collating Specific Patterns (AREA)
Abstract
Description
아래의 개시는 멀티 위상 검출 센서를 이용한 라이브니스 검사 기술에 관한 것이다.The following disclosure relates to a liveness inspection technique using a multi-phase detection sensor.
생체 인증 기술은 지문, 홍채, 목소리, 얼굴, 혈관 등을 이용하여 사용자를 인증하는 기술이다. 인증에 사용되는 생체 특성들은 사람마다 다르고, 소지의 불편함이 없을 뿐 아니라, 도용이나 모조의 위험성이 적고, 일생 동안 잘 변하지 않는다는 장점이 있어 생체 인증 기술은 널리 사용된다. 생체 인증 기술 중 하나인 얼굴 인증 기술은 정지 영상이나 동영상에 나타난 얼굴에 기초하여 사용자가 정당한 사용자인지 여부를 결정하는 인증 기술이다. 얼굴 인증 기술은 인증 대상자를 비접촉식으로 확인 가능하다는 이점을 가지고 있다. 최근에는, 얼굴 인증 기술의 편리함 및 효율성 때문에 보안 시스템, 모바일 인증 및 멀티미디어 데이터 검색 등의 다양한 응용 분야에서 얼굴 인증 기술이 널리 활용되고 있다.Biometric authentication technology is a technology that authenticates a user using fingerprints, iris, voice, face, blood vessels, and the like. Biometric characteristics used for authentication differ from person to person, and there is no inconvenience of possession, the risk of theft or imitation is low, and biometric authentication technology is widely used because it has advantages that it does not change easily during a lifetime. Face authentication technology, which is one of biometric authentication technologies, is an authentication technology that determines whether a user is a legitimate user based on a face displayed in a still image or video. The face authentication technology has the advantage of being able to confirm the authentication target in a contactless manner. Recently, because of the convenience and efficiency of the face authentication technology, the face authentication technology has been widely used in various application fields such as security systems, mobile authentication, and multimedia data search.
일 실시예에 따른 라이브니스 검사 방법은, 서로 다른 위상의 위상 영상들을 수신하는 단계; 상기 위상 영상들에 엣지 강화 처리를 포함하는 전처리를 수행하여 전처리된 위상 영상들을 생성하는 단계; 상기 전처리된 위상 영상들에 기초하여 차영상들을 생성하는 단계; 상기 차영상들보다 낮은 해상도를 가지는 저해상도 차영상들을 생성하는 단계; 상기 저해상도 차영상들에 기초하여 최소 맵 영상을 생성하는 단계; 및 상기 최소 맵 영상에 기초하여 상기 위상 영상들에 나타난 객체에 대해 라이브니스 검사를 수행하는 단계를 포함할 수 있다.A liveness checking method according to an embodiment includes: receiving phase images of different phases; generating preprocessed phase images by performing preprocessing including edge enhancement processing on the phase images; generating difference images based on the pre-processed phase images; generating low-resolution difference images having a lower resolution than the difference images; generating a minimum map image based on the low-resolution difference images; and performing a liveness check on the object displayed in the phase images based on the minimum map image.
상기 전처리를 수행하는 단계는, 상기 위상 영상들에서 노이즈를 제거하고, 상기 위상 영상들 각각에 나타난 객체의 엣지 영역을 강화하는 처리를 수행하는 단계를 포함할 수 있다.The performing of the pre-processing may include removing noise from the phase images and performing processing for strengthening an edge region of an object displayed in each of the phase images.
일 실시예에 따르면, 상기 저해상도 차영상들을 생성하는 단계는, 차영상에서 각 패치 영역별로 가장 큰 픽셀 값을 추출하는 단계; 및 상기 추출된 가장 큰 픽셀 값에 기초하여 저해상도 차영상을 생성하는 단계를 포함할 수 있다.According to an embodiment, the generating of the low-resolution difference images may include: extracting the largest pixel value for each patch region from the difference image; and generating a low-resolution difference image based on the extracted largest pixel value.
다른 실시예에 따르면, 상기 저해상도 차영상들을 생성하는 단계는, 차영상에서 각 패치 영역별로 픽셀 영역 내 픽셀 값들에 대한 평균 값을 결정하는 단계; 및 각 패치 영역에 대응하는 상기 평균 값에 기초하여 저해상도 차영상을 생성하는 단계를 포함할 수 있다.According to another embodiment, the generating of the low-resolution difference images may include: determining an average value of pixel values in a pixel region for each patch region in the difference image; and generating a low-resolution difference image based on the average value corresponding to each patch region.
상기 전처리된 위상 영상들은, 전처리된 제1 위상 영상 및 전처리된 제2 위상 영상을 포함하고, 상기 차영상들을 생성하는 단계는, 상기 전처리된 제2 위상 영상을 서로 다른 이동 변위로 쉬프트하여 쉬프트된 제2 위상 영상들을 생성하는 단계; 및 상기 쉬프트된 제2 위상 영상들 각각과 상기 전처리된 제1 위상 영상 간의 픽셀 값 차이를 나타내는 차영상들 및 상기 전처리된 제2 위상 영상과 상기 전처리된 제1 위상 영상 간의 픽셀 값 차이를 나타내는 차영상을 생성하는 단계를 포함할 수 있다.The pre-processed phase images include a pre-processed first phase image and a pre-processed second phase image, and the generating of the difference images may include shifting the pre-processed second phase image with different movement displacements. generating second phase images; and difference images representing a pixel value difference between each of the shifted second phase images and the preprocessed first phase image, and a difference representing a pixel value difference between the preprocessed second phase image and the preprocessed first phase image It may include generating an image.
상기 최소 맵 영상을 생성하는 단계는, 상기 저해상도 차영상들 간에 서로 대응하는 영역의 차이 값들 중 최소 차이 값을 식별하는 단계; 및 상기 최소 차이 값에 기초하여 상기 최소 맵 영상의 픽셀 값을 결정하는 단계를 포함할 수 있다.The generating of the minimum map image may include: identifying a minimum difference value among difference values of regions corresponding to each other between the low-resolution difference images; and determining a pixel value of the minimum map image based on the minimum difference value.
일 실시예에 따른 라이브니스 검사 장치는, 프로세서; 및 상기 프로세서에서 실행가능한 명령어들을 포함하는 메모리를 포함하고, 상기 명령어들이 상기 프로세서에 의해 실행되면, 상기 프로세서는, 서로 다른 위상의 위상 영상들에 엣지 강화 처리를 포함하는 전처리를 수행하여 전처리된 위상 영상들을 생성하고, 상기 전처리된 위상 영상들에 기초하여 차영상들을 생성하고, 상기 차영상들보다 낮은 해상도를 가지는 저해상도 차영상들을 생성하고, 상기 저해상도 차영상들에 기초하여 최소 맵 영상을 생성하고, 상기 최소 맵 영상에 기초하여 상기 위상 영상들에 나타난 객체에 대해 라이브니스 검사를 수행할 수 있다.A liveness test apparatus according to an embodiment includes a processor; and a memory including instructions executable by the processor, wherein when the instructions are executed by the processor, the processor performs preprocessing including edge enhancement processing on phase images of different phases to obtain the preprocessed phase generating images, generating difference images based on the preprocessed phase images, generating low-resolution difference images having a lower resolution than the difference images, and generating a minimum map image based on the low-resolution difference images, , a liveness check may be performed on the object displayed in the phase images based on the minimum map image.
일 실시예에 따른 전자 장치는, 서로 다른 위상의 위상 영상들을 획득하는 멀티 위상 검출 센서; 및 상기 위상 영상들에 기초하여 라이브니스 검사를 수행하는 프로세서를 포함하고, 상기 프로세서는, 서로 다른 위상의 위상 영상들에 엣지 강화 처리를 포함하는 전처리를 수행하여 전처리된 위상 영상들을 생성하고, 상기 전처리된 위상 영상들에 기초하여 차영상들을 생성하고, 상기 차영상들보다 낮은 해상도를 가지는 저해상도 차영상들을 생성하고, 상기 저해상도 차영상들에 기초하여 최소 맵 영상을 생성하고, 상기 최소 맵 영상에 기초하여 상기 위상 영상들에 나타난 객체에 대해 라이브니스 검사를 수행할 수 있다.According to an embodiment, an electronic device includes: a multi-phase detection sensor configured to acquire phase images of different phases; and a processor for performing a liveness check based on the phase images, wherein the processor performs preprocessing including edge enhancement processing on phase images of different phases to generate preprocessed phase images, Generate difference images based on the preprocessed phase images, generate low-resolution difference images having a lower resolution than the difference images, generate a minimum map image based on the low-resolution difference images, and Based on this, a liveness check may be performed on the object displayed in the phase images.
도 1 및 도 2는 일 실시예에 따른 생체 인증 및 라이브니스 검사를 설명하기 위한 도면들이다.
도 3은 일 실시예에 따른 멀티 위상 검출 센서를 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 위상 영상들을 통해 검출될 수 있는 2D 객체와 3D 객체 간의 차이를 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 라이브니스 검사 방법의 동작을 설명하기 위한 흐름도이다.
도 6은 일 실시예에 따른 라이브니스 검사 과정을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 엣지 강화 처리를 설명하기 위한 도면이다.
도8및 도 9는 일 실시예에 따른 최소 맵 영상의 생성 과정을 설명하기 위한 도면들이다.
도 10a 및 도 10b는 일 실시예에 따른 위상 영상을 쉬프트하는 과정을 설명하기 위한 도면들이다.
도 11a 및 도 11b는 일 실시예에 따른 최소 맵 영상의 픽셀 값을 결정하는 과정을 설명하기 위한 도면들이다.
도 12는 일 실시예에 따른 라이브니스 검사 장치의 구성을 도시한 도면이다.
도 13은 일 실시예에 따른 전자 장치의 구성을 도시하는 도면이다.1 and 2 are diagrams for explaining biometric authentication and liveness check according to an embodiment.
3 is a view for explaining a multi-phase detection sensor according to an embodiment.
4 is a diagram for explaining a difference between a 2D object and a 3D object that can be detected through phase images according to an exemplary embodiment.
5 is a flowchart illustrating an operation of a liveness checking method according to an embodiment.
6 is a diagram for explaining a liveness test process according to an embodiment.
7 is a diagram for describing an edge enhancement process according to an embodiment.
8 and 9 are diagrams for explaining a process of generating a minimum map image according to an exemplary embodiment.
10A and 10B are diagrams for explaining a process of shifting a phase image according to an exemplary embodiment.
11A and 11B are diagrams for explaining a process of determining a pixel value of a minimum map image according to an exemplary embodiment.
12 is a diagram illustrating a configuration of a liveness testing apparatus according to an exemplary embodiment.
13 is a diagram illustrating a configuration of an electronic device according to an exemplary embodiment.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 구현될 수 있다. 따라서, 실제 구현되는 형태는 개시된 특정한 실시예로만 한정되는 것이 아니며, 본 명세서의 범위는 실시예로 설명한 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for purposes of illustration only, and may be changed and implemented in various forms. Accordingly, the actual implemented form is not limited to the specific embodiments disclosed, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical idea described in the embodiments.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various elements, these terms should be interpreted only for the purpose of distinguishing one element from another. For example, a first component may be termed a second component, and similarly, a second component may also be termed a first component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being “connected to” another component, it may be directly connected or connected to the other component, but it should be understood that another component may exist in between.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expression includes the plural expression unless the context clearly dictates otherwise. In this specification, terms such as "comprise" or "have" are intended to designate that the described feature, number, step, operation, component, part, or combination thereof exists, and includes one or more other features or numbers, It should be understood that the possibility of the presence or addition of steps, operations, components, parts or combinations thereof is not precluded in advance.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present specification. does not
이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. In the description with reference to the accompanying drawings, the same components are assigned the same reference numerals regardless of the reference numerals, and overlapping descriptions thereof will be omitted.
도 1 및 도 2는 일 실시예에 따른 생체 인증 및 라이브니스 검사를 설명하기 위한 도면들이다.1 and 2 are diagrams for explaining biometric authentication and liveness check according to an embodiment.
생체 인증(biometrics)은 사용자 인증(user verification)을 위한 인증 기술들 중 지문, 홍채, 얼굴, 정맥, 피부 등의 개인 생체 정보를 이용하는 인증 기술이다. 생체 인증에서 얼굴 인증은(face verification)은 인증을 시도한 사용자의 얼굴 정보에 기초하여 해당 사용자가 유효한(valid) 사용자인지 여부를 판단하는 인증 방법이다. 얼굴 인증은 사용자 로그인, 결제 서비스 및 출입 통제에서 유효한 사용자를 인증하는데 이용될 수 있다.Biometrics is an authentication technology using personal biometric information such as a fingerprint, iris, face, vein, and skin among authentication technologies for user verification. In biometric authentication, face verification is an authentication method for determining whether a corresponding user is a valid user based on face information of a user who has attempted authentication. Facial authentication can be used to authenticate a valid user in user login, payment service, and access control.
도 1을 참조하면, 전자 장치(120)(예: 도 13의 전자 장치(1300))는 생체 인증을 통해 전자 장치(120)에 액세스하려는 객체(110)(예: 사용자)에 대한 인증 과정을 수행한다. 전자 장치(120)는 전자 장치(120)에 포함된 영상 센서(130)(예: 도 3의 2PD 센서(310) 또는 도 12의 멀티 위상 검출 센서(multi-phase detection sensor; 1240))를 이용하여 객체(110)에 대한 영상 데이터를 획득하고, 획득한 영상 데이터를 분석하여 인증 결과를 결정한다. 생체 인증 과정은 영상 데이터에서 특징을 추출하고, 추출된 특징을 유효한 객체에 대한 등록 특징과 비교하여 그 비교 결과에 따라 인증의 성공 여부를 결정하는 과정을 포함할 수 있다. 일 실시예에서, 전자 장치(120)가 잠금 상태에 있었던 경우, 객체(110)에 대한 인증이 성공한 것으로 결정되면 전자 장치(120)의 잠금 상태가 해제될 수 있다. 이와 반대로, 객체(110)에 대한 인증이 실패한 것으로 결정된 경우, 전자 장치(120)는 계속적으로 잠금 모드에서 동작하게 된다. 전자 장치(120)는 스마트폰, 웨어러블 기기(wearable device), 태블릿 컴퓨터, 넷북, 랩탑, 데스크탑, PDA(personal digital assistant), 셋탑 박스, 가전 기기, 생체 도어락, 보안 장치 또는 차량 시동 장치일 수 있다.Referring to FIG. 1 , an electronic device 120 (eg, the
전자 장치(120)에 대한 유효한 사용자는 등록 과정을 통해 자신의 생체 특징을 전자 장치(120)에 미리 등록할 수 있고, 전자 장치(120)는 저장 장치 또는 클라우드 저장매체(cloud storage)에 해당 유효한 사용자를 식별하기 위한 정보를 저장할 수 있다. 유효한 사용자의 얼굴 영상 또는 해당 얼굴 영상으로부터 추출된 얼굴 특징이 유효한 사용자의 등록 생체 특징으로서 저장될 수 있다.A valid user of the
위와 같은 생체 인증 과정에서 라이브니스 검사(liveness test)가 수행될 수 있다. 라이브니스 검사는 객체(110)가 살아있는 객체인지 여부를 검사하는 것으로, 인증 수단의 진위 여부를 판단하기 위한 것이다. 라이브니스 검사는 영상 센서(130)에 의해 촬영된 영상에 나타난 얼굴이 사람의 진짜 얼굴(genuine face)인지 아니면 거짓 얼굴(fake face)인지 여부를 검사하는 것이다. 라이브니스 검사는 살아있지 않은 객체(예: 사진, 종이, 동영상, 모형 및 마스크)와 살아있는 객체(예: 사람의 실제 얼굴) 사이를 구별하는데 이용된다. 전자 장치(120)는 실시예에 따라 라이브니스 검사 및 생체 인증 중 어느 하나만 수행하거나, 또는 라이브니스 검사 및 생체 인증을 모두 수행할 수 있다. In the biometric authentication process as described above, a liveness test may be performed. The liveness check is to check whether the
도 2는 일 실시예에 따른 거짓 얼굴(210)과 진짜 얼굴(220)을 도시한다. 전자 장치(120)는 라이브니스 검사를 통해 영상 데이터에 나타난 얼굴이 진짜 얼굴(220)인지 여부를 식별할 수 있다. 또한, 전자 장치(120)는 라이브니스 검사를 통해 스마트폰 스크린이나 PC 스크린과 같은 디스플레이 장치에 디스플레이된 얼굴이 촬영된 검사 대상 영상과 사진이나 종이에 나타난 얼굴이 촬영된 검사 대상 영상에서 거짓 얼굴(210)을 구분할 수 있다.2 shows a
유효하지 않은 사용자는 위조 기술(spoofing techniques)을 이용하여 생체 인증 시스템의 오인증(false acceptance)을 유발하기 위한 시도를 수행할 수 있다. 얼굴 인증에서, 유효하지 않은 사용자는 오인증을 유발하기 위해 유효한 사용자의 얼굴이 나타난 사진이나 영상을 영상 센서(130)에 제시할 수 있다. 라이브니스 검사는 이러한 사진이나 영상과 같은 대체물을 이용한 인증 시도(또는, 스푸핑 공격)를 걸러내어 오인증을 방지한다. 라이브니스 검사 결과로서 인증 대상이 살아있지 않은 객체로 결정된 경우, 유효한 객체인지 여부를 판단하는 인증 과정을 수행하는 것 없이 최종적으로 인증이 실패한 것으로 결정되거나 또는 인증 과정이 수행되었더라도 그 인증 결과와 관계없이 최종적으로 인증이 실패한 것으로 결정될 수 있다.An invalid user may use spoofing techniques to attempt to induce false acceptance of the biometric authentication system. In face authentication, an invalid user may present a photo or image showing a valid user's face to the
영상 센서(130)는 객체(110)에 대한 시각 정보를 복수의 위상들에 대한 영상 데이터로 표현할 수 있다. 영상 센서(130)는 복수의 위상들의 시각 정보를 감지하고, 각 위상의 시각 정보에 관한 영상 데이터를 생성할 수 있다. 영상 센서(130)는 멀티 위상 검출 센서로서, 두 종류의 위상들을 감지하는 2PD(two phase detection) 센서, 또는 네 종류의 위상들을 감지하는 QPD(quad phase detection) 센서일 수 있다. 다만, 영상 센서(130)가 감지하는 위상들의 개수는 이것들에 한정되는 것은 아니며, 영상 센서(130)는 다른 다양한 개수의 위상들을 감지할 수도 있다. 이하에서는 설명의 편의를 위해 영상 센서(130)가 2PD 센서에 해당하는 실시예들에 대해 설명되나, 실시예의 범위가 2PD 센서에 한정되는 것은 아니며 아래의 설명은 영상 센서(130)가 다른 유형의 멀티 위상 검출 센서에 해당하는 경우에도 적용될 수 있다.The
도 3을 참조하면, 멀티 위상 검출 센서의 예로서 2PD 센서(310)의 구조가 도시되어 있다. 2PD 센서(310)는 R(red), G(green), B(blue)의 컬러 값을 2개의 서로 다른 위상으로 센싱할 수 있는 복수의 센서 픽셀(315)들을 포함한다. 참조 부호(320)는 센서 픽셀(315)을 확대하여 나타낸 것이다. 각각의 센서 픽셀(315)은 G의 컬러 값을 센싱하는 센서 서브-픽셀들(332, 342, 336, 346), R의 컬러 값을 센싱하는 센서 서브-픽셀들(334, 344) 및 B의 컬러 값을 센싱하는 센서 서브-픽셀들(338, 348)을 포함한다. 여기서, 센서 서브-픽셀들(332, 334, 336, 338)은 제1 위상(예: 왼쪽(L; left))에 대응하고, 센서 서브-픽셀들(342, 344, 346, 348)은 제2 위상(예: 오른쪽(R; right)에 대응할 수 있다. 도 3에 도시된 2PD 센서(310)의 구조는 일례에 불과하며, 센서 픽셀(315)들의 배치 구조는 도 3에 도시된 예에 한정되지 않고 다양한 배치 구조를 가질 수 있다.Referring to FIG. 3 , a structure of a
2PD 센서(310)에 포함된 각각의 센서 서브-픽셀은 제1 위상 및 제2 위상 중 어느 하나의 시각 정보를 센싱할 수 있다. 각각의 센서 서브-픽셀들(332, 334, 336, 338, 342, 344, 346, 348)은 외부의 광을 수광하여 전기 신호 값으로 출력하는 광다이오드(photodiode)를 포함한다. 제1 위상에 대응하는 센서 서브-픽셀들(332, 334, 336, 338)의 광다이오드의 출력 값을 추출하면 제1 위상의 제1 위상 영상(350)이 획득되고, 제2 위상에 대응하는 센서 서브-픽셀들(342, 344, 346, 348)의 광다이오드의 출력 값을 추출하면 제2 위상의 제2 위상 영상(360)이 획득될 수 있다.Each sensor sub-pixel included in the
제1 위상 영상(350)과 제2 위상 영상(360) 간에는 시차(disparity)가 존재할 수 있고, 이러한 시차를 객체(110)의 라이브니스 검사에 이용함으로써 라이브니스 검사의 정확도는 향상될 수 있다. 시차는 객체(110)의 입체 정보를 나타낼 수 있기 때문에, 시차를 이용함으로써 사진이나 종이와 같이 2D로 구현된 가짜 객체를 효과적으로 구별해 낼 수 있다. 도 4는 일 실시예에 따른 위상 영상들을 통해 검출될 수 있는 2D 객체와 3D 객체 간의 차이를 설명하기 위한 도면이다. 도 4를 참조하면, 2D 객체가 2PD 센서(310)에 의해 촬영된 경우, 제1 위상 영상 및 제2 위상 영상을 통해서는 시차가 검출되지 않는다. 얼굴이 인쇄된 사진이 2PD 센서(310)에 의해 촬영되었다면, 사진에서는 얼굴 영역과 배경 영역 간에 깊이(depth) 차이가 없고, 얼굴 부위들 간에도 깊이 차이가 없기 때문에, 제1 위상 영상과 제2 위상 영상을 통해 시차가 검출되지 않는다. 반면에, 3D 객체가 2PD 센서(310)에 의해 촬영된 경우에는 제1 위상 영상 및 제2 위상 영상을 통해 시차가 검출될 수 있다. 실제 사람의 얼굴이 2PD 센서(310)에 의해 촬영되었다면, 제1 위상 영상과 제2 위상 영상을 비교함으로써 얼굴 윤곽 및/또는 코 부위에서 시차가 검출될 수 있다.A disparity may exist between the
도 1로 돌아오면, 영상 센서(130)를 통해 획득한 위상 영상들을 통해서는 2D 정보에 해당하는 객체(110)의 형상(shape), 컬러(color), 텍스쳐(texture) 및 컨텍스트(context)의 정보가 추출될 수 있다. 전자 장치(120)는 위상 영상들뿐만 아니라 위상 영상들로부터 도출된 시차 정보를 라이브니스 검사에 이용함으로써, 객체(110)의 3D 구조에 대한 특징을 라이브니스 검사 결과에 반영시켜 라이브니스 검사의 정확도를 향상시킬 수 있다. 시차 정보는 위상 영상들 간의 픽셀 값 차이를 나타내는 차영상(differential image)으로부터 획득될 수 있다.Returning to FIG. 1 , through the phase images acquired through the
라이브니스 검사에 요구되는 연산량과 라이브니스 검사의 정확도는 어느 정도 서로 상충 관계에 있다. 높은 정확도를 위해서는 가능한 위상 영상들의 전체 해상도(full resolution)에 대한 정보가 요구된다. 그러나, 위상 영상들이 메가픽셀(magepixel)의 해상도를 가진다고 가정하면, 전체 해상도의 위상 영상들을 처리하는 것은 매우 시간 및 자원 소모적인 과정이기 때문에 모바일 플랫폼에서는 전체 해상도의 위상 영상들을 처리하는 것이 어렵다. 전자 장치(120)는 라이브니스 검사의 처리 속도를 높이고, 라이브니스 검사에 필요한 자원(예: 메모리)을 적게 하기 위해 영상 센서(130)에 의해 획득된 위상 영상들의 원본을 그대로 이용하는 것이 아니라, 위상 영상들을 저해상도로 변환하여 라이브니스 검사를 수행한다. 본 명세서에서 위상 영상을 저해상도로 변환하는 것은 위상 영상의 크기를 줄이는 것에 대응한다. 특히, 전자 장치(120)가 스마트폰과 같은 모바일 장치인 경우에는, 연산량과 자원에 대한 제약이 크기 때문에 위와 같이 위상 영상들의 해상도를 저해상도로 변환하는 것과 같은 라이브니스 검사의 경량화가 중요하다. 다만, 위상 영상들을 저해상도로 변환하는 과정은 위상 영상들에 포함된 시차 관련 정보의 손실을 야기하여 시차 정보의 정확도를 저하시키고 라이브니스 검사의 정확도를 낮출 수 있다. 또한, 영상 센서(130)에 의해 획득된 위상 영상들에는 전자 장치(120)의 움직임에 기인하는 노이즈가 많이 포함될 수 있고, 이러한 노이즈는 정확한 시차 정보를 획득하는 것을 방해하여 라이브니스 검사의 정확도를 낮출 수 있다.The amount of computation required for the liveness check and the accuracy of the liveness check are in conflict with each other to some extent. For high accuracy, information on the full resolution of possible phase images is required. However, assuming that the phase images have a resolution of megapixels, it is difficult to process the phase images of the full resolution in the mobile platform because processing the phase images of the full resolution is a very time-consuming and resource-consuming process. The
이하에서 설명할 라이브니스 검사 방법에 따르면, 위상 영상들에서 객체(110)의 엣지 성분을 강화하기 위한 엣지 강화(edge enhancement) 처리를 수행하고, 차영상으로부터 주요 픽셀을 효과적으로 추출함으로써 저해상도에서도 정확한 시차 정보를 획득하는 것을 가능하게 한다. 정확한 시차 정보에 의해 라이브니스 검사의 정확도는 향상될 수 있고, 이에 따라 위조 기술에 기반한 오인증을 효과적으로 막을 수 있다. 특히, 라이브니스 검사가 스마트폰과 같은 모바일 플랫폼에서 수행될 때, 제안된 라이브니스 검사 방법은 라이브니스 검사 과정에서 요구되는 계산량과 자원량을 줄여 실시간 처리(real-time processing)를 충분히 구현 가능하게 하고, 다양한 스푸핑 공격에 강인하게 라이브니스 검사를 수행하여 정확도를 향상시킬 수 있다. 이하 라이브니스 검사 방법에 대해 자세히 설명한다.According to the liveness inspection method to be described below, by performing edge enhancement processing to enhance the edge component of the
도 5는 일 실시예에 따른 라이브니스 검사 방법의 동작을 설명하기 위한 흐름도이다.5 is a flowchart illustrating an operation of a liveness checking method according to an embodiment.
도 5를 참조하면, 단계(510)에서 라이브니스 검사 장치(예: 도 12의 라이브니스 검사 장치(1200))는 서로 다른 위상의 위상 영상들을 수신한다. 해당 위상 영상들은 멀티 위상 검출 센서(예: 도 12의 멀티 위상 검출 센서(1240))를 이용하여 획득된 것일 수 있다.Referring to FIG. 5 , in
단계(520)에서, 라이브니스 검사 장치는 위상 영상들에 엣지 강화 처리를 포함하는 전처리를 수행하여 전처리된 위상 영상들을 생성한다. 라이브니스 검사 장치는 전처리 과정에서 위상 영상들에서 노이즈를 제거하고, 위상 영상들 각각에 나타난 객체의 엣지 영역을 강화(또는 강조)하는 처리를 수행한다. 일 실시예에서, 라이브니스 검사 장치는 소벨 필터(Sobel filter)를 위상 영상들 각각에 적용하여 엣지 강화 처리를 수행할 수 있다. 다만, 엣지 강화 처리가 소벨 필터를 이용하는 방법에 한정되는 것은 아니고, 이외에 비등방성 필터(anisotropic filter), 라플라시안 필터(laplacian filter) 및 캐니 엣지 필터(canny edge filter) 중 하나 이상을 이용하는 방법, 뉴럴 네트워크를 이용한 방법 등 다른 다양한 엣지 강화 처리가 수행될 수 있다. 위상 영상들을 매칭하는데 있어, 객체의 엣지 영역(예: 얼굴의 윤곽)을 비교하는 것이 평편한 영역(예: 얼굴의 볼)을 비교하는 것보다 더 쉽고 정확하다. 따라서, 정확한 시차 정보를 획득하는데 있어 엣지 영역에 대한 정보는 중요하다. 엣지 강화 처리를 통해 위상 영상들에서 이러한 엣지 영역이 강조되고, 객체의 형상에서 평편한 영역의 노이즈가 제거될 수 있다.In
라이브니스 검사 장치는 엣지 강화 처리를 수행하기 이전에 위상 영상들에 감마 보정(gamma correction)을 수행하고, 감마 보정이 수행된 위상 영상들에 엣지 강화 처리를 수행할 수 있다. 감마 보정은 비선형 전달 함수(nonlinear transfer function)를 이용하여 위상 영상들의 밝기 값을 보정하는 과정이고, 낮은 계산량으로도 수행 가능하다는 이점이 있다. 라이브니스 검사 장치는 또한 엣지 강화 처리를 수행하기 이전에 위상 영상들에서 노이즈를 제거하는 디노이징(denoising) 처리를 수행할 수도 있다.The liveness inspection apparatus may perform gamma correction on phase images before performing edge enhancement processing, and may perform edge enhancement processing on phase images on which gamma correction has been performed. Gamma correction is a process of correcting the brightness values of phase images using a nonlinear transfer function, and has an advantage that it can be performed with a low amount of calculation. The liveness inspection apparatus may also perform denoising processing for removing noise from phase images before performing edge enhancement processing.
단계(530)에서, 라이브니스 검사 장치는 전처리된 위상 영상들에 기초하여 차영상들을 생성한다. 차영상은 위상 영상들 간 서로 대응되는 픽셀 영역에서의 픽셀 값 차이를 나타내는 영상이다. 전처리된 위상 영상들이 전처리된 제1 위상 영상 및 전처리된 제2 위상 영상을 포함한다고 가정하면, 라이브니스 검사 장치는 전처리된 제2 위상 영상을 서로 다른 이동 변위로 쉬프트(shift)하여 쉬프트된(shifted) 제2 위상 영상들을 생성할 수 있다. 라이브니스 검사 장치는 쉬프트된 제2 위상 영상들 각각과 전처리된 제1 위상 영상 간의 픽셀 값 차이를 나타내는 차영상들을 생성할 수 있다. 라이브니스 검사 장치는 전처리된 제1 위상 영상을 고정한 상태에서 전처리된 제2 위상 영상을 쉬프트하여 쉬프트된 제2 위상 영상과 전처리된 제1 위상 영상 간에 대응하는 영역에서의 픽셀 값 차이를 계산할 수 있다. 또한, 라이브니스 검사 장치는 쉬프트하지 않은 전처리된 제2 위상 영상과 전처리된 제1 위상 영상 간의 픽셀 값 차이를 나타내는 차영상을 생성할 수 있다. In
단계(540)에서, 라이브니스 검사 장치는 차영상들보다 낮은 해상도를 가지는 저해상도 차영상들을 생성한다. 라이브니스 검사 장치는 각각의 차영상들에 대해 주요 픽셀들을 추출하는 것에 의해 크기가 줄어든 저해상도의 차영상들을 생성할 수 있다. 주요 픽셀들은 차영상의 픽셀들 중에서 중요한 정보 또는 핵심 신호를 포함하는 것으로 고려되는 픽셀들이다. 일례로, 라이브니스 검사 장치는 맥스 풀링(max pooling) 기법에 따라 차영상에서 각 패치 영역별로 가장 큰 픽셀 값을 추출하고, 추출된 가장 큰 픽셀 값에 기초하여 저해상도 차영상을 생성할 수 있다. 패치 영역들에서 추출된 가장 큰 픽셀 값들이 저해상도 차영상의 픽셀 값들을 구성한다. 다른 예로, 라이브니스 검사 장치는 에버리지 풀링(average pooling) 기법에 따라 차영상에서 각 패치 영역별로 픽셀 영역 내 픽셀 값들에 대한 평균 값을 결정하고, 각 패치 영역에 대응하는 평균 값에 기초하여 저해상도 차영상을 생성할 수 있다. 패치 영역들에서 결정된 평균 값들이 저해상도 차영상의 픽셀 값들을 구성한다. 다만, 실시예의 범위가 맥스 풀링 기법이나 에버리지 풀링 기법에 한정되는 것은 아니며, 다른 기법의 적용도 가능하다.In
단계(550)에서, 라이브니스 검사 장치는 저해상도 차영상들에 기초하여 최소 맵 영상을 생성한다. 최소 맵 영상은 디스패리티 맵과 유사하게 객체의 3D 정보에 대한 단서를 포함하는 영상이다. 라이브니스 검사 장치는 저해상도 차영상들 간에 서로 대응하는 영역의 차이 값들 중 최소 차이 값을 식별할 수 있다. 라이브니스 검사 장치는 식별된 최소 차이 값에 기초하여 최소 맵 영상의 픽셀 값을 결정할 수 있다. 최소 맵 영상에서 해당 대응하는 영역의 픽셀 값은, 선택된 최소 차이 값에 해당하거나, 또는 차영상들 중에서 최소 차이 값을 포함하는 저해상도 차영상에 대응하는 이동 변위의 인덱스에 해당할 수 있다. 이동 변위의 인덱스는 위상 영상을 쉬프트한 변위 값을 나타낸다. 예를 들어, 이동 변위의 인덱스는, 오른쪽으로 2 픽셀만큼 쉬프트했으면 +2, 오른쪽으로 1 픽셀만큼 쉬프트했으면 +1, 쉬프트하지 않았으면 0, 왼쪽으로 2 픽셀만큼 쉬프트했으면 -2, 왼쪽으로 1 픽셀만큼 쉬프트했으면 -1의 값을 가질 수 있다.In
단계(560)에서, 라이브니스 검사 장치는 최소 맵 영상에 기초하여 위상 영상들에 나타난 객체에 대해 라이브니스 검사를 수행한다. 라이브니스 검사 장치는 최소 맵 영상 및 위상 영상들을 뉴럴 네트워크 기반의 라이브니스 검사 모델(예: 도 6의 라이브니스 검사 모델(670))에 적용하여 라이브니스 검사 결과를 획득한다. 여기서, 라이브니스 검사 모델에 적용되는 위상 영상들의 해상도는, 최소 맵 영상의 해상도에 상응하도록 조정된 것일 수 있다. 서로 동일한 해상도의 최소 맵 영상 및 위상 영상들이 라이브니스 검사 모델의 입력 패치들(input patches)을 형성한다. 최소 맵 영상 및 위상 영상들은 병합(concatenation)되어 라이브니스 검사 모델의 입력 채널을 구성할 수 있다.In
입력 패치들에 포함되는 위상 영상들은 원(original) 위상 영상들의 전체 영역에 대응하거나 또는 관심 영역(예: 얼굴 영역)을 포함하는 부분 영역에 대응할 수 있다.The phase images included in the input patches may correspond to the entire region of the original phase images or may correspond to a partial region including a region of interest (eg, a face region).
라이브니스 검사 모델은 입력 패치들에 기초하여 객체의 라이브니스를 검출하도록 미리 학습된(trained) 하나 이상의 뉴럴 네트워크를 포함할 수 있다. 뉴럴 네트워크는 입력 데이터에 대한 응답으로 내부 파라미터들에 의해 계산된 값을 출력한다. 뉴럴 네트워크의 적어도 일부는 소프트웨어로 구현되거나, 뉴럴 프로세서(neural processor)를 포함하는 하드웨어로 구현되거나, 또는 소프트웨어 및 하드웨어의 조합으로 구현될 수 있다. 뉴럴 네트워크는 완전 연결 네트워크(fully connected network), 딥 컨볼루셔널 네트워크(deep convolutional network) 및 리커런트 뉴럴 네트워크(recurrent neural network) 등을 포함하는 딥 뉴럴 네트워크(deep neural network, DNN)에 해당할 수 있다. DNN은 복수의 레이어들을 포함할 수 있다. 복수의 레이어들은 입력 레이어(input layer), 하나 이상의 히든 레이어(hidden layer), 및 출력 레이어(output layer)를 포함할 수 있다. 뉴럴 네트워크는 딥 러닝(deep learning)에 기반하여 비선형적 관계에 있는 입력 데이터 및 출력 데이터를 서로 매핑함으로써 주어진 동작을 수행하도록 트레이닝될 수 있다. 딥 러닝은 빅 데이터 세트로부터 주어진 문제를 해결하기 위한 기계 학습 기법이다. 딥 러닝은 준비된 트레이닝 데이터를 이용하여 뉴럴 네트워크를 트레이닝하면서 에너지가 최소화되는 지점을 찾아가는 뉴럴 네트워크의 최적화 과정이다.The liveness check model may include one or more neural networks pretrained to detect the liveness of an object based on input patches. The neural network outputs values calculated by internal parameters in response to input data. At least a portion of the neural network may be implemented as software, hardware including a neural processor, or a combination of software and hardware. The neural network may correspond to a deep neural network (DNN) including a fully connected network, a deep convolutional network, and a recurrent neural network. have. A DNN may include a plurality of layers. The plurality of layers may include an input layer, one or more hidden layers, and an output layer. A neural network may be trained to perform a given operation by mapping input data and output data in a non-linear relationship to each other based on deep learning. Deep learning is a machine learning technique for solving a given problem from a big data set. Deep learning is a neural network optimization process that finds a point where energy is minimized while training a neural network using prepared training data.
하나 이상의 뉴럴 네트워크는 입력된 데이터에 응답하여 라이브니스 스코어를 출력할 수 있다. 라이브니스 스코어는 객체의 라이브니스 여부를 결정하는데 기준이 되는 값으로서, 객체가 진짜 객체 또는 거짓 객체에 해당할 수치, 확률 값 또는 특징 값을 나타낸다. 라이브니스 검사 장치는 라이브니스 스코어가 미리 설정된 조건을 만족시키는지 여부에 기초하여 객체의 라이브니스 여부를 결정할 수 있다. 라이브니스 검사 장치는 라이브니스 스코어가 임계 값보다 큰 경우에는 객체가 살아 있는 진짜 객체 인 것으로 결정하고, 라이브니스 스코어가 임계 값 이하인 경우에는 객체가 살아 있지 않은 가짜 객체인 것으로 결정할 수 있다.One or more neural networks may output a liveness score in response to the input data. The liveness score is a standard value for determining whether an object is lively, and represents a numerical value, a probability value, or a feature value that the object corresponds to a real object or a false object. The liveness checking apparatus may determine whether the object is lively based on whether the liveness score satisfies a preset condition. When the liveness score is greater than the threshold value, the apparatus may determine that the object is a real living object, and when the liveness score is less than or equal to the threshold value, it may determine that the object is a non-living fake object.
위와 같이, 라이브니스 검사는 멀티 위상 검출 센서를 통해 획득된 원본의 위상 영상들을 이용하는 것이 아닌 저해상도의 위상 영상들을 이용함으로써 라이브니스 검사의 계산 복잡도와 필요 자원량을 줄이며, 이에 따라 실시간 처리를 가능하게 한다. 또한, 라이브니스 검사는 제안된 엣지 강화 처리와 풀링 기법을 통해, 저해상도의 최소 맵 영상을 생성하는 과정에서 3D 정보의 손실을 줄여 최소 맵 영상의 정확도(또는 신뢰도)를 향상시킬 수 있으며, 이를 통해 2D 형태의 스푸핑 공격을 효과적으로 걸러 내어 라이브니스 검사의 정확도를 개선시킬 수 있다.As described above, the liveness test uses low-resolution phase images instead of using the original phase images obtained through the multi-phase detection sensor, thereby reducing the computational complexity and the amount of resources required for the liveness test, thereby enabling real-time processing. . In addition, the liveness check can improve the accuracy (or reliability) of the minimum map image by reducing the loss of 3D information in the process of generating a low-resolution minimum map image through the proposed edge enhancement processing and pooling technique. By effectively filtering out 2D spoofing attacks, the accuracy of the liveness check can be improved.
라이브니스 검사 장치는 객체에 대한 라이브니스 검사 결과에 응답하여 제어 동작을 수행할 수도 있다. 객체가 진짜 객체인 것으로 결정된 경우, 라이브니스 검사 장치는 사용자 인증 절차의 실행을 요청할 수 있다. 이와 반대로, 객체가 가짜 객체인 것으로 결정된 경우, 라이브니스 검사 장치는 사용자 인증 과정의 실행을 요청하지 않고, 사용자의 액세스를 차단할 수 있다.The liveness test apparatus may perform a control operation in response to a liveness test result of the object. When it is determined that the object is a real object, the liveness checking apparatus may request execution of a user authentication procedure. Conversely, when it is determined that the object is a fake object, the liveness checking apparatus may block the user's access without requesting execution of the user authentication process.
도 6은 일 실시예에 따른 라이브니스 검사 과정을 설명하기 위한 도면이다.6 is a diagram for explaining a liveness test process according to an embodiment.
도 6을 참조하면, 2PD 센서(310)와 같은 멀티 위상 검출 센서로부터 제1 위상 영상(350)과 제2 위상 영상(360)이 획득된다. 라이브니스 검사 장치(예: 도 12의 라이브니스 검사 장치(1200))는 제1 위상 영상(350)가 제2 위상 영상(360)에 각각 엣지 강화 처리를 포함하는 전처리를 수행하여 전처리된 제1 위상 영상(610)및 전처리된 제2 위상 영상(620)을 생성한다. 엣지 강화 처리는 소벨 필터 및 비등방성 필터와 같이 객체의 엣지 영역을 강조하는 필터를 제1 위상 영상(350) 및 제2 위상 영상(360)에 각각 적용하는 것을 포함한다. 실시예에 따라, 전처리는 감마 보정 및/또는 노이즈를 제거하는 디노이징을 포함할 수 있다.Referring to FIG. 6 , a
라이브니스 검사 장치는 전처리된 제1 위상 영상(610)과 전처리된 제2 위상 영상(620)에 기초하여 차영상들(630)을 생성한다. 라이브니스 검사 장치는 전처리된 제2 위상 영상(620)을 서로 다른 이동 변위로 쉬프트하여 쉬프트된 제2 위상 영상들을 생성하고, 전처리된 제1 위상 영상(610)과 쉬프트된 제2 위상 영상들 간의 픽셀 값 차이를 나타내는 차영상들을 생성할 수 있다. 차영상들(630)에는 쉬프트되지 않은 전처리된 제2 위상 영상(620)과 전처리된 제1 위상 영상(610) 간의 픽셀 값 차이를 나타내는 차영상이 포함될 수 있다.The liveness testing apparatus generates
라이브니스 검사 장치는 차영상들(630)의 크기를 줄여 저해상도 차영상들(640)을 생성한다. 라이브니스 검사 장치는 맥스 풀링 기법을 이용하여 차영상들(630) 각각에서 주요 픽셀들을 추출하여 저해상도 차영상들(640)을 생성할 수 있다.The liveness inspection apparatus generates the low-
라이브니스 검사 장치는 저해상도 차영상들(640)에 기초하여 최소 맵 영상(650)을 생성한다. 라이브니스 검사 장치는 저해상도 차영상들(640) 간의 대응 영역들의 차이 값들 중 최소 차이 값을 식별하고, 최소 차이 값을 기초로 최소 맵 영상(650)의 픽셀 값을 결정할 수 있다. 라이브니스 검사 장치는 최소 차이 값을 최소 맵 영상(650)의 픽셀 값으로 그대로 결정하거나 또는 최소 차이 값을 가지는 저해상도 차영상의 쉬프트 인덱스를 최소 맵 영상(650)의 픽셀 값으로 결정할 수도 있다.The liveness inspection apparatus generates a
라이브니스 검사 장치는 제1 위상 영상(350)과 제2 위상 영상(360)의 해상도를 줄여 저해상도 제1 위상 영상(660) 및 저해상도 제2 위상 영상(665)를 생성하고, 저해상도 제1 위상 영상(660), 저해상도 제2 위상 영상(665) 및 최소 맵 영상(650)을 뉴럴 네트워크 기반의 라이브니스 검사 모델(670)에 적용하여 라이브니스 검사를 수행할 수 있다. 2PD 센서(310)로부터 획득된 전체 해상도의 제1 위상 영상(350) 및 제2 위상 영상(360)을 분석하는 것이 아닌, 저해상도 제1 위상 영상(660) 및 저해상도 제2 위상 영상(665)와 해상도가 낮아진 최소 맵 영상(650)을 분석하면 되므로 라이브니스 검사 모델(670)로서 경량화된 뉴럴 네트워크를 이용하는 것이 가능해 진다.The liveness inspection apparatus generates a low-resolution
라이브니스 검사 모델(670)에 입력되는 저해상도 제1 위상 영상(660), 저해상도 제2 위상 영상(665) 및 최소 맵 영상(650)은 해상도가 서로 동일할 수 있다. 저해상도 제1 위상 영상(660), 저해상도 제2 위상 영상(665) 및 최소 맵 영상(650)은 라이브니스 검사 모델(670)의 입력 채널을 구성하여 라이브니스 검사 모델(670)의 입력 레이어를 통해 라이브니스 검사 모델(670)에 입력될 수 있다. 실시예에 따라, 최소 맵 영상(650)은 라이브니스 검사 모델(670)에 입력되기 전에 정의된 해상도가 되도록 영상 크기가 축소될 수도 있고, 이 경우 제1 위상 영상(350) 및 제2 위상 영상(360)도 라이브니스 검사 모델(670)에 입력되기 전에 최소 맵 영상(650)의 해상도와 동일하게 되도록 영상 크기가 축소될 수 있다.The low-resolution
라이브니스 검사 모델(670)은 입력된 데이터에 응답하여 라이브니스 스코어를 출력할 수 있다. 라이브니스 검사 장치는 라이브니스 스코어가 미리 정의된 조건(예: 임계 값보다 큰 조건)을 만족시키면 객체가 진짜 객체인 것으로 결정하고, 해당 조건을 만족시키지 않으면 객체가 가짜 객체인 것으로 결정할 수 있다.The
도 7은 일 실시예에 따른 엣지 강화 처리를 설명하기 위한 도면이다.7 is a diagram for describing an edge enhancement process according to an embodiment.
도 7을 참조하면, 라이브니스 검사 장치(예: 도 12의 라이브니스 검사 장치(1200))는 제1 위상 영상(350)과 제2 위상 영상(360) 각각에 대해 엣지 강화 처리를 수행한다. 라이브니스 검사 장치는 소벨 필터(710)를 제1 위상 영상(350)에 적용하여 제1 위상 영상(350)에 나타난 객체의 엣지 영역을 강조하는 전처리를 수행할 수 있다. 또한, 라이브니스 검사 장치는 소벨 필터(710)를 제2 위상 영상(360)에 적용하여 제2 위상 영상(360)에 나타난 객체의 엣지 영역을 강조하는 전처리를 수행할 수 있다. 이와 같은 전처리 과정을 통해 노이즈가 줄어들고 엣지 영역이 강조된, 전처리된 제1 위상 영상(610) 및 전처리된 제2 위상 영상(620)이 획득될 수 있다. 실시예에 따라, 엣지 강화 처리를 위해 소벨 필터(710)뿐만 아니라 비등방성 필터, 라플라시안 필터 또는 캐니 엣지 필터의 엣지 강화 필터가 이용될 수도 있다. 엣지 강화 처리를 통해 객체의 엣지 영역에서 보다 정확성이 높은 시차 정보의 검출이 가능해 진다.Referring to FIG. 7 , the liveness inspection apparatus (eg, the
도 8은 일 실시예에 따른 최소 맵 영상에 대한 개략적인 생성 과정을 설명하기 위한 도면이다.8 is a diagram for explaining a schematic generation process of a minimum map image according to an embodiment.
도 8을 참조하면, 엣지 강화 처리를 포함하는 전처리가 수행된 이후에, 전처리된 제1 위상 영상(610) 및 전처리된 제2 위상 영상(620)에 기초하여 차영상들(630)이 생성된다. 라이브니스 검사 장치(예: 도 12의 라이브니스 검사 장치(1200))는 전처리된 제2 위상 영상(620)을 서로 다른 이동 변위로 쉬프트하여 쉬프트된 각 제2 위상 영상들과 전처리된 제1 위상 영상(610) 간의 픽셀 값 차이를 나타내는 차영상들(630)을 생성할 수 있다. 여기서, 차영상들(630)은 제1 차영상(812), 제2 차영상(814), 제3 차영상(816), 제4 차영상(818) 및 제5 차영상(820)을 포함한다고 가정한다. 제1 차영상(812)은 전처리된 제1 위상 영상(610)과 전처리된 제2 위상 영상(620)을 왼쪽으로 2픽셀만큼 쉬프트한 영상 간의 픽셀 값 차이를 나타내고, 제2 차영상(814)은 전처리된 제1 위상 영상(610)과 전처리된 제2 위상 영상(620)을 왼쪽으로 1픽셀만큼 쉬프트한 영상 간의 픽셀 값 차이를 나타낸다. 제3 차영상(816)은 전처리된 제1 위상(610)과 쉬프트하지 않은 전처리된 제2 위상 영상(620) 간의 픽셀 값 차이를 나타낸다. 제4 차영상(818)은 전처리된 제1 위상 영상(610)과 전처리된 제2 위상 영상(620)을 오른쪽으로 1픽셀만큼 쉬프트한 영상 간의 픽셀 값 차이를 나타내고, 제5 차영상(820)은 전처리된 제1 위상 영상(610)과 전처리된 제2 위상 영상(620)을 오른쪽으로 2픽셀만큼 쉬프트한 영상 간의 픽셀 값 차이를 나타낸다. 다만, 차영상들(630)을 생성하는 것과 관련하여 실시예에 범위가 전처리된 제2 위상 영상(620)을 쉬프트하는 것에 한정되지는 않는다. 다른 실시예에서는, 전처리된 제1 위상 영상(610)을 서로 다른 이동 변위로 쉬프트하여 쉬프트된 제1 위상 영상들을 생성하고, 전처리된 제2 위상 영상(620)과 쉬프트된 각 제2 위상 영상들 간의 픽셀 값 차이를 나타내는 차영상들을 생성할 수도 있다Referring to FIG. 8 , after preprocessing including edge enhancement processing is performed,
라이브니스 검사 장치는 차영상들(630)을 생성한 이후에 차영상들(630)보다 해상도가 작은 저해상도 차영상들(640)을 생성한다. 일 실시예에서, 라이브니스 검사 장치는 제1 차영상(812), 제2 차영상(814), 제3 차영상(816), 제4 차영상(818) 및 제5 차영상(820) 각각에 맥스 풀링 기법을 적용하여 제1 저해상도 차영상(832), 제2 저해상도 차영상(834), 제3 저해상도 차영상(836), 제4 저해상도 차영상(838) 및 제5 저해상도 차영상(840)을 생성할 수 있다. 라이브니스 검사 장치는 저해상도 차영상들(640) 간에 서로 대응하는 영역에서 픽셀 값의 차이 값들 중 가장 작은 차이 값에 기초하여 최소 맵 영상(650)을 생성할 수 있다. 최소 맵 영상(650)은 가장 작은 차이 값을 픽셀 값으로 가지거나 또는 가장 작은 차이 값을 포함하는 저해상도 차영상의 이동 변위의 인덱스를 픽셀 값으로 가질 수 있다.After generating the
도 9는 일 실시예에 따른 최소 맵 영상의 생성 과정을 보다 구체적으로 설명하기 위한 도면이다.9 is a diagram for describing in more detail a process of generating a minimum map image according to an exemplary embodiment.
도 9를 참조하면, 단계(910)에서 라이브니스 검사 장치는 위상 영상의 쉬프트를 수행한다. 라이브니스 검사 장치는 제1 위상 영상을 고정한 상태에서 제XN 위상 영상을 쉬프트할 수 있다. 도 9에서 각 위상 영상의 각 픽셀 내 숫자는 픽셀 값을 나타낸다. '제 XN 위상 영상'에서 'X'는 수평 방향으로 위상 특성이 구분되는 것을 나타내고, 'N'은 위상의 개수를 나타낸다. 예를 들어, 2PD 센서에 의해 생성된 제1 위상 영상 및 제2 위상 영상이 이용되는 경우, 제2 위상 영상은 제X2 위상 영상으로 표시될 수 있다. 이하에서는, 제XN 위상 영상이 제2 위상 영상에 해당하는 경우의 실시예를 설명한다. 라이브니스 검사 장치는 제1 위상 영상에 기본 영역을 설정하고, 제2 위상 영상에 하나 이상의 쉬프트 영역을 설정할 수 있다. 예를 들어, 라이브니스 검사 장치는 제2 위상 영상에 x-1, x0 및 x+1의 쉬프트 영역들을 설정할 수 있다. 여기서, x0는 쉬프트가 수행되지 않은 기본 영역을 나타낸다.Referring to FIG. 9 , in
제1 위상 영상의 기본 영역은 제1 기본 영역으로 지칭될 수 있고, 제2 위상 영상의 기본 영역은 제2 기본 영역으로 지칭될 수 있으며, 제1 기본 영역과 제2 기본 영역은 위치적으로 서로 대응할 수 있다. x-1 및 x+1에서 - 및 +는 각각 쉬프트 방향을 나타내고, 1은 참조 쉬프트 값을 나타낸다. 기본 영역은 참조 쉬프트 값에 기초하여 설정될 수 있다. 참조 쉬프트 값이 r인 경우, 기본 영역을 특정 방향으로 r만큼 쉬프트한 쉬프트 영역이 설정된다.The basic region of the first phase image may be referred to as a first basic region, the basic region of the second phase image may be referred to as a second basic region, and the first basic region and the second basic region may be positioned with each other in position. can respond In x-1 and x+1, - and + indicate a shift direction, respectively, and 1 indicates a reference shift value. The basic area may be set based on a reference shift value. When the reference shift value is r, a shift region in which the basic region is shifted by r in a specific direction is set.
라이브니스 검사 장치는 제2 기준 영역(즉, x0의 쉬프트 영역)을 쉬프트 방향에 따라 참조 쉬프트 값(즉, 1)만큼 쉬프트하여 하나 이상의 쉬프트 영역(즉, x-1의 쉬프트 영역, 및 x+1의 쉬프트 영역)을 설정할 수 있다. 참조 쉬프트 값은 다양한 값으로 설정될 수 있고, 참조 쉬프트 값에 대응하는 개수의 쉬프트 영역이 설정될 수 있다. 참조 쉬프트 값 및 쉬프트 방향의 개수에 기초하여 쉬프트 영역의 개수가 결정될 수 있다.The liveness checking apparatus shifts the second reference region (ie, the shift region of x0) by the reference shift value (ie, 1) along the shift direction to one or more shift regions (ie, the shift region of x-1, and x+ 1) can be set. The reference shift value may be set to various values, and the number of shift regions corresponding to the reference shift value may be set. The number of shift regions may be determined based on the reference shift value and the number of shift directions.
일례로, 참조 쉬프트 값이 1이고, 쉬프트 방향의 개수가 2개(좌측, 우측)인 경우, 쉬프트 영역은 2ⅹ1+1=3개가 존재할 수 있다. 3개의 쉬프트 영역들은 x-1, x0 및 x+1의 쉬프트 영역들을 포함할 수 있다. 다른 예로, 참조 쉬프트 값이 5이고, 쉬프트 방향의 개수가 2개(좌측, 우측)인 경우, 쉬프트 영역은 2ⅹ5+1=11개가 존재할 수 있다. 11개의 쉬프트 영역들은 x-5 내지 x-1, x0, 및 x+1 내지 x+5의 쉬프트 영역들을 포함할 수 있다. 또 다른 예로, 참조 쉬프트 값이 1이고, 쉬프트 방향의 개수가 4개(좌측, 우측, 상측, 하측)인 경우, 쉬프트 영역은 2ⅹ1+2ⅹ1+1=5개 존재할 수 있다. 5개의 쉬프트 영역들은 x-1, y-1, xy0, x+1 및 y+1의 쉬프트 영역들을 포함할 수 있다.For example, when the reference shift value is 1 and the number of shift directions is 2 (left and right), 2×1+1=3 shift regions may exist. The three shift regions may include shift regions of x-1, x0, and x+1. As another example, when the reference shift value is 5 and the number of shift directions is 2 (left and right), 2×5+1=11 shift regions may exist. The 11 shift regions may include shift regions of x-5 to x-1, x0, and x+1 to x+5. As another example, when the reference shift value is 1 and the number of shift directions is four (left, right, upper, lower), 2×1+2×1+1=5 shift regions may exist. The five shift regions may include shift regions of x-1, y-1, xy0, x+1, and y+1.
QPD 센서와 같은 멀티 위상 검출 센서가 이용되는 경우, 수평 방향 이외의 다른 방향들로 위상 특성이 구분될 수 있다. 라이브니스 검사 장치는 도 10a와 같이 QPD 센서의 수평 방향 및 수직 방향의 위상 영상들에 관한 쉬프트를 수행하여 각 위상 영상에 관한 쉬프트 영역들을 결정할 수 있다. 제XN 위상 영상의 경우 도 9의 위상 영상 쉬프트(910)와 같이 수평 방향의 쉬프트를 통해 쉬프트 영역들(x-1, x0 및 x+1)이 결정될 수 있다. 제YN 위상 영상의 경우 수직 방향의 쉬프트를 통해 쉬프트 영역들(y-1, y0 및 y+1)이 결정될 수 있다.When a multi-phase detection sensor such as a QPD sensor is used, phase characteristics may be distinguished in directions other than the horizontal direction. The liveness test apparatus may determine shift regions for each phase image by performing shifting on the phase images in the horizontal and vertical directions of the QPD sensor as shown in FIG. 10A . In the case of the XNth phase image, shift regions x-1, x0, and x+1 may be determined through a horizontal shift like the
XN 및 YN에서 'X'는 수평 방향으로 위상 특성이 구분되는 것을 나타내고, 'Y'는 수직 방향으로 위상 특성이 구분되는 것을 나타낸다. 'N'은 위상의 개수를 나타낸다. 여기서 수직 방향 및 수평 방향에서 동일한 개수의 위상들이 이용되는 것이 설명되지만, 수직 방향 및 수평 방향에서 서로 다른 개수의 위상들이 이용되는 것도 가능하다. 'N'은 센서가 구분할 수 있는 위상의 개수에 기초하여 결정될 수 있다. QPD 센서의 경우 N=2일 수 있고, 도 10a의 실시예에서 제1 위상 영상, 제X2 위상 영상, 제Y2 위상 영상이 존재할 수 있다.In XN and YN, 'X' indicates that phase characteristics are divided in a horizontal direction, and 'Y' indicates that phase characteristics are divided in a vertical direction. 'N' represents the number of phases. Although it is described herein that the same number of phases are used in the vertical and horizontal directions, it is also possible that different numbers of phases are used in the vertical and horizontal directions. 'N' may be determined based on the number of phases that the sensor can distinguish. In the case of the QPD sensor, N=2, and in the embodiment of FIG. 10A , a first phase image, an X2th phase image, and a Y2th phase image may exist.
다른 실시예에 따르면, 라이브니스 검사 장치는 도 10b와 같이 QPD 센서의 수평 방향, 수직 방향, 및 대각 방향의 위상 영상들에 관한 위상 영상 쉬프트를 수행하여 각 위상 영상에 관한 쉬프트 영역들을 결정할 수 있다. 제XN 위상 영상의 경우 수평 방향의 쉬프트를 통해 쉬프트 영역들(x-1, x0 및 x+1)이 결정될 수 있고, 제YN 위상 영상의 경우 수직 방향의 쉬프트를 통해 쉬프트 영역들(y-1, y0 및 y+1)이 결정될 수 있다. 제ZN 위상 영상의 경우 대각 방향의 쉬프트를 통해 쉬프트 영역들(z-1, z0 및 z+1)이 결정될 수 있다. 'ZN'에서 'Z'는 대각 방향으로 위상 특성이 구분되는 것을 나타내고, 'N'은 위상의 개수를 나타낸다. N=2인 경우, 도 10b의 실시예에서 제1 위상 영상, 제X2 위상 영상, 제Y2 위상 영상, 제Z2 위상 영상이 이용될 수 있다.According to another embodiment, the liveness testing apparatus may determine shift regions for each phase image by performing a phase image shift on the phase images in the horizontal direction, the vertical direction, and the diagonal direction of the QPD sensor as shown in FIG. 10B . . In the case of an XN-th phase image, shift regions (x-1, x0, and x+1) may be determined through a shift in the horizontal direction, and in the case of a YN-th phase image, shift regions y-1 through a shift in the vertical direction. , y0 and y+1) can be determined. In the case of the ZN-th phase image, shift regions z-1, z0, and z+1 may be determined through diagonal shift. In 'ZN', 'Z' indicates that phase characteristics are divided in a diagonal direction, and 'N' indicates the number of phases. When N=2, the first phase image, the X2th phase image, the Y2th phase image, and the Z2th phase image may be used in the embodiment of FIG. 10B .
이와 같이 쉬프트 영역들이 결정되면, 단계(920)에서 라이브니스 검사 장치는 기본 영역의 영상과 각 쉬프트 영역의 영상 간의 차이들을 계산한다. 라이브니스 검사 장치는 고정된 영상(예: 제1 기본 영역의 영상)과 쉬프트된 영상(예: 쉬프트 영역의 영상) 간의 차이에 기초하여 차영상들을 생성하고, 차영상들에 기초하여 최소 맵 영상을 생성할 수 있다. 라이브니스 검사 장치는 제1 기본 영역의 영상과 x-1의 쉬프트 영역의 영상 간의 차이에 기초하여 제1 차영상을 생성하고, 제1 기본 영역의 영상과 x0의 쉬프트 영역의 영상 간의 차이에 기초하여 제2 차영상을 생성하고, 제1 기본 영역의 영상과 x+1의 쉬프트 영역의 영상 간의 차이에 기초하여 제3 차영상을 생성할 수 있다. 라이브니스 검사 장치는 각각의 차영상에 인덱스 값을 부여할 수 있다. 예를 들어, 라이브니스 검사 장치는 x-1, x0, x+1의 순서로 인덱스 값을 부여할 수 있다. 도 9에는 제1 차영상에 0의 인덱스 값이 부여되고, 제2 차영상에 1의 인덱스 값이 부여되고, 제3 차영상에 2의 인덱스 값이 부여되는 것으로 가정한다. 다만, 실시예의 범위가 이에 한정되는 것은 아니며, 다른 다양한 순서로 인덱스가 부여되는 것도 가능하다.When the shift regions are determined in this way, in
라이브니스 검사 장치는 일부 픽셀들만을 선택하는 풀링(pooling) 기법을 이용하여 제1 차영상, 제2 차영상 및 제3 차영상 각각으로부터 제1 저해상도 차영상, 제2 저해상도 차영상 및 제3 저해상도 차영상을 생성할 수 있다. The liveness test apparatus uses a pooling technique that selects only some pixels from the first low-resolution difference image, the second low-resolution difference image, and the third low-resolution image from each of the first, second, and tertiary images. You can create a difference image.
단계(930)에서, 라이브니스 검사 장치는 최소 맵 영상을 생성한다. 라이브니스 검사 장치는 저해상도 차영상들에서 서로 대응하는 영역의 대응 차이 값들 중에 최소 차이 값을 식별하고, 최소 차이 값에 기초하여 최소 맵 영상의 픽셀 값을 결정할 수 있다. 일례로, 도 9의 실시예에서 (1, 1)에 위치하는 대응 차이 값들은 1, 0 및 6이다. 이 중에 0이 최소 차이 값으로 선택될 수 있다. 다른 예로, (2, 2)에 위치하는 대응 차이 값들은 25, 33, 30이다. 이 중에 25가 최소 차이 값으로 선택될 수 있다. 이와 같이 저해상도 차영상들 간의 대응 차이 값들 중에 최소 차이 값이 선택되고, 최소 차이 값에 기초하여 최소 맵 영상의 픽셀 값이 결정될 수 있다.In
최소 맵 영상의 픽셀 값은 최소 차이 값에 해당하거나, 또는 저해상도 차영상들 중에 최소 차이 값을 포함하는 저해상도 차영상의 인덱스에 해당할 수 있다. 최소 차이 값을 포함하는 최소 맵 영상은 최소 차이 값 맵 영상(934)으로 지칭될 수 있고, 최소 차이 값을 포함하는 저해상도 차영상의 인덱스를 포함하는 최소 맵 영상은 최소 인덱스 맵 영상(932)으로 지칭될 수 있다. 앞선 예시에서, (1, 1)의 위치에서 0이 최소 차이 값으로 선택되었고, 0을 포함하는 저해상도 차영상의 인덱스는 1이다. 따라서, 최소 차이 값 맵 영상(934)에서 (1, 1)의 픽셀 값은 0이고, 최소 인덱스 맵 영상(932)에서 (1, 1)의 픽셀 값은 1이다. 또한, (2, 2)의 위치에서 25가 최소 차이 값으로 선택되었고, 25를 포함하는 저해상도 차영상의 인덱스는 0이다. 따라서, 최소 차이 값 맵 영상(934)에서 (2, 2)의 픽셀 값은 25이고, 최소 인덱스 맵 영상(932)에서 (2, 2)의 픽셀 값은 0이다.The pixel value of the minimum map image may correspond to a minimum difference value or may correspond to an index of a low-resolution difference image including a minimum difference value among low-resolution difference images. The minimum map image including the minimum difference value may be referred to as a minimum difference
각 위상 영상에 관해 차영상들의 세트가 생성될 수 있다. 도 10a 및 도 10b의 실시예들과 같이 복수의 방향들에 관한 위상 영상들이 존재하는 경우, 각 위상 영상의 차영상들의 세트에 기초하여 각 위상 영상에 관한 최소 맵 영상이 생성될 수 있다. 도 10a의 실시예에서는 제XN 위상 영상, 및 제YN 위상 영상 각각에 관한 최소 맵 영상이 생성될 수 있다. 도 10b의 실시예의 경우, 제XN 위상 영상, 제YN 위상 영상, 및 제ZN 위상 영상 각각에 관한 최소 맵 영상이 생성될 수 있다.A set of difference images may be generated for each phase image. As in the embodiments of FIGS. 10A and 10B , when phase images related to a plurality of directions exist, a minimum map image of each phase image may be generated based on a set of difference images of each phase image. In the embodiment of FIG. 10A , a minimum map image for each of the XNth phase image and the YNth phase image may be generated. 10B , a minimum map image for each of the XNth phase image, the YNth phase image, and the ZNth phase image may be generated.
도 11a 및 도 11b는 일 실시예에 따른 최소 맵 영상의 픽셀 값을 결정하는 과정을 설명하기 위한 도면들이다.11A and 11B are diagrams for explaining a process of determining a pixel value of a minimum map image according to an exemplary embodiment.
도 11a를 참조하면, 제1 저해상도 차영상(832)의 영역(1132), 제2 저해상도 차영상(834)의 영역(1134), 제3 저해상도 차영상(836)의 영역(1136), 제4 저해상도 차영상(838)의 영역(1138) 및 제5 저해상도 차영상(840)의 영역(1140)은 서로 대응되는 영역들이다. 라이브니스 검사 장치는 영역(1132), 영역(1134), 영역(1136), 영역(1138) 및 영역(1140)이 나타내는 차이 값들 중 차이 값이 가장 작은 것을 식별한다. 만약, 영역(1134)의 차이 값이 다른 영역들(1132, 1136, 1138, 1140)의 차이 값들보다 작다고 가정하면, 라이브니스 검사 장치는 영역(1134)의 차이 값을 최소 맵 영상(650)에서 영역(1134)에 대응하는 영역(1150)의 픽셀 값으로 결정할 수 있다. 또는, 라이브니스 검사 장치는 영역(1134)를 포함하는 제3 저해상도 차영상(836)에 대응하는 쉬프트 인덱스(예: -1)를 최소 맵 영상(650)의 영역(1150)의 픽셀 값으로 결정할 수도 있다.Referring to FIG. 11A , a
도 11b를 참조하면, 제1 저해상도 차영상(832)의 영역(1162), 제2 저해상도 차영상(834)의 영역(1164), 제3 저해상도 차영상(836)의 영역(1166), 제4 저해상도 차영상(838)의 영역(1168) 및 제5 저해상도 차영상(840)의 영역(1170)은 서로 대응되는 영역들이다. 라이브니스 검사 장치는 도 11a에서와 유사하게 영역(1162), 영역(1164), 영역(1166), 영역(1168) 및 영역(1170)이 나타내는 차이 값들 중 차이 값이 가장 작은 것을 식별한다. 만약, 영역(1168)의 차이 값이 다른 영역들(1162, 1164, 1166, 1170)의 차이 값들보다 작다고 가정하면, 라이브니스 검사 장치는 영역(1168)의 차이 값을 최소 맵 영상(650)에서 영역(1168)에 대응하는 영역(1180)의 픽셀 값으로 결정할 수 있다. 또는, 라이브니스 검사 장치는 영역(1168)를 포함하는 제4 저해상도 차영상(838)의 대응하는 쉬프트 인덱스(예: +1)를 최소 맵 영상(650)의 영역(1180)의 픽셀 값으로 결정할 수도 있다.Referring to FIG. 11B , an
라이브니스 검사 장치는 저해상도 차영상들(640)의 모든 대응 영역들에 대해 위와 같은 과정을 수행하여 최소 맵 영상(650)을 결정할 수 있다. 최소 차이 값들로 최소 맵 영상(650)의 픽셀 값들을 구성하면 최소 차이 값 맵 영상(예: 도 9의 최소 차이 값 맵 영상(934))이 생성되고, 쉬프트 인덱스들로 최소 맵 영상(650)의 픽셀 값들을 구성하면 최소 인덱스 맵 영상(예: 도 9의 최소 인덱스 맵 영상(932))이 생성된다. 최소 맵 영상(650)이 결정된 이후에, 최소 맵 영상(650)과 최소 맵 영상(650)의 해상도와 동일한 해상도로 조절된 위상 영상들이 라이브니스 검사 모델에 입력될 수 있다.The liveness inspection apparatus may determine the
도 12는 일 실시예에 따른 라이브니스 검사 장치의 구성을 도시한 도면이다.12 is a diagram illustrating a configuration of a liveness testing apparatus according to an exemplary embodiment.
도 12를 참조하면, 라이브니스 검사 장치(1200)는 프로세서(1210) 및 메모리(1220)를 포함한다. 메모리(1220)는 프로세서(1210)에 연결되고, 프로세서(1210)에 의해 실행가능한 명령어들, 프로세서(1210)가 연산할 데이터 또는 프로세서(1210)에 의해 처리된 데이터를 저장할 수 있다. 메모리(1220)는 고속 랜덤 액세스 메모리 및/또는 비휘발성 컴퓨터 판독가능 저장 매체(예: 플래쉬 메모리)를 포함할 수 있다.Referring to FIG. 12 , the
프로세서(1210)는 도 1 내지 도 11b를 참조하여 설명된 하나 이상의 동작을 실행하기 위한 명령어들을 실행할 수 있다. 프로세서(1210)는 멀티 위상 검출 센서(1240)에 의해 획득된 서로 다른 위상의 위상 영상들을 수신하고, 위상 영상들에 엣지 강화 처리를 포함하는 전처리를 수행하여 전처리된 위상 영상들을 생성할 수 있다. 프로세서(1210)는 위상 영상들에서 노이즈를 제거하고, 위상 영상들 각각에 나타난 객체의 엣지 영역을 강화하는 처리를 수행할 수 있다. 프로세서(1210) 전처리된 위상 영상들에 기초하여 차영상들을 생성하고, 차영상들보다 낮은 해상도를 가지는 저해상도 차영상들을 생성할 수 있다. 프로세서(1210)는 차영상에서 각 패치 영역별로 가장 큰 픽셀 값을 추출하고, 추출된 가장 큰 픽셀 값에 기초하여 저해상도 차영상을 생성할 수 있다. 다른 예로, 프로세서(1210)는 차영상에서 각 패치 영역별로 픽셀 영역 내 픽셀 값들에 대한 평균 값을 결정하고, 각 패치 영역에 대응하는 평균 값에 기초하여 저해상도 차영상을 생성할 수 있다.The
프로세서(1210)는 저해상도 차영상들에 기초하여 최소 맵 영상을 생성한다. 프로세서(1210)는 저해상도 차영상들 간에 서로 대응하는 영역의 차이 값들 중 최소 차이 값을 식별하고, 식별된 최소 차이 값에 기초하여 최소 맵 영상의 픽셀 값을 결정할 수 있다. 최소 맵 영상의 픽셀 값은 선택된 최소 차이 값에 해당하거나, 또는 차영상들 중에서 최소 차이 값을 포함하는 저해상도 차영상에 대응하는 이동 변위의 인덱스에 해당할 수 있다. 프로세서(1210)는 최소 맵 영상에 기초하여 위상 영상들에 나타난 객체에 대해 라이브니스 검사를 수행할 수 있다. 프로세서(1210)는 최소 맵 영상 및 위상 영상들을 뉴럴 네트워크 기반의 라이브니스 검사 모델(예: 도 6의 라이브니스 검사 모델(670))에 적용하여 라이브니스 검사 결과를 획득할 수 있다. 라이브니스 검사 모델에 적용되는 위상 영상들의 해상도는 최소 맵 영상의 해상도에 상응하도록 조정된 것일 수 있다. 라이브니스 검사 모델은 검사 결과로서 라이브니스 스코어를 출력할 수 있고, 프로세서(1210)는 라이브니스 스코어와 임계 값 간의 비교 결과에 기초하여 객체가 진짜 객체인지 아니면 가짜 객체인지 여부를 결정할 수 있다.The
도 13은 일 실시예에 따른 전자 장치의 구성을 도시하는 도면이다.13 is a diagram illustrating a configuration of an electronic device according to an exemplary embodiment.
도 13을 참조하면, 전자 장치(1300)(예: 도 1의 전자 장치(120))는 객체를 촬영한 입력 영상(예: 위상 영상)을 생성하고, 입력 영상에 나타난 객체의 라이브니스 여부를 검사할 수 있다. 또한, 전자 장치(1300)는 객체의 라이브니스 검사 결과에 기초하여 생체 인증(예: 얼굴 인증 및 홍채 인증)을 수행할 수 있다. 전자 장치(1300)는 도 12의 라이브니스 검사 장치(1200)의 기능을 수행할 수 있다.Referring to FIG. 13 , the electronic device 1300 (eg, the
전자 장치(1300)는 프로세서(1310), 메모리(1320), 영상 센서(1330), 저장 장치(1350), 입력 장치(1360), 출력 장치(1370) 및 통신 장치(1380)를 포함할 수 있다. 프로세서(1310), 메모리(1320), 영상 센서(1330), 저장 장치(1350), 입력 장치(1360), 출력 장치(1370) 및 통신 장치(1380)는 통신 버스(1390)를 통해 서로 통신할 수 있다.The
프로세서(1310)는 전자 장치(1300) 내에서 실행하기 위한 기능 및 명령어들을 실행한다. 프로세서(1310)는 메모리(1320) 또는 저장 장치(1350)에 저장된 명령어들을 처리할 수 있다. 프로세서(1310)는 도 1 내지 도 12를 통하여 설명된 하나 이상의 동작을 수행할 수 있다. 프로세서(1310)는 영상 센서(1330)를 통해 획득된 서로 다른 위상의 위상 영상들에 엣지 강화 처리를 포함하는 전처리를 수행하여 전처리된 위상 영상들을 생성하고, 전처리된 위상 영상들에 기초하여 차영상들을 생성할 수 있다. 프로세서(1310)는 차영상들보다 낮은 해상도를 가지는 저해상도 차영상들을 생성하고, 저해상도 차영상들에 기초하여 최소 맵 영상을 생성할 수 있다. 프로세서(1310)는 최소 맵 영상에 기초하여 위상 영상들에 나타난 객체에 대해 라이브니스 검사를 수행한다. 프로세서(1310)는 최소 맵 영상 및 위상 영상들을 뉴럴 네트워크 기반의 라이브니스 검사 모델(예: 도 6의 라이브니스 검사 모델(670))에 적용하여 라이브니스 스코어를 획득하고, 라이브니스 스코어와 임계 값 간의 비교 결과에 기초하여 라이브니스 검사 결과를 결정할 수 있다.The
메모리(1320)는 라이브니스 검사를 수행하기 위한 데이터를 저장한다. 메모리(1320)는 프로세서(1310)에 의해 실행하기 위한 명령어들과 라이브니스 검사 및/또는 생체 인증을 수행하기 위한 정보를 저장할 수 있다.The
영상 센서(1330)는 객체를 촬영하여 영상을 생성할 수 있다. 영상 센서(1330)는 서로 다른 위상의 위상 영상들을 획득하는 멀티 위상 검출 센서(예: 2PD 센서 또는 QPD 센서 등)를 포함할 수 있다. The
저장 장치(1350)는 컴퓨터 판독가능한 저장 매체를 포함한다. 저장 장치(1350)는 메모리(1320)보다 더 많은 양의 정보를 저장하고, 정보를 장기간 저장할 수 있다. 저장 장치(1350)는 자기 하드 디스크, 광 디스크, 플래쉬 메모리 또는 플로피 디스크를 포함할 수 있다.The
입력 장치(1360)는 촉각, 비디오, 오디오 또는 터치 입력을 통해 사용자로부터 입력을 수신할 수 있다. 입력 장치(1360)는 키보드, 마우스, 터치 스크린, 마이크로폰, 또는 사용자로부터 입력을 검출하고, 검출된 입력을 전자 장치(1300)에 전달할 수 있는 임의의 다른 장치를 포함할 수 있다.The
출력 장치(1370)는 시각적, 청각적 또는 촉각적인 채널을 통해 사용자에게 전자 장치(1300)의 출력을 제공할 수 있다. 출력 장치(1370)는 디스플레이, 터치 스크린, 스피커, 진동 발생 장치 또는 사용자에게 출력을 제공할 수 있는 임의의 다른 장치를 포함할 수 있다. 통신 장치(1380)는 유선 또는 무선 네트워크를 통해 외부 장치와 통신할 수 있다.The
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 실시예들에서 설명된 장치, 방법 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 해당 운영 체제 상에서 수행되는 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented by a hardware component, a software component, and/or a combination of a hardware component and a software component. The apparatus, method and components described in the embodiments include a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), a programmable logic unit (PLU) ), a microprocessor, or any other device capable of executing and responding to instructions, may be implemented using a general purpose computer or special purpose computer. The processing device may execute an operating system (OS) and a software application executed on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include The processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or apparatus, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in a computer-readable recording medium.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있으며 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination, and the program instructions recorded on the medium are specially designed and configured for the embodiment, or are known and available to those skilled in the art of computer software. may be Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.
위에서 설명한 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 또는 복수의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware devices described above may be configured to operate as one or a plurality of software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 이를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited drawings, those of ordinary skill in the art may apply various technical modifications and variations based thereon. The described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components or equivalents Appropriate results can be achieved even if substituted or substituted by
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
Claims (20)
서로 다른 위상의 위상 영상들을 수신하는 단계;
상기 위상 영상들에 엣지 강화 처리를 포함하는 전처리를 수행하여 전처리된 위상 영상들을 생성하는 단계;
상기 전처리된 위상 영상들에 기초하여 차영상들(differential images)을 생성하는 단계;
상기 차영상들보다 낮은 해상도를 가지는 저해상도 차영상들을 생성하는 단계;
상기 저해상도 차영상들에 기초하여 최소 맵 영상을 생성하는 단계; 및
상기 최소 맵 영상에 기초하여 상기 위상 영상들에 나타난 객체에 대해 라이브니스 검사를 수행하는 단계
를 포함하는 라이브니스 검사 방법.
In the liveness test method,
receiving phase images of different phases;
generating preprocessed phase images by performing preprocessing including edge enhancement processing on the phase images;
generating differential images based on the preprocessed phase images;
generating low-resolution difference images having a lower resolution than the difference images;
generating a minimum map image based on the low-resolution difference images; and
performing a liveness check on the object displayed in the phase images based on the minimum map image
A liveness test method comprising a.
상기 전처리를 수행하는 단계는,
상기 위상 영상들에서 노이즈를 제거하고, 상기 위상 영상들 각각에 나타난 객체의 엣지 영역을 강화하는 처리를 수행하는 단계
를 포함하는 라이브니스 검사 방법.
According to claim 1,
Performing the pre-processing step,
removing noise from the phase images and performing a process of strengthening an edge region of an object displayed in each of the phase images
A liveness test method comprising a.
상기 전처리를 수행하는 단계는,
소벨 필터(Sobel filter), 비등방성 필터(anisotropic filter), 라플라시안 필터 및 캐니 엣지 필터 중 적어도 하나의 필터를 상기 위상 영상들 각각에 적용하여 엣지 강화 처리를 수행하는 단계
를 포함하는 라이브니스 검사 방법.
According to claim 1,
Performing the pre-processing step,
performing edge enhancement processing by applying at least one of a Sobel filter, an anisotropic filter, a Laplacian filter, and a Canny edge filter to each of the phase images
A liveness test method comprising a.
상기 저해상도 차영상들을 생성하는 단계는,
차영상에서 각 패치 영역별로 가장 큰 픽셀 값을 추출하는 단계; 및
상기 추출된 가장 큰 픽셀 값에 기초하여 저해상도 차영상을 생성하는 단계
를 포함하는 라이브니스 검사 방법.
According to claim 1,
The step of generating the low-resolution difference images comprises:
extracting the largest pixel value for each patch region from the difference image; and
generating a low-resolution difference image based on the extracted largest pixel value
A liveness test method comprising a.
상기 저해상도 차영상들을 생성하는 단계는,
차영상에서 각 패치 영역별로 픽셀 영역 내 픽셀 값들에 대한 평균 값을 결정하는 단계; 및
각 패치 영역에 대응하는 상기 평균 값에 기초하여 저해상도 차영상을 생성하는 단계
를 포함하는 라이브니스 검사 방법.
According to claim 1,
The step of generating the low-resolution difference images comprises:
determining an average value of pixel values within a pixel area for each patch area in the difference image; and
generating a low-resolution difference image based on the average value corresponding to each patch region;
A liveness test method comprising a.
상기 전처리된 위상 영상들은,
전처리된 제1 위상 영상 및 전처리된 제2 위상 영상을 포함하고,
상기 차영상들을 생성하는 단계는,
상기 전처리된 제2 위상 영상을 서로 다른 이동 변위로 쉬프트(shift)하여 쉬프트된(shifted) 제2 위상 영상들을 생성하는 단계; 및
상기 쉬프트된 제2 위상 영상들 각각과 상기 전처리된 제1 위상 영상 간의 픽셀 값 차이를 나타내는 차영상들 및 상기 전처리된 제2 위상 영상과 상기 전처리된 제1 위상 영상 간의 픽셀 값 차이를 나타내는 차영상을 생성하는 단계
를 포함하는 라이브니스 검사 방법.
According to claim 1,
The pre-processed phase images are
comprising a preprocessed first phase image and a preprocessed second phase image,
The step of generating the difference images comprises:
generating shifted second phase images by shifting the preprocessed second phase image by different shift displacements; and
Difference images representing a pixel value difference between each of the shifted second phase images and the preprocessed first phase image, and a difference image representing a pixel value difference between the preprocessed second phase image and the preprocessed first phase image steps to create
A liveness test method comprising a.
상기 최소 맵 영상을 생성하는 단계는,
상기 저해상도 차영상들 간에 서로 대응하는 영역의 차이 값들 중 최소 차이 값을 식별하는 단계; 및
상기 최소 차이 값에 기초하여 상기 최소 맵 영상의 픽셀 값을 결정하는 단계
를 포함하는 라이브니스 검사 방법.
According to claim 1,
The step of generating the minimum map image comprises:
identifying a minimum difference value among difference values of regions corresponding to each other between the low-resolution difference images; and
determining a pixel value of the minimum map image based on the minimum difference value;
A liveness test method comprising a.
상기 최소 맵 영상의 상기 픽셀 값은,
상기 최소 차이 값에 해당하거나, 또는 상기 저해상도 차영상들 중에서 상기 최소 차이 값을 포함하는 저해상도 차영상에 대응하는 이동 변위의 인덱스에 해당하는,
라이브니스 검사 방법.
8. The method of claim 7,
The pixel value of the minimum map image is,
Corresponding to the index of movement displacement corresponding to the minimum difference value or corresponding to the low-resolution difference image including the minimum difference value among the low-resolution difference images,
How to check liveness.
상기 라이브니스 검사를 수행하는 단계는,
상기 최소 맵 영상 및 상기 위상 영상들을 뉴럴 네트워크 기반의 라이브니스 검사 모델에 적용하여 라이브니스 검사 결과를 획득하는 단계
를 포함하는 라이브니스 검사 방법.
According to claim 1,
The step of performing the liveness test comprises:
obtaining a liveness test result by applying the minimum map image and the phase images to a neural network-based liveness test model;
A liveness test method comprising a.
상기 라이브니스 검사 모델에 적용되는 상기 위상 영상들의 해상도는, 상기 최소 맵 영상의 해상도에 상응하도록 조정된 것인,
라이브니스 검사 방법.
10. The method of claim 9,
The resolution of the phase images applied to the liveness test model is adjusted to correspond to the resolution of the minimum map image,
How to check liveness.
상기 서로 다른 위상의 위상 영상들은 멀티 위상 검출 센서를 이용하여 획득된 것인,
라이브니스 검사 방법.
According to claim 1,
The phase images of the different phases are obtained using a multi-phase detection sensor,
How to check liveness.
A computer-readable recording medium storing one or more computer programs including instructions for performing the method of any one of claims 1 to 11.
프로세서; 및
상기 프로세서에서 실행가능한 명령어들을 포함하는 메모리
를 포함하고,
상기 명령어들이 상기 프로세서에 의해 실행되면, 상기 프로세서는,
서로 다른 위상의 위상 영상들에 엣지 강화 처리를 포함하는 전처리를 수행하여 전처리된 위상 영상들을 생성하고,
상기 전처리된 위상 영상들에 기초하여 차영상들을 생성하고,
상기 차영상들보다 낮은 해상도를 가지는 저해상도 차영상들을 생성하고,
상기 저해상도 차영상들에 기초하여 최소 맵 영상을 생성하고,
상기 최소 맵 영상에 기초하여 상기 위상 영상들에 나타난 객체에 대해 라이브니스 검사를 수행하는,
라이브니스 검사 장치.
A liveness test apparatus comprising:
processor; and
memory containing instructions executable by the processor
including,
When the instructions are executed by the processor, the processor:
Performing preprocessing including edge enhancement processing on phase images of different phases to generate preprocessed phase images,
generating difference images based on the pre-processed phase images;
generating low-resolution difference images having a lower resolution than the difference images;
Generate a minimum map image based on the low-resolution difference images,
performing a liveness check on the object shown in the phase images based on the minimum map image,
Liveness check device.
상기 프로세서는,
상기 위상 영상들에서 노이즈를 제거하고, 상기 위상 영상들 각각에 나타난 객체의 엣지 영역을 강화하는 처리를 수행하는,
라이브니스 검사 장치.
14. The method of claim 13,
The processor is
removing noise from the phase images and performing a process of strengthening an edge region of an object appearing in each of the phase images,
Liveness check device.
상기 프로세서는,
차영상에서 각 패치 영역별로 가장 큰 픽셀 값을 추출하고, 상기 추출된 가장 큰 픽셀 값에 기초하여 저해상도 차영상을 생성하는,
라이브니스 검사 장치.
14. The method of claim 13,
The processor is
extracting the largest pixel value for each patch region from the difference image, and generating a low-resolution difference image based on the extracted largest pixel value,
Liveness check device.
상기 프로세서는,
차영상에서 각 패치 영역별로 픽셀 영역 내 픽셀 값들에 대한 평균 값을 결정하고, 각 패치 영역에 대응하는 상기 평균 값에 기초하여 저해상도 차영상을 생성하는,
라이브니스 검사 장치.
14. The method of claim 13,
The processor is
determining an average value of pixel values in a pixel region for each patch region in the difference image, and generating a low-resolution difference image based on the average value corresponding to each patch region,
Liveness check device.
상기 프로세서는,
상기 저해상도 차영상들 간에 서로 대응하는 영역의 차이 값들 중 최소 차이 값을 식별하고, 상기 최소 차이 값에 기초하여 상기 최소 맵 영상의 픽셀 값을 결정하는,
라이브니스 검사 장치.
14. The method of claim 13,
The processor is
identifying a minimum difference value among difference values of regions corresponding to each other between the low-resolution difference images, and determining a pixel value of the minimum map image based on the minimum difference value;
Liveness check device.
상기 프로세서는,
상기 최소 맵 영상 및 상기 위상 영상들을 뉴럴 네트워크 기반의 라이브니스 검사 모델에 적용하여 라이브니스 검사 결과를 획득하고,
상기 라이브니스 검사 모델에 적용되는 상기 위상 영상들의 해상도는, 상기 최소 맵 영상의 해상도에 상응하도록 조정된 것인,
라이브니스 검사 장치.
14. The method of claim 13,
The processor is
obtaining a liveness test result by applying the minimum map image and the phase images to a neural network-based liveness test model;
The resolution of the phase images applied to the liveness test model is adjusted to correspond to the resolution of the minimum map image,
Liveness check device.
서로 다른 위상의 위상 영상들을 획득하는 멀티 위상 검출 센서; 및
상기 위상 영상들에 기초하여 라이브니스 검사를 수행하는 프로세서
를 포함하고,
상기 프로세서는,
서로 다른 위상의 위상 영상들에 엣지 강화 처리를 포함하는 전처리를 수행하여 전처리된 위상 영상들을 생성하고,
상기 전처리된 위상 영상들에 기초하여 차영상들을 생성하고,
상기 차영상들보다 낮은 해상도를 가지는 저해상도 차영상들을 생성하고,
상기 저해상도 차영상들에 기초하여 최소 맵 영상을 생성하고,
상기 최소 맵 영상에 기초하여 상기 위상 영상들에 나타난 객체에 대해 라이브니스 검사를 수행하는,
전자 장치.
An electronic device for performing a liveness check of an object, the electronic device comprising:
a multi-phase detection sensor that acquires phase images of different phases; and
A processor that performs a liveness check based on the phase images
including,
The processor is
Performing preprocessing including edge enhancement processing on phase images of different phases to generate preprocessed phase images,
generating difference images based on the pre-processed phase images;
generating low-resolution difference images having a lower resolution than the difference images,
Generate a minimum map image based on the low-resolution difference images,
performing a liveness check on the object shown in the phase images based on the minimum map image,
electronic device.
상기 프로세서는,
상기 위상 영상들에서 노이즈를 제거하고, 상기 위상 영상들 각각에 나타난 객체의 엣지 영역을 강화하는 처리를 수행하고,
차영상에서 각 패치 영역별로 가장 큰 픽셀 값을 추출하고, 상기 추출된 가장 큰 픽셀 값에 기초하여 저해상도 차영상을 생성하는,
전자 장치.20. The method of claim 19,
The processor is
removing noise from the phase images and performing a process of strengthening an edge region of an object displayed in each of the phase images;
extracting the largest pixel value for each patch region from the difference image, and generating a low-resolution difference image based on the extracted largest pixel value,
electronic device.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/313,437 US11694480B2 (en) | 2020-07-27 | 2021-05-06 | Method and apparatus with liveness detection |
CN202110760548.6A CN113992812A (en) | 2020-07-27 | 2021-07-06 | Method and apparatus for activity detection |
EP21187428.4A EP3958170B1 (en) | 2020-07-27 | 2021-07-23 | Method and apparatus with liveness detection |
US18/197,883 US20230306791A1 (en) | 2020-07-27 | 2023-05-16 | Method and apparatus with liveness detection |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20200093137 | 2020-07-27 | ||
KR1020200093137 | 2020-07-27 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220013882A true KR20220013882A (en) | 2022-02-04 |
Family
ID=80268193
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200178770A KR20220013882A (en) | 2020-07-27 | 2020-12-18 | Method and apparatus for testing liveness using multi-phase detection sensor |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20220013882A (en) |
-
2020
- 2020-12-18 KR KR1020200178770A patent/KR20220013882A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102455633B1 (en) | Liveness test method and apparatus | |
KR102483642B1 (en) | Method and apparatus for liveness test | |
US11030470B2 (en) | Apparatus and method with liveness verification | |
US11023757B2 (en) | Method and apparatus with liveness verification | |
CN110852160B (en) | Image-based biometric identification system and computer-implemented method | |
KR102667740B1 (en) | Device and method for matching image | |
KR20200032206A (en) | Face recognition unlocking method and device, device, medium | |
KR102415509B1 (en) | Face verifying method and apparatus | |
KR102352345B1 (en) | Liveness test method and apparatus | |
KR102476016B1 (en) | Apparatus and method for determining position of eyes | |
US11227149B2 (en) | Method and apparatus with liveness detection and object recognition | |
KR20210069404A (en) | Liveness test method and liveness test apparatus | |
KR20210062381A (en) | Liveness test method and liveness test apparatus, biometrics authentication method and biometrics authentication apparatus | |
KR20170002892A (en) | Method and apparatus for detecting fake fingerprint, method and apparatus for recognizing fingerprint | |
US20230306791A1 (en) | Method and apparatus with liveness detection | |
CN106778613A (en) | A kind of auth method and device based on the matching of face cut zone | |
US20210200992A1 (en) | Techniques for robust anti-spoofing in biometrics using polarization cues for nir and visible wavelength band | |
US20230091865A1 (en) | Face image verification method and apparatus, electronic device, and storage medium | |
CN113642639B (en) | Living body detection method, living body detection device, living body detection equipment and storage medium | |
KR102558736B1 (en) | Method and apparatus for recognizing finger print | |
JP2021136012A (en) | Method and apparatus for detecting liveness based on phase difference | |
CN113033305A (en) | Living body detection method, living body detection device, terminal equipment and storage medium | |
KR20200083188A (en) | Method and apparatus for detecting liveness and object recognition method using same | |
KR20210128274A (en) | Method and apparatus for testing liveness | |
KR20220013882A (en) | Method and apparatus for testing liveness using multi-phase detection sensor |