KR20220150868A - Method of motion vector and feature vector based fake face detection and apparatus for the same - Google Patents
Method of motion vector and feature vector based fake face detection and apparatus for the same Download PDFInfo
- Publication number
- KR20220150868A KR20220150868A KR1020220142359A KR20220142359A KR20220150868A KR 20220150868 A KR20220150868 A KR 20220150868A KR 1020220142359 A KR1020220142359 A KR 1020220142359A KR 20220142359 A KR20220142359 A KR 20220142359A KR 20220150868 A KR20220150868 A KR 20220150868A
- Authority
- KR
- South Korea
- Prior art keywords
- face
- fake
- fake face
- motion vector
- real
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/95—Pattern authentication; Markers therefor; Forgery detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/469—Contour-based spatial representations, e.g. vector-coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/169—Holistic features and representations, i.e. based on the facial image taken as a whole
Abstract
Description
본 발명은 위조 얼굴 검출에 관한 것으로, 보다 구체적으로는 모션벡터 및 특징벡터에 기반하여 위조 얼굴을 검출하는 방법, 장치, 소프트웨어, 이러한 소프트웨어가 저장된 기록 매체에 대한 것이다.The present invention relates to detecting a fake face, and more particularly, to a method, apparatus, and software for detecting a fake face based on a motion vector and a feature vector, and a recording medium storing such software.
신원 확인, 출입 관리 등의 다양한 목적으로 얼굴 인식 기술에 대한 수요가 증가하고 있다. 정확한 얼굴 인식을 위해서, 카메라를 통해서 획득된 이미지가 위조 얼굴인지를 검출하는 것이 요구된다. 예를 들어, 카메라를 통해서 획득된 이미지가 실제 얼굴을 촬영한 것인지, 아니면 위조된 피사체를 촬영한 것인지(예를 들어, 얼굴 사진을 촬영한 것인지, 얼굴 영상이 재생되는 디스플레이를 촬영한 것인지)를 판별하는 기술이 요구된다. Demand for face recognition technology is increasing for various purposes such as identification and access control. For accurate face recognition, it is required to detect whether an image acquired through a camera is a fake face. For example, whether the image acquired through the camera is a real face or a fake subject (for example, whether a face photo is taken or a display on which a face image is played) is determined. Discrimination skills are required.
종래의 위조 얼굴 검출 기술은 적외선 카메라 또는 열적외선 카메라 등의 장비를 이용하여 실제 사람의 얼굴의 열이 감지되는지 여부에 따라 위조 여부를 판별할 수 있다. 그러나, 이를 위해서는 고가의 적외선 카메라가 별도로 구비되기 때문에 일반적인 카메라에 적용하기 어렵다. Conventional counterfeit face detection technology may determine whether or not a fake face is faked based on whether heat of a real person's face is detected using equipment such as an infrared camera or a thermal infrared camera. However, since an expensive infrared camera is separately provided for this purpose, it is difficult to apply it to a general camera.
한편, 일반적으로 사용되는 RGB 카메라를 이용한 위조 얼굴 검출 기술에 따르면, 눈이나 입 주변의 제한적인 움직임을 검출하거나, 배경과 얼굴 객체의 움직임을 검출하여, 검출된 결과에 가중치를 적용하여 수치화하고, 이를 이용하여 위조 여부를 판별할 수 있다. 그러나, 단순히 눈이나 입의 움직임을 이용하는 기술에서는, 고해상도 컬러 프린터를 이용하여 눈이나 입과 같은 특정 부위가 정밀하게 인쇄된 사진을 이용하거나 실제 눈이나 입의 움직임에 따라 모델링하는 방식이 적용된다면, 위조 여부를 판별하지 못할 수도 있다. 또한, 얼굴 인식 장치가 설치된 환경과 동일 또는 유사한 배경에서 촬영된 고해상도 이미지를 재생(replay)하는 경우 종래의 얼굴 인식 시스템에서는 위조 여부를 판별하지 못할 수도 있다. 이와 같이, 종래의 위조 얼굴 판별 기술은 눈이나 입 등의 얼굴의 특징(feature)에 대한 데이터에 기반하기 때문에, 사람마다 실제 얼굴과 위조 얼굴의 특징의 차이점을 반영하지 못하여, 위조 얼굴 판별의 정확도가 낮은 문제가 있다. On the other hand, according to the fake face detection technology using a commonly used RGB camera, limited motion around the eyes or mouth is detected, or motion of the background and face object is detected, and a weight is applied to the detected result to digitize it, This can be used to detect forgery. However, in the technology that simply uses the movement of the eyes or mouth, if a high-resolution color printer is used to precisely print a specific part such as the eye or mouth, or if a method of modeling according to the movement of the actual eye or mouth is applied, It may not be possible to determine whether it is counterfeit. In addition, when replaying a high-resolution image taken in the same or similar background as the environment in which the face recognition device is installed, the conventional face recognition system may not be able to determine whether it is forged or not. In this way, since the conventional fake face discrimination technology is based on data on facial features such as eyes and mouth, it cannot reflect the difference between the characteristics of the real face and the fake face for each person, and thus the accuracy of fake face discrimination There is a problem with low
본 발명은 모션 벡터와 특징 벡터를 결합하여 위조 얼굴의 검출 확률을 획기적으로 높이는 방법 및 장치를 제공하는 것을 기술적 과제로 한다. A technical problem of the present invention is to provide a method and apparatus for remarkably increasing the probability of detecting a fake face by combining a motion vector and a feature vector.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below. You will be able to.
본 발명의 일 양상에 따르면 위조 얼굴을 검출하는 방법은, 이미지 획득 장치로부터 획득된 영상에 대한 모션 벡터를 추출하는 단계; 상기 획득된 영상에 대한 특징 벡터를 추출하는 단계; 및 상기 모션 벡터에 기반한 위조 얼굴 분류를 수행하고, 상기 특징 벡터에 기반한 위조 얼굴 분류를 수행하여, 위조 얼굴 여부를 판정하는 단계를 포함할 수 있다. According to one aspect of the present invention, a method for detecting a fake face includes extracting a motion vector for an image obtained from an image acquisition device; extracting a feature vector for the obtained image; and performing fake face classification based on the motion vector and fake face classification based on the feature vector to determine whether or not the fake face is a fake face.
본 발명의 다른 양상에 따르면 위조 얼굴을 검출하는 장치는, 이미지 획득 장치로부터 획득된 영상에 대한 모션 벡터를 추출하는 모션 벡터 추출부; 상기 획득된 영상에 대한 특징 벡터를 추출하는 특징 벡터 추출부; 상기 모션 벡터에 기반한 위조 얼굴 분류기; 및 상기 특징 벡터에 기반한 위조 얼굴 분류기를 포함할 수 있다. 상기 모션 벡터에 기반한 위조 얼굴 분류기의 분류 결과 및 상기 특징 벡터에 기반한 위조 얼굴 분류기의 분류 결과에 기초하여 위조 얼굴 여부가 판정될 수 있다. According to another aspect of the present invention, an apparatus for detecting a fake face includes a motion vector extractor extracting a motion vector for an image obtained from an image acquisition apparatus; a feature vector extractor extracting a feature vector for the obtained image; a fake face classifier based on the motion vector; and a fake face classifier based on the feature vector. Whether or not a fake face is determined may be determined based on a classification result of the fake face classifier based on the motion vector and a classification result of the fake face classifier based on the feature vector.
본 발명의 또 다른 양상에 따르면 위조 얼굴 검출 장치에 의해 실행가능한 명령들을 가지는 소프트웨어가 저장된 컴퓨터-판독가능한 매체가 제공될 수 있다. 상기 실행가능한 명령들은, 상기 위조 얼굴 검출 장치로 하여금, 이미지 획득 장치로부터 획득된 영상에 대한 모션 벡터를 추출하고, 상기 획득된 영상에 대한 특징 벡터를 추출하고, 상기 모션 벡터에 기반한 위조 얼굴 분류를 수행하고, 상기 특징 벡터에 기반한 위조 얼굴 분류를 수행하여, 위조 얼굴 여부를 판정하도록 할 수 있다.According to another aspect of the present invention, a computer-readable medium storing software having instructions executable by a fake face detection device may be provided. The executable instructions may cause the fake face detection device to extract a motion vector for an image obtained from an image acquisition device, extract a feature vector for the obtained image, and classify a fake face based on the motion vector. and, by performing fake face classification based on the feature vector, it is possible to determine whether or not the face is fake.
본 발명의 다양한 양상들에 있어서, 상기 모션 벡터에 기반한 위조 얼굴 분류, 또는 상기 특징 벡터에 기반한 위조 얼굴 분류 중의 하나 이상에서 위조 얼굴이라고 분류되는 경우, 최종적으로 위조 얼굴이라고 판정될 수 있다. In various aspects of the present invention, when the fake face is classified as a fake face in one or more of the motion vector-based fake face classification and the feature vector-based fake face classification, it may be finally determined to be a fake face.
본 발명의 다양한 양상들에 있어서, 상기 모션 벡터에 기반한 위조 얼굴 분류, 및 상기 특징 벡터에 기반한 위조 얼굴 분류 모두에서 실제 얼굴이라고 분류되는 경우, 개인별 위조 얼굴 분류가 추가적으로 수행될 수 있다. In various aspects of the present invention, when the fake face is classified as a real face in both the fake face classification based on the motion vector and the fake face classification based on the feature vector, individual fake face classification may be additionally performed.
본 발명의 다양한 양상들에 있어서, 상기 개인별 위조 얼굴 분류는, 개인별 실제 얼굴 데이터, 개인별 실제 위조 얼굴 데이터, 또는 변환된 개인별 위조 얼굴 데이터 중의 하나 이상을 이용하여 학습된 분류기에 의해서 수행될 수 있다. In various aspects of the present invention, the fake face classification for each individual may be performed by a classifier trained using one or more of real face data for each individual, real fake face data for each individual, or converted fake face data for each individual.
본 발명의 다양한 양상들에 있어서, 상기 개인별 실제 위조 얼굴 데이터는, 개인별 실제 얼굴을 촬영한 사진 또는 동영상을 촬영한 결과물일 수 있다. In various aspects of the present invention, the real fake face data for each individual may be a result of taking a photo or video of each individual's real face.
본 발명의 다양한 양상들에 있어서, 상기 변환된 위조 얼굴 데이터는, 상기 실제 위조 얼굴 데이터에 변환 행렬이 적용됨으로써 획득되며, 상기 변환 행렬은 적응적으로 업데이트될 수 있다.In various aspects of the present invention, the transformed fake face data is obtained by applying a transformation matrix to the real fake face data, and the transformation matrix may be adaptively updated.
본 발명의 다양한 양상들에 있어서, 상기 획득된 영상으로부터 얼굴 랜드마크를 검출하는 단계를 더 포함하고, 상기 특징 벡터는 검출된 얼굴 랜드마크에 대한 기하학적인 특징을 표현하는 기술자(descriptor) 정보일 수 있다. In various aspects of the present invention, the step of detecting a facial landmark from the acquired image may be further included, and the feature vector may be descriptor information representing a geometric feature of the detected facial landmark. have.
본 발명의 다양한 양상들에 있어서, 상기 획득된 영상으로부터 얼굴 랜드마크를 검출하는 단계를 더 포함하고, 상기 모션 벡터는 검출된 얼굴 랜드마크의 움직임의 크기 및 방향을 나타내는 정보일 수 있다. In various aspects of the present invention, the method may further include detecting a facial landmark from the acquired image, and the motion vector may be information indicating the size and direction of motion of the detected facial landmark.
본 발명의 다양한 양상들에 있어서, 상기 모션 벡터에 기반한 위조 얼굴 분류는, 실제 얼굴에 대한 모션 벡터 특징 모델과, 위조 얼굴에 대한 모션 벡터 특징모델에 기반하여, 상기 획득된 영상의 위조 여부를 판정하는 단계를 포함할 수 있다. In various aspects of the present invention, the fake face classification based on the motion vector determines whether the obtained image is fake based on a motion vector feature model for a real face and a motion vector feature model for the fake face. steps may be included.
본 발명의 다양한 양상들에 있어서, 상기 위조 얼굴에 대한 모션 벡터 특징 모델은, 사진을 이용한 위조 얼굴에 대한 모션 벡터 특징 모델과, 동영상을 이용한 위조 얼굴에 대한 모션 벡터 특징 모델을 포함할 수 있다. In various aspects of the present invention, the motion vector feature model for the fake face may include a motion vector feature model for the fake face using a photo and a motion vector feature model for the fake face using a video.
본 발명의 다양한 양상들에 있어서, 상기 모션 벡터에 기반한 위조 얼굴 분류는, 제 1 영역, 제 2 영역 및 제 3 영역의 각각에 대해서, 상기 획득된 영상의 연속하는 두 프레임 간에 관측되는 움직임 패턴을 계산하는 단계를 포함하고, 상기 제 3 영역은 상기 제 2 영역을 포함하고, 상기 제 2 영역은 상기 제 1 영역을 포함할 수 있다. In various aspects of the present invention, the fake face classification based on the motion vector is based on a motion pattern observed between two consecutive frames of the obtained image for each of the first area, the second area, and the third area. The method may include calculating, wherein the third area includes the second area, and the second area includes the first area.
본 발명의 다양한 양상들에 있어서, 상기 모션 벡터는, 상기 제 1, 제 2 및 제 3 영역의 각각에서 평균 벡터를 계산하고, 상기 제 1, 제 2 및 제 3 영역의 평균 벡터들을 결합함으로써 결정될 수 있다. In various aspects of the present invention, the motion vector may be determined by calculating an average vector in each of the first, second and third regions, and combining the average vectors of the first, second and third regions. can
본 발명의 다양한 양상들에 있어서, 상기 제 1 영역은 얼굴 영역이고, 상기 제 2 영역은 헤드 영역이고, 상기 제 3 영역은 배경 영역일 수 있다. In various aspects of the present invention, the first region may be a face region, the second region may be a head region, and the third region may be a background region.
본 발명의 다양한 양상들에 있어서, 상기 특징 벡터에 기반한 위조 얼굴 분류는, 하나 이상의 실제 얼굴 데이터, 하나 이상의 실제 위조 얼굴 데이터, 또는 하나 이상의 변환된 위조 얼굴 데이터 중의 하나 이상을 이용하여 학습된 분류기에 의해서 수행될 수 있다. In various aspects of the present invention, the fake face classification based on the feature vector is performed on a classifier learned using one or more of one or more real face data, one or more real fake face data, or one or more converted fake face data. can be performed by
본 발명의 다양한 양상들에 있어서, 상기 하나 이상의 실제 위조 얼굴 데이터의 각각은, 상기 하나 이상의 실제 얼굴을 촬영한 사진 또는 동영상을 촬영한 결과물의 각각에 대응할 수 있다.In various aspects of the present invention, each of the one or more real fake face data may correspond to each of a result of photographing a photo or video of the one or more real faces.
본 발명의 다양한 양상들에 있어서, 상기 하나 이상의 변환된 위조 얼굴 데이터의 각각은, 상기 하나 이상의 실제 위조 얼굴 데이터의 각각에 변환 행렬이 적용됨으로써 획득되며, 상기 변환 행렬은 적응적으로 업데이트될 수 있다.In various aspects of the present invention, each of the one or more transformed fake face data is obtained by applying a transformation matrix to each of the one or more real fake face data, and the transformation matrix may be adaptively updated. .
본 발명에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 발명의 상세한 설명의 예시적인 양상일 뿐이며, 본 발명의 범위를 제한하는 것은 아니다.The features briefly summarized above with respect to the present invention are only exemplary aspects of the detailed description of the present invention that follows, and do not limit the scope of the present invention.
본 발명에 모션 벡터와 특징 벡터를 결합하여 위조 얼굴의 검출 확률을 획기적으로 높이는 방법 및 장치가 제공될 수 있다. According to the present invention, a method and apparatus for remarkably increasing the probability of detecting a fake face by combining a motion vector and a feature vector may be provided.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. will be.
본 명세서에 첨부되는 도면은 본 발명에 대한 이해를 제공하기 위한 것으로서 본 발명의 다양한 실시형태들을 나타내고 명세서의 기재와 함께 본 발명의 원리를 설명하기 위한 것이다.
도 1은 얼굴 특징점에 기반한 위조 얼굴 검출 방법을 설명하기 위한 흐름도이다.
도 2는 얼굴 특징점과 배경의 변화를 이용한 위조 얼굴 검출을 설명하기 위한 블록도이다.
도 3은 본 발명에 따른 위조 얼굴 검출 장치의 구성과 동작을 설명하기 위한 도면이다.
도 4는 본 발명에 따른 모션 벡터 추출 영역을 설명하기 위한 도면이다.
도 5는 본 발명에 따른 모션 벡터를 추출하는 장치의 구성 및 동작을 설명하기 위한 도면이다.
도 6 내지 도 8은 본 발명에 따라서 획득된 모션 벡터의 예시들을 설명하기 위한 도면이다.
도 9는 본 발명에 따른 모션 벡터 위조 얼굴 분류기의 구성 및 동작을 설명하기 위한 도면이다.
도 10은 본 발명에 따른 모션 벡터 위조 얼굴 분류기를 이용하여 위조 얼굴을 판별하는 방법을 설명하기 위한 도면이다.
도 11은 본 발명에 따른 일반적인 위조 얼굴 분류기 및 개인별 위조 얼굴 분류기의 구성 및 동작을 설명하기 위한 도면이다.
도 12는 본 발명에 따른 위조 얼굴 특징점 데이터 생성부에서 이용가능한 변환 행렬에 대해서 설명하기 위한 도면이다.
도 13은 일반적인 위조 얼굴 분류기의 생성을 설명하기 위한 도면이다.
도 14는 개인별 위조 얼굴 분류기의 생성을 설명하기 위한 도면이다. The drawings accompanying this specification are intended to provide an understanding of the present invention, show various embodiments of the present invention, and explain the principles of the present invention together with the description of the specification.
1 is a flowchart illustrating a fake face detection method based on facial feature points.
2 is a block diagram for explaining fake face detection using changes in facial feature points and background.
3 is a diagram for explaining the configuration and operation of the fake face detection device according to the present invention.
4 is a diagram for explaining a motion vector extraction area according to the present invention.
5 is a diagram for explaining the configuration and operation of an apparatus for extracting a motion vector according to the present invention.
6 to 8 are diagrams for explaining examples of motion vectors obtained according to the present invention.
9 is a diagram for explaining the configuration and operation of a motion vector fake face classifier according to the present invention.
10 is a diagram for explaining a method of discriminating a fake face using a motion vector fake face classifier according to the present invention.
11 is a diagram for explaining the configuration and operation of a general fake face classifier and an individual fake face classifier according to the present invention.
12 is a diagram for explaining a transformation matrix usable in the fake facial feature point data generation unit according to the present invention.
13 is a diagram for explaining the generation of a general fake face classifier.
14 is a diagram for explaining creation of a fake face classifier for each individual.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고, 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily carry out the present invention. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And, in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.
도 1은 얼굴 특징점에 기반한 위조 얼굴 검출 방법을 설명하기 위한 흐름도이다. 1 is a flowchart illustrating a fake face detection method based on facial feature points.
단계 S110에서 카메라 등을 이용하여 촬영된 영상을 획득할 수 있다. 단계 S120에서 획득된 영상에서 얼굴 객체(예를 들어, 눈)을 검출할 수 있다. 단계 S130에서 변화량을 비교할 수 있도록 얼굴 영상 정규화를 수행할 수 있다. 단계 S140에서 변화량 측정의 주요 대상이 되는 특징점에 해당하는 영역(예를 들어, 눈 영역)을 이진화하여 저장할 수 있다. 단계 S150에서는 상기 단계 S110 내지 S140이 N회 반복되는지를 판정하고, 그렇지 않은 경우 단계 S110부터 다시 수행되고, N회 반복된 영상을 획득한 경우 단계 S160이 수행될 수 있다.In step S110, a photographed image may be acquired using a camera or the like. A facial object (eg, an eye) may be detected from the image acquired in step S120. In step S130, face image normalization may be performed to compare the amount of change. In step S140, a region (eg, an eye region) corresponding to a feature point, which is a main target of variation measurement, may be binarized and stored. In step S150, it is determined whether steps S110 to S140 are repeated N times, and if not, the steps are performed again from step S110. When an image repeated N times is obtained, step S160 may be performed.
단계 S160에서는 N 개의 정규화된 얼굴 영상과 각각의 얼굴 영상으로부터 추출된 특징점 영역(예를 들어, 눈 영역)의 이진화된 데이터를 기반으로 N 개의 얼굴 영상에서 특징점 영역의 변화량을 계산할 수 있다. 만약, 사진 등의 위조 얼굴에서는 눈 깜박임 등이 발생하지 않을 것이므로, 실제 얼굴 영상에 비하여 특징점 영역의 변화량이 매우 적을 수 있고, 이에 기반하여 위조 얼굴 여부를 판별할 수 있다.In step S160, the amount of change in feature point areas in the N face images may be calculated based on the N normalized face images and the binarized data of feature point areas (eg, eye areas) extracted from the respective face images. If eye blinking does not occur in a fake face such as a photo, the amount of change in the feature point area may be very small compared to the real face image, and based on this, it is possible to determine whether the face is fake.
도 2는 얼굴 특징점과 배경의 변화를 이용한 위조 얼굴 검출을 설명하기 위한 블록도이다. 2 is a block diagram for explaining fake face detection using changes in facial feature points and background.
영상 획득 블록(210)는 카메라를 통해 촬영된 영상을 획득하고, 획득된 영상을 얼굴 추출 블록(220) 및 배경 학습 블록(230)에 입력할 수 있다.The
얼굴 추출 블록(220)은 획득된 영상으로부터 얼굴 객체를 추출하여 얼굴 영상을 움직임 정보 비교 블록(260) 및 배경간 비교 블록(270)에 전달할 수 있다. The
배경 학습 블록(230)은 영상 획득 블록(210)으로부터 획득된 다수의 영상 중에서 현재 배경을 분석하여 모델링하는 배경 학습을 통해 다수개의 모델을 생성하고, 이 중에서 상대적으로 높은 가중치를 가지는 모델의 배경을 학습 배경(또는 기준 배경)으로 선택하여 저장 블록(250)에 저장할 수 있다. 즉, 배경 학습 블록(230)은 가장 높은 확률을 가지는 배경 모델을 지속적인 학습을 통해 업데이트할 수 있다. The
깜박임 검출 블록(240)은 얼굴 추출 블록(220)에서 추출된 얼굴 특징점 영역(예를 들어, 눈 영역)의 변화량을 통해 눈 깜빡임 여부 등을 검출할 수 있다. 예를 들어, 깜박임 검출 블록(240)에서는 도 1과 같은 방법이 수행될 수 있다. 깜박임 검출 블록(240)의 검출 결과는 위조 판별 블록(280)으로 전달될 수 있다.The
움직임 정보 비교 블록(260)에서는 얼굴 영역의 모션 벡터 성분과 현재 배경 내의 모션 벡터 성분을 추출하여 비교할 수 있다. 얼굴 객체의 모션 벡터와 배경 영역의 벡터에 기반하여 결정된 움직임을 나타내는 수치가 위조 판별 블록(280)으로 전달될 수 있다.In the motion
배경간 비교 블록(270)은 얼굴 추출 블록(220)으로부터 전달 받은 현재 영상에서의 배경과 저장 블록(250)에 저장된 학습 배경을 비교하여 유사도를 결정할 수 있고, 그 결과가 위조 판별 블록(280)으로 전달될 수 있다.The comparison block 270 between backgrounds compares the background of the current image received from the
위조 판별 블록(280)에서는 획득된 영상의 얼굴 오브젝트의 눈 깜박임이 있는지, 획득된 영상의 배경이 실제 배경 모델과 유사한지, 획득된 영상의 배경의 움직임이 비정상적인지 등에 기반하여 위조 여부를 판별할 수 있다. In the forgery determination block 280, it is determined whether or not the forgery is faked based on whether there is blinking of the eyes of the face object in the acquired image, whether the background of the acquired image is similar to the actual background model, whether the motion of the background of the acquired image is abnormal, and the like. can
도 3은 본 발명에 따른 위조 얼굴 검출 장치의 구성과 동작을 설명하기 위한 도면이다.3 is a diagram for explaining the configuration and operation of the fake face detection device according to the present invention.
영상 획득 블록(301)은 이미지 획득 장치(예를 들어, 카메라) 등에 의해 촬영된 영상을 획득할 수 있고, 이를 얼굴 랜드마크(Landmark) 검출부(302)에 전달할 수 있다. The
얼굴 랜드마크 검출부(302)는 얼굴의 주요 특징 포인트(예를 들어, 눈썹, 눈, 코, 입 등)를 검출할 수 있다. 예를 들어, 한쪽 눈썹을 2개의 특징부로 구분하여 검출하고, 좌우 눈썹 총 4개의 특징부를 검출할 수 있다. 한쪽 눈을 4개의 특징부로 구분하여 검출하고, 좌우 눈 총 8개의 특징부를 검출할 수 있다. 코는 양쪽의 2 부분을 구분하여 검출할 수 있다. 입술은 위쪽 좌우 2 부분, 아래쪽 좌우 2 부분, 총 4 개의 특징부를 검출할 수 있다. 이는 단지 예시일 뿐이며, 얼굴에서 18 개의 특징점을 추출하는 것으로 본 발명의 범위가 제한되지는 않는다. The facial
얼굴 특징점 추출부(303)는 얼굴 랜드마크(예를 들어, 눈썹, 눈, 코, 입의 18개 위치)에 대한 특징을 추출하여 이를 표현하는 파라미터(예를 들어, MsLBP(Multi-scale Local Binary Pattern))를 생성할 수 있다. 이는 단지 예시에 불과하고, MsLBP 이외의 다른 기술자(descriptor)가 사용될 수도 있다. 다만, 얼굴 특징점 추출을 위해서 국부적인 영역의 빛 변화에 강인하면서 기하학적인 특징을 잘 표현하는 기술자를 사용하는 것이 효과적이다. 이는, 실제 얼굴을 촬영한 이미지와, 사진이나 비디오를 촬영한 위조 얼굴 이미지를 비교하면, 평면적인 데이터를 촬영한 위조 얼굴 이미지에서는 에지(edge) 정보와 같은 기하학적인 정보가 사라지므로 위조 얼굴 검출에 보다 유리하기 때문이다.The facial feature
모션 벡터 추출부(304)는 동영상(또는 복수개의 프레임으로 구성된 시퀀스)에서 각각의 프레임의 모션 벡터를 추출하고, 모션 벡터의 크기(magnitude) 및 방향(angle)을 계산할 수 있다 (여기서, 모션 벡터의 크기는 벡터의 길이를 의미하고, 모션 벡터의 방향은 0˚ 내지 360˚ 사이의 기울기 값을 의미한다). 특히, 얼굴 영역, 헤드 영역, 배경 영역의 각각에 대해서 모션 벡터를 추출할 수 있다. 모션 벡터 추출부(304)의 동작에 대한 구체적인 설명은 도 4 내지 도 8을 참조하여 후술한다. The
모션 벡터 위조 얼굴 분류기(306)는 모션 벡터에 기반하여 임의의 얼굴 영상이 위조 얼굴에 해당하는지 여부를 판정할 수 있다. 모션 벡터 위조 얼굴 분류기(306)의 동작에 대한 구체적인 설명은 도 9 및 도 10을 참조하여 후술한다. The motion vector
일반적인 위조 얼굴 분류기(305)는 후술하는 개인별 위조 얼굴 분류기(308)와 구분된다. 일반적인 위조 얼굴 분류기(305)는 얼굴 특징점(또는 특징 벡터)에 기반하여 위조 얼굴 여부를 판정하며, 얼굴 특징점 추출부(303)로부터 입력되는 얼굴 영상의 특징점(또는 특징 벡터)을, 미리 학습을 통해서 마련된 기준과 비교하여, 임의의 얼굴 영상이 위조 얼굴에 해당하는지 여부를 판정할 수 있다. 일반적인 위조 얼굴 분류기(305)의 동작에 대한 구체적인 설명은 도 11 내지 도 14를 참조하여 후술한다. The general
일반적인 위조 얼굴 분류기(305) 또는 모션 벡터 위조 얼굴 분류기(306) 중의 적어도 하나에서 위조 얼굴이라고 분류되면, 최종적으로 위조 얼굴이라고 판정할 수 있다. 만약, 일반적인 위조 얼굴 분류기(305) 또는 모션 벡터 위조 얼굴 분류기(306) 모두에서 위조 얼굴이 아니라고 분류되면, 얼굴 인식 수행부(307), 개인별 위조 얼굴 분류기(308)를 통해서 추가적인 위조 여부 검출이 수행될 수 있다.If at least one of the general
얼굴 인식 수행부(307)는 획득된 영상의 얼굴에 해당하는 사람이 누구인지를 결정할 수 있다. 예를 들어, 해당 얼굴 영상의 특징부에 기초하여 그 얼굴에 매칭되는 사람의 신원 또는 식별정보(즉, ID 정보)를 추출할 수 있다. 얼굴 인식 결과는 개인별 위조 얼굴 분류기(308)로 전달될 수 있다. The
개인별 위조 얼굴 분류기(308)는 식별된 신원에 해당하는 얼굴에 대해서 데이터베이스에 미리 저장되어 있는 기준이 되는 얼굴 특징점과, 획득된 영상의 얼굴 특징점을 비교하여 위조 여부를 판정할 수 있다. 개인별 위조 얼굴 분류기(308)의 동작에 대한 구체적인 설명은 도 11 내지 도 14를 참조하여 후술한다. The
도 3에 대해서 설명한 구성요소들의 하나 이상은, 별도의 프로세서로서 구현될 수도 있지만, 하나의 프로세서의 소프트웨어 또는 펌웨어 형태의 기능 모듈로서 구현될 수도 있다. One or more of the components described with respect to FIG. 3 may be implemented as a separate processor or may be implemented as a function module in the form of software or firmware of one processor.
도 4는 본 발명에 따른 모션 벡터 추출 영역을 설명하기 위한 도면이다.4 is a diagram for explaining a motion vector extraction area according to the present invention.
획득된 영상에 대해서 모션 벡터를 추출하기 위해, 얼굴 영역, 헤드 영역(또는 머리와 어깨(head and shoulder) 영역), 배경 영역(또는 카메라 프레임 바깥 영역)으로 나눌 수 있다. 실제 얼굴을 촬영한 영상이라면 사람 몸의 움직임에 따라서 얼굴 영역과 헤드 영역에서 움직임이 있지만, 배경에는 이러한 움직임이 거의 발생하지 않는다. 또한, 얼굴 영역에서는 눈 깜빡임, 말하기, 표정 변화 등에 따라서 미세한 움직임이 많이 발생하지만, 상대적으로 헤드 영역에서는 이러한 미세한 움직임이 덜 발생한다. In order to extract a motion vector for an acquired image, it can be divided into a face area, a head area (or a head and shoulder area), and a background area (or an area outside the camera frame). In the case of an image of a real face, there is movement in the face area and the head area according to the motion of the human body, but such motion hardly occurs in the background. In addition, in the face area, a lot of minute movements occur according to eye blinking, speaking, facial expression change, etc., but relatively little such minute movements occur in the head area.
본 발명에서는 설명의 편의를 위해서 얼굴 영역, 헤드 영역, 배경 영역이라는 용어를 사용하지만, 본 발명의 범위가 그 용어의 사전적 의미로 제한되지는 않는다. 즉, 본 발명은 획득된 얼굴 영상을 제 1, 제 2 및 제 3 영역으로 구분하고, 제 3 영역은 제 2 영역을 포함하고, 제 2 영역은 제 1 영역을 포함하는 방식으로 구분하는 예시를 포함한다. In the present invention, the terms face region, head region, and background region are used for convenience of explanation, but the scope of the present invention is not limited to the dictionary meaning of the terms. That is, the present invention provides an example of dividing the obtained face image into first, second, and third areas, the third area including the second area, and the second area including the first area. include
도 5는 본 발명에 따른 모션 벡터를 추출하는 장치의 구성 및 동작을 설명하기 위한 도면이다.5 is a diagram for explaining the configuration and operation of an apparatus for extracting a motion vector according to the present invention.
영상 획득 블록(501)은 도 3의 영상 획득 블록(301)에 대응할 수 있다. The
연속된 두 프레임 추출부(502)는 영상 획득 블록(501)에 의해 연속된 프레임들이 입력되면 그 중에서 연속된 두 프레임을 추출한다. 연속된 두 프레임 추출부(502)는 얼굴 랜드마크 검출(도 3의 302)에서 얼굴 객체가 검출된 후에 입력된 영상에 대해서 연속된 두 프레임을 추출할 수도 있다.The two
고밀도 광학 플로우(Dense Optical Flow) 계산부(503)는 추출된 두 프레임간의 고밀도 광학 플로우(즉, 오브젝트, 표면, 에지에 대해서 관측되는 움직임의 패턴)을 계산할 수 있다. The dense optical
히스토그램 생성부(504)에서는 도 4의 예시와 같이 얼굴 영역, 헤드 영역, 배경 영역으로 분할된 3 개의 영역을 더 세부적으로 분할할 수 있다. 예를 들어, 얼굴 영역은 N1 개의 서브 블록으로 구분하고, 헤드 영역은 N2 개의 서브 블록으로 분할하고, 배경 영역은 N3 개의 서브 블록으로 분할할 수 있다. 구분된 영역(예를 들어, 얼굴 영역, 헤드 영역, 배경 영역)의 각각에서 평균 벡터를 계산하고, 해당 영역 내의 평균 벡터에 대한 크기(magnitude) 및 방향(angle)을 계산할 수 있다. 그 결과를 이용하여 구분된 영역의 각각에 대한 히스토그램(즉, 1차원 히스토그램 벡터)을 생성할 수 있다.The
벡터 결합부(505)는 구분된 영역(예를 들어, 얼굴 영역, 헤드 영역, 배경 영역)의 각각에서 도출된 1차원 히스토그램 벡터를 결합하여, 하나의 모션 벡터(또는 모션 특징 벡터)를 생성할 수 있다. The
도 5에 대해서 설명한 구성요소들의 하나 이상은, 별도의 프로세서로서 구현될 수도 있지만, 하나의 프로세서의 소프트웨어 또는 펌웨어 형태의 기능 모듈로서 구현될 수도 있다. One or more of the components described with respect to FIG. 5 may be implemented as a separate processor or may be implemented as a function module in the form of software or firmware of one processor.
도 6 내지 도 8은 본 발명에 따라서 획득된 모션 벡터의 예시들을 설명하기 위한 도면이다.6 to 8 are diagrams for explaining examples of motion vectors obtained according to the present invention.
도 6의 상단 2개의 도면은 실제 얼굴을 촬영한 영상에서 획득된 모션 벡터(초록색으로 표시된 벡터)의 예시를 나타내고, 및 하단 도면은 그에 해당하는 히스토그램을 나타낸다. The upper two figures in FIG. 6 show examples of motion vectors (vectors marked in green) obtained from an image of a real face, and the lower figure shows a corresponding histogram.
도 7의 상단 2개의 도면은 사진(예를 들어, 스마트폰으로 촬영한 얼굴 사진)을 촬영한 영상에서 획득된 모션 벡터(초록색으로 표시된 벡터)의 예시를 나타내고, 및 하단 도면은 그에 해당하는 히스토그램을 나타낸다. The upper two diagrams in FIG. 7 show examples of motion vectors (vectors marked in green) obtained from an image in which a photo (eg, a face photo taken with a smartphone) is taken, and the lower diagram is a corresponding histogram. indicates
도 8의 상단 2개의 도면은 동영상(예를 들어, 스마트폰으로 촬영한 얼굴 동영상)을 촬영한 영상에서 획득된 모션 벡터(초록색으로 표시된 벡터)의 예시를 나타내고, 및 하단 도면은 그에 해당하는 히스토그램을 나타낸다. The upper two figures in FIG. 8 show examples of motion vectors (vectors marked in green) obtained from an image taken of a video (eg, a face video taken with a smartphone), and the lower figure shows a corresponding histogram. indicates
예를 들어, 모션 벡터 하나의 방향이 70˚이고 그 크기가 20이면 아래의 표 1에서 해당 요소의 카운트를 1만큼 더할 수 있다. 나머지 모션 벡터들에 대해서 그 방향과 크기에 따른 카운트를 반복할 수 있다. 특정 방향에 대한 벡터 크기의 합은, 해당 방향에서 제 1 크기를 가지는 벡터의 개수에 제 1 크기값을 곱하고, 제 2 크기를 가지는 벡터의 개수에 제 2 크기값을 곱하고, ... 이들을 모두 합산함으로써 도출할 수 있다. For example, if the direction of one motion vector is 70 degrees and its magnitude is 20, the count of the corresponding element in Table 1 below can be added by 1. For the remaining motion vectors, the count according to the direction and magnitude may be repeated. The sum of vector magnitudes in a specific direction is obtained by multiplying the first magnitude value by the number of vectors having the first magnitude in the corresponding direction, by multiplying the second magnitude value by the number of vectors having the second magnitude, and ... all of these It can be derived by summing.
크기size
이에 따라 계산된 특정 방향의 벡터 크기의 합이 상대적으로 큰 값이 나올 수 있으므로, 히스토그램 그래프로 표현할 때는 최소값과 최대값을 정해서 스케일링을 적용함으로써, 다른 영상의 모션 벡터와 용이하게 비교할 수 있다. 즉, 서로 다른 영상의 모션 벡터를 히스토그램 그래프를 비교할 때, 그래프의 크기를 비교하는 것이 아니라, 벡터 방향에 대한 크기의 분포를 보고 유사도를 판정하므로, 벡터의 크기의 상대적인 대소관계는 필요하지 않기 때문이다.Accordingly, since the sum of the magnitudes of vectors in a specific direction may be relatively large, it can be easily compared with the motion vectors of other images by determining the minimum and maximum values and applying scaling when expressed as a histogram graph. That is, when comparing histogram graphs of motion vectors of different images, the degree of similarity is determined by looking at the size distribution in the direction of the vector rather than comparing the size of the graph, so a relative size relationship of vector sizes is not necessary. to be.
도 6의 예시의 히스토그램 그래프로부터 실제 얼굴의 경우에 좌우(또는 수평) 방향의 모션 벡터 성분이 상대적으로 많이 발생함을 알 수 있고, 도 7의 예시의 히스토그램 그래프로부터 위조얼굴(사진)의 경우에는 사람이 사진을 들고 있어서 흔들리기 때문에 움직임이 없는 상황이 발생하는 빈도가 낮고 상하좌우(또는 수직 및 수평)의 모든 방향을 가지는 모션 벡터 성분이 많이 발생함을 알 수 있다. 도 8의 예시의 히스토그램 그래프로부터 위조얼굴(동영상)의 경우에는 사람이 휴대가능한 동영상 디스플레이 크기의 제약으로 인해 모션 벡터의 크기가 다른 경우에 비하여 상대적으로 작게 나타나고, 그래프의 형태 자체는 실제 얼굴과 비슷한 패턴을 보일 수도 있지만, 벡터의 크기가 더 작거나 상대적으로 어느 한 방향으로 왜곡된 패턴을 보임을 알 수 있다. 도 6 내지 도 8의 히스토그램의 그래프는 많은 실험을 통해 얻은 평균치를 표현하는 예시일 뿐이며, 본 발명의 범위를 제한하는 것은 아니다.From the histogram graph of the example of FIG. 6, it can be seen that in the case of a real face, a relatively large number of motion vector components in the left and right (or horizontal) directions occur, and from the histogram graph of the example of FIG. 7, in the case of a fake face (photo), It can be seen that since the person holding the picture shakes, the occurrence of a motionless situation is low, and motion vector components having all directions (or vertical and horizontal) are frequently generated. In the case of the fake face (video) from the histogram graph of the example of FIG. 8, the size of the motion vector is relatively small compared to other cases due to the limitation of the size of the video display that can be carried by a person, and the shape of the graph itself is similar to that of the real face. It may show a pattern, but it can be seen that the size of the vector is smaller or the pattern is relatively distorted in one direction. The graphs of the histograms of FIGS. 6 to 8 are only examples expressing average values obtained through many experiments, and do not limit the scope of the present invention.
이와 같이, 실제 얼굴, 위조 얼굴(사진), 위조 얼굴(동영상)에서 얻은 모션벡터를 기반의 크기와 방향에 대한 히스토그램을 표현한 그래프에서 알 수 있는 바와 같이, 실제 얼굴에서 획득된 모션 벡터는 사진이나 동영상으로부터 획득된 모션 벡터와 큰 차이를 보인다. 즉, 실제 얼굴과 사진 또는 동영상의 모션 벡터의 정규화된 히스토그램의 특징은 현저한 차이를 가지므로, 이에 기반하여 위조 얼굴 여부를 판정할 수 있다.In this way, as can be seen from the graph expressing the histogram of the size and direction based on the motion vectors obtained from the real face, fake face (photo), and fake face (video), the motion vector obtained from the real face is It shows a big difference from the motion vector obtained from the video. That is, since the feature of the normalized histogram of the real face and the motion vector of the photo or video has a significant difference, it is possible to determine whether the face is fake based on this.
도 9는 본 발명에 따른 모션 벡터 위조 얼굴 분류기의 구성 및 동작을 설명하기 위한 도면이다.9 is a diagram for explaining the configuration and operation of a motion vector fake face classifier according to the present invention.
본 발명에 따른 모션 벡터 위조 얼굴 분류기(도 3의 306)는 전술한 바와 같이 모션 벡터의 특징(예를 들어, 히스토그램 상의 분포 특징) 자체에 기초하여 위조 얼굴 여부를 판정할 수도 있지만, 이에 추가적으로 훈련 이미지를 이용한 위조 얼굴 여부 판정도 지원한다.As described above, the motion vector fake face classifier (306 in FIG. 3) according to the present invention can determine whether or not it is a fake face based on the feature of the motion vector (eg, distribution feature on the histogram) itself, but additionally trained. It also supports determining whether or not a face is fake using an image.
예를 들어, 실제얼굴, 위조얼굴(사진), 위조얼굴(동영상)의 세가지 분류의 각각에 대해서 다양하게 훈련시킨 모션 벡터의 특징(예를 들어, 히스토그램 상의 분포 특징)을 이용하여 실제로 검출하는 상황에서, 세가지 분류 중의 어떤 것에 근접하는지를 판정함으로써 위조 얼굴 검출 성능을 높일 수 있다. For example, a situation in which each of the three categories of real face, fake face (photo), and fake face (video) is actually detected using features of motion vectors trained in various ways (eg, distribution features on a histogram). In , fake face detection performance can be improved by determining which one of the three categories is close to.
도 9의 예시에서 훈련 이미지 생성부(901)에서는 모델링 분류 각각에 대한 데이터를 수집 또는 저장할 수 있다. 예를 들어, 실제얼굴의 모델(즉, 실제얼굴에 대한 비교 기준 모션 벡터)을 생성하기 위해서는 실제얼굴이 가지는 다양한 특징을 파악하기 위한 훈련이미지가 요구된다. 이러한 훈련이미지 데이터는 사전에 미리 제공될 수도 있고, 본 발명의 위조 얼굴 검출 결과에 따라 실제 얼굴로 판정된 영상 데이터가 훈련이미지로서 피드백 방식으로 제공될 수도 있다. 위조얼굴(사진)에 대한 모델(즉, 사진을 이용한 위조 얼굴에 대한 비교 기준 모션 벡터)을 생성하기 위해서는 사진을 이용한 위조 얼굴이 가지는 다양한 특징을 파악하기 위한 훈련이미지가 요구된다. 이러한 훈련이미지 데이터는 사전에 미리 제공될 수도 있고, 본 발명의 위조 얼굴 검출 결과에 따라 사진을 이용한 위조 얼굴로 판정된 영상 데이터가 훈련이미지로서 피드백 방식으로 제공될 수도 있다. 위조얼굴(동영상)에 대한 모델(즉, 동영상을 이용한 위조 얼굴에 대한 비교 기준 모션 벡터)을 생성하기 위해서는 동영상을 이용한 위조 얼굴이 가지는 다양한 특징을 파악하기 위한 훈련이미지가 요구된다. 이러한 훈련이미지 데이터는 사전에 미리 제공될 수도 있고, 본 발명의 위조 얼굴 검출 결과에 따라 동영상을 이용한 위조 얼굴로 판정된 영상 데이터가 훈련이미지로서 피드백 방식으로 제공될 수도 있다. In the example of FIG. 9 , the training
모션 벡터 추출부(902)에서는 모델링 분류(예를 들어, 실제얼굴, 위조얼굴(사진), 위조얼굴(동영상)의 세가지 분류) 각각에 대한 모션 벡터를 추출할 수 있으며, 이를 위해서 도 5와 같은 방식이 사용될 수도 있다.The
모델 생성부(903)에서는 추출된 모션 벡터에 기초한 통계적인 모델링 방법을 사용하여, 모델링 분류(예를 들어, 실제얼굴, 위조얼굴(사진), 위조얼굴(동영상)의 세가지 분류) 각각에 대한 모델을 생성할 수 있다. The
도 9에 대해서 설명한 구성요소들의 하나 이상은, 별도의 프로세서로서 구현될 수도 있지만, 하나의 프로세서의 소프트웨어 또는 펌웨어 형태의 기능 모듈로서 구현될 수도 있다. One or more of the components described with respect to FIG. 9 may be implemented as a separate processor or may be implemented as a function module in the form of software or firmware of one processor.
도 10은 본 발명에 따른 모션 벡터 위조 얼굴 분류기를 이용하여 위조 얼굴을 판별하는 방법을 설명하기 위한 도면이다.10 is a diagram for explaining a method of discriminating a fake face using a motion vector fake face classifier according to the present invention.
영상 획득부(301)을 통해 획득된 입력 이미지(1001)에 대해서 모션 벡터 추출(1002)이 수행될 수 있고, 이에 대해 전술한 도 5와 같은 방법이 적용될 수 있다. 추출된 모션 벡터는 기생성된 모델(예를 들어, 도 9의 예시에서와 같이 모델링 분류(예를 들어, 실제얼굴, 위조얼굴(사진), 위조얼굴(동영상)의 세가지 분류) 각각에 대해서 생성된 모델)과 비교(1003)될 수 있다. 즉, 추출된 모션 벡터는 실제얼굴에 대한 모델과 비교되고, 위조얼굴(사진)에 대한 모델과 비교되고, 위조얼굴(동영상)에 대한 모델과 비교될 수 있다. 비교(1003) 결과 여러 가지 모델링 분류 중에서 가장 높은 유사도를 가지는 모델이 결정될 수 있다. 만약 입력된 영상에 대해서 추출된 모션 벡터가 실제 얼굴 모델과 가장 유사하다면 위조 얼굴이 아닌 것으로 판정될 수 있고, 그렇지 않은 경우(예를 들어, 위조얼굴(사진) 또는 위조얼굴(동영상)의 모델과 가장 유사하다면) 위조 얼굴인 것으로 판정될 수 있다.
도 11은 본 발명에 따른 일반적인 위조 얼굴 분류기 및 개인별 위조 얼굴 분류기의 구성 및 동작을 설명하기 위한 도면이다.11 is a diagram for explaining the configuration and operation of a general fake face classifier and an individual fake face classifier according to the present invention.
도 11의 영상 획득 블록(1101), 얼굴 랜드마크 검출부(1102) 및 얼굴 특징점 추출부(1103)은 도 3의 예시에서 영상 획득 블록(301), 얼굴 랜드마크 검출부(302) 및 얼굴 특징점 추출부(303)에 대응할 수 있다. 즉, 이미지 획득 장치(예를 들어, 카메라)를 이용하여 영상을 획득하고, 얼굴의 특징점(예를 들어, 눈썹, 눈, 코, 입술에 대한 18개의 얼굴 랜드마크)을 검출하고, 검출된 특징점 위치에서 MsLBP를 이용하여 특징 벡터를 추출할 수 있다. The
위조 얼굴 특징점 데이터 생성부(1104)는 추출된 얼굴 특징 데이터를, 변환 행렬(예를 들어, 전달 함수(Transfer Function) 또는 적응 함수(Adaptation Function))을 이용하여 위조 얼굴 특징 데이터(또는 위조 얼굴 특징 벡터)로 변환시킬 수 있다. 변환 행렬에 대한 예시를 도 12를 참조하여 설명한다.The fake facial feature point
도 12는 본 발명에 따른 위조 얼굴 특징점 데이터 생성부에서 이용가능한 변환 행렬에 대해서 설명하기 위한 도면이다.12 is a diagram for explaining a transformation matrix usable in the fake facial feature point data generation unit according to the present invention.
실제 얼굴 데이터의 집합(G1, G2, ..., GN)에 대한 주요 구성요소 분석(Principal Component Analysis, PCA)을 통해 실제얼굴 데이터의 기저(Gbasis)를 결정할 수 있다. 한편, 위조얼굴 데이터의 집합(F1, F2, ..., FM)에 대한 PCA를 통해 위조얼굴 데이터의 기저(Fbasis)를 결정할 수 있다. 이들에 기반하여 변환행렬(X)를 계산할 수 있다. 즉, Gbasis에 대해서 특정 변환 행렬 X가 적용된 결과를 Fbasis라고 하면, 변환 행렬 X는 아래의 수학식 1과 같이 획득될 수 있다. A basis (G basis ) of the real face data may be determined through principal component analysis (PCA) on a set of real face data (G 1 , G 2 , ..., G N ). Meanwhile, a basis (F basis ) of fake face data may be determined through PCA for a set of fake face data (F 1 , F 2 , ..., F M ). Based on these, a conversion matrix (X) can be calculated. That is, if the result of applying a specific transformation matrix X to G basis is called F basis , transformation matrix X can be obtained as in
다시 도 11을 참조하면, 실제 위조얼굴 생성부(1105)를 이용하여, 실제 사람의 얼굴을 촬영한 결과물(즉, 사진 또는 동영상)을 이미지 획득 장치(예를 들어, 카메라)로 다시 촬영하여 위조 얼굴의 샘플에 해당하는 위조 얼굴 이미지를 생성할 수 있다. 위조 얼굴 생성부(1105)를 이용하여, 위조 얼굴 이미지는 하나 또는 복수개가 생성될 수 있다. 실제 위조얼굴 생성부(1105)가 적용되는 경우에는 개인적인 위조 얼굴 분류기는 물론 일반적인 위조 얼굴 분류기에서도 유용한 위조 얼굴 데이터로서 활용될 수 있으므로 위조 검출 성능을 높일 수 있다. 특히, 실제 위조얼굴 생성부(1105)의 적용은, 개인별 위조 얼굴 분류기를 위한 개인 식별 이미지의 생성 및 등록시에 함께 적용될 수 있다. 그러나, 개인 식별 이미지를 사전에 등록하는 것이 적절하지 않은 경우에는, 실제 위조얼굴 생성부(1105)는 전술한 변환 함수를 이용하여 실제 얼굴 데이터(즉, 실제 얼굴 특징 벡터)로부터 위조 얼굴 데이터(즉, 위조 얼굴 특징 벡터)를 생성하고 이를 이용할 수도 있다. Referring back to FIG. 11, by using the real fake
일반적인 위조 얼굴 분류기 생성부(1106)에서는 일반적인 위조 얼굴 분류기를 학습 또는 업데이트시킴으로써 일반적인 위조 얼굴 분류기의 성능을 높일 수 있다. The general fake face
개인별 위조 얼굴 분류기 생성부(1107)에서는 개인별 위조 얼굴 분류기를 학습 또는 업데이트시킴으로써 개인별 위조 얼굴 분류기의 성능을 높일 수 있다. In the individual fake face
일반적인 위조 얼굴 분류기 생성부(1106) 및 개인별 위조 얼굴 분류기 생성부(1107)에 대한 예시를 도 13 및 도 14를 참조하여 각각 설명한다. Examples of a general fake
도 13은 일반적인 위조 얼굴 분류기의 생성을 설명하기 위한 도면이다.13 is a diagram for explaining the creation of a general fake face classifier.
일반적인 위조 얼굴 분류기는 다양한 훈련 데이터를 이용하여 일반적인 위조 얼굴 특징 벡터에 대한 비교 기준을 정하고, 그에 따라서 일반적인 위조 얼굴 여부를 판정할 수 있다. 이러한 일반적인 위조 얼굴 분류기를 훈련 또는 업데이트시키기 위해서, 기존에 확보된 훈련 데이터 이외의 새로운 데이터(예를 들어, 새롭게 등록한 사람(들)의 실제 얼굴에 대한 데이터와, 실제 위조 얼굴(즉, 실제 얼굴을 촬영한 결과물(즉, 사진 또는 동영상)을 이미지 획득 장치(예를 들어, 카메라)로 다시 촬영한 결과물)에 대한 데이터, 또는 실제 얼굴로부터 변환 행렬을 이용하여 변환된 위조 얼굴에 대한 데이터)를 추가로 입력할 수 있다. 이에 따라, 기존 등록자의 실제 얼굴 집합에 대한 특징 벡터와, 기존 등록자의 위조 얼굴 집합(이는 실제 위조 얼굴 또는 변환된 위조 얼굴의 하나 이상을 포함하는 집합)으로부터 일반적인 위조 얼굴 여부에 대한 판정 기준을 학습하고 이진 분류기를 업데이트할 수 있다.A general fake face classifier may determine a comparison criterion for a general fake face feature vector using various training data, and determine whether or not a generic face is a fake face. In order to train or update such a general fake face classifier, new data other than the previously obtained training data (eg, data on the real face of the newly registered person(s) and real fake face (i.e., real face) Add data about the result of taking a picture (ie, a picture or video) and re-photographing it with an image acquisition device (eg, a camera), or data about a fake face transformed from a real face using a transformation matrix) can be entered as Accordingly, a criterion for determining general fake faces is learned from the feature vector of the real face set of the existing registrant and the fake face set of the existing registrant (which includes at least one of the real fake face or the transformed fake face). and update the binary classifier.
도 14는 개인별 위조 얼굴 분류기의 생성을 설명하기 위한 도면이다. 14 is a diagram for explaining creation of a fake face classifier for each individual.
개인별 위조 얼굴 분류기는 얼굴 인식을 통해서 개인이 식별된 경우, 보다 정확한 위조 검출 결과를 위해서, 개인별 실제 얼굴 및 위조 얼굴에 대한 데이터를 학습 및 업데이트할 수 있다. 개인별 위조 얼굴 분류기는 식별된 개인(예를 들어, 등록자)의 실제 얼굴에 대한 데이터, 실제 위조 얼굴(즉, 실제 얼굴을 촬영한 결과물(즉, 사진 또는 동영상)을 이미지 획득 장치(예를 들어, 카메라)로 다시 촬영한 결과물)에 대한 데이터, 또는 실제 얼굴로부터 변환 행렬을 이용하여 변환된 위조 얼굴에 대한 데이터)에 기초하여, 해당하는 개인에 대한 위조 얼굴 여부에 대한 판정 기준을 학습하고 이진 분류기를 업데이트할 수 있다.When an individual is identified through face recognition, the fake face classifier for each individual can learn and update data on each individual's real face and fake face to obtain a more accurate fake face detection result. The fake face classifier for each individual identifies data on the real face of the individual (eg, registrant), the actual fake face (ie, the result of photographing the real face (ie, a photo or video)) to an image acquisition device (eg, camera), or data on a fake face transformed from a real face using a transformation matrix), it learns a criterion for determining whether or not a fake face for the corresponding individual is trained and uses a binary classifier can be updated.
도 11 내지 도 14에 대해서 설명한 구성요소들의 하나 이상은, 별도의 프로세서로서 구현될 수도 있지만, 하나의 프로세서의 소프트웨어 또는 펌웨어 형태의 기능 모듈로서 구현될 수도 있다. One or more of the components described with reference to FIGS. 11 to 14 may be implemented as a separate processor or as a function module in the form of software or firmware of one processor.
전술한 바와 같이, 모션 벡터(예를 들어, 고밀도 광학 플로우) 및 특징 벡터(예를 들어, MsLBP) 모두를 기반으로 동작하는 위조 얼굴 분류기는, 종래의 위조얼굴 검출 방식에 비하여 보다 정확하고 확률 높은 위조 얼굴 검출 결과를 제공할 수 있다. 또한, 위조 얼굴 분류기 생성(또는 학습, 업데이트)에 필요한 위조 얼굴 데이터를 실제 위조 얼굴로부터 획득하거나, 훈련된 변환 행렬을 이용하여 재생산할 수 있으므로, 위조 얼굴 분류기 생성에 필요한 데이터를 용이하게 제공함으로써 위조 얼굴 분류기의 성능을 보다 더 높일 수 있다. As described above, a fake face classifier that operates based on both a motion vector (eg, high-density optical flow) and a feature vector (eg, MsLBP) is more accurate and has a higher probability than conventional fake face detection methods. A fake face detection result can be provided. In addition, since the fake face data necessary for generating (or learning or updating) the fake face classifier can be obtained from a real fake face or reproduced using a trained transformation matrix, the data necessary for generating the fake face classifier can be easily provided to counteract fake face data. The performance of the face classifier can be further improved.
또한, 단순히 얼굴 영역에서만 추출된 모션 벡터만이 아니라, 얼굴 영역, 헤드 영역, 배경 영역에서 추출하는 모션 벡터를 결합하여 사용함으로써, 실제 사람의 행동으로부터 유발되는 모션 벡터의 특징과 사진을 들고 흔들거나 동영상을 사용하는 경우에 유발되는 모션 벡터의 특징을 학습시킨 분류기를 사용하여 보다 정확하게 위조 얼굴을 감지할 수 있다.In addition, by using a combination of motion vectors extracted from the face area, head area, and background area, as well as motion vectors extracted only from the face area, the characteristics of motion vectors derived from real human behavior and holding and shaking photos A fake face can be detected more accurately by using a classifier that learns the characteristics of a motion vector that is induced when a video is used.
나아가, 실제 얼굴에서 획득되는 특징 벡터와 사진 또는 동영상을 촬영한 경우에 획득되는 특징 벡터의 차이점에 주목하여, 서포트 벡터 머신을 이용하여 이러한 특징 벡터의 차이를 미리 학습하여 위조 얼굴 분류기를 생성할 수 있다. 위조 얼굴 분류기는 일반적인 위조 얼굴의 특징에 기반하여 학습하는 방식과, 개인별 위조 얼굴의 특징에 기반하여 학습하는 방식을 병행함으로써, 일반적인 위조 얼굴 특징이 드러나지 않더라도 개인별 위조 얼굴 특징에 기반하여 위조 얼굴 검출 확률을 높일 수 있다. 이 경우, 개인별 위조 얼굴 분류기의 생성을 위해 개인 정보를 등록할 때에 개인의 실제 얼굴과 함께 개인의 실제 위조 얼굴을 입력하거나, 개인의 실제 얼굴로부터 변환 행렬에 의해 생성된 위조 얼굴을 이용할 수도 있다. Furthermore, paying attention to the difference between the feature vector obtained from a real face and the feature vector obtained when a photo or video is taken, a fake face classifier can be generated by learning the difference between these feature vectors in advance using a support vector machine. have. The fake face classifier learns based on general fake face features and individual fake face features in parallel, so even if general fake face features are not revealed, fake face detection probability based on individual fake face features can increase In this case, when registering personal information to create a fake face classifier for each individual, the real fake face of the individual may be input together with the real face of the individual, or the fake face generated by the transformation matrix from the real face of the individual may be used.
이와 같이, 본 발명에 따르면 적외선 카메라나 열적외선 카메라 같은 고가의 별도의 장비가 없이도 일반적으로 사용되는 RGB 카메라의 영상만으로도 위조 얼굴을 정확하게 검출할 수 있다. 특히, 눈 깜박임이나 입술의 움직임을 기반으로 위조 얼굴을 검출하는 종래 방식은, 고화질의 사진이나 동영상의 특정 부위에 움직임을 부가함으로써 무력화시킬 수 있지만, 본 발명에 따르면 모션 벡터와 특징 벡터를 동시에 고려하고, 또한 특징 벡터 기반 위조 얼굴 검출은 일반적인 특징과 개인별 특징을 모두 고려함으로써, 보다 높은 확률로 위조 얼굴을 검출할 수 있다. As described above, according to the present invention, a fake face can be accurately detected only with an image of a generally used RGB camera without expensive separate equipment such as an infrared camera or a thermal infrared camera. In particular, the conventional method of detecting a fake face based on eye blinking or lip movement can be neutralized by adding motion to a specific part of a high-quality photo or video. However, according to the present invention, motion vectors and feature vectors are simultaneously considered. In addition, feature vector-based fake face detection can detect a fake face with a higher probability by considering both general features and individual features.
전술한 본 발명의 다양한 실시 예에서 설명한 사항들은 독립적으로 적용되거나 또는 2 이상의 실시 예가 동시에 적용될 수도 있다. Matters described in various embodiments of the present invention described above may be applied independently or two or more embodiments may be simultaneously applied.
전술한 본 발명의 다양한 실시 예에서 설명하는 예시적인 방법은 설명의 간명함을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 또한, 본 발명에서 제안하는 방법을 구현하기 위해서 예시하는 모든 단계가 반드시 필요한 것은 아니다.Exemplary methods described in various embodiments of the present invention described above are expressed as a series of operations for simplicity of explanation, but this is not intended to limit the order in which steps are performed, and if necessary, each step is performed simultaneously or They may be performed in a different order. In addition, not all steps illustrated in order to implement the method proposed in the present invention are necessarily required.
본 발명의 범위는 본 발명에서 제안하는 방안에 따른 동작을 처리 또는 구현하는 장치를 포함한다. The scope of the present invention includes a device that processes or implements an operation according to the method proposed in the present invention.
본 발명의 범위는 본 발명에서 제안하는 방안에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어(또는, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 매체(medium)를 포함한다.The scope of the present invention is software (or operating system, application, firmware, program, etc.) that allows the operation according to the method proposed in the present invention to be executed on a device or computer, and such software is stored on a device or computer. Includes executable medium.
301 영상 획득 블록
302 얼굴 랜드마크 검출부
303 얼굴 특징점 검출부
304 모션 벡터 추출부
305 일반적인 위조 얼굴 분류기
306 모션 벡터 위조 얼굴 분류기
307 얼굴 인식 수행부
308 개인별 위조 얼굴 분류기301
303 Facial feature
305 generic
307
Claims (14)
이미지 획득 장치로부터 획득된 영상에 대한 얼굴 랜드마크를 검출하는 단계;
상기 획득된 영상에 대한 모션 벡터를 추출하는 단계, 여기서 상기 모션 벡터는 상기 검출된 얼굴 랜드마크의 움직임의 크기 및 방향을 포함하는 정보임;
상기 획득된 영상에 대한 특징 벡터를 추출하는 단계, 여기서 상기 특징 벡터는 상기 검출된 얼굴 랜드마크에 대한 기하학적인 특징을 표현하는 기술자(descriptor)를 포함하는 정보임; 및
상기 모션 벡터에 기반한 위조 얼굴 분류를 수행하고, 상기 특징 벡터에 기반한 일반 위조 얼굴 분류를 수행하여, 위조 얼굴 여부를 판정하는 단계를 포함하되,
상기 모션 벡터에 기반한 위조 얼굴 분류, 또는 상기 특징 벡터에 기반한 일반 위조 얼굴 분류 중의 하나 이상에서 위조 얼굴이라고 분류되는 경우, 최종적으로 위조 얼굴이라고 판정하고,
상기 모션 벡터에 기반한 위조 얼굴 분류 및 상기 특징 벡터에 기반한 일반 위조 얼굴 분류 모두에서 실제 얼굴이라고 분류되는 경우 개인별 위조 얼굴 분류를 추가적으로 수행하는, 위조 얼굴 검출 방법.A method for detecting a fake face,
Detecting facial landmarks for an image obtained from an image acquisition device;
extracting a motion vector for the obtained image, wherein the motion vector is information including magnitude and direction of motion of the detected face landmark;
extracting a feature vector for the obtained image, wherein the feature vector is information including a descriptor representing a geometric feature of the detected face landmark; and
Performing fake face classification based on the motion vector and general fake face classification based on the feature vector to determine whether or not a fake face is present,
When the fake face is classified as a fake face in at least one of the fake face classification based on the motion vector and the general fake face classification based on the feature vector, finally determining that the face is a fake face;
The fake face detection method of claim 1 , further performing fake face classification for each individual when the fake face is classified as a real face in both the fake face classification based on the motion vector and the general fake face classification based on the feature vector.
상기 개인별 위조 얼굴 분류는, 개인별 실제 얼굴 데이터, 개인별 실제 위조 얼굴 데이터, 또는 변환된 개인별 위조 얼굴 데이터 중의 하나 이상을 이용하여 학습된 분류기에 의해서 수행되는, 위조 얼굴 검출 방법.According to claim 1,
Wherein the fake face classification for each individual is performed by a classifier learned using at least one of the real face data for each individual, the real fake face data for each individual, and the converted fake face data for each individual.
상기 개인별 실제 위조 얼굴 데이터는, 개인별 실제 얼굴을 촬영한 사진 또는 동영상을 촬영한 결과물인, 위조 얼굴 검출 방법.According to claim 2,
The fake face detection method of claim 1 , wherein the real fake face data for each individual is a result of taking a photo or video of a real face of each individual.
상기 변환된 위조 얼굴 데이터는, 상기 실제 위조 얼굴 데이터에 변환 행렬이 적용됨으로써 획득되며,
상기 변환 행렬은 적응적으로 업데이트되는, 위조 얼굴 검출 방법.According to claim 2,
The transformed fake face data is obtained by applying a transformation matrix to the real fake face data,
Wherein the transformation matrix is adaptively updated.
상기 모션 벡터에 기반한 위조 얼굴 분류는,
실제 얼굴에 대한 모션 벡터 특징 모델과, 위조 얼굴에 대한 모션 벡터 특징모델에 기반하여, 상기 획득된 영상의 위조 여부를 판정하는 단계를 포함하는, 위조 얼굴 검출 방법.According to claim 1,
Fake face classification based on the motion vector,
and determining whether the obtained image is fake based on a motion vector feature model of a real face and a motion vector feature model of a fake face.
상기 위조 얼굴에 대한 모션 벡터 특징 모델은,
사진을 이용한 위조 얼굴에 대한 모션 벡터 특징 모델과,
동영상을 이용한 위조 얼굴에 대한 모션 벡터 특징 모델을 포함하는, 위조 얼굴 검출 방법.According to claim 5,
The motion vector feature model for the fake face is
A motion vector feature model for a fake face using a photo;
A fake face detection method comprising a motion vector feature model for a fake face using video.
상기 모션 벡터에 기반한 위조 얼굴 분류는,
제 1 영역, 제 2 영역 및 제 3 영역의 각각에 대해서, 상기 획득된 영상의 연속하는 두 프레임 간에 관측되는 움직임 패턴을 계산하는 단계를 더 포함하고,
상기 제 3 영역은 상기 제 2 영역을 포함하고, 상기 제 2 영역은 상기 제 1 영역을 포함하는, 위조 얼굴 검출 방법.According to claim 1,
Fake face classification based on the motion vector,
Calculating a movement pattern observed between two consecutive frames of the obtained image for each of the first region, the second region, and the third region;
The fake face detection method of claim 1 , wherein the third area includes the second area, and the second area includes the first area.
상기 모션 벡터는,
상기 제 1, 제 2 및 제 3 영역의 각각에서 평균 벡터를 계산하고,
상기 제 1, 제 2 및 제 3 영역의 평균 벡터들을 결합함으로써 결정되는, 위조 얼굴 검출 방법.According to claim 7,
The motion vector is
Calculate an average vector in each of the first, second and third regions;
The fake face detection method is determined by combining the mean vectors of the first, second and third regions.
상기 제 1 영역은 얼굴 영역이고, 상기 제 2 영역은 헤드 영역이고, 상기 제 3 영역은 배경 영역인, 위조 얼굴 검출 방법.According to claim 7,
wherein the first area is a face area, the second area is a head area, and the third area is a background area.
상기 특징 벡터에 기반한 일반 위조 얼굴 분류는,
하나 이상의 실제 얼굴 데이터, 하나 이상의 실제 위조 얼굴 데이터, 또는 하나 이상의 변환된 위조 얼굴 데이터 중의 하나 이상을 이용하여 학습된 분류기에 의해서 수행되는, 위조 얼굴 검출 방법.According to claim 1,
General fake face classification based on the feature vector,
A fake face detection method, performed by a classifier trained using one or more of one or more real face data, one or more real fake face data, or one or more converted fake face data.
상기 하나 이상의 실제 위조 얼굴 데이터의 각각은, 상기 하나 이상의 실제 얼굴을 촬영한 사진 또는 동영상을 촬영한 결과물의 각각에 대응하는, 위조 얼굴 검출 방법.According to claim 10,
Each of the one or more real fake face data corresponds to each of a result of photographing a photo or video of the one or more real faces.
상기 하나 이상의 변환된 위조 얼굴 데이터의 각각은, 상기 하나 이상의 실제 위조 얼굴 데이터의 각각에 변환 행렬이 적용됨으로써 획득되며,
상기 변환 행렬은 적응적으로 업데이트되는, 위조 얼굴 검출 방법.According to claim 11,
Each of the one or more transformed fake face data is obtained by applying a transformation matrix to each of the one or more real fake face data,
Wherein the transformation matrix is adaptively updated.
이미지 획득 장치로부터 획득된 영상에 대한 얼굴 랜드마크를 검출하는 얼굴 랜드마크 검출부;
상기 획득된 영상에 대한 모션 벡터를 추출하는 모션 벡터 추출부, 여기서 상기 모션 벡터는 상기 검출된 얼굴 랜드마크의 움직임의 크기 및 방향을 포함하는 정보임;
상기 획득된 영상에 대한 특징 벡터를 추출하는 특징 벡터 추출부, 여기서 상기 특징 벡터는 상기 검출된 얼굴 랜드마크에 대한 기하학적인 특징을 표현하는 기술자(descriptor)를 포함하는 정보임;
상기 모션 벡터에 기반한 위조 얼굴 분류기; 및
상기 특징 벡터에 기반한 일반 위조 얼굴 분류기를 포함하고,
상기 모션 벡터에 기반한 위조 얼굴 분류기의 분류 결과 및 상기 특징 벡터에 기반한 위조 얼굴 분류기의 분류 결과에 기초하여 위조 얼굴 여부가 판정되되,
상기 모션 벡터에 기반한 위조 얼굴 분류, 또는 상기 특징 벡터에 기반한 일반 위조 얼굴 분류 중의 하나 이상에서 위조 얼굴이라고 분류되는 경우, 최종적으로 위조 얼굴이라고 판정하고,
상기 모션 벡터에 기반한 위조 얼굴 분류 및 상기 특징 벡터에 기반한 일반 위조 얼굴 분류 모두에서 실제 얼굴이라고 분류되는 경우 개인별 위조 얼굴 분류를 추가적으로 수행하는, 위조 얼굴 검출 장치.In the device for detecting a fake face,
a facial landmark detection unit for detecting facial landmarks for an image obtained from an image acquisition device;
a motion vector extractor extracting a motion vector of the acquired image, wherein the motion vector is information including magnitude and direction of motion of the detected face landmark;
a feature vector extraction unit extracting a feature vector of the obtained image, wherein the feature vector is information including a descriptor representing a geometric feature of the detected face landmark;
a fake face classifier based on the motion vector; and
A generic fake face classifier based on the feature vector;
Based on the classification result of the fake face classifier based on the motion vector and the classification result of the fake face classifier based on the feature vector, it is determined whether or not the face is fake.
When the fake face is classified as a fake face in at least one of the fake face classification based on the motion vector and the general fake face classification based on the feature vector, finally determining that the face is a fake face;
The fake face detection device further performs fake face classification for each individual when classified as a real face in both fake face classification based on the motion vector and general fake face classification based on the feature vector.
상기 실행가능한 명령들은, 상기 위조 얼굴 검출 장치로 하여금, 획득된 영상에 대한 얼굴 랜드마크를 검출하고, 상기 검출된 얼굴 랜드마크의 움직임의 크기 및 방향을 포함하는 모션 벡터를 추출하고, 상기 검출된 얼굴 랜드마크에 대한 기하학적인 특징을 표현하는 기술자(descriptor)를 포함하는 특징 벡터를 추출한 후,
상기 모션 벡터에 기반한 위조 얼굴 분류를 수행하고, 상기 특징 벡터에 기반한 일반 위조 얼굴 분류를 수행하여, 위조 얼굴 여부를 판정하되,
상기 모션 벡터에 기반한 위조 얼굴 분류, 또는 상기 특징 벡터에 기반한 일반 위조 얼굴 분류 중의 하나 이상에서 위조 얼굴이라고 분류되는 경우, 최종적으로 위조 얼굴이라고 판정하고,
상기 모션 벡터에 기반한 위조 얼굴 분류 및 상기 특징 벡터에 기반한 일반 위조 얼굴 분류 모두에서 실제 얼굴이라고 분류되는 경우 개인별 위조 얼굴 분류를 추가적으로 수행하는, 컴퓨터-판독가능한 매체.A computer-readable medium storing software having instructions executable by a fake face detection device,
The executable instructions may cause the fake face detection device to detect a face landmark of an acquired image, extract a motion vector including a magnitude and direction of a movement of the detected face landmark, and extract the detected face landmark. After extracting a feature vector including a descriptor representing a geometric feature of a face landmark,
Performing fake face classification based on the motion vector and general fake face classification based on the feature vector to determine whether or not a fake face is present,
When the fake face is classified as a fake face in at least one of the fake face classification based on the motion vector and the general fake face classification based on the feature vector, finally determining that the face is a fake face;
and additionally performing fake face classification for each individual when classified as a real face in both fake face classification based on the motion vector and normal fake face classification based on the feature vector.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220142359A KR102596897B1 (en) | 2015-07-08 | 2022-10-31 | Method of motion vector and feature vector based fake face detection and apparatus for the same |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150096863A KR102462818B1 (en) | 2015-07-08 | 2015-07-08 | Method of motion vector and feature vector based fake face detection and apparatus for the same |
KR1020220142359A KR102596897B1 (en) | 2015-07-08 | 2022-10-31 | Method of motion vector and feature vector based fake face detection and apparatus for the same |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150096863A Division KR102462818B1 (en) | 2015-07-08 | 2015-07-08 | Method of motion vector and feature vector based fake face detection and apparatus for the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220150868A true KR20220150868A (en) | 2022-11-11 |
KR102596897B1 KR102596897B1 (en) | 2023-10-31 |
Family
ID=57992241
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150096863A KR102462818B1 (en) | 2015-07-08 | 2015-07-08 | Method of motion vector and feature vector based fake face detection and apparatus for the same |
KR1020220142359A KR102596897B1 (en) | 2015-07-08 | 2022-10-31 | Method of motion vector and feature vector based fake face detection and apparatus for the same |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150096863A KR102462818B1 (en) | 2015-07-08 | 2015-07-08 | Method of motion vector and feature vector based fake face detection and apparatus for the same |
Country Status (1)
Country | Link |
---|---|
KR (2) | KR102462818B1 (en) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101781361B1 (en) * | 2017-01-25 | 2017-09-26 | 대한민국 | A Method Identifying A Personnel By Comparing Face Area |
KR101877816B1 (en) * | 2017-02-20 | 2018-07-12 | 주식회사 에스원 | Composite Photograph and Video Fake Face Judgement Method by Using Single Visible Camera and System thereof |
KR102387571B1 (en) | 2017-03-27 | 2022-04-18 | 삼성전자주식회사 | Liveness test method and apparatus for |
KR102085427B1 (en) * | 2018-05-23 | 2020-03-05 | 한국과학기술원 | Method and apparatus for removal of personal identification using generative model |
KR102178952B1 (en) * | 2018-11-28 | 2020-11-13 | 이노뎁 주식회사 | method of providing object classification for compressed video by use of syntax-based MRPN-CNN |
CN111783505A (en) * | 2019-05-10 | 2020-10-16 | 北京京东尚科信息技术有限公司 | Method and device for identifying forged faces and computer-readable storage medium |
KR102463353B1 (en) | 2020-05-21 | 2022-11-07 | 경일대학교산학협력단 | Apparatus and method for detecting fake faces |
CN111783608B (en) * | 2020-06-24 | 2024-03-19 | 南京烽火星空通信发展有限公司 | Face-changing video detection method |
CN112052728B (en) * | 2020-07-30 | 2024-04-02 | 广州市标准化研究院 | Portable portrait identification anti-deception device and control method thereof |
CN112069891B (en) * | 2020-08-03 | 2023-08-18 | 武汉大学 | Deep fake face identification method based on illumination characteristics |
KR102386918B1 (en) * | 2020-10-26 | 2022-04-14 | 주식회사 에이직랜드 | Device and method for authenticating mobile user based on Artificial Intelligence |
KR102428916B1 (en) * | 2020-11-20 | 2022-08-03 | 오로라월드 주식회사 | Method And Apparatus for Classifying Emotion Based on Multi-Modal |
KR102612941B1 (en) * | 2020-12-24 | 2023-12-12 | 주식회사 유인원테크 | System of verifying digital synthesis/counterfeit face |
CN112784790B (en) * | 2021-01-29 | 2022-05-10 | 厦门大学 | Generalization false face detection method based on meta-learning |
CN112949464B (en) * | 2021-02-26 | 2021-12-14 | 中国科学院自动化研究所 | Face changing counterfeiting detection method, system and equipment based on three-dimensional shape of human face |
CN115063870B (en) * | 2022-07-08 | 2024-04-30 | 广东警官学院(广东省公安司法管理干部学院) | Fake video portrait detection method based on facial action unit |
CN115273186A (en) * | 2022-07-18 | 2022-11-01 | 中国人民警察大学 | Depth-forged face video detection method and system based on image feature fusion |
CN116071089B (en) * | 2023-02-10 | 2023-12-05 | 成都新希望金融信息有限公司 | Fraud identification method and device, electronic equipment and storage medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040048753A (en) * | 2002-12-04 | 2004-06-10 | 삼성전자주식회사 | Apparatus and method for distinguishing photograph in face recognition system |
KR20110090731A (en) * | 2010-02-04 | 2011-08-10 | 한국전자통신연구원 | Fake video detecting apparatus and method |
KR20130035849A (en) * | 2011-09-30 | 2013-04-09 | 아이포콤 주식회사 | Single image-based fake face detection |
-
2015
- 2015-07-08 KR KR1020150096863A patent/KR102462818B1/en active IP Right Grant
-
2022
- 2022-10-31 KR KR1020220142359A patent/KR102596897B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040048753A (en) * | 2002-12-04 | 2004-06-10 | 삼성전자주식회사 | Apparatus and method for distinguishing photograph in face recognition system |
KR20110090731A (en) * | 2010-02-04 | 2011-08-10 | 한국전자통신연구원 | Fake video detecting apparatus and method |
KR20130035849A (en) * | 2011-09-30 | 2013-04-09 | 아이포콤 주식회사 | Single image-based fake face detection |
Also Published As
Publication number | Publication date |
---|---|
KR102596897B1 (en) | 2023-10-31 |
KR102462818B1 (en) | 2022-11-04 |
KR20170006355A (en) | 2017-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102596897B1 (en) | Method of motion vector and feature vector based fake face detection and apparatus for the same | |
Liu et al. | Learning deep models for face anti-spoofing: Binary or auxiliary supervision | |
JP5629803B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP4743823B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
KR102147052B1 (en) | Emotional recognition system and method based on face images | |
US8027521B1 (en) | Method and system for robust human gender recognition using facial feature localization | |
JP5010905B2 (en) | Face recognition device | |
CN105740780B (en) | Method and device for detecting living human face | |
JP4951995B2 (en) | Face matching device | |
JP2017033469A (en) | Image identification method, image identification device and program | |
US20230360434A1 (en) | Facial authentication device, facial authentication method, and program recording medium | |
JP2006293644A (en) | Information processing device and information processing method | |
MX2012010602A (en) | Face recognizing apparatus, and face recognizing method. | |
JP6351243B2 (en) | Image processing apparatus and image processing method | |
WO2020195732A1 (en) | Image processing device, image processing method, and recording medium in which program is stored | |
Kose et al. | Mask spoofing in face recognition and countermeasures | |
JP5787686B2 (en) | Face recognition device and face recognition method | |
JP4507679B2 (en) | Image recognition apparatus, image extraction apparatus, image extraction method, and program | |
Shrivastava et al. | Conceptual model for proficient automated attendance system based on face recognition and gender classification using Haar-Cascade, LBPH algorithm along with LDA model | |
JP2015197708A (en) | Object identification device, object identification method, and program | |
KR20150089370A (en) | Age Cognition Method that is powerful to change of Face Pose and System thereof | |
Wasnik et al. | Presentation attack detection for smartphone based fingerphoto recognition using second order local structures | |
CN113436735A (en) | Body weight index prediction method, device and storage medium based on face structure measurement | |
Sun et al. | Dual camera based feature for face spoofing detection | |
Sharma et al. | Study and implementation of face detection algorithm using Matlab |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |